PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

pixeljetstream
2020-08-29, 11:34:53
ob die skalierung der RTX eineheiten gleich bleibt, wenn man so viele shadereineheiten verbaut?!
Hätte viel weniger SP erwartet, aber dafür 3x mehr RTX einehiten.
Wenn man sich historisch die Anzahl der GPCs (fixed function rasterizer) anguckt so hat sich das auch nicht fundamental verändert. Bei fast 10 Jahren von GF100 4 auf 6 in TU102.

unl34shed
2020-08-29, 11:37:40
Immer noch etwas kryptisch.
Es kann doch nicht sein, das der VRAM, zu so einer Hitzeentwicklung beiträgt?

Das ganze Memory Subsystem wird 60-80W verbrauchen, plus Wandler Verluste.

Emil_i_Lönneberga
2020-08-29, 12:00:59
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3080-Phoenix-Specs.jpg

https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed

- 2x 8Pin :up:
- kurze Platine :up:

Bei ~27cm der 2080Ti FE könnten es die 21cm sein.

2080Ti FE: https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-founders-edition/images/back.jpg

GW 3080/3090:

https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-Phoenix-GS-1_videocardz.jpg

https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-3080-Backplate.jpg

- Bei den dicht bestückten 21cm wäre dieses PCB als Grundlage für die ganzen Wasserkühler auch :up:, da ein komplett bedecktes PCB

https://aquacomputer.de/tl_files/aquacomputer/news_image/kryographics_fury_x.jpg

auch besser aussieht als sowas.

https://www.techpowerup.com/img/R2JHsyGd0ojruF3C.jpg

rentex
2020-08-29, 12:05:08
Das ganze Memory Subsystem wird 60-80W verbrauchen, plus Wandler Verluste.

Da fragt man sich, warum NV jetzt die VRAM Keule bei der 3090 ausgepackt hat und sich solche Probleme angelacht hat?
Dagegen bei der 3080, mit 10GB mehr als zurückhält?

Ex3cut3r
2020-08-29, 12:09:31
Na, weil Big Navi Top Dog 24GB VRAM hat.

AffenJack
2020-08-29, 12:18:30
Da fragt man sich, warum NV jetzt die VRAM Keule bei der 3090 ausgepackt hat und sich solche Probleme angelacht hat?
Dagegen bei der 3080, mit 10GB mehr als zurückhält?

Ganz oben will man AMD auf jeden Fall platt machen und genügend Ram liefern, wenn Navi 16-24GB bringt. Nur dann kann man auch weiter auf die Early Adopter hoffen, die sich BigN nichtmal anschauen, sondern gleich zur 3090 greifen. Enttäuscht man die, sind die nächstes mal deutlich kritischer. Weiter unten kann man erstmal ganz in ruhe abwarten, wie Big Navi wird und kann dann nachkorrigieren.

Je nach Konkurrenzsituation wird nämlich die Frage sein, wie schnell man die 20GB 3080 bringt. Doppelseitige Bestückung möchte man normalerweise möglichst vermeiden. Micron hat schon GDDR6X mit doppelter Kapazität für 2021 angekündigt. Falls BigN also nicht so stark wird, dürfte Nvidia es bei den 10Gb belassen und ~Mitte 2021 20Gb bringen, wenn Micron bereit ist.

Daredevil
2020-08-29, 12:19:32
Da fragt man sich, warum NV jetzt die VRAM Keule bei der 3090 ausgepackt hat und sich solche Probleme angelacht hat?
Dagegen bei der 3080, mit 10GB mehr als zurückhält?
Weil man mit 24GB 8K@60 bespielen kann und mit einer 3080 halt nur 4k, sowohl als von der Leistung, als auch dem RAM Bedarf? :)

BlacKi
2020-08-29, 12:19:54
Na, weil Big Navi Top Dog 24GB VRAM hat.
topf dog, das heißt topf dog

BTT:
die karte hat ein kurzes pcb so wie die FE modelle, aber anders als das originale 3090 pcb hat diese gainward ist die breite genauso wie bei der 3080. scheint als würde man das 3080er pcb für die 3090 nehmen. was mir auch aufgefallen ist, das man hier im bild die vrm auf der seite der slotblende nicht mitkühlt. bzw. es gibt keinen kontakt zum hauptkühler. eine baseplate wirds sicher geben.
https://cdn.wccftech.com/wp-content/uploads/2020/08/Gainward-GeForce-RTX-3090_Gainward-GeForce-RTX-3080_Phoenix-Golden-Sample-Custom-Graphics-Cards_4.jpg

Ex3cut3r
2020-08-29, 12:27:35
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-3080-Backplate.jpg

Warning. Hot Surface steht da! HAHAHAHAAHAH Genau wie bei Fermi GTX 480 damals. :D :D :D

Wasn Schrott. :facepalm:

Palpatin
2020-08-29, 12:32:10
Nein im BN Thread ist man der Meinung AMD bringt etwas was die 3090 easy zersägt und nur um 500€ kosten wird. Ganz im ernst, einfach mal rein schauen in den Thread. Da werden Luftschlößer erträumt sondergleichen. Absolut nicht zu verstehen, vor allem aufgrund der Historie von AMD.
Die selben User stapeln hier im Thread besonders tief wenn es um die Performance von Ampere geht.
Die meisten rechnen mit einer Karte zwischen 3090 und 3080 die 16gb Speicher hat, preislich hofft man auf knapp unter 1000.

r3ptil3
2020-08-29, 12:37:46
Sieht also so aus als ob auch die Customs die Airflow-Logik der FE teilweise übernehmen - gefällt mir.

Der Hitzestau unter der Grafikkarte war schon zu lange ein umbehandeltes Thema.

Ex3cut3r
2020-08-29, 12:45:56
Sieht also so aus als ob auch die Customs die Airflow-Logik der FE teilweise übernehmen - gefällt mir.

Der Hitzestau unter der Grafikkarte war schon zu lange ein umbehandeltes Thema.

Häää? Wo denn? Welche hat bisher einen Lüfter auf der Rückseite? Das die Backplate heiß wird, ist nix neues, da die meisten Hersteller Wärmeleitpads auf der Backplate verwenden.

nordic_pegasus
2020-08-29, 12:48:12
Häää? Wo denn? Welche hat bisher einen Lüfter auf der Rückseite? Das die Backplate heiß wird, ist nix neues, da die meisten Hersteller Wärmeleitpads auf der Backplate verwenden.

er meint sicherlich, dass sich warme Luft auf der Oberseite der Karte staut, weil man dank ATX die Karten ja kopfüber montiert... oben ist unten ;-)

dargo
2020-08-29, 13:00:00
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-3080-Backplate.jpg

Warning. Hot Surface steht da! HAHAHAHAAHAH Genau wie bei Fermi GTX 480 damals. :D :D :D

Wasn Schrott. :facepalm:
Naja... man muss es wirklich nicht übertreiben. Ich finde so einen Hinweis nicht verkehrt. So ist man jedenfalls zumindest rechtlich auf der sicheren Seite. Und wenn eine Backplate vernünftig implementiert ist dann ist diese auch nützlich. Du kannst die aufgenommene Wärme mit so einer großen Fläche besser an die Umgebung abgeben.

ChaosTM
2020-08-29, 13:04:20
Schon die Backplate meiner Gigabyte 7850er wurde gut warm mit der Zeit obwohl nur Zierde.

dildo4u
2020-08-29, 13:04:46
Häää? Wo denn? Welche hat bisher einen Lüfter auf der Rückseite? Das die Backplate heiß wird, ist nix neues, da die meisten Hersteller Wärmeleitpads auf der Backplate verwenden.
Die Gainward hat hinten Löcher im PCB für Airflow ich glaube das ist neu für diese Generation.

Ex3cut3r
2020-08-29, 13:05:34
Naja... man muss es wirklich nicht übertreiben. Ich finde so einen Hinweis nicht verkehrt. So ist man jedenfalls zumindest rechtlich auf der sicheren Seite. Und wenn eine Backplate vernünftig implementiert ist dann ist diese auch nützlich. Du kannst die aufgenommene Wärme mit so einer großen Fläche besser an die Umgebung abgeben.

Wurde man in vernünftigen Watt Regionen bleiben, hätte man das Problem mit der Verbrennungsgefahr aber gar nicht. :wink:

Aber naja, muss Nvidia wissen, wenn man wieder zur Lachnummer werden will.

https://youtu.be/H4dD94QMz50?t=243

Die Gainward hat hinten Löcher im PCB für Airflow ich glaube das ist neu für diese Generation.
Jap, perfekt für den Staub, damit dieser diese Verstopft.

nordic_pegasus
2020-08-29, 13:10:18
Und wenn eine Backplate vernünftig implementiert ist dann ist diese auch nützlich. Du kannst die aufgenommene Wärme mit so einer großen Fläche besser an die Umgebung abgeben.

wäre es dann nicht mal sinnvoll, die Oberfläche mindest ein wenig wie Kühlrippen zu modellieren? Diese glatten Oberflächen, oft mit Logos überlackiert, sind keine optimale Form für Konvektion.

Ich finde das Konzept des Nvidia FE Kühlers mit diesen massiven schwarzen Rippen sehr funktional. Das sollte man in der Zeit von Plastik-Abdeckungen und RGB-BlingBling echt mehr loben.

Dural
2020-08-29, 13:16:42
Rechnen? Eher träumen... laut denen ist eine 5700xt ja schon so schnell wie eine 2080ti.

Navi2 müsste 100% schneller als 5700xt sein um der nur 3090 nahe zu kommen, im selben prozess und selber architektur und schon über 200w für eine 250mm2 gpu.

Ich wünsche viel spass beim träumen.

HarryHirsch
2020-08-29, 13:22:54
Rechnen? Eher träumen... laut denen ist eine 5700xt ja schon so schnell wie eine 2080ti.

Navi2 müsste 100% schneller als 5700xt sein um der nur 3090 nahe zu kommen, im selben prozess und selber architektur und schon über 200w für eine 250mm2 gpu.

Ich wünsche viel spass beim träumen.

Link?

Langlay
2020-08-29, 13:26:05
Navi2 müsste 100% schneller als 5700xt sein um der nur 3090 nahe zu kommen, im selben prozess und selber architektur und schon über 200w für eine 250mm2 gpu.

Ich wünsche viel spass beim träumen.

Naja, so unmöglich scheint das nicht zu sein. Die neue X-Box verbraucht wohl mit 52CU @ 1.8GHz + 8 Zen2 Kernen weniger als die 5700XT (40CU @ 1.9 GHz) allein.

Und ja ich würde von BigNavi erwarten das wenn er mit 80CUs kommt so bei Navi10 + 80% liegen würde.

woodsdog
2020-08-29, 13:26:57
Rechnen? Eher träumen... laut denen ist eine 5700xt ja schon so schnell wie eine 2080ti.

Navi2 müsste 100% schneller als 5700xt sein um der nur 3090 nahe zu kommen, im selben prozess und selber architektur und schon über 200w für eine 250mm2 gpu.

Ich wünsche viel spass beim träumen.

Trollst du hier eigentlich absichtlich oder bist du einfach nur unfähig einfachste informationen welche hier schon 100 Mal gepostet worden aufzunehmen?

50% mehr Effizienz von RDNA1 auf RNDA2 laut amd + spekuliert Doppelt so viel CUs.
FFS

HOT
2020-08-29, 13:27:15
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/GA102-GPU-PCB-Neues-Bild-1357142/

lt dem PCB-Bild hat das Teil keine 24GB, da fehlt ein Modul dafür.

dargo
2020-08-29, 13:27:47
wäre es dann nicht mal sinnvoll, die Oberfläche mindest ein wenig wie Kühlrippen zu modellieren? Diese glatten Oberflächen, oft mit Logos überlackiert, sind keine optimale Form für Konvektion.

Geht nicht... dann kriegst du keinen Arbeitspeicher mehr rein oder kolidierst mit anderen Komponenten. ;) Schon mit den flachen Backplates ist der Zugang zur PCIe-Slot-Arretierung oftmals schwierig.

MiamiNice
2020-08-29, 13:28:48
Wurde man in vernünftigen Watt Regionen bleiben, hätte man das Problem mit der Verbrennungsgefahr aber gar nicht. :wink:

Aber naja, muss Nvidia wissen, wenn man wieder zur Lachnummer werden will.



Wir haben alle gecheckt der Dir der Stromverbrauch zu hart ist. Kannst Du mal einen Gang zurück schalten, pls?

Ex3cut3r
2020-08-29, 13:32:11
Wir haben alle gecheckt der Dir der Stromverbrauch zu hart ist. Kannst Du mal einen Gang zurück schalten, pls?
Wieso passt es dir nicht? Dann bleibt doch fern. Ich sags nochmal Nvidia macht jetzt einen auf AMD mit 350W Monstern und lauter/heißer Kühlung zum totlachen. :biggrin:

Und genau die Leute, die es AMD jahrelang vorgeworfen haben, ist es auf einmal egal. :confused: Ist klar.

Emil_i_Lönneberga
2020-08-29, 13:33:02
Link?

Ich denke, die 70 liegt relativ nah an ner 2080Ti, oder genau dort wo N10 unter Wasser liegt - duck und weg

;D:facepalm:

Ravenhearth
2020-08-29, 13:36:20
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/GA102-GPU-PCB-Neues-Bild-1357142/

lt dem PCB-Bild hat das Teil keine 24GB, da fehlt ein Modul dafür.
Der zwölfte müsste unterhalb der GPU sein, das haben frühere PCB-Bilder so gezeigt. Da ist auf jeden Fall ein dunkles Viereck, das von der Größe passt. Vielleicht ist das Bild einfach so schlecht, dass man es nicht richtig als Speicherchip erkennt.

TheAntitheist
2020-08-29, 13:39:55
Der Fehler bei dir ist, ich habe es mit 2 RTX Titans SLI on und alles max gespielt damit hatte ich 60-95 FPS dadurch verbraucht man auch deutlich mehr vram als wenn man eine 1080ti benutzt die auf 30-40 fps rumdümpelt. Das max, was ich auf dem Tacho hatte, war 13,8 vram (wird schon knapp mit AMD BN :-) )


Du musst dir einfach nur mal ein YouTube Video anschauen, wo einer sli benutzt da wirst du sehen, dass das Game direkt bevor es fertig geladen hat schon auf 10-11 vram hoch geht.

Selbst nach einer Windows neu Installation hat sich nichts dran verändert

https://www.youtube.com/watch?v=ti-PZhzaF1Y
Dein Fehler ist erstens SLI, zweitens kann das Spiel doch soviel Daten in den VRAM laden wie es will... das heißt nicht das es soviel brauch.

gedi
2020-08-29, 13:44:12
@ Emil

Mit 2.23G liege ich immer über ner 2080s und relativ nah (15%) an einer Ti. In F1 2020 habe ich exakt die gleiche Performance unter 4K. Aber wenn man keine Ahnung hat...

fondness
2020-08-29, 13:47:49
Wenn die 34,5 Mrd. Transistoren und die 7nm stimmen, dann hätte GA102 mit 55mio/mm² eine geringere Dichte als GA100. Weist das eher auf einen 7nm Prozess von Samsung für GA102 hin, oder ist bei den gaming Chips von einer geringeren Dichte auszugehen?

GA100 verwendet höchstwahrscheinlich den LP Prozess, der sich deutlich besser packen lässt aber eben auch deutlich schlechter takten. Deshalb nicht vergleichbar.

https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3080-Phoenix-Specs.jpg

Damit ist 7nm also wohl endgültig bestätigt. Bleibt nur noch die Frage nach der Foundry.
Auch die anderen Specs sind damit wohl fix. Die 3080 boostet also tatsächlich etwas höher, hat aber dafür auch satte 320W TDP. Auch die 350W der 3090 sind damit fix. Ich bin gespannt auf die Leistung.

Hakim
2020-08-29, 13:59:36
Irgendwie habe ich noch die Hoffnung das die Karten unter normalen Bedienungen deutlich weniger schlucken, und dadurch das massive mehr RT Cores verbaut sind, die z.B 320W sich auf ein Szenario bezieht wo die Karte samt allen zusätzlichen Cores ausgelastet wird, dennoch sehr hoch.

Ex3cut3r
2020-08-29, 14:02:42
@ Emil

Mit 2.23G liege ich immer über ner 2080s und relativ nah (15%) an einer Ti. In F1 2020 habe ich exakt die gleiche Performance unter 4K. Aber wenn man keine Ahnung hat...
Du bist aber auch so der einzige den ich kenne, der auf eine 350€ Karte eine Wasserkühlung schnallt.

r3ptil3
2020-08-29, 14:21:03
Irgendwie habe ich noch die Hoffnung das die Karten unter normalen Bedienungen deutlich weniger schlucken, und dadurch das massive mehr RT Cores verbaut sind, die z.B 320W sich auf ein Szenario bezieht wo die Karte samt allen zusätzlichen Cores ausgelastet wird, dennoch sehr hoch.

Da würde ich mir gar keinen Kopf drüber machen.

Wenn man eine sparsame Karte will, holt man sich einfach eine RTX 3070 und undervolted diese bestenfalls ohne Performanceverlust- bin mir sicher, dass die dann keine 200W ziehen wird.

Bei keinen finanziellen Grenzen, dann gleich eine hochwertigeren Chip der 3090 Serie holen und bspw. den Powerlimit auf 50% setzen und man hat vermutlich 2080 Super Leistung bei unter 150 Watt.

Meine MSI Gaming X 5700 @ 80 Watt bringt schon eine beachtliche Leistung, im Verhältnis zum Verbrauch deutlich mehr als auf default.

BoMbY
2020-08-29, 14:22:58
Navi2 müsste 100% schneller als 5700xt sein um der nur 3090 nahe zu kommen, im selben prozess und selber architektur und schon über 200w für eine 250mm2 gpu.


Etwa +50% Performance/Pro Watt ist die offizielle Aussage. Beim Verbrauch der großen Navi2 erwartet man etwas um den Verbrauch der RTX 3090. Do the math.

Navi10 225W TDP baseline. Navi21 vermutlich 375W TDP, also 166.66% einer Navi10 dazu +50% Performance pro Watt, also theoretisch bis zu 250% Leistung einer RX 5700 XT, also dürfte im Schnitt wenigstens effektiv das Doppelte rauskommen.

gedi
2020-08-29, 14:24:17
Du bist aber auch so der einzige den ich kenne, der auf eine 350€ Karte eine Wasserkühlung schnallt.

Da der Kühler der Strix meh ist, blieb nix anderes. Zudem habe ich 2 Kühlkreisläufe, einer für CPU und Mobo und einen für die GPU

Ex3cut3r
2020-08-29, 14:26:56
Da der Kühler der Strix meh ist, blieb nix anderes. Zudem habe ich 2 Kühlkreisläufe, einer für CPU und Mobo und einen für die GPU

War ja auch kein Vorwurf. Aber das erklärt deine hohen Taktraten.

Ravenhearth
2020-08-29, 14:30:49
Etwa +50% Performance/Pro Watt ist die offizielle Aussage. Beim Verbrauch der großen Navi2 erwartet man etwas um den Verbrauch der RTX 3090. Do the math.

Navi10 225W TDP baseline. Navi21 vermutlich 375W TDP, also 166.66% einer Navi10 dazu +50% Performance pro Watt, also theoretisch bis zu 250% Leistung einer RX 5700 XT, also dürfte im Schnitt wenigstens effektiv das Doppelte rauskommen.
Beim doppelten bei 375W wäre man aber nur noch bei +20% Perf/W. Ich erwarte schon das Doppelte bei 300W. Dass man auf den gleichen Verbrauch wie bei Ampere geht, bezweifle ich.

Slipknot79
2020-08-29, 14:33:18
Weiß ned wo das Problem ist mit hot surface, nen Lambo ballert auch Flammen aus dem Endrohr, von daher alles qool in da hood. (y)

basix
2020-08-29, 14:40:39
Mir ist eigentlich egal ob AMD oder Nvidia vorne liegt. Ich hoffe eher, dass beide gleich auf liegen ;) Nvidia mit +60-70% Performance vgl. mit einer 2080 Ti bei 320-350W und BN 2.5x so schnell wie eine 5700XT bei 300-350W. Beide mit 16, 24 oder gar 32 GByte. Lieber das ganze noch bei jeweils 250W aber ich glaube das wird nichts.

hq-hq
2020-08-29, 14:42:05
@ Emil

Mit 2.23G liege ich immer über ner 2080s und relativ nah (15%) an einer Ti. In F1 2020 habe ich exakt die gleiche Performance unter 4K. Aber wenn man keine Ahnung hat...

zuerst muss eine 5700xt an einer Radeon VII und einer 1080Ti vorbeiziehen und die dürfen in so einem Vergleich bewässert, auch übertaktet und das Powerlimit gegen Unlimitiert gedreht werden.
- kurz mal bei PCGH gespickt, unter 4k ist das nicht nachvollziehbar, IMHO braucht die 5700XT 2,2GHz um mit einer 1080Ti Strix gleichzuziehen. https://www.pcgameshardware.de/F1-2020-Spiel-72654/Specials/Benchmark-Test-Review-Release-Steam-1353378/

und wenn die 3080 u. 3090 tatsächlich mit relativ handzahmen Taktraten aufschlagen darf mit Wasser und höherem Powerlimit noch mit halbwegs guten OC Potential zu rechnen sein

Thunder99
2020-08-29, 15:14:27
Bei 400-500W ;D viel Spaß beim OC.

Die 350W sind eine Hausnummer, wo ich tiefgreifende Analysen erwarte warum und wieso. Für mich zu viel aber eventuell ja berechtigt als Kompromiss für die Leistung.

aufkrawall
2020-08-29, 15:22:39
OC unter Luft dürfte man damit jedenfalls komplett vergessen können, genau so wie sich die Customs dann kaum absetzen können sollten. Die Boardpartner dürften Ampere wirklich hassen. :D
Auch wirds keine Mobile-Ableger geben können, ohne massiv zu die Leistung zu reduzieren. Da Notebooks extrem wichtig für den PC-Markt sind, ist das für die Plattform als solche auch nicht so prickelnd.
Jeder "normale" Mensch wird mit einer PS5 besser bedient sein.

Linmoum
2020-08-29, 15:32:05
Wobei der Speicher als Heizer und Verbrauchstreiber in der Form dafür wegfallen wird.

aufkrawall
2020-08-29, 15:36:08
Wobei der Speicher als Heizer und Verbrauchstreiber in der Form dafür wegfallen wird.
Wie meinen?

Linmoum
2020-08-29, 15:41:06
Dass Notebooks keinen saufenden GDDR6X bekommen werden. Scheint ja auch nur für GA102 Verwendung zu finden und bereits die 3070 bekommt wieder GDDR6. Alleine das drückt den Verbrauch ein gutes Stück nach unten.

aufkrawall
2020-08-29, 15:45:41
Ok, aber von welchem Niveau?
Wenn die Desktop 3070 FE immer noch ~250W zieht, wär das immer noch abnorm hoch für einen 104er-Chip.

Thunder99
2020-08-29, 15:46:27
Ist Ampere seiner Zeit voraus?

Thunder99
2020-08-29, 15:46:56
Ok, aber von welchem Niveau?
Wenn die Desktop 3070 FE immer noch ~250W zieht, wär das immer noch abnorm hoch für einen 104er-Chip.
Hat die 2080S auch gehabt, leider...

Flusher
2020-08-29, 15:47:26
Was meint ihr warum die Karten auch erst Ende Sommer vorgestellt werden. Nvidia sorgt dafür, dass wir es im Winter schön mollig warm haben :biggrin:

dildo4u
2020-08-29, 15:47:48
Ok, aber von welchem Niveau?
Wenn die Desktop 3070 FE immer noch ~250W zieht, wär das immer noch abnorm hoch für einen 104er-Chip.
Kommt halt drauf an wie viel RTX in zukünftigen Games genutzt wird wenn sie dort runden um Turing dreht ist der Verbrauch wieder relativiert.

Thunder99
2020-08-29, 15:50:11
Finde ich nicht, da der Preis zu hoch ist.

Zumindest in Zeiten des Energiewandels erwarte ich eine Abnahme und nicht Zunahme des Energie Bedarfs.

Linmoum
2020-08-29, 15:54:21
Ok, aber von welchem Niveau?
Wenn die Desktop 3070 FE immer noch ~250W zieht, wär das immer noch abnorm hoch für einen 104er-Chip.Die 3070 soll bei 220W TGP liegen, also ungefähr 2080-Niveau.

Kommt halt drauf an wie viel RTX in zukünftigen Games genutzt wird wenn sie dort runden um Turing dreht ist der Verbrauch wieder relativiert.Da ist gar nichts relativiert. Hoher Verbrauch bleibt hoher Verbrauch. Zumal aufkrawall von Mobile sprach.

Brillus
2020-08-29, 16:30:19
Na, weil Big Navi Top Dog 24GB VRAM hat.

Hast du dafür eine Quelle ich hab bis jetzt immer nur 12 und 16 gelesen?

mironicus
2020-08-29, 16:30:25
Falscher Thread. Kann gelöscht werden.

Dorn
2020-08-29, 16:44:00
Die 3070 soll bei 220W TGP liegen, also ungefähr 2080-Niveau.
Wo soll das nur hinführen? Für was wird eigentlich geforscht, Mehr Strom = mehr Leistung kann jeder. :smile:

fondness
2020-08-29, 16:48:39
Angesichts der nun bestätigten 7nm und des damit einhergehenden mehr als fullnode Shrinks wundert mich der Verbrauch auch etwas.

dargo
2020-08-29, 16:51:37
Wo soll das nur hinführen? Für was wird eigentlich geforscht, Mehr Strom = mehr Leistung kann jeder. :smile:
Naja... so einfach ist es nun auch nicht, ansonsten hätten wir mehr als nur zwei Bigplayer. ;) Selbst Intel tut sich noch schwer.

Piefkee
2020-08-29, 16:52:37
Angesichts der nun bestätigten 7nm und des damit einhergehenden mehr als fullnode Shrinks wundert mich der Verbrauch auch etwas.

Ich würde so lachen wenn Jenson uns 8nm Samsung als „7nm Class“ verkauft 😂 ist ja eh alles Marketing

Linmoum
2020-08-29, 16:52:38
Angesichts der nun bestätigten 7nm und des damit einhergehenden mehr als fullnode Shrinks wundert mich der Verbrauch auch etwas.Dafür wird es natürlich irresponsible amounts of Performance Gigarays geben.

WedgeAntilles
2020-08-29, 16:53:31
Angesichts der nun bestätigten 7nm und des damit einhergehenden mehr als fullnode Shrinks wundert mich der Verbrauch auch etwas.
Sicher sind die 7nm doch noch nicht, oder?
Laut dem Leak wäre das so, aber offiziell bestätigt ist das afaik noch nicht.

Und zum Verbrauch kann man auch erst wirklich was sagen, wenn man die genaue Performance kennt.
Ist das Performanceplus 60% und der Stromverbrauch +30% wäre das ja z.B. nicht so mies.
Natürlich nicht phantastisch, aber auch kein Reinfall.
Mit untertakten kame man dann - wenn man es denn will - auf vielleicht 30-40% Mehrperformance bei vielleicht 10% mehr Verbrauch.

Und wer weiß, vielleicht sind wir halt auch einfach inzwischen in Größenregionen, bei denen der Stromverbrauch überproportional ansteigt.
Dann wäre auch bei BigNavi der Stromverbrauch höher als man denkt.
Wer von uns kann denn seriös einschätzen, was bei den immer extremer werdenden Fertigungen noch für exakte physikalische Gegebenheiten sind?

Linmoum
2020-08-29, 16:55:02
Ist das Performanceplus 60% und der Stromverbrauch +30% wäre das ja z.B. nicht so mies.
Natürlich nicht phantastisch, aber auch kein Reinfall.
Ähm, doch. Von 16nm (ja, nicht der 12nm-Marekting-Quatsch) kommend wäre das ziemlich mies.

dildo4u
2020-08-29, 16:56:09
Das kann doch nix anderes als 7nm sein die XBox hat bei 360 mm² nur 15 Milliarden Transistoren, Ampere 34 bei ~ 600mm².

Akkarin
2020-08-29, 17:02:08
Wofür gehen bei nVidia die Transistoren drauf ? Man hat ja kaum mehr SMs. Aufgeblähte Tensor/RT cores ? double FP32 ? Allgemeine Kontrollogic & Caches ?

Linmoum
2020-08-29, 17:02:42
Das kann doch nix anderes als 7nm sein die XBox hat bei 360 mm² nur 15 Milliarden Transistoren, Ampere 34 bei ~ 600mm².Das kann rein theoretisch auch Samsung sein, 34.5 Mrd. Transistoren wären ~55 Mio/mm².

https://fuse.wikichip.org/wp-content/uploads/2018/06/samsung-density-14nm-10nm-8nm.png
https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/

Ravenhearth
2020-08-29, 17:08:11
Die wahrscheinlichste Erklärung wie die 3090 mit nur 21% mehr Shader bis zu 60% schneller als 2080 Ti sein kann, sind in meinen Augen auch die Tensor Cores 3.0. Bei GA100 unterstützen die schon TF32 und FP64, da wärs jetzt nicht undenkbar, dass die bei Gaming Ampere noch einen FP32-Modus bekommen haben und den normalen Shadern bei bestimmten Berechnungen unter die Arme greifen. Die Tensor Cores 3.0 sind bei GA100 ja ohnehin deutlich mächtiger. Da geht ein großer Teil der Transistoren hin, und ein anderer geht vermutlich ins RT.

Piefkee
2020-08-29, 17:08:48
Das kann doch nix anderes als 7nm sein die XBox hat bei 360 mm² nur 15 Milliarden Transistoren, Ampere 34 bei ~ 600mm².

Der Vergleich ist bissl irreführend. XBOX hat ja das ganze IO zeugs drauf

fondness
2020-08-29, 17:09:11
Sicher sind die 7nm doch noch nicht, oder?
Laut dem Leak wäre das so, aber offiziell bestätigt ist das afaik noch nicht.


Naja, sofern die Folien nicht gefakted sind sollten die 7nm fix sein. Und ein fake erscheint mir unrealistisch, es ist schließlich auch die neue Karte abgebildet.

WedgeAntilles
2020-08-29, 17:09:21
Ähm, doch. Von 16nm (ja, nicht der 12nm-Marekting-Quatsch) kommend wäre das ziemlich mies.

Naja, dazu deutlich besseres RT + DLSS.
Finde ich jetzt nicht so katastrophal.

Und wenn es doch tatsächlich so katastophal schlecht ist, müsste AMD ja locker an Nvidia rankommen oder sogar überholen.
Wäre dann wenigstens wieder ein echter Konkurrenzkampf, gibt ja für den Verbraucher auch Schlimmeres.

WedgeAntilles
2020-08-29, 17:10:19
Naja, sofern die Folien nicht gefakted sind sollten die 7nm fix sein. Und ein fake erscheint mir viel zu aufwändig, es ist schließlich auch die neue Karte abgebildet.
Mein Fehler, die Folien hatte ich nicht gesehen.
Dachte du beziehst dich auf den gestrigen Leak, bei denen der Leaker sagt, seine Quelle spreche von 7nm.

Troyan
2020-08-29, 17:11:30
Da Notebooks extrem wichtig für den PC-Markt sind, ist das für die Plattform als solche auch nicht so prickelnd.
Jeder "normale" Mensch wird mit einer PS5 besser bedient sein.

TDP ist 150W bzw. <=110W für Max-Q. Da ist viel Luft nach unten für GA104, der auch noch kleiner als TU104 ist.

Wofür gehen bei nVidia die Transistoren drauf ? Man hat ja kaum mehr SMs. Aufgeblähte Tensor/RT cores ? double FP32 ? Allgemeine Kontrollogic & Caches ?

Wenn man raten müsste: TensorCores können vollwertiges FP32 (analog zu FP64 bei A100). Bei A100 hat man ein 1:2 Verhältnis zwischen FP64 und TCFP64. Compiler und Scheduler können automatisch SGEMM (Matrixen) an die TensorCore leiten und somit irgendwelche Leistungssteigerung von 0 bis 100% erreichen.
RT Cores ist klar. Wahrscheinlich werden die Cores für mehr Möglichkeiten erweitert. Vielleicht ändert nVidia die komplette Pipeline der GPU und "emuliert" nur noch Rasterizing.

mboeller
2020-08-29, 17:21:44
Dafür wird es natürlich irresponsible amounts of Performance Gigarays geben.

Bin auch gespannt. Von BigNavi erwarte ich so 150 Gigarays, basierend auf den Werten der XBoxsX

Sweepi
2020-08-29, 17:39:23
7nm kommt für mich jetzt sehr überraschend. Vll Samsung 7nm UL aka 7nm Ultra large aka wir wollten 8nm nochmal umbenennen aka Samsung 10nm+.

Es würde natürlich immer Sinn machen AM102 in 7nm zu produzieren und mehr Geld dafür zu verlangen. Allerdings ist der kolportierte Sprung dafür meines Erachtens zu gering, selbst für Samsung 7nm.

RLZ
2020-08-29, 17:48:22
Vielleicht ändert nVidia die komplette Pipeline der GPU und "emuliert" nur noch Rasterizing.
Bin auch gespannt. Von BigNavi erwarte ich so 150 Gigarays, basierend auf den Werten der XBoxsX
:freak:

Langsam nimmt das hier absurde Züge an.

Slipknot79
2020-08-29, 17:54:14
Die Karte ist erst zu heiß, wenn Lederjacke gezwungen ist seinen Fetzen abzulegen. :redface:

hq-hq
2020-08-29, 18:08:33
Bei 400-500W ;D viel Spaß beim OC.

Die 350W sind eine Hausnummer, wo ich tiefgreifende Analysen erwarte warum und wieso. Für mich zu viel aber eventuell ja berechtigt als Kompromiss für die Leistung.


400-450Watt für die ganze Karte sehe ich erstmal kein Problem, kann natürlich Hotspots geben in der GPU die auch mit Wasser problematisch bleiben. Die alte 2080ti wird bei ca. 400watt board power bis zu 48°c warm im Sommer. Eine 2080TI braucht ja ohne VCore Erhöhung in 4k bei moderaten 2GHz auch schon 320-400 Watt. Vorstellbar das eine völlig frei atmende 3090 450-500 watt zieht, vermutlich wird es sowas nicht geben können.

pixeljetstream
2020-08-29, 18:08:37
Langsam nimmt das hier absurde Züge an.
Langsam ?!? Bei knapp 400 Seiten die sich vermutlich auf 10 sinnvolle kürzen ließen :)

mboeller
2020-08-29, 18:10:17
:freak:

Langsam nimmt das hier absurde Züge an.

warum?

Turing:


All told, NVIDIA claims that the fastest Turing parts, based on the TU102 GPU, can handle upwards of 10 billion ray intersections per second (10 GigaRays/second), ten-times what Pascal can do if it follows the same process using its shaders.


Link: https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/3

XBoxsX:

95 G/sec ray-tri peak, bzw. 380 G /sec Ray-box peak

Link: https://images.anandtech.com/doci/15994/202008180228051.jpg

und BigNavi sollte "ein wenig" schneller sein als die XBoxsX mit ihren 80CU anstelle von nur 52CU + etwas mehr mehr Mhz

da BigNavi/XBox/PS5 mehr Arbeit in den Shadern erledigen müssen wird das in Realität aber wieder ein wenig anders aussehen.

Zergra
2020-08-29, 18:15:18
Wurde schon mehrmals gesagt das man die Zahlen von Rt nicht vergleichen kann.

RLZ
2020-08-29, 18:22:31
warum?
Weil es Quatsch ist. Einen Strahl bekommst du in praktischen Szenen nicht mit einer Intersection berechnet.
Die Nvidia Gigaray/s Angabe bezieht sich auch auf kein theoretisches Maximum.

gedi
2020-08-29, 18:23:10
zuerst muss eine 5700xt an einer Radeon VII und einer 1080Ti vorbeiziehen und die dürfen in so einem Vergleich bewässert, auch übertaktet und das Powerlimit gegen Unlimitiert gedreht werden.
- kurz mal bei PCGH gespickt, unter 4k ist das nicht nachvollziehbar, IMHO braucht die 5700XT 2,2GHz um mit einer 1080Ti Strix gleichzuziehen. https://www.pcgameshardware.de/F1-2020-Spiel-72654/Specials/Benchmark-Test-Review-Release-Steam-1353378/

und wenn die 3080 u. 3090 tatsächlich mit relativ handzahmen Taktraten aufschlagen darf mit Wasser und höherem Powerlimit noch mit halbwegs guten OC Potential zu rechnen sein

Ne 1080Ti ist in LL-APIs nicht schneller als ne XT. Zudem ist der VRAM hier auch auf 1.95G übertaktet. Außerdem liegen die 2.23G hier immer an +\- 10 MHz. Eingestellt sind 2.3G bei 1.218V.

Klar weiß ich, dass n10XT chancenlos gegen ne 3070 sein wird, trotzdem sorry: Die Preise welche da abgerufen werden, gehen imo nicht mehr. Und Fake 4K via DLSS - meh. Wenn RDNA2 ähnlich performen sollte, wüßte ich keinen Grund, warum AMD die GPUs preislich weit unter Ampere ansiedeln sollte.

Troyan
2020-08-29, 18:26:17
:freak:

Langsam nimmt das hier absurde Züge an.

Nun, sollten die 34,5 Mrd. Transistoren stimmen, wozu der Aufwand? Das sind 15,8 Mrd. mehr (im Grunde ein ganzer TU102 in Bezug auf Recheneinheiten, Fixed-Function Einheiten und L2 Cache).

Schaut man sich TU102 im Vergleich zu GP102 an, wurden mit zusätzlichen 7 Mrd. folgende Sachen umgesetzt:
1,2x mehr ComputeUnits
Erhebliche Überarbeitung der ComputeUnits
2x TensorCores pro SM und 1x RT Core pro TPC
Trennung von FP + INT Einheiten
2x L2 Cache
Ausbau der Featureliste
Verbesserung Async Compute

So, stimmt die Transistoranzahl, muss einiges an Ampere gemacht worden sein.

RLZ
2020-08-29, 18:29:37
So, stimmt die Transistoranzahl, muss einiges an Ampere gemacht worden sein.
Sicherlich. Werden wir dann auch später dieses Jahr sehen. Aber niemand wird mittelfristig anfangen die FF Rasterizer rauszuwerfen. Das wäre extremst ineffizient.

aufkrawall
2020-08-29, 18:36:00
TDP ist 150W bzw. <=110W für Max-Q. Da ist viel Luft nach unten für GA104, der auch noch kleiner als TU104 ist.

Nvidia wird trotzdem nicht ohne Grund diese abnormen TDPs bei den Desktop-Karten fahren. Es ist unsinnig anzunehmen, dass das spurlos an den NB-Modellen vorübergehen wird.

pixeljetstream
2020-08-29, 18:42:02
Sicherlich. Werden wir dann auch später dieses Jahr sehen. Aber niemand wird mittelfristig anfangen die FF Rasterizer rauszuwerfen. Das wäre extremst ineffizient.
+1 die haben soviel Jahre Optimierung schon hinter sich. Erstmal müssen Jahre vergehen dass die Mehrheit der engines davon nicht mehr profitieren, bis man sowas zurückfährt oder ausbaut. Zum Glück hat das ganze sinnfreie Rätseln hoffentlich bald ein Ende. Eigentlich sollte man meinen dass die Theorien realistischer werden je mehr sich die Leute mit der Materie beschaffen, aber leider schaffen wir es nicht das Niveau anzuziehen.

mboeller
2020-08-29, 18:48:28
+1 die haben soviel Jahre Optimierung schon hinter sich. Erstmal müssen Jahre vergehen dass die Mehrheit der engines davon nicht mehr profitieren, bis man sowas zurückfährt oder ausbaut. Zum Glück hat das ganze hoffentlich bald ein Ende. Eigentlich sollte man meinen dass die Theorien realistischer werden je mehr sich die Leute mit der Materie beschaffen, aber leider zieht das Niveau nicht an.

Das ist aber IMHO kein Wunder. Ich befasse mich damit vielleicht für 2-3 Stunden in der Woche, du bestimmt 60? Ich muss mich mit oberflächlichem Marketing-Material zufrieden geben (bei RT findet man zB. wirklich sehr wenige verständliche PDF, und die Mathe dahinter ist nicht von schlechten Eltern, zu viel damit ich mich mal in meiner Freizeit damit befasse) und du hast Einblick in die ganzen technischen Hintergründe.

Ergo, von deiner Warte aus wird der Abstand eher immer größer als kleiner werden. Geht halt auch nicht anders... du gehst auch in den nächsten Jahren immer weiter in die Tiefe und ich bleibe notgedrungen an der Oberfläche.

Ex3cut3r
2020-08-29, 18:52:34
Ich habe nix gegen Nvidia oder Ampere. Einzig die Stromaufnahme stört mich und die Preise, das ist alles warum ich Häme freien lauf lasse. Das das einen Mitarbeiter von Nvidia nicht gerne sieht, verständlich, aber ich mache auch nicht diese wahnsinnigen Preise. Ich dachte wegen Corona das allgemein das Geld nicht so locker wie sonst sitzt und man zumindest erstmal auf AMD wartet, damit es vlt. einen Preissturz gibt. Aber da lag ich wohl falsch. So ist das Leben, notfalls bleibe ich auf meiner 2080 erstmal sitzen, und hole mir dann etwas in einem Jahr von AMD für 350€ mit hoffentlich mindestens 12GB VRAM. Gott sei Dank, haben wir noch AMD.

AffenJack
2020-08-29, 18:52:48
Nun, sollten die 34,5 Mrd. Transistoren stimmen, wozu der Aufwand? Das sind 15,8 Mrd. mehr (im Grunde ein ganzer TU102 in Bezug auf Recheneinheiten, Fixed-Function Einheiten und L2 Cache).


Guckt man sich die Cudacorezahl an, den Takt und die angeblichen Perf. Werte bleibt eigentlich nur übrig, dass man wirklich die FP32 Units verdoppelt hat. Gerade kann man FP32+Int32 gleichzeitig. Ampere dann FP32+Int32 oder 2xFP32. Das ist die einzige Speku die den Transistoraufwand, Cuda Cores und spekulierte Performance halbwegs unter ein Dach bringt.

Nvidia wird trotzdem nicht ohne Grund diese abnormen TDPs bei den Desktop-Karten fahren. Es ist unsinnig anzunehmen, dass das spurlos an den NB-Modellen vorübergehen wird.
Wenn die 3070 220W TDP hat, hast du keinerlei Probleme daraus Notebooks zu basteln. Nur der Abstand zu den Topmodellen im Desktop wird wieder größer.

rentex
2020-08-29, 19:01:40
Ich habe nix gegen Nvidia oder Ampere. Einzig die Stromaufnahme stört mich und die Preise, das ist alles warum ich Häme freien lauf lasse. Das das einen Mitarbeiter von Nvidia nicht gerne sieht, verständlich, aber ich mache auch nicht diese wahnsinnigen Preise. Ich dachte wegen Corona das allgemein das Geld nicht so locker wie sonst sitzt und man zumindest erstmal auf AMD wartet, damit es vlt. einen Preissturz gibt. Aber da lag ich wohl falsch. So ist das Leben, notfalls bleibe ich auf meiner 2080 erstmal sitzen, und hole mir dann etwas in einem Jahr von AMD für 350€ mit hoffentlich mindestens 12GB VRAM. Gott sei Dank, haben wir noch AMD.

:up:

RLZ
2020-08-29, 19:01:41
bei RT findet man zB. wirklich sehr wenige verständliche PDF, und die Mathe dahinter ist nicht von schlechten Eltern, zu viel damit ich mich mal in meiner Freizeit damit befasse
Eigentlich braucht man fast keine Mathe um die Grundprinzipien zu verstehen. Besonders Beschleunigerstrukturen und Traversal sind bis zu einem gewissen Punkt sehr anschaulich.

Troyan
2020-08-29, 19:07:07
Nvidia wird trotzdem nicht ohne Grund diese abnormen TDPs bei den Desktop-Karten fahren. Es ist unsinnig anzunehmen, dass das spurlos an den NB-Modellen vorübergehen wird.

Das hat nVidia bei Turing auch nicht gestört: https://youtu.be/yGH1ZQchnyM?t=956

Und eine 3070 mit 220W auf 2080TI Niveau wäre im Notebook auch 20-30% schneller als eine 2080 (super).

pixeljetstream
2020-08-29, 19:19:45
Das ist aber IMHO kein Wunder. Ich befasse mich damit vielleicht für 2-3 Stunden in der Woche, du bestimmt 60? Ich muss mich mit oberflächlichem Marketing-Material zufrieden geben (bei RT findet man zB. wirklich sehr wenige verständliche PDF, und die Mathe dahinter ist nicht von schlechten Eltern, zu viel damit ich mich mal in meiner Freizeit damit befasse) und du hast Einblick in die ganzen technischen Hintergründe.

Ergo, von deiner Warte aus wird der Abstand eher immer größer als kleiner werden. Geht halt auch nicht anders... du gehst auch in den nächsten Jahren immer weiter in die Tiefe und ich bleibe notgedrungen an der Oberfläche.
Ja stimmt und es gibt definitiv zu wenig Material das über Marketing slide und unter siggraph paper liegt. Es ist nicht so dass mir das paper lesen leicht fällt. Mir geht es eher um allgemeine Einschätzungen wie den Ausbau einer Raster Pipeline die über die Jahre gereift ist, und nach wie vor dominiert, das macht man nicht mal so. Dabei geht es IMO nicht so sehr um Details, aber du hast recht das meine Perspektive was Details sind und was nicht auch schon anders ist.

Edit2: der vorherige Text hier sollte nicht den Eindruck erzeugen, dass es um die Einschränkung von Kritik geht. Sondern die technische Plausibilität der Spekulation.

hq-hq
2020-08-29, 19:20:48
Ne 1080Ti ist in LL-APIs nicht schneller als ne XT. Zudem ist der VRAM hier auch auf 1.95G übertaktet. Außerdem liegen die 2.23G hier immer an +\- 10 MHz. Eingestellt sind 2.3G bei 1.218V.



ich sehe nicht was du meinst (4k z.B.
https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Grafikkarten-Benchmarks-Test-1295585/2/
https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Ultra-Nightmare-Tuning-Tipps-Benchmarks-1345721/
-> IMHO kommt eine 2.2GHz 5700XT nicht an einer gut übertakteten Radeon VII oder 1080Ti vorbei)


die Preise werden sicherlich brutal, warte auf BN und kaufe dann evtl. eine gebrauchte 3090 oder BN
- und die 3080 wird sich wohl Zeit lassen bis sie mit 20GB auftaucht

Der_Korken
2020-08-29, 19:22:50
Die wahrscheinlichste Erklärung wie die 3090 mit nur 21% mehr Shader bis zu 60% schneller als 2080 Ti sein kann, sind in meinen Augen auch die Tensor Cores 3.0. Bei GA100 unterstützen die schon TF32 und FP64, da wärs jetzt nicht undenkbar, dass die bei Gaming Ampere noch einen FP32-Modus bekommen haben und den normalen Shadern bei bestimmten Berechnungen unter die Arme greifen. Die Tensor Cores 3.0 sind bei GA100 ja ohnehin deutlich mächtiger. Da geht ein großer Teil der Transistoren hin, und ein anderer geht vermutlich ins RT.

Das könnte auch andere Gründe haben. Es wird gerne vergessen, dass Turing pro SM nicht nur 64xFP sondern auch 64xINT kann. Dazu die Aussage von Nvidia damals, das auf 100 FP-Ops (in Spielecode?) 36 INT-Ops kommen im Schnitt. Theoretisch könnte Turing damit 36% mehr ALU-Durchsatz erreichen, zusätzlich zu anderen Optimierungen (doppelte Registerzahl und L1$ pro ALU). Davon haben wir bei Turing vs Pascal nicht so viel gesehen und eventuell setzt Ampere genau hier an. RDNA hat außerdem auch die Auslastungen der ALUs wesentlich erhöht - zwar mit viel Transistoraufwand wenn man N10 mit P10 vergleicht, aber möglich ist das schon. Sowas könnte Ampere also auch haben. Da müssen nicht gleich irgendwelche Tensor-Cores involviert sein (können die nicht nur Matrixoperationen oder bin ich gerade total auf dem Holzweg? Dadurch sind die für allgemeine Berechnungen doch eh ziemlich unbrauchbar?).

crux2005
2020-08-29, 19:32:21
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/GA102-GPU-PCB-Neues-Bild-1357142/

lt dem PCB-Bild hat das Teil keine 24GB, da fehlt ein Modul dafür.

11 auf der Frontseite und 13 auf der Rückseite?

Whoa!

Ich sehe nur 11x GDDR6X BGAs auf der Frontseite?!

Troyan
2020-08-29, 19:35:32
TC berechnen Matrizen. Keine Ahnung, wie hoch der Anteil an SGEMM in Spielen ist. Bei A100 mappt nVidia die Matrizen automatisch auf die TC bei FP64 und FP32 (TF32), wenn die entsprechenden Bibliotheken verwendet werden. Gibt ein Blogpost bei nVidia, wo die Einbindung der TC in Fortran beschrieben wird: https://developer.nvidia.com/blog/bringing-tensor-cores-to-standard-fortran/

gedi
2020-08-29, 19:53:44
ich sehe nicht was du meinst (4k z.B.
https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Grafikkarten-Benchmarks-Test-1295585/2/
https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Ultra-Nightmare-Tuning-Tipps-Benchmarks-1345721/
-> IMHO kommt eine 2.2GHz 5700XT nicht an einer gut übertakteten Radeon VII oder 1080Ti vorbei)


die Preise werden sicherlich brutal, warte auf BN und kaufe dann evtl. eine gebrauchte 3090 oder BN
- und die 3080 wird sich wohl Zeit lassen bis sie mit 20GB auftaucht

Bitte hör mir bitte auf mit PCGH. Das was da geschrieben steht ist Mist - sorry Raff.
Ich hatte ne Matrix 2080Ti unter richtigem Wasser, hatte ne Ti von Palit unter Wasser und hat PCGH das MPT auch nur angerührt-Nö. Unter DX11, kein Thema, obwohl hier ne slightly OC XT ne VII komplett schlecht aussehen lässt. Und da brauchst kein Wasser, weil die 7 kompletter Hardwareschrott in 7nm ist.

Ex3cut3r
2020-08-29, 20:02:42
Hast du denn irgendwelche Beweise? Außer dein Wort? Jetzt interessiert es mich.

gedi
2020-08-29, 20:16:20
Was brauchst du? Es gibt Belege hier im Benchthread, dass meine XT z.B in TR in 1440p in etwa gleich performt wie ne Ti und da läuft das Ding bei meinem 24/7 Setting: Sprich richtige 2.16G @ 1.131V bei 1900 VRAM und HDR10 voll aufgedreht. ASIC Power im Schnitt bei 230W!

Ravenhearth
2020-08-29, 20:21:30
Guckt man sich die Cudacorezahl an, den Takt und die angeblichen Perf. Werte bleibt eigentlich nur übrig, dass man wirklich die FP32 Units verdoppelt hat. Gerade kann man FP32+Int32 gleichzeitig. Ampere dann FP32+Int32 oder 2xFP32. Das ist die einzige Speku die den Transistoraufwand, Cuda Cores und spekulierte Performance halbwegs unter ein Dach bringt.
Die FP32-Einheiten sind doch die CUDA-Cores, oder nicht? Also wenn man die verdoppelt hätte, würde man die 3090 sicher mit 10496 Cores bewerben usw.

Das könnte auch andere Gründe haben. Es wird gerne vergessen, dass Turing pro SM nicht nur 64xFP sondern auch 64xINT kann. Dazu die Aussage von Nvidia damals, das auf 100 FP-Ops (in Spielecode?) 36 INT-Ops kommen im Schnitt. Theoretisch könnte Turing damit 36% mehr ALU-Durchsatz erreichen, zusätzlich zu anderen Optimierungen (doppelte Registerzahl und L1$ pro ALU). Davon haben wir bei Turing vs Pascal nicht so viel gesehen und eventuell setzt Ampere genau hier an. RDNA hat außerdem auch die Auslastungen der ALUs wesentlich erhöht - zwar mit viel Transistoraufwand wenn man N10 mit P10 vergleicht, aber möglich ist das schon. Sowas könnte Ampere also auch haben. Da müssen nicht gleich irgendwelche Tensor-Cores involviert sein (können die nicht nur Matrixoperationen oder bin ich gerade total auf dem Holzweg? Dadurch sind die für allgemeine Berechnungen doch eh ziemlich unbrauchbar?).
Ja, ich weiß ehrlich gesagt nicht, wie groß der Anteil an Matrixoperationen in Spielen ist und wie viel die Tensor Cores bringen würden. Eine andere Erklärung hatte ich nur nicht. Wenn sie eh schon da sind, könnte man sie, anstatt sie brach liegen zu lassen, halt in die Grafikberechnung einbeziehen.

Was die INT-Einheiten und die anderen Verbesserungen von Turing angeht, habe ich doch den Eindruck, dass diese was gebracht haben. Die GTX 1080 und 2070S haben beispielsweise beide 2560 Shader, letztere ist jedoch gut 30% schneller.

Der Hinweis auf RDNA ist gut, aber ist das mit Ampere vergleichbar? Dafür müsste Turing ja ein ähnliches Optimierungspotential wie GCN haben. Das scheint mir nicht der Fall zu sein, da Nvidia schon seit Jahren durch viel Kontrolllogik etc. die Auslastung der Einheiten optimiert. Mit RDNA ist AMD da nur einen ähnlichen Weg eingeschlagen.

Tesseract
2020-08-29, 20:27:59
Ja, ich weiß ehrlich gesagt nicht, wie groß der Anteil an Matrixoperationen in Spielen ist und wie viel die Tensor Cores bringen würden.

nahezu jede geometrieoperation (perspektive, verschieben, rotieren, animationen, etc.) ist eine matrixoperation und im prinzip genau das was die vertexshader-units vor den unified shadern gemacht haben.

gedi
2020-08-29, 20:38:08
nahezu jede geometrieoperation (perspektive, verschieben, rotieren, animationen, etc.) ist eine matrixoperation und im prinzip genau das was die vertexshader-units vor den unified shadern gemacht haben.

Hotclock ahoi?

Der_Korken
2020-08-29, 20:44:19
Was die INT-Einheiten und die anderen Verbesserungen von Turing angeht, habe ich doch den Eindruck, dass diese was gebracht haben. Die GTX 1080 und 2070S haben beispielsweise beide 2560 Shader, letztere ist jedoch gut 30% schneller.

Der Hinweis auf RDNA ist gut, aber ist das mit Ampere vergleichbar? Dafür müsste Turing ja ein ähnliches Optimierungspotential wie GCN haben. Das scheint mir nicht der Fall zu sein, da Nvidia schon seit Jahren durch viel Kontrolllogik etc. die Auslastung der Einheiten optimiert. Mit RDNA ist AMD da nur einen ähnlichen Weg eingeschlagen.

Der Vergleich zwischen 1080 und 2070 hinkt ein wenig. Ein kurzer Blick auf CB sagt, dass die 2070S FE zum Launch unter Spielelast ca. 200Mhz höher taktet als die 1080FE damals. Dazu hat die 2070S 40% mehr Bandbreite und 6 statt 4 GPCs. Und da sie ein Salvage ist auch insgesamt sicher mehr Cache. Das verwässert die 30% doch recht stark.

Bezüglich Optimierungspotenzial von Turing hast du natürlich recht. So viel von GCN auf RDNA wird allein durch bessere Auslastung nicht rauszuholen sein. Allerdings wurde Turing durch die INT-Units extrem stark verbreitert, ohne dass dieser Rohleistungsanstieg bisher annähernd voll durchgeschlagen wäre. Mit Ausnahme einiger Titel mit LL-APIs z.B. Wolfenstein oder Control.

Tesseract
2020-08-29, 20:55:08
Hotclock ahoi?
zusammenhang?

Digidi
2020-08-29, 20:56:08
@Mboller und @pixeljetstream

Es fehlt an Presse die wirklich mal die Mathematik dahinter liest und versucht zu verstehen was da abläuft und dann so etwas in einen theoretischen Artikel zu pressen. Der lezte der das versucht hat war Carsten Spille bei PCGH seitdem er nun zu Heise gewechselt ist sieht es mau aus mit Theoretischen Infos und Messwerten zu den Architekturen. Carsten schreibt ab und zu noch gute Artikel, aber theoretische Messwerte kommen da nicht mehr so vor und auch die Artikel Größe und Anzahl ist begrenzt, wahrscheinlich weil das bei Heise kein großer Posten ist.

Ravenhearth
2020-08-29, 20:59:02
nahezu jede geometrieoperation (perspektive, verschieben, rotieren, animationen, etc.) ist eine matrixoperation und im prinzip genau das was die vertexshader-units vor den unified shadern gemacht haben.
Danke. Aber könnte man die Tensor Cores nicht auch für andere Berechnungen nutzen? Denn bei Turing lässt Nvidia sämtliche (!) FP16-Berechnungen über die Tensor Cores laufen, um FP16-Befehle parallel zu FP32 oder INT32 ausführen zu können. Deswegen haben die GTX-Turings auch separate FP16-Einheiten, die Tensor Cores fallen ja weg.

Was sollte Nvidia bei Ampere nun daran hindern, den Tensor Cores FP32-Funktionalität zu geben und sie auch dafür zu nutzen? Wenn sie bei Turing FP16 problemlos berechnen (das sind ja nicht nur Matrixoperationen), müsste das doch auch mit FP32 klappen?

Der Vergleich zwischen 1080 und 2070 hinkt ein wenig. Ein kurzer Blick auf CB sagt, dass die 2070S FE zum Launch unter Spielelast ca. 200Mhz höher taktet als die 1080FE damals. Dazu hat die 2070S 40% mehr Bandbreite und 6 statt 4 GPCs. Und da sie ein Salvage ist auch insgesamt sicher mehr Cache. Das verwässert die 30% doch recht stark.

Bezüglich Optimierungspotenzial von Turing hast du natürlich recht. So viel von GCN auf RDNA wird allein durch bessere Auslastung nicht rauszuholen sein. Allerdings wurde Turing durch die INT-Units extrem stark verbreitert, ohne dass dieser Rohleistungsanstieg bisher annähernd voll durchgeschlagen wäre. Mit Ausnahme einiger Titel mit LL-APIs z.B. Wolfenstein oder Control.
Da hast du natürlich auch recht. Turing scheint bei der Ausnutzung der Rohleistung also in der Tat noch Optimierungspotential zu haben. Ob man damit allein den anscheinend starken Anstieg bei Ampere erklären kann?

gedi
2020-08-29, 21:12:10
zusammenhang?

Lies das was du selbst geschrieben hast.

Tesseract
2020-08-29, 21:13:14
Aber könnte man die Tensor Cores nicht auch für andere Berechnungen nutzen?

ich frage mich seit turing warum sie das nicht machen. wenn man die cores etwas anpasst und durchgehend standardkonformes FP32 bietet müsste man eigentlich geometrieoperationen darauf auslagern können und die FP32 cores damit entlasten. der vorteil der unified shader war ja in erster linie, dass die auslastung hoch ist da nicht entweder pixel- oder vertexshader der flaschenhals sind aber wenn man auf turing kein DLSS oder ähnliches macht haben die tensorcores sowieso nix zu tun.

basix
2020-08-29, 21:13:59
Danke. Aber könnte man die Tensor Cores nicht auch für andere Berechnungen nutzen? Denn bei Turing lässt Nvidia sämtliche (!) FP16-Berechnungen über die Tensor Cores laufen, um FP16-Befehle parallel zu FP32 oder INT32 ausführen zu können. Deswegen haben die GTX-Turings auch separate FP16-Einheiten, die Tensor Cores fallen ja weg.

Was sollte Nvidia bei Ampere nun daran hindern, den Tensor Cores FP32-Funktionalität zu geben und sie auch dafür zu nutzen? Wenn sie bei Turing FP16 problemlos berechnen (das sind ja nicht nur Matrixoperationen), müsste das doch auch mit FP32 klappen?

Falls das Gerücht um die doppelten FP32 stimmt, wäre das die sinnvollste Auflösung (neben TF32). Entweder FP16, FP32 oder Tensor Operationen über die Tensor Cores. GA100 kann das ja mit FP64 anstatt FP32, soweit ich weiss aber nur bei Matrizenoperationen und nicht GPGPU. Schlussendlich hätte man dann auch mehr Arithmetikleistung bei unbekannter Scheduler-Leistung. Bei Raytracing und DLSS könnte ich mir einen verwertbaren Vorteil ohne viel höhere Scheduler-Leistung vorstellen. Bei einigen anderen Compute-Algorithmen wohl auch.

Schlussendlich macht es aus meiner Sicht Sinn, die Compute Leistung der Tensor Cores für weitere Aufgaben zu verwenden. Sonst ist das in einem Grossteil der Spielen nur "dark silicon" - Aufwand ohne Ertrag.

Dural
2020-08-29, 21:21:20
Da sind 12 drauf, unten ist noch einer.

Weiss man auch schon länger das der speicher so angeordnet ist.

RLZ
2020-08-29, 21:42:46
Schlussendlich macht es aus meiner Sicht Sinn, die Compute Leistung der Tensor Cores für weitere Aufgaben zu verwenden. Sonst ist das in einem Grossteil der Spielen nur "dark silicon" - Aufwand ohne Ertrag.
Du meinst also es macht Sinn aus den gerade erst eingeführten Special Function Einheiten wieder General Purpose Einheiten zu machen, die sie aus extrem starken Effizienzgründen vor einer Generation ersetzt haben?

Dampf
2020-08-29, 22:11:01
Ich glaube die Tensor Cores werden sich zukünftig eher auf INT Operationen in Spielen konzentrieren. Zum Beispiel könnte man neural Networks für Spielphysik einsetzen.

Nazar
2020-08-29, 22:22:33
Ja stimmt und es gibt definitiv zu wenig Material das über Marketing slide und unter siggraph paper liegt. Es ist nicht so dass mir das paper lesen leicht fällt. Mir geht es eher um allgemeine Einschätzungen wie den Ausbau einer Raster Pipeline die über die Jahre gereift ist, und nach wie vor dominiert, das macht man nicht mal so. Dabei geht es IMO nicht so sehr um Details, aber du hast recht das meine Perspektive was Details sind und was nicht auch schon anders ist.

Was Häme über Preisgestaltung Marketing etc. angeht hab ich kein Problem damit (ich hab in meiner Jugend unentgeltlich an einem großen kostenlosen q3mod gearbeitet, und was wir uns von unseren Fans so alles anhören mussten war auch nicht immer Spaß). Was mich stört ist das starke vereinfachen der Entwicklung ob diese nun bei NV, AMD oder Intel passiert. Es sind keine Amateure die dort überall sitzen und der Aufwand ist da und die Arbeit wird geleistet. Bei einem in diesem oder jenen Bereich Dank Ressourcen und der Management Entscheidung mehr beim anderen weniger. Hier wird Manchmal geschrieben als wäre die Firma eine Person allein die mal super drauf ist und dann an Amnesie leidet ;)

Edit: ich muss mir selbst einfach dieses Spekulationsforum verbieten, sonst fange nur noch mehr an rumzumotzen ;)


Mir, als zahlender Kunde, ist und darf es vollkommen egal sein was die Gründe und Entscheidungen zu einem bestimmten Produkt geführt haben.
Wenn die Firma nicht will, das darüber gemeckert wird, sollen sie es eben nicht auf den Markt bringen. Wenn ein Hersteller bei den Abgaswerten mogelt, weil ein Manager am falschen Ende gespart hat oder ein Ingi Mist bei den Berechnungen gebaut hat, dann gehe ich die Firma an und wenn dann Personen selber nicht den Unterschied zwischen Firma und Angestellten begreifen und alles vermischen und auf die "Tränendrüse" drücken, dann komme ich mir gewaltig verarscht vor! :mad:
Wenn die Firma richtig gut dasteht dürfen die MA die Lorbeeren abbekommen aber wenn es scheiße läuft, sind es die armen Schweine?
Doppelmoral!

Und ich werde es auch niemals begreifen, weshalb man sich als des Teufels Advokat für Firmen mit Milliarden Umsätzen verdingen muss!? :confused:
Solche Firmen gehen über Leichen, um an ihr Ziel zu kommen. Und das bedeutet auch oft, dass Mitarbeiter aus Konkurrenzfirmen arbeitslos werden!
Hier auf die "Tränendrüse" für so eine Firma (nicht nur nVidia) und deren Mitarbeiter/Handlanger zu drücken, erscheint wie ein bitterböser Scherz! :rolleyes:

basix
2020-08-29, 22:40:29
Du meinst also es macht Sinn aus den gerade erst eingeführten Special Function Einheiten wieder General Purpose Einheiten zu machen, die sie aus extrem starken Effizienzgründen vor einer Generation ersetzt haben?

Ist es General Purpose? Eben nicht. Sogar bei A100 ist es das nicht, sondern auf Tensoroperationen limitiert. Mit anderen Aufgaben meine ich anfallende Arbeit, welche für die Tensor Cores passen. Und das sind Matrizenoperationen. Wie Tesseract sagt, sind anscheinend Geometrieoperationen oftmals Matrizen. Passt doch, falls sich Tensoroperationen wirklich für Geometrie eignen. Bei Turing geht aber kein FP32 mit den Tensor Cores, deswegen für Spiele weniger gut geeignet. Bei Ampere könnte sich das ändern, ergo liegen die Tensor Cores in Spielen nicht brach. Da A100 das schon mit FP64 eingeführt hat, sollte das bei den Gaming Ablegern mit FP32 auch funktionieren. Natürlich vorausgesetzt es nützt in Spielen, das wissen die Experten hier aber besser als ich.

Tensor- oder anders gesagt Matrizenoperationen sind nach meinem Laienverständnis nichts anderes als multidimensionale Vektoroperationen. Und bei einer Matrix hast du den Vorteil, dass du weniger Overhead hast. Das ist prinzipiell der gleiche Grund, wieso Vektoroperationen viel effizienter als Einzeloperationen sind. Wenn man also mehrere Vektoren zu einer Matrize zusammenfügen und via Tensor Cores berechnen lassen kann, wäre das doch sinnvoll. Aus dem A100 White Paper:
The new Double Precision Matrix Multiply Add instruction on A100 replaces 8 DFMA instructions on V100, reducing instruction fetches, scheduling overhead, register reads, datapath power, and shared memory read bandwidth.


Beispiel:

20 TFLOPs FP32 (GPGPU)
640 TOPS INT8 (Tensor)
320 TFLOPS FP16 (Tensor)
20 TFLOPS FP32 (Tensor)
Alle Tensoroperationen parallel zu GPGPU ausführbar --> "doppelte" FP32 Leistung


Wenn man sich nun die Tensor Cores generell für Spiele nutzbar machen könnte, why not? Das würde ebenfalls einen generellen IPC-Boost versprechen. Stimmen die aktuellen Gerüchte von 60-70% Performancesteigerung, hätte Ampere in etwa +30% IPC verglichen zu Turing. Und Tensor könnte eine Erklärung sein, wieso die Benchmarkwerte zueinander irgendwie nicht passen (Timespy vs. Extreme). Je nach Geometrielast (oder anderes) greift die Tensor-Beschleunigung stärker oder eben schwächer.

RLZ
2020-08-29, 23:07:13
Ist es General Purpose? Eben nicht.
Natürlich nicht. Das ist aber das was du wieder gerne hättest.

Tesseract
2020-08-29, 23:44:52
natürlich sind tensor cores in gewisser weise "general purpose", nur eben mit 4x4 matrizen als datentypen... und 3D-transformationen sind im allgemeinen *trommelwirbel* operationen auf 4x4 matrizen. ist echt nicht weit her geholt die inputs von FP16 auf FP32 aufzubohren und 3D-transformationen drauf laufen zu lassen.

Digidi
2020-08-29, 23:56:12
natürlich sind tensor cores in gewisser weise "general purpose", nur eben mit 4x4 matrizen als datentypen... und 3D-transformationen sind im allgemeinen *trommelwirbel* operationen auf 4x4 matrizen. ist echt nicht weit her geholt die inputs von FP16 auf FP32 aufzubohren und 3D-transformationen drauf laufen zu lassen.

Ähm nein sind es nicht 4x4 schon alleine weil du 6 Raumrichtungen hast (3 rotatorische und 3 translatorische) wird die Matrix dann wohl schon 6x6 und nicht 4x4 sein

Tesseract
2020-08-30, 00:02:48
bitte was? 3D-transformationsmatrizen sind 3x3 für translation und rotation bzw. 4x4 wenn man persektivische projektion auch dabei haben will.

Digidi
2020-08-30, 00:06:57
Ja für einfache System sind es 3x3 aber für Komplexe System sind es 6x6 hinzu kommt das es auch keine Matrix x Matrix Multiplikation ist sondern eher Matrix x Vektor Multiplikation.

Tesseract
2020-08-30, 00:16:35
was für komplexe systeme?

Timbaloo
2020-08-30, 00:24:51
Ja komplexe Systeme halt. Also für Digidi das 1x1. Ermmm, das 6x6.

Digidi
2020-08-30, 00:33:05
Es geht hier eher um Komplexe Modelle, sorry System war das falsche Wort. Bei Komplexe Modell must du viele Freiheitsgrade betrachten und wie gesagt der Raum hat 6 Freiheitsgrade. 3 Translationen und 3 Rotationen.

In Weltraumsimulationen kommst du um die 6 Freiheitsgrade nicht herum. Du hast dann z.B. Trusters die die 3 Rotatione (Drehungen) erzeugen und Haupttriebwerke die die Translatorische bewegung erzeugen.

Tesseract
2020-08-30, 00:48:29
was hat das mit matrizen zu tun? mit 4x4 kannst du ein mesh frei im raum in jeder lage plazieren und projizieren.

wolik
2020-08-30, 00:50:07
Mir, als zahlender Kunde, ist und darf es vollkommen egal sein was die Gründe und Entscheidungen zu einem bestimmten Produkt geführt haben.
Wenn die Firma nicht will, das darüber gemeckert wird, sollen sie es eben nicht auf den Markt bringen. Wenn ein Hersteller bei den Abgaswerten mogelt, weil ein Manager am falschen Ende gespart hat oder ein Ingi Mist bei den Berechnungen gebaut hat, dann gehe ich die Firma an und wenn dann Personen selber nicht den Unterschied zwischen Firma und Angestellten begreifen und alles vermischen und auf die "Tränendrüse" drücken, dann komme ich mir gewaltig verarscht vor! :mad:
Wenn die Firma richtig gut dasteht dürfen die MA die Lorbeeren abbekommen aber wenn es scheiße läuft, sind es die armen Schweine?
Doppelmoral!

Und ich werde es auch niemals begreifen, weshalb man sich als des Teufels Advokat für Firmen mit Milliarden Umsätzen verdingen muss!? :confused:
Solche Firmen gehen über Leichen, um an ihr Ziel zu kommen. Und das bedeutet auch oft, dass Mitarbeiter aus Konkurrenzfirmen arbeitslos werden!
Hier auf die "Tränendrüse" für so eine Firma (nicht nur nVidia) und deren Mitarbeiter/Handlanger zu drücken, erscheint wie ein bitterböser Scherz! :rolleyes:
Nazar, was meinst du überhaupt? "Tränendrüse" ? Advokat ? "gehen über Leichen" :redface: Es ist nur ein Produkt. In Gaming Bereich. Kein Krebsheilende Wundermittel.

pixeljetstream
2020-08-30, 00:53:18
Mir, als zahlender Kunde, ist und darf es vollkommen egal sein was die Gründe und Entscheidungen zu einem bestimmten Produkt geführt haben.

Ich weiß nicht warum mein Text den Eindruck erzeugte dass derartige Kritik an fertigen Produkten nicht angebracht ist. Meine Kritik war die technische Plausibilität mancher Spekulation. Aber wie mboeller schrieb ist meine Perspektive da unrealistisch.

Digidi
2020-08-30, 01:08:25
was hat das mit matrizen zu tun? mit 4x4 kannst du ein mesh frei im raum in jeder lage plazieren und projizieren.

Ja das geht bei einfachen Transformationen. Willst du aber erine Simmulation mit Kräften Aufbauen kannst du nicht in die 4 Zeile der Matrix einfach die XYZ Koordinaten Transformieren. Du musst dann jeder Koordinate eine eigene Spalte zuweisen.

Und ein Triangle kann man eben nicht komplett mit einer 4x4 Matrix beschreiben, höchstens die Eckpunkte des Triangle.

pixeljetstream
2020-08-30, 01:11:54
Kann dir da auch nicht ganz folgen. Normale Matrix (4x4 oder 3x3) * Vektor Multiplikation ist das was in shadern am ehesten vorkommt.

Digidi
2020-08-30, 01:12:53
Kann dir da auch nicht ganz folgen. Normale Matrix (4x4 oder 3x3) * Vektor Multiplikation ist das was in shadern am ehesten vorkommt.
Ja das ist dann aber echt stakr vereinfacht und nur eine reine Transformation keine Interaktion ;)

basix
2020-08-30, 01:15:05
Natürlich nicht. Das ist aber das was du wieder gerne hättest.

Du liest nur das, was du lesen willst, und nicht das, was ich geschrieben habe ;)

Ich will nicht "General Purpose" Tensor Cores. Ich will Rechenlast von Games auf die Tensor Cores mappen, welche sich dafür eignen. Gibt es Berechnungen, welche sich für das Format von z.B. 4x4 Matrizen passen? Wenn ja, sehr gut. Wenn nein, dann geht es halt nicht. Heutiges Problem: FP32 wird meistens von Games verlangt. Lösung: FP32 Support hinzufügen (siehe A100 mit FP64).

Ich hoffe, mein Standpunkt ist damit klar ;) Tesseract hat es am Beispiel der Geometrie kurz beschrieben. Evtl. gibt es auch andere Anwendungsfälle.

Tesseract
2020-08-30, 01:26:35
Und ein Triangle kann man eben nicht komplett mit einer 4x4 Matrix beschreiben, höchstens die Eckpunkte des Triangle.

polygone als solche werden überhaupt nicht gespeichert (sonst hätte man haufenweise redundante werte) sondern beim rendern systematisch aus den vertices konstruiert und die vertices transformiert man sich mit 4x4 matrizen in beliebiger orientierung so hin wie man sie haben will.

keine Interaktion ;)

"interaktion" hat überhaupt nichts mit diesem teil der renderpipeline zu tun.

pixeljetstream
2020-08-30, 01:27:22
Hier sieht man übrigens wie die Tensor Cores in shadern zu nutzen sind
https://github.com/jeffbolznv/vk_cooperative_matrix_perf

Tesseract, beim raytracing muss man tendenziell doch alle drei vertices (deren shading attribute) des dreiecks was getroffen wurde in einem thread transformieren. Ist aber längst nicht so dominant wie der klassische Anwendungsfall.

Digidi
2020-08-30, 01:41:58
Hier sieht man übrigens wie die Tensor Cores in shadern zu nutzen sind
https://github.com/jeffbolznv/vk_cooperative_matrix_perf

Tesseract, beim raytracing muss man tendenziell doch alle drei vertices (deren shading attribute) des dreiecks was getroffen wurde in einem thread transformieren. Ist aber längst nicht so dominant wie der klassische Anwendungsfall.


Eben ist noch nicht dominant :) Es ist auch logisch. Denn erst mit den drei vertices ist die Lage es Polygons in den sechs Freiheitsgraden genau beschrieben. Wahrscheinlich kann man erst dann den Lichtstrahl darauf anwenden ;)

Slipknot79
2020-08-30, 02:29:37
Ich versteh nur Bahnhof, klingt aber so, als ob Ampere durch Null dividieren kann. :redface:

crux2005
2020-08-30, 05:53:51
Ich versteh nur Bahnhof, klingt aber so, als ob Ampere durch Null dividieren kann. :redface:

Und das schnell.

hq-hq
2020-08-30, 08:16:02
anscheinend werden die Raytracing Schritte durchgekaut,

1. Es wird das Polygon bestimmt, das als Erstes vom Strahl getroffen wird.
2. Es wird geprüft, ob die Stelle im Schatten liegt, indem zu jeder Lichtquelle je ein Sekundärstrahl verschossen wird.
3. Ist die Oberfläche reflektierend, wird ein entsprechender Sekundärstrahl verschossen.
4. Ist die Oberfläche transparent, wird ein gebrochener Sekundärstrahl verschossen.
5. Sind alle Helligkeitsinformationen gesammelt, werden sie zusammen mit der Farbe des Polygons zum Shading übergeben.

https://www.computerbase.de/2020-04/raytracing-in-spielen-gpu-beschleunigung/

rentex
2020-08-30, 08:21:49
Wie bewertet ihr auf den ersten Blick, die Kühler Konstruktionen von Gainward und Zotac?

NC
2020-08-30, 08:50:30
anscheinend werden die Raytracing Schritte durchgekaut,

1. Es wird das Polygon bestimmt, das als Erstes vom Strahl getroffen wird.
2. Es wird geprüft, ob die Stelle im Schatten liegt, indem zu jeder Lichtquelle je ein Sekundärstrahl verschossen wird.
3. Ist die Oberfläche reflektierend, wird ein entsprechender Sekundärstrahl verschossen.
4. Ist die Oberfläche transparent, wird ein gebrochener Sekundärstrahl verschossen.
5. Sind alle Helligkeitsinformationen gesammelt, werden sie zusammen mit der Farbe des Polygons zum Shading übergeben.

https://www.computerbase.de/2020-04/raytracing-in-spielen-gpu-beschleunigung/
Das ist Whitted Raytracing, quasi wie Addition mit Fingern in der Grundschule. Es ist gut damit anzufangen, um zu verstehen wie die Basis funktioniert, aber dann wird eigentlich etwas wie Path Tracing verwendet.

Das geht in etwa so:
1. Du nutzt das rasterizierte Bild als Ausgangspunkt
2. Es wird ein Strahl in irgendeine Richtung geschossen.
3. Du triffst eine Lichtquelle?
- dann: Fertig (nicht ganz richtig*), multiplizier die Lichtquelle mit Farbe vom Fragment, schreib es als Pixel raus. -> Ende
- sonst: Fragment = BRDF(Fragment,Surface); -> 2.

Dabei:
- Der Grund weshalb die Bilder verrauscht aussehen ist eben 2.
- Wenn du wirklich perfekt zufällig die Strahlen verschickst, kannst du das per Pixel wiederholen und mit der Zeit wird die Durchschnittsfarbe _richtig_ aussehen
- So kurz wie der Algorithmus ist, soviel einfacher ist auch wirklich die Implementierung der Grundidee
- Der Haken ist natürlich, dass die vielen Zufallsstrahlen sehr lange brauchen um am Ende das echte Bild zu erhalten.
- Die ganze Komplexität dieses einfachen Verfahrens kommt dadurch wie du es schnell bekommst.

NC
2020-08-30, 08:51:33
Hier sieht man übrigens wie die Tensor Cores in shadern zu nutzen sind
https://github.com/jeffbolznv/vk_cooperative_matrix_perf

Geht das auch mit D3D12 (Ultimate) ?

dargo
2020-08-30, 09:42:10
Wie bewertet ihr auf den ersten Blick, die Kühler Konstruktionen von Gainward und Zotac?
Häßliches Plastik. :freak:

Mal ehrlich... was willst du da ohne Tests bewerten?

pixeljetstream
2020-08-30, 10:19:44
Geht das auch mit D3D12 (Ultimate) ?
Nein direkten Zugriff gibt's bisher nur in cuda/Vulkan (vielleicht in dx über nvapi hab ich nicht im Kopf). Wie man an dem Sample oder Blog sieht ist das memorylayout und die Art der Instruktion sehr speziell, da über Threads verteilt. Das macht es eher unwahrscheinlich sie in "normalen" shadern zu nutzen.

DX ist eher High-Level mit WinML
https://developer.nvidia.com/blog/accelerating-winml-and-nvidia-tensor-cores/

fondness
2020-08-30, 10:27:40
Hm, warum schleppt NV das Zeug dann in normalen Gaming-GPUs mit? Bei den HPC-GPUs klar, dass das Sinn macht, aber die Tensor-Cores liegen sonst ja aktuell branch bzw. werden bestenfalls sporadisch verwendet.

basix
2020-08-30, 10:29:16
Geht das auch mit D3D12 (Ultimate) ?

+1

Und gibt es Benchmarkwerte? :D

Zu dem habe ich folgenden Blog gefunden:
https://developer.nvidia.com/blog/machine-learning-acceleration-vulkan-cooperative-matrices/

Die dort beschriebenen Performance-Gewinne sind massiv. Inwieweit liesse sich das auf Spiele / Shader übertragen? Im Blog wird nur Bezug auf ML genommen.

dildo4u
2020-08-30, 10:33:05
Hm, warum schleppt NV das Zeug dann in normalen Gaming-GPUs mit? Bei den HPC-GPUs klar, dass das Sinn macht, aber die Tensor-Cores liegen sonst ja aktuell branch bzw. werden bestenfalls sporadisch verwendet.

DLSS 2.0 nutzt Tensor Cores.

DLSS 2.0 ist ein neues, verbessertes neuronales Netz für Deep Learning, das die Frameraten steigert und gleichzeitig schöne, scharfe Spiele Bilder generiert. Unterstützt wird es durch den Tensor Cores – dedizierte KI-Recheneinheiten auf den GeForce RTX-GPUs


https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

Bringt z.b in Death Strainding 40% für 2060 und 2070S.

https://www.computerbase.de/2020-07/death-stranding-benchmark-test/3/#diagramm-death-stranding-dlss-in-3840-2160


+50% in F1 2020.

https://www.computerbase.de/2020-08/f1-2020-dlss/

basix
2020-08-30, 10:34:17
DLSS ist ein anderes Thema. Das wird in einer handvoll Spiele genutzt. Die Idee ist, dass man Tensor Cores generell für Geometrie- und Shader-Beschleunigung verwenden könnte. Und wie viel das bringen würde.

HOT
2020-08-30, 10:41:53
Man wird die Tensorcores dauerhaft brauchen für Auto-DLSS.

basix
2020-08-30, 10:48:35
Auto-DLSS.

Is this a real thing? Würde mich überraschen.

Edit:
Ausserdem läuft DLSS ganz am Schluss des Frames. Die Tensor Cores würden während dem Grossteil des Frames immer nocht nicht verwendet werden.

mironicus
2020-08-30, 10:51:21
Dieses Auto-DLSS sollte aber auch auf den alten RTX-Karten laufen, oder...? :D

WedgeAntilles
2020-08-30, 10:56:57
DLSS ist ein anderes Thema. Das wird in einer handvoll Spiele genutzt.

Aktuell. Ich halte es für sehr gut möglich, dass das in Zukunft massiv steigen wird.
Nicht vergessen, DLSS 1.0 war noch sehr überschaubar von der Qualität.
2.0 sieht da schon ganz anders aus.
Und mit Ampere kommt 3.0, das die Implementierun wohl deutlich vereinfachen wird für die Spieleentwickler.

Klar, dass die Entwickler mit 1.0 noch nicht gerade begeistert waren - generell dauert es ja immer etwas, bis sich neue Technik großflächig durchsetzt. (Zumal natürlich auch die Anzahl der User, die von DLSS profitieren in den nächsten 2,3 Jahren deutlich steigen wird. Je weniger Leute eine GraKa haben, die DLSS nutzen kann, desto geringer die Notwendigkeit für die Entwickler es zu impelementieren. Je mehr Spieler aber DLSS nutzen, desto attraktiver wird es.)

Interessant auch:
Beim Ram gelten die paar Spiele, die heute schon viel Ram brauchen (und sei es nur, weil sie eher mies programmiert sind) als Beweis, dass man mindestens 12GB, eher 16GB brauchen wird. Da ist die Begründung: Es gibt ja jetzt schon ein paar Spiele.
Bei DLSS gilt es jedoch als quasi ausgeschlossen, dass das in Zukunft ein großes Ding wird. Da ist die Begründung: Es gibt ja jetzt erst ein paar Spiele.


Bei Featues gilt wohl für beide Lager:
Ist das Feature von "meiner" Firma, ist es das ganz große Ding und unglaublich wichtig.
Ist das Feature von der "gegnerischen" Firma, ist es ein Feature, was völlig unwichtig ist und nie Bedeutung gewinnen wird.

pixeljetstream
2020-08-30, 11:22:09
Ausserdem läuft DLSS ganz am Schluss des Frames. Die Tensor Cores würden während dem Grossteil des Frames immer nocht nicht verwendet werden.

Das ist bei den rasterization Units heute ähnlich. Manche Titel nutzen die auch nur für einen Bruchteil des Frames. Man muss eher umgekehrt denken. Ohne Spezial Hardware wäre die Zeit eben nicht wenig sondern mehr. Gleiches bei Video encoder für die Streamer etc.

Compute shader gab es auch ewig bevor sie wirklich für mehr in Games genutzt wurden und heute machen sie bei einigen Titeln die meiste Arbeit.

Wie bedeutend die Tensor Cores für gaming werden kann man noch nicht direkt sagen, mit DLSS hat man aber zumindest einen Faktor gefunden. Der Rest ist eher für die Content creators (denoise, filter für Video/2D etc.)

hq-hq
2020-08-30, 11:24:40
Das ist Whitted Raytracing, quasi wie Addition mit Fingern in der Grundschule. Es ist gut damit anzufangen, um zu verstehen wie die Basis funktioniert, aber dann wird eigentlich etwas wie Path Tracing verwendet.

Das geht in etwa so:
1. Du nutzt das rasterizierte Bild als Ausgangspunkt
2. Es wird ein Strahl in irgendeine Richtung geschossen.
3. Du triffst eine Lichtquelle?
- dann: Fertig (nicht ganz richtig*), multiplizier die Lichtquelle mit Farbe vom Fragment, schreib es als Pixel raus. -> Ende
- sonst: Fragment = BRDF(Fragment,Surface); -> 2.

Dabei:
- Der Grund weshalb die Bilder verrauscht aussehen ist eben 2.
- Wenn du wirklich perfekt zufällig die Strahlen verschickst, kannst du das per Pixel wiederholen und mit der Zeit wird die Durchschnittsfarbe _richtig_ aussehen
- So kurz wie der Algorithmus ist, soviel einfacher ist auch wirklich die Implementierung der Grundidee
- Der Haken ist natürlich, dass die vielen Zufallsstrahlen sehr lange brauchen um am Ende das echte Bild zu erhalten.
- Die ganze Komplexität dieses einfachen Verfahrens kommt dadurch wie du es schnell bekommst.


path tracing kommt bei Renderprogrammen wie Blender zum Einsatz, was davon in Spielen übrig bleibt ...

RLZ
2020-08-30, 11:40:46
Das ist Whitted Raytracing, quasi wie Addition mit Fingern in der Grundschule. Es ist gut damit anzufangen, um zu verstehen wie die Basis funktioniert, aber dann wird eigentlich etwas wie Path Tracing verwendet.

Das geht in etwa so:
1. Du nutzt das rasterizierte Bild als Ausgangspunkt
2. Es wird ein Strahl in irgendeine Richtung geschossen.
3. Du triffst eine Lichtquelle?
- dann: Fertig (nicht ganz richtig*), multiplizier die Lichtquelle mit Farbe vom Fragment, schreib es als Pixel raus. -> Ende
- sonst: Fragment = BRDF(Fragment,Surface); -> 2.

Das ist schon ein richtig ineffizenter Spezialfall aka Unbiased Unidirectional Path Tracing. Würde niemand versuchen für Realtime RT zu verwenden.

Platos
2020-08-30, 11:56:27
Nur mal so ne Frage. Hier wird von DLSS 3.0 gesprochen, als sei es (für Ampere (Launch)) bestätigt... Wer sagt das?

Ich hoffe doch nicht irgend eines der ettlichen Youtuber-"Leaks" ;D

basix
2020-08-30, 11:58:47
Aktuell. Ich halte es für sehr gut möglich, dass das in Zukunft massiv steigen wird.
Nicht vergessen, DLSS 1.0 war noch sehr überschaubar von der Qualität.
2.0 sieht da schon ganz anders aus.
Und mit Ampere kommt 3.0, das die Implementierun wohl deutlich vereinfachen wird für die Spieleentwickler.

Klar, dass die Entwickler mit 1.0 noch nicht gerade begeistert waren - generell dauert es ja immer etwas, bis sich neue Technik großflächig durchsetzt. (Zumal natürlich auch die Anzahl der User, die von DLSS profitieren in den nächsten 2,3 Jahren deutlich steigen wird. Je weniger Leute eine GraKa haben, die DLSS nutzen kann, desto geringer die Notwendigkeit für die Entwickler es zu impelementieren. Je mehr Spieler aber DLSS nutzen, desto attraktiver wird es.)

Interessant auch:
Beim Ram gelten die paar Spiele, die heute schon viel Ram brauchen (und sei es nur, weil sie eher mies programmiert sind) als Beweis, dass man mindestens 12GB, eher 16GB brauchen wird. Da ist die Begründung: Es gibt ja jetzt schon ein paar Spiele.
Bei DLSS gilt es jedoch als quasi ausgeschlossen, dass das in Zukunft ein großes Ding wird. Da ist die Begründung: Es gibt ja jetzt erst ein paar Spiele

Beim RAM ist es aber klar: 4K benötigt mehr RAM, Raytracing benötigt mehr RAM, hochwertiger Content benötigt mehr RAM. Neue Konsolen bringen mehr RAM mit. Das ist eine natürliche Entwicklung, welche absehbar ist und schon seit 25 Jahren GPUs so ist. Bei DLSS haben wir diese Referenz nicht.

Nicht falsch verstehen, ich finde DLSS ab Version 2.0 richtig gut. Für Turing bedeuten die Tensor Cores aber zwei Jahre lang erhöhte Kosten bei begrenztem Ertrag. Ähnlich sieht das beim Raytracing aus. Nvidia hat hier mit der HW mächtig geklotzt, die SW war aber noch nicht soweit. Diese Aussagen sind jetzt nur auf Games bezogen.

Bei Ampere wird sich das vermutlich etwas anders verhalten. Raytracing wird sich gut verbreiten und ML Upscaling wird sich etablieren. Gut für Turing Käufer, dass ihre HW das schon unterstützt (solange die Performance reicht).

RLZ
2020-08-30, 12:04:31
Du liest nur das, was du lesen willst, und nicht das, was ich geschrieben habe ;)

Ich will nicht "General Purpose" Tensor Cores. Ich will Rechenlast von Games auf die Tensor Cores mappen, welche sich dafür eignen. Gibt es Berechnungen, welche sich für das Format von z.B. 4x4 Matrizen passen? Wenn ja, sehr gut. Wenn nein, dann geht es halt nicht. Heutiges Problem: FP32 wird meistens von Games verlangt. Lösung: FP32 Support hinzufügen (siehe A100 mit FP64).

Ich hoffe, mein Standpunkt ist damit klar ;) Tesseract hat es am Beispiel der Geometrie kurz beschrieben. Evtl. gibt es auch andere Anwendungsfälle.
Dein Standpunkt war mir schon klar. Aber ich bin mir nicht sicher, ob du verstehst was du da schreibst.
Der Punkt an den Tensor Cores ist, dass sie exakt für einen Anwendungsfall optimiert sind. Willst du das für generische Matrix Operationen umbauen hat das ganze sehr viele Konsequenzen. Erstmal gibt es aktuell genau eine Matrix Operation
https://developer.nvidia.com/blog/wp-content/uploads/2017/05/image4.png
Das Hinzufügen von FP32 ist nun nicht mit Erweiterung des Addierers getan. Man muss alle Datenpfade anpassen. Register und Caches vergrößern. Dazu kommen andere Optimierungsziele der ganzen Pipeline durch andere (generische) Workloads.

Zu guter Letzt basiert dein Wunsch drauf, dass dir zum aktuellen Zeitpunkt noch nicht genug Workloads für die Tensorcores da sind. Fügst du nun einen neuen größeren Datentyp ein, ist der da um zu bleiben. Den entfernt man nicht einfach wieder bei der nächsten Generation. Damit verbockt man mittelfristig, weil die Tensorcores dann in Zukunft viel zu groß und ineffizent sind für das was sie verwendet verwendet werden.

Ich stell auch deine Annahme in Frage, dass die Karten außer DLSS niemals einen Workload sehen werden in Frage. Es gibt etliche Baustellen für Inferencing in Spielen, wo wir in den letzten Jahren Vorarbeiten gesehen haben und die jetzt langsam (auch dank Nextgen Konsolen) hoffentlich in Production Code landen.

basix
2020-08-30, 12:11:12
Wie aufwändig der Umbau ist, kann dir wohl nur Nvidia beanworten. Aber bei A100 haben sie es getan ;)

Und ich nehme definitiv an, das die Tensor Cores für andere Workloads verwendet werden. Es gibt ja viele Beispiele für Animationen, Physiksimulationen usw., das ist Stand heute aber noch Zukunftsmusik. FP32 würde einfach das Anwendungsspektrum erhöhen, FP16 ist für viele Dinge wie es scheint einfach zu wenig.

Gut, Nvidia und AMD werden besser wissen, was sinnvoll ist. Ich sehe aus meiner Laiensicht einfach Potential für mehr ;)

Slipknot79
2020-08-30, 12:14:28
Nur mal so ne Frage. Hier wird von DLSS 3.0 gesprochen, als sei es (für Ampere (Launch)) bestätigt... Wer sagt das?

Ich hoffe doch nicht irgend eines der ettlichen Youtuber-"Leaks" ;D


Wäre zu schön um wahr zu sein, wenn das Teil auch noch per Switch im Treiber in jedem Game aktiviert werden könnte und dann auch noch fehlerfrei liefe. Dann ist das ein nobrainer and shut up and take my money um Lederjackes Aktienvermögen zu pushen. :redface:

Dampf
2020-08-30, 12:28:13
Ich hoffe doch nicht irgend eines der ettlichen Youtuber-"Leaks" ;D

Doch. :biggrin:

Das hat sich nur verbreitet weil fast jede Technik-Seite darüber berichtet hat. Und jeder einzelne hat Moores Law is dead als Quelle angeben.

Wenn man drüber nachdenkt und weiß wie die Techniken funktionieren dann kommt man zu dem Schluss, dass die Ampere Gerüchte von ihm hausgemachter Blödsinn sind. 4x RT Performance in Minecraft RTX und DLSS 3.0 das magischerweise in jedem TAA Spiel läuft.

Also echt, wer darauf reinfällt :rolleyes:

WedgeAntilles
2020-08-30, 12:33:57
Nur mal so ne Frage. Hier wird von DLSS 3.0 gesprochen, als sei es (für Ampere (Launch)) bestätigt... Wer sagt das?


Du hast recht, das ist noch nicht bestätigt - ich hatte das falsch im Kopf. Ich dachte die Präsentation von DLSS 3.0 wäre mit Ampere-Start quasi sicher.


Beim RAM ist es aber klar: 4K benötigt mehr RAM, Raytracing benötigt mehr RAM, hochwertiger Content benötigt mehr RAM. Neue Konsolen bringen mehr RAM mit. Das ist eine natürliche Entwicklung, welche absehbar ist und schon seit 25 Jahren GPUs so ist. Bei DLSS haben wir diese Referenz nicht.

Das stimmt.

w0mbat
2020-08-30, 12:41:02
Wäre zu schön um wahr zu sein, wenn das Teil auch noch per Switch im Treiber in jedem Game aktiviert werden könnte und dann auch noch fehlerfrei liefe. Dann ist das ein nobrainer and shut up and take my money um Lederjackes Aktienvermögen zu pushen. :redface:
Ich verstehe nicht was du meinst, upsampling kannst du in jedem Spiel aktivieren :confused:

mboeller
2020-08-30, 12:54:05
Ich weiß nicht warum mein Text den Eindruck erzeugte dass derartige Kritik an fertigen Produkten nicht angebracht ist. Meine Kritik war die technische Plausibilität mancher Spekulation. Aber wie mboeller schrieb ist meine Perspektive da unrealistisch.

aber verständlich. :)

mboeller
2020-08-30, 12:57:07
natürlich sind tensor cores in gewisser weise "general purpose", nur eben mit 4x4 matrizen als datentypen... und 3D-transformationen sind im allgemeinen *trommelwirbel* operationen auf 4x4 matrizen. ist echt nicht weit her geholt die inputs von FP16 auf FP32 aufzubohren und 3D-transformationen drauf laufen zu lassen.


Tensor-Ops sind aber doch max. 16bit Flop Ops, oder?

Du willst aber keine 16bit Vertex-Shader haben, da wabert das Bild. 16bit geht gerade noch so für Pixelshader, siehe 3Dfx und GeforceFX und definitiv in 24bit (AMD R300)

16bit FP -> 32bit FP ist doch der 4fache Aufwand, oder? Zumindest habe ich das so im Hinterkopf.

Leonidas
2020-08-30, 13:12:06
Ich versteh nur Bahnhof, klingt aber so, als ob Ampere durch Null dividieren kann. :redface:

Und das schnell.


Das auf einem Mathematiker-Kongress gebracht, ist ein echter Eisbrecher.

In jedem Fall: :up:

RLZ
2020-08-30, 13:14:40
Aber bei A100 haben sie es getan ;)
Anderer Markt und imo ein Kniefall vor der Faulheit der Entwickler. Ich hoffe inständig, dass Nvidia den Schritt bei Consumer Karten nicht geht.
Ich hatte schon genug von den "Ach wir nutzen erstmal FP32 damit es auf jeden Fall funktioniert." + "es läuft doch jetzt. Da müsste man nun alles neu trainieren" Diskussionen. FP32 ist auch richtig lahm bei den A100 TCs. TF32 ist ein "wenn ihr euch keine Gedanken drüber machen wollte, nehmt wenigstens das" Datenformat.

Für Endkunden ist aber wieder eine andere Geschichte. Wenn es auf AMD Karten vernünftig laufen soll, muss man auch dort mit der Genauigkeit runter.

pixeljetstream
2020-08-30, 13:29:12
Tensor-Ops sind aber doch max. 16bit Flop Ops, oder?

Du willst aber keine 16bit Vertex-Shader haben, da wabert das Bild. 16bit geht gerade noch so für Pixelshader, siehe 3Dfx und GeforceFX und definitiv in 24bit (AMD R300)

16bit FP -> 32bit FP ist doch der 4fache Aufwand, oder? Zumindest habe ich das so im Hinterkopf.

Wie das Bild von RLZ zeigt ist die Multiplikation fp16. Man könnte also drei Vektoren In fp16 rotieren/skalieren und die letzte Matrix Addition In fp32 machen. Sagen wir mal um Partikel und der gleichen zu transformieren. Es ist aber dann effektiv so dass man nur 3x3 Teil des tensors nützen würde ergo nur 9 von 16 Operanden, das klingt schon nicht mehr so effizient.
Das andere Problem ist das datenlayout. Ein Vektor wäre nicht in einem thread sondern scalar zerlegt über die threads verteilt (x in thread 0, y in thread 1 etc.), das ist eher untypisch. Wenn es einfach wäre, hätte man es mit Turing gezeigt ist nicht so dass man nicht nach anderen Möglichkeiten gesucht hätte ;)

Slipknot79
2020-08-30, 13:52:00
Ich verstehe nicht was du meinst, upsampling kannst du in jedem Spiel aktivieren :confused:


Ich meine DLSS.

AffenJack
2020-08-30, 14:17:58
Hm, warum schleppt NV das Zeug dann in normalen Gaming-GPUs mit? Bei den HPC-GPUs klar, dass das Sinn macht, aber die Tensor-Cores liegen sonst ja aktuell branch bzw. werden bestenfalls sporadisch verwendet.

Weil es bisher keine API gab um sie anzusprechen in Spielen und man es auf der alten Konsolengen eh nicht hätte nutzen können, man aber irgendwie eine Grundlage schaffen muss. Mit Win/Direct ML kann man die Tensor Cores nun auch für Spiele verwenden und die neuen Konsolen (zumindest Xbox) werden auch genug Inferencing Power für DL Zeugs haben. Man sehe sich zb Ubisofts Präsi zu Animationen an:
https://montreal.ubisoft.com/en/introducing-learned-motion-matching/

Hier gehts zwar am meisten um das schonen von Ram, aber etwas Inferencing wird man auch da durchführen müssen, um das ordentlich zu machen. Die Einsatzmöglichkeiten werden nur größer werden.

dargo
2020-08-30, 14:23:44
Man sehe sich zb Ubisofts Präsi zu Animationen an:

https://montreal.ubisoft.com/en/introducing-learned-motion-matching/

Der Link ist tot hier.

teezaken
2020-08-30, 14:31:05
Doch. :biggrin:

Das hat sich nur verbreitet weil fast jede Technik-Seite darüber berichtet hat. Und jeder einzelne hat Moores Law is dead als Quelle angeben.

Wenn man drüber nachdenkt und weiß wie die Techniken funktionieren dann kommt man zu dem Schluss, dass die Ampere Gerüchte von ihm hausgemachter Blödsinn sind. 4x RT Performance in Minecraft RTX und DLSS 3.0 das magischerweise in jedem TAA Spiel läuft.

Also echt, wer darauf reinfällt :rolleyes:

Da kann ich dir nur zustimmen, aber zumindest wird an DLSS weitergearbeitet. (wie sollte es auch anders sein)

SMSCC + DLSS2.1 sind ja in Wolfenstein: Youngblood schon in der Testphase wie auf SteamDB einzusehen. (Ob das am Ende auch wirklich so kommt sei mal dahingestellt.)

Dorn
2020-08-30, 14:31:40
Der Link ist tot hier.
Nicht bei mir :tongue:

w0mbat
2020-08-30, 14:34:31
Ich meine DLSS.
DLSS ist upsampling.

Triniter
2020-08-30, 14:47:14
Wo gibts morgen eigentlich den Stream zu sehen?

maximus_hertus
2020-08-30, 14:49:30
morgen? Dienstag...

Slipknot79
2020-08-30, 14:52:05
DLSS ist upsampling.


Bei DLSS geht es um mehr als Upsamplen. Sonst gäbe es 2 Features die sich gar nicht unterscheiden.

hq-hq
2020-08-30, 14:58:03
DLSS ist upsampling.

ich glaube er meint Upsampling ohne es zu merken oder sogar noch Vorteile VS Antialiasing@nativ zu haben :biggrin: - DLSS 2.0 oder dann das magische 3.0

Dampf
2020-08-30, 14:59:13
Füttert ihn einfach nicht. Genug Leute haben ihm schon in mehreren Foren unterrichtet, was DLSS 2.0 ist. Er wirds nicht verstehen.

robbitop
2020-08-30, 15:16:43
Und dabei ist es ziemlich gut dokumentiert. Es als reines Upsampling zu bezeichnen würde implzieren, dass derjenige DLSS 2.0 nicht verstanden hat.

Digidi
2020-08-30, 15:42:26
Das auf einem Mathematiker-Kongress gebracht, ist ein echter Eisbrecher.

In jedem Fall: :up:
Ja ja wenn man halt keine Ahnung hat versucht man sich halt über andere Lustig zu machen um von der eigenen Unfähigkeit Abzulenken.

Bewegungen eines Polygons kann man auf unterschiedlichste Weise darstellen. (Siehe Bild unten) Und je nach Effeck wie z.B. für Raytracing müssen besondere Informationen vorliegen. Bei Ray-Tracing z.B. langt es nicht das Polygon nur aus Eckpunkten zu Beschreiben. Man braucht die Fläche auf die der Lichtstrahl auftrifft um zu berechnen wie dieser Zurückgeworfen wird.

Auch für Kinematische Beziehungen wenn es sich nicht um ein festes Model handelt ist die Polygonendarstellung über die Vertics of ungünstig. Deshalb gibt es ja auch so Dinge wie Hitboxes etc....

pixeljetstream
2020-08-30, 15:55:25
Also die RT APIs werden genau wie der rasterizer gefüttert, Index Buffer und Vertex Buffer. Das Dreieck wird über die Eckpunkte beschrieben.

Was Animation angeht so wird das primär über Matrix Transform gelöst, skinning, manchmal auch per Vertex Morphing.

Im Vergleich zum Raster müssen bei RT die vertices vorher transformiert werden, bevor man sie in die Beschleunigungsstruktur pumpt. Bei rasterization kann man das ad-hoc erledigen.

Dampf
2020-08-30, 15:56:10
Wo gibts morgen eigentlich den Stream zu sehen?
https://www.twitch.tv/nvidia

Dienstag um 18 Uhr.

Digidi
2020-08-30, 16:05:32
Also die RT APIs werden genau wie der rasterizer gefüttert, Index Buffer und Vertex Buffer. Das Dreieck wird über die Eckpunkte beschrieben.

Was Animation angeht so wird das primär über Matrix Transform gelöst, skinning, manchmal auch per Vertex Morphing.

Im Vergleich zum Raster müssen bei RT die vertices vorher transformiert werden, bevor man sie in die Beschleunigungsstruktur pumpt. Bei rasterization kann man das ad-hoc erledigen.

Das ist ja rein auf Geometrie bezogen. Wie sieht es den mit Beleuchtung und Partieleffekten aus? Oder mit der Darstellung von Wasser etc. Reicht da eine 4x4 matrix aus um das effizient abzubilden?

Linmoum
2020-08-30, 16:19:39
- 3090 samples have already been received to media and youtuber. but can't measure performance, due to no driver
- 3090 AIB model's power comsumption about 500W
- Final price isn't confirmed yet
- Industry expect 1800~3000 (this include price difference by AIB and lineup)
https://twitter.com/harukaze5719/status/1300066906557222912

Preis wohl umgerechnet von Won -> USD. Kann in dem Fall real natürlich anders sein.

TheCounter
2020-08-30, 16:24:44
500W und mindestens 1800€ ist ne Hausnummer. Schade eigentlich, hätte meine GTX1080 gerne schon in Rente geschickt. Aber nicht für ne Karte mit nur 10GB.

Tesseract
2020-08-30, 16:27:25
Bewegungen eines Polygons kann man auf unterschiedlichste Weise darstellen.
macht keinen unterschied, am ende kommt, nach der multiplikation, die selbe translations-rotations-projektions-matrix raus die jeden vertex im ganzen mesh an die richtige position bringt, genau das ist das elegante daran.

Bei Ray-Tracing z.B. langt es nicht das Polygon nur aus Eckpunkten zu Beschreiben. Man braucht die Fläche auf die der Lichtstrahl auftrifft um zu berechnen wie dieser Zurückgeworfen wird.
die vertices(+normalen) definieren die fläche und sind die inputs für den schnittalgorithmus. wie willst du die oberfläche sonst "haben"? in voxelform?

Das ist ja rein auf Geometrie bezogen.
genau darum geht es.

Erbsenkönig
2020-08-30, 16:32:27
https://twitter.com/harukaze5719/status/1300066906557222912

Preis wohl umgerechnet von Won -> USD. Kann in dem Fall real natürlich anders sein.

Das bezieht sich jetzt aber lediglich auf die 3090, oder? Aber gut, was heißt das dann erst für die Karten unter ihr.:freak:

Digidi
2020-08-30, 16:35:36
genau darum geht es.

Es geht darum ob für 4x4 Matrix Multiplikationen überhaupt genug Workload da ist. Geometrie ist mittlerweile sehr gut versorgt. Interessant wäre mal zu wissen welche Matrizenform Beleuchtungsmoddelle, Spiegelung, Nebelefeffeckte etc.. brauchen.

boxleitnerb
2020-08-30, 16:35:49
500W??? Als ich noch gezockt habe, war ich zugegebenermaßen ja NV-Fanboy, aber das hier ist schlimmer als Fermi - wenn es denn stimmt.
Wie kann man von so einer komfortablen Situation so tief fallen?

Troyan
2020-08-30, 16:37:44
Glaubt doch einfach nicht jedem Quatsch im Internet. Und das die Medien die Karten schön hätten, bezweifel ich. Dann gäbe es längst vernünftige Leaks.

Linmoum
2020-08-30, 16:39:49
Und das die Medien die Karten schön hätten, bezweifel ich. Dann gäbe es längst vernünftige Leaks.Was willst du ohne Treiber leaken?

Troyan
2020-08-30, 16:40:57
Karton? Karte? Oho.

Das, was so geleakt wird, wenn Leute unter NDA Dinge an Seiten wie Videocardz weitergeben.

Thunder99
2020-08-30, 16:41:59
Das werden wir wohl in paar Tagen und Wochen erfahren.

Nvidia steckt in einem Dilemma. 16GB wollten sie nicht oder der 104er war zu schwach gegenüber den 102er. Wäre ja so schön gewesen

8/12/16/24 GB bei 60er/70er/80er/90er

Fetza
2020-08-30, 16:50:14
500W??? Als ich noch gezockt habe, war ich zugegebenermaßen ja NV-Fanboy, aber das hier ist schlimmer als Fermi - wenn es denn stimmt.
Wie kann man von so einer komfortablen Situation so tief fallen?

Findest Du? Ich hatte eine 480 GTX und die lief hervorragend mit einem Thermaltake Shaman. Letzlich steht und fällt alles mit dem Kühler. 350 Watt Leistungsaufnahme müssen nun einmal anständig gekühlt werden, dann stellt eine solche Leistungsaufnahme kein Problem dar.
Ich sehe aber ehrlich gesagt ein ganz anderes Problem bei Ampere: Wer will bitte im Jahre 2020 noch eine High-End-Graphikkarte mit 10 GB RAM kaufen? Das ist für eine Karte oberhalb der 600 Euroklasse viel zu wenig. Und eine 3070 mit 8 GB würde ich mir auch nicht in den Rechner stecken wollen.
Als RTX 2080 Nutzer bin ich von dem Aufgebot an Graka-Ram ehrlich gesagt ziemlich abgeturnt. Und ich kann mich noch gut an die Diskussionen zum Turing-Start erinnern, als sich eigentlich jeder einig war, dass 8 GB RAM im High-End für das Jahre 2018 zu wenig war.
Nur die RTX 3090 überzeugt mich (basierend jetzt auf die Spekus) darum vollends. Eine solche Karte ist mMn. auch 1500 Euro wert. Nicht dass ich selbst so viel Geld in eine Graka stecken würde, aber wer das Geld ausgeben mag bekommt hier auch etwas Wertiges für sein Geld.

Linmoum
2020-08-30, 16:53:43
Laut Igor wird's für die FE übrigens erstmal keine Blöcke geben. Wer zeitnah Wakü will, muss also wohl die Billigkarten der Hersteller kaufen. ;D

Für die FE wird es erst einmal keine Blöcke geben, da NV die PCB-Daten des PG133 nicht verteilt hat. Die Referenzplatine ist PG132 und wird wohl zunächst auf den "Einsteiger"-Karten der Boardpartner erhältlich sein. Da passen dann auch Blöcke
https://www.igorslab.de/community/threads/neuigkeiten-und-ger%C3%BCchte-zu-rtx-3xxx-ampere-sammelstrang.2843/page-44#post-68884

Brillus
2020-08-30, 16:57:14
500W und mindestens 1800€ ist ne Hausnummer. Schade eigentlich, hätte meine GTX1080 gerne schon in Rente geschickt. Aber nicht für ne Karte mit nur 10GB.
Es kommt ja noch BigNavi.

Digidi
2020-08-30, 17:14:29
@Tresserract und @pixeljetstream

Ihr redet von Mesh transformatioonen. Aber woher kommt den die Info um wie viel das Mesh verschoben und gedreht werden soll?

Hierzu braucht man dann Kinematische Beziehungen:
Das sind dann keine Kleichungen mehr die sich in 4x4 Matrizen quetschen lassen.

dargo
2020-08-30, 17:22:57
https://twitter.com/harukaze5719/status/1300066906557222912

Preis wohl umgerechnet von Won -> USD. Kann in dem Fall real natürlich anders sein.
WTF? 500W? X-D

fondness
2020-08-30, 17:32:48
Bei 500W muss das Ding Minimum doppelte Perf liefern wie eine 2080Ti damit die Perf/Watt nicht sinkt. Angesichts zweier Fullnode shrinks sollte man fast dreifache Performance erwarten sofern das stimmt. Packt NV hier also ohne Not die Keule aus oder ist da was schief gelaufen?

WedgeAntilles
2020-08-30, 17:39:09
Wenn ich keine Treiber habe um die Performance zu testen - wie kann ich dann die Leistungsaufnahme testen? :confused:

pixeljetstream
2020-08-30, 17:40:22
@Tresserract und @pixeljetstream

Ihr redet von Mesh transformatioonen. Aber woher kommt den die Info um wie viel das Mesh verschoben und gedreht werden soll?

Hierzu braucht man dann Kinematische Beziehungen:
Das sind dann keine Kleichungen mehr die sich in 4x4 Matrizen quetschen lassen.
IMO verwechselt du was Gaming macht mit Simulation von Körpern oder Flüssigkeiten.
Du musst dir nur die Game Engines un deren APIs angucken, unreal, unity editor etc. es reicht praktisch immer die 4x4. Oft nimmt man auch einzeln, Position + Quaternion, oder angle/axis in den Game APIs.

MiamiNice
2020-08-30, 17:40:54
https://twitter.com/harukaze5719/status/1300066906557222912

Preis wohl umgerechnet von Won -> USD. Kann in dem Fall real natürlich anders sein.

So ein Schmarn, dann gäbe es viel mehr Bilder im Netz.
Und wie will man die 500W ohne Treiber vermessen?

Aber ich denke die 500W sind schon sehr real.
Da kommt man auch drauf wenn man seinen Kopf kurz benutzt, bei 350Watt ootb.

Troyan
2020-08-30, 17:42:58
Wenn ich keine Treiber habe um die Performance zu testen - wie kann ich dann die Leistungsaufnahme testen? :confused:

Aussage kann nur von AIBs kommen. Und dort hat Gainward ja schon geleakt, dass es mindesten eine Karte mit maximal 350W gibt.

igg
2020-08-30, 17:44:06
https://twitter.com/harukaze5719/status/1300066906557222912

Preis wohl umgerechnet von Won -> USD. Kann in dem Fall real natürlich anders sein.
Wenn die 3090 so ein heißes und teures Eisen ist, wieso kein klassischer Launch mit 3070/3080 und die 3090 als Overkill für die Enthusiasten nachschieben?

Linmoum
2020-08-30, 17:47:02
Die 3080 alleine wäre wohl ein zu kleines Upgrade gegenüber einer 2080Ti. Und nur mit RT lockst du die Meute nicht hinter dem Ofen hervor.

Tesseract
2020-08-30, 17:47:48
Ihr redet von Mesh transformatioonen. Aber woher kommt den die Info um wie viel das Mesh verschoben und gedreht werden soll?
wo soll da der unterschied sein? aus den objektkoordinaten bildest du die translationsmatrix, aus der orientierung die rotationsmatrix, wenn das ding skaliert sein soll aus dem skalierungsfaktor die skalierungsmatrix usw. am ende werden diese matrizen in der richtigen reihenfolge multipliziert und raus kommt eine für-alles-matrix. wenn das ding 10000000 vertices hat multiplizierst du 10000000 vertices mit der für-alles-matrix und bekommst 10000000 neue vertices die genau da sind wo du sie haben willst. bei dynamischen objekten mit animationen usw. ist das ganze natürlich komplizierter.

Troyan
2020-08-30, 17:48:18
Nach den leaked Timespy Extreme Score ist die 3080 +- genauso vor der 2080TI wie die 2080TI es gegenüber der GTX1080TI war.

Wäre die 3090 so schlecht, würde nVidia die 3080 gleich mit 20GB bringen und die 3090 draußen lassen.

MiamiNice
2020-08-30, 17:59:13
Die 3080 alleine wäre wohl ein zu kleines Upgrade gegenüber einer 2080Ti. Und nur mit RT lockst du die Meute nicht hinter dem Ofen hervor.


Das kann so nicht sein. 3080 hat die selben Features wie die 3090. Wenn die 90iger so extrem abgeht das es 400W und den Preis rechtfertigt, gilt das auch für die 80.

SKYNET
2020-08-30, 18:00:54
So ein Schmarn, dann gäbe es viel mehr Bilder im Netz.
Und wie will man die 500W ohne Treiber vermessen?

Aber ich denke die 500W sind schon sehr real.
Da kommt man auch drauf wenn man seinen Kopf kurz benutzt, bei 350Watt ootb.


soweit ich weiss, gibt es treiber, aber der lässt nix laufen, ausser NV eigene programme/tools... und die dürften langen um die GPU zum schwitzen zu bringen.

MiamiNice
2020-08-30, 18:02:05
Und die werden Youtubern gleich mitgeschickt? Come on.
Keine Bilder im Netz, keine Karten bei Youtubern :wink:

Linmoum
2020-08-30, 18:09:30
Natürlich werden Reviewer noch keine Customs kriegen. NV wird sicherstellen, dass zunächst jeder die FE testet. Wollen die ja schließlich verkaufen.

r3ptil3
2020-08-30, 18:11:07
Natürlich werden Reviewer noch keine Customs kriegen. NV wird sicherstellen, dass zunächst jeder die FE testet. Wollen die ja schließlich verkaufen.

Da geht's überhaupt nicht um's verkaufen, sondern um verfälschte Ergebnisse zu vermeiden.

Mit einer FE Version bekommt einfach jeder seriöse Tester die gleiche Hardware.

soweit ich weiss, gibt es treiber, aber der lässt nix laufen, ausser NV eigene programme/tools... und die dürften langen um die GPU zum schwitzen zu bringen.

Du meinst damit, was du im Video von Igor gehört hast :tongue:

boxleitnerb
2020-08-30, 18:11:46
Findest Du? Ich hatte eine 480 GTX und die lief hervorragend mit einem Thermaltake Shaman. Letzlich steht und fällt alles mit dem Kühler. 350 Watt Leistungsaufnahme müssen nun einmal anständig gekühlt werden, dann stellt eine solche Leistungsaufnahme kein Problem dar.
Ich sehe aber ehrlich gesagt ein ganz anderes Problem bei Ampere: Wer will bitte im Jahre 2020 noch eine High-End-Graphikkarte mit 10 GB RAM kaufen? Das ist für eine Karte oberhalb der 600 Euroklasse viel zu wenig. Und eine 3070 mit 8 GB würde ich mir auch nicht in den Rechner stecken wollen.
Als RTX 2080 Nutzer bin ich von dem Aufgebot an Graka-Ram ehrlich gesagt ziemlich abgeturnt. Und ich kann mich noch gut an die Diskussionen zum Turing-Start erinnern, als sich eigentlich jeder einig war, dass 8 GB RAM im High-End für das Jahre 2018 zu wenig war.
Nur die RTX 3090 überzeugt mich (basierend jetzt auf die Spekus) darum vollends. Eine solche Karte ist mMn. auch 1500 Euro wert. Nicht dass ich selbst so viel Geld in eine Graka stecken würde, aber wer das Geld ausgeben mag bekommt hier auch etwas Wertiges für sein Geld.

Ja, schon. Weil das zieht sich ja auch runter auf die kleineren Modelle, die ebenfalls eine schlechtere Effizienz hätten (ggf. nicht so schlimm wie das Topmodell). Das macht die Karten noch teurer, wenn hochwertige Kühler drauf müssen...oder eben lauter. Und in kleinen Formfaktoren wird es auch nicht einfacher.
Ich habe früher auch einfach einen Wasserkühler drauf und fertig. Aber das ist nicht der Massenmarkt. Effizienz ist einfach die beste und nachhaltigste Lösung. Was, wenn AMD auch auf 350-500W gehen sollte? Wenn es um maximale Performance geht, gewinnt die effizienteste Karte immer (so sie denn in der Performanceregion kommt - eine 5870 XTX mit extra hohen Taktraten und 2 GB hätte die 480 gut gekontert denke ich. Nur hat AMD nicht den Mut gehabt oder sich schon auf die nächste Generation konzentriert. Mit der 6970 hat man dann den Effizienzvorteil leider verspielt.).

Mal sehen was dieses Mal passiert.

MiamiNice
2020-08-30, 18:14:38
Da geht's überhaupt nicht um's verkaufen, sondern um verfälschte Ergebnisse zu vermeiden.

Mit einer FE Version bekommt einfach jeder seriöse Tester die gleiche Hardware.


Kannst Du mir die Adresse Deiner Welt nennen? Muss dort wirklich unendlich schön sein. Ernst gemeint.

Natürlich geht es in der Welt aller anderen nur ums verkaufen. Ausschließlich.

mironicus
2020-08-30, 18:19:53
Mal sehen was dieses Mal passiert.

AMD hat ja noch etwas Zeit um nachträglich Anpassungen an ihren eigenen Modellen vorzunehmen - nach Veröffentlichung der Tests zu den Ampere-Karten.

Nach den Tests wird AMD wahrscheinlich einfach die TDP von BigNavi auf 250 Watt festnageln und sich dann feiern lassen wie effizient ihre eigenen Karten im Vergleich mit NVidia sind. :freak:

Diesen "Zen2-Moment" will AMD bestimmt auch mit BigNavi erreichen. 5% weniger Leistung, geringere TDP, 1000 Euro günstiger. :D

Linmoum
2020-08-30, 18:20:58
Da geht's überhaupt nicht um's verkaufen, sondern um verfälschte Ergebnisse zu vermeiden.

Mit einer FE Version bekommt einfach jeder seriöse Tester die gleiche Hardware.Das ergibt keinen Sinn, da "jeder seriöse Tester" nicht nur andere Testmethodiken hat, sondern vor allem auch die Benchmarkparcours unterschiedlich sind. Und gerade letzteres kann die Ergebnisse je nach Spiel stärker unterscheiden, als ein paar MHz mehr oder weniger beim Takt.

MiamiNice
2020-08-30, 18:26:25
Nach den Tests wird AMD wahrscheinlich einfach die TDP von BigNavi auf 250 Watt festnageln und sich dann feiern lassen wie effizient ihre eigenen Karten im Vergleich mit NVidia sind. :freak:


Das vermute ich ehrlich gesagt auch.
Demnächst haben wir dann im Forum AMD Boys die die über NV Boys lästern wegem dem Stromverbrauch. Und anders herum über die kurzen Balken.

r3ptil3
2020-08-30, 18:34:06
Kannst Du mir die Adresse Deiner Welt nennen? Muss dort wirklich unendlich schön sein. Ernst gemeint.

Natürlich geht es in der Welt aller anderen nur ums verkaufen. Ausschließlich.

Du musst das Gesamtbild anschauen: Anzahl verkaufter Custom-Modelle und Founders Editions, dann weisst du was ich meine. Hinzu kommt, dass die FE-Modelle in diversen Ländern nicht mal verfügbar sind.

Die FE stellt für das Testen einfach die Referenz dar.



Das ergibt keinen Sinn, da "jeder seriöse Tester" nicht nur andere Testmethodiken hat, sondern vor allem auch die Benchmarkparcours unterschiedlich sind. Und gerade letzteres kann die Ergebnisse je nach Spiel stärker unterscheiden, als ein paar MHz mehr oder weniger beim Takt.

Ich kenne die Vorgaben an die Tester nicht und will mich da nicht zu weit aus dem Fenster lehnen, aber ich erinnere mich daran, was mit nicht Nvidia-freundlichen Testern passiert: die bekamen einfach keine Testkarten mehr zugeschickt. Denkst du das ist heute anders?

DavChrFen
2020-08-30, 18:38:22
Laut Igor wird's für die FE übrigens erstmal keine Blöcke geben. Wer zeitnah Wakü will, muss also wohl die Billigkarten der Hersteller kaufen. ;D


https://www.igorslab.de/community/threads/neuigkeiten-und-ger%C3%BCchte-zu-rtx-3xxx-ampere-sammelstrang.2843/page-44#post-68884

Es gab doch ein oder zwei deutsche Hersteller, wo man eine GraKa hinschicken konnte und nach ca. einem Monat konnte man dann den WaKü-Block kaufen. Also direkt ab Launch wird es evtl. nichts geben, aber eine gewisse Zeit darnach denke ich durchaus. Ich denke so ein kurzes PCB ist sehr interessant für die WaKü-Fraktion.

w0mbat
2020-08-30, 18:44:51
Füttert ihn einfach nicht. Genug Leute haben ihm schon in mehreren Foren unterrichtet, was DLSS 2.0 ist. Er wirds nicht verstehen.
Kommt jetzt wieder ein screenshot von dir, der wie 480p aussieht, bei dem du aber behauptest die Schärfefilter macht das schon wett und die Artifakte wären mehr Details als nativ? :freak:

Und dabei ist es ziemlich gut dokumentiert. Es als reines Upsampling zu bezeichnen würde implzieren, dass derjenige DLSS 2.0 nicht verstanden hat.
Stimmt, es ist ja Blockchain-AI-DeepLearning-KI-SpaceX-Robot-Laser-Upsampling. Ganz vergessen. Sieht halt trotzdem wie upsamling aus ;D

Emil_i_Lönneberga
2020-08-30, 18:57:24
Laut Igor wird's für die FE übrigens erstmal keine Blöcke geben. Wer zeitnah Wakü will, muss also wohl die Billigkarten der Hersteller kaufen. ;D


https://www.igorslab.de/community/threads/neuigkeiten-und-ger%C3%BCchte-zu-rtx-3xxx-ampere-sammelstrang.2843/page-44#post-68884

PG132 bedeutet dann wahrscheinlich eine längere Platine ohne V-Design und entzerrter PCB Bestückung mitsamt 2x 8Pin, so wie es die Gainward Phoenix 3090 und 3080 zeigen?

https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed

https://videocardz.com/newz/nvidia-ampere-ga102-rtx-3090-3080-gpu-pictured

Mit Sicherheit das kleinere Übel im Hinblick auf die Kühlung.

https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Wasserkuehler-Alphacool-1356972/

71291

gedi
2020-08-30, 19:42:33
PG132 bedeutet dann wahrscheinlich eine längere Platine ohne V-Design und entzerrter PCB Bestückung mitsamt 2x 8Pin, so wie es die Gainward Phoenix 3090 und 3080 zeigen?

https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed

https://videocardz.com/newz/nvidia-ampere-ga102-rtx-3090-3080-gpu-pictured

Mit Sicherheit das kleinere Übel im Hinblick auf die Kühlung.

https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Wasserkuehler-Alphacool-1356972/


71291

Ich stelle mir ein Konstrukt für diese Platine relativ komplex vor. Zu realisieren wohl nur wenn man beide Seiten kühlt, zwecks Stabilisierung. Damit meine ich das PCB der FE

Fragman
2020-08-30, 19:56:38
Also heute ist Sonntag, 2 Tage vor dem Stream und wir sind bei 500Watt.
Ich glaube, die 600 schaffen wir bis übermorgen noch.
Übrigens gibt es ein Gesetz im Internet, danach geht der Verbrauch von BigNavi proportional runter zum Anstieg von Ampere. Umgekehrt heißt das dann, man muss sich nur einen Ampere mit 700 Watt herbeireden und BigNavi landet punktgenau bei 200 Watt. ;D

Spekuforum schön und gut, aber vielleicht brauchen wir eine neue Kategorie für die 2022 Karten. :D

Grendizer
2020-08-30, 19:59:41
....

Spekuforum schön und gut, aber vielleicht brauchen wir eine neue Kategorie für die 2022 Karten. :D

Naja ... der Ampere Nachfolger wird dann mit einem Mini-AKW ausgeliefert.

https://www.spiegel.de/wirtschaft/unternehmen/atomkraft-mini-kraftwerke-in-der-eu-was-kommt-da-auf-uns-zu-a-1093128.html

Timbaloo
2020-08-30, 20:09:24
Also heute ist Sonntag, 2 Tage vor dem Stream und wir sind bei 500Watt.
Ich glaube, die 600 schaffen wir bis übermorgen noch.
Übrigens gibt es ein Gesetz im Internet, danach geht der Verbrauch von BigNavi proportional runter zum Anstieg von Ampere. Umgekehrt heißt das dann, man muss sich nur einen Ampere mit 700 Watt herbeireden und BigNavi landet punktgenau bei 200 Watt. ;D

Spekuforum schön und gut, aber vielleicht brauchen wir eine neue Kategorie für die 2022 Karten. :D
Amen. Den Zustand des Threads perfekt beschrieben.

RLZ
2020-08-30, 20:43:22
Vielleicht sollten wir den Ampere Verbrauch auf 1kW Erhöhen. Big Navi verbraucht dann negativ Energie und löst die Energieprobleme dieser Welt :freak:

MiamiNice
2020-08-30, 20:43:26
Also heute ist Sonntag, 2 Tage vor dem Stream und wir sind bei 500Watt.
Ich glaube, die 600 schaffen wir bis übermorgen noch.
Übrigens gibt es ein Gesetz im Internet, danach geht der Verbrauch von BigNavi proportional runter zum Anstieg von Ampere. Umgekehrt heißt das dann, man muss sich nur einen Ampere mit 700 Watt herbeireden und BigNavi landet punktgenau bei 200 Watt. ;D

Spekuforum schön und gut, aber vielleicht brauchen wir eine neue Kategorie für die 2022 Karten. :D


Du hast scheinbar nicht richtig gelesen. Es ging darum das stark übertaktete 3090 Karten die 500 Watt knacken können. Was auch gar nicht so abwegig ist da die 3090 mit 350W ootb angegeben wird. Herstellerdesign können deutlich darüber liegen, wie wir alle wissen. Alleine die 350W der FE werden schon zu 420 Watt mit dem Schieberegler auf +20% PT.
Was AMD betrifft kann man zumindest mutmaßen das sie die Rolle des "Stromsparers" einnehmen werden, falls sie sich verzoggt haben. Wenn NV diese Karten mit diesen Kosten und Verbrauch auf den Markt wirft - wird sie wohl auch etwas können. Was liegt für AMD näher als dann mit einem niedrigen Verbrauch zu kontern? Mit entsprechender Werbung und besseren Preisen könnten sie den Markt massiv aufmischen. Nicht jeder hat Lust auf eine dicke Stromrechung zzgl. der Anschaffungskosten für eine NV* Karte.

Ich wollte erst grüne Karte schreiben - aber das ist wohl etwas daneben ;D
Ob uns Lederjacke am Dienstag das neue schwarze Firmenlogo präsentiert?

RLZ
2020-08-30, 21:04:20
Was liegt für AMD näher als dann mit einem niedrigen Verbrauch zu kontern?
Ach so einfach ist das? Das Marketing kann einfach mal den Stromverbrauch drücken?

Zergra
2020-08-30, 21:15:17
Vielleicht sollten wir den Ampere Verbrauch auf 1kW Erhöhen. Big Navi verbraucht dann negativ Energie und löst die Energieprobleme dieser Welt :freak:

Ne, dafür werden zu wenig AMD Karten gekauft :biggrin::rolleyes:

mironicus
2020-08-30, 21:30:42
Die AMD-Karten werden auf jeden Fall günstiger sein und bestimmt nicht die Preise der 3080 übertreffen. Auch ein teures PCB wie die 3090 wird da nicht nötig sein. Sie werden NVidia preislich unter Druck setzen können. Und darauf freue ich mich. :)

MiamiNice
2020-08-30, 21:31:46
Ach so einfach ist das? Das Marketing kann einfach mal den Stromverbrauch drücken?

Nein aber sie können das PT einfach auf 250 Watt festnageln. Oder übersehe ich hier was schwerwiegendes?

hq-hq
2020-08-30, 21:33:21
es ist wahr

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71294&stc=1&d=1598815960

crux2005
2020-08-30, 21:56:10
Die 500W sind doch sicher AiB Marketing Gelaber. Unser Kühler XY mit Advanced Triple-Fan Design kann bis zu 500W kühlen. :facepalm:

Dural
2020-08-30, 22:09:55
Ihr diskutiert jetzt nicht ernsthaft über 500w?

Spasstiger
2020-08-30, 22:18:24
Der 12-polige Stromanschluss ist für max. 396 Watt spezifiziert - Molex Micro-Fit 3.0 hat ein Derating auf 5,5 Ampere bei maximalem kompatiblem Querschnitt und 12 Pins in zwei Reihen (6 * 5,5 Ampere * 12 Volt = 396 Watt) - dazu kommen max. 75 Watt vom Slot. Ich denke, dass sich Hersteller-OC-Versionen bis zu 400 Watt genehmigen werden.

Mit Adaptern von 2*8-Pin auf 1*12-Pin stehen netzteilseitig nur 375 Watt zur Verfügung (2*150 Watt + 75 Watt). Kann auch sein, dass man da die Grenze für OC-Versionen zieht.

Linmoum
2020-08-30, 22:26:54
Customs werden keinen 12-pin haben, den kriegt nur die FE. Und mit 3x8-pin sind's halt bis zu 525W.

Monsta
2020-08-30, 22:27:43
Warscheinlich ist das alles nur Marketing.

Die Dinger ziehen am Ende 300 Watt, und alle feiern diese sparsamen Karten.

dargo
2020-08-30, 22:30:12
es ist wahr

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71294&stc=1&d=1598815960
Danke für dieses Bild. ;D ;D ;D

Sunrise
2020-08-30, 22:34:32
Customs werden keinen 12-pin haben, den kriegt nur die FE. Und mit 3x8-pin sind's halt bis zu 525W.
Was wohl auch die Kernaussage war bzw. genau das war damit gemeint.

Die AiBs müssen sich bei diesem schon von NV sehr hohen Verbrauchslevel ja irgendwie Luft verschaffen, damit man überhaupt AIB-Karten kauft. Natürlich wird es da AIBs geben, die dann sagen “wenn wir nicht deutlich höher gehen” ist kein Spielraum für längere Balken, bessere (teurere) Kühler, bessere OC-Tools usw. und dann natürlich dafür auch höhere Preise. Im Prinzip das, was die Jahre davor auch getan wurde, nur eben mit 2x8Pin.

Ansonsten kann man auch gleich zu den FEs greifen. Im Übrigen hatte das Igor schon erwähnt, dass den AIBs die Situation genausowenig gefällt. Dennoch sind die wichtig, weil man dadurch einfach mehr Auswahl hat, aber es sollte eben ein gewisser Mehrwert (den jeder anders definiert) vorhanden sein.

Und klar, wenn NV die Preise bei der 3090 FE sehr hoch (1400 EUR oder mehr) ansetzt, werden dann die AIBs auch ordentlich zugreifen. Die wollen ja auch ein Teil des Kuchens ab...

ianm
2020-08-30, 22:39:35
Für die 3090 werden anfangs eh nicht genug Chips vorhanden sein. Aber Hauptsache die Balken passen. Nvidia scheint das Ding wirklich zu prügeln.

Zossel
2020-08-30, 22:39:39
Gibt es eigentlich Wasserkühlungen mit Wärmepumpen?

ianm
2020-08-30, 22:42:28
Direkt an die Wasserleitung, neuester Trend. ;D

r3ptil3
2020-08-30, 22:50:02
Lange nicht mehr solch verwirrende Leaks/Gerüchte gesehen kurz vor einem Release...

Mal schauen ob Nvidia überhaupt greifbare Aussagen zur Leistung machen wird am Dienstag. Vermute fast, dass sie alles erzählen werden, ausser greifbare Performancedaten.

Die Namensgebung 3090 macht mich auch stutzig, scheint, dass man den jahrelang aufgebauten Ruf des Namens "Titan" nicht beschädigen will.

[MK2]Mythos
2020-08-30, 22:50:16
Direkt an die Wasserleitung, neuester Trend. ;D
Hat der8auer ja auch schon mal geübt.

[MK2]Mythos
2020-08-30, 22:54:10
Lange nicht mehr solch verwirrende Leaks/Gerüchte gesehen kurz vor einem Release...

Mal schauen ob Nvidia überhaupt greifbare Aussagen zur Leistung machen wird am Dienstag. Vermute fast, dass sie alles erzählen werden, ausser greifbare Performancedaten.

Die Namensgebung 3090 macht mich auch stutzig, scheint, dass man den jahrelang aufgebauten Ruf des Namens "Titan" nicht beschädigen will.
Ich bin mir sicher dass Lederjacke Superlativen wie "unbelievable amount of power" "sheer performance" "for power RTX needs Power" und "overpower" benutzen wird. Für jede Nicht-Fanboy wird das sicherlich ne ulkige Vorstellung. :biggrin:

Daredevil
2020-08-30, 22:55:26
The more you buy, the more you save*

*Heizkosten im Winter

:smile:

Sunrise
2020-08-30, 23:08:46
Lange nicht mehr solch verwirrende Leaks/Gerüchte gesehen kurz vor einem Release...

Mal schauen ob Nvidia überhaupt greifbare Aussagen zur Leistung machen wird am Dienstag. Vermute fast, dass sie alles erzählen werden, ausser greifbare Performancedaten.

Die Namensgebung 3090 macht mich auch stutzig, scheint, dass man den jahrelang aufgebauten Ruf des Namens "Titan" nicht beschädigen will.
NV ist sich eben bewusst, dass AMD tatsächlich sehr schlagkräftig geworden ist.*

Die 3080 war ja quasi immer ihre Vorzeigekarte im Lineup, nur - dass man die mit nur 10GB in den Markt schieben möchte und die 20GB zurückhält spricht Bände. Auch 24GB zu verbauen, spricht ebenso Bände, soetwas gäbe es ohne drohende Konkurrenz im Markt erst garnicht, siehe Intel, die aber vollkommen von AMD überrollt wurden (Marktanteile lassen sich leider nicht von jetzt auf gleich ändern, das dauert Jahre bei Intels Marktmacht). Die 80er waren auch die letzten Jahre immer der 104er Chip, nicht der große Brocken.

NV wird also das für die Führung Notwendige vorstellen, dieses Mal die 3090 in den Vordergrund schieben (weil nur die eben fast den voll-aktiven GA102 hat) auch vor allem die Raytracing-Power, Rohpower, und evtl. sogar 8K-Benchmarks auffahren... sodass die Konkurrenz möglichst schlecht mit ihren 8GB VRAM dasteht. DLSS sollte den VRAM-Verbrauch ja eher verringern, aber damit werden natürlich die Balken dann noch länger...

Ob es eine Titan überhaupt geben wird, steht IMHO in den Sternen, die Mehrleistung ist ja dann quasi nichtmehr vorhanden, vor allem bei 24GB als Vorgabe - also quasi witzlos. Für NV ist es aber natürlich wichtig, immer die Spitze vorzugeben, man hat also genug Asse im Ärmel um sich auf AMD möglichst gut einstellen zu können.

*AMD redet nichtmehr nur, sie haben einen Plan und liefern und haben eine sehr schlechte Position um 180 Grad mit nur einem Chip (N10) schon umgedreht. RDNA1 mit 250mm^2 mit bald verfügbaren min. 50% höherer Effizienz und RT-Fähigkeiten inkl. großem Chip, den es schon gefühlte Ewigkeiten nichtmehr gab. Auf AMD lastet sehr hoher Erwartungsdruck, vor allem bei diesen grandiosen Vorgaben.

Slipknot79
2020-08-30, 23:10:40
Also 500W sind für nen Lambo immer noch zu wenig. :redface:


Vom Zeitrahmen her passts eigentlich, bis Chipverfügbarkeit passt, bis Wakü am Start sind, bis Kinderkrankheiten geheilt sind, bis BN raus ist, bis Preise gesenkt sind, kann man bis Ende Nov erst mal chillen, dann kann man die Rübe einschalten und entscheiden welche Graka es werden soll, bis dahin ist alles qool. (y)

Daredevil
2020-08-30, 23:14:56
Nur weil jemand vorprescht, hat er doch automatisch keine Angst?
Oder hat AMD Angst vor Intel, weil sie nen 16c Desktop Prozessor released haben?
Haben sie Angst, weil es einen 64c Threadripper gibt? ( 280w btw. und 3700€ )
AMD will Intel in Grund und Boden stapfen.

Also bislang hat AMD einfach ( noch nicht ) gezeigt, dass sie auch schnellere Karten herstellen können, bislang waren es nur effizientere.
Es liegt nur ein "50%" Versprecher in der Luft ( Nicht Performance, nur Perf/w ) und, dass AMD Konsolen mit RT ausstattet.
Ersteres ist Luft, zweiteres ist beachtlich, wenn nutzbar in so einem kleinen Formfaktor. Aber auch da sieht man noch nicht viel.

Der einzige, der wirklich dieses Jahr liefern muss, ist halt AMD. Bei Nvidia kann man da deutlich "sicherer" voran gehen, weil sie jetzt schon ein funktionierendes RT Produkt ohne Konkurrenz haben. ( Vielleicht nicht die 2060, aber ab 2080s durchaus )
( Und das wünsche ich mir sehr btw. , das AMD Liefert :) )

Raff
2020-08-30, 23:26:44
Ich kenne die Vorgaben an die Tester nicht und will mich da nicht zu weit aus dem Fenster lehnen, aber ich erinnere mich daran, was mit nicht Nvidia-freundlichen Testern passiert: die bekamen einfach keine Testkarten mehr zugeschickt. Denkst du das ist heute anders?

Es gibt bei Launch-Tests keine Vorgaben, nur Wünsche und Inspiration (also Leitlinien) durch die zeitnah bereitgestellten Reviewer's Guides. Kann man aber auch anders machen.

Nur mal so ne Frage. Hier wird von DLSS 3.0 gesprochen, als sei es (für Ampere (Launch)) bestätigt... Wer sagt das?

Ich hoffe doch nicht irgend eines der ettlichen Youtuber-"Leaks" ;D

Ich hoffe inständig, dass dieses sagenumwobene "DLSS 3.0" endlich DLSS 2x ist, das Nvidia 2018 in Aussicht stellte. Also ein AA-Modus, der die maximale Bildqualität erhöht – native Auflösung plus KI-Aufwertung anstelle des aktuellen Upscalings. Bisher geht das nur über den Trick, DSR mit DLSS 2.0 (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/) zu nutzen. DLSS 2x wäre ein schönes Gutzerl für Enthusiasten, gerade in Kombination mit den größeren Speichermengen.

MfG
Raff

Cubitus
2020-08-30, 23:50:56
Für die 3090 werden anfangs eh nicht genug Chips vorhanden sein. Aber Hauptsache die Balken passen. Nvidia scheint das Ding wirklich zu prügeln.

Ich glaube die Karte wird stärker als erwartet und im Relation zum Mehrverbrauch ist es dann wieder mehr als okay..

Überlegt doch mal logisch..


Nvidia ist nun bei 7nm

Nvidia hat mit der Touring und dem Boost Management bewiesen, das Effizienz möglich ist.. Warum sollte Nvidia einen Müll konstruieren und die Karte unnötiger Weise prügeln..

Nvidia ist nicht komplett unter Zugzwang, AMD muss liefern


Meine Prognose ist das es am Dienstag Abend lange Gesichter geben wird..
Und die 300-400 Watt Whatever ;D im Ergebnis positiv aufgenommen werden..

Aber es sollte klar sein, es wird teuer... Wenn ich ein Tipp abgeben müsste 1749 Euro...XD

Dural
2020-08-30, 23:54:16
Also ich bezweifle derzeit alles, bis zum freitag ging alles noch von 8nm samsung aus, jetzt haben wir 7nm und das eventuell sogar von tsmc.

35miliarden auf 620mm2 ist ein ziemlich grosser chip.

Was mich seit monaten verwunder sind die extrem frühen leaks über die einheiten, 1,5 jahre zum voraus sowas gab es nie zuvor. Für mich sieht das immer wie mehr nach verwirr taktik aus.

Cubitus
2020-08-30, 23:55:38
Also ich bezweifle derzeit alles, bis zum freitag ging alles noch von 8nm samsung aus, jetzt haben wir 7nm und das eventuell sogar von tsmc.

35miliarden auf 620mm2 ist ein ziemlich grosser chip.

Was mich seit monaten verwunder sind die extrem frühen leaks über die einheiten, 1,5 jahre zum voraus sowas gab es nie zuvor. Für mich sieht das immer wie mehr nach verwirr taktik aus.

Trust me :biggrin: