PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

w0mbat
2020-08-31, 00:04:33
Wird auf jeden Fall spannend!

Screemer
2020-08-31, 00:07:11
Mythos;12408103']Hat der8auer ja auch schon mal geübt.

Hatten wir hier im Forum schon vor Jahren: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10790570#post10790570.

Leider habe ich die Posts mit den versuchswerten zu den Plattenwärmetauschern und den Bildern nicht mehr gefunden. Leider hört man ja von godmode nichts mehr. Der macht jetzt bestimmt auf Dagobert Duck und schwimmt in seiner Cryptokohle. Sei ihm gegönnt.

Sunrise
2020-08-31, 00:09:29
Ich glaube die Karte wird stärker als erwartet und im Relation zum Mehrverbrauch ist es dann wieder mehr als okay..
Kommt drauf an, was hier jeder erwartet, mein Tipp steht ja noch:

”Leistung 50 bis 75% besser durch die Bank, mit Optimierungen evtl. sogar mehr” (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12398557#post12398557)

why_me
2020-08-31, 00:28:22
Also ich bezweifle derzeit alles, bis zum freitag ging alles noch von 8nm samsung aus, jetzt haben wir 7nm und das eventuell sogar von tsmc.

Vielleicht sind es "fake" 7nm von Samsung (=8nm Namen sind alles):
Last year, Samsung announced the introduction of EUV into their 7LPP process used in the Exynos 9825. Through analysis of the part, we found little difference between their 7LPP process in the 9825 and their 8LPP process in the Exynos 9820.
https://www.techinsights.com/blog/techinsights-confirms-samsungs-true-7lpp-process-samsung-exynos-990

Nuada
2020-08-31, 00:29:44
The more you buy, the more you save*

*Heizkosten im Winter

:smile:


Wenigstens mal ein Konstruktiver Post hier ;D


Direkt an die Wasserleitung, neuester Trend. ;D


Ja eine 3090 bei 500w mit 35 c Temperatur kommt sicher gut :smile:

Denniss
2020-08-31, 00:55:27
Selbst wenn die Leistung bei 350W recht hoch wäre, dies mit Luft zu kühlen ohne die anderen Komponenten im system massiv aufzuheizen wird recht schwierig. Bei 350W werden wohl 200-250W ins Gehäuse geblasen, je nachdem wie effektiv die Abluftkanäle der Karte funktionieren

NC
2020-08-31, 01:53:18
Vielleicht sind es "fake" 7nm von Samsung (=8nm Namen sind alles):

https://www.techinsights.com/blog/techinsights-confirms-samsungs-true-7lpp-process-samsung-exynos-990
Sowas hätte ich auch vermutet. Am Ende macht das praktisch keinen Unterschied aber das Marketing ist abgesichert, dass die Konkurenz nicht die GPU "im Fortschrittlichsten" Verfeharen hat.

NC
2020-08-31, 02:07:54
NV wird also das für die Führung Notwendige vorstellen, dieses Mal die 3090 in den Vordergrund schieben (weil nur die eben fast den voll-aktiven GA102 hat) auch vor allem die Raytracing-Power, Rohpower, und evtl. sogar 8K-Benchmarks auffahren...
Naja, es war eigentlich normal dass NV die top Karte in den Vordergrund stellt. GF100 als 480 war auch was zählte. Der Grund weshalb das eine 90 wird ist einzig der Preissprung.
Meine (pragmatische Milchmänchen) Projektion für eine 300W-BN ist knapp über 2080Ti. Wenn NV das mit einer 3080 schlagen kann und die 3090 noch weit mehr liefert, muss NV nicht in den Preiskampf. Da wäre dann die 3070, die vielleicht schwächer als BN ist aber gegenüber einer 3090 im Preis sicherlich billig aussehen wird.

[MK2]Mythos
2020-08-31, 03:33:07
Naja, es war eigentlich normal dass NV die top Karte in den Vordergrund stellt. GF100 als 480 war auch was zählte. Der Grund weshalb das eine 90 wird ist einzig der Preissprung.
Meine (pragmatische Milchmänchen) Projektion für eine 300W-BN ist knapp über 2080Ti. Wenn NV das mit einer 3080 schlagen kann und die 3090 noch weit mehr liefert, muss NV nicht in den Preiskampf. Da wäre dann die 3070, die vielleicht schwächer als BN ist aber gegenüber einer 3090 im Preis sicherlich billig aussehen wird.
Du kannst davon ausgehen dass sowohl BN als auch 3080 deutlichst an der 2080ti vorbeiziehen. Alles andere wäre schon rechnerisch unmöglich.

NC
2020-08-31, 03:50:03
Mythos;12408191']Du kannst davon ausgehen dass sowohl BN als auch 3080 deutlichst an der 2080ti vorbeiziehen. Alles andere wäre schon rechnerisch unmöglich.
Meine Projektion war natürlich rechnerisch. Aber ich wäre auf deine Berechnungen bezüglich BN Performance gespannt. Wir können im Detail gerne im RDNA2 Thread darüber debatieren. :)

Leonidas
2020-08-31, 05:59:59
Ja ja wenn man halt keine Ahnung hat versucht man sich halt über andere Lustig zu machen um von der eigenen Unfähigkeit Abzulenken. .


Kann es sein, das Du Dich auf was anderes beziehen wolltest? Ich hab nur den Gag mit der Division durch Null hervorgehoben, mehr nicht.




- 3090 samples have already been received to media and youtuber. but can't measure performance, due to no driver
- 3090 AIB model's power comsumption about 500W
- Final price isn't confirmed yet
- Industry expect 1800~3000 (this include price difference by AIB and lineup)


Die erste Aussage ist wahrscheinlich falsch und war bis Wochenanfang auch faktisch falsch (Raff hatte eindeutig gesagt, das noch nichtmal ein NDA existiert). Ergo würde ich auf den Rest nix geben.

Schon rein logisch ist es so, das NV vor seiner Ankündigungsshow keine HW herausgibt. Bei einem Launch erst am 21.9. um so stärker logisch.

N0rG
2020-08-31, 06:33:04
Die Gainward custom Karten kommen wohl mit 2x 8 Pin. Also max. 375W

https://twitter.com/harukaze5719/status/1300255555072659459

Kriegsgeier
2020-08-31, 06:42:16
Ich bin nur an einer wassergekühlten RTX 3090 interessiert!
Warum Nvidia auch nicht eine direkt mit Wasserkühler anbietet ist mir ein Rätsel

crux2005
2020-08-31, 06:47:25
Asus 3090 Strix:
https://videocardz.com/newz/asus-geforce-rtx-3090-rog-strix-pictured

https://i.imgur.com/kcxAu6w.jpg

Sieht genauso aus wie auf dem älteren Leak.

Die Gainward custom Karten kommen wohl mit 2x 8 Pin. Also max. 375W

https://twitter.com/harukaze5719/status/1300255555072659459

Hatten Videocardz schon geleaked.
https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed

Wenn ich die Daten grob vergleiche.

2080 Ti Phoenix "GS" vs. 3090 Phoenix "GS"
1650 MHz vs. 1725 MHz. Sind grob +5%. Wird dank höherem TGP eher in Richtung +10% gehen.
68 CUs vs. 82 CUs. Falls keine großen Änderungen sind das grob +20%.

Wenn eine 3090 also 35-40% (~10% dank uArch) in 4K vor der 2080 Ti landet ist das schon ein gutes Ergebnis IMHO.
Mit RTX und DLSS wird es noch mehr sein. Erwarte eine Verdoppelung dieser Einheiten bei Turing vs. Ampere.
Klar, stark vereinfacht. Bandbreite etc. spielen auch eine Rolle.

crux2005
2020-08-31, 07:02:13
del

hq-hq
2020-08-31, 07:36:29
Die neue Strix sieht fast wie die alte Lightning aus.

NC
2020-08-31, 07:53:04
Ich finde es beeindruckend was für ein Koloss die Karte ist (in relation zum PCIe). In ein paar Jahren ist das sicher normal, aber gerade bin ich echt beeindruckt.

Adam D.
2020-08-31, 08:40:31
Die erste Aussage ist wahrscheinlich falsch und war bis Wochenanfang auch faktisch falsch (Raff hatte eindeutig gesagt, das noch nichtmal ein NDA existiert). Ergo würde ich auf den Rest nix geben.

Schon rein logisch ist es so, das NV vor seiner Ankündigungsshow keine HW herausgibt. Bei einem Launch erst am 21.9. um so stärker logisch.
Insbesondere, weil Igor ja gesagt hat, dass NV bei dem Launch die Daumenschrauben so eng angezogen hat wie noch bei keiner anderen Generation davor.

nordic_pegasus
2020-08-31, 08:42:03
Ich finde es beeindruckend was für ein Koloss die Karte ist (in relation zum PCIe). In ein paar Jahren ist das sicher normal, aber gerade bin ich echt beeindruckt.

früher sahen Full-Cover Wasserblöcke riesig aus. Wenn jetzt so eine Gainward 3090 einen Single-Slot Wasserblock bekommt, welcher auch noch kürzer ist als der Lüftkühler (kein Überhang für den dritten Lüfter nötig), dann sieht die Karte auf einmal winzig aus.

davidzo
2020-08-31, 08:52:12
Die Gainward custom Karten kommen wohl mit 2x 8 Pin. Also max. 375W

https://twitter.com/harukaze5719/status/1300255555072659459


eek :eek: :uroll: Das sieht ja aus wie aus dem Kaugummiautomaten!

Dieses verbogene GS in gold is ne typografische Vergewaltigung, dann die billige verbogene Kunststoff Haube und das scharfkantige Dünnblech, das sieht alles so übelst sondermüllig aus X-(

ChaosTM
2020-08-31, 08:52:36
Insbesondere, weil Igor ja gesagt hat, dass NV bei dem Launch die Daumenschrauben so eng angezogen hat wie noch bei keiner anderen Generation davor.


Co-Prozessor ;)

Cyberfries
2020-08-31, 09:01:45
Die Gainward 3090 Kühlkonstruktion - falls sie so kommt - ist nicht größer als die der Gainward 2080 TI.
294x112 / 2,7Slot vs 292x112 / 3slot
Passt nicht wirklich zu den hier spekulierten 500watt.

edit: Gainward selbst gibt für die 2080ti nur 2,5slot an statt 3slot. Nach der Rechnung ist der Lüfter doch ein wenig gewachsen.

Troyan
2020-08-31, 09:09:43
Wenn ich die Daten grob vergleiche.

2080 Ti Phoenix "GS" vs. 3090 Phoenix "GS"
1650 MHz vs. 1725 MHz. Sind grob +5%. Wird dank höherem TGP eher in Richtung +10% gehen.
68 CUs vs. 82 CUs. Falls keine großen Änderungen sind das grob +20%.

Wenn eine 3090 also 35-40% (~10% dank uArch) in 4K vor der 2080 Ti landet ist das schon ein gutes Ergebnis IMHO.
Mit RTX und DLSS wird es noch mehr sein. Erwarte eine Verdoppelung dieser Einheiten bei Turing vs. Ampere.
Klar, stark vereinfacht. Bandbreite etc. spielen auch eine Rolle.

Ich denke, anhand der Bandbreitensteigerung kann man abschätzen, wo nVidia mit den Karten landen will:
3080: 70%+ vs. 2080
3090: 50%+ vs. 2080TI

Macht ja kein Sinn neuen, teuren Speicher zu verwenden, wenn man dann Bandbreite im Überfluss hat, die nicht genutzt werden kann.

gedi
2020-08-31, 09:09:48
Ich würde auch die Beine still halten. Für mich sind die 350W gedeckelt. Dass mehr Völter unglaublich viel Hitze ziehen, sieht man an Navi insbesondere 7nm. Die Customs dann halt bis 525W mit Brachialgewalt

TobiWahnKenobi
2020-08-31, 09:19:14
irgendwie fehlt mir bei den geleakten bildern von zotac und palit/gainward am slotblech ein USB-C ausgang und mit nur einem HDMI (2.1 ??) geht meine nicht über adapter lauffähige rift cv1 wohl in rente.


(..)

mfg
tobi

Korvaun
2020-08-31, 09:20:16
https://www.computerbase.de/2020-08/geforce-rtx-3090-3080-gainward/

"offizielle" Gainward Karten

Troyan
2020-08-31, 09:20:18
USB-C gibt es nicht mehr.

Badesalz
2020-08-31, 09:22:37
Ich finde es beeindruckend was für ein Koloss die Karte ist (in relation zum PCIe). In ein paar Jahren ist das sicher normal, aber gerade bin ich echt beeindruckt.Ich dagegen bin entsetzt. Den kaputt gemachten Thread über die dürftige Entwicklung der CPUs, den hätte ich lieber über GPUs gemacht. Grausam.

Kein Wunder, daß Apple nichts mehr mit sowas zu tun haben will.

BiZiNiZz
2020-08-31, 09:25:52
Habt ihr die letzten 10 Jahre alle in Höhlen verbracht? Die Größe der Karten/Kühllösungen ist jetzt nicht unbedingt neu. Nur "Neu" bei der Referenz.

Flusher
2020-08-31, 09:32:50
eek :eek: :uroll: Das sieht ja aus wie aus dem Kaugummiautomaten!

Dieses verbogene GS in gold is ne typografische Vergewaltigung, dann die billige verbogene Kunststoff Haube und das scharfkantige Dünnblech, das sieht alles so übelst sondermüllig aus X-(

Ist eines der ersten Exemplare. Möglicherweise ein Prototyp. Würde das nicht als repräsentativ sehen für alle Karten

Badesalz
2020-08-31, 09:35:11
Habt ihr die letzten 10 Jahre alle in Höhlen verbracht?Ne, aber auch nicht auf den schönsten Promenaden, auf der Sitzbank durchpennen... Ja fiel natürlich auf.

Nur ist das jetzt wohl der Standard und das nicht nur beim Topend :uup:

Sardaukar.nsn
2020-08-31, 09:37:29
Mich wundern die TDP Angaben von 3080 (320W) und 3090(350W). Die 3090 hat +140% RAM, +20% Cuda-Kerne und soll nur ~10% mehr TDP bekommen. Für mich passt das irgendwie nicht zusammen.

Sunrise
2020-08-31, 09:37:34
Meine Güte, jetzt auch noch auf Dienstag warten...diese Ungeduld.

MartinRiggs
2020-08-31, 09:39:44
Ist morgen der richtige Launch inkl. Reviews oder nur Babbelvorstellung von NV?

woodsdog
2020-08-31, 09:49:49
Da Raff & Co noch keine Karten zu haben scheinen gibts wohl nur Marketing-Gesabbel von Lederjacke in der er die uns bekannten Gerüchte mehr oder weniger bestätigt.

Lowkey
2020-08-31, 09:49:52
Laut 3Dc News siehst du Folien.

Interessant sind nur noch der letztliche Marktpreis in Euro. Den Rest kennt man ja.

Badesalz
2020-08-31, 09:51:50
Mich wundern die TDP Angaben von 3080 (320W) und 3090(350W). Die 3090 hat +140% RAM, +20% Cuda-Kerne und soll nur ~10% mehr TDP bekommen. Für mich passt das irgendwie nicht zusammen.:freak: (Neue) Brille nötig? Das sind keine TDP ;)

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12408076#post12408076

Cubitus
2020-08-31, 09:57:03
Co-Prozessor ;)

Ja im Monolithischen Design, dieser wird dann für den ganzen RT Kram und eben für die KI-Optimierungen zur Verfügung gestellt.
Bei guter Auslastung des Co Prozessors wird die Karte anfangen etwas mehr zu saufen, was aber dann auch okay wäre..

Falls Games/APPS derartige Features nutzen, dürfte die Performance zuwachs enorm sein..
Aber was genaues weiß man nicht, maybe liege ich auch völlig falsch, wer weiß ^^

Raff
2020-08-31, 09:57:17
Ist morgen der richtige Launch inkl. Reviews oder nur Babbelvorstellung von NV?

Laber-Rhabarber-Lederselbstbeweihräucherung. Alles public. Aber trotzdem hochspannend, wenn ihr mich fragt, denn damit hören Gerüchte auf und Fakten beginnen. :)

MfG
Raff

MartinRiggs
2020-08-31, 10:00:08
Also langweilig, da brauch man nicht auf morgen verweisen weil das Marketingewäsch fürn Arsch ist.

Ich will Tests von PCGH und Co. und wissen was die Karte(n) in freier Wildbahn leisten.

mironicus
2020-08-31, 10:01:08
In Corona-Zeiten kann die Lederjacke auch die unsäglichen hohen Preise verkünden, denn ein vor Schockstarre erschrecktes Publikum bleibt ihm dieses Mal erspart. :D

MartinRiggs
2020-08-31, 10:04:41
Daher habe ich meine 2080Ti auch nicht verkauft, irgendwann reicht es mal, aber man wird ja morgen auch hören was für UVPs aufgerufen werden.
Wenn es stark Richtung 2000€ geht dann :ufinger:

mironicus
2020-08-31, 10:06:42
Vielleicht trägt er dieses Mal auch eine Mütze, um seine Teufelshörner zu verdecken. :D

BiZiNiZz
2020-08-31, 10:09:58
Bitte mehr sachlichen Inhalt und weniger Bullshit gebrabbel

Cubitus
2020-08-31, 10:12:07
Daher habe ich meine 2080Ti auch nicht verkauft, irgendwann reicht es mal, aber man wird ja morgen auch hören was für UVPs aufgerufen werden.
Wenn es stark Richtung 2000€ geht dann :ufinger:

Wie gesagt das könnte durchaus passieren, 1,6 k werden höchstwahrscheinlich überboten werden...

Aber hey vielleicht kann man ja morgen auch gleich bestellen, schnell sein ;D

NC
2020-08-31, 10:19:13
Wobei morgen erst nur die USD Preise kommen, wir stehen dann nochmal 1-2 Wochen im Dunkeln, bis der Verkauf startet.
Oder gibt es den Vorverkauf sofort? :confused:

Cubitus
2020-08-31, 10:20:43
Wobei morgen erst nur die USD Preise kommen, wir stehen dann nochmal 1-2 Wochen im Dunkeln, bis der Verkauf startet.
Oder gibt es den Vorverkauf sofort? :confused:

Beim letzten Mai konntest du sofort eine FE vorbestellen.
Denke es wird morgen ähnlich ablaufen..

dildo4u
2020-08-31, 10:22:47
Wobei morgen erst nur die USD Preise kommen, wir stehen dann nochmal 1-2 Wochen im Dunkeln, bis der Verkauf startet.
Oder gibt es den Vorverkauf sofort? :confused:
Ich würde 50€ drauf rechnen 2080 Super FE kostet auf der Nvidia Seite 699$ DE 750€.

mironicus
2020-08-31, 10:22:53
Wobei er dann in der Präsentation wohl erst die untersten Preise für die 3090 nennt und die FE dann auf der Webseite "überraschend" 200 Dollar mehr kosten könnte. :D

dildo4u
2020-08-31, 10:25:08
Scheinen sie mit der Super Serie geändert zu haben die 2080 Super kostet 699$.

Troyan
2020-08-31, 10:26:48
Die 1080TI hatte auch keinen FE-Bonus mehr. Sagt nichts aus.

MartinRiggs
2020-08-31, 10:39:24
Wie gesagt das könnte durchaus passieren, 1,6 k werden höchstwahrscheinlich überboten werden...

Aber hey vielleicht kann man ja morgen auch gleich bestellen, schnell sein ;D

Ich schau mir das Spektakel inkl. richtigem Launch mit Tests erstmal aus der Ferne an, alles was ich momentan zocke läuft mit der 2080Ti Bombe, ich jage eh lieber Schnäppchen, B-Ware, Outlet usw :biggrin:

mironicus
2020-08-31, 10:42:10
Kauft eine Karte zum UVP bei Alternate und schickt sie zurück, so daß wir sie später mit 20% Rabatt im Outlet kaufen können. :)

Der_Korken
2020-08-31, 10:43:24
Mich wundern die TDP Angaben von 3080 (320W) und 3090(350W). Die 3090 hat +140% RAM, +20% Cuda-Kerne und soll nur ~10% mehr TDP bekommen. Für mich passt das irgendwie nicht zusammen.

Ein 3800X und 3950X haben auch beide die gleiche TDP und unter Last quasi den gleichen Verbrauch, obwohl letzterer doppelt so viele Kerne hat. Takt und Spannung regeln das. Die kleinen Chips sind oft auch schlechter gebinnt und brauchen mehr Spannung für den gleichen Takt.

dargo
2020-08-31, 10:51:38
Ich denke, anhand der Bandbreitensteigerung kann man abschätzen, wo nVidia mit den Karten landen will:
3080: 70%+ vs. 2080
3090: 50%+ vs. 2080TI

Macht ja kein Sinn neuen, teuren Speicher zu verwenden, wenn man dann Bandbreite im Überfluss hat, die nicht genutzt werden kann.
:confused:

So wie ich das sehe gibt es bei GDDR6X nur 19Gbps. Diese 19,5Gbps der 3090 sieht mir nach Übertaktung aus. Was hätte Nvidia sonst für die 3080 nehmen sollen? Schließlich ist das der gleiche Chip mit einem GDDR6X Speichercontroller.

dildo4u
2020-08-31, 10:56:43
Nein GDDR6X geht bis 21.

https://www.anandtech.com/show/15978/micron-spills-on-gddr6x-pam4-signaling-for-higher-rates-coming-to-nvidias-rtx-3090

dargo
2020-08-31, 10:59:50
Offensichtlich hast du meinen Post nicht verstanden.

Lawmachine79
2020-08-31, 11:04:29
Wann kann man die Karte (3090) den bestellen? Morgen dann ja offenbar noch nicht?

NC
2020-08-31, 11:16:21
Offensichtlich hast du meinen Post nicht verstanden.Ich, ehrlichgesagt, auch nicht. Könntest du besser/ausgiebiger erklären was du meinst?

Dural
2020-08-31, 11:20:05
Langweilig? Endlich Fakten!

Joe
2020-08-31, 11:23:50
NV hats wohl echt geschafft den Preis der "Einstiegskarten" in drei Generationen zu verdoppeln. Respekt.

dildo4u
2020-08-31, 11:26:11
NV hats wohl echt geschafft den Preis der "Einstiegskarten" in drei Generationen zu verdoppeln. Respekt.
Welche meinst du die 3070?Die soll wie die 2070 599$ kosten.

https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2070-founders-edition,5851.html

mironicus
2020-08-31, 11:28:07
Laut Igors neuestem Video könnte es Tests am 8.9. um 15 Uhr geben.

[MK2]Mythos
2020-08-31, 11:30:24
Laut Igors neuestem Video könnte es Tests am 8.9. um 15 Uhr geben.
Das hat er in keinster Weise gesagt.

JVC
2020-08-31, 11:32:23
Welche meinst du die 3070?Die soll wie die 2070 599$ kosten.

und die 1080Ti mit 11Gb kostete $699...
und die R7 mit 16Gb HBM kostete $699...

M.f.G. JVC

SKYNET
2020-08-31, 11:34:43
Habt ihr die letzten 10 Jahre alle in Höhlen verbracht? Die Größe der Karten/Kühllösungen ist jetzt nicht unbedingt neu. Nur "Neu" bei der Referenz.


wollt grade sagen... selbst meine aorus xtreme 1080Ti ist schon sonen wonneproppen: 293x142x55mm

dargo
2020-08-31, 11:36:49
Ich, ehrlichgesagt, auch nicht. Könntest du besser/ausgiebiger erklären was du meinst?
Ich sehe nichts langsameres als 19Gbps bei GDDR6X aktuell. Macht womöglich auch keinen Sinn wenn GDDR6 bis 16Gbps erhältlich ist. Dadurch wird die 3080 einfach nur im Verhältnis zu 3090 mehr Bandbreite haben als nötig. Hatten wir bei Turing auch schon 2080 vs. 2070, nur hier wurde am SI nichts geändert.

pixeljetstream
2020-08-31, 11:40:48
Deine Antwort auf Troyans Post ist halt verwirrend. Was der Kontext ist, Oder es war der falsche quote

dildo4u
2020-08-31, 11:41:52
Die 3090 scheint mir mächtig genug um 1TB zu nutzen läuft sie nicht mit 19 Tflops?Die Nvidia Boost Angaben haben eigentlich wenig mit Real anliegenden Takt in Games zu tun.

Adam D.
2020-08-31, 11:58:39
Die 3090 scheint mir mächtig genug um 1TB zu nutzen läuft sie nicht mit 19 Tflops?Die Nvidia Boost Angaben haben eigentlich wenig mit Real anliegenden Takt in Games zu tun.
Die Frage ist ja genau, warum NV die schnelleren Module nicht genommen hat. Man hätte ja so die Marketing-Schallmauer von 1TB durchbrechen können, hat sich aber wohl bewusst dagegen entschieden (zu teuer? zu heiß?).

dildo4u
2020-08-31, 12:00:25
Luft für die 2500€ Titan.

dargo
2020-08-31, 12:09:24
Davon würde ich auch ausgehen da bei der 3090 das SI diesmal nicht beschnitten ist. Also hat man nur die eine Möglichkeit die Bandbreite weiter zu steigern. Und teurer wird der 21Gbps sicherlich auch sein, die Kosten kann man dann unter einer Titan besser unterbringen.

Lowkey
2020-08-31, 12:12:47
Dargo holt sich angeblich 2x 3090 im SLI NVLINK 4 und beantworte die nächsten Monate jedes Post mit einem Link auf sein 3DMark Timespy Ergebnis - und beendet jede Diskussion sofort. :D

masked__rider
2020-08-31, 12:18:56
Dargo holt sich angeblich 2x 3090 im SLI NVLINK 4 und beantworte die nächsten Monate jedes Post mit einem Link auf sein 3DMark Timespy Ergebnis - und beendet jede Diskussion sofort. :D

Nah.. Die Sache wird im wohl zu heiß :udevil:

@Topic
Für den upper Mainstream dürften, wie so oft, die 3070er Karten wieder die interessantesten werden, kommt dazu morgen auch was, oder vorerst nur die Dickschiffe 80 und 90?

N0rG
2020-08-31, 12:19:25
Vielleicht kommt die Titan auch als GA100 Ableger mit co Prozessor für die Bildausgabe. Für all things 3d reicht auch die 3090. Hätte den Vorteil, dass sich die Titan wenigstens bei compute Workloads von der 3090 absetzen kann.

woodsdog
2020-08-31, 12:21:55
Nur weil der Speicher bis 21Gbs spezifiziert ist, bedeutet das ja nicht das schon welcher vom Band läuft. Kann man halt auch im Refresh verbauen.

nordic_pegasus
2020-08-31, 12:23:58
Luft für die 2500€ Titan.

ich befürchte es auch. Dazu dann noch die vollen 84 SM statt "nur" 82 SM. Fertig ist die Titan Ampere.

Wie ich mich kenne, bekomme ich dann wieder Jucken in den Fingern, wenn die Titan kurz vor Weihnachten auf einmal bestellbar ist. Bis dahin ist dann auch eine Auswahl an Fullcover-Blöcken für die 3090/Titan verfügbar und der Zen3 16-Kerner ist auch schon da. Passt dann wieder alles so schön zusammen in meinem Gehäuse.

dildo4u
2020-08-31, 12:24:25
Finale Version der 3090 Strix.


https://videocardz.com/newz/asus-geforce-rtx-3090-rog-strix-pictured

Cyberfries
2020-08-31, 12:27:25
ich befürchte es auch. Dazu dann noch die vollen 84 SM statt "nur" 82 SM. Fertig ist die Titan Ampere.

Oder der "Super"-Refresh.
Vielleicht kommt ja auch nur eine A100-Titan.

dargo
2020-08-31, 12:29:59
Nur weil der Speicher bis 21Gbs spezifiziert ist, bedeutet das ja nicht das schon welcher vom Band läuft. Kann man halt auch im Refresh verbauen.
Korrekt... aber so abwegig mit der Titan ist es auch wieder nicht.

WedgeAntilles
2020-08-31, 12:35:01
@Topic
Für den upper Mainstream dürften, wie so oft, die 3070er Karten wieder die interessantesten werden, kommt dazu morgen auch was, oder vorerst nur die Dickschiffe 80 und 90?

Es soll wohl 3090, 3080 und 3070 als FE geben - also wird es morgen hoffentlich auch was zur 3070 geben.

Aber nach den aktuellen Infos wird es zu Beginn wohl nur die 3070 mit 8GB geben.
Die 3070 mit 16GB soll es dann erst etwas später von den Partnern geben.
Könnte dann Ende September/Anfang Oktober in etwa sein.

Gleiches gilt für die 3080 mit 20GB, da kommt laut Videocardz auch erst die FE mit 10GB und die 20GB Version von den Partnern ein bisschen später.

Adam D.
2020-08-31, 12:47:15
Wir haben noch GAR NICHTS von der 3070 gesehen oder gehört, ich kann mir immer noch nicht vorstellen, dass da morgen viel zu kommt. Ich denke, GA102 wird morgen zu 99% im Mittelpunkt stehen.

Ravenhearth
2020-08-31, 12:48:14
Wenn ich die Daten grob vergleiche.

2080 Ti Phoenix "GS" vs. 3090 Phoenix "GS"
1650 MHz vs. 1725 MHz. Sind grob +5%. Wird dank höherem TGP eher in Richtung +10% gehen.
68 CUs vs. 82 CUs. Falls keine großen Änderungen sind das grob +20%.

Wenn eine 3090 also 35-40% (~10% dank uArch) in 4K vor der 2080 Ti landet ist das schon ein gutes Ergebnis IMHO.
Mit RTX und DLSS wird es noch mehr sein. Erwarte eine Verdoppelung dieser Einheiten bei Turing vs. Ampere.
Klar, stark vereinfacht. Bandbreite etc. spielen auch eine Rolle.
Das wären 40% mehr TDP und 40% mehr Geld für 35-40% mehr Leistung, was ganz schön ernüchternd wäre angesichts von 8nm oder 7nm. Ich erhoffe mir zu den +10% Takt und +20% mehr Einheiten noch +20% mehr Leistung bei gleichem Takt, also 1,1*1,2*1,2 = ~60% mehr Leistung.

Welche meinst du die 3070?Die soll wie die 2070 599$ kosten.

https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2070-founders-edition,5851.html
Die 2070 non-FE hat aber $499 gekostet, bei der 3070 sollen die non-FE nun auch bei $599 liegen.

dildo4u
2020-08-31, 12:48:46
Wir haben noch GAR NICHTS von der 3070 gesehen oder gehört, ich kann mir immer noch nicht vorstellen, dass da morgen viel zu kommt. Ich denke, GA102 wird morgen zu 99% im Mittelpunkt stehen.
Die Zotac 3070 Modelle wurden geleakt.

https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured

Emil_i_Lönneberga
2020-08-31, 12:49:30
Ausgehend von den 29,4cm sollten dann mit Wakü auf ~25cm PCB Länge mit Single Slot Bracket wie bei Pascal eine Single Slot Lösungen möglich sein.

:up:

https://pics.computerbase.de/9/4/6/3/8/5-1080.0654327f.jpg

SKYNET
2020-08-31, 12:49:39
Die Frage ist ja genau, warum NV die schnelleren Module nicht genommen hat. Man hätte ja so die Marketing-Schallmauer von 1TB durchbrechen können, hat sich aber wohl bewusst dagegen entschieden (zu teuer? zu heiß?).


denke dürfte am preis gescheitert sein... NV hat genau gewusst, das sie jetzt mit der 3090 wohl schon in sphären vorstossen, die preislich das oberste limit für ne consumerkarte darstellen... :crazy: :freak:

Adam D.
2020-08-31, 12:49:49
Die Zotac 3070 Modelle wurden geleakt.

https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured
Oh danke, das ist mir in der Tat entgangen!

SKYNET
2020-08-31, 12:54:05
Die Zotac 3070 Modelle wurden geleakt.

https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured


bin erstaunt das die 3070er so klein sind... zu pascal und turing wurde da am anfang meistens ordentliche dickschiffe gelauncht bei den 70er serien... ampere scheint nach unten hin sehr effizient zu sein wenn die kühler im ITX format langen, ein weiteres zeichen das die grossen karten ans limit geprügelt wurden... ich denke NV weiss ganz genau was navi kann(ist ja nicht so, das es unter NV und AMD gegenseitig keinerlei industriespionage gäbe), und war gezwungen das ding ans limit zu prügeln... mal sehen obs fürs AMD-dickschiff langen wird... oder ob wir wieder dual-GPU karten zusehen bekommen um bloss schneller zu sein als der andere :freak:

dargo
2020-08-31, 12:58:50
ITX-Format? Schau dir das doch lieber nochmal genauer an.
https://www.pcgameshardware.de/screenshots/original/2015/08/R9_Nano_StraightOn_RGB_5inch-pcgh.jpg

dildo4u
2020-08-31, 12:59:11
Es gibt massiv Leute die Taub sind viele 5700XT haben nur Dual Lüfter, im dem TDP Bereich sollte sich die 3070 bewegen.

Sunrise
2020-08-31, 13:00:37
Mit dem kleinsten 19Gbps bin ist man doch schon >50% vor der 2080Ti. Wenn dann noch erneut verbesserte Kompression hinzu kommt, sehen wir min. 60-75% mehr effektiver Bandbreite. Das reicht allemal.

Die Top-bins sind da vollkommen unnötig, vor allem lässt sich der Speicher ja auch noch übertakten, wenn man es darauf abzielt.

Die Titan halte ich für vollkommen unnötig, wenn es tatsächlich nur max. 5% mehr Einheiten sind und den vollkommen schwachsinnigen 48GB (wenn das wirklich stimmt). Aber gut, wer will kann natürlich...dann den wahrscheinlich ebenso lächerlichen Aufpreis bezahlen.

basix
2020-08-31, 13:16:30
Dein Standpunkt war mir schon klar. Aber ich bin mir nicht sicher, ob du verstehst was du da schreibst.
Der Punkt an den Tensor Cores ist, dass sie exakt für einen Anwendungsfall optimiert sind. Willst du das für generische Matrix Operationen umbauen hat das ganze sehr viele Konsequenzen. Erstmal gibt es aktuell genau eine Matrix Operation
https://developer.nvidia.com/blog/wp-content/uploads/2017/05/image4.png
Das Hinzufügen von FP32 ist nun nicht mit Erweiterung des Addierers getan. Man muss alle Datenpfade anpassen. Register und Caches vergrößern. Dazu kommen andere Optimierungsziele der ganzen Pipeline durch andere (generische) Workloads.

Zu guter Letzt basiert dein Wunsch drauf, dass dir zum aktuellen Zeitpunkt noch nicht genug Workloads für die Tensorcores da sind. Fügst du nun einen neuen größeren Datentyp ein, ist der da um zu bleiben. Den entfernt man nicht einfach wieder bei der nächsten Generation. Damit verbockt man mittelfristig, weil die Tensorcores dann in Zukunft viel zu groß und ineffizent sind für das was sie verwendet verwendet werden.

Ich möchte noch kurz auf das Thema Tensor Cores zurückkommen (morgen wissen wir hoffentlich sowieso mehr). Wie du darlegst, müssten wohl viele Chip-Internas wie Datenpfade und Caches für FP32-Support "aufgebläht" werden.

Wenn ich die News auf der Hauptseite (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2930-august-2020) von heute anschaue, steht da folgendes:

GA100 = 128 SMs @ 54.0 Mrd. Transistoren --> 422 Mio. xtors/SM
GA102 = 84 SMs @ 34.5 Mrd. Transistoren --> 411 Mio. xtors/SM
GV100= 84 SMs @ 21.1 Mrd. Transistoren --> 251 Mio. xtors/SM
TU102= 72 SMs @ 18.6 Mrd. Transistoren --> 258 Mio. xtors/SM


Was schliesse ich daraus?

GA102 ist deutlich fetter pro SM verglichen zu TU102
GA102 ist ähnlich fett pro SM wie GA100


Unterschiede zwischen GA100 und GA102:

- Raytracing Cores
+ HPC Features (MIG, NVLink, FP64, doppelte Anzahl Tensor Cores pro SM? grössere Caches?, ...)


Ich sehe hier klar die Tendenz, dass GA102 neben den grösseren Caches die Tensor Core Features von GA100 übernimmt (BF16, TF32, ...). Das könnte FP32 anstatt FP64 auch miteinschliessen (FP64 kommt auf den Consumer-GPUs sicher nicht). Die xtors/SM sind wirklich nahe beieinander, ähnlich wie bei GV100 zu TU102. Klar gibt es einige Unsicherheiten (siehe Unterschiede GA100 zu GA102), aber wenn die zusätzlichen Datenpfade und Caches so viel Heu fressen würden, müsste der Unterschied doch grösser sein, wenn man es weglassen würde? Vor allem, wenn GA100 doppelt so viele Tensor Cores pro SM tragen würde?!

Edit:
Ausserdem wäre es doch viel Aufwand, die bereits entwickelten Tensor Cores "so massiv" zurückzubauen. Wäre es nicht intelligenter, den FP64 Pfad auf 2x FP32 Pfade aufzusplitten? Ich weiss aber nicht ob das bei Tensoroperationen Sinn macht oder besser gesagt sich in HW leicht umsetzen lässt. Mit TF32, FP16 und INT8 scheint es allerdings irgendwie mit unterschiedlichen Präzisionen zu funktionieren.

Ravenhearth
2020-08-31, 13:21:07
Sehe ich auch so. Denn falls die 34,5 Mrd. Transistoren stimmen, finde ich es auch bemerkenswert, wie viel zusätzliche Transistoren GA102 gegenüber Big Navi wahrscheinlich hat. Ich spekuliere einmal: Mit der gleichen Packdichte wie beim Series X-SoC käme Big Navi bei 427mm² auf nur 18,15 Mrd. Transistoren, bei etwas weniger Shadern (5120 vs 5376), aber wohl besserer Taktbarkeit (siehe PS5). Die Packdichte wäre zwar geringer (vielleicht wegen der Taktbarkeit), aber der Chip immer noch um ein Drittel kleiner. Also muss es bei Ampere gegenüber Turing massive Verbesserungen in den SMs und bei der RT-Funktionalität geben, die dafür sorgen dass Ampere deutlich schneller ist als Turing und auch Big Navi.

NC
2020-08-31, 13:36:28
Das problematischste bei RT ist der Speicher, RT hüpft durch Adressen. Das beste wäre mMn viel Cache zu verbauen. Eine doppelt so leistungsfähige RT Einheit brächte wenig, wenn du auf Cache-misses wartest, aber die gleich RT Einheit mit genug Cache um sie immer unter Last zu halten und du hast 10x Steigerung.

Leider steigt die Hitrate nur unproportional. Für doppelte hits brauchst du 4x Cache (Daumenregel).

Aber vielleicht ist das das wo die Transistoren hingehen.

basix
2020-08-31, 13:40:32
Dem stimme ich absolut zu. GA100 hat verglichen mit den Vorgängern einen riesigen L2$ (vermutlich 48 MByte beim Vollausbau). Laut Nvidia ist das 8x so viel verglichen mit GV100. Hier hätten wir also unsere ~2-3x Hitrate ;)

Edit:
Anderes Thema. Was ich an der 3080 komisch finde: Die 68 SMs, die Speicherbandbreite usw. deuten auf eine etwas höhere Leistung einer 2080 Ti bei ähnlichem Speicherausbau hin. Das aber dann mit +23% TGP? Entweder ist der Samsung-Prozess und/oder die Ampere-Architektur nicht so der Bringer oder irgendwas stimmt hinten und vorne nicht. Die Energieffizienz würde nämlich gar nicht oder nur marginal steigen. Irgendwie passt das nicht. Eine Erklärung wäre, wenn Ampere eine wesentlich höhere IPC als Turing hätte.

dildo4u
2020-08-31, 13:51:56
https://pbs.twimg.com/media/Egvax0HXYAAXGBH?format=jpg&name=large

https://twitter.com/yuten0x/status/1300373469843120133

Ravenhearth
2020-08-31, 13:53:10
Die Folie sieht ganz schön fake aus :freak:

Dampf
2020-08-31, 13:58:42
https://pbs.twimg.com/media/Egvax0HXYAAXGBH?format=jpg&name=large

https://twitter.com/yuten0x/status/1300373469843120133

Sehr schön. Man sieht deutlich mehr Raytracing Leistung. Das ist sehr realistisch.

4x RT war natürlich BS von YouTube.

Zergra
2020-08-31, 13:59:52
Mhh aber mit DLSS im vergleich.

Daredevil
2020-08-31, 14:00:37
4x macht ja auch keinen Sinn, wenn die RTX Leistung mehr zunimmt als die reguläre.
Ne Verdopplung wäre schon ein hartes GG.

Dampf
2020-08-31, 14:00:50
Mhh aber mit DLSS im vergleich.

Ist egal, die 2080Ti hat ja auch DLSS aktiviert. Hier hat man also einen direkten Vergleich der Shader und Raytracing-Leistung.

Bedenkt bitte, dass DLSS auch bei Turing nur circa 7-12% der Leistung im Vergleich zu upscaling frisst.

basix
2020-08-31, 14:01:22
Mhh aber mit DLSS im vergleich.

DLSS kostet nur ca. 10% der Frametime. So viel kann das also nicht ausmachen (vorausgesetzt es ist die selbe DLSS Basisauflösung)

Edit:
Dampf war schneller

Zergra
2020-08-31, 14:02:40
ja klar, aber könnte DLSS auch besser geworden sein und am Ende mehr bringen ? Würde ja das Bild ohne DLSS verändern.

mironicus
2020-08-31, 14:03:34
4K ohne DLSS und nur RTX wäre interessanter.

Timbaloo
2020-08-31, 14:04:15
Das problematischste bei RT ist der Speicher, RT hüpft durch Adressen. Das beste wäre mMn viel Cache zu verbauen. Eine doppelt so leistungsfähige RT Einheit brächte wenig, wenn du auf Cache-misses wartest, aber die gleich RT Einheit mit genug Cache um sie immer unter Last zu halten und du hast 10x Steigerung.

Leider steigt die Hitrate nur unproportional. Für doppelte hits brauchst du 4x Cache (Daumenregel).

Aber vielleicht ist das das wo die Transistoren hingehen.
Würde man den Cache denn überhaupt nutzen um die hitrate bei zufälligen Zugriffen zu steigern? Würde man nicht eher versuchen sinnvolle Batches an Strahlen zu sammeln, also Strahlen die alle (potentiell) auf ein und dasselbe Objekt treffen, also ziehen wir genau dieses Object vom RAM in den Cache? Vielleicht ist meine Vorstellung wie RT-RT tatsächlich umgesetzt wird noch etwas naiv :confused:

dildo4u
2020-08-31, 14:06:40
Wundert mich das sie DLSS nutzen die Karte ist so mächtig da dürfte sie in CPUs Limits kommen.

Dampf
2020-08-31, 14:08:32
Die Folie sieht ganz schön fake aus :freak:

Was ist daran Fake? Sieht genauso aus wie Nvidia Folien eben aussehen und die Daten sind noch dazu realistisch.

ja klar, aber könnte DLSS auch besser geworden sein und am Ende mehr bringen ? Würde ja das Bild ohne DLSS verändern.

Selbst wenn DLSS im Vergleich zu Turing gar nichts mehr kosten würde, würde das kaum ins Gewicht fallen.

Ravenhearth
2020-08-31, 14:08:55
Wundert mich das sie DLSS nutzen die Karte ist so mächtig da dürfte sie in CPUs Limits kommen.
Bei Control in 4K/Ultra mit RT ist DLSS absolut notwendig ;D

Was ist daran Fake? Sieht genauso aus wie Nvidia Folien eben aussehen und die Daten sind noch dazu realistisch.
Die Schrift unten sieht sehr gequetscht aus, bspw verglichen mit
https://www.igorslab.de/wp-content/uploads/2018/08/Performance.jpg

AnnoDADDY
2020-08-31, 14:09:32
Wundert mich das sie DLSS nutzen die Karte ist so mächtig da dürfte sie in CPUs Limits kommen.

Zumindest in Wolfenstein scheint das ja auch der Fall sein, aber Control eher nicht.

mironicus
2020-08-31, 14:12:06
Die sollen mal 8K-Benchmarks mit DLSS veröffentlichen. Da lohnt sich das richtig (Death Stranding läuft auf der RTX 2080 TI mit über 50 FPS).

dildo4u
2020-08-31, 14:13:14
Bei Control in 4K/Ultra mit RT ist DLSS absolut notwendig ;D


Kein Plan wo das CPU Limit ist die 2080 Ti liegt um 60fps mit DLSS.

https://youtu.be/29KefVYhV2E?t=343

Ravenhearth
2020-08-31, 14:14:26
Kein Plan wo das CPU Limit ist die 2080 Ti liegt um 60fps mit DLSS.

https://youtu.be/29KefVYhV2E?t=343
Das ist mit Raytracing off, on hast du die Hälfte

dildo4u
2020-08-31, 14:15:24
Stimmt ups dann machen die Werte von der Folie Sinn vermutlich 20 vs 50fps oder so.

Dampf
2020-08-31, 14:16:36
Skaliert auch schön mit der Shader Performance. Wenn die 3090 wirklich rund 60-70% mehr Raster Performance als die 2080Ti hat, dann packst du nochmal 20-30% durch RT Optimierungen in RT games drauf und dann kommst du auf diese Werte.

Cubitus
2020-08-31, 14:17:59
https://pbs.twimg.com/media/Egvax0HXYAAXGBH?format=jpg&name=large

https://twitter.com/yuten0x/status/1300373469843120133

2x mal mehr mit RTX und eventuell DLSS ...
Sieht doch plausibel aus :D

Skaliert auch schön mit der Shader Performance. Wenn die 3090 wirklich rund 60-70% mehr Raster Performance als die 2080Ti hat, dann packst du nochmal 20-30% durch RT Optimierungen in RT games drauf und dann kommst du auf diese Werte.

Ohne die RT Einheiten wird die Karte dann auch etwas sparsamer sein, vermutlich... nehmen wir mal an zwischen 250-300 Watt für bis zu 70 Prozent ohne RT, das ist doch in der Relation super effizient und geil ... nichts anderes habe ich erwartet xD

Grendizer
2020-08-31, 14:21:21
Der Grafikkartenhersteller Gainward hatte frühzeitig eine Fülle an Produktseiten zu Nvidias Spielermodellen GeForce RTX 3090 und GeForce RTX 3080 online gestellt. Diese bestätigten den Einsatz von schnellem GDDR6X-Speicher: 24 GByte mit 936 GByte/s bei dem Topmodell (19,5 GBit/s an 384 Datenleitungen) und 10 GByte bei der GeForce RTX 3080 mit 760 GByte/s (19 GBit/s, 320 Bit).



https://www.heise.de/newsticker/meldung/Spielergrafikkarten-GeForce-RTX-3090-und-3080-Alle-Spezifikationen-4882305.html

Edit: Ok .. das ist die gleiche Quelle, wie der Twitterpost ein paar Antworten vorher

just4FunTA
2020-08-31, 14:23:37
Der Grafikkartenhersteller Gainward hatte frühzeitig eine Fülle an Produktseiten zu Nvidias Spielermodellen GeForce RTX 3090 und GeForce RTX 3080 online gestellt. Diese bestätigten den Einsatz von schnellem GDDR6X-Speicher: 24 GByte mit 936 GByte/s bei dem Topmodell (19,5 GBit/s an 384 Datenleitungen) und 10 GByte bei der GeForce RTX 3080 mit 760 GByte/s (19 GBit/s, 320 Bit).



https://www.heise.de/newsticker/meldung/Spielergrafikkarten-GeForce-RTX-3090-und-3080-Alle-Spezifikationen-4882305.html
;(

Dural
2020-08-31, 14:25:02
Doppelte Leistung mit RT, ich habe auch nichts anderes erwartet.

NC
2020-08-31, 14:27:16
Würde man den Cache denn überhaupt nutzen um die hitrate bei zufälligen Zugriffen zu steigern? ja, cache kann was bringen, es kommt natürlich drauf an wieviel mehr Cache es wird. Ich denke da immer "wieviele Meshes sind klein genug um in den Cache zu passen". All diese Meshes nutzen die RT Einheiten voll aus. Die Meshes die nicht reinpassen kämpfen mit den zufälligen Cache Misses.

Würde man nicht eher versuchen sinnvolle Batches an Strahlen zu sammeln, also Strahlen die alle (potentiell) auf ein und dasselbe Objekt treffen, also ziehen wir genau dieses Object vom RAM in den Cache? das wird zum Teil gemacht, aber auch nur im kleinen Rahmen. Denn alle Rays ins Ram zu schreiben, zu kategorisieren und weiter zu tracen wäre oft mehr Aufwand. Bei filmen, wo Meshes sogar auf Servern liegen, ist das gängig. Aber bei Spielen wird vermutlich nur innerhalb einer CU bzw. SM sortiert. Wenn du dann wild Strahlen feuerst, z.B. AO, bist du im worst case.


Vielleicht ist meine Vorstellung wie RT-RT tatsächlich umgesetzt wird noch etwas naiv :confused:Du bist nich so weit weg, denke ich. Aber die Details wird NV nicht verraten. Die haben da nicht umsonst 10 Jahre Forschung drin.

Aber ich spreche von meiner Erfahrung. Koherente Strahlen sind superschnell, fast wie Rasterization. Random Strahlen brechen sehr ein. Das liegt nicht an den RT cores (die Berechnungen bleiben ja gleich), sondern am Speicher. Quake RTX ist da vermutlich der beste Kandidat gewesen für Caches.

r3ptil3
2020-08-31, 14:29:38
Oh nein... merke schon wo der Fokus morgen liegen wird.

Klingt wirklich nach 30% mehr Leistung ohne RT zu einer 2080 Ti.

Wenn das so kommt und sowas sage ich jetzt zum ersten Mal, dann ist das ein Big Fail bei dem Verbrauch und geht in die GPU-Historie ein wie Fermi und 5950.

dildo4u
2020-08-31, 14:31:18
Oh nein... merke schon wo der Fokus morgen liegen wird.

Klingt wirklich nach 30% mehr Leistung ohne RT zu einer 2080 Ti.

Wenn das so kommt und sowas sage ich jetzt zum ersten Mal, dann ist das ein Big Fail bei dem Verbrauch und geht in die GPU-Historie ein wie Fermi und 5950.
Wolfenstein nutzt sehr wenig RT +50% sind immer noch realistisch ohne RTX.

Cubitus
2020-08-31, 14:34:15
Doppelte Leistung mit RT, ich habe auch nichts anderes erwartet.

Warte die normale Leistung mal ab, wenn sich der Bereich bei non RT Games zwischen 50-80 Prozent bewegt, wäre die GPU schon ziemlich geil ... ich denke die 3090 wird, falls genug Takt anliegt, ordentlich nach oben skalieren... natürlich über dem sweetspot auch deutlich anfangen zu saufen, aber ich vermute die frühen, also die 30% werte .. sind ohne boost und eventuell mit deutlich niedrigeren Taktraten entstanden.. ganz einfach weil man sich noch in der Testphase befand..

Oh nein... merke schon wo der Fokus morgen liegen wird.

Klingt wirklich nach 30% mehr Leistung ohne RT zu einer 2080 Ti.

Wenn das so kommt und sowas sage ich jetzt zum ersten Mal, dann ist das ein Big Fail bei dem Verbrauch und geht in die GPU-Historie ein wie Fermi und 5950.

Und wenn es so kommt wie ich es vermute, wird deine Kinnlade morgen auf dem Tisch liegen.. ;D

NC
2020-08-31, 14:36:00
Dem stimme ich absolut zu. GA100 hat verglichen mit den Vorgängern einen riesigen L2$ (vermutlich 48 MByte beim Vollausbau). Laut Nvidia ist das 8x so viel verglichen mit GV100. Hier hätten wir also unsere ~2-3x Hitrate ;)

Sind doch heutzutage 8 Transistoren/bit, oder? Also 3 Mrd nur dafür, dazu Verwaltung, mehr Ports. Kann das 5 Mrd Transistoren nur für Cache sein?

basix
2020-08-31, 14:45:36
Skaliert auch schön mit der Shader Performance. Wenn die 3090 wirklich rund 60-70% mehr Raster Performance als die 2080Ti hat, dann packst du nochmal 20-30% durch RT Optimierungen in RT games drauf und dann kommst du auf diese Werte.

Würde "doppelte" Raytracing Performance bedeuten: Mit RT gibt es in Control ca. -40% Performance, also 60% bleiben übrig. 0.6*1.3 = 0.78 -> 80% der Performance bleibt übrig -> doppelte RT Performance oder anders ausgedrückt halber Performance-Drop.

Für mich sehen die Zahlen ebenfalls realistisch aus.

r3ptil3
2020-08-31, 14:49:08
Mal die Twitter-Meldung mit den Computerbase-Ergebnissen verglichen und das kommt dabei raus:

https://i.ibb.co/Qm5RbpF/Control.png


@Cubitus
Ich hoffe hierbei sehr du liegst im Recht. :D

Dural
2020-08-31, 14:53:25
Die "normale" Leistung erwarte ich, wie hier schon erwähnt bei +35%

Die Zeiten von 80% und mehr sind schon lange vorbei...

r3ptil3
2020-08-31, 15:00:35
Mal die Twitter-Meldung mit den Computerbase-Ergebnissen verglichen und das kommt dabei raus:

https://i.ibb.co/Qm5RbpF/Control.png


@Cubitus
Ich hoffe hierbei sehr du liegst im Recht. :D

Und Wolfenstein auf Basis von PCGH:
https://i.ibb.co/SX8vL6t/Wolfenstein.jpg

Dampf
2020-08-31, 15:04:31
Also in Zahlen sieht doppelte Leistung schon echt geil aus. Wow...

why_me
2020-08-31, 15:05:16
Sollte man nicht eine 2080 TI FE als Referenz nehmen?

OT: Was sollen diese bescheuerten TFLOPS bei PCGH im Diagramm, warum können die nicht GHz bzw MHz schreiben?

Dural
2020-08-31, 15:05:55
Die 3090 ist die erste High End Karte seit Jahren die mal wieder richtig rentabel ist.

Und dabei noch fast einen vollen Chip drauf hat, die 2% mehr SP bei einem vollen Chip werden kaum messbare Vorteile bringen.

Also, Sparschwein plündern los! :biggrin:

r3ptil3
2020-08-31, 15:06:18
Sollte man nicht eine 2080 TI FE als Referenz nehmen?


Definitiv - hab nur nichts anderes gefunden, aber der Unterschied dürfte nicht gross sein.

Mayk-Freak
2020-08-31, 15:10:57
Die "normale" Leistung erwarte ich, wie hier schon erwähnt bei +35%

Die Zeiten von 80% und mehr sind schon lange vorbei...

Machst du wieder einen Volt Mod bei den GK, das fand ich immer sehr intressant!

why_me
2020-08-31, 15:12:01
Definitiv - hab nur nichts anderes gefunden, aber der Unterschied dürfte nicht gross sein.

Stimmt, hab ich wohl mit der AMP Extreme verwechselt, die hat 300W und liegt ein gutes Stück vorne...

dargo
2020-08-31, 15:18:39
4K ohne DLSS und nur RTX wäre interessanter.
Das passt dann wahrscheinlich schlechter ins Marketing da bei 4k die Shaderlast entsprechend höher ist. ;)

Dural
2020-08-31, 15:24:13
Machst du wieder einen Volt Mod bei den GK, das fand ich immer sehr intressant!

Die Zeiten sind leider schon lange vorbei, ich Spiele nicht mal mehr.

basix
2020-08-31, 15:31:26
Die Zeiten von 80% und mehr sind schon lange vorbei...

Pascal ist jetzt nicht so alt ;)

HOT
2020-08-31, 15:35:37
Endlich vernünftige RT-Leistung. Das war aber auch zu erwarten. Ohne DLSS wird dieses Produkt keinen Sinn ergeben.

MasterElwood
2020-08-31, 15:45:34
https://www.nvidia.com/de-at/geforce/special-event/?ncid=afm-chs-44270&ranMID=44270&ranEAID=TnL5HPStwNw&ranSiteID=TnL5HPStwNw-nyXe6gZAOLrs3FqW5tsk_A

MiamiNice
2020-08-31, 15:46:07
Bis jetzt nur langweiliges Zeug. Wo sind die Leaks ohne RT und DLSS?!?
Rohpower braucht das Land - die Games mit RT kann man fast noch ein einer Hand abzählen und DLSS ist, imo, was für Pussys ohne Power in der Kiste.

dildo4u
2020-08-31, 15:49:00
Andere Werte wirrste von Nvidia nicht bekommen da musste noch warten.

Timbaloo
2020-08-31, 15:51:10
Rohpower braucht das Land - die Games mit RT kann man fast noch ein einer Hand abzählen und DLSS ist, imo, was für Pussys ohne Power in der Kiste.
Die nächsten Jahre werden sehr traurig für dich werden :wave2:

Hauwech
2020-08-31, 15:55:00
Strom sparen mit DLSS:

https://www.igorslab.de/mit-nvidia-und-dlss-2-0-auf-dem-oeko-trip-stromsparen-gegen-den-trend-geht-naemlich-auch/

:)

y33H@
2020-08-31, 15:59:12
Keine neue Erkenntnis, dennoch interessant.

Lawmachine79
2020-08-31, 16:00:42
Bis jetzt nur langweiliges Zeug. Wo sind die Leaks ohne RT und DLSS?!?
Rohpower braucht das Land - die Games mit RT kann man fast noch ein einer Hand abzählen und DLSS ist, imo, was für Pussys ohne Power in der Kiste.
Du bist doch auch VR-Nutzer - gerade so eine Technologie müsste doch massiv von DLSS profitieren, gerade wenn man es geschickt mit Foveated rendering kombiniert. Bei normalen Monitoren sind die Entwicklungsschritte hin zu feineren Auflösungen langsamer geworde; bei VR ist der Bedarf nach höheren Auflösungen aber "systembedingt" viel höher und noch lange nicht gesättigt.

Bei dem Maßstab ist doch jedes Art von Antialiasing "was für Pussies" die einfach nicht in einer ausreichenden Auflösung spielen.
Hier ist ein 8k-Monitor: https://geizhals.de/dell-ultrasharp-up3218k-210-alez-a1599496.html?hloc=at&hloc=de
Ist AA jetzt eine Pussytechnologie, weil man einfach einen 32" 8k-Monitor kaufen kann anstatt auf UHD 32" mit MSAA 4x oder gleich mit SGSSAA zu spielen?

Das Problem was ich mit DLSS sehe ist, dass es soweit ich weiß Stand jetzt vom Spielehersteller implementiert werden muss. Das dürfte der zu ändernde Knackpunkt sein und da soll ja angeblich Ampere liefern.

SkankHunt
2020-08-31, 16:01:24
Bis jetzt nur langweiliges Zeug. Wo sind die Leaks ohne RT und DLSS?!?
Rohpower braucht das Land - die Games mit RT kann man fast noch ein einer Hand abzählen und DLSS ist, imo, was für Pussys ohne Power in der Kiste.

Was hat es für Nachteile, wenn "Software" dabei hilft bessere Leistung zu erhalten ? Als User kannst du dabei fast nur gewinnen.
Zudem werden DLSS + RT in der Zukunft eine größere Rolle spielen.

Ziemlich kurzsichtige Einstellung und vor allem noch eine so infantile Metaphorik.

RLZ
2020-08-31, 16:08:12
Du bist doch auch VR-Nutzer - gerade so eine Technologie müsste doch massiv von DLSS profitieren.
Eigentlich kann VR noch viel mehr davon profitieren. Beim Monitor brauchst du mit DLSS noch ein lineares Sampling. Bei VR verabschiedet man sich davon sinnvoller auch gleich. Ich bin mir sicher, dass die Anzahl der Samples pro Frame mittelfristig bei nicht über 10% der Displaypixel in VR landet. DeepFovea zeigt eindeutig wo es hingeht.

unl34shed
2020-08-31, 16:08:38
Was hat es für Nachteile, wenn "Software" dabei hilft bessere Leistung zu erhalten ?

Früher wurden die Fackeln und Mistgabeln ausgepakt, wenn Software (Treiber) Details weggelassen hat um schneller zu sein.

Hauwech
2020-08-31, 16:10:01
Keine neue Erkenntnis, dennoch interessant.

Das schon aber das es bis zu 80 Watt ausmachen kann, finde ich schon sehr beachtlich. Wenn es nV schafft da weiter Gas zu geben, es einfacher zu implementieren oder sogar nachzupatchen ist und es wirklich alle Chips können, dann wäre das vor allem für die NB Chips schon ein ordentliches Argument pro nV.

Troyan
2020-08-31, 16:10:14
Also so wie Screen-Space Effekte? Gotcha.

MiamiNice
2020-08-31, 16:10:36
Du bist doch auch VR-Nutzer - gerade so eine Technologie müsste doch massiv von DLSS profitieren. Bei normalen Monitoren sind die Entwicklungsschritte hin zu feineren Auflösungen langsamer geworde; bei VR ist der Bedarf nach höheren Auflösungen aber "systembedingt" viel höher. Bei dem Maßstab ist doch jedes Art von Antialiasing "was für Pussies" die einfach nicht in einer ausreichenden Auflösung spielen.

Das Problem was ich mit DLSS sehe ist, dass es soweit ich weiß Stand jetzt vom Spielehersteller implementiert werden muss. Das dürfte der zu ändernde Knackpunkt sein und da soll ja angeblich Ampere liefern.

Dann finde doch mal VR Games die DLSS unterstützen :wink:
HL Alyx und Minecraft wären da imo zu nennen, danach wird die Luft reichlich dünn. Die beiden Games werden aber kaum bis gar nicht gespielt.

Was hat es für Nachteile, wenn "Software" dabei hilft bessere Leistung zu erhalten ? Als User kannst du dabei fast nur gewinnen.
Zudem werden DLSS + RT in der Zukunft eine größere Rolle spielen.

Ziemlich kurzsichtige Einstellung und vor allem noch eine so infantile Metaphorik.

Du kannst ja über meine Metaphorik schimpfen ändert aber nichts an der Tatsache das außer in "AAA" Games genannte Techniken kaum bis gar nicht implementiert werden. Eher sich das nicht ändert, ist es für jemanden wie mich, unnützes Zeug. AAA Games sucken nur noch hart, das Zielpublikum will eher einen Kinofilm schauen statt richtig zu zocken. Kann ich mich absolut nicht mit anfreunden.
So lange das nicht der Fall ist muss man weiterhin Games mit Rohpower erschlagen, wie es schon immer gewesen ist.

Lawmachine79
2020-08-31, 16:12:04
Früher wurden die Fackeln und Mistgabeln ausgepakt, wenn Software (Treiber) Details weggelassen hat um schneller zu sein.
Das spielt wohl auf "Brilineargate" an :D.

1) Frühere Treiber haben teilweise die Möglichkeit weggelassen, die höchste Qualität einzustellen - das Beste wurde dem Benutzer also vorenthalten.

2) Frühere Treiber haben die verbleibenden Optionen dann noch irreführend gekennzeichnet ("Höchste Qualität").

3) Frühere Treiber haben stumpf das ganze Bild verschlechtert - da unterstelle ich einer Technologie die "Deep Learning" heisst einen anderen Ansatz.

Dann finde doch mal VR Games die DLSS unterstützen :wink:
HL Alyx und Minecraft wären da imo zu nennen, danach wird die Luft reichlich dünn. Die beiden Games werden aber kaum bis gar nicht gespielt.


DLSS 3.0 wird mit jedem VR-Spiel funktionieren, das TAA-Unterstützung bietet.

ianm
2020-08-31, 16:12:23
Strom sparen mit DLSS:

https://www.igorslab.de/mit-nvidia-und-dlss-2-0-auf-dem-oeko-trip-stromsparen-gegen-den-trend-geht-naemlich-auch/

:)

Beim Anschauen des Videos heute Mittag kam mir der Gedanke der Igor ist schon schlau, bringt sowas immer zum passenden Zeitpunkt. Ich wette morgen sehen wir viele Graphen, von wegen alles halb so schlimm (prozentuale Steigerung der Rohleistung, Stromverbrauch etc.), DLSS und Co als secret sauce werden es schon richten.

Bei gerade mal einer handvoll Games auf dem Markt...

Cubitus
2020-08-31, 16:14:38
Die "normale" Leistung erwarte ich, wie hier schon erwähnt bei +35%

Die Zeiten von 80% und mehr sind schon lange vorbei...

Die 35% bei 1200 Mhz ...hust... :biggrin:

SkankHunt
2020-08-31, 16:14:56
Früher wurden die Fackeln und Mistgabeln ausgepakt, wenn Software (Treiber) Details weggelassen hat um schneller zu sein.

Es muss sich noch entwickeln, dass ist klar, dennoch würde ich schon eine positive Prognose abgeben.

Zudem muss es in der Diskussion einen Kontext geben, inwiefern man dies evaluiert.
Ich finde es dezent realitätsfern, wenn mir ein Screenshot eingeblendet wird, auf dem u.a. eine Granate, etwas unschärfer ist.
Als praxistauglichen Benchmark sollte man eher den Vergleich nehmen, ob man in Bewegtbildern einen Unterschied sieht bzw. ob es nur mit massiver Anstrengung/Zoom einen Unterschied gibt.

Troyan
2020-08-31, 16:18:25
Das schon aber das es bis zu 80 Watt ausmachen kann, finde ich schon sehr beachtlich. Wenn es nV schafft da weiter Gas zu geben, es einfacher zu implementieren oder sogar nachzupatchen ist und es wirklich alle Chips können, dann wäre das vor allem für die NB Chips schon ein ordentliches Argument pro nV.

Das hat ja auch schon nVidia erkannt und bei den Notebook Refresh damit geworben:

Another breakthrough is the use of NVIDIA DLSS to extend battery life while gaming. Powered by dedicated AI processors on GeForce RTX GPUs called Tensor Cores, DLSS is a deep learning neural network that boosts frame rates while generating beautiful, crisp game images. When combined with NVIDIA BatteryBoost technology, DLSS allows the GPU to operate in an ultra-efficient mode that delivers the same great experience but with up to 20% longer battery life while gaming.
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-super-laptops/

HOT
2020-08-31, 16:19:31
Die 35% bei 1200 Mhz ...hust... :biggrin:
Die 35% ohne DLSS. DLSS ist das Killerfeature dieser Generation und es ist entsprechend auch so gut. NV nutzt eben das aus, was sie bisher in Sachen KI geforscht haben, das ist ein intelligenter Weg.

Cubitus
2020-08-31, 16:20:12
Die 35% ohne DLSS. DLSS ist das Killerfeature dieser Generation und es ist entsprechend auch so gut.

Kinnlade incoming ;D

Wenns wirklich so ist wie ich es gehört habe, dann werdet ihr auch 2000k auf den Tisch legen wollen.. xD

HOT
2020-08-31, 16:22:07
Kinnlade incoming ;D

Wenns wirklich so ist wie ich es gehört habe, dann werdet ihr auch 2000k auf den Tisch legen wollen.. xD
Die RT-Leaks sprechen schonmal dagegen.

Lawmachine79
2020-08-31, 16:23:04
Bei gerade mal einer handvoll Games auf dem Markt...
Nochmal: DLSS 3.0 arbeitet afaik mit jedem Spiel, das TAA unterstützt.

SkankHunt
2020-08-31, 16:23:34
Du kannst ja über meine Metaphorik schimpfen ändert aber nichts an der Tatsache das außer in "AAA" Games genannte Techniken kaum bis gar nicht implementiert werden. Eher sich das nicht ändert, ist es für jemanden wie mich, unnützes Zeug. AAA Games sucken nur noch hart, das Zielpublikum will eher einen Kinofilm schauen statt richtig zu zocken. Kann ich mich absolut nicht mit anfreunden.
So lange das nicht der Fall ist muss man weiterhin Games mit Rohpower erschlagen, wie es schon immer gewesen ist.

Stimmt natürlich, dass der Nutzen aktuell und mittelfristig je nach Anwendungsprofil schwankt und da kann ich dich nachvollziehen.

Es geht mir nur darum, den Allgemeinen nutzen nicht herabzusetzen, was bei dir etwas so wirkt.

mironicus
2020-08-31, 16:24:30
Nochmal: DLSS 3.0 arbeitet afaik mit jedem Spiel, das TAA unterstützt.

Wie macht NVidia das? Also Offline-Rendering ohne das übliche Anlernen?

basix
2020-08-31, 16:25:48
Die RT-Leaks sprechen schonmal dagegen.

Ich würde das mal noch nicht als Leak bewerten. Die Schriftabstände passen nicht / sind nicht uniform, ist eher ein Fake. Nur die dargestellten Werte scheinen plausibel ;)

Wie macht NVidia das? Also Offline-Rendering ohne das übliche Anlernen?

Anlernen ist seit DLSS 2.0 Geschichte. Es ist bei DLSS 2.0 aber so, dass das Spiel gewisse Dinge machen muss, damit es funktioniert (Bewegungsvektoren, Reihenfolge von HUD Rendering usw.). Deswegen ist DLSS-for-all-Games-with-TAA mit dem DLSS 2.0 Konzept nicht möglich.

Ravenhearth
2020-08-31, 16:27:23
Nochmal: DLSS 3.0 arbeitet afaik mit jedem Spiel, das TAA unterstützt.
DLSS 3.0 ist nur ein dummes Gerücht, das von einem Youtuber in die Welt gesetzt wurde.

HOT
2020-08-31, 16:28:31
Wie macht NVidia das? Also Offline-Rendering ohne das übliche Anlernen?
Ich zitier mal Robbi aus dem DLSS-Thread:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12408734&postcount=431

Das Ganze wird jetzt eben auf eine breitere Basis gestellt, man hat ja jetzt auch deutlich mehr Tensor-Leistung zur Verfügung.

igg
2020-08-31, 16:28:53
Ich würde das mal noch nicht als Leak bewerten. Die Schriftabstände passen nicht / sind nicht uniform, ist eher ein Fake. Nur die dargestellten Werte scheinen plausibel ;)Ich würde eine Folie nachbauen, wenn ich sie leake. Man muss sich ja nicht gleich selbst verraten ;-)

Cubitus
2020-08-31, 16:29:32
Die RT-Leaks sprechen schonmal dagegen.

ich hab nur gesagt das die 35 % nicht mit dem eigl Boost-Takt erfolgten..
und ich hab auch gesagt das sich die Spanne mit Leistungszuwachs sich zwischen 50-80 Prozent bewegen könnte..

Zudem,
Was macht denn der "Co-Prozessor" wenn er nichts zu tun hat.. sich langweilen, ich glaube nicht.. ;)

Vermutlich werden wir hier die Ultimative 4k Karte zu sehen bekommen, welche sich erst in diesem Bereich wirklich bezahlt macht ;)
Hohe Auflösung, viele Details, muss nicht mal RT sein, und das Ding zernudelt alles was aktuell auf dem Markt ist.

basix
2020-08-31, 16:29:41
Das wird von einem Implementierungsgebundenen Feature zu einem global einsetzbaren "Filter" ohne Leistungseinschränkungen, weil es komplett über Tensor laufen wird mMn.

Wenn es so kommt: Sehr chic! Aber ich glaube es erst, wenn ich es sehe. Momentan glaube ich nicht daran.

HOT
2020-08-31, 16:33:48
Fänd ich auf jeden Fall ne echt elegante Lösung, 25% mehr Leistung global mit sagen wir 30W zusätzlicher Verlustleistung über Tensorcores ohne BQ-Einschränkungen wäre sehr schmackhaft.

y33H@
2020-08-31, 16:35:54
Das schon aber das es bis zu 80 Watt ausmachen kann, finde ich schon sehr beachtlich. Wenn es nV schafft da weiter Gas zu geben, es einfacher zu implementieren oder sogar nachzupatchen ist und es wirklich alle Chips können, dann wäre das vor allem für die NB Chips schon ein ordentliches Argument pro nV.Die Idee, zugunsten einer geringeren Leistungsaufnahme die Fps zu drosseln, ist uralt - DLSS stellt hier schlicht ein modernes Werkzeug dar.

Nvidia hat das sogar selbst bereits beworben:

71298

Cubitus
2020-08-31, 16:37:02
Fänd ich auf jeden Fall ne echt elegante Lösung, 25% mehr Leistung global mit sagen wir 30W zusätzlicher Verlustleistung über Tensorcores ohne BQ-Einschränkungen wäre sehr schmackhaft.

Ich glaube wir sind uns einig... :D
Ich vermute stark das es auch so drauf hinauslaufen wird.

+ die Rohleistung wird noch höher sein als angenommen, wird sich zeigen wie es in diversen Games und mit gesetztem Boost als Sweetspot für die jeweilige Kühlung funktioniert.

RLZ
2020-08-31, 16:43:48
DLSS 3.0 ist nur ein dummes Gerücht, das von einem Youtuber in die Welt gesetzt wurde.
Dass ein DLSS 3.0 kommt ist wohl ziemlich sicher. Nur dass man dafür keine Anpassung mehr braucht, ist ziemlich unwahrscheinlich.

Timbaloo
2020-08-31, 16:46:06
Dass ein DLSS 3.0 kommt ist wohl ziemlich sicher.
Das hat man bei Half-Life auch gedacht.

*scnr*

ianm
2020-08-31, 16:49:04
Nochmal: DLSS 3.0 arbeitet afaik mit jedem Spiel, das TAA unterstützt.
Offiziell gibt es noch gar nichts zu 3.0, wenn das so läuft wie 1.0 und 2.0 dann gute Nacht. Angekündigt wurde in der Vergangenheit viel, DLSS war für Turing zumindest eine Totgeburt, außer Control im dritten Anlauf kam da nichts.

Deshalb bleibe ich sehr skeptisch, vor allem wie sich sowas dann im kaufbaren Bereich <400 Euro gestaltet.

SKYNET
2020-08-31, 16:53:01
ITX-Format? Schau dir das doch lieber nochmal genauer an.
https://www.pcgameshardware.de/screenshots/original/2015/08/R9_Nano_StraightOn_RGB_5inch-pcgh.jpg

<24cm ist für mich ITX.... :wink:

mironicus
2020-08-31, 16:53:04
Wenn es ein automatisches DLSS gäbe, wäre das interessant um ältere Spiele aufzuwerten. Oder wie wäre es mit einer Implementierung in einem Emulator für ältere Konsolen wie z.B. die PS3...?

woodsdog
2020-08-31, 16:56:38
Wenn es ein automatisches DLSS gäbe, wäre das interessant um ältere Spiele aufzuwerten. Oder wie wäre es mit einer Implementierung in einem Emulator für ältere Konsolen wie z.B. die PS3...?

Für alten Gammel hast du genug Power um Downsampling zu nutzen. Braucht kein DLSS und glättet praktisch perfekt.

Cubitus
2020-08-31, 16:57:45
Wenn es ein automatisches DLSS gäbe, wäre das interessant um ältere Spiele aufzuwerten. Oder wie wäre es mit einer Implementierung in einem Emulator für ältere Konsolen wie z.B. die PS3...?

Es wäre überhaupt interessant, Spielbare Auflösungen sind plötzlich in 8K möglich.. Auch ältere Titel würden dadurch massiv profitieren.. natürlich..
Moment, hat denn die 3090 nicht zufälligerweise 24 GB Vram :uponder: ;D

Für alten Gammel hast du genug Power um Downsampling zu nutzen. Braucht kein DLSS und glättet praktisch perfekt.

Naja wir reden vielleicht auch von Spielen, die noch gar nicht so alt sind max 2 Jahre vielleicht und wo DLSS noch nicht angeboten wird..

mironicus
2020-08-31, 17:06:14
Ich hätte ja gerne mal ein Feature, was einen wirklichen Nutzen hat und sofort auf alle Spiele anwendbar wäre.

Das Feature heißt... mehr Shadereinheiten! :)

AnnoDADDY
2020-08-31, 17:07:59
Wenn aber mehr Shader nicht mehr ordentlich skalieren dann benötigt man was anderes und an diesen Punkt scheint man angekommen zu sein.

Matrix316
2020-08-31, 17:08:56
Meint ihr da kommt eine Ampere für ~ 800 Euro die schneller als eine 2080TI ist?

Zergra
2020-08-31, 17:10:41
Meint ihr da kommt eine Ampere für ~ 800 Euro die schneller als eine 2080TI ist?


Ja, die 3080 10GB.

igg
2020-08-31, 17:19:17
Ja, die 3080 10GB.
Seufz :-( dann gibt es wohl auch eine 3070 8GB

WedgeAntilles
2020-08-31, 17:25:07
Seufz :-( dann gibt es wohl auch eine 3070 8GB

Dann warte halt bis es die 3070 mit 16GB gibt.
Auf ein paar Wochen wird es ja wohl nicht ankommen, oder?

gedi
2020-08-31, 17:31:03
Ja, die 3080 10GB.

Wenn das Ding wirklich deutlich über ner Ti rauskommt, dann geht unter 1200€ nix! NV hat ja schließlich nix zu verschenken :freak:

Troyan
2020-08-31, 17:32:47
https://twitter.com/hms1193/status/1300449249449172992


Up To 1.9x perf per watt than last gen

SKYNET
2020-08-31, 17:36:06
https://twitter.com/hms1193/status/1300449249449172992

with RT & DLSS... rohleistung wird das ding evtl. 10% vorne liegen bei watt/performance

r3ptil3
2020-08-31, 17:36:57
Wenn das Ding wirklich deutlich über ner Ti rauskommt, dann geht unter 1200€ nix! NV hat ja schließlich nix zu verschenken :freak:

Es hat sich folgendes zu 2018 verändert:

- kein Mining-Boom
- Konkurrenzprodukte durch einen anderen Mitbewerber in Kürze (3080 wird da mehr oder weniger im Fokus stehen)

Mit 1200 Euro würden sie nicht nur die Käuferschaft verärgern beim Release ( negative Presse inklusive), sondern vor allem einen Preis- und Wertverfall ihrer Produkte in Kauf nehmen, welcher dann ab November die Folge wäre.

Eine 3080 mit 10Gb darf nicht über 800 Euro kosten.

Kimi2003
2020-08-31, 17:38:09
Es hat sich folgendes zu 2018 verändert:

- kein Mining-Boom
- Konkurrenzprodukte durch einen anderen Mitbewerber in Kürze (3080 wird da mehr oder weniger im Fokus stehen)

Mit 1200 Euro würden sie nicht nur die Käuferschaft verärgern beim Release ( negative Presse inklusive), sondern vor allem einen Preis- und Wertverfall ihrer Produkte in Kauf nehmen, welcher dann ab November die Folge wäre.

Eine 3080 mit 10Gb darf nicht über 800 Euro kosten.


Dein Wort in Gottes Ohr. Wenn es so eintrifft, wird die 3080 gekauft ;)

maximus_hertus
2020-08-31, 17:38:26
Ui, also deutlich(!) über doppelt so schnell? 350 vs 250W (+40% Strom) und 1.9 PpW = ca. 170% schneller als die 2080 Ti. Wow, extrem(!) beeindruckend. RDNA2 braucht dann wohl gar nicht mehr erscheinen....

Hauwech
2020-08-31, 17:38:30
Die Idee, zugunsten einer geringeren Leistungsaufnahme die Fps zu drosseln, ist uralt - DLSS stellt hier schlicht ein modernes Werkzeug dar.

Nvidia hat das sogar selbst bereits beworben:

71298

Err ja, irgendwie war ich da auf dem falschen Dampfer. :redface:

N0rG
2020-08-31, 17:39:40
https://twitter.com/hms1193/status/1300449249449172992

1,9x perf/watt bei 135% Leistungsaufnahme = 2,56 fache performance? +156%
Da wären dann sogar die +30% Performance mit drin, die Turing uns noch schuldet. :freak:

Hört sich aber zu schön an um wahr zu sein.

Troyan
2020-08-31, 17:40:45
Oder die 350W sind nicht der reale Verbrauch.

r3ptil3
2020-08-31, 17:44:18
Der Tweet bezieht sich doch auf die geleakten Folien.
Jetzt wird kurz vor Release die Erwartungshaltung nochmals stark nach oben gedrückt, selber schuld.

Adam D.
2020-08-31, 17:45:13
1,9x perf/watt bei 135% Leistungsaufnahme = 2,56 fache performance? +156%
Da wären dann sogar die +30% Performance mit drin, die Turing uns noch schuldet. :freak:

Hört sich aber zu schön an um wahr zu sein.
Da steht dick und fett "UP TO", was selbstverständlich ein Ausnahmefall mit DLSS etc. sein wird. Ich find das aber trotzdem verdammt nice, weil ich im Gegensatz zu Miami kein sabbernder Rohleistungs-Fetischist bin und ich mit meinen eigenen Augen sehen kann, wie verdammt gut DLSS 2.0 ist und mit 3.0 nur besser werden kann.

gedi
2020-08-31, 17:48:27
Wie schnell ist eigentlich ne 2080Ti in Minecraft in 4K ohne DLSS?

why_me
2020-08-31, 17:48:39
Bezieht sich bestimmt auf 8k RT + DLSS... Da dürfte die 2080 TI bei dem ein oder anderen Spiel ins VRAM Limit laufen und die 24GB ihre Stärke ausspielen. Dann kommen bestimmt mal bis zu 1,9 Perf/W raus.

gedi
2020-08-31, 17:51:00
Ist keine Antwort auf meine Frage, sorry

mironicus
2020-08-31, 17:54:17
https://twitter.com/hms1193/status/1300449249449172992

Oh! Ich freue mich schon auf Benchmarks zum Microsoft Flight Simulator 2020 und Horizon Zero Dawn. :D

Wenn das doppelt so schnell läuft wie auf einer RTX 2080 Ti in 4K dann werde ich mir die RTX 3090 sofort holen. :cool:

Sollte die Karte die erwartete Leistung nicht bringen, dann... :ass2:

gedi
2020-08-31, 17:59:13
Ich würde warten bis Ende Oktober, außer du hast mal 2000€ über.

woodsdog
2020-08-31, 17:59:35
250% faster :upicard:

Dorn
2020-08-31, 18:00:56
Dann warte halt bis es die 3070 mit 16GB gibt.
Auf ein paar Wochen wird es ja wohl nicht ankommen, oder?
Wochen? Kann auch Monate oder erst gar bei einem Refresh kommen.

=Floi=
2020-08-31, 18:11:25
Wenn aber mehr Shader nicht mehr ordentlich skalieren dann benötigt man was anderes und an diesen Punkt scheint man angekommen zu sein.

warum soll das so ein?
die aktuellen shadereinheiten sind in summe durch die chipgröße und die watt limitiert. Es braucht auch nicht nur shadereinheiten und mir ist ein ausgewogenes paket lieber wie die alten blender chips mit vielen SP, welche die power nicht umsetzen konnten.
Im grunde ist egal was im chip steckt, weil nur das ergebnis auf dem monitor zählt.

MiamiNice
2020-08-31, 18:11:44
Stimmt natürlich, dass der Nutzen aktuell und mittelfristig je nach Anwendungsprofil schwankt und da kann ich dich nachvollziehen.

Es geht mir nur darum, den Allgemeinen nutzen nicht herabzusetzen, was bei dir etwas so wirkt.

Die Verachtung in meinen Zeilen erkennst Du schon richtig. Für mich ist DLSS und RT am Markt vorbei entwickelt. Bis das Zeug da ankommt wo es interesant wird, wird noch massig Wasser den Rhein runterfließen.
Allerdings bin ich kein genereller Verachter dieser Technologien, es bringt nur nichts wenn ich diese bei 95% der Softwarelandschaft nicht nutzen kann.
Daher kann und sollte man schon die Frage stellen warum das so forciert wird. Vor allen wenn man die Stimmen der xBox und PS Entwickler hört die sich anhand der niedriegen RT Power der "Next Gen" Konsolen, ich nenne sie ja gerne Last Gen Türstopper, entscheiden müssen was sie nutzen. Dank AMD wird RT sich nicht so durchsetzen wie NV es gerne hätte. Wenn NV DLSS so hinbekommen hat das es in jedem Spiel und VR Spiel läuft, bin ich dafür. Ansonsten auch hier klarer Mega Fail der nur existiert um die für Gamer nutzlosen Tensor Cores zu beschäftigen. Man hat mal für Spieler Chips designt, heute bekommen wir den Abfall aus den Chips die für ganz andere Aufgaben entworfen worden sind. Und müssen dafür mittlerweile auch noch so viel blechen das man dafür locker in den Urlaub fahren kann. Und damit meine ich nicht "Malle" für 500€. Für die Kohle einer 3090 fahre ich ganz locker ne Woche Robinson Club Türkei - ihr wisst schon, den guten ^^

Oh! Ich freue mich schon auf Benchmarks zum Microsoft Flight Simulator 2020 und Horizon Zero Dawn. :D
:

Kauf Dir lieber einen fetten CPU, das bringt in dem Spiel weit mehr als jede GPU. Und mit fett meine ich keinen Ryzen sondern einen ST Kracher wie den 9900KS mit ordentlich OC und verdammt schnellem Ram. So etwas liebt dieses altertümliche Stück Softwareschrott sehr. Eigentlich sollte man MS für diese Software mit Hohn überschütten. Kein Plan warum das so gefeiert wird. Mehr Müll kann man kaum produzieren, imo.

gedi
2020-08-31, 18:12:59
Die Verachtung in meinen Zeilen erkennst Du schon richtig. Für mich ist DLSS und RT am Markt vorbei entwickelt. Bis das Zeug da ankommt wo es interesant wird, wird noch massig Wasser den Rhein runterfließen.
Allerdings bin ich kein genereller Verachter dieser Technologien, es bringt nur nichts wenn ich diese bei 95% der Softwarelandschaft nicht nutzen kann.
Daher kann und sollte man schon die Frage stellen warum das so forciert wird. Vor allen wenn man die Stimmen der xBox und PS Entwickler hört die sich anhand der niedriegen RT Power der "Next Gen", ich nenne sie ja gerne Last Gen Türstopper, entscheiden müssen was sie nutzen. Dank AMD wird RT sich nicht so durchsetzen wie NV es gerne hätte. Wenn NV DLSSS so hinbekommen hat das es in jedem Spiel und VR Spiel läuft, bin ich dafür. Ansonsten auch hier klarer Mega Fail der nur existiert um die für Gamer nutzlosen Tensor Cores zu beschäftigen. Man hat mal für Spieler Chips designt, heute bekommen wir den Abfall aus den Chips die für ganz andere Aufgaben entworfen worden sind.



Kauf Dir lieber einen fetten CPU, das bringt in dem Spiel weit mehr als jede GPU.

Full Ack

r3ptil3
2020-08-31, 18:20:37
Kauf Dir lieber einen fetten CPU, das bringt in dem Spiel weit mehr als jede GPU. Und mit fett meine ich keinen Ryzen sondern einen ST Kracher wie den 9900KS mit ordentlich OC und verdammt schnellem Ram. So etwas liebt dieses altertümliche Stück Softwareschrott sehr.

Tolle Empfehlung - zum einen eine uralte 1151 Plattform und dann eine CPU, welche man sowieso nirgends mehr kriegt? :D

Habe mal in den grösseren Suchmaschinen (Geizhals, Toppreise) überprüft, ob irgendwas vielleicht schon gelistet wird, leider noch nichts. Der September wird wohl für 3080/3090 Interessenten ein sehr teurer Monat. Will mir gar nicht vorstellen was man da für Mondpreise verlangen wird, die ersten paar Wochen.

mironicus
2020-08-31, 18:26:26
Da der Flight Simulator auch für die neue Xbox erscheinen soll, ist es nur eine Frage der Zeit bis der Titel für Multi-Kern-CPUs, DX12 und Raytracing optimiert werden wird. Davon profitiert auch der PC.

Sweepi
2020-08-31, 18:32:29
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71299&stc=1&d=1598891753

Mhh ist Samsung 7XXX der nächste Schritt nach 8LPU?
Oder hat nVidia doch Samsung/TSMC 7nm am Start?

rentex
2020-08-31, 18:39:12
Und jetzt?

Linmoum
2020-08-31, 18:42:55
Dass "7nm" nur Marketing und in Wahrheit ein umgelabelter 8nm von Samsung ist. Geisterte ja gestern schon rum.

mapel110
2020-08-31, 18:46:06
kommen morgen eigentlich echte Tests oder nur PR-Livestream von nvidia?

Ravenhearth
2020-08-31, 18:50:58
noch keine Tests, nein

crux2005
2020-08-31, 18:52:57
Ich denke, anhand der Bandbreitensteigerung kann man abschätzen, wo nVidia mit den Karten landen will:
3080: 70%+ vs. 2080
3090: 50%+ vs. 2080TI

Macht ja kein Sinn neuen, teuren Speicher zu verwenden, wenn man dann Bandbreite im Überfluss hat, die nicht genutzt werden kann.

Keine Ahnung wie viele Spiele so Bandbreitenlimitiert sind. Spontan fallen mir nur CoD: Modern Warfare und das noch nicht vorgestellte Marvel Avengers ein. Mit RTX (kein DLSS) sind es dann mehr.

Das wären 40% mehr TDP und 40% mehr Geld für 35-40% mehr Leistung, was ganz schön ernüchternd wäre angesichts von 8nm oder 7nm. Ich erhoffe mir zu den +10% Takt und +20% mehr Einheiten noch +20% mehr Leistung bei gleichem Takt, also 1,1*1,2*1,2 = ~60% mehr Leistung.

Wenn du es so sagst, ja. Nur schaut der 0815 Endkunde meistens auf Leistung und Preis. Preis ähnlich wie beim Vorgänger, Leistung höher - gut. Der Enthusiast wählt eh das schnellste von NV (oder AMD). Die perf/Watt Fraktion ist gefühlt deutlich in der Unterzahl.

Edit: Deswegen glaube ich wir werden Morgen mit RTX, DLSS Benchmarks überschüttet. Da kann die doppelte RT Leistung samt Bandbreite schön gezeigt werden. :)

Eigentlich sollte man MS für diese Software mit Hohn überschütten. Kein Plan warum das so gefeiert wird. Mehr Müll kann man kaum produzieren, imo.

Sie wollten Sony nicht mit HDZ alleine lassen. ;D

crux2005
2020-08-31, 19:04:39
del

gedi
2020-08-31, 19:34:14
@ Troyan

Ist die 80 annähernd gleich schnell wie ne 90?

crux2005
2020-08-31, 19:42:35
@ Troyan

Ist die 80 annähernd gleich schnell wie ne 90?

Good point. :up:

WedgeAntilles
2020-08-31, 20:15:37
Wochen? Kann auch Monate oder erst gar bei einem Refresh kommen.

Keine Sorge, das wird nicht passieren.
Weil es Nvidia Geld kosten würde, diese Karten - die von einem gewissen Teil der Spieler gewünscht wird - nicht zu bringen.

Habe ich bereits zweimal in anderen Threads geschrieben.

Dass die 3080 mit 20GB von den Partnern kommt hat Videocardz ja schon als quasi bestätigt beschrieben.

Bei der 3070 wird das gleiche passieren, da bin ich mir sicher.

Nvidia will Geld verdienen, und das meiste Geld verdienen sie, wenn sie die 3070 mit 16GB so schnell wie möglich bringen.

gedi
2020-08-31, 20:23:42
Guter Punkt, zumal die 3070 nur GDDR6 ohne x haben. Trotzdem Kosten/Nutzen Faktor?

Dural
2020-08-31, 20:38:29
Wenn man rechnen könnte wüsste man das 34.5b in 620mm2 in 8nm (10nm) gar nicht möglich sind.....

Und nv hätte das auch nicht nötig, wüsste nicht was das bringen soll.

why_me
2020-08-31, 20:42:51
Und wer sagt, dass die 34,5B stimmen?

Badesalz
2020-08-31, 20:44:51
Die Idee, zugunsten einer geringeren Leistungsaufnahme die Fps zu drosseln, ist uralt - DLSS stellt hier schlicht ein modernes Werkzeug dar.

Nvidia hat das sogar selbst bereits beworben:

71298Das ist aber der Mud-Mode. Das dann eher nicht als Beispiel nehmen bitte ;)

Linmoum
2020-08-31, 20:46:14
Wenn man rechnen könnte wüsste man das 34.5b in 620mm2 in 8nm (10nm) gar nicht möglich sind.....Doch, das geht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12407030&postcount=7815

Sunrise
2020-08-31, 20:50:22
Wenn man rechnen könnte wüsste man das 34.5b in 620mm2 in 8nm (10nm) gar nicht möglich sind.....

Und nv hätte das auch nicht nötig, wüsste nicht was das bringen soll.
Na dann rechne mal vor...

Das ist alles doch sowieso Schall und Rauch, Samsung wirft mit den Bezeichnungen ja nur so um sich. Alles quasi gleicher Node.

Eine wirkliche Überraschung (positiv, weil dann wäre das Wertgefühl besser) wäre nur TSMC.

unl34shed
2020-08-31, 20:53:23
Doch, das geht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12407030&postcount=7815

Nur hat man einen gewissen Bereich des Chips, der aufgrund des I/O deutlich schlechter skaliert und man wird auch nicht wirklich UHD Cells für den gesamten Chip nutzen.

Cyberfries
2020-08-31, 20:57:49
Doch, das geht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12407030&postcount=7815

Sind das nicht Maximalwerte die nur von Smartphone-SoCs annähernd erreicht werden?
Von den bis zu 33MTr/mm² sind die 14nm-Karten auch ein gutes Stück weit weg.
Ich meine ich hatte hier irgendwo gelesen, dass bei 8nm eher 44-48MTr/mm² erwartet werden.

Edgecrusher86
2020-08-31, 21:39:51
Das dürften Fake-Slides gewesen sein:
Guru3D - Faked NVIDIA GeForce RTX 3090 Performance Slides are making Rounds on the WWW by Hilbert Hagedoorn on: 08/31/2020 06:01 PM (https://www.guru3d.com/news-story/faked-nvidia-geforce-3090-slides-are-making-rounds-on-the-www.html)

masked__rider
2020-08-31, 21:47:28
War aber auch unschwer zu erkennen, bei der Formatierung...

w0mbat
2020-08-31, 21:50:03
War ja klar, die 3090 ist min. 3x schneller.

Dampf
2020-08-31, 21:57:13
Das dürften Fake-Slides gewesen sein:
Guru3D - Faked NVIDIA GeForce RTX 3090 Performance Slides are making Rounds on the WWW by Hilbert Hagedoorn on: 08/31/2020 06:01 PM (https://www.guru3d.com/news-story/faked-nvidia-geforce-3090-slides-are-making-rounds-on-the-www.html)

Nur weil irgendein Random behauptet, jemand anderes hätte den Screenshot gemacht? Darauf bezog sich Coretek nämlich.

Die Kompressionsartefakte sind JPEG bedingt. Wenn du offizielle Nvidia Slides anschaust, siehst du das gleiche Problem.

Das mit dem grünen Balken kann mal passieren, auch bei Nvidia. Sind auch nur Menschen. Ich wäre vorsichtig, das jetzt schon als Fake zu betiteln.

Seien wir doch mal realistisch, die Daten decken sich mit fast allem was bekannt ist. Würde das jemand Faken, dann würde er doch eher sowas abstruses wie 4x nehmen.

r3ptil3
2020-08-31, 22:03:33
Ich sage nur soviel jetzt:
Wenn die gestörten Preise von den Boardpartnern mit den geschätzten 2000-2800$ stimmen, dann muss die 3090 300% mehr Performance bieten.

Linmoum
2020-08-31, 22:09:37
Es ist alleine schon deswegen Fake, weil dort nicht "Minecraft with RTX" steht. So wird es auch von NV selbst offiziell bezeichnet.

Siehe u.a. hier: https://www.nvidia.com/en-us/geforce/news/minecraft-with-rtx-beta-out-now-download-play/

RLZ
2020-08-31, 22:10:50
Seien wir doch mal realistisch, die Daten decken sich mit fast allem was bekannt ist.
Quasi alles deckt sich mit den bekannten Daten. Das hat eine absurde Streuung angenommen.

Piefkee
2020-08-31, 22:12:32
Nur weil irgendein Random behauptet, jemand anderes hätte den Screenshot gemacht? Darauf bezog sich Coretek nämlich.

Die Kompressionsartefakte sind JPEG bedingt. Wenn du offizielle Nvidia Slides anschaust, siehst du das gleiche Problem.

Das mit dem grünen Balken kann mal passieren, auch bei Nvidia. Sind auch nur Menschen. Ich wäre vorsichtig, das jetzt schon als Fake zu betiteln.

Seien wir doch mal realistisch, die Daten decken sich mit fast allem was bekannt ist. Würde das jemand Faken, dann würde er doch eher sowas abstruses wie 4x nehmen.

Der leaker hat doch selber zugeben sie selber gemacht zu haben im coretex discord??😂😂

SKYNET
2020-08-31, 22:12:41
Das dürften Fake-Slides gewesen sein:
Guru3D - Faked NVIDIA GeForce RTX 3090 Performance Slides are making Rounds on the WWW by Hilbert Hagedoorn on: 08/31/2020 06:01 PM (https://www.guru3d.com/news-story/faked-nvidia-geforce-3090-slides-are-making-rounds-on-the-www.html)

und schon ist der hypetrain entgleist ;D

Dampf
2020-08-31, 22:21:02
Der leaker hat doch selber zugeben sie selber gemacht zu haben im coretex discord??😂😂

Nee, der Leaker war ich.

Jeder kann das behaupten.

Piefkee
2020-08-31, 22:24:41
Nee, der Leaker war ich.

Jeder kann das behaupten.

Ok, wie du meinst 😂

w0mbat
2020-08-31, 22:25:35
165 Seiten Diskussion, aber eines kann ich sagen: ich freu mich auf morgen wie auf Weihnachten!

Und da eine 3090 nur ca. einen Tag TSLA call Gewinne kostet, mal sehen ;)

woodsdog
2020-08-31, 22:30:54
Da gibt es nicht viel auf was wir uns freuen könnten, ist nur Lederjacke auf der "Bühne" aka seine Küche in der er Marketing stuff absondert.

Rampage 2
2020-08-31, 22:41:21
Welche meinst du die 3070?Die soll wie die 2070 599$ kosten.

https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2070-founders-edition,5851.html

Das ist aber die FE. Die "reguläre" 2070 mit den schlechten Chips kostete "nur" 500$ - und damals gab es noch eine "A"-Version mit gebinnten/selektierten Chips... die kostete auch 100$ mehr, also 600$.

Bei der 3070/Ti hingegen wird es wohl keine A-Chips (bzw. eine Unterteilung) mehr geben; also nur herkömmliche Chips - und trotzdem soll sie 600$ kosten! (100$ Preisanstieg zur regulären 2070)

bin erstaunt das die 3070er so klein sind... zu pascal und turing wurde da am anfang meistens ordentliche dickschiffe gelauncht bei den 70er serien...

Habe ich es richtig verstanden, dass bei der 3080/3090 lediglich das PCB gekürzt wurde (aber der Rest dafür umso riesiger geworden ist) ? Worauf ich hinaus will: das PCB der 3070/Ti ist nicht kleiner, sondern größer als bei der 3080/3090...?

Skaliert auch schön mit der Shader Performance. Wenn die 3090 wirklich rund 60-70% mehr Raster Performance als die 2080Ti hat [...]

Wo soll die denn herkommen? Laut aktuellen Gerüchten/Spekulatius soll GA102 nur 1 Raster-Engine/GPC mehr haben als TU102 & TU104 (6 -> 7). Da sind rein theoretisch nur 16,7% höhere Rasterizer-Leistung drin und nicht 60-70%...


Die Zeiten von 80% und mehr sind schon lange vorbei...

Pascal ist noch nicht sooo lange her. Unabhängig davon: natürlich müssen es nicht immer 70-80% sein, aber 50-60% sollten es schon mindestens sein bei einer neuen GPU-Generation! Turing und *möglicherweise* auch Ampere (morgen werden wir es erfahren;)) liegen deutlich unter der Norm in dieser Hinsicht...

Wenn aber mehr Shader nicht mehr ordentlich skalieren dann benötigt man was anderes und an diesen Punkt scheint man angekommen zu sein.

Ich glaube nicht, dass es daran lag. Es lag wohl viel eher daran, dass Nvidia von den riesigen Chipgrößen von Turing erst mal wieder runterkommen wollte und daher Ampere möglichst wenig verbreitert hat - und trotzdem ist der Chip 627mm^2 groß geworden!

wie die alten blender chips mit vielen SP, welche die power nicht umsetzen konnten.

G80 hatte ggü. G70 die Zahl der Shadereinheiten vervielfacht - und trotzdem skalierte die Leistung gut mit (2-4x so schnell). Dasselbe Spiel bei G80/92 -> GT200(b) ( ~ doppelte Leistung bei fast doppelt so vielen SPs). Und soweit ich mich erinnern kann, war das bei Fermi (GT200b -> GF112) auch noch der Fall. WO konnten die alten Chips also die Leistung nicht auf die Straße bringen? :|

Ja, die 3080 10GB.

Ich hab' das Gefühl - und ich hoffe, ich werde Recht behalten - dass die 10GB-3080 wie Blei in den Regalen liegen bleiben wird... (sofern sich die NV-Kundschaft nur einige Wochen oder Monate gedulden können wird:facepalm:)

Schneller als 'ne 2080Ti aber nochmals 1GB weniger Speicher - ich hoffe, die NV-Kundschaft macht diesen Schwachsinn nicht mit...

Keine Sorge, das wird nicht passieren.

Weil es Nvidia Geld kosten würde, diese Karten - die von einem gewissen Teil der Spieler gewünscht wird - nicht zu bringen.

Habe ich bereits zweimal in anderen Threads geschrieben.

Dass die 3080 mit 20GB von den Partnern kommt hat Videocardz ja schon als quasi bestätigt beschrieben.

Bei der 3070 wird das gleiche passieren, da bin ich mir sicher.

Nvidia will Geld verdienen, und das meiste Geld verdienen sie, wenn sie die 3070 mit 16GB so schnell wie möglich bringen.

Ich wünschte ich könnte dir glauben, aber es würde mich nicht überraschen, wenn NV wieder versucht, sein Ding durchzuziehen und am ehesten nur dann reagiert, wenn AMD im Oktober/November konkurrenzfähige Produkte vorzeigen kann:frown:

Guter Punkt, zumal die 3070 nur GDDR6 [b]ohne x[b] haben. Trotzdem Kosten/Nutzen Faktor?

Ich frage mich schon seit Langem, was aus dem 18Gbps GDDR6-Speicher geworden ist, den Samsung doch angeblich schon seit Anfang 2018 in Massenproduktion (!) hat. Auf der Produktseite von Samsung finde ich nichts dazu!

512GB/sek. (16Gbps) sind IMO zu wenig Bandbreite für eine GPU, die annähernd so schnell wie eine 2080Ti sein soll...

R2

crux2005
2020-08-31, 22:44:08
Ich hab' das Gefühl - und ich hoffe, ich werde Recht behalten - dass die 10GB-3080 wie Blei in den Regalen liegen bleiben wird... (sofern sich die NV-Kundschaft nur einige Wochen oder Monate gedulden können wird:facepalm:)

Schneller als 'ne 2080Ti aber nochmals 1GB weniger Speicher - ich hoffe, die NV-Kundschaft macht diesen Schwachsinn nicht mit...

Ich bin gespannt ob die AiBs auch die 8 GB 3070 und 10 GB 3080 in größeren mengen anbieten werden. Wenn der Preis stimmt wird sie sich verkaufen. Wenn nicht werden wir relativ schnell eine Preisanpassung sehen.

Ich fürchte, es wird ganz anders kommen. Viele Leute werden angesichts der RTX 3080 denken: "Geil, 10 ist viel mehr als 8! Dis is Fortschritt. Kauf ich." Und tatsächlich ist das im Hier und Jetzt eine okaye Kapazität. Nicht für Raytracing und die Zukunft, aber für Rasterspiele heute und gestern.

MfG
Raff

Gebe dir recht. So in etwa sieht es der Durchschnittskunde.

Raff
2020-08-31, 22:44:24
Ich fürchte, es wird ganz anders kommen. Viele Leute werden angesichts der RTX 3080 denken: "Geil, 10 ist viel mehr als 8! Dis is Fortschritt. Kauf ich." Und tatsächlich ist das im Hier und Jetzt eine okaye Kapazität. Nicht für Raytracing und die Zukunft, aber für Rasterspiele heute und gestern.

MfG
Raff

y33H@
2020-08-31, 22:44:28
512 GB/s (16 Gbps) sind IMO zu wenig Bandbreite für eine GPU, die annähernd so schnell wie eine RTX 2080 Ti sein soll ...
Bessere Kompression?

Ich fürchte, es wird ganz anders kommen. Viele Leute werden angesichts der RTX 3080 denken: "Geil, 10 ist viel mehr als 8! Dis is Fortschritt. Kauf ich." Und tatsächlich ist das im Hier und Jetzt eine okaye Kapazität. Nicht für Raytracing und die Zukunft, aber für Rasterspiele heute und gestern.Wie viele Leute, die Karte in der Preisregion kaufen, nutzen sie 3-4 Jahre? Ich vermute ja, da wird alle 1-2 Jahre eh gewechselt.

Raff
2020-08-31, 22:47:08
Man kann halt nicht alles komprimieren, manchmal braucht man die gute alte Brute Force. :D Aber sooo schlimm ist das wirklich nicht, nur 512 statt 616 GByte/s zu haben. Das zeigen viele ältere GPUs, etwa GTX 1070 vs. GTX 980 Ti oder RX 480 vs. R9 390. Mit aufgeblasenen Caches kann man ebenfalls Speichertransfers abfedern.

MfG
Raff

Dampf
2020-08-31, 22:48:30
Ich fürchte, es wird ganz anders kommen. Viele Leute werden angesichts der RTX 3080 denken: "Geil, 10 ist viel mehr als 8! Dis is Fortschritt. Kauf ich." Und tatsächlich ist das im Hier und Jetzt eine okaye Kapazität. Nicht für Raytracing und die Zukunft, aber für Rasterspiele heute und gestern.

MfG
Raff

Aber Raff du musst bedenken, durch Sampler Feedback kann der Speicher in Zukunft deutlich besser genutzt werden im Vergleich zur Pascal und RDNA1 Generation!

SKYNET
2020-08-31, 22:49:39
Ich hab' das Gefühl - und ich hoffe, ich werde Recht behalten - dass die 10GB-3080 wie Blei in den Regalen liegen bleiben wird... (sofern sich die NV-Kundschaft nur einige Wochen oder Monate gedulden können wird:facepalm:)

Schneller als 'ne 2080Ti aber nochmals 1GB weniger Speicher - ich hoffe, die NV-Kundschaft macht diesen Schwachsinn nicht mit...

R2


dann schau mal die 2080 an und die 1080Ti... ;D NV fanboys waren noch nie die cleversten... :freak:

Raff
2020-08-31, 22:52:43
Aber Raff du musst bedenken, durch Sampler Feedback kann der Speicher deutlich besser genutzt werden im Vergleich zur Pascal und RDNA1 Generation!

Ich weiß nicht, was du so treibst, aber ich kaufe meine Grafikkarten nicht für die 2-3 perfekt programmierten Spiele – sondern für alles, auch die Grütze. Hat man genug Rechenleistung und vor allem Kapazität, verliert so manches Early-Access-Stutterfest seinen Schrecken. Und man kann ohne Reue mal 8K/16K ausprobieren, obwohl die Framebuffer dann astronomisch werden. Das war zuletzt sehr schwierig bis unmöglich. Schaumer mal, was mit den neuen Kisten wirklich geht. Mit 16 und 20 GiB sowie rund 20 FP32-TFLOPS (mit OC) sieht das nach netten Spielzeugen aus. :)

MfG
Raff

Dampf
2020-08-31, 22:58:15
Ich weiß nicht, was du so treibst, aber ich kaufe meine Grafikkarten nicht für die 2-3 perfekt programmierten Spiele – sondern für alles, auch die Grütze. Hat man genug Rechenleistung und vor allem Kapazität, verliert so manches Early-Access-Stutterfest seinen Schrecken. Und man kann ohne Reue mal 8K/16K ausprobieren, obwohl die Framebuffer dann astronomisch werden. Das war zuletzt sehr schwierig bis unmöglich. Schaumer mal, was mit den neuen Kisten wirklich geht. Mit 16 und 20 GiB sowie rund 20 FP32-TFLOPS (mit OC) sieht das nach netten Spielzeugen aus. :)

MfG
Raff

Das mit der Grütze stimmt natürlich. Glaube aber durch die uniforme DX12U API werden sich diese in Grenzen halten. Die Spiele werden ja alle für die Xbox Series X kommen, Entwickler müssen es dann nur noch auf den PC rüber portieren, was mit DX12U deutlich einfacher gehen soll! MS wird da schon drauf achten, dass die Xbox Series X (und damit auch DX12U PCs) richtig genutzt werden. :)

Aber ja für 8K und 16K ist mehr VRAM natürlich super, besonders wenns dann um Super-Resolution und DLSS 2X geht. Es gibt ja Gerüchte, dass die Karten auch mit 20 GB erscheinen werden! Somit ist jeder bedient!

Ravenhearth
2020-08-31, 23:00:29
Nur weil irgendein Random behauptet, jemand anderes hätte den Screenshot gemacht? Darauf bezog sich Coretek nämlich.

Die Kompressionsartefakte sind JPEG bedingt. Wenn du offizielle Nvidia Slides anschaust, siehst du das gleiche Problem.

Das mit dem grünen Balken kann mal passieren, auch bei Nvidia. Sind auch nur Menschen. Ich wäre vorsichtig, das jetzt schon als Fake zu betiteln.

Seien wir doch mal realistisch, die Daten decken sich mit fast allem was bekannt ist. Würde das jemand Faken, dann würde er doch eher sowas abstruses wie 4x nehmen.
Es sei denn, er möchte, dass die Slides ernst genommen werden. Scheint ja zu funktionieren ;)

prinz_valium_2
2020-08-31, 23:01:25
Warum sollte die 3080 in den Regalen liegen bleiben?

Die 3090 kostet wahrscheinlich das doppelte und die 3070 ist das wirkliche Problem mit noch immer 8GB Speicher und deutlich abstand zur 80er diesmal bei 100 oder 200€ weniger.


Die 3080 wird die beste Nvidia Karte von den dreien. Also warum sollte die in den Regalen liegen bleiben? Dann werden wohl eher gar keine verkauft.

Dampf
2020-08-31, 23:03:11
Es sei denn, er möchte, dass die Slides ernst genommen werden. Scheint ja zu funktionieren ;)
Gut, da hast du recht!

Naja, wir werden es morgen sehen! Ich erwarte eine Show der Sonderklasse!

Morgen um 18 Uhr geht's los! Steigt alle in den Hype Train!

Daredevil
2020-08-31, 23:03:46
Warum sollte die 3080 in den Regalen liegen bleiben?

Weil das Speicherkrüppel 2.0 ist.
"4K Leistung" und "WQHD Speicher" auf einem Board sind halt nicht ganz ausgewogen.
Wenn man allerdings WQHD@144-240fps spielt, go for it.