PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 [37] 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

basix
2020-09-01, 21:56:53
Viel besser wäre eine Technologie die alle IHVs (Nvidia, AMD, Intel) verwenden könnten. Das würde PC-Gaming wesentlich besser voranbringen als der aktuell Zustand.

Sowas wird vermutlich kommen und wird sich unter dem DirectML Hut eingliedern.

dargo
2020-09-01, 21:57:41
Hoffe der Kühler taugt was die 3070 FE ist nur 24CM lang.
Was willst du mit der FE und 8GB Vram? :freak: Warte einfach auf die Customs mit besseren Kühlern und 16GB.

Sowas wird vermutlich kommen und wird sich unter dem DirectML Hut eingliedern.
Na hoffentlich. Ich würde das nicht mal auf PC-Gaming beschränken. Die Konsolen könnten genauso gut von diesem Netzwerk profitieren. Und wenn das alle können werden sicherlich es auch alle Games unterstützen.

Hauwech
2020-09-01, 21:57:50
Die entscheidende Frage ist dann: kann eine Ampere-Recheneinheit auch INT32-Operationen ausführen? Ist ja für Async-Compute erforderlich - bei Turing war es FP32- und INT32-Operationen gleichzeitig durch separate FP- und INT-Recheneinheiten; bei Ampere FP32- oder INT32-Operationen, dafür aber doppelte Anzahl der Recheneinheiten?

Wenn das wirklich so ist, dann finde ich das von Nvidia clever gemacht...

R2

Da es im Grunde ja nur eine oberflächliche Präsentation gewesen ist, dürfte so ein technisches Detail ob INT Einheiten vorhanden sind oder nicht, ganz bewusst weggelassen worden sein. Was soll ein "normaler Gamer" mit so einer Information anfangen? Den interessieren nur Balken und die hat nV geliefert. Das Video von DF zeigt auch keine tiefergehenden technischen Details sondern nur Prozentwerte - mit und ohne RT/DLSS.

Ex3cut3r
2020-09-01, 21:58:57
Was willst du mit der FE und 8GB Vram? :freak: Warte einfach auf die Customs mit besseren Kühlern und 16GB.

Habe noch nie so schnell mit JA! geantwortet. :biggrin:

Außerdem ist die FE bestimmt wieder verklebt, wie man da die Paste erneuern sollen, ohne das Ding in 1000 Teile zu zerstören, ist mir ein Rätsel.

TheAntitheist
2020-09-01, 21:59:49
Lies dein Text nochmal genau durch :rolleyes: Das ist doch eine Verdopplung.
lies doch mal den text genau, man verdoppelt die nutzung, aber nicht die Anzahl..

Spasstiger
2020-09-01, 22:00:55
Die 3080 FE sieht interessant aus für den Preis. :cool:

Badesalz
2020-09-01, 22:02:09
Was willst du mit der FE und 8GB Vram? :freak: Warte einfach auf die Customs mit besseren Kühlern und 16GB.Customs, mit BESSEREN Kühlern können vielleicht noch Monate dauern ;)

dargo
2020-09-01, 22:02:58
Customs, mit BESSEREN Kühlern können vielleiocht noch Monate dauern ;)
Ja und? Ist das Höschen schon zu feucht?

Linmoum
2020-09-01, 22:03:19
Die 3080 könnte mit 20GiB sexy sein. Da geht Nvidia mit den Preisen wieder nach unten und trotzdem schaffen sie es, die Produkte trotzdem in irgendeiner Form unattraktiv zu gestalten. 3080 mit wahrscheinlich +-30% zur 2080Ti aber (erstmal) weniger Speicher. Come on.

Ex3cut3r
2020-09-01, 22:03:28
Customs, mit BESSEREN Kühlern können vielleiocht noch Monate dauern ;)

Nö ebend nicht. In einer Folie von Nvidia stand FE und AIBs 24 September oder so.

dargo
2020-09-01, 22:04:53
Nö ebend nicht. In einer Folie von Nvidia stand FE und AIBs 24 September oder so.
Aber afaik nur erstmal mit 8/10GB. Spätestens wenn RDNA 2 vorgestellt wird rechne ich mit dem doppelten Speicher bei 3070/3080.

prinz_valium_2
2020-09-01, 22:05:25
Die Lücke zwischen der 80 und der 90 ist einfach zu groß, da gibt es definitiv eine 20GB Version.

Zwischen 2080Ti und Titan RTX lagen nur 1GB weniger

hq-hq
2020-09-01, 22:05:40
Was ist es denn im Endeffekt: Krass ausgedrückt ein Upsampler (vielleicht sogar dynamisch), welcher, ganz einfach ausgedrückt, durch TCc wieder beschleunigt und hochgerechnet werden. Die relative Auflösung bleibt trotzdem die gleiche

mir scheint es kann bessere Ergebnisse liefern als viele AA Modi bei deutlich höheren FPS

Allerdings, nach knapp 1,5 Jahren ... hab ich DLSS nie verwendet.

Sunrise
2020-09-01, 22:06:23
Die 3080 könnte mit 20GiB sexy sein. Da geht Nvidia mit den Preisen wieder nach unten und trotzdem schaffen sie es, die Produkte trotzdem in irgendeiner Form unattraktiv zu gestalten. 3080 mit wahrscheinlich +-30% zur 2080Ti aber (erstmal) weniger Speicher. Come on.
Sie dürfen mit der 20GB-Version nur nicht zu weit nach unten. Bei dem relativ moderaten Preis wollen sie ja eine hohe Marge erzielen. Ist eigentlich relativ einfach, wenn Big Navi draußen ist, und die 3080 erreicht wird, kommt die 20GB für den gleichen Preis und die 3080 10GB wird evtl. $100 billiger. Das ist aber aktuell noch zu früh für solche Schätzungen.

Dennoch genial, dass AMD endlich wieder mitmischt, wir brauchen jetzt endlich mal paar Teaser...

Digidi
2020-09-01, 22:06:30
lies doch mal den text genau, man verdoppelt die nutzung, aber nicht die Anzahl..

Wie soll man denn 2 Ausgaben Pro clock machen wenn man nicht zwei Einheiten hat ?...

Ex3cut3r
2020-09-01, 22:07:14
Aber afaik nur erstmal mit 8/10GB.
Kann sein, aber man weiß es nicht. Abwarten. :wink:

Ich muss jetzt zusehen, dass ich meine 2080 noch für 400€ loswerde. :biggrin:

HPVD
2020-09-01, 22:09:27
Wird eine NVME SSD für Spiele nun Pflicht?

New RTX IO technology accelerates the storage sub-system for gaming. This works in tandem with the new Microsoft DirectStorage technology, which is the Windows API version of the Xbox Velocity Architecture, that's able to directly pull resources from disk into the GPU. It requires for game engines to support the technology. The tech promises a 100x throughput increase, and significant reductions in CPU utilization. It's timely as PCIe gen 4 SSDs are on the anvil.

Hintergrund Infos zu RTX IO bzw Microsoft DirectStorage:
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

robbitop
2020-09-01, 22:10:35
wie es pixeljetstream schon sagte ist die cuda core zahl praktisch nur reines marketing. In der Präsentation wurde gesagt das pro takt 2 Berechnungen durchgeführt werden. Das spricht also nicht für eine verdoppelte cuda core Zahl.

lies doch mal den text genau, man verdoppelt die nutzung, aber nicht die Anzahl..


The Turing SM is partitioned into four processing blocks, each with 16 FP32 Cores, 16 INT32
Cores, two Tensor Cores, one warp scheduler, and one dispatch unit
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Ich vermute, dass sie bei Ampere weiterhin 4x processing blocks mit nun 32x FP32 Cores (wie auch bei Pascal) aber ohne INT32 Cores verbauen. Die Granularität steigt damit wieder an. Pro FP Core werden entsprechend für 32 Werte die gleiche Operation ausgeführt statt wie vorher 16. Finden sich für die gleiche Operation weniger Wert im jeweiligen Warp, gibt es eben Verschnitt.

Granularität ist eben ein Trade-Off. Sie erhöht die Kosten in Bezug auf Transistoren aber eben auch die effektive Ausnutzung der Rohleistung.

Es ist eigentlich interessant wie GPUs über die Jahre immer wieder einem Paradigmenwechsel unterliegen. Mal wird Granularität für viele viele Transistoren verbessert und mal wird sie wieder geopfert und im Gegenzug aber viel mehr Rohleistung geliefert. Und jedes Mal wird das neue Paradigma als Vorteil tituliert. Allerdings ist Software ja nunmal nicht starr und man muss die HW den Gegebenheiten anpassen.

Ich finde das alles sehr spannend! :)

Lowkey
2020-09-01, 22:11:37
Hintergrund Infos zu RTX IO bzw Microsoft DirectStorage:
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

Mal weiterbilden...

Hoffe der Kühler taugt was die 3070 FE ist nur 24CM lang.

Sowas wie die MSI 2070 Ventus mit 0815 Kühler kann die 200w halten, wenn auch laut. Da kann ich dir vorstellen, dass der FE Kühler durchaus eine Welt besser ist und ausreicht.

ChaosTM
2020-09-01, 22:12:36
Erlaubt direktes laden der Texturen der GPU in den VRAM - ohne Umweg über die CPU und RAM.
Bestes neues Feature .. wenn es hält was es verspricht

prinz_valium_2
2020-09-01, 22:14:23
Es wird Ende 2021 vllt die 16 und 20GB Versionen geben.
10GB GDDR6X extra ist einfach zu teuer.
Das kostet ja im Einkauf schon fast $100

Ravenhearth
2020-09-01, 22:14:35
bei DF hat die 3080 etwa 180% der 2080 und die 2080 ist etwa 25% vor der 5700XT.
25% sind es eher bei der 2080 Super, nicht bei der normalen.

genau das ist mein punkt: nichtsaussagendes marketingblahblah und der eine wert der da steht (polaris) hat mit der realität auch wenig zu tun. nimmt man die achse als linear an ist vega bei ~4x und navi bei ~5,3x. da stimmt einfach überhaupt nichts.
Nur weil es einmal nicht gestimmt hat, heißt das nicht, dass es noch nie gestimmt hat. Die Folie ist auch einige Jahre vor Navi erschienen. Die +50% die man später für RDNA1 vermeldet hat, waren ziemlich akkurat.

robbitop
2020-09-01, 22:15:20
Da es im Grunde ja nur eine oberflächliche Präsentation gewesen ist, dürfte so ein technisches Detail ob INT Einheiten vorhanden sind oder nicht, ganz bewusst weggelassen worden sein. Was soll ein "normaler Gamer" mit so einer Information anfangen? Den interessieren nur Balken und die hat nV geliefert. Das Video von DF zeigt auch keine tiefergehenden technischen Details sondern nur Prozentwerte - mit und ohne RT/DLSS.
Ich tippe darauf, dass man die INT32 ALUs bei GA102/104/106/107 rausgeschmissen hat um die FPU32 ALUs breiter zu machen. Die FPUs können ja auch INT32 (und INT16 und INT8) rechnen.
Ist für 3D Grafik der bessere Deal.
GA100 scheint ja analog zu Turing 64x FPUs und 64x ALUs pro SM zu haben.

Schon interessant wie unterschiedlich die SMs zwischen der Gaming und der Compute uArch sind.
Sah man das erste mal ja schon bei GP100. Der hatte ja schon 64x FPUs pro SM als GP102/104 usw noch 128 FPUs pro SM hatten (also bessere Granularität).

Ex3cut3r
2020-09-01, 22:15:44
2080S vs 2080 sind aber bei PCGH nur 5-7% die kann man sich schenken.

SamLombardo
2020-09-01, 22:16:21
Es wird Ende 2021 vllt die 16 und 20GB Versionen geben.
10GB GDDR6X extra ist einfach zu teuer.
Das kostet ja im Einkauf schon fast $100
Na und, die können sie ja 1:1 auf den Preis draufschlagen. 16GB 3070 für 599 und 20GB 3080 für 799 würden ihnen trotzdem aus der Hand gerissen.

Ex3cut3r
2020-09-01, 22:18:16
Er meint wohl ende 2020 nicht ende 2021? Die 100€ mehr pro Speicherverdopplung nimmt jeder Gamer gerne in Kauf....ich zumindest, bin sofort dabei.

Raff
2020-09-01, 22:18:33
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Ich vermute, dass sie bei Ampere weiterhin 4x processing blocks mit nun 32x FP32 Cores (wie auch bei Pascal) aber ohne INT32 Cores verbauen. Die Granularität steigt damit wieder an. Pro FP Core werden entsprechend für 32 Werte die gleiche Operation ausgeführt statt wie vorher 16. Finden sich für die gleiche Operation weniger Wert im jeweiligen Warp, gibt es eben Verschnitt.

Granularität ist eben ein Trade-Off. Sie erhöht die Kosten in Bezug auf Transistoren aber eben auch die effektive Ausnutzung der Rohleistung.

Es ist eigentlich interessant wie GPUs über die Jahre immer wieder einem Paradigmenwechsel unterliegen. Mal wird Granularität für viele viele Transistoren verbessert und mal wird sie wieder geopfert und im Gegenzug aber viel mehr Rohleistung geliefert. Und jedes Mal wird das neue Paradigma als Vorteil tituliert. Allerdings ist Software ja nunmal nicht starr und man muss die HW den Gegebenheiten anpassen.

Ich finde das alles sehr spannend! :)

Dito. Und das ist IMHO auch die beste der möglichen Erklärungen. Die INT32-ALUs in Turing waren ein weiterer Trade-off abseits der Granularität: Aus Platzgründen wurden erst mal nur kompakte Integer-Schergen neben die FP-Chefs gepackt. Nun, mit feinerer Fertigung, denkt man das zuende. :)

MfG
Raff

Linmoum
2020-09-01, 22:19:32
Warte schon auf die ganzen Ottos, die auf UHD aufspringen und sich dafür die 3070 kaufen. Nur um dann die Foren mit "warum ruckelt das denn immer so hab doch eine schnelle GPU" vollzuspamen. Bei der 3090 wahrscheinlich ähnliches, nur da raucht dann der PC immer ab obwohl ein 1500W RGB-Thermaltake im Rechner steckt.

MasterElwood
2020-09-01, 22:21:20
8kDLSS kommt nicht von 1080p, die Qualitätsmodi von 4k DLSS kommen von 1440p.

Dachte Jacke hat gesagt 4K wird zu 8K DLSS...

Lowkey
2020-09-01, 22:21:43
"Es macht irgendwas" "Es will NVME". Sind die ganzen 2,5" SSDs dann nun EOL?

dargo
2020-09-01, 22:21:50
Es wird Ende 2021 vllt die 16 und 20GB Versionen geben.
10GB GDDR6X extra ist einfach zu teuer.
Das kostet ja im Einkauf schon fast $100
Du glaubst doch nicht ernsthaft wenn BigNavi mit 16GB im November 2020 kommt, dass Nvidia GA104 bei 8GB und GA102 bei 10GB belässt oder? :freak:

"Es macht irgendwas" "Es will NVME". Sind die ganzen 2,5" SSDs dann nun EOL?
Stellst du eigentlich immer so merkwürdige Fragen? Sind alle Rechner auf der Welt reine Gamingrechner?

Sunrise
2020-09-01, 22:22:44
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Ich vermute, dass sie bei Ampere weiterhin 4x processing blocks mit nun 32x FP32 Cores (wie auch bei Pascal) aber ohne INT32 Cores verbauen. Die Granularität steigt damit wieder an. Pro FP Core werden entsprechend für 32 Werte die gleiche Operation ausgeführt statt wie vorher 16. Finden sich für die gleiche Operation weniger Wert im jeweiligen Warp, gibt es eben Verschnitt.

Granularität ist eben ein Trade-Off. Sie erhöht die Kosten in Bezug auf Transistoren aber eben auch die effektive Ausnutzung der Rohleistung.

Es ist eigentlich interessant wie GPUs über die Jahre immer wieder einem Paradigmenwechsel unterliegen. Mal wird Granularität für viele viele Transistoren verbessert und mal wird sie wieder geopfert und im Gegenzug aber viel mehr Rohleistung geliefert. Und jedes Mal wird das neue Paradigma als Vorteil tituliert. Allerdings ist Software ja nunmal nicht starr und man muss die HW den Gegebenheiten anpassen.

Ich finde das alles sehr spannend! :)
Ergibt Sinn, scheint als waren die INT32 Cores eine Zwischenstation, weil die relativ billig waren, TU102 war einfach schon verdammt riesig, da war es wohl vernachlässigbar.

Zumindest ist Ampere jetzt das, was man bei Turing eigentlich erwartet hatte...

pixeljetstream
2020-09-01, 22:24:28
lies doch mal den text genau, man verdoppelt die nutzung, aber nicht die Anzahl..
Was CUDA Cores sind, ist IMO quasi Marketing Begriff. Aus Hardware Sicht ist eher interessant wieviel ops per clock, wieviel threads/warps aktiv per SM etc. Aber wie Digidi richtig schreibt, für doppelte Ausführung pro Takt, braucht es auch doppelte Anzahl an Units die FP32 leisten. Darum verdoppelt sich auch ein Block in der stilistisch angehauchten SM ganz links in dem 1st vs 2nd Generation RTX Bild. Aber geht euch nicht an die Gurgel, mehr Details kommen ja mit der Presse dann eh.

MasterElwood
2020-09-01, 22:24:56
Bitte höre mir mit DLSS auf. Da ist ein Upsampler für den NV investiert in HWC. Trotzdem ist und bleibt es ein Upsampler mit Parametern, welche man nur sehr bedingt beeinflussen kann.

Alter geh in Bild Forum trollen. Dort glaubt dir vielleicht einer deinen Blödsinn. Du blamierst dich hier nur mit deinem FachUnwissen :facepalm:

Raff
2020-09-01, 22:25:23
Was CUDA Cores sind, ist IMO quasi Marketing Begriff. Aber wie Digidi richtig schreibt, für doppelte Ausführung pro Takt, braucht es auch doppelte Anzahl an Units die das leisten. Darum verdoppelt sich auch ein Block in der stilistisch angehauchten SM ganz links in dem 1st vs 2nd Generation RTX Bild. Aber geht euch nicht an die Gurgel, mehr Details kommen ja mit der Presse dann eh.

Haut mal lieber schnell ein öffentliches Weißpapier raus, dann müssen wir nicht orakeln. :biggrin:

MfG
Raff

Armaq
2020-09-01, 22:27:13
Warte schon auf die ganzen Ottos, die auf UHD aufspringen und sich dafür die 3070 kaufen. Nur um dann die Foren mit "warum ruckelt das denn immer so hab doch eine schnelle GPU" vollzuspamen. Bei der 3090 wahrscheinlich ähnliches, nur da raucht dann der PC immer ab obwohl ein 1500W RGB-Thermaltake im Rechner steckt.
Das kann tatsächlich passieren.

Die Testberichte werden interessant und Cyberpunk wird noch viel interessanter. Man investiert offenbar massiv Ressourcen, um ein absoluten Vorzeigetitel zu haben.

AMD hat gefühlt ihr Programm für Spieleentwickler eingestellt, aber die Konsolendominanz reguliert das vielleicht.

In jedem Fall gibt es jetzt ein bessere P/L Verhältnis für Konsumenten und Features wie das Streaming via SSD kommen normiert auf die PC-Plattform, was auch allen hilft bei der Verbreitung.

Mich würde interessieren, wie man das in ein größeres Bild einordnet. DLSS ist augenscheinlich ein besseres Zugpferd als Raytracing, einfach weil nvidia das offenbar alleine umsetzen kann und nicht den Entwicklern so viele Ressourcen stellen muss.

Linmoum
2020-09-01, 22:28:05
Haut mal lieber schnell ein öffentliches Weißpapier raus, dann müssen wir nicht orakeln. :biggrin:

MfG
RaffEr sagt doch, mehr Details mit der Presse. Nun halt also gerade du mal die Füße still, der alles vor uns Normalos hier wissen wird. :P

Raff
2020-09-01, 22:30:15
Er sagt doch, mehr Details mit der Presse. Nun halt also gerade du mal die Füße still, der alles vor uns Normalos hier wissen wird. :P

Klingt vielleicht komisch, aber: Ich würde das gerne alles deutlich vorher detailliert lesen, denn eine übliche Testzeit reicht hinten und vorne nicht, um alles zu beleuchten. Selbst mit massivsten Überstunden. Tatsächlich ist ein moderner Grafikkartentest mit hohem Anspruch absolut nichts, das man in einer normalen Bürowoche absitzen/durchziehen kann. Da geht's ja nicht nur um (aufwendige) Standardtests, sondern auch um (teilweise noch aufwendigere) Bonustests, Architekturkenntnis ... und dann muss der ganze Krempel auch noch fotografiert und beschrieben werden. Infos weit vorher, Hardware später: Das wäre aus meiner Sicht ideal, um zielgerichtet und noch geiler zu testen. Sicher, einfach "Awesome, just buy it!" in eine Kamera zu kreischen und dazu 3DMark-Flybys zu zeigen geht in der Zeit, aber wo simmer denn hier ...

MfG
Raff

Neurosphere
2020-09-01, 22:31:00
Haut mal lieber schnell ein öffentliches Weißpapier raus, dann müssen wir nicht orakeln. :biggrin:

MfG
Raff


Habt ihr nun eigentlich schon Karten oder nicht? Es sind ja nun doch schon welche im Umlauf.

Ex3cut3r
2020-09-01, 22:32:35
Habt ihr nun eigentlich schon Karten oder nicht? Es sind ja nun doch schon welche im Umlauf.

Denke schon, aber er darf so und so nix sagen. :biggrin:

pixeljetstream
2020-09-01, 22:32:54
Er sagt doch, mehr Details mit der Presse. Nun halt also gerade du mal die Füße still, der alles vor uns Normalos hier wissen wird. :P
Das war von mir nicht gut formuliert mit der Presse, also irgendwann gibt es das whitepaper öffentlich.

Neurosphere
2020-09-01, 22:33:28
Denke schon, aber er darf so und so nix sagen. :biggrin:

Wenn dem so ist, ab WANN darf er denn?:biggrin:

Ex3cut3r
2020-09-01, 22:33:57
Wenn dem so ist, ab WANN darf er denn?:biggrin:

Wenn Nvidia sagt. Jetzt?! :biggrin:

NDA sagt dir was?

Linmoum
2020-09-01, 22:34:21
Klingt vielleicht komisch, aber: Ich würde das gerne alles deutlich vorher detailliert lesen, denn eine übliche Testzeit reicht hinten und vorne nicht, um alles zu beleuchten. Selbst mit massivsten Überstunden. Da geht's ja nicht nur um (aufwendige) Standardtests, sondern auch um (teilweise noch aufwendigere) Bonustests, Architekturkenntnis ... und dann muss der ganze Krempel auch noch fotografiert und beschrieben werden. Infos weit vorher, Hardware später: Das wäre aus meiner Sicht ideal, um zielgerichtet und noch geiler zu testen. Sicher, einfach "Awesome, just buy it!" in eine Kamera zu kreischen und dazu 3DMark-Flybys zu zeigen geht in der Zeit, aber wo simmer denn hier ...

MfG
RaffWobei ich dir versichern kann, dass wahrscheinlich 95% aller Leser direkt zu den Balken springen und den Rest nicht einmal mit der Kneifzange anfassen. :wink: Das ist ja schon ein länger anhaltender Trend. Nicht nur gefühlt.

Lowkey
2020-09-01, 22:34:50
Stellst du eigentlich immer so merkwürdige Fragen? Sind alle Rechner auf der Welt reine Gamingrechner?

SSD als Datenspeicher ist immer noch schlechter als eine HDD und viel kleiner. Wenn die neuen Konsolen NVME in Form der PCI-E 4.0 SSDs supporten, aber nun auch noch Microsoft mit DX12, dann dürfte doch wohl auf der Hand liegen, dass sich bei Neukauf 2,5" SSDs trotz des günstigen Preises nicht mehr in jedem Fall lohnen? Ich dachte auch schon daran die 2,5" für 115 Euro mit 2TB zu nehmen, aber auch hier hat die Sache den Haken, dass nur eine von drei Versionen von Sandisk etwas taugt. Es ging wohl derzeit nur das Gerücht von einem Gamer/Streamer, dass Escape from Tarkov mit einer aktuellen NVME deutlich schneller lädt und spielentscheidend sei. Wie dem auch sei: es macht weniger Sinn seine neue 3090 mit einer AHCI SSD zu kombinieren, wenn die 3000er Karten doch nun NVME supporten.

Neurosphere
2020-09-01, 22:35:31
Wenn Nvidia sagt. Jetzt?! :biggrin:

NDA sagt dir was?


Ja, weiß man wann es endet?

Ex3cut3r
2020-09-01, 22:36:08
SSD als Datenspeicher ist immer noch schlechter als eine HDD und viel kleiner. Wenn die neuen Konsolen NVME in Form der PCI-E 4.0 SSDs supporten, aber nun auch noch Microsoft mit DX12, dann dürfte doch wohl auf der Hand liegen, dass sich bei Neukauf 2,5" SSDs trotz des günstigen Preises nicht mehr in jedem Fall lohnen? Ich dachte auch schon daran die 2,5" für 115 Euro mit 2TB zu nehmen, aber auch hier hat die Sache den Haken, dass nur eine von drei Versionen von Sandisk etwas taugt. Es ging wohl derzeit nur das Gerücht von einem Gamer/Streamer, dass Escape from Tarkov mit einer aktuellen NVME deutlich schneller lädt und spielentscheidend sei. Wie dem auch sei: es macht weniger Sinn seine neue 3090 mit einer AHCI SSD zu kombinieren, wenn die 3000er Karten doch nun NVME supporten.

Also eine 512 GB NVME von Samson ^^ (PCIe 3.0 x4) sollte es ende 2020 dann doch schon sein. :wink:

Ja, weiß man wann es endet?

Leider nein. :/

Linmoum
2020-09-01, 22:36:17
Gibt's eigentlich einen Grund für kein DP2.0? Das ist ja irgendwie doch etwas meh.

Odal
2020-09-01, 22:36:41
Natürlich nicht. 3080 ist >2x schneller als 5700XT und hat dabei 69% mehr Bandbreite. Von Dingen wie Raytracing sprechen wir hier auch noch nicht.

Die 3080 nimmt komplett den Wind aus AMDs Segeln.

Der Chip der 5700XT ist ja auch nichtmal halb so groß...Speicherinterface deutlich schmaler, langsamerer ram...gutes Jahr alt...zielte nicht auf 700-800€ Segment... soll ich weiter machen?

SKYNET
2020-09-01, 22:36:41
Wobei ich dir versichern kann, dass wahrscheinlich 95% aller Leser direkt zu den Balken springen und den Rest nicht einmal mit der Kneifzange anfassen. :wink: Das ist ja schon ein länger anhaltender Trend. Nicht nur gefühlt.


ich habs noch nie anders gemacht... X-D

was interessiert mich wieviel shader oder flops ne karte hat? mich interessiert nur wieviele frames sie auf den monitor zaubert, alles andere ist -für mich- krams den sich die redaktionen schenken können.

ChaosTM
2020-09-01, 22:36:53
Wovon die Karte lesen muss ist ihr egal. Selbst bei Sata SSDs sollte das stark spürbar sein.

HOT
2020-09-01, 22:38:23
Apropos SSD: Für Spiele muss das auch in Zukunft keine tolle SSD sein. ne Intel 660p reicht dicke, auch für künftige Titel. Entscheidender ist glaub ich wirklich, dass sie NVME ist, die Datenrate wird da zweitrangig sein.

Digidi
2020-09-01, 22:38:34
@pixeljetstream Gibt es denn schon Infos zu Rops Rasterizer etc...? Oder müssen wir da auch auf white paper warten?

Hauwech
2020-09-01, 22:38:55
Da nehmen sich die Fanboys aus beiden Lagern nichts. Ich erinnere nur gerne an die Sprüche vor wenigen Jahren "Nvidia braucht kein DX12". Gegen RT hat sicherlich niemand was. Es sollte halt nur nicht die Performance zu stark runter drücken, sodass bsw. aus einer sorglos 1440p Karte plötzlich eine solala 1080p Karte wird. DLSS wirkt da schon nicht schlecht dagegen. Aber DLSS ist aktuell nichts weiter als ein Flickwerk. Viele Games haben es nicht oder es wird später nachgepatcht. Viel besser wäre eine Technologie die alle IHVs (Nvidia, AMD, Intel) verwenden könnten. Das würde PC-Gaming wesentlich besser voranbringen als der aktuelle Zustand.

Na wenn ich hier so einige Posts lese, ist RT ja der letzte Dreck den niemand braucht. Wer RT ohne Leistungseinbußen erwartet hat, der glaubt auch an den Weihnachtsmann und das gleiche wird bei AMD passieren.

Vor wenigen Jahren war noch AC bei AMD der heisseste Scheiß und mittlerweile, seitdem es nV auch performant anbietet, kräht da plötzlich kein Hahn mehr danach. Von primitive shaders die durch den Wundertreiber :wink: doch noch funktionieren würden, war gar nichts zu sehen.

Das "Flickwerk" in Form von 2.0 ist jetzt genau wie alt? Ein halbes Jahr. Wie soll denn da großartig ein flächendeckender Einsatz allein schon zeitlich passieren? Wenn nV die Arbeit für umsonst machen würde, ja dann vielleicht aber so kostet es halt und Kosten will niemand so wirklich.

Soweit ich es verstanden habe, eignet sich auch nicht jede Engine bzw jedes Spiel für DLSS zum einfachen nachpatchen. Korrigiert mich falls ich falsch liege. Ich bin zwar kein Prophet aber ich kann mir vorstellen das nV mit der gesteigerten TC Leistung probieren wird, die noch bestehenden Artefakte/Fehler beim Einsatz von DLSS zu minimieren und die auch weniger geeigneten Spiele irgendwie zu beglücken.

Selbst DX12 hat nach 5 Jahren noch längst nicht überall Einzug gehalten und war am Anfang auch kein 100 prozentiger Garant für mehr fps. Das es da einen Lernprozess brauchte, war doch klar. Für ein "DLSS Equivalent für alle" wird wahrscheinlich MS selbst schon durch die XBox sorgen. Ob es dann auf jeder Plattform entsprechend performant läuft, wird sich zeigen müssen aber ich bezweifel es. Und selbst dann ist es nach einigen hier ja sowieso nur upscaling und nicht nativ und somit Schrott.

Geldmann3
2020-09-01, 22:40:01
Nachdem ich viele Samples aus den Performance-Ergebnissen dieses Videos entnommen habe, komme ich auf etwa +42% AVG Performance auf die 2080 Ti für die RTX 3080. Allen Informationen nach, die wir bisher über die 3090 haben, sollte diese dann etwa 59% schneller sein, als eine 2080 Ti.

cWD01yUQdVA

dargo
2020-09-01, 22:41:05
Die Testberichte werden interessant und Cyberpunk wird noch viel interessanter. Man investiert offenbar massiv Ressourcen, um ein absoluten Vorzeigetitel zu haben.

Ich frage mich immer wieder was die Leute bei Cyberpunk sehen? Für mich sieht die Grafik nach Mittelmaß aus. Völlig overhyped das Spiel. Zumindest rein auf die Grafik reduziert. Kann ja sein, dass Gameplay trotzdem überzeugt.

Neurosphere
2020-09-01, 22:41:46
Leider nein. :/

Schade.


Ich warte bei der ganzen Sache erst auf reale Tests bevor mich Ampere überzeugt. Ich weiß nicht warum, irgendwie hat die ganze Präsi nen merkwürdigen Beigeschmack. Den Hypetrain anhand von Marketingfolien kann ich nicht verstehen.

Die Preise an sich sind gut, die 1500$ für die 3090 auch nicht zu streng überzogen weil man sie auch wirklich für den Preis kaufen kann.

Da ich eh ne neue Karte brauche warte ich ab was AMD liefert und dann wirds entweder 3090 oder BN.

Raff
2020-09-01, 22:41:54
Wobei ich dir versichern kann, dass wahrscheinlich 95% aller Leser direkt zu den Balken springen und den Rest nicht einmal mit der Kneifzange anfassen. :wink: Das ist ja schon ein länger anhaltender Trend. Nicht nur gefühlt.

Ein vernünftiger Tester schaut erst mal, was er da vor sich hat, um Eigenheiten erklären oder gezielt aufspüren zu können. Insofern ist etwas Vorbildung wichtig. Die Alternative ist besagte Video Awesomization. Wenn ich mal den Arbeitsauftrag bekomme, alles dafür wegzulassen, kann sich mein Nachfolger damit rumschlagen.

MfG
Raff

Ravenhearth
2020-09-01, 22:43:28
Nachdem ich viele Samples aus den Performance-Ergebnissen dieses Videos entnommen habe, komme ich auf etwa +42% AVG Performance auf die 2080 Ti für die RTX 3080. Allen Informationen nach, die wir bisher über die 3090 haben, sollte diese dann etwa 59% schneller sein, als eine 2080 Ti.
Nicht 70% für die 3090? Die hat 20% mehr Rohleistung, Bandbreite usw. als die 3080

Ex3cut3r
2020-09-01, 22:43:53
Apropos SSD: Für Spiele muss das auch in Zukunft keine tolle SSD sein. ne Intel 660p reicht dicke, auch für künftige Titel. Entscheidender ist glaub ich wirklich, dass sie NVME ist, die Datenrate wird da zweitrangig sein.

Ne 660p suckt umso mehr, je voller sie wird. Beim 512GB Modell hast du schon die hälfte an Write Speed eingesteckt wenn Sie zur Hälfte belegt ist. Kann in Müll sowas. Das ist eine SATA SSD wie die EVO 860 konstanter.

pixeljetstream
2020-09-01, 22:44:05
@pixeljetstream Gibt es denn schon Infos zu Rops Rasterizer etc...? Oder müssen wir da auch auf white paper warten?
Hast du nicht schon gerade in den pixelbrei Chip gezoomt? Rest alles mit paper.

@Raff ja ist sicher maximal Stress der Spaß, aber immerhin nicht zeitgleich mit der Konkurrenz ;)

HOT
2020-09-01, 22:46:09
Ne 660p suckt umso mehr, je voller sie wird. Beim 512GB Modell hast du schon die hälfte an Write Speed eingesteckt wenn Sie zur Hälfte belegt ist. Kann in Müll sowas. Das ist eine SATA SSD wie die EVO 860 konstanter.
Mit 512 würd ich mich auch nie abgeben ;).
Es ist aber auch egal, als SpieleSSD reicht das alle mal, auch in Zukunft.

Sunrise
2020-09-01, 22:46:28
Das kann tatsächlich passieren.

Die Testberichte werden interessant und Cyberpunk wird noch viel interessanter. Man investiert offenbar massiv Ressourcen, um ein absoluten Vorzeigetitel zu haben.

AMD hat gefühlt ihr Programm für Spieleentwickler eingestellt, aber die Konsolendominanz reguliert das vielleicht.

In jedem Fall gibt es jetzt ein bessere P/L Verhältnis für Konsumenten und Features wie das Streaming via SSD kommen normiert auf die PC-Plattform, was auch allen hilft bei der Verbreitung.

Mich würde interessieren, wie man das in ein größeres Bild einordnet. DLSS ist augenscheinlich ein besseres Zugpferd als Raytracing, einfach weil nvidia das offenbar alleine umsetzen kann und nicht den Entwicklern so viele Ressourcen stellen muss.
NV wird wohl umso stärker poltern müssen, damit man exklusive Features implementiert. Auf der anderen Seite haben sie aber auch das Kapital dazu, das sind ja Ausgaben die sich wahrscheinlich nichtmal merken...

DLSS ist ja eigentlich nur eine Implementierung von potentiell sehr mächtigen Möglichkeiten. NV hat aber nicht ohne Grund DLSS “vereinfacht”, eben damit die Voraussetzungen geringer werden.

Ich weiß jetzt nicht was AMD vorhat, aber der Druck der da auf ihnen lastet ist schon immens. Man müsste jetzt quasi mit nur einer Generation nicht nur brutale Rohleistung (FP32) liefern, RT sehr performant und min. vergleichbar auf die Straße bringen, das Ding noch kühlbar machen (es wurden ja 400W gemunkelt, was zuviel ist), genug Speicher verbauen (16GB sind IMHO als Minimum gesichert), und dann hoffentlich genug Käufer für einen sehr guten Preis finden.

Ich bin guter Dinge, aber NV legt leider trotz Samsung 8N extrem gut vor und hat eine Menge Spielraum in der Hinterhand. Bei 5nm geht das Spiel wieder von vorne los. RDNA3 und Hopper scheinen aber ähnliche Ansätze zu haben, dennoch hat NV einfach zuviel Marktmacht, die man nur mit Kontinuität brechen kann. Ob die neuen Konsolen hier etwas ändern ist sehr schwer zu sagen, dafür fehlt aktuell noch die HW und SW auf beiden Seiten.

Ex3cut3r
2020-09-01, 22:46:56
Mit 512 würd ich mich auch nie abgeben ;).
Es ist aber auch egal, als SpieleSSD reicht das alle mal, auch in Zukunft.

Bei der 1TB Version ist es das gleiche. Nur zögert es sich da halt etwas mehr aus. :biggrin:

Lowkey
2020-09-01, 22:47:20
Wenn die 3070 für 500 Euro im Oktober kommt, dann wird die 5700 und 5700XT bestimmt 50 Euro günstiger werden. Nur ein Gedanke am Rande der verdeutlichen soll, wie stark die Preise in den nächsten Monaten schwanken werden.

Rancor
2020-09-01, 22:47:36
Scheisss man und ich wollte diese Gen überspringen. Aber ne 20GB 3080 ist einfach so viel geiler als ne 2080 :D

Geldmann3
2020-09-01, 22:47:51
Nicht 70% für die 3090? Die hat 20% mehr Rohleistung, Bandbreite usw. als die 3080

Ich war etwas pessimistisch, weil man selbst in 4k schon minimal ins CPU-Limit stoßen wird und die Karte bestimmt nicht perfekt mit der Hardware skalieren wird. Maximal optimistisch würde ich in 4k 2080 Ti +66% schätzen.

HOT
2020-09-01, 22:48:06
Bei der 1TB Version ist es das gleiche. Nur zögert es sich da halt etwas mehr aus. :biggrin:
Ich hab 2TB. Aber das ist mal stark OT hier.

Raff
2020-09-01, 22:48:11
Scheisss man und ich wollte diese Gen überspringen. Aber ne 20GB 3080 ist einfach so viel geiler als ne 2080 :D

Die wurde heute mit keiner Silbe erwähnt. ;)

MfG
Raff

Ex3cut3r
2020-09-01, 22:49:07
Ich hab 2TB. Aber das ist mal stark OT hier.

Etwas pingelig? Auch da ist es das selbe.

Sunrise
2020-09-01, 22:50:32
Wenn die 3070 für 500 Euro im Oktober kommt, dann wird die 5700 und 5700XT bestimmt 50 Euro günstiger werden. Nur ein Gedanke am Rande der verdeutlichen soll, wie stark die Preise in den nächsten Monaten schwanken werden.
Ich dachte N10 wird durch N22 ersetzt? Hab ich was verpasst?

Scheisss man und ich wollte diese Gen überspringen. Aber ne 20GB 3080 ist einfach so viel geiler als ne 2080 :D
Die würde wohl jeder nehmen und das weiß auch NV...

TheGood
2020-09-01, 22:52:31
DirectStorage wird aktuell nur auf NVme funktionieren und ist noch mitten in der Entwicklung. die API steht wohl erst mitte nächsten Jahres für den PC bereit. Das ist schon etwas merkwürdig. Man könnte geradezu meinen, dass Microsoft hier von Sony überrascht wurde oder Console only damit angefangen hat, da das die höhere Priorität hatte

robbitop
2020-09-01, 22:53:49
Gibt's eigentlich einen Grund für kein DP2.0? Das ist ja irgendwie doch etwas meh.

DP2.0 kam vermutlich zu spät. Schaue dir mal an wie lange es mit hdmi 2.1 gedauert hat.

Rampage 2
2020-09-01, 22:55:35
Ich tippe darauf, dass man die INT32 ALUs bei GA102/104/106/107 rausgeschmissen hat um die FPU32 ALUs breiter zu machen. Die FPUs können ja auch INT32 (und INT16 und INT8) rechnen.
Ist für 3D Grafik der bessere Deal.


Ist das jetzt auf Ampere bezogen oder gilt das auch für Turing? Wenn Letzteres, warum hat Turing dann separate INT32-Einheiten verbaut? Wäre doch Platzverschwendung:|

R2

Lowkey
2020-09-01, 22:55:36
Ich dachte N10 wird durch N22 ersetzt? Hab ich was verpasst?


Aber sie müssen doch ihre Lager räumen? Und dann erst kommt der Austausch. Ich bin aber auch nicht auf dem Laufenden über die Releasereihenfolge bei AMD.

HOT
2020-09-01, 22:55:53
Etwas pingelig? Auch da ist es das selbe.
Ich hab das Teil und keine Probleme, obwohl das Teil schon gut gefüllt ist und jetzt lass mich in Ruhe.

Ich dachte N10 wird durch N22 ersetzt? Hab ich was verpasst?
[...]

N21 > N22 > N23 > N10 > N24 > N14, wie es bislang aussieht. N23 wird sicherlich N10 ersetzen und N24 wird wohl zwischen N14 und N23 ansetzen, da die Lücke noch größer werden dürfte. N10 fliegt sicherlich nächstes Jahr raus, wenn N23 mal irgendwann erscheint. Bisher sieht es eher so aus, als würde N23 bei N10+60 rauskommen mit 12GB.

Nightspider
2020-09-01, 22:56:04
mehr takt: check --> 2100+ = 20%
mehr bandbreite: check --> 512bit / HBM2 + 100%
min. doppelte anzahl CUs: check --> 80CUs evtl. sogar 96CUs...

AMD muss da nichtmal mit der brechstange ran

zumal AMD einen riesigen strategischen vorteil hat: die konsolen sind auch RDNA2, das heisst auf die architektur werden die neuen games optimiert, schlechte aussichten für NV ;)

Dazu kommt der neue, verbesserte 7nm Prozess.

Wer zuletzt lacht, lacht am besten.

Ich denke BigNavi wird die 3080 locker besiegen.

Digidi
2020-09-01, 22:56:13
Delete

jabboo
2020-09-01, 22:56:38
Die wurde heute mit keiner Silbe erwähnt. ;)

MfG
Raff

Zu Recht ;)

pixeljetstream
2020-09-01, 22:58:07
DirectStorage wird aktuell nur auf NVme funktionieren und ist noch mitten in der Entwicklung. die API steht wohl erst mitte nächsten Jahres für den PC bereit. Das ist schon etwas merkwürdig. Man könnte geradezu meinen, dass Microsoft hier von Sony überrascht wurde oder Console only damit angefangen hat, da das die höhere Priorität hatte
Solche Dinge gehen meist schon tiefer ins Betriebssystem und man muss sich mit mehreren Herstellern einigen, und da hat MS halt andere Zeiträume, würde ihnen da nicht direkt Vorwurf machen, sie haben ja auch in der Xbox passende hw.

pixeljetstream
2020-09-01, 22:59:03
Lösch mich

just4FunTA
2020-09-01, 22:59:16
Dazu kommt der neue, verbesserte 7nm Prozess.

Wer zuletzt lacht, lacht am besten.

Ich denke BigNavi wird die 3080 locker besiegen.
dann sollen sie schnell was zeigen, ich weiss nicht wie lange ich noch auf hdmi2.1 warten kann. :X

y33H@
2020-09-01, 22:59:24
Ich hab Bock auf die Dinger, erinnert mich an meine gute alte 8800 Ultra.

clockwork
2020-09-01, 23:00:31
Kann man in diesem Jahr noch mit der 3060 rechnen? Die will ich zumindest noch sehen um mich dann zwischen der und einer 3070 zu entscheiden.

basix
2020-09-01, 23:02:00
Ist das jetzt auf Ampere bezogen oder gilt das auch für Turing? Wenn Letzteres, warum hat Turing dann separate INT32-Einheiten verbaut? Wäre doch Platzverschwendung:|

R2

INT ist viel platzsparender und energieeffizienter als FP. Und Turing war auch ohne FP schon ein ziemlicher Brocken ;)

Turing kann FP32 + INT32 oder INT32 + INT32. Ampere kann nun FP32 + FP32, FP32 + INT32 oder INT32 + INT32.

HPVD
2020-09-01, 23:02:08
DP2.0 kam vermutlich zu spät. Schaue dir mal an wie lange es mit hdmi 2.1 gedauert hat.

ja bin auch irritiert/enttäuscht dass das so lange dauert...

Spezifikations Daten:

HDMI 2.1: 28.11.2017
DP 1.4: 01. 03.2016
DP 2.0: 26.06.2019

wobei es bei DP ja eigentlich schon stark beschleunigen sollte, dass man mit HDMI 2.1 bereits in der richten "Größenordnung" der Geschwindigkeit ist..

edit: ja es scheint schneller zu gehen:

Laut VESA sind erste Geräte mit Unterstützung von DisplayPort 2.0 erst für Ende 2020 zu erwarten.
https://www.computerbase.de/2019-06/displayport-2.0-dreifache-datenrate-8k-displays/

=> vielleicht kommen ca dann die Ampere-Quadros bereits mit DP 2.0...
btw: hat jemand bereits irgend einen möglichen Termin / Messe für dei Vorstellung von denen gehört??

Nuada
2020-09-01, 23:05:24
Dazu kommt der neue, verbesserte 7nm Prozess.

Wer zuletzt lacht, lacht am besten.

Ich denke BigNavi wird die 3080 locker besiegen.

Vielleicht.... mit DLSS wird aber die BN komplett zerstört und die NV Karte hat gleichzeitig noch, ein schöneren Bild als die BN mit Nativer Auflösung.

crux2005
2020-09-01, 23:06:09
Ich hab Bock auf die Dinger, erinnert mich an meine gute alte 8800 Ultra.

+1

Ich hatte nur 8800 GTX. :(

Armaq
2020-09-01, 23:07:11
Andere Frage! Die 20x0 profitiert doch auch von einem besseren DLSS, was genau macht das jetzt zur Pflicht bei 30x0?

Sardaukar.nsn
2020-09-01, 23:07:13
Karten sind schon bei den Testern.

https://youtu.be/cWD01yUQdVA

Danke für den Link. Die Leistungssteigerung in %, ohne Ray-Tracing und DLSS, also die raw power ist für mich das entscheidende Kriterium.
3080 mit hdmi 2.1 und ein möglichst kleiner LG OLED dürfen bei mir einziehen.

Nuada
2020-09-01, 23:09:07
Danke für den Link. Die Leistungssteigerung in %, ohne Ray-Tracing und DLSS, also die raw power ist für mich das entscheidende Kriterium.
3080 mit hdmi 2.1 und ein möglichst kleiner LG OLED dürfen bei mir einziehen.

Für mich auch, aber wer sich für 50€ weniger ne BN holt, und wegen dem bissi geld auf DLSS verzichtet bescheißt sich selbst. :cool:

Raff
2020-09-01, 23:12:08
Andere Frage! Die 20x0 profitiert doch auch von einem besseren DLSS, was genau macht das jetzt zur Pflicht bei 30x0?

Ins Blaue: Floating-Point-Leistung (FP32) pro SM steigt gegenüber Turing nur theoretisch um Faktor 2, dafür fallen aber die Integer-Kapazitäten weg (die nix bis mittelviel bringen). Inferencing-Leistung durch die Tensor-Kerne (FP16) steigt pro SM um genau Faktor 2 -> DLSS kann prozentual noch besser entlasten, da die reduzierte Auflösung die FP-ALUs entlastet und die KI-Berechnungen schneller absolviert werden. "Pflicht" ist das per Definition aber nicht. :)

MfG
Raff

SKYNET
2020-09-01, 23:15:29
Für mich auch, aber wer sich für 50€ weniger ne BN holt, und wegen dem bissi geld auf DLSS verzichtet bescheißt sich selbst. :cool:


DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL... only nativ, alles andere is cheating und augenkrebs... überschärftes bild = kotz, artefakte = kotz... all das bietet sogar DLSS 2.0 ;D

Troyan
2020-09-01, 23:16:18
Der Leistungverlust mit DLSS sollte sich nun halbieren und noch geringer werden. Die ~15% zurzeit sind zwar okay, aber hey, mehr Frames bei selber Bildqualität.

Raff
2020-09-01, 23:16:48
DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL... only nativ, alles andere is cheating und augenkrebs... überschärftes bild = kotz, artefakte = kotz... all das bietet sogar DLSS 2.0 ;D

Du wirst bald nichts mehr spielen können. ;) Diverse Effekte laufen längst nicht mehr mit nativer Auflösung ...

MfG
Raff

Nightspider
2020-09-01, 23:18:40
Vielleicht.... mit DLSS wird aber die BN komplett zerstört und die NV Karte hat gleichzeitig noch, ein schöneren Bild als die BN mit Nativer Auflösung.

In den ~~5 Spielen die es mit DLSS gibt? Wahnsinn.

BF V wird bei den RTX Games sogar gleich mit zwei Kacheln aufgeführt weil es ja so viele RTX Games gibt. ;D

Ex3cut3r
2020-09-01, 23:19:17
Du wirst bald nichts mehr spielen können. ;) Diverse Effekte laufen längst nicht mehr mit nativer Auflösung ...

MfG
Raff

Er spielt doch vor allem noch auf 1920x1200 @ 24" Guckloch. Das wurde heute schon die meisten nicht mal mehr mit der Kneifzange anfassen. :wink:

r3ptil3
2020-09-01, 23:19:54
Weiss eigentlich jemand welche CPU bei Nvidia als Referenz dient?

Wurde ja einiges auch auf Basis von PCIe 4.0 vorgestellt.

Nightspider
2020-09-01, 23:20:11
Ich hab Bock auf die Dinger, erinnert mich an meine gute alte 8800 Ultra.

G80 war viel gewaltiger als diese 3090 = 2080ti+45%.


+1

Ich hatte nur 8800 GTX. :(

Same

Aber die Ultra war auch nur popelige 5% schneller.

wolik
2020-09-01, 23:21:26
DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL... only nativ, alles andere is cheating und augenkrebs... überschärftes bild = kotz, artefakte = kotz... all das bietet sogar DLSS 2.0 ;D
Ich bin auch Grafikporn Fetischist, nur in Control DLSS überzeugt mich als sehr gute (Leistung) Lösung. Ich sehen immer noch (mit die Lupe) paar Grafikfehler, aber die sind wirklich minimal.
SLI NVLink sieht "komisch" aus. Und gibts wohl nur einer Größe :confused:

crux2005
2020-09-01, 23:22:36
Weiss eigentlich jemand welche CPU bei Nvidia als Referenz dient?

Wurde ja einiges auch auf Basis von PCIe 4.0 vorgestellt.

10900K, 64 GiB RAM, Windows 10 x64

Nightspider
2020-09-01, 23:23:25
Man muss sich halt auch im Kopf behalten das die 3080 schon auf dem großen Chip basiert und die 3090 deswegen kaum schneller ist.

Der Takt ist fast gleich und die 3090 hat nur genau 20% mehr Shader als die 3080.

Die 3080 lohnt also überhaupt nicht und Leistungstechnisch ist da auch kein Platz dazwischen, außer man will wirklich popelige 10% Abstände.

Troyan
2020-09-01, 23:23:50
G80 war viel gewaltiger als diese 3090 = 2080ti+45%.


Nö. Der Vergleich ist wohl eher 3080 gegen 2080. Das entspricht nämlich 8800GTX und 7900GTX: https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/28/

Badesalz
2020-09-01, 23:25:14
Ja und? Ist das Höschen schon zu feucht?Wie bei dir in meinem Alter? Ne ich schätz ich bin da schon wesentlich cooler ;)
Erstmal eh abwarten was RDNA2 bringt. Zwischen der 3090 und 3080 ist ein riesen Loch. Ob da eine 3080Ti nachgeschoben wird, wenn RDNA2 dazwischen passt... Weiß ich nicht. Von der TBP her ist da nicht soviel Platz imho.

Kann aber auch sein, daß RDNA2 an der Stelle real attraktiv sein kann und sie den Preis der 3080 drückt oder halt die Ti kommt die schneller, aber kaum teurer sein wird.

NV hält sich genau da irgendwie noch was offen und ich werde bestimmt nicht derjenige sein der das trotz besseren Wissens ignoriert hat :up:

Sunrise
2020-09-01, 23:26:55
Ich hab Bock auf die Dinger, erinnert mich an meine gute alte 8800 Ultra.
Ich finde es zwar nicht sehr fair ggü. der restlichen Presse, aber die Ergebnisse der Digitalfoundry-Vorschau sind schon heftig. Und das ist nur die 3080...

Das übertrifft meine hohen Erwartungen definitiv.

grizu
2020-09-01, 23:27:03
DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL... only nativ, alles andere is cheating und augenkrebs... überschärftes bild = kotz, artefakte = kotz... all das bietet sogar DLSS 2.0 ;D

SKYNET + Gedi = Gleiche Person ? :biggrin:

3090 wird gekauft :)

Nuada
2020-09-01, 23:27:05
DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL... only nativ, alles andere is cheating und augenkrebs... überschärftes bild = kotz, artefakte = kotz... all das bietet sogar DLSS 2.0 ;D

Es wird eh früher oder später ein schärfe Regler geben das ist das, was die Gamingwelt gebraucht hat, man kann es vollständig nach der eigenen Vorstellung einstellen

Nightspider
2020-09-01, 23:28:34
Nö. Der Vergleich ist wohl eher 3080 gegen 2080. Das entspricht nämlich 8800GTX und 7900GTX: https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/28/

Turing war ein Krüppel mit ~~~40% mehr Leistung als Pascal.

Einen Krüppel mit 60 (BFV) bis 85% zu schlagen ist jetzt echt keine Bestleistung.

Nuvirus
2020-09-01, 23:30:52
wie sicher ist es eurer Meinung nach das ne 3080 oä. mit 20GB raus kommt nach AMD Release bzw. generell im Laufe des Jahres für 900-1100€?
Also generell mehr Speicher als 3080 aber unter 3090?

3090 einfach unverhältnismäßig Speicher, was ja nicht schlimm wäre wenn der Preis geringer wäre, aber 14-20GB wäre ja völlig ausreichend - Leistung sollte ja gar nicht so viel schlechter sein bei der 3080.

BUG
2020-09-01, 23:31:41
SLI NVLink sieht "komisch" aus. Und gibts wohl nur einer Größe :confused:SLI NVLink scheint jetzt auch nur noch bei der 3090 Serie zu laufen, bei der 3080 und kleiner hat man es scheinbar gestrichen.

Gruß
BUG

Badesalz
2020-09-01, 23:33:22
@Nuvirus
20GB wird es imho nicht werden. Gibts die einzelnen Chips nicht auch in anderen Größen?? Ich meine schon ;)

Troyan
2020-09-01, 23:34:16
Asus wird Karten veröffentlichen, die 2x HDMI 2.1 Anschlüsse haben: https://videocardz.com/press-release/asus-announces-geforce-rtx-30-series

Auch nett. Und die TUF Karte der 3090 ist sogar relativ kurz.

Sardaukar.nsn
2020-09-01, 23:34:18
Wird eine NVME SSD für Spiele nun Pflicht?


New RTX IO technology accelerates the storage sub-system for gaming. This works in tandem with the new Microsoft DirectStorage technology, which is the Windows API version of the Xbox Velocity Architecture, that's able to directly pull resources from disk into the GPU. It requires for game engines to support the technology. The tech promises a 100x throughput increase, and significant reductions in CPU utilization. It's timely as PCIe gen 4 SSDs are on the anvil.

Die neuen Konsolen drücken es im Mainstream durch. Also ja!

Meiner Meinung nach übrigens die beste Sache die Konsolen zur technischen Evolution des Gaming beitragen.

Nuada
2020-09-01, 23:34:26
wie sicher ist es eurer Meinung nach das ne 3080 oä. mit 20GB raus kommt nach AMD Release bzw. generell im Laufe des Jahres für 900-1100€?
Also generell mehr Speicher als 3080 aber unter 3090?

3090 einfach unverhältnismäßig Speicher, was ja nicht schlimm wäre wenn der Preis geringer wäre, aber 14-20GB wäre ja völlig ausreichend - Leistung sollte ja gar nicht so viel schlechter sein bei der 3080.


24Gb ist schon leicht übertrieben 20 hätten auch locker gereicht, aber wer weiß wie das in ein paar Jahren aussieht jetzt wo auch die Konsolen kommen. 10 ist auf jeden Fall viel zu wenig

basix
2020-09-01, 23:37:44
Zwischen der 3090 und 3080 ist ein riesen Loch.

Das riesen Loch besteht nur beim Preis und Speicherausbau. Der Performanceunterschied wird nur ca. 15-20% betragen. Da passt eigentlich nur eine Variante mit mehr Speicher dazwischen.

Ich finde es zwar nicht sehr fair ggü. der restlichen Presse, aber die Ergebnisse der Digitalfoundry-Vorschau sind schon heftig. Und das ist nur die 3080...

Das übertrifft meine hohen Erwartungen definitiv.

Das war auch mein erster Reflex -> "Ampere ist doch besser als ich erwartete." Nvidias Marketing funktioniert wie geschmiert (die Präsentation und Aufmwachung war wirklich gut ;)). Bis ich daran dachte, dass die 3080 fast +50% mehr Strom verbraucht als eine 2080. Dann sieht es nicht mehr ganz so gut aus. Die absolute Leistung stimmt, die Energieeffizienz ist aber nur um ca. +20..30% gestiegen.

Tesseract
2020-09-01, 23:38:53
DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL...

DLSS maximiert das dreieck auflösung-pixelqualität-framerate.

Badesalz
2020-09-01, 23:39:41
Wird eine NVME SSD für Spiele nun Pflicht?


New RTX IO technology accelerates the storage sub-system for gaming. This works in tandem with the new Microsoft DirectStorage technology, which is the Windows API version of the Xbox Velocity Architecture, that's able to directly pull resources from disk into the GPU. It requires for game engines to support the technology. The tech promises a 100x throughput increase, and significant reductions in CPU utilization. It's timely as PCIe gen 4 SSDs are on the anvil.Es wird Pflicht wenn die Durchdringung groß genug damit es sich lohnt es in den Spielen zu implementieren.

Da reicht aber so eine Peinlichkeit wie die 980Pro wohl nicht aus :mad:

DLSS maximiert das dreieck auflösung-pixelqualität-framerate.Oha! =) Wir haben einen Dreieck zu maximieren...
Ja, tut es. Nur halt immer nur in 2 der 3 Ecken gleichzeitig :usweet: Ergibt sich schon alleine dadurch, daß es verschiedene Modis hat. Wodurch es also auch keine solche allgemeine Pauschalität existiert :uup: Es gibt schonmal mind. einen Mud-Mode.

Nuvirus
2020-09-01, 23:39:52
naja das Loch zwischen 3090 und 3080 ist imho zu groß - man muss halt schauen was vom Speicherinterface her möglich ist und da wäre halt ca. 20GB die logische Konsequenz wenn man den GA102-200 nimmt und statt 10GB 20GB nimmt - bei der 3090 geht es ja auch.

Will halt in 4k Zocken am 120Hz LG OLED.

Super das Asus 2x HDMI 2.1 anbietet, das könnte ich ggf. in Zukunft brauchen - falls HDMI 2.1 Monitore kommen bräuchte ich 2, 1x für TV, 1x für Monitor.

Nuada
2020-09-01, 23:39:58
Das riesen Loch besteht nur beim Preis und Speicherausbau. Der Performanceunterschied wird nur ca. 15-20% betragen. Da passt eigentlich nur eine Variante mit mehr Speicher dazwischen.



Das war auch mein erster Reflex -> "Ampere ist doch besser als ich erwartete." Nvidias Marketing funktioniert wie geschmiert ;) Bis ich daran dachte, dass die 3080 fast +50% mehr Strom verbraucht als eine 2080. Dann sieht es nicht mehr ganz so gut aus. Die absolute Leistung stimmt, die Energieeffizienz ist aber nur um ca. +20-30% gestiegen.

Lieber mehr Strom als weniger Performance da kacke ich auf den Strom, wer einen Ferrari kauft, muss auch tanken wie ein Depp.
Am besten noch den PC ans Leitungswasser dann haste deinen Strom zurück, weil du keinen fan brauchst...... und los gehts. lol

https://www.youtube.com/watch?v=n5vxTbz_7jM

Sunrise
2020-09-01, 23:41:38
Das war auch mein erster Reflex -> "Ampere ist doch besser als ich erwartete." Nvidias Marketing funktioniert wie geschmiert (die Präsentation und Aufmwachung war wirklich gut ;)). Bis ich daran dachte, dass die 3080 fast +50% mehr Strom verbraucht als eine 2080. Dann sieht es nicht mehr ganz so gut aus. Die absolute Leistung stimmt, die Energieeffizienz ist aber nur um ca. +20..30% gestiegen.
Das ist schade ja, evtl. wäre in Zusammenarbeit mit TSMC das Bild deutlich runder, aber das werden wir nie erfahren.

Es ist aber eben dieser Aha-Effekt, das erinnert mich an alte Zeiten, wo man noch Performancesprünge >75% durch die Bank beim Erneuern der GPU hatte. Das war für mich der einzige Grund, soviel Geld für die Top-End-Karte auszugeben.

GA102 hat definitiv sehr viel Rohleistung, die auch in Zukunft gefragt(er) sein wird. Klingt auch relativ zukunftssicher, vor allem bei 24GB. Und der Verbrauch lässt sich sicher etwas optimieren, das macht ja gerade den Spaß im PC-Bereich aus, dass man auch noch Anpassungsmöglichkeiten hat.

Jetzt kann AMD gerne noch einen ähnlichen Sprung raushauen, die IHVs befeuern den Markt mit mehr GPUs und jeder ist glücklich.

Tesseract
2020-09-01, 23:42:31
Aber immer nur in 2 der 3 Ecken gleichzeitig :ulol:

in summe ist das dreieck wesentlich größer und genau das macht das feature extrem interessant.

Troyan
2020-09-01, 23:43:34
Das war auch mein erster Reflex -> "Ampere ist doch besser als ich erwartete." Nvidias Marketing funktioniert wie geschmiert (die Präsentation und Aufmwachung war wirklich gut ;)). Bis ich daran dachte, dass die 3080 fast +50% mehr Strom verbraucht als eine 2080. Dann sieht es nicht mehr ganz so gut aus. Die absolute Leistung stimmt, die Energieeffizienz ist aber nur um ca. +20..30% gestiegen.

Es sind ~35% von 3070 zur 2080(S). Oder 90%, wenn TU104 auf das Leistungsniveau angehoben wird.

Screemer
2020-09-01, 23:47:15
Leistung gut aber für 10gb imho einfach zu teuer.

aufkrawall
2020-09-01, 23:49:33
in summe ist das dreieck wesentlich größer und genau das macht das feature extrem interessant.
Der größte Pluspunkt der Karten neben der reinen Leistung scheint also offenbar ein Features des Vorgängers zu sein. :freak:
Von den bisher gesehenen Leistungswerten konnte man jedenfalls noch keine Architekturverbesserung eindeutig durchscheinen sehen. Auch die RT-Leistung scheint in den bisherigen Anwendungen mehr so "nett" zu sein, nicht zu vergleichen mit den RT-Cores Turings vs. Volta. Hoffen wir mal, dass andere Features nicht Jahre lang auf Halde liegen, ähnlich den Low Level-Fähigkeiten GCNs.

Nach dem ersten Mini-Hype tritt bei mir langsam so etwas wie Ernüchterung ein...

Troyan
2020-09-01, 23:56:17
Ist ziemlich logisch, oder? Ohne Turing wäre DLSS nichtmal ein Pluspunkt, weil es keine Spiele gäbe.

Es gäbe nichtmal Spiele mit Raytracing wie Control, die Möglichkeit Minecraft als Pathtracing zu spielen und sich auf Cyberpunk zu freuen.

Ampere ist wie Pascal.

maximus_hertus
2020-09-01, 23:57:05
Ich gehe mal davon aus, dass DF sicherlich nicht die schlechtesten Benchmarks ausgewählt hat (aus Sicht der 3080).

Milchmädchen Total:

RTX 3080 = RTX 2080 + 70% (im Schnitt über "alle" Spiele)

Die 2080 liegt rund 15% vor der 5700 XT.

Ergo aus Sicht der 5700 XT: 115% + 70% Boost = rund 185%, bzw. die 3080 käme rund 85% vor der 5700 XT raus.

Nehmen wir mal an, der Big Navi Top Dog kommt auf die kolportierte Verdoppelung der 5700 XT raus, also rund 5-10% vor der 3080, mit 16 GB und ähnlichem Stromverbrauch. Da wäre ein 799 USD / Euro Preisschild nicht unrealistisch und Sphären, die AMD schon lange nicht mehr beackert hat.

Ein 16 GB Salvage, die knapp hinter der 3080 raus kommt für dann 649 Euro und dann noch die 12GB Variante, die sich mit der 3070 balgt, aber halt den 12 vs 8 GB Vorteil mitbringt für 499 Euro.


Aber: erstens kommt es anders und zweitens, als man denkt.

Erstmal brauchen wir die unabhängigen Benchmarks von Ampere und vor allem den realen Stromverbrauch. Irgendwie passt das nicht ganz, 320 und 350W? Kann ich mir nicht ganz vorstellen, vor allem bei der 80er.

Und AMD muss auch erstmal liefern :)

Allerdings: Zuletzt konnte AMD liefern. Navi 1 und die ZEn Varianten konten allesamt überzeugen.

aufkrawall
2020-09-01, 23:59:35
Ampere ist wie Pascal.
Wo der 104er-Chip
-schneller war
-mehr VRAM hatte
-Edit: günstiger
-und viel effizienter war
als der Highend-Chip der Vorgänger-Generation? Geht es dir gut?

Badesalz
2020-09-02, 00:00:45
Es ist ein Refresh bei dem die Leistung dank 8nm an den Stellen erhöht wurde, an welchen die 2000er noch krankten.

Was es bringt wird sich zeigen, sobald jemand WoW Shadowlands mit RT bencht :) Thats all.

Sunrise
2020-09-02, 00:03:08
Apropos, AV1 Codec-Unterstützung ist auch dabei:
https://www.nvidia.com/en-us/geforce/news/rtx-30-series-av1-decoding/ (https://www.nvidia.com/en-us/geforce/news/rtx-30-series-av1-decoding/)

Sehr geil..

Interessant:
“We are working with Twitch on the next generation of game streaming. AV1 will enable Twitch viewers to watch at up to 1440p 120 FPS at 8mbps; a feasible bitrate that can reach most home-broadband and 5G users.

][immy
2020-09-02, 00:03:24
Das interessante an der kühlkonstruktion ist vor allem, daß das Board eigentlich relativ klein ist, denn der obere Kühler liegt ja komplett frei.
da fragt man sich schon warum aktuelle Karten so riesig sind.

Das speicherupgrade ist jedoch ziemlich mau bei den Preisen. Hätte ja mindestens mit 16gb gerechnet wo die große Ausbaustufe 24 hat.

Sunrise
2020-09-02, 00:05:24
[immy;12410900']Das interessante an der kühlkonstruktion ist vor allem, daß das Board eigentlich relativ klein ist, denn der obere Kühler liegt ja komplett frei.
da fragt man sich schon warum aktuelle Karten so riesig sind.
Das kostet laut Igor auch einiges, man spart wo man kann...

Armaq
2020-09-02, 00:06:32
Ins Blaue: Floating-Point-Leistung (FP32) pro SM steigt gegenüber Turing nur theoretisch um Faktor 2, dafür fallen aber die Integer-Kapazitäten weg (die nix bis mittelviel bringen). Inferencing-Leistung durch die Tensor-Kerne (FP16) steigt pro SM um genau Faktor 2 -> DLSS kann prozentual noch besser entlasten, da die reduzierte Auflösung die FP-ALUs entlastet und die KI-Berechnungen schneller absolviert werden. "Pflicht" ist das per Definition aber nicht. :)

MfG
Raff
Das schon, aber die 3070 wird ja nicht die Unterkante bleiben, daher sollten auch die alten Karten von DLSS ordentlich profitieren. Generell ist das eigentlich ein Feature für 3060 und Co, gute FPS bei sehr gutem Bild.

Die Karten sind durch ihre Preisplatzierung gut angekommen, sie haben ja auch nicht lange gefackelt mit der Einordnung und das finde ich gut.

Die 3090 wurde ganz klar als Creators/Makers/Gaming Hybrid platziert. Das ist absolut folgerichtig und ich hab ja bereits erwähnt, dass der Markt in eine neue Richtung schwimmt. Die wirklichen Profis kaufen das in Zukunft aus dem Datacenter und es wird sich die Frage stellen, ob eine Quadro-Serie in 2022 noch benötigt wird, wenn man die Prosumer an die Top of Line Consumer Serie angeglichen hat.

Auch die Software-Technologien sind völlig iO. und man sollte dankbar sein, dass nvidia hier immer wieder Projekte pusht, die werden nicht alle der heilige Gral werden, aber insbesondere bei breiter Unterstützung kommt da letztlich immer Fortschritt raus.

Allerdings sind mehrere Themen wirklich schön platziert worden und mit Silberzungen serviert, die bei naher Betrachtung etwas auffallen:

1. Der Kühler kann 90 Watt mehr abführen, was für ein krasses Design - wait what? Warum muss er denn 90 Watt mehr wegschaufeln?

1a. Die warme Luft des hinteren Lüfters kommt direkt zu meinem NDH15, bei mir drücken 3 Frontlüfter von vorne, aber auch 2 von oben (auf Ram und die Seite des NDH15).

1b. Tripple Slot als Standard, Quadro Slot als Partnerkarten? Keine positive Tendenz.

2. Performance / Watt - hier hat sich quasi nichts getan. Ohne DLSS haben sie gar nichts gezeigt/gesagt und das wird auch nicht gut ausfallen.

3. Leistung in non Raytracing Games - wie bekomme ich die Pipeline voll?

Liquaron
2020-09-02, 00:07:55
Wann kann man denn endlich preordern? Und kommen die Custom Karten am selben Tag wir die Founders raus?

Troyan
2020-09-02, 00:09:23
Wo der 104er-Chip
-schneller war
-mehr VRAM hatte
-Edit: günstiger
-und viel effizienter war
als der Highend-Chip der Vorgänger-Generation? Geht es dir gut?

GM200 war 600mm^2. TU102 liegt bei 754mm^2. Wird hier einfach vergessen, dass TU102 nochmal eine ganze Schippe draufgelegt hat.
GTX980 hatte nur 6GB, hätte auch 12GB haben können. Erst mit Pascal hat nVidia doppelten Speicher verbaut.
Vergleiche doch einfach 3070 mit GTX1080. Das sind dann ~80% Mehrleistung bei 22% Mehrverbrauch.

Turing war vielen zu teuer. Jetzt gibt es die Leistung für deutlich weniger. Passt einigen dann auch wieder nicht.

Pfuscher
2020-09-02, 00:13:10
Also wenn ich mir anschaue was Nvidia da abliefert, dann liegt die nächste Konsolengeneration ganz schön hinten.

Nvidia liegt einfach zu weit vor Amd, was Gewinn und Forschungsausgaben angeht.
Und das ist jetzt nur die Generation die vor der Konsole heraus kommt. In 2-4 Jahren wird der Abstand gewaltig.

monstar-x
2020-09-02, 00:20:45
2. Performance / Watt - hier hat sich quasi nichts getan. Ohne DLSS haben sie gar nichts gezeigt/gesagt und das wird auch nicht gut ausfallen.

3. Leistung in non Raytracing Games - wie bekomme ich die Pipeline voll?

Dafür DigitalFoundry

Borderlands 3 dass kein DLSS und RTX verwendet
RTX 2080 = 100%
RTX 3080 = 180%
https://youtu.be/cWD01yUQdVA?t=377

Control ohne DLSS Disabled
RTX 2080 = 100%
RTX 3080 = 175%
https://youtu.be/cWD01yUQdVA?t=476

Die 3080 wischt den Boden so was von mit der 2080.


Ich schätze selbst die 2080Ti wird in etwa so was sehen
Control ohne DLSS Disabled
RTX 2080TI = 100%
RTX 3080 = 130-140%

ich für meinen Teil werde (nach heutigen Stand) meine 2080Ti verkaufen und mir eine 3080 holen, der 1 GB VRAM macht eh keinen unterschied.

Badesalz
2020-09-02, 00:24:39
@Pfuscher
Welche Forschung braucht man zwischen Turing und Ampere? :|

Wenn man ehrlich zugibt, daß AMD erst ab Zen+ anfängt sich langsam zu sanieren, und an was die 5700XT so rankommt, und wie das davor aussah, dann finde ich das jetzt nicht so dramatisch.

Was du meinst ist der Ausdruck für die Ängste der PC-Zocker, die kurz vor jedem Launch einer Konsolengeneration entstehen. Kannst du dich davon nicht irgendwie selbst befreien? Es gibt so viele die das alleine schaffen :uup:

Control ohne DLSS DisabledWenn "ohne DLSS", "disabled" ist, dann ist es also an (?) Oder was soll der Klamauk?

Lawmachine79
2020-09-02, 00:27:46
DLSS würd ich nichtmal mit der kneifzange anfassen... MAXIMAL statt MINIMAL... only nativ, alles andere is cheating und augenkrebs... überschärftes bild = kotz, artefakte = kotz... all das bietet sogar DLSS 2.0 ;D
Lösungen wie DLSS sind aber die Zukunft, weil dort an Stellschrauben gedreht wird, die noch Skalierpotential haben und die nicht den Punkt des abnehmenden Ertrags lange hinter sich haben und mit immer mehr Aufwand weiter gepusht werden müssen. AMD kann ja seine Arithmetikleistung wieder um 10% verbessern, "You win the price".



Wenn man ehrlich zugibt, daß AMD erst ab Zen+ anfängt sich langsam zu sanieren, und an was die 5700XT so rankommt, und wie das davor aussah, dann finde ich das jetzt nicht so dramatisch.


Ich weiß wo die 5700XT rankommt: an einen über 3 Jahre alten NVidiachip, den ich demnächst für 200 Euro bei EBay-Kleinanzeigen verschleudern werde um mir davon eine Grafikkarte zu kaufen, die AMD 2023 easy peasy überflügeln wird. Hut ab. Damit sind sie schon mal deutlich besser als ich. Nur dass ich keine Grafikkarten entwickle. Und Zen - schön und gut; Ryzen 4000 werde ich mir kaufen. GPUs sind aber eben ein anderes Schlachtfeld und nur weil einer X gut kann, kann er lange noch nicht Y gut. Deshalb kann AMD noch so geile CPUs entwickeln, es sagt nichts über ihre Grafikkarten aus. Und da ist es so, dass man, wenn sich eine Markenaffinität bildet, als AMD-Käufer 80% der Zeit Kompromisse machen muss und 20% der Zeit mal halbwegs gut dastehe, sowohl was das Featureset angeht als auch die Performance. Wer tut sich so etwas dauerhaft an? Da kann ich ja Schalkefan werden. Bei CPUs ist es nicht so extrem, da kann man das verkraften und da gewähre ich einen Underdogbonus, zumal die CPU für einen Zocker nicht so den Impact hat. Aber auch mit Underdogbonus kann man nicht ständig verkacken.

monstar-x
2020-09-02, 00:34:49
Wenn "ohne DLSS", "disabled" ist, dann ist es also an (?) Oder was soll der Klamauk?

Du weist doch ganz genau, was gemeint ist!
Stell dich doch nicht so an.

Um 00:30 Uhr darf bei Copy & Past mal ein Fehler passieren.
Hättest du, statt zu stänkern, dass Video von DigitalFoundry angeklickt, wäre dein Kommentar ausgeblieben ...

SKYNET
2020-09-02, 00:34:58
Lösungen wie DLSS sind aber die Zukunft, weil dort an Stellschrauben gedreht wird, die noch Skalierpotential haben und die nicht den Punkt des abnehmenden Ertrags lange hinter sich haben und mit immer mehr Aufwand weiter gepusht werden müssen.

was soll ich mit DLSS wenn ich genug frames nativ in 4k haben kann mit max out? :uponder:

die ganzen gammel multiplayershooter sind grafisch eh dermassen anspruchslos, das auch 8k ohne DLSS auf ner 3090 >100fps laufen wird... aber keiner der richtig zockt hat da ne höhere auflösung als 1440p, wird also >200FPS max out sein...

DLSS ist einzig für die abfallkarten unterhalb der 3080 interessant, weil da fehlts u.U. an rohleistung um genug frames zu realisieren...

Armaq
2020-09-02, 00:39:55
Dafür DigitalFoundry

Borderlands 3 dass kein DLSS und RTX verwendet
RTX 2080 = 100%
RTX 3080 = 180%
https://youtu.be/cWD01yUQdVA?t=377

Control ohne DLSS Disabled
RTX 2080 = 100%
RTX 3080 = 175%
https://youtu.be/cWD01yUQdVA?t=476

Die 3080 wischt den Boden so was von mit der 2080.


Ich schätze selbst die 2080Ti wird in etwa so was sehen
Control ohne DLSS Disabled
RTX 2080TI = 100%
RTX 3080 = 130-140%

ich für meinen Teil werde (nach heutigen Stand) meine 2080Ti verkaufen und mir eine 3080 holen, der 1 GB VRAM macht eh keinen unterschied.
Aus persönlicher Sicht haben mir Sidegrades nie etwas gebracht und 30% sind einfach ein Sidegrade. Die 2080Ti wird jetzt bis AMD-Launch weiter genutzt, einfach weil es keinen Grund gibt die schnell abzustoßen. Es gibt eh keine Anwendung für die 3080 und nach Zen hab ich noch etwas Hoffnung, dass AMD auch bei den Grafikkarten ernsthaft angreifen kann. Im November kann man auch sehen wie sich die neuen Spiele verhalten, nur nvidia hat den Druck vor AMD-Launch zu verkaufen.

Also von 2080 zu 3080 seh ich das übrigens auch als super Leistungssprung. 20x0 hat wie immer neue Themen eingeführt und die 30x0 könne das jetzt ausfahren.

crux2005
2020-09-02, 00:42:42
die ganzen gammel multiplayershooter sind grafisch eh dermassen anspruchslos, das auch 8k ohne DLSS auf ner 3090 >100fps laufen wird... aber keiner der richtig zockt hat da ne höhere auflösung als 1440p, wird also >200FPS max out sein...

CoD: Warzone noch nicht probiert, was?

Lawmachine79
2020-09-02, 00:45:20
CoD: Warzone noch nicht probiert, was?
Hat er nicht, die Denkweise kommt ja aus Quake 3-Zeiten.

DLSS ist einzig für die abfallkarten unterhalb der 3080 interessant, weil da fehlts u.U. an rohleistung um genug frames zu realisieren...
Wir werden sehen ;). Ich sehe in DLSS die perfekte Echtzeitanpassung des Bildinhalts an eine gewünschte (physikalische) Auflösung X bei einer gewünschte Bildwiederholrate. Aus meiner Sicht muss das Pferd genau so herum aufgesattelt werden. Natürlich kann man, wenn man sich das antun will, weiter mit Grafiksettings rumspielen, den einen Scheiß anmachen, den anderen Scheiß ausmachen etc.

Klar kann man Rohleistung immer noch nutzen, wenn man sie hat. Man kann sich aber mit DLSS in dem Dreieck aus Auflösung, Bildwiederholrate und zur Verfügung stehender Leistung freier bewegen. Kann man "uncool" finden, ich finde es "schlau". Ich finde die Bezeichnung "DLSS" auch irreführend, weil die Idee dahinter deutlich mehr ist als einfach nur ein etwas intelligenteres Supersampling.

Daredevil
2020-09-02, 00:52:09
was soll ich mit DLSS wenn ich genug frames nativ in 4k haben kann mit max out? :uponder:

4K ? Was ist das denn für eine Kindergarten Auflösung?

kmf
2020-09-02, 00:55:10
Was sind nach diesen Ereignissen heute, die Vorgängerkarten noch wert? Wie gestaltet sich der Abverkauf? 50% Preisabschlag oder bleischwere Ladenhüter?
Ich sehe dunkle Wolken aufziehen. Sowohl für die ehemaligen Turing-Käufer, als auch für AMD. Und nicht zu vergessen: Wie stemmen die IT-Stores das ganze?

N0Thing
2020-09-02, 01:14:10
bin im selben Boot. 650W RMi.
Hab schon mal das 1000er bestellt :freak:

Die Angabe auf der Webseite gelten doch immer für die letzten Heuler, die für 30€ mit 800W verramscht werden.
Mit einem guten Netzteil um die 600W, sollte es auch weiterhin kein Problem sein, eine 300W Grafikkarte zu betreiben, sofern das restliche System nicht schon durch OC an die Kotzgrenze gebracht wird.

r3ptil3
2020-09-02, 01:21:30
Was sind nach diesen Ereignissen heute, die Vorgängerkarten noch wert? Wie gestaltet sich der Abverkauf? 50% Preisabschlag oder bleischwere Ladenhüter?
Ich sehe dunkle Wolken aufziehen. Sowohl für die ehemaligen Turing-Käufer, als auch für AMD. Und nicht zu vergessen: Wie stemmen die IT-Stores das ganze?

Würde mich auch interessieren - speziell bei den ganz grossen Ketten.

Auch merkwürdig, dass gestern hier im Forum berichtet wurde, dass bei Mindfactory plötzlich 15 Stück einer 2080 Ti plötzlich nicht mehr verfügbar waren.

Linmoum
2020-09-02, 01:21:58
Jensen hatte ja im Dezember 2019 noch klargestellt, dass der Großteil der kommenden GPUs bei TSMC gefertigt wird und bei Samsung nur eine geringe Anzahl an Chips. Ironischerweise kommen aber zum (aktuellen Zeitpunkt) mehr Chips von Samsung als von TSMC.

Entweder gab es für NV schlicht keine (für sie) ausreichenden Kapazitäten mehr, oder an dem Gerücht, dass Jensen TSMC mit Samsung unter Druck setzten wollte, ist doch (zumindest in Teilen) etwas dran. Auf jeden Fall kurios, dass mit GA102 und GA104 nicht der "Abfall" wie GP107/108 von Samsung kommt, sondern ausgerechnet die absoluten Flagschiffe im Consumer-Segment auf einen klar schlechteren Prozess setzen...

Die kleineren Chips müssten ja wiederum zum Großteil jetzt bei TSMC gefertigt werden.

Geldmann3
2020-09-02, 01:51:09
was soll ich mit DLSS wenn ich genug frames nativ in 4k haben kann mit max out? :uponder:

die ganzen gammel multiplayershooter sind grafisch eh dermassen anspruchslos, das auch 8k ohne DLSS auf ner 3090 >100fps laufen wird... aber keiner der richtig zockt hat da ne höhere auflösung als 1440p, wird also >200FPS max out sein...

DLSS ist einzig für die abfallkarten unterhalb der 3080 interessant, weil da fehlts u.U. an rohleistung um genug frames zu realisieren...
Also erstmal sieht DLSS 2.0 besser aus als natives Rendering. Hast Du Dir mal natives Rendering ohne AA angeschaut? Das aliased an allen Ecken und Enden. Und auch TAA kann meistens nicht mit DLSS 2.0 mithalten und kostet noch dazu mehr Leistung.

Weiterhin gibt es Leute wie mich, die gerne in 8k zocken wollen, selbst auf einer 3090 ist DLSS da sehr nützlich.

SentinelBorg
2020-09-02, 01:51:49
Die neuen Konsolen drücken es im Mainstream durch. Also ja!

Meiner Meinung nach übrigens die beste Sache die Konsolen zur technischen Evolution des Gaming beitragen.
Da würden mich mal die tieferen Details interessieren? Wenn die GPU direkt über PCIe via NVME mit der SSD kommuniziert, wie laufen da bestimmte Dinge wie Dateisystem Mapping oder auch Disk Encryption (z.B. Bitlocker)?

Virtual
2020-09-02, 02:04:32
Was sind nach diesen Ereignissen heute, die Vorgängerkarten noch wert? Wie gestaltet sich der Abverkauf? 50% Preisabschlag oder bleischwere Ladenhüter?
Ich sehe dunkle Wolken aufziehen. Sowohl für die ehemaligen Turing-Käufer, als auch für AMD. Und nicht zu vergessen: Wie stemmen die IT-Stores das ganze?

Ampere ist eben dreifacher Rollentausch mit Rückwärtssalto. Die 3080 (ohen Ti) entspricht preislich der 980Ti/1080Ti bei Einführung und gehört auch zum Gx102-Silizium typisch für die Ti-Serie knapp unterhalb der Titan. Die 2080 ohne Ti lag preislich noch 100-150 Euro darüber, war aber nur Gx104-Silizium. Nach dem Turing Auswuchs ohne erwähnenswerte AMD-Konkurrenz gibt es nun den preislichen Rückwärtssalto auf die Zeit vor Turing, allerdings wird das nun marketingtechnisch klug eingefädelt bzw. ausgeschlachtet. Für jeden erscheint es normal eine 2080 mit der 3080 zu vergleichen, wobei letztere mit ihrem GA-102 Silizium nach altem Schema zu einer 3080Ti geworden wäre und genau deshalb musste die gute alte Titan zur 3090 mit 24GB bei 1500 Euro mutieren. Die 3070 nimmt stattdessen die Rolle der 980/1080 mit Gx-104 im Vollausbau an. Mit diesem dreifachen Rollentausch mit preislichen Rückwärtssalto sehen wir plötzlich einen Performance-Boost zwischen eine 2080 und 3080, der eigentlich ein Vergleich 2080 mit 3080Ti bei Prä-Turing Preislage ist. NVidia hat bei der Turing-Serie richtig zugelangt, um nun bei ernsthaft drohender Konkurrenz den Wohltäter aller Gamer spielen zu können. Das ist ziemlich gefickt eingeschädelt!

Nichts gegen den Rückwärtssalto mit dreifachen Rollentausch, aber ohne AMDs Motiviationhilfe hätte die Lederjacke niemals seine Gier unter Kontrolle bekommen.

Nightspider
2020-09-02, 02:31:35
Mich würden vor allem die Zwischenauflösung 5K und 6K per DLSS interessieren.

Aber solange nicht alle Games sowas supporten ist das nur ein Gimmick.

Zumindest sollte man spätestens mit 6K das Bild wirklich ruhig bekommen.
Zwischen 6K und 8K sehe ich eigentlich kein Unterschied mehr, den müsste ich wirklich mit der Lupe suchen.

Bekommen die alten Spiele dann den 8K DLSS Support per Treiber oder nur per Dev Patch?

Jetzt wo ich das DF sehe:

Ist Virtuel Link, also der Anschluss, schon tot? Oder wieso hat die 3080 Reihe kein VL Anschluss?

Der Stromanschluss ist irgendwie doof platziert, der hängt ja quasi nach vorne raus.

Sunrise
2020-09-02, 03:06:27
Sehr gutes Re-cap Video von Moore's Law is Dead:
https://youtu.be/odvUvAae4hg

Rampage 2
2020-09-02, 03:18:36
Eine Frage zum RTX 3070 bzw. GA104-Chip: WARUM erscheint dieser als Salvage??? Ich dachte, es war so gut wie wasserdicht, dass der GA104-Chip im Vollausbau erscheint? :mad::mad::mad:

Oder hat Nvidia eine "3070 Ti" mit vollem Chip als Reserve in der Hinterhand gegen BigNavi im Oktober/November? :upara:

R2

crux2005
2020-09-02, 03:19:38
Also ich finde das RTX IO (https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/) zu wenig Aufmerksamkeit geschenkt wird. Bei den next-gen Konsolen wurde das noch stark als großer Vorteil gepriesen. Es ist auch sehr wahrscheinlich das AMD etwas ähnliches mit ihren N2x Chips bringt. Damit wäre der größte Vorteil von PS5/XBSX ggü. PC direkt verschwunden. Die Frage ist wie das von statten gehen soll. RTX IO wird wahrscheinlich nur von ausgewählten GeForce Karten unterstützt. Ich tippe auf Turing und Ampere, weil die TCs haben und NV damit einen neuen Zweck für sie schafft. Oder liege ich voll daneben?

Edit: Moore's Law spricht auch darüber: https://www.youtube.com/watch?v=odvUvAae4hg&t=50m5s

Eine Frage zum RTX 3070 bzw. GA104-Chip: WARUM erscheint dieser als Salvage??? Ich dachte, es war so gut wie wasserdicht, dass der GA104-Chip im Vollausbau erscheint? :mad::mad::mad:

Oder hat Nvidia eine "3070 Ti" mit vollem Chip als Reserve in der Hinterhand gegen BigNavi im Oktober/November? :upara:

R2

Wie soll dir das hier jemand sagen können?

Versuche jensen@nvidia.com ;D

Linmoum
2020-09-02, 03:24:35
Eine Frage zum RTX 3070 bzw. GA104-Chip: WARUM erscheint dieser als Salvage??? Ich dachte, es war so gut wie wasserdicht, dass der GA104-Chip im Vollausbau erscheint? :mad::mad::mad:

Oder hat Nvidia eine "3070 Ti" mit vollem Chip als Reserve in der Hinterhand gegen BigNavi im Oktober/November? :upara:

R2Was willst du da in der Hinterhand halten? Vollausbau sind laut Gerüchteküche 48SM, die 3070 hat 46SM. Wegen dem lächerlichen Rest lohnt sich höchstens ein Super-Refresh nächstes Jahr wie mit Turing.

Rampage 2
2020-09-02, 03:39:57
Was willst du da in der Hinterhand halten? Vollausbau sind laut Gerüchteküche 48SM, die 3070 hat 46SM.


1.) Ich kaufe mir keine Abfallchips!!!111elf

2.) Es erschließt sich mir nicht, warum man einen so kleinen Chip nur als Salvage-Variante anbietet - wurde die Die-Größe des GA104-Chips schon genannt?

Mit Sicherheit ist sie deutlich kleiner (oder sogar VIEL kleiner) als der GA102...


Wegen dem lächerlichen Rest lohnt sich höchstens ein Super-Refresh nächstes Jahr wie mit Turing.


Großartig...:mad:

R2

@ crux: Gibt's die Mail-Adresse wirklich?

crux2005
2020-09-02, 03:47:24
R2

@ crux: Gibt's die Mail-Adresse wirklich?

Möglich. Kann ich nicht sagen. Hatte seine Email nie. leather.jacket@nvidia.com wäre auch eine Möglichkeit. ;D

mczak
2020-09-02, 03:49:06
Was willst du da in der Hinterhand halten? Vollausbau sind laut Gerüchteküche 48SM, die 3070 hat 46SM. Wegen dem lächerlichen Rest lohnt sich höchstens ein Super-Refresh nächstes Jahr wie mit Turing.
Naja man könnte nicht nur 48 SM freischalten (was tatsächlich kaum der Rede Wert wäre), bei der Board-Power könnte man wohl auch noch minim höher gehen. Und dazu natürlich gddr6x statt gddr6. Aber das würde ich auch eher später als Super-Refresh sehen.

Rampage 2
2020-09-02, 03:57:21
Möglich. Kann ich nicht sagen. Hatte seine Email nie. leather.jacket@nvidia.com wäre auch eine Möglichkeit. ;D


Scherzkeks:tongue:

Jemand sollte ihm wirklich eine Beschwerde-Mail schreiben, falls Er/Sie seine Adresse hat...

Naja man könnte nicht nur 48 SM freischalten (was tatsächlich kaum der Rede Wert wäre), bei der Board-Power könnte man wohl auch noch minim höher gehen. Und dazu natürlich gddr6x statt gddr6. Aber das würde ich auch eher später als Super-Refresh sehen.


Irgendwie sehe ich das auch so - dass das vorrangig produktpolitische Gründe hat bzw. Taktik ist. An den Yields kann es ja nicht liegen...

Dieselbe Frage nochmal: wurde die Die-Größe von GA104 schon genannt?

R2

MasterElwood
2020-09-02, 05:18:16
Wie ist das eigentlich mit der Kühlung der 3080? Es heisst ja immer "auf Customs mit besserer Kühlung warten" - aber haben die Customs dieses Mal WIRKLICH bessere Kühlungen? Weil

1. Ist ja die Kühlung von NV dieses Mal wirklich aufwändig und lt. IGOR auch teuer

2. Sprach Jacke ja von Sachen wie: "bis zu 3x leiser" und "bis zu 10 Grad kälter" - und

3. scheinen sie ja ziemlich überzeugt zu sein von ihrem "Thermal Design" und haben da auch im Teaser Video ein großes Fass aufgemacht.

Vielleicht SIND die Customs dieses mal gar nicht besser... :confused:

dildo4u
2020-09-02, 05:34:43
Die sind leiser durch den reinen Material Aufwand und man bekommt Customs die gelocht sind.

https://youtu.be/JdfURQt8E7o

mczak
2020-09-02, 05:38:59
Dieselbe Frage nochmal: wurde die Die-Größe von GA104 schon genannt?

Nein, weder Die-Size noch Anzahl der Transistoren. Bei GA102 sind die Zahlen ja bekannt (die 28 Mrd Transistoren sind offiziell, die 627mm^2 gemessen).
Gerüchte sprachen von 450mm^2 bei GA104 - scheint mir eher etwas gross zu sein im Vergleich mit GA102. GA104 hat ja 2/3 der ROPs und MCs, deutlich weniger als 2/3 der SMs, da kommen natürlich noch die nichtskalierenden Dinge dazu, aber ich hätte den leicht kleiner erwartet. Kann aber auch sein dass die Konfigurationen anders sind wie schon bei Turing (da gab's Chips mit 12 SM / GPC und solche mit 8 SM / GPC, obwohl sich das IIRC nicht gross auf die Chipgrösse ausgewirkt hat). Allzu weit daneben wird's aber wohl so oder so nicht sein.

robbitop
2020-09-02, 06:12:48
Ist das jetzt auf Ampere bezogen oder gilt das auch für Turing? Wenn Letzteres, warum hat Turing dann separate INT32-Einheiten verbaut? Wäre doch Platzverschwendung:|

R2
Das kann schon Pascal und sogar einige Maxwellableger.
Die zusätzlichen INT ALUs kamen für erhöhten INT Durchsatz. Entsprechend haben INTs keine FP Ressourcen mehr gekostet. Bei 3d grafik kommt aber mehr fp als int zum Einsatz.
Im Sinne der FPUs sind wir pro SM wieder bei Maxwell/Pascal angelangt. Wir waren mit Volta und Turing nur recht kurz bei 64x fp (und 64x INT) pro SM.

Ich hab Bock auf die Dinger, erinnert mich an meine gute alte 8800 Ultra.
Die Psyche ist schon witzig. Die Welt ist aus dem Häuschen. Diese Sprünge waren bis vor ein paar Jahren normal. Jetzt haben wir uns schon an kleine Sprünge gewöhnt pro Generation. G80 hat einen größeren Sprung ggü G70/71 geliefert.

Spasstiger
2020-09-02, 06:18:52
Nvidia hat also sozusagen die Maxwell-Karte erneut gezogen.
Zwischen der 3080 und der 3090 passt höchstens eine 3080 Ti mit 12 GiB GDDR6X. Man wird sich vermutlich nicht die 3090 mit 20-GiB-Varianten der 3080 kanibalisieren. Der hohe Preis erfordert Exklusivität und die äußert sich im großen Speicher.

RTX I/O würde mich in einem Praxistest interessieren. Benötigt man spezielle SSDs und/oder spezielle Mainboards? Benötigt man spezielle Software? Wie gut kompensiert es VRAM-Engpässe?
Profitieren könnten streaminglastige Anwendungen wie Flight Simulator 2020. Vielleicht daher auch die Kooperation mit Microsoft bei der API-Entwicklung.

robbitop
2020-09-02, 06:38:51
Nö. Der Vergleich ist wohl eher 3080 gegen 2080. Das entspricht nämlich 8800GTX und 7900GTX: https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/28/
Naja. Bei der non ti stimmt das - aber nicht beim top dog. Die 3080 ist relativ zum top dog diesmal ungewöhnlich stark ausgebaut. Es gab schon einen Grund warum man diesen Vergleich wählte. ;)

2080->2080ti: +48%
3080->3090: +20,5%

Entsprechend wird der Sprung zw 2080ti und 3090 kleiner sein.

Zum G80: bei 2560x1600 (wir wollen ja im gpu limit bleiben) stehen 93% zur gtx7900. Mit AA/AF sogar +137%. Und in dem cb Test waren auch eine ganze Menge alte Spiele. Sobald es richtig shaderlastig wurde (Crysis) brach g70/71 noch mehr weg.

Und dazu kommt, dass es damals mit der 7900 sogar noch einen Refresh gab. Das gab es ja hier nicht. Würde man analog vergleichen wollen, müsste man ohne Refresh - also gegen die 7800 - vergleichen. Die 7900 war ja nur eine geshrinkte g70 - aber mit viel mehr Takt.

Ne ne G80 ist wohl kaum einholbar. Insbesondere top dog vs top dog.

robbitop
2020-09-02, 06:43:10
Apropos, AV1 Codec-Unterstützung ist auch dabei:
https://www.nvidia.com/en-us/geforce/news/rtx-30-series-av1-decoding/ (https://www.nvidia.com/en-us/geforce/news/rtx-30-series-av1-decoding/)

Sehr geil..

Interessant:
“We are working with Twitch on the next generation of game streaming. AV1 will enable Twitch viewers to watch at up to 1440p 120 FPS at 8mbps; a feasible bitrate that can reach most home-broadband and 5G users.
Aber leider nur decoding. Die Streamer müssen es ja irgendwie noch encoden...

Leonidas
2020-09-02, 06:48:12
wurde in dem bild wo Turing vs Ampere Raytracing Technik verglich wurde so dargestellt.


Mein Fehler, dass ich das so schnell nicht gesehen hatte. Manchmal waren mir die Folien doch zu kurz im Bild.




mehr details gibts die Tage mit den ueblichen Architektur Schaubildern und mehr Beschreibung was an der Architektur geaendert wurde.


Wundervoll!




Wenn das Bild stimmt sieht man 7 GPCs


Exakt so wie im Mai 2019 vorhergesagt:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020




Dann warten wir mal auf Big CuteNavi :D


NV ist zuerst dran:

https://pbs.twimg.com/media/Eg3APDLWoAANzWs?format=jpg





Die Frage wäre, wie es um AMD stünde, wenn deren HW nicht in den Konsolen verbaut wäre.


AMD stünde vor dem Konkursrichter. Insbesondere in 2015-2017 haben AMD die sicheren Umsätze der Konsolen-SoCs wirtschaftlich den Arsch gerettet.





Eine Frage zum RTX 3070 bzw. GA104-Chip: WARUM erscheint dieser als Salvage??? Ich dachte, es war so gut wie wasserdicht, dass der GA104-Chip im Vollausbau erscheint? :mad::mad::mad:


Sehe ich unverbissen, da nur 2 SM fehlen. Da hat eher Salvage-Gründe. Eventuell kann man später noch eine 3070Ti drauflegen, aber da wird die Differenz ziemlich gering. Ich würde Salvage-Gründe zuerst anführen. Ist nun einmal normal bei größeren Chips in modernen Fertigungsverfahren.

robbitop
2020-09-02, 06:51:15
@Leo
Ich meinte das nicht ökonomisch bezogen (da hast du Recht) sondern bezogen auf das Level der Optimierung auf die uArch in PC AAA Spielen in der Zeitperiode. :)

Dural
2020-09-02, 06:51:25
G80 g71 vergleiche sind für nichts, da turing die grösste gpu war die es je gab, der g71 war ein mini chip.

Ampere kann man durchaus auf die höhe der 8800gtx stellen.

robbitop
2020-09-02, 06:57:27
G80 g71 vergleiche sind für nichts, da turing die grösste gpu war die es je gab, der g71 war ein mini chip.

Ampere kann man durchaus auf die höhe der 8800gtx stellen.
Vergleichen müsste man eher g80 mit g70. Denn refreshes gibt es heute nicht mehr. G80 hat zu seiner Zeit genauso an Chipgröße draufgelegt.
Es ist eben relativ zu betrachten.

NV40 287 mm2
G70 333 mm2 302 mio tr
G80 484 mm2 681 mio tr

Der Sprung ist auch hier bei Ampere relativ gesehen kleiner.

Rampage 2
2020-09-02, 06:59:21
Sehe ich unverbissen, da nur 2 SM fehlen. Da hat eher Salvage-Gründe. Eventuell kann man später noch eine 3070Ti drauflegen, aber da wird die Differenz ziemlich gering. Ich würde Salvage-Gründe zuerst anführen. Ist nun einmal normal bei größeren Chips in modernen Fertigungsverfahren.

Es ist weniger eine Frage der Performance, sondern vielmehr der Ästhetik - ich hasse krumme Chips.:mad:

Bzgl. des Grunds: Ich glaube wirklich nicht, dass es am Yield und/oder Die-Größe liegt - GA104 sollte relativ klein ausfallen (eine Ampere-TITAN hätte glatt 75% mehr Shaderprozessoren und ein 50% breiteres SI... bei "nur" 627mm^2), vermutlich sogar kleiner als TU104, da gleiche Anzahl SPs bei besserer Fertigung...

R2

Grendizer
2020-09-02, 07:07:30
Es ist weniger eine Frage der Performance, sondern vielmehr der Ästhetik - ich hasse krumme Chips.:mad:

Bzgl. des Grunds: Ich glaube wirklich nicht, dass es am Yield und/oder Die-Größe liegt - GA104 sollte relativ klein ausfallen (eine Ampere-TITAN hätte glatt 75% mehr Shaderprozessoren und ein 50% breiteres SI... bei "nur" 627mm^2), vermutlich sogar kleiner als TU104, da gleiche Anzahl SPs bei besserer Fertigung...

R2

Und wenn es die Ausbeute nur um 10% erhöht und die Leistung für 2080 TI Performance reicht macht es doch aus nVidia Sicht Sinn so zu handeln.

Dural
2020-09-02, 07:09:07
Gewinn maximierung + die möglichkeit nach zu legen.

horn 12
2020-09-02, 07:34:56
Bitte was bedeutet RTX I/O
Kann dies mir einer besser erläutern?

nordic_pegasus
2020-09-02, 07:35:28
- Ich fand in der Präsentation interessant, dass Jensen zum einen nicht mehr von Gigarays/s gesprochen hat sondern wir jetzt bei Shader-TFlops sind. Hat das einen tieferen Sinn?

- Ferner wurde in der Präsentation zu keinem Zeitpunkt das Thema VR angesprochen. Der USB-C Anschluss für Headsets ist ja auch sang und klanglos verschwunden... hat genau eine Generation gelebt. Ich werde den Anschluss nicht vermissen, denn jetzt sind wieder Single-Slot Brackets möglich ;-) Aber für mich klingt das Thema VR ziemlich tot.

- Ich finde die preisliche Lücke zwischen 3080 und 3090 echt spannend. Leistungstechnisch passt da gar nicht soviel dazwischen mit GA102 Derivaten. Wenn da nur eine 3080 20GB kommt, wäre das echt mau. Eine 3080Ti mit 12GB halte ich für sinniger.

- Die Vergleiche zwischen 2080 und 3080 hinken natürlich gewaltig, wenn man den Unterbau betrachtet. TU104 gegen GA102 und 256bit vs. 320bit... ist doch klar, dass die 3080 in Relation ein großer Sprung ist. Der Vergleich von 2080Ti/TitanRTX zur 3090 wird echt spannend.

Edit:
- Die Positionierung der Stromanschlüsse finde ich auf allen 3 Founders-Editionen sehr dämlich gelöst. Hingegen sind die Kühler wirklich verdammt schlicht und funktional. Dafür kudos.

sChRaNzA
2020-09-02, 07:36:38
Ohne den Thread verfolgt zu haben, stellt sich mir die Frage, welche Karte hier die attraktivere sein wird.

2080Ti vs 3070

Klar im Abverkauf oder gebraucht. Aber das könnte sich am Preis niederschlagen.

dildo4u
2020-09-02, 07:36:54
Bitte was bedeutet RTX I/O
Kann dies mir einer besser erläutern?
Daten werden direkt von der SSD zum GPU V-Ram Geschickt es umgeht das decoden über die CPU.
Das ist eine Lösung um mit den neuen Konsolen mitzuhalten die extra decoding Hardware haben um die CPU nicht zu überlasten.

Es ist weniger eine Frage der Performance, sondern vielmehr der Ästhetik - ich hasse krumme Chips.:mad:

Bzgl. des Grunds: Ich glaube wirklich nicht, dass es am Yield und/oder Die-Größe liegt - GA104 sollte relativ klein ausfallen (eine Ampere-TITAN hätte glatt 75% mehr Shaderprozessoren und ein 50% breiteres SI... bei "nur" 627mm^2), vermutlich sogar kleiner als TU104, da gleiche Anzahl SPs bei besserer Fertigung...

R2
Laut den AMD Fanboys die Ständig Videos machen sind die Yields bei Samsung Abfall hoch 10 kein Plan wie viel dran ist.

Zergra
2020-09-02, 07:40:17
Das heißt Spiele profitieren dann stärker von einer NVMe SSD?

igg
2020-09-02, 07:41:10
Die Psyche ist schon witzig. Die Welt ist aus dem Häuschen. Diese Sprünge waren bis vor ein paar Jahren normal. Jetzt haben wir uns schon an kleine Sprünge gewöhnt pro Generation. G80 hat einen größeren Sprung ggü G70/71 geliefert.
Sprünge wie bei G80 sind eben nicht normal. Selbst der außerordentliche Pascal kam da nicht ran.

Was Performance und Preis angeht überzeugt Ampere ohne jeden Zweifel. Wo ich noch skeptisch bin ist Verbrauch, Temps und RAM.

prinz_valium_2
2020-09-02, 07:41:19
Es ist weniger eine Frage der Performance, sondern vielmehr der Ästhetik - ich hasse krumme Chips.:mad:

Bzgl. des Grunds: Ich glaube wirklich nicht, dass es am Yield und/oder Die-Größe liegt - GA104 sollte relativ klein ausfallen (eine Ampere-TITAN hätte glatt 75% mehr Shaderprozessoren und ein 50% breiteres SI... bei "nur" 627mm^2), vermutlich sogar kleiner als TU104, da gleiche Anzahl SPs bei besserer Fertigung...

R2
Dann git es wohl keine Nvidia GPU für dich dieses Mal
Es sind alles salvage Parts.

dildo4u
2020-09-02, 07:42:11
Das heißt Spiele profitieren dann stärker von einer NVMe SSD?
Das Game muss Direct Storage nutzen das geht nicht automatisch.

https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

BigKid
2020-09-02, 07:42:36
DLSS ist einzig für die abfallkarten unterhalb der 3080 interessant, weil da fehlts u.U. an rohleistung um genug frames zu realisieren...
Oder für VR?
Oder für RTX?
Oder bei Laptops wo du ein enges Powerbudget hast? Wobei das dann für dich ja uasi gammel Karten wären...

Grendizer
2020-09-02, 07:46:34
Das heißt Spiele profitieren dann stärker von einer NVMe SSD?


Ja ... aber wir müssen mal auf dem Teppich bleiben, auch wenn Konsolen das Feature auch haben, wird es beim PC jetzt nicht innerhalb von einem Jahr starke Verbreitung finden.

ShinyMcShine
2020-09-02, 07:56:09
- Ferner wurde in der Präsentation zu keinem Zeitpunkt das Thema VR angesprochen. Der USB-C Anschluss für Headsets ist ja auch sang und klanglos verschwunden... hat genau eine Generation gelebt. Ich werde den Anschluss nicht vermissen, denn jetzt sind wieder Single-Slot Brackets möglich ;-) Aber für mich klingt das Thema VR ziemlich tot.

NVIDIA will sich evtl. die zusätzlichen (waren es 15?) Watt spren, die man dafür zur Verfügung stellen müsste?

Evtl. haben die Partnerkarten den Anschluss ja wieder.

On main topic: Ich warte auf den Refresh, resp. die 16GB/20GB Karten. Darüber hinaus hätte ich gerne 6144 Shader auf "meiner" 3070 Ti 16GB...
Zum Glück dauert es auch noch ein wenig bis ich mir meine neue Platform auf Zen 3 Basis kaufen kann.

P.S.: VR ist bestimmt nicht tot...

prinz_valium_2
2020-09-02, 07:57:45
- Ich finde die preisliche Lücke zwischen 3080 und 3090 echt spannend. Leistungstechnisch passt da gar nicht soviel dazwischen mit GA102 Derivaten. Wenn da nur eine 3080 20GB kommt, wäre das echt mau. Eine 3080Ti mit 12GB halte ich für sinniger.

- Die Vergleiche zwischen 2080 und 3080 hinken natürlich gewaltig, wenn man den Unterbau betrachtet. TU104 gegen GA102 und 256bit vs. 320bit... ist doch klar, dass die 3080 in Relation ein großer Sprung ist. Der Vergleich von 2080Ti/TitanRTX zur 3090 wird echt spannend.



Hinkt vllt etwas, aber die Preisklasse ist identisch und wir bekommen endlich mal wieder einen High-End chip in der Preisklasse und als x80
Sonst war das ja immer nur ein Performance chip.

Das ist für mich der Grund, warum die 3080 endlich mal wieder interessant ist.
Außerdem ist das FE Design endlich mal ansprechend und wahrscheinlich auch noch super.
Gibt es die auch als AIB, oder wieder nur bei Nvidia direkt? Ich kaufe lieber bei einem Händler wo ich besser auf Gewährleistung bestehen kann.
Und bei Nvidia direkt wird es keine Rabatt Möglichkeiten geben.

Grendizer
2020-09-02, 07:58:51
NVIDIA will sich evtl. die zusätzlichen (waren es 15?) Watt spren, die man dafür zur Verfügung stellen müsste?

Evtl. haben die Partnerkarten den Anschluss ja wieder.

On main topic: Ich warte auf den Refresh, resp. die 16GB/20GB Karten. Darüber hinaus hätte ich gerne 6144 Shader auf "meiner" 3070 Ti 16GB...

P.S.: VR ist bestimmt nicht tot...

Doch ... das zeigen die schwachen Verkaufzahlen der PC Headsets. Einzig das PSVR hat nenneswerte Verkaufszahlen geliefert, aber auch nicht so viel, wie ursprünglich von Sony erwartet.

pixeljetstream
2020-09-02, 08:04:40
- Ich fand in der Präsentation interessant, dass Jensen zum einen nicht mehr von Gigarays/s gesprochen hat sondern wir jetzt bei Shader-TFlops sind. Hat das einen tieferen Sinn?

Er erwähnt davor dass man die Definition der zahlen übernommen hat, wie Microsoft sie für die xbox wählte.
Die gigarays waren mit realen Modellen gemessen, was bei einer unit die viel Arbeit macht und async läuft durchaus Sinn macht. traversal ist ja mehrfach im Baum herabsteigen und verschiedene Resultate testen bis man das Ergebnis hat. Die RT tflops sind halt theoretische Maxima der Units der Rechenschritte.

Mark3Dfx
2020-09-02, 08:26:17
Als 2080 Ti Käufer, der über 1.200 € ausgegeben hat würde ich mich leicht verarscht vorkommen ;D
Eine 3080 mit Customdesing für 750€ ist schon gekauft :up:

PrinceGSC
2020-09-02, 08:29:11
Wie ist das eigentlich mit der Kühlung der 3080? Es heisst ja immer "auf Customs mit besserer Kühlung warten" - aber haben die Customs dieses Mal WIRKLICH bessere Kühlungen? Weil

1. Ist ja die Kühlung von NV dieses Mal wirklich aufwändig und lt. IGOR auch teuer

2. Sprach Jacke ja von Sachen wie: "bis zu 3x leiser" und "bis zu 10 Grad kälter" - und

3. scheinen sie ja ziemlich überzeugt zu sein von ihrem "Thermal Design" und haben da auch im Teaser Video ein großes Fass aufgemacht.

Vielleicht SIND die Customs dieses mal gar nicht besser... :confused:

Vergiss aber nicht das du deutlich mehr Abwärme hast aufgrund des höheren TDP, sie mussten also mehr in die Kühlung investieren um da keinen Grill im PC zu setzen.

Ich denke das die auf die selben temps kommen wie aktuelle GK kühler, diese führen halt nur mehr Wärme ab...weil auch mehr produziert wird.

Timbaloo
2020-09-02, 08:29:45
Hat die 3070 FE nun den 12-Pin-Stecker wie auf dem Render-Bild, oder 1x8-Pin wie in den technischen Daten angegeben?

https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/rtx-3070/

y33H@
2020-09-02, 08:30:37
Das 8P bezieht sich auf den Adapter so wie ich das verstehe.

Zergra
2020-09-02, 08:32:19
Das 8P bezieht sich auf den Adapter so wie ich das verstehe.

Ja muss so sein, bei der 3090 steht auch 2x 8Pin.

Timbaloo
2020-09-02, 08:32:21
Das 8P bezieht sich auf den Adapter so wie ich das verstehe.
Ah O.K. so könnte man es verstehen. Dann sollten sie das in den technischen Daten allerdings auch so beschreiben. Etwas unglücklich.

Dorn
2020-09-02, 08:34:40
GeForce RTX GeForce RTX GeForce RTX
3090 3080 3070
Technische Daten des Grafikprozessors: NVIDIA CUDA®-Recheneinheiten 10496 8704 5888
Boost-Taktung (GHz) 1.70 1.71 1.73

Technische Daten des Speichers: Standard-Speicherkonfiguration 24GB GDDR6X 10GB GDDR6X 8GB GDDR6
Breite der Speicherschnittstelle 384 Bit 320 Bit 256 Bit

Unterstützte Technologien: Raytracing-Recheneinheiten 2. Generation 2. Generation 2. Generation
Tensor-Recheneinheite 3. Generation 3. Generation 3. Generation
NVIDIA-Architektur Ampere Ampere Ampere
Microsoft DirectX® 12 Ultimate Ja Ja Ja
NVIDIA DLSS Ja Ja Ja
PCI Express Gen 4 Ja Ja Ja
NVIDIA® GeForce Experience™ Ja Ja Ja
NVIDIA Ansel Ja Ja Ja
NVIDIA FreeStyle Ja Ja Ja
NVIDIA ShadowPlay Ja Ja Ja
NVIDIA Highlights Ja Ja Ja
NVIDIA G-SYNC® Ja Ja Ja
Game Ready-Treiber Ja Ja Ja
NVIDIA Studio-Treibe Ja Ja Ja
NVIDIA GPU Boost™ Ja Ja Ja
NVIDIA NVLink™ (SLI-Ready) Ja - -
Vulkan RT API, OpenGL 4.6 Ja Ja Ja
HDMI 2.1 Ja Ja Ja
DisplayPort 1.4a Ja Ja Ja
NVIDIA Encoder 7. Generation 7. Generation 7. Generation
NVIDIA Decoder 5. Generation 5. Generation 5. Generation
VR Ready Ja Ja Ja

Unterstützte Anzeigeoptionen: Maximale digitale Auflösung(1) 7680x4320 7680x4320 7680x4320
Standard-Bildschirmanschlüsse HDMI 2.1, 3x DisplayPort 1.4a HDMI 2.1, 3x DisplayPort 1.4a HDMI 2.1, 3x DisplayPort 1.4a
Multidisplayfähi 4 4 4
HDCP 2.3 2.3 2.3

Abmessungen der Founders Edition-Karte: Läng 12.3" (313 mm) 11.2" (285 mm) 9.5" (242 mm)
Breite 5.4" (138 mm) 4.4" (112 mm) 4.4" (112 mm)
Höhe 3-Steckplatz 2-Steckplatzt 2-Steckplatz

Founders Edition Temperatur- und Leistungsdaten: Max. Temperatur der Grafikkarte (in °C) 93 93 93
Leistungsaufnahme der Grafikkarte (W) 350 320 220
Empfohlene Systemleistung (W) (2) 750 750 650
Zusätzliche Stromanschlüsse 2x PCIe 8-polig 2x PCIe 8-polig 1x PCIe 8-polig

unl34shed
2020-09-02, 08:35:46
Excel hat dir den Takt verhauen "Jan 70 Jan 71 Jan 73"

Dorn
2020-09-02, 08:38:56
Excel hat dir den Takt verhauen "Jan 70 Jan 71 Jan 73"Danke gerade bemerkt und korrigiert. :smile:

Badesalz
2020-09-02, 08:39:18
@Lawmachine79
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12410922#post12410922
Mit deinem rhetorischen Zugenbrecher kann aber irgendwas nicht stimmen. Wenn das alles stimmen würde, würde AMD GARKEINE Grakas mehr verkaufen können. Irgendwo muss es da also noch was anderes sein, weil allein Fanboys recihen für die Zahlen nicht aus. Die XT hat sich besser bei mindfactory verkauft als wir alle erwartet hätten.

dreamweaver
2020-09-02, 08:49:45
Daß das neue Lüftungsdesign die heisse Luft jetzt direkt zum CPU Lüfter bläßt ist gut weil?

Cyberfries
2020-09-02, 08:51:09
Gerüchte sprachen von 450mm^2 bei GA104 - scheint mir eher etwas gross zu sein im Vergleich mit GA102.

So weit weg ist das denke ich nicht.
Gibt ja eine Abbildung des Chips bei nvidia, wenn ich mir da ein Stück wegdenke sind das schon so 400-450mm².
Der Chip ist ja quasi ein TU104, dem gegenüber sind das dann trotzdem 17-27% weniger Fläche.

Es ist weniger eine Frage der Performance, sondern vielmehr der Ästhetik - ich hasse krumme Chips.

Bzgl. des Grunds: Ich glaube wirklich nicht, dass es am Yield und/oder Die-Größe liegt - GA104 sollte relativ klein ausfallen

Etwas ernüchternd ist das durchaus, kann ich voll verstehen.
Ein Vollausbau wäre schon drin gewesen, wenn eine 3060 dann den Salvage-Part übernimmt.
Bedeutet dann wohl entweder dass eine 3060 nicht auf GA104 basiert (unwahrscheinlich, siehe Palit-codes)
oder dass die 3060 noch länger auf sich warten lässt. Kann sich dann durchaus bis 2021 ziehen.

Sonyfreak
2020-09-02, 08:51:50
Ampere sieht bisher sehr gut aus und ich denke, dass auch das P/L-Verhältnis vertretbar ist. Offensichtlich war der 8nm-Prozess von Samsung doch der richtige Weg für Nvidia. Jetzt bin ich gespannt auf unabhängige Reviews. :)

Schade finde ich, dass wir vorerst keinen vollen GA104-Chip zu sehen bekommen, sondern mit einer Salvage RTX 3070 abgespeist werden. ;( Einem kompletten GA104 mit 16GB VRAM hätte ich vermutlich nicht widerstehen können. Da ich aber zumindest bis November die zusätzliche Leistung ohnehin nicht brauche, warte ich jetzt mal entspannt auf Big Navi und hoffe auf eine RTX 3070 Ti.

mfg.

Sonyfreak

nordic_pegasus
2020-09-02, 08:54:26
Daß das neue Lüftungsdesign die heisse Luft jetzt direkt zum CPU Lüfter bläßt ist gut weil?

hat der8auer gut erklärt. Sofern wir nicht mehr Blower-Fans nutzen, ist die erwärmte Luft sowieso im Gehäuse gefangen und wandert irgendwann nach oben.

Mit diesem Kühler wird die Luft lediglich aktiv nach oben geführt. Von daher kein Nachteil. Falls man auf der CPU einen Wakü-Block hat, könnte der Lüfter der Geforce sogar von Vorteil sein, da ein Luftstrom über die VRM und RAM wedelt. Lieber ein warmer Luftstrom als gar kein Luftstrom ;-)

Hübie
2020-09-02, 08:57:20
Nachdem ich viele Samples aus den Performance-Ergebnissen dieses Videos entnommen habe, komme ich auf etwa +42% AVG Performance auf die 2080 Ti für die RTX 3080. Allen Informationen nach, die wir bisher über die 3090 haben, sollte diese dann etwa 59% schneller sein, als eine 2080 Ti.

https://youtu.be/cWD01yUQdVA

Danke für den Link :smile:

Ich frage mich die ganze Zeit ob ich nun auf die 20 GB warten soll oder nicht..? Mal noch AMD abwarten oder nicht? Luxusprobleme... :biggrin:;D

Badesalz
2020-09-02, 08:59:44
Es wird keine 20GB geben. Wie oft denn noch?

Adam D.
2020-09-02, 09:02:39
Danke für den Link :smile:

Ich frage mich die ganze Zeit ob ich nun auf die 20 GB warten soll oder nicht..? Mal noch AMD abwarten oder nicht? Luxusprobleme... :biggrin:;D
Ich würde es mal so sagen: Samsung kann kaum so billig sein, um allein für die akzeptablen Ampere-Preise verantwortlich zu sein. Ich würde einfach mal noch ein paar Wochen abwarten.

ShinyMcShine
2020-09-02, 09:03:29
Doch ... das zeigen die schwachen Verkaufzahlen der PC Headsets. Einzig das PSVR hat nenneswerte Verkaufszahlen geliefert, aber auch nicht so viel, wie ursprünglich von Sony erwartet.

Jedem seine Meinung, aber wenn VR tot wäre, hätte ich mir nicht erst ein neues Headset gekauft, das alte für einen guten Preis abstoßen können und dutzende VR Spiele in meiner Steam Wishlist.

VR mag Nische sein, aber mMn ist es alles andere als tot...

Insofern hoffe ich auch, dass evtl. Partnerkarten wieder den VR-USB-Anschluß haben...

Zergra
2020-09-02, 09:04:12
Ich würde es mal so sagen: Samsung kann kaum so billig sein, um allein für die akzeptablen Ampere-Preise verantwortlich zu sein. Ich würde einfach mal noch ein paar Wochen abwarten.

Worauf denn ? Außerdem sind das eher drei Monate als ein paar Wochen. Aber muss ja jeder selber wissen. Aus den drei Monaten werden dann eher 4-5 bis es gute Custom Designs gibt.

Dorn
2020-09-02, 09:04:13
Da ich aber zumindest bis November die zusätzliche Leistung ohnehin nicht brauche, warte ich jetzt mal entspannt auf Big Navi und hoffe auf eine RTX 3070 Ti.
Ich kann mir gut vorstellen, das Geforce Grafikkarten wie 3080 & 3070 erst mit größerem Speicher antreten dürfen wenn Big Navi mit 16 GB draußen ist. Davor ist es den Boardpartnern nicht erlaubt.

dildo4u
2020-09-02, 09:05:27
Ich würde es mal so sagen: Samsung kann kaum so billig sein, um allein für die akzeptablen Ampere-Preise verantwortlich zu sein. Ich würde einfach mal noch ein paar Wochen abwarten.
Billig ist es nicht wirklich wir haben jetzt drei Generation mit 8GB für die 500€ Karte und die neue nutzt nicht mal High-End GDDR6.
Die 10Gb der 3080 machen auch nur dann Sinn wenn der Großteil der Games DLSS bekommt.

mczak
2020-09-02, 09:10:45
Laut den AMD Fanboys die Ständig Videos machen sind die Yields bei Samsung Abfall hoch 10 kein Plan wie viel dran ist.
Bei Samsung 8nm? Glaube ich nicht. Das ist bloss ein leicht frisierter 10nm Prozess. Der hatte gerüchteweise zwar auch Probleme ist mittlerweile aber ziemlich alt.
7nm LPP ist eine andere Geschichte, kann durchaus sein dass der nicht rund läuft (dass kein Chip bekannt ist der bisher damit gefertigt wird ausser dem hauseigenen Exynos 990 spricht jedenfalls nicht gerade gegen die Gerüchte - IBM Power 10 wäre solch ein Chip, den gibt's aber erst in einem Jahr zu kaufen).

Adam D.
2020-09-02, 09:11:07
Worauf denn ? Außerdem sind das eher drei Monate als ein paar Wochen. Aber muss ja jeder selber wissen. Aus den drei Monaten werden dann eher 4-5 bis es gute Custom Designs gibt.
AMD will nach eigener Aussage vor den Konsolen was zeigen, das dürfte dann also irgendwann Anfang November soweit sein. Wer bis dahin nicht warten kann, klar. Mit Ampere wird man kaum etwas falsch machen, bis auf die Speicherfrage.
Billig ist es nicht wirklich wir haben jetzt drei Generation mit 8GB für die 500€ Karte und die neue nutzt nicht mal High-End GDDR6.
Die 10Gb der 3080 machen auch nur dann Sinn wenn der Großteil der Games DLSS bekommt.
In Anbetracht der letzten zwei Jahre kann man sich als Kunde schon glücklich schätzen, dass man 2080Ti-Performance für 500€ kriegt. Das ist mehr als man erwarten konnte (wenn es stimmt). "Billig" hab ich auch nicht geschrieben, weil es das nicht ist. Aber P/L ist auf jeden Fall deutlich besser als bisher.

Zergra
2020-09-02, 09:14:50
AMD will nach eigener Aussage vor den Konsolen was zeigen, das dürfte dann also irgendwann Anfang November soweit sein. Wer bis dahin nicht warten kann, klar. Mit Ampere wird man kaum etwas falsch machen, bis auf die Speicherfrage.


Anfang November ist halt nicht fix, kann schnell Anfang Dezember werden. Außerdem müsste man dann trotzdem 2 Monate auf gute Cutoms warten. Das sollte man auch mit Einkalkulieren, also sind es schnell 4-5 Monate zwischen einer 3080 oder einen möglicherweise schnelleren BN.

ShinyMcShine
2020-09-02, 09:17:19
Ich kann mir gut vorstellen, das Geforce Grafikkarten wie 3080 & 3070 erst mit größerem Speicher antreten dürfen wenn Big Navi mit 16 GB draußen ist. Davor ist es den Boardpartnern nicht erlaubt.

Gibt noch keine GDDR6x Chips mit doppelter Kapzität in 2020: QUELLE (https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/)

ChaosTM
2020-09-02, 09:18:44
Also mit 8/10Gb werden sie auf Dauer keine Blumentöpfe gewinnen. Kann mir nicht vorstellen, dass sich zb. 1080ti Besitzer weniger Speicher antun werden. Ist völlig Sinnfrei, und 1500€ werden die auch nicht abdrücken, sonst hätten sie schon eine 2080ti..

16/20 müssen also kommen, sonst verlieren sie einen Teil der High-Endischen Kunden.

Relic
2020-09-02, 09:20:07
Gibt noch keine GDDR6x Chips mit doppelter Kapzität in 2020: QUELLE (https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/)
Man kann aber bei den kleineren Karten auch heute schon das machen, was die 3090 macht...

Kimi2003
2020-09-02, 09:20:19
Irgendein Aufreger muss es ja immer geben....

Badesalz
2020-09-02, 09:21:30
Bei Samsung 8nm? Glaube ich nicht. Das ist bloss ein leicht frisierter 10nm Prozess. Der hatte gerüchteweise zwar auch Probleme ist mittlerweile aber ziemlich alt.Kein Plan grad in welchen Zusammenhang die beiden Infos stehen =)

Das ist schon bisschen mehr als nur leicht frisiert ;) Ist natürlich lange nicht nur bisschen schlechter als aktuelle 7nm bei TSMC, aber es gibt keinen Grund (sachlichen jedenfalls) das schlechter zu reden als es ist ;)

dreamweaver
2020-09-02, 09:22:59
hat der8auer gut erklärt. Sofern wir nicht mehr Blower-Fans nutzen, ist die erwärmte Luft sowieso im Gehäuse gefangen und wandert irgendwann nach oben.

Mit diesem Kühler wird die Luft lediglich aktiv nach oben geführt. Von daher kein Nachteil. Falls man auf der CPU einen Wakü-Block hat, könnte der Lüfter der Geforce sogar von Vorteil sein, da ein Luftstrom über die VRM und RAM wedelt. Lieber ein warmer Luftstrom als gar kein Luftstrom ;-)

Naja, ich weiß nicht.
Mein Gehäuse ist eh offen. Ich sehe schon so ne Art 45° Lüftungsschacht-Gebastele, das die Luft dann vorm CPU-Lüfter zur Seite abführt.

Korvaun
2020-09-02, 09:23:40
Als 2080 Ti Käufer, der über 1.200 € ausgegeben hat würde ich mich leicht verarscht vorkommen ;D
Eine 3080 mit Customdesing für 750€ ist schon gekauft :up:

Warum, hat ja niemand die Käufer damals gezwungen. Sind außerdem jetzt 2 Jahre in denen man die Top-Karte hatte (wenn man früh gekauft hat), ist doch ok. Zudem sind die Dinger ja nicht gleich Schrott, wer nicht gerade jetzt sofort was neues braucht kann sicher noch 1 Jahr dranhängen ohne größere Einschränkungen (dazu 11GB RAM, doch etwas mehr als 3080/3070) ...

Badesalz
2020-09-02, 09:26:10
Die müssen aber auf den Gebrauchtmarkt ;) In einem Jahr werden sie viel mehr, weniger kosten, als die 3000er noch im Preis fallen könnte ;)

D.h. je länger man wartet desto schlechter wird P/L der neuen, WENN man den Wiederverkauf dazurechnet.

HOT
2020-09-02, 09:29:58
Beim Super-Refresh werden die kleinen Speichergrößen eh verschwinden, weil dann einfach alle Produkte ab 3070 mit 16Gb-RAM ausgestattet werden nächstes Jahr.

dildo4u
2020-09-02, 09:30:07
Lenovo listet eine 3070 Ti mit 16GB.


https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-spotted-with-16gb-gddr6-memory

Zergra
2020-09-02, 09:32:54
Lenovo listet eine 3070 Ti mit 16GB.


https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-spotted-with-16gb-gddr6-memory


Dann also als Vollausbau ?
Die 3080Ti für 999Euro dann mit 20GB ?

JVC
2020-09-02, 09:33:28
Es wird keine 20GB geben. Wie oft denn noch?
Du meinst bestimmt, nicht direkt zum Start?

Oder kommen die doppelten Speichermengen echt erst mit dem "SUPER" Update nächstes Jahr im Herbst?

M.f.G. JVC

Badesalz
2020-09-02, 09:38:49
Ganze anders. Es kommen keine doppelten Speichermengen.

Hauwech
2020-09-02, 09:39:13
Aus persönlicher Sicht haben mir Sidegrades nie etwas gebracht und 30% sind einfach ein Sidegrade. Die 2080Ti wird jetzt bis AMD-Launch weiter genutzt, einfach weil es keinen Grund gibt die schnell abzustoßen. Es gibt eh keine Anwendung für die 3080 und nach Zen hab ich noch etwas Hoffnung, dass AMD auch bei den Grafikkarten ernsthaft angreifen kann. Im November kann man auch sehen wie sich die neuen Spiele verhalten, nur nvidia hat den Druck vor AMD-Launch zu verkaufen.

Also von 2080 zu 3080 seh ich das übrigens auch als super Leistungssprung. 20x0 hat wie immer neue Themen eingeführt und die 30x0 könne das jetzt ausfahren.

Druck Karten zu verkaufen haben beide aber bei AMD ist der Druck immens höher.

ChaosTM
2020-09-02, 09:41:58
Ganze anders. Es kommen keine doppelten Speichermengen.


Müssen kommen - wie weiter oben erwähnt - Ende Oktober, Anfang November - außer BigN sinkt unter 3070er Niveau ab, was ich aber nicht erwarte.

Die 3090er ist wie die 2080ti damals für 1080ti Besitzer. ist es nicht wirklich wert..

Rancor
2020-09-02, 09:42:35
Ganze anders. Es kommen keine doppelten Speichermengen.

Und das weisst du genau woher?

ChaosTM
2020-09-02, 09:45:00
Trollversuch ;)

ZomBy7
2020-09-02, 09:51:57
Ganze anders. Es kommen keine doppelten Speichermengen.

Mal daran gedacht, dass die 3080 auch doppelt bestückt werden kann und somit auf 20GB kommt?

dargo
2020-09-02, 09:53:11
Lenovo listet eine 3070 Ti mit 16GB.


https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-spotted-with-16gb-gddr6-memory
Haben die sich da verschrieben? Nur 14Gbps bei der 3070? Ich dachte die kommt mit 16Gbps.

Es wird keine 20GB geben. Wie oft denn noch?
What? Eine 3070 kommt mit 16GB und die 3080 belässt NV bei 10GB? WTF? :freak:

robbitop
2020-09-02, 09:53:50
Sprünge wie bei G80 sind eben nicht normal. Selbst der außerordentliche Pascal kam da nicht ran.
Definitiv - deswegen wurde er ja auch so gefeiert und gilt als Referenz.
Und es wird ja behauptet, dass Ampere vergleichbar damit ist. IMO ist er das nicht. Er ist eher vergleichbar mit einem normalen, gesunden Sprung (den wir aber seit einer Weile nicht mehr gesehen haben).

JVC
2020-09-02, 09:56:48
Ganze anders. Es kommen keine doppelten Speichermengen.
Irgendwas muss kommen.
Ne 3080 mit 10Gb ist doch ...(nichts für mich) und vermutlich nur für "low-Res+high-FPS Junkies" gut :confused:

M.f.G. JVC

dildo4u
2020-09-02, 09:57:08
Haben die sich da verschrieben? Nur 14Gbps bei der 3070? Ich dachte die kommt mit 16Gbps.
Es gibt keine Infos dazu von Nvidia alles noch Spekulation, auf der Nvidia Seite steht nur 8GB GDDR6.Es gibt auch keine Angabe zu Speicherbandbreite.

Dural
2020-09-02, 09:57:35
Die 16 und 20GB Versionen sind mehr oder weniger längst bestätigt. :rolleyes:

In welcher Form die auch immer kommen werden.

Es gibt keine Infos dazu von Nvidia alles noch Spekulation, auf der Nvidia Seite steht nur 8GB GDDR6.Es gibt auch keine Angabe zu Speicherbandbreite.

Es steht aber die Bandbreite? Somit kann man es ausrechnen.

Badesalz
2020-09-02, 09:58:53
@ChaosTM
Lass den andauerden Bullshit stecken.

Mal daran gedacht, dass die 3080 auch doppelt bestückt werden kann und somit auf 20GB kommt?Mal an TBPs gedacht? Oder... der komischen Prestigesache mit der 3090? (womit die Aufzählung aber noch nicht erschöpft ist ;))

Ich hab damit halt nicht gemeint, daß nichts zwischen 10GB und 20Gb kommen wird :tongue:

Dural
2020-09-02, 10:00:21
Schon mal dran gedacht das die Hersteller schon überall Artikel Nummer für die 16 und 20GB Versionen gelistet haben? :rolleyes::rolleyes::rolleyes:

dildo4u
2020-09-02, 10:00:52
Es steht aber die Bandbreite? Somit kann man es ausrechnen.
Auf der Nvidia Seite steht nur die Busbreite.

https://live.staticflickr.com/65535/50296413463_a407f9821b_o.png (https://flic.kr/p/2jCwgqt)3070h (https://flic.kr/p/2jCwgqt) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Badesalz
2020-09-02, 10:01:26
Schon mal dran gedacht das die Hersteller schon überall Artikel Nummer für die 16 und 20GB Versionen gelistet haben? :rolleyes::rolleyes::rolleyes:Geben bitte.

Bis dann mal. Das kack RL schon wieder =)

Sweepi
2020-09-02, 10:03:17
Plottwist: 16/20 GiB nur für Notebooks ;D

ChaosTM
2020-09-02, 10:05:39
Die 20Gb 3080er kommt nur im neuen Gamer Handy von Asus - ziemlich massiges Gerät..

Lawmachine79
2020-09-02, 10:05:56
Als 2080 Ti Käufer, der über 1.200 € ausgegeben hat würde ich mich leicht verarscht vorkommen ;D
Eine 3080 mit Customdesing für 750€ ist schon gekauft :up:
Als 1080TI Käufer würdest Du Dich ganz gut fühlen ;).

@Lawmachine79
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12410922#post12410922
Mit deinem rhetorischen Zugenbrecher kann aber irgendwas nicht stimmen. Wenn das alles stimmen würde, würde AMD GARKEINE Grakas mehr verkaufen können. Irgendwo muss es da also noch was anderes sein, weil allein Fanboys recihen für die Zahlen nicht aus. Die XT hat sich besser bei mindfactory verkauft als wir alle erwartet hätten.
Da hast Du natürlich Recht: zu Fanboy (und ich meine den Begriff überhaupt nicht abwertend; es gibt auch Lebensbereiche, in denen ich Fanboy bin) kommt noch Preis dazu (und ja, das wird wahrscheinlich die Mehrheit sein). Um mal auf mein 1080TI-Beispiel zurückzukommen: die Karte ist über 3 Jahre alt, sie ist aber noch absolut konkurrenzfähig. Dementsprechend verkauft sich auch eine 5700XT, die nur minimal langsamer ist und nur ein Bruchteil dessen kostet, was die 1080TI mal gekostet hat; jetzt zahlt natürlich keiner mehr den Mehrpreis zur 1080TI. Der Mehrpreis der 1080TI ist in der Möglichkeit abgebildet, diese Leistung schon seit 3,5 Jahren und nicht erst seit knapp über einem Jahr zu nutzen. Ganz abstrakt betrachtet macht man beim Grafikkartenkauf nichts anderes als Leistung zu "mieten" und der Mehrpreis der 1080TI ist die längere "Mietdauer".

Ben Carter
2020-09-02, 10:07:16
Es wird Pflicht wenn die Durchdringung groß genug damit es sich lohnt es in den Spielen zu implementieren.

Da reicht aber so eine Peinlichkeit wie die 980Pro wohl nicht aus :mad:
Weil beim Lesen der Daten genau was limitiert? :freak:
Nicht, dass ich es gut finde, dass die Pro nun auch TLC nutzt, aber hier mach das mal nix aus.

Als 2080 Ti Käufer, der über 1.200 € ausgegeben hat würde ich mich leicht verarscht vorkommen ;D
Eine 3080 mit Customdesing für 750€ ist schon gekauft :up:
Also mir hat sie fast 2 Jahre gute Dienste erbracht, verarscht komme ich mir nicht vor, ich wusste ja beim Kauf der 2080 Ti, wie viel Geld ich investiere und dass irgendwann mal Grafikkarten diese Leistung zu einem (deutlich) geringeren Preis schaffen, war auch klar.

rentex
2020-09-02, 10:08:17
Ich fühle mich als ehemaliger 2080Ti Besitzer, der seine Karte nach 15 Monaten für 900€ (von 1199€ kommend) verdammt gut ;-)

maximus_hertus
2020-09-02, 10:09:33
Eine Frage zum RTX 3070 bzw. GA104-Chip: WARUM erscheint dieser als Salvage??? Ich dachte, es war so gut wie wasserdicht, dass der GA104-Chip im Vollausbau erscheint? :mad::mad::mad:

Oder hat Nvidia eine "3070 Ti" mit vollem Chip als Reserve in der Hinterhand gegen BigNavi im Oktober/November? :upara:

R2

Eine mögloche Auflösung:

Big Navi wird wirklich gut und nVidia muss reagieren (ich sage nicht, dass es so kommt, sondern spiele nur diese Möglichkeit durch).

Die 3080 (Ti / Super / ohne Zusatz) 20GB kommt für 799 Euro
Die 3070 (Ti / Super / ohne Zusatz) Vollausbau 16GB kommt für 599 Euro
Die 3070 wird leicht gesenkt auf 449 Euro

Die 3080 10GB läuft entweder (langsam) aus oder parallel weiter (für 699).


Warten wir aber erstmal auf die unabhängigen Benchmarks zu Ampere. Und dann auf Navi. Und die Customs.

Dural
2020-09-02, 10:11:37
Ab 2021 hat Micron 2 GByte GDDR6X Speicher:

https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/

Somit könnten die 16 und 20GB Versionen erst 2021 kommen.

dargo
2020-09-02, 10:13:56
Ab 2021 hat Micron 2 GByte GDDR6X Speicher:

https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/

Somit könnten die 16 und 20GB Versionen erst 2021 kommen.
Unsinn... die 3070 hat GDDR6.

Edit:
2GB Chips bei GDDR6 sind schon länger kein Hindernis.
https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/

ChaosTM
2020-09-02, 10:14:04
3090 vorbestellt - die geht dann nach 2 Wochen zurück und Amazon spendet die nächste Karte für einen Monat. Bis dahin sollte BigN verfügbar sein...

Dural
2020-09-02, 10:15:29
Unsinn... die 3070 hat GDDR6.

Wer sagt das die 3070TI 16GB GDDR6 ohne X hat???

ChaosTM
2020-09-02, 10:17:19
Der Datendurchsatz.. nur 512gb im Vergleich zu über 750 der 80er


aso.: du meinst die 3070er ti könnte 6X verwenden.. unwahrscheinlich