PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

dildo4u
2020-09-01, 19:12:36
Da steht aber mit RTX on.
Borderlands hat kein RTX oder DLSS.

BigBangBacket
2020-09-01, 19:12:48
Das denke ich auch. Nvidia weiß ja durch Turing, dass die Leute bereit sind auch mehr zu zahlen also warum sollte man den Preispunkt 1000€-1200€ nicht bedienen. Also abwarten...

Im Grunde sind wir ja momentan wieder ca bei Pacalpreisen, oder? Meine Titan hat damals auch mit WK 1500 gekostet..aber diesmal gebe ich nicht mehr soviel aus

Digidi
2020-09-01, 19:13:11
2X FP32 THROUGHPUT

Haben die doppelt so viele FP32 module verbaut pro SM? So ganz glaube ich die 10000 Cuda Cores nicht.

jojo13
2020-09-01, 19:13:31
Haha die Lederjacke 2 Fliegen mit einer Klappe für die Kohle wird er seinen Müll los und macht den Gebrauchtmarkt so nebenbei kaputt.

prinz_valium_2
2020-09-01, 19:13:37
Wirklich "nur" 699 EUR? Da kommt man echt in Versuchung obwohl nur 10GB hm....

Und?
Konsolen haben auch nicht wirklich mehr.
Dazu Nvidia IO also die Xbox Storage Technik für Windows.

3090 kostet halt Mal eben das doppelte.
Für etwas mehr Leistung und deutlich mehr RAM.
Ist ja keine 3070, die noch bei 8GB hängt

gedi
2020-09-01, 19:13:39
Nvidia Website:

https://live.staticflickr.com/65535/50295003797_ee00889982_b.jpg[/url]3070 (https://flic.kr/p/2jCp3nT) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://live.staticflickr.com/65535/50294877021_b8770b3a38_c.jpg (https://flic.kr/p/2jCooG6)3070bench (https://flic.kr/p/2jCooG6) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Danke :)

Sweepi
2020-09-01, 19:14:08
@pixel
Gibts die Slides eigentlich irgendwo? Die Bilder sind alle unwürdig vom Twitch stream (720p) gescreenshoted :ugly:

Dural
2020-09-01, 19:14:19
Navi wird sich mit der 3070 beschäftigen müssen, 512bit, 500mm2, 7nmm :freak::freak::freak:

dildo4u
2020-09-01, 19:14:38
Danke :)
Ich vermute mal dort liegt ein Apdater bei daher steht 8 Pin auf der Seite.

Troyan
2020-09-01, 19:14:52
@pixel
Gibts die Slides eigentlich irgendwo? Die Bilder sind alle unwürdig vom Twitch stream (720p) gescreenshoted :ugly:

Erst noch als Video: https://www.youtube.com/watch?v=QKx-eMAVK70&feature=youtu.be&t=1855

Ggfs. werden die Seiten noch die Folien erhalten.

nordic_pegasus
2020-09-01, 19:15:39
die riesige Preis-Lücke zwischen 3080 und 3090 finde ich sehr merkwürdig. Dazu alles Salvage-Chips. Und die tollen Balken mit RTX-on sind auch wenig aussagekräftig. Also vor BigNavi bleibe ich ganz cool und warte.

Wenn die 3090 wirklich die Titan ablöst, dann wird wohl noch ein 3090Super Refresh kommen mit 84 SM.

FastAndy
2020-09-01, 19:15:50
Schnell mal die 2080ti auf kleinanzeigen setzen. :D

Ich könnte mir ohne mit der Wimper zu zucken ein paar Dutzend 3090-er kaufen, ich mache es aber nicht mal mit einer. ;)

Die qualität deiner beiträge hat schon arg abgenommen. Fand dich früher mal echt nett und lesenswert hier, aber in letzter zeit bist du ziemlich seltsam drauf. Im RL kommen solche sprüche meist von genau den leuten, die zu den großen gehören wollen, es aber nicht tun.

gedi
2020-09-01, 19:16:14
Navi wird sich mit der 3070 beschäftigen müssen, 512bit, 500mm2, 7nmm :freak::freak::freak:

Dann hättest du hier andere Preise gesehen. BN liegt knapp unter 3090, wenn überhaupt

Cyberfries
2020-09-01, 19:16:23
Das ist GA104.

So schwer zu unterscheiden sind 3070 und 3080 nun wirklich nicht.
Statt dem X ist da nur noch ein / und der 12pin-Stecker steht nicht sondern liegt.
Aber schau doch einfach mal selber auf der nvidia-Seite.
Oder einfach den Seitentitel....

Dural
2020-09-01, 19:17:04
Dann hättest du hier andere Preise gesehen. BN liegt knapp unter 3090, wenn überhaupt

:freak::freak::freak:

Sie sind immer noch am träumen :wink:

ShinyMcShine
2020-09-01, 19:17:37
https://live.staticflickr.com/65535/50295003797_ee00889982_b.jpg (https://flic.kr/p/2jCp3nT)3070 (https://flic.kr/p/2jCp3nT) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Auf dem Renderbild "sah" ich halt 12 Pins...

Emil_i_Lönneberga
2020-09-01, 19:17:51
Die 1080Ti vor wenigen Tagen noch für 500€ verkauft bekommen. Schwein gehabt.

Das wäre ab heute Abend bei den Preisen für die 3070 und 3080 ansonsten bitter geworden :eek:

Kein denkender Mensch kauft eine von den 2 Karten...

Jetzt muss erst mal RDNA2 gehörig liefern.

Um Cyberpunk dann in 1080p medium details mit der 1080 Ti zu spielen? Kommend von Pascal war die Aussicht mit einer $1200+ 2080 Ti schlechter als jetzt mit einer 3080 fuer $699. Ist das alles perfekt? Nein, aber wenn man die GPU eh nur max. 2 Jahre im PC hat alles kein Ding. Jetzt noch Big Navi abwarten und dann zuschlagen..

Ebend.

Bei 700€, war vorab auch grob die Grenze, lächelt mich aktuell die 3080 an ...

https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/rtx-3080/

... überzeugt hat sie mich aber noch nicht ganz. Ich hoffe jetzt nehmen die Infos zu BN etwas mehr an Fahrt auf.

Troyan
2020-09-01, 19:18:10
An die empörten wegen den Pascal -> Ampere Vergleich: https://youtu.be/QKx-eMAVK70?t=1886
Einfach selbst zu hören. Ziemlich eindeutig, was gemeint war.

Nightspider
2020-09-01, 19:18:16
Der Kurs Euro-Dollar ist übrigens auf 1,2 geklettert von fast 1,08 im letzten halben Jahr.

Das senkt die Hardware-Preise zusätzlich.

dildo4u
2020-09-01, 19:18:29
Efo-YDWnnpw

Nazar
2020-09-01, 19:18:42
Wenn die 2080Ti einen Faktor von 3,2 hat und die 2080Ti in Time Spy Extreme 6600 Punkte schafft (meine 2080 TI macht 7300+ GPU Punkte) und die 3080 liegt beim Faktor 4,5, dann würde eine 3080 gut 8600+ GPU Punkte in Time Spy-E schaffen.
Nehme ich meine Karte als Basis (OC), werden es natürlich deutlich mehr GPU Punkte in Time Spy-E ( Over 10.200) für die 3080.
Damit wäre die 3080 in TS-E gut zwischen 30 und 40% schneller als eine 2080Ti.

Zumindest in TS-E. ;)

An die empörten wegen den Pascal -> Ampere Vergleich: https://youtu.be/QKx-eMAVK70?t=1886
Einfach selbst zu hören. Ziemlich eindeutig, was gemeint war.

Kannst du einfach mal aufhören zu trollen!?
Wenn du etwas zu sagen hast, dann sag es oder schweig still!
Dieses dämliche "ich sehe was was du nicht siehst", ist unterstes Kindergartenniveau! :mad:

ChaosTM
2020-09-01, 19:20:17
Die 3080er mit 20 GB könnte NV mit dem Kürzel "ti" ausliefern - nach dem BigN Launch.. ;)

Gouvernator
2020-09-01, 19:20:28
Man muss bei den langen Balken den DLSS Schrott rausfiltern.

Nativ 4K schafft 3080 in Control 38 FPS.

3090 in 8K
Control - 8 FPS
Death Stranding 30 FPS
Wolfenstein 30 FPS
Forza Horizon 78 FPS
https://www.nvidia.com/de-de/geforce/technologies/8k/

Digidi
2020-09-01, 19:20:41
Es fehlt der Ganze ROP und Frontend Infos. Auch die Infos zu FP64 (wenn überhaupt noch vorhanden?) fehlen. Woher soll die Fläche für 10.000 Shader kommen? Da muss einiges weggespart worden sein.

r3ptil3
2020-09-01, 19:21:57
Der8auer stellt ab 19.25 mit ASUS die neuen Produkte vor.
Dürfte wohl nicht uninteressant sein.

https://www.youtube.com/watch?v=Hl6ZP28HPBI

HOT
2020-09-01, 19:22:17
Ich bin etwas überrascht von der Fairness. Doppelte Speicher, moderate Preise... hat da jemand gelernt? ;).

Troyan
2020-09-01, 19:22:35
Man muss bei den langen Balken den DLSS Schrott rausfiltern.

Nativ 4K schafft 3080 in Control 38 FPS.

3090 in 8K
Control - 8 FPS
Death Stranding 30 FPS
Wolfenstein 30 FPS
Forza Horizon 78 FPS
https://www.nvidia.com/de-de/geforce/technologies/8k/

Wo? Ich sehe nirgendwo nur Raytracing Benchmarks. Und 38FPS wäre ziemlich fett. Meine 2080TI ist irgendwo bei 25FPS...

dildo4u
2020-09-01, 19:23:05
Ich bin etwas überrascht von der Fairness. Doppelte Speicher, moderate Preise... hat da jemand gelernt? ;).
Sie haben Samsung gegen TSMC ausgespielt, die Option war vorher vermutlich nicht gegeben.

MartinRiggs
2020-09-01, 19:23:53
Es bleibt spannend, ich will harte PCGH Tests weil ich glaube das ohne DLSS und RTX On gar nicht soviel Vorteil für die 3070 und 3080 übrig bleibt und daher glaube ich auch noch nicht das man die 2080ti verramschen muss.

Die 3090 ist natürlich absolut pervers, aber auch da will ich sehen was die in freier Wildbahn schafft.

pixeljetstream
2020-09-01, 19:24:11
2X FP32 THROUGHPUT

Haben die doppelt so viele FP32 module verbaut pro SM? So ganz glaube ich die 10000 Cuda Cores nicht.


https://youtu.be/QKx-eMAVK70?t=1023

sieht man ganz links wie das layout sich aendert.

das problem an den "cuda cores" war das die eh schon immer mehr marketing name waren, so konnte man einfach cores * clocks = tflops rechnen, damit das so bleibt hast halt jetzt die grossen zahlen.

mehr details gibts die Tage mit den ueblichen Architektur Schaubildern und mehr Beschreibung was an der Architektur geaendert wurde.

Gouvernator
2020-09-01, 19:24:14
Für alte Games kann man Forza's 78 FPS/8K ganz gut interpolieren. Sprich alles was bis jetzt in 4k@60FPS lief wird genau so in 8K laufen können.

Gouvernator
2020-09-01, 19:25:00
Wo? Ich sehe nirgendwo nur Raytracing Benchmarks. Und 38FPS wäre ziemlich fett. Meine 2080TI ist irgendwo bei 25FPS...
https://www.nvidia.com/de-de/geforce/technologies/dlss/
Mit DLSS@3090 wäre Control in 4K 120Hz sogar möglich.

MasterElwood
2020-09-01, 19:25:26
Der8auer stellt ab 19.25 mit ASUS die neuen Produkte vor.
Dürfte wohl nicht uninteressant sein.

https://www.youtube.com/watch?v=Hl6ZP28HPBI

PSA: Es IST jetzt 19:25

NAH - Ankündigung anscheinend 19:40

Sweepi
2020-09-01, 19:25:36
Kannst du einfach mal aufhören zu trollen!?
Wenn du etwas zu sagen hast, dann sag es oder schweig still!


Naja, im Audio und in der Slide davor wird gesagt wie toll Pascal ist eine Slide vor DLSS vs non DLSS zeigen sie, das Turing nicht viel schneller als Pascal zum gleichen Preis ist, da hat er Recht.

Fragman
2020-09-01, 19:25:49
Die 3080er mit 20 GB könnte NV mit dem Kürzel "ti" ausliefern - nach dem BigN Launch.. ;)

Bis 1K Euro hoch werden sich schon die Customs der 3080 setzen, wenn das genauso bekloppt läuft wie bei Turing. Mal den Stream von Asus jetzt abwarten, ob sie Preise nennen.

Troyan
2020-09-01, 19:26:34
Bis 1K Euro hoch werden sich schon die Customs der 3080 setzen, wenn das genauso bekloppt läuft wie bei Turing. Mal den Stream von Asus jetzt abwarten, ob sie Preise nennen.

Wenn die FE 699€ kostet und wirklich so gut ist, dann werden die Customs nicht höher gehen. Außer die FE sind ASAP ausverkauft.

NC
2020-09-01, 19:27:16
Mal den Stream von Asus jetzt abwarten, ob sie Preise nennen.wo gibt es den asus stream?

Linmoum
2020-09-01, 19:27:47
RTX 3090 is 50% faster than the Titan RTX at 4K
https://mobile.twitter.com/hms1193/status/1300844870307917824

Wären dann 40-45% ggü. der 2080Ti. Nachdem sie sich heute gegen diese Benchmark entschieden haben, wird das immer realistischer.

Digidi
2020-09-01, 19:28:00
Wenn das Bild stimmt sieht man 7 GPCs

y33H@
2020-09-01, 19:28:13
“RTX 3090 is a beast — a big ferocious GPU,” Huang said. “A BFGPU.”

At 4K it’s up to 50 percent faster than the TITAN RTX before it.

https://blogs.nvidia.com/blog/2020/09/01/nvidia-ceo-geforce-rtx-30-series-gpus/

Troyan
2020-09-01, 19:28:19
https://www.nvidia.com/de-de/geforce/technologies/dlss/
Mit DLSS@3090 wäre Control in 4K 120Hz sogar möglich.


Top, danke. 96FPS sind >50% der 2080TI. Ich lande in Control mit DLSS und Übertaktung bei ~60FPS. Mal mehr, mal auch nur 50FPS.

Wow.

dildo4u
2020-09-01, 19:29:14
:lol: Nvidia hat 3070 mit 8 und 12 Pin auf der Seite.


https://www.resetera.com/threads/geforce-special-event-keynote-ot-amped-for-next-jen.278543/page-44#post-44091605

w0mbat
2020-09-01, 19:30:16
Ich bin positiv überrascht, vor allem von den Preisen. Tuing hat sich wohl deutlich schlechter verkauft als Pascal, oder Samsung verschenkt seinen 8nm Prozess.

Wie dem auch sei, ich warte mal die benchmarks ab. Wenn sie reinhauen wird es vielleicht eine 3070 im Oktober :)

dargo
2020-09-01, 19:31:12
Die qualität deiner beiträge hat schon arg abgenommen. Fand dich früher mal echt nett und lesenswert hier, aber in letzter zeit bist du ziemlich seltsam drauf. Im RL kommen solche sprüche meist von genau den leuten, die zu den großen gehören wollen, es aber nicht tun.
Du definierst Größe anhand belangloser Hardware? Ich lach mich schlapp... ;D

gedi
2020-09-01, 19:31:40
Wo? Ich sehe nirgendwo nur Raytracing Benchmarks. Und 38FPS wäre ziemlich fett. Meine 2080TI ist irgendwo bei 25FPS...

Okay 8k-aber bis auf Horizon alles unspielbar. Tangiert mich allerdings nicht wirklich. Aber je länger ich mir die Benches anschaue, hmm-sieht nicht wirklich besser aus, als das was man von der XBOX erwarten würde. Ich nehme die 52CU der XBOX bei 150W, auch dann habe ich 3070 Performance. Von daher abwarten

Linmoum
2020-09-01, 19:32:02
https://blogs.nvidia.com/blog/2020/09/01/nvidia-ceo-geforce-rtx-30-series-gpus/Ah, danke. Erklärt natürlich alles. Außer den Hype-Train. Aber hey, die 3080 ist ja 2x schneller wie die 2080. ;D

dildo4u
2020-09-01, 19:32:11
Bei den Preisen wirds eine PS5 und 3070 wie geil.

MasterElwood
2020-09-01, 19:32:35
Ausserdem: es war ein 8!!!K LG OLED

"More telling is a demo that can’t be shown remotely — gameplay running at 60 fps on an 8K LG OLED TV — because video-streaming services don’t support that level of quality."

https://blogs.nvidia.com/blog/2020/09/01/nvidia-ceo-geforce-rtx-30-series-gpus/

dildo4u
2020-09-01, 19:32:43
Ah, danke. Erklärt natürlich alles. Außer den Hype-Train. Aber hey, die 3080 ist ja 2x schneller wie die 2080. ;D
Die Boderlands Werte der 3080 sind ohne DLSS und RTX.

Thunder99
2020-09-01, 19:33:07
Zu welchem Preis in der Leistungsaufnahme schaffen sie die Performance? Wurden ehrliche vergleichbare Settings genommen?

Ich warte ab bis die Karten richtig unter die Lupe genommen werden ;). Und nebenbei, die 3080 ist der "Müll" vom GA102.

Ravenhearth
2020-09-01, 19:33:30
28 Mrd. auf Samsungs 8nm Prozess. Unglaublich. Die sollten einfach das Geschäft von Samsung kaufen. Samsung kann kaum SoCs vernünftig produzieren und nVidia lässt den zweit größten GPU-Chip bei denen laufen...
Probleme macht ja auch Samsung 7nm und nicht 8nm. Nvidia kann auch nicht zaubern. Sonst wäre Ampere in 7nm gekommen ;)

Gouvernator
2020-09-01, 19:35:01
Top, danke. 96FPS sind >50% der 2080TI. Ich lande in Control mit DLSS und Übertaktung bei ~60FPS. Mal mehr, mal auch nur 50FPS.

Wow.
Man kann anhand von Control Benches sogar ausrechnen was 8K DLSS kostet...
96 FPS 4K DLSS RTX3080
60 FPS 8K DLSS RTX3090
Grob doppelte Leistung. Bei Death Stranding wäre 3090 also in 4K DLSS bei 160 FPS. Wolfenstein 150 FPS. Gerade richtig für 120 Hz HDMI 2.1

Finch
2020-09-01, 19:35:15
Die 3080 wird es wohl bei mir werden.

TheAntitheist
2020-09-01, 19:36:41
Ah, danke. Erklärt natürlich alles. Außer den Hype-Train. Aber hey, die 3080 ist ja 2x schneller wie die 2080. ;D
nö als

Ex3cut3r
2020-09-01, 19:36:59
3080 erscheint mir auch Rund. Aber mit 20GB

Troyan
2020-09-01, 19:37:03
Probleme macht ja auch Samsung 7nm und nicht 8nm. Nvidia kann auch nicht zaubern. Sonst wäre Ampere in 7nm gekommen ;)

7nm ist mit EUV. Steht außer Frage. Es ist trotzdem ein Erfolg für nVidia auf einem Prozess mit halber Packdichte zu TSMC 7nm so einen Chip überhaupt produzieren zu können. Die 3080 wird dermaßen weggehen, dass bei Samsung eigentlich alle anderen Nodes Pause machen müssten...

w0mbat
2020-09-01, 19:37:36
BTW:

RTX 3070 = $499 = 418,67€ + 16% MwSt. = 485,66€
RTX 3080 = $699 = 586,38€ + 16% MwSt. = 680,20€
RTX 3090 = $1499 = 1257,42€ + 16% MwSt. = 1458,61€

SKYNET
2020-09-01, 19:38:00
Finde das 8 und 10 GB Speicher viel zu wenig sind. die 3090 ist ja eine Titan also nur für enthusiasten. Ich bin enttäuscht wegen der Größe vom Speicher. Hoffentlich kann AMD diesmal im Highend Bereich mithalten... Dann wird es ne AMD mit 16 GB Speicher.

Gibt schon genug Spiele wo 8 GB zu wenig sind und ausgelagert wird. Dumme idee von Nvidia.


warte doch 2 monate... dann kommt die 20GB version, und die liegt dann sicherlich immernoch deutlich unter 1000 taler

dildo4u
2020-09-01, 19:38:18
BTW:

RTX 3070 = $499 = 418,67€ + 16% MwSt. = 485,66€
RTX 3080 = $699 = 586,38€ + 16% MwSt. = 680,20€
RTX 3090 = $1499 = 1257,42€ + 16% MwSt. = 1458,61€
Die Preise sind schon auf der Website 500€,700€ und 1500€.

https://i.imgur.com/AUkvKD2.png

kunibätt
2020-09-01, 19:38:34
GPU-Stacks werden mit dem Kühler-Design der 3080 wohl auch nicht wirklich gehen oder?

EPIC_FAIL
2020-09-01, 19:38:42
Denke auch, dass ich von der 1070 auf die 3080 wechseln werde. Wenn der VRAM nicht reicht dann ist es bestimmt in allen Spielen möglichen 1-2 Checkboxen abzuhaken um unter 10GB Verbrauch zu kommen und damit Stuttering zu vermeiden.

Sardaukar.nsn
2020-09-01, 19:38:48
Die 3080 könnte meine 1080Ti beerben. Aber ich warte noch auf Custom Designs, da der Kühler eh durch durch einen Wasserblock ersetzt wird. Ich befürchte das neue Lüfterkonzept funktioniert nicht so gut mit einem vertikalen Einbau. Ausserdem möchte ich meine schicken 2x8 Stromstecker behalten :rolleyes: siehe Signatur

Daredevil
2020-09-01, 19:39:15
Dann warten wir mal auf Big CuteNavi :D
Nvidia hat abgeliefert und deutlich überrascht durch Leistung, Features und ohne Konsequenz. Habe weniger und teurer erwartet, Starke Vorstellung. :)

Die Streamer Features sind Klasse!

Grendizer
2020-09-01, 19:40:11
Streamerfeatures ... keine grün angehauchten Haare mehr :biggrin:

SKYNET
2020-09-01, 19:41:04
Doppelte Leistung bei einem günstigeren Preis.
Wann hat es das zuletzt bei Nvidia gegeben?


tjo, die wissen was mit RDNA2 auf sie zurollt... darum müssen sie die preise im keller halten, denke AMD wird uns ALLE überraschen... freue mich sehr auf das dickschiff von AMD :biggrin:

und im notfall wirds ne 3080 20G :freak:

Linmoum
2020-09-01, 19:41:34
Nvidia hat abgeliefert und deutlich überrascht durch Leistung, Features und ohne Konsequenz. Habe weniger und teurer erwartet.
+50% einer 3090 zur Titan RTX hast du weniger erwartet? Das hat doch jeder so vorhergesagt. Beim Rest konnte man gar nichts erwarten da einfach völlig unklar.

dargo
2020-09-01, 19:42:15
RTX 3090 is 50% faster than the Titan RTX at 4K
https://mobile.twitter.com/hms1193/status/1300844870307917824

Wären dann 40-45% ggü. der 2080Ti. Nachdem sie sich heute gegen diese Benchmark entschieden haben, wird das immer realistischer.
Wie zum Henker rechnet sich Nvidia dann die FP32 TFLOPs schön? :confused: Ich fürchte Ampere TFLOPs werden überhaupt nicht mehr mit RDNA 2 TFLOPs vergleichbar sein. Bei Turing vs. RDNA 1 passte das noch in etwa.

Digidi
2020-09-01, 19:42:48
Dann warten wir mal auf Big CuteNavi :D
Nvidia hat abgeliefert und deutlich überrascht durch Leistung, Features und ohne Konsequenz. Habe weniger und teurer erwartet, Starke Vorstellung. :)

Die Streamer Features sind Klasse!

Was Nvidia abgeliefert hat wissen wir doch garnicht. Wir kennen der Rest der Daten noch gar nicht. FP64 und Int32 Leistung? Anzahl Rasterizer? Anzahl Texturunits? Frontende aufbau??? So viele Fragen

Was wir wissen das Nvidia voll auf FP32 setzt. (Vermute aber dfas FP64 und INT 32 darunter massiv leiden)

@Dargo
Die haben nur noch FP32 units im Kern. Schätze alles andere bis auf Tensor Cores ist raus. Bei weglassen von FP64 wird massiv Platz frei.

Zergra
2020-09-01, 19:43:48
Interessant ist eher das total viel falsch war. Alleine die Benchmarks usw. Preise auch total daneben.

Hauwech
2020-09-01, 19:44:13
tjo, die wissen was mit RDNA2 auf sie zurollt... darum müssen sie die preise im keller halten, denke AMD wird uns ALLE überraschen... freue mich sehr auf das dickschiff von AMD :biggrin:

und im notfall wirds ne 3080 20G :freak:

Oder Samsung war/ist wirklich abartig billig so das sie noch die gleichen Margen wie vorher fahren können - trotz wohl nicht billigem 3090 Kühler.

Linmoum
2020-09-01, 19:44:26
Achja, hier meinten vor zwei Wochen ja noch Leute, dass 900€ für eine 2080Ti ja gar kein so schlechter Preis im Abverkauf sind. ;D War einfach klar, dass die Leute ihr Geld zum Fenster rausgeworfen haben. Mit Ansage.

Cubitus
2020-09-01, 19:44:34
tjo, die wissen was mit RDNA2 auf sie zurollt... darum müssen sie die preise im keller halten, denke AMD wird uns ALLE überraschen... freue mich sehr auf das dickschiff von AMD :biggrin:

und im notfall wirds ne 3080 20G :freak:

Alle Jahre wieder...
Ich höre schon seit 2008 immer die selbe Grütze..

Ich wünsche es mir das AMD diesmal was abliefert.. aber ich glaube das wird nicht passieren..
Nicht in der Form..

Dural
2020-09-01, 19:44:43
3070 hat ja 20tflops

Eine volle navi2 braucht dafür rund 2ghz :freak:

Fragman
2020-09-01, 19:44:57
wo gibt es den asus stream?

https://www.youtube.com/watch?v=Hl6ZP28HPBI

Der wird hier dann gleich gezeigt.

Elite_Warrior
2020-09-01, 19:47:09
Die 3070: Leistung hui! Speicher pfui! :sneak:

NC
2020-09-01, 19:47:43
https://www.youtube.com/watch?v=Hl6ZP28HPBI

Der wird hier dann gleich gezeigt.
danke danke danke!

dildo4u
2020-09-01, 19:47:45
Karten sind schon bei den Testern.

cWD01yUQdVA

Zergra
2020-09-01, 19:47:57
Die 3070: Leistung hui! Speicher pfui! :sneak:

Da kommt garantiert noch was größeres.

Also beim Speicher.

HOT
2020-09-01, 19:49:40
3070 hat ja 20tflops

Eine volle navi2 braucht dafür rund 2ghz :freak:
Na ja, so ganz stimmt das nicht ;). Turing hatte ja schon Int32-Einheiten, die Navi nicht hat und setzte damit "versteckt" ja ebenfalls Rechenleistung frei. Die Int-Einheiten sind jetzt offenbar zu FP-Einheiten geworden.

SKYNET
2020-09-01, 19:49:56
Oder Samsung war/ist wirklich abartig billig so das sie noch die gleichen Margen wie vorher fahren können - trotz wohl nicht billigem 3090 Kühler.


du glaubst doch nicht das TSMC PRO chip über $100 teurer war, erstrecht mit dem uralt 12nm prozess... und dann ist das PCB jetzt DEUTLICH teurer als das alte... denen geht der kackstift, und die wissen alle warten auf RDNA2 und wollen sehen was AMD liefert... und durch den preis werden viele die warten sagen "ah egal, für den preis mache ich nicht viel falsch, kaufe ich ne 3080" ;)

Dural
2020-09-01, 19:50:08
Die 3070 kommt auch mit 16gb.

Ravenhearth
2020-09-01, 19:51:39
Navi wird sich mit der 3070 beschäftigen müssen, 512bit, 500mm2, 7nmm :freak::freak::freak:
So ein Unsinn. Die 3070 ist knapp schneller als die 2080 Ti, also ~50% über der 5700XT. Wieso soll Big Navi mit doppelt so vielen CUs nur 50% drauflegen?

RTX 3090 is 50% faster than the Titan RTX at 4K
https://mobile.twitter.com/hms1193/status/1300844870307917824

Wären dann 40-45% ggü. der 2080Ti. Nachdem sie sich heute gegen diese Benchmark entschieden haben, wird das immer realistischer.
Die Titan RTX ist doch schneller? Wären also 60-70% gegenüber der 2080 Ti

Athlonxp
2020-09-01, 19:52:16
https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/rtx-3090/

:D

Troyan
2020-09-01, 19:52:20
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-30-series/geforce-rtx-30-series-delivers-up-to-2x-performance.png
https://www.nvidia.com/en-us/geforce/news/introducing-rtx-30-series-graphics-cards/?nvid=nv-int-gfhm-43495#cid=_nv-int-gfhm_en-us

Alter, ist wie eine Schnitzel-Jagd.

Elite_Warrior
2020-09-01, 19:53:16
Die 3070 kommt auch mit 16gb.

Stelle ich mir nicht so simpel vor. Wenn man nun die early adopter abfrühstückt und kurze Zeit später eine Ti mit doppelten Speicher gegen Navi reinwirft. Würde doch garantiert böses Blut unter den Käufern geben oder?

w0mbat
2020-09-01, 19:53:17
Alle Jahre wieder...
Ich höre schon seit 2008 immer die selbe Grütze..

Ich wünsche es mir das AMD diesmal was abliefert.. aber ich glaube das wird nicht passieren..
Nicht in der Form..
HD5870, HD7970, R9 290 und Navi vergessen?

AMD hatte häufiger das bessere Produkt.

Dampf
2020-09-01, 19:53:18
Schnitzeljagd juhu, wer fängt die Graphen!

Ich finds toll :D

WedgeAntilles
2020-09-01, 19:53:39
tjo, die wissen was mit RDNA2 auf sie zurollt... darum müssen sie die preise im keller halten, denke AMD wird uns ALLE überraschen... freue mich sehr auf das dickschiff von AMD :biggrin:

und im notfall wirds ne 3080 20G :freak:

Ich habe schon vor zig Wochen gesagt, dass AMD mit BigNavi überraschen wird.
Nämlich, dass BigNavi ein absolutes Verkaufsdebakel wird.

Nach den aktuellen Preisen und vorläufigen Performance-Werten die uns Nvidia hier liefert deutet sich IMO sehr deutlich an, dass ich richtig lag.

Nvidia hat gezeigt, wo der Bartel den Most holt.
Bei AMD liefert der Hypetrain im Vorfeld.
Nvidia liefert bei den echten Produkten.

Ja, vielleicht wird BigNavi noch phantastisch toll, billig, schnell und was sonst noch.
Kann theoretisch noch passieren.
Ich glaube nicht dran.

Raff
2020-09-01, 19:54:04
Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos (https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-BFGPU-1357318/)

499 Euro
699 Euro
1.499 Euro

Ja, Euro, inklusive Mehrwertsteuer.

MfG
Raff

maximus_hertus
2020-09-01, 19:54:30
Ich bin leider noch unterwegs - gibt es Benchmarks ohne RTX und DLSS mit der 3070, 3080 und der 2080 Ti?

gedi
2020-09-01, 19:54:54
Dann warten wir mal auf Big CuteNavi :D
Nvidia hat abgeliefert und deutlich überrascht durch Leistung, Features und ohne Konsequenz. Habe weniger und teurer erwartet, Starke Vorstellung. :)

Die Streamer Features sind Klasse!

Naja, abwarten. Die Preise lassen nix gutes erahnen

Troyan
2020-09-01, 19:56:43
Ich bin leider noch unterwegs - gibt es Benchmarks ohne RTX und DLSS mit der 3070, 3080 und der 2080 Ti?

Siehe oben. Denk dir 20% auf die 2080S hinzu. Irgendwas zwischen 35% bis 50% zur 2080TI. vOder schau dir das Video von Digitalfoundry von oben an.

Neosix
2020-09-01, 20:00:17
Müsste man nicht in Deutschland 3% weniger zahlen? :D

Ravenhearth
2020-09-01, 20:01:05
Zwei Beobachtungen: Die 1.9x Perf/W beziehen sich nur auf den Stromverbrauch bei gleicher FPS, ist ja klar dass die Effizienz massiv nach oben geht, wenn man die neue Karte auf die Leistung der alten limitiert. Beim gleichen Verbrauch sieht es eher nach 1,5x Performance, also auch Perf/W aus. Und beim realen Verbrauch bleiben noch ~35% mehr Perf/W übrig.

Zweitens scheinen die verdoppelten Shader nur teilweise durchzuschlagen: Die 3080 hat doppelt so viele CUDA Cores wie die 2080 Ti, ist aber laut Nvidia "nur" 40% schneller. Über die Gründe kann man aktuell nur spekulieren. Vielleicht wurden die 64 INT-Einheiten pro SM durch die FP-Einheiten ersetzt, eine Verdopplung kann da gar nicht bei rumkommen. Wobei das allein als Erklärung wohl auch nicht ausreicht.

dargo
2020-09-01, 20:01:37
Karten sind schon bei den Testern.

https://youtu.be/cWD01yUQdVA
Doch ordentliche Performancesteigerung gegenüber dem Vorgänger ohne DLSS. Aber warum keine FPS-Anzeige sondern nur Prozent?

Ich habe schon vor zig Wochen gesagt, dass AMD mit BigNavi überraschen wird.
Nämlich, dass BigNavi ein absolutes Verkaufsdebakel wird.

Du bekommst gleich den zweiten virtuellen Keks von mir für deine unerreichbaren Fähigkeiten. Ein Übermensch!

bloodflash
2020-09-01, 20:01:52
Ich habe schon vor zig Wochen gesagt, dass AMD mit BigNavi überraschen wird.
Nämlich, dass BigNavi ein absolutes Verkaufsdebakel wird.



Ähm, nV macht 'ne *Verkaufsveranstaltung* für Fans ohne echte Vergleichswerte zur *eigenen* Vorgängergeneration und Du hast schon den Papst in der Tasche?


Trägst Du eine Lederjacke?

TheGamer
2020-09-01, 20:01:58
3090 gekauft

SoDoM-XP
2020-09-01, 20:03:53
Stelle ich mir nicht so simpel vor. Wenn man nun die early adopter abfrühstückt und kurze Zeit später eine Ti mit doppelten Speicher gegen Navi reinwirft. Würde doch garantiert böses Blut unter den Käufern geben oder?

Na, das macht NV nichts, schau wie krass die 2080 ti nun entwertet wurde, wenn sich die angekündigte Leistung bewahrheiten wird.

Troyan
2020-09-01, 20:04:07
Zwei Beobachtungen: Die 1.9x Perf/W beziehen sich nur auf den Stromverbrauch bei gleicher FPS, ist ja klar dass die Effizienz massiv nach oben geht, wenn man die neue Karte auf die Leistung der alten limitiert. Beim gleichen Verbrauch sieht es eher nach 1,5x Performance, also auch Perf/W aus. Und beim realen Verbrauch bleiben noch ~35% mehr Perf/W übrig.


Liegt an der Problematik der Transistorskalierung. Du kannst Spannung nicht mehr weitgenug senken. Also muss deine Architektur effizienter und vorallem breiter werden. Dagegen kann jedoch besser nach oben skaliert werden. Bei Turing macht alles über 300W eigentlich kein Sinn mehr und wird richtig ineffizient. Bei Ampere auf 8nm geht es eben noch ein Stück weiter ohne von der Klippe zu fallen.

Ex3cut3r
2020-09-01, 20:04:15
Doch ordentliche Performancesteigerung gegenüber dem Vorgänger ohne DLSS. Aber warum keine FPS-Anzeige sondern nur Prozent?
Jo. Teilweise 60-90% von meiner 2080 aus. Das lohnt sich, jetzt mit 20GB bitte und ich wurde gerne wechseln.

Loeschzwerg
2020-09-01, 20:04:30
Karten sind schon bei den Testern.

https://youtu.be/cWD01yUQdVA

Das ist schon sehr sehr ordentlich. Will gar nicht wissen wie dann erst die 3090 abschneidet.

Linmoum
2020-09-01, 20:04:50
Da der tatsächliche Verbrauch noch nicht bekannt ist, hat man nur die Papier-Daten von Turing (260W für die FE) und Ampere (350W für die 3090). Das ist der 1.35x Verbrauch, laut Jensen selbst in UHD aber nur die 1.5x Performance einer 3090 ggü. der Titan RTX (da Marketing noch mal 5-10% weniger im Schnitt). Das ist schon übel und da wir mit Samsung die Bestätigung jetzt auch offiziell haben kann es eigentlich nur am Prozess liegen.

TheAntitheist
2020-09-01, 20:05:00
3090 gekauft
jopp bei mir auch, aber nur weil content creator, brauche den VRAM zum arbeiten und da ist der Preis echt günstig gegenüber der alten quadro mit 24GB. Die lag bei 6000+. für ein viertel des geldes doppelte Leistung ist dann schon extrem nett.

ianm
2020-09-01, 20:06:08
Könnten Titan und 3080ti in ein paar Monaten in 7nm TSMC kommen?

kunibätt
2020-09-01, 20:06:42
jopp bei mir auch, aber nur weil content creator, brauche den VRAM zum arbeiten und da ist der Preis echt günstig gegenüber der alten quadro mit 24GB. Die lag bei 6000+. für ein viertel des geldes doppelte Leistung ist dann schon extrem nett.

Geht mir ähnlich, aber die Karte ist mit 3 Slots zu breit zum stacken und dazu einfach zu lang :freak:

r3ptil3
2020-09-01, 20:09:47
Was?? Der Kollege von Digital Foundry darf Ergebnisse schon veröffentlichen?
Das ist ja beinahe die doppelte Performance zur 2080. :eek:

Ravenhearth
2020-09-01, 20:11:02
Da der tatsächliche Verbrauch noch nicht bekannt ist, hat man nur die Papier-Daten von Turing (260W für die FE) und Ampere (350W für die 3090). Das ist der 1.35x Verbrauch, laut Jensen selbst in UHD aber nur die 1.5x Performance einer 3090 ggü. der Titan RTX (da Marketing noch mal 5-10% weniger im Schnitt). Das ist schon übel und da wir mit Samsung die Bestätigung jetzt auch offiziell haben kann es eigentlich nur am Prozess liegen.
Wenn wir nach Nvidias Daten gehen, sieht es eher nach +70% zwischen 3090 und 2080 Ti aus, bei 30% mehr Verbrauch (350 vs. 270W). Macht +30% Perf/W. Ist allerdings das Optimum, wenn die 3090 nicht ganz so schnell ist oder mehr verbraucht, sinds weniger.

Linmoum
2020-09-01, 20:11:53
Wenn wir nach Nvidias Daten gehen, sieht es eher nach +70% zwischen 3090 und 2080 Ti aus, bei 30% mehr Verbrauch (350 vs. 270W). Macht +30% Perf/W. Ist allerdings das Optimum, wenn die 3090 nicht ganz so schnell ist oder mehr verbraucht, sinds weniger.Ich beziehe mich auf das, war Marc verlinkt hatte. Zumal es selbst da nur "up to" heißt.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12410312&postcount=8790

Mehr offiziell geht nicht.

dargo
2020-09-01, 20:12:29
Jo. Teilweise 60-90% von meiner 2080 aus. Das lohnt sich, jetzt mit 20GB bitte und ich wurde gerne wechseln.
Die Leistung passt. Wenn es aber nachher wirklich heißt 320W vs. 240W dann sieht das nicht mehr so toll aus. Und diese Wattagen erwähnte Lederjacke sogar persönlich, wird also schon was dran sein.

aufkrawall
2020-09-01, 20:13:29
Zur Effizienz kann man ja einfach die Milchmädchenrechnung 2080 Ti vs. 3070 aufmachen:
Vermutlich minimal höhere Leistung bei nur 40W weniger TDP (wohl in beiden Fällen die 100% PT, die relativ strikt eingehalten werden und in hungrigen Spielen/Szenen ca. der Durchschnittsverbrauch sind).
Also wirklich ziemlich meh. Aber gut, wenn der Preis stimmt und es noch eine 16GB-Variante geben sollte...

unl34shed
2020-09-01, 20:14:11
Zweitens scheinen die verdoppelten Shader nur teilweise durchzuschlagen: Die 3080 hat doppelt so viele CUDA Cores wie die 2080 Ti, ist aber laut Nvidia "nur" 40% schneller. Über die Gründe kann man aktuell nur spekulieren. Vielleicht wurden die 64 INT-Einheiten pro SM durch die FP-Einheiten ersetzt, eine Verdopplung kann da gar nicht bei rumkommen. Wobei das allein als Erklärung wohl auch nicht ausreicht.

Wenn es wie ein Umbau der INT ALUs auf FP32 ist, könnte das hinkommen. Die INT ALUs haben laut Nvidia ja ca. 30% der Leistung ausgemacht, fallen die weg, kommst du auf 2/1,3=1.5% mit abnehmendem Grenzertrag können die 40% daher stimmen.

Ex3cut3r
2020-09-01, 20:14:34
Die Leistung passt. Wenn es aber nachher wirklich heißt 320W vs. 240W dann sieht das nicht mehr so toll aus. Und diese Wattagen erwähnte Lederjacke sogar persönlich, wird also schon was dran sein.
Ich betreibe meine 2080 schon seit rls. MiT einem 200W PT. Bei der 3080 könnte ich auch nochmal 40-50W runter gehen.

anorakker
2020-09-01, 20:14:45
Wow! Impressive! Mit so einem Leistungsboost habe ich auch nicht gerechnet.
Mich würde aber interessieren, was meine flotte MSI 2080Ti in real dann hinter der 3080FE ist.

BiZiNiZz
2020-09-01, 20:15:07
Wenn wir nach Nvidias Daten gehen, sieht es eher nach +70% zwischen 3090 und 2080 Ti aus, bei 30% mehr Verbrauch (350 vs. 270W). Macht +30% Perf/W. Ist allerdings das Optimum, wenn die 3090 nicht ganz so schnell ist oder mehr verbraucht, sinds weniger.

Aktuell kannst du soviel rechnen wie du willst, aber über den Verbrauch wissen wir nichts genaues. Die 350 Watt der 3090 können auch nur dann von Bedeutung sein, wenn die Shader+RT+Tensor laufen. Wenn nur Shader laufen und dafür z.B. nur 250 Watt gegönnt werden, sieht deine Rechnung komplett anders aus. Daher einfach mal abwarten wenn die Tests kommen bevor man mit irgendetwas rechnet.

Grendizer
2020-09-01, 20:15:21
Die Leistung passt. Wenn es aber nachher wirklich heißt 320W vs. 240W dann sieht das nicht mehr so toll aus. Und diese Wattagen erwähnte Lederjacke sogar persönlich, wird also schon was dran sein.

Ja das ist richtig, die Frage wird dann sein, wie "laut" das Kühldesign am Ende des Tages ist. Mehr Verbrauch ist immer unschön und die falsche Richtung, wenn es aber nicht in höheren Lautstärken der Karten endet, weil man sich mehr Gedanken um die Kühlung gemacht hat, kann ich damit leben.

Grendizer
2020-09-01, 20:17:06
Das nVidia Reflex scheint dann halt auch neue Gsync Module /Monitore zu benötigen.

Bei Asus ein FHD, 360fps 24 Zoll Monitor für 699 ...

00-Schneider
2020-09-01, 20:18:21
3070 ist sehr interessant für den Preis. 2080Ti Leistung für nur 500 Geldeinheiten?

WOW

w0mbat
2020-09-01, 20:18:28
Könnten Titan und 3080ti in ein paar Monaten in 7nm TSMC kommen?
Mit nem anderen Chip, ja. Mit dem selben, nein.

Dural
2020-09-01, 20:22:04
Ampere stampft navi in grund und boden, manche sind echte realitäts verweigerer!

2ghz braucht ein voller navi für die 20tflops der 3070!

Amd wird bei den preisen navi kaum rentabel herstellen können, können das ding auch gleich einstellen.

sChRaNzA
2020-09-01, 20:22:14
3070 ist sehr interessant für den Preis. 2080Ti Leistung für nur 500 Geldeinheiten?

WOW

Und 8GB RAM. Wow.

ianm
2020-09-01, 20:23:11
Natürlich muss das Chiplayout an 7nm TSMC angepasst werden, aber es gab ja genug Gerüchte, dass Nvidia zumindest neben den Quadros noch was anderes herstellen lässt.

SKYNET
2020-09-01, 20:24:02
Zur Effizienz kann man ja einfach die Milchmädchenrechnung 2080 Ti vs. 3070 aufmachen:
Vermutlich minimal höhere Leistung bei nur 40W weniger TDP (wohl in beiden Fällen die 100% PT, die relativ strikt eingehalten werden und in hungrigen Spielen/Szenen ca. der Durchschnittsverbrauch sind).
Also wirklich ziemlich meh. Aber gut, wenn der Preis stimmt und es noch eine 16GB-Variante geben sollte...


hinzu kommt das die 2080Ti mehr speicher hat, der auch mehr frisst... + verluste der spawas... zieht die billianz dann nochmals nach unten. :freak:

Troyan
2020-09-01, 20:24:28
Aktuell kannst du soviel rechnen wie du willst, aber über den Verbrauch wissen wir nichts genaues. Die 350 Watt der 3090 können auch nur dann von Bedeutung sein, wenn die Shader+RT+Tensor laufen. Wenn nur Shader laufen und dafür z.B. nur 250 Watt gegönnt werden, sieht deine Rechnung komplett anders aus. Daher einfach mal abwarten wenn die Tests kommen bevor man mit irgendetwas rechnet.

Karte wird dann wahrscheinlich einfach höher boosten. Die beste Effizienz ist bei geringeren Takt mit bestmöglicher Auslastung. War auch schon bei Turing gegen Pascal so, wo in Wolfenstein 2 die geringste Taktrate anlag, aber die meiste Mehrleistung erreicht wurde.

Linmoum
2020-09-01, 20:24:34
Ampere stampft navi in grund und boden, manche sind echte realitäts verweigerer!

2ghz braucht ein voller navi für die 20tflops der 3070!

Amd wird bei den preisen navi kaum rentabel herstellen können, können das ding auch gleich einstellen.Schön ist ja, dass solche Beiträge bestehen bleiben und man sie in ganzer Pracht demnächst wird bewundern dürfen. :cool:

Ampere landet genau da, wo es die ganzen Gerüchte vorausgesagt haben. Wenn man Dinge voraussagen konnte. Dahingehend keine Überraschung.

Grendizer
2020-09-01, 20:24:39
Und 8GB RAM. Wow.

Und ein paar Wochen später im Custom Design mit 16 Gb ... dann vieleicht für 599/649 Euro... keine Ahnung, aber die Aussichten sind doch gut.

ianm
2020-09-01, 20:25:53
Ampere stampft navi in grund und boden, manche sind echte realitäts verweigerer!

2ghz braucht ein voller navi für die 20tflops der 3070!

Amd wird bei den preisen navi kaum rentabel herstellen können, können das ding auch gleich einstellen.
Kannst du deinen geistigen Brechreiz woanders raus lassen? Meine Güte...

Im Gegensatz zu Nvidia gab es zu BN so gut wie nichts. Einfach abwarten und dann diskutieren.

Ravenhearth
2020-09-01, 20:26:53
Ampere stampft navi in grund und boden, manche sind echte realitäts verweigerer!

2ghz braucht ein voller navi für die 20tflops der 3070!

Amd wird bei den preisen navi kaum rentabel herstellen können, können das ding auch gleich einstellen.
Ampere erreicht mit den doppelten TFLOPs rund 40% mehr Spieleleistung. Ansonsten wäre die 3080 doppelt so schnell wie die 2080 Ti usw. Merkste selber?

Grendizer
2020-09-01, 20:27:08
Schön ist ja, dass solche Beiträge bestehen bleiben und man sie in ganzer Pracht demnächst wird bewundern dürfen. :cool:

Ampere landet genau da, wo es die ganzen Gerüchte vorausgesagt haben. Wenn man Dinge voraussagen konnte. Dahingehend keine Überraschung.

Aber das Bignavi an die 3080 locker rankommen wird, kann man so nicht mehr unbedingt vermuten.
Und der 7nm TSMC Prozess ist ja wohl auch teurer als der Samsung Prozess. Insofern wird dann die Preisgestaltung doch noch interessant werden.

Relic
2020-09-01, 20:28:34
Ich weiß gar nicht wieso hier alle ausflippen bei +50% in non RT Games und etwas mehr bei RT und DLSS solang der RAM nicht ausgeht und das bei dem Verbrauch? Für eine neue Generation die 2 Jahre gebraucht hat ist das ok aber mehr nicht...
Bin mir allerdings sicher, dass es mit 7nm TSMC einiges besser aussehen würde.
DLSS 3.0 gabs auch nicht ;)

Troyan
2020-09-01, 20:28:35
Natürlich nicht. 3080 ist >2x schneller als 5700XT und hat dabei 69% mehr Bandbreite. Von Dingen wie Raytracing sprechen wir hier auch noch nicht.

Die 3080 nimmt komplett den Wind aus AMDs Segeln.

gedi
2020-09-01, 20:29:26
Ampere stampft navi in grund und boden, manche sind echte realitäts verweigerer!

2ghz braucht ein voller navi für die 20tflops der 3070!

Amd wird bei den preisen navi kaum rentabel herstellen können, können das ding auch gleich einstellen.

Dein Gelaber ist kaum zu ertragen! Was glaubst du wem du die Preise zu verdanken hast - Trump?

Zumal NV ja noch nicht einmal weiß wie weit AMD geht. Die haben vielleicht Vergleiche aus einem Alpha-VBios und müssen solche Preise bereits im Dumping anbieten? Also bitte, bleib mal auf dem Teppich.

Über die Preise kann sich jeder freuen, egal wer was für ne GPU einbaut.

Jupiter
2020-09-01, 20:29:51
Hier wurde zuletzt noch geschrieben, dass AMDs BigNavi Nvidia überrollen wird. Mal sehen ob es das wirklich können wird ober ob das alles nur irgendwelche wirren Fantasien waren. Insbesondere beim Vergleich mit der RTX 3090 wäre ich diesbezüglich sehr vorsichtig.

Die Preise von Nvidia finde ich relativ gut, aber 10 GB für die RTX 3080 finde ich zu wenig. Schon 12 GB wären bereits deutlich besser. Die Preislücke zwischen 3080 und 3090 ist zu groß.

Ravenhearth
2020-09-01, 20:31:03
Aber das Bignavi an die 3080 locker rankommen wird, kann man so nicht mehr unbedingt vermuten.
Und der 7nm TSMC Prozess ist ja wohl auch teurer als der Samsung Prozess. Insofern wird dann die Preisgestaltung doch noch interessant werden.
Das wird in der Tat spannend. Eine verdoppelte 5700XT käme so wie es scheint nicht ganz an die 3080 ran. AMD braucht also eine verdammt gute Skalierung und mehr IPC/Takt.

Raff
2020-09-01, 20:31:10
Falls jemand etwas Belastbares über "2x FP32" liest, bitte schreien. Die T-Cores können's ja nicht sein. Danke!

MfG
Raff

Grendizer
2020-09-01, 20:31:21
Ich weiß gar nicht wieso hier alle ausflippen bei +50% in non RT Games und etwas mehr bei RT und DLSS solang der RAM nicht ausgeht und das bei dem Verbrauch? Für eine neue Generation die 2 Jahre gebraucht hat ist das ok aber mehr nicht...
Bin mir allerdings sicher, dass es mit 7nm TSMC einiges besser aussehen würde.
DLSS 3.0 gabs auch nicht ;)

Weil für das "wenige" an Mehrleistung jetzt der Preis halbwegs akzeptabel ist. Der war bei Turing einfach überzogen. Und für Leute wie mich, die sich trotz 4K Monitor mit einer 1080 rumärgern bekommt man nun für einen zwar nicht niedrigen, aber doch irgendwie noch akteptablen Preis jetzt 4K Performance für 500 Euro.

ianm
2020-09-01, 20:33:04
Natürlich nicht. 3080 ist >2x schneller als 5700XT und hat dabei 69% mehr Bandbreite. Von Dingen wie Raytracing sprechen wir hier auch noch nicht.

Die 3080 nimmt komplett den Wind aus AMDs segeln.
Warum? Nochmal, es gibt nicht annähernd soviel Gerüchte wie zu Ampere. Man sieht nur, dass Nvidia sich ganz schön streckt. Gut für den Kunden, der wieder etwas niedrigere Preise sieht.

Und 50% Mehrleistung sehe ich auch als normal an. Turing war hier echt schlecht.

Ex3cut3r
2020-09-01, 20:33:39
Nja die neue 3080Ti hat jetzt einen noch teueren Preis mit 1500€ Aber die 3080 20GB scheint das wesentliche bessere Angebot zu sein.

Mearest
2020-09-01, 20:34:40
Meint ihr ein 600 Watt netzteil reicht für eine 3080? Habe bei mir noch nie mehr wie 380 Watt gesehen mit einem Energiesmessgerät an der Steckdose. Ich warte aber auch auf BN oder eine 3080 mit 20GB.

Troyan
2020-09-01, 20:35:23
Meint ihr ein 600 Watt netzteil reicht für eine 3080? Habe bei mir noch nie mehr wie 380 Watt gesehen mit einem Energiesmessgerät an der Steckdose. Ich warte aber auch auf BN oder eine 3080 mit 20GB.

Wird knapp. Liegt ja nicht alleine am Verbrauch, sondern wie das Netzteil mit der Belastung der GPU umgeht.

basix
2020-09-01, 20:35:25
Die 3080 nimmt komplett den Wind aus AMDs Segeln.

Nur wissen wir aber noch gar nicht, wie BIG die Segel bon AMD am Schluss sind ;) Ich würde abwarten.

Die Preise für 3070 und 3080 sind im Anbetracht der Mehrleistung relativ fair. Etwas mehr Speicher wäre aber schön gewesen. Die 3090 ist aber mal wieder extrem teuer. Sie wird ca. +20% auf die 3080 drauflegen - für den doppelten Preis.

ashantus
2020-09-01, 20:35:49
Ampere stampft navi in grund und boden, manche sind echte realitäts verweigerer!

2ghz braucht ein voller navi für die 20tflops der 3070!

Amd wird bei den preisen navi kaum rentabel herstellen können, können das ding auch gleich einstellen.

a) Die aktuellen Leistungswerte sind alle unter vollem RTX Einsatz. Klassische AAA Titel kennt man die Leistung noch nicht.
b) Du weisst doch noch gar nicht was bei Navi kommen wird. Niemand weiß es, somit ist jede Behauptung dazu Quatsch.

Wenn Ampere wirklich so toll wird ggü. Navi dann kann man es sagen.
Nicht vorher.

TheGood
2020-09-01, 20:36:03
Gute präsnetation und gute Preise. Der Rest ist noch etwas dunkel, aber mit RT on und DSLL gibts einen super performanceschub ohne ist es auch gut, aber nicht so gut wie die TFLOPS es aussagen. Wer weiss was sie hier wieder zusammengerechnet haben...

Tesseract
2020-09-01, 20:36:35
Das wird in der Tat spannend. Eine verdoppelte 5700XT käme so wie es scheint nicht ganz an die 3080 ran. AMD braucht also eine verdammt gute Skalierung und mehr IPC/Takt.

grob überschlagen hat die 3080 etwa ~225% der 5700XT, da muss BN schon einiges bieten.

HOT
2020-09-01, 20:37:57
grob überschlagen hat die 3080 etwa ~225% der 5700XT, da muss BN schon einiges bieten.

Jo aber bei 50% mehr Perf/W hätte big Navi dann knapp 3080-Leistung bei weniger als 300W... NV ist hier ja diesmal weniger toll.

Zergra
2020-09-01, 20:38:35
a) Die aktuellen Leistungswerte sind alle unter vollem RTX Einsatz. Klassische AAA Titel kennt man die Leistung noch nicht.
b) Du weisst doch noch gar nicht was bei Navi kommen wird. Niemand weiß es, somit ist jede Behauptung dazu Quatsch.

Wenn Ampere wirklich so toll wird ggü. Navi dann kann man es sagen.
Nicht vorher.


Nein, Borderlands 3 hat kein DLSS oder Rt.

Kriegsgeier
2020-09-01, 20:39:09
Da Jensen keine FPS Werte beleuchtet hat und mit TFlops um sich geworfen hat glaube ich erst den Balken auf CB, HardwareLuxx oder bei Igor!

32 TFLOPS bei 3090 LOL selten so gelacht!

Dampf
2020-09-01, 20:39:33
Hier sieht man die Leistungssprünge zwischen einer 2080 und 3080 in Raster und RT:

https://www.youtube.com/watch?v=cWD01yUQdVA

Neosix
2020-09-01, 20:39:37
Und 8GB RAM. Wow.

Als FullHD Spieler stört mich das nicht. (oder noch nicht, aber in 2 Jahren kann man immer noch upgraden wenn man will)

ianm
2020-09-01, 20:39:38
Hier wurde zuletzt noch geschrieben, dass AMDs BigNavi Nvidia überrollen wird. Mal sehen ob es das wirklich können wird ober ob das alles nur irgendwelche wirren Fantasien waren. Insbesondere beim Vergleich mit der RTX 3090 wäre ich diesbezüglich sehr vorsichtig.

Die Preise von Nvidia finde ich relativ gut, aber 10 GB für die RTX 3080 finde ich zu wenig. Schon 12 GB wären bereits deutlich besser. Die Preislücke zwischen 3080 und 3090 ist zu groß.
Wer sagt denn sowas, überrollen... Fanboygelaber. Realistisch bleiben, wenn AMD an die 3080 ran kommt, bei weniger Verbrauch und mehr RAM haben sie für mich gewonnen. Egal was die 3090 macht.

AMD kann momentan doch nur positiv überraschen, weil wenn nicht, kommen eh wieder die üblichen Trolle aus ihrer Höhle und wussten alles vorher.

why_me
2020-09-01, 20:39:51
Die 3090 ist aber mal wieder extrem teuer. Sie wird ca. +20% auf die 3080 drauflegen - für den doppelten Preis.

Kann man auch anders sehen, sie ist der Nachfolger der Titan für den halben(?) Preis. :wink:

dargo
2020-09-01, 20:40:00
Ich betreibe meine 2080 schon seit rls. MiT einem 200W PT. Bei der 3080 könnte ich auch nochmal 40-50W runter gehen.
Das erinnert mich ein wenig an meine Vega64 LCE die mit beworbenen 350W verkauft wurde und dann hier mit ~200W lief. :D Kann man machen. ;) Aber ganz ehrlich finde ich die 3070 mit 16GB (8GB sind natürlich völlig indiskutabel bei der beworbenen Performance) das Interessanteste Produkt innerhalb Gaming-Ampere sofern die 220W stimmen. GA102 (3080 + 3090) ist mir zu viel Brechstange.

Zergra
2020-09-01, 20:40:04
Jo aber bei 50% mehr Perf/W hätte big Navi dann knapp 3080-Leistung bei weniger als 300W... NV ist hier ja diesmal weniger toll.

Also real unter der 3080 bei über 300Watt?

Linmoum
2020-09-01, 20:40:29
grob überschlagen hat die 3080 etwa ~225% der 5700XT, da muss BN schon einiges bieten.Du meinst die 3090. Die 2080Ti ist ~50% schneller als die 5700XT, die 3090 soll laut Nvidia "up to" 50% schneller als eine Titan RTX sein.

gedi
2020-09-01, 20:40:51
Gibt es eigentlich gesicherte Infos mit den 20GB? Ich für meinen Teil fände eine eine 3090 mit 12GB getarnt als 3080Ti more sexy. Die würde ich zum Preis von 1300€ doch glatt kaufen

Triniter
2020-09-01, 20:41:19
Ich kann mich nicht so recht erinnern, gab es jemals Frames bei Jensen? Dachte war in der Vergangenheit immer nur Faktor x zum Vorgänger?

Zergra
2020-09-01, 20:42:03
Gibt es eigentlich gesicherte Infos mit den 20GB? Ich für meinen Teil fände eine eine 3090 mit 12GB getarnt als 3080Ti more sexy. Die würde ich zum Preis von 1300€ doch glatt kaufen


Die Lücke zwischen der 80 und der 90 ist einfach zu groß, da gibt es definitiv eine 20GB Version.

dildo4u
2020-09-01, 20:42:22
Du meinst die 3090. Die 2080Ti ist ~50% schneller als die 5700XT, die 3090 soll laut Nvidia "up to" 50% schneller als eine Titan RTX sein.

CB hat 63% zur Titan RTX.

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160

basix
2020-09-01, 20:42:30
Jo aber bei 50% mehr Perf/W hätte big Navi dann knapp 3080-Leistung bei weniger als 300W... NV ist hier ja diesmal weniger toll.

RDNA2 ist anhand den +50% Perf/W etwa gleich effizient wie Ampere. Sollte das so kommen wäre RDNA2 konkurrenzfähig. Das Zünglein an der Waage wird die allgemeine RT Performance sein. Da bin ich gespannt, was RDNA2 liefert. Und Nvidia hat noch den Trumpf DLSS 2.0 in der Hinterhand. Je nachdem wie verbreitet das werden wird (z.B. UE unterstützt es) kann das nochmals viel ausmachen. Ich denke aber, AMD wird eine komplementär Technologie mit RDNA2 vorstellen.

Sehr spannend das ganze :)

Kann man auch anders sehen, sie ist der Nachfolger der Titan für den halben(?) Preis. :wink:

Titan Speicherausbau aber ohne den Titan im Namen ;) Naja, ich habe die einzig wahre Titan hier liegen (Titan Classic) ;)

BigBangBacket
2020-09-01, 20:43:24
Was haltet ihr denn auf dem ersten Blick von dem Kühlsystem? Unabhängig von Lautstärke und Kühlleistung. Wissen wir ja noch nichts.
Kann es effektiv was bringen wenn ein Teil nach draussen gepustet wird?
Wenn man eine CPU AiO hat sollte die Luftzufuhr nach oben ja nicht das grosse Problem sein. Oder?

Dampf
2020-09-01, 20:43:43
Eins kapier ich aber nicht. Warum ist die Marbles Demo 4x schneller auf Ampere als auf Turing, in Games aber, sogar in Path Traced Games wie Minecraft und Quake, nicht mal doppelt so schnell?

Tesseract
2020-09-01, 20:43:46
Du meinst die 3090. Die 2080Ti ist ~50% schneller als die 5700XT, die 3090 soll laut Nvidia "up to" 50% schneller als eine Titan RTX sein.

bei DF hat die 3080 etwa 180% der 2080 und die 2080 ist etwa 25% vor der 5700XT.

Jo aber bei 50% mehr Perf/W
diese angaben haben bei AMD noch nie gestimmt.

fondness
2020-09-01, 20:43:51
https://blogs.nvidia.com/blog/2020/09/01/nvidia-ceo-geforce-rtx-30-series-gpus/

Die 3090 in 4k nur up to 50% faster wie die alte titan?

Der_Korken
2020-09-01, 20:44:06
Interessant. Nvidia scheint also doch wieder 128 FPUs pro SM zu verbauen wie bei Pascal. Da leuchtet natürlich ein, wie die Leistung pro SM so stark steigen kann. Theoretisch dürfte das auch gar nicht sooo viel kosten, denn wenn man die 64 INT-ALUs belässt, dann verdoppelt sich ja nur ein Teil des SMs. Auf der anderen Seite steigt die tatsächliche Leistung aber auch nicht so stark an. Wir reden hier ja über doppelte Rechenleistung bei 2080Ti vs 3080 und wieviel % mehr Leistung? 50%? Da nimmt die "IPC" schon krass ab.

Es ist irgendwie schon lustig. Da hat jahrelang AMD die Rohleistungsmonster am Start: 4870 vs 280, 5870 vs 480 (jeweils >3x so viele Shader bei >50% des Takts), 7970 vs 680 (+33% FLOPs/s), 390 vs 970 (+40% FLOPs/s), Fiji vs 980Ti (+33% FLOPs/s). Nirgendwo ist die Rohleistung richtig durchgeschlagen, man hat immer nur gesehen, dass AMD bei höheren Auflösungen etwas aufholt, weil die ihre Shader besonders in 1080p einfach vorne und hinten nicht ausgelastet bekommen. Bei Pascal hat Nvidia dann durch den Taktboost auch bei der Rohleistung massiv aufgeholt, ohne sich bei der IPC zu verschlechtern und AMD damit technisch schon irgendwie platt gemacht. Die Vegas mit 64 CUs sind rückwirkend betrachtet einfach Luftpumpen gewesen. Habe ich damals beim Launch schon gesagt, dass das Teil super schlecht gegenüber Polaris darsteht und selbst gegenüber Fiji.

Mit RDNA und Turing kam die totale Kehrtwende: AMD buttert Transistoren ohne Ende in die CUs: Warpsize 64 -> 32, zwei skalare Einheiten pro CU und wer weiß was noch alles. Das Ding hat bei IPC sogar Pascal überholt. Und was macht Nvidia? Die bauen 64 zusätzliche INT-Einheiten in ihre SMs ein (ich erinnere an die +36% die ich hier und im Navi-Thread postete, die das theoretisch bringen könnte) und jetzt mit Ampere sogar 64 zusätzliche FPUs. Nur mal zur Info: Nvidia hat pro SM 128xFP UND 64xINT, während AMD nur 64xUniversal hat, also im worst case nur 1/3 Rohleistung! Angenommen Big Navi bringt 80 CUs, die zu 100% skalieren und auch mindestens so hoch takten wie bei N10, dann wären das auch ungefähr 2080Ti+35% mit deutlich weniger Rohleistung als Ampere.

Das ganze wirkt so wenig wie das Remake von 4870vs280 nur eben umgekehrt. AMD konnte die Rohleistung bis auf wenige gut optimierte Ausnahmen nie auf die Straße bringen, jetzt wiederholt Nvidia AMDs Strategie, während AMD es wie Nvidia versucht. Mal sehen, ob Nvidia hier den gleichen Tod sterben wird wie AMd mit GCN :D So ganz langfristig, im Moment sieht Ampere stark aus.

P.S.: Preise sind auch unerwartet niedrig. Allerdings muss man auch sagen, dass die Graka-Hersteller dem Markt was bieten müssen, nachdem es gefühlt seit 2017 keinen Fortschritt mehr gibt bei P/L. Die Konsolen kosten als ganzes wahrscheinlich ~500€ und bringen allein auf GPU-Seite schon geschätzt 2080S-Performance mit. Wäre Nvidia da jetzt mit 700$-3070 und 1000$-3080 um die Ecke gekommen, dann wären viele PC-Spieler auf die Konsolen gewechselt. Selbst wenn AMD keine Konkurrenz bietet, muss Nvidia schon im Auge behalten, dass der PC als Plattform nicht unattraktiv wird, weil die Grakas einfach unbezahlbar sind. Da nützt es nichts, dass man geniale CPUs wie einen 3600 für 200€ hinterhergeworfen bekommt.

Kriegsgeier
2020-09-01, 20:44:23
Wieso nennt er 32 TFLOPS bei 3090? Ist doch glatt schöngerechnet!
Keine schöne Art!
Oder 3070 mit 20 TFLOPS

Einfach Unprofessionel

dildo4u
2020-09-01, 20:45:21
Die 3090 nur up to 50% faster wie die alte titan?
Nur eine Titan RTX ist 60% schneller als die 5700XT.

dargo
2020-09-01, 20:45:59
Ampere erreicht mit den doppelten TFLOPs rund 40% mehr Spieleleistung. Ansonsten wäre die 3080 doppelt so schnell wie die 2080 Ti usw. Merkste selber?
Der Typ ist doch schon komplett vom Hypertrain der Lederjacke geblendet, dass er das hier gar nicht mitbekommen hat.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12410349&postcount=8817

Nja die neue 3080Ti hat jetzt einen noch teueren Preis mit 1500€ Aber die 3080 20GB scheint das wesentliche bessere Angebot zu sein.
Noch weiß niemand was eine 3070 16GB und 3080 20GB kosten wird, also locker bleiben.

Emil_i_Lönneberga
2020-09-01, 20:46:46
a) Die aktuellen Leistungswerte sind alle unter vollem RTX Einsatz. Klassische AAA Titel kennt man die Leistung noch nicht.
b) Du weisst doch noch gar nicht was bei Navi kommen wird. Niemand weiß es, somit ist jede Behauptung dazu Quatsch.

Wenn Ampere wirklich so toll wird ggü. Navi dann kann man es sagen.
Nicht vorher.

Ohne RTX

https://youtu.be/cWD01yUQdVA?t=376

https://youtu.be/cWD01yUQdVA?t=411

https://youtu.be/cWD01yUQdVA?t=451

https://youtu.be/cWD01yUQdVA?t=483

https://youtu.be/cWD01yUQdVA?t=507

Troyan
2020-09-01, 20:47:00
Eins kapier ich aber nicht. Warum ist die Marbles Demo 4x schneller auf Ampere als auf Turing, in Games aber, sogar in Path Traced Games wie Minecraft und Quake, nicht mal doppelt so schnell?

Weil die Geometrie und die Effekte viel höher bzw. umfassender sind. Schau dir das Schaubild nochmal an, was bei Raytracing passiert. Das Ampere deutlich besser darsteht, benötigt eben umfangreicheren Workload.

aufkrawall
2020-09-01, 20:47:39
hinzu kommt das die 2080Ti mehr speicher hat, der auch mehr frisst... + verluste der spawas... zieht die billianz dann nochmals nach unten. :freak:
Jo, nennenswert mehr als diese rechnerischen ~15% Effizienzgewinn können es so eigentlich nicht sein bzw. das ist nach momentanem Wissenstand schon fast großzügig. Und das mit neuer/überarbeiteter Architektur + Prozess-Shrink gleichzeitig, erfüllt eigentlich die schwärzesten Prognosen auf Basis der Leaks. :freak:

fondness
2020-09-01, 20:47:54
Nur eine Titan RTX ist 60% schneller als die 5700XT.

Darum geht's mir nicht. Die Karte hat eine 40% höhere tdp als die alte titan und ist up to 50 %, also im Schnitt womöglich auch nur 40% schneller. Perf/Watt trotz shrink also wenig bis gar nicht gestiegen.

SKYNET
2020-09-01, 20:48:38
Das wird in der Tat spannend. Eine verdoppelte 5700XT käme so wie es scheint nicht ganz an die 3080 ran. AMD braucht also eine verdammt gute Skalierung und mehr IPC/Takt.

mehr takt: check --> 2100+ = 20%
mehr bandbreite: check --> 512bit / HBM2 + 100%
min. doppelte anzahl CUs: check --> 80CUs evtl. sogar 96CUs...

AMD muss da nichtmal mit der brechstange ran, sicher sitzt lisa grad in ihrem $10.000 bürostuhl und lacht sich derbe ins fäustchen, was ihr schwager(?) da abgelassen hat...

zumal AMD einen riesigen strategischen vorteil hat: die konsolen sind auch RDNA2, das heisst auf die architektur werden die neuen games optimiert, schlechte aussichten für NV ;)

Linmoum
2020-09-01, 20:49:01
Nur eine Titan RTX ist 60% schneller als die 5700XT.Ja und übliches Marketing abgezogen und du bist wieder ein Stück weiter runter. Wie bei allen Herstellern.

Troyan
2020-09-01, 20:49:19
Darum geht's mir nicht. Die Karte hat eine 40% höhere tdp als die alte titan und ist up to 50 %, also im Schnitt womöglich auch nur 40% schneller. Perf/Watt trotz shrink also wenig bis gar nicht gestiegen.

Es sind 25% mehr und im Blog genannte 50% mehr Leistung.

HOT
2020-09-01, 20:49:36
Der_Korken

Da würd ich eher sagen, dass die 64 Int-Einheiten jetzt eben 64 FP-Einheiten sind, das passt auch am besten zum Leistungsbild.

Das mit der Kehrtwende stimmt. Lt. den Konsolen hat RDNA2 aber wieder ordentlich Transistoren abgenommen, schafft aber erheblich mehr Takt und steigert trotzdem die IPC.
Die 50% Perf/W dürften auch dieses Mal, wie bei Navi1 und den ganzen Zen-Launches, wieder übertroffen werden. Übertriebene Prognosen gab es zuletzt bei Vega. Es bleibt aber definitiv spannend, selbst wenn AMD die 3090 nicht packt, wonach es erst mal nicht aussieht, kann man trotzdem evtl. punkten.

dildo4u
2020-09-01, 20:50:04
Ihr unterschätz wie mächtig die 3090 ist dort sind CPU Limits angesagt, ich wette die meisten Tests werden nicht in 8k sein.

basix
2020-09-01, 20:50:57
Ein 10900K mit 5 GHz wird in fast allen Spielen die GPU nicht limitieren. Ein CPU Limit gibt es bei den vergeführten Spielen mMn nur bei Control.

SKYNET
2020-09-01, 20:51:47
Ihr unterschätz wie mächtig die 3090 ist dort sind CPU Limits angesagt, ich wette die meisten Tests werden nicht in 8k sein.


gibt genug optionen in den menüs um in 4k die 3090 ins schwitzen zu bringen... da brauchs nichtmal 8k für.

gedi
2020-09-01, 20:52:26
diese angaben haben bei AMD noch nie gestimmt.

Quelle?

SKYNET
2020-09-01, 20:53:57
diese angaben haben bei AMD noch nie gestimmt.


stimmt, seit navi und zen, waren die immer zu niedrig gegriffen.

HOT
2020-09-01, 20:54:45
Ein 10900K mit 5 GHz wird in fast allen Spielen die GPU nicht limitieren. Ein CPU Limit gibt es bei den vergeführten Spielen mMn nur bei Control.
Verwendet nur kaum einer im Testsystem, da er kein PCIe4 hat.

Linmoum
2020-09-01, 20:54:46
diese angaben haben bei AMD noch nie gestimmt.Was nachweislich eine glatte Lüge ist.

gibt genug optionen in den menüs um in 4k die 3090 ins schwitzen zu bringen... da brauchs nichtmal 8k für.Wird auch kein Schwein ernsthafte Benchmarks in 8k durchführen. Ist auch nicht nötig.

Kriegsgeier
2020-09-01, 20:56:16
4K ist in fast allen Spielen unbrauchbar
Erst mit der 3090 Leistung wird es Salonfähig
8K in min 2-3 Generationen

dildo4u
2020-09-01, 20:57:22
4K ist in fast allen Spielen unbrauchbar
Erst mit der 3090 Leistung wird es Salonfähig

Wenn die PS5 die Basis bei 10Tflops setzt,sollte die 3080 für diese Generation langen.

Cubitus
2020-09-01, 20:57:49
Ein 10900K mit 5 GHz wird in fast allen Spielen die GPU nicht limitieren. Ein CPU Limit gibt es bei den vergeführten Spielen mMn nur bei Control.

PCIE 3.0 limitiert ;D

dargo
2020-09-01, 20:58:33
Eins kapier ich aber nicht. Warum ist die Marbles Demo 4x schneller auf Ampere als auf Turing, in Games aber, sogar in Path Traced Games wie Minecraft und Quake, nicht mal doppelt so schnell?
Weil man sich Bestcase-Szenario fürs Marketing selbst kreiert hat?

Sunrise
2020-09-01, 20:58:44
...diese angaben haben bei AMD noch nie gestimmt.
Bei RDNA1 vs. GCN haben die nicht gestimmt? Bei Zen2 hatten sie zuletzt mehr geleistet als ihre eigene Zielvorgabe.

AMD geht da neuerdings sehr konservativ dran. Allerdings muss ich dennoch sagen, dass man aufgrund gleichem Node verdammt viel verspricht, ich hoffe AMD überrascht uns.

Tesseract
2020-09-01, 21:00:10
Quelle?

https://static.techspot.com/images2/news/bigimage/2016/05/2016-05-11-image-28-j.webp

gedi
2020-09-01, 21:00:17
Doch-mit nem DLSS Weichspüler welcher 8k runterrechnet auf 1080p und die Grünen sich freuen können wie grandios Ampere doch performt. Sieht super aus auf 24 Zoll, auf 65 Zoll ist es meh!

Kriegsgeier
2020-09-01, 21:00:28
Mir geht es um native 4K ohne DLSS und ohne irgendwelche Skalierungen
Roh wie es nur geht

HOT
2020-09-01, 21:02:43
Bei RDNA1 vs. GCN haben die nicht gestimmt? Bei Zen2 hatten sie zuletzt mehr geleistet als ihre eigene Zielvorgabe.

AMD geht da neuerdings sehr konservativ dran. Allerdings muss ich dennoch sagen, dass man aufgrund gleichem Node verdammt viel verspricht, ich hoffe AMD überrascht uns.
Was der "gleiche node" packt sieht man an Renoir. Navi ist N7P vs. AMDs angepassten N7e. 7nm ist nicht wie die Prozesse davor. Man scheint bei den neuen Nodes nicht viel reißen zu können ohne eigene Anpassungen am Node. Für 8LPP vs. 8N gilt ja sehr sicher ähnliches.

Cubitus
2020-09-01, 21:02:48
Doch-mit nem DLSS Weichspüler welcher 8k runterrechnet auf 1080p und die Grünen sich freuen können wie grandios Ampere doch performt. Sieht super aus auf 24 Zoll, auf 65 Zoll ist es meh!

Da spült eigl nix weich...
Außerdem werden 1080p auf 8K hochgerechnet...

und die 1080p sehen dann auf dem 8K besser besser aus als darauf 1080p nativ ..

Hauptsache trollen :freak:

gedi
2020-09-01, 21:02:49
https://static.techspot.com/images2/news/bigimage/2016/05/2016-05-11-image-28-j.webp

Wo siehst du da Dinge, welche fragwürdig sind?

und
2020-09-01, 21:03:26
Das Groß wird ne PS5 im Visier haben, aber sofern man heutzutage noch gewillt ist, bzw. es sich leisten kann (auch die Stromrechnung), ist die 3080 ne tolle Karte und ein guter Schritt vorwärts. Happy Raytracing!

aufkrawall
2020-09-01, 21:03:39
https://static.techspot.com/images2/news/bigimage/2016/05/2016-05-11-image-28-j.webp
Eh, die y-Achse hat dort gar keine Angabe zur Skalen-Progression? Im Grunde ein völlig nichtssagendes Bild. Auch nicht ruhmreich für AMD, aber halt auch keine direkte Verarsche.

gedi
2020-09-01, 21:04:12
Da spült eigl nix weich...
Außerdem werden 1080p auf 8K hochgerechnet...

und die 1080p sehen dann auf dem 8K besser besser aus als darauf 1080p nativ ..

Hauptsache trollen :freak:

Typischer Media-Markt Käufer

robbitop
2020-09-01, 21:05:36
Hat GA102/104 eigentlich noch die INT ALUs im SM? IIRC hat NV sich dazu ausgeschwiegen. Ggf. hat man diese wieder rausgeschmissen.

Eine Verdopplung der FPUs pro SM ist nicht extrem teuer. Reduziert die Granularität wieder auf Pascal Niveau. Hilft aber definitiv auch beim Raytracing. Denn Raytracing braucht auch einfach eine Menge artimetische Vektor FPU Leistung. Dazu haben die RT Cores auch mehr Durchsatz. Die Caches sind sicherlich auch größer geworden - entsprechend ist die Performance bei RT sicherlich besonders hoch.

Interessant ist, ob man die SMs grundsätzlich wieder auf die Pascal Generation angehoben hat (seit Volta / Turing hat man die FPUs und TMUs pro SM halbiert). Ich vermute aber, dass man nur die FPUs verdoppelt haben wird.

Das ist eine sehr nachvollziehbare und sinnvolle Evolution. Die Performance entspricht endlich mal wieder einem gesunden normalen Generationssprung. (+180% war bis vor ein paar Jahren ein normaler Sprung...)

Die Leistung pro FLOP ist sicherlich nun nicht mehr auf Turing Niveau - aber am Ende zählt nur, was auf die Straße kommt.

Troyan
2020-09-01, 21:05:43
Da spült eigl nix weich...
Außerdem werden 1080p auf 8K hochgerechnet...

und die 1080p sehen dann auf dem 8K besser besser aus als darauf 1080p nativ ..

Hauptsache trollen :freak:

Nein, DLSS High Performance hat 1/9 der Auflösung von 8K. Das müsste also 1440p sein.

dildo4u
2020-09-01, 21:06:11
Typischer Media-Markt Käufer
8kDLSS kommt nicht von 1080p, die Qualitätsmodi von 4k DLSS kommen von 1440p.

Cubitus
2020-09-01, 21:07:56
Nein, DLSS High Performance hat 1/9 der Auflösung von 8K. Das müsste also 1440p sein.

Korrekt.. Hast recht..
Aber ihr wisst auf was ich hinauswollte..

woodsdog
2020-09-01, 21:09:40
zumal AMD einen riesigen strategischen vorteil hat: die konsolen sind auch RDNA2, das heisst auf die architektur werden die neuen games optimiert, schlechte aussichten für NV ;)

To be fair... genau das hören wir seit 2013, als klar wurde was XBone und PS4 als Hardware nutzen... wirklich eingetroffen ist es nie. :rolleyes:

SKYNET
2020-09-01, 21:11:26
To be fair... genau das hören wir seit 2013, als klar wurde was XBone und PS4 als Hardware nutzen... wirklich eingetroffen ist es nie. :rolleyes:

ist doch genau das eingetreten... um so neuer die spiele wurden, um so besser haben die alten AMD karten performt gegenüber den gleichalten NV karten... kannst in jedem aktuellen test nachschlagen wo noch alte gens mit bei sind.

gedi
2020-09-01, 21:11:42
Nein, DLSS High Performance hat 1/9 der Auflösung von 8K. Das müsste also 1440p sein.


Ebend! Dieses DLSS Gedöns ist doch Schrott. Ich stelle mein natives Setting ein und experimentiere mit verschiedenen Filtern, das was der Treiber hergibt und habe das gleiche Ergebnis und muss nicht irgendwelche Auflösungen vortäuschten

Ex3cut3r
2020-09-01, 21:12:03
Das erinnert mich ein wenig an meine Vega64 LCE die mit beworbenen 350W verkauft wurde und dann hier mit ~200W lief. :D Kann man machen. ;) Aber ganz ehrlich finde ich die 3070 mit 16GB (8GB sind natürlich völlig indiskutabel bei der beworbenen Performance) das Interessanteste Produkt innerhalb Gaming-Ampere sofern die 220W stimmen. GA102 (3080 + 3090) ist mir zu viel Brechstange.

Die 3070 ist mir von einer 2080 ein zu niedriges Upgrade (ein Ticken) aber mit 16GB für vermutlich 599€ wirklich attraktiv. Echt schwierig. :biggrin:
Jap, ich rechne mit 100€ Aufpreis für die Speicherverdopplung. Ich denke das ist realistisch. Zu Kepler Zeiten hat man damals von 2GB auf 4GB 50-75€ gezaht. Da AIB Katen aber billiger sind, als Nvidia FEs sind 599€ für die 3070 16GB IMO sehr realistisch. ^^

robbitop
2020-09-01, 21:12:44
To be fair... genau das hören wir seit 2013, als klar wurde was XBone und PS4 als Hardware nutzen... wirklich eingetroffen ist es nie. :rolleyes:

Die Frage wäre, wie es um AMD stünde, wenn deren HW nicht in den Konsolen verbaut wäre.

Allerdings hat man seit RDNA (bei NV seit Maxwell) viel HW in Granularität, Kontrolllogik und Re-Use gesteckt. Man holt also grundsätzlich mehr effektive Performance pro Rohleistung. Das Potenzial für einen besonders hohen Optimierungsgrad sinkt entsprechend etwas.

gedi
2020-09-01, 21:13:01
ist doch genau das eingetreten... um so neuer die spiele wurden, um so besser haben die alten AMD karten performt gegenüber den gleichalten NV karten... kannst in jedem aktuellen test nachschlagen wo noch alte gens mit bei sind.

Polaris japp, Vega geht aber komplett unter

dargo
2020-09-01, 21:13:04
To be fair... genau das hören wir seit 2013, als klar wurde was XBone und PS4 als Hardware nutzen... wirklich eingetroffen ist es nie. :rolleyes:
Nicht ganz unschuldig daran waren die alten APIs am PC. Die Zeit der alten APIs ist hoffentlich in 2020+ endlich vorbei bei AAA-Titeln.

Die 3070 ist mir von einer 2080 ein zu niedriges Upgrade (ein Ticken) aber mit 16GB für vermutlich 599€ wirklich attraktiv. Echt schwierig. :biggrin:

Verständlich... man muss immer abwiegen von wo man kommt.

TheGood
2020-09-01, 21:14:10
Ich finde das wichtigste Feature ist RTX IO und Direct Storage, welches die Xbox Series S und PS5 mit Schamesröte in die Ecke stellt. :)

robbitop
2020-09-01, 21:14:33
Polaris liegt bei neueren Spielen wohl recht deutlich vor Maxwell und zT auch vor GP106. :)

aufkrawall
2020-09-01, 21:15:05
To be fair... genau das hören wir seit 2013, als klar wurde was XBone und PS4 als Hardware nutzen... wirklich eingetroffen ist es nie. :rolleyes:
Siehe PCGH-Test: Navi hatte schon vor der neuen Gen gegenüber Turing profitiert. Da brauchts nicht viel Fantasie sich auszumalen, wie das mit expl. API only und RDNA2 wird.
Allerdings hat Nvidia mit DLSS und RT vermutlich auch für die neue Gen einen dicken Stein im Brett.

Tesseract
2020-09-01, 21:15:26
Eh, die y-Achse hat dort gar keine Angabe zur Skalen-Progression? Im Grunde ein völlig nichtssagendes Bild.

genau das ist mein punkt: nichtsaussagendes marketingblahblah und der eine wert der da steht (polaris) hat mit der realität auch wenig zu tun. nimmt man die achse als linear an ist vega bei ~4x und navi bei ~5,3x. da stimmt einfach überhaupt nichts.

Digidi
2020-09-01, 21:15:43
Hier ein Beitrag von Anandtech. Wie immer mit etwas mehr Details und reflektiertheit:

https://www.anandtech.com/show/16057/nvidia-announces-the-geforce-rtx-30-series-ampere-for-gaming-starting-with-rtx-3080-rtx-3090

Quitessenz man weiß nicht so ganz genau ob Nvidia die 10000 Shader gut befüllen kann.

EPIC_FAIL
2020-09-01, 21:16:20
Ich finde das wichtigste Feature ist RTX IO und Direct Storage, welches die Xbox Series S und PS5 mit Schamesröte in die Ecke stellt. :)

Da ich hätte wirklich gerne mal Load Time Benches für. Aktuell kann ich mir noch nicht vorstellen, dass das immer funktioniert und auch wirklich spürbar ist. Aber wer weiß...

gedi
2020-09-01, 21:16:30
To be fair... genau das hören wir seit 2013, als klar wurde was XBone und PS4 als Hardware nutzen... wirklich eingetroffen ist es nie. :rolleyes:

Ich wüßte nicht, dass die aktuelle XBO RDNA verbaut hat!

Cubitus
2020-09-01, 21:19:13
Ebend! Dieses DLSS Gedöns ist doch Schrott. Ich stelle mein natives Setting ein und experimentiere mit verschiedenen Filtern, das was der Treiber hergibt und habe das gleiche Ergebnis und muss nicht irgendwelche Auflösungen vortäuschten

Sry aber ey, du blickst halt so richtig null.. :freak:
Mag sein das ich mich im Detail eben nicht richtig ausgedrückt hab,
eben weil ich mich auf dein 1080p Beispiel bezog.

Aber DLSS ist ansich eine grandiose Technik, unabhängig davon das Jensen heute Lobeshymnen darauf abgelassen hat.

Das hat definitiv Zukunft und AMD hat so ein Feature einfach nicht..

woodsdog
2020-09-01, 21:19:33
Ich wüßte nicht, dass die aktuelle XBO RDNA verbaut hat!

Du hast verstanden das das Argument 2013 und CGN genau das gleiche war wie heute mit RDNA2? :rolleyes:

Troyan
2020-09-01, 21:19:50
Hier ein Beitrag von Anandtech. Wie immer mit etwas mehr Details und reflektiertheit:

https://www.anandtech.com/show/16057/nvidia-announces-the-geforce-rtx-30-series-ampere-for-gaming-starting-with-rtx-3080-rtx-3090

Quitessenz man weiß nicht so ganz genau ob Nvidia die 10000 Shader gut befüllen kann.

Natürlich nicht. 100% Auslastung benötigt alleine die Verdopplung aller Einheiten. Siehe auch Kepler. nVidia füllt die Compute-Units mit mehr Recheneinheiten, weil Recheneinheiten immer billiger werden. Und je stärker der Chip ausgelastet wird, umso effizienter ist alles.

woodsdog
2020-09-01, 21:21:26
Fakt bleibt, AMD konnte durch die Konsolen nie in der Form profitieren das es sie "nach vorne" gebracht hat. Sie konnten bestenfalls mithalten. Keine Ahnung warum man das mit "weil A B C" schönreden muss...

basix
2020-09-01, 21:21:42
Ich sehe die 10k Shader (oder 5k Shader mit doppelter FP32 Kapazität) als Vorboten für die Zukunft. Raytracing inkl. Denoising benötigt massiv Rechenleistung und lässt sich noch besser parallelisieren wie Rasterisierung.

gedi
2020-09-01, 21:22:24
Siehe PCGH-Test: Navi hatte schon vor der neuen Gen gegenüber Turing profitiert. Da brauchts nicht viel Fantasie sich auszumalen, wie das mit expl. API only und RDNA2 wird.
Allerdings hat Nvidia mit DLSS und RT vermutlich auch für die neue Gen einen dicken Stein im Brett.

Bitte höre mir mit DLSS auf. Da ist ein Upsampler für den NV investiert in HWC. Trotzdem ist und bleibt es ein Upsampler mit Parametern, welche man nur sehr bedingt beeinflussen kann.

woodsdog
2020-09-01, 21:23:28
Bitte höre mir mit DLSS auf. Da ist ein Upsampler für den NV investiert in HWC. Trotzdem ist und bleibt es ein Upsampler mit Parametern, welche man nur sehr bedingt beeinflussen kann.
Du disqualifizierst dich immer mehr mit solchem Blödsinn. DLSS ist erheblich mehr aber "ihr" wollt offensichtlich nicht verstehen.

Dampf
2020-09-01, 21:25:50
Bitte höre mir mit DLSS auf. Da ist ein Upsampler für den NV investiert in HWC. Trotzdem ist und bleibt es ein Upsampler mit Parametern, welche man nur sehr bedingt beeinflussen kann.

Nicht schon wieder... :rolleyes:

dildo4u
2020-09-01, 21:26:15
JdfURQt8E7o

gedi
2020-09-01, 21:26:15
Sry aber ey, du blickst halt so richtig null.. :freak:
Mag sein das ich mich im Detail eben nicht richtig ausgedrückt hab,
eben weil ich mich auf dein 1080p Beispiel bezog.

Aber DLSS ist ansich eine grandiose Technik, unabhängig davon das Jensen heute Lobeshymnen darauf abgelassen hat.

Das hat definitiv Zukunft und AMD hat so ein Feature einfach nicht..

So ein, sorry ich kann nix sieht aber gut aus Feature?

Brauch ich auch nicht, sorry

Linmoum
2020-09-01, 21:26:27
Wo kommt dieser "das ist nur upsampling!!!11"-Quatsch eigentlich her?

Ex3cut3r
2020-09-01, 21:27:38
KA was Gedi da labert. Ich bin trotz Turing auch kein Fan unter 4K davon. Aber es ist halt doch etwas mehr als Upscaling. ;D
Das muss man sich auch als AMD User eingestehen.

aufkrawall
2020-09-01, 21:27:51
Wo kommt dieser "das ist nur upsampling!!!11"-Quatsch eigentlich her?
Ist die Methode eines realitätsverweigernden Narrativs, die bei bestimmten Usern leider regelmäßig zu sehen ist.

dargo
2020-09-01, 21:28:25
genau das ist mein punkt: nichtsaussagendes marketingblahblah und der eine wert der da steht (polaris) hat mit der realität auch wenig zu tun. nimmt man die achse als linear an ist vega bei ~4x und navi bei ~5,3x. da stimmt einfach überhaupt nichts.
Ich hoffe du fällst nicht gleich vom Stuhl wenn ich bei meiner Rechnung auf mehr als die +50% Perf/W bei RDNA 1 vs. GCN komme.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12401042&postcount=9601

gedi
2020-09-01, 21:31:49
Du disqualifizierst dich immer mehr mit solchem Blödsinn. DLSS ist erheblich mehr aber "ihr" wollt offensichtlich nicht verstehen.

Was ist es denn im Endeffekt: Krass ausgedrückt ein Upsampler (vielleicht sogar dynamisch), welcher, ganz einfach ausgedrückt, durch TCc wieder beschleunigt und hochgerechnet werden. Die relative Auflösung bleibt trotzdem die gleiche

SKYNET
2020-09-01, 21:32:36
Polaris japp, Vega geht aber komplett unter

ich rede von pre-polaris...

Tesseract
2020-09-01, 21:33:37
Ich hoffe du fällst nicht gleich vom Stuhl wenn ich bei meiner Rechnung auf mehr als die +50% Perf/W bei RDNA 1 vs. GCN komme.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12401042&postcount=9601

auf der folie sind es ~32%, ergo völlig falsch. danke, dass du meine aussage bestätigst.

Ben Carter
2020-09-01, 21:35:48
Ist die angegebene Shader-Performance bei der 3090 wirklich 32bit? Wenn ja, wäre das tatsächlich ein massiver Sprung gegenüber der 2080 Ti, was mir dann doch Hoffnung macht, dass es in 4k auch ohne RTX/DLSS Richtung +60% geht.

Außerdem bin ich gespannt, wie sich die 3090 dann wirklich an einem 650W Netzteil tut. Im Verbindung mit dem 9900k ist das wohl ziemlich am Limit, wenn ich grob 350-400W GPU und 100-150W CPU (in Spielen zieht die CPU zum Glück nicht die 200+W), müsste allerdings noch klappen. Zen 3 bringt dann ja hoffentlich etwas Entspannung. :D

Lowkey
2020-09-01, 21:36:50
Wird eine NVME SSD für Spiele nun Pflicht?


New RTX IO technology accelerates the storage sub-system for gaming. This works in tandem with the new Microsoft DirectStorage technology, which is the Windows API version of the Xbox Velocity Architecture, that's able to directly pull resources from disk into the GPU. It requires for game engines to support the technology. The tech promises a 100x throughput increase, and significant reductions in CPU utilization. It's timely as PCIe gen 4 SSDs are on the anvil.

Daredevil
2020-09-01, 21:37:00
Erste Karten schon auf Geizhals
https://geizhals.de/?fs=rtx+3090&hloc=at&hloc=de&in=

FE Kühler fetter als Custom!

FE: 313x138mm
Custom: 318x121mm

Auch was zum Adapter bei der FE:
1x 12-Pin Micro-Fit 3.0 (via Adapter: 2x 8-Pin PCIe)

FE Lüfter Größe:
2x Axial-Lüfter (110mm), Referenzdesign

Wird dieses mal wohl Zeit für ne FE Karte :)

PS: Je öfter Dargo und Skynet hier rumbrüllen, desto mehr Angst haben sie vor Ampere. Beobachtet das mal. :D

dargo
2020-09-01, 21:37:29
auf der folie sind es ~32%, ergo völlig falsch. danke, dass du meine aussage bestätigst.
Ich bestätige höchstens, dass du Blödsinn aus einer nichts sagenden Folie ableitest.

woodsdog
2020-09-01, 21:37:30
Ist die angegebene Shader-Performance bei der 3090 wirklich 32bit? Wenn ja, wäre das tatsächlich ein massiver Sprung gegenüber der 2080 Ti, was mir dann doch Hoffnung macht, dass es in 4k auch ohne RTX/DLSS Richtung +60% geht.

Außerdem bin ich gespannt, wie sich die 3090 dann wirklich an einem 650W Netzteil tut. Im Verbindung mit dem 9900k ist das wohl ziemlich am Limit, wenn ich grob 350-400W GPU und 100-150W CPU (in Spielen zieht die CPU zum Glück nicht die 200+W), müsste allerdings noch klappen. Zen 3 bringt dann ja hoffentlich etwas Entspannung. :D

bin im selben Boot. 650W RMi.
Hab schon mal das 1000er bestellt :freak:

gedi
2020-09-01, 21:38:41
KA was Gedi da labert. Ich bin trotz Turing auch kein Fan unter 4K davon. Aber es ist halt doch etwas mehr als Upscaling. ;D
Das muss man sich auch als AMD User eingestehen.

Auch AMD hatte so Fake-Filter Dinge! Im Endeffekt wirst du so oder so verarscht. Die Industrie funktioniert nun mal so. Klingt alles toll, super und nach 2 Jahren wirst du erkennen, dass du ne Menge Geld für ein Versprechen eingelöst has ..,

Hauwech
2020-09-01, 21:42:32
Ist die Methode eines realitätsverweigernden Narrativs, die bei bestimmten Usern leider regelmäßig zu sehen ist.

Wäre es von AMD gekommen, wäre es der Heilige Gral. Garantiert. Genauso mit RT. Alles was von nV kommt ist doch für TiefRot sowieso Müll. Das ist dir doch hoffentlich klar du Ketzer! :wink::biggrin:

Cubitus
2020-09-01, 21:45:51
Wird eine NVME SSD für Spiele nun Pflicht?


New RTX IO technology accelerates the storage sub-system for gaming. This works in tandem with the new Microsoft DirectStorage technology, which is the Windows API version of the Xbox Velocity Architecture, that's able to directly pull resources from disk into the GPU. It requires for game engines to support the technology. The tech promises a 100x throughput increase, and significant reductions in CPU utilization. It's timely as PCIe gen 4 SSDs are on the anvil.

Bei neuen Unreal Games und Konsolen-Ports gut möglich..
Infinite LOD benötigt schonmal 200 GB an Daten usw..

BiZiNiZz
2020-09-01, 21:46:23
Auch AMD hatte so Fake-Filter Dinge! Im Endeffekt wirst du so oder so verarscht. Die Industrie funktioniert nun mal so. Klingt alles toll, super und nach 2 Jahren wirst du erkennen, dass du ne Menge Geld für ein Versprechen eingelöst has ..,

71313

Rampage 2
2020-09-01, 21:48:03
Da würd ich eher sagen, dass die 64 INT-Einheiten jetzt eben 64 FP-Einheiten sind, das passt auch am besten zum Leistungsbild.


Die entscheidende Frage ist dann: kann eine Ampere-Recheneinheit auch INT32-Operationen ausführen? Ist ja für Async-Compute erforderlich - bei Turing war es FP32- und INT32-Operationen gleichzeitig durch separate FP- und INT-Recheneinheiten; bei Ampere FP32- oder INT32-Operationen, dafür aber doppelte Anzahl der Recheneinheiten?

Wenn das wirklich so ist, dann finde ich das von Nvidia clever gemacht...

R2

Ex3cut3r
2020-09-01, 21:48:23
Auch AMD hatte so Fake-Filter Dinge! Im Endeffekt wirst du so oder so verarscht. Die Industrie funktioniert nun mal so. Klingt alles toll, super und nach 2 Jahren wirst du erkennen, dass du ne Menge Geld für ein Versprechen eingelöst has ..,

Hää? Informiere dich mal was DLSS ist und macht. Und dann komm wieder. Sry, ich habe ja nix gegen dich, aber das geht gar nicht.

Ben Carter
2020-09-01, 21:51:00
bin im selben Boot. 650W RMi.
Hab schon mal das 1000er bestellt :freak:
Ich werde es definitiv mit dem 650er probieren. Ist ja an und für sich kein schlechtes NT. Wenn es halt nicht geht, dann tausch ich es aus.

dargo
2020-09-01, 21:53:34
Wäre es von AMD gekommen, wäre es der Heilige Gral.
Da nehmen sich die Fanboys aus beiden Lagern nichts. Ich erinnere nur gerne an die Sprüche vor wenigen Jahren "Nvidia braucht kein DX12". Gegen RT hat sicherlich niemand was. Es sollte halt nur nicht die Performance zu stark runter drücken, sodass bsw. aus einer sorglos 1440p Karte plötzlich eine solala 1080p Karte wird. DLSS wirkt da schon nicht schlecht dagegen. Aber DLSS ist aktuell nichts weiter als ein Flickwerk. Viele Games haben es nicht oder es wird später nachgepatcht. Viel besser wäre eine Technologie die alle IHVs (Nvidia, AMD, Intel) verwenden könnten. Das würde PC-Gaming wesentlich besser voranbringen als der aktuelle Zustand.

TheAntitheist
2020-09-01, 21:54:02
Hier ein Beitrag von Anandtech. Wie immer mit etwas mehr Details und reflektiertheit:

https://www.anandtech.com/show/16057/nvidia-announces-the-geforce-rtx-30-series-ampere-for-gaming-starting-with-rtx-3080-rtx-3090

Quitessenz man weiß nicht so ganz genau ob Nvidia die 10000 Shader gut befüllen kann.
wie es pixeljetstream schon sagte ist die cuda core zahl praktisch nur reines marketing. In der Präsentation wurde gesagt das pro takt 2 Berechnungen durchgeführt werden. Das spricht also nicht für eine verdoppelte cuda core Zahl.

Gouvernator
2020-09-01, 21:54:30
Die 3090 ist zugleich die billigste und die schnellste 8K Karte... Man kann damit sicher schon die ersten Retro-Games in 16K anzocken.

ChaosTM
2020-09-01, 21:55:47
Hab ein 650er momentan und das schafft die 1080ti @ 130% problemlos . Das ist 3080er Land mit über 300 Watt. Da wirds dann schon laut im gedämmten Gehäuse..

dildo4u
2020-09-01, 21:55:57
Hoffe der Kühler taugt was die 3070 FE ist nur 24CM lang.

Digidi
2020-09-01, 21:56:25
wie es pixeljetstream schon sagte ist die cuda core zahl praktisch nur reines marketing. In der Präsentation wurde gesagt das pro takt 2 Berechnungen durchgeführt werden. Das spricht also nicht für eine verdoppelte cuda core Zahl.

Lies dein Text nochmal genau durch :rolleyes: Das ist doch eine Verdopplung.

Raff
2020-09-01, 21:56:45
Die 3090 ist zugleich die billigste und die schnellste 8K Karte... Man kann damit sicher schon die ersten Retro-Games in 16K anzocken.

Das habe ich schon vor zwei Jahren mit meiner Titan X (Pascal)/12G gemacht. In 16K kann man ganz vorzüglich mit der Framebuffer-Size Speicherkrüppel (wie die RTX 3080 *hust*) bestrafen. :naughty:

MfG
Raff

robbitop
2020-09-01, 21:56:47
Die entscheidende Frage ist dann: kann eine Ampere-Recheneinheit auch INT32-Operationen ausführen? Ist ja für Async-Compute erforderlich - bei Turing war es FP32- und INT32-Operationen gleichzeitig durch separate FP- und INT-Recheneinheiten; bei Ampere FP32- oder INT32-Operationen, dafür aber doppelte Anzahl der Recheneinheiten?

Wenn das wirklich so ist, dann finde ich das von Nvidia clever gemacht...

R2
Async compute hat doch nicht zwangsweise mit dem Datenformat zu tun.
Allerdings ist davon auszugehen, dass die FPUs das können. Das tun sie schon seit Ewigkeiten.