PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 [42] 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Wuge
2020-09-06, 15:20:42
Ich bring es immer noch nicht zam, wieso die neuen Dinger so viel schneller sein sollen. 2080S vs. 3070: letztere hat ausser FP32 von allem weniger. Vorallem Speicherbandbreite. Die FP32 müssten doch zu 100% durchschlagen und der INT-Winkelzug bei Turing bullshit gewesen sein, damit sich das kolportierte Bild ergibt. Daher vielleicht auch nur bei aktuellsten Games und alles auf Ultra?

Hab meine 2080S noch und überleg das Teil zu verkaufen. Würde dann durch ne 3080 oder 2080TI ersetzt wenn günstig zu bekommen. Ich brauch power für Flight Sim und VR. Da kommts wohl ehr nicht so auf Shader-Power an ��

MiamiNice
2020-09-06, 15:21:02
I hope sarcasm incoming? :freak:

War der :freak: not enough?

Troyan
2020-09-06, 15:25:21
Selbst mit einer 2080 Super passen die RT-FLOPs nicht zu diesem Bild.

Die RT-FLOPs, die Nvidia angibt sind 100% Auslastung der RT Cores, das theoretische Maximum. Das wird es in Spielen vorerst nicht geben.

glaubt doch nicht alles, was Nvidia in ihren Folien zeigt, die haben nicht einmal Fußnoten, die erklären, wie diese Zahlen zustande gekommen sind.... In den Folien sind so viele dämliche Vergleiche, eigentlich ein Wunder, dass sich keine Hardwareseite genötigt fühlt, sich kritisch mit den Zahlen der Folien auseinander zu setzen. Angst um die Samples?

Liegt daran, dass du Turing als Architektur nicht kennst. Es sind 34 RT-TFLOPs zu 11 FP32-TFLOPs.
Raytracing lastet jedoch mit FP32 und INT32 die Turing-SMs komplett aus. Heißt also, bei Turing bringen die RT-Cores einen geringeren Vorsprung, weil die Architektur schon perse besser mit der Last umgeht als andere. Microsoft hat ihre RT-TFlops basierend auf einer Architektur berechnet, die nur FP32-Berechnungen kann.

Da nVidia nicht auch mit 11TOPS wirbt, stimmt die Angabe.

Digidi
2020-09-06, 15:25:26
Ich bring es immer noch nicht zam, wieso die neuen Dinger so viel schneller sein sollen. 2080S vs. 3070: letztere hat ausser FP32 von allem weniger. Vorallem Speicherbandbreite. Die FP32 müssten doch zu 100% durchschlagen und der INT-Winkelzug bei Turing bullshit gewesen sein, damit sich das kolportierte Bild ergibt. Daher vielleicht auch nur bei aktuellsten Games und alles auf Ultra?

Hab meine 2080S noch und überleg das Teil zu verkaufen. Würde dann durch ne 3080 oder 2080TI ersetzt wenn günstig zu bekommen. Ich brauch power für Flight Sim und VR. Da kommts wohl ehr nicht so auf Shader-Power an ��

Das Problem ist das du immer eine Mischung aus INT und FP32 hast. Das heißt die 100% FP32 sind meist keine 100% zuschlag da es sich das Budget ja immer noch mit INT teilt. Am Ende kommt so eher 40-50% stats 100% raus.

Was ich mich gerfragt habe warum teilen sich INT unf FP32 einen Datenpfad. Hätte man anstelle von 2 Pfaden nicht 3 Pfade machen können?

Hauwech
2020-09-06, 15:26:32
Selbst mit einer 2080 Super passen die RT-FLOPs nicht zu diesem Bild.

Die RT-FLOPs, die Nvidia angibt sind 100% Auslastung der RT Cores, das theoretische Maximum. Das wird es in Spielen vorerst nicht geben.

glaubt doch nicht alles, was Nvidia in ihren Folien zeigt, die haben nicht einmal Fußnoten, die erklären, wie diese Zahlen zustande gekommen sind.... In den Folien sind so viele dämliche Vergleiche, eigentlich ein Wunder, dass sich keine Hardwareseite genötigt fühlt, sich kritisch mit den Zahlen der Folien auseinander zu setzen. Angst um die Samples?

Frag MS und nV wie sie an die Zahlen kommen. Die Zahlen sind für jeden öffentlich verfügbar und ich mache sie nicht. Die +50% von AMD standen auch nur auf einer Folie und wie die zustande kommen, erklären sie ebenfalls nicht aber die rote Fraktion geilt sich ebenfalls an ihnen auf. So what. Gleiches Recht für alle. :wink:

aufkrawall
2020-09-06, 15:28:54
Exodus benutzt DLSS 1.0. Das ist nicht vergleichbar zu Control. Wenn man DLSS2.0 testen will, kann man sich Bright Memory für 5€ oder so kaufen.
Oder auf das Fortnite-Update warten.

masked__rider
2020-09-06, 15:33:33
Interessante Zahlen zum aktuellen iCX3 Kühler der EVGA 3090:

Quelle:
https://www.evga.com/technology/icx3/#icon-description


Dort sieht man auch die 107% PT, die maximal möglich sind (bei EVGA RTX 3090 Karten)

dargo
2020-09-06, 15:39:06
Und zur XBSX gibt es gratis einen 1500€ OLED?
Nee... den gibts nur bei Lederjacke gratis wenn man zwei 3090 bestellt. Das Niveau hier wird immer besser.

pixeljetstream
2020-09-06, 15:40:33
Bei den Wolfenstein graphen muss man darauf achten von welcher Hardware der Graph ist. Das geht von Pascal zu Turing zu Ampere.

why_me
2020-09-06, 15:41:01
Liegt daran, dass du Turing als Architektur nicht kennst. Es sind 34 RT-TFLOPs zu 11 FP32-TFLOPs.
Raytracing lastet jedoch mit FP32 und INT32 die Turing-SMs komplett aus. Heißt also, bei Turing bringen die RT-Cores einen geringeren Vorsprung, weil die Architektur schon perse besser mit der Last umgeht als andere. Microsoft hat ihre RT-TFlops basierend auf einer Architektur berechnet, die nur FP32-Berechnungen kann.

Schau dir das Bild vorne an. Die Frametime sinkt von 51ms auf 20ms -> 60% des Frames wird für Software RT benutzt.
Das bedeutet, die RT-TFLOPs entpsicht wenn man dem Wortlaut von Microsoft nimmt (mit meinetwegen auch INT + FP) "nur" 22 * 0,6 = 13,2 RT-TFLOPs für die 2080s.
Nvidia gibt 34 RT-TFLOPs an. Der grüne Teil im Bild, das ich vorhin gepostet habe, ist aber nicht 100% aktiv, sondern nur ca 40% des Frames -> 13,2 / 0,4 = 33 RT-TFLOPs -> Nvidia verwendet sehr Wahrscheinlich nicht die gleiche Metrik wie Microsoft...
Das alles setzt vorraus, dass Software-RT FP und Int zu 100% auslastet...

Frag MS und nV wie sie an die Zahlen kommen. Die Zahlen sind für jeden öffentlich verfügbar und ich mache sie nicht. Die +50% von AMD standen auch nur auf einer Folie und wie die zustande kommen, erklären sie ebenfalls nicht aber die rote Fraktion geilt sich ebenfalls an ihnen auf. So what. Gleiches Recht für alle. :wink:

Die AMD Folien haben Fußnoten, die erklären, wie die Werte zustande gekommen sind.:eek: Wer lesen kann ist klar im Vorteil.

mironicus
2020-09-06, 15:43:21
Zieht euch eine Lederjacke an wenn ihre eure 3090 vom Händler abholt (der sie dann aus dem Ofen holt) und filmt das und stellt es auf Youtube. Das dürfte richtig für Hype sorgen. :)

Digidi
2020-09-06, 15:47:29
Hier gibts übringesn mal relitäsnahe zahlen auch wenn das noch nicht die volle wahrheit ist:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-168-of-rtx-2080-performance-in-cuda-and-opencl-benchmarks

Interessant man hat tortz beibehalten der 6 GPCs zwischen 2080ti und 3080 eine Rasterizer Steigerung von 30-40%. Hat die 3080 mehr Polymorph Engines als die 2080ti?

Daredevil
2020-09-06, 15:52:32
In Anberacht dessen, dass ne 3080 knapp 30% mehr ziehen soll, ist das etwas schwach.
Aber gut, ne 2080ti bekommt man auch auf 330w, dafür ist die Karte aber dann halt nur 10-15% schneller.

Wuge
2020-09-06, 15:54:18
Das Problem ist das du immer eine Mischung aus INT und FP32 hast. Das heißt die 100% FP32 sind meist keine 100% zuschlag da es sich das Budget ja immer noch mit INT teilt. Am Ende kommt so eher 40-50% stats 100% raus.


Ja genau das will mir eben noch nicht in den Schädel. Nehmen wir mal an, die Effizienz wurde überall optimiert, dass das fehlende SM bei 3070 vs. 2080S und die Bandbreite kompensiert werden.

Dann hat die 3070 5.888 und die 2080S ~4.000 Einheiten (bei 30% Int32 workload). Also 47% mehr. Wenn das zu 40-50% Performancesteigerung führen soll, dann muss doch jeder Grafikkarte bisher komplett durch die Shaderleistung limitiert sein. Oder vielleicht doch Cherrypickung und bei Workloads mit weniger Shader-Lastigkeit sinds dann nur 10% 🤔

pixeljetstream
2020-09-06, 15:58:57
MS gab ja an wie viel tflops sie als equivalent zu der Leistung der RT ops der TMUs sehen.

IMO sind all diese Zahlen Schall und Rauch und keiner würde sich dafür interessieren, wäre der reale Vergleich mit rdna2 schon möglich.

Am Ende zählen reale Vergleiche durch viele Benchmarks und sonst nix.

Denkt Mal dran hat in all den Jahren irgendwer sich für die Flops der rasterizer Units interessiert. Nein... Immer dieses Quartettspiel am Beginn der neuen Generationen ;)

hq-hq
2020-09-06, 16:00:24
Exodus benutzt DLSS 1.0. Das ist nicht vergleichbar zu Control. Wenn man DLSS2.0 testen will, kann man sich Bright Memory für 5€ oder so kaufen.


Mechwarrior5,

hier braucht DLSS2.0@Quality etwas weniger RAM (1440p, RTX@High)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71380&stc=1&d=1599400769

pixeljetstream
2020-09-06, 16:04:37
Hier gibts übringesn mal relitäsnahe zahlen auch wenn das noch nicht die volle wahrheit ist:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-168-of-rtx-2080-performance-in-cuda-and-opencl-benchmarks

Interessant man hat tortz beibehalten der 6 GPCs zwischen 2080ti und 3080 eine Rasterizer Steigerung von 30-40%. Hat die 3080 mehr Polymorph Engines als die 2080ti?
Diese compute APIs (cuda und cl) nutzen rasterizer units gar nicht. Ergo kannst du da keinen Zusammenhang herstellen. Lass dich nicht verwirren nur weil manche Tests da Dreiecke/s Angaben haben.

aufkrawall
2020-09-06, 16:04:47
@hq-hq: Magst du bei der Gelegenheit gleich mal beschreiben, wie du das mit Bild Q in 1440p empfindest?

hq-hq
2020-09-06, 16:14:36
@hq-hq: Magst du bei der Gelegenheit gleich mal beschreiben, wie du das mit Bild Q in 1440p empfindest?

es scheint meine Sharpening Einstellung teilweise aufzuheben, ansonsten wirkt es erstmal wie gutes FSAA und spart ca. 50Watt
im Zweifelsfall wüde ich mich in MW5 für nativ mit Sharpening entscheiden

Auf den Screenshots wirkt es genau anders herum, da man Sharpening ja nicht so einfach in den Screenshot bekommt
nativhttps://abload.de/thumb/mechwarrior-win64-shih6j0j.jpg (https://abload.de/image.php?img=mechwarrior-win64-shih6j0j.jpg)
dlss2.0https://abload.de/thumb/mechwarrior-win64-shiy8j0n.jpg (https://abload.de/image.php?img=mechwarrior-win64-shiy8j0n.jpg)

SkankHunt
2020-09-06, 16:14:50
https://www.arlt.com/Nvidia-GeForce-RTX-30er-Serie/

Sind zumindest die ASUS gelistet ~729€ für die TUF

Dampf
2020-09-06, 16:16:39
Mechwarrior5,

hier braucht DLSS2.0@Quality etwas weniger RAM (1440p, RTX@High)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71380&stc=1&d=1599400769


Hast du die neusten Treiber? Dein DLSS Bild sieht etwas verschwommen aus.

Edit: achso du schärfst beim nativen Bild selbst nach.

Du kannst auch beim DLSS Bild nachschärfen! Dazu einfach Image Sharpening im Control Panel aktivieren

Digidi
2020-09-06, 16:17:58
Ja genau das will mir eben noch nicht in den Schädel. Nehmen wir mal an, die Effizienz wurde überall optimiert, dass das fehlende SM bei 3070 vs. 2080S und die Bandbreite kompensiert werden.

Dann hat die 3070 5.888 und die 2080S ~4.000 Einheiten (bei 30% Int32 workload). Also 47% mehr. Wenn das zu 40-50% Performancesteigerung führen soll, dann muss doch jeder Grafikkarte bisher komplett durch die Shaderleistung limitiert sein. Oder vielleicht doch Cherrypickung und bei Workloads mit weniger Shader-Lastigkeit sinds dann nur 10% ��

Vergleich mal die 2080ti mit der 3080:
Die 2080ti hat folgendes: 4.352 FP32 + 4.352 INT32
Die 3080 hat nun: 4.352 FP32 + ( 4.352 INT32 Oder 4.352 FP32)

Wenn man wirklich eine 50%/50% last zwischen FP32 und INT32 hat sollten beide Karten gleich schnell sein.

In der Realität war es aber schon eher so das 70% FP32 und 30% INT32 Auslastung hat. Dann rechnen auf der 3080 6092 Kerne in FP32 und 2611 Kerne in INT32. Bei FP32 liegen dann praktisch dann auch noch 2611 Kerne brach und bei INT 1740 Kerne.

Das heißt fasst 4000 Kerne werden nicht benutzt.

Hauwech
2020-09-06, 16:19:01
...


Die AMD Folien haben Fußnoten, die erklären, wie die Werte zustande gekommen sind.:eek: Wer lesen kann ist klar im Vorteil.

Ich kenne die Folie und was haben wir da?

Aus der +50% Folie:
See Endnotes RX-325: RDNA 2 improvement based on AMD internal estimate.

Endnote RX-325: Testing done by AMD performance labs 6/1/19, using the Division 2 @ 25x14 Ultra settings. Performance may vary based on use of latest drivers.

Doll! Die +50% wurden aus [B]einem[B] Spiel abgeleitet nur von dem Datum aus geschätzt. Wo steht denn da was zum System? Oder gibt es eine genauere Angabe irgendwo? Ja, das ist natürlich total und wesentlich aussagekräftiger was nV auf ihren Folien unter anderem angibt! :up:

Ravenhearth
2020-09-06, 16:21:10
Ich kenne die Folie und was haben wir da?

Aus der +50% Folie:
See Endnotes RX-325: RDNA 2 improvement based on AMD internal estimate.

Endnote RX-325: Testing done by AMD performance labs 6/1/19, using the Division 2 @ 25x14 Ultra settings. Performance may vary based on use of latest drivers.

Doll! Die +50% wurden aus [B]einem[B] Spiel abgeleitet nur von dem Datum aus geschätzt. Wo steht denn da was zum System? Oder gibt es eine genauere Angabe irgendwo? Ja, das ist natürlich total und wesentlich aussagekräftiger was nV auf ihren Folien unter anderem angibt! :up:
Das gilt ohnehin nur für RDNA1 (die gleiche Fußnote gabs schon bei dessen Vorstellung), die Angabe für RDNA2 ist eine reine Schätzung und stammt nicht aus irgendeinem Spiel. Also nicht unähnlich zB zu den +40% IPC die man erst für Zen versprochen hatte, und die real dann sogar noch übertroffen wurden. Mal sehen wie das bei RDNA2 ausgeht

why_me
2020-09-06, 16:25:39
Wo ist das Problem an dem estimate? Ist ja auch eine Roadmap, wäre auch komisch, wenn uns AMD fast 1 Jahr lang einen fertigen Chip vorenthalten würde...

Testsystem steht in RX-362, fehlt auf der Folie mit RDNA2, aber ist auf der RDNA1 vs GCN Folie vermerkt.

Welches Testsystem verwendet denn Nvidia für die Zahlen in ihren Folien?

Digidi
2020-09-06, 16:28:20
Hmm Was ich mich gerade Frage warum Nvidia nicht 3 Stränge gemacht hat sondern nur 2? hätte man 3 Stränge gemacht hätte man eine aufteilung von 70/30 was ungefähr dem Durchschnitt heutiger FP32/INT32 bedeutet. Das wäre ja das Optimum gewesen. So lässt man nun Chipfläche brach liegen???? :confused:

hq-hq
2020-09-06, 16:36:32
Edit: achso du schärfst beim nativen Bild selbst nach.

Du kannst auch beim DLSS Bild nachschärfen! Dazu einfach Image Sharpening im Control Panel aktivieren

ich denke wegen dem Sharpening macht es den einfachen Screenshot-Vergleich schwierig, ich würde sagen in MW5 OHNE Sharpening wirkt DLSS2.0 besser als nativ, mit Sharpening tendiere ich eher zu nativ... DLSS1.0 in Metro Exodus ist deutlich schlechter als DLSS2.0 in MW5

TheAntitheist
2020-09-06, 16:38:34
Hmm Was ich mich gerade Frage warum Nvidia nicht 3 Stränge gemacht hat sondern nur 2? hätte man 3 Stränge gemacht hätte man eine aufteilung von 70/30 was ungefähr dem Durchschnitt heutiger FP32/INT32 bedeutet. Das wäre ja das Optimum gewesen. So lässt man nun Chipfläche brach liegen???? :confused:
Das Design ist aber für zukünftige Spiele ausgelegt... da steigt die Shaderlast deutlich.

Digidi
2020-09-06, 16:46:01
Kann mir jemand mal sagen wann ich INT und wann ich FP benutze? Macht das überhaupt sinn? Sind ja nur zwei Datenformate, kann man sich nciht mal auf eins einigen?

@TheAntiheist Das sind beides Shaderoperationen....

Wuge
2020-09-06, 17:08:18
Oder im Compiler von FP auf INT cheaten (sollte doch im Treiber möglich sein) wo man's nicht/kaum sieht. Aber das wird jetzt wohl nicht mehr passieren, wo die relative INT Stärke von Turing eine Anomalie bleiben wird.

Mir passts so oder so noch nicht zusammen ausser Turing hatte viel zu wenig FP32 relativ zum Rest.

Hauwech
2020-09-06, 17:09:28
Das gilt ohnehin nur für RDNA1 (die gleiche Fußnote gabs schon bei dessen Vorstellung), die Angabe für RDNA2 ist eine reine Schätzung und stammt nicht aus irgendeinem Spiel. Also nicht unähnlich zB zu den +40% IPC die man erst für Zen versprochen hatte, und die real dann sogar noch übertroffen wurden. Mal sehen wie das bei RDNA2 ausgeht

Ok, hätte mir schon beim Datum auffallen müssen.

Damit ist diese Fußnote in Bezug auf RDNA 2 also komplett zusammenhangslos da sie sich rein auf RDNA1 bezieht; ebenso die Fußnote in der das Testsystem beschrieben wird. Also nV muss anscheinend immer irgendwelche Fußnoten bringen wie die Werte zustande kommen wie why_me es moniert und AMD kann ohne irgendwas nur eine Zahl hinschreiben. Genial.

=Floi=
2020-09-06, 17:20:51
Welche spiele skalieren am besten mit der shaderleistung? anno?

RLZ
2020-09-06, 17:25:19
Was ist eigentlich in diesem Forum kaputt? Inzwischen sind wir angeblich wieder bei einer schlechteren Energieeffizenz als der Vorgänger und von AMD wird die 3090 für die Hälfte des Preise bei massiv weniger Strom weggefegt... Begründet wird das mit dubiosen Benchmarks. Wir sind echt auf einen Qanon/Flacherde Level angelangt.

Kann mir jemand mal sagen wann ich INT und wann ich FP benutze? Macht das überhaupt sinn? Sind ja nur zwei Datenformate, kann man sich nciht mal auf eins einigen?
Ganz ernsthaft? Das disqualifiziert dich für jede ernstzunehmende Diskussion. Les dir mal erstmal die absoluten Basics an.

Erbsenkönig
2020-09-06, 17:26:21
Interessante Zahlen zum aktuellen iCX3 Kühler der EVGA 3090:

Quelle:
https://www.evga.com/technology/icx3/#icon-description


Dort sieht man auch die 107% PT, die maximal möglich sind (bei EVGA RTX 3090 Karten)

1800 RPM und nur knapp über 30 dB(A)? Das kann doch kaum stimmen.

dildo4u
2020-09-06, 17:28:06
Langt als direkt Vergleich aber nicht gegen andere Messungen da es auf die Entfernung vom Mikrofon ankommt.

MartinRiggs
2020-09-06, 17:28:54
Grade EVGA ist jetzt nicht wirklich für leise Karten ab Werk bekannt.
1800 dürfte schon recht deutlich hörbar sein.

Edgecrusher86
2020-09-06, 17:34:59
Also hat die iCX3 dann wohl 370W PT default und 395,5W sind die 107%.

Schnoesel
2020-09-06, 17:35:10
Wenn ich meinen einen Noiseblocker Eloop 140mm@1000 rpm deutlich höre, dann auch definitiv 3 Radaubrüder @1800rpm. Daher läuft der auch auf 700rpm.

MiamiNice
2020-09-06, 17:35:32
Ich hänge mich noch immer an den 107% max PT auf. Hoffentlich kann man wieder das Bios der besseren Karte auf die Ref. Karten aufspielen. Das wird sonst ein recht kurzes OC Vergnügen mit Ampere.
Generell fänd ich es recht knorke wenn NV dazu übergehen würde das PT frei einstellbar zu gestalten - natürlich mit Warnbox und Garantieverlust. Oder halt auf den Ref. Karten ein Dual Bios verbauen würde mit dem obligatorischen Jumper.

rentex
2020-09-06, 17:35:55
Was ist eigentlich in diesem Forum kaputt? Inzwischen sind wir angeblich wieder bei einer schlechteren Energieeffizenz als der Vorgänger und von AMD wird die 3090 für die Hälfte des Preise bei massiv weniger Strom weggefegt... Begründet wird das mit dubiosen Benchmarks. Wir sind echt auf einen Qanon/Flacherde Level angelangt.


Ganz ernsthaft? Das disqualifiziert dich für jede ernstzunehmende Diskussion. Les dir mal erstmal die absoluten Basics an.

Da ist eigentlich alles kaputt...das fällt nicht nur dir und mir auf:wink:

=Floi=
2020-09-06, 17:36:00
Grade EVGA ist jetzt nicht wirklich für leise Karten ab Werk bekannt.



sicher gibt es super leise karten von denen. Sie kosten geld und man kann für ein paar € die garantie auf 10 jahre verlängern. Bei über 700€ lohnt sich das doppelt im vergleich mit der konkurrenz.

Zergra
2020-09-06, 17:43:14
Was ist eigentlich in diesem Forum kaputt? Inzwischen sind wir angeblich wieder bei einer schlechteren Energieeffizenz als der Vorgänger und von AMD wird die 3090 für die Hälfte des Preise bei massiv weniger Strom weggefegt... Begründet wird das mit dubiosen Benchmarks. Wir sind echt auf einen Qanon/Flacherde Level angelangt.


Der Hypetrain wird fährt halt bei jedem Release etwas schneller....

masked__rider
2020-09-06, 17:45:20
Da ist eigentlich alles kaputt...das fällt nicht nur dir und mir auf:wink:
Das fällt mir (als meist stiller Mitleser) auch auf. ;)
Vor allem sind es gewisse Mitglieder, die sich gegenseitig in sehr subtiler Weise eher untereinander "anfeinden", anstatt sich einer soliden Diskussion zu widmen. So etwas strengt an, und verdirbt ab und an ein wenig die Laune, etwas hier beizutragen.

Das war jetzt aber hard off-topic..

@Evga-Kühler

Die 2080ti FTW3 hatte auf TechpowerUp 38db, gemessen in einem passiv belüftetem Gehäuse ohne Seitenwand, bei einem Meter Abstand. Dabei erreicht sie 64° Celsius. Das ist zwar relativ kühl, aber nicht wirklich leise.
Bedenkt man die 70° Celsius auf EVGA´s Grafik, so kommen einem die knapp 31db @ 70°C eher wenig vor.
Aber all diese Vergleiche sind so und so nicht aussagefähig, da man eben nicht weiß, wie EVGA diese Werte ermittelt.
Vergleiche machen halt nur innerhalb einer fixen Testumgebung Sinn.

Digidi
2020-09-06, 17:48:33
Ganz ernsthaft? Das disqualifiziert dich für jede ernstzunehmende Diskussion. Les dir mal erstmal die absoluten Basics an.


Ich frage danach weil ich es nicht sicher weiß. Das letzte war eine reine Gedankenfrage. Ich komme nicht aus diesem Bereich. Es wäre nett wenn du nicht gleich immer ausflippst und anfänst rumzupöblen und du dafür mal Infos dazu lieferst wo ich so etwas nachlesen kann.

=Floi=
2020-09-06, 17:55:45
Ich hänge mich noch immer an den 107% max PT auf. Hoffentlich kann man wieder das Bios der besseren Karte auf die Ref. Karten aufspielen. Das wird sonst ein recht kurzes OC Vergnügen mit Ampere.
Generell fänd ich es recht knorke wenn NV dazu übergehen würde das PT frei einstellbar zu gestalten - natürlich mit Warnbox und Garantieverlust. Oder halt auf den Ref. Karten ein Dual Bios verbauen würde mit dem obligatorischen Jumper.

du kapierst schon wieder nicht, dass es auch ein limit für den verlöteten chip gibt und das war vor jahren schon bei 400w.

Troyan
2020-09-06, 17:56:53
Schau dir das Bild vorne an. Die Frametime sinkt von 51ms auf 20ms -> 60% des Frames wird für Software RT benutzt.
Das bedeutet, die RT-TFLOPs entpsicht wenn man dem Wortlaut von Microsoft nimmt (mit meinetwegen auch INT + FP) "nur" 22 * 0,6 = 13,2 RT-TFLOPs für die 2080s.
Nvidia gibt 34 RT-TFLOPs an. Der grüne Teil im Bild, das ich vorhin gepostet habe, ist aber nicht 100% aktiv, sondern nur ca 40% des Frames -> 13,2 / 0,4 = 33 RT-TFLOPs -> Nvidia verwendet sehr Wahrscheinlich nicht die gleiche Metrik wie Microsoft...
Das alles setzt vorraus, dass Software-RT FP und Int zu 100% auslastet...


Deiner Logik folgend, sind die RTA Units von AMD besser, weil deren Grundarchitektur schlechter ist. Das stimmt eben nicht. Turing beschleunigt DXR/VulkanRT aufgrund der parallelen Abarbeitung von FP32+INT32 gegenüber Pascal schon von sich aus. Ergo liegt der Vorteil der RTCores bei Turing im praktischen nur bei der Hälfte der Möglichkeit. Also laut dir müsste daher dort 17 FP32-TFLOPs stehen. Aber siehst du, das stimmt eben nicht, da die 11 TOPs von der 2080S nicht betrachtet werden.

Deswegen ist auch eine 1660TI in Spielen mit Raytracing immer deutlich schneller als eine GTX1080 und nah an der 1080TI.

RLZ
2020-09-06, 17:59:04
Es wäre nett wenn du nicht gleich immer ausflippst und anfänst rumzupöblen und du dafür mal Infos dazu lieferst wo ich so etwas nachlesen kann.
Weil ich genau dafür bekannt bin immer rumzupöbeln und keine Infos zu liefern. :freak:
Und nein ich werde ich jetzt keine Infos zu Integer vs Floating Point liefern. Irgendwann ist auch ein Punkt überschritten.

Digidi
2020-09-06, 18:00:21
Weil ich genau dafür bekannt bin immer rumzupöbeln und keine Infos zu liefern. :freak:
Und nein ich werde ich jetzt keine Infos zu Integer vs Floating Point liefern. Irgendwann ist auch ein Punkt überschritten.

Dann beschwerr dich nicht das du mit leuten redest die nur halbwissen haben oh mann immer die arroganz!
Kannst ja mal schauen was für ein Müll google etc auspuckt wenn man danachz sucht. Aber jo man macht es sich halt einfach und stellt sich dann als überlegen hin... .

why_me
2020-09-06, 18:04:13
Deiner Logik folgend, sind die RTA Units von AMD besser, weil deren Grundarchitektur schlechter ist. Das stimmt eben nicht. Turing beschleunigt DXR/VulkanRT aufgrund der parallelen Abarbeitung von FP32+INT32 gegenüber Pascal schon von sich aus. Ergo liegt der Vorteil der RTCores bei Turing im praktischen nur bei der Hälfte der Möglichkeit. Also laut dir müsste daher dort 17 FP32-TFLOPs stehen. Aber siehst du, das stimmt eben nicht, da die 11 TOPs von der 2080S nicht betrachtet werden.

Ich kapier beim besten Willen nicht, was du mir damit sagen willst :confused:
Ich habe doch deinen Einwand mit FP + INT cores berücksichtig (11 + 11 = 22)...

Ich bleib dabei, die RT-TFLOPs von Nvidia sind nicht mit denen von Microsoft und der Xbox vergleichbar.

pixeljetstream
2020-09-06, 18:08:15
Kann mir jemand mal sagen wann ich INT und wann ich FP benutze? Macht das überhaupt sinn? Sind ja nur zwei Datenformate, kann man sich nciht mal auf eins einigen?

@TheAntiheist Das sind beides Shaderoperationen....

Das sind zwei fundamental unterschiedliche Konzepte und man hat sich ja schon in Standards geeignet wie genau diese Datentypen funktionieren.

Ganzzahlen reichen aus für Logik, Zähler, Adressberechnung etc. Es bedarf weniger Transistoren das in hw umzusetzen, daher war das früher dominant (und das meiste an typischen CPU Code kommt damit aus). Gleitkommazahl nutzt du wie real auch für alles wo du fliesenden Wertebereich hast. In Grafik Koordinaten, Transformationen, Ergebnisse der Beleuchtung, Intensitäten...

Neben float gabs auch fixedpoint in der Hardware als Kompromiss, zum Teil auch immer noch intern genutzt, wenn der Wertebereich fest ist. Da definiert man zahlen mit festen Bits für Ganzzahl und festen Bits für Nachkommastelle.

Du stellst ja immer wieder fragen die ins Detail gehen, daher mangelt es wohl nicht an Interesse. Geh mal so Programmier Tutorials zu den Basics durch. Gibt auch Universitäten die Vorlesungen online haben.

Edit bissl Google: https://user.informatik.uni-goettingen.de/~brosenne/vortraege/archiv/folien2-teilmenge.pdf

Digidi
2020-09-06, 18:18:43
@Pixeljetstream

Danke für die Info

Um das halt alles zu verstehen braucht es ein gesondertes Studium. Das Sind Grundlagen die hat man nicht mal so einfach drauf. Außerdem braucht man halt auch ein Studium der Software und der Hardware und nicht alles was man in Software machen kann macht in der Hardware sinn.

Eine Reele Zahl in eine Ganzzahl zu wandeln ist für uns z.B. kein Aufwand, dies aber in der Hardware abzubilden anscheinend schon. Das war mir vorher nicht so ganz bewusst.

rentex
2020-09-06, 18:26:34
Gibt es für dieses Thema ein "GPU mArch and Basics for Dummies" Grundlagenartikel?

pixeljetstream
2020-09-06, 18:31:02
IMO (und RLZ hat es ja mit dem Hammer ausgedrückt) ist das eher Informatik Einführung. Kurzes Googlen https://user.informatik.uni-goettingen.de/~brosenne/vortraege/archiv/folien2-teilmenge.pdf

Digidi
2020-09-06, 18:32:24
IMO (und RLZ hat es ja mit dem Hammer ausgedrückt) ist das eher Informatik Einführung. Kurzes Googlen https://user.informatik.uni-goettingen.de/~brosenne/vortraege/archiv/folien2-teilmenge.pdf

Wenn man weiß was man suchen muss. Wenn man int32 und fp32 in google eingibt kommen erst mal 20 seiten nvidia architektur ;D

Großen Danke pixeljetsteam!

RLZ
2020-09-06, 18:38:31
Gibt es für dieses Thema ein "GPU mArch and Basics for Dummies" Grundlagenartikel?
Für Datentyp-Repräsentationen gibt es eine quasi unendliche Anzahl an Artikeln. Für FP32 ist IEEE754 ein Anfang. Im Endeffekt laufen die aber alle darauf hinaus wie die Verteilung der verfügbaren Werte (2^32 für 32 Bit) auf den Wertebereich stattfindet. Integer ist da trivial. Da wird Min/Max definiert und die Werte sind äquidistant. Für FP Formate hast du in der Regel einen weit größeren Wertebereich (da irgendwo ein Exponenten eingebaut ist) und deine verfügbaren Werte konzentrieren sich um die Null. Deswegen ist Fixed Point Arithmetik ein Ding, wenn man mit großen Wertebereichen und/oder gleichbleibender Genauigkeit arbeiten muss.

https://www.volkerschatz.com/science/pics/fltscale-wh.png

Das ist aber alles Grundlagen der Kategorie "wie funktioniert ein Computer" und noch weit von GPU Feinheiten weg.

MiamiNice
2020-09-06, 18:43:09
du kapierst schon wieder nicht, dass es auch ein limit für den verlöteten chip gibt und das war vor jahren schon bei 400w.

Absehen von Deiner Unfreundlichkeit, stimmt Deine Aussage leider auch nicht. Ich habe schon deutlich mehr als 400 Watt durch eine GPU gedrückt und es kommen Ampere Karten mit über 500 Watt PT ootb.

pixeljetstream
2020-09-06, 18:43:16
https://www.h-schmidt.net/FloatConverter/IEEE754de.html
Ist auch ganz nett die Bits zu sehen, hatte das neulich für paar Tricks genutzt ;)

Im Prinzip reichen diese Einführungskurse für CPU, wenn man das kapiert ist’s einfacher den Unterschied/Gemeinsamkeit zu verstehen. Ganz ganz grob ein CPU Core macht ähnliches wie SM/CU.

just4FunTA
2020-09-06, 18:46:53
Auch die neuen Speichermengen sollen laut Khan wichtig sein. Statt 11 GB bei der RTX 2080 Ti will Nvidia mit der RTX 3090 nun stolze 24 GB bieten. Nicht so rosig sieht es hingegen bei den schwächeren Grafikkarten aus: Die RTX 3080 bekommt zum Launch nur 10 GB, die RTX 3070 nur 8 GB. Damit bewegt sich letztere am von Khan genannten Minimum: Grafikkarten mit weniger Speicher sollten laut ihm nicht mehr für moderne Spiele gekauft werden. Im Zweifel sollte man immer eine Grafikkarte mit mehr Speicher bevorzugen.https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/ID-Tech-Chef-RTX-3000-HDMI-Grafikspeicher-wichtig-1357579/

Digidi
2020-09-06, 18:47:18
Wenn man es rein aus der Mathematischen bwz. Softwareseite betrachtet gibt es keinen unterschied ob man mit INT+Ticks oder mit FP rechnet. Man kann mit beiden Datenformaten am Ende zum selben ergebnis mit der selben Genauigkeit kommen.

Ich glaube ich Ahne worauf es hinausläuft. Das FP format lässt sich schwerer darstellen als ein INT Format. Wahrscheinlich ist die FP Einheit auf der GPU dann auch langsamer als die INT einheiten bwz. brauchen auch mehr Chiplfäche?

BoMbY
2020-09-06, 18:51:27
Floating Point ist immer wieder toll, vor allem sowas wie Fast inverse square root (https://en.wikipedia.org/wiki/Fast_inverse_square_root):

float Q_rsqrt( float number )
{
long i;
float x2, y;
const float threehalfs = 1.5F;

x2 = number * 0.5F;
y = number;
i = * ( long * ) &y; // evil floating point bit level hacking
i = 0x5f3759df - ( i >> 1 ); // what the fuck?
y = * ( float * ) &i;
y = y * ( threehalfs - ( x2 * y * y ) ); // 1st iteration
// y = y * ( threehalfs - ( x2 * y * y ) ); // 2nd iteration, this can be removed

return y;
}

pixeljetstream
2020-09-06, 18:51:29
Wenn man es rein aus der Mathematischen bwz. Softwareseite betrachtet gibt es keinen unterschied ob man mit INT+Ticks oder mit FP rechnet. Man kann mit beiden Datenformaten am Ende zum selben ergebnis mit der selben Genauigkeit kommen.

Ich glaube ich Ahne worauf es hinausläuft. Das FP format lässt sich schwerer darstellen als ein INT Format. Wahrscheinlich ist die FP Einheit auf der GPU dann auch langsamer als die INT einheiten bwz. brauchen auch mehr Chiplfäche?
Du könntest „per Hand“ nur INT nutzend die Zahlen ausdrücken, aber um das effizienter zu kriegen und die Operationen in hw zu gießen hat man sich auf Standardrepäsentation und Verhalten geeinigt, wie RLZ das IEEE erwähnt.

RLZ
2020-09-06, 18:57:15
Wenn man es rein aus der Mathematischen bwz. Softwareseite betrachtet gibt es keinen unterschied ob man mit INT+Ticks oder mit FP rechnet.
Nein. Wenn man das von Softwareseite aus so betrachtet, wird man früher oder später Rechenfehler bekommen.
Man kann mit beiden Datenformaten am Ende zum selben ergebnis mit der selben Genauigkeit kommen.
Mathematisch gesehen gibt es abzählbar unendlich viele Natürliche Zahlen und unabzählbar unendlich viele Reele Zahlen. Du hast aber nicht unendlich Speicherplatz für eine Variable. Daher funktioniert die Argumentation nicht.

Ich glaube ich Ahne worauf es hinausläuft. Das FP format lässt sich schwerer darstellen als ein INT Format. Wahrscheinlich ist die FP Einheit auf der GPU dann auch langsamer als die INT einheiten bwz. brauchen auch mehr Chiplfäche?
Schau dir IEEE754 an und überleg dir mal wie die mathematischen Operationen damit aussehen würden...

SKYNET
2020-09-06, 19:01:14
Absehen von Deiner Unfreundlichkeit, stimmt Deine Aussage leider auch nicht. Ich habe schon deutlich mehr als 400 Watt durch eine GPU gedrückt und es kommen Ampere Karten mit über 500 Watt PT ootb.


mhhh, du verwechselst nun glaube ich boardpower mit GPU power...

boardpower knacke ich mit der 1080Ti ja spielend die 420W marke, GPU selber ist aber um die 300W :freak:

Troyan
2020-09-06, 19:03:29
Ich kapier beim besten Willen nicht, was du mir damit sagen willst :confused:
Ich habe doch deinen Einwand mit FP + INT cores berücksichtig (11 + 11 = 22)...

Ich bleib dabei, die RT-TFLOPs von Nvidia sind nicht mit denen von Microsoft und der Xbox vergleichbar.

Turing verhält sich bei Raytracing (also DXR und VulkanRT) wie eine GPU mit der doppelten Rechenleistung. Die 2080 hat also nicht 11 TFLOPs sondern 22 TFLOPs. Die Beschleunigung durch die RT Cores beträgt trotzdem weiterhin mehr als 2x. Ergo liegt deren Rechenleistung nicht bei 22 TFLOPs sondern bei 44 TFLOPs.

Da aber die Beschleunigung durch den zweiten INT-Datenpfad kommt, hat die 2080 11 TFLOPs weniger FP32 Leistung, was eben auch den Durchsatz der RTCores auf 34 TFLOPs reduziert.

nVidia hat dies auch auf der einen Folie dargestellt. Die 3080 ist ohne RTCores nur 1.4x schneller wegen 1.4x mehr ComputeUnits. Mit RTCores dagegen 1.7x, weil ein 2nd RTCore 1.2x schneller ist.

aufkrawall
2020-09-06, 19:05:49
mhhh, du verwechselst nun glaube ich boardpower mit GPU power...

boardpower knacke ich mit der 1080Ti ja spielend die 420W marke, GPU selber ist aber um die 300W :freak:
Mit beschissenem Prozess geht alles, die RX 480 Gaming säuft hier absolut unverschämt vs. eine 580 Armor. Die standardmäßigen 180W Limit für GPU-only wurden nicht völlig ohne Grund ausgewählt. :freak:

Ex3cut3r
2020-09-06, 19:12:06
Egal wie gut Ampere wird, ich werde mir nicht schon wieder zum dritten mal in Folge einen 8GB Gammel kaufen. So nicht Nvidia so nicht!!!!

Linmoum
2020-09-06, 19:15:48
Nimmste halt eins drüber die mit super tollen 10GiB. ;)

Digidi
2020-09-06, 19:17:55
@RLZ Danke für die Antwort.

ich habe das schon verstanden.

Man kann trozdem mit Int Zahlen auch Reele Zahlen Darstellen. Es ist halt aufwendiger und hätte einen Enormen Tradoff. Man müsste halt 2 Int Zahlen verwenden um dies zu Bewerkstelligne. In der Ersten Zahlt steht der Wert in der zweiten Zahl die Stelle an der das Komma kommt oder wieviele Nullen noch anzufügen sind.

Für die Genauigkeit zählen nur die Digits die man Darstellen/Speichern kann und hier sind wenn ich das richtig gelesen habe FP32 und INT32 gleich. Bei INT32 müsste ich halt immer noch eine zweite INT32 mit mir schleppen die mir sagt wo sich die Zahl im Reelen Specktrum befindet.

Worauf aber meine Hauptfrage abzielt warum man denn nicht nur noch FP32 nimmt. FP32 ist eine Reele Zahl die alle Natürlichen Zahlen beinhaltet. Wenn man INT rausschmeißen würde hätte man mehr Platz für FP Einheiten und hätte keinen Verlust was die Rechenqualität angeht.

Das waren meine Gedanken dazu.

Platos
2020-09-06, 19:18:34
Ich seh's ja schon kommen (ist ja schon angedeutet hier im Thread), dass manche jetzt auf Krampf versuchen zu "beweisen", dass 8 bzw. 10 GB ja völlig ausreichen (werden)...

Aber ich denke nicht, dass es keine Versionen mit mehr Speicher geben wird. Es gab schon so detailierte Leaks (mit genauen Bezeichnungen etc, keine Youtube "Leaks"), da hätte nvidia schon längst reagiert, wäre das alles nur Fake.

Und auch weil AMD sicherlich mehr bringen wird. Sie haben ja "schon" mit der VII 16GB für ~700 gebracht. Dann wirds jetzt sicherlich nicht weniger und selbst nvidia kann sich nicht leisten, 8/10GB gegen 16GB antreten zu lassen.

RLZ
2020-09-06, 19:31:46
Man kann trozdem mit Int Zahlen auch Reele Zahlen Darstellen.
Nein. Mit einer endlichen Anzahl von abzählbar unendlich großen Mengen (e.g. natürliche Zahlen) kann man keine Reelle Zahl beschreiben, sonst gäbe es nicht überabzählbar unendlich viele davon ;)

Aber abseits der Theorie:

Worauf aber meine Hauptfrage abzielt warum man denn nicht nur noch FP32 nimmt. FP32 ist eine Reele Zahl die alle Natürlichen Zahlen beinhaltet. Wenn man INT rausschmeißen würde hätte man mehr Platz für FP Einheiten und hätte keinen Verlust was die Rechenqualität angeht.
Auch nein. FP32 kann sehr viele/die meisten Int32 nicht exakt darstellen

MiamiNice
2020-09-06, 19:36:31
@Platos:

Das kannst Du imo aufgeben. Bei den von NV aufgerufenen Preisen hat bei den meisten der gesunde Verstand ausgesetzt. Und dabei sind die selben, die noch vor xx Seiten hier im Thread geschrieben haben, das nochmal 11Gb much zu wenig wären. Der Preis regelt das scheinbar.

SKYNET
2020-09-06, 19:42:49
Mit beschissenem Prozess geht alles, die RX 480 Gaming säuft hier absolut unverschämt vs. eine 580 Armor. Die standardmäßigen 180W Limit für GPU-only wurden nicht völlig ohne Grund ausgewählt. :freak:


ich gestehe, habe meine Pulse RX580 nie getreten... weiss also nicht was sie kann, nur den speicher hochgerissen(4600) und die GPU undervoltet @ stock clock... kommt bei <130W raus die gute und dreht nie über 50% lüfter :)

aber denke die könnte ich auch auf 300W bringen oder mehr :ulol:

Platos
2020-09-06, 19:44:56
@Platos:

Das kannst Du imo aufgeben. Bei den von NV aufgerufenen Preisen hat bei den meisten der gesunde Verstand ausgesetzt. Und dabei sind die selben, die noch vor xx Seiten hier im Thread geschrieben haben, das nochmal 11Gb much zu wenig wären. Der Preis regelt das scheinbar.

Muss wohl anscheinend so sein. Die Rohleistung ist (bei bisherigem Kenntnisstand) ja zugegeben wieder mal vernünftig (vor allem der 3080). Aber vor einer Version mit mehr Speicher kriegt nvidia gar nichts von mir.

8GB ist nicht einmal mehr für eine 3060 genug. Das kann man für eine 3050(Ti) bringen.

Digidi
2020-09-06, 19:52:34
Nein. Mit einer endlichen Anzahl von abzählbar unendlich großen Mengen (e.g. natürliche Zahlen) kann man keine Reelle Zahl beschreiben, sonst gäbe es nicht überabzählbar unendlich viele davon ;)

Aber abseits der Theorie:

Auch nein. FP32 kann sehr viele/die meisten Int32 nicht exakt darstellen

@RLZ Danke für den Hinweis.

Zur Darstellung einer Reelen Zahl mit zwei Int Zahlen schreib ich ja das es nur ein Trick ist. In die erste Zahl steht der Wert in der zweiten der Exponent. Natürlich wäre das für die Hardware der Todesstoß weil beim Multiplizeren den Exponenten zu verschieben viel Arbeit machen würde. P.s. ob Reele Zahl oder Natürliche Zahl, alles kann man im PC sowieso nicht abbilden, denn der Speicher ist Endlich auch FP32 hat irgendwann sein limit erreicht ;)


Ah ja ich sehe. Die Digits bei FP32 sind nur 23 Stellig bei INT32 31 Stellig.
Das ist es was ich gesucht habe, dan sit klar warum FP32 in manchen Bereichen ungenauer ist, ich dachte die 32 im Wort bezieht sich immer um die Darstellbaren Digits:
https://www.dummies.com/programming/c/the-real-difference-between-integers-and-floating-point-values/

BoMbY
2020-09-06, 19:55:18
Aktuell braucht man Integer und Co. vermutlich auch vor allem wegen Farbwerten und dergleichen.

Eine Vereinheitlichung wird es vermutlich erst geben wenn sich so etwas wie Unum (https://de.wikipedia.org/wiki/Unum_(Zahlenformat)) durchsetzt.

why_me
2020-09-06, 19:56:24
Turing verhält sich bei Raytracing (also DXR und VulkanRT) wie eine GPU mit der doppelten Rechenleistung. Die 2080 hat also nicht 11 TFLOPs sondern 22 TFLOPs. Die Beschleunigung durch die RT Cores beträgt trotzdem weiterhin mehr als 2x. Ergo liegt deren Rechenleistung nicht bei 22 TFLOPs sondern bei 44 TFLOPs.

Da aber die Beschleunigung durch den zweiten INT-Datenpfad kommt, hat die 2080 11 TFLOPs weniger FP32 Leistung, was eben auch den Durchsatz der RTCores auf 34 TFLOPs reduziert.

Es mag ja sein, dass die RT Cores 34 RT-TFLOPs Durchsatz haben, wenn sie 100% ausgelastet sind, aber das entspricht halt nicht der 13 TFLOPs Angabe der XBSX. Die sprechen nicht von Durchsatz, sondern vom einem Teil des Frames, der Ausgelagert werden konnte:
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone"
Das bedeutet eben, dass der RT Teil über 13 TFLOPs in den Shadern benötigt hätte und ausgelagert werden konnte. Aber nicht dass die RT Cores der Xbox nur ein Äquivalent von 13 TFLOPs haben.

Bezugnehmen auf das Bild vor ein Paar Seiten:
Microsoft gibt den Grünen Teil an, der aus dem Software Raytracing beispiel in die RT Cores ausgelagert wird, Nvidia den Kompletten Durchsatz der RT Cores -> Daher nicht vergleichbar, bzw von Nvidia schön gerechnet.
Und die RT Performance der XBSX entspricht eben mindestens einer 2080 und eben nicht 13 vs 34 RT-TFLOPs...
Es sei denn du willst mir in deinem Rechenbeispiel oben erklären, dass Nvidia die FP32 + RT Cores gerechnet hat, dann wäre die RT Leistung der XBOX deutlich schneller.... Aber eben nicht deutlich langsamer.

Orbmu2k
2020-09-06, 19:57:48
@RLZ Danke für den Hinweis.

Ah ja ich sehe. Die Digits bei FP32 sind nur 23 Stellig bei INT32 31 Stellig.
Das ist es was ich gesucht habe, dan sit klar warum FP32 in manchen Bereichen ungenauer ist, ich dachte die 32 im Wort bezieht sich immer um die Darstellbaren Digits:
https://www.dummies.com/programming/c/the-real-difference-between-integers-and-floating-point-values/

Dazu kommt noch dass jede Umwandlung um das da rein pressen zu wollen zusätzliche GPU Cylcles kosten würde also super ineffizient wird.

aufkrawall
2020-09-06, 20:05:29
ich gestehe, habe meine Pulse RX580 nie getreten... weiss also nicht was sie kann, nur den speicher hochgerissen(4600) und die GPU undervoltet @ stock clock... kommt bei <130W raus die gute und dreht nie über 50% lüfter :)

Der 580 hatte ich mit UV auch maximal 130 zugestanden. Die 480 braucht aber bei 30MHz weniger (=1300) gleich 75mV mehr, beim Worst Case Heizer PoE sind es dann bei 150W GPU only gedrosselte ~1230MHz. So extrem ist es allerdings die Ausnahme und der gute Kühler steckt das mühelos leise weg.

Ich würde davon ausgehen, dass ein Ampere-Refresh im detailverbesserten Prozess ebenfalls deutlich sparsamer zu betreiben sein wird. Auch wird interessant sein, ob man bei Ampere überhaupt noch so viel Effizienz via UV wie bei den TSMC-Nvidias rausquetschen kann. Schon die allerersten Pascal-Chips waren UV-Monster...

Hübie
2020-09-06, 20:54:04
Mobile mit Desktop zu vergleichen ist so wie LKW und PKW.

Soweit ich weiß hat Igor Kontakte zu MSI und Gigabyte, was NVIDIA betrifft. Die bekommen nur das an Infos was die gerade brauchen. EVGA und ASUS sind da m.W.n. schon etwas enger angebunden. Aber die Infos werden so falsch nicht sein. ;)
Ich bin guter Dinge, dass ich meine gute alte 980 Ti in jeder Metrik - außer Preis - verdoppeln kann (wenn es dann nur 11 statt 12 GB sind; Schwamm drüber).

Ich zitiere mich mal selbst und verweise mal dezent darauf, dass die Steigerung weitaus mehr als eine Verdopplung darstellt, was mich wirklich überrascht hat.

Hier übrigens noch eine Zusammenfassung von WhyCry (ja ich weiß :tongue:) https://videocardz.com/newz/nvidia-details-geforce-rtx-30-ampere-architecture

unl34shed
2020-09-06, 20:54:27
Turing verhält sich bei Raytracing (also DXR und VulkanRT) wie eine GPU mit der doppelten Rechenleistung. Die 2080 hat also nicht 11 TFLOPs sondern 22 TFLOPs.

Ja, SW Raytracing scheint ein recht guter mix aus INT als auch FP zu sein. Und hier ist die 2080S ca. doppelt so schnell wie die 1080Ti. Beide mit etwa 11TFLOPS.
Wenn du oben noch 22 TOPS draus machst, stimmt es, ist ja nicht alles Float.

https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day_Arch_Hardware_Seite_33-pcgh.jpg


Die Beschleunigung durch die RT Cores beträgt trotzdem weiterhin mehr als 2x. Ergo liegt deren Rechenleistung nicht bei 22 TFLOPs sondern bei 44 TFLOPs.

Da aber die Beschleunigung durch den zweiten INT-Datenpfad kommt, hat die 2080 11 TFLOPs weniger FP32 Leistung, was eben auch den Durchsatz der RTCores auf 34 TFLOPs reduziert.

Hier komme ich nicht mit. Das ist nämlich wie why_me sagt nicht die Metrik die MS für die XBOX nutzt. MS sagt man spart X TFLOPS Rechenleistung durch die RT HW ein. Man gibt aber nicht den theoretischen maximalen Durchsatz in TFLOPS an. (Das macht MS mit Intersections/s)

Äpfel mit Birnen verglichen.

E: PS: Kannst du mal versuchen deine Rechnung mit paint anhand der Nvidia Slide erklären?
https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day_Arch_Hardware_Seite_34-pcgh.jpg

Lurtz
2020-09-06, 21:00:21
Nein. Mit einer endlichen Anzahl von abzählbar unendlich großen Mengen (e.g. natürliche Zahlen) kann man keine Reelle Zahl beschreiben, sonst gäbe es nicht überabzählbar unendlich viele davon ;)

Aber abseits der Theorie:

Auch nein. FP32 kann sehr viele/die meisten Int32 nicht exakt darstellen
Wer da schon stolpert dem sei das Buch "Beyond Infinity" von Eugenia Cheng empfohlen. Das erklärt das sehr anschaulich.

RLZ
2020-09-06, 21:23:01
Da Motion Blur hier keine Suchergebnisse liefert, mal noch Slides über die ich gestolpert bin

https://www.hardwaretimes.com/nvidia-rtx-3080-3090-ampere-architectural-deep-dive-2x-fp32-2nd-gen-rt-cores-3rd-gen-tensor-cores-and-rtx-io/amp/

https://www.hardwaretimes.com/wp-content/uploads/2020/09/NVIDIA-GeForce-RTX-30-Tech-Session-00012_8E7903036AE74BDFA681C17C4533F4DB.jpg

https://www.hardwaretimes.com/wp-content/uploads/2020/09/NVIDIA-GeForce-RTX-30-Tech-Session-00015_24C6C532328D4B609C2E99B21B453B34.jpg

woodsdog
2020-09-06, 22:07:16
gut das hier grundlegende Informatikkenntnisse im Ampere Speku Thread seitenweise erarbeitet werdem. Volkshochschulen stehen praktisch allen Interessierten offen wenn man ernsthaft in das Thema einsteigen möchte.

Dampf
2020-09-06, 22:08:52
Also irgendwie versteh ich das nicht. Motion Blur gibts doch schon ewig in Spielen, auch in denen mit Raytracing. Bei Turing sollte die Performance also maßgeblich gelitten haben, wenn man RT und Motion Blur zusammen aktivierte? Davon hat man doch nichts bemerkt, oder? Sonst hätte man allen geraten, Motion Blur zu deaktivieren.

Oder ist das eine komplett neue Art von Motion Blur, die mit Raytracing realisiert wird?

Badesalz
2020-09-06, 22:28:26
Ich hoffe du meinst nicht mich damit, da Sinn so eines threads im forum hier ja ist mehr Details zu sammeln und der Problematik des Messens, bzw. des Sachverhalts sich bewusst zu werden.Noch heute morgen hätt ich gedacht, du kannst das sehr einfach in einem mittelgroßen Beitrag erklären und aufklären.

Jetzt gibt es einen thread um der Wahrheit auf die Schliche zu kommen... Irgendwie bisschen seltsam.

Neosix
2020-09-06, 22:29:12
Hab mal gelesen das DLSS und Motion Blur zusammen halt bei Turing gar nicht ging und es empfohlen war Motion Blur zu deaktivieren, bei Ampere soll das kein Problem mehr sein.

Badesalz
2020-09-06, 22:32:59
Die Leute aber sollen lieber in 144fps statt 120fps spielen und entsprechend fettere HW kaufen, damit es garkeine Motionlburs mehr haben? :wink:

SKYNET
2020-09-06, 22:43:42
Hab mal gelesen das DLSS und Motion Blur zusammen halt bei Turing gar nicht ging und es empfohlen war Motion Blur zu deaktivieren, bei Ampere soll das kein Problem mehr sein.


MB ist eh hässlich, gibt kein game wo ichs aktiv lasse im menü... :freak:

Jupiter
2020-09-06, 22:46:24
Also irgendwie versteh ich das nicht. Motion Blur gibts doch schon ewig in Spielen, auch in denen mit Raytracing. Bei Turing sollte die Performance also maßgeblich gelitten haben, wenn man RT und Motion Blur zusammen aktivierte? Davon hat man doch nichts bemerkt, oder? Sonst hätte man allen geraten, Motion Blur zu deaktivieren.

Oder ist das eine komplett neue Art von Motion Blur, die mit Raytracing realisiert wird?

Vielleicht eine Art 3D Motion Blur. Das aktuelle Motion Blur aus Videospielen funkioniert z. B. nicht für Schatten. Filme haben eine ganz andere Qualität.

Ex3cut3r
2020-09-06, 22:49:37
Object Motion Blur @DX10 fand ich in Crysis 1 früher ganz goil. Hatte damit meinen Spaß beim Fässer werfen.

Jupiter
2020-09-06, 22:51:07
Object Motion Blur @DX10 fand ich in Crysis 1 früher ganz goil. Hatte damit meinen Spaß beim Fässer werfen.

Die herausgeworfenen Patronenhülsen machten damit einen viel größeren Eindruck. Objekt Motion Blur ist m. E. notwendig.

Ex3cut3r
2020-09-06, 22:56:09
Jap. Leider kenne ich kaum Games die Object Motion Blur bieten. Metro Teil 1 (Ur Version) fällt mir dann noch ein, das wars. :(

Troyan
2020-09-07, 00:25:12
Es mag ja sein, dass die RT Cores 34 RT-TFLOPs Durchsatz haben, wenn sie 100% ausgelastet sind, aber das entspricht halt nicht der 13 TFLOPs Angabe der XBSX. Die sprechen nicht von Durchsatz, sondern vom einem Teil des Frames, der Ausgelagert werden konnte:
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone"
Das bedeutet eben, dass der RT Teil über 13 TFLOPs in den Shadern benötigt hätte und ausgelagert werden konnte. Aber nicht dass die RT Cores der Xbox nur ein Äquivalent von 13 TFLOPs haben.

"For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs

Null Unterschied zu nVidia. Der 2080 stehen 11 TFLOPs FP32 sowie 34 RT-TFLOPs bei Raytracing über DXR zur Verfügung.
Außer du meinst Microsoft lügt und meint nur zusätzlich 1 TFLOP. Denn immerhin besitzt die Konsole ja schon 12 TFLOPs...


Bezugnehmen auf das Bild vor ein Paar Seiten:
Microsoft gibt den Grünen Teil an, der aus dem Software Raytracing beispiel in die RT Cores ausgelagert wird, Nvidia den Kompletten Durchsatz der RT Cores -> Daher nicht vergleichbar, bzw von Nvidia schön gerechnet.
Und die RT Performance der XBSX entspricht eben mindestens einer 2080 und eben nicht 13 vs 34 RT-TFLOPs...
Es sei denn du willst mir in deinem Rechenbeispiel oben erklären, dass Nvidia die FP32 + RT Cores gerechnet hat, dann wäre die RT Leistung der XBOX deutlich schneller.... Aber eben nicht deutlich langsamer.

Der grüne Teil bei nVidia zeigt die RT-Cores. Und nVidia gibt explizit die Leistungsfähigkeit der RT-Cores an.

Shaft
2020-09-07, 00:34:10
Jap. Leider kenne ich kaum Games die Object Motion Blur bieten. Metro Teil 1 (Ur Version) fällt mir dann noch ein, das wars. :(

Und sah richtig gut aus, da wünsche ich mir mehr spiele.

Digidi
2020-09-07, 00:44:40
Jap. Leider kenne ich kaum Games die Object Motion Blur bieten. Metro Teil 1 (Ur Version) fällt mir dann noch ein, das wars. :(
Motinblure ust das nicht das Feature das man anwendet um nicht zu sehen wie schlecht der Rest ist ;D

pixeljetstream
2020-09-07, 00:57:59
Das motion blur feature in den RT-Cores ist eher fuer die professionellen offline renderer im Film. Da macht man motion blur nicht als post-effekt sondern brute-force sampling. Es gibt dafuer auch nix in DXR.

why_me
2020-09-07, 02:16:21
Null Unterschied zu nVidia. Der 2080 stehen 11 TFLOPs FP32 sowie 34 RT-TFLOPs bei Raytracing über DXR zur Verfügung.

Das bezweifel ich mittlerweile sehr stark, ich habe mich noch einmal mit den Slides auseinandere gesetzt und bin mir mittlerweile sehr sicher, dass Nvidia hier 22 TFLOPs Durchsatz + 11 TFLOPs der cuda cores gerechnet hat. Ist mir nur zu spät, werde ich später aufbereiten.

Auch scheint die RT Leistung bei Ampere nur durch die Breite der GPU und nicht durch schnellere RT Cores zu kommen (es wurden nur die triangle intersections verdoppelt, box intersections nicht?).
22 TFLOPs Durchsatz * 1,4 Einheiten (3080) + 30 TFLOPs von Cuda Cores = ~58

Außer du meinst Microsoft lügt und meint nur zusätzlich 1 TFLOP. Denn immerhin besitzt die Konsole ja schon 12 TFLOPs...

Was Microsoft gesagt hat, ist ziemlich eindeutig, wenn man der englischen Sprache mächtig ist.

Die GPU hat 12 TFLOPs, beim berechnen eines Spiels mit RT können Berechnungen die eigentlich über 13 TFLOP benötigt hätten ausgelagert werden. (In den Nvidia Slides arbeiten die RT cores nur 40% eines frames ;) Ja unterschiedliche Datenbasis, aber näher als "well over ...")
Die "well over" 25 TFLOPs bedeutet "weit mehr als", das wäre vergleichbar mit Durchsatz + TFLOPs, nur gibt es hierzu eben keine genaue Angabe seitens Microsoft.

Der grüne Teil bei nVidia zeigt die RT-Cores. Und nVidia gibt explizit die Leistungsfähigkeit der RT-Cores an.

Nur entspricht dieser eben nicht den 34 bzw 22 TFLOPs sondern eher 8,8 TFLOPs ausgehend von 1080 ti zu 2080 super ;)

N0rG
2020-09-07, 09:15:33
Gibts eigentlich schon irgendwo eine Liste welche Karten mit welchem PCB kommen? Wegen Wakü Kompatibilität.

Dural
2020-09-07, 09:25:26
Bei den Cuda und OpenCL Benchmark müsste man den noch beachten das die doch oft auch an der Bandbreite hängen. Eventuell unterbindet NV per Treiber auch die Leistung, man will ja die Tesla Karten bei FP32 nicht auseinander nehmen ;)

Und wenn INT32 gefragt ist, ist die sache eh klar.

Leonidas
2020-09-07, 09:29:06
Kimi zum Thema GA103: Der früher gestrichene Chip soll nun unter einer besseren Fertigung nochmals aufgelegt werden, Ziel soll sein, die GeForce RTX 3080 kostengünstiger zu bekommen. Ergo ist eher weniger mehr HW-Einheiten zu erwarten, sondern einfach nur ein Chip-Ersatz von GA102 zu GA103 bei der GeForce RTX 3080. Natürlich mit der Restchance, dass es doch mehr wird:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-56-september-2020

ShinyMcShine
2020-09-07, 09:34:53
Kimi zum Thema GA103: Der früher gestrichene Chip soll nun unter einer besseren Fertigung nochmals aufgelegt werden, Ziel soll sein, die GeForce RTX 3080 kostengünstiger zu bekommen. Ergo ist eher weniger mehr HW-Einheiten zu erwarten, sondern einfach nur ein Chip-Ersatz von GA102 zu GA103 bei der GeForce RTX 3080. Natürlich mit der Restchance, dass es doch mehr wird:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-56-september-2020

Diese Entscheidung hätte aber schon vor längerer Zeit fallen müssen? Das dauert ja, den ganzen Chip unter ggf. anderer Fertigung neu aufzulegen...

Zergra
2020-09-07, 09:35:28
Der würde damit die große Lücke zwischen der 3070 und der 3080 füllen.

Eine 3080Ti dürfte damit auch wahrscheinlicher werden.

Dural
2020-09-07, 09:35:45
Bezweifel ich, NV nutz seit Jahren dafür die GA113 Bezeichnung für so ein Chip.

Die Namen sind aber so wie so durcheinander gekommen, GA104 ist ja eigentlich der TU106 Nachfolger, einen direkten TU104 Nachfolger gibt es nicht.

Edit:
Besseren Prozess kann ja nur 7nm bedeuten, ein GA102 in 7nm wäre max 500mm2 gross, eher so um die 450mm2. Wo soll da einen GA103 Platz finden?!?

Leonidas
2020-09-07, 09:57:05
Diese Entscheidung hätte aber schon vor längerer Zeit fallen müssen? Das dauert ja, den ganzen Chip unter ggf. anderer Fertigung neu aufzulegen...


Korrekt. Ergo kaum ein schneller Release.



Bezweifel ich, NV nutz seit Jahren dafür die GA113 Bezeichnung für so ein Chip.


Stimmt einwandfrei.

Brillus
2020-09-07, 10:23:48
Bei den Cuda und OpenCL Benchmark müsste man den noch beachten das die doch oft auch an der Bandbreite hängen. Eventuell unterbindet NV per Treiber auch die Leistung, man will ja die Tesla Karten bei FP32 nicht auseinander nehmen ;)

Und wenn INT32 gefragt ist, ist die sache eh klar.

Finde es putzig wie du alle schlechten Nachrichten zu NV dir schön reden willst aber wehe jemand macht das bei AMD dann rufst du nach den Heugabeln.

Hauwech
2020-09-07, 10:27:33
Finde es putzig wie du alle schlechten Nachrichten zu NV dir schön reden willst aber wehe jemand macht das bei AMD dann rufst du nach den Heugabeln.

Als wenn das bei der roten Fraktion anders wäre. :rolleyes:

Screemer
2020-09-07, 10:35:03
Also ich sehe hier niemanden unsachlich irgendwelchen Mist in die Fäden kotzen wie es dural so gerne tut. "Aber die anderen" zieht außerdem in keinem Fall. Diskussion also eigentlich unnötig.

Dural
2020-09-07, 11:00:07
Ich rede überhaupt nichts schön, ich bin nur realistisch. :rolleyes:

pixeljetstream
2020-09-07, 11:12:39
man will ja die Tesla Karten bei FP32 nicht auseinander nehmen ;)
Die quadros werden auch für Server Markt verkauft :)

Hübie
2020-09-07, 11:13:08
Kimi zum Thema GA103: Der früher gestrichene Chip soll nun unter einer besseren Fertigung nochmals aufgelegt werden, Ziel soll sein, die GeForce RTX 3080 kostengünstiger zu bekommen. Ergo ist eher weniger mehr HW-Einheiten zu erwarten, sondern einfach nur ein Chip-Ersatz von GA102 zu GA103 bei der GeForce RTX 3080. Natürlich mit der Restchance, dass es doch mehr wird:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-56-september-2020

Wenn dem so ist, dann wohl bei TSMC. Ob es sich kostentechnisch rentiert, muss sich zeigen, aber der Chip müsste demnach auch schon lange in der Pipeline sein und im recht späten Zyklus gecancelt worden sein.
Ich beobachte bei NV einen anstieg an Modularität, was bedeutet, dass man Chips einfach(er) skalieren kann. Wobei "einfach" in dem Kontext nicht trivial ist...

Diese Entscheidung hätte aber schon vor längerer Zeit fallen müssen? Das dauert ja, den ganzen Chip unter ggf. anderer Fertigung neu aufzulegen...

Je nachdem an welchem Punkt der Chip gestoppt wurde...

JVC
2020-09-07, 11:41:19
Wenn dem so ist, dann wohl bei TSMC.

Soviel ich mit bekommen habe... (hörensagenlesen undso)
War Apere für Samsung "7nm" vorgesehen...
Samsung konnte aber nicht liefern...
Also bemühte man sich (scheinbar vergebens) bei TSMC...
Portierte im Endeffekt auf Samsungs "Notfallplan", "8LPP"...

Ob sie jetzt doch auf TSMC 7nm, oder "nur" auf Samsung 7nm.... ka.
Und Wann vor allem, so bald wie möglich oder erst zum Refresh.... ka.

Für mich wirkt Ampere schon alleine wegen des voraussichtlichen hohen Verbrauches
irgendwie nicht so "gelungen"... (z.b. 3070 ist schon fast auf dem Niveau der 1080Ti)

M.f.G. JVC

Hübie
2020-09-07, 11:46:22
Die Metrik muss stehts Perf/W sein. Wie weit man sich da absetzt (oder eben auch nicht), wird sich ja bald zeigen.
Igor hat schon so durchscheinen lassen, dass ihm mollig warm im Labor ist. X-D

HOT
2020-09-07, 11:56:56
Soviel ich mit bekommen habe... (hörensagenlesen undso)
War Apere für Samsung "7nm" vorgesehen...
Samsung konnte aber nicht liefern...
Also bemühte man sich (scheinbar vergebens) bei TSMC...
Portierte im Endeffekt auf Samsungs "Notfallplan", "8LPP"...

Ob sie jetzt doch auf TSMC 7nm, oder "nur" auf Samsung 7nm.... ka.
Und Wann vor allem, so bald wie möglich oder erst zum Refresh.... ka.

Für mich wirkt Ampere schon alleine wegen des voraussichtlichen hohen Verbrauches
irgendwie nicht so "gelungen"... (z.b. 3070 ist schon fast auf dem Niveau der 1080Ti)

M.f.G. JVC

Glaub ich nicht. Die Zeitpläne der Prozesse sind schon lange bekannt. Die Arbeiten an 8LPP müssen ja schon Anfang 19 begonnen haben, da gibts keine Zufälle. Bei TSMC hätten sie zuviel bezahlen müssen, das ist einfach alles.

Brillus
2020-09-07, 12:00:57
Ich rede überhaupt nichts schön, ich bin nur realistisch. :rolleyes:

Nein bist du nicht dann würdest du nicht so extrem unterschiedliche Masstäbe anlegen.

Hübie
2020-09-07, 12:08:25
Glaub ich nicht. Die Zeitpläne der Prozesse sind schon lange bekannt. Die Arbeiten an 8LPP müssen ja schon Anfang 19 begonnen haben, da gibts keine Zufälle. Bei TSMC hätten sie zuviel bezahlen müssen, das ist einfach alles.

Quelle? :freak: Solch haltlose Aussagen würde ich nicht so krude in den Raum werfen.

MiamiNice
2020-09-07, 12:08:38
Die Metrik muss stehts Perf/W sein. Wie weit man sich da absetzt (oder eben auch nicht), wird sich ja bald zeigen.
Igor hat schon so durchscheinen lassen, dass ihm mollig warm im Labor ist. X-D


Wäre schön wenn sich das mal ändern würde. Die Metrik sollte Perf sein, nothing else.

HOT
2020-09-07, 12:09:37
Quelle? :freak: Solch haltlose Aussagen würde ich nicht so krude in den Raum werfen.
Also bei dem herumgephantasiere mir das vorzuwerfen ist schon bescheuert, sry.

Hübie
2020-09-07, 12:13:26
Was genau fantasiere ich denn, deiner bescheidenen Meinung nach?

Monsta
2020-09-07, 12:25:25
Wäre schön wenn sich das mal ändern würde. Die Metrik sollte Perf sein, nothing else.

Wie kann man nur so kleingeistig sein.

Wenn die Spielkonsolen anstatt 150 Watt 200 verballern ist das bei einer Installationsbasis von 150 Mio Konsolen ein Mehrbrauch 7500MW. Wenn die alle eingeschaltet sein sollten.
Das Entspricht der Leistung von 5 mittleren Atomkraftwerken.

Verbrauch sehe ich als sehr wichtig, wir reden hier von Videospielen. Da gibt es wichtigeres im Leben.

robbitop
2020-09-07, 12:29:48
Grundsätzlich sind die Zeiträume schon relativ lang. Design 2-3 Jahre, erstes Tapeout bis zum ersten Bringup sind sicherlich 3 Monate. Fast immer ist ein Respin nötig. Nochmal 3 Monate. Validierung etc bis die Massenproduktion läuft. Nochmal 3 Monate.
Das sind in Summe schnell 3-4 Jahre. Der Fertigungsprozess sollte sicherlich in der zweiten Hälfte der Designzeit feststehen.

Die Validierungsphasen werden immer länger. Bei Intel gibt es nicht selten erste Validierungssamples >1 Jahr vor Veröffentlichung. Navi 21 war wohl auch Ende 2019 schon in den Labors.

Mal eben schnell den Prozess in letzter Minute zu ändern word da schwierig.

Produzentübergreifend (Wechsel von TSMC zu Samsung) innerhalb der gleichen GFX IP wird noch schwieriger. Bei den cutting edge nodes sind diese bemüht, dass da nichts zur Konkurrenz läuft. Als IHV muss man aber einiges über den Node für die Optimierung wissen. Deshalb sind NDAs sehr üblich, dass die gleichen Leute die bei Projekt X mit Fertiger 1 arbeiten, nicht auch mit Fertiger 2 arbeiten dürfen.

Insofern aind diese Erzählungen um „es war lange 7nm geplant aber NV hat sich bei der Verhandlung verzockt und musste in letzter Minute zu Samsung 8nm wechseln“ schon echte Räuberpistolen.

Genau wie Erzählungen über Features die noch schnell in letzter Minute ins Silizium gewandert sind. In letzter Minute im Sinne vor 18+ Monaten vielleicht... X-D

basix
2020-09-07, 12:35:42
Wäre schön wenn sich das mal ändern würde. Die Metrik sollte Perf sein, nothing else.

Kann man so sehen, muss man aber nicht ;) Früher hätte ich dir zugestimmt, als Grafikkarten noch mit Popelkühlern kühlbar waren. Heute sehe ich Perf/Watt als mit Abstand wichtigste Metrik an. Wieso? Egal ob 1W oder 1000W, Aufwand und Ertrag passt. Ich halte aber alles >250W für eine Einzelkarte für unsinnig und das aus mehreren Gründen.

rentex
2020-09-07, 12:38:19
Bezüglich Wechsel von TSMC zu Samsung, kann die Geschichte schon relativ am Anfang der gesamten Entwicklung passiert sein...ob wir das jemals in Erfahrung bringen werden?
Der Rest sollte klar sein.

w0mbat
2020-09-07, 12:39:41
Insofern aind diese Erzählungen um „es war lange 7nm geplant aber NV hat sich bei der Verhandlung verzockt und musste in letzter Minute zu Samsung 8nm wechseln“ schon echte Räuberpistolen.

Genau wie Erzählungen über Features die noch schnell in letzter Minute ins Silizium gewandert sind. In letzter Minute im Sinne vor 18+ Monaten vielleicht... X-D
Da gab es vor kurzem einen super spannenden podcast von Moores Law is Dead dazu.

Daredevil
2020-09-07, 12:45:22
Die Metrik muss stehts Perf/W sein. Wie weit man sich da absetzt (oder eben auch nicht), wird sich ja bald zeigen.
Igor hat schon so durchscheinen lassen, dass ihm mollig warm im Labor ist. X-D
Wäre schön wenn sich das mal ändern würde. Die Metrik sollte Perf sein, nothing else.
Ich sehe das so wie ihr beide eigentlich, auch wenn ihr unterschiedliche Dinge sagt. :D

Perf/Watt ist mir durchaus wichtig, allerdings muss eine Grundperformance auch da sein, so dass ich in den Luxus kommen kann, die Perf/Watt zu steigern.
Spiele ich Detroit:Become Human auf 8K, bin ich mit ner 2080ti bei ~28fps.
Da bringt mir Perf/Watt nichts, wenn mir über 100% Leistung fehlen.
Spiele ich WoW auf 5K@120, schaffe ich das auch mit 150w bei ner 2080ti. ( Wird nicht so warm im Zimmer :D )

Priorität 1 > Problem lösen ( Am besten mit viel Puffer )
Priorität 2 > Strom sparen

Will ich nur Perf/Watt und wäre nur das wichtig, wo kämen wir denn hin?
Altos Adventures Perf/Watt Rating
iPhone 11@60hz > Sehr wenig Strom
iPad Pro@120fps > Wenig Strom
Apple TV 4K@60fps am Oled > Viel Strom
GamingPC 8K@120fps > Sehr viel Strom

Meist ist es aber Variante 2 und 3, weil alles andere echt unnötig ist. :D

MiamiNice
2020-09-07, 12:46:20
Wie kann man nur so kleingeistig sein.

Dankeschön :smile:
Mal absehen davon das wir zu viel Strom produzieren und die Einspeisung auf 70% limitiert ist, damit Kraftwerke nicht demontiert werden müssen ( das sollte man kritisieren btw. ) - finde ich, das der Wunsch nach mehr Power in der Kiste absolut legitim ist.

Jedem das seine, leben und leben lassen und so.

woodsdog
2020-09-07, 13:00:50
Jedem das seine, leben und leben lassen und so.

Das solltest du vielleicht erst mal selbst praktizieren, just sayin.

Darüber hinaus ist dein stumpfes "moar Powa!!" halt schon etwas kleingeistig da Perf/W nun mal der Schlüssel dafür ist. An der Grenze der Kühlung sind wir schon seit ein paar Gens angelangt, es ist leider schlicht nicht mehr möglich wie in den 2000er Jahren einfach mehr Power drauf werfen und schwupps hat man wieder 50% zusätzlich zu besseren Fertigung in der nächsten Gen.

TLDR Perf/W möglichst groß ist das oberste Ziel weil mehr W für mehr Perf schlicht nicht mehr geht.

RLZ
2020-09-07, 13:02:25
Das motion blur feature in den RT-Cores ist eher fuer die professionellen offline renderer im Film. Da macht man motion blur nicht als post-effekt sondern brute-force sampling. Es gibt dafuer auch nix in DXR.
Wird man sehen. Es macht offensichtlich ja erst Sinn, wenn die Primär-Intersections auch mit Raytracing berechnet werden. Aber es gibt ja mit Minecraft RTX und Quake RTX ja schon Spiele, die das nutzen. Ich könnte mir vorstellen, dass Nvidia das Motion Blur dort als Showcases reinpusht.

RLZ
2020-09-07, 13:11:07
Finde es putzig wie du alle schlechten Nachrichten zu NV dir schön reden willst aber wehe jemand macht das bei AMD dann rufst du nach den Heugabeln.
Bei Nvidia haben wir inzwischen einen Realitätscheck und dank DigitalFoundry auch die ersten groben Zahlen. (auch wenn die immer wieder extrem kaputtgeredet werden)
Bei AMD bin ich mir sicher, dass hier im Forum zur Vorstellung auch "gesicherte" 1024CUs erreicht werden. Der Hype ist da komplett außer Kontrolle geraten und hat ein Maß erreicht, das realistisch gesehen nur zu einer großen Enttäuschung führen kann.

Thunder99
2020-09-07, 13:18:09
Ich Frage mich wie ein GA103 Platz haben sollte, da ja der Große Chip ja auch Teildefekte hat die verkauft werden wollen. Macht nicht wirklich Sinn.

unl34shed
2020-09-07, 13:26:42
Grundsätzlich sind die Zeiträume schon relativ lang. Design 2-3 Jahre, erstes Tapeout bis zum ersten Bringup sind sicherlich 3 Monate. Fast immer ist ein Respin nötig. Nochmal 3 Monate. Validierung etc bis die Massenproduktion läuft. Nochmal 3 Monate.

...

Die Validierungsphasen werden immer länger. Bei Intel gibt es nicht selten erste Validierungssamples >1 Jahr vor Veröffentlichung. Navi 21 war wohl auch Ende 2019 schon in den Labors.

Das Lustige ist, Mitte 2019 war man sich noch sicher, dass Ampere zu einem Großteil auf Samsung 7nm EUV basieren wird:
http://www.koreaherald.com/view.php?ud=20190702000692

During a press conference in Seoul, Nvidia Korea chief Yoo Eung-joon said that its production of advanced GPUs will be conducted by Samsung Electronics with its 7-nanometer extreme ultraviolet process.
While Yoo did not reveal the exact amount of foundry production by Samsung, he acknowledged that production would be “substantial.”

Das heißt doch, dass Ampere im letzten Jahr mit er heißen Nadel auf 8nm umgestrickt worden sein musste, oder?

nordic_pegasus
2020-09-07, 13:34:25
Ich Frage mich wie ein GA103 Platz haben sollte, da ja der Große Chip ja auch Teildefekte hat die verkauft werden wollen. Macht nicht wirklich Sinn.

bei TU102 und GP102 wurden auch nur volle Chips (Titan / Quadro) und wenig beschnittene Chips verkauft (1080Ti / 2080Ti). Analog kann die 3090 mit 82 von 84 SM weiterlaufen und die vollen GA102 gehen in Quadros oder vielleicht irgendwann in einen 3090Super / Titan Ampere.

Ein 20% beschnittener xx102 Chip kannte ich bislang gar nicht. Warum Nvidia solchen "Abfall" als Produkt auf den Markt bringt, kann man trefflich diskutieren. Zumal man dafür auch erstmal genug Chips mit so starken Defekten haben muss, welche trotzdem noch funktionieren. Was auch immer das für den Samsung Prozess bedeuten mag.

Flinx
2020-09-07, 13:41:28
Dankeschön :smile:
Mal absehen davon das wir zu viel Strom produzieren und die Einspeisung auf 70% limitiert ist, damit Kraftwerke nicht demontiert werden müssen ( das sollte man kritisieren btw. ) - finde ich, das der Wunsch nach mehr Power in der Kiste absolut legitim ist.

Jedem das seine, leben und leben lassen und so.

Installierte Windstromleistung 36 Gigawatt im Jahr 2019
Durchschnittliche Leistung...8,7 Gigawatt im Jahr 2019
Absolut minimal geleistete Einspeisung im Jahr 2019...270 Megawatt...

Speicherkraftwerke..reichen eventuell 30 min...


Keine Sonne, kein Wind...alle Grundlastkraftwerke abgebaut...keiner spielt...keiner fährt Elektro Auto;D

Nazar
2020-09-07, 13:45:46
Und zur XBSX gibt es gratis einen 1500€ OLED? Immer wieder lustig, dass bei der GPU ein neuer PC angesetzt wird, bei den Konsolen aber nie der Fernsehr.

O M G

Jetzt werden schon Äpfel mit Backsteinen verglichen. Waren die Birnen ausverkauft? ;D
Einfach der Hammer... you made my day! ;D

Please explain why an XboxS Series console have to need an OLED TV!?
Are you serious? :freak:
WHAT happens to you..... :confused:

unl34shed
2020-09-07, 13:46:09
Mal eine andere Frage, müsste die 3070 nicht in RT Titeln schlechter sein, als die 2080Ti? Von wegen gleich schnell oder sogar schneller...

2080 Super wird von Nvidia mit 34 RT-TFLOPS angegeben bei 48SMs, mit 68SMs sollten dass dann 48,2 RT-TFLOPs für die 2080 Ti sein. Die 3070 wird aber nur mit 40 RT-Tflops angegeben. Soviel zum Thema doppelte RT Performance... :confused: :|

Cyberfries
2020-09-07, 14:01:36
2080 Super wird von Nvidia mit 34 RT-TFLOPS angegeben bei 48SMs, mit 68SMs sollten dass dann 48,2 RT-TFLOPs für die 2080 Ti sein. Die 3070 wird aber nur mit 40 RT-Tflops angegeben.

Die theoretische Rechenleistung spiegelt nicht die tatsächliche Geschwindigkeit wieder.
Eine RX590 ist schließlich trotz 7,1TFlops langsamer als eine RTX 2060 mit nur 6,5TFlops.

----

Ich hab jetzt die letzten Minuten ein bisschen in die Tasten getippt und von GA103 geträumt.
Jetzt glaub ich aber selbst nicht mehr wirklich dran, löschen will ichs auch nicht, deshalb verpacke ich das ganze mal als Spoiler

Spekulatius:
GA102 & GA104 hatten ihren Tapeout im März & Mai. Um den Zeitraum haben wir erfahren, dass GA103 fehlt/gestrichen wurde.
Um den Jahreswechsel kamen erstmals größere Informationshäppchen zu Big Navi.

Angenommen also nVidia plante 2019 noch mit:
GA102: Titan 82SM, 3080TI 72SM
GA103: 3080 58SM
GA104: 3070 46SM
Schönes Portfolio mit angenehmen Abständen von 20-25%.

Dann soll Navi plötzlich stärker als erwartet werden. Die sich anbahnende Pandemie wird den geplanten Marktstart verzögern.
8nm erlaubt es nicht, GA103 weiter aufzudrehen. (Nochmal: Alles reine Spekulation, ich male hier nur ein denkbares Bild)
Also rückt die 3080 einen Schritt nach oben GA103 wird nicht wie geplant umgesetzt,
da der Chip in 8nm aufgrund der Größe und des Stromverbrauchs nicht attraktiv ist, sondern verschoben.
Die Verschiebung kann man sich erlauben, da Ampere ohnehin erst zum Jahresende aufschlägt.

Wenn wir von 18 Monaten ausgehen um den Chip umzubauen von 8nm auf 7nm,
wäre es selbst ausgehend von April 2020 noch möglich, den Chip für das Weihnachtsgeschäft 2021 zu bringen.
Der Sinneswandel wird aber nicht erst nach dem Tapeout von GA102 erfolgt sein, also würde ich eher auf Jahresmitte tippen.
Dann hätten wir in Q1 die Vervollständigung des Ampere-Portfolios und im zweiten Halbjahr den Super-Refresh auch mit GA103.

Denkbar wäre das ganze so:
3090 Super 84SM
3080 Super 72SM
3070 Super (GA103) 58SM
In 7nm wäre der Chip dann kaum größer als GA104 und ein gutes Stück weg von den 300+Watt.
Als ich fertig war sind mir Lücken aufgefallen, wie z.B. dass für einen Super-Refresh eher mehr als weniger Recheneinheiten von Nöten wären.
Dass nVidia die Fertigung ändert - möglich? aber nebenbei auch noch 20% mehr Recheneinheiten, dann wird der Zeitrahmen zu eng.

woodsdog
2020-09-07, 14:03:19
Ein 20% beschnittener xx102 Chip kannte ich bislang gar nicht. Warum Nvidia solchen "Abfall" als Produkt auf den Markt bringt, kann man trefflich diskutieren. Zumal man dafür auch erstmal genug Chips mit so starken Defekten haben muss, welche trotzdem noch funktionieren. Was auch immer das für den Samsung Prozess bedeuten mag.

Warum setzt du voraus das an den Salvage Chips immer so viel kaputt sein muss damit er dann eben als Salvage in den Markt geht?
Gab in der Vergangenheit mehrfach Beispiele von CPUs in denen sich der "defekte" Kern freischalten oder Grakas wo sich eine 9500 Pro zur 9700 Pro machen ließ. Kommt halt ggf vor das du mehr gute Chips hast als 3090 verkaufst, was soll dann falsch sein den als 3080 laufen zu lassen? Nicht verkaufen ist halt immer noch weniger als billiger

Daredevil
2020-09-07, 14:06:22
Mal eine andere Frage, müsste die 3070 nicht in RT Titeln schlechter sein, als die 2080Ti? Von wegen gleich schnell oder sogar schneller...

2080 Super wird von Nvidia mit 34 RT-TFLOPS angegeben bei 48SMs, mit 68SMs sollten dass dann 48,2 RT-TFLOPs für die 2080 Ti sein. Die 3070 wird aber nur mit 40 RT-Tflops angegeben. Soviel zum Thema doppelte RT Performance... :confused: :|

Die 3070 wird ihre Stärken haben ( Rohperformance, Effizienz ), die 2080ti wird ihre Stärken haben ( Bandbreite/Speichermenge ).
So richtig glaube ich aber auch an ein 3070>2080ti Szenario nicht, Nvidia wird das sicher mit angegeben haben, weil dieser Vergleich "Du bekommst für 500€ 2080ti Leistung" stärker greift als die Performance Angabe selber.
Die 3070 ist quasi ne P/L AMD Karte innerhalb von Nvidia, der "Underdog", der "Gutmensch", der, der jedem Leistung gibt und quasi nichts dafür verlangt.
Quasi die Volkskarte, würde Bild jetzt sagen. Der Konsolenkiller.

PS: Bevor gehate kommt, ich finde das natürlich gut, egal wer in diese Kerbe schlägt.

Zergra
2020-09-07, 14:06:53
Mal eine andere Frage, müsste die 3070 nicht in RT Titeln schlechter sein, als die 2080Ti? Von wegen gleich schnell oder sogar schneller...

2080 Super wird von Nvidia mit 34 RT-TFLOPS angegeben bei 48SMs, mit 68SMs sollten dass dann 48,2 RT-TFLOPs für die 2080 Ti sein. Die 3070 wird aber nur mit 40 RT-Tflops angegeben. Soviel zum Thema doppelte RT Performance... :confused: :|

Gibt ja Daten von NV zwischen der 2070 und der 3070. Die 3070 ist in Rt 60-70% schneller als die 2070. Muss man nur noch die 2080Ti mit der 2070 vergleichen.

So groß dürfte der Unterschied nicht sein. Am Ende dürfte die 2080Ti interessanter als die 3070 sein.

Brillus
2020-09-07, 14:09:22
Bei Nvidia haben wir inzwischen einen Realitätscheck und dank DigitalFoundry auch die ersten groben Zahlen. (auch wenn die immer wieder extrem kaputtgeredet werden)
Bei AMD bin ich mir sicher, dass hier im Forum zur Vorstellung auch "gesicherte" 1024CUs erreicht werden. Der Hype ist da komplett außer Kontrolle geraten und hat ein Maß erreicht, das realistisch gesehen nur zu einer großen Enttäuschung führen kann.

Mal an realitätscheck. Wir haben hier einen Benchmarkleak zu einer Zeit wo schon Karten bei Reviewern sind und Dural schreit rum das der nicht stimmen kann oder künstlich Limitiert ist. Aber bei den 50% mehr Effizients vom AMD erzählt er regelmäßig das es unmöglich wäre obwohl NV sowas schon gemacht und AMD die letzten Jahre mit solchen Angaben immer tiefgestapelt hat.

Was ist jetzt die Realitätsverweigerung.

BigKid
2020-09-07, 14:17:04
Wäre schön wenn sich das mal ändern würde. Die Metrik sollte Perf sein, nothing else.
Klar... Drumm ist es auch in Ordnung, dass bei SUVs auch das Fahrzeug Gewicht in die Effizienzklasse mit eingeht... Weil das Entscheidende ist ja wie Schwer die Karre ist und nicht wie lächerlich wenig Mensch damit bewegt wird...

Perf/Watt ist ein wichtiges Kritierium... Vielleicht nicht für jeden Gamer aber für einige... Für Gaming Notebooks ist es sogar DAS Kriterium... Wenn NVidia nicht für Notebooks doch noch was in nem besseren Fertigungsprozess auflegt dann ist diese Gen zB für Notebooks gar nicht mal so interessant wie sich viele erhofft hatten... Für Luftkühler wird es auch zunehmend eins... Für alle die einen einigermassen leisen PC wollen... und zuletzt auch für die Umwelt...

PS: Versteh mich nicht falsch... die reine Performance ist sicher AUCH in Kriterium... Aber für mich zB rückt es in dem Moment in den Hintergrund wo die Performance AUSREICHEND für meine Zwecke ist - ab da Perf/Watt... Und ne Wakü käme mir einfach nicht in meinen PC - da wirds mir dann "zu blöd" ... Wenn also meine Wattage irgendwann limitiert dann wird Perf/Watt für mich wichtiger ...

unl34shed
2020-09-07, 14:17:04
Die theoretische Rechenleistung spiegelt nicht die tatsächliche Geschwindigkeit wieder.
Eine RX590 ist schließlich trotz 7,1TFlops langsamer als eine RTX 2060 mit nur 6,5TFlops.

Nicht wirklich, Laut Nvidias Archtecture Slides zu Ampere bzw. den Vergleichen darin zwischen Pascal und Turing ist SW RT ein recht guter Mix aus FP und INT (die extra INT ALU gibt +100% Performance). Hier hat Ampere also keinen Vorteil durch die extra FP ALUs.

Und da die Angabe ein Äquivalent zu der benötigten Shader Leistung für vergleichbares SW RT sein soll, sind die Werte auch zwischen den beiden Architekturen vergleichbar.

RLZ
2020-09-07, 14:20:01
Mal an realitätscheck. Wir haben hier einen Benchmarkleak zu einer Zeit wo schon Karten bei Reviewern sind
Es gibt inzwischen eine ganze Leakindustrie an der ganze Existenzen an den Views/Clicks hängen. Vor jedem wichtigen Ereignis (nicht nur GPU) haben wir eine Bandbreite an "Leak-Fakten", dass garantiert jemand dabei ist der Recht hat. Aber wert sind die Leaks eigentlich nichts mehr.

nordic_pegasus
2020-09-07, 14:22:51
Warum setzt du voraus das an den Salvage Chips immer so viel kaputt sein muss damit er dann eben als Salvage in den Markt geht?
Gab in der Vergangenheit mehrfach Beispiele von CPUs in denen sich der "defekte" Kern freischalten oder Grakas wo sich eine 9500 Pro zur 9700 Pro machen ließ. Kommt halt ggf vor das du mehr gute Chips hast als 3090 verkaufst, was soll dann falsch sein den als 3080 laufen zu lassen? Nicht verkaufen ist halt immer noch weniger als billiger

die ATI 9500/9700 ist schon ein sehr antikes Beispiel. Wann gab es das vergleichbar in den letzten GPU-Generationen?

Wenn Nvidia direkt zum Launch von Ampere einen so stark beschnittenen GA102 bringt, muss die Versorgung mit Chips, welche es nicht zur 3090 geschafft haben (Takt oder Defekte) sehr gut sein. Nvidia wird sicherlich nicht freiwillig mögliche 3090 Dies als 3080 für die Hälfte verkaufen. Also insgesamt klingt für mich der Samsung-Prozess nach einer halben Katastrophe, weil zu hohe TDP und zu schlechte Yield-Rate.

Dural
2020-09-07, 14:26:50
In einem anderen Form habe ich letzte Woche gelesen das NV aus Panik wegen Navi die FP32 Einheiten schnell auf das doppelte gebastelt haben. :freak:

Haben wahrscheinlich vor ein paar Monaten auf dem Computer die "2x FP32" Taste gedrückt und Schwups waren sie da.

Manchmal frage ich mich echt. :rolleyes: Technisches Verständnis gleich 0,0.

Interessant finde ich nur das man solche Beiträge über AMD nie liest, es ist immer NV die Panik haben... :freak:



Wenn Nvidia direkt zum Launch von Ampere einen so stark beschnittenen GA102 bringt, muss die Versorgung mit Chips, welche es nicht zur 3090 geschafft haben (Takt oder Defekte) sehr gut sein. Nvidia wird sicherlich nicht freiwillig mögliche 3090 Dies als 3080 für die Hälfte verkaufen. Also insgesamt klingt für mich der Samsung-Prozess nach einer halben Katastrophe, weil zu hohe TDP und zu schlechte Yield-Rate.

Wie schlecht wohl erst die 7nm sein müssen: 250mm2 über 200Watt :confused:

woodsdog
2020-09-07, 14:34:42
Nvidia wird sicherlich nicht freiwillig mögliche 3090 Dies als 3080 für die Hälfte verkaufen.

Die Nachfrage zwischen 3080 und 3090 würde ich mal auf 5:1 schätzen. Wenn du nur den einen Chip hast... was willste dann als NV machen? die 5 3080 Käufer werden sich nicht für mehr als doppelt so viel Geld die best case 20% schnellere Graka holen. Von einem Lager voll mit 3090 und vielen Kunden vor der Tür die ne 3080 wollen hat schließlich keiner der Beteiligten etwas. v0v

Dural
2020-09-07, 14:36:35
Eher min. 10 : 1 :wink:

woodsdog
2020-09-07, 14:41:54
Eher min. 10 : 1 :wink:

Aha. Mach den Kreis bei der 2080s etwas größer weil die 3080 100 Flocken billiger ist und dann passt 5:1 ganz gut.

https://www.3dcenter.org/dateien/abbildungen/Mindfactory-Graphics-Card-Sales-2Q-2020.png

HOT
2020-09-07, 14:44:29
Offenbar steht der deutsche Retail-Konsument extrem auf die 8GB ;). Sieht man an den Polaris :D.

nordic_pegasus
2020-09-07, 14:47:00
Die Nachfrage zwischen 3080 und 3090 würde ich mal auf 5:1 schätzen. Wenn du nur den einen Chip hast... was willste dann als NV machen? die 5 3080 Käufer werden sich nicht für mehr als doppelt so viel Geld die best case 20% schnellere Graka holen. Von einem Lager voll mit 3090 und vielen Kunden vor der Tür die ne 3080 wollen hat schließlich keiner der Beteiligten etwas. v0v

wenn das so logisch und normal ist, warum hatten wir dann bei Turing, Pascal, Maxwell etc. den xx80er Chip immer als Vollausbau des xx104er Dies? Hätten dann doch auch 102er Dies mit Laser-Cut genügt.

Zumal ich explizit davon gesprochen habe, dass ich den Schritt zum Produkt-Launch nicht nachvollziehen kann. Auch die 3090 wird am Anfang knapp im Bestand sein. Warum dann noch mehr Knappheit bei der 3090 erzeugen, in dem man extra die Chips als 3080 abstuft?

Das ergibt für mich ökonomisch keinen Sinn, wenn die Nachfrage für beide Produkte das Angebot übersteigt. Dann baller ich doch lieber 3090er auf den Markt mit besserer Marge im Vergleich zur 3080. Außer ich muss so handeln, weil es das Yield nicht besser hergibt.

Cyberfries
2020-09-07, 14:48:18
Nicht wirklich, Laut Nvidias Archtecture Slides zu Ampere bzw. den Vergleichen darin zwischen Pascal und Turing ist SW RT ein recht guter Mix aus FP und INT (die extra INT ALU gibt +100% Performance). Hier hat Ampere also keinen Vorteil durch die extra FP ALUs.

Das widerspricht nicht meiner Aussage.

Die 3080 hat 45% mehr RT-TFlops als Turing, doch ist in SW-RT 38%, in HW-RT 73% vorne.
Allein damit liegt also die 3070 fast gleichauf mit der 2080TI, die Flops sind nicht direkt vergleichbar.
Dazu kommt noch, dass Tensor und RT bei Ampere gleichzeitig arbeiten können, bei Turing nicht.
So kommt man nach dieser Milchmädchenrechnung auf +10% der 3070 zur 2080TI.

Ob sich das bestätigt sieht man dann bei den ersten Tests am Erscheinungsdatum.

Lawmachine79
2020-09-07, 15:16:36
Das solltest du vielleicht erst mal selbst praktizieren, just sayin.

Darüber hinaus ist dein stumpfes "moar Powa!!" halt schon etwas kleingeistig da Perf/W nun mal der Schlüssel dafür ist. An der Grenze der Kühlung sind wir schon seit ein paar Gens angelangt, es ist leider schlicht nicht mehr möglich wie in den 2000er Jahren einfach mehr Power drauf werfen und schwupps hat man wieder 50% zusätzlich zu besseren Fertigung in der nächsten Gen.

TLDR Perf/W möglichst groß ist das oberste Ziel weil mehr W für mehr Perf schlicht nicht mehr geht.
Perf/W ist als Metrik irrelevant. Klar, man kann über eine Verlustleistung reden, die eine harte Grenze dergestalt darstellt, dass sie sich nicht mehr vernünftig abführen lässt; aber wieso soll das unterhalb dieser Grenze relevant sein? Es kommt soviel Strom aus der Steckdose, wie ich will, das ist keine knappe Ressource. Und soviel Vertrauen in den Markt, dass keine unkühlbaren Grafikkarten dort landen, habe ich noch.

Das Performance/Watt-Gelaber kommt doch jetzt nur von den AMD-Jüngern, die sich den nächsten Flop schönreden müssen, eine BN-Karte die die Performance einer 2080TI haben wird, die derzeit bei Ebay verschleudert wird wie die letzte Hafennutte. Aber gut, in den Billomarktsegmenten, in denen AMD unterwegs ist, ist dann vielleicht wichtig. Man will NVidia ja auch gar nicht schlagen ;).

Lurtz
2020-09-07, 15:26:46
Klar. Und bei nVidia- und Intel-Jüngern ist Stromverbrauch immer nur dann wichtig, wenn AMD gerade weniger gute Werte erzählt. Dann ist es aber so richtig wichtig, Strom ist ja schließlich massiv teuer in Deutschland.

unl34shed
2020-09-07, 15:29:28
Die 3080 hat 45% mehr RT-TFlops als Turing, doch ist in SW-RT 38%, in HW-RT 73% vorne.

Nein, das wäre 3070 (40RT-TF) zu 3080(58 RT-TF) = +45%. Die 2080 Super wird von Nvidia mit 34 RT TFLOPS angegeben. (Link (https://youtu.be/E98hC9e__Xs?t=1025) 11TFLOPS = 2080S).

Demnach hat die 3080 70% mehr RT-TFLOPS bei 73% besserer HW-RT Performance in dem Test (link (https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day_Arch_Hardware_Seite_40-pcgh.jpg)). Bzw. stimmt das auch nicht, hier wird auf einmal nur noch mit einer 2080 non-Super verglichen... 48 zu 46 RT-Cores bzw. -4%

Lawmachine79
2020-09-07, 15:38:39
Klar. Und bei nVidia- und Intel-Jüngern ist Stromverbrauch immer nur dann wichtig, wenn AMD gerade weniger gute Werte erzählt. Dann ist es aber so richtig wichtig, Strom ist ja schließlich massiv teuer in Deutschland.
Ja und das ist eine 3090 auch und deshalb interessiert das einen 3090 Käufer nicht. Ferrarifahrer juckt auch kein Spritverbrauch. Klar, wenn ich jetzt zwei ähnlich performante Karten mit gleichen Featureset habe, dann gucke ich als Zünglein an der Waage auf den Verbrauch; ansonsten ist das vielleicht bei einer 200€ Karte relevant. In dem Segment ist es aber kein eigenständiger wirtschaftlich relevanter Wert. Relevant ist 1) Leistung 2) Leistung 3) Leistung. Und AMD bringt demnächst eine Karte heraus - wobei sie auch das noch schuldig sind - die auf dem Level von NVidia vor 2 Jahren liegt. Aktuell haben sie eine Karte auf dem Lebel von NVidia vor über 3 Jahren.

DrFreaK666
2020-09-07, 15:44:07
Ja und das ist eine 3090 auch und deshalb interessiert das einen 3090 Käufer nicht. Ferrarifahrer juckt auch kein Spritverbrauch. Klar, wenn ich jetzt zwei ähnlich performante Karten mit gleichen Featureset habe, dann gucke ich als Zünglein an der Waage auf den Verbrauch; ansonsten ist das vielleicht bei einer 200€ Karte relevant. In dem Segment ist es aber kein eigenständiger wirtschaftlich relevanter Wert. Relevant ist 1) Leistung 2) Leistung 3) Leistung. Und AMD bringt demnächst eine Karte heraus - wobei sie auch das noch schuldig sind - die auf dem Level von NVidia vor 2 Jahren liegt. Aktuell haben sie eine Karte auf dem Lebel von NVidia vor über 3 Jahren.

Wir haben total übersehen dass sich das Universum um dich dreht.
Deine Meinung ist die einzig wahre Wahrheit :freak:

Keiner weiss wie die nächsten Grafikkarten von AMD werden.
Sollten die Amperes aber mehr schlucken als von NV gewohnt, dann darf das doch wohl erwähnt werden

rentex
2020-09-07, 15:51:27
Manche scheinen von Verbrauch und Effiziens genervt zu sein...wohl zu anstrengend ;-)

mironicus
2020-09-07, 16:01:08
Dann wäre es wohl durchaus sinnvoll auf besagten effizienteren GA103 in 7 nm zu warten, da dieser Chip wohl eine TDP von 250 Watt kaum überschreiten und dadurch wieder auch mehr Spielraum beim OC und Takt sein dürfte.

Achill
2020-09-07, 16:04:45
Ich habe gerade auf Geekbench v5 Werte von der 3080 entdeckt, nachdem ich die letzten Ergebnisse für den Vergleich mit meiner VII durch gegangen war ...

3080: https://browser.geekbench.com/v5/compute/1456542 (~192k Punkte)
71389

--
2080S: https://browser.geekbench.com/v5/compute/1456526 (~104k Punkte)
5700 XT: https://browser.geekbench.com/v5/compute/1456482 (~80k Punkte)
VII: https://browser.geekbench.com/v5/compute/1456673 (~92k Punkte)

--
Edit: Zur Sicherheit mal noch ein Screenshot gemacht ...

Cyberfries
2020-09-07, 16:09:15
Nein, das wäre 3070 (40RT-TF) zu 3080(58 RT-TF) = +45%.

Autsch. Dicker Fehler meinerseits.
In deiner ursprünglichen Annahme ist aber auch einer, den ich bisher noch nicht angesprochen habe.
Du gehst bei der 2080TI von +42% Vorsprung zur 2080S aus, aufgrund der höheren SM-Anzahl, ignorierst dabei jedoch den Takt.
Siehe Shader-Flops: 13,45 zu 11,15 ergibt +21%. Damit ergeben sich für die 2080TI 41 RT-TFlops.
Der Rest kommt durch DLSS synchron (die 94%), damit ist die 3070 wieder vorne.

mit einer 2080 non-Super verglichen

Die haben bloß das Super weggelassen. Die Werte tauchen auch auf dieser Folie auf, inkl. Super:
https://pics.computerbase.de/9/4/7/2/3/9-630.4c087cf6.png

unl34shed
2020-09-07, 16:30:40
Stimmt, grad bei Igor nachgeschaut, die 2080Ti FE taket deutlich geringer als gedacht. Mein Fehler.

Ist aber dennoch ernüchternd und weit weg von den vor dem Launch erwarteten 2x (bzw. teilweise noch mehr)

N0rG
2020-09-07, 16:40:41
Ich habe gerade auf Geekbench v5 [..]
Schöner Fund! :up:

Scheint ja ein ganz schönes compute Monster zu sein. Da ergibt Jensens Warnung mehr und mehr Sinn.

Leonidas
2020-09-07, 16:40:42
Insofern aind diese Erzählungen um „es war lange 7nm geplant aber NV hat sich bei der Verhandlung verzockt und musste in letzter Minute zu Samsung 8nm wechseln“ schon echte Räuberpistolen.

Genau wie Erzählungen über Features die noch schnell in letzter Minute ins Silizium gewandert sind. In letzter Minute im Sinne vor 18+ Monaten vielleicht... X-D


:up:


Wobei NV es irgendwie immer noch schafft, außerhalb von HPC auf 9 Monate zwischen Tape-Out und Release zu kommen. Bei den kleineren Chips sogar eher nur noch 6-7 Monate.





Das Lustige ist, Mitte 2019 war man sich noch sicher, dass Ampere zu einem Großteil auf Samsung 7nm EUV basieren wird:
http://www.koreaherald.com/view.php?ud=20190702000692


Naja, die Erstinfo von Kimi war ja auch "Samsung 7nm EUV". Sprich, irgendwas muß dran gewesen sein.

Daredevil
2020-09-07, 16:45:12
Ich habe gerade auf Geekbench v5 Werte von der 3080 entdeckt, nachdem ich die letzten Ergebnisse für den Vergleich mit meiner VII durch gegangen war ...

3080: https://browser.geekbench.com/v5/compute/1456542 (~192k Punkte)
71389

--
2080S: https://browser.geekbench.com/v5/compute/1456526 (~104k Punkte)
5700 XT: https://browser.geekbench.com/v5/compute/1456482 (~80k Punkte)
VII: https://browser.geekbench.com/v5/compute/1456673 (~92k Punkte)

--
Edit: Zur Sicherheit mal noch ein Screenshot gemacht ...
Klasse Fund! :)
Ich steuer mal ne 2080ti@2070/7900 zu, also quasi max LuKü mit einem "guten" Modell.
https://abload.de/img/unbenanntfzj5f.png

nonharderware
2020-09-07, 17:00:32
Wie sieht es eigentlich mit der Grafikspeicherkomprimierung bei GA1XX aus?
Sollte da nicht irgendwas kommen? :confused:

dargo
2020-09-07, 17:36:37
Ja und das ist eine 3090 auch und deshalb interessiert das einen 3090 Käufer nicht. Ferrarifahrer juckt auch kein Spritverbrauch.
Cool... Autovergleiche wieder. Fährt der Ferrarifahrer auch 30-50tkm im Jahr?

igg
2020-09-07, 17:46:11
Dann wäre es wohl durchaus sinnvoll auf besagten effizienteren GA103 in 7 nm zu wartendas liest sich ja fast schon wie G200 -> G200b, als schon zum Launch auf einen optimierten Chip verwiesen wurde... hoffe, dass sich das nicht wiederholt.

Grendizer
2020-09-07, 17:46:23
Cool... Autovergleiche wieder. Fährt der Ferrarifahrer auch 30-50tkm im Jahr?

Und die fährt man immer mit Vollgas ? Ja die 3000 saufen unter Last aber schauen wir mal was bei Desktop mit Multimonitor am Schluss rauskommt. So gross wird der Verbrauch da vieleicht gar nicht sein.

robbitop
2020-09-07, 17:52:47
:up:


Wobei NV es irgendwie immer noch schafft, außerhalb von HPC auf 9 Monate zwischen Tape-Out und Release zu kommen. Bei den kleineren Chips sogar eher nur noch 6-7 Monate.








Naja, die Erstinfo von Kimi war ja auch "Samsung 7nm EUV". Sprich, irgendwas muß dran gewesen sein.

Naja die AIBs schrieben bis zum Launchtag auch noch 7nm. Die Packdichte passt ja auch. Und A100 ist ja auch 7nm. Da kann man schnell was durcheinanderbringen. Insbesondere wenn es aus dritter oder vierter Hand ist. Weiterhin streuen die IHVs gegen Leaks mittlerweile bewusst auch Falschinformationen. Das sicher zu trennen im Vorfeld: schwer bis unmöglich.

Zu den og Zeiträumen: die sind aber ohne respin und ohne validierung. Respin brauchts heute fast immer (und wenn es nur ein metal spin ist). Und Validierung sowieso.

gedi
2020-09-07, 18:06:01
Und die fährt man immer mit Vollgas ? Ja die 3000 saufen unter Last aber schauen wir mal was bei Desktop mit Multimonitor am Schluss rauskommt. So gross wird der Verbrauch da vieleicht gar nicht sein.

Bei der 3080 wurden ja bereits 360W gemessen (mit offenem PT, Afaik).
Trotzdem irgendwie langweilig: NV liefert und diesmal ordentlich und BN scheint ne Fata Morgana zu sein. Wann fällt das NDA-am 17.09? Wenn anschließend keine Antwort von AMD kommt, dann wird aus BN SN.

nordic_pegasus
2020-09-07, 18:31:39
Das Performance/Watt-Gelaber kommt doch jetzt nur von den AMD-Jüngern, die sich den nächsten Flop schönreden müssen, eine BN-Karte die die Performance einer 2080TI haben wird, die derzeit bei Ebay verschleudert wird wie die letzte Hafennutte. Aber gut, in den Billomarktsegmenten, in denen AMD unterwegs ist, ist dann vielleicht wichtig. Man will NVidia ja auch gar nicht schlagen ;).

die Schadenfreude über die vermeintliche Dominanz von Nvidia auch in der nächsten GPU-Generation kann ich nicht nachvollziehen. Selbst wenn Du aus Prinzip nur Nvidia kaufst, würde doch ein Preiswettbewerb durch konkurrenzfähige AMD Produkte auch Dir keinen Nachteil gewähren.

Nachdem AMD mit Ryzen auf Intel aufgeholt hat, haben doch viele vor Freude getanzt, als ob wir von einem Tyrannen befreit wurden. Fand ich bei den CPUs übertrieben, jetzt bei den GPUs schlägt es mir bei manchen hier im Forum zu stark in die andere Richtung. Manche beten sich ein ewiges Monopol im High-End seitens Nvidia geradezu herbei.

Leonidas
2020-09-07, 18:41:40
Ich habe gerade auf Geekbench v5 Werte von der 3080 entdeckt, nachdem ich die letzten Ergebnisse für den Vergleich mit meiner VII durch gegangen war ...

3080: https://browser.geekbench.com/v5/compute/1456542 (~192k Punkte)
71389

--
2080S: https://browser.geekbench.com/v5/compute/1456526 (~104k Punkte)
5700 XT: https://browser.geekbench.com/v5/compute/1456482 (~80k Punkte)
VII: https://browser.geekbench.com/v5/compute/1456673 (~92k Punkte)

--
Edit: Zur Sicherheit mal noch ein Screenshot gemacht ...



Sehr vielen Dank für den Fund. Habe es gleich verwurstet ...
https://www.3dcenter.org/news/erster-geekbench-wert-zur-geforce-rtx-3080-aufgetaucht

mironicus
2020-09-07, 18:46:55
Also ich habe mit meiner RTX 2080 Ti schon fast 140.000 Punkte in Open CL. GPU ist nicht übertaktet, nur der Speicher (+1000).

gedi
2020-09-07, 18:47:38
Sehr vielen Dank für den Fund. Habe es gleich verwurstet ...
https://www.3dcenter.org/news/erster-geekbench-wert-zur-geforce-rtx-3080-aufgetaucht

Aber was sagt denn bitte der Geekbench aus?

Leonidas
2020-09-07, 18:57:35
Nicht viel. Aber gerade bei diesem Punkt der doppelten FP32-Rohpower ist dieser Bench gut, um auf die Problematik hinzuweisen, das Ampere sehr viel ineffizienter mit seiner Rohpower umgeht als Turing. Beispiel: Zwischen 2080 und 3080 liegen +196% mehr FP32-Rechenleistung. Aber nur +86% kommen als Mehrperformance unter einem Benchmark an, der primär auf Rechenleistung steht.

mironicus
2020-09-07, 19:05:16
Hat jemand schon eine Vorstellung davon, welche Spiele denn besonders von FP32 profitieren? Also z.B. ein Witcher 3 oder noch ältere Spiele?

Thunder99
2020-09-07, 19:32:13
Nicht viel. Aber gerade bei diesem Punkt der doppelten FP32-Rohpower ist dieser Bench gut, um auf die Problematik hinzuweisen, das Ampere sehr viel ineffizienter mit seiner Rohpower umgeht als Turing. Beispiel: Zwischen 2080 und 3080 liegen +196% mehr FP32-Rechenleistung. Aber nur +86% kommen als Mehrperformance unter einem Benchmark an, der primär auf Rechenleistung steht.
Vielleicht ist das ein Mitgrund für die hohe TDP / den hohen Energieverbrauch :confused:

pixeljetstream
2020-09-07, 19:33:23
...der primär auf Rechenleistung steht.
Ist das so? Also ist der Benchmark auf fp32 Performance ausgelegt und nicht doch eher ein mix wo Caches/Bandbreite etc. nicht unwichtig sind? Ich weiß es ehrlich nicht.

N0rG
2020-09-07, 19:33:51
Hier ist noch ein 3080 Ergebnis diesmal mit CUDA anstatt OpenCL
https://browser.geekbench.com/v5/compute/1456548
215361 Pt.

Leonidas
2020-09-07, 19:47:36
Ist das so? Also ist der Benchmark auf fp32 Performance ausgelegt und nicht doch eher ein mix wo Caches/Bandbreite etc. nicht unwichtig sind? Ich weiß es ehrlich nicht.


Wo der Benchmark limitiert, weiss ich auch nicht. Aber prinzipiell sollte der Benchmark erstmal auf Rechenleistung anspringen - sofern halt keine Limits auftauchen.

Beispielsweise sagt man ja, das dem Benchmark für noch bessere Ergebnisse dann die Bandbreite fehlt. Dies dürfte dann eher eine Besonderheit dieses Benchmarks sein, unter realen Spielen wird die Bandbreite (zumindest von 3080/3090) wohl ausreichend sein.


PS: CUDA-Ergebnis eingearbeitet:
https://www.3dcenter.org/news/erster-geekbench-wert-zur-geforce-rtx-3080-aufgetaucht

mironicus
2020-09-07, 20:11:38
Hier ist noch ein 3080 Ergebnis diesmal mit CUDA anstatt OpenCL
https://browser.geekbench.com/v5/compute/1456548
215361 Pt.

163465 Cuda-Punkte bei meiner RTX 2080 Ti.

N0rG
2020-09-07, 20:14:34
Also in OpenCL und CUDA etwa 30-35% auf die 2080Ti.

horn 12
2020-09-07, 20:14:38
https://videocardz.com/newz/nvidia-geforce-rtx-3080-4k-aots-benchmark-leaks-out

25% über einer RTX 2080TI

Hauwech
2020-09-07, 20:30:06
Nicht viel. Aber gerade bei diesem Punkt der doppelten FP32-Rohpower ist dieser Bench gut, um auf die Problematik hinzuweisen, das Ampere sehr viel ineffizienter mit seiner Rohpower umgeht als Turing. Beispiel: Zwischen 2080 und 3080 liegen +196% mehr FP32-Rechenleistung. Aber nur +86% kommen als Mehrperformance unter einem Benchmark an, der primär auf Rechenleistung steht.

Kann man das so schlußfolgern? Ich mein, wenn das Dingen die geänderte HW von Ampere nicht kennt, kann es damit wahrscheinlich auch nichts anfangen. Ist doch bei CPUs genauso, oder nicht? MS hat seinen Scheduler doch auch auf Ryzen angepasst?

dildo4u
2020-09-07, 20:30:39
CPU limitiert bei 100fps.

unl34shed
2020-09-07, 20:38:38
@Hauwech: Eigentlich nicht, bei GPUs hast du Hardware Scheduler, die die Arbeit auf die Shader verteilen.

Hauwech
2020-09-07, 20:51:54
Na mal abwarten bis Tests raus sind. Das ein Benchmark jetzt erstmal ein unerwartetes Ergebniss raushaut, muss ja nichts heissen.

Troyan
2020-09-07, 20:58:12
Geekbench sieht doch in Ordnung aus. Wo die Rechenleistung limitiert, sind es 2x zur 2080S und >1,5X zur 2080TI. Mehr ist von der 3080 auch nicht zu erwarten. In einigen stark FP32 limitierten Benchmarks wird man dann noch mehr sehen, aber generell liegt das Geekbench-Ergebnis dort, wo auch die anderen Compute-Benchmarks sich positionieren.

TheAntitheist
2020-09-07, 21:12:45
Cool... Autovergleiche wieder. Fährt der Ferrarifahrer auch 30-50tkm im Jahr?
Der Vergleich macht schon Sinn und trifft die Argumentation schon gut. Und Porsche fahrer fahren soviel Km im Jahr und deren Auto ist nicht günstiger als so ein schrott Ferrari.

Es geht darum die Anschaffungskosten in relation zu den Instandhaltungskosten/Betriebskosten in diesem Falle zu setzen. Da sind die Stromkosten nicht wirklich ausschlaggebend.

Wenn man noch dazu einberechnet das die GPU bestimmt meistens im Idle ist, sieht es nochmal ganz anders aus.

Tarkin
2020-09-07, 21:22:08
Also in OpenCL und CUDA etwa 30-35% auf die 2080Ti.

bie 30% höherer TDP - 1.9x performance pro watt my ASS, sorry. :freak:

kommt noch besser:

https://twitter.com/_rogame/status/1303042819737743370

in AotS in 4k nur 26% schneller als 2080 TI

und nur 10% schneller als übertaktete 2080 TI

+130MHz core
+1250MHz memory

und das bei 320W - sorry, aber nVidia Marketing ist mal wieder Lug und Trug von vorne bis hinten.

woodsdog
2020-09-07, 21:25:19
Es kommt soviel Strom aus der Steckdose, wie ich will, das ist keine knappe Ressource. Und soviel Vertrauen in den Markt, dass keine unkühlbaren Grafikkarten dort landen, habe ich noch.

Dein Leseverständnis ist mangelhaft. Ich habe klar dargelegt warum Perf/W der einzig relevante Wert ist, da wir praktisch bereits seit Maxwell das Maximum an handlebarer Verlustleistung unter Luftkühlung abrufen. Warum glaubst du das wir mit Ampere gigantische 3-Slot Kühler überall sehen? Krass teure FE Kühler aus Spaß? Weil default 350W ja so was von kein Problem ist???

250W ist noch OK kühlbar ohne Materialschlacht, 350W braucht einen heiden Aufwand um das in Kevins gammel Gehäuse noch halbwegs unter Kontrolle zu halten ("Hitzewellen" (c) Igor).

Aber aus der Steckdose fallen dauerhaft 2,500W - gut das wir drüber im Kontext von GPUs gesprochen haben... Du und Miami sind der Markt den NV im Auge hat was den Titan Nachfolger angeht. :rolleyes:

dildo4u
2020-09-07, 21:26:00
Das ist ein RTS was CPU limitiert ist nicht wirklich verwunderlich.
Wenn du Anno benchst wird auch sowas rauskommen.

Tarkin
2020-09-07, 21:27:36
Das ist ein RTS was CPU limitiert ist nicht wirklich verwunderlich.
Wenn du Anno benchst wird auch sowas rauskommen.

bei 1080p vielleicht aber nicht bei 4K :rolleyes:

dildo4u
2020-09-07, 21:32:53
Dann lese die Werte die CPU FPS liegt im Bereich der GPU FPS, um CPU Limits auszuschließen müssen die CPU Werte weit drüber sein.

MiamiNice
2020-09-07, 21:39:16
Dein Leseverständnis ist mangelhaft. Ich habe klar dargelegt warum Perf/W der einzig relevante Wert ist, da wir praktisch bereits seit Maxwell das Maximum an handlebarer Verlustleistung unter Luftkühlung abrufen. Warum glaubst du das wir mit Ampere gigantische 3-Slot Kühler überall sehen? Krass teure FE Kühler aus Spaß? Weil default 350W ja so was von kein Problem ist???

250W ist noch OK kühlbar ohne Materialschlacht, 350W braucht einen heiden Aufwand um das in Kevins gammel Gehäuse noch halbwegs unter Kontrolle zu halten ("Hitzewellen" (c) Igor).

Aber aus der Steckdose fallen dauerhaft 2,500W - gut das wir drüber im Kontext von GPUs gesprochen haben... Du und Miami sind der Markt den NV im Auge hat was den Titan Nachfolger angeht. :rolleyes:

Mein Vater sagte immer: Wo gehobelt wird, fallen Späne.
Aber wie dem auch sei. Scheinbar schafft es Asus mit der neuen Strix ein halbes KW per Luft abzuführen. Alternativ könnte man GPUs mit AIOs ausliefern oder den ATX Formfaktor überarbeiten, das dickere Kühler möglich wären. Das was imo limitiert sind die Kunden, die gerne günstig kaufen. Da machen sich Kühllösungen über mehrere hundert $ natürlich nicht gut auf dem Bankkonto. Was außerdem limitiert, sind die Kunden die nicht bereit sind hohe Stromkosten zu zahlen. Das man viel mehr als 250 Watt mit Luft wegkühlen kann zeigen schon diverse Industriegeräte. So gut der Kühler der FE auch ist, das ist ein Spielzeug welches auf Kosten getrimmt ist.
Wie gut und leise sich 375 Watt in Luft auflösen, zeige ich dann mal wenn meine 3090 in der Kiste steckt.
Und ich bin kein Titan Kunde. Was außer dem doppelten am RAM und vielleicht noch mal 10% soll die Karte den liefern können?

Tarkin
2020-09-07, 21:48:14
Dann lese die Werte die CPU FPS liegt im Bereich der GPU FPS, um CPU Limits auszuschließen müssen die CPU Werte weit drüber sein.

äh ... die CPU Framerate ist immer höher. Also ich bezweifle ein CPU Limit in 4k mit einem 9900K

Cyberfries
2020-09-07, 21:49:35
Der Vergleich macht schon Sinn und trifft die Argumentation schon gut. Und Porsche fahrer fahren soviel Km im Jahr und deren Auto ist nicht günstiger als so ein schrott Ferrari.

Es geht darum die Anschaffungskosten in relation zu den Instandhaltungskosten/Betriebskosten in diesem Falle zu setzen. Da sind die Stromkosten nicht wirklich ausschlaggebend.

Wenn man noch dazu einberechnet das die GPU bestimmt meistens im Idle ist, sieht es nochmal ganz anders aus.

Ähm nein? Zum einen sind Autovergleiche immer Schwachsinn.
Der Porsche-Vergleich besonders, denn da biste beim halben Spritverbrauch (je nach Baureihe, Fahrverhalten, usw.).
Mit Zeitverschwendung an der Tankstelle (oder Boxenstopp) muss ich gar nicht erst anfangen, natürlich spielt das ne Rolle.

Allerdings genau wie bei ner Grafikkarte nur an zweiter Stelle.
Im heimischen Rechner sind aus meiner Sicht eher die negativen Begleiterscheinungen (Wärmeabstrahlung, Lautstärke) ausschlaggebend.
Da abhängig vom persönlichen Empfinden ist eine Diskussion da nicht wirklich sinnvoll.

GPU meiste Zeit im Idle? Dann haste dir vielleicht die falsche Kiste zusammengestellt.
Wenn du in der Woche nur 2 Stunden mit der Karte zockst/renderst ist das vielleicht nicht die richtige Anschaffung,
du fährst ja auch nicht nen 40-Tonner für das eine Mal im Jahr beim Umzug helfen. (nächster blöder Autovergleich)

Und zum technisch möglichen: Wir entwickeln uns weiter, Kühllösungen werden immer besser.
Was gestern als unkühlbar galt, ist heute machbar und morgen einfach. Immer mehr Energie zu verpulvern ist trotzdem der falsche Weg.
Wie ihr das aushaltet mit ner 300Watt-Karte samt Rest-PC im selben Zimmer im Sommer.... müsste ich nicht haben.

TheAntitheist
2020-09-07, 21:56:17
Ähm nein? Zum einen sind Autovergleiche immer Schwachsinn.
Der Porsche-Vergleich besonders, denn da biste beim halben Spritverbrauch (je nach Baureihe, Fahrverhalten, usw.).
Mit Zeitverschwendung an der Tankstelle (oder Boxenstopp) muss ich gar nicht erst anfangen, natürlich spielt das ne Rolle.

Allerdings genau wie bei ner Grafikkarte nur an zweiter Stelle.
Im heimischen Rechner sind aus meiner Sicht eher die negativen Begleiterscheinungen (Wärmeabstrahlung, Lautstärke) ausschlaggebend.
Da abhängig vom persönlichen Empfinden ist eine Diskussion da nicht wirklich sinnvoll.

GPU meiste Zeit im Idle? Dann haste dir vielleicht die falsche Kiste zusammengestellt.
Wenn du in der Woche nur 2 Stunden mit der Karte zockst/renderst ist das vielleicht nicht die richtige Anschaffung,
du fährst ja auch nicht nen 40-Tonner für das eine Mal im Jahr beim Umzug helfen. (nächster blöder Autovergleich)

Und zum technisch möglichen: Wir entwickeln uns weiter, Kühllösungen werden immer besser.
Was gestern als unkühlbar galt, ist heute machbar und morgen einfach. Immer mehr Energie zu verpulvern ist trotzdem der falsche Weg.
Wie ihr das aushaltet mit ner 300Watt-Karte samt Rest-PC im selben Zimmer im Sommer.... müsste ich nicht haben.
da hat wohl jemand einen leichten Knacks ;D
die meiste Zeit bedeutet >50% und nichts anderes. Wenn ich mit dem PC Arbeite kann ich nicht gleichzeitig rendern. niemand rendert mehr als die hälfte der Zeit, jemand muss ja auch noch Content erstellen... Die meiste Zeit surfed man im Netz, guckt sich was auf youtube an oder Filme/Musik. niemand kommt auf eine Dauerlast von über 50% der Zeit das ist dumm sowas anzunehmen.

Und der Autovergleich passt eben doch, warum verbraucht man mit einem Porsche nur halb soviel? Wenn man damit gas gibt, dann ballerst du eine Tankfüllung in 2h raus, who cares... wenn ich für das Auto 25k im Jahr investiere dann jucken mich 1k mehr an Spritverbrauch null.

Natürlich ist die Lautstärke ein Problem und die Abwärme, es ging aber in dem Vergleich nur um die Stromkosten Captain Topkek

Troyan
2020-09-07, 21:58:13
Dann lese die Werte die CPU FPS liegt im Bereich der GPU FPS, um CPU Limits auszuschließen müssen die CPU Werte weit drüber sein.

Jap. Die Zahlen sind über verschiedene Systeme überhaupt nicht vergleichbar. Die 3070 wäre dort ja schon so schnell wie die 2080TI - nämlich 26% schneller als eine 2080FE.

Cyberfries
2020-09-07, 22:14:37
da hat wohl jemand einen leichten Knacks
die meiste Zeit bedeutet >50% und nichts anderes.
....
Und der Autovergleich passt eben doch, warum verbraucht man mit einem Porsche nur halb soviel?
...
Natürlich ist die Lautstärke ein Problem und die Abwärme, es ging aber in dem Vergleich nur um die Stromkosten Captain Topkek

Danke für die Sorge über meinen Geisteszustand. Ich dachte du argumentierst mit so 80-90%.
Viel von meinem Text war auch nicht an dich direkt, sondern allgemein zum Thema.

Beispiele für NEFZ-Verbrauch: Porsche Turbo 9,1l, Ferrari 812 14,9l. Das ist ne zusätzliche Leasing-Monatsrate.

Im ursprünglichen Beitrag ging es darum, dass bei AMD und nVidia untersch. Maßstäbe angesetzt werden.

edit: Was jucken mich 1k extra bei 25k? So argumentieren meist die, die nicht nach ganz oben kommen.
Reiche sind Pfennigfuchser, die schauen auf jeden cent, deshalb sind sie ja reich geworden.

igg
2020-09-07, 22:20:54
sorry, aber nVidia Marketing ist mal wieder Lug und Trug von vorne bis hinten.
Du kritisierst vermeintliches Cherry Picking mittels Cherry Picking? Wird Zeit, dass die Reviews kommen...

Sardaukar.nsn
2020-09-07, 23:27:22
Preview zur sehr kompakten single-slot Kühlung der 3090 FE (!)

https://i.imgur.com/lUFtoib.jpg

Quelle: https://ezmodding.com/RTX-3000

SKYNET
2020-09-07, 23:58:22
Du kritisierst vermeintliches Cherry Picking mittels Cherry Picking? Wird Zeit, dass die Reviews kommen...


naja, wie immer wird die wahrheit in der mitte liegen... also bei 20% +/-

MiamiNice
2020-09-08, 00:00:47
Das Gerät passt sogar auf die Founders Edition :eek:
Bei NV direkt kann man wohl nicht den Kühler zwecks Verbesserung wechseln und innerhalb der Garantie bleiben :confused: Die werden wohl lieber bei defekt eine neue Karte verkaufen wollen ;D:freak:

Aber 375 Watt als Single Slot ist schon sportlich. Von wegen Kühlung ist am Ende.

SKYNET
2020-09-08, 00:06:16
Das Gerät passt sogar auf die Founders Edition :eek:
Bei NV direkt kann man wohl nicht den Kühler zwecks Verbesserung wechseln und innerhalb der Garantie bleiben :confused: Die werden wohl lieber bei defekt eine neue Karte verkaufen wollen ;D:freak:

Aber 375 Watt als Single Slot ist schon sportlich. Von wegen Kühlung ist am Ende.


was daran sportlich? das machen die ganzen waküblöcke bereits seit pascal...

Pascal Parvex
2020-09-08, 00:06:36
die ATI 9500/9700 ist schon ein sehr antikes Beispiel. Wann gab es das vergleichbar in den letzten GPU-Generationen?

Und vor allem sind diese zur 9700 gemoddeten 9500er bei Doom 3 alle abgeraucht...Es hatte schon einen Grund, wieso die Pipelines deaktiviert waren.

Screemer
2020-09-08, 00:09:32
Und vor allem sind diese zur 9700 gemoddeten 9500er bei Doom 3 alle abgeraucht...Es hatte schon einen Grund, wieso die Pipelines deaktiviert waren.
Gelaber. Meine 9500 @ 9700 läuft heute noch. Ist jetzt wieder Zeit für die allgemeine anti AMD Märchenstunde kurz vor dem Release neuer GPUs?

MiamiNice
2020-09-08, 00:16:09
was daran sportlich? das machen die ganzen waküblöcke bereits seit pascal...

Mein Titan Kühler ist schon bissel fetter als das Ding da.

Aber zur Vollständigkeit:

nVidia erlaubt weder den Kühlerwechsel noch Biosmods. Es erlischt direkt die Garantie. Außerdem gibt NV 3 Jahre Garantie.
Sie haben also mit die schlechtesten Bedingungen überhaupt am Markt.

https://abload.de/img/asm7jno.png
https://abload.de/img/asdasd6hk0w.png

Man kaufe EVGA und ist glücklich.

SKYNET
2020-09-08, 00:17:08
Und vor allem sind diese zur 9700 gemoddeten 9500er bei Doom 3 alle abgeraucht...Es hatte schon einen Grund, wieso die Pipelines deaktiviert waren.

mhhh, also im bekanntenkreis gabs eigentlich nur gemoddete 9500er @ 9700... wärend ich der einzige mit echter 9700 pro bzw. kurze zeit später 9800 pro war :freak:

bei einem gabs bildfehler, aber nicht nur in doom, sondern überall, der rest(nen halbes dutzend) lief sorgenfrei bis sie in rente geschickt wurden.

SKYNET
2020-09-08, 00:19:43
Mein Titan Kühler ist schon bissel fetter als das Ding da.

Aber zur Vollständigkeit:

nVidia erlaubt weder den Kühlerwechsel noch Biosmods. Es erlischt direkt die Garantie. Außerdem gibt NV 3 Jahre Garantie.
Sie haben also mit die schlechtesten Bedingungen überhaupt am Markt.

https://abload.de/img/asm7jno.png
https://abload.de/img/asdasd6hk0w.png

Man kaufe EVGA und ist glücklich.


die liste ist eh nur halbgar... powercolor erlaubt biosmods, müssen aber aus dem powercolor club dingensbumens sein... auch sind kühlerwechsel erlaubt, im garantiefall muss aber der originalkühler montiert werden und es dürfen keinerlei beschädigungen an kühler oder karte vorhanden sein(also gleich wie bei allen anderen).

nonharderware
2020-09-08, 00:24:08
Und vor allem sind diese zur 9700 gemoddeten 9500er bei Doom 3 alle abgeraucht...Es hatte schon einen Grund, wieso die Pipelines deaktiviert waren.

Erstens: Hier hat auch eine 9500 als 9700 perfekt funktioniert - so viel zu "alle".
Zweitens: Abrauchen verhindern durch Pipelinedeaktivierung? Bzw. ein Abrauchen wegen Schachbrettmustern? :eek::confused:

nonharderware
2020-09-08, 00:33:22
Und zum technisch möglichen: Wir entwickeln uns weiter, Kühllösungen werden immer besser.
Was gestern als unkühlbar galt, ist heute machbar und morgen einfach. Immer mehr Energie zu verpulvern ist trotzdem der falsche Weg.
Wie ihr das aushaltet mit ner 300Watt-Karte samt Rest-PC im selben Zimmer im Sommer.... müsste ich nicht haben.

Selbst wenn ich PCs mit 1kW am Start habe, ist mein ökologischer Fußabdruck kleiner als der Durchschnitt der - sogenannten - westlichen Zivilisation.

Also lasst mal die Leute ihr Zimmerchen heizen womit sie wollen.
Ich würde mir sogar eine 500W Karte holen solange die Abwärme weggeht und die Leistung stimmt.

Daredevil
2020-09-08, 02:58:52
Wird immer weniger. ^^

https://twitter.com/_rogame/status/1303042819737743370
I was able to get some stock results thanks to #SiliconGang members Grinsendes Gesicht mit lächelnden Augen

RTX 3080 88.3 fps (126.16%)
RTX 2080 Ti stock 69.99 fps (100%)
RTX 2070 stock 46.9 fps
RX 5700 XT stock 45.5 fps

Platos
2020-09-08, 03:41:00
Gut, aber war das Spiel nicht ziemlich CPU-Limitiert an manchen stellen?

Ich habe zwar nur einen i7 4820k, aber selbst mit meiner GTX 960 bin ich manchmal ganz deutlich im CPU Limit trotz 30 FPS oder so :D

dargo
2020-09-08, 08:24:08
Ob Lederjacke es schon vorher bei der 3070 8GB wusste? :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12417590&postcount=210

Die ganze Series X bekommt man also für den Preis der 3070. Auch interessant... die Series S soll mit ihren 4 RDNA2 TFLOPs angeblich auch Raytracing bieten.
https://www.windowscentral.com/xbox-series-x-and-xbox-series-s-release-date-and-price-finally-revealed

Wenn das stimmt dürfte das alles zur schnelleren Marktdurchdringung im Bereich RT beitragen. Mal sehen ob das gesamte Portfolio von RDNA 2 Raytracing bieten wird. Wie sieht es eigentlich beim Ampere Portfolio aus? Wird es da RT bis runter zu ~200€ bzw. GA107 geben?

MiamiNice
2020-09-08, 08:34:15
Was hat das mit Ampere zu tun? Falscher Thread? :wink:

dargo
2020-09-08, 08:36:20
Was hat das mit Ampere zu tun?
Ohne Konsolen kein Gaming-Ampere da keine AAA-Spiele. ;)

ChaosTM
2020-09-08, 08:36:29
Deshalb kam der Launch ja noch vor den Konsolen, sonst wären die putzigen Kärtchen nicht mehr so leicht verkaufbar ..

Timbaloo
2020-09-08, 08:43:32
Ohne Konsolen kein Gaming-Ampere da keine AAA-Spiele. ;)
:confused:

Hauwech
2020-09-08, 08:51:52
Wie sieht es eigentlich mit der Grafikspeicherkomprimierung bei GA1XX aus?
Sollte da nicht irgendwas kommen? :confused:

Keine Ahnung, wenn ich mich nicht irre, standen da als Gerücht dank NN-Einsatz so 20-40% im Raum? Müssen wohl Tests zeigen aber falls schon ~20% stimmen würden, wäre das schon ne Hausnummer. Das würde die 8GB und 10GB im etwas freundlicheren Licht erscheinen lassen. Abwarten. :smile:

ChaosTM
2020-09-08, 08:54:23
Die 8/10 GB kann man sich nicht schönsaufen (als 1440p+) Besitzer -- geht einfach nicht ;)

Hauwech
2020-09-08, 09:02:48
Musst du ja auch nicht aber wenn mans mitnehmen kann, warum nicht. Besser als sie nicht haben wäre es aber allemal. Lassen wir uns mal überraschen was die Tests so hergeben.

JVC
2020-09-08, 09:06:27
Und vor allem sind diese zur 9700 gemoddeten 9500er bei Doom 3 alle abgeraucht...Es hatte schon einen Grund, wieso die Pipelines deaktiviert waren.
Wäre mir neu :confused: höre ich zum ersten mal...
Die 8/10 GB kann man sich nicht schönsaufen (als 1440p+) Besitzer -- geht einfach nicht ;)
Jap ^^ soviel Alk gibt es nicht :freak:

Ich könnte noch die Brille absetzen und "schöne Farbflecken" bewundern :tongue:

M.f.G. JVC

MiamiNice
2020-09-08, 09:09:40
Ohne Konsolen kein Gaming-Ampere da keine AAA-Spiele. ;)

:uconf3:

Badesalz
2020-09-08, 09:14:32
Wäre schön wenn sich das mal ändern würde. Die Metrik sollte Perf sein, nothing else.Bliebe nur die Zeitfrage, also, zum welchen Zeitpunkt? Immer, oder gelegentlich? So manche AMD der vergangenen Tage hat genug Leistung geliefert, bei ausuferndem Verbrauch (ggü. NV) Und anschliessender Häme. In den Threads dazu hab ich dich mit der obigen Meinung nicht gesehen...

Musst du ja auch nicht aber wenn mans mitnehmen kann, warum nicht. Besser als sie nicht haben wäre es aber allemal. Lassen wir uns mal überraschen was die Tests so hergeben.Wäre es den möglich - von den CPUs her - deren Leistung so zu normieren bzw. möglichst möglichst nah zueinander zu bringen (ggf. auch über Motherborads), daß man die 3080 1x mit PCIe 3.0 testet und 1x mit 4.0?

Wenn die FPS nicht auffallen, wüsste man, daß der Vram nicht ausgeht. Wenn tatsächlich viel hin und her geschoben werden muss wirkt sich PCIe eben schon spürbar aus.

Ohne Konsolen kein Gaming-Ampere da keine AAA-Spiele. ;):D :up:

Gut, aber war das Spiel nicht ziemlich CPU-Limitiert an manchen stellen?

Ich habe zwar nur einen i7 4820k, aber selbst mit meiner GTX 960 bin ich manchmal ganz deutlich im CPU Limit trotz 30 FPS oder so :DWas willst du letztendlich immer erfahren? Wieviel schneller eine GPU ist oder wievel schneller dein System sein wird mit einer neuen Graka? Für CPU-Limits sind die Unterschiede für mich zu groß. Ich würde es halt realistisch bezeichnen...

Das Thema hatten wir ja schon über Bande. Nv hat DF vorgegeben mit welchen Spielen er kurz vortesten darf. Wobei keiner so blöde wäre DF die Unwissenheit zu unterstellen bei einer freien Auswahl mit Spielen zu testen die imemr hat ins CPU-Limit laufen. Trotzdem... verstehst... :uup:

igg
2020-09-08, 09:26:10
Die 8/10 GB kann man sich nicht schönsaufen (als 1440p+) Besitzer -- geht einfach nicht ;)
Die 10 GB finde ich als WQHD Nutzer ok. Für mich ist die 3080 der legitime 1070 Nachfolger. Die 3070 fühlt sich eher wie eine 3060 an.

Orbmu2k
2020-09-08, 09:30:24
Wird immer weniger. ^^

https://twitter.com/_rogame/status/1303042819737743370

Ist doch ok, 30% schneller zu sein als eine doppelt so teuere Karte.

Das wird auch je nach Spiel sehr unterschiedlich ausfallen, am Ende ist doch wichtig dass die modernen Spiele, wo aktuelle Hardware vielleicht strauchelt, damit dann spielbar werden. Das müssen die Reviews zeigen. Balken sind Schall und Rauch. Ob die alten Schinken die eh keiner mehr spielt dann mit 500fps oder 250fps laufen kümmert niemand. Die Spiele die aktuell in 4K deutlich unter 60FPS liegen und zukünftige Spiele sind das Target.

MiamiNice
2020-09-08, 09:41:31
Bliebe nur die Zeitfrage, also, zum welchen Zeitpunkt? Immer, oder gelegentlich? So manche AMD der vergangenen Tage hat genug Leistung geliefert, bei ausuferndem Verbrauch (ggü. NV) Und anschliessender Häme. In den Threads dazu hab ich dich mit der obigen Meinung nicht gesehen...


Liegt daran das ich kaum bis gar nicht in die AMD GPU Threads schaue.
Bin was GPUs angeht schon ziemlich grün seit die Voodoo 3 aus meinen Rechner flog.

HOT
2020-09-08, 09:52:19
:uconf3:
Das ist ne simple Tatsache z.Zt, leider. Früher war das mal anders.

MiamiNice
2020-09-08, 09:59:20
Das ist ne simple Tatsache z.Zt. Früher war das mal anders.

Klar, wenn MS den Türstopper einstellt gibt es keine "AAA" PC Spiele mehr?
Sagt mal, liegt bei euch irgendwas in der Luft?

Und mal abgesehen von diesem Umstand:

Leute die sich per se für PC Gaming interessieren haben zusätzlichi.d.R. noch eine PS und keine Box. Einige davon sogar noch eine Switch dazu. Menschen ohne PC Interesse besitzen meist eine PS und teils noch eine Switch dazu oder Handy Gaming. Die MS Box ist irrelevant wie kein 2. Gerät auf dem Markt. Und kommt mir nicht mit meinem Dunstkreis.

MS wäre gerne mal interessant. Wenn die mal Peng gehen ist das größte Problem das wir ein neues PC OS brauchen aber sicher nicht die Versorgung mit Spielen ;)

Lawmachine79
2020-09-08, 10:01:37
Ob Lederjacke es schon vorher bei der 3070 8GB wusste? :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12417590&postcount=210

Die ganze Series X bekommt man also für den Preis der 3070. Auch interessant... die Series S soll mit ihren 4 RDNA2 TFLOPs angeblich auch Raytracing bieten.
https://www.windowscentral.com/xbox-series-x-and-xbox-series-s-release-date-and-price-finally-revealed


Hast Du echt gerade entdeckt, dass Konsolen billiger als PCs sind? Halt, warte, lass mich raten: stirbt der PC jetzt etwa wieder?

Liegt daran das ich kaum bis gar nicht in die AMD GPU Threads schaue.

Ich gucke da auch nicht mehr rein, da ruckelt es wie sau beim Scrollen.

Dampf
2020-09-08, 10:17:59
Wie ich es mir schon gedacht hab, Series S (Lockhart) existiert.

Das bietet dann natürlich tolle Möglichkeiten für Low-End Ampere und bringt da zusätzlich Druck für Nvidia. Man bräuchte nur 4 TFLOPS (Die Skalierung von RDNA2 zu Ampere lass ich der Einfachheit halber mal außen vor, denn direkt vergleichen kann mans natürlich nicht) und 4-6 GB Videospeicher um ein tolles Next Gen Erlebnis in 1080p zu haben. Ob wir dann eine RTX 3050 für 199€ sehen werden? Halte ich schon für möglich, besonders wenn man sich für Augen führt, dass die Series X 499€ kostet und die 3070 für den selben Preis deutlich mehr Leistung bietet.

Eine RTX 3050 für 199€... das wäre der Traum für jeden Budget- PC Gamer.

ChaosTM
2020-09-08, 10:21:52
RTX werden wir bis zu den "kleinen" 150€ Karten sehen nehme ich mal an. RTX3030?

Darunter wird es keine Sinn machen.

Leonidas
2020-09-08, 10:26:21
So war das Gerücht. Da ja selbst der GA107 schon 2560 FP32-Units haben wird und damit grob das Performance-Level der GTX1080 anpeilen kann, lohnt es vielleicht auch nicht mehr, für "ohne RT" eine extra Wurst zu braten.

Troyan
2020-09-08, 10:31:14
Wie ich es mir schon gedacht hab, Series S (Lockhart) existiert.

Das bietet dann natürlich tolle Möglichkeiten für Low-End Ampere und bringt da zusätzlich Druck für Nvidia. Man bräuchte nur 4 TFLOPS (Die Skalierung von RDNA2 zu Ampere lass ich der Einfachheit halber mal außen vor, denn direkt vergleichen kann mans natürlich nicht) und 4-6 GB Videospeicher um ein tolles Next Gen Erlebnis in 1080p zu haben. Ob wir dann eine RTX 3050 für 199€ sehen werden? Halte ich schon für möglich, besonders wenn man sich für Augen führt, dass die Series X 499€ kostet und die 3070 für den selben Preis deutlich mehr Leistung bietet.

Eine RTX 3050 für 199€... das wäre der Traum für jeden Budget- PC Gamer.

Tolles "Next-Gen" in 1080p mit 30FPS? Also das, was eine <300€ RTX2060 seit anfang des Jahres leistet? Naja, soviel positives habe ich da nicht entnehmen...

250€ Ampere-Karte wird RTX2070 Leistung liefern. Also mehr als doppelt so schnell als die XBSS. Die sieht eher nach etwas aus, das man vergessen hatte zu canceln.

RLZ
2020-09-08, 10:42:29
RTX werden wir bis zu den "kleinen" 150€ Karten sehen nehme ich mal an. RTX3030?

Darunter wird es keine Sinn machen.
Vermutlich nicht. Die Frage ist auch eher wie weit runter die Tensorcores gehen werden.

Screemer
2020-09-08, 10:48:01
250€ Ampere-Karte wird RTX2070 Leistung liefern. Also mehr als doppelt so schnell als die XBSS. Die sieht eher nach etwas aus, das man vergessen hatte zu canceln.
Nvidia macht also den Geldbeutel auf und wird CPU, RAM, ssd und den ganzen Rest als kleine nette Dreingabe zu ihren gpus verschenken? Gekauft!

Troyan
2020-09-08, 10:48:56
Und Microsoft schnenkt jedem ein 4K Oled Fernsehr? Gekauft!

Lowkey
2020-09-08, 10:51:18
Wenn man die Diskussionen zusammenfassen würde, dann besteht ein Problem:
es zögern doch einige Leute mit dem Kauf der 3080 10gb, weil die Angst im Raum steht, dass der Speicher mit RT und Directstorage nicht ausreichend für 4k sein könnte - und die 20gb Version kommen wird. Und die einseitigen 3080 kommen könnten.

Eine 3090 ist aus technischer Sicht ein sicherer Kauf.

Dampf
2020-09-08, 10:51:48
Tolles "Next-Gen" in 1080p mit 30FPS? Also das, was eine <300€ RTX2060 seit anfang des Jahres leistet? Naja, soviel positives habe ich da nicht entnehmen...

250€ Ampere-Karte wird RTX2070 Leistung liefern. Also mehr als doppelt so schnell als die XBSS. Die sieht eher nach etwas aus, das man vergessen hatte zu canceln.

? Gibt noch keine Next Gen Spiele. Die 2060 macht 1440p60 in den meisten Spielen, da sie ungefähr 1080 Leistung hat. Mit Raytracing sind es dann 1080p60 (von Games wie Control die alle RT Features nutzen können mal abgesehen)

Aber ja, wenn ein Spiel in 4K30 auf der Xbox Series X läuft, dann wären das 1080p30 auf der Series S bzw einer Ampere GPU auf dem Level. Dann musst du jedoch den Vorteil von DLSS miteinbeziehen, denn damit hast du deutlich mehr Leistung und kannst die 60 FPS anstreben (solange kein CPU Bottleneck vorliegt). Mit DLSS sollte sogar eine GPU weit unter 2060 Level noch eine ordentliche Performance bieten, mit DLSS muss sie nur 540p für 1080p rendern. Also ja, RTX for everyone wird auf jeden Fall kommen, das ist so sicher wie das Amen in der Kirche.

Eine 250€ Ampere GPU auf 2070 Level scheint auch möglich. Dann muss es jedoch auch eine schwächere GPU geben, ob die unter 200€ Karte jetzt 3030 oder 3050 heißt spielt keine Rolle.

Die Xbox Series S ist ein tolle Konsole, um Next Gen Gaming für die breite Masse zugänglich zu machen. MS hatte da schon eine gute Idee. Nvidia wird da auf jeden Fall gleichziehen, es muss ja langsam ein Nachfolger in Sachen P/L für die legendäre 1060 her.

Screemer
2020-09-08, 10:55:02
Und Microsoft schnenkt jedem ein 4K Oled Fernsehr? Gekauft!

Ach einen 4k 144hz Monitor gibt's zu nv gpus auch noch geschenkt? Wird immer besser. Ich glaub ich Kauf gleich zwei. Merkste selber was du für Schwachsinnsvergleich du ziehst?

Lawmachine79
2020-09-08, 10:55:18
Zum Anlass passend:
https://www.youtube.com/watch?v=OTZZA7ytR_w

Ach einen 4k 144hz Monitor gibt's zu nv gpus auch noch geschenkt? Wird immer besser. Ich glaub ich Kauf gleich zwei. Merkste selber was du für Schwachsinnsvergleich du ziehst?
Ich kaufe zwei und kaufe mir noch ein VR Headset dazu (wovon ich auch schon eins habe). PC Master Race will prevail.

MiamiNice
2020-09-08, 11:00:42
Ich fühl mich hier heute massiv getrollt. Könnt Ihr eure sinnlosen Konsolen Träume nicht bitte in einen anderen Thread auslagern? Es juckt einfach keinen Ampere Interessenten was eine Xbox kostet, ebenso juckt es keinen Xbox Käufer was Ampere kostet. Ihr seid maximal auf dem Holzweg, OT und müllt den Thread zu.

Zergra
2020-09-08, 11:03:29
Eben, würde so eine Konsole nicht mal geschenkt nehmen. Mir gefällt das ganze Konzept einfach nicht.
Mit einem PC kann man eben noch genug andere Dinge tun.

Lawmachine79
2020-09-08, 11:03:57
Eben, würde so eine Konsole nicht mal geschenkt nehmen. Mir gefällt das ganze Konzept einfach nicht.
Mit einem PC kann man eben noch genug andere Dinge tun.
Ich nehme eine, wenn man mich dafür bezahlt.

Ich fühl mich hier heute massiv getrollt. Könnt Ihr eure sinnlosen Konsolen Träume nicht bitte in einen anderen Thread auslagern? Es juckt einfach keinen Ampere Interessenten was eine Xbox kostet, ebenso juckt es keinen Xbox Käufer was Ampere kostet. Ihr seid maximal auf dem Holzweg, OT und müllt den Thread zu.
Klick auf das Video, das ich verlinkt habe, mit dem PC Master Race Theme im Hintergrund ist es richtig cool in diesem Thread.

BTB
2020-09-08, 11:07:04
Ich fühl mich hier heute massiv getrollt. Könnt Ihr eure sinnlosen Konsolen Träume nicht bitte in einen anderen Thread auslagern? Es juckt einfach keinen Ampere Interessenten was eine Xbox kostet, ebenso juckt es keinen Xbox Käufer was Ampere kostet. Ihr seid maximal auf dem Holzweg, OT und müllt den Thread zu.

Also ich überlege schon ob ich mir lieber ne 3070 oder ne PS5 kaufe. Die 3070 hat halt einfach einen Mehrwert. Hab mir zwar ne PS4 und auch ne Pro gekauft. Den meisten Spaß hatte ich aber beim PC mit meiner 1070. Das wird diesmal berücksichtigt. PC ist halt doch flexibler.

Daredevil
2020-09-08, 11:08:02
Klick auf das Video, das ich verlinkt habe, mit dem PC Master Race Theme im Hintergrund ist es richtig cool in diesem Thread.
Stark, Danke!
Das hat meinen Puls ein wenig gesenkt, als auch dargo erkannt hat, dass die winzige XBOX "auch Raytracing kann". ( Surprise, das bedeutet eher, RT wird beschissen :D )
Offiziell ist die 3090 also jetzt so groß wie eine komplette XBOX, wa? Kann man die XBOX vielleicht auch als Addon Card anbieten, dann kommen auch Navi1/Pascal User in den "Genuss von RT".

Lawmachine79
2020-09-08, 11:11:26
Stark, Danke!
Das hat meinen Puls ein wenig gesenkt, als auch dargo erkannt hat, dass die winzige XBOX "auch Raytracing kann". ( Surprise, das bedeutet eher, RT wird beschissen :D )
Offiziell ist die 3090 also jetzt so groß wie eine komplette XBOX, wa? Kann man die XBOX vielleicht auch als Addon Card anbieten, dann kommen auch Navi1/Pascal User in den Genuss von RT.
Ich habe was für die Console-Peasants ausgegraben - schon eine 6800GT (das ist NV40, das war etwa zu der Zeit, als AMD/ATI konkurrenzfähige Grafikkarten nicht nur im TEDi-Segment hatte) konnte Raytracing:
https://d-nb.info/1049593987/34
Also, nix Besonderes die neuen NV-Karten, legt Euch wieder hin.

Troyan
2020-09-08, 11:14:34
Die Xbox Series S ist ein tolle Konsole, um Next Gen Gaming für die breite Masse zugänglich zu machen. MS hatte da schon eine gute Idee. Nvidia wird da auf jeden Fall gleichziehen, es muss ja langsam ein Nachfolger in Sachen P/L für die legendäre 1060 her.

Series S kostet 300€. Die 2060 gibt es seit anfang des Jahres für 300€. Die hat niemand abgefeiert.

Die Series S ist einfach unglaublich sinnlos. Fernsehr sind heute durchweg 4K. Mit Lockhart muss also auf 1080p -> 4K skaliert werden. Das sieht schonmal schlechter aus als direkt in 4K zu spielen. Die Anzahl der Rays errechnet sich heute von ca. 1/4 der Renderauflösung. Bei Lockhart ist das 540p auf 4K skaliert...

Die PS5 digital macht noch Sinn, da die Leistung identisch ist. Lockhart dagegen ist ein DoA Produkt. Ein Zweiklassenprodukt, wo man für 200€ weniger viel weniger Leistung und Features erhält.

Das ist ungefähr so als wenn man die GTX1660TI für 300€ als tolles Produkt ansieht, wenn es für 500€ eine 2080TI gegeben hätte...

Lockhart ist noch langsamer als eine GTX1660TI, die es seit 18 Monaten für 280€ auf dem PC gibt. Die SX wurde wegen 12 TFLOPs abgefeiert, die Series S ist das exakte Gegenteil.

Screemer
2020-09-08, 11:15:14
Ich fühl mich hier heute massiv getrollt. Könnt Ihr eure sinnlosen Konsolen Träume nicht bitte in einen anderen Thread auslagern? Es juckt einfach keinen Ampere Interessenten was eine Xbox kostet, ebenso juckt es keinen Xbox Käufer was Ampere kostet. Ihr seid maximal auf dem Holzweg, OT und müllt den Thread zu.
Ich bin durchaus an Ampere interessiert und auch der Preis der Xbox ist für mich interessant. Ersterer weil meine 980ti ersetzt werden soll und letzteres rein aus Interesse. Meine letzte Konsole war übrigens eine Wii für die Familie und für mich selbst ein snes.

Sie stehen aber in exakt 0 Zusammenhang. Ebenso wenig der Preis der 2060 und ihre Leistung in Zusammenhang zur Box steht. Man muss halt schlicht nicht jeden bullshit den troyan so von sich gibt unkommentiert stehen lassen.

Lawmachine79
2020-09-08, 11:17:04
Ersterer weil meine 980ti ersetzt werden soll und letzteres rein aus interesssr.

Dann hast Du doch schon die Power und die Grafik der neuen Konsolengeneration.