PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

OgrEGT
2020-08-25, 16:48:06
Leaks sprechen von 627mm^2.

Um bei dem gezeigten Bild dann auf 627mm2 zu kommen müsste das Substrat größer sein als bei TU102. Warum sollte man das für einen Chip machen der ja kleiner ist...

Wenn es gleich groß ist, und das Seitenverhältnis wie bei TU102 gleich ist, dann kann dieser gezeigte Chip nicht 627mm2 groß und somit eigentlich dann auch nicht GA102 sein...

Hmm... da man beim gezeigten Bild den Metallrahmen nicht ganz sieht, kann es sein, dass dieser ggf schmaler ist und der Chip so auch größer sein kann...

Wird wohl nicht mehr lange dauern und wir sehen einen besseres Foto...

Zergra
2020-08-25, 17:42:43
Um bei dem gezeigten Bild dann auf 627mm2 zu kommen müsste das Substrat größer sein als bei TU102. Warum sollte man das für einen Chip machen der ja kleiner ist...

Wenn es gleich groß ist, und das Seitenverhältnis wie bei TU102 gleich ist, dann kann dieser gezeigte Chip nicht 627mm2 groß und somit eigentlich dann auch nicht GA102 sein...

Hmm... da man beim gezeigten Bild den Metallrahmen nicht ganz sieht, kann es sein, dass dieser ggf schmaler ist und der Chip so auch größer sein kann...

Wird wohl nicht mehr lange dauern und wir sehen einen besseres Foto...

Weil mehr Speicher dran hängt ?
Dazu hängt ja noch der Co. Prozessor auf der Rückseite.

OgrEGT
2020-08-25, 17:47:28
Weil mehr Speicher dran hängt ?
Dazu hängt ja noch der Co. Prozessor auf der Rückseite.

Ja stimmt der AMD Co-Prozessor für RT :freak:

BlacKi
2020-08-25, 17:50:25
Stimmt nicht. ist bei Pascal genauso. Dafür gibt's Afterburner
hilft nicht. sogar wenn ich einfach fest auf 29% stelle, ohne regelung springen die lüfter an, aus, an, aus, an, aus....................

wenn man manuell auf 50% stellt und dann langsam die drehzahl mit 2-3 zwischenschritten auf 29% zurückstelle, dann hält der lüfter die drehzahl. da ich keine rechnung habe, weil nur vom kumpel geliehen, kann ich nichtmal reklamieren. und der ärger beim widerverkauf ist praktisch vorprogrammiert wenn der käufer kein dickes gedämmtes gehäuse hat oder taub ist.

Dorn
2020-08-25, 18:05:50
Das schreib ich doch Blacki, dafür gibts Afterburner. Hab doch selber ne Pascal ab 28% aka 625 Umdrehungen per M. gehts los mit der Lüfterkurve...

Sagmal Blacki hast du überhaupt gelesen was Aufkrawall geschrieben hat?!

aufkrawall
2020-08-25, 18:11:15
Du musst mal genau lesen: Insbesondere mit manueller Kurve per AB tritt das Problem auf. BlacKi beschreibt genau die Problematik, die ich erwähnt habe.
Edit: Ok, bei BlacKi tritt es auch mit der Auto-Kurve auf. Macht es nicht besser. :D

BlacKi
2020-08-25, 18:13:58
das problem ist, das ich das manuell einpendeln muss, mit der custom curve auf automatik beruhigt sich der lüfter nicht.

Linmoum
2020-08-25, 19:22:52
Prise Salz:

Ampere latest
21/09/2020 - FE
28/09/2020 - AIB
35% perf increase

https://mobile.twitter.com/leakbench/status/1298265934939865093

N0rG
2020-08-25, 19:37:11
Also 35% mehr Performance für 35% mehr Geld bei 35% mehr Verbrauch? Ein Bisschen mehr müsste da schon kommen sonst warte ich auf BN.

Troyan
2020-08-25, 19:41:04
Ja, nonsense. Muss man schon weit neben dem Schuss zu glauben, dass eine 3080 für 2080TI Leistung den selben Verbrauch benötigt.

DavChrFen
2020-08-25, 19:44:36
3080 oder 3090?
Außerdem sollte die eigentliche Frage sein: Wie kuckt es mit 2080Ti max übertaktet mit bios-mod gegen 3080/3090 max. übertaktet mit mod-Bios aus?

Troyan
2020-08-25, 19:46:04
Die 3080 soll nach Twitter 320W benötigen. Das ist dann das selbe wie eine 2080TI bei 320W für Leistung erreicht.
Im Grunde muss nVidia einfach Turing umlabeln und erreicht das selbe.

Digidi
2020-08-25, 19:56:01
Die 3080 soll nach Twitter 320W benötigen. Das ist dann das selbe wie eine 2080TI bei 320W für Leistung erreicht.
Im Grunde muss nVidia einfach Turing umlabeln und erreicht das selbe.

Troyan hat gesprochen! Wir können den Thread schließen. Alles ist wahr!

Der_Korken
2020-08-25, 19:58:12
Ich kann mir beim besten Willen nicht vorstellen, wie Nvidia ihre Arch so in den Sand setzen soll, dass sie gegenüber Turing@12nm keine Effizienz rausholt. Außer vielleicht, wenn Samsungs 8nm schlechtere Eigenschaften als TSMCs 12nm haben oder da auf technischer Seite irgendwas komplett in die Hose gegangen ist. Also z.B. dass der Chip voll auf N7 designed war und Nvidia den last minute auf 8nm geportet hat und dabei auf alle design rules geschissen hat.

Nvidia mag bei den Preisen sehr unverschämt geworden sein, aber die sind noch lange kein Intel, die ihre Technologie verwalten und nur ein paar Margen optimieren.

Linmoum
2020-08-25, 20:14:14
Ein potentieller N7-Refresh kommendes Jahr bei TSMC könnte natürlich Licht ins Dunkel bringen.

Ich halte es für ausgeschlossen, dass es an der Architektur liegt. Eine tolle und (eigentlich) effiziente Architektur bringt dir aber auch nix, wenn der Prozess dafür umso übler ist. Was ich bei Samsungs 8nm immer mehr befürchte.

horn 12
2020-08-25, 20:37:13
Dies kommt von der Gier nach Immer Mehr
Aber ist ja nix Neues und nicht nur Nvidia exklusiv :-((

Troyan
2020-08-25, 20:43:39
Ich kann mir beim besten Willen nicht vorstellen, wie Nvidia ihre Arch so in den Sand setzen soll, dass sie gegenüber Turing@12nm keine Effizienz rausholt. Außer vielleicht, wenn Samsungs 8nm schlechtere Eigenschaften als TSMCs 12nm haben oder da auf technischer Seite irgendwas komplett in die Hose gegangen ist. Also z.B. dass der Chip voll auf N7 designed war und Nvidia den last minute auf 8nm geportet hat und dabei auf alle design rules geschissen hat.

Nvidia mag bei den Preisen sehr unverschämt geworden sein, aber die sind noch lange kein Intel, die ihre Technologie verwalten und nur ein paar Margen optimieren.

Noch nichtmal das. Die geleakten Specs entsprechen ja 1:1 den Turing Karten. Heißt also, eine neue Architektur auf einem ca. doppelten so guten Prozess bringt exakt null Leistungsvorteile.

Alleine ein simpler Shrink auf 7nm von TSMC bringt dagegen schon 40% Effizienzgewinn, wie AMD mit Vega7 gezeigt hat.

Thunder99
2020-08-25, 20:46:03
Mal was anderes, es wird ja laut den Leaks ein GA werden anstelle AM. Bei Turing war man überrascht, dass es ein TU war.

Hier wieder klassisch. Wer hatte das nicht gedacht? (Speku ist schon überholt, da GA100 draußen ist).

Adam D.
2020-08-25, 20:47:09
Ein potentieller N7-Refresh kommendes Jahr bei TSMC könnte natürlich Licht ins Dunkel bringen.

Ich halte es für ausgeschlossen, dass es an der Architektur liegt. Eine tolle und (eigentlich) effiziente Architektur bringt dir aber auch nix, wenn der Prozess dafür umso übler ist. Was ich bei Samsungs 8nm immer mehr befürchte.
Worauf basiert diese Einschätzung? AMD wird einen Fertigungsvorteil haben, aber wieso ist Samsungs 8nm "übel"? Irgendwie ist mir das alles zu schwarz/weiß hier.

Troyan
2020-08-25, 20:47:42
nVidia hatte schon "GT". Wahrscheinlich will man da missverständnisse verhindern.

Linmoum
2020-08-25, 20:51:22
Worauf basiert diese Einschätzung? AMD wird einen Fertigungsvorteil haben, aber wieso ist Samsungs 8nm "übel"? Irgendwie ist mir das alles zu schwarz/weiß hier.Meine Einschätzung basiert auf den spekulierten Daten. Wobei das ja nicht nur meine ist, eigentlich wird überall Samsungs 8nm kritisch gesehen.

Bei +40-50% Performance, gleichzeitig aber einem Anstieg auf rund 350W, gibt es in meinen Augen keine andere Eklärung als den Prozess bei einem Fullnodesprung dafür. Andere wäre, dass Nvidia es mit Ampere verkackt hat, aber das halte ich für weit hergeholt.

Die ganzen Gerüchte all die Jahre über Samsungs Prozess(e) tragen da natürlich auch ihren Teil bei.

Ravenhearth
2020-08-25, 20:54:00
Prise Salz:

Ampere latest
21/09/2020 - FE
28/09/2020 - AIB
35% perf increase

https://mobile.twitter.com/leakbench/status/1298265934939865093
Aber mehr in 4K (was wichtiger ist):

35% across the board. 4k you're looking at more of a jump
2080Ti > 3090
2080 > 3080
etc

Vielleicht ~50%? Würde doch zu den Rohdaten passen.

crux2005
2020-08-25, 21:02:19
Aber mehr in 4K (was wichtiger ist):

35% across the board. 4k you're looking at more of a jump
2080Ti > 3090
2080 > 3080
etc

Vielleicht ~50%? Würde doch zu den Rohdaten passen.

Wie soll ich das 2080 Ti > 3090 etc. verstehen?

Wahrscheinlich eher 3080 > 2080, 3090 > 2080 Ti.

40% Leistung bei 30% mehr Verbrauch und auch 20% höheren Preisen wäre für mich schon ein Fail seitens NV. Da würde sich mindestens lohnen auf AMD zu warten damit die Preise fallen. Hoffentlich noch in 2020. So eine 3080 mit 20 GB wäre schon nicht schlecht ggü einer 2080.

Linmoum
2020-08-25, 21:08:05
Vielleicht ~50%? Würde doch zu den Rohdaten passen.Aber wie gesagt: Selbst +50% wären ein harter Fail, wenn sich die 350W im Gegenzug als Realität entpuppen. Wer glaubt denn in diesem Fall ernsthaft, dass es an der Architektur statt an Samsungs 8nm liegt? Das kann doch nur letzteres sein was bei bestimmten Taktraten einfach anfängt, wie ein Loch zu saufen. Und womöglich sind das ja schon Taktraten, die Turing spielend leicht erreicht, ohne die Effizienz knallhart über Bord zu werfen.

Ex3cut3r
2020-08-25, 21:16:57
Ich dachte der Stromverbrauch wird so aussehen:
350W out of the Box für die 3080 Ti bzw. 3090
300W out of the Box für die 3080 non Ti
250W out of the Box für die 3070 (Ti)
200W out of the Box für die 3060

Auch das ist natürlich heftig, wäre aber noch verschmerzbar, wenn die Kühler alle Monströs sind und nicht zu laut bzw. nicht einen satten Aufpreis haben. OC mäßig geht dann natürlich nicht viel mehr. Aber das ist ja schon ewig so bei Nvidia.

IMO ist diese Gen wirklich sehr sehr unaktrativ für mich IMO, ich habe A keinen Bock auf einen riesen Klopper im Gehäuse. B Finde ich diese Mengen an Strom total dämlich und C habe ich auch kein Bock auf eine Heizung. Und dann noch mega laut oder so. :/ : / : /

Aber gut, dann muss man halt im Afterburner den PT Silider bedienen und auf 65% oder so drosseln.

Dampf
2020-08-25, 21:20:40
Woooooooooooorsschhhh

Nvidia - The Way It's Meant To Be Played®

Ex3cut3r
2020-08-25, 21:22:42
:ulol:

u5YJsMaT_AE

Ravenhearth
2020-08-25, 21:26:16
Wie soll ich das 2080 Ti > 3090 etc. verstehen?

Er meint 35% von 2080 Ti auf 3090, ebenso von 2080 auf 3080 usw.

Aber wie gesagt: Selbst +50% wären ein harter Fail, wenn sich die 350W im Gegenzug als Realität entpuppen. Wer glaubt denn in diesem Fall ernsthaft, dass es an der Architektur statt an Samsungs 8nm liegt? Das kann doch nur letzteres sein was bei bestimmten Taktraten einfach anfängt, wie ein Loch zu saufen. Und womöglich sind das ja schon Taktraten, die Turing spielend leicht erreicht, ohne die Effizienz knallhart über Bord zu werfen.
Dito. Angesichts des fetten Kühlers etc. sind die 350W allerdings immer wahrscheinlicher, sonst bräuchte man den nicht. Da müssen schon 70% mehr Leistung bei rumkommen, aber wie wahrscheinlich ist das?

[MK2]Mythos
2020-08-25, 21:30:35
Prise Salz:

Ampere latest
21/09/2020 - FE
28/09/2020 - AIB
35% perf increase

https://mobile.twitter.com/leakbench/status/1298265934939865093
:freak:
Wenn das so stimmt, hat AMD innerhalb weniger Jahre nicht nur intel bei den CPUs ein und sogar überholt, sondern zieht zum Ende des Jahres sogar an nvidia vorbei. BN wird keine Probleme haben, die 2080ti um 35% zu schlagen oder zumindest zu erreichen.
Unglaublich! :)
Egal ob grünes oder rotes Lager oder vernünftigerweise neutral eingestellt, profitieren wir alle am Ende davon weil sich das positiv auf die Preise auswirken wird.

crux2005
2020-08-25, 21:38:52
Er meint 35% von 2080 Ti auf 3090, ebenso von 2080 auf 3080 usw.

OK. Ich rechne schon seit 1 Jahr mit grob +30% mehr Leistung. Anhand dessen was NV mit Turing gebracht hat und es ein Sweetspot ist.

Die Frage ist eher wie die Preise sein werden und ob AMD endlich ein Konkurrenzprodukt im Ultra High-end bieten kann.

Mythos;12402635'] BN wird keine Probleme haben, die 2080ti um 35% zu schlagen oder zumindest zu erreichen.
Unglaublich! :)

Hoffentlich hast du recht. Am ende des Tages kann ich nur aus Erfahrung sagen. Bei NV wird immer zu wenig erwartet und bei AMD immer zu viel. ;)

Lowkey
2020-08-25, 21:43:39
Was kommt dabei heraus?

2070s auf 2080s Level = 3070
2080s auf 2080Ti Level = 3080
2080Ti + 30% = 3090?

Das ist mau, weil das erklärt den hohen Verbrauch (ohne den der Abstand gering wäre). Oder Nvidia behält sich Super und Ti in der Hinterhand für mögliche Reaktionen auf Intel und AMD. Aber es erklärt auch die 24Gb Speicher, was für mich gerade nutzlos wäre, aber ein Marketing-Kaufgrund.

Von der MSI Gaming Z 2080Ti (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/) hätte man fast keinen guten Grund für das Upgrade.

Adam D.
2020-08-25, 21:46:23
Aber wie gesagt: Selbst +50% wären ein harter Fail, wenn sich die 350W im Gegenzug als Realität entpuppen. Wer glaubt denn in diesem Fall ernsthaft, dass es an der Architektur statt an Samsungs 8nm liegt? Das kann doch nur letzteres sein was bei bestimmten Taktraten einfach anfängt, wie ein Loch zu saufen. Und womöglich sind das ja schon Taktraten, die Turing spielend leicht erreicht, ohne die Effizienz knallhart über Bord zu werfen.
Du kriegst die AMD-Karten auch in 7nm ganz schnell in komplett ineffiziente Regionen. Das sagt doch an sich erstmal nichts aus, wenn wir nicht das Gesamtbild kennen. Ich hab ja auch das Gefühl, dass NV nicht ohne Grund so fette Geschütze auffährt. Aber der Grund kann eben auch sein, dass sie mächtig Performance draufsetzen. Ich würde sie bei nem Fullnode-Sprung und neuer Architektur nicht unterschätzen.

crux2005
2020-08-25, 21:46:24
Was kommt dabei heraus?

2070s auf 2080s Level = 3070
2080s auf 2080Ti Level = 3080
2080Ti + 30% = 3090?

Das ist mau, weil das erklärt den hohen Verbrauch (ohne den der Abstand gering wäre). Oder Nvidia behält sich Super und Ti in der Hinterhand für mögliche Reaktionen auf Intel und AMD.

Eine Super Version in ~1 Jahr sehe ich als gesichert an.

Das würde auch gut erklären wieso 3090 und nicht 3080 Ti. 3090 Super hört sich noch gut an. 3080 Ti Super nicht. Und für die Masse macht eine 3070, 3080, 3090 Abstufung deutlich mehr Sinn.

Von der MSI Gaming Z 2080Ti (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/) hätte man fast keinen guten Grund für das Upgrade.

20% mehr Rohleistung, deutlich mehr VRAM, RT und DLSS Leistung.

nordic_pegasus
2020-08-25, 21:52:53
Mythos;12402635']:freak:
Wenn das so stimmt, hat AMD innerhalb weniger Jahre nicht nur intel bei den CPUs ein und sogar überholt, sondern zieht zum Ende des Jahres sogar an nvidia vorbei. BN wird keine Probleme haben, die 2080ti um 35% zu schlagen oder zumindest zu erreichen.
Unglaublich! :)
Egal ob grünes oder rotes Lager oder vernünftigerweise neutral eingestellt, profitieren wir alle am Ende davon weil sich das positiv auf die Preise auswirken wird.

so sehr ich mich über die Konkurrenz seitens AMD im CPU-Markt freue, dennoch haben wir letztlich Stillstand. Denn Intel steckt in 14++++++++ und der "[insert name] Lake" Architektur fest. AMD hat es mit Zen geschafft, zu einem Langstreckenläufer aufzuschließen, der seit 3 Runden bewusstlos auf der Tartan-Bahn liegt. Abgesehen von mehr Kernen, welche aber bei der meisten Software im Alltag keinen Vorteil bringt, hat Zen noch keinen IPC-Vorsprung.

Wenn AMD jetzt das gleiche bei Nvidia gelingt, aber wieder unter dem Vorzeichen des faktischen Stillstands der Konkurrenz, dann haben wir nichts gewonnen. Natürlich wäre ein BigNavi, welcher aus dem Stand an Turing knapp vorbei zieht, ein Knaller. Aber wir brauchen einen signifikanten Sprung von Turing aus nach Vorne, speziell wenn RT endlich mal aus den Kinderschuhe erwachsen soll.

Thunder99
2020-08-25, 21:52:57
Es zeigt sich, oder soll ich lieber sagen es ist vermutlich, dass nicht mehr drin ist pro Generation. RT da ausgenommen, da Potential noch riesig ist für Verbesserungen.

Linmoum
2020-08-25, 21:54:29
Du kriegst die AMD-Karten auch in 7nm ganz schnell in komplett ineffiziente Regionen. Das sagt doch an sich erstmal nichts aus, wenn wir nicht das Gesamtbild kennen. Ich hab ja auch das Gefühl, dass NV nicht ohne Grund so fette Geschütze auffährt. Aber der Grund kann eben auch sein, dass sie mächtig Performance draufsetzen. Ich würde sie bei nem Fullnode-Sprung und neuer Architektur nicht unterschätzen.Deswegen ja auch aufgrund der aktuellen Gerüchtelage und sofern sich die kolportierten +~50%/350W bewahrheiten sollten. Wir sind ja schließlich in einem Spekuforum. ;)

Plot twist wäre natürlich, wenn das dann zwar auch so real kommt, aber GA102 trotzdem bei TSMC gefertigt wird. ;D

r3ptil3
2020-08-25, 22:06:39
35% auf die 2080 Ti nach weit über 2 Jahren, bei einem optimierten 10nm Samsung-Prozess und möglichen 350W Verbrauch?

Wenn man sich dies nochmals vor Augen führt erkennt man schnell, dass daran etwas nicht stimmen kann. :)

Zergra
2020-08-25, 22:13:48
noch ganze 7 Tage und wir sind vllt. etwas schlauer :D

WedgeAntilles
2020-08-25, 22:14:00
Ist das hier nicht seit zig Jahren so?
Die kommende GraKa Generation von Nvidia wird immer mies, die kommende GraKa von AMD immer super.

Wieviele GraKas von Nvidia waren denn ein kompletter Fail in den letzten 20 Jahren?
Klar, das ist keine Garantie, aber doch ein ziemlich guter Indikator, dass auch Ampere kein Reinfall wird wie hier getan wird.
30% mehr Verbrauch und 35% mehr Leistung - wie kann man so etwas auch nur im Ansatz ernst nehmen?

Ich will damit gar nicht sagen, dass Ampere phantastisch wird, aber quasi 0 Mehrleistung auf den Verbrauch umgerechnet? Also bitte...

Ex3cut3r
2020-08-25, 22:18:57
35% auf die 2080 Ti nach weit über 2 Jahren, bei einem optimierten 10nm Samsung-Prozess und möglichen 350W Verbrauch?

Wenn man sich dies nochmals vor Augen führt erkennt man schnell, dass daran etwas nicht stimmen kann. :)

Man kann nie wissen, warum will Nvdia jetzt einen Standard Verbrauch von 350W? Obwohl man selber AMD für 300W die letzen Jahre immer dafür kritisiert hat. Warum baut man einen riesen FE Kühler? Na ganz klar....weil das akutelle Produkt eher sparlich am Vorgänger vorbeizieht. Ergo haut holt man diesmal selbst gleich die Watt Keule raus, bevor die User selber wieder Mod Biose aufspielen und die OC Keule rausholen. So holt man eben die 40% im Vergleich zum Vorgänger raus, immer noch besser als 30%. Samsung Prozesse sucken einfach derbst. Siehe Exynos SOC gegen Qualcomms Snapdragon by TSMC. RT wird aber schneller sein als bei Turing. Nur begeistert du damit auch nicht alle.

Fragman
2020-08-25, 22:29:42
Klar, das ist keine Garantie, aber doch ein ziemlich guter Indikator, dass auch Ampere kein Reinfall wird wie hier getan wird.
30% mehr Verbrauch und 35% mehr Leistung - wie kann man so etwas auch nur im Ansatz ernst nehmen?


Nv kann 100% drauf legen bei der 3090, in 2 Jahren wird das hier genauso laufen. Sinn macht das natürlich nicht.
Ich geh davon aus, das wir Anfang nächste Woche hier wieder Ruhe haben.

dargo
2020-08-25, 22:49:41
Hoffentlich hast du recht. Am ende des Tages kann ich nur aus Erfahrung sagen. Bei NV wird immer zu wenig erwartet und bei AMD immer zu viel. ;)
Dann kannst du das aber auf Turing bezogen nicht meinen. ;)

Der_Korken
2020-08-25, 23:06:27
Für die 350W gibt es imho nur zwei Gründe:

1. Wie schon gesagt: Es ist technisch irgendwas schief gelaufen beim Prozess und Nvidia muss die Verbrauchskeule ziehen, um das eigene Performance-Target zu halten. Das impliziert außerdem, dass die 3090 sich mit 250W entweder nicht genug von der 2080Ti absetzen kann oder langsamer als Big Navi sein würde (bzw. dem was Nvidia dafür hält).

2. Mit der Performance ist alles in Ordnung, aber er skaliert einfach saugut mit dem Verbrauch und die 350W liegen noch halbwegs im Sweetspot. Daher möchte man diese Performance mitnehmen, um den Preis höher ansetzen zu können.

Ehrlich gesagt halte ich beides nicht für sehr wahrscheinlich, aber anders kann ich mir auf 350W keinen Reim machen.

dargo
2020-08-25, 23:12:12
350W im Sweetspot? :uconf3: Dein zweiter Punkt ist schon Widerspruch in sich.

crux2005
2020-08-25, 23:13:42
Dann kannst du das aber auf Turing bezogen nicht meinen. ;)

Ansichtssache. Wenn du nur die "Rohleistung" in Spielen siehst dann war Turing ernüchternd. Wenn du aber die RT und DLSS Leistung mit rein rechnest, kommst du wieder auf +50% und mehr ggü Pascal.

dargo
2020-08-25, 23:16:02
Da weder RT noch DLSS in jedem Spiel verfügbar ist ist das aber schon Schönrechnerei. :wink: Mal ganz davon ab, dass RT die Performance leider noch ordentlich drückt.

Effe
2020-08-25, 23:18:52
Ansichtssache. Wenn du nur die "Rohleistung" in Spielen siehst dann war Turing ernüchternd. Wenn du aber die RT und DLSS Leistung mit rein rechnest, kommst du wieder auf +50% und mehr ggü Pascal.
So in der Art wird Herr Jensen das schönrechnen: „It just works...“ *Ledergeknirsche*

Möglicherweise haben sie RTX und/oder DLSS massiv aufgebohrt. Dazu müssten aber endlich mal mehr als drei Spiele das können.

Lowkey
2020-08-25, 23:28:53
Wo liegt eigentlich die Obergrenze für Luftkühlung? 400w mit 3 Slot? Eigentlich haben sie keinen Spielraum mehr für dickere Modelle oder die 4000er Serie.

crux2005
2020-08-25, 23:35:07
Da weder RT noch DLSS in jedem Spiel verfügbar ist ist das aber schon Schönrechnerei. :wink: Mal ganz davon ab, dass RT die Performance leider noch ordentlich drückt.

Ich zitiere Thunder:

Es zeigt sich, oder soll ich lieber sagen es ist vermutlich, dass nicht mehr drin ist pro Generation. RT da ausgenommen, da Potential noch riesig ist für Verbesserungen.

NV wusste genau was sie machen. Ein Turing mit gleicher Fläche ohne RT/DLSS wäre nur in den ersten 1-2 Jahren besser gewesen. NV muss mit einer neuen uArch aber in die Zukunft schauen. Weil die Konsolen auch diese Richtung gehen, ist es schon der richtige Weg. AMD wird es mit "Big Navi" auch nicht viel anders machen. Wie viel mehr Rohleistung und wie viel mehr "RT und ML" Leistung es ggü. Navi sein werden muss sich noch zeigen.

Möglicherweise haben sie RTX und/oder DLSS massiv aufgebohrt. Dazu müssten aber endlich mal mehr als drei Spiele das können.

Bin ich voll bei dir. Es werden in Zukunft hoffentlich deutlich mehr. Auch dank RT und ML Unterstützung in PS5 und XBSX .

Zergra
2020-08-25, 23:37:47
Wo liegt eigentlich die Obergrenze für Luftkühlung? 400w mit 3 Slot? Eigentlich haben sie keinen Spielraum mehr für dickere Modelle oder die 4000er Serie.

Eben...daher dürfte ein Ampere kauf die beste Investition für die Zukunft sein, es gibt einfach immer weniger Spielraum. Die neuen Prozesse machen große GPUs im Verhältnis viel teuerer als kleine.

Raff
2020-08-25, 23:44:37
Wenn wir hier aber nur "8" nm Samsung sehen, gibt es sehr wohl Spielraum, was Ampere 1.0 zu einem Lückenfüller mächte. Wenn man das nur wüsste ...

MfG
Raff

Daredevil
2020-08-25, 23:47:25
Warum sollte Samsung eigentlich generell schlecht sein?
Zumindest beim Speicher sind sie der Konkurrenz immer weitaus vorraus ( SSD, NVME, DDR4 RAM )
Und wieso muss ne Karte, die man mit 400w anbindet, denn die ganze zeit soviel nutzen sollen? :D
Schafft Nvidia auf einmal das positive Power Limit ab, oder was?
Es kann auch einfach 280w +25% Power Limit sein.

Ganz sicher nicht wird die Stock 350w verbrauchen, das ist doch total unnötig.

RLZ
2020-08-25, 23:49:24
Da weder RT noch DLSS in jedem Spiel verfügbar ist ist das aber schon Schönrechnerei. :wink: Mal ganz davon ab, dass RT die Performance leider noch ordentlich drückt.
Bei RT greift das gleiche Argument wie bei fast jedem größeren Feature in der Vergangenheit. Aktuelle Spiele laufen eh schnell genug mit den neuen Karten und neue Spiele werden es immer häufiger nutzen. Das greift sowohl bei Nvidia als auch bei AMD in den nächsten paar Generationen.

Für die 350W gibt es imho nur zwei Gründe:
3. Es gibt einen Markt für noch teurere Karten. Also prügelt man das letzte raus und nimmt das Geld mit.

/Locutus oB
2020-08-25, 23:52:36
300 Watt und dank DLSS nichtmal volle Auflösung...

Lowkey
2020-08-25, 23:58:05
Warum sollte Samsung eigentlich generell schlecht sein?
Zumindest beim Speicher sind sie der Konkurrenz immer weitaus vorraus ( SSD, NVME, DDR4 RAM )
Und wieso muss ne Karte, die man mit 400w anbindet, denn die ganze zeit soviel nutzen sollen? :D
Schafft Nvidia auf einmal das positive Power Limit ab, oder was?
Es kann auch einfach 280w +25% Power Limit sein.

Ganz sicher nicht wird die Stock 350w verbrauchen, das ist doch total unnötig.

Hatte wir doch schon, dass der GDDR6x deutlich viel mehr Strom frißt. Und dann starte mal Tomb Raider auf HDR mit RT. Dann merkst du dass eine Grafikkarte 100% TDP komplett ausnutzen kann. Momentan halte ich es für sicher, dass die Karte ein dickes TDP Level halten muss. Sieh dir den Kühler an...
Eine Grafikkarte mit dem TDP Level und dem vermutlich geringen Zuwachs halte ich auf jeden Fall für kein Meisterwerk.... wenns stimmt.

Fun Facts: RGB Beleuchtung steckt mit im TDP Limit drin. Die Abbildungen zeigen keine Beleuchtung ...

Dampf
2020-08-26, 00:03:34
300 Watt und dank DLSS nichtmal volle Auflösung...

???

Diese Logik erschließt sich mir nicht.

RLZ
2020-08-26, 00:07:08
300 Watt und dank DLSS nichtmal volle Auflösung...
Gewöhn dich dran. DLSS und Alternativen werden in Zukunft auf allen Karten und Plattformen Standard werden.

Linmoum
2020-08-26, 00:09:04
Aktuelle Spiele laufen eh schnell genug mit den neuen KartenDas Märchen hält sich aber auch immer noch extrem hartnäckig. Warum eigentlich? Selbst mit +80% ist da in UHD nichts "schnell genug".

RLZ
2020-08-26, 00:12:47
Das Märchen hält sich aber auch immer noch extrem hartnäckig. Warum eigentlich? Selbst mit +80% ist da in UHD nichts "schnell genug".
Es gibt immer eine Nische, die gerne mehr von der klassischen Performance hätte. 4K an Spiele PCs liegt vom Marktanteil minimalst über VR. Dann muss noch die Leute rausfiltern, denen 30fps nicht genug ist. Da kommt man dann langsam in den Promillebereich.

/Locutus oB
2020-08-26, 00:15:32
Ich stelle DLSS nicht in frage aber ich kaufe mir eine neue GraKa für VR und da brauche ich rohleistung. ich will upsampling und kein downsampling.

Daredevil
2020-08-26, 00:19:56
Hatte wir doch schon, dass der GDDR6x deutlich viel mehr Strom frißt. Und dann starte mal Tomb Raider auf HDR mit RT. Dann merkst du dass eine Grafikkarte 100% TDP komplett ausnutzen kann. Momentan halte ich es für sicher, dass die Karte ein dickes TDP Level halten muss. Sieh dir den Kühler an...
Eine Grafikkarte mit dem TDP Level und dem vermutlich geringen Zuwachs halte ich auf jeden Fall für kein Meisterwerk.... wenns stimmt.

Fun Facts: RGB Beleuchtung steckt mit im TDP Limit drin. Die Abbildungen zeigen keine Beleuchtung ...
Das stimmt so nicht. Wenn Raytracing der limitierende Faktor ist, ist das Power Limit der Karte bei mir noch nie komplett ausgereizt gewesen.
Du vergisst eins hierbei nicht, der Kühler der 2080ti FE war scheiße, der hätte auch schon eine Trio Slot Kühlung gebraucht, damit der wirklich nützlich ist. ( Leise und kühl )

Alles, was hier bemängelt wird, kann man auch auf eine 2080ti münzen und dort funktionieren all diese Dinge.
Tri Slot > Check
Riesen Kühler > Check
Schwerer Kühler > Check
Leiser Kühler > Check
300w Stock Karten > Check
400w Bios > Check
3x 8Pin Anschlüsse > Check

Das alles funktioniert bei Turing einwandfrei, aber beim spekulierten Ampere ist es natürlich unter aller Sau.

Der_Korken
2020-08-26, 00:23:46
350W im Sweetspot? :uconf3: Dein zweiter Punkt ist schon Widerspruch in sich.

Nö wieso, sweetspot hat ja nichts mit dem absoluten Verbrauch zu tun, sondern bis wohin ein Chip noch (taktmäßig) sinnvoll mit mehr Verbrauch skaliert. Geprügelt säuft die dann halt 500W :tongue:. Aber wie gesagt, ich bin da selbst nicht von überzeugt, auch wenn ich keine bessere Erklärung habe für Nvidias Schritt - sofern das nicht alles nur Quatsch war und das Ding ganz normal mit 250-270W kommt.

pixeljetstream
2020-08-26, 00:33:06
Fun Facts: RGB Beleuchtung steckt mit im TDP Limit drin. Die Abbildungen zeigen keine Beleuchtung ...
Das Metall fängt an zu glühen :ugly:

https://youtu.be/gSHToyGIxWE

crux2005
2020-08-26, 00:56:01
:ulol:

https://youtu.be/u5YJsMaT_AE

IYVORJGJoGY

Solche und ähnliche Fluggeräusche kannst du über ganz Europa hören.

Fun Facts: RGB Beleuchtung steckt mit im TDP Limit drin. Die Abbildungen zeigen keine Beleuchtung ...

Deswegen hat meine Zotac ein höheres TDP Limit.

Lawmachine79
2020-08-26, 01:02:33
Bei RT greift das gleiche Argument wie bei fast jedem größeren Feature in der Vergangenheit. Aktuelle Spiele laufen eh schnell genug mit den neuen Karten und neue Spiele werden es immer häufiger nutzen.
Da hast Du drei Trends vergessen, in der Reihenfolge:
1) UHD
2) Monitore mit 240+ HZ
3) VR

In der Tat gab es mal eine Zeit, als FullHD Stand der Technik war, 144hz was für Nerds war und VR noch etwas entfernt, da konnte man bei Grafikkarten schon recht weit unten ins Regal greifen und hatte dennoch genug Power. Dürfte so 2013-2015 gewesen sein. Jetzt habe ich eine 1080TI und reduziere in UWQHD in COD:Warzone die Renderauflösung auf 90%, um die 144Hz meines Monitors vollzumachen und werde mir wohl eine 3090 kaufen, um die HP Reverb G2 gescheit zu befeuern.

kunibätt
2020-08-26, 02:11:06
Falls das mit den 350W überhaupt stimmen sollte:

Wieviel davon wird für Raytracing einkalkuliert sein?

Soll heißen:
Eventuell ist das wirklich nur der worst case wenn klassisch TMUs/ ALUs unter Vollast arbeiten und zusätzlich die Strahlentesteinheiten/Tensorcores am absoluten Limit sind. Fraglich ob so ein Lastszenario in absehbarer Zeit in Spielen/ Anwendungen realistisch sein wird.

Das ist halt das Blöde am Umbruch: Man kann das Etablierte nicht vollends vernachlässigen und muss gleichzeitig genügend Verbesserungen in die Zukunftstechnologie fließen lassen.

y33H@
2020-08-26, 02:23:01
ich will upsampling und kein downsampling.
Andersrum.

TheAntitheist
2020-08-26, 03:00:33
Andersrum.
nein das passt schon so, zumindest zu dem restlichen Unsinn. Sonst machts ja noch Sinn ;D

N0rG
2020-08-26, 06:51:44
_rogame kommt auch auf 628mm².

https://twitter.com/_rogame/status/1298419598161776640

nordic_pegasus
2020-08-26, 08:30:50
Da hast Du drei Trends vergessen, in der Reihenfolge:
1) UHD
2) Monitore mit 240+ HZ
3) VR


abseits von VR war vor dem Turing-Release das Thema "BFGD" bei Nvidia hoch im Kurs. Darum gingen hier viele davon aus, dass Nvidia mit Turing die erste echte UHD/120Hz Karte bringen würde.... stattdessen kam Turing mit Gigarays, welche für die meisten User immer noch ein nettes Gimmick sind aber nicht viel mehr.

Lowkey
2020-08-26, 08:41:38
4k 144hz Displays mit 27" setzten sich auf dem Markt gerade durch und auch <1000 Euro. Die Lösung ist nicht das Warten auf DP 2.0 oder HDMI 2.1, sondern Dual DP 1.4.


Das stimmt so nicht. Wenn Raytracing der limitierende Faktor ist, ist das Power Limit der Karte bei mir noch nie komplett ausgereizt gewesen.
Du vergisst eins hierbei nicht, der Kühler der 2080ti FE war scheiße, der hätte auch schon eine Trio Slot Kühlung gebraucht, damit der wirklich nützlich ist. ( Leise und kühl )

Alles, was hier bemängelt wird, kann man auch auf eine 2080ti münzen und dort funktionieren all diese Dinge.
Tri Slot > Check
Riesen Kühler > Check
Schwerer Kühler > Check
Leiser Kühler > Check
300w Stock Karten > Check
400w Bios > Check
3x 8Pin Anschlüsse > Check

Das alles funktioniert bei Turing einwandfrei, aber beim spekulierten Ampere ist es natürlich unter aller Sau.

Ich habe es auch nur mit allen Karten außer der 2080Ti gemessen. Und dann natürlich Ultra Mega Quality Level.

Der 12Pin Stecker ersetzt nicht 2x8Pin mit 150w, sondern 2x300w. Von daher glaube ich nicht an 300w. Denn für damalige Karten wie die 1080Ti gab es nach Release schon 275w Bios Versionen, da die 300w zu viel seien. Und nach der Diskussion über GDDR6x glaube ich einfach, dass die 300w standardmäßig überschritten werden, weil der Abstand zur 2080Ti laut Gerüchteküche zu gering wäre. Nvidia hätte in der Spitze bestimmt auch gerne eine leise, schnelle Karte, was mit dem alten Kühler nicht machbar wäre. Es paßt einfach zusammen.



Wieso stellt nun auch Silverstone ein 1650 Watt Netzteil vor? (https://www.techpowerup.com/271387/silverstone-intros-da1650-high-wattage-modular-psu)

1.) Grafikkarten?
2.) Machbarkeit?
3.) Günstige Machbarkeit bei hoher Marge? Wenn Intel den i9 schafft und nvidia mit der 3090 eine neue Preisklasse, dann könenn wir das auch?

mboeller
2020-08-26, 09:02:44
Bei +40-50% Performance, gleichzeitig aber einem Anstieg auf rund 350W, gibt es in meinen Augen keine andere Eklärung als den Prozess bei einem Fullnodesprung dafür.

Welcher Fullnode-Sprung?

Der 8nm Prozess von Samsung ist ja nur ein verbesserter 10nm Prozess. Der 10nm Prozess von Samsung war schlechter als der 10nm Prozess von TSMC. Siehe hier: https://en.wikichip.org/wiki/10_nm_lithography_process

voltage: 10nm Samsung: 0,75v; 10nm TSMC: 0,70v
Die Skalierung von 14nm/16nm auf 10nm war auch schlechter als bei TSMC

Und der 10nm Prozess von TSMC war so schlecht, dass ihn niemand für GPUs benutzen wollte.

Wenn also Samsung beim 8nm Prozess keine massiven Fortschritte gemacht hat (und ihre eigene Einteilung spricht dagegen) dann dürfte der 8nm Prozess jetzt nur geringfügig besser sein als der 12nm Prozess von TSMC.

Ich sehe da deshalb keinen Fullnode-Sprung.

Zossel
2020-08-26, 09:15:42
Wieso stellt nun auch Silverstone ein 1650 Watt Netzteil vor? (https://www.techpowerup.com/271387/silverstone-intros-da1650-high-wattage-modular-psu)

Nur um das mal einzuordnen:

Bei 12V und der vollen Leistung des Netzteils hat ein ohmscher Verbraucher einen Widerstand von ~0,085 Ohm. Dieser Widerstand entspricht einem Kupferkabel mit einem Querschnitt vom 1mm² und 5m Länge.

Troyan
2020-08-26, 10:22:06
Welcher Fullnode-Sprung?

Der 8nm Prozess von Samsung ist ja nur ein verbesserter 10nm Prozess. Der 10nm Prozess von Samsung war schlechter als der 10nm Prozess von TSMC. Siehe hier: https://en.wikichip.org/wiki/10_nm_lithography_process

voltage: 10nm Samsung: 0,75v; 10nm TSMC: 0,70v
Die Skalierung von 14nm/16nm auf 10nm war auch schlechter als bei TSMC

Und der 10nm Prozess von TSMC war so schlecht, dass ihn niemand für GPUs benutzen wollte.

Wenn also Samsung beim 8nm Prozess keine massiven Fortschritte gemacht hat (und ihre eigene Einteilung spricht dagegen) dann dürfte der 8nm Prozess jetzt nur geringfügig besser sein als der 12nm Prozess von TSMC.

Ich sehe da deshalb keinen Fullnode-Sprung.

Samsungs 10nm LPP und 8nm LPP sind besser als TSMCs 10nm Prozess und Lichtjahre 16nm voraus. Deswegen sind alle Firmen bei TSMC sofort auf den 7nm Prozess gegangen, weil der eine 50%+ bessere Packdichte gegenüber 10nm ermöglichte. Samsung erreicht bei 8nm ~60mxtors/mm^2, TSMC steht bei 10nm bei ~50.

monstar-x
2020-08-26, 10:50:34
Samsungs 10nm LPP und 8nm LPP sind besser als TSMCs 10nm Prozess und Lichtjahre 16nm voraus. Deswegen sind alle Firmen bei TSMC sofort auf den 7nm Prozess gegangen, weil der eine 50%+ bessere Packdichte gegenüber 10nm ermöglichte. Samsung erreicht bei 8nm ~60mxtors/mm^2, TSMC steht bei 10nm bei ~50.

Und was ändert es an seiner Ausage dass er in Samsung 8nm keinen Fullnode Sprung sieht (ich übrigens auch nicht).

TSMC 10nm, 60.3 MTr
Samsung 8nm, 61,18 MTr

Mehr als ein müdes gähnen entlockt mir das jetzt nicht.

7nm = 95,3 MTr
Das wäre schon eher nach meinem Geschmack.


https://www.techcenturion.com/wp-content/uploads/2018/12/Transistor-Density-Comparison.png

WedgeAntilles
2020-08-26, 10:58:34
TSMC 10nm, 60.3 MTr



Deine angehängte Datei sagt TSMC 10nm, 48,1.

dargo
2020-08-26, 11:01:08
Dieses ganze Transistordichte bla bla ist nur noch albern. Als ob dieser Aspekt alleine über die endgültige Perf/W bei der GPU entscheiden würde. :rolleyes:

Edit:
Ich troll mal mit... RDNA 2 wird 56% schneller oder 56% effizienter als Ampere anhand der Transistordichte-Grafik. :facepalm:

ChaosTM
2020-08-26, 11:03:43
Prophylaktisch mal alles auf Samsung schieben, wenn es denn eine Gurke sein sollte .. NV kann NIEMALS schuld sein !

Daredevil
2020-08-26, 11:08:14
AMD Maximalisten: Nvidia muss jetzt richtig Stoff geben, weil sie sonst mit 8nm nicht hinter her kommen.
Nvidia Maximalisten: Nvidia geht extra nur auf 8nm, weil es günstiger ist und für AMD allemal reicht. 12nm hat ja auch schon für 7nm bei AMD gereicht.

Fight! :D

Ich habs hier schon mal gestellt, ich machs nochmal. Warum sind Samsungs Chips beim Speicher ( DDR, GDDR, SSD, HBM, HBM2 ) denn sonst so verdammt gut als z.B. bei Micron/Hynix? Irgendwas scheinen die ja schon richtig zu machen.
Jeder freut sich, wenn er Samsung Speicher auf dem PCB hat.

Zergra
2020-08-26, 11:09:21
Die Frage ist doch eher, was NV Ziel war.
Ich denke mittlerweile das Features wie DLSS oder RT im Mittelpunkt stehen und sich auch in der Zukunft durchsetzen werden. Reine Rohleistung war eher ein Nebenaspekt, den Auflösungen wie 8k oder 4k@120 werden mit reiner Rohleistung kaum zu bewältigen sein.

Ja aktuell gibt es weniger Games mit RT, dies wird sich aber ändern. Bis jetzt war die RT Leistung meist auch nicht ausreichend, wieso sollten die Entwickler als RT implementieren, wenn es nicht spielbar ist? Ist ja mit DLSS ähnlich, sowas braucht halt etwas Zeit.

Daredevil
2020-08-26, 11:13:03
Da muss man ja kein Spezialist sein. In einem Jahr stehen Millionen Geräte unterm Fernseher, die Raytracing fähig sind. Das wird ein vielfaches sein, als die GPUs, die Nvidia verkauft hat.
Natürlich weckt das die Entwickler auf, der Kunde wird damit ja auch gelockt.
Qii Charging gab es auch schon seit Jahren, aber erst mit dem iPhone und dessen Verbreitung wurde es Massenmäßig verbreitet. ( Hotels, Bars, Cafes ect. )

monstar-x
2020-08-26, 11:14:38
Dieses ganze Transistordichte bla bla ist nur noch albern. Als ob dieser Aspekt alleine über die endgültige Perf/W bei der GPU entscheiden würde. :rolleyes:
:

Stimme ich dir zu.

unl34shed
2020-08-26, 11:15:29
Ich habs hier schon mal gestellt, ich machs nochmal. Warum sind Samsungs Chips beim Speicher ( DDR, GDDR, SSD, HBM, HBM2 ) denn sonst so verdammt gut als z.B. bei Micron/Hynix? Irgendwas scheinen die ja schon richtig zu machen.
Jeder freut sich, wenn er Samsung Speicher auf dem PCB hat.

Gegenbeispiel Apple A9, da war der Chip aus der Samsung Fab deutlich schlechter. TSMC 16nm vs Samsung 14nm...

Daredevil
2020-08-26, 11:17:41
Gegenbeispiel Apple A9, da war der Chip aus der Samsung Fab deutlich schlechter. TSMC 16nm vs Samsung 14nm...
Hast du mal mehr Infos dazu?
Das ist mir entgangen, dass es da zwei Fertiger gab.

Aber ja, auch das kann natürlich eintreffen. Erklärt trotzdem nicht die Dominanz im Speichermarkt gerade. ^^
Die kochen ja auch nur mit Wasser, aber irgendwas machen sie ja recht gut.

unl34shed
2020-08-26, 11:18:58
zB. hier https://www.macrumors.com/2015/10/07/tsmc-samsung-a9-battery-tests/

mironicus
2020-08-26, 11:19:36
TSMC ist halt Referenz. Und die hohe TDP jetzt ist halt aus der Not geboren.

Daredevil
2020-08-26, 11:20:06
Stark, ich habe gerade bei Google nichts gefunden. Danke. :)

pixeljetstream
2020-08-26, 11:21:32
Also der Endkunde will mindestens zwei Anbieter, weil besser für den Markt, aber die Hersteller sollen alle am besten immer zu einem gehen ;)

Was Turing angeht verweise ich mal auf https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12393922#post12393922 es ist langfristig damit zu rechnen dass die technischen Aspekte die moderner sind, gerade durch die neuen Konsole auch eben in Zukunft das Rennen machen. Ist natürlich nicht super wenn man Titel spielt die davon nicht so profitieren, aber die Entwicklung kann deswegen nicht stehen bleiben. IMO wird man dieses Dilemma länger haben. Pascal profitierte IMO mit seiner optimierten aber eigentlich älteren (Maxwell) Basis, davon dass die Games noch etwas homogener waren in den Anforderungen.

mironicus
2020-08-26, 11:25:22
Wie groß wäre eigentlich ein TU102-Shrink auf 8 nm gewesen?

Troyan
2020-08-26, 11:25:28
Und was ändert es an seiner Ausage dass er in Samsung 8nm keinen Fullnode Sprung sieht (ich übrigens auch nicht).

TSMC 10nm, 60.3 MTr
Samsung 8nm, 61,18 MTr

Mehr als ein müdes gähnen entlockt mir das jetzt nicht.

7nm = 95,3 MTr
Das wäre schon eher nach meinem Geschmack.


https://www.techcenturion.com/wp-content/uploads/2018/12/Transistor-Density-Comparison.png

Es ist ein Fullnode Sprung von Samsungs 14nmLPP und TSMC 16nm Prozess. Die Aussage ist einfach falsch. TSMC bezeichnet den eigenen 10nm Prozess auch als direkten Nachfolger von 16nm.

Daredevil
2020-08-26, 11:26:34
Also der Endkunde will mindestens zwei Anbieter, weil besser für den Markt, aber die Hersteller sollen alle am besten immer zu einem gehen ;)

Was Turing angeht verweise ich mal auf https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12393922#post12393922 es ist langfristig damit zu rechnen dass die technischen Aspekte die moderner sind, gerade durch die neuen Konsole auch eben in Zukunft das Rennen machen. Ist natürlich nicht super wenn man Titel spielt die davon nicht so profitieren, aber die Entwicklung kann deswegen nicht stehen bleiben.
Das wiederum bedeutet aber auch, dass der Sprung von Pascal auf Turing, gerade in diesem Vergleich, einen riesigen Sprung bei der perf/Watt gemacht hat, gerade in neueren Spielen.
Also die 50%, die man AMD nicht abnehmen möchte, sind beim "kleinen" Wechsel von Pascal auf Turing teilweise ebenso geschehen.

Edit: Ja gut, der alte 1080ti Kühler war halt Mist. Aber der 2080ti RE Kühler ist ja jetzt auch keine Speerspitze, der 3090 Kühler allerdings.....

why_me
2020-08-26, 11:29:35
Erklärt trotzdem nicht die Dominanz im Speichermarkt gerade. ^^
Die kochen ja auch nur mit Wasser, aber irgendwas machen sie ja recht gut.

Äpfel und Birnen. Speicher besteht größtenteils aus DRAM Zellen, wenn da der Logikteil nicht der effizienteste ist, dann fällt das nicht so auf.
CPUs/GPUs bestehehn aber größtenteils aus Logikzellen.

Daredevil
2020-08-26, 11:31:00
Ich wollte das auch nicht vergleichen, ich wollte nur Wissen, wieso Samsung da anscheinend etwas besser machen kann als die anderen ( größeren? ) Mitbewerber.

why_me
2020-08-26, 11:33:54
Wird bei TSMC überhaupt speicher hergestellt? Sk hynix und Micron haben meines Wissens eigene Fabs.

RLZ
2020-08-26, 11:36:01
Eine Super Version in ~1 Jahr sehe ich als gesichert an.
Wundert mich auch, dass noch niemand die offensichtliche Lücke angesprochen hat. Es kann ja durchaus auch noch eine Ti kommen. Ist ja historisch nicht immer so gewesen, dass beim Release der Generation schon die Ti verfügbar ist.

[MK2]Mythos
2020-08-26, 11:39:13
Hatten wir die schon?
Sieht allerdings vergleichsweise klein aus...
https://videocardz.com/newz/zotac-teases-upcoming-geforce-rtx-30-graphics-cards

Denniss
2020-08-26, 11:41:16
RAM wird nicht in den allerneuesten Nodes gefertigt. Samsung B-Die war wohl in 19nm.
Bin mir nicht sicher welche Nodes bei Flash, GDDR und HBM momentan angesagt sind aber diese Nodes haben auch andere Ansprüche als die für CPU/GPU

Lowkey
2020-08-26, 11:42:22
del

dargo
2020-08-26, 11:43:10
Aber ja, auch das kann natürlich eintreffen. Erklärt trotzdem nicht die Dominanz im Speichermarkt gerade. ^^
Die kochen ja auch nur mit Wasser, aber irgendwas machen sie ja recht gut.
Du vergleichst hier ernsthaft die Komplexität einer GPU mit Speicherchips? Das Niveau wird hier immer besser. :freak: Im übrigen kommt weder GDDR5X noch GDDR6X von Samsung.

Edit:
Die einfachste Erklärung für mich warum Nvidia Gaming-Ampere bei Samsung fertigen lässt sind fehlende Kapazitäten bei TSMC in 7nm bei dem Volumen welches Nvidia benötigt.

RAM wird nicht in den allerneuesten Nodes gefertigt. Samsung B-Die war wohl in 19nm.

20nm. :)

Orbmu2k
2020-08-26, 11:51:10
Ist denn schon gesichert dass der GA-102 überhaupt von Samsung gefertigt wird?

Der Chipleak von gester hatte "TW" für Taiwan drauf stehen, soweit ich auf die schnelle sehen konnte hat Samsung nur Fabs in Süd Korea, China und USA.

Linmoum
2020-08-26, 11:54:53
Taiwan steht genauso beim GP107 drauf, obwohl der bei Samsung gefertigt wurde.

Orbmu2k
2020-08-26, 11:59:19
Taiwan steht genauso beim GP107 drauf, obwohl der bei Samsung gefertigt wurde.

Ok, naja vielleicht hängt es eher davon am wo das Package gestrickt wird.

Bei der relativ geringen Stückzahl vom GA-102 wäre aber vemutlich genug Kapazität bei TSMC gewesen. Alles ab GA-104 bei Samsung zu fertigen mach imho mehr Sinn. Höhere Stückzahl geringere Marge, weniger problematisch was Leakage angeht.

rentex
2020-08-26, 12:02:00
https://videocardz.com/newz/confirmed-nvidia-geforce-rtx-3090-has-24gb-memory-rtx-3080-gets-10gb

dargo
2020-08-26, 12:03:18
Ok, naja vielleicht hängt es eher davon am wo das Package gestrickt wird.

So ist es... beim TU106-410 vermutete man auch zuerst der würde von Samsung kommen.
Gegenüber Techpowerup hat NVIDIA die Gerüchte dementiert. Demnach wird das Packaging in Teilen durch ein Unternehmen in Korea vorgenommen und daher stammt auch die Lasergravur. Mit dem Fertiger des eigentlichen Chips hat dies nichts zu tun.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/50151-erst-11-dann-7-nm-nvidia-laesst-turing-gpus-offenbar-teilweise-bei-samsung-fertigen.html

https://videocardz.com/newz/confirmed-nvidia-geforce-rtx-3090-has-24gb-memory-rtx-3080-gets-10gb
Die schreiben aber auch viel bullshit. Wenn eine 3080 Super kommen sollte dann garantiert nicht mit 16GB sondern 12GB an einem 384Bit SI oder 11GB mit 352Bit.

Ex3cut3r
2020-08-26, 12:04:21
https://videocardz.com/newz/confirmed-nvidia-geforce-rtx-3090-has-24gb-memory-rtx-3080-gets-10gb

Jetzt also wieder das gerede von 10 und 8GB Only? Wenn es kommt, können Sie die Scheiße gleich behalten.

dargo
2020-08-26, 12:09:26
Jetzt also wieder das gerede von 10 und 8GB Only? Wenn es kommt, können Sie die Scheiße gleich behalten.
Salamitaktik nennt man sowas. ;) Ich kann mir gut vorstellen, dass die Karten mit der doppelten Speicherkapazität erst kommen wenn Big Navi da ist, sofern der tatsächlich mit 16GB kommt.

Linmoum
2020-08-26, 12:09:41
Naja, die optional höheren Speichervarianten soll(t)en auch nur von AiB und nicht NV selbst kommen.

dildo4u
2020-08-26, 12:09:45
Angeblich können AIB bei der 3080 den Ram verdoppeln.
Ich vermute mal Nvidia selber will bei 750€ bleiben soviel kostet die 2080S FE zur Zeit.

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-super/

Daredevil
2020-08-26, 12:10:03
Aus dem Marketing Standpunkt ist das ziemlich stark.
Als 2060/2070/2080 Besitzer könnte man upgraden und bekommt Leistung UND ( a bissl ) RAM, als 2080ti Besitzer bleibt nur das Upgrade, Sidegrade macht wenig Sinn, weil weniger Speicher.
Will man dann aber wirklich NextGen haben, muss es aktuell 24GB sein.

Aber auch da wieder, wie hier schon oft genannt. Man hat Platz für ne 12/16GB Version als "Super" Karte oder als BigNavi Konter.
Vielleicht ist die 2080ti dann doch keine 200€ Wert, wenn die 3080 raus kommt. :D

Kimi2003
2020-08-26, 12:11:19
Also mir würden für WQHD 10GB ausreichen...

Troyan
2020-08-26, 12:14:58
Die Xbox Series X hat auch nur 10GB schnell angebunden. Imo wird das die Grenze sein, die Spieleentwickler für 4K ziehen werden.

Alles darunter ist dann doch übel. 8GB mit der Leistung einer 2080TI? Nope. 6GB mit der Leistung einer 2080Super? Nope. Wird spannend, ob wir hier wieder das 8800GT <> 8800GTX(S) Dilemma haben werden, wo der Speicher einer schnelleren Karte zur Bremse wird.

dildo4u
2020-08-26, 12:20:20
Es steht und fällt damit wie sehr sich DLSS verbreitet, wenn man immer von 1440p hochrechnet könnten die 10GB langen.

prinz_valium_2
2020-08-26, 12:21:31
Wenn der Preis der 3080 stimmt, könnte das eine ordentliche Karte werden.

Also 515€
Wie damals die 2080 zum Launch als Preisfehler.

Aber alles deutlich über 500€ ist die natürlich nicht wert.
Die 1070 für 350 war schon sehr kostspielig in 2016



10GB RAM sollte auch locker reichen für die nächsten 5 Jahre, wo die Konsolen ja auch nur bei 13,5 und 14 inklusive CPU Kram sind.

Dampf
2020-08-26, 12:23:24
Es steht und fällt damit wie sehr sich DLSS verbreitet, wenn man immer von 1440p hochrechnet könnten die 10GB langen.

Auch so werden die 10 GB reichen. Die Entwickler werden werden wohl darauf achten, dass sie den 10 GB GPU optimierten Speicher auf der XSX nicht überschreiten, da sonst auf den langsameren Bus zugegriffen wird. Für 4K werden die 10 GB also mehr als ausreichen.

mironicus
2020-08-26, 12:25:56
Die Xbox Series X hat auch nur 10GB schnell angebunden. Imo wird das die Grenze sein, die Spieleentwickler für 4K ziehen werden..

Bei den Konsolen ist der GPU-Speicher aber auch nicht so wichtig, dank NVME-SSD werden die Details nicht darunter leiden. :)

Ex3cut3r
2020-08-26, 12:27:15
Also mir würden für WQHD 10GB ausreichen...

Aha. Du weißt also schon was kommende Next Gen Ports benötigen werden? Deine Glaskugel hätten ich auch gerne. Stand jetzt, gibt es schon durchaus Spiele wo 8GB ab QHD nicht reichen. 10 GB sind nur lächerliche 2GB mehr, was das groß bringen soll, erschließt sich mir nicht.

aufkrawall
2020-08-26, 12:27:54
Die Xbox Series X hat auch nur 10GB schnell angebunden. Imo wird das die Grenze sein, die Spieleentwickler für 4K ziehen werden.

Kann man nicht vergleichen, weil Spiele für den PC wie kompletter Müll programmiert sind. DX12 hat es sogar noch weiter verschlimmert.

Slipknot79
2020-08-26, 12:28:09
Also der Endkunde will mindestens zwei Anbieter, weil besser für den Markt, aber die Hersteller sollen alle am besten immer zu einem gehen ;)

Was Turing angeht verweise ich mal auf https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12393922#post12393922 es ist langfristig damit zu rechnen dass die technischen Aspekte die moderner sind, gerade durch die neuen Konsole auch eben in Zukunft das Rennen machen. Ist natürlich nicht super wenn man Titel spielt die davon nicht so profitieren, aber die Entwicklung kann deswegen nicht stehen bleiben. IMO wird man dieses Dilemma länger haben. Pascal profitierte IMO mit seiner optimierten aber eigentlich älteren (Maxwell) Basis, davon dass die Games noch etwas homogener waren in den Anforderungen.

Ich übersetze das mal :redface:

Wir sollen uns auf +35% mehr Rasterizer-Leistung bei +35% mehr Powerbedarf bei +35% teurere GPU einstellen.
Dickte fps-gains wird es nur mit DLSS und bei RT geben, zumindest jedoch in RT weil es die Konsolen so vorgeben werden.
Klingt logisch.
Gerüchte (und Half Life 3) somit comfirmed :redface:

rentex
2020-08-26, 12:28:35
Es steht und fällt damit wie sehr sich DLSS verbreitet, wenn man immer von 1440p hochrechnet könnten die 10GB langen.

Das vermute ich ebenfalls.

dargo
2020-08-26, 12:29:21
Hier spielen wohl alle kein Horizon: Zero Dawn? ;D Und das ist noch Last-Gen wo der PS4(Pro) max. 5,5GB für Gamelogik und Grafik zur Verfügung stehen. Wobei ich zugegeben bei dem Spiel noch von einem fehlerhaften Speichermanagement beim PC-Port ausgehe. Die kommenden Patches werden mehr Klarheit hoffentlich bringen.

Kimi2003
2020-08-26, 12:30:00
Aha. Du weißt also schon was kommende Next Gen Ports benötigen werden? Deine Glaskugel hätten ich auch gerne. Stand jetzt, gibt es schon durchaus Spiele wo 8GB ab QHD nicht reichen. 10 GB sind nur lächerliche 2GB mehr, was das groß bringen soll, erschließt sich mir nicht.

Die würden mir aktuell reichen. Wie die Zukunft aussieht weiß doch eh keiner...

Troyan
2020-08-26, 12:30:34
Kann man nicht vergleichen, weil Spiele für den PC wie kompletter Müll programmiert sind. DX12 hat es sogar noch weiter verschlimmert.

Sehe kein Unterschied. Schau dir doch mal das neue Avengers an. 1080p/60FPS auf einer Xbox One X. Klingt nicht nach einem Meisterwerk der Optimierung.

dildo4u
2020-08-26, 12:30:56
Auch so werden die 10 GB reichen. Die Entwickler werden werden wohl darauf achten, dass sie den 10 GB GPU optimierten Speicher auf der XSX nicht überschreiten, da sonst auf den langsameren Bus zugegriffen wird. Für 4K werden die 10 GB also mehr als ausreichen.
Ampere wird runden um die XBox drehen was Raytracing angeht, laut PCGH erhöht RT den Vram Verbrauch also man müsste dort genauer sein und sagen XBox Settings sollten keine Probleme machen.
Red Dead 2 läuft z.b auch mit 4k 30 auf der XBox One X hat dafür aber viele Settings auf Medium.

Ex3cut3r
2020-08-26, 12:31:26
Die würden mir aktuell reichen. Wie die Zukunft aussieht weiß doch eh keiner...

Und ja, deswegen musst dir ein Polster "anfressen" Es sei denn...du willst schon beim Kauf veraltete überteuerte HW kaufen. Die in 1-2 Jahren total hinten dran ist, weil der VRAM wieder mal auf Kante genäht ist. ;)

dargo
2020-08-26, 12:32:54
Ampere wird runden um die XBox drehen was Raytracing angeht...
Ja... vor allem beim Preis und Verbrauch. ;D

Daredevil
2020-08-26, 12:34:54
10 GB sind nur lächerliche 2GB mehr, was das groß bringen soll, erschließt sich mir nicht.
Moooooooment. Ich rechne für dich nach.

8GB: 100%
10GB: 125%

2560x1440 - 3.686.400 - 100%
3440x1440 - 4.953.600 - 134%

Für deine UWQHD Auflösung ist das! :D
2GB klingt wenig, 25% sind schon ne "Menge" mehr.

dildo4u
2020-08-26, 12:37:37
Ja... vor allem beim Preis und Verbrauch. ;D
Passt wie immer der Markt an wenn Nvidia seine Investoren zufrieden stellen will müssen sie immer neue Rekord Umsätze erzeugen, das geht nicht wenn die Karten im Lager liegen.

Ex3cut3r
2020-08-26, 12:39:32
Moooooooment. Ich rechne für dich nach.

8GB: 100%
10GB: 125%

2560x1440 - 3.686.400 - 100%
3440x1440 - 4.953.600 - 134%

Für deine UWQHD Auflösung ist das! :D
2GB klingt wenig, 25% sind schon ne "Menge" mehr.
Ach Blödsinn. Wenn 8GB nicht reichen, reichen auch keine 10GB.

Timbaloo
2020-08-26, 12:40:22
Also der Endkunde will mindestens zwei Anbieter, weil besser für den Markt, aber die Hersteller sollen alle am besten immer zu einem gehen ;)
Ja, diese Bigotterie nervt mich auch immer.

dargo
2020-08-26, 12:43:40
Sehe kein Unterschied. Schau dir doch mal das neue Avengers an. 1080p/60FPS auf einer Xbox One X. Klingt nicht nach einem Meisterwerk der Optimierung.
Aha... eine ~7,5 TFLOPS GTX 1070 schafft nicht mal im Medium Preset die 60fps immer zu halten. :rolleyes:
JOSXTNEGzkY

Die XBox hat nur 6 TFLOPs.

PS: gilt sogar für low Preset.

rentex
2020-08-26, 12:46:04
Warum wohl. Bei den berichteten Bugs ;-)

ChaosTM
2020-08-26, 12:46:16
10GB würden im Normalfall vielleicht reichen, aber sicher nicht mit massivem RTX und DLSS gedöns..

Wenn schon, denn schon..

16gb sollten es schon sein, um für 2+ Jahre Ruhe zu haben..

Daredevil
2020-08-26, 12:46:25
Ach Blödsinn. Wenn 8GB nicht reichen, reichen auch keine 10GB.
Das weißt du natürlich besser als diejenigen, die mit den Herstellern zusammen arbeiten.
Deine 2080 hat dich doch ( deiner Meinung nach ) selten im Stich gelassen mit ihren 8GB Speicher. Wieso sind denn dann 10GB nun "zu wenig", obwohl es 25% mehr Speicher am Ende sind?
Kleiner Tipp am Rande, von ( unmöglichen ) 6GB auf 8GB sind es auch "nur" 33% und von 8GB auf 11GB 37%.

6GB > ~FullHD
8GB > ~WQHD
11GB > ~4K
24GB > ~Braucht nur HisN. ( :D )

Die Leistung muss nun einmal auch zur Speicherausstattung passen.
Eine "3080" mit 2080ti Leistung braucht nicht mehr als 10GB Speicher, weil die eh selten genutzt werden und wenn du mehr machen willst, musst du halt mehr ausgeben. 20GB hingegen wären viel zu viel, das ist ähnlich der VII und dessen 16GB. Unnötige Ressourcen.

Ex3cut3r
2020-08-26, 12:46:54
Aha... eine ~7,5 TFLOPS GTX 1070 schafft nicht mal im Medium Preset die 60fps immer zu halten. :rolleyes:
https://youtu.be/JOSXTNEGzkY

Die XBox hat nur 6 TFLOPs.

Es sieht so aus, das diese momentanen Ports von/für Last Gen + Next Gen und PC, die Entwickler momentan überfordert IMO. Am PC hast du meistens auch mehr Probleme als die letzen Jahre.....Da kann man nur hoffen, das die Alten Konsolen zügig wegfallen.

Das weißt du natürlich besser als diejenigen, die mit den Herstellern zusammen arbeiten.
Deine 2080 hat dich doch ( deiner Meinung nach ) selten im Stich gelassen mit ihren 8GB Speicher. Wieso sind denn dann 10GB nun "zu wenig", obwohl es 25% mehr Speicher am Ende sind?
Kleiner Tipp am Rande, von ( unmöglichen ) 6GB auf 8GB sind es auch "nur" 33% und von 8GB auf 11GB 37%.

6GB > FullHD
8GB > WQHD
11GB > 4K

Ich rede auch nicht vom jetzt, sondern von der Zukunft. Und da werden 10 GB 100% auch nicht reichen. Wie denn auch...ist eine absolute lächerliche krumme Speichermenge.

Troyan
2020-08-26, 12:47:55
Aha... eine ~7,5 TFLOPS GTX 1070 schafft nicht mal im Medium Preset die 60fps immer zu halten. :rolleyes:
https://youtu.be/JOSXTNEGzkY

Die XBox hat nur 6 TFLOPs.

PS: gilt sogar für low Preset.

Wow, selbst mit low Preset. Na, dann brauchen wir bestimmt mehr als 10GB. ;D

WedgeAntilles
2020-08-26, 12:49:34
Ach Blödsinn. Wenn 8GB nicht reichen, reichen auch keine 10GB.

Wenn 8GB nicht reichen, reichen 10GB nicht.
Wenn 10GB nicht reichen, reichen 12GB nicht.
Wenn 12GB nicht reichen, reichen 14GB nicht.
Wenn 14GB nicht reichen, reichen 16GB nicht.


Noch 4 Schritte weiter und selbst die 3090 mit 24 GB reicht nicht^^

Die Frage ist ja sowieso immer, wie du "reichen" definierst.
Reicht etwas, wenn es für 90% aller Spiele ausreicht?
Oder genügen zwei Spiele, die mehr bräuchten, dass es "nicht reicht"?

Irgendwo hieß es mal, dass die Versionen mit der doppelten Speicherbestückung von den Boardpartnern kommen.
Falls das stimmt werden die also eher nicht sofort verfügbar sein sondern wenige Woche später kommen.

Dass die größeren Speichervarianten gar nicht erscheinen halte ich aus meiner Sicht für fast ausgeschlossen. Da wäre Nvidia völlig dämlich, das wäre marketingtechnisch eine offene Flanke wie es schlimmer nicht geht.
Und man kann Nvidia ja sicherlich viel vorwerfen - aber miserables Marketing gehört eher nicht dazu.

Daredevil
2020-08-26, 12:50:19
Ich rede auch nicht vom jetzt, sondern von der Zukunft. Und da werden 10 GB 100% auch nicht reichen. Wie denn auch...ist eine absolute lächerliche krumme Speichermenge.
Warum?
4K sind okay mit 10GB, für alles drüber ist die Karte zu langsam, so wie es die 2080ti ja auch schon ist.
Die 24GB der 3090 sind eine Option für 8K, nicht für 4K.

Nach erscheinen von Horizon ist EIN SPIEL bekannt, was irgendwie mal eine 2080ti annähernd in die Knie zwingen möchte, aber auch da läuft es anständig. Du wirst keine 10 Spiele auflisten können, wo der Speicher einerseits genutzt wird ( selbst 10GB ), andererseits aber noch mehr als 60fps erreicht werden.

ChaosTM
2020-08-26, 12:52:23
FS2020 : 1080p mit 200% DS frisst meine 11GB in ein paar Minuten auf.
Von 4k rede ich gar nicht.
Kein Mensch mit etwas Anspruch kauft heute noch 10GB Karten - mark my words ;)

dildo4u
2020-08-26, 12:52:32
Aha... eine ~7,5 TFLOPS GTX 1070 schafft nicht mal im Medium Preset die 60fps immer zu halten. :rolleyes:
https://youtu.be/JOSXTNEGzkY

Die XBox hat nur 6 TFLOPs.

PS: gilt sogar für low Preset.

Die XBox rendert nicht nativ sondern reduziert die Auflösung unter Last jegliche Vergleiche sind sinnlos wenn es am PC Nativ läuft.

https://youtu.be/g6F8CbY55Hk?t=175

Ex3cut3r
2020-08-26, 12:54:16
12GB sind ok. 16GB Super. 20GB kann man sich entspannt zurück lehnen. 10GB sind ein Witz. Das bringt nix. Weil ebend auch nur 9.8 GB Max benutzbar sind in Spielen. Aber gut, kauft euch doch schon wieder Speicher Krüppel, ist mir sowas von Wumpe....aber heult dann wieder nicht, wenn GTA 6 kommt oder ähnliches. Und 16GB verlangt. ;D ;D ;D

Ihr wolltet das so.

Dampf
2020-08-26, 12:55:16
Bei den Konsolen ist der GPU-Speicher aber auch nicht so wichtig, dank NVME-SSD werden die Details nicht darunter leiden. :)

Beim PC auch ;)

Bedenke bitte, dass der PC auch in den Genuss des SSDs Streamings durch die neue DirectStorage API bekommt.

Wer noch mit einer HDD unterwegs ist, wird das mit sehr viel RAM ausgleichen müssen.

Mit sehr viel RAM.

Da wird man doch lieber auf so eine 90€ billige NVMe SSD upgraden. Dank dem PC RAM wird man auch nicht so krasse Geschwindigkeiten wie auf dem Konsolen benötigen.

Daredevil
2020-08-26, 12:56:18
Ihr wolltet das so.
Du hast doch 700€ für 8GB VRAM ausgegeben, du bist schuld daran!!1111 :D :heart:

Ex3cut3r
2020-08-26, 12:58:41
Du hast doch 700€ für 8GB VRAM ausgegeben, du bist schuld daran!!1111 :D :heart:

Bist du irgendwie auf den Kopf gefallen? Was ich mir vor 2 Jahren gekauft habe, spielt jetzt ne Rolle? Lern erstmal richtig RAM einzubauen. A1/A2 oder doch lieber in B1/B2 :D

dargo
2020-08-26, 12:59:45
Wow, selbst mit low Preset. Na, dann brauchen wir bestimmt mehr als 10GB. ;D
Zu dumm nur, dass Avengers in der aktuellen Beta auf Radeons besser als Geforces läuft.

Die XBox rendert nicht nativ sondern reduziert die Auflösung unter Last jegliche Vergleiche sind sinnlos wenn es am PC Nativ läuft.

https://youtu.be/g6F8CbY55Hk?t=175
Na dann ist der PC-Port trotz Beta schon richtig gut mit bsw. einem 6,7 TFLOPs Polaris. ;)
VwjbC8xWgew

Troyan
2020-08-26, 13:04:49
Toll, ein rotziger Konsolenport. Und was bringen mehr Speicher hier?

/edit: Wo ist eigentlich auch das Problem. Wer vor solchen wirklichen schlechten Ports sicher sein will, können sich doch die 3090 mit 24GB kaufen.

Ravenhearth
2020-08-26, 13:09:03
Time Spy Extreme-Werte:
Update the benchmark:
TSE
3090FE 100**
Quadro? 93**
3080FE 85**
https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

2080 Ti ist bei ~6400
2080 bei ~5000

Also ist die 3080 70% schneller als die 2080 und 33% schneller als die 2080 Ti
Die 3090 ist 56% schneller als die 2080 Ti und 18% schneller als die 3080

WedgeAntilles
2020-08-26, 13:10:06
12GB sind ok. 16GB Super. 20GB kann man sich entspannt zurück lehnen. 10GB sind ein Witz. Das bringt nix. Weil ebend auch nur 9.8 GB Max benutzbar sind in Spielen. Aber gut, kauft euch doch schon wieder Speicher Krüppel, ist mir sowas von Wumpe....aber heult dann wieder nicht, wenn GTA 6 kommt oder ähnliches. Und 16GB verlangt. ;D ;D ;D

Ihr wolltet das so.

Keine Ahnung wer hier im Forum wegen Speicherkrüppel rumheult? (also von dir mal abgesehen) :confused:

Ich für meinen Teil bin mit meiner 970 (die ja angeblich soooo katastrophal mies ist) sehr zufrieden gewesen, auch wenn es jetzt Zeit für ein Upgrade wird.

ChaosTM
2020-08-26, 13:12:48
Damit wär ich schon zufrieden. 80-90% über der 1080ti..
Aber nur mit 20.. ^^ (3080)

ShinyMcShine
2020-08-26, 13:13:33
Time Spy Extreme-Werte:

https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

2080 Ti ist bei ~6400
2080 bei ~5000

Also ist die 3080 70% schneller als die 2080 und 33% schneller als die 2080 Ti
Die 3090 ist 56% schneller als die 2080 Ti und 18% schneller als die 3080

Das würde eine 3070 evtl. sogar über eine 2080Ti heben, wenn man "extrapoliert"...

dildo4u
2020-08-26, 13:15:01
Das würde eine 3070 evtl. sogar über eine 2080Ti heben, wenn man "extrapoliert"...
Sollte hinkommen der letzte Shrink war auch sehr nice.

Lowkey
2020-08-26, 13:18:00
Time Spy Extreme-Werte:

https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

2080 Ti ist bei ~6400
2080 bei ~5000

Also ist die 3080 70% schneller als die 2080 und 33% schneller als die 2080 Ti
Die 3090 ist 56% schneller als die 2080 Ti und 18% schneller als die 3080

Muss man doch immer aufpassen. Denn AMD hatte für ihre 3000er CPUs auch mal den CB20 geleaked und wir wissen wie gut er mit AMD läuft.
Beim Timespy liegt der Schwerpunkt auf der Grafikkarte und deren Features. Für neue Karten ist das gefundenes Fressen, denn DX12 bei 4k + mindestens 8 echte CPU Kerne.

WedgeAntilles
2020-08-26, 13:19:16
Time Spy Extreme-Werte:

https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

2080 Ti ist bei ~6400
2080 bei ~5000

Also ist die 3080 70% schneller als die 2080 und 33% schneller als die 2080 Ti
Die 3090 ist 56% schneller als die 2080 Ti und 18% schneller als die 3080

Klingt doch relativ plausibel und fasst im Endeffekt beide Gerüchte zusammen:
Lange hieß es ja ca. 30-40% Mehrperformance.
Dann scheint die 3090 ca. 30% mehr zu verbrauchen.

Schlichte Gemüter machten das dann zu 30-40% Mehrperformance bei 30% mehr Verbrauch.

Plausibler erscheint mir, dass man beide Gerüchte getrennt betrachten muss bzw. eben in Ergänzung.
30-40% Mehrperformance, bei gleichem Verbrauch.
Und wenn ich jetzt den Verbrauch erhöhe erhöht sich halt die Mehrperformance auf 60%, bei ca. 30% höherem Stromverbrauch.

Das wäre jetzt sicherlich nicht unglaublich phantastisch, aber es wäre halt auch nicht das Horrorszenario das viele gerne gemalt haben.
Unterstellt, dass RT und DLSS merklich besser werden würde ich es (von den technischen Werten her) als ordentliche bis gute neue GraKa-Generation bezeichnen.

prinz_valium_2
2020-08-26, 13:27:14
Das würde eine 3070 evtl. sogar über eine 2080Ti heben, wenn man "extrapoliert"...

Zwischen 3070 und 3080 klafft eine deutlich größere Lücke als sonst.
Würde ich also nicht von ausgehen.


Deswegen wird diesmal wohl auch die 3080 die beste Karte vom P/L her

[MK2]Mythos
2020-08-26, 13:29:31
Na ist doch wunderbar, wenn das hinhaut, kloppt sich AMD mit BN mit der 3080 und NV behält mit der 3090 die Krone und alle sind zufrieden. :D

THEaaron
2020-08-26, 13:33:36
Top, dann kristallisiert sich die 3080 vielleicht als die perfekte 1440p Karte für mich heraus. =)

Ex3cut3r
2020-08-26, 13:35:19
Die 3080 ist ja diesmal auch ein GA-102 und keinen GA-104 Performance Chip. Man könnte sagen es ist der GA102 LE Chip. Allein das ist schon auffällig, seit der GTX 680 war das immer ein 104 Chip. AMD muss mit Navi einfach nur Konkurrenzfähig sein, anders kann ich mir das nicht erklären.

Ravenhearth
2020-08-26, 13:40:50
Ja, es scheint Nvidias Plan zu sein, Big Navi mit der 3080 abzufangen, weswegen diese auch so stark ausfällt, und mit der hoch geprügelten 3090 die Krone zu behalten.

Ex3cut3r
2020-08-26, 13:42:01
Ja, es scheint Nvidias Plan zu sein, Big Navi mit der 3080 abzufangen, weswegen diese auch so stark ausfällt, und mit der hoch geprügelten 3090 die Krone zu behalten.

Genau. :wink: Man sollte IMO wirklich diesmal auf AMD warten....wird dann wohl auch eine Preissenkung geben.

WedgeAntilles
2020-08-26, 13:42:08
Die 3080 ist ja diesmal auch ein GA-102 und keinen GA-104 Performance Chip. Man könnte sagen es ist der GA102 LE Chip. Allein das ist schon auffällig, seit der GTX 680 war das immer ein 104 Chip. AMD muss mit Navi einfach nur Konkurrenzfähig sein, anders kann ich mir das nicht erklären.

Nvidia kann auch versuchen den Abstand zwischen der 3070 und der 3080 ein bisschen größer zu machen.
Und dadurch etwas mehr Käufer von der 70er auf die 80er Variante zu bringen.

Nvidia verdient umso mehr pro GraKa, je höherwertig diese ist - daher ist der Versuch die Käufer dazu zu verleiten, eine Kategorie höher einzukaufen, nicht dumm.
Das muss nicht zwingend mit AMD zu tun haben sondern würde selbst dann Sinn machen, wenn Nvidia völliger Monopolist wäre.

Ex3cut3r
2020-08-26, 13:45:01
3070 kannst du gar nicht mehr mit der 3080 vergleichen, weil das komplett andere Chips sind. Enthusiast in der Light Edition vs Performance Chip. Seit Kepler...waren die 70er und 80er sehr ähnlich mit 15 - max 20% Leistungsunterschied. Und deswegen war die 70er immer die bessere Preis Leistungs Wahl. Aber diesmal ist die 80er eine Ti in Light. Das sind ganz andere Geschütze die Nvidia hier auffährt.

Ravenhearth
2020-08-26, 13:47:52
Genau. :wink: Man sollte IMO wirklich diesmal auf AMD warten....wird dann wohl auch eine Preissenkung geben.
Ich bin ja auf den Preis der 3080 mit 20GB gespannt. Wenn die 10GB-Version schon $800 kostet, und die 3090 dann gegenüber der 20GB-Version "nur" ca. 20% schneller ist und 20% mehr Speicher bietet, wird die 3080 20GB sicher $1000 kosten. Könnte mir aber vorstellen, dass AMD kein großes Interesses an einem Preiskampf hat, und Big Navi mit 16GB dann bei $900 platziert.

ChaosTM
2020-08-26, 13:50:14
Die 3080er mit 20 wird wohl am Tausender kratzen..

und Navi dann 900..

WedgeAntilles
2020-08-26, 13:51:17
3070 kannst du gar nicht mehr mit der 3080 vergleichen, weil das komplett andere Chips sind. Enthusiast in der Light Edition vs Performance Chip. Seit Kepler...waren die 70er und 80er sehr ähnlich mit 15 - max 20% Leistungsunterschied. Und deswegen war die 70er immer die bessere Preis Leistungs Wahl. Aber diesmal ist die 80er eine Ti in Light. Das sind ganz andere Geschütze die Nvidia hier auffährt.

Das meine ich ja - die xx70 und xx80 waren relativ nahe beieinander.
Da hat sich die xx70 weit öfter verkauft, weil das Preis-Leistungs-Verhältnis deutlich besser war.
Wenn jetzt zwischen der 70er und 80er ein größerer Unterschied ist, erhöht sich sicherlich die Zahl jener, die statt zur 70er gleich zur 80er greifen.

Und in die 90er jagst du noch mehr Strom, so dass der Abstand zwischen der 80er und 90er auch noch da ist - dann ist auch für den absoluten Enthusiasten ein klarer Anreiz, die 90er zu nehmen und nicht die merklich günstigere 80er.
Zumal man ja in der absoluten Spitze sowieso immer sehr hohe Aufschläge bezahlt für relativ wenig zusätzliche Leistung.
Das gilt ja nicht nur im GraKa Bereich sondern überall.

Wie gesagt, das macht aus Sicht der Gewinnoptimierung unter Umständen sehr viel Sinn (genau kann man das natürlich nur sagen, wenn man die genauen Margen bei den einzelnen Karten kennt, die genauen Verkaufszahlen und so weiter. Also alles Dinge, die nur Nvidia genau hat.)

Es kann mit AMD zusammenhängen.
Aber es könnte eben auch ein Zug zur Gewinnoptimierung von Nvidia sein, der von AMD völlig unabhängig ist.

why_me
2020-08-26, 14:00:02
Ist das nicht etwas weit hergeholt? Gewinnoptimierung indem man den größeren Chip verkauft?

Die xx70er haben sich so gut verkauft, weil sie in der Regel an der Preislichen Obergrenze liegen, die Viele ausgeben wollen/können. Da hat schon die 2070 drauf gelegt, der Preis der 3070 soll nach Gerüchten weiter steigen und du glaubst wirklich, dass dann jemand statt 450 in der alten Generation plötzlich >800€ für eine 3080 ausgibt?
So viel schneller als die 2070 kann die 3080 nicht sein, dass man da auch noch von gutem P/L sprechen kann...

Zergra
2020-08-26, 14:08:27
Ist das nicht etwas weit hergeholt? Gewinnoptimierung indem man den größeren Chip verkauft?

Ganz daneben ist das nicht, bei dem GA102 Chip fallen bestimmt viele Teildefekte Chips an, die jetzt eben in der 3080 landen. Also erhöht man den Performance Abstand zu 3070 und eben auch den Preis.

RLZ
2020-08-26, 14:21:29
AMD muss mit Navi einfach nur Konkurrenzfähig sein, anders kann ich mir das nicht erklären.
Potentiell konkurrenzfähig. Ich denke nicht, dass ein Hersteller zum entsprechenden Entscheidungszeitpunkt schon genug über das Konkurrenzprodukt weiß. Das kann dazu führen, dass man mal ein Modell zu stark auslegt (e.g. 1080ti)

mboeller
2020-08-26, 14:23:04
Time Spy Extreme-Werte:

https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

2080 Ti ist bei ~6400
2080 bei ~5000

Also ist die 3080 70% schneller als die 2080 und 33% schneller als die 2080 Ti
Die 3090 ist 56% schneller als die 2080 Ti und 18% schneller als die 3080


dann steigt ja wenigstens die RT Leistung massiv, zumindest verstehe ich die Ergebnisse so.

Dural
2020-08-26, 14:24:06
NV weiss schon lange wo Navi2 liegen wird :rolleyes:

Aber noch mal, es geht nicht um AMD sondern um Intel.

dargo
2020-08-26, 14:25:46
Ich bin ja auf den Preis der 3080 mit 20GB gespannt. Wenn die 10GB-Version schon $800 kostet...
Sind denn 799$ für die 3080 überhaupt schon gesichert? Wenn die 3090 für 1.399$ verkauft werden soll dann habe ich noch meine Zweifel an den 799$ für die 3080. Schließlich ist das der gleiche Chip, nur mit weniger SMs. Das ist nicht mehr mit 2080TI vs. 2080 vergleichbar wo zweiteres ein wesentlich kleiner Die war. Mich würde es jedenfalls nicht überraschen wenn die 3080 bei 999$ liegen würde.


Aber noch mal, es geht nicht um AMD sondern um Intel.
;D ;D ;D

Intel spielt im dGPU-Markt noch überhaupt keine Rolle. Intel muss sich in diesem Markt erstmal beweisen und das dauert mehrere Jahre.

Zergra
2020-08-26, 14:26:12
NV weiss schon lange wo Navi2 liegen wird :rolleyes:

Aber noch mal, es geht nicht um AMD sondern um Intel.

Das denke ich auch, solche Firmen haben doch immer irgendeinen Spitzel.... reicht ja schon beim Hersteller oder sonst wo.
Sind denn 799$ für die 3080 überhaupt schon gesichert? Wenn die 3090 für 1.399$ verkauft werden soll dann habe ich noch meine Zweifel an den 799$ für die 3080. Schließlich ist das der gleiche Chip, nur mit weniger SMs. Das ist nicht mehr mit 2080TI vs. 2080 vergleichbar wo zweiteres ein wesentlich kleiner Die war. Mich würde es jedenfalls nicht überraschen wenn die 3080 bei 999$ liegen würde.

Naja die 799$ sind ja für die 10GB Version, die 3090 hat eben 24. Dann kommt die 20GB für 999$, das passt schon ganz gut.

Troyan
2020-08-26, 14:31:15
Laut Videocardz wird nVidia heute die Form und Stromanschluss offiziell ankündigen: https://videocardz.com/newz/nvidia-confirms-12-pin-power-connector-and-v-shaped-pcb-for-geforce-rtx-30-series

Ehrlich, die hatten einfach zuviel Zeit seit Turing.

dargo
2020-08-26, 14:33:00
Naja die 799$ sind ja für die 10GB Version, die 3090 hat eben 24. Dann kommt die 20GB für 999$, das passt schon ganz gut.
Ich tippe eher auf folgendes:

3090 24GB = 1.399$
3080 10GB = 999$
3080 20GB = 1.199€

600$ weniger für den gleichen Chip kommt mir zu heftig vor.

r3ptil3
2020-08-26, 14:37:26
Ich tippe eher auf folgendes:

3090 24GB = 1.399$
3080 10GB = 999$
3080 20GB = 1.199€

600$ weniger für den gleichen Chip kommt mir zu heftig vor.

1499$: 3090 FE
1399$: 3090 Customs
949$: 3080 20Gb
749$: 3080 10Gb

Dural
2020-08-26, 14:37:37
Das PCB ist ja extrem dicht gepackt, wobei das ja bei den geringen Platz Angebot ja von Anfang an klar war.

Ich bin gespannt. Die 3090 könnte seit sehr langer zeit wieder mal eine sehr interessante Top Modell Karte werden. Die Vorgänger mit beschnittenem Speicher mochte ich nie.

Ravenhearth
2020-08-26, 14:38:45
Ich tippe eher auf folgendes:

3090 24GB = 1.399$
3080 10GB = 999$
3080 20GB = 1.199€

600$ weniger für den gleichen Chip kommt mir zu heftig vor.
Bei $1199 für die 3080 20GB wäre die 3090 aber nur 17% teurer für ~20% mehr Leistung und 20% mehr Speicher. Dabei kostet der Top Dog immer im Verhältnis mehr und nicht weniger.
Und dann wäre die 3070 für $599 irgendwie auch zu günstig.

LasterCluster
2020-08-26, 14:40:46
@Ravenhearth,Ex3cut3r

Seh ich genauso. GA102 für die 3080 statt GA104 und die Option auf 20GB spricht Bände. Big Navi wird irgendwo +/- 10% bei der 3080 sein.

Wahrscheinlich gibt ne Prügelversion von AMD knapp drüber und ne Vernunftsversion knapp drunter

dargo
2020-08-26, 14:42:12
1499$: 3090 FE
1399$: 3090 Customs
949$: 3080 20Gb
749$: 3080 10Gb
Schauen wir mal... ich frage mich nur wer den Aufpreis für die 3090 dann noch zahlt? Das wäre ja komplett hohl für 15-20% mehr Leistung 450-550$ mehr zu zahlen. :freak: Die 4GB Differenz ist doch komplett irrelevant.

BlacKi
2020-08-26, 14:42:56
BTT:
keine verlängerung von hinten ans pcb ala 1060?

https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-30-Teaser-2-1200x639.jpg
https://videocardz.com/newz/nvidia-confirms-12-pin-power-connector-and-v-shaped-pcb-for-geforce-rtx-30-series

Dural
2020-08-26, 14:43:33
Ich tippe eher darauf das die Ampere Karten erstaunlich günstig werden:

Samsung 8nm
Kleinere Die als noch bei Turing

Es würde mich nicht verwundern wenn NV die Preise der Turing Karte übernimmt. Die Karten mit mehr Speicher 100-200.- mehr kosten.

Ravenhearth
2020-08-26, 14:44:47
Schauen wir mal... ich frage mich nur wer den Aufpreis für die 3090 dann noch zahlt? Das wäre ja komplett hohl für 15-20% mehr Leistung 550$ mehr zu zahlen. :freak: Die 4GB Differenz ist doch komplett irrelevant.
Die 2080 Ti kostet aktuell auch 400€/60% mehr als die 2080 Super für 15-20% mehr Leistung und wird trotzdem gekauft. Der Top Dog ist eine Klasse für sich.

dargo
2020-08-26, 14:45:55
Die 2080 Ti kostet aktuell auch 400€/60% mehr als die 2080 Super für 15-20% mehr Leistung und wird trotzdem gekauft. Der Top Dog ist eine Klasse für sich.
Logisch... bisher gabs dort auch keine Konkurrenz. ;)

Bei $1199 für die 3080 20GB wäre die 3090 aber nur 17% teurer für ~20% mehr Leistung und 20% mehr Speicher.
Das stimmt... 899$/1099$ würden für die 3080 besser passen.

Troyan
2020-08-26, 14:46:27
BTT:
keine verlängerung von hinten ans pcb ala 1060?

https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-30-Teaser-2-1200x639.jpg
https://videocardz.com/newz/nvidia-confirms-12-pin-power-connector-and-v-shaped-pcb-for-geforce-rtx-30-series

Nein, siehe Kühler. War seit den Leaks bekannt.

Daredevil
2020-08-26, 14:49:34
Die 2080 Ti kostet aktuell auch 400€/60% mehr als die 2080 Super für 15-20% mehr Leistung und wird trotzdem gekauft. Der Top Dog ist eine Klasse für sich.
Die Leistung ist hier gar nicht entscheident.
Die 2080ti löst das Problem 4k Gaming, das kann die 2080 nicht.
( Weniger Leistung, weniger Speicher, kein 4K )

Ravenhearth
2020-08-26, 14:49:40
Logisch... bisher gabs dort auch keine Konkurrenz. ;)
Ja, Nvidia scheint davon auszugehen, dass es mit Ampere so bleibt und Big Navi sich mit der 3080 anlegt. Gerade wenn es auch Konkurrenz bis hoch zur 3090 gäbe, wären $1000 für die 3080 und $1400 für die 3090 doch Suizid :freak:

Die Leistung ist hier gar nicht entscheident.
Die 2080ti löst das Problem 4k Gaming, das kann die 2080 nicht.
( Weniger Leistung, weniger Speicher, kein 4K )
Ja, mit der 2080 Ti kann man am besten in 4K spielen (wenn auch nicht perfekt). Das wird mit der 3090 auf einem höheren Niveau doch genauso sein. Spiele werden ja auch wiederum anspruchsvoller.

Daredevil
2020-08-26, 15:03:36
Ja, mit der 2080 Ti kann man am besten in 4K spielen (wenn auch nicht perfekt). Das wird mit der 3090 auf einem höheren Niveau doch genauso sein. Spiele werden ja auch wiederum anspruchsvoller.
Ja, 4K wird damit durchaus "problemlos" sein.
Eine 3090 mit 50% mehr Leistung als ne 2080ti + 24GB Ram kann hier allerdings schon das "8K Problem" angehen.
nfiBzZaZFN0

Raff
2020-08-26, 15:05:57
Nvidia teasert Geforce Ampere Founders Edition: Spezialkühler, Airflow, 12-Pol-Strombuchse und mehr (https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Founders-Edition-Kuehler-Stromadapter-1356888/)

Es wird "offizieller". :D

MfG
Raff

Daredevil
2020-08-26, 15:06:54
Videooooooo!
ZEzI02SKALY

r3ptil3
2020-08-26, 15:10:23
Nvidia teasert Geforce Ampere Founders Edition: Spezialkühler, Airflow, 12-Pol-Strombuchse und mehr (https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Founders-Edition-Kuehler-Stromadapter-1356888/)

Es wird "offizieller". :D

MfG
Raff

Interessant - würde sogar in vielen Gehäusen Sinn ergeben. AIO für die CPU vorausgesetzt, ansonsten wird der Airflow durch einen Luftkühler beeinträchtigt.

WedgeAntilles
2020-08-26, 15:11:19
Ist das nicht etwas weit hergeholt? Gewinnoptimierung indem man den größeren Chip verkauft?

Die xx70er haben sich so gut verkauft, weil sie in der Regel an der Preislichen Obergrenze liegen, die Viele ausgeben wollen/können. Da hat schon die 2070 drauf gelegt, der Preis der 3070 soll nach Gerüchten weiter steigen und du glaubst wirklich, dass dann jemand statt 450 in der alten Generation plötzlich >800€ für eine 3080 ausgibt?
So viel schneller als die 2070 kann die 3080 nicht sein, dass man da auch noch von gutem P/L sprechen kann...

Nein, das ist nicht weit hergeholt, das ist Preis bzw. Verkaufs-Psychologie.
Es geht nicht darum, dass einer doppelt so viel ausgibt wie geplant.
Es geht auch nicht darum, dass das jeder (oder auch nur die Mehrheit) mehr ausgibt als geplant.
Aber wenn du hunderttausende bzw. Millionen von Käufern hast, ist es halt so, dass du durchaus versuchen kannst einen gewissen Teil davon etwas hochzulupfen.

Schau mal Statistiken an, wieviele Leute am Ende mehr ausgegeben haben, als ursprünglich geplant.
Das gilt gerade für Möbel, Autos, Küchen, Hardware.
Man hat etwas im Blick und dann sieht man, was man mit einem (kleinen) Aufpreis eben noch zusätzlich bekommt.
Da wird aus dem 15.000 Auto fürs Auto halt 17.500. Dafür hat das Auto jetzt doch einen größeren Motor und halt noch zwei Extras mehr.
Und der Fernseher ist nen Tick größer und besser als zuerst gedacht.
Und die GraKa ist halt vielleicht eine Stufe größer als geplant.

Psychologie ist ein großer Faktor im Verkaufsbereich - was glaubst du, warum alles 99,99 Euro statt 100 Euro kostet? Weil der 1 Cent einen Unterschied ausmacht?
Nein, weil 99,99 dem Käufer deutlich günstiger vorkommen als 100 Euro.
Ist objektiv gesehen selbstverständlich völliger Schwachsinn - und funktioniert natürlich nicht bei jedem. Aber halt bei einem gewissen Prozentsatz.

Oder schau dir mal die Werbung im Automobilbereich an.
Da wird IMMER mit einem niedrigen Preis geworben.
Und ist der Käufer erstmal interessiert stellt er fest, dass es noch zig (teils mehr, teil weniger sinnvolle) extras gibt, so dass das Auto am Ende halt mehr kostet als gedacht.
Aber ist der Kunde erstmal an der Angel ist bei vielen die Bereitschaft da, am Ende halt doch etwas mehr auszugeben. Wenn der Verkäufer es schafft, diese Mehrausgabe als sinnvoll erscheinen zu lassen.

Daher optimieren Firmen häufig ihr Portfolio dahingehend - und bei Nvidia erscheint es mir als naheliegend, die 3070 und die 3080 leistungstechnisch etwas weiter auseinander zu bringen, um die Bereitschaft der 3070 Käufer auf die 3080 upzugraden zu erhöhen.

Das ist natürlich nicht sicher, da man ja die Margen und ähnliches nicht kennt.
Es ist aber sehr naheliegend, dass Nvidia zumindest Gedankenspiele in dieser Art hat.
Denn der ganz große Vorteil ist ja, dass man keine Preiserhöhung gemacht hat.
Preiserhöhungen kommen immer negativ an.
Wenn aber der Kunde von selber statt zur 600 Euro GraKa zur 800 Euro GraKa greift, gibt es diesen negativen Effekt nicht.

Lawmachine79
2020-08-26, 15:17:33
Schauen wir mal... ich frage mich nur wer den Aufpreis für die 3090 dann noch zahlt? Das wäre ja komplett hohl für 15-20% mehr Leistung 450-550$ mehr zu zahlen. :freak: Die 4GB Differenz ist doch komplett irrelevant.
Für die letzten Prozent zahlst Du immer überproportional viel, während Du in den unteren Preissegmenten mit kleinen Preisaufschlägen größere Performancesprünge machen kannst. 15-20% können in VR einen Riesenunterschied machen; klar, VR=Nische - aber das sind High-End-Karten auch. Der Anteil an VR-Spielern unter den High-End-Karten wird höher sein als bei Karten in anderen Marktsegmenten.

Digidi
2020-08-26, 15:20:32
Das Design sieht aber in der Simulation nun eher wie Zweislot aus :confused:

TurricanM3
2020-08-26, 15:22:35
Was hier teilweise eine Stimmung herrscht, wegen GPUs. So viele gehässige Posts, traurig.

Die 3090 Zielgruppe werden kaum Leute sein, die ewig analysieren und durchrechnen ob die Karte preislich Sinn macht. Man will einfach das Schnellste.

Troyan
2020-08-26, 15:24:19
Nvidia teasert Geforce Ampere Founders Edition: Spezialkühler, Airflow, 12-Pol-Strombuchse und mehr (https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Founders-Edition-Kuehler-Stromadapter-1356888/)

Es wird "offizieller". :D

MfG
Raff

Macht auch am meisten Sinn. Kühle Luft, die von unten nach oben angezogen wird. Kein Plan, ob das was bringt, aber die andere Richtung wäre ja nur dämlich.

Daredevil
2020-08-26, 15:26:24
Es macht auf jeden Fall mehr Sinn, als wenn die warme Luft gegen die Seitenwand prallt und dann die Luft wieder in der GPU verwirbelt wird. :c
( Top Blow vs. Tower Kühler )

Da freut sich auf jeden Fall jeder mit nem Tower CPU Kühler. ;D

Ex3cut3r
2020-08-26, 15:27:19
Was hier teilweise eine Stimmung herrscht, wegen GPUs. So viele gehässige Posts, traurig.

Die 3090 Zielgruppe werden kaum Leute sein, die ewig analysieren und durchrechnen ob die Karte preislich Sinn macht. Man will einfach das Schnellste.

Entschuldige, bitte unsere Armut Mr. Titan RTX.

rentex
2020-08-26, 15:28:38
Supi, da bläst die Karte nen Teil der Abwärme, genau in den CPU Kühler...

Troyan
2020-08-26, 15:30:39
Supi, da bläst die Karte nen Teil der Abwärme, genau in den CPU Kühler...

Das geschieht jetzt doch genauso. Wo denkst du, wandert die Wärme der Custom-Karten hin?!

Daredevil
2020-08-26, 15:32:20
Das geschieht jetzt doch genauso. Wo denkst du, wandert wie Wärme der Custom-Karten hin?!
Hier an der Seite raus. :>
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fimages.hardwarezone.com%2Fupload%2Ffiles%2F2010%2F04%2F247d09df ee.jpg&f=1&nofb=1

Aber da macht das "reinblasen" des Lüfters an der Seite nun mehr Sinn.
Weil so hätte ich sonst die warme Luft immer wieder zur GPU hin gepustet. :D

Troyan
2020-08-26, 15:33:14
Ah, die 00er. Die wollen ihr Gehäuse zurück. :D

TurricanM3
2020-08-26, 15:38:21
Mir fällt gerade ein, wenn die Karten wirklich 3 Slots belegen, dann können viele nicht mehr vertikal verbaut werden.
Mein Case sieht da auch nur eine Breite von 2 slots vor.

@Wakü könnte man das per alternativer Blende lösen, sofern die ori. Blende Anschlussseitig nicht bis hin zum dritten Slot belegt ist. :smile:

rentex
2020-08-26, 15:38:52
Das geschieht jetzt doch genauso. Wo denkst du, wandert die Wärme der Custom-Karten hin?!

Sicher nicht DIREKT rein.
Die Frontlüfter drücken nen Teil der warmen Luft, der zur Seitentür rausgeht, durch die Öffnungen neben den Slotblenden raus (bei mir drei Slots breit).
Ok, der Teil der Abluft, unterhalb des PCIe Slots der Graka, entfällt zukünftig.

Timbaloo
2020-08-26, 15:43:36
Die ganze Diskussion um Kühlung zeigt wieder einmal die Schwäche des ATX-Konzepts: Da hatte man beim Design einfach keine Steckkarten mit > 200W auf dem Schirm. Eigentlich bräuchte es ein ATX-Redesign...

Troyan
2020-08-26, 15:43:50
Sicher nicht DIREKT rein.
Die Frontlüfter drücken nen Teil der warmen Luft, der zur Seitentür rausgeht, durch die Öffnungen neben den Slotblenden raus (bei mir drei Slots breit).
Ok, der Teil der Abluft, unterhalb des PCIe Slots der Graka, entfällt zukünftig.

Da geht kaum was raus, da die Custom-Karten die Luft nach oben und unten abgeben. Und dann wird die warme Luft wieder angesaugt.

Es gibt doch genug Tests, z.B. hier von vor sechs Jahren: https://youtu.be/nAKyh-qqQCw?t=208

Relic
2020-08-26, 15:54:13
Die ganze Diskussion um Kühlung zeigt wieder einmal die Schwäche des ATX-Konzepts: Da hatte man beim Design einfach keine Steckkarten mit > 200W auf dem Schirm. Eigentlich bräuchte es ein ATX-Redesign...

Gabs doch schon...
https://de.wikipedia.org/wiki/BTX-Format

rentex
2020-08-26, 15:57:59
Das ist ein Vergleich von Blower zu Custom. Den kenne ich nur zu gut ;-)
Ich habe das auch schon ausgiebig an meinem alten Gehäuse ausgetüftelt (Lian Li PC A77).
Mit meinem aktuellen (Phanteks P600s) wird das noch kniffliger...doch ne Wakü für die Karte?!

Troyan
2020-08-26, 16:02:12
Und laut nVidia geht die meiste Wärme vorne aus dem Gehäuse. Ergo verhält sich die Karte nicht anders als Custom-Karten.

w0mbat
2020-08-26, 16:03:49
Also ich muss sagen, ich bin gespannt. Ich finde es gut, dass Nvidia sich neue Ansätze überlegt und auch umsetzt. Ob das so der Bringer wird werden wir ja bald wissen, aber besser als AMDs alte Brüllwürfel sicher.

Auch der kleine 12-pin ist auf den zweiten Blick ganz nice, könnte den Kabelsalat reduzieren.

prinz_valium_2
2020-08-26, 16:04:53
https://www.hardwareluxx.de/images/cdn01/F26E5B259D4A49618B8B52AF9B324DEB/img/7ABA2A9BC08446009B5A15365B2100C3/NVIDIA-GeForce-RTX-Ampere-Challanges-00003_7ABA2A9BC08446009B5A15365B2100C3.jpg

rentex
2020-08-26, 16:07:41
Und laut nVidia geht die meiste Wärme vorne aus dem Gehäuse. Ergo verhält sich die Karte nicht anders als Custom-Karten.

Lass ma es, kenne mein Sys besser als NV...wenn se so schlau sind, dann hätten sie niemals, die Lüfterkonstrukte der letzten Jahre verbrochen :wink:

Troyan
2020-08-26, 16:09:54
Wat? Wie soll denn kühle Luft von vorne zu deinem CPU-Kühler kommen, wenn da zwischen eine fette Custom-Karte mit Axial Lüfter hängt?

Da kommt nichts an. Der Kühler von nVidia zieht Luft an und gibt sie nach oben ab. Da ändert sich im Grunde null zu Custom-Karten.

Digidi
2020-08-26, 16:11:16
Leute seht ihr das nicht im Bild? Das ist ein 2 Slot Design. Ich hab die Slots mal nebendran kopiert dann sieht man Eindeutig 2 Slot design

Zergra
2020-08-26, 16:14:52
Ja kann aber auch von der 3080 sein.

Troyan
2020-08-26, 16:15:05
Die 3080 hat ein 2-Slot Design.

Dural
2020-08-26, 16:15:19
Wat? Wie soll denn kühle Luft von vorne zu deinem CPU-Kühler kommen, wenn da zwischen eine fette Custom-Karte mit Axial Lüfter hängt?

Da kommt nichts an. Der Kühler von nVidia zieht Luft an und gibt sie nach oben ab. Da ändert sich im Grunde null zu Custom-Karten.

Ganz im Gegenteil, der neue NV Kühler beruhigt den Luftstrom sogar, ich Wette damit ist das ganze System Kühler!

Der Kühler wird zum besten gehören was wir jemals im Grafikkarten Bereich gesehen haben.

r3ptil3
2020-08-26, 16:21:41
Ganz im Gegenteil, der neue NV Kühler beruhigt den Luftstrom sogar, ich Wette damit ist das ganze System Kühler!

Der Kühler wird zum besten gehören was wir jemals im Grafikkarten Bereich gesehen haben.

Lass mich raten: Du hast das Video angeschaut?

Marketing kann Nvidia. 😅

rentex
2020-08-26, 16:21:53
Wat? Wie soll denn kühle Luft von vorne zu deinem CPU-Kühler kommen, wenn da zwischen eine fette Custom-Karte mit Axial Lüfter hängt?

Da kommt nichts an. Der Kühler von nVidia zieht Luft an und gibt sie nach oben ab. Da ändert sich im Grunde null zu Custom-Karten.

Bist du so ein penetranter Besserwisser oder wat?
Du weißt doch gar nichts über meine Kiste oder gar über die verbaute Lüfterconfig.
Schwall doch keine Unsinn!

TheAntitheist
2020-08-26, 16:22:14
Ja, 4K wird damit durchaus "problemlos" sein.
Eine 3090 mit 50% mehr Leistung als ne 2080ti + 24GB Ram kann hier allerdings schon das "8K Problem" angehen.
https://youtu.be/nfiBzZaZFN0
genau daran sieht man auch das es quatsch ist immer zu sagen "für 4k reicht Speichermenge X"...
Wenn das Spiel viel mehr Polys und Texel gleichzeitig darstellt, ist die Auflösung fast irrelevant. Ich kann dir 20GB an texturen rausballern bei 480p...

oder mit 2GB VRAM auch locker ein Spiel machen was in 8k läuft ohne ins VRAM Limit zu gehen.

Dural
2020-08-26, 16:28:00
Lass mich raten: Du hast das Video angeschaut?

Marketing kann Nvidia. 😅

Nö kommt nicht vom Video, sieht man doch auf den ersten Blick.

Aktuelle Karten verwirbeln die Luft nur im Gehäuse rum, es existiert kein vernünftiger Luftstrom. :rolleyes:

Zergra
2020-08-26, 16:29:35
Wenn das Spiel viel mehr Polys und Texel gleichzeitig darstellt, ist die Auflösung fast irrelevant. Ich kann dir 20GB an texturen rausballern bei 480p...

Sieht aber immer noch sche.... aus ;) :biggrin:

rentex
2020-08-26, 16:30:32
@Dural :-D Gibs zu, du hast schon ne 3090 in der Kiste! Wenn nicht, ist es ne Behauptung deinerseits ;-)

[MK2]Mythos
2020-08-26, 16:35:09
Nö kommt nicht vom Video, sieht man doch auf den ersten Blick.

Aktuelle Karten verwirbeln die Luft nur im Gehäuse rum, es existiert kein vernünftiger Luftstrom. :rolleyes:
Wow, lässt du dich von jedem Marketingfilmchen direkt um den Finger wickeln, oder liegt das an nvidia? :freak:

Ex3cut3r
2020-08-26, 16:37:19
Jap. Nicht gleich immer aus der Hand von Nvidia fressen und alles runterschlucken, immer kritisch sein, und neutrale Tests abwarten.

Die FE der Turing Gen, war ja auch Mist hoch zehn, weil man die einfach nicht auseinanderkriegt ohne den ganzen verklebten Plastik Scheiß zu beschädigen. Wie man da die Wärmeleitpaste ersetzen sollte, ist mir ein Rätsel. Nvidia fühlt sich momentan als Apple der GPU Hersteller, man muss anscheinend immer was neues/kompliziertes machen, damit man sich ganz special fühlt. Und den Kunden auch dieses ganz besondere Gefühl geben können, und dieser dann diese Bonzen Preise bezahlt.

rentex
2020-08-26, 16:39:49
Ist doch ein schickes Video...;-)

r3ptil3
2020-08-26, 16:44:07
Ist doch ein schickes Video...;-)

Das Video ist wirklich erste Sahne. Sogar ich verfiel kurzzeitig dieser Werbekraft. :freak:

Aber Dural redet von, ich zitiere:
"Der Kühler wird zum besten gehören was wir jemals im Grafikkarten Bereich gesehen haben."

Gut dass man hier den Humor nicht ganz verloren hat.

Edit:
Ich frage mich, ob AMD wie früher auch kurz vor dem 1. September irgendwas leaked?
Galt früher als ganz normal...

Zergra
2020-08-26, 16:51:35
Edit:
Ich frage mich, ob AMD wie früher auch kurz vor dem 1. September irgendwas leaked?
Galt früher als ganz normal...
Da bei AMD erst frühstens was Anfang November kommt, würde ich nicht damit rechnen.

Redneck
2020-08-26, 16:57:00
Der Kühler wird zum besten gehören was wir jemals im Grafikkarten Bereich gesehen haben.

hihihi, und zwar nicht aus Jucks und Dollerei, sondern weil Ampere sowas benötigt und dies entsprechend teuer wird (ist ja nicht so, das sie das Beste verbauen ohne uns Verbraucher an den Kosten teilhaben zu lassen).

Redneck
2020-08-26, 16:59:37
Da bei AMD erst frühstens was Anfang November kommt, würde ich nicht damit rechnen.

AMD hat doch damals gesagt, das RDNA2 vor den Konsolen ins Geschäft kommt.
Das müßte dann wirklich spätestens Anfang November sein. Es spricht ja aber nichts dagegen, vorher informationen rauszulassen, sobald NV die Katze aus dem Sack gelassen hat.

RLZ
2020-08-26, 17:01:09
Wat? Wie soll denn kühle Luft von vorne zu deinem CPU-Kühler kommen, wenn da zwischen eine fette Custom-Karte mit Axial Lüfter hängt?
Gegenfrage: Wie kommt in einem modernen Gehäuse die Grafikkarte zwischen Frontlüfter und CPU Kühler?

dargo
2020-08-26, 17:04:55
Was hier teilweise eine Stimmung herrscht, wegen GPUs. So viele gehässige Posts, traurig.

Die 3090 Zielgruppe werden kaum Leute sein, die ewig analysieren und durchrechnen ob die Karte preislich Sinn macht. Man will einfach das Schnellste.
Dann musst du die Titan kaufen. :wink:

Die ganze Diskussion um Kühlung zeigt wieder einmal die Schwäche des ATX-Konzepts: Da hatte man beim Design einfach keine Steckkarten mit > 200W auf dem Schirm. Eigentlich bräuchte es ein ATX-Redesign...
Oder einfach effizientere GPUs. :whisper:

Ex3cut3r
2020-08-26, 17:06:27
Dann musst du die Titan kaufen. :wink:

Hat er doch schon. Er hat im Mai noch eine Titan RTX gekauft, siehe Luxx.

https://www.hardwareluxx.de/community/threads/worklog-caselabs-magnum-sma8-a-revision-gunmetal.1207207/page-9#post-27482740

dargo
2020-08-26, 17:08:15
Hat er doch schon. Er hat im Mai noch eine Titan RTX gekauft, siehe Luxx.
Ich meine bei Ampere. Oder gibts diesmal keine Titan?

Ex3cut3r
2020-08-26, 17:09:20
Ich meine bei Ampere. Oder gibts diesmal keine Titan?

;D Bestimmt. Das wird sich Nvidia nicht entgehen lassen, ein paar arme Teufel mit 5000€ pro Stück abzuziehen.

Linmoum
2020-08-26, 17:11:57
Sehe schon die ganzen Bernds mit ihren RMAs, weil der 12-pin auf dem PCB einen Abflug gemacht hat. Wie bescheuert kann man sowas platzieren?

fondness
2020-08-26, 17:16:40
Time Spy Extreme-Werte:

https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

2080 Ti ist bei ~6400
2080 bei ~5000

Also ist die 3080 70% schneller als die 2080 und 33% schneller als die 2080 Ti
Die 3090 ist 56% schneller als die 2080 Ti und 18% schneller als die 3080

Hm, das wäre bestenfalls der übliche leistungssprung bei einer neuen gen, diesmal aber mit deutlich mehr tdp. Oder anders die perf/Watt würde trotz shrink kaum steigen.

dargo
2020-08-26, 17:17:38
Also ich muss sagen, ich bin gespannt. Ich finde es gut, dass Nvidia sich neue Ansätze überlegt und auch umsetzt. Ob das so der Bringer wird werden wir ja bald wissen, aber besser als AMDs alte Brüllwürfel sicher.

Nichts dagegen... ich kann mich aber noch gut daran erinnern als AMD bei höheren Verbräuchen mit ner AIO kam und Dural hier stolz verkündete Nvidia braucht keine Wakü. Jetzt ist es halt ein Ziegelstein. ;)

N0rG
2020-08-26, 17:38:35
Now that NV has released so much information, I'd like to make a final supplement to the first two ampere cards. NOT IMPORTANT. See you next week.
RTX 3090 FE PG136-SKU10 deviceid 2204
RTX 3080 FE PG133-SKU30 deviceid 2206
https://twitter.com/kopite7kimi/status/1298607312429441026

Kommt da vielleicht später doch noch eine 3080Ti als SKU20? So mit 22GB 352Bit... ähnlich wie bei Pascal, da gab es ja auch erst die 1080 und die Titan.

rentex
2020-08-26, 17:40:11
Das weiß niemand...kann, muss aber nicht...wahrscheinlich...frag Lederjacke...

Daredevil
2020-08-26, 17:40:56
Ganz im Gegenteil, der neue NV Kühler beruhigt den Luftstrom sogar, ich Wette damit ist das ganze System Kühler!

Soweit würde ich jetzt nicht gehen, aber der NVME hinter der GPU wird es sicherlich besser gehen, wenn die Luft abtransportiert wird, anstatt permanent aufs Mainboard zu blasen.

Troyan
2020-08-26, 17:43:40
Gegenfrage: Wie kommt in einem modernen Gehäuse die Grafikkarte zwischen Frontlüfter und CPU Kühler?

In dem eine 30cm Karte kauft wird? ;D
Wenn man kein lautes Gehäuse will, drehen die Front-Lüfter relativ gering. Ergo ist der Luftstorm nicht sehr stark und wird eher von den Custom-Karten angezogen. Solange also nicht im oberen Bereich ebenfalls ein Front-Lüfter läuft, bleibt die Frischluft somit im unteren Bereich bei der GPU. Und von dort steigt warme Luft dann stetig hoch.

gedi
2020-08-26, 17:55:02
Das Video ist Blendwerk. Aber schön, dass man nur noch nen Intel-Boxed Kühler braucht um 200W seitens der CPU abzuführen, den Rest übernimmt Ampere

RLZ
2020-08-26, 18:02:13
In dem eine 30cm Karte kauft wird? ;D
Wenn man kein lautes Gehäuse will, drehen die Front-Lüfter relativ gering. Ergo ist der Luftstorm nicht sehr stark und wird eher von den Custom-Karten angezogen. Solange also nicht im oberen Bereich ebenfalls ein Front-Lüfter läuft, bleibt die Frischluft somit im unteren Bereich bei der GPU. Und von dort steigt warme Luft dann stetig hoch.
Wir haben glaub massiv unterschiedliche Vorstellungen von einem modernen Gehäuse.
Selbst in einem Define 7 compact bekommt man eine 36cm Karte rein und sogar mit nur einem Lüfter geht ein großer Teil des Luftstroms überhalb der GPU vorbei. Wer allerdings soviel Geld ausgibt, wird bestimmt nicht an einem zusätzlichen Lüfter sparen wollen.

https://abload.de/img/unbenanntyuj9a.jpg

Also ja. In einem Dinosaurier mit Trenner für physikalische Laufwerkeschächte kann es zu Problemen kommen. Aber wer verbaut sowas noch?

Troyan
2020-08-26, 18:10:21
Kein Widerspruch. In dem Fall würden bestimmt 2 Frontlüfter montiert werden. Einen für die CPU, der andere für die GPU. Daher ändert sich auch mit nVidias Design nichts. Bei einem Lüfter ist die Position bei einer >250W Karte ziemlich suboptimal.

BlacKi
2020-08-26, 18:21:47
https://twitter.com/kopite7kimi/status/1298607312429441026

Kommt da vielleicht später doch noch eine 3080Ti als SKU20? So mit 22GB 352Bit... ähnlich wie bei Pascal, da gab es ja auch erst die 1080 und die Titan.
viel interessanter ist https://twitter.com/kopite7kimi/status/1298510555544563712

100% schlau werde ich leider nicht aus den posts. aber es scheint so, als würde die performance schwanken je nach spiel/bench, jenachdem wie stark man die fp32 leistung auslasten kann. timespy normal vs extreme soll sehr unterschiedliche ergebnisse ausspucken zugunsten von extreme.

Slipknot79
2020-08-26, 18:31:50
Mir fällt gerade ein, wenn die Karten wirklich 3 Slots belegen, dann können viele nicht mehr vertikal verbaut werden.
Mein Case sieht da auch nur eine Breite von 2 slots vor.

@Wakü könnte man das per alternativer Blende lösen, sofern die ori. Blende Anschlussseitig nicht bis hin zum dritten Slot belegt ist. :smile:



Ged, sind noch 6-7cm Platz ab Dual Slot bis zur Seitentüre. (y)


https://abload.de/img/img_20200429_222839c2j12.jpg

Slipknot79
2020-08-26, 18:35:37
Videooooooo!
https://youtu.be/ZEzI02SKALY


Immerhin enttarnt das Video, welche Simulationen genommen werden, um "quiet und cool" notfalls bei Gericht rechtfertigen zu können.

Fehlt noch nen Video, das zeigt, wie Monitorhersteller grey to grey 1ms "berechnen" :wink:

Ravenhearth
2020-08-26, 18:40:47
Hm, das wäre bestenfalls der übliche leistungssprung bei einer neuen gen, diesmal aber mit deutlich mehr tdp. Oder anders die perf/Watt würde trotz shrink kaum steigen.
Etwa 20% wären immerhin drin. Angesichts dessen, dass AMD mit einer neuen Architektur und dem Sprung von 14nm GloFo auf 7nm TSMC ca. 50% geschafft hat, scheint das für 12nm TSMC -> 8nm Samsung nicht unrealistisch.

dargo
2020-08-26, 18:52:27
Etwa 20% wären immerhin drin. Angesichts dessen, dass AMD mit einer neuen Architektur und dem Sprung von 14nm GloFo auf 7nm TSMC ca. 50% geschafft hat, scheint das für 12nm TSMC -> 8nm Samsung nicht unrealistisch.
Nach meiner Schönrechnerei sind es sogar 74% gewesen. ;D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12401042&postcount=9601

Spaß bei Seite... solange keiner weiß wie die Marketingangaben genau ermittelt wurden sollte man diese nicht zu ernst nehmen. :)

Edit:
Mir fällt gerade ein... zum Releasezeitpunkt einer neuen Generation sind die Treiber nie vollständig ausgereift. Könnte also sein, dass die paar zusätzlichen Prozent im Laufe der Zeit dazu kommen.

rentex
2020-08-26, 19:02:28
@Troyan Um es kurz zu machen....schreib nicht so eine Mist und winde dich am Ende nicht heraus.

sunshine
2020-08-26, 19:08:13
3080 here we go. 1080 Ti fuer $420 verkauft, wird heute abgeholt. Ich kann im September und Oktober eh nicht spielen, da dachte ich es waere ein guter Zeitpunkt. PS4 Pro steht ja auch noch hier.

Bin echt gespannt wie der Kuehler wegkommt. Ich hab mich noch nie mit Referenz/FE Karten beschaeftigt.

Thunder99
2020-08-26, 19:16:36
Das Design und Bauart des Kühlers ist echt interessant. Bin auf Vergleichstests gespannt gegen klassische Lösungen. Im Prinzip ein Radial/Axial Konzept, nur das die Luft im Gehäuse bleibt.