PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 [51] 52 53 54 55 56 57 58 59 60 61 62

Lawmachine79
2020-09-25, 15:15:47
Ja, sehr lustig anzusehen wie DAS Argument gegen alle Vegas jetzt plötzlich bei Ampere zieht.

Die lieben Fähnchen - zuverlässig wie eh und je. :D
Bei Vega darfst Du eins nicht vergessen: die Karte hat zwar viel Strom gefressen - dafür war sie aber wenigstens langsamer und kam später ;D.

Mal echt, die Karte (ich rede jetzt von der Vega64) in dem Moment des Launches schon nur was für Fanboys. Ein halbes Jahr später als der Konkurrent, dann langsamer als dessen zweitbestes Modell (GTX 1080), die TDP gerade mal 25 Watt unter der ach so böse fressenden RTX 3080 (die mehr als doppelt so schnell ist).

Mir ist Stromverbrauch eigentlich egal. Aber wenn ich eine langsamere Karte ein halbes Jahr später bringe und die dann nur neuer Verbrauchskönig ist, dann habe ich da wohl ein wenig Begründungsaufwand, denn das ist schon sehr peinlich. (Nur) wer viel leistet, kann halt auch viel (Strom) verlangen. Da hat man sich in der Marketingabteilung wohl sowas gedacht wie "Hey, wegen unserer ordentlichen CPUs werden wir nicht mehr als Underdog wahrgenommen; we don't like - lass' uns mal wieder so ein richtiges Scheißprodukt rausbringen, dass nur Scheieigenschaften hat, so richtigen Müll".

basix
2020-09-25, 15:17:25
Nur so zum nachdenken, die 12 GB brauchen dann auch Perfect Chips beim L2Cache, Memory Interface etc. für die Leute die meinen es kostet nix und gemischte Anbindung hatte NV schonmal ;)

Niemand sagt, dass es nichts kostet und es ist hoffentlich allen klar, dass es zumindest beim Chip Zusatzkosten bedeutet ;)

Die Aussage meinerseits war hauptsächlich, dass GDDR6 günstiger als GDDR6X wäre. Auch PCB, Elektronik und Kühler hätten Potential zur Kostenreduktion, wenn man nicht >300W und GDDR6X gegangen wäre. Und dass dies in Kombination eben das bessere Produkt für den Kunden gewesen wäre (meine Meinung). Ob es margentechnisch für Nvidia unter dem Strich weh getan hätte oder sogar von Vorteil wäre? Das Pendel kann in beide Richtungen ausschlagen.

Auf was beziehst du dich eigentlich bei den gemischten Anbindungen?

dargo
2020-09-25, 15:27:38
Nur so zum nachdenken, die 12 GB brauchen dann auch Perfect Chips beim L2Cache, Memory Interface etc. für die Leute die meinen es kostet nix und gemischte Anbindung hatte NV schonmal ;)
Ernst gemeinte Frage... wieso ist das immer nur ein Problem bei Nvidia? Wenn ich so zurückdenke hatte Tahiti sowohl beim Topdog als auch Salvage das volle 384Bit Speicherinterface. Wenn mich nicht alles täuscht galt das sogar beim fetten 512Bit SI von Hawaii/Grenada.


Mir ist Stromverbrauch eigentlich egal. Aber wenn ich eine langsamere Karte ein halbes Jahr später bringe und die dann nur neuer Verbrauchskönig ist, dann habe ich da wohl ein wenig Begründungsaufwand, denn das ist schon sehr peinlich.
Jetzt spielst du aber ne Pussy. Eine richtige Männerkarte muss viel saufen, egal wie schnell diese ist. ;)


Auf was beziehst du dich eigentlich bei den gemischten Anbindungen?
GTX 970.

Redneck
2020-09-25, 15:30:24
Bei Vega darfst Du eins nicht vergessen: die Karte hat zwar viel Strom gefressen - dafür war sie aber wenigstens langsamer und kam später ;D.

Mal echt, die Karte (ich rede jetzt von der Vega64) in dem Moment des Launches schon nur was für Fanboys. Ein halbes Jahr später als der Konkurrent, dann langsamer als dessen zweitbestes Modell (GTX 1080), die TDP gerade mal 25 Watt unter der ach so böse fressenden RTX 3080 (die mehr als doppelt so schnell ist).

Mir ist Stromverbrauch eigentlich egal. Aber wenn ich eine langsamere Karte ein halbes Jahr später bringe und die dann nur neuer Verbrauchskönig ist, dann habe ich da wohl ein wenig Begründungsaufwand, denn das ist schon sehr peinlich. (Nur) wer viel leistet, kann halt auch viel (Strom) verlangen. Da hat man sich in der Marketingabteilung wohl sowas gedacht wie "Hey, wegen unserer ordentlichen CPUs werden wir nicht mehr als Underdog wahrgenommen; we don't like - lass' uns mal wieder so ein richtiges Scheißprodukt rausbringen, dass nur Scheieigenschaften hat, so richtigen Müll".

Komm mal wieder runter.. das wird nämlich echt albern.
Im Gegensatz zur 3080 läuft meine Vega64 problemlos mit meinem Seasonic 550w NT.
Ich mußte mir weder ein neues NT kaufen noch habe ich Abstürze, Blackscreens oder whatsoever.
Undervoltet läuft meine bei 176W und etwas anderes machen viele 3080
Käufer jetzt auch nicht mit Ihren neuen Karten.
PS : Deine Phäkalsprache kannst Du mal gepflegt zuhause lassen.

Daredevil
2020-09-25, 15:35:17
Im Gegensatz zur 3080 läuft meine Vega64 problemlos mit meinem Seasonic 550w NT.

Du hast eine 3080?

@Komponenten
Der Vergleich ist hier sicherlich auch interessant.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/37.html
https://abload.de/img/unbenanntkpkh8.png

Zotac: 6 schlechte Bauteile
Gigabyte: 6 schlechte Bauteile
MSI: 2 gute, 4 schlechte Bauteile
Asus: 6 gute Bauteile

Schlägt sich zumindest in dem Beispiel direkt im maximalen Takt wieder, oder ist halt Zufall.

Ex3cut3r
2020-09-25, 15:36:14
Ernst gemeinte Frage... wieso ist das immer nur ein Problem bei Nvidia? Wenn ich so zurückdenke hatte Tahiti sowohl beim Topdog als auch Salvage das volle 384Bit Speicherinterface. Wenn mich nicht alles täuscht galt das sogar beim fetten 512Bit SI von Hawaii/Grenada.


Ich bitte dich, dass sind doch nur Ausreden um die Speichkrüppels zu verteidigen, wenn man danach gehen wurde, gäbe es ja nie einen Fortschritt, und die ganzen Full Titans der letzen Jahre mit 12GB waren wohl alle Hexerei. :rolleyes:

Nvida war schon immer knausrig beim VRAM. Wenn ich da an die 780Ti denke, die tatsächlich noch mit 3GB kam.. Die war in einem Jahr mit der 980 mit 4GB dann auch Geschichte, und die Next Gen Ports der Ps4 und Xbox One gingen langsam auch los. Ein Rohrkrepierer innerhalb eines halben Jahres. Die 3080 hat das selbe Potenzial. ^^

Redneck
2020-09-25, 15:39:28
Du hast eine 3080?

@Komponenten
Der Vergleich ist hier sicherlich auch interessant.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/37.html
https://abload.de/img/unbenanntkpkh8.png

Zotac: 6 schlechte Bauteile
Gigabyte: 6 schlechte Bauteile
MSI: 2 gute, 4 schlechte Bauteile
Asus: 6 gute Bauteile

Schlägt sich zumindest in dem Beispiel direkt im maximalen Takt wieder, oder ist halt Zufall.
Nein, habe ich das behauptet ? Ich lese aber die News Artikel und in denen
sind übrigens nicht nur die Partner Karten betroffen, wie Du hier suggerieren möchtest.

dargo
2020-09-25, 15:40:47
@Komponenten
Der Vergleich ist hier sicherlich auch interessant.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/37.html
https://abload.de/img/unbenanntkpkh8.png

Zotac: 6 schlechte Bauteile
Gigabyte: 6 schlechte Bauteile
MSI: 2 gute, 4 schlechte Bauteile
Asus: 6 gute Bauteile

Schlägt sich zumindest in dem Beispiel direkt im maximalen Takt wieder, oder ist halt Zufall.
Ich verstehe nicht ganz was du da gerade versuchst abzuleiten? Haben alle Karten das gleiche Powerlimit? Ansonsten komplett wertlos.

Daredevil
2020-09-25, 15:42:40
Nein, habe ich das behauptet ? Ich lese aber die News Artikel und in denen
sind übrigens nicht nur die Partner Karten betroffen, wie Du hier suggerieren möchtest.
Ja, also eigentlich hast du das hier behauptet:

Im Gegensatz zur 3080 läuft meine Vega64 problemlos mit meinem Seasonic 550w NT.

Deswegen verstehe ich nicht, warum du lügst, wenn du nicht mal eine 3080 getestet hast? Wieso machst du sowas?

Ich verstehe nicht ganz was du da gerade versuchst abzuleiten? Haben alle Karten das gleiche Powerlimit? Ansonsten komplett wertlos.
Dann frag mich doch einfach, wenn du keine Ahnung hast.
Vielleicht verrate ich es dir.

dargo
2020-09-25, 15:43:36
Dann frag mich doch einfach, wenn du keine Ahnung hast.
Vielleicht verrate ich es dir.
Du willst mir was beibringen? Ich bitte dich... :tongue:

Nein, habe ich das behauptet ?
Die üblichen Scheinargumente... hast du die Hardware nicht, hast du keine Ahnung. :wink: Diese ganzen abgerauchten Netzteile sind dann wahrscheinlich auch nur Fake Infos gewesen. Ich bin schon gespannt wann die ersten Mainboards am PCIe-Slot ihren Geist aufgeben.

Dural
2020-09-25, 15:46:06
Du hast eine 3080?

@Komponenten
Der Vergleich ist hier sicherlich auch interessant.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/37.html
https://abload.de/img/unbenanntkpkh8.png

Zotac: 6 schlechte Bauteile
Gigabyte: 6 schlechte Bauteile
MSI: 2 gute, 4 schlechte Bauteile
Asus: 6 gute Bauteile

Schlägt sich zumindest in dem Beispiel direkt im maximalen Takt wieder, oder ist halt Zufall.

Hmm ich tippe mehr auf Zufall, die Karten hängen eh alle am PT, und da kommt es dann auf die GPU drauf an.

TheAntitheist
2020-09-25, 15:49:30
Bei 250-260W, 12GB und 2080 Ti +25% hätte Nvidia auch 749$ dranschreiben können anstatt 699$. Damit hätten sie das bessere Produkt und evtl. sogar mehr Marge. Die Karte wäre leiser, hätte genug Speicher, sehr gute Performance und Perf/$ Steigerung gegenüber Turing wäre ordentlich. Dazu noch die neue Ampere Architektur, welche sich zukünftig immer mehr von Turing absetzen wird.

Ich weiss, hier aus meiner Armchair lässt sich das leicht sagen. Aber solch eine SKU wäre machbar gewesen.
Ja natürlich hast du mehr Ahnung als die Marketingleute bei Nvidia, bewirb dich mal ganz schnell da, die warten da nur auf ein Genie wie dich ;D

-=Popeye=-
2020-09-25, 15:52:15
Einfach dieses Igor Video schauen und die aktuellen Test Karten vergleichen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12439255&postcount=174

igg
2020-09-25, 16:08:59
Einfach dieses Igor Video schauen und die aktuellen Test Karten vergleichen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12439255&postcount=174Laut CB sind aber auch FEs betroffen? Wobei die ja 4:2 haben. Weiss man ob auch welche der vermeintlich vorbildlichen Asus Tuf betroffen sind?

Dural
2020-09-25, 16:17:23
Ich bezweifle das es an dem liegt...

Lawmachine79
2020-09-25, 16:19:00
Nein, habe ich das behauptet ? Ich lese aber die News Artikel und in denen
sind übrigens nicht nur die Partner Karten betroffen, wie Du hier suggerieren möchtest.
Naja, Du sagst Deine Vega läuft im Gegensatz zu einer 3080 problemlos mit Deinem NT ;). Etwas spitzfindig, aber im Grunde hat er Recht. Ferner empfiehlt AMD ein 650 Watt Netzteil für die Vega64, dann hast Du wohl Glück oder ein gutes Netzteil aber trotzdem eine Graka die einen ähnlichen Verbrauch bei halber Leistung im Vergleich zur RTX 3080 hat.

NC
2020-09-25, 16:19:32
Ich bezweifle das es an dem liegt...
Damit liegst du der Wahrscheinlichkeit nach vermutlich richtig, denn wer bei jeder Theorie zweifelt, wird nur einmal Unrecht haben, im worst case ;)

NC
2020-09-25, 16:21:30
Laut CB sind aber auch FEs betroffen? Wobei die ja 4:2 haben. Weiss man ob auch welche der vermeintlich vorbildlichen Asus Tuf betroffen sind?
Wäre auch neugiwrig, ob es Probleme bei TUF gibt. Igor stellt im Video die Behauptung in den Raum, wäre nett gewesen, wenn er wenigstens einen statistischen Beweis gezeigt hätte.

Lawmachine79
2020-09-25, 16:24:40
Hrhr, sowohl die 3080 als auch die 3090 auf die ich warte (wahrscheinlich bis Weihnachten) sind TUFs :D. Hoffentlich treibt das den Preis so richtig schön in den Wucherbereich, ich behalte ja nur eine ;).

Dural
2020-09-25, 16:37:29
Das Problem tritt ja erst bei 2GHz+ auf, und das ist auch genau die Grenze wo die GPUs einfach nicht mehr mitmachen.

Die Frage die ich hier gestellt habe ist nach wie vor offen, wo kommen diese 2GHz+ her???

Die meisten karten boosten ja max. 1900-1985MHz.

Redneck
2020-09-25, 16:41:49
Ja, also eigentlich hast du das hier behauptet:

Deswegen verstehe ich nicht, warum du lügst, wenn du nicht mal eine 3080 getestet hast? Wieso machst du sowas?


Dann frag mich doch einfach, wenn du keine Ahnung hast.
Vielleicht verrate ich es dir.
Hast wohl nen Clown verspeist..
Es ist etwas missverständlich geschrieben und man kann es, wenn man will,
so verstehen... war aber so nicht gemeint und ist ja auch klar von mir beantwortet worden.

Ausserdem, wieso muß ich eine 3080 haben um ein statement abgeben zu können, das die 3080 Serie NT Probleme hat ? Dazu wurde und wird doch allerorts getestet und geschrieben , oder blendest Du das aus und willst das von jedem, der die Artikel verfolgt auch persönlich bestätigt bekommen durch eigene Tests. Willst Du mir sagen, das ich eine 3080 FE(whatsoever) an mein 550NT ohne Probleme betreiben könnte , wenn es schon das 750W NT der PCGH in den Abgrund gerissen hat ?
Selbst wenn ich das hätte testen wollen, wie hätte ich das machen sollen bei der miserablen Verfügbarkeit ?

woodsdog
2020-09-25, 16:45:32
Das Problem tritt ja erst bei 2GHz+ auf, und das ist auch genau die Grenze wo die GPUs einfach nicht mehr mitmachen.

Die Frage die ich hier gestellt habe ist nach wie vor offen, wo kommen diese 2GHz+ her???

Die meisten karten boosten ja max. 1900-1985MHz.

Das kannst du so doch gar nicht sagen. der 300ms GPU-Z Wert ist im Kontext komplett nutzlos wenn die Karte für 5ms auf 2030Mhz knallt und dann wieder für 11ms 1800Mhz zu haben um dann für 12ms 1920 MHz zu haben.

Schau dir doch die Messungen zum Strom bei igor an. Tausende Messwerte pro Sekunde.

Redneck
2020-09-25, 16:52:54
Naja, Du sagst Deine Vega läuft im Gegensatz zu einer 3080 problemlos mit Deinem NT ;). Etwas spitzfindig, aber im Grunde hat er Recht. Ferner empfiehlt AMD ein 650 Watt Netzteil für die Vega64, dann hast Du wohl Glück oder ein gutes Netzteil aber trotzdem eine Graka die einen ähnlichen Verbrauch bei halber Leistung im Vergleich zur RTX 3080 hat.
Er liegt falsch... das ist nur billige Wortklauberei und Unterstellung.
wie ich schrieb läuft meine Vega bei 176W.. kommst also mit deiner Kalkulation nicht hin... aber selbst als ich sie ohne UV betrieben hatte, spielte das NT ohne Probleme mit (hängt natürlich auch an der restlichen Last.. meine CPU frist wahrscheinlich weniger als deine). Wenn die 3080 also eine TDP von nur wenigen WATT mehr als eine VEGA64 hat, wieso reichen dann viele NT die wesentlich grösser dimensioniert sind als meines, nicht aus? Da liegt doch das Problem.

Thunder99
2020-09-25, 16:56:54
Um mal wieder zu spekulieren :wink:

Die RTX 3070 ist ja mehr oder weniger klar wie sie aussieht. Mit GDDR6 schätze ich sie auf +/-10 zur RTX 2080Ti ein.
Spannender wird daher wie könnte eine RTX 3770Ti/Super aussehen? :confused:

Voller GA104?
GDDR6X?
16GB

GDDR6 ist einfach zu langsam für eine anständige Performance beim vollen GA104. Die X sind ja derzeit eher Mangelware und für die GA102 reserviert. Dabei könnte mit dem Speicher halt die Transferrate auf >600GB/s gesteigert werden was ich denke notwendig ist.

Lawmachine79
2020-09-25, 17:03:29
Er liegt falsch... das ist nur billige Wortklauberei und Unterstellung.
wie ich schrieb läuft meine Vega bei 176W.. kommst also mit deiner Kalkulation nicht hin... aber selbst als ich sie ohne UV betrieben hatte, spielte das NT ohne Probleme mit (hängt natürlich auch an der restlichen Last.. meine CPU frist wahrscheinlich weniger als deine). Wenn die 3080 also eine TDP von nur wenigen WATT mehr als eine VEGA64 hat, wieso reichen dann viele NT die wesentlich grösser dimensioniert sind als meines, nicht aus? Da liegt doch das Problem.
Du hast einfach Glück. Weil...
https://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/Seasonic-Focus-Plus-550-Watt-Black-Screen-1269901/
Ist die Vega 64. Kein Einzelfall, betrifft eine ganze Reihe von Seasonic (Deine Marke und Deine Leistung sogar).

Netzteile sind eben Verschleißteile, da gibt es - anders als bei einer CPU z.B. - eben auch noch einen Bereich zwischen "funktioniert" und "funktioniert nicht".

igg
2020-09-25, 17:05:46
Um mal wieder zu spekulieren :wink:

Die RTX 3070 ist ja mehr oder weniger klar wie sie aussieht. Mit GDDR6 schätze ich sie auf +/-10 zur RTX 2080Ti ein.
Spannender wird daher wie könnte eine RTX 3770Ti/Super aussehen? Ich denke, dass die GTX 3070 16 GB die Gamer Karte werden könnte. Wieso?
- GTX 3080 und 3070 haben zu wenig RAM
- Gleichzeitig haben sie viel Rechenpower
- Das naheliegende Ziel von 3080 10 GB und 3070 8 GB: Raytracing massentauglich machen. Turing war da allenfalls ein Türöffner
- Eine 3070 16 GB zu Beginn wäre die komplettere Grafikkarte gewesen, hätte aufgrund des seit 2016 hohen RAM Preises das "Raytracing for the masses" Ziel verfehlt

basix
2020-09-25, 17:08:59
Er liegt falsch... das ist nur billige Wortklauberei und Unterstellung.
wie ich schrieb läuft meine Vega bei 176W.. kommst also mit deiner Kalkulation nicht hin... aber selbst als ich sie ohne UV betrieben hatte, spielte das NT ohne Probleme mit (hängt natürlich auch an der restlichen Last.. meine CPU frist wahrscheinlich weniger als deine). Wenn die 3080 also eine TDP von nur wenigen WATT mehr als eine VEGA64 hat, wieso reichen dann viele NT die wesentlich grösser dimensioniert sind als meines, nicht aus? Da liegt doch das Problem.

Igor hat Stromspitzen von knapp 500W gemessen bei der 3080 FE und 570W bei der 3090 FE. Da kommt selbst eine Vega VII mit 450W nicht hin. Jetzt da noch etwas OC der Hersteller drauf und die NT werden extrem belastet.

Netzteile sind eben Verschleißteile, da gibt es - anders als bei einer CPU z.B. - eben auch noch einen Bereich zwischen "funktioniert" und "funktioniert nicht".

Verschleissteile sind für mich Dinge, welche bei normaler Benutzung mit der Zeit abgenutzt werden und irgendwann ersetzt werden müssen. Und da gehört ein NT definitiv nicht in diese Kategorie :)

Und diesen Zwischenbereich gibt es definitiv auch nicht. Entweder mein PC läuft oder er läuft nicht.

Dural
2020-09-25, 17:10:05
Das kannst du so doch gar nicht sagen. der 300ms GPU-Z Wert ist im Kontext komplett nutzlos wenn die Karte für 5ms auf 2030Mhz knallt und dann wieder für 11ms 1800Mhz zu haben um dann für 12ms 1920 MHz zu haben.

Schau dir doch die Messungen zum Strom bei igor an. Tausende Messwerte pro Sekunde.

Die betroffenen sagen aber genau das, laut GPUZ über 2GHz und zurück im Desktop.

basix
2020-09-25, 17:22:40
Da scheint die Voltage/Clock Table einfach suboptimal umgesetzt zu sein / zu hohes OC. Und schlechtere Caps könnten den ungünstigen Effekt noch verstärken, wenn kurze Lastspitzen zu einem lokalen Spannungsabfall führen und man kurzfristig zu wenig Saft auf der GPU hat.

Asaraki
2020-09-25, 17:25:48
Verschleissteile sind für mich Dinge, welche bei normaler Benutzung mit der Zeit abgenutzt werden und irgendwann ersetzt werden müssen. Und da gehört ein NT definitiv nicht in diese Kategorie :)

Und diesen Zwischenbereich gibt es definitiv auch nicht. Entweder mein PC läuft oder er läuft nicht.


Also das würde ich beides nicht bestätigen wollen.
Ein Netzteil kommt ganz klar "in die Jahre", während Silizium das eigentlich nicht tut. Natürlich gibt es auch NTs, die Jahrzehnte halten, aber grundsätzlich wird keiner ein 15 Jahre altes NT vorziehen weil sich das "so schön eingelebt" hat ^^

Ob der Begriff "Verschleissteil" allerdings passt, fragwürdig. Dafür hält es dann doch zu lange. Aber im PC ist es neben den Lüftern vermutlich das am schnellsten "Verschlissene" seit es kaum noch HDDs gibt. Alles andere in meinem PC hält im Durchschnitt ganz bestimmt länger.

Und ein PC läuft nicht einfach oder läuft gar nicht. Ausser du willst alles, was nicht 365d/24h rock stable läuft als "läuft nicht" bezeichnen. Mein PC spackt alle x-Wochen mal rum, Problem bis heute nicht gefunden, aber ich kann jeden Tag sorgenfrei damit arbeiten und spielen, aber eigentlich "läuft er ja nicht" :D

Daredevil
2020-09-25, 17:31:09
Hast wohl nen Clown verspeist..
Es ist etwas missverständlich geschrieben und man kann es, wenn man will,
so verstehen... war aber so nicht gemeint und ist ja auch klar von mir beantwortet worden.

Ausserdem, wieso muß ich eine 3080 haben um ein statement abgeben zu können, das die 3080 Serie NT Probleme hat ? Dazu wurde und wird doch allerorts getestet und geschrieben , oder blendest Du das aus und willst das von jedem, der die Artikel verfolgt auch persönlich bestätigt bekommen durch eigene Tests. Willst Du mir sagen, das ich eine 3080 FE(whatsoever) an mein 550NT ohne Probleme betreiben könnte , wenn es schon das 750W NT der PCGH in den Abgrund gerissen hat ?
Selbst wenn ich das hätte testen wollen, wie hätte ich das machen sollen bei der miserablen Verfügbarkeit ?
Weißt du was mich stört? Unwahrheiten.

Wenn du sagst "Mit ner 3080 habe ich nicht die Probleme wie mit meiner Vega", dann sind das unbelegte Fakten, weil du damit ausdrückst, dass eine 3080 bei dir Probleme macht. Macht sie das? Nope.
Hättest du geschrieben "Eine 3080 könnte bei mir eher Probleme machen", wäre ich damit fein, weil das ja immerhin stimmt.
Doch so produziert du hiermit nur billige Fakenews die nichts mit "Fakten" zutun haben.

Also wenn du etwas behauptest, beleg es doch einfach das nächste mal, dann kommt auch kein Daredevil, der rum meckert.
Weil das geht mir hier nämlich arg auf den Strich, das Wahrheiten ohne Belege gedroppt werden, wir sind ja nicht bei Twitter.

Ausserdem, wieso muß ich eine 3080 haben um ein statement abgeben zu können, das die 3080 Serie NT Probleme hat ?
Brauchst du nicht, das entspricht ja der Wahrheit.
Oder willst du mir jetzt sagen, das jedes Netzteil mit 550w auf dieser Welt zu klein für ne 3080 ist? Da bewegen wir uns nämlich wieder in Richtung Fakenews.

Raff hat hier noch was auf Pornhub veröffentlicht:
3CUcU8fx0ls

Dural
2020-09-25, 17:32:53
Da scheint die Voltage/Clock Table einfach suboptimal umgesetzt zu sein / zu hohes OC. Und schlechtere Caps könnten den ungünstigen Effekt noch verstärken, wenn kurze Lastspitzen zu einem lokalen Spannungsabfall führen und man kurzfristig zu wenig Saft auf der GPU hat.

Das ist schon klar, aber in keinem Test kann man was von Boost bis 2050MHz lesen.

Daher kann ich es nicht nachvollziehen wo dieser Takt herkommt.

Mir scheint das ganz klar ein Software Problem zu sein.

Troyan
2020-09-25, 17:37:41
bei Techpowerup sind es bei der MSI im schnitt 2045MHz und bis zu 2085MHz: https://www.techpowerup.com/review/msi-geforce-rtx-3080-gaming-x-trio/30.html

Die haben eben den Offset um +100MHz erhöht.

dargo
2020-09-25, 17:44:30
Um mal wieder zu spekulieren :wink:

Die RTX 3070 ist ja mehr oder weniger klar wie sie aussieht. Mit GDDR6 schätze ich sie auf +/-10 zur RTX 2080Ti ein.
Spannender wird daher wie könnte eine RTX 3770Ti/Super aussehen? :confused:

Voller GA104?
GDDR6X?
16GB

GDDR6 ist einfach zu langsam für eine anständige Performance beim vollen GA104. Die X sind ja derzeit eher Mangelware und für die GA102 reserviert. Dabei könnte mit dem Speicher halt die Transferrate auf >600GB/s gesteigert werden was ich denke notwendig ist.
Es gibt noch keine Skalierungsvergleiche bei Änderung der Bandbreite der 3070 (eine 3070 wurde noch nicht mal released) und du willst schon wissen, dass die 3070 an GDDR6 verhungert? Verkehrte Welt. :freak:

Sardaukar.nsn
2020-09-25, 17:45:57
bei Techpowerup sind es bei der MSI im schnitt 2045MHz und bis zu 2085MHz: https://www.techpowerup.com/review/msi-geforce-rtx-3080-gaming-x-trio/30.html

Die haben eben den Offset um +100MHz erhöht.

Sieht gut aus, trotz Powerlimit von "nur" :freak: 350 Watt.

basix
2020-09-25, 17:53:29
Sieht gut aus, trotz Powerlimit von "nur" :freak: 350 Watt.

1080p steht im Text dabei ;)

Thunder99
2020-09-25, 17:56:42
Es gibt noch keine Skalierungsvergleiche bei Änderung der Bandbreite der 3070 (eine 3070 wurde noch nicht mal released) und du willst schon wissen, dass die 3070 an GDDR6 verhungert? Verkehrte Welt. :freak:
Ich spekuliere anhand des bekannten von Turing :freak:

dargo
2020-09-25, 17:59:03
Ich spekuliere anhand des bekannten von Turing :freak:
Zeitverschwendung. :)

Andi Y
2020-09-25, 17:59:50
Nicht das am Ende die Leute mit den neuen Karten den neuen OC-Scanner vom Afterburner getestet hatten.
Da hat sich ja anscheinend was geändert.

"OC Scanners's results are now persistent. It means that once the scanning process succeeds,
NVIDIA driver internally saves optimized voltage/frequency curve and overclocked memory clock and apply them as new system defaults after reboot,
even if you close or uninstall overclocking application.
Now there is new "Revert" button inside MSI Overclocking Scanner, which allows you to revert overclocked curve and memory clocks to their real defaults"
https://www.guru3d.com/files-details/msi-afterburner-beta-download.html

r3ptil3
2020-09-25, 18:00:45
bei Techpowerup sind es bei der MSI im schnitt 2045MHz und bis zu 2085MHz: https://www.techpowerup.com/review/msi-geforce-rtx-3080-gaming-x-trio/30.html

Die haben eben den Offset um +100MHz erhöht.

Interessanter Hinweis, habe ich nicht so wirklich beachtet und sogar die selben Kondensatoren wie mein Modell.

Meine 3080 Gaming X Trio hat keine +25Mhz Offset mitgemacht und ist stattdessen sofort gecrashed.

basix
2020-09-25, 18:04:04
Interessanter Hinweis, habe ich nicht so wirklich beachtet und sogar die selben Kondensatoren wie mein Modell.

Meine 3080 Gaming X Trio hat keine +25Mhz Offset mitgemacht und ist stattdessen sofort gecrashed.

Und die 1080p hast du gesehen?

r3ptil3
2020-09-25, 18:06:25
Und die 1080p hast du gesehen?

Nein, wo?

https://tpucdn.com/review/msi-geforce-rtx-3080-gaming-x-trio/images/clocks-and-thermals.png

GPU Auslastung gemäss der Grafik zumindest bei annähernd 100%.

Edit:
@basix

Gut beachtet, habe ich wirklich übersehen, stimmt!

Pubg bspw. taktete die 3080 bei Low Settings auch deutlich höher und stabil.

Troyan
2020-09-25, 19:39:42
Das ist ja das Problem. Ist die Karte nicht richtig ausgelastet - aka Powerlimit - boosten sie bis an den höchsten Step. Und wenn man den Offset dann einfach +100 macht, liegt man bei ~2100MHz statt ~2000MHz. Und das kann zu Abbrüchen führen, wenn die Taktrate bei der anliegenden Spannung nicht mehr stabil läuft.

dargo
2020-09-26, 10:06:18
Du willst also damit andeuten, dass alle Meldungen bezüglich Crashes von non OC-Karten Lügen waren? Offset verstellen ist ja nichts weiter als OC. Wäre schon harter Tobak.

Edit:
Es gibt viel zu viele Faktoren um das so runter zu brechen es können instabile Treiber, instabile Games wie Divsion 2 schlechte Netzteile etc sein.
vllt. lässt die sparbestückung selbst gute PSUs schlecht aussehen.

EVGA gibt den Fehler selber zu.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12439936&postcount=1515

TobiWahnKenobi
2020-09-26, 10:08:18
tjo.. schätze, genau darum habe ich keine karte bekommen :-) AFAIR hatte ich noch auf die umbauwütigen jungs eingequatscht, dass sie ihre karten erstmal nutzen sollen bevor sie pauschal alles umbauen.. wer weiss, was da diesesmal auseinanderfliegt.. wie anno knips der RAM bei den turings. schön, dass mein bauch wieder den richtigen riecher hatte. irgendwas ist immer..


(..)

mfg
tobi

dildo4u
2020-09-26, 10:10:19
Du willst also damit andeuten, dass alle Meldungen bezüglich Crashes von non OC-Karten Lügen waren? Offset verstellen ist ja nichts weiter als OC. Wäre schon harter Tobak.
Es gibt viel zu viele Faktoren um das so runter zu brechen es können instabile Treiber, instabile Games wie Divsion 2 schlechte Netzteile etc sein.

TobiWahnKenobi
2020-09-26, 10:12:06
vllt. lässt die sparbestückung selbst gute PSUs schlecht aussehen.


(..)

mfg
tobi

gbm31
2020-09-26, 10:20:54
Nanu? Jetzt ist auf einmal Ruhe im Karton?

Ich frag mich immer noch was Nvidia geritten hat Ampere so wie erfolgt zu launchen...

Die "schlechte" Bestückung ist streng genommen korrekt nach Spec.

MiamiNice
2020-09-26, 10:23:36
Nochmal in diesen Thread:

zur CTD Thematik:

https://videocardz.com/newz/manufacturers-respond-to-geforce-rtx-3080-3090-crash-to-desktop-issues

Ich schicke definitiv jede Karte back wenn ich nur einen Poscap sehe.

Badesalz
2020-09-26, 10:31:18
Igor hat Stromspitzen von knapp 500W gemessen bei der 3080 FE und 570W bei der 3090 FE. Da kommt selbst eine Vega VII mit 450W nicht hin. Jetzt da noch etwas OC der Hersteller drauf und die NT werden extrem belastet.
Redet ihr hier von den CTDs? (crash to desktop) Paar der Betroffenen konnten doch das Netzteil recht zeitnah auf ein um 100W (?) stärkeres testweise tauschen und da tat sich nichts. Das gleiche. Das ist doch auch bei dem typ vom CB-Forum so.

Denke die BIOSe bzw. das BIOS ;) haben fehlerhafte Konfigs. Fertig. Spannung ist restriktiver eingestellt, damit die GPU das TBP nicht sprengt, Boost-Takt kann aber AUCH bei nicht OC-Karten unter Umständen knapp über 2Ghz ziehen und dann reicht es nicht -> "Treiberreset".
Wenns nicht kardinal daneben, bedeutet das schon seit Win7 CTD. Unter XP wären das imho alles astreine BSODs.

Ganz knapp daneben ist aber auch vorbei. Wenn sich das nun im Treiber lösen lässt, wäre das noch ok. Falls man die BIOSe neu flashen muss wirds weniger schön.

Die BIOSe müssen drauf ausgelegt sein wie die HW gebaut werden darf. Für mich ist das also nicht ein Problem von Poscap vs. MLCC.
Das geht imho eh nicht sich da so festzulegen :rolleyes: Poscaps haben halt auch klare Vorteile gegenüber MLCCs und das sind genau eher die Vorteile, die man auf einer Graka haben möchte...

Das ganze ist nicht dafür gedacht mit >2Ghz gefahren zu werden. FERTIG. Wenn man das deckelt ist eigentlich alles gut =) Nur hat man hier leider das Pech gehabt zu haben das viel zu spät geschnallt bzw. eingesehen zu haben.
Und jetzt ist man sich nicht sicher, ob die Stabilität zukünftig (Spielelast) auch bei <2Ghz erhalten bleibt. Kleinwenig Reserve wird immer eingeplant und die hat man aktuell nicht. Deswegen bauen nun die meisten nun um.

Wer weiß was also wirklich für die Knappheit verantowrtlich ist. Vielleicht ist das eben DIESES Prob, daß man so wenig Karten rausgehauen hat.

Daredevil
2020-09-26, 11:03:11
RAM Belegung von HWLuxx
https://twitter.com/aschilling/status/1309392083640365056/photo/1
https://pbs.twimg.com/media/EivlKLmXgAIKwyw?format=jpg&name=medium

Bin ich ja mal gespannt, ob der Ex3 jetzt jede verfügbare FullHD Karte als Elektroschrott bezeichnet, weil Crysis. D:

r3ptil3
2020-09-26, 11:10:35
RAM Belegung von HWLuxx
https://twitter.com/aschilling/status/1309392083640365056/photo/1
https://pbs.twimg.com/media/EivlKLmXgAIKwyw?format=jpg&name=medium

Bin ich ja mal gespannt, ob der Ex3 jetzt jede verfügbare FullHD Karte als Elektroschrott bezeichnet, weil Crysis. D:

Wie kann man die RAM Belegung richtig werten?

Je nach Speicherkonfiguration besetzt ein Spiel doch auch mehr Speicher als benötigt oder stimmt das nicht?

Eine 2080 Super oder 5700 XT hat in Doom 4k keine Probleme, trotz 8Gb VRAM.

dargo
2020-09-26, 11:11:36
Nochmal in diesen Thread:

zur CTD Thematik:

https://videocardz.com/newz/manufacturers-respond-to-geforce-rtx-3080-3090-crash-to-desktop-issues

Ich schicke definitiv jede Karte back wenn ich nur einen Poscap sehe.
Du zerlegst also viele Karten und dann schickst du sie zurück. Interessantes Vorgehen... :uponder: Da freut sich bestimmt der Nächste an diesen Karten. Oder bestellst du nur Karten wo die Backplate die betroffene Stelle nicht verdeckt?

RAM Belegung von HWLuxx
https://twitter.com/aschilling/status/1309392083640365056/photo/1
https://pbs.twimg.com/media/EivlKLmXgAIKwyw?format=jpg&name=medium

Bin ich ja mal gespannt, ob der Ex3 jetzt jede verfügbare FullHD Karte als Elektroschrott bezeichnet, weil Crysis. D:
Geht die Märchenstunde mit Memory Allocation wieder los? OMG... :facepalm:

Wie kann man die RAM Belegung richtig werten?

Gar nicht. Entsprechende Tools liefert kaum ein Spiel um die Wahrheit zu erfahren.


Je nach Speicherkonfiguration besetzt ein Spiel doch auch mehr Speicher als benötigt oder stimmt das nicht?

Richtig.

Raff
2020-09-26, 11:11:40
Crysis Remastered belegt in 8K mehr VRAM als unter Ultra HD (nicht 4K), das sollte klar sein. Sieht man auch daran, dass in 6K aufwärts nur noch eine RTX 3090 halbwegs steuerbare Fps rausdrückt (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/RTX-3090-Vergleich-8K-Benchmarks-1358438/).

MfG
Raff

MiamiNice
2020-09-26, 11:21:10
@Badesalz:
Wer will sich schon auf 2Ghz deckeln lassen wenn es da draußen Karten gibt die auch mit mehr Ghz laufen da sie keine Poscaps haben? Ich peile auf der 3090 jedenfalls 21xx Mhz an und zwar dauerhaft mit WaKü. Da kann ich keine Poscaps auf der Karte gebrauchen. Ich vermute mit der Meinung bin ich nicht alleine, ich sehe sehr viele Rückläufer die nächsten Tage. Wer 1500+ für eine Karte ausgibt will i.d.R. keine Kompromisse machen.
Selbst die FE Karten haben 4 Poscaps und lassen sich deswegen nicht so gut takten. Sieht man ja auch schön in den Reviews der FE Karten, während eine Asus Strix mit 2100+ läuft ootb.

Daredevil
2020-09-26, 11:23:01
Wer 1500+ für eine Karte ausgibt will i.d.R. keine Kompromisse machen.
Selbst die FE Karten haben 4 Poscaps und lassen sich deswegen nicht so gut takten.
+1

dargo
2020-09-26, 11:25:49
@Badesalz:
Wer will sich schon auf 2Ghz deckeln lassen wenn es da draußen Karten gibt die auch mit mehr Ghz laufen da sie keine Poscaps haben? Ich peile auf der 3090 jedenfalls 21xx Mhz an und zwar dauerhaft mit WaKü. Da kann ich keine Poscaps auf der Karte gebrauchen. Ich vermute mit der Meinung bin ich nicht alleine, ich sehe sehr viele Rückläufer die nächsten Tage. Wer 1500+ für eine Karte ausgibt will i.d.R. keine Kompromisse machen.
Selbst die FE Karten haben 4 Poscaps und lassen sich deswegen nicht so gut takten.
Lol... die 3090 ist doch schon ein Kompromiss, ist kein vollwertiger Chip. ;) Das ganze Rumgeeier für 2,1Ghz vs. 2Ghz für ~2% mehr Performance? :ulol:

Emil_i_Lönneberga
2020-09-26, 11:43:54
RAM Belegung von HWLuxx
https://twitter.com/aschilling/status/1309392083640365056/photo/1
https://pbs.twimg.com/media/EivlKLmXgAIKwyw?format=jpg&name=medium

Bin ich ja mal gespannt, ob der Ex3 jetzt jede verfügbare FullHD Karte als Elektroschrott bezeichnet, weil Crysis. D:



Ich dachte, man hat sich auf den Begriff "Schrott-Software-Sicherheit" geeinigt ;D und dass man sich darüber erst ab 16GB VRAM freuen darf ;D.

Aus dem geschlossenen "vorab 3080 Review Thread", in dem die Zitierfunktion kaputt ist:

y33H@
Für 1080p - selbst mit Raytracing - ist die RTX 3080 völlig overpowered.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420768&postcount=313

aufkrawall
Außer beim VRAM:
https://youtu.be/bis97EE3ROw

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420771&postcount=314

Ex3cut3r
Es spikt/ruckelt aufgrund der 8GB VRAM schon in FHD.
https://youtu.be/bis97EE3ROw?t=124

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420782&postcount=316

y33H@
Liegt wohl eher am Spiel als am Videospeicher ^^

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420826&postcount=329

aufkrawall
Das ist kein Argument, eben um solche Schrott-Software geht es. Laut Raff liegts am VRAM:
https://youtu.be/7G0D-ppXIkI?t=363
Mehr hilft mehr, ganz einfach. Was diese Realitätsverweigerung soll...

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420848&postcount=333

y33H@
Wer Schrott-Software-sicher sein will, kauft die RTX 3090 oder den 20GB Refresh oder RDNA2 ...

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420864&postcount=338

Raff
Schrott-Software-Sicherheit. Gefällt mir. Lasst uns das etablieren.

MfG
Raff

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420867&postcount=341

ChaosTM
2020-09-26, 11:46:27
Crysis Remastered belegt in 8K mehr VRAM als unter Ultra HD (nicht 4K), das sollte klar sein. Sieht man auch daran, dass in 6K aufwärts nur noch eine RTX 3090 halbwegs steuerbare Fps rausdrückt (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/RTX-3090-Vergleich-8K-Benchmarks-1358438/).

MfG
Raff


Danke

Netter Ausblick in die Zukunft. Wie zu erwarten war ist falsches Sparen beim Speicher niemals eine gute Idee. Speziell in diesen Sphären.

Der nächstes Jahre anstehende 5040x2160er Monitor würde mit 10GB wenig Freude haben.. ^^

Fragman
2020-09-26, 12:00:22
Das gute an der verrückten 8K Diskussion, in 2 Jahren wird sie durch die "ludicrous 16K" Diskussion abgelöst. Währenddessen wir uns darüber unterhalten, wie man in 4K 60fps und RT mit den richtigen Settings hinbekommt. :D ;)

BlacKi
2020-09-26, 12:03:19
Nochmal in diesen Thread:

zur CTD Thematik:

https://videocardz.com/newz/manufacturers-respond-to-geforce-rtx-3080-3090-crash-to-desktop-issues

Ich schicke definitiv jede Karte back wenn ich nur einen Poscap sehe.
hast du den statement zu evga gelesen? die haben selbst tests gemacht und die poscap deshalb nicht ganz ersetzt. die sind der meinung das 4-5 poscap keinen einfluss auf das OC und stabilität mehr haben. ich gehe davon aus, das wir uns in zukunft mit einer gewissen zahl abfinden werden müssen, da jeder hersteller darauf aufspringen wird.

eine karte mit 0 poscaps wird seltenheitswert bekommen wenn ich richtig liege.

Linmoum
2020-09-26, 12:07:26
Woraus liest du, dass das keinen Einfluss auf OC haben wird?

EVGA sagt im Prinzip nur, dass laut deren Tests für höhertaktende Customs 4x/2x ausreicht und bei den niedrig(er) taktenden Customs 5x/1x. Und 6x/0x halt kompletter Crap ist.

Danke an NV übrigens, dass sie vielen Boardpartnern scheinbar lange keine Treiber zur Verfügung gestellt haben und sich die Boardpartner ausschließlich auf NV Richtlinien zur Bestückung verlassen mussten, ohne testen zu können.

RoughNeck
2020-09-26, 12:08:11
Wer sich eine 10GB 3080 gekauft hat, ist halt selber schuld.
Nvidia hat das ziemlich schlau gemacht. Erst 10GB Karten bringen um die Fanbabies zu kriegen und dann eine 20GB Version ankündigen ;D
Gut gemacht Lederjacke!

horn 12
2020-09-26, 12:09:12
Für 899 Euro und AMD bringt Big Navi für 649 Euro :-)

RoughNeck
2020-09-26, 12:16:20
AMD bringt eh nichts auf die Reihe, da kann Nvidia noch so viel falsch machen, AMD setzt da immer noch einen drauf und treibt Kunden zu Nvidia.
Bei den GPUs sind die halt zu blöd.

dargo
2020-09-26, 12:16:46
Das gute an der verrückten 8K Diskussion, in 2 Jahren wird sie durch die "ludicrous 16K" Diskussion abgelöst. Währenddessen wir uns darüber unterhalten, wie man in 4K 60fps und RT mit den richtigen Settings hinbekommt. :D ;)
Richtig. :D Zumal dann nicht nur die RT-"Bremse" dazu kommt sondern auch die "Bremse" der richtigen Nextgen-Titel. Ergo allgemeine Steigerung der GPU-Last ohne RT.

AMD bringt eh nichts auf die Reihe, da kann Nvidia noch so viel falsch machen, AMD setzt da immer noch einen drauf und treibt Kunden zu Nvidia.
Bei den GPUs sind die halt zu blöd.
Interessante These... also war Nvidia bei Turing bis zur 2070S auch zu blöd GPUs zu entwickeln. :uponder:

RoughNeck
2020-09-26, 12:23:00
Interessante These... also war AMD bis zur 2070S auch zu blöd GPUs zu entwicklen. :uponder:

Ja, ist nach wie vor zu blöd.

BlacKi
2020-09-26, 12:28:58
Woraus liest du, dass das keinen Einfluss auf OC haben wird?

EVGA sagt im Prinzip nur, dass laut deren Tests für höhertaktende Customs 4x/2x ausreicht und bei den niedrig(er) taktenden Customs 5x/1x. Und 6x/0x halt kompletter Crap ist.

Danke an NV übrigens, dass sie vielen Boardpartnern scheinbar lange keine Treiber zur Verfügung gestellt haben und sich die Boardpartner ausschließlich auf NV Richtlinien zur Bestückung verlassen mussten, ohne testen zu können.
weil das die topmodelle sind und für OC gedacht sind?
wenn 10 mlcc reichen um 1900-2000mhz zu stabilisieren, dann reichen 20mlcc für 2000-2100mhz.
evga spart nicht an 5 euro bauteilen um dann als OC krücken zu gelten. die haben so oder so einen hohen preislichen einstieg.

das die AIBs keine treiber erhalten ist aus mehreren gründen scheiße. vorallem deshalb weil wir praktisch keine leaks haben^^

w0mbat
2020-09-26, 12:57:55
LOL!
oRBdACSiZZk

MiamiNice
2020-09-26, 13:04:30
hast du den statement zu evga gelesen? die haben selbst tests gemacht und die poscap deshalb nicht ganz ersetzt. die sind der meinung das 4-5 poscap keinen einfluss auf das OC und stabilität mehr haben. ich gehe davon aus, das wir uns in zukunft mit einer gewissen zahl abfinden werden müssen, da jeder hersteller darauf aufspringen wird.

eine karte mit 0 poscaps wird seltenheitswert bekommen wenn ich richtig liege.


Hast Du eventuell die Tests der Asus Karten verpasst? Techpowerup hat einen schönen und allgemein gehen die TUFs auf viel besser als alle anderen Karten am Markt. Es ist sogar so schlimm, dass man alle Test auf anderen Karten in die Tonne hauen kann. Die Karten boosten alle nicht richtig, selbst die FE.

dildo4u
2020-09-26, 13:08:54
Wieso boostet sie nicht richtig sie haben minderwertige Samsung Fertigung genommen damit sie mehr Marge machen, deshalb hat sich der Takt nicht bewegt die FE ist offiziell immer noch bei 1.7Ghz wie die Turing 2080.

MiamiNice
2020-09-26, 13:11:49
Trotz minderwertiger Fertigung boosten aber andere Karten über 2100Mhz. Wie kann es also sein das die FE unter 1800 bleibt? Lässt Asus die Chips heimlich bei TSMC in 7 fertigen?

Irgendwo auf Reddit gibt es eine Tabelle von mehreren User mit diversen Karten. Hatte ich heute morgen entdeckt. Je weniger Poscaps desto mehr Takt.

Daredevil
2020-09-26, 13:23:46
Ganz viel Geekzeug und Infos zum Thema, tiefer beleuchtet als von Igor
GPFKS8jNNh0

ChaosTM
2020-09-26, 13:29:54
Da ist gar nix tiefer beleuchtet. 1:1 Igor - völlig useless imho. Das selbe gilt für Jay ;)

"Influencers" halt :rolleyes:

add.:

MKBHD und Linus sind ganz ok ;)

Daredevil
2020-09-26, 13:32:05
Da ist gar nix tiefer beleuchtet. 1:1 Igor - völlig useless imho. Das selbe gilt für Jay ;)

"Influencers" halt :rolleyes:
Na immerhin hat er das Bauteil richtig benannt.
Hast du dir das Video überhaupt angeschaut?

ChaosTM
2020-09-26, 13:35:18
Ja, ich hab das ganze Video gesehen. Die Zeit gibt mir niemand zurück..

w0mbat
2020-09-26, 13:39:10
Na immerhin hat er das Bauteil richtig benannt.
Hast du dir das Video überhaupt angeschaut?
POSCAP ist ein Begriff wie "Tempo", der wird allgemein verwendet. BZ weiß das anscheinend nicht, wehalb er sich aufspielt. Etwas peinlich.

Und er redet ja anfangs auch von OC, aber darum geht es ja gar nicht. Ich glaube er hat einfach schnell ein Video machen wollen und sich dann verzettelt.

prinz_valium_2
2020-09-26, 13:46:01
Vor allem nennt Igor doch eh beide Begriffe und erklärt die gibt es mit Alu oder Polymer
Zumindest im Video.


Minute 4:45
7YQ7rNgoqMA

dargo
2020-09-26, 13:47:53
Trotz minderwertiger Fertigung boosten aber andere Karten über 2100Mhz. Wie kann es also sein das die FE unter 1800 bleibt? Lässt Asus die Chips heimlich bei TSMC in 7 fertigen?

:freak:

Erst einmal... wie kommst du darauf, dass die 3090FE unter 1,8Ghz bleibt? Bei der PCGH sehe ich dort ca. 1,84Ghz bei der 3090FE und ~1,88Ghz bei der 3080FE.
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/2/

Zweitens... schon mal daran gedacht, dass die Customs einfach nur durch höheres PT als 350W paar Mhz-chen mehr rausquetschen? Und eine Serienstreuung gibt es wie immer bei jeder GPU-Generation.

Edit:
Man sollte dabei auch immer beachten unter welchen Umständen diese 2,1Ghz erreicht wurden.

Die Karte boostet, wenn sie kühl genug ist und die GPU-Last die 20% nicht überschreitet bis auf 1950 MHz. Allerdings ist dies eine Art Schönwetter-Boost, der bei meinem sehr extrem fordernden Testspiel dann bei steigender Temperatur von 1850 MHz bis auf ca. 1740 MHz einbricht.

https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/17/

Igor stresst die Karte mit Witcher 3 welches schon ganz gut heizt (Wattage).

Diese "Jagd" nach dem letzten Mhz ist einfach nur noch albern. Am Ende kommen dann 2-3% mehr Performance raus. :freak: Begreift doch endlich, dass GA102 komplett am Limit schon per Default betrieben wird. Das ist kein "Overclockers-Dream".

Edit:
Hier siehst du auch wie unterschiedlich die Boosttaktraten je Spiel ausfallen, es gibt nicht die Spielelast. Dass CB jetzt keine 3090FE getestet hat spielt dabei keine Rolle.
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/#abschnitt_die_taktraten_unter_last

Thema Serienstreuung und/oder unterschiedliche Stromversorgung bezüglich Effizienz.
MSI hat auf der GeForce RTX 3090 Gaming X offenbar eine gut funktionierende GA102-GPU erwischt, oder eine effizientere Stromversorgung umgesetzt, denn trotz identischem Power Limit sind die Frequenzen durchweg höher als bei dem Konkurrenzmodell. Der höchste Takt liegt in COD: Modern Warfare an, dort arbeitet die Grafikkarte mit 1.800 bis 1.965 MHz. Der niedrigste Takt lässt sich dagegen in The Division 2 mit 1.545 bis 1.830 MHz messen. In den meisten Spielen liegt der Wert irgendwo dazwischen. Die Gigabyte GeForce RTX 3090 Gaming OC taktet durchweg niedriger. In COD liegen bei der Grafikkarte 1.755 bis 1.920 MHz an, in The Division 2 sind es noch 1.620 bis 1.740 MHz.

Alles bekannte Basics anderer GPU-Generationen.

Daredevil
2020-09-26, 13:49:39
POSCAP ist ein Begriff wie "Tempo", der wird allgemein verwendet.
Wahnsinn. Vor einem Tag wusste niemand, was dieses Bauteil auf der Rückseite überhaupt macht und jetzt haben wir alles voller Profis im Forum, die mit Fachbegriffen um sich werfen. :D
Am Ende ist es doch egal, wie die Dinger heißen, man muss hier nicht alles blind nachplappern und so tun, als wäre man Elektro Ingenieur. Je mehr Infos man bekommt ( von Leuten, die verstehen was sie tun ), desto besser.

w0mbat
2020-09-26, 13:57:16
Also lieber keine Videos schauen oder Artikel lesen, damit man nichts versteht?

MiamiNice
2020-09-26, 14:00:20
Wahnsinn. Vor einem Tag wusste niemand, was dieses Bauteil auf der Rückseite überhaupt macht und jetzt haben wir alles voller Profis im Forum, die mit Fachbegriffen um sich werfen. :D

So sieht es aus XD

rentex
2020-09-26, 14:05:35
Für die aktuellen Probleme gibt es anscheinend mehrere Ursachen. Der schwerwiegenste heißt Nvidia. So wie sich die Lage präsentiert, hatten sie zu wenig Zeit, für ihre Customs und keinen Treiber seitens NV.

Daredevil
2020-09-26, 14:09:12
Also lieber keine Videos schauen oder Artikel lesen, damit man nichts versteht?
Wer bist du, das ich dir glauben sollte, das "POSCAP" quasi wie "Tempo" ist?
Wo hast du das her? Weil die meisten hier sind keine ausgebildeten Ingenieure und haben Null Plan von der Materie. ( Ich habe am wenigsten Ahnung von allem! )
Kann sein, dass ich mich bei dir täusche. Aber du bist nicht im Forum durch ein hohes technischen Wissen aufgefallen ( Ich am wenigsten ), deswegen klingt es einfach so, als würdest du eine Schlagzeile am Stammtisch weiter verbreiten.

Und natürlich kann man sich Infos reinballern. Man muss aber nach einem Wikipedia Artikel nicht so tun, als hätte man die Schlacht um Verdun verstanden.

w0mbat
2020-09-26, 14:26:08
Wer bist du, dass es mir wichtig sein sollte, ob du mir glaubst oder nicht?

Du könntest Igor oder EVGA glauben, aber auch das ist mir schnurz ;)

Daredevil
2020-09-26, 14:53:18
Das sollte dir überhaupt nicht wichtig sein, mir etwas zu erklären.
In einem Diskussionsforum kann es aber wichtig sein, Kredibilität zu besitzen.

Ne kleine Übersicht, was man erwarten kann von einer 3090:
jyZbArP-Y2w

Emil_i_Lönneberga
2020-09-26, 14:54:11
Die TUF(F) TUF(F) Eisenbahn läuft auch nicht rund:

https://twitter.com/i/web/status/1309659834468298753

ChaosTM
2020-09-26, 15:04:25
Das wächst sich immer mehr zu "Nvidias finest launch" aus :D

dargo
2020-09-26, 15:15:06
Die TUF(F) TUF(F) Eisenbahn läuft auch nicht rund:

https://twitter.com/i/web/status/1309659834468298753
Lol.. jetzt wirds unübersichtlich. Also auch kein Verlass ausschließlich auf MLCC. X-D

ChaosTM
2020-09-26, 15:29:36
Das sollte dir überhaupt nicht wichtig sein, mir etwas zu erklären.
In einem Diskussionsforum kann es aber wichtig sein, Kredibilität zu besitzen.

Ne kleine Übersicht, was man erwarten kann von einer 3090:
https://youtu.be/jyZbArP-Y2w


Horizon ruckelt auch mit 24GB und 4k. Zumindest in dem Video.

Wie lauft das Ding eigentlich auf der PS4 pro -- Weniger Stottereien ?

Langlay
2020-09-26, 15:34:10
Horizon ruckelt auch mit 24GB und 4k. Zumindest in dem Video.


Die 3 Spikes sind relativ harmlos. Bei na 3080 haste dort eine ganz andere Qualität und Quantität von Spikes.

dargo
2020-09-26, 15:44:50
Ne kleine Übersicht, was man erwarten kann von einer 3090:
https://youtu.be/jyZbArP-Y2w
Ich frage mich echt wo Miami seine 2,1Ghz gesehen hat? Im CPU-Limit? :freak: Hier sieht man ganz gut, dass eine Custom die sogar bis zu 380W säuft bsw. in HZD @4k gerade mal 1830Mhz erreicht. Und HZD ist eins der Spiele welches noch relativ harmlose GPU-Last hat. Der Boosttakt in diesem Spiel ist bei meiner RX 5700XT jedenfalls höher als bei vielen anderen Games. Bei gleichen PT-Limit von 150W versteht sich.

Linmoum
2020-09-26, 15:50:26
Garantierte 2.1GHz sind sowieso Quatsch, die sind nicht einmal mit Turing möglich. Schon da sind die eher die Ausnahme als Regel. Aber Miami nutzt ja dann auch keine Custom oder Luft, sondern Wasser. Da geht dann beim Takt natürlich mehr. Falls sich die Absturzproblematik bei >2GHz irgendwie fixen lassen sollte, dann wird man mit Wasser auch oberhalb dessen landen. Ist dann zwar immer noch eine OC-Krücke in der Hinsicht und Turing ohne Fortschritt, aber hey.

dargo
2020-09-26, 15:54:14
Schon klar, dass mit Wasser mehr geht. Aber auch nur wenn man ordentlich am Powerlimit dreht. Mit 350-380W kommt man auch mit Wasser garantiert nicht in die Region von 2,1Ghz. Das sind feuchte Träume. Mit 450+W und einem Golden Sample schon eher. Letzteres ist von mir höchstwahrscheinlich noch ziemlich tief gestapelt wenn ich die Spannungskurve von GA102 betrachte.

Emil_i_Lönneberga
2020-09-26, 16:22:54
Horizon ruckelt auch mit 24GB und 4k. Zumindest in dem Video.

Wie lauft das Ding eigentlich auf der PS4 pro -- Weniger Stottereien ?

Horizon läuft mit beiden nicht rund.

https://www.youtube.com/watch?v=NIr4ApPRFIA

71604

71605


Derselbe Vergleich in UHD zwischen 3080 und 3090 in weiteren Spielen:

Doom Eternal

https://www.youtube.com/watch?v=xPjgWC2rIIg

RDR2

https://www.youtube.com/watch?v=yo5hjT0cHZQ

Call of Duty Modern Warfare

https://www.youtube.com/watch?v=b7n_I0biJxM

SKYNET
2020-09-26, 16:26:32
Eh lustig... Pascal lies sich besser takten als turing, und turing besser als ampere... Nächste gen bewirbt NV dann mit "neues feature: die karten lassen sich im powerlimit reduzieren um abstürze zu vermeiden" 🤣

MiamiNice
2020-09-26, 16:32:12
Garantierte 2.1GHz sind sowieso Quatsch, die sind nicht einmal mit Turing möglich. Schon da sind die eher die Ausnahme als Regel. Aber Miami nutzt ja dann auch keine Custom oder Luft, sondern Wasser. Da geht dann beim Takt natürlich mehr. Falls sich die Absturzproblematik bei >2GHz irgendwie fixen lassen sollte, dann wird man mit Wasser auch oberhalb dessen landen. Ist dann zwar immer noch eine OC-Krücke in der Hinsicht und Turing ohne Fortschritt, aber hey.

Bei Techpowerup läuft die 3090 Strix ohne manuellem OC mit 2070 Mhz. Drosselt aber recht schnell aufgrund von Temps. Addiere eine potente WaKü dazu + manuelles OC per Curve Editor. Ich halte 2100+ stabil zumindest nicht für unmöglich. Genaueres weiß ich aber erst wenn meine Karte da ist und Aqua Computer den Strix Block fertig hat.

Langlay
2020-09-26, 16:38:22
Ich frage mich echt wo Miami seine 2,1Ghz gesehen hat? Im CPU-Limit? :freak: Hier sieht man ganz gut, dass eine Custom die sogar bis zu 380W säuft bsw. in HZD @4k gerade mal 1830Mhz erreicht. Und HZD ist eins der Spiele welches noch relativ harmlose GPU-Last hat. Der Boosttakt in diesem Spiel ist bei meiner RX 5700XT jedenfalls höher als bei vielen anderen Games. Bei gleichen PT-Limit von 150W versteht sich.

Meine 3090 mit Wasserkühler macht in HZD in 1440p so ~1950 MHz und allerdings bin ich dort auch leicht im CPU Limit. Powerdraw ist so 330-350W.

dargo
2020-09-26, 16:53:18
Meine 3090 mit Wasserkühler macht in HZD in 1440p so ~1950 MHz und allerdings bin ich dort auch leicht im CPU Limit. Powerdraw ist so 330-350W.
Setz da mal 4k drauf, komme aus dem CPU-Limit raus und du bist bestimmt bei ~400W. Von 1,95Ghz bis 2,1Ghz ist noch ein langer, durstiger Weg. ;)

Langlay
2020-09-26, 16:56:50
Setz da mal 4k drauf, komme aus dem CPU-Limit raus und du bist bestimmt bei ~400W. Von 1,95Ghz bis 2,1Ghz ist noch ein langer, durstiger Weg. ;)

400W geht nicht, Ich kann nur 350W +4% ^^.

MiamiNice
2020-09-26, 16:59:05
Deswegen möchte ich die Strix, die macht erst bei 440 Watt dicht :biggrin:

Langlay
2020-09-26, 17:03:55
https://abload.de/img/hzd4k2mkr8.jpg

In 4k macht sie 1890+-15MHz bei 350W.

Naja wenn ich mehr Power brauche gibts sicherlich auch ein anderen Bios dafür, ist ja das Referenzdesign.

Allerdings hab ich mein 24/7 Setting schon gefunden. 1800MHz @0.8V bringt 70-100W weniger Verbrauch bei minimalen Leistungsverlust <5%.

dargo
2020-09-26, 17:15:28
Bei Techpowerup läuft die 3090 Strix ohne manuellem OC mit 2070 Mhz.
Sag mal... liest du auch die Tests oder schaust du nur auf die höchste Frequenz? :freak:
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/30.html

For this test, we first let the card sit in idle to reach thermal equilibrium. Next, we start a constant 100% gaming load, recording several important parameters while the test is running. This shows you the thermal behavior of the card and how the fans ramp up as temperatures increase. Once temperatures are stable (no increase for two minutes), we stop the load and record how the card cools down over time.

Welche Spielelast haben die da angelegt? Jedes Spiel erzeugt andere Frequenzen.

Als weiteres sehe ich oben im ersten Diagramm im Schnitt 1920Mhz GPU-Takt. Das ist das Performancebios mit afaik 390W. Im Silent-Bios liegen im Schnitt 1890Mhz an, höchstwahrscheinlich dank weniger PT. Im dritten Diagramm sehe ich knapp unter 2Ghz anliegen. Und da wurde das PT schon auf 480W erhöht. Hör doch bitte auf endlich mit deinen Träumen @~2,1Ghz! Das ist ein Takt der nur ganz kurz bei einer kalten Karte anliegt. In einem Punkt stimme ich zu... wenn du es mit Wasser schaffst die GPU unter 50°C zu halten könnten diese 2070Mhz bei 480W PT durchaus klappen. Da ich aber weiter unten bei "Spannungsfrequenzanalyse" was von 1080p lese habe ich wieder meine Zweifel wenn die Schwachmatten diese ganze Untersuchung unter 1080p durchgeführt haben.

400W geht nicht, Ich kann nur 350W +4% ^^.
Ok... was für ein OC-Spielraum. :freak:

https://abload.de/img/hzd4k2mkr8.jpg

In 4k macht sie 1890+-15MHz bei 350W.

Hier sieht man wunderbar wieviel Frequenz du unter 4k einbüßt. Jede weitere Erhöhung wird in 4k umso deutlicher im Powerlimit an der Kotzgrenze spürbar.

Thunder99
2020-09-26, 17:15:35
Eingestellt via AB Kurve oder Offset?

MiamiNice
2020-09-26, 17:18:40
https://abload.de/img/hzd4k2mkr8.jpg

In 4k macht sie 1890+-15MHz bei 350W.

Naja wenn ich mehr Power brauche gibts sicherlich auch ein anderen Bios dafür, ist ja das Referenzdesign.

Allerdings hab ich mein 24/7 Setting schon gefunden. 1800MHz @0.8V bringt 70-100W weniger Verbrauch bei minimalen Leistungsverlust <5%.


Hast Du tatsächlich eine 3090FE ergattern können?

Langlay
2020-09-26, 17:38:09
Hast Du tatsächlich eine 3090FE ergattern können?

Ist ne Palit Gaming Pro. Bei der FE natürlich kein Glück, die FE nutzt aber auch nicht die Referenzplatine. Und ich wollte sogar speziell die Gainward/Palit Karte, Gigabyte mit dem komischen Stromanschluss is eher kacke für Waküumbau imo. Bei der Palit/Gainward sind die 8 Pins ganz normal auf der Platine angebracht. Ich hätte auch lieber ne OC Version gehabt, aber naja war halt nicht verfügbar.



Ok... was für ein OC-Spielraum. :freak:


Die 3090 könnte halt gut ne AMD Karte sein, OC ist fürn Arsch. Undervolting, this is the way. 1800MHz@0.8V und ab geht die Luzie.

gedi
2020-09-26, 18:26:52
@linoium
Gerade nochmals gegoogelt-hast recht

SKYNET
2020-09-26, 20:43:55
Die 3090 könnte halt gut ne AMD Karte sein, OC ist fürn Arsch. Undervolting, this is the way. 1800MHz@0.8V und ab geht die Luzie.

also meine AMD kärtchen liessen sich immer hervorragend takten... ok, meine NV karten auch... aber habe ja eh immer nen glückshändchen bei grakas gehabt :freak:

Dural
2020-09-26, 21:16:44
So die erste 3090 hat 2,6ghz unter ln2 gepackt, mit der ansage es geht noch mehr.

Linmoum
2020-09-26, 21:23:52
So die erste 3090 hat 2,6ghz unter ln2 gepackt, mit der ansage es geht noch mehr.LN2 für nur 2.6GHz? Das werden andere Karten nach heute wahrscheinlich unter Wasser fast packen. ;D

Sardaukar.nsn
2020-09-26, 21:26:29
Alphacool hat für mehrere Custom Modelle teils sehr eigene Wasserblöcke vorgestellt. Die Wasserführung für die Asus Strix finde ich ja ziemlich spannend :eek:

https://www.alphacool.com/new-products?p=1

https://www.alphacool.com/media/image/25/53/6f/3080_ROG_Strix_mit_Backplate_1020475_02.jpg

Spasstiger
2020-09-26, 21:27:02
Port Royal mit 2,55 GHz unter LN2 von Kingpin: https://www.3dmark.com/pr/328191
Ich denke, das sind Regionen, die mit WaKü nicht erreichbar sind. Das Power Target hierfür ist afaik 900 Watt.

dargo
2020-09-26, 21:41:17
Ach was... über 900W lacht die Wakü von Miami. :tongue:

Troyan
2020-09-26, 21:48:01
So die erste 3090 hat 2,6ghz unter ln2 gepackt, mit der ansage es geht noch mehr.

54 TFLOPs FP32 Leistung. ;D
Auch eine absurd hohe Zahl.

Sardaukar.nsn
2020-09-26, 21:49:01
V0JUg2zH27w

SKYNET
2020-09-27, 02:31:39
So die erste 3090 hat 2,6ghz unter ln2 gepackt, mit der ansage es geht noch mehr.


turing machte schon 2.7GHz unter LN2... würde sagen is nen downgrade:
https://www.3dmark.com/compare/pr/328191/pr/242282

SKYNET
2020-09-27, 02:33:25
54 TFLOPs FP32 Leistung. ;D
Auch eine absurd hohe Zahl.


trotzdem nur 27% schneller als ne 2080Ti X-D

Troyan
2020-09-27, 02:40:31
trotzdem nur 27% schneller als ne 2080Ti X-D

270%. Musst dich nicht bedanken:
https://images.hothardware.com/contentimages/article/3023/content/luxmark-rtx-3090.png
https://hothardware.com/reviews/nvidia-geforce-rtx-3090-bfgpu-review?page=2

Wäre interessant, was 54 TFLOPs so schaffen.

SKYNET
2020-09-27, 02:44:43
270%. Musst dich nicht bedanken:
https://images.hothardware.com/contentimages/article/3023/content/luxmark-rtx-3090.png
https://hothardware.com/reviews/nvidia-geforce-rtx-3090-bfgpu-review?page=2

Wäre interessant, was 54 TFLOPs so schaffen.


was interessiert mich irgend nen scheiss bei ner GRAFIKkarte... da zählen die frames, und nicht wie schnell sie in irgendwelchen programmen ist, die mit spielen soviel zutun haben wie nen hasenfurz mit nem meteroiteneinschlag.

Troyan
2020-09-27, 02:55:30
was interessiert mich irgend nen scheiss bei ner GRAFIKkarte... da zählen die frames, und nicht wie schnell sie in irgendwelchen programmen ist, die mit spielen soviel zutun haben wie nen hasenfurz mit nem meteroiteneinschlag.

Man, Grafikkarte. Da bist du 14 Jahre zu spät dran. Vielleicht findest du bei Ebay noch eine 7900GTX. ;D

Meinst du mit Frames sowas hier: https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,14

Sind 1,84x zur 2080TI. Oder 3,8x zur 5700XT. :cool:

NC
2020-09-27, 06:40:38
Ich finde die luxmark Werte schon beeindruckend, sie zeigen, dass die Karte die Leistung auch wirklich abliefern kann und das keine Luftnummer ist die durch irgendwelche anderen Stellen limitiert wird. (Also dass es garnicht möglich wäre)
Es zeigt aber auch, dass bei Spielen eigentlich genug Rechenleistung da ist, NV hätte vermutlich lieber mehr in andere Einheiten investieren sollen. 1500Euro bringt bei jetzigen Spielen sehr wenig, eine 3080 mit 20GB würde vollkommen reichen, vermutlich selbst bei 8k.

Als Spieler wäre ich voll zufrieden, der angebahnte Preissprung blieb bei den "semi enthusiast" Karten aus. Dafür ein Leistungssprung.

dargo
2020-09-27, 09:23:17
270%. Musst dich nicht bedanken:
https://images.hothardware.com/contentimages/article/3023/content/luxmark-rtx-3090.png
https://hothardware.com/reviews/nvidia-geforce-rtx-3090-bfgpu-review?page=2

Wäre interessant, was 54 TFLOPs so schaffen.
Cool... wie ist die Story so von Luxmark? Ist das ein SP oder MP Spiel?

Badesalz
2020-09-27, 11:05:41
Lol.. jetzt wirds unübersichtlich. Also auch kein Verlass ausschließlich auf MLCC. X-DIrgendwelche Klugshicer meinen immer wieder sie wüssten es besser als ich ;)

Als Spieler wäre ich voll zufrieden, der angebahnte Preissprung blieb bei den "semi enthusiast" Karten aus. Dafür ein Leistungssprung.Meinst du die zum Launch versprochenen Preise oder die aktuellen?
Es zeigt aber auch, dass bei Spielen eigentlich genug Rechenleistung da ist, NV hätte vermutlich lieber mehr in andere Einheiten investieren sollen.Das ist halt der Paradigmenwechsel. Am Anfang hat man mit Gamer-GPUs Supercomputing gemacht. Jetzt werden aus Supercomputing-GPUs, Gamer-GPUs zurecht gefrimmelt.

Das erste war schon gut, aber eben (noch) nicht optimal für Supercomputing. Das zweite ist noch gut, aber eben nicht (mehr) optimal fürs Zocken.

Man, Grafikkarte. Da bist du 14 Jahre zu spät dran.Mit deinem DX11 Beispiel beträgt dein Vorsprung zu skynet 6 Jahre. 2014 also. Top :up:

Sonst hätte ich daheim mittlerweile genug passende Anwendungen für nennenswerte - und genauso mögliche wie sinnvolle - Unterstützung von GPGPU. Oder wenigstens GPGPU-like. Das macht nur kaum jemand.

p.s.:
Ich hab zwar gestern für den Keller ein Reifenregal für 2 Sätze gebaut, aber z.B. SolidWorks kaufen, um das erstmal auf dem PC zu zeichnen... Und anschliessend einen ganzen Tag am Luxmark, um es am Ende in kurzester Zeit :uup: zu rendern und meiner Frau zu zeigen wie sich die Konstruktion so im Keller machen wird... Naja. Ich weiß nicht.

dargo
2020-09-27, 11:47:16
Och... mit Crysis war ich schon 2007-2008 3x durch. Das brauche ich nicht nochmal, zu langweilig.

Edit:
Apropo Crysis Remastered... absolut gelungenes Remaster. :uup: Ein Anschauungsunterricht für die gesamte Spielindustrie. :ulol:

aUcTRlse-Xg

Badesalz
2020-09-27, 12:09:03
@dargo
Es gibt halt Leute, die gucken sich ungern etwas neues in 4k an. Sie schauen sich lieber ursprüngliche s/w originale aus den 50ern an. Oder noch von früher... Auf FHD remastered, koloriert.
Davon gibts ganze Staffeln auf WeltN24 :wink:

Dural
2020-09-27, 12:11:39
Gewisse gruppen haben einfach nach wie vor nicht begriffen das die 3080 und vorallem die 3090 praktisch überall bis 4k hoch im cpu limit laufen.

Ampere hat dermassen viel leistung wie es zuletzt der g80 gebracht hat, jeder der das abstreitet hat für mich schlicht nicht die kohle für eine 3090 und muss sie sich schlecht reden.

Und das richtig schöne bei ampere, die gpu ist für die zukunft super aufgestellt! Das konnte man bei zb. Pascal nicht gerade behaupten.

ChaosTM
2020-09-27, 12:17:45
Stimmt, ein Porsche auf Holzrädern. ;) (3080)

Badesalz
2020-09-27, 12:20:47
Lief das nicht schonmal durch hier, daß es nicht so ganz mit dem CPU-Limit hinhaut? Oder war das nur für gewisse Gruppen lesbar?

Dural
2020-09-27, 12:21:05
es kommt ja nich eine 16 und 20gb version.

Die vernüftigste karte wird ziemlich sicher die 3070ti mit 16gb, da wird es auch ein spannendes duell mit n21 geben.

SKYNET
2020-09-27, 12:23:11
Meinst du sowas, wo deine wertlose Karte 25FPS schafft?
https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,12

Oder gilt Crysis Remastered jetzt nicht? Du nervst. Genauso wie deine AMD Trollkollegen. Ihr müsst echte Panik schieben in jedem Ampere Thread euren Unsinn zu schreiben.


nö, das gilt nicht, weils remaster hässlich ist, wärend die mod version besser aussieht:
https://www.youtube.com/watch?v=Y93ypkVZVpg

und dazu achte man mal auf die frames der enhanced(=von fans überarbeiteten version) und dem remake... ;D

https://www.youtube.com/watch?v=Y93ypkVZVpg


Y93ypkVZVpg

Palpatin
2020-09-27, 12:26:27
Gewisse gruppen haben einfach nach wie vor nicht begriffen das die 3080 und vorallem die 3090 praktisch überall bis 4k hoch im cpu limit laufen.

Ampere hat dermassen viel leistung wie es zuletzt der g80 gebracht hat, jeder der das abstreitet hat für mich schlicht nicht die kohle für eine 3090 und muss sie sich schlecht reden.

Und das richtig schöne bei ampere, die gpu ist für die zukunft super aufgestellt! Das konnte man bei zb. Pascal nicht gerade behaupten.
Leistungssteigerung 8800 gtx zum TopModel der alten Gen war grob 100%
Die 3900 legt auf die 2080ti gerade mal lächerliche ~45% drauf. Das ist in etwa auch das was die 2080ti schneller als die 1080ti ist. Für neuen Prozess und neue Architektur ist das sehr schwach.
Die 1080ti hatte auf die 980ti noch 75% draufgepackt.

Badesalz
2020-09-27, 12:30:43
Die 3000er sind eine neue Architektur gegenüber den 2000ern? :|

ChaosTM
2020-09-27, 12:35:40
und dazu achte man mal auf die frames der enhanced(=von fans überarbeiteten version) und dem remake... ;D



Die Deppen haben auch die Konsolen Version (edit.: als Basis) genommen für die Remastered. Wie dämlich ist das denn..

SKYNET
2020-09-27, 12:41:28
Die Deppen haben auch die Konsolen Version genommen für die Remastered. Wie dämlich ist das denn..


wenn ich mir die bilder u.a. von igors "review" anschaue, sieht das ziemlich gleich schlecht aus... und RT auf konsole? wohl kaum...

Dural
2020-09-27, 12:55:06
Leistungssteigerung 8800 gtx zum TopModel der alten Gen war grob 100%
Die 3900 legt auf die 2080ti gerade mal lächerliche ~45% drauf. Das ist in etwa auch das was die 2080ti schneller als die 1080ti ist. Für neuen Prozess und neue Architektur ist das sehr schwach.
Die 1080ti hatte auf die 980ti noch 75% draufgepackt.

Was redet ihr für ein müll!?! 7900gtx zu 8800gtx war was mit 80% und ich habe gesagt seit g80 es gebracht hat und nicht wie g80.

Und deine 45% stimmen auch nicht, cpu limit die 3090 kann sich praktisch nirgends absetzen, erst im gpu limit haben wir 15-20% zur 3080.

RLZ
2020-09-27, 13:31:34
Leistungssteigerung 8800 gtx zum TopModel der alten Gen war grob 100%
Die 3900 legt auf die 2080ti gerade mal lächerliche ~45% drauf. Das ist in etwa auch das was die 2080ti schneller als die 1080ti ist. Für neuen Prozess und neue Architektur ist das sehr schwach.
Die 1080ti hatte auf die 980ti noch 75% draufgepackt.
45%... Immer und überall. Zumindest mit der aktuellen Spielegeneration. Zukünftig ist da noch viel Potential.

https://www.pugetsystems.com/pic_disp.php?id=63925&width=400
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-3090-Performance-1900/

Platos
2020-09-27, 13:38:55
Der Thread hier ist ja echt ne Zumutung... Auf beiden Seiten.

reaperrr
2020-09-27, 13:42:36
Die 3000er sind eine neue Architektur gegenüber den 2000ern? :|
...meinst du das ernst? ;D

Abgesehen vom Namen, hat sich bei den 3000ern die Zahl der FP32-ALUs je SM verdoppelt, die Zahl der ROPs ist nicht mehr ans Speicherinterface, sondern die GPCs gekoppelt, die TensorCores wurden gründlich überarbeitet, die L1-Caches vergrößert und beschleunigt und an den RT-Cores wurden ebenfalls Änderungen vorgenommen. Und Unterstützung für GDDR6X hinzugefügt, was Änderungen am Speichercontroller und -interface gebraucht haben wird.

Das sind definitiv zu viele und zu große Änderungen, um bloß von Turing+ sprechen zu können.

In der Transistorzahl und Fläche von GA102 hätte man in Samsung's 8N wahrscheinlich einen Turing mit 104 SM verteilt auf 8 GPC und ein 448bit SI unterbringen können, was zumindest in aktuellen Spielen wahrscheinlich schneller gewesen wäre.

SKYNET
2020-09-27, 13:48:37
...meinst du das ernst? ;D

Abgesehen vom Namen, hat sich bei den 3000ern die Zahl der FP32-ALUs je SM verdoppelt, die Zahl der ROPs ist nicht mehr ans Speicherinterface, sondern die GPCs gekoppelt, die TensorCores wurden gründlich überarbeitet, die L1-Caches vergrößert und beschleunigt und an den RT-Cores wurden ebenfalls Änderungen vorgenommen. Und Unterstützung für GDDR6X hinzugefügt, was Änderungen am Speichercontroller und -interface gebraucht haben wird.

Das sind definitiv zu viele und zu große Änderungen, um bloß von Turing+ sprechen zu können.

In der Transistorzahl und Fläche von GA102 hätte man in Samsung's 8N wahrscheinlich einen Turing mit 104 SM verteilt auf 8 GPC und ein 448bit SI unterbringen können, was zumindest in aktuellen Spielen wahrscheinlich schneller gewesen wäre.

aber neue architektur wäre jetzt auch übertrieben... ist irgendwas zwischen "refresh" und neuer architektur... weil das grundkonstrukt ist immernoch turing, einfach massiv auf steroiden, ähnlich zen1/+ --> zen2.

Troyan
2020-09-27, 14:00:13
In der Transistorzahl und Fläche von GA102 hätte man in Samsung's 8N wahrscheinlich einen Turing mit 104 SM verteilt auf 8 GPC und ein 448bit SI unterbringen können, was zumindest in aktuellen Spielen wahrscheinlich schneller gewesen wäre.

Das wäre klar langsamer als GA102. Ampere hat 88% mehr Transistoren pro mm^2. Man erhält jedoch knapp 3x soviel FP32 Rechenleistung auf der selben Fläche.

GA104 is 392mm^2 und liefert im Vollausbau ca. 24TFLOPs. TU104 liegt bei 545mm^2 und hat 12TFLOPs. Des weiteren gibt es bei GA104 50% mehr Pixel-Leistung, 33% mehr L1 Cache pro SM, doppelte L1 Cache-Bandbreite, verbesserte RT-Cores mit 2x Dreiecksberechnung, Sparsity in den TensorCores...

Größtes Problem ist einfach Bandbreite, die nicht mit den Node-Shrinks mitwächst.

dargo
2020-09-27, 15:08:18
45%... Immer und überall. Zumindest mit der aktuellen Spielegeneration. Zukünftig ist da noch viel Potential.

https://www.pugetsystems.com/pic_disp.php?id=63925&width=400
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-3090-Performance-1900
Wie toll, dass alle Games die UE4 verwenden. In Zukunft kommt die UE5. ;)

In dem Zusammenhang ist das Cherry Picking besonders bemerkenswert. Bei AMD wurde dies nämlich vor nicht allzu langer Zeit verteufelt wenn mal das eine oder andere Game rausgepickt wurde. Hier kommt man jetzt also mit einem synthetischen Benchmark und gar keinem Spiel? Von welcher Zukunft sprichst du denn überhaupt? 1, 2, 3 oder gar 5 Jahre? Je länger es dauert umso unwichtiger wird das ganze da dann schon die Nächste bis Übernächste Generation an GPUs da ist. Die Spieleperformance in Games von GA102 ist doch schon längst bekannt. Und diese heißt aktuell +45% in 4k gegenüber TU102. Wenige Prozent in die eine oder andere Richtung je nach Spieleparkour lasse ich noch gelten. Was irgendwelche Zukunft bringt steht in den Sternen.

Digidi
2020-09-27, 15:12:24
45%... Immer und überall. Zumindest mit der aktuellen Spielegeneration. Zukünftig ist da noch viel Potential.




Das ist eine Demo die nie für igend etwas so richtig optimiert wurde. Keine Ahnung wie man das hier als Beispiel heranziehen kann.

NC
2020-09-27, 15:17:45
Meinst du die zum Launch versprochenen Preise oder die aktuellen?
FE Preise bei NV.



Das ist halt der Paradigmenwechsel. Am Anfang hat man mit Gamer-GPUs Supercomputing gemacht. Jetzt werden aus Supercomputing-GPUs, Gamer-GPUs zurecht gefrimmelt.
Wenn es kosteneffektiver wäre das zu trennen, würde das gemacht werden, aber scheinbar gibt es mehr synergie den Entwicklungsaufwand zu teilen, wenn auch jeder dann einen Kompromis bekommt.


Das erste war schon gut, aber eben (noch) nicht optimal für Supercomputing. Das zweite ist noch gut, aber eben nicht (mehr) optimal fürs Zocken.
Klar, gamer haben Tensor Transistoren, HPC hat VRS Transistoren. Aber das meiste ist halt beiden nützlich.
Die doppelte FP32 Leistung ist (zZ) überflüssig, das hätte NV auch durch eine SM Reduktion im Tausch für andere Einheiten einbauen können.
Das ist doch eher eine Frage der individuellen GPU-SKU.
Vielleicht geht NV davon aus dass durch tracing noch mehr Shaderleistung nötig wird. Natürlich kein Vorteil für alte Spiele.

RLZ
2020-09-27, 15:35:57
Wie toll, dass alle Games die UE4 verwenden. In Zukunft kommt die UE5. ;)

In dem Zusammenhang ist das Cherry Picking besonders bemerkenswert. Bei AMD wurde dies nämlich vor nicht allzu langer Zeit verteufelt wenn mal das eine oder andere Game rausgepickt wurde. Hier kommt man jetzt also mit einem synthetischen Benchmark und gar keinem Spiel?
Cherry Picking != Cherry Picking
Wenn ich in eine 10 Jahre alte Engine Daten reinwerfe, für die sie nie gebaut wurde, ist das Unsinn.
Wenn man in einer aktuellen Engine über viele Testszenen mit einer aktuellen Engine gute Werte hat, ist das ein guter Indikator.
Und ja, die Werte sind für vielleicht für einen Zeitraum von einem Jahr sinnvoll, da danach der Switch auf UE5 kommt.

Btw. sind in meinem Link Szenen dabei, die auf einer 3080 wegen Speicher unbrauchbar werden. Eigentlich passendes Futter gegen 10GB ;)
Aber hey... Erstmal bashen :)

Von welcher Zukunft sprichst du denn überhaupt? 1, 2, 3 oder gar 5 Jahre?
Da müsste man mal schauen, wie weit man mit den Engine Versionen zurückgehen kann für solche Ergebnisse. Da drauf dann ~2-3 Jahre. Man fixiert sich meistens an einem nicht zu späten Zeitpunkt auf eine Engine Version und es müsste schon verdammt gute Gründe geben, um in der zweiten Entwicklungshälfte auf die UE5 zu wechseln.
Ehrlich gesagt, fände ich solche Benchmarks bei Reviews einer neuen GPU interessanter als alte Spiele, die eh schon schnell genug laufen und nicht mehr gespielt werden. Gerne auch mit anderen Engines.
Je länger es dauert umso unwichtiger wird das ganze da dann schon die Nächste bis Übernächste Generation an GPUs da ist. Die Spieleperformance in Games von GA102 ist doch schon längst bekannt. Und diese heißt aktuell +45% in 4k gegenüber TU102.
Das hängt ja wieder davon ab, welches Segment du betrachtest. Bei de 3080 ist es deutlich mehr, die 3090 ist in ihrem Segment nicht der Knaller.

Das ist eine Demo die nie für igend etwas so richtig optimiert wurde. Keine Ahnung wie man das hier als Beispiel heranziehen kann.
Meinst du die Entwickler gehen nachträglich noch hin und ändert grundlegend was an der Renderpipeline? Da ändert man nur sehr, sehr selektiv was.

Daredevil
2020-09-27, 16:14:35
https://abload.de/img/img_7726pqk6j.jpg

dargo
2020-09-27, 16:30:15
Cherry Picking != Cherry Picking
Wenn ich in eine 10 Jahre alte Engine Daten reinwerfe, für die sie nie gebaut wurde, ist das Unsinn.
Wenn man in einer aktuellen Engine über viele Testszenen mit einer aktuellen Engine gute Werte hat, ist das ein guter Indikator.

Wer redet von 10 Jahren alten Engines? Wenn ich aktuelle Hardware vergleiche dann achte ich natürlich auf aktuellere Games. Also eher von 2020/2019, vielleicht noch was von 2018 dann muss es aber gut sein. Wenn da im Testparkour was landet wo eine 3, 4 oder gar 5 Jahre alte Engine verwendet wurde dann ist es zwar unschön, lässt sich aber nicht ändern. Eine Spieleentwicklung dauert nun mal ihre Zeit. Natürlich sollte man einen GA102 nicht mit irgendwelchen Bullshit wie Mass Effect 2 oder Starcraft 2 benchen um mal zwei spontane Beispiele zu nennen.


Btw. sind in meinem Link Szenen dabei, die auf einer 3080 wegen Speicher unbrauchbar werden. Eigentlich passendes Futter gegen 10GB ;)
Aber hey... Erstmal bashen :)

Löl? Du wirfst mir bashen vor und verweist gleichzeitig auf eine Einladung zum bashen? Zu geil. ;D Deine Einladung brauche ich gar nicht denn der gesunde Menschenverstand sagt mir auch so schon, dass 10GB bei der bekannten Rohleistung sehr knapp auf Kante sind. Mein Gehirn schaltet nicht einfach ab nur weil Lederjacke mit einer RTX 3080 für 699$ wedelt die er nicht mal in vernünftigen Stückzahlen liefern kann.


Da müsste man mal schauen, wie weit man mit den Engine Versionen zurückgehen kann für solche Ergebnisse. Da drauf dann ~2-3 Jahre. Man fixiert sich meistens an einem nicht zu späten Zeitpunkt auf eine Engine Version und es müsste schon verdammt gute Gründe geben, um in der zweiten Entwicklungshälfte auf die UE5 zu wechseln.
Ehrlich gesagt, fände ich solche Benchmarks bei Reviews einer neuen GPU interessanter als alte Spiele, die eh schon schnell genug laufen und nicht mehr gespielt werden. Gerne auch mit anderen Engines.

Ich kann das sehr gut nachvollziehen. Für einen Technik-"Nerd" ist das durchaus interessant. Aber wie du ja siehst interessiert die meiste Meute nur das hier und jetzt. Was habe ich mir damals die Zähne wegen DX12/Vulkan ausgebissen. Und wir sind nicht mal heute da wo ich es gerne hätte. Es kommen immer noch viele DX11 Applikationen, selbst Ende 2020. Tja... die Uhren drehen sich bei PC-Gaming leider extrem langsam.

Edit:

NVIDIA GeForce RTX 3080 & RTX 3090 - Welche Caps nötig sind und was Boost mit den Crashs zu tun hat!
RlDC7u7GpR4

Fazit: 6x Postcaps + kein Crash = guten Chip erwischt. :D

Troyan
2020-09-27, 16:56:58
Klar, gamer haben Tensor Transistoren, HPC hat VRS Transistoren. Aber das meiste ist halt beiden nützlich.
Die doppelte FP32 Leistung ist (zZ) überflüssig, das hätte NV auch durch eine SM Reduktion im Tausch für andere Einheiten einbauen können.
Das ist doch eher eine Frage der individuellen GPU-SKU.
Vielleicht geht NV davon aus dass durch tracing noch mehr Shaderleistung nötig wird. Natürlich kein Vorteil für alte Spiele.

Es gäbe nie Fortschritt, wenn man nur immer das selbe produziert. Sieht man an Crysis Remastered. Ohne Ampere wäre Software-RT vollkommen unbrauchbar. Mit Ampere kann man selbst das nutzen, weil Ampere eben mit dem doppelten FP32 Durchsatz einen Teil der Last massiv viel schneller berechnen kann.

Die Rechenleistung ermöglicht komplett andere Möglichkeiten, die vorher nicht gegeben waren.

woodsdog
2020-09-27, 17:05:04
Haben wir denn eigentlich heute schon einen Fall wo die 3090 überproportional besser ggü der 3080 10G ist, WEIL letzterer der Speicher ausgeht?*

Und jetzt bitte nicht mit irgendwelchen 8k 20FPS Konstrukten kommen, ich meine übliches 4k Futter, Regler nach Rechts, AAA Games.

Was die Zukunft bringt ist eine Sache, die nächsten 1-2 Jahre wird sich aber vermutlich nichts Gravierendes ändern... die nächsten Konsolenreleases sind alle noch cross-gen, nix dolles am Horizont zu sehen.

Wie Relevant sind HEUTE 10GB?

*ausgeht != Speicher "voll". Was die applikation meint zu brauchen juckt nicht. Ich meine hier performance Probleme WEIL speicher voll.

Sardaukar.nsn
2020-09-27, 17:15:50
@woodsdog: Nein, würde man auch gar nicht so programmieren. Wie viele Leute sind denn mit weniger als 10GB VRAM unterwegs? 95% 99%

=Floi=
2020-09-27, 17:19:26
https://abload.de/img/img_7726pqk6j.jpg

einfach nur ein dummes foto von dir.

dargo
2020-09-27, 17:25:44
Haben wir denn eigentlich heute schon einen Fall wo die 3090 überproportional besser ggü der 3080 10G ist, WEIL letzterer der Speicher ausgeht?*

Und jetzt bitte nicht mit irgendwelchen 8k 20FPS Konstrukten kommen, ich meine übliches 4k Futter, Regler nach Rechts, AAA Games.

Horizon: Zero Dawn. In nichts sagenden Frameraten wirst du außer weniger Frames nichts bei der RTX 3080 sehen. Im Frametimegraphen sind die Stocker die du dann am Bildschirm merkst schon sichtbar. :wink:

rentex
2020-09-27, 17:32:55
einfach nur ein dummes foto von dir.

Wieso dumm? Im Endeffekt trifft es ganz gut.
Wenn technische Laien, keinerlei Einblick und sogar Basiswissen in die Entwicklungs- und Herstellungsprozesse von hochkomplexen Produkten/Abläufen besitzen und trotzdem anfangen die Hersteller anzugehen. Das ist im Grunde überall feststellbar. Kombiniert mit der Empörungskultur der Neuzeit, ist das für die Hersteller nicht sehr angenehm und fair.
Wieviel richtige Experten sind denn überhaupt in diesem Forum unterwegs? 1 bis 5% der gesamten Mitglieder?

RLZ
2020-09-27, 17:50:38
Löl? Du wirfst mir bashen vor und verweist gleichzeitig auf eine Einladung zum bashen? Zu geil. ;D Deine Einladung brauche ich gar nicht denn der gesunde Menschenverstand sagt mir auch so schon, dass 10GB bei der bekannten Rohleistung sehr knapp auf Kante sind. Mein Gehirn schaltet nicht einfach ab nur weil Lederjacke mit einer RTX 3080 für 699$ wedelt die er nicht mal in vernünftigen Stückzahlen liefern kann.
Wenn mir jemand vorwirft, dass ich mit Benchmarks Cherrypicking für Ampere betreibe mit Benchmarks, die auch Probleme bei Ampere zeigen, kann ich auch sarkastisch werden ;)

Ich kann das sehr gut nachvollziehen. Für einen Technik-"Nerd" ist das durchaus interessant. Aber wie du ja siehst interessiert die meiste Meute nur das hier und jetzt. Was habe ich mir damals die Zähne wegen DX12/Vulkan ausgebissen. Und wir sind nicht mal heute da wo ich es gerne hätte. Es kommen immer noch viele DX11 Applikationen, selbst Ende 2020. Tja... die Uhren drehen sich bei PC-Gaming leider extrem langsam.
Ich verbringe inzwischen mehr Zeit in der Unreal Engine als in Spielen. Das ist mein persönliches Minecraft. Deswegen sind die Benchmarks für mich nicht nur theoretisch interessant.
Außerdem sind solche Benchmarks auch ein wichtiger Indikator für die Zukunftssicherheit von Turing.


NVIDIA GeForce RTX 3080 & RTX 3090 - Welche Caps nötig sind und was Boost mit den Crashs zu tun hat!
https://youtu.be/RlDC7u7GpR4
Da gibt es aber bessere Erklärungen für einen Schaltregler/LC Glied. Stützkondensator, Glättungskondensator,... scheinbar alles das Gleiche für ihn :P

Zossel
2020-09-27, 18:17:47
Für einen Technik-"Nerd" ist das durchaus interessant. Aber wie du ja siehst interessiert die meiste Meute nur das hier und jetzt.

Grundlagen zu Ablockkondensatoren: https://www.cypress.com/file/135716/download

Ich bin mal gespannt wie viele von den Dingern noch in Zukunft abrauchen werden, so wie das jetzt schon auf Kante genäht zu sein scheint.

Was habe ich mir damals die Zähne wegen DX12/Vulkan ausgebissen. Und wir sind nicht mal heute da wo ich es gerne hätte. Es kommen immer noch viele DX11 Applikationen, selbst Ende 2020. Tja... die Uhren drehen sich bei PC-Gaming leider extrem langsam.

Die Spielehersteller finden das gut das man Schrott verkaufen kann.

Digidi
2020-09-27, 18:33:33
Das neue Vidoe vom Igor ist gut. Es liegt auch am Binning der Chips und das anscheinend die Chips an der oberen grenze betriebern Werden.



Da gibt es aber bessere Erklärungen für einen Schaltregler/LC Glied. Stützkondensator, Glättungskondensator,... scheinbar alles das Gleiche für ihn :P

Dann kannst du es ja mal besser erklären :) :love3:

Zossel
2020-09-27, 18:45:17
Das neue Vidoe vom Igor ist gut. Es liegt auch am Binning der Chips und das anscheinend die Chips an der oberen grenze betriebern Werden.

Nun ja, das Problem betrifft ja auch die schlechten Chips, wo schon einige Einheiten deaktiviert wurden.

Digidi
2020-09-27, 18:48:27
Nun ja, das Problem betrifft ja auch die schlechten Chips, wo schon einige Einheiten deaktiviert wurden.

Eben aber früher war selbst bei den schlechtesten Chips noch 10% Luft drin.

Heute ist da anscheinend gar nichts mehr zu hohlen.Nvidia gibt die Randbedingungen vom Takt raus. Aus Erfahrung von frühern Chips dachten die Aibs 10% kann man immer drauschlagen auch bei der Amper Generation. Nur diesmal funktioniert das nicht, weil Nvidia die Chips schon selbst mit den Standartwerten an der Obergrenze Betreibt.

Es wäre mal auch interessant zu wissen ob es auch bei denen Passiert die im Normalen Taktbereich sind. Wenn dort auch Probleme auftreten, dann hat Nvidia die Chipgüten total überschätzt.

Freestaler
2020-09-27, 19:09:55
@Digidi, Wieso sind dann auch die FE von NV betroffen, wenn nur die AIB einfach zuviel drauf klopfen? Deine Theorie der Aib die "falsche" Annahmen trafen passt nicht, zumindest nicht mit deiner Herleitung.

Digidi
2020-09-27, 19:11:23
@Digidi, Wieso sind dann auch die FE von NV betroffen, wenn nur die AIB einfach zuviel drauf klopfen? Deine Theorie dr Aib passt nicht.

Ja das ist die große Frage. Da hat Nvidia dann wohl mit einer besseren Chipgüte gerechnet. Die Chips werden im Labor auf Herz und Nieren getestet. Wenn die nur gute Samples erwischt haben kann das mal schnell zu falschen Annahmen führen.

Badesalz
2020-09-27, 20:48:38
...meinst du das ernst? ;DDie Auflistung ist soweit ok, mit den ROPs an den GPCs. Das ist ARCHITEKTONISCH, neu.
alles andere ist nicht neu. L1 größer machen hat genauso wenig mit einer neuen Architektur zu tun wie mehr ALUs. Oder wie GDDR6X.
Es ist ein Refresh. Gibts aber auch nichts dran zu meckern. Der Chip wäre auch völlig ok, hätte man ihn nicht schon ab Werk überfahren...
Sonst halt Power auf 86%, minimalst UV, dann rennt das auch, bei <4k.
Ist halt nur schade, daß man das auch machen .

Das sind definitiv zu viele und zu große Änderungen, um bloß von Turing+ sprechen zu können.Irgendwie schon ;) Aber auch Turing v2, mit eigenem Namen, wäre noch ok. Ich weiß auch nicht warum das schlimm sein sollte. Für mich ist das keine Abwertung.

Vielleicht verstehen wir das mit einer neuen Architektur aber zu unterschiedlich... ;)

NC
2020-09-27, 20:52:13
Es gäbe nie Fortschritt, wenn man nur immer das selbe produziert. Sieht man an Crysis Remastered. Ohne Ampere wäre Software-RT vollkommen unbrauchbar. Mit Ampere kann man selbst das nutzen, weil Ampere eben mit dem doppelten FP32 Durchsatz einen Teil der Last massiv viel schneller berechnen kann.

Die Rechenleistung ermöglicht komplett andere Möglichkeiten, die vorher nicht gegeben waren.
Deren Software-RT ist eine Voxel-Lösung, das hängt vom Textur-Sampling-Durchsatz ab, nutzt im Normalfall hauptsächlich Integer.
FP32 ist in diesem Fall eher egal.

Palpatin
2020-09-27, 20:57:33
@woodsdog: Nein, würde man auch gar nicht so programmieren. Wie viele Leute sind denn mit weniger als 10GB VRAM unterwegs? 95% 99%
Es sind laut Steam auch über 95% mit Auflösungen unter 4k unterwegs.
Ich glaub allerdings auch das 10gb noch 1-2 Jahre reicht. Will man aber eine Gen überspringen muss es ~ 4 Jahre reichen und dann wirds eng.

Badesalz
2020-09-27, 21:16:09
Was ist das eigentlich für ein Ding, mit einer älteren Engine auf neueren HW laufen lasse und neuer HW zu vergleichen, geht nicht (?)
Weil?

NC
2020-09-27, 22:51:26
Was ist das eigentlich für ein Ding, mit einer älteren Engine auf neueren HW laufen lasse und neuer HW zu vergleichen, geht nicht (?)
Weil?
Hat was von Ferarri Engine im Golf. Geht nicht weil?... Naja, geht, aber Sinn?

Dural
2020-09-28, 09:15:27
2,1GHz mit der 3090 unter luft bei 8auer. (keine test karte, sondern gekauft angeblich) Aber der verbrauch ist nicht mehr schön, er meint aber das mit wakü mehr gehen sollte. wird wohl bald ein video mit wakü kommen.

Igor kann ich blad nicht mehr ernst nehmen, jetzt rudert er zurück und die abstürze sollen an schlechte chips liegen. wie ich es ja eh von anfang an gesagt habe... das die kondensatoren bei max takt einen unterschied ausmachen können wird definitiv so sein, hat stock aber kaum einen einfluss. die 2GHz+ wo es bracht sind mir nach wie vor ein rätsel wo die stock herkommen sollen. mir ist es schlicht auch ein rätsel wie so das KEINER untersucht :rolleyes: aber man betreibt ja lieber clickbaits, das ist wichtiger.

MasterElwood
2020-09-28, 09:22:38
Igor kann ich blad nicht mehr ernst nehmen, jetzt rudert er zurück und die abstürze sollen an schlechte chips liegen.

Das ist NICHT was er gesagt hat!

Er sagt im neuen Video eindeutig der Hauptgrund sind die Caps - die Chipquali is nur ein kleiner Nebenfaktor.

Dural
2020-09-28, 09:26:35
doch genau das hat er gesagt, die chips laufen am limit und stürzen schlicht ab,
natürlich bedingt durch die schlechten kondensatoren. er hat aber ganz klar gesagt das "gute" chips auch mit den schlechten kondensatoren KEINE probleme haben werden.

also ist der ursprung des problem die schlechten chips die einfach ab 2GHz aufgeben.

die 2020-2050MHz wo die karten abstürzen habe ich zwar noch bei keiner stock karte gesehen, und testen tut es ja auch keiner. liegen eventuell nur bei sehr geringen belastung und gleich am anfang an. geringe belastung wäre aber auch einen geringeren verbrauch...

Edit:
Kommt der absturz sofort nach dem starten?

basix
2020-09-28, 09:35:51
Die schlechten Chips sind nicht der Ursprung des Problems sondern die schlechten Chips sind die, welche das Problem am deutlichsten zu spüren bekommen ;) Aufgrund des höhreren ESR der POSCAPs fällt die Spannung auf dem Chip bei Belastung mehr zusammen. Die schlechten Chips benötigen typischerweise mehr Spannung, deswegen tritt dort ein Fail schneller auf. Ohne grosse Last takten auch Stock Karten >2.0 GHz, kommt dann genau in diesem Moment eine reale Lastspitze (irgendein Game oder ingame Szene) kackt die Karte halt ab.

Es ist eine Kombination aus Komponentenwahl, Spannungs/Clock-Table, Taktverhalten und dem generellen Stromdurst von Ampere.

kabe
2020-09-28, 09:36:51
Wenn man bei einer breiten Streuuung der Chipgüte, Ampere standardmäßig bis zur absoluten Kotzgrenze ausfährt, u.a. auch mit einem aggressiven Boost, gibt es eben Chips die sensibel auf die Spannungsversorgung reagieren. Fertig sind die Probleme.

x-dragon
2020-09-28, 09:39:39
... Igor kann ich blad nicht mehr ernst nehmen, jetzt rudert er zurück und die abstürze sollen an schlechte chips liegen. wie ich es ja eh von anfang an gesagt habe... das die kondensatoren bei max takt einen unterschied ausmachen können wird definitiv so sein, hat stock aber kaum einen einfluss. die 2GHz+ wo es bracht sind mir nach wie vor ein rätsel wo die stock herkommen sollen. mir ist es schlicht auch ein rätsel wie so das KEINER untersucht :rolleyes: aber man betreibt ja lieber clickbaits, das ist wichtiger. Wie zurückrudern? Das hat Igor am Freitag auch schon geschrieben (ganz am Anfang des Artikels):

... Somit wäre es zumindest plausibel, dass hier Karten als OC-Karten in den Handel gelangt sein können, die einen echten Qualitätstest beim Hersteller mit den ausgelieferten Settings so gar nicht bestanden hätten. Echtes Binning? Fehlanzeige. Nachträgliches Selektieren besonders übertaktungsfreudiger Karten? Faktisch unmöglich. Und so ist es durchaus nicht ausgeschlossen, dass sich auch der eine oder andere “Potato”-Chip auf so eine OC-Karte verirrt haben könnte. Die Folgen kennen wir ja aus den Post der Käufer in den einschlägigen Foren. ...
https://www.igorslab.de/was-wirklich-hinter-den-abstuerzen-und-instabilitaeten-der-geforce-rtx-3080-und-rtx-3090-stecken-koennte-investigativ/

MasterElwood
2020-09-28, 10:09:09
doch genau das hat er gesagt, die chips laufen am limit und stürzen schlicht ab,
natürlich bedingt durch die schlechten kondensatoren. er hat aber ganz klar gesagt das "gute" chips auch mit den schlechten kondensatoren KEINE probleme haben werden.


NEIN - er sagte WENIGER Probleme - nicht KEINE.

w0mbat
2020-09-28, 10:45:34
Igor kann ich blad nicht mehr ernst nehmen, jetzt rudert er zurück und die abstürze sollen an schlechte chips liegen. wie ich es ja eh von anfang an gesagt habe... das die kondensatoren bei max takt einen unterschied ausmachen können wird definitiv so sein, hat stock aber kaum einen einfluss. die 2GHz+ wo es bracht sind mir nach wie vor ein rätsel wo die stock herkommen sollen. mir ist es schlicht auch ein rätsel wie so das KEINER untersucht :rolleyes: aber man betreibt ja lieber clickbaits, das ist wichtiger.
Machst du das absichtlich, oder hast du wirklich keine Ahnung?

Igor hat von Anfang an gesagt, dass er zwei Gründe hinter den Abstürzen vermutet. Zum einen, dass die AIBs die Karten, dank fehlender Treiber, nicht richtig testen konnten und zum anderen, dass dadurch die Caps nicht immer ausreichend für die Chipgüte sind.

Die Chips werden also zu nah an ihr Maximum getrieben und dann reicht eine etwas zu schlechte Filterung aus und es kommt zum crash.

Das war der Inhalt seines ersten Videos und damit hat er vollkommen recht. EVGA hat das 1:1 bestätigt, ASUS hat deswegen ja sogar die Produktion verzögert und Zotac berichtet auch das gleiche.

Bist du jetzt ernsthaft sauer auf Igor, dass er das aufgedeckt hat? Nur weil es Nvidia betrifft? Wenn es AMD wäre, würdest du ihn doch feiern :freak:

HOT
2020-09-28, 11:24:36
Ich hatte sogar ein Eindruck, dass Igors im letzten Video sogar meinte, dass das immer passieren kann, weil die Chipgüte manchmal einfach zu schlecht ist. Mit den Kondensatoren kann man den Effekt minimieren, es sollte auch keine Strix geben, die ausfallen würde, egal wie schlecht der Chip ist. Andererseits gibts halt auch Zotacs, die nicht ausfallen, weil die Chipgüte extrem gut ist. Diesen Fehler hätte man eben vermeiden können, wenn die Hersteller ihre Produkte vorher richtig hätten durchtesten können. Dann wäre das sofort aufgefallen und man hätte die Karten anders bestückt. Das meinte Igor mit seiner Kritik ebenfalls. Karten, die nicht funktionieren, werden jetzt zu RMA-Fällen und die nächste Karten-Revision dürfte die richtige Bestückung zum Standard machen, damit auch schlechte Chips funktionieren. Der Kunde hat aber den Ärger. Ob das die Leak-Prävention den letzten Monat wert war, wage ich zu bezweifeln.

Badesalz
2020-09-28, 11:58:09
Hat was von Ferarri Engine im Golf. Geht nicht weil?... Naja, geht, aber Sinn?Diese Analogie erschließt sich mir erstmal nicht. Kannst du das erläutern?

Ist das sowas wie, es würde keinen Sinn machen die Leistung von z.B. 2600k und 4790k zu vergleichen, wenn man dafür WinRAR4 statt WinRAR5 nutzen würde? Weil?

@HOT
Das ist richtig.

maximus_hertus
2020-09-28, 12:38:43
Igor kann ich blad nicht mehr ernst nehmen, jetzt rudert er zurück und die abstürze sollen an schlechte chips liegen.

Ich habe mal gesucht aber dazu NICHTS gefunden. Hast du mal einen Link oder besser ein Zitat?

robbitop
2020-09-28, 12:59:23
Was redet ihr für ein müll!?! 7900gtx zu 8800gtx war was mit 80% und ich habe gesagt seit g80 es gebracht hat und nicht wie g80.

Und deine 45% stimmen auch nicht, cpu limit die 3090 kann sich praktisch nirgends absetzen, erst im gpu limit haben wir 15-20% zur 3080.
Im absoluten GPU Limit sind es >230 %:
https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/28/#abschnitt_performancerating_qualitaet
2560er Auflösung mit AA/AF

Schlimmer wirds, wenn der Spieleparcours aus Shaderlastigen Spielen besteht. Dann stallen die G7x Pipelines wie verrückt. Schon in dem Parcours aus 2006 sieht man das gut in Relation zum R580 (1900XT).

=Floi=
2020-09-28, 13:09:47
2,1GHz mit der 3090 unter luft bei 8auer. (keine test karte, sondern gekauft angeblich) Aber der verbrauch ist nicht mehr schön, er meint aber das mit wakü mehr gehen sollte. wird wohl bald ein video mit wakü kommen.


mit nem eck mehr spannung!
edit und nicht stabil! Noch dazu mit einer 60 kondensatoren karte!

robbitop
2020-09-28, 13:10:18
aber neue architektur wäre jetzt auch übertrieben... ist irgendwas zwischen "refresh" und neuer architektur... weil das grundkonstrukt ist immernoch turing, einfach massiv auf steroiden, ähnlich zen1/+ --> zen2.
Die Frage ist, wo ist die grenze zwischen Evolution und Revolution? Moderne uArchs sind mehr oder weniger für lange Zeit Evolution. Einfach weil es effizienter ist. Man kann in heutigen NV GPUs noch viele Ansätze von Fermi erkennen, die Zug um Zug weiter entwickelt worden sind.

Weiterhin sollte man nicht zu sehr auf Schaubilder seine Meinung bilden. Die Dinge sind in der Regel häufig in Hardware zumindest partiell anders umgesetzt - bzw können ähnlich wirkende uArchs in Wahrheit schnell mal anders umgesetzt sein.

Es gibt kleine Sprünge und größere Sprünge. Richtig neue uArchs sind allerdings selten.

Ein kleinerer Sprung war IMO Maxwell -> Pascal.

Größere Sprünge:
Auch wenn man es auf den Schaubildern nicht sieht: Tesla zu Fermi
Fermi -> Kepler
Pascal -> Turing/Volta

Kepler -> Pascal IMO eher ein mittlerer Sprung. Einiges - aber nicht alles davon war bspw schon in Tegra Kepler und/oder GK210 zu finden.

Ich würde IMO Ampere (stimme hier reaperrr zu) auch als mittleren Sprung implementieren. Da hat sich schon doch einiges getan. Es wurde aber auch einiges auf Turing aufgebaut.

Am Ende sind es aber alles keine neuen uArchs.



In der Transistorzahl und Fläche von GA102 hätte man in Samsung's 8N wahrscheinlich einen Turing mit 104 SM verteilt auf 8 GPC und ein 448bit SI unterbringen können, was zumindest in aktuellen Spielen wahrscheinlich schneller gewesen wäre.

Das Problem ist Auslastung bei 3D Grafik. Nicht ohne Grund investieren beide IHVs enorm viele Transistoren in Taktbarkeit, Granularität/Kontrolllogik/IPC. Man hätte ansonsten mit weniger Transistoren auch einfach ältere uArchs hochskalieren können. Die Auslastung ist nach meiner Vermutung asymtotisch verknüpft mit steigender Anzahl an Ausführungseinheiten.

Korvaun
2020-09-28, 13:46:06
Die Karten laufen einfach zu hart am Limit. Und das "out of the box". 50 Mhz weniger max-boost und es würde wahrscheinlich keine einzige Karte Probleme machen. Warum die 3080er anscheinend keinerlei Sicherheitspuffer mehr haben, ich versteh es nicht.... oder sollte Jensen wirklich so panische Angst vor BigNavi haben?

dildo4u
2020-09-28, 13:49:55
Was hat das mit angst zu tun die Day One Reviews müssen gut aussehen AMD senkt mit jeder Gen den OC Spielraum bei Zen.
Es macht null Sinn was liegen zu lassen wenn nur 10% der Kunden überhaupt mit OC rumspielen.

robbitop
2020-09-28, 13:56:56
Meine Vermutung: der 8nm Prozess war schlechter als antizipiert und man musste die Chips prügeln, damit man sie auf die gewohnten Taktratenbekommen hat.

Beweise außer der Historie gibt es allerdings keine. NV Karten waren eigentlich in den letzten Jahren (mit FE Takt) nie am Limit und die TDP war auffällig niedriger. Und es ist das einzige Beispiel mit Samsung als Lieferant für nahezu das ganze Lineup.
Beim GP107 war Samsung IMO auch auffällig. Die maximalen Taktraten und das OC Verhalten im Schnitt war deutlich schlechter als von den TSMC Familienmitgliedern.

Einen sauberen 1:1 Vergleich gibt es leider nur sehr selten (gleicher Chip aber von 2x Foundries hergestellt). Zuletzt war das IIRC beim Apple A9 der Fall. Und auch da sah der Samsung Chip etwas schlechter aus.

Man kann nicht umhin, dass da eine Art Muster erkennbar ist.

Ich vermute, dass mit TSMCs N7/N7P ein unauffälliges Ergebnis herausgekommen wäre. Übliche Taktraten, übliche Spielräume, übliche TDPs.

Ist aber natürlich Spekulation.

hlynska
2020-09-28, 13:58:53
Igor kann ich blad nicht mehr ernst nehmen, jetzt rudert er zurück und die abstürze sollen an schlechte chips liegen. wie ich es ja eh von anfang an gesagt habe... das die kondensatoren bei max takt einen unterschied ausmachen können wird definitiv so sein, hat stock aber kaum einen einfluss. die 2GHz+ wo es bracht sind mir nach wie vor ein rätsel wo die stock herkommen sollen. mir ist es schlicht auch ein rätsel wie so das KEINER untersucht :rolleyes: aber man betreibt ja lieber clickbaits, das ist wichtiger.
Hmmm, kann ich so nicht bestätigen, im Gegenteil. Ich lese da beim ersten (initialen) Post noch vor dem Ding mit den Caps:
Produktionsstart ohne echte Funktionskontrolle?
...Da sich das Treiber-Problem bis kurz vor dem Launch hinzog, aber bereits die erste Welle der Karten produziert werden musste, beschränkte sich die Funktionsprüfung der ersten Modelle ganz offensichtlich aus Einschalten und thermische Stabilität. Läuft, läuft nicht. Nur sagt dies nicht sonderlich viel über die Chipqualität und die möglichen maximalen Frequenzen aus, die der jeweilige Chip dann auch sicher schafft. Somit wäre es zumindest plausibel, dass hier Karten als OC-Karten in den Handel gelangt sein können, die einen echten Qualitätstest beim Hersteller mit den ausgelieferten Settings so gar nicht bestanden hätten. Echtes Binning? Fehlanzeige. Nachträgliches Selektieren besonders übertaktungsfreudiger Karten? Faktisch unmöglich. Und so ist es durchaus nicht ausgeschlossen, dass sich auch der eine oder andere “Potato”-Chip auf so eine OC-Karte verirrt haben könnte...YouTube schaue ich seltener. Dürfte aber ähnlich ausfallen.

Korvaun
2020-09-28, 14:13:47
Was hat das mit angst zu tun die Day One Reviews müssen gut aussehen AMD senkt mit jeder Gen den OC Spielraum bei Zen.
Es macht null Sinn was liegen zu lassen wenn nur 10% der Kunden überhaupt mit OC rumspielen.

Wir reden hier von 1-2% mehr Speed wenn die Karte kalt ist bzw. wenn wenig Last drauf ist. Ich glaube das würde keinerlei Unterschied machen, selbst bei Benchmarks nicht...

Badesalz
2020-09-28, 14:24:18
Meine Vermutung: der 8nm Prozess war schlechter als antizipiert und man musste die Chips prügeln, damit man sie auf die gewohnten Taktratenbekommen hat.Taktraten sind... beiläufig.
Schreibt man stattdessen "Leistungsniveau", dann passt es 100%.

Allerdings bin ich weiterhin nicht so dafür wieder alles auf Samsung zu schieben. Man kann ja auch sehr optimistisch designen... Zum Beispiel.

Das alles allerdings, entschuldigt keineswegs nicht, daß man selbst bei den FEs nicht gepeilt hat, daß die Chips bei 2005 Mhz gedeckelt werden sollten.
Es scheint irgendwie (wegen dem gleichen Theater mit FEs), daß die AIBs ewig keine Treiber hatten, weil NV sie intern selbst auch nicht hatte.

p.s.:
Wobei OC damit eh lächerlich ist. Die Wattagen für die 3% sind ein schlechter Scherz.Keine Ahnung wer für solche Scherze MEHRgeld bezahlt. Keiner der bei Sinnen ist oder? =)

dargo
2020-09-28, 14:44:05
mit nem eck mehr spannung!
edit und nicht stabil! Noch dazu mit einer 60 kondensatoren karte!

Dazu passend... GA102 macht ootb 2,1Ghz. :ulol: Wobei... laut Dural sind wir schon bei 2,6Ghz. ;)
https://abload.de/img/zwischenablage01ick5j.jpg

https://youtu.be/BkTgYMlCl4E

Die Gigabyte sowie ASUS sind OC-Versionen mit >320W PT-Limit.

Meine Vermutung: der 8nm Prozess war schlechter als antizipiert und man musste die Chips prügeln, damit man sie auf die gewohnten Taktratenbekommen hat.

Aber gerade das ist das absurde daran. Die Dinger würden mit sagen wir mal 50Mhz weniger höchstwahrscheinlich keine Probleme bereiten, die Verlustleitung wäre unter 300W und keinem Schwein würden die minus 3-5% weh tun. Für mich ist es nicht nachvollziehbar warum Nvidia bei GA102 so einen beschissenen Betriebspunkt gewählt hat. Den einzigen Grund den ich hier sehe ist das Fürchten der Konkurrenz. Naja... bald wissen wir mehr ob Jensen zu hoch gepokert hat.


p.s.:
Wobei OC damit eh lächerlich ist. Die Wattagen für die 3% sind ein schlechter Scherz.Keine Ahnung wer für solche Scherze MEHRgeld bezahlt. Keiner der bei Sinnen ist oder? =)
Bei guter Verfügbarkeit gebe ich dir absolut recht. Da aber aktuell so gar nichts verfügbar ist greifen halt einige zu den "OC"-Varianten aus Verzweiflung. Hauptsache irgendwas bekommen.

Redneck
2020-09-28, 15:09:09
Gewisse gruppen haben einfach nach wie vor nicht begriffen das die 3080 und vorallem die 3090 praktisch überall bis 4k hoch im cpu limit laufen.

Ampere hat dermassen viel leistung wie es zuletzt der g80 gebracht hat, jeder der das abstreitet hat für mich schlicht nicht die kohle für eine 3090 und muss sie sich schlecht reden.

Und das richtig schöne bei ampere, die gpu ist für die zukunft super aufgestellt! Das konnte man bei zb. Pascal nicht gerade behaupten.
und man muß dermassen viele Kröten schlucken, das viele sie einfach nicht als so super duper ansehen wie Du... das hat mit Knete nix zu tun, sondern mit anderer Sichtweise.
Die meißten hier stehen sicherlich voll im Leben und haben nen Job, Famile,etc.. 1500€ sind da für viele keine Hürde und wir müssen den Marken nicht hinterherlaufen wie verpickelte Teenager dem neuesten Iphone.

robbitop
2020-09-28, 15:27:34
Taktraten sind... beiläufig.
Schreibt man stattdessen "Leistungsniveau", dann passt es 100%.

Ich meine schon Taktraten.


Allerdings bin ich weiterhin nicht so dafür wieder alles auf Samsung zu schieben. Man kann ja auch sehr optimistisch designen... Zum Beispiel.


Da hast du Recht. Man kann es nicht mit Gewissheit sagen, auch NV kann mal daneben liegen.
Es ist aber schon auffällig, dass immer wenn Samsung bei NV (und auch bei Apple) zum Einsatz kommt, die Taktrate und/oder die TDP nicht da liegt, wo man es sonst gewohnt ist.

Man darf auch nicht vergessen, dass 8 nm ein 10 nm Ableger ist und 7 nm entsprechend von Haus aus eine bessere Performance/Power Charakteristik liefert.
8 nm scheint eher ein kostenoptimierter Prozess.

aufkrawall
2020-09-28, 15:31:44
Siehe auch Polaris 30: Schafft bei immer noch 14nm mitunter deutlich mehr Takt als P10 bei gleichzeitig niedrigerer Spannung. Der Prozess war zu Beginn komplett gurkig.

Asaraki
2020-09-28, 15:41:06
und man muß dermassen viele Kröten schlucken, das viele sie einfach nicht als so super duper ansehen wie Du... das hat mit Knete nix zu tun, sondern mit anderer Sichtweise.
Die meißten hier stehen sicherlich voll im Leben und haben nen Job, Famile,etc.. 1500€ sind da für viele keine Hürde und wir müssen den Marken nicht hinterherlaufen wie verpickelte Teenager dem neuesten Iphone.

Ich find den Vorwurf man könne sich etwas nicht leisten, nur weil man es nicht kaufen will immer so lustig ^^ So ködern sie auch Leute in Designerläden :D
Edit : Für mich persönlich gibt es einfach zu viele Dinge in anderen Lebensbereichen, die für das gleiche Geld einfach so viel mehr bieten, das kann ich dann beim besten Willen nicht rechtfertigen und finde an dem Punkt wäre das Geld gespendet definitiv besser investiert.

Digidi
2020-09-28, 15:59:36
und man muß dermassen viele Kröten schlucken, das viele sie einfach nicht als so super duper ansehen wie Du... das hat mit Knete nix zu tun, sondern mit anderer Sichtweise.
Die meißten hier stehen sicherlich voll im Leben und haben nen Job, Famile,etc.. 1500€ sind da für viele keine Hürde und wir müssen den Marken nicht hinterherlaufen wie verpickelte Teenager dem neuesten Iphone.

Amen! Ich könnte mir die 3090 auch locker leisten. Aber wieso soll ich Jensen mein Geld hinterherwerfen. Jeder der logisch denken kann weiß das die 3090 in der Herstellung nicht viel teurer sein kann als eine 3080. Schätze mal Maximal 15% wenn Jensen 30% dafür aufgeschlagen hätte wäre das noch ihm Rahmen gewesen (ca. 900-1000 Euro).

Leonidas
2020-09-28, 15:59:49
Haben wir denn eigentlich heute schon einen Fall wo die 3090 überproportional besser ggü der 3080 10G ist, WEIL letzterer der Speicher ausgeht?*


8K-Benchmarks von Golem:
https://www.golem.de/news/geforce-rtx-3090-im-test-titan-power-mit-geforce-anstrich-2009-151078-2.html

Fragman
2020-09-28, 16:09:22
Die meißten hier stehen sicherlich voll im Leben und haben nen Job, Famile,etc..

Die sind auch gar nicht die Zielgruppe der 3090.
Mittlerweile wird das automatisch von vielen angenommen (vielleicht weil nv für viele immer noch nur für Gaming steht?). Dabei macht der Preis und die Ausstattung schon von vornherein klar, wo das Modell hingehört.

Hasenpfote
2020-09-28, 16:20:53
Die meißten hier stehen sicherlich voll im Leben und haben nen Job, Famile,etc.. 1500€ sind da für viele keine HürdeWas hast Du bzw. Deine Frau/Freundin denn für'n Job, wenn 1500€ für ne Grafikkarte trotz "Familie, etc." keine Hürde darstellen? :freak:

Redneck
2020-09-28, 16:47:56
Was hast Du bzw. Deine Frau/Freundin denn für'n Job, wenn 1500€ für ne Grafikkarte trotz "Familie, etc." keine Hürde darstellen? :freak:
wenn ich dir erzähle, was ich die ersten 2 Jahre an Kitagebühren jeden Monat hingelegt habe, lächelst du nur noch milde über 1500.

Hakim
2020-09-28, 16:50:32
Jeder der logisch denken kann weiß das die 3090 in der Herstellung nicht viel teurer sein kann als eine 3080. Schätze mal Maximal 15% wenn Jensen 30% dafür aufgeschlagen hätte wäre das noch ihm Rahmen gewesen (ca. 900-1000 Euro).

Ist das nicht überall so? Der neue 911 Turbo S ist auch nicht doppelt so schnell wie der Basis 911er aber kostet ~doppelt. Für das letzte Stück Maximum zahlt man halt fast überall überproportional viel.

Vor allem wenn man noch ganz alleine die Leistung bringen kann wie aktuell.

Redneck
2020-09-28, 17:03:25
Ist das nicht überall so? Der neue 911 Turbo S ist auch nicht doppelt so schnell wie der Basis 911er aber kostet ~doppelt. Für das letzte Stück Maximum zahlt man halt fast überall überproportional viel.

Vor allem wenn man noch ganz alleine die Leistung bringen kann wie aktuell.
Man zahlt für die Exklusivität.. Die Teile sind oftmals limitiert.. kleinere Stückzahl.. mehr image..
Bei ner 3090 kann ich (sobald die Fertigung vernünftig läuft) keine Exklusivität erkennen.. das ist Massenware aus einer Produktionsstrasse. Vergoldeter Nippes sozusagen.. die ist am Ende ihres Lebens nicht mehr wert wie beim Verkaufsstart. So ein Wägele bekommt im Laufe seiner Jahre aber Sammlerstatus und wäre somit auch investitionsobjekt.

im Übrigen : wer sich ein €100.000 WAgen zulegen kann, der springt i.d.R. auch bei 200.000 über die Hürde.

Hakim
2020-09-28, 17:12:13
Ja stimmt schon alles was du sagst, ich meinte halt das einTop Modell einer Reihe immer schönen Aufpreis hat, bleiben wir bei Hardware und nehmen wir z.B AMD Ryzen, der 3950X kostet knapp 700€ und der unwesentlich langsamere 3900X 400€.

Redneck
2020-09-28, 17:12:20
Die sind auch gar nicht die Zielgruppe der 3090.
Mittlerweile wird das automatisch von vielen angenommen (vielleicht weil nv für viele immer noch nur für Gaming steht?). Dabei macht der Preis und die Ausstattung schon von vornherein klar, wo das Modell hingehört.
Echt ? und wieso besteht die Masse der Benches aus Gaming Titeln (ernst gemeinte Frage).
Dann hätten sie die auch als Quadro vermarkten können, da käme wenigstens keiner auf die dumme Idee übertakten zu wollen ;D (oder ist die Karte etwa nicht solid/zuverlässig genug for proffessional use)?
Dachte immer NV steuert die Vergabe der Testsamples... hätten sie mal keine an PCGH und Co geben sollen, wenn sie nur die Profis erreichen wollen.

Redneck
2020-09-28, 17:18:31
Ja stimmt schon alles was du sagst, ich meinte halt das einTop Modell einer Reihe immer schönen Aufpreis hat, bleiben wir bei Hardware und nehmen wir z.B AMD Ryzen, der 3950X kostet knapp 700€ und der unwesentlich langsamere 3900X 400€.
jup, habe dich schon verstanden.
Das Ding ist, das dort , wo die Leistung abgefordert wird und die letzten Prozent an Performance "gebraucht" werden, Kosten oftmals eine untergeordnete Rolle spielen (Gewerbe, Industrie, Entwicklung, Forschung..
da werden die Teile angeschafft und teilweise von den Steuern abgesetzt).
Als Privatmensch kalkulierst Du da anders.

dargo
2020-09-28, 17:21:40
Dachte immer NV steuert die Vergabe der Testsamples... hätten sie mal keine an PCGH und Co geben sollen, wenn sie nur die Profis erreichen wollen.
Autsch. :D Ist aber schon was Wahres dran.

Jetzt nicht falsch verstehen. Das soll kein Seitenhieb Richtung PCGH und Konsorten sein. Ich frage mich aber auch wie unparteiisch bzw. kritisch eine Redaktion XYZ an die Sache rangeht wenn sie bei zu großer Kritik riskiert, dass zukünftig keine Testsamples mehr kommen. Und das meine ich nicht speziell auf Nvidia bezogen sondern auch AMD/Intel. Wobei ich jetzt nicht genau deuten kann wie AMD/Intel mit Kritik umgeht.

=Floi=
2020-09-28, 17:24:36
z.B AMD Ryzen, der 3950X kostet knapp 700€ und der unwesentlich langsamere 3900X 400€.

amd cpus sind ein blödes beispiel. der mehrpreis hällt sich in grenzen und ist selbst bei den größeren cpus im rahmen. Du kannst das produkt überhaupt kaufen und es läuft auf der kleinen platform. Intel würde für den 12 kerner schon 1000€ nehmen.
Nebenbei skalieren die 16 kerne bei entsprechender software auch noch richtig gut mit und der anwender profitiert erheblich von der mehrpower.


Ich sehe eher die 3080er als "mogelpackung" an, weil zB auch der 3090 kühler erheblich größer und leiser ist. Hier bringt der größere lüfter erheblich mehr. (komfort)

MiamiNice
2020-09-28, 17:24:45
Arbeitet eigentlich niemand von uns bei irgendeinem HW Versand und könnte was zur Situation erzählen? Sprich wann neue Karten kommen? Oder was zur Produktion sagen?

Redneck
2020-09-28, 17:25:16
Autsch. :D Ist aber schon was Wahres dran.
nicht so, wie Du meinst :biggrin:
die PCGHs sind natürlich auch Profis !

Fragman
2020-09-28, 17:31:05
wenn sie nur die Profis erreichen wollen.

Es gibt nicht nur Gamer und Profis.
Die Benches waren doch auch dabei, zb von Blender, Vray oder Adobe.

Redneck
2020-09-28, 17:40:22
Es gibt nicht nur Gamer und Profis.
Die Benches waren doch auch dabei, zb von Blender, Vray oder Adobe.
nicht falsch verstehen... mit Profis meine ich diejenigen, die die Karten für Ihre Arbeit (und damit meine ich nicht e-sports) benötigen.

Blender & Co sind aber nur ein Kleiner Teil.. die Masse lief über Gaming Benches und die verteilten Exemplare gingen auch grossenteils an Gaming Mags/Reviewer.

Du und NVs Marketingabtlg. haben offensichtlich eine unterschiedliche Auffassung , worin die Zielgruppe für die 3090 besteht.

Gouvernator
2020-09-28, 17:54:58
Amen! Ich könnte mir die 3090 auch locker leisten. Aber wieso soll ich Jensen mein Geld hinterherwerfen. Jeder der logisch denken kann weiß das die 3090 in der Herstellung nicht viel teurer sein kann als eine 3080. Schätze mal Maximal 15% wenn Jensen 30% dafür aufgeschlagen hätte wäre das noch ihm Rahmen gewesen (ca. 900-1000 Euro).
Außer Jensen macht ja keiner die dicken GPUs mehr. Alles nur Low-End oder Mid-Range. Er kann deswegen jeden Preis nehmen. Was sie auch taten mit 2700€ zuvor. Aber durch die ARM Übernahme brauchen sie etwas Bargeld. Und deswegen haben sie die Titan deutlich billiger gemacht um mit mehr Umsatz mehr Geld zu generieren. Wenn du gerade Monopolist bist und hast etwas für 40 Milliarden gekauft, dann willst du bestimmt nichts für Selbstkosten + 10% verkaufen.

Badesalz
2020-09-28, 18:13:54
Es ist aber schon auffällig, dass immer wenn Samsung bei NV (und auch bei Apple) zum Einsatz kommt, die Taktrate und/oder die TDP nicht da liegt, wo man es sonst gewohnt ist.Verstehe weiterhin nicht was du meinst.
OEM. Normalerweise.
Die 3080 zieht bei guter Lukü knapp bis 1900 (Asus)
Die 2080ti macht 1545 (Asus Strix)
Die 1080Ti macht 1683 (Asus Strix)

Welche "gewohnten" Taktraten meinst du denn?

Man darf auch nicht vergessen, dass 8 nm ein 10 nm Ableger ist und 7 nm entsprechend von Haus aus eine bessere Performance/Power Charakteristik liefert.
8 nm scheint eher ein kostenoptimierter Prozess.Immernoch nicht. Den absoluten Peak des Boosts auf 2005 Mhz deckeln, TBP auf ~278W stellen und schon ist alles bestens. Mit Ampere und mit Samsungs 8nm.

Irgendwas hat sie aber zu Flucht nach vorn getrieben... Denke Intel war es erstmal eher nicht :whisper: Wie das Design mit 7nm gelaufen wäre spielt hierbei aber überhaupt keine Rolle. Garkeine Geige. Es geht darum durch welche Nöten bitte sie das Design wie auch den Prozess dermassen überfahren haben. Leistung gibt es auch mit obigen Vorschlag genug.

Der Launch ist leider der übelste seit dem leaf-blower damals. Es ist wie es ist. Und es liegt nicht an Samsung. Immernoch nicht.

SKYNET
2020-09-28, 18:19:27
Weiterhin nicht verständlich.
OEM. Normalerweise.
Die 3080 zieht bei guter Lukü knapp bis 1900 (Asus)
Die 2080ti macht 1545 (Asus Strix)
Die 1080Ti macht 1683 (Asus Strix)

Welche "gewohnten" Taktraten meinst du denn?

Immernoch nicht. Den absoluten Peak des Boosts auf 2005 Mhz deckeln, TBP auf ~278W stellen und schon ist alles bestens. Mit Ampere und mit Samsungs 8nm.

Irgendwas hat sie aber zu Flucht nach vorn getrieben... Denke Intel war es erstmal eher nicht :whisper:


die asus 1080Ti/2080Ti karten waren ja auch kühlertechnisch totaler abfall... meine 1080Ti aorus xtreme geht ohne erhöhung des PL bis 1963MHz... und den takt hält sie auch nahezu in allen games durchweg, ohne das es wie nen staubsauger aus dem case tönt. :freak:

dargo
2020-09-28, 18:23:49
Die 2080ti macht 1545 (Asus Strix)

Wo hast du den Quatsch her? Schon die 2080TI FE boostete wesentlich höher.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40

Badesalz
2020-09-28, 18:31:00
Hab grad bei Techpowerup nochmal geschaut um keinen Quatsch zu posten und dann kommt dargo... :ulol: :up:

Was kommt dabei aber sonst raus? Turing bostete also ("Taktraten") auf wieviel? Pascal bostete auf wieviel?
1900 bei Ampere sind aber keine "gewohnten" Taktraten mehr? Verstehe ich immernoch nicht.

EDIT:
Was sagt man eigentlich dazu, wie Asus die Kühlung hinbekommen hat?? :D

ChaosTM
2020-09-28, 18:48:43
Die 1080ti`s boosten alle viel höher. Selbst die billigsten.
1900 können eigentlich alle

Meine Gigabyte macht um die 1900 bei 86% PT. Bleibt dabei praktisch unhörbar im Define6.

Daredevil
2020-09-28, 18:49:12
Die Asus Strix 2080ti ist auch bei um die 1900Mhz, hatte die bis vor einer Woche.

Badesalz
2020-09-28, 19:03:03
Fein. Die 1080Ti bostet also bis 1900 und die 2080ti bostet bis 1900. Die 1900 der 3080 sind aber keine "gewohnten" Taktraten mehr?

Wobei die 3080 kann ja stabil, egal mit welchen Elkos, bis 2000.
Was ist denn also jetzt so schlecht an den 8nm? Das sind 9.7Mrd. Transistoren mehr auf der 3080, die immernoch mit 1900 laufen.

Der Chip ist eine ganze Ecke kleiner, die Leistung für mich bei 278W vs. die 250W der 2080Ti und + GDDRX6, des Geldes (Versprechungen zum Launch) an sich wert.

Es ist alleine die Frage was da passiert ist, als sie beschlossen mit den Eckdaten doch höher zu gehen (Scheibenwischer). Das ahnen wir aber so langsam, nach und nach ;)

Bis dann mal.

Tesseract
2020-09-28, 19:32:30
ich kenne in freier wildbahn keine einzige 1080Ti die abseits vom thermalthrottle nicht deutlich über 1900 boostet. die machen ~1940, ~1970, ~2025 (meine) und ~2060 OOTB.

SentinelBorg
2020-09-28, 19:53:08
Ich stimme Badesalz da aber zu. Ich sehe nicht wo man nun im Besonderen den Samsung Prozess angreifen kann. Das Verhältnis von Taktraten, zu Stromverbrauch und Wärmeentwicklung hin zur Menge an Transistoren pro mm² scheint mir absolut in Ordnung zu sein, wenn die Karte halt nicht direkt von Start weg dermassen hochgezüchtet ausgeliefert werden würde. Mit einem PT von 280 oder 300 Watt wäre die 3080 immer noch ein deutlicher Sprung gewesen ohne die ganze Folgeprobleme des nun gewählten höheren Powertargets.

Stellt sich die Frage nach dem Warum. Hat Nvidia soviel Angst vor RDNA2? Hat Jensen die Karten deswegen so hart auf Kante gezimmert? Oder ist es einfach nur ein Ergebnis weil man dank deutlich besserem FE Lüfter nun einfach konnte?

woodsdog
2020-09-28, 20:16:03
8K-Benchmarks von Golem:
https://www.golem.de/news/geforce-rtx-3090-im-test-titan-power-mit-geforce-anstrich-2009-151078-2.html

"bitte keine 8k20 Beispiele. 4K, Regler nach rechts."
Als Antwort kommt das kaputte HZD und... 8K benches. :wink:

v0v

DavChrFen
2020-09-28, 20:19:16
Ich glaube nach wie vor, dass der Gegner Intel heißt: Vielleicht brauche sie Kontinuität gegenüber gewissen Kunden( wir liefern jede Generation mindestens X Prozent mehr auf der höchsten Ausbaustufe), vielleicht will man Intel in jedem Programm/ Benchmark, was GPUs angeht, schlagen, insbesondere bei den Rosinen an synthetischen Benchmarks, die Intel zum Launch zeigt, vielleicht hat Intel noch was in der Hinterhand( Ist der Satz deutsch? ). Intel hat auch Kunden, die auf CPUs optimiert haben mit dem ganzen Framework/ Support, das Intel hat. Wenn man nun diesen Leuten nahebringen möchte, auf eine Intel-Gpu zu wechseln, wird das für Intel leichter sein als wenn NVidia diesen Leuten nahebringen möchte auf ihr Framework/ Support zu wechseln. In dieser Konstellation ist NVidia der Underdog und muss daher etliches mehr liefern als Intel. Und einer der Punkte ist viel bessere Hardware.

Daredevil
2020-09-28, 20:31:15
Ampere ist halt die Radeon VII von Nvidia.
Eine Architektur, die massiv viele Einheiten hat und in Compute Workloads glänzt, zudem aber auch noch Gaming mitnimmt.

Lieber Compute und Gaming als Nebenschauplatz als Gaming und Compute als Nebenschauplatz.
Mit ersterem verdient man mehr Geld als mit zweiten, sieht man z.B. ab RDNA, die im Compute gegenüber der VII abstinken.

Wobei ich da aber Nvidia zutraue, dass sie die vielen Einheiten für andere Dinge aktiv nutzen. ( RTX Broadcast, NVENC ect. )

Tesseract
2020-09-28, 21:02:34
Eine Architektur, die massiv viele Einheiten hat und in Compute Workloads glänzt, zudem aber auch noch Gaming mitnimmt.

das verhältnis von FP32 zu INT32 entspricht bei ampere eher dem spielealltag als bei turing, ich sehe da nichts was speziell "compute" wäre.

fakt ist halt, dass FP32 seit mehreren generationen in spielen viel häufiger der flaschenhals ist als andere stellen und sowohl pascal als auch ampere gerade da viel getan haben.

Langlay
2020-09-28, 21:08:30
ich kenne in freier wildbahn keine einzige 1080Ti die abseits vom thermalthrottle nicht deutlich über 1900 boostet. die machen ~1940, ~1970, ~2025 (meine) und ~2060 OOTB.


Meine 3090 non OC boostet ~1800 MHz im GPU Limit, im CPU Limit auch mal mit bis zu 1950 MHz.

Zossel
2020-09-28, 21:18:02
Ich hatte sogar ein Eindruck, dass Igors im letzten Video sogar meinte, dass das immer passieren kann, weil die Chipgüte manchmal einfach zu schlecht ist. Mit den Kondensatoren kann man den Effekt minimieren,

Jeder Digital-Chip zieht große Spitzen wenn auf einen Schlag viele Transen umschalten. In den Chip/Die selbst werden mittlerweile ganze Layer als Kondensator "geopfert" um diese Stützkapazität mit möglichst wenig Impedanz an den Verbraucher zu koppeln.

Und es ist ganz klar Aufgabe des Chipherstellers zu definieren was der jeweilige Chip benötigt, incl. Toleranzen und Alterung.

Badesalz
2020-09-28, 22:12:20
ich kenne in freier wildbahn keine einzige 1080Ti die abseits vom thermalthrottle nicht deutlich über 1900 boostet. die machen ~1940, ~1970, ~2025 (meine) und ~2060 OOTB.Das passt immernoch. 2000 macht die 3080 ja noch. Sie sollte nur nicht drüber.

Nur das Ansagen von deutlich über 1900, und dann mit 1940 anfangen... so lala ;)

Raff
2020-09-28, 22:19:26
Meine 3090 non OC boostet ~1800 MHz im GPU Limit, im CPU Limit auch mal mit bis zu 1950 MHz.

Du hast eine von den 3 weltweit verfügbaren Founders-Editionen ergattert, oder? Ich hasse dich zwar ein bisschen dafür ;), würde dir aber dazu raten, den Boost obenrum hart zu cappen und mal im Bereich 1.800 MHz mit 0,8 Volt herumzufummeln. Unterm Strich bringt das glattere Frametimes, weniger Durst und noch weniger Lüfter-Action. =)

MfG
Raff

Badesalz
2020-09-28, 22:26:45
Man kann hier im roten Forum mal die Jungs abfragen wie man optimal bei UV+OC vorgeht...

:wink:

Troyan
2020-09-28, 22:30:21
Meine 3090 non OC boostet ~1800 MHz im GPU Limit, im CPU Limit auch mal mit bis zu 1950 MHz.

Die 3090 TUF mit Performance bis 1995MHz. Hat sich Asus wohl nicht getraut, die 2GHz Marke in Angriff zunehmen. :D

Langlay
2020-09-28, 22:55:20
Die 3090 TUF mit Performance bis 1995MHz. Hat sich Asus wohl nicht getraut, die 2GHz Marke in Angriff zunehmen. :D

Ich hab ne Palit 3090 Gaming Pro. Aber ja 1995 MHz ist auch bei mir der höchste Boost.


Du hast eine von den 3 weltweit verfügbaren Founders-Editionen ergattert, oder? Ich hasse dich zwar ein bisschen dafür ;), würde dir aber dazu raten, den Boost obenrum hart zu cappen und mal im Bereich 1.800 MHz mit 0,8 Volt herumzufummeln. Unterm Strich bringt das glattere Frametimes, weniger Durst und noch weniger Lüfter-Action. =)

MfG
Raff

Ich wollte tatsächlich die Palit/Gainward Karte mit dem Referenz PCB. Weil es dafür Wasserkühler gab und im Gegensatz zur Gigabyte die Palit/Gainward ihre 2x 8 Pin auf dem PCB haben nur nicht son extra teil.

Aber ja 1800MHz @0.8V ist auch mein 24/7 Setting. Allerdings biste da beim Witcher in 4k immernoch bei 300-320W

/Edit schlechtes Handyfoto hinzugefügt ^^



https://abload.de/img/img_20200928_230054fjk7o.jpg

r3ptil3
2020-09-28, 23:08:35
@Langlay

Also ich finde mit so kleinen Bildern kommt man hier nicht weit, erkennt man ja fast nix.

Badesalz
2020-09-28, 23:24:54
Hmmm... Die Radeon Group würde die Farbgebung bestimmt begeistern :ulol:

Langlay
2020-09-28, 23:37:22
Hmmm... Die Radeon Group würde die Farbgebung bestimmt begeistern :ulol:

War bis zum Wochenende auch das Zuhause für ne Radeon VII ^^.

Aber ich mag die rote Puffbeleuchtung.


@Langlay

Also ich finde mit so kleinen Bildern kommt man hier nicht weit, erkennt man ja fast nix.

Im Kontrollzentrum unter Einstellungen kannste die maximale Bildbreite beschränken und dann ist das Problem gelöst.

Edgecrusher86
2020-09-29, 08:59:38
8K-Benchmarks von Golem:
https://www.golem.de/news/geforce-rtx-3090-im-test-titan-power-mit-geforce-anstrich-2009-151078-2.html

Das NV-Marketing hätte die 3090 als 5K Karte bewerben sollen bei 60+ fps und dann von mir aus "up to 8K". So wenige halbwegs aktuelle Spiele, wie es gibt, wo hier nativ 40+ fps möglich sind (AC :O etwa). Mir scheint, man wollte nur zeigen, schaut her - wir haben hier deutlich über 12GB VRAM Allocation und es läuft flüssig genug für Demo-Zwecke. :D
Ne ne - halbwegs anständig 8K (mitsamt G-SYNC) geht dann in Titeln wie RDR2 eh nur mit 2x 3090 im explizit MGPU Modus - aber solche sind ja rar gesäht - 14 gibt es nur - viel besser wird das in Zukunft auch nicht werden, eher schlechter, wenn nur noch die 90er das unterstützt...Sehr schade bei der theor. Rohleistung, der Bandbreite von NVL Gen 3 und dem dicken VRAM - dann macht er auch halbwegs Sinn!

Dural
2020-09-29, 09:07:22
Ich weiss nicht was hier habt, mit entsprechender Einschränkungen lauft praktisch jedes spiel in 8K auf der 3090.

Das man nicht alles max fahren kann sollte eigentlich ziemlich logisch sein, das geht heute ja nicht mal wirklich gut in 4K.

unl34shed
2020-09-29, 09:17:47
Dann ist ne 1060 auch ne 4k Karte, mit Low setting läuft ja auch alles in 4k? (Ich hab keine Benchmarks bemüht)

prinz_valium_2
2020-09-29, 09:18:16
https://i.imgur.com/crpPWm8.png

Olliver
2020-09-29, 09:46:35
Haha, jetzt müssen alle Tester alle Benchmarks neu machen.

Edgecrusher86
2020-09-29, 09:50:27
Ich weiss nicht was hier habt, mit entsprechender Einschränkungen lauft praktisch jedes spiel in 8K auf der 3090.

Das man nicht alles max fahren kann sollte eigentlich ziemlich logisch sein, das geht heute ja nicht mal wirklich gut in 4K.

Low preset und die 60 sind sicher! :freak:
Überspitzt gesagt - medium preset wird es wohl eher sein....

Naja, so eine Karte muss aber kompromisslos maxed out betrieben werden -> darum hätte ich sie als 5K Karte beworben, meine Meinung. :)

E: Mal sehen, ob diese Anpassung oben in der Curve schon langt...

Adam D.
2020-09-29, 09:50:45
Haha, jetzt müssen alle Tester alle Benchmarks neu machen.
Wegen wahrscheinlich ein paar MHz weniger in den meisten Lastszenarien? Ich find die ganze Geschichte auch nicht ganz koscher, aber man muss die Kirche jetzt schon im Dorf lassen.

S-Kq7sMCncE

Dural
2020-09-29, 10:11:17
Endlich mal ein gutes Video zu dem Thema, der8auer ist der einzige Youtuber im DACH Raum der man brauchen kann.

MiamiNice
2020-09-29, 10:14:57
Haha, jetzt müssen alle Tester alle Benchmarks neu machen.


Du erfreust Dich daran das andere Menschen doppelt arbeiten müssen bzw. das Arbeit wertlos geworden ist? Noch ein Kandidat für die Liste :freak:

dargo
2020-09-29, 10:19:23
https://i.imgur.com/crpPWm8.png
:biggrin:

Aber gut... ist die einfachste Lösung.

Haha, jetzt müssen alle Tester alle Benchmarks neu machen.
Ob das den Aufwand wert ist? Wenn man weiß, dass GA102 bei etwa 920-925mv (https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/12/) arbeitet dann wird sich da im hohen GPU-Limit nahezu nichts ändern wenn ich mir die neue Spannungskurve so anschaue. Minus 1% Performance + minus grob geschätzt 10-15W (vielleicht auch 20W wenn ich zu stark daneben liege) und du hast deinen neuen GA102. ;) Man könnte auch sagen jetzt hat GA102 den besseren Betriebspunkt. :tongue:

Olliver
2020-09-29, 10:21:41
Du erfreust Dich daran das andere Menschen doppelt arbeiten müssen bzw. das Arbeit wertlos geworden ist? Noch ein Kandidat für die Liste :freak:
Muss man Ironie eigentlich immer extra kennzeichnen?
Ich freue mich nicht über die Mehrarbeit, finde das Ganze aber typisch für Nvidias Art alles kontrollieren zu wollen, so dass die eigene Qualität leidet.

Dural
2020-09-29, 10:24:39
OK habe jetzt das Video von 8auer angeschaut.

Man sieht ganz klar dort wo er von +100MHz auf +120MHz eingestellt hat die Karte gleich von 1900MHz auf 2100MHz rauf ist und gleich der Absturz kam.

Irgend wie scheint der Boost bei den Ampere Karten irgend wie komisch zu funktionieren.

Edit:
Komisch ist auch als er von +70 auf +100 Eingestellt hat sich der Takt im GPUZ gar nicht geändert hat, nur beim zwischen schritt auf +90 lagen für ganz kurze Zeit +30MHz an.

w0mbat
2020-09-29, 10:30:19
Der8auer bestätigt Igor, war doch von Anfang an klar, dass Igor Recht hat. Top Lötleistung vom Bauer :D

Asaraki
2020-09-29, 10:30:39
Muss man Ironie eigentlich immer extra kennzeichnen?
Ich freue mich nicht über die Mehrarbeit, finde das Ganze aber typisch für Nvidias Art alles kontrollieren zu wollen, so dass die eigene Qualität leidet.

Hab das durchaus so verstanden :) Nur um mal ausgleichend zu wirken ^^

Ist schade, finde ich ganz ehrlich. Aber man darf mal annehmen, dass nV da jetzt auch was gelernt hat draus =)

@Dural : Hab ich auch gesehen, wirkt irgendwie irrational, aber das hat man jetzt von den ganzen sehr aggressiven Boosts, wenn da temporär die Werte "korrekt" stehen, entscheidet die Karte halt zu boosten und schwupps. Die +20 lösten ja effektiv +135Mhz auf dem Chip aus

Dural
2020-09-29, 10:33:23
Der8auer bestätigt Igor, war doch von Anfang an klar, dass Igor Recht hat. Top Lötleistung vom Bauer :D

Ehm Nein, überhaupt nicht.

Laut dem 8auer Video ging die Karte mit den "guten" Kondensatoren nicht höher.

Man sieht aber eindeutig das die Karte aus dem nichts auf 2100MHz Springt obwohl deutlich weniger eingestellt wurde. Genau das dürfte das Problem sein.

mironicus
2020-09-29, 10:35:12
Meint ihr, das Problem könnte mit einem Biosupdate gelöst werden?

Adam D.
2020-09-29, 10:35:46
OK habe jetzt das Video von 8auer angeschaut.

Man sieht ganz klar dort wo er von +100MHz auf +120MHz eingestellt hat die Karte gleich von 1900MHz auf 2100MHz rauf ist und gleich der Absturz kam.

Irgend wie scheint der Boost bei den Ampere Karten irgend wie komisch zu funktionieren.

Edit:
Komisch ist auch als er von +70 auf +100 Eingestellt hat sich der Takt im GPUZ gar nicht geändert hat, nur beim zwischen schritt auf +90 lagen für ganz kurze Zeit +30MHz an.
Wenn ich den GPUZ-Log von ihm richtig interpretiere, ist an einer Stelle der Takt von ~1900-1950 auf 2055 Mhz hochgeschossen und hat den CTD ausgelöst. Zugleich wird die Karte bei mehr als +100Mhz einfach generell instabil, was darauf hindeutet, dass das Chip-Limit an dem Punkt übertreten wurde. Er schreibt ja auch, dass die Karte trotz 6 POSCAPS standardmäßig absolut stabil läuft. Also das Fehlerprofil ist einfach komplex (was ja Igor von Anfang an gesagt hat, obwohl du ihm ja ständig das Gegenteil unterstellst).

dildo4u
2020-09-29, 10:37:50
Meint ihr, das Problem könnte mit einem Biosupdate gelöst werden?
Der neue Treiber hat den Takt schon gesenkt.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12443075&postcount=12733

Dural
2020-09-29, 10:38:31
Wo siehst du die 2055MHz?

EDIT:
Habe es gefunden.

Die Karten haben ganz klar ein Boost / Takt Problem. Beim ändern des Taktes schiesst der Takt gleich um über 100MHz hoch.

prinz_valium_2
2020-09-29, 10:40:37
Der8auer bestätigt Igor, war doch von Anfang an klar, dass Igor Recht hat. Top Lötleistung vom Bauer :D

Natürlich hat er Recht.
Sonst hätten nicht alle AIB ihre Karten geändert.
Klar kann man auch einfach nur die Symptome behandeln mit weniger clock, aber die Ursache sind die Caps.


Naja waren ja zum Glück hauptsächlich nur Tester Karten und ein paar wenige Konsumenten. Früh erkannt und gebannt.

Asaraki
2020-09-29, 10:41:19
Meint ihr, das Problem könnte mit einem Biosupdate gelöst werden?
Vermutlich sogar nur per Treiber, BIOS wird erst nötig wenn gröbere Eingriffe in die Boostlogik nötig sind.

Wenn ich den GPUZ-Log von ihm richtig interpretiere, ist an einer Stelle der Takt von ~1900-1950 auf 2055 Mhz hochgeschossen und hat den CTD ausgelöst. Zugleich wird die Karte bei mehr als +100Mhz einfach generell instabil, was darauf hindeutet, dass das Chip-Limit an dem Punkt übertreten wurde. Er schreibt ja auch, dass die Karte trotz 6 POSCAPS standardmäßig absolut stabil läuft. Also das Fehlerprofil ist einfach komplex (was ja Igor von Anfang an gesagt hat, obwohl du ihm ja ständig das Gegenteil unterstellst).

Genau, ob 2055 oder 2100 dürfte daher gar nicht den Unterschied gemacht haben. Zumindest könnte man das nicht beweisen.

Wo siehst du die 2055MHz?
Im Log, das er detailliert zeigt ^^ ~6:04
Dachte du hast das geschaut :P

Wo siehst du die 2055MHz?

EDIT:
Habe es gefunden.

Die Karten haben ganz klar ein Boost / Takt Problem. Beim ändern des Taktes schiesst der Takt gleich um über 100MHz hoch.
Die springt doch nicht hoch, weil der Takt gerade geändert wurde... sondern weil das neue Limit andere Resultate erlaubt. Musst du schon präzise bleiben und nicht so ungenaue Aussagen machen


Also unter dem Strich, ziemlicher Fail von nVidia imho. Nicht würdig :-/