PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 [49] 50 51 52 53 54 55 56 57 58 59 60 61 62

MasterElwood
2020-09-19, 10:58:05
Amazon hat mir eine Mail geschickt, das sie eine Mail schicken, wenn sie den Liefertermin der Zotac kennen. :freak:

Echt jetzt? Bei mir steht immer noch 21. - 22. Keine Mail. Um wieviel Uhr hast du bestellt? Ich um 15:43

Fragman
2020-09-19, 11:06:03
Echt jetzt? Bei mir steht immer noch 21. - 22. Keine Mail. Um wieviel Uhr hast du bestellt? Ich um 15:43

Dürfte um 15:35 rum gewesen sein.
Sie haben sich ja auch viel Zeit gelassen mit der Mail.

Wird interessant in dem Thread hier zu hören, wer denn eigentlich überhaupt eine bekommen hat.

MasterElwood
2020-09-19, 11:09:51
Gibt eh noch 3080 bei Alternate auf Lager...

https://bit.ly/2ZRUjKj

igg
2020-09-19, 11:17:07
Eine 3080 kann macht für mich absolut keinen Sinn, selbst wenn sie 10% schneller sein sollte. Die pfeift doch jetzt schon aus dem letzten Loch und ist quasi schon EOD.
Betrachtet man die 3080 10 GB als Nachfolger der 1070 macht sie plötzlich sehr viel Sinn. Nur der Preis muss noch passen...

Adam D.
2020-09-19, 11:44:46
Betrachtet man die 3080 10 GB als Nachfolger der 1070 macht sie plötzlich sehr viel Sinn. Nur der Preis muss noch passen...
Betrachtet man den Tiguan als Nachfolger des Polos, macht er plötzlich sehr viel Sinn. Nur der Preis muss noch passen... Die Argumente hier :freak:

MasterElwood
2020-09-19, 11:49:21
Betrachtet man die 3080 10 GB als Nachfolger der 1070 macht sie plötzlich sehr viel Sinn. Nur der Preis muss noch passen...

Und warum nicht so wie in der realen Welt als Nachfolger der 2080?
+ 72% Leistung
+ 25% Speicher
für über 100 Euro weniger? Reicht das nicht?

igg
2020-09-19, 11:58:11
Und warum nicht so wie in der realen Welt als Nachfolger der 2080?
+ 72% Leistung
+ 25% Speicher
für über 100 Euro weniger?
Das macht natürlich noch mehr Sinn - nur habe ich Turing einfach nicht auf dem Schirm, ist für mich so eine verlorene Generation, wie die Geforce 9800.

unl34shed
2020-09-19, 12:19:17
Founders Edition Speicher Temps sind am Limit und mit etwas OC am drosseln.
_SO2b_VIOXI

Gouvernator
2020-09-19, 12:34:32
@ Sardaukar.nsn:

Eine 3080 kann macht für mich absolut keinen Sinn, selbst wenn sie 10% schneller sein sollte. Die pfeift doch jetzt schon aus dem letzten Loch und ist quasi schon EOD. Ist wie Geld aus dem Fenster werfen :( Wenn dann die 20 Gb Version aber so lange warte ich nicht.
Dieses Problem kam auf weil jede vorherige Grafikkarte zuvor viel zu wenig Fps lieferte. Dank technologischen Stillstand. Es bringt jetzt nichts zu sagen eine 3080/3090 ist 200% schneller als XY. Weil in realen Werten sind es lächerliche Sprünge von 20 Fps auf nun 40.Wow. Die erste brauchbare Grafikkarte wird sein welche 200% auf eine 3090 drauflegt und dann in 4k/120 ankommt. Normal wäre eine 3090 für die Hälfte des Preises. Und eine 3080 mit ihren 53 Fps in aktuellen Games - 400€.

aufkrawall
2020-09-19, 12:41:10
Founders Edition Speicher Temps sind am Limit und mit etwas OC am drosseln.
https://youtu.be/_SO2b_VIOXI
Geht bestimmt passend zur nächsten Gen kaputt. :naughty:

AstroHW19
2020-09-19, 12:49:24
Man kauft sich eine günstige Karte mit schrott Luft-Kühler von XFX und baut einen Wasserkühler drauf.:biggrin:
Dann geht sicher noch was.

RLZ
2020-09-19, 13:06:09
Weil in realen Werten sind es lächerliche Sprünge von 20 Fps auf nun 40.
Der lächerliche Sprung bringt um Welten mehr als 60 zu 240fps.:freak:

Lu
2020-09-19, 13:38:53
Kann man bei der Gigabyte 3080 Gaming OC das Powerlimit nicht erhöhen? Habe die aktuelle Afterburner Beta 4.6.3 Beta 2 installiert aber der Balken geht nur bis 100 Prozent.

Troyan
2020-09-19, 13:42:49
Was sagt dir GPU-Z als Verbrauch? Vielleicht läuft die Karte schon mit 350W+...

/edit: Die Karte kommt mit 1800MHz als Boost. Ich glaube, bei der Karte ist 100% wirklich 100%. :D

Lu
2020-09-19, 13:56:45
GPU Z ließt maximal 368 Watt Boardpower aus. Dann hat sich meine Frage erledigt, danke für deinen Hinweis.

TurricanM3
2020-09-19, 13:59:16
Ich hatte bisher mit dem EK Kühler geliebäugelt bin mir aber wegen Igor aktuell unsicher. Er meinte das die ganzen Blöcke die wichtigen Bereiche der Karte auslassen. Am liebsten wäre mir aktuell der Block von dem Deutschen mit dem „ski“ am Ende, Name ist mir gerade entfallen. Hast Du Dich schon entschieden?

EK mag ich eigentlich auch nicht so. Ich gehe aber schon davon aus, dass EK den Kühler testet und die Karte entsprechend thermisch prüft. Wieder 4 Monate warten wie letztes Mal werde ich aber nicht auf AquaComputer. Aber auch kein Plan ob ich die Asus wirklich behalte oder weitergebe, wenn ich überhaupt eine kriege. Ich muss dir echt sagen, für mich sind die Nebengeräusche sehr wichtig. Wichtiger als 100MHz Takt. Ich habe lieber eine leise OC-Krücke als eine Perle die da die ganze Zeit im Hintergrund schreit.

MiamiNice
2020-09-19, 14:19:04
Ich hätte gerne eine Art Sandwich Kühler der die Bausteine auf beiden Seiten kühlt. Auf ne Backplate auf der ich Spiegeleiern braten kann habe ich irgendwie wenig Lust. Zumal der Speicher auch noch drosselt wenn man dem ihm die Sporen gibt.

Digidi
2020-09-19, 14:31:28
Amper skaliert extrem schlecht. Bei der 3090 bekommt man gerade einmal auf 8-10% mehrleistung trotz 20% mehr Shader laut geleaktem Benchmar. (Die selben Leute die sogar etwas mehr als 30% vorausgesagt haben)

https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out

Piefkee
2020-09-19, 14:32:03
https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out

3090 nur 10% schneller aus die 3080?
Leaked Review

BlacKi
2020-09-19, 14:35:48
Betrachtet man den Tiguan als Nachfolger des Polos, macht er plötzlich sehr viel Sinn. Nur der Preis muss noch passen... Die Argumente hier :freak:
es gab damals schon den großen chip als 080er mit 80er preisschild. du müsstest dich fragen ob schon damals einen polo als tiguan verkaufen wollte oder umgekehrt :wink:

https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out

3090 nur 10% schneller aus die 3080?
Leaked Review
ich bin schockiert... ah wartet einfach auf die 3080ti, zwischen den 10% passt noch eine karte^^

Troyan
2020-09-19, 14:39:44
https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out

3090 nur 10% schneller aus die 3080?
Leaked Review

Es gibt 3DMark Leaks bei Videocardz, die sind höher als die Werte von dort. Auch erreicht eine 3080FE eher 8800 Punkte im TS Extreme als 9000. Sieht nach Fake aus wie der erste "Leak". Besser auf Donnerstag warten.

Digidi
2020-09-19, 14:42:07
Es gibt 3DMark Leaks bei Videocardz, die sind höher als die Werte von dort. Auch erreicht eine 3080FE eher 8800 Punkte im TS Extreme als 9000. Sieht nach Fake aus wie der erste "Leak". Besser auf Donnerstag warten.

Junge die Leaks sind von einer Seite die der 3080 zur 2080ti noch etwas mehr als 30% zugestanden hat. Wir sind jetzt irgendwo bei 25-28% gelandet. Also höhr auf dier Schöngerechnete leaks zu suchen. Wieder lebst du in deinem Bias.

cjUDp3-4s14

Hier nochmal der Link zum Video denn dur dir anschauen Solltest. So viel Bias.......

Linmoum
2020-09-19, 14:46:23
Es gibt 3DMark Leaks bei Videocardz, die sind höher als die Werte von dort. Auch erreicht eine 3080FE eher 8800 Punkte im TS Extreme als 9000. Sieht nach Fake aus wie der erste "Leak". Besser auf Donnerstag warten.Das ist kein Fake, die hatten auch zur 3080 vorab Benchmarks, die sich, wie wir mittlerweile durch die anderen Reviews wissen, als wahr herausgestellt haben.

BlacKi
2020-09-19, 14:48:02
Junge die Leaks sind von einer Seite die der 3080 zur 2080ti noch etwas mehr als 30% zugestanden hat. Wir sind jetzt irgendwo bei 25-28% gelandet. Also höhr auf dier Schöngerechnete leaks zu suchen. Wieder lebst du in deinem Bias.

lol ich hab genug 3080 test gelesen die den ein oder anderen cpu limitieren mit reinnahmen und trotzdem bei 31% lagen. unter echtem gpu limit dürfte der schnitt sogar noch höher liegen. jetzt bezogen auf die FE.

es gibt allerdings auch karten die langsamer sind als die FE, dann könnte es sein, das die ergebnisse im schnitt vl nicht 30% erreichen.

Troyan
2020-09-19, 14:48:46
Das ist kein Fake, die hatten auch zur 3080 vorab Benchmarks, die sich, wie wir mittlerweile durch die anderen Reviews wissen, als wahr herausgestellt haben.

Ja, seine 3DMark Scores waren niedriger für die 3080:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked

Plötzlich sind sie höher. ;D

Digidi
2020-09-19, 14:48:59
In 4k gibt es kein CPU limit:

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

lol ich hab genug 3080 test gelesen die den ein oder anderen cpu limitieren mit reinnahmen und trotzdem bei 31% lagen. unter echtem gpu limit dürfte der schnitt sogar noch höher liegen. jetzt bezogen auf die FE.

es gibt allerdings auch karten die langsamer sind als die FE, dann könnte es sein, das die ergebnisse im schnitt vl nicht 30% erreichen.

Platos
2020-09-19, 14:55:09
In 4k gibt es kein CPU limit:

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

Wie kann man einen Test ernst nehmen, der nur avg. FPS liefert ?

Digidi
2020-09-19, 14:55:56
Ja, seine 3DMark Scores waren niedriger für die 3080:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked

Plötzlich sind sie höher. ;D
Und bie Port royla und den anderen Benchmarks stimmen Sie da ist mal 1 dabei der aus der Reihe tanzt und den nimmst du.

Cherry Picker at it's best!
https://www.guru3d.com/articles_pages/geforce_rtx_3080_founder_review,28.html

BigBangBacket
2020-09-19, 14:58:16
In 4k gibt es kein CPU limit:

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

Er meinte damit das einige Games viel mehr CPU Power als GPU brauchen und somit eigentlich nichts in so einem Test zu suchen haben. Hatten wir das nicht erst vor ein paar Seiten?
Egal.

BlacKi
2020-09-19, 14:58:20
doch gibts. sind aber nur ein paar prozent. genau die paar prozent um die wir uns streiten.

Troyan
2020-09-19, 15:01:02
Und bie Port royla und den anderen Benchmarks stimmen Sie da ist mal 1 dabei der aus der Reihe tanzt und den nimmst du.

Cherry Picker at it's best!
https://www.guru3d.com/articles_pages/geforce_rtx_3080_founder_review,28.html

Ich sehe dort 11449 Punkte für die 3080FE. Das entspricht dem ersten Leak vom 12.09. Heute gibt es aber für die "3080FE" schon 11981 Punkte, also 5% mehr. Wo die wohl hergekommen sind. ;D

Digidi
2020-09-19, 15:02:44
Ich sehe dort 11449 Punkte für die 3080FE. Das entspricht dem ersten Leak vom 12.09. Heute gibt es aber für die "3080FE" schon 11981 Punkte, also 5% mehr. Wo die wohl hergekommen sind. ;D

Rede es dir schön. Wir werden sehen 9-10% mehr Performance als eine 3080 und damit unterhalb der 50% Performancezuwachs der 2080ti.

Außerdemm kann man das ja selbst nachschauen auf der 3dmark Seite bei den Privaten Testst. Da haben die meisten sogar mit einem 10900k Werte von 8500...

https://www.3dmark.com/search#advanced?test=spy%20X&cpuId=2612&gpuId=1338&gpuCount=1&deviceType=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=

@Troyan man kann deinen Mist den du redest so leicht wiederlegen.....

BigBangBacket
2020-09-19, 15:06:10
Rede es dir schön. Wir werden sehen 9-10% mehr Performance als eine 3080 und damit unterhalb der 50% Performancezuwachs der 2080ti.

Das mit deiner 8-9% Analyse mit maximalen 0.3-0.4% Zuwachs fand ich interessanter....leider hast das ja editiert.

arcanum
2020-09-19, 15:07:29
die ~12000 erreicht man nur mit einem erhöhten power limit. default (320W) landet man bei den ~11400. habe jetzt zufriedenstellende einstellungen für mich gefunden:

power limit bei 88%, v-curve etwas angepasst und damit 11.0xx in port royale und 85xx in time spy extreme

Digidi
2020-09-19, 15:09:20
Das mit deiner 8-9% Analyse mit maximalen 0.3-0.4% Zuwachs fand ich interessanter....leider hast das ja editiert.
Die 0.3-0.4 % bezogen sich auf die 4 Prozent zuwachs wenn man mit Troyans Scheinzahlen in einem Syntethischen Benchmark rechnet der am oberen Powerlimit ist.

Troyan
2020-09-19, 15:11:13
die ~12000 erreicht man nur mit einem erhöhten power limit. default (320W) landet man bei den ~11400.

Es ist offensichtlich, dass die Werte aus dem heutigen Leak für Timespy und Port Royal nicht von einer "Standard" 3080FE sind. Entweder übertaktet oder eben eine Customkarte.

Das macht die anderen Zahlen eben viel schwieriger einordbar. Oder eben ein Fake.

Digidi
2020-09-19, 15:12:49
@Troyan 9000 Past perfekt. Weil die Tester meißt noch Gutes Motherboard guten Ram etc. haben. Schau in die 3d Mark Datenbank die meisten haben etwas zwischen 8000 und 8500.

https://www.3dmark.com/search#advanced?test=spy%20X&cpuId=2612&gpuId=1338&gpuCount=1&deviceType=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=

arcanum
2020-09-19, 15:17:06
@Troyan 9000 Past perfekt. Weil die Tester meißt noch Gutes Motherboard guten Ram etc. haben. Schau in die 3d Mark Datenbank die meisten haben etwas zwischen 8000 und 8500.

https://www.3dmark.com/search#advanced?test=spy%20X&cpuId=2612&gpuId=1338&gpuCount=1&deviceType=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=

meine macht mit geringerem power limit 85xx mit einem i3 8100... da gibt es außer der graka keinen flaschenhals außer man hat noch einen C2D... die 88xx erreicht man mit default einstellungen. außerdem sieht man auf der seite, dass der schnitt bei 85xx punkten liegt und nicht dass die meisten etwas zwischen 8000 und 8500 machen.

Digidi
2020-09-19, 15:18:15
Hier nochmal die Datenbank mit gleichem Setup in Bildern. (Bild nochmal geändert mit Maus über höchstem Punkt)

Lu
2020-09-19, 15:25:46
Meine 3080 macht im Time Spy Extreme 9098 GPU und 3267 CPU ;D
Nur Lüfter auf 100% gestellt sonst nichts verändert.

BlacKi
2020-09-19, 15:34:53
Hier nochmal die Datenbank mit gleichem Setup in Bildern. (Bild nochmal geändert mit Maus über höchstem Punkt)
ich hab keine ahnung was du damit erreichen willst. bei den 2080ti ergebnissen sind massiv wassergekühlte und OC ergebnisse dabei. das wird bei den 3080ern weniger sein. oben drauf hast du bei den 2080tis mehr OC potential.

Digidi
2020-09-19, 15:37:23
ich hab keine ahnung was du damit erreichen willst. bei den 2080ti ergebnissen sind massiv wassergekühlte und OC ergebnisse dabei. das wird bei den 3080ern weniger sein. oben drauf hast du bei den 2080tis mehr OC potential.

Es ging um die Einordnung der 3080er Karten ein. Keine Karte erreicht dort die 11900 von Troyan. Die Meisten sind bei 8500. Da wo man den Schnitt vermutet. Im Test waren 9000 angezeigt. Die Tester haben meist etwas bessere Hardware als der Schnitt.

Sehe auch gerade das wir vorgbeigeredet haben es geht um den reinen Grpahic Score nicht allgemein Score. Aber auch hier liegt Troyan total daneben.

arcanum
2020-09-19, 15:41:23
Es ging um die Einordnung der 3080er Karten ein. Keine Karte erreicht dort die 11900 von Troyan. Die Meisten sind bei 8500. Da wo man den Schnitt vermutet. Im Test waren 9000 angezeigt. Die Tester haben meist etwas bessere Hardware als der Schnitt

die 11900 bzw. 11400 sind der port royale wert. Time Spy Extreme liegt bei ~8800

Digidi
2020-09-19, 15:43:15
@arcanum Troyan bezog sich auf den Graphic score in Timespy Extrem. Der fällt höher aus. Der Beste hat 10595

arcanum
2020-09-19, 15:46:05
die 10600 kriegt man höchstens mit kokü/wakü und shunt mods hin. schau dir mal den takt der gpu an. würde mich nicht wundern, wenn der verbrauch für das ergebnis bei 500-600watt liegt.

außerdem glaube ich, dass du da etwas verwechselst:

"Ich sehe dort 11449 Punkte für die 3080FE. Das entspricht dem ersten Leak vom 12.09. Heute gibt es aber für die "3080FE" schon 11981 Punkte, also 5% mehr. Wo die wohl hergekommen sind."

Sardaukar.nsn
2020-09-19, 16:10:52
Gamer Nexus hatten gestern einen längeren Overclocking Livestream mit diversen 3080 Modellen. Darunter auch die EVGA FTW3 mit dem 420W Power Budget. Kühlung war wohl auch gut und man konnte sehen das mit ~400 Watt die Karten auch den 2 Ghz Boost halten kann.

https://i.imgur.com/1cFSZWO.jpg

Quelle: https://www.youtube.com/watch?v=72sqldnvmpk&t=5270s

@MiamiNice: Ich bin auf 3440x1440 Ultrawide mit 144hz unterwegs, da langen mir die 10GB der 3080. Statt dem Aufpreis zur 3090 gönne ich mir vielleicht noch ein neues Netzteil und ne Mora.

Zergra
2020-09-19, 16:20:15
Jetzt brauchen wir nur noch einen passenden Block für die FTW3 und ab gehts.

Der Mora wartet hier schon seit 7 Monaten... :biggrin:

ChaosTM
2020-09-19, 16:41:05
Ok.. Mit 400 Watt kann die Karte 2ghz halten. Lool. 130 Watt+ für 10% Mehrleistung. Die neue Definition von Brute Force :D

add.: meine 20GB 3080er/16GB BigN wird mit max 300 Watt laufen dürfen.

Rampage 2
2020-09-19, 16:42:55
Gamer Nexus hatten gestern einen längeren Overclocking Livestream mit diversen 3080 Modellen. Darunter auch die EVGA FTW3 mit dem 420W Power Budget.

https://i.imgur.com/1cFSZWO.jpg

Quelle: https://www.youtube.com/watch?v=72sqldnvmpk&t=5270s


Lässt sich bei der EVGA FTW3 das Power-Limit noch weiter erhöhen? Auf 450W oder mehr?


@MiamiNice: Ich bin auf 3440x1440 Ultrawide mit 144hz unterwegs, da langen mir die 10GB der 3080. Statt dem Aufpreis zur 3090 gönne ich mir vielleicht noch ein neues Netzteil und ne Mora.


An deiner Stelle würde ich das sein lassen;)

Selbst für 2560x1440 könnte 10GB in den kommenden Jahren zu wenig sein - zumindest in einzelnen Spielen. Und deine Auflösung ist nochmal 35% höher!

R2

Zergra
2020-09-19, 16:44:48
Lässt sich bei der EVGA FTW3 das Power-Limit noch weiter erhöhen? Auf 450W oder mehr?


Nein bei der 3080 ist wohl bei nur 420Watt Schluss

Rampage 2
2020-09-19, 16:48:45
Nein bei der 3080 ist wohl bei nur 420Watt Schluss


Aber so wird doch die Karte schon im Werkszustand ausgeliefert, also 420 Watt. Das würde dann bedeuten, dass sich die Karte gar nicht weiter tweaken lässt...

Bzgl. der FTW3 hatte ich doch irgendwo irgendwas von 440 Watt als Maximum gelesen?

R2

dildo4u
2020-09-19, 16:51:54
Sieht man doch im Screenshot das Powerlimt wurde auf 108% erhöht sie rennt default also unter 400Watt.
Und wo soll die 3090 20% rausholen wenn das TDP bei 350 liegt und den zusätzlichen Speicher bedienen muss.

basix
2020-09-19, 17:24:48
Nein bei der 3080 ist wohl bei nur 420Watt Schluss

:freak:

MiamiNice
2020-09-19, 17:45:40
Sieht man doch im Screenshot das Powerlimt wurde auf 108% erhöht sie rennt default also unter 400Watt.
Und wo soll die 3090 20% rausholen wenn das TDP bei 350 liegt und den zusätzlichen Speicher bedienen muss.

Ist ja nicht so als würden AIB Karten das PT bei der 3090 nicht erhöhen ;)
Geh mal von 440 Watt + aus, bei den besseren 3090iger Karten.

RLZ
2020-09-19, 17:46:56
Das Out-of-Stock im Nvidia Store wechselt ja öfters mal auf "jetzt kaufen", aber trotzdem hab ich bisher nicht mehr als ein schwarzes Overlay bekommen. :freak:

MiamiNice
2020-09-19, 17:50:05
@MiamiNice: Ich bin auf 3440x1440 Ultrawide mit 144hz unterwegs, da langen mir die 10GB der 3080.

Darauf würde ich nicht wetten. Die Auflösung ist heute nicht mehr der Speicherfresser.

Sardaukar.nsn
2020-09-19, 19:05:16
@Rampage, Miami: Mir ist schon klar das irgendwo die 10GB knapp werden könnten. Aber damit kann ich leben. Bis mit 10GB "ernsthafte" Probleme auftreten, gibt es wahrscheinlich eh schon wieder neue Karten. Ich mache mich deswegen nicht verrückt, die 3080 ist in meinen Augen ein guter Kompromiss. Zumal die Mehrleistung der 3090 in keinem Verhältnis zum Mehrpreis steht.

https://i.imgur.com/5IwAoct.jpg

Quelle: https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out

MasterElwood
2020-09-19, 19:55:23
In 4k gibt es kein CPU limit:

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

Da sagt IGOR aber was anderes

MiamiNice
2020-09-19, 20:05:28
@Rampage, Miami: Mir ist schon klar das irgendwo die 10GB knapp werden könnten. Aber damit kann ich leben. Bis mit 10GB "ernsthafte" Probleme auftreten, gibt es wahrscheinlich eh schon wieder neue Karten. Ich mache mich deswegen nicht verrückt, die 3080 ist in meinen Augen ein guter Kompromiss. Zumal die Mehrleistung der 3090 in keinem Verhältnis zum Mehrpreis steht.

https://i.imgur.com/5IwAoct.jpg

Quelle: https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out


Lass Dich nicht von Fakes und Digidi ( no offense ) ins Boxhorn jagen :)
Eine 3090 skaliert über die nächsten Jahre mit CPU Upgrades mit. Die 3080 ist der inbegriff von geplanter Obsoleszenz. In meinen Augen wäre die 3080 ein Grund Nvidia in Grund und Boden zu klagen. Nicht mal geschenkt würde ich das Teil in meine Kiste einbauen. Das Gerät ist schon zu Release, also jetzt, am Ende obwohl es genug Rohpower für die nächsten Jahre hat.

TheAntitheist
2020-09-19, 20:09:31
Da sagt IGOR aber was anderes
auch wenn ich Igot oft widersprechen würde, aber natürlich gibt es ein CPU Limit, das ist ja offensichtlich. Natürlich nicht immer aber bei den MIN FPS, die die am wichtigsten sind, hängt in diesen Szenen oft das Spiel im CPU Limit.

nordic_pegasus
2020-09-19, 20:58:07
ich bin wirklich kein AMD Fanboy, aber ich finde es schon spannend, wie im 3DC die letzten AMD Karten als Säufer verunglimpft wurden, speziell Fury und Vega mit den AiO Wasserkühlern.

Jetzt bringt Nvidia eine Karte mit default 320 Watt und selbst 420 Watt OC wird als harmlos angesehen. So ganz kann ich das nicht verstehen. Ich bin ja schon auf die 3090 Custom-Monster gespannt.

Sardaukar.nsn
2020-09-19, 21:03:10
Lass Dich nicht von Fakes und Digidi ( no offense ) ins Boxhorn jagen :)
Eine 3090 skaliert über die nächsten Jahre mit CPU Upgrades mit. Die 3080 ist der inbegriff von geplanter Obsoleszenz. In meinen Augen wäre die 3080 ein Grund Nvidia in Grund und Boden zu klagen. Nicht mal geschenkt würde ich das Teil in meine Kiste einbauen. Das Gerät ist schon zu Release, also jetzt, am Ende obwohl es genug Rohpower für die nächsten Jahre hat.

In Grund und Boden klagen? Übertreibst du da gerade nicht etwas? Ich finde das 3080 und 3070 die GPU Welt wieder ein Stück weit zurecht rücken, wo sie mit Turing doch etwas aus den Fugen geraten ist.

Was die 3090 betrifft, werden wir ja nächste Woche sehen. Aber woher soll die Mehrleistung zur 3080 denn kommen? Das Power Budget ist doch bei der 3080 schon voll ausgenutzt und die 3090 schleppt noch die (meistens überflüssigen) hot-chips auf der Rückseite mit sich herum. Neben dem nächsten Paper-Launch der FE erwarte ich nächste Woche von der 3090 tendenziell eher viel heiße Luft.

MiamiNice
2020-09-19, 21:04:00
@nordic:
Das ist nur Fanboi Geschwätz und die jeweilige andere Fraktion anzupissen. Wer Power will dem war es schon immer egal und kauft nach Balkenlänge. Wer nen Ökotick hat kauft nach Perf/Watt. Der Rest labert nur rum.

nordic_pegasus
2020-09-19, 21:16:53
@nordic:
Das ist nur Fanboi Geschwätz und die jeweilige andere Fraktion anzupissen. Wer Power will dem war es schon immer egal und kauft nach Balkenlänge. Wer nen Ökotick hat kauft nach Perf/Watt. Der Rest labert nur rum.

schon richtig. Ein Gaming-PC hat nichts mit Nachhaltigkeit oder Okölogie zu tun. Darum ist mir z.B. auch die Effizienz eines Netzteil diesbezüglich egal, wenn man hierdurch als Nebeneffekt nicht auch weniger Abwärme/Lautstärke vom NT hätte.

Aber ein solcher Sprung im Verbrauch bedingt auch eine neue Dimensionierung der sonstigen Komponenten im System, speziell Netzteil und Kühlungs-Konzept. Das wird bislang an einer 300Watt Schallmauer für die GraKa geklebt hatten, fand ich eigentlich gar nicht so schlecht. Man konnte aufrüsten ohne sich Gedanken um den Rest machen zu müssen.

Darum kann ich diesen Hype um die 3080 als 700€ Schnäppchen nicht gänzlich verstehen, wenn viele User gleichzeitig noch das NT tauschen. Dann bringt Nvidia noch einen speziellen Stromanschluss und legt den wohl hässlichsten Adapter aller Zeiten seiner stylischen Founders Edition bei.

Dural
2020-09-19, 21:34:52
ich bin wirklich kein AMD Fanboy, aber ich finde es schon spannend, wie im 3DC die letzten AMD Karten als Säufer verunglimpft wurden, speziell Fury und Vega mit den AiO Wasserkühlern.

Jetzt bringt Nvidia eine Karte mit default 320 Watt und selbst 420 Watt OC wird als harmlos angesehen. So ganz kann ich das nicht verstehen. Ich bin ja schon auf die 3090 Custom-Monster gespannt.

Mit dem Unterschied das die Ampere Karten richtig Leistung haben und Fury und Vega einfach nur richtige Krüppel waren. :rolleyes:

Keiner würde auf die Idee kommen einen Ferrari als Säufer zu betiteln, wenn aber ein Golf das gleiche Säuft mit deutlich weniger Leistung aber schon.

w0mbat
2020-09-19, 21:43:56
@nordic_pegasus: die Vega64 war 4% hinter ner 1080 FE (die schon ein Jahr alt war) und hat 90% mehr verbraucht, das ist schon was anderes :ugly:

MiamiNice
2020-09-19, 22:04:15
In Grund und Boden klagen? Übertreibst du da gerade nicht etwas? Ich finde das 3080 und 3070 die GPU Welt wieder ein Stück weit zurecht rücken, wo sie mit Turing doch etwas aus den Fugen geraten ist.

Was die 3090 betrifft, werden wir ja nächste Woche sehen. Aber woher soll die Mehrleistung zur 3080 denn kommen? Das Power Budget ist doch bei der 3080 schon voll ausgenutzt und die 3090 schleppt noch die (meistens überflüssigen) hot-chips auf der Rückseite mit sich herum. Neben dem nächsten Paper-Launch der FE erwarte ich nächste Woche von der 3090 tendenziell eher viel heiße Luft.

Mag sein das das für Dich übertrieben klingt. Ich sehe das so:
Wenn es AMD und Intel nicht gäbe würdest Du für eine 3080 10Gb aktuell mindestens 999€ zahlen. NV ist kein Wohltäter sonder ein astrein kalkulierender Konzern in absoluter Marktmacht Position. Das die Karte zu diesem Preis existiert ist dem Umstand geschuldet das man AMD keine Luft lassen möchte am Markt Fuß zu fassen und Geld zu verdienen. Auf der anderen Seite verarscht man hier massiv die Gamer mit einer Karte die 0 taugt und lockt über den Preis (Stichwort "Geiz ist Geil"). Die Karte hat nicht ansatzweise genug VRam entsprechend ihrer Rohleistung und die Käufer dieser High End Karte müssen schon heute in manchen Games die Details nach unten schrauben. Das wird in Zukunft und vor allem mit immer mehr Einsatz von RT (den NV natürlich auch massiv pushen wird) nur noch schlimmer. Für dieses Konstrukt lässt sich NV aktuell auch noch scheinheilig feiern. Was NV gerne hätte siehst Du an der 3090 für 1500€. Diese Karte wird extrem gut altern und mit CPU Upgrades immer weiter skalieren, mindestens für die nächsten 4 Jahre. NV hat mit der 3080 einfach nur ein Stück Elektronikschrott produziert und das nur aus den niedersten Beweggründen die man auf dieser Welt haben kann -> Geld , Macht und Gier. Das wahre Gesicht zeigt NV mit der 3090. Kann und will sich natürlich nicht jeder leisten, aus guten Grund keine Frage. NV weiß das alles ganz genau und hat es sich gut überlegt. Wer billig kauft, kauft zwei mal. Sprichwort kennt jeder und trifft auf Ampere besser den je zu.
Man müsste meiner Meinung nach NV für Marktmanipulation und Umweltverschmutzung verklagen und für das verschwenden von Rohstoffen in sinnlosen und nicht nachhaltigen Produkten.
Jetzt könnt ihr mich gerne alle Flamen, ist mir latte :tongue:
Und ja, ich kaufe eine 3090 weil ich in der komfortablen Situation bin, das ich nicht jeden Cent umdrehen muss und in erster Linie ein Gamer bin.

rentex
2020-09-19, 22:15:22
Die 3090 ist grad die einzig vertretbare, aber ziemlich teure Option. Aber mal ehrlich: Für 1440p wäre eine 3080 durchaus eine langfristig gute Partie...die 10GB sind für 4K tragbar.

Raff
2020-09-19, 22:17:21
Nein, eben nicht langfristig. Kurzfristig schon, sogar für UHD.

MfG
Raff

Badesalz
2020-09-19, 22:21:09
@MiamiNice (und Raff)
Warum wird die 3090 dermassen langsamer altern als die 3080? Nur wegen dem Vram? Weil wie man hört, "dermassen" schneller als die 3080 ist sie ja nicht.

Sonst hätte ich aber gesagt, die 3080 müsste eher der Benjamin Button der Grakas werden. In spätestens 12 Monaten werden die Studios anfangen mit DirectStorage zu experimentieren. Was den Status der Menge des Vrams von ExtremWichtig auf Wichtig zurückschrauben sollte.

edit:
Das Gerät ist schon zu Release, also jetzt, am Ende obwohl es genug Rohpower für die nächsten Jahre hat.Ernste Frage: Gibt es wirklich keinen Markt mit Leuten die nicht 4k fahren möchten/wollen, sonst aber alles nach rechts ziehen möchten und die Preisgestaltung der 3080 ok finden könnten?
Sind für die, die 10GB auch zu wenig für die nächsten 3 Jahre? Auch mit der 2080Ti ist das noch nicht ganz so entspannend mit dem rechtsziehen. Erst recht nicht, wenn RT dazu kommt und das liegt nicht am Vram...

mironicus
2020-09-19, 22:39:25
Wenn eine 3080 mit 20 GB erscheint, wird die 3090 ja praktisch obsolet.

Zergra
2020-09-19, 22:41:04
Wenn man die Leistung der 3090 sieht, dürfte wohl eine 3080 mit 20GB die 3090 quasi ziemlich überflüssig machen. Der Leistungsunterschied ist zu gering. Natürlich dauert das wohl noch 2-3 Monate.
Ich gebe für andere Hobbys schon genug aus.... PC Gaming ist da eher Platz 3.

WedgeAntilles
2020-09-19, 22:41:08
edit:
Ernste Frage: gibt es keinen Markt mit Leuten die nicht 4k fahren möchten/wollen, sonst aber alles nach rechts ziehen möchten?
Sind für die, die 10GB auch zu wenig für die nächsten 3 Jahre? Auch mit der 2080Ti war das nicht ganz so entspannend mit dem rechtsziehen... Erst nicht, wenn RT dazu kam.

Ich vermute diesen Markt gibt es - und er ist gigantisch viel Größer als die 4k Spieler.
Nur gibt es diesen Markt halt weniger hier im Forum, da sich hier vermehrt Enthusiasten tummeln, die 4k nutzen.

Dass für die überwältigende Mehrheit der Spieler 4k keinerlei Thema ist, sieht man an den Marktanteilen, die die "4k GraKas (wenn man die 2080 + 2080Ti überhaupt so nennen will) haben. Wie hoch sind die? sehr niedrige einstellige Werte.

Ich spiel 1080p, evt. wird mal auf 1440p upgegradet.
Will aber so lange wie möglich alle Details so hoch wie möglich haben.
Und mir wird die 3080 sicherlich 5 Jahre reichen.

Hatte gar nicht so ne fette GraKa geplant (dachte an eine 3060TI, maximal 3070 oder so), aber bei dem tollen Leistungsplus der 3080 für den günstigen Preis ist die 3080 für mich die deutlich attraktivere Karte also die 3070.

Klar wären mir 12GB Ram lieber. Oder 16GB.
Aber man kann halt nicht alles haben.

Und meine Anforderungen wird die 3080 locker wieder 5 Jahre befriedigen - so wie es die 970 mit ihren angeblich so unerträglichen 3,5+0,5 GB seit inzwischen 5,5 Jahre ntut.

Ja, wenn Geld keine große Rolle spielt und du unbedingt 4K brauchst ist die 3090 zweifellos die bessere Wahl.
Falls Geld aber ein limitierender Faktor ist und du außerdem unter 4k bist, bin ich überzeugt davon, dass du mit der 3080 ne bessere Wahl triffst.
Das gesparte Geld kannst du dann (falls du die Karte nicht wie ich 5-6 Jahre behälst) in 2-4 Jahren in die nächste bzw. übernächste Generation stecken.
Wenn du da wieder 700 Euro ausgibst hast du eine deutlich schnellere Karte als die 3090 - und das gleiche ausgegeben.

Wenn dir vor 2 Jahren die 2080 gereicht hat und du heute die 3080 kaufst, bist du besser aufgestellt als wenn du dir die 2080TI gekauft hättest.


Natürlich lohnt es sich abzuwarten, was die 3080 mit 20GB kosten wird - aktuell sind die Karten ja eh noch nicht zu bekommen.
Ich werde daher bis Januar oder so warten, dann kennt man die genauen Werte der 3060, 3070, 3080 und sicherlich gibt es dann auch die 3070 mit 16GB bzw. 3080 mit 20GB.

Und wenn der Aufpreis gering ist kommt die doppelte Menge Speicher rein.
300 Euro Aufpreis ist es mir aber sicherlich nicht wert.

Denn Geld ist für mich halt ein limitierender Faktor.

Liquaron
2020-09-19, 22:47:14
Da sagt IGOR aber was anderes


Also gerade in 4K sehe ich jetzt auch kein CPU Limit:

https://www.tomshardware.com/features/nvidia-geforce-rtx-3080-ampere-cpu-scaling-benchmarks

HOT
2020-09-19, 23:00:06
Joar....gut das es andere Stimmen dazu gibt ;-) Aber gut, das werden wir sicher JETZT nicht wissen!
Eigentlich sind das nur Leute, die den echten Experten wie z.B. Raff par tout nicht zuhören wollen und ihr eigenes Süppchen kochen... Die Realität ist, VRAM ist jetzt schon knapp und mit den neuen Konsolen wird das definitiv nicht besser, ganz im Gegenteil.

Liquaron
Igor hat das auch total übertrieben in seinem Video. Der Hypt mir auch ein bisschen zuviel und macht zuviel auf Influencer in letzter Zeit. Natürlich ist 4k nicht CPU-Limitiert in fast allen Fällen - es gibt Ausnahmen, aber die haben in einem GPU-Test nichts verloren.

WedgeAntilles
der VRAM wird auch in WQHD zu knapp werden, da brauchst du dich keiner Illusion hingeben.

Roak
2020-09-19, 23:01:49
@WedgeAntilles

Da bin ich komplett bei dir. Meine 980 hat gut 5 Jahre gehalten. Dabei war auch bis heute viel auf Mittel und Hoch. Man ist halt mit 40 Frames zufrieden das könnte ein Problem sein wenn man mal dauerhaft 60+ hatte und davon nicht mehr weg möchte. Der Prozess der Detailreduzierung war aber vom Gefühlt her langsam fließend und nicht von heute auf morgen.

Selbst Horizon Zero Dawn hat mich von der Grafik her beeindruckt. Ich meine es gab auch Nachladeruckler aber die haben den Spielefluß nicht beeinträchtigt. Metro Exodus war ein Titel der nicht mehr lief bzw. für mich unspielbar.

crux2005
2020-09-19, 23:02:05
ich bin wirklich kein AMD Fanboy, aber ich finde es schon spannend, wie im 3DC die letzten AMD Karten als Säufer verunglimpft wurden, speziell Fury und Vega mit den AiO Wasserkühlern.

Jetzt bringt Nvidia eine Karte mit default 320 Watt und selbst 420 Watt OC wird als harmlos angesehen. So ganz kann ich das nicht verstehen. Ich bin ja schon auf die 3090 Custom-Monster gespannt.

Finde den Verbrauch auch alles andere als gut. Aber jede Gen. bis jetzt hatte ihre schwächen. Bei Pascal war es z.B. DX12. Die Ampere Gen. zieht zu viel und hat nicht zu viel VRAM. Wenigstens ist das P/L Verhältnis besser. Turing verbrauchte weniger, kostete dafür mehr und die VRAM Größe stagnierte.

Als Kunde kannst du nicht viel tun außer die Gen auszulassen. Das werde ich als 2080 Besitzer versuchen. Mit Hopper werden die Karten neu gemischt. Wobei wir auch da sicher etwas zu meckern geben wird. ;)

igg
2020-09-19, 23:37:25
@nordic_pegasus: die Vega64 war 4% hinter ner 1080 FE (die schon ein Jahr alt war) und hat 90% mehr verbraucht, das ist schon was anderes :ugly:owned :D

SKYNET
2020-09-20, 01:58:01
Mit dem Unterschied das die Ampere Karten richtig Leistung haben und Fury und Vega einfach nur richtige Krüppel waren. :rolleyes:

Keiner würde auf die Idee kommen einen Ferrari als Säufer zu betiteln, wenn aber ein Golf das gleiche Säuft mit deutlich weniger Leistung aber schon.

stimmt, die fury X war nen totaler krüppel... wieviel langsamer als ne 980Ti war sie nochmals? achja, atemberaubende 1% im spieleschnitt :freak: und hat krasse 8% mehr strom gefressen :eek:

ja, die fury war schon nen echter krüppel... :rolleyes:

vega mag teils noch stimmen, aber fury war ne hammer karte.

crux2005
2020-09-20, 04:56:26
stimmt, die fury X war nen totaler krüppel... wieviel langsamer als ne 980Ti war sie nochmals? achja, atemberaubende 1% im spieleschnitt :freak: und hat krasse 8% mehr strom gefressen :eek:

ja, die fury war schon nen echter krüppel... :rolleyes:

vega mag teils noch stimmen, aber fury war ne hammer karte.

Der Unterschied zwischen Fury X und 980 Ti war je nach Auflösung mehr oder weniger. https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/

-1 bis +6% für 980 Ti

Paar Jahre später sieht es schlechter für die Fury X aus. Wegen dem kleinerem VRAM.

HFEafZIPusY

Sardaukar.nsn
2020-09-20, 09:04:36
Mag sein das das für Dich übertrieben klingt. Ich sehe das so:
Wenn es AMD und Intel nicht gäbe würdest Du für eine 3080 10Gb aktuell mindestens 999€ zahlen. NV ist kein Wohltäter sonder ein astrein kalkulierender Konzern in absoluter Marktmacht Position. Das die Karte zu diesem Preis existiert ist dem Umstand geschuldet das man AMD keine Luft lassen möchte am Markt Fuß zu fassen und Geld zu verdienen. Auf der anderen Seite verarscht man hier massiv die Gamer mit einer Karte die 0 taugt und lockt über den Preis (Stichwort "Geiz ist Geil"). Die Karte hat nicht ansatzweise genug VRam entsprechend ihrer Rohleistung und die Käufer dieser High End Karte müssen schon heute in manchen Games die Details nach unten schrauben. Das wird in Zukunft und vor allem mit immer mehr Einsatz von RT (den NV natürlich auch massiv pushen wird) nur noch schlimmer. Für dieses Konstrukt lässt sich NV aktuell auch noch scheinheilig feiern. Was NV gerne hätte siehst Du an der 3090 für 1500€. Diese Karte wird extrem gut altern und mit CPU Upgrades immer weiter skalieren, mindestens für die nächsten 4 Jahre. NV hat mit der 3080 einfach nur ein Stück Elektronikschrott produziert und das nur aus den niedersten Beweggründen die man auf dieser Welt haben kann -> Geld , Macht und Gier. Das wahre Gesicht zeigt NV mit der 3090. Kann und will sich natürlich nicht jeder leisten, aus guten Grund keine Frage. NV weiß das alles ganz genau und hat es sich gut überlegt. Wer billig kauft, kauft zwei mal. Sprichwort kennt jeder und trifft auf Ampere besser den je zu.
Man müsste meiner Meinung nach NV für Marktmanipulation und Umweltverschmutzung verklagen und für das verschwenden von Rohstoffen in sinnlosen und nicht nachhaltigen Produkten.
Jetzt könnt ihr mich gerne alle Flamen, ist mir latte :tongue:
Und ja, ich kaufe eine 3090 weil ich in der komfortablen Situation bin, das ich nicht jeden Cent umdrehen muss und in erster Linie ein Gamer bin.

Wow. Du kritisierst hier erst lang und breit das Ziel eines jeden Unternehmens => Gewinnmaximierung. Um dann *plot twist* den 100% Aufpreis für ~10% Mehrleistung der 3090 für zu rechtfertigen. :eek:

TobiWahnKenobi
2020-09-20, 09:23:15
OFFICIALLY Confirmed: SUPER RTX 3080 [20GB], 3070 [16GB], 3060 [8GB]

https://youtu.be/rInTrR42DW0


(..)

mfg
tobi

Sardaukar.nsn
2020-09-20, 09:27:51
https://youtu.be/rInTrR42DW0
(..)mfg
tobi

Ich weis gar nicht ob ich eine 20GB Ampere Karte mit DDR6X haben möchte.

Die 10GB mit overclock +500mhz ziehen ja schon 95 Watt (MVDDC Power Draw). https://i.imgur.com/AGD8sWG.jpg

Wenn das Powerlimit der 20GB Karte dann nicht auch um 100 Watt steigt, was ich bezweifle, kann das nur zu Lasten der Performance bzw Boost gehen. :rolleyes:

Zergra
2020-09-20, 09:32:04
Wenn die mit 2GB Modulen kommen, dürfte das nicht das Problem sein. Der Stromverbrauch ist in dem Fall wirklich nur geringfügig größer.
Bei 20x1GB.... sieht das anders aus.

Dalai-lamer
2020-09-20, 10:23:03
Hat schon jemand seine 3080 und kann berichten?

ShinyMcShine
2020-09-20, 10:30:37
OFFICIALLY Confirmed: SUPER RTX 3080 [20GB], 3070 [16GB], 3060 [8GB]

https://youtu.be/rInTrR42DW0


(..)

mfg
tobi
Das ist mittlerweile nichts neues mehr...

Raff
2020-09-20, 10:35:03
... und keineswegs "offiziell". Offiziell wäre, wenn Jensen erneut und spatelschwingend aus seiner Küche berichtet, dass es so kommt. :D

MfG
Raff

Fragman
2020-09-20, 10:45:10
Ich frag mich, wie die Preisgestaltung aussehen soll. Wie schon oft geschrieben ist die Lücke zur 3090 sehr groß, die Mehrleistung aktuell kaum nennenswert, bleibt nur der Speicher. 20GB auf einer 3080 würde das Preisgefüge dort oben kaputt machen. Nv könnte natürlich 3-400 Euro Aufpreis nehmen für 10GB mehr, um das Preisgefüge aufrecht zu erhalten. Aber wer bezahlt soviel Aufpreis für "nur" diese Speichermenge?
Deshalb bin ich da auch skeptisch bis nv etwas offizielles ankündigt.

dildo4u
2020-09-20, 10:46:19
NV wird gar nix ankündigen oder?Das sind reine AIB Modelle.

Zergra
2020-09-20, 10:50:09
Naja, wenn NV die 3080 mit 20GB, und z.B 74SMs anbietet. Dürfte man ca auf dem gleichen Level wie eine 3090 sein.
Da man mit 2GB Chips weniger verbraucht als eine 3090. Am Ende ist die 3090 dann total überflüssig.

Daher denke ich das so ein Modell noch ein paar Monate auf sich warten lässt.

Daredevil
2020-09-20, 11:08:06
20GB auf einer 3080 würde das Preisgefüge dort oben kaputt machen.
Ich finde nicht unbedingt, dass es was kaputt machen würde, solange der Preis halt irgendwo mittig liegt.

Schlechtes Preisgefüge ( Für Nvidia )
3080 10GB > 699€
3080 20GB > 799€
3090 24GB > 1499€

Gutes Preisgefüge ( Für Nvidia )
3080 10GB > 699€
3080 20GB > 899-999€ ( Meinetwegen noch mit der Tri Slot Kühlung der 3090 )
3090 24GB > 1499€

Nvidia spielt hier mit der "Angst", zu wenig Speicher auf einer 699€ Karte zu haben und diese Angst ist zu 95% unberechtigt, weil es nicht mal zwei Hand voll Spiele gibt ( von mehreren zehn Tausenden ), die komplett unbenutzbar sind. Zumal man auch hier immer Regler benutzen kann.
Diese "Angstmenschen" sehen in einer 3080 20GB für 899-999€ einen guten Deal, weil sie sich "sicher" fühlen und durch die 3090 24GB wird diese Karte auch attraktiv.

Hier wurde oft nicht zitiert, dass die 3070 xyz FPS bietet, sondern alles wird mit dem Top Tog gemessen.
Die 3070 ist so schnell wie eine 2080ti, die 3080 ist 15% schneller als eine 2080ti. Leute lieben es "teure Hardware" günstig zu bekommen, weil sie einen Deal riechen.
Wenn ich "fast" 3090 24GB Features bekomme für "nur" 999€ mit einer 2090 20GB, dann fühlt sich das gut an, obwohl es das ( rational ) nicht sein sollte.

Daher sehe ich hier großes Marketing Potential, aber wenig Mehrwert für den Kunden bzw. irrationalen Mehrwert, wenn man in seiner Leistungsklasse bleibt. ( Eine 3080 ist eine "gute" 4K Karte, aber keine perfekte )

Troyan
2020-09-20, 11:09:57
Die 20GB wird doch nicht nur 100€ mehr kosten. Rechnet mal eher mit 200€+ mit schlechterer Verfügbarkeit. Einige Träumen einfach und denken, dass der Aufpreis gering sein wird.

SKYNET
2020-09-20, 11:15:24
Der Unterschied zwischen Fury X und 980 Ti war je nach Auflösung mehr oder weniger. https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/

-1 bis +6% für 980 Ti

Paar Jahre später sieht es schlechter für die Fury X aus. Wegen dem kleinerem VRAM.

https://youtu.be/HFEafZIPusY

jupp, das stimmt so auch, aber bei erscheinen war se eine sehr gute karte... habe nur von dem dummschwätzer oben, die aussage widerlegen wollen ;)

Daredevil
2020-09-20, 11:17:13
Genau, erst heulen sie weil zu wenig Speicher drauf ist. Dann heulen sie, weil die Karten zu teuer sind. Fazit: Sie heulen. :D

Raff
2020-09-20, 11:17:19
jupp, das stimmt so auch, aber bei erscheinen war se eine sehr gute karte... habe nur von dem dummschwätzer oben, die aussage widerlegen wollen ;)

Die Fury X war im Juli 2015 mit 4 GiB das, was eine RTX 3070 mit 8 GiB im Oktober 2020 ist.

MfG
Raff

fondness
2020-09-20, 11:22:33
Ich frag mich, wie die Preisgestaltung aussehen soll. Wie schon oft geschrieben ist die Lücke zur 3090 sehr groß, die Mehrleistung aktuell kaum nennenswert, bleibt nur der Speicher. 20GB auf einer 3080 würde das Preisgefüge dort oben kaputt machen. Nv könnte natürlich 3-400 Euro Aufpreis nehmen für 10GB mehr, um das Preisgefüge aufrecht zu erhalten. Aber wer bezahlt soviel Aufpreis für "nur" diese Speichermenge?
Deshalb bin ich da auch skeptisch bis nv etwas offizielles ankündigt.

Sehe ich auch so. Eine 20GB 3080 muss sehr viel mehr kosten wie ein 10Gb 3080, ansonsten ist die 3090 obsolet. So gesehen hat man die Wahl eine 10Gb 3080 zu kaufen und vermutlich in spätestens 2 Jahren upgraden zu müssen, plus hin und wieder VRAM Ruckler in kauf nehmen zu müssen, oder man muss ordentlich in die Tasche greifen und eine 3090 kaufen. Ich finde das Portfolio von NV schon sehr spannend.

Die Fury X war im Juli 2015 mit 4 GiB das, was eine RTX 3070 mit 8 GiB im Oktober 2020 ist.

MfG
Raff

Der Unterschied ist, dass es bei der Fury eine technische Limitierung war, bei NV ist es Kalkül.

mironicus
2020-09-20, 11:24:43
Hört auf Raff! 10 GB von heute sind das 4 GB von damals. :)

Fragman
2020-09-20, 11:26:18
Ich finde nicht unbedingt, dass es was kaputt machen würde, solange der Preis halt irgendwo mittig liegt.

Schlechtes Preisgefüge ( Für Nvidia )
3080 10GB > 699€
3080 20GB > 799€
3090 24GB > 1499€

Gutes Preisgefüge ( Für Nvidia )
3080 10GB > 699€
3080 20GB > 899-999€ ( Meinetwegen noch mit der Tri Slot Kühlung der 3090 )
3090 24GB > 1499€


Genau das meine ich, egal wie man die Preise setzt, das Preisgefüge ist kaputt.
Die 3080 für 699 (aktuell halt 799) ist ok. Eine 3080 für 1K macht keinen Sinn da aufgrund der Leistung völlig überteuert, egal ob die 20GB hat oder nicht. Sollte AMD mit 16GB für wirklich max 700 kommen, sind die 1K Euro sowieso obsolet. Deshalb mal abwarten, ob wir wirklich eine 3080 mit 20GB sehen werden (außer die kommt in einem Jahr, dann ist "genügend" Zeit vergangen. :D)

Warum schreib ich das?
Weil nv selbst mit offiziellen 699 für die 3080 gestartet ist.
Die Diskussion hätten wir nicht, wenn es 899 gewesen wären. :wink:

mironicus
2020-09-20, 11:29:56
Vielleicht senkt NVidia den Preis der 3090 auf 999 Euro wenn Big Navi erscheint. :)

basix
2020-09-20, 11:33:05
Vielleicht senkt NVidia den Preis der 3090 auf 999 Euro wenn Big Navi erscheint. :)

Niemals. Eher bringen sie eine 3080 Super.

ChaosTM
2020-09-20, 11:35:19
Hab damals überlegt der Fury eine Chance zu geben. Gsd hab ichs nicht getan -> 980ti (trotz AMD bias)

BigBangBacket
2020-09-20, 11:51:00
Hört auf Raff! 10 GB von heute sind das 4 GB von damals. :)

Eigentlich hat er was anderes geschrieben. Aber es kommt nicht durch, oder?

davidzo
2020-09-20, 12:27:44
Ich weis gar nicht ob ich eine 20GB Ampere Karte mit DDR6X haben möchte.

Die 10GB mit overclock +500mhz ziehen ja schon 95 Watt (MVDDC Power Draw). https://i.imgur.com/AGD8sWG.jpg

Wenn das Powerlimit der 20GB Karte dann nicht auch um 100 Watt steigt, was ich bezweifle, kann das nur zu Lasten der Performance bzw Boost gehen. :rolleyes:

Es ist der Speichercontroller im Chip der soviel zieht, siehe extra voltage domain. Der ändert sich nicht mit der anzahl wieviele chips dran hängen.

Und auch die speicherchips verbrauchen kaum etwas wenn sie nicht aktiv beschrieben werden, page refresh ist vernachlässigbar im gegensatz zu übers Interface transferrierten bits. Man rechnet da in joule pro bit, das heißt der power draw ist in erster Linie von der Bandbreite des SI abhängig, nicht von der Anzahl der speicherbänke.
Ist auch logisch, bei 760gb/s wird ein DRAM Modul in einem 20GB Pool nur halb so häufig frequentiert wie in einem 10GB Pool. Das Beschreiben und auslesen eines 20Gb pools dauert dabei einfach doppelt so lange und hat dabei aber genau denselben Durcschnittsverbrauch wie 10GB.
Thermisch kann eine 20GB Karte also sogar Vorteile haben, da die Module nur halb soviel leisten müssen, also die Energiestromdichte in den DRAM Modulen sinkt, nicht dass das wohl ein problem wäre, aber die theorie ist sound.

Olliver
2020-09-20, 12:46:05
Die einzigen custom 3080 Karten, die wenigstens etwas schneller sind als die 3080 FE, sprich 3x8 Pin und ein höheres Power target haben, kosten schon um die 900€.
Asus Rog Strix und EVGA FTW3 z.B.
Das Ganze jetzt mit 20 GB, dann sind wir bei etwa 1100€ und endlich macht der Vergleich zur 2080Ti von der Preiskategorie her Sinn.:wink::frown:

Dieses Jahr kommt doch eh nicht mehr, warum sollte Nvidia nachlegen, wenn sie gar nicht genug produzieren können?

Wenn Big Navi wirklich konkurrenzfähig wird, dann kommt Nvidia mit 20GB sobald die Produktion den Verkauf übersteigt, sprich AMD Kunden wegschnappt.
Sonst gibt es wie letztes mal, erst nach einem Jahr refresh.

MasterElwood
2020-09-20, 12:58:48
Also gerade in 4K sehe ich jetzt auch kein CPU Limit:

https://www.tomshardware.com/features/nvidia-geforce-rtx-3080-ampere-cpu-scaling-benchmarks

Von DEINEM Link:

"If you're pining for 4K ultra at 60 fps, or looking forward to games with even more ray tracing effects, the GeForce RTX 3080 is a big jump in generational performance.... Just don't expect to make full use of the 3080 if you pair it up with an old processor."

:tongue:

RLZ
2020-09-20, 13:03:23
Wir bekommen neue DLSS Qualitätsstufen
(0 = Performance, 1 = Balanced, 2 = Quality, 3 = Ultra Performance, 4 = Ultra Quality)

y33H@
2020-09-20, 13:13:36
vll endlich DLSS 2x =)

RLZ
2020-09-20, 13:40:34
vll endlich DLSS 2x =)
Ja. 2.1 :)
Wenn man in die DLL reinschaut, ist es schon interessant, dass es intern noch als NGX DLAA bezeichnet wird.

Raff
2020-09-20, 13:41:49
"Ultra Quality" wäre echt mal etwas, das nach DLSS 2x aussieht. =)

MfG
Raff

aufkrawall
2020-09-20, 14:39:59
Nochmal zu Complicateds unsinnigem, erlogenem Gewäsch, für beste Latenz wäre mit Radeon so etwas wie Reflex überflüssig:
QzmoLJwS6eQ
Kein Hardware-Dongle, kaum Leistungsverlust, massiv niedrigerer Input Lag. Wenn es jetzt noch mit DX12 und guten Frametimes läuft, wär es full of win.
Edit: CoD gelistet, also DX12 unterstützt.

Edit 2: Habs in Fortnite getestet, funktioniert mit DX12 und ist ein Unterschied wie Tag und Nacht bei 50fps. :eek:

Spasstiger
2020-09-20, 15:10:30
Es ist der Speichercontroller im Chip der soviel zieht, siehe extra voltage domain. Der ändert sich nicht mit der anzahl wieviele chips dran hängen.
Eben, siehe Titan RTX vs. RTX 2080 Ti.
Obwohl die Titan RTX mehr als doppelt soviel Speicher hat und davon in Bezug auf die Performance kaum ggü. der RTX 2080 Ti profitiert, arbeitet sie effizienter: https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/3/?amp=1#abschnitt_performance_pro_watt

Dampf
2020-09-20, 15:49:57
Wir bekommen neue DLSS Qualitätsstufen

Man muss ja die neuen Tensor Cores ausreizen! Die Ultra Stufen sind bestimmt nur für Ampere.

Ultra Qualität klingt verdächtig nach DLSS2X ;)

Liquaron
2020-09-20, 16:28:48
Von DEINEM Link:

"If you're pining for 4K ultra at 60 fps, or looking forward to games with even more ray tracing effects, the GeForce RTX 3080 is a big jump in generational performance.... Just don't expect to make full use of the 3080 if you pair it up with an old processor."

:tongue:

Nanana nicht nur teile zitiere:

„ The demands on the GPU are so high that even a seven-year-old Core i7-4770K now only trails the Core i9-10900K by 8% at 4K ultra. It's still a noticeable 13% behind at 4K medium, but hopefully you get the point we're trying to make: The RTX 3080 is very much a graphics card designed to tackle high-resolution gaming. 4K ultra at 60 fps or more is now totally possible, and you can do it with a Core i7-4770K, Ryzen 5 3600, or go all the way and pair it with a Core i9-10900K or Ryzen 9 3900X.

In short, it's not that the CPU doesn't matter at all at 4K, but it doesn't matter very much if all you're doing is playing a game.“

Fragman
2020-09-20, 19:21:38
Mh, da lief wohl was schief bei Amazon, schaut nicht gut aus:

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Amazon-Vorbestellungen-problematisch-1358434/

Zergra
2020-09-20, 19:27:45
Mh, da lief wohl was schief bei Amazon, schaut nicht gut aus:

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Amazon-Vorbestellungen-problematisch-1358434/
Das dauert bestimmt länger als einen Monat. So viele Zotac Trinity Karten werden die definitiv nicht in einem Monat bauen :biggrin:

Digidi
2020-09-20, 19:35:46
Das dauert bestimmt länger als einen Monat. So viele Zotac Trinity Karten werden die definitiv nicht in einem Monat bauen :biggrin:
Ähm.. 20.000 sollten doch in einer Woche zu packen zu sein? Nur mal So VW baut 3800 Autos ane einem Tag in Wolfsburg ;)

Was ich mich halt frage warum man diese Vorbestellungsystem nicht Umstellt. Jeder kann bestellen nur das Lieferdatum verschiebt sich nach hinten. Dann ist jeder glücklich und weiß wann er ungefähr sein Produkt bekommt.

Ps. Wenn ich Sony oder Nvidia wäre würde ich das nächste mal die ersten 10 Sekunden den Preis auf 20.000 Euro stellen XD

00-Schneider
2020-09-20, 19:36:59
Ob das größtenteils Bots sind/waren?

Digidi
2020-09-20, 19:38:39
Ob das größtenteils Bots sind/waren?

Ich glaube auch die Lagerbestände warn recht klein. Fon der Founders Edition findet man nichts auf Ebay....

Sardaukar.nsn
2020-09-20, 21:34:46
Die einzigen custom 3080 Karten, die wenigstens etwas schneller sind als die 3080 FE, sprich 3x8 Pin und ein höheres Power target haben, kosten schon um die 900€...

Ja aber auch die High-End Karten mit 400+ Watt Bios bringen aktuell nur 3% mehr Leistung. Also zu vernachlässigen.

Bei Gamer Nexus konnte sich die FTW3 nicht vom Rest absetzen:

5YuSsYGj5S4


Hier mit Shunt Mod und ohne Rücksicht auf Verluste. Keine Mehrleistung zu holen.

aqPBk1K5p3A


Die Dinger scheinen ab Werk schon am Ende zu sein. Erinnert mich an Zen 2 mit Precision Boost Overdrive.

Spasstiger
2020-09-20, 21:43:20
https://youtu.be/QzmoLJwS6eQ
Kein Hardware-Dongle, kaum Leistungsverlust, massiv niedrigerer Input Lag. Wenn es jetzt noch mit DX12 und guten Frametimes läuft, wär es full of win.
Edit: CoD gelistet, also DX12 unterstützt.
Beeindruckende Verbesserung. Was mich aber wundert: Warum geht mit VSync der Input Lag selbst mit Reflex dermaßen nach oben? Das sind ja nochmal 4 Frames an Lag oben drauf, wenn VSync aktiviert wird. Hätte eher mit einem Frame oben drauf gerechnet.
Aber verdeutlicht mir nochmal, warum ich mit VSync in Shootern nicht klar komme, zu viel Input Lag.

Zergra
2020-09-20, 21:49:46
Ähm.. 20.000 sollten doch in einer Woche zu packen zu sein? Nur mal So VW baut 3800 Autos ane einem Tag in Wolfsburg ;)

Was ich mich halt frage warum man diese Vorbestellungsystem nicht Umstellt. Jeder kann bestellen nur das Lieferdatum verschiebt sich nach hinten. Dann ist jeder glücklich und weiß wann er ungefähr sein Produkt bekommt.

Ps. Wenn ich Sony oder Nvidia wäre würde ich das nächste mal die ersten 10 Sekunden den Preis auf 20.000 Euro stellen XD


Grundsätzlich hast du wohl recht, normal hat ein Hersteller aber relativ feste Kapazitäten. Das fängt eben schon bei den Bauteilen an.

Hier geht es ja eben nur um genau das Modell. Durch die Aktion hat sich die Verteilung zwischen den einzelnen Herstellern ja doch sehr stark zu Zotac verschoben. Ist natürlich schwer zu sagen, wie viel die sonst produzieren. Hier sind aber eben doch eine Menge extra dazu gekommen.

aufkrawall
2020-09-20, 22:21:46
Beeindruckende Verbesserung. Was mich aber wundert: Warum geht mit VSync der Input Lag selbst mit Reflex dermaßen nach oben? Das sind ja nochmal 4 Frames an Lag oben drauf, wenn VSync aktiviert wird. Hätte eher mit einem Frame oben drauf gerechnet.
Aber verdeutlicht mir nochmal, warum ich mit VSync in Shootern nicht klar komme, zu viel Input Lag.
Vsync wird in der Praxis ständig ganz seltsam verkackt, unter Linux ist die zusätzliche Latenz mit dem D3D9 Gallium Nine Wrapper um Dimensionen geringer als nativ (sowohl DB als auch TB). :freak:
Reflex betrifft nur das Prerender der CPU, Vsync hat seine eigene Backbuffer Queue vor dem Scan Out.

Digidi
2020-09-21, 00:07:02
Bei der Xbox ist doch der Ram recht krumm 10GB schnell und 6Gb langsam kann es sein das dies ein zugeständniss für Nvidia ist. So das die Entwickler nur 10GB für Grafik benutzen? Microsoft will ja auch immer noch das es auf dem PC gut läuft. (Nur ein weitgefaster gedanke)

just4FunTA
2020-09-21, 00:13:28
ne ging ihnen halt ums geld

Raff
2020-09-21, 00:18:19
Eigentlich hat er was anderes geschrieben. Aber es kommt nicht durch, oder?

Die nächste Sonderschicht ist beendet, mit spannenden Extremtests. :naughty:

MfG
Raff

Cubitus
2020-09-21, 00:21:44
Vermutlich den 10GB VRAM bis an die Kotzgrenze gefahren? :biggrin:
Nvidia soll am besten gleich den 20GB Klopper raushauen..

Die 10-20 Prozent 1500 Euro 3090, können se gern behalten..

Platos
2020-09-21, 02:16:47
Die nächste Sonderschicht ist beendet, mit spannenden Extremtests. :naughty:

MfG
Raff

Du hast warhscheinlich grad viel um die Ohren, aber gibt es noch Tests bezüglich höheren Auflösungen als 4k bzw. darüber, wie weit die 10GB reichen ?

Daredevil
2020-09-21, 02:33:07
Genau das lese ich bei seinem Post raus. :<

MiamiNice
2020-09-21, 07:33:08
Die nächste Sonderschicht ist beendet, mit spannenden Extremtests. :naughty:

MfG
Raff

Heft oder Paywall?
:biggrin:

Raff
2020-09-21, 08:37:28
Free Willy, keine Paywall. Und yep, Tests mit ~8 bis ~33 Millionen Pixel pro Frame. :)

Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte): ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71541&stc=1&d=1600670439

MfG
Raff

HOT
2020-09-21, 08:37:59
PCGH hat keine Paywall. Nur die Heft-Artikel sind PCGH+, das ist das fairste +-Angebot da draußen.

ShinyMcShine
2020-09-21, 09:36:13
GIGABYTE zeigt zwei 3070er... (https://videocardz.com/newz/gigabyte-showcases-geforce-rtx-3070-gaming-and-eagle-series)

y33H@
2020-09-21, 10:01:39
Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte):Crasht Wolfenstein dann einfach?

igg
2020-09-21, 10:03:19
Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte): ;)
Ui, das sieht schonmal seeeehr interessant aus :-) gibt's dazu dann bereits Erklärungen oder erstmal "nur" Ergebnisse?

basix
2020-09-21, 10:09:21
Ich habe mal aus Interesse die Nvidia UVPs seit NV40 für jeweils den grossen und nächstkleineren Chip aufgezeichnet. Daraus kann man folgendes ableiten:

Der Preisanstieg hat seinen Anfang mit Kepler genommen (Kepler = "Ursprung allen Übels" ;)). Dort konnte man plötzlich GK104 zu x80 SKU Preisen verkaufen
Bei Maxwell sind die Preise dann auf ähnlichen Niveau verharrt (Nvidia erwartete mit Fiji wohl eine starke Karte)
Mit Pascal sind die Preise für GP104 explodiert. Immerhin gab es dazu 8 GByte Speicher und hohe Leistungssteigerungen. Pascal war Nvidias Cash Cow. Diese Periode war für Nvidia sehr lukrativ (auch GV100 lief im Datacenter wie geschmiert)
Turing ist irgendwie eine Anomalie. Sehr hohe Preise. Allerdings ist TU104 nur etwas kleiner als GM200 und etwas grösser wie GP102.
Bei Ampere ist die 3080 wieder auf dem Nivau der langjährigen Trendlinie für den grössten Chip und der x80 SKU.
Wenn man eine Chipgrösse von 500-600mm2 zugrunde legt, sind die Preise seit G80 nur leicht angestiegen. Ausnahmen sind die Titans und die 3090. Die 2080 Ti hatte wiederum einen deutlich grösseren Chip.
Die Titan Trendlinie folgt schön Titan, Titan Xp, 2080 Ti, 3090


Mein Fazit:
Nvidias Margensteigerung seit Kepler kommt neben HPC vor allem davon, dass man den Gxxx4 Chip in höheren Preisregionen verkaufen konnte. Vor Kepler kosteten diese Chips 200-300$. Nach Kepler 500-800$. Aufgrund dessen sind auch alle Chips darunter preislich nach oben gerutscht und das nehmen wir als Kunden als generellen Preisanstieg wahr. Die hohen Kepler-Margen wollte man natürlich beibehalten, deswegen sind die SKUs kontinuierlich etwas teurer geworden. Kepler, Maxwell und Pascal waren in dem Sinne überteuert. Turing ist preislich stark nach oben gerutscht, dies aber mit deutlich grösseren Chips. Interessanterweise sieht TU104 im historischen Vergleich gar nicht so stark überteuert aus, da der Chip relativ gross ist. Bei Ampere kommt nun die Preiskorrektur und die 3080 FE ist in dem Preisrahmen angesiedelt, wie es die letzten 15 Jahre für einen grossen Chip sein sollte. Diese Preiskorrektur kam sicher nicht freiwillig, man ist seit Kepler ja gut damit gefahren. Gründe dafür könnten die NextGen Konsolen, RDNA2 oder Game Streaming Dienste wie Stadia sein.

Raff
2020-09-21, 10:14:09
Crasht Wolfenstein dann einfach?

Yep, trotz aller Tricks (Erfahrungen mit 8-GiByte-Karten :D) nix zu machen.

MfG
Raff

Dural
2020-09-21, 10:46:22
Wie so macht man Benchmarks in Einstellung die komplett fern jeglicher Realität sind? Reine Zeit Verschwendung.

Und die wenigen Nutzer die diese Einstellungen verwenden werden sich so wie so eine 3090 holen.

Daredevil
2020-09-21, 10:54:03
Wie so macht man Benchmarks in Einstellung die komplett fern jeglicher Realität sind? Reine Zeit Verschwendung.

Und die wenigen Nutzer die diese Einstellungen verwenden werden sich so wie so eine 3090 holen.
6K sind nicht fernab jeglicher Realität, nur deiner vielleicht.

Sagt mal, will Mindfactory einfach kein Geld verdienen oder sind die jetzt echt irgendwie AMD Partner? :D

Dampf
2020-09-21, 10:55:27
Wie so macht man Benchmarks in Einstellung die komplett fern jeglicher Realität sind? Reine Zeit Verschwendung.

Und die wenigen Nutzer die diese Einstellungen verwenden werden sich so wie so eine 3090 holen.

Warum nicht? Ist doch mal spannend zu sehen und mal was, das noch keiner zuvor gemacht hat.

Problematisch wird es nur wenn sich Leute auf solche Extremtests festfressen und dann ihr Geld für eine 3090 mit 24 GB rauswerfen, die in realistischen Use-Cases gar nicht notwendig sind während eine 10 GB 3080 für normales Spielen in 4K locker ausreicht.

dildo4u
2020-09-21, 10:55:50
Sagt mal, will Mindfactory einfach kein Geld verdienen oder sind die jetzt echt irgendwie AMD Partner? :D

Mindfacotry ist der einzige Laden der es richtig macht nicht kacke listen die sie nicht liefern können.

BlacKi
2020-09-21, 10:55:58
Die nächste Sonderschicht ist beendet, mit spannenden Extremtests. :naughty:

MfG
Raff
6k+8k. auch nicht schlecht
PCGH hat keine Paywall. Nur die Heft-Artikel sind PCGH+, das ist das fairste +-Angebot da draußen.
wenn die geld verlangen auf einer website zum lesen des artikels, dann ist das paywall.

6K sind nicht fernab jeglicher Realität, nur deiner vielleicht.

das wird der artikel zeigen. 8k sind mit zumindest mit 10/11gb nicht bei wolfenstein drinn.

Zergra
2020-09-21, 10:56:39
Sagt mal, will Mindfactory einfach kein Geld verdienen oder sind die jetzt echt irgendwie AMD Partner? :D
Wieso das denn ? Nur weil die nix auf Lager haben ?

Schon länger so, das sie Produkte deren Lieferzeit unbestimmt ist aus dem Sortiment nehmen.

Da wird bestimmt die Tage noch was kommen, muss man halt nur ab und an schauen....


https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+3080.html
Der Link führt zu den 3080 RTX Karten, wenn den welche gelistet sind.

Lawmachine79
2020-09-21, 10:57:04
Wie so macht man Benchmarks in Einstellung die komplett fern jeglicher Realität sind?
Um Grenzen zu zeigen und Vorhersagen zu treffen?!?

dildo4u
2020-09-21, 10:59:59
Mindfactory zieht seine Listungen wenn sie keine Chance sehen zu liefern man kann z.b nach 3300X suchen aber der Eintrag wurde gelöscht.

HOT
2020-09-21, 11:00:14
[...]
wenn die geld verlangen auf einer website zum lesen des artikels, dann ist das paywall.
Die Paywall gilt nur für Heftartikel. Brauchst halt das Abo, sonst kannste das nicht lesen. Kannst auch das Heft kaufen.

Nuada
2020-09-21, 11:03:56
Die 3080ti wäre total sinloss, wenn leute das kaufen, Jacke WINS... 0% schneller als die normale 3080 mit doppelt soviel ram zu 1100-1200€

So wird es auch kommen, dann sind die 300€ obendrauf für 24gb (+4gb vram) + 5-20% boost gar nicht mehr so teuer. Wenn man es gegen die ti vergleicht.



So in der art muss Jacke wohl gerechnet haben.

BlacKi
2020-09-21, 11:08:32
Die Paywall gilt nur für Heftartikel. Brauchst halt das Abo, sonst kannste das nicht lesen. Kannst auch das Heft kaufen.
kaufen ist das stichwort.

Die 3080ti wäre total sinloss, wenn leute das kaufen, Jacke WINS... 0% schneller als die normale 3080 mit doppelt soviel ram zu 1100-1200€

So wird es auch kommen, dann sind die 300€ obendrauf für 24gb (+4gb vram) + 5-20% boost gar nicht mehr so teuer. Wenn man es gegen die ti vergleicht.



So in der art muss Jacke wohl gerechnet haben.
so hab ich mir das auch ausgerechnet. aber schon die 2080super hatte eine deutlich bessere perf/euro als die 2080ti. ich denke das die boardpartner aber den preispunkt frei wählen können. normalerweiße fände ich 900€ für die 20gb version passend, aber wenn der unterschied zum toptier so gering ist, wird der preis sicher nach oben angepasst.

da die preise sowieso spinnen wundert sich sowieso keiner mehr.

sehr schade, ich hätte gerne eine bekommen.

NC
2020-09-21, 11:09:37
Die 3080ti wäre total sinloss, wenn leute das kaufen, Jacke WINS... 0% schneller als die normale 3080 mit doppelt soviel ram zu 1100-1200€

So wird es auch kommen, dann sind die 300€ obendrauf für 24gb (+4gb vram) + 5-20% boost gar nicht mehr so teuer. Wenn man es gegen die ti vergleicht.



So in der art muss Jacke wohl gerechnet haben.
Hängt das nicht stark von den AMD Preisen ab?

ShinyMcShine
2020-09-21, 11:12:17
kaufen ist das stichwort.

Spricht doch nichts dagegen, ein Heft zu kaufen wenn der Inhalt interessiert?
Leute, die hunderte Euros in PC Hardware versenken, können bestimmt auch das eine oder andere Print-Magazin erwerben.

Immerhin sollte die Arbeit der Journalisten und Redakteure auch gewürdigt werden. Ich hab' zwar kein PCGH Abo, aber kaufe auch im Jahr mal das eine oder andere Heft, wenn der Inhalt für mich wichtig ist...

NC
2020-09-21, 11:17:23
Spricht doch nichts dagegen, ein Heft zu kaufen wenn der Inhalt interessiert?
Leute, die hunderte Euros in PC Hardware versenken, können bestimmt auch das eine oder andere Print-Magazin erwerben.

Immerhin sollte die Arbeit der Journalisten und Redakteure auch gewürdigt werden. Ich hab' zwar kein PCGH Abo, aber kaufe auch im Jahr mal das eine oder andere Heft, wenn der Inhalt für mich wichtig ist...
Es ging doch nur um den Punkt, dass es eine paywall ist.

HOT
2020-09-21, 11:24:48
Ging es nicht, es ging hier nur darum darauf herumzureiten, weil man mit Raffs Meinung und Expertise nicht konform geht...

MasterElwood
2020-09-21, 11:28:25
Nanana nicht nur teile zitiere:

„ The demands on the GPU are so high that even a seven-year-old Core i7-4770K now only trails the Core i9-10900K by 8% at 4K ultra. It's still a noticeable 13% behind at 4K medium, but hopefully you get the point we're trying to make: The RTX 3080 is very much a graphics card designed to tackle high-resolution gaming. 4K ultra at 60 fps or more is now totally possible, and you can do it with a Core i7-4770K, Ryzen 5 3600, or go all the way and pair it with a Core i9-10900K or Ryzen 9 3900X.

In short, it's not that the CPU doesn't matter at all at 4K, but it doesn't matter very much if all you're doing is playing a game.“

Na bitte: CPU Limit! Egal ob 8 oder 13 Prozent - Limit ist Limit.


Oh - und nicht vergessen: Bench Systeme sind SAUBERE Systeme. In der Praxis hat jedes Windows viele viele kleine Hintergrundsachen laufen - und alle nagen an der CPU.

NC
2020-09-21, 11:29:09
Ging es nicht, es ging hier nur darum darauf herumzureiten, weil man mit Raffs Meinung und Expertise nicht konform geht...
Achso. Dachte es ging um die Behauptung von jemandem, dass die Website, die fürs Lesen Geld verlangt, keine Paywall hätte.

BlacKi
2020-09-21, 11:30:21
Ging es nicht, es ging hier nur darum darauf herumzureiten, weil man mit Raffs Meinung und Expertise nicht konform geht...
you failed.

ich kann verstehen wenn man paywalls aufbaut, ich finde sie nicht toll, aber ich verstehe es. es hingegen nicht als paywall zu bezeichnen obwohl man geld fürs lesen ausgeben muss, in welcher form auch immer, das stört mich.

basix
2020-09-21, 11:52:04
Na bitte: CPU Limit! Egal ob 8 oder 13 Prozent - Limit ist Limit.


Oh - und nicht vergessen: Bench Systeme sind SAUBERE Systeme. In der Praxis hat jedes Windows viele viele kleine Hintergrundsachen laufen - und alle nagen an der CPU.

Dir ist schon klar, dass ab 7700K diese 10% in den meisten Games aufgeholt werden? Die wenigsten werden eine 3080 mit einer solch alten CPU wie dem 4770K oder älter koppeln. Die meisten Intel Nutzer sind mit Coffee Lake aufwärts unterwegs und bei AMD ist der Gegenpart ein Ryzen 3600 aufwärts. Ergo kein CPU-Limit. Leute mit älteren / schwächeren CPUs sind zu 99% nicht die Zielgruppe für eine 3080 FE. Ausserdem schafft selbst ein 4770K in den meisten Spielen des TomsHardware Tests ca. 100fps bei den CPU limitierten Spielen in 4K Ultra.

Bei 1080p ist ganz klar ein CPU-Limit vorhanden -> Sinnlos mit 3080 FE
Bei 1440p ist teilweise ein CPU-Limit vorhanden -> Starke CPU erforderlich
4K -> CPU wenig relevant

NC
2020-09-21, 12:03:57
Ich glaube das mit dem Limit ist nicht so schwarz/weiss wie ihr es vielleicht auslegt, selbst bei 1080p.
Jede CPU wird mal limitieren, aber wenn das an einer Stelle im Benchmark wäre die nur peakt, ist das nicht wirklich von Bedeutung.
Um wirklich aussagen zu können welche Rolle die CPU spielt, wäre die Anzahl der Frames in einem Histogram wichtig. Wenn dann bis 80% der FPS-bins beide CPUs gleich aussehen, ist die CPU egal. Wenn die 4770k in jedem unteren bin paar % mehr Frames hat, macht die CPU was aus.

Nur die FPS sind ein guter Grund zum Streiten, aber eben weil die Werte nichts zu eurem Punkt aussagen/beweisen.

Gibt es vielleicht irgendwi sinnvolle Resultate?

RLZ
2020-09-21, 12:16:36
Hängt das nicht stark von den AMD Preisen ab?
Nur bedingt. Für Nvidia bezahlen die meisten Nutzer gerne einen Aufschlag.

Um Grenzen zu zeigen und Vorhersagen zu treffen?!?
Grenzen zeigen: ja, Vorhersagen: nein

Mit 8K werden gleich mehrere GB (meiner Meinung nach sinnlos) verballert. Klar ist eine Karte, die kein Speichermonster ist, damit überfordert, wenn man 50% Arbeitsspeicher wegen 8K abknapst.

Platos
2020-09-21, 12:20:54
@Dural: Äh nein, wer an höheren Auflösungen interessieft ist, wie 4k, der kauft sich nicht automatisch eine 3090. Ich nicht, und JVC z.B schonmal auch nicht. Denn so viel ich weiss, gibt er nicht mehr aus, wie 999 für eine Grafikkarte. Bei mir kommt das auch nicht in frage.

Und du hast den Test noch nicht mal gelesen.

Free Willy, keine Paywall. Und yep, Tests mit ~8 bis ~33 Millionen Pixel pro Frame. :)

Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte): ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71541&stc=1&d=1600670439

MfG
Raff

Lecker, lecker... Auf diesen Test freue ich mich ja schon.

NC
2020-09-21, 12:30:31
Nur bedingt. Für Nvidia bezahlen die meisten Nutzer gerne einen Aufschlag.Das stimmt, das hat sich NV auch gut erarbeitet. Aber Aufschlag impliziert für mich, dass der Referenzpreis relevant ist, somit kommt es schon drauf an was AMD verlangen wird. Einfach 1200$ jetzt schon anzunehmen und das zu ignorieren finde ich selbst beim Spekulieren ein wenig gewagt.

Emil_i_Lönneberga
2020-09-21, 12:41:04
PCGH hat keine Paywall. Nur die Heft-Artikel sind PCGH+, das ist das fairste +-Angebot da draußen.

Richtig, PCGH+ sind Einzelartikel aus den regulären Magazinausgaben und werden 1:1 online für 1-1,50€ angeboten.

Zielgruppe: Man ist kein Abonnent, möchte als unregelmäßiger Heftkäufer wegen einem oder zwei Artikel nicht die Ausgabe am Kiosk mitnehmen und holt sich beide Artikel für 2€ online.

Für BlacKi sind anscheinend eben alle seit der Erfindung des Buchdruck verkauften entsprechenden Erzeugnisse paywall.

Mancher wird den Mehrwert von PCGH+ zum regulären PCGH Angebot eben nie verstehen.

WedgeAntilles
2020-09-21, 12:58:33
Für BlacKi sind anscheinend eben alle seit der Erfindung des Buchdruck verkauften entsprechenden Erzeugnisse paywall.

Natürlich ist per Definition etwas VERKAUFTES eine Paywall.
Ein Verkauf beeinhaltet den Austausch eines Produkts gegen Geld.
Wenn ich Geld geben muss ist das eine Schranke - ohne Geld kein Produkt.

Es geht 0,0 darum, ob das angemessen ist oder nicht, es ist schlicht und ergreifend definitionstechnisch richtig.

Edgecrusher86
2020-09-21, 13:08:56
Free Willy, keine Paywall. Und yep, Tests mit ~8 bis ~33 Millionen Pixel pro Frame. :)

Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte): ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71541&stc=1&d=1600670439

Wenn die RTX 3090 komplett durchgetestet ist, wird das Paket die 8GB Marke geknackt haben - Screenshots. :D

MfG
Raff

Was, keine 16K Tests?! How dare you?! :freak:;D:freak:
Ja, darf man sich dann aufheben für die 3090 -> 5-10 fps - ein flüssiges Screenshot-Erstellen ist möglich. Hehe.

Ich habe hier auch einen pers. riesigen Benchparcours erstellt aus alten, neueren und aktuellen Titeln - wenn es die 11GB und Rohleistung zulassen wird auch oberhalb 6880 gefahren...10320 und 13760 in 21:9. 11GB über-füllen. Ansonsten sind die Mindestauflösungen 3440 x 1440 und 5160 x 2160. Es lebe die PCMR! :D:D:D

https://s12.directupload.net/images/200921/temp/qwubbgat.png (https://www.directupload.net/file/d/5949/qwubbgat_png.htm)


Beispiel gefällig? Crysis 3 in 13760 x 5760 und FXAA - satte 10 fps. Die 3090 wird hier das alte SLI Gespann überbieten....mit Pascal SGPU waren es übrigens 1 fps. :D

Pascal SLI:
https://s12.directupload.net/images/200921/temp/j8onfvt7.png (https://www.directupload.net/file/d/5949/j8onfvt7_png.htm)

https://s12.directupload.net/images/200921/j8onfvt7.png


Pascal SGPU:
https://s12.directupload.net/images/200921/temp/bk2zg9xu.png (https://www.directupload.net/file/d/5949/bk2zg9xu_png.htm)

https://s12.directupload.net/images/200921/bk2zg9xu.png
(https://s12.directupload.net/images/200921/bk2zg9xu.png)


E: Der Screenshot ist übrigens 114MB schwer in echt - glorreiche 79MP halt. :D

2x 3090 hätten dann die 20er Marke geknackt, aber NV will ja nicht einmal mehr inoffiziellen Support bieten abseits explizit - doof bezüglich 8K60+ nativ Gaming - die Power wäre sinnvoll nutzbar vorhanden gewesen....:/
Meckern auf sehr hohen Niveau. Jetzt ist man halt hier mit einer Karte 8K High Preset 60+ oft oder halt per DLSS 2.1 Ultra Performance. ^^

rentex
2020-09-21, 13:11:27
Die Paywall von PCGH ist in Ordnung, man bekommt ja wirklich viel und guten ,kostelosen Content auf der Seite präsentiert.
Das man nicht immer Raffs Meinung teilt, ist wie in anderen Fällen normal...gibt ja genug andere Leute vom Fach.

Emil_i_Lönneberga
2020-09-21, 13:18:00
Natürlich ist per Definition etwas VERKAUFTES eine Paywall.
Ein Verkauf beeinhaltet den Austausch eines Produkts gegen Geld.
Wenn ich Geld geben muss ist das eine Schranke - ohne Geld kein Produkt.

Es geht 0,0 darum, ob das angemessen ist oder nicht, es ist schlicht und ergreifend definitionstechnisch richtig.

Touché.

Das Thema "PCGH und Paywall" ist hier im 3dcenter aber ein Dauerthema.

Und bei so einer undifferenzierten Grütze, die wieder mal der Anstoß der darauf folgenden Kommentare war und nur gezeigt hat, dass man sich im PCGH Angebot nicht auskennt, haut einem kurzzeitig schonmal ein paar Sicherungen raus.

Heft oder Paywall?
:biggrin:

--> Ziehlt im wahren Kern darauf ab:"Kostenlos oder blechen".

NC
2020-09-21, 13:47:11
Für BlacKi sind anscheinend eben alle seit der Erfindung des Buchdruck verkauften entsprechenden Erzeugnisse paywall.
Die Definition von Paywall ist doch so selteneindeutig. Es bringt nichts es abzutun, als sei es eine Eigenheit von ihm. Du führst damit doch eher dich als ihn vor.

Mancher wird den Mehrwert von PCGH+ zum regulären PCGH Angebot eben nie verstehen.Der Mehrwert ändert doch nichts daran, dass dieser Wert hinter einer Bezahlschranke liegt.

Ich verstehe nicht wirklich worum es hier geht. Die Sache ist doch eindeutig, lasst uns das einfach abnicken, dass sich vielleicht jemand versehen hat, dass es keine Paywall gibt. Es ist nicht schlimm sich zu versehen, aber jetzt seitenlang es zu rechtfertigen oder die Definition anzugreifen wird zu nichts führen.

Ab zum Thema Ampere zurück.

MasterElwood
2020-09-21, 13:53:15
Ich glaube das mit dem Limit ist nicht so schwarz/weiss wie ihr es vielleicht auslegt, selbst bei 1080p.
Jede CPU wird mal limitieren, aber wenn das an einer Stelle im Benchmark wäre die nur peakt, ist das nicht wirklich von Bedeutung.
Um wirklich aussagen zu können welche Rolle die CPU spielt, wäre die Anzahl der Frames in einem Histogram wichtig. Wenn dann bis 80% der FPS-bins beide CPUs gleich aussehen, ist die CPU egal. Wenn die 4770k in jedem unteren bin paar % mehr Frames hat, macht die CPU was aus.

Nur die FPS sind ein guter Grund zum Streiten, aber eben weil die Werte nichts zu eurem Punkt aussagen/beweisen.

Gibt es vielleicht irgendwi sinnvolle Resultate?

Ja - IGORS 3080 Review.

BTB
2020-09-21, 14:03:38
Also ich habe ja überlegt ob die 3070 für mein System noch was taugt, in Summe bin ich zum Entschluss gekommen, das die neue Generation auch für meine olle CPU gerade mal adäquate GPU Leistung für 4k Displays bringt. Generell ist es ja noch immer so dass die CPUs seit Jahren zuviel Power liefern und die GPUs eigentlich unterdimensioniert waren.

Die CPU ist natürlich ein Faktor, aber ein zwingendes Upgrade ist es (für mich in 4k) noch nicht.

NC
2020-09-21, 14:07:50
Ja - IGORS 3080 Review.meinst du https://www.igorslab.de/en/nvidia-geforce-rtx-3080-founders-edition-review-a-great-step-ahead-and-the-gravestone-for-turing/ ?
Oder ein anderes? Ich sehe dort, auf die schnelle, keine CPU abhängigen Benches. (Wenn auch die Frame Time Graphs echt nice sind, machen die wenigsten Reviews.)

igg
2020-09-21, 14:11:44
Natürlich ist per Definition etwas VERKAUFTES eine Paywall.
Ein Verkauf beeinhaltet den Austausch eines Produkts gegen Geld.
Wenn ich Geld geben muss ist das eine Schranke - ohne Geld kein Produkt.

Es geht 0,0 darum, ob das angemessen ist oder nicht, es ist schlicht und ergreifend definitionstechnisch richtig.Falsch (Wikipedia):
Als Paywall (Audio-Datei / Hörbeispiel anhören?/i) – aus dem Englischen lehnübersetzt Bezahlmauer, im Deutschen auch Bezahlschranke[1] – wird ein Mechanismus bezeichnet, mit dem bestimmte Inhalte einer Website nur nach dem Bezahlen einer Gebühr oder dem Abschluss eines Abonnements sichtbar sind (Paid Content). Der Begriff ist besonders bei Websites von Zeitungen und Zeitschriften gebräuchlich, die mit einer Paywall versuchen, ein alternatives Geschäftsmodell zu entwickeln, das nicht oder nur zum Teil auf einer Finanzierung mittels Anzeigen basiert. Als Grund für die Einführung solcher Bezahlschranken wird von den Verlagshäusern die Kompensation von fehlenden Anzeigenerlösen im World Wide Web genannt.
Da die diskutierten Inhalte originär dem PCGH Print Magazin zuzurechnen sind und lediglich via Web sekundär veröffentlicht werden, handelt es sich nicht um eine Paywall des Website-Angebots. Es dient nicht dem Ausgleich von Werbeeinnahmen sondern dem Ausgleich des Print-Erzeugnisses.

Oder ist für dich jeder Einkaufswagen ein Mobile Home?

BigBangBacket
2020-09-21, 14:21:46
Falsch (Wikipedia):

Da die diskutierten Inhalte originär dem PCGH Print Magazin zuzurechnen sind und lediglich via Web sekundär veröffentlicht werden, handelt es sich nicht um eine Paywall des Website-Angebots. Es dient nicht dem Ausgleich von Werbeeinnahmen sondern dem Ausgleich des Print-Erzeugnisses.

Oder ist für dich jeder Einkaufswagen ein Mobile Home?

Das kann doch jetzt nicht euer Ernst sein?! Geht ins Betriebswirtschaftsforum für sowas. Dieser Thread ist eh schon ziemlich unübersichtlich geworden.

Um wenigstens etwas Ontopic zu sein.
Icj glaube der 3090 Verkauf wird etwas ruhiger. Die Scalper werden ihre 3080 ja nicht so gut los und der Ebaybot hat denen auch das Leben schwerer gemacht. Male schauen ob NVIDIA auch noch weiter zwischenfunkt.
Somit gibt es wenigstens eine reelle Chance eine von den 10 verfügbaren 3090 zu erwischen

MiamiNice
2020-09-21, 14:31:28
Touché.

Das Thema "PCGH und Paywall" ist hier im 3dcenter aber ein Dauerthema.

Und bei so einer undifferenzierten Grütze, die wieder mal der Anstoß der darauf folgenden Kommentare war und nur gezeigt hat, dass man sich im PCGH Angebot nicht auskennt, haut einem kurzzeitig schonmal ein paar Sicherungen raus.



--> Ziehlt im wahren Kern darauf ab:"Kostenlos oder blechen".

Du solltest mal an Deinen Deutsch Skills arbeiten. Die Frage war Heft oder als kostenpflichtiger online Artikel. Wenn Dir die Diskussion zu der PCGH Paywall die Sicherung ausbrennt, wäre es vielleicht auch nicht schlecht mal wieder das RL zu besuchen. Den ganz nüchtern betrachtet geht es um eine Info Webseite von hunderten die nur Dein Bestes will. Also völlig belanglos im normalen Leben.

NC
2020-09-21, 14:41:32
Falls Blacki richtig liegt und die anderen falsch, dann wozu das reden?
Wenn er das nur als Seitenschlachtfeld aufgemacht hat, wie vorgeworfen, um vom eigentlichen Thema abzulenken, dann wozu drüber reden?


Lasst uns doch einfach über Ampere reden, das Thema macht mehr spass.

BlacKi
2020-09-21, 14:47:34
wenn dann war das hot und wollte leute damit triggern^^

NC
2020-09-21, 14:52:36
wenn dann war das hot und wollte leute damit triggern^^Was hat das mit Ampere zu tun ;)

Kann jemand bitte den Igor Artikel mit den CPU Skalierungen mit der 3080 verlinken? Ich finde das nicht. (Oder alternative gute Quellen)

Fragman
2020-09-21, 15:29:03
Somit gibt es wenigstens eine reelle Chance eine von den 10 verfügbaren 3090 zu erwischen

Schon allein wegen dem Preis, der inoffiziellen Ankündigung zumindest der 3070 mit 16GB sowie BigNavi mit 16Gb und den Benchmarkleaks wird sich der Run diesmal in Grenzen halten.

MasterElwood
2020-09-21, 15:42:46
meinst du https://www.igorslab.de/en/nvidia-geforce-rtx-3080-founders-edition-review-a-great-step-ahead-and-the-gravestone-for-turing/ ?
Oder ein anderes? Ich sehe dort, auf die schnelle, keine CPU abhängigen Benches. (Wenn auch die Frame Time Graphs echt nice sind, machen die wenigsten Reviews.)

Im YT-Video dazu geht er drauf ein

MasterElwood
2020-09-21, 15:43:32
Meine Zotac ist anscheinend im Arsch...

"Despite very limited stock and due to an error, Amazon Germany took preorders for ZOTAC RTX 3080 Trinity. Almost 20 thousand preorders have been submitted, even though the company did not have this many cards for sale.

The company announced on Twitter that the orders may need to be canceled, otherwise weeks of waiting time is to be expected:

Almost 20,000 pre-orders have been received and, with the best of intentions, we cannot serve them in a short time, as much as we wanted. So again: We are infinitely sorry, but we also don’t know what went wrong here.
— ZOTAC on Twitter (now removed)"

Fragman
2020-09-21, 15:46:48
Wird noch spannend, denn die günstigsten Angebote die ich gesehen hab sind 100 Euro höher für die Zotac, also 799€, manchmal auch gleich 150 Euro mehr.

HOT
2020-09-21, 16:13:49
Wieso nehmen alle die Zotac? Da würd ich aber auf die FE warten, die Zotac hat das em meisten downgecostete PCB und das für mehr Geld...

https://www.youtube.com/watch?v=0AVZSjYDR2E&t=1645s

Ist ist eh sinnvoller auf die 20GB-Version zu warten, da wird man ja sehen, wie die Preise dann ausfallen, die werden ja sicherlich nach den AMD erscheinen. Early Adoper ist mMn ziemlich dämlich bei der Generation.
Ich schiele auch auf die 3080 20GB, die AMDs werden sicherlich auch schnell, aber haben eben nur 16GB. Dann wird das Ding eben unter die 300W gebracht, denn >300W lass ich nicht so stehen.

Mehr Geld als was? Der UVP ist 699 und dafür war sie bestellbar.

Da ist die FE trotzdem der bessere Deal ;).

dildo4u
2020-09-21, 16:16:56
Die ZOTAC stand für 699 ewig als auf Lager bei Amazon obwohl sie kaum Karten hatten.

Daredevil
2020-09-21, 16:19:18
Wieso nehmen alle die Zotac?
Du tust ja so, als hätte man ne große Auswahl. :freak:

RLZ
2020-09-21, 16:19:43
Wieso nehmen alle die Zotac? Da würd ich aber auf die FE warten, die Zotac hat das em meisten downgecostete PCB und das für mehr Geld...
Mehr Geld als was? Der UVP ist 699 und dafür war sie bestellbar.

MiamiNice
2020-09-21, 16:20:42
>300W lass ich nicht so stehen.

Das wäre aber zumindest "HOT" :wink:

Die ZOTAC stand für 699 ewig als auf Lager bei Amazon obwohl sie kaum Karten hatten.

Die Leute können imo froh sein das die Karten nicht kommen. Zotac ist nicht für Qualität bekannt sondern für eher für das Gegenteil. Maximal an der Kante gebaut mit so günstigen Bauteile wie die nur finden können.

HOT
2020-09-21, 16:20:52
Du tust ja so, als hätte man ne große Auswahl. :freak:
Das ist ja das dämliche... wenn die gut verfügbar sind, sinken diese Billig-Produkte auf weit unter 700€ herab, wieso jetzt kaufen? Einfach blöde... :uconf3:
Die sind ja aufgrund der schlechteren MOSFETs sogar langsamer als die FE...

BlacKi
2020-09-21, 16:23:25
600€ und darunter sind optimistisch.

HOT
2020-09-21, 16:24:12
Die ZOTAC stand für 699 ewig als auf Lager bei Amazon obwohl sie kaum Karten hatten.
Dann wäre es mMn klug die Bestellung zu stornieren und in den sauren Apfel zu beißen und die 8 Wochen noch abzuwarten, bis die Launches alle durch sind. Bis dahin ist die Verfügbarkeit dann auch gegeben und man bekommt garantiert das Produkt, was man auch haben möchte.

Ach ja, bis dahin ist das PCGH-Testsystem z.B. bestimmt auf optimiertem Zen3, dann wird die CPU-Limit-Problematik noch deutlicher evtl. Ist ja auch spannend bei der Kaufentscheidung.

BlacKi
war Tippfehler

Daredevil
2020-09-21, 16:30:59
Eine "schlechtes" PCB ist halt keinen deut langsamer als ein "gutes" PCB, höchstens effizienter und mit mehr OC Spielraum.
Ich hatte bei der 2080ti sowohl billige als auch HighEnd Modelle und die Spanne betrug ~1980-2060Mhz, also eher vernachlässigbar, sowieso wenn man den Preis in Betracht nahm. ( 999€ - 1250€ ).

Insofern ist die Zotac völlig okay, zumal die "HighEnd" FE bei HWLuxx gezirpt hat bis zum geht nicht mehr. Auf "gute" Karten ist halt auch kein Verlass.

HOT
2020-09-21, 16:34:29
Nein, ein PCB, dass das gleiche Powertarget als die FE verfolgt aber ineffizientere MOSFETs hat verbläst mehr Abwärme über die MOSFETs, es bleibt weniger für den Chip übrig. Bei ähnlicher Kühlung wirds dadurch minimal langsamer, weil NV da extrem restriktiv ist.

Gut zu sehen hier:
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/32.html

Dabei scheint die Kühlung sogar besser als bei der FE zu sein.

BlacKi
2020-09-21, 16:38:18
umso niedriger man das PT zieht umso geringer sind die unterschiede. ob die unterschiede bei 270w noch messbar sind? das wirkt dann auch dem zirpen vor. mehr takt, mehr zirpen.

HOT
2020-09-21, 16:40:20
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/29.html
Noch mehr Auswirkungen des downgecosteten PCBs, kack Idle-Werte. Zotac erlaubt kein höheres Powertarget als 336W, weil billiges PCB.

Daredevil
2020-09-21, 16:42:32
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/29.html
Noch mehr Auswirkungen des downgecosteten PCBs. Zotac erlaubt kein höheres Powertarget als 336W, weil billiges PCB.
Wie schön, das wollte ich auch verlinken.
Nix PCB, nur Lotterie.
While the Trinity is specified to the same settings as the Founders Edition: same base clock, same boost clock, same memory frequency, and identical power limit, it is around 1% slower than the FE. After some digging, I found out that the voltage-frequency table of the Trinity is set to slightly lower clocks than the FE. It seems that the silicon lottery wasn't so kind to us.

HOT
2020-09-21, 16:46:11
Glatte Fehlanalyse, siehe der letzt Link. Die können ihre eigenen Messergebnisse offensichtlich nicht auswerten... auch die Einzeltests geben das nicht wider, die sind so inkonsistent, da hier die bessere Kühlung das schlechtere PCB aufwiegt.

Rampage 2
2020-09-21, 20:41:28
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/29.html
Noch mehr Auswirkungen des downgecosteten PCBs, kack Idle-Werte. Zotac erlaubt kein höheres Powertarget als 336W, weil billiges PCB.

Ich kann HOT nur zustimmen - habe selber eine Zotac RTX 2070 (ist die AMP-Edition, also werkseitig übertaktet) derzeit im Betrieb.

Da die Turing-Chips damals noch segmentiert waren und nur werkseitig übertaktete Hersteller-Modelle mit den besser gebinnten "A"-Chips bestückt werden durften (!), dachte ich, dass ich mit der AMP das richtige Modell gewählt hatte - falsch gedacht! Denn ich hatte vor dem Kauf übersehen, dass sich das PT nur um 10% erhöhen lässt (also knapp über 200W) - so kann die Karte natürlich nicht richtig ausgefahren werden und der Sinn des A-Chips (mit dem die AMP bestückt ist) wird ad absurdum geführt:facepalm:

Der einzige Vorteil beim Kauf einer Zotac-Karte ist die 5 Jahre-Garantie, wenn die Karte nach dem Kauf bei Zotac registriert wird - aber das wars dann auch schon!

Seitens mir eine definitive Nicht-Empfehlung für Zotac-Karten:down:

(oder wenigstens ganz genau hinschauen und überlegen, bevor man Zotac-GPUs kauft!)

R2

BigBangBacket
2020-09-21, 20:46:02
https://youtu.be/Hhe5ByDrsYQ

Wurde noch gar nicht gepostet..oder?
Kleine Wärmeleitpadmod.
8° weniger bei so wenig Aufwand ist ja schon interessant.
Obwohl Nvidia die 50 Cent wirklich hätte investieren können.

Sardaukar.nsn
2020-09-21, 22:26:01
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/29.html
Noch mehr Auswirkungen des downgecosteten PCBs, kack Idle-Werte. Zotac erlaubt kein höheres Powertarget als 336W, weil billiges PCB.

Dann lieber die TUF für 699 aus dem Asus Shop. Falls mal wieder verfügbar. 375W PT und auch sonst ein eher hochwertiges PCB + Kühlung.

https://webshop.asus.com/de/komponenten/grafikkarten/nvidia-serie/2824/asus-tuf-rtx3080-10g-gaming

HOT
2020-09-21, 22:27:16
Ich würd im Moment gar nichts kaufen, wozu? Die paar Wochen kann man jetzt auch noch warten, dann bekommt man wenigstens, was man auch will und man hat mehr Optionen.

RLZ
2020-09-22, 00:21:38
Ach Nvidia... Irgendwo fliegt da immer ne 500. Egal welcher Browser
https://abload.de/img/asdd2kya.jpg

MasterElwood
2020-09-22, 00:54:13
Wieso nehmen alle die Zotac? Da würd ich aber auf die FE warten, die Zotac hat das em meisten downgecostete PCB und das für mehr Geld...

https://www.youtube.com/watch?v=0AVZSjYDR2E&t=1645s

Ist ist eh sinnvoller auf die 20GB-Version zu warten, da wird man ja sehen, wie die Preise dann ausfallen, die werden ja sicherlich nach den AMD erscheinen. Early Adoper ist mMn ziemlich dämlich bei der Generation.
Ich schiele auch auf die 3080 20GB, die AMDs werden sicherlich auch schnell, aber haben eben nur 16GB. Dann wird das Ding eben unter die 300W gebracht, denn >300W lass ich nicht so stehen.



Da ist die FE trotzdem der bessere Deal ;).

Die Zotec ist nur 2 Prozent langsamer - dafür SEHR SEHR viel leiser und kühler.

2 Prozent merkt man nicht. Die Lautstärke sehr wohl...

MasterElwood
2020-09-22, 00:55:38
NVIDIA spricht!

GeForce RTX 3080 Launch: What Happened? You Asked, We Answered.

https://www.nvidia.com/en-us/geforce/news/rtx-3080-qa/

aufkrawall
2020-09-22, 02:26:41
https://youtu.be/Hhe5ByDrsYQ

Wurde noch gar nicht gepostet..oder?
Kleine Wärmeleitpadmod.
8° weniger bei so wenig Aufwand ist ja schon interessant.
Obwohl Nvidia die 50 Cent wirklich hätte investieren können.
Da fragt man sich was passiert, wenn denn mal mit DirectStorage massiv der VRAM gestresst würde. :freak:

basix
2020-09-22, 07:00:24
Wieso sollte der VRAM stark gestresst werden? Es gehen max. 32 GByte/s über den PCIe Slot. Das ist ein Bruchteil der 760 GB/s Bandbreite der Karte.

Schnitzl
2020-09-22, 07:00:44
NVIDIA spricht!

GeForce RTX 3080 Launch: What Happened? You Asked, We Answered.

https://www.nvidia.com/en-us/geforce/news/rtx-3080-qa/
lol
"oh wir bieten die Karte deutlich billiger an als sonst, stecken zusätzlich den x02 anstatt den x04 rein... und sind überrascht dass mehr Leute sie kaufen wollen?"
Was haben die denn erwartet?

dargo
2020-09-22, 08:50:19
https://youtu.be/Hhe5ByDrsYQ

Wurde noch gar nicht gepostet..oder?
Kleine Wärmeleitpadmod.
8° weniger bei so wenig Aufwand ist ja schon interessant.
Obwohl Nvidia die 50 Cent wirklich hätte investieren können.
Lol...112°C im Furmark nach 30 Minuten am Speicher? Mal sehen wie lange die Karten halten. :tongue:

Effe
2020-09-22, 09:10:49
Möglicherweise ist das auch ein Grund für die beschissene Verfügbarkeit der FE. Überhastete Produktion und mangelnde Testzeit. Würde Sinn ergeben.

HOT
2020-09-22, 09:42:06
Lol...112°C im Furmark nach 30 Minuten am Speicher? Mal sehen wie lange die Karten halten. :tongue:
Dann ist der schon fröhlich am Throtteln. Ab 120°C ist übrigens Exitus.

Dural
2020-09-22, 10:00:44
Kein Speicher wird an Hitze tot sterben, da die schlicht zum Schutz selber drosseln, wie jede GPU oder CPU auch. Problem sind da eher die Verbindungen / Lötstellen.

Die 3080 hat eine Backplate, darunter sind Wärmepads, werden die nur 1x gelöst / entfernt bringen sie nicht mehr dieselbe Wärmeübertragungs-Leistung hin. Das selbe gilt natürlich auch für den Hauptkühler. Er hat nachweisslich den Kühler entfernt, eventuell sogar mehrere Male. Er misst sogar zum Teil ohne Backplate, Sorry aber der Typ ist ein Witz.

Igor macht sich langsam nur noch lächerlich. Hat halbwegs guten Kontakt zu einen Boardpartner, wahrscheinlich MSI das war es. Aber auch die bekommen kaum noch Infos, die wissen wie das PCB aussieht und welche spezifikation eingehalten werden müssen, das war es.

Wo ist eigentlich die separate SPW für die Tensor Core geblieben?!? :rolleyes:

HOT
2020-09-22, 10:02:19
Hast du keine Review gelesen? :freak:

Edgecrusher86
2020-09-22, 10:03:02
https://videocardz.com/newz/nvidia-geforce-rtx-3090-eth-mining-performance-leaks-out

https://abload.de/img/anmerkung2020-09-2210wqklr.png

Ein Glück, dass die Karte so teuer wird....2x RTX 3080 lohnen mehr für die Stromverschwender...eine Plage weniger - ich bin eh gespannt, ob es 1 kaufbare FE geben wird, Donnerstags um 15:00 Uhr. :freak:

Olliver
2020-09-22, 10:12:17
"Die 3080 hat eine Backplate, darunter sind Wärmepads, werden die nur 1x gelöst / entfernt bringen sie nicht mehr dieselbe Wärmeübertragungs-Leistung hin. Er hat nachweisslich den Kühler entfernt, eventuell sogar mehrere Male."
An der heißesten Stelle war eben kein Pad, deshalb hat Igor ja eins dran gebröselt.

HOT
2020-09-22, 10:32:08
Igor weiss schon was er tut, dieses Anmachen wegen Inkompetenz ist lächerlich. Er macht halt nur etwas viel auf Influecer und sagt viele Sachen krasser als sie sind. Ich hatte aber den Eindruck, dass Igors Testsample nicht so gut ist wie das der PCGH beispielsweise.

BigBangBacket
2020-09-22, 10:41:24
Wie war das nochmal bei der 3090? Die war beidseitig mit RAM bestückt oder? Sollten da auch wärmeleitpads fehlen, würde das nachträgliche Hinzufügen ja auch was bringen. Obwohl es wirklich ein Armutszeugnis von Nvidia ist, so ein Centprodukt nicht gleich zu installieren.
Ich meine 8° sind jetzt wirklich schon eine Hausnummer.

€: Wenn man Alphacol Eispads nimmt wäre es ein Europrodukt. Immer noch zu verkraften für den Endkunden

Edgecrusher86
2020-09-22, 10:48:40
Gut, andererseits mag es, wie Troyan schon ausführte im Camshell-Modus bei nur noch 8-bit Anbindung pro Modul (Vorder- und Rückseite) nicht so schlimm sein bezüglich der Wärmebildung - was auch noch hinzu kommt ist die Tatsache, dass halt idR Stand jetzt eh nur 8-12GB gefüllt sein dürften, da die meisten Leute maximal in 4K spielen.

Aber ja - wenn ein Centprodukt bei einer 699€ Karte solche Verbesserungen bringt, sollte ich als Hersteller dies berücksichten und mein Produkt entsprechend verbessern.

Adam D.
2020-09-22, 10:53:14
Gut, andererseits mag es, wie Troyan schon ausführte im Camshell-Modus bei nur noch 8-bit Anbindung pro Modul (Vorder- und Rückseite) nicht so schlimm sein bezüglich der Wärmebildung - was auch noch hinzu kommt ist die Tatsache, dass halt idR Stand jetzt eh nur 8-12GB gefüllt sein dürften, da die meisten Leute maximal in 4K spielen.
Er hat immer noch nicht einen einzigen Beleg für seine Behauptung gebracht. Alles, was er tut, ist die Reviews so zu lesen, wie es ihm passt. Er basht seine Lieblings-Reviewer, die es wagen, Dinge an den Tag befördern, die nicht in sein Weltbild passen. Ich kann den Typ echt nicht mehr ernst nehmen, das ist nur noch Trolling.

BigBangBacket
2020-09-22, 11:04:11
Ich würde ja gerne Pixeljetstreams Meinung und Hintergrundwissen dazu erfahren.
Los Pixel....trau dich 🙂😘

Gipsel
2020-09-22, 11:14:51
Gut, andererseits mag es, wie Troyan schon ausführte im Camshell-Modus bei nur noch 8-bit Anbindung pro Modul (Vorder- und Rückseite) nicht so schlimm sein bezüglich der Wärmebildung - was auch noch hinzu kommt ist die Tatsache, dass halt idR Stand jetzt eh nur 8-12GB gefüllt sein dürften, da die meisten Leute maximal in 4K spielen.Auch da gilt im Prinzip das Ähnliche: Die (genutzte) Speicherkapazität ist für den Stromverbrauch eher sekundär*. Was Strom verbraucht, ist die (genutzte) Bandbreite. Selbst wenn auf einer 24GB-Karte also nur 4GB aktiv genutzt werden, ist der Stromverbrauch bei gleicher übertragenen Datenmenge der gleiche zu dem, wenn die 24GB ausgeschöpft werden. ;)

*: einen gewissen Einfluß hat die Speichermenge schon, der ist aber im Bereich von Faktor 2 Speichermenge überschaubar (vielleicht 20%). Ganz vereinfacht addiert man die idle-Power (hauptsächlich Refreshes), unter Last kommt aber unabhängig von der Gesamtmenge des Speichers nur der gleiche Zusatzverbrauch hinzu (bei vielen Speichertypen wegen der im Clamshell-Modus zwischen 2 Bausteinen geteilten Adresslines etwas mehr, ist in den obigen 20% aber schon drin). Deswegen wird ja häufig für Interfaces (auch Speicherinterfaces) die Energieeffizienz in pJ/bit angegeben (was natürlich übertragene bits betrachtet).

========================

Er hat immer noch nicht einen einzigen Beleg für seine Behauptung gebracht.Da muß ich Troyan mal ausdrücklich in Schutz nehmen. Das ist Grundlagenwissen. Früher (GDDR5) haben die Speicherhersteller sogar mal explizit die Verbräuche ihrer Bausteine im x32 und im x16-Modus (also Clamshell) angegeben. Da war schon aus den öffentlichen Specs ersichtlich, daß im x16-Modus der Baustein natürlich weniger Verbraucht als im x32-Modus (der ist ja auch nur mit halber Bandbreite angebunden; konkret hat z.B. Hynix für ihren GDDR5 spezifiziert, daß ein Chip im x16-Modus unter Volllast je nach Betriebspunkt 55-60% des maximalen Verbrauchs im x32-Modus ziehen kann). Heute machen sie das vermutlich nur noch gegenüber ihren Kunden, das ist nicht mehr öffentlich. Aber da es keinerlei Grund gibt, daß sich etwas an dem Fakt geändert hat, wird es wohl auch noch weiterhin ganz genau so sein. ;)

Oder mal Anders: Ziehen irgendwelche Speicherchips z.B. 50W und man verdoppelt jetzt die Speichermenge per doppelter Anzahl der Chips im Clamshell-Modus, erwarte ich naiv erstmal einen Verbrauch der Speicherchips von größenordnungsgemäß 60W. Jeweils Volllast natürlich. Oder irgendwer muß mit einem Grund um die Ecke kommen, warum GDDR6(X) in diesem Fall jetzt so deutlich anders funktionieren sollte als alle anderen Speichertypen.

HOT
2020-09-22, 11:19:49
Mal was anderes: Leos Speku über GA103 finde ich interessant. Einen Chip, der die 3080 (wahrscheinlich Super) dann den 102er ersetzt und vielleicht gleichzeitig die 3070 Super werden wird - das ist schon eine sehr spannende Entwicklung. So eine 3070 Super mit > 48SMs und schnellem GDDR6(X) fänd ich nämlich auch sehr interessant. Die würden mMn per Standard mit 16Gb-Speicher eingesetzt werden.

Edgecrusher86
2020-09-22, 12:07:28
@ Gipsel: Ok, das hatte ich mir anders vorgestellt - danke für die Info. :)

E: 112 Grad Hotspot VRAM intern bei der 3080 FE Stock nach 30 Minuten Furmark? Der Winter kann kommen - auch in Sibirien. :freak:

aufkrawall
2020-09-22, 12:16:14
Wieso sollte der VRAM stark gestresst werden? Es gehen max. 32 GByte/s über den PCIe Slot. Das ist ein Bruchteil der 760 GB/s Bandbreite der Karte.
Stümmt, Hirnfurz. :redface:
Wobei Copy häufig allerdings schon recht energieintensiv ist.

BlacKi
2020-09-22, 12:27:41
Stümmt, Hirnfurz. :redface:
Wobei Copy häufig allerdings schon recht energieintensiv ist.
gabs dafür nicht dieses cuda based tool für die 970? das hat doch den vram beschrieben und dabei die bandbreite erfasst.

mit dem tool könnte man vl auch den verbrauch des rams einschätzen.

KarlKastor
2020-09-22, 13:04:51
Igor weiss schon was er tut, dieses Anmachen wegen Inkompetenz ist lächerlich. Er macht halt nur etwas viel auf Influecer und sagt viele Sachen krasser als sie sind. Ich hatte aber den Eindruck, dass Igors Testsample nicht so gut ist wie das der PCGH beispielsweise.
Aber ich finde seine Aussage schon unstimmig.
Er sagt, die Messung mit oder ohne Backplate macht keinen Unterschied. Aber mit Pad hinterm Speicher ist die Backplate dann der Heilsbringer.
Die wird auch vorher Wärme von den VRM abgeleitet haben, und diese heizen ja nach seiner Aussage den Speicher auf. Denn andere Speichermodule sind ja kühler.

Interessant auch, dass er sagt der Speicher lässt sich nicht übertakten. Bei CB ging der recht hoch. Weiß aber nicht mehr wie die getestet haben.


Aber generell finde ich gut, dass er einfach mal rumbastelt. Mal was anderes, als der restliche Einheitsbrei. Wie er es verpackt finde ich dann eher semi. Aber er muss ja auch Geld verdienen. ;)

MiamiNice
2020-09-22, 13:07:36
An die 3090 Strix OC at Amazon:

Laut meinem Telefonat eben sind die Strix OC Karten nun auf Lager und werden morgen versendet so das sie am 24. morgens bis mittags ankommen.
Ich habe die Dame extra den Bestand checken lassen weil ich ungläubig war aber sie sagte die wären definitiv schon im System zugebucht.

mironicus
2020-09-22, 13:09:50
Die Lieferbarkeit muß sich aber nicht auf alle laufenden Bestellungen beziehen.

HOT
2020-09-22, 13:10:59
Aber ich finde seine Aussage schon unstimmig.
Er sagt, die Messung mit oder ohne Backplate macht keinen Unterschied. Aber mit Pad hinterm Speicher ist die Backplate dann der Heilsbringer.
Die wird auch vorher Wärme von den VRM abgeleitet haben, und diese heizen ja nach seiner Aussage den Speicher auf. Denn andere Speichermodule sind ja kühler.

Interessant auch, dass er sagt der Speicher lässt sich nicht übertakten. Bei CB ging der recht hoch. Weiß aber nicht mehr wie die getestet haben.


Aber generell finde ich gut, dass er einfach mal rumbastelt. Mal was anderes, als der restliche Einheitsbrei. Wie er es verpackt finde ich dann eher semi. Aber er muss ja auch Geld verdienen. ;)

Da ist mit oder ohne Backplate nur Luft dazwischen. Igor hat an diese sensible Stelle ein Softpad gequetscht, jetzt wird die Backplate als Kühlelement für diese kritische Stelle genutzt, was vorher nicht ging, weil da nur Luft war. Dann kommt man natürlich zu einer Entlastung an diesem sensiblen Punkt. Das ist doch alles super plausibel...

MiamiNice
2020-09-22, 13:21:27
Die Lieferbarkeit muß sich aber nicht auf alle laufenden Bestellungen beziehen.


Die Karte war nur kurz im Verkauf, entgegen dem Zotac Müll. Es wurden angeblich nur so viele verkauft wie Amazon zugesandt bekommen hat. Angeblich hat Amazon eine Avisierung der Lieferung erhalten mit Stückzahlen und das System hat genau diese Menge in den Verkauf gegeben.

Aber naja, Amazon Kundendienst erzählt viel wenn der Tag lang ist. Hört sich für mich allerdings durchaus plausibel an.

Dural
2020-09-22, 13:22:34
Noch einmal, zeigt mir eine 3080 FE wo der Kühler nie entfernt wurde und trotzdem 110°C auf dem Speicher hat.

Wenn ihr mir so eine Karte zeigt können wir weiter reden. Der Typ macht nur noch Clickbait. Ja er macht interessante Untersuchungen und Tests, wie er es verpackt und seine Schlussfolgerungen sind aber oft sehr fragwürdig.

JVC
2020-09-22, 13:32:20
Noch einmal, zeigt mir eine 3080 FE wo der Kühler nie entfernt wurde und trotzdem 110°C auf dem Speicher hat.

Gibt es nicht. Das wäre schon außerhalb der Spezifikation ;)
Die Schutz Schaltung(trotling) greift bei 110°c.
Bei 120°c zerbröselt er ziemlich schnell (die sind nicht ganz so robust wie CPU oder GPU Kerne)

Ich bin eigentlich eher hartgesotten/schmerzfrei was das anbelangt...
Aber echt jetzt, ~105°c am Speicher sollen okay sein ?

HBM ist im Bezug auf Temperatur robuster soviel ich weis. (ist ja Die ähnlich)

M.f.G. JVC

KarlKastor
2020-09-22, 13:37:12
Da ist mit oder ohne Backplate nur Luft dazwischen. Igor hat an diese sensible Stelle ein Softpad gequetscht, jetzt wird die Backplate als Kühlelement für diese kritische Stelle genutzt, was vorher nicht ging, weil da nur Luft war. Dann kommt man natürlich zu einer Entlastung an diesem sensiblen Punkt. Das ist doch alles super plausibel...
Lies doch bitte was ich schreibe. Hinter den VRM waren Pads. Also wurden die VRM mit Backplate gekühlt, ohne Backplate weniger gut. Und die VRM heizen laut Igor ja die VRM auf.
Wie kann dann die Backplate für das Messergebnis egal sein?

Dural
2020-09-22, 13:42:47
Falsch, der Speicher ist in der Regel weniger empfindlich als eine CPU/GPU.

Man müsste sich mal langsam überlegen ob eine direkt Die Kühlung beim Speicher nicht sinnvoller wäre als zuerst über das Kunststoff Gehäuse zu gehen. Oder wenigsten einen HS als Alu zu verbauen.

Edit:
Hatte Rambus nicht mal einen HS aus Alu auf dem Speicher, bin mir nicht sicher ist schon sehr lange her.

basix
2020-09-22, 13:50:41
Falsch, der Speicher ist in der Regel weniger empfindlich als eine CPU/GPU.

Bei 100°C Tcase würde ich mir aber Gedanken um Memory Contention machen. Und allgemein um die Langlebigkeit der Karte.

Dural
2020-09-22, 13:54:45
Ja das sicher.

Die Lösung wäre eigentlich relativ einfach, man setzt in das Kunststoffgehäuse einen Alu HS ein und schon hätte man deutlich bessere Temperatur Werte. Kostet aber halt mehr...

JVC
2020-09-22, 13:58:20
Falsch, der Speicher ist in der Regel weniger empfindlich als eine CPU/GPU.

Komisch ... mein Samsung B-Die macht schon über ~65°c Probleme
Und CPUs hab ich schon Stundenlang bei 150°c und mehr (weiter ging der Sensor nicht ^^) eingebrannt. verrückte Zeit :freak:
Einem Bekannten ist auf einer älteren Graka der Lüfter kaputt gegangen und er hat es erst erahnt, als es gestunken hat (sich geschmolzenes Plastik am Gehäuse Boden gesammelt hat :eek:)
(das einzige was er angeblich merkte, waren manchmal Artefakte :cool: und als das Bild endlich mal einfror, hat er mich angerufen...)

Egal ... ich finde es halt blöd, das die GPUs scheinbar gut und kühl laufen,
während der Hightech-RAM in definitiv ungesunden Regionen fuhrwerkt.

M.f.G. JVC

Cyberfries
2020-09-22, 14:05:17
Mal was anderes: Leos Speku über GA103 finde ich interessant. Einen Chip, der die 3080 ....und vielleicht gleichzeitig die 3070 Super

Kommt drauf an, ob der GA103 so kommt, wie er ursprünglich spekuliert wurde, oder etwas ganz neues ist.
Mit 60SM ist da keine Ablöse für die 3080 in Sicht, nur eine 3070Ti/Super.
Um die 3080 wirklich adäquat zu ersetzen sollten das min.72SM an 6GPC sein, die 3070 Super dann so 54-58SM.
Speicher ist die große Frage, reichen 16GB 21Gbps GDDR6X? Alles drüber treibt wieder den Preis, was GA103 ja besser machen soll.

w0mbat
2020-09-22, 14:07:12
Stellt euch vor, kurz nach GA102 und GA104 kommt ein 7nm TSMC GA103, das wäre eine Blamage für Samsung. Ich glaube nicht dran.

HOT
2020-09-22, 14:09:25
Kommt drauf an, ob der GA103 so kommt, wie er ursprünglich spekuliert wurde, oder etwas ganz neues ist.
Mit 60SM ist da keine Ablöse für die 3080 in Sicht, nur eine 3070Ti/Super.
Um die 3080 wirklich adäquat zu ersetzen sollten das min.72SM an 6GPC sein, die 3070 Super dann so 54-58SM.
Speicher ist die große Frage, reichen 16GB 21Gbps GDDR6X? Alles drüber treibt wieder den Preis, was GA103 ja besser machen soll.
Man müssten den GA103 dann natürlich mit den Eckdaten der RTX3080 spekulieren, also nativ 320Bit. Der 3070 Super wäre dann ja wieder auf 256Bit downgegradet und eben mit diesem Package bestückt, die Karte könnte aber mit 16-18GT Speicher laufen oder gar mit X-Speicher (wobei man dafür ein neues PCB benötigen würde).

Falsch, der Speicher ist in der Regel weniger empfindlich als eine CPU/GPU.

Man müsste sich mal langsam überlegen ob eine direkt Die Kühlung beim Speicher nicht sinnvoller wäre als zuerst über das Kunststoff Gehäuse zu gehen. Oder wenigsten einen HS als Alu zu verbauen.

Edit:
Hatte Rambus nicht mal einen HS aus Alu auf dem Speicher, bin mir nicht sicher ist schon sehr lange her.

Das ist ein sehr guter Punkt, ein Metallgehäuse würde den Speichern sicher ganz enorm helfen u.U. Bei den Preisen ist ein Metallgehäuse für G-Speicher auch nicht zuviel verlangt mMn.

w0mbat
jo, der ist auch 8LPP. Da wird sich nix ändern.

Dural
2020-09-22, 14:19:00
Naja aktuell scheint das Problem ja mehr am GDDR6X zu liegen.

An ein GA103 von TSMC glaube ich nicht, wenn kommt eine GPU von Samsung in 7nm.

Gipsel
2020-09-22, 14:50:22
Ja das sicher.

Die Lösung wäre eigentlich relativ einfach, man setzt in das Kunststoffgehäuse einen Alu HS ein und schon hätte man deutlich bessere Temperatur Werte. Kostet aber halt mehr...Erinnert sich noch wer an die TwinMos Twister DDR1-Riegel? Da hatten bei ein paar Modellen (nicht allen) die Speicherchips gar kein Gehäuse sondern da waren die Memory-Dies per FlipChip direkt auf's PCB gelötet und der Heatspreader hatte direkten Kontakt zum Die. Hat sich ganz offensichtlich nicht durchgesetzt. Habe sogar noch ein oder zwei davon irgendwo rumliegen. :lol:
https://www.hwupgrade.it/immagini/twister.jpg https://www.hwupgrade.it/immagini/wlcsp-chip.jpg
Das Foto ist von einer Version mit WLCSP. Ich hatte aber die, wo die Chips direkt per FC4 aufgelötet wurden und klar exponierte Dies zeigte, wenn man den Heatspreader abnahm.

Birdman
2020-09-22, 15:21:11
Stellt euch vor, kurz nach GA102 und GA104 kommt ein 7nm TSMC GA103, das wäre eine Blamage für Samsung. Ich glaube nicht dran.
Halte ich auch für Mumpitz.
Wenn dann kommt ein solcher GA103 irgendwann im Q2 2021 (oder später) als "Super" Variante.

HOT
2020-09-22, 15:25:59
Kann ja nur so gewesen sein, dass der ursprüngliche GA103 nur 56SMs hatte und NV einfach nicht genug Leistung freigesetzt hat. Stattdessen hat man offenbar direkt einen neuen Chip mit 68SMs gestartet und richig, Q2 ist ein gutes Zielquartal dafür. Super-Varianten sind da sehr wahrscheinlich, weil das mit 16Gb GDDR6X zusammenfallen dürfte. Dann bräuchte man allerdings auch ne 3090 Super mit 16Gb-RAM und ca. 380-400W TDP.

rentex
2020-09-22, 15:36:29
Hat sich schon jemad ans runtertakten des VRAM gewagt?

Rampage 2
2020-09-22, 16:13:32
Kann ja nur so gewesen sein, dass der ursprüngliche GA103 nur 56SMs hatte und NV einfach nicht genug Leistung freigesetzt hat. Stattdessen hat man offenbar direkt einen neuen Chip mit 68SMs gestartet und richig, Q2 ist ein gutes Zielquartal dafür. Super-Varianten sind da sehr wahrscheinlich, weil das mit 16Gb GDDR6X zusammenfallen dürfte. Dann bräuchte man allerdings auch ne 3090 Super mit 16Gb-RAM und ca. 380-400W TDP.

Der ursprüngliche GA103 soll 60 SMs (7680 SPs) gehabt haben, ebenfalls angebunden an ein 320 Bit SI mit 10/20 GB VRAM. Abgesehen davon würden 56 SMs keinen Sinn ergeben: GA103 hatte vermutlich 6 GPCs - wie willst du 56 durch 6 (56/6) teilen? Folglich kann nur ein GA103-Salvage 56 SMs gehabt haben...

Bei einem "neuen" GA103 gehe ich eher von 72 SMs (aufgeteilt auf 6 GPCs) aus - die reguläre 3080 bekommt dann die Salvage mit genausovielen SMs wie die jetzige 3080 (68) und eine eventuelle 3080 Super dann den vollen Chip...

bzgl. "3090 Super" : wenn Nvidia sich an den Eiern packt, könnten wir tatsächlich eine 3090S mit vollem Chip und schnellerem GDDR6X mit 24GB (aber nur 12 Speicherchips) zu einem etwas höherem Preis sehen - wird aber wohl nicht eintreten... eher wird Nvidia die vollen Chips für eine Titan-A reservieren und diese mit sinnlosen 48GB Grafikspeicher ausstatten, um eine Legitimation zu haben... nämlich für den doppelten Preis von 3000$ :redface:

R2

HOT
2020-09-22, 16:18:36
Krumme SMs sind problemlos möglich, da bin ich im Navi-Thread schon darüber belehrt worden. Das kann NV nach belieben gestalten, auch 56 und 68SMs. 56 war das ursprüngliche Gerücht für GA103.

Cyberfries
2020-09-22, 16:22:33
Krumm bei Salvage, nicht im Vollausbau. Außerdem kann man das nicht Architekturübergreifend pauschalisieren.

Ursprüngliches Gerücht (Mai 2019) war 60SM, siehe hier:
https://twitter.com/kopite7kimi/status/1131031428878094337

Zergra
2020-09-22, 16:34:50
Ob so ein GA103 kommt... was macht man dann mit den GA102 Chips ? Nur für die 3090 ?
Da ich nicht erwarte das AMD die 3080 schlägt, (sonst hätte NV die nicht mit dem PT ausgeliefert), wüsste ich auch keinen Grund was NV da sonst ändern muss. Eine 3080TI/S kann man auch so bauen.

JVC
2020-09-22, 16:44:04
Ob so ein GA103 kommt... was macht man dann mit den GA102 Chips ? Nur für die 3090 ?

So war es doch offensichtlich geplant ;)

GA103 für die 3080(TI) und GA102 sollte mit höherem Preis und Nummer in "neue Sphären vordringen".
Aber es läuft auch in Firmen nicht immer alles so wie man es sich wünscht.

M.f.G. JVC

TurricanM3
2020-09-22, 16:48:04
An die 3090 Strix OC at Amazon:

Laut meinem Telefonat eben sind die Strix OC Karten nun auf Lager und werden morgen versendet so das sie am 24. morgens bis mittags ankommen.
Ich habe die Dame extra den Bestand checken lassen weil ich ungläubig war aber sie sagte die wären definitiv schon im System zugebucht.

Habe gerade noch mal gefragt. Nix lagernd und Lieferung weiterhin ungewiss.
Es gibt definitiv keine Lagerware. Ich meinte auch im Internet gibt es gegensätzliche Aussagen. Daraufhin wollte sie eine Beschwerde einreichen, dass meine Ware versendet werden soll. ^^
Du hattest doch nach mir bestellt oder? Als ich den Link hier geteilt habe erst?

Zergra
2020-09-22, 16:52:16
So war es doch offensichtlich geplant ;)

GA103 für die 3080(TI) und GA102 sollte mit höherem Preis und Nummer in "neue Sphären vordringen".
Aber es läuft auch in Firmen nicht immer alles so wie man es sich wünscht.

M.f.G. JVC

Das könnte ich mir nur in einem Super Duper Refresh vorstellen... 3070S dann mit 56SM oder so. Daher alles rutsch nochmal etwas nach oben, aber dann erst in 4-6 Monaten.

Triniter
2020-09-22, 17:07:55
Habe gerade noch mal gefragt. Nix lagernd und Lieferung weiterhin ungewiss.
Es gibt definitiv keine Lagerware. Ich meinte auch im Internet gibt es gegensätzliche Aussagen. Daraufhin wollte sie eine Beschwerde einreichen, dass meine Ware versendet werden soll. ^^
Du hattest doch nach mir bestellt oder? Als ich den Link hier geteilt habe erst?

Ich glaub da erzählt halt jeder was anderes. Ihr habt die OC geordert oder?

TurricanM3
2020-09-22, 17:21:37
Ja OC.

MiamiNice
2020-09-22, 17:23:15
Habe gerade noch mal gefragt. Nix lagernd und Lieferung weiterhin ungewiss.
Es gibt definitiv keine Lagerware. Ich meinte auch im Internet gibt es gegensätzliche Aussagen. Daraufhin wollte sie eine Beschwerde einreichen, dass meine Ware versendet werden soll. ^^
Du hattest doch nach mir bestellt oder? Als ich den Link hier geteilt habe erst?


Ja, nach Dir.
Lustig ist, dass ich eben eine Mail bekommen habe, in der mir bestätigt wird das meine Bestellung morgen raus geht ;D

Unser Logistikzentrum wird Ihre Bestellung 028-5795170-xxxxxx am 23. September 2020 versenden.

Das voraussichtliche Lieferdatum ist der 24. September 2020.

Den aktuellen Status Ihrer Bestellung können Sie auch jederzeit über "Meine Bestellungen" (http://www.amazon.de/meine-bestellungen) abrufen.

Ich freue mich, dass ich Ihnen weiterhelfen konnte, und danke für Ihre Geduld.

Triniter
2020-09-22, 17:25:24
Die haben eine Karte und wer am kreativsten jammert bekommt sie