Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 [46] 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Daredevil
2020-09-13, 22:05:11
Die 1080ti ist mir ihren 11GB Speicher aber halt auch deutlich zuviel gewesen, die kam doch quasi nie an ihre Grenzen mit spielbarer Leistung, oder? ( Ich merke es ja nicht mal mit 2080ti und hohen Auflösungen )
Deswegen ist es da nicht unbedingt verkehrt, auf eine 3080 10GB zu wechseln, man muss sich der Psychologie halt stellen, dass es vermeintlich "schlechter" wird.

Schlechter wird es aber perse nicht, die Bandbreite ist höher, die Architektur neuer und PCIe 4.0 tut ihr übriges bei "zu wenig RAM". Daher könnte eine 3080 auch besser performen und man kann die Psychologische Mauer abreißen. ^^

Tesseract
2020-09-13, 22:08:24
Die Titans und Tis waren immer fast Gleich von der Leistung. Selbst wenn wir die Titans mit ihrem hohen Preis dazunehmen ist die Flops zahl über die letzen Generationen nur Maginal gestiegen zu dem verlangten Preis. Ich rede hier vor Titan Ära

erstens ist "flops zahl" nicht gleichbedeutend mit leistung, zweitens stimmt es auch für den theoretischen throughput nicht.

die schnellsten 1080Ti am markt bewegen sich so bei ~14,8 TFLOPs. eine 3080 auf 1,8GHz kommt auf ~31,3 TFLOPs wobei der realtakt wahrscheinlich noch darüber liegen wird.

Die 1080ti ist mir ihren 11GB Speicher aber halt auch deutlich zuviel gewesen, die kam doch quasi nie an ihre Grenzen mit spielbarer Leistung, oder?

kann mich an keinen einzigen fall erinnern wo die rechenleistung nicht schon lange vor dem vram aus dem letzten loch gepfiffen hätte. würde mir jemand einen tausch meiner 1080Ti gegen eine 3070 bieten würde ich das ohne mit der wimper zu zucken machen.

TobiWahnKenobi
2020-09-13, 22:12:48
kauf dir einen neuen bildschirm, der uhd/120hz schafft. dann ergibt sich der bedarf für eine neue grafikkarte von ganz allein. entweder weil du DSC benötigst (ab turing) oder direkt hdmi2.1 (ab ampere).

geschwindigkeitstechnisch ist vieles schon immer ein bedienen der regler.

was die einordnung der karten angeht, so hat tesseract es doch recht einfach dargelegt. im fach der 2080 liegt demnächst die 3080 und die bietet mehr bums pro euro..

abseits von speichermengen und dem orakeln ob die menge zur gpu-power passt muss die karte einen bedarf oder zumindest ein habenwollen-gefühl auslösen.. dann ist der rest nur ne frage des budgets. im moment denke ich, die 3080 reicht.. vllt. kaufe ich auch eine. ob ich jetzt 3080, 3090 oder 3080 und 3090 bestelle macht den kohl nicht fett. es wird eh nur eine von beiden bleiben.. vllt. probiere ich beide aus.. oder keine, falls es keine gibt und die preise explodieren.. ich bin ja nicht so dusselig und verkloppe meine göttliche TI vor der zeit.. *gg* mit 2080Ti kann ich sehr gut spielen.. dass ich mehr will liegt hauptsächlich in 2 dingen begründet.. einmal: gewohnheit weil es schon immer so war, dass man grakas kauft wenn sie rauskommen.. und zweitens: der oled c9 und seine möglichkeiten mit hdmi2.1 schaffen bedarf für moderneres.


(..)

mfg
tobi

Digidi
2020-09-13, 22:18:03
erstens ist "flops zahl" nicht gleichbedeutend mit leistung, zweitens stimmt es auch für den theoretischen throughput nicht.

die schnellsten 1080Ti am markt bewegen sich so bei ~14,8 TFLOPs. eine 3080 auf 1,8GHz kommt auf ~31,3 TFLOPs wobei der realtakt wahrscheinlich noch darüber liegen wird.

.


Und die 2080ti lassen wir mal raus und das bei der 3080 nur 70% effiktiv nutzbar sind vergisst du auch ;)

Tesseract
2020-09-13, 22:30:36
Und die 2080ti lassen wir mal raus
auch die 2080Ti liegt performance/preis zwischen titan pascal und 3090.

und das bei der 3080 nur 70% effiktiv nutzbar sind vergisst du auch ;)
das ergibt null sinn. wo genau lassen sich von den ~31,3 TFLOPs nur 70% nutzen wo eine 1080Ti mehr rausholt?

Digidi
2020-09-13, 22:34:12
Jo die 2080 ist 20 prozent schneller als die 1080ti doch so viel. Dafür wird die 3090 nun 60% schneller als die 2080ti

Es liegt daran das sich INT und FP32 einen Pfad Teilen bei der 30x0 Serie. Die meisten Spiele nutzen 30% INT und den Rest FP32 Berechnungen. Ergo muss man bei der 30x0 Serie da man sich hier INT mit FP32 in einem Rechenpfad Teil mit 30% weniger FP32 Leistung rechnen, weil diese durch INT 32 blockiert wird. Gab es bei der 20x00 Serie nicht.

Nazar
2020-09-13, 22:47:41
Die 3080 IST die Top Dog Gamer Karte. Bei der Präsentation nicht aufgepasst?

Top = oben (drauf)
Top Dog = der Dominator, steht über allen anderen
Die 3080 ist aufgrund der Existenz der 3090 nicht der Top Dog!

Mal schauen, ob die 3080 morgen überhaupt noch top ist....

Armaq
2020-09-13, 22:48:01
Jo die 2080 ist 20 prozent schneller als die 1080ti doch so viel. Dafür wird die 3090 nun 60% schneller als die 2080ti

Es liegt daran das sich INT und FP32 einen Pfad Teilen bei der 30x0 Serie. Die meisten Spiele nutzen 30% INT und den Rest FP32 Berechnungen. Ergo muss man bei der 30x0 Serie da man sich hier INT mit FP32 in einem Rechenpfad Teil mit 30% weniger FP32 Leistung rechnen, weil diese durch INT 32 blockiert wird. Gab es bei der 20x00 Serie nicht.
Wie sich das auswirkt wissen wir noch nicht. Dazu bedarf es einiger Tests.

Digidi
2020-09-13, 22:51:00
Na ja wenn die 3080 jetzt schon 30% auf die 2080ti drauflegt dürfte die 3090 bei der Rechenleistung das locker packen ;)

Tesseract
2020-09-13, 22:55:13
Jo die 2080 ist 20 prozent schneller als die 1080ti doch so viel.
der abstand ist in vielen fällen sogar noch geringer, manchmal ist sogar die 1080Ti vorne. unterm strich liegt die 2080 trotzdem vorne und deine behauptung ist falsch.

Es liegt daran das sich INT und FP32 einen Pfad Teilen bei der 30x0 Serie. Die meisten Spiele nutzen 30% INT und den Rest FP32 Berechnungen. Ergo muss man bei der 30x0 Serie da man sich hier INT mit FP32 in einem Rechenpfad Teil mit 30% weniger FP32 Leistung rechnen, weil diese durch INT 32 blockiert wird. Gab es bei der 20x00 Serie nicht.

mit dem peak-TFLOPs-argument an die wand gefahren, schnell thema wechseln. :facepalm:

reale auslastung der compute units hängt von vielen faktoren ab: caches, speicherbandbreite, algorithmen, async compute usw.
lässt sich ermitteln indem man spiele laufen lässt. resultat: 3080 macht die viel teurere 2080Ti fertig. war wieder nix.

robbitop
2020-09-13, 23:00:29
Die 30% INT sind IMO auch an der Realität vorbei. In der Mehrzahl der Spiele war Turing rohleistungsnormiert kaum schneller als Pascal.
Bei Wolfenstein, Quantum Break und Control glaube ich das schon.

Allerdings sollte die Auslastung der ALUs bei Ampere eh kaum der Flaschenhals sein. Insofern sollte es kaum etwas ausmachen, dass INT und FP Pfade nicht simultan ausführbar sind. (AAA 3D Spiele)

RLZ
2020-09-13, 23:05:18
Insofern sollte es kaum etwas ausmachen, dass INT und FP Pfade nicht simultan ausführbar sind. (AAA 3D Spiele)
Und falls doch werden sie in der nächsten Generation drangebaut.



GPUs werden heutzutage einfach auf zu wenige Zahlen runtergebrochen, die man in keiner Form mehr miteinander vergleichen kann.

Digidi
2020-09-13, 23:11:08
@RLZ Deshalb ja meinen Vorschlag eher von Chipfläche und Transistorenanzahl auszugehen.

Mich wundert es das die 3090 so extrem teuer ist. Selbst wenn der Kühler 150 Euro kostet. Das PCB und der Chip sowie derr Ram sollten ja nicht so teuer sein. Ist ja der selbe Chip und fast das gleiche PCB wie bei derr 3080.....

Armaq
2020-09-13, 23:28:40
@RLZ Deshalb ja meinen Vorschlag eher von Chipfläche und Transistorenanzahl auszugehen.

Mich wundert es das die 3090 so extrem teuer ist. Selbst wenn der Kühler 150 Euro kostet. Das PCB und der Chip sowie derr Ram sollten ja nicht so teuer sein. Ist ja der selbe Chip und fast das gleiche PCB wie bei derr 3080.....
Weil das eine Prosumer-Karte ist. Sie ist für Creator richtig billig. Mit den Tools die sie dazu gebaut haben, ist das eine extrem interessante Karte.

Digidi
2020-09-13, 23:29:28
Als Prosumer für CAX anwendungen fehlt mir die FP64 Leistung. Das ist höchstens etwas für Leute die Filme rendern. Aber so viele sind das nicht. Hinzu kommt das die 3090 agressiv mit Gaming beworben wird. Siehe hierzu die AIBs wo überall Gaming im Namen steht.

Für eine Creater Karte würde sich eher ein Abgespeckter GA100 lohnen.

pixeljetstream
2020-09-13, 23:38:50
Als Prosumer für CAX anwendungen fehlt mir die FP64 Leistung. Das ist höchstens etwas für Leute die Filme rendern. Aber so viele sind das nicht. Hinzu kommt das die 3090 agressiv mit Gaming beworben wird. Siehe hierzu die AIBs wo überall Gaming im Namen steht.

Für eine Creater Karte würde sich eher ein Abgespeckter GA100 lohnen.
Tut mir Leid aber das ist eine krasse Fehleinschätzung des "prosumer" Marktes, der in erster Linie um Digital Content Creation sich dreht (Adobe, Blender Autodesk etc.), insbesondere Unity und Epic mischen auch mit.

CAD und Simulation (wo fp64 zum Teil wichtig ist) ist ein anderer Fokus.

Digidi
2020-09-13, 23:39:54
Machen Die nur noch Raytracing Renderrn XD :D

Aber gerade wenn ich Creater wäre würde ich Marktwirtschaftlich denken. 1 Monat warten bis die Preise purzen und man hat 600 Euro gespart. Die muss man in einem Monat erst einmal wieder reinhohlen.

MasterElwood
2020-09-13, 23:58:39
Top dog ist der größte Chip mit dem höchsten ausbau und nicht was mir jemand in Lederjacke sagt fertisch! :facepalm:

Also ist der A100 in deiner Welt der Top Dog? :crazy:

Digidi
2020-09-14, 00:01:17
Nicht in meiner aber für einen Freund der ein Engineering Büro hat schon...

RLZ
2020-09-14, 01:01:30
Aber gerade wenn ich Creater wäre würde ich Marktwirtschaftlich denken. 1 Monat warten bis die Preise purzen und man hat 600 Euro gespart. Die muss man in einem Monat erst einmal wieder reinhohlen.
600 Euro? Das ist in gesparten Stunden quasi garnichts. Die hat man auch in einem Monat drin, wenn man wirklich limitiert ist.
Ich sehe aber nicht, dass die 3090 in den nächsten 2 Jahren soviel Wert verliert.
Also ist der A100 in deiner Welt der Top Dog? :crazy:
Ach... A100 ist doch Spielzeug in der Größe ;)
https://cdn.wccftech.com/wp-content/uploads/2019/08/cerebras-wafer-scale-engine-specs-1030x464.png

Digidi
2020-09-14, 01:11:48
@RLZ Designer verwenden 80-90% der Zeit zum erstellen der Grafik und den Rest der Zeit dauert das Rendern. Das legt man dann am Ende eines Arbeitstages und am nächsten Tag ist es fertig gerendert. Der Impact so einer Karte ist also recht gering für den 0815 Anwender,

Hauwech
2020-09-14, 01:22:36
Als Prosumer für CAX anwendungen fehlt mir die FP64 Leistung. Das ist höchstens etwas für Leute die Filme rendern. Aber so viele sind das nicht. Hinzu kommt das die 3090 agressiv mit Gaming beworben wird. Siehe hierzu die AIBs wo überall Gaming im Namen steht.

Für eine Creater Karte würde sich eher ein Abgespeckter GA100 lohnen.

Ich empfehle den Workstation-Test von Igor zu lesen.

Edit: In der Präsi wurden nicht umsonst nicht nur Balkenlängen von Spielen gezeigt. Die wussten ganz genau warum sie Arnold, Blender und V-Ray mit aufgenommen haben.

monstar-x
2020-09-14, 01:32:11
Overclocking Benchmarks der 3080
https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy


Mit 320w, ca 20% schneller wie eine 2080 Ti OC...
hmmm ... ganz schön entäuschend

pixeljetstream
2020-09-14, 02:19:29
@RLZ Designer verwenden 80-90% der Zeit zum erstellen der Grafik und den Rest der Zeit dauert das Rendern. Das legt man dann am Ende eines Arbeitstages und am nächsten Tag ist es fertig gerendert. Der Impact so einer Karte ist also recht gering für den 0815 Anwender,
Und was glaubst Du macht der Artist beim erstellen des contents? Koordinaten eintippen in einen Text Editor eher nicht :) warum nutzt ILM unreal engine mittlerweile oder Pixar auch GPU raytracing Tools hat. Alles um die Iteration Times beim content erstellen zu drücken, das Final frame und previs/viewport nah beinander liegen.

TheAntitheist
2020-09-14, 02:22:38
@RLZ Designer verwenden 80-90% der Zeit zum erstellen der Grafik und den Rest der Zeit dauert das Rendern. Das legt man dann am Ende eines Arbeitstages und am nächsten Tag ist es fertig gerendert. Der Impact so einer Karte ist also recht gering für den 0815 Anwender,
wenn der content nicht mehr in den VRAM passt, dann kannst du erst gar nicht mit der GPU rendern, also spart es EXTREM viel Zeit gegenüber CPU rendering.

Desweiteren brauchen Programme wie Substance Painter auch ne menge VRAM, da limitieren 11GB auf jedenfall sehr.

Digidi
2020-09-14, 02:22:52
Na ja das Teil basiert erst mal nur auf Mesh und bubble Lichtquellen. Bis da die GPU mal ins schwitzen kommt bei einem 0815 User. Die Rendern ja nicht komplexe Städte mit 1000 von Gebäud....

Die meisten kleinen creator sind wohl froh wenn sie 1 Haus am Tag erstellen konnen, so etwas ist viel komplexer als es aussieht und eine Menge Arbeit, so etwas an einem Tag zu schaffen ist eine Meisterleistung. Das Rendern durfte eine 1080 auch noch locker packen. Die 10 Minuten mehr machen es dann auch nicht mehr aus.

Fur dir Firmen die Stadtplaner mit gerenderten Bilder versorgen setzen eh auf Quadro. Da Spielt das dann keine Rolle mehr die Kohle...

pixeljetstream
2020-09-14, 02:25:57
Versuchst du Leuten die das beruflich machen, die Komplexität und Abläufe ihres Jobs zu erklären?

Digidi
2020-09-14, 02:30:50
@Pixeljetstream ich bin selbst in dem Bereich etwas Tätig als Hobby. Bis ich meinen ersten Drachen in Mesh gegossen habe war der Monat rum :D

Ich wollte Sagen das dass was heute GPUs darstellen können ein einzelner Contentkreater nie richtig ausreizen kann, weil er zeitlich gar nicht so viel content erstellen kann um das zu futtern. Hast du dich schon mal versucht in Blender was komplexes zu erstellen?

Leute die das wirklich Professionell machen gehen gleich auf quadro, schon alleine wegen support und Ausfallzeiten bei Problemen.

Das bei der 3090 alles offen ist zur quadro bezweifle ich auch noch ;)

Hauwech
2020-09-14, 02:38:36
Die Profis haben auch mal klein angefangen und im Zweifelsfall, auch ohne teure Quadros, spart der kleine Creator Zeit. Zeit die er für was anderes nutzen kann und sei es nur zum rumspielen, ausprobieren und dabei lernen. :)

Digidi
2020-09-14, 02:40:37
@Hauwech das ist ja mein Argument das er kaum Zeit spart.

Hauwech
2020-09-14, 03:12:25
@Hauwech das ist ja mein Argument das er kaum Zeit spart.

Das stimmt aber: Hier kaum Zeit gespart, da kaum Zeit gespart summiert sich über die Zeit (haha).
Im Ernst, ich habe keine Ahnung wie dein Drache aussieht oder wie aufwendig er war aber vielleicht hättest du dann nicht 30 Tage sondern vielleicht nur 29,8, 29,5 oder sogar nur 29 Tage gebraucht. Es summiert sich halt. Zu schnelleren Ergebnissen im IT-Bereich sagt letztendlich niemand nein.

Ist ja im Profibereich nicht nur bares Geld sondern auch eine Art "Zufriedenheitsbonus". Nicht nur vom und für den Kunden sondern auch für dich selbst irgendwo wenns fluppt.

Edit: Mal als lustiges und nicht ganz ernst gemeintes Beispiel. Vielleicht hast du davon gehört das es schon vorgekommen ist, das bei konkaven Gebäudefassaden mit viel Glas/Stahl auf bestimmten Parkplätzen davor bei entsprechendem Sonnenstand eine Art Brennglas-Effekt aufgetreten ist den vorher niemand auf dem Schirm hatte. Da sind schon Außenspiegelabdeckungen aus Plastik verformt worden oder Alarmanlagen sind aufgrund der Hitze losgegangen. Da dürfen jetzt teilweise keine Autos mehr stehen. :D Tja, das wäre mit entsprechenden Programmen und Raytracing in der Preview vielleicht schon vorher aufgefallen das eine konkave Fassade zwar schick aussieht aber doch nicht ganz soooo ideal ist. :tongue:

Dalai-lamer
2020-09-14, 07:35:16
Wenn es hier immer heisst:
Die 3080 Karte ist nur 20-30% schneller als eine Grafikkarte die vor ein paar Wochen fast das doppelte gekostet hat...
Das bezieht sich nur auf die Versprechungen von NVIDIA oder? Ich finde die Entwicklung super. Und mit 7 nm wird noch mehr kommen die nächsten Jahre.

basix
2020-09-14, 09:07:03
Die 3080 Karte ist nur 20-30% schneller als eine Grafikkarte die vor ein paar Wochen fast das doppelte gekostet hat...

Das Problem ist, dass die 2080 Ti sehr teuer war. Da kann man fast alles dagegen werfen und sieht Perf/$ gut dabei aus.

Vergleiche es mal mit...
- 1080 Ti: 1.80x Performance, -15% günstiger, -1GByte Speicher, 3.5 Jahre später
- 2070S: 1.80x Performance, +30% teurer, +2GByte Speicher, 1 Jahr später
- 2080S: 1.55x Performance, -5% günstiger, +2GByte Speicher, 1 Jahr später

Effektive Steigerung von Perf/$ ist vorhanden (ca. +40...50%), aber bei weitem nicht so hoch wie man meinen könnte. Ausserdem die Bedenken, dass die 10 GByte VRAM in 2 Jahren bereits arg knapp sein könnten. Warten wir aber mal die Reviews am Mittwoch ab. Das Thema VRAM-Verbrauch wird ganz sicher angesprochen und getestet werden.

Cubitus
2020-09-14, 09:23:07
Also die 2080ti ist ja perse noch nicht schlecht und spielt trotz den neuen Karten noch oben mit... Wer sagt das man die 2080ti auf Biegen und Brechen verkaufen soll.

Man kann auch die Karten locker noch weiter Benutzen wenn man will, ganz ehrlich Preisvorstellungen von 300-400 Euro what..

Da behalte ich die Karte selber.. :rolleyes:

Olliver
2020-09-14, 09:23:16
Hatte Nvidia nicht mal eine deutlich bessere Kompression bei Ampere behauptet?
Und wie viel könnte das für den realen Speicherbedarf bringen?

Lowkey
2020-09-14, 09:25:08
Die 2080 Ti wird das Sidechick zur 3070. Eine gute Custom 3070 bekommst du nicht unter 550 Euro.

Dampf
2020-09-14, 09:27:49
Hatte Nvidia nicht mal eine deutlich bessere Kompression bei Ampere behauptet?
Und wie viel könnte das für den realen Speicherbedarf bringen?

Haben sie nicht.

Cubitus
2020-09-14, 10:03:56
Die 2080 Ti wird das Sidechick zur 3070. Eine gute Custom 3070 bekommst du nicht unter 550 Euro.

Japp und das auch mit deutlich weniger Vram..
Im Prinzip bleibt die 2080ti damit sexy as fuck :D

Armaq
2020-09-14, 10:10:55
Und was glaubst Du macht der Artist beim erstellen des contents? Koordinaten eintippen in einen Text Editor eher nicht :) warum nutzt ILM unreal engine mittlerweile oder Pixar auch GPU raytracing Tools hat. Alles um die Iteration Times beim content erstellen zu drücken, das Final frame und previs/viewport nah beinander liegen.
Genau das.

Die Software die nvidia hier rausbringt ist wirklich interessant. Ist das eigentlich kostenfrei verfügbar?

Ich hab es schon Mal gesagt, dass der Gesamtmarkt in dem Bereich sich gerade stark entwickelt. Auch Unternehmen die das ganze CAD-Zeug brauchen usw. wollen das aus der Cloud haben, sodass die Projekte jederzeit shared sind, User einfach verwaltet sind usw. Dabei ist Performance auch sehr wichtig und viel schlechter darf das im Browser nicht laufen.

Die Workstations mit Quadros in dem Bereich werden also abnehmen und den Trend hat nvidia lange erkannt.

Jetzt hab ich aber jede Menge Kreative, kleinere Jobs usw. Das nimmt ja auch weiter zu und nicht ab. Denkt nur an virtuelle Messen. Dafür wird es virtuellen Messebau geben in einer Art.

Die Prosumer-Karten mit dem neuen Toolset von nvidia sind demnach perfekt für diese Themen geeignet. Eine 6.000€ Quadro kauf ich nicht so fix wie eine 1.500€ 3090, oder gar eine 3080 (in dem Bereich haben die dann wirklich VRam Mangel).

Fragman
2020-09-14, 10:12:18
Im Prinzip bleibt die 2080ti damit sexy as fuck :D

Ja, bei dem gesenkten Preis mit dem RAM und nvlink Fähigkeit, nv weiß schon, warum sie die EOL gesetzt haben bei dem Preis der 3090.
Beim Rendern sind 2 davon sicher kaum langsamer als eine 3090, eher sogar schneller.

Erbsenkönig
2020-09-14, 10:14:33
Overclocking Benchmarks der 3080
https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy


Mit 320w, ca 20% schneller wie eine 2080 Ti OC...
hmmm ... ganz schön entäuschend

Blöd dass man nirgends die Lüfterdrehzahl sieht. Beim Afterburner sieht man 70 % als Fanspeed, aber wie viel RPM das dann sind leider nicht. Wobei: Es wird kaum einen Grafikkartenlüfter geben, der bei 70 % noch annehmbar ist. Das wird dann ähnlich wie bei meiner R9 380 damals Richtung Turbine gehen.

BlacKi
2020-09-14, 10:49:33
Blöd dass man nirgends die Lüfterdrehzahl sieht. Beim Afterburner sieht man 70 % als Fanspeed, aber wie viel RPM das dann sind leider nicht. Wobei: Es wird kaum einen Grafikkartenlüfter geben, der bei 70 % noch annehmbar ist. Das wird dann ähnlich wie bei meiner R9 380 damals Richtung Turbine gehen.
das ist kein OC versuch im herkömmlichen sinne. siehe unten bei videocrardz. sieht man auch gut am core clock, die benches wollten nur aufzeigen da speicher OC möglich ist. die performance numbers sind bei echtem OC natürlich besser, denn den benches fehlen noch +150-200mhz core clock.

SKYNET
2020-09-14, 11:02:26
der abstand ist in vielen fällen sogar noch geringer, manchmal ist sogar die 1080Ti vorne. unterm strich liegt die 2080 trotzdem vorne und deine behauptung ist falsch.



ne 2080 schneller als ne 1080Ti? :freak: das gilt nur für FE vs. FE...

sobald der kühler nicht mehr der limitierende faktor war bei der 1080Ti, isse der 2080FE im spieleschnitt über gewesen(+2%)... weil der kühler alleine brachte bei der 1080Ti mal geschmeidige 10% mehrleistung...

Matrix316
2020-09-14, 11:33:01
Weil das eine Prosumer-Karte ist. Sie ist für Creator richtig billig. Mit den Tools die sie dazu gebaut haben, ist das eine extrem interessante Karte.
Warum soll die teurer sein, nur weil es eine Prosumer Karte ist?

Ich meine, bei den Quadros hat man wenigstens andere Treiber.

Aber ob eine 3090 andere Treiber bekommt als die 3080 wage ich doch zu bezweifeln, oder?

Aber was ich auch nicht verstehe, warum man nicht gleich zu Release eine 3080 TI oder 3085 mit 12 oder 16 oder so GB rausgebracht hat für 1000 €?

Der Preisabstand zwischen 3080 und 3090 ist viel zu groß. Genauso wie der RAM Abstand. Gerade wenn man bedenkt, dass vor kurzem eine 2080TI noch dazwischen war.

HPVD
2020-09-14, 11:42:26
Warum soll die teurer sein, nur weil es eine Prosumer Karte ist?

Ich meine, bei den Quadros hat man wenigstens andere Treiber.

Aber ob eine 3090 andere Treiber bekommt als die 3080 wage ich doch zu bezweifeln, oder?



Was wird denn überhaupt noch das Unterscheidungsmerkmal der Quadros basierend auf den gleichen Chips sein?

- mehr Speicher
- mit ECC
- ein NV Link mehr
- Virtualisierungs Features die man nur im RZ braucht
- noch etwas??

Wenn das nicht mehr ist, schwenken doch dann fast alle außerhalb von RZs auf die Prosumer Karten...

monstar-x
2020-09-14, 11:46:44
Blöd dass man nirgends die Lüfterdrehzahl sieht. Beim Afterburner sieht man 70 % als Fanspeed, aber wie viel RPM das dann sind leider nicht. Wobei: Es wird kaum einen Grafikkartenlüfter geben, der bei 70 % noch annehmbar ist. Das wird dann ähnlich wie bei meiner R9 380 damals Richtung Turbine gehen.

Genau das selbe habe ich mir auch gedacht, schade dass diese Angabe fehlt.
Bei einem 80-90mm Lüfter sin 70% deutlich über 2500 rpm was sicherlich alles andere als leise ist.



das ist kein OC versuch im herkömmlichen sinne. siehe unten bei videocrardz. sieht man auch gut am core clock, die benches wollten nur aufzeigen da speicher OC möglich ist. die performance numbers sind bei echtem OC natürlich besser, denn den benches fehlen noch +150-200mhz core clock.

Falsch, die GPU ist ser wohl Overclocked.
Zitat: "The GPU was only overclocked by 70 MHz and memory by 850 MHz. "

Da geht einfach nicht mehr MHz bei dieser "geringen TDP" limitierung auf 320watt (max 350watt)

BlacKi
2020-09-14, 11:46:57
ne 2080 schneller als ne 1080Ti? :freak: das gilt nur für FE vs. FE...

sobald der kühler nicht mehr der limitierende faktor war bei der 1080Ti, isse der 2080FE im spieleschnitt über gewesen(+2%)... weil der kühler alleine brachte bei der 1080Ti mal geschmeidige 10% mehrleistung...
du hast keine ahnung wie temperatur sensitive turing ist. am ende gleicht sich das aus. meiner erfahrung nach verliert turing pro °C grob doppelt soviel takt wie pascal. könnte bei ampere ebenfalls nochmal zunehmen.

Genau das selbe habe ich mir auch gedacht, schade dass diese Angabe fehlt.
Bei einem 80-90mm Lüfter sin 70% deutlich über 2500 rpm was sicherlich alles andere als leise ist.
meine gigabyte dreht 1960 rpm bei 70% 2800 sind max. bei 82mm lüftern.
aber wie gesagt ist das kein richtiges OC, mit 350w wäre das erst OC. wenn du die core und mem hochdrehst ohne mehr power zu geben ist das core UV und mem OC. du siehst doch das sogar weniger core clock anliegt.

Matrix316
2020-09-14, 12:18:56
Was wird denn überhaupt noch das Unterscheidungsmerkmak der Quadros basierend auf den gleichen Chips sein?

- mehr Speicher
- ein NV Link mehr
- Virtualisierungs Features die man nur im RZ braucht
- noch etwas??

Damit schwenken doch dann fast alle außerhalb von RZs auf die Prosumer Karten..
Waren die nicht immer Baugleich zu den normalen Karten mit etwas mehr VRAM, aber im Treiber anders optimiert für CAD und sowas und nicht für Games?

monstar-x
2020-09-14, 12:23:51
aber wie gesagt ist das kein richtiges OC, mit 350w wäre das erst OC. wenn du die core und mem hochdrehst ohne mehr power zu geben ist das core UV und mem OC. du siehst doch das sogar weniger core clock anliegt.


Schau mal genau auf den Screenshot, er hat das PT erhöht, es steht auf Maximum bei 108% (mehr geht anscheinend mit dieser ASUS TUF Karte nicht)

320 * 108% = 350watt (346 um genau zu sein))

HPVD
2020-09-14, 12:27:49
Waren die nicht immer Baugleich zu den normalen Karten mit etwas mehr VRAM, aber im Treiber anders optimiert für CAD und sowas und nicht für Games?

ja waren die. Aber da gabs dann massive Einschränkungen für die Spielekarten seitens des Treibers bzgl
- Grafikqualität (z.B. hochwertigste Kantenglättung in CAD)
- Rechnen auf der Karte z.B. DP
- etc

Das kann man ja aber nicht mehr bringen wenn man eine Prosumerkarte hat die genutzt werden soll...


Zusätzlich
- hat sich DP Rechnen auf der GPU nicht so richtig durchgesetzt und heute sind viele GPU Rechnungen ja auch mit (sehr gereinger Genauigkeit ..KI..)
- war es so dass nur dei Quadros überhaupt mit genug Speicher ausgerüstet waren um damit zu Rechnen...
aber auch das ist ja nicht mehr so.
wenn man 24GB in der Prosumer hat, reicht für ziemlich viele Anwendungfälle...

von daher ensteht die Frage: braucht man Quadros wirklich nur noch im RZ wg Virtualsierungsmöflichkeiten?

Dural
2020-09-14, 12:28:21
Edit: nix

BlacKi
2020-09-14, 12:35:35
Schau mal genau auf den Screenshot, er hat das PT erhöht, es steht auf Maximum bei 108% (mehr geht anscheinend mit dieser ASUS TUF Karte nicht)

320 * 108% = 350watt (346 um genau zu sein))
GPU z zeigt beide bei 317w board power draw.

aber gpu z zeigt auch einen höheren avg boost takt an. es scheint so als würden tatsächlich ca 70mhz core clock anliegen.

HPVD
2020-09-14, 12:38:46
btw: Quadro auf Basis des GA 102 im Anflug:
- 10752 CUDA-Cores
- 48 GB @ 16 Gbps , GDDR6 (ohne X wahrscheinlich wg Speicherchipgröße... und ECC-Fähigkeit in X nicht vorhanden?)

https://www.igorslab.de/nvidia-quadro-rtx-ampere-mit-vollausgebautem-ga102-grafikprozessor-und-48-gb-gddr6-speicher-gesichtet/

edit: wahrscheinlich Vorstellung zwischen 05. bis 09. Oktober 2020 auf der virtuellen GTC 2020

Dural
2020-09-14, 12:40:23
Nicht etwas wenig bandbreite?

HOT
2020-09-14, 12:40:46
Gibt keine Chips, die 16Gb hätten mit GDDR6X momentan. Wird normaler Samsung 16Gb 16GT GDDR6, doppelte Bestückung, sein.

Daredevil
2020-09-14, 12:41:18
Die Chips, wonach sich hier viele bei der 3070 sehnen. :D

Tesseract
2020-09-14, 12:41:20
ne 2080 schneller als ne 1080Ti? :freak: das gilt nur für FE vs. FE...

das gilt inzwischen auch für customs in vielen neueren spielen. seit seinem release hat turing durch aktualisierte spieleparkours gegenüber pascal deutlich zugelegt. in doom eternal liegen zwischen der 1080Ti FE und der 2080s FE beispielsweise 30%, in vielen anderen aktuellen, grafisch komplexen spielen sind es ~15-17%. das gleicht kein custom-bonus mehr aus.

Dampf
2020-09-14, 12:43:20
das gilt inzwischen auch für customs in vielen neueren spielen. seit seinem release hat turing durch aktualisierte spieleparkours gegenüber pascal deutlich zugelegt. in doom eternal liegen zwischen der 1080Ti FE und der 2080s FE beispielsweise 30%, in vielen anderen aktuellen, grafisch komplexen spielen sind es ~15-17%. das gleicht kein custom-bonus mehr aus.

Und das ist erst der Anfang. Wenn Spiele mehr auf ML setzen und DX12 Ultimate Features implementieren, wird der arme Pascal kein Land mehr sehen.

Von Raytracing ganz zu schweigen.

Ist halt schon 4 Jahre alt. Pascal hat sich bis jetzt wacker geschlagen, aber in Next Gen Titeln wird er stark zu kämpfen haben. Deswegen hat Jensen ja auch gesagt, man solle upgraden.

Troyan
2020-09-14, 12:47:05
btw: Quadro auf Basis des GA 102 im Anflug:
- 10752 CUDA-Cores
- 48 GB @ 16 Gbps , GDDR6 (ohne X wahrscheinlich wg ECC-Fähigkeit in X nicht vorhanden..)

https://www.igorslab.de/nvidia-quadro-rtx-ampere-mit-vollausgebautem-ga102-grafikprozessor-und-48-gb-gddr6-speicher-gesichtet/

Und laut Twitter-Leaks bei 300W. GDDR6X saugt ziemlich heftig, aber auch der einzige Weg mehr Bandbreite zu ermöglichen.

davidzo
2020-09-14, 12:50:50
@RLZ Designer verwenden 80-90% der Zeit zum erstellen der Grafik und den Rest der Zeit dauert das Rendern. Das legt man dann am Ende eines Arbeitstages und am nächsten Tag ist es fertig gerendert. Der Impact so einer Karte ist also recht gering für den 0815 Anwender,

Ich weiß ja nicht wie du so als Designer deine Vorschauen generierst, aber wenn ich an Materialien arbeite, dann brauche ich schon eine Vorschau um Glanzfarben, lights, texture mapping etc. einzustellen. nur mit dem raster view ist das künstlerisch nicht zu schaffen. In der Regel beginnt die Arbeit mit "erstmal rendern wie es default aussieht und dann entscheiden wie ich die lichtquellen setze, modifiziere, etc." - genau wie im echten fotostudio Lichter hin und her geschoben und reguliert werden und mit puder und makeup herumgefuscht wird. Da wird ein Bild noch hunderte male gerendert während man Lichter hin und her schiebt, Materialien editiert. Klar, das sind keine highres renderings, aber wenn du mit unbiased renderern arbeitest wie maxwell, arnold, redshift und co, dann dauert eine 1080p Vorschau trotzdem gern mal mehrere Minuten bis stunden und auch v-ray ist nicht gerade schnell bekannt (erst recht wenn man keinen lightcache, irradiance map verwendet, also unbiased).
Deswegen tendiere ich als Produktdesigner für schnelle renderings ja zu biased renderern wie Keyshot die schon eine gute materialbibliothek mitbringen. Wenn man aber viel mit externen Assets arbeitet und da nicht alle Licht- und Materialeinstellungen neu machen oder stark anpassen will, dann ist unbiased halt der kleinste gemeinsame Nenner. Vorschauen wird man aber auch da nicht vermeiden können, ohne gutes, konstantes preview kann kein artist arbeiten.

Für mich ist der Punkt noch nicht da wo ich mich komplett von unbiased renderern lösen kann. Dafür muss die Hardware noch mehrere orders of magnitude schneller werden als aktuell. Für komplexe Szenen mangelt es auch immer noch an Speicher damit sich der unbiased approach auch außerhalb von großen studios mit fetten racks und rechenzentren wirklich durchsetzt.

Insofern halte ich das was du sagst für absolut weltfremd, dass mehr GPU Leistung im Profibereich mittlerweile egal ist, weil die Artists ja nachts rendern können. Nachts wird auch gearbeitet, modelliert wenn die Deadline nah rückt!

Dural
2020-09-14, 12:59:46
Und laut Twitter-Leaks bei 300W. GDDR6X saugt ziemlich heftig, aber auch der einzige Weg mehr Bandbreite zu ermöglichen.

Und der boost ist mit 1860mhz auch noch recht hoch wenn die angaben stimmen.

monstar-x
2020-09-14, 13:03:57
Und das ist erst der Anfang. Wenn Spiele mehr auf ML setzen und DX12 Ultimate Features implementieren, wird der arme Pascal kein Land mehr sehen.

Von Raytracing ganz zu schweigen.

Ist halt schon 4 Jahre alt. Pascal hat sich bis jetzt wacker geschlagen, aber in Next Gen Titeln wird er stark zu kämpfen haben. Deswegen hat Jensen ja auch gesagt, man solle upgraden.

Ja genau deshalb und nicht weil er Geld verdienen will ;D

Eine 1080 TI ist auch noch die nächsten 2-4 Jahre mehr als ausreichen für FHD/WQHD, und mit den 30 Fps die eine Konsole bietet kann sie es alle mal aufnehmen.

Dampf
2020-09-14, 13:08:23
Ja genau deshalb und nicht weil er Geld verdienen will ;D

Eine 1080 TI ist auch noch die nächsten 2-4 Jahre mehr als ausreichen für FHD/WQHD, und mit den 30 Fps die eine Konsole bietet kann sie es alle mal aufnehmen.
Das natürlich auch.

Für die nächsten 2 Jahre vielleicht, solange die alten Konsolen noch durchgeschleift werden. Dann hat man das Next Gen Erlebnis aber nur auf den neuen Konsolen und aktuellen Architekturen, auf Pascal wird man sich dann mit der Grafik der alten Konsolen in höherer Auflösung begnügen müssen (so wie es auch schon heute ist).

Danach sehe ganz schwarz für Pascal, denn er supportet einfach nicht das gleiche Featureset wie die neuen Konsolen. Software ist genauso wichtig wie Hardware, wenn nicht noch wichtiger. Mit der uniformen DX12U API kann für PC und Konsole gleichermaßen optimiert werden, Pascal wird da ausgeschlossen.

RLZ
2020-09-14, 13:17:44
von daher ensteht die Frage: braucht man Quadros wirklich nur noch im RZ wg Virtualsierungsmöflichkeiten?
a) Nein. Speicher gibt es für viele Anwendungsfälle nie genug.
b) Auch ohne Virtualisierung darfst du eine Geforce nicht im Rechenzentrum verwenden.

davidzo
2020-09-14, 13:27:52
Und laut Twitter-Leaks bei 300W. GDDR6X saugt ziemlich heftig, aber auch der einzige Weg mehr Bandbreite zu ermöglichen.

Hm, vermutlich braucht man die höhere Bandbreite bei gaming ampere weil sonst die Verdopplung der Alus in gaming workloads nicht auf die Straße kommt. Verkleinerung der Caches bei gleichzeitiger verdopplung der Alus, das dass enormen Bandbreitenhunger erzeugt war eigentlich abzusehen (analog zu GCN). Ebenfalls analog zu GCN gibts im professionellen Bereich aber durchaus solche workloads die mehr compute auch umsetzen können. Und unter den workloads welche nicht compute limitiert sind gibt es auch noch etliche die eher speicherlimitiert sind als bandbreitenlimitiert (texturen/szenen haben nicht die Speicheroptimierungen wie games).

Irgendwie kommt mir das so vor dass nvidia mit Ampere nun ihre Version von GCN vorgestellt haben, nachdem AMD mit RDNA ihre Version von Pascal/Turing entwickelt hat. Die gehen also trotz der großen Ähnlichkeiten momentan also in unterschiedliche Richtungen. Welche Richtung die bessere ist werden wir wohl frühestens beurteilen können wenn wir zuverlässige Leistungs- und Verbrauchsdaten zu RDNA2 bekommen.

HPVD
2020-09-14, 13:37:38
a) Nein. Speicher gibt es für viele Anwendungsfälle nie genug.
b) Auch ohne Virtualisierung darfst du eine Geforce nicht im Rechenzentrum verwenden.

stimmt natürlich beides.

Aber die 24GB der 3090 sind schon für sehr viele Fälle völlig ausreichend.... Und wenn man dann noch 2 mit NV Link koppelt ist man bei 48GB bei gleichzeitig doppelter Rechnenleistung (im Vergleich zu einer dann immer noch teureren A6000..)

bessere Formulierung bzgl RZ wäre gewesen:
braucht man Quadros wirklich nur noch im RZ (z.B. wg Lizenz und Virtualsierungsmöglichkeiten)?

sind keine weiteren technischen Einschränkungen vorhanden?

ok die OEMs werden in ihren fertigen Workstations weiterhin die Quadros verbauen wg Prestige, Support Prio...

Erbsenkönig
2020-09-14, 13:47:17
Deswegen hat Jensen ja auch gesagt, man solle upgraden.

Und natürlich nicht, weil er damit Geld verdient.:freak: Ich jedenfalls schau mir in Ruhe an, was sich auf dem Grafikkartenmarkt tut. So viel bekomme ich für meine 1080er auf dem Gebrauchtmarkt nun auch nicht mehr, da kann ich sie auch einfach weiter nutzen. Für 4K muss man dann teilweise mit den Einstellungen runter, aber gut, solange ich irgendwie im GSync Bereich lande, ist das für mich in Ordnung.

monstar-x
2020-09-14, 13:57:57
Das natürlich auch.

Für die nächsten 2 Jahre vielleicht, solange die alten Konsolen noch durchgeschleift werden. Dann hat man das Next Gen Erlebnis aber nur auf den neuen Konsolen und aktuellen Architekturen, auf Pascal wird man sich dann mit der Grafik der alten Konsolen in höherer Auflösung begnügen müssen (so wie es auch schon heute ist).

Danach sehe ganz schwarz für Pascal, denn er supportet einfach nicht das gleiche Featureset wie die neuen Konsolen. Software ist genauso wichtig wie Hardware, wenn nicht noch wichtiger. Mit der uniformen DX12U API kann für PC und Konsole gleichermaßen optimiert werden, Pascal wird da ausgeschlossen.

Ich bezweifel sehr Stark das die Spiele entwickler 98% der Grafikkarte (alles vor Turing) ausschliessen.

Es mag sein dass das eine oder andere Feature nicht unterstützt wird, doch es wird auch weiterhin möglich sein mit einer 7xx/9xx/10xx die Spiele zu spielen und die 1080 ti wird dank der gleichwerigen TF und 11 GB Vram in der lage sein alle "Next Konsolen gen PC Ports" mit >30 FPS zu spielen.

Dampf
2020-09-14, 14:10:42
Ich bezweifel sehr Stark das die Spiele entwickler 98% der Grafikkarte (alles vor Turing) ausschliessen.

Es mag sein dass das eine oder andere Feature nicht unterstützt wird, doch es wird auch weiterhin möglich sein mit einer 7xx/9xx/10xx die Spiele zu spielen und die 1080 ti wird dank der gleichwerigen TF und 11 GB Vram in der lage sein alle "Next Konsolen gen PC Ports" mit >30 FPS zu spielen.

Von ausschließen hab ich nichts gesagt.

Das wird noch länger dauern bis das passiert.

Aber DX12U GPUs haben dann signifikante Performance und Grafikvorteile gegenüber Non-DX12U GPUs.

Kleines Beispiel: Sampler Feedback vergrößert den effektiv nutzbaren VRAM um den Faktor 2.5x. Das heißt, eine 3070 mit 8 GB VRAM hätte ungefähr 20 GB VRAM effektiv nutzbaren VRAM im Vergleich zu einer Pascal GPU. Das ist natürlich deutlich mehr als 11 GB, daher muss man auf der Pascal GPU mit Abstrichen in Sachen Frametimes und Texturenqualität rechnen.

Besonders durch die fehlende Raytracing Beschleunigung kannst du die TFLOPs nicht vergleichen. Wird Raytracing genutzt, hat eine 2060 die knapp doppelte Leistung einer 1080Ti in Raster-Hybrid Spielen, je nach Intensität der RT Effekte, trotz deutlich geringerer TFLOPs.

Ja du wirst die PC Next Gen Ports noch spielen können. Aber erwarte dann nicht, dass sie so gut aussiehen und performen wie auf den Konsolen und Turing+. Sondern erwarte Current Gen Grafik in höherer Auflösung.

Cubitus
2020-09-14, 14:18:38
Warum gibt es eigl bisher noch keine wirklichen Bench Leaks ... :freak:
Ich hatte mir trotz Verschiebung heute eigl mehr erhofft... ;D

woodsdog
2020-09-14, 14:23:49
Warum gibt es eigl bisher noch keine wirklichen Bench Leaks ... :freak:
Ich hatte mir trotz Verschiebung heute eigl mehr erhofft... ;D

warte mal noch grob 30 minuten... vielleicht hat dann einer uuuuuppsss das Wordpress nicht daran gehindert den Artikel zu veröffentlichen ;)

Matrix316
2020-09-14, 14:34:11
Und natürlich nicht, weil er damit Geld verdient.:freak: Ich jedenfalls schau mir in Ruhe an, was sich auf dem Grafikkartenmarkt tut. So viel bekomme ich für meine 1080er auf dem Gebrauchtmarkt nun auch nicht mehr, da kann ich sie auch einfach weiter nutzen. Für 4K muss man dann teilweise mit den Einstellungen runter, aber gut, solange ich irgendwie im GSync Bereich lande, ist das für mich in Ordnung.
Die Frage ist, wie lange kriegt man die Karten am Anfang. Manchmal ist ein Release, dann gibt's ein paar Karten und wenn man sich entschieden hat, ist alles schon weg und man muss Wochen und Monate warten! :freak:

DrMabuse1963
2020-09-14, 15:10:29
Und natürlich nicht, weil er damit Geld verdient.:freak: Ich jedenfalls schau mir in Ruhe an, was sich auf dem Grafikkartenmarkt tut. So viel bekomme ich für meine 1080er auf dem Gebrauchtmarkt nun auch nicht mehr, da kann ich sie auch einfach weiter nutzen. Für 4K muss man dann teilweise mit den Einstellungen runter, aber gut, solange ich irgendwie im GSync Bereich lande, ist das für mich in Ordnung.
Dürfte das beste sein,ich liebäugel mit ner 3070,evtl.auch ne gebrauchte 2080ti.Moni ist 1080P,VR aber die Index,8 GB VRam würde da nu nen flaues Gefühl im Magen geben,die 10GB 6X Speicher der 3080 wären mir da lieber.Allerdings hab ich grad gelesen das nu spekuliert wird das AMD mit dem "Navi22" die 3080 angreifen könnte was mich dazu bringt die Füße still zu halten und zu hoffen das die 3080 evtl. doch auf 600 fällt nach ein paar Monaten.Hatte mit meiner 1080 auch das Glück das ich sie für ~500 bekommen habe.

Thunder99
2020-09-14, 15:58:47
Einfach glücklich mit der 1080Ti. So lange ich kein RT haben möchte verzichte ich auf eine neue Grafikkarte ;). Immernoch schnell und gut und dank 11GB auch nicht zu wenig VRAM ;).

Troyan
2020-09-14, 16:06:00
Guru3d.com hat den Bright Memory Infinity Benchmark run geleakt: https://www.youtube.com/watch?time_continue=72&v=L3WW_uAeuy0&feature=emb_logo

Keine Vergleiche mit der alten Demo möglich. Daher erstmal nur 3080.

x-dragon
2020-09-14, 16:24:13
... und schon wieder weg das Video.

Was gabs denn da?

Troyan
2020-09-14, 16:26:08
Neuer Bright Memory Infinity Benchmark: https://streamable.com/q0o9ws

Matrix316
2020-09-14, 16:32:53
Einfach glücklich mit der 1080Ti. So lange ich kein RT haben möchte verzichte ich auf eine neue Grafikkarte ;). Immernoch schnell und gut und dank 11GB auch nicht zu wenig VRAM ;).
Kauf dir keinen Ultra HD Monitor. Project Cars 3 mit allen Details und Gewitter 15 FPS im Rennen... 30 bei Sonnenschein. :freak:

Ich sag nur: Shut up and take my money! ;)

Thunder99
2020-09-14, 16:36:08
Kauf dir keinen Ultra HD Monitor. Project Cars 3 mit allen Details und Gewitter 15 FPS im Rennen... 30 bei Sonnenschein. :freak:

Ich sag nur: Shut up and take my money! ;)
"Nur" 1440p Spieler aber ansonsten hast du Recht :freak:

Bin dennoch auf GA104 16GB gespannt in wie weit dieser sich absetzen kann. 3080 ist irgendwie nicht gut genug. Säuft zu viel...

Lehdro
2020-09-14, 16:54:33
Mit der uniformen DX12U API kann für PC und Konsole gleichermaßen optimiert werden, Pascal wird da ausgeschlossen.
Von ausschließen hab ich nichts gesagt.

:freak:

Weiß aber gar nicht was es da zu meckern gibt, das eine GPU die im Grunde 2016 gelauncht wurde, bis ins Jahr 2022 (oder noch länger) "aktuell" bleibt, selbst den pessimistischten Aussagen nach, ist doch eher zu beklatschen als zu bedauern. Wann gab es das schon einmal?

gbm31
2020-09-14, 17:11:24
Die Frage ist, wie lange kriegt man die Karten am Anfang. Manchmal ist ein Release, dann gibt's ein paar Karten und wenn man sich entschieden hat, ist alles schon weg und man muss Wochen und Monate warten! :freak:

Und ist das schlimm? Hängt dein Leben davon ab? Wie hast du bis jetzt gespielt?

sYn
2020-09-14, 17:12:19
Neuer Bright Memory Infinity Benchmark: https://streamable.com/q0o9ws


was schafft turing im vergleich?

Lawmachine79
2020-09-14, 17:22:10
Kauf dir keinen Ultra HD Monitor. Project Cars 3 mit allen Details und Gewitter 15 FPS im Rennen... 30 bei Sonnenschein. :freak:

Ich sag nur: Shut up and take my money! ;)
Habe PCars3 noch nicht gespielt (werde ich auch nicht), aber da hat man mit einer 1080TI in UHD 15-30 FPS?

Rampage 2
2020-09-14, 17:22:15
Ist anscheinend in der Diskussion untergegangen...

GA104 bestätigt mit 48 SM, 6 GPC und damit auch 96 ROPs.
https://twitter.com/aschilling/status/1305029510329442310

Danke Dir dafür! Endlich "offiziell"...
Jetzt warte ich auf die 3070Ti mit vollem Chip, schnellerem (16Gbps) Speicher und doppelt so viel Speicherkapazität...

Vor dem Launch von Zen 3 hätte ich mir eh keine neue Karte gekauft...



Ist damit jetzt die Existenz einer 3070 Ti "offiziell" oder nur die Daten zum GA104-Chip? Wenn's Letzteres ist, dann ist das keine Neuigkeit - dass der volle GA104 nicht 46, sondern 48 SMs besitzt, weiß man schon seit Wochen oder gar Monaten:rolleyes:

War bei der 2080 doch genauso gewesen: Man wusste, dass der volle TU104 48 SMs hatte, aber die 2080 Super kam trotzdem erst nächstes Jahr... (und ohne AMD's schlagkräftigen RDNA-Launch hätte es die 2080S vielleicht gar nicht gegeben...:facepalm:)

R2

ShinyMcShine
2020-09-14, 17:49:36
Ist anscheinend in der Diskussion untergegangen...

Wußtest Du auch, dass er 6 GPCs & 96 ROPs hat? SM sind halt nicht alles...

Erbsenkönig
2020-09-14, 17:50:35
:freak:

Weiß aber gar nicht was es da zu meckern gibt, das eine GPU die im Grunde 2016 gelauncht wurde, bis ins Jahr 2022 (oder noch länger) "aktuell" bleibt, selbst den pessimistischten Aussagen nach, ist doch eher zu beklatschen als zu bedauern. Wann gab es das schon einmal?

Das ist ja eigentlich das Bekloppte an der ganzen Situation. Einerseits ist es für die Kunden eine blöde Situation, wenn sie für geringe bis mittelmässige Leistungssprünge mit Richtung 1000 € zur Kasse gebeten werden, andererseits führt aber gerade das dazu, dass man die erworbene Karte dann durchaus länger nutzen kann, ohne dass es wehtut. Ich hab meine 6950 2GB auch fünf Jahre lang benutzt, aber das war dann am Ende mit aktuelleren Spielen schon ein Trauerspiel...

Thunder99
2020-09-14, 17:57:55
Ich denke Mitte 21 wird es erst spürbar werden, wenn die ersten anspruchsvollen Spiele kommen auf Basis der Next Gen Konsolen.

Rampage 2
2020-09-14, 18:05:29
Wußtest Du auch, dass er 6 GPCs & 96 ROPs hat? SM sind halt nicht alles...


Dass GA104 nicht 4 sondern 6 GPCs hat, wurde ja schon seit Längerem spekuliert und soweit ich mich erinnern kann, auch geleakt (vor Wochen oder Monaten). Und die 96 ROPs kann man sich selber ableiten, wenn mit Ampere die ROP-Partitionen in die GPCs gewandert sind; 6 x 16 ROPs pro GPC = 96 ROPs ;)

Für mich ist die News von Leo keine Bestätigung dafür, dass die 3070 Ti existiert!

R2

Cyberfries
2020-09-14, 18:09:42
Es gibt keine Bestätigung, dass eine 3070 Ti existiert.
Wir wissen nicht einmal ob sie 3070 Ti, nur 3070, 3070 Super oder völlig anders heißen würde.

ShinyMcShine
2020-09-14, 18:15:23
Dass GA104 nicht 4 sondern 6 GPCs hat, wurde ja schon seit Längerem spekuliert und soweit ich mich erinnern kann, auch geleakt (vor Wochen oder Monaten). Und die 96 ROPs kann man sich selber ableiten, wenn mit Ampere die ROP-Partitionen in die GPCs gewandert sind; 6 x 16 ROPs pro GPC = 96 ROPs ;)

Für mich ist die News von Leo keine Bestätigung dafür, dass die 3070 Ti existiert!

R2

Und was davon ist dann offiziell bestätigt? :rolleyes: Um nichts anderes geht's in dem Tweet.
Und nein, der Tweet ist keine Bestätigung für eine 3070Ti...

Rampage 2
2020-09-14, 18:16:33
Es gibt keine Bestätigung, dass eine 3070 Ti existiert.


Und genau das wollte ich verdeutlichen;)


Wir wissen nicht einmal ob sie 3070 Ti, nur 3070, 3070 Super oder völlig anders heißen würde.


Dass die 3070 nur als Salvage (46 von 48 SMs) kommt, ist doch schon bestätigt - also kommen als Bezeichnungen nur noch "3070 Ti" oder "3070 Super" für einen Vollausbau in Frage.

Und was davon ist dann offiziell bestätigt? :rolleyes: Um nichts anderes geht's in dem Tweet.
Und nein, der Tweet ist keine Bestätigung für eine 3070Ti...


Ah, dann habe ich dich missverstanden - alles klar!

R2

Cyberfries
2020-09-14, 18:20:34
also kommen als Bezeichnungen nur noch "3070 Ti" oder "3070 Super" für einen Vollausbau in Frage.

Das ist nur ein Name - Papier ist geduldig.
Die 1060 gabs auch mit 3,5 oder 6GB RAM und 1152-1280 ALUs, ich würde es nicht zu früh ausschließen.

BlacKi
2020-09-14, 18:23:38
was schafft turing im vergleich?
Planned Release Date: TBD

Zergra
2020-09-14, 18:23:58
3070-Max wäre doch besser

SKYNET
2020-09-14, 18:37:10
Von ausschließen hab ich nichts gesagt.

Das wird noch länger dauern bis das passiert.

Aber DX12U GPUs haben dann signifikante Performance und Grafikvorteile gegenüber Non-DX12U GPUs.

Kleines Beispiel: Sampler Feedback vergrößert den effektiv nutzbaren VRAM um den Faktor 2.5x. Das heißt, eine 3070 mit 8 GB VRAM hätte ungefähr 20 GB VRAM effektiv nutzbaren VRAM im Vergleich zu einer Pascal GPU. Das ist natürlich deutlich mehr als 11 GB, daher muss man auf der Pascal GPU mit Abstrichen in Sachen Frametimes und Texturenqualität rechnen.

Besonders durch die fehlende Raytracing Beschleunigung kannst du die TFLOPs nicht vergleichen. Wird Raytracing genutzt, hat eine 2060 die knapp doppelte Leistung einer 1080Ti in Raster-Hybrid Spielen, je nach Intensität der RT Effekte, trotz deutlich geringerer TFLOPs.

Ja du wirst die PC Next Gen Ports noch spielen können. Aber erwarte dann nicht, dass sie so gut aussiehen und performen wie auf den Konsolen und Turing+. Sondern erwarte Current Gen Grafik in höherer Auflösung.


abstriche bei der texturqualität wohl weniger... erstrecht nicht mit ner 11GB 1080Ti...

Rampage 2
2020-09-14, 18:41:08
3070-Max wäre doch besser


Nö, "Ti" oder "Super" passt schon gut - insbesondere Letzteres, weil "Super" auch das Maximum (GA104 auf Steroiden) impliziert:D

"Ti" wird von Nvidia eher bei höherklassigen Modellen oder Chipstufen (z.B. xx104 -> xx102 Salvage) verwendet; insofern ist "Super" wahrscheinlicher, also "3070 Super" ;)

R2

SKYNET
2020-09-14, 18:52:43
das gilt inzwischen auch für customs in vielen neueren spielen. seit seinem release hat turing durch aktualisierte spieleparkours gegenüber pascal deutlich zugelegt. in doom eternal liegen zwischen der 1080Ti FE und der 2080s FE beispielsweise 30%, in vielen anderen aktuellen, grafisch komplexen spielen sind es ~15-17%. das gleicht kein custom-bonus mehr aus.


gibt genug aktuelle titel wo das eben nicht so ist, sondern der abstand der 2080FE zur 1080Ti FE eher popelig ist, und ne 1080Ti mit anständigen kühler mindestens gleich ziehen würde(von der super einfach 6% runter ziehen, dann hat man die 2080FE):
https://www.computerbase.de/2020-08/project-cars-3-benchmark-test/2/#diagramm-project-cars-3-3840-2160
https://www.computerbase.de/2020-08/horizon-zero-dawn-benchmark-test/2/#diagramm-horizon-zero-dawn-3840-2160
https://www.computerbase.de/2020-07/death-stranding-benchmark-test/2/#diagramm-death-stranding-3840-2160
https://www.computerbase.de/2020-07/f1-2020-benchmark-test/2/#diagramm-f1-2020-3840-2160
https://www.computerbase.de/2020-07/trackmania-2020-benchmark-test/2/#diagramm-trackmania-3840-2160
https://www.computerbase.de/2020-06/desperados-3-benchmark-test/2/#diagramm-desperados-3840-2160
https://www.computerbase.de/2020-06/valorant-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
https://www.computerbase.de/2020-04/xcom-chimera-squad-benchmark-test/2/#diagramm-xcom-chimera-squad-3840-2160


in multiplayern ist ne 1080Ti sogar schneller ohne den hässlichen FE blower:
https://www.computerbase.de/2020-04/multiplayer-games-gpu-benchmarks-2020/#abschnitt_ultra_hd_mit_oberklassegrafikkarten

Ex3cut3r
2020-09-14, 19:00:15
Es ist allgemein bekannt dass sich eine 1080Ti mittlerweile in neuen Spielen mit einer 2070S rumschlagen muss. Eine 2080 (S) ist mittlerweile 10-20% schneller als eine 1080 Ti wie Tesseract schon richtig sagt. Und RT und DLSS fällt bei Pascal halt komplett durch. Genauso wie RTX IO. Turing bekommt es auch noch. Pascal ist halt einfach alteisen, und DX12 performt auch nochmal schlechter. Gibt kein Grund mehr, bei Pascal zu bleiben.

crux2005
2020-09-14, 19:29:47
Es ist allgemein bekannt dass sich eine 1080Ti mittlerweile in neuen Spielen mit einer 2070S rumschlagen muss. Eine 2080 (S) ist mittlerweile 10-20% schneller als eine 1080 Ti wie Tesseract schon richtig sagt. Und RT und DLSS fällt bei Pascal halt komplett durch. Genauso wie RTX IO. Turing bekommt es auch noch. Pascal ist halt einfach alteisen, und DX12 performt auch nochmal schlechter. Gibt kein Grund mehr, bei Pascal zu bleiben.

Ja. Je neuer das Spiel desto schneidet Turing besser ab. Trotzdem, die 1080 Ti ist noch immer eine sehr gute Übergangskarte bis 3070 mit 16 GiB oder 3080 mit 20 GiB kommen. Evtl. auch bis zum Super Refresh. Weil laut Videocardz soll Micron erst nächstes Jahr 2 GiB GDDR6X Chips liefern.

x-dragon
2020-09-14, 19:36:48
... Genauso wie RTX IO. Turing bekommt es auch noch. Pascal ist halt einfach alteisen, und DX12 performt auch nochmal schlechter. Gibt kein Grund mehr, bei Pascal zu bleiben.


Macht total Sinn jetzt schon wegen einer Technologie (RTX IO) zu wechseln, bei der noch keiner weiß wann man die mal genau wie nutzen kann ... ;)

... We’re targeting getting a development preview of DirectStorage into the hands of game developers next year.

https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

Und RTX und DLSS müssen die Spiele ja auch erstmal unterstützen, die einen interessieren und bei WQHD z.B. kann man auch auf DLSS noch einige Zeit verzichten.

Digidi
2020-09-14, 19:39:46
Ich weiß ja nicht wie du so als Designer deine Vorschauen generierst, aber wenn ich an Materialien arbeite, dann brauche ich schon eine Vorschau um Glanzfarben, lights, texture mapping etc. einzustellen. nur mit dem raster view ist das künstlerisch nicht zu schaffen. In der Regel beginnt die Arbeit mit "erstmal rendern wie es default aussieht und dann entscheiden wie ich die lichtquellen setze, modifiziere, etc." - genau wie im echten fotostudio Lichter hin und her geschoben und reguliert werden und mit puder und makeup herumgefuscht wird. Da wird ein Bild noch hunderte male gerendert während man Lichter hin und her schiebt, Materialien editiert. Klar, das sind keine highres renderings, aber wenn du mit unbiased renderern arbeitest wie maxwell, arnold, redshift und co, dann dauert eine 1080p Vorschau trotzdem gern mal mehrere Minuten bis stunden und auch v-ray ist nicht gerade schnell bekannt (erst recht wenn man keinen lightcache, irradiance map verwendet, also unbiased).
Deswegen tendiere ich als Produktdesigner für schnelle renderings ja zu biased renderern wie Keyshot die schon eine gute materialbibliothek mitbringen. Wenn man aber viel mit externen Assets arbeitet und da nicht alle Licht- und Materialeinstellungen neu machen oder stark anpassen will, dann ist unbiased halt der kleinste gemeinsame Nenner. Vorschauen wird man aber auch da nicht vermeiden können, ohne gutes, konstantes preview kann kein artist arbeiten.

Für mich ist der Punkt noch nicht da wo ich mich komplett von unbiased renderern lösen kann. Dafür muss die Hardware noch mehrere orders of magnitude schneller werden als aktuell. Für komplexe Szenen mangelt es auch immer noch an Speicher damit sich der unbiased approach auch außerhalb von großen studios mit fetten racks und rechenzentren wirklich durchsetzt.

Insofern halte ich das was du sagst für absolut weltfremd, dass mehr GPU Leistung im Profibereich mittlerweile egal ist, weil die Artists ja nachts rendern können. Nachts wird auch gearbeitet, modelliert wenn die Deadline nah rückt!


Dan bist du aber einer der Wenigen und solltest mal Überlegen deinen Arbeitgeber zu wechseln wenn du nachsts wegen einer Deadline arbeiten musst. Das geht glaube ich auch gegen das Arbeitsschutzgesetzt, das machen nur ein paar wenige Selbständige. Hab ja gesagt der Markt hierfür ist klein und für Leute die das als Hobby machen wie gesagt die haben andere Probleme und die Können sich wie die Gamer (die das ja auch als Hobby betreiben) nicht einfach mal so 1500 Euro aus dem Ermel schütteln.

Als Designer brauchst du die meiste Zeit um die Geometrie aufzusetzen und zu gestalten und erst mal grob die Oberlächen festzulegen. Danach kommt die Bewegung ins Objekt einzufügen und erst dann kommt dann erst mal Rendern und feinanassung der Oberflächen under Lichtquellen. Da zwischen rendert man ab und zu mal um zu sehen das es nicht aus dem Ruder läuft.. Ich finde eh das die Entwicklung mit Raytracing in eine toal falsche Richtung läuft. Ich hätte mir eher noch besser Geometrie als noch besseres Licht gewünscht. Die Nanite Engine bei UE5 zeigt ja vorzüglich das die Bilddarstellung viel mehr von Geometrie als von der Lichtgestaltung abhängt.

Lowkey
2020-09-14, 19:41:14
PCGH Einkaufsführer: wenn du es dir leisten kannst, dann kauf.


(Gaming am PC ist Luxus. Da ist eine 100 Euro Karte eine Verschwendung wie eine 2000 Euro Karte).

Digidi
2020-09-14, 19:42:55
Gaming ist nicht Luxus. Gaming ist Kultur. Genauso wie GrafiK Designer, CAD Zeichner etc alles Kultur /Bildung/Werkzeug und kein Luxus ist. Oh man seit Ihr aus dem 18 Jahrundert?

crux2005
2020-09-14, 19:50:30
[..] und bei WQHD z.B. kann man auch auf DLSS noch einige Zeit verzichten.

In RDR2 und FS2020 @ WQHD und 2080 hätte ich schon gerne DLSS. Weil ohne läuft es nicht schnell genug.

(Gaming am PC ist Luxus. Da ist eine 100 Euro Karte eine Verschwendung wie eine 2000 Euro Karte).

Da gebe ich dir recht. Gaming ist Luxus. Auch eine Konsole ist schon Luxus. Nur kostet die meistens deutlich weniger (1/4, 1/5) als ein High-end PC.

Aber im 3Dc kannst du nicht über Geld/Luxus diskutieren. Das ist wie teilnehmen an einer... ;)

Digidi
2020-09-14, 19:52:48
@Crux2005
Ok dann können wir dir ja wenn du mal Harz4 Bekommst Kino und Theaterbesuch vom Geld abziehen. Braucht man nicht ist Luxus. Am besten setzt man euch in ein Primatengehege die brauchen auch keine Kultur ist ja Luxus.

Armaq
2020-09-14, 19:53:40
Dan bist du aber einer der Wenigen und solltest mal Überlegen deinen Arbeitgeber zu wechseln wenn du nachsts wegen einer Dadline arbeiten musst. Das geht glaube ich auch gegen das Arbeitsschutzgesetzt. Das machen nur ein paar wenige Selbständige. Hab ja gesagt der Markt hierfür ist klein und für Leute die das als Hobby machen wie gesagt die haben andere Probleme und die Können sich wie die Gamer (die das ja auch als Hobby betreiben) nicht einfach mal so 1500 Euro aus dem Ermel schütteln.
Sorry, das stimmt nicht.

Ich hab für CAD SW Cloud Architekturen gebaut und RAM wie VRAM fressen diese Sachen wie dumm. Da ist nichts falsch dran. Ich kenne die Variante von AWS in und auswendig.

Alles was er sagt trifft auf den Markt genauso zu. Wenn nvidia durch Hardware und Software! hier auftrumpft, dann findet ihr Siegeszug nicht einmal im Gaming-Bereich statt, sondern erobert die Agenturen und Freiberufler dieser Welt.

crux2005
2020-09-14, 19:55:11
@Crux2005
Ok dann können wir dir ja wenn du mal Harz4 Bekommst Kino und Theaterbesuch vom Geld abziehen. Braucht man nicht ist Luxus. Am besten setzt man euch in ein Primatengehege die brauchen auch keine Kultur ist ja Luxus.

Besuche ich auch nicht. Theater und Kino (15€ für <2 Std. was ich in 6-12 Monaten auf HBOGO sehen kann) sind eindeutig auch Luxus. Auf was willst du hinaus? :confused:

Muss aber nicht gleich frech werden.

Digidi
2020-09-14, 19:55:17
Sorry, das stimmt nicht.

Ich hab für CAD SW Cloud Architekturen gebaut und RAM wie VRAM fressen diese Sachen wie dumm. Da ist nichts falsch dran. Ich kenne die Variante von AWS in und auswendig.

Alles was er sagt trifft auf den Markt genauso zu. Wenn nvidia durch Hardware und Software! hier auftrumpft, dann findet ihr Siegeszug nicht einmal im Gaming-Bereich statt, sondern erobert die Agenturen und Freiberufler dieser Welt.

Wenn du für richtige CAD leute baust dann brauchen die nicht nur Ram sondern auch FP64 Leistung, ECC RAM usw. also ist die 3090 wie zu gebrauchen für Leute mit CAD Ambitionen?

Nein Theater und Kino sind eben kein Luxus sondern Kultur und förderung der Geistlichen Entwicklung sowie förderung des Sozialen austauschs deshalb auch zwingend Eingepland im Harz4 Satz. Ist sogar der zweite Posten im Harz4 Satz. https://www.diakonie.de/journal/hartz-iv-was-bietet-der-regelsatz-fuer-ein-menschenwuerdiges-leben

SKYNET
2020-09-14, 19:59:42
Es ist allgemein bekannt dass sich eine 1080Ti mittlerweile in neuen Spielen mit einer 2070S rumschlagen muss. Eine 2080 (S) ist mittlerweile 10-20% schneller als eine 1080 Ti wie Tesseract schon richtig sagt. Und RT und DLSS fällt bei Pascal halt komplett durch. Genauso wie RTX IO. Turing bekommt es auch noch. Pascal ist halt einfach alteisen, und DX12 performt auch nochmal schlechter. Gibt kein Grund mehr, bei Pascal zu bleiben.


stimmt, darum is death stranding unter DX12 die 2080S auch nur 16% schneller als die 1080Ti FE :freak:

horizon zero dawn im fall das gleiche...

hat nämlich nix mit der aktualität der titel zutun, sondern wie sie programmiert wurden... gibt sicherlich auch 5 jahre alte titel wo turing, pascal auf und davon rennt, genau so wie immer noch titel kommen werden, die pascal im vergleich besser schmecken werden wie turing.

Daredevil
2020-09-14, 20:06:01
Inno3D mit Heckspoiler. :D
https://twitter.com/VideoCardz/status/1305563947500818435
Das wird richtig Spaß machen, da die 8Pin Stecker rauszufriemeln, wenn man die Kiste mal austauscht.
Interessant ist die Befestigung zur Stabilisierung der Karte.
https://pbs.twimg.com/media/Eh5LexRXsAAm3b8?format=jpg&name=4096x4096

Liquaron
2020-09-14, 20:08:27
Ich dachte man kann heute um 15 Uhr die FE vorbestellen....mhhh wann ist denn der neue richtige Termin?

Armaq
2020-09-14, 20:11:14
Wenn du für richtige CAD leute baust dann brauchen die nicht nur Ram sondern auch FP64 Leistung also ist die 3090 wie zu gebrauchen für Leute mit CAD Ambitionen?

Nein, das stimmt nicht. Ein Design basierte auf älteren Karten die relativ viel Ram hatten, aber ansonsten unspektakulär sind.

Viel Ram, hohe Leistung und das neue Software-Zeug von nvidia könnten ihnen extrem weiterhelfen im Prosumer-Umfeld.

Im Cloud-Markt ist der Beschleuniger nicht so wichtig, sondern aus nvidias Sicht die Lizenz. Da gibt es ein buntes Kuddelmuddel und natürlich ist der Kunde König - hier mal daneben zu greifen ist echt einfach und das bringt ordentlich Cash in die Tash bei nv.

Linmoum
2020-09-14, 20:12:09
Ich dachte man kann heute um 15 Uhr die FE vorbestellen....mhhh wann ist denn der neue richtige Termin?Verkaufsstart ist von Anfang an Donnerstag um 15 Uhr gewesen. Heute waren ursprünglich Reviews, die auf Mittwoch verschoben worden sind.

Digidi
2020-09-14, 20:13:38
Du brauchs mindestens ECC Ram für Professionelles CAD und FP64 Genauigkeit. Wenn du Fehler in deinen Berechnungen hast oder das Ergebniss zu ungenau wird, viel Spaß mit den Rückrufen...

Liquaron
2020-09-14, 20:16:25
Verkaufsstart ist von Anfang an Donnerstag um 15 Uhr gewesen. Heute waren ursprünglich Reviews, die auf Mittwoch verschoben worden sind.

Ist am Donnerstag dann FE + Custom Modelle?

TheAntitheist
2020-09-14, 20:19:24
Du brauchs mindestens ECC Ram für Professionelles CAD. Wenn du Fehler in deinen Berechnungen hast oder nicht ausschließen kannst dann viel Spaß mit den Rückrufen...
ist natürlich quatsch, das meiste CAD zeug brauch keine übelste Präzision.

da wird doch nichts ultra präzises berechnet... anders natürlich wenn man etwas herstellen will, dafür ist double precision aber auch unnötig, macht ja die CPU.
Die GPU macht nur die Visualisierung und dabei kann es ruhig mal geringste Fehler geben, die du aber auch niemals sehen wirst.

€dit: Blender und 3DS MAX (Arnold/Vray RT) nutzen alle keine Double Precision.

masked__rider
2020-09-14, 20:19:25
@Liquaron

Ja. Ab 15:00.

Digidi
2020-09-14, 20:21:08
@TheAntiheist Wenn du heute CAD nicht als hobby betreibst wird alles durchgerechnet. Kannst ja mal bei ANSYS oder Nastran vorbeischauen was man heute alles so rechnene kann und auch muß von Gesetzgeberseite aus. Ich dachte das auch mal aber ein Freund der ein kleines Engineeringbüro hat hat mich darüber aufgeklärt und mir das anhand von ANSYS und Nastran gezeigt.

Nein GPU macht mitlerweile auch Brechnung und das sogar ziemlich Gut laut meinem Freund.

Armaq
2020-09-14, 20:25:32
@TheAntiheist Wenn du heute CAD nicht als hobby betreibst wird alles durchgerechnet. Kannst ja mal bei ANSYS oder Nastran vorbeischauen was man heute alles so rechnene kann und auch muß von Gesetzgeberseite aus.
Verwechsle mal nicht etwas für die Fertigung mit Content Creation. Die Rechenfarmen für erstes laufen sehr oft noch CPU basiert und ich beziehe mich auf den Rest. Dieser Rest ist gigantisch viel und wird noch viel mehr werden. Edit: Also die Artists die in Agenturen sitzen und dann Dinge für den Kunden entwerfen. Der Bereich ist schon komplett technisiert an sich (Adobe), aber er ist noch nicht so stark durchdrungen von 3D Renderings. Da wir aber nur eine Breitbandverbindung ins Hirn haben, wird das natürlich immer mehr werden.

Digidi
2020-09-14, 20:29:46
Der Rest wird gar nicht mehr werden. Die meiste Arbeit ist es die Konstruktion und das Geometrische gebilde aufzusetzen. Der rest ist ein klax. Bei meinem Freund in seinem Engineeringbüro interessiert sich keiner für Raytracing. Die Teile die Sie bauen müssen funktionieren und halten und nicht gut aussehen.

Den Markt gibt es bei Grafikdesigner aber ich glaube nicht das der Markt für Echzeitraytracing so groß ist und wenn das Professionell gemacht wird dann mit Quadro um Ausfallzeiten zu minimieren und 100% Kompatibiltät zu den bestehenden Programmen zu gewähren.

Eine 3090 ist trozt Ihres hohem Preis dann auch immer noch ein Risiko.

Deshalb meine Aussage: Die 3090 ist nur für Hobby Gamer und Hobby Designer und damit zu teuer für den Preis. Pros greifen zur Quadro Serie.

woodsdog
2020-09-14, 20:38:43
Hier hat einer mal in 4 Wochen nen Drachen in 3D gebastelt und sagt den Profis - wiederholt - was sie doch brauchen würden. Geiler Thread.

Liquaron
2020-09-14, 20:44:20
Meint ihr Amazon wird am Donnerstag um 15 Uhr ebenfalls Rtx 3080 Modelle ins Angebot nehmen? Gefühlt ist Amazon immer etwas langsamer....

Matrix316
2020-09-14, 20:44:22
Habe PCars3 noch nicht gespielt (werde ich auch nicht), aber da hat man mit einer 1080TI in UHD 15-30 FPS?

Und wie:

https://abload.de/thumb/465454nnte2jlt.jpg (https://abload.de/image.php?img=465454nnte2jlt.jpg)

https://abload.de/thumb/465454nn111nlktf.jpg (https://abload.de/image.php?img=465454nn111nlktf.jpg)

Ähnlich fordernd wie der Flight Simulator

https://abload.de/thumb/fs2020tygkaz.jpg (https://abload.de/image.php?img=fs2020tygkaz.jpg)

:freak::wink:

Da war aber auch alle am Anschlag was grafikmäßig ging.

Digidi
2020-09-14, 20:44:39
@woodsdog ich kenne einige "Produkt" Designer und auch einige Ingeneiure weil sie meine Freunde sind. Die Schmunzeln nur über eure Ansichten.

Wie gesagt die Meißte Zeit frisst noch das Geometriemodell zu erstellen. Das Teil dann noch mit einer Textur zu versehen und Beleuchtung hinzufügen ist ein klax.

Wenn man das ganze noch mit Bewegung versehen will wird es nochmals kniffliger.

Hier mal ein Video. Die ganze Box zu erstellen dauert für einen Geübten 20 Minuten. Das Rendern dann selbst auch im Video enthalten gerade mal ein paar Sekunden. Also was erzählt ihr mir?

ICBP-7x7Chc

Adam D.
2020-09-14, 20:46:36
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Founders-Edition-ThermalTest-Load.jpg

Nach acht Minuten Dauerlast. Kühler hat auch einen 0DB-Modus.

woodsdog
2020-09-14, 20:50:12
@woodsdog ich kenne einige "Produkt" Designer und auch einige Ingeneiure weil sie meine Freunde sind. Die Schmunzeln nur über eure Ansichten.

Wie gesagt die Meißte Zeit frisst noch das Geometriemodell zu erstellen. Das Teil dann noch mit einer Textur zu versehen und Beleuchtung hinzufügen ist ein klax.

Wenn man das ganze noch mit Bewegung versehen will wird es nochmals kniffliger.

Hier mal ein Video. Die ganze Box zu erstellen dauert für einen Geübten 20 Minuten. Das Rendern dann selbst auch im Video enthalten gerade mal ein paar Sekunden. Also was erzählt ihr mir?

https://youtu.be/ICBP-7x7Chc

Meine Schwester ihr Schwager kennt auch einige ... "Produkt" Designer... Die hab ich eben angerufen. Die Schmunzeln auch gerade. :rolleyes:

Spaß beiseite, der Quatsch ist maximal offtopic.

Digidi
2020-09-14, 20:52:38
Hier wird die 3090 als contentcreater Karte angepriesen warum ist das offtopic?
Und wie gesagt ich hab es schon selbst ausprobiert und Ihr könnt das auch. Hohlt euch Blender und Schaut mal wann ihr zum RT Part kommt und wie lange das Rendern dann wirklich dauert...

MiamiNice
2020-09-14, 21:07:08
Hier wird die 3090 als contentcreater Karte angepriesen warum ist das offtopic?

Weil das "createn" von Content nichts mit Ampere zu tun hat.

Fragman
2020-09-14, 21:10:15
Ist es ja auch, die Karte hat 24GB Ram und massig Leistung.
Zum einen zum Rendern, zum anderen für Mari oder Substance Painter.
Das kann man nicht Kleinreden, da werden viele drauf anspringen. Der Preis ist für die Ausstattung recht niedrig.

Digidi
2020-09-14, 21:17:02
Wenn man halt anschaut wie gering aber der Prozess des eigentlichen Renderns am Rest der Arbeit ist, ist das wirklich vernachläsigbar. Du hast 30 Minuten Erstellungszeit auf die dann 1 Minute Renderzeit kommt und die dann runte geht auf 30 Sekunden und wenn du einen Ganzen Film Renderst dan kann da auch mal ein Tag drauf gehen da machen dann 1-2 Stunden mehr den Bock auch nicht mehr Fett und für den Film hast du dann wahrscheinlich 1 Woche hingelegt um die Geometrie zu erstellen. Die Renderzeit geht in der Restlichen Zeit einfach unter. Das wird erst dann interessant wenn du wirklich komplexe Szenen in Echzeit rendern kannst und selbst da wirst du die Geometrie im alten Raster ohne beleuchtung erstellen erstellen weil du die Konturen der Geometrie dort besser erkennst.

Fragman
2020-09-14, 21:23:14
Wenn man halt anschaut wie gering aber der Prozess des eigentlichen Renderns am Rest der Arbeit ist, ist das wirklich vernachläsigbar. Du hast 30 Minuten Erstellungszeit auf die dann 1 Minute Renderzeit kommt.

Texturen painten dauert heut mit am längsten und da braucht man für 3D Painter halt RAM und Leistung.

30 min fürs Model und 1 min fürs rendern?
Wie willst Du damit Geld verdienen? Deine Einnahmen bei solchen Projekten lassen entweder die 3090 aufgrund des Preises außer Reichweite sein oder du hast dafür in dem Fall keine Verwendung für so eine Karte. Aber unterschätze nicht die Projekte von Freelancern, die können mittlerweile schon recht komplex sein, dank der Rechenleistung, die man heute günstig kaufen kann.

Für Firmen sind die 3090-er und deren Preise no Brainer, wenn sie entsprechende Produkte haben. Der Kaufpreis ist da schnell wieder drin.

FunkyChris
2020-09-14, 21:23:19
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Founders-Edition-ThermalTest-Load.jpg

Nach acht Minuten Dauerlast. Kühler hat auch einen 0DB-Modus.


0 db-Modus? Dann ist die FE so gut wie gekauft :-) Wo hast Du die Info her?

robbitop
2020-09-14, 21:23:41
Für Konstruktion ist idR relativ unwichtig, wie das 3D Bild aussieht. Die Zeichnungsableitung kostet idR viel mehr Zeit und die Baugruppen werden idR nach diesen hergestellt.
Kram wie Sondermaschinenbau, Anlagenbau, Schiffbau etc.

Wo das wichtig ist, ist wohl eher Produktdesign. Das ist aber schon was anderes als Konstruktion.
Sicherlich auch für Bild und Videoproduktion, Marketing etc.

Und sobald Beleuchtung wichtig ist, kann Echtzeit RT richtig Zeit/Geld sparen. Design von Scheinwerfern, Rendering für Filme etc.

Branchen können sehr unterschiedlich sein.

Digidi
2020-09-14, 21:27:18
Texturen painten dauert heut mit am längsten und da braucht man für 3D Painter halt RAM und Leistung.

30 min fürs Model und 1 min fürs rendern?
Wie willst Du damit Geld verdienen? Deine Einnahmen bei solchen Projekten lassen entweder die 3090 aufgrund des Preises außer Reichweite sein oder du hast dafür in dem Fall keine Verwendung für so eine Karte. Aber unterschätze nicht die Projekte von Freelancern, die können mittlerweile schon recht komplex sein, dank der Rechenleistung, die man heute günstig kaufen kann.

Für Firmen sind die 3090-er und deren Preise no Brainer, wenn sie entsprechende Produkte haben. Der Kaufpreis ist da schnell wieder drin.

Nochmal, ich sage ja das der Kontent aufwendig sein kann. Der Kontent hat an sich aber nicht viel mit Raytracing am Anfang zu tun. Raytracing ist ein kleiner Teil. Die Hauptarbeit is Geometrie und wie bei Dir anscheinend der Fall Texturen zu erstellen. Bis das eigentliche Rendern kommt wo die Grafikkarte dann richtig zuschlägt ist erst ganz am Ende und braucht nur minimal Zeit und von dieser eh schon minimalen Zeit sparst du dann nochmal was.

Da würde ich das Geld lieber in gescheite Texture Packs und Softweare stecken als eine eine 3090. Das ist viel Effizienter.

Hier auch ein Video zu Texturen. Das Rendern kommt immer am Schluss und dauert maximal eine Minute und du hast vorher schon 17 Minuten mit der Erstellung der Textur ohne RT verbraucht.

fZSD7pVIUkY

Adam D.
2020-09-14, 21:36:57
0 db-Modus? Dann ist die FE so gut wie gekauft :-) Wo hast Du die Info her?
https://videocardz.com/newz/nvidia-geforce-rtx-3080-founders-edition-flir-thermal-footage-leaks

Hier zu sehen
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Founders-Edition-ThermalTest-Idle.jpg

woodsdog
2020-09-14, 21:37:48
Wie schon mehrfach hier gesagt, es sind nicht alle nur wie du mit ner Schatzkiste aus nem PS2 Game und einem Texturierten Hammer beschäftigt. Keine Ahnung was daran so schwierig ist.

Badesalz
2020-09-14, 22:14:08
Ausserdem die Bedenken, dass die 10 GByte VRAM in 2 Jahren bereits arg knapp sein könnten.:| Dachte, ANDERSRUM (?) Also, daß die 10GB knapp sind, solange die Entwickler die HW (also auch CPU/Boards wie auch Nvmes) die mit DirectStorage endlich Sinn ergibt, noch nicht für verbreitet genug halte.
Ergo, in 2 Jahren FANGEN die 10GB immer weniger zu stören. Im Gegensatz zu jetzt.

Erbsenkönig
2020-09-14, 22:22:37
https://videocardz.com/newz/nvidia-geforce-rtx-3080-founders-edition-flir-thermal-footage-leaks

Hier zu sehen
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Founders-Edition-ThermalTest-Idle.jpg

Ohne Lüftergeschwindigkeit dazu doch auch witzlos.

basix
2020-09-14, 22:25:01
:| Dachte, ANDERSRUM (?) Also, daß die 10GB knapp sind, solange die Entwickler die HW (also auch CPU/Boards wie auch Nvmes) die mit DirectStorage endlich Sinn ergibt, noch nicht für verbreitet genug halte.
Ergo, in 2 Jahren FANGEN die 10GB immer weniger zu stören. Im Gegensatz zu jetzt.

DirectStorage ist ein Argument, da hast du recht. Aber PS5 und XBSX haben 13.5 GB Speicher für Games. 10 GByte sind also einiges weniger und am PC will man ja mit besserer Qualität usw. zocken und hat noch den PC Overhead. Deswegen sollte es auch mit DirectStorage knapp werden. Nicht heute, aber wohl früher als man gerne hätte, wenn man 700 Euro für eime Karte ausgibt.

Also ist es eigentlich über die gesamte Lebensdauer der Karte immer knapp ;D zumindest in 4K

Dampf
2020-09-14, 22:32:10
DirectStorage ist ein Argument, da hast du recht. Aber PS5 und XBSX haben 13.5 GB Speicher für Games. 10 GByte sind also einiges weniger und am PC will man ja mit besserer Qualität usw. zocken und hat noch den PC Overhead. Deswegen sollte es auch mit DirectStorage knapp werden. Nicht heute, aber wohl früher als man gerne hätte, wenn man 700 Euro für eime Karte ausgibt.

Also ist es eigentlich über die gesamte Lebensdauer der Karte immer knapp ;D zumindest in 4K

Nein nein, die Series X teilt den RAM zwischen CPU und GPU. 10 GB RAM sind bei der XSX für die GPU mittels schnelleren Bus eingeteilt, aber die CPU kann die auch mitnutzen. Als Entwickler willst du nicht über die 10 GB für die GPU gehen, denn sonst muss auf den langsameren Bus zugegriffen werden.

Am PC kann das CPU-Zeugs in den RAM abgelegt werden und frisst kein VRAM auf. Der PC hat da also einen klaren Vorteil. Eine DX12U Karte mit 8 GB VRAM und 16 GB DDR4 sollte der Konsole überlegen sein.

Hakim
2020-09-14, 22:53:23
Wenn die Karte gut ausgereizt war, finde ich die 65 Grad bei der Leistungsaufnahme schon sehr ordentlich. Irgendwo hatte ich auf yt auch ein Video gesehen wo einer angeblich meinte das Nvidia die guten Chips erst auf die FE montieren will, ka obs stimmt. Aber der Kühler der FE gefällt mir immer mehr, denke bei mir wird es wenn 3080 auf jeden Fall die FE, dennoch mal die Tests abwarten.

Edit: ok es war nur der Kühler, sprich die GPU wahrscheinlich deutlich wärmer?

Leonidas
2020-09-15, 06:43:03
GA102: 6 GPC mit je 14 SM mit 2 bzw. 16 deaktivierten SM für 3090 und 3080
GA104: 4 GPC mit je 12 SM mit 2 bzw. 10 deaktivierten SM für 3070 und 3060Ti



Nicht korrekt.

GA102: 7 GPC mit je 12 SM mit 2 bzw. 16 deaktivierten SM für 3090 und 3080
GA104: 6 GPC mit je 8 SM mit 2 bzw. 10 deaktivierten SM für 3070 und 3060Ti




Alle Specs dazu findest du in der recht aufwendig validierten Tabelle bei PCGH. :)


Exakt.




@ Rampage:

Bestätigt ist nur der Vollausbau des GA104. Von der GeForce RTX 3070 Ti ist derzeit mal wieder gar nix zu sehen. Möglicherweise reine Nebelkerze zur Ampere-Vorstellung.

Für mich ist die News von Leo keine Bestätigung dafür, dass die 3070 Ti existiert!


Korrekt!

Edgecrusher86
2020-09-15, 07:06:56
GPU-Z Screenshot - RTX 3080:
https://abload.de/img/eh4nthvwsaoshn-fgjva.png https://abload.de/img/eh4l43cvkaend2bq2j0z.png

mironicus
2020-09-15, 09:21:05
Hier mal ein kritisches Video von AdoredTV der NVidia für die Entscheidung kritisiert, Ampere in 8 nm Samsung herstellen zu lassen.

tXb-8feWoOE

Der GA102 (Samsung 8 nm) mit seinen 628 mm² wäre bei TSMC in 7nm nur 425 mm² groß geworden unter Berücksichtigung der Transistorendichte von GA100 (TSMC 7 nm).

prinz_valium_2
2020-09-15, 09:25:38
Hier mal ein kritisches Video von AdoredTV der NVidia für die Entscheidung kritisiert, Ampere in 8 nm Samsung herstellen zu lassen.

https://youtu.be/tXb-8feWoOE

Der GA102 (Samsung 8 nm) mit seinen 628 mm² wäre bei TSMC in 7nm nur 425 mm² groß geworden unter Berücksichtigung der Transistorendichte von GA100 (TSMC 7 nm).

Naja das glaube ich kaum.
Klar wäre der deutlich kleiner geworden, aber identisch nicht. Ich würde unter 500mm² schätzen.
Außerdem ist das ja 7nm mit EUV layern. Das kostet

Cubitus
2020-09-15, 09:26:36
Content Creator=Streamer=Nvidia Shadowplay und diverse Software zum Streams Bearbeiten.... Das muss ja dann eine GamOr Karte sein..
Glaube ihr versteht das von NVidia beabsichtigte Segment nicht so ganz..

Verstehe die ganze Diskussion nicht.. Für wissenschaftliche Anwendungen, Cuda Programmierung etc.. dafür lässt sich mit dem Nvidia-Studio Treiber u.a arbeiten..
Oder man kloppt die 3090 eben in eine Workstation rein..

Für CAD über Citrix wird bei uns Nvidia-Grid eingesetzt, ca 150 Ingenierue am Standort welche auch im Home Office arbeiten wollen, für uns die beste Lösung und es funktioniert gut.
Spart uns im Endeffekt teure Desktop-HW...

rentex
2020-09-15, 09:35:13
Ob in 7nm oder 8nm Samsung, der größte Teil der Abwärme kommt nicht von der GPU.

Thunder99
2020-09-15, 09:37:39
Hier mal ein kritisches Video von AdoredTV der NVidia für die Entscheidung kritisiert, Ampere in 8 nm Samsung herstellen zu lassen.

https://youtu.be/tXb-8feWoOE

Der GA102 (Samsung 8 nm) mit seinen 628 mm² wäre bei TSMC in 7nm nur 425 mm² groß geworden unter Berücksichtigung der Transistorendichte von GA100 (TSMC 7 nm).
Kleinere Fläche schwierigere Kühlung. Aber Energieaufnahme könnte hypothetisch besser sein. Werden wir wohl nie sehen und erfahren.

HOT
2020-09-15, 09:37:51
Hier mal ein kritisches Video von AdoredTV der NVidia für die Entscheidung kritisiert, Ampere in 8 nm Samsung herstellen zu lassen.

https://youtu.be/tXb-8feWoOE

Der GA102 (Samsung 8 nm) mit seinen 628 mm² wäre bei TSMC in 7nm nur 425 mm² groß geworden unter Berücksichtigung der Transistorendichte von GA100 (TSMC 7 nm).
Das ist Blödsinn, denn wie man bei AMD sieht, ist 7 HPC nicht wesentlich dichter gepackt, >40 Mio Transistoren pro mm², bei Zen2 ohne jegliches I/O dann >50. Damit hätte man nur minimal mehr Packdichte geschafft, der Chip wäre, wenn überhaupt, irgendwo in den oberen 500mm²-Regoinen gelandet. Ich würd eher sagen, er hätte fast dieselbe Größe. Dank der Tatsache, dass man mit 8LPP 44mio/mm² geschafft hat, würde ich sagen, dass das die absolut richtige Wahl war.

Von der Leistungsfähigkeit kann das aber anders aussehen, das kann niemand sagen.

prinz_valium_2
2020-09-15, 10:06:40
Ob in 7nm oder 8nm Samsung, der größte Teil der Abwärme kommt nicht von der GPU.

Woher denn sonst?

basix
2020-09-15, 10:12:22
Nein nein, die Series X teilt den RAM zwischen CPU und GPU. 10 GB RAM sind bei der XSX für die GPU mittels schnelleren Bus eingeteilt, aber die CPU kann die auch mitnutzen. Als Entwickler willst du nicht über die 10 GB für die GPU gehen, denn sonst muss auf den langsameren Bus zugegriffen werden.

Am PC kann das CPU-Zeugs in den RAM abgelegt werden und frisst kein VRAM auf. Der PC hat da also einen klaren Vorteil. Eine DX12U Karte mit 8 GB VRAM und 16 GB DDR4 sollte der Konsole überlegen sein.

Ja, der geteilte Speicher ist Mist. Den gibt es aber nicht bei der PS5 ;)

Ich orientiere mich grösstenteils an der Vergangenheit. Dort waren bei den Konsolen etwa 5.5 GByte für Spiele reserviert. Grafikkarten am PC haben ziemlich schnell diese Hürde nehmen müssen, zumindest in 1440p aufwärts. Ich nehme nicht an, dass 10 GByte in 1080p oder 1440p gross limitieren. Aber in 4K gibt es wohl relativ bald mehr Beispiele, wo das zutreffen wird. Und die 3080 wäre eine (fast) ideale 4K Karte.

Badesalz
2020-09-15, 10:23:22
Man rendert auch zwischen durch, um zu gucken ob man auch das Ergebnis erhält was man wollte.Nein. Was man erreichen möchte ;) Mit "wollte" wäre man ja schon fertig ;) Ist aber richtig, bis auf die Sache, daß Pros das an nicht erst an der höhsten Qualistufe erkennen, ob sie auf dem richtigen weg sind.

Das Endrendering macht man am Ende für den Auftragsgeber bzw. Laien. Der Pro braucht das nicht es nach jedem Abschnitt in der gesamten Pracht zu sehen.
Im Job wird das nur gemacht, wenn einer das erst erlernt...

Der GA102 (Samsung 8 nm) mit seinen 628 mm² wäre bei TSMC in 7nm nur 425 mm² groß geworden unter Berücksichtigung der Transistorendichte von GA100 (TSMC 7 nm).Ja. Das ist ohne Frage der bisher härteste Kritikpunkt. Der Chip ist zu groß... :crazy:

Raff
2020-09-15, 10:26:32
Ob in 7nm oder 8nm Samsung, der größte Teil der Abwärme kommt nicht von der GPU.

Selbstverständlich kommt der von der GPU. Bei einem 3-Meter-PCB hätte man vielleicht genug Widerstand in den Tracks, damit das mehr wird. :ugly:

MfG
Raff

Badesalz
2020-09-15, 10:29:16
Jetzt denk mal an bspw. RTX IO und entsprechende Anbindung und schon passiert hier was.Davon bin ich fest überzeugt. Nur was?

@Raff
Er ist weiterhin der Meinung, daß die Verluste der Versorgung und GDDR6X das meiste auf dem PCB verballern. Da ging es imho schon/noch um die 3080. Ich hab zwar gefragt, ob dieser Rechnung nach die GPU auf der 3090 daher nur 160W zieht :usweet:, aber das hat er wohlwollend überlesen.

edit:
Wenn man schon nicht Leiterbahnen sagen möchte, Bahnen tun es auch zu Not ;) Es gibt dagegen keine so große Not, daß man auf Tracks ausweichen müsste. Da klingt sonst wie bei "Ho-Hä" Gonzlez.
(ok, wenn man auf sowas steht...)

unl34shed
2020-09-15, 10:42:12
Ob in 7nm oder 8nm Samsung, der größte Teil der Abwärme kommt nicht von der GPU.

Seeeeehr gewagte Theorie

rentex
2020-09-15, 10:42:58
@Badesalz Ich hab es einfach ignoriert ;-)

Orbmu2k
2020-09-15, 10:52:43
Davon bin ich fest überzeugt. Nur was?

@Raff
Er ist weiterhin der Meinung, daß die Verluste der Versorgung und GDDR6X das meiste auf dem PCB verballern. Da ging es imho schon/noch um die 3080. Ich hab zwar gefragt, ob dieser Rechnung nach die GPU auf der 3090 daher nur 160W zieht :usweet:, aber das hat er wohlwollend überlesen.



Auf den geleakten GPUZ Shots hatte die 3080 GPU wirklich nur 180W gezogen hat und 140W ging für alles andere drauf. Das Power-Metering von NVIDIA war zumindest in der Vergangenheit nicht um Größenordnungen daneben. Vielleicht ist da wirklich was dran.

Troyan
2020-09-15, 10:56:38
Laut Twitter liegt die Quadro-Karte bei 300W mit 48GB 16gbit/s GDDR6. Die Quadro RTX8000 liegt bei 260W. Der GDDR6X Speicher zieht erheblich mehr als GDDR6.

basix
2020-09-15, 11:02:54
Auf den geleakten GPUZ Shots hatte die 3080 GPU wirklich nur 180W gezogen hat und 140W ging für alles andere drauf. Das Power-Metering von NVIDIA war zumindest in der Vergangenheit nicht um Größenordnungen daneben. Vielleicht ist da wirklich was dran.

Danke für die Shots. Das wäre aber schon extrem. Also wirklich die allerletzte Gen ohne HBM ;)

mironicus
2020-09-15, 11:03:58
Auf den geleakten GPUZ Shots hatte die 3080 GPU wirklich nur 180W gezogen hat und 140W ging für alles andere drauf. Das Power-Metering von NVIDIA war zumindest in der Vergangenheit nicht um Größenordnungen daneben. Vielleicht ist da wirklich was dran.

Das ist totaler Wahnsinn - nicht im positiven Sinne. 140 Watt für alles andere... :mad:

davidzo
2020-09-15, 11:06:58
Laut Twitter liegt die Quadro-Karte bei 300W mit 48GB 16gbit/s GDDR6. Die Quadro RTX8000 liegt bei 260W. Der GDDR6X Speicher zieht erheblich mehr als GDDR6.


Laut Micron 15% weniger Energie pro transferred bit. Bei 50% höherer Bandbreite wären das immer noch 30% mehr Power draw (14gbps G6 vs 21gbps G6x).

Allerdings war Micron auch nicht imstande die versprochenen 21Gbps zu liefern, wer weiß wo die 19.5Gbps in der Praxis liegen...

https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/

Und letztendlich kann das auch an nvidias Speichercontroller liegen. Es wird schon einen Grund haben wieso man bei GA102 eine getrennte Speichercontroller-Spannung angelegt hat. Eventuell performt das SI sonst nicht so wie es soll.
GA104 hat das nicht und auch keinen exorbitanten Energieverbrauch trotz sehr ähnlichen bzw. höheren Taktraten. Es wird auch kein Zufall sein dass nvidia die 3070 nur mit normalem G6 ausstattet und damit verglichen zur 3080 bei der Bandbreite verhungern lässt.


Das ist totaler Wahnsinn - nicht im positiven Sinne. 140 Watt für alles andere... :mad:

Gut möglich dass Teile des Chips in den 180W nicht berücksichtigt wurden. Durch die dedicated memory system rail wird das sicher nicht an der selben Stelle gemessen: https://pics.computerbase.de/9/4/7/2/3/7-1080.6890bb26.png

Screemer
2020-09-15, 11:08:11
na da muss man sich das kühlerdesign auch nicht mehr schön reden. das ist schlicht notwendig.

mironicus
2020-09-15, 11:15:54
Ich glaube bei meiner RTX 2080 Ti habe ich da höchstens 60 Watt maximal gehabt, und die GPU Power liegt im selben Bereich wie Ampere zwischen 180-200 Watt.

Troyan
2020-09-15, 11:18:08
Deine 2080TI liegt im GPU-Z bestimmt nicht bei 180W. Die liegt irgendwo bei 220W+.

davidzo
2020-09-15, 11:19:46
na da muss man sich das kühlerdesign auch nicht mehr schön reden. das ist schlicht notwendig.


Naja, da ist schon sehr viel rein ästhetishes Design dabei das technisch keinen Mehrwehrt hat. Siehe Quadro, die hat ja wieder einen blower aber auch einen doppelten intake von oben, genau wie bei der gtx295.

Das mit dem durchblasenden Lüfter macht schon viel aus, da kommt 2x-3x mehr Airflow bei herum als wenn der aufs PCB bläst, aber das hätte man auch mit einem klassischen triple-Fan Kühler mit geraden lamellen läsen können.
Die beiden zentralen Lamellenteile scheinen zudem vom Luftstrom abgeschnitten und gar nicht durchströmt zu sein, hier wird also massiv Fläche verschenkt die bei einem triple-fan Kühler besser genutzt wird.

Statdessen soll der hintere Lüfter die Luft direkt zum Slotblech herausblasen - mal sehen in wieweit da überhaupt genug Querschnitt ist dass da ein anständiger airflow entsteht...

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-30-series/geforce-rtx-3080-exploded-view-full-airflow-visualization-web-crop.png

mironicus
2020-09-15, 11:20:49
Powerdraw insgesamt bei 250-260 Watt, aber die reine GPU-Power bei 180-200 Watt. Der restliche Verbrauch bei 50-60 Watt.

Cubitus
2020-09-15, 11:22:03
Das ist totaler Wahnsinn - nicht im positiven Sinne. 140 Watt für alles andere... :mad:

:eek:

Also saugt der Speicher tatsächlich massiv viel Energie=Hitze...
Interessant :uponder:

ohhjeee, finde das iwie leicht belastend.. :frown:

woodsdog
2020-09-15, 11:23:46
Die beiden zentralen Lamellenteile scheinen zudem vom Luftstrom abgeschnitten und gar nicht durchströmt zu sein, hier wird also massiv Fläche verschenkt die bei einem triple-fan Kühler besser genutzt wird.

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-30-series/geforce-rtx-3080-exploded-view-full-airflow-visualization-web-crop.png
Das mit den mittlerern Lamellenteilen fand ich auch seit der Vorstellung von Lederjacke schon seltsam. Wie du schon sagst sieht es nach ziemlicher Verschwendung von Kühlfläche aus... aber genaueres werden wir ja morgen Nachmittag wissen.

Orbmu2k
2020-09-15, 11:26:52
Und letztendlich kann das auch an nvidias Speichercontroller liegen. Es wird schon einen Grund haben wieso man bei GA102 eine getrennte Speichercontroller-Spannung angelegt hat. Eventuell performt das SI sonst nicht so wie es soll.

[...]

Gut möglich dass Teile des Chips in den 180W nicht berücksichtigt wurden. Durch die dedicated memory system rail wird das sicher nicht an der selben Stelle gemessen

Interessant! Dass der Memory Controller eine eigene Rail bekommt ist an mir vorbei gegangen. Das würde das tatsächlich erklären.

Ravenhearth
2020-09-15, 11:41:40
Ganz ehrlich, bei Ampere bekomme ich leichte Fermi-Flashbacks :redface:

RLZ
2020-09-15, 11:42:32
Nach aktuellem Stand liegen zwischen 10GB und 24GB 30W Unterschied :)

igg
2020-09-15, 11:44:33
Was glaubt ihr: Ist der sehr niedrige Preis der 3070/3080 oder eher deren geringe Speicherausstattung eine Reaktion auf RDNA2?

Daredevil
2020-09-15, 11:45:16
:eek:

Also saugt der Speicher tatsächlich massiv viel Energie=Hitze...
Interessant :uponder:

ohhjeee, finde das iwie leicht belastend.. :frown:
Das muss nicht sein.
Je nach Workload und Effizienz der GPU verschiebt sich der Stromverbrauch halt von der GPU selbst weg.
2080ti:
65w Chip
77w Rest
142w Gesamt
https://abload.de/img/erwer2mknd.gif

Mit vollem PL sind es
168w Chip
76w Rest
244w Gesamt
Das Verhältnis ist natürlich Spannend, kann aber nicht auf alles andere übertragen werden.

arcanum
2020-09-15, 11:48:53
Was glaubt ihr: Ist der sehr niedrige Preis der 3070/3080 oder eher deren geringe Speicherausstattung eine Reaktion auf RDNA2?

sowohl, als auch bzw. ist der "sehr niedrige" preis eine konsequenz aus der speicherbestückung und preisstrategie. selbst mit 8gb/10gb hat nvidia für 499/699€ ein schlagfertiges argument und später kann man für 150-300€ mehr noch immer die doppelte speicherbestückung nachschieben und die enthusiasten richtig melken.

Edgecrusher86
2020-09-15, 11:51:36
Der GA102 (Samsung 8 nm) mit seinen 628 mm² wäre bei TSMC in 7nm nur 425 mm² groß geworden unter Berücksichtigung der Transistorendichte von GA100 (TSMC 7 nm).

Realistisch betrachtet wären es wohl eher um die 480-500mm2 für einen hypotetischen GA102 in N7x von TSMC geworden - GA100 ist ja nun kein Hochtaktdesign.

HOT
2020-09-15, 11:53:52
Realistisch betrachtet wohl wären es wohl eher um die 500mm2 für einen hypotetischen GA102 in N7x von TSMC geworden - GA100 ist ja nun kein Hochtaktdesign.

AMDs V20 und RDNA haben knapp über 40mio/mm², Zen2 über 50mio, der hat aber kein I/O, was ja immer die Packdichte verringert - alles N7 HPC. Ampere hat 44mio/mm². Da gibts keinen Nachteil durch 8 LPP. Die "Quelle" hat einfach kacke gelabert.

GA100 ist nicht taktoptimiert, sondern packdichteoptimiert, das ist ne andere Nummer.

Swissr
2020-09-15, 11:54:08
Powerdraw insgesamt bei 250-260 Watt, aber die reine GPU-Power bei 180-200 Watt. Der restliche Verbrauch bei 50-60 Watt.

Kurz bei mir geprüft mit paar Minuten Witcher 3:

Karte bei 1845@0,818V, mem +900:
Board Power Draw: max 244.4W
GPU Chip Power Draw: max.182.7

Karte bei 1930@0.9V, mem +900:
Board Power Draw: max 291.7W
GPU Chip Power Draw: max 229.1

Passt also perfekt mit den 60W "overhead" Verbrauch

Edgecrusher86
2020-09-15, 11:56:57
Wobei GA100 doch sicherlich nicht nur der normale N7 Prozess sein dürfte oder?

HOT
2020-09-15, 12:00:02
Wobei GA100 doch sicherlich nicht nur der normale N7 Prozess sein dürfte oder?
Der Chip ist nicht Fisch, nicht Fleisch - die HPC-Packdichten lässt er weit hinter sich, aber die Mobilpackdichten erreicht er auch nicht, die gehen hoch bis über 90mio/mm². Wird wohl ein von NV customisierter Prozess sein.

davidzo
2020-09-15, 12:00:23
AMDs V20 und RDNA haben knapp über 40mio/mm², Zen2 über 50mio, der hat aber kein I/O, was ja immer die Packdichte verringert - alles N7 HPC. Ampere hat 44mio/mm². Da gibts keinen Nachteil durch 8 LPP. Die "Quelle" hat einfach kacke gelabert.

GA100 ist nicht taktoptimiert, sondern packdichteoptimiert, das ist ne andere Nummer.

V20 und RDNA sind über 1 und 2 Jahre alt. Wie du richtig bemerkt hast zeigen die jüngeren Entwicklungen einen anderen Trend. Renoir hat 63mio/mm² und das obwohl es ein hochtaktdesign ist und da viele i/o drin ist das überhaupt nicht skaliert, 2x64bit SI, 20 lanes PCIe, USB3.2 etc.
AMD hat doch verlauten lassen das es 2020 einen N7+ bzw. n7 enhanced gibt, der nicht mehr soviel mit dem N7 first gen gemein hat.

HOT
2020-09-15, 12:04:39
Renoir wird schon N7e sein. Das hat man so aber nicht kommuniziert. N7e ist auf AMD-Produkte angepasst worden. Wo sind die 63mio/mm² überhaupt her?
Sicher kann man da auch größere Packdichten schaffen, aber wie gesagt, der Chip liegt für 8LPP schon sehr gut mit 44mio/mm². Das wär auch in N7 nicht wesentlich besser geworden, denn mit 65mio/mm² hätte man sehr sicher Schwierigkeiten mit den Taktraten bekommen, wie man an GA100 sieht.

Ravenhearth
2020-09-15, 12:06:54
V20 und RDNA sind über 1 und 2 Jahre alt. Wie du richtig bemerkt hast zeigen die jüngeren Entwicklungen einen anderen Trend. Renoir hat 63mio/mm² und das obwohl es ein hochtaktdesign ist und da viele i/o drin ist das überhaupt nicht skaliert, 2x64bit SI, 20 lanes PCIe, USB3.2 etc.
AMD hat doch verlauten lassen das es 2020 einen N7+ bzw. n7 enhanced gibt, der nicht mehr soviel mit dem N7 first gen gemein hat.
Die Xbox Series X auf N7e erreicht allerdings auch nur 42,5mio/mm²

Palpatin
2020-09-15, 12:09:39
Ganz ehrlich, bei Ampere bekomme ich leichte Fermi-Flashbacks :redface:
Femri hatte zumindest ausreichend RAM. ;)

HOT
2020-09-15, 12:11:07
Die Xbox Series X auf N7e erreicht allerdings auch nur 42,5mio/mm²
Es kann aber sein, dass das daher kommt, weil der Chip schon im alten N7 HPC existiert haben muss, da er ja schon irgendwann Anfang 2019 Tapeout gehabt haben muss. Die Packdichte bliebt also, nur die Optimierung von N7e würde hier durchschlagen. Da Renoir so einen Sprung hingelegt hat, würde ich davon ausgehen, dass alle neuen Produkte in den Regionen landen könnten. Die "alten" Chips aus Anfang 2019 aber könnten alle noch mit klassischen N7 HPC designt worden sein. So ein Konsolen SoC hat ja einen erheblich längeren Entwicklungszeitraum hinter sich als ne GPU oder CPU/APU.

Lowkey
2020-09-15, 12:18:33
Finds krass dass CB die Liste nicht wirklich aktuell macht.

https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Nvidia Karten ohne Garantie... bei Kühlerwechsel

rentex
2020-09-15, 12:21:02
Da steht doch 3 Jahre...

basix
2020-09-15, 12:29:02
Das mit den mittlerern Lamellenteilen fand ich auch seit der Vorstellung von Lederjacke schon seltsam. Wie du schon sagst sieht es nach ziemlicher Verschwendung von Kühlfläche aus... aber genaueres werden wir ja morgen Nachmittag wissen.

Ein wenig, ja. Aber der hintere Teil mit dem durchpusten wird sehr viel mehr Kühlfläche inkl. besserem Flow bereitstellen als normale Designs mit langem PCB. Das sollte sehr gut kühlen. Ausserdem geht ein Teil der Abluft aus dem Gehäuse, wenn wir Glück haben wird die Luft im Gehäuse nicht so warm und schon gewinnt man ein paar Grad Celsius.

Wenn man z.B. unten im Case einen Lüfter eingebaut hat und vom Airflow allgemein (beide Lüfter ziehen Luft an) sollte dennoch etwas Luft bei diesen Lamellen angeströmt werden. Dazu kommt noch die passive Wärmeabstrahlung,. Aus diesen Gründen ist der Lamellenabstand auch etwas grösser (eher geringer Luftstrom und passive Abstrahlung). Also nutzlos sind diese Lamellen sicher nicht.

davidzo
2020-09-15, 12:33:28
Renoir wird schon N7e sein. Das hat man so aber nicht kommuniziert. N7e ist auf AMD-Produkte angepasst worden. Wo sind die 63mio/mm² überhaupt her?
Sicher kann man da auch größere Packdichten schaffen, aber wie gesagt, der Chip liegt für 8LPP schon sehr gut mit 44mio/mm². Das wär auch in N7 nicht wesentlich besser geworden, denn mit 65mio/mm² hätte man sehr sicher Schwierigkeiten mit den Taktraten bekommen, wie man an GA100 sieht.

Aus AMDs Folien: https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/52607-amd-ryzen-mobile-4000-amd-greift-bei-den-notebooks-an.html?start=1

9.8B Transistoren bei 156mm² Fläche, you do the math.


Die geringe Packdichte der XSX ist tatsächlich merkwürdig. Der chip ist gut doppelt so groß, hat aber auch ein 3mal so großes SI, viele rops die schlecht skalieren und schnickschnack wie der audioprozessor etc.
Aber trotzdem scheint der GPU Teil wirklich schlechter zu skalieren als der CPUteil.

EDIT: XBX ist ein 12 metal layer chip, Renoir hat 13, das ist schonmal ein Hauptunterschied.

wieviele metal Layer hat GA100?

Adam D.
2020-09-15, 12:37:31
3090
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-PCB-1-1536x769.jpg

3080 FE
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-PCB.jpg

3080 Referenz
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Colorful-ZOTAC-PCB.jpg

RLZ
2020-09-15, 12:38:31
sowohl, als auch bzw. ist der "sehr niedrige" preis eine konsequenz aus der speicherbestückung und preisstrategie. selbst mit 8gb/10gb hat nvidia für 499/699€ ein schlagfertiges argument und später kann man für 150-300€ mehr noch immer die doppelte speicherbestückung nachschieben und die enthusiasten richtig melken.
Der Speicherausbau der 3080 ist im Vergleich zum Vorgänger um 25% gestiegen. Mehr war da meiner Meinung nach nie geplant.
Dazu ist GDDR6X noch in der Größe beschränkt. Bei einer 3080 Super erwarte ich auch mehr Speicher mit schmalerem Interface, aber mit höherem Takt.

basix
2020-09-15, 12:42:11
Bei einer 3080 Super erwarte ich auch mehr Speicher mit schmalerem Interface, aber mit höherem Takt.

Braucht es das? Was ist mit 12 GByte @ 384bit und normalem 16 Gbit/s GDDR6? Der Chip scheint normalen GDDR6 zumindest zu unterstützen, wenn die Quadros damit kommen.

Tobalt
2020-09-15, 12:44:49
keine Elkos auf der founders ?
und kein 2. 8-pin?

[MK2]Mythos
2020-09-15, 12:49:17
keine Elkos auf der founders ?
und kein 2. 8-pin? Da ist der neue 12Pin Connector drauf.

w0mbat
2020-09-15, 12:50:06
Die FE hat den neuen 12-pin.

davidzo
2020-09-15, 12:50:56
3090
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-PCB-1-1536x769.jpg

3080 FE
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-PCB.jpg

3080 Referenz
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Colorful-ZOTAC-PCB.jpg



Sehr interessant :up:

Das beweist dass man die 3090 bzw. den Vollausbau beim SI eigentlich auf demselben Board bringen wollte wie die 80er. Platz für den Speicher ist vorhanden, zusätzliche Stromphasen ebenfalls nicht bestückt. Aber vermutlich waren power/kühlung/signalqualität das Problem weshalb man ein zweites, etwas weiger anspruchsvolles Design gebracht hat (das 3080pcb ist ultrakompakt, respekt).


Die 3090er sieht nach einem echt miesen solder job aus. So rötlich verfärbt wird ein ENIG Board immer wenn es viel zu lange im Reflowofen war.

Badesalz
2020-09-15, 12:51:51
Auf den geleakten GPUZ Shots hatte die 3080 GPU wirklich nur 180W gezogen hat und 140W ging für alles andere drauf.Ja. Genau da stellte ich die Frage wieviel denn die GPU auf der 3090 zieht, wenn da doch gleich ganze 24GB GDDR6X mitbefeuert werden. Das TBP ist ja nicht gleich soviel größer als bei er 3080...

Hat die 3090 handverlesene Chips die mit 10% weniger Spannung laufen oder wie? Pro Wafer 2 Stück für die 3090 direkt aus der Mitte? =)

davidzo
2020-09-15, 12:54:43
keine Elkos auf der founders ?
und kein 2. 8-pin?

All solid caps. Quaderförmige solid caps und insbesondere "face down" caps haben in der regel niedrigere ESR und ESL Werte. MLCC und Ta-poly sind schon pretty highend wenn du mich fragst :eek:

basix
2020-09-15, 12:55:15
Die 3090er sieht nach einem echt miesen solder job aus. So rötlich verfärbt wird ein ENIG Board immer wenn es viel zu lange im Reflowofen war.

Das ist nicht ENIG, das sollte OSP (Organic Solderability Preservative) sein, und das ist so orange / rötlich. Die sichtbaren rötlichen Flächen sind so, weil man SMD als auch THT Kondensatoren bestücken kann. Bei dem gezeigten PCB der 3090 sind es anscheinend THT Komponenten und deswegen hat man dort bei den SMD Pads kein Lötzinn appliziert.

The_Invisible
2020-09-15, 12:56:41
3090
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-PCB-1-1536x769.jpg

3080 FE
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-PCB.jpg

3080 Referenz
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Colorful-ZOTAC-PCB.jpg

Interessant, könnte man eigentlich auf der 3080 einfach so die 2 fehlenden Speicherchips drauflöten?

davidzo
2020-09-15, 12:58:03
Das ist nicht ENIG, das sollte OSP (Organic Solderability Preservative) sein, und das ist so orange / rötlich. Die sichtbaren rötlichen Flächen sind so, weil man SMD als auch THT Kondensatoren bestücken kann. Bei dem gezeigten PCB der 3090 sind es anscheinend THT Komponenten und deswegen hat man dort kein Lötzinn appliziert.

hm, könnte OSP sein, stimmt! THT sind nur die 8pin konnektoren und die beiden JST XHs für die Lüfter und Beleuchtung. Der Rest ist alles SMD, sogar die beiden fetten drosselspulen.

Daredevil
2020-09-15, 12:58:12
3090
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-PCB-1-1536x769.jpg

3080 FE
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-PCB.jpg

3080 Referenz
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Colorful-ZOTAC-PCB.jpg
[x] FE Overengineering :D
Wo sind denn die Anschlüsse für den Lüfter bei der FE, oder geht das da Wireless? Ohhh so sexy!

( Damit meine ich die Pins zwischen dem V )

basix
2020-09-15, 12:58:26
del

basix
2020-09-15, 13:00:34
Interessant, könnte man eigentlich auf der 3080 einfach so die 2 fehlenden Speicherchips drauflöten?

Könnte man. Nur wird die GPU damit nichts anfangen können, da der Memory Controller deaktiviert sein wird.

hm, könnte OSP sein. THT sind nur die 8pin konnektoren und die beiden JST XHs für die Lüfter und Beleuchtung. Der Rest ist alles SMD, sogar die beiden fetten drosselspulen.

Schau dir das Bild nochmals genau an ;)

Der Cap Footprint lässt 3x verschiedene Cap-Bauformen zu

davidzo
2020-09-15, 13:04:13
Könnte man. Nur wird die GPU damit nichts anfangen können, da der Memory Controller deaktiviert sein wird.



Schau dir das Bild nochmals genau an ;)

Der Cap Footprint lässt 3x verschiedene Cap-Bauformen zu

Jensen 'el cheapo' Huang ;D:freak::ulol3:

basix
2020-09-15, 13:05:46
Macht schon Sinn bezüglich 2nd Source und Lieferkette. Aber ehrlich gesagt habe ich so einen Multi-Footprint für Kondensatoren noch nie gesehen. Normalerweise will man THT eh vermeiden, weil es auch Platz auf den Innenlagen wegnimmt und Nachteile bei EMV hat. Aber hier könnte man sich das Anschlussbeinchen evtl. gleich als fettes Via zunutze machen und somit den ESR des Kondensators als auch die Impedanz der ganzen Speisung minimieren. Das Engineering der Karte ist wirklich spannend :D

Daredevil
2020-09-15, 13:10:49
Hier sind mal nachvollziehbare Ergebnisse zum ETH Mining: ( Nicht die Stärke von Nvidia bzw. GDDR )
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

Stock Settings:
1080TI: 45MH/s
2080TI : 54MH/s
TitanV: 80MH/s
3080: 84MH/s
VII: 90MH/s

Viel interessanter sind eigentlich die anderen Werte abseits von ETH, da ist Nvidia nämlich deutlich stärker.

BlacKi
2020-09-15, 13:11:09
Das beweist dass man die 3090 bzw. den Vollausbau beim SI eigentlich auf demselben Board bringen wollte wie die 80er. Platz für den Speicher ist vorhanden, zusätzliche Stromphasen ebenfalls nicht bestückt. Aber vermutlich waren power/kühlung/signalqualität das Problem weshalb man ein zweites, etwas weiger anspruchsvolles Design gebracht hat (das 3080pcb ist ultrakompakt, respekt).
ne, wie kommst du darauf?

Hier sind mal nachvollziehbare Ergebnisse zum ETH Mining: ( Nicht die Stärke von Nvidia bzw. GDDR )
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

Stock Settings:
1080TI: 45MH/s
2080TI : 54MH/s
TitanV: 80MH/s
3080: 84MH/s
VII: 90MH/s
ty, das sieht doch ganz akzeptabel aus, also schlecht genug^^ eine r7 geht auch zwischen 7-800€ über den tisch und ist schneller.

Relic
2020-09-15, 13:38:17
Hier sind mal nachvollziehbare Ergebnisse zum ETH Mining: ( Nicht die Stärke von Nvidia bzw. GDDR )
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

Stock Settings:
1080TI: 45MH/s
2080TI : 54MH/s
TitanV: 80MH/s
3080: 84MH/s
VII: 90MH/s

Viel interessanter sind eigentlich die anderen Werte abseits von ETH, da ist Nvidia nämlich deutlich stärker.

Jo die sollen mal die restlichen Nicehash Benchmarks durchlaufen lassen.

Daredevil
2020-09-15, 13:43:40
ty, das sieht doch ganz akzeptabel aus, also schlecht genug^^ eine r7 geht auch zwischen 7-800€ über den tisch und ist schneller.
Zweitbeste ist jetzt nicht unbedingt schlecht, zumal die VII ja nicht mehr im Handel ist und man die 3080 vielleicht auch stark effizient betreiben kann.
Ich persönlich hätte lieber ne 3080 als ne VII zum Mining, da flexibler einsetzbar. ( Basierend auf meinen Erfahrungen mit der 2080ti )
Habe mal die 3DCenter Liste aktualisiert, für den Vergleich.
https://abload.de/img/unbenanntfgjx5.png

Nightspider
2020-09-15, 13:51:08
Ist bei der UVP von 699 Euro bei Founders Edition jetzt schon die MwSt dabei oder kommen die 16% noch oben drauf?

Troyan
2020-09-15, 13:54:25
Mit 16%.

rentex
2020-09-15, 14:07:58
Wie immer in D.

BUG
2020-09-15, 14:27:54
Zweitbeste ist jetzt nicht unbedingt schlecht, zumal die VII ja nicht mehr im Handel ist und man die 3080 vielleicht auch stark effizient betreiben kann.
Ich persönlich hätte lieber ne 3080 als ne VII zum Mining, da flexibler einsetzbar. ( Basierend auf meinen Erfahrungen mit der 2080ti )
Habe mal die 3DCenter Liste aktualisiert, für den Vergleich.
https://abload.de/img/unbenanntfgjx5.pngBei der V56 mit Hynix HBM2 geht aber noch einiges. Die macht auch knapp um die 45MH/s oder sogar leicht darüber mit nur ~130W und dem TeamRed Miner.

https://git.mmpos.eu/windows/teamredminer/blob/master/ETHASH_GENERAL_TUNING.txt
The Vega 56 GPUs with Hynix HBM2 memory are generally known to be underperforming their Samsung cousins. With this TRM release, they have suddenly become strong contenders for the best Vega for ethash mining instead.

[..]

Using this setup, we have been running Gigabyte Vega 56 Hynix cards for > 50 MH/s with no hw errors. Other miners running at the same clocks ended up around 44 MH/s, meaning +13-14% for TRM, although we can't guarantee there aren't better configurations for said miners.

Edit: Hab es es bei mir ausprobiert, funktioniert auch. :up:

Gruß
BUG

Daredevil
2020-09-15, 14:29:59
Schlammsau hat sein HBM ja getreten was geht ^^ Sieht man ja auch.
Gab ja keine großen Unterschiede zwischen 56 und 64, wenn das Bios der 64 drauf war.
Aber ja, das sind halt 2017 Werte bei der Vega.

BUG
2020-09-15, 14:33:32
Ich musste bei mir nix "treten" der Hynix HBM läuft mit 950 MHz und die GPU mit grob ~1000 MHz und undervolting. Die Timings sind halt wichtig und das kann der Hynix etwas besser... :)

Gruß
BUG

Cubitus
2020-09-15, 15:10:29
Das muss nicht sein.
Je nach Workload und Effizienz der GPU verschiebt sich der Stromverbrauch halt von der GPU selbst weg.
2080ti:
65w Chip
77w Rest
142w Gesamt
https://abload.de/img/erwer2mknd.gif

Mit vollem PL sind es
168w Chip
76w Rest
244w Gesamt
Das Verhältnis ist natürlich Spannend, kann aber nicht auf alles andere übertragen werden.

Ja schon, nur wir reden hier von 144 Watt bei der 3080..
und es ist ein Unterschied ob du 77 Watt oder 144 Watt Rest zum wegkühlen hast..Dazu die enge Bestückung der Ram Module auf der kurzen Platine (wegen den Latenzen) und schon hast du eine Herdplatte..

Der Kühler wird das wohl schon aushalten..
Nur frage ich mich ob die GDDRX Speicher wirklich hätten sein müssen, für mich wirkt das so eher so brechstangenmäßig und iwie nicht elegant..

Troyan
2020-09-15, 15:18:46
Du benötigst am Ende auch mehr Bandbreite, um die komplette Leistung durchdrücken zu können. Ohne GDDR6X wäre bei 760gb/s schluss. Das ist 25% mehr als eine 2080TI und kaum ausreichend für Spiele.

Tobalt
2020-09-15, 15:19:44
All solid caps. Quaderförmige solid caps und insbesondere "face down" caps haben in der regel niedrigere ESR und ESL Werte. MLCC und Ta-poly sind schon pretty highend wenn du mich fragst :eek:

Schon klar dass sie irgendwo noch Caps haben. Auf der Vorderseite sehe ich aber nur die L auf meinem Handybild ;-)
Wo siehst du die Tantals ? Die hätten natürlich die nötige Dichte. Gibt es noch ein Bild von der Rückseite?

Und ESL spielt für diese Elkos eher keine Rolle, für low ESL gibt es ja immer noch andere Caps.

TheAntitheist
2020-09-15, 16:21:51
Ja schon, nur wir reden hier von 144 Watt bei der 3080..
und es ist ein Unterschied ob du 77 Watt oder 144 Watt Rest zum wegkühlen hast..Dazu die enge Bestückung der Ram Module auf der kurzen Platine (wegen den Latenzen) und schon hast du eine Herdplatte..

Der Kühler wird das wohl schon aushalten..
Nur frage ich mich ob die GDDRX Speicher wirklich hätten sein müssen, für mich wirkt das so eher so brechstangenmäßig und iwie nicht elegant..

Wie wir aber anhand der Specs sehen können, verbraucht der GDDR6X RAM keine 60 Watt, nicht mal bei der 3090. 14GB mehr VRAM und nur 30 Watt höhere TDP (oder wie auch immer Nvidia das nennt). Dazu noch das mehr an shader etc.

Troyan
2020-09-15, 16:29:00
Der Speicher läuft im Clamshell-Modus. Also wird nur aus jedem Speicherstein mit halber Bandbreite gelesen.

woodsdog
2020-09-15, 16:37:24
Der Speicher läuft im Clamshell-Modus. Also wird nur aus jedem Speicherstein mit halber Bandbreite gelesen.

Und dann sind immer gleichzeitig 2 statt 1 RAM-Chip "aktiv".
Das das nicht umsonst ist liegt auf der Hand und wurde so auch von Igor letztens thematisiert. 2W oder so pro chip kommen da dazu? kann es gerade nicht checken.

Hauwech
2020-09-15, 16:50:46
Igors Strommessungen dürften fast interessanter als alles andere werden. :freak:

BlacKi
2020-09-15, 16:56:06
Wie wir aber anhand der Specs sehen können, verbraucht der GDDR6X RAM keine 60 Watt, nicht mal bei der 3090. 14GB mehr VRAM und nur 30 Watt höhere TDP (oder wie auch immer Nvidia das nennt). Dazu noch das mehr an shader etc.
wenn du 12 speichermodule mit 384bit ansteuerst und 24 mit 384, dann brauchen 24 nicht genau doppelt soviel und auch nicht dasselbe, unter idle mit 100mhz würde ich vl 5-10w tippen, aber unter last könnte das viel mehr sein. dazu müsste man wissen wieviel strom das lesen und schreiben kostet und wieviel das idlen unter volltakt mehr verbraucht.

ich glaub nicht das wir das vor dem release halbwegs genau abschätzen können werden.

egal, morgen ist es jahr soweit, nur noch einmal schlafen:biggrin:

Langlay
2020-09-15, 17:02:00
wenn du 12 speichermodule mit 384bit ansteuerst und 24 mit 384, dann brauchen 24 nicht genau doppelt soviel und auch nicht dasselbe, unter idle mit 100mhz würde ich vl 5-10w tippen, aber unter last könnte das viel mehr sein. dazu müsste man wissen wieviel strom das lesen und schreiben kostet und wieviel das idlen unter volltakt mehr verbraucht.

ich glaub nicht das wir das vor dem release halbwegs genau abschätzen können werden.

egal, morgen ist es jahr soweit, nur noch einmal schlafen:biggrin:


Der Unterschied dürfte nicht riesig sein. Du sprichst die Speichermodule ja nur noch mit 1x16Bit Channel an statt 2x16Bit Channel. Der Grundverbrauch sollte höher sein, bei der Übertragung der Daten sollte der Stromverbrauch gleich bleiben.

davidzo
2020-09-15, 17:06:53
Hier sind mal nachvollziehbare Ergebnisse zum ETH Mining: ( Nicht die Stärke von Nvidia bzw. GDDR )
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

Stock Settings:
1080TI: 45MH/s
2080TI : 54MH/s
TitanV: 80MH/s
3080: 84MH/s
VII: 90MH/s

Viel interessanter sind eigentlich die anderen Werte abseits von ETH, da ist Nvidia nämlich deutlich stärker.

Für die fast 3fache FP32 Leistung und fast 3fache Transistorzahl finde ich das enttäuschend. Zumal man GCN nicht für besonders gute Auslastung bekannt ist.
Hängt es hier alleine an der Bandbreite oder ist FP64 im Spiel welches bei der Ampere verkrüppelt ist?

Der Unterschied dürfte nicht riesig sein. Du sprichst die Speichermodule ja nur noch mit 1x16Bit Channel an statt 2x16Bit Channel. Der Grundverbrauch sollte höher sein, bei der Übertragung der Daten sollte der Stromverbrauch gleich bleiben.
exakt, es geht ja um pj/byte und das SI wird ja bei doppeltem Speicher nicht irgendwie magisch größer. Jeder Speicherchip wird nur halb so schnell frequentiert bei doppelter Speichermenge.

Ich vermute eher dass das SI im Chip bei Nv mehr verbraucht als man angenommen hat. Deshalb auch die eigene Voltage domain und keine 21gbps zu Anfang.
Das würde erklären wieso 3090 und 3080 im Verbrauch so nah beieinander sein sollen trotz mehr CUs und doppeltem Speicherausbau.

BlacKi
2020-09-15, 17:08:04
Der Unterschied dürfte nicht riesig sein. Du sprichst die Speichermodule ja nur noch mit 1x16Bit Channel an statt 2x16Bit Channel. Der Grundverbrauch sollte höher sein, bei der Übertragung der Daten sollte der Stromverbrauch gleich bleiben.
mir gehts um die 2 idle stadien, einmal mit niedrigstem takt und mit max takt. die 24gb werden sich nicht teilweise runtertakten und andere vram module bleiben gleichzeitig auf max takt. d.h. sie idlen auf max clock. das ist vermutlich nicht gerade wenig. wahrscheinlich weniger als 30w.

Für die fast 3fache FP32 Leistung und fast 3fache Transistorzahl finde ich das enttäuschend. Zumal man GCN nicht für besonders gute Auslastung bekannt ist.
Hängt es hier alleine an der Bandbreite oder ist FP64 im Spiel welches bei der Ampere verkrüppelt ist?
ich bin begeistert:biggrin:

Langlay
2020-09-15, 17:13:22
mir gehts um die 2 idle stadien, einmal mit niedrigstem takt und mit max takt. die 24gb werden sich nicht teilweise runtertakten und andere vram module bleiben gleichzeitig auf max takt. d.h. sie idlen auf max clock. das ist vermutlich nicht gerade wenig. wahrscheinlich weniger als 30w.



Äh was? Klaro bei meinem Auto drehen auch 2 Zylinder im Stand auf 5000 RPM und 2 Zylinder auf 1000 RPM. So ungefährt ist das was du beschreibt.

Die Speichermodule takten alle immer gleichschnell. Und der Grundverbrauch vom Speichermodul ist nicht wirklich gross, allerdings haste natürlich bei doppel Speicherchips auch doppelten Grundverbrauch. Aber der Grossteil vom Stromverbrauch kommt vom Daten hin und herschieben, der Grundverbrauch ist doch eher vernachlässigbar.

Lawmachine79
2020-09-15, 17:22:39
Hier sind mal nachvollziehbare Ergebnisse zum ETH Mining: ( Nicht die Stärke von Nvidia bzw. GDDR )
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

Stock Settings:
1080TI: 45MH/s
2080TI : 54MH/s
TitanV: 80MH/s
3080: 84MH/s
VII: 90MH/s

Viel interessanter sind eigentlich die anderen Werte abseits von ETH, da ist Nvidia nämlich deutlich stärker.
Ein Glück. Hoffentlich kann Big Navi gut minen. Dann sind die AMD-Karten zwar langsamer als die NVidia-Karten, dafür aber wenigstens teurer.

Ravenhearth
2020-09-15, 17:28:58
Ein Glück. Hoffentlich kann Big Navi gut minen. Dann sind die AMD-Karten zwar langsamer als die NVidia-Karten, dafür aber wenigstens teurer.
hä? :freak:

Lawmachine79
2020-09-15, 17:31:32
hä? :freak:
Ja die AMD-Karten werden doch sauteuer wenn sie richtig gut minen können, obwohl sie fürs Spielen langsam (im Vergleich zu NV) sind. Diese RX480 Schrottkarten (oder welche auch immer das waren; die Miningkarten von AMD halt) gingen doch auch weg wie geschnitten Brot obwohl damit nur Pacman in SVGA spielen konnte - weil sie halt minen konnten.

Oder verstehst Du die Art des Vergleichs nicht? Das ist wie wenn eine Frau sagt: "Dein Penis ist war sehr kurz. Dafür ist er aber auch richtig dünn."

Daredevil
2020-09-15, 17:34:34
Ein Glück. Hoffentlich kann Big Navi gut minen. Dann sind die AMD-Karten zwar langsamer als die NVidia-Karten, dafür aber wenigstens teurer.
Videocardz hat noch ein Bild hinterhergeschoben und das Ergebnis ist sehr enttäuschend.
Anscheinend reagiert Ampere die deutlich auf den Kerntakt, das macht Turing überhaupt nicht. Vielleicht wird aber auch der RAM Takt mit dem Power Limit gesenkt, das ist bei Turing z.B. überhaupt nicht der Fall.
Turing ist es egal, ob er bei 2000Mhz oder 1500Mhz läuft, der RAM leistet immer 100%.
https://abload.de/img/unbena2nntbijt3.png

Zum Vergleich eine 2080ti @ 60% PT und VRAM OC
https://abload.de/img/unbenannt1jjnb.png

Lawmachine79
2020-09-15, 17:37:07
Videocardz hat noch ein Bild hinterhergeschoben und das Ergebnis ist sehr enttäuschend.

Enttäuschend für wen? Doch für die Miner?! Also erfreulich für mich. Wobei, ich will eine 3090, die dürfte eh nicht als Miningkarte in Frage kommen. Aber ich freue mich für meine Co-Fanboys im grünen Trikot, wenn die 3080 nicht zu teuer wird.

MiamiNice
2020-09-15, 17:38:11
Ich finde es auch super wenn Miner nichts mit Ampere anfangen können. Besser kann es kaum laufen ;)

r3ptil3
2020-09-15, 18:18:56
Gerade gesehen, dass Caseking für CH-Kunden direkt die MWST abzieht.
Hm, da wird sogar eine 3090 plötzlich interessant :uponder:
https://i.ibb.co/FhGkT30/3090.jpg

Die 3080er ab 600 Euro... hmmm :D

https://i.ibb.co/BCdfJZN/3080.png

woodsdog
2020-09-15, 18:23:33
Gerade gesehen, dass Caseking für CH-Kunden direkt die MWST abzieht.
Hm, da wird sogar eine 3090 plötzlich interessant :uponder:
https://i.ibb.co/FhGkT30/3090.jpg

Die 3080er ab 600 Euro... hmmm :D

https://i.ibb.co/BCdfJZN/3080.png

aha... und das muss man auch nicht bei der Einfuhr nach CH versteuern oder wie? :rolleyes:

r3ptil3
2020-09-15, 18:26:52
aha... und das muss man auch nicht bei der Einfuhr nach CH versteuern oder wie? :rolleyes:

Jedenfalls nicht mit menschenverachtenden 19% Mwst., sondern mit 7.7%.

BlacKi
2020-09-15, 18:27:12
aha... und das muss man auch nicht bei der Einfuhr nach CH versteuern oder wie? :rolleyes:
glaub schon dass das möglich ist, kenne mich da aber zu wenig aus.

Jedenfalls nicht mit menschenverachtenden 19% Mwst., sondern mit 7.7%.
eher ausländer verachtend^^ lieber über die Mwst. als woanders her. aber weiteres ist zu OT.

Thunder99
2020-09-15, 18:35:22
Gerade gesehen, dass Caseking für CH-Kunden direkt die MWST abzieht.
Hm, da wird sogar eine 3090 plötzlich interessant :uponder:
https://i.ibb.co/FhGkT30/3090.jpg

Die 3080er ab 600 Euro... hmmm :D

https://i.ibb.co/BCdfJZN/3080.png
Freue dich nicht zu früh. Schweizer MwSt kommt drauf und Zoll ;), gibt einen Brief später mit Einzahlschein :( :D

Edit:
Einfach schön, das Design und Video (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Videos/Founders-Edition-Unboxing-der-Referenzkarte-1357598/) :D :)

N0rG
2020-09-15, 19:11:56
[..]Einfach schön, das Design und Video (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Videos/Founders-Edition-Unboxing-der-Referenzkarte-1357598/) :D :)

Der hintere Lüfter sieht aus als würde er die Luft von oben durch die Karte pusten und nicht saugen.

Thunder99
2020-09-15, 19:26:31
Der hintere Lüfter sieht aus als würde er die Luft von oben durch die Karte pusten und nicht saugen.
Bin echt gespannt auf die Lautstärke gemessen am 2-Slot Design.

Dural
2020-09-15, 20:21:19
War noch nie rentabel in der schweiz im ausland hardware einzukaufen:

1199.- sfr. (1114.- euro) für eine 3090:
https://www.toppreise.ch/preisvergleich/Grafikkarten/ZOTAC-GeForce-RTX-3090-Gaming-Trinity-24GB-GDDR6X-ZT-A30900D-10P-p622630

r3ptil3
2020-09-15, 20:34:29
War noch nie rentabel in der schweiz im ausland hardware einzukaufen:

1199.- sfr. (1114.- euro) für eine 3090:
https://www.toppreise.ch/preisvergleich/Grafikkarten/ZOTAC-GeForce-RTX-3090-Gaming-Trinity-24GB-GDDR6X-ZT-A30900D-10P-p622630

Achwas... gibt immer wieder Angebote die trotz MWST deutlich besser sind.

Der Preis der 3090 ist ein Platzhalter. Die 3090 wird trotz der massiv niedrigeren MWST wohl gleich oder vielleicht noch teurer sein als in DE.

Kaufkraft, Einwohner, Anbieter...

Raff
2020-09-15, 20:38:10
Der hintere Lüfter sieht aus als würde er die Luft von oben durch die Karte pusten und nicht saugen.

Die Zeit, darüber zu spekulieren, ist schon seit Wochen abgelaufen. :) Nvidia hat das Airflow-Prinzip des Kühlers längst mit Grafiken und Animationen gezeigt.

-> https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433147/

MfG
Raff

N0rG
2020-09-15, 21:11:12
Das weis ich doch alles... aber die Lüfterblätter sehen irgendwie falsch rum aus um zu saugen, egal in welche Richtung der sich dreht. Ich hätte erwartet, dass die konkav sind wenn man von oben in den Lüfter schaut. Im Prinzip Schaufeln, die die Luft nach oben wegdrücken. Diese hier sind aber konvex.

hq-hq
2020-09-15, 21:26:52
jo die Lüfterform ist ungewöhnlich, angeblich wird es dadurch leiser... wahrscheinlich ist es nicht soo wichtig vieviel Luft er bewegt - wär halt lustig wenn man die Drehrichtung nach Wunsch umkehren könnte :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71374&stc=1&d=1599396111

Badesalz
2020-09-15, 21:35:41
Ja die AMD-Karten werden doch sauteuer wenn sie richtig gut minen können, obwohl sie fürs Spielen langsam (im Vergleich zu NV) sind. Diese RX480 Schrottkarten (oder welche auch immer das waren; die Miningkarten von AMD halt) gingen doch auch weg wie geschnitten Brot obwohl damit nur Pacman in SVGA spielen konnte - weil sie halt minen konnten.

Oder verstehst Du die Art des Vergleichs nicht? Das ist wie wenn eine Frau sagt: "Dein Penis ist war sehr kurz. Dafür ist er aber auch richtig dünn."Wir haben doch ein taugliches Unterforum um über das Bewustsein einschränkende Substanzen sprechen zu können. Wenn denn schon unbedingt 3DC sein muss... (meine Empfehluing wäre halt eine andere)


@DareDevil
Die Minersoft geht eigentlich so gut, weil sie auf die Architekturen angepasst ist. Die Spielengines tun das zu allermeist nicht. Sie sind auf grüne HW angepasst und optimiert. Jetzt wo AMD den ursprünglichen Gedanken deswegen doch noch aufgab und anfing die Dinge wie NV zu rechnen (RDNA1) kann das mit RDNA2 und FPS ähnlich nah werden wie bisher bei den Minern mit GCN.
Daß die RECHENleistung von Ampere vergliechen mit den Schritten in Watt, mit den verschiedenen Powerlimits quasi nicht skaliert. ist aber schon eine Überraschung.

Auf jeden Fall einer der spannendsten Jahre seit langem :rolleyes: Selbst wenn AMD sich wieder langmacht war es trotzdem spannender als je zuvor :tongue:

edit:
Verbräuche über 230W sind imho irgendwie trotzdem ein Witz =)

N0rG
2020-09-15, 21:39:35
Und es hat den Vorteil das man zwei mal das gleiche Bauteile auf der Karte hat, da spart man nochmal ein bisschen Geld mit. Der hintere Lüfter dreht sich einfach nur rückwärts. Müsste man mal testen was passiert wenn man den Lüfter umpolt... könnte mir schon vorstellen, dass der dann mehr Luft bewegt.

MiamiNice
2020-09-15, 22:00:27
Auf jeden Fall einer der spannendsten Jahre seit langem :rolleyes: Selbst wenn AMD sich wieder langmacht war es trotzdem spannender als je zuvor :tongue:


Ich weiß nicht was Du an der aktuellen Situation spannend findest.
Spannend ist, was AMD betrifft, aktuell nur wie hoch der IF bei Zen3 geht und wie weit man das Gerät übertakten kann. Aber das ist auch nicht mehr sooo hart spannend weil Zen 3 auf jeden Fall endlich schneller wird als ein Intel.

TobiWahnKenobi
2020-09-15, 22:03:16
hat hier schon einer aus der glaskugel geplaudert, was dinge angeht wie ampere titan mit 48gib gddr6x für etwas über 3k euro?



(..)

mfg
tobi

Thunder99
2020-09-15, 22:13:11
Meine Glaskugel sagt, wird kommen, früher oder später