PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12

Kriegsgeier
2020-12-04, 13:19:55
Also, dass die 2 Kurven fast aufeinander liegen bedeutet für mich - beide sind sehr nah an dem physikalisch machtbaren für einen bestimmten Preis X

Also ist 3090 FE völlig ebenbürtig mit einem Vorteil, dass es 1/2 des warmen Lufts aus dem Gehäuse befördert!

@ Lowkey: das nenne ich eine Erklärung! Danke dafür!

PS: in Endeffekt resultiert der größere Kühler bei der 3090 FE nur wegen den zusätzlichen 14 GB GDDR6X Speicher gegenüber 3080FE? Krass.
Mit anderen Worten: eine 3090FE mit 10Gb hätte auch mit gleichem Kühler von 3080FE völlig normal funktioniert. Und die zusätzliche Phasen sind rein für die zusätzliche 14 GB Speicher? Ohje
Ok, die Bandbreite muss ja auch gefüttert werden: 320 Bit vs 384 Bit

BlacKi
2020-12-04, 13:46:20
ich kann eure einschätzung was den verbrauch des speichers angeht nicht nachvollziehen. damit meine ich den vergleich von der 3080 zur 3090. die verdoppelung der module hat jetzt keinen starken negativen effekt auf den verbrauch. es ist einfach schlichtweg so, das die 3090 einfach 23% mehr bandbreite hat und deshalb wohl rein rechnerisch auch einfach 25%+ mehr verbrauchen wird und darf. das hat aber nichts mit der verdoppelung der module zu tun.

wenn man die rechenleistung der chips mit der bandbreite unter 320vs 350 PL vergleicht, dann hat die 3090 einen massiven vorteil in bandbreite pro rechenleistung gegenüber der 3080. oder anders gesagt, der 3090 hat zu wenig powerlimit. das muss aber sein, wegen der hitze.

wenn man durch PL begrenzt ist, macht es sogar sinn den speicher zu untertakten, damit der verbrauch der enormen speicherbandbreite sind dem chip das PL abschnürt.

das kommt aber auch aufs spiel an.

BigKid
2020-12-04, 13:53:07
Ich versteh nur nicht warum sich die Hersteller selbst bei den Modellen mit 3 Steckern und den ganz fetten Kühlern so stark zurückhalten.
Man muss ja nicht bis zum Mond - aber 400 Watt wäre eigentlich Pflicht aus meiner sicht - selbst bei den Non-OC Modellen...

Lowkey
2020-12-04, 13:54:22
Das sind wir aber direkt bei dem finalen Problem, dass du für jedes Spiel eine andere Curve brauchst. Die Bandbreite bringt dir nur was, wenn du sie nutzt. Das ist dann jedes Game auf 4k mit maximaler Qualität, auch wenn dann die Taktraten sinken.

Will ich nun PUBG mit low Details in 4k bei 120fps spielen, dann nutzt man den Vorteil der 3090 mmn nicht aus.

Ich versteh nur nicht warum sich die Hersteller selbst bei den Modellen mit 3 Steckern und den ganz fetten Kühlern so stark zurückhalten.
Man muss ja nicht bis zum Mond - aber 400 Watt wäre eigentlich Pflicht aus meiner sicht - selbst bei den Non-OC Modellen...


Also bei der FE mit dem 12pin Stecker darf die Grafikkarte per +12v mehr ziehen als 2x8pin. Dort ist sehr wahrscheinlich ein unbekannter, hoher Wert im Bios definiert. Bei 3x8pin hast du fast garantiert nur 150w pro Stecker. Nur geht Nvidia im weltweiten Markt immer noch davon aus, dass nicht jeder ein Seasonic Ultra Mega Titanium Netzteil hat, sondern ein Chinaböller mit AWG20 Kabeln.

Ab 400w gehen die Geräusche richtig los. Und der Mann hier hat mehr als 400w: https://youtu.be/PrQ8Y6RqYLM?t=415

BlacKi
2020-12-04, 14:02:22
naja, die karte hat halt einfach beides. +20% mehr reichenleisung und 23% mehr bandbreite. beides kann man anpassen so wie du schon sagst. das muss aber kein nachteil für die 3090 sein.

der nachteil der karte ist ihr powerlimit, obwohl 350w schon nicht wenig sind^^

800w unter wasser und du kannst die speicherbandbreite + rechenleistung ausfahren. aber preisleistung ist dann noch mehr im arsch^^

die 3090 ist einfach gestrickt -> viel hilft viel.

TurricanM3
2020-12-04, 14:05:53
Bez. Wakü: Angeblich bringen 1° Temperatursenkung auch ca. 1W Verbrauchsreduktion bei 30° weniger kann das schon was ausmachen.

BlacKi
2020-12-04, 14:09:31
eine 3080 mit 12gb gddr6 für 800-900€ wäre mir deutlich lieber gewesen. aber solange der preis der 3090 nicht massiv droppt, komm ich auch gut mit der 3090 klar^^

undervolted mit -502mhz mem mit 300w PL ist die karte praktisch nicht zu hören mit 800-900rpm, und so in pubg sogar schneller als stock. was ich hier betreibe ist meckern auf hohem niveau. die leistung der karte ist trotzdem bombastisch.

Armaq
2020-12-04, 14:25:03
Ich versuche es mal allgemein.

3080 und 3090 sind quasi identische Chips. Der GA102 Chip wird vermutlich nicht selektiert. Beide Karten haben eine Spanne an guten und schlechten Chips. Davon ausgehend limitiert Ampere im Powerlimit stärker als Turing. Bei den kleinen Karten ist das gewollt, bei den dicken Karten gibt es physikalische Grenzen.
Nahezu alle 3080/3090 kommen mit dickem Kühler, der dann wiederum den Leistungsgewinn durch Wakü stark schmälert. Bei 2kg sind die Karten auf dem Level einer Einsteigerwakü und extra groß wie lange nicht mehr (suprime).
Aber was neu ist: der Speicher braucht mehr Strom als erwartet. Gerade die 14 zusätzlichen Gigabyte auf der Rückseite brauchen ordentliche Strom und treiben das Powerlimit nach oben bzw. füllen es aus. Eine Regelung für Speicher und GPU gibt es nicht. Der zusätzliche Speicher drückt auf den Boost. Die Karte hat dann zwar 24gb Speicher, aber bei voller Auslastung fällt die Karte auf die Takt-Werte einer 3080.
Das Problem sinkt und steigt mit der Qualität des Chips. Ein guter Chip setzt die Mehrleistung direkt um. Schon lange nicht mehr war es wichtig ein gute Karte zu erwischen.

Das letzte Problem ist das Spulenfiepen. Je nach Auslastung und Titel ist die Karte lautlos oder stark am Pfeifen. Die Karten sind nicht selektiert und daher sagt der Preis momentan auch nichts über die Qualität aus. Was nützen 20 Phasen wenn der Chip schlecht boostet? Was nützt der Speicher, wenn die Karte unter Last stark ins Powerlimit läuft oder anfängt aus dem letzten Loch zu pfeifen?

Die 3090 ist kein technisches Meisterwerk. Als ob man den Speicher im Stromverbrauch nicht einkalkuliert hätte. Die Karte sauft Strom ohne Ende. Nur geht man mit dem PL hoch (alternative Biose flashen), dann singt die Karte stärker.

Meine Gigabyte 3080 mit Silentbios (<330w) läuft ideal. Mit dem OC Bios (~360w) läuft die Karte ohne wirkliche Mehrleistung (außer Benchmarks) ins Temp-Limit - und ins Power Limit.

Zwar existiert ein Unterschied zwischne 3080 und 3090 von 10-12%, auch mit OC, aber das hängt sehr stark von der eigentlichen Qualität ab. Eine gute Karte ohne Spulenfiepen, 1B GPU Qualität (Nvidia-SMI), guter Speicherqualität (+1000+) und ausreichend hohem Powerlimit ist ein Erlkönig und vermutlich schaffen das 1-10% der Karten.

Wer sich also eine 1500-2200 Euro Karte leistet, der zahlt nicht für Qualität. Eine schlechte 3090 ist auf dem Level einer guten 3080.
Sehr spannende Zusammenfassung! Wirklich toll.

Ich warte auf den Refresh, hab meiner Perle ne 3070 eingebaut und die ist für sie oft Overkill, dafür aber sehr leise und säuft nur moderat Strom.

Raff
2020-12-04, 14:58:27
Zwar existiert ein Unterschied zwischne 3080 und 3090 von 10-12%, auch mit OC, aber das hängt sehr stark von der eigentlichen Qualität ab. Eine gute Karte ohne Spulenfiepen, 1B GPU Qualität (Nvidia-SMI), guter Speicherqualität (+1000+) und ausreichend hohem Powerlimit ist ein Erlkönig und vermutlich schaffen das 1-10% der Karten.

Dieses sagenumwobene Auslesen der ASIC Quality: Weiß man, inwiefern sich das auswirkt? Klar, Leckströme, Suff und so. Aber hat das mal jemand grob verglichen, welche Spannen das umfasst?

MfG
Raff

Schnoesel
2020-12-04, 15:30:57
Das mit dem Kühler sehe ich anders. Gibt sicher bessere Kühler als auf der Zotac Trinity, aber dieser ist mit der Karte @ stock schon extrem überfordert. Innerhalb von wenigen Minuten liegen die Temps bei 77° und steigend. Klar lohnt da ne Wasserkühlung schon allein um keinen Gehörschaden zu erleiden und der Boost ist immer noch von der Temperatur mit abhängig. Der fällt bei der Zotac nämlich auch ziemlich schnell. Ich sags gerne wieder. 350Watt sind für ne Grafikkarte schon oberstes Ende. Das ist einfach nicht smart.

Lowkey
2020-12-04, 15:39:45
Siehe MSI Trio => war nicht soooo toll und nun kommt die Suprime. Entweder ein Fehler oder Absicht.


@Raff: ich habe nur 3070, 3080 und 3090 einmal ausgelesen und deren Werte stimmen mit der Qualität im Boost ohne OC grob überein. Anhand von 3 Karten kann ich schlecht eine Aussage treffen, aber bis jetzt glaube ich die Qualität ist auslesbar. Nur ist sie auch nur ein Teil der Karte, denn wenn sie fiept oder zu heiss wird, dann nützt der beste Chip nichts.

Raff
2020-12-04, 15:39:59
Das mit dem Kühler sehe ich anders. Gibt sicher bessere Kühler als auf der Zotac Trinity, aber dieser ist mit der Karte @ stock schon extrem überfordert. Innerhalb von wenigen Minuten liegen die Temps bei 77° und steigend. Klar lohnt da ne Wasserkühlung schon allein um keinen Gehörschaden zu erleiden und der Boost ist immer noch von der Temperatur mit abhängig. Der fällt bei der Zotac nämlich auch ziemlich schnell. Ich sags gerne wieder. 350Watt sind für ne Grafikkarte schon oberstes Ende. Das ist einfach nicht smart.

Yep. Aber die Trinity ist ja auch ein MSRP-Modell. Der Kühler ist für die 3080 gerade noch erträglich, bei der 3090 kann man aber nur undervolten. Dagegen ist die Founders Edition ein Trümmer (daher auch die 2-kg-Nennung, schätze ich).

MfG
Raff

qiller
2020-12-04, 15:59:36
Grad eine Auftragsbestätigung für meine 3090FE bekommen. Auch wenn der Kühler wohl ganz ordentlich sein soll, soll die Karte bei mir unter Wasser. Bisher sehe ich für die 3090FE 3 Kühler in der Schwebe: EKWB (nur angekündigt), Alphacool (angeblich Ende Dezember) und Bykski, die nächste Woche schon ausliefern wollen.

Gibts hier zufällig wen, der seine 3090FE mit einem anderen Kühler evt. schon unter Wasser hat?

Lowkey
2020-12-04, 16:21:04
Hätte mich auch interessiert: anscheinend kann man bei der FE mit 3x15mhz zugewinn rechnen. Ich habe die Halterung vom Peter 2 auf der Rückseite montiert und 2x12cm 1x12cm Eloop dran. Die Benchmarkwerte waren immer eine Idee besser, aber selbst mit ein paar mm Abstand ist die Temperatur noch viel zu hoch. Soll heißen: eine aktive Backplate wäre Pflicht. Dann gewinnt man durch die geringere Temperatur ein paar Watt zurück und die Karte müßte schneller laufen. Den doppelten Sandwichkühler kenne ich nur vom Hörensagen und nächtlichen Träumen :)


Shuntmod + Wakü + Backplate mod:

https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-3090-faq.1277151/page-371#post-27914755

15261 in Port Royale.

TurricanM3
2020-12-04, 19:03:56
Baue gerade meine Ref um. Da hat wohl jemand im Werk nen schlechten Tag gehabt und bisschen geschludert. Ein RAM war nicht mal halb bedeckt (Pad überlappt) und bei den Wandlern hinten war nen Bogen drin, lag benachbart auf, 3 Wandler ungekühlt:

https://abload.de/img/20201204_150532fsjuc.jpg (https://abload.de/image.php?img=20201204_150532fsjuc.jpg)

https://abload.de/img/20201204_144235xqk6l.jpg (https://abload.de/image.php?img=20201204_144235xqk6l.jpg)

Ich hatte die Karte so bestimmt 2 Wochen laufen (weiß es nicht mehr). :freak:

MiamiNice
2020-12-04, 19:26:40
wtf

Raff
2020-12-04, 20:57:58
@Raff: ich habe nur 3070, 3080 und 3090 einmal ausgelesen und deren Werte stimmen mit der Qualität im Boost ohne OC grob überein. Anhand von 3 Karten kann ich schlecht eine Aussage treffen, aber bis jetzt glaube ich die Qualität ist auslesbar. Nur ist sie auch nur ein Teil der Karte, denn wenn sie fiept oder zu heiss wird, dann nützt der beste Chip nichts.

Aber wo gibt's Referenzwerte? :ugly: Meine Karte gab mir just das aus:

GPU 00000000:02:00.0

Bis auf "Bester Bin wohl" weiß das Internet nix. Very nixsaging.

Lasst doch mal eure GPUs sprechen! Die NVSMI.exe liegt unter C:\Windows\System32\DriverStore\FileRepository\nv_dispi.inf_amd64_8e1b465b962975 a0\

Befehl via CMD oder Verknüpfung: nvidia-smi.exe -q -d power

MfG
Raff

Armaq
2020-12-04, 21:55:10
Aber wo gibt's Referenzwerte? :ugly: Meine Karte gab mir just das aus:

GPU 00000000:02:00.0

Bis auf "Bester Bin wohl" weiß das Internet nix. Very nixsaging.

Lasst doch mal eure GPUs sprechen! Die NVSMI.exe liegt unter C:\Windows\System32\DriverStore\FileRepository\nv_dispi.inf_amd64_8e1b465b962975 a0\

Befehl via CMD oder Verknüpfung: nvidia-smi.exe -q -d power

MfG
Raff
Attached GPUs : 1
GPU 00000000:0A:00.0
Power Readings
Power Management : Supported
Power Draw : 359.38 W
Power Limit : 366.00 W
Default Power Limit : 300.00 W
Enforced Power Limit : 366.00 W
Min Power Limit : 100.00 W
Max Power Limit : 366.00 W
Power Samples
Duration : 2.38 sec
Number of Samples : 119
Max : 362.25 W
Min : 256.28 W
Avg : 350.11 W

Ist keine 3090, aber warum liegt das höher las das von mir eingestellte Limit? Ich hab da nur max. 320 W eingestellt ...

TurricanM3
2020-12-04, 21:56:57
Ganz schön klein die Ref. irgendwie @Wakü.

https://abload.de/img/20201204_191736fkkk0.jpg (https://abload.de/image.php?img=20201204_191736fkkk0.jpg)

:freak:

EDIT:
Sieht man so vielleicht besser:

https://abload.de/img/20201204_191553kcjay.jpg (https://abload.de/image.php?img=20201204_191553kcjay.jpg)

Im Case bisschen verloren. ^^

Armaq
2020-12-04, 22:02:07
Sieht richtig toll aus finde ich. Also dieses kompakte Design. Ein WK Block mit der Optik der FE wäre auch toll.

Cherubim
2020-12-04, 22:02:48
==============NVSMI LOG==============

Timestamp : Fri Dec 04 22:01:44 2020
Driver Version : 457.51
CUDA Version : 11.1

Attached GPUs : 1
GPU 00000000:0C:00.0
Power Readings
Power Management : Supported
Power Draw : 24.06 W
Power Limit : 350.00 W
Default Power Limit : 350.00 W
Enforced Power Limit : 350.00 W
Min Power Limit : 100.00 W
Max Power Limit : 350.00 W
Power Samples
Duration : 18446744073709.49 sec
Number of Samples : 119
Max : 30.99 W
Min : 23.34 W
Avg : 0.00 W

Lowkey
2020-12-04, 22:35:02
Igor fing mal an zu sammeln (https://www.igorslab.de/community/threads/pc-praxis-alle-power-limits-von-nvidia-grafikkarten-mit-nur-einem-klick-aus-der-firmware-auslesen-igorslab.668/)

Man bräuchte OC Werte am Limit für eine Einteilung der Zahlen.

HisN
2020-12-04, 23:04:08
Timestamp : Fri Dec 04 23:03:48 2020
Driver Version : 457.09
CUDA Version : 11.1

Attached GPUs : 1
GPU 00000000:01:00.0
Power Readings
Power Management : Supported
Power Draw : 35.37 W
Power Limit : 388.50 W
Default Power Limit : 370.00 W
Enforced Power Limit : 388.50 W
Min Power Limit : 100.00 W
Max Power Limit : 390.00 W
Power Samples
Duration : 18446744073709.51 sec
Number of Samples : 119
Max : 38.58 W
Min : 33.30 W
Avg : 0.00 W

qiller
2020-12-05, 00:31:41
Sieht richtig toll aus finde ich. Also dieses kompakte Design. Ein WK Block mit der Optik der FE wäre auch toll.
Hier sind erste Bilder von den WC-Kühlern: https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/page-283#post-27916585

...wirds wohl leider nicht für FE-Karten geben :/.

woodsdog
2020-12-05, 08:24:31
Timestamp : Sat Dec 05 08:22:37 2020
Driver Version : 457.09
CUDA Version : 11.1

Attached GPUs : 1
GPU 00000000:01:00.0
Power Readings
Power Management : Supported
Power Draw : 32.97 W
Power Limit : 350.00 W
Default Power Limit : 350.00 W
Enforced Power Limit : 350.00 W
Min Power Limit : 100.00 W
Max Power Limit : 350.00 W
Power Samples
Duration : 18446744073709.51 sec
Number of Samples : 119
Max : 35.40 W
Min : 32.58 W
Avg : 0.00 W



und nu? :confused:

Dr.Doom
2020-12-05, 08:46:27
Baue gerade meine Ref um. Da hat wohl jemand im Werk nen schlechten Tag gehabt und bisschen geschludert. Ein RAM war nicht mal halb bedeckt (Pad überlappt) und bei den Wandlern hinten war nen Bogen drin, lag benachbart auf, 3 Wandler ungekühlt: [...]Meinst du die FE oder eine Custom im "Referenzdesign"?

Sry, zwei Seiten vorher... 'ne Strix hat der Gude.

Ben Carter
2020-12-05, 09:33:54
Gaming X Trio

==============NVSMI LOG==============

Timestamp : Sat Dec 05 09:26:02 2020
Driver Version : 457.30
CUDA Version : 11.1

Attached GPUs : 1
GPU 00000000:2D:00.0
Power Readings
Power Management : Supported
Power Draw : 363.73 W
Power Limit : 370.00 W
Default Power Limit : N/A
Enforced Power Limit : N/A
Min Power Limit : N/A
Max Power Limit : N/A
Power Samples
Duration : 18446744073709.51 sec
Number of Samples : 119
Max : 393.14 W
Min : 339.57 W
Avg : 0.00 W

Lowkey
2020-12-05, 10:01:53
2D habe ich noch nicht gesehen. Wie gut taktet die Karte? Reicht nicht der Takt in GPUz beim starten des PCI-E Tests aus für eine Prognose?

MiamiNice
2020-12-05, 10:26:27
Ganz schön klein die Ref. irgendwie @Wakü.

https://abload.de/img/20201204_191736fkkk0.jpg (https://abload.de/image.php?img=20201204_191736fkkk0.jpg)

:freak:

EDIT:
Sieht man so vielleicht besser:

https://abload.de/img/20201204_191553kcjay.jpg (https://abload.de/image.php?img=20201204_191553kcjay.jpg)

Im Case bisschen verloren. ^^

Und da sagen die Leute das Gerät sähe mit dem ollen Luftkühler gut aus.




Not :biggrin:

Ben Carter
2020-12-05, 10:57:35
2D habe ich noch nicht gesehen. Wie gut taktet die Karte? Reicht nicht der Takt in GPUz beim starten des PCI-E Tests aus für eine Prognose?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12509899#post12509899

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12510331#post12510331

Kriegsgeier
2020-12-05, 11:05:31
Betreibt einer eine RTX 3090 FE mit einem 750 Watt Dark Power Pro?
Wird es noch gehen?

LOL „wird es hoch gehen?“

Lowkey
2020-12-05, 11:12:37
Laut Foren soll BQ mit 750w klappen, aber oft muss man die PCI-E Anschlüsse am Netzteil durchtauschen, denn anscheinend gibt es da Leistungsunterschiede.


@Ben Carter

Schau mal bitte nach wie der Takt ist beim GPU-Z im PCI-E Test und dazu Spannung und Verbrauch. Irgendwie muss man sehr einfach feststellen können, was die Karten können.

BlacKi
2020-12-05, 11:13:08
@kriegsgeier
könnte. könnte auch sein das du eben im OC eingebremst wirst so wie ich. vermutlich wird, wie bei mir ein UV mit 400w PL ohne probleme laufen, aber welt/forumsrekorde wirst du damit nicht erreichen, denn es wird sich dann selbst ausschalten wegen der peaks.

Ben Carter
2020-12-05, 11:18:44
Wenn du mir verrätst, wie ich den PCIe Test durchführe...

Kriegsgeier
2020-12-05, 11:21:49
Habe auch ein 8700k @5GHz

Hoffentlich sind es 750Watt bei Dark Power Pro mehr als nur 750Watt bei einem Chinesischen Netzteil...
Wobei alle Netzteile kommen aus China

x5
2020-12-05, 11:23:28
Das Dark Power Pro 750 läuft bei mir ohne Probleme mit der 3090 FE.
Allerdings ohne OC.

Kriegsgeier
2020-12-05, 13:19:55
die Karte läuft wird aber extrem heiß! also Finger drauf auf die Backplate und man kann sich verbrennen!
Das Ding braucht definitiv eine Wasserkühlung!

Triniter
2020-12-05, 13:22:14
Timestamp : Sat Dec 05 13:20:59 2020
Driver Version : 457.30
CUDA Version : 11.1

Attached GPUs : 1
GPU 00000000:01:00.0
Power Readings
Power Management : Supported
Power Draw : 21.01 W
Power Limit : 350.00 W
Default Power Limit : 350.00 W
Enforced Power Limit : 350.00 W
Min Power Limit : 100.00 W
Max Power Limit : 350.00 W
Power Samples
Duration : 18446744073709.51 sec
Number of Samples : 119
Max : 24.08 W
Min : 19.62 W
Avg : 0.00 W

Was sagt mir das jetzt?
Ventus 3090 OC

rentex
2020-12-05, 13:28:55
Euer Deutsch ist stellenweise grausig.

exzentrik
2020-12-05, 15:12:21
Euer Deutsch ist stellenweise grausig.

Mit Selbstreflexion hast du's nicht so, oder? Deine Beiträge strotzen vor Rechtschreib- und Grammatikfehlern. :freak:

Lowkey
2020-12-05, 15:33:24
Wenn du mir verrätst, wie ich den PCIe Test durchführe...


GPUZ im ersten Reiter auf das blaue Fragezeichen klicken, auf Test Starten gehen und dann oben im zweiten Reiter die Daten ablesen.

Kriegsgeier
2020-12-05, 15:52:21
Sind knapp 14.000 nicht ein wenig zu wenig für eine RTX 3090?

Ben Carter
2020-12-05, 16:17:16
Ganz schön versteckt.

1980 MHz bei 0,85V und 373W.

BeetleatWar1977
2020-12-05, 16:28:53
Sind knapp 14.000 nicht ein wenig zu wenig für eine RTX 3090?
3080 FTW @ Stock http://www.3dmark.com/spy/15965940


Grafik-Punkte
17 606

CPU score
10 910


Deutlich zu wenig....... es sei denn du bist schon im CPU-Limit.... lass mal Timespy Extreme laufen!

Kriegsgeier
2020-12-05, 16:36:15
Wird immer in nativer Auflösung getestet?

Hängt am PCIXpress 3.0 mit 8 Lines

BlacKi
2020-12-05, 16:58:50
Wird immer in nativer Auflösung getestet?

Hängt am PCIXpress 3.0 mit 8 Lines
nein, sonst würde das ergebnis schwanken


8lanes ist nicht optimal, aber läuft die denn mit 3.0 oder sogar darunter? hast du das mit gpu z kontrolliert? läuft die karte auf dem untersten pcie slot? dann läuft sie über den chipsatz.

Kriegsgeier
2020-12-05, 17:14:19
Ne, läuft über dem 1ten PCIE-Slot. GSync zu deaktivieren bringt gar nichts. immer noch gleiche Punktzahl...
Komisch.
Hatte gerade noch Titan X Pascal drin. Soll ich vielleicht neue Treiber installieren oder braucht man es nicht?

BlacKi
2020-12-05, 17:15:17
€dit:

mach mal last auf die karte und sieh was gpu z dann sagt.

Kriegsgeier
2020-12-05, 17:23:18
Komisch immer maximal 95 FPS :-) lol
Will sagen es limitiert bei genau 95 FPS. Habe ich ein Limiter eingeschaltet? Wo schaltet man es ab?
An die Leistung in RDR2 gewöhnt man sich aber sehr schnell! Bei meiner WQHD Auflösung und alles auf ULTRA 80-85 FPS

BlacKi
2020-12-05, 17:26:01
wenn ich mit der leistung nicht zufrieden bin, würde ich da glatt versuchen^^

Dr.Doom
2020-12-05, 17:31:53
Komisch immer maximal 95 FPS :-) lol
Will sagen es limitiert bei genau 95 FPS. Habe ich ein Limiter eingeschaltet? Wo schaltet man es ab?
An die Leistung in RDR2 gewöhnt man sich aber sehr schnell! Bei meiner WQHD Auflösung und alles auf ULTRA 80-85 FPS

Hier hat jemand auch das 95-FPS-Problem: https://www.nvidia.com/en-us/geforce/forums/gaming-pcs/8/257510/fps-cap-at-95-for-all-games/

Seine Lösung: Treiber neuinstallieren.

rentex
2020-12-05, 17:33:18
Sind knapp 14.000 nicht ein wenig zu wenig für eine RTX 3090?

Score: 17397
Graphics: 19606
CPU: 10619

Mit nem 3700X (ohne OC)

Kriegsgeier
2020-12-05, 17:41:18
Hier hat jemand auch das 95-FPS-Problem: https://www.nvidia.com/en-us/geforce/forums/gaming-pcs/8/257510/fps-cap-at-95-for-all-games/

Seine Lösung: Treiber neuinstallieren.

Danke für den Vorschlag. Habe durchgelesen aber nicht alles verstanden: soll ich neuen Monitortreiber installieren? Oder Nvidiatreiber?

Dr.Doom
2020-12-05, 17:46:19
Danke für den Vorschlag. Habe durchgelesen aber nicht alles verstanden: soll ich neuen Monitortreiber installieren? Oder Nvidiatreiber?Den Grafikkartentreiber:
So I reinstalled the nvidia driver and it seems to be working now.

Kriegsgeier
2020-12-05, 18:04:24
Gerade gemacht: keine Änderung. Witcher3 alles auf ultra immer konstant 95 FPS :(

So ein Mist

rentex
2020-12-05, 18:10:57
Mit Selbstreflexion hast du's nicht so, oder? Deine Beiträge strotzen vor Rechtschreib- und Grammatikfehlern. :freak:

Du mich auch🖕

Kriegsgeier
2020-12-05, 18:33:20
Fehler gefunden. Lag wie immer zwischen dem Stuhl und der Tastatur :)

Kriegsgeier
2020-12-05, 18:42:25
Jetzt ist alles in Ordnung würde ich sagen, oder?

MiamiNice
2020-12-05, 19:28:30
Komisch immer maximal 95 FPS :-) lol
Will sagen es limitiert bei genau 95 FPS. Habe ich ein Limiter eingeschaltet? Wo schaltet man es ab?
An die Leistung in RDR2 gewöhnt man sich aber sehr schnell! Bei meiner WQHD Auflösung und alles auf ULTRA 80-85 FPS
Fehler gefunden. Lag wie immer zwischen dem Stuhl und der Tastatur :)

:freak:
:biggrin:
Super Schenkelklopfer :)

Jetzt ist alles in Ordnung würde ich sagen, oder?

Sieht jedenfalls so aus.

Armaq
2020-12-06, 01:25:56
Fehler gefunden. Lag wie immer zwischen dem Stuhl und der Tastatur :)
Der Traum eines jeden Service-Mitarbeiters. :D

Lowkey
2020-12-06, 14:45:35
Das Auslesen mit Nvidia-SMI führt bei mir mit anderem MB zu einer anderen Zahl, also hat es nichts mit der GPU Qualität zu tun...

Cherubim
2020-12-06, 15:01:48
Habe eben den Wasserblock installiert (Alphacool) und da geht noch was.

Von 19851 Graphics score Punkten auf 20312 mit der gleichen Kurve.
Karte hängt jetzt fast im kompletten Bench bei 1920MHz@0,875V zwischen 330 und 340W.

Nice.


Quality Control: Im Werk Schutzfolie auf dem Wärmeleitpad vom Spannungswandler vergessen. :redface:

Kriegsgeier
2020-12-06, 15:21:27
Wie war die Kühlermontage? Schwierig? War beim Kühler alles dabei?
Hast du dabei ein paar Fotos gemacht?
Habe es vor bald auch auf WaKü umzurüsten.
PS: habe mit Standard FE Kühler ca. 20.200 Grafikscores

Ach du hast nicht die 3090 FE, oder?

PS: für eine 3090FE sind 20.200 ganz gut...
Eine 2080Ti schafft 13.500

Lowkey
2020-12-06, 15:26:27
Time Spy schafft 21.113 Grafikpunkte, aber das ist wenig.

Cherubim
2020-12-06, 15:36:30
Ich hab die bei 350W abgeriegelt Zotac.
Montage war recht einfach, nur die Pads für die Backplate passen nicht so richtig. Habe jetzt ne 3080 und meine 3090 (beide Zotac) mit dem Kühler umgebaut und es hat bei beiden nicht gut gepasst. Muss ich denen morgen mal schreiben.

qiller
2020-12-06, 15:41:52
Das Auslesen mit Nvidia-SMI führt bei mir mit anderem MB zu einer anderen Zahl, also hat es nichts mit der GPU Qualität zu tun...
Der Wert hat auch nichts mit der GPU zu tun, ka woher da die Info kommt. Hatte irgendwo gelesen, dass es einfach ne Bus-ID vom PCIe-Bus ist, die dann je nach gesteckten PCIe-Slot o. Mainboard unterschiedlich ist.

Linmoum
2020-12-06, 15:42:08
Das irgendwas mit den Pads bei den neuen Alphacools für Ampere (da war's für die TUF) nicht passt, hab ich gestern schon im Luxx gelesen. Scheint mal wieder astreine Qualitätsarbeit von denen zu sein.

https://www.hardwareluxx.de/community/threads/wasserblock-f%C3%BCr-asus-rtx3080-tuf.1277640/page-7#post-27918035

Kriegsgeier
2020-12-06, 15:52:12
Kennt einer die Firma?: Bykski RTX 3090 Founders Edition GPU Kühler
https://ezmodding.com/Nvidia-RTX-3080-/-3090-FE-Acryl-inkl-Backplate_2

MiamiNice
2020-12-06, 15:52:51
Ich hab die bei 350W abgeriegelt Zotac.
Montage war recht einfach, nur die Pads für die Backplate passen nicht so richtig. Habe jetzt ne 3080 und meine 3090 (beide Zotac) mit dem Kühler umgebaut und es hat bei beiden nicht gut gepasst. Muss ich denen morgen mal schreiben.


Was Du ein Bild?

Kennt einer die Firma?: Bykski RTX 3090 Founders Edition GPU Kühler
https://ezmodding.com/Nvidia-RTX-3080-/-3090-FE-Acryl-inkl-Backplate_2

Der Laden verkauft nur harte Chinaware. Was nicht zwangsläufig schlecht sein muss. Allerdings sieht meine HW definitiv nicht so einen „Kram“.

qiller
2020-12-06, 16:15:46
Kennt einer die Firma?: Bykski RTX 3090 Founders Edition GPU Kühler
https://ezmodding.com/Nvidia-RTX-3080-/-3090-FE-Acryl-inkl-Backplate_2
Ich werd wohl nächste Woche auch meine 3090FE bekommen und gucke schon nach Wakühlern. Also bei dem Bykski und ALC-Kühler würde ich mal noch abwarten, bis der ein oder andere die Kühler getestet hat, da, wie MiamiNice schon schrieb, diese Kühler eher der "billigen" Natur sind. Bitspower müsste man wohl auch irgendwie importieren, hab den Kühler zumindest noch nirgends in nem deutschen Shop gesehen. Bleibt noch EKWB, die den 3090FE-Kühler aber bisher nur angekündigt haben und die 263€ des 3080FE-Kühler deuten da schon auf einen ziemlich exklusiven Preis hin :x.

PS: Am liebsten wär mir son schöner vernickelter Kupferbrocken ohne irgendwelchen RGB/Acryl-Schnickschnack von Watercool für die 3090FE. Fand den CPU Heatkiller schon nice, da es diesen auch ohne Sichtfenster gab. Leider macht WC keinerlei Anstalten, das FE-Design mit ins Programm zu nehmen :/.

Lowkey
2020-12-06, 16:16:36
Der Bykski auf meiner alten 1080Ti war von den Temperaturen her perfekt. Daher habe ich den neuen Bykski auf Ali bestellt. Ezmodding ist zu teuer.

Revision 1 der Backplate paßt nicht. Die haben ähnliche Probleme wie jeder andere Hersteller.

@Miaminice

Wenn du die Qualität meines EKWB Quantum Magnitude sehen würdest, dann wäre EKWB für dich auch keine Option mehr :D

Cherubim
2020-12-06, 16:53:17
Was Du ein Bild?


Von den Pads wie es nicht passt, nein.
Ich habe jetzt den Pad für die GPU Seite weg gelassen und den originalen Pad von der Karte für den einzelnen Speicherchip genommen. Sonst wäre der Speicher nicht an die Backplate gekommen.


Werde aber eh noch mal alles ausbauen, da ich die Backplate aktiv kühlen werde, der Händer aber mir den nötigen Teilen noch nicht versendet hat ;(
Dann kann ich Bilder machen.


Edit: da ich aus dem Roten Lager komme....warum hab ich 1000 Leistungs- und Stromanzeigen in GPUZ, aber nur eine Temp? Wo finde ich die VRM und Ram Temp?

woodsdog
2020-12-06, 17:46:05
Bei AMD haste halt nur einen nichtssagenden Verbrauchswert wo man alles abgesehen von GPU + SPeicher raten muss und dafür 1000 Tempfühler.
Die Fühler sind wohl da laut Igor, auch für jeden einzelnen RAM Baustein. NV führt die Info aber leider nicht via API nach draußen.

vielleicht hat Intel in Zukunft ja mehr von beidem xD

aufkrawall
2020-12-06, 17:52:26
Bei AMD haste halt nur einen nichtssagenden Verbrauchswert wo man alles abgesehen von GPU + SPeicher raten muss und dafür 1000 Tempfühler.

Nur dauert das Polling des Sensors für den Gesamtkartenverbrauch bei Nvidia viel länger als für GPU-only bei AMD, was dann mit bestimmten Modellen, Treibern und Anwendungen "unerklärliche" chronische Ruckler verursacht. Wenn einen das einmal genervt hat, findet man AMDs Ansatz nicht mehr schlechter...

woodsdog
2020-12-06, 18:09:18
Nur dauert das Polling des Sensors für den Gesamtkartenverbrauch bei Nvidia viel länger als für GPU-only bei AMD, was dann mit bestimmten Modellen, Treibern und Anwendungen "unerklärliche" chronische Ruckler verursacht. Wenn einen das einmal genervt hat, findet man AMDs Ansatz nicht mehr schlechter...

yoah, großartiger Tausch.

Nutzloser Wert der nicht ruckelt ggü Diverse nützliche Werte die FALLS sie ein Ruckeln verursachen ich halt einfach nicht polle zum spielen. :rolleyes:
Hatte z.B. nie das Problem das es deswegen geruckelt hat. (Was nicht bedeutet das das Problem nicht exisitiert bevor hier ein Schlaumeier in die Tasten haut)

Soll jetzt hier auch kein Rot gegen Grün sein aber AMDs "Ansatz" ist objektiv schlechter bei den Spannungswerten weil ich schlicht viele Infos nicht bekommen kann. Das gleiche gilt natürlich auch für NV was die Tempfühler angeht.

Cherubim
2020-12-06, 18:25:09
Ah, gut zu wissen, danke.
Schade halt nur, daß es so rum ist. Stromverbrauch interessiert mich jetzt nicht so.

aufkrawall
2020-12-06, 18:31:06
Nutzloser Wert der nicht ruckelt ggü Diverse nützliche Werte die FALLS sie ein Ruckeln verursachen ich halt einfach nicht polle zum spielen. :rolleyes:

Wieso soll der nutzlos sein? Den Gesamtverbrauch gibts in Review zu sehen und der Rest sollte sich mit den Mathekünsten eines Siebtklässlers regeln lassen.

woodsdog
2020-12-07, 07:53:16
Wieso soll der nutzlos sein? Den Gesamtverbrauch gibts in Review zu sehen und der Rest sollte sich mit den Mathekünsten eines Siebtklässlers regeln lassen.
Weil ich dann nur das exakt gleiche Modell einer Karte vergleichen kann und hoffen muss, dass selbiges von einem Menschen vermessen wurde der Ahnung hat. Verscheidene Bauteilbestückungen haben keinen Einfluss auf die TBP aber sehr wohl auf diese ominöse "GPU only" Messung. Keine Ahnung warum ich dir das erklären muss aber hauptsache rumgepoltert, wa?

aufkrawall
2020-12-07, 13:01:12
Sagt ausgerechnet der, der wegen 10-30W möglicher Differenz bei einer Highend-GPU einen auf sterbenden Schwan macht. :freak:
Du siehst, welches Spiel wie viel heizt. Willst du einen Fetisch draus machen?

exzentrik
2020-12-07, 18:15:11
PCGH hat erste Performance-Eindrücke (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/preview-Cyberpunk-2077-1363044/) aus einer Vorabversion von Cyberpunk mit RTX 3090:

Mit der RTX 3090 läuft Cyberpunk bei WQHD-Auflösung und Ultra-Details samt Ultra-Raytracing flüssig - so richtig allerdings erst unter dem Einsatz von DLSS auf der Stufe "Qualität". Bei diesen Settings ist das Spiel sehr geschmeidig und läuft nahezu ruckel- und Slowdown-frei, das Aiming geht gut von der Hand, die flotten Kämpfe und Schusswechsel gelingen spielend. Eine ähnliche Performance erhalten wir bei Ultra HD unter Verwendung von DLSS "Performance", allerdings wirkt das Bild mit einer solch aggressiven DLSS-Stufe relativ grob. Ultra HD samt Ultra-Raytracing ohne DLSS - jene Settings, mit denen wir unsere Screenshots gefertigt haben - drücken die Bildraten mit der RTX 3090 dann in Gefilde, die für Grafiknerds nicht wirklich als angenehm zu bezeichnen sind. Doch auch ganz ohne Raytracing ist Cyberpunk ein anspruchsvolles Spiel, für volle Ultra-Details ohne Raytracing bei nativer Darstellung in WQHD sollte es unser Meinung schon eine Grafikkkarte mit dem Kaliber einer RTX 2080 Ti oder RX 6800 sein, wenn Sie flüssige Bildraten um 60 Fps im Auge haben.

Lowkey
2020-12-07, 18:19:16
Immer dran denken: Netzteile werden 2021 teurer, aber auch Paketversand von Händlern und natürlich wird die Mehrwertsteuer wieder auf 19% erhöht.

CP2077 Preload läuft...


3090 geht zurück... :(

TobiWahnKenobi
2020-12-07, 18:50:07
wenn das ein deus ex klon ist will ich das gar nicht haben.. egal wie schlecht es läuft..


(..)

mfg
tobi

-/\-CruNcher-/\-
2020-12-07, 18:54:27
yoah, großartiger Tausch.

Nutzloser Wert der nicht ruckelt ggü Diverse nützliche Werte die FALLS sie ein Ruckeln verursachen ich halt einfach nicht polle zum spielen. :rolleyes:
Hatte z.B. nie das Problem das es deswegen geruckelt hat. (Was nicht bedeutet das das Problem nicht exisitiert bevor hier ein Schlaumeier in die Tasten haut)

Soll jetzt hier auch kein Rot gegen Grün sein aber AMDs "Ansatz" ist objektiv schlechter bei den Spannungswerten weil ich schlicht viele Infos nicht bekommen kann. Das gleiche gilt natürlich auch für NV was die Tempfühler angeht.

Dieses Problem hat schon mit der Natur von Windows zu tun je mehr du in der Hardware selbst misst, umso besser bei zu vielen Timern und niedrigem pooling wirds haarig mit Effizienz ;)
Eines der effizientesten Messungen die ich in Engine bis jetzt gesehen hab ist die von Frostbite, RTSS selbst hat viele Effizienz Probleme als hook selbe für den Limiter, deswegen sind die meisten Messungen innerhalb des Systems (vor allem Windows) auch oft für den Popo.

https://www.cs.unc.edu/~anderson/papers/ecrts18c.pdf

https://www.cs.unc.edu/~otternes/ECRTS_2020_AMD_GPU.pdf

FastAndy
2020-12-07, 19:08:14
Diese Problem hat schon mit der Natur von Windows zu tun je mehr du in der Hardware selbst mist umso besser bei zu vielen timern und niedrigem pooling wirds harig mit effizienz ;)

Eines der effizientesten messungen die ich in Engine bis jetzt gesehen hab ist die von Frostbite, RTSS selbst hat viele effizienz probleme als hook selbe für den Limiter

Bei deinen Beiträgen sitze ich meist so vorm Schirm: :confused:
Ich verstehe echt nur selten was du schreibst.

SKYNET
2020-12-07, 19:33:28
PCGH hat erste Performance-Eindrücke (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/preview-Cyberpunk-2077-1363044/) aus einer Vorabversion von Cyberpunk mit RTX 3090:


heisst in 1920*1200 muss ich für ultra mit meiner 1080Ti nichtmal krampfen das es spielbar bleibt(essei pascal kackt architekturbedingt total ab), weil selbst mit deutlich fetterer CPU ist ne stark übertaktete 2080S im schnitt nur 2% schneller in 1080p als mein baby :freak:

Lowkey
2020-12-07, 22:57:54
Gibt es nun einen Vergleich von Luft auf Wasser?

Schnoesel
2020-12-07, 23:26:42
https://i.postimg.cc/X7NhH4wL/55.png

Gegenüber dem alten großen Oschi ist die 3090 geradezu zierlich. Ich bin zwar mit der Kühlleistung sehr zufrieden aber was die Präzision angeht kann EKWB den deutschen Aquacomputer und Watercool nicht das Wasser reichen. Das merkt man eben beim Zusammenbau wenn die Schrauben nicht Millimeter genau passen. Nicht schlimm aber Fakt.

Musste heute 2x die Karte in den Loop verbasteln denn auf einmal war einer der Fittings an der Karte unbdicht und hat in meinen PC gesuppt. Jetzt kann der alte dicke in meinen HTPC :biggrin:

Raff
2020-12-07, 23:45:06
heisst in 1920*1200 muss ich für ultra mit meiner 1080Ti nichtmal krampfen das es spielbar bleibt(essei pascal kackt architekturbedingt total ab), weil selbst mit deutlich fetterer CPU ist ne stark übertaktete 2080S im schnitt nur 2% schneller in 1080p als mein baby :freak:

Du kannst davon ausgehen, dass Turing und erst recht Ampere ihre ALU-Vorteile hier ausspielen werden. Gerade beim Tray-Racing braucht's alles an Parallelität, das sich freischaufeln lässt. Allerdings hege ich (vorläufig berechtigte) Zweifel daran, dass das Spiel mit 8-GiByte-Grafikkarten vollumfänglich geil laufen kann ...

MfG
Raff

Lowkey
2020-12-07, 23:52:25
@Schnoesel

Na sieht doch nice aus. Was macht die Leistung? Gefühlt 100% schneller oder leicht weniger?

Schnoesel
2020-12-08, 00:04:21
Leicht weniger. Gibt einige Benches da ist sie tatsächlich fast doppelt so schnell, (z.B. Shadow of the Tombraider da gibts mal nen Sprung von avg. 68 FPS auf avg 130. FPS) aber im Schnitt würde ich von ca. 80% Mehrleistung ausgehen. Das reicht dicke, da mein Monitor eh nur 120FPS kann.

1080ti
https://i.postimg.cc/c4bcZSnd/1080ti.png

3090
https://i.postimg.cc/y83y8bmc/3090.png

Allerdings muss ich auch sagen, dass meine Lüfter in BFV nun 150 rpm mehr haben um die Wassertemperatur wie zuvor zu halten. Ist definitiv kein Kostverächter und das mit der Stockeinstellung@350Watt.

SKYNET
2020-12-08, 00:07:20
Du kannst davon ausgehen, dass Turing und erst recht Ampere ihre ALU-Vorteile hier ausspielen werden. Gerade beim Tray-Racing braucht's alles an Parallelität, das sich freischaufeln lässt. Allerdings hege ich (vorläufig berechtigte) Zweifel daran, dass das Spiel mit 8-GiByte-Grafikkarten vollumfänglich geil laufen kann ...

MfG
Raff


ja, mal sehen wie sich pascal da schlägt... aber ich denke bis CP im angebot ist bei steam or whatever, läuft eh die 6900XT im system... :freak:

dann kann die 1080Ti mit 70% powerlimit(das ding ist 100% silent und soll so bleiben) in schlafzimmerrechner und die RX580 in den ersatz PC und die GTX670 in rente... ;D

TheBrother
2020-12-08, 08:27:32
Habe am Samstag meine 3090 FE bekommen. Vorher hatte ich eine 1080ti@Wakü.
Da es aktuell von EK noch keinen Kühler für die 3090 FE gibt erstmal so eingebaut. Ich bin wirklich überrascht wie leise und kühl die Karte bleibt dass ich mir ernsthaft überlege nicht auf Wasser zu wechseln. Wirklich höhrbar wird die Karte nur bei RT-Titeln. Das ist der erste Kühler von Nvidia der den Namen eines Kühlers verdient ;)

Von der Performance ist es genau das was ich mir erwartet habe: 4K@60Hz-Gsync quasi überall

Lowkey
2020-12-08, 08:39:43
Faß mal die Backplate an und dann überlegst du dir den Pfannenaufsatz zu kaufen. Jeden Tag ein Spiegelei mit der 3090 hat was :)

Dr.Doom
2020-12-08, 08:50:57
Faß mal die Backplate an und dann überlegst du dir den Pfannenaufsatz zu kaufen. Jeden Tag ein Spiegelei mit der 3090 hat was :)
In den Igor-Videos zu den Speicher-Temperaturen von 3080FE ("Pad-Mod") und 3090FE ("geht doch") haben mich die ~96°C bei der 3090FE dennoch etwas die Augenbrauen hochziehen lassen.
Auf der Vorderseite der Karte so ein Monster-Kühler, aber auf der Rückseite -- es wirkt wie "huch, die haben wir vergessen mit in das Konzept einzubeziehen".

Was passiert denn im Sommer, wenn die Raumtemperatur ~10°C höher liegt?
Taktet sich der Speicher dann automatisch was runter oder wird der "einfach nur" heisser und die Propeller versuchen dies durch verstärktes Propellieren zu kompensieren?

Colin MacLaren
2020-12-08, 09:09:11
Habe am Samstag meine 3090 FE bekommen. Vorher hatte ich eine 1080ti@Wakü.
Da es aktuell von EK noch keinen Kühler für die 3090 FE gibt erstmal so eingebaut. Ich bin wirklich überrascht wie leise und kühl die Karte bleibt dass ich mir ernsthaft überlege nicht auf Wasser zu wechseln. Wirklich höhrbar wird die Karte nur bei RT-Titeln. Das ist der erste Kühler von Nvidia der den Namen eines Kühlers verdient ;)

Von der Performance ist es genau das was ich mir erwartet habe: 4K@60Hz-Gsync quasi überall

Ich habe die 3090 undervoltet, die läuft bei 0.825V und 1.815 MHz und zieht beim Zocken 330W, wird 75°C warm und dröhnt wie ein Föhn. Irgendetwas mache ich falsch.

Dschounz
2020-12-08, 11:13:05
Ich habe die 3090 undervoltet, die läuft bei 0.825V und 1.815 MHz und zieht beim Zocken 330W, wird 75°C warm und dröhnt wie ein Föhn. Irgendetwas mache ich falsch.


Da würde ich spontan auf die Gehäusebelüftung tippen; da der hintere Lüfter der Karte nach oben saugt, ist ein "Kamin"-System mit einem Lüfter von unten (Boden) und mehreren Lüftern im Deckel vielleicht die Lösung.

P.S.: Ich weiß ja nicht, wo du den AIO-Radiator hingepackt hast...wäre vielleicht in der Front gut aufgehoben.

P.P.S.: Die Karte soll bei 1800 MHz auch mit 806 mV laufen, vielleicht auch noch eine Option.

horn 12
2020-12-08, 21:45:51
DLSS muss es Richten bei CyberPunk
Da kann die Konkurrenz wirklich nicht mithalten
und schauen was im Dezember noch sooo geht!


https://videocardz.com/newz/nvidia-official-cyberpunk-2077-rtx-3090-and-rtx-3080-performance-leaks-out



Traurig so ein Game zu Releasen!

qiller
2020-12-09, 01:49:39
Habe am Samstag meine 3090 FE bekommen. Vorher hatte ich eine 1080ti@Wakü.
Da es aktuell von EK noch keinen Kühler für die 3090 FE gibt erstmal so eingebaut. Ich bin wirklich überrascht wie leise und kühl die Karte bleibt dass ich mir ernsthaft überlege nicht auf Wasser zu wechseln. Wirklich höhrbar wird die Karte nur bei RT-Titeln. Das ist der erste Kühler von Nvidia der den Namen eines Kühlers verdient ;)

Von der Performance ist es genau das was ich mir erwartet habe: 4K@60Hz-Gsync quasi überall

Ja meine ist auch gekommen, die Lüfter sind gut, das passt soweiten.
Aber das Spulenzirpen - also ne sry, nicht bei ner 1500€ Karte. Durch das gedämmte Gehäuse und durch meine Kopfhörer durch sind die Spulen unter Last mit riesigem Abstand das Lauteste im Rechner (Custom-Wakü mit Lüfter@500rpm, z.Z. nur für die CPU und SSDs only).

Bin gerade am überlegen ob ich nu bei nbb.de die Karte tauschen lasse oder besser Geld zurück und anderes Modell suchen. Was meint ihr? Zukünftig soll die Graka dann unter Wasser.

Daredevil
2020-12-09, 02:42:17
Du hast dir die Frage doch schon selbst beantwortet, wenn dich das zirpen stört, muss sie halt weg. Die Asus bzw. Ref wäre da eine bessere Wahl.

Dschounz
2020-12-09, 07:48:02
Ja meine ist auch gekommen, die Lüfter sind gut, das passt soweiten.
Aber das Spulenzirpen - also ne sry, nicht bei ner 1500€ Karte. Durch das gedämmte Gehäuse und durch meine Kopfhörer durch sind die Spulen unter Last mit riesigem Abstand das Lauteste im Rechner (Custom-Wakü mit Lüfter@500rpm, z.Z. nur für die CPU und SSDs only).

Bin gerade am überlegen ob ich nu bei nbb.de die Karte tauschen lasse oder besser Geld zurück und anderes Modell suchen. Was meint ihr? Zukünftig soll die Graka dann unter Wasser.

Meine 3090 FE von nbb ist auch angekommen; bei meinem Netzteil gleich undervolted (1800MHz/818mV) und mal durch die üblichen Benchmarks geschickt (z.B. Superposition 4K 16200 Punkte).

Verbrauch lt. Afterburner bei ca. 290-315W, keine Probleme; außer das von dir angesprochene Spulenrasseln. Spulenfiepen hab ich keins; oder meine Ohren sind mit meinen 48 Jahren schon zu schlecht :freak:.

Hab auch 20 Minuten Furmark/Prime durchlaufen lassen....das Netzteil hat auch das überlebt ohne Abschaltung. Hab aber zum erstem Mal den Netzteillüfter richtig rödeln hören, die Lebensdauer bei der Belastung wäre wohl nicht allzu lang.

Ist meine erste nV seit der Steinzeit (letzte war ne 4200ti von 2002 :eek:)...sehr beruhigend (oder unglaublich, je nach Auslegung), dass der Treiber immer noch so aussieht wie damals.
Ein paar Annehmlichkeiten des AMD Treibers fehlen mir aber; da könnte nV vielleicht nach 18 Jahren mal was machen :rolleyes:

Selbst G-Sync mit meinem nicht zertifizierten 34" Philips Monitor funzt einwandfrei ohne Probleme.

Bin zufrieden; mein Portemonnaie allerdings weniger ;D


P.S. @qiller Das Spulenrasseln wird drastisch leiser durch Undervolting, die Karte wird auch, außer beim Furmark, nie wärmer als 62 Grad.

Cherubim
2020-12-09, 08:01:03
...sehr beruhigend (oder unglaublich, je nach Auslegung), dass der Treiber immer noch so aussieht wie damals.

ja, sehe ich auch so ;D
Sogar die 7900GS im HDCP Fenster ist noch da :cool:

akuji13
2020-12-09, 09:27:17
Wenn ich das so lese habe ich wohl doch Glück gehabt mit meiner Ventus.

Ja, der Kühler ist nicht optimal, aber die Karte läuft seit Wochen leise & stabil mit 1800Mhz@0.793 (ohne zu behaupten das das final rockstable ist).
Die Spulen machen keinerlei Lärm, auch nicht @stock oder mit OC.

Der Wasserkühler ist inzwischen auch unterwegs, bin gespannt ob sich die Wassertemperaturen nach oben ändern.
Glaube ich allerdings eher nicht, die paar Watt mehr (3090@UV vs. 1080 Ti@OC) , müssten so ~30 sein, werden wohl nicht auffallen.

woodsdog
2020-12-09, 10:47:31
Sagt ausgerechnet der, der wegen 10-30W möglicher Differenz bei einer Highend-GPU einen auf sterbenden Schwan macht. :freak:
Du siehst, welches Spiel wie viel heizt. Willst du einen Fetisch draus machen?

Moving the goalposts much?
Erst soll der Vergleich ja so simpel sein aber wenn man dir dann sagt das das alles nur sehr eingeschränkt geht weil <Gründe> ists plötzlich egal obs im fast zweistelligen Prozentbereich schwankt. Vergleichbarkeit wäre schon praktisch, ist aber nur wichtig wenn es Mr lolkrawall relevant erscheint.

schreibsel deine clownposts wo anders.

qiller
2020-12-09, 10:52:59
Du hast dir die Frage doch schon selbst beantwortet, wenn dich das zirpen stört, muss sie halt weg. Die Asus bzw. Ref wäre da eine bessere Wahl.
Also haben alle 3090FEs dieses heftige Spulenzirpen?

Meine 3090 FE von nbb ist auch angekommen; bei meinem Netzteil gleich undervolted (1800MHz/818mV) und mal durch die üblichen Benchmarks geschickt (z.B. Superposition 4K 16200 Punkte).

Verbrauch lt. Afterburner bei ca. 290-315W, keine Probleme; außer das von dir angesprochene Spulenrasseln. Spulenfiepen hab ich keins; oder meine Ohren sind mit meinen 48 Jahren schon zu schlecht :freak:.

Hab auch 20 Minuten Furmark/Prime durchlaufen lassen....das Netzteil hat auch das überlebt ohne Abschaltung. Hab aber zum erstem Mal den Netzteillüfter richtig rödeln hören, die Lebensdauer bei der Belastung wäre wohl nicht allzu lang.

Ist meine erste nV seit der Steinzeit (letzte war ne TNT 1999 :eek:)...sehr beruhigend (oder unglaublich, je nach Auslegung), dass der Treiber immer noch so aussieht wie damals.
Ein paar Annehmlichkeiten des AMD Treibers fehlen mir aber; da könnte nV vielleicht nach 21 Jahren mal was machen :rolleyes:

Selbst G-Sync mit meinem nicht zertifizierten 34" Philips Monitor funzt einwandfrei ohne Probleme.

Bin zufrieden; mein Portemonnaie allerdings weniger ;D

P.S. @qiller Das Spulenrasseln wird drastisch leiser durch Undervolting, die Karte wird auch, außer beim Furmark, nie wärmer als 62 Grad.
Also mein 750W Netzteil hat auch keine Probleme mit Volllast, aber der PCIe-Gen4-Betrieb ist bei mir instabil (habs z.Z. auf Gen3 fixiert). Werde heute Abend mal noch ein anderes BIOS draufhaun und gegentesten.

Aber die Spulengeräusche (egal ob das jetzt rasseln, fiepen oder "zwitschern" ist) sind für mich nicht tragbar, schon gar nicht bei ner 1500€ Karte. Und ich hab eigt. auch kein wirklich gutes Gehör. Meine alte 980Ti von Zotac war ebenfalls eine 320W Karte und die hatte zwar auch Spulengeräusche, aber die waren durch die Dämmung und dem geschlossenen Gehäuse kaum hörbar. Bis zu einer gewissen Lautstärke geh ich ja mit, aber die hat auch Grenzen :x.

Ansonsten sollten die Spulen bei ner 340W-1500€-Karte evt. auch selektiert/vorgetestet werden (Spulen-Binning :freak:)?

BlacKi
2020-12-09, 11:03:49
Also haben alle 3090FEs dieses heftige Spulenzirpen?


Also mein 750W Netzteil hat auch keine Probleme mit Volllast, aber der PCIe-Gen4-Betrieb ist bei mir instabil (habs z.Z. auf Gen3 fixiert). Werde heute Abend mal noch ein anderes BIOS draufhaun und gegentesten.

Aber die Spulengeräusche (egal ob das jetzt rasseln, fiepen oder "zwitschern" ist) sind für mich nicht tragbar, schon gar nicht bei ner 1500€ Karte. Und ich hab eigt. auch kein wirklich gutes Gehör. Meine alte 980Ti von Zotac war ebenfalls eine 320W Karte und die hatte zwar auch Spulengeräusche, aber die waren durch die Dämmung und dem geschlossenen Gehäuse kaum hörbar. Bis zu einer gewissen Lautstärke geh ich ja mit, aber die hat auch Grenzen :x.

Ansonsten sollten die Spulen bei ner 340W-1500€-Karte evt. auch selektiert/vorgetestet werden (Spulen-Binning :freak:)?


das haben die anderen ja schon angemerkt. bei turri haben alle unterschiedlich gezirpt, und lowkey meinte das selbst die teuersten modelle keine garantierte qualität beim spulen fiepen haben.


das spulen binning war schon vor der 3090 "a thing".


unter luft merke ich das zirpen beim start des spiels, aber wenn die karte und die spulen auf temperatur sind, dann hört man garkein zirpen mehr. eine 500rpm wakü war noch nie so schwer leise zu bekommen denke ich.

Lowkey
2020-12-09, 11:13:54
Jedes Spiel produziert unterschiedliche Geräuschkulissen. Wolcen ist bei 60-100fps schon ein guter Test fürs Spulenfiepen.

Die Idee wäre die Kurve auszuloten und -100mhz runtergehen. Und dann den Speicher hochsetzen, der dann die Lücke füllt.

Seit einer Woche sind die Keys für CoD und FC6 aus, aber sie werben immer noch damit.

Daredevil
2020-12-09, 11:34:08
Bei mir sieht sie zirp Skala so aus, 1 ist schlecht, 10 gut
Zotac 3090 - 1
3090 FE - 2
3090 FE - 4
Palit 3090 - 6
Asus 3080 - 8

Es kann sein, dass das Zirpen der FE am ehesten auffällt, da die Karten halt sehr leise sind. Aber es ist definitiv das lauteste und störendste im System ich ich würde aufgrund der Erfahrungen von anderen auch sagen, Turri meint es ja auch, dass eine Ref dort generell bessere Ergebnisse erzielt. Aber Lotto ist es am Ende immer.

BlacKi
2020-12-09, 11:34:33
Seit einer Woche sind die Keys für CoD und FC6 aus, aber sie werben immer noch damit.
das ist doch schon betrug, oder?

Dschounz
2020-12-09, 11:37:11
Also mein 750W Netzteil hat auch keine Probleme mit Volllast, aber der PCIe-Gen4-Betrieb ist bei mir instabil (habs z.Z. auf Gen3 fixiert). Werde heute Abend mal noch ein anderes BIOS draufhaun und gegentesten.

Bei 750W hätte ich mich auch gewundert...meins hat ja schmale 530W und ist schon 6 Jahre alt :freak:, da hatte ich schon meine Zweifel ob`s nicht klack (oder peng :wink:) macht.

RoughNeck
2020-12-09, 12:09:53
Meine MSI 3090 Suprim X hat 0 fiepen.
Erst wenn die FPS Richtung 1000 gehen, fängt die an leise zu fiepen.

MiamiNice
2020-12-09, 12:25:10
Ihr habt Luxusprobleme :biggrin:

Schnoesel
2020-12-09, 12:33:47
Meine zirbt auch leicht und stärker je mehr Watt man durch die Karte jagt. Ingesamt aber zum Glück unauffällig.
Allerdings habe ich gerade ein Problem mit Gsync bei CIV VI. Bei einer Standarkartengröße wenn alles aufgedeckt ist im Lategame zerreißt es mir das Bild beim Scrollen (obwohl es kein klassisches reißen ist mit einerm harten cut es sieht eher aus wie eine Welle), wenn ich komplett rausgezoomed habe, obwohl ich die FPS auf etwas unter 120FPS gecapt habe, damit ich in Gsync Range bin. Wäre mir jetzt vorher mit der 1080ti nicht aufgefallen und weiß nicht woran es liegen könnte. AndereSpiele (BfV oder Anno 1800) haben das bislang nicht.

TurricanM3
2020-12-09, 12:45:16
bei turri haben alle unterschiedlich gezirp

Nein, das ist so nicht richtig. Man kann schon bei Kauf viel falsch machen. In Foren steht diesbezüglich viel Unsinn. Ich hab aktuell aber wenig Lust da wieder drauf einzugehen, der nächste User weiß es sowieso wieder besser.

x5
2020-12-09, 12:52:42
Also meine zirpt nicht.Oder ich hör sowas nicht.

Lowkey
2020-12-09, 13:01:10
Es gibt dieses Knistern, was jede Karte macht. Und dieses Heulen, was mit der Auslastung und Wärme zusammenhängt. Geräusche macht jede Karte, aber nicht jeder Mensch hört das Pfeifen, gerade mit Luftbetrieb im geschlossenen Gehäuse. Mein lautestes Teil ist der Lüfter im Monitor (nicht mehr lange), aber das Zirpen hört man dennoch.


das ist doch schon betrug, oder?


Nur solange der Vorrat reicht, der in Kontingenten kommt.

Dr.Doom
2020-12-09, 13:26:04
Im Test von PCGH ( https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/4/ ) steht, dass die Karte teils etwas grosszügig aus dem PCI-E-Slot saugt, im Schnitt (ohne OC) innerhalb der Toleranz, aber doch mit regelmässigen Peaks darüber.

Wenn man nun mit dem Afterburner etc. UV betreibt oder das Powerlimit senkt -- reduziert sich dann die Last/der Verbrauch gleichmässig auf PCI-E-Slot und dem 12-Pin-Stecker?

Hab' eine 3090FE zuhause liegen -- aber irgendwie kann ich mich nciht dazu durchringen, die Packung aufzureissen... *g* Kam gestern an, aber wurde wohl in einem Kühl-LKW oder offen auf der Ladefläche transportiert, Eisblock, evtl. heute aufgetaut.


Hat vielleicht jemand hierzu noch eine Meinung/Erklärung: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12526739&postcount=1344

Lowkey
2020-12-09, 13:36:34
Die FE ist zum aktuellen Kurs noch das Schnäppchen unter den 3090 und daher kannst du die Verpackung öffnen und die Karte testen. Man läßt den OC Scanner laufen und dann Superpositon mit den speziellen Auslastungseinstellungen. Dann kann kann man sagen ob die Karte gut ist oder nicht. Spulenfiepen hört man selber heraus.

Ex3cut3r
2020-12-09, 13:38:17
Ein guter Freund hat sich eine 3090 MSI SUPRIM per Ratenzahlung geholt, auf die Frage warum? Sagte er, weil die 3080 jedes mal weg ist, während er noch das Antragsformular ausfüllt. ;D ;D

Er muss jetzt jeden Monat 50€ für 40 Monate zahlen. Na dann. ^^

Das ist ja schlimmer als bei nem iPhone.

Dr.Doom
2020-12-09, 13:48:10
Die FE ist zum aktuellen Kurs noch das Schnäppchen unter den 3090 und daher kannst du die Verpackung öffnen und die Karte testen. Man läßt den OC Scanner laufen und dann Superpositon mit den speziellen Auslastungseinstellungen. Dann kann kann man sagen ob die Karte gut ist oder nicht. Spulenfiepen hört man selber heraus.Ich meinte es eher grundlegend/konzeptionell und weniger (m)ein konkretes Exemplar.

Mir macht weniger der Preis Sorgen, als die (anscheinend?) auf Kante genähte Versorgung über den PCE-E-Slot; keine Lust, dass mir der Ziegel die Bude abfackelt, weil der Slot explodiert (salopp) oder das Mainboard das Handtuch wirft.

Daredevil
2020-12-09, 13:48:14
Man läßt den OC Scanner laufen und dann Superpositon mit den speziellen Auslastungseinstellungen. Dann kann kann man sagen ob die Karte gut ist oder nicht. Spulenfiepen hört man selber heraus.
Geht das mittlerweile? Bei mir nämlich nicht. ^^
https://abload.de/img/unbenannt12k81.png

Edit: Oh okay, vergisses. Ich hab mal wieder gefailed. :D
Es gibt ein Update, welches ich nicht habe. Habe mich auf den "Update" Button verlassen, der nichts angezeigt hat.

Ex3cut3r
2020-12-09, 13:52:01
Hast du die aktuelle Beta Version?

MSI Afterburner 4.6.3 beta 4 build

https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-138#post-5855714

Wuge
2020-12-09, 14:05:39
Man läßt den OC Scanner laufen und dann Superpositon mit den speziellen Auslastungseinstellungen. Dann kann kann man sagen ob die Karte gut ist oder nicht. Spulenfiepen hört man selber heraus.

Was muss denn da raus kommen, damit die Karte eine mittlere / bessere ist?

Lowkey
2020-12-09, 14:12:34
@Dr.Doom

Die Leute mit Shuntmod haben 150w über den Slot am Laufen. Ich habe damals schon die 600/700er Karten von 35w/12v auf 75w/12v freigeschaltet (Biosmod) und nach heutigem Stand hätte ich auch 100w für den Slot laufen lassen können. Nur damals war man vorsichtiger und unwissender. Dasselbe macht ja Nvidia mit der FE und dem 12pin Stecker auch indem die Karte per Bios mehr als 150w per 8Pin ziehen darf. Neuste Netzteile sind da sehr tolerant (liegt eher am Vega64 Problem).

Dr.Doom
2020-12-09, 14:16:58
@Dr.Doom

Die Leute mit Shuntmod haben 150w über den Slot am Laufen. Ich habe damals schon die 600/700er Karten von 35w/12v auf 75w/12v freigeschaltet (Biosmod) und nach heutigem Stand hätte ich auch 100w für den Slot laufen lassen können. Nur damals war man vorsichtiger und unwissender. Dasselbe macht ja Nvidia mit der FE und dem 12pin Stecker auch indem die Karte per Bios mehr als 150w per 8Pin ziehen darf. Neuste Netzteile sind da sehr tolerant (liegt eher am Vega64 Problem).Machen das auch Boards mit, die nicht eine Preislage in der Nähe moderner Grafikkarten haben?
Ich hab' da halt keine Ahnung von -- aber zwischen GraKa und PSU sitzt halt noch das Mainboard... wenn über den Slot die "Ampere-Wogen" schwappen (s.u.), ist dann das Mainboard daran vollkommen unbeteiligt?

Aus dem PCGH-Artikel
"Wer mithilfe des maximalen Powerlimits alles aus der RTX 3090 presst, stellt noch deutlich höhere Anforderungen den Stromspender. Die Spitzen klettern auf bis zu 15,5 Ampere (180 Watt) am ersten Strang. Regelrecht bedenklich ist, was am PEG-Slot des Mainboards passiert: Aus durchschnittlich 64 Watt (ohne OC) werden 73 Watt, was bereits über dem PCI-E-Sollwert von 66 Watt liegt, und mehr oder minder regelmäßige Spitzen schießen deutlich über 80 Watt hinaus. Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben. Dabei sinkt zwar kaum die Leistungsaufnahme, dafür taktet die GPU jedoch dauerhaft höher und die Ampere-Wogen glätten sich."

Klar, ich habe gar nciht vor irgendwas mit OC zu veranstalten, aber irgendwie macht das Ganze ein flaues Gefühl in der Magengegend. *g*

Kriegsgeier
2020-12-09, 14:39:12
Extrem zufrieden mit meiner 3090 ohne jegliche Übertaktung oder Undervolting

PS: da muss man wirklich Eier haben um eine RTX 3090 FE an dem 9.12 nicht aufzumachen!

Respekt du bist wirklich standhaft!

x5
2020-12-09, 15:19:56
Ich werd wohl noch das Anidees Gehäuse.austauschen müssen.Der Ziegel stößt fast am unteren Frontlüfter an.

Kann man eigentlich dei Beleuchtung vom Schriftzug und der Kante oben ausschalten oder anpassen?

Schnoesel
2020-12-09, 15:48:27
Geht das mittlerweile? Bei mir nämlich nicht. ^^
https://abload.de/img/unbenannt12k81.png

Edit: Oh okay, vergisses. Ich hab mal wieder gefailed. :D
Es gibt ein Update, welches ich nicht habe. Habe mich auf den "Update" Button verlassen, der nichts angezeigt hat.

Bei mir gibt er zuerst den Fehler an und dann nachdem ich revert gedrückt habe und nochmal scan läuft er normal durch. Die Ergebnisse wie erwartet allerdings ernüchternd. Ohne Erhöhung des PL +75 Core und 200 Mhz Speichertakt, mit Erhöhung des PT bin ich bei + 84 Mhz Core und 200 Mhz Speichertakt.

Also ich werde wenn überhaupt das leichte OC ohne PL Erhöhung mitnehmen, aber das ist so minimal da kann man auch drauf verzichten. Mir reicht auch schon die Abwärme bei konstant 350Watt. Ich musste die Lüfter der Wakü tatsächlich höher stellen um die Wassertemperatur zu halten. Und es ist Winter ... Ich hoffe das wird nicht noch weiter ausgereizt. Unter Luft würde ich diese Karte nicht betreiben wollen.

BigKid
2020-12-09, 16:55:29
Referenzwerte mit Referenzkarten (reine Graphics Scores): 3DMark-Rangliste 2020: Geforce- und Radeon-Grafikkarten im Benchmark - und wie schnell ist Ihre? (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/)

MfG
Raff
Nachdem du die Frage stellst indem du den Artikel zitierst:
Timespy: 20 518 Graphics Score out of the box und an einem 650 Watt Netzteil...

Palit Blingrock (Gamerock) OC 3090
Spart auch Strom weil man kann das Licht ausschalten :freak:

EDIT1: Speicher +1000Mhz, PT+11% (mehr geht nicht) -> 20 799 GS
EDIT2: Speicher +0Mhz, PT+11% -> 20 833 GS
EDIT4: SILENT Bios - Speicher +0Mhz, PT+11% -> 20 402 GS

EDIT3: Mal noch ein paar Eindrücke zu der Karte:
- Gut verarbeitet
- MASSIV
- Bling ist gewaltig wenn man sie Seitwärts einbauen würde, bei normaler Montage hat man neben dem Schriftzug ne Unterbodenbeleuchtung die mich jetzt nicht weiter stört - man muss vielleicht öfter abstauben...
- Man kann die LED Beleuchtung der Karte mit dem beigelegten Kabel vom Motherboard aus ansteuern lassen - zum Umschalten auf die Steuerung von außen muss man aber den Tundermaster installieren... Übrigens noch ein Wort zu dem: Er ist mit 8MB (!) das schlankste Tool dass mir indem Zusammenhang seit langem unter gekommen ist - ich finde das einen Schritt in die richtige Richtung - cooler wäre es wenn man das noch ganz ohne Tool umschalten könnte...
EDIT5: Leider braucht es Thundermaster - bis der nicht geladen ist, ist nichts mit Synch der Beleuchtung zum Mobo - Schade
- Den Umschalter für das Bios haben sie maximal gut versteckt... Er ist winzig und wenn man die Karte im Slot stecken hat ist er in einer Kerbe auf der Backplate ganz links (also Richtung Slotblende) und zu einem hin (also nahe der Kante an der die Stromstecker sind). Und im Handbuch (hahahahahaha Handbuch...) steht dazu mal genau nix... Das gibt Abzug in der B-Note...
- Zur Lautstärke will ich noch nix sagen weil ich den Umschalter für das Silent Bios erst jetzt gefunden habe... Aber ich sags mal so: Wenn man mit dem maximalen PT und dem Speed-Bios (und ganz ohne Fine-Tuning) unterwegs ist dann fühlt man sich in 3DMark sehr schnell an die Trinity erinnert - wobei man Fairerweise sagen muss, dass die Palit dann auch fast 100 Watt mehr kühlen muss...

qiller
2020-12-09, 20:42:33
3090FE Spulengeräusche:
https://nextcloud.new-lan.de/index.php/s/7RbayoLWG2dSZXL

Ist leider sehr leise die Aufnahme (Handymicro halt :x). Ihr müsst die Lautstärke soweit aufdrehen, bis ihr das Lüfterrauschen hört, dann habt ihr in etwa einen Lautstärkevergleich. Ein Video ist während des SOTTR-Benchmarks, das andere während der Nvidia Asteroids Demo. Entfernung Micro in etwas da wo ich auch neben dem Rechner sitze.

Mittlerweile konnte ich noch ein anderes UEFI testen, das 31k für mein GB X570 Aorus Xtreme Rev1.0 und da ist genau das gleiche Problem mit PCIe-Gen4 (Ruckeln auf dem Desktop, 15fps in Superposition, Bildaussetzer/-Flackern und nach längerer Zeit BSOD, siehe Anhang). Mittlerweile ist noch ein Problem hinzugekommen: Wenn ich meinen 2. Monitor anschließe (über einen aktiven DP-DVI-Adapter, was aber mit der alten MSI GTX1660 probemlos funktionierte), gibt es rhythmisch, so alle 5sek ein schwarzes, eher langsameres "Flackern" über beide Bildschirme hinweg, vertikal deckt das "Flackern" aber nur ca 1/4 der Bildschirmhöhe beider Bildschirme ab. Hab ich noch nie gesehen sowas :F. Klemm ich den 2. Bildschirm ab, ist alles wieder paletti.

Was meint ihr? Graka defekt? Bis morgen wollte ich mit meiner Entscheidung noch warten, damit ich alle Eventualitäten ausgeschlossen habe und dann geht sie wohl Freitag zurück, außer es kommt hier irgendnen entscheidender Hinweis :F.

Edit: Achso ja, Netzteil ist ein bequiet Dark Power 12 750W in der Single-Rail Konfiguration.

Lowkey
2020-12-09, 21:21:14
Mit Seasonic 650 oder 1000er war das Spulenfiepen nicht so stark wie bei dir, aber wahrnehmbar.



Ich meinte es eher grundlegend/konzeptionell und weniger (m)ein konkretes Exemplar.

Mir macht weniger der Preis Sorgen, als die (anscheinend?) auf Kante genähte Versorgung über den PCE-E-Slot; keine Lust, dass mir der Ziegel die Bude abfackelt, weil der Slot explodiert (salopp) oder das Mainboard das Handtuch wirft.

Wenn dein Netzteil die Karte packt, dann ist es für das Mainboard kein Problem. Vermutlich wird die Last intelligent auf PCi-E Slot und Stecker verteilt.


Was muss denn da raus kommen, damit die Karte eine mittlere / bessere ist?

Der Thread ist dafür erste Wahl. 3700 mit OC sollte drin sein für ne gute Karte.

https://www.hardwareluxx.de/community/threads/offizieller-nvidia-rtx-3090-overclocking-und-modding-thread.1277791/

Daredevil
2020-12-10, 00:39:03
Hier meine bei RDR2 ^^
Ab 50 sek gehts los. Aber halt MaxPT und 1920mhz Fix.
tS97SFRyCdE

Armaq
2020-12-10, 00:56:07
Nachdem du die Frage stellst indem du den Artikel zitierst:
Timespy: 20 518 Graphics Score out of the box und an einem 650 Watt Netzteil...

Palit Blingrock (Gamerock) OC 3090
Spart auch Strom weil man kann das Licht ausschalten :freak:

EDIT1: Speicher +1000Mhz, PT+11% (mehr geht nicht) -> 20 799 GS
EDIT2: Speicher +0Mhz, PT+11% -> 20 833 GS
EDIT4: SILENT Bios - Speicher +0Mhz, PT+11% -> 20 402 GS

EDIT3: Mal noch ein paar Eindrücke zu der Karte:
- Gut verarbeitet
- MASSIV
- Bling ist gewaltig wenn man sie Seitwärts einbauen würde, bei normaler Montage hat man neben dem Schriftzug ne Unterbodenbeleuchtung die mich jetzt nicht weiter stört - man muss vielleicht öfter abstauben...
- Man kann die LED Beleuchtung der Karte mit dem beigelegten Kabel vom Motherboard aus ansteuern lassen - zum Umschalten auf die Steuerung von außen muss man aber den Tundermaster installieren... Übrigens noch ein Wort zu dem: Er ist mit 8MB (!) das schlankste Tool dass mir indem Zusammenhang seit langem unter gekommen ist - ich finde das einen Schritt in die richtige Richtung - cooler wäre es wenn man das noch ganz ohne Tool umschalten könnte...
EDIT5: Leider braucht es Thundermaster - bis der nicht geladen ist, ist nichts mit Synch der Beleuchtung zum Mobo - Schade
- Den Umschalter für das Bios haben sie maximal gut versteckt... Er ist winzig und wenn man die Karte im Slot stecken hat ist er in einer Kerbe auf der Backplate ganz links (also Richtung Slotblende) und zu einem hin (also nahe der Kante an der die Stromstecker sind). Und im Handbuch (hahahahahaha Handbuch...) steht dazu mal genau nix... Das gibt Abzug in der B-Note...
- Zur Lautstärke will ich noch nix sagen weil ich den Umschalter für das Silent Bios erst jetzt gefunden habe... Aber ich sags mal so: Wenn man mit dem maximalen PT und dem Speed-Bios (und ganz ohne Fine-Tuning) unterwegs ist dann fühlt man sich in 3DMark sehr schnell an die Trinity erinnert - wobei man Fairerweise sagen muss, dass die Palit dann auch fast 100 Watt mehr kühlen muss...
Die 1080 Gamerock war eine der besten Karten die ich je hatte und das Tool stürzt nicht ab und zickt nicht rum.

BlacKi
2020-12-10, 02:52:45
CP2077 geht recht sparsam mit dem PT um, kaum über 300w von 400w PT. ich muss nochmal ein UV preset für CP anlegen.

-/\-CruNcher-/\-
2020-12-10, 05:00:28
Die 1080 Gamerock war eine der besten Karten die ich je hatte und das Tool stürzt nicht ab und zickt nicht rum.

Sie läuft und läuft und läuft und läuft

Für 550 muss man die Karte erstmal schlagen denke mal Nvidia hat die auch als Referenz für die 3080 später genommen (das brauchen wir minimum) ;)

Aber das meiste ist und bleibt das strikte Nvidia QM/QA

BigKid
2020-12-10, 08:35:22
Die 1080 Gamerock war eine der besten Karten die ich je hatte und das Tool stürzt nicht ab und zickt nicht rum.
Ich geb mir gerade echt Mühe die Karte zu mögen. Ich glaube sie hat nen recht guten Chip... Ich lasse gerade den OC Scanner laufen und guck mal was dann in SuperPos rauskommt...
Was mir nicht so recht passen will ist die Lautstärke. Ich bin da recht pingelig und was das Ding unter Last (Timespy) abzieht ist (mir) selbst mit dem Silent Bios einfach zuviel... Aber noch bin ich am schauen ob sich ein Sweetspot für mich finden lässt... Ich habe noch eine MSI Trio da die ich eigentlich ungeöffnet weitergeben wollte aber in dem Fall werde ich mir die auf jeden Fall noch anhören...

EDIT: Ich hatte die MSI kurz drinn... leider scheint der Chip spürbar schlechter zu sein als der der Gamerock. Ausserdem kann mann nicht wirklich sagen, dass die MSI Trio unter Vollast fühlbar leiser ist als die Gamerock.

Ich stelle mal folgende Thesen in den Raum:
- Bei der 3090 ist weniger die Frage wie schnell man sie haben will sondern wie laut man ertragen will - das maximale PT ist fast schon Sekundär (siehe dazu unten)
Wer es einigermassen leise haben will:
- sollte nach einer Karte mit einem mächtigen Kühler Ausschau halten - meiner Meinung nach hilft es auch wenn der hintere Lüfter "durchblasen" kann wie es bei der FE auch ist. Dies ist zB. bei der Asus TUF so, bei der Palit Gamerock und bei der MSI Trio ist es NICHT so.
- sollte nach einem Chip Ausschau halten, der bei 0.750, 0.800 oder 0.850V schon hohe Frequenzen packt - dass ein Chip bei höheren Spannung vielleicht >2000Mhz macht ist shitegal - das geht auf keinen Fall mehr leise unter Luft... Spannender ist ein Chip der zB bei 0,8V schon 1800Mhz oder mehr macht.
- dann hämmert man sich mit Afterburner ne Kurve zusammen, die ab dem Punkt flach ist bzw. testet das mit dem BoostLock mal schnell aus: Man startet verschiedene Lasttests - TimeSpy oder Superposition zB und schaut mal ob die Karte da für einen unter "erträglich" läuft - in Spielen kann man dann davon ausgehen, dass es hier dann (noch etwas) leiser ist
- Jetzt kommt das PT doch nochmal ins Spiel: Mein Bauchgefühl nach 1-2 Tagen Erfahrung sagt mir: Man kann wenn das Ziel ist "maximale Leistung bei maximal Leise" den Rest ins Mem-OC stecken - so lange bis es anfängt einen unter die Ziel-Booststufe zu drücken... Die Hitze der Rams wirkt sich nicht direkt auf die Hitze der GPU aus und die Lüfter können daher trotz höherem Gesammt-Target etwas zurückhaltender agieren
- Zuletzt kann man seine Lüfterkurve mit AB noch anpassen - da sollte man dann aber aufpassen, dass man das RAM nicht bei seinen Überlegungen vergisst...

So läuft meine Gamerock aktuell mit 1825Mhz bei 0,8V mit +1000 Ram bei maximalem PT und bleibt zB unter WoW (mit RTX Schatten etc.) leise und unter Timespy und Superposition leise bis sehr gut erträglich. Das kann man ohne angepasste Kurve/Boostlock nicht erreichen... Weder mit der TUF noch mit der Gamerock und auch nicht mit der Trio. Und die Tester die den Karten irgendwas von Leise unter Last attestieren gehören alle mal zum Ohrenarzt...

Was meint ihr ? Oder soll ich das mal in einen eigenen Fred packen ?

EDIT: Ich war doof ... das Laute waren nicht die Grafikkarten - das war mein Netzteil das ins schnaufen kam... Da wäre ich glaube ohne Viper Zx nicht so schnell drauf gekommen - Danke nochmal

Lawmachine79
2020-12-10, 11:39:14
Wenn man OC Scan hat laufen lassen, ist Superposition der beste Stabitest, richtig? Welchen Modus mit welchen Settings testet ihr? Was passiert, wenn instabil?

Daredevil
2020-12-10, 12:38:55
Also bei mir ist OC Scan zwar funktional, die Resultate aber immer noch kaputt ^^
Superpos 8K und 4K bieten sich an, 8K weil es das PL reißt und 4K, weil viel Last bei viel FPS anliegen. ( Für eine 3090 )
Ansonsten einfach zocken und gucken obs probleme gibt bzw. wenn Benchmarks durchlaufen, einfach ein wenig mehr Saft geben.
Mein schnellstes Setting ist aktuell 1920@893mv, der Takt wird zu 90% Bombenmäßig gehalten und der Verbrauch ist weit weg vom Limit, so das man auch noch ein wenig SpeicherOC einwerfen könnte. SpeicherOC killt aber im schlechtesten Fall den Takt, weil der massiv säuft. ^^

PS: Superpos 8K zieht bei mir ca. 40w mehr als der 4k, da gehts ins 400w PL

Lawmachine79
2020-12-10, 12:57:54
Also bei mir ist OC Scan zwar funktional, die Resultate aber immer noch kaputt ^^
Superpos 8K und 4K bieten sich an, 8K weil es das PL reißt und 4K, weil viel Last bei viel FPS anliegen. ( Für eine 3090 )
Ansonsten einfach zocken und gucken obs probleme gibt bzw. wenn Benchmarks durchlaufen, einfach ein wenig mehr Saft geben.
Mein schnellstes Setting ist aktuell 1920@893mv, der Takt wird zu 90% Bombenmäßig gehalten und der Verbrauch ist weit weg vom Limit, so das man auch noch ein wenig SpeicherOC einwerfen könnte. SpeicherOC killt aber im schlechtesten Fall den Takt, weil der massiv säuft. ^^

PS: Superpos 8K zieht bei mir ca. 40w mehr als der 4k, da gehts ins 400w PL
Naja, was soll Speicher-OC bringen. Wenn die Karte eins nicht hat, dann ein Bandbreitenproblem ;).

Daredevil
2020-12-10, 12:59:43
Wohl wahr. :)
In manchen Situationen könnte es auch Sinn machen, den Speicher zu untertakten, damit man PL /Temperatur für den Core freischaufelt.

Funfact, wie sehr RT Power will. ^^
WoW Shadowlands 4K Max, mitten in Oribos :

Deaktiviert: 112fps@223w
Mittel: 100fps@226w
Gut: 96fps@260w
Hoch: 95fps@360w

Offensichtlich im CPU Limit, aber trotz fast identischer FPS 140w mehr Power.

qiller
2020-12-10, 13:23:24
Hier meine bei RDR2 ^^
Ab 50 sek gehts los. Aber halt MaxPT und 1920mhz Fix.
https://youtu.be/tS97SFRyCdE
Danke dir! Fast eine ähnliche Lautstärke wie bei mir. Also mir ist das definitiv zu laut. Bei mir kommt auch ab ~1300rpm auch noch so ein Brummen vom rechten Lüfter zur Geräuschkulisse hinzu. Gut würde mich nicht so sehr stören, da die Karte eh irgendwann auf Wasser gehen sollte. Aber wenn die Karte durch die Wakü kühler bleibt, werden die Spulengeräusche noch lauter :x.

Werde heute abend mal noch PCIe-Gen4 mit dem F30 BIOS von GB testen. Die F31 BIOSe sind bei GB alle noch Beta, evt. liegts auch daran, dass die Karte mit PCIe-Gen4 so rumspinnt.

Edit: Deine Karte wird aber auch deutlich leiser, wenn sie länger läuft und sich aufgewärmt hat.

Locutus2002
2020-12-10, 13:28:40
Hallo Leute,

Im Geschäft nebenan gibt es eine verfügbare RTX 3090 für 1699€, allerdings sagt mir der Hersteller nix: Manli. Kennt jemand den Hersteller und/oder das Kartenmodell? Taugt die was?

Daredevil
2020-12-10, 13:33:10
Warum keine FE für 1499€ von NBB?

Locutus2002
2020-12-10, 13:34:22
Warum keine FE für 1499€ von NBB?
Ich sehe da keine. Hast du nen Link?

Dr.Doom
2020-12-10, 13:41:53
Hallo Leute,

Im Geschäft nebenan gibt es eine verfügbare RTX 3090 für 1699€, allerdings sagt mir der Hersteller nix: Manli. Kennt jemand den Hersteller und/oder das Kartenmodell? Taugt die was?Manli gehört, wie z.B. Zotac, zum "asiatischen Riesen" PC Partner.

Locutus2002
2020-12-10, 13:43:39
Manli gehört, wie z.B. Zotac, zum "asiatischen Riesen" PC Partner.
Interessant, aber was bedeutet das in Puncto Qualität? Und wie sieht es mit der Leistung dieses speziellen Modells aus, z.B. im Vergleich mit der FE?

Ben Carter
2020-12-10, 13:46:27
Ich kann dir mit der Manli nicht weiterhelfen, aber wenn es quasi gleich wie Zotac ist, dann schau mal in Österreich:
https://geizhals.at/zotac-gaming-geforce-rtx-3090-trinity-zt-a30900d-10p-a2363488.html?v=l&hloc=at
EDIT: ist wohl mehr oder weniger eine Verarsche, wenn man auf den 1550€ Link klickt, kommt kein 1550€ Angebot.

Wuge
2020-12-10, 13:46:30
Wenn man OC Scan hat laufen lassen, ist Superposition der beste Stabitest, richtig? Welchen Modus mit welchen Settings testet ihr? Was passiert, wenn instabil?

Superposition 4K, dann custom und Shaders auf "extreme". Aber bei mir führt TimeSpy teilweise zum sofortigen Crash, obowohl Superposition stabil durch läuft.

Naja, was soll Speicher-OC bringen. Wenn die Karte eins nicht hat, dann ein Bandbreitenproblem ;).

Skalierung von höherem Speichertakt liegt zwischen 5 und 30(!!!)% je nach Benchmark.

Wuge
2020-12-10, 13:47:35
Wer ne FE zu nicht-skalper-Preisen haben will, bitte PN. Ich hab Ampere-Überschuss...

exzentrik
2020-12-10, 13:51:11
Ich sehe da keine. Hast du nen Link?

Klick (https://www.notebooksbilliger.de/nvidia+geforce+rtx+3090+founders+edition+683300)

Mein storniertes Exemplar befindet sich (ungeöffnet und ungenutzt) gerade auf dem Rückweg zu NBB. Von daher könnte bzw. müsste da in Kürze wieder mindestens eine 3090 FE lagernd sein.

Locutus2002
2020-12-10, 13:53:26
Danke. Aber meine besser Hälfte hat mir grad etwas den Kopf gewaschen. :freak:

exzentrik
2020-12-10, 14:08:09
Danke. Aber meine besser Hälfte hat mir grad etwas den Kopf gewaschen. :freak:

Zu Recht! :freak:

BigKid
2020-12-10, 15:33:36
Also... Wer sich wundert worüber ich rede sollte mal 1-2 Seiten zurückblättern und meine Posts lesen...

Nach mehrfachem hin und her bauen:

Kurzer Vergleich Gamerock und Trio X
- Die Palit Gamerock OC 3090 hat einen wirklich guten Kühler - ich gehe sogar soweit zu sagen, dass er ein klein wenig besser ist als der der MSI Trio X denn bei der Palit kann die Luft des hinteren Lüfters "durch" die Karte hoch strömen. Bei der MSI ist da dicht. Rein vom "Gewicht" her geben sich beide Karten nix - bei beiden scheint ähnlich "viel" Kühler verbaut zu sein. Ich habe versucht beide bei vergleichbaren PTs zu benchen da die Chips unterschiedlich gut sind... Am Ende des Tages ist die Palit bei mir in den entschiedenden Bereichen leiser...

- Unter Vollast leise sind aber beide Karten ab Werk nicht - sie sind meiner Meinung nach sogar als laut zu bezeichnen... Mit einer manuellen Kurve bekommt man sie zum Preis von 5-10% Leistung aber eingefangen...

- Bei "normaler" Montage ist der "BLING" der Gamerock aus meiner Sicht sogar zurückhaltender als der der MSI Trio X - die Trio X blendet einen regelrecht...

- Beide Karten sind sauber verarbeitet und wirken wertig

- Beide Karten haben eine Stütze beigelegt mit der man sie mit Hilfe von zwei weiteren Slots abstützen kann... Hier gefällt mir der von MSI besser, der von Palit ist durchsichtig und ich befürchte er verstärkt den Bling wieder etwas...

- die Palit kann die Beleuchtung mit dem Mobo über ein JRPG Kabel synchronisieren was ich gut finde - man braucht aber Thundermaster um diesen Modus zu aktivieren (passiert zwar automatisch - muss aber halt beim Start laufen).

- die Palit hat ein Dual Bios was einem im Failfall beim Flashen auch mal den Hintern retten kann... Zwischen Silent und Performance Bios kann ich unter Vollast leider keinen wirklichen unterschied bei der Lautstärke feststellen - oder anders - beides zu Laut ohne Custom Kurve und Kastration auf 0,8V - trotzdem liegt sie auch hier Featuremässig vor der MSI

- Meine Gamerock hat den besseren Chip - ist auch selektiert weil OC Modell - das sagt aber gar nix für andere aus... Es scheinen 1825MHz stabil bei 0,8V zu gehen. Die MSI liegt hier fast 100 Hz zurück

Fazit: Aus meiner Sicht ist die Gamerock im allgemeinen eine gute Custom die im selben Feld wie die MSI Trio X spielt (die ja immer als sehr Leise dargestellt wird) und in meinem speziellen Fall die bessere Karte...

Lawmachine79
2020-12-10, 15:51:01
Danke. Aber meine besser Hälfte hat mir grad etwas den Kopf gewaschen. :freak:
Wieso? Sagt sie "Strix oder Nix"?

Superposition 4K, dann custom und Shaders auf "extreme". Aber bei mir führt TimeSpy teilweise zum sofortigen Crash, obowohl Superposition stabil durch läuft.



Skalierung von höherem Speichertakt liegt zwischen 5 und 30(!!!)% je nach Benchmark.
Haha, soviel zum Thema Theorie und Praxis. Hätte ich nicht gedacht.

Raff
2020-12-10, 15:57:06
Cyberpunk 2077 wurde ja ursprünglich für Turing optimiert – sieht man gar nicht. :ugly:

-> https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/#a3

Heftig, wie die RTX 3090 mit Raytracing austeilt. Da zahlen sich die Verbesserungen zur Abwechslung mal klar aus.

MfG
Raff

Schnoesel
2020-12-10, 16:00:10
Ja und wie scho im anderen Thread gesagt. Die anderen schauen in die Röhre. Das soll RT pushen? eher nicht so wird es Nische bleiben.

sChRaNzA
2020-12-10, 16:00:39
Jo. Für Raytracing mit 60 fps lohnen sich die 1500€+ ja richtig. :ugly:

Man sieht einfach, dass Raytracing noch locker ein, zwei Generationen braucht.

dildo4u
2020-12-10, 16:01:21
Scheint ziemlich normal zu laufen 2080 Ti = 3070, das einzige was auffällt sind die min fps bei der 6800.

Lawmachine79
2020-12-10, 16:18:57
Cyberpunk 2077 wurde ja ursprünglich für Turing optimiert – sieht man gar nicht. :ugly:

-> https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/#a3

Heftig, wie die RTX 3090 mit Raytracing austeilt. Da zahlen sich die Verbesserungen zur Abwechslung mal klar aus.

MfG
Raff
Gibt es keine 6900-Benchmarks mit Raytracing? Wäre doch interessanter als ein Vergleich mit der 2080TI.

Und inwieweit verändert sich die BQ mit Raytracing auf den einzelnen Stufen? Ist zwar subjektiv, aber das erfahrene Testerauge wird das schon objektivieren ;).

Raff
2020-12-10, 16:22:39
DXR läuft derzeit nicht auf RDNA-2-Chips, das Spiel graut's aus.

MfG
Raff

fondness
2020-12-10, 16:26:26
Raytracing ist offensichtlich das neue Tesslation für Nvidia. Jetzt werden wieder Spiele released mit völlig übertriebenen Einsatz, was auf keiner GPUs spielbar läuft, Hauptsache es läuft auf der Konkurrenz noch schlechter. Das es bei AMD-GPUs erst verspätet nachgeliefert wird hinterlässt auch eine faden Beigeschmack, immerhin gibt es einen Standard - und der sollte auf jeder GPU laufen, die diesen Standard unterstützt.

dildo4u
2020-12-10, 16:28:05
Raytracing ist offensichtlich das neue Tesslation für Nvidia. Jetzt werden wieder Spiele released mit völlig übertriebenen Einsatz, was auf keiner GPUs spielbar läuft, Hauptsache es läuft auf der Konkurrenz noch schlechter. Das es bei AMD-GPUs erst verspätet nachgeliefert wird hinterlässt auch eine faden Beigeschmack, immerhin gibt es einen Standard - und der sollte auf jeder GPU laufen, die diesen Standard unterstützt.
DLSS hilft. Und es nutzt auch AMD Tech mit CAS Upsampling.

6DIs_YMO1dg

Raff
2020-12-10, 17:01:32
Ich vermute stark, dass man das auf RDNA 2 erst freischaltet, wenn FidelityFX Super Resolution verfügbar ist. Sieht man sich an, wie DXR im 3DMark Feature Test, Minecraft & Co läuft (alles Anwendungen mit perverser Strahlenbelastung), sieht das vermutlich so gemein aus, dass das Feature - wie DLSS - zwingend gleichzeitig verfügbar sein muss.

MfG
Raff

Lowkey
2020-12-10, 17:09:26
Pascal verliert wieder Boden.

Viper Zx
2020-12-10, 19:41:23
- Unter Vollast leise sind aber beide Karten ab Werk nicht - sie sind meiner Meinung nach sogar als laut zu bezeichnen... Mit einer manuellen Kurve bekommt man sie zum Preis von 5-10% Leistung aber eingefangen...



Ich habe die Trio hier. Null Spulenfiepen und die Lüfter sind absolut leise.
Die Karte macht ja bei 75° max. 1600 U/min, das ist aus meinem Bigtower nicht zu hören. Besser geht es nicht.

Wieviel Umdrehungen laufen deine Lüfter bei welcher Temp?

qiller
2020-12-10, 19:57:25
Meine RTX3090FE geht zurück, das sind mir doch ein bisschen zuviel Macken für 1.5k€. Hoffe bei nbb.de klappt das ohne Probleme mit dem Widerruf - hatte da noch nie bestellt.

Eine andere RTX3090 muss her :freak:

Daredevil
2020-12-10, 20:14:15
Hat bei mir knapp ne Woche gedauert, sind also recht fix. :)

@sChRaNzA
Hätte man dir vor nen paar Monaten gesagt, dass Cyberpunk in 4K@Max@RTHigh bei um die 60fps läuft mit DLSS, hätten wir beide das wohl nicht geglaubt. ^^
Die 3090 ist a stückerl zu langsam für meinen Geschmack in diesen Settings, aber sie zeigt hier durchaus, dass man diese Karte braucht um Max Quality zu bekommen.
Ein paar Patches und Treiber und man kommt vielleicht auf die 60fps durchgehend, Arbeitsspeicher braucht das Spiel z.B. kaum, da können ruhig mehr beansprucht werden...

Selbst in WQHD ist die Kiste ~50% schneller als ne 2080ti, i like. :)

sChRaNzA
2020-12-10, 20:18:40
Hat bei mir knapp ne Woche gedauert, sind also recht fix. :)

@sChRaNzA
Hätte man dir vor nen paar Monaten gesagt, dass Cyberpunk in 4K@Max@RTHigh bei um die 60fps läuft mit DLSS, hätten wir beide das wohl nicht geglaubt. ^^
Die 3090 ist a stückerl zu langsam für meinen Geschmack in diesen Settings, aber sie zeigt hier durchaus, dass man diese Karte braucht um Max Quality zu bekommen.
Ein paar Patches und Treiber und man kommt vielleicht auf die 60fps durchgehend, Arbeitsspeicher braucht das Spiel z.B. kaum, da können ruhig mehr beansprucht werden...

Selbst in WQHD ist die Kiste ~50% schneller als ne 2080ti, i like. :)

Weiß nicht... Ich finde, gerade wenn man den Preis bedenkt, die Leistung relativ ernüchternd. (Wobei ich hier auch CP noch bisschen Politur zugestehen würde)

arcanum
2020-12-10, 20:22:01
Weiß nicht... Ich finde, gerade wenn man den Preis bedenkt, die Leistung recht ernüchternd.

bei 700€ für eine 3080 vs 1500€ für eine 3090€ hast du vollkommen recht, allerdings wird die 3080 aktuell selbst gebraucht für >1000€ gehandelt während die 3090 zur uvp oder knapp drüber erhältlich ist.

in cb2077 kommt keine karte annährend an die 3090 ran. sie skaliert perfekt gegenüber der 3080 und bringt das leistungs-plus mit, das man in dem spiel dringend braucht wenn man maxed/rt/dlss q spielt. bin tatsächlich wegen dem spiel am überlegen meine 3080 abzustoßen und das upgrade zu machen

Daredevil
2020-12-10, 20:22:48
Definitiv sollten investierte 1500€ eigentlich alles in Grund und Boden spielen sollen, aber Cyberpunk ist anscheinend so overengeniered, das wir hier einfach direkt das nächste Bottleneck haben.
RT selbst kostet relativ wenig, was mich recht überrascht hat.

Ich meine.... jede Karte performt dort scheiße, ist ja nicht nur die 3090. ^^
Selbst wenn ich mir ne 400€ P/L Karte wie eine 5700XT hole für WQHD, was bekomme ich dann? 30fps. ( PCGH Bench )
Da muss noch was getan werden.

arcanum
2020-12-10, 20:30:06
als ich gesagt habe, dass den aktuellen gpus wegen dem generationssprung bei konsolen eher die compute power als der speicher ausgeht wurde ich hier von einer bestimmten fraktion schief angesehen. ich sehe gar keine überraschung darin wenn in den nächsten monaten weitere titel rauskommen die eine 3090 an die "grenzen" bringen im bezug auf 4k/60.

für spiele mit dyn 4k/30fps als ziel bei konsolen gibt es keine gpu die nativ 4k/60 schafft mit identischen settings. kommt HQ RT mit ins spiel wird die situation erst in zwei bis drei weiteren generationen besser. mit RT GI kann man stand heute jede karte killen und ich hoffe dass das ein feature ist, dass in den nächsten 2 jahren zum standard in jedem AAA titel wird.

BigKid
2020-12-10, 21:15:53
Ich habe die Trio hier. Null Spulenfiepen und die Lüfter sind absolut leise.
Die Karte macht ja bei 75° max. 1600 U/min, das ist aus meinem Bigtower nicht zu hören. Besser geht es nicht.

Wieviel Umdrehungen laufen deine Lüfter bei welcher Temp?
Vielen Dank für deine Antwort.

Ich hab mir daraufhin jetzt noch mal die Drehzahlen angesehen... Beide Karten sind so bei 1360 RPM... Die Palit bleibt allerdings c.a. 5 Grad Kühler dabei...
Ich bin jetzt nochmal nach dem Radaubruder suchen gegangen... Nachdem es die Karten fast nicht sein konnten hatte ich den Chipsatz Lüfter im Verdacht... Nope... Mit abgenommenem Seitenteil dann mal auf die Suche gegangen !

Es ist das Seasonic 650 Watt Netzteil ! Dem wird wohl irgendwann dann zu Warm... So ein Mist ! Also vergesst alles was ich zum Thema Laustärke geschrieben hatte... Es ist vermutlich mit der Palit aktuell einfach deshalb leiser weil die den besseren Chip hat und mit der Custom Kurve deutlich weniger Strom zieht...
Tja... Dann werde ich Morgen wohl mal das 850 Watt Netzteil einbauen müssen und hoffen, dass das nicht so die Kriese bekommt !

SORRRY... Naja... Wer nix tut macht auch keine Fehler... Also gehts Morgen nochmal rann...

PS: Die TUF steckt in meinem „alten“ Intel System und dort ist schon ein 850er Netzteil drinn - da gabs das Problem nicht (die Zotac Trinity war auch in dem System und mir da trotzdem zu laut)

EDIT: Hat mir keine Ruhe gelassen... Ich dacht mir - Notfalls ne Nachtschicht und hab den Umbau heute noch gemacht... ging schneller als befürchtet da das Gehäuse ne gute Kabelführung bietet und auch das alte Seasonic schon Teilmodular war...
Tja was soll ich sagen... Ruhe... Geradezu himmlische Ruhe bei der MSI schon mit den Default Einstellungen und ohne Custom Kurve... Ich meine nun ein etwas wahrnehmbareres Spulen "rauschen"/"säuseln" zu haben aber das kann auch Einbildung sein...
Trotzdem bleibt der Chip der Palit der bessere - ich werde nun gleich nochmal die Palit reinmachen und nochmal testen aber eines kann ich sicher schon sagen: Die Trio X ist als Baureihe ist rehabilitiert... Sie IST verdammt leise...

EDIT2: Und zur Palit... Ich kann Geräuschtechnisch keinen Unterschied zur Trio X ausmachen - auch hier bei Default - was aber bedeutet, dass die Palit hier ein höheres PT abführt als die TrioX... Also.. Auch hier Entwarnung... Auch hier nun dieses Säuseln/Rauschen der Spulen...
Auch hier geht das aber schon bei geschlossenem Gehäuse im Rauschen unter... Trotzdem könnte an der These dass es was mit dem Netzteil zu tun haben kann drann sein - allerdings ist das neue auch wieder ein Seasonic (Focus GX-850)...
Also Danke danke danke Forum... Zumindest einer hat sich erbarmt und mich nicht dumm sterben lassen... ;-)
Alles andere was ich zu den Karten geschrieben hat bleibt davon unberührt ja bestehen...

-/\-CruNcher-/\-
2020-12-10, 22:39:58
Wenn man OC Scan hat laufen lassen, ist Superposition der beste Stabitest, richtig? Welchen Modus mit welchen Settings testet ihr? Was passiert, wenn instabil?


Der beste stabilitätstest momentan ist Cyberpunk 2077 auf Psycho ;)

woodsdog
2020-12-10, 22:51:10
Der beste stabilitätstest momentan ist Cyberpunk 2077 auf Psycho ;)

Wie immer nur Quatsch von dir. :rolleyes:
Fking AC:Syndicate crash in 10-15 Minuten ggü 0 Probleme mit CP bei zu viel UV@3090 hier.

SKYNET
2020-12-10, 23:01:30
Wie immer nur Quatsch von dir. :rolleyes:
Fking AC:Syndicate crash in 10-15 Minuten ggü 0 Probleme mit CP bei zu viel UV@3090 hier.

was viele nicht checken, die RT cores können stabil laufen wärend die GPU selber schon abkackt... RT nicht = stabilitätstest, im gegenteil...

Raff
2020-12-10, 23:25:47
Wie immer liegt die Wahrheit dazwischen -> mehrere Apps und somit Workloads testen. :)

MfG
Raff

Lawmachine79
2020-12-11, 00:14:50
Wie immer nur Quatsch von dir. :rolleyes:
Fking AC:Syndicate crash in 10-15 Minuten ggü 0 Probleme mit CP bei zu viel UV@3090 hier.
Naja, jeder postet das, wo sein Rechner abgekackt ist.

-/\-CruNcher-/\-
2020-12-11, 04:18:40
Raytracing ist offensichtlich das neue Tesslation für Nvidia. Jetzt werden wieder Spiele released mit völlig übertriebenen Einsatz, was auf keiner GPUs spielbar läuft, Hauptsache es läuft auf der Konkurrenz noch schlechter. Das es bei AMD-GPUs erst verspätet nachgeliefert wird hinterlässt auch eine faden Beigeschmack, immerhin gibt es einen Standard - und der sollte auf jeder GPU laufen, die diesen Standard unterstützt.

Funktioniert nur diesmal nicht kein Studio kann es sich leisten nicht auf den Konsolen präsent zu sein und ordentliche Performance abzuliefern die es nicht schaffen für die sieht es schlecht aus, schon alleine aus diesem Grund geht diese taktik nicht auf der Support für RDNA 2 wird immer höher sein in der Optimierung.
Nvidia bekommt lediglich mehr Arbeit intern dagegen zu optimieren.

Wie immer nur Quatsch von dir. :rolleyes:
Fking AC:Syndicate crash in 10-15 Minuten ggü 0 Probleme mit CP bei zu viel UV@3090 hier.

Dann testest du einfach falsch, du musst den Load erhöhen mit RT kappst du teils den Load auf die Shader mit DLSS dämpft es das ab und mit UV wird es sehr unpredictable (siehst du dann auch deutlich in der Frametime distro des Arbitrators) gewusst wie du das Setup mit dem höchsten load auf beidem erreichst, zusätzlich pushst du dann noch nvenc und ich garantiere dir du findest sehr schnell heraus, ob dein OC instabil ist.
Am interessantesten wäre ja ein spezielles tool von Nvidia das bei den AIBs zum Einsatz gekommen ist und ein Maximum Core load Szenario von allem gleichzeitig abbildet (Nvidias internal Burn in test) und man nun von dessen Existenz weiß, allerdings konnte selbst das nicht die ersten OC instabilen AIB Ergebnisse verhindern die Später bei arg problematischen Pre OC Edge Kosten Designs mit dem Treiber trotzdem noch geglättet werden mussten.
Das Tool könnte irgendwan leaken wird wohl aber nur auf sehr spezielen Debug Biosen laufen.

Davon mal abgesehen UV ist nicht das typische Test Szenario es geht um Maximum load, den auch teils das Bios und alle Telemetrischen Schutzschaltungen Nvidias nie zum Problem werden lassen sollten nach dem QC Test beim AIB, wohl möglich gab es auch keinen Nvidia Greenlight wenn das Tool nicht erfolgreich durchgelaufen ist.

UV ist eine andere Kanone für die Nvidia bis jetzt noch sehr minimale Limits intern setzt und auch nicht so problematisch ist das du damit die Hardware zerschießen könntest das interessiert sie aus Produkt technischer Sicht nicht wirklich die Bohne bisher, was du da an den reglern rumspielst und dir selbst instabil machst, es sei den sie merken man kann damit was verdienen als zusatzoption, dann wird es bald ein Feature ;)

Nur das OCing wird sehr protected kontrolliert seit Maxwell bisher, da stalked dich Nvidias Hardware regelrecht und ist weitaus schneller in ihrem mini RTOS dabei als du im SlowmoOS obendrauf dabei bist Porsche vs Trabi.

Dschounz
2020-12-11, 07:18:46
Ich hab mich gestern mal ein wenig mit meiner 3090FE und Cyberpunk beschäftigt.

Die Karte läuft stabil nach ein wenig testen und fummeln bei 1800MHz/806mV bei ca. 68° und 1250RPM mit einem Verbrauch von 270-280W mit den Ultra-Einstellungen (die vom Spiel selbst vorgeschlagenen/eingestellten Settings) inkl. RT.

Ich nutze einen im Boden montierten Lüfter, einen einsaugenden Front- und drei Deckel/Heck-Quirle. Scheint bei dem Kühlsystem der FE gut zu funktionieren.

FPS liegen zwischen 65-90....alles tutti soweit, bin zufrieden :smile:

Aber CP ist ja unglaublich CPU-lastig :eek:, der 5775c kocht bei 80-85°. Die Temps hatte ich eigentlich nur in Prime bisher. Sonst liegen die bei 50-60°.

SKYNET
2020-12-11, 07:47:30
Ich hab mich gestern mal ein wenig mit meiner 3090FE und Cyberpunk beschäftigt.

Die Karte läuft stabil nach ein wenig testen und fummeln bei 1800MHz/806mV bei ca. 68° und 1250RPM mit einem Verbrauch von 270-280W mit den Ultra-Einstellungen (die vom Spiel selbst vorgeschlagenen/eingestellten Settings) inkl. RT.

Ich nutze einen im Boden montierten Lüfter, einen einsaugenden Front- und drei Deckel/Heck-Quirle. Scheint bei dem Kühlsystem der FE gut zu funktionieren.

FPS liegen zwischen 65-90....alles tutti soweit, bin zufrieden :smile:

Aber CP ist ja unglaublich CPU-lastig :eek:, der 5775c kocht bei 80-85°. Die Temps hatte ich eigentlich nur in Prime bisher. Sonst liegen die bei 50-60°.

4/8T cpu und dann wunderst dich? das ding ist am ende, da musst wohl mal 450 taler(5600X + board) in die hand nehmen und was zeitgemässes holen.

Dschounz
2020-12-11, 08:00:40
4/8T cpu und dann wunderst dich? das ding ist am ende, da musst wohl mal 450 taler(5600X + board) in die hand nehmen und was zeitgemässes holen.


Kommt als nächstes zusammen mit einem komplett neuen PC :up:, nur die 3090 zieht natürlich mit um...., irgendwann Ende nächsten Jahres.

Aber die Frametimes sind aktuell trotzdem wie mit dem Lineal gezogen. Einen Aufrüstdruck kann ich daraus nicht erkennen...:wink:.
Würde es mal so ausdrücken; jetzt hat der alte Broadwell endlich mal richtig was zu tun :biggrin:

Wuge
2020-12-11, 09:47:35
Meine RTX3090FE geht zurück, das sind mir doch ein bisschen zuviel Macken für 1.5k€. Hoffe bei nbb.de klappt das ohne Probleme mit dem Widerruf - hatte da noch nie bestellt.

Eine andere RTX3090 muss her :freak:

Was stört Dich alles?

Wie läuft das denn, wenn man ne "angespielte" Karte zurückschickt? Zahlen die den kompletten Kaufpreis zurück?

Dschounz
2020-12-11, 10:19:56
Was stört Dich alles?

Wie läuft das denn, wenn man ne "angespielte" Karte zurückschickt? Zahlen die den kompletten Kaufpreis zurück?


Im Rahmen des Widerrufsrechts bei Verbrauchsgüterkäufen (Käufer=>Privatperson und Verkäufer=>Unternehmer) sind Nutzungen nicht zu vergüten....also bekommst du den vollen Kaufpreis (ggf. abzgl. Transportkosten) zurück.

Wuge
2020-12-11, 11:21:01
Naja, alles was über eine Prüfung wie sie im Ladengeschäft üblich wäre hinaus geht kann doch abgezogen werden? Im Laden kann ich eine Grafikkarte quasi garnicht ausprobieren. D.h. selbst durch das entsiegeln der Packung ist schon eine Wertminderung gegeben, die der Händler ggf. nicht hinnehmen muss.

Aber gut, wenn Shops da nicht mucken. Ich schicke nach Möglichkeit nichts zurück aber man weiß ja nie.

Dschounz
2020-12-11, 11:36:51
Naja, alles was über eine Prüfung wie sie im Ladengeschäft üblich wäre hinaus geht kann doch abgezogen werden? Im Laden kann ich eine Grafikkarte quasi garnicht ausprobieren. D.h. selbst durch das entsiegeln der Packung ist schon eine Wertminderung gegeben, die der Händler ggf. nicht hinnehmen muss.

Aber gut, wenn Shops da nicht mucken. Ich schicke nach Möglichkeit nichts zurück aber man weiß ja nie.

Was ich geschrieben habe, gilt nur für Fernabsatzverträge, also Versendung. Wenn du direkt im örtlichen Ladenlokal kaufst, ist deine Einschätzung korrekt. Hier könntest du nur auf Kulanz hoffen, weil der Händler dich als Kunden behalten will und du nicht zu den Versendern abwanderst...

Wuge
2020-12-11, 12:43:52
Nee, ich meine, im Fernabsatz hast Du das Recht, die Ware zu Hause so zu prüfen, wie es im Ladengeschäft üblich wäre. Alles was darüber hinaus geht, ist prinzipiell zu Lasten des Käufers.

Aber hab gerade mal bei NBB geschaut. Deren Widerrufsbelehrung ist mega kundenfreundlich:
"Sie müssen für einen etwaigen Wertverlust der Waren nur aufkommen, wenn dieser Wertverlust auf einen zur Prüfung der Beschaffenheit, Eigenschaften und Funktionsweise der Waren nicht notwendigen Umgang mit ihnen zurückzuführen ist."

Das heißt für mich, auspacken, einbauen, anspielen und im Prinzip sogar OC im Rahmen der vom Hersteller bereitgestellten Tools ist ok.

MiamiNice
2020-12-11, 12:48:26
Mir ist ja beim Cbyerpunk spielen der Geduldsfaden gerissen wegen der Lautstärke der Strix OC. Habe also eben bei Aquacomputer angerufen und dem Hr. Hilde geschildert das ich schon einen halben Tinnitus wegen den Turbinen auf der Strix habe da mein PC auf dem Schreibtisch steht.

Lange Rede, kurzer Sinn: Strix OC Aquacomputer Block mit aktiver Backplate -> nächste Woche wird geliefert!

qiller
2020-12-11, 13:16:19
Was stört Dich alles?

Wie läuft das denn, wenn man ne "angespielte" Karte zurückschickt? Zahlen die den kompletten Kaufpreis zurück?

Das hatte ich der Rücksendung beigelegt:

-extremes Spulenzirpen/Rasseln, selbst durch gedämmtes Gehäuse viel zu laut hörbar
-Ruckeln/Verzögerung/BSODs beim Betrieb mit PCIe-Gen4
-Bildflackern, wenn 2. Monitor angeschlossen wird
-rechter Lüfter erzeugt nervigen Brummton ab 1300rpm

Also für mich reicht das. Eine 1500€ Karte muss nicht perfekt sein, aber so grobe Mängel gehen bei mir nicht. Video mit den Spulen-Geräuschen hatte ich hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12529461#post12529461) gepostet.

Dschounz
2020-12-11, 13:33:11
Nee, ich meine, im Fernabsatz hast Du das Recht, die Ware zu Hause so zu prüfen, wie es im Ladengeschäft üblich wäre. Alles was darüber hinaus geht, ist prinzipiell zu Lasten des Käufers.

Aber hab gerade mal bei NBB geschaut. Deren Widerrufsbelehrung ist mega kundenfreundlich:
"Sie müssen für einen etwaigen Wertverlust der Waren nur aufkommen, wenn dieser Wertverlust auf einen zur Prüfung der Beschaffenheit, Eigenschaften und Funktionsweise der Waren nicht notwendigen Umgang mit ihnen zurückzuführen ist."

Das heißt für mich, auspacken, einbauen, anspielen und im Prinzip sogar OC im Rahmen der vom Hersteller bereitgestellten Tools ist ok.

Das entspricht der gesetzlichen Regelung gem. § 357 (7) Nr. 1 BGB, die per AGB`s auch nicht veränderbar ist...also nix besonderes, das gilt immer, wenn du als Verbraucher kaufst bei Fernabsatz.

P.S.: Overclocking und dauerhaftes Benutzen beinhaltet das genau genommen nicht, weil du eigentlich nur die Funktionsweise prüfen darfst, also läuft die Karte in deinem PC oder nicht, z.B. wegen Kompatibilitätsproblemen.


@ qiller : Das reicht dicke; eigentlich ist eine Begründung sowieso unnötig :up:

Kriegsgeier
2020-12-11, 13:36:55
meine 3090FE von NBB am 5.12 geliefert läuft dagegen perfekt und sehr angenehm bei der Lautstärke... Spulenmusik gibt es zwar auch aber eher dezent...

3090FE braucht eine gute und durchdachte Gehäusebelüftung, dann drehen die Lüfter nicht über 1300 upm und diese Durchdachte Kühlung habe ich auch ;)

PS: warte aber trotzdem auf ein Wasserkühler für die FE ;)

hq-hq
2020-12-11, 13:59:03
Nachdem ich aus Spaß und Glück auch zu einer 3090 gekommen bin, eine lustige Geschichte mit dem Seasonic SIII 650 Watt Netzteil, die FE hab ich jetzt schon durch x benches geschickt, so wie die 2080Ti ebenfalls mit dem Netzteil. Die 2080Ti mit bis zu 450Watt von 1000 und die 3090 mit 400Watt von 400. Alles ohne Probleme aber im 3d mark Night Ride 2.GPU Bench reproduzierbar Abschalter wenn 1300fps erreicht werden. Ist das Limit 350Watt läufts durch. Die Seasonic Möhre muss man danach ausschalten (und wieder ein) sonst gehts nimmer an. Eigentlich war für den PC eine kleinere Grafikkarte vorgesehen...

BigKid
2020-12-11, 14:11:08
Nachdem ich aus Spaß und Glück auch zu einer 3090 gekommen bin, eine lustige Geschichte mit dem Seasonic SIII 650 Watt Netzteil, die FE hab ich jetzt schon durch x benches geschickt, so wie die 2080Ti ebenfalls mit dem Netzteil. Die 2080Ti mit bis zu 450Watt von 1000 und die 3090 mit 400Watt von 400. Alles ohne Probleme aber im 3d mark Night Ride 2.GPU Bench reproduzierbar Abschalter wenn 1300fps erreicht werden. Ist das Limit 350Watt läufts durch. Die Seasonic Möhre muss man danach ausschalten (und wieder ein) sonst gehts nimmer an. Eigentlich war für den PC eine kleinere Grafikkarte vorgesehen...
Kleiner Tipp: Falls irgendwas anfängt zu lärmen zB mitten im 3DMark Timespy... Dann könnte es auch dein Netzteil sein dem das alles grade ein bisschen zuviel wird (bzw. dessen Lüfter) ... Ich hatte ziemlich genau das selbe Netzteil drinn bis Gestern...

M4xw0lf
2020-12-11, 17:45:22
Auf die Schnelle keinen besseren Thread gefunden.

https://twitter.com/HardwareUnboxed/status/1337246983682060289

Nvidia have officially decided to ban us from receiving GeForce Founders Edition GPU review samples

Their reasoning is that we are focusing on rasterization instead of ray tracing.

They have said they will revisit this "should your editorial direction change".

More to come

https://www.tvmovie.de/bilder/758/tvmm/filmschaffende-sind-sich-einig-quotder-patequot-ist-der-beste-film-aller-zeiten-der-pate-bester-film-aller-zeiten.jpg?itok=o4N_OTeC

Schnoesel
2020-12-11, 17:49:25
Da gehört das hin: https://www.3dcenter.org/news/zu-wenige-raytracing-tests-nvidia-schliesst-hardware-unboxed-von-testsample-lieferungen-aus

M4xw0lf
2020-12-11, 17:51:40
Da gehört das hin: https://www.3dcenter.org/news/zu-wenige-raytracing-tests-nvidia-schliesst-hardware-unboxed-von-testsample-lieferungen-aus
Da war die Mainpage schneller als gedacht :redface:

Gecko_0815
2020-12-11, 17:55:14
Thema Netzteil: Da überschlagen sich ja die Empfehlungen. Mein 500 Watt be quiet! Pure Power 11 Non-Modular 80+ Gold schafft die 3090 FE bisher problemlos. Im Normalmodus und bei 837 mV / 1800 MHz erst recht. Das höchste was ich an der Steckdose gesehen habe waren 520 W - also alles im Rahmen. 355 W die Karte, 90 W der 3700X und der Rest für den Kleinkram.

Viper Zx
2020-12-11, 18:32:44
Ich meine nun ein etwas wahrnehmbareres Spulen "rauschen"/"säuseln" zu haben aber das kann auch Einbildung sein...


Da wäre es interessant ob das mit einem anderen Netzteil weggehen würde oder ob es doch von der Karte selber kommt.

Bei meiner Karte ist sowohl im Desktop wie im Spiel nichts von den Spulen zu hören.

Mein Netzteil: Seasonic Prime Ultra 850W Titanium (SSR-850TR)

SKYNET
2020-12-12, 02:47:06
Cyberpunk 2077 wurde ja ursprünglich für Turing optimiert – sieht man gar nicht. :ugly:

-> https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/#a3

Heftig, wie die RTX 3090 mit Raytracing austeilt. Da zahlen sich die Verbesserungen zur Abwechslung mal klar aus.

MfG
Raff

testet doch mal mit weniger RT titeln:

https://mobile.twitter.com/HardwareUnboxed/status/1337246983682060289

hq-hq
2020-12-12, 02:47:54
Thema Netzteil: Da überschlagen sich ja die Empfehlungen. Mein 500 Watt be quiet! Pure Power 11 Non-Modular 80+ Gold schafft die 3090 FE bisher problemlos. Im Normalmodus und bei 837 mV / 1800 MHz erst recht. Das höchste was ich an der Steckdose gesehen habe waren 520 W - also alles im Rahmen. 355 W die Karte, 90 W der 3700X und der Rest für den Kleinkram.

dann lass doch mal den 3d Murks Night Raid laufen, wenn die CPU stark genug ist im 2. Grafik-Bench die GPU so zu füttern das 1300fps rauskommen und dein NT durchhält bekommt be quiet wieder einen Pluspunkt bei mir :freak:

-/\-CruNcher-/\-
2020-12-12, 05:20:03
@Raff

Was ist hier eigentlich los Tomshardware und Pc Games Hardware ignorieren die 3070 im RT test, Grund ?

Ist euch plötzlich allen die Karte abhanden gekommen ?

Oder kann es sein das Nvidia diesen Test nicht gerne sieht momentan und ihr freundlich darauf hingewiesen wurdet doch bitte nur die Daten der 2080 TI respektive 3060 TI zu veröffentlichen ?

dargo
2020-12-12, 11:05:01
Cyberpunk 2077 wurde ja ursprünglich für Turing optimiert – sieht man gar nicht. :ugly:

-> https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/#a3

Heftig, wie die RTX 3090 mit Raytracing austeilt. Da zahlen sich die Verbesserungen zur Abwechslung mal klar aus.

MfG
Raff
Bei diesem Unfall @Cyberpunk 2077 irgendwas abzuleiten grenzt schon an.... ich lasse es lieber. ;) Das Verhältnis von Performance/Optik ist die reinste Katastrophe! Gepaart mit völlig bescheuerten GPU-Skalierung.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12532300&postcount=3645

So eine Katastrophe hätte selbst ich nicht von CDPR erwartet. In einem halben Jahr ist das Game vielleicht fertig, dann kann man es gerne nochmal neu bewerten. Sofern sich da überhaupt noch viel bei der Performance durch Patches tun wird. Hoffen wir es mal. Ansonsten Fail des Jahres 2020 schlechthin, nicht nur bei der Technik.

dildo4u
2020-12-12, 11:08:23
GPU Skalierung passt doch Navi2X auf den Punkt mit der 6900Xt.

https://www.computerbase.de/2020-12/cyberpunk-2077-benchmark-test/2/#diagramm-cyberpunk-2077-2560-1440

dargo
2020-12-12, 11:11:59
Hast du überhaupt verstanden was ich mit GPU-Skalierung meine? Ich habe nicht den Eindruck. Ansonsten empfehle ich sich das verlinkte Video anzuschauen. Das Spiel skaliert außerhalb von SSR und Fog nahezu gar nicht nach unten! Außer natürlich beim Pixelcount. Diese ganzen Grafikoptionen außer SSR/Fog sind nahezu placebo. Ob das wirklich so gewollt war werden zukünftige Patches zeigen.

qiller
2020-12-12, 11:30:25
Übersehe ich etwas oder erwähnt er nirgends sein System? Interessant wären da schon noch CPU/RAM und eventuelles OC. Von "GPU-Skalierung" kann man bei Cyberpunk nur sprechen, wenn man da auch einen wirklichen dicken Prozessor und gut getunten Speicher nutzt. Ansonsten ist "GPU-Skalierung" vlt auch einfach der falsche Begriff, Grafiksetting-Skalierung triffts wohl eher.

Edit: Wenn das so stimmt, wie im Video gezeigt, und die Benchmarks nicht im CPU-Limit liefen, hätte man die Grafikoptionen auch einfach weglassen und einfach auf Maximum lassen können. Künstliche Optionsvielfalt ohne Auswirkungen auf die Performance kann man sich nun wirklich sparen.

dargo
2020-12-12, 11:33:17
Siehst du in den Diagrammen... GTX 1080TI und GTX 1050.


Edit: Wenn das so stimmt, wie im Video gezeigt, und die Benchmarks nicht im CPU-Limit liefen, hätte man die Grafikoptionen auch einfach weglassen und einfach auf Maximum lassen können. Künstliche Optionsvielfalt ohne Auswirkungen auf die Performance kann man sich nun wirklich sparen.
Das war auch mein erster Gedanke. ;D Aber wie gesagt... da müssen wir noch einige Wochen oder sogar Monate warten. Ich kann mir kaum vorstellen, dass das so von den Entwicklern gewollt ist. Ansonsten... :facepalm:

@Raff

Was ist hier eigentlich los Tomshardware und Pc Games Hardware ignorieren die 3070 im RT test, Grund ?

Ist euch plötzlich allen die Karte abhanden gekommen ?

Oder kann es sein das Nvidia diesen Test nicht gerne sieht momentan und ihr freundlich darauf hingewiesen wurdet doch bitte nur die Daten der 2080 TI respektive 3060 TI zu veröffentlichen ?
Hmm... :uponder:
https://youtu.be/U0Ay8rMdFAg?t=420

Allerdings hat die 3060TI auch nur 8GB. Von daher nicht zu viel hinein interpretieren.

Gouvernator
2020-12-12, 13:01:56
Cyberpunk zockt man mit einer RTX3090 am besten in 30 FPS Mode/Vsync 30, mit RT Ultra, DLSS Ultra Performance in 8K nativ. Sieht dann phänomenal aus und ist mit Gamepad absolut spielbar.

Gouvernator
2020-12-12, 13:07:32
Ansonsten Fail des Jahres 2020 schlechthin, nicht nur bei der Technik.
DLSS Ultra Performace und nativ 8K ist Pflicht um aus dem Game was richtig Schönes rauszuholen. Nicht-RTX3090/8K/Gamepad-User gehen jetzt tatsächlich leer aus.

dildo4u
2020-12-12, 13:09:26
@Raff

Was ist hier eigentlich los Tomshardware und Pc Games Hardware ignorieren die 3070 im RT test, Grund ?

Ist euch plötzlich allen die Karte abhanden gekommen ?

Oder kann es sein das Nvidia diesen Test nicht gerne sieht momentan und ihr freundlich darauf hingewiesen wurdet doch bitte nur die Daten der 2080 TI respektive 3060 TI zu veröffentlichen ?
Die 3070 ist obsolut, vermutlich wir der ganze TI Refresh alles andere ersetzen.

qiller
2020-12-12, 13:22:12
DLSS Ultra Performace und nativ 8K ist Pflicht um aus dem Game was richtig Schönes rauszuholen. Nicht-RTX3090/8K/Gamepad-User gehen jetzt tatsächlich leer aus.

Nichts für ungut, allein schon die Winkelgeschwindigkeit eines Gamepads ist deutlich niedriger, als das was mit einer Maus möglich ist. Kein Wunder dass dann 30fps ausreichen. Ich weiß ja nicht, wie actionlastig das Game nun wirklich ist (sicherlich nicht, wie ein reiner First-Person-Shooter), aber ich ziehe jedes Mal den Hut vor Spielern, die mit Gamepads und 30fps First-Person-Spiele vernünftig spielen können. Komme ich nicht mit klar, weder den Fps, noch dem Gamepad^^.

Gouvernator
2020-12-12, 13:26:49
In Cyberpunk 2077 haben sie die Gamepad Steuerung insofern optimiert das du so gut wie gar nicht zielen musst. Es gibt ein Riesenfadenkreuz und du kannst die ganze Zeit einfach losballern. Es ist fast wie Auto-Aim bei Smartphone Shootern. :freak:

Raff
2020-12-12, 14:08:00
@Raff

Was ist hier eigentlich los Tomshardware und Pc Games Hardware ignorieren die 3070 im RT test, Grund ?

Ist euch plötzlich allen die Karte abhanden gekommen ?

Oder kann es sein das Nvidia diesen Test nicht gerne sieht momentan und ihr freundlich darauf hingewiesen wurdet doch bitte nur die Daten der 2080 TI respektive 3060 TI zu veröffentlichen ?

Wenn ihr wüsstet, wie oft ich wegen berechtigter Kritik mit Nvidia aneinandergerate, würdet ihr die Verschwörungstheorien stecken lassen. ;) AMD ist da wesentlich gechillter. Und die RTX 2080 Ti steht schon lange nicht mehr im Marketingfokus. Das hat hier aber eigentlich gar nichts verloren. "Abhanden gekommen" ist nur die Zeit, welche trotz massiver Überstunden seit sechs Monaten hinten und vorne nicht reicht.

MfG
Raff

Kriegsgeier
2020-12-12, 15:03:34
Die Gebeudeinnenarchitektur sowie NPCs Modelle gefallen mir extrem gut! Vor Allem das Lichtdesign - 1A auch ohne RT!
Materialien / Texturen auch extrem gut.
Was nicht schön ist und bei mir fast schon Augenkrebs verursacht sind die Aussichten aus den Fenstern. Z. B. aus den Hotel Zimmer

Cherubim
2020-12-12, 16:57:38
So, habe meine Backplate jetzt im Wasserkreislauf mit drin. Optisch ist es noch etwas beta, aber die Kühlleistung ist da.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72888&stc=1&d=1607788342

Nach den ersten paar Versuchen wird die Backplate statt 68°C (gemessen mit Infrarot) auf etwas über 30°. Der Kühler sitzt direkt über dem Ram und deckt ihn komplett ab.
Mal schauen, was so ein paar Stunden zocken ergeben.

TurricanM3
2020-12-12, 18:09:56
Was hast du für ein Delta?

Ich habe eben auch auf die aktive umgebaut:

https://abload.de/img/kryo_bp9ak4k.jpg (https://abload.de/image.php?img=kryo_bp9ak4k.jpg)

https://abload.de/img/kryo_bp2xkk0s.jpg (https://abload.de/image.php?img=kryo_bp2xkk0s.jpg)

Lowkey
2020-12-12, 18:37:32
hehe Cherubim hat mir meine Idee geklaut.

Optisch gewinnt natürlich der kryographics.

Kriegsgeier
2020-12-12, 19:04:21
Cherubim? Super Arbeit!
Kannst du vielleicht beschreiben wie du es oben gelöst hast?
Und deine Tests? Wie verhält sich die gute mit WaKü?
Was hat sich außer der Lautstärke verbessert?

Danke

PS: ich habe eine 3090FE - warte noch bis es Gute WaKüs gibt, die auch obere Speicher berücksichtigen.. wird wohl sehr teuer werden: unter 250€ wird es wohl nichts :-/

qiller
2020-12-12, 19:16:22
In Cyberpunk 2077 haben sie die Gamepad Steuerung insofern optimiert das du so gut wie gar nicht zielen musst. Es gibt ein Riesenfadenkreuz und du kannst die ganze Zeit einfach losballern. Es ist fast wie Auto-Aim bei Smartphone Shootern. :freak:

Wtf ;D - trotzdem bleib ich bei Maus/Tastatur :D

@Turrican: Ist das Reference Design? Welche 3090 hast du? Wie siehts mit Spulenzirpen aus? Suche selber noch nach ner vernünftigen 3090 + Wakühler :/.

vinacis_vivids
2020-12-12, 20:05:30
Gibs reviews&benchmarks zur RTX 3090, die HDR-10bit Farbdarstellung beachtet hat oder wurde die Problematik des stärkeren Leistungsverlustes bei Nvidia eher unter dem Tisch gekehrt worden?

Gouvernator
2020-12-12, 22:40:48
Ja die RTX3090 fühlt sich nach nur 2 Monaten schon so richtig veraltet an..
sQDtCKl0BWo

-=Popeye=-
2020-12-12, 22:43:35
Lol :lol:

Ben Carter
2020-12-12, 23:12:54
Gibs reviews&benchmarks zur RTX 3090, die HDR-10bit Farbdarstellung beachtet hat oder wurde die Problematik des stärkeren Leistungsverlustes bei Nvidia eher unter dem Tisch gekehrt worden?
Wenn du willst, kann ich den Unterschied mal in Squadrons und Hellblade testen.

Raff
2020-12-13, 10:52:21
Ja die RTX3090 fühlt sich nach nur 2 Monaten schon so richtig veraltet an..
https://youtu.be/sQDtCKl0BWo

Lol :lol:

True story. Aber däm, sieht das Spiel phasenweise geil aus. Also ich weiß nicht, wie's euch geht, aber für mich hat sich die Investition ausgezahlt. Das Spiel des Jahres in der bestmöglichen Qualität: check. Und 1-2 Järhchen hält die RTX 3090 so und so.

Noch ein paar Patches und der Lack passt. Und natürlich braucht's ein paar Optik-Tweaks, um die Stärken der RTX 3090 auszunutzen. Derzeit ist das Spiel brutal auf 8–10 GiB getrimmt, gut erkennbar (bzw. schlecht erkennbar ;)) an Brei-Oberflächen, die nach kurzer Zeit doch hübsch werden -> zu knappes Streaming-Budget.

MfG
Raff

vinacis_vivids
2020-12-13, 11:16:33
Wenn du willst, kann ich den Unterschied mal in Squadrons und Hellblade testen.

Gerne ��
Wenn du Screenshots machen kannst zwischen 8bit und 10bit bei den Farbübergängen, gerne mit dazu.

@Topic
Ein Review der RTX 3090 (und RX6800XT) mit dem Sam Plattform von AMD:
https://www.notebookcheck.com/GeForce-RTX-3090-Suprim-X-im-Test-MSI-s-neue-High-End-Grafikkarten-Serie.508384.0.html

Wuge
2020-12-13, 11:22:41
Wie grandios... Cherubim und TurricanM3 haben meine jeweils bevorzugten Kühllösungen, zwischen denen ich mich nicht entscheiden kann :P

@Cherubim: bringt der RAM-Kühler hinten drauf was fürs Speicher-OC oder ist es nur "schön", dass die Backplate nicht mehr heiß wird?

@TurricanM3: welche Temperaturen hast Du denn an der Backplate, vorallem im Bereich der GPU-Rückseite / VRAM? Ich kann mir noch nicht so recht vorstellen, dass die Heatpipe so gut funktioniert, vorallem da sie nicht am Hotspot sitzt... Du hast ja den direkten Vergleich zur passiven.

Gouvernator
2020-12-13, 11:27:07
Die RTX3090 kann dank DLSS das Game noch irgendwie stemmen. Im Gegensatz zu allen anderen Kandidaten. Insbesondere die neuen Konsolen haben dadurch vollkommen ihren Glanz verloren. :uup:
Ich habe probehalber DLSS in 8K deaktiviert. Mit dem Resultat: einstellige Frames ob mit oder ohne RT. Bei 20Gb VRAM Auslastung.
Man hat hier mit einem heftigen Next-Gen zu tun, dem man nur durch DLSS beikommt. Und Ray Tracing kommt noch oben drauf.
Jetzt haben alle Hersteller ein Grund noch schneller was Schnelleres zu bringen. Neue "Pro" Konsolen, neue GPUs, neue CPUs... Bei den Pro-Konsolen sehe ich schon ganz großen Shitstorm aufziehen.

Cherubim
2020-12-13, 12:58:32
Sehr simpel:

Ich habe die Backplate abgenommen und den Kühler (Alphacool D-RAM Cooler X4 Universal) über den Ramriegeln plaziert (Wärmeleitpads bleiben ja kleben). Dann Maß genommen, das ganze auf die andere Seite transferiert, mit Bleistift angerissen, gekörnt und mit einem 3,2mm Bohrer gebohrt.
Dann auf der PCB Seite Senkungen gesetzt, M3 Senkkopfschrauben durch und festgeschraubt. So stehen die Schraubenköpfe nicht über die Backplate hinaus und haben genug Platz zu den Lötkontakten.


To Do: Schrauben kürzen, Kühlerbodenplatte schleifen.
Der ist nicht ganz Plan, was er für seine angedachte Aufgabe auch nicht brauchte.

Leistung: wie gesagt, bin noch nicht zum großen Testen gekommen, meine Frau hat Urlaub und ich somit keine Zeit :redface:
Erster 3DMark hat aber mit gleicher Kurve 200 GPU Punkte gebracht.
Weitere Tests stehen aber noch aus.

Matrix316
2020-12-13, 14:06:56
Die RTX3090 kann dank DLSS das Game noch irgendwie stemmen. Im Gegensatz zu allen anderen Kandidaten. Insbesondere die neuen Konsolen haben dadurch vollkommen ihren Glanz verloren. :uup:
Ich habe probehalber DLSS in 8K deaktiviert. Mit dem Resultat: einstellige Frames ob mit oder ohne RT. Bei 20Gb VRAM Auslastung.
Man hat hier mit einem heftigen Next-Gen zu tun, dem man nur durch DLSS beikommt. Und Ray Tracing kommt noch oben drauf.
Jetzt haben alle Hersteller ein Grund noch schneller was Schnelleres zu bringen. Neue "Pro" Konsolen, neue GPUs, neue CPUs... Bei den Pro-Konsolen sehe ich schon ganz großen Shitstorm aufziehen.

Ich frage mich, mit welcher Hardware haben die Cyberpunk entwickelt? :freak: Das ist ja schon ein paar Jährchen her und da gab es noch keine 3090...

Ex3cut3r
2020-12-13, 14:17:32
Die RTX Optionen werden mit Hilfe von Nvidia Entwicklern erstellt. 2018 kam Turing mit RT Support raus, man musste 2 Jahre später nur die Strahlen je nach RT Preset (Mittel, Ultra, Psycho) erhöhen, sowie weitere RT Optionen einbauen. Mit RT Schatten, GI, AO und Reflections. Bietet CP77 ja das RT Komplett Paket.

Ich kann eine RT Option mit einer 2 Jahre alten 2080 Max OC @ 3440x1440 + DLSS Quality und einer RT Option aktiveren, entweder ich nutze die Reflections oder das AO. Und habe dann jeweils 40-50 FPS. Ohne RT Option sind es aber 50-70 FPS.

hq-hq
2020-12-13, 15:30:10
hi,


Afterburner 4.6.3 beta2
Treiber 460.79

Curve-Editor:

z.B. ich stelle bei 0.862V 1920MHz ein mit danach flachem Verlauf (bis 1.1V),
aktivere die Curve und die eingestellen Werte bleiben auch so (manchmal verschiebt sie sich ja nochmal etwas)
jetzt z.B. in Port Royal -> der Boost weicht gerne mal zwei Taktstufen nach oben ab und die Karte boostet bis 1950MHz

-> frühers ging der Boost nie über den eingestellten Takt, ist das jetzt so?

Wuge
2020-12-13, 16:13:20
Das Problem hab ich auch manchmal. Führt dann natürlich zum Crash wenn die Bude ans Limit getaktet ist.

OCmylife
2020-12-13, 17:18:37
Ich habe jetzt seit einigen Tagen den Alphacool Wasserkühler auf meiner MSI Gaming X Trio verbaut und bin der Meinung, dass es sich vollkommen ausgezahlt hat, auch wenn ich der Optik wegen wohl lieber einen von Aquacomputer gekauft hätte.
Übertaktungstechnisch lohnt es sich nur mit einem anderen Bios(im meinem Fall habe ich mich für das Suprim Bios mit maximalen 425 Watt entschieden), was sich dann auf einen Boost zwischen 1925 und 2 Ghz einpendelt. Mit dem originalen Gaming Bios kam ich gefühlt keinen MHz höher. Allerdings ist die Geräuschkulisse beim Spielen bei mir deutlich gesunken. Hatte ich im geschlossenen Gehäuse vorher bei 73 Grad ungefähr 2200 rpm auf der Grafikkarte anliegen, was definitiv nicht leise war, pendel ich jetzt bei 55-63 Grad mit einem höheren PL bei ungefähr 800-1200 rpm auf den Noiseblocker Eloops. Unhörbar ist auch das nicht, aber man kann schon von einem leisen Gaming-PC sprechen. Mir fällt zumindest kein großer Unterschied in der Lautstärke zu meiner wassergekühlten 2070 zuvor auf.
Cyberpunk lässt sich so gut mit RT-Reflektionen und DLSS auf Qualität in 4K spielen. Die RT-Schatten + Beleuchtung kosten leider zu viel Leistung und stehen meiner Ansicht nach nicht in Relation zu den FPS-Kosten. Ich bin aber schon gespannt auf das Digital-Foundry-Video.
DLSS Performance und Balanced sieht meiner Meinung nach deutlich schlechter aus, als Qualität oder die native Auflösung.

Edit: Und es scheint mit so, als wenn ich mir eine GPU Stütze zulegen muss, da sich die Grafikkarte zumindest gefühlt nach rechts schon sehr nach unten hängen lässt. Hat da jemand eine Empfehlung?

-/\-CruNcher-/\-
2020-12-13, 17:53:53
Ja die RTX3090 fühlt sich nach nur 2 Monaten schon so richtig veraltet an..
https://youtu.be/sQDtCKl0BWo

Was denkst du was Nvidias Marketing Ziel war mit Cyberpunk und wieso man so viele resourcen da rein steckt

Raff
2020-12-13, 17:55:02
Ganz gewiss nicht, die eigenen Produkte alle langsam aussehen zu lassen. ;)

MfG
Raff

-/\-CruNcher-/\-
2020-12-13, 17:57:37
Alle natürlich nicht 3090 Ziel ist UHD-1 16 ms AVG UHD-2 mit 33 ms AVG Spielbar mit DLSS + RT

keine Ahnung wie er auf die 17 FPS kommt das muss minimum wert in einer der extremsten szenen sein

Alex HVS Overhead decimation Empfehlung

pC25ambD8vs

PS: Meine persönliche Empfehlung erst einmal noch 1 Patch und 2 Nvidia Treiber releases abwarten, dann reevaluieren.

HisN
2020-12-13, 18:21:10
-> frühers ging der Boost nie über den eingestellten Takt, ist das jetzt so?

Du hast in der Regel jetzt drei Taktdomains "Fluktuation". Und auch die Spannung wird noch ein bisschen flattern.

Gecko_0815
2020-12-13, 18:45:19
dann lass doch mal den 3d Murks Night Raid laufen, wenn die CPU stark genug ist im 2. Grafik-Bench die GPU so zu füttern das 1300fps rauskommen und dein NT durchhält bekommt be quiet wieder einen Pluspunkt bei mir :freak:

Nightride läuft bei mir nur mit 600 FPS und Graka und CPU langweilen sich. Warum auch immer. Ist aber auch nicht mein Focus. Sinn der 3090 ist 4K120Hz mit GSYNCH, HDR und 10 Bit 4.4.4 am LG OLED. Und da liefert sie großartig ab. Wenn ich Igor richtig verstanden habe kommt es durch Undervolting und dadurch GPU Power max 330 Watt bei eingestelltem Powerlimit von 350 W auch nicht zu den Stromspikes. Alles gut. Ich erlebe zur Zeit alle meine Spiele neu. :smile:

HisN
2020-12-13, 18:51:29
Wenn die Graka sich langweilt hängst Du im CPU-Limit oder hast einen Limiter gesetzt.
Nur um das "warum auch immer" zu erklären.
Eine CPU limitiert nicht erst wenn sie zu 100% Ausgelastet wird, das ist etwa 2005 gestorben und muss sich jetzt nach 15 Jahren nur noch rumsprechen.

Gecko_0815
2020-12-13, 19:17:19
Schon klar. Aber uninteressant bzw. bin ich zu faul zum suchen. Die relevanten Benchmarks bringen die zu erwartenden Resultate.

Weil ich da auch viel gelesen habe: Folgendes 5m Kabel überträgt 4K120Hz / GSYNCH / HDR / 10 Bit / 4.4.4 zum CX:

https://www.amazon.de/gp/product/B08C51MMXD/ref=ppx_yo_dt_b_asin_title_o03_s00?ie=UTF8&psc=1

Wuge
2020-12-13, 20:03:28
An die Spulengeräuschhasser: ich hab jetzt den Vergleich zwischen FTW3, Zotac Trinity und FE. Die FE ist mit Abstand, mit riesen Abstand am lautesten und die erste Karte bei der ich wirklich schockiert bin was "elektrik Geräusche" angeht. Jetzt weiß ich erstmal was coil wihne ist. Aber: es kommt NICHT aus der Grafikkarte! Das Netzteil macht die Geräusche. Hört mal rein in eure Tower ;)

Gecko_0815
2020-12-13, 20:48:05
Folding@Home hat alle meine Undervolting Presets mit fehlerhaften Workloads abbrechen lassen. @stock geht es.

>1 Stunde F@H Vollast mit 3700@stock / RTX3900@stock hält das PP11 500W auch aus.

Gynoug MD
2020-12-13, 21:10:59
Edit: Und es scheint mit so, als wenn ich mir eine GPU Stütze zulegen muss, da sich die Grafikkarte zumindest gefühlt nach rechts schon sehr nach unten hängen lässt. Hat da jemand eine Empfehlung?
Bei der dreifachen Verschraubung der FE biegt sich zwar bei mir nichts durch, dennoch habe ich mir diesen hier gekauft, ganz brauchbar:
https://www.amazon.de/Grafikkarten-Halterung-Aerospace-Aluminium-Halteblech/dp/B08C2CTPV6/ref=sr_1_1_sspa?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=6CYLQ2LZV1N6&dchild=1&keywords=grafikkarten+halter&qid=1607889987&sprefix=grafikkarten+hal%2Caps%2C177&sr=8-1-spons&psc=1&spLa=ZW5jcnlwdGVkUXVhbGlmaWVyPUEzVTFaVjNGT1E2M1ZEJmVuY3J5cHRlZElkPUExMDQ1OTIzMjR CWkgxWVhHSzRZVSZlbmNyeXB0ZWRBZElkPUEwNjYzNTA5MlRGQUJUTTFQNFNSUSZ3aWRnZXROYW1lPXN wX2F0ZiZhY3Rpb249Y2xpY2tSZWRpcmVjdCZkb05vdExvZ0NsaWNrPXRydWU=
72935

qiller
2020-12-13, 22:58:03
An die Spulengeräuschhasser: ich hab jetzt den Vergleich zwischen FTW3, Zotac Trinity und FE. Die FE ist mit Abstand, mit riesen Abstand am lautesten und die erste Karte bei der ich wirklich schockiert bin was "elektrik Geräusche" angeht. Jetzt weiß ich erstmal was coil wihne ist. Aber: es kommt NICHT aus der Grafikkarte! Das Netzteil macht die Geräusche. Hört mal rein in eure Tower ;)
Tjoar, da ich ja auch die FE hier hatte, kann ich das nur bestätigen. Hatte auch noch nie so eine derart laute Karte - und das bei einem gedämmten Gehäuse. Hoffentlich kommt nächste Woche die Kohle von nbb.de zurück. Angeblich sollen, was Spulengeräusche angeht, die Referenzkarten noch mit am besten abschneiden. Bekomme nächste Woche eine PNY und werde berichten. Da ich da drauf nen Wakühler schnalle will, sollte das die ideale Karte sein. Ich bin gespannt.

Edit: Bei mir kamen die Geräusche ganz klar ortbar von der Grafikkarte!

Robot
2020-12-13, 23:54:56
An die Spulengeräuschhasser: ich hab jetzt den Vergleich zwischen FTW3, Zotac Trinity und FE. Die FE ist mit Abstand, mit riesen Abstand am lautesten und die erste Karte bei der ich wirklich schockiert bin was "elektrik Geräusche" angeht. Jetzt weiß ich erstmal was coil wihne ist. Aber: es kommt NICHT aus der Grafikkarte! Das Netzteil macht die Geräusche. Hört mal rein in eure Tower ;)

Komisch, warum sollte eine FE im Netzteil mehr fiepen erzeugen als die anderen. Irgendwie würde das bedeuten, dass die FE höhere oder schnellere Lastwechsel hat. Macht jetzt für mich auf den ersten Blick nicht wirklich Sinn. Sicher das es aus dem Netzteil kommt?

Lowkey
2020-12-14, 00:31:04
Bei mir war es klar die FE und nicht das Netzteil. Ich hoffe NBB läßt sich nicht zu viel Zeit mit der Rücküberweisung.

hq-hq
2020-12-14, 00:42:15
Hab die FE mit zwei Netzteilen laufen gehabt bis 400Watt und die war jetzt nicht lauter als die alte Strix OC 2080Ti, beide gehören zu den leiseren Spulenfiepern.
Natürlich sollten die FEs mehr oder weniger gleich klingen, andere Karten mit anderen Bauteilen / Buck Controller Frequenz dann anders
-> okay PSU spielt natürlich mit rein, ein buzzendes Netzteil hatte ich auch mal, auch zwei Stück die gefiept haben wenn die Last extrem niedrig war

-> Night Ride läuft auf dem 8700k viel schlechter als mit dem 5800x ... entweder liegt es am Windoof 2004 Update oder am NV Treiber, mit der 2080Ti war die Tendenz ganz klar 8700k ^^ jedenfalls hat es bei 1300fps das Netzteil abgeschalten (mein kleines 650Watt, mit dem 850 Watt bisher keine Probleme)
-> das 2-3 Taktstufen höher als Curve verhalten zwingt zu einer etwas konservativeren Curve, wer macht denn sowas...

qiller
2020-12-14, 01:40:59
Komisch, warum sollte eine FE im Netzteil mehr fiepen erzeugen als die anderen. Irgendwie würde das bedeuten, dass die FE höhere oder schnellere Lastwechsel hat. Macht jetzt für mich auf den ersten Blick nicht wirklich Sinn. Sicher das es aus dem Netzteil kommt?
Jein. Netzteile mit schlechter Filterung können die Spulen auf Grafikkarten stärker "anregen". Aber es geht auch andersrum. Das Problem hatte ich damals mit meinem Haswell System und der ersten GTX Titan. Spulenzirpen im Netzteil. Wechsel auf ein Seasonic-NT und der Spuk war vorbei.

OCmylife
2020-12-14, 01:51:48
Bei der dreifachen Verschraubung der FE biegt sich zwar bei mir nichts durch, dennoch habe ich mir diesen hier gekauft, ganz brauchbar:
https://www.amazon.de/Grafikkarten-Halterung-Aerospace-Aluminium-Halteblech/dp/B08C2CTPV6/ref=sr_1_1_sspa?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=6CYLQ2LZV1N6&dchild=1&keywords=grafikkarten+halter&qid=1607889987&sprefix=grafikkarten+hal%2Caps%2C177&sr=8-1-spons&psc=1&spLa=ZW5jcnlwdGVkUXVhbGlmaWVyPUEzVTFaVjNGT1E2M1ZEJmVuY3J5cHRlZElkPUExMDQ1OTIzMjR CWkgxWVhHSzRZVSZlbmNyeXB0ZWRBZElkPUEwNjYzNTA5MlRGQUJUTTFQNFNSUSZ3aWRnZXROYW1lPXN wX2F0ZiZhY3Rpb249Y2xpY2tSZWRpcmVjdCZkb05vdExvZ0NsaWNrPXRydWU=
72935

Vielen Dank für den Tipp!

Wuge
2020-12-14, 10:14:32
Tjoar, da ich ja auch die FE hier hatte, kann ich das nur bestätigen. Hatte auch noch nie so eine derart laute Karte - und das bei einem gedämmten Gehäuse. Hoffentlich kommt nächste Woche die Kohle von nbb.de zurück. Angeblich sollen, was Spulengeräusche angeht, die Referenzkarten noch mit am besten abschneiden. Bekomme nächste Woche eine PNY und werde berichten. Da ich da drauf nen Wakühler schnalle will, sollte das die ideale Karte sein. Ich bin gespannt.

Edit: Bei mir kamen die Geräusche ganz klar ortbar von der Grafikkarte!

Referenz ist tatsächlich am leisesten, jetzt wo ich den Vergleich hab (FTW3, Zotac, 2x FE). Ich hab den Rechner halb zerlegt hier liegen, daher kann ichs gut lokalisieren. Die Karte selbst ist ruhig, das Netzteil jammert wie ein Schlosshund. Die FE scheint wohl relativ rabiat zu schalten. Dafür ist der Lüfter leise :freak:

Lurtz
2020-12-14, 10:34:33
Alle natürlich nicht 3090 Ziel ist UHD-1 16 ms AVG UHD-2 mit 33 ms AVG Spielbar mit DLSS + RT

keine Ahnung wie er auf die 17 FPS kommt das muss minimum wert in einer der extremsten szenen sein

Alex HVS Overhead decimation Empfehlung

https://youtu.be/pC25ambD8vs

PS: Meine persönliche Empfehlung erst einmal noch 1 Patch und 2 Nvidia Treiber releases abwarten, dann reevaluieren.
Ich glaube CDPR hat gerade andere Sorgen als die RT-Performance zu verbessern.

Rebell
2020-12-14, 11:47:34
True story. Aber däm, sieht das Spiel phasenweise geil aus. Also ich weiß nicht, wie's euch geht, aber für mich hat sich die Investition ausgezahlt. Das Spiel des Jahres in der bestmöglichen Qualität: check. Und 1-2 Järhchen hält die RTX 3090 so und so.

Noch ein paar Patches und der Lack passt. Und natürlich braucht's ein paar Optik-Tweaks, um die Stärken der RTX 3090 auszunutzen. Derzeit ist das Spiel brutal auf 8–10 GiB getrimmt, gut erkennbar (bzw. schlecht erkennbar ;)) an Brei-Oberflächen, die nach kurzer Zeit doch hübsch werden -> zu knappes Streaming-Budget.

MfG
Raff

Seh ich auch so. Die 24GB gehören sich genutzt :)

Zock das Game auf 3440x1440 und alles maxed oder psycho und DLSS auf Quality. Unter 45fps falle ich glaube ich fast nie, für mich so komplett spielbar und sieht einfach grandios aus. Laufe viel mehr durch die Stadt als zu fahren :)
Man kann von Nvidia halten was man will, aber mit Raytracing haben sie den nächsten Schritt zur NextGen eingeleitet.
DLSS auch extremst vielversprechend für die Zukunft.

EDIT:
und mit dem Ryzen Fix ist der 5600x vorbei am 10900K :D
https://www.tomshardware.com/news/cyberpunk-2077-amd-ryzen-performance-bug-fix-testing

Kriegsgeier
2020-12-14, 12:55:29
wieso schwärmt ihr alle von DLSS? Ich finde es auch auf Qualitätseinstellung ziemlich matschig. Oder mache ich da was falsch?
Klar hat man mehr FPS aber diese kommen auch nicht von ungefähr: matschige Texturen bzw. das Gesamtbild wird dadurch ziemlich matschig :(
Ich spiele lieber auf NATIV, klar ohne RT aber dafür fast 90 FPS und alles extrem scharf. Dabei verspüre ich auch Nextgen-Grafik. Die NPCs sind mit diesen Hires-Texturen - 1A!