PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3080 12GB Review-Thread


Leonidas
2022-01-11, 15:09:30
GeForce RTX 3080 12GB
*********************
nVidia GA102-220
70 Shader-Cluster mit 8960 FP32-Einheiten
384 Bit Speicherinterface
12 GB GDDR6X-Speicher
Listenpreis: derzeit keine offizielle Angabe

Reviews kommen wohl erst im Laufe der Woche, da nVidia den passenden Treiber zu spät herausgegeben hat.

VooDoo7mx
2022-01-11, 15:39:12
Bei Mindfactory sind schon eine MSI Gaming Z verfügbar (gewesen?) für ~1700€.
Das ist mehr als ich im letzten August für meine MSI Suprim 3080Ti bezahlt habe. :ugly:

Nochmal alle GA102 SKUs:

GeForce RTX 3090 Ti
*********************
84SM GA102
384 Bit Speicherinterface
24GiB 21 Gbps GDDR6X-Speicher
450W

GeForce RTX 3090
*********************
82SM GA102
384 Bit Speicherinterface
24GiB 19,5 Gbps GDDR6X-Speicher
350W

GeForce RTX 3080 Ti
*********************
80SM GA102
384 Bit Speicherinterface
12GiB 19 Gbps GDDR6X-Speicher
350W

GeForce RTX 3080 12GB
*********************
70SM GA102
384 Bit Speicherinterface
12GiB 19 Gbps GDDR6X-Speicher
350W

GeForce RTX 3080
*********************
68SM GA102
320 Bit Speicherinterface
10GiB 19 Gbps GDDR6X-Speicher
320W

Eigentlich für jeden was dabei, wenn nur für vernünftigen preis verfügbar. :ugly:

Leonidas
2022-01-11, 15:44:25
Quelle: https://twitter.com/eTeknix/status/1480904808492154882

https://pbs.twimg.com/media/FI07EbeXsAMLWn6?format=png

Hakim
2022-01-11, 15:46:37
Ich gebe mal eine vorsichtige Prognose ab, irgendwo zwischen den nur 10% Unterschied zwischen der 80 10gb und 80ti, mit Tendenz näher zu 80 10GB, solange die 10gb nicht limitieren.

Ex3cut3r
2022-01-11, 15:53:01
Joa. Kommt hin. Ich erreiche über 20K mit einer 3080 Ti OC im Graphics Score Only.

https://abload.de/img/unbenanntctk5p.png

Ansonsten, weiß nicht, was nutzt es jetzt drei nicht wirklich lieferbare GA102 Offerten anzubieten? 3090 und 3090 Ti mal außen, sonst wären es sogar 5. ;D

Mit dem breiteren Interface und dem nochmal schnelleren GDDR6X ist man ganz klar eher auf Miner aus, denn dort hilft viel Bandbreite.

Ansonsten auch bisschen ärgerlich für "normale" 3080 User? Wieso gab es 12GB nicht gleich?

dildo4u
2022-01-11, 16:07:53
Weil sie 2020 tatsächlich den genannten Preis erzielen wollten, da es erstmals seit längerem Konkurrenz gab.

Leonidas
2022-01-11, 16:29:31
Denkbar. Da hätten 2GB mehr nicht in die Kalkulation gepasst.

Troyan
2022-01-11, 16:33:42
Die 2GB waren nie das Problem, sondern das nur GPUs mit vollständigen Memory-Controller nutzbar wären. Daher die 10GB.

Ex3cut3r
2022-01-11, 16:36:10
Weil sie 2020 tatsächlich den genannten Preis erzielen wollten, da es erstmals seit längerem Konkurrenz gab.

Denkbar. Da hätten 2GB mehr nicht in die Kalkulation gepasst.

Also KA wo ihr wart. Aber diesen "UVP Qautsch" mit 699€ gab es nicht wirklich im Handel. Ok, FE 3x Stück innerhalb von 5 Sekunden weg. Beim Händler gab es ein paar Customs für 800-1000€ ok. Schon 2 Wochen später, gab es dann plötzlich nur noch weiter über 1000€ Angebote beim normalen Händler. Damals wollte man nun abwarten, bis sich die Liefersituation verbessert hat, diese hat sich aber nie verbessert. Sondern es gibt Leute die warten immer noch auf Ihre Bestellung vom September 2020.

Die UVP Preise waren einfach eine Täuschung des gesamten Marktes. Jeder hatte mit höheren Preisen gerechnet als bei der 20er Serie. Die 699€ für die 3080 waren damals ein OMG Moment. Die armen Scheine die Ihre 2080 Ti für 500€ verscherbelten usw.

dildo4u
2022-01-11, 16:46:37
Sie wollten einfach nicht wie Intel enden daher der unerreichbare Preis im Fall das AMD den Markt mit GPUs flutet.
Was aus ihrer Sicht Sinn gemacht hat, da sie TSMC(bis auf ein paar Profi Karten) fast komplett AMD überlassen haben.
Somit hätten sie sich offizelle Preissenkungen sparen können.

Hakim
2022-01-11, 16:49:08
Anfangs konnte man aber tatsächlich FEs abbekommen wenn man wollte und aufmerksam aufgepasst hat, 2 von 3 Freunden haben eine FE noch 2020 bekommen und wir alle 3 hätten damals die 3090 FE die es teils minutenlang noch zu Bestellen gab ordern können. Nur die 3080 FE war echt instant weg, wobei ich bei Asus selber bei der TUF für 719€ gezögert habe. Später hat es sich halt deutlich verschlechtert

dargo
2022-01-11, 16:50:33
Ansonsten, weiß nicht, was nutzt es jetzt drei nicht wirklich lieferbare GA102 Offerten anzubieten? 3090 und 3090 Ti mal außen, sonst wären es sogar 5. ;D

Ich lache mich nur noch schlapp über das Portfolio von Ampere. Beim Release von Ampere war Nvidia noch fest davon überzeugt die 8GB und 10GB der 3070/3080 würden vollkommen reichen. ;D

Ex3cut3r
2022-01-11, 17:16:45
Schon klar. Aber AMD ist auch nicht besser. Die Preise egal welcher IHV sind ein Witz. Auch egal welche Leistungsklasse, 500-700€ über UVP sind Standard.

Bei einer UVP von 600€ einfach mal das doppelte verlangen (billigste 6800 non XT auf gh.de) ;D

https://abload.de/img/unbenanntjrjm5.png

dargo
2022-01-11, 17:32:18
Ich bezog mich nirgendwo auf die verrückten Preise, da nehmen sich die Boardpartner beider IHVs nichts. Ich sprach vom Speicherausbau. :wink:

Ex3cut3r
2022-01-11, 17:33:01
Da hast da natürlich recht! Das war schon sehr geizig von Nvidia.

Anderseits bekomme ich die 12GB selbst in 5K (mit oder ohne DLSS) nicht platt. :freak:

dargo
2022-01-11, 17:37:19
Anderseits bekomme ich die 12GB selbst in 5K (mit oder ohne DLSS) nicht platt. :freak:
Ist das jetzt schlecht oder gut? ;) Normalerweise plane ich bei einem Kauf es so ein, dass der Speicher für die nächsten 2-3 Jahre reichen sollte. Sonst wäre es ein schlechter Kauf. ;)

Ex3cut3r
2022-01-11, 17:53:32
Also. Jetzt wo ich eine Karte mit mehr als 8GB VRAM habe, sehe ich eigentlich wie genau die Spiele momentan @ 8GB ausgelegt sind. In 1440p bin ich schon sehr oft bei genau 7,5GB.

Es ist schon ein bisschen verrückt, wie der Speicher einfach ignoriert wird. Beim RAM ist das selbe zu beobachten. RDR2 z.B. schmeißt immer wieder Daten aus dem VRAM und RAM raus, obwohl 20GB RAM und 5,5 GB VRAM frei sind. :freak:

Ich sehe stand jetzt nicht, wo auf einmal solche eine Speicherexplosion der Spiele herkommen soll. Vor allem da täglich auch wieder neue GPUs mit 8GB VRAM rls werden. Die Entwickler werden noch sehr lange 8GB unterstützen müssen. Vermutlich kommt man damit das ganze PS5 Zeitalter mit aus. Wenn man bei "normalen" Auflösungen bleibt.

Des weiteren kommt ja auch noch Sampler Feedback. Wenn wir demnächst Daten effizient streamen können ala Konsolen, war das sowieso erst mal mit dem VRAM Wahn. ^^

dargo
2022-01-11, 17:58:06
Du weißt aber schon, dass manche Spiele einfach nicht die vollen Texturdetails anzeigen wenn der Vram fehlt? Nur weil dein Overlay knapp unterhalb des max. Ausbaus rumdümpelt heißt nicht automatisch es reicht für max. Qualität. Auf der anderen Seite sind wir immer noch großteils in der Übergangsphase zwischen Lastgen und Currentgen Konsolen. Erst wenn nur Currentgen angesprochen wird erwarte ich wieder einen signifikanten Anstieg im Vram-Bereich.

-=Popeye=-
2022-01-11, 18:02:26
Da hast da natürlich recht! Das war schon sehr geizig von Nvidia.

Anderseits bekomme ich die 12GB selbst in 5K (mit oder ohne DLSS) nicht platt. :freak:

Far Cry 6 5k, HD Texturen On, RT On, FSR Off... ups 16GB alle. :biggrin:

Ex3cut3r
2022-01-11, 18:02:27
Wie sollen Texturen reduziert werden, wenn man bei 7,5 von 12 ist?

Oder was meinst du jetzt?

In 5K? Selbst da bin ich bei 10GB. Einzige Ausnahme ist Deathloop.
https://abload.de/img/deathloop_2021_12_20_uwj44.png
(1440p) Max, CPU Limit.

Far Cry 6 5k, HD Texturen On, RT On, FSR Off... ups 16GB alle. :biggrin:

War kein Problem mit neusten Patch und Texture Pack. Allerdings schon deinstalliert. Hatte es noch mit der 2080 durchgezockt. Und sehe keinen Sinn mehr es auf der Platte zu behalten. Allerdings wars mit RT OFF, weil RT solch Blaue Halos auf Pflanzen gemacht hat.

https://www.youtube.com/watch?v=WghfGVJ5AaI&t=377s

Wurde das mittelerweile eigentlich behoben?

dargo
2022-01-11, 18:05:21
Ich sehe stand jetzt nicht, wo auf einmal solche eine Speicherexplosion der Spiele herkommen soll. Vor allem da täglich auch wieder neue GPUs mit 8GB VRAM rls werden. Die Entwickler werden noch sehr lange 8GB unterstützen müssen.

Verstehe das Problem jetzt nicht. Die DEVs bauen doch niedrigere Texturdetails ein um eben dann solche Karten lauffähig zu halten.


Des weiteren kommt ja auch noch Sampler Feedback. Wenn wir demnächst Daten effizient streamen können ala Konsolen, war das sowieso erst mal mit dem VRAM Wahn. ^^
Haha... die feuchten Träume @Sampler Feedback im Bereich Vram-Ersparnis. ;D Stelle dich schon mal darauf ein das wird in etwa so lange am PC brauchen wie der Wechsel von D3D11/OpenGL auf D3D12/Vulkan. :wink:

Wie sollen Texturen reduziert werden, wenn man bei 7,5 von 12 ist?

Oder was meinst du jetzt?

Nein, das Beispiel bezog sich auf die 8GB Karten.

aufkrawall
2022-01-11, 18:21:30
Far Cry 6 5k, HD Texturen On, RT On, FSR Off... ups 16GB alle. :biggrin:
Das Spiel mistet, wie bereits erwähnt, bei ~80% VRAM-Belegung einfach aus. Das ist schon ein ganz besonders dämlicher Fall. Die meisten anderen Spiele haben aber eher eine hart hardcoded Limit. WD Legion schmeißt etwa immer aggressiver raus, je näher man an 10 GB ist. Wenn man dann RT und Auflösung maxt, wobei man dann längere Zeit > 10GB ist, sieht man dan VRAM-Counter ständig aggressiv rauf und runter gehen, inkls. schlechterer Frame Times. Würde mit 16GB wahrscheinlich genau so laufen (mit AMD etwas schwer zu sagen, weil RT dort ohnehin die Frame Times ruiniert).
VRAM-Verwaltung auf dem PC ist einfach ein einziges Trauerspiel.

Matrix316
2022-01-11, 18:33:53
Also ich finde es gut, dass 3090TI und 3080 12 GB und sonst was rauskommt, weil meine Hoffnung immer noch ist, dass wenn genügend Karten da sind - egal welche - die Preise sinken müssen.

Nehmen wir mal an, Nvidia hat plötzlich ganz viele 3070, dann werden die Preise näher an die 500 UVP ranrücken. Dann bezahlt aber keiner mehr 1300 für eine 3080. Also werden die Preise auch sinken. Und so weiter. Und wenn von allen Karten genug da sind, kommen die neuen 4000er raus und alles fängt von vorne an. :D ;)

dargo
2022-01-11, 18:45:05
Also ich finde es gut, dass 3090TI und 3080 12 GB und sonst was rauskommt, weil meine Hoffnung immer noch ist, dass wenn genügend Karten da sind - egal welche - die Preise sinken müssen.

Nur weil das Portfolio erweitert wird heißt es nicht automatisch, dass mehr Karten vorhanden sind. Dafür müssten die Waferkapazitäten signifikant steigen. Und letzteres hilft natürlich auch nur wenn es nicht woanders an Bauteilen mangelt. Im übrigen sind die Händlerlager mit Grafikkarten sehr gut gefühlt, dennoch fallen die Preise nicht. Ich würde mich von dem Gedanken verabschieden, dass kurzfristig sich der Grafikkartenmarkt wieder normalisiert.

The_Invisible
2022-01-11, 18:47:42
Also KA wo ihr wart. Aber diesen "UVP Qautsch" mit 699€ gab es nicht wirklich im Handel. Ok, FE 3x Stück innerhalb von 5 Sekunden weg. Beim Händler gab es ein paar Customs für 800-1000€ ok. Schon 2 Wochen später, gab es dann plötzlich nur noch weiter über 1000€ Angebote beim normalen Händler. Damals wollte man nun abwarten, bis sich die Liefersituation verbessert hat, diese hat sich aber nie verbessert. Sondern es gibt Leute die warten immer noch auf Ihre Bestellung vom September 2020.



Jap, kann mich noch an meine 3080 Trinity für 699,- erinnern die nie geliefert wurde. Lagernde FE habe ich nie gesehen, war da ein paar Wochen drauf aber dann wurde es mir zu blöd.
Bei dem Satz das die FE eh "minutenlang" verfügbar war musste ich lachen, aber gut, wer hätte schon gewusst wie sich das entwickelt...

Matrix316
2022-01-11, 19:05:06
Nur weil das Portfolio erweitert wird heißt es nicht automatisch, dass mehr Karten vorhanden sind. Dafür müssten die Waferkapazitäten signifikant steigen. Und letzteres hilft natürlich auch nur wenn es nicht woanders an Bauteilen mangelt. Im übrigen sind die Händlerlager mit Grafikkarten sehr gut gefühlt, dennoch fallen die Preise nicht. Ich würde mich von dem Gedanken verabschieden, dass kurzfristig sich der Grafikkartenmarkt wieder normalisiert.
Ja weil keiner die teuren Preise bezahlen will. Wenn eine Karte mal so viel auf Lager ist, dass die Preise dort sinken, dann sinken die anderen automatisch mit. Sagst ja selbst, dass genug da sind eigentlich. Nur halt zu teuer.

Ex3cut3r
2022-01-11, 19:05:45
Verstehe das Problem jetzt nicht. Die DEVs bauen doch niedrigere Texturdetails ein um eben dann solche Karten lauffähig zu halten.

Nein, das Beispiel bezog sich auf die 8GB Karten.

Man kann doch nicht 80% der PCler mit 8GB Karten, egal welche Gen, einfach mit Low Texturen abspeisen, weil ein paar Radeoner jetzt ne 16GB Karte haben. So entwickelt keiner PC Ports. Der Shitstorm wäre gewaltig.


Haha... die feuchten Träume @Sampler Feedback im Bereich Vram-Ersparnis. ;D Stelle dich schon mal darauf ein das wird in etwa so lange am PC brauchen wie der Wechsel von D3D11/OpenGL auf D3D12/Vulkan. :wink:

Ich habe halt Hoffnung, dass es diesmal relativ schnell geht.



Jap, kann mich noch an meine 3080 Trinity für 699,- erinnern die nie geliefert wurde. Lagernde FE habe ich nie gesehen, war da ein paar Wochen drauf aber dann wurde es mir zu blöd.
Bei dem Satz das die FE eh "minutenlang" verfügbar war musste ich lachen, aber gut, wer hätte schon gewusst wie sich das entwickelt...

Ganz genau. Naja, mittlerweile hast du ja ne 3080 Ti, hat immerhin nochmal 2GB mehr. ^^

dargo
2022-01-11, 19:36:11
Ja weil keiner die teuren Preise bezahlen will. Wenn eine Karte mal so viel auf Lager ist, dass die Preise dort sinken, dann sinken die anderen automatisch mit. Sagst ja selbst, dass genug da sind eigentlich. Nur halt zu teuer.
So wird ein Schuh draus. Wenn die teuren Preise bei lagernden Ware keiner bezahlen will warum sinken die Preise nicht?

Man kann doch nicht 80% der PCler mit 8GB Karten, egal welche Gen, einfach mit Low Texturen abspeisen, weil ein paar Radeoner jetzt ne 16GB Karte haben. So entwickelt keiner PC Ports. Der Shitstorm wäre gewaltig.

Wie kommst du jetzt auf Low Texturen? In der Regel reicht schon eine Texturstufe tiefer. Zudem gibt es Radeons auch mit 12GB.


Ich habe halt Hoffnung, dass es diesmal relativ schnell geht.

Wie stellst du dir das bitte vor wenn die Hardwarebasis am PC mit SF-Support noch meilenweit von einer nennenswerten Marktdurchdringung ist? Ein PC ist keine Konsole!

Ex3cut3r
2022-01-11, 20:01:31
DX12 Ultmate wovon Sampler Feedback ein Teil von ist, wurde von MS vor 1,5 Jahren vorgestellt. Nvidia macht Werbung mit Turing und Ampere mit DX12U. Windows 11 bzw. sogar 10 sollen es bekommen.

Irgendwann muss doch mal was kommen. Selbst wenn es erstmal so richtig Kacke wie DX12 läuft.

Thunder99
2022-01-11, 20:09:08
Eine Karte, die niemand mehr braucht.

Zu Teuer
Zu Spät
Stromhungriger als die 3080 10GB
Markt bleibt kaputt

urbi
2022-01-11, 20:18:33
Es ist eine okaye Karte. Da der Markt kaputt ist bringt es nichts.

Nvidia könnte eine Karte bringen die weniger Einheiten als die RTX 3080 hat und niedriger taktet und außerdem nur 8GiB Speicher hat und 100 € mehr kostet. Solange sie für 799 € tatsächlich lieferbar wäre, wäre es trotzdem eine Empfehlung wert.

seaFs
2022-01-11, 20:25:15
So wie die 1070Ti und die 2080Super. Soll sich in eine Lücke quetschen, die keine ist.

HOT
2022-01-11, 21:23:36
Joa. Kommt hin. Ich erreiche über 20K mit einer 3080 Ti OC im Graphics Score Only.

https://abload.de/img/unbenanntctk5p.png

Ansonsten, weiß nicht, was nutzt es jetzt drei nicht wirklich lieferbare GA102 Offerten anzubieten? 3090 und 3090 Ti mal außen, sonst wären es sogar 5. ;D

Mit dem breiteren Interface und dem nochmal schnelleren GDDR6X ist man ganz klar eher auf Miner aus, denn dort hilft viel Bandbreite.

Ansonsten auch bisschen ärgerlich für "normale" 3080 User? Wieso gab es 12GB nicht gleich?
Die 10GB-Variante und die 3090 werden ja direkt EOL gehen oder schon sein mMn. Die ersetzen ja nur die 3080 und die 3090.

dargo
2022-01-12, 08:18:39
Da ist was dran, ich meine wen jucken da +/-5% Performance? Etwas seltsame Produktpflege. Wobei es nicht ganz klar ist ob die 10GB 3080 tatsächlich überflüssig ist? Wenn Nvidia da mit dem SI Probleme hat eher nicht. Auf der anderen Seite muss man sich fragen was NV da immer für Probleme hat wenn selbst AMD in der Vergangenheit es nicht für nötig hielt bei Salvages ein 512Bit SI zu beschneiden.

Marodeur
2022-01-12, 08:57:17
Selbst wenn ich sage meine 3070 8GB hat mir dann doch zu wenig Speicher bringt mir das derzeit halt nix. Selbst wenn ich sie aktuell für mehr verkaufe als ich selbst bezahlt habe bleibt mir der Aufpreis viel zu hoch.

HOT
2022-01-12, 09:07:07
Grad die 3080 mit 10GB wird verschwinden. Die 12GB-Variante heißt nach wie vor 3080 und sonst nix.

w0mbat
2022-01-12, 10:22:24
So hätte die 3080 von Anfang an aussehen müssen, 10GB sind für eine high-end Karte einfach zu wenig, vor allem wenn man mal in 4K spielen will.

Leonidas
2022-01-12, 11:09:46
https://pbs.twimg.com/media/FI08HkOXwAIB9SL?format=png

Troyan
2022-01-12, 11:23:06
Wohl eher Samsung.^^

WedgeAntilles
2022-01-12, 11:37:28
So hätte die 3080 von Anfang an aussehen müssen, 10GB sind für eine high-end Karte einfach zu wenig, vor allem wenn man mal in 4K spielen will.
Völlig richtig - und deswegen bin ich auch über die neuen Karten froh, eine 12GB 2060 und so weiter.
Nvidia hebt hier die Ram-Menge an, da wird man bei Lovelace wohl unmöglich an einer 4070 mit 16GB vorbeikommen.
Und eine 4080 wird wohl mit 20GB (oder 24?) kommen.

D.h. bei Lovelace hat man dann - endlich - von vornherein runde Produkte, bei denen man keine Abstriche machen muss.
Das lässt dann auch den voraussichtlich deutlich angehobenen UVP besser verschmerzen.

ChaosTM
2022-01-12, 11:55:31
Als ich vor einem Jahre die 10GB der 3080er bekritteln hatte wurde ich als "Speicherfetischist" ausgelacht. 12 ist ein kleiner Schritt vorwärts aber immer noch nicht wirklich angemessen für ein High End Produkt bald 5 Jahre nach den 11GB 1080ti.
Momentan kann man aber praktische jedes Produkt das nicht total verkrüppelt ist (=/>8GB verkaufen, von daher ist NV noch nicht unter Zugzwang.

Für Full HD oder WQHD sollten die 12 auch ein paar Jahre reichen. Als "4K-Irrer" fühle ich mich da immer noch nicht ganz wohl. ;)
Lindas GPU - hoffentlich noch heuer - wird wohl mit genug Speicher antreten um "Next Gen" Spiele inklusive der wohl anstehenden Refresh Generation höchstauflösend darstellen zu können.
Dank der Mobilen 3080er (16GB) bin ich auch nicht mehr in Zugzwang und kann relaxed auf Lovelace/RDNA3 warten.

Lurtz
2022-01-12, 12:14:14
Völlig richtig - und deswegen bin ich auch über die neuen Karten froh, eine 12GB 2060 und so weiter.
Nvidia hebt hier die Ram-Menge an, da wird man bei Lovelace wohl unmöglich an einer 4070 mit 16GB vorbeikommen.
Das dachte man bei der 3070 und 8 GB auch.

WedgeAntilles
2022-01-12, 12:22:14
Das dachte man bei der 3070 und 8 GB auch.

Der Vergleich hinkt aber IMO, da es - außer der 2080 und 2080TI - keine Karten mit mehr als 8GB gab.
D.h. sie haben bei Ampere den Speicher halt konstant gehalten.

Aber jetzt gibt es eine 12GB 2060 und so weiter.
D.h. eine 4070 mit 8GB wäre ein massiver Rückschritt zu den aktuellen Bestückungen.

Womit eigetnlich nur 16GB übrig bleiben, es sei denn es wird etwas merkwürdig krummes gemacht. Was - von der 3080 mal abgesehen - bei Nvidia nur sehr selten passiert. Da ist es ja normalerweise jeweils das Doppelte.
6GB -> 12GB (siehe 2060/3060)
8GB -> 16GB.

Ex3cut3r
2022-01-12, 14:06:16
Ich denke mal schon, dass bei der nächsten Gen es so aussieht:

4090 384 Bit Interface ~48GB VRAM
(4080 Ti (Später) 384 Bit ~24GB VRAM)
4080 320 Bit ~20GB
4070 256 Bit ~16GB
4060 192 Bit ~12GB
4050 128 Bit ~ 8GB

w0mbat
2022-01-12, 19:44:39
Halbier den VRAM und es wird passen ;)

hq-hq
2022-01-12, 19:56:43
ich glaube ausnahmsweise wird der VRAM dann doch mehr werden :freak:

Wird die 3090Ti die 3090 ablösen und die 3080 12GB die 3080 10GB? Wäre naheliegend, so oder so gäbe es wohl auch nicht mehr Grafikkarten am Markt... :frown:

zumindest bei der Kingpin 3090 ist es so... die wird abgelöst durch die Ti

Raff
2022-01-13, 21:43:26
Teaser: morgen! ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78046&d=1642106604

MfG
Raff

Ex3cut3r
2022-01-13, 21:45:17
Hui, die 10GB limitieren. Allerdings auch ziemlich spezielle Settings in Minecraft?
Ich kenne mit dem Spiel nicht aus, zocke ich nicht.

Was 2GB mehr manchmal ausmachen kann.

Raff
2022-01-13, 21:46:35
Einer High-End-Grafikkarte angemessen. Da steht's übrigens ~46 zu ~62 Fps average.

MfG
Raff

y33H@
2022-01-13, 22:33:53
Wieder die Temple Map? ^^

Raff
2022-01-13, 22:43:44
Logen. Die erinnert mich immer so wohlig an Banjo Kazooie/Tooie. :biggrin:

MfG
Raff

Kriegsgeier
2022-01-14, 08:57:50
ich wette, dass bei keiner der RTX 4XXX mehr als 24 GB verbaut werden!
Extrem unwahrscheinlich!

dargo
2022-01-14, 09:02:18
Wäre auch kompletter Unsinn im Gaming-Bereich.

dildo4u
2022-01-14, 09:11:18
Wenn du bei 1000€ 16GB hast wären 32GB @ 2000€ möglich wenn man sieht wie sich die Preise entwickeln.
AMD wird dank Dual Die was haben was du nicht mit 16GB verkaufen kannst da es im Bereich der 4090 spielt.

Kriegsgeier
2022-01-14, 09:36:12
was ich damit sagen will:

ist man bereit zumindest ein wenig mit Grafikeinstellungen in den Spielen runter zu gehen reichen diese 24 GB bei 3090 noch gute 3-4 Jahre!
Auch von der Rechenleistung wird es so sein. Wenn man z.B. bei UWQHD (3440x1440) bleibt <-- meine linbingsauflösung!

Gut, dass PCGH diese in ihren Tests als wichtig ansieht und immer mittestet!

Die RTX3090 für 1500€ war eigentlich DER Kauf schlicht hin!

dargo
2022-01-14, 12:40:11
Wenn du bei 1000€ 16GB hast wären 32GB @ 2000€ möglich wenn man sieht wie sich die Preise entwickeln.

Möglich ist vieles, trotzdem wäre es bullshit.

WedgeAntilles
2022-01-14, 12:48:08
Möglich ist vieles, trotzdem wäre es bullshit.

Bei ner 4080 mit 20GB wäre eine 4090 mit 24GB irgendwie zu wenig.
Vor allem, wenn die 4090 sich beim Preis und bei der Leistung in einem ähnlichen Verhältnis zur 4080 befindet wie bei Ampere.

Das war bei Ampere ja der große Pluspunkt der 3090.

Aber 48GB für ne 4090 wäre in der Tat ziemlich sinnlos.

4060 = 12
4070 = 16
4080 = 20
sehe ich als ziemilch sicher an.

Aber bei der 4090?
Evt. wird auch zwischen der 4090 und der 4080 ein etwas größerer Leistungsunterschied sein.
Dann wäre nicht Ram der Selling-Point sondern die Leistung.
Dann wird auch eine 4090 wohl am ehesten mit 24GB kommen.

Ich würde nicht so weit gehen zu sagen: Das wird spannend - denn eine xx90 ist meilenweit außerhalb meiner Interessenlage.
"Mildly interesing" würde ich mal sagen.

dildo4u
2022-01-14, 12:58:59
Möglich ist vieles, trotzdem wäre es bullshit.
Die 4090 muss die Titan ersetzen es gibt nix mher im dem Bereich, A6000 ist bei 5000€.
Im Prinzip ist das Threadripper extrem teuer aber keine Epyc Preise.
Das wäre sogar ideal damit hätte die 4080 Ti für Gamer 16GB, 12GB sind mäh für die Leistung.

Ex3cut3r
2022-01-14, 13:08:27
Das wäre sogar ideal damit hätte die 4080 Ti für Gamer 16GB, 12GB sind mäh für die Leistung.

Wie soll die 4080 Ti mit 384 Bit Interface denn 16GB haben? Die wird 24GB haben. Die 4080 non Ti mit 320 Bit wird 20GB haben. Die 4070 mit 256 Bit, die wird deine 16GB haben.

dildo4u
2022-01-14, 13:20:01
Gibt es Infos dazu?Ich dachte NV erhöt den Cache im Chip und reduziert das Interface wie AMD.

Ex3cut3r
2022-01-14, 13:24:25
Nö glaube nicht. Soweit ich gelsesen habe, macht Nvdia erstmal weiter im Klassischen Design. AMD setzt ja auf eine Art Chiplet Design.

blaidd
2022-01-14, 15:03:39
Wäre auch kompletter Unsinn im Gaming-Bereich.

Naja, die RTX 3090 wird ja auch schon als "Nicht-wirklich-Profi-kauf-was-teureres-aus-unserer-Quattro-Abteilung-aber-totale-Content-Creation-und-so-aber-doch-nicht-Gaming-weil-Üb0r-Halo-Titan-Abklatsch-of-Hochpreis-Kaufmotivierungs"-Karte verkauft^^.

Und mit der UE5 bekommt man die 3090 und deren 24 GiByte platt, zumindest im Editior und ab 4K+50% res (5.120 × 2.880 Pixel ohne Upsampling). Da geht dann nicht mehr viel und die Umgebungen, in denen ich rumgespielt habe, waren allesamt ziemlich klein. Mit Market of Light (ohne Editor) und ein bisschen Downsampling bekommt man die 3090 auch zu Boden geknüppelt und bekommt da dann auch ziemlich heftige Streaming-Aussetzer.

Für "wirkliche" Content-Creator bzw. Grafiker und (Level-)Designer etc. wäre in Zukunft eine Karte mit 32 GiByte vielleicht gar nicht so schlecht.

dargo
2022-01-14, 18:11:09
Mit Gaming-Bereich meine ich natürlich die Spieler und keine Content-Creators.

horn 12
2022-01-14, 18:19:36
https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/4/

Test der RTX 3080 12GB

Kurz und Schmerzlos:
Schneller als 6800XT aber auch Stromhungriger als Jene, um mehr als 75 Watt.

Raff
2022-01-14, 23:48:05
Die oben angedeuteten Extremtests mit 12-GiByte-Heilsamkeit (https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a26) sind das Spannendste - oder auch die Erkenntnis, dass ein kraftvolles Design wie die Suprim X an die 3080 Ti heranreicht (https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a27). :)

MfG
Raff

Matrix316
2022-01-15, 11:17:31
Die oben angedeuteten Extremtests mit 12-GiByte-Heilsamkeit (https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a26) sind das Spannendste - oder auch die Erkenntnis, dass ein kraftvolles Design wie die Suprim X an die 3080 Ti heranreicht (https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a27). :)

MfG
Raff
Interessanter wäre der Custom Card Test, wenn man bei den anderen Karten auch Custom Versionen dazu testen würde.

VooDoo7mx
2022-01-15, 13:54:36
Die oben angedeuteten Extremtests mit 12-GiByte-Heilsamkeit (https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a26) sind das Spannendste - oder auch die Erkenntnis, dass ein kraftvolles Design wie die Suprim X an die 3080 Ti heranreicht (https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a27). :)

MfG
Raff

Also halten wir mal fest, für deine "Arbeit" was andere als Hobby machen, testest du jahrelang schon Grafikkarten. Wahrscheinlich hunderte.
Und jetzt ist es für dich eine neue Erkenntnis das eine werkseitige übertaktete Karte, mit erhöhten Power Limit und deutlich größeren Kühler an das nächst beste Referenzmodell ran reicht? Echt jetzt?
Manchmal glaube ich echt, ich lebe in einen Paralleluniversum.

TobiWahnKenobi
2022-01-15, 14:04:12
gibt es überhaupt noch eine relevante zielgruppe für solche tests? guck mal, was zu lesen für die nächsten 10 minuten.. werbung für ein neues produkt von IHV XY.. das eh nicht im laden landet.


(..)

mfg
tobi

r3ptil3
2022-01-15, 14:23:08
Vielmehr frage ich mich wer die ganzen Karten wirklich kauft?

Man muss sich das mal vor Augen führen: Die RTX 3080 10Gb wurde im September 2020 zu einer UVP von 699$ veröffentlicht. Januar 2022, der gleiche Chip, mit 2Gb mehr: UVP über 1500$.

Mir ist es egal ob ich 100 GPUs auch zu diesen Preisen kaufen könnte, nur aus Prinzip wird sowas nicht gekauft.
Als ich meine 3080er Karten gekauft habe damals, waren mir 900 Euro zu schade. Die Strix bekam ich für 850 Euro und das hat sich nicht gut angefühlt. :freak:

Matrix316
2022-01-15, 14:37:47
Vielmehr frage ich mich wer die ganzen Karten wirklich kauft?

Man muss sich das mal vor Augen führen: Die RTX 3080 10Gb wurde im September 2020 zu einer UVP von 699$ veröffentlicht. Januar 2022, der gleiche Chip, mit 2Gb mehr: UVP über 1500$.

Mir ist es egal ob ich 100 GPUs auch zu diesen Preisen kaufen könnte, nur aus Prinzip wird sowas nicht gekauft.
Als ich meine 3080er Karten gekauft habe damals, waren mir 900 Euro zu schade. Die Strix bekam ich für 850 Euro und das hat sich nicht gut angefühlt. :freak:
Ist halt alles relativ. Die 1089 für meine Gigabyte war damals ziemlich viel und heute wärs immer noch ein Schnäppchen! :eek:

Ex3cut3r
2022-01-15, 14:51:33
Bei all dem Gemeckere, hier hat fast jeder Ampere oder RDNA 2 gekauft. Auch wenn dann immer solche Kommentare kommen, habe zur UVP zugeschlagen, ja mag sein. Mag aber auch nicht sein. ^^

Der großteil in Europa und den USA kann sich das anscheinend nun mal leisten. AMD macht auch mit. Es wird interessant sein, ob Intel eine Vernunft Person wird, und sich dadurch alles wieder normalisiert. Wenn die Corona Sache und Chipknappheit halt irgendwann überwunden ist. Ich hoffe ja, dass Corona in diesem Jahr immer bedeutungsloser wird. Mit Omrikon sieht das aktuell in der Tat so aus. Aber, eine neue Mutation kann das auch wieder ganz schnell ändern.

ChaosTM
2022-01-15, 15:36:11
@bardh

Angebot und Nachfrage.

r3ptil3
2022-01-15, 15:37:08
@bardh

Angebot und Nachfrage.

Bestimmt, aber wer ist die Nachfrage würde mich interessieren?

Gibts da irgendwo richtige Daten, wer die Karten (die LHR Versionen) zu diesen Preisen kauft?

ChaosTM
2022-01-15, 15:41:02
Ein beträchtlicher Teil der Karten geht wohl direkt an größere Mining Firmen und erreichen daher nie die Händler.
Nur eine Vermutung..

r3ptil3
2022-01-15, 15:42:32
Ein beträchtlicher Teil der Karten geht wohl direkt an größere Mining Firmen und erreichen daher nie die Händler.
Nur eine Vermutung..

Auch die LHR-Modelle?

ChaosTM
2022-01-15, 15:43:56
Die sind deutlich günstiger zu haben, daher eher nicht.

Raff
2022-01-16, 15:21:43
Also halten wir mal fest, für deine "Arbeit" was andere als Hobby machen, testest du jahrelang schon Grafikkarten. Wahrscheinlich hunderte.
Und jetzt ist es für dich eine neue Erkenntnis das eine werkseitige übertaktete Karte, mit erhöhten Power Limit und deutlich größeren Kühler an das nächst beste Referenzmodell ran reicht? Echt jetzt?
Manchmal glaube ich echt, ich lebe in einen Paralleluniversum.

Arbeit. Ohne Anführungszeichen.

Es geht nicht darum, welche Erkenntnis ich habe, sondern welche ich vermitteln möchte. :)

MfG
Raff

Dr.Doom
2022-01-16, 15:24:01
Es geht nicht darum, welche Erkenntnis ich habe, sondern welche ich vermitteln möchte. :)Also wenn ich jetzt schreiben würde, was ich von dieser Aussage halte, verschwindest du wieder für Monate aus dem Forum. :freak:

Raff
2022-01-16, 15:32:02
Wird eh mal wieder Zeit, die vielen Überstunden und deren Wertschätzung sind woanders besser aufgehoben. ;)

MfG
Raff

r3ptil3
2022-01-16, 17:09:48
Wird eh mal wieder Zeit, die vielen Überstunden und deren Wertschätzung sind woanders besser aufgehoben. ;)

MfG
Raff

Da muss ich leider etwas Recht geben, aber auch die Moderation hat sich verändert. Dass ich lediglich durch Faktenaufzählung nacheinander mehrmals gesperrt wurde ohne jemand anzugreifen, ist mal nur ein Beispiel davon.
Irgendwo fast verständlich dass die Mitglieder dann, fast wie in einer Firma, das gleiche dann nachahmen und die Stimmung in einer Art und Weise vergiftet wird.

Den Artikel habe ich mir genüsslich durchgelesen, vielen Dank!
An sich wäre eine RTX 3080 12Gb auch für mich mit einer RX 6900 XT durchaus interessant, aber die Preise...

Mich würde auch stark interessieren wie es in Sachen Undervolting aussieht. Sprich was ist mit 1800-1900 Mhz möglich.

Meridian12
2022-01-16, 17:25:58
Bei all dem Gemeckere, hier hat fast jeder Ampere oder RDNA 2 gekauft. Auch wenn dann immer solche Kommentare kommen, habe zur UVP zugeschlagen, ja mag sein. Mag aber auch nicht sein. ^^

Der großteil in Europa und den USA kann sich das anscheinend nun mal leisten. AMD macht auch mit. Es wird interessant sein, ob Intel eine Vernunft Person wird, und sich dadurch alles wieder normalisiert. Wenn die Corona Sache und Chipknappheit halt irgendwann überwunden ist. Ich hoffe ja, dass Corona in diesem Jahr immer bedeutungsloser wird. Mit Omrikon sieht das aktuell in der Tat so aus. Aber, eine neue Mutation kann das auch wieder ganz schnell ändern.


Bei normaler UVP hätte ich mir eine 3080ti gekauft.
Aber ich lasse mich nicht abzocken. Also behalte ich meine 1080ti weiter. Und leisten kann ich mir auch die 3080ti zu dem Preis, aber mache ich nicht.

Und glaube so wie ich machen das viel,viel mehr als viele denken.

Das kann bei einer 4080ti irgendwann anders aussehen.Aber das ist dann a) keine Karte die doppelte UVP kostet und b) statt doppelt so schnell mit Glück dreimal so schnell ist wie meine 1080ti.

WedgeAntilles
2022-01-16, 22:01:50
Das kann bei einer 4080ti irgendwann anders aussehen.Aber das ist dann a) keine Karte die doppelte UVP kostet und b) statt doppelt so schnell mit Glück dreimal so schnell ist wie meine 1080ti.

Die Karte wird garantiert 3 x so schnell wie deine bisherige, eher deutlich mehr.
Die 3080TI ist- wie du ja sagst - doppelt so schnell.
D.h. wenn Lovelace nur 50% Performanceplus bringt wärst du schon bei 3 x so schnell wie deine. (2,0 * 1,5).
Wird Lovelace sogar 70% schneller wäre die Karte schon 3,4 mal so schnell wie deine.

Wird definitv ein sehr schöner Sprung :)

Ex3cut3r
2022-01-16, 23:11:13
Bei normaler UVP hätte ich mir eine 3080ti gekauft.
Aber ich lasse mich nicht abzocken. Also behalte ich meine 1080ti weiter. Und leisten kann ich mir auch die 3080ti zu dem Preis, aber mache ich nicht.

Und glaube so wie ich machen das viel,viel mehr als viele denken.

Das kann bei einer 4080ti irgendwann anders aussehen.Aber das ist dann a) keine Karte die doppelte UVP kostet und b) statt doppelt so schnell mit Glück dreimal so schnell ist wie meine 1080ti.

Sehe ich anders. Wenn man ins Luxx geht, haben sehr sehr viele eine RDNA2 oder Ampere Karte im PC stecken, hier gibt es auch sehr viele Leute mit solch einer Karte. Nur sind die meisten davon extrem ruhig und beschweren sich auch nicht über die Preise. Wären die jenigen die nix haben, fast jeden Tag Ihren Unmut darüber aussprechen. :wink:

Matrix316
2022-01-16, 23:27:08
Also ich finde es gibt Preise und Preise.

UVP der 3080 war mal 700 Euro.

Dann wurden die Preise teurer und kosteten nach ein paar Monaten um die 1000~1200 Euro.

JETZT kosten die 1700 Euro und 3080TI 1900 Euros - MEHR als die UVP der 3090. :ugly:

Das hat mit erhöhten Preise nichts mehr zu tun sondern ist einfach nur Abzocke.

Ex3cut3r
2022-01-16, 23:34:22
Es gibt das Gerücht, dass die UVP Preise von Nvdia im vornerein Fake waren. Bzw. nur die FE so Angeboten wäre! Nur viele gäbe es auch ohne Mining und Chipkrise nicht wirklich davon.

Ein Partner ich glaube, es war Asus meinte. 699$ für die 3080 wären für Sie nicht möglich, weil Sie davon nicht überleben könnten. 900-1000$ wären realistischer.

Tja....

Matrix316
2022-01-16, 23:54:38
Es gibt das Gerücht, dass die UVP Preise von Nvdia im vornerein Fake waren. Bzw. nur die FE so Angeboten wäre! Nur viele gäbe es auch ohne Mining und Chipkrise nicht wirklich davon.

Ein Partner ich glaube, es war Asus meinte. 699$ für die 3080 wären für Sie nicht möglich, weil Sie davon nicht überleben könnten. 900-1000$ wären realistischer.

Tja....

Ja von mir aus, aber aktuell kosten die ja nicht 900~1000 sondern viel mehr. Das ist ja das Problem.

900~1000 für eine 3080, 600 für die 3070, 400 für eine 3060, ~1200 für die 3080 TI, 1100 für die 12 GB 3080 und 1600/1700 für die 3090 oder so, wären doch auch OK.

MAX|HASS
2022-01-17, 00:53:02
4060 = 12
4070 = 16
4080 = 20
sehe ich als ziemilch sicher an.

Ich denke, es geht wieder so los:

4060 = 8 (7,5+0,5 :freak:)
4070 = 8
4080 = 8

Erstmal die Gunst der Stunde nutzen, die Käufer abziehen, denen der längste Balken am wichtigsten ist ("Achte reichen dicke für alles, believe us"). No offense, die Leute machen es mit.

Ein Jahr später dann von mir aus deine
4060 = 12
4070 = 16
4080 = 20
Größen.

Und wie schon zur brandneuen 2060 12gb wird man vielleicht wieder sowas lesen können wie "Die neue 12-GB-Version ist die Premium-Version der bekannten Grafikkarte und der Preis werde das widerspiegeln." Jau, das wird er dann wohl.

Thunder99
2022-01-23, 11:44:54
@Raff
Danke für deine tollen Test. Von mir kommt die Wertschätzung da du zeigst wo der Schuh drückt :wink:.
Danke.

UVP damals und heute kann man leider nicht vergleichen, da komplett andere Voraussetzung. Und was der Preis (nach oben) am Markt macht kann die UVP auch nicht wirklich was daran ändern.

Die Generation bleibt verloren. Mit FSR/NIS wird das Überleben versucht zu verlängern. Wenn es wirklich so angespannt bleibt, dann wird es erst 2026 nachhaltig besser

hq-hq
2022-02-06, 12:05:54
Wer glaubt NVidia würde seine FE Modelle mit Verlust verkaufen irrt sich. Das man wegen Bauteilknappheit mehr in die 3090 buttert, da die Marge am größten ist, stimmt wahrscheinlich. Am Bauteilmarkt wird auch abgezockt, wenn plötzlich ein 1.5 usd eeprom zwar sofort verfügbar ist, aber jetzt 100usd kosten soll. Lässt du dich abzocken kannst dafür aber produzieren oder gehen alle in Urlaub %)

Dr.Doom
2022-02-06, 12:19:08
Es gibt das Gerücht, dass die UVP Preise von Nvdia im vornerein Fake waren. Bzw. nur die FE so Angeboten wäre! Nur viele gäbe es auch ohne Mining und Chipkrise nicht wirklich davon.

Ein Partner ich glaube, es war Asus meinte. 699$ für die 3080 wären für Sie nicht möglich, weil Sie davon nicht überleben könnten. 900-1000$ wären realistischer.

Tja....Das ist doch nicht glaubwürdig, natürlich MUSS der Partner sowas sagen. :tongue:

dildo4u
2022-02-22, 11:28:29
Nachtest mit neueren Games wie Dying Light 2, God of War, Warhammer 3.
Und die Karten kosten wirklich fast das selbe zur Zeit, die 3080 12GB kommen durch den Crypto Crash deutlich runter im Preis.

6900XT

https://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=p&bl1_id=30&xf=132_16384%7E9816_02+04+12+-+RX+6900+XT

3080 12GB

https://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=p&bl1_id=30&xf=132_12288%7E9816_03+05+16+-+RTX+3080

maqLX05hMuQ

Troyan
2022-02-22, 12:03:45
Kein Raytracing, aber 1080p Benchmarks. :freak:

WedgeAntilles
2022-02-22, 12:07:54
Zum Video: Ich mag Hardware Unboxed.
Aber die Logik erschließt sich mir einfach nicht - ich teste Cyberpunk - und deaktiviere RT.
Klar, mein Ziel bei ner 1500 Euro GraKa ist es, als aller erstes die Optik nicht auf top zu stellen. Wie lächerlich ist das denn?

Cyberpunkt profitiert von RT, da braucht man nicht diskutieren.
Wenn ich ne 300 Euro GraKa teste - ja, da kann man RT evt. deaktivieren.
Aber wenn ich einen vierstelligen Betrag ausgebe will ich auch alles aktivieren.

Aber darf man natürlich nicht fordern, sonst wäre ja die AMD Karte nur noch halb so schnell, das darf es ja nicht geben.
Also deaktiviert man halt optische Effekte. Wer will schon die schönste Optik haben?

DLSS aktiviert man nicht, weil es ja Einbußen bei der Optik haben kann.
RT deaktivert man, weil es zwar der Optik was bringt, aber zu große Einbußen bei den AMD Frames hat.
Das man mit RT UND DLSS zusammen bessere Optik UND mehr Frames hätte - who cares?

Was für eine Art Logik soll das sein?

Aber ok, vielleicht bin ich tatsächlich der einzige Mensch auf der Welt, der erwartet bei einer über 1000 Euro teuren GraKa mit Max Details zocken zu können.

Aber die Logik erschließt sich mir einfach nicht - ich teste Cyberpunk - und deaktiviere RT.
Klar, mein Ziel bei ner 1500 Euro GraKa ist es, als aller erstes die Optik nicht auf top zu stellen. Wie lächerlich ist das denn?

Cyberpunkt profitiert von RT, da braucht man nicht diskutieren.
Wenn ich ne 300 Euro GraKa teste - ja, da kann man RT evt. deaktivieren.
Aber wenn ich einen vierstelligen Betrag ausgebe will ich auch alles aktivieren.

Aber darf man natürlich nicht fordern, sonst wäre ja die AMD Karte nur noch halb so schnell, das darf es ja nicht geben.
Also deaktiviert man halt optische Effekte. Wer will schon die schönste Optik haben?

DLSS aktiviert man nicht, weil es ja Einbußen bei der Optik haben kann.
RT deaktivert man, weil es zwar der Optik was bringt, aber zu große Einbußen bei den AMD Frames hat.
Das man mit RT UND DLSS zusammen bessere Optik UND mehr Frames hätte - who cares?

Was für eine Art Logik soll das sein?

Aber ok, vielleicht bin ich tatsächlich der einzige Mensch auf der Welt, der erwartet bei einer über 1000 Euro teuren GraKa mit Max Details zocken zu können.

Diese lächerliche Rücksichtnahme: "AMD kann halt kein RT, also darf man es nicht aktivieren" ist doch ein Witz².
Natürlich darf ein Parcours nicht nur aus RT Spielen bestehen - aber Spiele die RT bieten (wie CP, Metro, Doom) muss RT selbstverständlich aktiviert sein in den Tests.
Bei Metro haben sie es ja auch gemacht.
Dann ist AMD da halt nur bei halb so viel Frames oder noch weniger, so ist es halt.

dildo4u
2022-02-22, 12:13:03
Metro ist doch drinn das scheint mir Vergleichbar mit Cyberpunk.

WedgeAntilles
2022-02-22, 12:17:21
Metro ist doch drinn das scheint mir Vergleichbar mit Cyberpunk.

Ich habe gemerkt, dass mein Satz am Ende missverständlich war.
Da bezog ich mich generell auf Testes, in denen beispielsweise diese 3 Spiele mit drin sind.
Also nicht explizit der Test von Hardware Unboxed.

Warum diese Spiele? Weil es Spiele sind die von RT merklich profitieren und Spiele, die häufig getestet werden.

Ich habe noch ergänzt, dass sie bei Metro RT aktiviert hatten.

Ändert nix dran, dass es lächerlich ist, bei Cyberpunk RT nicht zu aktivieren.
Das hat mit einem sinnvollen Test nix zu tun.


Und ich kann mir einfach nicht vorstellen, dass die Leute gerne über 1000 Euro zahlen und dann Details - die das Spiel definitiv schöner machen - deaktivieren wollen. :confused:

Troyan
2022-02-22, 12:20:45
Es ist umso lächerlicher, da man in 1080p locker mit Raytracing zocken kann. Oder mit DLDSR (sowie in Kombination mit DLSS).

Aber vielleicht missverstehe ich AMD Kunden auch. Die interessierne sich einfach nicht für Bildqualität und 1080p ist für die vollkommen in Ordnung. Kann sein.

dildo4u
2022-02-22, 12:24:37
Ich finde den Test Ok deren Stand ist es macht nur Sinn AMD zu kaufen wenn man kein Interesse an RT hat und die Karte billiger ist klingt Fair.

WedgeAntilles
2022-02-22, 12:27:36
Aber vielleicht missverstehe ich AMD Kunden auch. Die interessierne sich einfach nicht für Bildqualität und 1080p ist für die vollkommen in Ordnung. Kann sein.
Nein, das stimmt nicht.
Schließlich würden die ja NIE DLSS verwenden, da es ja die Optik negativ beeinflusst.

Das ist ja das Geniale.
RT finden die Scheiße, weil kostet zu viel Leistung (was ja auch nicht direkt falsch ist - wenn ich CP z.B. auf ner 2070 mit DLSS und hohem RT spiele, habe ich einfach zu wenig Frames. Da ist das deaktivieren von RT die IMO bessere Option. RT ist nett, aber der starke Performanceeinbruch setzt eben sehr potente Hardware voraus, die dir genug Frame-Reserven bietet um eine Halbierung zu ermöglichen)
DLSS finden sie aber auch Scheiße, kostet ja Bildqualität.

Das man zusammengenommen - DLSS und RT - unterm Strich mehr Frames hat UND ein besseres Bild? Interessiert nicht.

Alternativ sind natürlich noch sämtliche Spiele die RT und DLSS Support haben Müll, den man eh nie spielen würde ;D


Vor 2 Jahren konnte man RT vergessen, ja.
Damals waren die Argumente: "RT spielt keine Rolle" völlig richtig.
Nur: Das Rad der Zeit dreht sich weiter.
Und inzwischen spielt RT eben eine Rolle. Noch keine alles dominierende, das nicht.
Aber es gibt inzwischen einige interessante Titel, die von RT profitieren.
Nur ist man halt auf dem Status hängen geblieben: Och, RT, da ist AMD ja sooo mies, nö, dann wird das standardmäßig halt meistens ausgeschaltet.

WedgeAntilles
2022-02-22, 12:31:26
Ich finde den Test Ok deren Stand ist es macht nur Sinn AMD zu kaufen wenn man kein Interesse an RT hat und die Karte billiger ist klingt Fair.
Ich sage ja nicht, dass ich den gesamten Test schlecht finde - ich finde insbesondere den Teil mit Cyberpunk nicht nachvollziehbar.

Das ist jetzt ein Spiel von vielen, aber es illustriert das Problem, das eben fast alle Test haben.

Da gibt es einen ganzen Parcours aus Spielen.
Assasins Creed, Fortnite, Borderlands, CoD, Battlefield und so weiter.
Und meist auch Spiele wie Doom oder Cyberpunk.
Und bei diesen Spielen bleibt RT deaktiviert.
Manchmal wird es dann noch nachgereicht in einem Zusatztest.

Das hat einfach mit einem objektiven Test nicht viel zu tun und ist - gerade bei den von mir genannten Spielen - Blödsinn.

Das ich RT in einem Spiel wie Shadows of the Tomb Raider von vor 3? Jahren nicht aktiviere? Egal, da sah man eh quasi keinen Unterschied.
Bei Control, CP, Doom... sieht man den aber sehr wohl.

dildo4u
2022-02-22, 12:37:45
Das RT was kommen wird sollte AMD weniger beeinträchtigen als CP77, daher sollte man da nicht zu viel Wert drauf legen.
Computerbase hat gerade erst neu getestet und die 6800XT war näher an der 3080 als bei den älteren RT Games.
Wäre was anderes wenn wir Nvidia RT Konsolen hätten.

Und das macht sich bemerkbar. Vor allem, wenn es nicht immer die maximalen und oft unnötigen Raytracing-Details sein müssen, sind die Leistungskosten nicht nur auf einer GeForce meist deutlich erträglicher geworden, sondern auch auf einer Radeon. Und damit schrumpft in den meisten Titeln zugleich der Abstand zwischen AMD- und Nvidia-Grafikkarten deutlich zusammen und gelegentlich ist das AMD-Lager gar ebenbürtig. Die GeForce-RTX-Riege bleibt in Sachen Raytracing schlussendlich aber überlegen. Hier benötigt es schlicht neue Radeon-RX-Modelle mit einer modifizierten Architektur, die im Laufe dieses Jahres erscheinen sollen.

https://www.computerbase.de/2022-02/amd-radeon-nvidia-geforce-benchmark-test-2022/4/

WedgeAntilles
2022-02-22, 12:52:51
Das RT was kommen wird sollte AMD weniger beeinträchtigen als CP77, daher sollte man da nicht zu viel Wert drauf legen.
Computerbase hat gerade erst neu getestet und die 6800XT war näher an der 3080 als bei den älteren RT Games.
Wäre was anderes wenn wir Nvidia RT Konsolen hätten.

Das ist ja schön - für die Zukunft. Dann werden diese Tests es auch abbilden.

Bei ein paar der neuen "RT" Spiele, war RT aber einfach nur so dermaßen wenig eingesetzt worden, dass sie quasi nicht mehr bemerkbar waren.
Ja, da war dann AMD natürlcih besser. Wenn ich nur 2 RT Effekte statt 20 habe beeinflusst es die Performance logischerweise weniger.

Generell ist es mir relativ egal ob ein neues Spiel RT hat oder nicht.
Das einzige was ich fordere: Wenn ein Spiel RT hat - und man das RT optisch auch bemerkt - und das Spiel in einem Benchmark-Parcours drin ist: Dann will ich, dass das Spiel mit RT getestet wird.
Egal ob AMD da 5% vorne, 10% hinten oder 50% hinten liegt.


In einem Satz zusammengefasst:

Ich will in Benchmarks Tests, die die beste Qualität des Spiels als Benchmarkgrundlage verwenden.


Das ist eigentlich nicht zu viel verlangt, oder doch?

Troyan
2022-02-22, 12:57:37
Die Aussage ist auch komplett falsch. AMD bezahlt Spieleentwickler beschissene Implementierungen vorzunehmen ohne vernünftige Skalierbarkeit zu ermöglichen. Guardians hat drei Stufen für RT. Computerbase testet auch nur die geringste Stufe, was wiederum zu einem verzehrten Bild führt.

Mit RT-Ultra ist eine 3080 12GB dann 50%+ schneller als eine 6900XT und erreicht damit auch über 100 FPS in 1080p. Und 1080p ist ja die gewöhnliche Auflösung für einen AMD User mit einer 6900XT.

dargo
2022-02-22, 13:18:13
Satire pur hier mal wieder, da haben sich zwei gefunden. ;D ;D ;D

dildo4u
2022-02-22, 13:23:47
Die Aussage ist auch komplett falsch. AMD bezahlt Spieleentwickler beschissene Implementierungen vorzunehmen ohne vernünftige Skalierbarkeit zu ermöglichen. Guardians hat drei Stufen für RT. Computerbase testet auch nur die geringste Stufe, was wiederum zu einem verzehrten Bild führt.

Mit RT-Ultra ist eine 3080 12GB dann 50%+ schneller als eine 6900XT und erreicht damit auch über 100 FPS in 1080p. Und 1080p ist ja die gewöhnliche Auflösung für einen AMD User mit einer 6900XT.
Warum sollte AMD jemanden bezahlen?Ist doch offensichlich das am PC durch die ganzen grauen Keyshop deutlich weniger Kohle gemacht wird als auf Konsole, es gibt Zero Grund für Publisher heftiges RT einzubauen wenn man dadurch seine Zielgruppe weiter einschränkt.
Nicht vergessen selbst eine 3050 kostet soviel wie 2060 zum Launch und bietet weniger RT Leistung.
Aktuell ist PC als Plattform einfach ein Witz was Preis/Leistung angeht, das ist auch keine Neuigkeit und es ist jetzt "besser" als 2021.

Ex3cut3r
2022-02-22, 13:40:43
Dürfte am ende des Tages, und nach 1,5 Jahren nun auch egal sein. Die jenigen die kaufen wollten, haben das längst getan, egal ob Big Navi oder Big Ampere. Und die jenigen die immer noch warten wollen, können jetzt eigentlich diese Gen abhaken, und sich auf LoveLace und RDNA3 konzentrieren.

Troyan
2022-02-22, 14:00:40
Warum sollte AMD jemanden bezahlen?

Wieso sollte AMD Spieleentwickler bezahlen? Hm, vielleicht deswegen: https://www.pcgameshardware.de/Guardians-of-the-Galaxy-Spiel-54671/Specials/PC-Benchmark-Test-Review-1382318/2/#a3

Rate mal, wieso es auch kein DLSS in AMD gekauften Spielen gibt. Gib dir ein Tipp: Liegt bestimmt nicht an den Konsolen. :cool:

WedgeAntilles
2022-02-22, 14:17:26
Satire pur hier mal wieder, da haben sich zwei gefunden. ;D ;D ;D

Jetzt ganz ohne Seitenhiebe, Sarkasmus oder ähnliches:
Mich würde interessieren, was du an

"In einem Satz zusammengefasst:

Ich will in Benchmarks Tests, die die beste Qualität des Spiels als Benchmarkgrundlage verwenden."

auszusetzen hast.

Wie sollten deiner Meinung nach Tests aussehen?
Bitte diese Frage nicht ignorieren sondern beantworten, es interessiert mich wirklich.
Danke im Voraus :)

dargo
2022-02-22, 14:56:31
Wieso sollte AMD Spieleentwickler bezahlen?
Erzähle uns doch mal warum dich die Zusammenarbeit von NV und diversen DEVs nicht stört? Oh wait... wir kennen bereits die Antwort. :rolleyes: Junge, junge, dass dir das immer noch nicht peinlich ist. Besonders armselig ist die Tatsache, dass du den Gamingmarkt immer noch nicht kapiert hast (aber da bist du nicht alleine in diesem Forum) wie der funktioniert und weiter blauäugig durch jede neue GPU-Generation rumdackelst.


Mich würde interessieren, was du an

"In einem Satz zusammengefasst:

Ich will in Benchmarks Tests, die die beste Qualität des Spiels als Benchmarkgrundlage verwenden."

auszusetzen hast.

Wie sollten deiner Meinung nach Tests aussehen?
Bitte diese Frage nicht ignorieren sondern beantworten, es interessiert mich wirklich.
Danke im Voraus :)
Erstmal erzähle uns mal wie du auf den Trichter kommst in einer Position zu sein irgendwas zu fordern? Da fängt schon die Comedy an. Ich habe mal einen Tipp für dich... mache dich selbstständig, bilde eine eigene Redaktion die sich mit irgendwelchen Benchmarks beschäftigt wenn dir die vorhandenen im Netz nicht zusagen bzw. zu wenig Informationsgehalt bieten. Am besten du bietest das alles dann auch kostenfrei an, dann sehen wir mal wie lange du am Leben bleibst. Im Kern will ich damit nur sagen... machs besser.

btw.
Mich fasziniert jedes Mal aufs Neue wieviel Energie du in so ein Thema investierst und weiterhin mit einer GTX 970 rumeierst. Oder hast du dir endlich ein Upgrade angeschafft? Bekommt ihr jedes Mal einen Steifen wenn IHV A unter Bedingung X besser abschneidet als IHV B im Benchmark Y?

dildo4u
2022-02-22, 15:09:52
Wieso sollte AMD Spieleentwickler bezahlen? Hm, vielleicht deswegen: https://www.pcgameshardware.de/Guardians-of-the-Galaxy-Spiel-54671/Specials/PC-Benchmark-Test-Review-1382318/2/#a3

Rate mal, wieso es auch kein DLSS in AMD gekauften Spielen gibt. Gib dir ein Tipp: Liegt bestimmt nicht an den Konsolen. :cool:
DLSS Integration bringt dir auf Konsole nix Zero Mehrwert für EA,Microsoft,Ubissoft und co.
Der Entwickler hat nix davon das du 2000€ für deine GPU verbrannt hast wenn du dann Russen Keys kaufst.
Und dazu muss man hier nur das Forum Lesen das machen Einige egal wie teuer ihre Hardware ist.

Ex3cut3r
2022-02-22, 15:32:39
Russen Keys?

Im Impressum der Keyshops steht mittlerweile oft genug, sitz in Dubai, wegen der Steuern, die nicht zu zahlen sind. Nehme ich mal an.

Und ja, mache ich auch so. Warum sollte ich bei Steam 60€ zahlen, wenn bei CDkeys oder ähnliches "nur" 35€ kostet? Gäbe es eine 3080 Ti für 999€ anstatt 1800€ hätte ich auch lieber dort gezahlt. Ich bin ehrlich. :biggrin:

Oft genug sind die Spiele auch noch ziemlich verbuggt, 60€ wären die sowieso nicht wert.

Troyan
2022-02-22, 15:46:30
DLSS Integration bringt dir auf Konsole nix Zero Mehrwert für EA,Microsoft,Ubissoft und co.
Der Entwickler hat nix davon das du 2000€ für deine GPU verbrannt hast wenn du dann Russen Keys kaufst.
Und dazu muss man hier nur das Forum Lesen das machen Einige egal wie teuer ihre Hardware ist.

Also hat Sony rein aus Liebe zum nVidia-Kunden DLSS in deren Ports eingebaut? Nett von denen.

Rein zufällig kauft AMD Spiele von Microsoft und Ubisoft, die dann ebenfalls rein zufällig minderwertiges bis kein Raytracing und kein DLSS haben. :eek:

dargo
2022-02-22, 15:53:17
Also hat Sony rein aus Liebe zum nVidia-Kunden DLSS in deren Ports eingebaut? Nett von denen.

Stellst du dich absichtlich so dämlich an oder steckt da ein System hinter? In den Fällen wo DLSS in Spielen steckt hat Nvidia mit Dollars gewedelt und/oder Manpower zu den DEVs geschickt. Nur ironischerweise scheint dich sowas dann nicht zu stören. :rolleyes:

WedgeAntilles
2022-02-22, 15:58:08
Erstmal erzähle uns mal wie du auf den Trichter kommst in einer Position zu sein irgendwas zu fordern? Da fängt schon die Comedy an.

Dargo, was stimmt bei dir nicht :(
Ich habe dich GEBETEN mir zu antworten.
BITTE habe ich geschrieben.
Da es mich einfach interessieren würde, was dir bei meinen Vorstellungen zu einem guten Benchmark nicht gefällt.
Ich habe mich sogar im Vorfeld für deine Antwort bedankt.

Und was kommt darauf von dir? So ein Posting.

Sorry, was soll das?
Das war rhetorisch, du brauchst darauf nicht zu antworten.

dargo
2022-02-22, 16:14:30
Dargo, was stimmt bei dir nicht :(

Schau zuerst besser in den Spiegel. Mit dir über das Thema zu diskutieren ist verschwendete Lebenszeit. Gleiches gilt für den Trojaner.

Lurtz
2022-02-22, 16:16:20
DLSS Integration bringt dir auf Konsole nix Zero Mehrwert für EA,Microsoft,Ubissoft und co.
Der Entwickler hat nix davon das du 2000€ für deine GPU verbrannt hast wenn du dann Russen Keys kaufst.
Und dazu muss man hier nur das Forum Lesen das machen Einige egal wie teuer ihre Hardware ist.
Geh mal aus der Forenbubble raus, der Großteil der PCler kauft im Steam-Store und da hast du mittlerweile fast Konsolenpreise, die Sales haben oft genug höhere Preise als in den digitalen Konoslensales, von Retail ganz zu schweigen.

Capcom bspw. möchte den PC zur Primärplattform machen, weil man da mittlerweile so gut Geld verdienen kann (auch im Long Tail mit älteren Titeln).

aufkrawall
2022-02-22, 16:17:55
Auch bei den Keystores sind die Preise für "AAA"-Spiele für den PC häufig deutlich höher als für die Konsolen.

WedgeAntilles
2022-02-22, 16:27:09
Schau zuerst besser in den Spiegel. Mit dir über das Thema zu diskutieren ist verschwendete Lebenszeit. Gleiches gilt für den Trojaner.

Genau genommen hast du bisher zu dem Thema 0 gesagt, außer halt zu flamen.

Wenn mein Wunsch nach optimaler Qualität bei Benchmarks nicht deine Zustimmung findet, hättest du jetzt zwei Postings Zeit gehabt deine Einstellung dazu zu schreiben.

Ich war ja wirklich daran interessiert. (Betonung auf past-tense - inzwischen bin ich es nicht mehr.)

Aber mehr als inhaltsleerer Flame kam halt leider nicht, das ist ziemlich armselig.

Und übrigens hast DU mit der "Diskussion" (wenn man es Diskussion nennen kann, wenn einer zu einem Topic dazustößt, überall hinkackt und wieder geht) begonnen - warum eigentlich, wenn es doch so sinnlos ist?

Again, rethorische Frage, ich erwarte darauf keine Antwort.

Jupiter
2022-04-15, 15:01:38
Welche Modelle der RTX 3080 12 GB sind zu empfehlen? Welche sind relativ leise, kühl und haben kein Spulenfiepen? Es muss nicht die Schnellste sein, da bei der RTX4000er Serie vermutlich eine neue Grafikkarte gekauft wird. Taugen zum Beispiel die 12GB MSI GeForce RTX 3080 VENTUS 3X PLUS OC LHR oder die 12GB MSI GeForce RTX 3080 GAMING Z TRIO LHR etwas?

DSD512
2022-04-15, 15:31:30
Hab hier noch die Asus TUF 3080 10 GB.
Unschlagbar in Sachen Kühlung und zudem sehr leise.
Empfehlenswert noch die MSI Trio.

Die Ventus ist die Billigvariante von MSI. Würde ich NICHT empfehlen.

BUG
2022-04-15, 16:44:20
Nimm die MSI Gaming Z bei Mindfactory im Damn Deal. :up:

https://www.mindfactory.de/product_info.php/12GB-MSI-GeForce-RTX-3080-GAMING-Z-TRIO-LHR-GDDR6X--Retail-_1440262.html

Jupiter
2022-04-15, 17:25:08
Hab hier noch die Asus TUF 3080 10 GB.
Unschlagbar in Sachen Kühlung und zudem sehr leise.
Empfehlenswert noch die MSI Trio.

Die Ventus ist die Billigvariante von MSI. Würde ich NICHT empfehlen.
Nimm die MSI Gaming Z bei Mindfactory im Damn Deal. :up:

https://www.mindfactory.de/product_info.php/12GB-MSI-GeForce-RTX-3080-GAMING-Z-TRIO-LHR-GDDR6X--Retail-_1440262.html

Danke für die Meldungen. Das hat mich jetzt dazu bewegt, einen Schnellkauf zu machen. Als ich die Frage schrieb, konnte ich die Modelle nicht einordnen und da die aktuell teurere Ventus eine günstigere Serie im Vergleich zur Gaming Z Trio ist, kaufte ich mir jetzt die Gaming Z Trio. Die 3080er SUPRIM und RTX 3080Tier sind mir den Aufpreis nicht wert.

r3ptil3
2022-04-15, 21:41:46
Die Gaming Z ist sicher keine schlechte Wahl und den höheren Takt der Suprim merkt man eh nicht, zudem sollte man generell selber Hand anlegen und die GPU undervolten.

Was ich mich aber frage, ist, wie sich die Preise in den kommenden Wochen entwickeln. Geringe Nachfrage der Miner, die neue GPU-Generation ist bald da, auf der anderen Seite jedoch sind die Preise gerade in den letzten Tagen plötzlich stagniert, nicht selten sogar leicht angestiegen.

Eine RTX 3080 12Gb sollte heute bei normalen Verhältnissen, ca. 600-700 Euro kosten.

Rampage 2
2022-04-15, 23:14:46
Danke für die Meldungen. Das hat mich jetzt dazu bewegt, einen Schnellkauf zu machen. Als ich die Frage schrieb, konnte ich die Modelle nicht einordnen und da die aktuell teurere Ventus eine günstigere Serie im Vergleich zur Gaming Z Trio ist, kaufte ich mir jetzt die Gaming Z Trio. Die 3080er SUPRIM und RTX 3080Tier sind mir den Aufpreis nicht wert.

Viel Spaß mit deiner neuen GPU:up:

Sollte mindestens 90% der Leistung einer 3080 Ti erreichen:smile:

Aber du hast dir doch wirklich die 12GB-Version (mit 384Bit-Interface) gekauft, oder? Hoffentlich nicht die "reguläre" 10GB-Version.

R2

Ex3cut3r
2022-04-16, 01:27:28
Kann dich beruhigen die verlinkte MSI auf Mindfactory ist eine 12GB Version. :smile:

Ich habe eher mit dem Zeitpunkt meine Probleme, die Karten werden fast wöchentlich billiger, und zeitnah soll Ada kommen. Aber gut, Jupiter ist erwachsen genug, um das selbst beurteilen zu können.

aufkrawall
2022-04-16, 01:42:21
Tippe auf MSI Rassel-Lüfter wie bei der 3080 10GB Suprim.

Jupiter
2022-04-16, 01:59:12
Das hoffe ich nicht. Ein neues Netzteil benötige ich leider auch. Mit ATX12VO werden die Aktuellen leider nicht kompatibel sein.

Was ich mich aber frage, ist, wie sich die Preise in den kommenden Wochen entwickeln. Geringe Nachfrage der Miner, die neue GPU-Generation ist bald da, auf der anderen Seite jedoch sind die Preise gerade in den letzten Tagen plötzlich stagniert, nicht selten sogar leicht angestiegen.

Eine RTX 3080 12Gb sollte heute bei normalen Verhältnissen, ca. 600-700 Euro kosten.

Mal sehen. Bei Grafikkarten kaufte ich häufiger zu schlechten Zeitpunkten. Bei der GTX 1080 kam zwei Wochen danach die GTX 1080 Ti zum selben Preis. Damit rechnete m. E. keiner.

Aber du hast dir doch wirklich die 12GB-Version (mit 384Bit-Interface) gekauft, oder? Hoffentlich nicht die "reguläre" 10GB-Version.

12 GB waren für mich wegen UHD wichtig.


Kann dich beruhigen die verlinkte MSI auf Mindfactory ist eine 12GB Version. :smile:

Ich habe eher mit dem Zeitpunkt meine Probleme, die Karten werden fast wöchentlich billiger, und zeitnah soll Ada kommen. Aber gut, Jupiter ist erwachsen genug, um das selbst beurteilen zu können.

Ich dachte die kommt gegen Ende 2022. Bis dahin sind es einige Monate und wie die Verfügbarkeit ist, wird wahrscheinlich nicht abzuschätzen sein. Ewig warten will ich nicht.

Mal sehen wie sich die Preise in den nächsten Wochen entwickeln.

Raff
2022-04-16, 14:25:40
Ja, das ständige Verweisen auf die nächste Generation, die angeblich unfassbar schnell, gut verfügbar und billig wird, wirkt auf mich auch auch etwas ... kindlich. :) Ethereum ist immer noch Proof of Work und allmählich wird das gefährlich, wenn die Umstellung nicht vor der Next-Gen erfolgt ist.

Warten kann man immer. Während andere warten, kann man schon viele Hundert Stunden Spaß mit neuer Hardware haben. Eine ordentliche RTX 3080 12GB für weniger als 1.200 Euro ist Stand jetzt ein prima Deal. Nicht billig, aber geil. Da wirst du in UHD sogar mit Raytracing (dank DLSS) Spaß haben, Jupiter. :up:

MfG
Raff

Ex3cut3r
2022-04-16, 14:59:55
Das ist wohl das Wunschdenken, wenn man es einfach oft genug wiederholt wird das schon eintreffen. (Vermutlich) :biggrin:

Ich bleibe da auch skeptischer, kann mit der Verschiebung von POS grade auch weiterhin in die Hose gehen, wenn die Währungen wieder steigen, und der Winter und die Haupt Zocker Saison anfängt, und jeder gleichzeitig eine Ada kaufen möchte. Europa/Welt Krieg schwebt auch noch im Raum herum.

Jupiter
2022-04-17, 01:46:28
Da wirst du in UHD sogar mit Raytracing (dank DLSS) Spaß haben, Jupiter. :up:

Danke, am Fernseher benötige ich UHD oder gute Auflösunsskalierung. Dazu finde ich das AA vieler Titel zu flimmrig. Allein das Testen bekannter Spiele wird viel Spaß bereiten. Mit neuen Grafikkarten werden alle Spiele der letzten Jajre nochmal besser, weil dann mit höherer Auflösung gespielt werden kann. DLSS werde ich viel nutzen. Insbesondere die Transformation des flimmrigen FXAA Rise of the Tomb Raider wird mich interessieren.
Manche Computerspiele wie Cyberpunk wollte ich ohne schnelle Grafikkarte oder DLSS gar nicht erst spielen.

Dazu bin ich gespannt, was die MSI-Karte für einen Eindruck auf mich macht.

Rancor
2022-04-17, 15:16:10
Meint ihr eine 3080 12 GB lässt sich an einem BE quiet Straight Power mit 600 Watt betreiben? Als CPU wird ein 5600X eingesetzt. Ansonsten sind noch 3 SSDs. 16 GB 3200 CL14 RAM, ne Soundkarte, ne USB Mic und ne Webcam am Rechner angeschlossen + Natürlich Maus und Tastatur dran? Meine 2080 fängt leider an unschöne Dinge zu tun :/

Ex3cut3r
2022-04-17, 15:32:52
Welches Straight Power genau? Bzw. wie alt ist es?

Ansonsten, sehe ich da keine Probleme, GPU ~330W Max. CPU ~ Worst Case ~ 90W. 3x SSD ~ 9W. 2x16GB RAM 3200er ~ 15W?

Undervolten kannst du die 3080 auch, wurde ich sowieso empfehlen, man kann gute 50-75W einsparen bei 1 FPS weniger. Wenn man etwas Zeit investiert.

Matrix316
2022-04-17, 15:33:02
Meint ihr eine 3080 12 GB lässt sich an einem BE quiet Straight Power mit 600 Watt betreiben? Als CPU wird ein 5600X eingesetzt. Ansonsten sind noch 3 SSDs. 16 GB 3200 CL14 RAM, ne Soundkarte, ne USB Mic und ne Webcam am Rechner angeschlossen + Natürlich Maus und Tastatur. dran? Meine 2080 fängt leider an unschöne Dinge zu tun :/
Ich würde sagen das geht, weil die CPU noch im Rahmen ist. Mit einer stärkeren CPU wirds vielleicht eng.

Rancor
2022-04-17, 15:36:53
Welches Straight Power genau? Bzw. wie alt ist es?

Ansonsten, sehe ich da keine Probleme, GPU ~330W Max. CPU ~ Worst Case ~ 90W. 3x SSD ~ 9W. 2x16GB RAM 3200er ~ 15W?

Undervolten kannst du die 3080 auch, wurde ich sowieso empfehlen, man kann gute 50-75W einsparen bei 1 FPS weniger. Wenn man etwas Zeit investiert.
Das müsste ein Straight Power 10 sein und ist 3 - 4 Jahre alt.

Ex3cut3r
2022-04-17, 15:38:12
Gut, sollte keine Probleme machen. :wink:

Platos
2022-04-17, 17:08:56
Eine ordentliche RTX 3080 12GB für weniger als 1.200 Euro ist Stand jetzt ein prima Deal.

Ne, ist es nicht. So einfach ist das. Kann man machen, ist aber meilenweit weg von einem prima Deal. 3080 sollte 700 Euro kosten und 1200Euro soll dann für 2GB mehr ein prima Deal sein???

Irgendwie auch ironisch, wenn man sich oben darüber lustig macht, wenn andere sich einreden, dass es gute Preise geben wird und paar Zeilen weiter unten man sich einredet, dass das ein prima Deal ist :D

=Floi=
2022-04-17, 17:12:40
Die 3080 ti hat einfach das vram problem und für den preis und das "alter" der karte sind die 1200€ zu viel.
Ich hätte auch zu einer kleineren karte geraten.

Bei der 3080ti hebt man das powerbudget an und nimmt das volle SI mit, aber dank der leistung wird die karte bei längerem gebrauch am VRAM scheitern und das ist einfach bitter.
Ich hatte es schon bei 780ti mit 3gb so und nun besitze ich 8gb und es nervt mich dort ebenfalls.
Bei den preisen ist es einfach indiskutabel über 8/1012gb zu diskutieren! Hauptsache der chip ist fast der selbe wie auf der 3090.

r3ptil3
2022-04-17, 17:21:34
Selbst bald 2 Jahre nach Ampere-Release geniesst man auch mit einer RTX 3060 TI / 3070 noch fast alles was verfügbar ist ohne grössere Nachteile.
10Gb der RTX 3080 noch besser und 12Gb?...

Aber klar, wenn mal ein Game (das man sowieso nie gespielt hätte) plötzlich aufzeigt, dass die 8Gb versagen, sind die 8Gb Karten unten durch.

Ex3cut3r
2022-04-17, 17:22:20
@=Floi=

Hast du dafür auch Belege? Wo 12GB Nvidia zeitnah einknicken?
Ich selbst kann genug Werte liefern? Was ist dein Argument? :rolleyes: ;D

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12882177&postcount=383
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12882788&postcount=399
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12890710&postcount=410
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12889519&postcount=409
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12889360&postcount=405
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12887229&postcount=404

Megamember
2022-04-17, 19:04:19
Im FS geht das relativ easy über 12GB wenn man ein bischen an den Reglern spielt:

https://abload.de/thumb/fs1d9j81.jpg (https://abload.de/image.php?img=fs1d9j81.jpg)

https://abload.de/thumb/fs3f8k7n.jpg (https://abload.de/image.php?img=fs3f8k7n.jpg)

Jupiter
2022-04-17, 19:59:56
Meint ihr eine 3080 12 GB lässt sich an einem BE quiet Straight Power mit 600 Watt betreiben? Als CPU wird ein 5600X eingesetzt. Ansonsten sind noch 3 SSDs. 16 GB 3200 CL14 RAM, ne Soundkarte, ne USB Mic und ne Webcam am Rechner angeschlossen + Natürlich Maus und Tastatur dran? Meine 2080 fängt leider an unschöne Dinge zu tun :/

Wenn ich meine RTX 3080 habe, werde ich meine derzeitige Karte schnell verlaufen. Häufig geht altes Zeug gut weg selbst wenn es schnell kaputt gehen könnte.

Bei 600 Watt hätte ich mir zunächst auch kein neues Netzteil gekauft. Leider habe ich ein 500 Watt-Netzteil. Das wird für die RTX 3080 selbst bei einigen Anpassungen der Karte nicht reichen. So musste ich leider noch ein 850 Watt Netzteil kaufen. 140 Euro für ein Netzteil finde ich eine Menge.

DrFreaK666
2022-04-17, 20:07:05
Du holst dir ne Karte für knapp 1000€ und beschwerst dich dann weil das Netzteil 120€ kostet :ugly:

=Floi=
2022-04-17, 23:45:37
@=Floi=

Hast du dafür auch Belege? Wo 12GB Nvidia zeitnah einknicken?
Ich selbst kann genug Werte liefern? Was ist dein Argument? :rolleyes: ;D

Ich suche jetzt nichts raus.
Ich rede von usern die ihre karte länger als 6 monate behalten und zb auch mal ohne DLSS zocken. Es ist einfach gegeben, dass der karte der vram ausgehen wird, obwohl die leistung noch ausreichen wird!
Es kommt auf drauf an, wann welches spiel für den kunden relevant sein wird und welchen monitor er betreibt.
Bei 1200€ bin ich nicht mehr kompromissbereit und werfe NV dafür nicht nochmal geld in den rachen.

Ex3cut3r
2022-04-17, 23:56:27
Alles klar, habe ich mir schon gedacht, dass da nix praktikables rauskommt.

DLSS senkt vlt. 500-1GB den VRAM Bedarf, meine Bespiele waren meistens in 5K! Also ziemlich Praxis fern, und trotzdem reicht der VRAM, in 1440p sehe ich ich in 90% meiner Spiele nicht mal 8GB Belegung. Aber du weiß es einfach mal aus dem Bauch heraus natürlich besser. ;D

DrFreaK666
2022-04-18, 00:39:23
Du weißt ja auch, dass der VRAM auch in Zukunft ausreicht

=Floi=
2022-04-18, 03:40:57
Ich habe keinen bock, dass ich jetzt ewig suche und in zukunft wird es einfach games geben, welche mehr brauchen. Auch wenn ein game nur 11 gb braucht kann es schon zu rucklern führen. Ich bin da sehr empfindlich.

Dein dlss zeug ist nicht 5k. :rolleyes:

Zergra
2022-04-18, 10:20:27
Du weißt ja auch, dass der VRAM auch in Zukunft ausreicht

Naja, da die meisten Karten eben weniger VRAM haben wird sich das nicht das auch in der Zukunft nicht so enorm ändern.

DrFreaK666
2022-04-18, 10:35:48
Naja, da die meisten Karten eben weniger VRAM haben wird sich das nicht das auch in der Zukunft nicht so enorm ändern.

Das glaube ich nicht. Wenn Spiele nur noch für die aktuelle Konsolengeneration erscheinen, dann könnte der VRAM-Verbrauch steigen.
Auch zeigt Ubisoft mit FC6, dass manche Karten zu wenig RAM haben.
Wieso sollte das in Zukunft anders werden?

Ex3cut3r
2022-04-18, 15:05:39
VRAM wird schon 1-2 Jahren keine große Rolle mehr spielen, da RTX IO bzw. Direct Storage kommen muss, siehe aktuelle die Unreal Eninge 5, das läuft auf dem PC mit den stärksten CPUs wie ein Sack Nüsse. Da die GPUs einfach nicht richtig ausgelastet werden können. Da die CPU mit dem Streaming der Daten vollkommen überfordert ist.

Linmoum
2022-04-18, 15:13:32
Du holst dir ne Karte für knapp 1000€ und beschwerst dich dann weil das Netzteil 120€ kostet :ugly:Das verwundert mich auch immer wieder, wie Leute etliche hundert oder gar tausend Euro für ihre ganze Hardware ausgeben, und beim Netzteil muss es dann aber möglichst billig sein. Darf bloß nicht zu viel kosten, ist ja schließlich nur das Netzteil und bringt nicht mehr fps. ;D

Gerade das Netzteil ist die letzte Komponente, an der man sparen sollte.

DrFreaK666
2022-04-18, 16:12:07
VRAM wird schon 1-2 Jahren keine große Rolle mehr spielen, da RTX IO bzw. Direct Storage kommen muss, siehe aktuelle die Unreal Eninge 5, das läuft auf dem PC mit den stärksten CPUs wie ein Sack Nüsse. Da die GPUs einfach nicht richtig ausgelastet werden können. Da die CPU mit dem Streaming der Daten vollkommen überfordert ist.

Nur weil es eine "neue" Technologie gibt, wird sie nicht sofort breitflächig genutzt.

Im PC-Spiele-Unterforum gibt es einen Thread namens "Kommende Spiele mit DX12/Vulkan-Support", den Dargo Mitte 2015 gestartet hat. Etwa Mitte März wurde dort gepostet - ungefähr sieben Jahre später.

Ich glaube nicht dass VRAM in naher Zukunft an Bedeutung verliert

24p
2022-04-18, 17:18:23
Ich auch nicht. Zumal es das Grundproblem ja nicht löst. Wenn der Platz nicht mehr Ausreicht für alles, was gerade angezeigt wird hilft auch das beste Streaming nicht. Ob nun die 12GB ein Problem werden oder nicht ist noch Spekulation. Ganz einfach wegwischen kann man das Risiko nicht, denn dazu ist das in der Vergangenheit schon zu oft schlagend geworden.

dargo
2022-04-18, 17:35:26
VRAM wird schon 1-2 Jahren keine große Rolle mehr spielen, da RTX IO bzw. Direct Storage kommen muss...
Ich glaube da bist du viel zu optimistisch eingestellt. Wunschdenken und Realität liegen oft weit auseinander. :wink:

...siehe aktuelle die Unreal Eninge 5, das läuft auf dem PC mit den stärksten CPUs wie ein Sack Nüsse.
Irgendeine unbedeutende UE5-Demo @Matrix? Wayne... da warte ich lieber die ersten UE5-Games ab um mir ein Urteil zu bilden.

Ex3cut3r
2022-04-18, 17:44:45
Alles Ketzer! :biggrin:

Alles was wir dann auf den Bildschirm sehen, wird einfach wie auf der Konsole reingestreamt, für was haben wir diese NVMEs denn?

8GB VRAM als Grundsatz werden absolut reichen! Kanns kaum erwarten die "Gesichter" hier zu sehen. ;D

dargo
2022-04-18, 17:49:30
Alles was wir dann auf den Bildschirm sehen, wird einfach wie auf der Konsole reingestreamt, für was haben wir diese NVMEs denn?

Virtuelle Schwanzvergleiche. :usweet:

DrFreaK666
2022-04-18, 18:03:08
Alles Ketzer! :biggrin:

Alles was wir dann auf den Bildschirm sehen, wird einfach wie auf der Konsole reingestreamt, für was haben wir diese NVMEs denn?

8GB VRAM als Grundsatz werden absolut reichen! Kanns kaum erwarten die "Gesichter" hier zu sehen. ;D

Weil die aktuellen Konsolen Streaming beherrschen, haben die nur 16GB ;)

Ex3cut3r
2022-04-18, 18:13:38
3GB schonmal drauf, fürs OS und den Hintergrund.

Und der Rest ist nicht mal für die GPU Only soviel ich weiß.

Virtuelle Schwanzvergleiche. :usweet:

:biggrin:

E-T_eTZj3DU

:biggrin::biggrin:

Raff
2022-04-18, 23:43:58
Ansonsten, sehe ich da keine Probleme, GPU ~330W Max. CPU ~ Worst Case ~ 90W. 3x SSD ~ 9W. 2x16GB RAM 3200er ~ 15W?

350 Watt, btw. Die RTX 3080 12GB arbeitet mit der TGP einer 3080 Ti bzw. 3090 und ist damit fast so ineffizient wie die RTX 3090 Ti. ;)

Ich lebe gerade auch gefährlich. RTX 3090 Ti FE an 600-Watt-Passivnetzteil (Seasonic, paar Jährchen alt) mit nur zwei Strängen am Dreizack-Adapter. :uup: Notaus habe ich natürlich schon geschafft, aber mit Undervolting läuft das - mit dem 1.0er-PCB der alten RTX-30-Karten wäre das niemals gegangen.

MfG
Raff

Rancor
2022-04-19, 10:33:38
Weiß jemand ob man die Halterung bei der Gaming Z von MSI unbedingt braucht und ob man die verdeckten Slots trotzdem noch benutzen kann?
Ich habe ne Soundkarte verbaut, die ich unbedingt brauche und wenn mir jetzt 4 Slots belegt werden, dann wird es knapp :D

Jupiter
2022-04-19, 13:23:08
Bei mir hält es ohne extra Halterung. Allerdings konnte ich auch links die Grafikkarte mit der PC-Gehäuseöffnung für die Grafikkartenausgänge festschrauben, um sie zu stabilisieren. Ohne das Festschrauben würde ich die Grafikkarte dort nicht hängen lassen. Da Platz bei mir kein Problem ist, werde ich den Stabilisator verwenden.

Meine Netzteillieferung verspätet sich und somit kann ich die Grafikkarte wegen der fehlenden acht PIN nicht nutzen. Wieder einmal großartig. Durch solch ein Ärgernis wird der Urlaub ruiniert.

Raff
2022-04-19, 13:29:39
Weiß jemand ob man die Halterung bei der Gaming Z von MSI unbedingt braucht und ob man die verdeckten Slots trotzdem noch benutzen kann?
Ich habe ne Soundkarte verbaut, die ich unbedingt brauche und wenn mir jetzt 4 Slots belegt werden, dann wird es knapp :D

Wenn die Soundkarte das Ansaugen von Luft verhindert, wirst du wenig Freude haben. Sofern das eine PCIe-Karte ist, könntest du sie aber über der Grafikkarte installieren (Letztere ggf. in den 2. PEG-Slot und dann hoffen, dass der voll angebunden ist). Ich habe meine X-Fi auch so reaktiviert und möchte sie nicht nochmal missen. :)

MfG
Raff

Ex3cut3r
2022-04-19, 14:30:03
Bei mir hält es ohne extra Halterung. Allerdings konnte ich auch links die Grafikkarte mit der PC-Gehäuseöffnung für die Grafikkartenausgänge festschrauben, um sie zu stabilisieren. Ohne das Festschrauben würde ich die Grafikkarte dort nicht hängen lassen. Da Platz bei mir kein Problem ist, werde ich den Stabilisator verwenden.

Meine Netzteillieferung verspätet sich und somit kann ich die Grafikkarte wegen der fehlenden acht PIN nicht nutzen. Wieder einmal großartig. Durch solch ein Ärgernis wird der Urlaub ruiniert.

Wie sieht eigentlich der Rest deiner HW aus, wenn du schon so ein "altes" NT aktuell verbaut hast?

Nicht das du noch hoffnungslos CPU Limitiert bist.

Raff
2022-04-19, 14:51:27
Hoffnungslos im CPU-Limit ist man in Ultra HD selten. Ich spreche aus Erfahrung mit meinem 6900K @ 3 GHz. :D

MfG
Raff

The_Invisible
2022-04-19, 14:53:28
Wirf mal Anno 1800, CitySkylines usw an :D

Vorteil: Quasi gratis DLDSR

Raff
2022-04-19, 14:58:11
Die typischen (Strategie-)Ausnahmen bestätigen natürlich die Regel. :D Aber yep, dann kackt man die GPU einfach mit Pixeln zu und profitiert am Ende doch vom Upgrade. =)

MfG
Raff

Ex3cut3r
2022-04-19, 15:11:15
Klar, ich mag so eine Mischung aus 4K DLDSR @ 1440p + DLSS Q + CAS via Reshade. Sieht spitze aus, und reicht in den meisten AAA SP Games aus, für 90-125 FPS, mit einem High Refresh Monitor und VRR ein Genuss. :)

https://abload.de/thumb/sottr_2022_04_19_15_0a4k71.png (https://abload.de/image.php?img=sottr_2022_04_19_15_0a4k71.png)

https://abload.de/thumb/gow_2022_04_19_15_14_yvjju.png (https://abload.de/image.php?img=gow_2022_04_19_15_14_yvjju.png)

Ich warte aktuell auf Uncharted 4 für den PC....

Rancor
2022-04-19, 15:57:44
Wenn die Soundkarte das Ansaugen von Luft verhindert, wirst du wenig Freude haben. Sofern das eine PCIe-Karte ist, könntest du sie aber über der Grafikkarte installieren (Letztere ggf. in den 2. PEG-Slot und dann hoffen, dass der voll angebunden ist). Ich habe meine X-Fi auch so reaktiviert und möchte sie nicht nochmal missen. :)

MfG
Raff

LOL. daran habe ich garnicht gedacht.

Jupiter
2022-04-21, 14:00:26
Das Netzteil ist da, der Einbau ist erfolgt und die RTX 3080 läuft leise, bisher auch kein Fiepen oder nur sehr begrenzt. Meiner Meinung nach sind nur die PC-Gehäuselüfter zu hören. Beim Undervolting muss ich weiter probieren. Aktuell habe ich 887 mV als Ziel und einen Takt bei 1900 MHz. Wahrscheinlich gehe ich auf niedrigere Werte wie 800 mV und 1800 MHz, weil sie aktuell laut MSI Afterburner bis zu 380 Watt bei Spielen benötigt und das ist mir in Kombination mit den Rest meiner Heimkinoanlage zu viel. Bei aktiviertem Vsync für 60 BpS komme ich meist auf 280 Watt bei einer Auslastung von etwa 80 %. In Crysis 2 verwunderte mich an einer Stelle, dass die Karte mal zu 99 % ausgelastet war, sie aber nur 200 Watt zog und dabei 40 BpS anstelle der anvisierten 60 BpS lieferte.

DLSS gefällt mir in manchen Spielen sehr gut und übertrifft stellenweise selbst native UHD. In RDR2 sieht das Bild in Bewegung aber zu scharf aus. Der Sprung von einem leicht Verschwommen Bild ohne Kamerabewegung zu Scharf bei Kamerabewegungen nervt. Das kommt bei jeder Kamerabewegung und ist für mich nicht auszuhalten.

Wie sieht eigentlich der Rest deiner HW aus, wenn du schon so ein "altes" NT aktuell verbaut hast?

Nicht das du noch hoffnungslos CPU Limitiert bist.

Die CPU ist ein Xeon von 2014, der vergleichbar mit den i7 4790 ist. Bisher begrenzte er mich selten aber jetzt kommt es häufiger vor. Gerade mit Raytracing Reflexionen oder in Spielen wie Star Citizen oder Battlefield 2042. Ende des Jahres wollte ich ohnehin einen neuen PC mit DDR5, PCI 5.0, ATX12Vo etc

Das verwundert mich auch immer wieder, wie Leute etliche hundert oder gar tausend Euro für ihre ganze Hardware ausgeben, und beim Netzteil muss es dann aber möglichst billig sein. Darf bloß nicht zu viel kosten, ist ja schließlich nur das Netzteil und bringt nicht mehr fps. ;D

Gerade das Netzteil ist die letzte Komponente, an der man sparen sollte.

Markennetzteile nutzte ich schon immer. Mein Vorheriges war auch ein Be Quit Streigt Power mit Gold. 140 Euro finde ich allerdings hoch für das Netzteil allein. Platin hätte ich auch genommen, da dauerte der Versand jedoch länger.

Ex3cut3r
2022-04-21, 14:17:46
Ui, ein Haswell noch.

Der wird dich garantiert limitieren selbst in 4K.

Wird zeit für ein Upgrade.

Aber Glückwünsch erstmal zur GPU. :up:

aufkrawall
2022-04-21, 14:24:03
In RDR2 sieht das Bild in Bewegung aber zu scharf aus.
Ja, da ist irgendein Parameter verkorkst vom Entwickler eingestellt, der temporales Ringing erzeugt. Gibts auch in Dying Light 2 ab in-game Sharpen 50% (vorher matscht es dafür zu sehr...). ~Perfektes DLSS gibts u.a. in Fortnite zu sehen.

Jupiter
2022-04-21, 16:29:57
Demnach bin ich mit der Ansicht ezüglich RDR2 nicht allein. Bedauerlich, da bereits das TAA von RDR2 zu den schlechteren gehört.

Vielleicht werde ich dann erstmals Fortnite spielen. Bereits in Crysis 2 finde ich das DLSS großartig. Dazu soll es die Möglichkeit geben, verschiedene DLSS-Dateien für Computerspiele zu verwenden.


Die Boundary Raytracing-Benchmark finde ich optisch sehr gut. Für mich visuell das Eiindreuckvollste neben der Matrix-Demo.


Ui, ein Haswell noch.

Der wird dich garantiert t selbst in 4K.

Wird zeit für ein Upgrade.

Aber Glückwünsch erstmal zur GPU. :up:

Danke. In all den Jahren hatte ich verschiedene Hersteller und MSI gehört bisher neben ASUS und Gainward zu den besseren. Dagegen hatte ich mit Gigabyte mittelmäßige Erfahrungen. Im Stich hat mich bisher keiner gelassen. Ähnliches gilt für Asrock bei Mainboards. Das Nächste wird vermutlich wieder eines von MSI.

Jupiter
2022-04-23, 12:58:18
Bei 1900 MHz mit 875 mV gegen 1755 MHz mit 800 mV beträgt der Geschwindigkeitsunterschied mit 35 BpS gegen 37,2 BpS sechs Prozent in der Boundary-Techdemo. Der Verbrauch ist mit 250 gegen 300 Watt zu 17 Prozent geringer. Beim Speicher gab ich zunächst 800 MHz hinzu.

Wahrscheinlich werde ich die Konfiguration abhängig vom Spiel wählen.

Raff
2022-04-23, 13:50:14
Wenn du die GPU untertaktest, kannst du das auch beim Speicher tun und damit etwas Strom sparen. Dank 384 Bit ist deine Karte nicht nennenswert transferratenlimitiert, also zieh da ruhig aufs Minimum im Afterburner runter (18 GT/s?), wenn du maximale Effizienz willst.

MfG
Raff

Jupiter
2022-04-23, 15:35:23
Danke für die nützliche Information. Das dies einen signifikanten Einfluss auf den Verbrauch hat, wusste sich nicht. Gerade jeweils zweimal mit 9000 MHz zu 10300 Mhz getestet und ich hatte im Boundary-Benchmark 0,1 BpS weniger bei einem etwa 14 Watt geringeren Verbrauch. Standardmäßig hat sie 9500 MHz Speichertakt.

Welche Spiele oder Anwendungen stürzen bei Übertaktung für eine zu niedrige Voltzahl schnell ab? Crysis 2 stürzt bei 1800 MHz bei 800 mV ab.


Crysis 2 Test UHD nativ, kein DLSS

Raytracing aus
Standardkonfiguration: 385 Watt bei 87 BpS
800 mV-Konfiguration: 255 Watt bei 80 BpS
875 mV-Konfiguration: 320 Watt bei 85 BpS

Raytracing an
Standardkonfiguration: 380 Watt bei 55 BpS
800 mV-Konfiguration: 270 Watt bei 55 BpS
875 mV-Konfiguration: 330 Watt bei 56 BpS


Der Verbrauch lässt sich erheblich Verringern. Die sieben Bilder in der Sekunde sind aber spürbar. Mit 875 mV und 1900 MHz sind dagegen fast identische Bildratenwerte zu erreichen. Bei aktiviertem Raytracing ist das Bildratenresulatat identisch, aber der Verbrauchsunterschied enorm. Wenn ich Crysis 2 mit DLSS und Raytracing spiele nutzt die Grafikkarte mit 800 mV etwa 230 Watt.


EDIT:

The Division 2 stürzt schnell ab. Allerdings muss ich herausfinden, ob es daran oder am Spiel liegt.

Crysis 2 gefällt mir sehr mit DLSS und Raytracing. Von solchen Titeln möchte ich jetzt mehr sehen. Hier ist eine gute Liste mit Videospielen, welche die modernen Fähigkeiten der Nvidia-Grafikkarten nutzen: https://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Raytracing-Games-1371273/

Sir Richard
2022-04-27, 11:09:20
EDIT:

The Division 2 stürzt schnell ab. Allerdings muss ich herausfinden, ob es daran oder am Spiel liegt.



Ich habe die MSI RTX 3080 GAMING Z TRIO LHR (was für ein Name) in meinem System. Bisher bin ich mit allen Settings auf Auto bzw keine Taktveränderung im Afterburner unterwegs.
Im Normalfall scheint alles gut zu klappen (55-63°C) - aber The Division 2 haut das Ding instant auf 78°C :eek:
Kollege mit dem selben Grundsetup, aber einer MSI RTX 3060 Ti GAMING Z TRIO 8G LHR hat normale Temperaturen um 55-60°C

Hat jemand eine Idee, wo ich mit der Suche nach dem Grund für so einen eklatanten Unterschied beginnen kann? :)

(Restliches Setup:
12600k + Dark Rock Pro 4 auf einem MSI MPG Z690 DDR4, 850W be quiet, Corsair 2x32GB RAM in einem Lian Li Alpha 550)

VooDoo7mx
2022-04-27, 13:01:25
Ich habe die MSI RTX 3080 GAMING Z TRIO LHR (was für ein Name) in meinem System. Bisher bin ich mit allen Settings auf Auto bzw keine Taktveränderung im Afterburner unterwegs.
Im Normalfall scheint alles gut zu klappen (55-63°C) - aber The Division 2 haut das Ding instant auf 78°C :eek:
Kollege mit dem selben Grundsetup, aber einer MSI RTX 3060 Ti GAMING Z TRIO 8G LHR hat normale Temperaturen um 55-60°C

Hat jemand eine Idee, wo ich mit der Suche nach dem Grund für so einen eklatanten Unterschied beginnen kann? :)

(Restliches Setup:
12600k + Dark Rock Pro 4 auf einem MSI MPG Z690 DDR4, 850W be quiet, Corsair 2x32GB RAM in einem Lian Li Alpha 550)

78°C sind defintiv viel zu viel für so eine Karte.
Die GPU Temperatur sollte immer so mximal knapp über der eigenen Körpertemperatur liegen.Kann also auch etwas höher sein, wenn du gerade krank bist.
Hast du schon mal versucht Kühlwasser in deinen PC zu kippen?

Sonyfreak
2022-04-27, 13:11:57
Hat jemand eine Idee, wo ich mit der Suche nach dem Grund für so einen eklatanten Unterschied beginnen kann? :)Das Teil hat eine TDP von 390 Watt und wird sich im Anlassfall auch einen guten Teil davon gönnen. Da Tjunction max bei 93°C liegt, braucht dich das nicht weiter beunruhigen.

mfg.

Sonyfreak

Sir Richard
2022-04-27, 15:07:19
78°C sind defintiv viel zu viel für so eine Karte.
Die GPU Temperatur sollte immer so mximal knapp über der eigenen Körpertemperatur liegen.Kann also auch etwas höher sein, wenn du gerade krank bist.
Hast du schon mal versucht Kühlwasser in deinen PC zu kippen?

Danke für die Tipps, ich werde mir nun Corona holen, damit meine Temperatur steigt.

Sir Richard
2022-04-27, 15:08:38
Das Teil hat eine TDP von 390 Watt und wird sich im Anlassfall auch einen guten Teil davon gönnen. Da Tjunction max bei 93°C liegt, braucht dich das nicht weiter beunruhigen.

mfg.

Sonyfreak

Ach ich war nicht beunruhigt, nur fand ich es sonderbar, dass The Division 2 das einzige Spiel ist, was einen Stresstest auslöst, während der Rest der Games mit 30% Lüfter und 55°C durchgurkt