PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4080 Review-Thread


Seiten : 1 2 3 [4] 5

SamLombardo
2022-12-28, 21:51:26
FG kann doch nur ohne Vsync benutzt werden
Nicht korrekt. Ich nutze FG wo immer es geht, und Vsync/Gsnc sind immer angeschaltet. Problemlos.

ChaosTM
2022-12-28, 21:56:47
Jo, mit VRR Monitoren ist Vsync fast kein Thema mehr

readonly
2022-12-28, 22:24:55
Ach so, ja. Aber mit fester Bildwiederholfrequenz geht das nicht, oder? VRR kann mein TV nicht. Zocke nur am Fernseher mit Controller. Jaja ich weiss 😄

ChaosTM
2022-12-28, 22:27:12
Ach so, ja. Aber mit fester Bildwiederholfrequenz geht das nicht, oder? VRR kann mein TV nicht. Zocke nur am Fernseher mit Controller. Jaja ich weiss 😄


Dann macht es eher wenig Sinn, ja. Und ich spiel auch gerne mit dem Controller am TV. :)

Asaraki
2022-12-28, 22:29:37
Darum ist "leider" VRR auch ein KO-Kriterium beim TV Kauf :D Sonst hätte man hier und da einen echten Schnapper mitnehmen können ^^

Aber hab mich immer noch nicht entschieden ob LG C2 oder doch Philips weil Ambilight einfach geil ist und die anderen Unterschiede doch klein sind... aber meine 4080 will schliesslich was mit OLED befeuern, wenn sie dann in ner Woche oder so auch da ist :D

readonly
2022-12-28, 22:38:42
Dann kann bzw muss das alles noch warten. So richtig gibt es eh momentan kein Spiel was mich abholt. Gibt eh noch genug altes Zeug was halbwegs anständig mit der 3060ti läuft.

Edit
Gerade mal bei Geizhals VRR mit einer Grösse ab 85" nachgesehen. Ab 24.000€ ;D da ist die 4080 ja eher ein Schnapper :D

Asaraki
2022-12-28, 22:48:47
Also wer 85" TVs kauft hat entweder eh genug Kohle oder null Sinn für Ästhetik ^^ Da fällt die Endung der Grafikkarte wohl kaum ins Gewicht :D

readonly
2022-12-28, 22:53:15
Das Geld haben heisst ja nicht, nicht drüber nachzudenken ob es sich für seinen Usecase lohnt. 🤓

Thunder99
2022-12-29, 21:43:56
TV Preise sind aber teilweise dennoch krank.
Unsereren QLED für 700 Steine geohlt von Samsung 55", für den Preis gibts nichts mehr wirklich gescheites wenn es grösser werden soll.
Die OELD dürften aber dennoch in der Produktion deutlich teuerer sein,

Gleiche gilt für AD. Aber Nvidia will bestimmt auch mehr Marge mitnehmen, ggf um den Nachfolger nicht teuerer zu machen?

CompuJoe
2022-12-30, 00:22:39
Also meine 4080 macht beim Speicher bei 1500Mhz zu, läuft aber mit 1475Mhz Stabil. 2886Mhz bei 1.000v ist auch Stabil, kommt bei Spielen selten über 250 Watt, nur Cyberpunk peakt mal bis 270-280 Watt, beim Witcher liegt der Verbrauch zwischen 230 und 245 Watt.
So lasse ich das jetzt auch laufen.

Wo ich die höhere Effizienz des Systems zuerst gemerkt habe, ich musste die Heizung etwas höher drehen xD

Beim Witcher liegt der Systemverbrauch jetzt bei rund 350-370 Watt, bei ESO, was übrigens jetzt mit 220-240fps läuft oO, nur noch 200-220 Watt, mit dem 3900X und der 3080 waren das immer um die 460-480 Watt.
Mit dem 3900X und der 3080 lag er in der Regel im Schnitt über alle Games bei 460-600 Watt!

ChaosTM
2022-12-30, 00:37:40
Beim Speicher hab ich scheinbar nix gutes erwischt - 1420 max, dafür lauft die GPU selbst mit 3ghz stabil, außer beim Witcher, Port Royale und 77.
Nutze ich aber nie, weils kaum Sinn macht. PT @ 60-75% ist der beste Kompromiss bisher.
Damit verbraucht die GPU meist um die 180-220 Watt.

Asaraki
2022-12-30, 00:46:29
TV Preise sind aber teilweise dennoch krank.
Unsereren QLED für 700 Steine geohlt von Samsung 55", für den Preis gibts nichts mehr wirklich gescheites wenn es grösser werden soll.
Die OELD dürften aber dennoch in der Produktion deutlich teuerer sein,

Gleiche gilt für AD. Aber Nvidia will bestimmt auch mehr Marge mitnehmen, ggf um den Nachfolger nicht teuerer zu machen?

Findest du wirklich? Ich kauf nur so alle 6 Jahre einen Fernseher, aber ich finde man kriegt heute so unglaublich viel für's Geld. Klar, OLED ist teurer, aber imho sehen auch konventionelle Fernseher verdammt gut aus, wenn man sie mal mit einem 10 Jahre alten Modell vergleicht. Und das für massiv weniger Geld pro Zoll trotz Inflation.

Also die früher als gross empfundenen Formate wie 55" oder gar 65" sind doch ziemlich erschwinglich selbst bei knappem Budget, wenn man das Vorjahres Modell nimmt.

Aber vielleicht bin ich einfach zuwenig anspruchsvoll ^^

Damit's on topic ist : Immerhin hat meine 4080er dann doch die TV-Verkäufe angetrieben :D Lederjacke hat bestimmt Samsung und LG Aktien gekauft ^^

gbm31
2022-12-30, 03:33:31
Meine Gamerock absolviert mit +1450MHz VRAM-OC bisher alles, mit +1475MHz wird der Port Royale Stresstest zum Problem und TW3 macht nach einer Weile einen CTD.
Die GPU habe ich noch nicht UV, der OC Scan gibt ihr bei default Spannung im Schnitt +75MHz, was im Witcher mit allem auf max. und UWQHD zu konstanten 2895MHz bei 290-310W und 1070mV führt.
Ich zocke lieber..

DonnieDarko83
2022-12-30, 09:24:42
So, ich hab meine 4080FE nun seit ca. einer Woche und bin sehr zufrieden. Der Preis ist natürlich reine Abzocke, aber nach fast drei Jahren wollte ich mir jetzt einfach eine neue gönnen. Ja, das auspacken war schon cool. Kein Vergleich zu meinen früheren Karten. Die sieht und fühlt sich extrem wertig an. Am ersten Tag eingebaut, hochgefahren und wollte gleich mal Resizable Bar aktivieren. Also ab ins Bios, alles aktiviert und bam. Bootet nicht mehr. Erstmal schockiert. Aber echt kein Bild, nix zu machen. BIOS CMOS Reset, bootet wieder. Mhhh, wieder aktiviert, gleicher Fehler. Also Google Suche und ok, muss wohl Grafikkarten BIOS updaten. Gemacht und läuft nun.

Dann CP2077 gezockt und geil. Kein Vergleich mehr. Endlich vernünftig zocken. Portal RTX war auch cool. Witcher 3 ist aber irgendwie kacke. Auch mit FG. Sobald RT aktiviert ist das so zäh, obwohl die FPS was anderes sagen. Naja, paar Updates abwarten. Kann aktuell genug anderes Zocken und bin echt Happy.

Das mit den Stromkabeln sieht aber total blöd aus. Vorher alles schön clean gewesen, aber NZXT bietet wohl für mein Netzteil noch keine Adapter an. Hoffe das kommt noch.

Und der Stromverbrauch, einfach geil. Mit FPS Limit 120Hz zieht die je nach Game nicht mal mehr Strom als meine alte. Auf PT85 Prozent.

Also alles in allem bin ich sehr zufrieden!

horn 12
2022-12-30, 10:48:41
@edit

Falscher Thread, Sorry.

SamLombardo
2022-12-30, 10:55:24
Farcry 6
mit 3440 x 1440 @175 Hz auf Alienware 3423 DW getestet.

PT minus 10%
312 TBP
2520 Mhz Takt liegt so an
GPU 71 Grad
HotSpot 84/85 Grad

Lüfter läuft mit 1790 bis 1825 U/min
Gehäuselüfter
2x IN
1x Out (Phantecs T30)
alle auf 50% gestellt worden.

Das ist aber extrem heiß. 85 Grad im Hotspot, und das bei verringertem Powertarget. Die müsste 20 Grad kühler sein. Irgendwas läuft da nicht rund.

gbm31
2022-12-30, 10:57:13
horn/Bernie ist im falschen Thread, er hat eine XTX.

SamLombardo
2022-12-30, 11:00:00
horn/Bernie ist im falschen Thread, er hat eine XTX.
Oh ok. Ich hab lange nicht mehr dort gelesen, die werden wirklich so heiß:eek:?

gbm31
2022-12-30, 11:05:00
die werden wirklich so heiß:eek:?

Naja, heiss ist das ja nicht wirklich für eine Grafikkarte.
Meine MBA war auch nur leicht kühler. Aber eben auf Kosten der Lautstärke und weil AMD wohl von der Montageproblematik weiss und die Lüfter entsprechend geregelt hat.

Bei den 4080 ist der Kühler ja total überdimensioniert, die frieren ja fast.

r3ptil3
2022-12-30, 11:10:00
Die 85° Hotspot sind total im grünen Bereich, selbst mit verringertem PT.

Horn gibt halt auch keine weiteren Infos bzgl. seinem Airflow im Case.
Was ich aber aus seinen letzten Beiträgen entnommen habe, ist, dass sein Case in einem Schreibtischfach drin liegt.

Vermutlich sowas ähnliches:
https://www.ukamo.de/media/catalog/product/cache/1/thumbnail/800x600/9df78eab33525d08d6e5fb8d27136e95/l/o/logic-19-schreibtisch-pc-fach.jpg

Das bedeutet automatisch nochmals deutlich schlechtere Temps, daher sind die Werte oben völlig ok.

SamLombardo
2022-12-30, 11:15:20
Naja, heiss ist das ja nicht wirklich für eine Grafikkarte.
Meine MBA war auch nur leicht kühler. Aber eben auf Kosten der Lautstärke und weil AMD wohl von der Montageproblematik weiss und die Lüfter entsprechend geregelt hat.

Bei den 4080 ist der Kühler ja total überdimensioniert, die frieren ja fast.
Ich weiß nicht? 85 Grad schon ganz schön hoch oder? Meine vorherige 3080ti wurde im Hotspot 75 Grad warm, und die hatte nicht den großen Kühler der 4000er. Sicher, alles im Rahmen der Spezifikationen, .....naja.

SamLombardo
2022-12-30, 11:17:55
Die 85° Hotspot sind total im grünen Bereich, selbst mit verringertem PT.
Ja ok. War halt nur beim Lesen etwas entetzt, weil ich dachte er meint eine 4080. Insofern, nix passiert, weitermachen:D

Thunder99
2022-12-30, 11:21:37
Für mich sind ganz schön hoch >90°C bzw über 100°C. So lange das nicht ist wie auch bei den CPUs sollte nichts passieren, da die Komponenten ausgelegt sind für diese Tempertur.

Gestern zum Vergleich an meinem Laptop gespielt und da war die CPU und GPU immer am Maximum :freak:. Laptop halt aber lief alles stabil ohne Probleme. Denke auch auf längere Sicht gibt es keine Probleme da es sonst sehr schlecht ausgelegt wäre :wink:

Troyan
2022-12-30, 11:31:09
Naja, im Winter bei vielleicht 22°C Raumtemperatur 85°C zu haben, heißt im Sommer 10°C mehr...

horn 12
2022-12-30, 12:58:04
Ausgebessert, war im falschen Thread.
Richtiggestellt!

gbm31
2022-12-30, 15:12:19
Helft mir mal kurz:

Wie verhindere ich im Afterburner Curve Editor, daß die GPU sich mehr Spannung nimmt?

Meine dunklen Erinnerungen (1070Ti) und diverse Anleitungen sehen ja eine Asymptote beim Takt vor. Aber so nimmt sich meine 4080 bei 2895MHz von 1040mV (erster Punkt) bis 1060mV - das bringt fast nichts weil die AutoOC Funktion das mit 1070mV macht.

r3ptil3
2022-12-30, 15:19:27
Helft mir mal kurz:

Wie verhindere ich im Afterburner Curve Editor, daß die GPU sich mehr Spannung nimmt?

Meine dunklen Erinnerungen (1070Ti) und diverse Anleitungen sehen ja eine Asymptote beim Takt vor. Aber so nimmt sich meine 4080 bei 2895MHz von 1040mV (erster Punkt) bis 1060mV - das bringt fast nichts weil die AutoOC Funktion das mit 1070mV macht.

Zuerst einen hohen Negativwert beim Coretakt einstellen (-400 Mhz...), laden und dann im "Curve Editor" z.B. bei 900mV den entsprechenden Knotenpunkt hochziehen, so dass dieser über allen anderen Punkten mit höherer Spannung liegt.

Emil_i_Lönneberga
2022-12-30, 15:20:15
Abschnitt 7:00 bis 7:50min:

UGeGLU8uh9M

Tesseract
2022-12-30, 15:36:06
mit shift alle punkte oberhalb der gewünschten maximalspannung auswählen, runter ins nirvana ziehen und übernehmen. afterburner setzt die dann entsprechend. dauert ca. 5 sekunden. alternativ kann man es sich über andere wege natürlich auch kompliziert machen. :D

gbm31
2022-12-30, 16:03:03
Danke, so hatte ich es in Erinnerung. Hab also alles ab 1040mV auf 2895MHz gesetzt.

Trotzdem geht die 4080 bei weniger Last auf 2910 und 1045 bzw auch mal die Kombi 2895 und 1060...

Hmm...

Naja, beim Witcher sind das trotzdem 20-30W weniger geschätzt, schwankt ja dauernd.

Tesseract
2022-12-30, 18:05:28
dieses verhalten habe ich bei keiner architektur jemals gesehen, weder pascal noch turing noch ampere noch ada.

mike49
2022-12-30, 18:16:52
Ich habe auch gerade ein wenig mit dem Curve-Editor (bei meiner 4090 FE) rumgespielt:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82089

So bleibt die festgenagelt bei 2.850MHz @0.975V

Ist damit weitestgehend gleichschnell wie mit default-setting (Boost auf 2.760MHz), spart aber ca. 80-100W.

gbm31
2022-12-30, 18:27:48
Das blöde Ding verspringt beim apply mit der ganzen Kurve leicht nach oben bei mir. Deswegen sind die Werte nicht wie eigentlich gewählt.

r3ptil3
2022-12-30, 18:44:34
Dass die Karten real einen minimal anderen Takt aufweisen ist ganz normal.
Wenn man zurück auf den "Curve Editor" geht, sieht man, dass die Kurve automatisch minimal angepasst wurde. D.h. man muss ein paar Mhz runter oder rauf bis der gewünschte Takt angenommen wird.

Und 1040mV ist ja mal extremes UV ;D

Alles über 950mV ist zu "viel"... so pauschal nach meiner eigenen Meinung.

mike49
2022-12-30, 19:22:42
Alles über 950mV ist zu "viel"... so pauschal nach meiner eigenen Meinung.
Mein Ziel war Energieeinsparung ohne Leistungsverlust.

Da die RTX 4000er mit UV (bei gleichem GPU-Takt) immer etwas schlechter performen brauche ich ca. 150 MHz mehr auf der GPU (vs. default), um das zu kompensieren und da komme ich mit 0.95V (bei der 4090) nicht hin.

r3ptil3
2022-12-30, 19:42:57
Mein Ziel war Energieeinsparung ohne Leistungsverlust.

Da die RTX 4000er mit UV (bei gleichem GPU-Takt) immer etwas schlechter performen brauche ich ca. 150 MHz mehr auf der GPU (vs. default), um das zu kompensieren und da komme ich mit 0.95V (bei der 4090) nicht hin.

Das ist richtig, aber hast du mal getestet was das effektiv für ein Unterschied ist?

Wenn du mit 2600 Mhz @ 900mV 93 anstatt 97 FPS hast, ist halt die Frage, ob sich sich das lohnt die GPU hoch zu takten.

mike49
2022-12-30, 20:12:48
Das ist richtig, aber hast du mal getestet was das effektiv für ein Unterschied ist?

UV alleine (bei nominell gleichem GPU-Takt) kostet ca. 3-5% Leistung



Wenn du mit 2600 Mhz @ 900mV 93 anstatt 97 FPS hast, ist halt die Frage, ob sich sich das lohnt die GPU hoch zu takten.

Schon richtig. ich habe aber nicht knapp 2k ausgegeben um die Karte dann wieder zu drosseln ;)

Außerdem habe ich ja ein Setting gefunden, bei dem die Karte ca. 100W weniger zieht und immer noch voll performt -> (Mein) Ziel erreicht!

r3ptil3
2022-12-30, 20:30:42
UV alleine (bei nominell gleichem GPU-Takt) kostet ca. 3-5% Leistung

Gerade nachgemessen, 3% kommt hin.


Schon richtig. ich habe aber nicht knapp 2k ausgegeben um die Karte dann wieder zu drosseln ;)

Interessante Bemerkung - was ist wenn man davon ausgeht, dass man bei dieser Karte auch für die hervorragend Effizienz bezahlt und nicht nur für die kompromisslose Leistung?

mike49
2022-12-30, 20:47:50
Gerade nachgemessen, 3% kommt hin.

Im Extremfall sind es bis knapp 5% (Unigine Superposition 4k Extreme).

Hängt aber auch davon ab, wie weit man sich von der ursprünglichen V/F-Curve entfernt (= wie stark man undervoltet).


Interessante Bemerkung - was ist wenn man davon ausgeht, dass man bei dieser Karte auch für die hervorragend Effizienz bezahlt und nicht nur für die kompromisslose Leistung?
Passt doch: Rein für die Leistung hätte ich auch nicht mehr als 1,5k gezahlt. Die restlichen 500 Euronen sind dann für die Effizienz :wink:

gbm31
2022-12-31, 09:40:20
Dass die Karten real einen minimal anderen Takt aufweisen ist ganz normal.
Wenn man zurück auf den "Curve Editor" geht, sieht man, dass die Kurve automatisch minimal angepasst wurde. D.h. man muss ein paar Mhz runter oder rauf bis der gewünschte Takt angenommen wird.


Thx, gut zu wissen.


Und 1040mV ist ja mal extremes UV ;D

Alles über 950mV ist zu "viel"... so pauschal nach meiner eigenen Meinung.

Scherzkeks! Ihr seid im falschen Thread, die 4080 kann von den Voltages der 4090 träumen.

Meine stürzt halt mit 1025mV bei 2910MHz Vorgabe in der Curve ab im Port Royale Stresstest. (lasse den im Fenster bei Originalauflösung loopen)

Thunder99
2022-12-31, 10:28:36
Was ist denn eigentlich der Unterschied zwischen Gaming X und der normalem Gaming?
Lohnt sich die Serie gegenüber der Ventus?
Hat jemand Erfahrungen, auch von den vorherigen Karten/Generationen?

Google spukt an sich nur bei der Gaming Variante den unterschiedlichen Takt raus. Ist es nur das? Was noch gegenüber der Ventus?

basix
2022-12-31, 10:30:46
Scherzkeks! Ihr seid im falschen Thread, die 4080 kann von den Voltages der 4090 träumen.

Meine stürzt halt mit 1025mV bei 2910MHz Vorgabe in der Curve ab im Port Royale Stresstest. (lasse den im Fenster bei Originalauflösung loopen)

Bei 950mV laufen auch bei einer 4090 keine 2.9 GHz ;) Meine 4090 läuft bei 1.05V mit max. 2.95 GHz stabil

Ich lasse die 4090 bei 2.55 GHz und 0.88V laufen. Passt. Bei den meisten Spielen etwa 250-280W. Bei richtigen Fressern wie Portal RTX auch mal 320W. Verglichen mit Stock-Performance bin ich meistens bei ~95%

UV alleine (bei nominell gleichem GPU-Takt) kostet ca. 3-5% Leistung

[...]

Außerdem habe ich ja ein Setting gefunden, bei dem die Karte ca. 100W weniger zieht und immer noch voll performt -> (Mein) Ziel erreicht!

Speicher OC auch gemacht? Das kompensiert einen Grossteil des Leistungsverlustes bei UV.

gbm31
2022-12-31, 10:48:29
Ich lasse die 4090 bei 2.55 GHz und 0.88V laufen. Passt. Bei den meisten Spielen etwa 250-280W.

Eine 4090 hat zur Zeit auch genug Hubraum dafür, die 4080 muss ich für VR und RT schon "ausdrehen".

basix
2022-12-31, 11:08:13
Ich gewinne selbst mit max. OC nur etwa 10-15% ggü. 2.55 GHz. Dafür dann bei 400-500W. Neben dem, dass ich die Mehrleistung fast nicht spüre, wird mein Case mit 450W Abwärme "beladen". Damit ich das guten Gewissens so laufen lassen könnte, müsste ich die Gehäuselüfter deutlich aufdrehen. Wird also deutlich lauter. Es rechnet sich also in absolut keiner Dimension (Verbrauch, Lautstärke, Abnutzung der Bauteile, Abwärme) ausser einem geringen Performancegewinn, welchen man fast nicht spürt. Ne, das lohnt sich nicht.

Und in Punkto Hubraum hätte ich noch gerne 2-3x obendrauf. TW3 Next Gen läuft bei 2880p maxed out mit DLSS-P in gewissen Regionen mit gerademal ~30...35fps ;D

Wenn man bei max. 4K bleibt und ab und zu DLSS dazuschaltet ist die 4090 in der Tat schnell genug. Aber sobald man 5K/6K oder gar 8K anstrebt wird es je nach Spiel bereits eng. Vor allem, wenn man >80fps als Ziel hat.

gbm31
2022-12-31, 12:05:11
Siehst, daran denke ich nicht mal.

Witcher RT an meinem UWQHD geht in Novigrad schon mal auf ~50fps, da nehm ich nicht auch noch 15% weg... zumal och mit UV/OC auch bei 280-310W bin. Deutlich mehr Grafikleistung als meine 6900XT bei gleichem Verbrauch.

Und in den SIMs nehm ich lieber das eine oder andere Detail mit, Hauptsache >90fps.

Troyan
2022-12-31, 12:13:09
Skaliert 4080 besser mit Core-Takt als mit Bandbreite? Hat jemand das mal getestet?

BlacKi
2022-12-31, 12:51:52
Skaliert 4080 besser mit Core-Takt als mit Bandbreite? Hat jemand das mal getestet?wie willst du das vernünftig testen? es gibt spiele, wo mem oc auch bei ada praktisch nichts bringt. bei anderen spielen skaliert es gut.

The_Invisible
2023-01-01, 16:33:29
Wie ist die 4080FE lautstärketechnisch? Ist ein Silent-PC möglich? Hab irgendwas gelesen das nur min 30% Lüftergeschwindigkeit möglich ist.. oder blödsinn?
Wär interessant weil anscheinend einzige Karte mit "nur" 3 Slot Kühler...

ChaosTM
2023-01-01, 16:39:15
Ich hör praktisch nie irgendwas raus aus meinem gedämmten Define 6. Die 1080ti mit ähnlichem oder meist höherem Verbrauch war deutlich lauter.
Die externe HDD, die gelegentlich hinter dem Rechner läuft, ist viel eher hörbar..

@ Troyan - Bandbreite bringt vergleichsweise mehr, daher ist der Speicher auch immer übertaktet, selbst bei 60% PT.

add.: ist eine FE und ich bin kein echter Maßstab, da ich einen ziemlich starken Tinnitus habe

aufkrawall
2023-01-01, 16:47:07
Wie ist die 4080FE lautstärketechnisch? Ist ein Silent-PC möglich? Hab irgendwas gelesen das nur min 30% Lüftergeschwindigkeit möglich ist.. oder blödsinn?

Das mit den 30% ist bei allen Lovelace- und Ampere-Karten so. Es steht dem Hersteller aber frei, festzulegen, ab welcher Einstellung darüber die Lüfter anlaufen und welche Drehzahl dann anliegt.

Thunder99
2023-01-03, 11:07:44
Wie schätzt ihr die Qualität beider Karten ein und welche ist zu bevorzugen?

MSI RTX 4080 Gaming (X)
MSI RTX 4080 Ventus 3X (OC)

Ventus ist etwas kleiner, hat "nur" die Lüfter V4 (anstelle der V5 der Gaming) und ist auch ca. 200g leichter, da etwas kleinere Kühlfläche.
Weiter hat die Gaming laut Marketing die "besseren" Spulen gegen Fiepen.

Spiele mit dem Gedanken doch eine 4080 zu zu legen :freak: (ca. 1,3k wenn alles passt oder ggf weniger)

aufkrawall
2023-01-03, 11:11:45
Würde die Geiz-Varianten Ventus generell eher meiden, gibt für ähnliches Geld sicherlich besseres ohne Marken-Aufschlag. Wenig Kühlervolumen rächt sich imho immer.

dildo4u
2023-01-03, 11:27:49
Bei dieser Generation wurde doch mit deutlich mehr Verbrauch gerechnet bisher scheint alles überbaut nur bei der 4070 Ti soll es 2.5 Slot Modelle geben.

Hott3X
2023-01-03, 11:40:53
Wegen mir können die auch 3 Slots nehmen, aber bitte nicht länger als 300m.

Thunder99
2023-01-03, 13:30:53
Wegen mir können die auch 3 Slots nehmen, aber bitte nicht länger als 300m.
300m, der ist gut ;D

Mein Bauchgefühl sagt mir auch eher zur Gaming (x). Warte aber noch :)
Ist nur minimal größer aber halt mehr Potential besser zu sein.
Wollte mal eure Meinung dazu hören.

Hott3X
2023-01-03, 13:57:51
300m, der ist gut ;D



Ja fehlt natürlich ein m. Aber bei den Abmessungen der Karten ist es nur eine Frage der Zeit bis wir die Meter erreicht haben ^^

Asaraki
2023-01-03, 14:10:05
Ja fehlt natürlich ein m. Aber bei den Abmessungen der Karten ist es nur eine Frage der Zeit bis wir die Meter erreicht haben ^^

Bald hat man einen 2m Radiator in den man die GPU versenkt ^^

Hab hier die 4080 FE liegen, noch im Schrank... was für ein Monster und dabei ist die afaik noch deutlich kleiner als die Customs o_O

Matrix316
2023-01-03, 22:15:00
Janky McJankerson am Start. :D :ugly:

Die Zotac 4080 ist da und ich hab festgestellt mein Seasonic Focus GX 750W hat nur 2 PCIe Kabel... :ugly: Erst hab ich nur zwei angeschlossen, aber dann hatte ich kein Bild. Dann hab ich halt mal DON'T TRY THIS AT HOME eins an zwei Anschlüssen angeschlossen und das hat dann funktioniert.

Wenn jemand wissen will ob eine 4080 auch mit zwei PCIe Kabeln läuft - sie tut es. ;)

https://abload.de/thumb/speedwaysdfod.jpg (https://abload.de/image.php?img=speedwaysdfod.jpg)

Merkor
2023-01-03, 22:23:05
Wenn jemand wissen will ob eine 4080 auch mit zwei PCIe Kabeln läuft - sie tut es. ;)

Ein Kollege hat das mit einer MSI Trio 4080 ausprobiert und kein Bild bekommen. Erst ein neues Netzteil mit 3x PCIe hat geholfen. Vielleicht hätte er noch mal eine andere Kombi der PCIe Anschlüsse testen sollen.

Rechnerisch muss das in jedem Fall ohne Extrem-OC hinhauen: 2x150W plus 1x75W aus dem Slot.

Troyan
2023-01-03, 22:26:41
Wenn die 4080 den selben Adapter wie die 4090 hat, müssen mindesten drei Kabel angeschlossen sein.

/edit: Bitte löschen.

CompuJoe
2023-01-03, 22:34:54
Janky McJankerson am Start. :D :ugly:

Die Zotac 4080 ist da und ich hab festgestellt mein Seasonic Focus GX 750W hat nur 2 PCIe Kabel... :ugly: Erst hab ich nur zwei angeschlossen, aber dann hatte ich kein Bild. Dann hab ich halt mal DON'T TRY THIS AT HOME eins an zwei Anschlüssen angeschlossen und das hat dann funktioniert.

Wenn jemand wissen will ob eine 4080 auch mit zwei PCIe Kabeln läuft - sie tut es. ;)

https://abload.de/thumb/speedwaysdfod.jpg (https://abload.de/image.php?img=speedwaysdfod.jpg)

Seasonic anschreiben, die schicken Kostenfrei Kabel zu, nur Versand musst du übernehmen.

ChaosTM
2023-01-03, 22:44:34
Ich hab das mit einem 5€ Kabel von Amazon gelöst. Hab noch ein 2. für eine eventuelle 4090er herumliegen.

Das 600er beQuiet hat nur 2 8er Kabel. Die Chance, dass das mit einer 90er und 2 Adaptern funktioniert schätze ich eher als gering ein. Mehr als abrauchen kanns aber nicht. ;)

CompuJoe
2023-01-03, 22:55:05
OK, meine Gamerock wollte nicht mit nur 2 Kabeln.

Da Seasonic die Terminals nicht geändert seit vielen Jahren habe ich hier nen Schublade voller Kabel liegen, ich hoffe ändert sich nix in Zukunft.

Matrix316
2023-01-03, 22:55:53
Ein Kollege hat das mit einer MSI Trio 4080 ausprobiert und kein Bild bekommen. Erst ein neues Netzteil mit 3x PCIe hat geholfen. Vielleicht hätte er noch mal eine andere Kombi der PCIe Anschlüsse testen sollen.

Rechnerisch muss das in jedem Fall ohne Extrem-OC hinhauen: 2x150W plus Das Seasonic hat sogar 5 PCIe Anschlüsse, aber es waren nur 2 Kabel für Grafikkarten (und 2 für CPU) dabei... :freak:

Das ist anscheinend so bei der 750W Version. Bei der 850W Version sind drei dabei. Aber da das NT mit zwei Kabeln auch eine 3080 ausgehalten hat... mal sehen. ;)

Die Karte macht mit den Lüftern auch irgendwie etwas komische Geräusche, aber die ist selbst unter Last so leise... so eine leise Grafikkarte hatte ich schon lange nicht mehr im Rechner... =)

Thunder99
2023-01-04, 10:47:42
Würdet ihr mit 500W die Karte betreiben? Rechnerisch geht es :D

Matrix316
2023-01-04, 10:56:41
Würdet ihr mit 500W die Karte betreiben? Rechnerisch geht es :D
Das kommt glaube ich auf die CPU an. ;) Wenn die über 200 Watt verbraucht, dann wirds knapp. ;)

Asaraki
2023-01-04, 11:06:49
Die Kühlung ist schon beeindruckend… nach 2h rocket league (kein forderndes Game) war meine FE auf süßen 40 grad :D

Matrix316
2023-01-04, 11:13:23
OT: Ein Hoch auf Seasonic: Hab gestern Abend noch eine Anfrage gestellt und heute schon eine Antwort. :) Die neuen 12V Kabel gibt es leider erst ab late Q1 2023. Da haben die sogar auf Cablemod verwiesen. ;) Aber zumindest wie man ein weiteres PCIe Kabel bekommt, wurde angegeben.

RoNsOn Xs
2023-01-04, 11:24:42
Die Kühlung ist schon beeindruckend… nach 2h rocket league (kein forderndes Game) war meine FE auf süßen 40 grad :D
Da sind die 2h aber auch egal :biggrin:
Auf 138fps limitiert rennt meine 79xtx da auch mit dauerhaft 51°.

Asaraki
2023-01-04, 11:54:37
Da sind die 2h aber auch egal :biggrin:
Auf 138fps limitiert rennt meine 79xtx da auch mit dauerhaft 51°.

Jein, mit der 3080Ti (auch FE) war es so, dass nach einer Stunde die Karte warm wurde und das Gehäuse aufheizte. Und das war noch auf 3440x1440. Jetzt ist 4k (zwar nur 120hz) aber die Karte ist trotzdem schneller, leiser und kühler :D
Aber die Ti war als FE auch etwas zu stark für den Kühler, war ja quasi der gleiche wie bei der 3080.

Aber die neuen AMDs find ich auch sehr schick, hätte ich auf dem freien Markt eingekauft wäre es vielleicht auch eine geworden, da preislich leicht attraktiver.

(5/20 Runs in TSE auf 3GHZ soweit stabil... mal gucken was da noch geht)

Matrix316
2023-01-04, 13:13:04
Kann das am Netzteil liegen, wenn die Karte nicht hoch genug taktet? Oder an der Kühlung? Ich hatte gestern meistens so 2,7xx in den 3D Marks, aber man liest, dass die FE so 2,8 laufen soll... bei Amazon hatte ich ein Review gesehen wo jemand die gleiche Zotac Karte auch nur mit zwei NT Kabeln betrieben hat und hatte ähnliche Taktraten. Irgendwie krieg ich in den 3D Marks etwas weniger Punkte als man bei den Reviews so liest... an der CPU kanns ja nicht liegen. Oder stört der DDR4 RAM?

Asaraki
2023-01-04, 13:27:20
Kann das am Netzteil liegen, wenn die Karte nicht hoch genug taktet? Oder an der Kühlung? Ich hatte gestern meistens so 2,7xx in den 3D Marks, aber man liest, dass die FE so 2,8 laufen soll... bei Amazon hatte ich ein Review gesehen wo jemand die gleiche Zotac Karte auch nur mit zwei NT Kabeln betrieben hat und hatte ähnliche Taktraten. Irgendwie krieg ich in den 3D Marks etwas weniger Punkte als man bei den Reviews so liest... an der CPU kanns ja nicht liegen. Oder stört der DDR4 RAM?

Also bei mir laufen, wenn ich einfach ganz primitiv übertakte, auch nur 3 Runs mit 3000Mhz und dann sinkt es auf 2985 ohne das Temp, Power oder sonst ein sichtbares Limit zu erreichen.

Muss ein Feature sein ^^ Aber merkst du beim zocken dann eh nicht, da mach ich mich jetzt auch nicht wild.

(Grade TSE 20 Runs mit UV 0.95@ 2745, Mem @ 11775. Die hält er bisher nach 15 Loops konstant auf das Mhz genau. Edit : Run 17 meinte dann er will wieder -15Mhz... kannst ja mal schauen ob es bei dir auch 15 Mhz sind, die sie runtertaktet. Scheint bei mir unabhängig vom Zieltakt so zu sein ^ ^)

(3 Kabel vom Seasonic GX 850W per nVidia Adapter an einer FE aus den USA. Vielleicht sind die dort schneller ^^)

Edit2 : Ach du meinst PUNKTE, nicht Takt... ich Depp. Kann ich nachher mal schauen, was da rausspringt, aber muss erst den 5900x auf 12 Kerne schalten und den Eco rausnehmen)

Thunder99
2023-01-04, 13:51:22
Das kommt glaube ich auf die CPU an. ;) Wenn die über 200 Watt verbraucht, dann wirds knapp. ;)

5800X3D :) @ CO -30

Bräuchte dann nur ein Kabel was aus 2 dann 3 macht :d. Hab ein beQuiet Netzteil straight Power 500W
Plane wenn dann die Karte mit <300W zu betreiben :)

Werde gerade immer schwächer und die Zeit rennt :D ;)

ChaosTM
2023-01-04, 14:17:05
Kann das am Netzteil liegen, wenn die Karte nicht hoch genug taktet? Oder an der Kühlung? Ich hatte gestern meistens so 2,7xx in den 3D Marks, aber man liest, dass die FE so 2,8 laufen soll... bei Amazon hatte ich ein Review gesehen wo jemand die gleiche Zotac Karte auch nur mit zwei NT Kabeln betrieben hat und hatte ähnliche Taktraten. Irgendwie krieg ich in den 3D Marks etwas weniger Punkte als man bei den Reviews so liest... an der CPU kanns ja nicht liegen. Oder stört der DDR4 RAM?


Ich liege meinem Sys ziemlich klar über dem Durchschnitt beim 3DMurks trotz 600 Watt "Gurkennetzteil" (Straight Power). 3040mhz Core und +1420 beim Speicher. (24800)


Das 500 Watt Straight könnte reichen. Ich komm maximal übertaktet kaum über 480 Watt Systemverbrauch. +10% PT und Strom auf MAX an der FE mit einer 5900X CPU (-20). Verwende ich aber nie, weils zu wenig bringt.

Sardaukar.nsn
2023-01-04, 14:36:40
5800X3D :) @ CO -30

Bräuchte dann nur ein Kabel was aus 2 dann 3 macht :d. Hab ein beQuiet Netzteil straight Power 500W
Plane wenn dann die Karte mit <300W zu betreiben :)

Sollte doch bei dir passen: https://geizhals.de/be-quiet-12vhpwr-adapter-cable-bc072-a2832426.html

ChaosTM
2023-01-04, 14:41:43
Ich verwende die hier. Also momentan nur einen.
https://www.amazon.de/dp/B08SQJZM2J?psc=1&ref=ppx_yo2ov_dt_b_product_details

Sind 6 und nicht 4 €/Stück. Mein Fehler

Matrix316
2023-01-04, 15:02:44
Also bei mir laufen, wenn ich einfach ganz primitiv übertakte, auch nur 3 Runs mit 3000Mhz und dann sinkt es auf 2985 ohne das Temp, Power oder sonst ein sichtbares Limit zu erreichen.

Muss ein Feature sein ^^ Aber merkst du beim zocken dann eh nicht, da mach ich mich jetzt auch nicht wild.

(Grade TSE 20 Runs mit UV 0.95@ 2745, Mem @ 11775. Die hält er bisher nach 15 Loops konstant auf das Mhz genau. Edit : Run 17 meinte dann er will wieder -15Mhz... kannst ja mal schauen ob es bei dir auch 15 Mhz sind, die sie runtertaktet. Scheint bei mir unabhängig vom Zieltakt so zu sein ^ ^)

(3 Kabel vom Seasonic GX 850W per nVidia Adapter an einer FE aus den USA. Vielleicht sind die dort schneller ^^)

Edit2 : Ach du meinst PUNKTE, nicht Takt... ich Depp. Kann ich nachher mal schauen, was da rausspringt, aber muss erst den 5900x auf 12 Kerne schalten und den Eco rausnehmen)

Moment ich meine schon Takt während den 3D Marks mit 2,7xx GHz während ich wo gelesen habe die FE würde schon mit 2,8xx GHz Takten. Also standardmäßig ohne OC. Die Temps sind eigentlich auch im Rahmen. Muss ich heute Abend noch mal nachschauen.

gbm31
2023-01-04, 15:15:16
Den niedrigsten Takt hast du bei Spedway.
Und als Stabitest Port Royale im Loop mind 20 mal.

Ich hab jetzt den Sweetspot bei 2865MHz @ 1040mV, satt Leistung bei 50-80W unter PL (340W).

http://www.3dmark.com/sw/225286

Asaraki
2023-01-04, 15:33:28
Moment ich meine schon Takt während den 3D Marks mit 2,7xx GHz während ich wo gelesen habe die FE würde schon mit 2,8xx GHz Takten. Also standardmäßig ohne OC. Die Temps sind eigentlich auch im Rahmen. Muss ich heute Abend noch mal nachschauen.

Da wird wohl jedes Exemplar leicht anders sein.
Hab grad kurz getestet : Genau 2760 @ Default und bleibt auch dort wenn ich das Powerlimit anhebe.

Temperatur ist definitiv nie das Problem bei der Karte ^^ Und so schön leise <3

Thunder99
2023-01-04, 17:54:07
Danke euch :)

Neosix
2023-01-05, 03:33:38
Die Noctuas kommen auf die 4080
Asus GeForce RTX 4080 Noctua: Auch Ada Lovelace soll mit braunen Lüftern leiser werden (https://www.computerbase.de/2023-01/asus-geforce-rtx-4080-noctua-auch-ada-lovelace-soll-mit-braunen-lueftern-leiser-werden/)

ChaosTM
2023-01-05, 03:49:38
Kann nur teurer werden, weil leiser geht kaum ;)

Thunder99
2023-01-05, 07:09:06
Sollte doch bei dir passen: https://geizhals.de/be-quiet-12vhpwr-adapter-cable-bc072-a2832426.html

Immerhin liefert Caseking nach CH, aber Versandkosten sind halt schon heftig :freak:

In CH habe ich noch keine Adapter gefunden

Ätznatron
2023-01-05, 07:41:27
Kann nur teurer werden, weil leiser geht kaum ;)

Volltreffer.

Es wird nur brauner. ;)

Matrix316
2023-01-05, 09:20:38
Den niedrigsten Takt hast du bei Spedway.
Und als Stabitest Port Royale im Loop mind 20 mal.

Ich hab jetzt den Sweetspot bei 2865MHz @ 1040mV, satt Leistung bei 50-80W unter PL (340W).

http://www.3dmark.com/sw/225286
Ich hab einfach mal den Takt/Boost etwas erhöht und die Karte lief dann auch mit 2850~2900 MHz in Speedway und Port Royal durch. Power Limit oder Spannung hab ich nix geändert. Nur wenn ich nix ändere läuft die halt nur mit ~2730 MHz oder so im Schnitt und taktet nicht höher. Power Draw war immer so bei 315 W egal ob standard Boost oder etwas höher.

Asaraki
2023-01-05, 09:58:01
Ich hab einfach mal den Takt/Boost etwas erhöht und die Karte lief dann auch mit 2850~2900 MHz in Speedway und Port Royal durch. Power Limit oder Spannung hab ich nix geändert. Nur wenn ich nix ändere läuft die halt nur mit ~2730 MHz oder so im Schnitt und taktet nicht höher. Power Draw war immer so bei 315 W egal ob standard Boost oder etwas höher.

Sieht bei mir sehr ähnlich aus :) Dürfte alles OK sein, ob du jetzt 2730 oder 2790 anliegen hast merkst du im Alltag dann eh nicht.

Ich fahr jetzt UV und die Karte ist nochmal leiser (quasi unhörbar o_O) ohne merkbaren Performanceeinfluss. Gestern 2-3h Witcher gespielt mit meiner Freundin und wir sind happy ^^

Matrix316
2023-01-05, 11:33:39
Die Karte ist bei mir etwas "lauter" weil ich die extra etwas höher auf ein Regal gestellt habe, damit ich den Stromanschluss beobachten kann. ;D Bislang bruzzelte noch nix. ;)

y33H@
2023-01-09, 01:40:37
FE gekauft, jemand Erfahrung mit Power Limit bei 300W oder 250W? Ich nutze 1440p144, teils mit DL-DSR, da dürfte ich eh unter 320W bleiben zumeist vermute ich ...

Asaraki
2023-01-09, 10:32:50
Die Karte ist bei mir etwas "lauter" weil ich die extra etwas höher auf ein Regal gestellt habe, damit ich den Stromanschluss beobachten kann. ;D Bislang bruzzelte noch nix. ;)

Feuerlöscher steht bereit? :D
Hab auch einmal noch drauf geschaut, aber mache mir da erstmal keine Sorgen. Meine kam ja eh "neu" von nVidia selbst, ich würde mal vermuten dass die Anschlüsse längst durch eine zusätzliche Prüfung gingen oder so.

Soll ja eine neue Rev des Adapters geben munkelt man ^^

@yeeha : Ich hab die TDP nicht direkt im Blick behalten, da ich genug Luft nach oben habe, aber das UV scheint das bei mir gut zu regeln, UV @ 0.95V häng ich in BF2042@4K Maxed out bei 200W Borad power draw. Geht vielleicht hier und da leicht drüber, aber die Karte ist in den meisten Fällen erstaunlich sparsam.
(Auch FE)

Deathcrush
2023-01-09, 13:09:19
Die Karte ist bei mir etwas "lauter" weil ich die extra etwas höher auf ein Regal gestellt habe, damit ich den Stromanschluss beobachten kann. ;D Bislang bruzzelte noch nix. ;)


Das hilft ;) https://www.amazon.de/Helect-Digitale-Thermometer-Pyrometer-Beleuchtung/dp/B071NBJJ2Q/ref=asc_df_B071NBJJ2Q/?tag=googshopde-21&linkCode=df0&hvadid=310660742536&hvpos=&hvnetw=g&hvrand=287275501847526851&hvpone=&hvptwo=&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9043412&hvtargid=pla-349733104962&psc=1&th=1&psc=1&tag=&ref=&adgrpid=65855127990&hvpone=&hvptwo=&hvadid=310660742536&hvpos=&hvnetw=g&hvrand=287275501847526851&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9043412&hvtargid=pla-349733104962


Meine Karte rennt jetzt bei 2770MHZ bei 975mV. Bei 2850MHZ zickt die Karte rum.

vad4r
2023-01-09, 13:21:46
Ich hab mich mit meiner Gigabyte 4090 Gaming OC noch gar nicht richtig auseinander gesetzt - bis auf ein paar Benches (ohne OV oder OC).
Was mich wundert: die Karte steckt bei in einem gut belüfteten Gehäuse und selbst unter Benchmark Last laufen die Lüfter so so gut wie nie.

Wie schaut´s bei euch aus?

Asaraki
2023-01-09, 13:24:38
Ich hab mich mit meiner 4090 Gigabyte Gaming OC , bis auf ein paar Benches @stock, noch gar nicht richtig auseinander. Die steckt bei mir in einem gut belüfteten Gehäuse und was mich da wundert: die Lüfter laufen so gut wie nie, selbst noch ein paar Runden 3Dmark. Bei euch auch so?

Wenn du "gut laufen" im Sinne von leise meinst... Jup, hatte nie eine Karte die unter Last (Benches) nicht lauter wurde :D

Matrix316
2023-01-10, 16:55:41
Das hilft ;) https://www.amazon.de/Helect-Digitale-Thermometer-Pyrometer-Beleuchtung/dp/B071NBJJ2Q/ref=asc_df_B071NBJJ2Q/?tag=googshopde-21&linkCode=df0&hvadid=310660742536&hvpos=&hvnetw=g&hvrand=287275501847526851&hvpone=&hvptwo=&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9043412&hvtargid=pla-349733104962&psc=1&th=1&psc=1&tag=&ref=&adgrpid=65855127990&hvpone=&hvptwo=&hvadid=310660742536&hvpos=&hvnetw=g&hvrand=287275501847526851&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9043412&hvtargid=pla-349733104962


Meine Karte rennt jetzt bei 2770MHZ bei 975mV. Bei 2850MHZ zickt die Karte rum.
Muss ich mir mal besorgen. ;)

Ich hab die 4080 jetzt wieder ausgebaut und schick die zu MF zurück. Irgendwie ist mir doch zu teuer, besonders weil die Lüfter ein komisches Geräusch machen und die Karte standardmäßig irgendwie schlechter als die FE ist. Das hätte ich jetzt nicht erwartet. Normal sollte die FE die Basis sein. Naja, Buyer's Remorse halt. ;) Mal schauen ob ich eine bessere 4080 kaufe oder doch eine Custom 7900XTX noch? Aber vielleicht wäre dann doch noch ein besseres NT besser...

CompuJoe
2023-01-10, 21:05:35
Habe jetzt 2820Mhz bei 975mV Stabil geschafft, 20 Durchläufe bei Port Royal und 2 Tage a 5-6 Stunden TW3 und nebenbei etwas New World ohne Absturz.

Stock bei TW3 zwischen 270 und 310 Watt
2880 Mhz bei 1000mV 220-255 Watt
2820 Mhz bei 975mV 205-240 Watt

btw. Gesamtverbrauch des Rechners beim zocken seit min. 10 Jahren das erste mal oft unter 300 Watt, ich freu mir.
Bei EFT 1440p @ Max. DLSSQ Gesamtverbauch zwischen 230 und 250 Watt mit 100-160fps, ~130fps auf Customs, Grafikkarte liegt bei ~120-180Watt, wird auch nicht komplett ausgelastet.

gbm31
2023-01-10, 23:29:02
Wow! Das schafft meine sicher nicht.

ChaosTM
2023-01-10, 23:40:52
Das geht.
Ich arbeite aber lieber mit < PT und OV. Gibt mir bessere FPS Ergebnisse/Watt und ist simpler.

Matrix316
2023-01-12, 11:53:00
Gibt es eigentlich eine 4080 die keine Störgeräusche hat? Selbst die FE soll irgendein Brummen bei den Lüftern haben.

Die Zotac Trinity hatte eigentlich ein relativ angenehmes Lüftergeräusch, aber der Motor (oder was auch immer) machte ein eeeeeeeeeeeee was sich wie Spuhlenfiepen anhörte nur tiefer und lauter und es wurde immer Lauter je schneller die Lüfter liefen.

So ähnlich wie hier:
VlXnSn2GMSA
und hier
PZ9v3rgE9r0

Der_Korken
2023-01-12, 12:31:49
Das Brummen der Zotac in dem Video erinnert mich an meine erste 5700XT Nitro, die ich hatte. Dazu hatte sie noch ein wenig Spulenfiepen und ein elektrisches Brummen, wenn sie viel Strom gezogen hat. Ich war geradezu schockiert wie laut die so gepriesene Karte war. Das größte Problem waren aber die Lüfter, denn die Lautstärke und Tonhöhe des Brummens änderte sich mit der Lüfterdrehzahl. Ich habe mir nicht die Mühe gemacht zu testen, ob es alle Lüfter waren oder nur einer von dreien. Karte ging zurück. Später hatte ich eine zweite, da waren die Lüfter ganz leise, dafür hat die im Idle ständig gezirpt, wenn man gescrollt oder Fenster verschoben hat.

Ich dachte, dass ich einfach Pech hatte, denn so viele Bohnen in den Ohren kann kein Reviewer gehabt haben, damit das nicht auffällt. Generell habe ich von solchen Problemen sehr selten was gelesen. Ist es bei den 4080ern so auffällig? Die werden ja nicht alle die selben kaputten Lüftermodelle verwenden. Vielleicht ein Netzteil-Problem durch den neuen Stecker?

Matrix316
2023-01-12, 12:36:06
Bei Zotac und Palit soll das irgendwie ähnlich sein:

iVq6Ubcv0R4

Irgendwas hab ich gelesen, dass bei der 4080FE der hintere Lüfter irgendwie Geräusche macht und es gibt ein Video zu der 4090 (die haben doch den gleichen Kühler, oder?) bei 2:00

RZ4sxjaPkvk

Asus und MSI sollen davon weniger betroffen sein, dafür mehr Spuhlenfiepen...

Wie ist es denn mit Gigabyte?

Asaraki
2023-01-12, 13:56:02
Also ich geh jetzt nichts aufnehmen.. ausser das würd jetzt irgendwen richtig happy machen ^^

Aber meine FE macht keine wahrnehmbaren aussergewöhnlichen Geräusche bei geschlossenem Gehäuse (O11 XL, also nicht silent).
Im Idle ist die AiO-Pumpe das Lauteste und unter Last höre ich gefühlt alle Lüfter etwa ähnlich, also auch schwer zu sagen was Gehäuselüfter (alles Lian-Lis) und was die GPU wäre. Find ich so ganz ok

Thunder99
2023-01-13, 09:03:06
Es ist bekannt, dass der hintere Lüfter der FE ein brummen hat. Ob es störend ist, muss jeder für sich entscheiden. Siehe auch CB Review.

Exxtreme
2023-01-13, 09:07:52
OMG, einfach mal das Gehäuse zumachen und schon fiept und brummt nichts mehr. X-D Oder ein stark gedämmtes Gehäuse besorgen falls man doch sehr empfindlich ist.

Ach ja, zu meinen, dass Hersteller X nicht betroffen ist oder mit Netzteil des Herstellers Y das nicht so oft vorkommt ist mehr oder weniger Esoterik. Wenn das sicher behebbar wäre dann hätten die Hersteller das längst getan.

Matrix316
2023-01-13, 09:18:47
OMG, einfach mal das Gehäuse zumachen und schon fiept und brummt nichts mehr. X-D Oder ein stark gedämmtes Gehäuse besorgen falls man doch sehr empfindlich ist.

Ach ja, zu meinen, dass Hersteller X nicht betroffen ist oder mit Netzteil des Herstellers Y das nicht so oft vorkommt ist mehr oder weniger Esoterik. Wenn das sicher behebbar wäre dann hätten die Hersteller das längst getan.
Bei mir ist das Gehäuse zu, aber man hört das Störgeräusch trotzdem durch. Zumal ein Gehäuse immer eher "offen gebaut" sein sollte im Sinne, dass man vorne und so genügend Frischluft reinbekommt und nicht ganz zu.

Ich meine, wenn das das normale Lüftergeräusch wäre, würde ich ja nix sagen, aber das ist ja anders und irgendwie viel störender. Vor allem weil der restliche PC und die Kartenlüfter selbst relativ leise sind und man so jedes Störgeräusch durchhört.

Thunder99
2023-01-13, 11:10:43
MSI gibt an, bei den Gaming Modelle auf Spulen zu setzen die besser gegen Fiepen und andere Geräusche sind als denke ich die von billigeren Komponenten (z.B. bei der Ventus verbaut).

Wie ist denn die Serienstreuung bei den Spulen? Meine noch verbaute 1080Ti hat 0 Geräusche und säuft 250W.

Asaraki
2023-01-13, 11:30:44
Ihr macht euch imho so viele Gedanken, da ist es kein Wunder hört ihr am Schluss jedes kleine Ding ^^

K.a, vielleicht hab ich ein gutes Modell oder bin zu beschäftigt die Karte zum zocken zu nutzen

Matrix316
2023-01-13, 12:28:59
Ihr macht euch imho so viele Gedanken, da ist es kein Wunder hört ihr am Schluss jedes kleine Ding ^^

K.a, vielleicht hab ich ein gutes Modell oder bin zu beschäftigt die Karte zum zocken zu nutzen

Für 300 oder 400 Euro würde ich ja nix sagen, aber für 1300+ schon... ;)

gbm31
2023-01-13, 12:33:21
Verständlich.

Ich hab wohl Glück gehabt: meine Gamerock ist weder krumm noch machen die Lüfter Geräusche wie die Zotac oben. Coilwhine ist bekannt kein Thema und trotz offenem Benchtable kaum zu hören, bzw nur wenn die fps in Menues ausflippen.

The_Invisible
2023-01-13, 15:28:05
Ihr macht euch imho so viele Gedanken, da ist es kein Wunder hört ihr am Schluss jedes kleine Ding ^^

K.a, vielleicht hab ich ein gutes Modell oder bin zu beschäftigt die Karte zum zocken zu nutzen

Hochfrequentes fiepen ist halt auch wirklich lästig, mein Handyladenetzteil fiept auch und ich höre es sofort wenn es im Raum angesteckt ist. Bei >1k darf das einfach nicht sein.

Matrix316
2023-01-13, 16:54:09
Hochfrequentes fiepen ist halt auch wirklich lästig, mein Handyladenetzteil fiept auch und ich höre es sofort wenn es im Raum angesteckt ist. Bei >1k darf das einfach nicht sein.
Wobei bei mir wars glaube ich kein Coil Whine, sondern irgendwas anderes. Coil Whine hör ich kaum bzw. es stört mich eher weniger. ;)

CompuJoe
2023-01-13, 22:02:49
Habe gerade mal bei mir gehorcht.
Die Palit GameRock von mir macht keine komischen Geräusche.

In Furmark gibt es wenig Coilwine aber nicht so stark wie ich es mit meiner 3080 Gaming OC hatte.
Habe wohl nen recht gutes Modell erwischt.

Thunder99
2023-01-14, 13:38:06
Serienstreuung einfach groß?

Matrix316
2023-01-14, 14:58:01
Habe gerade mal bei mir gehorcht.
Die Palit GameRock von mir macht keine komischen Geräusche.

In Furmark gibt es wenig Coilwine aber nicht so stark wie ich es mit meiner 3080 Gaming OC hatte.
Habe wohl nen recht gutes Modell erwischt.
Das heißt die hört sich nicht so an wie hier?

J3AZKsGtRTQ

Hier hört man es ganz gut. Das war bei meiner Zotac ähnlich.

oder auch ähnlich wie hier:

vkDqECSDgj4

GrimReaper85
2023-01-21, 20:23:57
My Palit GameRock 4080 is also silent, no coil whine and silent fans.
I just tested the fans again today, I would say they are quiet up to 50% or 1850 rpm. 55% or 2000 rpm is already debatable, but to me still a pleasant sound. And that's without headphones on, I always game with headphones anyway.
Such an amazing card. It should be the third one I will have for 4 years, like ASUS 660 Ti (though that one was slow as heck the 3rd and 4th year) and MSI Gaming X 1070.

Previous MSI Suprim X 3080 had noisy fans from 1450 rpm and Gigabyte Aorus Master 3070 also from 1450 rpm.

I guess it's a draw of luck with any manufacturer, but this gen Palit, Gainward and Zotac seem to have the worst quality fans and ASUS and MSI the worst coil whine:
https://www.youtube.com/watch?v=3v9-cEbeOP4&t=563s

On Mindfactory Palit GameRock, MSI Suprim X and MSI Gaming X are the most sold, and I also think these 3 models should be the first choice. With Palit you can get bad fans and with MSI you can get coil whine, choose your poison. And ASUS has a crazy ASUS tax now anyway, at least Strix.
I only don't get why nobody wants to buy Gainward, it should be the exact same quality as Palit. I don't think picking Palit over Gainward gives you more chance to get a good card, they should have the exact same components and exact same fans.
Other cards than Palit, Gainward, MSI and PNY are too big anyway (especially Gigabyte and ASUS) and they are not any cooler. And they have a jokingly small bracket for the size of the card, most noticable with Gigabyte Aorus Master and ASUS Strix/TUF. Plus you get some weird sag holders or ASUS gives you some small one.

If anything, picking the store is more important. Computer Universe gives you 30 days for return (though it says you must inform them in 14 days, but with online RMA form it works up to 30 or 31 days) and Mindfactory can ban your account if they feel you caused them too much loss.

CompuJoe
2023-01-22, 01:44:03
Dieses metallische Geräusch haben sogar meine Noctua-Lüfter am Macho X2 wenn sie aus dem Stillstand anlaufen, und sogar lauter als die Lüfter auf der Palit, kurz für 1-2 Sekunden ist das doch kein Problem, und auch nur hörbar wenn man direkt am Gehäuse horcht.
Im normalen Betrieb ist da bei mir nix zu hören, und ich habe nicht gerade ein Silent Gehäuse.

Btw. ohne Stütze ist Karte etwas lauter!

ChaosTM
2023-01-22, 01:48:09
again - FE - > zero noise

Und ich mach mir gerade eine käseburger !

CompuJoe
2023-01-22, 06:08:08
Das einzige komische Geräusch ist halt das Anlaufen der Lüfter, aber das ist nur ein kurzer Moment, sonst ist die Palit sehr leise.
Was mir auch aufgefallen ist, Spulenfiepen habe ich minimal, nur Hörbar wenn man das Ohr ans Gehäuse klebt, aber am lautesten in Ubisoftgames, trotz globalen Limiter.

SamLombardo
2023-01-22, 07:20:32
Das einzige komische Geräusch ist halt das Anlaufen der Lüfter, aber das ist nur ein kurzer Moment, sonst ist die Palit sehr leise.
Genau das selbe bei meiner Palit 4090. Scheint Palit typisch zu sein. Man hört die Lüfter mit diesem Surren kurz anlaufen, aber wenn sie laufen hört man sie kaum, dann ist die Karte auch in fordernden Spielen schön ruhig. Ach und während des Hochfahrens höre ich sie noch, keine Ahnung was die da macht. Insgesamt kann man aber gut damit leben denke ich. Da hatte ich schon wesentlich lautere Grafikkarten.

Thunder99
2023-01-22, 11:38:07
Bin darauf gestossen was sehr hilfreich sein kann aus dem Luxx :)
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/
Liste auch für andere ADA Karten

Sir Winston
2023-01-24, 15:32:01
Habe hier seit kurzem eine Palit Gaming Pro OC laufen und bin bisher was Lautstärke und Temps angeht von der Karte auch äußerst angetan, hätte ich so nicht erwartet.

Thunder99
2023-01-30, 18:20:48
Tests aus der zweiten oder 3. Reihe sind ja Mangelware...

Wie schaut es mit der INNO3D GEFORCE RTX 4080 16GB X3 aus in Sachen Spulenfiepen?

The_Invisible
2023-01-30, 20:06:25
Bin darauf gestossen was sehr hilfreich sein kann aus dem Luxx :)
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/
Liste auch für andere ADA Karten

Goil, mit der billigsten Manli fährt man also am besten :freak:

Finds aber auch schade das quasi nur die Highend-Varianten getestet werden und die dafür gleich 30x aber von den anderen quasi gar nix hört. Wär ja fast eine Marktlücke

Platos
2023-02-04, 13:33:33
Kann mir hier ein RTX 4080 Besitzer sagen, was die minimal einstellbare Spannung ist, die man mit z.B dem Afterburner einstellen kann?

Ätznatron
2023-02-05, 09:10:52
Kann mir hier ein RTX 4080 Besitzer sagen, was die minimal einstellbare Spannung ist, die man mit z.B dem Afterburner einstellen kann?

Dürfte so um die 940 mV liegen.

Platos
2023-02-05, 14:34:27
Verstehe ich nicht.

Du hast doch gar kein Spannungslimit gemacht? Kannst du nicht die Punkte alle auf (z.B) 0.8v fixieren (alle rechts von 0.8v)? Oder 0.78v z.B

So meinte ich das. Aber die Anzeige geht ja bis 0.7v. Kannst du die Punkte bis da hinab kontrollieren? Kannst du ne gerade Linie machen (Eine Linie, parallel zur X-Achse) ?

Ätznatron
2023-02-05, 15:22:40
Die letzte durchgängig gerade Linie kann ich bei 800 mV erreichen.

Alles darunter ergibt keine Gerade mehr.

Platos
2023-02-05, 18:20:30
Ah interessant, danke. Dann sollte aber die Minimalspannung doch bei 0.8v liegen.

Ätznatron
2023-02-05, 19:24:54
Ah interessant, danke. Dann sollte aber die Minimalspannung doch bei 0.8v liegen.

Na ja, unter Last sind es dann wohl trotzdem 930 mV, zumindest, wenn man dem vom AB ausgelesen Wert glaubt.

Platos
2023-02-07, 01:01:10
Ah ok, komisch. Also im Ampere Thread können 4090 und 4070Ti angeblich Spannungen um die ca. 0.86-0.88v als Minimum haben. Keine Ahnung, warum bei dir nur 0.93v geht.

Ätznatron
2023-02-07, 08:02:11
So, ich hab's jetzt mal mit 900 und 935 mV getestet, und es scheint sich mit den unter Last mindestens anliegenden 0,93 V zu bestätigen.

Es soll ja hier im Forum einige wenige andere mit einer 4080 geben, vielleicht hat ja von denen jemand Bock, das gegenzutesten. ;)

aceCrasher
2023-03-02, 11:30:05
Wie schaut es mit der INNO3D GEFORCE RTX 4080 16GB X3 aus in Sachen Spulenfiepen?
Wenig Fiepen da Referenzplatine.

rentex
2023-03-02, 14:19:06
So, Gestern die Kfa2 4080 SG eingebaut. Das einzige was ich einstellen musste war die Lüfterkurve. Ne Stunde Benches gefahren und davor den Time Spy Stress Test mit 96,4% absolviert. Die GPU kam nie über 59 Grad bei zu erwartetender Performance. Da scheint sich der LKW eines Kühlers zu rentieren. Der 12VHPWR Stecker ist einfach eine Fehlskonstruktion und den passenden BeQuiet Adapter musste ich aus seinem Kabelbinderkorsett befreien.
Spulenfiepen konnte ich bis jetzt nicht vernehmen. Sonst eine nette Karte.

Schnitzl
2023-03-21, 16:55:43
Netter Test der Asus RTX 4080 Noctua OC bei Computerbase (https://www.computerbase.de/2023-03/asus-geforce-rtx-4080-noctua-oc-test/)
- sehr leise
- geringfügig wärmer

Vaporchamber + 8 Heatpipes :up:

ChaosTM
2023-03-21, 16:57:42
Leider viel zu teuer. Macht bei einer 80er auch relativ wenig Sinn.
Trotzdem nett..

Thunder99
2023-03-22, 09:15:11
Bei der Auswahl zwischen der MSI Gaming X oder der Inno3D X3, welche wäre da besser in Sachen Spulenfiepen? Kosten beide in etwa gleich viel (unter 1300CHF).
Sofern die Preise nicht mehr nachgeben möchte ich eine der Karten kaufen. Ist ja gerade eher eine Seitwärts Bewegung in Sachen Preis.

Langlay
2023-03-28, 18:39:02
So ich hab heute ne 4080 FE für meine Frau bestellt, sie kommt von einer RX6800 das solle einen guten Performanceschub geben.

aceCrasher
2023-03-29, 07:03:56
Bei der Auswahl zwischen der MSI Gaming X oder der Inno3D X3, welche wäre da besser in Sachen Spulenfiepen? Kosten beide in etwa gleich viel (unter 1300CHF).
Sofern die Preise nicht mehr nachgeben möchte ich eine der Karten kaufen. Ist ja gerade eher eine Seitwärts Bewegung in Sachen Preis.
Die Inno3D Karten mit den Referenz PCBs, die X3 gehört dazu, haben quasi keine Probleme mit Spulenfiepen. Zur MSI kann ich nichts sagen.

Thunder99
2023-03-29, 14:36:43
Danke. MSI soweit ich gelesen habe Mal so Mal so

Thunder99
2023-04-15, 20:02:09
Es ist vollbracht. Die inno3D RTX 4080 X3 ist verbaut, was für ein Trümmer :freak:
Daten vorher und nachher in den GPU-Z Screenshots.
Die Karte sprengt so alles was ich bisher verbaut hatte. Sie passt zwar rein aber grösser darf es nicht mehr werden. War nicht einfach sie zu befestigen.

Zur B-Note (da ja Performance bekannt ist), sie kann durchaus hörbar sein wenn der Lüfter >50% hat. Ein stärkeres Lüfter-rauschen kommt vom Tower. Gefühlt ein wenig lauter als die vorherige 1080Ti aber wenn man Ton an hat (bisher) nicht störend.

Bilder von Gigabyte Auros GTX 1080Ti vs. inno3D RTX 4080 X3 gibt es hier:
https://abload.de/thumb/20230414_170952-kopie77c2q.jpg (https://abload.de/image.php?img=20230414_170952-kopie77c2q.jpg) https://abload.de/thumb/20230415_175658-kopienccvq.jpg (https://abload.de/image.php?img=20230415_175658-kopienccvq.jpg) https://abload.de/thumb/20230415_175719-kopiexhevs.jpg (https://abload.de/image.php?img=20230415_175719-kopiexhevs.jpg) https://abload.de/thumb/20230415_175946-kopievke7x.jpg (https://abload.de/image.php?img=20230415_175946-kopievke7x.jpg) https://abload.de/thumb/20230415_180017-kopiegpiwp.jpg (https://abload.de/image.php?img=20230415_180017-kopiegpiwp.jpg) https://abload.de/thumb/20230415_180549-kopie9lit6.jpg (https://abload.de/image.php?img=20230415_180549-kopie9lit6.jpg) https://abload.de/thumb/20230415_193702-kopie71c2t.jpg (https://abload.de/image.php?img=20230415_193702-kopie71c2t.jpg)

The_Invisible
2023-04-15, 21:11:21
Gratz, schöner Sprung und jede Menge neue Tech: RT, DLSS, FrameGeneration, viel zum herumspielen :D

aceCrasher
2023-04-15, 21:35:19
Sehr schön, ist eine tolle Karte, ich hoffe du hast viel Spaß mit ihr! :biggrin: Probier ruhig mal aus eine manuelle Lüfterkurve zu setzen, der Kühlere deiner Karte ist für eine 4080 eigentlich sehr stark (gleicher Kühler wie die 4090 X3), aber Inno3Ds Lüfterkurven sind oft etwas aggressiv. Mit meiner Inno3D 4090 benutze ich auch eine eigene Kurve.

Thunder99
2023-04-15, 23:33:14
Vielen Dank euch :)
Ja, danke für den Tipp. Probier ich dann aus.

ChaosTM
2023-04-15, 23:49:33
Meine (3) 4080er waren gsd niemals hörbar.
Die 90er höre ich gelegentlich doch, trotz Lüfter-kurve.

Viel Spaß mit der Karte !

add.: unglaublich effizientes Ding.. 16-24 Watt Dual Monitor/Video Verbrauch. Die 90er brauch fast das doppelte.

The_Invisible
2023-04-16, 10:23:38
Kommt auf das Modell an, meine 4090 braucht nur 20W mit Dual Monitor (UHD@144Hz + 1440p@60Hz), das scheint aber bis über 40W je nach Hersteller hochzugehen warum auch immer

ChaosTM
2023-04-16, 10:26:10
Scheint so. Meine alten 4080er brauchten alle nur um die 20 Watt Dual/Video.
Der 90er sauft derzeit 35+. Auch kein Beinbruch, aber doch auffällig.

Langlay
2023-04-16, 14:16:40
Eine Sache noch, in deinem GPU-Z Screenshot der 4080 steht bei PCIe:
"PCIe x16 4.0 @ x16 1.1"
Stehen muss da:
"PCIe x16 4.0 @ x16 4.0"
wie bei meiner GPU. Für mich sieht es so aus als würde da was falsch konfiguriert sein oder der PCIe fallback greifen. Setz mal manuell PCIe 3.0/4.0 für den Slot im Bios.

Mit PCIe 1.1 würdest du laut Techpowerup (https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html) fast 20% Performance verlieren.

Das ist normal, das ist ein Stromsparfeature das es schon seit anno dutz gibt, sobald Leistung gefordert wird, gehts von PCI-E 1.1 auf 4.0.

basix
2023-04-16, 14:18:16
Japp, ist so.

aceCrasher
2023-04-16, 18:39:27
Ahh, gut zu wissen, mein Fehler!

Thunder99
2023-04-16, 19:54:38
Ja, kann man umgehen wenn man den kleinen Renderer laufen lässt im GPU-Z.

Zur Inno3D, die Lüftersteuerung ist Default so eingestellt, dass 65°C gehalten wird oder versucht gehalten wird :freak:. Bestimmt Vorgabe von Nvidia ;D

Weiter habe ich entdeckt, dass es den "Adaptiv" Modus nicht mehr offiziell gibt. Es ist nur noch "normal" und "höchste Leistung" auswählbar. Normal entspricht aber laut Inspector dem alten "Optimale Performance" ergo maximale Stromsparfunktion.

Oder wie sieht ihr das?

Thunder99
2023-04-17, 10:48:34
Konnte gestern einen netten Test machen in Gears 5. Maximale settings + 4k lässt die Grafikkarte richtig schwitzen. Bis zu 315W.

Wenn die TDP begrenzt wird auf 240W fällt die FPS, da Takt von 2,7GHz auf 2,4-2,5GHz fällt. Crossbar Takt fällt auch entsprechend da nur noch 0,94V anliegen.
Setze ich den Offset Takt hoch +175MHz kommen so ca. 2,6GHz dabei raus, Crossbar Takt bleibt unten. Performance entsprechend niedriger als bei vollem Takt (3-4fps) und TDP.

Crossbar Takt hängt 1:1 mit der Spannung zusammen.

Was für Takt kann ich stabil erwarten oder einstellen mit einer Sicherheit bei 0,94V?

Langlay
2023-04-19, 18:39:05
Was für Takt kann ich stabil erwarten oder einstellen mit einer Sicherheit bei 0,94V?


Musst du austesten, wirst am Ende irgendwo bei 2700MHz rauskommen.

Ich hab bei 2645Mhz@940mV angefangen und am Ende sind dann maximal 2730MHz@940mV stabil gewesen (Port Royal Stresstest 3x 20 Loops). Da es die Karte von meiner Frau ist und Stabilität ihr wichtiger ist als das letzte Prozent Leistung isset dann im Endeffekt 2700MHz@950mV geworden.

Damit liegste dann so bei 200-240W unter Last je nach Spiel und der Leistungverlust bei den Sachen die meine Frau so spielt sind <3% im Unterschied zu Stock.

Thunder99
2023-04-19, 22:29:26
Danke dir. Da war bisher mein Anfang nicht verkehrt mit +175MHz. Wird dann weiter getestet.

fulgore1101
2023-07-03, 22:15:49
Welche 4080 Karten im Einstiegspreis Segment sind denn brauchbar bzw. umgekehrt um welche sollte besser ein Bogen gemacht werden?
Die Karte kommt in den Rechner eines Techniklaien, also kein OC, UV, angepasste Lüfterkurve usw.

Exxtreme
2023-07-03, 23:08:23
Welche 4080 Karten im Einstiegspreis Segment sind denn brauchbar bzw. umgekehrt um welche sollte besser ein Bogen gemacht werden?
Die Karte kommt in den Rechner eines Techniklaien, also kein OC, UV, angepasste Lüfterkurve usw.

Weiss nicht wie empfindlich du bist bez. Spulenrasseln. Hier aber mal eine größere Stichprobe:
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/

fulgore1101
2023-07-04, 09:55:26
Weiss nicht wie empfindlich du bist bez. Spulenrasseln. Hier aber mal eine größere Stichprobe:
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/

Mein Kumpel weiß garnicht was Spulenfiepen ist. Kein Spulenfiepen ist also kein Kaufargument. Wäre natürlich trotzdem schön eine Karte zu bekommen, die nicht oder nur wenig fiept. Ich dachte eher an sowas wie, dass die verbaute Elektronik nicht minderwertig ist und der Lüfter leise und unauffällig läuft.

Thunder99
2023-07-09, 14:50:43
Standard Hersteller wie MSI und ASUS. Inno3D ist auch nicht schlecht aber wahrscheinlich lauter als Konkurrenz.
Mit einer MSI Gaming (X) machst du nichts falsch.

Hellspawn
2023-07-09, 20:32:43
Mein Kumpel weiß garnicht was Spulenfiepen ist. Kein Spulenfiepen ist also kein Kaufargument. Wäre natürlich trotzdem schön eine Karte zu bekommen, die nicht oder nur wenig fiept. Ich dachte eher an sowas wie, dass die verbaute Elektronik nicht minderwertig ist und der Lüfter leise und unauffällig läuft.

Ist dein Kumpel taub? Die Argumentation verstehe ich nicht, nur weil er Spulenfiepen NOCH nicht kennt, heißt das doch nicht, dass es ihm nicht evtl doch negativ auffällt, oder?

/Edit: Die Stichprobe ist der beste Anhaltspunkt neben dem Preis meiner Meinung nach.

The_Invisible
2023-07-09, 20:51:55
PNY ist diese Gen auch eine Empfehlung wert, meine fiept jedenfalls erst weit ab 1000fps hörbar und die Lüfter sind schön leise. Wird bei der 4080 wohl nicht anders sein..

Exxtreme
2023-07-09, 20:56:00
PNY ist diese Gen auch eine Empfehlung wert, meine fiept jedenfalls erst weit ab 1000fps hörbar und die Lüfter sind schön leise. Wird bei der 4080 wohl nicht anders sein..

Das lässt sich nicht übertragen. :) Anderer Chip, anderer Stromverbrauch, Serienstreuung ...

Edgecrusher86
2023-07-09, 21:02:02
Also die PNY 4070 Ti Verto XLR8 OC vom Kumpel ist top bezüglich Kühlung und Spulenfiepen (ich würde wenn zur Verto OC greifen -> die normale Verto hat einen kleineren Kühler!). Definitiv einer der besten Kühllösungen diese Generation (Die ASUS TUF ist auch absolut Bombe hier).

MSI und ASUS würde ich nur empfehlen, wenn auch UV geplant ist. Zumindest wenn es nach den Foren geht, scheinen bei der 4090 die MSI und ASUS Karten am penetrantesten zu sein.
Hier klingt die ASUS wie ein Zikadenkonzert, wenn man sie entfesselt und ohne fps Limit laufen lässt. Aber schon eine Reduktion des PTs auf 60% brachte eine Halbierung mit sich. UV und ein tieferes fps Cap machte sie dann lautlos. ;)

Chronicle
2023-07-10, 00:24:42
Das lässt sich nicht übertragen. :) Anderer Chip, anderer Stromverbrauch, Serienstreuung ...

Kann ich so bestätigen von der PNY. Leise, kühl und kein Fiepen hier bei mir (zumindest bis 144fps) :smile:

oN1
2023-07-10, 20:37:13
Spricht außer dem Umstand, dass man auf einen Drop warten muss aus eurer Sicht was gegen eine 4080/4090 FE?

Ich bin was Grafikkarten angeht ein gebranntes Kind, habe also häufig Defekte gehabt. Ich würde daher gerne einen Hersteller mit schnellem, direktem Austausch ohne Händler dazwischen haben - und das scheint bei NVIDIA-Karten nach dem Ausstieg von EVGA nur bei NVIDIA selbst möglich zu sein.

Troyan
2023-07-10, 21:46:58
Tiefergehender Verbrauchsvergleich zwischen 408FE und Custom 7900XTX: https://www.youtube.com/watch?v=HznATcpWldo

Radeonfreak
2023-07-10, 23:38:17
Autsch.

Linmoum
2023-07-10, 23:48:20
Nvidia hat mit Ada gerade im Teillastbereich einen riesigen Sprung gemacht. RDNA3 ist dort hingegen halt einfach ein völliger Unfall. Mir unbegreiflich, wie man einen derartigen Rückschritt hinlegen kann.

DrFreaK666
2023-07-11, 05:01:23
Was bei RDNA3 schief gelaufen ist, weiß wohl nur AMD (vielleicht)

Exxtreme
2023-07-11, 08:20:55
Was bei RDNA3 schief gelaufen ist, weiß wohl nur AMD (vielleicht)

Womöglich war Strom sparen nicht auf der Prioritätsliste. Bei Ampere hat das ja auch niemanden gestört, dass das Ding so viel säuft.

Linmoum
2023-07-11, 08:51:20
Ich bezweifle, dass gerade der Verbrauch im Teillastbereich für AMD wenig(er) relevant ist. Ampere war bei Teillast (insb. im Vergleich zu RDNA2) genauso schlecht, aber da hatte man wenigstens noch irgendwie die Ausrede von Samsung 8nm vs. TSMC N7. Das fällt hier weg, zumal RDNA3 nicht nur im Vergleich zu Ada, sondern vor allem im Vergleich zu RDNA2 ein riesiger Rückschritt ist.

Troyan
2023-07-11, 12:16:11
Es gab noch nie eine Architektur wie Lovelace, die so massiv effizient im Teillastbereich ist.

Lovelace ist auch die erste Architektur, wo sich der Stromverbrauch bei "100%" Auslastung massiv unterscheiden kann. Bei einer 4090 mit 600W sind da Unterschiede zwischen ~330W und ~600W möglich. :eek:

robbitop
2023-07-11, 20:05:19
Das ist doch nichts neues. Auf meinem Steam Deck ist die GPU bei Teillast unter 2 W und bei Volllast bei >10 W. Also eine halbe Größenordnung. In Windows braucht man dafür tools wie AutoTDP - das scheint auch ein wenig Softwaresache zu sein. Wenn die GPU nicht ausgelastet ist muss sie in einen niedrigen Betriebspunkt und jede ms die sie vor „Abgabetermin“ fertig mit dem Frame ist kann sie schlafen. Das funktioniert mit AMD HW unter Linux jedenfalls astrein.

aufkrawall
2023-07-11, 20:12:23
Es gab noch nie eine Architektur wie Lovelace, die so massiv effizient im Teillastbereich ist.

Bis man für madVR auf maximale Performance schalten muss, weil das Takt-Management Müll ist. :freak:

The_Invisible
2023-07-11, 20:33:17
Tiefergehender Verbrauchsvergleich zwischen 408FE und Custom 7900XTX: https://www.youtube.com/watch?v=HznATcpWldo

Da hat man den Aufpreis von 7900xtx zu 4080 auch bald drinnen :D

Chronicle
2023-07-13, 17:56:29
Tiefergehender Verbrauchsvergleich zwischen 408FE und Custom 7900XTX: https://www.youtube.com/watch?v=HznATcpWldo

Mal eine ernstgemeinte Frage:
Gibt es wirklich leute die bspw. Overwatch mit knapp 600fps spielen? Solche Videos sind für mich immer völlig realitätsfremd, da ich eh auf 144fps gelocked bin.
Ich hätte hier bspw. einen Vergleich mit realistischen fps viel interessanter gefunden, gerade wenn man das Video damit anpreist, dass der Stromverbrauch bei Mittelklasse-(im Sinne der Grafik) Spielen so unterschiedlich ist.

Hat für mich gerade in etwa soviel Wert, wie den fps-Lock im Haupmenü rauszunehmen und mich zu ärgern, dass die Karte warm wird weil hier 5000fps im Standbild berechnet werden.

Vielleicht übersehe ich hier aber auch irgendwas?

Langlay
2023-07-13, 18:19:37
Mal eine ernstgemeinte Frage:
Gibt es wirklich leute die bspw. Overwatch mit knapp 600fps spielen? Solche Videos sind für mich immer völlig realitätsfremd, da ich eh auf 144fps gelocked bin.
Ich hätte hier bspw. einen Vergleich mit realistischen fps viel interessanter gefunden, gerade wenn man das Video damit anpreist, dass der Stromverbrauch bei Mittelklasse-(im Sinne der Grafik) Spielen so unterschiedlich ist.


Ja, gibt es, quasi jeder der mehr oder weniger "ambitioniert" spielt, weil weniger Inputlag und more is better und so. Also bei Leuten die solche Spiele kompetitiv spielen ist das relativ weit verbreitet. Ich bin früher auch mit X00FPS in CS rumgelaufen.

Chronicle
2023-07-13, 20:03:37
Oha okay, vielen Dank.
Wer hätte gedacht, dass sogar ich mal zu alt für diesen Kram werde :usad:

Sumpfmolch
2023-07-13, 20:36:34
Die FPS begrenze ich inzwischen auch in den Games ("die Jungen Jahre sind vorbei...") aber natürlich hat AMD beim Verbrauch in seiner aktuellen Generation schon echt gut in die Scheiße gegriffen. Bin fast vom Stuhl gefallen, als ich bei den 7900xtx irgendwelche 4xx Werte gelesen habe, während meine 6900xt mba Referenz 254Watt Limit hat und bei -10% (230W max.) im Alltag läuft.

aufkrawall
2023-07-13, 20:43:20
400W kann sich sparen mit der 7900 XTX, das skaliert viel zu mau gegenüber den Referenz-355W. Für nennenswert mehr Bums bräuchte es eher so etwas wie 600W. Das skaliert halt beschissen, aber läppert sich.

Raff
2023-07-13, 20:53:06
Die FPS begrenze ich inzwischen auch in den Games ("die Jungen Jahre sind vorbei...") aber natürlich hat AMD beim Verbrauch in seiner aktuellen Generation schon echt gut in die Scheiße gegriffen. Bin fast vom Stuhl gefallen, als ich bei den 7900xtx irgendwelche 4xx Werte gelesen habe, während meine 6900xt mba Referenz 254Watt Limit hat und bei -10% (230W max.) im Alltag läuft.

Fun fact: Eine RX 6000 meldet nur die GPU-Power, während RX 7000 die ganze Boardpower ausgibt -> deine 6900 XT lief mit 300 Watt, die neue Karte ist also "nur" 30-40 Prozent versoffener. ;)

MfG
Raff

Sumpfmolch
2023-07-13, 21:13:46
Fun fact: Eine RX 6000 meldet nur die GPU-Power, während RX 7000 die ganze Boardpower ausgibt -> deine 6900 XT lief mit 300 Watt, die neue Karte ist also "nur" 30-40 Prozent versoffener. ;)

MfG
Raff

Gut zu wissen aber +40% beruhigt mich auch nicht. :uponder:

aufkrawall
2023-07-13, 21:39:16
Es sind +25%, wenn du fair vergleichst.

Sumpfmolch
2023-07-13, 21:47:40
Interessant wäre gewesen, wenn das übliche Begrenzen der fps (60,90,144...) mal mit gebencht würde. "Gefühlt" müsste das Ergebnis sein, dass die Karte mit den normal höheren fps dann weniger verbraucht, weil diese weiter unter ihrer 100% Auslastung liegt.

Aber ob das stimmt?

The_Invisible
2023-07-14, 07:19:53
DLSS+FG ist schon nett zum Strom sparen, so drückt man zb Diablo 4 mit max Settings@4k/144Hz auf unter 200W.

y33H@
2023-07-14, 07:45:19
Interessant wäre gewesen, wenn das übliche Begrenzen der fps (60,90,144...) mal mit gebencht würde. "Gefühlt" müsste das Ergebnis sein, dass die Karte mit den normal höheren fps dann weniger verbraucht, weil diese weiter unter ihrer 100% Auslastung liegt. Aber ob das stimmt? Weitestgehend ja: https://www.computerbase.de/2023-01/amd-radeon-rx-7900-xtx-adrenalin-22-12-2-test/#abschnitt_leistungsaufnahme_in_spielen

robbitop
2023-07-14, 08:50:16
Es ist lächerlich, dass Diablo4 bei der Kartoffelgrafik nicht auf jeder GPU im 2D Takt in den FPS Begrenzer läuft. Dass man da sowas wie DLSS und FG überhaupt anbietet. Schöne bloatware.

The_Invisible
2023-07-14, 09:34:48
Es ist lächerlich, dass Diablo4 bei der Kartoffelgrafik nicht auf jeder GPU im 2D Takt in den FPS Begrenzer läuft. Dass man da sowas wie DLSS und FG überhaupt anbietet. Schöne bloatware.

Hast wohl noch nie Unity Indie-Games gespielt :D

Aber ja, auch die >20GB VRAM sind lächerlich, bei meinem Bruder mit einer 3060 12GB stürzt das Game mit Ultra Texturen nach einiger Zeit einfach mit einem Video-Memory Fehler ab

robbitop
2023-07-14, 10:17:42
Hehe Cities Skylines (das war ja fast Indie) - und der Nachfolger sieht trotz viel höherem Budget kaum besser aus. Kartoffelgrafik und wahrscheinlich wieder hoher Leistungsbedarf. Sowas müsste wie im Mittelalter mit Peitschenhieben bestraft werden. ^^

Thunder99
2023-07-14, 15:02:45
Der Teufel steckt im Detail, daher der Leistungsbedarf oder die Guten Leute bei Blizzard sind alle schon weg ;D

Iceman346
2023-11-07, 11:37:36
Hab jetzt seit ner knappen Woche ne MSI Suprim X 4080er drin und bin sehr zufrieden. Den Klopper in das Gehäuse kriegen war das größte Problem, musste eine Festplatte umsetzen aber dann ging es.

Die Lüfter sind nicht hörbar, die Gehäuselüfter des Define R6 sind lauter als die Grafikkarte, das war bei der 3070 die ich vorher drin hatte aber genauso.
Leichtes Spulenfiepen hat die Karte bei extremen Frameraten, gefühlt aber weniger als die alte Karte. Und mit Vsync bei meinem 144Hz Monitor ist nichts mehr zu vernehmen.

Standardmäßig ging die Karte, laut Nvidia Overlay, auf etwa 2830-2840 Mhz bei 300-320W Verbrauch bei Cyberpunk mit Pathtracing.
Ich habe aktuell untervoltet, scheine aber keinen außergewöhnlich guten Chip erwischt zu haben. In Cyberpunk stabil hab ich aktuell 2745Mhz Boost mit 960mV laufen. 950mV mit den gleichen Boostraten ergab noch hin und wieder Abstürze.

Trotzdem bin ich damit bei knapp 200-230W in Cyberpunk. Knapp 100W weniger Stromverbrauch bei vielleicht 3-5% weniger Leistung nehme ich gerne mit. Und mit der Leistung bin ich bisher sehr zufrieden, genieße aktuell Cyberpunk mit allem an und warte auf die Zustellung des Keys für das Alan Wake 2 Angebot.

DrFreaK666
2023-11-07, 11:45:55
Viel Spaß damit.
Das R6 habe ich auch und auch bei mir mussten SSDs wandern. Dank den Schlitten aber das kleinste Problem.
Dein 4080 dürfte aber noch deutlich voluminöser sein als mein 6700XT

VooDoo7mx
2023-11-07, 12:01:47
Hab jetzt seit ner knappen Woche ne MSI Suprim X 4080er drin und bin sehr zufrieden. Den Klopper in das Gehäuse kriegen war das größte Problem, musste eine Festplatte umsetzen aber dann ging es.

Die Lüfter sind nicht hörbar, die Gehäuselüfter des Define R6 sind lauter als die Grafikkarte, das war bei der 3070 die ich vorher drin hatte aber genauso.
Leichtes Spulenfiepen hat die Karte bei extremen Frameraten, gefühlt aber weniger als die alte Karte. Und mit Vsync bei meinem 144Hz Monitor ist nichts mehr zu vernehmen.

Standardmäßig ging die Karte, laut Nvidia Overlay, auf etwa 2830-2840 Mhz bei 300-320W Verbrauch bei Cyberpunk mit Pathtracing.
Ich habe aktuell untervoltet, scheine aber keinen außergewöhnlich guten Chip erwischt zu haben. In Cyberpunk stabil hab ich aktuell 2745Mhz Boost mit 960mV laufen. 950mV mit den gleichen Boostraten ergab noch hin und wieder Abstürze.

Trotzdem bin ich damit bei knapp 200-230W in Cyberpunk. Knapp 100W weniger Stromverbrauch bei vielleicht 3-5% weniger Leistung nehme ich gerne mit. Und mit der Leistung bin ich bisher sehr zufrieden, genieße aktuell Cyberpunk mit allem an und warte auf die Zustellung des Keys für das Alan Wake 2 Angebot.

:up:

Wie ist denn eigntlich bei der Suprim die Lüfterkurve mit dem Silent Bios?
Wieviel RPM haben da die Lüfter bei deinen 200-230W?

Meine 3080Ti Suprim hatte eine verdammt gute und leise Lüfterkurve da waren bei solchen Verbräuchen nur um die 800rpm aktiv und die Karte praktisch unhörbar.

Ganz zum Gegenteil meiner jetzigen Gigabyte 4090 wo ich die Lüfterkurve mit Spftware anpassen muss. :mad:

Raff
2023-11-07, 12:05:11
Müsste dreistellig sein, sofern ein Luftzug im Gehäuse vorliegt. Meine ULV-Karte (Suprim X mit Silent-Firmware, allerdings 4090) rangiert in dem Wattbereich um 1.000 RPM.

MfG
Raff

Iceman346
2023-11-07, 12:16:03
Lüfter drehen bei den Einstellungen mit um die 875RPM mit leichten Schwankungen. Silent Bios ist aktiv, zusätzlich laufen halt die normalen Gehäuselüfter welche Fractal Design beim Define R6 mitliefert.

Unrealswebmaster
2023-11-07, 14:17:22
Hmmm habe ne MSI Suprim X 3080 in meinem PC mit 8700k 5GHZ, schafft dieser noch die
MSI Suprim X 4080 mit 165HZ 1440p TFT ?

Rancor
2023-11-07, 15:03:17
Hmmm habe ne MSI Suprim X 3080 in meinem PC mit 8700k 5GHZ, schafft dieser noch die
MSI Suprim X 4080 mit 165HZ 1440p TFT ?
Ich glaube kaum, wobei das natürlich schon aufs Spiel ankommt. Ein 8700k, auch auf 5GHz, ist nicht mehr der schnellste.

aufkrawall
2023-11-07, 15:09:21
Wenn es nicht ins CPU-Limit einbricht, werden viele Spiele trotzdem unsauberer als mit schnellerer CPU laufen.

Shink
2023-11-07, 15:46:32
https://www.gamestar.de/artikel/intel-core-i7-8700k-mit-sechs-kernen-gegen-amd-ryzen-1800x,3320585,seite2.html#spiele-benchmarks

Also demnach hat er in manchen Spielen (z.B. ROTR DX11) Probleme, 60fps stabil zu halten (und CPU-limitiert demnach die dort getestete GTX 1080).
Kommt halt darauf an, was du spielst.

Ex3cut3r
2023-11-07, 16:24:59
Hmmm habe ne MSI Suprim X 3080 in meinem PC mit 8700k 5GHZ, schafft dieser noch die
MSI Suprim X 4080 mit 165HZ 1440p TFT ?

Wurde ich tatsächlich eher nicht machen. Bei einer neuen GPU hat man immer die Erwartungshaltung, dass nun alles Super flüssig laufen wird. Leider hat so ne starke GPU auch Nebenwirkungen, nämlich dass die CPU für die höheren Frameraten der GPU auch hinterherkommen muss, tut sie das nicht, kann sich das je nach Titel in ein ziemlich unsauberes Spielgefühl entwickeln, das hängt aber auch davon ab, wie empfindlich man auf Nachladerruckler/Frametime Spikes ist, oder es einen einfach schon ankotzt, wenn die GPU nicht voll ausgelastet wird.

Raff
2023-11-07, 16:35:12
Einfach (DL-)DSR anknipsen und 5K@WQHD nutzen, dann ist die Karte ganz schnell ganz platt und die CPU mehr als ausreichend. ;)

MfG
Raff

DrFreaK666
2023-11-07, 16:47:02
DSR (Downsampling) wurde früher gefeiert, jetzt ist Upscaling angesagt :ugly:

The_Invisible
2023-11-07, 18:25:54
Einfach (DL-)DSR anknipsen und 5K@WQHD nutzen, dann ist die Karte ganz schnell ganz platt und die CPU mehr als ausreichend. ;)

MfG
Raff

Jap, lieber mehr GPU als CPU Leistung ;)

gnomi
2023-11-07, 18:46:34
Das passt imho noch hochgezogen und mit schnellem DDR 4 Ram, so lange die fps Zahlen 40-80 sein dürfen und nicht Minimum dreistellig sein müssen.

Unrealswebmaster
2023-11-07, 19:18:01
Also ich zocke im Moment Cyberpunk 2077 mit Ray Tracing und alles bis auf Anschlag (GPU auch immer 99%) außer Path Tracing dafür ist die 3080 zu lahm.
Zocke aber mit im Schnitt 60 FPS und ich denke die 4080 in 1440p würde da schon einiges bringen.

Unrealswebmaster
2023-11-07, 21:04:47
Hier mal ein Benchmark Test Von Cyberpunk2077 und da sollte die 4080 doch ne menge mehr schaffen, trotz 8700k

https://abload.de/thumb/screenshot2023-11-0723kf8l.png (https://abload.de/image.php?img=screenshot2023-11-0723kf8l.png)

Lurtz
2023-11-07, 21:49:58
DSR (Downsampling) wurde früher gefeiert, jetzt ist Upscaling angesagt :ugly:
Downsampling war eine reine Verzweiflungstat, weil es in der Zeit kein brauchbares AA für die Art von vorherrschendem Content gab. Seit (gutem) TAA hat sich das glücklicherweise geändert und mit DLSS und Co ist Downsampling komplett sinnlos geworden.

Raff
2023-11-07, 21:54:33
Das sind zwei Werkzeuge für völlig unterschiedliche "Probleme". DL-DSR 2,25× mit etwas Tabasco ist göttlich für Spiele, bei denen man die Leistung hat, wirkt ein wenig wie 'ne Texturmod. Nur hat man die Leistung bei modernen Spielen meist nicht, auch nicht mit einer RTX 4090. Die wilde Kombination von DL-DSR und DLSS führt manchmal zu tollen Kompromissen.

MfG
Raff

Platos
2023-11-08, 02:00:45
Ist denn DL-DSR 2.25x dem DLAA von der Bildqualität überlegen ?

Habt ihr dazu was brauchbares zum lesen? Weil DLAA kann man ja in jedem DLSS2 Spiel mit dem Tool da erzwingen.

gnomi
2023-11-08, 09:44:34
Hier mal ein Benchmark Test Von Cyberpunk2077 und da sollte die 4080 doch ne menge mehr schaffen, trotz 8700k

https://abload.de/thumb/screenshot2023-11-0723kf8l.png (https://abload.de/image.php?img=screenshot2023-11-0723kf8l.png)


https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-GOG-Release-GPU-Benchmark-Test-Performance-1429500/

Etwa 45-50% mit RT in WQHD und höher Quality Upsampling könnte das imho schon bringen.

Ex3cut3r
2023-11-08, 16:08:39
Hier mal ein Benchmark Test Von Cyberpunk2077 und da sollte die 4080 doch ne menge mehr schaffen, trotz 8700k

https://abload.de/thumb/screenshot2023-11-0723kf8l.png (https://abload.de/image.php?img=screenshot2023-11-0723kf8l.png)

Die 35 PFS Min, sagen mir eigentlich jetzt schon, dass dein 8700K deine 3080 ausbremst. Weil ich habe mit einer 3080 Ti und einem 5700X 53 FPS Minimum....

Am ende ist es dein Bier, und ich möchte dir das auch nicht ausreden, oder madig machen. Nur wie gesagt, ich persönlich wurde es nicht machen.

Hier mein Ergebnis, selbe Settings wie du.
https://abload.de/thumb/cyberpunk2077_2023_11wudep.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_11wudep.jpg)

Rancor
2023-11-09, 10:09:47
Ich konnte eine MSI RTX Gaming X Trio für 1000€ ergattern. Da konnte ich dann nicht wiederstehen.
Mit Glück kommt die heute an. Mal sehen ob sich das gelohnt hat.

DrFreaK666
2023-11-09, 11:52:27
Ich konnte eine MSI RTX Gaming X Trio für 1000€ ergattern. Da konnte ich dann nicht wiederstehen.
Mit Glück kommt die heute an. Mal sehen ob sich das gelohnt hat.

+56% in Rasterizing und +79% mit RT (laut CB in 1440p).
Mit PT und exzessivem RT noch deutlich mehr Performance.
Was willst für deine 6800XT? :D

Rancor
2023-11-09, 13:11:47
+56% in Rasterizing und +79% mit RT (laut CB in 1440p).
Mit PT und exzessivem RT noch deutlich mehr Performance.
Was willst für deine 6800XT? :D
Die wandert vermutlich in den Zweitrechner :freak: Da steckt aktuell ja noch eine 2080 drin.
Hoffentlich brennt der Rechner nicht wegen dem 600Watt Stecker ab ;D

DrFreaK666
2023-11-09, 13:52:41
Ah ok. Die 2080 lohnt sich für mich dann eher nicht ^^

Iceman346
2023-11-09, 14:25:23
Hier mal ein Benchmark Test Von Cyberpunk2077 und da sollte die 4080 doch ne menge mehr schaffen, trotz 8700k

https://abload.de/thumb/screenshot2023-11-0723kf8l.png (https://abload.de/image.php?img=screenshot2023-11-0723kf8l.png)

Die 4080 schafft bei mir so 75/76 fps im Benchmark mit Pathtracing. Mit den gleichen Einstellungen wie bei dir liege ich bei 105 FPS, also ja es sollte mehr drin sein.

Allerdings teile ich die Bedenken mit den Min-FPS. Mit dem 5800X3D liegen die bei mir um die 60, diese werden bei dir nicht steigen.

Unrealswebmaster
2023-11-09, 21:08:18
Die min FPS waren nur bei diesen Screenshot ansonsten immer 43- 48 FPS.

Nun ja, dann schau ich mal ob mich ein Black Monday oder Friday nicht doch noch verführt :biggrin:

ImmortalMonk
2023-11-09, 22:09:43
Die min FPS waren nur bei diesen Screenshot ansonsten immer 43- 48 FPS.

Nun ja, dann schau ich mal ob mich ein Black Monday oder Friday nicht doch noch verführt :biggrin:

Da die Gerüchte bezüglich der Refreshs immer präziser werden und die neuen Karten wohl schon im Januar vorgestellt werden sollen, würde ich persönlich da jetzt warten.

gnomi
2023-11-10, 09:47:03
Könnte interessant werden, wenn es Richtung 1k vom Preis her geht.
Auch wird spannend, ob die alten Karten wie bei der 2080 schön abverkauft werden.
Für die aktuelle Weihnachtszeit muss es dann nur eben die alte Karte noch tun.
Bei so einem Game wie Cyberpunk mit den technischen und inhaltlichen Updates ist das schon schade. :wink:

Rancor
2023-11-10, 10:23:15
Ich hab ja seit gestern eine 4080 und natürlich direkt Cyberpunk und Alan Wake 2 getestet.

Auf UWQHD mit Pathtraycing, Ray Reconstruction und Frame Generation natürlich kein Problem. Läuft Butterweich.
Sieht auch ganz geil aus, aber so der ULTRA Unterschied zur reinen Raster Grafik ist es imho nicht. Also mir sind nicht die Augen rausgefallen.

Beeindruckend finde ich hingegen das UV Potential. Out of Stock verbraucht die Karte gute 300 Watt bei 1.07 V. Mit 0,975 V verbraucht die Karte dann nur noch ~230 Watt bei gleicher Leistung.

Langlay
2023-11-10, 13:22:28
Beeindruckend finde ich hingegen das UV Potential. Out of Stock verbraucht die Karte gute 300 Watt bei 1.07 V. Mit 0,975 V verbraucht die Karte dann nur noch ~230 Watt bei gleicher Leistung.

Ja 4080 mit UV ist schon richtig sexy, die 4080 FE von meiner Frau läuft auf 2700Mhz @ 950mV und die Karte braucht eigentlich maximal 250W, anspruchslosere Titel laufen auch gerne mal mit <200W in 3440x1440p.

Was halt bei der 4080 (und auch den anderen kleineren Karten) ein bischen schade ist das die minimale Spannung relativ hoch ist, wenn auch 870mV wie bei der 4090 gehen würde, wäre das schon ziemlich geil.

horn 12
2023-11-10, 14:40:06
@RANCOR

Die 7900XTX somit verkauft ?

dargo
2023-11-10, 17:52:49
Ich hab ja seit gestern eine 4080 und natürlich direkt Cyberpunk und Alan Wake 2 getestet.

Auf UWQHD mit Pathtraycing, Ray Reconstruction und Frame Generation natürlich kein Problem. Läuft Butterweich.
Sieht auch ganz geil aus, aber so der ULTRA Unterschied zur reinen Raster Grafik ist es imho nicht. Also mir sind nicht die Augen rausgefallen.

Sehr erfrischend mal eine non Overhype Betrachtung hier diesbezüglich zu lesen. (y)

Jupiter
2023-11-10, 18:14:46
Das gemeine Volk sieht vieles nicht. Perlen vor die Säue. Wenn man sich mit Technik auskennt, sind die Unterschiede und die Limitierung von Rastergrafik in jedem Augenblick deutlich sichtbar.

Asaraki
2023-11-10, 19:31:59
Ja 4080 mit UV ist schon richtig sexy, die 4080 FE von meiner Frau läuft auf 2700Mhz @ 950mV und die Karte braucht eigentlich maximal 250W, anspruchslosere Titel laufen auch gerne mal mit <200W in 3440x1440p.

Was halt bei der 4080 (und auch den anderen kleineren Karten) ein bischen schade ist das die minimale Spannung relativ hoch ist, wenn auch 870mV wie bei der 4090 gehen würde, wäre das schon ziemlich geil.

Jo, aber ist damit immer noch sehr leise und trotzdem schnell, also die 4080. ich find die Karte nach wie vor genial (FE), ist die beste GPU, die ich in den letzten 7-10 Jahren hatte.

Was die pro Watt leistet ist einfach toll :)

Rancor
2023-11-10, 20:02:57
@RANCOR

Die 7900XTX somit verkauft ?
Ich hatte nie eine 7900XTX, sonder eine 6800XT und die behalte ich.

Das gemeine Volk sieht vieles nicht. Perlen vor die Säue. Wenn man sich mit Technik auskennt, sind die Unterschiede und die Limitierung von Rastergrafik in jedem Augenblick deutlich sichtbar.
Bla Bla Bla... Jede wette das du im Blindtest nicht in der Lage bist zu erkennen welchen Game RT nutzt und welches nicht? Troll wo anders.
Ich habe ja auch gesagt, das es seht geil aussieht, aber so KRANK KRASS wie das hier im 3DC gehypt wurde, ist es imho nicht.

Jupiter
2023-11-10, 21:14:54
Wenn ich es spiele ist es sofort sichtbar. Schon lange vor Crysis bin ich von den Theme Ästhetik und Computergrafik extremm fasziniert. Die Schwächen von Rastergrafik sehe ich permanent, jede Skunde. Genau so wie ein Zahnarzt künstliche Zähne sofort sieht. Ich kann schon kaum mehr reine Rastergrafikspiele konsumieren.

Ex3cut3r
2023-11-11, 11:21:20
Auf den ersten Blick stören mich bei Raster Only, die SSRs, diese sind oft voller Artefakte und/oder Grieselig/Grainy und verschwinden, sobald man die Kamera nach oben/unten bewegt. Ein RT AO/GI finde ich auch ziemlich nice, dies sorgt einfach für eine realtische-Beleuchtung gerade bei dunkeln Games bzw. Innenräumen mit wenig Licht.

Iceman346
2023-11-11, 13:02:06
Alan Wake 2 habe ich noch nicht, aber der Bildeindruck bei Cyberpunk mit Pathtracing ist exzellent.

Der Unterschied von Raytracing zu Pathtracing ist oftmals eher subtil (teilweise fehlen z.B. mit reinem Raytracing Schatten die mit Pathtracing da sind) aber wer den Unterschied zwischen Raster und Raytracing bei Cyberpunk nicht sieht ist blind. Das ist schon ein massiver Qualitätssprung.

Asaraki
2023-11-11, 13:05:51
Ist nicht der RT Thread, nur so als reminder ;-)

basix
2023-11-11, 13:34:39
Ist nicht der RT Thread, nur so als reminder ;-)

Sorry, möchte hier trotzdem noch was anfügen :D

Alan Wake 2 habe ich noch nicht, aber der Bildeindruck bei Cyberpunk mit Pathtracing ist exzellent.

Der Unterschied von Raytracing zu Pathtracing ist oftmals eher subtil (teilweise fehlen z.B. mit reinem Raytracing Schatten die mit Pathtracing da sind) aber wer den Unterschied zwischen Raster und Raytracing bei Cyberpunk nicht sieht ist blind. Das ist schon ein massiver Qualitätssprung.
Raster vs. "normales" RT zeigt zwar Unterschiede, doch so transformierend war es bisher irgendwie nicht. Gab einzelne Ausnahmen (Control z.B.). PT inkl. RR ist da ein anderes Kaliber. Das erdet so viele Objekte deutlich besser, die Materialien und Oberflächen wirken viel plastischer usw.

-> Gutes RZ vs. schlechtes/mittelmässiges RT muss kein Nachteil sein. Sehr gutes RT in Form von PT in CP2077 oder AW2 machen schon einen grossen Unterschied aus.

aufkrawall
2023-11-11, 14:20:23
Nur hinken in diesen in-house Engines leider selbst Dinge wie Tonemapping Unreal Jahre hinterher, was alles wieder runterzieht. Im Vergleich sind das dann leider doch alles nur wieder Konsolenspiele mit alter Tech und drangeklebtem RT. Sieht in einigen Szenen super aus, und dann ist wieder >30min Spielzeit purer Gammel angesagt.

https://abload.de/thumb/screenshot_20231111_09zdk6.png (https://abload.de/image.php?img=screenshot_20231111_09zdk6.png)
Find ich deutlich fortschrittlicher, sieht mein Bruder mit 4090 btw. auch so. Lumen-Fails hin oder her...

basix
2023-11-11, 14:39:04
Lumen ist aus meiner Sicht auch kein schlechtes/mittelmässiges RT. Auch wenn es nicht ganz RTXDI PT Niveau erreicht. Das ist von vornherein als integraler Bestandteil der Engine vorgesehen gewesen, deswegen hebt es sich verglichen mit "drangeklatschtem" RT auch relativ gut ab. Und ist halt relativ konsistent in der gesamten Spielwelt.

Jupiter
2023-11-11, 14:43:22
Wenn man im selben Spiel (Desorde) Lumen mit Nvidias erst erschienen Pathtracing vergleicht, ist Lumen ein paar Generationen dahinter.

Vergleichsbilder:
https://imgsli.com/MjAyNjk5
https://imgsli.com/MjAyNzAw
https://imgsli.com/MjAyNzA3

aufkrawall
2023-11-11, 14:47:05
Desordre interessiert wirklich nur NV-Fanboys. Und das ist keine Polemik, laut SteamSpy hat es sich 2000 Mal verkauft. Also einfach mal abstellen, das Gesülze...

Jupiter
2023-11-11, 14:50:22
Ändert nichts an der Tatsache, dass Lumen mehrere Jahre nach Erscheinen qualitativ nicht einmal mit der ersten Generation von Pathtracing mithalten kann.

Dazu sind die UE-Spiele in 2023 noch immer Single Threaded.

Mayk-Freak
2023-11-11, 14:50:55
Ich hab ja seit gestern eine 4080 und natürlich direkt Cyberpunk und Alan Wake 2 getestet.

Auf UWQHD mit Pathtraycing, Ray Reconstruction und Frame Generation natürlich kein Problem. Läuft Butterweich.
Sieht auch ganz geil aus, aber so der ULTRA Unterschied zur reinen Raster Grafik ist es imho nicht. Also mir sind nicht die Augen rausgefallen.



Hat der UWQHD Monitor ein OLED HDR Display?

HOT
2023-11-11, 14:53:32
Ändert nichts an der Tatsache, dass Lumen mehrere Jahre nach Erscheinen qualitativ nicht einmal mit der ersten Generation von Pathtracing mithalten kann.

Dazu ist sie in 2023 noch immer Single Threaded.
Jo und nachts ist kälter als draußen ;). Man kann auch Dinge vergleichen, die vollkommen unvergleichbar sind.

aufkrawall
2023-11-11, 14:54:14
Ändert nichts an der Tatsache, dass Lumen mehrere Jahre nach Erscheinen qualitativ nicht einmal mit der ersten Generation von Pathtracing mithalten kann.
Es sieht trotzdem aus wie eine hässliche RT-Demo vs. Talos 2 mit seinen diversen Umgebungen. Zig Grafikoptionen sind sogar nur dafür da, es in einen RT-Showcase zu verwandeln. Und trotzdem verschmieren die NV-Reflexionen in Bewegung komplett, weil trotz der hohen Kosten das Denoising komplett überfordert ist.
Einfach nur Next Level Bullshit-Gelaber.

Jupiter
2023-11-11, 15:00:40
Wenn Desordre so unbedeutend ist, wieso holt man dann das ebenso unbedeutende Talos 2 heraus?

Jo und nachts ist kälter als draußen ;). Man kann auch Dinge vergleichen, die vollkommen unvergleichbar sind.

Was ist ein besserer Vergleich als zwei Techniken im selben Spiel gegenüber zu stellen?

basix
2023-11-11, 15:01:07
Wenn man im selben Spiel (Desorde) Lumen mit Nvidias erst erschienen Pathtracing vergleicht, ist Lumen ein paar Generationen dahinter.

Vergleichsbilder:
https://imgsli.com/MjAyNjk5
https://imgsli.com/MjAyNzAw
https://imgsli.com/MjAyNzA3

Desordre ist ein Spezialfall: Aufgrund Problemen sind dort einige Lumen Features bei den Reflexionen deaktiviert. Das ist ein 1-Man Team. Und du musst natürlich auch den 2x Performance Hit berücksichtigen ;)

HOT
2023-11-11, 15:07:25
Wenn Desordre so unbedeutend ist, wieso holt man dann das ebenso unbedeutende Talos 2 heraus?



Was ist ein besserer Vergleich als zwei Techniken im selben Spiel gegenüber zu stellen?
Das sind zwei vollkommen unterschiedliche Ansätze. Lumen ist eine auf Effienz designte Rendertechnik für Beleuchtung, PT ist pure brute-force-Rechenleistungsverschwendung - ein Showcaes, mehr nicht. Wie kann man das vergleichen?

Außerdem, es gibt grad mal eine Hand voll Titel, die Lumen einsetzen? Du weißt also schon jetzt, wie Titel in Jahren mit Lumen aussehen werden? Hellseher oder was? Was soll das?

Jupiter
2023-11-11, 15:18:47
Das sind zwei vollkommen unterschiedliche Ansätze. Lumen ist eine auf Effienz designte Rendertechnik für Beleuchtung, PT ist pure brute-force-Rechenleistungsverschwendung - ein Showcaes, mehr nicht. Wie kann man das vergleichen?

Außerdem, es gibt grad mal eine Hand voll Titel, die Lumen einsetzen? Du weißt also schon jetzt, wie Titel in Jahren mit Lumen aussehen werden? Hellseher oder was? Was soll das?

Achso, Lumen ist trotz seiner vielen Qualitätsprobleme sehr gut und Pathtracing ist nur Verschwendung und nicht mehr.

Desordre ist ein Spezialfall: Aufgrund Problemen sind dort einige Lumen Features bei den Reflexionen deaktiviert. Das ist ein 1-Man Team. Und du musst natürlich auch den 2x Performance Hit berücksichtigen ;)

Sieht dafür aber auch mehr als 2 mal so gut aus.

aufkrawall
2023-11-11, 15:23:40
Was soll das?
Grafikkarte als Statussymbol fürs Ego und der Hass auf alles, was das angreift.

The_Invisible
2023-11-11, 15:27:01
Das sind zwei vollkommen unterschiedliche Ansätze. Lumen ist eine auf Effienz designte Rendertechnik für Beleuchtung, PT ist pure brute-force-Rechenleistungsverschwendung - ein Showcaes, mehr nicht. Wie kann man das vergleichen?



Welch ein Schwachsinn, höhere Lumen Stufen basieren ebenfalls auf RT und sogar noch höhere HWRT, PT ist die Weiterentwicklung...

Jupiter
2023-11-11, 15:27:50
Nvidias Pathtracing kam erstmals 2023 in Spielen zum Einsatz und es übertrefft Lumen qualitativ um Generationen. Ich sprach nicht über die Zukunft. Lesekompetenz?

Lumen in Spielen ist aktuell Spargrafik. Mit Pathtracing ist man gleich weiter. Lumen kann also mit der richtigen Hardware gleich übersprungen werden.

Megamember
2023-11-11, 15:29:30
Müsste dreistellig sein, sofern ein Luftzug im Gehäuse vorliegt. Meine ULV-Karte (Suprim X mit Silent-Firmware, allerdings 4090) rangiert in dem Wattbereich um 1.000 RPM.

MfG
Raff

Jagen bei dir die Lüfter im Gaming Mode und starker Auslastung bei dir auch recht fix auf knapp über 2000rpm bei ~knapp 70 Grad und machen dann ziemlich Lärm? In manchen reviews kommt die ja bei der Auslastung kaum über 55-60 Grad und bleibt auch sonst unhörbar was ich nicht nachvollziehen kann.:confused:. Hab sogar schon WLP getauscht aber das hat nur wenig gebracht.
Überleg mir schon die Alphacool Eiswolf 2 AIO zu holen....

Ex3cut3r
2023-11-11, 17:33:29
Hast du denn die Dicke der Wärmeleitpads beachtet? Wenn man die falschen benutzt, kann es sein, dass der Kühler dann nicht richtig sitzt. Vlt. kocht bei dir der VRAM und/oder die VRMs? Kannst dir die VRAM Temps und VRMs Temps mit GPU-Z anzeigen lassen.

Megamember
2023-11-11, 17:49:01
Hast du denn die Dicke der Wärmeleitpads beachtet? Wenn man die falschen benutzt, kann es sein, dass der Kühler dann nicht richtig sitzt. Vlt. kocht bei dir der VRAM und/oder die VRMs? Kannst dir die VRAM Temps und VRMs Temps mit GPU-Z anzeigen lassen.

An den PAds hab ich garnix geändert, die sind Original und sahen sehr gut aus. Vram temps sind super und vrm kann ich mir nicht anzeigen lassen, denk aber nicht das die zu warm sind.

Ex3cut3r
2023-11-11, 19:55:04
Ok. Ich zerreiße die meistens aus Versehen, wenn ich den Kühler abnehme, um die Wärmeleitpaste zu tauschen.

Rancor
2023-11-11, 20:15:51
Hat der UWQHD Monitor ein OLED HDR Display?
Nein, aber der LG TV.;)

Adam D.
2024-01-27, 13:16:20
Ich liebäugle aktuell mit dem Kauf der RTX 4080 FE Super. Gibt es hier evtl. Langzeiterfahrungen mit der 4080 FE? Ich höre insbesondere über den Lüfter so unterschiedliche Dinge, das verunsichert mich etwas.

Rampage 2
2024-01-28, 13:37:07
Ich liebäugle aktuell mit dem Kauf der RTX 4080 FE Super. Gibt es hier evtl. Langzeiterfahrungen mit der 4080 FE? Ich höre insbesondere über den Lüfter so unterschiedliche Dinge, das verunsichert mich etwas.

Du meinst wohl die Lüfterlautstärke? ;)

Bei mir liegt der Fokus nicht in der Geräuschentwicklung, sondern am maximalen OC-Potential: welche Modelle der regulären 4080 haben die höchsten einstellbaren Power-Targets? Oder spielt das bei RTX 4xxx eh keine Rolle, weil das PT eh nie erreicht wird bzw. der Chip an anderer Stelle dichtmacht? (Temperatur, Stabilität, Spannungs- oder Takt-Cap)

R2

Exxtreme
2024-04-08, 18:45:49
ASUS macht offenbar ASUS-Dinge:
https://www.igorslab.de/asus-geforce-rtx-4080-tuf-gaming-eingebauter-hotspot-ab-werk-durch-schlechte-waermeleitpaste/

Ich glaube, ich muss doch akzeptieren, dass ASUS einfach nur noch ein Name ist und sich der ASUS-Aufpreis nicht lohnt.