Archiv verlassen und diese Seite im Standarddesign anzeigen : Umstieg von RX6800 auf RTX 4070 Super?
Lohnt sich das überhaupt?
Mein Sohnemann hat meinen alten Rechner für Minecraft bekommen. Steckt derzeit ne GTX 1030 drinnen. Läuft mit 60FPS und verbraucht insgesamt knapp 80W/h
Jetzt will er allerdings Ark zocken. Dafür reicht die alte Graka natürlich nicht.
Ich hab hier noch meine alte RX6800 rumliegen, die ich einbauen könnte. Oder ich verkaufe die für 300€ und hole ne 4070 Super. Warum?
Weil die glaub ich ne Ecke effizienter ist und nicht so ne hohe Verlustleistung hat.
Oder liege ich da falsch?
Sein Monitor hat UW-UXGA und ist auf 60FPS limitiert.
Meint ihr das Upgrade macht Sinn - gerade in Hinblick auf den kommenden Sommer - oder dann doch lieber erstmal die 6800er weiter nutzen bis sie abraucht?
dildo4u
2024-05-11, 13:23:56
Die 6800 ist relativ sparsam für eine AMD GPU 240 vs 220 Watt der 4070S.
Sparsam wäre eine 4060Ti 16GB.(165)
https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-super-founders-edition/41.html
Und wenn du auf 60fps lockst und die Karte nicht voll ausgelastet ist sinkt der Verbrauch.
Exxtreme
2024-05-11, 13:32:36
Unwahrscheinlich, dass man für eine gebrauchte RX6800 noch 300 EUR bekommt. Da würde ich eher mit 200 EUR rechnen.
BlacKi
2024-05-11, 13:51:03
die rx6800 weiter zu betreiben ist auf jeden fall billiger. und wenn du die undervoltest, bekommst du die karte auch unter 180w geregelt. performance per watt bei der 4070s ist zwar besser, der verbrauch aber nicht wirklich.
Ok, dann nutze ich die weiter. Danke für den Input!
@Extreme. Schau mal ebay. Da geht die nach wie vor für >300€ weg (filtern nach verkaufte Artikel)
DrFreaK666
2024-05-11, 16:35:00
Jeden Tag wacht ein Dummer auf
Blaze
2024-05-11, 16:53:17
Naja, bei aktuell 380 € Neupreis sind 300 € nicht sooo ungewöhnlich, gerade wenn es sich nicht um die XFX-Version handelt die gerade verscherbelt wird.
Cubitus
2024-05-11, 19:24:45
Kann eine 6800 AMD Karte sowas? Cyberpunk mit Pathtracing, maxxed Out ohne DLSS Scaling mit ordentlich gemoddeten Texturen. Karte läuft etwas im UV mit 2730 Mhz, sowas machen die meisten 4070S Karten mit
Und dann noch eine stromschluckende Intel CPU ei ei ei, OMG wie kann das sein das eine Intel CPU nicht säuft und eine Nvidia GPU 4070S deutlich unter 200 Watt liegt und FPS raushaut ;D
13600K mit 5 Ghz und 4 Ghz E-Cores auf Load-Line 2, die Perfomance ist auf Stock Niveau frisst aber deutlich weniger.
Mit DLSS auf Q oder Ausgeglichen, wäre auch WQHD möglich, bei gleichem (RAM)Verbrauch.
xiXA-M2c75U
Solche Stromverbräuche sind lt AMD Fanbase in der Konstellation schon utopisch, entspricht aber der harten Realität..
Die Auslastung wäre eigl auf 99 aber hab nebenher halt noch ein Video aufgenommen ^^
Oder Quake RTX was ziemlich viel RT Leistung frisst, in 1080p sogar mit 105 % Skalierung. Keine 200 Watt und der 13600K läuft gefühlt auf nem Ecore..xD
AwDNl3z1IpQ
Fliwatut
2024-05-11, 20:09:39
Weil die glaub ich ne Ecke effizienter ist und nicht so ne hohe Verlustleistung hat.
Wenn es nur darum geht, dann lohnt sich das Upgrade nicht, rechne dir mal aus, wie groß die Differenz zwischen der 6800 und der 4070 Super ist und wie viel mehr Strom du für 300 EUR verballern kannst.
Aber auch von der Leistung her lohnt sich das Upgrade imho nicht. Die 4070 Super ist zwar schneller, aber auch wieder nicht so extrem viel schneller. Hat Ark denn Raytracing und DLSS3 Support? Falls nicht, ist das auch kein Argument.
Wenn es nur darum geht, dann lohnt sich das Upgrade nicht, rechne dir mal aus, wie groß die Differenz zwischen der 6800 und der 4070 Super ist und wie viel mehr Strom du für 300 EUR verballern kannst.
Es geht mir allein um die Perf/Watt. Gedrosselt heisst das nämlich weniger Hitze im Sommer im Zimmer. Hitze nervt mich mehr als ne paar Euro höhere Stromrechnung. Und da mir ne 4090 dafür zu teuer ist hab ich auf ne günstigere Alternative geschaut. Die 4070 Super sah da eigentlich recht gut aus (wenn auch recht teuer). Nur hab ich zum Vergleich immer nur ne RX6800 XT gefunden, die glaub ich aber ineffizienter ist als die ohne XT.
Ich werde aber erst mal die 6800 probieren. Wenns zu heiß im Kinderzimmer wird muss halt der Rechner aus bleiben.
Cubitus
2024-05-12, 01:54:26
Es geht mir allein um die Perf/Watt. Gedrosselt heisst das nämlich weniger Hitze im Sommer im Zimmer. Hitze nervt mich mehr als ne paar Euro höhere Stromrechnung. Und da mir ne 4090 dafür zu teuer ist hab ich auf ne günstigere Alternative geschaut. Die 4070 Super sah da eigentlich recht gut aus (wenn auch recht teuer). Nur hab ich zum Vergleich immer nur ne RX6800 XT gefunden, die glaub ich aber ineffizienter ist als die ohne XT.
Ich werde aber erst mal die 6800 probieren. Wenns zu heiß im Kinderzimmer wird muss halt der Rechner aus bleiben.
Meine 4070S verbraucht hier 150 Watt in Cyberpunk und im Extrem Fall 180 Watt bei Quake. bisschen UV und die Karte ist dermaßen effizient und Kühl besser geht es aktuell gar nicht.
Kühlung und Leistung, damit wird die 6800 im Leben nicht mithalten können.
Wenn kein RTX läuft und die Auflösungen nicht all zu hoch sind oder eben kein MSAA oder sonstiges verwendet wird, sieht die 4070S nicht mal die 100 Watt.
Hab die Karte in nem wirklich kleinen ATX Gehäuse im Zweitrechner verbaut.
Ja die Karte ist etwas teuer, dafür erhält man für 1080p/WQHD ein richtiges Brett.
Wenn es nur darum geht, dann lohnt sich das Upgrade nicht, rechne dir mal aus, wie groß die Differenz zwischen der 6800 und der 4070 Super ist und wie viel mehr Strom du für 300 EUR verballern kannst. Aber auch von der Leistung her lohnt sich das Upgrade imho nicht. Die 4070 Super ist zwar schneller, aber auch wieder nicht so extrem viel schneller. Hat Ark denn Raytracing und DLSS3 Support? Falls nicht, ist das auch kein Argument.
Ja ne ist ja nicht so das die 4070S nicht ~24 Prozent schneller wäre (RT-Nicht wirklich mitgerechnet) als die 6800 und dazu noch ~100 Watt weniger Strom säuft.
Natürlich lohnt sich das Upgrade vielleicht will er auch mal was anderes als Ark spielen
Rolsch
2024-05-12, 07:40:03
Das Geld wäre in ein Klimagerät besser investiert als in eine 4070.
Fliwatut
2024-05-12, 09:59:35
Igors Labs kommt auf ca. 200W beim Zocken (https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/13/), da kann man mit undervolting sicher auch noch ein bisschen was rausholen. Ich kenne Ark nicht, damals war das ja sehr hardwarehungrig, vllt. kann man die fps da auch noch bei 60 cappen, das gibt dann auch ein glatteres Spielerlebnis und spart auch Strom.
BlacKi
2024-05-12, 11:15:34
Ja ne ist ja nicht so das die 4070S nicht ~24 Prozent schneller wäre (RT-Nicht wirklich mitgerechnet) als die 6800 und dazu noch ~100 Watt weniger Strom säuft.
es sind keine 100w unterschied. langlay hat selbst die 6900xt bei 180w bei 2ghz am laufen gehabt. also mit uv kann man auch eine 6800 natürlich bei 150w betreiben, es fehlen dann wie bei der nv karte 5-10% an leistung.
p/w ist bei nv klar besser, aber dafür halt schon vorhanden, man spart sich den verkauf und spart noch mehr beim nicht kaufen einer 4070s.
Platos
2024-05-12, 11:23:58
Es geht mir allein um die Perf/Watt. Gedrosselt heisst das nämlich weniger Hitze im Sommer im Zimmer. Hitze nervt mich mehr als ne paar Euro höhere Stromrechnung. Und da mir ne 4090 dafür zu teuer ist hab ich auf ne günstigere Alternative geschaut. Die 4070 Super sah da eigentlich recht gut aus (wenn auch recht teuer). Nur hab ich zum Vergleich immer nur ne RX6800 XT gefunden, die glaub ich aber ineffizienter ist als die ohne XT.
Ich werde aber erst mal die 6800 probieren. Wenns zu heiß im Kinderzimmer wird muss halt der Rechner aus bleiben.
Kannst du die 6800 nicht einfach untervolten ? (Also max. Spannung begrenzen + ganze Spannungskurve nach oben ziehen)?
Laut dem 3D-Center-Index ist die 4070S nur 28% schneller wie die 6800. Also ich würde das nicht machen, selbst wenn es nur um die Hitzeentwicklung geht. Der Unterschied im Perf/Watt Verhältnis wäre natürlich höher als der reine Perfomanceunterschied, da die 4070S effizienter ist. Aber für mich würde sich das trotzdem nicht lohnen. (Edit: Die 4070S ist über 2 Launchanalysen hoch gerechnet 34% effizienter im Auslieferungszustand, wie die 6800. Also die 7800XT ist 112.4% zur 6800 in der Effizienz und die 4070S ist wiederum 119% zur 7800XT. Also hochgerechnet ist die 4070S 134% zur 6800 bzw. 34% effizienter.)
Welche Grafikkarte hättest du denn, wenn du die 6800 weiter gibst?
Also wenn es um Hitze geht, dann würde ich die Karte so wie oben beschrieben untervolten (ich empfehle explizit kein Powerlimit zu nutzen. Das gibt schlechtere frametimes (ist dann erst sichtbar, wenn du mal ein Spiel hast, in dem das Powerlimit nicht reicht).
Hättest du jetzt noch keine Grafikkarte und es ginge nur um Perfomance/Watt, solltest du natürlich die 4070S oder sowas nehmen. Aber die Karte (natürlich verbunden mit erheblichen Verlusten) zu verkaufen, wäre für mich nicht lohnenswert.
Ich würde die Karte einfach mal auf 1050mV begrenzen und dann Anfangen die ganze Spannungs/Taktkurve im MSI Afterburner in kleineren Schritten anzuheben und dazwischen zu testen (z.B mit Unigine Superposition Bench. Dabei auf min. FPS achten und NICHT auf avg. FPS und schon gar nicht auf die Punktzahl). Dann kannst du die Spannungskurve versuchen noch weiter abzusenken. Wenns crashed, gehst du wieder 30-50mV hoch. Am Schluss dann noch in nem echten Spiel testen.
Im amd Treiber kann man auch einfach Energie sparen / eco Modus anklicken
Dann macht er 200w tdp draus
Im Endeffekt ist das ein Klick der kaum Leistung kostet und die Karte aber auch merklich leiser macht.
Die fps zu Deckeln passend zum Monitor wäre dann noch ein Klick
Damit könnte man ja einfach mal anfangen und gucken ob man Lust hast die vorhandene Karte zu optimieren
Daredevil
2024-05-12, 11:54:11
Klar ist ne 4070 effizienter da aktuellere Technologie, ich würde aber jedoch erstmal versuchen die 6800 mittels undervolting zu bändigen. Mit einer 6800 sollte man auch in "grün" Ark sicherlich nett spielbar hinbekommen. Am Ende kann man immer noch wechseln, wenn es einem nicht passt.
Allerdings stehst du dann nächstes Jahr wieder vor der gleichen Frage: Dein Sohn will nun Cyberpunk spielen, sollst du dir nun ne 5070 holen weil die 20% weniger verbraucht, oder die 4070s behalten? Never Ending Story, in Verbindung zur 6800 ist der Sprung imho noch zu klein, bei Performance als eben auch bei Watt.
Platos
2024-05-12, 11:59:19
Genau, mir wäre der Sprung in der Effizienz zu klein. Habs grad ausgerechnet über 2 Launchanalysen vom 3D-Center. Die 4070s ist im Auslieferungszustand um +34% effizienter wie die 6800 im Auslieferungszustand.
Das lohnt sich doch nicht. Ich würde auf die nächste Generation warten bzw. vlt. sogar den nächsten Super-Refresh (5070S oder sowas).
Mit Undervolting kann man die 6800 im Grunde zu einer 4070S machen (ohne undervolting) bezüglich Perfomance/Watt.
Ich probiers mal mit undervolting.
Hatte in der Vergangenheit zwar immer wieder Probleme mit zurücksetzen des Treibers aber vllt hab ich da einfach zuviel gewollt.
Cubitus
2024-05-12, 15:28:26
Ja klar kann man die 6800 undervolten, hab bei Igor dazu einen Artikel gelesen. Er testete Borderlands 3
https://i.postimg.cc/bw7b3MW3/Screenshot-2024-05-12-145524.png (https://postimages.org/)
https://i.postimg.cc/JhjXgxWm/Screenshot-2024-05-12-145601.png (https://postimages.org/)
Im Stock schafft die Karte 96,1 AVG-FPS und säuft 241 Watt
Bei etwas UV mit 930 mV schafft die Karte 88,9 FPS 228 Watt
Und bei 900 mV 86,7 FPS da nimmt sich die Karte 178,6 Watt.
900 mV scheinen dann die beste Option zu sein.
Sind halt dann ~10 FPS weniger, die 6800 läuft eh schon auf Anschlag.
Gib weniger rein und du bekommst weniger raus. Die 16 GB Ram dienen bei WQHD dann zukünftig als Briefbeschwerer weil die Leistung noch knapper wird.
Eine 4070S lässt sich quasi mit dem Standard Takt-Boost bei 2730 Mhz undervolten und du hast gar keinen Leistungsverlust, wirklich gar nix.
Der Abstand zu einer UV 6800er ist somit noch größer, oder ausgedrückt die 4070S wischt mit der 6800(UV) den Boden auf, und mit einer 6800 XT nimmt die Karte es ebenfalls auf.
Im Extrem Szenario, 1080p bei Cyberpunk mit RT-Bums und allem an, 150 Watt ohne DLSS Skalierung.
Gestern hatte ich Manor Lords gespielt, 1080p, maxxed Out, 144 FPS.
Die Karte lief mit ~90-95 Watt :). Oder in WQHD ebenfalls mit 144 FPS dafür mit ~140 Watt.
Manor Lords ist kein RTX Titel.
Die Frage war ja ob sich eine 4070S lohnt von einer 6800 kommend,
ich würde sagen ja, 6800 verkaufen und in eine 4070S investieren, und ein paar Jahre Spaß damit haben.
Vor allem unter 1080p dürfte die Karte noch lange mit Max-Texturen bzw. ohne DLSS betrieben werden können. WQHD dürfte mit DLSS und Co auch noch länger maximal ausfahrbar sein.
Aktuell ist sogar die 4070S FE verfügbar. Hab die hier im Rechner, sehr leise, kein fiepen und eben super verarbeitet.
https://store.nvidia.com/de-de/geforce/store/?page=1&limit=9&locale=de-de&gpu=RTX%204070%20Ti,RTX%204070,RTX%204070%20SUPER,RTX%204070%20Ti%20SUPER&category=GPU,DESKTOP
Platos
2024-05-12, 16:55:30
Hä, stimmt doch gar nicht? Die Stock Version ist die mit "6800" angegeben und nicht "6800 2480MHz" (das ist die übertaktete). Und da sind die Unterschiede 88.7 FPS vs 86.7FPS bei aber 25% mehr Stromverbrauch bei der Stock-Version.
Nützt also sehr wohl was. "Geht weniger rein und kommt weniger raus" suggeriert, dass die Effizienz nicht steigt. Stimmt aber nicht.
Und hier der Test: https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/2/
Daredevil
2024-05-12, 17:59:34
Ich probiers mal mit undervolting.
Hatte in der Vergangenheit zwar immer wieder Probleme mit zurücksetzen des Treibers aber vllt hab ich da einfach zuviel gewollt.
Einfach großzügige Schritte beim undervolten nehmen, dann ist der Puffer zum Absturz groß genug. Ist ja auch immer eine Herausforderung, wenn manche im Winter ihre OC Settings setzen und das Ding bei 32°C im Sommer dann abstürzt. Also vielleicht nicht die 5-10mv Schritte gehen sondern z.B. 20-30mv, beim Instabilität einen Schritt rückwärts gehen und glücklich sein.
Man muss ja nicht um jedes Watt kämpfen auf biegen und brechen.
Für mich selber würd ichs tun, aber nicht für Freunde und Familie, weil da bin ich ja dann der First Level tech Support. :D
aufkrawall
2024-05-12, 18:22:24
Undervolting ist kompletter Schrott bei RDNA2 und 3. Wem das, inkls. der Effizienz allgemein, wichtig ist, sofort Lovelace kaufen. Stabiles UV mit dem Curve-Editor hinzubekommen, ist ein Traum bei Nvidia, wenn man weiß was man tut.
Auf irgendwelche Tests oder Berichte anderer User, dass bei ihnen UV mit RDNA2 oder 3 stabil wäre, kann man leider zu 100% nichts geben.
Cubitus
2024-05-13, 08:30:27
Hä, stimmt doch gar nicht? Die Stock Version ist die mit "6800" angegeben und nicht "6800 2480MHz" (das ist die übertaktete). Und da sind die Unterschiede 88.7 FPS vs 86.7FPS bei aber 25% mehr Stromverbrauch bei der Stock-Version.
Nützt also sehr wohl was. "Geht weniger rein und kommt weniger raus" suggeriert, dass die Effizienz nicht steigt. Stimmt aber nicht.
Und hier der Test: https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/2/
Okay dann steigt die Effizienz mit UV wäre auch schlimm wenn nicht.
Fand den Test von Enshrouded intressant, die 4070S konkurriert mit der 7900 GRE bzw. XT. in WQHD. und die 6800 ruckelt sich wohl einen ab und ist nicht mal aufgeführt. ;D
https://www.computerbase.de/2024-05/enshrouded-benchmark-test-early-access/
Schnitzl
2024-05-18, 21:18:24
Also wenn eine Grafikkarte bereits vorhanden ist, welche auch immer, macht es imho Null Sinn 600€ auszugeben...
Warum du hier so unfassbar penetrant zum Kauf "pressen" willst erschließt sich mir nicht.
6800 einbauen, ein paar Sachen von "ultra" auf "high" reduzieren und zocken lassen.
wenn z.B. an Weihnachten dann Ark uninteressant wird und (von mir aus) CP gespielt werden muss, gibts RDNA4 und Blackwell, da macht es viel mehr Sinn DANN was zu kaufen.
Ist doch Irrsinn jetzt noch zu kaufen wenn da schon ne Karte rumliegt.
Cubitus
2024-05-19, 02:50:09
Oder ich verkaufe die für 300€ und hole ne 4070 Super. Warum?
Das war die Frage, warum wollt ihr ihm bei so einer Überlegung zu einer 6800 raten. Wo die 4070S der 6800 überlegen ist und ja etwas Geld vorhanden ist.
Das Feature-Set der 4070s ist deutlich leistungsfähiger und sparsamer und zukünftig hat sein Sohn vermutlich mehr davon.
DrFreaK666
2024-05-19, 04:27:08
Ich weiß nicht wie alt sein Sohn ist, aber meinem 10-jährigen Sohn wären solche Kinkerlitzchen egal.
Er will spielen. Und für Minecraft... lol..
"Ja aber Minecraft mit RT blablabla" - das juckt ihn nicht. Er will spielen und damit meine ich nicht an "Settings herumspielen bis der Frametime-Graph glatt ist". X-D
Und wie Schnitzel schrieb: abwarten was AMD, Intel und Nvidia anzubieten haben in naher Zukunft und den Sohn im Sommer aus dem Haus schicken (Das hat Schnitzel nicht gesagt, aber ich als Vater). Mein Sohn hat z.B. eine Jahreskarte fürs Schwimmbad
/Locutus oB
2024-05-19, 10:31:55
Ich weiß nicht wie alt sein Sohn ist, aber meinem 10-jährigen Sohn wären solche Kinkerlitzchen egal.
Er will spielen. Und für Minecraft... lol..
"Ja aber Minecraft mit RT blablabla" - das juckt ihn nicht. Er will spielen und damit meine ich nicht an "Settings herumspielen bis der Frametime-Graph glatt ist". X-D
Und wie Schnitzel schrieb: abwarten was AMD, Intel und Nvidia anzubieten haben in naher Zukunft und den Sohn im Sommer aus dem Haus schicken (Das hat Schnitzel nicht gesagt, aber ich als Vater). Mein Sohn hat z.B. eine Jahreskarte fürs Schwimmbad
+1
wenn Kinder Interesse an Hardware haben würden sie schon sagen welche GraKa du kaufen sollst... :)
Schnitzl
2024-05-19, 11:12:28
Das war die Frage, warum wollt ihr ihm bei so einer Überlegung zu einer 6800 raten. Wo die 4070S der 6800 überlegen ist und ja etwas Geld vorhanden ist.
Das Feature-Set der 4070s ist deutlich leistungsfähiger und sparsamer und zukünftig hat sein Sohn vermutlich mehr davon.
nein
am Meisten hat er davon jetzt erstmal die 6800 zu verwenden und dann wenn es nicht mehr reicht z.B. Blackwell zu kaufen.
Dasselbe würde ich sagen wenn er eine 2080 (z.B.) hätte
Wenn ein VW Passat in der Garage steht gehe ich doch auch nicht los und kaufe einen BMW 540i nur weil der besser bzw. schneller ist?
Weiss nicht warum das so schwer zu verstehen ist
DrFreaK666
2024-05-19, 11:34:28
Cubitus ist ein Nvidia-Enthusiast. Deswegen versteht er solche Gedankengänge wahrscheinlich nicht
Schnitzl
2024-05-19, 13:43:23
das hat nichts mit nVidia zu tun. Es ist eine Karte vorhanden also fängt man mit der an. Ende der Geschichte.
Die 6800 steckt seit Samstag im Rechner, ist auf 1800MHz und 900mV gedrosselt und säuft ohne Last (Windows Desktop) mehr als die GTX 1030 wenn Minecraft lief 🤣
Bei Arc zieht der Rechner zw. 180W und 220W. Macht meiner aber auch.
Blaze
2024-05-20, 20:37:21
Naja, so ne 1030 kommt ja auch schon ins Schwitzen wenn sie nur den Desktop anzeigen muss ;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.