Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5080 Review-Thread
GraphikkartusLongus
2025-02-12, 14:23:19
Glaube ich auf keinen Fall dass die Base PS6 EUR >900,- kosten wird.
Ich weis nicht in welcher Blase du lebst, aber der Großteil der Playstation 6 Käufer wird das nicht bezahlen können.
Die wird nicht mehr wie 499 - 599 € kosten.
Das Groß der PC User kann (teilweise will) sich ebenfalls keine GPU jenseits einer RTX x70 leisten. Ich HOFFE inständig für die Konsoleros, dass es 599€ werden, aber der Euro kratzt immer wieder an der Parität, Trump und Zölle-Wirrwarr, generelle geopolitische Unsicherheiten, usw.... Da kommt garantiert noch mind. eine neue Inflationswelle, die sich auch auf Unterhaltungselektronik auswirken wird, ehe die PS6 draussen is.
GraphikkartusLongus
2025-02-12, 14:26:25
Nein, doch was hat das mit dem Preis zu tun.
Die PS4 war auch schneller wie die PS3 und dennoch günstiger.
;D
kleiner Reminder: "Auch in einigen Städten in Deutschland, Österreich und der Schweiz endete der PS4-Launch mit Chaos und sogar Panik (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwjug4Psnb6LAxVKERAIHQGSCpYQFnoECBQQAQ&url=https%3A%2F%2Fwww.gamepro.de%2Fartikel%2Fplaystation-4-launch-in-europa-mit-verletzten-ausverkauften-kontingenten-und-gelegentlichem-blod%2C3030638.html&usg=AOvVaw3XLbIPD3tHoCUZ2mP5llmB&opi=89978449)."
Oder
Vorverkaufsstart der PS5 entwickelt sich zum reinsten Chaos (https://www.derstandard.at/story/2000120071610/vorverkaufsstart-der-ps5-entwickelt-sich-zum-reinsten-chaos)
dargo
2025-02-12, 14:44:15
Nein, doch was hat das mit dem Preis zu tun.
Die PS4 war auch schneller wie die PS3 und dennoch günstiger.
Nur weil etwas schneller und Moderne ist muss es nicht mehr kosten.
Du verdrehst irgendwie hier die Fakten. Ich habe nirgendwo gesagt die PS6 wird >900€ kosten. Ich habe nur gesagt sie wird sicherlich nicht nur 500-600€ (deine Annahme) kosten weil schon eine PS5 Pro deutlich drüber liegt.
Sardaukar.nsn
2025-02-12, 16:21:12
@OCmylife: Schade das es nicht geklappt hat. Der Heatkiller auf deiner Lovelace Karte ist aber auch zum niederknien. Viel Spaß damit.
@Mythos: Dir auch viel Spaß mit dem 5080 Top-Modell. Die hat doch auch einen 360er Radiator wie die 5090, oder? Sollte damit ja spielend fertig werden.
[MK2]Mythos
2025-02-12, 16:29:30
@OCmylife: Schade das es nicht geklappt hat. Der Heatkiller auf deiner Lovelace Karte ist aber auch zum niederknien. Viel Spaß damit.
@Mythos: Dir auch viel Spaß mit dem 5080 Top-Modell. Die hat doch auch einen 360er Radiator wie die 5090, oder? Sollte damit ja spielend fertig werden.
Jupp, die Lüftersteuerung habe ich noch nicht angerührt weil der Afterburner offenbar noch nicht alles unterstützt. Beim Zocken sehe ich GPU Temperaturen zwischen 37°C (jetzt gerade in SC bei 3,25 Ghz mit 175Watt) und bei Maximalauslastung 48°C-51°C) Macht schon Spaß, das Teil.
GraphikkartusLongus
2025-02-12, 17:17:17
Tjo... des wars endgültig mit den Preisen. Klare Absage an UVP-Modelle auch bei der 70er Serie! Die wird bereits vor Launch an die Marktsituation der 5080 angepasst eingepreist.
MSI GeForce RTX 5070 Ti 16G GAMING TRIO OC wird nun offiziell (beim großen Roten Markt) mit 1169€ gelistet.
HOLLA DIE WALDFEE... nun ist die Seite vom MM nicht mehr auffindbar und dafür listet sie nun Caseking für UNGLAUBLICHE 1359,- !!!! :freak::freak::freak: (nun ja.. dafür steht halt "Hinweis: Alle Preisangaben stehen unter Vorbehalt und sind nicht final!" dabei)
monstar-x
2025-02-12, 17:47:59
Du verdrehst irgendwie hier die Fakten. Ich habe nirgendwo gesagt die PS6 wird >900€ kosten. Ich habe nur gesagt sie wird sicherlich nicht nur 500-600€ (deine Annahme) kosten weil schon eine PS5 Pro deutlich drüber liegt.
Ich verdrehe hier gar nichts, du hast auf meinen Beitrag geantwortet.
Aus dem Kontext schließt sich dass du GraphikkartusLongus zustimmst.
Da ich ihn direkt kommentiert hab und anschließend mich.
Drück dich das nächste mal doch deutlicher aus.
Aber ehrlich was soll das ganze jetzt?! Hast du nichts zu tun?
Wie schon gesagt, wir kennen die Preise nicht alles reine Spekulationen.
Können wir das jetzt gut sein lassen?
Nur fürs Protokoll, in Chronologischer Reihenfolge :D
Zitat von GraphikkartusLongus Beitrag anzeigen
Nachtrag: wer noch immer glaubt/hofft die PS6 unter 900€ (wenn überhaupt unter 1k.. bis 2027 dauerts noch...) launchen zu sehen... ach herrje
Ich:
Glaube ich auf keinen Fall dass die Base PS6 EUR >900,- kosten wird....Die wird nicht mehr wie 499 - 599 € kosten.
Du:
Vergiss es... schau mal wo die PS5 Pro heute liegt. Eine PS6 erwarte ich mit mindestens 32GB wenn nicht sogar 48GB (bei GDDR7 ist man jetzt flexibler beim Speicher). Die hohen Speichermengen sind auch gute Kostentreiber geworden.
dargo
2025-02-12, 17:54:17
Aber ehrlich was soll das ganze jetzt?! Hast du nichts zu tun?
Tatsächlich nicht, ist recht ruhig hier auf Arbeit gerade. :freak:
Colin MacLaren
2025-02-12, 20:57:00
NVFlash für 5000er Serie ist raus (aus dem Bios Update der Astral). Hat jemand eine Gigabyte 5080 mit dem 450W Bios und mag seins backupen?
https://limewire.com/d/4c6a98d3-4e04-419c-b532-97bbaafff65f#v2R42dOpdlyMdC4WaXxRtTHGjUa-fPzSey3NCYYiUhg
Sardaukar.nsn
2025-02-13, 00:04:26
NVFlash für 5000er Serie ist raus (aus dem Bios Update der Astral). Hat jemand eine Gigabyte 5080 mit dem 450W Bios und mag seins backupen?
https://limewire.com/d/4c6a98d3-4e04-419c-b532-97bbaafff65f#v2R42dOpdlyMdC4WaXxRtTHGjUa-fPzSey3NCYYiUhg
Na klar! Darauf habe ich doch nur gewartet :cool:
Dank geht raus an @Staubor aus dem HWluxx das er mir ein Kopie des 450W Waterforce Bios gemacht hat. Ich hatte etwas Bauchschmerzen da die WB ja keine Lüfter(Steuerung) hat, aber hey, no risk no fun. Im Endeffekt überschreibt die Gainward Software wohl die Lüfter und sogar das LED Panel an der Phantom.
Mein Beitrag, Sceenshots, Links hier: https://www.overclock.net/threads/official-nvidia-rtx-5080-owners-club.1814247/page-11?post_id=29426876#post-29426876
Ohne Powerlimits und mit Ausschöpfung des Overclocking Potiential liefert die 5080 ab, aber nimmt sich meinem Test 423 Watt.
Ihr kennt die Eckdaten von 5080 und 5090 und seht wohl auch den Elefant im Raum.
woodsdog
2025-02-13, 07:44:41
naja, 5% mehr 3DMurks bei +80W würd ich jetzt nicht unbedingt als "liefert ab" bezeichnen. Da ist doch die Kotzgrenze längst überschritten.
GraphikkartusLongus
2025-02-13, 09:07:57
Sorry @dargo & @monstar-x... Konnte net ahnen, was mein Kommi anrichtet... Die PS6 is noch mind. 2.5 Jahre weg und jeder darf seine eigenen Spekulationen (mehr is es net, stimmt!) haben. Hat ja auch gar nix mit dem ursprünglichen Thema der 5080 am Hut. Daher: Thema beendet, alles gut? �(man stelle sich das Bild einer Gerstensaftschorle zur Versöhung vor)
Sardaukar.nsn
2025-02-13, 12:14:17
naja, 5% mehr 3DMurks bei +80W würd ich jetzt nicht unbedingt als "liefert ab" bezeichnen. Da ist doch die Kotzgrenze längst überschritten.
Es mir darum die neuen Grenzen auszuloten und da liefert die 5080 einfach im Overclocking und macht mir ne menge Spaß. Mit 9439 Punkten (https://www.3dmark.com/sn/3725145) liegt die 5080 jetzt auch über der Stock 4090 mit 9361 Score (https://www.computerbase.de/artikel/grafikkarten/3dmark-steel-nomad-benchmark.88643/) das Zwischenziel wurde jetzt erreicht.
Jetzt muss ich noch sehen wie ich das mit der Wasserkühlung regle und dann geht vielleicht noch etwas mehr. Mit maximal 450 Watt ist man aber auch noch in einem Bereich der für Stromversorgung inkl. Stecker unproblematisch ist.
dildo4u
2025-02-13, 15:17:53
Avowed nutzt Hardware RT Werte mit einer 5080.
https://www.pcgameshardware.de/Avowed-Spiel-72899/Specials/Review-Test-Release-Benchmarks-Steam-1465450/3
MiamiNice
2025-02-13, 15:38:12
Mit maximal 450 Watt ist man aber auch noch in einem Bereich der für Stromversorgung inkl. Stecker unproblematisch ist.
Nein, bist Du leider nicht. Im worst Case gehen 450 Watt über eine Leitung. Die glüht Dir zwar ein wenig langsamer weg, als bei 600 Watt, aber einen Unterschied macht das im Endergebnis nicht, wenn es drauf ankommt.
Sardaukar.nsn
2025-02-13, 15:44:09
@MiamiNice. Danke für den Hinweis, ich schaue mir das später mal mit einem Infrarot Thermometer an, bin aber immernoch der Meinung das dieses Thema bei der 5080 nicht kritisch ist.
@Topic: Schicker und sehr leiser SFF Build mit Custom Karten
vljh4jIwCsc
Für die Astral Modelle gibt es jetzt ein Bios Update und jetzt funktioniert auch die Sache mit dem 4. Lüfter.
Sardaukar.nsn
2025-02-13, 16:09:30
NVFlash für 5000er Serie ist raus (aus dem Bios Update der Astral). Hat jemand eine Gigabyte 5080 mit dem 450W Bios und mag seins backupen?
https://limewire.com/d/4c6a98d3-4e04-419c-b532-97bbaafff65f#v2R42dOpdlyMdC4WaXxRtTHGjUa-fPzSey3NCYYiUhg
Hier das Flash Tool und das gesucht 450 Watt Bios der Waterforce sowie das neue Astral Quiet Bios mit "nur" 400 Watt.
Funktionieren auf meiner Gainward Phantom beide. Viel Spaß beim testen: https://limewire.com/d/bf44bf44-c5b6-4f34-b725-b83fe56e4bfa#6U_DyEx62lL2FRIJrgN1HwXBJJFOQyhOUsN4m5Rge9Y
Langlay
2025-02-13, 16:51:26
Mein Beitrag, Sceenshots, Links hier: https://www.overclock.net/threads/official-nvidia-rtx-5080-owners-club.1814247/page-11?post_id=29426876#post-29426876
Ohne Powerlimits und mit Ausschöpfung des Overclocking Potiential liefert die 5080 ab, aber nimmt sich meinem Test 423 Watt.
Ihr kennt die Eckdaten von 5080 und 5090 und seht wohl auch den Elefant im Raum.
Rein für die Wissenschaft.
Meine 4090@Stock lasste ja schon relativ gut hinter dir, wenn man die 4090 aber auch "optimiert" liegt die 4090 wieder knapp vorne.
4090 FE Stock 450W PT +0MHz Vmem
https://i.ibb.co/fzwh1YfH/2025-02-13-16-42-41-Einstellungen.png (https://ibb.co/tTr7mMgD)
4090 FE +280MHz Core +1250MHz VMem 450W PT
https://i.ibb.co/9k2xvKMS/2025-02-13-16-45-53-Tech-Power-Up-GPU-Z-2-62-0.png (https://ibb.co/1tKCnySj)
Sardaukar.nsn
2025-02-13, 17:33:00
@Langlay: Nice! Sicher auch von der Lautstärke her ganz prima.
Im HWLuxx gibt es eine Benchmark Thread zu Steel Nomad: https://www.hardwareluxx.de/community/threads/3dmark-steel-nomad-rangliste.1353763/
Slipknot79
2025-02-13, 18:02:13
10958 Pkt mit meiner 4090, dunno wie das möglich war. oO
https://www.3dmark.com/sn/2948392
Langlay
2025-02-13, 18:15:24
10958 Pkt mit meiner 4090, dunno wie das möglich war. oO
https://www.3dmark.com/sn/2948392
Mehr als 450W Powerlimit?
Ich hab auch nur fix einen Benchmark gemacht weils mich als vergleich zu meiner Karte interressiert hat. Also nur fix im Afterburner das Profil gewechselt und den Steel Nomad laufen lassen, mit Zeug im Hintergrund usw..
Also so wie ich normalerweise auch zocken würde.
[MK2]Mythos
2025-02-13, 19:16:04
Meine RTX5080 macht 9200 Punkte @350Watt.
Sardaukar.nsn
2025-02-13, 20:55:30
DF @ 5080 Overclocking
7sEWLRKPDwA
Ich konnte noch ein bisschen quetschen. Mehr geht dann wohl erst mit Wasserkühlung.
Steel Nomad 9535 (https://www.3dmark.com/sn/3743440)
Speed Way 10305 (https://www.3dmark.com/sw/1862649)
ChaosTM
2025-02-13, 21:10:53
Quetsch mal fest :)
TobiWahnKenobi
2025-02-13, 21:18:26
Es mir darum die neuen Grenzen auszuloten und da liefert die 5080 einfach im Overclocking und macht mir ne menge Spaß. Mit 9439 Punkten (https://www.3dmark.com/sn/3725145) liegt die 5080 jetzt auch über der Stock 4090 mit 9361 Score (https://www.computerbase.de/artikel/grafikkarten/3dmark-steel-nomad-benchmark.88643/) das Zwischenziel wurde jetzt erreicht.
Jetzt muss ich noch sehen wie ich das mit der Wasserkühlung regle und dann geht vielleicht noch etwas mehr. Mit maximal 450 Watt ist man aber auch noch in einem Bereich der für Stromversorgung inkl. Stecker unproblematisch ist.
dass du damit irgendwie spaß kreierst, ist doch bei einem spielzeug auch das einzig wichtige. ich hatte im steelnomad allerdings noch nie ein vierstelliges ergebnis.
(..)
mfg
tobi
Slipknot79
2025-02-13, 23:22:06
Mehr als 450W Powerlimit?
Ich hab auch nur fix einen Benchmark gemacht weils mich als vergleich zu meiner Karte interressiert hat. Also nur fix im Afterburner das Profil gewechselt und den Steel Nomad laufen lassen, mit Zeug im Hintergrund usw..
Also so wie ich normalerweise auch zocken würde.
Ja moar als 450W PL, 24/7 setting, aber die GPU ist trotzdem eine Krücke mit 2925MHz. Das can also nicht die Erklärung sein.
Ein "alter" Test noch mit dem 9900k brachte sogar 11024 Punkte.
https://www.3dmark.com/sn/10060
Ich komme aktuell auf diese Werte überhaupt nicht hin.
Aber Hauptsache meine Spiele ballern ca. 10-12% moar fps seit 576.12. Soll mal einer verstehen. (y)
Sardaukar.nsn
2025-02-14, 09:36:07
Mit den meisten Einstellungen und Benchmarks bin ich ja durch und nun kann mit der 5080 ordentlich gespielt werden. Aktuell läuft sie ja im PC vom Sohn, der großer Star Wars Fan ist. Ich habe ihm mal das schon etwas ältere Star Wars Jedi Survivor besorgt und damit hat er aktuell seinen Spaß. Bei Release lief das Spiel nicht gut und hatte erheblich Performance Probleme: https://www.techpowerup.com/review/star-wars-jedi-survivor-benchmark-test-performance-analysis/4.html
3440x1440p bei uns müsste zwischen den beiden hier liegen.
https://i.imgur.com/1f6cuW5.png
https://i.imgur.com/egrEhd7.png
Inzwischen gibt es DLSS und Frame-Gen. Er spielt in 3440x1440p mit 144FPS auf meinem alten Xiaomi 34" Curved. Ich habe über die Nvidia App die neueste DLSS Version (Transformer Modell) eingestellt, dazu in-game alles auf ultra inkl. RT mit DLSS Quality und 1xFG.
Was soll ich sagen, das Spiel läuft butterweich am 141FPS cap und nur 60 - 70% GPU Auslastung. Kühl, leise, Verbrauch 200-250 Watt. Spielgefühl mit X-Box Controller am PC absolut prima, kein Gefühl von erhöhtem Input Lag usw.
https://i.imgur.com/3D4P379.jpeg
Einfach mal so als Real-Life Szenario in dem die 5080 meiner Meinung nach hervorragend funktioniert.
[MK2]Mythos
2025-02-15, 10:02:47
Ich hatte mir extra das Corsair Premium Kabel gekauft um auf Adapterspielchen verzichten zu können. Hatte nach dem Jayztwocents Video ein bisschen Panik.
Aber alles gut bei mir. Weiß = maximale Temperatur = 30,6°C.
https://cdn.discordapp.com/attachments/687185689355354113/1340242903532048385/FLIR_20250214_012614_861.jpg?ex=67b1a5f8&is=67b05478&hm=db58f4eb0dddd4bc1462ec1ae59da57e00b81df66735cc628347bc2268697767&
GraphikkartusLongus
2025-02-17, 15:30:18
Ein "alter" Test noch mit dem 9900k brachte sogar 11024 Punkte.[/url]
:eek: da überleg ich mir lieber noch 2-3 Mal, ob mein 9700K tatsächlich reif für den Ruhestand ist...
Überlege entweder ne 5070Ti (sofern erhältlich) zum 9700K dazu und bei RTX60 dann ganz was Neues, oder bereits jetz mal was neues mit 9700X+5080 zambasteln? ..wobei die CPU-Preis ja auch net gerade fein sind. :rolleyes:
Slipknot79
2025-02-18, 01:18:34
Ich würde an deiner Stelle nicht 3D-Mark heranziehen um zu klären ob die CPU bremst.
Sie bremst garantiert. Ich merke, wie "befreit" sich nun Games anfühlen mit dem 9800X3D vs 9900k. Alles rennt viel smoother, die frametime-graphen sehr flach. Vorallem wenn du RPGs spielst und in Städten unterwex bist, von Aufbau/Wirtschaftssimulationen gar ned angefangen. Aber auch overall alles sehr smooth, Ladezeiten spürbar gestiegen und Schwuppdizität spürbar verbessert.
Um die Frage zu klären ob die CPU bremst oder nicht: Wenn die am Markt aktuell verfügbare "gaming"-CPU 50% schneller ist (Faktor 1,5x im CPU-limit) als deine verbaute CPU (trifft auf 9900k vs 9800X3D zu), dann kannst du die verbaute CPU wegballern und ein neues System bestellen. Spätestens jetzt.
Mit der 50%-Regel spielt der Preis auch eine geringere Rolle. Immerhin war das Teil 5 Jahre verbaut und ich würde mir auch in Zukunft keine Wunder erwarten in Sachen performance plus von CPU-Generation zu CPU-Generation. Ich gehe auch von 5 Jahren aus beim 9800X3D, ob die CPU nun 450 oder 550EUR kostet->gähn.
Bezieht sich auf AAA-games.
GraphikkartusLongus
2025-02-18, 14:55:02
Dachte ich mir ^^ Danke :up:
Exxtreme
2025-02-18, 15:02:27
Noch was Interessantes zu den Blackscreen-Crashes. Da hat eine(r) diese Problematik gehabt und dann kurzerhand das VBIOS einer ASUS Astral 5080 auf eine GB Aorus 5080 draufgeklatscht. Und alle Probleme sind behoben. Anscheinend sind die Spannungen mit dem neuen VBIOS auch ein wenig höher. Und anscheinend gibt es keine Berichte über diese Blackscreen-Problematik bei der ASUS Astral. Sprich, kann sein, dass ASUS das Problem bereits behoben hat. Und bei anderen Herstellern wird es wohl ein VBIOS-Update richten müssen.
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/557200/geforce-grd-57242-feedback-thread-released-21325/3501854/
Colin MacLaren
2025-02-21, 12:54:48
Wie ist das eigentlich mit Founders Editions und Bios-Mods? Vertragen die sich? Und welches Bios nimmt man da am Besten? Die Karten haben ja auch nur 2 Lüfter - dann wäre doch Astral die richtige Walhl, oder?
fizzo
2025-02-23, 23:18:28
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
hq-hq
2025-02-23, 23:47:15
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
:uwoot: schwer zu glauben... so oder so unglaublich
der 8 rops spec bug durch alle Chips :biggrin:
@Slipknot79
du musst es einfach in DX12 laufen lassen nicht in Vulkan?
mit durchschnittlichem OC
4090 steel nomad dx12 ~10000
4090 steel nomad vulkan ~11000
Slipknot79
2025-02-24, 02:08:25
Ok das m8 den Unterschied aus, ya hast recht (y).
Freestaler
2025-02-24, 07:41:00
Oder war die 5080 mit 8 rop weniger geplant (mit reserve für die TI/Super) und dann die 9070xt ungefähr gleich schnell? Ist das evtl das gesuchte Puzzlestück für die verschiebung 9070xt?
Ps: sind gpuz validation online easy fälschbar? Link in der Meldung von vc ist drin.
Linmoum
2025-02-24, 07:58:56
Oder war die 5080 mit 8 rop weniger geplant (mit reserve für die TI/Super) und dann die 9070xt ungefähr gleich schnell? Ist das evtl das gesuchte Puzzlestück für die verschiebung 9070xt?Die 9070XT ist schon laut AMDs eigener Benchmarks deutlich langsamer, in der Realität und unabhängigen Reviews vermutlich noch das ein oder andere Prozent mehr. Von daher ergibt das keinen Sinn, zumal es ja genauso 5090 und 5070Ti im Umlauf gibt, die weniger ROPs haben.
Troyan
2025-02-24, 09:09:02
Oder war die 5080 mit 8 rop weniger geplant (mit reserve für die TI/Super) und dann die 9070xt ungefähr gleich schnell? Ist das evtl das gesuchte Puzzlestück für die verschiebung 9070xt?
Ps: sind gpuz validation online easy fälschbar? Link in der Meldung von vc ist drin.
Na, funktioniert eigentlich nicht. Pro GPC sind es 16 ROPs, offensichtlich jeweils 2x8. Das macht null Sinn nur in einem GPC eine ROP-Partition zu deaktivieren.
Außerdem hat nVidia die Spezifikation ja auch im Whitepaper deutlich kommuniziert.
Dural
2025-02-24, 09:23:14
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
Exxtreme
2025-02-24, 09:28:21
Viel interessanter ist, dass sowohl der Chip wie auch das Bios der Grafikkarte erkennen kann, dass ROPs deaktiviert sind. Das riecht sehr danach, dass man eine ROP-Deaktivierung geplant hat. Solche Erkennungsmechanismen sind ja nicht einfach so drin. Man hat sie explizit eingebaut.
The_Invisible
2025-02-24, 09:39:55
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
KA wie genau die verschiedenen Chips bei TSMC vom Band rollen, wenn aber danach alle durch die gleiche Prüfung gehen und dieser fehlerhaft ist kann schon sein das alles betroffen ist.
@Exxtreme
Wieso sollte das nicht gehen, wenn GPUZ das direkt auslesen kann muss das ja schon bei den Vorgängerchips implementiert worden sein auf Hardwareebene.
BlacKi
2025-02-24, 09:56:54
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
ja, das ist für mich wie ein buch mit sieben siegeln. check ich nicht.
um die rops zu ändern muss doch ein anderes bios drauf sein? könnte man das durch ein einfaches bios update also fixen? aber wie kommen solche falschen biose in den umlauf?
fondness
2025-02-24, 10:01:48
Viel interessanter ist, dass sowohl der Chip wie auch das Bios der Grafikkarte erkennen kann, dass ROPs deaktiviert sind. Das riecht sehr danach, dass man eine ROP-Deaktivierung geplant hat. Solche Erkennungsmechanismen sind ja nicht einfach so drin. Man hat sie explizit eingebaut.
Ja, ich habs ja hinten schonmal gesagt. Würde es nicht zufällig ein Tool geben, dass die ROPs korrekt auslesen kann, würde das niemanden auffallen.
Das solche Chips einfach "durchruztschen" ist unrealistisch, es müssen ja explizit gewisse ROPs deaktiviert werden. Das ist ein aktiver Vorgang der bewusst gemacht wird. Man könnte ja noch sagen man hat die Chips falsch gelabelt. Aber da es keine Karten gibt mit dieser config kann man auch das ausschließen.
dargo
2025-02-24, 10:03:50
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
Ok... jetzt fehlen nur noch die fehlenden ROPs bei der RTX 5070. Steckt da ein System hinter oder kann einfach jemand bei der Fertigung nicht zählen? ;D
ChaosTM
2025-02-24, 10:08:28
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
Die feigen Jungs haben sich unerlaubt von der Truppe entfernt. -> Kriegsgericht!
Angiesan
2025-02-24, 10:18:55
Viel interessanter ist, dass sowohl der Chip wie auch das Bios der Grafikkarte erkennen kann, dass ROPs deaktiviert sind. Das riecht sehr danach, dass man eine ROP-Deaktivierung geplant hat. Solche Erkennungsmechanismen sind ja nicht einfach so drin. Man hat sie explizit eingebaut.
Das gibt es doch schon ewig, und konnte man schon .....immer auch mit dem NV Inspektor auslesen. Der gibt auf Wunsch noch viel mehr Details her wie das was man in GPU-Z auslesen kann. Da sehr wahrscheinlich alle Tools direkt auf die NVAPI des NV Treibers zugreifen kann man sehen, dass es das schon ewig gibt und nicht erst seit der 5000er Serie in die Treiber eingebaut ist. Ich denke, dass dies auch zur eindeutigen Erkennung der HW gemacht wird um z.B. Quadros von Geforces zu unterscheiden ;-).
Einfach mal, falls nicht bekannt, auf das NV Logo von NV Inspector clicken und die Zusammenfassung angucken. Da kannst Du auch eine sehr alte Version des Tools verwenden, da bei diesem Zugriff nichts angelernt werden muss oder eine Datenbank gepflegt werden muss sondern nur richtig interpretiert werden muss. Orbmu2k hat das sogar hier mal sehr gut erklärtwenn ich mich recht erinnere.
Exxtreme
2025-02-24, 10:22:40
@Exxtreme
Wieso sollte das nicht gehen, wenn GPUZ das direkt auslesen kann muss das ja schon bei den Vorgängerchips implementiert worden sein auf Hardwareebene.
Nein, das meine ich nicht. Damit so eine ROP-Deaktivierung funktioniert müssen gleich mehrere Instanzen mitspielen. Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen. Sprich, die Logistik hinter dem ist so aufwändig, dass das wohl explizit geplant wurde, dass ROPs deaktiviert werden können. Jetzt ist nur die Frage warum man das gemacht hat. Und hier sind einige Szenarien denkbar.
fondness
2025-02-24, 10:23:16
Das gibt es doch schon ewig, und konnte man schon .....immer auch mit dem NV Inspektor auslesen. Der gibt auf Wunsch noch viel mehr Details her wie das was man in GPU-Z auslesen kann. Da sehr wahrscheinlich alle Tools direkt auf die NVAPI des NV Treibers zugreifen kann man sehen, dass es das schon ewig gibt und nicht erst seit der 5000er Serie in die Treiber eingebaut ist. Ich denke, dass dies auch zur eindeutigen Erkennung der HW gemacht wird um z.B. Quadros von Geforces zu unterscheiden ;-).
Einfach mal, falls nicht bekannt, auf das NV Logo von NV Inspector clicken und die Zusammenfassung angucken. Da kannst Du auch eine sehr alte Version des Tools verwenden, da bei diesem Zugriff nichts angelernt werden muss oder eine Datenbank gepflegt werden muss sondern nur richtig interpretiert werden muss. Orbmu2k hat das sogar hier mal sehr gut erklärtwenn ich mich recht erinnere.
Vielleicht haben sie in Software einen ungewollten "Bug", nämlich dass die ROPs diesmal korrekt angezeigt werden. :D
x-force
2025-02-24, 10:30:15
Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen.
"muss"?!
es braucht nicht mehr als einen treiber, wenn du dich an die alten quadros oder firepro/gl erinnerst.
alternativ gabs auch bios mod und lötkolben.
was nv on top einbaut, lasert, oder hinzufügt, ist nicht automatisch notwendig.
fizzo
2025-02-24, 10:39:24
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
Und warum hat NVIDIA bei diesen 0,5% nur von der 5090/5070ti gesprochen? Salamitaktik?
Dural
2025-02-24, 10:59:41
Vielleicht auch ein Fake, bis jetzt ja nur eine 5080?
Na NV hat mittlerweile so viele verschiede teildeaktivierte Chips, oft sogar unter gleichen Namen. Da dürfte der Treiber einfach ziemlich breit aufgestellt sein.
The_Invisible
2025-02-24, 11:29:32
Nein, das meine ich nicht. Damit so eine ROP-Deaktivierung funktioniert müssen gleich mehrere Instanzen mitspielen. Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen. Sprich, die Logistik hinter dem ist so aufwändig, dass das wohl explizit geplant wurde, dass ROPs deaktiviert werden können. Jetzt ist nur die Frage warum man das gemacht hat. Und hier sind einige Szenarien denkbar.
Muss man doch sowieso haben wegen Salvage.
Hört sich einfach nach einer überhasteten Produktion an wo man schnell ein paar Karten rausbringen musste, passt ja auch zur aktuellen Situation.
BlacKi
2025-02-24, 12:27:07
stammen die karten aus erster produktion sozusagen eine inoffizielle rev1.0 und die karten nach haben mehr rops bekommen, weil die yields höher ausfallen? sozusagen, alle neuen chargen sind rev 2.0?
Troyan
2025-02-24, 12:40:56
stammen die karten aus erster produktion sozusagen eine inoffizielle rev1.0 und die karten nach haben mehr rops bekommen, weil die yields höher ausfallen? sozusagen, alle neuen chargen sind rev 2.0?
Nein, nVidia hat doch offiziell kommuniziert, wie viele ROPs die Karten haben sollen. Ist also ein Produktionsfehler und muss vom Händler korrigiert werden.
nVidia müsste also regulär die Spezifikation ändern.
OgrEGT
2025-02-24, 12:42:27
stammen die karten aus erster produktion sozusagen eine inoffizielle rev1.0 und die karten nach haben mehr rops bekommen, weil die yields höher ausfallen? sozusagen, alle neuen chargen sind rev 2.0?
Wenn eine ganze Charge betroffen ist/war dann müssten doch mehr als nur 0,5% der Karten die ausgeliefert wurden reduzierte ROPs aufweisen...
Exxtreme
2025-02-24, 12:44:48
Muss man doch sowieso haben wegen Salvage.
Hört sich einfach nach einer überhasteten Produktion an wo man schnell ein paar Karten rausbringen musste, passt ja auch zur aktuellen Situation.
Wenn es wirklich nur 0,5% der ausgelieferten Chips sind dann ist das unwahrscheinlich, dass eine überhastete Produktion der Grund ist. Wegen 0,5% macht man so einen Terz nicht. Sieht für mich eher nach einem Produktionsfehler aus, der durchgerutscht ist weil niemand damit rechnete. Eventuell sind die deaktivierten ROPs nichteinmal defekt. Dann könnte man das auch eventuell mit einem VBios-Update lösen. Gut, wenn sie "in Hardware" deaktiviert wurden dann kann man wohl nichts machen ausser zurückschicken.
Palpatin
2025-02-24, 15:25:09
Wenn es wirklich nur 0,5% der ausgelieferten Chips sind dann ist das unwahrscheinlich, dass eine überhastete Produktion der Grund ist. Wegen 0,5% macht man so einen Terz nicht.
Warum nur 0,5% ? Bisher nur ein Fall bekannt? :weg:
Exxtreme
2025-02-24, 15:29:53
Warum nur 0,5% ? Bisher nur ein Fall bekannt? :weg:
Weltweit wurden ja nur 200 Karten verkauft. Dann wäre ein Fall 0,5%. ;D
Neee, Spaß. Diese Angabe stammt von Nvidia, wenn auch nur für 5070Ti- und 5090-Karten. Dürfte aber unwahrscheinlich sein, dass das hier anders gelagert ist.
Dimon
2025-02-24, 17:15:06
"muss"?!
es braucht nicht mehr als einen treiber, wenn du dich an die alten quadros oder firepro/gl erinnerst.
alternativ gabs auch bios mod und lötkolben.
was nv on top einbaut, lasert, oder hinzufügt, ist nicht automatisch notwendig.
Ich bin auch der meinung das dies per vbios gemacht werden muss, auch die ram Verdoppelung erfordert so ein update.
Ich kann doch keinen vollen AD102 chip nehmen und auf eine RTX 4090 draufpappen, der würde doch nur die programmierten erkennen.
Angiesan
2025-02-24, 17:47:28
Nein, das meine ich nicht. Damit so eine ROP-Deaktivierung funktioniert müssen gleich mehrere Instanzen mitspielen. Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen. Sprich, die Logistik hinter dem ist so aufwändig, dass das wohl explizit geplant wurde, dass ROPs deaktiviert werden können. Jetzt ist nur die Frage warum man das gemacht hat. Und hier sind einige Szenarien denkbar.
Dann hatte ich dich auch falsch verstanden, ja das ist nicht nur möglich sondern sehr wahrscheinlich. Kann mir gut vorstellen, dass es da auch wieder so etwas wie eine 5070TI Super oder was auch immer geben könnte, um die Resteverwertung perfekt preislich abzustimmen ;-)
Monsta
2025-02-24, 17:51:37
Hier gibt es nich viel zu Rätseln. Nvidia ist mal wieder beim Bescheissen erwischt worden. Nicht mehr und nicht weniger.
Exakt. Die löten defekte Chips drauf, die zufälligerweise allesamt 8 ROPs zu wenig haben und ohne vBIOS/Treiberanpassung trotzdem 1A laufen? Never...
fondness
2025-02-24, 18:57:07
Don't worry bros, with RTX 60 Nvidia will hide the ROP count after they hid hotspot temperature with RTX 50.
You will never see the problem and you will accept it
https://x.com/Olrak29_/status/1893197173296153036?t=KFqn29VEQwu5pBrktIrRDg&s=19
Lol ;D
Freestaler
2025-02-24, 19:09:43
Kann man die ROP den nicht per AI dazwischen schieben? Geht doch sicher auch.
Gibt Auffälligkeiten bei den Seriennummern oder so was? Sowas wie ES bei den CPU früher, die an die Hersteller der Systeme gingen aber auch noch nicht mit vollem Takt liefen?
Dimon
2025-02-24, 19:34:23
Kann man die ROP den nicht per AI dazwischen schieben? Geht soch sicher auch.
Gibt Auffälligkeiten bei den Seriennummern oder so was? Sowas wie ES bei den CPU früher, die an die Hersteller der Systeme gingen aber auch noch nicht mit vollem Takt liefen?
ES wäre eine Erklärung. Die haben die bestimmt umgelabelt weil so wenig einheiten verfügbar sind :biggrin:
fondness
2025-02-24, 19:58:03
Exakt. Die löten defekte Chips drauf, die zufälligerweise allesamt 8 ROPs zu wenig haben und ohne vBIOS/Treiberanpassung trotzdem 1A laufen? Never...
Ja ich bin über die gutglaubigkeit hier auch erstaunt.
crux2005
2025-02-24, 20:04:01
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
https://i.imgur.com/aBmJJgy.jpeg
https://www.youtube.com/watch?v=YpYjWxwHv4U&t=3772s
Jetzt müsste dir RTX 5080 nur noch für MSRP lieferbar sein. Aber die Werte wundern mich trotzdem.
Disco_STFU
2025-02-24, 20:05:34
Ja ich bin über die gutglaubigkeit hier auch erstaunt.
War doch damals bei der GTX 970 auch so...
Natürlich hat Nvidia AUSVERSEHEN vergessen zu erwähnen dass 0,5GB Vram langsam angebunden sind...
N A T Ü R L I C H:rolleyes:
Ravenhearth
2025-02-24, 20:55:11
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
[...]
Jetzt müsste dir RTX 5080 nur noch für MSRP lieferbar sein. Aber die Werte wundern mich trotzdem.
Ja klar, sie nehmen $900 für die 5070 Ti an und $999 für die 5080, macht keinen Sinn
user77
2025-02-24, 21:05:33
MSRP Vergleiche sind einfach Müll, wenn die Karten 25-50% höher Verkauft werden.
ENKORE
2025-02-24, 21:17:53
Ja klar, sie nehmen $900 für die 5070 Ti an und $999 für die 5080, macht keinen Sinn
Entweder rechne ich mit MSRP (;D) oder mit Straßenpreisen, beides vermischen ist dumm.
Sardaukar.nsn
2025-02-25, 08:18:00
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
Ein paar Custom Karten und die FEs werden doch zum MSRP verkauft. Ich musst zwar zwei Wochen auf Lieferung warten, aber die Prime läuft bei mir ziemlich gut. Diese ganzen bisher angesprochenen Blackwell Probleme treten hier nicht auf. Der gut verkauften 4090 trauere ich nicht nach.
Exxtreme
2025-02-25, 13:57:02
Was die Problematik mit plötzlich schwarz werdenden Monitoren angeht, es wird schon ein mögliches VBIOS-Update angedeutet:
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/557655/geforce-grd-57247-feedback-thread-released-22025/3502723/
dargo
2025-03-02, 07:12:56
Neues Futter von GN.
PEXYZgVfOBM
dildo4u
2025-03-02, 09:58:48
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
https://i.imgur.com/aBmJJgy.jpeg
https://www.youtube.com/watch?v=YpYjWxwHv4U&t=3772s
Jetzt müsste dir RTX 5080 nur noch für MSRP lieferbar sein. Aber die Werte wundern mich trotzdem.
Die Grafik ist Blödsinn da sie nur eine Karte an den Marktpreis anpassen.
5070TI hat die beste Preis/Leistung wenn alle ihre UVP Erreichen.
5080 kosten aktuell über 50% mher für+ 15% Leistung.
crux2005
2025-03-12, 23:03:57
h4w_aObRzCc
This new GTX 580 :biggrin:
Troyan
2025-03-12, 23:31:47
Cool. Fetter Typ regt sich über was auf, was ihn seit Jahren nicht interessiert hat.
ChaosTM
2025-03-13, 07:33:17
So fett ist Steve auch wieder nicht ;)
Die Sachen muss man ansprechen (dürfen).
DrFreaK666
2025-03-13, 08:10:54
So fett ist Steve auch wieder nicht ;)
Die Sachen muss man ansprechen (dürfen).
Nein, nur wenn AMD scheiße baut
Disconnected
2025-03-13, 11:07:14
Der allseits bekannte NVIDIA Engineer arbeitet noch immer dort:
pCyNp8aPcsY
DrFreaK666
2025-03-13, 11:14:57
Da finde ich das witziger
5q5JfLTcLdQ
Sardaukar.nsn
2025-03-13, 11:33:21
Ändert trotzdem nichts daran das die 5080 aktuell die beste Gaming Grafikkarte ist. Eine völlig andere Situation als noch beim Lovelace Launch mit 4090/4080.
Damals war die 4090 klar die bessere Karte und nicht ohne Grund so beliebt. Heute ist sorgt die 5090 mit der hohen TDP und gleichzeitig zu wenig Powerlimit, Stecker-Problematik und miesem P/L Verhältnis für schlechte Stimmung.
Für die Perspektive als machine learning und KI Werkzeug mag das anders sein, aber als Gaming GPU scheint die 5090 selbst zu UVP wenig attraktiv.
Die RTX 5080 ist gut, aber verglichen mit 2022 hat sich die VRAM-Thematik nicht zum Guten für 16er-Karten entwickelt. Eine RTX 5090 ist brachial, wie eine RTX 4090 einst (eigentlich immer noch), lässt sich aber mit ein paar Handgriffen zügeln. Dann erhält man ein effizientes Kraftpaket, das für GB203 unerreichbar ist. Preise völlig ausgeklammert.
MfG
Raff
MiamiNice
2025-03-13, 11:47:24
Ich kann das nicht fühlen. Trotz all dieser Probleme ist die 5080 trotzdem nur die Hälfte einer 5090. Schon von der reinen HW her. 5080 fühlt sich daher maximal nach einer Mid Range Karte für mich an. Völlig unter meiner Würde und der meines Babys. Das Teil könnte auch 5060 heißen, so ungefähr rangiert eine 5080 hier bei mir im Kopf. Da bekomme ich maximal Taschenrechner Vibes.
Ist halt nicht jeder so ein Großbekommer wie du. ;)
Immerhin erhält man auf der Geforce RTX 5080 direkt zum Start die "Full Fat"-Konfektion, sofern man die so nennen kann. :) Also GB203-400, keine stillgelegten Einheiten, flotter GDDR7. Psychologisch wertvoll. Bei RTX 5090 und RTX 4090 erhalten Kunden nur beschnittenen "Abfall" - geiler Abfall, aber eben nicht das volle Paket.
MfG
Raff
MiamiNice
2025-03-13, 12:02:30
Da ist was dran. Aber trotzdem ist 50 Prozent weniger alles, halt keine 5080. Und das schlägt psychologisch noch viel härter zu. Zumindest hier.
In einer normalen Welt wäre das Ding ne 5070 oder so was in der Art. Wirst Du besser wissen als ich. Und für mich bleibt die das auch, egal was NV da auf den Karton schreibt. Ich will so etwas, Midrange, nicht in meinem PC.
Troyan
2025-03-13, 12:12:55
So fett ist Steve auch wieder nicht ;)
Die Sachen muss man ansprechen (dürfen).
Man muss die richtige Person dafür sein. Jemand, dem das ganze seit Jahren nicht interessiert, macht ein Video aus genau einem Grund: Clickbait.
Und da man mit nVidia-Hass bei Youtube Geld verdienen kann, macht man eben so ein Video.
Verdienst du mit deinem Hass hier auch Geld?
Disconnected
2025-03-13, 13:22:42
Die Welt ist so grausam, alle hassen NVIDIA.:usad:
Sardaukar.nsn
2025-03-13, 15:10:35
Trotz Einsatz von doppelt so viel Chipfläche, VRAM, und eher 2-3 fachem Preis kann sich eine 5090 nur optimistisch gesehen 30-50% von der 5080 absetzten. Das passt für mich nicht gut zusammen, darf aber natürlich jeder gerne sehen wie er will. Für meine Asus 5080 habe ich aber auch nur die UVP von 1169€ bezahlt.
Bin gerade noch im Dienst, aber gleich erstmal checken wie das neue Titan Quest 2 damit in 4K läuft. Doom The Dark Ages ist der nächste 4K Titel auf den ich mich freue. Ich denke das wird alles gut klappen, freue mich aber schon aufs selber testen.
MiamiNice
2025-03-13, 15:17:36
Trotz Einsatz von doppelt so viel Chipfläche, VRAM, und eher 2-3 fachem Preis kann sich eine 5090 nur optimistisch gesehen 30-50% von der 5080 absetzten.
Jetzt und in 4k. Auf 5k sieht das schon anders aus, auf 8k ebenfalls, in HMDs ganz besonders, neueren Games. Aber das ist alles nicht der Punkt. Eine halbe 5090 ist keine 5080, sondern eine 5060/5070 mit fehlerhaften Aufdruck auf den Karton. Das ist IMO die Abzock Karte von NV. Midrange zum High End Enthusiasten Preis.
Sardaukar.nsn
2025-03-13, 15:33:46
Deine Sicht, darfst du gerne so sehen.
Bei mir läuft die 5080 Prime für 1169€ hervorragend. Möchte ich dadrauf ein mittleres Performance Upgrade haben, reden wir hier aktuell über eine ca. 3000€ Grafikkarte. Da wirds für mich dann richtig irrational. Eigentlich aber auch schon bei einer 5090 FE zur UVP, die aber eh nicht zu bekommen ist.
Was da auf den Karton steht, gefühltes Produktsegment usw. spielt da für mich viel weniger eine Rolle als ein klares Preis/Leistung Verhältnis. Und da steht die 5080 für mich gut da. Einen Schritt noch oben (5090) oder nach unten (5070ti) zu gehen, scheint mir unattraktiv.
MiamiNice
2025-03-13, 15:39:33
Ich kann Deinen Standpunkt durchaus verstehen und natürlich ist das nur meine Meinung, die nur für mich relevant ist. Selbstverständlich.
Armaq
2025-03-13, 17:42:45
Ändert trotzdem nichts daran das die 5080 aktuell die beste Gaming Grafikkarte ist. Eine völlig andere Situation als noch beim Lovelace Launch mit 4090/4080.
Damals war die 4090 klar die bessere Karte und nicht ohne Grund so beliebt. Heute ist sorgt die 5090 mit der hohen TDP und gleichzeitig zu wenig Powerlimit, Stecker-Problematik und miesem P/L Verhältnis für schlechte Stimmung.
Für die Perspektive als machine learning und KI Werkzeug mag das anders sein, aber als Gaming GPU scheint die 5090 selbst zu UVP wenig attraktiv.
Da stimme ich dir zu. Wenn man sich nur Gaming ansieht ist die 5080 der "Top Dog". Die 5090 macht vll. noch für VR Lover Sinn, aber selbst in 4k Gaming ist die 5080 noch okay (Texturmods vll nicht mehr).
Allerdings kannst du die 5090 eben auch genau für deinen Fall nutzen und ich warte ja noch auf die Messungen von Raff bzgl. 5080, 5090 und 9070XT @ Powertarget XXX. Wer holt sich die Effizienzkrone?
Das rückt auch AMD besser ins Bild und zeigt, dass so eine 9070XT schon eine Errungenschaft ist, aber eben noch nicht so gut wie nvidia.
Emil_i_Lönneberga
2025-03-13, 17:57:31
160mm 5080:
https://www.hardwareluxx.de/community/threads/nvidia-blackwell-50xx-wasserk%C3%BChler.1362662/page-22#post-30749688
The_Invisible
2025-03-13, 18:37:16
Die RTX 5080 ist gut, aber verglichen mit 2022 hat sich die VRAM-Thematik nicht zum Guten für 16er-Karten entwickelt. Eine RTX 5090 ist brachial, wie eine RTX 4090 einst (eigentlich immer noch), lässt sich aber mit ein paar Handgriffen zügeln. Dann erhält man ein effizientes Kraftpaket, das für GB203 unerreichbar ist. Preise völlig ausgeklammert.
MfG
Raff
Glaubst du? AMD hat current gen nur 16gb Karten released, prinzipiell gibt's nur mehr eine >16gb Karte in der aktuellen Generation. Denke Mal 16gb wird daher seeeeehr lange Standard sein auf das alles optimiert wird.
Aber ja, von einer 4090 kommend macht all s außer 5090 keinen sinn
Sardaukar.nsn
2025-03-13, 20:21:39
...Das rückt auch AMD besser ins Bild und zeigt, dass so eine 9070XT schon eine Errungenschaft ist, aber eben noch nicht so gut wie nvidia.
Im wahrsten Sinne liegen ja jetzt alle Karten auf dem Tisch. Die 5090 steht alleine schon vom Preis, aber auch anderen Eckdaten über allen Dingen. Leider nicht so positiv wie das noch bei der 4090 war.
Der "Gaming" Markt mit relevanten Stückzahlen spielt sich irgendwo von 5070 über 7090 (XT) bis 5080 ab. Da liegt das Feld aber eher nahe zusammen. Eine Situation die aus Kundensicht sicher zu begrüßen ist.
@The_Invisible: Ich denke auch das 16GB VRAM "DER" gemeinsame Nenner der nächsten Jahre sein wird.
@Emil_i_Lönneberga: Echt ein süßes Ding. Scheint aber auch ein MoRa-Bruder zu sein, also 450W Bios drauf und ab dafür! Ich bin aber froh das Asus ein etwas größeres PCB für die Prime gewählt hat. Der Wasserblock sollte hier dann eher normales Format haben.
https://i.imgur.com/ws7LNd7.jpeg
Relex
2025-03-13, 20:47:54
Ich kann das nicht fühlen. Trotz all dieser Probleme ist die 5080 trotzdem nur die Hälfte einer 5090. Schon von der reinen HW her. 5080 fühlt sich daher maximal nach einer Mid Range Karte für mich an. Völlig unter meiner Würde und der meines Babys. Das Teil könnte auch 5060 heißen, so ungefähr rangiert eine 5080 hier bei mir im Kopf. Da bekomme ich maximal Taschenrechner Vibes.
Eine Karte mit 360W TDP ist ganz sicher kein Mid Range.
Es gab früher High End Karten die nur halb so viel Strom brauchten... Die erste Titan hat auch nur 250W gebraucht.
RTX4090 und erstrecht die 5090 besetzen einfach Leistungsklassen die vorher überhaupt nicht existiert haben. Und das ist auch völlig in Ordnung. Nur wird dadurch der Rest ja nicht schlechter.
Ich hab jedenfalls keine Lust, dass sowas wie ne 5080 mit bis zu 360W als midrange klassifiziert wird und bald schon jedes Spiel in 1440p danach schreit.
Ungeachtet des Preises wäre das eine völlig inakzeptable Entwicklung.
Gemessen an der Leistungsaufnahme finde ich die Abstufungen der Karten und ihre Namen absolut passend. Ich sehe nicht, dass Nvidia uns hier Low End Karten unter dem Deckmantel eines "High End" namens verkaufen will. Wenn eine 5080 nur 200 oder 150W verbrauchen würde, würde ich dein Argument verstehen, aber bei den aktuellen TDPs sowie auch den durchschnittlichen Verbrauchswerten passt die Namensgebung.
Colin MacLaren
2025-03-13, 21:12:45
Ich spiele Monster Hunter in 4K DLSS Performance und habe mit einer 5080 irgendwie so um die 80fps, auch gerne mal darunter und generell mega ruckelige Frametimes. FG fühlt sich in dem Spiel auch bescheiden an. Und das ist einfach mal die Realität. Grottenschlecht portierte, verbuggte Games, die mittelmäßige Grafik anbieten, Texturmatsch und einfach unheimlich viel Unschärfe - und alles unter 4090 kann die eigentlich nicht sinnvoll spielen. Sowas hat dann 1,3 Millionen gleichzeitige Spieler auf Steam, als Vollpreistitel.
Wir kriegen immer höhere Hardwareanforderungen für gefühlt immer schlechtere Grafik und die kannst Du nur noch mit absurder Hardware ersfchlagen, um irgendwie ein smoothes Spielgefühl herauszubekommen. Und kommt mir nicht mit Konsolen, die haben schon vor zwei Jahren aufgegeben. FSR2-3 Performance, low - mid Detail und 30fps auf 65 Zoll im Wohnzimmer, mit Pech dann noch bei ~1080p. Ganz dolles Erlebnis.
dllfreak2001
2025-03-13, 21:36:40
Eine Karte mit 360W TDP ist ganz sicher kein Mid Range.
Es gab früher High End Karten die nur halb so viel Strom brauchten... Die erste Titan hat auch nur 250W gebraucht.
RTX4090 und erstrecht die 5090 besetzen einfach Leistungsklassen die vorher überhaupt nicht existiert haben. Und das ist auch völlig in Ordnung. Nur wird dadurch der Rest ja nicht schlechter.
Ich hab jedenfalls keine Lust, dass sowas wie ne 5080 mit bis zu 360W als midrange klassifiziert wird und bald schon jedes Spiel in 1440p danach schreit.
Ungeachtet des Preises wäre das eine völlig inakzeptable Entwicklung.
Gemessen an der Leistungsaufnahme finde ich die Abstufungen der Karten und ihre Namen absolut passend. Ich sehe nicht, dass Nvidia uns hier Low End Karten unter dem Deckmantel eines "High End" namens verkaufen will. Wenn eine 5080 nur 200 oder 150W verbrauchen würde, würde ich dein Argument verstehen, aber bei den aktuellen TDPs sowie auch den durchschnittlichen Verbrauchswerten passt die Namensgebung.
Das ist doch Quatsch eine Voodoo-Karte war auch mal Highend obwohl sie keine 15W verbraucht hat.
Erzähle das nicht Nvidia, die Löten einen fetten Widerstand bei der RTX6000 drauf dann kommen alle karten über 500W. ;D
x-force
2025-03-13, 22:15:56
wie man es dreht und wendet 5080 bleibt bei nicht mal der hälfte des möglichen in bezug auf recheneinheiten!
das war bei entstehung der einteilung mit kepler eine 60er ti und kann per definition keine oberklasse oder high end sein.
historisch und definitorisch betrachtet hat miami absolut recht.
Slipknot79
2025-03-14, 00:18:11
Aber ja, von einer 4090 kommend macht all s außer 5090 keinen sinn
Die 5090 ist nicht mal für 4090 Gamer sinnvoll. (y)
Relex
2025-03-14, 04:44:11
wie man es dreht und wendet 5080 bleibt bei nicht mal der hälfte des möglichen in bezug auf recheneinheiten!
das war bei entstehung der einteilung mit kepler eine 60er ti und kann per definition keine oberklasse oder high end sein.
historisch und definitorisch betrachtet hat miami absolut recht.
Klar, das was du als High End definieren willst, hat sich nach oben verschoben, weil Nvidia neue Leistungskategorien eingeführt hat. Aber trotzdem hat sich das Niveau z.B. bei einer 5080 dadurch nicht verschlechtert.
Wenn Nvidia morgen zwei oder vier Chips zu einem zusammenlötet oder die DIE größe vervielfacht meckerst du auch, dass ne 5080 oder 5070 so weit vom theoretisch machbaren entfernt ist? DAS ist aus meiner Sicht völliger Quatsch.
Vor allem ergibt es schon zweimal keinen Sinn, mehr zu erwarten, wenn die Fertigung gleich bleibt und sich perf/Watt nichtmal geändert haben.
Zumal selbst eine 5090 ja noch lange nicht das theoretisch machbare darstellt. Schon wieder den Jensen Auftritt auf der Bühne als Captain America vergessen :)
Wenn euch Nvidia morgen so einen Chip als 5090 Titan für 50K verkauft, wird die 5090 dann auch zu einer, keine Ahnung, 5020 oder so? Weil relativ gesehen wäre das Teil dann ja nur noch unbrauchbares low end spielzeug oder?
Das unterstreicht doch nur, dass diese Denke die ihr hier versucht anzuwenden einfach nicht funktionieren kann.
Colin MacLaren
2025-03-14, 05:06:46
Nein, das würde vielleicht passen, wenn die 5080 24GB RAM hätte und 10% vor einer 4090 liegen würde, statt 20% dahinter und in Pathtracing noch mehr. Dafür dürfte sie imho dann auch gerne 1.600 EUR kosten. Aber wofür kauft man denn eine neue NVIDIA-GPU, wenn nicht für Pathtracing? Bei den Laptops bekommt man wenigstens 24GB VRAM.
Die 5080 ist die Geforce 2 MX von heute. Halber Chip, halber Speicher, halbe Bandbreite. Nicht mehr und nicht weniger - was ja auch OK ist, die Geforce 2 MX war damals eine gute Value-Karte, ich hatte sie selbst. Aber mir was immer klar, dass mein Kumpel mit der Geforce 2 GTS die doppelten FPS in Quake 3 hat. Die 5080 (oder auch die 9070XT oder 5070 TI) ist die Notlösung, mit der man sich halt über die Zeit rettet, bis es 5090 zu Preisen unter 3K gibt. Wirklich geil fühlt sich das aber zu keiner Zeit an, wenn man 2025 nicht mal Cyberpunk mit paar Texturmods spielen kann, weil der Karte der RAM ausgeht.
Sardaukar.nsn
2025-03-14, 08:02:45
... Die 5080 (oder auch die 9070XT oder 5070 TI) ist die Notlösung, mit der man sich halt über die Zeit rettet, bis es 5090 zu Preisen unter 3K gibt.
Unter 3k? Selbst für 2.329€ ist die Preis/Leistung schlecht, wenn man keine Spezialanwendungen wie VR oder Machine Learning im Sinn hat. Zur 5080 sprechen wir über +100% Preis für vielleicht +50% Leistung.
Im Haushalte habe ich ein 4070 Super und eine 5080. Letztere ist etwas mehr als doppelt so schnell (https://www.3dmark.com/sn/3743440) wie die Lovelace Karte (https://www.3dmark.com/sn/2260591). Zu etwas weniger als den doppeltem Preis. Alles keine echten Schnäppchen, aber da passt das Verhältnis zumindest.
Colin MacLaren
2025-03-14, 08:58:06
Für 2.329 EUR finde ich sie voll in Ordnung. Gehen wir mal von rund 1.500 EUR für den restlichen PC aus, dann reden wir von einem Gesamtpreis von 3.800 vs 2650 EUR, dann passen die Leistung für Frames.
Wie gesagt, ich wäre auch mit einer 4090 Super mit MFG für 2K Straßenpreis zufrieden, oder halt einer 5090 für 2.500 bzw. vielleicht 2.800, wenn es ein gutes Modell wie Suprim, Astral oder Aeorus ist. Aber 3K+ für eine Palit, die nicht mal PTM hat, ist halt übertrieben.
x-force
2025-03-14, 12:00:23
Wenn Nvidia morgen zwei oder vier Chips zu einem zusammenlötet oder die DIE größe vervielfacht meckerst du auch, dass ne 5080 oder 5070 so weit vom theoretisch machbaren entfernt ist? DAS ist aus meiner Sicht völliger Quatsch.
wir sprechen aber über monolithische chips und die daraus resultierenden abstufungen.
wo wir gerade dabei sind... sind single core cpus für dich noch highend? ;)
ich bin gespannt wie folgende fakten durch deine brille aussehen:
die size turing titan: 754nm
die size turing 2060: 445nm
die size blackwell titan: 750nm
die size blackwell 5080: 378nm
die size blackwell 5070: 263nm
Vor allem ergibt es schon zweimal keinen Sinn, mehr zu erwarten, wenn die Fertigung gleich bleibt und sich perf/Watt nichtmal geändert haben.
wir erwarten nicht mehr, sondern nicht weniger!
Wenn euch Nvidia morgen so einen Chip als 5090 Titan für 50K verkauft, wird die 5090 dann auch zu einer, keine Ahnung, 5020 oder so? Weil relativ gesehen wäre das Teil dann ja nur noch unbrauchbares low end spielzeug oder?
das ist konstruierter bullshit.
abgesehen davon definiert der volle chip das high end.
eine 5090 ist dank starker kastration im grunde eine 5080ti und unteres high end.
ein t-shirt wird nicht zum pullover, nur weil man es auf einmal so nennt ;)
sChRaNzA
2025-03-15, 14:56:26
So… Meine Zotac 5080 SOLID OC ist eingebaut. Leistung und Temperaturen sind gut bis ausgezeichnet. Leider leidet die Karte dann dennoch unter (leichtem) Spulenfiepen /-rasseln. Muss da mal in mich gehen wie sehr mich das stört, oder ob ich es ignorieren (lernen) kann.
Prinzenrolle
2025-03-15, 15:14:42
ich bin gespannt wie folgende fakten durch deine brille aussehen:
die size turing titan: 754nm
die size turing 2060: 445nm
die size blackwell titan: 750nm
die size blackwell 5080: 378nm
die size blackwell 5070: 263nm
Und jetzt setze dahinter noch die Chipkosten.:)
das ist konstruierter bullshit.
Bullshitting als verbale Demonstration des Dunning-Kruger-Effekts.:P
x-force
2025-03-15, 16:02:01
Und jetzt setze dahinter noch die Chipkosten.:)
es redet geht nicht um kosten, sondern darum, dass nv seine vorspeise einfach hauptspeise nennt.
Sardaukar.nsn
2025-03-21, 06:54:10
Ich bin jetzt dazu gekommen das neue 450 Watt Bios (https://rog.asus.com/graphics-cards/graphics-cards/rog-astral/rog-astral-rtx5080-o16g-gaming/helpdesk_download/) der Asus Astral OC vom 14.03. auf meiner Prime zu testen. Scheinbar hat man dort jetzt noch einiges optimiert. Es ist durch die neue Lüftersteuerung das leiseste von allen getesteten. Minimum Drehzahl von eh schon niedrigen 700rpm runter auf unter 600rpm. Oben raus funktionieren jetzt die 450 Watt, die Spannungsregelung und Steel Nomad bleibt im Durchschnitt mit über 3,3Ghz stabil. Chapeau! Da hat bei Asus noch jemand richtig Hand angelegt.
Neues Powerlimit: https://i.imgur.com/BvoEHpR.gif
Sehr niedrige Lüfter-Drehzahlen bei mittlerer Last: https://i.imgur.com/2vCIPU0.png
Vollgas: https://www.3dmark.com/3dm/128977209?
https://i.imgur.com/Xr8rcMG.pnghttps://i.imgur.com/hG9hCVA.png
Secret Sauce Bios zum Download und selber testen: https://limewire.com/d/61c220ec-a08f-4838-a221-6bdca862fc10#OCOaihyzIw_i7-z7ALT44n1DmN4EhONep2qJm3SgFz4
Erkenntnis: Wird Zeit das Alphacool mit dem Wasserkühler fertig wird ;)
Dural
2025-04-02, 09:11:49
Habe jetzt auch zugeschlagen, wollte nicht mehr länger warten.
Und was soll ich sagen, Blackwell ist echt ein Monster. Die GPUs ist im gleichen Fertigungsprozess schon ganz klar besser als Ada. Das sieht man Stock nicht sofort, aber mit OC ist das schon eine ganz andere Liga.
Die 9070XT mit selben SI und ähnlicher Die Grösse ist dagegen einfach nur schlecht, und gerade die ersten Versuche mit der 5080 haben mir gezeigt, AMD ist AMD und NV ist NV. Stunden lange musste ich mich mit der 9070XT und dem OC beschäftigen und ausloten was am besten geht... Die 5080 gestern eingebaut, gleich Takt rauf und los, es läuft einfach! Innert kürzester Zeit ausgelotet was so geht. Die GPU Spannung habe ich noch nicht verändert.
Lüfter 70% und GPU @ 3310MHz
Laut GPUZ 3330MHz bei gerade mal 380Watt (3dmark konnte die Daten wie so auch immer nicht auslesen)
https://www.3dmark.com/sw/2087452
Wert der 9070XT laut GPUZ auch was um die 375Watt
https://www.3dmark.com/sw/1949933
Die 5070Ti mit 450W Bios wäre ein OC Monster, NV schränkt ihre Produkte ganz bewusst ein.
x-force
2025-04-02, 11:16:33
Die 5070Ti mit 450W Bios wäre ein OC Monster, NV schränkt ihre Produkte ganz bewusst ein.
sag bescheid, wenn du ein bios mit mehr als 350w siehst ;)
mironicus
2025-04-02, 18:15:16
Review: Dieses Laptop gibt es mit RTX 5080/5090 lieferbar z.B. bei Alternate.
ychJ4G-MxQg
Dural
2025-04-03, 10:28:12
Habe noch etwas am Speicher gespielt.
Da muss man aufpassen, weniger Takt kann auch mal mehr Leistung bedeuten, da scheinen variable timings vorhanden zu sein.
Beste Ergebnisse hatte ich mit 2250MHz, das sind mal eben 1150GB/s und das mit 256Bit.
2100MHz waren immer langsamer als 2000MHz.
https://www.3dmark.com/sw/2091388
Hatte schon Werte mit 10300, aber ohne Hardware Daten.
Die 5080 ist für mich die rundeste Grafikkarte seit Jahren, das einzige was man vielleicht kritisieren könnte sind die 16GB. Aber sonst?
Sardaukar.nsn
2025-04-03, 17:23:10
Guter Takt! In die Richtung schafft meine 1169€ Prime auch: https://www.3dmark.com/3dm/129132432?
Im Vergleich meine Wassergekühlte 3Ghz 4090, welche nach über zwei Jahren fast zum Neupreis verkauft habe. https://www.3dmark.com/3dm/86810540?
Ich stimme dir zu, die 5080 ist einfach eine runde Gaming Grafikkarte. Die 16GB Kritik kann ich auch nicht nachvollziehen und wird in Zukunft auch kein Thema sein. Zu dominant sind die AMD und Nvidia Grafikkarten mit Einheits-16GB Vram. Auf diese quasi Standard Größe werden sich die Software Hersteller wohl längerfristig einstellen müssen.
Radeonfreak
2025-04-03, 17:24:01
Wer verkauft denn ne 4090 für ne 5080? :confused:
Sardaukar.nsn
2025-04-03, 18:10:54
Gab knapp 700€ Cashback. Muss man nicht machen, aber die Preise welche für gebrauchte 4090 bezahlt wurde konnte ich nicht ignorieren.
robbitop
2025-04-03, 18:11:14
Naja für den Preis ist sie nicht schnell genug gegenüber der 5070ti.
redpanther
2025-04-03, 18:27:12
Gab knapp 700€ Cashback. Muss man nicht machen, aber die Preise welche für gebrauchte 4090 bezahlt wurde konnte ich nicht ignorieren.
Für eine 1169€ Grake 700€ Cashback? :freak:
Wo gibts denn sowas, außer beim Roller?
Naja er hat wohl die 4090 für 700€ über 5080 Preis verkauft. ;)
grobi
2025-04-03, 21:12:54
Habe meine Asus TUF RTX 3090 OC für 755€ verkauft bekommen. Da tat mir der Preis für meine RTX 5080 nicht so weh.
Sardaukar.nsn
2025-04-03, 22:00:38
Naja er hat wohl die 4090 für 700€ über 5080 Preis verkauft. ;)
So ist es. Anbei die Einkaufspreise zur UVP. Welche Summen für zwei Jahre alte 4090 bezahlt wurden dürfte ja bekannt sein.
Ich finde beide Grafikkarten von der Gaming Performance "vergleichbar" und keine ernsthaft spürbar schneller oder langsamer.
Was ich im RT-Benchmark aus beiden GPUs rausholen konnte:
4090 3Ghz, 666W Galax HOF Bios, Wasserkühlung: https://www.3dmark.com/3dm/86810083?
5080 3,3Ghz, 450W Astral Bios, bisher noch Luftkühlung: https://www.3dmark.com/3dm/129132432?
10716 vs 10350 im Vergleich zum Wettbewerb: https://www.computerbase.de/artikel/grafikkarten/3dmark-speed-way-benchmark.88644/
Slipknot79
2025-04-04, 03:46:32
Für eine 1169€ Grake 700€ Cashback? :freak:
Wo gibts denn sowas, außer beim Roller?
Er hat kein "cashback" erhalten.
Er hat eine 4090 gekauft und dann zu einem guten Preis verkauft. Soweit ok.
Nun hat er eine 5080 gekauft. Was sie kosten wird, wird er erst wissen, wenn er die 5080 verkauft haben wird.
Mehr steckt auch nicht dahinter.
Wenn du eine 4090 kaufst und zum ca. Einkaufspreis wieder verkaufst, dann war die Karte "gratis".
Wenn du eine 5080 kaufst und zum ca. Einkaufspreis wieder verkaufst, dann war die Karte "gratis".
-> Da kann man gleich bei der 4090 bleiben, mit mehr VRAM und mehr fps.
Realistisch ist aber, dass mit dem release der 6090 die Preise für gebrauchte 4090 und 5080 stark dropen werden. Mit beiden Karten wird man einen Verlust einfahren, mit der 4090 den größeren. Allerdings ist die 4090 dann bereits 5 Jahre alt und man hatte 24GB VRAM und mehr fps.
Cpl. Dwayne Hicks
2025-04-04, 15:02:05
Jlueck jehabt... wa? :freak: Naja, eigentlich nich, war ja doch sehr unwahrscheinlich.
https://i.imgur.com/O3K4pX5.png
dargo
2025-04-05, 09:31:57
Ein sehr begeisterter Nvidia Kunde. :D
XS7JySjCO8A
Ist das eigentlich ein generelles Problem bei der Vapor Chamber bezüglich Einbaulage?
Dural
2025-04-07, 10:46:15
Letzte Woche noch ein Lauf mit 10270 Punkten gehabt:
Core-Takt 3.412 MHz (2.295 MHz)
Durchschnittliche Taktfrequenz 3.327 MHz
Speichertakt 2.250 MHz (1.875 MHz)
Durchschnittliche Speichertaktfrequenz 2.250 MHz
Durchschnittliche Temperatur 60 °C (Lüfter 100%)
https://www.3dmark.com/sw/2094802
Karte zieht so ca. 410Watt in Speed Way.
So von wegen nur Probleme, hatte mit der 9070 XT deutlich mehr Probleme... Bis heute setzt mir die Software das OC der 9070XT immer wieder auf Standard zurück obwohl das System mit den Einstellungen fehlerfrei läuft, ein Spiele hat extreme Nachlade ruckler, die es auf der 5080 nicht gibt usw. (Könnte aber auch was anderes sein da anderes System)
Da wird einfach masslos übertrieben, auch die Geschichte mit den ROPs, Stecker und was alles war. Gerade letzte Woche in Video gesehen von einem Händler der meinte das er bis jetzt keines der Probleme hatte.
dildo4u
2025-04-07, 10:58:31
Jup 3DMark läuft Problemlos kann ich bestätigen.
Was anderes spielt ja auch keine Rolle Hauptsache man hat den längsten.
NTXoUsdSAnA
Troyan
2025-04-07, 11:21:34
Und was will der dicke Typ uns sagen? Habe hier bis auf die Black-Screen Probleme mit meinem LG 2.1 OLED keine Probleme. Und da der OLED bei 2.1 ebenfalls DSC aufgrund der geringen Bandbreite benötigt, tut es auch 1.4.
Ansonsten alles fehlerfrei hier: Keine Abstürze, kein Ruckeln, PCIe 5.0 funktioniert.
dargo
2025-04-07, 13:16:29
Und was will der dicke Typ uns sagen?
Dass Nvidia nicht nur bei Hardware sondern auch Software abbaut.
Und was will der dicke Typ uns sagen? Habe hier bis auf die Black-Screen Probleme mit meinem LG 2.1 OLED keine Probleme. Und da der OLED bei 2.1 ebenfalls DSC aufgrund der geringen Bandbreite benötigt, tut es auch 1.4.
Ansonsten alles fehlerfrei hier: Keine Abstürze, kein Ruckeln, PCIe 5.0 funktioniert.
Was will uns der verwirrte nvidia Mitarbeiter uns hier sagen? Das es mit nvidia keine Probleme gibt, weil er ja auch "keine" hat? ;D
DrFreaK666
2025-04-07, 13:40:50
Hab zu Nvidias Treibern einen eigenen Thread gestartet
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13739297#post13739297
Troyan
2025-04-07, 13:57:01
Was will uns der verwirrte nvidia Mitarbeiter uns hier sagen? Das es mit nvidia keine Probleme gibt, weil er ja auch "keine" hat? ;D
Nun, vielleicht gibt es Probleme, die wenige haben? Bei Millionen Leuten dann aber tausende Threads entstehen?
Spring
2025-04-07, 14:06:59
Was will uns der verwirrte nvidia Mitarbeiter uns hier sagen? Das es mit nvidia keine Probleme gibt, weil er ja auch "keine" hat? ;D
https://i.imgflip.com/9q02kd.jpg
Troyan
2025-04-07, 14:20:23
Lmao, habe mir das Video angesehen. Ja toll, wow. Er geht ins Internet, sucht nach Fehlern und stellt die nach. Beeindruckend. Und dazu benötigte erst ein Multi-Monitor-Setup mit verschiedenen Displays, Hz-Einstellungen etc.
Clickbait-Scheiß sondersgleichen.
Neosix
2025-04-07, 14:41:22
Dir gehts aber gut oder? Das was du beschreibst ist das Szenario was 99% der leute da fahren. Ein Szenario wo man einen schnellen Monitor zum Gamen und einen zweiten für "sonstiges" hat ist ja wohl sehr gängig. Und die Probleme sind seit Wochen, Teilweise Monaten bekannt und Nvidia kriegt es nicht auf die Reihe die zu fixen. Was genau ist daran klickbait musst du mir genau sagen. Ich fand das Video informativ.
Und dafür dass seit Jahren auf AMD rumgehackt wird, dass deren Treiber schlechter als die von Nvidia sind, ist das ein krasser fail und unterstreicht nur, wie verkackt dieser Launch insgesamt ist.
Troyan
2025-04-07, 14:46:26
Dir gehts aber gut oder? Das was du beschreibst ist das Szenario was 99% der leute da fahren. Ein Szenario wo man einen schnellen Monitor zum Gamen und einen zweiten für "sonstiges" hat ist ja wohl sehr gängig. Und die Probleme sind seit Wochen, Teilweise Monaten bekannt und Nvidia kriegt es nicht auf die Reihe die zu fixen. Was genau ist daran klickbait musst du mir genau sagen.
Ich sage null über die Problematik in DIESER Konstellation. Das Video jedoch suggeriert, dass es massive Probleme geben würde. Und das ist nun mal falsch.
Genau das ist Clickbait. Ich muss mir das Video ansehen, um überhaupt zu verstehen, über welche Probleme er redet. Einfaches abgrasen von Klicks von der nVidia-Hate-Community.
Alle die genannten Beispiele funktionieren bei mir mit ein Display einwandfrei.
Sardaukar.nsn
2025-04-07, 17:43:36
Letzte Woche noch ein Lauf mit 10270 Punkten gehabt:
Core-Takt 3.412 MHz (2.295 MHz)
Durchschnittliche Taktfrequenz 3.327 MHz
Speichertakt 2.250 MHz (1.875 MHz)
Durchschnittliche Speichertaktfrequenz 2.250 MHz
Durchschnittliche Temperatur 60 °C (Lüfter 100%)
https://www.3dmark.com/sw/2094802
Top Werte. Über 3,3Ghz unter Last ist schon ne Ansage. Man wird das wohl erst im Herbst/Weihnachtsgeschäft sehen wenn genügen Stückzahlen von allen GPUs vorhanden sind, aber ich bin mir ziemlich sicher die 5080 wird die begehrteste reine Gaming Grafikarte dieser Generation werden. Die ist einfach echt ein rundes Produkt, ohne in die Extreme zu gehen.
robbitop
2025-04-07, 18:53:38
Aber schlechteres P/L als die GPUs darunter und nicht mehr vram.
Die Lücke zwischen der 5090 und der 5080 ist einfach gaga.
Mit 3,3 GHz, also rund 20 Prozent mehr Bums, geht’s fast. :ulol:
MfG
Raff
Neosix
2025-04-07, 19:00:10
Aber schlechteres P/L als die GPUs darunter und nicht mehr vram.
Die Lücke zwischen der 5090 und der 5080 ist einfach gaga.
Ja das mit der schlechteren PL als die 70ti hat mich auch total fertig gemacht, als ich es dank dir realisiert habe. Die 4080 hatte damals wenigstens noch das Argument mehr RAM. Und nach der Preisanpassung war die auch etwa auf dem Niveau der 70ti wenn ich mich nicht irre. Aber die 5080 fehlt einfach beides. Leistung und RAM sind kein alleinstellungsmerkmal mehr :/
robbitop
2025-04-07, 20:08:10
Mit 3,3 GHz, also rund 20 Prozent mehr Bums, geht’s fast. :ulol:
MfG
Raff
Jo wobei das mit der 5070ti auch geht. :)
Palpatin
2025-04-07, 20:45:50
Jo wobei das mit der 5070ti auch geht. :)
Eigentlich sogar besser. Die Asus Prime 5070ti schafft laut Igor 350W und es gab sie zum UVP. Bis zu 3,4 GHZ sollen möglich sein. Die Standard UVP 5080er packen nur 360 Watt. Das dürfte die 15% Vorsprung der 5080 eher noch schrumpfen lassen.
Sardaukar.nsn
2025-04-07, 23:04:51
Das VRAM Thema ist für diese Generation durch. Es gibt halt bei AMD und Nvidia Gaming GPUs diese Einheits-16GB und damit gilt es jetzt auszuhalten.
Die 5080 hat halt den Vollausbau des GB203 (https://www.techpowerup.com/gpu-specs/nvidia-gb203.g1073), die 5070Ti nur den Verschnitt. Das ist natürlich etwas günstiger, aber sicher auch kein Schnäppchen. Ich denke das bei vielen Leuten bei dem Thema auch ein paar Euro extra für die 5080 drin sitzt. Der Sprung auf die kontroverse 5090 ist dann so groß, kommt für viele nicht in Frage.
x-force
2025-04-07, 23:59:19
Jo wobei das mit der 5070ti auch geht. :)
leider nicht.
die 70ti fällt je nach game und settings auf unter 3,1ghz, da 350w nicht reichen.
hab bisher mit zwei verschiedenen karten 3,06ghz und 3,1ghz bei kcd im hauptmenü gesehen.
3,06ghz bei 0,985v führen zu 350w.
die spannung für 3,1ghz bei der besseren karte weiß ich nicht mehr.
nehmen wir an die spannung geht quadratisch in den verbrauch ein und der takt linear:
bei 3,4ghz und 1,07v wären es 446w(!!!).
Um den Stromverbrauch bei einer anderen Taktfrequenz und einer anderen Spannung zu berechnen, müssen wir die Beziehung zwischen Taktfrequenz, Spannung und Verbrauch nutzen. Wie im Problem angegeben, geht die Spannung quadratisch in den Verbrauch ein, und der Takt ist linear.
### Gegebene Werte:
- Bei 3060 MHz und 0,985 V beträgt der Verbrauch 350 W.
- Taktfrequenz bei neuem Zustand: 3400 MHz
- Spannung bei neuem Zustand: 1,07 V
### Rechenweg:
1. **Verhältnis der Taktfrequenzen**:
Die Taktfrequenz beeinflusst den Verbrauch linear. Das bedeutet, dass sich der Verbrauch proportional zur Taktfrequenz verändert. Wenn der Takt um den Faktor \( \frac{f_2}{f_1} \) geändert wird, ändert sich der Verbrauch ebenfalls um denselben Faktor.
\[
\frac{P_2}{P_1} = \frac{f_2}{f_1}
\]
Setzen wir die Werte ein:
\[
\frac{f_2}{f_1} = \frac{3400}{3060} \approx 1,111
\]
2. **Verhältnis der Spannungen**:
Der Stromverbrauch hängt quadratisch von der Spannung ab. Das bedeutet, dass sich der Verbrauch im Verhältnis der quadratischen Spannungen verändert. Das Verhältnis der Spannungen ist:
\[
\frac{P_2}{P_1} = \left( \frac{V_2}{V_1} \right)^2
\]
Setzen wir die Spannungen ein:
\[
\left( \frac{1,07}{0,985} \right)^2 \approx 1,144
\]
3. **Gesamte Veränderung des Verbrauchs**:
Da sowohl die Taktfrequenz als auch die Spannung den Verbrauch beeinflussen, kombinieren wir die beiden Faktoren:
\[
\frac{P_2}{P_1} = \frac{f_2}{f_1} \times \left( \frac{V_2}{V_1} \right)^2
\]
Setzen wir die Werte ein:
\[
\frac{P_2}{P_1} = 1,111 \times 1,144 \approx 1,271
\]
4. **Berechnung des neuen Verbrauchs**:
Der ursprüngliche Verbrauch \( P_1 = 350 \) W. Daher ergibt sich der neue Verbrauch \( P_2 \):
\[
P_2 = P_1 \times 1,271 = 350 \times 1,271 \approx 445,85 \text{ W}
\]
### Ergebnis:
Der Chip würde bei einer Taktfrequenz von 3400 MHz und einer Spannung von 1,07 V etwa **445,85 W** verbrauchen.
es ist hierbei auch zu beachten, dass der strom intern zu groß werden kann bevor die maximale leistung erreicht ist.
das führt in verbindung mit der serienstreuung dazu, dass ich in cp2077 mit der schlechten karte nur 3250mhz bei 1,04v fahren kann, während mit der guten karte 3350mhz bei 1,05v drin waren.
powerlimit in beiden fällen numerisch nicht erreicht, aber perf_reason.
zu beachten ist, dass jeweils der voltage slider auf +100 stand, also 1,07v erlaubt sind.
robbitop
2025-04-08, 05:08:29
Naja wir sprechen hier über
1.) statistisch nicht repräsentativen Stichprobengrößen mit signifikanter Variablität in der „Silizium Qualität“
2.) 3,1 vs 3,3 GHz sind 6 % - das ist mess aber nicht fühlbar
3.) bei 1150€ sprechen wir von 360 W BIOS afaik vs 920€ bei der 5070ti mit 350W bios - gibt auch 5080 mit mehr tdp aber die kosten massivst mehr. Die meisten 5080 dürften 360W sein.
4.) wurde es im gleichen Spiel an der gleichen Stelle gemessen? Auch hier gibt es viel Variabilität
Ich gehe jede Wette ein wenn man obiges 1:1 statistisch korrekt vergleicht ist das alles relativ vernachlässigbar. Vor allem wenn man Perf/€ anschaut. :)
Man kann natürlich jetzt eine 5080 mit 450W BIOS nehmen - aber dann sprechen wir von 1600€ Vs 920€. Für 6% mehr Takt und zusätzlich taktnormiert nochmal 15%.
Aber was man bei beiden gpus auch machen könnte wäre ein shunt mod oder evc. Dann wird man vermutlich wieder auf die 15% zurückkommen die aus dem Chipaufbau kommen.
Sardaukar.nsn
2025-04-08, 06:39:37
@x-force: Danke für die Berechnungen. Die Werte kann ich nach diversen Bios Flash und Benchmarks so bestätigen. Meine Asus 5080 Prime OC lag bei 1169€ und hatte ein 400Watt Bios, inzwischen läuft aber das überarbeitete Asus Astral Bios mit 450W drauf. Dank Dual-Bios Switch ist das auch alles kein großes Thema.
450 Watt Board Power Draw im Benchmark: https://i.imgur.com/g98qWRS.png
Interessant sind auch die minimum Drehzahlen von deutlich unter 700rpm. Hier bei Mittlerer Last von ca. 260 Watt: https://i.imgur.com/sBIMi5m.png
Hier noch mal als Download für Interessierte: https://limewire.com/d/fU5vo#9Vj6yApOtx
x-force
2025-04-08, 12:25:36
Naja wir sprechen hier über
0.) raff sagte 5080er gewinnen 20% durch oc, du sagtest 5070ti ebenfalls
1.) statistisch nicht repräsentativen Stichprobengrößen mit signifikanter Variablität in der „Silizium Qualität“
2.) 3,1 vs 3,3 GHz sind 6 % - das ist mess aber nicht fühlbar
3.) bei 1150€ sprechen wir von 360 W BIOS afaik vs 920€ bei der 5070ti mit 350W bios - gibt auch 5080 mit mehr tdp aber die kosten massivst mehr. Die meisten 5080 dürften 360W sein.
4.) wurde es im gleichen Spiel an der gleichen Stelle gemessen? Auch hier gibt es viel Variabilität
1.) bin ich für solch detailierte infos zur serienstreuung zu realease immer dankbar, die stichprobengröße ist bei 95% der reviews übrigens halb so groß.
2.) glaubst du tatsächlich, dass 27,8% mehr leistungsaufnahme bei 20% mehr einheiten zum gleichen gewinn führt?
praktisch wirkt es sich noch stärker aus, weil der ganze offcore bereich gleich bleibt und der ram durch ein paar mhz nur marginal mehr braucht.
3.) bios flash
4.) ernsthaft? war wie schon geschrieben im hauptmenü ;)
Ich gehe jede Wette ein wenn man obiges 1:1 statistisch korrekt vergleicht
etwas überheblich, oder?
daran ist nichts inkorrekt, n ist lediglich 2 :freak:
Dann wird man vermutlich wieder auf die 15% zurückkommen die aus dem Chipaufbau kommen.
20% ;)
grobi
2025-04-09, 14:29:38
@x-force: Danke für die Berechnungen. Die Werte kann ich nach diversen Bios Flash und Benchmarks so bestätigen. Meine Asus 5080 Prime OC lag bei 1169€ und hatte ein 400Watt Bios, inzwischen läuft aber das überarbeitete Asus Astral Bios mit 450W drauf. Dank Dual-Bios Switch ist das auch alles kein großes Thema.
450 Watt Board Power Draw im Benchmark: https://i.imgur.com/g98qWRS.png
Interessant sind auch die minimum Drehzahlen von deutlich unter 700rpm. Hier bei Mittlerer Last von ca. 260 Watt: https://i.imgur.com/sBIMi5m.png
Hier noch mal als Download für Interessierte: https://limewire.com/d/fU5vo#9Vj6yApOtx
Hab das Astral mal auf meine Tuf RTX 5080 geflasht.
Sardaukar.nsn
2025-04-09, 15:19:40
@grobi: Achte mal auf die Drehzahlen. Bei mir haben sich die minimum rpm noch mal um 100 gesenkt. Asus hat aber auch viel rumgetüftelt um das mit dem problematischen vierten Lüfter der Astral in den Griff zu kriegen.
BigKid
2025-04-18, 10:13:46
Kann man schon etwas zu den Laptop Ablegern sagen ? Mich interessiert hauptsächlich die RTX5080. Erste Benches deuten da auf c.a. +20-25% hin - aber die Frage ist für mich: Wieviel davon ist durch eine höhere TDP erkauft ?
Cpl. Dwayne Hicks
2025-04-23, 11:04:42
Kann man schon etwas zu den Laptop Ablegern sagen ? Mich interessiert hauptsächlich die RTX5080. Erste Benches deuten da auf c.a. +20-25% hin - aber die Frage ist für mich: Wieviel davon ist durch eine höhere TDP erkauft ?
Kann da vielleicht etwas behilflich sein:
Harware basics: Gigabyte AORUS Master 16 (BYH) - 16" 240Hz 2560 x 1600, Ultra 9 275HX, RTX 5080, 32GB/1TB - Win 11 Pro Gaming Notebook (230W max. TDP)
https://www.ple.com.au/products/673853/gigabyte-aorus-master-16-byh-16-240hz-ultra-9-275hx-rtx-5080-32gb1tb-win-11-pro-gaming-notebook
NVIDIA Control Center alles auf standard, Gigabyte GiMATE im "Game Mode" Profil. Fan Profil auf "Performance" ("Turbo" ist ja nur bekloppt laut :freak:). Ai Boost overclocking/tuning Dingens ausgeschaltet (Bringt eh nix, habs mit/ohne probiert)
https://i.imgur.com/hD9QaVp.png
3DMark Ergebnisse:
https://imgur.com/a/dgLaEP2
Mit Fan auf Turbo, paar Treiber Schummeleien geht vielleicht noch +5%... aber wollte erstmal alles moeglichst Standard lassen.
Exxtreme
2025-04-24, 08:48:29
Interessant:
https://www.igorslab.de/lokale-hotspots-auf-rtx-5000-karten-wenn-platinenlayout-und-kuehldesign-nicht-zusammenspielen/
Offenbar könnten alle RTX 50-Karten, mit Ausnahme der RTX 5090, ein Überhitzungsproblem bekommen. Gut, da der Mangel aber schon von Anfang an da ist, dürfte es einfach sein Ersatz zu bekommen.
Kriegsgeier
2025-04-24, 09:20:59
Was genau stört einen an den <80°C110°C bei der PCB? Sind es 180°C? NEIN!
<80°C110°C bei einer PCB ist völlig unbedenklich und deshalb hat es auch beim Design kein Einfluss gehabt. Die Hersteller haben es in Kauf genommen weil UNBEDENKLICH!
Mein Ingenieursherz blutet wenn ein anderer Ingenieur sich über 80°C110°C bei PCB aufregt. Denn, genau dieser Ingenieur MUSS schreiben: es ist völlig unbedenklich von Temperatur her und deswegen auch von Designauslegung her!
Klar will man alles am besten unter 60°C aber ist es nötig? Nein. Höchstens bei den Elkos aber sonst?
Bald regen wir uns auf dass auf der Sonne 5600°C und nicht 5550°C herrschen?
Auch dauerhafte 120°C bei der PCB inkl. VIAS und dünner Kupferschicht wären VÖLLIG unbedenklich! Unschön --> Ja aber wie gesagt: unbedenklich.
Exxtreme
2025-04-24, 09:42:36
Das sind keine <80° C sondern über 107° C.
Kriegsgeier
2025-04-24, 09:43:30
Das sind keine <80° C sondern über 107° C.
Auch 120°C wären völlig unbedenklich.
Würde sogar soweit gehen und sagen: die Karte wird auch 1A laufen mit 150°C auf der PCB-Rückseite.
Lurtz
2025-04-24, 09:56:21
Gut, da der Mangel aber schon von Anfang an da ist, dürfte es einfach sein Ersatz zu bekommen.
Haha, guter Witz :)
Exxtreme
2025-04-24, 10:06:17
Auch 120°C wären völlig unbedenklich.
Würde sogar soweit gehen und sagen: die Karte wird auch 1A laufen mit 150°C auf der PCB-Rückseite.
Solche hohen Temperaturschwankungen sorgen für stärkere Verformungen. Und das kann dann Lötstellen kaputt machen oder gar Risse in der Platine verursachen. Sowas ist nie gut. Und mal ernsthaft, wenn der Fix nur wenige Cent kostet ist das schon dämlich das von vorneherein nicht richtig zu machen.
Das Problem ist das Design, da die VCore Powerstages immer links der GPU angeordnet ist und damit für einen Hotspot im PCB selber sorgt. Und nein, dauerhaft über 90°C im PCB zu haben ist weder gut für das PCB selber (Mikrorisse) noch und erst recht nicht für die Kondensatoren, die recht schnell bei so hohen Temparaturen ihre Wirkung verlieren und das ganze System dadurch instabil wird.
Es sind aber nicht alle Karten betoffen, einige nutzen durchaus die Backplate zum kühlen. Dennoch ist das natürlich ein Problem vor allem für günstige Produkte, die auf wenige Powerstages setzen und das Wärmeleitmaterial unter der Backplate sparen.
Kriegsgeier
2025-04-24, 10:19:14
Das mit den Temperaturschwankungen ist natürlich ein Argument - das stimmt.
Aber die Temperatur selbst ist hier eher unbedenklich.
Klar, weniger ist immer zu begrüßen.
Nein ist sie nicht, ein Kondensator nutzt sich um Potenzen schneller ab bei solch hohen Temparaturen.
Kriegsgeier
2025-04-24, 10:25:50
ja, das stimmt. Aber hier geht es um PCB und VIAs inkl. Kupferleiterbahnen.
Edit: was ich eher bedenklich sehen würde ist die Temperaturänderung, quasi die Dynamik von Kalt auf Warm/Heiß das könnte auf Dauer zum Materialstress führen.
Grafikkarten haben schon eher unangenehme thermische Zyklen. Je geringer ∆t desto besser.
Insbesondere bei den Lötstellen sprechen wir von mehr als der doppelten thermischen Ausdehnung. (∆t 90 K und ∆t 40 K)
Also gilt, je geringer desto besser, insbesondere wenn sich Bereiche unterschiedlich verhalten. (Hotspots) Spannungen und Verzug sind die Folge.
Es folgen also zweierlei Probleme. Die maximal zulässige Betriebstemperatur wird auch unter Laborbedingungen erreicht, es gibt also keinen Spielraum für höhere Umgebungstemperaturen und die Zyklen sind heftiger als mit einfachen Mitteln abwendbar.
ENKORE
2025-04-24, 10:55:53
ja, das stimmt. Aber hier geht es um PCB und VIAs inkl. Kupferleiterbahnen.
Pray tell, was ist denn auf der anderen Seite der Vias? Das wird ja nicht überragend toll gekühlt sein mit einem 50°C Temperaturgradienten von der einen zur anderen Seite der Platine. Gerade bei der Via-Dichte...
Man könnte schon einen Trend zum "Spec-Engineering" ableiten. "Der Stecker hält 9.5A im Datenblatt? Dann gehen wir mal mit 9A real drauf! lol" - "Die Power Stage hat Tjmax 125°C/150°C im Datenblatt? Dann sind 120°C in der Simulation ja safe!" - "Ich muss hier 40A durch die Vias jagen, jedes Via ist laut Tabelle für 10 A gut... also reichen vier!" - "Micron sagt der Speicher da drüebn darf maximal 110 °C haben? Ansys sagt der wird nur 100°C, passt doch!" - und was die dann im Chip engineeren, will man wahrscheinlich nicht so genau wissen.
Irgendwo bezweifle ich schon stark, dass diese Karten so lange leben werden wie ältere Karten. Es würde mich schon sehr überraschen, wenn es 2034(!) noch signifikant viele funktionierende 5080er & Co. gibt. Die meisten 1080 / 1080 Ti leben jedenfalls noch...
Sardaukar.nsn
2025-04-24, 12:13:06
Interessant:
https://www.igorslab.de/lokale-hotspots-auf-rtx-5000-karten-wenn-platinenlayout-und-kuehldesign-nicht-zusammenspielen/
Offenbar könnten alle RTX 50-Karten, mit Ausnahme der RTX 5090, ein Überhitzungsproblem bekommen. Gut, da der Mangel aber schon von Anfang an da ist, dürfte es einfach sein Ersatz zu bekommen.
Hier mal der Alphacool Wasserkühler für die Palit Gaming Pro 5080/5070ti. Da verwendet man auch reichlich Pads für die Rückseite. https://download.alphacool.com/manual/14741_Alphacool_Core_Geforce_RTX_5080-5070Ti_GamingPro_with_Backplate_Manual.pdf
https://i.imgur.com/Ppn7wQt.png
Schade das man bei Palit/Gainward ab Werk daruf verzichet. Meine Asus Prima hat auch auf der Rückseite Pads.
Lurtz
2025-04-24, 13:47:00
Meine Asus Prima hat auch auf der Rückseite Pads.
Sprich da sollte es besser potenziell kühler bleiben?
Sardaukar.nsn
2025-04-24, 14:29:22
Ja, da bin ich ganz zuversichtlich.
Wenn der Alphacool Wasserkühler für die Prime fertig ist, würde ich aber trotzdem noch etwas Putty an den Stellen anbringen die Igor da ausfindig gemacht hat. Insbesondere im Bereich zwischen Chip und Slotblende.
Dann wirds auch hoffentlich was mit den 10k Punkten :) https://www.3dmark.com/3dm/131786728?
https://i.imgur.com/M00QsNC.png
https://i.imgur.com/Jr2LyDd.png
BigKid
2025-04-30, 22:28:35
Kann da vielleicht etwas behilflich sein:
Harware basics: Gigabyte AORUS Master 16 (BYH) - 16" 240Hz 2560 x 1600, Ultra 9 275HX, RTX 5080, 32GB/1TB - Win 11 Pro Gaming Notebook (230W max. TDP)
https://www.ple.com.au/products/673853/gigabyte-aorus-master-16-byh-16-240hz-ultra-9-275hx-rtx-5080-32gb1tb-win-11-pro-gaming-notebook
NVIDIA Control Center alles auf standard, Gigabyte GiMATE im "Game Mode" Profil. Fan Profil auf "Performance" ("Turbo" ist ja nur bekloppt laut :freak:). Ai Boost overclocking/tuning Dingens ausgeschaltet (Bringt eh nix, habs mit/ohne probiert)
https://i.imgur.com/hD9QaVp.png
3DMark Ergebnisse:
https://imgur.com/a/dgLaEP2
Mit Fan auf Turbo, paar Treiber Schummeleien geht vielleicht noch +5%... aber wollte erstmal alles moeglichst Standard lassen.
Ok... Mein 2023er G14 mit RTX4080 kommt auf 15260. Das ist doch ein ordentlicher Sprung... Danke....
(Edit: Graphics Score)
Sardaukar.nsn
2025-05-01, 08:06:16
Asus Astral 5080 - Doom The Dark Ages - https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/66019-rog-astral-geforce-rtx-5080-doom-edition-republic-of-gamers-trifft-doom-the-dark-ages.html
https://www.hardwareluxx.de/images/cdn02/uploads/2025/Apr/nicest_thread_ul/rog_doom_5080_003_3840px.png
https://www.hardwareluxx.de/images/cdn02/uploads/2025/Apr/secure_sensor_r7/rog_doom_5080_006_3840px.png
Cpl. Dwayne Hicks
2025-05-01, 08:48:41
Ok... Mein 2023er G14 mit RTX4080 kommt auf 15260. Das ist doch ein ordentlicher Sprung... Danke....
Cool, ich nehme an deine 15260 sind vom TimeSpy standard?
~+30% haette ich auch nich gedacht. Koennte es auch ein CPU Limit sein? TimeSpy ist ja schon ein etwas aelterer benchmark. Was ist denn dein Graphics score?
BigKid
2025-05-01, 10:38:58
Cool, ich nehme an deine 15260 sind vom TimeSpy standard?
~+30% haette ich auch nich gedacht. Koennte es auch ein CPU Limit sein? TimeSpy ist ja schon ein etwas aelterer benchmark. Was ist denn dein Graphics score?
Das war der Graphics Score :-) und ja Timespy Standard... Ich könnte noch mit Speedway und Firestrike dienen... Firestrike mach ich immer weil ich da Werte bis zu meinen ersten Notebooks für habe...
Asus G14 (2022) mit RTX4080 - Ultimativ (also Mux auf RTX4080 only) , Turbo und am Netz - 3DMark Timespy Standard
3DMark Score 13104.0
Graphics Score 15260.0
Physics Score 7279.0
Graphics Test1 102.85 fps
Graphics Test2 85.02 fps
Physics Test 24.46 fps
Spannend ist nu die Frage: Wieviel vom Zugewinn ist durch höhere Leistungsaufnahme erkauft ... Mehr Leistungsaufnahme ist ja eher uncool (pun intended) - speziell in kleinen/leichten Notebooks.
Armaq
2025-05-01, 12:19:14
Warum sind ausgerechnet die non 5090 der 5000er betroffen? Entweder lese ich falsch, aber so richtig einen Grund kann ich nicht erkennen.
Cpl. Dwayne Hicks
2025-05-01, 12:23:29
Das war der Graphics Score :-) und ja Timespy Standard... Ich könnte noch mit Speedway und Firestrike dienen... Firestrike mach ich immer weil ich da Werte bis zu meinen ersten Notebooks für habe...
Asus G14 (2022) mit RTX4080 - Ultimativ (also Mux auf RTX4080 only) , Turbo und am Netz - 3DMark Timespy Standard
3DMark Score 13104.0
Graphics Score 15260.0
Physics Score 7279.0
Graphics Test 1102.85 fps
Graphics Test 285.02 fps
Physics Test 24.46 fps
Spannend ist nu die Frage: Wieviel vom Zugewinn ist durch höhere Leistungsaufnahme erkauft ... Mehr Leistungsaufnahme ist ja eher uncool (pun intended) - speziell in kleinen/leichten Notebooks.
Ach tho, danke :)
Also bei meinem Laptop sind 175W TDP fuer die GPU vorgesehen (Beim G14 sinds 150W oder?), der Rest wohl fuer die CPU.
Aber ehrlich gesagt verstehe ich das ganze nicht genau, das wird sich wohl dynamisch aendern je nach Anwendung.
Und ja, laut Reviews ist der Gigabyte Aorus Master 16 Laptop, schwer, fett und laut :D Aber deswegen performt er auch aehnlich wie ein Razer Blade 16 mit RTX 5090. :)
https://www.pcgamer.com/hardware/gaming-laptops/gigabyte-aorus-master-16-gaming-laptop-review/
Ich bin jedenfalls zufrieden, zocken kann ich mit Kopfhoerern (aber ohne auch total OK fuer mich in den meisten Spielen), und wirklich "leise" sind gaming laptops sowieso alle nicht. :)
joergg
2025-05-02, 10:16:38
Da ich gerade die Zotac 5080 zurücksenden musste, da sie kein Bildsignal senden wollte, frage ich mich nun, welche neue 5080 ich mir bestellen soll.
Gerade unter dem Aspekt, der von Igor entdeckten Hotspots, frage ich mich: hilft da eine 3,5er Karte mit der etwas voluminöseren Kühllösung oder hat das kaum Einfluss und eine 2,5 Slot Karte ist auch nicht schlechter? Leider hatte Igor zwar erwähnt, dass nicht alle Modelle gleichermaßen betroffen sind, aber diese nicht benannt.
Übertakten ist übrigens für mich irrelevant.
LG, Jörg.
Sardaukar.nsn
2025-05-02, 11:43:19
Ich habe eine einfache Asus 5080 Prime, die hat aber auch Wärmeleitpads auf der Rückseite zur Backplate hin. Eine deutlich größere Gainward Phantom hatte das nicht.
Generell auch kann ich Asus Prime zum UVP auch gerne weiterempfehlen, wenn du kein RGB usw. benötigst.
BigKid
2025-05-04, 09:59:21
Ach tho, danke :)
Also bei meinem Laptop sind 175W TDP fuer die GPU vorgesehen (Beim G14 sinds 150W oder?), der Rest wohl fuer die CPU.
Aber ehrlich gesagt verstehe ich das ganze nicht genau, das wird sich wohl dynamisch aendern je nach Anwendung.
Und ja, laut Reviews ist der Gigabyte Aorus Master 16 Laptop, schwer, fett und laut :D Aber deswegen performt er auch aehnlich wie ein Razer Blade 16 mit RTX 5090. :)
https://www.pcgamer.com/hardware/gaming-laptops/gigabyte-aorus-master-16-gaming-laptop-review/
Ich bin jedenfalls zufrieden, zocken kann ich mit Kopfhoerern (aber ohne auch total OK fuer mich in den meisten Spielen), und wirklich "leise" sind gaming laptops sowieso alle nicht. :)
Ist immer die Frage was man sucht. Ich hab seit langer Zeit einen Desktop und einen Laptop... Fett (und nicht so laut dank guter Lüfter und Kühler) ist bei mir der Desktop/Tower.
Der Laptop muss für mich vor allem transportabel für unterwegs sein und Sofa tauglich. Da bin ich die letzten Jahre beim G14 und G15 gelandet (leider gibts letzteren nicht mehr...). Da hat Asus meinen Sweet Spot getroffen... Die können auch leise wenn man DLSSS und Framerate Limits einsetzt.
Leider hebt das G14 nun preislich zu sehr ab. Mir wäre eine günstigere Variante mit IPS (und sogar ohne mini-Led) bald lieber als OLED und teuer. Mal sehen ob ich noch schwach werde... Muss mal abwarten obs Testberichte gibt die sich speziell das G14 2025 vornehmen...
BlacKi
2025-05-04, 11:49:38
bei den gigabyte karten läuft wohl bei vertikaler montage die soße weg. selbst, oder gerade bei den teuren aorus modellen?
https://www.techpowerup.com/forums/attachments/1746181805279crop2-png.397771/
https://www.techpowerup.com/forums/threads/gigabyte-aorus-rtx-5080-master-starts-leaking-thermal-gel-after-four-weeks-of-light-mmo-gaming.335904/
IceKillFX57
2025-05-04, 12:35:03
auch hier:
https://www.computerbase.de/forum/threads/gigabyte-aorus-rtx-5070-ti-master-gel-laeuft-heraus.2237853/
BlacKi
2025-05-04, 19:50:39
also auch die normale günstige windforce betroffen?
Sardaukar.nsn
2025-06-13, 09:40:29
Diese Woche ist endlich auch der Alphacool Block für die Asus 5080 Prime eingetroffen. Wird wohl ein Stück kürzer werden. Asus hat ja bereits ab Werk Phasenwechsel Pad verwendet, daher kommt hier beim Umbau auch ein Honeywell PTM7950 (https://www.igorslab.de/von-wegen-ueberhypt-honeywell-ptm7950-im-labortest-und-als-game-changer-fuer-grafikkarten/) zum Einsatz.
https://i.imgur.com/kCEyB9X.jpeg
https://i.imgur.com/7bPxRZX.jpeg
https://i.imgur.com/A2NteBD.jpeg
Sardaukar.nsn
2025-06-16, 22:42:52
Luft- vs Wasserkühlung der Asus 5080 Prime @ 450 Watt.
GPU 62.1°C, Memory 58°C @ 3100rpm, 100% fan speed
GPU 48.9°C, Memory 42°C @ Alphacool Watercooler ...gute Werte, aber da hätte ich mir aber noch mehr erhofft.
https://www.3dmark.com/compare/sn/4640808/sn/6833821#
https://i.imgur.com/tAsy3RU.jpeg
Ein paar Bilder vom Umbau: https://imgur.com/a/lH63xmd
Holundermann
2025-06-17, 08:15:27
Kann ich dieses BIOS https://www.techpowerup.com/vgabios/275647/275647 von Zotac auch auf meine 5080 Zotac Solid OC aufspielen? Wenn ja - wie geht das? Die Zotac hat ja einen BIOS Switch und der Kühler verträgt sicher mehr - würde gerne das maximum aus meiner Graka rausholen (können).
Sardaukar.nsn
2025-06-17, 09:26:51
Hier gib es eine Anleitung, ist nicht kompliziert. Mit dem Dual-Bios kannst du eh nicht viel verkehrt machen… https://www.aw-community.com/forum/topic/9848-vbios-flashen-mit-nvflash/
Holundermann
2025-06-17, 09:58:36
Hier gib es eine Anleitung, ist nicht kompliziert. Mit dem Dual-Bios kannst du eh nicht viel verkehrt machen… https://www.aw-community.com/forum/topic/9848-vbios-flashen-mit-nvflash/
Cool, danke für die schnelle Antwort - werde ich mir anschauen und hoffentlich dann auch erfolgreich durchführen.
Übrigens: schöner Umbau deiner Karte - und danke das du uns dabei teilhaben lässt! Auch wenn ich dazu normalerweise nicht Kommentiere - ich schaus mir an und finds schon sehr interessant!
Mayk-Freak
2025-06-17, 10:03:44
Danke für den Bios Link, hab das Bios gerade auf meine 5080 Zotac Solid OC geflasht und es funktioniert einwandfrei endlich hat Zotac auch ein ordentliches Power Bios und man muss nicht das Asus Astral Bios nehmen.
Sardaukar.nsn
2025-06-17, 11:34:08
@Holundermann: Gern geschehen. So ca. alle zwei Jahre steht diese Bastelarbeit an und ich freue mich immer schon drauf. Neu dieses Mal statt Wärmeleitpaste ein Phasenwechsel Pad. https://www.igorslab.de/von-wegen-ueberhypt-honeywell-ptm7950-im-labortest-und-als-game-changer-fuer-grafikkarten/
So richtig bin ich aber noch nicht überzeugt, da die Differenz (Delta) zwischen GPU Temperatur und Wassertemperatur mit bis zu 26°C doch sehr hoch ist. Allerdings hat die 5080 auch nur die halbe Chipfläche wie eine 5090 und hier gehen schon bis zu 450 Watt auf einer relativ kleinen Fläche durch. Bei CPUs ist das ja oft noch ein größeres Thema und wird mit immer kleineren Strukturen auch nicht einfacher.
Holundermann
2025-06-18, 13:46:01
Danke für den Bios Link, hab das Bios gerade auf meine 5080 Zotac Solid OC geflasht und es funktioniert einwandfrei endlich hat Zotac auch ein ordentliches Power Bios und man muss nicht das Asus Astral Bios nehmen.
Ich konnte es auch erfolgreich Flashen - hab mein Silent Bios überschrieben. Nur leider erreiche ich keine Mehrperformance und die ganze Sache wird instabil. Es schaut so aus als würde durch die Mehrabwärme das mehr an Taktfrequenz aufgefressen. Bin erst mal wieder aufs 'amplify' Bios zurück - cool das die Karte dual bios hat.
Zum rumspielen machts schon Spass, werde sicher noch einige Stunden versuchen das maximum raus zu holen mit dem Bios - für den Alltagsbetrieb scheint es mir aber nicht tauglich.
Komischer Nebeneffekt - 3DMark findet kein Display - im Benchmark run seh ich nichts, er läuft aber durch und gibt mir offizielle Punkte.
Danke für die Hilfestellung auf jeden Fall.
Ex3cut3r
2025-08-01, 09:48:26
Ist schon geil, von einer RTX 3080 Ti aus. FG x2-x4 ist ziemlich geil. Läuft zig fach besser als das FSR FG. Und hat auch weniger Artefakte.
https://s1.directupload.eu/images/250801/vxd59jvi.jpg
Rancor
2025-08-01, 10:13:56
FG reduziert die nativen FPS. Das ist in der Tat nicht sehr geil. Ist mir letztens bei meiner 4080 aufgefallen. Hatte ich garnicht so auf dem Schirm.
aufkrawall
2025-08-01, 10:22:32
Das ist nicht mehr so relevant mit DLSS 4, fühlt sich viel besser an als noch zu 3-Zeiten. Problematischer sind da eher die Qualitätsprobleme vom ML-Ansatz, und die können selbst mit 2xFG noch bei >150fps auffallen. Wenn es noch ein Qualitätsupdate bekäme, könnte man es aber wirklich auch bei kritischer Betrachtung als Gamechanger bezeichnen.
robbitop
2025-08-01, 10:28:57
Ich sehe mit DLSS4 FG auch genug Artefakte (aber natürlich viel besser als LSFG). Aber die computational cost ist nicht ohne (insbesondere mit MFG). Also ich reduziere die Settings dann immer so dass ich trotz MFG eine gute inputframerate behalte und dann eine richtig fettige output Framerate. (360 Hz OLED erlaubt da schon MFG nach oben richtig zu "atmen").
@3x3 geile GPU. Bin total neidisch auf alle, die einfach eine GPU kaufen und einbauen können. Mit der Wakü ist das jedesmal ein Schmerz im Hintern. (dafür aber kann mir egal sein welches Modell es ist und ich kann immer volles OC fahren ohne mir um Lärm Gedanken machen zu müssen - trotzdem hätte ich keine Wakü würde ich mir heute keine mehr holen :D)
Blase
2025-08-01, 10:32:32
FG reduziert die nativen FPS. Das ist in der Tat nicht sehr geil. Ist mir letztens bei meiner 4080 aufgefallen. Hatte ich garnicht so auf dem Schirm.
Gab sehr kürzlich ein sehr gutes Video dazu:
EiOVOnMY5jI
Muss man wissen, ja. (M)FG kann aber trotzdem natürlich seine Vorteile in vielen Szenarien ausspielen...
MfG Blase
Ex3cut3r
2025-08-01, 10:33:08
Danke Robbi.
Ja, ist schmerzfrei, außer das ich schockiert war, wie staubig die Asus RTX 3080 Ti dann doch war.
OC, habe ich erstmal + 400 im AB eingestellt, boostet auf Anhieb auf 3,2 ghz. Wie stabil das ist, werde ich am Wochenende merken. X-D
robbitop
2025-08-01, 10:39:09
Jo hab ich bei der 5070ti auch gemacht. Stumpf TDP auf max + ~400 MHz Core Takt + Memoryclock auf Maximum. Rennt stabil auf 3200 MHz. :)
Gab sehr kürzlich ein sehr gutes Video dazu:
https://youtu.be/EiOVOnMY5jI
Muss man wissen, ja. (M)FG kann aber trotzdem natürlich seine Vorteile in vielen Szenarien ausspielen...
MfG Blase
Absolut. Ich sehe, dass FG oft missverstanden wird. FG ist ein Werkzeug im Werkzeuggürtel, welches nicht universell ist sondern in bestimmten Voraussetzungen seine Vorteile ausspielen kann.
IMO ist es ein Werkzeug um (vorausgesetzt man hat einen high refresh rate monitor - IMO wenigstens 165 Hz) die Bewegtschärfe (und damit die BQ) zu erhöhen. Ohne FG muss das Game bereits sehr flüssig sein damit der erhöhte Inputlag nicht zum spürbaren Nachteil wird und auch das Bild sauber bleibt (beides sehr Spielabhängig).
Nvidia empfiehlt Minimum 60@120fps. Damit das funktioniert muss man (compute kostet ~4ms) ohne FG bereits >80 fps haben. Und selbst dann ist das Resultat oft nicht immer nur vorteilhaft.
Wenn man das in Betracht zieht und bereits ordentlich Performancereserven hat, dann ist es ein tolles Werkzeug seinen HRR Monitor ausfahren zu können. Aber rein auf FG FPS zu gucken und zu denken, dass das jetzt ein tolles Spielerlebnis sein muss - da kann man schnell daneben liegen. Insbesondere mit MFG. Schaut man sich ein Review an und sieht da richtig lange Balken hat man den Eindruck. Tja dann teile den Balken mal durch 4 und dann hat man eine grobe Ahnung welche Erfahrung einem bevorstehen wird. (aber halt flüssiger)
Und dazu kommt, dass bei MFG der uplift deutlich kleiner ist weil
1.) deminishing returns
2.) es stehen pro generiertem Frame weniger echte Frames zur Verfügung - und das kostet Qualität
3.) die computational cost sind nochmal höher (was die inputfps nochmal senkt)
Ich schaue bei 4x MFG, dass ich dann bei >300 output fps bei meinem 360 Hz Monitor bin. Dann ist es ganz gut. Aber ob man im Blindtest den Unterschied zu 3x und 2x FG sieht (wo dann ja die input fps wieder höher sind und damit die output fps weniger sinken als dass der multiplikator impliziert)? Sehr sehr deminishing returns wahrscheinlich.
Troyan
2025-08-01, 11:13:40
FG reduziert die nativen FPS. Das ist in der Tat nicht sehr geil. Ist mir letztens bei meiner 4080 aufgefallen. Hatte ich garnicht so auf dem Schirm.
FG reduziert keine "nativen" FPS, wenn man nicht in ein Limit läuft.
robbitop
2025-08-01, 11:16:41
FG reduziert keine "nativen" FPS, wenn man nicht in ein Limit läuft.
FG kostet compute (je nach GPU und Auflösung - im zu erwartbaren Bereich von 2-4 ms in typischen Szenarien) und in der Zeit kann das Frame nicht gerendert werden. Also reduziert es die input fps. ES SEI DENN man ist nicht im GPU Limit (fps limiter oder CPU limit oder VSync limit)
Blase
2025-08-01, 11:42:58
FG reduziert keine "nativen" FPS, wenn man nicht in ein Limit läuft.
Schau dir das von mir verlinkte Video an...
MfG Blase
Exxtreme
2025-08-01, 12:38:59
FG reduziert keine "nativen" FPS, wenn man nicht in ein Limit läuft.
Doch, tut es. FG belastet die Grafikkarte relativ stark und deshalb gibt es immer eine gewisse Reduktion der realen FPS. Das CPU-Limit bzw. ein harter nicht umgehbarer Framelimiter im Spiel müsste schon sehr extrem sein damit das kaum ins Gewicht fällt.
Ihr macht wirklich wegen ~5 Prozent ein Fass auf? :) Von nichts kommt eben nichts. In einer besseren Welt haben wir bald überall 1-Prozent-Regler für das Upsampling anstelle der starren Modi, sodass man das Problem ganz einfach lösen kann: Statt 67 Prozent ("Quality") geht man dann auf 65 und gut.
Schau dir das von mir verlinkte Video an...
Titel und Thumb schreien leider "Ich erzähle Quatsch mit Bias-Soße".
MfG
Raff
robbitop
2025-08-01, 12:59:32
FG kostet keine fixen 5% input framerate (im GPU Limit! und von dem sollte man ausgehen ansonsten fährt man seine GPU nicht aus oder könnte sie sogar undervolten). FG kosten je nach GPU und Auflösung ~2...4 ms. Je nach Framerate kann das aus relativer Sicht (du gibst 5% an) wesentlich mehr sein. 5% wäre es im besten Falle bei 40 fps (und das wäre dann eine sehr sehr günstige Kombination aus Auflösung und GPU grunt).
aufkrawall
2025-08-01, 12:59:35
Weil ein YT-Heini ein Video macht, ist es für einige nun eine ganz neue Erkenntnis, dass <100% Skalierung Verlust von Basis-fps bedeutet. :freak:
robbitop
2025-08-01, 13:01:29
Für Troyan anscheinend schon ^^
------------------------
(Klarstellung: ich hab das Video nicht gesehen aber selbst genug mit FG herumgetestet und gebencht um zu schauen was das in ms kostet in den letzten Monaten. DLSS-FG,MFG, FSR GB und LSFG sowohl mit einer Blackwell als auch einer Ampere als auch mit dem Steam Deck. Weiterhin hat Nvidia selbst auch in einem offiziellen Dokument was basix hier neulich geteilt hat die Kosten in ms für bestimmte Konstellationen aufgeschlüsselt)
Blase
2025-08-01, 13:04:42
Titel und Thumb schreien leider "Ich erzähle Quatsch mit Bias-Soße".
Was macht bzw. misst er falsch, dass seine Zahlen nicht stimmen?
Ich schaue mir das am Wochenende mal an. Ist ja eigentlich schnell gemacht. In zwei, drei Spielen mal ohne FG und dann den selben Ritt mit 2x und 4x. Und die Abweichung zu 2x und 4x ist dann der Reibungsverlust...
Weil ein YT-Heini ein Video macht, ist es für einige nun eine ganz neue Erkenntnis, dass <100% Skalierung Verlust von Basis-fps bedeutet. :freak:
Ich fühl mich mal angesprochen (bin ich wahrscheinlich auch :tongue:). "<100%" ließt sich halt deutlich anders, als eine tatsächlicher Verlust von 20, 30 oder gar mehr Prozent. WENN es denn so ist. Bei 1-5 Prozent würde wahrscheinlich niemand was sagen. Bei 30+ Prozent Verlust...
MfG Blase
MfG Blase
The_Invisible
2025-08-01, 13:12:57
Ihr macht wirklich wegen ~5 Prozent ein Fass auf? :) Von nichts kommt eben nichts. In einer besseren Welt haben wir bald überall 1-Prozent-Regler für das Upsampling anstelle der starren Modi, sodass man das Problem ganz einfach lösen kann: Statt 67 Prozent ("Quality") geht man dann auf 65 und gut.
Bei Nvidia gehts zumindest über die App, 33-100% in 1% Schritten frei konfigurierbar :D
Blase
2025-08-01, 13:23:49
Ach komm, ein quick & dirty Test in Robocop grade gemacht.
114 FPS ohne FG, 170 mit FG. Die Basis FPS bei der FG Variante waren also 85 FPS was etwa 75 Prozent der ursprünglichen FPS sind. Eine deutliche Verringerung, wie im verlinkten Video beschrieben...
Mit mehr Zeit mache ich weitere Tests in anderen Spielen.
EDIT:
Wenn ich schon mal dabei bin... :tongue:
CP2077. 74 FPS ohne FG. Mit 2x FG dann 138 FPS und mit 4x FG dann 250 FPS. Die Basis wird also um 9% (2x) und 12% (4x) verringert. Immer noch deutlich über den hier genannten 5%, aber eine ganz andere Größenordnung als bei Robocop.
MfG Blase
Aber woher kommt die Gewissheit hinsichtlich der Formel "native Fps mal 2 = Bildrate"? Ich frage bewusst ketzerisch, denn ich bin nicht sicher, ob tatsächlich in jedem Fall ein Frame interpoliert wird, oder ob je nach Situation etwas verworfen wird, wenn es dem Pacing dient. Falls es Dokumente gibt, die das im Detail klären, wäre ich sehr am Füllen dieser Detaillücke interessiert.
MfG
Raff
aufkrawall
2025-08-01, 13:43:59
Ich fühl mich mal angesprochen (bin ich wahrscheinlich auch :tongue:). "<100%" ließt sich halt deutlich anders, als eine tatsächlicher Verlust von 20, 30 oder gar mehr Prozent. WENN es denn so ist. Bei 1-5 Prozent würde wahrscheinlich niemand was sagen. Bei 30+ Prozent Verlust...
Ist doch egal? Es zählt nur das Ergebnis in Form von Latenz und Qualität. Bei Ersterer kann man nicht zaubern und schlechtere Skalierung bedeutet immer mehr Latenz, ja. Zumindest isoliert betrachtet. Wenn das Frame Pacing konsistent genug ist und der Input Lag mit Reflex schon arg gedrückt wurde, ist das auch wieder nicht so wild.
Wenn die Skalierung mit einer neuen Version z.B. 3-5% schlechter würde, aber die Qualität deutlich besser, würd ich das ganz klar vorziehen.
Blase
2025-08-01, 13:46:31
...ob tatsächlich in jedem Fall ein Frame interpoliert wird,...
Ist das nicht genau so, wie diese Technik eben funktioniert bzw. was sie macht?!
Aber auch ich lasse mich hier gerne eines Besseren belehren... :tongue:
EDIT:
Ist doch egal? Es zählt nur das Ergebnis in Form von Latenz und Qualität. Bei Ersterer kann man nicht zaubern und schlechtere Skalierung bedeutet immer mehr Latenz, ja. Zumindest isoliert betrachtet. Wenn das Frame Pacing konsistent genug ist und der Input Lag mit Reflex schon arg gedrückt wurde, ist das auch wieder nicht so wild.
Wenn die Skalierung mit einer neuen Version z.B. 3-5% schlechter würde, aber die Qualität deutlich besser, würd ich das ganz klar vorziehen.
Du, ohne Frage ist das so. Bin ich bei dir. Das Ergebnis zählt! Zumindest mir war aber bisher nicht bewusst, dass eben u.U. von der ursprünglichen Framerate so viel "Basis" verloren gehen könnte (!), dass das Ergebnis zwar flüssiger läuft, sich aber gleichzeitig trotzdem träger anfühlt. Es ist eben nicht einfach nur (ursprüngliche) Basis 2x oder 4x. Und der Verlust kann offensichtlich deutlich größer sein als +/- 5 Prozent. WENN ich denn die Technik dahinter richtig verstanden habe :redface:
MfG Blase
Der_Korken
2025-08-01, 14:18:21
Aber woher kommt die Gewissheit hinsichtlich der Formel "native Fps mal 2 = Bildrate"? Ich frage bewusst ketzerisch, denn ich bin nicht sicher, ob tatsächlich in jedem Fall ein Frame interpoliert wird, oder ob je nach Situation etwas verworfen wird, wenn es dem Pacing dient. Falls es Dokumente gibt, die das im Detail klären, wäre ich sehr am Füllen dieser Detaillücke interessiert.
Wenn tatsächlich einige interpolierte Frames weggelassen werden, müsste das Framepacing eine Katastrophe sein. Entweder weil es dann bei der Ausgabe große zeitliche Lücken gibt oder - falls man die Ausgabe der Frames gleichmäßig verteilt - weil es dann große Diskrepanz bei den Latenzen der Frames gibt (d.h. der Versatz zwischen Ausgabe und dem Zeitpunkt, der auf dem Frame zu sehen ist). Ich kann mir gerade nicht vorstellen, wie man technisch sauber bei FG einzelne interpolierte Frames auslassen kann.
Coroner
2025-08-01, 14:38:41
In Diablo 4 betrifft das bei mir aber nur die average-framerate, jedoch nicht die 1% low framerate.
Habe das letztens in D4 in Kyovashad getestet: 3440*1440, DLSS Quality + alle Regler nach rechts inklusive RT und ich lande laut CapFrameX bei 13X fps average und recht genau 80 fps bei den 1% lows. Ich brauche dann um mindestens 240 fps average zu bekommen MFG 4X, die 1% lows bleiben in allen FG-Modi bei besagten ~80 fps.
Selbst wenn es ein wenig average-fps kostet (was imo zu beweisen wäre) juckt mich das dann nicht und es schaut nicht so aus als ob MFG generell die base-framerate verringert.
aufkrawall
2025-08-01, 14:56:21
Hier steigen die 1% low msBetweenDisplayChange per RTSS ermittelt in Stalker 2 mit MFG eindeutig, wenn auch nicht so stark wie die avg.
Coroner
2025-08-01, 16:16:44
Eigentlich sollten sie auch steigen, habe mir gerade mal fix andere benchmark-Werte von anderen Spielen angeguckt. Wie man sieht ist es gar nicht so einfach der hardware richtig unter den Rock zu gucken :lol:.
Aber dass MFG base fps kostet glaube ich noch immer nicht sondern dass es nicht einfach so die framerate verdoppelt sondern der gain geringer ist.
Wobei es eigentlich egal ist, bei einer ausreichenden base fps ist das feature imho ziemlich nice :).
Sardaukar.nsn
2025-08-01, 17:37:55
Danke Robbi.
Ja, ist schmerzfrei, außer das ich schockiert war, wie staubig die Asus RTX 3080 Ti dann doch war.
OC, habe ich erstmal + 400 im AB eingestellt, boostet auf Anhieb auf 3,2 ghz. Wie stabil das ist, werde ich am Wochenende merken. X-D
Klingt plausibel. 3,1-3-2 Ghz machen eigentlich alle mit. +2000 oder 3000 auf den Vram nicht vergessen. Unverständlich warum man ab Werk nicht auf 3Ghz boosten lässt.
Viel Spaß beim Testen.
Ex3cut3r
2025-08-02, 00:19:08
Hmm Control stürtz bei mir jedes mal mit der 5080 komplett ab, wenn RT aktiviert wird. Wasn'n das? So hard, das mein ganzer PC einfriert. Scheint ein bekanntes 50er-Problem zu sein. Echt jetzt? 8 Monate nach Blackwell rls?
aufkrawall
2025-08-02, 08:26:41
Neusten Treiber nicht mitbekommen?
Ex3cut3r
2025-08-02, 10:04:12
Neusten Treiber nicht mitbekommen?
Genau den habe ich doch installiert. Und passiert trotzdem.
aufkrawall
2025-08-02, 10:31:05
Hier läuft's.
Ex3cut3r
2025-08-02, 16:53:53
Schau dir das von mir verlinkte Video an...
MfG Blase
Nimmst du alles für bare Münze was so ein Depp mit Pickel im Gesicht auf Youtube erzählt? Na dann gute Nacht. ;D
Einige müssen echt mal runterkommen mit diesen YouTubern. Wann kommt das nächste Stecker abgebrannt Video?
Blase
2025-08-02, 17:22:10
Nimmst du alles für bare Münze was so ein Depp mit Pickel im Gesicht auf Youtube erzählt? Na dann gute Nacht. ;D
Einige müssen echt mal runterkommen mit diesen YouTubern. Wann kommt das nächste Stecker abgebrannt Video?
Erzähl doch mal, wo er falsch liegt...
MfG Blase
Ex3cut3r
2025-08-02, 17:36:12
Hab’s mir ehrlich gesagt nicht komplett gegeben – solche Videos halte ich einfach nicht für besonders gehaltvoll.
Wenn da wirklich Substanz dran wäre, hätten Seiten wie CB, PCGH, DF & Co. sicher längst was dazu gebracht.
Aber du glaubst ernsthaft einem YouTuber, der kaum aus dem Stimmbruch raus ist und offensichtlich auf Klicks zielt? Und das stellst du dann als die ultimative Wahrheit hin?
Wir sind verloren!
Blase
2025-08-02, 18:30:41
Die Theorie ist doch sehr einfach. FG macht an jedes (!) Frame 1 zusätzliches oder sogar 2 oder 3 zusätzliche (3x bzw. 4x) Bilder dran.
Daraus folgt, dass du eine gegebene Framerate unter (M)FG einfach durch 2, 3 oder 4 teilen musst, um auf die "Base" Framerate zu kommen. Und wenn diese Base Framerate dann von der Framerate abweicht, die ohne (M)FG aber ansonsten identischen Einstellungen vorliegt, hast du die Differenz, die eben (M)FG "kostet". Und hier reden wir nicht nur von einer kleinen 1-5 Prozent Spanne, sondern mitunter von 30+ Prozent oder mehr, die (M)FG "kostet". Dann hast du vielleicht nicht mehr eine recht flüssige Base Framerate oberhalb von 60 FPS, die ja in Sachen Eingabelatenz schon ganz gut ist. Sondern auf einmal eine Base Framerate von 40+, die mittels (M)FG dann in den dreistelligen Bereich hoch katapultiert wird. Fühlt sich vielleicht aber trotzdem deutlich schlechter an als vorher.
Und hier im Faden habe ich spaßeshalber bereits einen schnellen Test von mir gepostet, wo ich das in einem Robocop durchaus nachvollziehen konnte.
Also wenn in der hier genannten Logik kein signifikanter Denkfehler vorliegt, dann "kostet" (M)FG mitunter recht ordentlich. Das disqualifiziert das Feature keineswegs vollständig im Kontext seiner Nutzung. Aber man sollte sich diesen Umstand schon bewusst sein, dass es eben von Titel zu Titel und Einstellung und Einstellung zu deutlichen Unterschieden und "Verlusten" kommen kann.
Nicht mehr und nicht weniger sagt er in seinem Video. Und vielleicht ist das für unsere Gurus hier alles kalter Kaffee. Für mich war das in der beschriebenen Form neu und damit gut zu wissen...
MfG Blase
Rancor
2025-08-02, 18:50:18
Mit dem Steam Leitungsoverlay kann man das jetzt sogar relativ leicht anzeigen lassen.
Blase
2025-08-02, 20:04:11
Mit dem Steam Leitungsoverlay kann man das jetzt sogar relativ leicht anzeigen lassen.
Tatsächlich benutzt er das in seinem Video und laut seiner Aussage nach war das für ihn der Augenöffner. Dann nämlich hat er zum ersten Mal realisiert, dass er "Base" FPS verliert. Bis dahin ist er schlicht davon ausgegangen, dass es einfach nicht immer 2x, 3x oder 4x an Frames sind. Sind es aber - immer. Nur der Ausganswert ist ein anderer, unter Umständen sehr viel tieferer als ohne (M)FG.
Und ich muss genauso gestehen, dass mir das so noch nicht bewusst war bis zu seinem Video. Wahrscheinlich hab ich mir einfach zu wenig Gedanken über die Technik dahinter gemacht. Wie ich noch mit meinem ollen i7-8700K meine damalige 4090 befeuert habe, habe ich FG gerne mitgenommen. Ich war im absoluten CPU Limit in vielen Titeln unterwegs und so habe ich das mehr an Framerate gerne mitgenommen. Mir hat seinerzeit gereicht, dass ich einfach deutlich mehr FPS hatte. Seit dem ich den 7800X3D habe, habe ich FG - oder jetzt mit der 5090 MFG - nicht mehr genutzt. War einfach nicht nötig.
Aber nun weiß ich etwas mehr über die Technik.
Wenn da wirklich Substanz dran wäre, hätten Seiten wie CB, PCGH, DF & Co. sicher längst was dazu gebracht.
Keine Ahnung, ob wirklich keiner von denen das bisher so deutlich gezeigt hat, oder ich nur dieses oder jenes Video verpasst habe. Aber mir ist es egal, ob das für mich dann erstmalig von einem eher unbekanntem YTer kommt oder nicht. Das Video war interessant und aufschlussreich...
MfG Blase
Ex3cut3r
2025-08-02, 21:30:51
Hier läuft's.
Merkwürdig. Crasht hier jedesmal. Tolle Wurst.
Rancor
2025-08-02, 22:39:34
Bei den Mikrorucklern unter SLI ist es auch niemanden aufgefallen, bis Tombman es publik gemacht hat...
Lurtz
2025-08-02, 22:50:09
Wobei das andere Zeiten waren, in der das Konzept Frametimes in der allgemeinen Spielerschaft noch gar nicht verbreitet war (und selbst bei vielen Entwicklern eher nicht :ugly:).
Und SLI hatten - im Gegensatz zu Frame Gen - nur 1336 Leute weltweit. 1300 ausschließlich für 3DMark-Posiererei. Geschätzte Zahlen. ;)
MfG
Raff
robbitop
2025-08-02, 23:32:18
Hättest du wenigstens 1337 Leute geschrieben … ^^
crux2005
2025-08-06, 18:09:34
qyKJW-z0ZAA
;D
ChaosTM
2025-08-06, 19:08:43
Und SLI hatten - im Gegensatz zu Frame Gen - nur 1336 Leute weltweit. 1300 ausschließlich für 3DMark-Posiererei. Geschätzte Zahlen. ;)
MfG
Raff
Könnte hinkommen.
Heutzutage gehts eher um die Signatur Power. Dort sollte zumindest 9950X3D und 5090 stehen.
Ist ok, aber die Graka ist mittlerweile bestenfalls Mittelmaß, nach dem Roman die WD Pro 6000 eingebaut hat. Tombman hätte eine...
Und Daniel hat gar nicht so unrecht. P/L mäßig ist die 80er ziemlich übel
Blase
2025-08-06, 20:12:16
Und Daniel hat gar nicht so unrecht. P/L mäßig ist die 80er ziemlich übel
Bei den US Preisen ist die Argumentation absolut nachvollziehbar. Hier in DE und € sieht die Preislage der 5080 je bedeutend besser aus, so dass das P/L gegenüber der 5070 Ti schon deutlich vertretbarer ausfällt...
MfG Blase
Sardaukar.nsn
2025-08-06, 20:45:56
Bei den US Preisen ist die Argumentation absolut nachvollziehbar. Hier in DE und € sieht die Preislage der 5080 je bedeutend besser aus, so dass das P/L gegenüber der 5070 Ti schon deutlich vertretbarer ausfällt...
MfG Blase
Echte Enthusiasten fahren die Karten doch nicht Stock. Alle Blackwell Chips gehen sehr gut über 3Ghz. Da spielt die Musik.
5080 vs 5070ti @ 3,2Ghz: https://www.3dmark.com/compare/sn/6820673/sn/6964347
ChaosTM
2025-08-06, 21:10:11
Ich nehme an Steel Nomad ist das best Case Scenario für die 5080er. Ein Durchschnittswert über viele Spiele @ Max Overclock wäre da interessanter.
Blase hat natürlich recht.
Der Preisunterschied machts aus.
Mein Informationsstand war/ist da nicht so gut.
Sardaukar.nsn
2025-08-07, 09:07:22
Ich nehme an Steel Nomad ist das best Case Scenario für die 5080er.
Das dürfte aber auch für die 3,2 Ghz 5070ti dann der Bestcase sein. Zeigt aber den deutlichen Unterschied zwischen den beiden Karten, der sich logischerweise auch im Preis widerspiegelt. Aber da darf ja jeder gerne selbst entscheiden wie viel er ausgeben möchte.
Blase
2025-08-07, 09:25:09
Echte Enthusiasten fahren die Karten doch nicht Stock. Alle Blackwell Chips gehen sehr gut über 3Ghz. Da spielt die Musik.
5080 vs 5070ti @ 3,2Ghz: https://www.3dmark.com/compare/sn/6820673/sn/6964347
Ich will dir hier nicht widersprechen, aber der Vergleich auf unterschiedlicher CPU Basis (AMD Ryzen 5 5600X vs. AMD Ryzen 7 5800X3D) sieht zumindest blöd aus.
Laut Leos Launch Analyse der 5070 Ti liegt die 5080 grob 15 Prozent vorne im Schnitt. Kann mir beim besten Willen nicht vorstellen, dass sich dieser Wert verdoppelt, wenn man beide Karten auf 3,2 GHz prügelt...
MfG Blase
gnomi
2025-08-07, 10:25:53
Die 5080 ist einfach speziell hierzulande interessant wegen der hohen Preise von 4090 und 5090.
Kitzelt man alles raus, hat man die beste GPU Performance bei noch vertretbarer Leistungsaufnahme High End bis Enthusiast und weniger Gewissensbisse wegen überhöhter Preise.
Im Gegensatz zur CPU lohnt sich GPU Power auch imho einfach stärker.
Gerade 4K mit Upscaling und FG ist man eben etwas flexibler oben raus.
5070TI ist natürlich die verbreitetere Karte. Dort ist man aber auf Ende 2022 4080er Niveau. Die 5080 dürfte mehr bieten (kommt ja vielleicht mit Super), ist aber schon für den ein oder anderen interessanter.
Blase
2025-08-07, 10:44:31
Du, ich will der 5080 ihre Existenzberechtigung überhaupt nicht absprechen. Wenn das so rüber gekommen ist, dann sorry. Im Gegenteil habe ich ja vorab geschrieben, dass hierzulande der Aufpreis zur 5070 Ti ja durchaus in einem vertretbaren Rahmen liegt (mit dem "gewohnten" Aufschlag in Richtung High End / Enthusiast).
Ich halte die 30+ Prozent Vorsprung gegenüber der 5070 Ti, die Sardaukar.nsn hier anbringt, aber bestenfalls in sehr ausgesuchten Szenarien für realistisch. Es hat ja einen Grund, weswegen die Karte im Launch Review bei +15 Prozent liegt...
MfG Blase
robbitop
2025-08-07, 12:06:22
Naja viel höher taktet die 5080 max OC auch nicht als die 5070ti. Etwa 3200 MHz. Bleiben 20% mehr SMs. Und die skalieren in der Regel nicht mal ganz linear. Aktuell sind es 1030 eur vs 780 eur (jeweils günstigstes Modell laut Geizhals).
Aber dort braucht Nvidia weniger P/L anzusetzen weil es keinen Gegenspieler gibt. Entsprechend sinkt dort P/L.
Sie müsste eigentlich ungefähr 100 EUR günstiger sein damit das P/L gleich ist.
x-force
2025-08-07, 12:11:43
Naja viel höher taktet die 5080 max OC auch nicht als die 5070ti. Etwa 3200 MHz. Bleiben 20% mehr SMs. Und die skalieren in der Regel nicht mal ganz linear.
obendrauf hat die 5070ti auch noch weniger cache und vor allem das knappere power limit.
ne gute 5080 darf 450w vs 350w ziehen.
ChaosTM
2025-08-07, 12:19:35
Das dürfte aber auch für die 3,2 Ghz 5070ti dann der Bestcase sein. Zeigt aber den deutlichen Unterschied zwischen den beiden Karten, der sich logischerweise auch im Preis widerspiegelt. Aber da darf ja jeder gerne selbst entscheiden wie viel er ausgeben möchte.
Ich hab 2,25k für eine 90er rausgehauen und will dir die Karte auch nicht madig machen. Daniels Video war Clickbait der übleren Sorte..
Sardaukar.nsn
2025-08-07, 12:25:13
obendrauf hat die 5070ti auch noch weniger cache und vor allem das knappere power limit.
ne gute 5080 darf 450w vs 350w ziehen.
Im Steel Nomad über 10k nutzt die auch die 450 Watt aus. Aber ist natürlich top end was so in einer 5080 steckt.
https://i.imgur.com/MNEdkXG.jpeg
Alltag in Spielen ist es natürlich deutlich weniger. Am Wochenende habe ich viel Titan Quest 2 gespielt. Dort mit DLSS Q Transformer Model und 1xFG. Etw3a 200 Watt und konstant 120FPS in wunderschöner Grafik, 4K auf dem OLED. FG hätte man sicher noch weglassen können, aber hat beim Spielgefühl für mich wenig geändert.
robbitop
2025-08-07, 12:27:51
obendrauf hat die 5070ti auch noch weniger cache und vor allem das knappere power limit.
ne gute 5080 darf 450w vs 350w ziehen.
Und wie viel mehr Takt liegt bei 450W an? *Ich habe kaum höhere Taktraten in freier Wildbahn als 32xx MHz gesehen zumindest. Selbst wenn es am Ende dann 100 MHz on Top wären reden wir da von 3%. Ich gewinne selbst durch 2000 MHz Memory OC praktisch kaum mehr Geschwindigkeit. GDDR7 hat so viel Bandbreite drauf gepackt (performancenormiert im Vergleich zu Ada), dass der größere Cache zusätzlich zu den 20% durch die SMs nichts bringen wird. Ggf ist er eben für die 20% mehr SMs nötig aber die 70ti wird nicht limitiert durch Cache.
*also ich sehe im obigen Screenshot 3300 MHz. Das sind 50 MHz mehr als auf meiner 70ti (3250 MHz plus minus ein paar 10MHz je nach Spiel- aber wenn wir nach den max Werten gehen sind es 3250…60MHz). Knapp 1,5% mehr Takt.
x-force
2025-08-07, 12:50:19
Und wie viel mehr Takt liegt bei 450W an?
ich hab nur eine 5070ti und die kann ich, obwohl sie auf über 3200mhz bei 1,04v und 350w boostet, auf ~3070mhz bei weniger als 1v drücken.
d.h. im worst case lässt die 5070ti schon 200mhz allein durch zu geringe 350w liegen.
die 70ti wird nicht limitiert durch Cache.
wie kommst du darauf?
mehr cache bringt immer mehr und mit 48mb fehlt 1/3 speicher zu 64mb bei nur 20% weniger recheneinheiten.
robbitop
2025-08-07, 13:26:11
Ich hab es durch Skalierung über rein Memory OC selbst ermittelt. Und weiterhin kann man sich auch anschauen wie viel GFLOPs pro GB/s bei Ada vorliegen und das mit Blackwell vergleichen (Blackwell wird sicher nicht ineffizienter mit der Bandbreite umgehen als der Vorgänger) und man sieht es gab massiv mehr Bandbreite pro GFLOP. (oder rohleistungsnormiert)
Mehr Cache bringt nur mehr wenn die effektive Bandbreite limitiert. Davon ist bei der 70ti genug da. Den mehr Cache gibt es dann für die 80 damit sie auch die 20% zusätzlichen SMs füttern kann. Also bei 84SMs sieht das anders aus als mit 70 SMs.
Naja wir haben ja durch den Screenshot gesehen was bei 450W rauskommt. 3300 MHz max. Bei mir sind es mit 350W bios bei der 5070ti immerhin 3250 MHz.
The_Invisible
2025-08-07, 13:30:25
Sind aber auch schön hohe Wattzahlen für das, meine 4090 läuft durch UV auch im Bereich 300-350 und dürfte dann doch nochmals schneller sein
x-force
2025-08-07, 13:36:18
Den mehr Cache gibt es dann für die 80 damit sie auch die 20% zusätzlichen SMs füttern kann. Also bei 84SMs sieht das anders aus als mit 70 SMs.
ich sehe 1/3 mehr cache für 1/5 mehr einheiten und kann deiner logik daher nicht folgen.
edit:
Mehr Cache bringt nur mehr wenn die effektive Bandbreite limitiert.
du vergisst, dass gewisse berechnungen eine bestimmte menge an speicher benötigen, siehe x3d skalierung. dort hast du einen eindeutigen knick, sobald der workload für ein frame nicht mehr rein passt.
noch ein denkanstoß:
weshalb bricht die 5070ti stärker mit der auflösung ein?
robbitop
2025-08-07, 13:59:35
Du berücksichtigst bei dem Vergleich zwischen mehr Cache und SMs dass die Missrate (Kehrwert der hitrate) nicht proportional abnimmt. Eine Verdoppelung von Cache bringt grob wurzel(2) weniger missrate. Also grob 1,4. Also braucht es viel
mehr zusätzlichen Cache um mehr Rohleistung zu füttern bei gleicher GDDR Bandbreite.
Weiterhin inkludiert die Annahme nicht, dass alle blackwell SKUs überproportional mehr Bandbreite bekommen haben. Der Sprung mit GDDR7 war in Relation zur Leistungssteigerung in der jeweiligen SKU Klasse massiv.
4080: ~15 GB/s pro TFLOP
4070ti Super: ~ 15 GB/s pro TFLOP
5080: ~ 17 GB/s pro TFLOP
5070 ti: ~ 20 GB/s pro TFLOP
Die 70ti schwimmt im Vergleich zu Ada bereits in Bandbreite. Und man kann locker +2000 MHz draufpacken. Also weitere 7%. Knappe 22 GB/s pro TFLOP. Also grob 45% mehr als eine 4080. Der GPU Takt wird durch OC aber gerade mal um grob15% erhöht.
Was den X3D angeht: GPUs haben schon eine ganz andere Charakteristik als CPUs. CPUs sind in Spielen eher latenzlimitiert. GPUs hingegen haben so viele threads in flight dass Bandbreite wichtiger als Latenz ist. Der große LLC bringt CPUs eher einen Vorteil in der durchschnittlichen Zugriffszeit so dass der Kern seltener auf Daten warten muss.
robbitop
2025-08-07, 14:05:32
Sind aber auch schön hohe Wattzahlen für das, meine 4090 läuft durch UV auch im Bereich 300-350 und dürfte dann doch nochmals schneller sein
Jo die 4090 ist die zweitbeste Geforce die man kaufen kann nach der 5090 :) (ein Frevel dass Nvidia ihr künstlich MFG versagt - aber immerhin hat sie smooth motion bekommen vor kurzem)
Blackwell hat anscheinend aus uArch Sicht kaum Änderungen bekommen. Mehr Takt, GDDR7, Softwarefeatures die für Vorgänger künstlich gelockt sind.
Die Leistungsaufnahme interessiert mich nicht wirklich. Wie viel zockt man schon? Durch Undervolting kann ich vielleicht 100W sparen. Das sind pro Zockstunde 3 cent. Pro Woche dann vielleicht 15 ct oder so. Big whoop X-D
x-force
2025-08-07, 14:10:09
ich sage lediglich, dass es einen einfluß geben muss.
sieh es andersrum:
du implizierst auf der 5080 würden auch 48mb*1,2= 57,6mb cache reichen, weil gddr schnell genug ist.
nv verschenkt allerdings keinen wertvollen platz auf dem wafer ;)
robbitop
2025-08-07, 14:12:12
Nein. Ich sage dass die 5070ti nicht limitiert durch die Bandbreite ist und taktnormiert deshalb die 5080 maximal 20% schneller ist durch die 20% extra SMs. Und ich gestehe zu dass bei 84 SMs mehr Cache sinnvoll ist um in kein Bandbreiten limit zu fallen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.