Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5080 Review-Thread
GraphikkartusLongus
2025-02-12, 14:23:19
Glaube ich auf keinen Fall dass die Base PS6 EUR >900,- kosten wird.
Ich weis nicht in welcher Blase du lebst, aber der Großteil der Playstation 6 Käufer wird das nicht bezahlen können.
Die wird nicht mehr wie 499 - 599 € kosten.
Das Groß der PC User kann (teilweise will) sich ebenfalls keine GPU jenseits einer RTX x70 leisten. Ich HOFFE inständig für die Konsoleros, dass es 599€ werden, aber der Euro kratzt immer wieder an der Parität, Trump und Zölle-Wirrwarr, generelle geopolitische Unsicherheiten, usw.... Da kommt garantiert noch mind. eine neue Inflationswelle, die sich auch auf Unterhaltungselektronik auswirken wird, ehe die PS6 draussen is.
GraphikkartusLongus
2025-02-12, 14:26:25
Nein, doch was hat das mit dem Preis zu tun.
Die PS4 war auch schneller wie die PS3 und dennoch günstiger.
;D
kleiner Reminder: "Auch in einigen Städten in Deutschland, Österreich und der Schweiz endete der PS4-Launch mit Chaos und sogar Panik (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwjug4Psnb6LAxVKERAIHQGSCpYQFnoECBQQAQ&url=https%3A%2F%2Fwww.gamepro.de%2Fartikel%2Fplaystation-4-launch-in-europa-mit-verletzten-ausverkauften-kontingenten-und-gelegentlichem-blod%2C3030638.html&usg=AOvVaw3XLbIPD3tHoCUZ2mP5llmB&opi=89978449)."
Oder
Vorverkaufsstart der PS5 entwickelt sich zum reinsten Chaos (https://www.derstandard.at/story/2000120071610/vorverkaufsstart-der-ps5-entwickelt-sich-zum-reinsten-chaos)
dargo
2025-02-12, 14:44:15
Nein, doch was hat das mit dem Preis zu tun.
Die PS4 war auch schneller wie die PS3 und dennoch günstiger.
Nur weil etwas schneller und Moderne ist muss es nicht mehr kosten.
Du verdrehst irgendwie hier die Fakten. Ich habe nirgendwo gesagt die PS6 wird >900€ kosten. Ich habe nur gesagt sie wird sicherlich nicht nur 500-600€ (deine Annahme) kosten weil schon eine PS5 Pro deutlich drüber liegt.
Sardaukar.nsn
2025-02-12, 16:21:12
@OCmylife: Schade das es nicht geklappt hat. Der Heatkiller auf deiner Lovelace Karte ist aber auch zum niederknien. Viel Spaß damit.
@Mythos: Dir auch viel Spaß mit dem 5080 Top-Modell. Die hat doch auch einen 360er Radiator wie die 5090, oder? Sollte damit ja spielend fertig werden.
[MK2]Mythos
2025-02-12, 16:29:30
@OCmylife: Schade das es nicht geklappt hat. Der Heatkiller auf deiner Lovelace Karte ist aber auch zum niederknien. Viel Spaß damit.
@Mythos: Dir auch viel Spaß mit dem 5080 Top-Modell. Die hat doch auch einen 360er Radiator wie die 5090, oder? Sollte damit ja spielend fertig werden.
Jupp, die Lüftersteuerung habe ich noch nicht angerührt weil der Afterburner offenbar noch nicht alles unterstützt. Beim Zocken sehe ich GPU Temperaturen zwischen 37°C (jetzt gerade in SC bei 3,25 Ghz mit 175Watt) und bei Maximalauslastung 48°C-51°C) Macht schon Spaß, das Teil.
GraphikkartusLongus
2025-02-12, 17:17:17
Tjo... des wars endgültig mit den Preisen. Klare Absage an UVP-Modelle auch bei der 70er Serie! Die wird bereits vor Launch an die Marktsituation der 5080 angepasst eingepreist.
MSI GeForce RTX 5070 Ti 16G GAMING TRIO OC wird nun offiziell (beim großen Roten Markt) mit 1169€ gelistet.
HOLLA DIE WALDFEE... nun ist die Seite vom MM nicht mehr auffindbar und dafür listet sie nun Caseking für UNGLAUBLICHE 1359,- !!!! :freak::freak::freak: (nun ja.. dafür steht halt "Hinweis: Alle Preisangaben stehen unter Vorbehalt und sind nicht final!" dabei)
monstar-x
2025-02-12, 17:47:59
Du verdrehst irgendwie hier die Fakten. Ich habe nirgendwo gesagt die PS6 wird >900€ kosten. Ich habe nur gesagt sie wird sicherlich nicht nur 500-600€ (deine Annahme) kosten weil schon eine PS5 Pro deutlich drüber liegt.
Ich verdrehe hier gar nichts, du hast auf meinen Beitrag geantwortet.
Aus dem Kontext schließt sich dass du GraphikkartusLongus zustimmst.
Da ich ihn direkt kommentiert hab und anschließend mich.
Drück dich das nächste mal doch deutlicher aus.
Aber ehrlich was soll das ganze jetzt?! Hast du nichts zu tun?
Wie schon gesagt, wir kennen die Preise nicht alles reine Spekulationen.
Können wir das jetzt gut sein lassen?
Nur fürs Protokoll, in Chronologischer Reihenfolge :D
Zitat von GraphikkartusLongus Beitrag anzeigen
Nachtrag: wer noch immer glaubt/hofft die PS6 unter 900€ (wenn überhaupt unter 1k.. bis 2027 dauerts noch...) launchen zu sehen... ach herrje
Ich:
Glaube ich auf keinen Fall dass die Base PS6 EUR >900,- kosten wird....Die wird nicht mehr wie 499 - 599 € kosten.
Du:
Vergiss es... schau mal wo die PS5 Pro heute liegt. Eine PS6 erwarte ich mit mindestens 32GB wenn nicht sogar 48GB (bei GDDR7 ist man jetzt flexibler beim Speicher). Die hohen Speichermengen sind auch gute Kostentreiber geworden.
dargo
2025-02-12, 17:54:17
Aber ehrlich was soll das ganze jetzt?! Hast du nichts zu tun?
Tatsächlich nicht, ist recht ruhig hier auf Arbeit gerade. :freak:
Colin MacLaren
2025-02-12, 20:57:00
NVFlash für 5000er Serie ist raus (aus dem Bios Update der Astral). Hat jemand eine Gigabyte 5080 mit dem 450W Bios und mag seins backupen?
https://limewire.com/d/4c6a98d3-4e04-419c-b532-97bbaafff65f#v2R42dOpdlyMdC4WaXxRtTHGjUa-fPzSey3NCYYiUhg
Sardaukar.nsn
2025-02-13, 00:04:26
NVFlash für 5000er Serie ist raus (aus dem Bios Update der Astral). Hat jemand eine Gigabyte 5080 mit dem 450W Bios und mag seins backupen?
https://limewire.com/d/4c6a98d3-4e04-419c-b532-97bbaafff65f#v2R42dOpdlyMdC4WaXxRtTHGjUa-fPzSey3NCYYiUhg
Na klar! Darauf habe ich doch nur gewartet :cool:
Dank geht raus an @Staubor aus dem HWluxx das er mir ein Kopie des 450W Waterforce Bios gemacht hat. Ich hatte etwas Bauchschmerzen da die WB ja keine Lüfter(Steuerung) hat, aber hey, no risk no fun. Im Endeffekt überschreibt die Gainward Software wohl die Lüfter und sogar das LED Panel an der Phantom.
Mein Beitrag, Sceenshots, Links hier: https://www.overclock.net/threads/official-nvidia-rtx-5080-owners-club.1814247/page-11?post_id=29426876#post-29426876
Ohne Powerlimits und mit Ausschöpfung des Overclocking Potiential liefert die 5080 ab, aber nimmt sich meinem Test 423 Watt.
Ihr kennt die Eckdaten von 5080 und 5090 und seht wohl auch den Elefant im Raum.
woodsdog
2025-02-13, 07:44:41
naja, 5% mehr 3DMurks bei +80W würd ich jetzt nicht unbedingt als "liefert ab" bezeichnen. Da ist doch die Kotzgrenze längst überschritten.
GraphikkartusLongus
2025-02-13, 09:07:57
Sorry @dargo & @monstar-x... Konnte net ahnen, was mein Kommi anrichtet... Die PS6 is noch mind. 2.5 Jahre weg und jeder darf seine eigenen Spekulationen (mehr is es net, stimmt!) haben. Hat ja auch gar nix mit dem ursprünglichen Thema der 5080 am Hut. Daher: Thema beendet, alles gut? �(man stelle sich das Bild einer Gerstensaftschorle zur Versöhung vor)
Sardaukar.nsn
2025-02-13, 12:14:17
naja, 5% mehr 3DMurks bei +80W würd ich jetzt nicht unbedingt als "liefert ab" bezeichnen. Da ist doch die Kotzgrenze längst überschritten.
Es mir darum die neuen Grenzen auszuloten und da liefert die 5080 einfach im Overclocking und macht mir ne menge Spaß. Mit 9439 Punkten (https://www.3dmark.com/sn/3725145) liegt die 5080 jetzt auch über der Stock 4090 mit 9361 Score (https://www.computerbase.de/artikel/grafikkarten/3dmark-steel-nomad-benchmark.88643/) das Zwischenziel wurde jetzt erreicht.
Jetzt muss ich noch sehen wie ich das mit der Wasserkühlung regle und dann geht vielleicht noch etwas mehr. Mit maximal 450 Watt ist man aber auch noch in einem Bereich der für Stromversorgung inkl. Stecker unproblematisch ist.
dildo4u
2025-02-13, 15:17:53
Avowed nutzt Hardware RT Werte mit einer 5080.
https://www.pcgameshardware.de/Avowed-Spiel-72899/Specials/Review-Test-Release-Benchmarks-Steam-1465450/3
MiamiNice
2025-02-13, 15:38:12
Mit maximal 450 Watt ist man aber auch noch in einem Bereich der für Stromversorgung inkl. Stecker unproblematisch ist.
Nein, bist Du leider nicht. Im worst Case gehen 450 Watt über eine Leitung. Die glüht Dir zwar ein wenig langsamer weg, als bei 600 Watt, aber einen Unterschied macht das im Endergebnis nicht, wenn es drauf ankommt.
Sardaukar.nsn
2025-02-13, 15:44:09
@MiamiNice. Danke für den Hinweis, ich schaue mir das später mal mit einem Infrarot Thermometer an, bin aber immernoch der Meinung das dieses Thema bei der 5080 nicht kritisch ist.
@Topic: Schicker und sehr leiser SFF Build mit Custom Karten
vljh4jIwCsc
Für die Astral Modelle gibt es jetzt ein Bios Update und jetzt funktioniert auch die Sache mit dem 4. Lüfter.
Sardaukar.nsn
2025-02-13, 16:09:30
NVFlash für 5000er Serie ist raus (aus dem Bios Update der Astral). Hat jemand eine Gigabyte 5080 mit dem 450W Bios und mag seins backupen?
https://limewire.com/d/4c6a98d3-4e04-419c-b532-97bbaafff65f#v2R42dOpdlyMdC4WaXxRtTHGjUa-fPzSey3NCYYiUhg
Hier das Flash Tool und das gesucht 450 Watt Bios der Waterforce sowie das neue Astral Quiet Bios mit "nur" 400 Watt.
Funktionieren auf meiner Gainward Phantom beide. Viel Spaß beim testen: https://limewire.com/d/bf44bf44-c5b6-4f34-b725-b83fe56e4bfa#6U_DyEx62lL2FRIJrgN1HwXBJJFOQyhOUsN4m5Rge9Y
Langlay
2025-02-13, 16:51:26
Mein Beitrag, Sceenshots, Links hier: https://www.overclock.net/threads/official-nvidia-rtx-5080-owners-club.1814247/page-11?post_id=29426876#post-29426876
Ohne Powerlimits und mit Ausschöpfung des Overclocking Potiential liefert die 5080 ab, aber nimmt sich meinem Test 423 Watt.
Ihr kennt die Eckdaten von 5080 und 5090 und seht wohl auch den Elefant im Raum.
Rein für die Wissenschaft.
Meine 4090@Stock lasste ja schon relativ gut hinter dir, wenn man die 4090 aber auch "optimiert" liegt die 4090 wieder knapp vorne.
4090 FE Stock 450W PT +0MHz Vmem
https://i.ibb.co/fzwh1YfH/2025-02-13-16-42-41-Einstellungen.png (https://ibb.co/tTr7mMgD)
4090 FE +280MHz Core +1250MHz VMem 450W PT
https://i.ibb.co/9k2xvKMS/2025-02-13-16-45-53-Tech-Power-Up-GPU-Z-2-62-0.png (https://ibb.co/1tKCnySj)
Sardaukar.nsn
2025-02-13, 17:33:00
@Langlay: Nice! Sicher auch von der Lautstärke her ganz prima.
Im HWLuxx gibt es eine Benchmark Thread zu Steel Nomad: https://www.hardwareluxx.de/community/threads/3dmark-steel-nomad-rangliste.1353763/
Slipknot79
2025-02-13, 18:02:13
10958 Pkt mit meiner 4090, dunno wie das möglich war. oO
https://www.3dmark.com/sn/2948392
Langlay
2025-02-13, 18:15:24
10958 Pkt mit meiner 4090, dunno wie das möglich war. oO
https://www.3dmark.com/sn/2948392
Mehr als 450W Powerlimit?
Ich hab auch nur fix einen Benchmark gemacht weils mich als vergleich zu meiner Karte interressiert hat. Also nur fix im Afterburner das Profil gewechselt und den Steel Nomad laufen lassen, mit Zeug im Hintergrund usw..
Also so wie ich normalerweise auch zocken würde.
[MK2]Mythos
2025-02-13, 19:16:04
Meine RTX5080 macht 9200 Punkte @350Watt.
Sardaukar.nsn
2025-02-13, 20:55:30
DF @ 5080 Overclocking
7sEWLRKPDwA
Ich konnte noch ein bisschen quetschen. Mehr geht dann wohl erst mit Wasserkühlung.
Steel Nomad 9535 (https://www.3dmark.com/sn/3743440)
Speed Way 10305 (https://www.3dmark.com/sw/1862649)
ChaosTM
2025-02-13, 21:10:53
Quetsch mal fest :)
TobiWahnKenobi
2025-02-13, 21:18:26
Es mir darum die neuen Grenzen auszuloten und da liefert die 5080 einfach im Overclocking und macht mir ne menge Spaß. Mit 9439 Punkten (https://www.3dmark.com/sn/3725145) liegt die 5080 jetzt auch über der Stock 4090 mit 9361 Score (https://www.computerbase.de/artikel/grafikkarten/3dmark-steel-nomad-benchmark.88643/) das Zwischenziel wurde jetzt erreicht.
Jetzt muss ich noch sehen wie ich das mit der Wasserkühlung regle und dann geht vielleicht noch etwas mehr. Mit maximal 450 Watt ist man aber auch noch in einem Bereich der für Stromversorgung inkl. Stecker unproblematisch ist.
dass du damit irgendwie spaß kreierst, ist doch bei einem spielzeug auch das einzig wichtige. ich hatte im steelnomad allerdings noch nie ein vierstelliges ergebnis.
(..)
mfg
tobi
Slipknot79
2025-02-13, 23:22:06
Mehr als 450W Powerlimit?
Ich hab auch nur fix einen Benchmark gemacht weils mich als vergleich zu meiner Karte interressiert hat. Also nur fix im Afterburner das Profil gewechselt und den Steel Nomad laufen lassen, mit Zeug im Hintergrund usw..
Also so wie ich normalerweise auch zocken würde.
Ja moar als 450W PL, 24/7 setting, aber die GPU ist trotzdem eine Krücke mit 2925MHz. Das can also nicht die Erklärung sein.
Ein "alter" Test noch mit dem 9900k brachte sogar 11024 Punkte.
https://www.3dmark.com/sn/10060
Ich komme aktuell auf diese Werte überhaupt nicht hin.
Aber Hauptsache meine Spiele ballern ca. 10-12% moar fps seit 576.12. Soll mal einer verstehen. (y)
Sardaukar.nsn
2025-02-14, 09:36:07
Mit den meisten Einstellungen und Benchmarks bin ich ja durch und nun kann mit der 5080 ordentlich gespielt werden. Aktuell läuft sie ja im PC vom Sohn, der großer Star Wars Fan ist. Ich habe ihm mal das schon etwas ältere Star Wars Jedi Survivor besorgt und damit hat er aktuell seinen Spaß. Bei Release lief das Spiel nicht gut und hatte erheblich Performance Probleme: https://www.techpowerup.com/review/star-wars-jedi-survivor-benchmark-test-performance-analysis/4.html
3440x1440p bei uns müsste zwischen den beiden hier liegen.
https://i.imgur.com/1f6cuW5.png
https://i.imgur.com/egrEhd7.png
Inzwischen gibt es DLSS und Frame-Gen. Er spielt in 3440x1440p mit 144FPS auf meinem alten Xiaomi 34" Curved. Ich habe über die Nvidia App die neueste DLSS Version (Transformer Modell) eingestellt, dazu in-game alles auf ultra inkl. RT mit DLSS Quality und 1xFG.
Was soll ich sagen, das Spiel läuft butterweich am 141FPS cap und nur 60 - 70% GPU Auslastung. Kühl, leise, Verbrauch 200-250 Watt. Spielgefühl mit X-Box Controller am PC absolut prima, kein Gefühl von erhöhtem Input Lag usw.
https://i.imgur.com/3D4P379.jpeg
Einfach mal so als Real-Life Szenario in dem die 5080 meiner Meinung nach hervorragend funktioniert.
[MK2]Mythos
2025-02-15, 10:02:47
Ich hatte mir extra das Corsair Premium Kabel gekauft um auf Adapterspielchen verzichten zu können. Hatte nach dem Jayztwocents Video ein bisschen Panik.
Aber alles gut bei mir. Weiß = maximale Temperatur = 30,6°C.
https://cdn.discordapp.com/attachments/687185689355354113/1340242903532048385/FLIR_20250214_012614_861.jpg?ex=67b1a5f8&is=67b05478&hm=db58f4eb0dddd4bc1462ec1ae59da57e00b81df66735cc628347bc2268697767&
GraphikkartusLongus
2025-02-17, 15:30:18
Ein "alter" Test noch mit dem 9900k brachte sogar 11024 Punkte.[/url]
:eek: da überleg ich mir lieber noch 2-3 Mal, ob mein 9700K tatsächlich reif für den Ruhestand ist...
Überlege entweder ne 5070Ti (sofern erhältlich) zum 9700K dazu und bei RTX60 dann ganz was Neues, oder bereits jetz mal was neues mit 9700X+5080 zambasteln? ..wobei die CPU-Preis ja auch net gerade fein sind. :rolleyes:
Slipknot79
2025-02-18, 01:18:34
Ich würde an deiner Stelle nicht 3D-Mark heranziehen um zu klären ob die CPU bremst.
Sie bremst garantiert. Ich merke, wie "befreit" sich nun Games anfühlen mit dem 9800X3D vs 9900k. Alles rennt viel smoother, die frametime-graphen sehr flach. Vorallem wenn du RPGs spielst und in Städten unterwex bist, von Aufbau/Wirtschaftssimulationen gar ned angefangen. Aber auch overall alles sehr smooth, Ladezeiten spürbar gestiegen und Schwuppdizität spürbar verbessert.
Um die Frage zu klären ob die CPU bremst oder nicht: Wenn die am Markt aktuell verfügbare "gaming"-CPU 50% schneller ist (Faktor 1,5x im CPU-limit) als deine verbaute CPU (trifft auf 9900k vs 9800X3D zu), dann kannst du die verbaute CPU wegballern und ein neues System bestellen. Spätestens jetzt.
Mit der 50%-Regel spielt der Preis auch eine geringere Rolle. Immerhin war das Teil 5 Jahre verbaut und ich würde mir auch in Zukunft keine Wunder erwarten in Sachen performance plus von CPU-Generation zu CPU-Generation. Ich gehe auch von 5 Jahren aus beim 9800X3D, ob die CPU nun 450 oder 550EUR kostet->gähn.
Bezieht sich auf AAA-games.
GraphikkartusLongus
2025-02-18, 14:55:02
Dachte ich mir ^^ Danke :up:
Exxtreme
2025-02-18, 15:02:27
Noch was Interessantes zu den Blackscreen-Crashes. Da hat eine(r) diese Problematik gehabt und dann kurzerhand das VBIOS einer ASUS Astral 5080 auf eine GB Aorus 5080 draufgeklatscht. Und alle Probleme sind behoben. Anscheinend sind die Spannungen mit dem neuen VBIOS auch ein wenig höher. Und anscheinend gibt es keine Berichte über diese Blackscreen-Problematik bei der ASUS Astral. Sprich, kann sein, dass ASUS das Problem bereits behoben hat. Und bei anderen Herstellern wird es wohl ein VBIOS-Update richten müssen.
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/557200/geforce-grd-57242-feedback-thread-released-21325/3501854/
Colin MacLaren
2025-02-21, 12:54:48
Wie ist das eigentlich mit Founders Editions und Bios-Mods? Vertragen die sich? Und welches Bios nimmt man da am Besten? Die Karten haben ja auch nur 2 Lüfter - dann wäre doch Astral die richtige Walhl, oder?
fizzo
2025-02-23, 23:18:28
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
hq-hq
2025-02-23, 23:47:15
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
:uwoot: schwer zu glauben... so oder so unglaublich
der 8 rops spec bug durch alle Chips :biggrin:
@Slipknot79
du musst es einfach in DX12 laufen lassen nicht in Vulkan?
mit durchschnittlichem OC
4090 steel nomad dx12 ~10000
4090 steel nomad vulkan ~11000
Slipknot79
2025-02-24, 02:08:25
Ok das m8 den Unterschied aus, ya hast recht (y).
Freestaler
2025-02-24, 07:41:00
Oder war die 5080 mit 8 rop weniger geplant (mit reserve für die TI/Super) und dann die 9070xt ungefähr gleich schnell? Ist das evtl das gesuchte Puzzlestück für die verschiebung 9070xt?
Ps: sind gpuz validation online easy fälschbar? Link in der Meldung von vc ist drin.
Linmoum
2025-02-24, 07:58:56
Oder war die 5080 mit 8 rop weniger geplant (mit reserve für die TI/Super) und dann die 9070xt ungefähr gleich schnell? Ist das evtl das gesuchte Puzzlestück für die verschiebung 9070xt?Die 9070XT ist schon laut AMDs eigener Benchmarks deutlich langsamer, in der Realität und unabhängigen Reviews vermutlich noch das ein oder andere Prozent mehr. Von daher ergibt das keinen Sinn, zumal es ja genauso 5090 und 5070Ti im Umlauf gibt, die weniger ROPs haben.
Troyan
2025-02-24, 09:09:02
Oder war die 5080 mit 8 rop weniger geplant (mit reserve für die TI/Super) und dann die 9070xt ungefähr gleich schnell? Ist das evtl das gesuchte Puzzlestück für die verschiebung 9070xt?
Ps: sind gpuz validation online easy fälschbar? Link in der Meldung von vc ist drin.
Na, funktioniert eigentlich nicht. Pro GPC sind es 16 ROPs, offensichtlich jeweils 2x8. Das macht null Sinn nur in einem GPC eine ROP-Partition zu deaktivieren.
Außerdem hat nVidia die Spezifikation ja auch im Whitepaper deutlich kommuniziert.
Dural
2025-02-24, 09:23:14
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
Exxtreme
2025-02-24, 09:28:21
Viel interessanter ist, dass sowohl der Chip wie auch das Bios der Grafikkarte erkennen kann, dass ROPs deaktiviert sind. Das riecht sehr danach, dass man eine ROP-Deaktivierung geplant hat. Solche Erkennungsmechanismen sind ja nicht einfach so drin. Man hat sie explizit eingebaut.
The_Invisible
2025-02-24, 09:39:55
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
KA wie genau die verschiedenen Chips bei TSMC vom Band rollen, wenn aber danach alle durch die gleiche Prüfung gehen und dieser fehlerhaft ist kann schon sein das alles betroffen ist.
@Exxtreme
Wieso sollte das nicht gehen, wenn GPUZ das direkt auslesen kann muss das ja schon bei den Vorgängerchips implementiert worden sein auf Hardwareebene.
BlacKi
2025-02-24, 09:56:54
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
ja, das ist für mich wie ein buch mit sieben siegeln. check ich nicht.
um die rops zu ändern muss doch ein anderes bios drauf sein? könnte man das durch ein einfaches bios update also fixen? aber wie kommen solche falschen biose in den umlauf?
fondness
2025-02-24, 10:01:48
Viel interessanter ist, dass sowohl der Chip wie auch das Bios der Grafikkarte erkennen kann, dass ROPs deaktiviert sind. Das riecht sehr danach, dass man eine ROP-Deaktivierung geplant hat. Solche Erkennungsmechanismen sind ja nicht einfach so drin. Man hat sie explizit eingebaut.
Ja, ich habs ja hinten schonmal gesagt. Würde es nicht zufällig ein Tool geben, dass die ROPs korrekt auslesen kann, würde das niemanden auffallen.
Das solche Chips einfach "durchruztschen" ist unrealistisch, es müssen ja explizit gewisse ROPs deaktiviert werden. Das ist ein aktiver Vorgang der bewusst gemacht wird. Man könnte ja noch sagen man hat die Chips falsch gelabelt. Aber da es keine Karten gibt mit dieser config kann man auch das ausschließen.
dargo
2025-02-24, 10:03:50
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
Ok... jetzt fehlen nur noch die fehlenden ROPs bei der RTX 5070. Steckt da ein System hinter oder kann einfach jemand bei der Fertigung nicht zählen? ;D
ChaosTM
2025-02-24, 10:08:28
First GeForce RTX 5080 discovered with 104 ROPS, 8 missing in action (https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action)
Hat noch gefehlt….
Die feigen Jungs haben sich unerlaubt von der Truppe entfernt. -> Kriegsgericht!
Angiesan
2025-02-24, 10:18:55
Viel interessanter ist, dass sowohl der Chip wie auch das Bios der Grafikkarte erkennen kann, dass ROPs deaktiviert sind. Das riecht sehr danach, dass man eine ROP-Deaktivierung geplant hat. Solche Erkennungsmechanismen sind ja nicht einfach so drin. Man hat sie explizit eingebaut.
Das gibt es doch schon ewig, und konnte man schon .....immer auch mit dem NV Inspektor auslesen. Der gibt auf Wunsch noch viel mehr Details her wie das was man in GPU-Z auslesen kann. Da sehr wahrscheinlich alle Tools direkt auf die NVAPI des NV Treibers zugreifen kann man sehen, dass es das schon ewig gibt und nicht erst seit der 5000er Serie in die Treiber eingebaut ist. Ich denke, dass dies auch zur eindeutigen Erkennung der HW gemacht wird um z.B. Quadros von Geforces zu unterscheiden ;-).
Einfach mal, falls nicht bekannt, auf das NV Logo von NV Inspector clicken und die Zusammenfassung angucken. Da kannst Du auch eine sehr alte Version des Tools verwenden, da bei diesem Zugriff nichts angelernt werden muss oder eine Datenbank gepflegt werden muss sondern nur richtig interpretiert werden muss. Orbmu2k hat das sogar hier mal sehr gut erklärtwenn ich mich recht erinnere.
Exxtreme
2025-02-24, 10:22:40
@Exxtreme
Wieso sollte das nicht gehen, wenn GPUZ das direkt auslesen kann muss das ja schon bei den Vorgängerchips implementiert worden sein auf Hardwareebene.
Nein, das meine ich nicht. Damit so eine ROP-Deaktivierung funktioniert müssen gleich mehrere Instanzen mitspielen. Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen. Sprich, die Logistik hinter dem ist so aufwändig, dass das wohl explizit geplant wurde, dass ROPs deaktiviert werden können. Jetzt ist nur die Frage warum man das gemacht hat. Und hier sind einige Szenarien denkbar.
fondness
2025-02-24, 10:23:16
Das gibt es doch schon ewig, und konnte man schon .....immer auch mit dem NV Inspektor auslesen. Der gibt auf Wunsch noch viel mehr Details her wie das was man in GPU-Z auslesen kann. Da sehr wahrscheinlich alle Tools direkt auf die NVAPI des NV Treibers zugreifen kann man sehen, dass es das schon ewig gibt und nicht erst seit der 5000er Serie in die Treiber eingebaut ist. Ich denke, dass dies auch zur eindeutigen Erkennung der HW gemacht wird um z.B. Quadros von Geforces zu unterscheiden ;-).
Einfach mal, falls nicht bekannt, auf das NV Logo von NV Inspector clicken und die Zusammenfassung angucken. Da kannst Du auch eine sehr alte Version des Tools verwenden, da bei diesem Zugriff nichts angelernt werden muss oder eine Datenbank gepflegt werden muss sondern nur richtig interpretiert werden muss. Orbmu2k hat das sogar hier mal sehr gut erklärtwenn ich mich recht erinnere.
Vielleicht haben sie in Software einen ungewollten "Bug", nämlich dass die ROPs diesmal korrekt angezeigt werden. :D
x-force
2025-02-24, 10:30:15
Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen.
"muss"?!
es braucht nicht mehr als einen treiber, wenn du dich an die alten quadros oder firepro/gl erinnerst.
alternativ gabs auch bios mod und lötkolben.
was nv on top einbaut, lasert, oder hinzufügt, ist nicht automatisch notwendig.
fizzo
2025-02-24, 10:39:24
Also ganz komische Sache mit den ROP :rolleyes:
Durch alle Grafikkarten, alles Chips... Es ist mir ein Rätsel wie so was passieren kann. Gerade bei der 5080 die einen vollen Chip verwendet, der Chip somit ja auf 100% Funktion getestet werden muss.
Das schreit ja fast nach Design-Fehler. Aber wie so den bei nur 0,5%
Und warum hat NVIDIA bei diesen 0,5% nur von der 5090/5070ti gesprochen? Salamitaktik?
Dural
2025-02-24, 10:59:41
Vielleicht auch ein Fake, bis jetzt ja nur eine 5080?
Na NV hat mittlerweile so viele verschiede teildeaktivierte Chips, oft sogar unter gleichen Namen. Da dürfte der Treiber einfach ziemlich breit aufgestellt sein.
The_Invisible
2025-02-24, 11:29:32
Nein, das meine ich nicht. Damit so eine ROP-Deaktivierung funktioniert müssen gleich mehrere Instanzen mitspielen. Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen. Sprich, die Logistik hinter dem ist so aufwändig, dass das wohl explizit geplant wurde, dass ROPs deaktiviert werden können. Jetzt ist nur die Frage warum man das gemacht hat. Und hier sind einige Szenarien denkbar.
Muss man doch sowieso haben wegen Salvage.
Hört sich einfach nach einer überhasteten Produktion an wo man schnell ein paar Karten rausbringen musste, passt ja auch zur aktuellen Situation.
BlacKi
2025-02-24, 12:27:07
stammen die karten aus erster produktion sozusagen eine inoffizielle rev1.0 und die karten nach haben mehr rops bekommen, weil die yields höher ausfallen? sozusagen, alle neuen chargen sind rev 2.0?
Troyan
2025-02-24, 12:40:56
stammen die karten aus erster produktion sozusagen eine inoffizielle rev1.0 und die karten nach haben mehr rops bekommen, weil die yields höher ausfallen? sozusagen, alle neuen chargen sind rev 2.0?
Nein, nVidia hat doch offiziell kommuniziert, wie viele ROPs die Karten haben sollen. Ist also ein Produktionsfehler und muss vom Händler korrigiert werden.
nVidia müsste also regulär die Spezifikation ändern.
OgrEGT
2025-02-24, 12:42:27
stammen die karten aus erster produktion sozusagen eine inoffizielle rev1.0 und die karten nach haben mehr rops bekommen, weil die yields höher ausfallen? sozusagen, alle neuen chargen sind rev 2.0?
Wenn eine ganze Charge betroffen ist/war dann müssten doch mehr als nur 0,5% der Karten die ausgeliefert wurden reduzierte ROPs aufweisen...
Exxtreme
2025-02-24, 12:44:48
Muss man doch sowieso haben wegen Salvage.
Hört sich einfach nach einer überhasteten Produktion an wo man schnell ein paar Karten rausbringen musste, passt ja auch zur aktuellen Situation.
Wenn es wirklich nur 0,5% der ausgelieferten Chips sind dann ist das unwahrscheinlich, dass eine überhastete Produktion der Grund ist. Wegen 0,5% macht man so einen Terz nicht. Sieht für mich eher nach einem Produktionsfehler aus, der durchgerutscht ist weil niemand damit rechnete. Eventuell sind die deaktivierten ROPs nichteinmal defekt. Dann könnte man das auch eventuell mit einem VBios-Update lösen. Gut, wenn sie "in Hardware" deaktiviert wurden dann kann man wohl nichts machen ausser zurückschicken.
Palpatin
2025-02-24, 15:25:09
Wenn es wirklich nur 0,5% der ausgelieferten Chips sind dann ist das unwahrscheinlich, dass eine überhastete Produktion der Grund ist. Wegen 0,5% macht man so einen Terz nicht.
Warum nur 0,5% ? Bisher nur ein Fall bekannt? :weg:
Exxtreme
2025-02-24, 15:29:53
Warum nur 0,5% ? Bisher nur ein Fall bekannt? :weg:
Weltweit wurden ja nur 200 Karten verkauft. Dann wäre ein Fall 0,5%. ;D
Neee, Spaß. Diese Angabe stammt von Nvidia, wenn auch nur für 5070Ti- und 5090-Karten. Dürfte aber unwahrscheinlich sein, dass das hier anders gelagert ist.
Dimon
2025-02-24, 17:15:06
"muss"?!
es braucht nicht mehr als einen treiber, wenn du dich an die alten quadros oder firepro/gl erinnerst.
alternativ gabs auch bios mod und lötkolben.
was nv on top einbaut, lasert, oder hinzufügt, ist nicht automatisch notwendig.
Ich bin auch der meinung das dies per vbios gemacht werden muss, auch die ram Verdoppelung erfordert so ein update.
Ich kann doch keinen vollen AD102 chip nehmen und auf eine RTX 4090 draufpappen, der würde doch nur die programmierten erkennen.
Angiesan
2025-02-24, 17:47:28
Nein, das meine ich nicht. Damit so eine ROP-Deaktivierung funktioniert müssen gleich mehrere Instanzen mitspielen. Im Chip selbst muss das individuell pro Chip(!) gemacht werden, dann muss das VBios eine Erkennungsroutine haben. Und dann müssen wohl auch noch die Treiber mitspielen. Sprich, die Logistik hinter dem ist so aufwändig, dass das wohl explizit geplant wurde, dass ROPs deaktiviert werden können. Jetzt ist nur die Frage warum man das gemacht hat. Und hier sind einige Szenarien denkbar.
Dann hatte ich dich auch falsch verstanden, ja das ist nicht nur möglich sondern sehr wahrscheinlich. Kann mir gut vorstellen, dass es da auch wieder so etwas wie eine 5070TI Super oder was auch immer geben könnte, um die Resteverwertung perfekt preislich abzustimmen ;-)
Monsta
2025-02-24, 17:51:37
Hier gibt es nich viel zu Rätseln. Nvidia ist mal wieder beim Bescheissen erwischt worden. Nicht mehr und nicht weniger.
Exakt. Die löten defekte Chips drauf, die zufälligerweise allesamt 8 ROPs zu wenig haben und ohne vBIOS/Treiberanpassung trotzdem 1A laufen? Never...
fondness
2025-02-24, 18:57:07
Don't worry bros, with RTX 60 Nvidia will hide the ROP count after they hid hotspot temperature with RTX 50.
You will never see the problem and you will accept it
https://x.com/Olrak29_/status/1893197173296153036?t=KFqn29VEQwu5pBrktIrRDg&s=19
Lol ;D
Freestaler
2025-02-24, 19:09:43
Kann man die ROP den nicht per AI dazwischen schieben? Geht doch sicher auch.
Gibt Auffälligkeiten bei den Seriennummern oder so was? Sowas wie ES bei den CPU früher, die an die Hersteller der Systeme gingen aber auch noch nicht mit vollem Takt liefen?
Dimon
2025-02-24, 19:34:23
Kann man die ROP den nicht per AI dazwischen schieben? Geht soch sicher auch.
Gibt Auffälligkeiten bei den Seriennummern oder so was? Sowas wie ES bei den CPU früher, die an die Hersteller der Systeme gingen aber auch noch nicht mit vollem Takt liefen?
ES wäre eine Erklärung. Die haben die bestimmt umgelabelt weil so wenig einheiten verfügbar sind :biggrin:
fondness
2025-02-24, 19:58:03
Exakt. Die löten defekte Chips drauf, die zufälligerweise allesamt 8 ROPs zu wenig haben und ohne vBIOS/Treiberanpassung trotzdem 1A laufen? Never...
Ja ich bin über die gutglaubigkeit hier auch erstaunt.
crux2005
2025-02-24, 20:04:01
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
https://i.imgur.com/aBmJJgy.jpeg
https://www.youtube.com/watch?v=YpYjWxwHv4U&t=3772s
Jetzt müsste dir RTX 5080 nur noch für MSRP lieferbar sein. Aber die Werte wundern mich trotzdem.
Disco_STFU
2025-02-24, 20:05:34
Ja ich bin über die gutglaubigkeit hier auch erstaunt.
War doch damals bei der GTX 970 auch so...
Natürlich hat Nvidia AUSVERSEHEN vergessen zu erwähnen dass 0,5GB Vram langsam angebunden sind...
N A T Ü R L I C H:rolleyes:
Ravenhearth
2025-02-24, 20:55:11
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
[...]
Jetzt müsste dir RTX 5080 nur noch für MSRP lieferbar sein. Aber die Werte wundern mich trotzdem.
Ja klar, sie nehmen $900 für die 5070 Ti an und $999 für die 5080, macht keinen Sinn
user77
2025-02-24, 21:05:33
MSRP Vergleiche sind einfach Müll, wenn die Karten 25-50% höher Verkauft werden.
ENKORE
2025-02-24, 21:17:53
Ja klar, sie nehmen $900 für die 5070 Ti an und $999 für die 5080, macht keinen Sinn
Entweder rechne ich mit MSRP (;D) oder mit Straßenpreisen, beides vermischen ist dumm.
Sardaukar.nsn
2025-02-25, 08:18:00
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
Ein paar Custom Karten und die FEs werden doch zum MSRP verkauft. Ich musst zwar zwei Wochen auf Lieferung warten, aber die Prime läuft bei mir ziemlich gut. Diese ganzen bisher angesprochenen Blackwell Probleme treten hier nicht auf. Der gut verkauften 4090 trauere ich nicht nach.
Exxtreme
2025-02-25, 13:57:02
Was die Problematik mit plötzlich schwarz werdenden Monitoren angeht, es wird schon ein mögliches VBIOS-Update angedeutet:
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/557655/geforce-grd-57247-feedback-thread-released-22025/3502723/
dargo
2025-03-02, 07:12:56
Neues Futter von GN.
PEXYZgVfOBM
dildo4u
2025-03-02, 09:58:48
Laut DF hat die RTX 5080 das beste Preisleistungsverhältnis von den neuen Karten:
https://i.imgur.com/aBmJJgy.jpeg
https://www.youtube.com/watch?v=YpYjWxwHv4U&t=3772s
Jetzt müsste dir RTX 5080 nur noch für MSRP lieferbar sein. Aber die Werte wundern mich trotzdem.
Die Grafik ist Blödsinn da sie nur eine Karte an den Marktpreis anpassen.
5070TI hat die beste Preis/Leistung wenn alle ihre UVP Erreichen.
5080 kosten aktuell über 50% mher für+ 15% Leistung.
crux2005
2025-03-12, 23:03:57
h4w_aObRzCc
This new GTX 580 :biggrin:
Troyan
2025-03-12, 23:31:47
Cool. Fetter Typ regt sich über was auf, was ihn seit Jahren nicht interessiert hat.
ChaosTM
2025-03-13, 07:33:17
So fett ist Steve auch wieder nicht ;)
Die Sachen muss man ansprechen (dürfen).
DrFreaK666
2025-03-13, 08:10:54
So fett ist Steve auch wieder nicht ;)
Die Sachen muss man ansprechen (dürfen).
Nein, nur wenn AMD scheiße baut
Disconnected
2025-03-13, 11:07:14
Der allseits bekannte NVIDIA Engineer arbeitet noch immer dort:
pCyNp8aPcsY
DrFreaK666
2025-03-13, 11:14:57
Da finde ich das witziger
5q5JfLTcLdQ
Sardaukar.nsn
2025-03-13, 11:33:21
Ändert trotzdem nichts daran das die 5080 aktuell die beste Gaming Grafikkarte ist. Eine völlig andere Situation als noch beim Lovelace Launch mit 4090/4080.
Damals war die 4090 klar die bessere Karte und nicht ohne Grund so beliebt. Heute ist sorgt die 5090 mit der hohen TDP und gleichzeitig zu wenig Powerlimit, Stecker-Problematik und miesem P/L Verhältnis für schlechte Stimmung.
Für die Perspektive als machine learning und KI Werkzeug mag das anders sein, aber als Gaming GPU scheint die 5090 selbst zu UVP wenig attraktiv.
Die RTX 5080 ist gut, aber verglichen mit 2022 hat sich die VRAM-Thematik nicht zum Guten für 16er-Karten entwickelt. Eine RTX 5090 ist brachial, wie eine RTX 4090 einst (eigentlich immer noch), lässt sich aber mit ein paar Handgriffen zügeln. Dann erhält man ein effizientes Kraftpaket, das für GB203 unerreichbar ist. Preise völlig ausgeklammert.
MfG
Raff
MiamiNice
2025-03-13, 11:47:24
Ich kann das nicht fühlen. Trotz all dieser Probleme ist die 5080 trotzdem nur die Hälfte einer 5090. Schon von der reinen HW her. 5080 fühlt sich daher maximal nach einer Mid Range Karte für mich an. Völlig unter meiner Würde und der meines Babys. Das Teil könnte auch 5060 heißen, so ungefähr rangiert eine 5080 hier bei mir im Kopf. Da bekomme ich maximal Taschenrechner Vibes.
Ist halt nicht jeder so ein Großbekommer wie du. ;)
Immerhin erhält man auf der Geforce RTX 5080 direkt zum Start die "Full Fat"-Konfektion, sofern man die so nennen kann. :) Also GB203-400, keine stillgelegten Einheiten, flotter GDDR7. Psychologisch wertvoll. Bei RTX 5090 und RTX 4090 erhalten Kunden nur beschnittenen "Abfall" - geiler Abfall, aber eben nicht das volle Paket.
MfG
Raff
MiamiNice
2025-03-13, 12:02:30
Da ist was dran. Aber trotzdem ist 50 Prozent weniger alles, halt keine 5080. Und das schlägt psychologisch noch viel härter zu. Zumindest hier.
In einer normalen Welt wäre das Ding ne 5070 oder so was in der Art. Wirst Du besser wissen als ich. Und für mich bleibt die das auch, egal was NV da auf den Karton schreibt. Ich will so etwas, Midrange, nicht in meinem PC.
Troyan
2025-03-13, 12:12:55
So fett ist Steve auch wieder nicht ;)
Die Sachen muss man ansprechen (dürfen).
Man muss die richtige Person dafür sein. Jemand, dem das ganze seit Jahren nicht interessiert, macht ein Video aus genau einem Grund: Clickbait.
Und da man mit nVidia-Hass bei Youtube Geld verdienen kann, macht man eben so ein Video.
Verdienst du mit deinem Hass hier auch Geld?
Disconnected
2025-03-13, 13:22:42
Die Welt ist so grausam, alle hassen NVIDIA.:usad:
Sardaukar.nsn
2025-03-13, 15:10:35
Trotz Einsatz von doppelt so viel Chipfläche, VRAM, und eher 2-3 fachem Preis kann sich eine 5090 nur optimistisch gesehen 30-50% von der 5080 absetzten. Das passt für mich nicht gut zusammen, darf aber natürlich jeder gerne sehen wie er will. Für meine Asus 5080 habe ich aber auch nur die UVP von 1169€ bezahlt.
Bin gerade noch im Dienst, aber gleich erstmal checken wie das neue Titan Quest 2 damit in 4K läuft. Doom The Dark Ages ist der nächste 4K Titel auf den ich mich freue. Ich denke das wird alles gut klappen, freue mich aber schon aufs selber testen.
MiamiNice
2025-03-13, 15:17:36
Trotz Einsatz von doppelt so viel Chipfläche, VRAM, und eher 2-3 fachem Preis kann sich eine 5090 nur optimistisch gesehen 30-50% von der 5080 absetzten.
Jetzt und in 4k. Auf 5k sieht das schon anders aus, auf 8k ebenfalls, in HMDs ganz besonders, neueren Games. Aber das ist alles nicht der Punkt. Eine halbe 5090 ist keine 5080, sondern eine 5060/5070 mit fehlerhaften Aufdruck auf den Karton. Das ist IMO die Abzock Karte von NV. Midrange zum High End Enthusiasten Preis.
Sardaukar.nsn
2025-03-13, 15:33:46
Deine Sicht, darfst du gerne so sehen.
Bei mir läuft die 5080 Prime für 1169€ hervorragend. Möchte ich dadrauf ein mittleres Performance Upgrade haben, reden wir hier aktuell über eine ca. 3000€ Grafikkarte. Da wirds für mich dann richtig irrational. Eigentlich aber auch schon bei einer 5090 FE zur UVP, die aber eh nicht zu bekommen ist.
Was da auf den Karton steht, gefühltes Produktsegment usw. spielt da für mich viel weniger eine Rolle als ein klares Preis/Leistung Verhältnis. Und da steht die 5080 für mich gut da. Einen Schritt noch oben (5090) oder nach unten (5070ti) zu gehen, scheint mir unattraktiv.
MiamiNice
2025-03-13, 15:39:33
Ich kann Deinen Standpunkt durchaus verstehen und natürlich ist das nur meine Meinung, die nur für mich relevant ist. Selbstverständlich.
Armaq
2025-03-13, 17:42:45
Ändert trotzdem nichts daran das die 5080 aktuell die beste Gaming Grafikkarte ist. Eine völlig andere Situation als noch beim Lovelace Launch mit 4090/4080.
Damals war die 4090 klar die bessere Karte und nicht ohne Grund so beliebt. Heute ist sorgt die 5090 mit der hohen TDP und gleichzeitig zu wenig Powerlimit, Stecker-Problematik und miesem P/L Verhältnis für schlechte Stimmung.
Für die Perspektive als machine learning und KI Werkzeug mag das anders sein, aber als Gaming GPU scheint die 5090 selbst zu UVP wenig attraktiv.
Da stimme ich dir zu. Wenn man sich nur Gaming ansieht ist die 5080 der "Top Dog". Die 5090 macht vll. noch für VR Lover Sinn, aber selbst in 4k Gaming ist die 5080 noch okay (Texturmods vll nicht mehr).
Allerdings kannst du die 5090 eben auch genau für deinen Fall nutzen und ich warte ja noch auf die Messungen von Raff bzgl. 5080, 5090 und 9070XT @ Powertarget XXX. Wer holt sich die Effizienzkrone?
Das rückt auch AMD besser ins Bild und zeigt, dass so eine 9070XT schon eine Errungenschaft ist, aber eben noch nicht so gut wie nvidia.
Emil_i_Lönneberga
2025-03-13, 17:57:31
160mm 5080:
https://www.hardwareluxx.de/community/threads/nvidia-blackwell-50xx-wasserk%C3%BChler.1362662/page-22#post-30749688
The_Invisible
2025-03-13, 18:37:16
Die RTX 5080 ist gut, aber verglichen mit 2022 hat sich die VRAM-Thematik nicht zum Guten für 16er-Karten entwickelt. Eine RTX 5090 ist brachial, wie eine RTX 4090 einst (eigentlich immer noch), lässt sich aber mit ein paar Handgriffen zügeln. Dann erhält man ein effizientes Kraftpaket, das für GB203 unerreichbar ist. Preise völlig ausgeklammert.
MfG
Raff
Glaubst du? AMD hat current gen nur 16gb Karten released, prinzipiell gibt's nur mehr eine >16gb Karte in der aktuellen Generation. Denke Mal 16gb wird daher seeeeehr lange Standard sein auf das alles optimiert wird.
Aber ja, von einer 4090 kommend macht all s außer 5090 keinen sinn
Sardaukar.nsn
2025-03-13, 20:21:39
...Das rückt auch AMD besser ins Bild und zeigt, dass so eine 9070XT schon eine Errungenschaft ist, aber eben noch nicht so gut wie nvidia.
Im wahrsten Sinne liegen ja jetzt alle Karten auf dem Tisch. Die 5090 steht alleine schon vom Preis, aber auch anderen Eckdaten über allen Dingen. Leider nicht so positiv wie das noch bei der 4090 war.
Der "Gaming" Markt mit relevanten Stückzahlen spielt sich irgendwo von 5070 über 7090 (XT) bis 5080 ab. Da liegt das Feld aber eher nahe zusammen. Eine Situation die aus Kundensicht sicher zu begrüßen ist.
@The_Invisible: Ich denke auch das 16GB VRAM "DER" gemeinsame Nenner der nächsten Jahre sein wird.
@Emil_i_Lönneberga: Echt ein süßes Ding. Scheint aber auch ein MoRa-Bruder zu sein, also 450W Bios drauf und ab dafür! Ich bin aber froh das Asus ein etwas größeres PCB für die Prime gewählt hat. Der Wasserblock sollte hier dann eher normales Format haben.
https://i.imgur.com/ws7LNd7.jpeg
Relex
2025-03-13, 20:47:54
Ich kann das nicht fühlen. Trotz all dieser Probleme ist die 5080 trotzdem nur die Hälfte einer 5090. Schon von der reinen HW her. 5080 fühlt sich daher maximal nach einer Mid Range Karte für mich an. Völlig unter meiner Würde und der meines Babys. Das Teil könnte auch 5060 heißen, so ungefähr rangiert eine 5080 hier bei mir im Kopf. Da bekomme ich maximal Taschenrechner Vibes.
Eine Karte mit 360W TDP ist ganz sicher kein Mid Range.
Es gab früher High End Karten die nur halb so viel Strom brauchten... Die erste Titan hat auch nur 250W gebraucht.
RTX4090 und erstrecht die 5090 besetzen einfach Leistungsklassen die vorher überhaupt nicht existiert haben. Und das ist auch völlig in Ordnung. Nur wird dadurch der Rest ja nicht schlechter.
Ich hab jedenfalls keine Lust, dass sowas wie ne 5080 mit bis zu 360W als midrange klassifiziert wird und bald schon jedes Spiel in 1440p danach schreit.
Ungeachtet des Preises wäre das eine völlig inakzeptable Entwicklung.
Gemessen an der Leistungsaufnahme finde ich die Abstufungen der Karten und ihre Namen absolut passend. Ich sehe nicht, dass Nvidia uns hier Low End Karten unter dem Deckmantel eines "High End" namens verkaufen will. Wenn eine 5080 nur 200 oder 150W verbrauchen würde, würde ich dein Argument verstehen, aber bei den aktuellen TDPs sowie auch den durchschnittlichen Verbrauchswerten passt die Namensgebung.
Colin MacLaren
2025-03-13, 21:12:45
Ich spiele Monster Hunter in 4K DLSS Performance und habe mit einer 5080 irgendwie so um die 80fps, auch gerne mal darunter und generell mega ruckelige Frametimes. FG fühlt sich in dem Spiel auch bescheiden an. Und das ist einfach mal die Realität. Grottenschlecht portierte, verbuggte Games, die mittelmäßige Grafik anbieten, Texturmatsch und einfach unheimlich viel Unschärfe - und alles unter 4090 kann die eigentlich nicht sinnvoll spielen. Sowas hat dann 1,3 Millionen gleichzeitige Spieler auf Steam, als Vollpreistitel.
Wir kriegen immer höhere Hardwareanforderungen für gefühlt immer schlechtere Grafik und die kannst Du nur noch mit absurder Hardware ersfchlagen, um irgendwie ein smoothes Spielgefühl herauszubekommen. Und kommt mir nicht mit Konsolen, die haben schon vor zwei Jahren aufgegeben. FSR2-3 Performance, low - mid Detail und 30fps auf 65 Zoll im Wohnzimmer, mit Pech dann noch bei ~1080p. Ganz dolles Erlebnis.
dllfreak2001
2025-03-13, 21:36:40
Eine Karte mit 360W TDP ist ganz sicher kein Mid Range.
Es gab früher High End Karten die nur halb so viel Strom brauchten... Die erste Titan hat auch nur 250W gebraucht.
RTX4090 und erstrecht die 5090 besetzen einfach Leistungsklassen die vorher überhaupt nicht existiert haben. Und das ist auch völlig in Ordnung. Nur wird dadurch der Rest ja nicht schlechter.
Ich hab jedenfalls keine Lust, dass sowas wie ne 5080 mit bis zu 360W als midrange klassifiziert wird und bald schon jedes Spiel in 1440p danach schreit.
Ungeachtet des Preises wäre das eine völlig inakzeptable Entwicklung.
Gemessen an der Leistungsaufnahme finde ich die Abstufungen der Karten und ihre Namen absolut passend. Ich sehe nicht, dass Nvidia uns hier Low End Karten unter dem Deckmantel eines "High End" namens verkaufen will. Wenn eine 5080 nur 200 oder 150W verbrauchen würde, würde ich dein Argument verstehen, aber bei den aktuellen TDPs sowie auch den durchschnittlichen Verbrauchswerten passt die Namensgebung.
Das ist doch Quatsch eine Voodoo-Karte war auch mal Highend obwohl sie keine 15W verbraucht hat.
Erzähle das nicht Nvidia, die Löten einen fetten Widerstand bei der RTX6000 drauf dann kommen alle karten über 500W. ;D
x-force
2025-03-13, 22:15:56
wie man es dreht und wendet 5080 bleibt bei nicht mal der hälfte des möglichen in bezug auf recheneinheiten!
das war bei entstehung der einteilung mit kepler eine 60er ti und kann per definition keine oberklasse oder high end sein.
historisch und definitorisch betrachtet hat miami absolut recht.
Slipknot79
2025-03-14, 00:18:11
Aber ja, von einer 4090 kommend macht all s außer 5090 keinen sinn
Die 5090 ist nicht mal für 4090 Gamer sinnvoll. (y)
Relex
2025-03-14, 04:44:11
wie man es dreht und wendet 5080 bleibt bei nicht mal der hälfte des möglichen in bezug auf recheneinheiten!
das war bei entstehung der einteilung mit kepler eine 60er ti und kann per definition keine oberklasse oder high end sein.
historisch und definitorisch betrachtet hat miami absolut recht.
Klar, das was du als High End definieren willst, hat sich nach oben verschoben, weil Nvidia neue Leistungskategorien eingeführt hat. Aber trotzdem hat sich das Niveau z.B. bei einer 5080 dadurch nicht verschlechtert.
Wenn Nvidia morgen zwei oder vier Chips zu einem zusammenlötet oder die DIE größe vervielfacht meckerst du auch, dass ne 5080 oder 5070 so weit vom theoretisch machbaren entfernt ist? DAS ist aus meiner Sicht völliger Quatsch.
Vor allem ergibt es schon zweimal keinen Sinn, mehr zu erwarten, wenn die Fertigung gleich bleibt und sich perf/Watt nichtmal geändert haben.
Zumal selbst eine 5090 ja noch lange nicht das theoretisch machbare darstellt. Schon wieder den Jensen Auftritt auf der Bühne als Captain America vergessen :)
Wenn euch Nvidia morgen so einen Chip als 5090 Titan für 50K verkauft, wird die 5090 dann auch zu einer, keine Ahnung, 5020 oder so? Weil relativ gesehen wäre das Teil dann ja nur noch unbrauchbares low end spielzeug oder?
Das unterstreicht doch nur, dass diese Denke die ihr hier versucht anzuwenden einfach nicht funktionieren kann.
Colin MacLaren
2025-03-14, 05:06:46
Nein, das würde vielleicht passen, wenn die 5080 24GB RAM hätte und 10% vor einer 4090 liegen würde, statt 20% dahinter und in Pathtracing noch mehr. Dafür dürfte sie imho dann auch gerne 1.600 EUR kosten. Aber wofür kauft man denn eine neue NVIDIA-GPU, wenn nicht für Pathtracing? Bei den Laptops bekommt man wenigstens 24GB VRAM.
Die 5080 ist die Geforce 2 MX von heute. Halber Chip, halber Speicher, halbe Bandbreite. Nicht mehr und nicht weniger - was ja auch OK ist, die Geforce 2 MX war damals eine gute Value-Karte, ich hatte sie selbst. Aber mir was immer klar, dass mein Kumpel mit der Geforce 2 GTS die doppelten FPS in Quake 3 hat. Die 5080 (oder auch die 9070XT oder 5070 TI) ist die Notlösung, mit der man sich halt über die Zeit rettet, bis es 5090 zu Preisen unter 3K gibt. Wirklich geil fühlt sich das aber zu keiner Zeit an, wenn man 2025 nicht mal Cyberpunk mit paar Texturmods spielen kann, weil der Karte der RAM ausgeht.
Sardaukar.nsn
2025-03-14, 08:02:45
... Die 5080 (oder auch die 9070XT oder 5070 TI) ist die Notlösung, mit der man sich halt über die Zeit rettet, bis es 5090 zu Preisen unter 3K gibt.
Unter 3k? Selbst für 2.329€ ist die Preis/Leistung schlecht, wenn man keine Spezialanwendungen wie VR oder Machine Learning im Sinn hat. Zur 5080 sprechen wir über +100% Preis für vielleicht +50% Leistung.
Im Haushalte habe ich ein 4070 Super und eine 5080. Letztere ist etwas mehr als doppelt so schnell (https://www.3dmark.com/sn/3743440) wie die Lovelace Karte (https://www.3dmark.com/sn/2260591). Zu etwas weniger als den doppeltem Preis. Alles keine echten Schnäppchen, aber da passt das Verhältnis zumindest.
Colin MacLaren
2025-03-14, 08:58:06
Für 2.329 EUR finde ich sie voll in Ordnung. Gehen wir mal von rund 1.500 EUR für den restlichen PC aus, dann reden wir von einem Gesamtpreis von 3.800 vs 2650 EUR, dann passen die Leistung für Frames.
Wie gesagt, ich wäre auch mit einer 4090 Super mit MFG für 2K Straßenpreis zufrieden, oder halt einer 5090 für 2.500 bzw. vielleicht 2.800, wenn es ein gutes Modell wie Suprim, Astral oder Aeorus ist. Aber 3K+ für eine Palit, die nicht mal PTM hat, ist halt übertrieben.
x-force
2025-03-14, 12:00:23
Wenn Nvidia morgen zwei oder vier Chips zu einem zusammenlötet oder die DIE größe vervielfacht meckerst du auch, dass ne 5080 oder 5070 so weit vom theoretisch machbaren entfernt ist? DAS ist aus meiner Sicht völliger Quatsch.
wir sprechen aber über monolithische chips und die daraus resultierenden abstufungen.
wo wir gerade dabei sind... sind single core cpus für dich noch highend? ;)
ich bin gespannt wie folgende fakten durch deine brille aussehen:
die size turing titan: 754nm
die size turing 2060: 445nm
die size blackwell titan: 750nm
die size blackwell 5080: 378nm
die size blackwell 5070: 263nm
Vor allem ergibt es schon zweimal keinen Sinn, mehr zu erwarten, wenn die Fertigung gleich bleibt und sich perf/Watt nichtmal geändert haben.
wir erwarten nicht mehr, sondern nicht weniger!
Wenn euch Nvidia morgen so einen Chip als 5090 Titan für 50K verkauft, wird die 5090 dann auch zu einer, keine Ahnung, 5020 oder so? Weil relativ gesehen wäre das Teil dann ja nur noch unbrauchbares low end spielzeug oder?
das ist konstruierter bullshit.
abgesehen davon definiert der volle chip das high end.
eine 5090 ist dank starker kastration im grunde eine 5080ti und unteres high end.
ein t-shirt wird nicht zum pullover, nur weil man es auf einmal so nennt ;)
sChRaNzA
2025-03-15, 14:56:26
So… Meine Zotac 5080 SOLID OC ist eingebaut. Leistung und Temperaturen sind gut bis ausgezeichnet. Leider leidet die Karte dann dennoch unter (leichtem) Spulenfiepen /-rasseln. Muss da mal in mich gehen wie sehr mich das stört, oder ob ich es ignorieren (lernen) kann.
Prinzenrolle
2025-03-15, 15:14:42
ich bin gespannt wie folgende fakten durch deine brille aussehen:
die size turing titan: 754nm
die size turing 2060: 445nm
die size blackwell titan: 750nm
die size blackwell 5080: 378nm
die size blackwell 5070: 263nm
Und jetzt setze dahinter noch die Chipkosten.:)
das ist konstruierter bullshit.
Bullshitting als verbale Demonstration des Dunning-Kruger-Effekts.:P
x-force
2025-03-15, 16:02:01
Und jetzt setze dahinter noch die Chipkosten.:)
es redet geht nicht um kosten, sondern darum, dass nv seine vorspeise einfach hauptspeise nennt.
Sardaukar.nsn
2025-03-21, 06:54:10
Ich bin jetzt dazu gekommen das neue 450 Watt Bios (https://rog.asus.com/graphics-cards/graphics-cards/rog-astral/rog-astral-rtx5080-o16g-gaming/helpdesk_download/) der Asus Astral OC vom 14.03. auf meiner Prime zu testen. Scheinbar hat man dort jetzt noch einiges optimiert. Es ist durch die neue Lüftersteuerung das leiseste von allen getesteten. Minimum Drehzahl von eh schon niedrigen 700rpm runter auf unter 600rpm. Oben raus funktionieren jetzt die 450 Watt, die Spannungsregelung und Steel Nomad bleibt im Durchschnitt mit über 3,3Ghz stabil. Chapeau! Da hat bei Asus noch jemand richtig Hand angelegt.
Neues Powerlimit: https://i.imgur.com/BvoEHpR.gif
Sehr niedrige Lüfter-Drehzahlen bei mittlerer Last: https://i.imgur.com/2vCIPU0.png
Vollgas: https://www.3dmark.com/3dm/128977209?
https://i.imgur.com/Xr8rcMG.pnghttps://i.imgur.com/hG9hCVA.png
Secret Sauce Bios zum Download und selber testen: https://limewire.com/d/61c220ec-a08f-4838-a221-6bdca862fc10#OCOaihyzIw_i7-z7ALT44n1DmN4EhONep2qJm3SgFz4
Erkenntnis: Wird Zeit das Alphacool mit dem Wasserkühler fertig wird ;)
Dural
2025-04-02, 09:11:49
Habe jetzt auch zugeschlagen, wollte nicht mehr länger warten.
Und was soll ich sagen, Blackwell ist echt ein Monster. Die GPUs ist im gleichen Fertigungsprozess schon ganz klar besser als Ada. Das sieht man Stock nicht sofort, aber mit OC ist das schon eine ganz andere Liga.
Die 9070XT mit selben SI und ähnlicher Die Grösse ist dagegen einfach nur schlecht, und gerade die ersten Versuche mit der 5080 haben mir gezeigt, AMD ist AMD und NV ist NV. Stunden lange musste ich mich mit der 9070XT und dem OC beschäftigen und ausloten was am besten geht... Die 5080 gestern eingebaut, gleich Takt rauf und los, es läuft einfach! Innert kürzester Zeit ausgelotet was so geht. Die GPU Spannung habe ich noch nicht verändert.
Lüfter 70% und GPU @ 3310MHz
Laut GPUZ 3330MHz bei gerade mal 380Watt (3dmark konnte die Daten wie so auch immer nicht auslesen)
https://www.3dmark.com/sw/2087452
Wert der 9070XT laut GPUZ auch was um die 375Watt
https://www.3dmark.com/sw/1949933
Die 5070Ti mit 450W Bios wäre ein OC Monster, NV schränkt ihre Produkte ganz bewusst ein.
x-force
2025-04-02, 11:16:33
Die 5070Ti mit 450W Bios wäre ein OC Monster, NV schränkt ihre Produkte ganz bewusst ein.
sag bescheid, wenn du ein bios mit mehr als 350w siehst ;)
mironicus
2025-04-02, 18:15:16
Review: Dieses Laptop gibt es mit RTX 5080/5090 lieferbar z.B. bei Alternate.
ychJ4G-MxQg
Dural
2025-04-03, 10:28:12
Habe noch etwas am Speicher gespielt.
Da muss man aufpassen, weniger Takt kann auch mal mehr Leistung bedeuten, da scheinen variable timings vorhanden zu sein.
Beste Ergebnisse hatte ich mit 2250MHz, das sind mal eben 1150GB/s und das mit 256Bit.
2100MHz waren immer langsamer als 2000MHz.
https://www.3dmark.com/sw/2091388
Hatte schon Werte mit 10300, aber ohne Hardware Daten.
Die 5080 ist für mich die rundeste Grafikkarte seit Jahren, das einzige was man vielleicht kritisieren könnte sind die 16GB. Aber sonst?
Sardaukar.nsn
2025-04-03, 17:23:10
Guter Takt! In die Richtung schafft meine 1169€ Prime auch: https://www.3dmark.com/3dm/129132432?
Im Vergleich meine Wassergekühlte 3Ghz 4090, welche nach über zwei Jahren fast zum Neupreis verkauft habe. https://www.3dmark.com/3dm/86810540?
Ich stimme dir zu, die 5080 ist einfach eine runde Gaming Grafikkarte. Die 16GB Kritik kann ich auch nicht nachvollziehen und wird in Zukunft auch kein Thema sein. Zu dominant sind die AMD und Nvidia Grafikkarten mit Einheits-16GB Vram. Auf diese quasi Standard Größe werden sich die Software Hersteller wohl längerfristig einstellen müssen.
Radeonfreak
2025-04-03, 17:24:01
Wer verkauft denn ne 4090 für ne 5080? :confused:
Sardaukar.nsn
2025-04-03, 18:10:54
Gab knapp 700€ Cashback. Muss man nicht machen, aber die Preise welche für gebrauchte 4090 bezahlt wurde konnte ich nicht ignorieren.
robbitop
2025-04-03, 18:11:14
Naja für den Preis ist sie nicht schnell genug gegenüber der 5070ti.
redpanther
2025-04-03, 18:27:12
Gab knapp 700€ Cashback. Muss man nicht machen, aber die Preise welche für gebrauchte 4090 bezahlt wurde konnte ich nicht ignorieren.
Für eine 1169€ Grake 700€ Cashback? :freak:
Wo gibts denn sowas, außer beim Roller?
Naja er hat wohl die 4090 für 700€ über 5080 Preis verkauft. ;)
grobi
2025-04-03, 21:12:54
Habe meine Asus TUF RTX 3090 OC für 755€ verkauft bekommen. Da tat mir der Preis für meine RTX 5080 nicht so weh.
Sardaukar.nsn
2025-04-03, 22:00:38
Naja er hat wohl die 4090 für 700€ über 5080 Preis verkauft. ;)
So ist es. Anbei die Einkaufspreise zur UVP. Welche Summen für zwei Jahre alte 4090 bezahlt wurden dürfte ja bekannt sein.
Ich finde beide Grafikkarten von der Gaming Performance "vergleichbar" und keine ernsthaft spürbar schneller oder langsamer.
Was ich im RT-Benchmark aus beiden GPUs rausholen konnte:
4090 3Ghz, 666W Galax HOF Bios, Wasserkühlung: https://www.3dmark.com/3dm/86810083?
5080 3,3Ghz, 450W Astral Bios, bisher noch Luftkühlung: https://www.3dmark.com/3dm/129132432?
10716 vs 10350 im Vergleich zum Wettbewerb: https://www.computerbase.de/artikel/grafikkarten/3dmark-speed-way-benchmark.88644/
Slipknot79
2025-04-04, 03:46:32
Für eine 1169€ Grake 700€ Cashback? :freak:
Wo gibts denn sowas, außer beim Roller?
Er hat kein "cashback" erhalten.
Er hat eine 4090 gekauft und dann zu einem guten Preis verkauft. Soweit ok.
Nun hat er eine 5080 gekauft. Was sie kosten wird, wird er erst wissen, wenn er die 5080 verkauft haben wird.
Mehr steckt auch nicht dahinter.
Wenn du eine 4090 kaufst und zum ca. Einkaufspreis wieder verkaufst, dann war die Karte "gratis".
Wenn du eine 5080 kaufst und zum ca. Einkaufspreis wieder verkaufst, dann war die Karte "gratis".
-> Da kann man gleich bei der 4090 bleiben, mit mehr VRAM und mehr fps.
Realistisch ist aber, dass mit dem release der 6090 die Preise für gebrauchte 4090 und 5080 stark dropen werden. Mit beiden Karten wird man einen Verlust einfahren, mit der 4090 den größeren. Allerdings ist die 4090 dann bereits 5 Jahre alt und man hatte 24GB VRAM und mehr fps.
Cpl. Dwayne Hicks
2025-04-04, 15:02:05
Jlueck jehabt... wa? :freak: Naja, eigentlich nich, war ja doch sehr unwahrscheinlich.
https://i.imgur.com/O3K4pX5.png
dargo
2025-04-05, 09:31:57
Ein sehr begeisterter Nvidia Kunde. :D
XS7JySjCO8A
Ist das eigentlich ein generelles Problem bei der Vapor Chamber bezüglich Einbaulage?
Dural
2025-04-07, 10:46:15
Letzte Woche noch ein Lauf mit 10270 Punkten gehabt:
Core-Takt 3.412 MHz (2.295 MHz)
Durchschnittliche Taktfrequenz 3.327 MHz
Speichertakt 2.250 MHz (1.875 MHz)
Durchschnittliche Speichertaktfrequenz 2.250 MHz
Durchschnittliche Temperatur 60 °C (Lüfter 100%)
https://www.3dmark.com/sw/2094802
Karte zieht so ca. 410Watt in Speed Way.
So von wegen nur Probleme, hatte mit der 9070 XT deutlich mehr Probleme... Bis heute setzt mir die Software das OC der 9070XT immer wieder auf Standard zurück obwohl das System mit den Einstellungen fehlerfrei läuft, ein Spiele hat extreme Nachlade ruckler, die es auf der 5080 nicht gibt usw. (Könnte aber auch was anderes sein da anderes System)
Da wird einfach masslos übertrieben, auch die Geschichte mit den ROPs, Stecker und was alles war. Gerade letzte Woche in Video gesehen von einem Händler der meinte das er bis jetzt keines der Probleme hatte.
dildo4u
2025-04-07, 10:58:31
Jup 3DMark läuft Problemlos kann ich bestätigen.
Was anderes spielt ja auch keine Rolle Hauptsache man hat den längsten.
NTXoUsdSAnA
Troyan
2025-04-07, 11:21:34
Und was will der dicke Typ uns sagen? Habe hier bis auf die Black-Screen Probleme mit meinem LG 2.1 OLED keine Probleme. Und da der OLED bei 2.1 ebenfalls DSC aufgrund der geringen Bandbreite benötigt, tut es auch 1.4.
Ansonsten alles fehlerfrei hier: Keine Abstürze, kein Ruckeln, PCIe 5.0 funktioniert.
dargo
2025-04-07, 13:16:29
Und was will der dicke Typ uns sagen?
Dass Nvidia nicht nur bei Hardware sondern auch Software abbaut.
Und was will der dicke Typ uns sagen? Habe hier bis auf die Black-Screen Probleme mit meinem LG 2.1 OLED keine Probleme. Und da der OLED bei 2.1 ebenfalls DSC aufgrund der geringen Bandbreite benötigt, tut es auch 1.4.
Ansonsten alles fehlerfrei hier: Keine Abstürze, kein Ruckeln, PCIe 5.0 funktioniert.
Was will uns der verwirrte nvidia Mitarbeiter uns hier sagen? Das es mit nvidia keine Probleme gibt, weil er ja auch "keine" hat? ;D
DrFreaK666
2025-04-07, 13:40:50
Hab zu Nvidias Treibern einen eigenen Thread gestartet
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13739297#post13739297
Troyan
2025-04-07, 13:57:01
Was will uns der verwirrte nvidia Mitarbeiter uns hier sagen? Das es mit nvidia keine Probleme gibt, weil er ja auch "keine" hat? ;D
Nun, vielleicht gibt es Probleme, die wenige haben? Bei Millionen Leuten dann aber tausende Threads entstehen?
Spring
2025-04-07, 14:06:59
Was will uns der verwirrte nvidia Mitarbeiter uns hier sagen? Das es mit nvidia keine Probleme gibt, weil er ja auch "keine" hat? ;D
https://i.imgflip.com/9q02kd.jpg
Troyan
2025-04-07, 14:20:23
Lmao, habe mir das Video angesehen. Ja toll, wow. Er geht ins Internet, sucht nach Fehlern und stellt die nach. Beeindruckend. Und dazu benötigte erst ein Multi-Monitor-Setup mit verschiedenen Displays, Hz-Einstellungen etc.
Clickbait-Scheiß sondersgleichen.
Neosix
2025-04-07, 14:41:22
Dir gehts aber gut oder? Das was du beschreibst ist das Szenario was 99% der leute da fahren. Ein Szenario wo man einen schnellen Monitor zum Gamen und einen zweiten für "sonstiges" hat ist ja wohl sehr gängig. Und die Probleme sind seit Wochen, Teilweise Monaten bekannt und Nvidia kriegt es nicht auf die Reihe die zu fixen. Was genau ist daran klickbait musst du mir genau sagen. Ich fand das Video informativ.
Und dafür dass seit Jahren auf AMD rumgehackt wird, dass deren Treiber schlechter als die von Nvidia sind, ist das ein krasser fail und unterstreicht nur, wie verkackt dieser Launch insgesamt ist.
Troyan
2025-04-07, 14:46:26
Dir gehts aber gut oder? Das was du beschreibst ist das Szenario was 99% der leute da fahren. Ein Szenario wo man einen schnellen Monitor zum Gamen und einen zweiten für "sonstiges" hat ist ja wohl sehr gängig. Und die Probleme sind seit Wochen, Teilweise Monaten bekannt und Nvidia kriegt es nicht auf die Reihe die zu fixen. Was genau ist daran klickbait musst du mir genau sagen.
Ich sage null über die Problematik in DIESER Konstellation. Das Video jedoch suggeriert, dass es massive Probleme geben würde. Und das ist nun mal falsch.
Genau das ist Clickbait. Ich muss mir das Video ansehen, um überhaupt zu verstehen, über welche Probleme er redet. Einfaches abgrasen von Klicks von der nVidia-Hate-Community.
Alle die genannten Beispiele funktionieren bei mir mit ein Display einwandfrei.
Sardaukar.nsn
2025-04-07, 17:43:36
Letzte Woche noch ein Lauf mit 10270 Punkten gehabt:
Core-Takt 3.412 MHz (2.295 MHz)
Durchschnittliche Taktfrequenz 3.327 MHz
Speichertakt 2.250 MHz (1.875 MHz)
Durchschnittliche Speichertaktfrequenz 2.250 MHz
Durchschnittliche Temperatur 60 °C (Lüfter 100%)
https://www.3dmark.com/sw/2094802
Top Werte. Über 3,3Ghz unter Last ist schon ne Ansage. Man wird das wohl erst im Herbst/Weihnachtsgeschäft sehen wenn genügen Stückzahlen von allen GPUs vorhanden sind, aber ich bin mir ziemlich sicher die 5080 wird die begehrteste reine Gaming Grafikarte dieser Generation werden. Die ist einfach echt ein rundes Produkt, ohne in die Extreme zu gehen.
robbitop
2025-04-07, 18:53:38
Aber schlechteres P/L als die GPUs darunter und nicht mehr vram.
Die Lücke zwischen der 5090 und der 5080 ist einfach gaga.
Mit 3,3 GHz, also rund 20 Prozent mehr Bums, geht’s fast. :ulol:
MfG
Raff
Neosix
2025-04-07, 19:00:10
Aber schlechteres P/L als die GPUs darunter und nicht mehr vram.
Die Lücke zwischen der 5090 und der 5080 ist einfach gaga.
Ja das mit der schlechteren PL als die 70ti hat mich auch total fertig gemacht, als ich es dank dir realisiert habe. Die 4080 hatte damals wenigstens noch das Argument mehr RAM. Und nach der Preisanpassung war die auch etwa auf dem Niveau der 70ti wenn ich mich nicht irre. Aber die 5080 fehlt einfach beides. Leistung und RAM sind kein alleinstellungsmerkmal mehr :/
robbitop
2025-04-07, 20:08:10
Mit 3,3 GHz, also rund 20 Prozent mehr Bums, geht’s fast. :ulol:
MfG
Raff
Jo wobei das mit der 5070ti auch geht. :)
Palpatin
2025-04-07, 20:45:50
Jo wobei das mit der 5070ti auch geht. :)
Eigentlich sogar besser. Die Asus Prime 5070ti schafft laut Igor 350W und es gab sie zum UVP. Bis zu 3,4 GHZ sollen möglich sein. Die Standard UVP 5080er packen nur 360 Watt. Das dürfte die 15% Vorsprung der 5080 eher noch schrumpfen lassen.
Sardaukar.nsn
2025-04-07, 23:04:51
Das VRAM Thema ist für diese Generation durch. Es gibt halt bei AMD und Nvidia Gaming GPUs diese Einheits-16GB und damit gilt es jetzt auszuhalten.
Die 5080 hat halt den Vollausbau des GB203 (https://www.techpowerup.com/gpu-specs/nvidia-gb203.g1073), die 5070Ti nur den Verschnitt. Das ist natürlich etwas günstiger, aber sicher auch kein Schnäppchen. Ich denke das bei vielen Leuten bei dem Thema auch ein paar Euro extra für die 5080 drin sitzt. Der Sprung auf die kontroverse 5090 ist dann so groß, kommt für viele nicht in Frage.
x-force
2025-04-07, 23:59:19
Jo wobei das mit der 5070ti auch geht. :)
leider nicht.
die 70ti fällt je nach game und settings auf unter 3,1ghz, da 350w nicht reichen.
hab bisher mit zwei verschiedenen karten 3,06ghz und 3,1ghz bei kcd im hauptmenü gesehen.
3,06ghz bei 0,985v führen zu 350w.
die spannung für 3,1ghz bei der besseren karte weiß ich nicht mehr.
nehmen wir an die spannung geht quadratisch in den verbrauch ein und der takt linear:
bei 3,4ghz und 1,07v wären es 446w(!!!).
Um den Stromverbrauch bei einer anderen Taktfrequenz und einer anderen Spannung zu berechnen, müssen wir die Beziehung zwischen Taktfrequenz, Spannung und Verbrauch nutzen. Wie im Problem angegeben, geht die Spannung quadratisch in den Verbrauch ein, und der Takt ist linear.
### Gegebene Werte:
- Bei 3060 MHz und 0,985 V beträgt der Verbrauch 350 W.
- Taktfrequenz bei neuem Zustand: 3400 MHz
- Spannung bei neuem Zustand: 1,07 V
### Rechenweg:
1. **Verhältnis der Taktfrequenzen**:
Die Taktfrequenz beeinflusst den Verbrauch linear. Das bedeutet, dass sich der Verbrauch proportional zur Taktfrequenz verändert. Wenn der Takt um den Faktor \( \frac{f_2}{f_1} \) geändert wird, ändert sich der Verbrauch ebenfalls um denselben Faktor.
\[
\frac{P_2}{P_1} = \frac{f_2}{f_1}
\]
Setzen wir die Werte ein:
\[
\frac{f_2}{f_1} = \frac{3400}{3060} \approx 1,111
\]
2. **Verhältnis der Spannungen**:
Der Stromverbrauch hängt quadratisch von der Spannung ab. Das bedeutet, dass sich der Verbrauch im Verhältnis der quadratischen Spannungen verändert. Das Verhältnis der Spannungen ist:
\[
\frac{P_2}{P_1} = \left( \frac{V_2}{V_1} \right)^2
\]
Setzen wir die Spannungen ein:
\[
\left( \frac{1,07}{0,985} \right)^2 \approx 1,144
\]
3. **Gesamte Veränderung des Verbrauchs**:
Da sowohl die Taktfrequenz als auch die Spannung den Verbrauch beeinflussen, kombinieren wir die beiden Faktoren:
\[
\frac{P_2}{P_1} = \frac{f_2}{f_1} \times \left( \frac{V_2}{V_1} \right)^2
\]
Setzen wir die Werte ein:
\[
\frac{P_2}{P_1} = 1,111 \times 1,144 \approx 1,271
\]
4. **Berechnung des neuen Verbrauchs**:
Der ursprüngliche Verbrauch \( P_1 = 350 \) W. Daher ergibt sich der neue Verbrauch \( P_2 \):
\[
P_2 = P_1 \times 1,271 = 350 \times 1,271 \approx 445,85 \text{ W}
\]
### Ergebnis:
Der Chip würde bei einer Taktfrequenz von 3400 MHz und einer Spannung von 1,07 V etwa **445,85 W** verbrauchen.
es ist hierbei auch zu beachten, dass der strom intern zu groß werden kann bevor die maximale leistung erreicht ist.
das führt in verbindung mit der serienstreuung dazu, dass ich in cp2077 mit der schlechten karte nur 3250mhz bei 1,04v fahren kann, während mit der guten karte 3350mhz bei 1,05v drin waren.
powerlimit in beiden fällen numerisch nicht erreicht, aber perf_reason.
zu beachten ist, dass jeweils der voltage slider auf +100 stand, also 1,07v erlaubt sind.
robbitop
2025-04-08, 05:08:29
Naja wir sprechen hier über
1.) statistisch nicht repräsentativen Stichprobengrößen mit signifikanter Variablität in der „Silizium Qualität“
2.) 3,1 vs 3,3 GHz sind 6 % - das ist mess aber nicht fühlbar
3.) bei 1150€ sprechen wir von 360 W BIOS afaik vs 920€ bei der 5070ti mit 350W bios - gibt auch 5080 mit mehr tdp aber die kosten massivst mehr. Die meisten 5080 dürften 360W sein.
4.) wurde es im gleichen Spiel an der gleichen Stelle gemessen? Auch hier gibt es viel Variabilität
Ich gehe jede Wette ein wenn man obiges 1:1 statistisch korrekt vergleicht ist das alles relativ vernachlässigbar. Vor allem wenn man Perf/€ anschaut. :)
Man kann natürlich jetzt eine 5080 mit 450W BIOS nehmen - aber dann sprechen wir von 1600€ Vs 920€. Für 6% mehr Takt und zusätzlich taktnormiert nochmal 15%.
Aber was man bei beiden gpus auch machen könnte wäre ein shunt mod oder evc. Dann wird man vermutlich wieder auf die 15% zurückkommen die aus dem Chipaufbau kommen.
Sardaukar.nsn
2025-04-08, 06:39:37
@x-force: Danke für die Berechnungen. Die Werte kann ich nach diversen Bios Flash und Benchmarks so bestätigen. Meine Asus 5080 Prime OC lag bei 1169€ und hatte ein 400Watt Bios, inzwischen läuft aber das überarbeitete Asus Astral Bios mit 450W drauf. Dank Dual-Bios Switch ist das auch alles kein großes Thema.
450 Watt Board Power Draw im Benchmark: https://i.imgur.com/g98qWRS.png
Interessant sind auch die minimum Drehzahlen von deutlich unter 700rpm. Hier bei Mittlerer Last von ca. 260 Watt: https://i.imgur.com/sBIMi5m.png
Hier noch mal als Download für Interessierte: https://limewire.com/d/fU5vo#9Vj6yApOtx
x-force
2025-04-08, 12:25:36
Naja wir sprechen hier über
0.) raff sagte 5080er gewinnen 20% durch oc, du sagtest 5070ti ebenfalls
1.) statistisch nicht repräsentativen Stichprobengrößen mit signifikanter Variablität in der „Silizium Qualität“
2.) 3,1 vs 3,3 GHz sind 6 % - das ist mess aber nicht fühlbar
3.) bei 1150€ sprechen wir von 360 W BIOS afaik vs 920€ bei der 5070ti mit 350W bios - gibt auch 5080 mit mehr tdp aber die kosten massivst mehr. Die meisten 5080 dürften 360W sein.
4.) wurde es im gleichen Spiel an der gleichen Stelle gemessen? Auch hier gibt es viel Variabilität
1.) bin ich für solch detailierte infos zur serienstreuung zu realease immer dankbar, die stichprobengröße ist bei 95% der reviews übrigens halb so groß.
2.) glaubst du tatsächlich, dass 27,8% mehr leistungsaufnahme bei 20% mehr einheiten zum gleichen gewinn führt?
praktisch wirkt es sich noch stärker aus, weil der ganze offcore bereich gleich bleibt und der ram durch ein paar mhz nur marginal mehr braucht.
3.) bios flash
4.) ernsthaft? war wie schon geschrieben im hauptmenü ;)
Ich gehe jede Wette ein wenn man obiges 1:1 statistisch korrekt vergleicht
etwas überheblich, oder?
daran ist nichts inkorrekt, n ist lediglich 2 :freak:
Dann wird man vermutlich wieder auf die 15% zurückkommen die aus dem Chipaufbau kommen.
20% ;)
grobi
2025-04-09, 14:29:38
@x-force: Danke für die Berechnungen. Die Werte kann ich nach diversen Bios Flash und Benchmarks so bestätigen. Meine Asus 5080 Prime OC lag bei 1169€ und hatte ein 400Watt Bios, inzwischen läuft aber das überarbeitete Asus Astral Bios mit 450W drauf. Dank Dual-Bios Switch ist das auch alles kein großes Thema.
450 Watt Board Power Draw im Benchmark: https://i.imgur.com/g98qWRS.png
Interessant sind auch die minimum Drehzahlen von deutlich unter 700rpm. Hier bei Mittlerer Last von ca. 260 Watt: https://i.imgur.com/sBIMi5m.png
Hier noch mal als Download für Interessierte: https://limewire.com/d/fU5vo#9Vj6yApOtx
Hab das Astral mal auf meine Tuf RTX 5080 geflasht.
Sardaukar.nsn
2025-04-09, 15:19:40
@grobi: Achte mal auf die Drehzahlen. Bei mir haben sich die minimum rpm noch mal um 100 gesenkt. Asus hat aber auch viel rumgetüftelt um das mit dem problematischen vierten Lüfter der Astral in den Griff zu kriegen.
BigKid
2025-04-18, 10:13:46
Kann man schon etwas zu den Laptop Ablegern sagen ? Mich interessiert hauptsächlich die RTX5080. Erste Benches deuten da auf c.a. +20-25% hin - aber die Frage ist für mich: Wieviel davon ist durch eine höhere TDP erkauft ?
Cpl. Dwayne Hicks
2025-04-23, 11:04:42
Kann man schon etwas zu den Laptop Ablegern sagen ? Mich interessiert hauptsächlich die RTX5080. Erste Benches deuten da auf c.a. +20-25% hin - aber die Frage ist für mich: Wieviel davon ist durch eine höhere TDP erkauft ?
Kann da vielleicht etwas behilflich sein:
Harware basics: Gigabyte AORUS Master 16 (BYH) - 16" 240Hz 2560 x 1600, Ultra 9 275HX, RTX 5080, 32GB/1TB - Win 11 Pro Gaming Notebook (230W max. TDP)
https://www.ple.com.au/products/673853/gigabyte-aorus-master-16-byh-16-240hz-ultra-9-275hx-rtx-5080-32gb1tb-win-11-pro-gaming-notebook
NVIDIA Control Center alles auf standard, Gigabyte GiMATE im "Game Mode" Profil. Fan Profil auf "Performance" ("Turbo" ist ja nur bekloppt laut :freak:). Ai Boost overclocking/tuning Dingens ausgeschaltet (Bringt eh nix, habs mit/ohne probiert)
https://i.imgur.com/hD9QaVp.png
3DMark Ergebnisse:
https://imgur.com/a/dgLaEP2
Mit Fan auf Turbo, paar Treiber Schummeleien geht vielleicht noch +5%... aber wollte erstmal alles moeglichst Standard lassen.
Exxtreme
2025-04-24, 08:48:29
Interessant:
https://www.igorslab.de/lokale-hotspots-auf-rtx-5000-karten-wenn-platinenlayout-und-kuehldesign-nicht-zusammenspielen/
Offenbar könnten alle RTX 50-Karten, mit Ausnahme der RTX 5090, ein Überhitzungsproblem bekommen. Gut, da der Mangel aber schon von Anfang an da ist, dürfte es einfach sein Ersatz zu bekommen.
Kriegsgeier
2025-04-24, 09:20:59
Was genau stört einen an den <80°C110°C bei der PCB? Sind es 180°C? NEIN!
<80°C110°C bei einer PCB ist völlig unbedenklich und deshalb hat es auch beim Design kein Einfluss gehabt. Die Hersteller haben es in Kauf genommen weil UNBEDENKLICH!
Mein Ingenieursherz blutet wenn ein anderer Ingenieur sich über 80°C110°C bei PCB aufregt. Denn, genau dieser Ingenieur MUSS schreiben: es ist völlig unbedenklich von Temperatur her und deswegen auch von Designauslegung her!
Klar will man alles am besten unter 60°C aber ist es nötig? Nein. Höchstens bei den Elkos aber sonst?
Bald regen wir uns auf dass auf der Sonne 5600°C und nicht 5550°C herrschen?
Auch dauerhafte 120°C bei der PCB inkl. VIAS und dünner Kupferschicht wären VÖLLIG unbedenklich! Unschön --> Ja aber wie gesagt: unbedenklich.
Exxtreme
2025-04-24, 09:42:36
Das sind keine <80° C sondern über 107° C.
Kriegsgeier
2025-04-24, 09:43:30
Das sind keine <80° C sondern über 107° C.
Auch 120°C wären völlig unbedenklich.
Würde sogar soweit gehen und sagen: die Karte wird auch 1A laufen mit 150°C auf der PCB-Rückseite.
Lurtz
2025-04-24, 09:56:21
Gut, da der Mangel aber schon von Anfang an da ist, dürfte es einfach sein Ersatz zu bekommen.
Haha, guter Witz :)
Exxtreme
2025-04-24, 10:06:17
Auch 120°C wären völlig unbedenklich.
Würde sogar soweit gehen und sagen: die Karte wird auch 1A laufen mit 150°C auf der PCB-Rückseite.
Solche hohen Temperaturschwankungen sorgen für stärkere Verformungen. Und das kann dann Lötstellen kaputt machen oder gar Risse in der Platine verursachen. Sowas ist nie gut. Und mal ernsthaft, wenn der Fix nur wenige Cent kostet ist das schon dämlich das von vorneherein nicht richtig zu machen.
Das Problem ist das Design, da die VCore Powerstages immer links der GPU angeordnet ist und damit für einen Hotspot im PCB selber sorgt. Und nein, dauerhaft über 90°C im PCB zu haben ist weder gut für das PCB selber (Mikrorisse) noch und erst recht nicht für die Kondensatoren, die recht schnell bei so hohen Temparaturen ihre Wirkung verlieren und das ganze System dadurch instabil wird.
Es sind aber nicht alle Karten betoffen, einige nutzen durchaus die Backplate zum kühlen. Dennoch ist das natürlich ein Problem vor allem für günstige Produkte, die auf wenige Powerstages setzen und das Wärmeleitmaterial unter der Backplate sparen.
Kriegsgeier
2025-04-24, 10:19:14
Das mit den Temperaturschwankungen ist natürlich ein Argument - das stimmt.
Aber die Temperatur selbst ist hier eher unbedenklich.
Klar, weniger ist immer zu begrüßen.
Nein ist sie nicht, ein Kondensator nutzt sich um Potenzen schneller ab bei solch hohen Temparaturen.
Kriegsgeier
2025-04-24, 10:25:50
ja, das stimmt. Aber hier geht es um PCB und VIAs inkl. Kupferleiterbahnen.
Edit: was ich eher bedenklich sehen würde ist die Temperaturänderung, quasi die Dynamik von Kalt auf Warm/Heiß das könnte auf Dauer zum Materialstress führen.
Grafikkarten haben schon eher unangenehme thermische Zyklen. Je geringer ∆t desto besser.
Insbesondere bei den Lötstellen sprechen wir von mehr als der doppelten thermischen Ausdehnung. (∆t 90 K und ∆t 40 K)
Also gilt, je geringer desto besser, insbesondere wenn sich Bereiche unterschiedlich verhalten. (Hotspots) Spannungen und Verzug sind die Folge.
Es folgen also zweierlei Probleme. Die maximal zulässige Betriebstemperatur wird auch unter Laborbedingungen erreicht, es gibt also keinen Spielraum für höhere Umgebungstemperaturen und die Zyklen sind heftiger als mit einfachen Mitteln abwendbar.
ENKORE
2025-04-24, 10:55:53
ja, das stimmt. Aber hier geht es um PCB und VIAs inkl. Kupferleiterbahnen.
Pray tell, was ist denn auf der anderen Seite der Vias? Das wird ja nicht überragend toll gekühlt sein mit einem 50°C Temperaturgradienten von der einen zur anderen Seite der Platine. Gerade bei der Via-Dichte...
Man könnte schon einen Trend zum "Spec-Engineering" ableiten. "Der Stecker hält 9.5A im Datenblatt? Dann gehen wir mal mit 9A real drauf! lol" - "Die Power Stage hat Tjmax 125°C/150°C im Datenblatt? Dann sind 120°C in der Simulation ja safe!" - "Ich muss hier 40A durch die Vias jagen, jedes Via ist laut Tabelle für 10 A gut... also reichen vier!" - "Micron sagt der Speicher da drüebn darf maximal 110 °C haben? Ansys sagt der wird nur 100°C, passt doch!" - und was die dann im Chip engineeren, will man wahrscheinlich nicht so genau wissen.
Irgendwo bezweifle ich schon stark, dass diese Karten so lange leben werden wie ältere Karten. Es würde mich schon sehr überraschen, wenn es 2034(!) noch signifikant viele funktionierende 5080er & Co. gibt. Die meisten 1080 / 1080 Ti leben jedenfalls noch...
Sardaukar.nsn
2025-04-24, 12:13:06
Interessant:
https://www.igorslab.de/lokale-hotspots-auf-rtx-5000-karten-wenn-platinenlayout-und-kuehldesign-nicht-zusammenspielen/
Offenbar könnten alle RTX 50-Karten, mit Ausnahme der RTX 5090, ein Überhitzungsproblem bekommen. Gut, da der Mangel aber schon von Anfang an da ist, dürfte es einfach sein Ersatz zu bekommen.
Hier mal der Alphacool Wasserkühler für die Palit Gaming Pro 5080/5070ti. Da verwendet man auch reichlich Pads für die Rückseite. https://download.alphacool.com/manual/14741_Alphacool_Core_Geforce_RTX_5080-5070Ti_GamingPro_with_Backplate_Manual.pdf
https://i.imgur.com/Ppn7wQt.png
Schade das man bei Palit/Gainward ab Werk daruf verzichet. Meine Asus Prima hat auch auf der Rückseite Pads.
Lurtz
2025-04-24, 13:47:00
Meine Asus Prima hat auch auf der Rückseite Pads.
Sprich da sollte es besser potenziell kühler bleiben?
Sardaukar.nsn
2025-04-24, 14:29:22
Ja, da bin ich ganz zuversichtlich.
Wenn der Alphacool Wasserkühler für die Prime fertig ist, würde ich aber trotzdem noch etwas Putty an den Stellen anbringen die Igor da ausfindig gemacht hat. Insbesondere im Bereich zwischen Chip und Slotblende.
Dann wirds auch hoffentlich was mit den 10k Punkten :) https://www.3dmark.com/3dm/131786728?
https://i.imgur.com/M00QsNC.png
https://i.imgur.com/Jr2LyDd.png
BigKid
2025-04-30, 22:28:35
Kann da vielleicht etwas behilflich sein:
Harware basics: Gigabyte AORUS Master 16 (BYH) - 16" 240Hz 2560 x 1600, Ultra 9 275HX, RTX 5080, 32GB/1TB - Win 11 Pro Gaming Notebook (230W max. TDP)
https://www.ple.com.au/products/673853/gigabyte-aorus-master-16-byh-16-240hz-ultra-9-275hx-rtx-5080-32gb1tb-win-11-pro-gaming-notebook
NVIDIA Control Center alles auf standard, Gigabyte GiMATE im "Game Mode" Profil. Fan Profil auf "Performance" ("Turbo" ist ja nur bekloppt laut :freak:). Ai Boost overclocking/tuning Dingens ausgeschaltet (Bringt eh nix, habs mit/ohne probiert)
https://i.imgur.com/hD9QaVp.png
3DMark Ergebnisse:
https://imgur.com/a/dgLaEP2
Mit Fan auf Turbo, paar Treiber Schummeleien geht vielleicht noch +5%... aber wollte erstmal alles moeglichst Standard lassen.
Ok... Mein 2023er G14 mit RTX4080 kommt auf 15260. Das ist doch ein ordentlicher Sprung... Danke....
(Edit: Graphics Score)
Sardaukar.nsn
2025-05-01, 08:06:16
Asus Astral 5080 - Doom The Dark Ages - https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/66019-rog-astral-geforce-rtx-5080-doom-edition-republic-of-gamers-trifft-doom-the-dark-ages.html
https://www.hardwareluxx.de/images/cdn02/uploads/2025/Apr/nicest_thread_ul/rog_doom_5080_003_3840px.png
https://www.hardwareluxx.de/images/cdn02/uploads/2025/Apr/secure_sensor_r7/rog_doom_5080_006_3840px.png
Cpl. Dwayne Hicks
2025-05-01, 08:48:41
Ok... Mein 2023er G14 mit RTX4080 kommt auf 15260. Das ist doch ein ordentlicher Sprung... Danke....
Cool, ich nehme an deine 15260 sind vom TimeSpy standard?
~+30% haette ich auch nich gedacht. Koennte es auch ein CPU Limit sein? TimeSpy ist ja schon ein etwas aelterer benchmark. Was ist denn dein Graphics score?
BigKid
2025-05-01, 10:38:58
Cool, ich nehme an deine 15260 sind vom TimeSpy standard?
~+30% haette ich auch nich gedacht. Koennte es auch ein CPU Limit sein? TimeSpy ist ja schon ein etwas aelterer benchmark. Was ist denn dein Graphics score?
Das war der Graphics Score :-) und ja Timespy Standard... Ich könnte noch mit Speedway und Firestrike dienen... Firestrike mach ich immer weil ich da Werte bis zu meinen ersten Notebooks für habe...
Asus G14 (2022) mit RTX4080 - Ultimativ (also Mux auf RTX4080 only) , Turbo und am Netz - 3DMark Timespy Standard
3DMark Score 13104.0
Graphics Score 15260.0
Physics Score 7279.0
Graphics Test1 102.85 fps
Graphics Test2 85.02 fps
Physics Test 24.46 fps
Spannend ist nu die Frage: Wieviel vom Zugewinn ist durch höhere Leistungsaufnahme erkauft ... Mehr Leistungsaufnahme ist ja eher uncool (pun intended) - speziell in kleinen/leichten Notebooks.
Armaq
2025-05-01, 12:19:14
Warum sind ausgerechnet die non 5090 der 5000er betroffen? Entweder lese ich falsch, aber so richtig einen Grund kann ich nicht erkennen.
Cpl. Dwayne Hicks
2025-05-01, 12:23:29
Das war der Graphics Score :-) und ja Timespy Standard... Ich könnte noch mit Speedway und Firestrike dienen... Firestrike mach ich immer weil ich da Werte bis zu meinen ersten Notebooks für habe...
Asus G14 (2022) mit RTX4080 - Ultimativ (also Mux auf RTX4080 only) , Turbo und am Netz - 3DMark Timespy Standard
3DMark Score 13104.0
Graphics Score 15260.0
Physics Score 7279.0
Graphics Test 1102.85 fps
Graphics Test 285.02 fps
Physics Test 24.46 fps
Spannend ist nu die Frage: Wieviel vom Zugewinn ist durch höhere Leistungsaufnahme erkauft ... Mehr Leistungsaufnahme ist ja eher uncool (pun intended) - speziell in kleinen/leichten Notebooks.
Ach tho, danke :)
Also bei meinem Laptop sind 175W TDP fuer die GPU vorgesehen (Beim G14 sinds 150W oder?), der Rest wohl fuer die CPU.
Aber ehrlich gesagt verstehe ich das ganze nicht genau, das wird sich wohl dynamisch aendern je nach Anwendung.
Und ja, laut Reviews ist der Gigabyte Aorus Master 16 Laptop, schwer, fett und laut :D Aber deswegen performt er auch aehnlich wie ein Razer Blade 16 mit RTX 5090. :)
https://www.pcgamer.com/hardware/gaming-laptops/gigabyte-aorus-master-16-gaming-laptop-review/
Ich bin jedenfalls zufrieden, zocken kann ich mit Kopfhoerern (aber ohne auch total OK fuer mich in den meisten Spielen), und wirklich "leise" sind gaming laptops sowieso alle nicht. :)
joergg
2025-05-02, 10:16:38
Da ich gerade die Zotac 5080 zurücksenden musste, da sie kein Bildsignal senden wollte, frage ich mich nun, welche neue 5080 ich mir bestellen soll.
Gerade unter dem Aspekt, der von Igor entdeckten Hotspots, frage ich mich: hilft da eine 3,5er Karte mit der etwas voluminöseren Kühllösung oder hat das kaum Einfluss und eine 2,5 Slot Karte ist auch nicht schlechter? Leider hatte Igor zwar erwähnt, dass nicht alle Modelle gleichermaßen betroffen sind, aber diese nicht benannt.
Übertakten ist übrigens für mich irrelevant.
LG, Jörg.
Sardaukar.nsn
2025-05-02, 11:43:19
Ich habe eine einfache Asus 5080 Prime, die hat aber auch Wärmeleitpads auf der Rückseite zur Backplate hin. Eine deutlich größere Gainward Phantom hatte das nicht.
Generell auch kann ich Asus Prime zum UVP auch gerne weiterempfehlen, wenn du kein RGB usw. benötigst.
BigKid
2025-05-04, 09:59:21
Ach tho, danke :)
Also bei meinem Laptop sind 175W TDP fuer die GPU vorgesehen (Beim G14 sinds 150W oder?), der Rest wohl fuer die CPU.
Aber ehrlich gesagt verstehe ich das ganze nicht genau, das wird sich wohl dynamisch aendern je nach Anwendung.
Und ja, laut Reviews ist der Gigabyte Aorus Master 16 Laptop, schwer, fett und laut :D Aber deswegen performt er auch aehnlich wie ein Razer Blade 16 mit RTX 5090. :)
https://www.pcgamer.com/hardware/gaming-laptops/gigabyte-aorus-master-16-gaming-laptop-review/
Ich bin jedenfalls zufrieden, zocken kann ich mit Kopfhoerern (aber ohne auch total OK fuer mich in den meisten Spielen), und wirklich "leise" sind gaming laptops sowieso alle nicht. :)
Ist immer die Frage was man sucht. Ich hab seit langer Zeit einen Desktop und einen Laptop... Fett (und nicht so laut dank guter Lüfter und Kühler) ist bei mir der Desktop/Tower.
Der Laptop muss für mich vor allem transportabel für unterwegs sein und Sofa tauglich. Da bin ich die letzten Jahre beim G14 und G15 gelandet (leider gibts letzteren nicht mehr...). Da hat Asus meinen Sweet Spot getroffen... Die können auch leise wenn man DLSSS und Framerate Limits einsetzt.
Leider hebt das G14 nun preislich zu sehr ab. Mir wäre eine günstigere Variante mit IPS (und sogar ohne mini-Led) bald lieber als OLED und teuer. Mal sehen ob ich noch schwach werde... Muss mal abwarten obs Testberichte gibt die sich speziell das G14 2025 vornehmen...
BlacKi
2025-05-04, 11:49:38
bei den gigabyte karten läuft wohl bei vertikaler montage die soße weg. selbst, oder gerade bei den teuren aorus modellen?
https://www.techpowerup.com/forums/attachments/1746181805279crop2-png.397771/
https://www.techpowerup.com/forums/threads/gigabyte-aorus-rtx-5080-master-starts-leaking-thermal-gel-after-four-weeks-of-light-mmo-gaming.335904/
IceKillFX57
2025-05-04, 12:35:03
auch hier:
https://www.computerbase.de/forum/threads/gigabyte-aorus-rtx-5070-ti-master-gel-laeuft-heraus.2237853/
BlacKi
2025-05-04, 19:50:39
also auch die normale günstige windforce betroffen?
Sardaukar.nsn
2025-06-13, 09:40:29
Diese Woche ist endlich auch der Alphacool Block für die Asus 5080 Prime eingetroffen. Wird wohl ein Stück kürzer werden. Asus hat ja bereits ab Werk Phasenwechsel Pad verwendet, daher kommt hier beim Umbau auch ein Honeywell PTM7950 (https://www.igorslab.de/von-wegen-ueberhypt-honeywell-ptm7950-im-labortest-und-als-game-changer-fuer-grafikkarten/) zum Einsatz.
https://i.imgur.com/kCEyB9X.jpeg
https://i.imgur.com/7bPxRZX.jpeg
https://i.imgur.com/A2NteBD.jpeg
Sardaukar.nsn
2025-06-16, 22:42:52
Luft- vs Wasserkühlung der Asus 5080 Prime @ 450 Watt.
GPU 62.1°C, Memory 58°C @ 3100rpm, 100% fan speed
GPU 48.9°C, Memory 42°C @ Alphacool Watercooler ...gute Werte, aber da hätte ich mir aber noch mehr erhofft.
https://www.3dmark.com/compare/sn/4640808/sn/6833821#
https://i.imgur.com/tAsy3RU.jpeg
Ein paar Bilder vom Umbau: https://imgur.com/a/lH63xmd
Holundermann
2025-06-17, 08:15:27
Kann ich dieses BIOS https://www.techpowerup.com/vgabios/275647/275647 von Zotac auch auf meine 5080 Zotac Solid OC aufspielen? Wenn ja - wie geht das? Die Zotac hat ja einen BIOS Switch und der Kühler verträgt sicher mehr - würde gerne das maximum aus meiner Graka rausholen (können).
Sardaukar.nsn
2025-06-17, 09:26:51
Hier gib es eine Anleitung, ist nicht kompliziert. Mit dem Dual-Bios kannst du eh nicht viel verkehrt machen… https://www.aw-community.com/forum/topic/9848-vbios-flashen-mit-nvflash/
Holundermann
2025-06-17, 09:58:36
Hier gib es eine Anleitung, ist nicht kompliziert. Mit dem Dual-Bios kannst du eh nicht viel verkehrt machen… https://www.aw-community.com/forum/topic/9848-vbios-flashen-mit-nvflash/
Cool, danke für die schnelle Antwort - werde ich mir anschauen und hoffentlich dann auch erfolgreich durchführen.
Übrigens: schöner Umbau deiner Karte - und danke das du uns dabei teilhaben lässt! Auch wenn ich dazu normalerweise nicht Kommentiere - ich schaus mir an und finds schon sehr interessant!
Mayk-Freak
2025-06-17, 10:03:44
Danke für den Bios Link, hab das Bios gerade auf meine 5080 Zotac Solid OC geflasht und es funktioniert einwandfrei endlich hat Zotac auch ein ordentliches Power Bios und man muss nicht das Asus Astral Bios nehmen.
Sardaukar.nsn
2025-06-17, 11:34:08
@Holundermann: Gern geschehen. So ca. alle zwei Jahre steht diese Bastelarbeit an und ich freue mich immer schon drauf. Neu dieses Mal statt Wärmeleitpaste ein Phasenwechsel Pad. https://www.igorslab.de/von-wegen-ueberhypt-honeywell-ptm7950-im-labortest-und-als-game-changer-fuer-grafikkarten/
So richtig bin ich aber noch nicht überzeugt, da die Differenz (Delta) zwischen GPU Temperatur und Wassertemperatur mit bis zu 26°C doch sehr hoch ist. Allerdings hat die 5080 auch nur die halbe Chipfläche wie eine 5090 und hier gehen schon bis zu 450 Watt auf einer relativ kleinen Fläche durch. Bei CPUs ist das ja oft noch ein größeres Thema und wird mit immer kleineren Strukturen auch nicht einfacher.
Holundermann
2025-06-18, 13:46:01
Danke für den Bios Link, hab das Bios gerade auf meine 5080 Zotac Solid OC geflasht und es funktioniert einwandfrei endlich hat Zotac auch ein ordentliches Power Bios und man muss nicht das Asus Astral Bios nehmen.
Ich konnte es auch erfolgreich Flashen - hab mein Silent Bios überschrieben. Nur leider erreiche ich keine Mehrperformance und die ganze Sache wird instabil. Es schaut so aus als würde durch die Mehrabwärme das mehr an Taktfrequenz aufgefressen. Bin erst mal wieder aufs 'amplify' Bios zurück - cool das die Karte dual bios hat.
Zum rumspielen machts schon Spass, werde sicher noch einige Stunden versuchen das maximum raus zu holen mit dem Bios - für den Alltagsbetrieb scheint es mir aber nicht tauglich.
Komischer Nebeneffekt - 3DMark findet kein Display - im Benchmark run seh ich nichts, er läuft aber durch und gibt mir offizielle Punkte.
Danke für die Hilfestellung auf jeden Fall.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.