Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread
ChaosTM
2025-03-06, 22:17:40
Einfach beim Graka Kauf warten, bis alle Fakten am Tisch liegen.
Vor allem wenn es um 2,5+k geht.
mein Hobby lass ich mir durch solche Blödheiten sicher nicht vermiesen
Radeonfreak
2025-03-06, 22:32:12
Hä? Ich hab doch einen Nvidia Treiber installiert? :confused: Die Info ist ja vollkommen daneben. Damit meine ich jetzt nicht Dich, MiamiNice, danke für die Info. Ich reg mich nur über den Inhalt auf, weil das so nicht stimmen kann. Mit dem 572.60 wurden keine ROPs in GPU-Z angezeigt.
Ich hatte noch Ärger mit Blacksceens und Co. trotz BIOS Update der MSI, aber mit dem aktuellen Treiber 572.70 gehts wieder, und die ROPs werden wieder angezeigt.
Das wird mir alles zu kompliziert, ich muß mir wohl ein neues Hobby suchen, Enten füttern im Park oder so einen Scheiß.
Mit einer 4090 wär das nicht passiert. :redface::tongue:
Hat jemand eine Idee, warum GPU-Z in der aktuellen Version die ROPs nicht mehr anzeigt?
Mir ist aufgefallen, daß ich nur x8 PCIe hatte. Lag daran, daß ich auf meinem Mainboard einen NVMe M.2 Slot verwendete, so daß er 1. PCIe Slot automatisch in x8 schaltet. Wieder mal nicht genauer hingeschaut. :rolleyes:
NVMe nun verschoben, und jetzt endlich wieder x16. Aber PhysX wird nicht angezeigt, obwohl es installiert ist. :rolleyes: Dreckssoftware, prüft das wieder nur die 32Bit Variante, die jetzt rausgeflogen ist?
Wo waren nochmal die blöden Enten...?
Mit einer 4090 wär das nicht passiert. :redface::tongue:
Ja, da sagst Du echt was Wahres. :redface::frown: Wenn ich so nachdenke und nachrechne, habe ich eigentlich mit der Umrüstung wieder einen komplett neuen PC da stehen, wo ich so grob mal fast 2000 € reingesteckt hatte, nur wegen der 5090.
Kriegsgeier
2025-03-07, 10:34:25
ob 8x oder 16x ist quasi egal!
Da werden keine Texturen rübergeschoben über den PCI-Express oder ähnliches.
Sind keine 10GB/s die notwendig wären.
PS: Das alles läuft sowieso über GDDR6-7 Speicherinterface auf der GraKa selbst!
ob 8x oder 16x ist quasi egal!
Ok, deshalb hatte ich es auch noch nicht bemerkt. :tongue:
Und ob PCIe 5.0 oder 4.0 oder 3.0 ist wohl auch egal
L1NPFFRTzLo
Kriegsgeier
2025-03-07, 10:40:11
Die CPU macht über den PCI-Express quasi einen Schupterklopf bei der Graka oder umgekehrt wenn es einen Trigger gebraucht wird. Quasi einen Interrupt ;)
Und dafür reichen wahrscheinlich auch 4x Lines ;)
Die Latenz ist das was hier eher wichtiger ist als die Bandbreite.
ChaosTM
2025-03-07, 10:42:38
PhysiX kann Blackwell nicht mehr.
Brauchst jetzt eine 2. NV Karte im unteren PCIe Slot, falls der nicht vom Graka-Gehäuse verdeckt wird, um das in Hardware spielen zu können.
Kriegsgeier
2025-03-07, 10:46:19
PhysiX in 32 Bit kann es nicht, in 64 Bit schon, oder?
Eben, 64Bit ist doch noch da.
PhysiX kann Blackwell nicht mehr.
Nur die 32Bit Variante, 64Bit gibts noch.
Kriegsgeier
2025-03-07, 11:03:17
Alte Futures aus dem Treiber zu entfernen bedeutet den Treiber auch schlanker machen. Kann auch positiv gesehen werden.
Sweepi
2025-03-07, 11:27:27
Sie haben komplett Cuda 32-bit Support abgesägt für Blackwell.
Das spart wahrscheinlich Maintenance Arbeit, macht aber den Treiber weder schlanker noch schneller.
Ich hätte gerne, dass Nvidia einen inoffiziellen 32 zu 64 bit dll "shim"/DLL-Injection auf Github stellt, dann kann das bei Bedarf von der Community gepflegt werden, und Nvidia ist raus.
Alternativ, nur für Games: 32bit PhysX DLL, welche die CPU-PhysX DLL ersetzt und entweder Multicore-CPU oder auf jeder GPU via z.B. OpenCL läuft. Letzteres halte allerdings für noch unwahrscheinlicher als es generell ist, da potentiell Gefahr für Eigentore (OMG, 32bit PhysX läuft auf AMD Karten besser als Nvidia!!!)
Edit: Hab' das mal ChatGPT ausformulieren lassen, war mir zu viel Arbeit:
Yes, it is technically possible to create a wrapper or shim DLL to enable a 32-bit application (that depends on 32-bit CUDA) to work with 64-bit CUDA, but it is a complex and advanced task that would require a solid understanding of how both the CUDA API works and how dynamic linking and inter-process communication (IPC) work in Windows (or any OS you're using).
Key Points to Consider:
1. CUDA Architecture Differences:
CUDA provides both 32-bit and 64-bit libraries. The 64-bit version typically uses the `x86_64` architecture, while the 32-bit version uses `x86`.
Your application needs to be compatible with the architecture of the CUDA libraries it's linking against. If your application is compiled with 32-bit references, it will expect to link against 32-bit CUDA libraries. The 64-bit version of the CUDA library will not work directly with 32-bit applications due to the difference in memory addressing.
2. Wrapper/Shim DLL Approach:
What you need: You would essentially need to create a 64-bit shim DLL that acts as an intermediary between your 32-bit application and the 64-bit CUDA libraries. The shim would use inter-process communication (IPC) or similar mechanisms to handle the communication between the 32-bit application and the 64-bit CUDA runtime.
How it could work:
The 32-bit application would load the 32-bit shim DLL.
The shim DLL could then spawn a separate 64-bit process that loads and interacts with the 64-bit CUDA libraries.
The shim would need to pass data between the 32-bit and 64-bit processes via shared memory, IPC, or some other method.
The 64-bit process would run the CUDA calls and return the results to the shim, which then passes them back to the 32-bit application.
3. Challenges:
Memory Addressing: 64-bit applications can address more memory than 32-bit applications, so this difference might require careful handling of memory structures and buffers between the 32-bit and 64-bit components.
Data Marshalling: Converting and passing data between 32-bit and 64-bit processes can be tricky. You would need to ensure that all data passed between the two is correctly marshaled (converted) to ensure compatibility.
Complexity and Performance: This approach introduces overhead due to the need to use IPC and extra layers between your application and the CUDA functionality. The performance may be reduced compared to using a fully 64-bit application.
4. Alternatives:
Rebuild the Application: The more straightforward solution would be to rebuild your application as a 64-bit application, which would then be able to link directly to the 64-bit CUDA libraries. This is a more natural and efficient approach.
CUDA 64-bit Version for 32-bit Applications: In some cases, there may be a way to update your application to use a version of CUDA that supports both 32-bit and 64-bit environments (though this is less common).
Conclusion:
While creating a wrapper or shim DLL is technically possible, it’s quite complex and would introduce additional overhead. The most efficient and robust solution is to rebuild your application as a 64-bit version to match the 64-bit CUDA libraries. If you must use a 32-bit application, the wrapper approach would be a last-resort method, requiring significant development effort and careful attention to inter-process communication and data handling.
If you're set on the shim DLL approach and need further details or examples on how to implement this, feel free to ask!
Ganz solide, allerdings muss man 2 "shims" erstellen, einen dafür:
The 32-bit application would load the 32-bit shim DLL.
und den Zweiten dafür:
The shim DLL could then spawn a separate 64-bit process that loads and interacts with the 64-bit CUDA libraries.
Den Satz hier koennte man so verstehen, dass eine 64-bit DLL reicht:
You would essentially need to create a 64-bit shim DLL that acts as an intermediary between your 32-bit application and the 64-bit CUDA libraries. The shim would use inter-process communication (IPC) or similar mechanisms to handle the communication between the 32-bit application and the 64-bit CUDA runtime.
Aber das ist schon meckern auf hohem Niveu...
Thomas1973
2025-03-07, 17:07:28
Ich bin irgendwie unschlüssig. Eigentlich wäre 5090 geile Ggafikkarte oder auch 5070 ti. Ich hab im Moment Intel Ark 750 für online Games, die ich damals für 200 gekauft habe. Die sollte aber wieder weg, weil nur Zwischenlösung.
Ich sehe aber auf meinem 4k 27 Zoller keine großen Unterschiede zwischen ultra High und medium Einstellungen. Klar ich meine damit die Standbilder mit Raytracing, weil 750 dann in die Knie geht, kann ich ja aber trotzdem die ganze Pracht irgendwie damit herzaubern und betracht. Spielen tue ich dann natürlich in 4k alles medium ohne Ray. Auf 4k verzichte ich natürlich nicht, denn da sehe sogar ich einen krassen Unterschied.
Liegt es vieleicht daran,dass alle neuen Games so programiert sind, dass grundsätzlich sie auch in Medium gut aussehn müssen,also so etwas wie "Grundaussehen" haben, damit die mehrheit der Gamer, die sowas wie NV 3060 drin habe, auch zufrieden sein können? Das erinner einwenig an Komunismus. Weil dieses "Grundaussehen" bei allen mir bekannten Spielen sehr ordentlich ist.
Thomas1973
2025-03-07, 17:23:34
Für VR hingegen wäre 5090 absolit top, wenn es sie mal zu kaufen gibt, weil in VR man jedes grafische Detail sofot sehen wird, im gegensatz zu 27 Zoller. Ich spiele aber eigentlich immer nur VR Standalone, wegen Kabelsalat. Wenn es irgendwann WiFi 8 gibt, dann ist das mit dem Salat natürlich weg.
Vorher
DAJiPCe1pTA
Nachher
Qi0zTcZGs64
I like
Das ist beides folding@home.
Das nehme ich gerne zum testen, weil der Strom nicht völlig sinnlos verschwendet wird.
woodsdog
2025-03-08, 08:33:32
könntest du etwas mehr kontext erleutern?
Der Adapter zur Leistungsmessung verhindert das Singen? oder wat seh ich nich?
Nein, ich hab einfach nur mehr Glück als beim letzten mal gehabt.
Drei Jahre lang eine Graka die ohne KH kaum auszuhalten war, und jetzt eine die selbst bei 600W kaum zu hören ist. Freu mich drauf, wenn Watercool endlich Kühler ausliefert.
Der Wireview ist einfach nur ein 180° Adapter für mich^^
basix
2025-03-08, 10:33:19
Wow, grosser Unterschied beim Coil Whine.
Armaq
2025-03-08, 10:49:48
Ich hab nur Coil Whine bei einer bestimmten Belastung (ein DeepSeek R1 Modell) um die 420 W. Bei Volllast auch nicht und bei anderen Teillasten auch nicht.
Ich hatte Coil-Whine schon beim schauen von Videos -:-(
Deshalb ist die neue Graka ein großer Schritt (abgesehen davon, dass sie dafür doppelt so viel Energie verbrät^^).
Weiß hier jemand, warum die blöde neue Nvidia App meine Highlights bei PUBG nicht mehr aufnimmt?
572.60 ging noch alles, mit 572.70 nicht mehr.
Armaq
2025-03-09, 20:43:25
Weiß hier jemand, warum die blöde neue Nvidia App meine Highlights bei PUBG nicht mehr aufnimmt?
572.60 ging noch alles, mit 572.70 nicht mehr.
Blöder Gag, aber vielleicht gibts keine Highlights mehr? NonWHQL gab es auch schon wieder ein Update. Bei mir ist die Performance der Karte "unstet". D.h. wenn ich 3DMark laufen lasse, schwankt die Punkteanzahl durchaus stark. Von sehr guten Ergebnissen zu unterdurchschnittlich für die 5090. Takt ist manchmal nur 25xx und manchmal 29xx beim gleichen Game.
Lawmachine79
2025-03-09, 21:12:05
Nein, ich hab einfach nur mehr Glück als beim letzten mal gehabt.
Drei Jahre lang eine Graka die ohne KH kaum auszuhalten war, und jetzt eine die selbst bei 600W kaum zu hören ist. Freu mich drauf, wenn Watercool endlich Kühler ausliefert.
Der Wireview ist einfach nur ein 180° Adapter für mich^^
Was meinst Du damit, dass der Wireview ein 180° Adapter ist?
crux2005
2025-03-10, 01:24:18
m4HbjvR8T0Q
Ich bin irgendwie unschlüssig. Eigentlich wäre 5090 geile Ggafikkarte oder auch 5070 ti. Ich hab im Moment Intel Ark 750 für online Games, die ich damals für 200 gekauft habe. Die sollte aber wieder weg, weil nur Zwischenlösung.
Ähnlich hier, die Übergangs A770 LE läuft viel besser als ich dachte. Gut, spiele auch nur mal zwischendurch aufm FHD-Fernseher aber das packt die locker auch mit High, je nachdem was man halt laufen hat. Gefühlt bringen da 300% mehr GPU Power nur 20% mehr Bildqualität.
Wäre VR nicht, würde ich nicht mehr zurück zu NV schielen.
Armaq
2025-03-10, 11:50:42
https://youtu.be/m4HbjvR8T0Q
Was für ein unnötiger Test. Das kann ich ja zu Hause besser machen. Ich hab mir das Video angeschaut. Man lernt einfach gar nichts aus dem Test, was man nicht eh schon kannte. Einfach viele Balken produziert und lange geredet.
Was eine 5090 kann wird man erst sehen, wenn die nächste CPU Gen. kommt. Das war schon bei der 4090 so. Ich hab mal einen Vergleich angehangen zw. 5090 und 6900XT im gleichen System, hat den gleichen Wert.
In den theoretischen Benchmarks liegt die 5090 auch weiter vor einer 4090 als in den Games. Es gibt komische Ausreißer in Anwendungen. Die Treiberstabilität finde ich eher nervig bei nvidia im Moment. Früher nervte die bei AMD, dann wurde das gut. Jetzt nervt es bei nvidia.
Was meinst Du damit, dass der Wireview ein 180° Adapter ist?
Mein Gehäuse ist zu klein um das Kabel mit vernünftiger Biegung vorne an der Karte langzuführen. Der Wireview ist mein 180° Adapter.
Ich bekomme das Gehäuse zu ohne das Kabel biegen zu müssen, das geht nach hinten über die Graka weg. Steckt jetzt halt hinten im Wireview anstatt vorne an der Karte.
Lawmachine79
2025-03-10, 14:55:34
Mein Gehäuse ist zu klein um das Kabel mit vernünftiger Biegung vorne an der Karte langzuführen. Der Wireview ist mein 180° Adapter.
Ich bekomme das Gehäuse zu ohne das Kabel biegen zu müssen, das geht nach hinten über die Graka weg. Steckt jetzt halt hinten im Wireview anstatt vorne an der Karte.
Ahhh! Smart! Wenn man ein Kabel mit Temperaturproblem hätte, wäre das Wireview geeignet, das zu erkennen?
Ahhh! Smart! Wenn man ein Kabel mit Temperaturproblem hätte, wäre das Wireview geeignet, das zu erkennen?
Die Pro-Version hat Temperatur-Sensoren und kann "melden".
@PHuV hat so nen Ding, und kann bestimmt mehr dazu erzählen.
Edgecrusher86
2025-03-10, 20:19:46
Was eine 5090 kann wird man erst sehen, wenn die nächste CPU Gen. kommt. Das war schon bei der 4090 so. Ich hab mal einen Vergleich angehangen zw. 5090 und 6900XT im gleichen System, hat den gleichen Wert.
Eigentlich geht das doch auch jetzt schon - einfach härter belasten. 5K DL-DSR ist zum Beispiel eine Möglichkeit dafür und zudem nochmals ein gute Steigerung der Bildqualität gegenüber 4K nativ. Ein Bekannter hat mit der RTX 5090 AORUS MASTER so gegenüber der RTX 4090 GAMING OC über viele anspruchsvolle Titel (inkl. PT/RT) hinweg zumeist zwischen 40-50% Mehrleistung erzielt (CPU ist ein 13900K @ Stock), das ist dann schon einiges mehr, als die meisten Reviews suggerieren mit grob 20-30% Mehrleistung, selten mehr.
Dank FG / MFG 2x und DLSS dazu sind auch häufig dreistellige fps möglich.
Mit der RTX 5090 kann man dann halt quasi statt P auf Q wechseln.
RoughNeck
2025-03-10, 20:29:03
Ich hatte Coil-Whine schon beim schauen von Videos -:-(
Deshalb ist die neue Graka ein großer Schritt (abgesehen davon, dass sie dafür doppelt so viel Energie verbrät^^).
Wie hast du das so lange mit der kreischenden TUF ausgehalten?
Das ist ja Körperverletzung :eek:
Armaq
2025-03-10, 22:33:14
Eigentlich geht das doch auch jetzt schon - einfach härter belasten. 5K DL-DSR ist zum Beispiel eine Möglichkeit dafür und zudem nochmals ein gute Steigerung der Bildqualität gegenüber 4K nativ. Ein Bekannter hat mit der RTX 5090 AORUS MASTER so gegenüber der RTX 4090 GAMING OC über viele anspruchsvolle Titel (inkl. PT/RT) hinweg zumeist zwischen 40-50% Mehrleistung erzielt (CPU ist ein 13900K @ Stock), das ist dann schon einiges mehr, als die meisten Reviews suggerieren mit grob 20-30% Mehrleistung, selten mehr.
Dank FG / MFG 2x und DLSS dazu sind auch häufig dreistellige fps möglich.
Mit der RTX 5090 kann man dann halt quasi statt P auf Q wechseln.
Ja, natürlich. Es gab auch VR Reviews die das schon gezeigt haben. Aber in der Breite kommt das immer erst später an.
Wie hast du das so lange mit der kreischenden TUF ausgehalten?
Das ist ja Körperverletzung :eek:
Drei Jahre. Ich hab eine am Release-Tag bekommen.
Ich bin nicht so der Zurück-Schicken-Typ.
RoughNeck
2025-03-11, 00:04:06
Aber das ist schon heftig.
So fiepen hab ich noch keine gehört. Meine 4090 fiept hörbar erst ab 180 FPS und da auch nicht annähernd so wie deine TUF. Die Asus Teile scheinen hier besonders auffällig zu sein, die 5080 vom Kollegen fiept auch schon beim YoutTube schauen, was ich lächerlich find.
Ich bin auch nicht der Typ der leichtfertig was retourniert aber so fiepen, das geht gar nicht.
Deine 5090 ist eine Phantom?
CompuJoe
2025-03-11, 01:54:54
Drei Jahre. Ich hab eine am Release-Tag bekommen.
Ich bin nicht so der Zurück-Schicken-Typ.
Hatte das damals mit der Zotac 1080Ti Mini, das war abgesehen von der eh lauten Lüftung auch so ein Bienennest, merkwürdigerweise nicht in den Games mit hoher Last, besonders laut war es in Guild Wars 2 trotz Begrenzer! Die Karte ist dann einfach gestorben und bin auf eine 3080 gewechselt die dann plötzlich komplett Lautlos war gefühlt ^^
Colin MacLaren
2025-03-17, 06:55:25
Lol, ich habe das auf reddit in /r/nvidia gefragt:
The argument for the GPU shortage is limited capacity at TSMC, GDDR7 and the same nodes being used for AI chips. So if this was true, why is the 5080 so abundantly available, but the 5090 isn't? Don't get me wrong, there is still a shortage of 5080s, but the 5070s and 5080s are dropping like every 10 minutes on Amazon or major hardware retailers here in Europe. If you spent a day watching an availability Discord or Telegram channel, you can get a 5070 TI or 5080 for a half decent price of 100-200 EUR above FE MSRP.
However, the 5090 is super rare and either gets botted within a second or sells out within minutes even at ridiculous prices like 3,700 EUR for a mid-range model. While eBay scalping has somewhat declined, retail prices are still going up.
Das haben die Moderatoren nach einer halben Stunde gelöscht. Das sind tatsächlich solche Aktionen, wo ich als Konsument anfange zu überlegen, ob ich von dieser Firma nochmal etwas kaufen möchte. Samsung hat das bei mir schon geschafft.
Lawmachine79
2025-03-17, 09:55:45
Kann mir eigentlich jemand eine Telegramm-Quelle für die 5090 bestellen? Die Frostbite soll die Tage kommen und dann werde ich mich mal intensiver damit beschäftigen.
Armaq
2025-03-17, 10:20:05
Kann mir eigentlich jemand eine Telegramm-Quelle für die 5090 bestellen? Die Frostbite soll die Tage kommen und dann werde ich mich mal intensiver damit beschäftigen.
Computerbase Discord funktioniert ganz okay imho. Besser als HWLuxx aus meiner Sicht.
Lawmachine79
2025-03-17, 10:39:16
Computerbase Discord funktioniert ganz okay imho. Besser als HWLuxx aus meiner Sicht.
Und wie sieht es mit Telegram aus?
Colin MacLaren
2025-03-17, 10:58:09
Und wie sieht es mit Telegram aus?
Hwwluxx. Die sind schnell, aber da ist halt alles drin gemischt. Da kriegst Du in der Stunde 30 Nachrichten und wenn ein großer Drop ist, verschwindet auch die 5090 gern mal an Platz 5 / 10. Trotzdem habe ich alle drei 5090 bisher dank HWLUXX.
Lawmachine79
2025-03-17, 11:02:35
Thx!
Armaq
2025-03-17, 11:12:39
Lol, ich habe das auf reddit in /r/nvidia gefragt:
Das haben die Moderatoren nach einer halben Stunde gelöscht. Das sind tatsächlich solche Aktionen, wo ich als Konsument anfange zu überlegen, ob ich von dieser Firma nochmal etwas kaufen möchte. Samsung hat das bei mir schon geschafft.
Internetforen löschen Beiträge, was ganz Neues. ;) Passiert im 3DC nie.
Leider ist die Realität, dass man die Dinge so handhabt. Deine Fragen waren mehr als berechtigt.
hq-hq
2025-03-17, 11:49:06
Kann mir eigentlich jemand eine Telegramm-Quelle für die 5090 bestellen? Die Frostbite soll die Tage kommen und dann werde ich mich mal intensiver damit beschäftigen.
du kannst sie hier schon mal bestellen schau: https://www.edigitech.de/detail/index/sArticle/974784
Lawmachine79
2025-03-17, 12:28:54
du kannst sie hier schon mal bestellen schau: https://www.edigitech.de/detail/index/sArticle/974784
Lol, thx, aber ich brauche nur eine ;).
Colin MacLaren
2025-03-18, 18:31:20
Thx!
Habe noch einen Compterbase Telegramkanal gefunden, da kann man auch filtern nach Kartentyp: tg://resolve?domain=ComputerBase_InStock_RTX5090
Internetforen löschen Beiträge, was ganz Neues. ;) Passiert im 3DC nie.
Leider ist die Realität, dass man die Dinge so handhabt. Deine Fragen waren mehr als berechtigt.
Das ist was anderes. Hier werden nur wirklich harte Sachen gelöscht UND man erhält dann vom Mod eine Info (und Verwarnung), was man falsch gemacht habe. Auf reddit wird man entweder wortlos gelöscht, gebannt oder am schlimmsten - geshadowbanned. Das ist auf reddit extrem verbreitt, ca. 1/3 von meinen Beiträgen werden dort so gehandhabt, quer durch alle Themenbereiche und Subreddits. Daher mag ich diese Plattform so gar nicht , leider ist sie die größte und man kommt nicht drumherum.
Ansonsten: 2.899 EUR. Spulenfiepen und Lüfter gehen in Ordnung, Taktfreudigkeit ist eher meh, wirklich stabil sind gerade mal 15.200 Steel Nomad, mit der Brechstange 15.395. Kann aber evt. auch am aktuellen Hotfix-Treiber liegen, dass da ca. 1,5% zu den Palits fehlen, die ich vorher getestet hatte. Die ZOTAC ist vom Lüfter her aber deutlich besser, war bissel günstiger und hat 5 Jahre Garantie. Die Mango ist ein Running-Gag im Luxx.
Armaq
2025-03-18, 20:58:15
Habe noch einen Compterbase Telegramkanal gefunden, da kann man auch filtern nach Kartentyp: tg://resolve?domain=ComputerBase_InStock_RTX5090
Das ist was anderes. Hier werden nur wirklich harte Sachen gelöscht UND man erhält dann vom Mod eine Info (und Verwarnung), was man falsch gemacht habe. Auf reddit wird man entweder wortlos gelöscht, gebannt oder am schlimmsten - geshadowbanned. Das ist auf reddit extrem verbreitt, ca. 1/3 von meinen Beiträgen werden dort so gehandhabt, quer durch alle Themenbereiche und Subreddits. Daher mag ich diese Plattform so gar nicht , leider ist sie die größte und man kommt nicht drumherum.
Ansonsten: 2.899 EUR. Spulenfiepen und Lüfter gehen in Ordnung, Taktfreudigkeit ist eher meh, wirklich stabil sind gerade mal 15.200 Steel Nomad, mit der Brechstange 15.395. Kann aber evt. auch am aktuellen Hotfix-Treiber liegen, dass da ca. 1,5% zu den Palits fehlen, die ich vorher getestet hatte. Die ZOTAC ist vom Lüfter her aber deutlich besser, war bissel günstiger und hat 5 Jahre Garantie. Die Mango ist ein Running-Gag im Luxx.
Die Karte sieht man häufiger verfügbar. Ich hab mittlerweile die Kanäle abbestellt, da ich mit der Palit weitermachen werde. Erste Maßnahme seitdem sie "abgenommen" ist: Silent BIOS. Ich habe keine Ahnung wo der Unterschied bisher ist, außer dass die Karte leiser ist, aber sie war vorher bei 1600 u/min schon nicht laut. Sobald ich das Fenster kippe, hört man den PC sowieso nicht und ich wohne mittlerweile in der Vorstadt.
Sardaukar.nsn
2025-03-18, 21:43:52
GZ, aber die noch vorhandene Folie zeigt mir irgendwie das du trotz des hohen Preises nicht 100% überzeugt bist. Hast du in den nächsten 14 Tagen noch ein anderes Eisen im Feuer?
Colin MacLaren
2025-03-19, 07:49:48
GZ, aber die noch vorhandene Folie zeigt mir irgendwie das du trotz des hohen Preises nicht 100% überzeugt bist. Hast du in den nächsten 14 Tagen noch ein anderes Eisen im Feuer?
Morgen ist MSI Drop inkl. Ventus. Wenn ich da eine Ventus für <= 2.600 EUR durchkriege oder eine Suprim für maximal 3K, dann wäre die was.
Ein bisschen giegelt es mich an, dass ich hier wieder in der Chiplotterie ins Klo gegriffen habe, wenn andere mit Stock Kühler über 16K Steel Nomad schaffen.
Das ist natürlich irrational, im Endeffekt werde ich die Karte eh undervolten und dann limitiert das maximale +1000 Offset pro Spannungspunkt im Afterburner, sodass effektiv alle Karten im gleichen Takte bei 2.600 MHz oder so laufen.
CompuJoe
2025-03-21, 23:04:54
Habe die selbe Karte und in Steel Nomad heute 16.139 Punkte gemacht.
CPU ist aber auch OC + UV und Speicher ist durchoptimiert!
GPU UV kommt die Tage dran.
Btw. die Karte hilft auch in manchen Szenarien Strom zu sparen, Guild Wars 2 was immer noch hin und wieder mit Freunden zocke, die 4080 hat da immer so 250-270 Watt verbraten beim 138fps cap, die Karte hat aber so viel Dampf das ich laufend im cap bin und die Karte nur 160-180 Watt verbraucht.
Das weiße A-RGB Kabel muss ich noch ändern, sieht doof aus.
Armaq
2025-03-22, 00:18:27
Habe die selbe Karte und in Steel Nomad heute 16.139 Punkte gemacht.
CPU ist aber auch OC + UV und Speicher ist durchoptimiert!
GPU UV kommt die Tage dran.
Btw. die Karte hilft auch in manchen Szenarien Strom zu sparen, Guild Wars 2 was immer noch hin und wieder mit Freunden zocke, die 4080 hat da immer so 250-270 Watt verbraten beim 138fps cap, die Karte hat aber so viel Dampf das ich laufend im cap bin und die Karte nur 160-180 Watt verbraucht.
Das weiße A-RGB Kabel muss ich noch ändern, sieht doof aus.
Reinpassen ist hier aber echt das falsche Wort :D
Deine Beobachtung teile ich. Sobald man halt mit VSync etc. arbeitet, ist die Karte keine Heizung mehr, sondern geht moderat mit dem Strom um. Natürlich kann man sie permanent bei 600W betreiben, aber das ist schon fast schwierig.
CompuJoe
2025-03-22, 00:32:29
Reinpassen ist hier aber echt das falsche Wort :D
Deine Beobachtung teile ich. Sobald man halt mit VSync etc. arbeitet, ist die Karte keine Heizung mehr, sondern geht moderat mit dem Strom um. Natürlich kann man sie permanent bei 600W betreiben, aber das ist schon fast schwierig.
Sage nix, die Auswahl war begrenzt bei den Karten, hab zwar noch nen fallback Gehäuse hier liegen aber kein Bock für den Umbau gehabt, beim Ausbau der etwa 0,5mm kürzeren 4080 habe ich mal wieder am Radi Spuren hinterlassen, beim Einbau der 5090 habe ich den Radi vorher ausgebaut, da sind ca. 0,5mm Platz.
Kommt aber demnächst eh ne neue Wasserkühlung rein, bei der fängt der Lüfter für die Spawas an zu rasseln, die ist nicht mal 3 Monate alt.
Monster Hunter Wilds Bench 30 Minuten Loop ohne cap, CPU max 71°c, GPU 74°c, VRAM 73°c, 16-Pin Power max. 563 Watt
CompuJoe
2025-03-25, 02:50:57
Das 12v2x6 Kabel was meinem Netzteil beilag wird netzteilseitig rund 110°c heiß, an der Grafikkarte rund 90°c. Gemessen nach 2 Stunden Indy zocken.
Der neue 12VUHPVRKLMN Stecker:
https://www.fiverevse.com/Uploads/image/20240406/20240406161128_43954.jpg
optional mit Anbindung an custom wakü
Das 12v2x6 Kabel was meinem Netzteil beilag wird netzteilseitig rund 110°c heiß, an der Grafikkarte rund 90°c. Gemessen nach 2 Stunden Indy zocken.
Da verteilt sich der Strom vermutlich ungleichmäßig auf die Adern. Bei mir ist das jedenfalls nicht so... nicht mal handwarm.
Lawmachine79
2025-03-25, 14:01:09
Das 12v2x6 Kabel was meinem Netzteil beilag wird netzteilseitig rund 110°c heiß, an der Grafikkarte rund 90°c. Gemessen nach 2 Stunden Indy zocken.
Hättest Du eine ASUS, könntest Du jetzt die Pins auslesen ;).
CompuJoe
2025-03-25, 15:38:01
Besorge mir eine Strommesszange, und überlege den beigelegten Adapter zu nutzen.
mironicus
2025-03-25, 15:47:16
Erstes Preview zum Razer Blade 16 mit RTX 5090. Es gibt Kritik an der Latenz mit Einsatz von Multiframe Generation. Es ist nicht perfekt für alles.
iKcu4o9rjfA
Armaq
2025-03-25, 22:31:05
Besorge mir eine Strommesszange, und überlege den beigelegten Adapter zu nutzen.
Würde ich machen. Mit Laser Thermometer komme ich auf 60°C Max bei geschlossenem Gehäuse.
CompuJoe
2025-03-25, 22:32:50
Also mit dem Original Kabel das dem Pure Power 12M 1000Watt beiliegt hatte ich auf einer Leitung unter Volllast mit Furmark 13,8A, habe die Kabel ein paar mal ab- und wieder angesteckt. Seit dem ist alles I.O. und die Temperaturen bewegen sich im Bereich von ~50°c beim Netzteil und rund 60-70°c an der Grafikkarte.
Ich glaube so eine Strommesszange wird nun Standardequipment in Zukunft beim Bau von PCs.
PS. Habe es auch mit einem Laserthermometer von Bosch gemessen.
https://shop.bosch-diy.com/de/de/messgeraete/787/universaltemp
PPS. Habe das mal mit der Messgenauigkeit von meinem Pixel 8 Pro verglichen, das Pixel ist doch erfreulich genau!
Lawmachine79
2025-03-26, 00:13:14
Also mit dem Original Kabel das dem Pure Power 12M 1000Watt beiliegt hatte ich auf einer Leitung unter Volllast mit Furmark 13,8A, habe die Kabel ein paar mal ab- und wieder angesteckt. Seit dem ist alles I.O. und die Temperaturen bewegen sich im Bereich von ~50°c beim Netzteil und rund 60-70°c an der Grafikkarte.
Ich glaube so eine Strommesszange wird nun Standardequipment in Zukunft beim Bau von PCs.
PS. Habe es auch mit einem Laserthermometer von Bosch gemessen.
https://shop.bosch-diy.com/de/de/messgeraete/787/universaltemp
PPS. Habe das mal mit der Messgenauigkeit von meinem Pixel 8 Pro verglichen, das Pixel ist doch erfreulich genau!
Was kann das Pixel 8 Pro denn messen? Ich habe eins.
Daredevil
2025-03-26, 00:24:37
Temperatur kannste messen
https://store.google.com/intl/en_uk/ideas/articles/pixel-8-pro-temperature-sensor/
x-force
2025-03-26, 01:08:14
bei dem budget sollte doch eine kleine hikmicro usb-c wärmebildkamera ab 100€ ein nobrainer sein. da siehst du dann auch gleich welche leitung am wärmsten ist.
Thomas Gräf
2025-03-26, 04:18:07
Mensch das die Lösung vor allem bei PCVR.
Das Wärmebild des Stromanschlusses über Virtual Desktop irgendwo unten einbleden.
Dann klappt das auch mir der Hausratsversicherung. :biggrin:
Lawmachine79
2025-03-26, 12:50:23
Wenn ich Furmarke, liegen exakt 600W an. Kabel sind dann bei ca. 50°C, der 12VHPWR-Stecker an der Graka bei 65W. Zwei Leitungen ziehen dann im Bereich 9,5A, eine Leitung zieht nur 8A (es sind auch immer dieselben Leitungen), der Rest ist ausgeglichen. Wenn ich noch Prime95 dazuschalte liegt der Rechner insgesamt bei 930W :D.
Heimscheißer
2025-03-26, 13:03:16
Wenn ich Furmarke, liegen exakt 600W an. Kabel sind dann bei ca. 50°C, der 12VHPWR-Stecker an der Graka bei 65W. Zwei Leitungen ziehen dann im Bereich 9,5A, eine Leitung zieht nur 8A (es sind auch immer dieselben Leitungen), der Rest ist ausgeglichen. Wenn ich noch Prime95 dazuschalte liegt der Rechner insgesamt bei 930W :D.
930🤣👍 brutal
Was für n PSU hast denn im Einsatz?
Lässt Lawmachine hier etwa Potenzial liegen? Mit Furmark + CB23 + Lüfter und Pumpe auf Last kann ich 1153W aus der Dose ziehen :-P
Wird wohl so 1050-1090W + Netzteilverlust sein. Ist ein Enermax 1200W Gerät verbaut - also noch Luft für 100W mehr per Shunt Mod (bzw. eigentlich noch mehr, da 100% CPU Short Term Power Limit + 100% GPU PL in der Praxis nicht vorkommen).
MiamiNice
2025-03-26, 13:18:25
Mensch das die Lösung vor allem bei PCVR.
Das Wärmebild des Stromanschlusses über Virtual Desktop irgendwo unten einbleden.
Dann klappt das auch mir der Hausratsversicherung. :biggrin:
Ich mag wie Du denkst :biggrin:
Wenn ich Furmarke, liegen exakt 600W an. Kabel sind dann bei ca. 50°C, der 12VHPWR-Stecker an der Graka bei 65W. Zwei Leitungen ziehen dann im Bereich 9,5A, eine Leitung zieht nur 8A (es sind auch immer dieselben Leitungen), der Rest ist ausgeglichen. Wenn ich noch Prime95 dazuschalte liegt der Rechner insgesamt bei 930W :D.
10x Stecker rein und raus. Und dann neu messen bitte.
Lawmachine79
2025-03-26, 15:01:36
930 brutal
Was für n PSU hast denn im Einsatz?
Corsair RM1000e.
Lässt Lawmachine hier etwa Potenzial liegen? Mit Furmark + CB23 + Lüfter und Pumpe auf Last kann ich 1153W aus der Dose ziehen :-P
Wird wohl so 1050-1090W + Netzteilverlust sein. Ist ein Enermax 1200W Gerät verbaut - also noch Luft für 100W mehr per Shunt Mod (bzw. eigentlich noch mehr, da 100% CPU Short Term Power Limit + 100% GPU PL in der Praxis nicht vorkommen).
Hast Du einen Intel? Ich habe einen 9800X3D. Der verbraucht ja kaum was. Pumpe habe ich auch, die zieht 15 Watt. Dann noch 4xM2 und eine PCI-E-Karte (mit einer weiteren M2). Und zig Lüfter (12). Und LEDs.
MiamiNice
2025-03-26, 15:21:29
98003D = 120 Watt
98003D OC = 200 Watt
Board = 40-50 Watt
Pumpe = 15 Watt
5x M2 = 5x 2 Watt = 10 Watt
12 Lüfter a 2,5 Watt = 30 Watt
GPU = 600 Watt
Ich denke nicht das Du OC machst also 815 Watt ca. für Lawmachine79
Differenz zu Wuge = ca. 335 Watt.
Ein 3DC Intel nimmt rund 400 Watt aus der Leitung. 815 - 120 + 400 = Könnte also passen mit Intel, aber es fehlen noch rund 50 Watt :) Könnte Ram und anderer Kram sein.
Colin MacLaren
2025-03-26, 15:29:08
850W Netzteil mit 9800X3D @5.4 GHz und 5090 @600W. Kein Problem. Nur Furmarken tue ich damit nicht. In realen Spielen zieht die CPU vielleicht 65-70W und die GPU 400W. Mit einem 10700K @Kotzgrenze hatte ich das Netzteil aber schon zum Abschalten bewegen können. Mit einer AMd CPU kriege ich es nicht tot.
The_Invisible
2025-03-26, 15:36:12
Ihr gebt aber schön Gas :D
Sollte ich mal eine 5090 in den Fingern kriegen wird die wohl per UV bei so 400-450W laufen, eher weniger. Im Sommer ist man dann aber ohne Klima wirklich aufgeschmissen :D
x-force
2025-03-26, 15:45:55
Board = 40-50 Watt
Könnte also passen mit Intel, aber es fehlen noch rund 50 Watt :) Könnte Ram und anderer Kram sein.
die 50w kannst du wahrscheinlich dem board zurechnen, die ziehen alle mehr als intel.
Armaq
2025-03-27, 10:12:22
Wenn ich Furmarke, liegen exakt 600W an. Kabel sind dann bei ca. 50°C, der 12VHPWR-Stecker an der Graka bei 65W. Zwei Leitungen ziehen dann im Bereich 9,5A, eine Leitung zieht nur 8A (es sind auch immer dieselben Leitungen), der Rest ist ausgeglichen. Wenn ich noch Prime95 dazuschalte liegt der Rechner insgesamt bei 930W :D.
Was hast du denn jetzt für ne Karte?
Warum habt ihr alle solche Kindergartennetzteile? :D Ich fühl mich jetzt nicht edgy genug mit nem 1300er Seasonic.
MiamiNice
2025-03-27, 10:22:30
Ich habe mir auch schon überlegt das NT zu uppen. War mit den 1000 Watt immer gut dabei aber heute verbaut schon der Pöbel diese Wattage. Wird Zeit für more Power ;D
Lawmachine79
2025-03-27, 10:34:33
Was hast du denn jetzt für ne Karte?
Warum habt ihr alle solche Kindergartennetzteile? :D Ich fühl mich jetzt nicht edgy genug mit nem 1300er Seasonic.
ROG Astral OC. Sonst könnte ich ja nicht verraten, wieviel Saft ich auf den Kabeln habe :D.
Ich habe mir auch schon überlegt das NT zu uppen. War mit den 1000 Watt immer gut dabei aber heute verbaut schon der Pöbel diese Wattage. Wird Zeit für more Power ;D
Als ich das 1000W Ding gekauft habe, dachte ich, "da ist jetzt erstmal Reserve". Jetzt reicht es gerade so.
Cubitus
2025-03-27, 12:01:40
Ich gehe davon aus, dass man erst nach dem nächsten Node-Sprung klar sehen wird, wie viel Strom die neuen GPUs tatsächlich benötigen und ob sich überhaupt jetzt ne dicke PSU Investion lohnen wird.
Vermutlich dürften aber selbst für eine 6090 etwa 1000 Watt ausreichen, denn irgendwann sind einfach alle LuKü-Kühlkonzepte vollständig ausgereizt.
Man konnte es bereits beobachten:
Die 3090 (Ti) hat etwa 10 % mehr Strom verbraucht und war dabei dennoch rund 70 % langsamer als die 4090.
Der Stromverbrauch ist also trotz der enormen Leistungssteigerung nicht entsprechend mitgewachsen im Gegenteil!
Und die 5090?
Die erwartet wohl dasselbe Schicksal wie schon die 3090 (Ti): Aktuell zahlt man noch deutlich über 3.000 Euro, doch sobald die 6090 erscheint,
darf man froh sein, wenn man die Karte überhaupt noch für 1000 bis 2000 Euro verkaufen kann.
Die 5090 dürfte deshalb wohl nur halb so lange aktuell bleiben wie die 4090! Nach zwei Jahren ist die Karte faktisch abgeschrieben. Sobald dann die 6090 erscheint, ergibt es eher Sinn, in Sachen Zukunftssicherheit gleich wieder 3–4K zu investieren, weil diese Karte vermutlich mindestens vier Jahre oder länger relevant bleiben wird. Schließlich dürften weitere Node-Sprünge langsamer erfolgen, und Nvidia hat ja bereits klar gesagt, dass sie insbesondere bei den Consumer-GPUs die Chipfläche nicht weiter vergrößern können. Blackwell scheint daher aktuell das Maximum dessen zu markieren, was technisch noch möglich ist.
Lawmachine79
2025-03-27, 12:43:46
Ich gehe davon aus, dass man erst nach dem nächsten Node-Sprung klar sehen wird, wie viel Strom die neuen GPUs tatsächlich benötigen und ob sich überhaupt jetzt ne dicke PSU Investion lohnen wird.
Vermutlich dürften aber selbst für eine 6090 etwa 1000 Watt ausreichen, denn irgendwann sind einfach alle LuKü-Kühlkonzepte vollständig ausgereizt.
Man konnte es bereits beobachten:
Die 3090 (Ti) hat etwa 10 % mehr Strom verbraucht und war dabei dennoch rund 70 % langsamer als die 4090.
Der Stromverbrauch ist also trotz der enormen Leistungssteigerung nicht entsprechend mitgewachsen im Gegenteil!
Und die 5090?
Die erwartet wohl dasselbe Schicksal wie schon die 3090 (Ti): Aktuell zahlt man noch deutlich über 3.000 Euro, doch sobald die 6090 erscheint,
darf man froh sein, wenn man die Karte überhaupt noch für 1000 bis 2000 Euro verkaufen kann.
Die 5090 dürfte deshalb wohl nur halb so lange aktuell bleiben wie die 4090! Nach zwei Jahren ist die Karte faktisch abgeschrieben. Sobald dann die 6090 erscheint, ergibt es eher Sinn, in Sachen Zukunftssicherheit gleich wieder 3–4K zu investieren, weil diese Karte vermutlich mindestens vier Jahre oder länger relevant bleiben wird. Schließlich dürften weitere Node-Sprünge langsamer erfolgen, und Nvidia hat ja bereits klar gesagt, dass sie insbesondere bei den Consumer-GPUs die Chipfläche nicht weiter vergrößern können. Blackwell scheint daher aktuell das Maximum dessen zu markieren, was technisch noch möglich ist.
Sehe ich auch so, die 4090 wird eine der langlebigsten Karten, die es je gegeben hat (neben wschl. der 8800GTX und der 9800 Pro). Das liegt nicht nur daran, dass sie so gut war und dass man mit Blackwell gegen eine "Glasdecke des (mit 4/5nm) technisch Machbaren" stößt, sondern auch daran, wie sich NVidias Produktsegmentierung verändert hat. Früher war es so, dass die neue Karte im oberen Performance/unterem Highendsegment auf dem Level oder leicht über dem Level der ehemaligen Highendlösung war. Aber weil der Abstand zwischen 5090 und 5080 so groß ist, wird die 4090 noch bis c.a. 5 Jahre nach ihrem Release die zweitschnellste Grafikkarte bleiben. Früher war das 5070TI/5080-Äquivalent schneller als das 4090-Äquivalent. Die 5080 saufen sich viele durch exzessives OC nur schön und mit 3-4 Bier im Kopp ist die dann "quasi auf 4090-Level".
mironicus
2025-03-27, 14:30:49
Endlich! Razer Blade 16 mit RTX 5090 Review.
RvCwMskRZHc
Lawmachine79
2025-03-27, 14:45:01
Endlich! Razer Blade 16 mit RTX 5090 Review.
https://youtu.be/RvCwMskRZHc
Der Typ macht mich verrückt mit dem Buchstaben "RL". Keine wie der im australischen Alphabet heisst.
Der Test bringt gute Neuigkeiten für alle, die sich mit einem 4090-Laptop eingedeckt haben :D. Die waren vor ein paar Wochen richtig günstig bei Ebay.
mironicus
2025-03-27, 15:06:49
Was hast du denn bezahlt mit was für einer Ausstattung?
Refurbished: Lenovo Legion Pro 7 Gaming Laptop // Ryzen 9 7945HX, RTX 4090, 64 GB RAM, 2,5 TB - 2749 Euro.
https://www.ebay.de/itm/405681744129
Weiteres Review:
OOZ-UHr04Ps
Lawmachine79
2025-03-27, 15:17:19
Was hast du denn bezahlt mit was für einer Ausstattung?
Refurbished: Lenovo Legion Pro 7 Gaming Laptop // Ryzen 9 7945HX, RTX 4090, 64 GB RAM, 2,5 TB - 2749 Euro.
https://www.ebay.de/itm/405681744129
Weiteres Review:
https://youtu.be/OOZ-UHr04Ps
2.700 (korrigiert, hatte 2.500 im Kopf), Zephyrus G14 (2023) Refurbished mit 32 GB Ram. Ich konnte keine Gebrauchspuren erkennen, es ist quasi neu. Das Lenovoding ist auch ein Schnäppchen. Strix würde ich nicht kaufen, 18" ist viel zu groß.
Colin MacLaren
2025-03-27, 16:28:07
Was hast du denn bezahlt mit was für einer Ausstattung?
Weiteres Review:
https://youtu.be/OOZ-UHr04Ps
Da bin ich ja froh, dass der Verkauf meines Notebooks 3x nicht geklappt hat. Außer dem 9950HX3D gibt es nichts Spannendes seit 2023 im Notebookbereich. Die 1080 und 2080 im Laptop waren noch richtig geil. Das waren die vollen Desktopkarten mit leicht niedrigerem Powerllimit, d.h. eine 2080 mobile mit OC war so schnell wie eine 2080 Desktop @stock. Da gab es auch noch echte 200W für die GPU allein (Acer Triton 900) und nicht wie heute 200W für GPU und CPU kombiniert.
Lawmachine79
2025-03-27, 16:43:03
Da bin ich ja froh, dass der Verkauf meines Notebooks 3x nicht geklappt hat. Außer dem 9950HX3D gibt es nichts Spannendes seit 2023 im Notebookbereich. Die 1080 und 2080 im Laptop waren noch richtig geil. Das waren die vollen Desktopkarten mit leicht niedrigerem Powerllimit, d.h. eine 2080 mobile mit OC war so schnell wie eine 2080 Desktop @stock. Da gab es auch noch echte 200W für die GPU allein (Acer Triton 900) und nicht wie heute 200W für GPU und CPU kombiniert.
Richtig. Die Ryzens ab 7840HS sind richtig krass gut, an denen stimmt einfach alles. Und die 4060 und die 4090 sind auch richtig gute Karten. 4070 und 4080 sind etwas ungünstig positioniert was die Abstände zur 4070 und zur 4090 angeht. Intel ist schon lange unkaufbar bei Laptops, wenn man von reinem Businesszeug wie 1360P etc. absieht.
mironicus
2025-03-27, 16:46:06
DLSS 4 mit Multi Frame Generation macht zumindest bei diesen neuen Laptops jetzt richtig Sinn, da sie keine höhere TDP haben können. Außerdem hat man 24 GB VRAM und mehr Performance für LLM und Generative KI.
Lawmachine79
2025-03-27, 16:56:45
DLSS 4 mit Multi Frame Generation macht zumindest bei diesen neuen Laptops jetzt richtig Sinn, da sie keine höhere TDP haben können. Außerdem hat man 24 GB VRAM und mehr Performance für LLM und Generative KI.
In einem Laptop ist MFG natürlich nochmal geiler, gefühlt gibt es da ja deutlich mehr 240Hz Panels als bei normalen Monitoren.
Colin MacLaren
2025-03-27, 17:11:27
Die Teile sind halt oft sehr CPU limitiert. Wenn ich jetzt ein neues Gerät bräuchte, dann würde ich mir so ein Tongfang Barebone mit optionaler Wasserkühlung und 9950HX3D vorbestellen (Schenker oder Dreammachines). Das erscheint mir sinnvoller, als ein Razer Blade mit ineffizienter Intel-CPU oder einem zwar effizienten AMD ohne 3D-Cache, dem aber in Spielen an der Steckdose die Puste ausgeht. Da ich den Laptop aber primär nutze, um 3x im Jahr mit den Kumpels Lan mit AoE 2 und Diablo 2 Ressurrected zu machen, reicht die 4090 wahrscheinlich aus. Ich war jetzt mehrere Jahre auf dem Trip, nur ein Gerät pflegen zu wollen und deswegen einen Laptop zu nehmen, den ich vor allem stationär nutze. Aber während sich seit 2018 die GPU-Leistung auf dem Desktop vervierfacht hat, hat sie sich bei Laptops nur etwas mehr als verdoppelt. Die Laptops hängen als Primärgerät mittlerweile einfach zu weit hinterher.
Lawmachine79
2025-03-27, 17:18:21
Die Teile sind halt oft sehr CPU limitiert. Wenn ich jetzt ein neues Gerät bräuchte, dann würde ich mir so ein Tongfang Barebone mit optionaler Wasserkühlung und 9950HX3D vorbestellen (Schenker oder Dreammachines). Das erscheint mir sinnvoller, als ein Razer Blade mit ineffizienter Intel-CPU oder einem zwar effizienten AMD ohne 3D-Cache, dem aber in Spielen an der Steckdose die Puste ausgeht. Da ich den Laptop aber primär nutze, um 3x im Jahr mit den Kumpels Lan mit AoE 2 und Diablo 2 Ressurrected zu machen, reicht die 4090 wahrscheinlich aus. Ich war jetzt mehrere Jahre auf dem Trip, nur ein Gerät pflegen zu wollen und deswegen einen Laptop zu nehmen, den ich vor allem stationär nutze. Aber während sich seit 2018 die GPU-Leistung auf dem Desktop vervierfacht hat, hat sie sich bei Laptops nur etwas mehr als verdoppelt. Die Laptops hängen als Primärgerät mittlerweile einfach zu weit hinterher.
Zumindest startet D2R auf einer 4090 Mobile ;).
Bei den 9955HX3D aufpassen, auf jeden Fall eine Dockingstation nehmen, wo USB-PD und DP-Port Alt über USB-C reicht. Die Dinger können weder Thunderbolt noch USB4. Da sind Phoenix/Hawk-Tuah-Point und Strix Point besser, die haben alle USB4 Support (wenn der Laptophersteller es implementiert).
[...] Blackwell scheint daher aktuell das Maximum dessen zu markieren, was technisch noch möglich ist.
... mit den von Nvidia gewünschten Margen. Man hätte auch locker einen ebenfalls gut abgehangenen N3-Prozess nehmen können, um richtig auf die Kacke zu hauen, aber das hat man aus nicht spezifizierten Gründen nicht. Vermutlich Kosten pro Transistor. Was bringt eine schnellere GPU-Generation, wenn die meisten Leute bei den Preisen aussteigen und die anderen auch bei einem kleinen Sprung kaufen? Alles richtig gemacht - bis auf die unfassbar vielen anderen "Fails", wie man neudeutsch sagt.
MfG
Raff
Thomas Gräf
2025-03-28, 03:03:59
Nv hat die konkurrenzlose Situation ausgenutzt wie es von den Marktgesetzen verlangt wird.
Sie haben wirklich alle verfügbaren Register dabei gezogen.
- im Vorfeld schon für Warenknappheit der etablierten Produkte gesorgt, damit das neue Produkt gekauft werden muss mangels Alternativen
- alte Technik mit Pizzakäse übergossen und das alles dann als TopEnd angepriesen
- diesen TopEnd aus technischer Sicht auch noch mit übelsten Pfusch versehen
- und nochmals beim neuen Produkt ebenfalls für Knappheit gesorgt damit für den Endkunden max Preise anliegen, die in Zukunft für noch mehr Pfusch dann Standard werden sollen.
Aber ja, man nennt das alles richtig gemacht...
mironicus
2025-03-28, 08:26:03
Dieser Test hier zeigt auch die AI-Performance gegenüber RTX 4090 Mobile-Laptops. Die RTX 5090 läuft aber nur mit 135 Watt und schlägt RTX 4090 mit 175 Watt deutlich in generativer KI und LLM. Längste Akkulaufzeit dank HX370 und beste Performance im Batterie-Modus beim Gamen, die RTX 4090-Versionen mit Intel 14900HX sind da kaum benutzbar mit 20-30 FPS, während das RTX 5090-Laptop hier noch 45-57 FPS liefert in Cyberpunk, Indiana Jones, Warhammer 3 in 1600P, High/Ultra Preset. Mit 2:20 Stunden vs 0:50-1:23 Stunden Laufzeit maximal bei den anderen.
dL_yOrFauhE
Colin MacLaren
2025-03-28, 09:36:11
Ja, in KI-Anwendungen vielleicht. Ansonsten ist das komplett unbeeindruckend, beim 4K Gaming liegen sie extrem dicht beieinander. Mit Akku die Laufzeit und die FPS eines Handhelds vs. die 1,5fache Leistung und FPS eines Handhelds. Spannend wäre, wie es sich verhält, wenn man den Intel undervoltetd und im Akkubetrieb den Boost ausmacht. Alle Vorteile, die das Blade 16 2025 gegenüber 23/24 hat, gehen mehr oder weniger auf die CPU zurück.
Lawmachine79
2025-03-28, 10:32:19
Ja, in KI-Anwendungen vielleicht. Ansonsten ist das komplett unbeeindruckend, beim 4K Gaming liegen sie extrem dicht beieinander. Mit Akku die Laufzeit und die FPS eines Handhelds vs. die 1,5fache Leistung und FPS eines Handhelds. Spannend wäre, wie es sich verhält, wenn man den Intel undervoltetd und im Akkubetrieb den Boost ausmacht. Alle Vorteile, die das Blade 16 2025 gegenüber 23/24 hat, gehen mehr oder weniger auf die CPU zurück.
Intel ist komplett unsinnig in Notebooks. Wenn es kompromisslos auf Leistung ankommt, sind die X3D schneller und auch schon der 7945HX (non-3D). Der 7945HX ist nicht sehr effizient; aber aber er ist effizienter als jeder Intel in dem Leistungsbereich. Wenn es auf Effizienz ankommt, sind alle AMD CPUs >= 7840HS schneller. Bei 35W gibt es keine Intel-CPU, die mit einem AMD >= 7840HS mithalten kann. Egal welches Szenario man nimmt, AMD ist besser, es ändert sich nur, welche AMD CPU besser ist.
Dieser Test hier zeigt auch die AI-Performance gegenüber RTX 4090 Mobile-Laptops. Die RTX 5090 läuft aber nur mit 135 Watt und schlägt RTX 4090 mit 175 Watt deutlich in generativer KI und LLM. Längste Akkulaufzeit dank HX370 und beste Performance im Batterie-Modus beim Gamen, die RTX 4090-Versionen mit Intel 14900HX sind da kaum benutzbar mit 20-30 FPS, während das RTX 5090-Laptop hier noch 45-57 FPS liefert in Cyberpunk, Indiana Jones, Warhammer 3 in 1600P, High/Ultra Preset. Mit 2:20 Stunden vs 0:50-1:23 Stunden Laufzeit maximal bei den anderen.
https://youtu.be/dL_yOrFauhE
Mit einer AMD CPU wäre das kein Problem, die Intel-CPUs zehren das Powerbudget von dem Laptop auf. Man muss 4090 vs 5090 schon mit derselben CPU testen. die RTX 4090 mag nominell ein Powerlimit von 175 Watt haben, aber Intel CPUs ziehen sich bis zu 155 Watt (in einem Laptop!). Da wird die 4090 nicht das gesamte Powerbudget zur Verfügung haben. Das Problem multipliziert sich natürlich nochmal im Batteriemodus, wo die Powerbudgets nochmals deutlich restriktiver sind. Deine Folgerung, dass der Intel Laptop im Batteriemodus kaum benutzbar ist, ist absolut korrekt, ich hatte ja mal einen und dachte nur "Fotzefack ?!?" als ich mal den Stromstecker gezogen habe.
Hakim
2025-03-28, 13:40:04
Jetzt bietet Alternate die 5090 in der Missing ROP Edition an.
https://videocardz.com/newz/geforce-rtx-5090-with-missing-rops-now-offered-as-b-stock-product-by-german-retailer-costs-e2899
ChaosTM
2025-03-28, 14:08:46
Lool
2900 für den Kastraten ist frech, wird aber sicher gezahlt.
Dumme neue NV-Graka Welt..
Hakim
2025-03-28, 14:12:46
Wenn es wenigstens deutlich günstiger wäre könnte man ja es holen und bei besserer Verfügbarkeit es bei ZOTAC direkt Austauschen lassen, wenn sowas überhaupt geht. Aber so?
rentex
2025-03-28, 14:23:38
Lesswell sucks.
mironicus
2025-03-28, 14:50:05
RmVpy6Vzpsc
mironicus
2025-03-28, 17:11:34
Cj8nV7ddsWo
Was für ein Stromfresser Intel 275HX doch ist.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92352&stc=1&d=1743178189
Hakim
2025-03-28, 17:26:52
Jetzt bietet Alternate die 5090 in der Missing ROP Edition an.
https://videocardz.com/newz/geforce-rtx-5090-with-missing-rops-now-offered-as-b-stock-product-by-german-retailer-costs-e2899
Hat halt tatsächlich wohl einer gekauft, ist nicht mehr zu haben, einfach nur WOW, für 2900€ muß man doch echt verzweifelt sein?
Für 1.900 hätte ich sie wohl genommen. Wilde Zeiten. :ugly:
MfG
Raff
w0mbat
2025-03-28, 17:31:26
(Teil)Defektes Produkt für deutlich über UVP. Welche Welt :ugly:
00-Schneider
2025-03-28, 18:46:20
Hat halt tatsächlich wohl einer gekauft, ist nicht mehr zu haben, einfach nur WOW, für 2900€ muß man doch echt verzweifelt sein?
Also für ~2,9k gibt es mittlerweile genug Karten mit allen ROPs. :confused:
https://geizhals.de/?cat=gra16_512&asuch=rtx+5090&asd=on&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&sort=p&bl1_id=30#productlist
Hakim
2025-03-28, 18:51:27
Vielleicht hat ja auch Alternate nach der ganzen Aufmerksamkeit es einfach raus genommen, ich hoffe es.
ChaosTM
2025-03-28, 19:25:47
https://youtu.be/Cj8nV7ddsWo
Was für ein Stromfresser Intel 275HX doch ist.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92352&stc=1&d=1743178189
An den Laptops sieht man dank des 175W Limits sehr schön, dass sich die Leistung pro Watt so gut wie nicht verändert hat und der Abstand zu den Desktop Modellen steigt dementsprechend weiter steil an.
5070er Desktop Leistung bei einen "5090"er Laptop ist bescheiden, kommt aber nicht unerwartet.
mironicus
2025-03-28, 20:50:25
Das Modell habe ich auch in LM Studio geladen auf einer Desktop-RTX 4090. Sie schafft 41 Tokens/Sekunde. LLMs profitieren vor allem von einer hohen Speichertransferrate.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92354&stc=1&d=1743191178
The_Invisible
2025-03-28, 22:25:43
Für 1.900 hätte ich sie wohl genommen. Wilde Zeiten. :ugly:
MfG
Raff
Dann hast weniger ROPs als bei der 4090, geht ja gar nicht :freak:
Hakim
2025-03-28, 22:38:03
Raff liebt Vram, 32GB vs 24GB :)
w0mbat
2025-03-28, 23:15:46
Dann hast weniger ROPs als bei der 4090, geht ja gar nicht :freak:
Die 5090 hat eh schon weniger GPixel/s als die 4090, mit ner "5089" liegt man dann deutlich unter der 4090.
Lawmachine79
2025-03-28, 23:20:20
An den Laptops sieht man dank des 175W Limits sehr schön, dass sich die Leistung pro Watt so gut wie nicht verändert hat und der Abstand zu den Desktop Modellen steigt dementsprechend weiter steil an.
5070er Desktop Leistung bei einen "5090"er Laptop ist bescheiden, kommt aber nicht unerwartet.
Ist ja auch kein Wunder, bei den 5090ern hat man es geregelt, indem man einfach noch mehr Kühlung drangemacht hat. Das klappt bei Laptops nicht.
Slipknot79
2025-03-29, 02:54:28
Für 1.900 hätte ich sie wohl genommen. Wilde Zeiten. :ugly:
MfG
Raff
Schwerer Fehler, das Teil ist in 40 Jahren viel moar wert. Wie eine 100 Jahre alte seltene Briefmarke mit Abarten. :redface:
ChaosTM
2025-03-29, 07:42:21
Raff liebt Vram, 32GB vs 24GB :)
Bei deutlich unter 2k hätte ich wohl auch zugeschlagen.
VRAM und Speicherbandbreite sind essentiell für den Betrieb der neuen 8k Micro-OLED VR Headsets.
Da warte ich aber noch mindestens eine Generation ab, bis die auch Inside Out- und Eytracking können.
Könnte bis zur 6090er dauern.
Colin MacLaren
2025-03-29, 07:46:48
Im Just Josh Video sieht man wiederum durchaus einen guten Sprung von 4090 -> 5090, vor allem bei den 1% Lows. Und im CB-Test sieht man, dass der 9955HX ohne X3D quasi eine Fehlkonstruktion für Laptops ist und mehr Saft benötigt als der Intel 275hx, vor allem im idle.
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9955hx-intel-core-ultra-9-275hx-test.91825/
Ganz schön fette Klopper sind die Tongfangs aber allemal.
ChaosTM
2025-03-29, 07:57:40
Kannte bisher nur das Review vom Jarod vom sehr dünnen/kompakten Razer. Das ist bauartbedingt natürlich nicht so gut kühlbar und daher auch hinter den "dicken" 4090ern in Spielen.
mironicus
2025-03-29, 14:27:00
In diesem Vergleichsvideo zieht die RTX 5090 im Blade 16 bis zu 175 Watt. Die höhere TDP soll möglich sein, wenn man das Razer Cooling Pad verwendet. Für die Echtheit kann ich nicht garantieren, es ist ein ziemlich kleiner Youtube-Kanal.
caYQkWUltN4
basix
2025-03-29, 17:53:06
8000 CHF für die RTX Pro 6000 mit 96GB:
https://www.digitec.ch/de/s1/product/pny-quadro-rtx-pro-6000-blackwell-96gb-gddr7-4xdp-96-gb-grafikkarte-56565279
https://www.brack.ch/pny-grafikkarte-nvidia-rtx-pro-6000-blackwell-ws-96-gb-1868148
Verglichen zu 5090ern ist das ja schon fast ein Schnäppchen :D
00-Schneider
2025-03-29, 18:50:59
Kann man damit zocken?
mironicus
2025-03-29, 19:27:55
Die verwendet Enterprise-Treiber.
Die KI meint:
Die Treiber (NVIDIA RTX Enterprise) sind nicht auf Gaming optimiert. User auf Reddit (z. B. r/nvidia) klagen über Frame-Drops, fehlende DLSS-Updates oder Kompatibilitätsprobleme mit neuen Spielen. Ein häufig genannter Punkt ist, dass die Leistung in Spielen oft hinter GeForce-Pendants zurückbleibt, obwohl die Hardware überlegen ist – ein Effekt, der auf die Treiber zurückzuführen ist.
Man könnte vielleicht GeForce-Treiber (z. B. RTX 5090) auf die RTX Pro 6000 erzwingen, indem man die INF-Datei anpasst und die Installation über den Gerätemanager durchführt – ein Trick, der bei älteren Quadro-Karten schon funktioniert hat. Für uneingeschränktes Gaming ist das Ergebnis aber fraglich: Die Leistung könnte suboptimal sein, Stabilität ist nicht garantiert, und Features wie DLSS könnten fehlen. Für LLMs bleibt die Karte mit den Enterprise-Treibern unschlagbar, aber wer Gaming priorisiert, sollte eher bei der RTX 5090 bleiben. Das Modding ist eher ein Experiment für Enthusiasten als eine praktikable Lösung.
basix
2025-03-30, 09:32:03
Kann man damit zocken?
Man sollte ganz normal GeForce (Game Ready / Studio) Treiber installieren können, ja. WHQL sollte allerdings da sein. OC usw. dürfte auf der Karte gelocked sein (also keine Anpassungen von Spannungen, Taktraten und evtl. auch Power Limit möglich).
Ich habe das zumindest bei Notebook Quadros schon gemacht und ging soweit ohne Probleme (also Installation). Sehr viel gespielt habe ich damit aber nicht.
Ja dann, wer kauft eine und probiert es aus? :D Oder evtl. kann jemand bei Nvidia nachfragen, ist vermutlich günstiger. Raff? :)
Igor hat zumindest auf der RTX Quadro A6000 Spielebenches drin gehabt:
https://www.igorslab.de/was-kann-der-ampere-vollausbau-nvidia-quadro-a6000-mit-48-gb-als-8k-und-5k-karte-im-gaming-test-dekadenz-pur-und-sieg-gegen-die-geforce-rtx-3090/2/
Corsair RM1000e.
Hast Du einen Intel? Ich habe einen 9800X3D. Der verbraucht ja kaum was. Pumpe habe ich auch, die zieht 15 Watt. Dann noch 4xM2 und eine PCI-E-Karte (mit einer weiteren M2). Und zig Lüfter (12). Und LEDs.
Ja... wobei die 320W die der (kurzfristig) nehmen darf natürlich auch weit aus dem Sweetspot sind. Im Gaming schaffe ich das nicht, da liegt der zwischen 110 und 150W bei 6 Ghz AllCore.
mironicus
2025-04-01, 15:08:39
Die Auslieferung vom neuen Razer Blade 16 mit RTX 5090 verschiebt sich einfach mal so um einen Monat... :freak: (Alternate)
Bis zum letzten Tag mit 31.03. beworben, um dann auf den 30.04. verschoben zu werden. :rolleyes:
Dural
2025-04-01, 15:36:43
Früher war es so das man auf den Quadro Karten auch GeForce Treiber laufen konnte. Ob das heute noch so ist... keine Ahnung.
Die Auslieferung vom neuen Razer Blade 16 mit RTX 5090 verschiebt sich einfach mal so um einen Monat... :freak: (Alternate)
Bis zum letzten Tag mit 31.03. beworben, um dann auf den 30.04. verschoben zu werden. :rolleyes:
Macht Watercool genau so, bei den Kühlern für die 5090.
Thomas Gräf
2025-04-02, 01:30:29
Ja vielleicht gibts ja zum Sommer den richtigen 5090 Release!
Also wenn Nv uns keinen Bären aufgebunden hat :P
aufkrawall
2025-04-11, 23:25:03
In UE5 zeigt sich Blackwell trotz HWRT-Lumen mal wieder als Auslastungskrüppel, 5090 in nativen 1440p (also etwas höhere Last als 4k Performance Upsampling) nur 24% vor die 9070 XT :freak: :
https://www.pcgameshardware.de/The-Talos-Principle-Spiel-54495/Specials/Reawakened-Test-Release-Preis-Benchmarks-1470097/2/
Wenn man dann noch annimmt, dass 2x FG vermutlich mit FSR auf Radeon auch noch besser skaliert...
x-force
2025-04-11, 23:42:28
In UE5 zeigt sich Blackwell trotz HWRT-Lumen mal wieder als Auslastungskrüppel, 5090 in nativen 1440p (also etwas höhere Last als 4k Performance Upsampling) nur 24% vor die 9070 XT :freak: :
cpu limit kannst du ausschließen?
imo bräuchte es für den schluß noch ne 5070ti oder 5080
aufkrawall
2025-04-11, 23:45:26
GPU-Auslastung scheint hier mit 9070, Gurken-5700X und 4k Performance auf 100% festzukleben. Wird bei PCGH mit 1080p ja auch noch etwas schneller.
Also falls CPU-Limit, imho höchstens geringfügig.
Troyan
2025-04-12, 09:12:54
In UE5 zeigt sich Blackwell trotz HWRT-Lumen mal wieder als Auslastungskrüppel, 5090 in nativen 1440p (also etwas höhere Last als 4k Performance Upsampling) nur 24% vor die 9070 XT :freak: :
https://www.pcgameshardware.de/The-Talos-Principle-Spiel-54495/Specials/Reawakened-Test-Release-Preis-Benchmarks-1470097/2/
Wenn man dann noch annimmt, dass 2x FG vermutlich mit FSR auf Radeon auch noch besser skaliert...
Was soll die Hardware machen, wenn die Software scheiße ist? UE5 ist absoluter Trash.
Immerhin ist die 5090 40% oder so effizienter. Sagt auch einiges über RNDA4 aus. ;D
dildo4u
2025-04-12, 09:46:07
Was soll daran verwunderlich sein das war immer die Richtung wenn die CPU nicht auch die selben 30% zulegen.
Zen 4X3D zu 6X3D ist das vielleicht.
Für Gameing macht natürlich nichts über der 5080 sinn.
Troyan
2025-04-12, 09:48:29
UE5 ist nicht CPU-limitierend. UE5 ist Software-limitierend. Es rennt null optimiert auf nVidia-Hardware, wenn man anfängt mit Nanite und Lumen zu arbeiten. Das ist technisch letztes Jahrzehnt.
Der Stromverbrauch meiner 5090 OC liegt bei unter 350W in 1440p. Alan Wake 2 mit Pathtracing rennt dagegen ins 600W Limit. Sprichtwörtlich bleiben hier einfach mal 50% Leistung auf der Strecke, eine halbe GPU oder besser eine komplette 5080 wird verschenkt.
Dank dem Monopol von EPIC wird sich auch nichts ändern. AMD optimierter Schrott eben. Kennt man aus der Vergangenheit.
dildo4u
2025-04-12, 09:52:22
Auch interessant das AMD mehr Geld macht mit der 5090 macht als Nvidia winzige Chips für 500€ ohne die ist der Klotz Wertlos.
Die 100fps sind keine UE5 Limitierung Fortnite rennt ca 140 mit 7800X3D.
140 FPS ohne FG Nobels Konzept in 2025.
RujaYiGZE4M
dargo
2025-04-12, 12:12:37
Was soll die Hardware machen, wenn die Software scheiße ist? UE5 ist absoluter Trash.
Immerhin ist die 5090 40% oder so effizienter. Sagt auch einiges über RNDA4 aus. ;D
Mal wieder die Trojaner Logik? Die 5090 ist ein Salvage, eine 9070XT nicht. Zumal letztere auch noch bei den Frequenzen geprügelt ist. Mal ganz davon abgesehen, dass das völlig verschiedene Segmente sind. Hirnverbrannter zu vergleichen gehts kaum noch.
Die 5090 ist ein Salvage, eine 9070XT nicht.
Watt? :confused:
dargo
2025-04-12, 13:33:28
Beschäftige dich mal mit dem Aufbau der jeweiligen SKUs, scheinst da eine Lücke zu haben.
Ex3cut3r
2025-04-12, 13:56:51
Und was genau hat das mit der Performance in der UE5 zu tun, ob da nun ein Salvage oder ein Full Chip verwendet wird?
Ich bin ehrlich gesagt auch kein großer Fan der Unreal Engine 5. Dieses ständige Lobhudeln, gerade von AufKrawall, geht mir ziemlich auf die Nerven. UE5 wirkt auf mich wie eine große Show – genau wie ihre Vorgänger. Die Tech-Demos von Epic sind immer absolute Grafik-Bretter, Next Gen pur. Aber die meisten tatsächlichen UE5-Spiele sehen im Vergleich dazu kaum annähernd so beeindruckend aus.
Dazu kommen dann noch klassische Probleme: Miese Multi-Core-Auslastung, Shader-Compilation-Stottern, Traversal-Stutters, alles, was den Spielfluss stört.
Hellblade 2 sah grafisch zweifellos beeindruckend aus. Vermutlich das bislang beste UE5-Spiel. Aber abgesehen davon? Kaum NPCs, enge schlauchige Levels, spielerisch ziemlich dünn. Da bleibt vom Glanz der Technik am Ende nicht viel übrig.
ChaosTM
2025-04-12, 14:20:21
UE5 ist leider eine Seuche und funktioniert nur bei einem Spiel wirklich voll zufriedenstellend..
Man darf einmal raten welches das ist.
Exxtreme
2025-04-12, 14:36:02
Watt? :confused:
Der Chip auf der RTX5090 ist teildeaktiviert. Es gibt eine volle Variante, aber die kann man kaum bezahlen.
Beschäftige dich mal mit dem Aufbau der jeweiligen SKUs, scheinst da eine Lücke zu haben.
Drücke Dich doch bitte einfach mal vernünftig und auf Deutsch aus, wenn Du altklug auf denglisch machen willst, und das nicht mal vernünftig kannst. Wenn, dann sag "salvaged chip", oder reduziert. Den Begriff, so wie Du in vewendest hast, gibts weder so auf Deutsch noch auf Englisch.
Der Chip auf der RTX5090 ist teildeaktiviert. Es gibt eine volle Variante, aber die kann man kaum bezahlen.
Oder so. Danke, so versteht man es wenigstens.
Und was genau hat das mit der Performance in der UE5 zu tun, ob da nun ein Salvage oder ein Full Chip verwendet wird?
Das verstehe ich auch nicht, aber er drückt sich ja öfters mal rätselhaft und schwer bzw. nicht verständlich aus.
aufkrawall
2025-04-12, 21:33:31
Und was genau hat das mit der Performance in der UE5 zu tun, ob da nun ein Salvage oder ein Full Chip verwendet wird?
Ich bin ehrlich gesagt auch kein großer Fan der Unreal Engine 5. Dieses ständige Lobhudeln, gerade von AufKrawall, geht mir ziemlich auf die Nerven. UE5 wirkt auf mich wie eine große Show – genau wie ihre Vorgänger. Die Tech-Demos von Epic sind immer absolute Grafik-Bretter, Next Gen pur. Aber die meisten tatsächlichen UE5-Spiele sehen im Vergleich dazu kaum annähernd so beeindruckend aus.
Halt der typische UE-Rant-Blödsinnspost, wenn man sich die Grafik im Vergleich zu Titeln von anderen Indie-Studios mit ~40 Mitarbeitern anschaut. :uclap:
Ex3cut3r
2025-04-13, 00:31:01
Alles gut. Ist halt deine Meinung, muss man ja nicht teilen. ;)
aufkrawall
2025-04-13, 00:35:25
Du fandest auch mal die RE-Engine toll. Geht mit jedem neuen Titel mehr den Bach runter, wobei das nach MHW kaum noch weiter möglich sein wird...
dargo
2025-04-13, 07:45:23
Und was genau hat das mit der Performance in der UE5 zu tun, ob da nun ein Salvage oder ein Full Chip verwendet wird?
Vielleicht mal ein wenig im Kontext lesen? Das Thema war Effizienz. Ich glaube kaum, dass es für dich neu ist, dass der Salvage von N48 im Gegensatz zum Fullchip nicht geprügelt wurde. Auch eine 5090 wurde nicht geprügelt und ist auch kein Fullchip.
x-force
2025-04-13, 10:03:18
Salvage [...] im Gegensatz zum Fullchip
hat auf die effizienz keinen einfluß, entscheidend ist der betriebspunkt.
Lurtz
2025-04-13, 10:40:35
Die 5070 Ti verbraucht in UE5 tendenziell auch (zu) wenig, wird also nicht sonderlich ausgelastet. Interessanterweise gibts ja dennoch UE5-Spiele, die auf Geforce besser laufen als auf Radeons?
Die ganzen persönlichen Meinungen dazu sind am Ende irrelevant, wenn das die Engine mit der mit Abstand größten Verbreitung am Markt ist. Schon schwach dass nVidia da mit Blackwell nichts verbessert hat.
aufkrawall
2025-04-13, 11:07:12
Interessanterweise gibts ja dennoch UE5-Spiele, die auf Geforce besser laufen als auf Radeons?
Es läuft ja nicht schlecht auf GeForces. Nur scheinen die stärker von schlechterer Skalierung betroffen zu sein, je mehr Einheiten vorhanden.
Bei gamegpu schlägt sich die 3080 gut (Edit: Ist aber auch die 12GB-Version): https://gamegpu.com/action-/-fps-/-tps/the-talos-principle-reawakened-test-gpu-cpu
Wobei schon 12GB mit händisch rBAR im Profil mit 4k DLSS Performance offenbar nicht mehr dafür ausreichen, dass das VT Terrain nach einigen Levelwechseln noch richtig lädt. Das ist ja so schon unschön träge, aber damit bleibt es dann offenbar irgendwann komplett mit Matsch-Tiles stecken.
Ex3cut3r
2025-04-13, 13:47:14
Du fandest auch mal die RE-Engine toll. Geht mit jedem neuen Titel mehr den Bach runter, wobei das nach MHW kaum noch weiter möglich sein wird...
Ja, in RE4 Remakae damals vor 2 Jahren fand ich sie wirklich solide, vor allem wenn das Ingame Sharpening per Hex Edit entfernt hat.
Exxtreme
2025-04-13, 14:52:15
Inno3D RTX5090 Frostbite Review von Derbauer:
VKyes3PzuzI
Ach ja, das "Phänomen" ist harmlos. Der hat gemerkt, dass sich das Spulenfiepen ändert wenn er die Strommesszange hinhält.
mironicus
2025-04-13, 15:04:50
Hat jemand schon mal probiert aus Spulenfiepengeräuschen eine bekannte Melodie zu erzeugen durch unterschiedliche Belastungungen der GPU (hohe FPS, niedrigere FPS...) :biggrin:
x-force
2025-04-13, 15:12:08
Inno3D RTX5090 Frostbite Review von Derbauer:
https://youtu.be/VKyes3PzuzI
Ach ja, das "Phänomen" ist harmlos. Der hat gemerkt, dass sich das Spulenfiepen ändert wenn er die Strommesszange hinhält.
gerade bei full cover kühlern kannst doch einfach alles mit putty zuspachteln und hast ruhe.
Armaq
2025-04-13, 23:34:13
gerade bei full cover kühlern kannst doch einfach alles mit putty zuspachteln und hast ruhe.
Die Karte fiept nicht. Er sagt es selbst im Test.
basix
2025-04-14, 08:43:10
Ach ja, das "Phänomen" ist harmlos. Der hat gemerkt, dass sich das Spulenfiepen ändert wenn er die Strommesszange hinhält.
Interessant. Hätte jetzt auch keinen so starken Einfluss erwartet.
Wir hatten aber schon etliche Fälle, wo es stark von GPU + Netzteil Kombination abhing. Evtl. hat das ähnliche Ursacheneffekte.
MiamiNice
2025-04-14, 11:42:43
Inno3D RTX5090 Frostbite Review von Derbauer:
https://youtu.be/VKyes3PzuzI
Ach ja, das "Phänomen" ist harmlos. Der hat gemerkt, dass sich das Spulenfiepen ändert wenn er die Strommesszange hinhält.
Die Karte gibt es gerade bei Alternate für rund 3200€ lieferbar.
Exxtreme
2025-04-14, 11:49:44
Die Karte gibt es gerade bei Alternate für rund 3200€ lieferbar.
https://www.alternate.de/INNO3D/GeForce-RTX-5090-ICHILL-Frostbite-Grafikkarte/html/product/100109383
"Artikel kann derzeit nicht gekauft werden"
X-D
Der Chip auf der RTX5090 ist teildeaktiviert. Es gibt eine volle Variante, aber die kann man kaum bezahlen.
Selbst die Profi-Variante hat ein paar deaktivierte SMs.
Gibts nen Full fatt GB202 irgedwo zu kaufen?
MiamiNice
2025-04-14, 13:33:16
https://www.alternate.de/INNO3D/GeForce-RTX-5090-ICHILL-Frostbite-Grafikkarte/html/product/100109383
"Artikel kann derzeit nicht gekauft werden"
X-D
Als ich schrieb waren 2 Stück lagernd.
Sorry.
Exxtreme
2025-04-14, 13:51:11
Als ich schrieb waren 2 Stück lagernd.
Sorry.
Ab und zu tröpfelt eine rein. Ach ja, die neueste Meldung:
"Sämtliche Lagerbestände befinden sich in Warenkörben und können daher weder über die Homepage noch telefonisch bestellt werden."
X-D
MiamiNice
2025-04-16, 13:32:58
Gerade in einem anderem Forum entdeckt:
Moin,
habe die 5090 Waterforce WB seit knapp 5 Wochen. Ist ne tolle Karte. Ich betreibe die Karte mit einem MoRa420 und 2 internen 360er Radiatoren. Temps unter Volllast sind je nach Raumtemperatur bei ca. 40-46 Grad. Die Karte hat zwar ein leichtes Spulefiepen/Rasseln, ist aber nicht störend. Mit OC geht die Karte je nach Game / Benchmark bis ca. 3300 MHz. In Cyberpunk z.B. in 4k mit Ultra Preset und DLSS Qualität bis 3240-3255 MHz.
Jetzt bin ich noch geiler auf die Karte.
22. sagt Amazon -.-
Exxtreme
2025-04-16, 13:34:27
Jetzt müsste sie bloß noch verfügbar sein. X-D
MiamiNice
2025-04-16, 13:38:28
Sagt mal, vor 2-3 Wochen sprachen wir hier über ein 12VHPWR Kabel welches mit knapp 700 Watt spezifiziert ist. Hat da jemand noch einen Link?
Coroner
2025-04-20, 18:58:17
Gerade in einem anderem Forum entdeckt:
5090 Waterforce WB
Mit OC geht die Karte je nach Game / Benchmark bis ca. 3300 MHz ...
Cyberpunk z.B. in 4k mit Ultra Preset und DLSS Qualität bis 3240-3255 MH
Jetzt bin ich noch geiler auf die Karte.
22. sagt Amazon -.-
Mir ist die Karte ja selbst sympathisch aber solche Taktraten habe ich auch schon von anderen Herstellern gesehen. Und die große Frage: 3DMark Port Royal-stabil? :wink:
Mit 3140 MHz konnte ich mit meiner 4090 stundenlang und ohne Artefakte oder Abstürze spielen, Port Royal ist mit selben settings nicht ein einziges Mal durchgelaufen ohne mich nach nicht mal der Hälfte eines runs aus dem bench zu werfen. 2985 (bzw. 2970 wenn die Karte dann richtig warm war) waren in Port Royal das Höchste der Gefühle.
Hoffe die Waterforce WB ist bald kaufbar, hier wartet schon ein Monster-Radiator (vier gestackte Alphacool NexXxoS Monsta 560mm-Radiatoren :biggrin:) auf jedes einzelnde Watt was die Karte in der Lage ist abzugeben :smile:.
Exxtreme
2025-04-20, 19:26:24
Gigabyte hat halt den Nachteil, dass deren Platinen bekannt dafür sind, dass sie Risse bekommen weil das Material sehr minderwertig ist. So eine Grafikkarte ist dann irreparabel hinüber. Mir ist das zuviel Risiko. ;)
x-force
2025-04-20, 20:25:51
chipgüte macht mindestens so viel aus wie schlechtester zu bester kühler.
MiamiNice
2025-04-20, 21:02:46
Gigabyte hat halt den Nachteil, dass deren Platinen bekannt dafür sind, dass sie Risse bekommen weil das Material sehr minderwertig ist. So eine Grafikkarte ist dann irreparabel hinüber. Mir ist das zuviel Risiko. ;)
Ich habe so etwas noch nie gehört. Woher kommt das?
Lawmachine79
2025-04-20, 21:56:38
Mir ist die Karte ja selbst sympathisch aber solche Takraten habe ich auch schon von anderen Herstellern gesehen. Und die große Frage: 3DMark Port Royal-stabil? :wink:
Mit 3140 MHz konnte ich mit meiner 4090 stundenlang und ohne Artefakte oder Abstürze spielen, Port Royal ist mit selben settings nicht ein einziges Mal durchgelaufen ohne mich nach nicht mal der Hälfte eines runs aus dem bench zu werfen. 2985 (bzw. 2970 wenn die Karte dann richtig warm war) waren in Port Royal das Höchste der Gefühle.
Hoffe die Waterforce WB ist bald kaufbar, hier wartet schon ein Monster-Radiator (vier gestackte Alphacool NexXxoS Monsta 560mm-Radiatoren :biggrin:) auf jedes einzelnde Watt was die Karte in der Lage ist abzugeben :smile:.
Ist Port Royal der empfindlichste Benchmark?
00-Schneider
2025-04-20, 22:01:56
Ist Port Royal der empfindlichste Benchmark?
Afaik zu Zeiten der 4090 ja.
Hab den damals auch zum Testen der Übertaktung genutzt.
Exxtreme
2025-04-20, 22:05:30
Ich habe so etwas noch nie gehört. Woher kommt das?
Das Material der Platine ist offenbar zu dünn/minderwertig.
https://www.tomshardware.com/news/gigabyte-gpu-design-details-emerge-about-pcb-cracking
JFgsL5NFn_Y
0RO5rhrELFs
ENKORE
2025-04-20, 22:23:41
Zu dünn geht ja nicht, da die Dicke durch den PCIe-Slot fix ist. Das sieht für mich eher nach nem zu kleinem Radius in der Ecke aus und entsprechender Kerbwirkung.
Exxtreme
2025-04-20, 22:35:01
Das PCB-Material scheint viel weicher/empfindlicher zu sein:
wb5tlHJHVBs
Hier mit Timestamp:
https://youtu.be/wb5tlHJHVBs?t=393
Banshee18
2025-04-20, 23:01:07
Ist Port Royal der empfindlichste Benchmark?
Port Royal habe ich nicht getestet, aber auf meiner 4090 reagiert alles mit Pathtracing sehr empfindlich.
x-force
2025-04-20, 23:26:21
[QUOTE=Exxtreme;13745998]Das PCB-Material scheint viel weicher/empfindlicher zu sein:
ich sehe einen weiter ausgeschnittenen flügel bei gigabyte und eine zusätzliche abstützung durch die stütze des kühlers.
reicht in meinen augen vollkommen, um den stärkeren flex zu erklären.
MiamiNice
2025-04-20, 23:45:08
Das Material der Platine ist offenbar zu dünn/minderwertig.
https://www.tomshardware.com/news/gigabyte-gpu-design-details-emerge-about-pcb-cracking
https://youtu.be/JFgsL5NFn_Y
https://youtu.be/0RO5rhrELFs
TY :up:
Exxtreme
2025-04-21, 00:30:33
ich sehe einen weiter ausgeschnittenen flügel bei gigabyte und eine zusätzliche abstützung durch die stütze des kühlers.
reicht in meinen augen vollkommen, um den stärkeren flex zu erklären.
Das kann sein, dass das auch der Grund ist. Aber Jazy2cents meint auch, dass auch der Rest der Platine viel wackeliger ist.
Eventuell trifft das bei wassegekühlten Grafikkarten nicht so zu da der Kühler wohl um einiges leichter ist. Aber behaltet das trotzdem im Hinterkopf wenn ihr euch für eine Gigabyte-Grafikkarte entscheidet, dass die Dinger eventuell nicht so Premium sind, wie man meinen könnte.
x-force
2025-04-21, 01:45:58
Das kann sein, dass das auch der Grund ist. Aber Jazy2cents meint auch, dass auch der Rest der Platine viel wackeliger ist.
bei gigabyte ist zumindest ein halter dabei, den man definitiv nutzen sollte.
er wird am metallrahmen der backplate verschraubt.
https://www.gigabyte.com/FileUpload/Global/KeyFeature/3869/innergigabyte/images/essential-holder.png
Armaq
2025-04-22, 22:04:52
bei gigabyte ist zumindest ein halter dabei, den man definitiv nutzen sollte.
er wird am metallrahmen der backplate verschraubt.
https://www.gigabyte.com/FileUpload/Global/KeyFeature/3869/innergigabyte/images/essential-holder.png
Damit ist die Karte noch länger. In welches Gehäuse passt die dann noch?
Armaq
2025-04-22, 22:06:45
Das kann sein, dass das auch der Grund ist. Aber Jazy2cents meint auch, dass auch der Rest der Platine viel wackeliger ist.
Eventuell trifft das bei wassegekühlten Grafikkarten nicht so zu da der Kühler wohl um einiges leichter ist. Aber behaltet das trotzdem im Hinterkopf wenn ihr euch für eine Gigabyte-Grafikkarte entscheidet, dass die Dinger eventuell nicht so Premium sind, wie man meinen könnte.
Ich hatte ne Gigabyte und hatte mit denen auch beruflich zu tun. Deshalb ja Inno3D als Favorit ... ;)
MiamiNice
2025-04-22, 22:13:46
Ich habe meine auch abbestellt ^^ Exxtreme hat sie mir madig gemacht ^^ (Nein ehrlich, Danke dafür ^^).
Entweder die Inno oder selber Block an Astral bauen . Bin mir nicht sicher und aktuell droppen die Karten täglich. HMD ist noch nicht auf dem Weg, also habe ich noch Time.
x-force
2025-04-22, 22:38:06
Damit ist die Karte noch länger. In welches Gehäuse passt die dann noch?
atmet z.b. im lianli o11 dynamic evo in jede richtung komplett frei. sff ist das natürlich nicht, dafür ist sie im vergleich auf der kalten seite.
Gigabyte
benutzt zumindest putty anstatt pads.
das bisschen flex im pcb ist praktisch irrelevant und sollte in meinen augen unter "fehler sitzt vor dem bildschirm" verbucht werden.
BiG OnE
2025-04-23, 18:30:24
Ich habe meine auch abbestellt ^^ Exxtreme hat sie mir madig gemacht ^^
Für was einen Kurs hast Du sie bei Amazon vorbestellt?
MiamiNice
2025-04-23, 18:35:56
Knapp 3400.
Armaq
2025-04-24, 16:33:55
NB hat sie für 2999 die Inno!
aufkrawall
2025-04-26, 05:26:31
Das Spulenfiepen bei 5090s ist wirklich mal ein Fall für Gerichte. Das ist so schlimm, das kann man doch niemandem zumuten. Sowohl MSI Vanguard, als auch Asus TUF surrten bei Bro so abartig, dass man es mit offener Tür noch zig Räume weiter gehört hat. Diese Asia-Klitschen haben einen an der Waffel. Welcher Idiot schickt so etwas bei 3k Euro nicht zurück, das ist doch wirklich nur noch komplett gestört. :freak:
Linmoum
2025-04-26, 05:56:05
Ich meine mich zu erinnern, dass MSI und Asus (auch hier insb. die TUF) schon bei der 4090 extrem auffällig in der Hinsicht waren.
Cubitus
2025-04-26, 07:17:27
Alter.
https://www.hardwareluxx.de/community/threads/blackwell-rtx-5xxx-coilwhine-fiep-rassel-thread-here-we-go-again.1363471/post-30808966
ENKORE
2025-04-26, 12:00:55
Das klingt ja schon fast wie ein rasselnder Klimakompressor :freak:
Troyan
2025-04-26, 12:04:35
Wie sehen eure Übertaktungsergebnisse aus? Ich kann hier stabil >3000MHz fahren, wenn das Power-Limit reinkickt. Ist irgendwie beeindruckend...
olegfch
2025-04-26, 15:10:34
Das Spulenfiepen bei 5090s ist wirklich mal ein Fall für Gerichte.
Meine neue Suprim fiept nicht und rasselt nicht. Und allgemein für so ein 600W Monster sehr leise.
Ich bin wirklich begeistert davon, abgesehen vom Preis natürlich. :rolleyes:
Wie sehen eure Übertaktungsergebnisse aus?
Ich kann meine auch über 3000 hochprügeln, den genauen Sweetspot muss ich aber noch finden.
Der Sommer kommt noch. Und da wird bei mir zocken am Tage ohne Klimaanlage sowieso unmöglich sein. :D
Alter.
https://www.hardwareluxx.de/community/threads/blackwell-rtx-5xxx-coilwhine-fiep-rassel-thread-here-we-go-again.1363471/post-30808966
Hört sich im ersten Moment so an, als ob da ein Lüfter irgendwo Kontakt hat und schleift.
Cubitus
2025-04-26, 16:39:01
Das dachten wir auch.
Dann kam das zweite Video:
https://www.youtube.com/watch?v=XumqPZCVMfE&t=24s
Das klingt ja schon fast wie ein rasselnder Klimakompressor :freak:
Joa..
Das sowas überhaupt durch die Qualitätsprüfung kommt.
Also bisschen rasseln, oder Fiepen oka, aber das grenzt schon an Lärmbelästigung.
@Thread
Paar Impressionen von neuen meiner Zotac..Ich finde das Design von den Zotacs diesmal wirklich gelungen.
Sowohl die AMP als auch die Solid..
https://i.postimg.cc/JybHkWxk/20250423-123711.jpg (https://postimg.cc/JybHkWxk)
https://i.postimg.cc/t7RnYwxs/20250424-103645.jpg (https://postimg.cc/t7RnYwxs)
https://i.postimg.cc/Q9mBfkRN/20250424-122041.jpg (https://postimg.cc/Q9mBfkRN)
https://i.postimg.cc/XBvrmBbf/20250424-132216.jpg (https://postimg.cc/XBvrmBbf)
Die alte PNY ist inzwischen verkauft und landet wohl über Umwege in China. Ebay regelt. :freak:
Die PNY hatte ich Weihnachten 2023 für ~1750 € über Angiesan gekauft, nachdem meine SUPRIM damals den Geist aufgegeben hatte.
Jetzt habe ich die PNY auf Ebay für 1900 Euro verkauft.
Die neue Zotac habe ich im Alternate Outlet für 2650 € geschossen.
Rechnet man die Nutzungsdauer, den guten Verkaufspreis und die Zuzahlung von etwa 750 € dazu, war das insgesamt kein schlechter Deal. :)
Nightspider
2025-04-26, 16:50:01
Naja und was erkennt man beim 2. Video?
Er hätte die Lüfter auch mal kurz anhalten können um die auszuschließen.
Mitdenken Fehlanzeige.
Cubitus
2025-04-26, 17:05:50
Naja und was erkennt man beim 2. Video?
Er hätte die Lüfter auch mal kurz anhalten können um die auszuschließen.
Mitdenken Fehlanzeige.
Die Lüfter laufen doch und ändern auch nicht besonders die Geschwindigkeit. :confused:
Nightspider
2025-04-26, 19:21:09
Es geht darum auszuschließen, dass das Geräusch nicht von schleifenden Lüftern kommt sondern von den Spulen.
Armaq
2025-04-26, 21:42:38
Ich hab kein großes Spulenfiepen. Takt geht ohne OC auf 2940 Mhz mit Silent BIOS. Wenn die nicht so abartig viel saufen würden, wäre die Performance außerweltlich. Die brauchen den Chip nicht ändern, einfach nen Nodeshrink und schon gehen 20%.
Cubitus
2025-04-28, 10:30:43
Ich hab kein großes Spulenfiepen. Takt geht ohne OC auf 2940 Mhz mit Silent BIOS. Wenn die nicht so abartig viel saufen würden, wäre die Performance außerweltlich. Die brauchen den Chip nicht ändern, einfach nen Nodeshrink und schon gehen 20%.
UV heißt das Zauberwort.
Aber die Karten sind echt speziell. Hier mein Wert, der sowohl im Takt als auch bei der Stromzufuhr stabil bleibt.
→ Das ist bei den 5090 leider überhaupt nicht mehr der Fall, mit der 4090 war das deutlich einfacher.
Es ist mehr denn je eine sehr individuelle Geschichte – die Unterschiede, selbst beim gleichen Modell, können teils massiv voneinander abweichen.
https://www.hardwareluxx.de/community/attachments/zotac-bios-png.1103764/
https://www.hardwareluxx.de/community/threads/offizieller-nvidia-rtx-5090-overclocking-und-modding-thread.1363289/post-30813435
dildo4u
2025-04-29, 13:20:12
Asus Astral Liquid Review
https://www.techpowerup.com/review/asus-geforce-rtx-5090-astral-liquid-oc/37.html
MiamiNice
2025-04-29, 13:27:47
Für ne AIO gar nicht so schlecht von den Temps her. Das habe ich schon schlimmer gesehen.
@: Habt ihr gesehen, dass KFA nun auch die HoF in De verkaufen wird? Hat nur einen Stecker. Ich wette auf einen 2 Stecker Titanen oder 5090 TI.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.