Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5080 Review-Thread
x-force
2025-08-07, 14:31:18
Nein. Ich sage dass die 5070ti nicht limitiert durch die Bandbreite ist und taktnormiert deshalb die 5080 maximal 20% schneller ist durch die 20% extra SMs. Und ich gestehe zu dass bei 84 SMs mehr Cache sinnvoll ist um in kein Bandbreiten limit zu fallen.
wenn du es jetzt noch schaffst die größe des caches ins verhältnis zu den extra sms setzen, kommen wir einen schritt weiter.
Holundermann
2025-08-07, 15:54:08
Frage an die Experten hier: kann man irgendwie seiner 5080 beibringen dass die lüfter langsam anfahren und nicht von 0 auf 30% springen? Ist ja ultra nervig und eigentlich würde es oft auch ein wert zwischen 0 und 30% regeln...
ChaosTM
2025-08-07, 16:02:41
Probiers mit dem MSI Afterburner. Der kann eventuell den (oft nervigen) Zero Fan Modus ausschalten und die Lüfter immer langsam laufen lassen
robbitop
2025-08-07, 18:09:28
wenn du es jetzt noch schaffst die größe des caches ins verhältnis zu den extra sms setzen, kommen wir einen schritt weiter.
Ich empfand den Gedanken auch interessant und habe mal ein wenig recherchiert und mit Zahlen gespielt. Siehe Anhang als xlsx
1.) Speicherbandbreite ermittelt in den Techpowerupseiten
2.) L2 Cachebandbreite aus dem Chips and Cheese Artikel (Screenshot und link im Anhang).
2a.) Ich bin davon ausgegangen, dass die L2 Cacheblöcke mit den Memorycontrollern assoziert sind (zumindest implizieren die Blockschaltbilder das). Bedeutet die Anzahl der Cacheblöcke sind 16 MiB (vollaktiv) pro 64 bit IMC. Also AD102 6 Stück - teildeaktiviert auf 12 MiB. GB203 dann 4 Blöcke für 5070ti und 5080 wobei bei der 5070ti diese auf 12 MiB teildeaktiviert sind. Entsprechend habe ich die von C&C ermittelte Bandbreite von 6 auf 4 Blöcken skaliert.
2b.) ich gehe davon aus, dass die L2 Cachebandbreite mit Chiptakt skaliert
3.) Taktraten (Serie) für GPU habe ich auch von TPU
3a) OC Taktraten habe ich aus CB reviews zu den jeweiligen GPUs. Memory sowohl Core.
4.) Hitrate - hier habe ich die Grafik von AMD (auch im Anhang) genommen und per ImageJ die Pixel ausgezählt für 48 MiB und 64 MiB auf der 4K Kurve. 64 MB haben dann eine durchschnittliche Hitrate von 44%, 48 MiB von 34%.
5.) Ich habe die L2 Bandbreite und die VRAM Bandbreite per gewichtetem Mittelwert zu einer effektiven Bandbreite verrechnet
5a.) da mir aufgefallen ist, dass die L2 Bandbreite sehr hoch ist und die Ergebnisse schon in Richtung Cache verzerrt habe ich mir ein weiteres Szenario überlegt. Der Gedanke ist: beim Treffer des L2 Cache gibt es eine gewisse Bandbreite die in der überwiegenden Masse der Fälle nötig ist um den Bedarf zu decken. Alles darüber hilft beim L2 Hit nicht mehr (und beim miss sowieso nicht) - entsprechend verzerren besonders hohe L2 Bandbreiten das Ergebnis.
Dieser Gedanke wird bestärkt darin wenn man sieht, dass die RDNA Familie wesentlich kleinere Bandbreiten hat (< Faktor 2). Entsprechend habe ich mir die VRAM Bandbreite einer GPU ohne großen LLC genommen -> RTX3090 und die einfach mal verdoppelt (obwohl diese GPUs nicht annähernd doppelt so schnell sind). Da komme ich auf 2 TB/s. Den Wert habe ich dann als "cap" angenommen
6.) Ich habe die effektive Bandbreite anhand der Rohleistung normiert (da alle GPUs eine mehr als ähnlich genuge uArch haben).
Die effektiven Bandbreiten beider Szenarien habe ich dann mit einer 4080S (wir gehen von einer wohl balancierten SKU aus) und der übertakteten 5080 (Referenz in diesem Thread) verglichen als jeweilige Referenz.
Ich habe auch screenshots angehängt.
Ergebnis Relation zur rohleistungsnormierten effektiven Bandbreite:
A - ohne cap:
5070ti hat mit OC 112% vs 4080S default
5080 hat mit OC 106% vs 4080S default
5070ti hat mit OC 110%v s 5080 OC
B - mit 2TB/s cap:
5070ti hat mit OC 97% vs 4080S default
5080 hat mit OC 86% vs 4080S default
5070ti hat mit OC 111% vs 5080 OC
Schlussfolgerung
Die 5070ti OC hat in beiden Szenarien deutlich mehr rohleistungsnormierte effektive Bandbreite als die 5080 OC. Trotz kleinerer Cachehitrate.
Da ich der Ansicht bin, dass das Cap Szenario realistischer ist, würde ich weiterhin darauf schließen, dass die 5080 OC weniger rohleistungsnormierte effektive Bandbreite als die 4080S hat (wohl balanciert).
Das muss nicht heißen, dass sie in ein Bandbreitenlimit läuft aber wenn es Engpässe geben sollte, dann ist das eher die 5080 mit OC (3,3 GHz) und weniger die 5070ti (3,2 GHz)
Entsprechend würde ich sagen untermauert es die Annahme, dass taktnormiert die 5080 wohl maximal 20% schneller ist (eher weniger da SMs normalerweise nicht ganz proportional die Leistung steigern) als die 5070 ti. Trotz mehr Cache.
Schau gern mal in die xlsx rein - gern feedback dazu oder Hinweise, wenn du einen Fehler finden solltest.
Sardaukar.nsn
2025-08-07, 18:35:13
Frage an die Experten hier: kann man irgendwie seiner 5080 beibringen dass die lüfter langsam anfahren und nicht von 0 auf 30% springen? Ist ja ultra nervig und eigentlich würde es oft auch ein wert zwischen 0 und 30% regeln...
Kommt halt darauf an wie 30% definiert sind. Bei meiner Asus Prime liefen die nur mit lautlosen 590-770rpm an. Bei 260 Watt wohlgemerkt.
https://i.imgur.com/t4So0DY.jpeg
Andere Modelle gehen von Zero-Fan direkt auf deutliche hörbare 1200 und mehr. So erlebt bei einer 5080 Gainward Phantom die auch deswegen auch zurück ging.
x-force
2025-08-08, 00:48:53
Ich empfand den Gedanken auch interessant und habe mal ein wenig recherchiert und mit Zahlen gespielt. Siehe Anhang als xlsx
cool, danke für die mühe!
Bedeutet die Anzahl der Cacheblöcke sind 16 MiB (vollaktiv) pro 64 bit IMC. Also AD102 6 Stück - teildeaktiviert auf 12 MiB. GB203 dann 4 Blöcke für 5070ti und 5080 wobei bei der 5070ti diese auf 12 MiB teildeaktiviert sind. Entsprechend habe ich die von C&C ermittelte Bandbreite von 6 auf 4 Blöcken skaliert.
ich denke das ist der knackpunkt, wie lasert nv und was bedeutet es.
4.) Hitrate - hier habe ich die Grafik von AMD (auch im Anhang) genommen und per ImageJ die Pixel ausgezählt für 48 MiB und 64 MiB auf der 4K Kurve. 64 MB haben dann eine durchschnittliche Hitrate von 44%, 48 MiB von 34%.
amd schreibt auch von gesteigerter effizienz, wahrscheinlich einfach nur über die hitrate. wenn das auch auf gddr7 noch zutrifft, hätte die 5080 einen zusätzlichen vorteil.
5a.) da mir aufgefallen ist, dass die L2 Bandbreite sehr hoch ist und die Ergebnisse schon in Richtung Cache verzerrt habe ich mir ein weiteres Szenario überlegt. Der Gedanke ist: beim Treffer des L2 Cache gibt es eine gewisse Bandbreite die in der überwiegenden Masse der Fälle nötig ist um den Bedarf zu decken. Alles darüber hilft beim L2 Hit nicht mehr (und beim miss sowieso nicht) - entsprechend verzerren besonders hohe L2 Bandbreiten das Ergebnis.
Dieser Gedanke wird bestärkt darin wenn man sieht, dass die RDNA Familie wesentlich kleinere Bandbreiten hat (< Faktor 2). Entsprechend habe ich mir die VRAM Bandbreite einer GPU ohne großen LLC genommen -> RTX3090 und die einfach mal verdoppelt (obwohl diese GPUs nicht annähernd doppelt so schnell sind). Da komme ich auf 2 TB/s. Den Wert habe ich dann als "cap" angenommen
ich würde vermuten, dass ein beschnittener cache auch gleichzeitig weniger bandbreite hat.
wahrscheinlich macht es sinn gpc mitzubetrachten. 5070ti hat nur 6 statt 7. wenn darüber die anbindung zum cache erfolgt, könntest du nicht für beide die gleiche bandbreite annehmen.
https://www.techpowerup.com/review/msi-geforce-rtx-5070-ti-gaming-trio-oc/images/arch1.jpg
https://www.techpowerup.com/review/msi-geforce-rtx-5070-ti-gaming-trio-oc/images/arch3.jpg
hast du eine idee wofür die 2x8 kleinen schmalen blauen balken direkt neben dem l2 in einem gpc stehen?
in der tabelle hast du ein paar falsche zuordnungen: z.b. eff. bandbreite 5070ti oc liest die werte von 5080 oc.
aber das tut nicht viel zur sache.
bei der betrachtung fehlen außerdem die speziellen szenarien, von denen ich sprach.
ich hatte irgendwo gelesen, dass gerade für bhv ein größerer cache mehr als im durschnitt bringen soll, das ist für mich und pathtracing besonders interessant.
es wäre schön mehr über den cache zu wissen.
einfach einen cap einzufügen, beiden die gleiche anbindung zu unterstellen und bhv und co unbetrachtet lassen, kanns nicht sein.
gerade für raytracing kann man nicht einfach sagen es ist ausreichend bandbreite vorhanden. da spielt die latenz auf einmal eine viel größere rolle (die btw mit gddr7 wieder ein stück schlechter geworden ist)
hier werden z.b. 400mb für raytracing genannt, wovon vielleicht 320mb bvh sind.
https://chipsandcheese.com/p/cyberpunk-2077s-path-tracing-update
robbitop
2025-08-08, 07:04:48
Ich schaue nochmal rüber. Ggf sind es auch nur 3 Blöcke a 16 MiB. Aber eine Zuordnung zu den IMCs macht ja für einen LLC schon Sinn. AD102 in der 4090 hat zB 72 MiB von 96. Das geht nicht mit Deaktivierungsschritten von 16 MiB. 12 MiB Blöcke passen aber wie die Faust aufs Auge und wäre dan eine Analogie zur 5070ti/4070tiS.
Insofern erscheinen mir 4 Blöcke a 12 MiB wahrscheinlicher was dazu führt dass die Cachebandbreite gleich bliebe.
Das mit dem cap ist eine Vereinfachung - klar - aber wie gesagt denke ich dass diese extrem hohen Werte die effektive Bandbreite verzerren. Und klar kann es auch immer mal peaks geben die deüber gehen - aber Wesentlich ist ja was in der Mehrzahl der Zugriffe passiert (95 perzentil zB). Und wenn 2 TB/s nicht reichen würden, würde die 3090ti leistungsnormiert nicht mit nur 1 TB/s auch bei Pathtracing da stehen wo sie ist.
Latenz: die sollte bei Blackwell gleich sein. Entsprechend gibt es da wenig zu vergleichen denke ich. Ich hatte auch mal gelesen dass Latenz für BVH wichtig sein soll. Aber da habem wir in diesem Falle ja ein level playing field.
Jedenfalls zeigen meine Skalierungstests auf der 5070ti mit Memory OC praktisch keinen Leistungsgewinn in Relation zur Erhöhung der Speicherbandbreite.
Die kleinen blauen Balken vermute ich sind die Anbindung zwischen GPC und der fabric der GPU. Oder aber die ROPs.
Sardaukar.nsn
2025-08-10, 10:40:57
k73iYdycp3c
https://pics.computerbase.de/1/1/8/7/6/9-067de38cddcb74aa/13-1280.880e4e25.jpg
CB Artikel dazu: https://www.computerbase.de/news/grafikkarten/asus-x-noctua-rtx-5080-noctua-edition-soll-13-kelvin-kaelter-und-leiser-sein.93828/
Ex3cut3r
2025-08-10, 13:12:10
Meine RTX 5080 ist leider kein Takt-Wunder.
Ich bekomme +350 MHz beim Core und +3000 MHz beim Speicher stabil hin. Bei +360 MHz stürzt sie allerdings schon ab. Momentan läuft sie noch mit dem Standard-Power-Limit von 360 W, das in Spielen aber nur selten komplett ausgereizt wird.
Ich könnte das Power-Limit per Slider noch auf 400 W anheben, sehe dafür aktuell aber keinen wirklichen Anwendungsfall.
Meine alte RTX 3080 Ti hat ständig 350W genuckelt. Ampere war schon richtig mies, was das anging.
https://s1.directupload.eu/images/250810/temp/anu9fe92.png (https://www.directupload.eu/file/d/9007/anu9fe92_png.htm)
Sardaukar.nsn
2025-08-10, 13:38:08
Bei welchem Takt landest du denn? +350 bei einer Asus Prime ist ja was anderes als +350 oben auf den hohe Basistakt einer Astral.
So um die 3,2Ghz unter Last könnten schon drin sein. Testweise kannst du ja mal das Powerlimit und vcore erhöhen.
Ex3cut3r
2025-08-10, 22:44:03
Etwas über 3,1 ghz. Wenn die Spiele mehr Watt ziehen, dann auch mal unter 3,1 Ghz.
Was Krass ist, Dark Ages, Forza, Last of Us 2, Ratchet, mit FG alles @ 237/225 FPS/HZ und kann damit den Monitor mit seinen 240HZ voll ausreizen. Und man gewöhnt sich unglaublich schnell an die Flüssigkeit. Da wirken dann die 70-80 FPS in Mafia ohne FG (FG funktioniert da gerade nicht) wie aus einer anderen Welt.
Die Debatte um die Fake-Frames kann ich nicht nachvollziehen. Nvidia FG funktioniert in der Regel einwandfrei, auch die Artefakte halten sich verdammt in Grenzen. Ganz anders als mit dem AMD FG.
Das schlimme ist nur, man wird abhängig davon und will nichts mehr unter 240FPS/HZ spielen. Sowas geht aber nicht auf Dauer, außer man hat einen Geldscheißer und kann alle 2 Jahre auf die stärkste Nvidia Karten upgraden.
Sardaukar.nsn
2025-08-11, 07:45:46
3,1Ghz klingt ganz gut, da wirst du oben rum nicht mehr so viel rausholen können. Du kannst es aber mal mit mehr Powerlimit versuchen. Welches Modell 5080 ist es denn? Oft ist auch ein Bios Flash auf das Bios eines Topmodells möglich.
Ich muss ja "nur" 4K/120 auf meinem 42"LG Oled bespielen aber nutze DLSS und 1xFG auch gerne um die 120fps konstant zu halten. Funktioniert erstaunlich gut aber muss man natürlich für jedes Spiel selbst entscheiden. Bei so Sachen wie Titan Quest 2, Doom, Space Marine 2 ect. war das problemlos möglich und sehr gut spielbar. Wie du schon sagt die Multi-Framegeranation ist eher für die 240hz Monitiore interessant, aber stelle ich mir auch gut vor. Muss man aber wohl mal selbst live gesehen haben.
SamLombardo
2025-08-11, 08:00:59
Da wirken dann die 70-80 FPS in Mafia ohne FG (FG funktioniert da gerade nicht) wie aus einer anderen Welt.
Funktioniert nicht mal 2X FG? Ich frage, weil ich das eigentlich heute anfangen wollte.
robbitop
2025-08-11, 08:03:22
Die Debatte um die Fake-Frames kann ich nicht nachvollziehen. Nvidia FG funktioniert in der Regel einwandfrei, auch die Artefakte halten sich verdammt in Grenzen. Ganz anders als mit dem AMD FG.
Das schlimme ist nur, man wird abhängig davon und will nichts mehr unter 240FPS/HZ spielen. Sowas geht aber nicht auf Dauer, außer man hat einen Geldscheißer und kann alle 2 Jahre auf die stärkste Nvidia Karten upgraden.
Die Debatte ist ja nur wenn man Äpfel mit Brinen vergleicht. Also zB als Jensen Huang gesagt hat die 5070 ist genausoschnell wie eine 4090. Und da wurde dann MFG mit noFG oder gerade mal 2x FG verglichen.
Gerade mit 4x MFG sind die FPS schnell mal sehr hoch und das klingt dann nach toller Performance. Aber man braucht auch immer eine gute Inputframerate damit das Erlebnis optisch und spielerisch (Latenz) gut ist. Sowas wie 40@120 fps spielt sich wie Kaugummi bspw.
Man muss FG/MFG im richtigen Kontext sehen und nutzen. Dann ist es super. Ein gutes Werkzeug um - sofern das Spiel ohnehin schon sehe gut läuft - die BQ anzuheben indem man damit die Bewegtschärfe und Flüssigkeit weiter angebt. Und in dem Kontext ist es super.
Und solange man nicht Äpfel mit Birnen vergleicht gibt es IMO keine echte fake Frame Debatte. :)
Ex3cut3r
2025-08-12, 18:40:11
Gestern musste ich mir einen Vertical-GPU-Mount einbauen, weil ich mein Gehäuse im normalen Zustand tatsächlich nicht mehr schließen konnte. Die GPU ist zu breit. Und das ist noch einer der kleineren RTX 5080er. Mann war das ein Krampf gestern das Bracket zu installieren. Das PCIe Kabel war maximal steif und hat die GPU beim Einbau immer nach vorne gedrückt.
Gehäuse ist ein Lian Li O11 Dynamic von 2019.
Mein PC stand dadurch etwas über eine Woche ohne Seitenfenster da. Viel Staub ging in den PC.
Sieht zwar aktuell maximal bescheiden aus mit dem 12-Pin-Adapter und den Kabeln, aber ich traue mich nicht, das 12-Pin-Kabel zu biegen. Egal, passt erstmal, zumal ich Ende dieses oder Anfang nächsten Jahres sowieso einen neuen PC mit neuem Gehäuse plane.
https://s1.directupload.eu/images/250812/temp/ao7ivvah.png (https://www.directupload.eu/file/d/9009/ao7ivvah_png.htm)
https://s1.directupload.eu/images/250812/temp/niewdvjp.png (https://www.directupload.eu/file/d/9009/niewdvjp_png.htm)
Sardaukar.nsn
2025-08-12, 19:08:26
@Ex3cut3r: Schicker Arbeitsplatz! Du hast doch sicher ein Modulares Netzteil. Hol dir doch einfach ein passendes Kabel z.B.: https://www.corsair.com/de/de/p/pc-components-accessories/CP-8920323/premium-individually-sleeved-12-4pin-pcie-gen-5-12v-2x6-600w-cable-type-5-gen-5-black
Ex3cut3r
2025-08-12, 19:34:43
Danke. Aber wie soll das mit 2x8 Pin, die maximal 300W + 75W vom Mainboard übertragen, also max 375W für eine GPU, die mit maximierten PL 400W ziehen darf, funktionieren?
Nicht falsch verstehen, das Maximale, was ich bisher mit 100% PL gesehen haben, waren so knapp 360W. In der Praxis sind es gerade mal so 300W.
Sardaukar.nsn
2025-08-12, 20:16:23
1x8Pin liefert am Netzteil 300Watt. Am anderen Ende hast du meist ein 2x150 Y-Stecker für die Grafikkarte. Der verlinkte Adapater hat 2x8pin, also 600 Watt. Diese Kabel gibt es für alle Netzteil Hersteller.
Ex3cut3r
2025-08-12, 21:11:21
Hää? 1x Pin PCie also die "alten" Stecker liefern 150W jeweils. Das Kabel hat 2x davon, ergo 300W. Wie kommt auf solche Werte? :confused:
Man bräuche IHMO 3x 8-Pin im alten Stecker Format für 450W auf 12-Pin (neuer Stecker) und für 600W sogar 4x 8-Pin.
Ich verstehe echt nicht, was das von Corsair soll mit 2x 8-Pin.
Sardaukar.nsn
2025-08-13, 10:00:02
Die 8-Pin am Netzteil liefern jeweils 300 Watt. Splitten sich dann am anderen Ende auf 2x150W an der Grafikkarte auf. Das neue Kabel ist 2x300 vom Netzteil auf 600W 12-Pin HPWR an der Grafikkarte.
The_Invisible
2025-08-13, 10:12:44
Hää? 1x Pin PCie also die "alten" Stecker liefern 150W jeweils. Das Kabel hat 2x davon, ergo 300W. Wie kommt auf solche Werte? :confused:
Man bräuche IHMO 3x 8-Pin im alten Stecker Format für 450W auf 12-Pin (neuer Stecker) und für 600W sogar 4x 8-Pin.
Ich verstehe echt nicht, was das von Corsair soll mit 2x 8-Pin.
Bei Corsair Netzteilen ist der Anschluss auf 300W spezifiziert, bei anderen Netzteilen ka ins Handbuch schauen
Ex3cut3r
2025-08-13, 18:24:29
Das ist ja wirklich abenteuerlich, was hier gesagt wird: Durch den ganz normalen „alten“ 8-Pin-Anschluss, der eigentlich nur für 150 W ausgelegt ist, 300 W durchzujagen. Kein Wunder, dass so viele Probleme mit verschmorten Kabeln haben. ;D
Sardaukar.nsn
2025-08-13, 18:36:55
Ganz ruhig. Du hast doch selbst deinen PC zusammengebaut? Das Stromkabel zu deiner Grafikkarte hat am Ende das in dein Netzteil kommt 8 Pins. Es ist ein Y-Kabel das am Ende deiner Grafikkarte zu 2x 8 Pins führt. Richtig? Mehr Magie ist da nicht.
Loeschzwerg
2025-08-13, 18:41:26
Da ist nix abenteuerlich das passt schon ;) Warum? Die 8-Pin Anschlüsse bei den Corsair RM sind für PCIe und CPU, wobei über die modularen Kabel entschieden wird ob 6+2 (PCIe) oder 4+4 (EPS12V). Der EPS12V ist auf 300W spezifiziert, ergo ist das verlinkte Kabel von 2x 4+4 (2x EPS12V) auf 12+4 (1x 12V-2x6) völlig OK.
Edit: Was mich auch wieder zu dem Thema bringt bzw. für mich wieder die Frage aufwirft warum man für Consumer-Grafikkarten nicht einfach auf 2x EPS12V gegangen ist...
Ex3cut3r
2025-08-17, 13:07:25
Doom Dark Ages, Ultra außer Texturen und Shading auf Ultra Nightmare + DLSS P, Preset K
Stock vs OC vs UV + MEM OC vs UV + FG x3
Stock:
https://s1.directupload.eu/images/250817/4o2c8ugz.png
OC +350 Core Clock + 3000 Memory:
https://s1.directupload.eu/images/250817/hutddzh8.png
UV + Mem OC:
https://s1.directupload.eu/images/250817/cwwtvvsm.png
UV + FG x3:
https://s1.directupload.eu/images/250817/rwmh2k78.png
Habe jetzt mal den Dargo gemacht.
aufkrawall
2025-08-17, 17:53:53
0,86V dürfte Golden Chip für den Takt sein? Würde eher von Crashes in längeren Sessions von Spielen mit "bursty" Lasten und dabei laufendem Video-Capture ausgehen.
Ex3cut3r
2025-08-17, 19:14:54
Weiß nicht. Bis jetzt alles stabil. God of War. Mafia Old Country. Last of Us 2. FH5. Doom Dark Ages. Mal weiter beobachten.
ExJuvantibus
2025-08-19, 22:32:17
Die Debatte ist ja nur wenn man Äpfel mit Brinen vergleicht. Also zB als Jensen Huang gesagt hat die 5070 ist genausoschnell wie eine 4090. Und da wurde dann MFG mit noFG oder gerade mal 2x FG verglichen.
Gerade mit 4x MFG sind die FPS schnell mal sehr hoch und das klingt dann nach toller Performance. Aber man braucht auch immer eine gute Inputframerate damit das Erlebnis optisch und spielerisch (Latenz) gut ist. Sowas wie 40@120 fps spielt sich wie Kaugummi bspw.
Man muss FG/MFG im richtigen Kontext sehen und nutzen. Dann ist es super. Ein gutes Werkzeug um - sofern das Spiel ohnehin schon sehe gut läuft - die BQ anzuheben indem man damit die Bewegtschärfe und Flüssigkeit weiter angebt. Und in dem Kontext ist es super.
Und solange man nicht Äpfel mit Birnen vergleicht gibt es IMO keine echte fake Frame Debatte. :)
Gut ausgedrückt. Es war wirklich dieser unsägliche Vergleich und die damit verbundene Absicht weniger versierten Sand in die Augen zu streuen.
Ich könnte auch absolute Bullshit-Diagramme fabrizieren, nur würde es bei bei mir keinen Jucken. Huang/NV tat das vor Publikum/in der Öffentlichkeit in der Absicht grad Leuten mit kleinem Budget Geld rauszulocken; noch dazu mit überteuerten Müllkarten wie 8 GB 5060TI.
Ich weis genau ich könnte nicht in einer Redaktion arbeiten. Der größte Benchmark am Tag der Veröffentlichung wäre bei mir eine 1070 oder ähnliches auf einem alten Ivybridge Quad und wie brutal sie die 5090 doch abzieht (in Bartman AA, AC: Blackflagg etc mit CPU versus GPU PhysX). :rolleyes:
_________________
Ahja, mal schaun ob ich nicht doch schwach wäre und mir neues Sys hole mit GF 5 MX. Eigentlich hätte ich alles bis auf Graka, Platte und Ram grob beisammen (ausgesucht) ...
Ex3cut3r
2025-08-20, 08:20:32
Weiß nicht. Bis jetzt alles stabil. God of War. Mafia Old Country. Last of Us 2. FH5. Doom Dark Ages. Mal weiter beobachten.
Ich müsste den Takt jetzt um 15 mhz absenken. Weil Days of Gone gecrasht ist. Dürfte wenn das stabil ist, aber trotzdem ein sehr guter Wert sein. :smile:
Der Stromverbrauch ist fast schon absurd niedrig. Wenn man von Big Ampere kommt.
RoughNeck
2025-08-20, 15:02:41
Die Gigabyte AORUS Master vom Kollegen macht 2745 mit 0,86, ab 2770 fängt sie an instabil zu werden.
Das kann man ja als Richtwert nehmen
Ex3cut3r
2025-08-20, 20:51:08
Ich bin da minimal etwas besser. 0,850V für 2752 Mhz.
ExJuvantibus
2025-08-25, 23:01:26
Wollte mich mal erkundigen ob die
https://geizhals.at/asus-prime-geforce-rtx-5080-oc-90yv0lx0-m0na00-a3382462.html
brauchbar ist bzw. die wer hat oder einen Test kennt. Schriftliches findet man zu der nichts, aber dafür umso mehr zu Astral und Konsorten.
Va was Temps und Lautheit angeht, weil soll doch ein halbwegs leiser Bau werden. Bzw. was mit voll ausgefahrenen Power Target geht, weil ggf wenn schon denn schon. ;D
Sardaukar.nsn
2025-08-26, 04:00:48
Ich habe die Asus Prime und kann nur Gutes berichten. Sehr leise Lüfter die im Gegensatz zu vielen Mitbewerbern auch mit bei niedrigen und leisen 600rpm anlaufen.
Meine ist auf das 450Watt Astral BIOS geflash und inzwischen mit Wasserkühlung am Limit. https://www.3dmark.com/sn/6833821
Aber auch out if the Box wirklich ein vernünftiges Design mit guten Lüftern, Vapor Chamber, PCB mit Backplate verbunden, und Phasenwechsel Pad statt Wärmeleitpaste.
ExJuvantibus
2025-08-26, 18:08:18
Danke dir ganz herzlich! Das ist genau die Info die ich gebraucht habe. :up:
Sardaukar.nsn
2025-08-26, 20:16:52
Gerne und viel Spaß mit der Karte!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.