Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
dargo
2016-12-22, 08:49:29
Ich habe jetzt The Division paar Tage intensiv gespielt. Ich muss sagen das Spiel läuft zumindest auf Grenada deutlich besser (höhere min.fps) mit DX12. Das hier ist noch untertrieben.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11242511&postcount=394
Aktuell noch nicht weniger als 44 min.fps mit DX12 gesehen. Den Benchmark kann man diesbezüglich vergessen. Die großen Vorteile sieht man erst Ingame.
Schön wäre es bloß wenn RTSS mal aktualisiert würde. Diese Spielabstürze sobald man auf den Desktop wechselt oder bsw. von Fullscreen auf Borderless wechselt nerven etwas. Ohne RTSS ist alles bestens.
Rancor
2016-12-22, 08:54:00
Jap, The Division ist auch für mich endlich das erste Spiel wo DX 12 überzeugen kann und das selbst mit NV. :up:
also schlimmer finde ich da die Ladezeiten, aber das wird sicherlich auch gepatcht. Aktuell 40Sekunden unter dx11 und 2minuten und 20sekunden unter dx12 bei mir. :eek:
Ist das reproduzierbar? Oder war das nur beim ersten Start? Die Ladezeitverlängerung kann eigentlich nur vom PSO-Compile kommen, aber nach dem ersten Start sollte alles im Cache sein.
auch von Loeschzwerg, schneller auf DX12:
https://www.youtube.com/watch?v=pL_IHfQQK5Y
Endlich mal etwas positives.
Kartenlehrling
2017-01-17, 10:36:35
Conclusion
Direct3D 12 enables much more fine-grained control over use of multiple GPUs, whether though linked adapters or through heterogeneous hardware components.
Enthusiast gamers, professional users, and GPU compute datacenters stand to benefit from good use of this tech, which motivated a search for designs that use multi-adapter effectively.
On this front, we discussed Alternate-Frame-Rendering (AFR), and discussed the design of more general task-parallel systems.
The design of a task-parallel engine depends a lot on your use case, and there are many unsolved and non-obvious areas of this design space.
For now, we can draw inspiration from existing research on NUMA systems and think about how it applies to the design of our GPU programs.
https://nlguillemot.wordpress.com/2017/01/16/d3d12-multi-adapter-survey-thoughts/
Das klingt alles sehr ernüchternd, vorallem warte ich seit der Einführung der iGPU das diese neben dem Aufnehmen auch in Spielen zum Einsatz kommt wie damals die Zusatzkarte für Ageia PhysX.
aufkrawall
2017-01-17, 12:57:29
Dagegen spricht, dass die IGP der CPU dann Bandbreite klaut, die IGP meist sehr langsam ist und einen Treiber von Intel nutzt (ein Alptraum, dafür zu programmieren?).
Vielleicht irgendwann mal in einem AMD-Spiel, aber sonst?
][immy
2017-01-17, 14:13:17
Dagegen spricht, dass die IGP der CPU dann Bandbreite klaut, die IGP meist sehr langsam ist und einen Treiber von Intel nutzt (ein Alptraum, dafür zu programmieren?).
Vielleicht irgendwann mal in einem AMD-Spiel, aber sonst?
Nun, bislang haben CPUs relativ schlecht auf mehr DDR3/4 Bandbreite reagiert, außer in wenigen Szenen. Also sollte es an der Bandbreite weniger mangeln.
Aber es wäre schon schön, wenn diese brachliegenden Ressourcen irgendwie verwendet werden könnten.
Aber vermutlich bringt es mehr die Haupt GPU ein klein wenig zu übertakten, als eine Intel GPU zu verwenden.
Kartenlehrling
2017-01-17, 15:03:46
vor 3 Jahre hat ja AMD (R9290+A10 7800) eine demo gezeigt (ca.10% Leistungsteigerung) und
Microsoft mit der DX12 präsentation Nvidia+Intel iGPU (Titan X + Intel), es waren messbare gewinne nachweisbar.
Wenn doch eine TitanX nicht eingebremst wird dann sollten doch langsame Grafikkarten sogar noch mehr gewinnen oder
wenigsten nicht langsamer werden wenn das Feature aktiviert wird.
NVIDIA: ~100% utilization on average
Intel: ~70% utilization on average
https://blogs.msdn.microsoft.com/directx/2015/04/30/directx-12-multiadapter-lighting-up-dormant-silicon-and-making-it-work-for-you/
Locuza
2017-01-17, 15:39:07
10% sind für die zusätzliche Frame-Latenz voll für den Arsch.
Die Final Fantasy Demo lief mit 4x Titan X und die UE4 Demonstration lief mit einer 750 Ti + Intel-iGPU, was das ganze sowieso unsinnig erscheinen lässt.
Kartenlehrling
2017-01-17, 15:53:14
Seit wann ist eine gtx750ti eine Highend Grafikkarte?
][immy
2017-01-17, 16:04:14
10% sind für die zusätzliche Frame-Latenz voll für den Arsch.
Die Final Fantasy Demo lief mit 4x Titan X und die UE4 Demonstration lief mit einer 750 Ti + Intel-iGPU, was das ganze sowieso unsinnig erscheinen lässt.
Naja, die 10% gehen ja nicht unbedingt auf die frameraten-Latenz. Sondern es sind "asynchrone" Berechnungen, die man auch vorher in Auftrag geben kann und nicht zwangsweise mit FrameX zur Verfügung stehen müssen. Da gibt es dann auch keine Latenzprobleme.
Könnte vermutlich schon helfen (bei low-end Systemen) wenn die intel gpu z.B. dinge bei der Soundberechnung von der CPU nehmen würde. Bei starken CPUs ist das eher unerheblich, aber desto langsamer die CPU, desto mehr fallen diese Berechnungen ins Gewicht. Einer der Gründe warum AMD mal versucht hat das auf die GPU auszulagern. Wird das eigentlich immernoch gemacht?
Locuza
2017-01-17, 16:16:03
Seit wann ist eine gtx750ti eine Highend Grafikkarte?
The hardware used in the demo was an Intel 4600 GPU with an NVidia GTX 750. The average utilization of the Intel GPU was 70% and the NVidia GPU was 99%.
https://forum.beyond3d.com/threads/dx12-i7-5775c-win10.56798/page-2#post-1841555
Kartenlehrling
2017-01-17, 16:32:03
Wenn es Max McMullen geschrieben hat wird es wohl stimmen, weil sonst immer von Highend geschrieben wurde.
Aufjedenfall gibt es viele Berechnunge die eine iGPU übernehmen kann ohne zu bremsen oder auf die latenz zu gehen.
Details zum Setup nannte Microsoft nicht, sprach aber von einem System aus einer High-End-Grafikkarte von Nvidia und einer Intel-GPU.
http://www.golem.de/news/microsoft-direct-x12-ist-fertig-und-schafft-arbeit-fuer-integrierte-gpu-1505-113843.html
Locuza
2017-01-17, 16:38:59
Ich suche jetzt nicht nachdem genauen Wortlaut von der Präsentation, aber ich erinnere mich auch daran, dass man den Eindruck erweckt hat das dort eine stärkere Nvidia-GPU verwendet wurde, eine 750 ist dann natürlich witzlos.
Falls es wirklich möglich sein sollte die iGPU einzubeziehen, ohne hässliches Frame-Pacing und zusätzliche Frame-Verzögerung, dann großartig, aber da nicht einmal DX12 selber bei den meisten anständig läuft, geschweige denn eine Multi-Adapter-Lösung, kann man sicherlich noch viele Jahre abwarten, bis eine iGPU sinnvoll eingebunden wird.
Nightspider
2017-01-17, 17:17:10
Bei BF1 passiert auch absolut gar nichts mehr bezüglich DX12 oder? :(
Ich hatte ja alle Hoffnung in DICE gesetzt aber die haben mich schon sehr enttäuscht.
Vielleicht hat da EA auch einfach den Geldhahn zugedreht nach dem Motto: Es geht auch ohne eine zeitaufwendige, perfekte DX12 Implementierung.
Loeschzwerg
2017-01-17, 17:25:05
Den Eindruck gewinnt man irgendwie. Der zusätzliche Werbeeffekt war da und jetzt ist es egal.
Stimmt die Liste noch?
https://en.wikipedia.org/wiki/List_of_games_with_DirectX_12_support
Gibt es bis jetzt wirklich KEINE Ankündigung für 2017?
blaidd
2017-01-17, 17:28:04
Bei BF1 passiert auch absolut gar nichts mehr bezüglich DX12 oder? :(
Ich hatte ja alle Hoffnung in DICE gesetzt aber die haben mich schon sehr enttäuscht.
Vielleicht hat da EA auch einfach den Geldhahn zugedreht nach dem Motto: Es geht auch ohne eine zeitaufwendige, perfekte DX12 Implementierung.
Ist ein wenig unterstellt (da hab ich selbstredend keine Details zu) aber ich hab langsam eher das Gefühl, dass Microsoft da ein wenig nachhilft, um DX12 mehr Publicity zu geben. Das Gefühl kommt unter Anderem daher, dass DICE alle Interview-Fragen bezüglich DX12 gedeckelt hat und vor ein paar Tagen Ubisoft (bezüglich For Honor) ganz ähnlich reagiert hat (aber noch verlauten lassen hat, dass Microsoft mit an der Portierung beteiligt ist). Sowas passiert sonst eigentlich nur bei Gameworks oder spezifischem AMD-Support... wenn ich da nachhake kommt auch immer nur ein "Wir arbeiten mit allen Grafikkartenherstellern zusammen, um allen Spielern das beste Erlebnis bieten zu können, aber dazu können wir noch nichts Genaueres sagen". Oder ganz einfach gar nix...
Dann bekommt das Spiel eben DX12-Support und mehr ist eigentlich nicht wichtig. Who cares, wie es schlussendlich läuft... Und zumindest DICE hatten mit Battlefront einen direkten Draht zu Microsoft (erster DX12-Titel auf der Xbox One). Ist dann ja auch schon bezahlt, also warum noch fixen? ;)
Ich vermute dahinter mittlerweile mehr Buisness-Gedöns als sonst irgendwas (warum beispielsweise setzt Civ 6 auf DX12, wenn eh noch ein Linux-Port geplant ist... ähnliches bei Deus Ex... oder Total War: Warhammer. Und es gibt ja noch mehr solcher kleineren Seltsamkeiten).
Über kurz oder lang wird sich das sicherlich ändern, aber momentan denke ich eher, dass da irgendwer ganz besonders drauf bedacht ist, dass DX12 eine hohe Verbreitung erzielt.
Kartenlehrling
2017-01-17, 17:44:56
Der nächste grosse DX12 Titel wird ja jetzt Mass Effect:Andromeda sein, DX12 + Nvidia Gameworks,
wobei ich glaube das es sehr gut laufen und noch besser aussehen wird auf PCs mit Nvidia Grafikkarten.
Ich freu mich jetzt schon mit dem Mako übers Gelände zu brettern und springen, wie im ersten Teil.
Entropy
2017-01-17, 17:54:11
Ich vermute dahinter mittlerweile mehr Buisness-Gedöns als sonst irgendwas (warum beispielsweise setzt Civ 6 auf DX12, wenn eh noch ein Linux-Port geplant ist... ähnliches bei Deus Ex... oder Total War: Warhammer. Und es gibt ja noch mehr solcher kleineren Seltsamkeiten).
Das ist immer Business, ob Mantle, Vulkan oder irgendeine Direct3D Version. Die "early adopter" der Spieleentwicklung bekommen natürlich was als Gegenleistung. Die Entwickler betteln vermutlich nicht darum in Marketingvideos auswendiggelernte Texte vorzutragen :)
Über kurz oder lang wird sich das sicherlich ändern, aber momentan denke ich eher, dass da irgendwer ganz besonders drauf bedacht ist, dass DX12 eine hohe Verbreitung erzielt.
Ja, wenn Direct3D 12 auf XBox zur Normalität wird, werden die PC Ports auch damit laufen.
@Loeschzwerg sollten nicht alle Frostbite Spiele Direct3D 12 nutzen? Mir war so als ob das jemand mal gesagt hatte.
Grundsätzlich, wenn die Engine das kann, gibt es eigentlich keinen Grund es nicht zu nutzen. (Solange noch Direct3D 11 auch angeboten wird).
aufkrawall
2017-01-17, 18:09:33
@Loeschzwerg sollten nicht alle Frostbite Spiele Direct3D 12 nutzen? Mir war so als ob das jemand mal gesagt hatte.
Die Releases damit sind bis auf Mass Effect erstmal durch und nur BF1 konnte es (und das im Grunde auch nur auf dem Papier).
Würd mich bei der Mistfirma EA btw. nicht wundern, wenn ein Brain Drain Richtung Vulkan-Mobile Hersteller eingesetzt hat.
Entropy
2017-01-17, 18:15:09
Würd mich bei der Mistfirma EA btw. nicht wundern, wenn ein Brain Drain Richtung Vulkan-Mobile Hersteller eingesetzt hat.Aufgrund von was nimmst du das an? Die Handyspielesparte war doch bisher von den anderen Spielen getrennt. Ich hoffe für DICE, dass die jetzt nicht auf Mobile umschwingen müssen.
aufkrawall
2017-01-17, 18:21:45
Ist allgemein ein Trend in der Branche, und ich meinte nicht, dass EA mehr auf Mobile setzt (aber das ist sicherlich auch so), sondern dass womöglich Entwickler EA deshalb verlassen. Ist erstmal Speku von mir, aber evtl. ließe sich was recherchieren.
Bei modernen Vulkan-Spielen auf Android mit entsprechenden Qualcom-SoCs gibt es immerhin echten Fortschritt zu bestaunen, im Gegensatz zu der traurigen Lage auf dem PC (wobei DX11 halt ziemlich gut ist).
Locuza
2017-01-17, 18:45:23
[...]
Ich vermute dahinter mittlerweile mehr Buisness-Gedöns als sonst irgendwas (warum beispielsweise setzt Civ 6 auf DX12, wenn eh noch ein Linux-Port geplant ist... ähnliches bei Deus Ex... oder Total War: Warhammer. Und es gibt ja noch mehr solcher kleineren Seltsamkeiten).
[...]
Ich sehe da nicht unbedingt Seltsamkeiten.
Die Umstellung von DX11 --> DX12 ist simpler und die meisten Entwickler fangen einfach mit ihrer DX11-Basis an.
Da die Arbeiten an HLSL --> SPIR-V noch nicht fertig sind, mochte sich darum sicher nicht jeder Entwickler schlagen.
Der Linux-Port kommt häufig später und wird outsourced?
Das ist dann natürlich auch ganz anders zu bewerten, wenn das Zeitfenster stark unterschiedlich ausfällt und ein anderes Studio an der Umsetzung zu arbeiten hat.
Bezüglich Total War: Warhammer hat sich Tamas Rabel als Lead Graphics Programmer geäußert:
Two main reasons: DX12 was in a more mature state when we started porting, and our primary tech is DX11. Since DX12 is much closer to our (DX11 based) API abstraction than Vulkan, it was a better fit for our needs.
http://gpuopen.com/anatomy-total-war-engine-part/
Ich denke ein anderer Kommentar macht auch deutlich, wieso das nicht nur simples Business-Gedöns ist:
I wouldn’t say being another DirectX is a downside of DX12. DirectX has a well designed architecture and that hasn’t changed with DirectX 12.
Yes, it would have been much better to redesign the engine from scratch, but time is of the essence. Professional game development is not just about building something for yourself. It’s a cooperative result of hundreds of people working together towards a common goal, with _very_ tight deadlines. It doesn’t mean it’s not going to happen, it just means that it will happen in small increments. We definitely learned a lot from this effort and will factor all this experience into the never-ending stream of improvements.
Building on the new paradigms which are shared between DX12 and Vulkan is much more important than the actual choice of APIs (especially if they are as similar as Vulkan and DX12).
Für simples Business-Gedöns würden vermutlich die wenigsten Programmierer Monate an Arbeit in Render-Modifikationen stecken.
Es ist eine nette Zusammenarbeit, um Schritt für Schritt zu lernen und die neuen Paradigmen zu etablieren.
Entropy
2017-01-18, 06:22:53
Ist allgemein ein Trend in der Branche, und ich meinte nicht, dass EA mehr auf Mobile setzt (aber das ist sicherlich auch so), sondern dass womöglich Entwickler EA deshalb verlassen. Achso, ja, das ist nachvollziehbar. Jeder der ein wenig unzufrieden ist oder einen Freiheitsdrang hat, hat es heute einfach sein "Indiestudio" zu gründen. Aber es sollten eigentlich genug auch bei EA anfangen wollen, dass die nicht ausbluten.
Bei modernen Vulkan-Spielen auf Android mit entsprechenden Qualcom-SoCs gibt es immerhin echten Fortschritt zu bestaunen, im Gegensatz zu der traurigen Lage auf dem PC (wobei DX11 halt ziemlich gut ist).
Ich hab leichte Zweifel, dass Vulkan auf Mobile viel Ausbreitung bekommt. Vielleicht wenn Unity3D darauf setzt und es Vorteile hat, aber sonst kommt es nicht drauf an. Die Spiele haben oft unter 50 Zeichenaufrufe, weil es sonst "langsam" wird. Das ist lächerlich wenn man sich die 10000 Zeichenaufrufe von z.B. Crysis 1 anschaut.
Ich sehe Mobile sich weiter optimieren auf möglichst billige Produktion und alles an Investition geht in user acquisition. (Versteh mich nicht falsch, ich wünschte es gebe AAA Spiele auf Handies. Ich hab ein HDMI-Kabel und Gamepad dafür. Aber selbst Gameloft macht kein NOVA oder Dungeon Hunter mehr, das nicht Free2Play casual wäre).
blaidd
2017-01-18, 10:10:29
[...]
Ich denke ja auch, dass da über kurz oder lang Vorteile sowohl für Entwickler als auch Spieler entstehen. Und es ist ja auch als Entwickler sinnvoll, sich mit der Materie auseinander zu setzen (am besten bezahlt natürlich ;)). Aus meiner Sicht wirkt Direct X 12 bei näherer Betrachtung momentan aber eher wie mehr Schein als Sein.
Die beiden Betrachtungsweisen können ja durchaus beide valide sein ;)
Aber mein DX12-Hypetrain hat momentan jedenfalls mindestens einen Platten... wenn vielleicht auch keine Achsbruch. Trotzdem muss da erstmal dran geschraubt werden, bevor der wieder rollen kann...
Locuza
2017-01-18, 14:44:49
Mit der gerade gestarteten Pix Beta hilft MS beim Schrauben: :)
Welcome to our new PIX team blog!
PIX is a performance tuning and debugging tool for game developers. It has a long and storied history spanning three generations of Xbox console. Today we are pleased to announce that a beta release of PIX is now available for analyzing DirectX 12 games on Windows as well.
PIX on Windows provides five main modes of operation:
- GPU captures for debugging and analyzing the performance of Direct3D 12 graphics rendering.
- Timing captures for understanding the performance and threading of all CPU and GPU work carried out by your game.
- Function Summary captures accumulate information about how long each function runs for and how often each is called.
- Callgraph captures trace the execution of a single function.
- Memory Allocation captures provide insight into the memory allocations made by your game
Da es sich gerade in der Beta befindet fehlen noch viele Features, zum Beispiel gibt es keine einzelnen Aufnahmen wenn mehrere GPU-Queues wie z.B. unter Async Compute verwendet werden und auch der Support für MultiAdapter fehlt.
Microsoft gibt aber schon einmal eine Liste an möglichen Features in einer Roadmap wieder:
https://blogs.msdn.microsoft.com/pix/roadmap/
Kartenlehrling
2017-01-18, 21:13:47
Jetzt nimmt DX12 fahrt auf... war Pix nicht schon Q4/2016 geplant?
Locuza
2017-01-19, 00:56:21
Es hieß im Verlauf des Jahres (2016) wird es mehr und mehr Informationen bezüglich Pix für Windows geben.
Ein konkretes Release Target habe ich nicht mitbekommen:
http://www.dualshockers.com/wp-content/uploads/2016/03/IMG_2831.jpg
https://youtu.be/dcDDvoauaz0?t=5m13s
Ich denke 2017 sollten viele der angesprochenen Themen realisiert werden.
Pix ist nun endlich in der Beta-Version für jeden verfügbar und mit dem W10 Creators Update (~ März/April) wird es sicherlich auch Updates bezüglich DX geben.
Entweder SM6.0 wird schon mit dabei sein oder es kommt erst mit dem nächsten Update.
Troyan
2017-01-20, 18:42:09
nVidia hat auf der GDC 2017 eine Präsentation über Async Compute: https://developer.nvidia.com/d3d-async-compute-physics-bullets-bandages-and-blood
Und das, obwohl AMD die einzigen sind, die es unterstützen. :D
aufkrawall
2017-01-20, 18:44:05
Nach deiner Theorie ist es doch böse, Berechnungen via Compute statt Graphics zu erledigen?
Troyan
2017-01-20, 18:48:53
Hä? Es spricht nichts gegen Compute.
Es wird nur kritisch, wenn man ineffiziente Computetechniken verwendet, weil man aufgrund ineffizienter Hardware die Grafikpipeline umgehen und Effekte grafisch abschwächen muss.
Darüber hat Epic letztes Jahr auf der GDC in Bezug auf Paragon gesprochen.
Locuza
2017-01-20, 19:22:40
[...]
Es wird nur kritisch, wenn man ineffiziente Computetechniken verwendet, weil man aufgrund ineffizienter Hardware die Grafikpipeline umgehen und Effekte grafisch abschwächen muss.
[...]
Gut das wir dich als objektive Instanz haben, um genau so etwas zu bewerten und heraus zu suchen.
Kartenlehrling
2017-01-20, 19:27:34
Das man das "alte" PhysX nicht mehr ewig so weiter wie Scheiss am Schuh mit sich schleppen konnte war klar,
früher hat sowas ca. 30-45% Leistungverlust gehabt, mit einer TitanXP sind es nun >65% Leistungverlust.
Da musste sich was ändern, ich warte ja immer noch darauf das diese Arbeit nicht die CPU oder dGPU sondern die gelangweilte iGPU macht.
Troyan
2017-01-21, 09:35:07
Gut das wir dich als objektive Instanz haben, um genau so etwas zu bewerten und heraus zu suchen.
https://youtu.be/BXcw2IrIinc?t=1322
Epic macht genau das für Paragon auf der PS4. Um die ineffiziente Hardware besser ausnutzen zu können, müssen Effekte anders realisiert werden.
M4xw0lf
2017-01-21, 09:56:21
https://youtu.be/BXcw2IrIinc?t=1322
Epic macht genau das für Paragon auf der PS4. Um die ineffiziente Hardware besser ausnutzen zu können, müssen Effekte anders realisiert werden.
Wenn man nicht die Fähigkeiten der Hardware nutzt, dann ist die Software ineffizient.
The DirectX HLSL (High Level Shading Language) compiler is now available as an open source project built on the Clang/LLVM framework.
New DirectX Shader Compiler based on Clang/LLVM now available as Open Source (https://blogs.msdn.microsoft.com/directx/2017/01/23/new-directx-shader-compiler-based-on-clangllvm-now-available-as-open-source/)
DirectX Developer Blog
Ganon
2017-01-24, 01:33:29
Das kommt überraschend. Das dürfte dem offiziellen Shadercompiler für Vulkan helfen, da dieser schon seit einiger Zeit an HLSL Unterstützung arbeitet.
Foobar2001
2017-01-24, 03:59:02
Nein, duerfte es nicht. Niemand will fuer sowas LLVM verwenden der nicht komplett bescheuert in der Birne ist. Mit Kanonen auf Spatzen geschossen.
Nun, es war schon laenger bekannt, dass MS llvm benutzen will:
https://www.techpowerup.com/img/16-03-23/79a.jpg
"c"lang Frontend + llvm optimisation steps, das sieht fuer mich doch ziemlich gleich aus, als das was "die andere Seite" mit macht glslang und LunarGLASS (https://github.com/LunarG/LunarGLASS) macht.
@Foobar2001: Beides dementsprechend nur Referenzprojekte ohne realistischen Nutzwert :confused:
Wie auch immer, man hoert schon auch mal Behauptungen, devs wuerden auf d3d12 statt vk setzen, weil sie mit HLSL mehr Erfahrung haetten.
Foobar2001
2017-01-24, 05:27:50
Man wird DXIL benutzen muessen fuer DX12. Ich halte es trotzdem fuer bescheuert LLVM als Compiler zu benutzen. Ueberhaupt Optimierungen auf der Ebene zu machen ist sinnlos. Der Treiber muss es dann wieder muehsehlig deoptimieren.
HLSL nach SPIR-V uebersetzen kann glslang so weit es geht bald vollstaendig, was soll man da mit dem uebel bloatigen Microsoft-Code?
Locuza
2017-01-24, 05:56:33
Als Referenzbezug, um bei Bedarf nachzusehen, wie Microsoft die Dinge intern handhabt.
Shader-Model 6.0 wird bald Einzug halten und das Featureset wird man natürlich auch gerne haben wollen, es kann schließlich nicht schaden, wenn man nun Zugriff zur ganzen Compiler-Struktur besitzt.
Foobar2001
2017-01-24, 06:07:48
HLSL 6.0 fuegt ein paar Ballot- und Shuffle-Intrinsics hinzu. Da liest man die Referenz-Seite auf MSDN und fertig. Was braucht man da Compiler-Code dafuer?
Locuza
2017-01-24, 06:19:21
Schon gut Foobar, es ist 100% nutzlos, ich gebe es ja zu.
Foobar2001
2017-01-24, 06:40:15
Ich habe nicht behauptet das es sinnlos ist. Code zu haben ist immer gut falls mal was Bugs hat, damit man selber nachschauen kann. Das sie LLVM benutzen ist meiner Meinung nach ein Fehler, aber den werden sie selber ausbaden muessen.
Fuer das Vulkan-HLSL-Oekosystem ist der Code unerheblich.
Ganon
2017-01-24, 11:31:57
Nein, duerfte es nicht. Niemand will fuer sowas LLVM verwenden der nicht komplett bescheuert in der Birne ist. Mit Kanonen auf Spatzen geschossen.
Ich meinte schon "als Nachschlagewerk".
Aber es wäre schon lustig mal zu wissen, ob MS ein HLSL -> SPIR-V Pull-Request mergen würde.
Kartenlehrling
2017-01-25, 00:33:21
Das ein i3-4330 immer noch einen AMD FX-9590@4,7ghz schlägt ist traurig.
http://gamegpu.com/images/stories/Test_GPU/strategy/Halo_Wars_2_Blitz_Beta/Halo_Wars_2__proz.jpg
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/halo-wars-2-blitz-beta-test-gpu
Frische Benchmarks von acht Low-Level-Spielen: Direct X 12 und Vulkan: Von -24% bis +230 % ist bei AMD alles möglich (http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Direct-X-11-Vulkan-1218975/)
Vulkan in Doom zeigt jeder DX12-Implementierung ohne Gnade die Rücklichter. Aber es wird. :)
MfG,
Raff
y33H@
2017-01-30, 10:43:46
Schöner Überblick!
M4xw0lf
2017-01-30, 10:44:01
Frische Benchmarks von acht Low-Level-Spielen: Direct X 12 und Vulkan: Von -24% bis +230 % ist bei AMD alles möglich (http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Direct-X-11-Vulkan-1218975/)
Vulkan in Doom zeigt jeder DX12-Implementierung ohne Gnade die Rücklichter. Aber es wird. :)
MfG,
Raff
Yay für den Artikel! :up:
Gleich lesen... ^^
Und auch noch mit ner Nano, perfekt ;)
Gern geschehen. :) Fortsetzung folgt. Irgendwann.
MfG,
Raff
N0Thing
2017-01-30, 15:59:43
Frische Benchmarks von acht Low-Level-Spielen: Direct X 12 und Vulkan: Von -24% bis +230 % ist bei AMD alles möglich (http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Direct-X-11-Vulkan-1218975/)
Vulkan in Doom zeigt jeder DX12-Implementierung ohne Gnade die Rücklichter. Aber es wird. :)
MfG,
Raff
Danke für den Test! Gerade bei den neuen APIs ist es schön, dass man nach den ganzen Patches und neuen Treibern zwischendurch den aktuellen Stand festhält. :up:
aufkrawall
2017-01-30, 16:06:20
Werd mir Hitman nochmal mit dem nächsten Patch anschauen.
Auf dem Stand von vor ein paar Monaten kann ich mich dem PCGH-Statement defintiv nicht anschließen, DX12 lief im Paris-Level einfach unrund. Und ob man mit Radeons immer noch auf ~4xAF beschränkt ist, müsste man auch nochmal prüfen. So gesehen ist es übrigens ein Fehler, dass PCGH im AMD-Treiber auf HQ-Filterung stellt. Die gibts nur für DX11, also ist DX11 so unfair im Nachteil in den Benchmarks (wenn auch nur wenige %).
y33H@
2017-01-30, 18:16:28
Der VRScore mit D3D12 ist da, bringt aber nix (selbst mit RX 480 auf nem Kaveri nicht): http://www.golem.de/news/basemark-vrscore-ausprobiert-mit-gorilla-robotern-die-vr-latenz-messen-1701-125887.html
Gast_samm
2017-01-30, 18:20:21
Cool, habt ihr auch schon Messungen gemacht, resp. sind noch Artikel geplant?
Hübie
2017-01-30, 18:23:44
Gern geschehen. :) Fortsetzung folgt. Irgendwann.
MfG,
Raff
Danke für den Test. Kannst du eins, zwei Sätze zum VRAM-Bedarf sagen? Lassen sich die Stocker durch mehr VRAM in einigen Titel eliminieren? Das Ergebnis ist noch etwas durchwachsen, was die Frameverteilung angeht. Die durchschnittlichen Bilder pro Sekunde liegen der Radeon unter DX12 zwar mehr, aber die smoothness scheint noch nicht optimal zu sein.
Fortsetzung dann mit einer GeForce? Dann doch bitte auch GM200, da Pascal ja in jeder Disziplin besser dasteht, wenn ich mich nicht täusche. Fury und Maxwell sind halt beide aus der selben Gen, daher mein Vorschlag (plus mein persönliches Interesse als GM200-Eigentümer, klar :smile:).
Achill
2017-01-30, 18:41:48
Werd mir Hitman nochmal mit dem nächsten Patch anschauen.
Auf dem Stand von vor ein paar Monaten kann ich mich dem PCGH-Statement defintiv nicht anschließen, DX12 lief im Paris-Level einfach unrund. Und ob man mit Radeons immer noch auf ~4xAF beschränkt ist, müsste man auch nochmal prüfen. So gesehen ist es übrigens ein Fehler, dass PCGH im AMD-Treiber auf HQ-Filterung stellt. Die gibts nur für DX11, also ist DX11 so unfair im Nachteil in den Benchmarks (wenn auch nur wenige %).
Sollte man auf jeden Fall nochmal anschauen und evtl. auch eine Image-Vergleich bzgl. Normal/HQ AF sowie DX11/12 mit nach schieben, einfach um zu validieren ob sich was bei AF in den Treibern getan hat und wie AF unter DX12 generell so ist.
y33H@
2017-01-30, 21:00:12
Cool, habt ihr auch schon Messungen gemacht, resp. sind noch Artikel geplant?VRScore? Nur bissi was mit GTX 1080 und RX 480, siehe Bildergalerie.
OpenVR (SteamVR) SDK v1.0.6 (https://github.com/ValveSoftware/openvr/releases/tag/v1.0.6)
GitHub
OpenVR (SteamVR) ist auf dem Weg zur DirectX 12-Unterstützung. Vulkan ist bereits etwas besser unterstützt, in der Praxis gibt es aber mit beiden noch keine wirklich vorzeigbaren VR Apps. Das wird sich in den kommenden Wochen ändern.
Kartenlehrling
2017-01-31, 18:18:01
HITMAN - HDR Support Notes (PC)
Exclusive fullscreen is required to use HDR on PC for both DirectX 11 and DirectX 12
Nvidia cards currently won't switch the TV into HDR mode in DirectX 12. Please use DirectX 11 until this issue is resolved
If you encounter problems with the TV not switching into HDR mode, try disconnecting all monitors except the TV
Please note that 4K@60hz 10/12 bpc RGB is not supported by the HDMI 2.0 standard.
Instead, if 4K@60hz is desired, 4:2:0 or 4:2:2 chroma subsampled output can be configured via the control panel provided by the graphics card vendor
ok ... mal wieder mehr Fragen als Antworten.
Gsync und Freesync ist wegen fehlender TV/Monitor wohl nicht zu beantworten.
aufkrawall
2017-01-31, 18:36:55
Habs gerade getestet, Hitman ist immer noch Müll mit DX12.
-immer noch nur 4xAF
-der temporale Filter fürs AA ist kaputt, mit DX11 nicht (wow, eine Neuerung, und gleich eine so positive :freak: )
-immer noch schlechtere Frametimes als mit DX11, mikroruckelt mit DX12 immer noch stärker in Menschenmengen
Fazit: Version "1.0" ist noch genau so ein Beta-Schrott wie das Early Access Episodenformat.
Habs gerade getestet, Hitman ist immer noch Müll mit DX12.
-immer noch nur 4xAF
-der temporale Filter fürs AA ist kaputt, mit DX11 nicht (wow, eine Neuerung, und gleich eine so positive :freak: )
-immer noch schlechtere Frametimes als mit DX11, mikroruckelt mit DX12 immer noch stärker in Menschenmengen
Fazit: Version "1.0" ist noch genau so ein Beta-Schrott wie das Early Access Episodenformat.
Was für ein Trauerspiel. Das sind rosige Aussichten auf die DX12/Vulkan Zukunft ...
Achill
2017-01-31, 21:57:53
Es fällt aber schon irgendwie auf, dass:
DX11 + AMD + schlechte Perf. => AMD Treiber
DX12 + AMD + gute Perf. => Entwickler Optimiert
vs.
DX12 + NV + schlechte Perf. => Entwickler mist gebaut
DX11 + NV + gute Perf. => NV Treiber
aufkrawall
2017-01-31, 22:02:34
Sorry, aber du erzählst Unfug. Ich hatte das schon mit der 390 mit DX11 gespielt, weil 12 von Problemen geplagt war/ist.
Kartenlehrling
2017-01-31, 22:03:34
Gerade gefunden wegen Nintendo-EmU .... es gibt noch Hoffnung für DX12.
http://i.imgur.com/LB4h61V.pnghttp://i.imgur.com/5o2Hn11.png
Locuza
2017-02-01, 06:02:27
Hoffnung bezüglich normaler Spiele und keinem Gamecube-Emulator.
Die Person die plötzlich kam und ein DX12 Backend implementiert hat, ist seitdem verschwunden und aktuell scheint sich niemand darum kümmern zu wollen, weswegen es auch Diskussionen darüber gibt, DX12 irgendwann wieder zu entfernen, wenn niemand aktiv die Pflege übernehmen möchte:
https://github.com/dolphin-emu/dolphin/pull/4424
Seit einiger Zeit wurde auch Vulkan implementiert, entsprechend ist das Interesse an DX12 unter vielen nicht groß.
dildo4u
2017-02-01, 19:10:52
Was für ein Trauerspiel. Das sind rosige Aussichten auf die DX12/Vulkan Zukunft ...
Hitman kann man vergessen unter DX11 absolut miserable Performance im CPU Limit.Aufkrawall zockt vermutlich in 1440p wo es vermutlich weniger eine Rolle spielt,dort wird auch der Vram schneller voll sein was tatsächlich noch ein Problem unter DX12 ist.Daher kommen vermutlich seine Ruckler.
DX11
https://youtu.be/phToA_yYEAg
DX12
https://youtu.be/WOC7bsZLmkc
Ganon
2017-02-01, 19:20:36
Gerade gefunden wegen Nintendo-EmU .... es gibt noch Hoffnung für DX12.
Kannst die APIs damit nicht vergleichen, da das DX12 Backend nicht alle Features der DX11/OpenGL Backends implementierte. Mit anderen Worten: Das DX12 Backend machte intern auch weniger.
Und wie bereits verlinkt wurde. Das DX12 Backend wird über kurz oder lang entfernt und man schwenkt auf Vulkan um.
Hitman kann man vergessen unter DX11 absolut miserable Performance im CPU Limit.
Bei einer AMD FX Krücke vielleicht. Mit einem i5/i7 gibt es null Probleme.
aufkrawall
2017-02-01, 21:24:10
Das Spiel skaliert nicht gut mit mehr als vier Threads, typisch Square Enix. Zu Dildos sonstigen Formulierungen spar ich mir weitere Ausführungen, echt keinen Bock drauf.
Kartenlehrling
2017-02-03, 22:29:05
http://www.rebellion.co.uk/blog/2017/1/31/playstation-4-pro-directx-12-support-for-sniper-elite-4
PlayStation®4 Pro & DirectX 12 support for Sniper Elite 4, it launches February 14th!
Kartenlehrling
2017-02-07, 10:23:31
Die vergessene API: Was ist los mit DX12? - Warum lieben Entwickler DX12 nicht?
http://www.techradar.com/news/the-forgotten-api-just-what-is-going-on-with-dx12
The forgotten API: just what is going on with DX12?
][immy
2017-02-07, 12:30:40
http://www.techradar.com/news/the-forgotten-api-just-what-is-going-on-with-dx12
The forgotten API: just what is going on with DX12?
Den gleichen Artikel könnte man über Vulkan oder sämtliche OpenGL/DirectX Versionen der Vergangenheit schreiben.
DX12/Vulkan ist ein zu großer Umbruch als das man mal eben sein Spiel/Engine darauf umdesignen würde. Nicht jeder Entwickler will auch immer das mehr an Kontrolle haben, die einem die neuen APIs abverlangen.
Zudem beschneidet niemand gerne seine Kundschaft. Gibt auch noch genug Hardware da draußen mit denen man durch DX12/Vulkan einfach keine Vorteile hat.
Problem ist auch DX12/Vulkan nützen vor allem da etwas, wo wenig CPU-Leistung zur Verfügung steht ... nunja, die letzten Jahre hat sich an der CPU-Leistung nicht sehr viel getan und selbst Low-End Rechner verfügen inzwischen über genügend CPU-Leistung damit ihren GPUs nicht aufgrund der CPU die Puste ausgeht.
Nur die wenigsten haben ein High-End-System und dort spielt es fast keine Rolle, weil hier dann auch eine dickere CPU drin steckt. Und an >60fps denkt aktuell wohl kaum ein Entwickler, das kostet nur unnötig Geld & Zeit.
N0Thing
2017-02-07, 12:52:41
Das einzig interessante an dem Artikel ist die erneute Erwähnung, daß mehr Titel die neue API nutzen, als nach vergleichbarer Zeit bei DX10.
DX12 und Vulkan werden ihren Weg gehen und irgendwann zum Standard werden, so wie man es jetzt von DX11 kennt, während kleine Studios noch länger DX11 und vielleicht OpenGL nutzen werden.
Auch jetzt gibt es noch eine Reihe von kleinen Studios, die noch DX9 und für ihre Spiele nutzen.
BlacKi
2017-02-07, 13:02:10
wenn dx12 in den nächsten jahren nicht besser performen und zum standard wird, dann wird man die namen neu vergeben müssen, da hängen schon zuviele schlechte erfahrungen drann, die namen sind eigentlich jetzt schon "verbraucht". vl gibt es starken aufwind mit neuem namen.
dx12 steht für die meisten user für abstürze, schlechte frametimes und schlechte fps. entweder sie bekommen bald den bogen raus, oder ein neuer name muss her.
][immy
2017-02-07, 13:47:05
dx12 steht für die meisten user für abstürze, schlechte frametimes und schlechte fps. entweder sie bekommen bald den bogen raus, oder ein neuer name muss her.
Das problem dabei ist, das können die Entwickler nicht länger auf DirectX schieben. Die meisten Sachen sind jetzt halt in ihrem Verwantwortungsbereich die <DX11 vorher automatisch erledigt hat. Da kann man halt einiges falsch machen, was vorher automatisch optimiert wurde.
Lower-Level API ist halt nicht für jeden die bessere Wahl.
Aber man sieht ja beispielsweise an Gears of War 4 das sich mit DX12 durchaus auch relativ Fehlerfreie Spiele entwickeln lassen. Ist am Ende aber alles eine Sache der Erfahrung.
Zu "DirectX 12 done right" geht's hier lang: Sniper Elite 4 im Test (http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/)
Okay, im CPU-Limit ist mal wieder nichts zu holen (zumindest auf den gezeigten Testsystemen), aber im Grafiklimit. Interessante, aber nicht überraschende Erkenntnisse bezüglich Async Compute inklusive. :naughty:
MfG,
Raff
Screemer
2017-02-13, 16:13:35
done right? ernsthaft? kepler, der nicht mal as unterstützt, gewinnt halb soviel mit dx12 hinzu wie gnc gpus? ob das so optimal ist. naja zumindest wird es endlich mal nicht langsamer ;)
dildo4u
2017-02-13, 16:20:13
Ich sehe da 20% von DX11 zu DX12 für Fury und die 480,das ist schon eine Menge im GPU Limit.
Troyan
2017-02-13, 16:21:36
Ich sehe da 20% von DX11 zu DX12 für Fury und die 480,das ist schon eine Menge im GPU Limit.
Da sieht man gar nichts außer den schlechten Zustand der DX11 Treiber von AMD.
Bis zu 14% mehr minFPS bei Nvidia, Gott sind deren DX11 Treiber in schlechtem Zustand :rolleyes:
<')))><
Locuza
2017-02-13, 16:51:02
Ist dies das erste DX12-Spiel, welches unter DX12 niemals langsamer im GPU-Limit bei Nvidia arbeitet, egal ob Kepler, Maxwell oder Pascal?
In der Hinsicht wirklich well done.
Troyan
2017-02-13, 16:56:31
Wow, toll. Minimum-Frames. Was für ein Kriterium.
Unter DX11 ist die GTX1070 61% schneller als die RX 480 und 28% schneller als die Fury X.
Async Compute selbst bringt auch nichts auf AMD Karten. In GoW 4 (http://www.pcgameshardware.de/Gears-of-War-4-Spiel-55621/Specials/Performance-Test-Review-1209651/) war der Gewinn doppelt so hoch.
DX12 macht nur das, was mit vernünftigen Treiber längst möglich wäre. Gut, vielleicht bringt ein neuer Treiber bei AMD mehr Leistung, aber zur Zeit ist DX12 einfach nur ein Ersatz für den schlechten DX11 Treiber, der ohne händische Optimierung weit vom Niveau der Konkurrenz entfernt ist.
dildo4u
2017-02-13, 16:57:46
Ist dies das erste DX12-Spiel, welches unter DX12 niemals langsamer im GPU-Limit bei Nvidia arbeitet, egal ob Kepler, Maxwell oder Pascal?
In der Hinsicht wirklich well done.
Tomb Raider hatte nach ein paar Patches ein verdammt guten DX12 Modus.Fällt vorallem im Hub Level Geothermal Valley auf.
Troyan
2017-02-13, 16:59:58
Tomb Raider ist bis zu 10% langsamer im GPU-Limit.
Locuza
2017-02-13, 17:56:13
Wow, toll. Minimum-Frames. Was für ein Kriterium.
Unter DX11 ist die GTX1070 61% schneller als die RX 480 und 28% schneller als die Fury X.
Async Compute selbst bringt auch nichts auf AMD Karten. In GoW 4 (http://www.pcgameshardware.de/Gears-of-War-4-Spiel-55621/Specials/Performance-Test-Review-1209651/) war der Gewinn doppelt so hoch.
DX12 macht nur das, was mit vernünftigen Treiber längst möglich wäre. Gut, vielleicht bringt ein neuer Treiber bei AMD mehr Leistung, aber zur Zeit ist DX12 einfach nur ein Ersatz für den schlechten DX11 Treiber, der ohne händische Optimierung weit vom Niveau der Konkurrenz entfernt ist.
Min-FPS sind natürlich ein schlechtes Kriterium, es ist ja nicht so das man die schlechtesten Ergebnisse in der Praxis am ehesten mitbekommen würde ;D
Im Schnitt sind es bei Kepler aber dennoch 10%.
Hätte Nvidia vernünftige DX11-Treiber, wären die also mindestens 10% schneller. :P
Natürlich in der Regel mehr, da ein guter IHV seine Hardware in und auswendig weiß und Hardwaredokumentationen haben Entwickler gar nicht verdient, diese Schmarotzer. ;D
Wie lange muss man dich hier eigentlich noch ertragen?
Gipsel
2017-02-13, 17:56:35
Wow, toll. Minimum-Frames. Was für ein Kriterium.Es ist ein mitunter recht wichtiges Kriterium.
Unter DX11 ist die GTX1070 61% schneller als die RX 480 und 28% schneller als die Fury X.Wen interessiert denn das? Unter der schnellsten angebotenen API (das ist DX12 für alle, auch für nV) ist die 1070 in 1080p 44% schneller als die RX480 und 19% schneller als die FuryX. In 1440p sind es 42% und 12%, in 4k dann 33% und -4% (d.h. die FuryX ist 4% schneller).
Oder willst Du die nV-Karten künstlich einbremsen, nur damit Du höhere Prozentzahlen behaupten kannst? :rolleyes:
Async Compute selbst bringt auch nichts auf AMD Karten. In GoW 4 (http://www.pcgameshardware.de/Gears-of-War-4-Spiel-55621/Specials/Performance-Test-Review-1209651/) war der Gewinn doppelt so hoch.Potentielle Gewinne durch AC hängen immer von der Nutzung durch die Engine ab. Die Zahlen hier zeigen, daß es offenbar nur minimal genutzt wird und nicht extensiv. Dann kann auch nicht viel rumkommen. Wenn es anders wäre (inklusive massiven Performanceeinbrüchen auf pre Pascal-Karten?), würdest Du wahrscheinlich rumzetern, daß das wieder nur ein auf AMD optimiertes Spiel wäre und die Entwickler von AMD gekauft wären. Oder etwa nicht? :wink:
DX12 macht nur das, was mit vernünftigen Treiber längst möglich wäre. Gut, vielleicht bringt ein neuer Treiber bei AMD mehr Leistung, aber zur Zeit ist DX12 einfach nur ein Ersatz für den schlechten DX11 Treiber, der ohne händische Optimierung weit vom Niveau der Konkurrenz entfernt ist.Ach deswegen bringt DX12 auf nVidia-Karten die höchste Performance. NV's Treiber ist einfach so schlecht! ;D
Und nur mal nebenbei, so ein Blödsinn hat kaum etwas im Technologieforum verloren. Trage das woanders hin!
Foobar2001
2017-02-13, 19:15:50
Compute selbst bringt auch nichts auf AMD Karten.
Das ist eine glatte Luege.
Gipsel
2017-02-13, 19:21:45
Am besten diskutieren wir hier zukünftig das Thema und keinen Fanboy-Kram.
Rincewind
2017-02-13, 20:05:22
das wäre nett.
TotalBiscuit spielt gerade Sniper Elite 4 live auf Twitch. Mit DirectX 11 läuft es um den Faktor 2-3x mal schneller *und* sieht dank zusätzlicher Effekte besser aus (beides mit Ultra Settings) auf einer GTX 1080. Irgendetwas stimmt da nicht.
Ex3cut3r
2017-02-13, 21:11:53
TotalBiscuit spielt gerade Sniper Elite 4 live auf Twitch. Mit DirectX 11 läuft es um den Faktor 2-3x mal schneller *und* sieht dank zusätzlicher Effekte besser aus (beides mit Ultra Settings) auf einer GTX 1080. Irgendetwas stimmt da nicht.
Überrascht mich jetzt nicht wirklich. DX12 ist imo eine einzige Enttäuschung. Ich warte auf den Nachfolger.
Kartenlehrling
2017-02-13, 21:13:28
TotalBiscuit spielt gerade Sniper Elite 4 live auf Twitch.
Dann stimmt bei TBiscuit was nicht, bei den Russen spiegelt den guten DX12 support auch unter Nvidia wieder.
Nur die CPU Thread Auslastung finde ich "DX12 Typisch" schlecht mit zwei >80% CPU-Thread wo die andern unter 50% rennen.
http://gamegpu.com/action-/-fps-/-tps/sniper-elite-4-test-gpu
dildo4u
2017-02-13, 21:19:30
Überrascht mich jetzt nicht wirklich. DX12 ist imo eine einzige Enttäuschung. Ich warte auf den Nachfolger.
Raff ist schon in der Lage es vernünftig zu testen,klingt alles sehr Positiv.
Dann stimmt bei TBiscuit was nicht, bei den Russen spiegelt den guten DX12 support auch unter Nvidia wieder.
Nur die CPU Thread Auslastung finde ich "DX12 Typisch" schlecht mit zwei >80% CPU-Thread wo die andern unter 50% rennen.
http://gamegpu.com/action-/-fps-/-tps/sniper-elite-4-test-gpu
Deren Testszene stammt übrigens aus der ersten Mission (sofern das 34-Sekunden-Video die Testszene zeigt). Mission 3 schlaucht die GPUs stärker. Deckt sich aber ordentlich mit den PCGH-Werten.
MfG,
Raff
dargo
2017-02-14, 08:26:01
Zu "DirectX 12 done right" geht's hier lang: Sniper Elite 4 im Test (http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/)
Okay, im CPU-Limit ist mal wieder nichts zu holen (zumindest auf den gezeigten Testsystemen), aber im Grafiklimit. Interessante, aber nicht überraschende Erkenntnisse bezüglich Async Compute inklusive. :naughty:
MfG,
Raff
Mal eine bescheidene Frage... warum habt ihr beim Corescaling der CPU satte 3Ghz gegeben wenn die Testszene bereits mit 2C/4T sehr hohe 97 avg.fps ausspuckt? Im Prinzip sieht man dadurch nicht wie gut das Spiel multithreaded da die Grafikkarte spätestens schon mit 4C/8T stark limitiert.
Foobar2001
2017-02-14, 08:46:18
So gut skaliert das Spiel nicht. Ich hab meinem i7 6700k mal 1.16Ghz gegeben und geschaut - 17% Auslastung im 4. Level und "nur" 45 FPS. Gut, ich hab nur eine Szene getestet.
Es scheint aber generell recht genuegsam zu sein was CPU angeht.
Mal eine bescheidene Frage... warum habt ihr beim Corescaling der CPU satte 3Ghz gegeben wenn die Testszene bereits mit 2C/4T sehr hohe 97 avg.fps ausspuckt? Im Prinzip sieht man dadurch nicht wie gut das Spiel multithreaded da die Grafikkarte spätestens schon mit 4C/8T stark limitiert.
Zweitens das, was Foobar sagte. Erstens aber: Immer, als wir Tests mit weniger als 3,x GHz gemacht haben, beschwerten sich Leute über die "praxisfernen" Frequenzen. Daher lautet die Devise nun: Hoher Kerntakt, aber dennoch möglichst kein Grafiklimit durch Verzicht auf AA/AF/AO. :)
MfG,
Raff
dargo
2017-02-14, 08:57:12
Zweitens das, was Foobar sagte. Erstens aber: Immer, als wir Tests mit weniger als 3,x GHz gemacht haben, beschwerten sich Leute über die "praxisfernen" Frequenzen.
Unglaublich, dass selbst im Jahr 2017 immer noch so viele nicht verstehen was man mit geringeren CPU-Takt bezwecken möchte. :usweet:
fondness
2017-02-14, 09:35:25
Zu "DirectX 12 done right" geht's hier lang: Sniper Elite 4 im Test (http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/)
Okay, im CPU-Limit ist mal wieder nichts zu holen (zumindest auf den gezeigten Testsystemen), aber im Grafiklimit. Interessante, aber nicht überraschende Erkenntnisse bezüglich Async Compute inklusive. :naughty:
MfG,
Raff
Done right vielleicht für NV-GPUs. Bei GCN könnte man da wohl schon noch was raus holen bei ASC.
Achill
2017-02-14, 13:15:03
Auch sehr gut finde ich die Tatsache, dass auch dieses Spiel wieder mGPU unter DX12 unterstützt:
http://gamegpu.com/images/stories/Test_GPU/Action/Sniper_Elite_4_/se4_1920_12.png bzw. http://gamegpu.com/images/stories/Test_GPU/Action/Sniper_Elite_4_/12/se4_1920a.png
Leider gibt es keine Frametimes - daher schwer zu beurteilen ob gut/schlecht - bisher hatte die Mehrheit der Games unter DX12 bisher mGPU Support (ab Start oder auch später).
Kartenlehrling
2017-02-14, 13:58:40
die range minFPS > AvgFPS ist aber einfach zu gross, das Spiel muss mit einem FPS Limiter gespielt werden,
funktioniert AMD Chill-limiter einwandfrei, da es im moment nur bei dx9 und dx11 funktionieren sollte?! (http://www.tomshardware.de/amd-radeon-chill-ocat-leistungsaufnahme-performance-benchmark,testberichte-242281.html)
Screemer
2017-02-14, 14:18:57
die range minFPS > AvgFPS ist aber einfach zu gross, das Spiel muss mit einem FPS Limiter gespielt werden,
funktioniert AMD Chill-limiter einwandfrei, da es im moment nur bei dx9 und dx11 funktionieren sollte?! (http://www.tomshardware.de/amd-radeon-chill-ocat-leistungsaufnahme-performance-benchmark,testberichte-242281.html)
Chill funktioniert sogar nur bei einer kleinen Auswahl von dx9/11 games. Ich frag mich wirklich warum das in der Form implementiert wurde. Hoffentlich wird da noch dran gearbeitet um die Kompatibilität zu erhöhen.
http://img.techpowerup.org/161209/capture2717.jpg
fondness
2017-02-14, 15:11:02
Auch sehr gut finde ich die Tatsache, dass auch dieses Spiel wieder mGPU unter DX12 unterstützt:
http://gamegpu.com/images/stories/Test_GPU/Action/Sniper_Elite_4_/se4_1920_12.png bzw. http://gamegpu.com/images/stories/Test_GPU/Action/Sniper_Elite_4_/12/se4_1920a.png
Leider gibt es keine Frametimes - daher schwer zu beurteilen ob gut/schlecht - bisher hatte die Mehrheit der Games unter DX12 bisher mGPU Support (ab Start oder auch später).
Interessant, dass diese Ergebnisse wesentlich besser für AMD aussehen, wie die von PCGH.
/Edit: Okay liegt wohl hauptsächlich an den OC-Modellen.
Diese Diskussion sollten wir ein für allemal beenden. Bei PCGH stehen die Frequenzen, im Rest des Internets nicht, insofern ist der (Präzisions-)Maßstab doch eindeutig. :)
MfG,
Raff
fondness
2017-02-14, 16:00:51
Es ist trotzdem immer wieder erstaunlich, wie groß die Unterschiede je nach Testseite bei einem und demselben Spiel sind.
/Edit: hier übrigens ein kurzer Test von CB mit aktuellem "Sniper Elite 4 Ready Treiber" Crimson 17.2.1: https://www.computerbase.de/2017-02/sniper-elite-4-benchmark/#diagramm-sniper-elite-4-2560-1440
dildo4u
2017-02-14, 16:41:26
Es ist trotzdem immer wieder erstaunlich, wie groß die Unterschiede je nach Testseite bei einem und demselben Spiel sind.
PCGH kann nix für die schlechte AMD Performance in niedriger Auflösung,die Benches sehen wie bei CB aus je höher die Auflösung desto besser sieht Fury aus.
Das passt alles wenn man den Werk's OC der 1070 mit einberechnet.Davon ab hat PCGH nicht mal auf den Nvidia Treiber für das Game gewartet wo ist das pro NV?
http://abload.de/img/forhonormqrpq.png
Kartenlehrling
2017-02-14, 16:48:35
Ist natürlich kein Verhältniss zu AMD, aber trotzdem kann sich wohl kein Nvidia Besitzer beschweren.
https://pics.computerbase.de/7/6/7/8/7/diagramme/8-1260.1487075847.png
https://www.computerbase.de/2017-02/sniper-elite-4-benchmark/
aufkrawall
2017-02-14, 17:01:37
Zeigt einmal mehr, dass schlechtere Performance mit LL, egal mit welchem Hersteller, eine Fehlleistung des Entwicklers ist.
fondness
2017-02-14, 17:36:43
Zeigt einmal mehr, dass schlechtere Performance mit LL, egal mit welchem Hersteller, eine Fehlleistung des Entwicklers ist.
Bleibt die Frage, wie man schlechte Leistung definiert.
Foobar2001
2017-02-14, 17:38:22
Zeigt einmal mehr, dass schlechtere Performance mit LL, egal mit welchem Hersteller, eine Fehlleistung des Entwicklers ist.
Und die Erde ist ganz klar eine Scheibe.
aufkrawall
2017-02-14, 18:17:05
Bleibt die Frage, wie man schlechte Leistung definiert.
Nicht schlechte, sondern schlechtere.
Und die Erde ist ganz klar eine Scheibe.
Deine Kollegen leben wohl auf einer Scheibe.
Foobar2001
2017-02-14, 18:22:25
Es gibt da so was das nennt sich "Treiber". Und ja, der hat immer noch einen Einfluss.
aufkrawall
2017-02-14, 18:23:28
Ach wirklich, und warum hilft der dann nicht bei gewissen anderen Spielen? Und ich meine jetzt übrigens nicht Vulkan...
Foobar2001
2017-02-14, 18:23:54
Whatever dude. Ich diskutier nicht mit dir, ist sinnlos.
aufkrawall
2017-02-14, 18:40:24
Sah mir bei dem polemischen Einzeiler schon von Anfang an nicht danach aus...
Foobar2001
2017-02-14, 18:51:14
Du laesst doch eh nicht mit dir reden? Ist immer das gleiche.
Aus A folgt B, heisst nicht dass aus B auch A folgt. Da hoert bei dir schon das Verstaendnis auf.
aufkrawall
2017-02-14, 18:56:30
Vor ein paar Monaten meintest du noch, man könne mit DX12 nicht mehr so viel via Treiber rausholen wie bei DX11. Vielleicht widersprichst du dir also nur selbst diametral?
Abgesehen davon wären Treiber-Optimierungen trotzdem keine Erklärung, weil anzunehmen ist, dass es diese für DX11 in weit größerem Maße gibt und andere DX12-Spiele ggf. darüber auch über das DX11-Level gehoben werden könnten (was bisher nicht zu sehen war).
Wenn du schon selber keine plausible Erklärung liefern kannst, reiß dich wenigstens zusammen und spar dir die billige Polemik.
Achill
2017-02-14, 20:52:29
Es sind einfach unterschiedliche Aussagen - und ob diese in einen Zusammenhang stehen ist nochmal eine weitere:
A) DX12 Treiber können weniger <Platzhalter> optimieren. (Jeder neue Platzhalter stellt eine neue Aussage dar)
B) DX12 Treiber können <Platzhalter> ungünstiger implementiert haben. (Jeder neue Platzhalter stellt eine neue Aussage dar)
Aussagen wie A -> B oder B -> A müssen gezeigt werden, es gilt aber nie! automatisch, dass wenn A -> B gilt auch B -> A folgt muss.
Sprich ob es Korrelation zwischen A und B gibt muss erst gezeigt werden. Und auch wenn es eine Konstellation gibt, wo A -> B ist darf man auch nicht in die Falle tappen und Abwandlungen A -> B' bzw. A' -> B auch für implizit wahr zu 'erklären'.
Wenn die Straße ist nass ist dann hat es geregnet. (Falsch - weil jemand kann ein Eimer Wasser ausgeschüttet haben)
Wenn es regent dann wird die Straße nass. (Wahr)
dildo4u
2017-02-15, 20:01:53
AMD wirbt mit 100% Crossfire Steigerung unter DX12 in Sniper Elite 4.
http://radeon.com/en-us/sniperelite4/
NV schafft das auch,schon erstaunlich das es ein Budget Game so gut hineinbekommt und BF1 unter DX12 immer noch scheiße läuft.
http://abload.de/img/se4_2560af8o5i.png
dargo
2017-02-15, 20:16:53
Bei der R9 290 eine CF-Skalierung über Faktor 2? WTF? :D
Nightspider
2017-02-15, 20:22:46
NV schafft das auch,schon erstaunlich das es ein Budget Game so gut hineinbekommt und BF1 unter DX12 immer noch schieße läuft.
Jo...
Wahrscheinlich erachten die Publisher es nicht als nötig. BF1 verkauft sich ja eh bestens...
Kartenlehrling
2017-02-21, 18:19:51
Das Spiel belegt den ganzen Speicher, braucht aber weniger
Unbekannt ist, wie viel Grafikkartenspeicher Halo Wars 2 effektiv verlangt,
denn das Spiel adressiert unabhängig vom vorhandenen VRAM auch in niedrigen Auflösungen sofort den gesamten Speicher.
In der Praxis waren hingegen auch in 3.840 × 2.160 mit einer Vier-Gigabyte-Grafikkarte keinerlei Nachteile spürbar.
2.048 MB reichen dagegen auch in Full HD für die vollen Texturdetails nicht mehr aus.
Bei einer 2-GB-Grafikkarte darf die Texturstufe die mittlere Einstellung nicht überschreiten, sonst gibt es eine Ruckelorgie.
https://www.computerbase.de/2017-02/halo-wars-2-grafikkarten-benchmark/#diagramm-halo-wars-2-3840-2160
Halo Wars 2 Benchmark : Hübsch und flüssig mit DirectX 12 trotz UWP
Wenn ein i3-6100 eine alten i7-2600k sowie einen AMD FX-9590@4,7ghz schägt, such ich immer den Multicore Support.
Da stimmt sowieso wieder was nicht, HT bremst anscheinend oder wird wieder nicht unterstützt, i5-6600 schlägt i7-6700 !!?
http://gamegpu.com/images/stories/Test_GPU/strategy/halo_wars_2/hw2_proz.png
aufkrawall
2017-02-21, 18:30:56
Dann ist die 1060 in 4k wohl durch Zauberhand auf einmal 30% vor der 980.
dildo4u
2017-02-21, 18:33:14
https://www.computerbase.de/2017-02/halo-wars-2-grafikkarten-benchmark/#diagramm-halo-wars-2-3840-2160
Halo Wars 2 Benchmark : Hübsch und flüssig mit DirectX 12 trotz UWP
Wenn ein i3-6100 eine alten i7-2600k sowie einen AMD FX-9590@4,7ghz schägt, such ich immer den Multicore Support.
Da stimmt wieder was nicht, HT bremst oder wird wieder nicht unterstützt i5-6600 schlägt i7-6700 !!?
http://gamegpu.com/images/stories/Test_GPU/strategy/halo_wars_2/hw2_proz.png
DX12 heißt nicht automatisch gutes Mulitcoreskaling,das sollte dir langsam aufgefallen sein.Watch Dogs 2 nutzt 8 Core deutlich besser aus.
Kartenlehrling
2017-02-21, 18:46:33
Was heißt hier gutes ... mit Windows Vista würde uns 64bit support versprochen ist aber erst vor 4 Jahre wirklich gekommen,
mit Win7 und DX11 wurd Multicore versprochen und selbst heute kann man die Spiele immer noch mit den menschlichen Gliedmasse abzählen.
http://www.legitreviews.com/wp-content/uploads/2014/03/3dmark-stats.jpg
dargo
2017-02-21, 18:49:20
DX12 heißt nicht automatisch gutes Mulitcoreskaling,das sollte dir langsam aufgefallen sein.Watch Dogs 2 nutzt 8 Core deutlich besser aus.
Wo steht das? Seitdem der NV-Treiber bei DX11 die Treiberlast auf mehrere Threads aufteilt kann man dazu doch überhaupt keine haltbare Aussage mehr treffen.
Dann ist die 1060 in 4k wohl durch Zauberhand auf einmal 30% vor der 980.
Schon etwas seltsam das Ergebnis.
Die Fury X bsw. hat auch nur 4GB Speicher und setzt sich mit jeder Steigerung der Auflösung stärker von Grenada ab.
Foobar2001
2017-02-21, 19:56:43
DX12 heißt nicht automatisch gutes Mulitcoreskaling,das sollte dir langsam aufgefallen sein.Watch Dogs 2 nutzt 8 Core deutlich besser aus.
Natuerlich nicht. Multithreading muss in die Engine integriert werden. Da ist gar nichts automatisch.
aufkrawall
2017-02-21, 19:59:51
Schon etwas seltsam das Ergebnis.
Die Fury X bsw. hat auch nur 4GB Speicher und setzt sich mit jeder Steigerung der Auflösung stärker von Grenada ab.
Kann einfach sein, dass es mit AMD weniger VRAM braucht.
Nightspider
2017-02-21, 20:16:42
Ist ja auch nicht so als hätte das Spiel mehr CPU Leistung nötig wenn Halo Wars 2 selbst auf einem uralten 2500K noch mit 90fps läuft.
Ist halt ein Konsolenport.
Da bin ich eher mal auf das PC exclusive Warhammer 40,000: Dawn of War III gespannt was Multithreading betrifft.
Kartenlehrling
2017-02-21, 21:02:18
Ist ja auch nicht so als hätte das Spiel mehr CPU Leistung nötig,...
Aber das ist doch gar nicht die Frage, im AMD Ryzen-CPU Thread wird philosophiert ob man 8/16core CPUs brauch und
ein 2017er Spiel wo Microsoft von der modernsten Low-Level-API spricht,
läuft auf einem i3 (120€) schneller alles auf einem 1000€ teuer 8/16core i7-5960X?!
Screemer
2017-02-21, 21:42:31
Du hast aber schon gesehen, dass selbst ein 2500k schneller sein soll trotz geringerem Takt. Negatives scaling durch HT? Wtf? Der bench ist schlicht bullshit.
Birdman
2017-02-21, 22:57:42
Negatives scaling durch HT? Wtf? Der bench ist schlicht bullshit.
Wieso? Gibt mehr als genug Spiele die mitunter deutlich! negativ mit HT skalieren.
][immy
2017-02-21, 23:46:10
Was heißt hier gutes ... mit Windows Vista würde uns 64bit support versprochen ist aber erst vor 4 Jahre wirklich gekommen,
mit Win7 und DX11 wurd Multicore versprochen und selbst heute kann man die Spiele immer noch mit den menschlichen Gliedmasse abzählen.
http://www.legitreviews.com/wp-content/uploads/2014/03/3dmark-stats.jpg
Gute Multicore-Ausnutzung hat nur wenig mit der verwendeten API zu tun. Viel mehr mit den Entwicklern.
Mit DX12 wurde nur sichergestellt das der Entwickler eine bessere Möglichkeit hat Multicore-Prozessoren zu nutzen bzw. nicht mehr so die Bremse zu sein bei Grafik-Berechnungen. Was der Entwickler letztlich draus macht ist eine ganz andere Sache.
Multi-Cores Unterstützung gibt es schon seit Windows XP, trotzdem gab es durch MutliCore unterstützende Spiele nur mäßigen Zuwachs in den Spielen. Das meiste läuft nach wie vor auf einem Core und muss halt nicht immer was mit der Grafik zu tun haben.
Was hat 64-Bit mit der Sache zu tun. Windows XP64 hat damit (in der Wndows-Welt) angefangen und mit Vista x64 ging es weiter. Da wurde nix versprochen, außer das es endlich mal möglich war, die Zusätzlichen Adressräumen etc zu verwenden. der Clou war eher, das alles nach wie vor Abwärtskompatibel ist (zumindest soweit es 32-Bit war).
Leider hat sich MS aber damals noch dazu entschlossen trotzdem noch eine 32-Bit version (auch dank Intel) anzubieten. Daher sind die Entwickler lange nicht in die Puschen gekommen um tatsächlich mal 64-Bit zu unterstützen und Vorteile draus zu ziehen.
Viele Entwickler wollten mehr Freiheiten von der API, die haben sie jetzt bekommen. Alle anderen Entwickler fahren nach wie vor besser mit DX11. Hier haben auch AMD & nvidia jede Menge Tricks in die Treiber eingebaut damit DX11 so gut performed wie es das derzeit macht. Wird ne Weile dauern bis die Entwickler flächendenkend Vorteile aus DX12/Vulkan ziehen können die den Optimierungen von nvidia & AMD in DX11 überlegen sind.
Screemer
2017-02-22, 00:05:41
Wieso? Gibt mehr als genug Spiele die mitunter deutlich! negativ mit HT skalieren.
Hab dich im ryzen thread schon mal das gleiche gefragt und keine Antwort erhalten
@birdman: Beispiele?
Vor allem was sind mehr als genug? >5, >10, >20 oder vielleicht nicht mal ne Hand voll?
Mal ernsthaft. Denkst du ~17% weniger Leistung trotz 6% mehr Takt, also taktnormiert über 22% Leistungsverlust durch ht, wäre nicht das Thema schlechthin? Solche Einbrüche gabs nicht mal zu Zeiten des altehrwürdigen p4.
aufkrawall
2017-02-22, 00:14:04
Es gibt solche Spiele, PCGH hatten das schon mehrfach bestätigt. Wie du aber schon sagtest, ist das bei ein paar Titeln mit wahrscheinlich meist nur geringem Verlust kein Grund, bei 4C nicht HTT einzuschalten. Und ist OT hier.
Screemer
2017-02-22, 00:24:44
Mehrfach? Dann schweine ich wirklich unfähig zu sein diese tests zu finden. Das wird hier gefühlt jeden 2ten Tag gepostet und ich frag jedes mal nach und es kommt schlicht nichts zurück.
Bisher konnte ich einen usertest von planet side 2 ausmachen, bei dem es sich allem Anschein nach nicht um Messfehler oder abweichung in messtoleranzen handelte. Das ist 6 Jahre her.
Das kann man im übrigen gerne raus splitten. Ich hätte das gerne mal geklärt. Vielleicht untermauern lowkey und birdman ihre Behauptungen ja mal mit Fakten.
Loeschzwerg
2017-02-22, 06:51:10
Das ungeliebte No Man's Sky stürzt bei mir mit aktiven SMT innerhalb weniger Minuten ab. Aber gut, ob SMT on/off spielt bei 18 nativen Kernen jetzt auch keine Rolle :freak:
dildo4u
2017-02-23, 12:39:08
Wo steht das? Seitdem der NV-Treiber bei DX11 die Treiberlast auf mehrere Threads aufteilt kann man dazu doch überhaupt keine haltbare Aussage mehr treffen.
Das ist nicht nur der Treiber,nicht alle Games in dem Test scalen so selbst Wichter 3 nicht was eine gute Engine hat.
http://abload.de/img/watchdoift6aqx.png
https://www.computerbase.de/2017-02/cpu-skalierung-kerne-spiele-test/
Kartenlehrling
2017-02-23, 12:50:45
Den CB test kann ich nicht ganz nachvollziehen, selbst auf deinen Screenshot sehe ich Unstimmigkeit, ein FX-9590 (4,7ghz) genauso schnell wie ein FX8370(4,0ghz),
1000mhz sind eigentlich immer 10-15% Reduzierung der CPU-Limiter was oft in 5-10fps resultiert.
dildo4u
2017-02-23, 14:26:06
Könnte durch die Speicherbandbreite limitiert sein,CB testet nicht mit dem schnellst möglichen Speicher.
Screemer
2017-02-23, 14:54:05
Doch tun sie. Mit dem schnellstmöglichen offiziell unterstützten Speicher. Sie testen nur kein RAM OC.
MechWOLLIer
2017-02-23, 14:58:11
Den CB test kann ich nicht ganz nachvollziehen, selbst auf deinen Screenshot sehe ich Unstimmigkeit, ein FX-9590 (4,7ghz) genauso schnell wie ein FX8370(4,0ghz),
1000mhz sind eigentlich immer 10-15% Reduzierung der CPU-Limiter was oft in 5-10fps resuliert.
Ich habe da auch erst gestutzt und nochmal nachgemessen. Es ist aber wirklich so.
Naitsabes
2017-02-23, 15:32:34
Da wären vielleicht zwei identische Intels als Vergleich ganz sinnvoll. Also ob da auch keine/kaum Veränderung durch den Takt bei identischer Architektur und identischer Threadzahl etc. zustande kommt.
Dann wüsste man, ob es an Watchdogs liegt oder ob etwas beim Bulldozer limitiert (z.B. L3 Cache-Takt/NB-Takt oder Speicherdurchsatz etc.).
][immy
2017-02-23, 17:52:44
Ich habe da auch erst gestutzt und nochmal nachgemessen. Es ist aber wirklich so.
Eventuell der Boost, der beim kleinen komplett genutzt werden kann, während der größere nicht mehr boosten kann und eventuell sogar noch runter taktet.
dildo4u
2017-02-23, 18:07:00
Sniper Elite 4 DX12 1080 SLI.
https://youtu.be/4qMl9RX5r5w
Das Scaling ist wirklich der Hammer 100fps@4k Ultra.
dildo4u
2017-03-01, 04:35:20
Nvidia hat Gameworks für DX12 angekündigt,alles Läuft auf Jeder DX12 GPU.
https://www.computerbase.de/2017-03/nvidia-gameworks-directx-12/
http://i.picpar.com/Nyoc.jpg
vinacis_vivids
2017-03-01, 06:56:34
DX12+Async zeigt die Schwäche von Pascal (Fury X > 1070)
https://www.techpowerup.com/reviews/Performance_Analysis/Sniper_Elite_4/4.html
https://abload.de/img/dx12_async_gains48s11.jpg
https://abload.de/img/216006s8p.png
Rancor
2017-03-01, 10:27:52
Ja das ist doch hinlänglich bekannt das Pascal und Maxwell ne Async Schwäche haben und AMD Karten im Schnitt unter DX 12 deutlich mehr zulegen als Nvidia... Dafür sind sie im Schnitt unter DX11 aber auch deutlich langsamer als NV?
Was genau möchtest du uns denn jetzt sagen? Das man deswegen kein NV kaufen soll, weil eventuell und ggf. in Zukunft DX 12 und Async wichtiger werden? Bis es soweit ist, sind die Karten ehh zu langsam.
AC alleine bringt bei SE4 fast nichts. Die Fury wird durch DX12 (auch ohne AC) deutlich schneller. Das ganze ist keine DX12-Schwäche bei NV sondern eine DX111-Schwäche bei AMD, da die insbesondere die Fury einfach nicht ausgelastet werden kann. Wenn Costum Designs getestet werden ist auch hier die Fury X langsamer als eine 980ti oder 1070. Nichts neues also hier.
dildo4u
2017-03-01, 10:51:06
Die Karten sind genau dort wo sie von der Rechenleistung her sein sollten.Fury ist aber nur in 4k in der Lage alles umzusetzen,weil das Design der GPU unausgeglichen ist.
Birdman
2017-03-01, 12:56:35
Hab dich im ryzen thread schon mal das gleiche gefragt und keine Antwort erhalten
Auf eine dieser Fragen habe ich geantwortet und auch Links gepostet...aber Du scheinst halt wieder sehr selektiv gelesen zu haben.
Zudem kann man ja auch selber mal Google bemühen, wenn man Antworten sucht.
Hier aber nochmals zwei Links:
http://www.pcworld.com/article/3039552/hardware/tested-how-many-cpu-cores-you-really-need-for-directx-12-gaming.html
https://www.youtube.com/watch?v=erAvtROPw-s
Lustig ist auch dieses Bild, vor allem der 4C/4C8T Vergleich:
http://www.pcgameshardware.de/screenshots/1020x/2016/08/WoW-Legion-7.0.3-CPU-performance-Core-Scaling-i7-5820K-pcgh.png
Alleine bei dieser einen Benchmark Sequenz skaliert HyperThreading zwischen klar positiv und ebenso deutlich negativ.
dargo
2017-03-01, 13:05:17
Das tut allerdings der 6C/6T auch. ;)
Drei Ideen:
* fehlerhafte Messung
* Bananensoftware
* Grafiktreiber macht lustige Sachen
Kartenlehrling
2017-03-01, 13:14:39
Lohnt sich DirectX 12 also?
Als Ergebnis kommen die Entwickler bei Nixxes zu dem Schluss, dass es sehr schwer sei, DirectX 12 zu verwenden.
»Das kann es wert sein.... aber auch nicht«, so das Fazit. Wichtig sei es, realistisch zu sein,
den Aufwand für DirectX 12 nicht zu unterschätzen und sich die notwendige Zeit zu nehmen.
Außerdem solle man keine Vergleiche zu DirectX 11 ziehen, sondern sich darauf konzentrieren,
einfach nur ein gutes Spiel zu erschaffen.
http://www.gamestar.de/hardware/news/grafikkarten/3310461/directx_12.html
Wieso soll man es nicht mit DX11 vergleichen?
Man kann es ja wie Microsoft machen und erst gar keine DX11 Version anbieten,
dann hat man keine Vergleichwerte und der Ist-Stand ist immer der beste. :D
Kartenlehrling
2017-03-01, 13:49:28
Nvidia hat auch ausführlicher über DirectX 12 beziehungsweise den Schwierigkeiten der Entwicklung mit der Low-Level-API gesprochen.
Sehr wichtig für eine gute DirectX-12-Umsetzung sind laut Nvidia die Analysetools.
nSight Visual Studio Edition sowie Pix von Microsoft gibt es bereits dafür und Nvidia bringt mit „Aftermath“ nun ein eigenes Tool heraus.
Aftermath macht es sich zur Aufgabe zu protokollieren, warum beziehungsweise bei welchem ausgeführten Code die GPU abgestürzt ist.
Denn dies ist aktuell für den Entwickler nur sehr schwer nachzuvollziehen.
Das Tool soll ohne Schwierigkeiten in ein Spiel integriert werden können.
Stürzt der Titel dann beim Spieler ab, wird ein Protokoll an den Entwickler gesendet, der sich dadurch der Problemlösung annehmen kann.
Nvidia spricht aktuell mit Microsoft, um Aftermath zu einem Standard-Tool bei der Entwicklung von DirectX-12-Spiel zu machen.
https://www.computerbase.de/2017-03/nvidia-gameworks-directx-12/
Sicher will ich das so schnell wie möglich Fehler aus dem Spiel entfernt werden, aber soo und von einen Nvidia Tool das womöglich wie "immer" mit einer Blackbox arbeite?
Unicous
2017-03-01, 14:04:44
Geil, der Kunde als Alpha/Beta-Tester. :uclap::uup:
aufkrawall
2017-03-01, 14:24:15
Geil, das war schon immer so und wird auch immer so bleiben.
dargo
2017-03-01, 15:08:49
Geil, der Kunde als Alpha/Beta-Tester. :uclap::uup:
Wie aufkrawall schon sagt, das war nie anders.
dildo4u
2017-03-01, 17:29:16
http://i.picpar.com/L0oc.png
https://videocardz.com/66680/nvidia-to-release-game-ready-driver-optimized-for-directx12
Pressemeldung:
http://nvidianews.nvidia.com/news/nvidia-announces-gameworks-dx12
Sieht so aus als wenn sie den Vramverbrauch senken konnten,Tombraider mit SSAA braucht massig V-Ram.
Hübie
2017-03-01, 17:48:02
Da wäre Maxwell noch interessanter, da hier stärkere Einbußen in Kauf genommen werden mussten. ;)
RainingBlood
2017-03-01, 19:15:00
kann mich bei The Division 1.6 mit einer 1070 und 378.72 nicht beschweren. DX12 läuft fluffig, keine Stocker.
Screemer
2017-03-01, 21:42:42
Auf eine dieser Fragen habe ich geantwortet und auch Links gepostet...aber Du scheinst halt wieder sehr selektiv gelesen zu haben.
Zudem kann man ja auch selber mal Google bemühen, wenn man Antworten sucht.
Du meinst diesen post? https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11294564&postcount=4020
Ein link, man merke nicht links, in dem genau ein 4 Jahre altes spiel und sonst alles in der messtoleranz. Dazu die aufforderung ich soll doch selber Google benutzen. Super.
Deine neuer link zu pcworld zeigt kein negatives scaling in irgendeiner weise. Die Unterschiede liegen in der messtoleranz. Die benches sind außerdem im GPU limit. Das yt-vid ist lächerlich und genau so mies wie der pcworld artikel., nur mit noch älterer software. Das wow chart zeigt Jahre alte bananensoftware. Naja bleib mal bei deinem glauben.
vinacis_vivids
2017-03-01, 21:54:41
Die Karten sind genau dort wo sie von der Rechenleistung her sein sollten.Fury ist aber nur in 4k in der Lage alles umzusetzen,weil das Design der GPU unausgeglichen ist.
Gegen ne 1070 sollte das auch reichen :wink:
Die Fury X ist ihrer Zeit etwas voraus, sieht man ja im Vgl. zur gleich alten 980ti. So gut wie in allen neuen Spielen mit DX12@Async wird sie die 980ti outperformen und in 4k an der 1070 vorbeiziehen.
aufkrawall
2017-03-01, 21:57:56
Dass die Fury X bei Sniper Elite in 4k gut dasteht, hat fast gar nichts mit AC zu tun. Eher entwickelt sich das Feature zum absoluten Trauerspiel mit +3% auf Polaris und +2% auf Pascal...
Iruwen
2017-03-01, 21:59:40
Jo, mit glorreichen 20-30FPS average. Solange ihr nicht der Speicher ausgeht.
Also quasi nie, abgesehen von diesem Border Case.
vinacis_vivids
2017-03-01, 22:22:04
Halo Wars 2@DX12
https://abload.de/img/hlw24kx8uep.png
Weitere Spiele mit DX12 werden interessant :) - auch mit AC on.
][immy
2017-03-01, 23:23:15
Halo Wars 2@DX12
https://abload.de/img/hlw24kx8uep.png
Weitere Spiele mit DX12 werden interessant :) - auch mit AC on.
wow, was ist denn mit der FuryX los?
Kann sie doch mal ihre Speicherbandbreite ausspielen? Oder können da die ganzen Shader doch mal sinnvoll verwendet werden.
fondness
2017-03-02, 09:23:23
Die Fury scheint defintiv am meisten von DX12/Vulkan zu profitieren, das ist aber nichts neue mehr.
Nvidia kündigt ein Performance Treiber für DX12 an.
NVIDIA also revealed an upcoming Game Ready Driver optimized for DirectX 12 games. The company refined code in the driver and worked side by side with game developers to deliver performance increases of up to 16 percent on average across a variety of DirectX 12 games, such as Ashes of the Singularity, Gears of War 4, Hitman, Rise of the Tomb Raider and Tom Clancy's The Division.
http://nvidianews.nvidia.com/news/nvidia-announces-gameworks-dx12
Birdman
2017-03-02, 17:42:33
Das yt-vid ist lächerlich und genau so mies wie der pcworld artikel., nur mit noch älterer software. Das wow chart zeigt Jahre alte bananensoftware. Naja bleib mal bei deinem glauben.
Ist OK, wenn nach deiner Meinung nach das Hyperthreading von Intel nie ein negatives Scaling mit sich bringt, dann lass ich dich gerne in dem Glauben.
Offenbar hat aber AMD seine Aufgaben nicht so gut gemacht - und das trotz modernster Architektur:
https://dexter.birdman.ch/screens/misc/ryzen_smt.png
Blaire
2017-03-04, 00:33:17
Nvidia kündigt ein Performance Treiber für DX12 an.
http://nvidianews.nvidia.com/news/nvidia-announces-gameworks-dx12
Im Vergleich zum 368.81 als Basis bitte beachten, es ist ja nicht so als hätte sich seitdem nichts mehr in Sachen Leistungssteigerungen in den aufgeführten DX12 Titeln getan. ;)
Nvidia kündigt ein Performance Treiber für DX12 an.
http://nvidianews.nvidia.com/news/nvidia-announces-gameworks-dx12
für Maxwell=Pascal?
Entropy
2017-03-06, 03:37:30
Ich hatte vor einiger Zeit hier "behauptet" dass NVidia immer diese "Magic Treiber" rausbringt und dass das bei DirectX12 und Vulkan wohl zuende ist... ich entschuldige micht. They did it again :freak:
Im Vergleich zum 368.81 als Basis bitte beachten, es ist ja nicht so als hätte sich seitdem nichts mehr in Sachen Leistungssteigerungen in den aufgeführten DX12 Titeln getan. ;) Aber die Benchmarks werden doch sicher mit ein und derselben Version vom Spiel gemacht, entsprechend sollte doch nur der Treiber unterschiedlich sein. Sonst wäre NVidia Kopf über im Shitstorm.
Vielleicht verifiziert das hier jemand.;)
vinacis_vivids
2017-03-06, 04:24:25
[immy;11306478']wow, was ist denn mit der FuryX los?
Kann sie doch mal ihre Speicherbandbreite ausspielen? Oder können da die ganzen Shader doch mal sinnvoll verwendet werden.
Die Erhöhung der Auflösung scheint Maxwell/Pascal nicht so zu schmecken:
https://www.techpowerup.com/reviews/Performance_Analysis/Sniper_Elite_4/4.html
1440p -> 2160p
1080: 83->47 (-76%)
1070: 66->37 (-78%)
980ti: 59->34 (-73%)
Fury X: 65->42 (-54%)
Ob Gameworks DX12 da was ändern kann?
M4xw0lf
2017-03-06, 07:19:16
Die Erhöhung der Auflösung scheint Maxwell/Pascal nicht so zu schmecken:
https://www.techpowerup.com/reviews/Performance_Analysis/Sniper_Elite_4/4.html
1440p -> 2160p
1080: 83->47 (-76%)
1070: 66->37 (-78%)
980ti: 59->34 (-73%)
Fury X: 65->42 (-54%)
Ob Gameworks DX12 da was ändern kann?
Vielmehr ist die Fury X unter 1440p noch nicht richtig ausgelastet, weshalb sie weniger FPS verliert auf 4k.
Vielmehr ist die Fury X unter 1440p noch nicht richtig ausgelastet, weshalb sie weniger FPS verliert auf 4k.
Was passiert wenn man die Auflösung noch höher schraubt?
Ist die Fury X dann auch schneller als die 1080?
aufkrawall
2017-03-06, 10:40:56
Die Zunahme schwächt sich ab einem Punkt mit steigender Pixelzahl immer weiter ab, irgendwann dürften sich die Relationen nicht mehr nennenswert verändern.
Da sich die 1080 mit steigender Pixelanzahl aber auch immer weiter von der 1070 absetzt, ist es arg unwahrscheinlich, dass die FuryX mal wirklich überholen wird.
Kartenlehrling
2017-03-06, 17:17:16
Durch die Zusammenarbeit mit unseren Partnern NVIDIA haben wir jetzt eine frühzeitige Version von PIX mit Unterstützung für NVIDIA Hardware Counter,
die wir heute bei GDC vorgestellt haben!
https://blogs.msdn.microsoft.com/directx/2017/03/01/gpu-plugins-improved-sdk-layers-and-hang-debugging-bringing-directx-12-tools-to-the-next-level/
GPU plugins, improved SDK layers, and hang debugging:
Bringing DirectX 12 tools to the next level
dildo4u
2017-03-09, 14:54:44
Nvidia's DX12 optimierter Treiber ist da.
http://www.geforce.com/whats-new/articles/tom-clancys-ghost-recon-wildlands-game-ready-driver
Hitman DX12 mit dem neuen Treiber.
http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/10
Mein eigener Hitman Test:
FX 8320e@4.2GHz GTX 1070 Treiber 373.06
DX12 1080p Ultra 54fps
http://abload.de/img/hitman_2016_10_15_16_08u06.png
DX12 1080p Ultra 60fps mit 378.78
http://abload.de/img/hitman_2017_03_09_17_61zzg.png
Blaire
2017-03-09, 18:53:31
Nvidia's DX12 optimierter Treiber ist da.
http://www.geforce.com/whats-new/articles/tom-clancys-ghost-recon-wildlands-game-ready-driver
Hitman DX12 mit dem neuen Treiber.
http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/10
Mein eigener Hitman Test:
FX 8320e@4.2GHz GTX 1070 Treiber 373.06
DX12 1080p Ultra 54fps
http://abload.de/img/hitman_2016_10_15_16_08u06.png
DX12 1080p Ultra 60fps mit 378.78
http://abload.de/img/hitman_2017_03_09_17_61zzg.png
Rund 11% :) Gut das Maxwell auch profitiert, das war lange Zeit nicht so. Erst mit den neuen Pascal-Karten gab es deutliche Zuwächse zuvor zwischen den Treibern.
NVIDIA 378.49+ (derzeit noch DXIL v0.7) und AMD 17.3.1 (DXIL v1.0) unterstützen beide experimentell DXIL und Shader Model 6. Der nächste NVIDIA Treiber und AMD 17.3.2 werden den Support weiter ausbauen.
Zum Entwickeln wird das Windows 10 Creaters Update bzw. die aktuellen Insiderbuilds benötigt, zusätzlich muss in den Windows 10 Systemeinstellungen der Entwicklermodus aktiviert sein.
Die ersten Spiele, die davon Gebrauch machen, wird man vermutlich Ende des Jahres zum Xbox Scorpio-Launch sehen.
NVIDIA 378.49+ (derzeit noch DXIL v0.7) und AMD 17.3.1 (DXIL v1.0) unterstützen beide experimentell DXIL und Shader Model 6. Der nächste NVIDIA Treiber und AMD 17.3.2 werden den Support weiter ausbauen.
Womit lässt sich der Support auslesen?
Womit lässt sich der Support auslesen?
Im Moment noch preisen die Treiber den Support für das Shader Model 6/DXIL nur an, wenn eine DX12 App im Code D3D12EnableExperimentalFeatures( D3D12ExperimentalShaderModels ); aufruft. Mir ist jetzt kein anderer Weg bekannt, das schnell abzufragen.
Der größte Unterschied beim Shader Model 6 besteht ohnehin darin, dass ein neuer auf LLVM aufbauender Shader Compiler den bisherigen fxc-Compiler ersetzt hat, was hauptsächlich für Entwickler von Interesse ist.
Kartenlehrling
2017-03-21, 14:04:56
https://blogs.msdn.microsoft.com/pix/2017/03/20/pix-1703-20-002/
PIX 1703.20.002 – NVIDIA GPU counters, file IO traces, shader edit & continue, and pixel cost visualizer
PIX for Windows
Microsoft’s PIX for Windows will support profiling for NVIDIA GPUs using PerfWorks.
PIX for Windows is a Direct3D12 performance tuning and debugging tool for game developers.
It has a long and storied history spanning three generations of Xbox console.
For more information on PIX for Windows, please click on Microsoft’s blog.
dildo4u
2017-03-21, 14:26:24
Nvidia's DX12 optimierter Treiber ist da.
http://www.geforce.com/whats-new/articles/tom-clancys-ghost-recon-wildlands-game-ready-driver
Hitman DX12 mit dem neuen Treiber.
http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/10
Mein eigener Hitman Test:
FX 8320e@4.2GHz GTX 1070 Treiber 373.06
DX12 1080p Ultra 54fps
http://abload.de/img/hitman_2016_10_15_16_08u06.png
DX12 1080p Ultra 60fps mit 378.78
http://abload.de/img/hitman_2017_03_09_17_61zzg.png
Hatte ich erst vergessen:
378.92 DX11 45fps
http://abload.de/img/hitman_2017_03_21_14_7isbv.png
dildo4u
2017-03-22, 18:32:58
D3D12 Future, VR and Beyond - Oxide Games at Capsaicin 2017
https://youtu.be/QJOIvACRY6g
dargo
2017-03-22, 18:47:48
Schön finde ich, dass Oxide Games bereits für 16 Threads entwickelt. :up:
Schön finde ich, dass Oxide Games bereits für 16 Threads entwickelt. :up:
Ließe sich das einfach noch weiter codieren bzw. auf mehr Threads verteilen, also quasi 32...64...128 usw.?
Das wäre ja super, weil das Spiel dann immer mehr Details und zugleich flüssiges Gaming für CPUs mit mehr Threads bietet. Quasi echter content und Mehrwehrt.
Ähnlich wie bei den Grafikdetails, wer nur 4 oder 8 Threads hat, kann zwar auch flüssig spielen, aber die Details fallen dann weg wie "low details". Das wäre großer Schritt nach vorne.
dargo
2017-04-03, 11:42:37
Nach einer kleinen Stagnation bzw. minimalem Rückgang seit Januar 2017 steigt nun Windows 10 bei den Steamusern weiter.
http://store.steampowered.com/hwsurvey/directx/
Solange M$ weiterhin problemlos Win7/8 Keys aktiviert, wird sich 10 weiter stetig verbreiten, auch im Bastlerbereich und bei Kleinanbietern.
dargo
2017-04-03, 12:47:02
Ließe sich das einfach noch weiter codieren bzw. auf mehr Threads verteilen, also quasi 32...64...128 usw.?
Unendlich sicherlich nicht. Ich mag da aber keine Prognose für die Zukunft abgeben wo es letztendlich zum riesen Problem wird. Vor wenigen Jahren hatten wir schon ähnliche Diskussionen, dass es immer schwieriger wird von 4 auf 8 Threads perfekt zu skalieren. Die Gegenwart lehrt uns eines besseren. 8 Threads ist heute quasi nichts besonderes mehr. Da die IPC und der Takt bereits ausgeschöpft sind (die minimalen Sprünge reichen nicht) führt kein Weg dran vorbei langfristig immer mehr in die Breite zu gehen. Und darauf müssen sich die Entwickler dann auch letztendlich anpassen.
Ectoplasma
2017-04-03, 15:49:39
Das Problem ist die Synchronisation zwischen den Cores und den Daten. Das Ganze skaliert nur dann gut, wenn du immer und überall Nonblocking Algorithmen verwenden kannst. An den Stellen, an den man mit Blocking-Algorithmen arbeiten muss (z.B. über einen System Mutex), ist die Core-Anzahl nicht unendlich skalierbar. Irgendwann sind die Kosten für den Synchronisationsaufwand so groß, dass dieser mehr Rechenleistung vebraucht, als der eigentliche Algorithmus für die Ausführung benötigt. Es kann dann sogar sein, dass weniger Cores schneller sind. Hier (http://queue.acm.org/detail.cfm?id=2492433) mal was zum Thema Nonblocking Algorithmen, wen es interessiert.
dildo4u
2017-04-18, 19:33:48
Noch ein paar Test's mit neuem Nvidia Treibern,direkt gegen die 580.
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/13
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/7
Kartenlehrling
2017-05-01, 20:28:10
https://blogs.msdn.microsoft.com/pix/2017/04/27/pix-1704-27/
PIX 1704.27 – D3D12 usage warnings, Dr. PIX, and CPU hotpath analysis
y33H@
2017-05-02, 09:25:42
Noch ein paar Test's mit neuem Nvidia Treibern,direkt gegen die 580.
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/13
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/7Und wie sie sehen, sehen sie nichts (Ungewöhnliches).
Locuza
2017-05-02, 15:10:19
Zwei Vorabankündigungen.
Forza Horizon 3 soll am 9. Mai einen Patch bekommen, welcher CPU-Verbesserungen enthält und weitere Grafikeinstellungen, es wird etwas spannend, ob das ganze dann endlich vernünftig läuft, so einen Langzeitsupport zu sehen ist aber definitiv erfreulich:
We have some significant improvements for Windows 10 players coming at the same time as this new expansion (May 9). These changes include improved new support for numerous popular driving wheels, improved CPU performance, additional graphical options, and more.
We'll be revealing more details about these at the time of release.
http://www.neogaf.com/forum/showpost.php?p=234765691&postcount=98
Stichwort Langzeitsupport, Gears of War 4 soll ab dem 2. Mai Multi-GPU-Support bieten:
https://gearsofwar.com/en-us/forums/1c0e371ac5e54e4bb619f2c05a05f519/threads/multi-gpu-support-for-gears-of-war-4/d512ec3b-23ca-46ea-a82a-407a640e36b1/posts
Zwei interessante Aussagen zitiere ich mal direkt:
"Windows 10: We strongly recommend you update to the Creators Update of Windows 10. The update contains fixes to the DirectX 12 layer that will improve Multi GPU performance by reducing time spent in some DirectX function calls."]Windows 10: We strongly recommend you update to the Creators Update of Windows 10. The update contains fixes to the DirectX 12 layer that will improve Multi GPU performance by reducing time spent in some DirectX function calls.
The implementation of Multi GPU in Gears of War 4 requires constant synchronization of data between the two GPUs. Using 4K resolution and “Ultra” quality shadows may exceed the bandwidth available on the PCIe bus for synchronizing the two cards, causing stuttering or slowdown in the game.
dargo
2017-05-03, 08:05:28
Ich frage mich schon die ganze Zeit was die da bei Turn 10 und FH3 so verbockt haben? Stärkeres Multithreading wird es wohl kaum geben. Das bedarf einer komplett überarbeiteten Engine. Wo kann man also mehr CPU-Leistung holen? Kopierschutz "entschärfen"? Naja... erstmal abwarten von welcher Größenordnung da überhaupt gesprochen wird.
Ist sowieso lächerlich.
Hab Horizon 3 ja seit release. Mit meinem 3930K lief es anständig, aber stürzte nach 5min ab.
Mit nem 8350 lief es auch anständig, stürzte aber auch nach 5min ab.
Jetzt mit dem 1700er läuft es auch anständig, stürzt aber auch nach 5min ab
Turn10 testet ihre Skills auf dem PC und die PCler sind die Beta Tester zum Vollpreis :D
Die Probleme tauchten nach dem 3 Update seitens MS auf. Vorher lief es wenigstens durchgehend nachdem es zunächst erstmal nach 5min abgekackt ist. Aber jetzt, stürzt es nur noch ab.
dildo4u
2017-05-06, 19:03:03
SLI Test mit Gears 4.
http://www.neogaf.com/forum/showpost.php?p=235926829&postcount=1223
Schade das noch keiner Ryzen mit dem neuen Patch gebencht hat das Game ist mit meinem FX ziemlich CPU limitiert.
aufkrawall
2017-05-06, 19:12:34
Werd ich voraussichtlich Ende des Monats machen.
Ich frage mich schon die ganze Zeit was die da bei Turn 10 und FH3 so verbockt haben? Stärkeres Multithreading wird es wohl kaum geben. Das bedarf einer komplett überarbeiteten Engine. Wo kann man also mehr CPU-Leistung holen? Kopierschutz "entschärfen"? Naja... erstmal abwarten von welcher Größenordnung da überhaupt gesprochen wird.
"Verbockt" ist wohl etwas hart. Klar hat Forza Horizon 3 hier und da ein Problem oder Performance-Engpässe, aber im Endeffekt ist es eine unglaubliche Leistung, ein Spiel mit der Grafikqualität prinzipiell selbst mit <300€ GPUs in 4K30 auf Ultra laufen zu haben. Bei Digital Foundry hatten sie in der letzten Woche FH3 mit einer einzelnen GPU (GTX 1080 Ti) sogar in 8K (!!) laufen.
DirectX 12 Shader Model 6.0 (LLVM) ist ein offensichtlicher, nächster Schritt für die Forza-Engine.
Locuza
2017-05-09, 21:37:28
Der Patch ist live, die patch notes sprechen vom besseren CPU-Threading, neuen Very-Low-Einstellungen und einem größerem Support für Lenkräder verschiedener Hersteller:
PC Update Improvements
Alongside the release of the Forza Horizon 3 Hot Wheels expansion we are pleased to announce numerous critical improvements included in the Windows 10 PC version of the game. These improvements are included in today’s automatic update, and do not require the Hot Wheels expansion to take advantage of.
Improved CPU Performance
We have observed that a large portion of players are CPU limited when trying to run Forza Horizon 3 at high frame rates, including locked 60 FPS and unlocked. By analyzing telemetry, we have developed targeted optimizations for this group of affected players by increasing the number of concurrent threads used by the render architecture. We have taken further advantage of DX12 capabilities to allow the visuals to be processed out of order during the frame, in order to reduce synchronization stalls and decrease CPU execution duration. These changes result in a significant CPU performance gain on High or Ultra settings when running on PCs of Recommended spec or better.
Updated Thread Model
We have updated our threading affinity model to make better use of all available cores. Along with this change, we have added a new graphics option to disable the new model, should you prefer. This option can be found in the Video Settings menu under “Threaded Optimization”.
More Graphical Options
We have also added some additional graphical options to improve framerate for those playing on lower specification PCs. These include:
· Dynamic Geometry Quality now has a Very Low option
· World Car Level of Detail now has a Very Low option
These are combined with some existing options to create a new “Very Low” preset that can be used with dynamic optimization.
Additionally, all options have had their descriptions updated to include information on how each setting affects the CPU performance, GPU performance, and available VRAM, so that players can better understand the performance impact that tweaking each setting will have.
Viele Nutzer im NeoGaf bestätigen deutliche Verbesserungen:
starting game, going through surfers paradise on the same path (2 lefts onto light rail until the end, then left to go along the beach)
old version:
Zuvor:
http://i.imgur.com/ibR88F2.png
Danach:
http://i.imgur.com/mHlaX3j.png
http://www.neogaf.com/forum/showthread.php?p=236248671#post236248671
Edit:
Im Gaf gab es viele Berichte von i7-Nutzern mit SMT, aber auch bei i5-Nutzern verbessert sich die Performance stark.
Ein Haswell i5 4690K mit einer 980 performte in der Stadt ungefähr mit 42 FPS vor dem Patch, jetzt 71 FPS (+69%!)
http://www.neogaf.com/forum/showpost.php?p=236256087&postcount=5452
Edit 2:
Extra für Dargo wird die Demo später auch noch aktualisiert, um weiterhin Hawaii Testruns machen zu können:
Different version number I'd imagine, plus we'll let the community know beforehand. We hope to have this available within the next couple of weeks but don't have a firm date set at present.
http://www.neogaf.com/forum/showpost.php?p=236266203&postcount=5499
Lurtz
2017-05-10, 08:57:22
Um herauszufinden wie mies die "Threaded Optimization" ist musste man erst die Telemetriedaten bemühen und hat Monate und die ganze Power von DX12 gebraucht? ^^
Aber wäre ja gut wenn es jetzt besser läuft.
dargo
2017-05-10, 09:07:20
Ich finds erschreckend in welchem Zustand das Spiel vor 8 Monaten released wurde. Und für den Schrott wollen die immer noch 70€ haben. :ucrazy2: Unglaublich, dass man für eine Nachbesserung so lange gebraucht hat. Auf einem Ryzen ist die Performance in der Stadt stellenweise immer noch miserabel.
https://www.youtube.com/watch?v=vNRAhywoqCk&t=69s
Wobei ich mir hier nicht ganz sicher bin ob eventuell die RX470 schon etwas limitiert.
Locuza
2017-05-10, 09:16:22
Wenn man der Beschreibung glaubt, fiel bei ihm das Spiel häufiger auf 30FPS und sogar darunter ab, jetzt auf Ultra sah ich aber nie weniger als 40 FPS (Die Gewinneinblendung ausgenommen).
Was schon einmal mindestens 33% mehr Performance bedeutet.
Auf Mittel kommt er dann auf 60-80 FPS.
Keine Ahnung wie sich die Performance einordnet, aber jedenfalls haben sie das Spiel deutlich verbessert.
dargo
2017-05-10, 09:27:45
Das "Problem" bei Mittel ist auch, dass man damit eine gute Portion CPU-Last senkt. Naja... mal die verbesserte Demo abwarten. Da kann ich mir ein besseres Bild von machen.
dildo4u
2017-05-10, 12:29:27
Das sieht so aus als ob der Vram auf der 470 vollläuft wenn er Ultra nutzt,ich hab bei mir selbst wenn ich nur High Texturen nutze um die 5GB Belegung. Vieleicht hat er ein 4GB Modell.
Hier ein Nachtrennen in der Stadt: https://mega.nz/#!BUFnHRYB!vSeKiWet7Bo2iZM4UE7XGrPh8zysGl1dt7hDw1W8VyI
Einstellungen@1440p.
http://abload.de/img/fh34sbs6l.png
FX8320@4.3Ghz GTX 1070
GPU Power ist weiterhin nicht das Problem.
dargo
2017-05-10, 21:06:52
Du könntest Recht haben. Habe die 4GB der RX470 völlig vergessen. Hier passt die Performance mit R5 1500X und RX480 8GB @Ultra.
https://www.youtube.com/watch?v=1uRXhQ-Jhug
dildo4u
2017-05-12, 17:30:06
Polaris und Pascal scheinen gut zu laufen,hier 1080 TI@4K Ultra mit einem I7 6700.
Vor dem Patch 40fps jetzt locked 60fps.
https://youtu.be/zCNZAaSgypQ
Forza Horizon 3 CPU Load Update Version 1.0.64.2 Performance | GTX 1080 | i7 5960X
https://youtu.be/vzbDN90PYgg
100fps mit einem 8 Core,GPU Limitiert dort aber da SLI nicht funzt.
Kartenlehrling
2017-05-17, 23:39:37
Das AMD Developer Tools Team ist begeistert, die Verfügbarkeit des AMD Plugins für Microsoft's PIX für Windows Tool bekannt zu geben.
PIX ist ein Performance-Tuning und Debugging-Tool für Windows-Entwickler mit DirectX 12.
Today we released PIX 1705.16 beta. New in this release:
AMD GPU counters
Preliminary support for DXIL (shader model 6)
More D3D12 usage warnings
Fixed problem capturing titles that use large numbers of resource heaps
HLSL syntax highlighting
http://gpuopen.com/directx12-hardware-counter-profiling-with-microsoft-pix-and-the-amd-plugin/
DirectX12 Hardware Counter Profiling with Microsoft PIX and the AMD Plugin
Kartenlehrling
2017-05-19, 09:33:59
Jetzt sind alle grossen Grafikkarten Hersteller dabei.
https://blogs.msdn.microsoft.com/pix/2017/05/18/pix-1705-17/
PIX 1705.17beta – Intel GPU counters
dildo4u
2017-05-24, 17:36:12
Zumindest die XBox One hat jetzt als Default UE 4.0 Renderer DX12.
https://www.unrealengine.com/en-US/blog/unreal-engine-4-16-released
gravitationsfeld
2017-05-24, 23:34:46
"DX12"
Kartenlehrling
2017-06-17, 01:06:25
RX480 DX12 1080p:
without async compute = 11.62 ms.
With async compute = 10.85 ms.
7% faster. Direct console port. No PC optimizations.
Consoles gain currently much more. Need more async simulation work for PC :)
https://twitter.com/SebAaltonen/status/875790373733400576
Es handelt sich wohl um diese UE4 engine Knetmasse Simulation, Claybook.
http://www.claybookgame.com/
Waere interessant, wenn die Leute auch mal dazu schreiben wuerden was sie jeweils async/nebenlaeufig machen. Wenn es sich Ressourcenmaessig nicht zu sehr in die Quere kommt kann man schon einige Millisekunden sparen aber da gilt es halt passendes zu finden. Bei Doom war es recht einleuchtend, die haben das ganze Post Processing Zeug gemacht waehrend fuer den naechsten Frame schon shadow pre passes liefen, aber es gibt ja sicherlich noch andere Moeglichkeiten.
-/\-CruNcher-/\-
2017-06-17, 08:49:14
Die Latenz der PC Architektur erlaubt allerdings nicht die Effizienz wie auf den Konsolen 7% sind für einen Low Level coder schon viel aber ~1ms vs den Aufwand und Verbrauch, gespannt was er da noch raus holen kann.
Man darf allerdings nicht vergessen der Aufwand war einmalig und die 1 ms for free auf dem PC und darauf kommt es vor allem den großen an ;)
Async = physics & fluid sim, grid gen, world modification, primary & coarse & AO raytrace, volume triggers, SVD, CPU->GPU readback copy
schon ein schöner batzen abseits vom PP innerhalb der UE4, echt gespannt auf sein Refactoring und dessen ergebnisse für Polaris :D
Kartenlehrling
2017-06-18, 14:40:20
Nach der Euphorie von Microsoft DX12 ist es verdammt ruhig geworden, selbst neue Spiele kommen ohne DX12 API auch nachträglich wird nichts angeboten.
Microsoft interne Spiele kommen mit einem pseudo DX12, das man dank fehlender andere API nicht vergleichen kann.
Seit April ist die nächste Stufe eingeläute aber wirklich sehen tun man nichts,
warten alle auf die nächste stufe Grafikkarten um es als besonders Features vorzuführen?
Ich dachte eigenlich das die heutigen DirectX Feature Level 12.0 Grafikkarten ausreichen würden.
https://github.com/Microsoft/DirectXShaderCompiler/wiki/Running-Shaders
DXIL 1.0 and Shader Model 6
dildo4u
2017-06-18, 16:51:46
Der Push geht mit den neuen Konsolen Richtung 4k wo die Gewinne natürlich verschwinden.Wenn man die neusten Prey Benches sieht spricht wenig dafür warum man sich als Entwickler die extra Arbeit machen sollte.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11405052&postcount=673
Die Games sind schon so teuer genug in der Entwicklung,macht wenig Sinn da für ein paar AMD GPU's Zeit für zu verschwenden.Zur Zeit will AMD vermutlich sogar gar kein DX12 in allen Games,da sie neue CPU's aber keine GPU's liefern können.
Kartenlehrling
2017-06-18, 18:31:39
Ich weiß nicht was du mir am Prey Benchmark zeigen willst, 2009 hat uns jeder Microsoft, AMD, Intel und viele Spieleschmieden Multithreading versprochen.
Wir haben jetzt 2017 und wirklich sehen kann man davon nichts, ich will zb. das ein i7 mit 3ghz oder sogar 2,5ghz grundtakt genauso schnell ist wie ein i5 mit 4,5ghz OC.
Und dein Prey ist auch so ein Fall, schon in 1440p mit multiGPU geht die Luft aus und man hat CPU Limitierung.
TheAntitheist
2017-06-18, 19:47:31
Ich weiß nicht was du mir am Prey Benchmark zeigen willst, 2009 hat uns jeder Microsoft, AMD, Intel und viele Spieleschmieden Multithreading versprochen.
Wir haben jetzt 2017 und wirklich sehen kann man davon nichts, ich will zb. das ein i7 mit 3ghz oder sogar 2,5ghz grundtakt genauso schnell ist wie ein i5 mit 4,5ghz OC.
Und dein Prey ist auch so ein Fall, schon in 1440p mit multiGPU geht die Luft aus und man hat CPU Limitierung.
Ja SMT steigert die Leistung natürlich auch um 100% ;D
aufkrawall
2017-06-18, 19:56:23
Immerhin hat man nun schon ab und an +50% bei den min-fps, wenn die Anwendung mit nur 4T nicht mehr gut zurecht kommt.
Kartenlehrling
2017-06-18, 20:12:27
Ja SMT steigert die Leistung natürlich auch um 100% ;D
100% verlangt auch keiner, auch ich nicht,
aber das mehr geht zeigt die modernen i3 (2/4core) doch.
Aber wenn ich mir einen 1200€ I7-8core kaufe und fürs Spielen SMT abschalten muss ist natürlich auch was falsch.
TheAntitheist
2017-06-18, 20:32:14
100% verlangt auch keiner, auch ich nicht,
aber das mehr geht zeigt die modernen i3 (2/4core) doch.
Aber wenn ich mir einen 1200€ I7-8core kaufe und fürs Spielen SMT abschalten muss ist natürlich auch was falsch.
du verlangst es nicht, schreibst aber "ich will"... wo da jetzt der Unterschied ist, mag eine Spitzfindigkeit sein.
Das SMT soviel bringen kann, liegt aber auch nur daran das mancher code eben die Cores schlecht auslastet, das kann man aber nicht immer verlangen.
Wie skaliert denn SMT beim Offline Rendering? waren das nicht 20%? das klingt realistischer...
Kartenlehrling
2017-06-18, 20:52:47
Du verdrehst einem die Worte und zitiert falsch, wenn man mein zitat nehmen würde müsste der i5 nicht mit 4,5ghz laufen,
sondern mit 5ghz bzw. sogar mit 6ghz damit Ich annehme das die SMT mit 100% laufen würden.
TheAntitheist
2017-06-19, 02:19:41
Du verdrehst einem die Worte und zitiert falsch, wenn man mein zitat nehmen würde müsste der i5 nicht mit 4,5ghz laufen,
sondern mit 5ghz bzw. sogar mit 6ghz damit Ich annehme das die SMT mit 100% laufen würden.
nagut verdrehen finde ich jetzt etwas krass, es war einfach überspitzt dargestellt, 2,5 zu 4,5GHz wären ja 90%, von daher macht das auch keinen großen Unterschied an der Aussage.
Ändert nichts daran das SMT nicht viel bringen kann, wenn die Kerne schon gut ausgelastet sind, darauf beziehst du dich natürlich nicht ;D
Ich hab dort nichts verdreht, du sagtest selbst du willst DAS, dann meintest du aber das du es nicht verlangst und erzählst einen von "aus dem kontext gerissen" was natürlich bullshit ist. klar sinds keine 100% die "du willst" aber 90% ändert wirklich nichts an der komplett irrsinnigen Vorstellung.
aufkrawall
2017-06-19, 02:36:32
Ändert nichts daran das SMT nicht viel bringen kann, wenn die Kerne schon gut ausgelastet sind
In Spielen, die mit mehr als 4T skalieren, bringt HTT bei 4C sehr häufig ~30%. Ich finde nicht, dass das wenig ist (bessere Frametimes kommen dann noch dazu).
Locuza
2017-06-19, 23:56:28
Sebastian hat die ersten DX12 Resultate bezüglich Claybook auf einer Titan X Pascal veröffentlicht, mit einer Auflösung von 2560x1440:
DX11 = 9.34 ms ~ 107 FPS
DX12 + Compute-Queue = 9.89 ms ~ 101 FPS
DX12 ohne Async Compute = 7.72 ms ~ 130 FPS
https://twitter.com/SebAaltonen/status/876699012526682112
Er ist gerade dabei heraus zu finden, wieso Pascal soviel Performance verliert.
gravitationsfeld
2017-06-20, 00:38:28
Weil NVIDIA kein gescheites async hat. Es bringt nur was wenn komplette SMs leer sind, ansonsten hat man Overhead vom Switching.
Troyan
2017-06-20, 00:47:39
Natürlich haben sie eine gescheite Grafik+Compute Funktionalitäten. Man kann eben nicht eine Codebasis der Konsolen nehmen und die einfach portieren.
gravitationsfeld
2017-06-20, 00:49:00
Die SMs koennen nicht gleichzeitig Warps von Compute und Grafik ausfuehren. Das sind Fakten. Das Astroturfing kannst du bleiben lassen.
Locuza
2017-06-20, 00:53:12
Das ist aber schon ein herber Verlust, angesichts dessen das Pascal dynamic load balancing beherrscht und das Switching viel zügiger vonstatten gehen kann, als unter Maxwell.
Spiele wie Gears of War 4 und Sniper Elite 4 weisen keinen Einbruch auf, Pascal gewinnt sogar ein wenig:
https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/2/#abschnitt_async_compute_bringt_mehr_performance
https://www.computerbase.de/2017-02/sniper-elite-4-benchmark/
Troyan
2017-06-20, 00:54:58
Das müssen sie auch nicht, da die Compute-Queue aktiv ist und bis auf GP107 sowie immer eine Compute-Unit für bestimmte Grafikaufgaben nicht verwendet werden kann.
Nixxes hat sich exakt darüber auf der GDC "beschwert".
gravitationsfeld
2017-06-20, 01:21:55
GCN profitiert enorm davon, dass waehrend Vertex/Fragment-Wavefront-Stalls auf den CUs async compute laufen kann. Das geht bei NVIDIA nicht ¯\_(ツ)_/¯
Nicht alles ist bei NVIDIA besser. Manches dafuer schon. Das ist kein Pissing-Contest hier, es sind einfach nur die Fakten.
Locuza
2017-06-21, 01:29:57
Shader-Model 6.1 ist an mir vorbeigegangen, soll aber Baryzentrische Koordinaten hinzufügen:
This change is the initial step to support Barycentric coordinates for shader model 6.1 / DXIL 1.1
- Add GetBarycentrics, GetAttributeAtVertex intrinsics and their corresponding dxil ops
- Lowering intrinsics to dxil ops
- Adding codegen tests for these operations
https://github.com/Microsoft/DirectXShaderCompiler/commit/108b897f403db528882802c1a847cbf74d58ec76
Bezüglich SM6.0 war mein letzter Stand, dass es weiterhin als experimentell markiert ist und nicht für den produktiven Einsatz geeignet ist.
Edit: Noch einmal bezüglich 6.1 und wie das Ganze grob entwickelt wird:
ViewID and barycentrics are everything we have planned for the 6.1 update. We have more things in the backlog that will likely roll into a 6.2 shader model, but this should keep IHVs busy for a while and enable some cool things.
Our current model is that new capabilities go hand-in-hand with driver updates, runtime updates and debug layer updates, so these roll into a Windows release incrementally, without back-patching prior systems. So no, Creators Update won't run these.
There are more things we'll be doing at the language level (note there's an option for HLSL 2017 that doesn't really change anything at the moment), but because these won't be affecting the generated DXIL, they can be updated independently of the operating system and drivers.
https://github.com/Microsoft/DirectXShaderCompiler/issues/256
Troyan
2017-06-30, 00:57:11
Noch nicht selbst getestet, aber mit dem neusten Treiber scheint nVidia mit Maxwell v2 und Pascal Ressource Binding Tier 3 zu unterstützen: https://forums.anandtech.com/threads/pascal-now-supports-dx12-resource-binding-tier-3-with-latest-drivers-384-76.2509957/
gravitationsfeld
2017-06-30, 01:52:46
Ich weiss nicht, ob das wirklich gute Nachrichten sind. NVIDIA kann in Hardware nur 12 uniform buffer per stage binden.
Das heisst alles darueber wird wahrscheinlich als SSBOs mit bindless gelesen, was ziemlich viel langsamer sein kann.
Der Zweck von DX12 war eigentlich direkter mit der Hardware zu reden, jetzt bauen sie schon wieder irgendwelche Abstraktionsschichten ein.
Troyan
2017-06-30, 13:24:57
Und Fermi hat zwei Jahre später ebenfalls DX12 bekommen: http://forums.guru3d.com/showpost.php?p=5447973&postcount=64
y33H@
2017-06-30, 14:08:35
Kann Fermi dann eigentlich auch Vulkan?
captain_drink
2017-06-30, 16:24:11
Und Fermi hat zwei Jahre später ebenfalls DX12 bekommen: http://forums.guru3d.com/showpost.php?p=5447973&postcount=64
inb4 StefanV
-/\-CruNcher-/\-
2017-06-30, 16:38:07
Und Fermi hat zwei Jahre später ebenfalls DX12 bekommen: http://forums.guru3d.com/showpost.php?p=5447973&postcount=64
Hmm sicher das es nicht WARP ist ?
Gipsel
2017-07-03, 00:11:54
Und Fermi hat zwei Jahre später ebenfalls DX12 bekommen: http://forums.guru3d.com/showpost.php?p=5447973&postcount=64Ich lese da:
Maximum feature level : D3D_FEATURE_LEVEL_11_0:|
Oder meintest Du Support von WDDM 2.0? Den hat nV wohl nachgerüstet.
Troyan
2017-07-03, 00:17:15
Jo, was sonst? Kepler ist auch nur FL11_0.
/edit: Timespy ist DX12 API only.
gravitationsfeld
2017-07-03, 03:44:17
Kann Fermi dann eigentlich auch Vulkan?
Die Hardware kann es, aber mir ist nicht bekannt dass NVIDIA Treiber dafuer hat. Vielleicht kommt es noch.
Zum Fermi DX12-Treiber sagen Leute, dass es nicht funktioniert:
UPD: Nvm, not working. DirectX 12 Samples from Microsoft throw exceptions, Microsoft PIX also doesn't work
Locuza
2017-07-03, 10:27:30
Der Guru-Link zeigt einen TimeSpy run, dass ist eine DX12-App und auf Reddit hat einer drei Tests mit einer 570 GTX laufen lassen:
just happened to swap out the GPU in my i5-2500K system for my old GTX 570 the other day, so I ran a few tests.
I can confirm that D3D12 works in some games.
However it runs much worse than D3D11.
Deus Ex: Mankind Divided using the lowest settings at 1280x720:
Deus Ex: MD Average Minimum Maximum
D3D11 54.7 FPS 43.3 FPS 68.3 FPS
D3D12 41.8 FPS 34.0 FPS 52.6 FPS
What those results don't show is that D3D12 was also stuttering badly.
The Hitman benchmark would not complete in either D3D11 or D3D12, it kept crashing about halfway through the test.
However the framerate up to that point was halved in D3D12, averaging 80 FPS in D3D11, and 40 FPS in D3D12.
Civilization VI reports "No compatible graphics device found".
[...]
https://www.reddit.com/r/hardware/comments/6kitjv/nvidia_quietly_rolls_out_dx12_support_for_fermi/djnf0xz/
M4xw0lf
2017-07-03, 10:51:49
Der Guru-Link zeigt einen TimeSpy run, dass ist eine DX12-App und auf Reddit hat einer drei Tests mit einer 570 GTX laufen lassen:
https://www.reddit.com/r/hardware/comments/6kitjv/nvidia_quietly_rolls_out_dx12_support_for_fermi/djnf0xz/
Die Ergebnisse lassen das wie eine rein theoretische Möglichkeit erscheinen. :freak:
Locuza
2017-07-03, 11:20:40
Der Hauptgrund sollte die reine Funktionalität für eine Min-Spec sein.
Wobei natürlich Vulkan viel interessanter wäre mit Windows7/Linux-Support.
Aber zeitlich und damit praktisch gesehen, hat Fermi sehr wahrscheinlich gar keine Relevanz was das Thema explicit APIs angeht.
kruemelmonster
2017-07-03, 13:38:24
Ich lese da:
:|
Oder meintest Du Support von WDDM 2.0? Den hat nV wohl nachgerüstet.
WDDM 2.x hatte NV schon vor Monaten für Fermi nachgerüstet, das war erforderlich um bei Mischbestückung von Fermi mit Kepler/Paxwell für die letztgenannten DX12 ermöglichen zu können (ansonsten hätte der Fermi-Treiber auch Paxwell auf WDDM 1.3 runtergezogen und somit DX12 verhindert).
Das Neue am r384.76 ist jetzt die offizielle DX12 Unterstützung (mit FL11_0 wie bei Kepler), welche es zuvor nur teilweise und fehlerbehaftet im r358.70 gegeben hat.
Gipsel
2017-07-03, 21:04:13
Das Neue am r384.76 ist jetzt die offizielle DX12 Unterstützung (mit FL11_0 wie bei Kepler), welche es zuvor nur teilweise und fehlerbehaftet im r358.70 gegeben hat.Die aber offenbar nicht richtig funktioniert (mehrere Leute Berichten von Fehlern und Crashes). Und falls es geht, dann hat man offenbar oft fürchterliche Performance.
gravitationsfeld
2017-07-03, 21:45:59
Immerhin tut sich was, muss man NVIDIA ja lassen.
Klevapalis
2017-07-04, 16:46:36
Entscheidend ist eben, dass WDDM2.0 unterstützt wird. Will man wirklich Performancewunder von einer 7 Jahren alten Karte erwarten?
aufkrawall
2017-07-04, 16:48:36
Bei der Performance müsste man schauen, ob es nicht am knappen VRAM liegt. Mit LL-API brauchen ja viele Spiele mehr, und die alten Karten sind mittlereile oft schon mit DX11 überfordert.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.