PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Direct X 12: R9 Fury + HD 530? Oder gleich noch eine extra Karte kaufen?


nonharderware
2016-05-08, 17:15:58
Hallo!

Ich habe erst vor kurzem Win 10 Pro auf meinem Rechner neu installiert und dabei wie üblich die iGPU deaktiviert gelassen.
Nachdem ich aber immer mehr von Direct X 12 (und der Möglichkeit die interne GPU zu verwenden) lese, frage ich mich ob es sinnvoll ist die interne GPU zu aktivieren.
Dieser kleine Bericht ist ja sehr nett: http://winfuture.de/videos/Spiele/DirectX-12-interne-GPUs-arbeiten-jetzt-mit-Grafikkarten-zusammen-14444.html

1. Sollte ich dies (also die interne GPU aktivieren) tun?
2. Muss ich da irgendwas im System beachten?
3. Ist doch eigentlich "nur" den Intel Grafiktreiber installieren - Monitor muss ich nicht umstecken, oder so - richtig?
4. Wie viel RAM soll ich der HD 530 zuweisen?

Andererseits denke ich auch daran eventuell eine "kleine" Nvidiakarte (GTX 950) zu holen oder eine gebrauchte GCN 1.1 (z.B. eine Radeon HD 7790 mit 1GB RAM).
Das System steht in meiner Signatur.

Ich spiele gern auf 4K und da ist mir zukünftig jedes Frame extra sehr willkommen.

Was ratet ihr mir?
Soll so wenig wie möglich kosten und dafür den größtmöglichen Effekt bringen.

dildo4u
2016-05-08, 17:20:37
Das steckt alles noch in den Kinderschuhen und die Intel Treiber verursachen bei manchen Games Grafikfehler,ich würde sie eher abschalten.
Bis jetzt unterstützt es auch nur ein Game Ashes of the Singularity und dort verlangsamt eine kleine Karte mit zu wenig Vram das ganze Game.

Unten auf der Seite.

http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/

nonharderware
2016-05-08, 17:24:23
Das steckt alles noch in den Kinderschuhen und die Intel Treiber verursachen bei manchen Games Grafikfehler,ich würde sie eher abschalten.
Bis jetzt unterstützt es auch nur ein Game Ashes of the Singularity und dort verlangsamt eine kleine Karte mit zu wenig Vram das ganze Game.

Unten auf der Seite.

http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/

Genau davor hatte ich Bedenken.
Danke für die Antwort!

HisN
2016-05-08, 17:28:32
Bei Ashes geht gar nix damit, das ist simples AFR, dass die da mit DX12 betreiben.
Und was passiert bei AFR? Die schnelle Karte wartet auf die langsame Karte.
D.h. wenn ich eine 750Ti zusammen mit einer Titan X betreibe, dann läuft das Spiel langsamer als mit einer Titan X alleine.
Wobei die VRAM-Auslastung auf der 2. Karte sehr lustig aussieht ... hat die tatsächlich was zu sagen?

http://abload.de/img/ashes_4.4ghz5960x_tit88y3x.jpg (http://abload.de/image.php?img=ashes_4.4ghz5960x_tit88y3x.jpg)

Welche anderen DX12-Titel fallen mir da ein?
Tomb Raider. Da geht gar nix mit zwei Grafikkarten.
Hitman: Genau das gleiche.

Forza 6 .... noch nicht ausprobiert.
Und dann hört das bei mir mit DX12 auch schon auf.

illidan
2016-05-08, 17:31:49
Es muss nicht automatisch AFR sein, wenn die langsame Karte die schnelle ausbremst.

HisN
2016-05-08, 17:44:39
Bei Ashes ist es aber so, denn mit zwei gleich(starken)en Karten, gehen auch die FPS entsprechend hoch.

Gast
2016-05-08, 18:26:47
Das beste an DX12 ist das Cross SLI/CF und zwar das mischen von AMD und Nvidia, was auf SFR [Split Frame Rendering] beruht.

Das knallt mal richtig rein: http://www.gamersnexus.net/game-bench/2326-amd-nvidia-sli-directx-12-benchmark-explicit-multi-gpu

Mehr davon bitte.

@Hisn
Wer paart den eine so schwache GPU mit einer Starken, das müsste für die Anwendung doch optimiert werden oder denkt hier jemand das geht ohne Anpassung der Engine an die API? Blödsinn...

Wenn DX 12 Multi-Adapter nicht unterstützt wird kommt sogar das Gegenteil raus. Das Ganze setzt auf einen EMGM [Explicit-Multi-GPU Mode] auf, der klar durch den Entwickler berücksichtig und optimiert werden muss.

Unter DX12 Cross-SFR IGR [Implicit-GPU-Rendering] und Multiadapter EMG [Explicit-Multi-GPU] könnte sogar Nvidias SLI Brücke wegfallen, man sieht aber gerade das Gegenteil. Typisch mal wieder, da weiß man auf welchen proprietären Tant die wieder abfahren.

HisN
2016-05-08, 18:39:31
@Gast
Schon mal den Topic angeschaut? Ich komm ja nicht von irgendwoher auf solche Ideen.

Wenn die Hersteller ihr DX12-Multi-GPU-Zeug als Krone der Schöpfung vermarkten, dann wird es immer Leute geben die eine alte/schwache mit einer neuen/starken Graka paaren wollen, einfach weil sie vorhanden sind.

Noch nie aufgefallen?

Gast
2016-05-08, 18:47:44
@Gast
Schon mal den Topic angeschaut? Ich komm ja nicht von irgendwoher auf solche Ideen.

Wenn die Hersteller ihr DX12-Multi-GPU-Zeug als Krone der Schöpfung vermarkten, dann wird es immer Leute geben die eine alte/schwache mit einer neuen/starken Graka paaren wollen, einfach weil sie vorhanden sind.

Noch nie aufgefallen?
Natürlich - nur musst Du den Anteil den die iGPU an dem gemeinsamen Bild rendern soll=festlegen (eben optimieren[EMGM-oder schreibe ich undeutlich?]), oder du erfindest die Welt neu! Noch nie darauf gekommen oder etwas dergleichen gelesen.

/e: Ich komme auch nicht gerade aus einem Loch gekrochen, wo 10 Jahre lang ein Stein drauf lag.

HisN
2016-05-08, 18:58:26
Du spielst auf die Epic/Unreal-Demo an, wo sie die IGPU das Post-Prozessing machen lassen.

Noch nicht in freier Wildbahn aufgetaucht in irgend einem Spiel. Völlig umsonst die Diskussion.
Und schön wie Du auf der einen Seite sagst: Schwachsinn eine starke und eine schwache Graka zu paaren", und es dann sofort mit "die Entwickler machen das schon" verteidigst.
Selbst nicht so sicher was Du willst? Und erzähl das nicht mir, ich hab die Frage nicht gestellt. Erzähl das dem TE. Der freut sich bestimmt über Deine Ergüsse :-)

Gast
2016-05-08, 19:14:45
Anders funktioniert das aber nicht! Das legt FL12 klar fest! Ansonsten bewegst Du dich in Cross-Leveln, und da sollten beide GPUs ungefähr gleichschnell sein.

Die Explicit-Multiadpater-Mode muss per Engine klar umgesetzt werden, da sich die GPU workload timeline für einzelne oder gepaarte (eingebundene) GPUs [A vs A+B] klar unterscheidet. Die parallele Utilization wird per Multiengine klar aufgeteilt.

Das kannst Du ja ignorieren, mir ist das egal. Man muss es dann aber nicht niedermachen, wenn man das Hintergrundwissen nicht hat.

HisN
2016-05-08, 19:17:29
Ich muss kein Programmierer sein, um zu sehen was geht und was nicht.

Muss man als Koch wissen wie es sich als Ei in der Pfanne anfühlt um ein guter Koch zu sein?

Gast
2016-05-08, 19:21:20
Ich muss kein Programmierer sein, um zu sehen was geht und was nicht.
Das will ich nicht einschätzen, weil wir uns nicht kennen.

Muss man als Koch wissen wie es sich als Ei in der Pfanne anfühlt um ein guter Koch zu sein?
Sehen, heißt nicht schmecken! Man sollte sich überraschen lassen, manchmal sieht etwas völlig anders aus und kann ein Programm nicht wiedergeben was man sucht. Aber - zu weit offtopic.

Ich gebe dir Recht, o.k. schönen Sonntag noch.;)

Gast
2016-05-08, 19:47:09
Anders funktioniert das aber nicht! Das legt FL12 klar fest! Ansonsten bewegst Du dich in Cross-Leveln, und da sollten beide GPUs ungefähr gleichschnell sein.

Die Explicit-Multiadpater-Mode muss per Engine klar umgesetzt werden, da sich die GPU workload timeline für einzelne oder gepaarte (eingebundene) GPUs [A vs A+B] klar unterscheidet. Die parallele Utilization wird per Multiengine klar aufgeteilt.

Das kannst Du ja ignorieren, mir ist das egal. Man muss es dann aber nicht niedermachen, wenn man das Hintergrundwissen nicht hat.
Das ist so wie mit Nvidias Demo auf der 1080. Superschnell aber in der Demo waren weder eine komplett beleuchtete Spielwelt, noch Charaktere, noch deren KI-Routinen enthalten. Die GPU performat aber unheimlich...

Also Superschnell und gekauft. Das glaubt dir hier sowieso keiner. Gast? Och schon wieder so ein Lovezuckz-Stänker-Pimpf...;D.

Danke für die aufschlußreiche Info! Wenn du noch einen Link hättest? (ist so üblich hier und nicht auf meinem Mist gewachsen)

Gast
2016-05-08, 20:00:34
Wenn du noch einen Link hättest?
Bitte. (https://msdn.microsoft.com/de-de/library/windows/desktop/dn933253%28v=vs.85%29.aspx)

Gast
2016-05-08, 20:19:09
Bitte. (https://msdn.microsoft.com/de-de/library/windows/desktop/dn933253%28v=vs.85%29.aspx)
Habs gefunden unter promotbare Flags? Wenn der Treiber das nicht beherrscht und die Engine nicht kann, ok dann wird das nichts. Stichwort: flag_allow_simultaneous_access?

Danke.

Also TS @antiprodukt besser noch ne Fury kaufen. Kommt für AMD auch besser. Der Rest eher Zukunftsmusik und mit der neuen Multiadapter Unreal Engine 4 zu erwarten.=)

Gast
2016-05-08, 20:22:53
Bei meiner Apu habe ich die int. bei einer extra Karte aktiviert gelassen (ist auch voreinstellt). Das hatte den Vorteil das die ext. AMD Karte auch in in den Stromsparmodus gewechselt ist.
Die int Grafik soll in Zukunft auch andere Berechnungen wie Physik von der CPU übernehmen. Das macht in meinen Augen auch nur mit der int. Grafik wegen dem gemeinsamen Speicher Sinn.

nonharderware
2017-05-01, 12:13:56
Hallo!

Nachdem fast ein Jahr vergangen ist, wollte ich das thema wieder aus der Versenkung holen!

Hat sich hier etwas getan?
Lohnt sich mittlerweile das Aktivieren der iGPU?
Alles beim Alten?
Das Wetter ist schuld? :freak:

Kartenlehrling
2017-05-01, 12:33:32
es gibt nur Machbarkeitsstudie, ich weiß von keinem Spiel das die intel-iGPU zur einer >400€ GPU unterstützt.