PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Radeon RX Vega zeigt unter Forza 7 eine exzellente DirectX-12-Perform.


Leonidas
2017-10-02, 09:50:23
Link zur News:
https://www.3dcenter.org/news/radeon-rx-vega-zeigt-unter-forza-7-eine-exzellente-directx-12-performance

Gast Ritis
2017-10-02, 10:09:20
Im CB Forum wurde dieses Video auch noch mal verlinkt, ich hatte das schon ganz vergessen. Aber ich denke es trifft den Kern und mit Forza7 sieht man seine Aussagen bestätigt, gerade weil wir davon ausgehen dürfen, dass hier eine Engine ein mal - wie in seiner These - von Grund auf auf DX12 umgestellt wurde.
www.youtube.com/watch?time_continue=2&v=nIoZB-cnjc0

Vermutlich können die Treiber von nVidia nicht mehr die Vorteile herausspielen, wie es in "alten" Game-Engines noch möglich ist.
Bei mehr Pixel-Output in 4k relativiert sich das dann, und Vega hat im Vergleich zu den grossen Pascals ein etwas kleineres Backend. Die Frametimes bleiben aber bei hohen Shaderanforderungen im tendenziell 99er Perzentil stabiler.

Vielleicht findet nVidia gerade deshalb den relativ günstigen Threadripper so toll, weil dort der zusätzliche Aufwand im Treiber mit SW Schedulung noch lange lange aufgefangen werden kann...

Iapetos
2017-10-02, 10:17:44
Es herrscht hier immer noch Konfusion bzgl. Optimierungen für Vulkan/DirectX12. Das API ist nicht mehr hauptverantwortlich für die Performance, sondern der Entwickler (der Spiele-Engine), die Art der Last, die das Spiel erzeugt und die Architektur der Grafikkarte, also wie gut sie mit der geforderten Last umgehen kann.

dr.denton
2017-10-02, 10:46:44
Das geht als Roter natürlich runter wie Öl ^^

Auch wenn es für eine Kaufentscheidung heute egal ist, bin ich mal gespannt, wie die Leistungsdifferenz in einem Jahr aussieht.

Ben Carter
2017-10-02, 11:02:25
Wenn das Spiel/die Engine für beide Architekturen ausreichend optimiert bzw. konzeptioniert ist, dann ist das wirklich ein schönes Ergebnis für Vega und ich hoffe, dass es in Zukunft mehr Engines gibt, die entsprechend viel Leistung aus dem Chip kitzeln.

Wenn es daran liegt, dass es den nVidia-Chips nicht schmeckt, dann ist es schade - wie immer wenn eine Engine sehr einseitig ausgerichtet ist.

Wahrscheinlich liegt es irgendwo in der Mitte mit mehr Tendenz bzgl. ersterer Annahme, da die Performance auf nVidia-Chips nicht unterirdisch ist, lediglich Vega bzw. in Teilen auch Polaris brilliert.

lg Ben

MrSpadge
2017-10-02, 11:10:03
Toll für AMD und lässt hoffen. Allerdings: der Abstand der 1080Ti zur 1080 ist hier verdächtig gering, oder? Deutet IMO darauf hin, dass hier etwas im NV-Renderpfad nicht rund läuft. Fluch und Segen der low-level APIs - man kann mehr optimieren, aber man muss es auch selbst tun, statt es wie früher dem Treiber zu überlassen.

MrS

sys64738
2017-10-02, 11:41:14
Wobei ich mich frage, warum man als Entwickler überhaupt auf DX12 setzen sollte. Im Vergleich zu DX11 hat man deutlich mehr Entwicklungsaufwand und verliert W7 und W8 Nutzer als potentielle Kunden. Mit Vulkan hat man zwar einen ähnlichen Aufwand aber man kann leicht(er) auf andere Plattformen portieren und seinen potentiellen Kundenkreis erweitern.

Ben Carter
2017-10-02, 12:12:22
Weil man es kann.

Aktuell ist es natürlich so, dass es für die meisten Entwickler mehr Aufwand ist plus Lernprozess, aber um auch in Zukunft konkurrenzfähig zu sein (bei der Engine), darf man eben diverse Entwicklungen nicht verschlafen. Und wenn die Zukunft in mehr Low-Level geht, dann geht man da eben auch mit.

Zudem kann ich mir vorstellen, dass einige Leute einfach experimentierfreudig sind bzw. am Puls der Zeit entwickeln wollen und darum auch etwas Mehrarbeit in Kauf nehmen.

Ich bin selbst Softwareentwickler und wenn ich mal Zeit habe, baue ich auch gern kleine, praktische Features mit rein, die dem Kunden zu gefallen wissen, ohne dass sie gezielt verlangt sind. Aber das hebt uns (als Firma) auch von der Konkurrenz ab, dass wir eben nicht nur stupide nach Pflichtenheft arbeiten, sondern uns eben auch Gedanken machen, wie man einen höheren Bedienkomfort erreichen kann. Wobei ich logischerweise nicht Stunden um Stunden da rein investieren kann. Es ist aber ein sehr gutes Gefühl dann eines der (für den Kunden so nicht erwartetes) Features zu zeigen und die Begeisterung dafür zurückzubekommen.

lg Ben

sys64738
2017-10-02, 13:32:12
Weil man es kann.Können kann man es nur, wenn man das Geld dazu hat. Und Budgets sind nun einmal in der Regel eher knapp als reichlich bemessen.


Aktuell ist es natürlich so, dass es für die meisten Entwickler mehr Aufwand ist plus Lernprozess, aber um auch in Zukunft konkurrenzfähig zu sein (bei der Engine), darf man eben diverse Entwicklungen nicht verschlafen. Und wenn die Zukunft in mehr Low-Level geht, dann geht man da eben auch mit.
Konkurrenzfähig zu sein und zu bleiben ist sicher wichtig, aber gerade da bietet Vulkan, wie schon geschrieben, dann doch erheblich mehr als DX12.
Und ob low-Level tatsächlich die Zukunft ist, bezweifle ich dann doch stark. Was soll da als nächstes kommen, dass man die Treiber umgeht und alles per Hand macht, am besten noch in Assembler statt einer Hochsprache? Mit DX12 (und auch Vulkan) steigt die Entwicklungszeit und damit auch die Kosten immens, dass kann sich kaum einer bei einem kurzlebigen Produkt mit eher geringer Gewinnspanne leisten.

Zudem kann ich mir vorstellen, dass einige Leute einfach experimentierfreudig sind bzw. am Puls der Zeit entwickeln wollen und darum auch etwas Mehrarbeit in Kauf nehmen.Es geht ja nicht um eine einzelne Person, die in der Freizeit etwas zusammenfrickelt (nicht negativ gemeint), sondern um ein ganzes Team mit einem engen Zeitplan und Budget. Und es ist nicht "etwas" Mehraufwand, alleine die Codegröße ist drei bis vier mal so groß gegenüber DX11, dazu kommen noch etliche zusätzliche Fehlerquellen, die sonst der DX11-Treiber abgefangen hätte, die Anpassung und Optimierung an die verschiedenen GPUs (die mit jeder neuen GPU aufs neue gemacht werden muss) usw. Und schlussendlich soll das ganze auch noch besser und schneller funktionieren, als mit den inzwischen doch sehr ausgereiften DX11 Treiber. Der Mehraufwand ist monumental!


Ich bin selbst Softwareentwickler und wenn ich mal Zeit habe, baue ich auch gern kleine, praktische Features mit rein, die dem Kunden zu gefallen wissen, ohne dass sie gezielt verlangt sind. Aber das hebt uns (als Firma) auch von der Konkurrenz ab, dass wir eben nicht nur stupide nach Pflichtenheft arbeiten, sondern uns eben auch Gedanken machen, wie man einen höheren Bedienkomfort erreichen kann. Wobei ich logischerweise nicht Stunden um Stunden da rein investieren kann. Es ist aber ein sehr gutes Gefühl dann eines der (für den Kunden so nicht erwartetes) Features zu zeigen und die Begeisterung dafür zurückzubekommen.Ich will dir nicht in deine Arbeit reinreden, aber zumindest im Bankenbereich kann ich dir aus Erfahrung sagen, dass du dich besser an das Pflichtenheft hältst und nicht eigenmächtig nicht mit dem Kunden abgesprochene Features rein bringst, die der Kunde nicht explizit gewollt hat, aber eben bezahlt (einer muss es ja bezahlen, und das ist nun einmal der Kunde), auch wenn sie dir noch so sinnvoll und der Afwand noch so gering erscheinen. Und wenn dann auch noch mit dem ungewollten Feature ein Problem auftritt, dann ... (das überlasse ich deiner Phantasie, aber es ist nicht erfreulich)

Iapetos
2017-10-02, 14:05:21
Mit DX12 (und auch Vulkan) steigt die Entwicklungszeit und damit auch die Kosten immens, dass kann sich kaum einer bei einem kurzlebigen Produkt mit eher geringer Gewinnspanne leisten.
Dieses Problem fangen mittlerweile alle gängigen, z. T. auch lizenzierbaren Spiele-Engines ab, z. B. Unity, die Cry Engine, Source 2, die Serious Engine, id Tech 6 etc.

reallord
2017-10-02, 14:13:34
Welche Engine verwendet denn Forza? Und kommen da noch weitere Titel irgendwann?

sys64738
2017-10-02, 14:15:30
Dieses Problem fangen mittlerweile alle gängigen, z. T. auch lizenzierbaren Spiele-Engines ab, z. B. Unity, die Cry Engine, Source 2, die Serious Engine, id Tech 6 etc.
Nur zu einem Teil, ein guter Teil verbleibt noch bei der Anwendung/Spiel. Es ist ja gerade der Sinn der LL-APIs, dass man quasi für jedes Spiel handoptimiert, das kann man eben nicht allgemein in der Engine abfangen (ohne den Vorteil der LL-APIs zu verspielen).

Ben Carter
2017-10-02, 14:34:25
Ich will dir nicht in deine Arbeit reinreden, aber zumindest im Bankenbereich kann ich dir aus Erfahrung sagen, dass du dich besser an das Pflichtenheft hältst und nicht eigenmächtig nicht mit dem Kunden abgesprochene Features rein bringst, die der Kunde nicht explizit gewollt hat, aber eben bezahlt (einer muss es ja bezahlen, und das ist nun einmal der Kunde), auch wenn sie dir noch so sinnvoll und der Afwand noch so gering erscheinen. Und wenn dann auch noch mit dem ungewollten Feature ein Problem auftritt, dann ... (das überlasse ich deiner Phantasie, aber es ist nicht erfreulich)
Ich entwickle meist in Bereichen der Digitalisierung von Arbeitsprozessen und da geht es darum, es dem Kunden so komfortabel und praktisch zu machen, sodass neben der anderen Vorteilen natürlich auch noch eine Zeitersparnis dazukommt. Und hier kann man eben Dinge tun, um den Kunden das Leben zu erleichtern, ohne dass ich es tun müsste. Um ein (sehr kleines) Beispiel zu nennen: dass man in einem Zahleneingabefeld eben nicht nur Zahlen eingeben, sondern auch einfache Berechnungen, wie z.B. 5*3,99 eingeben kann, die dann ausgerechnet werden. Das steht in keinem Pflichtenheft (es sei denn, ein Kunde wünscht sich so etwas explizit, aber meistens wissen die Kunden nicht einmal, was genau sie haben wollen).

Das man ohne Vorgabe und Kundenrücksprache irgendwelche gröberen Dinge dazubaut oder anders macht, als im Pflichtenheft steht ist logischerweise ausgeschlossen. Aber ich dachte, dass ich das nicht extra erwähnen muss.

Das wird dann umgesetzt und ist beim ersten Mal vielleicht etwas Mehraufwand - es will ja nicht nur implementiert, sondern auch angemessen getestet werden. Beim nächsten Prozess ist das dann auch standardmäßig drin. So tritt man nicht nur auf der Stelle, sondern entwickelt sich entsprechend weiter.

Wenn man immer nur den Pflichtteil abliefert, dann spart man vielleicht jetzt Zeit, verliert aber in der Zukunft, weil man still steht.

Und bei der Spiele-/Engineentwicklung ist es in einem größeren Rahmen auch so. Wenn man sich stets mit dem zufrieden gibt, mit dem das aktuelle Problem mit dem kleinsten Aufwand gelöst werden kann, dann wird man irgendwann hinterher sein. Natürlich ist es hier nicht so, dass ein, zwei Entwickler denken "Ach, machen wir doch DX12 statt DX11 weil cooler", sondern es ist eine Unternehmens- oder zumindest eine Projektentscheidung. Aber auf diese Entscheidung werden die Entwickler sicherlich auch Einfluss nehmen. Bei manchen Studios mehr, bei manchen weniger. Und je härter die Konkurrenz, desto eher denke ich, dass man bereit ist, auch mehr in diese Bereiche zu investieren, um einfach das Produkt besser machen zu wollen.

lg Ben

BlacKi
2017-10-02, 14:46:52
Toll für AMD und lässt hoffen. Allerdings: der Abstand der 1080Ti zur 1080 ist hier verdächtig gering, oder? Deutet IMO darauf hin, dass hier etwas im NV-Renderpfad nicht rund läuft. Fluch und Segen der low-level APIs - man kann mehr optimieren, aber man muss es auch selbst tun, statt es wie früher dem Treiber zu überlassen.

MrS
bingo, die überschrift hat leo falsch gewählt. wenn eine 1080ti 7% schneller ist als eine 1080 kann etwas nicht stimmen. die 16% zwischen 1070/1080 zeigen auch, das da was bei nv nicht stimmt anstatt das vega super performt.

sys64738
2017-10-02, 15:08:16
Das man ohne Vorgabe und Kundenrücksprache irgendwelche gröberen Dinge dazubaut oder anders macht, als im Pflichtenheft steht ist logischerweise ausgeschlossen. Aber ich dachte, dass ich das nicht extra erwähnen muss.
Was ist klein? Was ist groß? Was ist zu groß? Woher weißt du,, was der Kunde gut findet und was nicht? Aber wie gesagt, ich will dir da nicht reinreden und es ist ganz definitiv nicht mein Problem.Und auch nicht Thema hier.


Wenn man immer nur den Pflichtteil abliefert, dann spart man vielleicht jetzt Zeit, verliert aber in der Zukunft, weil man still steht.
Diese Ansicht teile ich ganz und gar nicht.

Und bei der Spiele-/Engineentwicklung ist es in einem größeren Rahmen auch so. Wenn man sich stets mit dem zufrieden gibt, mit dem das aktuelle Problem mit dem kleinsten Aufwand gelöst werden kann, dann wird man irgendwann hinterher sein. Natürlich ist es hier nicht so, dass ein, zwei Entwickler denken "Ach, machen wir doch DX12 statt DX11 weil cooler", sondern es ist eine Unternehmens- oder zumindest eine Projektentscheidung. Aber auf diese Entscheidung werden die Entwickler sicherlich auch Einfluss nehmen. Bei manchen Studios mehr, bei manchen weniger. Und je härter die Konkurrenz, desto eher denke ich, dass man bereit ist, auch mehr in diese Bereiche zu investieren, um einfach das Produkt besser machen zu wollen.
Ob jetzt LL-APIs tatsächlich eine Verbesserung darstellen bezweifle ich aus genannten Gründen, aber meine Frage ist doch, wenn schon LL-API, warum dann DX12 und nicht Vulkan?

Gast Ritis
2017-10-02, 15:11:24
Nur zu einem Teil, ein guter Teil verbleibt noch bei der Anwendung/Spiel. Es ist ja gerade der Sinn der LL-APIs, dass man quasi für jedes Spiel handoptimiert, das kann man eben nicht allgemein in der Engine abfangen (ohne den Vorteil der LL-APIs zu verspielen).

Die generischen Engines schleppen alle die DX9/DX11 Historie mit. Dort kommen DX12 Vorteile nur wenig bzw. schleppend zum tragen. Viele Entwickler haben berichtet, dass DX12 und Vulkan erst mal geholfen haben besseren DX11 Code zu produzieren. Also nur an der Oberfläche gekratzt und immer noch alles an einem Main-Thread drangehängt mit Helper-Threads.

Microsoft hat reines DX12 bestellt und bekommt das für Forza. Das ist dann schon noch einmal etwas anderes. Jede Funktion kann direkt zur GPU bzw. dessen Treiber sprechen und meldet nur wenn nötig den neuen Zustand an den Main-Thread.
Ich erwarte eigentlich in den nächsten 12 Monaten, dass alle grossen Engine-Anbieter noch mit einem Neustart kommen ohne die alten Zöpfe. Es liegt nur noch an der Verbreitung von Vulkan und DX12 fähigen Laptops. Wenn es auch dort nur modernere Geräte im relevanten Markt zu bedienen sind können die mit wirklich dynamischen Engines im Markt sich neu positionieren. Bis dahin bremst die Abwärtskompatibilität noch.

Meine Glaskugel sagt mir sobald im Steam-Survey 75% mit DX12/Win10 daher kommen ist der Drops gelutscht. Dann geht es noch 6-12 Monate und DX11 wird bei AAA auch abseits von M$ nicht mehr angeboten.

Leider ist der Gaming-Markt viel zu gross und zäh geworden als dass Innovationen noch überraschen können, überraschend kommen eigentlich nur noch diverse Treiber-Updates ;D Das hat nicht mehr so den Reiz wie in den Anfängen... nur kurz viellicht mal bei VR im Beta-Stadium.

cat
2017-10-02, 15:24:22
Forza 7 wird kein Einzelfall bleiben.
Diese Engine ist völlig neu und der Hersteller sagte mehrfach man habe aus 2 vorherigen DX12-Engine-Adaptionen gelernt und nun alles gelernte bestmöglich umgesetzt mit vollem DX12-Fokus von Tag-1 an.

Dieses werden die 3rd-Generation-DX12-Engines von denen ich seit geraumer Zeit spreche.
Und es werden neue Vulkan-Engines kommen die auf die CPU-Entlastung von Doom nochmal was draufpacken.

Immer vorran, niemals halt an !!

HeinLo
2017-10-02, 15:48:01
Nur zu einem Teil, ein guter Teil verbleibt noch bei der Anwendung/Spiel. Es ist ja gerade der Sinn der LL-APIs, dass man quasi für jedes Spiel handoptimiert, das kann man eben nicht allgemein in der Engine abfangen (ohne den Vorteil der LL-APIs zu verspielen).
Nein, das stimmt nicht. Die LL-APIs sollen den falschen Abstraktionslevel von DX11 und OpenGL beseitigen, da sich die in der historischen Entwicklung zu weit von GPUs entfernt haben.
Es gilt nach wie vor, dass man ein einziges Compilat gegen die allg. API entwickeln kann. Die Anpassung an diverse HW kann sich in Abfragen des VRAM oder von Feature Leveln mit wenigen Codespathes erschöpfen.
Shader Intrinsics, wie diese für Doom für Vulkan Optimierung für AMD GPUs eingesetzt wurden sind in Vulkan auch möglich, aber nicht Kern der neuen API.

Im Gegensatz zu DX11 und OpenGL müssen aber nicht mehr die "Treiberfeature" als Bugs für jede einzelne GPU in getrennten Code-Paths gefixt werden. Im Zweifel kann man eben bei LL-APIs sehen was falsch läuft. Das kommt besseren Treibern oder besserer API-Doku zugute, sicherlich aber vor allem einem einheitlichen Code.

Da der Treiber bei LL-APIs viel "dünner" ist können die Engine-Entwickler generell mehr in der eigenen Software neu ansetzten und ausprobieren ohne auf Treiber angewiesen zu sein oder per Game viele Fixes zu machen.
Die Chancen für überraschende neue Ansätze sind wieder viel grösser als zuvor.

Gast
2017-10-02, 17:09:51
...und schon wird Nvidias 1080FE überflügelt (ging ja ziemlich schnell), liegt die Vega64 gleich auf mit guten Customs 1080 OC Karten und damit fast auf Level der 1080ti FE, wobei das Innovationspaket sogar die 1080ti überflügelt.

Tja, aber AMD sind halt zu blöd GPUs zu bauen.:freak:

Bleibt nur noch die bessere Effizienz von Pascal, wobei man sagen muss, dass AMD es so dann zwar hart, aber nicht zu hart erkauft. Vegas Gen hat anscheinend noch viel Potential, genauso wie Ryzen.

Danke RTG und Herr Koduri...!;)

Mehr ausliefern, was die Preise fallen lässt und alles wird gut. Schon komisch das man bei AMD immer erst etwas Druck braucht, um dann die Power der eigenen Hardware zielgerichtet freizusetzen. Weiter so!:up:

Schnitzl
2017-10-03, 08:04:40
Grob gesehen haben DirectX 12 & Vulkan für AMD das Potential, den kleinen Vorsprung der Radeon RX Vega 56 vor der GeForce GTX 1070 zu verfestigen sowie die Radeon RX Vega 64 sogar minimal vor die GeForce GTX 1080 zu hieven – mit dem Performance-Level der GeForce GTX 1080 Ti wird es jedoch (zum derzeitigen Stand) bei weitem nichts.
Finde ich sehr schlecht formuliert.
Gerade dieser Test hat doch gezeigt, dass es Überraschungen geben kann.
Was die Zukunft bringt, weiss AMD am Besten. Hast du Kontakte bei AMD die dir sagen dass Forza7 das einzige Spiel dieser Art bleibt?
Könnte ja sein! (ok bei Wolfenstein sollte ebenfalls Vega seine Rohpower umsetzen können aber kann auch in die Hose gehn wer weiss? - ich hoffe nicht...)

Man sollte nicht vergessen, dass der Vega Chip geringfügig größer ist als der der 1080 Ti (welcher ja auch noch nicht voll freigeschalten ist)
Ja ich weiss, Theorie und Praxis :freak:

Ich hoffe es kommt nicht dazu, dass man in Zukunft 2 Rechner benötigt, einen mit Intel/nVidia für alle DX11 Spiele und einen mit Ryzen/Vega oder Navi für alle DX12 Spiele :rolleyes:

dr.denton
2017-10-03, 08:06:13
@Gast
Ich würde sagen, der Vorwurf ist selten (ausser von wirklichen Idioten), AMD sei zu blöd GPUs zu entwerfen, eher sie auch zu verkaufen. "AMD+Marketing=oh,oh" ist ja so eine alte Binse seit Athlontagen.

Schnitzl
2017-10-03, 08:25:22
Das AMD Marketing muss sich noch selbst finden. Erst fast nix, dann zuviel (Versprechungen und Selbstüberschätzung)

Die andere Frage ist was willst du mit Marketing wenn Intel durch "Verträge" AMD von Media Markt und Konsorten aussperrt?
Davon haben Sie sich mMn bis heute noch nicht erholt. Was nicht heissen soll das AMD Fehlerlos ist.

Iapetos
2017-10-03, 10:02:56
Ich erwarte eigentlich in den nächsten 12 Monaten, dass alle grossen Engine-Anbieter noch mit einem Neustart kommen ohne die alten Zöpfe. Es liegt nur noch an der Verbreitung von Vulkan und DX12 fähigen Laptops. Wenn es auch dort nur modernere Geräte im relevanten Markt zu bedienen sind können die mit wirklich dynamischen Engines im Markt sich neu positionieren. Bis dahin bremst die Abwärtskompatibilität noch.

Meine Glaskugel sagt mir sobald im Steam-Survey 75% mit DX12/Win10 daher kommen ist der Drops gelutscht. Dann geht es noch 6-12 Monate und DX11 wird bei AAA auch abseits von M$ nicht mehr angeboten.
Das ist das Problem. Wozu auf Windows 10 mit DirectX 12 warten, wenn Vulkan bereits jetzt alle Vorteile eines Low-Level-API bietet, ohne auf ein einziges Betriebssystem festgelegt zu sein? Dummheit? Faulheit? Korruption? (Gern auch im Management.)

dargo
2017-10-03, 10:19:40
Wobei ich mich frage, warum man als Entwickler überhaupt auf DX12 setzen sollte.
Du fragst dich gerade warum ein Microsoft Studio wie Turn 10 auf DX12 setzen? :usweet:

bingo, die überschrift hat leo falsch gewählt. wenn eine 1080ti 7% schneller ist als eine 1080 kann etwas nicht stimmen.
Ja... nennt sich CPU-Limit. ;)

In 1440p sinds 8% und 4K 20%. Irgendwo bei 6K müsste sich die 1080TI um ihre normalen ~25-30% absetzen können.


Meine Glaskugel sagt mir sobald im Steam-Survey 75% mit DX12/Win10 daher kommen ist der Drops gelutscht. Dann geht es noch 6-12 Monate und DX11 wird bei AAA auch abseits von M$ nicht mehr angeboten.

Das erledigt sich spätestens Januar 2020 von selbst. Ab da ist Windows 7 tot. Und Windows 8.x will praktisch keine Sau. Dann heißt es friss oder stirbt. Die einzige Wahl für Gamer ist dann Windows 10. Alternativ halt Windows 11, je nachdem wie schnell Microsoft ist.

Gast
2017-10-03, 10:26:57
das vega eher zukunftsoptimiert daherkommt war doch zu vermuten. warum sollte man eine arch die 2-5 jahre das geschäft prägen soll, auf non ll api auszulegen. macht ja keinen sinn.

war zu vermuten das vega eher dx12 und vulkan optimiert daherkommt. damit stimmen die ergebnisse auch in das erwartete und zukünftige leistungsbild.

für ports von der konsole auf pc kann das nur gut sein. da happerte es zuletzt. auch da setzt amd somit neue präreferenzen wenn möglich. den hersteller des jahres haben sich imo dieses jahr ganz sicher verdient, nicht nur wegen zen.

was die diskussion um gpus bauen angeht, die engineers arbeit war immer ausreichend gut, eher happerte es am marketing und der in treiberabteilung, wie auch bei vega. schön zu sehen das man jetzt mit einzelnen engines highlightes auch mal fahrt aufnimmt.

diese heimlichtuerei rund um vegas leistungsvermögen sollte jetzt endlich mal der geschichte angehören.

das der vegachip grösser als nvidias part ist amd typisch, sie brauchen immer egeas mehr. daher kann das keine ausrede sein eine ti zu schlagen. nvidia typisch pfeifen die auf vollständige dxfl unterstützung und krampen sich lieber mit gamewürks und anderen spielchen ihre treiber zurecht.

amd ist im mediamarkt kaufbar und nur so nebenbei, deren regale sind leergefegt, was man von nividias nicht gerade sagen kann. die oxidieren da seit einem jahr umher. zeitweilig war amd im mm billiger im angebot als im www! und dann sofort ausverkauft.

Gast
2017-10-03, 10:30:14
"exellent" ist ubrigens 'ne geile wortwahl, danke an leo...! der ja bekanntlich eher nvidialastig schreibt.

Gast Ritis
2017-10-03, 12:43:41
Das ist das Problem. Wozu auf Windows 10 mit DirectX 12 warten, wenn Vulkan bereits jetzt alle Vorteile eines Low-Level-API bietet, ohne auf ein einziges Betriebssystem festgelegt zu sein? Dummheit? Faulheit? Korruption? (Gern auch im Management.)
Weil man bei den Microsoft APIs einen Megakonzern hat, der für eine stabile und ordentliche Entwicklungsumgebung sorgt an der sehr viele Middleware Anbieter dran hängen, die ihre eigenen Libs anpassen und Lösungsansätze und Support für den Übergang bieten.

Bei Vulkan ist die Aussage schon immer gewesen - Tabula Rasa Alles wird Neu.
Jemand der erst mal ALLES aus einer Hand neu programmieren kann und will wird das gerne sofort annehmen. Id-Software ist so ein Laden mit entsprechender Philosophie. Die entwickeln ihre eigene Entwicklungsumgebung wenn es sein muss und weil man alte Zöpfe mit jeder Id-Tech wieder abschneiden will.

Aber jemand der nicht so Technik-Verliebt ist sondern eine Story, ein bestimmtes Gameplay, oder zu aller erst einen Business-Case in Software umsetzen lassen will, der wird sicherlich lieber auf Microsoft setzen und sich möglichst alles zusammenkaufen was man nicht zwingend selbst machen muss.
Das ist für solche Projekte die beste Wette statt zu warten bis für eine Vulkan-Entwicklung ein Ökosystem entstanden ist, wie er es von DirectX beim Gaming oder OpenGL bei Industrie/Designanwendungen gewohnt ist.

Das Märchen, dass Vulkan Programmierung so viel schwieriger und umfangreicher wäre ist auch eines, dass sich hartnäckig hält. Dabei ist es nur am Anfang aufwändig bis es genug Code zum wiederverwenden oder einkaufen gibt....

Vulkan braucht als Ökosystem einfach noch Zeit, der grösste Faktor wird wohl Android sein das dazu führt, dass für Mobile-App Entwicklung die Branche Tools und Libs entwickelt und anpasst. Aber an Id-Software hat wahrscheinlich noch keiner Vulkan-Tools und Plugins verkauft... ;)

Bei Microsoft ist ziemlich sicher, dass es mit DX12 relativ schnell geht und im Zweifel M$ dafür sorgt dass es funktioniert. Am Ende des Tages geht es ums Geld und dass die Kasse klingelt...

Gast Ritis
2017-10-03, 13:01:23
Das erledigt sich spätestens Januar 2020 von selbst. Ab da ist Windows 7 tot. Und Windows 8.x will praktisch keine Sau. Dann heißt es friss oder stirbt. Die einzige Wahl für Gamer ist dann Windows 10. Alternativ halt Windows 11, je nachdem wie schnell Microsoft ist.

2020? Im Steam-Survey sind wir aktuell bei 68% Win10/DX12 Kombi!

Zum Jahreswechsel sind wir sicher bei drei viertel der User angelangt. Dann kann jeder Buchhalter bei den Studios überzeugt werden nur noch die neue API in Projekten zu unterstützen, bei denen noch ein Schwenk zu DX12 möglich ist.

Im übrigen ist die Erhebung schon bei über 86% DX12 GPUs angelangt. Mit den neuen AMD APUs und entsprechenden Intel-Reaktionen sollten die alten Laptops auch von Gelegenheitsspielern final mit DX12 HW ersetzt werden.

Es gibt keine ökonomischen Gründe mehr ab Anfang 2018 noch DX11 Games anzufangen, es sei denn die Engines und Tools wären für DX12 noch zu teuer, glaube ich aber nicht, so funktioniert der Markt nicht....

Spätestens ab Sommer 2018 sollten dann bei den großen Engine-Herstellern die Diskussionen um das Entfernen von Altlasten für die Releases losgehen, ich würde vermuten man macht das dann mit neuen Major-Releases ohne Legacy DX11/OGL Support.

So zumindest meine Glaskugel ;D

Gast
2017-10-03, 16:09:30
Das erledigt sich spätestens Januar 2020 von selbst. Ab da ist Windows 7 tot. Und Windows 8.x will praktisch keine Sau. Dann heißt es friss oder stirbt. Die einzige Wahl für Gamer ist dann Windows 10.
Windows 10 ist 2020 auch noch immer ein Opfer-OS.
Wer es bis dann nicht genutzt hat, wird es auch weiterhin nicht machen.

Nicht jeder ist bereit sich von sein Betriebssystem ausspionieren zu lassen, zum Glück gibt es noch Linux!

dargo
2017-10-03, 17:21:01
2020? Im Steam-Survey sind wir aktuell bei 68% Win10/DX12 Kombi!

Keine Ahnung wo du schaust aber meine Quelle zeigt im Septemer sogar einen fetten Rückgang für Windows 10 und Gewinn für Windows 7.
http://store.steampowered.com/hwsurvey/directx/

Gast Ritis
2017-10-03, 20:29:00
Keine Ahnung wo du schaust aber meine Quelle zeigt im Septemer sogar einen fetten Rückgang für Windows 10 und Gewinn für Windows 7.
http://store.steampowered.com/hwsurvey/directx/
LOL, natürlich nur in der Übersicht wo die Graphik die Prozentanteile ausgibt...
http://store.steampowered.com/hwsurvey/

ich halte spontan die +6% bei Win7 in den Detailseiten für einen Datenfehler, solche Brüche hat es doch noch nie gegeben, die Werte schleichen doch eher um maximal +/-2% je Monat?

Dass seit Mai die Intel CPUs gegenüber den AMDs stetig zugenommen haben ist auch eher merkwürdig.

Ist das nun der ultimative Beweis, dass die Steam Survey Fantasiewerte sind oder verstehe ich nur deren Legende nicht....?
WTF?

Gast
2017-10-03, 23:57:35
Ich glaub man sollte sich nicht zuviel davon versprechen.
Vega liegt hier nur wegen eines CPU Bottlenecks so gut. (Fury Bottleneck und bei sämtlichen anderen Nvidiakarten excl. GTX 1060)

Das Spiel wird einen Patch erhalten und dann wird die Reihenfolge wiederhergestellt, alles andere ist unwahrscheinlich.

Gast Ritis
2017-10-04, 14:30:50
Ich glaub man sollte sich nicht zuviel davon versprechen.
Vega liegt hier nur wegen eines CPU Bottlenecks so gut. (Fury Bottleneck und bei sämtlichen anderen Nvidiakarten excl. GTX 1060)

Das Spiel wird einen Patch erhalten und dann wird die Reihenfolge wiederhergestellt, alles andere ist unwahrscheinlich.

Ein CPU Bottleneck lässt sich mit einem Patsch nur beheben, wenn der CPU-Ressourcen findet wo zuvor keine übrig waren. Das ist irgendwie nicht besonders realistisch, gerade nicht bei Turn10.

Sicherlich hat das CPU-basierte Scheduling im nVidia Treiber etwas damit zu tun. Entsprechend sind die nVidias auch nur deshalb effizienter, weil die im Zweifel den besten Intel in den Vergleichstests zur Seite gestellt bekommen, wo AMD versucht das auf den Karten in der Hardware der jeweiligen Fertigungstechnik zu meistern.

Vielleicht steht am Ende die Erkenntnis, dass man bei DX12 und Vulkan eine heutige High-End nVidia Karte nicht unter einer bestimmten Anzahl von CPU-Kernen betreiben sollte. CB hat 6 Kerne genutzt, es könnten dann also mindestens 8 oder doch eher mehr Kerne gefordert werden wenn DX12 intensiver optimiert wird.

Das hätte schon eine gewisse Ironie wenn ausgerechnet die Top 4-6 Kerner von Intel künftig besser mit AMD Vega kombiniert werden, es gab z.B. nicht wenige AMD-Hater bei den 7700K Verfechtern, weil man sich gegenüber Ryzen als Alternative deutlich abgrenzen "musste".

dargo
2017-10-04, 14:56:28
@Ritis

Vielleicht ist in China ein Sack Reis umgefallen. :D

Gast
2017-10-04, 16:56:05
Vega liegt hier nur wegen eines CPU Bottlenecks so gut. (Fury Bottleneck und bei sämtlichen anderen Nvidiakarten excl. GTX 1060)
Was für ein CPU Bottleneck soll das sein? Das schwafeln doch nur wieder die nVidia Jünger vor sich hin, um sich schönzureden das nVidia das schon macht, aber die haben ihren Gameready längst gelauncht. Da kommt nichts mehr. Ist es so schwer zu verstehen das nVidia die FL-Entwicklung seit Jahren massiv behindert, um die Leute mit Cuda und Gamewürks zu melken.

Vega?, gerade GCN liegt wegen eines CPU Bottlenecks weit vorne, wo jeder weiß das AMD viel mehr CPU Power braucht als nVidia, was für ein Bullshit³. AMDs Treiber sind, was ein CPU Bottleneck beseitigen angeht das Musterbeispiel wie man jenes eben nicht zu 100% ausräumt. Daher sind solche Buzzparolen einfach völlig daneben. Bei Pascal ist einfach die Luft raus, wie nVidiatypisch lassen sie den Treiberabghängig blad fallen und werden sich auf Volta konzentiereren. Dafür gibt es einen Haufen neue Kohle zu verdienen.

Fiji geht in 4K einfach der VRAM aus, dass ist alles! Die Engine belegt 4,7 GB, jedenfalls in dem Testlauf bei CB.

hmmm
2017-10-04, 16:58:42
Zu beachten wäre zudem, das die nVidia-Ergebnisse unter Forza 7 auch eine teilweise sehr schwache Skalierung zwischen GeForce GTX 1080 und 1080 Ti zeigen – was man als weiteren Hinweis darauf verstehen kann, das Forza 7 derzeit als klarer Einzelfall dasteht, man aus diesen Ergebnissen sicherlich noch keine allgemeingültige Regel ableiten kann.
Die Skalierung mag auf den ersten blick verwundern ist aber letztlich auch relative einfach zu erklären.
Mangels Asynchronous Shader und der von Nvidia als quasi gleichwertige Lösung "verkaufte" "preemption-AsynchronousShader" entstehen durch den context switch (oder nennt Nvidia dies jetzt "half context switch"?) Unterbrechungen und die kosten die schnellere Karte logischerweise auch deutlich mehr Leistung, selbst wenn die Unterbrechungen -etwas- kürzer wären.
Kenne das verhalten von den Nvidia Karten _leider_ sehr gut.

aufkrawall
2017-10-04, 17:29:22
Wers glaubt...

hmmm
2017-10-04, 17:45:31
Wers glaubt...
Nee, glauben reicht nicht. Wissen(!)

Was verstehst du denn daran nicht oder wo bist du anderer Meinung?

Bei Nvidias "preemption-AsynchronousShader"?
Dem context switch/"half context switch"?
Das eine Unterbrechung die schneller Karte idR mehr "bremst"?

24p
2017-10-04, 18:23:06
Und was willst du uns mit deinem Bullshitbingo jetzt sagen? Belege für deine Behauptungen? Fehlanzeige.

hmmm
2017-10-04, 18:57:03
Und was willst du uns mit deinem Bullshitbingo jetzt sagen? Belege für deine Behauptungen? Fehlanzeige.
Die
teilweise sehr schwache Skalierung zwischen GeForce GTX 1080 und 1080 Ti
liegt weniger an den Turn 10 Studios sondern ist, bei Verwendung von DX12 und etwas mehr Asynchronous Compute, systeminhärent bei Nvidias Pascal GPU.

Verstanden?

24p
2017-10-04, 18:58:11
Zirkulär argumentiert. Belege, keine Taschenspielertricks.

Gast
2017-10-04, 19:02:34
Die Skalierung mag auf den ersten blick verwundern ist aber letztlich auch relative einfach zu erklären.
Mangels Asynchronous Shader
Genau, eine GTX 1080 Ti ist in Full HD wegen fehlenden asynchronous compute nur 15% vor einer GTX 1070...
Schwachsinn, Grund dafür ist ein hartes CPU Limit und kein asynchronous compute.

hmmm
2017-10-04, 19:04:55
Worüber willst du Belege? Das ich und sicher viele andere auch genau den selben Effekt bei Nvidias GPUs feststellen?

Das Nvidia "Probleme" mit Asynchronous Compute hat und eben genau dies zu einer solchen Skalierung führt?

24p
2017-10-05, 00:04:01
Für deine Behauptungen. Anstatt welche zu bringen wiederholst du deine Behauptung.

Gast
2017-10-05, 02:15:34
Genau, eine GTX 1080 Ti ist in Full HD wegen fehlenden asynchronous compute nur 15% vor einer GTX 1070...
Schwachsinn, Grund dafür ist ein hartes CPU Limit und kein asynchronous compute.

AC hängt unmittelbar mit CPU-Limit zusammen weshalb Vega in CPU-lastigen 1080p so weit vorne liegt. Echter DX12-Code wie bei Forza7 erlaubt weniger treiberseitige Optimierungen, wovon Nvidia besonders profitiert. Pascal rennt daher schneller ins CPU-Limit.

sys64738
2017-10-05, 13:28:20
Nein, das stimmt nicht. Die LL-APIs sollen den falschen Abstraktionslevel von DX11 und OpenGL beseitigen, da sich die in der historischen Entwicklung zu weit von GPUs entfernt haben.
So falsch ist der gar nicht, und letztendlich gibt es für die Schnittstelle API->GPU ja den Treiber.

Es gilt nach wie vor, dass man ein einziges Compilat gegen die allg. API entwickeln kann. Die Anpassung an diverse HW kann sich in Abfragen des VRAM oder von Feature Leveln mit wenigen Codespathes erschöpfen.

Natürlich wird das irgendwie laufen (oder kriechen) aber um eine akzeptable, zu DX11 mindestens gleichwertige Leistung zu erreichen,
musst du halt einen riesigen Aufwand betreiben, und das für jede einzelne GPU-Generation, vielleicht sogar für jeden einzelnen Chip. Mit ein paar Hardwareabfragen kommst du nicht weit. Du musst letztendlich genau das nachbilden, was die einzelnen Treiber machen, und dabei besser sein,
wofür die Entwickler von AMD und Nvidia Jahre gebraucht haben. Das mag zwar für ein paar wenige Einzelfälle hier und dort mit genügend personellem und finanziellem Aufwand funktionieren, aber praktikabel ist das nicht. Du tauschst letztendlich etwas Performancegewinn gegen extrem viel Entwicklungs- und Testaufwand ein.

Im Gegensatz zu DX11 und OpenGL müssen aber nicht mehr die "Treiberfeature" als Bugs für jede einzelne GPU in getrennten Code-Paths gefixt werden.Eigentlich ist es doch eher so, dass die Anwendungen und Spiele eher verbuggt sind, als die Treiber. (finde dazu gerade nicht den link, aber es war die Aussage eines AMD-Treiberentwicklers. Kann ich eventuell am WE mal raussuchen)


Im Zweifel kann man eben bei LL-APIs sehen was falsch läuft. Das kommt besseren Treibern oder besserer API-Doku zugute, sicherlich aber vor allem einem einheitlichen Code.Vielleicht kann man das. Aber nur mit der entsprechend hohen Qualifikation und mit seeehr viel Zeit. Und selbst dann besitzt ein externer Entwickler noch nicht alle Informationen, die die Entwickler von AMD oder Nvidia haben, da die beiden Firmen das als Geschäftsgeheimnis betrachten. Also ist auch der beste Experte auf Annahmen (bzw raten) angewiesen.



Da der Treiber bei LL-APIs viel "dünner" istAssembler ist auch viel dünner als eine Hochsprache, trotzdem nimmt man das heute nicht mehr, der Entwicklungsaufwand ist viel zu hoch, der Gewinn dagegen viel zu gering. Deswegen ist DX12 eher ein Rück- als ein Fortschritt.

Viele Entwickler haben berichtet, dass DX12 und Vulkan erst mal geholfen haben besseren DX11 Code zu produzieren. Wenn die Entwickler nach eigenen Aussagen bei DX11 geschlampt haben, ist das eine Sache. Aber sie hätten auch ihren DX11 Code verbessern können, ohne sich mit DX12 zu befassen. Stellt sich nur die Frage, warum sie bei DX11 geschlampt haben. Ich rate jetzt einfach mal so ins blaue und sage, es war wegen knappen Zeit- und Entwicklungsbudgets. Weswegen DX12 sicher nicht das Allheilmittel sein wird, weil die Entwicklung dafür halt sehr teuer und zeitaufwendig ist.


Microsoft hat reines DX12 bestellt und bekommt das für Forza. Und man sieht ja deutlich, welche Probleme damit einhergehen. Klassischer Schuss ins Klo.

Du fragst dich gerade warum ein Microsoft Studio wie Turn 10 auf DX12 setzen? :usweet:
Wußte nicht, dass das ein MS-Studio ist, erklärt dann aber warum DX12, für ein unabhängiges Studio wäre diese Entscheidung nicht nachzuvollziehen.

MrSpadge
2017-10-05, 19:42:44
Wenn die Entwickler nach eigenen Aussagen bei DX11 geschlampt haben, ist das eine Sache. Aber sie hätten auch ihren DX11 Code verbessern können, ohne sich mit DX12 zu befassen. Stellt sich nur die Frage, warum sie bei DX11 geschlampt haben. Ich rate jetzt einfach mal so ins blaue und sage, es war wegen knappen Zeit- und Entwicklungsbudgets.
Ich kann mir da noch etwas anderes vorstellen: im high-level DX11 schreibt man einfach "mach es" und kümmert sich um nichts weiter, außer es gibt nen dringenden Grund dazu (Fehler, heftige Auswirkungen auf Geschwindigkeit). Um DX12 zu schreiben, müssen die Programmierer aber viel tiefer in das Wesen der GPUs eindringen und ihre Möglichkeiten und Limitationen verstehen. Damit können sich neue Erkentnisse ergeben, warum "mach es" keine besonders gute Lösung war - und evtl. auch in DX11 bessere Wege gefunden werden. Ansonsten: Zustimmung!

MrS

dargo
2017-10-05, 21:02:48
Vielleicht kann man das. Aber nur mit der entsprechend hohen Qualifikation und mit seeehr viel Zeit. Und selbst dann besitzt ein externer Entwickler noch nicht alle Informationen, die die Entwickler von AMD oder Nvidia haben, da die beiden Firmen das als Geschäftsgeheimnis betrachten. Also ist auch der beste Experte auf Annahmen (bzw raten) angewiesen.

Bei Nvidia vielleicht, bei AMD eher nicht. Zumindest liest man das aus einzelnen Entwickerstimmen heraus.


Assembler ist auch viel dünner als eine Hochsprache, trotzdem nimmt man das heute nicht mehr, der Entwicklungsaufwand ist viel zu hoch, der Gewinn dagegen viel zu gering. Deswegen ist DX12 eher ein Rück- als ein Fortschritt.

Bist du gerade im Trollmodus?

Gast
2017-10-06, 05:43:25
AC hängt unmittelbar mit CPU-Limit zusammen weshalb Vega in CPU-lastigen 1080p so weit vorne liegt.

Gibt es für den Unsinn irgendwelche Belege?
Ganz ehrlich dieses Halbwissen-Geschwafel das hier zelebriert wird, macht ergibt überhaupt keinen Sinn.

Kein Mensch kann hier genau sagen an was es dort liegt, zumal Nvidia sehr wohl nicht pauschal unter Directx12 eher ins CPU Limit läuft.

Außer vielleicht CODA, aber der ist ja nicht mehr hier, leider.

Gast
2017-10-06, 23:46:40
Kein Mensch kann hier genau sagen an was es dort liegt, zumal Nvidia sehr wohl nicht pauschal unter Directx12 eher ins CPU Limit läuft.


Nvidia läuft bei DX12 einfach nur schwach und die Vermutung liegt nahe, dass die uArch einfach nicht damit zurecht kommt. Dasselbe gilt für Vulkan. AMD ist dagegen schon ein paar Schritte weiter und die Vorteile werden sukzessiv ausgebaut.

https://abload.de/img/gowacqllt0.png
https://abload.de/img/acs7kql.png