PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

aufkrawall
2017-10-06, 18:18:14
Da wird niemand etwas zu sagen können, außer AMD selber. closed source Treiber = Mist und so.

aufkrawall
2017-10-06, 19:43:47
Mit dem Maxwell-Release hatte Nvidia allerdings auch einen kleinen Patzer bei der Texturfilterung gehabt.
Wo wir gerade dabei sind: Ist die von Vega eigentlich irgendwie besser als von älteren GCN-Versionen?

Loeschzwerg
2017-10-06, 20:17:33
Wo wir gerade dabei sind: Ist die von Vega eigentlich irgendwie besser als von älteren GCN-Versionen?

Hat sich nichts getan.

Selbstverständlich haben wir uns auch die Qualität der anisotropen Texturfilterung angesehen, denn in der Vergangenheit war diese oft das Ziel von "Optimierungen". Auch bei der Radeon Vega sind im Treiberstandardzustand Kniffe aktiv, welche Rechenzeit sparen. Das trifft auf jede aktuelle Radeon und Geforce zu und ist nicht verwerflich, zumal sich die Sparmaßnahmen mit zwei Klicks deaktivieren lassen: Wählen Sie einfach "Hoch" anstelle von "Standard". Vegas HQ-AF ist in all unseren Stichproben sauber und liefert keinen Anlass zur Kritik.
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/

aufkrawall
2017-10-06, 21:00:50
Hat sich nichts getan.


http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/
Thx. Ist jetzt die Frage, wie das gemeint ist. Bei Hawaii war sehr wohl noch Verbesserungspotenzial vorhanden, und das hatte niemand thematisiert.
Genau so wenig, wie PCGH jetzt thematisieren würde, dass man mit Radeons mit DX12 und Vulkan gar keine HQ-Filterung hat. Schon verdächtig, wie man das Thema mittlerweile seit Jahren vermeidet.
Aber schön weiter auf HQ stellen, was mit besagten APIs nur mit NV einen Effekt hat. :rolleyes:

dildo4u
2017-10-06, 21:13:45
PCGH hat noch weitere Karten mit Star Wars gebencht 1080 Ti,Fury X,Vega 56 etc.

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/

Lehdro
2017-10-06, 21:18:25
Aber schön weiter auf HQ stellen, was mit besagten APIs nur mit NV einen Effekt hat. :rolleyes:
Ist die Qualität denn vergleichbar unter DX12 mit NV @ HQ und AMD mit whatever da aktiv ist?

dargo
2017-10-06, 21:21:32
Thx. Ist jetzt die Frage, wie das gemeint ist. Bei Hawaii war sehr wohl noch Verbesserungspotenzial vorhanden, und das hatte niemand thematisiert.

Weil es außer aufkrawall niemanden auf dieser Welt interessiert.

Bezüglich HQ-AF Tests bei der PCGH... auch darauf hatte ich mehrmals hingewiesen. Praktisch niemand außer der PCGH testet mit HQ-AF. Dafür gibt es auch einen sehr guten Grund. Sowohl bei NV als auch AMD ist Default Q-AF. Und so wird es auch von den meisten Spielern verwendet.

Digidi
2017-10-06, 21:30:28
So hab gerade mal getetstet mit einem 1800X komme ich auch auf 300fps bei 720p.

Intteresant auch bei Low Details und 4k komme ich auf 105-110fps im schnitt. Vielleicht kann das mal jemand auf einer 1080ti überprüfen. Da wüsste man ob das Frontend ein Problem hätte oder nicht.

N0Thing
2017-10-06, 22:31:20
Weil es außer aufkrawall niemanden auf dieser Welt interessiert.

Bezüglich HQ-AF Tests bei der PCGH... auch darauf hatte ich mehrmals hingewiesen. Praktisch niemand außer der PCGH testet mit HQ-AF. Dafür gibt es auch einen sehr guten Grund. Sowohl bei NV als auch AMD ist Default Q-AF. Und so wird es auch von den meisten Spielern verwendet.

Doch, es interessiert auch noch andere. HQ-AF wird getestet, weil man da das beste AF und vor allem möglichst flimmerfrei bekommt. Benchmarks auf Standard haben uns damals das große Optimieren eingebrockt.
Und auch wenn die Unterschiede in der Geschwindigkeit zwischen Q und HQ nicht sehr groß sind, wäre es nicht mehr auf Augenhöhe, wenn für die Hersteller unterschiedliche Einstellungen verwendet werden.

Von daher verstehe ich es auch nicht so ganz, warum man nicht auf den angesprochenen Umstand eingeht, daß bei AMD das AF unter DX12 nicht die gleichen Einstellungen nutzt wie bei DX11.

Ex3cut3r
2017-10-06, 23:01:52
Doch, es interessiert auch noch andere. HQ-AF wird getestet, weil man da das beste AF und vor allem möglichst flimmerfrei bekommt. Benchmarks auf Standard haben uns damals das große Optimieren eingebrockt.
Und auch wenn die Unterschiede in der Geschwindigkeit zwischen Q und HQ nicht sehr groß sind, wäre es nicht mehr auf Augenhöhe, wenn für die Hersteller unterschiedliche Einstellungen verwendet werden.

Von daher verstehe ich es auch nicht so ganz, warum man nicht auf den angesprochenen Umstand eingeht, daß bei AMD das AF unter DX12 nicht die gleichen Einstellungen nutzt wie bei DX11.

Sehe ich auch so, und ehrlich gesagt, ist das erste was im Nvidia Treiber als erstes umstelle, gefolgt von Prerender Limit 1 und 16xAF Global.

Lehdro
2017-10-06, 23:40:08
Sehe ich auch so, und ehrlich gesagt, ist das erste was im Nvidia Treiber als erstes umstelle, gefolgt von Prerender Limit 1 und 16xAF Global.
Jup, hier genauso, die paar Prozente investiere ich gerne in die sichtbare Bildqualität. Mich stört jede Art von Textur-Bugwelle nämlich gewaltig....

Digidi
2017-10-06, 23:51:53
Es kommt ein Patch dann ist gut. Vorher lief es ja auch schon. So long... Wird Mal wieder ein Belangloses Thema ausgeschlachtet Stats Uber wesentliches zu diskutieren.

G3cko
2017-10-06, 23:59:20
PCGH hat noch weitere Karten mit Star Wars gebencht 1080 Ti,Fury X,Vega 56 etc.

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/


GTX970 nur 13% vor der 7970. Letztere 5% schneller als die doppelt so teure GTX780. Wenn man bedenkt, dass die Titan1 sogar 1Jahr und 3 Monate nach der 7970 für den doppelten Preis auf den Markt kam zum Schießen.

Wenn sich das wiederholt ist der Preis der Vega mehr als gerechtfertigt. Ich gebe AMD daher gerne eine weitere Chance nach dieser Top Karte.

N0Thing
2017-10-07, 01:02:10
Es kommt ein Patch dann ist gut. Vorher lief es ja auch schon. So long... Wird Mal wieder ein Belangloses Thema ausgeschlachtet Stats Uber wesentliches zu diskutieren.

Der AF-Bug wird sicherlich zeitnah gepatcht, das ist ja gar kein Problem.
Aber die Darstellung von Q-AF anstatt HQ-AF unter DX12 gibt es scheinbar schon lange und ist ein Nachteil für AMD-Nutzer und verfälscht die Benchmarks, weil nicht gleiche Qualität gegen gleiche Qualität getestet wird.

Achill
2017-10-07, 01:21:30
Der AF-Bug wird sicherlich zeitnah gepatcht, das ist ja gar kein Problem.
Aber die Darstellung von Q-AF anstatt HQ-AF unter DX12 gibt es scheinbar schon lange und ist ein Nachteil für AMD-Nutzer und verfälscht die Benchmarks, weil nicht gleiche Qualität gegen gleiche Qualität getestet wird.

Was evtl. erst einmal in einen Artikel zu betrachten ist. Bisher ist mir nicht bekannt, dass dies schon einmal gemacht wurde.

=Floi=
2017-10-07, 01:45:38
Sehe ich auch so, und ehrlich gesagt, ist das erste was im Nvidia Treiber als erstes umstelle, gefolgt von Prerender Limit 1 und 16xAF Global.

So mache ich es auch!
Bei mir hat das auch vorrang und ich kann auch nicht verstehen, wie gerade die konsolenspieler hier so viele abstriche machen.




Wenn sich das wiederholt ist der Preis der Vega mehr als gerechtfertigt. Ich gebe AMD daher gerne eine weitere Chance nach dieser Top Karte.

wenn der HORN® Treiber kommt?
NV hat massiv in die architektur investiert. Die 1080ti ist auch noch ein ganz anderes kaliber.
Und selbst wenn, interessiert es keinen mehr nach 4 jahren. wenn es blöd läuft hat vega das gleiche problem wie fiji. nach dem kräht auch kein hahn mehr...

dargo
2017-10-07, 08:11:54
Aber die Darstellung von Q-AF anstatt HQ-AF unter DX12 gibt es scheinbar schon lange und ist ein Nachteil für AMD-Nutzer und verfälscht die Benchmarks, weil nicht gleiche Qualität gegen gleiche Qualität getestet wird.
Es wird in 99,x% der Benchmarks mit gleicher Qualität getestet, nämlich mit Q-AF. :rolleyes: Oder ist PCGH plötzlich der Nabel der Welt? Komischerweise hat das vorher niemanden gestört als die Radeons in Benchmarks bei der PCGH im Nachteil waren weil HQ-AF eben auf Radeons teuerer als bei NV ist. Jetzt wird ein Fass aufgemacht.

GTX970 nur 13% vor der 7970. Letztere 5% schneller als die doppelt so teure GTX780. Wenn man bedenkt, dass die Titan1 sogar 1Jahr und 3 Monate nach der 7970 für den doppelten Preis auf den Markt kam zum Schießen.

Wenn sich das wiederholt ist der Preis der Vega mehr als gerechtfertigt. Ich gebe AMD daher gerne eine weitere Chance nach dieser Top Karte.
Jepp, ist mir auch schon aufgefallen. Und das alles immer noch unter DX11. Wenn zukünftig alle Features wie Async Compute, Shader Instrisics, FP16 und primitive Shader bei Vega genutzt werden werden wir exakt das gleiche Verhalten bei Vega vs. Pascal sehen.

=Floi=
2017-10-07, 08:35:06
Wenn zukünftig alle Features wie Async Compute, Shader Instrisics, FP16 und primitive Shader bei Vega genutzt werden werden


warum sollten das die entwickler machen? Das blöde ist, dass das einfach per hand in das spiel programmiert werden muss.

dargo
2017-10-07, 08:38:26
warum sollten das die entwickler machen? Das blöde ist, dass das einfach per hand in das spiel programmiert werden muss.
Um Nvidia einen auszuwischen. :P Manche können echt Fragen stellen. :rolleyes: Frage mal Bethesda warum sie das tun. 2018 kannst du auch Ubisoft fragen warum sie in Farcry 5 FP16 implementieren. Warum haben wir heute in einer PC-Umgebung DX11 als Mindestvoraussetzung? Wir hätten auch noch bei DX7 bleiben können. Wer braucht schon Fortschritt? :rolleyes:

akuji13
2017-10-07, 09:23:24
Es wird in 99,x% der Benchmarks mit gleicher Qualität getestet, nämlich mit Q-AF. :rolleyes: Oder ist PCGH plötzlich der Nabel der Welt? Komischerweise hat das vorher niemanden gestört als die Radeons in Benchmarks bei der PCGH im Nachteil waren weil HQ-AF eben auf Radeons teuerer als bei NV ist. Jetzt wird ein Fass aufgemacht.

Zumindest macht die PCGH das was andere scheinbar nicht hinkriegen:
Nämlich mit maximaler Bildqualität testen.

Und das war, ist und bleibt richtig.

Sonst können wir auch wieder wie früher auf AF 4x runtergehen oder nur noch in 1080p benchen weil die AMDs in UHD ihre Stärken ausspielen.
Die Masse spielt doch eh in 1080p und ohne AA um dein Argument von vorher aufzugreifen. ;)

dargo
2017-10-07, 09:27:47
Wer bestimmt was richtig ist? Du? :tongue:

Sowohl Nvidia als auch AMD verwenden im Treiber schon immer per Default Q-AF!

yamamoto_dc
2017-10-07, 09:36:45
Um Nvidia einen auszuwischen. :P Manche können echt Fragen stellen. :rolleyes: Frage mal Bethesda warum sie das tun. 2018 kannst du auch Ubisoft fragen warum sie in Farcry 5 FP16 implementieren. Warum haben wir heute in einer PC-Umgebung DX11 als Mindestvoraussetzung? Wir hätten auch noch bei DX7 bleiben können. Wer braucht schon Fortschritt? :rolleyes:

AMD hat dazu mit Bethesda ja auch ein Abkommen getroffen. Wie bindend dies ist und wie weit die Optimierungen dann gehen werden, wird die Zukunft zeigen. Besteht eigentlich die Chance auf eine Fallout 4 VR-Edition mit entsprechenden Vega-Features? :confused:

akuji13
2017-10-07, 09:42:16
Wer bestimmt was richtig ist? Du? :tongue:

Richtig. ;)

Ich als Anwender bestimme für mich welche Bildqualität die richtige ist.

Bei benchmarks geht es um das Ausloten von Grenzen und Aufzeigen von Schwächen.
Dabei spielt es keine Rolle das Q-AF von beiden ab Werk eingestellt ist.

Würden sie 4:1 AF vorgeben würdest du das sicher auch nicht so lassen.

dargo
2017-10-07, 09:48:59
Ich als Anwender bestimme für mich welche Bildqualität die richtige ist.

Siehst du... das selbe mache ich auch. Und ich habe noch nie HQ-AF genutzt, weder mit NV noch AMD. Ergo schaue ich auch bei DX11 keine Benchmarks bei der PCGH.

Besteht eigentlich die Chance auf eine Fallout 4 VR-Edition mit entsprechenden Vega-Features? :confused:
Ich glaube da erwartest du zu viel bei den alten Engines. Fallout 5 wird garantiert Vega Features verwenden. Wie so ziemlich alles was jetzt neu von Bethesda kommt.

N0Thing
2017-10-07, 09:49:29
Es wird in 99,x% der Benchmarks mit gleicher Qualität getestet, nämlich mit Q-AF. :rolleyes: Oder ist PCGH plötzlich der Nabel der Welt? Komischerweise hat das vorher niemanden gestört als die Radeons in Benchmarks bei der PCGH im Nachteil waren weil HQ-AF eben auf Radeons teuerer als bei NV ist. Jetzt wird ein Fass aufgemacht.

Mich interessiert nicht was 99% machen, mich interessiert was meiner Meinung nach richtig ist. Und das ist zum einen eine saubere Darstellung und zum anderen gleiche Voraussetzungen bei den Benchmarks. Natürlich stört es mich nicht, daß HQ-AF bei einem Hersteller mehr kostet, das war früher bei den AA-Modi auch nicht anders und ist auch gar nicht das Thema. Da ist eben die eigene Hirnleistung gefragt, um die Ergebnisse für die eigenen Anforderungen richtig einzuschätzen oder einfach nur auf die Ergebnisse zu gucken, die einen interessieren.

Warum du ein Fan davon bist, nur Q-AF unter DX12 nutzen zu können, verstehe ich beim besten Willen nicht. Wenn es dir ausreicht, schön und gut. Mir und scheinbar auch einigen anderen reicht es nicht und mich interessiert zudem, warum dies überhaupt so ist und ob es wirklich in allen Anwendungen auftritt.

dargo
2017-10-07, 10:02:00
Mich interessiert nicht was 99% machen, mich interessiert was meiner Meinung nach richtig ist.
Dagegen sprich auch nichts. Was mich dabei stört ist diese pauschale Meinung mancher hier HQ-AF wäre das einzig richtige, nur weil es in das eigene Nutzerprofil passt. Selbst die IHVs sehen das anders. Ansonsten hätten sie HQ-AF als Default im Treiber hinterlegt.

yamamoto_dc
2017-10-07, 10:38:42
Siehst du... das selbe mache ich auch. Und ich habe noch nie HQ-AF genutzt, weder mit NV noch AMD. Ergo schaue ich auch bei DX11 keine Benchmarks bei der PCGH.


Ich glaube da erwartest du zu viel bei den alten Engines. Fallout 5 wird garantiert Vega Features verwenden. Wie so ziemlich alles was jetzt neu von Bethesda kommt.


Schon klar, so eine VR-Version müssten dann natürlich ein Remaster mit neuer Engine sein. Aber ich bin bei dir, die Wahrscheinlichkeit dafür ist wohl eher gering.

G3cko
2017-10-07, 10:44:50
Und selbst wenn, interessiert es keinen mehr nach 4 jahren. wenn es blöd läuft hat vega das gleiche problem wie fiji. nach dem kräht auch kein hahn mehr...

Mich interessiert das sehr wohl. Nur damit wir auf dem gleichen Stand sind. Maxed Out in FullHD schafft die 7970 noch 85fps in einem der optisch besten Titel aktuell! Die Karte ist von Ende 2011. Nicht nur CPUs werden immer länger genutzt, auch Grafikkarten.

Hätte die Vega kein HBCC wäre die Karte für mich auch weniger interessant. Einwichtiges Feature für die Langzeitnutzung.

dargo
2017-10-07, 10:48:01
Unser Floi vergisst wohl gerne, dass Vega mit Fiji überhaupt nicht vergleichbar ist. Erstens hatte Fiji kein HBCC. Zweitens hatte Fiji keinen kleineren Ableger für das Performancesegment wie Vega mit V11.

dildo4u
2017-10-07, 10:53:01
Das Vega ein kleiner Sprung ist doch klar,Fury X war schon bei 8 Tflops,sieht man auch schön in den Star Wars Benches.Wieder nur 30%+ obwohl die Engine AMD sehr gut liegt,von der Cusom 980 Ti zur Custom 1080 Ti sind es 70%.

Achill
2017-10-07, 11:33:43
Jetzt nochmal ein ernsthafter Aufruf eine Quelle zu liefern! Wo wird gezeigt, dass AF unter DX12 'schlechter' ist als AF unter DX11 mit HQ Settings?

Ich habe bisher nix dazu im Netz gelesen sondern es wird nur hier im Forum als Argument gebracht. Also bitte Quelle oder diese Argument nicht mehr als Fakt darstellen.

dargo
2017-10-07, 12:05:10
Das Vega ein kleiner Sprung ist doch klar,Fury X war schon bei 8 Tflops,sieht man auch schön in den Star Wars Benches.Wieder nur 30%+ obwohl die Engine AMD sehr gut liegt,von der Cusom 980 Ti zur Custom 1080 Ti sind es 70%.
Welche Wunder hast du hier bei 34% mehr TFLOPs der getesteten Vega64 bei einer High Level API gegenüber der Fury X erwartet? Und dann noch bei einer Beta Software? :freak: Es gibt noch nicht mal einen offiziellen Treiber für die Beta von Battlefront 2.

N0Thing
2017-10-07, 12:12:46
Jetzt nochmal ein ernsthafter Aufruf eine Quelle zu liefern! Wo wird gezeigt, dass AF unter DX12 'schlechter' ist als AF unter DX11 mit HQ Settings?

Ich habe bisher nix dazu im Netz gelesen sondern es wird nur hier im Forum als Argument gebracht. Also bitte Quelle oder diese Argument nicht mehr als Fakt darstellen.

Die Quelle, die ich kenne, heißt aufkrawall. Aber man sollte das ja auch selber nachstellen können. Ich versuche nächste Woche Stellen in DX12-Spielen zu finden, die sich für einen Vergleich anbieten und schaue dann mal, was dabei herum kommt.

TGKlaus
2017-10-07, 14:49:53
Die Quelle, die ich kenne, heißt aufkrawall.

Soll das ein Witz sein???

Für so einen Quatsch sollte man euch beide auf ignore setzte.

Iruwen
2017-10-07, 16:33:11
Man sollte einfach jeden sperren der tatsächlich Karten besitzt und auch testet. Kann man sich aber auch sparen weil die Hälfte der Leute mit Ahnung sich den Müll hier eh nicht allzu lange geben.

aufkrawall
2017-10-07, 16:34:34
Jetzt nochmal ein ernsthafter Aufruf eine Quelle zu liefern! Wo wird gezeigt, dass AF unter DX12 'schlechter' ist als AF unter DX11 mit HQ Settings?

Ich habe bisher nix dazu im Netz gelesen sondern es wird nur hier im Forum als Argument gebracht. Also bitte Quelle oder diese Argument nicht mehr als Fakt darstellen.
In Forza Apex flimmert der Asphalt sichtbar, mit NV HQ nicht.

hmmm
2017-10-07, 17:48:23
In Forza Apex flimmert der Asphalt sichtbar, mit NV HQ nicht.
Das ist doch schon länger Geschichte, oder nicht? Hast du dazu ein AKTUELLES Video?

Grundsätzlich hat es bei AMD und Nvidia leicht geflimmert, lag aber an der Spieleversion und konnte bei Nvidia etwas abgemilderte werden (erzwungen).

=Floi=
2017-10-07, 19:16:16
Um Nvidia einen auszuwischen. :P Manche können echt Fragen stellen. :rolleyes: Frage mal Bethesda warum sie das tun. 2018 kannst du auch Ubisoft fragen warum sie in Farcry 5 FP16 implementieren. Warum haben wir heute in einer PC-Umgebung DX11 als Mindestvoraussetzung? Wir hätten auch noch bei DX7 bleiben können. Wer braucht schon Fortschritt? :rolleyes:

Du kapierst es einfach nicht. Eine DX11 optimierung kommt auch einer 290X oder einer INTEL IGP zugute und das game wird auch auf der übernächsten NV noch super laufen und eventuell gut performen. (wenn man hier von einer NV low end gpu ausgeht.)


Eure custom renderpath geschichte kostet einen haufen geld und bringt für 5 leute was. Bei der verbreitung steckt da keiner geld rein und man ist immer auf die entwickler angewiesen. Das geht so schnell wie mantle unter, wenn es die anderen nicht unterstützen.

dargo
2017-10-07, 19:21:29
Ich frage mich manchmal in welchem Universum du lebst? ;D

Nochmal extra für dich... der Umstieg auf low level ist für jeden AAA Titel unausweichlich! Wenns für den Titel X bereits zu spät war wirds beim nächsten Titel mit einer moderneren Engine garantiert passieren. Dass dieser Prozess schleichend ist ist völlig normal. Ein Spiel entwickelt man nicht von heute auf morgen.

aufkrawall
2017-10-07, 19:26:54
Das ist doch schon länger Geschichte, oder nicht? Hast du dazu ein AKTUELLES Video?

Wieso sollte das Geschichte für Hawaii sein? Wüsste nicht, dass sich für die GPU etwas im Treiber dahingehend geändert hätte. Erwähnt wurde jedenfalls nichts.
Kann nur für Hawaii sprechen, hatte keine neuere GCN-GPU.


Grundsätzlich hat es bei AMD und Nvidia leicht geflimmert, lag aber an der Spieleversion und konnte bei Nvidia etwas abgemilderte werden (erzwungen).
Wüsste nicht, dass es in dem Spiel jemals ein herstellerübergreifendes Problem mit der Texturfilterung gegeben hätte. Und was soll mit Nvidia "erzwungen" worden sein?
Da ist nichts mit Nvidia "gelindert", die Texturen werden einfach sauber gefiltert und fertig. Dass das Spiel nicht für alle Texturen 16xAF nutzt, ist wieder ein anderes Thema. Hat 0 mit Flimmern zu tun.

hmmm
2017-10-07, 19:31:41
... Das geht so schnell wie mantle unter, wenn es die anderen nicht unterstützen.
Ahh wie Mantle? Naja, dann wird sich ja nur der Name ändern. ;)

Aber mal ernst:

Heute: Warum sollte man zb FP16 nutzen wenn FP32 genau so schnell ist?

Morgen: Warum sollte man FP16 nicht nutzen,zumindest da wo es geht, wenn es doppelt so schnell ist?

Rapid Packed Math wird sich durchsetzen, Nvidia wird da nicht stillhalten können.

Wieso sollte das Geschichte für Hawaii sein? Wüsste nicht, dass sich für die GPU etwas im Treiber dahingehend geändert hätte. Erwähnt wurde jedenfalls nichts.
Kann nur für Hawaii sprechen, hatte keine neuere GCN-GPU.

Wüsste nicht, dass es in dem Spiel jemals ein herstellerübergreifendes Problem mit der Texturfilterung gegeben hätte. Und was soll mit Nvidia "erzwungen" worden sein?
Da ist nichts mit Nvidia "gelindert", die Texturen werden einfach sauber gefiltert und fertig. Dass das Spiel nicht für alle Texturen 16xAF nutzt, ist wieder ein anderes Thema. Hat 0 mit Flimmern zu tun.

Genau bei dem Spiel habe ich das anders in Erinnerung, ich schau mal nach.
Aber gibt es noch andere beispiele? Hat sich so angehört als würden es nahezu alle DX12 Titel betreffen.

gravitationsfeld
2017-10-07, 20:59:40
FP16 ist weniger nuetzlich als ich noch vor ein paar Monaten geglaubt habe. Es ist extrem schwierig fuer einen Compiler es zu verwenden, weil Instruktionen immer beide Operanden im gleichen Register haben muessen und auch auf beiden die gleiche Operation ausgefuehrt werden muss.

Dazu kommt, dass vieles nur FP32 ist (loads/stores (!), sin, cos, etc.) und dann von FP16->FP32 und zurueck konvertiert werden muss, was wieder mehr Instruktionen und Register braucht. Und Registerdruck ist ein ziemliches Problem bei GPUs.

Es kann sein, dass zukuenftige GPUs FP16 effizienter unterstuetzen werden, im Moment sieht es so aus als haette man es vor allem fuer neuronale Netzwerke eingebaut, wo es trivial zu verwenden ist.

scully1234
2017-10-07, 21:20:17
FP16 ist weniger nuetzlich als ich noch vor ein paar Monaten geglaubt habe. Es ist extrem schwierig fuer einen Compiler es zu verwenden, weil Instruktionen immer beide Operanden im gleichen Register haben muessen und auch auf beiden die gleiche Operation ausgefuehrt werden muss.


Und wie sieht es abseits des Renderns mit Physik /Partikeleffekten aus?

Ist da der Einsatzzweck mehr erfolgversprechend vielleicht?

aufkrawall
2017-10-07, 22:05:20
Aber gibt es noch andere beispiele? Hat sich so angehört als würden es nahezu alle DX12 Titel betreffen.
Die Anwendung dürfte auch mit den LL-APIs auf dem PC nicht bestimmten, wie die Texturfilterung der Hardware im Detail arbeitet. Wenn abseits des AV-Levels nur eine Filterqualität zur Verfügung steht, trifft das logischerweise auf jedes Spiel zu. Die Frage ist nur, ob mans merkt. In Apex habe ich es gemerkt, in anderen Spielen nicht.
Ist aber anzunehmen, dass das etwa in jedem Rennspiel mit ähnlichen Texturen und planaren Flächen auffallen kann, wenn man drauf sensibilisiert ist.

dargo
2017-10-07, 22:20:45
FP16 ist weniger nuetzlich als ich noch vor ein paar Monaten geglaubt habe.
Jetzt müssten wir nur wissen was du vor paar Monaten geglaubt hast und was du jetzt mit "weniger" meinst? :D Gibts da was greifbares wie Zahlen?

Digidi
2017-10-08, 00:48:50
So ich hab mal noch mehr getestet. Wenn ich bei 4k alles auf Low stelle und ich dann Mesh Quality, Terrainquality und Terrain Cover Quality auf Ultra stelle verliere ich gerade mal 10% der FPS. Bei 4k drop ich von 105fps auf 95fps

Das gleiche Gilt auch für 10k. Hier hab ich mir den worst case herausgesucht und hier drop ich von 56fps auf 49-50fps.

Es sei noch hinzugesagt das die 3 Settings hautsächlich die Polygonenanzahl, das LOD und die Tesselation steuern. Also alles was mit den Polygonenoutput zu tun hat.

Hübie
2017-10-08, 01:08:45
Von welchem Spiel redest du? :D

Digidi
2017-10-08, 01:10:09
Von welchem Spiel redest du? :D
Battlefront 2. Steht ja da hab noch mehr getestet. Einfach den letzten Beitrag dazu anschauen :D

gedi
2017-10-08, 01:20:25
Die Anwendung dürfte auch mit den LL-APIs auf dem PC nicht bestimmten, wie die Texturfilterung der Hardware im Detail arbeitet. Wenn abseits des AV-Levels nur eine Filterqualität zur Verfügung steht, trifft das logischerweise auf jedes Spiel zu. Die Frage ist nur, ob mans merkt. In Apex habe ich es gemerkt, in anderen Spielen nicht.
Ist aber anzunehmen, dass das etwa in jedem Rennspiel mit ähnlichen Texturen und planaren Flächen auffallen kann, wenn man drauf sensibilisiert ist.

Könnte es sein, dass es lediglich am aggressiveren LOD liegt (z.B. -1.5 um die Texturen "scharf "zu stellen - ähm, ich hoffe du weißt wie ich es meine) :confused:

Hübie
2017-10-08, 01:20:48
Das muss wohl ein paar Seiten her sein. Ich blättere immer nur drei zurück. ^^ Aber jetzt ist mir der Zusammenhang klar.

@gedi: Afaik steuert der Treiber bei den LL-APIs keinen LOD-Bias mehr bzw. kann das nicht mehr.

dargo
2017-10-08, 09:26:25
Ich habe gerade dieses Video hier mit Forza 7 entdeckt.

d4ud4hCdjcU

Wie kommt eigentlich Computerbase bei den 99th Percentile (Frametimes in FPS) mit Vega64 auf nur 76,3fps? Was haben die da getestet? :|

Die Vega FE ist zwar dank UV auf 1,6Ghz festgetackert, aber das kann niemals den riesen Unterschied erklären. Als CPU kam ein R7 1700X @3,85Ghz mit DDR4-3200 CL16 zum Einsatz. Im Video liefert die Karte 136-203fps in 1080p, max. Details und 8xMSAA! Ersteres im großen Gedrängel nach dem Start. Das ist schon Wahnsinn wie hoch die Frameraten sind. :eek: Zumal das Spiel nicht gerade mit starken Multithreading glänzt.

hmmm
2017-10-08, 09:45:29
Es kann sein, dass zukuenftige GPUs FP16 effizienter unterstuetzen werden, im Moment sieht es so aus als haette man es vor allem fuer neuronale Netzwerke eingebaut, wo es trivial zu verwenden ist.

TressFX, volume lighting, Checkerboard-Rendering ,...

Im Moment lässt sich Nvidia die schnellere FP16 Berechnung teuer bezahlen und behauptet deswegen, es sei ein "pro" Feature. Sorry, aber das ist Nvidia verkaufs slang.

Und Registerdruck ist ein ziemliches Problem bei GPUs.
Die Rechnung ob FP16 oder FP32 muss nachher natürlich auch aufgehen, aber gerade bei den Register sehe ich vorteile für FP16, es passen 2 rein. ;)

robbitop
2017-10-08, 11:14:29
Na wenn von f16 auf fp32 hin und her konvertiert werden muss ist doch der Registerplatzvorteil dahin.
Ist die FP16 Implementierung bei AMD (vega) und NV (P100, X1) in Bezug auf die von Gravitationsfeld beschriebenen Restriktionen deutlich unterschiedlich?

MadCat
2017-10-08, 11:32:53
Mal was zu Frameraten:

Bei Sniper Elite 4 im Bootvorgang in den 2D-Screens (?) erreicht die VEGA 64 bei mir weit über 2000FPS in 4K - und die Spulen sind am Schreien wie sau ^^

Hab jetzt mal ein Framelimit von 140Hz gesetzt, damit das nicht so fiept beim Start.

dargo
2017-10-08, 11:36:24
Das ist schon seit ner Ewigkeit normal bei Grakas. Ich finds eher erschreckend, dass viele Entwickler immer noch die Menüs nicht auf bsw. 200fps begrenzen. So langsam müsste das mal jeder begreifen.

AffenJack
2017-10-08, 12:33:25
TressFX, volume lighting, Checkerboard-Rendering ,...

Im Moment lässt sich Nvidia die schnellere FP16 Berechnung teuer bezahlen und behauptet deswegen, es sei ein "pro" Feature. Sorry, aber das ist Nvidia verkaufs slang.


Die Rechnung ob FP16 oder FP32 muss nachher natürlich auch aufgehen, aber gerade bei den Register sehe ich vorteile für FP16, es passen 2 rein. ;)

Gravitationsfeld hat immerhin schon mit FP16 programmiert, also dürfte er wissen wovon er redet und TressFX und CB sind nun ziemlich spezielle Anwendungsfälle. Wenn man vorher gehofft hat, generell deutlich mehr damit zu machen, ist das dann eben enttäuschend.

Register hat ja robbitop schon angesprochen.

dargo
2017-10-08, 12:47:37
Gravitationsfeld hat immerhin schon mit FP16 programmiert, also dürfte er wissen wovon er redet und TressFX und CB sind nun ziemlich spezielle Anwendungsfälle. Wenn man vorher gehofft hat, generell deutlich mehr damit zu machen, ist das dann eben enttäuschend.

Nun mal langsam. Das sind die ersten "Gehversuche". Eventuell gibts da Parallelen zu Async Compute. Bei Spielen nach Doom wollte man sich damit auch intensiver beschäftigen.

Digidi
2017-10-08, 13:31:32
FP16 ist weniger nuetzlich als ich noch vor ein paar Monaten geglaubt habe. Es ist extrem schwierig fuer einen Compiler es zu verwenden, weil Instruktionen immer beide Operanden im gleichen Register haben muessen und auch auf beiden die gleiche Operation ausgefuehrt werden muss.


Verstehe ich das richtig dass der Compiler angepasst werden muss, dass dies richtig funktioniert?

BeetleatWar1977
2017-10-08, 14:21:13
FP16 ist weniger nuetzlich als ich noch vor ein paar Monaten geglaubt habe. Es ist extrem schwierig fuer einen Compiler es zu verwenden, weil Instruktionen immer beide Operanden im gleichen Register haben muessen und auch auf beiden die gleiche Operation ausgefuehrt werden muss.

Dazu kommt, dass vieles nur FP32 ist (loads/stores (!), sin, cos, etc.) und dann von FP16->FP32 und zurueck konvertiert werden muss, was wieder mehr Instruktionen und Register braucht. Und Registerdruck ist ein ziemliches Problem bei GPUs.

Es kann sein, dass zukuenftige GPUs FP16 effizienter unterstuetzen werden, im Moment sieht es so aus als haette man es vor allem fuer neuronale Netzwerke eingebaut, wo es trivial zu verwenden ist.
Verstehe ich das richtig dass der Compiler angepasst werden muss, dass dies richtig funktioniert?
Jup - bei LLVM zB ist das schon im Frühjahr passiert^^

dildo4u
2017-10-08, 16:27:03
Ich habe gerade dieses Video hier mit Forza 7 entdeckt.

http://youtu.be/d4ud4hCdjcU

Wie kommt eigentlich Computerbase bei den 99th Percentile (Frametimes in FPS) mit Vega64 auf nur 76,3fps? Was haben die da getestet? :|

Die Vega FE ist zwar dank UV auf 1,6Ghz festgetackert, aber das kann niemals den riesen Unterschied erklären. Als CPU kam ein R7 1700X @3,85Ghz mit DDR4-3200 CL16 zum Einsatz. Im Video liefert die Karte 136-203fps in 1080p, max. Details und 8xMSAA! Ersteres im großen Gedrängel nach dem Start. Das ist schon Wahnsinn wie hoch die Frameraten sind. :eek: Zumal das Spiel nicht gerade mit starken Multithreading glänzt.
Die höste GPU und CPU Last wird man im Regen haben,leider benchen fast alle in 4k schwer zu sagen was dort im CPU Limit passiert.

dargo
2017-10-08, 17:33:34
Wo ist da wieder der Zusammenhang zu meiner Frage?
Die Benchmark-Szene im Detail

ComputerBase hat nicht den integrierten Benchmark von Forza 7 genutzt. Es kann nie ausgeschlossen werden, dass Treiber darauf speziell optimiert worden sind. Stattdessen bestand die Testsequenz aus einer 25 Sekunden langen Fahrt hinter dem 23 Auto starken KI-Feld auf der Rennstrecke Suzuka bei schönem Wetter. Die Testszene gehört zu den anspruchsvolleren Sequenzen des Spiels.
https://www.computerbase.de/2017-09/forza-7-benchmark/2/

gravitationsfeld
2017-10-08, 17:37:06
Na wenn von f16 auf fp32 hin und her konvertiert werden muss ist doch der Registerplatzvorteil dahin.
Ist die FP16 Implementierung bei AMD (vega) und NV (P100, X1) in Bezug auf die von Gravitationsfeld beschriebenen Restriktionen deutlich unterschiedlich?
Nein. Nicht das ich wuesste. Es ist SIMD2 mit allen Problemen.

gedi
2017-10-08, 19:23:55
Die höste GPU und CPU Last wird man im Regen haben,leider benchen fast alle in 4k schwer zu sagen was dort im CPU Limit passiert.


Regen ist in Forza 7 im Vergleich zu PC2, obwohl es imo um Längen besser aussieht, relativ günstig. Die meiste Leistung verliert man, wenn man einem relativ großen Feld unmittelbar hinterher fährt (so z.B. bei einem verkackten Start).

horn 12
2017-10-09, 19:46:16
Die Liefersituation bei Vega 64 ist extrem
Alle Referenz Modelle nun in Masse Lieferbar und keiner so wie es scheint, Zumindest in Italien will sie haben!
Massenhaft lieferbar, derzeit 135 Eintragungen bei unserem "Geizhals"
Oftmals gar um Einiges Billiger als in Deutschland und dennoch die Vega 64/ Vega 56 nicht absetzbar...

Ob AMD an den Karten hängenbleiben wird... und den Preis gar nicht senken will,- oder gar kann ...

Grendizer
2017-10-09, 19:53:47
Bei Computerbase gibt es Neuigkeiten zu Forza 7.

https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-3840-2160

RoughNeck
2017-10-09, 20:04:28
@horn

Ist dir wirklich so langweilig dass du ständig die Liefersituation verfolgst?

horn 12
2017-10-09, 20:11:42
Nope, habe ja bereits eine Limited Edition.
Schaue nur was sich am Preis tud, und da sieht man derzeit gewaltig wenig.
Bin schon wieder weg... Zu Sniper Elite 4

DrFreaK666
2017-10-09, 20:35:21
Bei Computerbase gibt es Neuigkeiten zu Forza 7.

https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-3840-2160

Oh. Wusste nicht dass das der Forza-Thread ist...

hq-hq
2017-10-09, 20:44:37
Oh. Wusste nicht dass das der Forza-Thread ist...

jetzt ist der Punkt mit dem neuen Treiber wohl abgehakt :freak: :biggrin:

frühers sind AMD Grakas mit steigender Auflösung stärker geworden (zur Konkurrenz), jetzt braucht es ein CPU Limit um aufzutrumpfen....

Menace
2017-10-09, 21:01:14
Bei Computerbase gibt es Neuigkeiten zu Forza 7.

https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-3840-2160

Stimmt, bei Vega haben sich die Werte komplett geändert.... Nicht. Nvidia-Marketing im AMD-Thread; again.

Grendizer
2017-10-09, 21:03:12
Stimmt, bei Vega haben sich die Werte komplett geändert.... Nicht. Nvidia-Marketing im AMD-Thread; again.

Nur Relativierung der DX12 Überlegenheit der Vega 56/64.

Kartenlehrling
2017-10-09, 21:05:50
@Menace
Ich musste nur über @Grendizer lachen, wegen Dir hat er nun seine Aufmerksamkeit.

Blediator16
2017-10-09, 21:16:32
Nur Relativierung der DX12 Überlegenheit der Vega 56/64.

Da wäre ein BQ Vergleich angebracht :freak:

Grendizer
2017-10-09, 21:18:17
Da wäre ein BQ Vergleich angebracht :freak:


Du meinst wegen AF Bug der Vega :rolleyes:

scully1234
2017-10-09, 21:31:41
Stimmt, bei Vega haben sich die Werte komplett geändert.... Nicht. Nvidia-Marketing im AMD-Thread; again.


gehts da nicht um das Spiel, das hier das Thema Nr 1 war in den letzten Wochen, in genau diesem Thread

pilzsammler2002
2017-10-09, 21:44:44
gehts da nicht um das Spiel, das hier das Thema Nr 1 war in den letzten Wochen, in genau diesem Thread

Ja aber moment... Nvidia sagt doch zu CB das alles i.O. war... :freak:

scully1234
2017-10-09, 21:47:00
und?

deshalb darf das Treiberteam doch trotzdem tun was es immer tut, selbst wenn solch ein Konsolentitel erstmal etwas Vorlauf hat auf AMD Hardware

DrFreaK666
2017-10-09, 21:52:30
Wieso wird das nicht in einem der vielen NV-GPU-Threads erwähnt?? Wollen nur Vega-User wissen dass Nvidia aufgeholt hat??

Blediator16
2017-10-09, 22:59:52
Du meinst wegen AF Bug der Vega :rolleyes:

Gibts da etwa ein Problem? Haste mal was dazu?

Digidi
2017-10-09, 23:08:55
Ein paar Dinge die ich jetzt in Forza 7 testen konnte:
Bei Low Details in 4k komme ich auf ca. 180fps bei 100% Auflösung. Bei 200% Auflösung hab ich 80fps.
Was auch mehr als interessant ist: Partiekeleffekte Autodetails Partieklauflösung und Prozeduale auf höchsten Wert gestellt ,
Bei 100% Auflösung hab ich hier 10FPS Verlust und 200% Auflösung nur 1 FPS verlust.

hq-hq
2017-10-09, 23:11:19
Gibts da etwa ein Problem? Haste mal was dazu?

ein kleines temporäres Problemchen solls da geben:

http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/

Blediator16
2017-10-09, 23:55:40
ein kleines temporäres Problemchen solls da geben:

http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/

Ist die Leistung dadurch höher? Und betrifft das auch Forza, um das es gerade geht?

Megamember
2017-10-10, 00:50:54
Ist die Leistung dadurch höher? Und betrifft das auch Forza, um das es gerade geht?

Wenns ein generelles Problem ist betrifft es natürlich auch Forza und nein, Einfluss auf die Performance hats angeblich nicht, steht aber alles im Text.

Screemer
2017-10-10, 00:54:39
Ist die Leistung dadurch höher? Und betrifft das auch Forza, um das es gerade geht?
nein.

In unserer Stichprobe mit dem Hexer Geralt läuft die Radeon Software nicht besser als die fehlerfrei filternde Version 17.9.1 - im Gegenteil, der "alte" Treiber erzielt sogar etwas bessere Bildraten.

warum empfinde ich das bild mit dem "fehlerhaften" 17.9.3 (http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=141524) crisper und detailreicher?

gravitationsfeld
2017-10-10, 06:23:22
Flimmern kannst du auf Standbildern nicht sehen.

M4xw0lf
2017-10-10, 07:37:52
Plopp, da war er dahin, der Vega-Vorzeigetitel.

24p
2017-10-10, 07:50:57
nein.



warum empfinde ich das bild mit dem "fehlerhaften" 17.9.3 (http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=141524) crisper und detailreicher?


Faustregel: Was auf den Screenshots scheinbar schön scharf ist, flimmert in Bewegung deutlich sichtbar.

Steht da doch alles.

dargo
2017-10-10, 09:23:55
Plopp, da war er dahin, der Vega-Vorzeigetitel.
Bei Computerbase gibt es Neuigkeiten zu Forza 7.

https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-3840-2160
jetzt ist der Punkt mit dem neuen Treiber wohl abgehakt :freak: :biggrin:

frühers sind AMD Grakas mit steigender Auflösung stärker geworden (zur Konkurrenz), jetzt braucht es ein CPU Limit um aufzutrumpfen....


Eins muss man euch lassen... es wird immer wieder für Unterhaltung bei 3DC (besonders in AMD Threads) gesorgt. :popcorn: Ich frage mich wie man auf die Idee überhaupt kommt Forza 7 wäre ein Vega-Vorzeigetitel bei DX12 mit Feature Level 11 ohne AC, Shader Instrinsics und FP16? :facepalm: Primitive Shader lasse ich hier mit Absicht raus, noch etwas Zukunftsmusik. Ich hatte schon am 29.09 darauf hingewiesen, dass der NV-Treiber nicht unbedingt optimal läuft.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11505203&postcount=3137

Aber macht ruhig weiter so... ist besser wie Fernsehen. :uup:

PS: an Forza 7 sieht man wieder nur eins. Wieviel Wert ein Game Ready Treiber ist! Das gilt übrigens für beide Seiten. Denn viel zu oft werden Benchmarks direkt nach Release auf die Goldwaage gelegt. Am besten dann noch irgendwelchen Early Access verlinken. :facepalm: Lasst die Spiele und Treiber ca. ein halbes Jahr reifen dann sieht man erst die endgültige Optimierung seitens Applikation sowie Treiber. Manchmal dauert sowas noch länger.

Hübie
2017-10-10, 09:44:09
Ja bei AMD dauerts vielleicht n halbes Jahr X-D SCNR! Der Titel ist für XBOX, auf XBOX entwickelt - PC war dann eher das Nebenprodukt. Da liegt's nah dass es eher für GCN-Iterationen optimiert wurde als alles andere, oder? ;) Wie stark Treiber sind sieht man anhand von Kepler.
Denn der erfährt gar keine Optimierungen mehr und mit erscheinen von Volta wird es meine Maxwell ebenso treffen. Gefällt mir zwar nicht, aber ändern kann ich es auch nicht (direkt).

Mal in die Runde an Vega-Besitzer gefragt: Hat schon jemand eine V64LC mit liquid metal verarztet? Am We mach ich das mal mit meinem Bro und stelle dann auch Vorher-/Nachher-Vergleiche hier rein. Bin gespannt. Die Temps sind zwar weit weg von kritisch, aber offensichtlich spielt die eine große Rolle beim Boost.

dargo
2017-10-10, 09:52:30
Ja bei AMD dauerts vielleicht n halbes Jahr X-D SCNR!
Du hast schon mal besser getrollt. Was hatte bei AMD ein halbes Jahr bei Forza Horizon 3 gedauert? Die hohe CPU-Last lag an der Applikation. :rolleyes: Der Patch kam übrigens fast 8 Monate nach Spiel Release.

Bucklew
2017-10-10, 09:53:40
Ich frage mich wie man auf die Idee überhaupt kommt Forza 7 wäre ein Vega-Vorzeigetitel bei DX12 mit Feature Level 11 ohne AC, Shader Instrinsics und FP16?
Liegt wohl an den Aussagen deiner Kollegen:
Das nächste DX12-Spiel, wo Nvidia failed:
https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-1920-1080

Auch die Frametimes sind bei Nvidia deutlich schlechter.
Nun, langsam wird´s Lustig für NV

Jene wissen nur allzu gut dass Ihnen Vega 64/56 auf und davon läuft und bringen für 450 bis maximal wohl knapp unter 500 Euro die GTX 1070TI welche mit der RX56 mithalten soll und auch bei Ersterer wird die Speicherbandbreite erneut limitieren da GDDR5 verbaut
und auch dort in Zukubft wird die GTX 1070TI kein Land sehen. -----> Poor Volta eben! Weil sich jener massig verschieben wird.
Dazu dann noch die gezielte "Uminterpretierung" der NVIDIA-Aussage zu CB und ihren Benchmarkwerten von "eure Benchmarkwerte sind korrekt" hin zu "schneller werden wir nicht" usw. usf.

Wundert euch doch bitte nicht, dass es nach 10 Tagen, in denen hier von einigen Nutzern schon der Untergang von NVIDIA vorher gesehen wurde und Gift und Galle gespuckt wurde, jetzt ein paar hämische Kommentare kommen :rolleyes:

Widerspricht doch lieber den Kollegen da oben, damit erreichst du mehr, als jetzt die beleidige Leberwurst zu spielen.

dargo
2017-10-10, 09:57:14
Welche Kollegen? Wird man hier schon in eine Schublade gesteckt? Unglaublich... Ich habe nirgendwo die Meinung deiner zitierten "Kollegen" geteilt. Schon gar nicht von horn. :ulol:

Hübie
2017-10-10, 09:58:45
Du hast schon mal besser getrollt. Was hatte bei AMD ein halbes Jahr bei Forza Horizon 3 gedauert? Die hohe CPU-Last lag an der Applikation. :rolleyes: Der Patch kam übrigens fast 8 Monate nach Spiel Release.

Ach komm war doch eindeutig getr0lle im spaßigen Sinne. :smile: Nimm nicht alles so ernst.

Bucklew
2017-10-10, 10:07:06
Unglaublich... Ich habe nirgendwo die Meinung deiner zitierten "Kollegen" geteilt. Schon gar nicht von horn. :ulol:
Wenn also Forza7 zum Vorzeigetitel erkoren wird, hältst du still. Jetzt wo das widerlegt ist, kritisierst du die Leute, das anmerken. Zufälle gibts! :freak:

Screemer
2017-10-10, 10:07:28
Steht da doch alles.
Das kann für beide Screenshots gelten, deswegen die Frage. Ich sehe schlicht mehr Drtails auch im Nahbereich wo die filterprobleme eigentlich unerheblich sein sollten. Das es weiter hinten flimmern kann ist mir durchaus bewusst.

Rancor
2017-10-10, 10:19:34
Jetzt ist die GPU Welt wieder in Ordnung und ihr könnt euch alle lieb haben :comfort2:

Ich finds aber irgendwie doof. Ich hatte gehofft das VEGA in F7 so deutlich vor den Geforces bleibt... Konkurrenz belebt eben das Geschäft.

dargo
2017-10-10, 10:24:50
Wenn also Forza7 zum Vorzeigetitel erkoren wird, hältst du still. Jetzt wo das widerlegt ist, kritisierst du die Leute, das anmerken. Zufälle gibts! :freak:
Deine Leseschwäche ist mal wieder bezeichnend für die "Unruhe" im 3DC.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11505203&postcount=3137

Edit:
Wenn ich jetzt trollen würde hätte ich gesagt Vega56 ist in 1080p immer noch auf GTX1080 Niveau. Also immer noch keineswegs ein schlechtes Ergebnis ohne die ganzen Vega bzw. GCN Features.

Rancor
2017-10-10, 10:27:31
Hoffentlich kann VEGA in Wolfenstein 2 wirklich zeigen was es kann. Wenn das Performance-Rating da auch so bleibt, dann wäre das nicht gut.

Bucklew
2017-10-10, 10:30:10
Deine Leseschwäche ist mal wieder bezeichnend für die "Unruhe" im 3DC.
Welche Leseschwäche? Du hast keinem der zwei Postings, die ich verlinkte hatte, widersprochen.

Q.E.D. würde ich sagen. Bezeichnend für die "Unruhe" ist also nicht meine Leseschwäche, sondern dein spätes Aufregen. Dass du jetzt auch noch so einen billigen Stunt pullst - naja, sagt schon alles aus. :freak:

Sven77
2017-10-10, 10:30:45
Ja bei AMD dauerts vielleicht n halbes Jahr X-D SCNR

Länger, guter Wein muss bekanntlich reifen.

Dieser UWP Schrott ist doch sowieso kein Anhaltspunkt für irgendwelche Leistungsfähigkeit, siehe GoW4

24p
2017-10-10, 10:33:06
Ich lach' mich schlapp. Vor ein paar Tagen wurde hier Forza 7 also die Ankündigung des AMD Endsiegs durch (insert random abbraviation here, und "low lvl") gefeiert und dann passiert, was ich und andere damals schon gedacht haben. ;D
Das gleich Spiel wie vor der Vega FE Vorstellung (wird die Ti überholen), nach der FE Vorstellung (das ist nur die Profikarte) und nach der Vorstellung von Vega (der Teiber!11einself). Manche lernen es einfach nie und wundern sich dann, wenn sie nicht mehr ernst genommen werden.

BTW, dass UWP Spiele bei Release keinen guten Anhaltspunkt liefern schrieb ich auch vor ein paar Tagen. Wurde nur wieder mal niedergrbrüllt. ;)

dargo
2017-10-10, 10:33:10
Welche Leseschwäche? Du hast keinem der zwei Postings, die ich verlinkte hatte, widersprochen.

Wo steht, dass ich jeden Bullshit kommentieren muss? Und dann noch von horn? Ist das dein ernst? ;D Manche haben echt Probleme.

Edit:
Am besten wäre es wenn AMD in paar Wochen einen neuen Treiber bringt der GCN um ~20% in Forza 7 beschleunigt. Dann geht das Casperltheater hier wieder von vorne los. :popcorn:

Bucklew
2017-10-10, 10:36:23
Wo steht, dass ich jeden Bullshit kommentieren muss? Und dann noch von horn? Ist das dein ernst? ;D Manche haben echt Probleme.
Wenn du den Leuten, die Forza7 zu einem Vorzeigetitel erheben, nicht widersprichst, musst du dich nicht wundern, wenn Leute das hinterher so kommentieren.

Eigentlich doch ganz einfach, oder?

Ich finds lustig, wie du dich jetzt aufregst ;D

Troyan
2017-10-10, 10:37:01
Auch ohne den Treiber hat Vega in dem Spiel nicht besonders performt. De 64er Version war auch nur 70% schneller als eine GTX1060. Das hat aber niemanden hier interessiert...

Mit dem neuen nVidia-Treiber sind es dagegen nur noch 52%...

24p
2017-10-10, 10:40:04
Aber, aber, Nv kann kein AC und deswegen ist die Ti so langsam und Vega 64 so schnell. Oh wait...

Schnoesel
2017-10-10, 10:40:42
Bis auf 4K performt Vega in Forza 7 immer noch überdurchschnittlich trotz des neuen Nvidia "Wundertreibers". Wo ist also hier das Problem?!

24p
2017-10-10, 10:43:43
Darum ging es nicht, es ging um Forza 7 als Datenpunkt zur Extrapolation. Und da ist nun mal das GPU Limit entscheidend. Der Titel verhält sich also bis auf das CPU Limit nicht anders als der Rest.

Bucklew
2017-10-10, 10:48:08
Bis auf 4K performt Vega in Forza 7 immer noch überdurchschnittlich trotz des neuen Nvidia "Wundertreibers". Wo ist also hier das Problem?!
Nirgends.

Aber dass das Game zum Releasezeitpunkt einfach nicht rund lief, war doch logisch. Warum auch immer man das abstreiten muss.

Schnoesel
2017-10-10, 10:50:25
Nun Forza ist immerhin ein Titel der weder im einen noch im anderen Gaming Programm eines Herstellers ist, ohne besondere Herstellerfeatures wie Shader Intrinsics, FP16 oder Gameworks. Es gibt Forza auch nicht im Bundle mit einer Hardware also warum Sollte Forza 7 nicht als Datenbasis dienen können?

Das man aus einem Spiel nicht auf alle anderen schließen kann darüber unterhalten wir uns ja hoffentlich nicht. Das sollte ja wohl klar sein.

Aber dass das Game zum Releasezeitpunkt einfach nicht rund lief, war doch logisch. Warum auch immer man das abstreiten muss.

Es lief doch rund. Ihr habt nur ein Problem damit weil es auf der Konkurrenz noch runder lief ansonsten war die Performance doch echt gut bei beiden IHVs. Witzig ist aber dass hier von einigen behauptet wurde dass der DX12 Part "kaputt" ist und das Nvidia hier nichts machen könne. Zack ein Treiber --> Performance erhöht und das bei DX12.

dargo
2017-10-10, 10:58:38
Aber, aber, Nv kann kein AC und deswegen ist die Ti so langsam und Vega 64 so schnell. Oh wait...
Ich werde wieder super bestätigt um die hoffnungslosen Fälle hier. Zu deiner Information... Forza Motorsport 7 verwendet kein Async Compute.


Es lief doch rund. Ihr habt nur ein Problem damit weil es auf der Konkurrenz noch runder lief ansonsten war die Performance doch echt gut bei beiden IHVs. Witzig ist aber dass hier von einigen behauptet wurde dass der DX12 Part "kaputt" ist und das Nvidia hier nichts machen könne. Zack ein Treiber --> Performance erhöht und das bei DX12.
This! Das können nämlich manche nicht verkraften. Dabei war schon vorher die Performance super. Es kam nur zu kleinen Verschiebungen in den jeweiligen Leistungsklassen.


Aber dass das Game zum Releasezeitpunkt einfach nicht rund lief, war doch logisch.
Bisher waren die NV-Treiber doch immer so überwältigend bei Release der Spiele. Game Ready und so. 111elf *stichel* ;)

Rancor
2017-10-10, 11:06:29
Naja wenn eine VEGA 56 schneller als eine 1080TI ist, dann ist das keine kleine Verschiebung und das weisst du auch selber ganz genau.
Im Vergleich lief NV einfach sau schlecht.

Jetzt hier triumphierend im VEGA Thread zu marodieren, muss von den NV Boys aber wirklich nicht sein.

Bucklew
2017-10-10, 11:08:26
Witzig ist aber dass hier von einigen behauptet wurde dass der DX12 Part "kaputt" ist und das Nvidia hier nichts machen könne. Zack ein Treiber --> Performance erhöht und das bei DX12.
Bei Software ist es häufig so, dass ein Schuldiger schwer gefunden werden kann. Oft sind es Unstimmigkeiten und noch häufiger kann es auf beiden Seiten gefixt werden.

Ob der Patch dann von NVIDIA kommt oder von - wie hieß der Entwickler gleich noch? - ist doch zweitrangig. Jedem war klar, dass diese Performanceverteilung Blödsinn ist und irgendwann gefixt wird. Dass das geleugnet wird, ist tatsächlich Teil des Problems der Unruhe hier im Forum. AMD liefert ganz bestimmt irgendwann den Wundertreiber für Vega, aber NVIDIA kann es nicht fixen, dass Vega an einer 1080Ti vorbei zieht. B.S. nennt man das :facepalm:

Bisher waren die NV-Treiber doch immer so überwältigend bei Release der Spiele. Game Ready und so. 111elf *stichel* ;)
Forza7 ist die Ausnahme, die die Regel bestätigt. Und einen Fix gab es innerhalb von 10 (!) Tagen.

Wann hat AMD überhaupt mal einen Treiber innerhalb von 10 Tagen gefixt?

Jetzt hier triumphierend im VEGA Thread zu marodierenm muss von den NV Boys aber wirklich nicht sein.
Wie gesagt: Reaktion auf das Verhalten der letzten 10 Tage. Hier wurden auch Dinge wie "die Grünen werden Gift und Galle spucken" fallen gelassen. Komisch, dass das nie kommentiert wird. Wenn hinterher jemand mit ner NV-Karte hier schreibt "told you so", ist die Aufregung groß :rolleyes:

Rancor
2017-10-10, 11:12:35
Ist halt eben das Problem hier, das sich hier gleich jeder persönlich angegriffen wird, wenn der Hersteller seines Grafikchips mal nicht abliefert. :freak:
AMD Freaks feiern schon den Untergang von Nvidia wenn sie mal vorne liegen und NV Boys bekommen Schweißausbrüche, wenn die Karten mal nicht so gut performen.

Das ist irgendwie schon absurd. Hier gönnt niemand dem anderen die Butter aufm Brot.

dargo
2017-10-10, 11:12:40
Naja wenn eine VEGA 56 schneller als eine 1080TI ist, dann ist das keine kleine Verschiebung und das weisst du auch selber ganz genau.
Im Vergleich lief NV einfach sau schlecht.

Ach Gottchen, jetzt geht das schon wieder los. Lernt doch bitte endlich zwischen CPU-/ und GPU-Limit zu unterscheiden! In 4K war die 1080Ti schon vorher 21% vor Vega56 bei den avgs.

Schnoesel
2017-10-10, 11:14:25
Naja wenn eine VEGA 56 schneller als eine 1080TI ist, dann ist das keine kleine Verschiebung und das weisst du auch selber ganz genau.
Im Vergleich lief NV einfach sau schlecht.

Nun ja das lag aber nicht am Spiel oder an speziellen Features, sondern ja wohl am Treiber. Den Schuh muss sich also Nvidia anziehen.
Abgesehen davon: Warum ist das so unwahrscheinlich dass Vega gut performt? Bei der Rohleistung ist man mit der Ti auf Augenhöhe man bringt die Leistung in den meisten Fällen eben wieder nicht auf die Strasse. Ausnahmen gab und gibt es aber immer wieder. Vega als neue Archtitektur hat ja auch noch Potential, ich sehe also nicht, warum Vega bei der Leistung zu Release verharren sollte. Offenbar braucht man allerdings DX12 oder Vulkan dafür, was natürlich nicht auf die Mehrheit der Spiele zutrifft. Hier scheint AMD wieder volles Risiko gegangen zu sein.

Das ist irgendwie schon absurd. Hier gönnt niemand dem anderen die Butter aufm Brot.
This!

Rancor
2017-10-10, 11:15:12
Ach Gottchen, jetzt geht das schon wieder los. Lernt doch bitte endlich zwischen CPU-/ und GPU-Limit zu unterscheiden! In 4K war die 1080Ti schon vorher 21% vor Vega56 bei den avgs.

:rolleyes:
Ändert ja nichts an der schwachen Performance im Vergleich zu VEGA unter 1080p und 1440p im Vergleich zu den bisherigen Ergebnissen.

Nun ja das lag aber nicht am Spiel oder an speziellen Features, sondern ja wohl am Treiber. Den Schuh muss sich also Nvidia anziehen.
Abgesehen davon: Warum ist das so unwahrscheinlich dass Vega gut performt? Bei der Rohleistung ist man mit der Ti auf Augenhöhe man bringt die Leistung in den meisten Fällen eben wieder nicht auf die Strasse. Ausnahmen gab und gibt es aber immer wieder. Vega als neue Archtitektur hat ja auch noch Potential, ich sehe also nicht, warum Vega bei der Leistung zu Release verharren sollte. Offenbar braucht man allerdings DX12 oder Vulkan dafür, was natürlich nicht auf die Mehrheit der Spiele zutrifft. Hier scheint AMD wieder volles Risiko gegangen zu sein.

Ich habe nie gesagt das, das unwahrscheinlich ist. Ich hoffe sogar sehr das AMD die Rohleistung immer öfters auf die Straße bekommt. Ich meinte nur dargos relativierung, das es sich dabei um eine kleine Verschiebung handelt, ist halt sehr untertrieben gewesen, wenn man sich die bisherigen Performance Charts an schaut.

Sollte VEGA 56 in Zukunft immer vor einer oder gleich einer 1080Ti in DX 12 Titeln liegen, dann ist im NV Lager Achterbahn, solange es keinen DX11 Pfad gibt der das wieder zurecht biegt.

Bucklew
2017-10-10, 11:16:07
Nun ja das lag aber nicht am Spiel oder an speziellen Features, sondern ja wohl am Treiber. Den Schuh muss sich also Nvidia anziehen.
Nein, muss nicht. Das Problem kann auch am Spiel liegen und NVIDIA hat es hintenherum im Treiber gefixt. Beides ist möglich. Kann auch eine Unstimmigkeit, wie ich es schon mal geschrieben hatte, sein. Dann ist es irgendwo eine Grauzone.

Wenn es schneller/einfach ist, dass es NVIDIA im Treiber fixt: Sehr gut.

Schnoesel
2017-10-10, 11:17:55
Nvidia hat gegenüber CB bestätigt, dass alles in Ordnung ist. Nvidias Treiber sind nun auch keine fehlerfreien Meisterwerke Gottes. Auch hier gibt es ab und an Probleme. Nichts ungewöhnliches und vor allem nichts über was man sich aufregen sollte.

dargo
2017-10-10, 11:18:09
:rolleyes:
Ändert ja nichts an der schwachen Performance im Vergleich zu VEGA.
Ich hoffe du bekommst keinen Herzinfarkt am 27.10. :)

Bucklew
2017-10-10, 11:19:00
Nvidia hat gegenüber CB bestätigt, dass alles in Ordnung ist.
:rolleyes:

NVIDIA hat bestätigt, dass die Benchmarkwerte von CB in Ordnung ist.

Rancor
2017-10-10, 11:21:46
Ich hoffe du bekommst keinen Herzinfarkt am 27.10. :)

Wieso sollte ich denn ? Ich hoffe doch sehr das VEGA da mal richtig abliefert in Wolfenstein und Nvidia zwingt neue Produkte zu liefern und endlich LL Optimierung vornimmt.

Ich frage mich nur was du machst, falls das nicht passiert. Du scheinst ja sehr verbunden mit AMD zu sein. Hast du etwa Aktien vom AMD? Ansonsten verstehe ich diese Nähe zumHersteller nicht? Was bringt es dir?
Mir bricht da kein Zacken aus der Krone wenn Nvidia nicht abliefert und AMD wieder konkurrenfähig ist. Warum sollte es auch? Nur weil ich eine 1070 im Rechner stecken habe?

Im Gegensatz zu den meisten hier, mag ich nämlich keine Dominanz eines Herstellers, egal ob GPU oder CPU, egal ob NV oder AMD. Mich interessiert nur wo ich am meisten FPS für mein Geld bekomme, dabei ist es mir absolut Latte welcher Hersteller mir das beste P/L Verhältnis liefert.

Daredevil
2017-10-10, 12:01:49
Ich seh auch nicht wirklich, warum ein einziges Spiel der Retter des kompletten Gaming Sektors werden soll. :D
Selbst wenn Wolfenstein ziemlich gut performt und das vielleicht eine Ansage an die Zukunft ist... leben wir doch in der Gegenwart mit 99% anderen Spielen. :)

Oder spielt hier noch wer Doom tagtäglich ?

Bucklew
2017-10-10, 12:04:58
Oder spielt hier noch wer Doom tagtäglich ?
*hust* AotS *hust*

dargo
2017-10-10, 12:27:38
Ich frage mich nur was du machst, falls das nicht passiert. Du scheinst ja sehr verbunden mit AMD zu sein. Hast du etwa Aktien vom AMD? Ansonsten verstehe ich diese Nähe zumHersteller nicht? Was bringt es dir?

Das hast du immer noch nicht verstanden? :freak: Hast du wirklich nichts aus den letzten Jahren zb. mit Intel gelernt? Bist du so naiv oder einfach noch zu jung? Ich verfolge PC-Hardware nämlich schon seit den Amiga bzw. C64 Zeiten.

Ist zwar wieder komplett OT, aber gerne nochmal.

1. Ich unterstütze keinen proprietären Mist wie G-Sync, ergo fällt Nvidia schon mal flach. Zudem habe ich den Beschiss mit der GTX970 noch nicht ganz verdaut, ich war nämlich selbst betroffen.
2. Ich möchte auch in Zukunft interessante Produkte zu humanen Preisen kaufen können. Wenn in Zukunft Intel und AMD grob bei 50/50 und Nvidia/AMD ebenfalls grob 50/50 bei PC-Hardware stehen werde ich wieder hin und her switchen, je nach P/L halt. Dann habe ich damit überhaupt kein Problem. Letzteres natürlich nur wenn Nvidia A-Sync bietet.

PS: und nein, ich habe weder Aktien von AMD noch sonst welche. Ich bin kein "Zocker", stehe eher auf Sicherheit.

PPS: wenn Vega nicht ganz zu meinen Erwartungen in Wolfenstein 2 performt werde ich das bestimmt besser verkraften als mancher hier aus dem grünen Lager (nicht auf dich bezogen). ;)


Sollte VEGA 56 in Zukunft immer vor einer oder gleich einer 1080Ti in DX 12 Titeln liegen, dann ist im NV Lager Achterbahn, solange es keinen DX11 Pfad gibt der das wieder zurecht biegt.
Ich bitte dich, jetzt bleib mal auf dem Teppich. :freak: Wie soll das denn ohne groben Fehlern passieren? Eine Referenz Vega56 (Customs gibts noch nicht) liegt mit 1,3Ghz bei 9,3 TFLOPs. Eine Referenz 1080TI bei 11,6 TFLOPs laut CB @1622Mhz im Schnitt. Genau durch solchen Unfug kommt es hier wieder zu Bullshit-Diskussionen.

Rancor
2017-10-10, 12:32:03
Hast du meinen Beitrag überhaupt gelesen? Scheinbar nicht, denn sonst hättest du nicht gefragt ob ich naiv wäre.

Denn unsere Ansichten sind ja nicht so verschieden, nur du lässt halt ständig den AMD Fanboy raushängen, auch im CL Thread übrigens. Ich meine wie soll ich sonst Postings wie: "Hoffentlich bekommst du am 27.10 kein Herzinfakt?" interpretieren.

Das du eine persönliche Fehde mit Nvidia hast, kann ich ja nicht wissen. Aber so versteht man es eben besser.

Ich bin über 30 und habe selbst mit dem C64 angefangen. Spart euch doch einfach diesen Quatsch mit dem Alter :rolleyes:

dargo
2017-10-10, 12:40:32
Denn unsere Ansichten sind ja nicht so verschieden, nur du lässt halt ständig den AMD Fanboy raushängen, auch im CL Thread übrigens.
Du... mir ist das mittlerweile sowas von schei... egal, das glaubst du gar nicht. Jahrelang hatte ich eine Intel-CPU, also war ich ein Intel Fanboy. Jahrelang hatte ich eine Nvidia Grafikkarte, also war ich in dieser Zeit ein Nvidia Fanboy. Jetzt habe ich seit wenigen Jahren AMD Hardware und werde als AMD Fanboy bezeichnet. ;D Ist halt der übliche Kindergarten im 3DC. Ich bin schon so lange hier, dass ich darüber auch lachen kann. :biggrin:

Rancor
2017-10-10, 12:42:18
Naja aber warum postest du dann immer so agressiv pro AMD und contra Intel und Nvidia? Würdest du dich einfach neutral verhalten, dann kämen diese Vorwürfe auch nicht zu Stande.


Ich bitte dich, jetzt bleib mal auf dem Teppich. :freak: Wie soll das denn ohne groben Fehlern passieren? Eine Referenz Vega56 (Customs gibts noch nicht) liegt mit 1,3Ghz bei 9,3 TFLOPs. Eine Referenz 1080TI bei 11,6 TFLOPs laut CB @1622Mhz im Schnitt. Genau durch solchen Unfug kommt es hier wieder zu Bullshit-Diskussionen.

Wie kann eine GTX 1060 schneller sein als eine RX 480/580 bei dem TFLOP Unterschied? TFLOPs sind theoretische Werte.

Ich rede ja auch von DX 12 und da steht AMD in der Regel deutlich besser da als Nvidia, zumindest bisher.
In extreme Fällen wird NV unter DX 12/Vulkan ja sogar langsamer, gerade beim Einsatz von AC. Besonders in Wolfenstein, mit den vielen Features die AMD besser beherrscht als Nvidia, halte ich das nicht für so unrealistisch. Man wird es sehen.

dargo
2017-10-10, 12:51:59
Wie kann eine GTX 1060 schneller sein als eine RX 480/580 bei dem TFLOP Unterschied? TFLOPs sind theoretische Werte.

Ganz einfach... indem man GCN Features nicht verwendet die diesen beschleunigen. Schauen wir mal wo die beiden bei Wolfenstein 2 stehen. Wie kann ein Sixcore/Octacore nicht schneller sein als ein Quadcore wenn die Applikation über 4 Cores nicht mehr nennenswert skaliert? Ich hoffe du erkennst den Zusammenhang. Dieser passt nämlich ganz gut zu Async Compute bei GPUs.

Rancor
2017-10-10, 12:58:08
Ganz einfach... indem man GCN Features nicht verwendet die diesen beschleunigen. Schauen wir mal wo die beiden bei Wolfenstein 2 stehen. Wie kann ein Sixcore/Octacore nicht schneller sein als ein Quadcore wenn die Applikation über 4 Cores nicht mehr nennenswert skaliert? Ich hoffe du erkennst den Zusammenhang. Dieser passt nämlich ganz gut zu Async Compute bei GPUs.

Ja und deshalb kann eine V 56 in Wolfenstein auch eine TI holen. :confused:
Wir sind und doch einig? Ob es so kommt, sehen wir dann.. Auschließen würde ich es nicht.

24p
2017-10-10, 13:07:31
Diese FLOP-Vergleiche führen zu nichts. Das sollte man bei Fiji gelernt haben (und ja, jetzt wird wieder kommen, dass Vega ja TOTAL anders ist). Das Problem, dass die Rohleistung eben nicht vollständig umgerechnet werden kann bleibt aber trotzdem bestehen. Das bisschen was Vega da ggü Fiji verbessert hat wurde von NV durch Pascal schon wieder meher als ausgeglichen.

Bucklew
2017-10-10, 13:10:08
Schauen wir mal wo die beiden bei Wolfenstein 2 stehen.
Selbst wenn die Vega64 dort 100% schneller als eine 1080Ti wäre - was bringt das denn oder was soll das heißen?

Weder wird das die anderen 99,999999% der Spiele verändern, noch wird es das Hauptproblem von Vega lösen: Leistungsaufnahme.

Daredevil
2017-10-10, 13:12:46
Wen Vega64 doppelt so schnell wäre, ist die Leistungsaufnahme dann auch nicht mehr das Problem.

Rancor
2017-10-10, 13:13:11
Diese FLOP-Vergleiche führen zu nichts. Das sollte man bei Fiji gelernt haben (und ja, jetzt wird wieder kommen, dass Vega ja TOTAL anders ist). Das Problem, dass die Rohleistung eben nicht vollständig umgerechnet werden kann bleibt aber trotzdem bestehen. Das bisschen was Vega da ggü Fiji verbessert hat wurde von NV durch Pascal schon wieder meher als ausgeglichen.

Die Gretchen Frage ist halt in wie fern die Low Level Implementation von allen "GCN" Features, die ja, bis auf primitve Shader, in Wolfenstein 2 vorhanden sein werden, diesen Nachteil ausgleichen.
Ich finde das schon interessant.

Nvidias Giga Thread Design ist schon so gut auf DX 11 angepasst, das es wirklich mal spannend ist zu sehen, was passiert, wenn GCN genauso gut oder ähnlich ausgelastet wird.

dargo
2017-10-10, 13:13:31
Ja und deshalb kann eine V 56 in Wolfenstein auch eine TI holen. :confused:
Wir sind und doch einig? Ob es so kommt, sehen wir dann.. Auschließen würde ich es nicht.
Ich sags mal so... will ich jetzt nicht unbedingt ausschließen. Halte es aber für sehr unwahrscheinlich. Bei einer Custom Vega56 und/oder UV, sodass ~1,5Ghz erreicht werden schon eher.

Hübie
2017-10-10, 13:14:42
Ganz einfach... indem man GCN Features nicht verwendet die diesen beschleunigen.

Und nun frage dich mal warum eigentlich so wenig Titel das benutzen und nutzen werden? Du sagst dass du kein properitäres Zeug unterstützen willst, aber machst einen Larry für Features die es nur auf einem Grafikchip gibt. Paradox. :freak: AMD soll aufhören immer mit Extra-Würstchen zu kommen und sich mal der Masse anschließen. Was sind Innovationen wert, wenn die entweder nicht oder nur wenig genutzt werden, da Nutzen/Aufwand in negativer Relation stehen?? Immerhin - und das ist unbestreitbar - bringen NVs Chips seit einiger Zeit mit weniger ALUs mehr Performance auf die Straße, was für mich gleichbedeutend mit: "Kann ja so verkehrt nicht sein" ist. Das dabei weniger verbraucht wird ist noch ein Bonbon.

Ich will hier keinesfalls den Eindruck erwecken ich würde Vega per se für schlecht halten, nur bekommt man fürs Geld nicht das Optimum. :wink:

dargo
2017-10-10, 13:16:46
Und nun frage dich mal warum eigentlich so wenig Titel das benutzen und nutzen werden? Du sagst dass du kein properitäres Zeug unterstützen willst, aber machst einen Larry für Features die es nur auf einem Grafikchip gibt. Paradox. :freak:
Der nächste Beweis, dass du keinen blassen Schimmer von modernen GPUs und APIs hast. Danke. (y)

Rancor
2017-10-10, 13:19:16
Theoretisch könnte es Nvidia auch nutzen. Proprietär ist es streng genommen ja nicht. Aber ich weiss was du meinst @Hübie
Die Frage die sich stellt ist, ob Nvdia das mit Ihrem Design denn überhaupt "nötig" hat. Der Giga Thread Ansatz läuft ja bisher sehr gut.

Das wird man aber erst beurteilen können, wenn es Games gibt, die diese Features auch richtig nutzen. Die waren bisher ja eher Mangelware. Wolfenstein 2 wird daher sehr aufschlussreich sein.

Sollte Nvidia dort wieder die Nase vorn habe ( ich kann es mir aber so richtig nicht vorstellen ), lege ich AMD Nahe, ihre grundlegende Architektur zu überdenken und zu hinterfragen, ob GCN der richtige Ansatz für die Zukunft ist.
Im CPU Bereich habe sie letztendlich ja auch erkannt, das Bulldozer und Co. der Holzweg war.

dildo4u
2017-10-10, 13:20:28
Wie man jetzt wieder an Forza gesehen hat,sollte man bei Beiden Seiten nicht zu früh ein Fazit ziehen,genau so sollte man dann auch Wolfenstein angehen.
Bis jetzt hat NV das gröbste immer gefixt auch Doom unter Vulkan läuft Heute ziemlich gut.

NV scheint allgemein ein paar DX12 Bremsen gelöst zu haben,vermutlich die Vorbereitung für den 1070 Ti Launch.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11515152&postcount=25

Ex3cut3r
2017-10-10, 13:58:09
Lasst Dargo in frieden, aber eins habe ich nie verstanden, warum er damals von einen Haswell i7 @ 3,7 auf einen Ryzen 5 @ 3,2 ghz? gewechselt ist, das ist/war einfach total unnötig. Da hätte er lieber eine Vega dazustecken sollen und fertig. Aber gut, ist seine Sache.

dargo
2017-10-10, 14:11:37
Diese FLOP-Vergleiche führen zu nichts. Das sollte man bei Fiji gelernt haben (und ja, jetzt wird wieder kommen, dass Vega ja TOTAL anders ist).
Viele haben es mittlerweile verstanden, dass das GPU-Design bei Fiji nicht gerade gut ausgewogen in einer PC-Umgebung ist, du offenbar nicht. Warum schaust du dir GP106 vs. Grenada Pro nicht genauer an?

GP106 Referenz @~1850Mhz = 4,7 TFLOPs
Grenada Pro @1000Mhz = 5,1 TFLOPs

Immer noch ohne Features die GCN im GPU-Limit beschleunigen.

Lasst Dargo in frieden, aber eins habe ich nie verstanden, warum er damals von einen Haswell i7 @ 3,7 auf einen Ryzen 5 @ 3,2 ghz? gewechselt ist, das ist/war einfach total unnötig. Da hätte er lieber eine Vega dazustecken sollen und fertig. Aber gut, ist seine Sache.

Hatte ich auch schon gesagt.

1. Ich bin sehr günstig an die Ryzen Teile gekommen.
2. Kollege hatte gerade neue Hardware gesucht, die Gelegenheit war für mich also günstig.
3. Ich wollte endlich weg von Intel.

PS: der Ryzen Sixcore läuft mit 3,8GHz bei mir.

Schnoesel
2017-10-10, 14:17:34
NV scheint allgemein ein paar DX12 Bremsen gelöst zu haben,vermutlich die Vorbereitung für den 1070 Ti Launch.

In Total War Warhammer 2 scheint die Bremse nicht gelöst zu sein. Auch hier verliert Nvidia durchgehen immer in DX12. Widerspricht also einem allgemeinen Lösen der Bremse. Bei den Meisten wird das jetzt wieder heißen, mir egal weil Dx11... Aber so prall finde ich das nicht. Wenigstens kein Leistungsverlust sollte doch möglich sein.
Es wird auch in Zukunft DX12/Vulkan only Spiele geben und hoffe doch, dass Nvidia hier nicht etwas verpennt. Woran es lẹtztẹndlich liegt ist mir als Kunde egal.

dargo
2017-10-10, 14:20:33
Es wird auch in Zukunft DX12/Vulkan only Spiele geben und hoffe doch, dass Nvidia hier nicht etwas verpennt. Woran es lẹtztẹndlich liegt ist mir als Kunde egal.
Das schöne daran... endlich hört dann dieses Geblubber mit "mit DX11 ist NV schneller" auf da es keinen Vergleich mehr gibt. Und endlich können sich die Entwickler auf eine moderne API voll konzentrieren.

dildo4u
2017-10-10, 14:23:48
In Total War Warhammer 2 scheint die Bremse nicht gelöst zu sein. Auch hier verliert Nvidia durchgehen immer in DX12. Widerspricht also einem allgemeinen Lösen der Bremse. Bei den Meisten wird das jetzt wieder heißen, mir egal weil Dx11... Aber so prall finde ich das nicht. Wenigstens kein Leistungsverlust sollte doch möglich sein.
Es wird auch in Zukunft DX12/Vulkan only Spiele geben und hoffe doch, dass Nvidia hier nicht etwas verpennt. Woran es lẹtztẹndlich liegt ist mir als Kunde egal.
Ich glaube kaum das das die gewollte Performance unter DX12 ist selbst mit AMD.Wir haben jetzt Ende 2017 und es sieht immer noch grottig aus was DX12 Umsetzungen angeht,solche Zahlen werden nicht grad zu einer schnelleren Verbreitung helfen.

http://abload.de/img/benchfe3sy0.png

Schnoesel
2017-10-10, 14:37:45
Ich glaube kaum das das die gewollte Performance unter DX12 ist selbst mit AMD.

Ehrlich gesagt ist mir als Nvidia Kunde die Performance von AMD in dem Fall ziemlich egal. Nvidia hat hier offenbar ihre eigene Baustelle. Ob AMD hier in dem Fall in Dx12 dazugewinnt weil ihre DX11 Performance so grottig ist oder ihre DX12 Performance so toll wird keiner außer AMD beantworten können (Für beide Szenarien lassen sich Beispiele finden).

Jedenfalls ist TW2 nicht das einzige Spiel in dem Nvidia in DX12 weit hinter DX11 ist und das finde ich nicht gut.

AffenJack
2017-10-10, 14:41:29
In Total War Warhammer 2 scheint die Bremse nicht gelöst zu sein. Auch hier verliert Nvidia durchgehen immer in DX12. Widerspricht also einem allgemeinen Lösen der Bremse. Bei den Meisten wird das jetzt wieder heißen, mir egal weil Dx11... Aber so prall finde ich das nicht. Wenigstens kein Leistungsverlust sollte doch möglich sein.
Es wird auch in Zukunft DX12/Vulkan only Spiele geben und hoffe doch, dass Nvidia hier nicht etwas verpennt. Woran es lẹtztẹndlich liegt ist mir als Kunde egal.

Wenn man sich die Zahlen bei TWW2 so anguckt hat man eher das Gefühl der Dev hat je API auf einen Grafikhersteller optimiert. AMD ist in DX11 unfassbar langsam, dass es nicht mehr normal ist und Nvidia in DX12. Insgesamt ist AMD in DX12 aber langsamer als das normale Verhältniss zu Nv. Ne Vega Liquid sollte ne 1070 locker schlagen. Da kannst du nicht von einem gut laufenden DX12 reden. DX12 bremst AMD anscheinend ebenso aus, wirkt nur positiv weil DX11 gar nicht läuft aus irgendwelchen Gründen.

dildo4u
2017-10-10, 14:42:52
Ehrlich gesagt ist mir als Nvidia Kunde die Performance von AMD in dem Fall ziemlich egal. Nvidia hat hier offenbar ihre eigene Baustelle. Ob AMD hier in dem Fall in Dx12 dazugewinnt weil ihre DX11 Performance so grottig ist oder ihre DX12 Performance so toll wird keiner außer AMD beantworten können (Für beide Szenarien lassen sich Beispiele finden).

Jedenfalls ist TW2 nicht das einzige Spiel in dem Nvidia in DX12 weit hinter DX11 ist und das finde ich nicht gut.
Wenn es nicht mal AMD schafft gute DX12 Performance zu erzielen wie soll es dann NV schaffen?Und die arbeiten ja dran wo es geht siehe Forza 7 und Gears of War 4.

Schnoesel
2017-10-10, 14:51:09
Ne Vega Liquid sollte ne 1070 locker schlagen. Da kannst du nicht von einem gut laufenden DX12 reden.

Warum setzt hier hier immer AMD ins Verhältnis. Es ist mir als Nvidia Nutzer schlicht egal. Ich hab doch von einer schlechten AMD Performance keine Zusatznutzen (außer dass es bei denen noch schlechter läuft .. wow.. uninteressant)

Wenn es nicht mal AMD schafft gute DX12 Performance zu erzielen wie soll es dann NV schaffen?

Nvidia hat doch groß getönt dass sie seit Beginn an bei DX12 mitarbeiten. Und als Marktführer kann man zusätzlich erwarten, dass sie bei einer neuen Technologie mit vorne dabei sind. Also ich sehe hier die Bringschuld nicht beim Underdog. Ich frage mich wer wenn nicht Nvidia sollte hier die beste Performance bieten?

24p
2017-10-10, 14:54:08
Viele haben es mittlerweile verstanden, dass das GPU-Design bei Fiji nicht gerade gut ausgewogen in einer PC-Umgebung ist, du offenbar nicht. Warum schaust du dir GP106 vs. Grenada Pro nicht genauer an?

GP106 Referenz @~1850Mhz = 4,7 TFLOPs
Grenada Pro @1000Mhz = 5,1 TFLOPs

Immer noch ohne Features die GCN im GPU-Limit beschleunigen.



Hatte ich auch schon gesagt.

1. Ich bin sehr günstig an die Ryzen Teile gekommen.
2. Kollege hatte gerade neue Hardware gesucht, die Gelegenheit war für mich also günstig.
3. Ich wollte endlich weg von Intel.

PS: der Ryzen Sixcore läuft mit 3,8GHz bei mir.


Nein, du hast nur meinen Betrag nicht verstanden. Wie bereits erwartet.

Troyan
2017-10-10, 14:58:49
Warum setzt hier hier immer AMD ins Verhältnis. Es ist mir als Nvidia Nutzer schlicht egal. Ich hab doch von einer schlechten AMD Performance keine Zusatznutzen (außer dass es bei denen noch schlechter läuft .. wow.. uninteressant)



Nvidia hat doch groß getönt dass sie seit Beginn an bei DX12 mitarbeiten. Und als Marktführer kann man zusätzlich erwarten, dass sie bei einer neuen Technologie mit vorne dabei sind. Also ich sehe hier die Bringschuld nicht beim Underdog. Ich frage mich wer wenn nicht Nvidia sollte hier die beste Performance bieten?

Man sollte zu aller erst verstehen, was DX12 ist. Dann kann man anfangen Forderungen zu stellen - nämlich an den Entwickler der Spiele.

dildo4u
2017-10-10, 15:09:15
Die 1070 Ti kommt ja bald,dann gibt es ein Test mit dem aktuellen Treiber,jetzt wird sich keiner die Mühe machen alle bekannten DX12 Game's noch mal zu testen.Das wäre krank wenn die Karte sofort mit vielen Custom Design und gefixter DX12 Performance kommt und AMD immer noch Blower 56 für 500€ verkauft.

Schnoesel
2017-10-10, 15:14:41
Man sollte zu aller erst verstehen, was DX12 ist. Dann kann man anfangen Forderungen zu stellen - nämlich an den Entwickler der Spiele.

An deiner Stelle würde ich mal die Füße still halten, warst doch du derjenige der bei Forza reflexartig einen "kaputten Dx12 Pfad" (was auch immer das sein soll) unterstellt hat an dem man von Seiten Nvidias nix machen könne und plötzlich wird das mit nem Treiber gefixt (nicht mit einem Spielepatch). Also mal selbst an die eigene Nase fassen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11505140&postcount=3124

Bei dir sind immer nur die anderen Schuld. Natürlich kann man auch für Dx12 optimieren. Hat auch Pixeljetstream schon gesagt. Alleine die Tatsache dass sie ein zweistelliges Performanceplus erreicht haben nur durch den Treiber beweist, dass es an Treiberoptimierung gefehlt hat.

=Floi=
2017-10-10, 16:57:31
Wie stark Treiber sind sieht man anhand von Kepler.

Das stimmt einfach nicht. Kepler läuft mit aktuellen titeln noch immer wunderbar. Kepler hat einfach das problem der ineffizienten architektur und des zu geringen vrams.
fährt man normale settings, dann passt alles. Die 780ti ist fast 4 jahre alt und da ist die perforance doch noch gut.

dargo
2017-10-10, 17:28:14
Man sollte zu aller erst verstehen, was DX12 ist. Dann kann man anfangen Forderungen zu stellen - nämlich an den Entwickler der Spiele.
Na davon bist du wie du gerade bewiesen hast weit entfernt. Oder um es mal mit deiner Formel auszudrücken... 90% (Entwickler) waren in Ordnung, 10% (Nvidia Treiber) nicht optimiert.

foenfrisur
2017-10-10, 17:43:33
nehmt doch endlich mal diesen nv-dreck hier aus dem thread.
es kotzt einem echt an beim lesen.
ich lese lieber weniger und dann was zu vega, als viel von diesen unangenehmen ego-käufern mit Verlängerung.

ich bin da auch voll auf dargos seite.
liest sich oft wie ein sprachrohr.
er übt verzicht, damit es der Allgemeinheit vermutlich besser geht. so ähnlich zumindest. eine art helfersyndrom.
viele andere Möglichkeiten hat man als Konsument ja nun mal nicht.

habe mich auch bewusst gegen intel und nv entschieden, unabhängig der Performance.

ohne so bekloppte, hätten wir nur minimalsten Fortschritt für egoisten und den rest.
keine Ahnung wieso man so viel rücksicht rechtfertigen soll.

wenn amd mal besser werden soll, muss man sie auch dabei unterstützen und nicht lästern, wie scheisse die sind.

solche denkweisen sieht man genug auf unseren Straßen.

amen xD

mfg

Raff
2017-10-10, 17:56:44
Vega 64 Air dank RS 17.10.1 in Mittelerde Schatten des Krieges vor GTX 1080 OC (+20 % durch den neuen Treiber): http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-Benchmarks-1240756/. Die Liquid-Edition knabbert damit an der GTX 1080 Ti – aber nicht an der getesteten mit 1,9 GHz. ;)

MfG,
Raff

Schnoesel
2017-10-10, 17:58:24
Hmm damit hätte ich nicht gerechnet. Wäre das nicht eine gute Gelegenheit um das Speicherfeature Dings der Vega zu testen. HMBW oder so... verdammt den Namen vergessen.

Raff
2017-10-10, 17:59:16
HBCC. Kommt neuer Tag, kommen weitere Werte. :) Dieser Tag bestand schon aus 10-stündigen Messungen und der Treiber kam ja leider eben erst.

MfG,
Raff

Loeschzwerg
2017-10-10, 17:59:32
Nice :) Wurde das AF im 17.10.1 schon gefixt?

Grendizer
2017-10-10, 18:15:34
Ok das ist mal ne Ansage.

G3cko
2017-10-10, 18:17:36
Das stimmt einfach nicht. Kepler läuft mit aktuellen titeln noch immer wunderbar. Kepler hat einfach das problem der ineffizienten architektur und des zu geringen vrams.
fährt man normale settings, dann passt alles. Die 780ti ist fast 4 jahre alt und da ist die perforance doch noch gut.

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/

Ein Bild wie immer. Oben ziehen die aktuellen Nvidia-Karten davon. Unten ebenfalls, - nur in die entgegengesetzte Richtung. :freak:

Die doppelt so teure GTX780 langsamer als die 280x (7970). Die GTX970 gerade mal 13% schneller! Die erschien übrigens 2 Jahre nachdem es die 7970 bereits zum gleichen Preispunkt gab. Zum Release war die GTX970 50% teurer. Wo sind die 30-40% Performance hin? ;D

Bei Nvidia ist jede Architektur sofort veraltet sofern es nicht die aktuellste ist. Bei 70-80% Marktanteil auch kein Wunder. Wenn man drauf steht jede Generation zu wechseln, dann ist nvidia super. Andernfalls fährt man mit AMD deutlich besser und das wird auch bei Vega wieder der Fall sein. Am Ende tuen dann alle wieder überrascht. ^^

Loeschzwerg
2017-10-10, 18:28:05
Andernfalls fährt man mit AMD deutlich besser und das wird auch bei Vega wieder der Fall sein. Am Ende tuen dann alle wieder überrascht. ^^

Muss jeder selber entscheiden ob er lieber jetzt die Leistung haben möchte oder den längeren Support.

Für mich ist das wie Pest oder Cholera.

dildo4u
2017-10-10, 18:32:00
Es hängt wie immer vom Game/Engine ab Mordor ist auch Nagel neu und Kepler ist gut dabei.


HBCC scheint was zu bringen die 1080 ist kaum schneller als die 1070,Vram Limitiert?

Grendizer
2017-10-10, 18:32:22
Muss jeder selber entscheiden ob er lieber jetzt die Leistung haben möchte oder den längeren Support.

Für mich ist das wie Pest oder Cholera.

Ist ja auch nicht so, das man gebrauchte Hardware nicht los wird. (Wobei hier AMD 390,480 und 580 sogar momentan auch gegenüber nVidia Vorteile haben)

unl34shed
2017-10-10, 18:37:09
Muss jeder selber entscheiden ob er lieber jetzt die Leistung haben möchte oder den längeren Support.

Für mich ist das wie Pest oder Cholera.

Ist ja nicht so, das die gleich teuren AMD Karten zum Release eine ähnliche Leistung haben/hatten.

Pirx
2017-10-10, 19:00:05
Ist ja nicht so, das die gleich teuren AMD Karten zum Release eine ähnliche Leistung haben/hatten.
Doch ist so.;)

gedi
2017-10-10, 19:12:33
Vega 64 Air dank RS 17.10.1 in Mittelerde Schatten des Krieges vor GTX 1080 OC (+20 % durch den neuen Treiber): http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-Benchmarks-1240756/. Die Liquid-Edition knabbert damit an der GTX 1080 Ti – aber nicht an der getesteten mit 1,9 GHz. ;)

MfG,
Raff

Ist er das jetzt, der Horn(y) Treiber? Soll heißen, legt Vega in der Mehrzahl der Titel signifikant zu?

dildo4u
2017-10-10, 19:15:30
Nein der Treiber nennt extra Mordor und Evil Within 2.

dargo
2017-10-10, 19:31:31
Nein der Treiber nennt extra Mordor und Evil Within 2.
Eigentlich steht da nur was von Chill Profilen.
http://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-17.10.1-Release-Notes.aspx

Von Performancesteigerungen steht da nichts.

Hübie
2017-10-10, 19:36:51
Der nächste Beweis, dass du keinen blassen Schimmer von modernen GPUs und APIs hast. Danke. (y)

AC, PrimShader oder FP16-Shader etc. sind alles keine DX12 Features. :rolleyes:

Rancor
2017-10-10, 19:44:02
AC, PrimShader oder FP16-Shader etc. sind alles keine DX12 Features. :rolleyes:

Aber sie sind grundsätzlich nicht AMD exklusiv. G-Sync hingegen schon zB. Ich glaube das meinte dargo.

Hübie
2017-10-10, 19:59:19
@foenfrisur: Entspann dich mal. :biggrin:

OT daher im Spoiler:

Dann ist seine Argumentation dennoch falsch. ;) Bisher hat AC auch nicht gerade Begeisterungsstürme bei Devs ausgelöst. Es ist nicht leicht zu implementieren und auch FP16 scheint in der Form wie es ist nicht wirkungsvoll umgesetzt zu sein, da offenbar immer hin und her konvertiert werden muss was nicht viel Einsparungen bringen dürfte. FP16 ist am Markt auch noch AMD-Exklusiv und auch AC (wird bei NV mittels preemption 'gelöst'). Das man auch andere, effizientere Ansätze verbauen kann beweist NV doch nun schon seit zwei (bzw. drei [Volta]) Generationen. Da gibt es offenbar weniger duty cycles. Neue Ideen finde ich immer gut, aber wenn jedes Spiel bzw. jede Engine darauf angepasst sein muss bringt es nix und die Innovation ist im Eimer. Da mag AMD der Entwicklung auch voraus sein.

Ob AV bspw. proprietär weiß ich nicht, da ich nicht sämtliche Patente auswendig kenne. Die Art und Weise wie AMD es implementiert hat aber sicherlich schon. Nur das Prinzip wohl nicht (da nicht spezifisch genug). Das ist jetzt aber nur meine Vermutung.

AMD hat dafür einen Vorteil durch weniger Restriktionen wie ich nun schon mehrmals gelesen habe. Summa summarum finde ich es immer blöd wenn für irgendwas ne Extrawurst gekocht wird. G-Sync läuft ohne irgendwelches zutun von Spiele-Entwicklern, also stört es keinen.

Hasenpfote
2017-10-10, 21:09:48
HBCC. Kommt neuer Tag, kommen weitere Werte. :) Dieser Tag bestand schon aus 10-stündigen Messungen und der Treiber kam ja leider eben erst.Na da bin ich mal gespannt, wie Vega mit 18GB RAM Bedarf umgeht :)

Kann man da HBCC 24GB einstellen und das Spiel denkt, die Karte hätte 24GB?
Wird wohl bald Zeit für Threadripper alleine um 64GB HBCC zur Verfügung zu stellen. ;D Haben bei AMD jetzt etwa sowas wie ne Firmenstrategie? :eek:
Vega (für HBCC), Threadripper für 128GB RAM und am besten noch Radeon RAM :biggrin:

Zergra
2017-10-10, 23:14:00
Nein, meines Wissens kann die GPU dann soviel Speicher nutzen. In den meisten Fällen wird der RAM eben intelligent verwendet, die Daten werden für mehr Performance in den RAM ausgelagert. Es hat also schon so Performance Vorteile auch ohne der Nutzung von mehr als 8GB HBM

|MatMan|
2017-10-10, 23:23:22
Nein, meines Wissens kann die GPU dann soviel Speicher nutzen. In den meisten Fällen wird der RAM eben intelligent verwendet, die Daten werden für mehr Performance in den RAM ausgelagert. Es hat also schon so Performance Vorteile auch ohne der Nutzung von mehr als 8GB HBM
Was genau hat es dann für Performance-Vorteile, wenn weniger als 8GB vom Spiel benötigt werden?

akuji13
2017-10-11, 07:34:55
Kann man da HBCC 24GB einstellen und das Spiel denkt, die Karte hätte 24GB?

Ja.

Zitat PCGH: "Praktisch ist, dass das HMS als einheitlicher Pool erscheint (unified memory), Applikationen sehen folglich nicht 8 + X GiByte, sondern beispielsweise volle 32 GiByte. "
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/HBCC-Gaming-Benchmark-1236099/

Ich hatte neulich ein Spiel gestartet (weiß nur nicht mehr welches :redface:) da war das auch so. GTA V wars aber nicht.
Da stand dann x Gb von ~11Gb belegt (habe meine Vega auf den niedrigsten Wert eingestellt).

dargo
2017-10-11, 07:40:49
Was genau hat es dann für Performance-Vorteile, wenn weniger als 8GB vom Spiel benötigt werden?
Es werden offenbar weniger Daten hin und her geschoben bzw. kopiert.

Gimmick
2017-10-11, 07:59:37
Kurze Zwischengrätsche:

Vega Liquid mit Dark Power Pro 10 550W?

Ja sicher oder lieber nicht? ^^.

Grendizer
2017-10-11, 08:06:21
Ich hatte ein Coolermaster 550W und nur eine XFX Vega 64 und bei mir was das Problem, das bei Belastung der Lüfter des Netzteils massiv gelärmt hatte.

dargo
2017-10-11, 08:33:19
Ich hatte ein Coolermaster 550W und nur eine XFX Vega 64 und bei mir was das Problem, das bei Belastung der Lüfter des Netzteils massiv gelärmt hatte.
Beim nächsten Mal besseres NT kaufen und keinen Radaumacher bei höherer Last.

@Gimmick
Wüsste nicht wo das Problem sein soll. Das Ding ist kein Chinaböller und hat afaik 650W Peakleistung. Die Homepage ist gerade tot, kann nicht nachschauen.

Grendizer
2017-10-11, 08:42:47
Beim nächsten Mal besseres NT kaufen und keinen Radaumacher bei höherer Last.

@Gimmick
Wüsste nicht wo das Problem sein soll. Das Ding ist kein Chinaböller und hat afaik 650W Peakleistung. Die Homepage ist gerade tot, kann nicht nachschauen.

So schlecht ist das Cooler Master V550 auch nicht gewesen.

akuji13
2017-10-11, 08:46:46
Auf jeden Fall sollte das DPP 10 nicht lauter werden.
https://www.computerbase.de/2013-03/test-be-quiet-dark-power-pro-p10-550-watt/9/

Grendizer
2017-10-11, 08:49:08
Im Endeffekt: Kaufen, probieren und wenn es nicht geht zurücksenden.

dargo
2017-10-11, 09:00:20
So schlecht ist das Cooler Master V550 auch nicht gewesen.
Löl? Das Ding explodiert geradezu beim Lüfter bei noch lächerlichen Lasten.
https://www.techpowerup.com/reviews/CoolerMaster/V550/6.html

Pirx
2017-10-11, 09:06:07
Kommt auch ein wenig auf das Restsystem an, sollte aber noch im Rahmen sein.

Grendizer
2017-10-11, 09:09:06
Löl? Das Ding explodiert geradezu beim Lüfter bei noch lächerlichen Lasten.
https://www.techpowerup.com/reviews/CoolerMaster/V550/6.html

Ja... das deckt sich mit meiner Erfahrung: Damals hatte ich mich nach dem hier gerichtet und das sah deutlich besser aus

https://www.computerbase.de/forum/showthread.php?t=1557243

foenfrisur
2017-10-11, 09:11:51
also ich würde es lassen.
auch wenn reserven vorhanden sind.
600w+ lutsche ich hin und wieder aus der dose. hab aber auch +50% pt.
dabei hat die cpu vielleicht 120watt anteil.

alles auf balanced oder auf powersave gestellt könnte aber auch dauerhaft laufen.

mfg

dargo
2017-10-11, 09:12:50
Da kann irgendwas nicht stimmen. :freak:
Selbst unter maximaler Belastung bleibt das V550 stets unhörbar. Gute Leistung, Cooler Master !

Gabs da mehrere Revisionen bei dem NT? Bei den Reviews gabs immerhin einen Versatz von knapp 3 Monaten.


600w+ lutsche ich hin und wieder aus der dose. hab aber auch +50% pt.
dabei hat die cpu vielleicht 120watt anteil.

Ich ging schon davon aus, dass Gimmick die Karte @Default betreiben wollte. Deine dürfte schon alleine über 400W ziehen. Und übrigens... was aus der Dose gezogen wird ist für das NT irrelevant. Bei 600W an der Dose und 90% Effizienz wären es fürs NT 540W.

Gimmick
2017-10-11, 09:13:52
also ich würde es lassen.
auch wenn reserven vorhanden sind.
600w+ lutsche ich hin und wieder aus der dose.
dabei hat die cpu vielleicht 120watt anteil.

alles auf balanced oder auf powersave gestellt könnte aber auch dauerhaft laufen.

mfg
Klingt schonmal konkreter ^^.
Mit welchen Komponenten?

foenfrisur
2017-10-11, 09:18:47
1800x @4,1ghz
vega 64 liquid mit max. pt.

rest ist weniger relevant 2,5tb ssd und 1tb hdd.
3 Gehäuselüfter, 6 radiator-Lüfter

corsair rm650 watt nt.

mfg

Gimmick
2017-10-11, 09:49:35
OK, danke.

Es würde wohl gehen, nur ob man es machen sollte?

dargo
2017-10-11, 10:03:36
Wenn du uns sagen würdest welche CPU du hast und wie du sie betreibst wären wir schon weiter. Aber lieber jede einzelne Info aus der Nase ziehen lassen, gell?

foenfrisur
2017-10-11, 10:09:03
@dargo
korrekt.
max 670w brutto hatte ich auch schon mit oc.
generell ist es jedoch nicht ratsam, das nt regelmäßig an der kotzgrenze zu betreiben.

kannst es ruhig mal testen gimmick.

mfg

Raff
2017-10-11, 10:22:53
Der HBCC ist mal wieder hilfreich und man fragt sich, warum AMD das Ding nicht beim "Game-ready"-Treiber per Profil aktiviert: http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-Benchmarks-1240756/#a5

MfG,
Raff

dargo
2017-10-11, 10:25:44
Damit die Lager nicht leer sind. X-D

Spaß bei Seite... ich denke mal HBCC On wird noch nicht so weit im Treiber sein, dass alle Games im Plus liegen. Gib denen noch etwas Zeit.

Pirx
2017-10-11, 10:40:04
Der HBCC ist mal wieder hilfreich und man fragt sich, warum AMD das Ding nicht beim "Game-ready"-Treiber per Profil aktiviert: http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-Benchmarks-1240756/#a5

MfG,
Raff
Thx, aber warum nehmt ihr nur übertaktete nV-Karten? Das verzerrt imo das ganze Bild.

edit: nagut sooo viel wird es eigentlich nicht verzerrt, da die Taktraten doch nicht so viel höher, als bei anderen Karten sind

Grendizer
2017-10-11, 10:52:23
HBCC; Macht das Feature schon auf 16 Gb Systemen sinn ? Oder läuft man da Gefahr, das dann der eigentliche Hauptspeicher für Anwendungen zu klein wird ?

Langlay
2017-10-11, 11:17:16
HBCC; Macht das Feature schon auf 16 Gb Systemen sinn ? Oder läuft man da Gefahr, das dann der eigentliche Hauptspeicher für Anwendungen zu klein wird ?


16GB sollte gehen, die kleinste Einstellung vom HBCC belegt knapp 4GB RAM, so das man dann noch 12GB übrig hätte.

dargo
2017-10-11, 11:20:37
Ich kenne kein Spiel, dass unbedingt mehr als 8GB braucht. Dass ich aktuell 16GB habe ist nice to have, mehr nicht. Bis 16GB gebraucht werden haben wir eh alle 32GB drin. Und als "Zwischenschritt" sind 12GB Arbeisspeicher + 12GB Vega (8+4GB) auch ganz praktisch.

Grendizer
2017-10-11, 11:28:06
Ich kenne kein Spiel, dass unbedingt mehr als 8GB braucht. Dass ich aktuell 16GB habe ist nice to have, mehr nicht. Bis 16GB gebraucht werden haben wir eh alle 32GB drin. Und als "Zwischenschritt" sind 12GB Arbeisspeicher + 12GB Vega (8+4GB) auch ganz praktisch.


@32 Gb: nicht bei den beschissenen Preisen im Moment :biggrin:

Daredevil
2017-10-11, 11:30:02
Da frag mal HisN, welches Spiel heute schon mehr als 8GB Speicher verbraucht... der wird dir ne lange Liste zeigen. :D
Aber schönes System. Hätte sowas mal ne Fury gehabt. :<

Zergra
2017-10-11, 11:31:38
16GB sollte gehen, die kleinste Einstellung vom HBCC belegt knapp 4GB RAM, so das man dann noch 12GB übrig hätte.
Naja, ich hatte es damals mit 16GB versucht. So richtig gut ging das nicht, teilweise sind dann die Spiele mangels RAM abgeschmiert. Aber ich habe auch die Auslagerungsdateien deaktiviert. Jetzt mit 32GB kommt das nicht mehr vor.

Loeschzwerg
2017-10-11, 11:36:56
Da sollte ich mit meinen 128GB ja keinerlei Probleme haben :D

https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/

Vega macht hier einen sehr guten Eindruck, top :) Müsste der P10 nicht auch besser laufen?

dargo
2017-10-11, 11:47:33
@32 Gb: nicht bei den beschissenen Preisen im Moment :biggrin:
Bis 16GB dringend notwendig sind haben wir ~2020+.

Edit:
Du bist ja auch recht oft hier im 3DC unterwegs also wirst du wohl in der Lage sein bei Amazon öfters zu schauen oder nicht? Den hier hatte ich nämlich für 125€ bekommen.
https://geizhals.de/g-skill-trident-z-silber-rot-dimm-kit-16gb-f4-3200c14d-16gtz-a1383531.html?hloc=de

Der normale Preis damals lag auch schon bei um die 180€ oder sogar mehr. Musste zwar wenige Wochen warten aber wayne... Augen auf beim Speicherkauf. ;)

Da frag mal HisN, welches Spiel heute schon mehr als 8GB Speicher verbraucht... der wird dir ne lange Liste zeigen. :D

Wer nimmt das überhaupt ernst was er da zeigt? :confused: Anzeigen heißt nicht benötigen.

Grendizer
2017-10-11, 12:05:47
Wobei so Systeme ja auch immer ein bisschen Grundrauschen haben. Wenn ich mir überlege, was so auf Screen 2 und 3 alles angezeigt wird und läuft, wenn ich auf Screen 1 spiele. :eek:

Raff
2017-10-11, 12:09:27
Noch was zum Freuen für Veganer: Radeon RX Vega: Anisotrope Filterung mit aktueller Radeon Software fehlerhaft [Update: Bug behoben] (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/)

Das ging schnell. :)

MfG,
Raff

akuji13
2017-10-11, 12:16:04
Gabs nicht in der PCGH mal Tests das bei 8Gb Ram es in einigen Titeln mit bestimmten settings Ruckler gab und/oder schlechtere frametimes?

Mir aber egal, hab schon lange aus Sicherheitsgründen 32Gb in den Rechnern (gekauft als er günstig war).
Schließlich verwende ich die Plattform viele Jahre, nicht das ich nochmal was nachkaufen muss.

https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/

Vega macht hier einen sehr guten Eindruck, top :) Müsste der P10 nicht auch besser laufen?

Vega läuft gut, stimmt.
Aber wie schon beim Vorgänger empfinde ich die Anforderungen für das Gebotene als viel zu hoch.

In UHD gibts so nicht mal mit der Ti 60 fps ohne Detailreduktion, das wäre mir zu wenig.

Das ging schnell. :)

Schön. :)

Dann kann The Evil Within 2 ja kommen.

dargo
2017-10-11, 12:25:54
https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/

Vega macht hier einen sehr guten Eindruck, top :) Müsste der P10 nicht auch besser laufen?
Es zeichnet sich immer weiter ab Vega56 = ~GTX1080... gefällt mir. Das wird dann ein ordentlicher Sprung von der R9 390. Hach... noch 15 Tage. :naughty:

Achim_Anders
2017-10-11, 12:27:20
Was ist denn in 15 Tagen? :o

Sven77
2017-10-11, 12:28:04
Da kommt 1 tolles spiel vong louwlewel her raus

dargo
2017-10-11, 12:28:12
https://www.google.de/search?q=wolfenstein+2&oq=wolfenstein+2&aqs=chrome..69i57j0j69i60j0j69i60j0.2312j0j8&sourceid=chrome&ie=UTF-8

;)

Grendizer
2017-10-11, 12:37:27
Es zeichnet sich immer weiter ab Vega56 = ~GTX1080... gefällt mir. Das wird dann ein ordentlicher Sprung von der R9 390. Hach... noch 15 Tage. :naughty:


Jetzt müßten halt nur noch Customs kommen :freak:

Loeschzwerg
2017-10-11, 12:38:43
Noch was zum Freuen für Veganer: Radeon RX Vega: Anisotrope Filterung mit aktueller Radeon Software fehlerhaft [Update: Bug behoben] (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/)

Das ging schnell. :)

MfG,
Raff

Danke, dann kann ich den Treiber ja beruhigt installieren :)

dildo4u
2017-10-11, 12:41:58
AMD scheint nur noch Vega zu Optimieren,normal sollte die 580 die 1060 doch deutlich schlagen mit dem Vram Vorteil.Die 390 ist auch nur auf Level mit der 970.

Bei Forza 7 das selbe 1060 Meilen vor der 580.

https://www.computerbase.de/2017-10/nvidia-geforce-387.92-neuer-treiber-pascal-vega/#diagramm-forza-7-3840-2160

Grendizer
2017-10-11, 12:46:27
Stimmt. in dem Szenario sollte doch eine 390 mit 8 Gb deutlich vor einer 970 liegen.

aufkrawall
2017-10-11, 12:47:11
Ist halt Radeon-typisch inkonsistent. Mal hui, mal pfui.

Megamember
2017-10-11, 12:49:10
Das gute abschneiden der Vegas in SOW lag an falsch gesetzten Optionen bei der PCGH. EInige Einstellungen haben sich automatisch von Ultra auf hoch gestellt. Die Ergebnisse wurden nochmal korrigiert:

http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-Benchmarks-1240756/

Grendizer
2017-10-11, 12:51:54
Mal ganz ehrlich.... lieber einen Tag später, aber dafür dann sauber veröffentlichen. In meinem Alter kommt man da sonst nicht mehr mit :biggrin:

Botcruscher
2017-10-11, 12:56:17
Stimmt. in dem Szenario sollte doch eine 390 mit 8 Gb deutlich vor einer 970 liegen.

Ohne Frametimes kann da durchaus überhaupt kein Unterschied zusehen sein. Ansonsten bleiben da die üblichen Verdächtigen wie Speicherbremse. Was eingestellt ist muss nicht unbedingt angezeigt werden.

PCGH
Bereits eine Grafikstufe unter "Ultra", beim "Sehr hoch"-Preset, sinkt der Speicherbedarf laut spielinterner Aussage von 8 auf 2,5 GiByte, wobei die Texturen den größten Anteil daran haben. Setzen Sie alles auf ultra und nur die Texturen auf sehr hoch, werden 3,5 GiByte benötigt

... oder halt so. Da limitiert kein VRAM. 970, 390, 1060 und Polaris sind einfach da wo sie immer sind.

aufkrawall
2017-10-11, 12:58:04
Nope, der Fury X wird ihr Speichermangel ja sehr zum Verhängnis.

Raff
2017-10-11, 12:58:19
Mal ganz ehrlich.... lieber einen Tag später, aber dafür dann sauber veröffentlichen. In meinem Alter kommt man da sonst nicht mehr mit :biggrin:

Die originalen Werte mit der RS 17.9.3 waren sauber. Wäre der AMD-Treiber einen Tag früher da gewesen, hätte das sowohl CB als auch PCGH viel verbrannte Zeit gespart, die man durch Hast wieder reinholen musste. Davon ab: Das Spiel setzt Detailoptionen mitunter anders, als es vorgibt – das kann man nur mit Schmerz (Bug results) lernen. ;)

MfG,
Raff

dildo4u
2017-10-11, 12:58:24
Die PCGH Benches scheinen bei der GTX 1080 komisch CPU Limitiert zu sein,erst in 4k kann sich die 1080 von der 1070 absetzen.Ich dachte erst das der 8GB Speicher nicht reicht,das scheint aber nicht der Fall.

dargo
2017-10-11, 12:58:27
AMD scheint nur noch Vega zu Optimieren,normal sollte die 580 die 1060 doch deutlich schlagen mit dem Vram Vorteil.Die 390 ist auch nur auf Level mit der 970.

Bei Forza 7 das selbe 1060 Meilen vor der 580.

https://www.computerbase.de/2017-10/nvidia-geforce-387.92-neuer-treiber-pascal-vega/#diagramm-forza-7-3840-2160
Endlich hat sich AMD was von Nvidia abgeguckt. :devil:

aufkrawall
2017-10-11, 13:00:53
Das AMD-Treiberteam hat noch einen Arsch voll Arbeit mit Umstrukturierung der Linux- und der Öffnung des Vulkan-Treibers an der Backe. Nicht verwunderlich, dass für Polaris nicht für jedes Spiele-Release ein Wundertreiber bereit steht, wenn mittlerweile Vega im Fokus steht.

dildo4u
2017-10-11, 13:04:26
Ich denke auch die setzen drauf das Vega irgendwann,das Portfolio nach unten ergänzt.
Das ist ja eh eher Suboptimal wenn die Firma die weniger Leute am Treiber hat verschiedene Architekturen bedienen muss.
Soviel dazu das AMD besser altert.

dargo
2017-10-11, 13:06:22
Und das Trollen geht weiter. Auf dich ist immer Verlass. :uup:

Rancor
2017-10-11, 13:08:23
Ich denke auch die setzen drauf das Vega irgendwann,das Portfolio nach unten ergänzt.
Das ist ja eh eher Suboptimal wenn die Firma die weniger Leute am Treiber hat verschiedene Architekturen bedienen muss.
Soviel dazu das AMD besser altert.

Naja bisher war das aber immer so, das AMD Karten in der Regel länger besser supported wurden. Nur weil es jetzt mal nicht so ist, muss man nicht direkt den Teufel an die Wand malen.

gedi
2017-10-11, 13:10:56
Ich denke auch die setzen drauf das Vega irgendwann,das Portfolio nach unten ergänzt.
Das ist ja eh eher Suboptimal wenn die Firma die weniger Leute am Treiber hat verschiedene Architekturen bedienen muss.
Soviel dazu das AMD besser altert.

https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/2/#diagramm-mittelerde-schatten-des-krieges-1920-1080

Sehe ich nur bedingt so (970 auf Höhe der 390 nonX). Schön zu sehen, dass Vega sich endlich erwartungsgemäß von P10 absetzen kann. Wäre schön wenn weitere Titel den Trend bestätigen könnten.

Megamember
2017-10-11, 13:13:17
https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/2/#diagramm-mittelerde-schatten-des-krieges-1920-1080
:rolleyes:

Trotzdem ist die 970 noch vor 390 und 1060 noch vor 580. Computerbase testet ausserdem mit Nvidia Referenzkarten und lächerlichen Taktraten, oder?

Daredevil
2017-10-11, 13:15:13
Wer nimmt das überhaupt ernst was er da zeigt? :confused: Anzeigen heißt nicht benötigen.
Ich nehm das ernst.

Was soll "Anzeigen heißt nicht benötigen" heißen?
Wenn ich in GTA5 meine Runden fahre und der RAM auf 16 GB voll läuft lt. OSD, zeigt er mir das nur aus Spaß an?

aufkrawall
2017-10-11, 13:15:24
Naja bisher war das aber immer so, das AMD Karten in der Regel länger besser supported wurden. Nur weil es jetzt mal nicht so ist, muss man nicht direkt den Teufel an die Wand malen.
"supported" ist da der falsche Begriff. Das lag nicht an den Treibern, sondern an der Architektur, VRAM + Anwendungen. Ist für den Verbraucher natürlich schnuppe, woran es lag. Nur sollte man sich nicht automatisch drauf verlassen, dass Radeons besser altern. Siehe das Quatsch-Gefasel der Fanboys zur Fury X, wo die 4GB HBM ja angeblich locker 6GB GDDR5 entsprochen hätten...

Daredevil
2017-10-11, 13:16:31
Trotzdem ist die 970 noch vor 390 und 1060 noch vor 580. Computerbase testet ausserdem mit Nvidia Referenzkarten und lächerlichen Taktraten, oder?
Die 970 wäre eigentlich tot in FullHD.


Da das Spiel fordernd für eine Grafikkarte ist, wird das Ultra-Preset nur in 1.920 × 1.080 genutzt. Einzig die Texturdetails werden auf die zweithöchste Stufe "Hoch“ reduziert, da ansonsten alle Grafikkarten mit weniger als acht Gigabyte bereits in Full HD Schwierigkeiten hätten. Zudem wird Für 2.560 × 1.440 wird auf Sehr Hoch zurück geschaltet und für 3.840 × 2.160 auf Hoch.

dargo
2017-10-11, 13:16:39
Ich nehm das ernst.

Na dann viel Spaß dabei. ;D

Daredevil
2017-10-11, 13:17:42
Und hast du auch eine Antwort auf meine Frage? :)

dildo4u
2017-10-11, 13:18:07
"supported" ist da der falsche Begriff. Das lag nicht an den Treibern, sondern an der Architektur, VRAM + Anwendungen. Ist für den Verbraucher natürlich schnuppe, woran es lag. Nur sollte man sich nicht automatisch drauf verlassen, dass Radeons besser altern. Siehe das Quatsch-Gefasel der Fanboys zur Fury X, wo die 4GB HBM ja angeblich locker 6GB GDDR5 entsprochen hätten...
Der Treiber support scheint bis runter zu Kepler zu gehen,das schlechte Bild von Kepler wird häufig am Vram liegen.Nicht am Treiber oder Architektur.

http://abload.de/img/mordor31q9y.png

gedi
2017-10-11, 13:21:46
Der Treiber support scheint bis runter zu Kepler zu gehen,das schlechte Bild von Kepler wird häufig am Vram liegen.Nicht am Treiber oder Architektur.

http://abload.de/img/mordor31q9y.png

Die 280x hat doch auch nur 3gig und zersägt eine 770 4gig deutlich :confused:

Rancor
2017-10-11, 13:24:54
Ist eine GTX 770 nicht einfach eine höher getaktete GTX 680 gewesen?

Raff
2017-10-11, 13:25:46
Yep. Ich aber ich find's sehr amüsant, wenn eine Titan Classic (= GTX 780/6G OC) fast so schnell ist wie die speichermäßig ... gehandicapte GTX 970. :ulol:

MfG,
Raff

Rancor
2017-10-11, 13:27:14
JO dann ist es ja kein Wunder das die R9 280x schneller ist

gedi
2017-10-11, 13:33:34
JO dann ist es ja kein Wunder das die R9 280x schneller ist

Ne 280x ist doch auch nichts anderes als eine 7970GHZ und die 7970 kam afaik gar noch kurz vor der 680 raus.

Raff
2017-10-11, 13:34:20
Wieder yep. Die HD 7970 alias 280X gab's auch mit 6 GiB; das dürfte auch etwas helfen, um sich an die GTX 780/6G bzw. Titan Classic/Black heranzuschieben.

MfG,
Raff

X-Bow
2017-10-11, 13:37:45
Leute lasst doch bitte das ständige Off-Topic. Das ist der Vega Review-Thread, nicht der nVidia vs. AMD Thread noch der Speichermanagement-Thread und auch nicht der nVidia-Treibersupport-Thread.

Es nervt einfach gewaltig.

Danke.

akuji13
2017-10-11, 13:49:16
Wenn hier der Vega review only thread ist kann man hier auch dichtmachen.

Oder wann hast du das das letzte mal ein neues Vega review gesehen?

Lehdro
2017-10-11, 14:12:03
Die 280x hat doch auch nur 3gig und zersägt eine 770 4gig deutlich :confused:
Und die 6GB 780 setzt sich meilenweit von der 3GB 780 und 3GB 280X ab. Und nun?

Gimmick
2017-10-11, 14:23:15
Wenn du uns sagen würdest welche CPU du hast und wie du sie betreibst wären wir schon weiter. Aber lieber jede einzelne Info aus der Nase ziehen lassen, gell?

Absolut ;D sry.

4770k @ 4,3GHz und 1.235 V (glaube ich^^)
4 Gehäuselüfter
4 Ram Riegel
4 Laufwerke
4 USB 3 Geräte quasi dauerhaft dran
1 CPU Lüfter :p

Das wars wohl.
Im wurstcase laufen CPU GPU und IGPU auf Vollast ^^.

Es scheint mir gerade so die Schwelle darzustellen von "geht wharscheinlich" zu "geht auf jedenfall".

NT is ca 4 Jahre alt, GPU wird nicht übertaktet (vermutlich).

N0Thing
2017-10-11, 14:28:25
Jetzt nochmal ein ernsthafter Aufruf eine Quelle zu liefern! Wo wird gezeigt, dass AF unter DX12 'schlechter' ist als AF unter DX11 mit HQ Settings?

Ich habe bisher nix dazu im Netz gelesen sondern es wird nur hier im Forum als Argument gebracht. Also bitte Quelle oder diese Argument nicht mehr als Fakt darstellen.

Ich habe bei Rise of the Tomb Raider versucht, einen Unterschied festzustellen, allerdings ist es nicht einfach eine Stelle zu finden, bei der man immer den gleichen Blickwinkel hat und gleichzeitig auch Texturen im Bild, die einen Vergleich möglich machen. Das ist die beste Stelle, die ich finden konnte. Bilder sind HQ DX11, HQ DX12, Q DX11, Q DX12, alles 16AF.


https://abload.de/thumb/hqdx1116af20171011133vuuad.jpg (http://abload.de/image.php?img=hqdx1116af20171011133vuuad.jpg)https://abload.de/thumb/hqdx1216af201710111357fu9k.jpg (http://abload.de/image.php?img=hqdx1216af201710111357fu9k.jpg)https://abload.de/thumb/qdx1116af201710111344lzuna.jpg (http://abload.de/image.php?img=qdx1116af201710111344lzuna.jpg)https://abload.de/thumb/qdx1216af201710111347k6uah.jpg (http://abload.de/image.php?img=qdx1216af201710111347k6uah.jpg)


Es ist schwer, einen Unterschied zu erkennen und die unterschiedlichen Lichtverhältnisse machen es auch nicht einfacher, aber ich meine, daß zwischen HQ DX12, Q DX11, Q DX12 kein Unterschied zu sehen ist. HQ DX11 unterscheidet sich leicht, wenn man die Fliesen vor der Treppe und zwischen Pfütze und Säule betrachtet. O
b der Unterschied nun an Q vs. HQ liegt, oder am Spiel (Nebel, Licht, usw.) mag ich nicht zu beurteilen, weitere Beispiele wären hilfreich.

X-Bow
2017-10-11, 14:29:09
Wenn hier der Vega review only thread ist kann man hier auch dichtmachen.

Oder wann hast du das das letzte mal ein neues Vega review gesehen?

Naja nicht unbedingt, im weitestgehenden Sinne zähle ich Vega-Benchmarks zu neuen Spiele-Reviews und deren Diskussion über die Vega-Leistung auch in einen Vega Review-Thread ;-)

Dino-Fossil
2017-10-11, 14:48:33
Ich habe bei Rise of the Tomb Raider versucht, einen Unterschied festzustellen, allerdings ist es nicht einfach eine Stelle zu finden, bei der man immer den gleichen Blickwinkel hat und gleichzeitig auch Texturen im Bild, die einen Vergleich möglich machen.

Vielleicht wäre es besser, die Bilder als png zu erstellen und hochzuladen, um weitere Einflüsse durch jpg Kompression auszuschließen.

aufkrawall
2017-10-11, 14:48:50
@N0Thing: Stell mal die Auflösung runter, so dass du höhere fps hast, und achte auf diese. Wenn sich bei hohen fps durch die Einstellung diese rein gar nicht ändern, hat sie logischerweise auch keinen Effekt.
Für die Bewertung der Qualität ist RotTR nicht so gut geeignet wie etwa Forza Apex.

dargo
2017-10-11, 15:02:54
Absolut ;D sry.

4770k @ 4,3GHz und 1.235 V (glaube ich^^)
4 Gehäuselüfter
4 Ram Riegel
4 Laufwerke
4 USB 3 Geräte quasi dauerhaft dran
1 CPU Lüfter :p

Das wars wohl.
Im wurstcase laufen CPU GPU und IGPU auf Vollast ^^.

Es scheint mir gerade so die Schwelle darzustellen von "geht wharscheinlich" zu "geht auf jedenfall".

NT is ca 4 Jahre alt, GPU wird nicht übertaktet (vermutlich).
Für die OC-CPU würde ich jetzt grob 110-120W rechnen. Das sollte passen. Zur Not setze im Treiber das PT runter auf die Asicpower der Air Version von 220W (-8% -17%). Einen Unterschied in der Leistung wirst du eh nicht merken. Dann hast du schon mal 40-45W gespart (~295W für die ganze Karte). Oder halt Powermodus mit noch mehr Ersparnis. Oder Verbrauch Air Version mit UV oder Powermodus mit UV. Du hast zig verschiedene Varianten zur Verfügung. Du selbst bestimmst was die Karte ziehen darf.

Edit:
Sorry... habe die Werte durcheinander gehauen.
https://images.idgesg.net/images/article/2017/08/gpu-power-limit-vega-power-profile-100731707-orig.jpg

Ich dachte die Liquid hätte 240W Asicpower. Wenn du den Verbrauch der Airversion haben willst einfach Bios 2 balanced wählen. Wahrscheinlich wirst du noch paar Wattchen dank AIO weniger verbrauchen. Ich tippe mal auf ~280W im Schnitt.

N0Thing
2017-10-11, 15:16:11
Vielleicht wäre es besser, die Bilder als png zu erstellen und hochzuladen, um weitere Einflüsse durch jpg Kompression auszuschließen.

Okay, hier nochmal die gleichen Bilder als PNG:

https://abload.de/thumb/hq_dx11_16af_20171011bmuvh.png (http://abload.de/image.php?img=hq_dx11_16af_20171011bmuvh.png)https://abload.de/thumb/hq_dx12_16af_20171011sgurt.png (http://abload.de/image.php?img=hq_dx12_16af_20171011sgurt.png)https://abload.de/thumb/q_dx11_16af_201710111ifux3.png (http://abload.de/image.php?img=q_dx11_16af_201710111ifux3.png)https://abload.de/thumb/q_dx12_16af_201710111v1ua4.png (http://abload.de/image.php?img=q_dx12_16af_201710111v1ua4.png)

Praktischerweise hatte Steam eine verlustfreie Kopie angelegt. :)

@N0Thing: Stell mal die Auflösung runter, so dass du höhere fps hast, und achte auf diese. Wenn sich bei hohen fps durch die Einstellung diese rein gar nicht ändern, hat sie logischerweise auch keinen Effekt.
Für die Bewertung der Qualität ist RotTR nicht so gut geeignet wie etwa Forza Apex.

Das mit der Auflösung werde ich ausprobieren, aber vielleicht erst morgen.
Bei Forza Apex kann man nicht zwischen DX11 und DX12 wechseln, oder?