PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Hübie
2017-10-01, 09:35:56
Wenn man's genau nimmt braucht man immer die Anzahl der gerenderten Frames um den Prozentwert zuordnen zu können. Die 76,3 sind wohl der Einfachheit halber als Ersatz für 13,x ms hingeschrieben worden, damit die Leser das leichter zuordnen können. Das was Beetle sagt stimmt schon: 99% der Messung wurde in unter 13,x Millisekunden gerendert / ausgegeben.
Warum? Manche Spiele haben min-fps von 5 fps, aber z.B. nur während der Bildschirm noch schwarz ist (z.B. während eines Szenenwechsels). Um diese kaum oder nicht störenden min fps aus der Wertung zu nehmen verteilt man eben die Renderzeit und nimmt bspw. 1% aus der Rechnung heraus. Hoffe das ist so verständlich erklärt. :smile:

Schnitzl
2017-10-01, 10:01:25
warum gibts hier kein like-Button ;D

vielen Dank für die Links Dargo, danke auch an Beetle, dann liege ich ja richtig wenn ich ms erwarte und da stehen fps :D

Wenn man's genau nimmt braucht man immer die Anzahl der gerenderten Frames um den Prozentwert zuordnen zu können. Die 76,3 sind wohl der Einfachheit halber als Ersatz für 13,x ms hingeschrieben worden, damit die Leser das leichter zuordnen können. Das was Beetle sagt stimmt schon: 99% der Messung wurde in unter 13,x Millisekunden gerendert / ausgegeben.
Warum? Manche Spiele haben min-fps von 5 fps, aber z.B. nur während der Bildschirm noch schwarz ist (z.B. während eines Szenenwechsels). Um diese kaum oder nicht störenden min fps aus der Wertung zu nehmen verteilt man eben die Renderzeit und nimmt bspw. 1% aus der Rechnung heraus. Hoffe das ist so verständlich erklärt. :smile:
perfekt.
Also sollte dranstehen : 99% der frames wurden in unter xx,x Millisekunden gerendert
oder 99% der frames wurden in unter 1/76,3 Sekunden gerendert

so jetzt brauch ich auch mehr Kaffee :freak:

/Edit: d.h. bei Forza7 FHD hat ne 1060 im Prinzip immer 60fps oder mehr

MechWOLLIer
2017-10-01, 11:11:44
Die Jung hatten ja auch Frametimes in FPS angegeben - was in dem zusammenhang überhaupt keinen Sinn macht...... mehr Kaffee...... ich gehs nochmal durch
Doch, das sind schlicht in FPS umgerechnete Frametimes. Sprich, das ist der 99,0th Percentile Wert der Frametimes und der ist dann händisch in einen FPS-Wert umgerechnet.

Warum?
Das hat zwei Gründe: Es sieht in einem Diagramm schlicht total bekloppt aus, wenn beim oberen Teil (FPS) höhere Werte besser sind und beim unteren Teil (Frametimes in ms) geringere. Das haben wir alles hin und her probiert, es sieht einfach grausam aus.

Zudem kommt, dass viele Leser schon bei klassischen Frametime-Diagrammen die Krise bekommen und nicht viel verstehen. Mit FPS können halt die meisten etwas anfangen. Mit Frametimes in ms eben nicht.

Das steht auch alles online zu lesen hier:
https://www.computerbase.de/2017-05/grafikkarten-testsystem-2017/2/#abschnitt_frametimes_in_percentil_neben_den_fps

99th Percentile sind keine min.fps.

Ein 99th Percentile kann per se alles sein. Auch etwas, das nichts mit Geschwindigkeitsmessungen zu tun hat. Es ist eine spezielle mathematische Darstellung von mehreren Zahlen, nicht mehr und nicht weniger.

hq-hq
2017-10-01, 11:27:30
Doch, das sind schlicht in FPS umgerechnete Frametimes. Sprich, das ist der 99,0th Percentile Wert der Frametimes und der ist dann händisch in einen FPS-Wert umgerechnet.

Warum?
Das hat zwei Gründe: Es sieht in einem Diagramm schlicht total bekloppt aus, wenn beim oberen Teil (FPS) höhere Werte besser sind und beim unteren Teil (Frametimes in ms) geringere. Das haben wir alles hin und her probiert, es sieht einfach grausam aus.


1/ms ist eine praktische Lösung um es verständlich abzubilden.

Kriton
2017-10-01, 11:44:15
das heist das 99% der Zeit die Framerate höher als 76.3 war...... sozusagen Min-FPS

Vielleicht noch ergänzend: Durch die 1%-Regel normalisierst Du einzelne Ausreißer nach unten, damit die das Bild nicht verzerren (z.B. einmaliger drop auf 60 während 20 Minuten Bench, während ansonsten die Min-FPS bei 80 waren).

Edit: Man sollte weiterlesen bevor man antwortet...

dargo
2017-10-01, 12:36:37
perfekt.
Also sollte dranstehen : 99% der frames wurden in unter xx,x Millisekunden gerendert
oder 99% der frames wurden in unter 1/76,3 Sekunden gerendert

Kannst auch folgendes draus machen... 99% der Benchzeit war die Framerate über 76,3fps. :D

Flusher
2017-10-01, 13:51:57
Wow - da performen AMD Karten plötzlich in einem Spiel überdurchschnittlich gut und es wird schon drauf los fabuliert, wie stark Vega tatsächlich ist und dass sich jetzt das Potential endlich zeigt.

Dass es aber ein simple Treiberfehler oder sonstige Unverträglichkeit auf seiten NVIDIAs sein könnte so, dass plötzlich eine Fury X vor einer 1080 TI liegt, auf diese Idee kommen die üblichen Verdächtigen nicht. :freak:

Th3o
2017-10-01, 14:22:52
Vega wird einfach nichts gegönnt. Sie muss einfach mega fail bleiben, damit die Grüne Fraktion das Gefühl behält nicht abgezockt worden zu sein. Einfach nur erbämlich das Ganze.

Der_Korken
2017-10-01, 14:40:37
Die Forza 7 Benches sind aber schon recht merkwürdig. Bei CB ist alles oberhalb der GTX1060/RX580 so ziemlich CPU-limitiert. Zumindest glaube ich nicht, dass es bei Nvidia an mangelnder GPU-Leistung liegt, da die 1060 eigentlich völlig OK aussieht und mit höherer Auflösung die großen Nvidia-Karten wieder zulegen. Vega gewinnt hier anscheinend durch einen geringeren Overhead im CPU-Limit. Der Erfolg soll AMD natürlich trotzdem gegönnt sein, schließlich hat man AMD-Karten in der Vergangenheit dafür kritisiert, dass sie im CPU-Limit schlechter laufen. Aber eine überlegene GPU-Leistung von Vega kann ich hier nicht erkennen.

aufkrawall
2017-10-01, 15:24:35
CB-Wolfgang beweist mit Frametime-Graphen stets aufs Neue, dass 99th Percentile kaum etwas über die Spielbarkeit (Varianz/Ausreißer bei den Frametimes) aussagt, hält aber weiterhin eisern an dieser Metrik fest und bringt es auch weiterhin in Verbindung mit dem Begriff Frametimes. Glorreich...

dargo
2017-10-01, 15:31:31
Vega wird einfach nichts gegönnt. Sie muss einfach mega fail bleiben, damit die Grüne Fraktion das Gefühl behält nicht abgezockt worden zu sein. Einfach nur erbämlich das Ganze.
Zustimm... ich halte schon mein Popcorn bereit für den 27.10.17. :popcorn:

fondness
2017-10-01, 15:35:13
CB-Wolfgang beweist mit Frametime-Graphen stets aufs Neue, dass 99th Percentile kaum etwas über die Spielbarkeit (Varianz/Ausreißer bei den Frametimes) aussagt, hält aber weiterhin eisern an dieser Metrik fest und bringt es auch weiterhin in Verbindung mit dem Begriff Frametimes. Glorreich...

Es sagt deutlich mehr aus, als die min-fps.

aufkrawall
2017-10-01, 15:40:10
Es sagt deutlich mehr aus, als die min-fps.
Richtig, es ist eine bessere Ersatzmetrik für min-fps. Es geht mir um die unsinnige Verbindung zum Begriff "Frametimes".
Wenn ich 99th analog zu "Frametimes" verwende, hätte Nvidia in dem Spiel ja kaum schlechtere Frametimes. Die ganzen fiesen Spikes werden so einfach unter den Teppich gekehrt, der Begriff "Frametimes" ist hier völlig fehl am Platz.
Jetzt kann man irgendwie rumsinnieren, dass fps aus Frametimes resultieren etc. Nur ist damit rein niemandem beim Verständnis von 99th percentile geholfen.

RoughNeck
2017-10-01, 16:34:16
Also bei Forza 7 ist meine Vega vor meiner 1080 TI die 2 GHZ läuft.
Aber es langweilen sich beide Karten, selbst mit 4K und alles an was geht im Spiel, sinkt die Auslastung teils auf 70%.
Das Game scheint entweder in einen üblen CPU Limit zu stecken oder es ist gut optimiert.

dargo
2017-10-01, 16:42:35
Ersteres... ;)

Bei 4K brauchst du in der Regel etwa Faktor 3 bei der GPU gegenüber 1080p.

yamamoto_dc
2017-10-01, 16:53:43
Richtig, es ist eine bessere Ersatzmetrik für min-fps. Es geht mir um die unsinnige Verbindung zum Begriff "Frametimes".
Wenn ich 99th analog zu "Frametimes" verwende, hätte Nvidia in dem Spiel ja kaum schlechtere Frametimes. Die ganzen fiesen Spikes werden so einfach unter den Teppich gekehrt, der Begriff "Frametimes" ist hier völlig fehl am Platz.
Jetzt kann man irgendwie rumsinnieren, dass fps aus Frametimes resultieren etc. Nur ist damit rein niemandem beim Verständnis von 99th percentile geholfen.

FPS ist einfach das Reziprok der Frametimes, mir ist jetzt nicht klar, warum das so enorm störend ist.

M4xw0lf
2017-10-01, 17:40:50
Wow - da performen AMD Karten plötzlich in einem Spiel überdurchschnittlich gut und es wird schon drauf los fabuliert, wie stark Vega tatsächlich ist und dass sich jetzt das Potential endlich zeigt.

Dass es aber ein simple Treiberfehler oder sonstige Unverträglichkeit auf seiten NVIDIAs sein könnte so, dass plötzlich eine Fury X vor einer 1080 TI liegt, auf diese Idee kommen die üblichen Verdächtigen nicht. :freak:
Nvidia hat doch laut CB bestätigt, dass die gemessene Performance so passt.

24p
2017-10-01, 18:09:57
Zustimm... ich halte schon mein Popcorn bereit für den 27.10.17. :popcorn:

Und was soll dann kommen? Der Wundertreiber?

yamamoto_dc
2017-10-01, 18:21:26
Wolfenstein 2

Wiseman
2017-10-01, 18:43:41
Vega wird einfach nichts gegönnt. Sie muss einfach mega fail bleiben, damit die Grüne Fraktion das Gefühl behält nicht abgezockt worden zu sein. Einfach nur erbämlich das Ganze.

+1

Megamember
2017-10-01, 18:48:54
Wolfenstein 2

Benutzt eben die Doom Engine also können sich die AMD boys mal freuen das sie paar fps vorne liegen aber besonders überraschend und spannend kommt das jetzt nicht.
Wird auf fast allen Karten ziemlich gut laufen.

dildo4u
2017-10-01, 18:54:25
Nvidia hat doch laut CB bestätigt, dass die gemessene Performance so passt.
Die Performance sollte nicht normal sein Shacknews das Game deswegen schon verrissen.Ich glaube nicht das z.b die Menüs stottern sollen wenn man ne High-End CPU mit SSD hat.

As touched on in the opening, Forza on the PC has a history of shaky performance at launch. I experienced stutters and problems with Horizon 3 and the Forza Motorport 7 demo featured some serious stutters and hitches, especially during menus and cutscenes. Sadly, what ever issue is causing the problem is in the full game as well. I went through the first couple of races and thought I felt some slight hitching and those thoughts were confirmed as it seemed to get worse the more I played.

http://www.shacknews.com/article/101520/forza-motorsport-7-review-what-could-have-been

Linmoum
2017-10-01, 18:55:38
Benutzt eben die Doom Engine also können sich die AMD boys mal freuen das sie paar fps vorne liegen aber besonders überraschend und spannend kommt das jetzt nicht.
Wird auf fast allen Karten ziemlich gut laufen.
Spannend wird das schon, da Wolfenstein 2 FP16 nutzt.

dargo
2017-10-01, 19:10:58
Benutzt eben die Doom Engine also können sich die AMD boys mal freuen das sie paar fps vorne liegen aber besonders überraschend und spannend kommt das jetzt nicht.

Doch... denn es wird das erste Game mit FP16 sein. Zusätzlich natürlich Vulkan mit Async Compute und Shader Intrinsic Functions. Also das volle Programm für GCN, erst recht für Vega. ;)

yamamoto_dc
2017-10-01, 19:12:33
Benutzt eben die Doom Engine also können sich die AMD boys mal freuen das sie paar fps vorne liegen aber besonders überraschend und spannend kommt das jetzt nicht.
Wird auf fast allen Karten ziemlich gut laufen.

Ich als Vega-Besitzer freue mich jedenfalls drauf, zu sehen ob Bethesda einige der neuen Vega-Features nutzen kann und was das dann an Performance bringt. Nvidia Besitzer werden aufgrund ihrer Masse natürlich trotzdem mit guter Performance bedient, wäre ja auch zu blöd, wenn man die Mehrheit unzufrieden zurücklässt.

Wenn Vega aber tatsächlich am besten laufen sollte, dann werden die NV-Fans vermutlich grün vor Neid und Gift und Galle speien...;D

fondness
2017-10-01, 19:34:20
Doch... denn es wird das erste Game mit FP16 sein. Zusätzlich natürlich Vulkan mit Async Compute und Shader Intrinsic Functions. Also das volle Programm für GCN, erst recht für Vega. ;)

Fast das volle Programm, die Primitive Shader fehlen noch^^

Digidi
2017-10-01, 19:37:13
Die Performance sollte nicht normal sein Shacknews das Game deswegen schon verrissen.Ich glaube nicht das z.b die Menüs stottern sollen wenn man ne High-End CPU mit SSD hat.



http://www.shacknews.com/article/101520/forza-motorsport-7-review-what-could-have-been

Du Kramst wirklich die aller lezten Hinterhofzeitschriften aus. Da ist die Rede von Drops auf 0 FPS so was sieht man aber nicht mal bei Nvidia im CB Review.

Kriton
2017-10-01, 20:26:45
Benutzt eben die Doom Engine also können sich die AMD boys mal freuen das sie paar fps vorne liegen aber besonders überraschend und spannend kommt das jetzt nicht.
Wird auf fast allen Karten ziemlich gut laufen.

Und wenn es auf Unreal nicht so gut läuft wird es immer als (erneute) Bestätigung für die schlechte Performance gesehen. Lasst uns wenigstens konsistent bleiben wie wir werten.

dildo4u
2017-10-01, 20:42:46
Du Kramst wirklich die aller lezten Hinterhofzeitschriften aus. Da ist die Rede von Drops auf 0 FPS so was sieht man aber nicht mal bei Nvidia im CB Review.
Selbst wenn man das krasse stottern im Menü ignoriert ist die Performance lächerlich für ein 60fps Konsolen Game.FH3 ist Open World und läuft locker mit 100fps plus.


https://youtu.be/HBJ1FNePpUA

Hübie
2017-10-01, 20:50:15
Und wenn es auf Unreal nicht so gut läuft wird es immer als (erneute) Bestätigung für die schlechte Performance gesehen. Lasst uns wenigstens konsistent bleiben wie wir werten.

Im Grunde ist es auch lächerlich dass sich jede Seite an einem Spiel mal aufzieht weil es auf dem Lieblingshersteller besser läuft. Das ist im Grunde eine schlechte Entwicklung, weil ich dann künftig entweder zwei Karten haben müsste oder je nach Spiel kaufe / verkaufe. Verstehe nicht wie man sich freuen kann. Konsistenz wäre eben wenn man das genau so moniert.

Grundkurs
2017-10-01, 20:54:38
Wow - da performen AMD Karten plötzlich in einem Spiel überdurchschnittlich gut und es wird schon drauf los fabuliert, wie stark Vega tatsächlich ist und dass sich jetzt das Potential endlich zeigt.

Dass es aber ein simple Treiberfehler oder sonstige Unverträglichkeit auf seiten NVIDIAs sein könnte so, dass plötzlich eine Fury X vor einer 1080 TI liegt, auf diese Idee kommen die üblichen Verdächtigen nicht. :freak:

Computerbase hatte doch sogar mit NVidia Rücksprache gehalten wegen der seltsamen Ergebnisse, die wurden dann auch von NVidia bestätigt. Treiberfehler halte ich daher für nicht schlüssig. Quelle: https://www.computerbase.de/2017-09/forza-7-benchmark/2/

-=Popeye=-
2017-10-01, 21:13:42
Computerbase hatte doch sogar mit NVidia Rücksprache gehalten wegen der seltsamen Ergebnisse, die wurden dann auch von NVidia bestätigt. Treiberfehler halte ich daher für nicht schlüssig. Quelle: https://www.computerbase.de/2017-09/forza-7-benchmark/2/

Der Nvidia Treiber ist sehr wohl fehlerhaft (zB Grafikfehler bei bestimmten Einstellungen).

Was die Performance angeht... tja hier ist halt mal AMD vorn, es sei ihnen gegönnt.

Flusher
2017-10-01, 21:37:15
Vega wird einfach nichts gegönnt. Sie muss einfach mega fail bleiben, damit die Grüne Fraktion das Gefühl behält nicht abgezockt worden zu sein. Einfach nur erbämlich das Ganze.

Abgezockt? Wo? Wann? Ich hab als langjähriger AMD Jünger und Ex-Nano-Besitzer mir Anfang des Jahres eine 1080 gekauft weil VR mit AMD einfach übel läuft - im wahrsten Sinne des Wortes.

Gekauft für 620 € Anfang des Jahres und seit dem in Nutzung. Was kostet aktuell eine um 1 Jahr verspätete Vega 64...ahja...genau.

Vega ist und bleibt ein unrundes, verspätetes und kaum lieferbares Produkt. Letzteres kann sich vielleicht noch bessern.

Computerbase hatte doch sogar mit NVidia Rücksprache gehalten wegen der seltsamen Ergebnisse, die wurden dann auch von NVidia bestätigt. Treiberfehler halte ich daher für nicht schlüssig. Quelle: https://www.computerbase.de/2017-09/forza-7-benchmark/2/

Sie bestätigen die Ergebnisse bezüglich ihrer Richtigkeit. Das bedeutet aber nicht, dass da nicht trotzdem etwas im Argen liegt, was sich potentiell im Treiber fixen lässt.

Digidi
2017-10-01, 21:39:51
Der Nvidia Treiber ist sehr wohl fehlerhaft (zB Grafikfehler bei bestimmten Einstellungen).

Was die Performance angeht... tja hier ist halt mal AMD vorn, es sei ihnen gegönnt.
Dann würde ich mal Fragen ob bei Nvidia noch alles Richtig läuft wenn sie dann solche Aussagen gegenüber Computerbase vertreten.

:facepalm:

dildo4u
2017-10-01, 21:47:20
Man sollte nicht vergessen wenn sie den Port fixen wird das allen GPU's helfen,da sollte man Druck machen egal welche GPU man hat.
Es ist einfach erbärmlich das Turn 10 ein MS Studio so viele Probleme mit der von MS Entwickelten API hat.Und das ist schon das dritte Game mit der Engine das für den PC erschienen ist.

horn 12
2017-10-01, 22:13:45
Weiterer Hersteller von Custom RX64
GigaByte Gaming OC

https://www.computerbase.de/2017-10/gigabyte-radeon-rx-vega-64-gaming-oc-8g-bild/

RoughNeck
2017-10-01, 22:14:34
Dann würde ich mal Fragen ob bei Nvidia noch alles Richtig läuft wenn sie dann solche Aussagen gegenüber Computerbase vertreten.

:facepalm:

NVIDIA hat doch nur bestätigt dass es mit diesen Treiber nicht besser läuft, mehr auch nicht. Einfach mal abwarten, zumal läuft das Game auf meiner TI auch sauber.
Mit der Vega Karte läuft das Game halt einen Tick besser.


@horn

Oh man, Dual Slot und nur 2 Lüfter.
Das wird ein lauter Fail werden

Digidi
2017-10-01, 22:17:35
NVIDIA hat doch nur bestätigt dass es mit diesen Treiber nicht besser läuft, mehr auch nicht. Einfach mal abwarten, zumal läuft das Game auf meiner TI auch sauber.
Mit der Vega Karte läuft das Game halt einen Tick besser.




Nvidia weiss das es nicht gut läuft und nennt es dann Game "Ready" Driver Aha.

-=Popeye=-
2017-10-01, 22:26:02
Nvidia weiss das es nicht gut läuft und nennt es dann Game "Ready" Driver Aha.

Diese Aussage ist jetzt aber Quatsch, denn es läuft mit den üblichen Auflösungen anstandslos. Nur wenn man versucht das hier gepostete Vega56 8k Video nachzustellen gibt es Grafikfehler (jedenfalls ist dies mit einer Maxwell Karte der Fall).

TwoBeers
2017-10-01, 22:30:51
Nvidia weiss das es nicht gut läuft und nennt es dann Game "Ready" Driver Aha.

Ja, der Treiber ist "ready" für das game .. mehr nicht .. Optimierungen fehlen halt noch. :D

@Topic: Ich find's ja mal richtig gut, dass Vega hier mal was zeigen kann, JETZT wäre der richtige Zeitpunkt für einen Launch gewesen (wahrscheinlich immernoch zu früh).
Nach so einem Game bzw. Ergebnis müssten direkt die Customs starten .. mit richtig gutem Preispunkt.
Aber so .. verpufft das ganze einfach, schade. AMD kann super Hardware, teilweise Software und null Marketing. Da verschenken sie richtig viel. ;(

Kriton
2017-10-01, 22:32:09
Im Grunde ist es auch lächerlich dass sich jede Seite an einem Spiel mal aufzieht weil es auf dem Lieblingshersteller besser läuft. Das ist im Grunde eine schlechte Entwicklung, weil ich dann künftig entweder zwei Karten haben müsste oder je nach Spiel kaufe / verkaufe. Verstehe nicht wie man sich freuen kann. Konsistenz wäre eben wenn man das genau so moniert.

Ich habe bewusst nicht bewertet was ich für besser halte. IMHO gibt es für beides Argumente. Wenn ich aber darauf eingegangen wäre, hätte man dies genutzt von meinem eigentlichen Kritikpunkt abzuweichen und darüber zu reden.
Ein derartiger Wechsel in der Argumentation in Abhängigkeit des gewünschten Ergebnisses ist Heuchelei. Egal von welcher Seite.

aufkrawall
2017-10-01, 22:34:13
Ist halt ein hingerotzter UWP-Port, erinnert an Quantum Break DX12. Ist nicht seriös zu behaupten, der NV-Treiber wär der Verursacher.
Kann sein, wissen wir nicht. Bei DX12 liegt jedenfalls mehr Verantwortung beim Entwickler, und der hat sich in dem Fall in der Vergangenheit schon mehrfach als völlig inkompetent erwiesen.
Ich würd damit rechnen, dass NV in Zukunft noch das ein oder andere Mal mit dem UWP-Müll von Microsoft-Studios Probleme haben wird, wenn sie nicht wie bei GoW4 mit im Boot sitzen. Kann man nicht ändern, Microsoft ist der größte Aloch-Verein. Die kacken einfach drauf, wenn bestimmte Hardware Probleme hat.

Kriton
2017-10-01, 22:35:56
Oder die Doku der AMD-HW ist (auch bedingt durch die Konsolen, wobei ich wahrgenommen zu haben glaube, ohne das selbst beurteilen zu können, dass AMD offener mit Infos für die Entwickler ist) einfach besser, so dass der Entwickler darauf besser anpassen kann. In diesem Fall wäre auch Nvidia in der Pflicht (mit besserer Doku).

horn 12
2017-10-01, 22:37:17
AMD Referenz Karten werden dieses Mal weitaus länger erhältlich sein und auch Bleiben und den RX Vega Markt dominieren.

GigaByte failt wohl (Meiner Meinung nach)
Asus wird augenscheinlich erneut teuer werden,
Sapphire wurde vergrault,
MSI kommt nix vernünftiges bis vielleicht gar nix
und Powercolor, XFX (Pine) ist vielleicht zu klein um etwas Gutes, Eigenständiges zu bringen.
HIS fällt auch komplett raus.

Dies wird es wohl fast gewesen sein ...
Schade eigentlich für Vega 56/64

gedi
2017-10-01, 22:37:21
@aufkrawall

Mit solchen Aussagen wäre ich aber vorsichtig. Ich möchte dich nur mal an PC1 erinnern, welches ausschließlich auf NV-GPUs rund lief, obwohl es an der Grafikpracht wahrlich nicht gelegen haben kann.

RoughNeck
2017-10-01, 22:38:31
@aufkrawall

Ach komm.
Das Game läuft von Anfang an ohne Probleme bei mir, egal ob da eine AMD oder Nvidia Karte zum Einsatz kommt. Von hingerotzt kann da keine Rede sein, nur weils mal bei Nvidia nicht so gut läuft.

Kriton
2017-10-01, 22:53:18
AMD Referenz Karten werden dieses Mal weitaus länger erhältlich sein und auch Bleiben und den RX Vega Markt dominieren.

GigaByte failt wohl (Meiner Meinung nach)
Asus wird augenscheinlich erneut teuer werden,
Sapphire wurde vergrault,
MSI kommt nix vernünftiges bis vielleicht gar nix
und Powercolor, XFX (Pine) ist vielleicht zu klein um etwas Gutes, Eigenständiges zu bringen.
HIS fällt auch komplett raus.

Dies wird es wohl fast gewesen sein ...
Schade eigentlich für Vega 56/64

Sapphire ist doch AMD-exklusiv, die werden wohl kaum vergrault. Fertigen die nicht sogar die Referenz für AMD?

aufkrawall
2017-10-01, 22:55:04
@aufkrawall

Ach komm.
Das Game läuft von Anfang an ohne Probleme bei mir, egal ob da eine AMD oder Nvidia Karte zum Einsatz kommt. Von hingerotzt kann da keine Rede sein, nur weils mal bei Nvidia nicht so gut läuft.
Wenn die NV-Frametimes bei CB so stimmen, find ich das Resultat schon ziemlich mies. Der VRAM-Verbrauch ist auch ein Witz, ebenfalls nicht schön für Besitzer älterer Karten.

@aufkrawall

Mit solchen Aussagen wäre ich aber vorsichtig. Ich möchte dich nur mal an PC1 erinnern, welches ausschließlich auf NV-GPUs rund lief, obwohl es an der Grafikpracht wahrlich nicht gelegen haben kann.
Was hat PC1 mit DX12 UWP-Ports zu tun? Gar nichts.

scully1234
2017-10-01, 23:03:38
@aufkrawall
Von hingerotzt kann da keine Rede sein, nur weils mal bei Nvidia nicht so gut läuft.


In Bezug auf das was man mal mit DX12 vorhatte ,ist das schon ein Armutszeugnis , nicht bewertet dabei welcher Vendor da mal mehr und mal weniger gut abschneidet

Die Quintessenz aus der DX12 Geschichte, müsste eigentlich langsam lauten ,Fallback Richtung DX11 ,wenn es den Spieleschmieden und selbst Microsoft so schwer fällt, und wieder mehr Verantwortung beim Grafikkarten Vendor

Die finanzielle Hürde für vernünftige Ports ,scheint doch nicht ganz unerheblich, für diese Freiheit die man sich damit erkauft

Zergra
2017-10-01, 23:06:28
Sapphire ist doch AMD-exklusiv, die werden wohl kaum vergrault. Fertigen die nicht sogar die Referenz für AMD?
Ja machen die.

Iruwen
2017-10-01, 23:07:45
Wenn Vega aber tatsächlich am besten laufen sollte, dann werden die NV-Fans vermutlich grün vor Neid und Gift und Galle speien...;D

Das ist eher so ein Düsseldorf - Köln Ding, Kölner mögen Düsseldorf nicht, Düsseldorfern ist Köln scheißegal. Auf einer GeForce laufen 99% aller Spiele top, wenn eine handvoll auf einer Radeon besser läuft - was nichtmal impliziert, dass es auf einer NV-Karte schlecht läuft - kräht da kein Hahn nach.
Ihr habt hier einfach nen krassen confirmation bias und wollt in eurer Filterblase unter euch bleiben.

Th3o
2017-10-01, 23:39:04
Die AMD Fans/Interessierten wären schon froh, wenn sie einen eigenen Thread hätten, in dem sie über AMD diskutieren könnten ohne die ständigen virtuellen Schwanzvergleiche der Grünen Sekte.

-=Popeye=-
2017-10-01, 23:50:01
Nur weil man Kopfstand macht wird er trotzdem nicht länger auch wenn es den Anschein hat.

Btw... dies ist ein Grafikkarten Forum, also muss man sich auch Vergleichen stellen.

yamamoto_dc
2017-10-02, 00:09:05
Das ist eher so ein Düsseldorf - Köln Ding, Kölner mögen Düsseldorf nicht, Düsseldorfern ist Köln scheißegal. Auf einer GeForce laufen 99% aller Spiele top, wenn eine handvoll auf einer Radeon besser läuft - was nichtmal impliziert, dass es auf einer NV-Karte schlecht läuft - kräht da kein Hahn nach.
Ihr habt hier einfach nen krassen confirmation bias und wollt in eurer Filterblase unter euch bleiben.

Dafür, dass kein Hahn danach kräht, wird hier aber ganz schön viel von NV-Enthusiasten mitdiskutiert. Aber wie dem auch sei, warten wir einfach die weitere Entwicklung ab. Ich kann mit Vega jedenfalls auch ganz gut spielen und wenn ich auf die Entwicklung am Konsolenmarkt so schaue, wird das auch noch viele Jahre so bleiben. :smile:

Wake
2017-10-02, 00:17:03
@horn

Oh man, Dual Slot und nur 2 Lüfter.
Das wird ein lauter Fail werden

Wohl 2,5 Slot und deutlich breiter als das Referenzdesign:
https://i.imgur.com/Ng6xeEM.jpg
https://videocardz.net/gigabyte-radeon-rx-vega-64-8gb-gaming-oc/

gedi
2017-10-02, 01:09:03
Wenn die NV-Frametimes bei CB so stimmen, find ich das Resultat schon ziemlich mies. Der VRAM-Verbrauch ist auch ein Witz, ebenfalls nicht schön für Besitzer älterer Karten.


Was hat PC1 mit DX12 UWP-Ports zu tun? Gar nichts.

Zieh mal bitte die grüne Brille ab und schieb nicht alles an UWP, diverse Treiberteams usw., sondern nimm einfach hin, dass Pascals Stärken eher nicht in DX12 begründet sind - ich tue es ja schließlich auch.

aufkrawall
2017-10-02, 01:27:56
Ich schiebe es nicht allein auf UWP, sondern auf ausgebliebene Anpassungen für Nvidia, welche gerne mit diesen schlecht gepflegten UWP-Ports einher gehen. Das mit der Brille geb ich zurück.

exxo
2017-10-02, 04:08:32
Am PC hast du einen Kopierschutz den du auf Konsole nicht brauchst.

Kwt :eek:

AMD Referenz Karten werden dieses Mal weitaus länger erhältlich sein und auch Bleiben und den RX Vega Markt dominieren.



Hast du eine Quelle für diese Behauptung?

dargo
2017-10-02, 06:14:19
Fast das volle Programm, die Primitive Shader fehlen noch^^
Stimmt... die sind aber noch etwas Zukunftsmusik.

Im Grunde ist es auch lächerlich dass sich jede Seite an einem Spiel mal aufzieht weil es auf dem Lieblingshersteller besser läuft. Das ist im Grunde eine schlechte Entwicklung, weil ich dann künftig entweder zwei Karten haben müsste oder je nach Spiel kaufe / verkaufe. Verstehe nicht wie man sich freuen kann. Konsistenz wäre eben wenn man das genau so moniert.
Stimmt... wo früher 9x% der Games auf NV besser liefen da war die Welt noch in Ordnung. Not...

Grendizer
2017-10-02, 08:28:06
Stimmt... die sind aber noch etwas Zukunftsmusik.


Stimmt... wo früher 9x% der Games auf NV besser liefen da war die Welt noch in Ordnung. Not...


Es gibt mit Forza 7, Doom und bald mit Wolfenstein 3 spiele die auf den AMD Karten deutlich besser laufen.

Mit Warhammer 2 und Fifa 18 sind gerade aktuell wieder 2 Beispiele gelauncht worden die zeigen, das DX12 ein extrem laues Lüftchen ohne dramatischen Mehrwert ist, wenn es nicht richtig gemacht wird. Daraus wird jetzt eine AMD Überlegenheit, die "uns" nVidia Fanboys zum zittern bringen soll konstruiert ?

Und bei allen Performance Höhenflügen kann ich immer noch nicht die üble Geräuschkullisse einer Referenzvega in meinem Rechner vergessen. So schlecht Forza 7 beim mir läuft, aber meine Karte dreht dabei nur mit 960 Umdrehungen, wo liegt das Vega mit allem UV ? Bei 2200 ? Für mich ein absolutes No-Go.

Rancor
2017-10-02, 08:40:18
Also ich finde es gut, das VEGA in einigen Titeln nun richtig aufdreht. So kann sich NV nicht weiter auf Pascal ausruhen.
Wie man im CPU Bereich sehen kann, belebt Konkurrenz immer das Geschäft. Wir haben das im GPU Bereich auch dringend nötig.

Ich hoffe in Wolfenstein wird der Abstand ähnlich groß werden.

Daredevil
2017-10-02, 08:52:11
Hat jemand Verbrauchswerte bei Vega in Forza?
Also steigt der Verbrauch deutlich mehr an oder bewegt er sich im normalen Bereich?

Raff
2017-10-02, 09:12:25
Hat jemand Verbrauchswerte bei Vega in Forza?
Also steigt der Verbrauch deutlich mehr an oder bewegt er sich im normalen Bereich?

So funktioniert das nicht. Moderne Karten arbeiten mit gedeckelten Powerlimits. Heißt: Lastet ein Spiel die Einheiten besonders gut aus, sinken Takt und Spannung, um innerhalb des festgelegten Rahmens zu bleiben. Höhere Verbräuche gibt's nur, wenn man das Powerlimit manuell weitet. :) Insofern ergeben sich immer die folgenden Werte, wenn Vega voll ausgelastet arbeitet:

Vega 56: 210-220 Watt
Vega 64: 290-300 Watt
Vega 64 LCE: 340-350 Watt

MfG,
Raff

phoenix887
2017-10-02, 09:23:30
Gehört nicht zum Thema, aber wie im Kindergarten hier Nvidia vs. AMD. Kann man fast nicht mehr ertragen beim lesen.

dargo
2017-10-02, 09:43:09
Es gibt mit Forza 7, Doom und bald mit Wolfenstein 3 spiele die auf den AMD Karten deutlich besser laufen.

Mit Warhammer 2 und Fifa 18 sind gerade aktuell wieder 2 Beispiele gelauncht worden die zeigen, das DX12 ein extrem laues Lüftchen ohne dramatischen Mehrwert ist, wenn es nicht richtig gemacht wird. Daraus wird jetzt eine AMD Überlegenheit, die "uns" nVidia Fanboys zum zittern bringen soll konstruiert ?

Was in deinem Kopf konstruiert wird solltest du vielleicht nicht auf das Forum übertragen.

Daredevil
2017-10-02, 09:50:56
So funktioniert das nicht. Moderne Karten arbeiten mit gedeckelten Powerlimits. Heißt: Lastet ein Spiel die Einheiten besonders gut aus, sinken Takt und Spannung, um innerhalb des festgelegten Rahmens zu bleiben. Höhere Verbräuche gibt's nur, wenn man das Powerlimit manuell weitet. :) Insofern ergeben sich immer die folgenden Werte, wenn Vega voll ausgelastet arbeitet:

Vega 56: 210-220 Watt
Vega 64: 290-300 Watt
Vega 64 LCE: 340-350 Watt

MfG,
Raff
Dann änder ich die Frage halt auf, sinkt der Takt deutlich ab, wenn es besser performt? :D
Mir gings nur um die Watt/Performance, die stößt mir übel auf.

Wenn Vega64 ne Heizung ist und einer 1080 hinterherhechelt in 90% der Benches, müsste sich die Effizienz ja um 180° drehen in solche Szenarien, wenn sie auch mal Leistung auf die Straße bringt.

Ich hatte schon mal ne 2900xt und so sehr ich sympathisiere, mein Kopf geht dieses mal über das Herz. :usad:

dargo
2017-10-02, 09:58:16
Dann änder ich die Frage halt auf, sinkt der Takt deutlich ab, wenn es besser performt? :D

Nein... war schon bei Grenada nicht anders. Am Beispiel von Doom @Vulkan... Takt sankt bei meiner R9 390 um 1-2% bei 40-50% mehr Leistung. Ergo steigt die Perf/W deutlich.

unl34shed
2017-10-02, 09:59:17
So schlecht Forza 7 beim mir läuft, aber meine Karte dreht dabei nur mit 960 Umdrehungen, wo liegt das Vega mit allem UV ? Bei 2200 ? Für mich ein absolutes No-Go.

Du vergleichst gerade echt ein DHE Design mit einem Vision Kühler? :crazy2:

Hasenpfote
2017-10-02, 09:59:36
Computerbase hatte doch sogar mit NVidia Rücksprache gehalten wegen der seltsamen Ergebnisse, die wurden dann auch von NVidia bestätigt. Treiberfehler halte ich daher für nicht schlüssig. Quelle: https://www.computerbase.de/2017-09/forza-7-benchmark/2/Die anderen Karten von Nvidia sind auch ganz schön unter Druck von den AMD-Pendants. Ich halte es daher für ein generelles Treiberproblem auf Nvidia-Seite. Außerdem: eine Schwalbe macht noch keinen Sommer.

yamamoto_dc
2017-10-02, 10:01:23
Wäre wirklich interessant zu sehen, ob die Optimierungen in der Praxis auch mit besserer Effizienz einhergehen, ich gehe fast davon aus. Wenn einem dann 60 FPS reichen, kann die Karte damit schön ruhig laufen.

dargo
2017-10-02, 10:03:03
Wäre wirklich interessant zu sehen, ob die Optimierungen in der Praxis auch mit besserer Effizienz einhergehen. Ich gehe fast davon aus.
Bin ich auf deiner Ignore?

Bucklew
2017-10-02, 10:23:13
Wann gedenkt AMD eigentlich PlayReady3.0 zu unterstützen?

Intel und NVIDIA können es ja bekanntlich und damit funktioniert auch Netflix in 4K. Bei AMD heißt es seit Polaris, dass das Feature mit einem "späteren Treiber" kommen wird, dito mit Vega.

Mangel76
2017-10-02, 10:44:47
Schön, wieder seitenweise Diskussionen darüber, warum bei Forza 7 NVIDIA am schlechten Abschneiden nicht schuld ist, sondern alle anderen. Und ein Spiel macht auch die VEGA nicht plötzlich zu Top-Karte! Dabei scheint es mir recht eindeutig zu sein, wie dieses Ergebnis zustande kommt:

1. AMD ist mindestens mit VEGA im CPU-Limit besser als NVIDIA:
Die Performance der Karten ist prinzipiell dort, wo wir sie nach unseren Ersteindrücken aus dem letzten Artikel sowie einigen weiteren Messungen für's Heft (Ausgabe 07/2017) eingeschätzt haben - mit einer groben Ausnahme: Die neuen AMD RX Vega GPUs verhalten sich völlig anders, als wir von AMD-GPUs gewöhnt sind: Im CPU-Limit ist Vega außerordentlich stark und kann selbst Nvidias aktuelle Oberklasse schlagen. Offenbar hat AMD Verbesserungen bei der Architektur einfließen lassen, die es erlauben, die GPU auch bei hoher CPU-Last beziehungsweise einem Overhead-Szenario sehr gut auszulasten - zumindest hat es nach dem Testen in PUBG den Anschein. Quelle (http://www.pcgameshardware.de/Playerunknowns-Battlegrounds-Spiel-60812/Specials/Playerunknowns-Battlegrounds-neue-Benchmarks-Vega-1236260/)

2. Forza 7 ist total CPU-limitiert, läuft nur auf 1-2 Kernen:
Die Turn 10 Studios haben verlauten lassen, dass Forza Motorsport 7 auf dem PC absichtlich stark CPU-limitiert ist. Die Demo-Version nutzt nur einen Rechenkern voll aus, was laut den Entwicklern die Eingabelatenz verringern soll. Quelle (http://www.pcgameshardware.de/Forza-Motorsport-7-Spiel-61042/News/CPU-Last-ein-Kern-1239467/)

Das Ganze wird gestützt durch das bessere Abschneiden von NVIDIA in höheren Auflösungen, wenn langsam die GPU limitiert. Hier ist mal ein Beispiel, wo die CPU-Limitierung selbst mit High-End-CPU zu sehen ist, was sonst ja eher nicht vorkommt, da bei Grafikkartentests i.A. die Einstellungen so hoch gedreht werden, dass es quasi immer zu einer GPU-Limitierung führt. Ich könnte mir vorstellen, dass bei Nutzung einer kleineren CPU oder niedrigeren Einstellungen (VEGA verliert anscheinend stärker durch hohe MSAA-Stufen als Pascal) die Ergebnisse in mehreren Spielen anders aussehen als die überall veröffentlichten. Jetzt könnte man natürlich noch darüber diskutieren, warum dies so ist. Ist es der NVIDIA-Treiber, der hier mehr Vorarbeit leisten muss? Wurde die Architektur bei VEGA nur effizienter, könnte es zum Beispiel der Intelligent Workgroup Distributor von VEGA sein?

Nein, ich möchte keine Diskussion um 720p-LD-Tests anstrengen.
Aber CPU-Tests werden i.A. mit einer GPU gemacht - Unterschiede zwischen Grafikkarten fallen damit nicht auf! Und es werden auch nicht viele Leute eine GTX1060 oder RX580 mit einem i7-6900K (Testsystem PC-Games) kombinieren. D.h. in einem PC mit i5 könnten sich Mittelklassegrafikkarten wie eben 1060 und 580 in dem ein oder anderen Spiel auch anders verhalten als in den großen Tests mit 10-Kern-CPU.

VooDoo7mx
2017-10-02, 10:44:54
Die AMD Fans/Interessierten wären schon froh, wenn sie einen eigenen Thread hätten, in dem sie über AMD diskutieren könnten ohne die ständigen virtuellen Schwanzvergleiche der Grünen Sekte.

Wer hat denn hier angefangen sich an den Forza 7 Werten aufzugeilen und sich irgendeine Art von Überlegenheit herfantasiert?

In 2 Wochen kommt Elex und in 3 Wochen Destiny 2. Mal sehen ob die hier auch genauso diskutiert werden...

Der_Korken
2017-10-02, 10:52:25
Hat eine GPU denn Einfluss darauf, wie viel Overhead sie auf CPU-Seite erzeugt oder ist das eine reine Software-Frage? Falls das wirklich hardware-abhängig ist, frage ich mich gerade ob man durch Vega auch Performance-Gewinne bei älteren/Indie-Spielen erreicht, die zwar an sich nicht sehr anspruchsvoll sind, dafür aber gnadenlos CPU-limitiert, weil alles auf einem Kern läuft. Ich denke da gerade an Minecraft (:freak:).

Mangel76
2017-10-02, 10:52:44
Wann gedenkt AMD eigentlich PlayReady3.0 zu unterstützen?

Intel und NVIDIA können es ja bekanntlich und damit funktioniert auch Netflix in 4K. Bei AMD heißt es seit Polaris, dass das Feature mit einem "späteren Treiber" kommen wird, dito mit Vega.

Soweit ich weiß, wird dies erst offiziell ("4K nur für Insider: Netflix 4K auf Nvidias Pascal-Grafikkarten dank Spezialtreiber (https://www.heise.de/newsticker/meldung/4K-nur-fuer-Insider-Netflix-4K-auf-Nvidias-Pascal-Grafikkarten-dank-Spezialtreiber-3701363.html)") mit dem Fall Creators Update unterstützt. Nvidia hatte es wohl schon eine Weile im Treiber, aber nicht in vollem Umfang und nur im Spezialtreiber. Aber so langsam könnte sich AMD tatsächlich mal äußern. Andererseits hat man dort wohl wesentlich größere Treiberbaustellen als 4K-Netflix für ein paar Enthusiasten.

Rancor
2017-10-02, 10:55:48
Wer hat denn hier angefangen sich an den Forza 7 Werten aufzugeilen und sich irgendeine Art von Überlegenheit herfantasiert?

In 2 Wochen kommt Elex und in 3 Wochen Destiny 2. Mal sehen ob die hier auch genauso diskutiert werden...

Naja und Wolfenstein 2. Bleibt also weiterhin spannend. Ich weiss garnicht was ihr habt..
Es war doch stinkend langweilig am Markt seitdem Nvidia alles dominiert hat. Nun kommt halt Bewegung rein.

Mangel76
2017-10-02, 10:58:04
Hat eine GPU denn Einfluss darauf, wie viel Overhead sie auf CPU-Seite erzeugt oder ist das eine reine Software-Frage? Falls das wirklich hardware-abhängig ist, frage ich mich gerade ob man durch Vega auch Performance-Gewinne bei älteren/Indie-Spielen erreicht, die zwar an sich nicht sehr anspruchsvoll sind, dafür aber gnadenlos CPU-limitiert, weil alles auf einem Kern läuft. Ich denke da gerade an Minecraft (:freak:).

Das wäre tatsächlich mal zu untersuchen. Soweit ich weiß, macht der Treiber von NVIDIA in DX11 sehr viel Vorarbeit um die GPU optimal zu füttern. Das war ja immer ein Kritikpunkt an den AMD-Treibern, dass die das nicht so gut hinbekommen haben. Nun weiß ich nicht, wie das in DX12 ist, ob der Treiber hier auch noch entsprechend eingreifen kann. Hat sich denn schonmal ein Test/Magazin mit dem Intelligent Workgroup Distributor beschäftigt? Oder hat der damit nichts zu tun? Kann einer der Experten mal was dazu sagen bitte?

yamamoto_dc
2017-10-02, 10:59:31
Bin ich auf deiner Ignore?

Nein, Du warst schneller. :biggrin:

TheGood
2017-10-02, 10:59:40
Wer hat denn hier angefangen sich an den Forza 7 Werten aufzugeilen und sich irgendeine Art von Überlegenheit herfantasiert?

In 2 Wochen kommt Elex und in 3 Wochen Destiny 2. Mal sehen ob die hier auch genauso diskutiert werden...

Die Diskussion ist doch lächerlich. Klar freut sich der AMD jünger wenn die Grafikkarte in einem Benchmark besser performt und es ist umgekehrt doch nicht anders. Also was soll dauernd der Vorwurf dass man genau das unterbinden müsste.

Müssten die NVIDIA jünger nicht viel gelassener sein und den Erfolg der anderen Graka einfach gönnen? Nein das können sie nicht und damit sind stehen sich alle wieder in nichts nach... hüben wie drüben.
Also lasst den scheiss doch ein für alle mal stecken....

unl34shed
2017-10-02, 11:22:02
Das wäre tatsächlich mal zu untersuchen. Soweit ich weiß, macht der Treiber von NVIDIA in DX11 sehr viel Vorarbeit um die GPU optimal zu füttern. Das war ja immer ein Kritikpunkt an den AMD-Treibern, dass die das nicht so gut hinbekommen haben. Nun weiß ich nicht, wie das in DX12 ist, ob der Treiber hier auch noch entsprechend eingreifen kann. Hat sich denn schonmal ein Test/Magazin mit dem Intelligent Workgroup Distributor beschäftigt? Oder hat der damit nichts zu tun? Kann einer der Experten mal was dazu sagen bitte?

Kann es an async compute liegen? Hier muss Nvidia ja das Scheduling via CPU machen, was zusätzlich CPU Last bedeutet.

Ließe sich das nicht mit dem AMD GPU profiler untersuchen?

yamamoto_dc
2017-10-02, 11:23:27
Solche Systemkämpfe kenne ich seit der Zeit C64 vs Atari XL. Es ging dann weiter mit VHS vs Betamax, Amiga vs Atari ST, Sega vs Nintendo, Nintendo vs Sony, Sony vs Sega, Bluray vs HDDVD usw.

Es ist wohl ein Naturgesetz, derjenige der auf eine Seite gesetzt hat, hat Angst, dass die andere Seite dominiert und damit die Softwareversorgung gefährdet ist, so dass der eigene Kauf ein Reinfall werden könnte. Da kann man gar nichts gegen tun und Systemkriege wird es immer geben. :wink:

Rancor
2017-10-02, 11:25:46
Naja aber ne Grafikkarte ist ja jetzt keine Investition fürs Leben, ne CPU auch nicht.
Wenn man dann mal aufs falsche Pferd gesetzt hat, ist das kein Weltuntergang und man sollte sich lieber freuen das es Konkurrenz auf dem Markt gibt, denn davon profitieren in der Regel den Endkunden, also wir ;)

Die Grabenkriege werden aber schon teilweise extrem hart geführt.

dargo
2017-10-02, 11:35:40
Naja aber ne Grafikkarte ist ja jetzt keine Investition fürs Leben, ne CPU auch nicht.

Für manche gibt es offenbar nichts anderes in der Welt. X-D


Wenn man dann mal aufs falsche Pferd gesetzt hat, ist das kein Weltuntergang und man sollte sich lieber freuen das es Konkurrenz auf dem Markt gibt, denn davon profitieren in der Regel den Endkunden, also wir ;)

Wenn du dir diverse Threads hier im Forum der letzten Wochen/Monate durchliest wird dir auffallen, dass einige Personen eben nicht aus Kundensicht argumentieren.

yamamoto_dc
2017-10-02, 11:45:34
Es hängt halt auch von den Lebenumständen ab. Für mich als alten Sack mit gutem Einkommen war der Kauf der Vega jetzt keine große Sache. Ein Schüler muss darauf vielleicht ein Jahr oder länger sparen oder Zeitungen austragen.

Bucklew
2017-10-02, 11:58:34
Andererseits hat man dort wohl wesentlich größere Treiberbaustellen als 4K-Netflix für ein paar Enthusiasten.
Es ist mit einer der Punkte, warum man Vega nur als Bananenprodukt bezeichnen kann. So wurde das früher genannt und ein Hersteller, der so etwas veröffentlicht hat, wurde dafür auch gerügt. Bei AMD und Vega heißt es plötzlich "aber die Karte zeigt in einem Jahr ihre Qualität" :rolleyes:

Mangel76
2017-10-02, 12:00:29
Kann es an async compute liegen? Hier muss Nvidia ja das Scheduling via CPU machen, was zusätzlich CPU Last bedeutet.

Ließe sich das nicht mit dem AMD GPU profiler untersuchen?

Es ist wohl gar nicht klar, ob AC überhaupt benutzt wird, man vermutet es nur. Zudem war bei bisherigen Umsetzungen von AC kein so großer Leistungssprung möglich. Und warum profitiert dann nur VEGA so deutlich? Polaris sieht zwar auch ganz gut aus, aber so groß ist die Überraschung hier nicht. Aber vielleicht liegt das auch wieder daran, dass bei Polaris kein CPU-Limit mehr vorliegt? Wer weiß???:confused:

Mangel76
2017-10-02, 12:10:56
Es ist mit einer der Punkte, warum man Vega nur als Bananenprodukt bezeichnen kann. So wurde das früher genannt und ein Hersteller, der so etwas veröffentlicht hat, wurde dafür auch gerügt. Bei AMD und Vega heißt es plötzlich "aber die Karte zeigt in einem Jahr ihre Qualität" :rolleyes:
Nun bleib mal sachlich! Ich habe eine VEGA und alles was ich spiele läuft damit sehr gut. Ich habe überhaupt keine Probleme mit der Karte! Als Bananenprodukt würde ich die also nicht bezeichnen. Natürlich fehlt noch das ein oder andere Feature, aber auch so bereue ich den Kauf nicht. Was fehlt denn noch? Primitive Shaders werden wohl in absehbarer Zeit noch kommen. Und wenn die nochmal was bringen, dann freue ich mich nur umso mehr. Und wenn nicht? Dann bleibt alles wie zuvor und ich kann immer noch sehr gut damit leben. Im Zusammenspiel mit meinem WQHD-Freesync-Monitor habe ich im Moment ein sehr gutes System, was sicher auch wieder eine Weile hält. Was im Treiber fehlt sind "nice to have" Sachen, keine Muss-Features

(... und keine halbes GB VRAM ;D). Und früher hätte man einen Hersteller, der seine Kunden vorsätzlich belügt, auch entsprechend abgestraft. Also spar dir diese Sprüche!

Birdman
2017-10-02, 12:22:05
Wenn du dir dieverse Threads hier im Forum der letzten Wochen/Monate durchliest wird dir auffallen, dass einige Personen eben nicht aus Kundensicht argumentieren.
Aus welcher Kundensicht? "Geiz ist Geil"?
Sorry, aber das ist doch Blödzinn, DIE einzige "korrekte" (Kunden)sicht bestimmen zu wollen und anhand dieser dann Produkte zu werten.

Locuza
2017-10-02, 12:22:09
[...]
Ist es der NVIDIA-Treiber, der hier mehr Vorarbeit leisten muss? Wurde die Architektur bei VEGA nur effizienter, könnte es zum Beispiel der Intelligent Workgroup Distributor von VEGA sein?
[...]
Das Thema ist allgemein sehr interessant, aber ich habe keine guten Antworten diesbezüglich gefunden.
Mit GCN verwaltet scheinbar die GPU selber die Compute-Queues und spätestens seit der dritten Generation wurden Aufgaben vom Kernel-Mode-Driver zur GPU verlagert, aber seitdem hat es laut Marketingfolien keine Änderungen gegeben und GCN Gen 4 hat die gleiche ISA wie Gen 3 implementiert und man hat dort bei einigen Spielen beim CPU-Overhead Verbesserungen messen können.
http://www.pcgameshardware.de/Watch-Dogs-2-Spiel-55550/Specials/Test-Review-Benchmark-1214553/

Bei Nvidia verwaltet die Hardware aber auch die Queues selber und seitdem GK110 kann der CWD (CUDA Work Distributor) bis zu 32 Compute-Queues verwalten (Seite 17 ff. im WP).
Seit Maxwell dann jede GPU und scheinbar gab es dann noch weitere Anpassungen was unterschiedliche Queues gleichzeitig angeht, also Queues mit 3D-State und separate Compute-Queues.
Kepler war darauf limitiert das nur ein Queue-Type gleichzeitig funktioniert hat.
Bei Maxwell mussten die Ressourcen aber statisch partitioniert werden (Vorab vom CPU-Driver?) und letztendlich wird Nvidia vermutlich deswegen, niemals mehrere Queue-Types bei Maxwell gleichzeitig verwalten.
Bei Pascal spricht aber Nvidia von Hardware Dynamic Load Balancing (Seite 15 im WP).
https://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf
https://international.download.nvidia.com/geforce-com/international/pdfs/GeForce_GTX_1080_Whitepaper_FINAL.pdf

Bei all den Sachen werde ich aber z.B. nicht die Frage los, welche Unterschiede bzw. Verbesserungen bei der Architektur (besonders in Hinblick auf GCN und den unterschiedliche Generationen) sich so stark auswirken soll, dass 4Ghz CPU-Kerne schlapp machen müssen?
Weil irgendein relativ dummer Scheduler mit 1,2-1,6 Ghz bei der GPU gewisse Teilbereiche erledigt?
Da es nicht in allen Fällen eine konstante Linie zwischen AMD und Nvidia gibt und auch nicht zwischen den unterschiedlichen GCN-Generationen, hängt das gewiss auch stark von dem CPU-Treiber ab und nicht (nur) grundlegend von der GPU-Architektur.

Der IWD bei Vega scheint wenig bis nichts mit dem CPU-Treiber was den Overhead angeht zutun zu haben.
Er nimmt die Draw-Calls vom Treiber an, passt darauf an, effizienter mit dem Context Storage umzugehen, damit die Geometrie-Engines seltener an Idle-Phasen leiden müssen und im Falle von zu kleinen Primitive-Instanzen können mehrere in eine 64-Thread Workgroup gepackt werden.
Den IWD nennt AMD im White-Paper im Zusammenhang mit der neuen Geometrie-Pipeline, die AMD aber noch nicht implementiert hat, also kann man hier auch spekulieren, ob der überhaupt aktiv ist und für die klassische Pipeline zum Einsatz kommen kann oder es schon tut.
(Seite 7)
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Mangel76
2017-10-02, 12:37:20
Der IWD bei Vega scheint wenig bis nichts mit dem CPU-Treiber was den Overhead angeht zutun zu haben.
Er nimmt die Draw-Calls vom Treiber an, passt darauf an, effizienter mit dem Context Storage umzugehen, damit die Geometrie-Engines seltener an Idle-Phasen leiden müssen und im Falle von zu kleinen Primitive-Instanzen können mehrere in eine 64-Thread Workgroup gepackt werden.
Den IWD nennt AMD im White-Paper im Zusammenhang mit der neuen Geometrie-Pipeline, die AMD aber noch nicht implementiert hat, also kann man hier auch spekulieren, ob der überhaupt aktiv ist und für die klassische Pipeline zum Einsatz kommen kann oder es schon tut.
(Seite 7)
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Das hört sich tatsächlich nicht nach einer plausiblen Erklärung an. Was ist also dann neu bei VEGA in Bezug auf das Verhalten im CPU-Limit?

Was macht denn der Treiber in DX12 überhaupt noch? Ich habe keine Vorstellung, was "hardwarenahes" Programmieren in diesem Kontext beinhaltet. Bei DX11 kann ich mir die Auswirkungen eines guten Treibers gut vorstellen, hat man bei NVIDIA ja lange beobachten können, dass eigentlich schwächere Karten (Rohleistung) eine bessere Spieleleistung aufweisen. Wie unterscheidet sich DX12/Vulkan hier in den Einflussmöglichkeiten des Treibers?

Mangel76
2017-10-02, 12:48:05
Aus welcher Kundensicht? "Geiz ist Geil"?
Sorry, aber das ist doch Blödzinn, DIE einzige "korrekte" (Kunden)sicht bestimmen zu wollen und anhand dieser dann Produkte zu werten.

Mit Verlaub, aber es gibt nur eine einzige rationale Kundensicht: was bringt mir dauerhaft den meisten Nutzen pro Geldeinheit? Und als vorausschauendem Individuum betrifft dies nicht nur den aktuellen Konsum, sondern auch den künftigen.

Natürlich ist die Definition von "Nutzen" von den eigenen Nebenbedingungen (z.B. Vorhandensein eines G-Sync-/Freesync-Monitors) abhängig. In einem Markt mit vielen Anbietern spielt die Marktsituation auch kaum eine Rolle. Je dominanter ein Anbieter wird und umso weniger Konkurrenten es gibt, desto mehr sollte man diese Situation aber auch in den Kaufentscheidungen berücksichtigen. Ein Monopol ist schließlich die für den Konsumenten denkbar schlechteste aller Möglichkeiten.

Leider verhalten sich Menschen oft nicht rational, weder was Wahl- noch Kaufentscheidungen angeht. Entscheidungen aus diffusen emotionalen Gründen zu treffen war noch nie rational und führt nur in den allerseltensten Fällen zu langfristig befriedigenden Ergebnissen. Den Beweis erhält man ja täglich aufs neue.

yamamoto_dc
2017-10-02, 13:08:36
Die meisten verhalten sich aber nicht im Sinne des Gesamtsystems rational, sondern sie agieren egoistisch (nicht negativ gemeint) und mit einem kurzen Zeithorizont. Wer eine NV-Karte kauft, profitiert von einem größeren Ökosystem, kann Freunde und Verwandte um Rat fragen, kriegt die besser angepassten Spiele usw. Das ist ganz normal, AMD agiert entsprechend und versucht über die Konsolen Gegendruck zu machen, in der Hoffnung, dass die Konsolenoptimierungen auch beim PC ankommen. Die Strategie ist aber bisher kaum aufgegangen, da viele Spielehersteller beim PC andere Engines einsetzen als bei den Konsolen. Forza 7 scheint da eine Ausnahme zu sein.

dildo4u
2017-10-02, 13:12:23
Kaum ein Hersteller nutzt verschiedene Engine's für PC und Konsole,das macht Wirtschaftlich auch gar kein Sinn.Die Entwickler wollen am liebsten eine Engine die von Switch zu PC skaliert,wie z.b Unreal Engine 4.(Snake Pass wäre ein Beispiel)

24p
2017-10-02, 13:28:07
Mit Verlaub, aber es gibt nur eine einzige rationale Kundensicht: was bringt mir dauerhaft den meisten Nutzen pro Geldeinheit? Und als vorausschauendem Individuum betrifft dies nicht nur den aktuellen Konsum, sondern auch den künftigen.

Natürlich ist die Definition von "Nutzen" von den eigenen Nebenbedingungen (z.B. Vorhandensein eines G-Sync-/Freesync-Monitors) abhängig. In einem Markt mit vielen Anbietern spielt die Marktsituation auch kaum eine Rolle. Je dominanter ein Anbieter wird und umso weniger Konkurrenten es gibt, desto mehr sollte man diese Situation aber auch in den Kaufentscheidungen berücksichtigen. Ein Monopol ist schließlich die für den Konsumenten denkbar schlechteste aller Möglichkeiten.

Leider verhalten sich Menschen oft nicht rational, weder was Wahl- noch Kaufentscheidungen angeht. Entscheidungen aus diffusen emotionalen Gründen zu treffen war noch nie rational und führt nur in den allerseltensten Fällen zu langfristig befriedigenden Ergebnissen. Den Beweis erhält man ja täglich aufs neue.


Unsinn. Es ist nicht rational für einen Konsumenten sich für das schlechtere Produkt zu entscheiden in der Hoffnung, dass man durch diese Spende einen schwächeren Marktteilnehmer stärkt. Gefangenendilemma. Lesen und verstehen. Dann braucht man hier auch nicht so einen pseudowissenschaftlichen Bullshit posten.

bnoob
2017-10-02, 13:29:54
Offtopic @Forza 7 Demo: Braucht man dafür das Creators Update? Bei mir gibt es keinen Install Button :/

dargo
2017-10-02, 13:29:59
Die Strategie ist aber bisher kaum aufgegangen, da viele Spielehersteller beim PC andere Engines einsetzen als bei den Konsolen. Forza 7 scheint da eine Ausnahme zu sein.
What? :|

Zergra
2017-10-02, 13:40:15
Offtopic @Forza 7 Demo: Braucht man dafür das Creators Update? Bei mir gibt es keinen Install Button :/
Ja braucht man.

Digidi
2017-10-02, 13:52:27
Unsinn. Es ist nicht rational für einen Konsumenten sich für das schlechtere Produkt zu entscheiden in der Hoffnung, dass man durch diese Spende einen schwächeren Marktteilnehmer stärkt. Gefangenendilemma. Lesen und verstehen. Dann braucht man hier auch nicht so einen pseudowissenschaftlichen Bullshit posten.

HÄ Gefangendilemma? Das Setzt aber voraus das man keine Kenntnisse über die Machenschaften der beiden Parteien hat was hier nicht zu trifft. Also mal wieder totaler bullshit von dir

Wir alle kennen die Finanzsituation von AMD und Nvidia wir kennen auch das Potential der Hardware. Wenn du siehst, dass es ein Unternehmen gibt was gute Ideen hat, die dass zeug haben das Monopol eines anderen zu brechen, dann ist es wirtschaftlich äußerst sinnvoll in dieses Unternehmen zu Investieren.

akuji13
2017-10-02, 13:59:00
NV hat kein Monopol.

Rancor
2017-10-02, 14:00:39
Unsinn. Es ist nicht rational für einen Konsumenten sich für das schlechtere Produkt zu entscheiden in der Hoffnung, dass man durch diese Spende einen schwächeren Marktteilnehmer stärkt. Gefangenendilemma. Lesen und verstehen. Dann braucht man hier auch nicht so einen pseudowissenschaftlichen Bullshit posten.

Genauso unsinnig ist es sich als Kunde zu wünschen, das in einem Duopol ein Markteilnehmer untergeht und/oder dessen Produkte diskreditiert werden, nur damit, ja warum eigentlich?
Was hätte man denn als NV Fanboy denn davon, wenn es AMD nicht mehr geben würde oder Sie nicht mehr in der Lage wären kokurrenzfähige Produkte zu liefern/entwicklen? Andersherum gilt das natürlich auch.

Ich verstehe einfach nicht wie man so stark Marken orientiert sein kann. Erschließt sich mir einfach absolut nicht.

Der_Korken
2017-10-02, 14:01:27
HÄ Gefangendilemma? Das Setzt aber voraus das man keine Kenntnisse über die Machenschaften der beiden Parteien hat was hier nicht zu trifft.

Ich glaube das war eher so gemeint, dass sich die Entscheidung für schwächeren Hersteller nur rechnet, wenn es auch möglichst viele andere machen, damit der Hersteller mehr Beachtung bei Entwickleroptimierung findet und selber genug Kohle hat, um seine Software zu optimieren. Man kann sicher aber nicht mit allen verständigen, sondern muss die Entscheidung selber treffen und hoffen, dass sich möglichst viele in die gleiche Richtung entscheiden.

Raff
2017-10-02, 14:03:01
NV hat kein Monopol.

Wir rennen aber mit Vollgas in diese Richtung. Check Steam.

MfG,
Raff

Digidi
2017-10-02, 14:06:05
Ich glaube das war eher so gemeint, dass sich die Entscheidung für schwächeren Hersteller nur rechnet, wenn es auch möglichst viele andere machen, damit der Hersteller mehr Beachtung bei Entwickleroptimierung findet und selber genug Kohle hat, um seine Software zu optimieren. Man kann sicher aber nicht mit allen verständigen, sondern muss die Entscheidung selber treffen und hoffen, dass sich möglichst viele in die gleiche Richtung entscheiden.
Deshalb hab ich mich ja auch hier angemeldet. Was hier für ein Bias verbreitet wird gerade von 24p und Konsorten ist einfach nur schrecklich. Als ob Vega überhaupt nicht laufen würde.

Leider kommt halt hinzu das wegen des Monopols die Jünger von Nvidia zu meist mehr sind. Da kommt man gegen die Masse nicht an. Auch nicht mit rationalen Gedankengägnen.

@Raff
Warum tut ihr nicht mal was gegen das Monopol bei euch in der Redaktion? Warum nicht mal einen Artikel wo die Reise hingeht? Wenn es ein Monopol gibt dann seit ihr auch arm dran. Entweder Ihr berichtet nach Nvidias pfeife oder es gibt dann halt keine Karten mehr über die man dann berichten kann.

Mangel76
2017-10-02, 14:10:28
Unsinn. Es ist nicht rational für einen Konsumenten sich für das schlechtere Produkt zu entscheiden in der Hoffnung, dass man durch diese Spende einen schwächeren Marktteilnehmer stärkt. Gefangenendilemma. Lesen und verstehen. Dann braucht man hier auch nicht so einen pseudowissenschaftlichen Bullshit posten.

Mir ist durchaus bewusst, dass es manch einen geben mag, der den Zusammenhang nicht versteht. Kennst du denn das Gefangenendilemma? Anscheinend nicht. Da geht es nämlich gerade darum, über den eigenen Vorteil hinaus auf das Ganze zu blicken. Natürlich kann ein Gefangener gestehen und frei kommen. Insgesamt ist diese Lösung aber eben nicht optimal! Und genau so ist es hier. Du kannst natürlich die für dich im Augenblick beste Alternative wählen. Aber langfristig und insgesamt betrachtet verringerst auch du dadurch deine (und die aller anderen) zukünftigen Alternativen. Hier führt individuell rationales Verhalten zu einem gesellschaftlich nicht rationalen Ergebnis!

Dabei ist das Trittbrettfahrer-Verhalten hier viel besser zur Erklärung geeignet. Für die Gesamtheit der Konsumenten ist es immer besser, mehrere Anbieter zu haben. Für den Einzelnen ist es aber rational, die in seinem Falle schnellste Grafikkarte zu kaufen. Wenn er die Karte der kleineren Konkurrenz kauft, ändert das an der gesamtwirtschaftlichen Situation ja nichts. Problematisch wird das nur, wenn jeder so denkt und handelt, dann kann dies zu einer Monopolbildung führen. Ist wie bei der Wahl: wenn alle denken, meine Stimme ändert nichts und nicht hingehen, können auch kleine Minderheiten zu großen Stimmanteilen kommen.

Bucklew
2017-10-02, 14:12:43
Warum tut ihr nicht mal was gegen das Monopol bei euch in der Redaktion?
Was sollen die denn tun? Nur noch Doom-Benchmarks veröffentlichen? :facepalm:

Es gibt ne sehr einfache Möglichkeit, das NVIDIA "Monopol" zu brechen: Gute, konkurrenzfähige Produkte. Und mit konkurrenzfähige meine ich in ALLEN Bereichen und nicht nur in FPS und nem dämlichen "Ach die paar € Stromkosten interessieren doch niemanden"-Kommentar. Doch, die interessieren. Sehr viele sogar.

Digidi
2017-10-02, 14:16:23
Was sollen die denn tun? Nur noch Doom-Benchmarks veröffentlichen? :facepalm:

Es gibt ne sehr einfache Möglichkeit, das NVIDIA "Monopol" zu brechen: Gute, konkurrenzfähige Produkte. Und mit konkurrenzfähige meine ich in ALLEN Bereichen und nicht nur in FPS und nem dämlichen "Ach die paar € Stromkosten interessieren doch niemanden"-Kommentar. Doch, die interessieren. Sehr viele sogar.

Doch die gibt es. Indem man die Menschen Informiert sie nicht abhängt und man auf sie zugeht und damit meine ich nicht Doom Benchmark sondern vielleicht mal die exorbitanten Preissteigerungen betrachtet. Das können sich bald selbst Normalverdiener nicht mehr leisten.

Das Dilemma ist das sich keine Konkurrenzfähigen Produkte in diesem Bereich herstellen lassen ohne die nötige Kohle. Wäre das so einfach warum gibt es nicht schon lange dritten Mitbewerber? Genau deshalb, weil die Kosten für die Entwicklung exorbitant hoch sind. Ich glaube viele Wissen gar nicht was so eine Produktionsanlage bei TSMC, Intel und GLOFO kostet und wie viel Geld selbst kleinste Änderungen verschlingen.

Locuza
2017-10-02, 14:17:07
[...]
Wir alle kennen die Finanzsituation von AMD und Nvidia wir kennen auch das Potential der Hardware. Wenn du siehst, dass es ein Unternehmen gibt was gute Ideen hat, die dass zeug haben das Monopol eines anderen zu brechen, dann ist es wirtschaftlich äußerst sinnvoll in dieses Unternehmen zu Investieren.
Das Finanzvolumen der Ideologie-Käufe muss aber nennenswert ausfallen, bevor sich effektiv überhaupt etwas ändert.
Und mit jedem Kauf investiert man auch in eine gigantische Wundertüte, wo man keine Ahnung hat, was AMD mit dem Geld genau anstellen wird.
Möglicherweise wird AMD in Bereiche investieren, die einen persönlich überhaupt nicht interessieren oder Missmanagement betreiben und das Geld zum Fenster rausschmeißen.

Je nach Grad, malen sich gewisse Personen die Situation und solche Käufe arg träumerisch zusammen.

akuji13
2017-10-02, 14:23:23
Wir rennen aber mit Vollgas in diese Richtung. Check Steam.

Sieht so aus ja.

Es ging nur darum das das Wort Monopol sehr eindeutig definiert wird und es noch nicht zutrifft.

Möglicherweise wird AMD in Bereiche investieren, die einen persönlich überhaupt nicht interessieren oder Missmanagement betreiben und das Geld zum Fenster rausschmeißen.

Irgendwas muss man dort ja auch falsch gemacht haben wenn man nach Jahren wo man ~50% Marktanteil hatte dort landet wo man nun ist.

Je nach Grad, malen sich gewisse Personen die Situation und solche Käufe arg träumerisch zusammen.

Um es mit Raff zu sagen: Check Steam.
Da sieht man welche Art von Karten die Masse nutzt also in welchem Leistungsbereich...das ist nicht Vega & Co.

Und der ist wichtig wenn man vom Bereich des "gaming" spricht.

Mangel76
2017-10-02, 14:28:20
Das Finanzvolumen der Ideologie-Käufe muss aber nennenswert ausfallen, bevor sich effektiv überhaupt etwas ändert.
Und mit jedem Kauf investiert man auch in eine gigantische Wundertüte, wo man keine Ahnung hat, was AMD mit dem Geld genau anstellen wird.
Möglicherweise wird AMD in Bereiche investieren, die einen persönlich überhaupt nicht interessieren oder Missmanagement betreiben und das Geld zum Fenster rausschmeißen.




Wieso zitierst du mich da? Ich habe das gar nicht gesagt!

Und natürlich hast du recht, man kann nicht wissen, was eine Firma mit den Einnahmen macht. Aber was wäre denn die Alternative? Und wenn AMD das Geld in andere, für dich uninteressante Bereiche investiert? Wenn sie damit Umsatz und Gewinn generieren, kann auch dir das letztendlich wieder zugute kommen. Bitte immer mal über den eigenen Tellerrand hinausdenken! Missmanagement kann natürlich nicht ausgeschlossen werden, aber das gab und gibt es bei NVIDIA auch.

Je nach Grad, malen sich gewisse Personen die Situation und solche Käufe arg träumerisch zusammen.
Ich weiß nicht so genau, was du mit diesem Satz so abwertend ausdrücken willst. Bei einzelnen Personen hat so eine Kaufentscheidung natürlich keine Auswirkung. Leider sind wir nicht so weit, dass wir aufgeklärte Konsumenten sind; sollen wir es dann gleich aufgeben und uns den Monopolisten ausliefern? Dann wählen wir auch noch die Populisten und alles wird gut :hammer:

Flusher
2017-10-02, 14:31:40
Doch die gibt es. Indem man die Menschen Informiert sie nicht abhängt und man auf sie zugeht und damit meine ich nicht Doom Benchmark sondern vielleicht mal die exorbitanten Preissteigerungen betrachtet. Das können sich bald selbst Normalverdiener nicht mehr leisten.

Das Dilemma ist das sich keine Konkurrenzfähigen Produkte in diesem Bereich herstellen lassen ohne die nötige Kohle. Wäre das so einfach warum gibt es nicht schon lange dritten Mitbewerber? Genau deshalb, weil die Kosten für die Entwicklung exorbitant hoch sind. Ich glaube viele Wissen gar nicht was so eine Produktionsanlage bei TSMC, Intel und GLOFO kostet und wie viel Geld selbst kleinste Änderungen verschlingen.

Nun, die Preissteigerung der letzten Jahre ist aber nicht nur auf eine NVIDIA Stärke zurückzuführen. Andernfalls könnte AMD doch problemlos NVIDIA massiv unter Druck setzen beim Preis. Tatsache ist, dass die Chipfertigung stark angestiegen ist und auch weiter ansteigen wird bei immer kleiner werdenden Fertigungsstrukturen.

Solange sich nichts prinzipiell an der Architektur von GPUs (und auch CPUs) ändert und grössenteils nur auf die Vorteile neuer Fertigungsverfahren setzt, solange werden auch die Preise ansteigen. Ich hab da persönlich die Befürchtung, dass die grossen Chiphersteller das ganze an die Wand fahren werden und wir über Jahre hinweg keine Nennenswerten Leistungssteigerungen mehr haben werden. 7 nm stehen schon 2018 an und kleinere Strukturen sind ebenfalls bereits in Sichtweite. Was dannach kommt, weiss keiner so genau - Quanten-Computer sind es mit ziemlicher Sicherheit nicht.

akuji13
2017-10-02, 14:32:06
Wenn wir die ursprüngliche Bedeutung von Quante nehmen passt das schon. :D

Und wenn AMD das Geld in andere, für dich uninteressante Bereiche investiert? Wenn sie damit Umsatz und Gewinn generieren, kann auch dir das letztendlich wieder zugute kommen. Bitte immer mal über den eigenen Tellerrand hinausdenken!

Oft genug wäre die Devise "Schuster bleib bei deinen Leisten" die bessere Alternative gewesen.

Wenn das nämlich schief geht kann sowas sehr unangenehm enden, nicht jeder hat soviel Kohle wie Intel und kann sich diverse Ausflüge leisten.

Digidi
2017-10-02, 14:36:40
Wenn wir die ursprüngliche Bedeutung von Quante nehmen passt das schon. :D



Oft genug wäre die Devise "Schuster bleib bei deinen Leisten" die bessere Alternative gewesen.

Wenn das nämlich schief geht kann sowas sehr unangenehm enden, nicht jeder hat soviel Kohle wie Intel und kann sich diverse Ausflüge leisten.

Das kannst du doch gar nicht bewerten. AMD ist z.B. sehr gut mit Ihren APUs gefahren. Das war auch ein Risiko und ohne APUs und den daraus folgenden Kosolendeals, würde AMD heute wesentlich schlechter dastehen.

akuji13
2017-10-02, 14:38:00
Ach und du kannst es bewerten?

Digidi
2017-10-02, 14:41:26
Ach und du kannst es bewerten?
Ich habe lediglich einen Teilaspekt gezeigt wo Schuster bleib bei deinen Leisten so richtig in die Hose gegangen wäre :freak:

Thunder99
2017-10-02, 14:42:09
Beispiel Doom und Forza Motorsport 7. Wieso gehen die Karten so dermaßen ab? Gerade im letzteren Spiel ist es ein Beispiel was Vega leisten kann wenn wohl alles passt. Oder wie soll man das Ergebnis verstehen?

Ist es das was DX12 machen soll und nur bei AMD gescheit geht, da sie noch Reserven haben?

akuji13
2017-10-02, 14:43:55
@Digidi

Bleibt die Frage ob die APUs "nötig" gewesen wären wenn man im Grafikkarten Segment besser da stehen würde.

Bei folgenden Dingen habe ich da aber weitaus mehr Bedenken:
http://www.pcgameshardware.de/Virtual-Reality-Hardware-258542/News/VR-Brille-4K-pro-Auge-1189566/
https://www.computerbase.de/2017-09/autonomes-fahren-tesla-amd-chip/

Nicht wegen der Bereiche an sich (wobei Tesla auch so ein hop oder top Ding ist) sondern wegen der Konkurrenz dort.
Letztlich aber alles nur Spekulation und OT, zurück zur Karte.

TwoBeers
2017-10-02, 14:49:45
Die letzten paar Seiten mal wieder richtig angenehme Diskussionen, weg vom trolling und bashing.

Danke für die Lektüre. :)

AffenJack
2017-10-02, 14:54:55
:facepalm:
Wir sind hier im VEGA-Forum und gestänkert wird hier meistenteils von grünen Fanboys. Lasst uns doch endlich wieder zum Produkt zurückkommen und diese dummen Anschuldigungen bleiben lassen. Und wer nichts sachdienliches beizutragen hat möge doch bitte wegbleiben.

Ach komm, schau dir doch den ersten Post mit den CB Benches hier an, wo es darum geht das Nv failt. Da war von vornerein klar, wie die Diskussion hier ablaufen wird. Auch von den AMD Fanbois war da das wichtigste Augenmerk, dass Nv schlecht performt und der Versuch das auf alle DX12 Spiele zu generalisieren. Das ist genauso wie damals bei Project Cars, wo nur die Fronten andersrum sind. Anstatt sich mal auf die interessanteren Dinge zu konzentrieren, wie dass Vega hervorragend von P10 skaliert. Dadurch kommt nämlich seine immernoch 10% schnellere Leistung als die 1080 bei 4k Zustande.

dargo
2017-10-02, 14:56:33
Beispiel Doom und Forza Motorsport 7. Wieso gehen die Karten so dermaßen ab? Gerade im letzteren Spiel ist es ein Beispiel was Vega leisten kann wenn wohl alles passt. Oder wie soll man das Ergebnis verstehen?

Ist es das was DX12 machen soll und nur bei AMD gescheit geht, da sie noch Reserven haben?
Naja... was heißt abgehen?

Viele haben sich wohl schon an das alte Bild gewöhnt... Vega64 = knapp GTX1080 (manchmal sogar GTX1070+). Jetzt kommt ein Ausreißer und der Aufschrei ist groß. Hier spielt auch die Tatsache AMD in die Taschen, dass im starken CPU-Limit NV hinten liegt. Auch seit einiger Zeit für einige ein neues Bild. ;) Ich finds insofern amüsant, dass hier bei FM7 noch nicht mal die "Killer"-Features von GCN bzw. speziell Vega zum Einsatz kamen. Was wird dann erst am 27.10.17 los sein? ;D Wie gesagt... ich bin bereit. :popcorn:

PS: "Killer" bitte jetzt wieder nicht in den falschen Hals bekommen. Wer es nicht vertragen kann... Performance-Features.

PPS: und die CB hat sogar mit 8xMSAA pro Nvidia gebencht. Ich bin mir ziemlich sicher, dass die GTX1080TI in 4K mit 4xMSAA nicht leicht vor Vega64 bei den avgs. wäre.

Mangel76
2017-10-02, 15:00:08
Oft genug wäre die Devise "Schuster bleib bei deinen Leisten" die bessere Alternative gewesen.

Wenn das nämlich schief geht kann sowas sehr unangenehm enden, nicht jeder hat soviel Kohle wie Intel und kann sich diverse Ausflüge leisten.


Wir können natürlich nicht wissen, was mit unserem Geld passiert. Aber das ist doch kein Argument, lieber Produkt B statt Produkt A zu kaufen! Auch NVIDIA hat schon Geld in Dingen versenkt, die es nicht zur Marktreife gebracht haben. Aber selbst dort weiß man doch nicht, welche Erfahrungen dann doch in andere Projekte geflossen sind. Auch die Entwicklung von Zen war ein Risiko! Aber so ist das halt, unternehmerisches Handeln birgt immer ein Risiko. Was also willst du damit ausdrücken? Das wir nur noch bei den großen Firmen kaufen, weil da unser Geld sicherer angelegt ist? :confused:

Hasenpfote
2017-10-02, 15:03:05
Sicherlich auch "Schuld" von NVIDIA, zu einem nicht unterschätzbaren Teil von AMD. Dass die AMD-Fanboys jetzt jeden beschimpfen, der nicht AMD kauft, macht die Produkte sicherlich nicht attraktiver für die breite Masse. Die wenden sich nur angewidert ab.Die breite Masse kauft keine eigenständigen Grafikkarten sondern komplett Systeme. Und wenn AMD Dell, HP, Acer und Co. keine überzeugende Angebote macht, dann haben sie halt Pech. Und seit einigen Jahren liegt AMD eben technisch zurück. Jedes Watt Mehrverbrauch muss bereitgestellt (d.h. größeres Netzteil) und weggekühlt (d.h. bessere Kühler/mehr Lüfter) werden. Bei Angeboten, wo um Zehntel Cent gefeilscht wird, hat AMD dann eben Pech. Ferner haben sie sich einen stabilen Ruf erarbeitet, dass ihre Treiber für'n Arsch sind. Dieses Ruf festigen sie auch heute noch. Kein Systemanbieter hat Bock darauf, dass sich seine Kunden bei ihm beschweren, Spiel X würde nicht laufen. Erinnert sich noch wer an AMD und GTA IV?

AMD liefert aktuell einfach nicht und die paar Verkäufe durch uns Selbstbastler machen den Kohl nicht fett. Angenommen AMD verdient 100Euro pro Karte (also wirklich Gewinn nach Abzug aller Produktionskosten), dann sind 100.000 verkaufte Karten gerade mal 10Mios Gewinn! Und 100k Karten müssen erstmal verkauft werden.

Von daher lohnt es sich überhaupt nicht, sich um AMD oder Nvidia zu streiten.

24p
2017-10-02, 15:05:41
Genauso unsinnig ist es sich als Kunde zu wünschen, das in einem Duopol ein Markteilnehmer untergeht und/oder dessen Produkte diskreditiert werden, nur damit, ja warum eigentlich?
Was hätte man denn als NV Fanboy denn davon, wenn es AMD nicht mehr geben würde oder Sie nicht mehr in der Lage wären kokurrenzfähige Produkte zu liefern/entwicklen? Andersherum gilt das natürlich auch.

Ich verstehe einfach nicht wie man so stark Marken orientiert sein kann. Erschließt sich mir einfach absolut nicht.

Wer tut dies? Woher weißt du, dass die NV-Käufer markenorientiert kaufen? Sorry aber diese Überheblichkeit nervt einfach nur und ist inzwischen leider in jede, gesellschaftlichen Bereich anzutreffen.

Ich bin mir ziemlich sicher, dass die GTX1080TI in 4K mit 4xMSAA nicht leicht vor Vega64 bei den avgs. wäre.


Wer's glaubt wird selig.

dargo
2017-10-02, 15:07:26
Und seit einigen Jahren liegt AMD eben technisch zurück.
Das halte ich immer noch für ein Gerücht. Im Prinzip ist die Hardware von AMD der Software in einer PC-Umgebung um zig Jahre voraus.

Kartenlehrling
2017-10-02, 15:10:47
In zwei Wochen gibts Mittelerde:SdK dann wird das Leistungsgefüge wieder zurecht gerückt.

Rancor
2017-10-02, 15:12:46
Wer tut dies? Woher weißt du, dass die NV-Käufer markenorientiert kaufen? Sorry aber diese Überheblichkeit nervt einfach nur und ist inzwischen leider in jede, gesellschaftlichen Bereich anzutreffen.

Ehh, Gugg dich doch einfach mal im Forum um oder willst du mir erzählen du hast die Trollerei der grünen und roten hier noch nicht gesehen?
VV wäre das zum Beispiel auf AMDs Seite.

Mangel76
2017-10-02, 15:13:45
Ach komm, schau dir doch den ersten Post mit den CB Benches hier an, wo es darum geht das Nv failt. Da war von vornerein klar, wie die Diskussion hier ablaufen wird. Auch von den AMD Fanbois war da das wichtigste Augenmerk, dass Nv schlecht performt und der Versuch das auf alle DX12 Spiele zu generalisieren. Das ist genauso wie damals bei Project Cars, wo nur die Fronten andersrum sind. Anstatt sich mal auf die interessanteren Dinge zu konzentrieren, wie dass Vega hervorragend von P10 skaliert. Dadurch kommt nämlich seine immernoch 10% schnellere Leistung als die 1080 bei 4k Zustande.

Ist es das, was du meintest?

Die Werte sehen wie ausgewürfelt aus. Eine GTX1080TI ist also in 4K nur 39% schneller als eine GTX1070? Die GTX1080 nur 53% schneller als eine GTX1060?
Durchaus möglich, sieht vom Ergebnis her zumindest nach einem teilweisen CPU-Limit bei Nvidia aus. AMD hat ja unter DX12 schon immer eine höhere Performance im CPU-Limit.
Schwachsinn.
Ich könnte mir jetzt die Mühe machen und darauf eingehen, aber warum eigentlich? Von dir kommt eh wieder nur Gekeife.

Natürlich ist der Spruch von fondness, dass NVIDIA failt, nicht schön, aber auch nicht ganz von der Hand zu weisen. Wenn plötzlich eine VEGA der 1080Ti davonzieht, so ist dass schon eine Art von Versagen von NVIDIA, wenn sie sonst doch immer so weit in Front liegt. Jetzt könnte man natürlich darüber diskutieren, warum dass hier in diesem einen Fall so ist. Und dann kommen solche Kommentare, die die Schuld bei allen anderen sehen, nur nicht bei NVIDIA. Und Leute, da dazu etwas beitragen, werden mit Kommentaren wie "Schwachsinn" abgekanzelt, ohne sich mit den Inhalten auseinanderzusetzen. Das ist halt keine Diskussionskultur.

Sachlich muss ich dir zustimmen, die Skalierung von VEGA gegenüber P10 ist sehr gut. Bleibt die Frage zu klären, warum das in diesem Spiel so gut funktioniert und in anderen nicht.

dargo
2017-10-02, 15:17:18
Wer's glaubt wird selig.
Glauben kannst du in der Kirche. Das sind die Fakten von Computerbase.

https://www2.pic-upload.de/img/34018446/FM7.jpg https://www2.pic-upload.de/img/34018447/FM7_1.jpg

https://www2.pic-upload.de/img/34018445/FM7_2.jpg https://www2.pic-upload.de/img/34018448/FM7_3.jpg

Der Einbruch mit 8xMSAA ist bei Vega in 4K doppelt so groß wie bei Pascal. Ergo gewinnt Vega doppelt soviel beim Wechsel von 8xMSAA auf 4xMSAA an Frames wie Pascal. Zumindest ist das der aktuelle Stand. Ob AMD das noch verbessern kann müssen spätere Treiber zeigen.

Edit:
Ich habs nochmal nachgerechnet. Wenn ich die Skalierungstests von MSAA auf die Benches übertrage müsste es in 4K mit 4xMSAA so aussehen.

GTX 1080TI = 96,2 avg.fps
RX Vega64 = 94,6 avg.fps

Ich gebe zu ich habe mich leicht getäuscht... fast Gleichstand.

24p
2017-10-02, 15:20:34
Da sollte jedem klar sein, dass das eher was mit dem CPU-Limit zu tun hat. Die Bilder mit der 1080FE sagen genau nichts. Sorry, das sind keine Fakten sondern nur Mutmaßungen über Quervergleiche.

Wenn AMD hier bei MSAA weniger FPS verlieren würde, es gäbe sofort eine Story, dass NV für HQ dank der tollen Auslastung besser geeignet ist. Inkl. die übliche Extrapolation einzelner Ausreißer.

Bucklew
2017-10-02, 15:21:39
Natürlich ist der Spruch von fondness, dass NVIDIA failt, nicht schön, aber auch nicht ganz von der Hand zu weisen. Wenn plötzlich eine VEGA der 1080Ti davonzieht, so ist dass schon eine Art von Versagen von NVIDIA, wenn sie sonst doch immer so weit in Front liegt.
Ich dachte das Spiel ist DX12? Und in DX12 ist der Entwickler am Drücker für eine gute Implementierung?

Also ist es dann doch wenn schon ein Turn 10 Fail und kein NVIDIA Fail.

Man schaue sich mal die FPS-Percentile bei der FuryX an und sage mir bitte nochmal - ohne Lachen - dass das Spiel technisch Top ist und im Rahmen der Hardwaremöglichkeiten performt :rolleyes:

Genau die Leute, die sich vor einigen Jahren noch darüber ausgekotzt haben, wie schrecklich doch GameWorks ist und jede Publikation angeflamt hat, die sich auch nur im entferntesten getraut haben ein Spiel mit GameWorks als Benchmark zu nutzen (ob an oder aus war völlig egal, manches Spiel wurde sogar zum GameWorks-Spiel wie Project Cars, obwohl es gar nicht drin war, einfach so, weil das Spiel lief auf NVIDIA Hardware zu gut), sind komischerweise genau jetzt die Leute, die Doom mit Vulkan unter dem "Gaming Evolved" Label als absoluten Vorzeigebench nutzen :rolleyes: Das ist nicht mal mehr lustig, das ist einfach nur noch traurig, wie sehr da es nur noch um den Grabenkampf geht.

Digidi
2017-10-02, 15:21:55
Da sollte jedem klar sein, dass das eher was mit dem CPU-Limit zu tun hat.

Bei 4k gibt es keinen CPU Limit laut CB:

https://www.computerbase.de/2017-09/forza-7-benchmark/3/#diagramm-cpu-tests-in-forza-7-auf-einer-rx-vega-64-3840-2160

Mangel76
2017-10-02, 15:22:21
Die breite Masse kauft keine eigenständigen Grafikkarten sondern komplett Systeme. Und wenn AMD Dell, HP, Acer und Co. keine überzeugende Angebote macht, dann haben sie halt Pech. Und seit einigen Jahren liegt AMD eben technisch zurück. Jedes Watt Mehrverbrauch muss bereitgestellt (d.h. größeres Netzteil) und weggekühlt (d.h. bessere Kühler/mehr Lüfter) werden. Bei Angeboten, wo um Zehntel Cent gefeilscht wird, hat AMD dann eben Pech. Ferner haben sie sich einen stabilen Ruf erarbeitet, dass ihre Treiber für'n Arsch sind. Dieses Ruf festigen sie auch heute noch. Kein Systemanbieter hat Bock darauf, dass sich seine Kunden bei ihm beschweren, Spiel X würde nicht laufen. Erinnert sich noch wer an AMD und GTA IV?

AMD liefert aktuell einfach nicht und die paar Verkäufe durch uns Selbstbastler machen den Kohl nicht fett. Angenommen AMD verdient 100Euro pro Karte (also wirklich Gewinn nach Abzug aller Produktionskosten), dann sind 100.000 verkaufte Karten gerade mal 10Mios Gewinn! Und 100k Karten müssen erstmal verkauft werden.

Von daher lohnt es sich überhaupt nicht, sich um AMD oder Nvidia zu streiten.

Ich weiß ja nicht, was du für ein Problem mit Grafikkarten und Treibern von AMD hast, aber ich habe bereits seit mehreren Jahren (R9 290X, RX480, VEGA56) AMD-Grafikkarten. Nur größere Treiberprobleme hatte ich in dieser Zeit nicht. Könnte es sein, dass dieser schlechte Ruf absichtlich von den Freunden anderer Grafikkarten am Leben erhalten wird? (GTA IV, realy?)

Das AMD nicht liefert ist leider nicht von der Hand zu weisen. Hier wäre natürlich gut zu wissen, warum das so ist. Gibt es wirklich große Probleme bei Ausbeute und/oder Packaging? Oder versorgen sie erst Server, Apple oder andere? Oder hat GloFo einfach keine Ressourcen frei und Zen wird bevorzugt, da hier größere Gewinne zu erzielen sind? Wir wissen es leider nicht.

Rancor
2017-10-02, 15:23:47
Ich dachte das Spiel ist DX12? Und in DX12 ist der Entwickler am Drücker für eine gute Implementierung?

Also ist es dann doch wenn schon ein Turn 10 Fail und kein NVIDIA Fail.

Man schaue sich mal die FPS-Percentile bei der FuryX an und sage mir bitte nochmal - ohne Lachen - dass das Spiel technisch Top ist und im Rahmen der Hardwaremöglichkeiten performt :rolleyes:

Genau die Leute, die sich vor einigen Jahren noch darüber ausgekotzt haben, wie schrecklich doch GameWorks ist und jede Publikation angeflamt hat, die sich auch nur im entferntesten getraut haben ein Spiel mit GameWorks als Benchmark zu nutzen (ob an oder aus war völlig egal, manches Spiel wurde sogar zum GameWorks-Spiel wie Project Cars, obwohl es gar nicht drin war, einfach so, weil das Spiel lief auf NVIDIA Hardware zu gut), sind komischerweise genau jetzt die Leute, die Doom mit Vulkan unter dem "Gaming Evolved" Label als absoluten Vorzeigebench nutzen :rolleyes: Das ist nicht mal mehr lustig, das ist einfach nur noch traurig, wie sehr da es nur noch um den Grabenkampf geht.

Du scheinst aber auch arge Probleme damit zu haben, einfach mal einzugestehen, das VEGA, scheinbar, wenn richtig unterstützt, einfach ne sehr gute Performance abliefert.

Wir wissen alle das Maxwell/Pascal ne LL Schwäche haben, die hier scheinbar einfach durchschlägt.
Das ist doch jetzt kein Weltuntergang.

24p
2017-10-02, 15:25:34
Das kann man anhand eines UWP Spiels nicht sagen. Eher ist es umgekehrt: Die AMD Treiber sind unter DX11 mies und deswegen sondern die Karten seit Ewigkeiten im CPU Limit mies.

T86
2017-10-02, 15:27:38
Um nochmal auf das drohende nv Monopol Einzu gehen


Das amd nicht in fahrt kommt liegt schlicht an schlechter Werbung und mangelnder Akzeptanz in der durch Schnitts Käufer Schicht

Der Durchschnitts User täte gut daran zu wissen
Das amd Hardware in seiner Konsole steckt zb

Das wenn mal ein pc angeschafft wird
Er amd vom zocken bereits kennt ;)

Eine ryzen/ Vega APU die in den nächsten Konsolen steckt
Und so auch evtl in Millionen Notebooks würde auch breite Akzeptanz bei den Entwicklern finden...
Die oems müssen richtig bedient werden
Das geht aber nur wenn die Leute amd kennen und wollen!

Viele wissen ja gar nicht das es amd gibt das ist ja das schlimme
Intel und ne „GeForce“ kennt man aber aus jeden oem pc

Daher auch die Steam Statistiken... die Casual Gamer mit Media Markt Laptops Versauen die Statistik

Finde es einfach schade
Bin seit 15 Jahren glücklich mit amd/ati
Davor hatte ich auch Intel und nv aber naja
Bei der breiten Masse kommt nix an - wenn ich mal nen pc zusammen stellen soll kennen die Leute diese Alternative schlicht einfach nicht

Rancor
2017-10-02, 15:27:55
Das kann man anhand eines UWP Spiels nicht sagen. Eher ist es umgekehrt: Die AMD Treiber sind unter DX11 mies und deswegen sondern die Karten seit Ewigkeiten im CPU Limit mies.

Es ist einfach sinnlos. Und du fragst mich allen ernstes wo ich meine These beobachtet habe?

Bucklew
2017-10-02, 15:28:00
Du scheinst aber auch arge Probleme damit zu haben, einfach mal einzugestehen, das VEGA, scheinbar, wenn richtig unterstützt, einfach ne sehr gute Performance abliefert.
Wodurch "scheine" ich das denn zu haben?

Wir wissen alle das Maxwell/Pascal ne LL Schwäche haben, die hier scheinbar einfach durchschlägt.
Das ist doch jetzt kein Weltuntergang.
Wenn Maxwell/Pascal mit 60-70% FPS-Percentile eine "LL Schwäche" haben sollen, was hat denn dann die FuryX mit 11%? ;D

Vielleicht sollte man einfach mal eingestehen, dass Forza 7 offensichtlich massive technische Probleme hat - auf Fury noch viel stärker, als bei NVIDIA. Auch wenn einem so der gewünscht "Vorzeige-Bench" abhanden kommt.

Mangel76
2017-10-02, 15:28:55
Ich dachte das Spiel ist DX12? Und in DX12 ist der Entwickler am Drücker für eine gute Implementierung?

Also ist es dann doch wenn schon ein Turn 10 Fail und kein NVIDIA Fail.

Man schaue sich mal die FPS-Percentile bei der FuryX an und sage mir bitte nochmal - ohne Lachen - dass das Spiel technisch Top ist und im Rahmen der Hardwaremöglichkeiten performt :rolleyes:

Genau die Leute, die sich vor einigen Jahren noch darüber ausgekotzt haben, wie schrecklich doch GameWorks ist und jede Publikation angeflamt hat, die sich auch nur im entferntesten getraut haben ein Spiel mit GameWorks als Benchmark zu nutzen (ob an oder aus war völlig egal, manches Spiel wurde sogar zum GameWorks-Spiel wie Project Cars, obwohl es gar nicht drin war, einfach so, weil das Spiel lief auf NVIDIA Hardware zu gut), sind komischerweise genau jetzt die Leute, die Doom mit Vulkan unter dem "Gaming Evolved" Label als absoluten Vorzeigebench nutzen :rolleyes: Das ist nicht mal mehr lustig, das ist einfach nur noch traurig, wie sehr da es nur noch um den Grabenkampf geht.

Gut zu wissen, haben wir ja endlich einen anderen Schuldigen gefunden. Es ist natürlich nicht NVIDIA, sondern der Spieleproduzent. Na ein Glück, das ist dann ja nochmal gut gegangen. :freak:

Ich bin mir durchaus bewusst, dass es Titel gibt, die auf einer GPU besser laufen als auf der anderen. Ich muss deswegen auch nicht jedes Mal Doom nennen, du anscheinend schon. Mir ist völlig egal, dass manche Spiele auf meiner VEGA nicht den längsten Balken produzieren, ich will nur spielen! Und das kann ich bisher ohne Einschränkungen!

Rancor
2017-10-02, 15:31:28
Wodurch "scheine" ich das denn zu haben?

Naja, du gönnst AMD den Performancevorteil einfach nicht, sondern versuchst irgendwie auf Biegen und Brechen zu erklären, warum Nvidia so schlecht abschneidet, lässt dabei eben die Möglichkeit außer acht, das in diesem Beispiel VEGAS Architektur augenscheinlich überlegen ist.

Nvidia hat ja sogar bestätigt, das die Werte so in Ordnung sind und es keine Probleme gibt.


Wenn Maxwell/Pascal mit 60-70% FPS-Percentile eine "LL Schwäche" haben sollen, was hat denn dann die FuryX mit 11%? ;D

Vielleicht sollte man einfach mal eingestehen, dass Forza 7 offensichtlich massive technische Probleme hat - auf Fury noch viel stärker, als bei NVIDIA. Auch wenn einem so der gewünscht "Vorzeige-Bench" abhanden kommt.
Fury X und VEGA sind zwei unterschiedliche Architekturen, was besonders im LL Bereich einen unterschied macht. Die Schwäche der Fury hat nichts mit der Stärke von VEGA zu tun. Dazu kommt das die Fury auch nur 4GB RAM hat.

Mangel76
2017-10-02, 15:34:00
Wenn Maxwell/Pascal mit 60-70% FPS-Percentile eine "LL Schwäche" haben sollen, was hat denn dann die FuryX mit 11%? ;D


Das kommt davon, einer 4GB-Karte in UHD die vollen Details und 8xMSAA zu verordnen. Dazu müsste man aber den Text zwischen den Bildern lesen:
Der Radeon R9 Fury X geht in der Auflösung hingegen mit vier Gigabyte der Speicher aus, der Titel wird unspielbar. Da hilft nur die Texturdetails oder die MSAA-Kantenglättung zu reduzieren.

dargo
2017-10-02, 15:35:35
Vielleicht sollte man einfach mal eingestehen, dass Forza 7 offensichtlich massive technische Probleme hat - auf Fury noch viel stärker, als bei NVIDIA. Auch wenn einem so der gewünscht "Vorzeige-Bench" abhanden kommt.
Welche technischen Probleme soll Fury denn haben?

24p
2017-10-02, 15:36:23
Bei 4k gibt es keinen CPU Limit laut CB:

https://www.computerbase.de/2017-09/forza-7-benchmark/3/#diagramm-cpu-tests-in-forza-7-auf-einer-rx-vega-64-3840-2160

Sehe ich da nirgendwo.

dargo
2017-10-02, 15:40:57
Sehe ich da nirgendwo.
:freak:

https://www2.pic-upload.de/img/34018573/FM7_4.jpg

Den Text zu lesen hilft manchmal auch.

Im GPU-Limit in Ultra HD gibt es bei den Durchschnitts-FPS kaum noch einen Unterschied zwischen den Prozessoren.

Digidi
2017-10-02, 15:48:44
Wodurch "scheine" ich das denn zu haben?


Wenn Maxwell/Pascal mit 60-70% FPS-Percentile eine "LL Schwäche" haben sollen, was hat denn dann die FuryX mit 11%? ;D

Vielleicht sollte man einfach mal eingestehen, dass Forza 7 offensichtlich massive technische Probleme hat - auf Fury noch viel stärker, als bei NVIDIA. Auch wenn einem so der gewünscht "Vorzeige-Bench" abhanden kommt.

Forza 7 hat keine Technischen Problem es läuft einfach zu gut auf allen Karten. Selbst die Frametimes von Nvidia sind doch noch mehr als in Ordnung. Bei so Kommentaren kann ich einfach nur noch den Kopf schütteln. Da wird den Entwicklern Probleme unterstellt die es so nicht gibt nur um die eigene Marke zu schützen. Unglaublich!

dildo4u
2017-10-02, 15:56:35
Hast du den Test nich gelesen es gibt genau eine Kombination die gut läuft,Ryzen plus Vega.Schon Intel plus Vega skaliert nicht mit mehr als 4 Threads.

Digidi
2017-10-02, 16:06:43
Hast du den Test nich gelesen es gibt genau eine Kombination die gut läuft,Ryzen plus Vega.Schon Intel plus Vega skaliert nicht mit mehr als 4 Threads.
Wenn du mal gelesen hättest 4k ist es egal welche CPU drinnen steckt hier siehst du was die Grafikkarten können.

dildo4u
2017-10-02, 16:11:04
Die Masse der Gameing Freesync/Gsync TFT maxen bei 1440p/144hz,das würden die High-End Karten locker schaffen wenn es nicht so CPU Limitiert wäre.

Mangel76
2017-10-02, 16:28:56
Die Masse der Gameing Freesync/Gsync TFT maxen bei 1440p/144hz,das würden die High-End Karten locker schaffen wenn es nicht so CPU Limitiert wäre.

Ist das jetzt der Maßstab? Erreicht eine GTX1080Ti in einem Spiel keine 144FPS ist das Spiel nicht gut programmiert? Dann sind aber viele Spiele nicht gut programmiert. Solange die 1080Ti aber vorne liegt, ist es auch egal, oder? Dann ist ja auch die Welt wieder in Ordnung.

Irgend etwas muss doch der begrenzende Faktor sein, hier ist es zur Abwechslung mal die CPU. Und laut Produzent hat man sich auch mit Vorsatz dazu entschieden! Willst du jetzt behaupten, es besser zu wissen bzw. besser zu können?

Agent117
2017-10-02, 16:40:22
Wir rennen aber mit Vollgas in diese Richtung. Check Steam.

MfG,
Raff

Das traurige daran ist, dass dieser Prozess von zahlreichen OEMs künstlich beschleunigt wird. Es kaufen doch nach wie vor viele - auch hardwäretechnisch gut Informierte - Komplett-PCs. AMD ist dort selbst nach Ryzen im CPU Bereich und schon seit langem im GPU Bereich sehr schlecht vertreten. Kann mich praktisch an kein halbwegs brauchbares Notebook auf Carrizo Basis erinnern, von denen par wenigen, die es gab. Dabei hatte Carrizo durchaus Potential. Gutes Beispiel sind auch die PCGH PCs. Fast nie AMD Hardware, im aktuellen Portfolio gar keine GPUs; Ryzen auch nur 2 mal vertreten. Stattdessen massenweise 7700K und die teure Skylake X Platform. Oder auch 1050Ti statt 470/570. Sowas ist für AMD natürlich sehr schlecht.

dargo
2017-10-02, 16:44:49
Naja... zumindest bei Polaris kann man da niemanden außer vielleicht AMD was vorwerfen wenn die ganzen Miner Polaris leer kaufen. Das P/L ist aktuell bei Polaris immer noch mies, zumindest als Gaming Karte. AMD müsste mal die Produktion von Polaris hochfahren. Tun sie aber offenbar nicht, aus welchen Gründen auch immer. Meine Vermutung liegt bei V11 der Polaris ersetzen soll.

G3cko
2017-10-02, 21:48:37
Hast du den Test nich gelesen es gibt genau eine Kombination die gut läuft,Ryzen plus Vega.Schon Intel plus Vega skaliert nicht mit mehr als 4 Threads.


Interessant wäre jetzt noch der Vergleich mit dem nvidia Treiber und Intel/AMD CPU. Schön ist schon mal der Umstand, dass man feststellt, dass Intel/AMD CPUs unterschiedliche Ergbnisse liefern. Man lernt dazu... Nur noch ein kleiner Schritt zum objektiven/ ganzheitlichen Test. Weiter so.;D:freak:

Hasenpfote
2017-10-02, 23:07:25
Ich weiß ja nicht, was du für ein Problem mit Grafikkarten und Treibern von AMD hast, aber ich habe bereits seit mehreren Jahren (R9 290X, RX480, VEGA56) AMD-Grafikkarten. Nur größere Treiberprobleme hatte ich in dieser Zeit nicht. Könnte es sein, dass dieser schlechte Ruf absichtlich von den Freunden anderer Grafikkarten am Leben erhalten wird? (GTA IV, realy?)Ok, dann fang ich mal an:
1. Vor zwei Wochen gekaufte RX 560:
1.1. Dual Monitor 1x HDMI 1x DVI, Speicher taktet auf Maximum, der Zwischenschritt wird ignoriert
1.2. Zerocore-Feature lässt meinen Bildschirm schwarz. Muss erstmal mittels Affengriff die Kiste aufwecken, damit was passiert
2. Kumpel kauft Anfang des Jahres ne 380: schafft es nicht zu seiner Zufriedenheit 3 Monitore anzusteuern. (kauft sich ne kleine Nvidia, die das problemlos schafft, , schenkt mir die 380, die dann leider gestorben ist und kein Ersatz zu beschaffen war)
3. 7950 gekauft als sie 3 Monate draußen war: Zerocore Feature funktionierte so super, dass ich das System jedes Mal via Reset-Button neu starten durfte (ging nach 3 Tagen zurück)

bin die ganze Zeit alternativ auf ner 5750 und später ner 5870 unterwegs gewesen (die jetzt durch ne RX 560 ersetzt wurde)

Also erzähl mir nix von verschissenen AMD-Treibern, die ja doch so super sind!
Das halte ich immer noch für ein Gerücht. Im Prinzip ist die Hardware von AMD der Software in einer PC-Umgebung um zig Jahre voraus.Wenn die Hardware dadurch nicht richtig genutzt wird und im Normalfall langsamer als die Konkurrenz ist, interessiert es den Kunden nen feuchten Kerricht, wie weit die Hardware in der Zukunft ist! Oder hat Bulldozer mit seinen superzukunftsicheren Integereinheiten den Markt gerockt? Oder die ganz tollen zukunftssicheren Grafikkartenfeatures von AMD? Lass mich mal kurz auf den Chart meiner AMD-Aktien von 2008-2016 schauen. Chart sagt "Nein!" - "Aber dargo sagt doch?" Chart sagt "Nein!" Tja, ich glaube da eher dem Aktienchart. Frag doch mal die anderen AMD-Aktionäre hier im Forum was sie von Vega halten. Oder der RX 4x0/5x0. Oder der 300er Serie. Bzw. jeder Grafikkartenserie bis zurück zur 9700er-Serie (geheiligt werde ihr Name).

PS: Hätte AMD auf der 5870 2GB RAM verbaut, wäre die heute noch super für HD Gaming. Die liegt heute noch bei 200% im HD-3DCenter-Ranking. Die RX 560 bei gerade mal 300%! In 8(!!!) Jahren +50% Performance beim Drittel des Preises! Wow - ich bin beeindruckt - NICHT!

gedi
2017-10-02, 23:34:33
Ok, dann fang ich mal an:
1. Vor zwei Wochen gekaufte RX 560:
1.1. Dual Monitor 1x HDMI 1x DVI, Speicher taktet auf Maximum, der Zwischenschritt wird ignoriert
1.2. Zerocore-Feature lässt meinen Bildschirm schwarz. Muss erstmal mittels Affengriff die Kiste aufwecken, damit was passiert
2. Kumpel kauft Anfang des Jahres ne 380: schafft es nicht zu seiner Zufriedenheit 3 Monitore anzusteuern. (kauft sich ne kleine Nvidia, die das problemlos schafft, , schenkt mir die 380, die dann leider gestorben ist und kein Ersatz zu beschaffen war)
3. 7950 gekauft als sie 3 Monate draußen war: Zerocore Feature funktionierte so super, dass ich das System jedes Mal via Reset-Button neu starten durfte (ging nach 3 Tagen zurück)

bin die ganze Zeit alternativ auf ner 5750 und später ner 5870 unterwegs gewesen (die jetzt durch ne RX 560 ersetzt wurde)

Also erzähl mir nix von verschissenen AMD-Treibern, die ja doch so super sind!
Wenn die Hardware dadurch nicht richtig genutzt wird und im Normalfall langsamer als die Konkurrenz ist, interessiert es den Kunden nen feuchten Kerricht, wie weit die Hardware in der Zukunft ist! Oder hat Bulldozer mit seinen superzukunftsicheren Integereinheiten den Markt gerockt? Oder die ganz tollen zukunftssicheren Grafikkartenfeatures von AMD? Lass mich mal kurz auf den Chart meiner AMD-Aktien von 2008-2016 schauen. Chart sagt "Nein!" - "Aber dargo sagt doch?" Chart sagt "Nein!" Tja, ich glaube da eher dem Aktienchart. Frag doch mal die anderen AMD-Aktionäre hier im Forum was sie von Vega halten. Oder der RX 4x0/5x0. Oder der 300er Serie. Bzw. jeder Grafikkartenserie bis zurück zur 9700er-Serie (geheiligt werde ihr Name).

PS: Hätte AMD auf der 5870 2GB RAM verbaut, wäre die heute noch super für HD Gaming. Die liegt heute noch bei 200% im HD-3DCenter-Ranking. Die RX 560 bei gerade mal 300%! In 8(!!!) Jahren +50% Performance beim Drittel des Preises! Wow - ich bin beeindruckt - NICHT!


Wie sieht denn eine 1050 non-Ti gegenüber einer GTX 480 aus - da musst du ja wahnsinnig beeindruckt sein. Die Probleme, welche du schilderst hättest du wahrscheinlich sehr einfach mit einem Reg-Tweak in den Griff bekommen können. Ich weiß nur, dass mein Sohn mit einer 290x und jetzt einer R480 keine Probleme mit dem Multimonitorbetrieb hat. Zu Vega kann ich mir zugegebenermaßen kein Urteil bilden, da ich keine besitze und auch niemanden kenne, welcher eine am laufen hat. Aber ganz so schlecht sieht es imo nicht aus. Zudem hast du den legendären Hawaii vergessen, welcher tatsächlich eine außergewöhnliche Halbwertszeit besitzt/besessen hat.

Hasenpfote
2017-10-03, 08:04:37
Wie sieht denn eine 1050 non-Ti gegenüber einer GTX 480 aus - da musst du ja wahnsinnig beeindruckt sein.Mein Kommentar war auf die Steigerungen von AMD bezogen. Ich habe keine Ahnung, welche Fortschritte Nvidia gemacht hat. Auf jeden Fall sehe ich keinen Druck seitens AMD so wie aktuell durch Ryzen auf Intel.Die Probleme, welche du schilderst hättest du wahrscheinlich sehr einfach mit einem Reg-Tweak in den Griff bekommen können.Aha. Wieso macht das nicht das Treiberteam von AMD, das dafür bezahlt wird? Wieso taucht das in keiner Treiber-FAQ auf?Zudem hast du den legendären Hawaii vergessen, welcher tatsächlich eine außergewöhnliche Halbwertszeit besitzt/besessen hat.Nein, hab ich nicht, da auch hier Nvidia deutlich weniger Strom verbrauchte, für mehr FPS. Gerade nochmal geschaut und die GTX 780 war gleich schnell oder schneller bei rund 80W weniger.

Ich schau mir jede Generation von AMD-Karten an, ob ich nun mal endlich upgraden könnte und jedes Mal (inkl R2xx-Serie), verkackt es AMD (zumindest in meinen Augen, aber ist ja auch mein Geld).

PS: Wieso ich dann bis auf kurzeitig eine 7950GX2 nur AMD/ATi-Karten habe/hatte, liegt ganz allein daran, dass ich die OpenSource-Politik von AMD unterstützen will und mir Nvidias allgemeine Vorgehensweise nicht gefällt.

Schnitzl
2017-10-03, 08:38:29
Ok, dann fang ich mal an:
1. Vor zwei Wochen gekaufte RX 560:
1.1. Dual Monitor 1x HDMI 1x DVI, Speicher taktet auf Maximum, der Zwischenschritt wird ignoriert
1.2. Zerocore-Feature lässt meinen Bildschirm schwarz. Muss erstmal mittels Affengriff die Kiste aufwecken, damit was passiert
2. Kumpel kauft Anfang des Jahres ne 380: schafft es nicht zu seiner Zufriedenheit 3 Monitore anzusteuern. (kauft sich ne kleine Nvidia, die das problemlos schafft, , schenkt mir die 380, die dann leider gestorben ist und kein Ersatz zu beschaffen war)
3. 7950 gekauft als sie 3 Monate draußen war: Zerocore Feature funktionierte so super, dass ich das System jedes Mal via Reset-Button neu starten durfte (ging nach 3 Tagen zurück)
Tja, bei mir wars genau andersrum, sogar noch viel mehr Probleme mit nVidia Karten.
AMD 2 oder 3 Monitore kein Problem, 2-3 Mal geklickt und fertig.

und jetzt?

vielleicht mal wieder zurück zum Thema?

Thoro
2017-10-03, 09:19:28
PS: Hätte AMD auf der 5870 2GB RAM verbaut, wäre die heute noch super für HD Gaming. Die liegt heute noch bei 200% im HD-3DCenter-Ranking. Die RX 560 bei gerade mal 300%! In 8(!!!) Jahren +50% Performance beim Drittel des Preises! Wow - ich bin beeindruckt - NICHT!

Du vergleichst dabei halt eine High-End-Karte von damals mit einer Low-End-Karte von heute; was genau erwartest du dir da? Wesentlich mehr Leistung bei wesentlich geringerem Preis ist da eh vorhanden.

Daredevil
2017-10-03, 09:40:38
Ich frag mich immer, auch bei Spielen wie Pubg und jetzt ja Forza, wenn ein Spiel heutzutage nur zwei Kerne nutzt, ist das dann automatisch CPU limitiert oder einfach nur scheiße programmiert? :Usad:

Wenn ein Spiel nicht die gegebenen Ressourcen heutzutage nutzt, ist es halt auch einfach läpsch und für Vergleiche kaum der Rede wert.

dargo
2017-10-03, 09:44:42
Ich frag mich immer, auch bei Spielen wie Pubg und jetzt ja Forza, wenn ein Spiel heutzutage nur zwei Kerne nutzt, ist das dann automatisch CPU limitiert oder einfach nur scheiße programmiert? :Usad:

Das eine schließt das andere nicht aus. ;)

btw.
Gibt es immer noch rein gar nichts an Infos zu Sapphire? Mich wundert das schon sehr, dass Asus und Gigabyte vor Sapphire kommen. :uponder: Ich meine Sapphire ist auf AMD angewiesen, die bieten bei den Grünen nichts an. :confused:

BeetleatWar1977
2017-10-03, 09:45:06
Interressante Randnotiz - Aquacool schafft anscheinend nicht soviele AiO für Vega zu liefern/fertigen wie sie Bestellungen haben - Telefonische Anfrage gestern, vorraussichtliche Lieferzeit: etwa 2 Wochen.......

dargo
2017-10-03, 09:48:43
Interressante Randnotiz - Aquacool schafft anscheinend nicht soviele AiO für Vega zu liefern/fertigen wie sie Bestellungen haben - Telefonische Anfrage gestern, vorraussichtliche Lieferzeit: etwa 2 Wochen.......
Mich verwundert das nicht wirklich. Viele kaufen wohl das Referenzdesign weil es keine Alternativen gibt und bauen dann selbst um. Ich bin auch schon langsam am überlegen obwohl ich darauf eigentlich keine Lust hatte. Das einzige was mich davon noch abhält ist der Preis von Vega56. Lange nichts mehr für 399€ gesehen.

Th3o
2017-10-03, 09:59:55
Will auch eine Vega 56, aber Umbau ist auch nicht so mein Ding.

Daredevil
2017-10-03, 10:31:09
Das eine schließt das andere nicht aus. ;)

btw.

Finde ich schon, weil man daraus halt auch falsche Schlüsse ziehen kann.

Bsp.

Spiel1 profitiert von 8 Kernen und ermöglicht dem breiteren Gespann 1800x bessere FPS als dem schnelleren Gespann, 7700k.

Spiel2 profitiert von 6 Kernen und zaubert bei einem 7700k und 1800x gute Bildraten auf den Bildschirm.

Spiel3 profitiert von 2 Kernen und ermöglicht dem schnelleren Gespann 7700k bessere FPS als dem breiteren Gespann, 1800x.

Das sind nun drei Szenarien, die ab und an mal vor kommen.
Spiel1 sowohl Spiel2 sind natürlich Ausreißer, aber die Tendenz geht ja eher Richtung Spiel2 bzw. Spiel 1 und deswegen wäre es doch falsch, sich an Werten von Spiel3 festzunageln. Weil das ja eigentlich ein Techniklevel ist, welches wir eigentlich überschritten haben sollten.

Man kann zwar in dem Moment feststellen, welcher Prozessor für diesen speziellen Fall besser geeignet ist, aber damit dann die komplette Leistungsfähigkeit zu deuten, ist doch auch nicht richtig.

OT:
Umbauen wär ansich okay, aber dann sollen die uns halt die Ref Designs günstiger anbieten, damit wir ihre Arbeit machen. ;(

Zergra
2017-10-03, 10:40:09
Interressante Randnotiz - Aquacool schafft anscheinend nicht soviele AiO für Vega zu liefern/fertigen wie sie Bestellungen haben - Telefonische Anfrage gestern, vorraussichtliche Lieferzeit: etwa 2 Wochen.......
Ja, hätte man aber vor ein paar Tagen auch ohne Lieferzeit bekommen können :). Finde den Preis zu happig und bau mir dafür lieber gleich eine Custom.

BeetleatWar1977
2017-10-03, 10:50:17
Ja, hätte man aber vor ein paar Tagen auch ohne Lieferzeit bekommen können :). Finde den Preis zu happig und bau mir dafür lieber gleich eine Custom.
Da komm ich aber min. beim doppelten Preis raus - oder bin ich zu doof?:biggrin:

ecodriver
2017-10-03, 11:00:13
Wisst Ihr ob jemand schon mal einen Accelero Xtreme IV auf eine Vega geschraubt hat -> passt nicht.
Gamersnexus hat einige Aftermarket Kühler ausprobiert. (https://www.youtube.com/watch?v=SXmJ3C8H7MU)
Nur der Raijintek Morpheus II passt aktuell auf Vegas. Siehe Overcklockers.net im VEGA owner thread ab Seite 108.

Edit, Suche und info von NikLaw "eingefügt"

BeetleatWar1977
2017-10-03, 11:49:39
Ich weiß nicht ob wirs schon hatten - aber hier ist die Nano gelistet: https://www.techpowerup.com/gpudb/2997/radeon-rx-vega-64-nano

NikLaw
2017-10-03, 11:58:35
Wisst Ihr ob jemand schon mal einen Accelero Xtreme IV auf eine Vega geschraubt hat?

Weiß ich nicht, ich hab aber bei Arctic gefragt, ob die überhaupt VEGA unterstützen. Die Antwort war Nein. Im Moment ist kein Kühler kompatibel.

Zergra
2017-10-03, 12:07:20
Da komm ich aber min. beim doppelten Preis raus - oder bin ich zu doof?:biggrin:
Ja :tongue:
Ich weiß nicht ob wirs schon hatten - aber hier ist die Nano gelistet: https://www.techpowerup.com/gpudb/2997/radeon-rx-vega-64-nano

Sicher das es kein Fake ist ? Hat sehr viele Ähnlichkeiten mit der R9 Nano...

BeetleatWar1977
2017-10-03, 12:17:18
Ja :tongue:


Sicher das es kein Fake ist ? Hat sehr viele Ähnlichkeiten mit der R9 Nano...
Na dann gib mal Beispiel......


und ja - irgendwie schon, aber normalerweise prüfen sie es, bevor die Einträge in die Datenbank kommen.....

Raff
2017-10-03, 12:17:55
Ersteindruck zur Vega 64 LCE: Damn, die ist wirklich leise, leiser als die Fury X, allerdings gefühlt auch wärmer. Das Design gefällt mir ziemlich gut, allerdings sind die Preise jenseits von Gut und Böse. Da sind noch keine Schnäpp(s)chen aufgetaucht, oder? Verkauft (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=584200) hier jemand seine? :D

MfG,
Raff

Botcruscher
2017-10-03, 12:21:15
Interressante Randnotiz - Aquacool schafft anscheinend nicht soviele AiO für Vega zu liefern/fertigen wie sie Bestellungen haben - Telefonische Anfrage gestern, vorraussichtliche Lieferzeit: etwa 2 Wochen.......

Vollkommen normal. Da wird eine Serie gefertigt und wenn die aus dem Lager raus ist dauert es eben bis der CNC- Sub wieder mal umspannt. Zwei Wochen ist dann der typische Zeitraum für die neue Serie mit Zusammenbau plus X.
Die Stückzahl ist für eine kontinuierliche Fertigung einfach viel zu gering.

Umbau ist bei Vega ja eh der einzige Weg. Der Kühler hängt ja durchgehend am Limit.

BeetleatWar1977
2017-10-03, 12:21:50
Momentan ein Mindstar: https://www.mindfactory.de/product_info.php/16GB-AMD-Radeon-Vega-Frontier-Edition-Liquid-Wasser-PCIe-3-0-x16--Retai_1180478.html Supergünstig, nur 1479€ :freak:

zum Thema: Hies es nicht auf der 56er sind Hynix verbaut? Meine meldet steif und fest Samsung und macht 945........


Edit: Pics or it didnt happen

https://abload.de/img/gpu-zaulpl.jpg

Raff
2017-10-03, 12:22:31
Momentan ein Mindstar: https://www.mindfactory.de/product_info.php/16GB-AMD-Radeon-Vega-Frontier-Edition-Liquid-Wasser-PCIe-3-0-x16--Retai_1180478.html Supergünstig, nur 1479€ :freak:

Mach die 1 vorne weg und ich nehme sie. :biggrin:

MfG,
Raff

Schnitzl
2017-10-03, 13:12:13
Ich weiß nicht ob wirs schon hatten - aber hier ist die Nano gelistet: https://www.techpowerup.com/gpudb/2997/radeon-rx-vega-64-nano
Bitte lass es ein Fake sein ... 15cm ist viel zu kurz, warum keine 18 oder 20 das ist ebenfalls noch mini im Vergleich zu 28 der FE - dafür evtl. kein Krachmacher...

Linmoum
2017-10-03, 13:43:51
Wo wäre das viel zu kurz? Von der Länge her genauso wie die R9 Nano, passt schon.

Davon ab ist das wieder nur ein klassischer TPU-Platzhalter, die Vega Nano hat u.a. beispielsweise wieder nur 1x8-Pin und nicht 2x8.
https://www.computerbase.de/2017-07/radeon-rx-vega-nano-vorgestellt/

N0Thing
2017-10-03, 15:36:41
zum Thema: Hies es nicht auf der 56er sind Hynix verbaut? Meine meldet steif und fest Samsung und macht 945........


Edit: Pics or it didnt happen

https://abload.de/img/gpu-zaulpl.jpg

Bei mir steht auch Samsung, mit einer alten Version von GPU-Z stand da aber ein anderer Hersteller, wenn ich mich nicht irre. Da dürfte nur eine hinterlegte Datenbank ausgelesen werden und keine Daten von der Grafikkarte ausgewertet werden.

Messias
2017-10-03, 18:37:02
Nur ne Beobachtung: Wenn ich die Forza 7 Demo spiele, dann dümpelt meine V64 fast durchgehend so zwischen 1100 und 1300MHz rum.
Das Ganze läuft zwar Butterweich bei 3440x1440 Auflösung und vollen Details (dynamisches rendering auf ultra).
Taktet die nicht richtig hoch, weil sie so ausgelastet ist?
GPU-Z zeigt kaum GPU auslastung an. So um die 40-50% höchstens.
Normal?

Grendizer
2017-10-03, 18:39:23
Nur ne Beobachtung: Wenn ich die Forza 7 Demo spiele, dann dümpelt meine V64 fast durchgehend so zwischen 1100 und 1300MHz rum.
Das Ganze läuft zwar Butterweich bei 3440x1440 Auflösung und vollen Details (dynamisches rendering auf ultra).
Taktet die nicht richtig hoch, weil sie so ausgelastet ist?
GPU-Z zeigt kaum GPU auslastung an. So um die 40-50% höchstens.
Normal?

Vsync auf 30fps vieleicht ?

Messias
2017-10-03, 18:47:54
Neee...
Die eingebaute Demo zeigt mir auch durchschnittliche Frames von 58,5 an.

hq-hq
2017-10-03, 20:21:51
Neee...
Die eingebaute Demo zeigt mir auch durchschnittliche Frames von 58,5 an.

vielleicht darum: "Die in der Demo beschränkte Bildrate von 60 fps wird in der Vollversion entfallen."

RoughNeck
2017-10-03, 20:25:36
Die Demo hat einen 60 FPS Lock
Und ja, meine Vega taktet auch runter bei 4K und 60 FPS. Die starken Karten langweilen sich bei unter 100 FPS schon richtig aber solange es smooth läuft, kann die Karte takten wie sie will.

Messias
2017-10-03, 20:27:47
Ok, vastehe. Danke. :)

dargo
2017-10-03, 20:29:19
Neee...
Die eingebaute Demo zeigt mir auch durchschnittliche Frames von 58,5 an.
60fps Limit in FM7 Demo bei 3440x1440 heißt für deine Grafikkarte Langerweile. Entsprechend senken sich GPU-Takt und Spannung um Strom zu sparen.

Zergra
2017-10-04, 10:17:35
zum Thema: Hies es nicht auf der 56er sind Hynix verbaut? Meine meldet steif und fest Samsung und macht 945........


Da wird nichts ausgelesen. Da kann man Eintragen was man möchte, HW Info müsste das gleiche Ausspucken. Die 64er machen aber auch oft 1050-1100.

Meine Karte ist erstmal 2 Wochen weg, für die Vermessung und Herstellung ...
Na dann gib mal Beispiel......




Also das war auf den doppelten Preis bezogen :)

Langlay
2017-10-04, 11:16:32
Die 64er machen aber auch oft 1050-1100.


Die 64er geben ja auch mehr Spannung auf den RAM als die 56er. Und die Timings können auch noch andere sein.

dildo4u
2017-10-04, 16:09:06
Battlefront 2 Beta auf Vega:

https://youtu.be/cesWdJBNahM

Raff
2017-10-04, 16:53:02
Hier noch was in Balkenform: http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/

Vega 64 LCE (~1,6 GHz) vor GTX 1080 @ 1,9 GHz, immerhin.

MfG,
Raff

X-Bow
2017-10-04, 16:58:15
Wichtiger ist dass die Vega 64 ~60FPS hat bei 4K. Das reicht mir^^

Was mich als Vega Besitzer bei so Spieletests mehr interessieren würde wäre ob HBCC bei dem Game was bringt oder nicht.

(Aber klar, erst mal die anderen GraKas testen, ist wichtiger und vor allem bestimmt stressig genug da Online, oder?)

dildo4u
2017-10-04, 16:58:39
Hier noch was in Balkenform: http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/

Vega 64 LCE (~1,6 GHz) vor GTX 1080 @ 1,9 GHz, immerhin.

MfG,
Raff

Die LC wirste aber schwer für 500€ bekommen.Performt wie erwartet wenn man BF1 zur Grundlage nimmt.

http://abload.de/img/bf1vegasgsgt.png

dargo
2017-10-04, 17:53:38
Hier noch was in Balkenform: http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/

Vega 64 LCE (~1,6 GHz) vor GTX 1080 @ 1,9 GHz, immerhin.

MfG,
Raff
Kommt das Game etwa immer noch mit DX11? :freak: Unglaublich... Was ist nur aus DICE geworden? (no)

Edit:
Ahh... sehe gerade den DX12 Schalter im Video von Raff. Sorry... :redface:

btw.
Ist DX12 in der Beta noch ausgegraut oder schon freigegeben?

Digidi
2017-10-04, 19:40:40
Hier hat jemand ein Video gemacht mit einer 1080ti. Das sind so 120 Fps und damit Gleichstand zu Pcgh Vega 64 liquid

https://m.youtube.com/watch?v=HQV2AAuSpTQ

Flusher
2017-10-04, 23:06:38
/Offtopic:

Die Grafik von Battlefront 2 sieht wirklich beeindruckend aus!

dildo4u
2017-10-04, 23:11:50
Hier hat jemand ein Video gemacht mit einer 1080ti. Das sind so 120 Fps und damit Gleichstand zu Pcgh Vega 64 liquid

https://m.youtube.com/watch?v=HQV2AAuSpTQ
PCGH testet ein Innenraum nicht die offene Schlacht.

http://abload.de/img/benchikj4d.png

Außerdem ist doch die 1080 dabei,die 1080 Ti ist im schnitt 30% schneller.Die LC liegt nur 5% vor der GTX 1080 in 1440p.

http://abload.de/img/lcvs1080fck3d.png

http://abload.de/img/1080performanceprjla.png

Digidi
2017-10-05, 00:02:36
PCGH testet ein Innenraum nicht die offene Schlacht.

http://abload.de/img/benchikj4d.png

Außerdem ist doch die 1080 dabei,die 1080 Ti ist im schnitt 30% schneller.Die LC liegt nur 5% vor der GTX 1080 in 1440p.

http://abload.de/img/lcvs1080fck3d.png

http://abload.de/img/1080performanceprjla.png

Schau dir das Video an da ist auch der Innenraum und da geht's sogar mal runter auf 115
https://youtu.be/HQV2AAuSpTQ
Bei 3:40

Aber hey is mal wieder Dildo4you Fake News time!

Warum postest du denn die Prozent und nicht die FPS. Im übrigen ist es das selbe Bild wie bei Forza. Man rennt hier wohl mit der 1080ti in das Rasterizer Limit.

Das ist nämlich interessant obwohl die 1080ti 2 Rasterizer mehr hat als die 1070/1080 sind alle 3 fast gleich schnell.
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/#a1
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a1

=Floi=
2017-10-05, 00:43:07
Kommt das Game etwa immer noch mit DX11? :freak: Unglaublich... Was ist nur aus DICE geworden? (no)

Edit:
Ahh... sehe gerade den DX12 Schalter im Video von Raff. Sorry... :redface:



wa ssoll denn DX12 bringen?
mal ensthaft. DX11 performt zu 95% noch immer besser und läuft vor allem runder.


Ist der DX12 Renderer mit Vega in der Beta schon zu gebrauchen? Sprich... saubere Frametimes?

du weist ja selbst was sache ist.

Digidi
2017-10-05, 00:45:08
wa ssoll denn DX12 bringen?
mal ensthaft. DX11 performt zu 95% noch immer besser und läuft vor allem runder.
:facepalm:

Schon mal was von Drawcall Limit gehört? Nein?

Bei Dx12 sind wir irgendwo gerade bei der Mitte angekommen was die Entwickler schon wissen und können siehe Forza. Läuft gut sieht gut aus!

=Floi=
2017-10-05, 00:58:24
:facepalm:

Schon mal was von Drawcall Limit gehört? Nein?


denke nicht, dass wir am DX11 drawcall-limit angekommen sind. Gibt es dazu brauchbare beispiele? ich rede nicht von benchmarks, sondern von echten spielen. (auch gerne gemoddet.)
Bisher hat mir das noch niemand zeigen können.
Ich hätte dazu gerne mal einen eigenen thread.

Digidi
2017-10-05, 01:09:54
denke nicht, dass wir am DX11 drawcall-limit angekommen sind. Gibt es dazu brauchbare beispiele? ich rede nicht von benchmarks, sondern von echten spielen. (auch gerne gemoddet.)
Bisher hat mir das noch niemand zeigen können.
Ich hätte dazu gerne mal einen eigenen thread.

Ja gibt es AOTS wenn Sau viele Einheiten auf dem Feld sind. Da brauchst du dann entweder bei Dx11 einen 6 Kerner oder mit Dx12/Vulkan langt ein i5

N0Thing
2017-10-05, 01:29:43
denke nicht, dass wir am DX11 drawcall-limit angekommen sind. Gibt es dazu brauchbare beispiele? ich rede nicht von benchmarks, sondern von echten spielen. (auch gerne gemoddet.)
Bisher hat mir das noch niemand zeigen können.
Ich hätte dazu gerne mal einen eigenen thread.

Das Thema DirectX 12 Grafik-API (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=551545) wird im passenden Thread besprochen, da geht es aber mehr um die technischen Belange und weniger um Vorurteile.

DX12 kann definitiv positive Auswirkungen haben, ich persönlich stelle das gerade bei Rise of the Tomb Raider fest. Ob das jetzt am Draw Call Limit, oder einem anderen Flaschenhals liegt, kann ich nicht einschätzen, aber das wäre ein Beispiel, wo DX12 was bringen kann, wenn es gut umgesetzt wurde.

yamamoto_dc
2017-10-05, 07:20:25
Die Lernkurve bei DX12 ist wohl sehr steil und die Motivation der Spielehersteller ist gering, da es bei der Mehrzahl der Kunden (NV-Besitzer) wenig bringt. Die Marktgesetze bremsen leider derzeit den technischen Fortschritt.

horn 12
2017-10-05, 07:28:49
RX Vega 64 Referenz ist nun extrem gut lieferbar.
Echt Zeit für die Customs, aber werden wohl nicht so schnell kommen werden.

Ausser Asus und GigaByte bei welchem,
a) Erster Preislich zu hoch ansetzt
b) Zweiter wohl schlechter/ hoffe gleichzieht als/mit Referenz wird.

Raff
2017-10-05, 10:18:06
wa ssoll denn DX12 bringen?
mal ensthaft. DX11 performt zu 95% noch immer besser und läuft vor allem runder.

du weist ja selbst was sache ist.
:facepalm:

Schon mal was von Drawcall Limit gehört? Nein?

Bei Dx12 sind wir irgendwo gerade bei der Mitte angekommen was die Entwickler schon wissen und können siehe Forza. Läuft gut sieht gut aus!

denke nicht, dass wir am DX11 drawcall-limit angekommen sind. Gibt es dazu brauchbare beispiele? ich rede nicht von benchmarks, sondern von echten spielen. (auch gerne gemoddet.)
Bisher hat mir das noch niemand zeigen können.
Ich hätte dazu gerne mal einen eigenen thread.

DX12 ist auch in SW Battlefront 2 unausgereift, siehe Update des PCGH-Artikels: http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/#a3

MfG,
Raff

dargo
2017-10-05, 10:33:26
Warum testet ihr auch mit Pascal in einem Vega Thread? :freak: Mich interessiert die Vega DX12 Performance und nicht irgendwelcher Pascal.

Pirx
2017-10-05, 10:49:19
DX12 ist auch in SW Battlefront 2 unausgereift, siehe Update des PCGH-Artikels: http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/#a3

MfG,
Raff
Gegentest mit Vega bitte

Rancor
2017-10-05, 10:50:45
Steht doch im Artikel das Karten folgen..

X-Bow
2017-10-05, 10:52:08
Wie im Artikel zu lesen folgt doch noch ein Vega DX12 Test. Wie man auch im Artikel lesen kann scheint die Beta zu viele Hardwarewechsel nicht zu mögen^^

Daredevil
2017-10-05, 10:54:48
Warum testet ihr auch mit Pascal in einem Vega Thread? :freak: Mich interessiert die Vega DX12 Performance und nicht irgendwelcher Pascal.
Weil man vor diesen beiden Karten steht, wenn man 500€ für eine Grafikkarte ausgeben will. Oder möchtest du bald einen Test sehen, wo ausschließlich AMD Karten getestet werden und der Vergleich mit Fury, 390x und 290x ansteht?

( Und das vermutlich Raffs Privatzeit war und er nur auf Nvidia zurückgreifen kann, siehe System ;) )
Sei halt mal ein wenig dankbar.

dargo
2017-10-05, 11:02:06
Mir gehts um die pauschale Aussage:
DX12 ist auch in SW Battlefront 2 unausgereift, siehe Update des PCGH-Artikels: http://www.pcgameshardware.de/Star-W...st-1240296/#a3

Solche Aussage dann in einem Vega Thread.

PS: außerdem hat Raff eine RX Vega 64 Liquid.

X-Bow
2017-10-05, 11:08:43
@dargo: Wenn Raffs Signatur noch aktuell ist dann hat er privat keine V64 LC. Wenn dem so wäre hätte er auch nicht vor kurzem geschrieben das er gerne eine hätte wenn sie jemand günstig verkaufen würde^^

Ich denke mal den DX11 vs. DX12 Test hat er privat Zuhause gemacht. ;-)

(Raff darfst natürlich gern korrigieren wenn ich was falsches verstanden hab^^)

Raff
2017-10-05, 11:09:54
@X-Bow: Vollkommen richtig, alles. Danke. :up:

MfG,
Raff

pilzsammler2002
2017-10-05, 11:23:57
@X-Bow: Vollkommen richtig, alles. Danke. :up:


Danke erstmal für das Private benchen :D

Heisst das auf der adneren Seite wir werden vorerst keine Vega dx12 benches von BF2 erhalten? :confused:

Rancor
2017-10-05, 11:28:55
Naja das wird er dann wohl in der Redaktion nachholen.

dargo
2017-10-05, 11:29:50
@dargo: Wenn Raffs Signatur noch aktuell ist dann hat er privat keine V64 LC. Wenn dem so wäre hätte er auch nicht vor kurzem geschrieben das er gerne eine hätte wenn sie jemand günstig verkaufen würde^^

Das Video bescheinigt was anderes.
https://www.youtube.com/watch?v=cesWdJBNahM&feature=youtu.be

X-Bow
2017-10-05, 11:32:48
@X-Bow: Vollkommen richtig, alles. Danke. :up:

MfG,
Raff

Aber gerne doch. :-)

Kleine Frage, hast Du dann vor eine Vega mit nach Hause zu nehmen und mit deinem Ryzen dann den DX12-Vergleich zu unternehmen oder willst Du denn 6800K bei PCGH verwenden?

N0Thing
2017-10-05, 11:34:31
@X-Bow: Vollkommen richtig, alles. Danke. :up:

MfG,
Raff

Danke für den extra Aufwand! Schon erstaunlich, daß DICE so große Probleme mit DX12 zu haben scheint.

Das Video bescheinigt was anderes.
https://www.youtube.com/watch?v=cesWdJBNahM&feature=youtu.be

Ja, so habe ich mir auch immer die Privatwohnung und den -PC von Raff vorgestellt. ;D

X-Bow
2017-10-05, 11:52:18
Das Video bescheinigt was anderes.
https://www.youtube.com/watch?v=cesWdJBNahM&feature=youtu.be

Hä? Hast Du dir das Video überhaupt angesehen? Auch mit Ton?

Das Video bescheinigt das die V64 LC vom Steffan ist und Raff gerade in der PCGH-Labor auf dem üblichen Benchplatz (welchen man in schon so vielen Videos gesehen hat) testet. ;D

dargo
2017-10-05, 11:58:50
Ja, so habe ich mir auch immer die Privatwohnung und den -PC von Raff vorgestellt. ;D
Ich hatte nirgendwo was vom privaten Rechner von Raff gesagt. Das hatte später X-Bow eingebracht.

N0Thing
2017-10-05, 12:15:28
Ich hatte nirgendwo was vom privaten Rechner von Raff gesagt. Das hatte später X-Bow eingebracht.

Nein, das hatte schon zuvor Daredevil auf deinen Einwand, warum denn nur Pascal getestet wurde, angemerkt. Lies einfach nochmal die Diskussion durch, dann wird es eindeutig.

dildo4u
2017-10-05, 12:59:14
Ich wunder mich eh über die fps über 200fps mit einem 3Ghz Ryzen,was testen die da?Innenraum ohne Gegner?Irgendwie glaube ich nich,das das Game eine CPU Last wie Fifa hat.

Raff
2017-10-05, 13:18:44
Innenraum mit Bots, um bessere Reproduzierbarkeit zu gewährleisten, wie im Text erwähnt. Die Szene wurde ursprünglich für die Grafikkartentests ausgesucht. Große Outdoor-Karten mit vielen Spielern hauen gewiss mehr auf die CPU. Entsprechende Messungen folgen, wenn man sich mehr als drei Karten ansehen kann. :)

MfG,
Raff

dildo4u
2017-10-05, 15:09:01
Ich frag mich was Dice macht FPS halbieren sich im CPU Limit mit Vega unter DX12.

Achill
2017-10-05, 15:13:15
Ich wunder mich eh über die fps über 200fps mit einem 3Ghz Ryzen,was testen die da?Innenraum ohne Gegner?Irgendwie glaube ich nich,das das Game eine CPU Last wie Fifa hat.

Neben der Antwort von Raff könnte es auch einfach sein, dass es gut mit CPU Cores skaliert. Wir sind aber schon OT.

dargo
2017-10-05, 16:20:14
Innenraum mit Bots, um bessere Reproduzierbarkeit zu gewährleisten, wie im Text erwähnt. Die Szene wurde ursprünglich für die Grafikkartentests ausgesucht. Große Outdoor-Karten mit vielen Spielern hauen gewiss mehr auf die CPU. Entsprechende Messungen folgen, wenn man sich mehr als drei Karten ansehen kann. :)

Vega64 haut da 350fps unter DX11 raus? X-D Ist der Broadwell-E Sixcore @3Ghz soviel besser als der Ryzen @Octacore oder wie kommen die +42% im CPU-Limit für Vega gegenüber Pascal zustande?

Hübie
2017-10-05, 18:17:36
Ryzen kommt mit 3GHz doch gar nicht richtig zu potte. Das geht ja auch auf die Bandbreite des IF-Netzwerks. Denke mal beide liegen bei 4 GHz enger zusammen. Aber ist schon ungünstig zwei Karten auf zwei verschiedenen Unterbauten zu messen und in einen Vergleich zu packen. Wenn dann: Ryzen mit Pascal/V64 @DX11/12 und Broadwell-E mit Pascal/V64 @DX11/12. So ist es nur 50% der Arbeit und entsprechend wenig brauchbar. Ich hoffe Raff & Co holen das nach (?). ;)

DrFreaK666
2017-10-05, 18:26:36
Weil man vor diesen beiden Karten steht, wenn man 500€ für eine Grafikkarte ausgeben will...

Dafür gibt es das Kaufberatung-Forum

Screemer
2017-10-05, 18:30:37
Ryzen kommt mit 3GHz doch gar nicht richtig zu potte. Das geht ja auch auf die Bandbreite des IF-Netzwerks. Denke mal beide liegen bei 4 GHz enger zusammen. Aber ist schon ungünstig zwei Karten auf zwei verschiedenen Unterbauten zu messen und in einen Vergleich zu packen. Wenn dann: Ryzen mit Pascal/V64 @DX11/12 und Broadwell-E mit Pascal/V64 @DX11/12. So ist es nur 50% der Arbeit und entsprechend wenig brauchbar. Ich hoffe Raff & Co holen das nach (?). ;)
If ist unabhängig vom coretakt und skaliert mit dem ramtakt. Nur so nebenbei. 3200 ddr4 sollte da das Optimum sein.

Ich wunder mich eh über die fps über 200fps mit einem 3Ghz Ryzen,was testen die da?Innenraum ohne Gegner?Irgendwie glaube ich nich,das das Game eine CPU Last wie Fifa hat.
Bin grad zu doof diese werte mobil zu finden. Wo finden ich die?

Achill
2017-10-05, 18:38:44
Bin grad zu doof diese werte mobil zu finden. Wo finden ich die?

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/#1240296

Ryzen kommt mit 3GHz doch gar nicht richtig zu potte. Das geht ja auch auf die Bandbreite des IF-Netzwerks. Denke mal beide liegen bei 4 GHz enger zusammen. Aber ist schon ungünstig zwei Karten auf zwei verschiedenen Unterbauten zu messen und in einen Vergleich zu packen. Wenn dann: Ryzen mit Pascal/V64 @DX11/12 und Broadwell-E mit Pascal/V64 @DX11/12. So ist es nur 50% der Arbeit und entsprechend wenig brauchbar. Ich hoffe Raff & Co holen das nach (?). ;)

Ich glaube das sind einfach unterschiedliche Settings die zeigen was geht ... diese direkt miteinander vergleichen sollte man einfach lassen. Es ist keine Standard Pascal GPU sondern eine TinanXp@2Ghz und auch eine Vega64LC@1.75GHz - damit beide wohl ganz gut maxed.

G3cko
2017-10-05, 18:44:37
Vega64 haut da 350fps unter DX11 raus? X-D Ist der Broadwell-E Sixcore @3Ghz soviel besser als der Ryzen @Octacore oder wie kommen die +42% im CPU-Limit für Vega gegenüber Pascal zustande?

Naja die hohen fps zeigen eigentlich nur, dass es wohl auf beiden APIs gut läuft. Wird wohl kaum in der Praxis bei dem Management/Entwicklern eine Priorität sein, dass in theoretischen Benchmarks DX12 vor DX11 ist.

Bei diesen sehr hohen fps und diesem eher theoretischem Ergebnis hätte ich eher den Takt gesenkt (~ 1GHz) und weiterhin einen mindestens 8 Kerner verwendet.

Screemer
2017-10-05, 18:47:10
http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Technik-Test-1240296/#1240296
Ah hatte nicht gerafft, dass die dx11 vs dx12 benches von raffs PC stammen und ne andere CPU verwendet wurde. Keine Benchmarks in der mobilen Ansicht tun da ihr übriges. Dann ist meine obige aussage zu den 3200er ddr4 sogar richtig von mir angenommen.

dargo
2017-10-05, 19:12:14
Ryzen kommt mit 3GHz doch gar nicht richtig zu potte. Das geht ja auch auf die Bandbreite des IF-Netzwerks.

Was hat der IF damit zu tun? Der läuft völlig unabhängig vom CPU-Takt. Und bei niedrigeren Corefrequenzen limitiert der sogar weniger sofern er überhaupt bei Defaultfrequenzen limitiert.

horn 12
2017-10-05, 20:45:02
Gerade mal Farcry Primal mit Vega 64 angezockt.
Was soll ich sagen, immer komplett im FreeSync Bereich unter Ultra HD mit 42 bis 45 fps in etwa
und sowas von Flüssig und absolut Rucklefrei. (FreeSync Range 33 bis 60 erweitert)

Vega 64 ist einfach NUR FETT, Extrem FETT!!
Läuft stabil mit 1500 Mhz, Untervoltet und Lüfter fixiert auf 2300 U/Min.
Ist zwar nicht leise, etwas Störend aber noch im Rahmen
So 2000 bis 2100 U/Min wären absolut wünschenswert... aber wohl beim Vega AMD Referenz Design nicht machbar...

Daredevil
2017-10-05, 20:53:31
Wenn du die WLP gegen eine sehr hochwertige austauschst, könnteste bestimmt auch noch ein paar u/min einsparen. Aber das ist natürlich mit ( wenig ) basteln verbunden und kostet je nach Hersteller die Garantie.
Ich hab so meine 980ti von ~2300rpm auf ca. 1850upm bekommen können. ( Mit besseren Temps ) (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583632)

dargo
2017-10-05, 20:56:18
@Horn

Check mal ob der Lüfter bei einer offenen Seitenwand vom Gehäuse in die Richtung 2000-2100RPM kommt. Falls ja... bastle dir einen Kanal vom Frontlüfter zum Radiallüfter der Graka, so dass der Radiallüfter immer die kühlere Luft von außen abbekommt und weiter geben kann.

horn 12
2017-10-05, 21:02:07
Nun, ist noch das Altgehäuse ThermalTake Matrix VX :-)
Von Boden bis Grafikkarte sind 8 - 10 cm,-
daher bei Neuem Ryzen System mit Vorderseite 3 120mm Lüfter (Thermaltake View 27)
sollten vielleicht mit UV gar um die 2000 bis 2100 U/Min machbar sein.
-----> Derzeit jedenfalls nicht!

Daredevil
2017-10-05, 21:14:18
Jau, ein Lüfter in der Seite bringt auch gut was, die Rückseite wird ja bei heutigen Grafikkarten immer kochend heiß. ( Wenn ich 13 und naiv wäre, hätte ich da vermutlich schon 40 Alu Kühlkörper drauf geklebt :D )

G3cko
2017-10-05, 21:22:52
Mit WaKü lautlos unter 50°C jedoch findet mein 5960x die neue Vega nicht so lustig, da muss definitiv mehr Radifläche her. Man könnte natürlich auf 100Mhz CPU takt für deutlich weniger Verbrauch verzichen, - man könnte... ;)

Hübie
2017-10-05, 23:44:41
Was hat der IF damit zu tun? Der läuft völlig unabhängig vom CPU-Takt. Und bei niedrigeren Corefrequenzen limitiert der sogar weniger sofern er überhaupt bei Defaultfrequenzen limitiert.

Ach so. Das wusste ich nicht. Dann kann es einfache Gründe wie compiler-optimized haben. :redface:

von Richthofen
2017-10-06, 13:26:57
GameGPU sehen die FPS in DX12 für Vega und AMD allgemein in Star Wars BF2 durch die Bank höher als in DX11 (ab der Auflösung WQHD). Bei NV ist es umgekehrt aber das kennt man ja.

http://gamegpu.com/action-/-fps-/-tps/star-wars-battlefront-ii-beta-test-gpu-cpu

dildo4u
2017-10-06, 13:31:19
Zumindest in 1080p ist Vega schneller in DX11,wobei die Werte eh nutzlos sind einfach selber Spielen DX12 ist Kaputt in Frostbite.

von Richthofen
2017-10-06, 13:33:58
WQHD

Vega64
DX12: 97
DX11: 94

RX480
DX12: 60
DX11: 57

Die PCGH hat davon völlig abweichende Ergebnisse gemessen.

dildo4u
2017-10-06, 13:35:59
Sie nutzen schnellere CPU's jedenfall's Pro Core.

Raff
2017-10-06, 13:41:38
Ich sehe mir das morgen mal auf meinem Phenom II X6 an. :D

MfG,
Raff

dargo
2017-10-06, 13:53:44
Sie nutzen schnellere CPU's jedenfall's Pro Core.
GameGPU hat noch langsamere CPUs als PCGH mit 3Ghz? :confused:

dildo4u
2017-10-06, 13:55:18
Das meine ich ja DX12 bringt bei PCGH nix weil sie bessere CPU's nutzen.

Raff
2017-10-06, 13:56:53
Theopraktisch sollte DX12 auch etwas im Grafiklimit bringen. Stichwort "Asynchronous Compute". Doch mal zu etwas anderem ...

Radeon RX Vega: Anisotrope Filterung mit aktueller Radeon Software fehlerhaft
(http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/)
MfG,
Raff

dargo
2017-10-06, 14:51:26
Theopraktisch sollte DX12 auch etwas im Grafiklimit bringen. Stichwort "Asynchronous Compute". Doch mal zu etwas anderem ...

Das kann nur Vorteile bringen wenn die Software es auch nutzt. :D Verwendet SW:BF2 überhaupt AC? Ich meine bei BF1 war dies auch nicht der Fall oder doch?

aufkrawall
2017-10-06, 14:54:47
Theopraktisch sollte DX12 auch etwas im Grafiklimit bringen. Stichwort "Asynchronous Compute". Doch mal zu etwas anderem ...

Radeon RX Vega: Anisotrope Filterung mit aktueller Radeon Software fehlerhaft
(http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/)
MfG,
Raff
Ich hoffe, ihr testet jetzt mal langsam nicht mehr HQ mit Radeons und DX12, weil der Treiber immer nur Q filtert...

akuji13
2017-10-06, 17:33:37
Gut das ich noch beim 17.9.1 geblieben bin. :)

dildo4u
2017-10-06, 17:37:02
VEGA LC im 4k 3DMark Time Spy Extreme Test.

https://youtu.be/6oYyPdDjrSA

Loeschzwerg
2017-10-06, 18:16:14
Steigert der Treiber denn die Leistung durch Betrug oder wieso heulst du jetzt rum?

Leider nein, sonst könnte man der Sache ja noch etwas "abgewinnen" :D

Wer auf die kleinen Änderungen von 17.9.2/3 nicht angewiesen ist, der kann sich ja noch entspannt zurücklehnen. Denke da wird es schnell einen Fix geben :)

Wobei es mich schon wundert wie sich solche Dinge einschleichen können. Gab es denn einen Grund da am Filter herumzuschrauben? Kann da jemand etwas dazu sagen?