PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Iruwen
2017-10-11, 15:21:59
Naja nicht unbedingt, im weitestgehenden Sinne zähle ich Vega-Benchmarks zu neuen Spiele-Reviews und deren Diskussion über die Vega-Leistung auch in einen Vega Review-Thread ;-)
Ist es nicht irgendwie sinnvoll die Werte mit anderen Werten zu vergleichen? :rolleyes:

Dino-Fossil
2017-10-11, 15:51:01
Okay, hier nochmal die gleichen Bilder als PNG:

Praktischerweise hatte Steam eine verlustfreie Kopie angelegt. :)


Puh, die Bilder ähneln sich so dermaßen, ich kann da nicht wirklich etwas belastbares ausmachen, egal welche Einstellung...
Die wenigen Unterschiede, die es gibt, könnten genauso gut auch auf leichte Fluktuationen in der Beleuchtung zurückzuführen sein.

gedi
2017-10-11, 16:06:54
Und die 6GB 780 setzt sich meilenweit von der 3GB 780 und 3GB 280X ab. Und nun?

... nur dass das passende Konkurrenzprodukt eben nicht eine 7970, sondern die Hawaii-GPU Serie darstellt.

BTT einen genauer Termin für Customs noch immer nicht in Aussicht :confused:

Lehdro
2017-10-11, 16:30:39
... nur dass das passende Konkurrenzprodukt eben nicht eine 7970, sondern die Hawaii-GPU Serie darstellt.

Nope, die 780 Ti ist der Vergleich zur Hawaii. Die 780 kam fast nen halbes Jahr vor Hawaii auf den Markt.

gedi
2017-10-11, 16:43:31
Nope, die 780 Ti ist der Vergleich zur Hawaii. Die 780 kam fast nen halbes Jahr vor Hawaii auf den Markt.

Hawaii war die Antwort seitens AMD auf die 780 und schlug gleichzeitig mit der Titan 1 auf.

Wiseman
2017-10-11, 17:59:55
BTT einen genauer Termin für Customs noch immer nicht in Aussicht :confused:

42. Kalenderwoche (nächste Woche) oder 43. Kalenderwoche (übernächste Woche) soll angeblich die STRIX Vega64 von Asus erscheinen.

N0Thing
2017-10-11, 18:19:38
@N0Thing: Stell mal die Auflösung runter, so dass du höhere fps hast, und achte auf diese. Wenn sich bei hohen fps durch die Einstellung diese rein gar nicht ändern, hat sie logischerweise auch keinen Effekt.
Für die Bewertung der Qualität ist RotTR nicht so gut geeignet wie etwa Forza Apex.

So, habe an gleicher Stelle in 1280x720 die fps gemessen:

DX12 HQ-AF: 92/91
DX12 Q-AF: 93/92

DX11 HQ-AF: 63-60 (mit Ausreißern zu 65 und 59)
DX11 Q-AF: 66-64

dargo
2017-10-11, 18:20:54
42. Kalenderwoche (nächste Woche) oder 43. Kalenderwoche (übernächste Woche) soll angeblich die STRIX Vega64 von Asus erscheinen.
Immerhin ein kleiner Lichtblick. Aber nur die 64-er? Oder auch 56-er?

Wer lesen kann... :tongue:

aufkrawall
2017-10-11, 18:44:25
So, habe an gleicher Stelle in 1280x720 die fps gemessen:

DX12 HQ-AF: 92/91
DX12 Q-AF: 93/92

DX11 HQ-AF: 63-60 (mit Ausreißern zu 65 und 59)
DX11 Q-AF: 66-64
Sicher, dass du in 720p mit dem 2500k & DX12 nicht schon wieder CPU-limitiert bist? :redface:
Zwischen Q und HQ sollten schon locker 5% liegen. Du kannst natürlich auch die schnellste gegen die langsamste Stufe vergleichen, für einen deutlicheren Ausschlag.

=Floi=
2017-10-11, 19:49:05
Es zeichnet sich immer weiter ab Vega56 = ~GTX1080... gefällt mir.

horn, bist du es?

dargo, spar dir so einen mist einfach.

dargo
2017-10-11, 20:05:21
Fielmann? :rolleyes:
https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/2/#diagramm-mittelerde-schatten-des-krieges-3840-2160

horn 12
2017-10-11, 20:08:49
Aber wenn es doch stimmt
und dies sagt der Richtige Horn :-)

Kriton
2017-10-11, 20:40:03
Und nun frage dich mal warum eigentlich so wenig Titel das benutzen und nutzen werden? Du sagst dass du kein properitäres Zeug unterstützen willst, aber machst einen Larry für Features die es nur auf einem Grafikchip gibt. Paradox. :freak: AMD soll aufhören immer mit Extra-Würstchen zu kommen und sich mal der Masse anschließen. Was sind Innovationen wert, wenn die entweder nicht oder nur wenig genutzt werden, da Nutzen/Aufwand in negativer Relation stehen?? Immerhin - und das ist unbestreitbar - bringen NVs Chips seit einiger Zeit mit weniger ALUs mehr Performance auf die Straße, was für mich gleichbedeutend mit: "Kann ja so verkehrt nicht sein" ist. Das dabei weniger verbraucht wird ist noch ein Bonbon.

Ich will hier keinesfalls den Eindruck erwecken ich würde Vega per se für schlecht halten, nur bekommt man fürs Geld nicht das Optimum. :wink:

Nur von einem Grafikchip unterstützt bedeutet nicht proprietär. Das sollte klar sein.
Unabhängig davon: Mit Deiner Argumentation hätten wir heutzutage im Übrigen auch kein T & L.

@foenfrisur: Entspann dich mal. :biggrin:

OT daher im Spoiler:

Dann ist seine Argumentation dennoch falsch. ;) Bisher hat AC auch nicht gerade Begeisterungsstürme bei Devs ausgelöst. Es ist nicht leicht zu implementieren und auch FP16 scheint in der Form wie es ist nicht wirkungsvoll umgesetzt zu sein, da offenbar immer hin und her konvertiert werden muss was nicht viel Einsparungen bringen dürfte. FP16 ist am Markt auch noch AMD-Exklusiv und auch AC (wird bei NV mittels preemption 'gelöst'). Das man auch andere, effizientere Ansätze verbauen kann beweist NV doch nun schon seit zwei (bzw. drei [Volta]) Generationen. Da gibt es offenbar weniger duty cycles. Neue Ideen finde ich immer gut, aber wenn jedes Spiel bzw. jede Engine darauf angepasst sein muss bringt es nix und die Innovation ist im Eimer. Da mag AMD der Entwicklung auch voraus sein.

Ob AV bspw. proprietär weiß ich nicht, da ich nicht sämtliche Patente auswendig kenne. Die Art und Weise wie AMD es implementiert hat aber sicherlich schon. Nur das Prinzip wohl nicht (da nicht spezifisch genug). Das ist jetzt aber nur meine Vermutung.

AMD hat dafür einen Vorteil durch weniger Restriktionen wie ich nun schon mehrmals gelesen habe. Summa summarum finde ich es immer blöd wenn für irgendwas ne Extrawurst gekocht wird. G-Sync läuft ohne irgendwelches zutun von Spiele-Entwicklern, also stört es keinen.

Preemption ist etwas anders als AC (und prinzipbedingt weniger gut), das Thema hatten wir hier im Forum schon einige Male.

Im Übrigen ist es (IMHO) auch ein genereller Fehler die Qualität einer HW (egal von welchem Hersteller) lediglich aufgrund (bestehender) SW zu bewerten. Denn zum einen folgt SW eher der HW, zum anderen kann ich in einem ineinander greifenden System nicht einfach einen Teil des Systems gesondert bewerten (schließlich kann man auf unterschiedliche Architekturen unterschiedlich optimieren und was die eine Architektur gut aussehen lässt, mag die andere in den Abgrund reißen (überspitzt formuliert) und umgekehrt).

Man kann dies auch sehr schön hier im Forum beobachten, wie wechselseitig mal die HW, dann wieder SW mit sehr deutlichen Formulierungen (und oftmals IMHO ohne ausreichende Kenntnisse) verteufelt wird (nicht explizit auf Dich gemünzt).

uweskw
2017-10-11, 20:45:38
Sicher, dass du in 720p mit dem 2500k & DX12 nicht schon wieder CPU-limitiert bist? :redface:
Zwischen Q und HQ sollten schon locker 5% liegen. Du kannst natürlich auch die schnellste gegen die langsamste Stufe vergleichen, für einen deutlicheren Ausschlag.

WAU !! locker 5% !! echt jetzt? :eek::freak::eek:
Wer ist daran schuld, dass wir User glauben das spiele irgend eine Rolle?
Der dumme, balkengeile Fanboy oder die Medien die 6% zum clickgenerierendem Fail oder Tri*umph hochpuschen?

greetz
US

-=Popeye=-
2017-10-11, 20:55:28
Fielmann? :rolleyes:
https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/2/#diagramm-mittelerde-schatten-des-krieges-3840-2160

Wenn man mit Forza7 nicht mehr Punkten kann muss man sich halt eine neuen Strohhalm suchen. :ucrazy4:

edit: das nächste wird dann sicher Wolfenstein

aufkrawall
2017-10-11, 21:02:13
WAU !! locker 5% !! echt jetzt? :eek::freak::eek:
Wer ist daran schuld, dass wir User glauben das spiele irgend eine Rolle?
Der dumme, balkengeile Fanboy oder die Medien die 6% zum clickgenerierendem Fail oder Tri*umph hochpuschen?

greetz
US
Du hast gar nichts kapiert, kann das sein?

Menace
2017-10-11, 21:14:24
Wenn man mit Forza7 nicht mehr Punkten kann muss man sich halt eine neuen Strohhalm suchen. :ucrazy4:

edit: das nächste wird dann sicher Wolfenstein

Nochmals: Vega wurde bei Forza 7 nicht langsamer; nur Gameready-Treiber von nvidia war wohl nicht ganz ready. Die Werte von Vega sind doch noch immer gut. :rolleyes:
Modor auch gute Werte, warum dann das Strohhalmgelaber?

Gott, dieser Thread ist zum Fremdschämen. Hier geht es gar nicht mehr um absolute Werte, sondern es scheint ein reines Tollhaus für Männchen mit Kompensationsprobleme zu sein. Hinweis an die Moderatoren:
(lateinisch; von moderare, „mäßigen“, „steuern“, „lenken“)

Gibt es eigentlich einen Termin für eine Nano-Version? Wird es überhaupt eine Vega-Nano-Version geben?

Achill
2017-10-11, 21:30:02
Ich habe bei Rise of the Tomb Raider versucht, einen Unterschied festzustellen, allerdings ist es nicht einfach eine Stelle zu finden, bei der man immer den gleichen Blickwinkel hat und gleichzeitig auch Texturen im Bild, die einen Vergleich möglich machen. Das ist die beste Stelle, die ich finden konnte. Bilder sind HQ DX11, HQ DX12, Q DX11, Q DX12, alles 16AF.


http://abload.de/image.php?img=hqdx1116af20171011133vuuad.jpg
http://abload.de/image.php?img=hqdx1216af201710111357fu9k.jpg
http://abload.de/image.php?img=qdx1116af201710111344lzuna.jpg
http://abload.de/image.php?img=qdx1216af201710111347k6uah.jpg


Es ist schwer, einen Unterschied zu erkennen und die unterschiedlichen Lichtverhältnisse machen es auch nicht einfacher, aber ich meine, daß zwischen HQ DX12, Q DX11, Q DX12 kein Unterschied zu sehen ist. HQ DX11 unterscheidet sich leicht, wenn man die Fliesen vor der Treppe und zwischen Pfütze und Säule betrachtet. O
b der Unterschied nun an Q vs. HQ liegt, oder am Spiel (Nebel, Licht, usw.) mag ich nicht zu beurteilen, weitere Beispiele wären hilfreich.

Danke für die Arbeit, stimme dir voll zu, dass es schwer ist einen Unterschied zu sehen.

@N0Thing: Stell mal die Auflösung runter, so dass du höhere fps hast, und achte auf diese. Wenn sich bei hohen fps durch die Einstellung diese rein gar nicht ändern, hat sie logischerweise auch keinen Effekt.
Für die Bewertung der Qualität ist RotTR nicht so gut geeignet wie etwa Forza Apex.

Das ist doch schon wieder eine Verschiebung des Themas. Die ursprüngliche Frage (nach meinen Verständnis) war doch, welcher Qualität das AF unter DX12 im Vergleich zu DX11 entspricht.

Ich dachte wir hätten schon geklärt, dass die AF-Auswahl kein Effekt bei DX12 und AMD hat. Die Frage ist auch erstmal Nachrangig (imho) und wird erst interessant, wenn die Qualität des AF unter DX12 nicht gut ist.

-=Popeye=-
2017-10-11, 21:39:23
Nochmals: Vega wurde bei Forza 7 nicht langsamer; nur Gameready-Treiber von nvidia war wohl nicht ganz ready. Die Werte von Vega sind doch noch immer gut. :rolleyes:
Modor auch gute Werte, warum dann das Strohhalmgelaber?

...

Alles richtig und auch gut so.

Der Strohhalm ist diese Aussage.

Es zeichnet sich immer weiter ab Vega56 = ~GTX1080... gefällt mir.

24p
2017-10-11, 22:08:36
Ja, manche Leute lernen es offenbar nicht.

Wenn man mit Forza7 nicht mehr Punkten kann muss man sich halt eine neuen Strohhalm suchen. :ucrazy4:

edit: das nächste wird dann sicher Wolfenstein

Man kann davon ausgehen, dass jetzt nicht mehr forza7, sondern NUR noch mittelerde als Richtwert für die Vega Performance durch alle Threads getrieben werden.

N0Thing
2017-10-11, 22:17:48
Das ist doch schon wieder eine Verschiebung des Themas. Die ursprüngliche Frage (nach meinen Verständnis) war doch, welcher Qualität das AF unter DX12 im Vergleich zu DX11 entspricht.

Ich dachte wir hätten schon geklärt, dass die AF-Auswahl kein Effekt bei DX12 und AMD hat. Die Frage ist auch erstmal Nachrangig (imho) und wird erst interessant, wenn die Qualität des AF unter DX12 nicht gut ist.

Die Idee dahinter ist, so habe ich das zumindest verstanden, daß man anhand der Performance ablesen kann, ob unter DX12 HQ oder Q genutzt wird, da man es anhand der Bilder ja nur schlecht beurteilen kann.

Ich werde später noch 1080p vergleichen, vielleicht ist da der Unterschied größer. Bei DX11 habe ich auch das Problem, daß die fps deutlich stärker schwanken als bei DX12.

aufkrawall
2017-10-11, 22:20:08
Ja, manche Leute lernen es offenbar nicht.

Laut dargos Prognose sollte die 1060 ja jetzt im Schnitt auch nur noch auf 470-Niveau sein. :cool:

Kartenlehrling
2017-10-11, 22:22:24
Warum sollte Mittelerde Vega freundlich sein, das Spiel ist selbst unter 1440p CPU Limitert mit einer GTX1080ti ,
und eine Vega64 ist 30% langsamer als eine Ti.

Solange es kein DX12 oder Vulkan gibt sehen ich kein Land.

dildo4u
2017-10-11, 22:30:58
Das Game frisst Vram ohne Ende,HBCC funzt laut PCGH.Das sollte Vega gegen die 8GB Geforce helfen.
Normal ist eine 1080 ca 20% schneller als die 1070 beim Computerbase Shadow of War sind es nur 15% in 4k.

http://abload.de/img/hbcculb2e.png

http://abload.de/img/1080h73bki.png

yamamoto_dc
2017-10-11, 22:33:00
Bin mal auf The Evil Within 2 gespannt, erwartet ihr bei der STEM-Engine eine gute Performance für Vega?

aufkrawall
2017-10-11, 22:44:49
Es sieht nach idtech 5 Gammel aus, wie halt schon der Vorgänger. Bei der Optik sollte man eigentlich hohe fps erwarten können, aber nach den Erfahrungen mit der Arkane-Engine würd ich mit dem Schlimmsten rechnen (ob AMD/NV erstmal egal).

yamamoto_dc
2017-10-11, 22:49:01
Von TEW1 bin ich ja Kummer gewöhnt, da ich solche Spiele aber liebe, muss ich wohl damit leben.

N0Thing
2017-10-12, 00:37:12
Das Game frisst Vram ohne Ende,HBCC funzt laut PCGH.Das sollte Vega gegen die 8GB Geforce helfen.
Normal ist eine 1080 ca 20% schneller als die 1070 beim Computerbase Shadow of War sind es nur 15% in 4k.

http://abload.de/img/hbcculb2e.png

http://abload.de/img/1080h73bki.png

Laut PCGH bringt HBCC bei Mittelerde nur etwas bei 1080p. Bei 4K besteht nahezu kein Unterschied zwischen HBCC an oder aus.

N0Thing
2017-10-12, 00:52:05
Sicher, dass du in 720p mit dem 2500k & DX12 nicht schon wieder CPU-limitiert bist? :redface:
Zwischen Q und HQ sollten schon locker 5% liegen. Du kannst natürlich auch die schnellste gegen die langsamste Stufe vergleichen, für einen deutlicheren Ausschlag.

Diesmal mit 1080p, gleiche Stelle, gleiche Settings:

DX12 HQ-AF: 70
DX12 Q-AF: 70

DX11 HQ-AF: 60
DX11 Q-AF: 63

Laut Task-Manager nicht mit CPU-Volllast. Es besteht unter DX11 also definitiv ein Unterschied von 5% bei der Performance, bei DX12 nicht. Mein 2500K läuft übrigens mit 4,2Ghz, nicht mit Standardtaktraten.

Hübie
2017-10-12, 00:58:54
Nur von einem Grafikchip unterstützt bedeutet nicht proprietär. Das sollte klar sein.
Unabhängig davon: Mit Deiner Argumentation hätten wir heutzutage im Übrigen auch kein T & L.



Preemption ist etwas anders als AC (und prinzipbedingt weniger gut), das Thema hatten wir hier im Forum schon einige Male.

Im Übrigen ist es (IMHO) auch ein genereller Fehler die Qualität einer HW (egal von welchem Hersteller) lediglich aufgrund (bestehender) SW zu bewerten. Denn zum einen folgt SW eher der HW, zum anderen kann ich in einem ineinander greifenden System nicht einfach einen Teil des Systems gesondert bewerten (schließlich kann man auf unterschiedliche Architekturen unterschiedlich optimieren und was die eine Architektur gut aussehen lässt, mag die andere in den Abgrund reißen (überspitzt formuliert) und umgekehrt).

Man kann dies auch sehr schön hier im Forum beobachten, wie wechselseitig mal die HW, dann wieder SW mit sehr deutlichen Formulierungen (und oftmals IMHO ohne ausreichende Kenntnisse) verteufelt wird (nicht explizit auf Dich gemünzt).

Mir ist klar dass preemption etwas anderes als AC ist; drängelt sich jedoch eine compute-queue bei Pascal rein wird die Berechnung gestoppt, gesichert, geleert und anschließend weiter berechnet. Salopp formuliert... ;)

Ich bin auch nicht grundsätzlich gegen Neuerungen (warum auch?). Es sollte nur per Standard in einer/der API oder eben vollautonom in Hardware gelöst genutzt werden können, damit keiner eine Extrawurst für jeden IHV oder schlimmer noch: für jede HW-Gen, schreiben muss. Ich will gar nicht wissen wieviel Zeit allein bei AotSE nur dafür drauf ging. In der Entwicklerlandschaft gibt's viele die noch nichts von AC gehört haben bzw. damit noch nie in Kontakt waren.

akuji13
2017-10-12, 07:42:41
Ich will gar nicht wissen wieviel Zeit allein bei AotSE nur dafür drauf ging.

Soviel das für den Rest gar keine mehr übrig blieb. :devil:

Es sieht nach idtech 5 Gammel aus, wie halt schon der Vorgänger. Bei der Optik sollte man eigentlich hohe fps erwarten können, aber nach den Erfahrungen mit der Arkane-Engine würd ich mit dem Schlimmsten rechnen (ob AMD/NV erstmal egal).

Genau das mache ich auch, Teil 1 hat da doch geprägt.

dargo
2017-10-12, 07:48:51
Laut dargos Prognose sollte die 1060 ja jetzt im Schnitt auch nur noch auf 470-Niveau sein. :cool:
Vom Schnitt war dort nie die Rede (erst recht beim high level Gammel), also verdrehe mir nicht die Worte im Mund.

Edit:
Wenn dann habe ich mich auf sowas bezogen.

https://www2.pic-upload.de/img/34081385/Doom.jpg

https://www.computerbase.de/2016-08/radeon-rx-470-test/3/#diagramm-doom-1920-1080

Das war der Stand zum Release der RX470 in Doom. Später hat Nvidia die Performance dort etwas steigern können. Weiß jetzt nicht mehr um wieviel? 15-20%? Leider testet keiner Doom mit späteren Treibern bei GCN. Es wäre durchaus möglich, dass hier auch wenige Prozente dazu kamen. Wenn beide Karten so dicht bei einander liegen ist das nicht ganz unerheblich.

Die RX470 Strix hat in Doom 4,59 TFLOPs, die RX470 Nitro+ 4,87 TFLOPs.
https://www.computerbase.de/2016-08/radeon-rx-470-test/3/

Eine Referenz GTX1060 6GB liegt bei 4,73 TFLOPs in Doom.
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/

Ähnliches Bild erwarte ich wieder bei Wolfenstein 2 und eben bei zukünftigen Games die Shader Instrisics sowie Async Compute bei GCN nutzen.

PS: wie man am Beispiel von Doom auch sehr schön sieht ist die RX470 Red Devil OC praktisch gleich schnell wie die RX480 Referenz.

Bin mal auf The Evil Within 2 gespannt, erwartet ihr bei der STEM-Engine eine gute Performance für Vega?
Mit Vulkan sicherlich. Obs Vulkan geben wird wissen wir wohl frühestens morgen. Und mit idTech 5 hat das Game nicht mehr viel zu tun.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11514320&postcount=11
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11513051&postcount=10

24p
2017-10-12, 09:21:49
Laut PCGH bringt HBCC bei Mittelerde nur etwas bei 1080p. Bei 4K besteht nahezu kein Unterschied zwischen HBCC an oder aus.

Krasse finde ich ja, dass der Unterschied zw. U und HQ 8 GB zu 2,5 GB sind in der Speicherbelegung. Was machen die da? Wieder unkomprimierte Texturen? Der Unterschied ist so gut wie nicht sichtbar.

Ansonsten finde ich es auch nicht verwunderlich, dass sich Vega64 irgendwann mal vor die 1080 setzt. Die hat deutlich weniger FLOPs und auch wenn man sicher nicht 1:1 FLOPs vergleichen kann sollte da schon mehr bei herumkommen als einfach nur der höhere Takt ggü Fiji. Wirklich deutlich wird der Vorsprung ggü den Costums (wenn überhaupt) aber nicht werden.

dargo
2017-10-12, 09:41:21
Ansonsten finde ich es auch nicht verwunderlich, dass sich Vega64 irgendwann mal vor die 1080 setzt. Die hat deutlich weniger FLOPs und auch wenn man sicher nicht 1:1 FLOPs vergleichen kann sollte da schon mehr bei herumkommen als einfach nur der höhere Takt ggü Fiji. Wirklich deutlich wird der Vorsprung ggü den Costums (wenn überhaupt) aber nicht werden.
Ich frage mich manchmal welche Wunder du bei Vega64 erwartest?

Um das aktuelle Beispiel von Mittelerde aufzugreifen... Vega64 Air ist dort in 1440p ganze 69% vor Fury X. Bei den 99th Percentile gar 74%. Leider kennt man die tatsächlich anliegenden Taktraten von Vega immer noch nicht bei CB.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/3/#abschnitt_die_tatsaechlichen_taktraten_unter_last

Ein Nachtest diesbezüglich wäre nicht verkehrt. Weil die jeweiligen States bringen keinen weiter. Ich gehe bei Vega64 grob von 1450Mhz aus, wären also 11,88 TFLOPs, was wiederum 38% mehr als Fury X ist (mit 1,5Ghz eben 12,29 TFLOPs --> +43%) . Also nochmal meine Frage... welche Wunder erwartest du von Vega? Und bevor du mir gleich wieder Cherry Picking vorwirfst... in Forza 7 ist Vega64 bei den avgs. 64% vor Fury X in 1440p.

24p
2017-10-12, 09:47:48
Ich erwarte keine Wunder. Ich finde nur dieses Cherrypicking und darauf aufbauende Prognose befremdlich. Man hätte schon bei Fiji lernen können, dass es nicht so einfach geht und anders kommen kann. Bei Forza 7 ist es das gleiche. Wenn AMD bei Vega nichts anderes als mehr FLOPs bietet, dann ist es auch kein Wunder, dass man immer weiter zurückfällt. Und dann kommt noch dazu, dass man diese Leistung dann wieder nur per Speziapfad voll abrufen kann.

dargo
2017-10-12, 10:01:12
Du redest wieder kompletten Bullshit.

Erstens hat Mittelerde keinen "Spezialpfad". Zweitens ist dir noch nicht in den Sinn gekommen, dass man im Treiberteam vielleicht mit den Resourcen gut haushalten muss wegen Personalmangel und man sich deshalb auf neue, kommende Games stärker konzentriert weil alte Schinken schon längt abgespult sind? Und hör mir endlich auf mit deinem Cherry Picking! Wenn jetzt in Wolfenstein 2 Vega gegenüber Fury X wieder deutlich zulegt (in Doom sind es übrigens +85% @1440p laut CB) ist es dann sicherlich wieder Cherry Picking gell? Ab wann ist es kein Cherry Picking bei dir? Ab 5, 10, 15 oder erst 20 Games? Dann musst du dich noch etwas gedulden. AAA-Titel regnet es nicht vom Himmel, schon gar nicht über den Sommer. In der Zeit vom Oktober bis ~März passiert sicherlich mehr.

Noebbie
2017-10-12, 10:04:15
Dann implizierst du aber auch, dass zukünftige Titel alle besser laufen. Und so lange du diesen Beweis schuldig bist, ist es bei der geringen Menge an Titeln eben Cherry Picking.

24p
2017-10-12, 10:10:11
Du redest wieder kompletten Bullshit.

Erstens hat Mittelerde keinen "Spezialpfad". Zweitens ist dir noch nicht in den Sinn gekommen, dass man im Treiberteam vielleicht mit den Resourcen gut haushalten muss wegen Personalmangel und man sich deshalb auf neue, kommende Games stärker konzentriert weil alte Schinken schon längt abgespult sind? Und hör mir endlich auf mit deinem Cherry Picking! Wenn jetzt in Wolfenstein 2 Vega gegenüber Fury X wieder deutlich zulegt (in Doom sind es übrigens +85% @1440p laut CB) ist es dann sicherlich wieder Cherry Picking gell? Ab wann ist es kein Cherry Picking bei dir? Ab 5, 10, 15 oder erst 20 Games? Dann musst du dich noch etwas gedulden. AAA-Titel regnet es nicht vom Himmel.

Rede dich nicht heraus. Und ja, es ist ein Speziafpfad, da es bei "low lvl" genau darauf hinausläuft. Und nein, ich höre nicht auf mit dem Cherrypicking, weil du genau dieses betreibst. Das weisst du auch selbst, da du ja selber schon darauf per Strohmannargument eingehst. ;)

Und um deine Frage zu beantworten: Ja, wenn Wolfenstein zulegt und du hier weiter implizierst, dass dies für die "wahre" Performance von Vega steht, ist es Cherrypicking. Lern damit zu leben.

In der Zeit vom Oktober bis ~März passiert sicherlich mehr.

Ähnliches hat man bei Fiji oder beim Vega Frontier Release auch schon gehört. Wie es ausging ist bekannt.

dargo
2017-10-12, 10:15:56
Rede dich nicht heraus. Und ja, es ist ein Speziafpfad, da es bei "low lvl" genau darauf hinausläuft.
:facepalm:

Das habe ich bei dir gewiss nicht nötig. Informiere dich mal welche API Mittelerde verwendet bevor du dich hier weiter lächerlich machst. Zu deinem "Spezialpfad" @low level. Das ist die Zukunft, lebe damit!

Ähnliches hat man bei Fiji oder beim Vega Frontier Release auch schon gehört. Wie es ausging ist bekannt.
Hast du überhaupt verstanden was ich geschrieben habe? Über den Sommer Gameflaute im Gegensatz zum Winter!

24p
2017-10-12, 10:20:53
OK. Außer Facepalm Smileys kommt da offenbar nicht mehr viel.

Die Zukunft ist, mal so nebenbei, was schnell UND effizient ist. Nicht irgendwelche Extrawürste für verkorkste Designs, die anders nicht ausgelastet werden können. Nur weil "low lvl" die Möglichkeit dazu bietet bedeutet das noch lange nicht, dass jeder nur noch AMD optimierte Pfade schreibt.

Dass Mittelerde kein DX12 nutzt ist mir klar (der Punkt war unabhängig davon), dass du hingegen bei jeder Gelegenheit deine Beiträge anpasst ebenfalls. Cherrypicking eben.

dargo
2017-10-12, 10:26:25
OK. Außer Facepalm Smileys kommt da offenbar nicht mehr viel.

Tut mir leid, aber bei deinem Geschreibsel kann ich dich nicht ernst nehmen.

Edit:
Beim dem ganzen Kindergarten fällt mir wieder auf wie sehr ich die Gurus von früher im 3DC vermisse. Das war der Hauptgrund warum ich mich hier überhaupt registriert hatte. Heute lies man hier nur noch Getrolle und irgendwelche Grabenkämpfe. :down:

pilzsammler2002
2017-10-12, 10:38:34
Die Zukunft ist, mal so nebenbei, was schnell UND effizient ist.

Für dich ist das die Zukunft... :freak:

Für mich wäre es z.B. nen Chip der viele Funktionen hat (da gehört heutzutage DX12 Feature-set dazu) und auch mehr kann als nur mit Effizienz punkten weil er überall heruntergespart ist...
Dieses übertriebene Effizienz-gefasel (kurioserweise erst seitdem Nvidia effizienter ist) hat beim zocken (Hobby und reine Energieverschwendung) für mich keinen hohen stellenwert, da gibt es weitaus größere Baustellen in nem normalen Haushalt. :biggrin:

Von dem fakt mal abgesehen das man die Vega karten ja auch etwas effizienter bekommt...

24p
2017-10-12, 10:46:57
Es geht nicht darum Stromkosten zu sparen. ;)

Würde es um BQ Features geben, könnte ich dir zustimmen. Heute geht es aber nur noch WIE Leistung umgesetzt wird. Features sind kein Selbstzweck. Wenn ich einen Chip habe, der ohne AC so schnell ist wie einer, der erst mit AC konurrenzfähig ist, dann wähle ich ersteres. AC ist kein Asset, es ist eine Liability. Die Effizienzfeatures von NV (DBR und co) sind hingegen überall nutzbar.


Für dich ist das die Zukunft... :freak:


Von dem fakt mal abgesehen das man die Vega karten ja auch etwas effizienter bekommt...

Gilt für Pascal ebenso.

Rancor
2017-10-12, 10:52:24
Ich glaube zur Kokurrenzfähigkeit von VEGA wird man wirklich erst bei Wolfenstein was sagen können.
Denn das scheint ja der erste wirklich low level Titel zu werden, der massig Gebrauch von AC und Co. macht.

Fakt ist aber jetzt schon, das VEGA bei weitem nicht so kein Kernschrott ala Fiji ist.

robbitop
2017-10-12, 10:54:36
OK. Außer Facepalm Smileys kommt da offenbar nicht mehr viel.

Die Zukunft ist, mal so nebenbei, was schnell UND effizient ist. Nicht irgendwelche Extrawürste für verkorkste Designs, die anders nicht ausgelastet werden können. Nur weil "low lvl" die Möglichkeit dazu bietet bedeutet das noch lange nicht, dass jeder nur noch AMD optimierte Pfade schreibt.

Dass Mittelerde kein DX12 nutzt ist mir klar (der Punkt war unabhängig davon), dass du hingegen bei jeder Gelegenheit deine Beiträge anpasst ebenfalls. Cherrypicking eben.
Ich habe es nicht ganz mitbekommen, was ist bei Mittelerde denn "low level"?

@low level apis im Generellen
DX12 und Vulkan sind die neusten Fassungen der jeweiligen 3D Grafik-API und werden mittelfristig sicherlich dominante Verbreitung finden.
Die Nutzung von asynchronous compute und FP16 haben nichts mit Implementierung von AMDs GPUs zu tun. Das sind Werkzeuge der neusten APIs und funktionieren prinzipiell mit allen GPUs die es unterstützen. Die Implementierung in Pascal ist in der Hinsicht (AC) eben noch nicht so weit wie GCN. FP16 Beschleunigung gab es schon in einem Maxwell Produkt (Tegra X1 - wird hier auch genutzt - @nintendo switch) und einem Pascal Produkt (P100 - hier wird es sicherlich eher für deep learning genutzt).

NVs Folge mArch wird sicherlich die SMs auch modernisieren, so dass AC flexibler und somit gewinnbringender genutzt werden kann.
Beides ist keine Extrawurst. Extrawürste sind eher herstellerspezifische Shaderintrinsics.


NV holt eine homogene und sehr hohe Auslastung ihrer mArch vor allem durch ihr extrem starkes Treiberteam raus. Die biegen, soweit ich weiß, den Shadercode der Applikationen für die jeweilige mArch zurecht. Da sitzen Herrscharen an Leuten, die dafür sorgen. IMO für den Endkunden sehr sehr gut!
AMD hat diese Herrscharen nunmal in der Form nicht und versucht hier eher über offene Doku und Betreuung der Devs dafür zu sorgen, dass gleich passend für GCN optimiert werden kann. Für NV scheint das (das sagten coda und alphatier damals mal) völlig anders zu sein. Die legen ihre mArch kaum offen bzw geben keine ausführliche Dokumentation zu dieser heraus, damit da keiner in ihr Kern-Know-How reinschauen kann. Selbst wenn die Devs direkt optimieren wollen, bekommen die Möglichkeit wohl kaum. Da kommt laut deren Aussage nur die Antwort "schickt uns den Code und wir machen das schon" (@Treiber). (das geschieht natürlich lange vor Release - vermutlich schon im alpha stadium des Spiels)

Dazu kommt:
Sicherlich hat NV auch einen deutlich besseren Shadercompiler und sicherlich ist die Kontrolllogik auch ein Stück besser.

24p
2017-10-12, 10:58:00
Mein Urpsrungsbeitrag dazu war unabhägig von Mittelerde.

Ich erwarte keine Wunder. Ich finde nur dieses Cherrypicking und darauf aufbauende Prognose befremdlich. Man hätte schon bei Fiji lernen können, dass es nicht so einfach geht und anders kommen kann. Bei Forza 7 ist es das gleiche. Wenn AMD bei Vega nichts anderes als mehr FLOPs bietet, dann ist es auch kein Wunder, dass man immer weiter zurückfällt. Und dann kommt noch dazu, dass man diese Leistung dann wieder nur per Speziapfad voll abrufen kann.

Da ging es allgemein um das Cherrypicking und Forza7.

Schnoesel
2017-10-12, 11:00:05
Ich gehe fest davon aus, dass DX12/Vulkan mit Volta ganz anders performen wird und alle Features die Vega jetzt schon unterstützt ebenfalls unterstüzt werden.
Nvidia wird sich den neuen APIs nicht ewig entziehen können, das ist nur eine Frage der Zeit.

robbitop
2017-10-12, 11:03:42
Mein Urpsrungsbeitrag dazu war unabhägig von Mittelerde.

Und dennoch scheint Mittelerde sehr gut auf Vega zu laufen. Das spricht dafür, dass AMD für dieses Spiel (so wie es dargo konstatierte) die Optimierungen über den Treiber eingebracht hat (analog zu NVs Vorgehen).

Ich gehe fest davon aus, dass DX12/Vulkan mit Volta ganz anders performen wird und alle Features die Vega jetzt schon unterstützt ebenfalls unterstüzt werden.
Nvidia wird sich den neuen APIs nicht ewig entziehen können, das ist nur eine Frage der Zeit.
Und genau dann ist es keine "Extrawurst" mehr. ;) (=Ironie)

Schnoesel
2017-10-12, 11:12:58
War es meiner Meinung nach noch nie. Das sind alles Bestandteile von DX12/Vulkan.

Nvidia hat sich entschlossen den Fokus auf DX11 zu setzen. AMD setzt auf Vulkan und DX12. Verschiedene Ansätze, beides ist nachvollziebar, keiner hat die eierlegende Wollmilchsau. Pascal unterstützt ja bereits FP16 im P100 es war Nvidias Entscheidung FP16 nicht für den Consumermarkt zu bringen. Da kann man nicht von "Extrawurst" reden.

Achim_Anders
2017-10-12, 11:24:55
Ja, die fury x ist in 4k meist vor der 980ti in neuen spielen, es sei denn der vram limitiert...

Die Engines Entwicklung geht weiter... D. H. Man schaut nicht auf einzelne Spiele sondern Engines.. Und daraus lässt sich der wohl eine rudimentäre Prognose ableiten ;)

dargo
2017-10-12, 11:45:57
Ich habe es nicht ganz mitbekommen, was ist bei Mittelerde denn "low level"?

@low level apis im Generellen
DX12 und Vulkan sind die neusten Fassungen der jeweiligen 3D Grafik-API und werden mittelfristig sicherlich dominante Verbreitung finden.
Die Nutzung von asynchronous compute und FP16 haben nichts mit Implementierung von AMDs GPUs zu tun. Das sind Werkzeuge der neusten APIs und funktionieren prinzipiell mit allen GPUs die es unterstützen. Die Implementierung in Pascal ist in der Hinsicht (AC) eben noch nicht so weit wie GCN. FP16 Beschleunigung gab es schon in einem Maxwell Produkt (Tegra X1 - wird hier auch genutzt - @nintendo switch) und einem Pascal Produkt (P100 - hier wird es sicherlich eher für deep learning genutzt).

Das ist ein Thema was einige immer noch nicht verstehen. Der FP16 Durchsatz vom Gaming-Pascal beträgt 1/16 von FP32 wenn ich mich gerade nicht vertue. Dann ist es wohl logisch, dass die Entwickler es nicht bei aktuellen Nvidia Generationen in einer PC-Umgebung verwenden werden. Alles andere wäre hirnverbrannt. Gleiches gilt für Async Compute und <=Maxwell. Das sind alles Kastrierungen die Nvidia bei ihren GPUs im Gaming Bereich am PC fährt für die weder AMD noch die Entwickler verantwortlich sind! Und schon gar nicht moderne APIs.

robbitop
2017-10-12, 11:58:25
War es meiner Meinung nach noch nie. Das sind alles Bestandteile von DX12/Vulkan.

Nvidia hat sich entschlossen den Fokus auf DX11 zu setzen. AMD setzt auf Vulkan und DX12. Verschiedene Ansätze, beides ist nachvollziebar, keiner hat die eierlegende Wollmilchsau. Pascal unterstützt ja bereits FP16 im P100 es war Nvidias Entscheidung FP16 nicht für den Consumermarkt zu bringen. Da kann man nicht von "Extrawurst" reden.
Du hast meinen Ironie-Smiley nicht erkannt? :)
Wie ich schon im längeren Fließtext sagte: AC und FP16 sind keine Extrawurst.

Gemeint habe ich mit dem letzten Satz: sie werden von NV (bzw dessen Sympatisanten) als Extrawurst angesehen, bis die eigene HW es kann. Dann natürlich nicht mehr... :D

Schnoesel
2017-10-12, 12:01:28
Du hast meinen Ironie-Smiley nicht erkannt?

Oh doch das war eigentlich nur eine Zustimmung deiner Aussage. :biggrin:

Locuza
2017-10-12, 12:17:45
Das ist ein Thema was einige immer noch nicht verstehen. Der FP16 Durchsatz vom Gaming-Pascal beträgt 1/16 von FP32 wenn ich mich gerade nicht vertue. Dann ist es wohl logisch, dass die Entwickler es nicht bei aktuellen Nvidia Generationen in einer PC-Umgebung verwenden werden. Alles andere wäre hirnverbrannt. Gleiches gilt für Async Compute und <=Maxwell. Das sind alles Kastrierungen die Nvidia bei ihren GPUs im Gaming Bereich am PC fährt für die weder AMD noch die Entwickler verantwortlich sind! Und schon gar nicht moderne APIs.
1/64, was aber in der Praxis keine Relevanz darstellt, da Pascal kein Support für geringere Präzisionen als FP32 zurückmeldet und man keine Möglichkeit hat Pascal zu FP16 zu zwingen, außer man verwendet CUDA.

Die Async-Compute-Implementierung ist auch keine Kastration, die Hardware bietet eben nicht mehr.
Bei FP16 auch nicht, aber immerhin kann man da gerade noch so mit dem Vorwurf mitgehen, da es nicht schwer wäre für Nvidia Double-Rate FP16 für alle Pascals umzusetzen.

dargo
2017-10-12, 12:25:09
1/64, was aber in der Praxis keine Relevanz darstellt, da Pascal kein Support für geringere Präzisionen als FP32 zurückmeldet und man keine Möglichkeit hat Pascal zu FP16 zu zwingen, außer man verwendet CUDA.

Danke für die Richtigstellung.


Die Async-Compute-Implementierung ist auch keine Kastration, die Hardware bietet eben nicht mehr.
Bei FP16 auch nicht, aber immerhin kann man da gerade noch so mit dem Vorwurf mitgehen, da es nicht schwer wäre für Nvidia Double-Rate FP16 für alle Pascals umzusetzen.
Ansichtssache. Wenn die Implementierung ins Negative fällt (Maxwell) oder komplett fehlt (älter Maxwell) dann sehe ich das als Kastrierung an. Die Auswirkungen davon sehen wir in einer PC-Umgebung nur halt recht spät. Bei AC verwundert mich das aber wenig da die Entwickler selbst auf Konsolen damit recht spät angefangen haben. Auf der anderen Seite auch irgendwo verständlich. Der Übergang von Konsole X auf Konsole Y passiert nicht abrupt von heute auf morgen. Gleiches gilt für die Entwicklung der Spiele.

Locuza
2017-10-12, 12:32:58
Eine Kastration bezeichnet eine Beschneidung, was hat man bei Kepler oder Maxwell denn in der Hinsicht beschnitten?
Ist Polaris etwa auch beschnitten, weil es kein Double-Rate FP16 unterstützt oder Conservative Rasterization gar nicht implementiert hat?
Das ergibt natürlich keinen Sinn.

Grendizer
2017-10-12, 12:36:18
Danke für die Richtigstellung.


Ansichtssache. Wenn die Implementierung ins Negative fällt (Maxwell) oder komplett fehlt (älter Maxwell) dann sehe ich das als Kastrierung an. Die Auswirkungen davon sehen wir in einer PC-Umgebung nur halt recht spät. Bei AC verwundert mich das aber wenig da die Entwickler selbst auf Konsolen damit recht spät angefangen haben. Auf der anderen Seite auch irgendwo verständlich. Der Übergang von Konsole X auf Konsole Y passiert nicht abrupt von heute auf morgen. Gleiches gilt für die Entwicklung der Spiele.


Warten wir einfach mal Wolfenstein ab. Mit allen angekündigten Features sollte ja ein Performance Vorteil von mind. 30% von Vega 64 auf eine 1080 rausspringen. Wenn es weniger wird, dann ist die ganze Diskussion um fehlende Features bei nVidia und die Vorteile von Vega überflüssig.

dargo
2017-10-12, 12:42:57
Eine Kastration bezeichnet eine Beschneidung, was hat man bei Kepler oder Maxwell denn in der Hinsicht beschnitten?

Die-Size da weniger Transistoren verwendet wurden die bekanntlich auf die Effizienz gehen. Wenn Features keine zusätzlichen Transistoren benötigen ist es was anderes.


Ist Polaris etwa auch beschnitten, weil es kein Double-Rate FP16 unterstützt oder Conservative Rasterization gar nicht implementiert hat?

Im Vergleich zu Vega ist das der Fall... ja. Auch was den HBCC angeht. Dieser dürfte auch einiges an Fläche gekostet haben.

dildo4u
2017-10-12, 12:47:33
Eine 2017 GPU hat mehr Featuers als eine von 2016,oh Wunder.Dafür hat Vega 1.5 Jahre keine Kohle eingespielt.
Vega wird den Großteil ihrer im Markt relevanten Zeit gegen Volta antreten.

yamamoto_dc
2017-10-12, 13:14:44
Eine 2017 GPU hat mehr Featuers als eine von 2016,oh Wunder.Dafür hat Vega 1.5 Jahre keine Kohle eingespielt.
Vega wird den Großteil ihrer im Markt relevanten Zeit gegen Volta antreten.

Das sehe ich auch so, aber ob Volta wirklich so ein großer Wurf wird, wissen wir auch noch nicht. Es ist gut möglich, dass Volta und Vega in 2018 ähnliche Leistung bringen.

scully1234
2017-10-12, 13:17:02
Und wenn dann Features wirklich benötigt werden, dann Supportet Volta diese auch

Irgendwelche Schnellschüsse nur um sich Monate lang den Mund fusselig zu reden(asynchron, primitive bla bla ec pp, dafür sind andere im Markt die so arbeiten

Bildlich gesprochen wie der Kampf gegen Windmühlen , nur das es der Don immer noch nicht begreift, das er hier vorgeführt wird immer u immer wieder

Neues Schlagwort für Wolfenstein ist ja nun Fp16, die nächste große Windmühle, auf dem steinigen Weg

Grendizer
2017-10-12, 13:23:41
AMD hat mit der Vega Architektur aber augenscheinlich das Glück, dass sie relativ genau auf den Markt kommen, wenn diese Features mehr Verbreitung finden. Wer jetzt Pascal kauft könnte mittelfristig etwas das Nachsehen haben.

Daredevil
2017-10-12, 13:26:12
Genau das sehen auch die Hersteller der Custom Designs

AffenJack
2017-10-12, 13:29:46
Jetzt lasst doch wenigstens Volta aus der Diskussion hier. Was in Zukunft erscheint, gehört in die Spekuthreads, aber nicht in den Reviewthread. Da sollte es eher um die aktuelle Situation gehen. Sobald DX12 sich durchsetzt sind Async und FP16 bei Vega schon valide Punkte gegenüber den verfügbaren NV-Karten. Aber nach den bisherigen DX12 Implementierungen mit Async muss sich Nv da bisher nicht so füchten, weil die Zugewinne doch eher begrenzt sind. AMD gewinnt etwas, aber viel ist das nicht, wenn man sich Spiele wie Hitman oder Sniper Elite anguckt.

FP16 wird nun die nächste interessante Entwicklung und könnte AMD bei Vega vielleicht gegenüber Pascal (GP104) einen deutlichen Vorteil verschaffen. Da wird Wolfenstein und vor allem Far Cry dann interessant. Shader intrinsics ist dagegen wirklich nur ein Dargo Cherrypicking, aber gut darauf wird er auch noch die nächsten Jahre rumhacken.

scully1234
2017-10-12, 13:40:59
FP16 wird nun die nächste interessante Entwicklung und könnte AMD bei Vega vielleicht gegenüber Pascal (GP104) einen deutlichen Vorteil verschaffen.

Hat sich dazu nicht erst neulich ein jemand der an Doom mitgewirkt hat dazu hier geäußert?

Das er seine Erwartungshaltung zurückgeschraubt hat bezüglich Fp16 Implementierung

AffenJack
2017-10-12, 13:48:30
Hat sich dazu nicht erst neulich ein jemand der an Doom mitgewirkt hat dazu hier geäußert?

Das er seine Erwartungshaltung zurückgeschraubt hat bezüglich Fp16 Implementierung

Jop, aber wir wissen ja nicht, was für Erwartungen er hatte. Vielleicht hat er auf 30% mehr Leistung gehofft, aber nur 15% rausgekriegt. Man sollte einfach mal von den Extremen abweichen und das nüchtern betrachten. Bei Async haben ja auch einige lange auf ~30% Mehrleistung gehofft und das mag vereinzelt möglich sein, aber nur wenn es perfekt zur Engine passt, sonst sind es eben deutlich weniger. Aber genausowenig kann die Nv-Seite leugnen, dass AMD bei Async tendenziell gegenüber Nv mehr profitiert. Bei FP16 genauso. Wieviel FP16 schlussendlich bringen wird, wissen wir nicht. Aber es ist eben ein Vorteil für Vega gegenüber Pascal.

Rancor
2017-10-12, 13:50:11
Ich glaube die Kombination aus allen Low Level Features ist es, die Pascal vermutlich irgendwann das Genick brechen wird, sofern sich die LL Apis wirklich am PC durchsetzen sollten.

Dino-Fossil
2017-10-12, 13:59:29
Bis dahin interessiert das doch kaum noch, da schon längst neue Chips (bei AMD und nVidia) raus sind.

Grendizer
2017-10-12, 14:00:17
Ich glaube die Kombination aus allen Low Level Features ist es, die Pascal vermutlich irgendwann das Genick brechen wird, sofern sich die LL Apis wirklich am PC durchsetzen sollten.

Was ja prinzipell dann auch ok ist. Die Architektur ist im Herbst ihres Lebenszyklus.

Edit: Ich beneide gerade aber niemanden, der eine Grafikkarte braucht. Vega Referenz ist zu laut und Pascal wäre mir nicht mehr zukunftssicher genug.

Daredevil
2017-10-12, 14:30:43
Pascal wäre mir nicht mehr zukunftssicher genug.
Wir bewegen uns jetzt bei diesen Modellen und Unterschieden nicht in Regionen, wo Karte 1 mit 150fps läuft und Karte2 mit 35fps. Da musst man echt keine Angst haben.
Wir sind auch immer noch im Zeitalter von Konsolen die uns die Spiele weisen und da sind die neuen Features ja auch nicht flächendeckend vorhanden.

Und selbst wenn, wer soll die Ultimative Traum-Vega schon mit einem Ryzen komplett ausfahren können?

*versteck*

Rancor
2017-10-12, 14:38:51
In WQHD und 4k kannst du jede GPU mit einem Ryzen ausfahren. Das ist gar kein Problem. Ich weiss auch nicht was die Bemerkung jetzt soll?

scully1234
2017-10-12, 14:59:12
Bis dahin interessiert das doch kaum noch, da schon längst neue Chips (bei AMD und nVidia) raus sind.

Eben das mein ich ,relevante Features dann unterstützen ,wenn es auch eine Basis dafür gibt.

Und nicht im Vorfeld schon Manpower u Resourcen verbrennen

Mit ner Grafikkarte von AnnoDazuMal, erwartet eh niemand ,das sie reift wie guter Wein

Wer die neuesten Games ausfahren will,der musste schon immer aktuelle Hardware einsetzen

Und wer das nicht will, der kommt auch prima mit dem Vorgänger klar, ohne asynchron, primitiv, haumichblau 16bit

Schnoesel
2017-10-12, 15:03:05
Henne-Ei

Wenn es der Marktfüher nicht unterstützt wer soll dann neue Technologien pushen? Nvidia zieht sich hier schön aus der Verantwortung.

Ich hätte bei meiner TI gerne FP16 an Bord keine Frage und Nein ich will nicht jedes Jahr die GPU wechseln. Das macht mit Wakü einfach keine Laune. Und wann Cosnumer Volta dann endlich mal kommt weiß auch keiner. Ich sehe die Sache nicht so unkritisch wie manch andere hier.

scully1234
2017-10-12, 15:07:36
Niemand zieht sich aus der Verantwortung

Es gibt Firmen die beobachten den Markt, und entscheiden dann was Sinn macht zu Supporten

Wenn AMD dann immer nen extra Weg geht, liegt das nicht in der Verantwortung des anderen, wenn daraus erstmal nix wird

Das ist ihr Risiko , genau wie es anders gelagert, auch der Fall ist

Schnoesel
2017-10-12, 15:08:15
Wann wird denn deiner Meinnug nach ein Feature relevant?

Und DX12/Vulkan/Async Shaders/FP16 ist kein extra Weg. Nvidia ist doch bei allen API Gremien mit dabei. Also ob die ohne Nvidia was machen würde.

Nvidia sitzt das aus. Bringt mit Volta FP16 alle anderen sehen in die Röhre und kaufen neu. Aus Kundensicht scheiße für Nvidia toll.

Daredevil
2017-10-12, 15:10:15
Irgendjemand muss halt den Anfang machen und die Spielehersteller damit vorrantreiben, ich sehe das bei Vega auch eher positiv als negativ, wieso auch nicht? Das macht das ganze eher zu einem runderen Paket.

Lieber habe ich bei aktuellen Spielen eine gute und bei neueren eine bessere Leistung als andersrum. Aber das muss sich halt erstmal zeigen.

Eine Vega 64 ist für mich momentan deutlich mehr sexy als eine "langweilige" gtx1080.
Das ist aber kein rationaler Grund. Ich freue mich eher, dass in diesem Ding viel drin steckt und noch vieles unentdeckt ist und das sich AMD an Dinge heran getraut hat, die eben nicht von der Stange kommen sondern sich ein wenig in die Zukunft richten . ( HBCC @ SoM z.B. )
Sowas kann man halt auch belohnen.

Edit:
Allerdings würde ich sie aber auch niemand fremdes in seinen PC einbauen, das ist meine persönliche Präferenz.

akuji13
2017-10-12, 15:11:22
Sehe ich auch so, lieber die 64er als die 1080.

@Schnoesel

Für ein Unternehmen wenn man damit Umsatz/Gewinn erzielen kann.

Da braucht auch keiner rumheulen, da ist NV nicht anders als andere Unternehmen.

Schnoesel
2017-10-12, 15:12:45
Da ich aber weder Angestellter noch Beteiligt an der Firma bin, darf ich das sehr wohl kritisieren. Ich bin Kunde und vertrete schön meine Interessen.

akuji13
2017-10-12, 15:13:46
Natürlich darfst du das.

Allerdings ist es "witzig" das eben jenes Argument nicht zählt wenn man NV oder Intel kaufen will. ;)

Schnoesel
2017-10-12, 15:16:02
Ich weiß ja nicht nch welchen Kriterien du Hardware kaufst aber an das Wohlbefinden der Firma denke ich dabei als Letztes.

PS: Wenn es um Mitleidskäufe geht ... das hilft der Firma auch nicht. Nur gute Produkte können helfen.

Grendizer
2017-10-12, 15:17:00
Wann wird denn deiner Meinnug nach ein Feature relevant?

Und DX12/Vulkan/Async Shaders/FP16 ist kein extra Weg. Nvidia ist doch bei allen API Gremien mit dabei. Also ob die ohne Nvidia was machen würde.

Nvidia sitzt das aus. Bringt mit Volta FP16 alle anderen sehen in die Röhre und kaufen neu. Aus Kundensicht scheiße für Nvidia toll.


Ganz so einfach ist es nicht. Man muss überlegen, wann die Planung für das Featureset einer Graka losgeht. Während AMD zumindest "rechtzeitig" wußte, was für die PS4 Pro an Features kommen wird (FP16) konnte das nVidia schlechter wahrsagen. Wie gesagt, aktuell macht Pascal nicht mehr wirklich Sinn und eine Custom Vega wäre vielleicht tatsächlich die bessere Wahl. Allerdings wenn man direkt Pascal gekauft hat, dann tut es nicht wirklich weh, wenn in den nächsten 6 Monaten die Architektur ins Hintertreffen gerät. Anfang November werden wir ja sehen, wie hoch der Vorteil von Vega bei extremen Optimierungen sein kann.

scully1234
2017-10-12, 15:24:32
Nvidia sitzt das aus. Bringt mit Volta FP16 alle anderen sehen in die Röhre und kaufen neu. Aus Kundensicht scheiße für Nvidia toll.

Jetzt erzähl mir doch mal wieso man ohne Fp16 nicht mehr überleben kann u neu kaufen muss?

Weil es Amd so will? Weil die Spiele nicht mehr spielbar sind mit 32bit Code?
Weil alle die 16bit Sau durchs Dorf treiben, so wie damals bei Mantel?

Erstmal Resultate die sich mehr als nur im einstelligen Prozentbereich bewegen, bei mehr als ner Handvoll von Spielen

Darauf kannst du wie bei DX12/Mantle/Vulcans zuvor ,noch Jahre warten bis das relevant wird

Also erzähl mir hier nicht das es die auslaufenden Architekturen noch großartig tangiert, was da gerade an Hypetrain aufkommt

Schnoesel
2017-10-12, 15:26:26
Ich denke dass ist aber wiederum davon abhängig was der einzelne für ein Profil/Vorlieben hat.

Wenn ich vor der Wahl stünde zwischen 1070 und Vega56 würde ich die Vega nehmen.
Wenn ich vor der Wahl stünde zwischen 1080 und Veg64 würde ich eher die 1080 nehmen, obwohl ich hier am unentschlossen wäre, dafür gehen die einzelnen Ergebnisse zu weit auseinander.
Und die TI ist imo alternativlos, aber wie gesagt das muss dann jeder für sich entscheiden.

Erstmal Resultate die sich mehr als nur im einstelligen Prozentbereich bewegen, bei mehr als ner Handvoll von Spielen

Also Henne-Ei. Erstmal warten bis das Feld bereitet ist und dann selbst einsteigen. Du projezierst das auch zu sehr auf AMD. Lass die Firma mal weg. Wer würde dann voran gehen? Nvidia scheint kein Interesse daran zu haben Technologieführer zu sein. Es hilft auch nichts wenn es nur ein HErsteller unterstützt. Neue Technologien werden dann am Ehesten umgesetzt wenn sie eine breite Basis haben. Man stelle sich nur vor was aus PhysX hätte werden können.

pilzsammler2002
2017-10-12, 15:38:53
Nvidia scheint kein Interesse daran zu haben Technologieführer zu sein. Es hilft auch nichts wenn es nur ein HErsteller unterstützt. Neue Technologien werden dann am Ehesten umgesetzt wenn sie eine breite Basis haben. Man stelle sich nur vor was aus PhysX hätte werden können.

Das ist sogar recht wichtig... Seit PhysX und Gameworks kam eigentlich nix besonderes mehr von nvidia. Die meisten "neuen" Technologien in den Chips sind entweder reaktionen auf AMD (leichtes ac) oder schon älter (TBR)...

Das soll jetzt nicht heissen das sie es falsch machen. Aber Innovationen die wir als Kunde ja gerne mal hätten sind/waren es nicht.
Solange wie der Rubel rollt bei nem Maxwell shrink gibt es ja auch keinen Grund was zu ändern... :wink:

Fragman
2017-10-12, 15:40:45
erinnert mich an das feature "cubic environment mapping".
auf der geforce die techdemo angeschaut (simple kugel wohlgemerkt),
geforce 2 hatte dann aber auch nicht die fuellrate um es einzusetzen, g3 konnte man es dann selektiv einsetzen, die performance war aber auch nicht der brueller ohne ddr speicher, also hat es auch hier keiner genutzt (oder gabs da jemanden?). ich glaub die gtx5xx konnte das dann in einem pass rendern, oder wars die 780?

seitdem und natuerlich t&l gebe ich sowieso nichts mehr auf feature die tolles versprechen, ausser es funktioniert out of the box. :D

Achim_Anders
2017-10-12, 15:41:08
Scully du bist mal wieder absolut Offtopic und dazu auch nicht wirklich gewillt hier eine sachliche Diskussion zu vollziehen. Deine Texte und Aussagen schreien in vielen Beiträgen danach, dass sie mit der Intention geschrieben werden, um AMD`s Handlungen schlecht zu reden und Nvidias Handlungen und Entscheidungen zu rechtfertigen. Das ist extrem anstrengend, zumal es hier um VEGA UND DEREN REVIEWS geht und nicht um NVIDIA!

Auf einen konstruktiven Post, dass es nicht um einzelne Spiele, sondern um deren Engines geht, hast du zum Beispiel gar nicht reagiert.

Dem hier gebrachten Argument, dass Vega fortschrittlicher ist, entgegnest du lapidar damit, dass Nvidia ja keinen Grund hätte und neue Standards nicht bräuchte... Aber genau dieses Argument von dir ist doch voll am Thema vorbei. Es geht nämlich nicht darum ob AMD oder Nvidia besser ist. Für den Kunden ist doch maximalste Leistung für wenig Geld wichtig. Und dabei können die LowLevel Apis helfen! Das ist in einzelnen Titeln deutlich zu sehen. Dieser von dir angeprangerte Fortschritt stagniert seit zwei Jahren, wie du festgestellt hast. Und nun frag doch einfach mal warum das so ist...
Für einige hier liegt es daran,dass eben der Fadtmomopolist diese Verbesserungen nicht implementiert, um sein eigenen Gewinn radikal zu maximieren.
Vorsicht Gedankenexperiment: eine Grafikkarte mit dem KnowHow und Treiberteam von nvidia, welches voll auf LowLevel und dem ganzen anderen Sachen zielt... Was denkst du, wie die mit einer 1080ti machen, wenn die Spielehersteller das auch zu 100% unterstützen würden, da der Quasimonopolist das fordert und unterstützt? ;)
Kommst du soweit und diskutierst sinnvoll mit? Oder kommt jetzt der nächste dumme Grabenkrieg zwischen Amd und Nvidia von dir, aus welchen Gründen auch immer?!

scully1234
2017-10-12, 15:44:53
Also Henne-Ei. Erstmal warten bis das Feld bereitet ist und dann selbst einsteigen.

Nix Hene Ei, wenn ich will das der Mitbewerber ein Featureset
mit supportet, dann muss ich entweder A mit ihm darüber reden, B in einem Gremium sitzen wie bei Vulcan , wo gemeinsame Standards erarbeitet werden, und siehe da dort funktioniert es

Hier aber mal nen verdorbenen Fleischbrocken like Mantle in die Arena werfen, in der Hoffnung das der Löwe hungrig genug ist ,das zu schlucken, geht eben ab u an in die Hose.

Da braucht man niemanden die Technologiekrone aufsetzen wollen, wenn er sich so verhält, und das noch als Underdog

=Floi=
2017-10-12, 15:45:39
Der witz ist hald, das ich mit FP32 auch die 99,99% alter games unterstütze und es nicht extra reinprogrammiert werden muss.
Da habe ich lieber 15% mehr PF32 Shadereineheiten und IMMER etwas davon.

FP16 muss extra reinprogrammiert werden und bringt ~15% bei minimaler verbreitung der karten. Das bringt absolut nichts aus sicht der publisher. das ist rausgeworfenes geld und deswegen wird sich das nicht durchsetzen.

Dino-Fossil
2017-10-12, 15:57:20
Vega ist in der Tat fortschrittlich und kann ein paar schöne Sachen.
Allerdings gleitet die Diskussion schon wieder in die üblichen Grabenkämpfe ab, das ist dann doch wieder eher anstrengend.
Ist ja auch nicht so, als ob nVidia keinerlei Innovation liefern würde - sie haben die aktuell effizienteste Architektur (in Punkto Perf./Watt und Spieleperf./Rohleistung), eben auch aufgrund einiger innovativer Hardwarefeatures, die AMD selbst dann später auch verbaut hat (z.B. Texturkompression, oder tiling-basierte Ansätze).
Dazu haben sie auch eine sehr gute Treiberabteilung, die softwareseitig nachhilft. Gerade da hapert es ja auch bei AMD.
Rein wirtschaftlich gesehen ist nVidias Ansatz, bestimmte Technologiefeatures, die ihnen keinen unmittelbaren Vorteil bringen erst verspätet zu implementieren nachvollziehbar. Was den technologischen Fortschritt angeht ist es natürlich weniger toll.
AMD auf der anderen Seite muss hier schon deswegen früher mitgehen, weil GPUs länger mitgeschleift werden. Zum Wohl aller Spieler machen sie es aber auch nicht, da geht es auch um wirtschaftliche Interessen.
Dennoch kann ich diesen Ansatz "Wir konzentrieren uns auf die Zukunft, der Ist-Zustand wird ignoriert" nur bedingt gutheißen.
Meine GPU soll zwar schonmal 2-4 Jahre halten, aber aktuelle (und ein paar ältere) Sachen sollten trotzdem so gut laufen wie möglich - nicht erst Neuerscheinungen in 6-12 Monaten.

Wenn man sich dann, wie bei Vega, noch durch einen verpatzten Launch selbst ins Bein schießt, das Produkt durch fragwürdige default-Einstellungen schlechter macht als es sein könnte und den Partnern unnötig das Leben schwer macht kann ich mich nur noch wundern, wie solche Entscheidungen zustande kommen...

scully1234
2017-10-12, 15:58:02
Der witz ist hald, das ich mit FP32 auch die 99,99% alter games unterstütze und es nicht extra reinprogrammiert werden muss.
Da habe ich lieber 15% mehr PF32 Shadereineheiten und IMMER etwas davon.

Genau darum frag ich mich ja ,wieso 16 Bit urplötzlich essenziell werden soll, und das wie gesagt noch bei auslaufenden Architekturen.

Spieleschmieden müssen so oder so 32bit supporten

Wenn da in den nächsten 2Jahren überhaupt was kommt , ist es nicht mehr als die ersten Gehversuche, und wie die bei anderen Festuresets aussahen, dafür gibts ja zur Genüge Blaupausen

Troyan
2017-10-12, 15:58:23
Ganz so einfach ist es nicht. Man muss überlegen, wann die Planung für das Featureset einer Graka losgeht. Während AMD zumindest "rechtzeitig" wußte, was für die PS4 Pro an Features kommen wird (FP16) konnte das nVidia schlechter wahrsagen. Wie gesagt, aktuell macht Pascal nicht mehr wirklich Sinn und eine Custom Vega wäre vielleicht tatsächlich die bessere Wahl. Allerdings wenn man direkt Pascal gekauft hat, dann tut es nicht wirklich weh, wenn in den nächsten 6 Monaten die Architektur ins Hintertreffen gerät. Anfang November werden wir ja sehen, wie hoch der Vorteil von Vega bei extremen Optimierungen sein kann.

nVidia unterstützt seit 2 1/2 Jahren FP16 mit Tegra X1. Ist ja wohl eher der Fall, dass Sony und Co bei nVidia, ImgTech etc. abgeguckt haben.

Schnoesel
2017-10-12, 15:58:28
Nix Hene Ei, wenn ich will das der Mitbewerber ein Featureset
mit supportet, dann muss ich entweder A mit ihm darüber reden, B in einem Gremium sitzen wie bei Vulcan , wo gemeinsame Standards erarbeitet werden, und siehe da dort funktioniert es

Für gemeinsame Standards bin ich zu haben, ich träume immer noch von Gamephysik in Spielen über die GPU anstatt nutzlosem Bling Bling.

Um etwas on Topic sein:

https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/4/#abschnitt_update_1_radeon_rx_vega_mit_hbcc

Laut CB liegt das Performanceplus unter HBCC nicht daran, dass der Speicher knapp wird, sondern dass die GPU/Treiber den Speicher besser verwalten kann (raff aber nicht ganz was der anders macht und wie da der zusätzliche Speicher reinspielt). Für mich persönlich könnte es das Highlight bei Vega werden.

yamamoto_dc
2017-10-12, 15:59:53
Der witz ist hald, das ich mit FP32 auch die 99,99% alter games unterstütze und es nicht extra reinprogrammiert werden muss.
Da habe ich lieber 15% mehr PF32 Shadereineheiten und IMMER etwas davon.

FP16 muss extra reinprogrammiert werden und bringt ~15% bei minimaler verbreitung der karten. Das bringt absolut nichts aus sicht der publisher. das ist rausgeworfenes geld und deswegen wird sich das nicht durchsetzen.

Der Witz ist, das Vega für alte Spiele eh schon schnell genug ist, warum also nicht neue Features einbauen die Potential haben?
Bisher konnte NV diese Features abwehren, indem sie diese einfach nicht unterstützt haben. Durch die Konsolen sieht es jetzt aber ein wenig anders aus und die Spieleentwickler sollten diese Features jetzt auch auf dem PC unterstützen.

Grendizer
2017-10-12, 16:03:49
Der Witz ist, das Vega für alte Spiele eh schon schnell genug ist, warum also nicht neue Features einbauen die Potential haben?
Bisher konnte NV diese Features abwehren, indem sie diese einfach nicht unterstützt haben. Durch die Konsolen sieht es jetzt aber ein wenig anders aus und die Spieleentwickler sollten diese Features jetzt auch auf dem PC unterstützen.


Nur die PS4 Pro unterstützt FP16... weder PS4, noch Xbox One /One X

yamamoto_dc
2017-10-12, 16:06:27
OK, XOX war mir jetzt nicht klar, ich dachte die unterstützt das auch. Es geht mir aber auch um die generelle Architektur, nicht nur um einzelne Features.

Achim_Anders
2017-10-12, 16:39:08
Die Xbox X unterstützt dafür doch Rapid Math, oder?

dargo
2017-10-12, 16:52:51
FP16 muss extra reinprogrammiert werden und bringt ~15% bei minimaler verbreitung der karten. Das bringt absolut nichts aus sicht der publisher. das ist rausgeworfenes geld und deswegen wird sich das nicht durchsetzen.
Du hast da einen kleinen Gedankenfehler. Nicht Nvidia bestimmt was die Entwickler in erster Linie implementieren sondern die Entwickler selbst anhand der Konsolenhardware. Diese ist erstmal maßgebend. Auch wenn es manche immer noch nicht verkraften können. Der PC ist schon lange nicht mehr die Nr.1 bei Spieleentwicklung. Und wenn der Aufwand im Rahmen bleibt werden auch Features wie AC, Shader Instrinsics und FP16 auch in der PC-Version implementiert. Dabei spielt es keine Rolle wie viele Gaming Karten Nvidia am PC verkauft hat.

Nur die PS4 Pro unterstützt FP16... weder PS4, noch Xbox One /One X
Das ist falsch. Nur die PS4 Pro unterstützt FP16 mit doppeltem Durchsatz.

Grendizer
2017-10-12, 16:54:11
Die Xbox X unterstützt dafür doch Rapid Math, oder?

Ich meine nicht. Rapid Math und FP16 sind doch das gleiche, oder nicht ?

Schnoesel
2017-10-12, 17:06:10
Und wenn der Aufwand im Rahmen bleibt werden auch Features wie AC, Shader Instrinsics und FP16 auch in der PC-Version implementiert. Dabei spielt es keine Rolle wie viele Gaming Karten Nvidia am PC verkauft hat.

Ich teile diese Einschätzung nicht. Spiele die die LL Features bisher genutzt haben waren alles Spiele die im Gaming Evolved Programm von AMD waren, mit AMD gebundelt wurden oder die eine Partnerschaft mit AMD hatten. Wenn ich falsch liege bitte berichtigen.

Achim_Anders
2017-10-12, 17:09:23
@Grendizer
Kann sein, ich meine nur, such die neue Xbox hätte ein Feature, welches in vega ist, aber nicht die Ps4Pro hat.. Mit den Termini habe ich es aber in der Tat nicht so, tut mir leid

dargo
2017-10-12, 17:10:54
Ich habe jetzt nicht alles im Kopf, aber ein GoW4 war afaik nicht im Gaming Evolved Programm bezüglich AC-Implementierung, nur um ein Beispiel zu nennen.

yamamoto_dc
2017-10-12, 17:13:10
Ich teile diese Einschätzung nicht. Spiele die die LL Features bisher genutzt haben waren alles Spiele die im Gaming Evolved Programm von AMD waren, mit AMD gebundelt wurden oder die eine Partnerschaft mit AMD hatten. Wenn ich falsch liege bitte berichtigen.


Leider war es bisher so, AMD konnte noch nicht wirklich von den Konsolenoptimierungen auf dem PC profitieren.

Auf dem PC wird erst einmal in Richtung NV/Intel optimiert, den Code von den Konsolen auf PCs mit AMD-Hardware zu übernehmen, war bisher schon zuviel der Mühe.

Schnoesel
2017-10-12, 17:15:29
Hmm laut dem Developer Blog nutzt GOW4 aber Async Compute nicht Async Shaders. Das ist doch aber ein Unterschied wenn ich das richtig in Erinnerung habe:

https://gearsofwar.com/en-us/developerblog/8/gearsofwar4perfguide

dargo
2017-10-12, 18:07:40
Async Shaders? Ich kann dir nicht folgen.

Schnoesel
2017-10-12, 18:10:50
Async Compute beschreibt doch nur das parallele Ausführen der Compute Queues und nicht wie Async Shaders das parallele Ausführen von Graphics und Compute Queues. Amd selbst sprach/spricht doch auch immer nur von Async Shaders:

http://developer.amd.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf

https://s1.postimg.org/18vkphwdf3/image.jpg

Async Compute kann Nvidia ja ohne Probleme.

dildo4u
2017-10-12, 18:45:11
Raff zündet den Turbo mit der Vega 64 LC.

https://youtu.be/Y2-r1nzCBcg

aufkrawall
2017-10-12, 18:55:00
Aha, es gibt nicht mehr diesen obskuren Umschalter für das Taktmanagement außerhalb von Wattman.
Was meinen die Vega-Besitzer jetzt so zum Taktverhalten? Funktioniert das bei Spielen, Video und Surfen so wie es soll?

yamamoto_dc
2017-10-12, 19:10:01
Mir ist nicht ganz klar, welchen Umschalter Du meinst. Ich bin mit den Power Profilen sehr zufrieden, Undervolting habe ich inzwischen wieder eingestellt, da mir die Leistung vollkommen reicht.

aufkrawall
2017-10-12, 19:25:27
Es gab mit R9 390 bis mindestens RX 480 in den Crimson-Einstellungen einen Schalter "Energieffizienz" (nicht zu verwechseln mit Wattman-Profilen!).
Der war standardmäßig an und hatte Ruckler in Spielen verursacht. Schalte man ihn aus, gab es stattdessen wilde Rauftakterei während des Surfens oder Fensterschubsens.

yamamoto_dc
2017-10-12, 19:36:05
Es gibt Radeon Chill, dort werden die FPS in ruhigen Szenen vom Treiber heruntergeregelt. Das habe ich in den meisten Spielen an, es funktioniert sehr gut ohne das es zu merklichem Ruckeln kommt, ich habe aber auch Freesync. In schnellen Shootern wie PUBG nutze ich Chill aber nicht, da es die Latenz erhöht, da nutze ich nur Frame Target Controll mit konstanten 58 FPS. Im 2D Modus (4K) und bei Videos hat der Lüfter bei mir noch nie hochgedreht.

Daredevil
2017-10-12, 19:42:47
Es gibt Radeon Chill, dort werden die FPS in ruhigen Szenen vom Treiber heruntergeregelt. Das habe ich in den meisten Spielen an, es funktioniert sehr gut ohne das es zu merklichem Ruckeln kommt, ich habe aber auch Freesync. In schnellen Shootern wie PUBG nutze ich Chill aber nicht, da es die Latenz erhöht, da nutze ich nur Frame Target Controll mit konstanten 58 FPS. Im 2D Modus (4K) und bei Videos hat der Lüfter bei mir noch nie hochgedreht.
Das solltest du nicht vielleicht über den Treiber machen sondern mit dem Riva Tuner bzw. noch besser dem Spiel intern, wenn du wert auf Input Lag legst.
http://abload.de/img/unbenannt0ost5.png

hmmm
2017-10-12, 20:21:36
Async Compute beschreibt doch nur das parallele Ausführen der Compute Queues und nicht wie Async Shaders das parallele Ausführen von Graphics und Compute Queues. Amd selbst sprach/spricht doch auch immer nur von Async Shaders:

Unter ASYNCHRONOUS COMPUTING versteht AMD (insbesondere mit Bezug auf DX12)
In DirectX 12, this is handled by allowing applications to submit work to multiple queues. The API
defines three types of queues:

 Graphics queues for primary rendering tasks
 Compute queues for supporting GPU tasks (physics, lighting, post-processing, etc.)
 Copy queues for simple data transfers

Command lists within a given queue must execute synchronously, while those in different queues
can execute asynchronously (i.e. concurrently and in parallel)
Dies war auch bei Microsoft usus, zumindest so lange bis Nvidia anfing Asynchronous compute als nur Marketing Begriff darzustellen.
Anders ausgedrückt bezeichnet Nvidia den technischen Begriff Parallel (und meinen Asynchronous) als Marketing und "ihren" nichtssagenden Begriff "quasi Parallel" (und meinen preemption) als technischen Begriff.

-----------------------
FP16
Auch schon ohne Rapid Packed Math macht FP16 sinn, es spart Vram, Bandbreite, Cache, ... und wird auf der PS4 sowie XboxOne schon genutzt.
Und genau dazu ist Rapid Packed Math eine logische und vernünftige Erweiterung.
Was andere hier "hin und her konvertieren" möchten verstehe ich nicht, denn ein "konvertieren" (im sinne von "in anderes Format aktiv überführen") ist schlicht nicht notwendig.

-----------------------
...Für die Bewertung der Qualität ist RotTR nicht so gut geeignet wie etwa Forza Apex.
Unsinn, Forza Apex leidet inhärent an schlechter Filterung.

Grendizer
2017-10-12, 20:50:19
https://www.golem.de/news/sony-playstation-4-pro-was-die-erste-4k-spielekonsole-so-besonders-macht-1611-124213-3.html

Lehdro
2017-10-12, 21:22:52
Hawaii war die Antwort seitens AMD auf die 780 und schlug gleichzeitig mit der Titan 1 auf.
Nein. Einfach nein.

HD 7970 01/2012
GTX 680 05/2012
HD 7970 GHz 06/2012
GTX Titan 02/2013
GTX 780 05/2013
GTX 780 TI 09/2013
R9 290X 10/2013
R9 290 11/2013

Ex3cut3r
2017-10-12, 21:39:43
Nein. Einfach nein.

HD 7970 01/2012
GTX 680 05/2012
HD 7970 GHz 06/2012
GTX Titan 02/2013
GTX 780 05/2013
GTX 780 TI 09/2013
R9 290X 10/2013
R9 290 11/2013

Korrekt, Aber klar war auch Hawaii imo eine Antwort auf die 780Ti.

Folglich ging es doch so weiter?!

GTX 980 09/2014
GTX Titan X Maxwell 04/2015
GTX 980 Ti 06/2015
R9 390X 06/2015
R9 Fury X 06/2015
GTX 1080 05/2016
RX 480 06/2016
GTX Titan Pascal 09/2016
GTX 1080 Ti 03/2017
Rx Vega 08/2017


Die R9 290X war so das letzte mal, dass AMD pünktlich oder zeitnah eine Highend GPU parat hatte die auch mit der schnellsten Nvidia auf Augenhöhe war.

gravitationsfeld
2017-10-12, 22:21:20
Auch schon ohne Rapid Packed Math macht FP16 sinn, es spart Vram, Bandbreite, Cache, ... und wird auf der PS4 sowie XboxOne schon genutzt.
Und genau dazu ist Rapid Packed Math eine logische und vernünftige Erweiterung.
Was andere hier "hin und her konvertieren" möchten verstehe ich nicht, denn ein "konvertieren" (im sinne von "in anderes Format aktiv überführen") ist schlicht nicht notwendig.
Die Xbox One (und Xbox One X) haben null Unterstuetzung fuer FP16 in den ALUs. Und ja, man muss konvertieren. Hin und zurueck zu FP32. Alle Textur-Operationen liefern nur FP32-Werte, alle Interpolation-Inputs sind nur FP32. Framebuffer-Output muss FP32 sein. Transcedentals sind nur FP32. Usw. usf.

Hmm laut dem Developer Blog nutzt GOW4 aber Async Compute nicht Async Shaders. Das ist doch aber ein Unterschied wenn ich das richtig in Erinnerung habe:

https://gearsofwar.com/en-us/developerblog/8/gearsofwar4perfguide
Das ist ein und dasselbe.

gedi
2017-10-12, 22:32:42
Nein. Einfach nein.

HD 7970 01/2012
GTX 680 05/2012
HD 7970 GHz 06/2012
GTX Titan 02/2013
GTX 780 05/2013
GTX 780 TI 09/2013
R9 290X 10/2013
R9 290 11/2013


:rolleyes:

https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/

Außerdem interessiert das hier doch keine Sau!

Grendizer
2017-10-12, 22:36:23
Die normale PS4 auch nicht, oder ? Nur die PS4 Pro.

gravitationsfeld
2017-10-12, 23:04:19
Nur die PS4 Pro.

Hübie
2017-10-12, 23:13:07
Das solltest du nicht vielleicht über den Treiber machen sondern mit dem Riva Tuner bzw. noch besser dem Spiel intern, wenn du wert auf Input Lag legst.
http://abload.de/img/unbenannt0ost5.png

Er hat ungeschickter weise den V2 benutzt. Der ist präziser, aber hat mehr input lag. ;)

aufkrawall
2017-10-12, 23:20:56
Der ist nicht präziser, der ist völlig beknackt.

N0Thing
2017-10-12, 23:49:24
Es gab mit R9 390 bis mindestens RX 480 in den Crimson-Einstellungen einen Schalter "Energieffizienz" (nicht zu verwechseln mit Wattman-Profilen!).
Der war standardmäßig an und hatte Ruckler in Spielen verursacht. Schalte man ihn aus, gab es stattdessen wilde Rauftakterei während des Surfens oder Fensterschubsens.

Eingeführt wurde der Schalter afaik, damit die RX 480 den PCIe Slot weniger belastet. Für andere GPUs oder Grafikkarten war der nie afaik gedacht.

Jetzt mit Vega ohne den Schalter wird beim Surfen und Fensterschubsen ein wenig hoch getaktet, aber das würde ich als wild bezeichnen.

aufkrawall
2017-10-13, 00:04:58
Eingeführt wurde der Schalter afaik, damit die RX 480 den PCIe Slot weniger belastet. Für andere GPUs oder Grafikkarten war der nie afaik gedacht.

Der Schalter kam schon für Fiji oder noch eher und war auch offiziell für die R9 300er Reihe gedacht.
Bei der 200er Reihe musste man es über die Registry umschalten, um den Rucklern zu entgehen. :freak:


Jetzt mit Vega ohne den Schalter wird beim Surfen und Fensterschubsen ein wenig hoch getaktet, aber das würde ich als wild bezeichnen.
Das scheint ziemlich gut auszusehen. afair war der aber schon die Fury wegen des HBM gut und Polaris dann wieder ein Rückschritt.

Linmoum
2017-10-13, 00:28:08
Das scheint ziemlich gut auszusehen. afair war der aber schon die Fury wegen des HBM gut und Polaris dann wieder ein Rückschritt.
Wäre schön, wenn Fiji ohne den Schalter vernünftig funktionieren würde. Ebenfalls ein wenig rumsurfen und Fenster bewegen, der erste Teil ohne und der zweite mit aktivierter Energieeffizienz. Seit den 17.7.X-Treibern ist das Ding aber verbuggt und funktioniert (bei mir) nicht mehr, da wird dann trotzdem wild hochgetaktet.

Ab Vega scheint das ja schon out of the box zu funktionieren, wie es eigentlich der Fall sein sollte.

gedi
2017-10-13, 01:35:15
Der Schalter kam schon für Fiji oder noch eher und war auch offiziell für die R9 300er Reihe gedacht.
Bei der 200er Reihe musste man es über die Registry umschalten, um den Rucklern zu entgehen. :freak:


Das scheint ziemlich gut auszusehen. afair war der aber schon die Fury wegen des HBM gut und Polaris dann wieder ein Rückschritt.

Nö! Wie bereits oben richtig erwähnt kam der Schalter für Polaris um gewisse Spezifikationen bez. des PCIe-Bus einzuhalten.

aufkrawall
2017-10-13, 01:51:32
Nein, das war dann noch wieder eine andere Option. Ich hab nichts gesagt, was man bez. der PCIe-Thematik interpretieren könnte. Worauf ich mich beziehe, kam deutlich vor Polaris. Ich hatte das doch selber schon im März 2016 mit der 390 genutzt...

von Richthofen
2017-10-13, 02:14:18
Das Problem mit dem Überfahren der Leistungsaufnahme auf dem PEG-Steckplatz der RX 480 Referenzkarte wurde von AMD (unsichtbar) per Treiber gefixt.
http://www.pcgameshardware.de/Polaris-Codename-265453/News/Radeon-RX-480-Fix-PEG-Leistungsaufnahme-1200744/

Der Power-Efficiency Schalter hingegen wurde bereits viel früher eingeführt und galt verstärkt der 300er sowie der Fury-Serie um deren ungewöhnliches Taktverhalten unter bestimmten Lastszenarien zu "normalisieren".

Unter den gelösten Problemen nennt AMD nun einen Workaround, der heruntertaktende Radeon-GPUs betrifft, deren volle Leistung eigentlich benötigt würde. Dazu wurde ein Power Efficiency Toggle in die Radeon Settings integriert, bei dessen Deaktivierung die GPUs nicht mehr fälschlicherweise ihren GPU-Takt senken sollen. Dadurch wiederum sollen Ruckler und Bildfehler behoben werden. In den kommenden Crimson-Treibern soll das Problem richtig behoben werden und die Effizienzoption für einzelne Spieler einstellbar sein.
http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/News/163-Beta-Performance-Verbesserungen-1188752/

N0Thing
2017-10-13, 02:22:53
Dann hatte ich das wohl falsch in Erinnerung.

gedi
2017-10-13, 02:36:50
Das Problem mit dem Überfahren der Leistungsaufnahme auf dem PEG-Steckplatz der RX 480 Referenzkarte wurde von AMD (unsichtbar) per Treiber gefixt.
http://www.pcgameshardware.de/Polaris-Codename-265453/News/Radeon-RX-480-Fix-PEG-Leistungsaufnahme-1200744/

Der Power-Efficiency Schalter hingegen wurde bereits viel früher eingeführt und galt verstärkt der 300er sowie der Fury-Serie um deren ungewöhnliches Taktverhalten unter bestimmten Lastszenarien zu "normalisieren".

http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/News/163-Beta-Performance-Verbesserungen-1188752/

Lies mal den letzten Satz deines Zitats. Ich bin mir eigentlich zu einhundert Prozent sicher, dass es da einen entsprechenden Schalter gab (ich hatte ja mal ne P10 verbaut gehabt). Wie das Ding jetzt allerdings hieß - keine Ahnung mehr :redface:

von Richthofen
2017-10-13, 03:07:56
(ich hatte ja mal ne P10 verbaut gehabt).

Ich ja auch. Du meinst den Compatibility Mode Schalter, den gab's (gibt's?) auch :freak:.

https://www.google.de/imgres?imgurl=https%3A%2F%2Fwww.pcper.com%2Ffiles%2Fimagecache%2Farticle_max_wid th%2Freview%2F2016-07-07%2Fdriver.png&imgrefurl=https%3A%2F%2Fwww.pcper.com%2Freviews%2FGraphics-Cards%2FAMD-Radeon-RX-480-Power-Consumption-Concerns-Fixed-1671-Driver&docid=gtlXtOuuh1W4lM&tbnid=fnFpMuQWFkrkHM%3A&vet=10ahUKEwjG0oGwsezWAhXMVxoKHb6gCQYQMwiAAShQMFA..i&w=602&h=294&bih=607&biw=1280&q=crimson%20power%20efficiency%20switch&ved=0ahUKEwjG0oGwsezWAhXMVxoKHb6gCQYQMwiAAShQMFA&iact=mrc&uact=8https://scr3.golem.de/screenshots/1607/Radeon-RX-480-Compatibility-Mode/thumb620/Compatibility-Mode.png

https://www.golem.de/news/radeon-rx-480-erneut-vermessen-treiber-reduziert-stromstaerke-auf-peg-slot-1607-122008.html

Gefühlt hat nach der Einführung des zweiten Schalters selbst hier im 3DC kaum einer mehr durchgeblickt, was AMD da so alles auf den User loslässt.
Wird langsam OT.

yamamoto_dc
2017-10-13, 07:32:57
Bei mir mit einer Vega 64 gibt es jedenfalls weder einen Power Effficiency Schalter noch einen Compability Mode Schalter. An dem Taktverhalten gibt es von meiner Seite nichts auszusetzen. Im 2D Mode geht die Karte kaum über 100MHz, selbst wenn ich ein Fenster mit einem laufenden Youtube-Video über den 4K-Desktop Screen schiebe. (Gerade ausprobiert)

Daredevil
2017-10-13, 13:36:02
Er hat ungeschickter weise den V2 benutzt. Der ist präziser, aber hat mehr input lag. ;)
Was? wtf. Wir sind im AMD Thread. :D

Hübie
2017-10-13, 13:44:22
Ja, ups. :redface: Egal. Aussage ist gültig.

Edit: Heute werden wir hier ne V64 mit liquid metal verarzten. Ergebnisse kommen dann, also stay tuned. :D

yamamoto_dc
2017-10-13, 15:21:31
Air cooled oder Liquid cooled? Ich bin jedenfalls gespannt. :biggrin:

Hübie
2017-10-13, 16:37:42
Liquid Edition. :D Wir machen gerade Vorbereitungen.

N0Thing
2017-10-13, 17:09:50
Warum den ausgerechnet bei Vega mit dem empfindlichen Die liquid metal? Mir wäre es viel zu riskant, wenn man doch nochmal den Kühler demontieren muss/will.

Bin aber trotzdem gespannt, ob und was die Umrüstung bringt. :D

Loeschzwerg
2017-10-13, 18:11:51
Ach, wenn die Karte einen Vega10 mit entsprechendem Molding hat, dann ist die Sache nicht zwingend gefährlicher :)

yamamoto_dc
2017-10-13, 18:30:43
Was kann denn dabei schiefgehen? Mal abgesehen davon, dass diese Legierungen elektrisch leiten und metallische Oberflächen angreifen können? :biggrin:

horn 12
2017-10-13, 19:17:56
AMD hat schlussendlich alles Richtig gemacht,
Vega RX 56 Preis tief angesetzt, Performance wird von Treiber zu Treiber besser und die Karten gehen schlussendlich doch teurer an den Mann für knapp 500 Euro.

Da wird sich NV durch die Sperre der GTX 1070TI grün und blau ärgern müssen !!

Grendizer
2017-10-13, 19:29:05
AMD hätte alles richtig gemacht, wenn 2 Monate nach Release mal klar wäre, wann Custom Designs kommen werden.

Hübie
2017-10-13, 19:36:48
Also Ersteindruck: Temps sind besser geworden. Details folgen. Tabellen, Fotos und Videos haben wir natürlich ebenfalls gemacht. Gerade läuft der burn-in. :D Ohne zuviel verraten zu wollen, kann ich sagen man spart ~300 rpm um die Temp zu halten.

ps: Leider hatten wir mit einigen Problemen und Abstürzen durch die Treiber und das Mainboard zu kämpfen. Das verzögerte alles ein wenig.

Edit: Typo: 300 nicht 400 RPM!

dargo
2017-10-13, 20:05:25
Und wenn dann Features wirklich benötigt werden, dann Supportet Volta diese auch

Irgendwelche Schnellschüsse nur um sich Monate lang den Mund fusselig zu reden(asynchron, primitive bla bla ec pp, dafür sind andere im Markt die so arbeiten

Bildlich gesprochen wie der Kampf gegen Windmühlen , nur das es der Don immer noch nicht begreift, das er hier vorgeführt wird immer u immer wieder

Neues Schlagwort für Wolfenstein ist ja nun Fp16, die nächste große Windmühle, auf dem steinigen Weg
Nö... vor Wolfenstein 2 kommt The Evil Within 2 mit DX11 ohne den ganzen Features die Vega weiter beschleunigen und oh Wunder wieder heißt es Vega56 = GTX1080.
http://www.pcgameshardware.de/The-Evil-Within-2-Spiel-61047/Specials/The-Evil-Within-2-Techink-Test-Benchmarks-1241032/

Und es ist sogar eine Referenz Vega56 vs. eine Custom GTX1080 die mit 250Mhz höher als die Referenz taktet. :wink: In höheren Auflösungen siehts für die GTX etwas besser aus.

Edit:
Witzigerweise steht hier Custom GTX1060 6GB = Custom RX470 4GB, was ich unter DX11 gar nicht erwartet hätte.

Kartenlehrling
2017-10-13, 20:32:59
Naja das Spiel ist CPU-Abhängig, klebt im CPU Limit selbst unter 1440p, das ist doch Grütze.

=Floi=
2017-10-13, 20:34:17
AMD hat schlussendlich alles Richtig gemacht,
Vega RX 56 Preis tief angesetzt, Performance wird von Treiber zu Treiber besser und die Karten gehen schlussendlich doch teurer an den Mann für knapp 500 Euro.

Da wird sich NV durch die Sperre der GTX 1070TI grün und blau ärgern müssen !!

Sperre?


Das alles kannst du getrost streichen.
-teurere fertigung
-größerer chip
-höherer verbrauch, bei gleicher leistung
-zig monate später auf dem markt
-noch kein modell mit kleinerem chip und gleicher architektur für den massenmarkt


es gibt noch 12 karten für den horn hype train

Screemer
2017-10-13, 20:37:28
Sperre = kein Werks oc durch nv erlaubt. So bericjten einige Seiten.

horn 12
2017-10-13, 20:46:36
Exakt!
AMD lockt NV ähnlich Intel aus dem Glas-Häuschen hervor!

dargo
2017-10-13, 20:55:03
Naja das Spiel ist CPU-Abhängig, klebt im CPU Limit selbst unter 1440p, das ist doch Grütze.
Möchte ich nicht widersprechen, es ist aber DX11. ;)

Gimmick
2017-10-13, 21:01:59
Möchte ich nicht widersprechen, es ist aber DX11. ;)

Quantum Break hat auch schon trotz GPU Limit nur 75% GPU Auslastung gebracht. Wurde dann gefixt.
Würde da erstmal nichts reindeuten.

=Floi=
2017-10-13, 22:34:16
AMD lockt NV ähnlich Intel aus dem Glas-Häuschen hervor!

würden sie kontern, hätten wir 1070 um 300€ 1080 um 400€ und die 1080ti um 600€
Die "kontern" mit dem 1070ti dreck der nicht der rede wert ist.

Kriton
2017-10-13, 22:54:22
Er hat ungeschickter weise den V2 benutzt. Der ist präziser, aber hat mehr input lag. ;)

Ich muss mich outen: Was meinst Du in diesem Kontext mit V2?

aufkrawall
2017-10-13, 22:55:56
Nvidia fps-Limiter im Treiber, der leider nicht besonders zugänglich ist und zig Leute Unsinn empfehlen lässt.

dargo
2017-10-13, 23:27:50
Quantum Break hat auch schon trotz GPU Limit nur 75% GPU Auslastung gebracht. Wurde dann gefixt.
Würde da erstmal nichts reindeuten.
Möglich ist vieles. Ich fands halt wieder amüsant. Besonders da dildo die Benchmarks der PCGH von The Evil Within 2 im Status Quo nicht verlinkt hat. Sonst ist er auch immer der erste... oder nur wenn Nvidia gut da steht? ;)

Hübie
2017-10-13, 23:27:53
Kurzes Update: Durch den (Beta?) Treiber sind Daten wahrscheinlich nicht verwertbar, aber Tabellen und Graphen sind erstellt. Folgen dann hier.
Eben z.B. wurden hier über 1200 Watt Verbrauch der GPU angezeigt. :freak: Dazu kommen so witzige Sachen wie: FPS-Limiter raus = 50-65 fps, FPS-Limiter bei 73 = 65-73 fps. Verbrauch voher 309 Watt, jetzt 260 Watt (gemittelt über 30 Sekunden).

Keine Ahnung ob Battlefield im Multiplayer so stark schwankt, aber solcher Ausreißer finden wir dann doch schon extrem.

@Kriton: Das ist die neue Version mit stärkerem framemetering als zuvor. Finde den nicht so gut. Ich nutze immer ingame oder V1.

yamamoto_dc
2017-10-14, 00:05:36
Sehr schön, das ist jetzt das dritte Spiel in Folge, bei dem Vega eine sehr gute Figur macht. Ich hoffe mal der Trend hält. :smile:

Hübie
2017-10-14, 00:14:48
Möglich ist vieles. Ich fands halt wieder amüsant. Besonders da dildo die Benchmarks der PCGH von The Evil Within 2 im Status Quo nicht verlinkt hat. Sonst ist er auch immer der erste... oder nur wenn Nvidia gut da steht? ;)

Den AMD-Part übernimmst du ja. ;D

Also heute fiel mir wieder auf, dass AMD auf einem guten Weg ist, aber noch einiges zu tun hat. Wobei das verwendete Mainboard wahrscheinlich auch eine Fehlerquelle ist und wahrscheinlich ausgetauscht wird. In unserem Testzyklus war auch die Soundkarte mal weg. Bekanntes Problem bei Gigabyte. Na ja und bezüglich Vega muss halt der Treiber noch optimiert werden. Da passt so einiges bei den Einstellungen nicht.

yamamoto_dc
2017-10-14, 00:18:20
Die Radeon Software hat wirklich noch ein paar Glitches, daher fummele ich auch nicht mehr viel daran herum, sondern geniesse einfach meine Spiele. Die Leistung ist auch so gut genug. :smile:

dargo
2017-10-14, 00:24:21
Den AMD-Part übernimmst du ja. ;D

Gerne... einer muss ja für Gleichgewicht sorgen. ;)

gedi
2017-10-14, 01:01:51
Vega hat schon seine Pros, allerdings gibt es auch ein paar Dinge zu kritisieren und damit meine ich noch nicht mal den Lüfter, da habe ich schon weitaus Schlimmeres erlebt.

Meine Cons:

- 750W Netzteil sollte es wohl sein um etwaige Lastspitzen abzufangen
- Treiber noch Buggy - Wattman drives me crazy
- lediglich ein HDMI-Port
- 32GB wünschenswert für HBCC


Die Pros:

- HBCC (Killerfeature)
- HDR 10-Bit ohne Performanceeinbußen
- Sehr gutes P/L (wenn man wie ich eine V64 für 500€ ergattern kann)
- durch UV bereits deutliches Performanceplus erreichbar (hier dauerhafte 1.592G bei 1.05V)
- HBM2
- Zukunftssicher: FP16-Support und voraussichtlich noch bessere Performance durch ausgereifte(re) Treiber + aktivierte Features, DX12, Vulcan und AC.

Hübie
2017-10-14, 01:08:59
Die Radeon Software hat wirklich noch ein paar Glitches, daher fummele ich auch nicht mehr viel daran herum, sondern geniesse einfach meine Spiele. Die Leistung ist auch so gut genug. :smile:

Ja, schon. Nur wir brauchen ja eine Basis und die sollte eben eine fixe Drehzahl sein. So können wir sehen ob Taktpotenzial freigesetzt wurde oder ob die Temps sich noch verbessert haben (oder eben beides).
Das PT wurde ebenfalls auf +50% angehoben (weil foenfrisur einfach so auch zockt).

@dargo: Touché :D

gedi
2017-10-14, 01:13:58
Ja, schon. Nur wir brauchen ja eine Basis und die sollte eben eine fixe Drehzahl sein. So können wir sehen ob Taktpotenzial freigesetzt wurde oder ob die Temps sich noch verbessert haben (oder eben beides).
Das PT wurde ebenfalls auf +50% angehoben (weil foenfrisur einfach so auch zockt).

@dargo: Touché :D

Das PT würde ich nur soweit anziehen, bis das Takttarget durchgängig erreicht wird. Macht sich zum Einen beim Verbrauch und zum Anderen bei den Lastspitzen sehr positiv bemerkbar. Mir reichen für annähernd 1.6G + 19% - nur so z.B. :)

Armaq
2017-10-14, 01:35:44
Ich finde es wieder bedenklich, dass bei PCGH direkt ein Disclaimer im Header verbaut wird. Warum steht da nicht, AMD performt sehr gut bei diesem Spiel zum jetzigen Zeitpunkt? Nvidia hat Optimierungspotential, damit keiner meckert.

horn 12
2017-10-14, 07:22:54
Nun, Meine Erfahrung nach gut 2 Wochen Nutzung meiner Vega 64 Silver
Das Powerlimit Stelle ich nurmehr auf +30% da sonst die Karte zu heiss wird >85 Grad mit dem Referenz Lüfter
Mit den besagten 30% PL und Untervolting halte ich zu den 2400 U/Min stets die 1500 bis 1528 Mhz bei Sniper Elite 4 in 4K und auch Whitcher 3 in 4K...
Ergänzung folgt ....

yamamoto_dc
2017-10-14, 07:49:58
Ich finde es wieder bedenklich, dass bei PCGH direkt ein Disclaimer im Header verbaut wird. Warum steht da nicht, AMD performt sehr gut bei diesem Spiel zum jetzigen Zeitpunkt? Nvidia hat Optimierungspotential, damit keiner meckert.

Mann will die vielen NV-Besitzer halt nicht verärgern, sind halt viele Clicks die man sonst in den Wind schreiben kann, wenn die Dauerhaft abwandern. So ist es halt.

Aber mal was anderes: Gibt es hier Vega-Besitzer mit VR-Brillen? Mich würde interessieren wie Vega in VR so läuft, da ich mir bald wieder eine Brille anschaffen will. Ich hatte früher mal ein DK2, habe es aber nach einer Weile wieder verkauft.

Grendizer
2017-10-14, 08:29:42
Mann will die vielen NV-Besitzer halt nicht verärgern, sind halt viele Clicks die man sonst in den Wind schreiben kann, wenn die Dauerhaft abwandern. So ist es halt.

Aber mal was anderes: Gibt es hier Vega-Besitzer mit VR-Brillen? Mich würde interessieren wie Vega in VR so läuft, da ich mir bald wieder eine Brille anschaffen will. Ich hatte früher mal ein DK2, habe es aber nach einer Weile wieder verkauft.


Der Einschub kommt halt nach den Erfahrungen mit Forza 7 in der deutlichen Zugewinnen von nVidia innerhalb weniger Tage.

dargo
2017-10-14, 08:38:38
- 750W Netzteil sollte es wohl sein um etwaige Lastspitzen abzufangen

Was für Lastspitzen? :confused:

http://www.tomshardware.de/vega-benchmarks-performance-leistungsaufnahme-temperaturen,testberichte-242382-16.html
http://www.tomshardware.de/vega56-benchmark-leistungsaufnahme-effizienz-lautstarke,testberichte-242384-15.html

ecodriver
2017-10-14, 09:37:28
Was für Lastspitzen? :confused:

http://www.tomshardware.de/vega-benchmarks-performance-leistungsaufnahme-temperaturen,testberichte-242382-16.html
http://www.tomshardware.de/vega56-benchmark-leistungsaufnahme-effizienz-lautstarke,testberichte-242384-15.html

Die Lastspitzen sind so kurz (ms) das Sie von jedem Netzteil abgefangen werden.
Steht auch so im Artikel, wenn man ihn den liest.

Hübie
2017-10-14, 10:24:59
Man muss auch bedenken dass wir hier nur die Graka betrachten. Lastspitzen entstehen vom gesamten System. Viel Leistung hat bei Netzteilen noch nie geschadet, da die meisten bei mittlerer Last die höchste Effizienz aufweisen.

=Floi=
2017-10-14, 10:59:28
Mann will die vielen NV-Besitzer halt nicht verärgern, sind halt viele Clicks die man sonst in den Wind schreiben kann, wenn die Dauerhaft abwandern. So ist es halt.


wenn ihr mal eure dummen sprüche sparen würdet. :facepalm:
Das ist wieder so ein brainfuck satz.

Bei NV wird die GPU nicht voll ausgelastet und deswegen ist man langsamer. Fertig.

dildo4u
2017-10-14, 12:43:33
Jup ich würde einfach auf ein Treiber fix warten,als die Forza 7 Benches kamen hieß es auch Vega ist ein Monster in dem Game,der Nachtest sieht Vega 64 hinter 1080.

https://www.computerbase.de/2017-10/nvidia-geforce-387.92-neuer-treiber-pascal-vega/

scully1234
2017-10-14, 12:53:32
Nö... vor Wolfenstein 2 kommt The Evil Within 2 mit DX11 ohne den ganzen Features die Vega weiter beschleunigen und oh Wunder wieder heißt es Vega56 = GTX1080.
http://www.pcgameshardware.de/The-Evil-Within-2-Spiel-61047/Specials/The-Evil-Within-2-Techink-Test-Benchmarks-1241032/
.

Ist das dann die selbe Rückschlussfalle, in der man bei Forza schon getappt ist?

Oder meinst du das Treiberteam bleibt untätig?

Das Ergebnis ist erstaunlich: Die Nvidia-GPUs werden nur sehr mäßig ausgelastet und je niedriger die Auflösung sowie die Effekte, desto weniger gut wird die Leistung der Grafikkarte genutzt.

Etwas längere Konstanz als vermutlich wieder 10 Tage ,und der ein oder andere wäre gewillt das vielleicht sogar zu schlucken, aber so wird das nix

horn 12
2017-10-14, 12:59:48
@dildo4u

Dann warte doch auf einen weiteren AMD Treiber, den Performance,- Sprich Horn Treiber schlechthin.

Noebbie
2017-10-14, 13:12:19
edit: wrong thread, sry

gedi
2017-10-14, 13:17:30
Was für Lastspitzen? :confused:

http://www.tomshardware.de/vega-benchmarks-performance-leistungsaufnahme-temperaturen,testberichte-242382-16.html
http://www.tomshardware.de/vega56-benchmark-leistungsaufnahme-effizienz-lautstarke,testberichte-242384-15.html

Die merkt man ohne zu messen: Setting: 1.075V, PT 50%, Steigerung 4%, Ram 1050, anliegen tun min. 1.63G

Gespielt wird Froza 7 4k Ultra mehrere Stunden ohne Probleme, danach PC2 4k maxed out ohne SSAA ohne Probleme (läuft erstaunlich gut auf Vega - hätte ich nicht gedacht, also kein Vergleich zu Hawaii und Polaris mit PC1), surft dann ein bisschen (Graka ist wieder bei ~30°C), startet dann den 3DMark und schwups schaltet das Netzteil ab. Passiert hier reproduzierbar mit max. Powerlimit :mad:

@Scully

Ein Forza läuft in 4k zwar mit ~15FPS weniger als mit einer 1080Ti, allerdings sind die Frametimes besser. Mit HDR dreht sich das Spiel, die Frames sind nun identisch, die Frametimes auf einer Ti machen das Spiel allerdings annähernd unspielbar. 4k+200% Resolution-Scaling geht allerdings auf einer Ti erstaunlich gut und Vega ist (vermutlich, ich habs noch nicht probiert) hier zu langsam dafür.

Hübie
2017-10-14, 17:46:06
So hier dann mal die Ergebnisse unserer (foenfrisur und meine Wenigkeit) gestrigen WLP-Aktion. Es wurde die Standard-Paste gegen Grizzly Conductonaut (https://www.caseking.de/thermal-grizzly-conductonaut-fluessigmetall-waermeleitpaste-1-gramm-zuwa-153.html) (Liquid Metal) getauscht und zuätzlich ein wenig Artic MX-4 (https://www.caseking.de/arctic-mx-4-waermeleitpaste-4g-zuwa-073.html) auf die Pads aufgetragen.

ANMERKUNG: Durch merkwürdiges Treiberverhalten, Auuslesefehlern und Probleme mit der Auslastung sind nur diese Werte hier aus der Tabelle vergleichbar - in der Praxis ergab sich ein etwas anderes Bild, da mit Framelimiter die Auslastung stieg (ja verrückt, ich weiß!!) und die Lüfterdrehzahl nicht fixiert war. Der Unterschied war hier etwas deutlicher.

tl;dr
Durch den Wechsel konnte kaum Performance gewonnen, jedoch eine niedrigere Drehzahl im Automatikmodus erreicht werden und vor allem ging der Energieverbrauch zurück, was auf deutlich gesenkte Leckströme hinweist.

Vorbereitung

Testlauf mit Standardpaste, PT +50%/Lüfter 1900 Upm, BF1 MP, gemittelt über 30 Sekunden nach ~15 minütiger Warmlaufphase, Rest siehe Tabelle

|GPU Core Clock [MHz]|VDDC [V]|GPU Memory Clock [MHz]|GPU Temperature [°C]|GPU Temperature (Hot Spot) [°C]|HBM Temperature [°C]|Liquid Temperature [°C]|Fan Speed [RPM]|Fan Speed [%]|GPU Load [%]|GPU only Power Draw [W]|Memory Usage (Dedicated) [MB]|Memory Usage (Dynamic) [MB]
Durchschnitt|1729|1,190|1035|55|80|55|51|1908|44|85|309|4225|73


https://abload.de/thumb/01eingebautsls3p.jpg (http://abload.de/image.php?img=01eingebautsls3p.jpg)

Demontage

Die V64 LC ist schon ein interessantes Stück Technik und wirklich gut verarbeitet, da kann man nix gegen sagen. Die Abdeckung ist zwar ein Resonanzkörper (übrigens aus einem Stück gefertigt!), aber das fiel jetzt nicht negativ auf. Das Fiepen der Pumpe und der Spulen wir nicht bzw. nicht deutlich nach außen "getragen".
Wenn ich mich nicht verzählt habe sind es insgesamt 24 Schrauben die man lösen muss um Kühler und Abdeckung abzunehmen. Neuer Rekord!

Bilder sagen mehr als Worte:

https://abload.de/thumb/02ausgebautp1skl.jpg (http://abload.de/image.php?img=02ausgebautp1skl.jpg) https://abload.de/thumb/03anschlsse6wstm.jpg (http://abload.de/image.php?img=03anschlsse6wstm.jpg) https://abload.de/thumb/02schraubenlsenmusrc.jpg (http://abload.de/image.php?img=02schraubenlsenmusrc.jpg) https://abload.de/thumb/04baseplatelsenuosg2.jpg (http://abload.de/image.php?img=04baseplatelsenuosg2.jpg) https://abload.de/thumb/05baseplateyxsbj.jpg (http://abload.de/image.php?img=05baseplateyxsbj.jpg) https://abload.de/thumb/08gpugereinigtidxlp.jpg (http://abload.de/image.php?img=08gpugereinigtidxlp.jpg)

Auftragen der Paste

Man darf wirklich nur Stecknadelkopf-große Kugeln auf beide Seiten auftragen, da dies schon eine völlig ausreichende Menge ist. Zur Sicherheit wurden mit nicht-leitender Paste sämtliche SMD rund um den Die eingehüllt.

https://abload.de/thumb/09konduktonautavs6x.jpg (http://abload.de/image.php?img=09konduktonautavs6x.jpg) https://abload.de/thumb/11liquidmetalaufgpuy5sde.jpg (http://abload.de/image.php?img=11liquidmetalaufgpuy5sde.jpg) https://abload.de/thumb/12verteilenuysfi.jpg (http://abload.de/image.php?img=12verteilenuysfi.jpg) https://abload.de/thumb/13kupferseite6xs5w.jpg (http://abload.de/image.php?img=13kupferseite6xs5w.jpg) https://abload.de/thumb/14liquidmetalverteilt2bsqy.jpg (http://abload.de/image.php?img=14liquidmetalverteilt2bsqy.jpg)

Montage

Dabei sollte eigentlich nur beachtet werden, dass das Kreuz auf der Rückseite auch über Kreuz angezogen wird. Ansonsten gab es keine Schwierigkeiten.

Burn-In

Nach dem Auftragen ist erst einmal ein Burn-In angesagt, damit das Flüssigmetall sich ordentlich verteilen kann. Anschließend folgte eine Abkühlphase von ca. einer Stunde.

https://abload.de/thumb/15burnin80svw.jpg (http://abload.de/image.php?img=15burnin80svw.jpg)

Testlauf

Im Ergebnis stellten wir fest, dass laut den Messungen deutlich geringere Ströme fließen und der Takt etwas höher ging.

|GPU Core Clock [MHz]|VDDC [V]|GPU Memory Clock [MHz]|GPU Temperature [°C]|GPU Temperature (Hot Spot) [°C]|HBM Temperature [°C]|Liquid Temperature [°C]|Fan Speed [RPM]|Fan Speed [%]|GPU Load [%]|GPU only Power Draw [W]|Memory Usage (Dedicated) [MB]|Memory Usage (Dynamic) [MB]
Durchschnitt|1756|1,200|1035|52|82|52|50|1915|44|78|260|4254|79


https://abload.de/thumb/16zusammenfassung2uuru.jpg (http://abload.de/image.php?img=16zusammenfassung2uuru.jpg)

Fazit

In der Summe kann man also sagen, dass der Einsatz von 15€ für die Konduktonaut in ~4-5% verbessertem Verhalten resultiert. Der automatische Regel-Algorithmus zur Leistungssteigerung erledigt sozusagen den Rest. Ohne fixierter Drehzahl gingen die RPM um etwa 300 zurück ohne dass die Temperatur stieg.

Das Basteln hat mal wieder Spaß gemacht und war vor allem lehrreich und interessant. :up:

Kumulierter Zugewinn aus Takt, Temperatur und Verbrauch [%]|Durchschnittlicher Zugewinn aus Takt, Temperatur und Verbrauch [%]
25,85%|3,69%

Digidi
2017-10-14, 18:15:01
@Hübie
Sehe ich das Richtig dein Chip hat kein Molding?

Hübie
2017-10-14, 18:20:58
Doch hat der, aber weniger als ich es kenne. Ist foenfrisur seine Karte. ;)

Hier erkennt man es beim zoomen:

http://www.abload.de/browseGallery.php?gal=sN4jN1Lw&img=11liquidmetalaufgpuy5sde.jpg

Das füllt jedenfalls nicht die Lücken aus und die Ecken beim Die sind ebenfalls nicht umgeben (läuft halt nicht bis an die Oberkante).

Digidi
2017-10-14, 18:26:59
Doch hat der, aber weniger als ich es kenne. Ist foenfrisur seine Karte. ;)

Hier erkennt man es beim zoomen:

http://www.abload.de/browseGallery.php?gal=sN4jN1Lw&img=11liquidmetalaufgpuy5sde.jpg

Das füllt jedenfalls nicht die Lücken aus und die Ecken beim Die sind ebenfalls nicht umgeben (läuft halt nicht bis an die Oberkante).
Du hast definitive nicht den voll gemoldeten Chip du hast einen Chip der zwischen drin liegt.

dargo
2017-10-14, 19:13:03
Ist das dann die selbe Rückschlussfalle, in der man bei Forza schon getappt ist?

Oder meinst du das Treiberteam bleibt untätig?

Na zumindest schwächelt es schon mal wenn zum Release das Game auf Nvidia nicht zufriedenstellend läuft. Sonst war das doch das Totschlagargument schlechthin für Nvidia. :rolleyes: Mal ganz davon ab... Vega ist auch nicht voll ausgelastet. Und wenns am CPU-Limit liegt... was ist mit dem DX11-Wundertreiber von NV passiert? :P

Die merkt man ohne zu messen: Setting: 1.075V, PT 50%, Steigerung 4%, Ram 1050, anliegen tun min. 1.63G

Gespielt wird Froza 7 4k Ultra mehrere Stunden ohne Probleme, danach PC2 4k maxed out ohne SSAA ohne Probleme (läuft erstaunlich gut auf Vega - hätte ich nicht gedacht, also kein Vergleich zu Hawaii und Polaris mit PC1), surft dann ein bisschen (Graka ist wieder bei ~30°C), startet dann den 3DMark und schwups schaltet das Netzteil ab. Passiert hier reproduzierbar mit max. Powerlimit :mad:

Naja... ich bezog mich auf Default Vegas und keinen Supersäufer wie du ihn wohl betreibst. ;)

Hübie
2017-10-14, 19:24:17
Du hast definitive nicht den voll gemoldeten Chip du hast einen Chip der zwischen drin liegt.

Korrekt. Aber wie gesagt ist das nicht meine Karte. :smile: Es steht "Made in Korea" drauf. Keine Ahnung ob man daraus was ableiten kann. Iirc lag eine der drei Assembly-Fabs noch in China oder Malaysia...

gedi
2017-10-14, 20:26:35
Na zumindest schwächelt es schon mal wenn zum Release das Game auf Nvidia nicht zufriedenstellend läuft. Sonst war das doch das Totschlagargument schlechthin für Nvidia. :rolleyes: Mal ganz davon ab... Vega ist auch nicht voll ausgelastet. Und wenns am CPU-Limit liegt... was ist mit dem DX11-Wundertreiber von NV passiert? :P


Naja... ich bezog mich auf Default Vegas und keinen Supersäufer wie du ihn wohl betreibst. ;)

Als ob eine UV-Vega mehr braucht als eine Default :freak:

horn 12
2017-10-14, 20:38:04
Vega 17.10.1 Treiber nun drauf und als gut befunden.
2.550 Umdrehungen Pro Minute fix eingestellt,- ist gleich, entspricht Lüfterspeed 44%

GPU untervoltet zu 0,950 1516 Mhz und 0,975 zu den 1632 Mhz
HBM 2 Untervoltet auf 0,950

PowerLimit erhöht auf 50%

Netzteil BeQuiet E9 CM 550 Watt
mit 2 Harddisk 3 TB und 640 MB
2x 120mm Lüfter
16 GB DDR3 und dem i5 4670K @Stock
und eben der Vega RX 64 _ Gigabyte Silver

Takt bei The Witcher 3 in 4K ist 1505 bis 1515 Mhz stabil und auch stets gehalten
GPU Temperatur 79 bis 80 Grad
HBM 2 84 Grad
HotSpot 89 bis 92 Grad.

Lüfter stört, und auch nicht wenig! aber mit 2100 Umdrehungen sind es nur 1,20 bis 1,25 Ghz.
Dies ist mir aber doch zu wenig Speed, von den Taktraten aus gesehen...

NETZTEIL, da oftmals danach gefragt wird.
Ist jenes hier:
be quiet! Straight Power E9-CM 580W ATX 2.4 Preisvergleich geizhals.eu EU (https://geizhals.eu/be-quiet-straight-power-e9-cm-580w-atx-2-4-e9-cm-580w-bn198-a677397.html)

yamamoto_dc
2017-10-15, 00:00:54
So hier dann mal die Ergebnisse unserer (foenfrisur und meine Wenigkeit) gestrigen WLP-Aktion.


Herzlichen Dank an euch beide für den interessanten Bericht, ich werde mir das abspeichern und vielleicht auch irgendwann selbst mal nutzen. Derweil lasse ich meine Vega aber lieber unberührt, ich bin gespannt auf eure weitere Erfahrung damit. :smile:

Hübie
2017-10-15, 00:32:19
Gerne doch. Ich selber würde erst nach Ablauf der Garantie solche Stunts hinlegen, oder eben wenn mir das Geld mehr oder weniger egal ist. :D

gedi
2017-10-15, 01:57:53
@Hübie

welchen Treiber habt ihr genommen? Wurden geänderte Werte bez. der Spannung bei euch übernommen? Ich fürchte nämlich, dass bei manueller Spannungszugabe immer 1.05V anstehen, egal was man da eingibt. Das deckt sich auch mit dem was ich beim 3dQuark da rausmesse - immer 210W-255W :confused:

Lehdro
2017-10-15, 02:11:05
Ich fürchte nämlich, dass bei manueller Spannungszugabe immer 1.05V anstehen, egal was man da eingibt. Das deckt sich auch mit dem was ich beim 3dQuark da rausmesse - immer 210W-255W :confused:
War es nicht so dass die GPU Spannung immer mindestens der HBM Spannung entspricht? Also HBM Spannung runter um die GPU Spannung zu senken.

Hübie
2017-10-15, 03:06:20
@Hübie

welchen Treiber habt ihr genommen? Wurden geänderte Werte bez. der Spannung bei euch übernommen? Ich fürchte nämlich, dass bei manueller Spannungszugabe immer 1.05V anstehen, egal was man da eingibt. Das deckt sich auch mit dem was ich beim 3dQuark da rausmesse - immer 210W-255W :confused:

17.10 war das. Die Spannung wurde aber nicht angepasst. Das hat der Algorithmus gemacht. PT wurde erst übernommen, wenn es einmal auf -50 und dann +50 gesetzt wurde. Waren so komische Ungereimtheiten, die wir auf den Beta-Treiber zurückführen.

yamamoto_dc
2017-10-15, 09:21:39
Gerne doch. Ich selber würde erst nach Ablauf der Garantie solche Stunts hinlegen, oder eben wenn mir das Geld mehr oder weniger egal ist. :D

Ja, ich kann mir vorstellen, dass ich in ein paar Jahren die Vega auf Wakü umbaue, dann ist Liquid Metal natürlich eine interessante Option. :smile:

horn 12
2017-10-15, 09:43:46
In ein Paar Jahren gibt es schon Navi
Auch ich bereue, Zumindest ein wenig dass ich nicht zur Liquid Cooling gegriffen habe, zwecks der Lautstärke.

dargo
2017-10-15, 09:44:45
Du bist auch in der Beziehung ziemlich lernresistent. :)

horn 12
2017-10-15, 09:54:08
Nun, bei meinen Derzeitigen Gehäuse wäre dies nicht gegangen...

Hübie
2017-10-15, 10:36:58
Also die Relation aus Takt und Lautstärke ist die LC die beste Option. Die wildert allerdings preislich eben in der Region der 1080 Ti, welche in 99,9% der Metriken besser ist. Also kann man sie nur empfehlen wenn man Freesync hat oder AMD liebt. :D

Zergra
2017-10-15, 10:46:20
Stimmt, mir war die Air auf dauer auch zu Laut. Denke übernächste Woche müsste der FC- Custom Wasserkühler ankommen. Bin dann für die Wasserkühlung nur für die Karte bei ca. 210€ inkl allem, ohne das ich vorher Material dafür hatte. Damit kann ich ganz gut leben.

G3cko
2017-10-15, 10:53:17
Mit einer guten Wakü halten die Komponenten auch ewig. Meine Pumpe läuft seit C2Q Tagen ca 6 Std pro Tag. Der Heatkiller wurde mit 15€ für Sockel 2011 umgerüstet. Wenn ich eine neue Wakü aufbauen würde, dann gleich Mora extern mit Schnellkupplungen und kompakten ITX oder ATX.

yamamoto_dc
2017-10-15, 11:12:10
In ein Paar Jahren gibt es schon Navi
Auch ich bereue, Zumindest ein wenig dass ich nicht zur Liquid Cooling gegriffen habe, zwecks der Lautstärke.

Ich behalte meine Grafikkarten normalerweise lange, die Vega könnte sich dann in einem WaKü-Wohzimmer-PC gut machen. Fury ist bereits, und die RX 580 wandert dann in die Kisten für die Kinder. Meine drei Kinder leben, was Gaming-Systeme angeht, im Schlaraffenland. ;D

horn 12
2017-10-15, 11:31:38
Was hast für Deine Fury (Sapphire) noch bekommen
Meine findet derzeit keine Käufer mehr, habe 2 Wochen eben zu lange gezögert ...
HOFFE der Kollege schlägt zu für 275 Euro ...

Kriton
2017-10-15, 12:17:20
Nun, bei meinen Derzeitigen Gehäuse wäre dies nicht gegangen...

Ich dachte Du wolltest Vega gleich in ein neues Gehäuse setzen.

Hübie
2017-10-15, 12:33:43
Mission failed X-D

BeetleatWar1977
2017-10-15, 12:50:59
kurzer Bericht von Vega56@ Vega64 Bios....

Speicher geht problemlos bei 1100Mhz :eek:

bei gleichem PT taktet die Karte etwas niedriger - klar der Speicher braucht mehr^^

erreichbarer Coretakt - unverändert, für 1650 brauch ich 1120mV, bei 1700 sinds 1200mV.....

gedi
2017-10-15, 12:57:10
War es nicht so dass die GPU Spannung immer mindestens der HBM Spannung entspricht? Also HBM Spannung runter um die GPU Spannung zu senken.

HBM-Spannung? Ich glaube der Wert, welcher zur Verfügung steht, gilt für den Exposer. Ich habe gelesen, dass die Werte für die 2 höchsten PSates nicht gleich sein dürfen, sonst Crash. Ich versuche es heute Abend mal mit dem AB.

fondness
2017-10-15, 13:02:52
Habe testweise eine Vega 64 LC hier liegen. Und eins muss ich gleich mal los werden: Bester Referenzkühler ever für eine >=250W Karte. Kaum hörbar und gute Temperaturen, kein fiepen mehr wie bei der Fury bei mir wahrnehmbar. Verarbeitung extrem hochwertig. Dafür zahle ich gerne auch etwas mehr, vom China-Plastikmüll hat man irgendwann genug. Und eine Air, wo man dann selbst Hand anlegen muss, weil sie sonst zu laut ist, ist unterm Strich dann auch nicht billiger.

Zergra
2017-10-15, 13:07:52
HBM-Spannung? Ich glaube der Wert, welcher zur Verfügung steht, gilt für den Exposer. Ich habe gelesen, dass die Werte für die 2 höchsten PSates nicht gleich sein dürfen, sonst Crash. Ich versuche es heute Abend mal mit dem AB.
Spannungen dürfen unter den P States nicht gleich sein, sonst gibt es grundsätzlich Probleme.

Hübie
2017-10-15, 13:18:29
Habe testweise eine Vega 64 LC hier liegen. Und eins muss ich gleich mal los werden: Bester Referenzkühler ever für eine >=250W Karte. Kaum hörbar und gute Temperaturen, kein fiepen mehr wie bei der Fury bei mir wahrnehmbar. Verarbeitung extrem hochwertig. Dafür zahle ich gerne auch etwas mehr, vom China-Plastikmüll hat man irgendwann genug. Und eine Air, wo man dann selbst Hand anlegen muss, weil sie sonst zu laut ist, ist unterm Strich dann auch nicht billiger.

Absolut. Bis 1500 Upm echt angenehm und die Materialgüte lässt erahnen, dass da nicht gegeizt wurde. Wobei ich die Referenzkühler seit der RX 480 zumindest in punkto Materialgüte als gut einstufe. Imo läuft Vega bei 200-220 Watt im Betriebsoptimum.

horn 12
2017-10-15, 15:13:38
Ebenso die RX Vega 64 Silver ist Optimalst Hochwertig verarbeitet und wohl die Beste AMD Referenz Karte bis dato.
Nur der ALU Körper lässt die Karte lauter erscheinen als sie definitiv ist, da wie bereits richtig berichtet als Resonanzkörper verkommt.

gedi
2017-10-15, 15:13:47
17.10 war das. Die Spannung wurde aber nicht angepasst. Das hat der Algorithmus gemacht. PT wurde erst übernommen, wenn es einmal auf -50 und dann +50 gesetzt wurde. Waren so komische Ungereimtheiten, die wir auf den Beta-Treiber zurückführen.

Danke für den Tipp mit dem PT. Das PT wurde hier zwar sofort übernommen, die Spannungen tatsächlich erst, wenn man das PT auf -50% gesetzt hat :freak:

hq-hq
2017-10-15, 15:27:04
Nur der ALU Körper lässt die Karte lauter erscheinen als sie definitiv ist

:freak: okay, eigentlich ist sie sogar noch leiser, weil der in Betrieb befindliche Radiallüfter sie lauter erscheinen lässt, als sie definitiv ist! :biggrin:

schön wenn jemand so begeistert von neuer HW ist
hab ja noch keine in echt gesehen, sieht aber wirklich hochwertig aus :smile:

dargo
2017-10-15, 16:22:03
Nun, bei meinen Derzeitigen Gehäuse wäre dies nicht gegangen...
Welches war das nochmal? CS 601? Geht nicht gibts nicht!
http://www.pcmasters.de/news/133771-cs-601-120mm-front-luefter.html

Ein bissel dremeln und bohren, gut säubern (am besten mit Druckluft) und fertig ist der Lack. ;)

gedi
2017-10-15, 17:03:23
Ich probiere heute Abend mal V_Bios2 aus. Damit sollten kleinere Werte als 1.05V (real 1.037V) drin sein. Mit 1.125V sind auch hier 1.7G möglich, allerdings wird der Takt nur kurz gehalten und ich lande im Temp-Limit bei 85°C :redface:

Umbauen auf eine WaKü würde ich wahrscheinlich nur, wenn jemand seine LC-WaKü verkauft, denn selbst die Black sieht imo schlicht schön aus :)

Megamember
2017-10-15, 17:05:46
Welches war das nochmal? CS 601? Geht nicht gibts nicht!
http://www.pcmasters.de/news/133771-cs-601-120mm-front-luefter.html

Ein bissel dremeln und bohren, gut säubern (am besten mit Druckluft) und fertig ist der Lack. ;)

Was du Horn alles zutraust ;D

horn 12
2017-10-15, 17:11:02
Nope
Ist ein ThermalTake Matrix VX
und im DVD Schacht ist ein Thermaltake 3x in HD Cage
verbaut.

Eben,- aber nimmer lange bis Windows 10 und RyZen System.

Zergra
2017-10-15, 17:40:32
Umbauen auf eine WaKü würde ich wahrscheinlich nur, wenn jemand seine LC-WaKü verkauft, denn selbst die Black sieht imo schlicht schön aus :)
Das geht nicht so einfach, da müsstest du die Pins ändern, da die LC andere Anschlüsse hat. Oder du musst da was basteln.

gedi
2017-10-15, 17:41:48
Ich dachte die Platinen wären identisch :(

Zergra
2017-10-15, 17:58:56
Ich dachte die Platinen wären identisch :(

Nein, schau dir mal im AMD Vega Review Thread die Platine von Achill an, die hat einen 8Pin.

RoughNeck
2017-10-15, 18:15:29
Ebenso die RX Vega 64 Silver ist Optimalst Hochwertig verarbeitet und wohl die Beste AMD Referenz Karte bis dato.
Nur der ALU Körper lässt die Karte lauter erscheinen als sie definitiv ist, da wie bereits richtig berichtet als Resonanzkörper verkommt.

Das wusstest du aber schon vorher.
Hat ja Löschzwerg nicht nur 1x geschrieben aber du bist resistent gegen jede Beratung. Hättest die LC genommen, hättest eine ruhige Vega.
Da du dich aber vehement weigerst das Case zu wechseln, kann ich nur schreiben selbst schuld.

Raff
2017-10-15, 18:31:07
Habe testweise eine Vega 64 LC hier liegen. Und eins muss ich gleich mal los werden: Bester Referenzkühler ever für eine >=250W Karte. Kaum hörbar und gute Temperaturen, kein fiepen mehr wie bei der Fury bei mir wahrnehmbar. Verarbeitung extrem hochwertig. Dafür zahle ich gerne auch etwas mehr, vom China-Plastikmüll hat man irgendwann genug. Und eine Air, wo man dann selbst Hand anlegen muss, weil sie sonst zu laut ist, ist unterm Strich dann auch nicht billiger.

Ich stimme absolut zu, bin seit meinen ersten Tests auch ziemlich angetan und suche seit einigen Wochen nach einem guten Angebot. Angesichts des Dursts ist die Karte wirklich überraschend leise und sogar fast schnell. :D

MfG,
Raff

horn 12
2017-10-15, 18:40:00
Nun, die RX Vega 64 LC wäre nochmals 130 Euro teurer gewesen, zudem mein Angebotspreis für Vega 64 539 Euro gleich weg und abverkauft war.
Custom kann ich immer noch wechseln, rechne stark: bleibe aber der Silbernen Treu.

Gimmick
2017-10-15, 19:22:50
Gibt es irgendwo einen Vega VCE <-> NVENC Vergleich? Ich finde dazu nichts.

=Floi=
2017-10-15, 22:25:09
Ich stimme absolut zu, bin seit meinen ersten Tests auch ziemlich angetan und suche seit einigen Wochen nach einem guten Angebot. Angesichts des Dursts ist die Karte wirklich überraschend leise und sogar fast schnell. :D

MfG,
Raff

warum ist der kleine radi so gut?

Hübie
2017-10-15, 22:38:08
Na ja die Wassertemperatur geht bis auf 35°C rauf (Sommer). Ne normale Wakü bleibt bei einem Delta von wenigen Grad. Im Kern kommen über 80°C zustande. Der ist also nicht gut sondern wird einfach wärmer. Durch die Dicke hat der natürlich auch noch etwas mehr Oberfläche. Reicht aber.

gedi
2017-10-16, 12:30:48
Mal eine Frage zwecks der angeblichen DX11-Schwäche und Vega: Kann es sein, dass sich da im Vergleich zu Polaris einiges getan hat, oder liegt es am Win 1709? Selbst ein GTA V zeigt hier eine Auslastung von durchweg 96-99%, ein ROTRR läuft in DX12 immer voll aufgedreht, PC2, PUBG, C2, C3, ... - in keinem Game Probleme mit der Auslastung.

Okay, kein Spiel auf meiner Platte lässt die Radeon so schlucken wie PUBG und trotzdem läuft es wirklich grottenmäßig schlecht. An der Auslastung liegt es in diesem Game allerdings nicht. Der Rest läuft (z. T. viel) besser als erwartet.

Es wäre super, wenn sich einige Redaktionen sich dem Thema annehmen könnten.

dildo4u
2017-10-16, 12:44:37
Projekt Cars 2 läuft immer noch grottig wenn der Wetter Shader das Game nicht GPU Limitiert.

http://www.pcgameshardware.de/Project-Cars-2-Spiel-55773/Specials/Benchmark-Test-Grafikkarten-1238952/

Hier hängt es am Anfang auch bei 80-90fps wie bei PCGH.

https://youtu.be/ZGIkcv69fB4

Wird dir nicht auffallen wenn du 1440p oder 4k nutzt.

gedi
2017-10-16, 12:45:39
Ich spiele nur in 4K :D und außerdem habe ich da 20FPS mehr, als PCGH da gemessen hat - bei identischem Setting.

dildo4u
2017-10-16, 12:57:06
Gibt nur noch wenige wirklich CPU Lastige Game's,da zu 90% alles von Konsole kommt.Außerdem kombiniert wohl kaum einer Vega mit einer langsamen CPU,das Problem fiel früher öfter auf da bis 2016 Viele noch Quads ohne SMT gekauft haben.

Daredevil
2017-10-16, 13:00:25
Vega56 für für 449€
Vega64 für 549€

https://www.mindfactory.de/Highlights/MindStar

Bei solchen "Angebots" Preisen, kann man wohl echt das warten sein lassen und sich ne Liquid holen. Scheint wohl echt ein Geheimtipp zu sein, wenn schon zwei PCGH Redakteure damit liebäugeln. :D

PS: Ne Liquid für 669€
https://www.alternate.de/XFX/Radeon-RX-VEGA-Liquid-Grafikkarte/html/product/1388602?

Schlammsau
2017-10-16, 16:00:44
Immer noch viele zu viel für diesen Referenz Brüllwürfel.

Grendizer
2017-10-16, 16:03:43
Vega56 für für 449€
Vega64 für 549€

https://www.mindfactory.de/Highlights/MindStar

Bei solchen "Angebots" Preisen, kann man wohl echt das warten sein lassen und sich ne Liquid holen. Scheint wohl echt ein Geheimtipp zu sein, wenn schon zwei PCGH Redakteure damit liebäugeln. :D

PS: Ne Liquid für 669€
https://www.alternate.de/XFX/Radeon-RX-VEGA-Liquid-Grafikkarte/html/product/1388602?


Wobei bei diesen Versandrückläufern vermutlich die Übertaktungs- /UV Ergebnisse nicht so berauschend sind.

Raff
2017-10-16, 16:53:51
Noch ein Hunni weniger und ich nehme die Liquid. :D

MfG,
Raff

hmmm
2017-10-16, 17:33:14
Noch ein Hunni weniger und ich nehme die Liquid. :D

MfG,
Raff
NOCH nen Hunni weniger? Sorry, aber dann würde ich mindestens 2 nehmen.
Aber echt, noch nen Hunni weniger? Glaube wir alle müssen mehr PCGH Magazine kaufen, dann geht es dir auch besser. ;)

Raff
2017-10-16, 17:51:25
Leider gibt's da keine Erfolgsbeteiligung, die ganzen Überstunden lassen sich also nicht direkt messen. ;)

MfG,
Raff

Grendizer
2017-10-16, 18:28:12
Leider gibt's da keine Erfolgsbeteiligung, die ganzen Überstunden lassen sich also nicht direkt messen. ;)

MfG,
Raff

Bei Elex liegt die Vega 56 27% hinter der 1080. Die Liquid auf dem gleichen Niveau (der 1080) FHD

http://www.pcgameshardware.de/Elex-Spiel-55815/Specials/Benchmark-Test-Review-Release-1241036/

Auf 4k sind es 16%.

Th3o
2017-10-16, 18:46:49
Dafür, dass die Grafik nicht der Überflieger ist, ist die Performance bei allen Karten nicht der Renner.

Schnoesel
2017-10-16, 19:35:59
Bei Elex liegt die Vega 56 27% hinter der 1080. Die Liquid auf dem gleichen Niveau (der 1080) FHD

Die Nvidia Karten sind aber OC Karten, also das sollte man dann doch noch erwähnen. Eine 1080FE wird sicher nicht mit 1911Mhz boosten.

In neuen Titeln scheint AMD mit Vega ihre Hausaufgaben gemacht zu haben (wenn man Vega auch intern gegen die 1080 stellt). Bei der Rohleistung auf Niveau der Ti ist das leider das alte Thema. Wenn die nur mal die Rohleistung umsetzen könnten.

Blediator16
2017-10-16, 19:38:06
Bei Elex liegt die Vega 56 27% hinter der 1080. Die Liquid auf dem gleichen Niveau (der 1080) FHD

http://www.pcgameshardware.de/Elex-Spiel-55815/Specials/Benchmark-Test-Review-Release-1241036/

Auf 4k sind es 16%.

Räudige Perf. bei dem Aussehen.

Kriton
2017-10-16, 19:38:39
Bei Elex würde ich aber auch vermuten, dass die Möglichkeiten des Studios eine nicht unerhebliche Fixierung auf Nvidia bedeutet haben. Insofern unschön, aber vermutlich tatsächlich eher ein SW-Thema.

Blediator16
2017-10-16, 19:41:50
Bei Elex würde ich aber auch vermuten, dass die Möglichkeiten des Studios eine nicht unerhebliche Fixierung auf Nvidia bedeutet haben. Insofern unschön, aber vermutlich tatsächlich eher ein SW-Thema.

Ich finde nicht, dass Nvidia Karten da eine besonders gute Perf. haben.

dildo4u
2017-10-16, 19:42:32
Bei Elex würde ich aber auch vermuten, dass die Möglichkeiten des Studios eine nicht unerhebliche Fixierung auf Nvidia bedeutet haben. Insofern unschön, aber vermutlich tatsächlich eher ein SW-Thema.
Das Game performt nicht sonderlich in eine oder die andere Richtung.

https://www.computerbase.de/2017-10/elex-benchmark/


Und es gibt Konsolen Versionen macht null Sinn die Engine auf NV Hardware zu zu schneiden.

Kriton
2017-10-16, 19:48:48
Ich habe nicht gesagt, dass es auf Nvidia gut läuft, sondern, dass sie bei ihren Ressourcen für den PC eher auf Nvidia achten (so dass es im Verhältnis besser läuft).

Und es gibt Konsolen Versionen macht null Sinn die Engine auf NV Hardware zu zu schneiden.

Auch wenn das Elex nicht betrifft: Das sage doch bitte mal Epic mit ihrer Unreal-Engine.

Raff
2017-10-16, 20:49:31
Fürs Protokoll: Das einzige Piranha-Bytes-Spiel, das auf Geforce-Karten wesentlich besser läuft als auf vergleichbaren Radeons, ist Risen 3 Enhanced Edition. Die neuen Shader haben AMD-Karten damals gar nicht geschmeckt, nachdem Risen 3 "vanilla" sehr konkurrenzfähig lief.

Wenn man etwas weiter zurückblickt, erinnert man sich an Gothic 3. Das hatte auch ein Faible – für Shader-Leistung, egal welchen Herstellers. :) Ich erinnere mich gut daran, wie die GF7-Serie und, eingeschränkt, auch die R500-Karten, später vom R580 und den GF8-Chips überrannt wurden. Shit, das ist nun sehr offtopic. :D

MfG,
Raff

Schnoesel
2017-10-16, 21:29:11
Gott diese Ruckler bei Gothic 3 und ich habs trotzdem gezockt in Version 1.0 (die Dialoge teilweise... göttlich) . Wurde aber zurecht wegne der Perfomance massiv kritisiert. Ich glaube das haben die nie gelöst.

Kriton
2017-10-16, 21:45:50
OT:
War Gothic 3 nicht von einem indischen Studio?

horn 12
2017-10-16, 22:35:34
Der Preisverfall geht weiter
Weit ist man nicht mehr weg von den 520 Euro ... und die Silver hatte ja 549 Dollar Listenpreis.

https://www.wireshop.it/xfx-radeon-rx-vega-64-1693360.html?utm_source=trovaprezzi&utm_medium=cpc&utm_campaign=feed-trovaprezzi

hq-hq
2017-10-16, 22:53:53
OT:
War Gothic 3 nicht von einem indischen Studio?

nein, aber das Addon Götterdämmerung :freak:



die Performance in Elex ist ja wirklich gruslig :freak:

Preisverfall, ich seh das nur bei dem "heute kaufen" so günstig, ist mir unbekannt

yamamoto_dc
2017-10-16, 23:01:33
Der Markt für das Referenzdesign ist mittlerweile gesättigt, es tut sich da nicht mehr viel im Verkauf, wer eine Referenzkarte wollte, hatte genug Gelegenheit eine zu bekommen. Es wird Zeit, dass langsam die Custom-Modell auf den Markt kommen. Apple müsste ja inzwischen beliefert worden sein.

Loeschzwerg
2017-10-17, 07:33:16
die Performance in Elex ist ja wirklich gruslig :freak:


Immerhin endlich ein DX11 Renderer. Letztendlich ist das gebotene für so ein kleines Studio eine gute Leistung :) Flüssig läuft es und zur Not dreht man bei UHD etwas das Ambient Occlusion zurück.

Kernskalierung ist ebenfalls gut. In meinen Augen kann man da wenig bemängeln.

Fury X kann noch ziemlich gut mithalten.

horn 12
2017-10-17, 07:42:00
Wie zufrieden bist nun mit deiner RX Vega 64 Limited Edition
und auch zwecks des Lüfters
Wie sind Deine Settings und auch die Lüfterkurve eingestellt...

Welches Bios fährst Du und wie hoch lässt die Karte takten ?
Auch mit Ultra HD unterwegs ?

Loeschzwerg
2017-10-17, 08:16:34
An der Lüfterkurve habe ich nichts verändert d.h. die Karte geht maximal auf 2400rpm.
Karte läuft aktuell im Power Save @ Bios 1, also 165Watt. Die Leistung reicht mir vollkommen für 1440p. Bios 2 entspricht bei meiner Karte dem Bios 1, wurde so ausgeliefert.

UV ist 1000mV @ GPU/HBM stabil, aber der WattMan speichert die Einstellungen nicht richtig, weshalb ich jetzt einfach mit dem Power Save fahre (keine Lust nach jedem Neustart die Einstellungen setzen zu müssen).
OC ist mir nicht wichtig, schon gar nicht wenn ich damit die Effizienz total in den Boden fahre. Da sind mir die letzten AMD Karten eh zu sehr auf max. getrimmt.

Die Karte erfüllt ihren Zweck und ich bin gespannt was u.a. HBCC noch liefern wird.

Lasse ich meine Affinität zu Technik und den Zwang durch meinen FreeSync Monitor aus dem Spiel, es wäre vermutlich eine NV Karte geworden.

foenfrisur
2017-10-17, 08:44:45
schon jemand den neuen fall creators treiber mit dem w10 getestet?
ist das nun wddm 2.3?

mfg

Loeschzwerg
2017-10-17, 08:56:39
https://forums.guru3d.com/threads/amd-crimson-relive-edition-beta-for-windows%C2%AE-10-fall-creators-driver-download-discussion.417373/#post-5482454

Jup, WDDM 2.3

Igor TH
2017-10-17, 16:40:43
Ich spiele gerade mit einer Custom Vega64 herum, die immerhin anhand der Kühlerbefestigung auch von außen erraten lässt, ob das Package nun gemoldet ist, bzw. nicht. Mit vier Schrauben hat man ein gemoldetes, bei sechs Scharuben ist es ungemoldet. Ist aber nur für einen Hersteller so gültig:

https://i.imgur.com/PN9MU0Q.jpg

Dass keine Karten kommen, liegt auch an AMDs Technikern, die den Boardpartnern bisher immer noch keine verbindlichen Specs fürs Werks-OC überlassen haben. Immerhin geht es ja auch um RMA und Produktsicherheit und keiner der verbliebenen Partner möchte sich da unabgesichert aus dem Fenster lehnen. Die warten seit August... Manchmal hat man das Gefühl, da wird mit Absicht gebremst... :(

Das PVT-Sample oben ist seit Anfang August fertig und man wartet nun schon fast den dritten Monat auf den Produktionsstart. Das Einzige, was noch einmal geändert wurde, ist die Kühlerabdeckung, weil man das Produkt mittlerweile aus der Top-End-Kategorie optisch und namenstechnisch ins Mittelfeld zurückgestuft hat.

N0Thing
2017-10-17, 16:44:45
Hat kein Hersteller Interesse an einer Sweet Spot Karte? Oder wenigstens einer leiseren Alternative zur Referenzkarte?

x-force
2017-10-17, 16:53:54
Dass keine Karten kommen, liegt auch an AMDs Technikern, die den Boardpartnern bisher immer noch keine verbindlichen Specs fürs Werks-OC überlassen haben. Immerhin geht es ja auch um RMA und Produktsicherheit und keiner der verbliebenen Partner möchte sich da unabgesichert aus dem Fenster lehnen.

wie muss man sich das vorstellen?
haftet amd, wenn der aib zu sehr übertaktet und es nicht stabil läuft?