PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

pilzsammler2002
2017-12-14, 22:46:10
Bevor Sapphire mit EVGA mithalten kann müssten sie erstmal Sachen wie optionale Garantieverlängerung+Erweiterung anbieten oder vorab Austausch bei Defekt.

Hmmm dagegen spricht die Aktion mit den Thermalpads die sie sich geleistet haben... Das war nicht 100%ig

Digidi
2017-12-14, 22:57:23
Bei mir startet wolfenstein nicht mehr wenn ich async abschalte hmm. Bei dir auch dargo?
wollte auch die max fps mal wieder testen anstelle von 450fps pack ich jetzt gerade mal so noch 400. wäre mal interssant ob das bei Nvidia nun auch so ist nach dem update

Hier getraut sich jemand was:
http://www.pcgameshardware.de/Vega-Codename-265481/News/AMD-Radeon-RX-Vega-Primitive-Shader-DSBR-Beschwerden-1245870/

pilzsammler2002
2017-12-14, 23:18:44
Wenn pcgh zu 100% weiss das Primitive nicht da ist ok... Der Rest hat als Quelle ja nur den shitstorm auf reddit :D

-=Popeye=-
2017-12-14, 23:30:04
Bei mir startet wolfenstein nicht mehr wenn ich async abschalte hmm. Bei dir auch dargo?
wollte auch die max fps mal wieder testen anstelle von 450fps pack ich jetzt gerade mal so noch 400. wäre mal interssant ob das bei Nvidia nun auch so ist nach dem update

...


Wie wäre es mit zurück blättern oder im Spiel Thread nachzuschauen?

btw. max Spiel FPS sind 1000.

hq-hq
2017-12-15, 00:37:41
besteht Hoffnung, das bei einer nagelneuen Vega FE LC nadeldruckerartige
Geräusche - vermutlich von der Pumpe - sich nach ein wenig Einlaufzeit
geben... hab das pompöse Stück leider nicht selber hier :frown:

vinacis_vivids
2017-12-15, 01:11:47
Alter Schwede...

Fazit nach dem erwarteten bugfix:
Vega64 > 1080Ti
Vega56 ~ 1080Ti

Rampage 2
2017-12-15, 04:03:42
Ist Vega64 bzw. GCN5 bzw. der Treiber jetzt soweit gefixt/ausgereift, dass wenigstens *ein Teil* der brachliegenden Performance ausgeschöpft werden kann?

Zu Release war V64 ja noch schlimmer als die R600 damals - obwohl sie von der Rohleistung, der neuen Architektur und den interessanten neuen GCN-Features (DSBR, Primitive Shader, etc.) aus gesehen gleichauf oder sogar deutlich schneller als GP102 sein müsste...

Wenn ich an Vega denke, kommen mir sofort die Worte "schade" und "brachliegende Innovationen" ein - fast so wie bei 3dfx damals...:frown:

R2

Daredevil
2017-12-15, 05:08:17
Hach Leute... wenn mGPU mal ohne Probleme funktionieren würde. :(

Dark Souls 4k Max Settings:

Stock Voltage - Bios2
Vega 56 Turbo Mode: 31 FPS, 170w GPU, 384w System, 2206RPM, 1310 MHz
Vega 64 Turbo Mode: 34 FPS, 230w GPU, 470w System, 2396RPM, 1386 MHz

Vega 56 + 64 Crossfire @ -50% PT @ Undervolting @ Bios2 @ Power Save Mode
47Fps, 95w GPU ( Vega64 ), 430w System, 1700RPM, 770 MHz

+52% Performance
-9% Stromaufnahme
-23% Umdrehungen pro Minute

https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcR-KrgswuOP5Yrjpejf4NkiDfUV8S5iOdk_OsBBzLQbLhB6d6FECw

Aber Crossfire halt. Leistung schwankt pro Spiel, Spiel stürzt gerne auch mal ab. Ab und an peakt die Aufnahme so hoch, das sich mein System ( 650w ) abschaltet. Machste nix.

Igor TH
2017-12-15, 06:30:19
Wenn man in diesem verkorksten Wolfenstein 2 die Karten von AMD und NV vergleicht, sollte man auch bei NV den neuesten Treiber verwenden (388.59 WHQL). Gegenüber dem 388.13 sind das nämlich Welten. Und auch für den neuesten Coup, da bin ich sicher, findet Grün noch einen aktualisierten Treiber. Ich habe das gestrige Update von ca. 5GB gemacht und fürs Feeling noch einen neuen DLC durchgekloppt. Spieldauer keine Stunde und alternierend mit beiden Karten.. Der Season-Pass ist echt die Kohle nicht wert (bisher). Alles nur fade Wiederholungen. :(

Lässt man das Cherry-Picking nämlich mal emotionslos weg und misst in mehreren der verfügbaren Simulationen (SAS), dann sehe ich hier keine Vega64 deutlich vor der 1080 Ti. Oft nah dran, auch mal drüber, ja, aber in der Summe nicht schneller, als dass ich mich für so eine Aussage hergeben würde. Getestet unter gleichen Bedingungen, beide zusammen im selben System unter Wasser bei 15°C Wassertemperatur, kein OC. Es macht keinen Sinn, irgendwelche Ergebnisse aus dem Internet aufzupicken und gegeneinander zu vergleichen, dazu sind die Umstände einfach zu verschiedenen.

Bevor sich das Spiel nicht wirklich final auf einem Stand eingependelt hat, ohne dass wöchentlich irgendwelche Bugfixes folgen, ist es als seriöser Benchmark so auch nicht zu gebrauchen. Ich sage nur Doom. Das ist mittlerweile auch ohne zig Re-Benches brauchbar.

dargo
2017-12-15, 06:44:54
Fazit nach dem erwarteten bugfix:
Vega64 > 1080Ti
Vega56 ~ 1080Ti
Müsste man sich genauer anschauen. Wenn ich nur wüsste welche Szene die CB im Worst Case verwendet könnte ich es nachstellen. In jeder Szene stimmt dein Fazit allerdings gewiss nicht.

@igor
Vega fehlen in Wolf 2 noch ca. 10%, AC on bremst nämlich. Und wenn AC auf GCN richtig funktionieren würde wären es eher ~20% die da noch fehlen.

fondness
2017-12-15, 07:12:43
Wenn man in diesem verkorksten Wolfenstein 2 die Karten von AMD und NV vergleicht, sollte man auch bei NV den neuesten Treiber verwenden (388.59 WHQL). Gegenüber dem 388.13 sind das nämlich Welten. Und auch für den neuesten Coup, da bin ich sicher, findet Grün noch einen aktualisierten Treiber. Ich habe das gestrige Update von ca. 5GB gemacht und fürs Feeling noch einen neuen DLC durchgekloppt. Spieldauer keine Stunde und alternierend mit beiden Karten.. Der Season-Pass ist echt die Kohle nicht wert (bisher). Alles nur fade Wiederholungen. :(

Lässt man das Cherry-Picking nämlich mal emotionslos weg und misst in mehreren der verfügbaren Simulationen (SAS), dann sehe ich hier keine Vega64 deutlich vor der 1080 Ti. Oft nah dran, auch mal drüber, ja, aber in der Summe nicht schneller, als dass ich mich für so eine Aussage hergeben würde. Getestet unter gleichen Bedingungen, beide zusammen im selben System unter Wasser bei 15°C Wassertemperatur, kein OC. Es macht keinen Sinn, irgendwelche Ergebnisse aus dem Internet aufzupicken und gegeneinander zu vergleichen, dazu sind die Umstände einfach zu verschiedenen.

Bevor sich das Spiel nicht wirklich final auf einem Stand eingependelt hat, ohne dass wöchentlich irgendwelche Bugfixes folgen, ist es als seriöser Benchmark so auch nicht zu gebrauchen. Ich sage nur Doom. Das ist mittlerweile auch ohne zig Re-Benches brauchbar.

Und was bringt das, wenn Nvidia wie auch in Doom Monate später etwas aufholt? Viele haben das Spiel lange durch.

Igor TH
2017-12-15, 07:21:06
Viele werden es nie spielen. Kommt aufs selbe raus. :D

Ich würde mich auch nichts aufs Glatteis wagen und eine Liste der Spiele erstellen wollen, wo es genau umgekehrt ist. Nicht nur in NV-gesteuerten Games. Das Spiel ist reichlich unfertig, egal mit welcher Karte man darüber abkotzt. Genau das meine ich mit Maßstab. Einige nutzen es als Strohhalm, andere kennen es nicht mal.

Korfox
2017-12-15, 07:44:16
[...]Lässt man das Cherry-Picking nämlich mal emotionslos weg und misst in mehreren der verfügbaren Simulationen (SAS), dann sehe ich hier keine Vega64 deutlich vor der 1080 Ti.[...]
Du hast aber schon darauf geachtet, wer die These aufgestellt hat, oder? :)
Und was bringt das, wenn Nvidia wie auch in Doom Monate später etwas aufholt? Viele haben das Spiel lange durch.
Du drehst gerade das Hardware-Argument um.
Pro AMD:
Wozu soll ich mir eine Karte kaufen, die jetzt schon das Maximum leistet und in einem Jahr dann in jedem kommenden Spiel langsamer ist, als die AMD-Karte, deren Software noch reift und deren performance dann höher liegen wird?

Pro AMD:
Wozu soll ich mir eine Karte kaufen, die erst in einem halben Jahr ordentlich performed?

Irgendwie sollten die Leute sich halt mal entscheiden.

dargo
2017-12-15, 08:05:10
Das war nur ein kleiner Seitenhieb. Denn früher war das doch das Totschlagargument für Nvidia. ;) Und ganz neben bei... in diesem Fall reift nicht die AMD-Software sondern die Applikation. Achja... die Maximalleistung bei Vega sieht du in Wolf 2 immer noch nicht. ;)

Igor TH
2017-12-15, 08:09:24
Das Problem ist das Strohhalm-Prinzip. Es ist einerseits sicher informativ zu sehen, wie ein Spiel, das man zielgerichtet auf die eigene Hardware zuschneiden lässt, am Ende mit dieser auch richtig gut performt. Es zeigt einem nämlich auch das Potential der jeweiligen Hardware, wenn denn alles passt (was es immer noch nicht tut). Andererseits ist es aber auch fast schon peinlich, dass man es dann trotz eines solch großen zeitlichen und technischen Vorsprungs nicht von Anfang an so hinbekommt, dass es auch komplett rundläuft. Man kann es drehen wie man will, Ausgang völlig offen. :)

Und weil immer alle die Shader-Story weiter totreiten möchten:
Hier hätte AMD es doch leicht gehabt, den Krempel endlich mal zu implementieren - der Patient Spiel lag doch aufgeschnippelt und bereit zur Implantation auf dem vorweihnachtlichen Gabentisch. Ich bleibe erst mal dabei, dass man die alte Struktur einfach mithilfe des neuen flexiblen Arrays seriell emuliert Denn wenn es wie eine Art frei programmierbarer ASIC konzipiert ist, wäre es das Erste, was ich als Programmierer tun würde, zunächst den Ist-Stand zu reproduzieren um eine feste Bezugsgröße zu besitzen. Ich befürchte fast, man hat für die komplexe Geschichte das Array schlicht unterdimensioniert, so dass es wohl nicht das bringen kann, was man sich erhofft hatte. Was soll daran kaputt sein, alußer dass man es falsch dimensioniert hat? Ich kann mir nicht vorstellen, das man die konservative Shader-Pipeline parallel zum Array im Chip hat, das würde diesen nur sinnlos aufblasen und redundante Einheiten sind der Tod jeglicher Effizienz.

akuji13
2017-12-15, 08:10:54
Hmmm dagegen spricht die Aktion mit den Thermalpads die sie sich geleistet haben... Das war nicht 100%ig

Nicht 100%ig ist noch viel zu nett...das war ganz eindeutig Mist, das darf man so auch benennen. :wink:
EVGA ist auch keine heilige Kuh sondern nur ein gewinnorientiertes Unternehmen wo Fehler passieren.

Allerdings sollte man das gesamte Portfolio betrachten und die Möglichkeiten insgesamt über einen längeren Zeitraum und nicht nur einzelne Problemfälle.
Ich sage ja auch nicht das Sapphire scheiße ist weil ich mal Lüfterprobleme mit meiner 290er hatte.
Im Gegenteil: die letzten 5 AMD Karten waren allesamt von Sapphire.

besteht Hoffnung, das bei einer nagelneuen Vega FE LC nadeldruckerartige Geräusche - vermutlich von der Pumpe - sich nach ein wenig Einlaufzeit
geben... hab das pompöse Stück leider nicht selber hier :frown:

Ich kann es mir nach all den AiOs die ich auf CPUs und GPUs hatte nicht vorstellen.

dargo
2017-12-15, 08:16:06
Das Problem ist das Strohhalm-Prinzip. Es ist einerseits sicher informativ zu sehen, wie ein Spiel, das man zielgerichtet auf die eigene Hardware zuschneiden lässt, am Ende mit dieser auch richtig gut performt. Es zeigt einem nämlich auch das Potential der jeweiligen Hardware, wenn denn alles passt (was es immer noch nicht tut). Andererseits ist es aber auch fast schon peinlich, dass man es dann trotz eines solch großen zeitlichen und technischen Vorsprungs nicht von Anfang an so hinbekommt, dass es auch komplett rundläuft. Man kann es drehen wie man will, Ausgang völlig offen. :)
Es ist halt die erste Applikation die von Anfang an Richtung low level ging. Da sind paar Bugs vorprogrammiert. Ich denke die Entwickler sind immer noch in einer Lernphase und für den nächsten LL-Titel von Bethesda Softworks mit idTech 6 nimmt man die Erfahrungen mit. Für mich ist das übrigens kein Strohhalm sondern die Zukunft.

horn 12
2017-12-15, 08:16:47
Sapphire schiesst den Vogel wiederum ab
Kaum Billiger als Asus Stix RX Vega 64

Meine RX 64 Silver Referenyz koennte ich wohl 1 zu 1 mit der Sapphire tauschen OHNE Verlust zu machen ... ...
und da muss ich in meinem Verkaufs Thread die Mwst. normalerweise abziehen.
Ebay waere da mal weitaus besser angebracht.

Schaffe89
2017-12-15, 08:19:54
Und was bringt das, wenn Nvidia wie auch in Doom Monate später etwas aufholt? Viele haben das Spiel lange durch.

Damals als ich Doom gesuchtet habe war AMD monatelang mit OpenGL weit langsamer, also das Argument ist ziemlich dünn.
Aber ich muss heute mal Wolfenstein 2 auf ner RX480 inkl. Freesync ausprobieren.

Es ist halt die erste Applikation die von Anfang an Richtung low level ging.

Ich würde RapidPackedMath und Shader Intrinsics nicht unbedingt mit Low Level verbinden, das sind doch dann eher wieder AMD exclusive Geschichten.
Und wieviel die bringen steht in den Sternen.
Wenn das 20% sind, dann steht Vega eher wieder nicht sogut da, also da muss man einfach abwarten.

Igor TH
2017-12-15, 08:24:19
Für mich ist das übrigens kein Strohhalm sondern die Zukunft.Mit Strohhalm meine ich nicht die LL-Orientierung, sondern die Art und Weise, wie sich manche an den einzelstehenden Leuchtturm klammern und das zur wolkenkratzenden Flächenbebauung hochpauschalisieren. Bis das mal alles rund läuft, sind wir zwei, drei Generationen weiter, mindestens. Und dann bliebe immer noch abzuwarten, was die Lederjacke aus dem Ärmel rauskramt (oder auch nicht). :)

Ich begrüße das als Trend durchaus, warne aber gleichzeitig, hier zu viele Emotionen zu verschwenden. Wenn es MS samt seiner Markt und Markenenpräsenz noch nicht mal mit DX12 gelungen ist, waum sollten jetzt alle Hals über Kopf auf die neue API aufspringen? Die Kohle wird in der Masse verdient. Mit Technologieträgern allein geht man pleite.

akuji13
2017-12-15, 08:24:40
Sapphire schiesst den Vogel wiederum ab
Kaum Billiger als Asus Stix RX Vega 64

:confused:

Warum sollte Sapphire deutlich günstiger sein?

Igor TH
2017-12-15, 08:27:51
Verstehe ich auch nicht. Die Herstellkosten dürften deutlich höher sein.

pilzsammler2002
2017-12-15, 08:27:57
Hier getraut sich jemand was:
http://www.pcgameshardware.de/Vega-Codename-265481/News/AMD-Radeon-RX-Vega-Primitive-Shader-DSBR-Beschwerden-1245870/

Warum erscheint die News nicht mehr auf der Startseite? :freak:

Edit:
Komisch, gestern Abend und bis heute morgen war sie nicht vorhanden auf der Startseite sondern konnte nur über direktlink oder Suche angebrowst werden :(
Jetzt ist sie wieder da...

horn 12
2017-12-15, 08:29:40
Weil sie Premium Anbieter sind und den Preis hoch halten wollen
Dies war zu Fury Zeit auch nicht present und man hat enormen Kuehler gebaut und der Preis war hoch aber angemessen.
Man munkelt bei uns in Italien bereits mit Preisen von 679 bis 719 Euro und dies ist mal 120 bis 160 Euro zu teuer.
559 bis 579 Euro ware angebracht und stuende RX Vega verdammt gut zu Gesicht als Custom Loesung und zwischen GTX 1080 und GTX 1080TI

dargo
2017-12-15, 08:30:47
Ich begrüße das als Trend durchaus, warne aber gleichzeitig, hier zu viele Emotionen zu verschwenden. Wenn es MS samt seiner Markt und Markenenpräsenz noch nicht mal mit DX12 gelungen ist, waum sollten jetzt alle Hals über Kopf auf die neue API aufspringen? Die Kohle wird in der Masse verdient. Mit Technologieträgern allein geht man pleite.
Was ist MS nicht gelungen? Alles was von den MS-Studios an AAA-Titeln kommt hat nur noch einen DX12 Renderer. ;) Und da du gerade die Masse ansprichst... die Masse hat keine High-End Hardware. Gerade diese Masse profitiert unheimlich von low level.

Igor TH
2017-12-15, 08:33:03
Das habe ich nie bestritten. Doch verglichen mit allen aktuellen Titeln ist die Anzahl echter DX12-Titel schon arg rar. Da reichen meine Hände, um das zusammenzubekommen. Und die aufgepfropften DX12-Renderpfade mancher Spiele sind eher peinlich statt ressourcenschonend. ;)

Verglichen mit der Einführung von Windows 10 - was schätzt Du, wie viele Grafikkartengenerationen noch ins Land gehen, bis das mal in der Überzahl implementiert sein wird? Da bin ich in Rente oder schon tot, fürchte ich.

dargo
2017-12-15, 08:40:41
Verglichen mit der Einführung von Windows 10 - was schätzt Du, wie viele Grafikkartengenerationen noch ins Land gehen, bis das mal in der Überzahl implementiert sein wird? Da bin ich in Rente oder schon tot, fürchte ich.
Da die Umstellung der Engines aktuell voll im Gange ist dürfte es nicht mehr lange dauern. Schauen wir mal was die nächsten Projekte zeigen. Du wirst es sicherlich noch erleben. ;)

btw.
Weil du gerade Windows 10 ansprichst. Low level setzt kein Windows 10 voraus dank Vulkan. Sowohl DX12 als auch Vulkan können wunderbar neben einander laufen. Hat bei den alten DX Versionen und OpenGL auch funktioniert. Die Entwickler können dann entscheiden was sie nehmen. Hauptsache man trennt sich endlich von den Altlasten @DX11 und OpenGL.

Igor TH
2017-12-15, 08:58:49
btw...Hat bei den alten DX Versionen und OpenGL auch funktioniert. Die Entwickler können dann entscheiden was sie nehmen. Hauptsache man trennt sich endlich von den Altlasten @DX11 und OpenGL.Du wirst lachen, als ich noch als Programmierer gearbeitet habe, hatte ich teilweise sogar beides in der Software. Nachteil von DirectX: es war einfach zu ungenau. Single Precision ist der Tod bei großen Projekten. Ressourcensparend ja, aber bei großen Meshs "blitzte" es dann schon mal ordentlich. OpenGL ging bestens in Double (allerdings bedeutend langsamer) und ich habe nicht selten die kompette Berechnung erst mit den OpenGL Libs gemacht und dann erst die finale Szene quasi umkopiert. Transformationen mit DirectX waren echt grausam. Wie schön Low-Level Grafikprogrammierung funktionieren konnte, weiß ich noch aus DOS-Zeiten. Es ist heute noch erstaunlich, wie effizient man viele Dinge lösen könnte.

Th3o
2017-12-15, 09:08:34
@horn 12
Ich würde mir eine Vega 64 für 650€ wohl auch nicht kaufen. Aber durch den Verkaufsgewinn bei der Vega 56 von 200€ würde sie mich nur ca. 450€ kosten. Im übrigen glaube ich, dass die Miner auch 650€ bezahlen werden, die sind z.Z. außer Rand und Band. Irgendwie erinnert mich das ganze an die Dotcom-Blase um die Jahrtausendwende.

pilzsammler2002
2017-12-15, 09:16:52
@horn 12
Ich würde mir eine Vega 64 für 650€ wohl auch nicht kaufen. Aber durch den Verkaufsgewinn bei der Vega 56 von 200€ würde sie mich nur ca. 450€ kosten. Im übrigen glaube ich, dass die Miner auch 650€ bezahlen werden, die sind z.Z. außer Rand und Band. Irgendwie erinnert mich das ganze an die Dotcom-Blase um die Jahrtausendwende.

Das ist wahr. Aber gefühlt gibt es alle ~10 Jahr ne Blase...
1990 - Immobilien in japan z.B.
>2000 - Dotcom
2007-9 - Immobilien
2018 - Crypto???? :biggrin:

Denke mal die wird noch länger anhalten und den nicht Minern halt etwas die GPU Preise verderben :/

horn 12
2017-12-15, 09:20:37
Also C0 und C1 sind die beiden Release Steppings für die 64er, kommen aber aus unterschiedlichen Produktionsstätten. Anscheinend wurde in einer ( C0 ) bereits deutlich früher mit der Produktion begonnen als bei C1.

C3 war zu Beginn praktisch nur 56er, vereinzelte 64er.

Nachdem C0 und C1 zeitlich bei release verschickt wurden, wäre das für mich eine Bestätigung des obigen Aussage.

Die ersten 56er waren praktisch ALLE C3, die 56 kam aber auch 2 Wochen später 1.8 und 14.8.

Von OC und UV sind die Karten komplett gemischt, daß zu Beginn die C1 leichte Vorteile hatte, liegt einfach in der statistischen Mehrheit... viele Karten zu Beginn, viele OC User

Ich hab mal bei "meinem" Hersteller gestern abend deutlich weiter gebohrt und etwas über die nächsten Treiber erfahren..

Wirklichen Schub gibt es speziell für DX11 nicht mehr, Amd konzentriert sich primär auf DX12, bzw Vulcan.

Die primitive Shader kommen ( für vulcan ) mit einem der nächsten 3 Major Updates. Angeblich sind dieses bereits im Testing, aber trotz intensivem Betteln und Versuch mit Plätzchen zu bestechen, darf er die nicht rausrücken. Und die Mega Erwartungen, die viele an die primitive Shader haben ( von 100% leistungssteigerung) konnte er aber schon dämpfen.

Er geht von 15-25% echter Steigerung bei vulcan Titeln aus. Der Clou am ganzen, daß bei guter Vulcan Implementierung das ganze ohne Mehraufwand für den Programierer ist.

Amd hat etliche Benchmarkprogramme auf eine "Black" List gesetzt, da taktet der Treiber zügig nach unten um Thermikprobleme zu verhindern. ( Das ganze wird aber schon seit einiger Zeit z.b bei Furmark gemacht )

Würde meiner Meinung nach erklären, wieso "kühle" Karten deutlich weniger einbrechen als die Air Varianten. Obs stimmt kann ich nicht beurteilen oder ob da nur ein unfähiger Programmierer etwas aus Versehen gecodet hat

Hier mal was zu lesen...

Link
https://www.hardwareluxx.de/community/f305/amd-rx-vega-sammelthread-faq-1173167-108.html

Pirx
2017-12-15, 09:31:26
...
Die primitive Shader kommen ( für vulcan ) mit einem der nächsten 3 Major Updates. Angeblich sind dieses bereits im Testing, aber trotz intensivem Betteln und Versuch mit Plätzchen zu bestechen, darf er die nicht rausrücken. ...
:lol: vielleicht die falschen _Kekse_ gewählt?:wink:

pilzsammler2002
2017-12-15, 09:34:55
Viel wichtiger ist doch zu erwähnen das es bei den iMacs schon in Metal drin ist... Deshalb vllt die verzögerung? :D
http://creators.radeon.com/Radeon-pro-vega/#section--7

grauenvoll
2017-12-15, 09:44:19
Die primitive Shader kommen ( für vulcan ) mit einem der nächsten 3 Major Updates. Angeblich sind dieses bereits im Testing, aber trotz intensivem Betteln und Versuch mit Plätzchen zu bestechen, darf er die nicht rausrücken. Und die Mega Erwartungen, die viele an die primitive Shader haben ( von 100% leistungssteigerung) konnte er aber schon dämpfen.


Da gibt es aber auch andere Stimmen:
http://www.gamestar.de/artikel/radeon-rx-vega-gpus-bieten-nicht-alle-versprochenen-funktionen,3323596.html

pilzsammler2002
2017-12-15, 10:00:50
Da gibt es aber auch andere Stimmen:
http://www.gamestar.de/artikel/radeon-rx-vega-gpus-bieten-nicht-alle-versprochenen-funktionen,3323596.html

Da steht in jedem Satz mind. einmal "Vermuten/Vermutungen" :freak:

dargo
2017-12-15, 10:07:54
Die primitive Shader kommen ( für vulcan ) mit einem der nächsten 3 Major Updates. Angeblich sind dieses bereits im Testing, aber trotz intensivem Betteln und Versuch mit Plätzchen zu bestechen, darf er die nicht rausrücken. Und die Mega Erwartungen, die viele an die primitive Shader haben (von 100% leistungssteigerung) konnte er aber schon dämpfen.

Er geht von 15-25% echter Steigerung bei vulcan Titeln aus. Der Clou am ganzen, daß bei guter Vulcan Implementierung das ganze ohne Mehraufwand für den Programierer ist.

Also echt jetzt, muss so ein Blödsinn wirklich sein? Wer erwartet solche Größenordnungen? :freak: Die 15-25% klingen schon wesentlich realistischer.

Unicous
2017-12-15, 10:14:19
Ach kommt Leute, geben wir wirklich etwas auf horns Gebrabbel. C3-und C0-Stepping really?;D

Dass es aber auch immer wieder Wichtigtuer geben muss die denken sie kämen mit solch einem bullshit durch.:rolleyes:

Igor TH
2017-12-15, 10:17:06
Die primitive Shader kommen ( für vulcan ) mit einem der nächsten 3 Major Updates. Angeblich sind dieses bereits im Testing, aber trotz intensivem Betteln und Versuch mit Plätzchen zu bestechen, darf er die nicht rausrücken.
Seit wann ist das Luxx-Forum der heilige Gral für belastbare Fakten? Kekse? Popcorn!

Kleiner Anhang:
Das, was hier als Primitive Shader bezeichnet wird, ist ein flexibles Array von Recheneinheiten, das funktionell nicht starr "vorverdrahtet" ist, sondern individuell für bestimmte Aufgaben hin programmiert bzw. in der Funktion optimiert werden kann. Ähnlich lief es ja auch seinerzeit schon mit den Unified Shadern, wo die Nutzung/Optimierung ja schon in Richting Firmware und Treiber verschoben wurde. Nvidias Ansatz ist ein Zusammenspiel von Hardwareeinheiten, der Firmware und diversen Treiberlösungen, wobei laut einem BIOS-Entwickler der Schwerpunkt immer auf Chip und Firmware liegt. Würde man es komplett über den Treiber lösen wollen, hätte man einen fiesen Softwareoverhead, der alle Geschwindigkeitsvorteile sofort umkehren würde. Da ich mir kaum vorstellen kann, dass AMD das so viel anders lösen wird und die Steuerung komplett der Software überlässt, würde ich erst bei einem Firmware-Update wirklich hellhörig. Die haben ein Jahr lang rumgepusselt, um das Ganze zum Laufen zu bekommen - ohne greifbare Resultate. Warum sollte das jetzt in einigen Monaten plötzlich funktionieren? ich lasse mich gern eines Besseren belehren, aber momentan sieht es nicht so aus, als müsste man nur irgendeinen Schalter umlegen. Irgendetwas wird in der aktuellen Firmware schon drin sein, nur läuft es offensichtlich nicht wie erwartet. Denn mir erschließt sich auch nicht, warum es nun erst extra im Spiel extra implementiert sein müsste. Dort, wo die Pipeline sitzt, hat eine externe Software eigentlich nichts zu suchen. Dann könnte es die Software ja gleich selbst lösen und die betreffenden Teile selbst verwerfen. Diesen Ansatz verfolgen ja auch bestimmte Softwarelösungen, die mit optimerten "Polygonzerteilern" überflüssige Inhalte von vorneherein ausfiltern. Sowas hatten wir früher auch in Nutzung.

Dino-Fossil
2017-12-15, 10:17:21
redundante Einheiten sind der Tod jeglicher Effizienz.

Wow, das klingt ja fast wie das, was wir bei Vega sehen... :uponder:

Die ganze Primitive shaders Geschichte ist aktuell jedenfalls reichlich unübersichtlich - keiner weiß scheinbar so recht, wie das letzten Endes gedacht ist und AMDs Aussagen sind teils widersprüchlich.
Muss es gesondert von der Applikation angesprochen werden, oder doch generell vom Treiber? Und wenn vom Treiber, brauch es dann trotzdem erstmal eine Vulkan/DX12 Spezifikation, damit das ganze für den Entwickler überhaupt zugänglich ist?
In dem Fall, ist da überhaupt so schnell damit zu rechnen?

Unterstreicht jedenfalls mMn v.a. den Beta-Status in dem Vega losgelassen wurde.

HOT
2017-12-15, 10:19:18
Da gibt es aber auch andere Stimmen:
http://www.gamestar.de/artikel/radeon-rx-vega-gpus-bieten-nicht-alle-versprochenen-funktionen,3323596.html
Der Artikel ist ja wohl echt purer BS...
Die haben ja nicht mal verstanden, dass die VS/GS über die gleichen Einheiten laufen wie die PS :freak:

[...]

Unterstreicht jedenfalls mMn v.a. den Beta-Status in dem Vega losgelassen wurde.

Eigentlich nicht, nein. Eher im Gegenteil, das Teil scheint genau so zu sein, wie es gedacht war. Es halt ein typisches AMD-Produkt - so fortschrittlich, dass es zu seinen Lebzeiten nicht von seinen Features profitieren wird :freak:. Wie Igor immer sagt, er kommt einfach ein Jahr zu spät.

dargo
2017-12-15, 10:33:49
Unterstreicht jedenfalls mMn v.a. den Beta-Status in dem Vega losgelassen wurde.
Sehe ich nicht so. Manche Features setzen moderne APIs voraus. Was kann die Hardware dafür, dass die Software in einer PC-Umgebung immer noch zu großen Teilen Steinzeit ist?

Igor TH
2017-12-15, 10:41:51
Ihr vergesst immer, dass das, was wir heute als Low-Level-API bewundern, vor nicht allzu vielen Jahren mit genauso großem Tamtam einst abgeschafft wurde. Sogar 1992 konnte ich noch direkt mit einer Grafikkarte kommunizieren, was vieles ungemein beschleunigt hat. Das kann man zwar in der Komplexität nicht vergleichen, aber plötzlich waren dann Softwarelösungen und lahmarschige Wrapper für Bibliothek XYZ das Nonplusutra. Was habe ich mich über WinG gefreut, das mir auch unter Windows wieder direkten Hardwarezugriff erlaubte. Ist später ins GDI(+) aufgegangen und wurde zusammen mit XP beerdigt.

nairune
2017-12-15, 10:57:25
So sieht das aus. Wenn plötzlich die high-level-Programmiersprachen verteufelt würden und alle wieder mit z.B. purem C programmieren müssten, würde das auch nicht gerade Begeisterung unter vielen Entwicklern auslösen.
Ich kann nicht beurteilen, ob das auf die Grafikschnittstellen übertragbar ist, aber wenn ja, kann ich absolut verstehen, dass man nicht gerne auf den Zug aufspringt. Da müssen die großen Engines das halt einbauen und ordentlich wrappen, vorher ist das durch den Mehraufwand einfach nur ein Minusgeschäft.

Igor TH
2017-12-15, 11:00:40
/sign

Es ist vergleichbar. Als Low-Level noch in war, haben wir uns eigene Wrapper gebastelt, um die Zeit abzukürzen, wenn es ins Geld ging oder der Chef drängelte. :D

Th3o
2017-12-15, 11:04:24
Wird es heute von verschiedenen Seiten ein Sapphire Vega Review geben oder nur vom Igor? Wann kommen die 56 Customs?

Pirx
2017-12-15, 11:06:16
/sign

Es ist vergleichbar. Als Low-Level noch in war, haben wir uns eigene Wrapper gebastelt, um die Zeit abzukürzen, wenn es ins Geld ging oder der Chef drängelte. :D
Warum steigen dann überhaupt Studios auf Vulkan/DX12 um, wenn es doch das tolle DX11 gibt?

Daredevil
2017-12-15, 11:10:35
Vielleicht ja, weil es ein technischer Fortschritt ist und sie dort die Zukunft drin sehen.
"Doom läuft auf jeder Grafikkarte gut" ist jetzt nicht unbedingt ein Ruf, der dem Unternehmen und dem Spiel schadet. Nur einer muss halt damit anfangen, das wird eher ein großer schlauer Mitspieler sein der Ressourcen in sowas stecken kann als ein kleines Indie Unternehmen, welches maximal auf ihre Kohle achten muss.

So wie Apple der "Vorreiter" bei einem USB-C ähnlichen Port war, die Klinke abgeschafft hat und nun 120 hz Displays verbaut, arbeitet ID halt mit Vulkan und festigt dort seine Expertise.
AMD und Hersteller mit LL Geräten zahlen vermutlich auch den ein oder anderen Euro, damit die Entwicklung voran schreitet und sie irgendwann besser dastehen als die Konkurrenz.

PS: Das man bei ID viel Zeit in das herangehen des entwickeln eines Spiel steckt merkt man auch daran, dass Doom auf eine fucking Switch portiert werden konnte.

Dino-Fossil
2017-12-15, 11:15:26
Sehe ich nicht so. Manche Features setzen moderne APIs voraus. Was kann die Hardware dafür, dass die Software in einer PC-Umgebung immer noch zu großen Teilen Steinzeit ist?

Wenn ich Vega einen Beta-Status attestiere, dann tue ich das nicht, weil AMD auf LL-APIs setzt, die erst im Laufe der nächsten Jahre größere Verbreitung finden werden (und die erst recht auf die ordentlich Unterstützung durch die Entwickler angewiesen sind!).

Aber Fakt ist mindestens mal, dass Vega mit schlecht eingestelltem Bios, sagen wir "suboptimalen" Treibern und in homöopathischen Dosen auf den Markt kam.
Vega ist in der Referenz kein rundes Produkt - es ist eines für Bastler und Beta Tester. :tongue:

Andi Y
2017-12-15, 11:22:10
Warum steigen dann überhaupt Studios auf Vulkan/DX12 um, wenn es doch das tolle DX11 gibt?
Na ja, laut PCGH sah 2017 nicht so rosig aus für LL
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Anzahl-unterstuetzter-Titel-2017-um-die-Haelfte-gesunken-1245648/

dargo
2017-12-15, 11:26:40
Vega ist in der Referenz kein rundes Produkt - es ist eines für Bastler und Beta Tester. :tongue:
Sehe ich komplett anders. Astreine Kühlung und alles was ich spiele läuft ohne Probleme. Was brauche ich mehr an einer Grafikkarte? Soll die noch Kaffee kochen können? Oder lieber backen? :biggrin:

Igor TH
2017-12-15, 11:29:06
Schaut doch mal, wie viele "Neuerscheinungen" einen wirklich neuen Unterbau haben. Alte Engines aufzubohren bzw. einfach weiterzunutzen ist der Kostensenker Nummer Eins. Leider. Vulkan und OpenGL lassen sich ja noch relativ einfach austauschen, DirectX muss man komplett neu ansetzen. Und genau da liegt das Problem, denn es gibt kaum herausragende OpenGL-Spiele. Und solche murksigen Dinger wie die Apple-Umsetzungen von den Sims zähle ich nicht als ernstzunehmende Spiele. Das ist Schrott.

akuji13
2017-12-15, 11:33:12
Sehe ich nicht so. Manche Features setzen moderne APIs voraus. Was kann die Hardware dafür, dass die Software in einer PC-Umgebung immer noch zu großen Teilen Steinzeit ist?

Was kann der moderne Tiger Heli dafür das das Wetter in Mali so blöd ist das er nur eingeschränkt nutzbar ist?
Nix, dumm nur das der Soldat damit leben muss. :wink:

Man kann immer wunderbar innovatives machen, es könnte aber auch einfach am Markt vorbei entwickelt worden sein.
Ist halt ein typisches Henne/Ei Problem.

Na ja, laut PCGH sah 2017 nicht so rosig aus für LL
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Anzahl-unterstuetzter-Titel-2017-um-die-Haelfte-gesunken-1245648/

Es gibt ja die Hoffnung das das z. B. durch Vulkan besser wird.
Da ich generell pessimistisch denke sehe ich das aber nicht so schnell kommen wie es nötig wäre.

Programmierer haben sicher den Anreiz sowas zu machen, da schlägt dann aber die Finanzabteilung dazwischen und bleibt bei dem was man immer so gemacht hat.
Und AMD fehlt Geld und Marktanteil um da entscheidend entgegen zu wirken.

pilzsammler2002
2017-12-15, 11:33:59
Schaut doch mal, wie viele "Neuerscheinungen" einen wirklich neuen Unterbau haben. Alte Engines aufzubohren bzw. einfach weiterzunutzen ist der Kostensenker Nummer Eins. Leider. Vulkan und OpenGL lassen sich relativ einfach austauschen, DirectX muss man komplett neu ansetzen.
Die Software Firmen (im Gamingbereich) sind eh viel zu verwöhnt... Seit ein paar Jahren ist es mega schick jedes Jahr das gleiche Game mit neuen Assets (Far cry 4 / Primal als bsp.) rauszuhauen und vollpreis dafür zu nehmen...

Wenn ich überlege wieviele Fifa, NBA, Madden, Assassins Creed, F1 20xx oder Cod/BF (field and front) es in letzter Zeit gab die sich alle gleich spielten ist das echt erschreckend :freak:

Dino-Fossil
2017-12-15, 11:35:50
Sehe ich komplett anders. Astreine Kühlung und alles was ich spiele läuft ohne Probleme. Was brauche ich mehr an einer Grafikkarte? Soll die noch Kaffee kochen können? Oder lieber backen? :biggrin:

QED - du hast an ihr rumgebastelt (und hattest deinen Spaß damit ;) ).
Ist ja in Ordnung. Trotzdem rettet es den Vega nicht vom Beta-Status.

Es kommen ja auch noch die diversen architektonischen Verbesserungen mit GCN5 dazu, die Stand heute auch nur einen fragwürdigen Nutzen haben. Meinst du AMD hatte das so projeziert?

Zergra
2017-12-15, 11:36:06
Wenn ich überlege wieviele Fifa, NBA, Madden, Assassins Creed, F1 20xx oder Cod/BF (field and front) es in letzter Zeit gab die sich alle gleich spielten ist das echt erschreckend :freak:

Dann hör auf sie zu kaufen, alles andere wird nichts. Immer gut wie sie Leute sixh sich beschweren, und dann am Ende doch zu schlagen.

Daredevil
2017-12-15, 11:38:50
Vega ist in der Referenz kein rundes Produkt -
Sehe ich komplett anders. Astreine Kühlung und alles was ich spiele läuft ohne Probleme. Was brauche ich mehr an einer Grafikkarte?
Weil die Referenz ja so super ist, hast du ja auch eine deutlich teurere Liquid im System verbaut. :D

Ich find die Vega Ref an sich an nicht schlecht, aber Out of the Box ist sie einfach viel zu laut, das kann man einem "Einbauen und loszocken" Nutzer absolut nicht zumuten.
Über den Stromhunger kann man ja hinweg sehen, aber sie ist in Basis einfach viel zu hoch getaktet für "Die Masse". Aber wäre sie weniger hoch getaktet, wäre sie noch offensichtlicher durch die Benchmark Parcours gerasselt.

Mit 1200-1400Mhz, weniger Saft und bei <2k RPM in einem LL Spiel ist sie grandios, da gibt es aber bislang zu wenig von.
Bei allen anderen Games muss sie Takt ausfahren, das geschieht dann mit der Bulldozer Methode. :D
Die TitanV hat ja in etwa das gleiche "Problem"

Die Vega im neuen iMac zeigt, wie ein rundes Produkt aussieht. :)
Schnell, stromsparend, Effizient, modern.

pilzsammler2002
2017-12-15, 11:53:08
Dann hör auf sie zu kaufen, alles andere wird nichts. Immer gut wie sie Leute sixh sich beschweren, und dann am Ende doch zu schlagen.
Ist zwar leicht Offtopic aber ich habe seit BF3 kein Game mehr aus diesen Reihen gekauft... Assassins Creed Black Flag habe ich nur genommen weil es umsonst war. :biggrin:

dargo
2017-12-15, 11:54:56
Weil die Referenz ja so super ist, hast du ja auch eine deutlich teurere Liquid im System verbaut. :D

Ich habe noch nie eine Referenz gekauft weil mich keine Referenzkühlung bei meinem Anspruch überzeugt. :P Und deutlich teurer? Momentan sieht es eher danach aus, dass die Customs teurer / gleich teuer werden als das was ich für die Liquid bezahlt habe.

QED - du hast an ihr rumgebastelt (und hattest deinen Spaß damit ;) ).

Rumgebastelt? Ich habe doch nur mein Gehäuse optimiert weil es mitschwingt. ;) Nichts anderes als zu damaligen Zeiten als es noch die verdammten HDDs gab. Gott sei Dank wurden SSDs erfunden.


Es kommen ja auch noch die diversen architektonischen Verbesserungen mit GCN5 dazu, die Stand heute auch nur einen fragwürdigen Nutzen haben. Meinst du AMD hatte das so projeziert?
Mir ist egal was AMD projeziert hatte. Ich habe eine neue Karte die die doppelte Leistung meiner alten liefert und genau das erwarte ich von einem Nachfolger. Alles andere finde ich langweilig. Sollten da später noch paar %-chen Leistung dazu kommen ist es halt ein netter Bonus. Nichts "überlebenswichtiges", halt netter Bonus um den nächsten Kauf paar Monate hinauszuzögern bis es wieder heißt ~25 TFLOPs @Single-GPU.


Ich find die Vega Ref an sich an nicht schlecht, aber Out of the Box ist sie einfach viel zu laut, das kann man einem "Einbauen und loszocken" Nutzer absolut nicht zumuten.
Über den Stromhunger kann man ja hinweg sehen, aber sie ist in Basis einfach viel zu hoch getaktet für "Die Masse". Aber wäre sie weniger hoch getaktet, wäre sie noch offensichtlicher durch die Benchmark Parcours gerasselt.

Mit 1200-1400Mhz, weniger Saft und bei <2k RPM in einem LL Spiel ist sie grandios, da gibt es aber bislang zu wenig von.
Bei allen anderen Games muss sie Takt ausfahren, das geschieht dann mit der Bulldozer Methode. :D
Die TitanV hat ja in etwa das gleiche "Problem"

Die Vega im neuen iMac zeigt, wie ein rundes Produkt aussieht. :)
Schnell, stromsparend, Effizient, modern.
Hier passt was nicht zusammen. Wenn die Karte im iMac wesentlich langsamer taktet ist sie auch entsprechend langsamer. Das gleiche kannst du auch am Desktop haben, nennt sich Powerlimit. ;)

Daredevil
2017-12-15, 12:03:31
Zu dem Zeitpunkt, wo die sie gekauft hast, war sie schon eine gute Ecke teurer.
Der momentane Preispunkt hat wohl eher was damit zutun, dass der Bedarf ganz offensichtlich um ein vielfaches größer ist als vor ein paar Monaten.
Aber das weißt du ja auch. (:

Ontopic:
Die zweite Karte schaltet sich im Crossfire Betrieb tatsächlich komplett ab und zieht keinen einzigen Watt mehr. Das finde ich ziemlich nice!
Weiß jetzt nicht, ob das bei SLI auch so ist, hat mich aber erstaunt. :)
Allgemein ist Vega auch beim idlen und beim surfen eine kleine Ecke sparsamer als meine GTX1080.

Taigatrommel
2017-12-15, 12:10:28
Ich habe noch nie eine Referenz gekauft weil mich keine Referenzkühlung bei meinem Anspruch überzeugt. :P Und deutlich teurer? Momentan sieht es eher danach aus, dass die Customs teurer / gleich teuer werden als das was ich für die Liquid bezahlt habe.

Momentan. Die Preise kann sich ja wohl auch kaum jemand erklären, ich gehe davon aus, wenn das Angebot mal auf dem Niveau der 1080er Reihe von nVidia wäre, dann wären auch die Preise in normalen Regionen. Ich habe meine beiden Karten am Erscheinungstag glücklicherweise fast zur UVP bekommen. Die verfügbaren LC Editionen waren mindestens 200,-€ teurer als die luftgekühlte Referenz. Da kann man überlegen, nicht direkt die Air Cooled Edition zu kaufen und dann selbst mit z.B. einer Alphacool Eiswolf für dieses Geld direkt eine vernünftige(re) AiO Wasserlösung zu installieren.
Das die Customs nun wohl so teuer werden, scheint schlicht am Gesamtkonzept Vega zu liegen. Mieseste Verfügbarkeit welche die Nachfrage nicht befriedigen kann ergibt eben solch unrealistische Preise.

Inzwischen bin ich stark am Überlegen, mind. eine der beiden Karten komplett zu verkaufen und die verbleibende auf eine Eiswolf umzurüsten oder aber direkt beide zu verkaufen und heute versuchen, eine Sapphire Nitro zu ergattern. Crossfire ist nach wie vor eine absolute Bastelbude und wenn ich sehe was es derzeit so an Problemen mit sich bringt und wie wenige Titel, welche ich regelmäßig spiele davon überhaupt profitieren, dann ist die Entscheidung contra-CF eigentlich eindeutig. Ich selbst habe eigentlich auf mehr DX12 Titel mit nativer mGPU Unterstützung gehofft, derzeit sieht es ja eher mau aus. Vulkan spricht mGPU Konfigurationen rein gar nicht an, da dreht die zweite Karte Däumchen.

Th3o
2017-12-15, 12:16:58
Wird es heute welche Sapphire Nitro zu kaufen geben?

dargo
2017-12-15, 12:17:17
Zu dem Zeitpunkt, wo die sie gekauft hast, war sie schon eine gute Ecke teurer.

Nö... eigentlich habe ich sie wenige Tage zu früh für 629€ gekauft. Kurz danach gabs nämlich die Sapphire für 599€.

@Taigatrommel
Wie gesagt.... Bestpreis Air Version 499€, Bestpreis Liquid 599€. Unterschied 100€. Eine Customkühlung @Selbsteinbau war für mich bei dem sensiblen Chip keine Option.

pilzsammler2002
2017-12-15, 12:18:20
Wird es heute welche Sapphire Nitro zu kaufen geben?
Auf einigen Seiten kann man schon preordern... Ka wie es in DE zum release aussieht :/

akuji13
2017-12-15, 12:24:03
Die zweite Karte schaltet sich im Crossfire Betrieb tatsächlich komplett ab und zieht keinen einzigen Watt mehr. Das finde ich ziemlich nice!

Ich weiß was du meinst aber das liest sich für mich als ob sich die 2te Karte im 3D Betrieb abschaltet und du dich über die Ersparnis freust. :biggrin:

Apropos Ersparnis: Findest du das wirklich wichtig?
Mir war das immer völlig schnurz was auf dem desktop verbraten wird wenn im Spiel rausgehauen wird als obs kein morgen mehr gibt.

Igor TH
2017-12-15, 12:28:50
Vega Crossfire, eine Karte inaktiv: 298 + 4 Watt
1080 OC SLI, eine Karte inaktiv: 205 + 9 Watt

Es sind also immerhin umweltvernichtende 5 Watt mehr, aber man kann es auch so sagen:
Die Nvidia-Karte zieht beim Ideln mehr als das Doppelte der Vega!
(Der könnte auch von Chris Hook stammen :D )

Eine Komplettabschaltung kann ich hier nicht messen, am PEG läuft auf 3V und 12V immer noch ein gewisses Grundrauschen bei der Vega. Die externen Anschlüsse sind aber faktisch tot, das stimmt.

Und um alle so richtig zu schocken:
Die Nitro hat von mir einen Award bekommen. Eine AMD-Karte! 1111 :D

Daredevil
2017-12-15, 12:32:18
Ach Gott. ;D
Also im 3D bleibt die Lampe tatsächlich grün auf dem PCB, wenn ein Game keine Crossfire Unterstützung bietet, ich meinte natürlich hauptsächlich den 2D Mode.

Im Grunde ist es auch völlig Schnurz. Jemand, der sich mehrere Grafikkarten in einen Rechner baut muss davon ausgehen, dass er eben mehr säuft. Aber trotzdem ist das doch ein Nice2Have.
120w Idle Verbrauch mit 3 Grafikkarten gabs vor ein paar Jahren noch nicht. ^^

Ich habe zumindest gerade knapp 14w weniger gemessen, wenn ich den Crossfire Modus angeschaltet habe, als wenn ich die beiden Karten nur nebenbei laufen lasse.

@Igor TH
DOPPELT SOVIEL! :eek::eek::eek:
Das ist der LowLevel idle Mode! :D

Taigatrommel
2017-12-15, 12:33:22
Nö... eigentlich habe ich sie wenige Tage zu früh für 629€ gekauft. Kurz danach gabs nämlich die Sapphire für 599€.

@Taigatrommel
Wie gesagt.... Bestpreis Air Version 499€, Bestpreis Liquid 599€. Unterschied 100€. Eine Customkühlung @Selbsteinbau war für mich bei dem sensiblen Chip keine Option.

Man kann sich jetzt über Preisregionen streiten, ich hatte am Erscheinungstag eigentlich alle üblichen Händler im Auge, die günstigste LC lag bei 649,-€ kletterte sehr schnell dann erst auf 679€ nur um dann bei 719-749,-€ zu landen. Für 599€ keine Frage, hätte ich wohl ebenfalls zugegriffen. Ich selbst war froh, im Mindstar die Karten für 509,-€ pro Stück abgreifen zu können, woanders hatte ich welche für gut 600€ im Warenkorb.

Fakt ist, die Verfügbarkeit ist nach wie vor miserabel und die effektive Gestaltung des Straßenpreises ebenfalls. Egal ob jetzt Referenz Luft, LC oder wohl dann Custom. Ich z.B. würde für die Asus Strix nie und nimmer über 700 Euro ausgeben. Doch selbst wenn ändert sich nichts daran, dass man quasi keine Karten bekommt. Die Red Devil hätte ich auch für 600-650€ gekauft - bislang ist ja nicht einmal bekannt, wann diese wieder gelistet wird.

Igor TH
2017-12-15, 12:34:40
120w Idle Verbrauch mit 3 Grafikkarten gabs vor ein paar Jahren noch nicht. ^^
Stimmt, das brauchte mein damaliger Knödel mit dem aufgebohrten Q6600 und einer Grafikkarte allein schon im Desktop-Betrieb :D

Ich habe zumindest gerade knapp 14w weniger gemessen, wenn ich den Crossfire Modus angeschaltet habe, als wenn ich die beiden Karten nur nebenbei laufen lasse.Das liegt daran, dass die Vega (wie viele 1080 Ti auch) im Idle ohne Abschaltung fast 20 Watt verblasen. Die 1080er waren meist sparsamer.

G3cko
2017-12-15, 12:38:23
Vega Crossfire, eine Karte inaktiv: 298 + 4 Watt
1080 OC SLI, eine Karte inaktiv: 205 + 9 Watt

Es sind also immerhin umweltvernichtende 5 Watt mehr, aber man kann es auch so sagen:
Die Nvidia-Karte zieht beim Ideln mehr als das Doppelte der Vega!
(Der könnte auch von Chris Hook stammen :D )

Eine Komplettabschaltung kann ich hier nicht messen, am PEG läuft auf 3V und 12V immer noch ein gewisses Grundrauschen bei der Vega. Die externen Anschlüsse sind aber faktisch tot, das stimmt.

Und um alle so richtig zu schocken:
Die Nitro hat von mir einen Award bekommen. Eine AMD-Karte! 1111 :D

Wie sieht es bei Vega + 7970 aus. Geht die zweite Karte bei Nichtnutzung in den zerocore?

Igor TH
2017-12-15, 12:39:59
Kann ich nicht mehr testen, die letzte 7970, die hier noch lief, ist auch hinüber. Nie übertaktet, aber der Zahn der Zeit... Ich müsste erst mal einige Caps tauschen, zwei Phasen laufen nicht mehr sauber.

Daredevil
2017-12-15, 12:46:00
Eine zweite Karte Idlet so oder so.
Aber im Crossfire Mode wird zumindest die Vega in einen "Tiefschlaf" versetzt.
Dabei leuchtet dann die Lampe auf dem PCB grün, die Logo Beleuchtung ist aus und man kann auch nicht mehr alle Daten aus GPUz auslesen.

mjs
2017-12-15, 12:57:57
C3 war zu Beginn praktisch nur 56er, vereinzelte 64er.
Dann habe ich einen "Exoten", meine 64er XFX habe ich in der erste Woche nach Veröffentlichung bei Alternate gekauft -ist C3.

Gruß mjs

gedi
2017-12-15, 13:21:41
Vega Crossfire, eine Karte inaktiv: 298 + 4 Watt
1080 OC SLI, eine Karte inaktiv: 205 + 9 Watt

Es sind also immerhin umweltvernichtende 5 Watt mehr, aber man kann es auch so sagen:
Die Nvidia-Karte zieht beim Ideln mehr als das Doppelte der Vega!
(Der könnte auch von Chris Hook stammen :D )

Eine Komplettabschaltung kann ich hier nicht messen, am PEG läuft auf 3V und 12V immer noch ein gewisses Grundrauschen bei der Vega. Die externen Anschlüsse sind aber faktisch tot, das stimmt.

Und um alle so richtig zu schocken:
Die Nitro hat von mir einen Award bekommen. Eine AMD-Karte! 1111 :D

Ich glaubs nedd :confused: und schau mal - die Welt dreht sich weiter :D

Dino-Fossil
2017-12-15, 13:42:31
Rumgebastelt? Ich habe doch nur mein Gehäuse optimiert weil es mitschwingt. ;) Nichts anderes als zu damaligen Zeiten als es noch die verdammten HDDs gab. Gott sei Dank wurden SSDs erfunden.

Ok, dachte du hattest die selbst umgebaut, wie einige andere hier auch.
Wenn ich mich recht erinnere, warst du von den diversen Einstellungen (Spannung, PT, Takt, etc.) @Launch aber auch nicht gerade überzeugt, oder?
Lässt du heute deine Karte auf default laufen?

AlphaNUSS
2017-12-15, 13:52:16
Gibt es die Tests um 14 oder 15 Uhr?

Igor TH
2017-12-15, 13:56:24
15 Uhr. 06:00am PST

Flusher
2017-12-15, 13:58:03
Wer sagt das? Und vor allem warum muss sie das? Eine 1080TI kostet 700+€.

Der hohe Preisunterschied kommt doch nur daher, dass Vega so ein Krücke ist und NVIDIA nun extra aufschlagen kann.

BlacKi
2017-12-15, 14:04:39
Der hohe Preisunterschied kommt doch nur daher, dass Vega so ein Krücke ist und NVIDIA nun extra aufschlagen kann.
wie hoch ist der preisunterschied denn? 50€ max 100€ mehr nicht. die 980ti war nicht viel billiger ein halbes jahr nach release.

das vega64 nicht sub 500€ kostet liegt IMO an der mangelnden verfügbarkeit und der nachfrage der miner. davon komplett unabhängig liegt der preis der 1080ti.

pilzsammler2002
2017-12-15, 14:11:53
http://www.sapphiretech.com/productdetial.asp?pid=B679632D-4931-4156-9DB5-0EFC5453C6D5&lang=eng

nairune
2017-12-15, 14:18:13
Die Gehäuselüfter von der Grafikkarte kontrollieren lassen? Witzig :D

Igor TH
2017-12-15, 14:27:22
Die Seite wurde größtenteils rumkopiert. Der BIOS-Switch auf den Bildern stammt nicht von einer Vega. Dual-BIOS ja, aber nicht so ;)

Darlie
2017-12-15, 14:29:35
Kann ich nicht mehr testen, die letzte 7970, die hier noch lief, ist auch hinüber. Nie übertaktet, aber der Zahn der Zeit... Ich müsste erst mal einige Caps tauschen, zwei Phasen laufen nicht mehr sauber.
Tu sie mal backen, hatte bei meiner damals Wunder geholfen.

pilzsammler2002
2017-12-15, 14:30:14
Die Seite wurde größtenteils rumkopiert. Der BIOS-Switch auf den Bildern stammt nicht von einer Vega. Dual-BIOS ja, aber nicht so ;)
Der Bios Switch ist von der Sapphire R9 390 (oder Fury) :freak:

dargo
2017-12-15, 14:34:38
Wenn ich mich recht erinnere, warst du von den diversen Einstellungen (Spannung, PT, Takt, etc.) @Launch aber auch nicht gerade überzeugt, oder?

Was heißt nicht gerade überzeugt? Klar... 250W hätten RX Vega64 besser gestanden. Ist aber nun mal mit ~300W gekommen. Gäbe es mehr LL-Titel wären die ~300W sicherlich nicht nötig gewesen. Da man sich durch diverse Wattmansettings und zwei Biose selber helfen kann finde ich es nicht so tragisch.


Lässt du heute deine Karte auf default laufen?
Nein, Bios 2 mit 220W Asicpower (~286W gesamte Karte) + UV @1V was in 1,6+Ghz resultiert.

Der hohe Preisunterschied kommt doch nur daher, dass Vega so ein Krücke ist und NVIDIA nun extra aufschlagen kann.
Aha... warum verlangt dann NV keine 1000€ wenn Vega so ne Krücke ist? Zumal als die 1080TI kam es Vega noch gar nicht gab. :rolleyes: Und wie krüppelig Vega ist sehe ich aktuell vorzüglich in Wolf 2 obwohl da noch locker 15-20% brach liegen. ;D

Edit:
Da ich immer noch nicht weiß was CB für Szenen nimmt habe ich die Szene der PCGH nachgestellt.
http://www.pcgameshardware.de/Wolfenstein-2-The-New-Colossus-Spiel-61046/Specials/Wolfenstein-2-The-New-Colossus-im-Technik-Test-Benchmarks-Vulkan-1242138/

Ergebnis... 103 min.fps in 2560x1440 und Ultra-Preset. Nicht vergessen, dass AC on auf Vega bremst. Jetzt müsste nur jemand die Geforces nachtesten.

Savay
2017-12-15, 15:04:41
Sie ist ja auch keine "Krücke", sondern allenfalls nur nicht so gut wie sie sein müsste oder erhofft wurde.
Aber der 2. Sieger ist halt immer der erste Verlierer ist und bei nur 2 Marktteilnehmern ist der erste Verlierer auch direkt der letzt-platzierte. :wink:
Da manche in dieser Beziehung eh nur komplett digital denken können, kommen halt solche Aussagen zustande.

Davon abgesehen bin ich mit meiner RedDevil V64 doch sehr glücklich (endlich von der kack 970 weg, #niewiedernvidia) und lasse sie bisher auch komplett @Stock laufen...den Preis fand ich dafür tatsächlich auch sehr fair und durchaus angemessen! :biggrin: :up: (Grade da es in DE bisher nur 40 Stk. gab waren die 559€ dafür echt ok.)

Wie sich allerdings der Rest des Markts entwickelt ist ne andere Geschichte....und die Liefersituation erst recht. :redface:
Die UVP der anderen Customs finde ich schon etwas happig.

horn 12
2017-12-15, 15:04:46
Igor

Ist schon nach 15 Uhr!
Los Los!

dildo4u
2017-12-15, 15:05:23
CB: Radeon RX Vega 56 Nitro+ im Test: Sapphires 1,6-kg-Grafikkarte überzeugt auf ganzer Linie

https://www.computerbase.de/2017-12/sapphire-radeon-rx-vega-56-nitro-plus-test/

THG: Immer schön cool bleiben: Sapphire RX Vega64 Nitro+ im Test

http://www.tomshardware.de/rx-vega64-custom-card-review,testberichte-242424.html

Dant3
2017-12-15, 15:05:55
579,- UVP für die 56er Version, sure sure ...

nairune
2017-12-15, 15:20:25
180€ / fast 50% über Referenz-UVP für die 56? Wow... Da muss ich wohl doch umplanen.

Igor TH
2017-12-15, 15:24:53
Nun ja, der Preis ist komplett drüber. Damit macht man es für Miner zwar deutlich unattraktiver, aber die paar Stück wird man sicher auch für diesen Preis losbekommen. Egal an wen auch immer. Echt schade. Und das Doofe daran, es wird sich nicht lohnen, auf fallende Straßenpreise zu spekulieren. Einige AIB haben gerade Sendepause, wartend auf den Nachschub. Wer will, sollte jetzt. Sonst eher nie.

pilzsammler2002
2017-12-15, 15:27:15
Und das Doofe daran, es wird sich nicht lohnen, auf fallende Straßenpreise zu spekulieren. Einige AIB haben gerade Sendepause, wartend auf den Nachschub. Wer will, sollte jetzt. Sonst eher nie.
Wenn es sie wenigstens irgendwo gäbe :)
Welcher Shop in DE bietet die karte denn an?

RoughNeck
2017-12-15, 15:27:16
Die LC ist immer noch die beste VEGA.
Die Sapphire ist gut aber der Preis ist Witzlos.

Linmoum
2017-12-15, 15:28:10
Stark, was Sapphire da abliefert. Preislich ist das aber natürlich absurd.

Bucklew
2017-12-15, 15:30:13
580€ für ne Vega 56 (= langsamer als die günstigere GTX1080), 680€ für ne Vega 64 (= fast so teuer wie die deutlich schnellere GTX1080Ti) - ach was sind wir doch alle froh über AMD, die uns die lästige NVIDIA-Abzocke vom Hals halten und günstige Karten liefern ;D

akuji13
2017-12-15, 15:31:14
@dargo

Dann schmeiß als Ausgleich mal Dishonored 2 an. :D

Linmoum
2017-12-15, 15:31:40
580€ für ne Vega 56 (= langsamer als die günstigere GTX1080), 680€ für ne Vega 64 (= fast so teuer wie die deutlich schnellere GTX1080Ti) - ach was sind wir doch alle froh über AMD, die uns die lästige NVIDIA-Abzocke vom Hals halten und günstige Karten liefern ;D
Schau dir mal an, für wie viel die Vega 56 gerne mal den Besitzer wechselt. Es kommt auf den Verwendungszweck an und man muss einfach sagen - den Preis der Sapphire zahlen schon jetzt viele Leute für die Referenz. Teilweise sogar noch (etwas) mehr. Die Abnehmer sind schlicht vorhanden, auch, wenn das nicht den Gaming-Sektor betrifft.

dargo
2017-12-15, 15:34:53
@dargo

Dann schmeiß als Ausgleich mal Dishonored 2 an. :D
Softwareschrott kaufe ich nicht, das müsstest du mittlerweile wissen. ;)

dildo4u
2017-12-15, 15:34:53
580€ für ne Vega 56 (= langsamer als die günstigere GTX1080), 680€ für ne Vega 64 (= fast so teuer wie die deutlich schnellere GTX1080Ti) - ach was sind wir doch alle froh über AMD, die uns die lästige NVIDIA-Abzocke vom Hals halten und günstige Karten liefern ;D
Die Preise sind Schall und Rauch da eh nicht lieferbar.

Kartenlehrling
2017-12-15, 15:36:52
Basiskonfiguration
intel Xeon W-2140B, 8 Kerne, 3,2 GHz, Turbo bis zu 4,2 GHz
32 GByte DDR4 ECC Arbeitsspeicher, 2.666 MHz
1 TByte PCIe-SSD
AMD Radeon Pro Vega 56, 8 GByte HBM2

4.999 USD/5.499 Euro

AMD Radeon Pro Vega 64, 16 GByte HBM2

600 USD/720 Euro aufpreis

Apple Verkauf ist auch interessant, sie bieten nur die vega56-8gb als grund iMacPro und als ersatz die vega pro 64-16gb. für 720€ aufpreis.

horn 12
2017-12-15, 15:38:24
Igor

Dann hatte ich echt Recht mit den 679 Euro
und kannst mal bitte sagen mit welchen Taktraten die Referenz Karte lief.
Meine Vega unter DX11 laueft Untervoltet mit 1480 bis 1520 Mhz zusammen zu 2525 Luefter
und sollte so der Sapphire kaum nachstehen.
Mit UnterVoltig sollte gar Sapphire nochmals um 5 bis 7 % drauflegen koennen sodass die Nitro in etwa 10% ueber eine optimierten Referenz Karte kommen durfte.

akuji13
2017-12-15, 15:38:51
Softwareschrott kaufe ich nicht, das müsstest du mittlerweile wissen. ;)

Du kaufst UWP Titel. ;)

Man könnte auch sagen du kaufst Hardwareschrott denn auf NV läuft der wunderbar. :wink:

dildo4u
2017-12-15, 15:40:16
Apple Verkauf ist auch interessant, sie bieten nur die vega56-8gb als grund iMacPro und als ersatz die vega pro 64-16gb. für 720€ aufpreis.
Ich frag mich wie viel die von den Dinger bei den Preisen verkaufen.Könnte sein das die Nachfrage relativ hoch ist da das letzte Modell von 2013 ist.

Igor TH
2017-12-15, 15:41:16
Igor
Dann hatte ich echt Recht mit den 679 Euro
und kannst mal bitte sagen mit welchen Taktraten die Referenz Karte lief.
Meine Vega unter DX11 laueft Untervoltet mit 1480 bis 1520 Mhz zusammen zu 2525 Luefter und sollte so der Sapphire kaum nachstehen.
Mit UnterVoltig sollte gar Sapphire nochmals um 5 bis 7 % drauflegen koennen sodass die Nitro in etwa 10% ueber eine optimierten Referenz Karte kommen durfte.Steht alles auf Seite 13. Takraten im offenen/geschlossenen Gehäuse, OC usw.

Ja, beim Preis hattes Du (leider) Recht.

dargo
2017-12-15, 15:43:10
Du kaufst UWP Titel. ;)

Ja, weil sie technisch sauber laufen, trotz minimalistischen LL-Umsetzung. Von den Storeproblemen bei Microschrott mal abgesehen, hat mit der technischen Umsetzung nichts zu tun.


Man könnte auch sagen du kaufst Hardwareschrott denn auf NV läuft der wunderbar. :wink:
Komplett falsch. Es liegt nicht an der Hardware. ;)

akuji13
2017-12-15, 15:49:24
Die technisch sauber laufen?
Ich muss da an Probleme mit Sync denken, nur 60Hz oder Micorucklern.

Komplett falsch. Es liegt nicht an der Hardware. ;)

Doch, denn diese hat eine DX11 Schwäche.
Oder AMDs Treiberteam ist nicht in der Lage bessere Ergebnisse zu liefern. ;)

Für den Nutzer wurst.

Lassen wir das, die Diskussion führt eh zu nichts:
Wenn NV in Wolfenstein hinten ist wird AMDs fortschrittliche Technik gelobt, läuft das Spiel auf AMD schlecht ist es immer Softwareschrott.

dildo4u
2017-12-15, 15:51:46
Eher der Treiber als die Hardware Origins ist das neuste Beispiel.

https://www.computerbase.de/2017-12/adrenalin-17.12.1-test/3/

Vega ist dort bei den 99th Percentile 86% schneller als die 580 mit dem gefixten Treiber.

Tesseract
2017-12-15, 15:56:13
Softwareschrott kaufe ich nicht, das müsstest du mittlerweile wissen. ;)

selbst schuld, da entgeht dir ein sehr gutes spiel.

Th3o
2017-12-15, 15:57:56
Laut CB ist der Kühler der Nitro 13cm hoch. Ich habe ein Fractal R5 und habe mal nachgemessen: die Nitro passt da gerade so rein. Wie hoch ist der Kühler der V64 RD?

MartinRiggs
2017-12-15, 16:05:51
Lassen wir das, die Diskussion führt eh zu nichts:
Wenn NV in Wolfenstein hinten ist wird AMDs fortschrittliche Technik gelobt, läuft das Spiel auf AMD schlecht ist es immer Softwareschrott.

Wie Recht du leider hast.
Es ist echt anstrengend mittlerweile hier zu lesen.
Alles was auf AMD kacke läuft ist Softwareschrott und die 2 Low-Level Titel wo AMD mal halbwegs läuft ist der Messiah.

Nur gut das es viel Softwareschrott gibt, der auf Nvidia prima läuft und auch sehr vielen Leuten Spass macht, manche sollten echt mal ihren Horizont erweitern.:rolleyes:

Igor TH
2017-12-15, 16:11:33
Laut CB ist der Kühler der Nitro 13cm hoch. Ich habe ein Fractal R5 und habe mal nachgemessen: die Nitro passt da gerade so rein. Wie hoch ist der Kühler der V64 RD?

Vergiss das schnell. Zu dem 13 cm kommen noch einmal bis zu 3cm für Kabel und Stecker. Und da die Lamellen vertikal stehen, bekommst Du die Abluft nicht weg. Das R5 ist nichts für große Karten. Viel zu schmal.

dargo
2017-12-15, 16:14:22
Die technisch sauber laufen?
Ich muss da an Probleme mit Sync denken, nur 60Hz oder Micorucklern.

Keine Ahnung was du meinst. Ich kann hier problemlos bei beiden Forza Teilen bis 144Hz gehen. Mikroruckeln habe ich keins. Das hatte ich zuletzt mit einer GTX1080 in der offenen FH3 Welt. Eventuell hat sich das mittlerweile aber auch gebessert nach den ganzen Windows Updates.


Doch, denn diese hat eine DX11 Schwäche.
Oder AMDs Treiberteam ist nicht in der Lage bessere Ergebnisse zu liefern. ;)

Für den Nutzer wurst.

Für den 08/15 Pöbel vielleicht, für mich nicht. ;)


Lassen wir das, die Diskussion führt eh zu nichts:
Wenn NV in Wolfenstein hinten ist wird AMDs fortschrittliche Technik gelobt, läuft das Spiel auf AMD schlecht ist es immer Softwareschrott.
Keine Ahnung was dein Problem gerade ist. Mir persönlich ist es recht wurscht wo wie Nvidia performt da es eh keine Option für mich ist. Und mir wäre neu, dass Nvidia in Wolf 2 schlecht performt. Insofern behalte mal deinen Grabenkrieg für dich falls du einen planst.

selbst schuld, da entgeht dir ein sehr gutes spiel.
Das habe ich schon bei anderen Titeln von anderen Leuten gehört. Die Zeit ist begrenzt, ich komme mit dem vorhandenen Angebot nicht mal nach. Von daher suche ich mir selbst aus was ich kaufe. Und in der Sammlung hat ein technischer Schrott bei mir nunmal nichts verloren. Sollte Dishonored 3 technisch sauber umgesetzt sein werde ich es mir eventuell anschauen.

Th3o
2017-12-15, 16:20:26
Vergiss das schnell. Zu dem 13 cm kommen noch einmal bis zu 3cm für Kabel und Stecker. Und da die Lamellen vertikal stehen, bekommst Du die Abluft nicht weg. Das R5 ist nichts für große Karten. Viel zu schmal.
Was soll man da für ein Gehäuse nehmen? Ich bin etwas schockiert

Linmoum
2017-12-15, 16:25:41
Vergiss das schnell. Zu dem 13 cm kommen noch einmal bis zu 3cm für Kabel und Stecker. Und da die Lamellen vertikal stehen, bekommst Du die Abluft nicht weg. Das R5 ist nichts für große Karten. Viel zu schmal.
Sicher? Ich hab zwar nur die Fury Nitro und nicht die Vega in meinem R5, aber zu ersterer liegt der Unterschied gerade einmal bei 2 sogar nur einem cm - und den hab ich an der Seite definitiv noch über, auch unter Berücksichtigung der Stecker. Und das locker.

BlacKi
2017-12-15, 16:27:37
Was soll man da für ein Gehäuse nehmen? Ich bin etwas schockiert
wie groß soll denn das gehäuse noch sein? ich finde das r5 schon rießig.

akuji13
2017-12-15, 16:30:39
Insofern behalte mal deinen Grabenkrieg für dich falls du einen planst.

Welcher Grabenkrieg?
Ich habe seit ~10 Jahren mindestens 2 Rechner im Betrieb von denen je 1 mit AMD und 1 mit NV bestückt ist.

Ich wundere mich nur Forenübergreifend ist die oft seltsamen Argumentationen.

Und in der Sammlung hat ein technischer Schrott bei mir nunmal nichts verloren. Sollte Dishonored 3 technisch sauber umgesetzt sein werde ich es mir eventuell anschauen.

Doof nur wenn man solche Titel schon gekauft hat und sie trotzdem wie Schrott laufen...z. B. Crysis 3.

Da wird die Schrott Argumentation dann auch reichlich dünn wenn man sich ansieht wie oft sogar noch heute die Kernskalierung und Technik insgesamt gelobt wird. :wink:

berhan
2017-12-15, 16:32:33
THG: Immer schön cool bleiben: Sapphire RX Vega64 Nitro+ im Test

http://www.tomshardware.de/rx-vega64-custom-card-review,testberichte-242424.html

@Igor
In der Tabelle ist bei der 1080 ein Fehler drin (Chipfläche, Transistoranzahl)

dargo
2017-12-15, 16:32:38
Doof nur wenn man solche Titel schon gekauft hat und sie trotzdem wie Schrott laufen...z. B. Crysis 3 mit Ryzen.

Ist das dein ernst? Das ist so alt, das habe ich schon 3x hinter mir. Und kein einziges Mal mit Ryzen. Dafür mit Geforce und Radeon. ;)

Igor TH
2017-12-15, 16:32:52
@Linmoum:
Zwischen physisch reinpassen und sinnvoll betreiben ist ein himmelweiter Unterschied. Ich will dir nicht zu nahe treten, aber das R5 ist für High-End eine ziemlich kleine Büchse. Die LC könnte da deutlich sinnvoller sein.

Th3o
2017-12-15, 16:33:22
wie groß soll denn das gehäuse noch sein? ich finde das r5 schon rießig.
Das meine ich auch. Die Nitro fällt dann wohl aus, eventuell doch eine 56/64 RD oder eine 64 LC.

Linmoum
2017-12-15, 16:36:14
@Linmoum:
Zwischen physisch reinpassen und sinnvoll betreiben ist ein himmelweiter Unterschied. Ich will dir nicht zu nahe treten, aber das R5 ist für High-End eine ziemlich kleine Büchse. Die LC könnte da deutlich sinnvoller sein.
Mir ist schon klar, dass es in der Hinsicht (noch) größere Gehäuse gibt. Aber trotzdem denke ich, dass du das R5 dahingehend ein wenig unterschätzt.

Igor TH
2017-12-15, 16:36:43
Ihr vergesst immer, dass diese Karte nahezu 50% der heißen Abluft gegen die Seitenwand drückt. Je näher diese dran ist, umso mehr saugt die Karte die eigene Abluft wieder an. Das ist dann keine Kühlung mehr, sondern ein Kreislauf(Kollaps) :D

Savay
2017-12-15, 16:38:21
Ich hab die V64 RedDevil hier in nem R5 laufen...thermisch und vom Freiraum absolut unproblematisch.

Das einzige wo es tatsächlich klemmt sind die Schnittstellen aufm Mainboard...die SATAs unten drunter stehen senkrecht und sind bei voller Belegung etwas arg dicht dran...geht aber noch grade so drauf...
Der Front USB3 oben drüber passt mit der Karte aber nicht mehr.

Th3o
2017-12-15, 16:38:23
Wie dick ist die 64 RD? Da wird meist von 2,5 Slot gesprochen, wieviel cm sind das dann? Savay kannst Du ein Photo von Deiner eingebauten RD machen? Welches Mainboard hast Du?

Loeschzwerg
2017-12-15, 16:39:11
Dieses Gehäuse (https://image9.macovi.de/images/product_images/1280/983820_1__63133-1.jpg) meint ihr?

Also wenn das nicht ausreicht, dann kann man die Karte eigentlich nicht empfehlen ^^

Ihr vergesst immer, dass diese Karte nahezu 50% der heißen Abluft gegen die Seitenwand drückt. Je näher diese dran ist, umso mehr saugt die Karte die eigene Abluft wieder an. Das ist dann keine Kühlung mehr, sondern ein Kreislauf(Kollaps) :D

Also sind wir jetzt wieder soweit dass in die Seitenwand ein großes Loch muss? Geile Sache :D

Igor TH
2017-12-15, 16:46:11
Ich habe ja die Karte auch im geschlossenen Case getestet. Da waren knapp 4cm Platz zwischen Karte und Deckel.

ich habe das R5 jetzt vorm geistigen Auge mit den R3 Define verwechselt, das R5 sollte schon hinkommen. Asche auf mein Haupt :)

G3cko
2017-12-15, 16:48:35
580€ für ne Vega 56 (= langsamer als die günstigere GTX1080), 680€ für ne Vega 64 (= fast so teuer wie die deutlich schnellere GTX1080Ti) - ach was sind wir doch alle froh über AMD, die uns die lästige NVIDIA-Abzocke vom Hals halten und günstige Karten liefern ;D

HBCC, also effektiv mehr VRAM und ein höheres Featurelevel haben halt ihren Wert. Für mich müsste nach dem Flaschen Dx-Level und dem VRAM-Gate erst einmal nvidia deutlich preiswerter sein bei identischer Ausstattung. Da aber Vega mehr bietet als eine GTX1080 und gleichzeitig die Miner eh alles kaufen wie blöde ist der Preis wohl gerechtfertigt.

Savay
2017-12-15, 16:49:19
Wie dick ist die 64 RD?

Raff hatte das in dem PCGH First Look mal nachgemessen.

Müsste zwischen 5,5 und 6cm "Dick" sein....zur Gehäusewand sind eingebaut auch noch geschätzte 6cm Luft....richtung HDD Käfig passt sie wie angegossen...aber den könnt man ja auch noch ausbauen wenn man wollte. ;)


Savay kannst Du ein Photo von Deiner eingebauten RD machen?

Dann müsst ich evtl. nochmal nen Lineal suchen, dass auf den Bildern auch lesbar wäre. ;D

Welches Mainboard hast Du?


ASRock H97 Pro4

aufkrawall
2017-12-15, 16:58:30
HBCC, also effektiv mehr VRAM
Dass das bewiesen sei, wäre mir neu. Außerdem liegt Vega kein Gratis-RAM bei...

Loeschzwerg
2017-12-15, 16:58:54
Asche auf mein Haupt :)

Nix passiert :) Den Kollaps mit zu schmalen Gehäusen kenne ich, der Sapphire Tri-X hat es in meinem Cube so gar nicht gefallen.

Danke übrigens für den detaillierten Test, hat Spaß gemacht zu lesen.

Th3o
2017-12-15, 16:58:56
Also doch eine Red Devil, wenn es sie wieder gibt. Dann kann ich wohl mein jetztiges Netzteil behalten.

Dino-Fossil
2017-12-15, 17:01:42
Hardwareluxx hat auch einen Test. Hatten wohl auch einige Probleme mit dem Customs und standen dazu wohl im Kontakt mit AMD.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45194-sapphire-radeon-rx-vega-64-nitro-im-test.html

Es gab und gibt allerdings auch noch andere Probleme. Die Radeon Software, welche zusammen mit den Radeon-RX-Vega-Karten im Sommer veröffentlicht wurde, hatte und hat ein Problem in der Kommunikation zwischen dem VBIOS und dem Treiber. Dies führt dazu, dass PPT-Tabellen und Taktvorgaben der Hersteller nicht übernommen werden und die Custom-Modelle mit den Werten der Referenzversion weiterarbeiten.

Linmoum
2017-12-15, 17:02:50
ich habe das R5 jetzt vorm geistigen Auge mit den R3 Define verwechselt, das R5 sollte schon hinkommen. Asche auf mein Haupt :)
Wollte schon sagen, so doof bin ich nun doch (noch) nicht. :D Aber abseits davon ebenfalls danke für den Test @Igor.

Hier mal zum Vergleich die Fury Nitro mit 12cm (statt 13cm wie die Vega) inkl. Stecker.
http://abload.de/img/20171215_164825vfuwh.jpg
Du wirst da beim R5 keine Probleme mit der Vega kriegen @Th3o.

Th3o
2017-12-15, 17:11:44
Also jetzt stehe ich etwas auf dem Schlauch: bei CB sprachen sie von 13cm Höhe, das ist nach meinem Verständnis im eingebauten Zustand von oben nach unten oder nicht?

Savay
2017-12-15, 17:14:16
Also jetzt stehe ich etwas auf dem Schlauch: bei CB sprachen sie von 13cm Höhe, das ist nach meinem Verstädnis im eingebauten Zustand von oben nach unten oder nicht?

"Höhe" meint hier wohl von Mainboard -> Gehäusewand...alles andere wäre etwas Spooky...weil dann wäre es ja ne "5-6 Slot" Lösung oder dergleichen. :biggrin:

Das wäre dann wohl eher was für eine kommende 500W TDP Variante. :wink:

Th3o
2017-12-15, 17:16:17
Wenn das so ist, dann bin ich beruhigt. Aber die 3x8 Pin finde ich gerade bei der 56 ein Klotz am Bein.

dildo4u
2017-12-15, 17:17:02
Wenn das so ist, dann bin ich beruhigt. Aber die 3x8 Pin finde ich gerade bei der 56 ein Klotz am Bein.
Muss man die überhaupt alle belegen?

Linmoum
2017-12-15, 17:17:27
Jop, Höhe meint vom Mainboard Richtung Gehäusewand. Das andere ist die Tiefe. :D

Savay
2017-12-15, 17:22:21
Muss man die überhaupt alle belegen?

"Die Karte läuft allerdings auch, wenn nur zwei der drei Anschlüsse verwendet werden."
hardwareluxx.de

Mir ist eh noch nicht ganz klar wofür man die 525W die man so absaugen könnte echt brauchen würde...
So arg hoch geprügelt bekommt man ne Vega mit Luftkühlung doch eh nie im Leben oder etwa doch?! Ab nem Punkt macht die doch eh dicht und wird sowieso nicht wirklich schneller.

Ich mein klar...die Vega braucht nen bissl was...aber derartig viel?

dildo4u
2017-12-15, 17:32:23
Die fetten Custom Kühler sind nicht wirklich schlechter als ein 120er Radiator,aber 500 werden nicht erreicht aber 400 laut CB was über Spec ist.

Die Leistungsaufnahme beträgt dafür aber auch fast 400 Watt – zwei mal 8 Pin hätten hierfür offiziell in der Tat nicht mehr gereicht.

https://www.computerbase.de/2017-12/sapphire-radeon-rx-vega-56-nitro-plus-test/3/#abschnitt_leistungsaufnahme

Igor TH
2017-12-15, 17:37:20
Die Sapphire braucht keine 400. Das habe ich nicht mal mit OC geschafft. Das ist halt der Nachteil von langsamen Stromzangen mit viel zu großen Intervallen. Die halten Peak-Werte für konstante Lasten.

Leistungsaufnahme im Detail (http://www.tomshardware.de/rx-vega64-custom-card-review,testberichte-242424-12.html)

Kartenlehrling
2017-12-15, 17:38:04
Der GPU kontakt zur vaporkühler (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45194-sapphire-radeon-rx-vega-64-nitro-im-test.html?start=2)gefällt mir von von der sapphire besser als von Asus.
Schliesslich soll die vorrangige Aufgabe von solch einer Wärmeleitpaste sein nur Unebenheiten auszugleichen und nicht Kontakte überbrücken.

Savay
2017-12-15, 17:38:06
*hust*
Damit ist die Grafikkarte gleich schnell bis leicht schneller als eine Radeon RX Vega 64.
*hust*

Naja wenn man es drauf anlegt mit dem Gerät primär zu heizen...dann soll man das tun.
Aber der Winter soll ja kalt werden. ;)

Th3o
2017-12-15, 17:38:15
So wie es ausschaut wird es wohl nur Customs von Asus, Powercolor und Sapphire geben, jeweils als 56 und 64. Ich warte noch ein Paar Tests ab, um zu entscheiden ob 56 oder 64. Spiele max. auf 1440p, bin aber am überlegen mir einen 34" 21:9 Monitor zu holen, was wahrscheinlich dann für eine 64 spricht.

Igor TH
2017-12-15, 17:40:07
Und Gigabyte... Wobei ich schon zwei von den paar für DE weggeschnappt habe *ironie*

dildo4u
2017-12-15, 17:42:00
So wie es ausschaut wird es wohl nur Customs von Asus, Powercolor und Sapphire geben, jeweils als 56 und 64. Ich warte noch ein Paar Tests ab, um zu entscheiden ob 56 oder 64. Spiele max. auf 1440p, bin aber am überlegen mir einen 34" 21:9 Monitor zu holen, was wahrscheinlich dann für eine 64 spricht.
XFX gibt es auch noch.

https://videocardz.com/74175/xfx-launches-radeon-rx-vega-64-and-56-double-edition

Th3o
2017-12-15, 18:00:17
Es ist die Frage, ob alle in der gleichen Liga mitspielen? Den Testern wird die Arbeit nie ausgehen :)

fondness
2017-12-15, 18:21:11
Tatsache ist auch das du keine Zahlen zu den von AMD gelieferten Stückzahlen bringst was die Aussage völlig wertlos macht. ;)


Nachdem es dazu keine offiziellen Zahlen gibt, kann diese Frage niemand beantworten - und das weißt du auch. AMD sprach bei den letzten Quartalszahlen aber mehrmals von einem Rekordumsatz im Grafik-Bereich und 16% mehr ausgelieferte GPUs. So zu tun, als würden da keine GPUs geliefert ist also Blödsinn, man hat schlicht nicht mit dieser starken Nachfrage gerechnet. Wenn es Leute gibt, die bereit sind für eine Vega56 >700 EUR zu bezahlen, kann man sich ja ungefähr ausmalen wie groß die Nachfrage ist und warum kaum Karten im Channel ankommen.


Bevor Sapphire mit EVGA mithalten kann müssten sie erstmal Sachen wie optionale Garantieverlängerung+Erweiterung anbieten oder vorab Austausch bei Defekt.

Eine neue EVGA sitzt bereits im Rechner bevor die Sapphire Retoure überhaupt ausgepackt wurde. ;)
Aber woher sollst du sowas auch wissen...

Ich habe lieber eine hochwertige Karte, die brauche ich dann auch nicht laufend austauschen. ;)
Die Kühler/PCB von EVGA sind nichts besonderes.

Welcher Grabenkrieg?
Ich habe seit ~10 Jahren mindestens 2 Rechner im Betrieb von denen je 1 mit AMD und 1 mit NV bestückt ist.

Ich wundere mich nur Forenübergreifend ist die oft seltsamen Argumentationen.


Und das beweist was genau? Praktisch jeder Beitrag von dir in diesem Thread (btw ein AMD Thread^^) ist pro-Nvidia. Ich habe kein Problem damit, ich bin sicher auch nicht neutral, aber so zu tun als wäre der Herr akuji13 die neutrale Instanz ist etwas daneben. :ugly:

fondness
2017-12-15, 18:36:45
Ich bleibe erst mal dabei, dass man die alte Struktur einfach mithilfe des neuen flexiblen Arrays seriell emuliert Denn wenn es wie eine Art frei programmierbarer ASIC konzipiert ist, wäre es das Erste, was ich als Programmierer tun würde, zunächst den Ist-Stand zu reproduzieren um eine feste Bezugsgröße zu besitzen. Ich befürchte fast, man hat für die komplexe Geschichte das Array schlicht unterdimensioniert, so dass es wohl nicht das bringen kann, was man sich erhofft hatte. Was soll daran kaputt sein, alußer dass man es falsch dimensioniert hat? Ich kann mir nicht vorstellen, das man die konservative Shader-Pipeline parallel zum Array im Chip hat, das würde diesen nur sinnlos aufblasen und redundante Einheiten sind der Tod jeglicher Effizienz.

Ich halte die These für nicht schlüssig. Hast du auch nur die geringste Ahnung, wie viele Tests ein ASIC durchlaufen muss, bis man das Ding zum Tapeout schickt? Ein Tapeout kostet mittlerweile einen zweistelligen Millionenbetrag. Glaubst du ernsthaft, man überlegt sich nicht vorher wie groß dimensioniert das Ganze sein muss, sondern fertigt den Chip einfach mal auf gut Glück? Ich weiß auch nicht was du meinst mit dem parallel im Chip. Die primitiv Shader sitzen vor dem Shader-Array in der Pipeline, nicht parallel dazu.

Igor TH
2017-12-15, 18:38:01
Rekordumsatz ist immer relativ und bezogen auf eigene, alte Werte. Aber es ist kein Vergleich zum Mitbewerber und gibt erst recht keinen Anhaltspunkt zum Gesamtumsatz der Branche. Man muss ja auch betrachten, um wie viel der direkte Mitbewerber seinen Umsatz steigern konnte. heute wurde in einem Unternehmen z.B, trotz guter schwarzer Zahlen ein Teil des Managements gefeuert, weil das Wachstum negativ war. Gut, es trifft die ganze Branche, aber die Tendenz war negativer als bei anderen. Hire & Fire. Die Amis sind da emotionslos.

@fondness:
Die Fläche des Chips ist physikalisch limitiert und Flexi-Arrays sind quasi am Schluss die Lückenfüller schlechthin. Ich gehe jede Wette, man hat das Ganze unterschätzt, weil eine Simulation die Praxis nie ersetzen kann, oder bewusst in Kauf genommen, weil es an dieser Stelle das kleinere Übel schien.

BlacKi
2017-12-15, 18:43:14
Igor, hat der grafikchip denn wirklich genau 484mm²? hast du das nachgemessen oder übernommen von amd?

fondness
2017-12-15, 18:47:11
Rekordumsatz ist immer relativ und bezogen auf eigene, alte Werte. Aber es ist kein Vergleich zum Mitbewerber und gibt erst recht keinen Anhaltspunkt zum Gesamtumsatz der Branche. Man muss ja auch betrachten, um wie viel der direkte Mitbewerber seinen Umsatz steigern konnte. heute wurde in einem Unternehmen z.B, trotz guter schwarzer Zahlen ein Teil des Managements gefeuert, weil das Wachstum negativ war. Gut, es trifft die ganze Branche, aber die Tendenz war negativer als bei anderen. Hire & Fire. Die Amis sind da emotionslos.

Es beweist, dass die Stückzahlen deutlich gestiegen sind, aber eben nicht so stark wie die Nachfrage. Man hat also die Nachfrage unterschätzt, deshalb hat man die Preise erhöht - das ist Marktwirtschaft. Das AMD deutlich mehr Karten verkaufen könnte, wenn man mehr liefern könnte, ist ja nun wirklich offensichtlich.


@fondness:
Die Fläche des Chips ist physikalisch limitiert und Flexi-Arrays sind quasi am Schluss die Lückenfüller schechthin. Ich gehe jede Wette, man hat das Ganze unterschätzt, weil eine Simulation die Praxis nie ersetzen kann, oder bewusst in Kauf genommen, weil es an dieser Stelle das kleinere Übel schien.

Da man das erst in unbestimmter Zukunft beantworten wird können, kann man jetzt natürlich trefflich spekulieren. Ich halte das wie schon gesagt nicht für schlüssig, hoffentlich wird man es bald erfahren. Ich habe auch keine Ahnung, was du unter eine Flexy-Array versteht, aber die Primitiv Shader Stage sind sicher kein FPGA im Chip oder dergleichen, sondern schlicht eine zusätzlicher Shader-Stage.

Igor TH
2017-12-15, 18:48:25
Igor, hat der grafikchip denn wirklich genau 484mm²? hast du das nachgemessen oder übernommen von amd?
Ich kann es ja nicht aufschreddern und verlasse mich da auf die Specs. Aber diese Diskussion geht schon eine Weile :D Musst mal googeln...

Der Bereich der Primitive Shader ist quasi ein flexibel programmierbares Array aus Recheneinheiten, mit dem man alles Mögliche anstellen kann. Raja nannte es in Sonoma mal Flexi-Array. :)
Daher auch die Vermutung, dass man damit momentan die alte, serielle Pipeline nachgebildet hat, um überhaupt was zu haben.

fondness
2017-12-15, 18:54:34
Die LC ist immer noch die beste VEGA.
Die Sapphire ist gut aber der Preis ist Witzlos.

Sehe ich auch so. Vega hat einfach eine Leistungsaufnahme pro Fläche erreicht (man darf hier auch den HBM nicht vergessen), wo eine Wakü einfach beträchtliche Vorteile hat. Bevor ich mir so ein 1,6 kg Ding in den Rechner schnalle, bleibe ich lieber bei meiner LC, die wohl sogar noch besser kühlt und noch bessere Temperaturen liefert.

dargo
2017-12-15, 19:00:26
Welcher Grabenkrieg?
Ich habe seit ~10 Jahren mindestens 2 Rechner im Betrieb von denen je 1 mit AMD und 1 mit NV bestückt ist.

Schön für dich.


Ich wundere mich nur Forenübergreifend ist die oft seltsamen Argumentationen.

Und ich wundere mich über die sinnlose Diskussion die du versuchst zu führen. Was möchtest du genau damit erreichen? Willst du mich von Nvidia überzeugen? Da muss ich dich leider enttäuschen, du wirst es nicht schaffen.

Th3o
2017-12-15, 19:26:06
Werden dle 64 LC Versionen eigentlich noch produziert?

dargo
2017-12-15, 19:28:29
Wäre schade wenn nicht. :eek: Ich hoffe AMD gibt die beste Vega nicht einfach so auf. Igor meinte afaik Biostar würde die Produktion weiter übernehmen. Oder habe ich da was falsch aufgeschnappt?

Igor TH
2017-12-15, 19:32:13
DAS habe ich nie geschrieben, würde mich zudem so auch wundern. Bei Biostar glaube ich eher, die haben die Referenzplatine lizensiert und machen das Gleiche wie MSI. Blower-Design mit Referenzbasis. Aber aus der eigenen Fabrik. Ist billiger.

dargo
2017-12-15, 19:33:52
Ok... dann bleibt die Frage von Th3o weiter offen.

Th3o
2017-12-15, 19:34:21
Dargo hat mit seiner LC einen echten Schnapper gemacht :) Allerdings hatte ich eigentlich nicht vor mehr als 500€ für eine Grafikkarte auszugeben. Mit den 200€ "Spekulationsgewinn" kann ich bis 700€ gehen.

hq-hq
2017-12-15, 19:36:22
Ich kann es mir nach all den AiOs die ich auf CPUs und GPUs hatte nicht vorstellen.

So ein Pech, die VEGA Frontier Edition LC macht Geräusche wie eine alte HDD, rattert vor sich hin....:frown:

youtube streikt grade, sonst hätt ich das Geräusch verlinkt...

Kumpel schickt sie erstmal zurück, warten auf Ersatz.

dargo
2017-12-15, 19:40:29
Allerdings hatte ich eigentlich nicht vor mehr als 500€ für eine Grafikkarte auszugeben.
Hatte ich auch nicht, ist anders gekommen. :D Aber auch nur weil es keine Vega56 Customs (ohne OC-Keule) gab.

Th3o
2017-12-15, 19:42:49
Man hat Dich sozusagen zur einer LC gezwungen ;)

dargo
2017-12-15, 19:46:08
So ein Pech, die VEGA Frontier Edition LC macht Geräusche wie eine alte HDD, rattert vor sich hin....:frown:

Ich schätze mal das gleiche Problem wie bei mir?
https://www.youtube.com/watch?v=uYFkfnOc34M

Ich werde meine erst über den Sommer reklamieren wenn ich sie eh nicht brauche, über den Winter ist der Zeitpunkt etwas ungünstig.

Man hat Dich sozusagen zur einer LC gezwungen ;)
Genau, der Preis war auch nicht ganz unschuldig. :D

horn 12
2017-12-15, 19:48:15
Nun dafuer steigen wohl die Referenz Design im Preis
So schlimm ist die Vega Ref. bei weitem nicht, durch UnterVolting sparsamer und um die 1500 Mhz Boost Clock, welcher auch gehalten wird...
Zugegeben leise bei Weitem nicht aber auch nicht sooo schlimm wie bei vielen Beschrieben.

Wenn uns durch die Bios Katastrophe wohl bei den Referenz Karten was Ungutes blueht in Zukunft. Dies ist meine einzige wirklich heikle Befuerchtung!

Schlammsau
2017-12-15, 20:12:12
^^ Bist du taub?

Vega in der luftgekühlten Referenzversion ist Lautstärketechnisch eine Katastrophe!

Th3o
2017-12-15, 20:27:32
Die Ansprüche sind halt verschiedenen. Solange man die Karten im von AMD vorgesehenen Bereich betreibt, erfüllen sie ihren Zweck recht gut.

Achill
2017-12-15, 20:33:38
[..]
Wenn uns durch die Bios Katastrophe wohl bei den Referenz Karten was Ungutes blueht in Zukunft. Dies ist meine einzige wirklich heikle Befuerchtung!

Was für eine Bios Katastrophe?

hq-hq
2017-12-15, 20:47:56
Ich schätze mal das gleiche Problem wie bei mir?
https://www.youtube.com/watch?v=uYFkfnOc34M

Ich werde meine erst über den Sommer reklamieren wenn ich sie eh nicht brauche, über den Winter ist der Zeitpunkt etwas ungünstig.


Genau, der Preis war auch nicht ganz unschuldig. :D


Klingt sehr sehr ähnlich nur nicht ganz so "metallisch". Bei dir ist es gedämpfter.

Inzwischen hat es youtube geschafft, hier der HDD Sound der Pumpe zum Vergleich.

https://youtu.be/2J_FhnSWRQo

btw, trotz Wakü wurde das Prachtstück ganz schön heiss,
GPU 65°C, Hotspot 74°C, HBM knapp 85°C, Kühlflüssigkeit ... vergessen...
das Gehäuse konnte man nicht lange anfassen, GPU zog knapp 220Watt bei 1485MHz
GPU Spannung war ... 1.170v glaub ich
kein OC, Bios weiss ich nicht mehr... aber sehr leise, Lüfter hatte knapp über 1100rpm
-> bis auf das Festplattengeräusch super leise....

Schlammsau
2017-12-15, 21:05:54
Wie laut soll das denn sein, meine AIO CPU Wasserkühlung hat sich auch so angehört, lief aber 2 Jahre problemlos.

hq-hq
2017-12-15, 21:12:15
man konnte das Rattern überall im Raum hören, es klang weder normal noch war es unauffällig, im Gegenteil es klingt nach Defekt und ist nervig

Dino-Fossil
2017-12-15, 21:26:30
Daher auch die Vermutung, dass man damit momentan die alte, serielle Pipeline nachgebildet hat, um überhaupt was zu haben.

Vielleicht, andererseits waren auf den (öffentlich zugänglichen) Präsentationen zu Vega die PS nur als alternative Option zur bisherigen Pipeline eingezeichnet.
Ursprünglich, glaube ich, auch mit der Anmerkung, dass sie spezifisch angesprochen werden müssen.
Was mMn ein wenig so wirkt, als habe man da doch beides verbaut (eventuell kann man sich ja gewisse Redundanzen sparen).

Es sei denn natürlich, man hat von Anfang an mit einer Emulation der bisherigen Einheiten geplant.

Igor TH
2017-12-15, 21:41:21
Ich denke mal, diese Folien kamen, nachdem das Kind schon in den Brunnen gefallen war. Lange nach dem Tape-Out. Man hat sicher versucht, NV in gewisser Weise zu kopieren und hat später die Not zum Feature erhoben. Warum sollte man so etwas eigentlich extra ansprechen müssen? Genau das erschließt sich mir nicht. Alles, was ich direkt in Hardware lösen kann, wie auch immer geartet, bringt Effizienz und einfachere Handhabbarkeit. Vielleicht hat man ja gadacht, man hat noch Monate Zeit und es wird schon noch was bei rumkommen?

Digidi
2017-12-15, 22:12:01
@Igor TH
Glaube ich nicht. Die wissen schon was sie da machen. Heutzutage werden solche Chips zig mal simuliert. Da verwirft man nicht einfach mal so das alte wenn das neue nicht deutliche Steigerungen bringt und kopieren wollten sie Nvidia ganz bestimmt nicht! Der alte Rasterizer war nämlich zu Nvidias gar nicht mal so schlecht. Lediglich culling war nicht so gut, was man aber gut über die Shader lösen konnte.

BlacKi
2017-12-15, 22:35:25
Ich kann es ja nicht aufschreddern und verlasse mich da auf die Specs. Aber diese Diskussion geht schon eine Weile :D Musst mal googeln...

Der Bereich der Primitive Shader ist quasi ein flexibel programmierbares Array aus Recheneinheiten, mit dem man alles Mögliche anstellen kann. Raja nannte es in Sonoma mal Flexi-Array. :)
Daher auch die Vermutung, dass man damit momentan die alte, serielle Pipeline nachgebildet hat, um überhaupt was zu haben.
die diskussion kenne ich, ich könnte mir vorstellen, das es sich bei der angabe nur um die belichtete fläche handelt, das silizium deshalb größer ist.

um das herauszufinden braucht man nur einen messschieber und eine vega karte. leider habe ich nur einen messchieber zuhause aber keinen vega:biggrin:

vinacis_vivids
2017-12-15, 23:32:22
Glacier Engine: Vega64 > 1080Ti
https://abload.de/img/screenshot-2017-12-15bduz6.png

dildo4u
2017-12-15, 23:50:01
Wie bei Wolf 2 es kommt aufs Level an,wobei die min FPS bei deinem Beispiel grottig sind funzt HBCC nicht?

http://abload.de/img/hitman_3840x2160_ofpsy6u7n.png

http://abload.de/img/hitmandx1270siw.png

http://www.guru3d.com/articles_pages/nvidia_star_wars_titan_xp_collector_edition_review,16.html

https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-1-Gaming/Hitman

vinacis_vivids
2017-12-15, 23:58:19
Nvidias "worst case" also ist Titan V auf dem Level der Vega64.

Fetza
2017-12-16, 00:14:19
Nvidias "worst case" also ist Titan V auf dem Level der Vega64.

Da Titan V nicht für den Gaming-Markt gedacht ist, kann das NVidia ziemlich egal sein. Du fährst ja auch nicht mit einem Rasenmäher auf die Autobahn. Und wenn Du es tun würdest, kann das dem Rasenmäherhersteller auch egal sein. Sein Produkt wurde nie dafür entwickelt und er hat es nie für diesen Gebrauch angepriesen - wer es dann entsprechend zweckendfremdet handelt auf eigene Verantwortung. ;)

dildo4u
2017-12-16, 00:19:27
Nvidias "worst case" also ist Titan V auf dem Level der Vega64.
CPU Limits die Engine skaliert kacke selbst mit High-End CPUs.

Hier hat alles Drops auf 60.

http://www.tomshardware.com/reviews/amd-ryzen-7-1800x-cpu,4951-7.html

vinacis_vivids
2017-12-16, 00:38:26
Selbst bei Witcher 3 ist Vega64@OC nun auf 1080Ti Level =)

https://abload.de/img/screenshot-2017-12-16xopcb.png

Linmoum
2017-12-16, 00:40:42
Selbst bei Witcher 3 ist Vega64@OC nun auf 1080Ti Level =)

https://abload.de/img/screenshot-2017-12-16xopcb.png
Darf ich auch mitmachen?

https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS84L0ovNzM2NDM1L29yaWdpbmFsL1RoZS1XaXRjaGVy LTMtRlBTLTI1NjB4MTQ0MC1VbHRyYS5wbmc=

dildo4u
2017-12-16, 00:44:00
Sollte langsam auffallen das Hardwareluxx unfähig ist wenn sich andere Seiten übereinstimmede Ergebnisse liefern die anders aussehen.

vinacis_vivids
2017-12-16, 00:45:05
Klar darfst du, aber dein Screen zeigt keine Vega64@OC und ändert daher nichts an meiner Aussage.

Auch Fallout4 ebenfalls Vega64@OC ~ 1080Ti

https://abload.de/img/screenshot-2017-12-16g6k4r.png


Vor allem sind das grüne Titel mit heavy Gameworks. Man braucht nicht viel Fantasie um zu erkennen, dass bei einem LL-API Update für die Nachfolger Vega in Sphären von Volta schwebt. Die Optimierungen gehen schneller als gedacht.

Linmoum
2017-12-16, 00:50:04
Stimmt, weil Igor mal eben aus 'ner Vega 64 Nitro mittels OC >=30% Performance rausholt. Hey, Pippi Langstrumpf...

vinacis_vivids
2017-12-16, 00:55:36
Vega64@OC ~ Titan V

https://abload.de/img/screenshot-2017-12-160nusz.png

Bei Wolfenstein siehst recht "poor" für Volta aus, wenn man sich die Vega LL-Optimierungen sich dazu denkt. Dazu sind in zukünfitigen Titel auch primitive shader zu erwarten.

-> Vega64 > Volta

dildo4u
2017-12-16, 01:09:42
Doom hat ein 200fps Limit 4k macht sich besser um dem zu entgehen.

http://abload.de/img/z9sic.jpg

vinacis_vivids
2017-12-16, 01:16:03
Leider hat HWLUXX keine 4k benches mit Vega64@OC gezeigt.
Die Szene von THG ist nicht so anspruchsvoll wie bei HWLUXX

https://abload.de/img/screenshot-2017-12-1623k76.png

dildo4u
2017-12-16, 01:17:51
Die Hardwareluxx Doom Benches sind Müll die Custom 1080 Ti ist dort so schnell wie die 1080 TI FE.

http://abload.de/img/doomhrdxdseh.png

http://abload.de/img/suk42.jpg

Schaffe89
2017-12-16, 02:30:25
HBCC, also effektiv mehr VRAM und ein höheres Featurelevel haben halt ihren Wert.

Der HBCC hat Stand jetzt nun überhaupt keinen Mehrwert, das Argument kannst du vergessen.
Featurelevelseitig war Maxwell lange vor Hawai oder sogar noch Polaris, da wurde das entsprechend nicht gewürdigt oder als Argument für einen höheren Preis aufgefahren.

Für mich müsste nach dem Flaschen Dx-Level und dem VRAM-Gate erst einmal nvidia deutlich preiswerter sein bei identischer Ausstattung

Nach dem Vega FineWine Gate gleicht sich das wieder aus.:wink:
Der Preis wird nicht nach deinem irrationalen Gutdünken festgelegt, sondern nach aktueller Leistung.

CompuJoe
2017-12-16, 04:05:29
HBCC ist eins der besten Errungenschaften mit Vega und wird in Zukunft sehr wichtig werden, besonders bei den Apus!

Und bei den ein oder anderen Game gibt es obwohl der VRAM nicht ausgeht sogar ein paar FPS mehr, also kein Mehrwert stimmt schon mal nicht.

PS. Feature ist nicht gleich Feature, in einigen Sachen (die auch genutzt werden) ist AMD nVidia schon Jahre vorraus ^^

=Floi=
2017-12-16, 05:06:11
Zum luxx test
https://ark.intel.com/de/products/63696/Intel-Core-i7-3960X-Processor-Extreme-Edition-15M-Cache-up-to-3_90-GHz

i7-3960X
PCI-Express-Version 2.0
DDR 3
Das kann man so vergessen

Ohne echtes AA dürfte die stärksten karten auf unter 4k in das cpu-limit rennen.

Igor TH
2017-12-16, 05:56:43
Zum luxx test...OMG. Ist mir noch gar nicht aufgefallen... :eek:

Ich sortiere hier gerade den 6900K @4.2 GHz aus, weil ich CPU-Bottlenecks definitiv ausschließen möchte. Und der hatte ja nach seinem Launch den 5930K abgelöst, der auch schon mit 4.5 GHz lief. Ins 2018er System kommt der 7900K mit 4.5 Ghz, das gibt noch einmal einen ordentlichen Schub, denn ich renne auch mit dem aktuellen System unterhalb bzw. ab WQHD bei vielen Spielen schon ab und an ins Limit, bei FHD sowieso. Nimmt der wirklich so einen alten Schleicher zum Benchmarken? Dann sind die Werte wirklich alles Makulatur. Ich kann natürlich auch nicht jeden Monat umbauen und es müssen weltweit vier identische Systeme / Images existieren (Kosten, Aufwand), aber einmal pro Jahr / zwei Jahren kann man schon mal aufrüsten. Das ist man letztendlich auch den Lesern und sich selbst schuldig. Wenn dem wirklich so ist. :confused:

Zudem befindet sich zwar das Windows 10 auf der SSD, die Spiele mussten wir aber auf eine Festplatte auslagern.Wieso mussten? Bei mir passen das VGA-Testsystem und alle Workstation-Benchmarks auf jeweils eine SSD. Die gibt es ja auch in groß. Mechanische Festplatten und Spiele... Ich hasse Nachladeruckler und auch den Zeitverlust, wenn man Szenen zig Mal bencht. Ich würde mich aufknüpfen mit sowas... :freak:
Ich habe originale Images, deren Stand ich entweder eingefroren habe (Langzeitmessungen und -vergleiche), oder ständig aktualisiere. Da hilft mir eine defekte Grafikkarte weiter, die nur als Standard-VGA erkannt wird. So kann ich Windows komplett VGA-treiberfrei updaten, ohne dass mir MS ständig alte Treiberleichen ins System drückt. Vier bis sechs 1GB-SSDs sind doch weder Hexenwerk noch unerschwinglich. Aber mechanische Festplatten? Gibt es die immer noch? :D

Also entweder kommt die Seite mit dem System dort nur als Copy & Paste rein und seit Jahren hat man einfach nur vergessen, die auch mal zu updaten, oder das System ist wirklich so veraltet, wie es dort steht. Dann wäre es leider komplett nutzlos und die Benchmarks ebenso. Es wäre natürlich irgendwie auch der unfreiwillig erbrachte Beweis, dass AMD-Grafikkarten mit grottenlahmen CPUs scheinbar besser zurechtkommen, aber wenn man wirklich ehrlich sein soll, ist dieses System reif fürs Kinderzimmer oder die Bucht. Falls es denn wirklich stimmt.

dargo
2017-12-16, 07:53:15
Wie bei Wolf 2 es kommt aufs Level an...
Nach dem letzten Spielpatch sollte es keine so großen Unterschiede mehr geben. Ein Nachtest wäre angebracht. Wobei... für einen Nachtest wäre es wohl sinnvoller erstmal zu warten bis Async Off auf GCN wieder läuft. Sonst hat man wieder für Nüsse gearbeitet. :freak:

unl34shed
2017-12-16, 08:02:40
Vier bis sechs 1GB-SSDs sind doch weder Hexenwerk noch unerschwinglich.

Gibt es sowas überhaupt :p

Bzgl. deren System, die updaten wohl grad auf Threadripper.

Daredevil
2017-12-16, 08:24:30
Die Sapphire Karte ist doch komplett lächerlich.
Die Vega 56 Karte wiegt 1.6Kg ( ! ) und ist ganze 6% schneller bei 26% mehr Verbrauch im Nitro Mode, aber dafür halt leise. ( lt. Computerbase )

Der Mitleids Award bei THG ist zwar wegen dem Engineer Porn Okay, aber Treiberprobleme und die Notwendigkeit so eines Monsters ist schon sehr fragwürdig.
579€ uvp ist auch.... naja.
Dann vielleicht einen etablierten kleineren Kühler drauf, nicht mit biegen und brechen die Performance nach oben ziehen wollen und ein rundes Produkt präsentieren für einen massen tauglichen Preis.
Anscheinend will Sapphire auch nicht in Masse gehen sondern zeigt nur Prestige, ist ja auch okay. Die Wirtschaftlichkeit ist ja bei der Architektur nicht unbedingt gegeben im Gaming Sektor.

6% schneller als eine Referenz... alter..... ;(
Bei niedrigerem Power Limit und niedrigerer Lautstärke bei der Referenz sind es dann halt 10-15%... trotzdem sehr mager.

horn 12
2017-12-16, 08:50:55
Dies ZEIGT ERNEUT AUF dass AMD die Besseren , sprich Optimaleren Referenz Karten gebracht hat und all jene die sofort zugeschlagen haben das EINZIG richtige gemacht haben und sich nun in keinster Weise blamieren müssen, eher genau das Gegenteil.

Gut, die Lautstärke der Referenz ist nicht optimal, aber jener welcher umbaut oder die Karte Stock betreibt fährt doch ganz gut damit!

Igor TH
2017-12-16, 09:05:56
Gibt es sowas überhaupt :p
Bzgl. deren System, die updaten wohl grad auf Threadripper.Ein Threadripper ist nette Hardware und ich betreibe hier mittlerweile sehr zufrieden eine große Workstation damit - aber er ist definitiv nichts für Spieletests. Komplette Fehlbesetzung, wenn dem so wäre. Eigentlich müssten die doch in CPUs und Mainboards nur so schwimmen und einen 7900K bekomme ich von jedem Mainboardhersteller dankend hinterhergeworfen, dessen Mainboard ich öffentlichkeitswirksam mit nutzte. Das will mir nicht in den Kopf. Mit den SSDs ist es doch das Gleiche. Ein Anruf bei Samsung, Toshiba (OCZ) oder Crucial und man hat das SSD-Problem hochelegant gelöst. Sichtbarkeit vorausgesetzt.

Warum dürfen hier laufend Nvidia fanboys rein grätschen und ihre ot bullshit kund tun? Fragen über Fragen...
Er postet (zugegebenermaßen cherry picking) benchmarks. Du hingegen würdigst Leute persönlich herab. Kann sich ja jeder selbst sein Bild machen, was verwerflicher ist.Ich gehe mit Dir da durchaus konform, denn beide Extreme sind nervig und am Ende nur banale Kirschpflückerei - vor allem dann, wenn emotionsgeladene Kommentare dazwischengeschoben werden. Das Internet ist ergiebig genug, um für jeden "Beweis" einen "Gegenbeweis" zu finden. Nur hilft das keinem wirklich weiter, denn schlauer wird man dadurch auch nicht. Persönliche Angriffe gehen gar nicht, aber das kenne ich aus diesem Forum hier zu Genüge. Man bekommt das gratis einfach unbestellt mit dazu. Isso. :D

Die Sapphire Karte ist doch komplett lächerlich...
Der Mitleids Award bei THG ist zwar wegen dem Engineer Porn Okay, aber Treiberprobleme und die Notwendigkeit so eines Monsters ist schon sehr fragwürdig...Deshalb auch KEIN Kauftipp für etwas, was sowieso kaum einer zu kaufen bekommt, sondern der "Editors Choice" für die nahezu perfekte Bändigung der misslichen Umstände. Das Teil ist einfach gut, da gibt es nix dran zu knabbern. Die Gigabyte ist fast 600 Gramm leichter und im Normalbetrieb ohne "Turbo" kaum lauter und wärmer - aber OC kann man damit vergessen, wenn man nicht taub werden will. Was also soll man als Boardpartner verkaufen? Denn irgendwer wird immer unzufrieden sein. :)

Dies ZEIGT ERNEUT AUF dass AMD die Besseren , sprich Optimaleren Referenz Karten gebracht hat und all jene die sofort zugeschlagen haben das EINZIG richtige gemacht haben und sich nun in keinster Weise blamieren müssen, eher genau das Gegenteil. Gut, die Lautstärke der Referenz ist nicht optimal, aber jener welcher umbaut oder die Karte Stock betreibt fährt doch ganz gut damit!Das Einzige, was wirklich empfehlenswert ist: Luftquirl runter und Vollkupfer drauf. DAS ist eine WIRKLICHE Lösung ;)

BTW: Kenn jemand ein Gehäuse, wo zwei 480er gut und ohne Würgen reinpassen?

Daredevil
2017-12-16, 09:23:15
Ja, ist ja auch okay so. Das mit dem Kauftipp weiß ich, ich habs mir bis zum Ende durchgelesen. :D

Ich bin halt der Meinung, wenn man schon eine FX5200 vor sich hat und darauf angewiesen ist, muss man nicht unbedingt 256mb Speicher verbauen, einen Preisaufschlag verlangen und suggerieren, dass wir hier Teh Ultimate Highend haben.

Ich hab jetzt auch keine 20% Performance Sprünge erwartet, das hat hoffentlich niemand.... aber irgendwie... meh. Da empfinde ich die XFX als runderes Produkt. Billiger Kühler drauf der besser als die Referenz ist und ( hoffentlich ) ebenfalls billig günstig verscherbeln.

=Floi=
2017-12-16, 09:49:09
Also entweder kommt die Seite mit dem System dort nur als Copy & Paste rein und seit Jahren hat man einfach nur vergessen, die auch mal zu updaten, oder das System ist wirklich so veraltet, wie es dort steht.


in den kommentaren

Zitat Henn1;26022056
Habt ihr das Testsystem wieder zurückgeändert? Ich dachte ihr nutzt nun einen 1950X?

Die Umstellung erfolgt mittelfristig auch. Wir haben auf dem neuen Systen aber noch zu wenige Vergleichswerte.


:ugly:

Igor TH
2017-12-16, 09:55:37
@daredevil:
Ich kenne den Preis (noch) nicht genau, aber die Gigabyte könnte die Lücke gut füllen. Ausreichend, aber nicht überzuckert. Die könnte dann auch den Vernunfts-Award bekommen, den wir aber leider nicht haben (warum eigentlich nicht?).

Threadripper als Testplattform für High-End Gaming-VGA ist komplett sinnbefreit. Damit fällt die Seite als belastbare Quelle leider komplett raus. Wer zur Hölle kommt bloß auf diese schiefe Idee? Damit macht man sich natürlich noch unvergleichbarer (im Wortsinne) und kann am Ende komische Resultate auf die CPU schieben, denn es wird in der Masse eh kaum einer nachprüfen können. Muss man nicht verstehen, aber einer weniger schadet auch nicht. :)
Ich lasse testweise in der letzten Zeit den i9-7900X @4.5 GHz schon mitlaufen und die Benchmarkergebnisse ab der oberen Mittelklasse unterscheiden sich vor allem ab WHQL abwärts zum Teil dramatisch, obwohl der übertaktete 6900K nun weiß Gott keine lahme Krücke ist. Was will man da mit einem Threadripper noch benchen? CPU-Limitierungen? Ein Zweitsystem mit TR für die betreffenden Vergleiche mit gut skalierenden Spielen sehe ich ja noch ein, aber das Ganze ist für sich allein betrieben schon fast Absurdistan. TR gehört in eine Workstation, sieht AMD übrigens genauso.

Die Umstellung erfolgt mittelfristig auch. Wir haben auf dem neuen Systen aber noch zu wenige Vergleichswerte.Hä? Soll das heißen, in den Benchmarks wird (auch) mit alten Werten gearbeitet und eben nicht ALLES mit aktuellen Treibern neu gebencht, sondern fein gemixt, um Zeit zu sparen? Ich muss direkt mal ein paar Reviews vergleichen... Wir sitzen hier immer die ganze Nacht und jagen alles und jede noch einmal durch die aktualisierten Syteme, wo es Patches oder neue Treiber gab. Minimal-Level, dass man alles, was neu sein könnte, auch noch einmal mit durchzieht. Nur wo sich nichts geändert hat, kann man es so lassen.

Ok, wir kommen mal wieder zu weit OT :(

TGKlaus
2017-12-16, 10:12:21
Hä? Soll das heißen, in den Benchmarks wird (auch) mit alten Werten gearbeitet und eben nicht ALLES mit aktuellen Treibern neu gebencht, sondern fein gemixt, um Zeit zu sparen? (

Macht CB genauso. Aber kritisiere den Punkt mal, da wirste gleich wieder in ne Ecke gestellt...

Warum dürfen hier laufend Nvidia fanboys rein grätschen und ihre ot bullshit kund tun? Fragen über Fragen.


Tja, warum haben die Nvidia Fans bei den Sniper Elite 4 Benches nicht erklärt, dass das nur cherry picking ist sondern "ihre" Titan V gefeiert wie nen neuen Gott?

pilzsammler2002
2017-12-16, 10:49:02
Mir ist das Gewicht egal. Ich benutze nur noch Gehäuse (cubes) wo die (horizontales board) Karten drin stehen :D

@igor
In nen core x9 von tt oder die großen von Lian-li nekommste alles rein :D

Mortalvision
2017-12-16, 10:51:24
Warum nehmt ihr core i9 zum benchen und nicht den in spielen etwas performanteren i7-8700k?

Igor TH
2017-12-16, 10:58:36
Warum nehmt ihr core i9 zum benchen und nicht den in spielen etwas performanteren i7-8700k?Ab 4.5 GHz nimmt sich das nichts mehr. Allerdings ist die Plattform nicht so kastriert und ich habe mehr Lanes. Das fängt bei mehreren SSDs an und endet bei MxGPU-Systemen. ich habe hier beides rumliegen und ausgiebig getestet. Mir sagt der i9 in der Summe einfach mehr zu. Zumal ich auf meinem Brett 10Gb/s Ethernet habe und es damit schön in meine ganze neue Peripherie passt. :)

Daredevil
2017-12-16, 11:03:17
Je mehr Kerne man hat, desto zukunftssicherer bzw. langfristiger ist das Testsystem. :)
Ziel ist es ja, das System so lange wie möglich zu halten. Ein 6 Kern Ivy Bridge ist da ja nicht unbedingt die schlechteste Wahl für gewesen früher. Der ist im übrigen auch nicht meilenweit von einem Ryzen 1600 entfernt, also so sehr zum alten Eisen, wie sein Name vielleicht deutet, ist er nun auch nicht. Man muss halt die Karte im 4k prügeln und sich keine FullHD Tests anschauen.

Igor TH
2017-12-16, 11:08:58
So schaut's aus. :)

10 echte Kerne geben einem mit oder ohne HT die Chance, auch einmal schön runterzuskalieren und z.B. 4 Kerner zu emulieren. Bei einem 6-Kerner bekomme ich aber nichts mehr hochskaliert. Und HT is auch nur eine Hilfskrücke. Wenn schon viele Threads, dann richtig und nicht nur halb :)

scully1234
2017-12-16, 11:47:08
OMG. Ist mir noch gar nicht aufgefallen... :eek:

Ich sortiere hier gerade den 6900K @4.2 GHz aus, weil ich CPU-Bottlenecks definitiv ausschließen möchte.
.

Und so sehen auch die Resultate aus



Hä? Soll das heißen, in den Benchmarks wird (auch) mit alten Werten gearbeitet und eben nicht ALLES mit aktuellen Treibern neu gebencht, sondern fein gemixt,

Da liegst du richtig bis Test 19 ist die schwächelnde CPU im Einsatz,danach folgt der Threadripper ,und zeigt auch wo die Reise hingehen kann.

Nur kannst du die ersten 19 in die Tonne klopfen bei solchen starken Grafikkarten

Das ist auch der Grund warum V_V hier ausschließlich auf die erste Testreihe zugreift, und die Tests ab Seite 20 ignoriert

RoughNeck
2017-12-16, 12:28:08
Dies ZEIGT ERNEUT AUF dass AMD die Besseren , sprich Optimaleren Referenz Karten gebracht hat und all jene die sofort zugeschlagen haben das EINZIG richtige gemacht haben und sich nun in keinster Weise blamieren müssen, eher genau das Gegenteil.

Gut, die Lautstärke der Referenz ist nicht optimal, aber jener welcher umbaut oder die Karte Stock betreibt fährt doch ganz gut damit!

Die VEGA Air Referenz sind Müll, da gibt es nichts zu beschönigen. PUNKT.
Niemand mit einen funktionierenden Gehör tut sich so eine Turbine an.

=Floi=
2017-12-16, 12:49:13
Da liegst du richtig bis Test 19 ist die schwächelnde CPU im Einsatz,danach folgt der Threadripper ,und zeigt auch wo die Reise hingehen kann.
das ist aber der Volta test!
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45199-nvidia-titan-v-volta-architektur-im-gaming-test.html?start=3
Das ist ja eigentlich noch geiler hier zwei systeme und wieder die krücke zu nehmen, bei einer potentiell doppelt so schnellen karte wie die 1080er :freak:
Ok, inoffiziell üterstützt der alte prozessor wohl pcie 3.0

wir meinen den sapphire test.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45194-sapphire-radeon-rx-vega-64-nitro-im-test.html

dort wurde wohl alles mit dem langsamen system gemacht.
Der test ist einfach wasted time.

BlacKi
2017-12-16, 13:04:59
Ab 4.5 GHz nimmt sich das nichts mehr. Allerdings ist die Plattform nicht so kastriert und ich habe mehr Lanes. Das fängt bei mehreren SSDs an und endet bei MxGPU-Systemen. ich habe hier beides rumliegen und ausgiebig getestet. Mir sagt der i9 in der Summe einfach mehr zu. Zumal ich auf meinem Brett 10Gb/s Ethernet habe und es damit schön in meine ganze neue Peripherie passt. :)

sry, aber wenn man die benches von turricanm3 ansieht, der von einem optimierten 4,8ghz sky x kommt und dann durch den wechsel auf den 8700k nochmals 15-20% schneller wird, dann sollte man die auswahl nochmals überdenken. zumal es keinen sinn macht einen 10 kerner wegen seiner zukunftstauglichkeit ins system übernimmt, und dann nach 2 jahren erneut sowieso ersetzt, so wie in der vergangenheit.

unl34shed
2017-12-16, 13:12:48
Ein Threadripper ist nette Hardware und ich betreibe hier mittlerweile sehr zufrieden eine große Workstation damit - aber er ist definitiv nichts für Spieletests. Komplette Fehlbesetzung, wenn dem so wäre.

Naja im Luxx machen sie auch CPU Tests mit einer 1060 (Ryzen Release), also genauso eine Fehlbesetzung. Deswegen erwarte ich von denen auch nichts mehr.

Gerüchte bekommen sie irgendwie auch nicht als solche markiert und die Community... Bisschen OT, wobei hilft beim einordnen der Benchs.

Loeschzwerg
2017-12-16, 13:13:21
@BlacKi: PUBG zählt nicht :freak: Um es mit den Worten eines gewissen Users zu sagen, das ist "technischer Müll" :D


Niemand mit einen funktionierenden Gehör tut sich so eine Turbine an.

Na jetzt übertreibt mal nicht -.-* Nur weil die meisten mittlerweile Gehäuse in Form eines Schweizer-Käse herumstehen haben ^^

scully1234
2017-12-16, 13:18:39
wir meinen den sapphire test.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45194-sapphire-radeon-rx-vega-64-nitro-im-test.html

dort wurde wohl alles mit dem langsamen system gemacht.
Der test ist einfach wasted time.

Ich meine das muss Don doch irgendwo aufgefallen sein ,das sich die Resultate eigentlich unterschiedlich starker GPUs angleichen,dann so weiter zu machen, und weiter munter Fehlerquellen einzubringen in das Fazit ist...

vinacis_vivids
2017-12-16, 13:24:30
Oh Gott, wieso wird dieser Thread immer wieder von den gleichen aufgesucht um Vega madig zu reden?

Dass Vega64 mittlerweile in allen neueren technisch anspruchsvollen Titeln mit der 1080Ti konkurriert, is jedem Laien aufgefallen, nur den ignoranten nicht.

BlacKi
2017-12-16, 13:37:31
@BlacKi: PUBG zählt nicht :freak: Um es mit den Worten eines gewissen Users zu sagen, das ist "technischer Müll" :D

nein, das ist die cpu und dank schnellerem speicher generell, nur kann sie das nicht zeigen dank mancherorts gpu limit oder mischmasch. wir reden bei einem grafikkarte testsetup und dessen cpu natürlich über das cpu limit, und nichts anderes, dann stimmen auch die 15-20%.

beispiel BF2: wer testet den 8700k dort im cpu limit? keiner, weils nicht nötig ist. dennoch ist dort der 8700k deutlich schneller auch wenns keiner testet.

Loeschzwerg
2017-12-16, 13:49:46
Ist mir schon klar, war das durch die Smilies nicht ersichtlich? Ich kenne von Turri btw. wirklich nur den PUBG Test und bei dem Spiel klemmt es noch an vielen Stellen.

TGKlaus
2017-12-16, 14:01:09
es ging um das grauenhafte testsetup und die daraus folgenden verfälschten werte.

Sorry, aber hier ist der Radeon RX Vega 56/64 Thread.
Und für jeden der ne Sandy, Ivy oder Haswell CPU hat ist der Test deutlich aussagekräftiger wenn er auf ne VEGA aufrüstet als die meisten anderen Tests.

Th3o
2017-12-16, 14:25:32
Die VEGA Air Referenz sind Müll, da gibt es nichts zu beschönigen. PUNKT.
Niemand mit einen funktionierenden Gehör tut sich so eine Turbine an.
Das ist eine sehr subjektive Aussage, ein imho würde der Aussage gut tun.

Th3o
2017-12-16, 14:35:13
Die Werte sind für eine Vega 56. :) Probier mal das:

1.620 MHz bei 1.000 mV im P7
1.600 MHz bei 975 mV im P6
800 mV beim HBM, Takt auf 950 MHz
+50 % Power Target
2.500 RPM Lüfterdrehzahlziel

Das ist etwa das Optimum; die GPU landet dann bei 170 bis 200 Watt ASIC-Power und ~1.500/950 MHz.

MfG,
Raff
@Igor TH
Hast Du eventuell auch eine Nitro 56 um zu testen, wie sie diese Einstellungen bewältigt? Bei meiner Ex-Vega 56 hat das ca. 15% Mehrleistung gebracht, allerdings war die GPU HotSpot Temperatur bedenklich an 100 Grad dran.

BlacKi
2017-12-16, 14:36:49
Sorry, aber hier ist der Radeon RX Vega 56/64 Thread.
Und für jeden der ne Sandy, Ivy oder Haswell CPU hat ist der Test deutlich aussagekräftiger wenn er auf ne VEGA aufrüstet als die meisten anderen Tests.

dashier ist der review fred, nicht der vega64 fred, und wenn wir den test von luxx kritisieren, wegen des schlechten testsetups, das zu falschen werten führt, dann ist es richtig darauf hinzuweißen und sollte auch getan werden.

vinacis_vivids
2017-12-16, 14:39:19
Frostbite Vega64 ~ 1080Ti
Idtech Vega56 ~ 1080Ti
Forza7 Vega56 ~ 1080Ti

Selbst bei heavy Gamesworks Titel Its meant to bei played wie Destiny2 ist Vega auf 1080Ti Level. Repeat it pls.

Witcher3, Hitman, CoD, Dirt, Prey usw.

MartinRiggs
2017-12-16, 14:43:24
Ok,

i repeat it.

In Wolfenstein 2 kommt die Vega 64 der 1080TI halbwegs nahe, ansonsten sieht es dünne aus, außer in deiner kleinen Knetgummiwelt. :biggrin:
Die Lieferbarkeit von Vega ist übrigens auch phänomenal.

:facepalm:

TGKlaus
2017-12-16, 14:53:57
@ Igor

Eure Seite ist gerade extrem langsam.
Es dauert teils (deutlich) länger als 1 min bis alle Bilder einer Seite geladen sind.

Ist zur Nitro auch ein UV-Test geplant?

Savay
2017-12-16, 15:31:11
die man so nicht unkommentiert stehen lässt.

Und warum bitte nicht? Fällt euch dann nen Zacken aus der Krone?!

Ehrlich gesagt nervts tatsächlich enorm!

Ich bin hier ewig inaktiv gewesen und wollte in letzter Zeit mich eigentlich hier nur mal wieder etwas über VEGA Schlau machen...dennoch kommen dauernd diese affigen Grabenkriege zustande.
Der Chip ist wie er ist...das kann man anhand der Reviews aber irgendwie auch selbst rausfinden, wenn man sich nicht nur auf eine Quelle verlässt...
Nur weil v_v hier mal das eine oder andere Beispiel bringt wo die Vega halt mal durchaus etwas nach oben ausschlägt ändert das doch nix am Gesamtbild...so viel Abstraktionsvermögen könnt ihr den Forenteilnehmern schon zutrauen!

Sonderlich Informativ finde ich die Beiträge der meisten nVidianer hier drin nämlich tatsächlich nicht...findet das umgekehrt in den nVidia threads etwa auch so statt?! :freak:

BlacKi
2017-12-16, 15:50:36
als ob!

wievielen usern ist hier denn bittschön vorher aufgefallen wie die werte vom luxx zustandekommen? man geht ja mittlerweile schon nichtmehr auf jeden post von V_V ein, aber wohl dort wo es nicht so einfach zu erklären ist was da gezeigt wird.

viel mehr stört das ständige sich beschweren darüber das man komische werte zurechtrückt.

Igor TH
2017-12-16, 16:07:23
@ Igor
Eure Seite ist gerade extrem langsam.
Es dauert teils (deutlich) länger als 1 min bis alle Bilder einer Seite geladen sind.DDoS Attacke, mal wieder... :(

Jetzt fangt Euch doch bitte mal wieder ein. Ich bin ja auch kein Kind von Traurigkeit, aber man kann es auch übertreiben. Sich mit gewissen Charts selbst ins Abseits zu schießen ist schon schlimm genug, das muss man nicht auch noch genüsslich verbal sezieren. Das geht auch emotionslos und knackig kurz. Eine Diskussion kann auch mal eine Schlacht der Argumente sein, aber bitte kein Schlachtfest der Person. Ich mag solche Jubelposts auch nicht, aber das genaue Gegenteil ist ja nun auch nicht wirklich besser. Also... Keep cool!

Dino-Fossil
2017-12-16, 17:25:59
https://imgs.xkcd.com/comics/duty_calls.png

vinacis_vivids
2017-12-16, 18:44:44
Immer dieselben. Async Compute ist AMD's Domäne, da muss Nvidia sich noch lange strecken um dahin zu kommen. Wolfenstein2 gefixt erwarte ich ~20% oder mehr Vorsprung auf 1080Ti.

hq-hq
2017-12-16, 18:50:50
Immer dieselben. Async Compute ist AMD's Domäne, da muss Nvidia sich noch lange strecken um dahin zu kommen. Wolfenstein2 gefixt erwarte ich ~20% oder mehr Vorsprung auf 1080Ti.

jo das war schon komisch, war AsyncCompute bis jetzt nicht nur bei NVidia aktiv mit minimalen Leistungsplus und bei AMD war es deaktiviert weil es sich negativ ausgewirkt hat...

aufkrawall
2017-12-16, 18:54:25
Auch Nvidia wurde von den Seiten nicht mit optimalen Settings gebencht, die wären AC off und Deferred Rendering on.

RoughNeck
2017-12-16, 19:20:37
Das ist eine sehr subjektive Aussage, ein imho würde der Aussage gut tun.

Es ist meine Meinung die ich auf von der Vega 56 Air die hier auf der Arbeit in mehreren Rechnern eingesetzt wird bilden durfte. Und ich bleibe dabei, die Turbine ist nichts was man sich antun möchte.
Wir sind im Jahr 2017, da hat ein Rechner leise zu sein, egal wie Leistungsfähig bzw. wie hoch der Verbrauch ist.

Bei anderen Dingen wie V8 Motoren, da bin ich anderer Meinung aber wer am Rechner auch arbeitet und sich konzentrieren möchte / muss, der will sicher kein Triebwerk neben sich haben.

Birdman
2017-12-16, 19:30:05
Auch Nvidia wurde von den Seiten nicht mit optimalen Settings gebencht, die wären AC off und Deferred Rendering on.
AMD wird doch seit Monaten eh vielerort bevorzugt, indem jeweils nur DX12 Benchmarks zum Zuge komme und das obwohl nVidia im selben Game unter DX11 besser performt und dabei auch problemlos die Radeons zerstören würde welche mit DX12 laufen...

Linmoum
2017-12-16, 19:33:06
AMD wird doch seit Monaten eh vielerort bevorzugt, indem jeweils nur DX12 Benchmarks zum Zuge komme und das obwohl nVidia im selben Game unter DX11 besser performt und dabei auch problemlos die Radeons zerstören würde welche mit DX12 laufen...Und bei welchen Spielen soll das der Fall gewesen sein?

unl34shed
2017-12-16, 19:47:42
Bei den Alibi DX12 Spielen, die mit FL11_0 laufen.

TGKlaus
2017-12-16, 19:49:45
AMD wird doch seit Monaten eh vielerort bevorzugt, indem jeweils nur DX12 Benchmarks zum Zuge komme

Dann zeig doch mal die Benches von ner handvoll Games, bei denen das angeblich so sein soll.



problemlos die Radeons zerstören

Allein durch diese Wortwahl, weiss ich das da nichts kommt, weil du bloss rumtrollst.

dargo
2017-12-16, 20:00:02
Ich warte nur noch bis einer mit Forza 7 kommt. X-D


Sonderlich Informativ finde ich die Beiträge der meisten nVidianer hier drin nämlich tatsächlich nicht...findet das umgekehrt in den nVidia threads etwa auch so statt?! :freak:
Nein... die AMD-Threads sind seltsame Magnete. :biggrin:

RoughNeck
2017-12-16, 20:03:43
Hat wer Forza 7 gesagt?

Ja, da zieht meine VEGA 64 LC meine 1080 TI ab, egal welches Setting.
Aber dennoch, in den Game lachen beide Karten selbst über 4K.

dargo
2017-12-16, 20:07:06
Hat wer Forza 7 gesagt?

Du hast den Witz nicht verstanden. :wink: Ich amüsiere mich jedes Mal hier wenn einer mit Forza 7 kommt weil sich das Game überhaupt nicht reproduzierbar benchmarken lässt.

RoughNeck
2017-12-16, 20:23:53
Wolfenstein doch auch nicht

Hübie
2017-12-16, 20:27:06
Ja, ja. Hab's ja verstanden. :tongue: Steht ja nicht auf der Packung: "Achtung! nicht zum Benchmark geeignet!"

@TGKlaus: Ich denke er meinte z.B. einige BF1/BF2-Benchmarks wo dann wahllos DX12 genommen wurde. DX12 rennt iirc sogar auf Radeon schlechter (zumindest die Frametimes; FPS weiß ich nicht mehr aus dem Kopf). Aber mir ist jetzt auch nicht so bewusst klar, wo und wie AMD bevorzugt werden würde. Das sind Ausnahmen wie v_v. ;D

hmmm
2017-12-16, 20:32:27
jo das war schon komisch, war AsyncCompute bis jetzt nicht nur bei NVidia aktiv mit minimalen Leistungsplus und bei AMD war es deaktiviert weil es sich negativ ausgewirkt hat...
Nein und nein.
Auch Nvidia wurde von den Seiten nicht mit optimalen Settings gebencht, die wären AC off und Deferred Rendering on.
AC ging/geht bei Nvidia ohnehin nicht.
Deferred Rendering on bedeutet schlechtere Qualität. Aber ofensichtlich ist HQ nicht_mehr Nvidias Feld.
Wolfenstein doch auch nicht
Wolfenstein ist Schrott! Eigentlich schade da die Engine ja offensichtlich mehr kann.
---
Ich wette 2018 sehen wir auch "AMD_Works", AMD beginnt es wie Nvidia zu machen und Programmiert ihren eigenen Benchmark.

RoughNeck
2017-12-16, 20:33:41
@Hübie

V_V lebt in seiner eigenen verdrehten Welt.
Mit den Januar Treiber behauptet er dann Vega 64 schlägt eine 1080 TI bei weiten.


@hmmm

Ja leider, keine Ahnung was man da bei der Engine verbockt hat.
Aber egal, ich habe das Game durch, ganz nett aber zum 2. mal Spielen fehlt mir da der Anreiz.

dargo
2017-12-16, 20:33:46
Wolfenstein doch auch nicht
Spielst du ein anderes Wolfenstein 2 als ich? Ich bekomme bei meinen Savegames immer die gleichen Frames.

Hübie
2017-12-16, 20:36:26
Das Spiel ist stellenweise kaputt. Siehe mein Video. ;)

RoughNeck
2017-12-16, 20:36:42
Ich habe das Game seit 2 Wochen nicht mehr angerührt, bin durch damit.
Mein letzter Stand ist dass da auch jedes mal ein etwas anderes Ergebnis rumkommt.

dargo
2017-12-16, 20:39:21
Mein letzter Stand ist dass da auch jedes mal ein etwas anderes Ergebnis rumkommt.
Das kann eigentlich nicht sein. Du musst nur zwei Sachen beachten.

1. Sobald ein Save geladen ist erstmal wenige Sekunden warten. Die Framerate steigt etwas.
2. Beim Laden der Saves nach Möglichkeit nicht die Maus bedienen. Wenn du die Maus im Ladescreen verschiebst kann es passieren, dass der Bildschirminhalt auch verschoben ist und nicht mehr exakt zum letzten passt. Was wiederum leichte Abweichung in der Framerate bedeuten kann.

hmmm
2017-12-16, 20:49:45
Ja leider, keine Ahnung was man da bei der Engine verbockt hat.
Aber egal, ich habe das Game durch, ganz nett aber zum 2. mal Spielen fehlt mir da der Anreiz.
Scheinbar ist das Verhältnis zwischen Bethesda und AMD sehr abgekühlt. Soviele Pleiten, Pech & Pannen bei einem für AMD so wichtigem Spiel :O
Naja, wo der Zufall zuschlägt, *hust* Immerhin kommt ja eine Nvidia Tegra bzw Nintendo Switch Version.

Loeschzwerg
2017-12-16, 20:55:58
Würde ich nicht mal sagen, es lief doch bis jetzt kein einziges Spiel mit den neuen APIs wirklich rund. *Bitte nicht gleich wieder in die übliche LL-Diskussion verfallen, da haben wir schon ein Thema*

dargo
2017-12-16, 21:06:30
Es wird doch hier wieder komplett übertrieben. Wolfenstein 2 lief von Anfang an (wobei ich paar Tage später nach Release angefangen habe, kann also durchaus sein, dass es schon den ersten Patch gab) sehr gut. Es gab ganz wenige Worst Case Szenen wo die Performance stark einbrach (gemessen an der gesamten Spielzeit eigentlich ein Witz). Auf Geforce weniger als auf GCN. Dies ist nun seit dem letzten Spielpatch behoben. Im Prinzip fehlt nur noch der letzte Feinschliff für GCN in Bezug auf Async Compute. Dies ist nämlich nicht nur langsamer, aktuell lässt sich auch kein Async Compute deaktivieren um dem entgegen zu wirken. Denn damit hat man nur noch einen schwarzen Bildschirm. Man muss sich halt nur damit abfinden, dass aktuell noch grob 10-20% Leistung auf GCN fehlt. Nichts kriegsentscheidendes dank der sehr hohen Frameraten.

TGKlaus
2017-12-16, 21:14:58
Das sind Ausnahmen wie v_v. ;D

Das sind die Ausnahmen, die man ignorieren sollte. :wink:



1. Sobald ein Save geladen ist erstmal wenige Sekunden warten.

Das gehört für mich zum Standardvorgehen:

Laden, kurz warten, einmal komplett um die eigene Achse drehen und dann wird gebencht.