PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45

Pirx
2018-01-16, 16:29:31
...da uns der VRAM um die Ohren fliegt...
bei welchem Anwendungsfall?

Sven77
2018-01-16, 16:30:23
Texturing mit Mari

https://www.foundry.com/products/mari

das meiste dürften schon die 16GB abfangen, wir haben aber Assets die auf jedenfall noch mehr brauchen

Screemer
2018-01-16, 16:43:34
ssg? da wärt ich doch ein prädestinierter anwendungsfall für.

Sven77
2018-01-16, 16:54:39
knapp 500% Preisaufschlag müsste ich erst verargumentieren können ;D. Jetzt erstmal die FE evaluieren, 20GB VRAM müsste dicke reichen (mit HBCC).. ist ja ncht nur eine die wir dann brauchen

M4xw0lf
2018-01-16, 17:04:30
Berichte mal weiter, ob das tut.

Hübie
2018-01-16, 17:05:36
Die PC Games Hardware hat nun ihren seit dem 15.12. verwendeten, neuen GPU-Parcours 2018 auf die Website gekippt: Grafikkarten-Rangliste 2018: 12 Radeon- und Geforce-GPUs im Benchmarkvergleich [Mega-Update] (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)

Dort steht alles zu den getesteten 20+1 Anwendungen und deren Ergebnissen. Die Änderungen gegenüber den vorigen "Parcüren" sind deutlich.

MfG,
Raff

Was hat euch denn dazu verleitet eine 980 Ti auf 1,04 GHz zu setzen, wo die Spec doch wenigstens 1,07 GHz angibt. Ist der Boost aktiv?
Bei der 1070 wiederum gebt ihr 1,6 GHz an, wo die doch nach Spec nur 1,5 hat (Boost auch wieder unklar). Die 1060 hat ebenfalls nur 1,05 GHz und nicht 1,7. Also entweder das eine oder das andere stimmt nicht. Wie hoch die Karten wirklich boosten wäre viel, viel interessanter, als ein Wert auf Papier. Ansonsten natürlich lobenswert, dass ihr euren Parcour und die Methodik aufrollt / umkrempelt. :up:

LSSJBroly
2018-01-16, 17:18:19
Was hat euch denn dazu verleitet eine 980 Ti auf 1,04 GHz zu setzen, wo die Spec doch wenigstens 1,07 GHz angibt. Ist der Boost aktiv?

Passt doch? Der Basistakt liegt bei 1.000 MHz, der angegebene Boost bei 1.075 MHz. Wird die Karte zu warm, senkt diese den Takt bis hinunter zum Basistakt. Und ja, bei der Reverenzkarte mit dem Referenzkühler wird der Takt so weit runtergeregelt @24°C Lufttemperatur. Ich hab die ja selber hier rumliegen.


Bei der 1070 wiederum gebt ihr 1,6 GHz an, wo die doch nach Spec nur 1,5 hat (Boost auch wieder unklar).
Auch hier: Basistakt 1.506 MHz, nach Aufwärmzeit dann mindestens noch ~1.607 MHz anliegend.

Pascal boostet im Verhältnis halt deutlich höher als Maxwell, gerade auch, wenn man is Temperatur Limit rein läuft.


Wie hoch die Karten wirklich boosten wäre viel, viel interessanter, als ein Wert auf Papier. Genau das wird doch jetzt Angegeben :)

Raff
2018-01-16, 17:22:03
Hübie: Text lesen, bitte. Also alles, nicht nur die Benchmarküberschriften. :)

Tipp: www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/#a5

MfG,
Raff

DrumDub
2018-01-17, 11:29:39
toller test, raff! besonders wie der testparcours festgelegt wird und dies auch genau im detail erklärt wird.

Hübie
2018-01-17, 13:12:24
Hübie: Text lesen, bitte. Also alles, nicht nur die Benchmarküberschriften. :)

Tipp: www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/#a5

MfG,
Raff

Da hab ich wohl drüber gescrollt. :D Gehen die echt so weit herunter? Wird Zeit dass die Ref-Kühler mal weg gelassen werden. Wenn ich so überlege dass meine mit der 1070 Ti konkurriert und in eurem Test gerade so ne Fury X überholt wird... Axial hin oder her, bei ein wenig Belüftung ist axial immer die bessere Methode.

bnoob
2018-01-17, 15:08:34
Computerbase hat jetzt sowas ähnliches

https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/

horn 12
2018-01-18, 21:56:58
@Igor

Kann dies der Fix unserer Black Screen bei Youtube, und Generellen Videos sein?
und auch des Abschalten des Monitors wenn man mal den Monitor schnell ausmachen will ...

Versteh eben nicht ganz was AMD gefixt haben will ...


Radeon Software Adrenalin Edition 18.1.1 Highlights

Gelöste Probleme
Resolved Issues
A small number of DirectX®9 games may experience crashes or instability.
Radeon FreeSync enabled system configurations may experience stuttering when using the performance metrics feature in Radeon Overlay.
Protected video content may intermittently experience a freeze or hang during playback.
A blank screen may be experienced while playing back videos when using Movies & TV player.
Starcraft™2 may experience corruption in multi GPU enabled system configurations.
Bezel compensation controls when creating display groups may be misaligned or have no functionality.
Blank videos may be experienced when playing back videos in edge browser after the system resumes from sleep.
Color corruption may intermittently be observed in Radeon overlay with multiple gaming applications and performance metrics running.
The Radeon WattMan fan slider may intermittently fail to change after loading profiles.
Enhanced Sync may not enable for game profiles in Radeon Settings when using Vulkan™ API.
On multi GPU enabled system configurations Player Unknowns Battlegrounds™ may experience menu item flickering.
CLINFO may report incorrect values in multi GPU system configurations.




@Igor

Zudem kann es sein, dass sich AMD die Primi. Shader Implementierung echt für den Ampere Launch aufbewahrt
und dann groß rüberkommt oder wird da nix mehr groß kommen da gar Intel die Prim. Shader nicht mehr erwähnt.
Laut anderem Forum würden dann andere Uneinstimmigkeiten auftreten, daher sieht man von der Implementierung wirklich ab.
Fragen über Fragen und AMD gibt sich bedeckt.

Th3o
2018-01-18, 23:45:19
The Witcher Enhanced Edition Director's Cut läuft wieder mit diesem Treiber.

Hübie
2018-01-19, 02:20:41
Zudem kann es sein, dass sich AMD die Primi. Shader Implementierung echt für den Ampere Launch aufbewahrt
und dann groß rüberkommt oder wird da nix mehr groß kommen da gar Intel die Prim. Shader nicht mehr erwähnt.
Laut anderem Forum würden dann andere Uneinstimmigkeiten auftreten, daher sieht man von der Implementierung wirklich ab.
Fragen über Fragen und AMD gibt sich bedeckt.

Ich lehne mich mal so weit aus dem Fenster und behaupte, dass AMD sich nicht aus positiven Gründen bzgl. primitive Shader bedeckt hält. Warum zur Hölle sollen die Leistung hinterm Zaun halten wenn die preislich mit der 1080 Ti konkurrieren, aber leistungsmäßig an der kleineren Schwesterkarte zu knabbern haben? Es ergäbe keinen Sinn. Ampere wird ja auch noch mal ne Schippe Kohlen rauf legen, was Effizienz anbelangt.
Klar wäre es wünschenswert, aber man muss hier leider realistisch bleiben. Vega wird sicher noch ein paar Prozente über die Zeit zulegen, aber der Zug ist insgesamt abgefahren. Man sollte sich bei AMD auf kommende Titel konzentrieren und zum Start das Beste heraus holen. Far Cry 5 könnte so ein Titel werden...

Schlammsau
2018-01-19, 06:00:19
Gibt es eigentlich schon Klagen in den USA wegen der fehlenden Shader?

Bucklew
2018-01-19, 08:58:07
Zudem kann es sein, dass sich AMD die Primi. Shader Implementierung echt für den Ampere Launch aufbewahrt
Nein.

Pirx
2018-01-19, 09:26:44
Nein.
sei doch nicht immer so negativ bei AMD

Dino-Fossil
2018-01-19, 09:56:33
Ich stimme seinen Äußerungen in dem Umfeld eher selten zu, aber was die PS angeht würde ich bei Vega mittlerweile auch nicht mehr viel erwarten.
Vielleicht sehen wir da ein deutliches Plus, wenn sie gezielt von einigen Spielen unterstützt werden (was vermutlich nicht oft der Fall sein wird), aber auf Basis einer generischen, treiberbasierten Ansteuerung geht vermutlich einfach nicht mehr als aktuell.
Lasse mich da aber gern eines besseren belehren...

Sven77
2018-01-19, 09:56:51
Berichte mal weiter, ob das tut.

Tut leider nicht.. das berühmte Henne-Ei-Problem, Software ist für die Grünen optimiert weil kaum einer AMD nutzt, keiner nutzt AMD weil nicht dafür optimiert.

Hier im speziellen: Diverse 3rd Party Plugins funktionieren gar nicht mit der FE bzw. AMD, und das Programm(Mari) selbst lässt keine Speicheradressierung oberhalb des pshysischen Speichers (hier 16GB) zu, HBCC also nutzlos. Supportanfragen sind raus, wir brauchen aber jetzt ne Lösung

Das ist übrigens schon das dritte mal unsere Erfahrung mit AMD im professionellen Bereich, abseits ihrer explizit vorgestellten Use-Cases geht erst mal gar nichts

Pirx
2018-01-19, 10:07:58
Habt ihr auch die "3rd Partys" angeschrieben? Wenn die nicht bereit sind, nicht nur auf nV "hardzucoden" kann das ja nichts werden.

M4xw0lf
2018-01-19, 10:09:28
Tut leider nicht.. das berühmte Henne-Ei-Problem, Software ist für die Grünen optimiert weil kaum einer AMD nutzt, keiner nutzt AMD weil nicht dafür optimiert.

Hier im speziellen: Diverse 3rd Party Plugins funktionieren gar nicht mit der FE bzw. AMD, und das Programm(Mari) selbst lässt keine Speicheradressierung oberhalb des pshysischen Speichers (hier 16GB) zu, HBCC also nutzlos. Supportanfragen sind raus, wir brauchen aber jetzt ne Lösung

Das ist übrigens schon das dritte mal unsere Erfahrung mit AMD im professionellen Bereich, abseits ihrer explizit vorgestellten Use-Cases geht erst mal gar nichts
Aber gibt es dann überhaupt irgendeine Lösung für euer Problem, bei Team Grün oder sonstwo?

Bucklew
2018-01-19, 10:18:28
sei doch nicht immer so negativ bei AMD
Wenn eine realistische Einschätzung schon negativ für AMD ist, muss die Situation für AMD echt mies sein ;D

Primitive Shader wird in die gleiche Schublade verschwinden, wie die 2,5fache Energieeffizienz von Polaris und der Overclocker's dream Fury.

Sven77
2018-01-19, 10:18:49
Aber gibt es dann überhaupt irgendeine Lösung für euer Problem, bei Team Grün oder sonstwo?

Ja Quadros, P6000 in dem Fall

Igor TH
2018-01-19, 10:33:58
Als P6000-Nutzer muss ich da z.T. widersprechen. Bei der M6000 konnte man ja z.B. noch mehr Compute-Leistung (DP) "freischalten", aber die P6000 ist genauso limitiert, wie eine Consumer-Pascal. Allein der ordentliche Speicher bringt noch Vorteile, dafür ist der Preis etwas, nun ja...

Gut: Es gibt sogar für altere Software Patches, um sie Pascal-gefügig zu machen.
Schlecht: Für DP nutze ich nach wie vor eine M6000

Am Ende hängt es meist eh an der Software, die man nutzt. So gesehen gibt es keine pauschale Lösung.

Sven77
2018-01-19, 10:36:10
Es geht tatsächlich nur um den Speicher

edit: Support ist dran, insofern bin ich guter Dinge

Hübie
2018-01-19, 12:01:51
Als P6000-Nutzer muss ich da z.T. widersprechen. Bei der M6000 konnte man ja z.B. noch mehr Compute-Leistung (DP) "freischalten", aber die P6000 ist genauso limitiert, wie eine Consumer-Pascal. Allein der ordentliche Speicher bringt noch Vorteile, dafür ist der Preis etwas, nun ja...

Gut: Es gibt sogar für altere Software Patches, um sie Pascal-gefügig zu machen.
Schlecht: Für DP nutze ich nach wie vor eine M6000

Am Ende hängt es meist eh an der Software, die man nutzt. So gesehen gibt es keine pauschale Lösung.

Haben nicht beide 1:32 Ratio? :| Iirc war der einzige Vorteil 96 vs 64 KiB L1$. Mit Volta ist der sogar konfigurierbar (weiß nicht ob dynamisch 'in flight' oder vor app launch). Was kann man denn da freischalten? :D

Igor TH
2018-01-19, 12:20:31
Da gab es den berüchtigten CUDA-Freischalter ;)
Das Problem ist ja immer auch, wiel viele der Shader der Karte für reine Berechnungen mit zur Verfügung stehen. Lustigerweise performt die alte M6000 in einigen Szenarien nicht schlechter als die P6000, warum auch immer. Ist stellenweise sogar treiberabhängig. Alte Maxwell-Treiber waren z.T. gefühlt schneller, bzw. man glaubt, die älteren Karten würden aktuell langsamer. Andersrum geht es aber auch. Für Solidworks 2015 muss ich für Compute-Parts sogar einen speziellen Registry-Hack nutzen, damit Pascal schneller läuft.

Der_Korken
2018-01-19, 14:28:28
Gibt es eigentlich schon Klagen in den USA wegen der fehlenden Shader?

Gibt es denn eine konkrete Zusage von AMD, dass Vega einen neuen Shadertyp besitzt inkl. einer Spezifikation was der Shadertyp mit welcher Geschwindigkeit berechnen kann? Ansonsten könnte man doch jede Softwarelösung hinklatschen und sagen, das seien jetzt die neuen Primitive Shader. Die können dann zwar nichts besser als die vorhandenen Shader, aber sie sind zumindest "da". Ansonsten hoffe ich hier immer noch auf einen Designfehler, der bei der nächsten Gen gefixt ist - on top of all die anderen Sachen, die AMD hoffentlich noch verbessert.

Dino-Fossil
2018-01-19, 14:46:04
MMn war AMDs einzige Aussage pre-release, dass die Dinger vorhanden sind und das sie potentiell ganz toll sind - aber gezielt von der Anwendung angesprochen werden müssen um sie effektiv zu nutzen.
Erst hinterher kam dann die Aussage, dass der Treiber das auch automatisch macht und man sich um nichts kümmern müsste, alles andere sei zu komplex. Allerdings ohne irgendwelche Aussagen bzgl. Performance - evtl. gibt es da automatisiert einfach kein Performanceplus.

Digidi
2018-01-19, 16:30:44
MMn war AMDs einzige Aussage pre-release, dass die Dinger vorhanden sind und das sie potentiell ganz toll sind - aber gezielt von der Anwendung angesprochen werden müssen um sie effektiv zu nutzen.
Erst hinterher kam dann die Aussage, dass der Treiber das auch automatisch macht und man sich um nichts kümmern müsste, alles andere sei zu komplex. Allerdings ohne irgendwelche Aussagen bzgl. Performance - evtl. gibt es da automatisiert einfach kein Performanceplus.


Ist doch eine Super verschleierungstaktik. Im Treiber weis nämlich keiner was da los ist.

Man hat einfach festgestell das es nicht geht und dann einfach den Treiber davor geschoben.....

Dino-Fossil
2018-01-19, 17:03:33
Wäre das so effektiv?
So erwarten alle einen positiven Effekt, hätte man es auf dem Stand belassen, dass es Anwendungsspezifisch angesteuert werden muss, hätte man ja immer noch darauf verweisen können, dass es eben bisher keine Software gibt...

fondness
2018-01-19, 17:21:50
Bestellmengen für Radeon RX Vega von 5 bis 10 waren keine Seltenheit, wie Händler gegenüber ComputerBase erklärten. Anfragen per E-Mail, vorrangig aus Osteuropa und offensichtlich an dutzende Händler versendet, würden sogar Anfragen zu Bestellmengen in dreistelliger Größenordnung beinhalten.

https://www.computerbase.de/2018-01/nvidia-geforce-gtx-verkauf-an-spieler/

Digidi
2018-01-19, 17:36:46
Wäre das so effektiv?
So erwarten alle einen positiven Effekt, hätte man es auf dem Stand belassen, dass es Anwendungsspezifisch angesteuert werden muss, hätte man ja immer noch darauf verweisen können, dass es eben bisher keine Software gibt...

Und wie findest du raus das es aktiviert ist wenn es der Treiber macht? Der Treiber entscheidet und du siehst nicht was er macht.

Das ist eine Blackbox!

Dino-Fossil
2018-01-19, 17:44:19
Ja, ich sehe nur keinen echten Vorteil in der Vorgehensweise, wenn das Ziel wäre hier irgendetwas zu verschleiern.

Digidi
2018-01-19, 17:47:19
Ja, ich sehe nur keinen echten Vorteil in der Vorgehensweise, wenn das Ziel wäre hier irgendetwas zu verschleiern.


Das Ziel ist das es nicht einsehbar ist ob es funktioniert oder nicht. Du musst glauben was dir der Hersteller sagt.

Wenn man es gezielt programmieren könnte wäre es ja ersichtlich das es nicht geht.

G3cko
2018-01-19, 22:51:27
Ich bitte euch, denkt doch mal nach. Wenn ihr technologisch hinterherhinkt und euer aktuellstes Produkt ein Feature bietet, dass es ermöglicht die Kluft zu schließen. Würdet ihr dieses Feature veröffentlichen oder lieber warten, wenn auch so jede Grafikkarte vom Markt durch Miner gekauft wird. Es gibt nach wie vor nur eine Grafikkarte der Vega Genrrtion auf dem Markt. Nvidia hat ein ganzes Linup mit Pascal-Karten. Das AMD nur 2 Chips einer Gernertion bringt hat den Grund, dass man so entwicklungszeit aufholen möchte.

Erst mit einem MultiChip-Konstrukt wird man wieder angreifen, da man so wie bei Zen sehr einfach über das ganze Linup skalieren kann.

Aktuell macht es rational keinen Sinn das Ass auf den Tisch zu hauen, wenn einem auch so die Bude eingerannt wird. Das ist einfachste Logik.

Schlammsau
2018-01-20, 13:54:15
Heute im Postfach gewesen .... :eek:

https://abload.de/img/wow3hu1u.jpg

anddill
2018-01-20, 13:57:49
Ich bitte euch, denkt doch mal nach. Wenn ihr technologisch hinterherhinkt und euer aktuellstes Produkt ein Feature bietet, dass es ermöglicht die Kluft zu schließen. Würdet ihr dieses Feature veröffentlichen oder lieber warten, wenn auch so jede Grafikkarte vom Markt durch Miner gekauft wird. Es gibt nach wie vor nur eine Grafikkarte der Vega Genrrtion auf dem Markt. Nvidia hat ein ganzes Linup mit Pascal-Karten. Das AMD nur 2 Chips einer Gernertion bringt hat den Grund, dass man so entwicklungszeit aufholen möchte.

Erst mit einem MultiChip-Konstrukt wird man wieder angreifen, da man so wie bei Zen sehr einfach über das ganze Linup skalieren kann.

Aktuell macht es rational keinen Sinn das Ass auf den Tisch zu hauen, wenn einem auch so die Bude eingerannt wird. Das ist einfachste Logik.

Aber es macht Sinn das Ass rauszuhauen wenn die Runde vorbei ist, oder wie? :freak:

Th3o
2018-01-20, 14:22:24
Heute im Postfach gewesen .... :eek:

https://abload.de/img/wow3hu1u.jpg

Glückwunsch,für diesen Preis wird es diese Karte nie mehr geben.

Daredevil
2018-01-20, 14:29:36
Heute im Postfach gewesen .... :eek:

https://abload.de/img/wow3hu1u.jpg
Du bekommst also die Karte zu dem Preis, wie du sie bestellt hast?
Verrückte Welt! Das ist ja der Lotterie Jackpot! :tongue: :D

Schlammsau
2018-01-20, 14:33:43
Glückwunsch,für diesen Preis wird es diese Karte nie mehr geben.
Du bekommst also die Karte zu dem Preis, wie du sie bestellt hast?
Verrückte Welt! Das ist ja der Lotterie Jackpot! :tongue: :D
Anscheinend, hatte sie am 05.12. vorbestellt .... :biggrin:

Jake Dunn
2018-01-20, 14:36:18
Service Level Gold doch zu was gut :uup:

Th3o
2018-01-20, 14:38:39
Meine PC 56 RD hat mich nur 380€ eigenes Geld gekostet :)

Schlammsau
2018-01-20, 14:47:38
Egal, jetzt muss man für die RD V64 900€ hinlegen ....

Th3o
2018-01-20, 15:10:59
(y) Ist von MF echt fair, dass sie die Grafikkarte für die 550€ geliefert haben. Ist aber schon seltsam, dass fast nur MF mit Vegas beliefert wird. Und die max. Bestellmenge ist auf 5 erhöht worden.

Igor TH
2018-01-20, 15:41:28
...weil sie zu dem Preis sicher kaum noch wer kauft. Schon gar nicht seit der letzten Kursdelle.

=Floi=
2018-01-20, 15:44:01
Egal, jetzt muss man für die RD V64 900€ hinlegen ....

macht die sache auch nicht besser, weil kein normaler mensch das teil kauft. Die miner können auch alle nicht rechnen, weil das geld nie reinkommt.

Schlammsau
2018-01-20, 15:49:10
Ich bin mir sicher, Miner kaufen das Ding für das Geld. Und wohl auch nicht zu knapp ....

https://bidvoy.net/RX_Vega_64/27386

Selbst für gebrauchte Ref Designs werden zwischen 700 und 900€ hingelegt. :freak:

Digidi
2018-01-20, 15:51:27
macht die sache auch nicht besser, weil kein normaler mensch das teil kauft. Die miner können auch alle nicht rechnen, weil das geld nie reinkommt.


Die Miner können sehr wohl rechnen. Beim vorherigen Kurs war mal die Rede von 250 Euro in einm Monat. Das heißt in 3 Monaten hättest du das Geld raus und könntest die Karte immer noch Gebraucht verkaufen....

@Igor Die karten werden bei uns nicht mehr gekauft. In Asien ist der Strom aber so billig da ist das selbst bei einem noch geringeren Kurs sehr profitabel. Das einzige was kommt wäre jetzt wen China Bitcoin komplett dicht macht.

Igor TH
2018-01-20, 17:31:00
@Digidi:
Darauf kannst Du einen Pups lassen. Xi setzt auf die volle Kontrolle und ich glaube auch, die warten nur noch, bis endlich alle relevanten Beteiligten der regierenden Kommunisten-Clique ihre Coins irgendwie abgestoßen haben. Dann knallts dort bestimmt. :D

Wobei:
Wenn ich alle 10 Vegas hier für den Preis losbekommen würde, könnte ich meiner Frau eine neue Knutschkugel schenken. Hätte sicher auch Charme ;)

G3cko
2018-01-22, 07:26:00
Aber es macht Sinn das Ass rauszuhauen wenn die Runde vorbei ist, oder wie? :freak:

Eine neue Architektur wird mindestens 6 Jahre genutzt. Der letzte große Sprung war GCN 1.0 aus Ende 2011. Selbst wenn man ins Klo greift gibt es selten bis nie einen Plan-B. Siehe Bulldozer oder Pentium4.

Sven77
2018-01-22, 09:24:42
Erinnert mich an die 2. GPU in der Xbox die von diversen Seiten jahrelang gesucht/vermutet wurde :D

y33H@
2018-01-22, 09:30:27
Ich lehne mich mal so weit aus dem Fenster und behaupte, dass AMD sich nicht aus positiven Gründen bzgl. primitive Shader bedeckt hält.AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.

Screemer
2018-01-22, 09:56:15
AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.
LULz

Hübie
2018-01-22, 10:19:17
AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.

Dann sollte man bei AMD auch mal an der Öffentlichkeitsarbeit feilen, denn es wurde mehrfach breit getreten, dass es eben transparent für die App ist und der Treiber es automatisiert. Jetzt kommen die Vega-Besitzer erst in den "Genuss", wenn sich denn mal ein Entwickler entschließt es so zu implementieren (Aufwand? Kosten-/Nutzenfaktor? Das sind große Fragezeichen). Bei AC hat sich ja heraus gestellt, dass es relativ aufwändig ist und wird noch zögerlich eingesetzt. FP16 wird durch hin- und herkonvertieren ebenfalls kaum genutzt, da der Vorteil kaum Gewicht bringt. Eigentlich schade, da alle Ideen zusammen sicher ein besseres Performancebild generieren würden.

Kartenlehrling
2018-01-22, 10:29:32
FP16 wird durch hin- und herkonvertieren ebenfalls kaum genutzt, da der Vorteil kaum Gewicht bringt.
Ist das belegt, muss der Monitor nicht Freesync 2 können?

Hübie
2018-01-22, 11:14:36
Hm? Ich meinte die Genauigkeit eines Shadertyps. Graviationsfeld erwähnte es mal beiläufig in einem Thread. Da er Dev ist und ich nicht, schenke ich ihm da weitaus mehr Glauben als AMD, die ja im eigenen Interesse so etwas vermarkten.

Dino-Fossil
2018-01-22, 11:29:45
AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.

Nur aus Interesse, wann haben sie das wieder gesagt?
Wäre dann ja quasi wieder eine 180° Wende und man ist zurück auf dem ursprünglichen Stand zur Vega-Architekturvorstellung.

Ich glaube es hieß in dem Zusammenhang aber auch mal, dass die PS erstmal ihren Weg in eine API finden müssen - evtl. tut sich da also eh nichts, bis das irgendwann mal passiert?

Kartenlehrling
2018-01-22, 11:49:51
Bis März ist ja noch Zeit dann kommt Farcry5 und hoffentlich auch der seit einem halben Jahr versprochene Freesync2-HDR Monitor LG32GK850F.
Für 10% Leistunggewinn kaufen sich hier im Forum die Leute neue CPUs, ausserdem soll damit ja auch das inputlag nochmal sinken, dafür würden einige hier alles tun.

https://cdn01.hardwareluxx.de/razuna/assets/1/5E7B28A39FC8439FAF6C0C4C08D1F955/img/6607C16DC89D4F8888060F4BEA559FDD/AMD-CES-Tech-Day-2018-Radeon-Pressdeck-26_6607C16DC89D4F8888060F4BEA559FDD.jpg



Dann gibt es die AMD GPU Services, die wir auf GPU Open veröffentlichen.
Das letzte Update enthält beispielsweise brandneue Tone-Mapping-Features.
Damit kann eine Spiel-Engine das Tone-Mapping für ein FreeSync-2-Display übernehmen,
was die Darstellungslatenz verringert.
Und wo wir von Ubisoft sprechen: Far Cry 5 setzt auf einige der Vega-Features wie Rapid Packed Math und Shader Intrinsics.
Außerdem wird es das erste Spiel sein, dass FreeSync 2 unterstützt, HDR inklusive.

Hübie
2018-01-22, 11:55:07
Freesync 2 bringt 10% mehr Leistung oder was leite ich aus deiner Aussage ab? Das bezweifele ich erst mal per se, denn es geht ja nur um async refresh, was nicht mit der Performance direkt zu tun hat. :|

Grendizer
2018-01-22, 13:16:12
Freesync 2 bringt 10% mehr Leistung oder was leite ich aus deiner Aussage ab? Das bezweifele ich erst mal per se, denn es geht ja nur um async refresh, was nicht mit der Performance direkt zu tun hat. :|


Nope aber Farcry 5 wird FP16 und noch andere Vega Features nutzen.

dargo
2018-01-22, 14:49:48
Shader Intrinsics bei Farcry 5? Geilomat. :up:

dildo4u
2018-01-22, 14:55:04
Das wird interessant das Game ist deutlich CPU lastiger als Wolf 2 bin gespannt ob das in 1080p alles durchschlägt.Wäre geil wenn sie Vulkan nutzen schätze aber mal das wird man bei Ubisoft nicht so schnell sehen also DX12?

Rancor
2018-01-22, 14:59:12
Oha,

dann sollten wir diesmal deutliche Vorteile zugunsten der VEGA GPUs sehen können. Bin mal gespannt wieviel % die VEGA64 der TI davonrennt.

dargo
2018-01-22, 15:05:17
Bei Ubisoft tippe ich auf DX12.

Ex3cut3r
2018-01-22, 15:31:06
Ist doch schön für AMD und die User hier, nur hoffe ich das diesmal, das gleich zum rls. alles da ist und auch funktioniert. Bei W2 hätte es mir persönlich zu lange gedauert, ich war nach 8 Stunden durch mit dem Game.

Rancor
2018-01-22, 15:44:25
Joa, aber mit FC5 wird man länger beschäftigt sein.

akuji13
2018-01-22, 17:37:15
Selbst wenn es ~60 Stunden dauert wäre das für viele schon zu spät gewesen.

Manche haben die ja nach 1-2 Wochen durch, braucht ja nicht jeder so wie ich Jahre für ein Spiel. :D

Hübie
2018-01-22, 17:47:26
Nope aber Farcry 5 wird FP16 und noch andere Vega Features nutzen.

Das weiß ich, danke. Habe nur ich den Text so falsch verstanden? :|

Megamember
2018-01-22, 17:49:45
Und am Ende liegt die 1080Ti wieder deutlich vorne und die 64 kämpft mit der 1080, wie immer ;)
Da helfen auch die ganzen tollen Namen nix.

Hübie
2018-01-22, 17:51:19
Hm. Glaube bei Wolfenstein 2 liegen V64 und GP102 immer noch auf Augenhöhe. ;)

dargo
2018-01-22, 17:51:54
Und am Ende liegt die 1080Ti wieder deutlich vorne und die 64 kämpft mit der 1080, wie immer ;)
Dann bist du sehr schlecht informiert.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-1920-1080
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-3840-2160

Das ist noch mit bremsenden AC bei GCN. Den Abstand bei 1080p kannst du 1:1 auch auf 4k übertragen wenn AC richtig funktioniert. Ob und wann das gefixt wird steht noch in den Sternen. Gravitationsfeld wollte es jedenfalls weiter leiten. Das richtig interessante ist nämlich, dass dann RX Vega56 sich mit der GTX 1080TI anlegt. ;)

scully1234
2018-01-22, 17:56:01
@Digidi:
Darauf kannst Du einen Pups lassen. Xi setzt auf die volle Kontrolle und ich glaube auch, die warten nur noch, bis endlich alle relevanten Beteiligten der regierenden Kommunisten-Clique ihre Coins irgendwie abgestoßen haben. Dann knallts dort bestimmt. :D


ist doch schon im vollen Gange das Prozedere, und nicht nur in China

Megamember
2018-01-22, 17:56:30
Hm. Glaube bei Wolfenstein 2 liegen V64 und GP102 immer noch auf Augenhöhe. ;)

Dann bist du sehr schlecht informiert.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-1920-1080
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-3840-2160




Jaja, Wolfenstein, immer nur Wolfenstein. Abseit davon wirds aber dünn.

dargo
2018-01-22, 18:02:12
Jaja, Wolfenstein, immer nur Wolfenstein.
Du hast offenbar den Zusammenhang nicht verstanden. Es geht hier nicht speziell um Wolfenstein 2 sondern um Games die vor allem Shader Intrinsics, Async Compute und RPM verwenden. Und hier reiht sich Farcry 5 zum Wolfenstein 2 und Doom ein. Was bei FC5 fehlt ist offenbar nur AC. Zumindest sieht man es in keiner Folie.

Hübie
2018-01-22, 18:07:26
Dann bist du sehr schlecht informiert.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-1920-1080
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-3840-2160

Das ist noch mit bremsenden AC bei GCN. Den Abstand bei 1080p kannst du 1:1 auch auf 4k übertragen wenn AC richtig funktioniert. Ob und wann das gefixt wird steht noch in den Sternen. Gravitationsfeld wollte es jedenfalls weiter leiten. Das richtig interessante ist nämlich, dass dann RX Vega56 sich mit der GTX 1080TI anlegt. ;)

Nun lass mal die Kirche im Dorf. Schau auf die Frametimes. Da legt sich V56 nirgends mit der 1080 Ti an. ;) Aber es ist schon ein gutes Exempel für das "was-wäre-wenn-Spielchen". Grundsätzlich gelten solche Ausreißer aber eben nicht als Maßstab, was Megamember's Aussage widerlegt.

dildo4u
2018-01-22, 18:10:19
Dann bist du sehr schlecht informiert.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-1920-1080
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-3840-2160

Das ist noch mit bremsenden AC bei GCN. Den Abstand bei 1080p kannst du 1:1 auch auf 4k übertragen wenn AC richtig funktioniert. Ob und wann das gefixt wird steht noch in den Sternen. Gravitationsfeld wollte es jedenfalls weiter leiten. Das richtig interessante ist nämlich, dass dann RX Vega56 sich mit der GTX 1080TI anlegt. ;)
AC spart keine Bandbreite die 56 wird in 4k immer Probleme haben,AMD selber bewirbt sogar die 64 als 1440p Karte.

http://abload.de/img/vega-2-6rauli.png

dargo
2018-01-22, 18:10:20
Nun lass mal die Kirche im Dorf. Schau auf die Frametimes. Da legt sich V56 nirgends mit der 1080 Ti an. ;)
In 1080p ist die V56 sogar vor der 1080TI. ;) Wie ich schon sagte... AC ist bei GCN kaputt. Und das macht sich erst im stärkeren GPU-Limit bemerkbar.

AC spart keine Bandbreite die 56 wird in 4k immer Probleme haben,AMD selber bewirbt sogar die 64 als 1440p Karte.

http://abload.de/img/vega-2-6rauli.png
In deiner Folie ist nicht mal Wolfenstein 2 drin. Sondern ein paar andere Games. Komplett am Thema vorbei. Und wenn du dir die Messwerte der CB genauer anschaust wird dir auffallen, dass sich die V64 und V56 prozentual zwischen avgs. und 99th Percentile in Wolf 2 ziemlich gleich verhalten. Einzige Ausnahme ist 4K, hier verliert die V56 sogar weniger. Könnte natürlich auch etwas mit Messschwankungen zusammen hängen. Jedenfalls sieht die V56 nicht schlechter aus.

dildo4u
2018-01-22, 18:18:31
Nun lass mal die Kirche im Dorf. Schau auf die Frametimes. Da legt sich V56 nirgends mit der 1080 Ti an. ;) Aber es ist schon ein gutes Exempel für das "was-wäre-wenn-Spielchen". Grundsätzlich gelten solche Ausreißer aber eben nicht als Maßstab, was Megamember's Aussage widerlegt.
Jup in 1440p und 4k ist Vega 56 max 4% schneller bei den 99th Frametimes als die Custom 1070 Ti.Vega 56 ist immer noch massiv durch die schlechte Performance per Watt beschränkt,die Karte muss extrem langsam laufen damit sie ins TDP passt.

http://abload.de/img/wolf45aguuk.png

Dino-Fossil
2018-01-22, 18:19:22
Wie ich schon sagte... AC ist bei GCN kaputt.

Wenn dann ist AC eher bei Vega oder Wolfenstein 2 "kaputt". Bei Hawaii hat es sehr viel gebracht, bei Polaris etwas weniger (vermutlich wegen der verbesserten Auslastung), war aber immer noch von Vorteil.
Bei GCN1.0 hat es wohl hin und wieder Probleme bereitet, wenn ich mich richtig erinnere aufgrund der geringeren Anzahl an entsprechenden Hardwareeinheiten.

dargo
2018-01-22, 18:24:07
Ich dachte es war klar, dass das Thema Wolf 2 ist. :freak: In Wolf 2 ist AC grundsätzlich bei GCN kaputt, sprich langsamer! Das fatale dabei... AC off lässt sich gar nicht verwenden da kein Bild. Also ist man gezwungen bei GCN AC on zu verwenden was eben bremst.

Jup in 1440p und 4k ist Vega 56 max 4% schneller bei den 99th Frametimes als die Custom 1070 Ti.Vega 56 ist immer noch massiv durch die schlechte Performance per Watt beschränkt,die Karte muss extrem langsam laufen damit sie ins TDP passt.

Wieder nichts verstanden. :facepalm:

Grendizer
2018-01-22, 18:24:36
In 1080p ist die V56 sogar vor der 1080TI. ;) Wie ich schon sagte... AC ist bei GCN kaputt. Und das macht sich erst im stärkeren GPU-Limit bemerkbar.

Das sind alles tolle Showcases, aber die Implementierung von low Level ist doch echt nicht der Rede wert, weil es dieses Jahr wieder nur ein paar Spiele geben wird die da was bieten. 2017 waren es auch deutliCh weniger Spiele als noch 2016. Einen Preisvorteil hat man doch auch nur wenn man im Mind star Glück hatte. Vega ist durch Mining im Gamingbereich schwer geschadet worden und ich denke das hier viele potentielle Käufer nicht wirklich differenzieren warum die Preise so hoch und die Verfügbarkeit so bescheiden ust.

Dino-Fossil
2018-01-22, 18:25:51
@dargo:
Achso, war bissl unklar formuliert.
Dachte es gab sogar ein paar Benches, die in einer der früheren Versionen einen Vorteil gemessen hatten, aber seitdem es (zumindest das Demo) mit ohne (es war ohne, oder, mus sich nochmal testen :D) AC gar nicht mehr startet, kann ich das schlecht (auf meiner 480) nachmessen.

dildo4u
2018-01-22, 18:37:51
Wieder nichts verstanden. :facepalm:
Was hab ich nicht verstanden AC ist kein Garant für massive Performance Zuwächse bei AMD,Sniper Elite 4,Ashes of the Singularity und Gears 4 nutzten AC und die LC bzw 64 Air kommt nicht mal in die Nähe der 1080 Ti.

http://abload.de/img/acsniperuuuw3.png

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

http://abload.de/img/accomputex1utb.png

https://www.anandtech.com/show/11987/the-nvidia-geforce-gtx-1070-ti-founders-edition-review/5

http://abload.de/img/gear45zuxd.png

http://www.guru3d.com/articles-pages/msi-geforce-gtx-1070-ti-gaming-review,16.html

Hübie
2018-01-22, 19:24:14
Ich denke, dass was dargo meinte ist, wenn alle Vega Features (korrekt) genutzt werden, man mit GP102 in den Dogfight geht und da stimme ich sogar zu. NV erreicht es durch generell gute Auslastung (µArch mit GPC, SM und Quad), AMD implementiert eben Features die angesprochen / genutzt werden müssen.

Kartenlehrling
2018-01-22, 19:48:28
https://www.alternate.de/p/230x230/j/jfxs0f09_4.jpg (https://www.alternate.de/p/o/j/jfxs0f09_4.jpg)
https://www.alternate.de/SAPPHIRE/Pulse-Radeon-RX-VEGA-56-Grafikkarte/html/product/1414524?event=search
SAPPHIRE Pulse Radeon RX VEGA 56, 790€

Schön aufgeräumt, aber 800€ für die vega56? :freak:

Linmoum
2018-01-22, 19:51:31
Kriegst du doch sogar schon für gebrauchte Referenzkarten.

Tarkin
2018-01-22, 22:05:29
Gebauchte 56er bekommt man sogar noch für unter 400 wenn man Glück hat so wie ich heute ;) ... zwei Stück abgestaubt! :biggrin:

Hab in den letzten 4 Wochen mehrere Vegas zu absolut vertretbaren Preisen am Gebrauchtmark erstanden - man braucht nur ein bisschen Geduld, das ist alles!

Und letzte Woche kam sogar noch eine Lieferung mehrerer Vegas von Amazon welche ich Mitte Dez. eingegeben hatte. Verstehe das Geheule hier also absolut NICHT. JA, es ist etwas schwerer geworden an Vegas zu vernünftigen Preisen zu kommen... aber wenn man sich damit beschäftigt, dann ist es im Grunde KEIN großes Problem.

Man muss nur wissen wo man danach sucht ;)

Kartenlehrling
2018-01-22, 22:15:43
Somit willst du sagen das Du einer dieser Schürfer bist der den Markt leer kauft.

crux2005
2018-01-22, 22:16:07
Man muss nur wissen wo man danach sucht ;)

Eine Vega 56 für unter 400€ ist schon mehr als Glück oder sind wir jetzt bei Storage Wars?! :rolleyes: :freak:

rjfhdZ0t2L4

Tesseract
2018-01-22, 23:44:09
Dann bist du sehr schlecht informiert.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-1920-1080
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-3840-2160

wenn ich das richtig sehe ist das fast ein jahr nachdem die customs raus sind immer noch ausschließlich die FE der rund ~15% performance auf die "richtigen" karten fehlt.

dargo
2018-01-23, 07:06:37
Im Schnitt eher 10%.
https://www.computerbase.de/2017-05/palit-gtx-1080-ti-gamerock-test/2/#diagramm-performancerating-3840-2160

Tarkin
2018-01-23, 07:54:11
Somit willst du sagen das Du einer dieser Schürfer bist der den Markt leer kauft.

Ich will sagen, dass wenn man welche haben möchte sie nicht unbedingt im Retailmarkt zu völlig idiotischen Preisen kaufen muss.

Es dauert genau 5 Minuten um auf diversen Seiten entsprechende Alerts einzurichten um schnell zuschlagen zu können sobald irgendwo etwas eingestellt wird. Das ist kein Hexenwerk!

und JA, es gibt offenbar genug Leute, die keine Ahnung von Mining und den aktuellen Marktpreisen haben.

y33H@
2018-01-23, 08:15:24
Nur aus Interesse, wann haben sie das wieder gesagt?Auf einer Breakout-Session auf dem Tech Day kurz vor der CES 2018.

Taigatrommel
2018-01-23, 10:01:33
Auch wenn das der Review Thread ist, hier eine kurze Info: Mindfactory hat beide Frontier Edition Karten wieder im Mindstar Angebot, die luftgekühlte Variante kostet 699,-€ und die wassergekühlte 799,-€

fondness
2018-01-23, 10:41:42
Hieß es hier nicht eben noch von einem sogenannten insider, dass Vega längst eingestellt wurde und überhaupt keine Karten mehr geliefert werden? Offensichtlich trudeln doch immer wieder Karten herein, wenn auch natürlich viel zu wenige für die Nachfrage. Selbst ref Designs scheinen noch produziert zu werden.

Dino-Fossil
2018-01-23, 11:38:58
Nein, es hieß glaube ich eher, dass die erste Welle der Customs durch sei und unklar wäre, wann die Hersteller neue Chips nachbekommen.
Das die Referenz nicht mehr hergestellt wird, kam so, glaube ich, von AMD selbst und die FE ist sowieso nochmal eine andere Schiene.

Igor TH
2018-01-23, 12:09:51
Um es noch einmal klarzustellen, auch wenn ich mich wie eine Schallplatte fühle:
Die Boardpartner bekommen reihum diverse Margen, um dann jeweils ein paar Custums zu fertigen. Gesteuertes Gießkannenprinzip also, das Spiel mit der Sichtbarkeit. Das, was PC Partner für AMD als Auftragsfertiger macht (FE, Referenz), ist allein Vertragsgegenstand zwischen denen und AMD, berührt jedoch nicht die AIB und ihre Regelungen mit dem Chiphersteller. Ist das denn wirklich zu schwer zu verstehen? MSI verbaut z.B. das originale PC und den originalen Kühler, jedoch ein eigenes Plastik-Cover. Demzufolge fertigt PC-Partner (nicht Biostar) auch noch einen gewissen Satz an PCBs. Diese wiederum sind bei FE und Referenz bis aufs BIOS zu 100% identisch. Was ist daran so schwierig?

Bucklew
2018-01-23, 12:21:29
Es geht hier nicht speziell um Wolfenstein 2 sondern um Games die vor allem Shader Intrinsics, Async Compute und RPM verwenden. Und hier reiht sich Farcry 5 zum Wolfenstein 2 und Doom ein.
Die Entwickler sind wohl nicht so zuversichtlich:
https://www.golem.de/news/far-cry-5-vier-hardwareanforderungen-fuer-hope-county-1801-132311.html

Vega56 = GTX1070

GTX970 = R9 290X
GTX670 = R9 270

Dass sich da die Vega64 mit der 1080Ti anlegt, halte ich für ziemlich unrealistisch. Selbst mit all den ganzen proprietären AMD-Erweiterungen.

Grendizer
2018-01-23, 12:23:26
Bei Vegas FE zu den Preisen kann man doch eigentlich von einem Abverkauf sprechen.

HOT
2018-01-23, 12:28:19
Die Entwickler sind wohl nicht so zuversichtlich:
https://www.golem.de/news/far-cry-5-vier-hardwareanforderungen-fuer-hope-county-1801-132311.html

Vega56 = GTX1070

GTX970 = R9 290X
GTX670 = R9 270

Dass sich da die Vega64 mit der 1080Ti anlegt, halte ich für ziemlich unrealistisch. Selbst mit all den ganzen proprietären AMD-Erweiterungen.

Na ja, auf die reale Performance kommt es an. Diese Anforderungen sind ja fast immer halb politisch motiviert und liegen oft lange nicht da, wo das Spiel letztendlich rauskommt.


Ab Sommer kommt zu V10 ja noch das Vega Mobile-Package dazu, was gefertigt werden muss. Man darf gespannt sein, ob AMD bis dahin etwas mehr in der Gießkanne hat oder vielleicht sogar mehrere Gießkannen. Oder die Situation bleibt eben kritisch bis Navi. Ich hab mit Vega mittlerweile abgeschossen. Entweder gibts nen Ampere, wenn NV das mit den Preisen nicht total übertreibt oder es wird halt erst ein Navi werden.

Bucklew
2018-01-23, 12:30:59
Na ja, auf die reale Performance kommt es an. Diese Anforderungen sind ja fast immer halb politisch motiviert und liegen oft lange nicht da, wo das Spiel letztendlich rauskommt.
Also du denkst, dass Vega56 sogar noch langsamer wird als die GTX1070? Das wäre natürlich traurig....

HOT
2018-01-23, 12:33:25
Nein, ich denke, mit fortschreitendem Patchstand wird Vega eher mehr davonziehen. Aber das ist pure Spekulation.

Taigatrommel
2018-01-23, 12:41:19
Bei Vegas FE zu den Preisen kann man doch eigentlich von einem Abverkauf sprechen.

Eine solche Aktion gab es vor vielleicht zwei Monaten schon einmal, ich glaube da waren die Karten sogar noch eine Ecke günstiger als das aktuelle Mindstar Angebot. Ansonsten bin ich mir nicht sicher, ob es sich um einen wirklichen Abverkauf handelt. Ansonsten hätten wohl andere Händler auch nachgezogen, bei der ersten Aktion gab es die Frontiers nämlich meiner Erinnerung nach bei mehreren Händlern zu so günstigen Preisen.

Zergra
2018-01-23, 12:43:57
Also ich habe die V56 jetzt 2 Wochen (Red Devil) und im Mining hört man fast nichts. Die RefAir brauchte für die Leistung fast 2600rpm. Das ist echt entspannt, daher man kann den PC auch laufen lassen, wenn man nebenbei am Arbeiten ist, ohne das die Karte stört :D. Die Karte bleibt bei 60°C und 35% Lüfter Geschwindigkeit.

Interessant das es immer wieder passiert, ein neues Spiel, alle Hypen Vega in den Himmel, Enttäuschung... ist Wellenreiten, die Krypto Coins :D

Bucklew
2018-01-23, 13:22:48
Nein, ich denke, mit fortschreitendem Patchstand wird Vega eher mehr davonziehen. Aber das ist pure Spekulation.
Was hat das mit politischer Motivation zu tun?

Das Spiel ist massiv von AMD unterstützt. Also wenn, dann werden diese Empfehlungen tendenziell AMD favorisieren. Aber sicherlich nicht NVIDIA.

24p
2018-01-23, 13:22:56
Im Schnitt eher 10%.
https://www.computerbase.de/2017-05/palit-gtx-1080-ti-gamerock-test/2/#diagramm-performancerating-3840-2160

Ich sehe da nur lauter 1080Ti Karten. Wo ist da der Vergleich zu Vega?

Bucklew
2018-01-23, 13:24:11
Ich sehe da nur lauter 1080Ti Karten. Wo ist da der Vergleich zu Vega?
Und warum nimmt er erst den alten Benchmarkparcours von CB und jetzt plötzlich den Neuen?

dargo
2018-01-23, 13:28:44
Ich sehe da nur lauter 1080Ti Karten. Wo ist da der Vergleich zu Vega?
Lese nochmal was Tesseract geschrieben hatte und was ich darauf antwortete. Kleiner Tipp... es ging nicht um Vega.

X-Bow
2018-01-23, 13:33:54
Die Entwickler sind wohl nicht so zuversichtlich:
https://www.golem.de/news/far-cry-5-vier-hardwareanforderungen-fuer-hope-county-1801-132311.html

Vega56 = GTX1070

GTX970 = R9 290X
GTX670 = R9 270

Dass sich da die Vega64 mit der 1080Ti anlegt, halte ich für ziemlich unrealistisch. Selbst mit all den ganzen proprietären AMD-Erweiterungen.

Ah ein typisch grüner Kommentar. Denn die Entwickler sagen nur das für 4k30FPS von AMD eine Vega 56 benötigt wird, eine RX580 reicht da nicht mehr aus. Deswegen Mindestanforderung. Für 4K60FPS reichen 2x V56. Auf der nVidia-Seite reichen aber für 4K60FPS keine 2x1070. Es reichen auch keine 2x1070ti. Nein, es braucht 2x1080. Folglich, wenn man überhaupt von so Mindestanforderungen ausgehen will, dann sehen die Entwickler die V56 eher auf Augenhöhe zur 1080. :rolleyes:

elhomomomo
2018-01-23, 13:42:51
Ah ein typisch grüner Kommentar. Denn die Entwickler sagen nur das für 4k30FPS von AMD eine Vega 56 benötigt wird, eine RX580 reicht da nicht mehr aus. Deswegen Mindestanforderung. Für 4K60FPS reichen 2x V56. Auf der nVidia-Seite reichen aber für 4K60FPS keine 2x1070. Es reichen auch keine 2x1070ti. Nein, es braucht 2x1080. Folglich, wenn man überhaupt von so Mindestanforderungen ausgehen will, dann sehen die Entwickler die V56 eher auf Augenhöhe zur 1080. :rolleyes:

Schach und Matt :up:

DrumDub
2018-01-23, 14:29:25
Ah ein typisch grüner Kommentar. Denn die Entwickler sagen nur das für 4k30FPS von AMD eine Vega 56 benötigt wird, eine RX580 reicht da nicht mehr aus. Deswegen Mindestanforderung. Für 4K60FPS reichen 2x V56. Auf der nVidia-Seite reichen aber für 4K60FPS keine 2x1070. Es reichen auch keine 2x1070ti. Nein, es braucht 2x1080. Folglich, wenn man überhaupt von so Mindestanforderungen ausgehen will, dann sehen die Entwickler die V56 eher auf Augenhöhe zur 1080. :rolleyes: dem ist nichts hinzuzufügen.

24p
2018-01-23, 14:37:29
Lese nochmal was Tesseract geschrieben hatte und was ich darauf antwortete. Kleiner Tipp... es ging nicht um Vega.

Worum ging es dann? Sorry, ich habe es mir durchgelesen, aber bei deinen wirren Beiträgen und wilden Zitaten herausgepickter Benches blickt niemand mehr durch. Du vergleichst dort ein Rating mit absoluten werten? Soll ich mir da etwas selber erraten wie du mal wieder auf deine komischen Schlüsse gekommen bist?

Bucklew
2018-01-23, 14:42:37
Auf der nVidia-Seite reichen aber für 4K60FPS keine 2x1070. Es reichen auch keine 2x1070ti. Nein, es braucht 2x1080. Folglich, wenn man überhaupt von so Mindestanforderungen ausgehen will, dann sehen die Entwickler die V56 eher auf Augenhöhe zur 1080. :rolleyes:
Unzulässige Schlussfolgerung. Angesichts der AMD-Optimierung könnte auch einfach Crossfire deutlich besser optimiert sein, als SLI. Da Vega56 = 1070, wird Vega64 unterhalb 1080 liegen.

dargo
2018-01-23, 14:44:18
Worum ging es dann?
Tesseract geht von ca. +15% bei Custom 1080TI auf die FE aus. Ich habe ein Beispiel von CB verlinkt wo es im Schnitt der Customs ca. +10% sind.

24p
2018-01-23, 14:45:46
Ich dachte er meinte die Vega FE. Und btw sehe ich da bei CB im Rating bei 4K die 1080Ti FE 20% vor Vega64. Also ist Tesseract da offenbar nicht wirklich schlecht informiert. Cherrypicking zieht nicht.

dargo
2018-01-23, 14:49:26
Vega FE ist überhaupt nicht in meinen Links drin, keine Ahnung was du mit der willst. Bezüglich Cherrypicking... versuche mal im Zusammenhang zu lesen und nicht wieder wirres Zeug welches offenbar im Kopf herumschwirrt hinein zu implementieren. Erspart einiges an unnötigen Diskussionen.

X-Bow
2018-01-23, 15:42:15
Unzulässige Schlussfolgerung. Angesichts der AMD-Optimierung könnte auch einfach Crossfire deutlich besser optimiert sein, als SLI. Da Vega56 = 1070, wird Vega64 unterhalb 1080 liegen.


Wenn wir mal davon ausgehen das AMD so stark Optimiert wurde, das Crossfire besser wird als SLI wird (Was eine starke Optimierung bedeuten würde angesichts des aktuellen Stand https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-januar-2018 ) dann kannst Du auch davon ausgehen das die Optimierung auf die Grafikkarten an sich sehr hoch sein muss was deine Schlussfolgerung (V56 < 1070 und V64 < 1080) sehr viel weiter an den Haaren herbeigezogen wirkten lässt, als Versuche über W2 Benchmarks parallelen zu ziehen. :rolleyes:

Denn warum sollte Vega mit vielen Optimierungen (wie Du selbst sagst) plötzlich schlechter dastehen als in sonstigen Titel?

Grendizer
2018-01-23, 15:48:02
Wenn wir mal davon ausgehen das AMD so stark Optimiert wurde, das Crossfire besser wird als SLI wird (Was eine starke Optimierung bedeuten würde angesichts des aktuellen Stand https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-januar-2018 ) dann kannst Du auch davon ausgehen das die Optimierung auf die Grafikkarten an sich sehr hoch sein muss was deine Schlussfolgerung (V56 < 1070 und V64 < 1080) sehr viel weiter an den Haaren herbeigezogen wirkten lässt, als Versuche über W2 Benchmarks parallelen zu ziehen. :rolleyes:

Denn warum sollte Vega mit vielen Optimierungen (wie Du selbst sagst) plötzlich schlechter dastehen als in sonstigen Titel?

Wartet doch einfach bis das Spiel da ist.... dann werden wir das sehen. Sich über Voraussetzungen zu einem in 6 Wochen erscheinenden Spiel zu streiten ist das total unsinnig. Was haben wir in den letzten Monaten schon für Änderungen der Ergebnisse nach 2 Wochen durch neue Treiber und Patches gewundert. Aber da jetzt viel rein zu interpretieren empfinde ich als überflüssig.

24p
2018-01-23, 15:49:27
Vega FE ist überhaupt nicht in meinen Links drin, keine Ahnung was du mit der willst. Bezüglich Cherrypicking... versuche mal im Zusammenhang zu lesen und nicht wieder wirres Zeug welches offenbar im Kopf herumschwirrt hinein zu implementieren. Erspart einiges an unnötigen Diskussionen.

Natürlich war Vega in deinem Beitrag an Tesseract/megamember enthalten. Du wollest mit einem Einzelbeispiel mal wieder zeigen, dass Vega64 so schnell wie die 1080Ti ist.

Dann bist du sehr schlecht informiert.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-1920-1080
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-wolfenstein-2-3840-2160

Das ist noch mit bremsenden AC bei GCN. Den Abstand bei 1080p kannst du 1:1 auch auf 4k übertragen wenn AC richtig funktioniert. Ob und wann das gefixt wird steht noch in den Sternen. Gravitationsfeld wollte es jedenfalls weiter leiten. Das richtig interessante ist nämlich, dass dann RX Vega56 sich mit der GTX 1080TI anlegt. ;)

Der üblich angedündigte Vega Endsieg mit AC, SI und [insert random abbreviated feature here].

Gipsel
2018-01-23, 15:54:46
Kriegen sich die Herren hier mal wieder ein? Ansonsten beruhigt die Moderation das per Sperren.

Bucklew
2018-01-23, 15:58:39
Wenn wir mal davon ausgehen das AMD so stark Optimiert wurde, das Crossfire besser wird als SLI wird
Muss es wohl, sonst würde man ja bei SingleGPU nicht GTX1080 > Vega56 sehen und im MultiGPU GTX1080 = Vega 56.

Denn warum sollte Vega mit vielen Optimierungen (wie Du selbst sagst) plötzlich schlechter dastehen als in sonstigen Titel?
Warum sollte Vega nicht trotz vielen Optimierungen im SingleGPU im gewohnten Kräfteverhältnis Vega 56 < GTX1070 < Vega 64 < GTX 1080 stehen?

X-Bow
2018-01-23, 16:16:40
Muss es wohl, sonst würde man ja bei SingleGPU nicht GTX1080 > Vega56 sehen und im MultiGPU GTX1080 = Vega 56.

Das wird so von den Entwicklern nie gesagt. :D


Warum sollte Vega nicht trotz vielen Optimierungen im SingleGPU im gewohnten Kräfteverhältnis Vega 56 < GTX1070 < Vega 64 < GTX 1080 stehen?

Weil das "gewohnte Kräfteverhältnis" anders aussieht als Du hier beschreibst :rolleyes:

(http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-performancerating-fps-2560-1440
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-performancerating-fps-3840-2160):wink:

Aber Grendizer hat recht, lass uns doch erst einmal das Game an sich abwarten. :smile:

scully1234
2018-01-23, 16:24:45
Wartet doch einfach bis das Spiel da ist.... dann werden wir das sehen. Sich über Voraussetzungen zu einem in 6 Wochen erscheinenden Spiel zu streiten ist das total unsinnig. .

Erinnert an die Doom/Wolfenstein Diskussionen damals, wo all die genialen Features einen gewissen Vendor abheben lassen sollten

Wie es dann zu Release aussah ,wissen abseits der bekräftigten Anforderungen, denke ich noch die meisten...

Von daher hast du mit dem Abwarten gar nicht so unrecht, denn der Mitbewerber mit seinem Treiberteam ,schwimmt auch nicht auf der Wurstsuppe daher.

Tesseract
2018-01-23, 16:51:01
Ich dachte er meinte die Vega FE. Und btw sehe ich da bei CB im Rating bei 4K die 1080Ti FE 20% vor Vega64. Also ist Tesseract da offenbar nicht wirklich schlecht informiert. Cherrypicking zieht nicht.

nein, ich meinte, dass CB im großen vergleich aller GPUs trotz ankündigung nachzubessern nach wie vor nur die 1080Ti FE drin hat die für einen GP102 ungewöhnlich schlecht abschneidet.

Tesseract geht von ca. +15% bei Custom 1080TI auf die FE aus. Ich habe ein Beispiel von CB verlinkt wo es im Schnitt der Customs ca. +10% sind.
wenn du von der gesamtwertung auf doom umschaltest steigt der vorsprung auf bis zu 17% und die 1949MHz der amp extreme sind nicht mal besonders viel, da gibt es auch welche die OOTB auf >2GHz laufen. aber selbst 10% sind eine menge.

Igor TH
2018-01-23, 17:23:09
Bei mir sind es z.B. in Witcher 3 und UHD knapp 13 Prozent bei der besten von 11 getesteten 1080 Ti gegenüber der FE (Temp Limit), das kommt schon hin. Die Karten sind alle nicht weiter manuell übertaktet, aber die meisten könnten noch deutlich schneller.

https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9IL1AvNzI1MTAxL29yaWdpbmFsLzA2Yy1XaXRjaGVy LVVIRC1BdmVyYWdlLnBuZw==

aufkrawall
2018-01-23, 17:38:15
Genau, bei gutem Kühler rennt GP102 mit 1,95GHz und dann liegt auch ein OC-Vega in ~8/10 Fällen sehr weit zurück. Einige haben scheinbar immer noch Vorstellungsschwierigkeiten was die Taktbarkeit von NV-Chips seit GK110 B1 im Vergleich angeht, unabhängig von der Chip-Größe (wahrscheinlich selbst nie so etwas gehabt)...

HOT
2018-01-23, 17:40:44
Was hat das mit politischer Motivation zu tun?

Das Spiel ist massiv von AMD unterstützt. Also wenn, dann werden diese Empfehlungen tendenziell AMD favorisieren. Aber sicherlich nicht NVIDIA.
Sowas kann auch immer ein Zugeständnis sein. Jedoch ist das faktisch gar nicht so, siehe weiter oben. Es ist schon eher pro-AMD bei den Systemanforderungen in Wirklichkeit. War Dunia aber eigentlich immer.

Unzulässige Schlussfolgerung. Angesichts der AMD-Optimierung könnte auch einfach Crossfire deutlich besser optimiert sein, als SLI. Da Vega56 = 1070, wird Vega64 unterhalb 1080 liegen.

Was fürn Quatsch...

Muss es wohl, sonst würde man ja bei SingleGPU nicht GTX1080 > Vega56 sehen und im MultiGPU GTX1080 = Vega 56.


Warum sollte Vega nicht trotz vielen Optimierungen im SingleGPU im gewohnten Kräfteverhältnis Vega 56 < GTX1070 < Vega 64 < GTX 1080 stehen?

Hm, das ist doch gar nicht so. Die V56 ist eigentlich auf allen gängigen Seiten bei aktuellen Spieleparcours vor der 1070 aber hinter der 1070ti (welche annähernd auf 1080-Niveau ist). Erst recht vor der FE. Wie wärs mit weniger Unwahrheiten.

Genau, bei gutem Kühler rennt GP102 mit 1,95GHz und dann liegt auch ein OC-Vega in ~8/10 Fällen sehr weit zurück. Einige haben scheinbar immer noch Vorstellungsschwierigkeiten was die Taktbarkeit von NV-Chips seit GK110 B1 im Vergleich angeht, unabhängig von der Chip-Größe (wahrscheinlich selbst nie so etwas gehabt)...

Da sieht man gut, wie gut die NV-Architekturen die Taktraten im Griff haben. Das ist schon ein satter Vorteil.

dargo
2018-01-23, 17:57:10
aber selbst 10% sind eine menge.
Findest du? Ich finde sowas eher belanglos.

Bei mir sind es z.B. in Witcher 3 und UHD knapp 13 Prozent bei der besten von 11 getesteten 1080 Ti gegenüber der FE (Temp Limit), das kommt schon hin. Die Karten sind alle nicht weiter manuell übertaktet, aber die meisten könnten noch deutlich schneller.

Was sie könnten ist komplett unwichtig. Schließlich wird mit Herstellerangaben gebenchtmarkt. :) Ansonsten könnte man gleich alles an der Kotzgrenze benchmarken.

Dino-Fossil
2018-01-23, 18:09:14
Was sie könnten ist komplett unwichtig. Schließlich wird mit Herstellerangaben gebenchtmarkt. :)

Stimmt, aber dann in Zukunft auch nicht mit möglichem UV bei Vega kommen, gell? :tongue:

dargo
2018-01-23, 18:13:32
Was hat jetzt UV damit zu tun? Es ging vorhin um reine fps. :rolleyes: Typisch 3DC, man spricht von Äpfeln kommt der nächste mit Birnen.

Igor TH
2018-01-23, 18:14:54
Bir mir liefen alle 1080 Ti in der Hotbox, aufgewärmt. Sollte man zum Standard machen.
Dann sind die maximalen 15-17 Prozent aus dem kalten Zustand nämlich auch Geschichte ;)

Rancor
2018-01-23, 18:41:29
Stimmt, aber dann in Zukunft auch nicht mit möglichem UV bei Vega kommen, gell? :tongue:

LOL. Ein typischer Dargo :freak:

Natürlich, bei NV zählen die Herstellerangaben, aber bei VEGA, da zählt natürlich sein UV Zirkus... Es ist zum totlachen ;D

Monsta
2018-01-23, 18:59:16
LOL. Ein typischer Dargo :freak:

Natürlich, bei NV zählen die Herstellerangaben, aber bei VEGA, da zählt natürlich sein UV Zirkus... Es ist zum totlachen ;D

Wo hat er denn seine UVLiquid mit den anderen verglichen. Also wenn man sowas behauptet dann bitte auch die Soße.

Rancor
2018-01-23, 19:12:18
Wo hat er denn seine UVLiquid mit den anderen verglichen. Also wenn man sowas behauptet dann bitte auch die Soße.

Er macht das permanent, wenn es um VEGA 64 vs 1080TI geht.

Elite_Warrior
2018-01-23, 19:21:35
@ y33h@:
Deine Aussage bezüglich Primtive Shaders ist schon im Umlauf
https://www.reddit.com/r/Amd/comments/7sedpq/amd_cancels_the_driver_path_for_primitive_shaders/

Da hat jemand gleich den Graphen angepasst:freak:
https://cdn.discordapp.com/attachments/397383924965179394/405398427002732545/unknown.png

Digidi
2018-01-23, 19:32:00
AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.

Danke für die Info. Was meinst du mit Verworfen aber in der API geht es?
und zweitens wieso macht Ihr keine News bei golem darüber?
Edit: Da kommt so eine Bombenmeldung und die Leute wärmen wieder die alten Themen auf :facepalm:

BeetleatWar1977
2018-01-23, 19:39:30
Danke für die Info. Was meinst du mit Verworfen aber in der API geht es?

Edit: Da kommt so eine Bombenmeldung und die Leute wärmen wieder die alten Themen auf :facepalm:
Ich nehme mal schwer an - Probleme mitm Compiler? Man müsste sich mal den Vulkantreiber (für Linux) genauer anschauen - wie es da gelöst ist...... Wenns da funktioniert würde das die bessere Performance erklären.

Screemer
2018-01-23, 19:46:24
es ist schlicht so, dass die 580 als nächste karte unter der v56 nicht mehr ausreicht um die geforderte leistung zu bringen. sonst sagen die angeben rein gar nichts aus. weder ob crossfirescaling besser oder schlechter als sli funktioniert, ob es an besserer optimierung oder irgendwelchen gcn features liegt, noch sonst irgendwas. kann man das hier endlich mal zu nem abschluss bringen?

Ex3cut3r
2018-01-23, 20:03:48
Leute diskutiert hier ehrlich über grobe Systemanforderungen? Glaube kaum das diese diesmal sehr akkurat sind, das sieht man ja schon daran, das eine 1070 für 30FPS in 4K empfohlen wird, aber für 60FPS sollen dann gleich zwei 1080 herhalten...eine 1080 OC stemmt das auch alleine. ;D

Vor allem da SLi/Crossfire doch eh tot sind, das macht vlt. 1% der Spieler aus, von daher ziemlich abenteuerlich und mutig von Ubisoft so etwas anzugeben.

Grendizer
2018-01-23, 20:09:03
Ja vor allem, weil einige Release doch in der letzten Zeit gezeigt haben, das selbst die Ergebnisse am Releasetag ohne richtig optimierte Treiber wenig aussagekräftig sind. Wir haben sowohl bei AMD wie auch bei nVidia da bei Wolfenstein wie auch Forza usw. noch richtig Bewegung gesehen.

Digidi
2018-01-23, 20:09:25
Ok jetzt geht die Post ab mit Primitive Shaders. Hardwareluxx Techpowerup usw berichten und auf reddit geht der Thread steil nach oben.

Grendizer
2018-01-23, 20:09:47
Leute diskutiert hier ehrlich über grobe Systemanforderungen? Glaube kaum das diese diesmal sehr akkurat sind, das sieht man ja schon daran, das eine 1070 für 30FPS in 4K empfohlen wird, aber für 60FPS sollen dann gleich zwei 1080 herhalten...eine 1080 OC stemmt das auch alleine. ;D

Vor allem da SLi/Crossfire doch eh tot sind, das macht vlt. 1% der Spieler aus, von daher ziemlich abenteuerlich und mutig von Ubisoft so etwas anzugeben.


Naja... vieleicht gibt es auf Grund des Mining vieleicht mehr potentielle SLI /Crossfiresysteme als jemals zuvor :biggrin:

Schlammsau
2018-01-23, 20:12:21
*Hust* :confused:

https://abload.de/thumb/unbenanntekk2g.jpg (http://abload.de/image.php?img=unbenanntekk2g.jpg)

Ex3cut3r
2018-01-23, 20:16:15
*Hust* :confused:

https://abload.de/thumb/unbenanntekk2g.jpg (http://abload.de/image.php?img=unbenanntekk2g.jpg)

:biggrin: Aber doch nicht zum Gamen oder? Wenn doch, hast du dann in einen von zehn Titeln einen Gewinn von +25% ?

https://abload.de/img/unbenannt41upx.png

Quelle: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-januar-2018

Vor allem, wie soll man denn noch 2x Vega auftreiben? Wenn man nicht grade Milliardär ist? ^^

Screemer
2018-01-23, 20:18:54
:biggrin: Aber doch nicht zum Gamen oder? Wenn doch, hast du dann in einen von zehn Titeln einen Gewinn von +25% ?

https://abload.de/img/unbenannt41upx.png

Quelle: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-januar-2018

Vor allem, wie soll man denn noch 2x Vega auftreiben? Wenn man nicht grade Milliardär ist? ^^
ihm ging es doch ganz offensichtlich um die neue revision von vega im vergleich von liquid und red devil (c0 und c1)

Schlammsau
2018-01-23, 20:29:03
ihm ging es doch ganz offensichtlich um die neue revision von vega im vergleich von liquid und red devil (c0 und c1)
(y)

Ist das bekannt?

Ex3cut3r
2018-01-23, 20:30:10
ihm ging es doch ganz offensichtlich um die neue revision von vega im vergleich von liquid und red devil (c0 und c1)

Achso mein Fehler. Sry Schlammsau.

BeetleatWar1977
2018-01-23, 20:43:37
*Hust* :confused:

https://abload.de/thumb/unbenanntekk2g.jpg (http://abload.de/image.php?img=unbenanntekk2g.jpg)
ihm ging es doch ganz offensichtlich um die neue revision von vega im vergleich von liquid und red devil (c0 und c1)
(y)

Ist das bekannt?
Achso mein Fehler. Sry Schlammsau.
http://gpuz.techpowerup.com/18/01/23/7yw.png
hat nicht wirklich was zu sagen - sind wohl bis C3 im Umlauf, und ich hab meine schon ein ganzes Weilchen^^

Edit: und ist bei mir ne 56er

dargo
2018-01-23, 20:47:48
Ja vor allem, weil einige Release doch in der letzten Zeit gezeigt haben, das selbst die Ergebnisse am Releasetag ohne richtig optimierte Treiber wenig aussagekräftig sind. Wir haben sowohl bei AMD wie auch bei nVidia da bei Wolfenstein wie auch Forza usw. noch richtig Bewegung gesehen.
Bei Wolf 2 lags hauptsächlich an der Applikation. Und irgendwelche Performancesteigerungen bei Forza Motorsport 7 sind reine Hirngespinste. Das Spiel lässt sich nicht reproduzierbar benchen. Hatte ich auch schon öfter angesprochen. Falls du Forza Horizon 3 meinst... dort kam der größte Schub auch mit einem Applikationspatch.

Leute diskutiert hier ehrlich über grobe Systemanforderungen? Glaube kaum das diese diesmal sehr akkurat sind, das sieht man ja schon daran, das eine 1070 für 30FPS in 4K empfohlen wird, aber für 60FPS sollen dann gleich zwei 1080 herhalten...eine 1080 OC stemmt das auch alleine. ;D

Das hier fand ich lustiger. :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11611248&postcount=134


Vor allem da SLi/Crossfire doch eh tot sind, das macht vlt. 1% der Spieler aus, von daher ziemlich abenteuerlich und mutig von Ubisoft so etwas anzugeben.
Nicht wenn sich der Entwickler um SLI/CF bei low level selbst kümmert.

Ex3cut3r
2018-01-23, 21:03:04
Das hier fand ich lustiger. :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11611248&postcount=134

Nicht wenn sich der Entwickler um SLI/CF bei low level selbst kümmert.

:biggrin: Das ist natürlich auch nicht schlecht.

Ja ok gibt diesmal 70% zuwachs. Ändert aber nix daran, dass der Anteil an mGPU Usern sehr sehr gering ist. Aber ok wenn ich 50FPS in 3440x1440 mit meiner GTX 1070 OC erreiche bin ich zufrieden.

Langlay
2018-01-23, 21:58:12
hat nicht wirklich was zu sagen - sind wohl bis C3 im Umlauf, und ich hab meine schon ein ganzes Weilchen^^

Edit: und ist bei mir ne 56er


http://gpuz.techpowerup.com/18/01/23/5pf.png

Meine Vega56 ist ein C3, gekauft 1-2 Wochen nach Release der Vega56, also irgendwann Ende August.

Zergra
2018-01-23, 22:43:26
So habe meine Red Devil V56 bei Ebay verkauft für 800€ (1€ Prov.), hatte die 2 Wochen zum Minen genutzt. Bleibt also die V64 :D Macht dann knapp 300€ + in 2 Wochen :)

horn 12
2018-01-23, 23:12:38
300 Euro Reingewinn für die Red Devil durch schürfen , oder durch den Wiederverkauf.

y33H@
2018-01-23, 23:15:49
AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.Weil mein Post hier durch die News tickert: AMD hat immer gesagt, dass die Prim Shader per API implementiert werden müssen, siehe zB mein Review der Vega 64: https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-3.html

Der alternative Pfad wurde nie groß beworben oder explizit angekündigt, wohl aus verschiedenen Gründen. AMDs hat also nicht zwingend etwas gecancelt ... das hier ist vom CES Tech Day:

62423

Zergra
2018-01-23, 23:18:19
300 Euro Reingewinn für die Red Devil durch schürfen , oder durch den Wiederverkauf.
Beides zusammen, 250€ Gewinn durchs verkaufen + 50€ durchs schürfen

horn 12
2018-01-23, 23:37:17
Raja Koduri bekommt Ersatz
Das kann nun nur besser werden:

https://videocardz.com/press-release/graphics-industry-leaders-mike-rayfield-and-david-wang-join-amd

Th3o
2018-01-24, 00:23:35
So habe meine Red Devil V56 bei Ebay verkauft für 800€ (1€ Prov.), hatte die 2 Wochen zum Minen genutzt. Bleibt also die V64 :D Macht dann knapp 300€ + in 2 Wochen :)
Wer zahlt 800€, wenn es sie neu für 799€ bei MF gibt??? Crazy world

Dino-Fossil
2018-01-24, 00:32:19
Der alternative Pfad wurde nie groß beworben oder explizit angekündigt, wohl aus verschiedenen Gründen. AMDs hat also nicht zwingend etwas gecancelt ...

Ich denke die Verwirrung hier resultiert aus einer "Unterhaltung" per Twitter zwischen einem AMD-Repräsentanten und einem Journalisten, in der gesagt wurde, dass es automatisch per Treiber passiert.
Ursprünglich hieß es in der Tat, dass das Feature gezielt per Applikation angesprochen werden muss.
Ob da einer etwas voreilig war, oder AMD wirklich vorhatte, es per Treiber zu regeln lässt sich von außen schwer feststellen, aber eine gewisse Enttäuschung ist nachvollziehbar.

y33H@
2018-01-24, 00:35:04
Kannst du das von Twitter ggf mal verlinken?

Dino-Fossil
2018-01-24, 00:44:51
Kannst du das von Twitter ggf mal verlinken?

Das dürfte der Austausch gewesen sein, der alles ins Rollen brachte:

https://mobile.twitter.com/ryszu/status/896304786307469313

y33H@
2018-01-24, 07:38:19
Danke - allerdings ist die Aussage ja nun schon ein paar Monate alt und seitdem gab es kein Update.

Dino-Fossil
2018-01-24, 09:39:20
Ja, danach gab es keine Infos mehr, soweit ich weiß.

Ich vermute, dass man nach dem Vega-Launch so versucht hat, einen Nutzen für Vega aus diesem Feature zu ziehen, ohne auf gezielte Optimierung durch Entwickler angewiesen zu sein.
In Anbetracht der geringen Verbreitung von Vega und des nötigen know-hows dürften die entsprechenden Titel erstmal sehr dünn gesäht sein, da wäre automatisiert per Treiber schon von Vorteil.
Das hat wohl nicht richtig funktioniert - warum auch immer - und man ist wieder auf die ursprüngliche Planung (gezielte Implementation durch die Software-Entwickler) zurück.

dildo4u
2018-01-24, 14:14:09
Computerbase hat jetzt Custom Modelle in ihre 2018 Benches aufgenommen.

https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-rating-99th-percentile-frametimes-in-fps-3840-2160

dargo
2018-01-24, 16:54:02
Tjo... +8% bei GP102/GP104 zwischen Referenz und Custom vs. +5-7% bei Vega Referenz vs. Custom. Wahnsinns Unterschied. ;D Und bevor wieder einer kommt... ja mir ist bekannt, dass es auch schnellere GP102 Customs gibt.

dildo4u
2018-01-24, 17:01:36
Das Problem bei einer Monster Karte wie einer Custom 1080 Ti wird sein,das sie selbst in 4k Teilweise ins CPU Limit läuft,Wolf 2 zeigt z.b recht deutliche Unterschiede.

http://abload.de/img/wolf1080g73jyi.png

dargo
2018-01-24, 17:11:20
Das mit dem CPU-Limit ist doch Quatsch. Ein Assassin's Creed Origins oder Destiny 2 bsw. skalieren auf GP102 mit nur 6-7% in 4K. Bei GP104 sogar mit nur 5%. Und da bist du garantiert nicht im CPU-Limit, Frames steigen in 1080p um Faktor 2-2,5. Es gibt nun mal Spiele die etwas besser skalieren als andere.

Igor TH
2018-01-24, 17:28:11
Um sich über die Skalierung zu unterhalten, müsste man auch den durchschnittlichen Boost-Takt der erwärmten Karte im jeweiligen Spiel ansehen. Der fehlt leider in der Zusammenfassung.

Die Asus ist zudem kein wirklich glücklich gewähltes Beispiel. Die skaliert bei mir in Witcher 3 nur mit reichlich 6% in UHD, andere Karten mit 13-15% und mehr!
Doom meint noch nicht mal 8%, während z.T. günstigere Karten locker noch 11-13% schaffen.
Was aber auch zeigt, dass die Abstände in Doom etwas geringer ausfallen. Warum auch immer.

Die Karte ist einfach nur eines der schlechteren 1080 Ti Custom-Designs und der Preis war damals schon, nun ja...

dargo
2018-01-24, 17:38:31
Custom bleibt Custom. ;) Der Hauptgrund (jedenfalls für mich) ist bei einer Custom die Lautstärke + Temps. und nicht maximaler Takt, der in der Regel noch die Effizienz komplett killt weil höheres PT.

btw.
Die MSI Gaming skaliert auch nicht besser bei GP104. Und diese Karte bzw. der Kühler war sehr gefragt.

MartinRiggs
2018-01-24, 17:44:05
Die MSI Gaming skaliert auch nicht besser bei GP104. Und diese Karte bzw. der Kühler war sehr gefragt.

Da vertust du dich, auf der 1080 ist der Kühler schon ziemlich am Limit da es noch der alte 2 Slot ist.
Bei der 1080 gibt es wesentlich bessere Custom Designs als die MSI.
Die 1080TI hat ein 2,5 oder 3 Slot, da ist die MSI Gaming wesentlich besser.

Igor TH
2018-01-24, 17:44:34
Wenn es bei der Custom zweitrangig ist, wo der Takt liegt, kann man sie bei den Benches doch auch rauslassen :D

Würde ich jetzt z.B, die recht vernünftig gebaute Gigabyte RX Vega64 als typische Vega Custom und stellvertretend für den Rest verkaufen, würden mich die Liebhaber der roten Ecke wohl verbal lynchen. Sie ist nämlich kaum schneller, aber dafür deutlich leiser. Nur sieht man das an den Balken nicht. ;)

Um zu zeigen, was eine Custom könnte, sollte man schon eine der schnelleren nehmen. Sonst wird es ohne jegliche Taktangabe schon etwas interpretierungsbedürftig ;)

dargo
2018-01-24, 18:04:13
Wenn es bei der Custom zweitrangig ist, wo der Takt liegt, kann man sie bei den Benches doch auch rauslassen :D

Von mir aus. :tongue: Für mich sind die paar Prozent komplett wayne. Nur wenn du die Customs weg lässt wird keiner erfahren wie laut (oder in dem Fall besser gesagt leise) die Karten gegenüber Referenz sind. ;)


Um zu zeigen, was eine Custom könnte, sollte man schon eine der schnelleren nehmen. Sonst wird es ohne jegliche Taktangabe schon etwas interpretierungsbedürftig ;)
Was gibt es da großartig zu interpretieren? Wenn Custom A wesentlich schneller ist als Custom B liegts einfach nur daran, dass Custom A mehr verbrauchen darf. Einfachste Logik. In den seltesten Fällen wirds am völlig verkackten Customkühler liegen. Aber schön, dass du das Thema ansprichst. Es zählt für die Masse also doch nur der Balken, koste es was es wolle. ;)

Hübie
2018-01-24, 18:19:30
Damit Leser, welche diese Karten nicht haben, nachvollziehen können wann CPU eher bremst als GPU, braucht's einen Graphen mit den Auslastungen (bei der CPU eben per Core). - Meine Meinung -

Igor TH
2018-01-24, 18:34:07
Von mir aus. :tongue: Für mich sind die paar Prozent komplett wayne. Nur wenn du die Customs weg lässt wird keiner erfahren wie laut (oder in dem Fall besser gesagt leise) die Karten gegenüber Referenz sind. ;)

Was gibt es da großartig zu interpretieren? Wenn Custom A wesentlich schneller ist als Custom B liegts einfach nur daran, dass Custom A mehr verbrauchen darf. Einfachste Logik. In den seltesten Fällen wirds am völlig verkackten Customkühler liegen. Aber schön, dass du das Thema ansprichst. Es zählt für die Masse also doch nur der Balken, koste es was es wolle. ;)Musst Du mir nicht erklären. Sonst würden es die Seiten doch nicht teilweise so machen. Und was die Leistungsaufnahme betrifft...

Treffen sich eine Vega Referenz und eine Sapphire Nitro beim Abendspaziergang... Sagt die Nitro "Du, mir ist aber mal wieder heiß", antwortet die kleine Schwarze schnippisch "Verstehe ich nicht. Ich laufe kaum langsamer als Du, aber Du schwitzt wie Sau. Friss halt nicht so viel". Meint die Nitro "Fresse halten, ich höre dein Keuchen auch noch, wenn ich schon längst um die Ecke bin". Reine Auslegungssache also. :)

Tesseract
2018-01-24, 19:36:20
Was gibt es da großartig zu interpretieren? Wenn Custom A wesentlich schneller ist als Custom B liegts einfach nur daran, dass Custom A mehr verbrauchen darf. Einfachste Logik. In den seltesten Fällen wirds am völlig verkackten Customkühler liegen.

nein, es gibt mehrere andere faktoren:
1) GP102 beispielsweise fängt schon ab 60°C zum throttlen an, wenn auch nur wenig. abgesehen von waterloops ist quasi jede karte zu einem gewissen grad temperaturlimitiert
2) bessere boardlayouts mit höherer wandlereffizienz verbessern die performance/watt bei gleichem verbrauch.
3) die takt-voltage-kurve ist bei OC-customs im oberen bereich (>1500MHz) nah am maximum, quasi ab-werk-undervolting.

3 kann man theoretisch mit viel zeitaufwand selbst nachstellen (oder auch minimal besser, aber viel mehr spielraum als ~20-30MHz pro voltagestufe ist da oft nicht) aber 1 und 2 sind direkt vom layout bzw. der kühlung abhängig.

Tesseract
2018-01-24, 20:00:44
Die Asus ist zudem kein wirklich glücklich gewähltes Beispiel. Die skaliert bei mir in Witcher 3 nur mit reichlich 6% in UHD, andere Karten mit 13-15% und mehr!
Doom meint noch nicht mal 8%, während z.T. günstigere Karten locker noch 11-13% schaffen.
Was aber auch zeigt, dass die Abstände in Doom etwas geringer ausfallen. Warum auch immer.

was hat die denn ab werk für ein power limit? vom board layout her ist die eigentlich eine der besten und die custom V64 wird wahrscheinlich auch die gleichen komponenten verwenden.

scully1234
2018-01-24, 20:34:19
Treffen sich eine Vega Referenz und eine Sapphire Nitro beim Abendspaziergang... Sagt die Nitro "Du, mir ist aber mal wieder heiß", antwortet die kleine Schwarze schnippisch "Verstehe ich nicht. Ich laufe kaum langsamer als Du, aber Du schwitzt wie Sau. Friss halt nicht so viel". Meint die Nitro "Fresse halten, ich höre dein Keuchen auch noch, wenn ich schon längst um die Ecke bin". Reine Auslegungssache also. :)

Ist das die neue Hardwarepoesie :tongue:

Grendizer
2018-01-24, 20:40:57
Treffen sich eine Vega Referenz und eine Sapphire Nitro beim Abendspaziergang... Sagt die Nitro "Du, mir ist aber mal wieder heiß", antwortet die kleine Schwarze schnippisch "Verstehe ich nicht. Ich laufe kaum langsamer als Du, aber Du schwitzt wie Sau. Friss halt nicht so viel". Meint die Nitro "Fresse halten, ich höre dein Keuchen auch noch, wenn ich schon längst um die Ecke bin". Reine Auslegungssache also. :)


;D

Igor TH
2018-01-24, 20:42:24
was hat die denn ab werk für ein power limit? vom board layout her ist die eigentlich eine der besten und die custom V64 wird wahrscheinlich auch die gleichen komponenten verwenden.Das Platinenlayou (http://www.tomshardware.de/grafikkarte-benchmarks-temperaturen-lautstarke-leistungsaufnahme,testberichte-242388-2.html)t ist biederer Durchschnitt, das Power Target von 275 Watt (http://www.tomshardware.de/grafikkarte-benchmarks-temperaturen-lautstarke-leistungsaufnahme,testberichte-242388-5.html) wird OOTB voll ausgereizt und die Kühlung, nun ja (http://www.tomshardware.de/grafikkarte-benchmarks-temperaturen-lautstarke-leistungsaufnahme,testberichte-242388-5.html). Die 90°C am Speicher beim OC (nur GPU) sind nichts, was ich gern an meiner privaten Karte sehen möchte.

akuji13
2018-01-24, 20:45:35
Wenn mir nächstes mal im Sommer Abends meine Nachbarin begegnet und sich über die Hitze beschwert werde ich wohl in schallendes Gelächter ausbrechen. :D

bnoob
2018-01-25, 12:20:54
An die Leute hier mit Wasserkühlung:

Nutzt ihr das Liquid-BIOS oder hat das irgendwelche Nachteile?

Igor TH
2018-01-25, 14:34:40
Um an die Grenzen des Vertretbaren zu gelangen, reicht auch das "normale" völlig aus. :)

Unicous
2018-01-25, 14:35:43
http://gpuz.techpowerup.com/18/01/23/7yw.png
hat nicht wirklich was zu sagen - sind wohl bis C3 im Umlauf, und ich hab meine schon ein ganzes Weilchen^^

Edit: und ist bei mir ne 56er
http://gpuz.techpowerup.com/18/01/23/5pf.png

Meine Vega56 ist ein C3, gekauft 1-2 Wochen nach Release der Vega56, also irgendwann Ende August.

Wie oft muss man das eigentlich noch wiederholen: Es gibt kein C3 Stepping.

GPU-Z liest Blödsinn aus bzw. einen Platzhalter. Sie können iirc seit Polaris nicht mehr das Stepping ordentlich auslesen und schreiben irgendeinen Blödsinn hin (und es interessiert sie offensichtlich auch nicht, dass sie falsch liegen). Wahrscheinlich ist das Stepping A0 oder A1. Und daran hat sich (mit hoher Wahrscheinlichkeit) auch nichts geändert.

Vega2002
2018-01-25, 19:27:08
An die Leute hier mit Wasserkühlung:

Nutzt ihr das Liquid-BIOS oder hat das irgendwelche Nachteile?

Ich nutze es aber wirklich notwendig für max oc oder uv ist es nicht. Geht alles genauso problemlos mit dem Standard BIOS.

Hübie
2018-01-25, 20:47:24
Wie oft muss man das eigentlich noch wiederholen: Es gibt kein C3 Stepping.

GPU-Z liest Blödsinn aus bzw. einen Platzhalter. Sie können iirc seit Polaris nicht mehr das Stepping ordentlich auslesen und schreiben irgendeinen Blödsinn hin (und es interessiert sie offensichtlich auch nicht, dass sie falsch liegen). Wahrscheinlich ist das Stepping A0 oder A1. Und daran hat sich (mit hoher Wahrscheinlichkeit) auch nichts geändert.

Was macht dich da eigentlich so sicher? :uponder:

Igor TH
2018-01-25, 20:54:58
Weil nichts sauber ausdokumentiert ist. So wie beim sogenannten "Hot Spot". Diese ganzen Rückgabewerte sind mehr Schüsse ins Blaue als genau belegte Daten, leider. Da findet dann einer beim Sensor-Loop einen Rückgabewert, der nirgendwo auftaucht, aber einigermaßen mit HBM2 und GPU korreliert, aber höher ausfällt. Man nennt es dann Hot Spot und alle fahren drauf ab. Trotzdem weiß keiner, was es wirklich ist.

Unicous
2018-01-25, 23:22:47
Was macht dich da eigentlich so sicher? :uponder:

Ganz einfach, weil es so ist.(y)

Wer wirklich der Meinung ist, dass z.B. Polaris 10 mit einem "C7" Stepping ausgeliefert wird (iirc hatte jemand bei overclockers.net A1 aus dem BIOS ausgelesen) oder Vega 10 mit "C3" hat den Schuss nicht gehört.

Seit Jahr und Tag werden GPUs mit einem Ax Stepping ausgeliefert (es muss schon sehr viel schief gehen, damit man bei B oder gar C landet) und auf einmal schafft es AMD nicht mehr ihre GPUs ordentlich zu designen und muss teure Masken auflegen um das zu kompensieren?

Bei Ryzen dachten einige ja auch eine Zeitlang man wäre bei E4? und F3, dabei waren das Chiffren für die Steppings.:rolleyes:
Kann man froh sein, dass The Stilt da für Aufklärung gesorgt hat.

Fakt ist, GPU-Z kann seit Längerem bei AMD nicht das korrekte Stepping auslesen. Anstatt es auszulassen, bei AMD nachzufragen (sie stehen ja eh unter NDA und im direkten Kontakt mit AMD) schreiben sie einen Fantasiewert hin den sie igendwo aus dem BIOS auslesen. :facepalm:

Hübie
2018-01-26, 00:00:53
Ja gut C7 ist unwahrscheinlich und C3 auch, aber kann es nicht sein, dass die ein anderes Schema haben? War GK110 später nicht im B1 verfügbar? Der ging taktmäßig auch deutlich besser. Ist natürlich auch ungünstig, wenn AMD nirgends beschreibt wo es korrekt steht, denn auf den Dies ist ja nix aufgedruckt.
Dokumentiert ist es iirc jedenfalls nicht...

N0Thing
2018-01-26, 00:46:11
Bei Kepler war ein neues Stepping ja auch notwendig, GK100 war ja bekanntermaßen nicht wie gewünscht.
Bei den AMD-Karten ist das C3 und C7 wohl einfach nur ein Teil der Kodierung der Referenzplatform, wird von GPU-Z aber als Stepping ausgegeben. Man kann da nicht einfach von Nvidia auf AMD schließen und gleichsetzen.

Unicous
2018-01-26, 01:02:02
@Hübie

Was hat ein späteres Stepping eines GK110 mit dem Release-Stepping von Polaris und Vega zu tun?:confused:

Wie steht es im Übrigen mit dem "F1" Stepping von Tonga, oder dem "CF" Stepping von Polaris 11/10 (RX 470)?:uponder:

Wenn AMD die echten Steppings nicht herausrücken will, so what (oder wenn die Entwickler von GPU-Z zu doof/faul sind, diese im BIOS auszulesen, wie gesagt jemand bei overclock.net hatte seinerzeit den Eintrag für Polaris 10 gefunden, ich finde leider den Post nicht mehr). Warum müssen die GPU-Z Leute auf Teufel komm raus da etwas hinschreiben obwohl sie doch wissen müssten, dass das nur Quatsch sein kann. Oder denken sie gar, das sind die echten Werte. Das geht jetzt schon seit ein paare Jahren so und sie fühlen sich nicht bemüßigt, das zu korrigieren oder selbst zu dokumentieren, was sie da auslesen.

Die Steppings geben in der Regel eh keine Auskunft über irgendetwas, solange man nicht weiß was genau verändert wurde. Waren es Änderungen um die Ausbeute zu erhöhen, die Taktraten, die Leistungsaufnahme zu verringern, fiese Bugs zu mitigieren (z.B. TLB-Bug)?

Bei Intel ist es im Übrigen auch nicht wirklich besser. Da wird anscheinend jede minor revision mitgezählt, was man bei AMD z.B. nicht öffentlich macht (bzw. wird das u.U. nicht explizit hinterlegt). Und da Intel ein deutlich höheres Volumen hat, leisten sie sich auch deutlich mehr Masken. Aber auch hier hat man dann da Kuriosum, dass man entweder ein Stepping in Zahlen hat oder auch mal mit Buchstaben, während die Revision z.B. bei Coffee Lake schon "U0" erreicht zu haben scheint.

Also wen interessiert die Zahl, wenn man sie eh nicht verifizieren kann oder weiß was sie aussagt?


@N0Thing

Ja, das glaube ich auch. Es wird ein "falscher" String im BIOS ausgelesen und das ist höchstwahrscheinlich ein Teil der Device/Rev ID.


Wie dumm.:facepalm: Hier ist es ja schwarz auf Weiß:

https://developer.amd.com/resources/ati-catalyst-pc-vendor-id-1002-li/

Ich glaube das hatte ich damals schon einmal verlinkt, als man vehement darauf beharrte, das wäre das echte Stepping.

AMD Radeon™ R9 380 Series 6938 F1 (Tonga)

Radeon™ RX 470 Graphics 67DF CF
Radeon™ RX 460 Graphics 67EF CF

Vega fehlt in der Liste.:freak:

Hübie
2018-01-26, 01:17:50
Seit Jahr und Tag werden GPUs mit einem Ax Stepping ausgeliefert (es muss schon sehr viel schief gehen, damit man bei B oder gar C landet)

Das mit B1 war darauf bezogen. ;) Und da Intel wie du ja selbst sagst ein anderes Verfahren hat, wäre es ja im Bereich des Möglichen gewesen. Aber irgendwie ist es auch ziemlich egal.

Unicous
2018-01-26, 02:32:17
Ausgeliefert!.:rolleyes: Es ging ursprünglich um das Release-Stepping (vs. das aktuelle Stepping) .:rolleyes: Das Stepping hat sich laut CPU-Z bei AMD nicht verändert (logisch denn es ist gar nicht das Stepping), wen interessiert also das B1 Stepping des GK110?:rolleyes:

Intel hat kein anderes Verfahren, sondern eine andere Zählweise (bzw. Stepping und Revision sind vertauscht). Und die scheint laut CPU-Z nicht wirklich konsistent zu sein.

Gipsel
2018-01-26, 10:54:32
Zurück zum Thema bitte!

akuji13
2018-01-26, 11:33:58
Ein Artikel zu den primitive shadern.

https://www.computerbase.de/2018-01/amd-vega-primitive-shader/

Igor TH
2018-01-26, 11:50:00
Wir haben die Aufzeichnungen aus Sonoma, als das Ganze vorgestellt wurde, sogar auf dem Diktiergerät (es hieß ja nur Smartphone und Kameras aus). Die Originalgrafik zeigt beide Pfade parallel, jedoch den neuen Pfad deutlich hervorgehoben. AMD sagte damals, dass man die "New Primitive Shader Stage" in die Geometrie-Pipeline eingefügt hat. Anstelle der in der Hardware fest verankerten, dadurch jedoch unflexiblen Funktionen will man so ein flexibel ausgelegtes Shader-Array für die Verarbeitung der anfallenden Polygone nutzen. Allerdings ist es Auslegungssache, ob es nun per Treiber automatisch, applikationsspezifisch über eine API oder was auch immer passiert. Wenn ich die Diskussionen dort, auch unter den Kollegen, richtig in Erinnerung habe, lief es damals schon exakt auf das raus, was ich hier schon mehrmals geschrieben habe. Dieses Array wird nach wie vor durch die Treiber wie die herkommliche Pipeline genutzt, könnte aber, wie auch immer, optional die Primitive-Shader-Geschichte als Ersatz realiseren. Es blieb damals definitiv offen, wie das Ganze in der Zukunft wirklich realisiert wird. So gesehen verstehe ich jetzt die News und die Aufregung überhaupt nicht, zumal die jetzt Beteiligten auch damals alle mit dabei waren. Irgendwer sprach damals auch schon von einer Art Unified Shadern für die Geometrie, statt einer fest verdrahteten Pipeline (in Anlehnung an die seinerzeit ja weggefallen 2D-Hardwarefunktionen). Ich habe aktuell ein wenig die Assoziation aus Pudding, Nagel, Wand und Erdanziehungskraft. :)

https://img.purch.com/amd-vega/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8yL1AvNjQyOTEzL29yaWdpbmFsLzAwNWFQcmltaXRp dmUtU2hhZGVycy5qcGc=

Die Pixel-Enginge samt des "Draw Stream Binning Rasterizers" ist dann noch ein anderes Thema. Manchmal hatte ich zwischendurch das Gefühl, dass in den Foren beides vermischt oder nicht sauber voneinander getrennt wurde. Das Ding wurde als Ergänzung des traditionellen ROP implementiert (oder auch nicht) und sollte in der Lage sein, die Performance zu steigern, sowie dabei auch noch Energie zu sparen. Man wollte es mittels eines Caches auf dem Chip ermöglichen, dass der Rasterizer die Daten für sich überschneidende Polygone nur einmal bearbeiten muss und all jene Pixel weglässt, die in der fertigen Szene sowieso nicht sichtbar wären. Gut gedacht, hat NV es ja auch so ähnlich. Nur funktioniert das jetzt auch, oder doch eher nicht?

https://img.purch.com/amd-vega/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8yL0kvNjQyOTA2L29yaWdpbmFsLzAxMS1EcmF3LVN0 cmVhbS5qcGc=

Unterm Strich sind es also zwei Dinge ("New Primitive Shader Stage" und "Draw Stream Binning Rasterizer"), die auf dem Prüfstand stehen. Der "Draw Stream Binning Rasterizer" geht allerdings nur in Hardware zu lösen (Chip), da es ja ein echter Cache ist, beim "New Primitive Shader Stage" muss es Software richten, wie auch immer.

Daredevil
2018-01-28, 00:55:58
Der Media Markt hat auf der Dreamhack neben den anderen guten Nvidia Angeboten klammheimlich auch Sapphire Nitro+ Vega 56er für 599€ und Vega 64er für 699€ verkauft. Stand so nicht im Prospekt drin und wurde demnach nicht extra beworben. Hätte ich des mal früher gewusst....

Kartenlehrling
2018-01-28, 01:04:21
War nur auf Ladenverkauf beschränkt oder nicht?

Daredevil
2018-01-28, 01:12:15
Jo genau, auf der Dreamhack selber. Die anderen Karten waren ja alle angekündigt ( 1080ti 699€, gtx1080 500€, rx580 279€... ) aber die Vega wurde halt nicht erwähnt. Hat mich sehr überrascht, davon war das Regal allerdings auch noch prappenvoll.

Hübie
2018-01-28, 01:27:01
Was hat die denn gekostet? Ich sehe keinen Grund 700 Euro für ne Vega auszugeben. Es sei denn man verkauft die dann direkt für 900 weiter, verkauft seinen Freesync-Monitor und tauscht dies in eine 1080-Ti-G-Sync-Kombination (generell mehr Leistung, weniger Probleme, weniger Verbrauch...). X-D

N0Thing
2018-01-28, 01:31:58
Hat er doch geschrieben:

Der Media Markt hat auf der Dreamhack neben den anderen guten Nvidia Angeboten klammheimlich auch Sapphire Nitro+ Vega 56er für 599€ und Vega 64er für 699€ verkauft. Stand so nicht im Prospekt drin und wurde demnach nicht extra beworben. Hätte ich des mal früher gewusst....

Im allgemeinen hätte man sicherlich mehr Leistung mit einer 1080Ti, Preis wäre sogar der gleiche, Verbrauch niedriger, Probleme dürften sich die Waage halten, kommt wohl darauf an, was sonst an Hardware und Software verwendet wird.

Daredevil
2018-01-28, 01:34:02
Die Nitro+ ist schon eine sehr gute Karte, da kann man locker 100€ schon alleine durch Kühlkonstruktion und Produktion drauflegen. Deswegen finde ich die 700€ für die 64er als momentan maximale, was man bei einer Luftkühlung rausquetschen kann ( 1.7kg! ) schon ziemlich fair. Aber darum solls hier jetzt auch nicht gehen.
Wollte nur meine Beobachtung teilen. :D Morgen hat die Dreamhack noch auf. :tongue:

Jake Dunn
2018-01-28, 02:02:26
Über 2Kg :freak: ohne Radi ^^

https://abload.de/thumb/fdxusm9.jpg (http://abload.de/image.php?img=fdxusm9.jpg)

Wake
2018-01-28, 02:36:16
Da sind ja die UFO-Bilder aus den 50er-Jahren schärfer ;).

dr.denton
2018-01-28, 09:22:11
Da sind ja die UFO-Bilder aus den 50er-Jahren schärfer ;).


Ja, aber UFOs sind auch viel leichter in die Finger zu kriegen ^^

dargo
2018-01-28, 10:25:28
Was hat die denn gekostet? Ich sehe keinen Grund 700 Euro für ne Vega auszugeben.
Ich sehe auch keinen Grund 1299€ für eine Titan auszugeben (dann noch mit einem Ref. Kühler X-D). Trotzdem wirds gemacht.

Lehdro
2018-01-28, 10:46:41
Ich sehe auch keinen Grund 1299€ für eine Titan auszugeben (dann noch mit einem Ref. Kühler X-D). Trotzdem wirds gemacht.
Und das macht jetzt die Vega Preise besser oder wie?

Dino-Fossil
2018-01-28, 10:48:18
Man wollte es mittels eines Caches auf dem Chip ermöglichen, dass der Rasterizer die Daten für sich überschneidende Polygone nur einmal bearbeiten muss und all jene Pixel weglässt, die in der fertigen Szene sowieso nicht sichtbar wären. Gut gedacht, hat NV es ja auch so ähnlich. Nur funktioniert das jetzt auch, oder doch eher nicht?


Es gab dazu ja von AMD selbst ein paar Zahlen. Von denen ausgehend kann man wohl sagen, dass es funktioniert, aber im Mittel (sogar über die vom Marketing getroffene Auswahl an Titeln) nur ein paar % Vorteile sowohl für fps als auch die Effizienz bringt.
Die jüngsten Folien wurden u.a. auch hier im Thread verlinkt, bin aber gerade zu faul, sie wieder zu suchen.

So gesehen kann es auch eingach sein, dass AMD mit der Technik einfach noch am Anfang steht und wir bessere Werte in zukünftigen Iterationen sehen werden. nVidia macht das ja auch nicht erst seit Pascal, hat also schon ein wenig mehr an Erfahrung dazu.

basix
2018-01-28, 10:58:27
Es hat aber schon beim ersten Wurf auf GM107 schon ziemlich gut geklappt ;) ich bin zugegebener ein wenig entäuscht von Vega. Die vorab Specs hörten sich alle sehr gut an, am Schluss kam beim Kunden zu wenig an. Ich hoffe Navi kriegt das in den Griff. Vega Mobile / Raven Ridge und z.B. auch die neuen iMac Pro zeigen potential

Igor TH
2018-01-28, 18:01:57
...So gesehen kann es auch eingach sein, dass AMD mit der Technik einfach noch am Anfang steht und wir bessere Werte in zukünftigen Iterationen sehen werden. nVidia macht das ja auch nicht erst seit Pascal, hat also schon ein wenig mehr an Erfahrung dazu.Sicher. Nur klang das in Sonoma seinerzeit aber so, als dass man Nvidia damit noch toppen könnte. Wenig ist besser als nichts und doch schlechter als behauptet. ;)

Digidi
2018-01-28, 22:43:42
Sicher. Nur klang das in Sonoma seinerzeit aber so, als dass man Nvidia damit noch toppen könnte. Wenig ist besser als nichts und doch schlechter als behauptet. ;)
Man kann Nvidia damit wahrscheinlich toppen nur muss man halt mit seiner kleinen Marktstellung erst mal die Programmierer dazu bringen die features zu nutzen.

AMD braucht jetzt dringend ein paar Spiele die dieses Feature zumindestens mal demonstrieren und die Menschen zum undenken bringt.

Opel nannte es mal Umparken im Kopf :D

Hübie
2018-01-28, 22:57:16
Nein. AMD muss Anstrengungen anstellen, dass diese Features in APIs wandern. Spiel XY auf Chip AB zu optimieren war genau dass was wir doch nicht wollten. Woher der Wandel? Weil AMD der Kuscheltierverein ist? :rolleyes:

Igor TH
2018-01-29, 07:06:09
Das Implementieren von zig verschiedenen Renderpfaden in eine Software lässt doch die Kosten für die Entwicklung und die Fehleranfälligkeit enorm explodieren. Proprietäres Gedöns ist ja genau das, was man Apple über die Jahre immer vorgeworfen hat und vermeiden möchte. Und plötzlich soll so etwas state of the art sein? Der Nächste kommt dann und meint, man könne das Zerteilen der Polygone und Verwerfen des Unnützen doch gefälligst gleich selbst im Spiel erledigen und möge nur noch das an die Grafikkarte schicken, was wirklich sichtbar ist. Das ist doch Humbug und komplett von hinten her gedacht.

Wenn ich mir dieses ganze Array-Gedöns mal in Ruhe betrachte, ist es doch eigentlich recht clever angedacht. Ich implementiere dort erst einmal den aktuellen Ist-Stand und habe dann alle Zeit der Welt, so lange damit herumzuexperimentieren bis es entweder automatisch laufend hinzubekommen ist oder ich mich hinter meiner Pudding-Wand-Aussagementalität verstecken und den Ball an Dritte weitergeben kann. Man hat dadurch über ein Jahr lang Zeit gehabt, das so hinzubekommen, wie man es erwartet hätte und es hat am Ende dann doch nicht funktioniert. Dumm gelaufen, aber kein Grund, nicht dran zu bleiben. In ein paar Wochen sind wir schlauer, wenn wir wissen, was die Grünen mit Ampere ausgeheckt haben. Top oder Flop? Lassen wir uns überraschen.

Menace
2018-01-29, 07:08:23
Proprietäres Gedöns ist ja genau das, was man Apple über die Jahre immer vorgeworfen hat und vermeiden möchte. Und plötzlich soll so etwas state of the art sein?

Könnte man da nicht auch nvidia nennen? :confused:

Hübie
2018-01-29, 07:52:43
Ja natürlich. Aber immerhin hat man Gameworks und zuletzt auch Flex geöffnet. Beides trademarks die schon Millionen verschlungen haben und außerdem eine hohe Qualität aufweisen. Bei CUDA hat man keine Wahl, da der Vorsprung zu groß ist und man so Anforderungen deutlich schneller umsetzen kann, da es keinen Wasserkopf gibt, der entscheiden muss.
Ich wüsste jetzt ad hoc jedoch kein Feature einer NV-Graka, welches ein Dev implementieren muss um maximale Performance zu erhalten.

Bucklew
2018-01-29, 09:22:20
Proprietäres Gedöns ist ja genau das, was man Apple über die Jahre immer vorgeworfen hat und vermeiden möchte. Und plötzlich soll so etwas state of the art sein?
Das hatte ich auch schon gefragt. GameWorks wurde auch jahrelang boykottiert, also müssten proprietäre Implementierungen, wie jetzt Primitive Shader ebenfalls boykottiert werden.

AMD sollte übrigens lieber gucken, dass ihre Karten einfach dann gut funktionieren, wenn die Programmierer stumpf DX* oder Vulkan verwenden. Mit proprietären Lösungen kommt AMD nicht weit, dafür fehlt der Marktanteil.

pixeljetstream
2018-01-29, 09:35:12
Wir hatten die Diskussion ja öfter
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=582796

ich finde es widersprüchlich wenn man einerseits technischen Fortschritt will, sich beschwert wenn "nix neues" kommt mit Generation XYZ, andererseits dann genau das durch Reglementierung und Einheitsbrei verhindern will.

Imo ist es zwingend notwendig, dass mit innovativer Technik gespielt werden darf, irgendwie muss man ja die nächsten API versionen und deren Features definieren, die fallen ja nicht vom Himmel.
4k, VR, usw. ist alles schon verdammt aufwendig, es ist doch gut dass man sich Gedanken macht, ob es nicht bessere Wege gibt das ein oder andere Umzusetzen, und wo wenn nicht im Markt selbst können sich die Entwicklungen messen...

Die Mehrkosten aus X Renderpfaden sind ja eh schon da, und im Verhältnis zu den Gameassets ist die Programmierung immer noch "günstig". Es ist auch keiner gezwungen hier mehr zu investieren. Das meiste Risiko haben die IHVs selbst, die Chipfläche, Entwicklungszeit etc. sind sie auf jeden Fall los.

pixeljetstream
2018-01-29, 09:38:56
Ich wüsste jetzt ad hoc jedoch kein Feature einer NV-Graka, welches ein Dev implementieren muss um maximale Performance zu erhalten.
Da hat aber das NV marketing bei Dir versagt, denke mal an die VR features, oder vorher multi-projection engine etc. ;)

HOT
2018-01-29, 09:48:45
Was ist denn das wieder für ne dämliche Diskussion? Primitive Shader sind ne Hardware für die es noch keine Schnittstelle gibt. AMD hat es grad mal geschafft eine proprietäre Schnittstelle zur Verfügung zu stellen, aber das bleibt doch nicht so :freak:. Was hat das jetzt mit Gameworks zu tun?

Nein. AMD muss Anstrengungen anstellen, dass diese Features in APIs wandern. Spiel XY auf Chip AB zu optimieren war genau dass was wir doch nicht wollten. Woher der Wandel? Weil AMD der Kuscheltierverein ist? :rolleyes:
Was fürn Wandel? Natürlich wandert das in die nächsten APIs... Solange DX12 und Vulkan 1.0 verwendet werden wirds da aber keinen anderen Weg geben als den proprietären.

dargo
2018-01-29, 10:42:31
Weiß hier einer zufällig ob der Crimson 17.7.1 mit Vega funktioniert?

mjs
2018-01-29, 12:34:40
Weiß hier einer zufällig ob der Crimson 17.7.1 mit Vega funktioniert?
Mein Launchtreiber war ein 17.8er -allerdings hat mir das damalige Win10 1703 bei einer Neuinstallation kurzfristig mal einen 17.7.xx untergeschoben -frag mich aber bitte nicht welche Unterversion.

Hübie
2018-01-29, 12:38:28
Da hat aber das NV marketing bei Dir versagt, denke mal an die VR features, oder vorher multi-projection engine etc. ;)

Ich habe kein VR und muss es der Dev machen? Geht das nicht per App im Treiber (wie MFAA)?

Warum ist MS denn so träge? Adaptionen für Vulkan kommen gefühlt schneller. So eine Hardware wird über 2-3 Jahre entwickelt (Vega). Warum also nicht parallel MS/Khronos mit einbeziehen? Nein da müssen die Käufer auf zwei, drei Spiele im Jahr hoffen. Per Standard API wäre es doch leichter auch für ältere Titel (z.B. PUBG) rein zu patchen oder? Dürfte weitaus weniger Aufwand sein und schnellere Umsetzung haben.

aufkrawall
2018-01-29, 12:45:58
Aber immerhin hat man Gameworks und zuletzt auch Flex geöffnet.
Das Raytracing- und Voxel-Gedöns gabs bisher nur via nvapi für dx11. Ob das in neuen Spielen anders sein wird, wird man sehen. Geh ich nicht von aus.
nv hat auch nie gesagt "wir machen jetzt gw offen!"

dargo
2018-01-29, 12:47:22
Mein Launchtreiber war ein 17.8er -allerdings hat mir das damalige Win10 1703 bei einer Neuinstallation kurzfristig mal einen 17.7.xx untergeschoben -frag mich aber bitte nicht welche Unterversion.
Ich habs jetzt selbst getestet. Der Crimson 17.7.1 kennt noch keine RX Vega.

dildo4u
2018-01-29, 18:03:48
PCGH hat jetzt noch Vega 64 Air zu den neuen Benches hinzugefügt.


http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

BeetleatWar1977
2018-01-29, 20:44:10
PCGH hat jetzt noch Vega 64 Air zu den neuen Benches hinzugefügt.


http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Hm, wird mit Rise of the Tomb Raider (Steam), PCGH-Benchmark 'Geo Valley'

der normale Ingame-Benchmark gemeint sein?

dildo4u
2018-01-29, 20:47:26
Nein:

http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Videos/Grafikkarten-Benchmark-Szene-1248005/

DrFreaK666
2018-01-29, 20:47:32
Eigentlich wäre es für MS auch von Interesse wenn es Einzug in DX12 findet (Stichwort: nächste Xbox)

dildo4u
2018-01-30, 10:12:33
ndYvSOI0Stc

Dino-Fossil
2018-01-30, 13:38:10
Wenn ich das richtig sehe, ist das reine Spekulation seinerseits, weil er gerade mal ein paar FE in diversen Shops gesehen hat?

dildo4u
2018-01-30, 13:39:34
Laut dem Video hat er mit zwei Herstellern gesprochen die angeblich keine GPUS für Custom Karten mehr bekommen.

Rancor
2018-01-30, 14:03:54
Deckt sich doch mit den Aussagen von Igor..

N0Thing
2018-01-30, 15:02:28
Da hieß es doch, dass die Hersteller nur noch abwechselnd mit Packages beliefert werden, nicht dass Teile gar nichts mehr bekommen, oder?

dildo4u
2018-01-30, 15:05:05
Das hat im November noch Sinn gemacht jetzt wo sogar NV nicht genug Liefern kann könnte es schon stimmen,das sie gar nix mehr an Asus/Sapphire etc liefern

Dural
2018-01-30, 15:15:20
Was soll da besonders sein? Wenn was knapp verfügbar ist verwendet man die dinger halt auf produkte wo man am meisten dafür bekommt, völlig logisches vorgehen seitens AMD.

NV hat da ein ganz anderes problem, für sie ist das wohl sehr schwer abzuschätzen was für mengen an pascal chips sie bis ampere noch benötigen, den man muss auch beachten das der mining markt von heute auf morgen komplett einbrechen kann. die wollen sicher nicht noch pascal chips hüten wenn ampere vor der türe steht.

X-Bow
2018-01-30, 15:50:50
nVidia wird aber bestimmt nicht weniger fertigen wenn aktuell sowieso alles aus den Händen gerissen wird. Die verzichten doch nicht freiwillig auf Umsatz. Lieber 100.000 Karten zu viel gefertigt als 100.000 weniger verkauft. Außerdem kann ich mir nur schwer vorstellen das Ampere schlechter wird als Pascal zum minen. Und wenn die Blase nicht bis Ampere geplatzt ist wird auch dann nVidia nicht mit der Produktion hinter her kommen und die aktuelle Lage zwecks Verfügbarkeit bleibt gleich. Somit würden die auch dann die übrigen Pascalkarten locker weg bekommen.

Troyan
2018-01-30, 15:52:53
Produziert wird für die Zukunft und nie für die Gegenwart. Die Produktion wird also im Zuge des Nachfolgers also heute reduziert, um beim Erscheinen kein unverkäufliches Inventar zu haben.

X-Bow
2018-01-30, 16:11:41
Warum sollte irgendwer in der heutigen Marktsituation irgendetwas reduzieren?

Wenn Du dir die Marktsituation an Schaus dann wird es kein "unverkäufliches Inventar" geben.

Hübie
2018-01-30, 16:22:24
Iirc werden seit Ende Oktober keine Bestellungen für GP102 mehr angenommen. Für Vega könnte es sein, dass man einen Refresh namens Vega20 in der Produktion hat. Wer weiß. Oder es ist von allem ein bisschen (Apple, Mining, Yieldrate...?).

anddill
2018-01-30, 18:42:44
Warum sollte irgendwer in der heutigen Marktsituation irgendetwas reduzieren?

Wenn Du dir die Marktsituation an Schaus dann wird es kein "unverkäufliches Inventar" geben.
Ist doch schon beantwortet. Es dauert Monate von der Chipbestellung bis zur fertigen Grafikkarte. Die absolute Horrorvorstellung für alle Beteiligten wäre wenn jetzt zB. die Bestellungen an Komponenten für GraKas verdreifacht würden und während der Fertigungszeit die Miningblase platzt.
Mal abgesehen davon daß TMSC zZt. gar nicht nachkommt, die sind gut mit ASICS ausgelastet. Für Mining...

Thunder99
2018-01-30, 19:49:21
Es wird aus den genannten Gründen keine Produktionsanpassung geben wenn es sich nicht langfristig rentiert ;)

Igor TH
2018-01-30, 20:37:37
... womit wir wieder beim leidigen Forecast angekommen wären. TMSC kann ja bestellte Ressourcen nicht einfach eben mal abwürgen. Aber man kann nach dem Abarbeiten von Aufträgen frei gewordene Ressourcen durchaus gezielt woanders hin vergeben. Ab wann für Ampere wieder was geblockt ist und in welcher Stückzahl, weiß nur der Abendwind (und NV + TMSC). Allerdings ist es durchaus plausibel, dass Pascal bei einigen Chips schon am Auslaufen ist. Dann bekommt der den Zuschlag, der am meisten dafür hinlegt. Außerdem muss man auch beachten, dass man nicht jeden Prozess durch einen anderen ersetzen kann.

Daredevil
2018-01-30, 23:28:10
Vega ist so ultra hoch modern, dass ich die Karte auf nem P35 Mainboard samt Q6600 nicht zum laufen bekomme trotz neuestem Bios Updates -.- ...

Ich werde jedes mal gebluescreent bei der Treiber Installation, ganz egal welcher Treiber ( 4 Stück ausprobiert ).

Jemand irgendeine Idee? Windows ist frisch.
http://abload.de/img/20180130_183127iqs2d.jpg

Kriton
2018-01-31, 01:05:25
Es scheint zu helfen, wenn Du das BIOS auf ein UEFI updatest.

StefanV
2018-01-31, 02:56:33
Wenn Du dir die Marktsituation an Schaus dann wird es kein "unverkäufliches Inventar" geben.
Hat man damals bei Tahiti auch gedacht.
Und wie lange hat man den Chip im Programm gehabt??

Es scheint zu helfen, wenn Du das BIOS auf ein UEFI updatest.
UEFI auf P35??
Ähm...

Das gibts vielleicht mit Glück bei x58 Boards oder P55 Modellen...

BeetleatWar1977
2018-01-31, 05:34:34
Vega ist so ultra hoch modern, dass ich die Karte auf nem P35 Mainboard samt Q6600 nicht zum laufen bekomme trotz neuestem Bios Updates -.- ...

Ich werde jedes mal gebluescreent bei der Treiber Installation, ganz egal welcher Treiber ( 4 Stück ausprobiert ).

Jemand irgendeine Idee? Windows ist frisch.
http://abload.de/img/20180130_183127iqs2d.jpg
Auch mal direkt über den Gerätemanager probiert?

Daredevil
2018-01-31, 11:14:10
Jop, da genau das gleiche Spiel. Auch mit dem "Windows such mal einen Treiber" passiert das gleiche. Das Problem ist im internet allerdings auch weit verbreitet und manche haben das Problem auch mit dem X58, da kann ich mich ja glücklich schätzen, dass die Karten bei mit funktionieren. ^^
UEFI auf nem P35.... ich lerne mal eben programmieren. :D

Ist alles halb so wild... ich wollte das Mining nur auf nem UV Prozessor auslagern und nicht meine AiO Wakü 24/7 rödeln lassen, aber irgendwie muss ich das mit den Vegas in den Griff bekommen. -.-

@StefanV
Du hast dich doch letztens beschwert, das Netzteil Hersteller immer 8 Pin > 2x 8 Pin verbauen und nicht dokumentieren, dass das problematisch sein kann.
Beim neuen 1300er Seasonic Gold ist dokumentiert, dass man bei Karten ab 225w unbedingt zwei Stränge benutzen soll in der Anleitung. :)


Edit:
https://www.computerbase.de/2018-01/amd-quartalszahlen-ryzen-radeon-mining/
https://pics.computerbase.de/8/1/5/5/4/1-630.662700773.png
Zu dem Erfolg trägt zweifelsohne auch der Mining-Boom bei, wenngleich AMD den Nachfragen nach der Thematik eher ausweicht. Ein Drittel des Umsatzwachstums von insgesamt 140 Millionen US-Dollar im letzten Quartal im Vergleich zum dritten Quartal soll jedoch allein davon kommen. AMD würde zudem aktuell gern mehr Grafikchips fertigen, doch die Kapazitäten in den Foundries sind begrenzt. Denn auch im ersten Halbjahr 2018 sollen GPUs weiter sehr gefragt sein – einige Produkte bewirbt AMD auf seiner Webseite deshalb explizit auch dafür. Auf dem Markt ist somit vorerst keine Entspannung in Sicht.
Bewirbst du ein Produkt, bewirbst du alle Produkte..

Hasenpfote
2018-01-31, 14:22:53
Ein Drittel des Umsatzwachstums von insgesamt 140 Millionen US-Dollar im letzten Quartal im Vergleich zum dritten Quartal soll jedoch allein davon kommen. D.h. AMD macht grob 50Mios Umsatz mehr durch Mining. Ist ja süß! Aber immerhin werden sie die Grafikkarten los.

StefanV
2018-01-31, 14:31:29
Jop, da genau das gleiche Spiel. Auch mit dem "Windows such mal einen Treiber" passiert das gleiche. Das Problem ist im internet allerdings auch weit verbreitet und manche haben das Problem auch mit dem X58, da kann ich mich ja glücklich schätzen, dass die Karten bei mit funktionieren. ^^
Manche X58 haben UEFI, andere nicht.
Das Gigabyte X58, welches ich (leider) abgegeben habe hatte z.B. ein UEFI.
Das ASUS P6T AFAIR nicht.


@StefanV
Du hast dich doch letztens beschwert, das Netzteil Hersteller immer 8 Pin > 2x 8 Pin verbauen und nicht dokumentieren, dass das problematisch sein kann.
Beim neuen 1300er Seasonic Gold ist dokumentiert, dass man bei Karten ab 225w unbedingt zwei Stränge benutzen soll in der Anleitung. :)
Ja, das sind die einzigen, die das machen. der Rest machts leider nicht...
Wobei aber auch hier wieder 225W entweder 2x6pin oder aber 1x8pin bedeuten!
Und generell geht 8+6 gerade eben so noch vielleicht...

Daredevil
2018-01-31, 14:39:51
Mein x58er hat kein UEFI und da läufts auch, also 100% davon abhängig ist es anscheinend nun auch nicht.

AffenJack
2018-01-31, 15:16:01
D.h. AMD macht grob 50Mios Umsatz mehr durch Mining. Ist ja süß! Aber immerhin werden sie die Grafikkarten los.

50 Mio$ mehr im Vergleich zu Q3. Auch da hat man schon Umsatz mit Mining gemacht. Insgesamt wird Minign deutlich mehr sein.