PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Fragman
2017-08-12, 13:27:29
Um die technische Basis zu begutachten macht es Sinn Ref vs Ref und Custom vs Custom zu vergleichen.

ok, das kann man machen.
wertungsfrei auf ALLEN seiten natuerlich. ;)

dargo
2017-08-12, 14:04:45
Spätestens hier wäre ich als wartender Kunde der nicht dem Bergbauwesen angehört, aber dermaßen versucht den dicken Mittelfinger in die höhe zu strecken, und mir vernünftige Alternativen zu suchen.

Andere Firmen machen mit Mining u Gaming Umsatz, ohne sein langlebigsten Kundenkreis zu vergraulen
Mein Mittelfinger bleibt erstmal oben, allerdings Richtung Nvidia. :P

prinz_valium
2017-08-12, 14:16:20
man weiß doch noch gar nicht, wann die Custom Designs von Vega kommen und was sie im Stande sind zu Leisten

bei der 480 waren die Custom Designs doch auch nur minimal besser, oder gar ein Reinfall
wenn sich Vega also auch nicht gut übertakten lässt, dann wird man dort nicht viel Mehrleistung erwarten können. Bleibt also nur noch der Vorteil bei Kühlung und Lautstärke

der große Spielraum bei den Pascal Chips ist der Grund, warum diese Diskussion überhaupt stattfindet. Ansonsten war Referenz / Custom vor Jahren niemals ein großer Unterschied bei der Leistung.


Aber soll es nicht eine AIO Wakü Variante von Vega geben? Keine Custom Karte wird also merklich besser performen. Da hätte man dann seinen passenden Vergleich
und nein man muss nicht zwangläufig Referenz vs Referent und Custom vs Custom Vergleichen
Was es an gebotener Leistung fürs Geld gibt ist schon passend.
Man testet ja auch nicht die Leistungsfähigkeit bei gleichem Stromverbrauch, sondern erwähnt die Unterschiede in der Effizienz im Test.
RX Vega wird natürlich von den ganzen Outlets gegen Custom 1070 antreten. Dann gibt es natürlich auch noch die Referenz im Balken, aber eben nicht nur


Aber machen wir uns nichts vor. An gute Custom Designs von Vega zu anständigen Preisen zu kommen, wird wohl vor Anfang 2018 nichts werden.
Und dann steht schon die 11X0 Serie in den Startlöchern :D

Menace
2017-08-12, 14:16:51
jo. Allerdings verstehe ich dann AMD wieder nicht...


Im GPU-Segment verstehe ich AMD häufig nicht (da bin ich ziemlich auf Igors Seite). Warum prügeln sie für die letzten paar Millimeter eines Balkens die Karte vor allem auch im Referenzdesign aus dem Sweetspot. Das könnten sie Customer überlassen.

Ich dachte, dass sie das seit der ersten Nano anders machen.
Einerseits. Anderseits, wenn man hier mit liest und um die Kompetenz des Abwägens vers. BALKENLÄNGE vergleicht, dann mag man AMD doch wieder verstehen. :freak:

Spätestens hier wäre ich als wartender Kunde der nicht dem Bergbauwesen angehört, aber dermaßen versucht den dicken Mittelfinger in die höhe zu strecken, und mir vernünftige Alternativen zu suchen.


Ach scully, machen wir uns nichts vor: du streckst doch immer Deinen Mittelfinger im jeden Thread gegen AMD aus.

Wenn die 56 oder Nano halbwegs ihren Durst zügelt, würde ich AMD einfach für Ihre Innovationsfreude für alle Kunden von Grafikkarten unterstützen. Ich bin (hoffentlich) so reif, dass ich mein Selbstverständnis nicht aus den Balkenlänge meiner Güter beziehe. Ich glaube eine Nano im Sweetspot wäre wie meine jetzige Nano für die Arbeit (OpenCl) sehr gut geeignet und mit Spielen bin ich jetzt auch noch bei der Nano zufrieden (bis 1440).

Allerdings Voraussetzung dafür: Sparsamer Verbrauch bei 3 unterschiedlichen Monitore. Und darin schlägt die Fiji ja auch nvidia. ;)

@fragman: Betrachte mich als Freak und mich interessiert es hier nicht, was Du (!) denkst, was die Masse der Leute denkt. :smile:

horn 12
2017-08-12, 14:35:53
Es geht los:

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/484698-amd-radeon-rx-vega-56-angeblich-vorgezogen-und-amds-prioritaet-8.html

dargo
2017-08-12, 14:52:32
der große Spielraum bei den Pascal Chips ist der Grund, warum diese Diskussion überhaupt stattfindet. Ansonsten war Referenz / Custom vor Jahren niemals ein großer Unterschied bei der Leistung.

Das ist auch bei Pascal nicht anders. Eine 1080FE taktet im Schnitt mit 1667Mhz laut CB. Die Customs takten im Schnitt irgendwo bei ~1850-1900Mhz. Das sind auch nur ca. 10-15% mehr Takt wovon vielleicht 7-12% auf der Straße bleiben da der Speichertakt kaum bis gar nicht angehoben wird. Nichts Weltbewegendes also. Ich rede hier nicht vom manuellen OC durch den User!

Sven77
2017-08-12, 14:57:42
Die Customs takten im Schnitt irgendwo bei ~1850-1900Mhz.

https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/3/#abschnitt_wer_knackt_die_20ghzmarke

BlacKi
2017-08-12, 15:00:54
Im GPU-Segment verstehe ich AMD häufig nicht (da bin ich ziemlich auf Igors Seite). Warum prügeln sie für die letzten paar Millimeter eines Balkens die Karte vor allem auch im Referenzdesign aus dem Sweetspot. Das könnten sie Customer überlassen.
weil sie dann entweder die karten billiger verkaufen müssten, oder sonst die verkaufszahlen fallen würden.

AtTheDriveIn
2017-08-12, 15:05:46
Ab wann darf man eigentlich Reviews zu Vega RX erwarten?

Linmoum
2017-08-12, 15:05:59
Montag um 15 Uhr.

dargo
2017-08-12, 15:14:35
https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/3/#abschnitt_wer_knackt_die_20ghzmarke
Das Wort Schnitt sagt dir was?
https://www.pic-upload.de/view-33341242/ROTTR_2017_06_15_16_02_50_703.jpg.html
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11402738&postcount=190

Und das waren keine 30 Minuten mit der MSI Armor wie bei CB. Lass es von mir aus 1850-1950Mhz im Schnitt sein. Was genau ändert das an meiner Aussage? Oder willst du jetzt Korinthenkackerei mit mir betreiben? Die hier dürfte die ~1850Mhz erreichen, ist auch eine Custom.
https://geizhals.de/zotac-geforce-gtx-1080-mini-zt-p10800h-10p-a1562740.html?hloc=at&hloc=de

Edit:
Sind sogar ~1785Mhz bei guru3d.
http://www.guru3d.com/articles_pages/zotac_geforce_gtx_1080_mini_review,8.html

Bei CB wird noch nicht mal das durchgehend erreicht in 4k.
https://www.computerbase.de/2017-02/zotac-geforce-gtx-1080-mini-test/2/

Achill
2017-08-12, 15:19:28
Das Wort Schnitt sagt dir was?
https://www.pic-upload.de/view-33341242/ROTTR_2017_06_15_16_02_50_703.jpg.html
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11402738&postcount=190

Und das waren keine 30 Minuten mit der MSI Armor wie bei CB. Lass es von mir aus 1850-1950Mhz im Schnitt sein. Was genau ändert das an meiner Aussage? Oder willst du jetzt Korinthenkackerei mit mir betreiben? Die hier dürfte die ~1850Mhz erreichen, ist auch eine Custom.
https://geizhals.de/zotac-geforce-gtx-1080-mini-zt-p10800h-10p-a1562740.html?hloc=at&hloc=de

Ja und die Zotac 1080 nimmt laut PCGH ~259W

dargo
2017-08-12, 15:28:25
Ich spreche von der Zotac Mini. Nicht Zotac AMP! oder gar AMP! Extreme. ;)

Edit:
Letztere nuckelt mal eben 102W mehr aus der Steckdose in Anno 2205 (Gesamtsystem hinterm Netzteil!) als die GTX 1080FE.
https://www.computerbase.de/2017-02/zotac-geforce-gtx-1080-mini-test/3/

Isen
2017-08-12, 15:57:17
Im GPU-Segment verstehe ich AMD häufig nicht (da bin ich ziemlich auf Igors Seite).

Verstehe ich seit der r200 nicht.
Verbrauch ist mir eh total egal, ich muss meinen Produzierten Strom so gut es geht aus dem Fenster schmeißen, ich geb davon NIX den blöden Werken ab.

Aber, was ich mit meiner ollen 290X Lightning für UV veranstalten konnte, ging echt auf keine Kuhhaut. Da hat AMD mit ihrer eigenen Keule schon die Arbeit für MSI gemacht - im Grunde nur paar gescheite caps drauf, dickeren Kühler, Lightning-Buzzword drauf pappen, fertig, mehr brauchte MSI da nicht machen.


Aber jo, sehe den Sinn nicht, für die paar % mit soviel Keulen um sich zu schmeißen... sollen doch die Partner bei den Customs Hand anlegen...

Erbsenkönig
2017-08-12, 15:57:51
https://i.redd.it/ij0us2rrv9fz.png

https://i.redd.it/kn16hta0mafz.png

Mal schauen was stimmt. :D

Isen
2017-08-12, 16:04:46
Wenn, ja... dann ist Vega ne Marybach-Karte :D ... Markt leer kaufen und wieder verscheuern und den Urlaub gleich bis Dez. verlängern :P

Schnoesel
2017-08-12, 16:04:50
100MH/s ist leider auch nicht nötig um interessant für Mining zu sein. Ab 60 wirds ja schon kritisch.

Isen
2017-08-12, 16:07:43
Mit Optimierungen waren die 50Mh/s ja schon drin mit der FE ( vor 1 Woche )
Dann kam die Geschichte mit den freigeschalteten Mining-Features... die 60 Mh/s können drin sein...

Screemer
2017-08-12, 16:09:03
Es geht los:

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/484698-amd-radeon-rx-vega-56-angeblich-vorgezogen-und-amds-prioritaet-8.html
Blunty: live unbagging oft RYZEN 56 :ugly:

vinacis_vivids
2017-08-12, 16:09:52
Vega56 Benchleaks:

https://www.reddit.com/r/Amd/comments/6t6avy/vega_56_3dmark_benchmark/

http://www.3dmark.com/compare/fs/13335757/fs/13331392
http://www.3dmark.com/compare/fs/13334535/fs/13331415
http://www.3dmark.com/compare/fs/13336666/fs/13334560
http://www.3dmark.com/compare/spy/2204669/spy/2205999

|MatMan|
2017-08-12, 16:13:16
Es wurde dich schon mehrfach durchgekaut, dass 100MH/s technisch unmöglich sind. Bei ~65 MH/s ist das theoretische Maximum und real kann man davon wahrscheinlich nochmal ~15% abziehen.

Isen
2017-08-12, 16:35:36
https://geizhals.eu/asus-rog-strix-radeon-rx-vega-64-oc-gaming-a1664657.html

Gab es die hier schon? :o
Edit: Ahja: http://www.pcgameshardware.de/Vega-Codename-265481/News/Asus-ROG-Radeon-RX-Vega-64-Strix-Custom-Design-Datum-Termin-1234556/

BlacKi
2017-08-12, 16:55:00
V56 OC vs 1070 OC
http://www.3dmark.com/compare/fs/13335757/fs/13341854

vinacis_vivids
2017-08-12, 16:56:57
1538Mhz ist bei Vega56 kein OC

Vega@Stock ~ 1070@OC dürfte hinkommen.

Isen
2017-08-12, 17:00:23
Naja, 56 nen seichtes OC *g*
Customs also 1070++ Niveau.. die 64 kann man sich eh schenken... bei dem Preis kannst es eig. gleich sein lassen. Mit dem Mining-Krempel ist die 56 bereits starke Schmerzgrenze.

y33H@
2017-08-12, 17:01:16
Meines armes Netzteil :freak:

Isen
2017-08-12, 17:03:02
Ach sei ruhig! Steine reden nicht

;-)

http://clash-wiki.com/images/army/golem/golem.png

BlacKi
2017-08-12, 17:11:13
Naja, 56 nen seichtes OC *g*
könnte sein, oder man hat das powertarget aufgerissen und die karte läuft ~1500mhz statt ~1250mhz (v56 ist wird durch das niedrige powertarget wohl noch weniger boosten als die v64). ohne oc würde der 3dmark keine 1538mhz auslesen, also liegt OC definitiv an.

Isen
2017-08-12, 17:14:38
56 macht mit Brechstange (Kühlung) 1700mhz mit und der Speichertakt holt am meisten raus.
Stellt sich halt die Frage, wo der Sweetspot ist oder, wo es wenigstens noch akzeptable mehrleistung bei rumspringt.

BlacKi
2017-08-12, 17:20:05
56 macht mit Brechstange (Kühlung) 1700mhz mit und der Speichertakt holt am meisten raus.
Stellt sich halt die Frage, wo der Sweetspot ist oder, wo es wenigstens noch akzeptable mehrleistung bei rumspringt.
wenn die spannung des speichers nicht angehoben werden kann, macht er auch nicht die taktraten des großen bruders mit.

dennoch könnte ich mir vorstellen das wenn man beide ans limit bringt, die v56 schneller sein wird. bei 350 vs 200w.

dargo
2017-08-12, 17:22:41
ohne oc würde der 3dmark keine 1538mhz auslesen, also liegt OC definitiv an.
Begründung?

Isen
2017-08-12, 17:24:10
dennoch könnte ich mir vorstellen das wenn man beide ans limit bringt, die v56 schneller sein wird. bei 350 vs 200w.

Die dortige 1070 OC zieht aber keine 200W sondern eher bis zu 300W ;)

Kartenlehrling
2017-08-12, 17:27:30
HardwareLuxx hat sie nackisch gemacht.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43990-amd-radeon-rx-vega-beide-modelle-der-redaktion-eingetroffen.html
AMD Radeon RX Vega: Beide Modelle der Redaktion eingetroffen

BlacKi
2017-08-12, 17:30:08
AMD Radeon RX Vega 56

GPU Clock: 1156 MHz
Boost Clock: 1471 MHz

die fe boostet auch nicht über die 1600mhz welche der boost clock entspricht. mehr als 1471 MHz wird die v56 auch nicht ohne OC boosten.

Isen
2017-08-12, 17:30:38
Ganze ~2-3 Tage zum Testen, bravo...
@BlacKi,

sach ja, seichtes OC.
Mehr hätte es gebracht, den Speicher auf 900mhz zu kloppen. Man wird sehen. 56 ist jedenfalls Attraktiver erst Recht, wenn man noch Manuell noch Hand anlegt. Bei der 64 hat man das Gefühl, man hat zuviel gezahlt...

BlacKi
2017-08-12, 17:32:44
Die dortige 1070 OC zieht aber keine 200W sondern eher bis zu 300W ;)
was? so eine frechheit. ich hab ihr nicht mehr als 185w powertarget zugelassen. ich muss gleich mit ihr schimpfen. tststs.

PS: sie hat nicht runtergetaktet, also powertarget nicht erreicht.

Grendizer
2017-08-12, 17:33:31
Die dortige 1070 OC zieht aber keine 200W sondern eher bis zu 300W ;)

Da müßte BlacKI was zu sagen. Gibt ja auch Karten, die bei 0,95V auf über 2 Ghz kommen und damit trotzdem unter 200 W bleiben.

Edit: ahhh.... zu spät

Sven77
2017-08-12, 17:33:59
Ganze ~2-3 Tage zum Testen, bravo...

Wo liest du das? CB hat sie schon länger

horn 12
2017-08-12, 17:35:04
Zwischen RX 56 ud RX 64 sollten um die 20 bis 25% Mehrleistung liegen
Erste Leaks sollten sich nun nicht mehr vermeiden lassen...

Grendizer
2017-08-12, 17:35:38
Wo liest du das? CB hat sie schon länger

Aber den finalen Treiber wohl nicht.

dargo
2017-08-12, 17:37:23
AMD Radeon RX Vega 56

GPU Clock: 1156 MHz
Boost Clock: 1471 MHz

die fe boostet auch nicht über die 1600mhz welche der boost clock entspricht. mehr als 1471 MHz wird die v56 auch nicht ohne OC boosten.
Dann hast du die Erklärung von Gipsel wohl verpasst. Der Boost Clock soll bei RX Vega nun ähnlich wie bei Pascal angegeben sein. Typisch, nicht unbedingt maximal.

Isen
2017-08-12, 17:37:31
was? so eine frechheit. ich hab ihr nicht mehr als 185w powertarget zugelassen. ich muss gleich mit ihr schimpfen. tststs.

PS: sie hat nicht runtergetaktet, also powertarget nicht erreicht.


http://www.tomshardware.de/nvidia-geforce-gtx-1080-gtx-1070-grafikkarten-roundup,testberichte-242137-15.html


Spikes nie außer acht lassen... die ganzen Steckdosen Dinger sind doch viel zu träge, um das zu schnallen.
Meine OC 290x lief auch mit avg 240W aber +450W wurden durch die Foren geschimpft. Peaks halt. Und deine Peakt bis zu 300W - die avg kannste dir ja rausrechnen :-) - mal nebenbei das bis zu ist von der Bedeutung doch bekannt?

aufkrawall
2017-08-12, 17:39:15
Peaks geben aber keinen Aufschluss über die Verlustleistung.

BlacKi
2017-08-12, 17:39:25
Zwischen RX 56 ud RX 64 sollten um die 20 bis 25% Mehrleistung liegen
Erste Leaks sollten sich nun nicht mehr vermeiden lassen...
glaube ich auch, aber das liegt wohl eher am zurückgestutzten powertarget, das die custom hersteller ändern werden.

http://www.tomshardware.de/nvidia-geforce-gtx-1080-gtx-1070-grafikkarten-roundup,testberichte-242137-15.html


Spikes nie außer acht lassen... die ganzen Steckdosen Dinger sind doch viel zu träge, um das zu schnallen.
Meine OC 290x lief auch mit avg 240W aber +450W wurden durch die Foren geschimpft. Peaks halt. Und deine Peakt bis zu 300W - die avg kannste dir ja rausrechnen :-)
du bewegst dich aber ziemlich OT.

peaks sind einfach wegzukühlen.

dargo
2017-08-12, 17:41:09
Da müßte BlacKI was zu sagen. Gibt ja auch Karten, die bei 0,95V auf über 2 Ghz kommen und damit trotzdem unter 200 W bleiben.

Und dann langsamer sind. :rolleyes: Das ganze UV bei Pascal kannst du in die Tonne kloppen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11402738&postcount=190

Zwischen RX 56 ud RX 64 sollten um die 20 bis 25% Mehrleistung liegen

Mach da eher ~15% draus.

Isen
2017-08-12, 17:41:15
@aufkrawall,

bei der damaligen 290X hingegen schon... egal - gehört hier nicht hin.

y33H@
2017-08-12, 17:42:50
V64, nicht aber V56.

dosenfisch24
2017-08-12, 17:43:17
AMD Radeon RX Vega 56

GPU Clock: 1156 MHz
Boost Clock: 1471 MHz

die fe boostet auch nicht über die 1600mhz welche der boost clock entspricht. mehr als 1471 MHz wird die v56 auch nicht ohne OC boosten.

AMD gibt bei den RX Vega nur nur noch den zweit höchsten Powerstate als Boost an, wohingegen bei der FE noch der höchste State dafür herhalten musste. Demnach kann die 56er noch 1538MHz ohne OC erreichen.

BlacKi
2017-08-12, 17:46:13
AMD gibt bei den RX Vega nur nur noch den zweit höchsten Powerstate als Boost an, wohingegen bei der FE noch der höchste State dafür herhalten musste. Demnach kann die 56er noch 1538MHz ohne OC erreichen.
quelle?

edit: selber gefunden https://videocardz.com/70838/gpu-base-boost-typical-and-peak-clocks-whats-the-difference

deekey777
2017-08-12, 17:46:27
V56 OC vs 1070 OC
http://www.3dmark.com/compare/fs/13335757/fs/13341854
Teufelstreiber. :devil:

Also kein neuerer Treiber?

y33H@
2017-08-12, 17:48:02
Der Boost ist nicht die maximale Frequenz, da hat Gipsel recht - es ist der typische Takt in Spielen.

dargo
2017-08-12, 17:51:02
quelle?

https://www.hardwareinside.de/sapphire-radeon-rx-vega-64-lineup-startet-26803/

dosenfisch24
2017-08-12, 17:52:20
Gabs eigentlich Infos ob die FE von normalen RX Treiber erkannt wird ohne Umwege gehen zu müssen?

Isen
2017-08-12, 17:52:52
Ja. Über ini-Änderung, brachte aber 0 Unterschied.

vinacis_vivids
2017-08-12, 17:56:02
Zwischen RX 56 ud RX 64 sollten um die 20 bis 25% Mehrleistung liegen
Erste Leaks sollten sich nun nicht mehr vermeiden lassen...

Wenn man die Stock Taktraten heran zieht, stimmt das.

Vega64@1677Mhz ~ 13,7 Tflops (+30,5%)
Vega64@1546Mhz ~ 12,7 Tflops (+20,1%)
Vega56@1471Mhz ~ 10,5 Tflops

Vega56 Custom sollten schon ~1650-1700Mhz erreichen. Das wären 11,8-12,2Tflops und sehr sehr nahe an Vega64@stock.

dargo
2017-08-12, 18:04:28
Vega56 Custom sollten schon ~1650-1700Mhz erreichen. Das wären 11,8-12,2Tflops und sehr sehr nahe an Vega64@stock.
Sicherlich, aber nicht mit 210W, eher 240-260W. ;)

vinacis_vivids
2017-08-12, 18:07:56
Sicherlich, aber nicht mit 210W, eher 240-260W. ;)

Vega56 erlaubt bestimmt 25% powertarget im originalbios. Bios mod auf 50% und dann gibs 300W (je nach Geschmack)

BlacKi
2017-08-12, 18:12:34
unboxing liquid cooled

P0KhRXp0bQU

dildo4u
2017-08-12, 18:13:01
PCGH Unboxing:


http://www.pcgameshardware.de/Vega-Codename-265481/Specials/Vega-56-Vega-64-Unboxing-Vega-10-GPU-Detail-1235670/

unl34shed
2017-08-12, 18:23:36
Ist Raff überlastet oder meint der das ernst? Der hat in dem Video gesagt, dass der schwarze Kühler der non limited aus Alu ist. :eek::love2::massa:

Gipsel
2017-08-12, 18:23:59
AMD Radeon RX Vega 56

GPU Clock: 1156 MHz
Boost Clock: 1471 MHz
Der beworbene Boosttakt bei RX Vega ist nur die zweithöchste Booststufe (DPM6), 3DMark zeigt offenbar den maximalen Boost an (DPM7).
RX Vega 64 Air: beworbener Boost: 1548 MHz, maximaler Boost: 1630 MHz
RX Vega 64 H2O: beworbener Boost: 1677 MHz, maximaler Boost: 1750 MHz
RX Vega 56: beworbener Boost: 1471 MHz, maximaler Boost: 1538 MHz ???
die fe boostet auch nicht über die 1600mhz welche der boost clock entspricht. mehr als 1471 MHz wird die v56 auch nicht ohne OC boosten.Die FE hatte einige Funktionen bezüglich des Boostes noch nicht aktiviert. Und AMD bewirbt die Boosttakte bei den RX Vega anders (nicht mehr den Maximalboost). Das ist also schwer vergleichbar.

Edit:
Hach, halbe Stunde was anderes machen und erst dann antworten war wohl etwas langsam.

prinz_valium
2017-08-12, 18:25:20
die review packages sind echt extrem nice mittlerweile bei AMD
auch die idee mit den kaputten dies als exta finde ich gut.
irgendwie seit dem Xbox One Chip in mode

Raff
2017-08-12, 18:28:48
die review packages sind echt extrem nice mittlerweile bei AMD
auch die idee mit den kaputten dies als exta finde ich gut.
irgendwie seit dem Xbox One Chip in mode

Nicer wäre, wenn es diese Limited-Editions auch für Normal-Geeks geben würde.

MfG,
Raff

dildo4u
2017-08-12, 18:30:46
Raff man muss die Hardware nicht dazu kaufen die Karte ist nur 100€ teuer und man bekommt die zwei Games.

iuno
2017-08-12, 18:33:59
Nur weil sie vermeintlich schoener aussieht? Der Kuehler scheint ja identisch zu sein. Selbst wenn er taugt wird man doch fuer den Aufpreis statt der anderen Farbe eher gleich eine Custom nehmen.
Wer unbedingt will, soll halt den Monitor wieder verkaufen oder direkt eine FE mit 16 GiB nehmen ;)

Kann man die beigelegten V10 Packages eigentlich so werten, dass doch noch einiges beim Packaging kaputt geht?

Zergra
2017-08-12, 18:35:19
Kann man die beigelegten V10 Packages eigentlich so werten, dass doch noch einiges beim Packaging kaputt geht?
Das bekommen Garantiert nur die Redaktionen :mad:

=Floi=
2017-08-12, 18:36:54
HardwareLuxx hat sie nackisch gemacht.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43990-amd-radeon-rx-vega-beide-modelle-der-redaktion-eingetroffen.html
AMD Radeon RX Vega: Beide Modelle der Redaktion eingetroffen

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43990-amd-radeon-rx-vega-beide-modelle-in-der-redaktion-eingetroffen.html?start=1
Rechenleistung DP 27,5 Tflop ;D

NV kann einpacken ;D


edit
dargo :facepalm:

raff könnte sich mal eine taschenlampe zulegen. habe gehört, man könnte damit durch die lüftungsschlitze leuchten. :rolleyes
und hardwareredaktionen brauchen keine gute camera. das brauchen nur YTber.

Taigatrommel
2017-08-12, 18:37:05
Raff man muss die Hardware nicht dazu kaufen die Karte ist nur 100€ teuer und man bekommt die zwei Games.

Richtig, die meisten Hersteller haben die silberne LE ja bereits im Programm, siehe Sapphire, XFX oder HIS. Gab es nicht sogar Gerüchte, wonach der Aufpreis für das LE Bundle geringer wäre, als bislang vermutet? Spätestens am Montag wird man da wohl schlauer sein.

dargo
2017-08-12, 18:42:11
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43990-amd-radeon-rx-vega-beide-modelle-in-der-redaktion-eingetroffen.html?start=1
Rechenleistung DP 27,5 Tflop ;D

NV kann einpacken ;D
Das ist der FP16 Durchsatz. Eigentlich müsstest du das nach deinem Thread wissen. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=582754

basix
2017-08-12, 18:44:24
Ironiedetektor? ;)

Menace
2017-08-12, 18:45:35
Meines armes Netzteil :freak:

Ach shit. :frown: Hoffe, nur die 64. :biggrin: Was für ein Netzteil hast Du denn? 350 W? :wink:

Im Laufe des Montags werden wir unseren gewohnt ausführlichen Testartikel mit allen Details und einigen Benchmarks veröffentlichen. Dann werden wir wissen, ob AMD tatsächlich NVIDIA vom Thron wird stoßen können, oder nicht. Sicher aber ist: Die Karten werden neu gemischt.
Quelle (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43990-amd-radeon-rx-vega-beide-modelle-in-der-redaktion-eingetroffen.html).

Also muss die AMD zumindest irgendwas können. Sonst braucht man keine Karten mischen. :confused:

Grendizer
2017-08-12, 18:47:11
Ach shit. :frown: Hoffe, nur die 64. :biggrin: Was für ein Netzteil hast Du denn? 350 W? :wink:


Quelle (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43990-amd-radeon-rx-vega-beide-modelle-in-der-redaktion-eingetroffen.html).

Also muss die AMD zumindest irgendwas können. Sonst braucht man keine Karten mischen. :confused:


Die R56 wird schneller als die 1070 sein...

Zergra
2017-08-12, 18:50:10
Also ich kann mir gut vorstellen das Vega 64 in einigen Spielen nah an die 1080TI kommt, möglichweise auch überholt. Denke da an BF1 usw.

http://www.3dmark.com/spy/2205628

1980 Mhz ?

vinacis_vivids
2017-08-12, 19:02:18
Mehr als 1750Mhz geht doch gar nicht....

iuno
2017-08-12, 19:04:19
Das bekommen Garantiert nur die Redaktionen :mad:
Ja, das auf jeden Fall.

y33H@
2017-08-12, 19:12:54
Ach shit :frown: Hoffe, nur die 64 :biggrin: Was für ein Netzteil hast Du denn? 350 W? :wink: Seasonic 520W Platin Fanless.Also muss die AMD zumindest irgendwas können. Sonst braucht man keine Karten mischen :confused:Sie (V64) kann was, aber es wie üblich gilt: es kommt drauf an :redface:

horn 12
2017-08-12, 19:14:24
https://geizhals.eu/?fs=RX+Vega&in=

Karten sind schon gelistet :-)
Preise fehlen noch aber heute Abend sollte es schon Leaks geben
Vega 64 wird knapp an GTX 1080TI schlussendlich scheitern...

vinacis_vivids
2017-08-12, 19:16:10
Chiphell hat schöne Bilder der gebürsteten Version im Vergleich:
https://www.chiphell.com/thread-1764223-1-1.html

Preise in China:
4899 Vega64 Air
5299 Vega64 silber
5699 Vega64 H²O silber

basix
2017-08-12, 19:19:14
http://www.3dmark.com/spy/2205628

1980 Mhz ?

In etwa so schnell wie eine Custom GTX 1080. Time Spy scheint Vega aber nich so zu liegen.

horn 12
2017-08-12, 19:20:15
Werden wohl echt die 379 Euro, 499 Euro und 579 Euro im europäischem, Raum.
Dazu GTX 1070 bis 1080 Leistung, und RX 64 Zwischen GTX 1080 und der TI, mit größeren Aureißern nach oben hin.

dargo
2017-08-12, 19:20:49
Mehr als 1750Mhz geht doch gar nicht....
Begründung?

Schnoesel
2017-08-12, 19:24:37
Also wenn ich Gipsel richtig verstanden habe ist 1750 der max.Turbotakt, der aber nicht immer anliegt @ stock. Das ist kein OC. Berichtigt mich wenn ich falsch liege. Ob da wesentlich mehr geht ... mal sehen.

basix
2017-08-12, 19:25:19
Genau. Der 1980MHz Score ist einfach OC...oder der Takt wird falsch ausgelesen.

Menace
2017-08-12, 19:25:33
@y33h@: Danke fürs teasern. :smile:

dargo
2017-08-12, 19:27:05
Also wenn ich Gipsel richtig verstanden habe ist 1750 der max.Turbotakt, der aber nicht immer anliegt @ stock. Das ist kein OC. Berichtigt mich wenn ich falsch liege. Ob da wesentlich mehr geht ... mal sehen.
Ganz genau... die 1750Mhz sind nur der max. Boosttakt von RX Vega 64 AIO. Das ist noch nicht OC. Wo der Chip komplett am Taktlimit ist ist noch völlig offen.

Erbsenkönig
2017-08-12, 19:30:28
Werden wohl echt die 379 Euro, 499 Euro und 579 Euro im europäischem, Raum.

Gibt es schon europäische Listings?:confused:

vinacis_vivids
2017-08-12, 19:32:30
Begründung?

Das sind 14,4 Tflops und 400W sind die Grenze des machbaren derzeit. Muss man ja auch weggkühlen können.

dosenfisch24
2017-08-12, 19:36:55
Also ich kann mir gut vorstellen das Vega 64 in einigen Spielen nah an die 1080TI kommt, möglichweise auch überholt. Denke da an BF1 usw.

http://www.3dmark.com/spy/2205628

1980 Mhz ?

Das ist wohl nur ein Fehler. Ob sie einen falschen Takt anzeigt oder intern drosselt scheint nicht klar zu sein.

https://www.reddit.com/r/Amd/comments/6t7lzn/radeon_rx_vega_3dmark_entry_spotted_with_almost/

masked__rider
2017-08-12, 19:39:20
Sie (V64) kann was, aber es wie üblich gilt: es kommt drauf an :redface:

Wie, die V56 kann die Karten im Bereich der 1070 nicht neu mischen? :eek:

dargo
2017-08-12, 19:40:00
Das sind 14,4 Tflops und 400W sind die Grenze des machbaren derzeit. Muss man ja auch weggkühlen können.
Das ist deine Begründung? :freak:

Das ist wohl nur ein Fehler. Ob sie einen falschen Takt anzeigt oder intern drosselt scheint nicht klar zu sein.

https://www.reddit.com/r/Amd/comments/6t7lzn/radeon_rx_vega_3dmark_entry_spotted_with_almost/
Lol... mehr Takt = weniger Leistung? Pascal reloaded? ;D

Isen
2017-08-12, 19:43:14
Bandbreite hungert wie sau :o

vinacis_vivids
2017-08-12, 19:46:48
Das ist deine Begründung? :freak:

Ja natürlich. Oder willst du jetzt mit LN2 Kühlung kommen?

Schnoesel
2017-08-12, 19:51:18
Ne ordentliche Wakü schaufelt das locker weg. Ob das dabei noch leise/sinnvoll ist steht auf einem anderen Blatt.

Isen
2017-08-12, 19:52:12
Das geht sehr leise. 2x 290X Lightnings mit 1300mhz ging ohne Probleme :)
Knapp 800W fürs gesamte System.

Rancor
2017-08-12, 19:54:03
Für 379 tausche ich die 1070 gegen ne Custom VEGA 56 und hol mir nen FreesyncMonitor. Die G-Sync Geräte sind ja absurd teuer.

dargo
2017-08-12, 19:54:26
Ja natürlich. Oder willst du jetzt mit LN2 Kühlung kommen?
Oh man... lese doch einfach den Link den dosenfisch24 gepostet hat. RX Vega ist mit 1750Mhz schneller als mit den angeblichen 1980Mhz.
http://www.3dmark.com/spy/2206720

Das ist entweder ein Bug im Powermanagement oder eine Schutzfunktion. Und woher willst du wissen womit der Leaker die Karte gekühlt hat?

y33H@
2017-08-12, 19:54:55
Wie, die V56 kann die Karten im Bereich der 1070 nicht neu mischen? :eek:Benchmarks laufen noch ...

basix
2017-08-12, 19:59:06
Für 379 tausche ich die 1070 gegen ne Custom VEGA 56 und hol mir nen FreesyncMonitor. Die G-Sync Geräte sind ja absurd teuer.

Wäre doch evtl. was für ein Vega Pack

Grendizer
2017-08-12, 19:59:47
Wäre doch evtl. was für ein Vega Pack

Monitor gibt es doch in Europa nicht

Raff
2017-08-12, 20:00:11
Jetzt mal ehrlich: Wenn Vega 56 ("V56" erinnert mich zu sehr an die Göttin -> abgelehnt ;)) nicht mit der GTX 1070 konkurrieren könnte, wäre sie genauso langsam wie die Fury X und man könnte AMD vorwerfen, zwei Jahre Urlaub gemacht zu haben.

MfG,
Raff

basix
2017-08-12, 20:03:47
Der berühmte Wink mit dem Zaunpfahl :D

Achim_Anders
2017-08-12, 20:08:22
Da erfreulicherweise ja doch einige Tester hier schreiben und lesen, erstmal ein dickes Danke dafür! :)
Werdet ihr versuchen, die Vega56 auf die 64 freizuschalten? Amd typisch würde mich nicht wundern, wenn noch nichts Lasergecuttet wurde.. Man denke an Polaris 4gb zu 8gb und Fury zu FuryX etc.

Raff
2017-08-12, 20:09:52
Derartige Bonustests kann sich im knappen Zeitbudget wohl niemand leisten, dessen Ziel es ist, einen vollen Standardtest (mit allem, was dazu gehört) zu zimmern. Nach dem 14. kann man gewiss mit weiteren Storys rechnen. :)

Der berühmte Wink mit dem Zaunpfahl :D

Eher der berühmte "Bleibt realistisch"-Schlag mit dem Zaunpfahl aufn Kopp. ;)

MfG,
Raff

Grendizer
2017-08-12, 20:12:32
Mal ehrlich ... wenn Vega 56 nicht oberhalb der 1070 rauskommt, dann frage ich mich, wie dick die Eier waren, die die AMD Ingenieure die letzten 12 Monate geschauckelt haben.

dosenfisch24
2017-08-12, 20:17:44
@Raff
Bringt der neue Treiber mehr Taktspielraum oder sind auf den Vegas FE nur "Krüppel"-Chips verbaut, wenn die unter 1700MHz dicht machen?

Raff
2017-08-12, 20:20:57
Wie kann ein Treiber Taktspielraum bringen? Takt ist Physik. ;)

MfG,
Raff

Hasenpfote
2017-08-12, 20:21:39
Mal ehrlich ... wenn Vega 56 nicht oberhalb der 1070 rauskommt, dann frage ich mich, wie dick die Eier waren, die die AMD Ingenieure die letzten 12 Monate geschauckelt haben.Nach den Tritten durch Nvidia glaube ich kaum, dass da vor lauter Schwellungen irgendwas schaukeln konnte. Die werden wenn dann eher mit Kühlen beschäftigt gewesen sein :D

dosenfisch24
2017-08-12, 20:26:07
Wie kann ein Treiber Taktspielraum bringen? Takt ist Physik. ;)

MfG,
Raff

Ich weiß nicht wo ich das gelesen habe aber es gab Spekulationen, dass z.B. adaptive clocking noch auf den FE deaktiviert ist.

basix
2017-08-12, 20:31:37
Nach den Tritten durch Nvidia glaube ich kaum, dass da vor lauter Schwellungen irgendwas schaukeln konnte. Die werden wenn dann eher mit Kühlen beschäftigt gewesen sein :D

Der war gut :lol:

horn 12
2017-08-12, 20:34:23
Der Final Boost soll wohl höher ausfallen als angenommen
So 1850 bis 1900 Mhz soll die RX Vega 64 Boosten und somit knapp unter GTX 1080 TI kommen.
Raff weiss Bescheid, darf aber nix sagen

Raff
2017-08-12, 20:35:38
Der Final Boost soll wohl höher ausfallen als angenommen
So 1850 bis 1900 Mhz soll die RX Vega 64 Boosten und somit knapp unter GTX 1080 TI kommen.
Raff weiss Bescheid, darf aber nix sagen

Glaubt doch nicht immer jeden Mist, den sich irgendein WTF-Techer oder sonstwer kichernd im stillen Kämmerlein ausdenkt. ;D Warum nennt Sapphire wohl diese Boosts (https://sapphirenation.net/sapphire-radeon-vega/) und nicht "up to 1,9 GHz?"

MfG,
Raff

Digidi
2017-08-12, 20:36:18
Wie kann ein Treiber Taktspielraum bringen? Takt ist Physik. ;)

MfG,
Raff
Nop! Wenn der Treiber das Teil wie Furmark auslastet obwohl er es nicht muss geht der Takt auch runter. Könnte schon sein das durch DSBR Vega nicht voll ausgelastet wird und dadurch mehr Spielraum beim Boost takt kommt. Muss halt im Treiber aktiviert sein.

Linmoum
2017-08-12, 20:37:42
Glaubt doch nicht immer jeden Mist, den sich irgendein WTF-Techer oder sonstwer kichernd im stillen Kämmerlein ausdenkt. ;D Warum nennt Sapphire wohl diese Boosts (https://sapphirenation.net/sapphire-radeon-vega/) und nicht "up to 1,9 GHz?"

MfG,
Raff
Weil es noch das hornsche Wunder gibt. :P

Raff
2017-08-12, 20:46:20
Nuja, wenn man die Vega-FE-Werte @ 1,6 GHz (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a3) wohlwollend auf 1,9 GHz hochrechnet (+18,8 %), würde das wirklich in einigen Fällen für die GTX 1080 Ti reichen. Woher soll dieser Taktboost jedoch kommen?

MfG,
Raff

Digidi
2017-08-12, 20:50:44
Nuja, wenn man die Vega-FE-Werte @ 1,6 GHz (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a3) wohlwollend auf 1,9 GHz hochrechnet (+18,8 %), würde das wirklich in einigen Fällen für die GTX 1080 Ti reichen. Woher soll dieser Taktboost jedoch kommen?

MfG,
Raff

Durch den DSBR der die Pipline von unnötigen Operationen entlastet. Dadurch werden die Bereiche nicht überfordert und können so höher Takten.

Ich schätze mal das Selbe Kunstück ist Nvidia geglückt mit Maxwell und Pascal.

basix
2017-08-12, 20:50:46
Woher soll dieser Taktboost jedoch kommen?

Mit dem Zaunpfahl dem Chip Beine machen ;) Nee realistisch ist es nicht. Ich hätte auch lieber, dass Vega die Lücke per Design und nicht per Takt schliesst.

ilibilly
2017-08-12, 20:52:57
Hmm über 50% mehr takt als fury aber nur 25-30% performance....
Bin exht gespannt auf die tests,ich hoff mal das man auch min fps tests sieht in 4k ,max fps sind mir dagegen eher wurscht :)
Die framedrops nerven mich mehr ,als das mir 90fps mehr bringen als gelockte 60fps

vinacis_vivids
2017-08-12, 21:04:55
Vega56 kommt ja noch mehr über den Preis. 379€ wäre geil.

dildo4u
2017-08-12, 21:08:37
Vega56 kommt ja noch mehr über den Preis. 379€ wäre geil.
Das ist der aktuelle Preis von 580,den wirste nicht so schnell sehen selbst wenn es der empfohlene Preis ist.

https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=132_8192~9809_13+5792+-+RX+580+(XTX)

Zergra
2017-08-12, 21:08:49
Erst Vega 64 kaufen, und drauf spekulieren das der Preis steigt. Dann am 28.8 Vega 56 kaufen?

dargo
2017-08-12, 21:13:24
Apropo Spekulatius... ich bin echt am überlegen ob ich für eine Custom RX Vega 56 auch 500-550€ bezahlen soll sofern die Miner es zulassen? :D Wenn das Ding nach zwei Jahren für 300-400€ (dank Minern) wieder weg geht wäre das ein prima Deal. :D Bei der R9 390 habe ich auch nur 140€ nach ca. zwei Jahren verloren. :tongue:

Grendizer
2017-08-12, 21:15:19
Apropo Spekulatius... ich bin echt am überlegen ob ich für eine Custom RX Vega 56 auch 500-550€ bezahlen soll sofern die Miner es zulassen? :D Wenn das Ding nach zwei Jahren für 300-400€ (dank Minern) wieder weg geht wäre das ein prima Deal. :D Bei der R9 390 habe ich auch nur 140€ nach ca. zwei Jahren verloren. :tongue:

Kann klappen, muss aber nicht. Das ganze Mining ist, wie du ja eigentlich auch selber weist sehr spekulativ. Niemand kann voraussehen, wie der Kurs in 12 Monaten aussieht und ob sich das Mining dann noch lohnt oder nicht.

Elite_Warrior
2017-08-12, 21:15:51
Wo hier Redakteure mitlesen: unbedingt Speicher OC testen, bzw. bescheid geben ob der sich bei der V56 sich OCen lässt. :up:

Zergra
2017-08-12, 21:16:14
Custom ist mir dann doch zu weit entfernt. Da werden die Preise bestimmt stark angestiegen sein. Ich kauf Montag V64, ich sollte dann damit um 17 Uhr Zuhause sein :)

Digidi
2017-08-12, 21:17:22
Primitive Shader wird über Treiber gesteuert?:
https://twitter.com/ryszu/status/896344188039680000

Gipsel
2017-08-12, 21:17:22
Durch den DSBR der die Pipline von unnötigen Operationen entlastet. Dadurch werden die Bereiche nicht überfordert und können so höher Takten.

Ich schätze mal das Selbe Kunstück ist Nvidia geglückt mit Maxwell und Pascal.Das funktioniert so nicht.
Allerhöchstens senkt das den Verbrauch etwas, wodurch innerhalb des Powerlimits mehr Takt möglich wird, d.h. der effektiv anliegende Boosttakt könnte etwas höher ausfallen. Er bleibt aber natürlich unter dem physischen Limit des Chips. Dieses wird dadurch nicht angehoben.
Da aber bei der FE angeblich noch das adaptive clocking aus war, könnte bei der RX Vega der "Sicherheitsabstand" zum physischen Limit kleiner geworden sein (die 1,75GHz max Boost der AiO-Version sprechen ein wenig dafür).

==============================

Primitive Shader wird über Treiber gesteuert?:
https://twitter.com/ryszu/status/896344188039680000Daß der Treiber die Shaderstages fusioniert, war doch schon länger klar, dachte ich (aus den Linux-Patches, iirc). Wenn das für Entwickler freigegeben würde (über eine Extension, wenn die API das erlaubt), könnten die das gegebenenfalls noch flexibler nutzen und auf die jeweilige Engine besser zuschneiden. Aber das steht zumindest für die nahe Zukunft offenbar noch nicht auf dem Plan.

dargo
2017-08-12, 21:18:33
Kann klappen, muss aber nicht.
Deshalb sage ich auch Spekulatius. ;) Ohne "Risiko" kein...

Custom ist mir dann doch zu weit entfernt. Da werden die Preise bestimmt stark angestiegen sein. Ich kauf Montag V64, ich sollte dann damit um 17 Uhr Zuhause sein :)
Das blöde ist, dass mich die Referenzkühler nicht überzeugen. Noch weniger bei der V64 mit 295W TDP. Mir sind die Dinger einfach nicht leise genug. ;(

btw.
Ich hoffe von dir gibts dann viel Feedback zu Vega. :)

Zergra
2017-08-12, 21:21:47
Das blöde ist, dass mich die Referenzkühler nicht überzeugen. Noch weniger bei der V64 mit 295W TDP. Mir sind die Dinger einfach nicht leise genug. ;(
Und in 1-2 Monaten einen großen Arctic Accelero Xtreme V oder so drauf schnallen ?

dargo
2017-08-12, 21:22:51
Nee... aus dem Alter bin ich raus. :)

Digidi
2017-08-12, 21:25:18
Daß der Treiber die Shaderstages fusioniert, war doch schon länger klar, dachte ich (aus den Linux-Patches, iirc). Wenn das für Entwickler freigegeben würde (über eine Extension, wenn die API das erlaubt), könnten die das gegebenenfalls noch flexibler nutzen und auf die jeweilige Engine besser zuschneiden. Aber das steht zumindest für die nahe Zukunft offenbar noch nicht auf dem Plan.


Ich dachte der Primitive Shader wäre etwas eigenes was die Programmierer aktivieren müssen zusätzlich zum DSBR. So langsam blick ich nicht mehr durch. Der DSBR hat doch auch schon gutes Culling warum dann noch den Primitive Shader?

Erbsenkönig
2017-08-12, 21:25:22
Wie kommt ihr denn auf 379 € für die 56er?

dargo
2017-08-12, 21:27:03
Horn fantasiert etwas. ;)

[MK2]Mythos
2017-08-12, 21:27:47
Ich werde mir am Montag auch ne V64 kaufen. Im Laufe der Woche sollte auch der Waterblock von EKWB kommen. Mal sehen was das Ding kann.

dargo
2017-08-12, 21:33:37
@Gipsel

Wie schätzst du die Performance von Vega in DX12/Vulkas Games ein die Vega noch gar nicht kennen? Eine Art Fallbackmodus @Fiji mit mehr Takt?

iuno
2017-08-12, 21:34:47
Daß der Treiber die Shaderstages fusioniert, war doch schon länger klar, dachte ich (aus den Linux-Patches, iirc). Wenn das für Entwickler freigegeben würde (über eine Extension, wenn die API das erlaubt), könnten die das gegebenenfalls noch flexibler nutzen und auf die jeweilige Engine besser zuschneiden. Aber das steht zumindest für die nahe Zukunft offenbar noch nicht auf dem Plan.
Allerdings:

Ich kann mir nicht vorstellen, dass man da was ueber Extensions machen muss, das sind interne Umbauten. Schon vorher hat man nicht vertex, geometry, hull... shader 1:1 gemappt, das Thema hatten wir schon mal.

* Starting with GFX9 chips, some shader stages are merged, and the number of
* shader parts per shader increased. The complete new list of shader parts is:
* - 1st shader: prolog part
* - 1st shader: main part
* - 2nd shader: prolog part
* - 2nd shader: main part
* - 2nd shader: epilog part
[...]
/* Valid shader configurations:
*
* API shaders VS | TCS | TES | GS |pass| PS
* are compiled as: | | | |thru|
* | | | | |
* Only VS & PS: VS | | | | | PS
* GFX6 - with GS: ES | | | GS | VS | PS
* - with tess: LS | HS | VS | | | PS
* - with both: LS | HS | ES | GS | VS | PS
* GFX9 - with GS: -> | | | GS | VS | PS
* - with tess: -> | HS | VS | | | PS
* - with both: -> | HS | -> | GS | VS | PS
*
* -> = merged with the next stage
*/

https://cgit.freedesktop.org/mesa/mesa/tree/src/gallium/drivers/radeonsi/si_shader.h
Es gibt weniger states und das mergen/compilen macht der Treiber, kein Entwickler mit irgendeiner Extension. Mich wuerde aber mal interessieren, ob es da potentiell Probleme mit dem Registerspace gibt, wenn man mehrere Stufen zusammenpackt. Hat dazu einer eine Idee?

Aber auch aus dem Marketingmaterial ist es so hervorgegangen, auch wenn es imho etwas irrefuehrend ist. Es ist und bleibt natuerlich bei programmierbaren Shadern, also wird auch nur Shader Code vom Entwickler ausgefuehrt. Es ist nicht so, dass automatisch 5x so viel gecullt wird, sondern es soll nur besser/ueberhaupt funktionieren als wenn man das vorher im Geometry Shader versucht hat.
Wobei man das natuerlich zum Teil auch schon in Compute Shadern gemacht hat (vielleicht sogar Async). Der Vergleich damit waere sicherlich interessanter als ganz ohne ("native"). Culling im Compute Shader kam ja auch von den Konsolen und ist dort auch besonders interessant. Dass da jetzt auch nur fuer ein paar Radeon PC Gamer da gross was in richtung Primitive Shader passiert glaube ich ehrlich gesagt nicht.

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-20.jpg https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-21.jpg

Erbsenkönig
2017-08-12, 21:54:52
Horn fantasiert etwas. ;)

Hinterlässt der Wundertreiber also auch Nebenwirkungen :D

TheGood
2017-08-12, 21:59:02
Ich gehe mal noch auf ein paar Beiträge ein die schon ne Weile her ist:

Grundsätzlich muss man doch sagen, dass AMD nur Marktanteile gewinnen kann wenn Sie endlich wieder OEM Deals machen. Letztens hab ich irgendwo gelesen, dass der freie Verkauf gerade mal 10% - 20% ausmacht. Der Rest der Karten geht zu den OEMs. Wenn das so ist kann AMD auch mit VEGA keinen Blumentopf gewinnen, weil sie einfach immer noch einen zu hohen Stromverbrauch haben. GEnau das ist aber bei Komplett PCs usw. wichtig, da es ja keinen Cent zu viel kosten darf.
Hier wird sich zeigen ob nicht wenigstens die VEGA 56 ein Wörtchen mitreden kann. In diesem Bereich verstehe ich AMD wirklich nicht, dass das Thema leider immer noch stiefmütterlich behandelt wird.

Und nochmals zu den ganzen Thematik, dass man ja viel zu spät dran sein usw. Wo spielt das denn ne Rolle ? Es ist doch so, dass es immer Leute gibt die ne neue Grafikkarte brauchen. Der Markt ist doch nicht auf einmal leergefegt und keiner kauft mehr was. Dann würde AMd und NVIDIA ja nach einem Release einen massiven Umsatzeinbruch haben. Daher besteht immer Bedarf an neuen Grafikkarten und somit ist die Grafikkarte so gesehen auch nie zu spät. Konkurrenz belebt immer das Geschäft und das wird auch diesesmal so sein. Für Leute die schon ne 1070 oder 1080 haben ist dieser Release schlichtweg nicht gedacht, ausser sie wollen vom "pösen" Nvidia weg ;). Nur muss man das auch erstmal so akzeptieren.

Dass performancetechnisch nicht mehr rüberspringt war auch vollkommen klar, aber das wurde von einigen, einschliesslich mir, auch schon oft genug gesagt und langsam wird die Diskussion darüber langweilig und ist doch auch nur ein Getrolle.

Ich werde mir wohl ne VEGA 56 holen, da diese wohl über die Zeit wieder gut Performance zulegt und ich die Karte locker 3+ Jahre im Rechner haben werde. Die Karte ist imho nämlich deutlich zukunftsträchtiger als Ihre Konkurrenz

Grendizer
2017-08-12, 22:06:40
Zu spät, da in einigen Monaten die ersten Volta Grafikkarten erscheinen werden. Bis dahin wird vermutlich die Vega 56 den Markt bis 450 Euro beackern und da mit Sicherheit eine sehr gute Lösung darstellen. Ob dann in Q1/Q2 2018 so bleibt wage ich zu bezweifeln. Und dann ist die große Frage, bis wann AMD dann wieder Kontern kann.

dargo
2017-08-12, 22:10:51
Grundsätzlich muss man doch sagen, dass AMD nur Marktanteile gewinnen kann wenn Sie endlich wieder OEM Deals machen. Letztens hab ich irgendwo gelesen, dass der freie Verkauf gerade mal 10% - 20% ausmacht. Der Rest der Karten geht zu den OEMs. Wenn das so ist kann AMD auch mit VEGA keinen Blumentopf gewinnen, weil sie einfach immer noch einen zu hohen Stromverbrauch haben. GEnau das ist aber bei Komplett PCs usw. wichtig, da es ja keinen Cent zu viel kosten darf.

Finde den Widerspruch.

Du gehst hier sicherlich auf ein etwas stärkeres NT ein oder? Ich betrachte hier ausschließlich RX Vega 56. RX Vega 64 dürfte für die OEMs weniger interessant sein. In welchem Verhältnis steht nun der Aufpreis vom stärkeren NT zu dem was NV an mehr Geld für die Pascal Grafikkarte haben will? Und kennen wir überhaupt die Preise die AMD und Nvidia von den OEMs verlangen? Stichwort Rabatte über Stückzahlen. Dann fallen mir auch Bundles bei AMD ein wie zb. ein R5 1600 mit RX Vega 56 zum Sonderpreis. Usw. usf.

Zu spät, da in einigen Monaten die ersten Volta Grafikkarten erscheinen werden.
Man weiß über Gaming Volta noch gar nichts. Aber schön, dass schon viele Monate davor (wieviele eigentlich deiner Einschätzung nach?) schwadroniert wird.

gedi
2017-08-12, 22:11:14
Es wird interessant zu erfahren, wie sich Vega unter DX11 schlägt. Wenn die Schwäche ausgemerzt wurde, dann hat Vega definitiv das Potential gut beim Kunden anzukommen.

Gipsel
2017-08-12, 22:13:51
@Gipsel

Wie schätzst du die Performance von Vega in DX12/Vulkas Games ein die Vega noch gar nicht kennen? Eine Art Fallbackmodus @Fiji mit mehr Takt?Auch unter DX12 sollten Architekturverbesserungen greifen, selbst wenn das Game Vega noch nicht kennt.

y33H@
2017-08-12, 22:34:32
Doom mit Vulkan sieht wie erwartet sehr gut aus.

aufkrawall
2017-08-12, 22:36:39
Zwei Tipps am Rande zu Doom: Auf NV mit Vulkan kackt das mit Nightmare-Schatten ein, NV vielleicht besser mit OGL testen. OGL hat allerdings einen Bug bez. der CPU-Performance, wenn man in-game einmal die Auflösung umgeschaltet hat, ohne es neu zu starten.

vinacis_vivids
2017-08-12, 22:40:30
Das fehlende AC macht sich bei Nvidia wieder bemerkbar. Die Defizite werden in Zukunft noch größer werden.

dargo
2017-08-12, 22:42:33
Doom mit Vulkan sieht wie erwartet sehr gut aus.
Kommt da jetzt noch der FP16 Patch für Doom oder war das ne Ente?

y33H@
2017-08-12, 23:20:13
Wo hast du das her?

vinacis_vivids
2017-08-12, 23:39:50
"Wolfenstein 2 und Doom mit FP16"
https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/3/

Schnoesel
2017-08-12, 23:47:09
Ich werde mir am Montag auch ne V64 kaufen. Im Laufe der Woche sollte auch der Waterblock von EKWB kommen. Mal sehen was das Ding kann.


Wäre nett wenn du deinen Erfahrungen mit Umbau und Kühler teilen könntest. Ich bin interessiert :D

Taigatrommel
2017-08-13, 04:08:26
Wurde dies schon gemeldet?
https://www.reddit.com/r/Amd/comments/6t5g57/aorus_x_rx_vega/

Gigabyte könnte hier eine Custom Variante von Vega unter ihrem Aorus Branding andeuten. Die Fotos drehen sich zwar primär um die luftgekühlte LE Referenzkarte,es ist allerdings auch eine andere Grafikkarte mit einem Kühler im typischen Aorus Design im Hintergrund zu sehen. "GBT_Brian" darf allerdings noch keine genaueren Details oder zumindest etwas zur Verfügbarkeit sagen.

Dies könnte dann, nach der Asus Strix, die zweite bestätigte Custom Vega sein.

Wake
2017-08-13, 06:14:22
Das ist eine Aorus Radeon RX 580 XTR.
Aorus Vega wird sicher den größeren Kühler mit 3 Lüfter wie bei den Aorus 1070-/1080-/1080 Ti-Modellen haben, gerade weil Vega ein Hitzkopf ist.

dargo
2017-08-13, 08:34:08
"Wolfenstein 2 und Doom mit FP16"
https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/3/
Ah... da stand es, danke. Könnte natürlich auch sein, dass CB Doom mit 3DMark Serra verwechselt. :D

Locuza
2017-08-13, 09:19:02
Nicht alle Features auf den Folien beziehen sich direkt auf die Spiele, die als Beispiel gezeigt werden.
Wolfenstein erscheint laut id Entwickler ohne DX12 und Doom wird ja wohl ebenso wenig DX12 und FP16 nachgepatched bekommen, letzteres wird auf der zweiten Folie auch gar nicht genannt.
https://cdn01.hardwareluxx.de/razuna/assets/1/A9AC1804FCF841A08E15D773476B98F2/img/531D032FAC3F44AFB703486E3B40C675/amd-vega-tech-day-pressdeck2-29_531D032FAC3F44AFB703486E3B40C675.jpg
https://cdn01.hardwareluxx.de/razuna/assets/1/A9AC1804FCF841A08E15D773476B98F2/img/4BD48EA9A9F645C99C95BEA9B6A3CE6A/amd-vega-tech-day-pressdeck2-30_4BD48EA9A9F645C99C95BEA9B6A3CE6A.jpg

dargo
2017-08-13, 09:26:47
Nicht alle Features auf den Folien beziehen sich direkt auf die Spiele, die als Beispiel gezeigt werden.
Wolfenstein erscheint laut id Entwickler ohne DX12 und Doom wird ja wohl ebenso wenig DX12 und FP16 nachgepatched bekommen, letzteres wird auf der zweiten Folie auch gar nicht genannt.

Auf dem PC nicht (macht ja auch keinen Sinn bei Vulkan), bei den XBoxen schon. :wink: Und keiner sagte DX12 käme für Doom, wofür auch? Es ging mir ausschließlich um FP16 in Doom um vor allem Vega weiter zu beschleunigen. So einen Patch könnte die PS4 Pro auch vertragen wenn dadurch wo anders wieder höhere Details ins 60fps Target passen. Ob der Aufwand für id das noch wert ist sei mal dahin gestellt, der Drops ist bei Doom eigentlich schon gelutscht.

Locuza
2017-08-13, 09:55:05
Auf dem PC nicht (macht ja auch keinen Sinn bei Vulkan), bei den XBoxen schon. :wink:
Ja, bei jedem neuerem Spiel?
DX12.X ist auch nicht identisch zum PC DX12.
Also ich verstehe nicht den Bezug zu AMDs Folien, da dreht es sich allgemein um PC DX12/Vulkan.

Und keiner sagte DX12 käme für Doom, wofür auch? Es ging mir ausschließlich um FP16 in Doom um vor allem Vega weiter zu beschleunigen.
Es war ein Beispiel, dass die Features unten nicht direkt alle etwas mit dem Spiel im Hintergrund zu tun haben.

CB sollte den Informationsbezug direkt angeben und Spekulationen/Interpretationen deutlich(er) kennzeichnen.
So wie es aktuell aussieht, ist das eine Fehlinterpretation von CB, welche faktisch niedergeschrieben wird.

y33H@
2017-08-13, 10:36:18
Der Vollständigkeit halber: wo sagt id, dass Wolfenstein 2 kein DX12 am PC bekommt?

dargo
2017-08-13, 10:39:45
Hier:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11445500&postcount=5004
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11445606&postcount=5006

Er muss es wissen.

btw.
Wird morgen irgend eine Redaktion die AIO-Version testen?
https://www2.pic-upload.de/img/33727950/Zwischenablage17.jpg

https://www.youtube.com/watch?v=9Mlug0CnmLo#t=8m04s

Falls nicht wird sich die einer hier direkt kaufen? Mich würde die Lautstärke neben Drehzahl vom Lüfter in Idle interessieren. Die hatte mich neben der fiependen Pumpe (ich hoffe hier macht AMD nicht den gleichen Fehler wie bei der Fury X :freak:) etwas gestört. Gibt es eigentlich einen technischen Grund warum AMD den Lüfter in Idle der AIO-Version nicht komplett abschaltet?

Zergra
2017-08-13, 10:54:09
Kommt bei mir sehr stark auf die Preise an. Entscheide ich morgen dann sehr spontan. Danach Reviews lesen :D

X-Bow
2017-08-13, 10:55:35
@dargo: Die Gamestar hat so wie ich mitbekommen habe eine WaKü Version erhalten...

tm0975
2017-08-13, 11:07:01
Wann geht es morgen los mit rewiev Veröffentlichungen und kaufbarkeit von vega? Mir war eigentlich so, als wäre Dienstag erst Start.

Zergra
2017-08-13, 11:07:23
15 Uhr, also beides

[MK2]Mythos
2017-08-13, 11:14:34
Falls Notebookbilliger in Hannover die AiO auf Lager hat, kauf ich mir die morgen.

deekey777
2017-08-13, 11:22:27
Nicht alle Features auf den Folien beziehen sich direkt auf die Spiele, die als Beispiel gezeigt werden.
Wolfenstein erscheint laut id Entwickler ohne DX12 und Doom wird ja wohl ebenso wenig DX12 und FP16 nachgepatched bekommen, letzteres wird auf der zweiten Folie auch gar nicht genannt.


Natürlich. Auf der anderen Seite wäre eine Überschrift "Wolfenstein 2 und Doom mit FP16" irgendwie fragwürdig, wenn sie der (Fehl-)Interpretation einer Folie geschuldet ist.

Iruwen
2017-08-13, 11:44:16
@dargo: Die Gamestar hat so wie ich mitbekommen habe eine WaKü Version erhalten...

Ausgerechnet :freak:

X-Bow
2017-08-13, 11:48:05
Ja als ich es mitbekommen habe waren genau dies auch meine Worte ^^

Aber ich hab auch das Gefühlt das es bei allen Testkits irgendwas anderes drin ist. Bei den einen ist eine Limited Edition drin, bei den nächsten eine Black Edition usw...

Raff
2017-08-13, 11:51:15
Ich höre schon wieder die "Aber bei der Gamestar ist die Vega 64 viel schneller als bei euch"-Mimis, die nicht verstehen, dass Megawatt und Wasser besser sind als Watt und Luft. :ugly: ;)

MfG,
Raff

Zergra
2017-08-13, 11:55:08
Ich höre schon wieder die "Aber bei der Gamestar ist die Vega 64 viel schneller als bei euch"-Mimis, die nicht verstehen, dass Megawatt und Wasser besser sind als Watt und Luft. :ugly: ;)

MfG,
Raff
Besser ist besser, wieso und warum... :tongue:


Weiß jmd. ob bei der AIO auch die Spawas abgedeckt sind ?

€: habe mir mal das PCB der FE angeschaut, sieht so aus.

Complicated
2017-08-13, 11:56:00
Ich dachte immer es ist Aufgabe der Redaktionen die Dinge verständlich zu machen für die Leser. Hier scheint es ein Defizit zu geben dem man den einen oder anderen Artikel widmen sollte.

Screemer
2017-08-13, 11:57:32
Besser ist besser, wieso und warum... :tongue:


Weiß jmd. ob bei der AIO auch die Spawas abgedeckt sind ?

Schau dir die Bilder der fe an. Die werden kaum nen anderen Block dafür gebastelt haben :ugly:
Bist du ja selber drauf gekommen ;)

Th3o
2017-08-13, 11:59:07
@Raff
Ich habe einen Ryzen 1700X@Stock und ein be quiet! Straight Power 10-CM 500W Netzteil. Ist da noch genug Luft für eine Vega 64 ohne OC?

masked__rider
2017-08-13, 12:12:25
@Raff
Ich habe einen Ryzen 1700X@Stock und ein be quiet! Straight Power 10-CM 500W Netzteil. Ist da noch genug Luft für eine Vega 64 ohne OC?

Ja.

Schnoesel
2017-08-13, 12:14:11
@ Raff

Weißt du eventuell ob es Unterschiede beim PCB gibt zwischen AIO und Luft?
Und gibt es grundlegende Unterschiede (z.B. irgendwelche Powertargets) zwischen AIO und Luft?

Wenn ich einen Fullcoververbaue und es keine Unterschiede gibt brauche ich mir nicht die teuere AIO zulegen. Der Kühler kommt eh weg. Wenn die Luftversion allerdings irgendwie so eingeschränkt ist, dass sie grundsätzlicher weniger leisten kann, bleibt nur die AIO für den Umbau.

deekey777
2017-08-13, 12:20:15
Ich höre schon wieder die "Aber bei der Gamestar ist die Vega 64 viel schneller als bei euch"-Mimis, die nicht verstehen, dass Megawatt und Wasser besser sind als Watt und Luft. :ugly: ;)

MfG,
Raff
Habt ihr keine Wasserleitung im Büro?

;D

Zergra
2017-08-13, 12:25:23
Habt ihr keine Wasserleitung im Büro?

;D
Oder den Pool im Garten als Ausgleichsbehälter nutzen

Taigatrommel
2017-08-13, 12:49:21
@ Raff

Weißt du eventuell ob es Unterschiede beim PCB gibt zwischen AIO und Luft?
Und gibt es grundlegende Unterschiede (z.B. irgendwelche Powertargets) zwischen AIO und Luft?

Ich würde mal stark davon ausgehen, dass es sich wie bei der Frontier Edition verhält: Dort ist das PCB der luftgekühlten Version identisch mit jenem der wassergekühlten Version. Irgendwo geisterten mal Fotos von der RX mit AIO herum, dort sah der Aufbau des Kühlers unter der Haube optisch identisch aus mit dem der FE, allerdings wurde die Lackierung von blau auf rot angepasst.

Hasenpfote
2017-08-13, 14:01:17
Oder den Pool im Garten als Ausgleichsbehälter nutzenAlso bei 4 Wochen Pool im Jahr würde ich die Karte lieber ins Heizungssystem integrieren. 500W machen sich schon bemerkbar. D.h. man muss ordentlich übertakten (mit 350W brauch man ja gar nicht erst anfangen) ;)Ja.Danke für die Klarstellung. Hab das PurePower10.

masked__rider
2017-08-13, 14:16:20
Danke für die Klarstellung. Hab das PurePower10.

Ich beziehe mich auf sein System mit 1700X ohne jediglichem OC. Mit OC gehen da schnell die Reserven aus, bzw. liefert das NT an der Grenze..

@topic
Bin vor allem auf Vega 56 gespannt, die mir hinsichtlich des Stromverbrauchs und Preises vernünftiger vorzukommen scheint. Mit einer im Schnitt über der 1070 OC liegenden Performance wäre ich zufrieden. (Vega56 @stock vs. 1070OC)

y33H@
2017-08-13, 14:21:32
Ich habe einen Ryzen 1700X@Stock und ein be quiet! Straight Power 10-CM 500W Netzteil. Ist da noch genug Luft für eine Vega 64 ohne OC?Ein solches System ist in Spielen bei unter 400 Watt an der Steckdose, also kein Problem. Allerdings würde ich (heftiges) Overclocking sein lassen.

Mortalvision
2017-08-13, 15:33:34
Bestimmte Personen haben die letzten paar Stunden nicht gepostet. D.h. wir werden morgen tatsächlich was zu lesen bekommen.

Siehe auch neueste 3D Mark Ergebnisse. Ziemlich genau die 1080 +5%. Leos Hinweis auf die besseren Werte unter WQHD/4k wäre von der Fury abzuleiten.

Blindseeker
2017-08-13, 16:14:36
Ein solches System ist in Spielen bei unter 400 Watt an der Steckdose.

Im Golem-Test verbrauchte das GTX-1080-Referenz-System ca. 260 W in Spielen. Da die Referenzkarte bis zu 180 W ziehen darf, deutet das für die Vega 64 auf einen Verbrauch von maximal 320 W hin.

Quelle Golem-Test: https://www.golem.de/news/geforce-gtx-1080-1070-im-test-zotac-kann-geforce-besser-als-nvidia-1606-121600-6.html

y33H@
2017-08-13, 16:22:44
Obacht nicht vergleichbar, es sind unter 320 Watt für V64.Bestimmte Personen haben die letzten paar Stunden nicht gepostet. D.h. wir werden morgen tatsächlich was zu lesen bekommen.Ich sitze seit Mittag wie gestern schon im Büro um was liefern zu können ...

horn 12
2017-08-13, 16:27:58
http://www.fudzilla.com/news/graphics/44283-amd-vega-shows-up-well-above-msrp

Update bitte lesen!

Digidi
2017-08-13, 16:30:09
Obacht nicht vergleichbar, es sind unter 320 Watt für V64.Ich sitze seit Mittag wie gestern schon im Büro um was liefern zu können ...
Wieso machst du das mit? Es gibt ein Arbeitsschutz.

[MK2]Mythos
2017-08-13, 16:34:02
Echt jetzt? Zu jedem Release die gleiche Diskussion wenn Redakteure auch mal an nem WE arbeiten müssen? Leute, das ist völlig normal und quasi in jeder Branche muss man mal selten oder häufiger ran. Also bitte diese Diskussion im Keim gleich ersticken. Ist eh offtopic.

y33H@
2017-08-13, 16:37:01
Wieso machst du das mit? Es gibt ein Arbeitsschutz.Ich mache Zeitausgleich dafür, dennoch nicht ideal, klar.

Digidi
2017-08-13, 17:03:48
Mythos;11458967']Echt jetzt? Zu jedem Release die gleiche Diskussion wenn Redakteure auch mal an nem WE arbeiten müssen? Leute, das ist völlig normal und quasi in jeder Branche muss man mal selten oder häufiger ran. Also bitte diese Diskussion im Keim gleich ersticken. Ist eh offtopic.
O.T:Nein sowas sollte nicht Normal sein. Es ist Y33H Zeit die er da Verbringt die er nicht mit Freunden und anderen zusammen sein kann. :P

P.s Auf den Release der Tests für Vega kann ich auch noch bis nächste Woche Freitag warten. Ich hohl mir erst eine wenn von Golem, Pcgh und Tomshardware Tests raus sind. Dieses "gleich am Ersten Tag müssen alle Test da sein" geht mir gegen den Strich!

Grendizer
2017-08-13, 17:12:13
Ich hohl mir erst eine wenn von Golem, Pcgh und Tomshardware Tests raus sind. Dieses "gleich am Ersten Tag müssen alle Test da sein" geht mir gegen den Strich!


Optimist...:biggrin:

LadyWhirlwind
2017-08-13, 17:31:51
O.T:Nein sowas sollte nicht Normal sein. Es ist Y33H Zeit die er da Verbringt die er nicht mit Freunden und anderen zusammen sein kann. :P

P.s Auf den Release der Tests für Vega kann ich auch noch bis nächste Woche Freitag warten. Ich hohl mir erst eine wenn von Golem, Pcgh und Tomshardware Tests raus sind. Dieses "gleich am Ersten Tag müssen alle Test da sein" geht mir gegen den Strich!

Was sein sollte und was ist, ist immer ein grosser Unterschied. Wenn am Montag die NDA fällt, hast du entweder die Tests und die Leser lesen bei dir (und die Klicks) oder sie lesen auf einer anderen Seite. Wenn du den Test später bringst, hast du den gleichen Aufwand, aber wohl deutlich weniger Klicks, d.h. Du hast bei gleichem Aufawnd weniger Ertrag. Passiert das zu oft, wandern die Leser ab, was man natürlich auch nicht will. Also bleibt natürlich nichts anders über als den Test am Wochenende zu machen.

Es ist in vielen Branchen tatsächlich so, dass es vorkommen kann, das man überstunden etc. machen muss, weil es einfach nicht anders geht weil der vorgegebenen Zeitrahmen ausserhalb der Kontrolle des Betriebs ist. Entweder du machst oder du verlierst den drauf resultierenden Ertrag. Aber über gewisse Faktoren hat man halt keine Kontrolle und dann muss man sich auch als Arbeitnehmer damit arrangieren, oder man ist irgendwann ohne Job.

Was man auf keinen Fall dulden sollte ist, wenn die eigene Firma im Normalfall schon so plannt.

Zu Vega: Ich werd mir wohl im Winter von meinem Bonus zwei neue Bildschirme holen und dann nächstes Jahr auf Navi aufrüsten. Solange muss es meine 1070 noch tun.

horn 12
2017-08-13, 17:33:02
@y33H@
@Raff

Könnt Ihr bitte schon sagen ob sich das Warten auf Vega 64 gelohnt hat und ob es doch besser wird als bis dato angenommen wurde.
Zudem einige nützliche Features integriert worden sind im Neuen Treiber, der Neuen Architektur, AA Modi udg.

PrivateCeralion
2017-08-13, 17:37:06
@y33H@
@Raff

Könnt Ihr bitte schon sagen ob sich das Warten auf Vega 64 gelohnt hat und ob es doch besser wird als bis dato angenommen wurde.
Zudem einige nützliche Features integriert worden sind im Neuen Treiber, der Neuen Architektur, AA Modi udg.

Dürfen sie wahrscheinlich nicht. Außerdem ist die frage, was "sich das warten gelohnt heißt.

Für mich hätte sich das warten gelohnt, wenn sie endlich mal Tensor Flow unterstützen würden und dank des HBCC das Programm größer als 16Gbyte sein dürfte.

Dural
2017-08-13, 17:37:27
Viel interessanter als die 280watt wäre der durchschnitts takt damit ;)

Blindseeker
2017-08-13, 17:39:01
Obacht nicht vergleichbar, es sind unter 320 Watt für V64.
Dass die Zahlen nicht 1:1 vergleichbar sind, ist ja klar. Aber jetzt wissen wir, dass 350+ W nicht im typischen Benchmarkparcours vorkommen werden. Außerdem: Halbseidene Zahlenschieberei ist ja des Spekulanten Lieblingsbeschäftigung ;)

Danke übrigens an alle Tester, die das Wochenende opfern!

y33H@
2017-08-13, 17:43:19
Wenn AMD sagt es seien 295W dann wären 350+ ziemlich übel :usad:

Kartenlehrling
2017-08-13, 17:44:28
Für mich hätte sich das warten gelohnt, wenn sie endlich mal Tensor Flow unterstützen würden und
dank des HBCC das Programm größer als 16Gbyte sein dürfte.

Ich sehe nur die Gefahr das man von den Featurs die nächsten 5-6 Jahre nicht sieht ausser vielleicht 1-2 Vorzeige Produkte.

Mir wären Features die auf Alte aufbauen viel lieber,
und vorallem kein update von den Gameengine verlangen.

Kriton
2017-08-13, 17:45:42
Wenn AMD sagt es seien 295W dann wären 350+ ziemlich übel :usad:

Vorsicht, demnächst heißt es wieder, Du hättest was von 350+ gesagt und damit wird es plötzlich zum "Fakt".

Grendizer
2017-08-13, 17:46:05
Wenn AMD sagt es seien 295W dann wären 350+ ziemlich übel :usad:


Naja... bei der 480 war AMD ja auch etwas zu optimistisch

dargo
2017-08-13, 17:53:08
Naja... bei der 480 war AMD ja auch etwas zu optimistisch
Hast du den Test von VEGA FE sofern sie nicht ins TT läuft verpennt? Offensichtlich ja.

Achill
2017-08-13, 18:21:01
[..]
Für mich hätte sich das warten gelohnt, wenn sie endlich mal Tensor Flow unterstützen würden und dank des HBCC das Programm größer als 16Gbyte sein dürfte.


Die Aussage, dass AMD es unterstützen soll, ist viel zu einfach. Kurze Antwort, dass kann AMD gar nicht direkt sondern nur Rahmenbedingungen schaffen, dass dies passiert.

Lang:
Das Hauptprojekt von TensorFlow (google!) unterstützen aktuell nur CUDA - siehe: https://www.tensorflow.org/install/install_linux

Bei TF und anderen Projekten die auf NV-GPUs setzen, liegt dies maßgeblich an der Nutzung von cuDNN (https://developer.nvidia.com/cudnn). Man bekommt viel low-level Arbeit abgenommen, aber es gibt natürlich kein OpenCL support.

Für TF mit OpenCL gibt forks (schnell mal gesucht):
- https://github.com/hughperkins/tf-coriander
- https://github.com/benoitsteiner/tensorflow-opencl

AMD's langfristige Lösung ist miOpen:
- http://gpuopen.com/compute-product/miopen/
- https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqoalj/

Es gibt auch eine gute Stackoverflow-Antwort: https://stackoverflow.com/questions/37892784/using-keras-tensorflow-with-amd-gpu#answer-43219422

Erbsenkönig
2017-08-13, 18:26:10
http://i.imgur.com/hzlpNJN.jpg

Quelle: https://www.reddit.com/r/Amd/comments/6tfzdm/vega_leaked_benchmarks_performance_seems_ok/

y33H@
2017-08-13, 18:29:44
Naja... bei der 480 war AMD ja auch etwas zu optimistischWenn man halt nen 6-Pol verbaut, dann kann man den Specs zufolge halt auch nur von 150W sprechen :freak:

Grendizer
2017-08-13, 18:33:09
http://i.imgur.com/hzlpNJN.jpg

Quelle: https://www.reddit.com/r/Amd/comments/6tfzdm/vega_leaked_benchmarks_performance_seems_ok/

Sieht ja ok aus... vor allem die Vega 56 gefällt. Wird aber kein Grund sein meine 1080 in Rente zu schicken, dafür sind die paar Prozent unterschied nicht der Rede wert. Wobei 12% Unterschied zwischen 1070 FE und Vega 56 im OC Zustand dann eigentlich weniger sind, wie ich gehofft hätte.

Thunder99
2017-08-13, 18:38:08
Ist im Bereich des zu erwarteten wenn das stimmt. Eine 1070 ist mit OC gut aufgestellt denke ich. Bin auf morgen gespannt was das Gesamtpaket von Vega so bietet

horn 12
2017-08-13, 19:20:34
Die Vorstellung ist echt nur schwach
Da war man vor Monaten mit der Treiberentwicklung echt nur auf +- Fiji Performance und sobald man die GTX 1070 und 1080 geknackt,- und sich das VOLUMEN erarbeitet hatte wurde der Release bekannt gegeben.

Fakt ist aber auch:

Fury X Taktet mit 1050 Mhz
Vega im Boostmodus mit 1547 bis 1630 und gar höher
Da sind 50% zur Fury X MINIMUM. welche die Karte auch erreichen wird,- aber eben noch nicht jetzt. Bis dahin ist eben Volta hier und die Karte wird sich daran messen müssen :-(
Die Treiber sind echt Alpha Stadium.

Es kann einem so vorkommen als ob nur der Basistakt die Leistung auf die Straße bringt und der Boost im Nichts verbufft. Da muss noch ordentlich Arbeit reingesteckt werden. Nun mit Ryzen Final Release ist gut einiges möglich.

iuno
2017-08-13, 19:32:22
Die Aussage, dass AMD es unterstützen soll, ist viel zu einfach. Kurze Antwort, dass kann AMD gar nicht direkt sondern nur Rahmenbedingungen schaffen, dass dies passiert.

[...]

AMD's langfristige Lösung ist miOpen
So OT finde ich das nicht. Das Ganze Thema rund um die ROCm inkl. MIOpen ist eigentlich sehr wichtig fuer Vega. Trotzdem ist man nicht so weit gekommen, wie man sollte. Gregory Stoner beschwert sich auch andauernd, dass er zu wenige Leute hat.

Mortalvision
2017-08-13, 19:41:50
https://geizhals.de/gigabyte-radeon-rx-vega-64-8g-gv-rxvega64-8gd-b-a1664377.html?show_description=1

Ein Blick aufs Refdesign

Taigatrommel
2017-08-13, 19:59:54
https://geizhals.de/gigabyte-radeon-rx-vega-64-8g-gv-rxvega64-8gd-b-a1664377.html?show_description=1

Ein Blick aufs Refdesign
Die wurde auch in diversen "Unboxing" Videos entsprechend vorgestellt und von mehreren Seiten gezeigt. Igor hat sie hier (http://www.tomshardware.de/fotoreportage/348-grafikkarte-unboxing-hands-on-details-vega.html#s8) ebenfalls fotografiert und abgebildet, sogar mit abgebauten Kühler. Das wird auf jeden Fall die Version, welche ich mir zulegen werde. Wäre die LE im schwarzen statt silbernen Lack gehalten, hätte ich eher zur Metallvariante gegriffen.

Gibt es schon Hinweise, wann die Händler morgen ihre Angebote schalten dürfen? Erst am Nachmittag wenn das globale NDA fällt oder kann man schon am Vormittag mit der Möglichkeit von Vorbestellungen rechnen? Vielleicht schaue ich morgen bei Zeiten mal im nahen Cyberport vorbei, wobei die Filiale meist erst mit einem Tag Verzögerung Ware aus dem Zentrallager bekommen, bei Ryzen hatten die erste CPUs auch erst Samstag oder Montag im Geschäft.

Isen
2017-08-13, 20:04:32
Wird auch 15 Uhr rum sein.

Tesseract
2017-08-13, 20:16:45
NDA gelten natürlich nur für diejenigen, die sie unterschieben haben. wir sind ja nicht in nineteen eighty-four. :freak:

Isen
2017-08-13, 20:23:05
Doch doch.... da sind wir, nur nicht dort, wo man es haben möchte :D

Kriton
2017-08-13, 20:24:13
Die Vorstellung ist echt nur schwach
Da war man vor Monaten mit der Treiberentwicklung echt nur auf +- Fiji Performance und sobald man die GTX 1070 und 1080 geknackt,- und sich das VOLUMEN erarbeitet hatte wurde der Release bekannt gegeben.

Fakt ist aber auch:

Fury X Taktet mit 1050 Mhz
Vega im Boostmodus mit 1547 bis 1630 und gar höher
Da sind 50% zur Fury X MINIMUM. welche die Karte auch erreichen wird,- aber eben noch nicht jetzt. Bis dahin ist eben Volta hier und die Karte wird sich daran messen müssen :-(
Die Treiber sind echt Alpha Stadium.

Es kann einem so vorkommen als ob nur der Basistakt die Leistung auf die Straße bringt und der Boost im Nichts verbufft. Da muss noch ordentlich Arbeit reingesteckt werden. Nun mit Ryzen Final Release ist gut einiges möglich.

Bitte auch bedenken, dass es bei der Fury der maximale, bei Vega der durchschnittliche Boost ist. Gerade wenn Du auf die Wirkung des Boosts im Vergleich zu Fiji schaust.

Kriton
2017-08-13, 20:26:01
NDA gelten natürlich nur für diejenigen, die sie unterschieben haben. wir sind ja nicht in nineteen eighty-four. :freak:

Aber Du kannst prinzipiell deine Vertragspartner verpflichten wiederum ihre Partner zu verpflichten, etc., etc.
Funktioniert in der Praxis natürlich nicht immer.

uweskw
2017-08-13, 20:52:35
http://i.imgur.com/hzlpNJN.jpg

Quelle: https://www.reddit.com/r/Amd/comments/6tfzdm/vega_leaked_benchmarks_performance_seems_ok/

Nicht mal 30% schneller als Fury... bei dem Aufwand. Hoffentlich hakt jemand nach was da los ist.

greetz
US

AtTheDriveIn
2017-08-13, 20:58:16
Dachte es wäre schon klar, dass Vega kein reiner Gamingchip ist und daher der Aufwand nicht in Game-FPS umgesetzt wird.

aufkrawall
2017-08-13, 20:59:27
Nicht mal 30% schneller als Fury... bei dem Aufwand. Hoffentlich hakt jemand nach was da los ist.

greetz
US
Es sind 31%.

=Floi=
2017-08-13, 21:07:14
Nicht mal 30% schneller als Fury... bei dem Aufwand. Hoffentlich hakt jemand nach was da los ist.

greetz
US

die warheit wird wohl sein, dass man einfach die neuen features und den mehrtakt implementiert hat und die alten bottlenecks wieder nicht angegangen ist.
Der DSBR spart quasi auch nix ein. Die 5-30% auf einer AMD folie sind nicht gerade prickelnd.
Hier hat man wohl HPC im auge und dort kann man den mehrtakt der shader voll umsetzen.


Es sind 31%.

:facepalm:

Zergra
2017-08-13, 21:10:10
Es sind 31%.
.....

Fury ist 31% langsamer ausgehend von der Vega 64. Anders herum sind es 45% die vega schneller ist

Screemer
2017-08-13, 21:45:50
Für mich hätte sich das warten gelohnt, wenn sie endlich mal Tensor Flow unterstützen würden und dank des HBCC das Programm größer als 16Gbyte sein dürfte.
Tensor flow setzt doch voll auf cuda. Wie soll amd das denn unterstützen? Beschwerden dich doch bei den richtigen, dass es keine opencl Implementierung gibt. Btw. schau dir mal tensorfire an: https://news.ycombinator.com/item?id=14894653

aufkrawall
2017-08-13, 21:56:27
.....

Fury ist 31% langsamer ausgehend von der Vega 64. Anders herum sind es 45% die vega schneller ist
Genau anders herum.
Wenn man die Aussage treffen will, wie viel schneller die neue GPU als die alte ist, ist logischerweise die Leistung der alten die Basis.
Ist doch nicht so schwer zu verstehen (wenn man nicht gerade mit dem Posten von unangemessenen Facepalms geistig ausgelastet ist).

Ihr bringt doch hoffentlich nicht schon wieder Prozentpunkte und Prozent durcheinander?

deekey777
2017-08-13, 21:56:28
http://i.imgur.com/hzlpNJN.jpg

Quelle: https://www.reddit.com/r/Amd/comments/6tfzdm/vega_leaked_benchmarks_performance_seems_ok/
https://forum.beyond3d.com/threads/amd-vega-hardware-reviews.60246/page-36#post-1995582

These charts are based on 3DMark numbers, not actual games.

horn 12
2017-08-13, 22:00:49
Na, dies lässt noch hoffen.

Screemer
2017-08-13, 22:04:14
Auf weniger Leistung...

N0Thing
2017-08-13, 22:04:53
Die wurde auch in diversen "Unboxing" Videos entsprechend vorgestellt und von mehreren Seiten gezeigt. Igor hat sie hier (http://www.tomshardware.de/fotoreportage/348-grafikkarte-unboxing-hands-on-details-vega.html#s8) ebenfalls fotografiert und abgebildet, sogar mit abgebauten Kühler.

Hm, den Kommentar zu Bild Nr. 5 (http://www.tomshardware.de/fotoreportage/348-grafikkarte-unboxing-hands-on-details-vega.html#s5) finde ich ja interessant und bin auf das Review samt Auflösung gespannt. Vermutlich ist es einfach der Die einer Frontier Edition mit den 16GB, aber vielleicht ja auch eine Änderung am Chip selber.


Neben den obligatorischen Gummi-Bändchen (warum eigentlich nur eins?) findet man einen Extra-Chip. Der entspricht aber nicht ganz dem, was mittlerweile auf der Karte steckt. Doch dazu im Review später mehr...

Dachte es wäre schon klar, dass Vega kein reiner Gamingchip ist und daher der Aufwand nicht in Game-FPS umgesetzt wird.

Vega 10 wird nicht mehr oder weniger als Gamer-Chips beworben, als alle anderen GPUs von AMD seit Hawaii.

reaperrr
2017-08-13, 22:06:30
These charts are based on 3DMark numbers, not actual games
Ich hatte mich schon gewundert, denn sowohl anhand der bisher geleakten Werte als auch AMD's eigenen(!) Aussagen und Andeutungen würde ich vermuten, dass die V64Air eher gegen die 1080 verliert (im Durchschnitt) und nur wegen der Mining-Performance (und Herstellungskosten) überhaupt preislich gegen bzw. über die 1080 positioniert wird.

Außerdem erwarte ich, dass die V56 in vielen Spielen näher an der V64 liegen wird als im 3DMark, weil 3DMark primär Shader-limitiert ist, während nicht wenige Spiele stärker an Bandbreite, Frontend oder Backend hängen, speziell in letzteren beiden Fällen wird die V64 Probleme mit der 1080 haben und sich auch von der V56 nicht weit absetzen können, da beißt AMD einfach, dass sie noch immer bei 4 ShaderEngines und 64 ROPs festhängen.

Kriton
2017-08-13, 22:06:47
Hm, den Kommentar zu Bild Nr. 5 (http://www.tomshardware.de/fotoreportage/348-grafikkarte-unboxing-hands-on-details-vega.html#s5) finde ich ja interessant und bin auf das Review samt Auflösung gespannt.

Das wird ein nicht funktionsfähiger Chip sein, wie bei TR für die Reviewer. Und nicht vollständig bezieht sich auf die Karte (also ohne HBM2). Das wäre jedenfalls meine Interpretation.

aufkrawall
2017-08-13, 22:07:52
Hawaii hatte halt auch schon im Jahr 2013 in einigen Spielen seine starken Momente gegen den fetten GK110. Würd mich wundern, wenn wir in ein paar Monaten zu der Erkenntnis gelangt wären, Vega wäre ähnlich gut.

Der_Korken
2017-08-13, 22:08:24
Ich habe ein bisschen den Überblick verloren: Sehe ich das richtig, dass es morgen Reviews zur Vega 64 gibt und zur Vega 56 vermutlich auch? Oder wird letztere doch erst später released?

N0Thing
2017-08-13, 22:08:41
Das wird ein nicht funktionsfähiger Chip sein, wie bei TR für die Reviewer. Und nicht vollständig bezieht sich auf die Karte (also ohne HBM2). Das wäre jedenfalls meine Interpretation.

Daß der Chip nicht funktioniert ist klar. Was du mit dem Bezug auf HBM2 meinst ist mir aber nicht klar, denn den kann man ja auf dem Photo prima erkennen und hat nichts mit dem PCB zu tun.

Ich habe ein bisschen den Überblick verloren: Sehe ich das richtig, dass es morgen Reviews zur Vega 64 gibt und zur Vega 56 vermutlich auch? Oder wird letztere doch erst später released?

Reviews zu beiden Varianten, Verkauf der V64 ebenfalls morgen ab 15 Uhr, bei V56 afaik erst ab dem 24.08 oder 28.08.

Zergra
2017-08-13, 22:10:06
Bin am überlegen morgen, wenn ich es schaffe 2x Vega 64 zu kaufen... Spekulation ist immer gut...
Ich habe ein bisschen den Überblick verloren: Sehe ich das richtig, dass es morgen Reviews zur Vega 64 gibt und zur Vega 56 vermutlich auch? Oder wird letztere doch erst später released?
Ja gibt V56 Reviews, aber keine Karten zu kaufen. Erst 14 Tage später.

Isen
2017-08-13, 22:10:28
Zu beiden wird es Benchmarks geben, die 56 soll es allerdings Anfang Sept. zu kaufen geben, während die 64 eben morgen ab 15 Uhr zu kaufen gibt.

Edit: Pha... postet doch net so schnell ey:freak:

masked__rider
2017-08-13, 22:10:41
Edit: Wurde schon erwähnt.

Kriton
2017-08-13, 22:15:35
Hawaii hatte halt auch schon im Jahr 2013 in einigen Spielen seine starken Momente gegen den fetten GK110. Würd mich wundern, wenn wir in ein paar Monaten zu der Erkenntnis gelangt wären, Vega wäre ähnlich gut.

Hat y33H@ nicht schon gespoilered, dass es bei Doom gut aussieht? Wäre also (wieder einmal) eine Frage der Unterstützung. Ich verstehe aber auch generell nicht, wie scheinbar so viele der Meinung sein können, dass man die Qualität der Ingenieure bewerten könnte ohne die (Applikations-)SW einzubeziehen. Je stärker ich auf eine bestimmte Architektur optimiere (und diese insoweit von einer alternativen abweicht), umso schwächer wird die alternative aussehen. Das ist dann aber kein HW-Thema, sondern eines der Applikation.

aufkrawall
2017-08-13, 22:17:10
Sieht denn Doom Vega auch gut gegen die Fury X aus?

Kriton
2017-08-13, 22:17:26
Daß der Chip nicht funktioniert ist klar. Was du mit dem Bezug auf HBM2 meinst ist mir aber nicht klar, denn den kann man ja auf dem Photo prima erkennen und hat nichts mit dem PCB zu tun.

Du hast recht, was den HBM2 angeht. Ich habe nur einen (zu) kurzen Blick auf das Bild geworfen.

Kriton
2017-08-13, 22:19:20
Sieht denn Doom Vega auch gut gegen die Fury X aus?

Ich habe auch nur das:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11458446#post11458446

Doom mit Vulkan sieht wie erwartet sehr gut aus.

Schaffe89
2017-08-13, 22:44:28
Hat y33H@ nicht schon gespoilered, dass es bei Doom gut aussieht? Wäre also (wieder einmal) eine Frage der Unterstützung.

Die Frage ist nur wen zum Henker Doom noch interessiert.
Das Spiel verkommt immer mehr zum Showcase.
Die FPS sind auch so schon hoch genug. Hoffentlich wird mal was gescheites gebenchmarkt und nicht zum drölfhundertsten mal Doom.
Aktuelle EA Spiele würden deutlich mehr interessieren.

Complicated
2017-08-13, 22:49:31
Stimmt wir sollten uns lieber für schlecht programmierte Software interessieren, welche die Performance der GPUs nicht umgesetzt bekommt, weil dort die Balken bei den Tests größere Unterschiede aufweisen. Ich denke man kann Doom nicht oft genug erwähnen als Vorzeige Beispiel für gute Programmier-Arbeit. Weil zu viele FPS dabei raus springen ist glaube ich der seltsamste Grund um sich nicht mehr für ein Spiel zu interessieren und es links liegen zu lassen.

aufkrawall
2017-08-13, 22:50:07
IdTech 6 ist halt wegen Wolfenstein interessant, dürfte der beste Shooter dieses Jahr sein (so wie Doom letztes Jahr).

y33H@
2017-08-13, 22:51:11
Das wird ein nicht funktionsfähiger Chip sein, wie bei TR für die Reviewer. Und nicht vollständig bezieht sich auf die Karte (also ohne HBM2). Das wäre jedenfalls meine Interpretation.Das Package für Fotos unterscheidet sich von dem was auf den Boards verlötet ist. Ihm fehlt der Filler, der zwischen die Dies gegossen wird, damit der Interposer bzw die Leitungen nicht brechen. Der Dummy hat Spalten zwischen V10 und dem HBM2, der echte Chip nicht.Die Frage ist nur wen zum Henker Doom noch interessiert. Das Spiel verkommt immer mehr zum Showcase.id entwickelt grade Wolfenstein 2 und vermutlich kommen noch mehr Titel mit der id Tech 6.Aktuelle EA Spiele würden deutlich mehr interessieren.Hach, mal wieder BF1 ^^

aufkrawall
2017-08-13, 22:54:56
Wolfenstein 2 ist doch von Machine Games? Oder wie ist Id involviert?

Edit: En bisschen OT, aber im weitesten Sinne auch für Vega interessant. ;)

Schaffe89
2017-08-13, 23:00:50
Stimmt wir sollten uns lieber für schlecht programmierte Software interessieren

Doom ist mit Shader Intrinsics sowieso ein AMD Evolved Titel.
Warum soviel Wert auf Doom gelegt wird, kann ich nicht verstehen, zumal es dem Endnutzer eh nix hilft wenn er angeblich schlecht programmierte Software dann mit seiner GPU ausführen muss um Spiel XY zu starten.

Das ist höchstens von einem technischen Standpunkt relevant.
Am Ende des Tages zählt sowieso nur das was hinten rauskommt.
Weil zu viele FPS dabei raus springen ist glaube ich der seltsamste Grund um sich nicht mehr für ein Spiel zu interessieren und es links liegen zu lassen.

Läuft halt auch auf einer Kartoffel. PUBG wäre deutlich interessanter, weil es aktuell einfach vel gezockt wird.
Doom spielt sogut wie keiner mehr. Also kann ich einem Test mit Doom kaum was abgewinnen, weils nicht interessiert.
Wolfenstein 2 wäre natürlich wieder Up to Date und daher interessant.
Im selben Maße wäre es interessant Directx12 Titel großflächig aus den Reviews zu nehmen, damit man wenigstens für die 99% Directx11 Tital da draußen ein vernünftiges Bild abgibt.
Directx12 könnte man dann in einem Sonderartikel testen, inkl. FP16.

Hach, mal wieder BF1 ^^

Jap und Commander and Conquer.:usad:

Screemer
2017-08-13, 23:05:31
Pubg ist kartoffelsoftware und im jetztigen zustand völlig unbenchbar.

prinz_valium
2017-08-13, 23:05:36
kann mal jeweils die relative Mehrleistung von 1070 zu 1080 mit vega 56 zu 64 vergleichen und dann wie viel davon noch auf die staße kommt?

potenziert sich das ganze dann noch bei AMD?
die hatten ja schon immer mehr Rohleistung, aber weniger resultierende FPS

sollten die Test wirklich ähnlich den Balken von Chiphell ausfallen, dann wäre zumindest Vega 56 vllt eine Empfehlung wert

Schaffe89
2017-08-13, 23:07:55
Pubg ist kartoffelsoftware und im jetztigen zustand völlig unbenchbar.

Wieso, das wäre doch nur stringent.
Vega (Süßkartoffel) vs PUBG (Kartoffel-überwiegend festkochend).:rolleyes:

Ne, die Aussage ist nur dass man auch mal was anderes testen könnte als den ewigen AAA Quatsch.

Robspassion
2017-08-13, 23:39:58
Doom ist eines wenn nicht das effizienteste und am besten optimierte Spiel und es performt anders als andere AAA Spiele sowohl auf Nvidia als auch auf AMD Karten abartig gut. Wenn ein Spiel als Maßstab herangezogen werden sollte für das was im Zukunft möglich ist, dann Doom. Ein early access Titel auch wenn er häufig gespielt wird kann noch so viele Baustellen haben, dass die Ergebnisse meiner Meinung nach nicht so aussagekräftig sind wir bei Doom.

Rincewind
2017-08-13, 23:43:10
Pubg ist kartoffelsoftware und im jetztigen zustand völlig unbenchbar.

selbst wenn es ne Kartoffel ist kann man es bestimmt benchen.

Angiesan
2017-08-13, 23:57:13
Naja wenn man immer nur die tod optimierten Spiele heranzieht macht das natürlich Sinn wenn man zeigen will was geht. Wenn man aber die Realität abbilden will, muss man eben auch die Spiele benchen die nicht so gut optimiert sind, wenn sie den trotzdem viel und von vielen Menschen gespielt werden.
Das zeigt dann vielleicht auf wie leistungsfähig die HW zum Start eines neuen Spiels ist wenn man nicht mit AMD oder NV zusammenarbeiten wollte oder konnte.

Es ist ja nicht so, dass man immer nur Spiele toll findet die auf der eigenen HW gerade ein Feuerwerk abbrennen, ich kann mich da noch gut an Metro erinnern das mit SLI immer abgestürzt ist, das hat mich angekotzt ohne Ende und wie dann endlich der Patch kam, war ich schon fertig und haben es mit einer Karte durchgespielt.

BlacKi
2017-08-14, 00:01:38
selbst wenn es ne Kartoffel ist kann man es bestimmt benchen.
worauf er anspielt ist wohl auch, dass die performance von monat zu monat sich verbessert und man 2-3 monate alte stände nicht die performance heute wiedergeben könnten. es könnte sein das sich ein falsches bild durchsetzt, wie bei dem, letzten tombraider, wo immernoch leute glauben, das nvidias TXP mit ryzen schlecht harmoniert.

trotzdem sind die momentaufnahmen für den moment interessant, auch wenn sich das jeden moment ändern kann.

Screemer
2017-08-14, 00:05:11
selbst wenn es ne Kartoffel ist kann man es bestimmt benchen.
Die performance ändert sich täglich. Es macht einen unterschied mit wievielen Spielern du wo auf der map bist, ob vielleicht jemand ne smoke irgendwo in deiner Ecke gezündet hat, auf welchem teil der map du gerade bist und und und. Die matches sind völlig unvorhersehbar. Das ist nicht mal im Ansatz mit irgend einem anderen Spiel vergleichbar, dass ich bisher gespielt habe. Macht man irgendwelche hampeleien im squad am Arsch der Welt, dann hat das gar nichts mit der tatsächlichen performance während des regulären Spielens zu tun. Wer sich einbildet er könnte das reproduzierbar benchen, der hat das Spiel nicht wirklich gespielt.

Achill
2017-08-14, 00:06:38
Aber PUBG ist vielleicht nicht ganz gut geeignet. Es gibt offizielle Aussagen, dass NV hier Partner ist und schon mit optimiert - was das in der Regel heist muss ich nicht weiter ausführen oder?

Quelle: https://www.youtube.com/watch?v=DAG-3_U5HEk bei 2m 32s

Hübie
2017-08-14, 00:08:01
Naja wenn man immer nur die tod optimierten Spiele heranzieht macht das natürlich Sinn wenn man zeigen will was geht. Wenn man aber die Realität abbilden will, muss man eben auch die Spiele benchen die nicht so gut optimiert sind, wenn sie den trotzdem viel und von vielen Menschen gespielt werden.
Das zeigt dann vielleicht auf wie leistungsfähig die HW zum Start eines neuen Spiels ist wenn man nicht mit AMD oder NV zusammenarbeiten wollte oder konnte.

Es ist ja nicht so, dass man immer nur Spiele toll findet die auf der eigenen HW gerade ein Feuerwerk abbrennen, ich kann mich da noch gut an Metro erinnern das mit SLI immer abgestürzt ist, das hat mich angekotzt ohne Ende und wie dann endlich der Patch kam, war ich schon fertig und haben es mit einer Karte durchgespielt.

Ganz genau so sehe ich das auch. Manch ein PUBG Spieler möchte vielleicht wissen ob sich ein Upgrade lohnt. Zu wissen was möglich ist wäre dann der Sahnebonbon. ;)

Schaffe89
2017-08-14, 00:21:45
Aber PUBG ist vielleicht nicht ganz gut geeignet. Es gibt offizielle Aussagen, dass NV hier Partner ist und schon mit optimiert

Wen interessierts ob jemand hier Partner ist? Was hat das für einen Belang für die derzeitige Performance? Bei Doom machts doch auch nichts.:weg:
Egal ob AMD oder Nvidia Partner ist, ob die Software vermeintlich unausgereift ist oder nicht, möchte ich gerne wissen wie Vega und Nvidia da derzeitig performen.
Battlefield 1 wird auch im Multiplayer gebencht, ergo sollte es auch bei PUBG funktionieren.