PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

StefanV
2017-07-11, 22:11:48
Sind eigentlich die (absoluten) Latenzen von HBM prinzipiell geringer als von GDDR wegen Interposer vs PCB? Oder spielt das keine Rolle?
Nein, die absoluten Latenzen von DRAM sind seit Jahren gleich, es unterscheidet sich eigentlich nur das Interface Zeugs. Aber nicht die Zellen selbst...

Dafür brauchts dann neue Technologien...

basix
2017-07-11, 22:46:33
Nein, die absoluten Latenzen von DRAM sind seit Jahren gleich, es unterscheidet sich eigentlich nur das Interface Zeugs. Aber nicht die Zellen selbst...

Dafür brauchts dann neue Technologien...

Der Speichercontroller ist schon auch entscheidend. Siehe Kabylake vs. Broadwell-E oder Ryzen. Selbe Speichertaktraten aber massiv unterschiedliche Latenzen. Hier kann ein HBM Controller evtl. ganz anders sein als ein GDDR5 Speicherinterface. Auch der Prefetch usw. hat Einfluss auf die mittlere Latenz. Hier könnte HBM wesentlich geringere Latenzen bieten, da die Speicherzugriffe granularer sind (soweit ich mich erinnere. Gipsel?).

Die physische Distanz von den paar Zentimetern Unterschied hat aber nur marginalen Einfluss auf die Latenz (ein elektrisches Signal in Kupfer wandert mit einer Geschwindigkeit von ca. 20cm pro Nanosekunde). Also zur urpsrünglichen Frage: PCB vs. Interposer ist vom Signalweg her egal bezüglich Latenz. Der Rest drum herum ist matchentscheidend.

Rincewind
2017-07-11, 22:49:05
Dürfen eigentlich Boardpartner eine XL mit Wasser (AiO) bestücken?

iuno
2017-07-11, 23:01:10
Auch der Prefetch usw. hat Einfluss auf die mittlere Latenz. Hier könnte HBM wesentlich geringere Latenzen bieten, da die Speicherzugriffe granularer sind
HBM hat 2n Prefetch bei 128b/Channel, GDDR5 8n und GDDR5X 16n bei je 32b/channel. Insgesamt also 256 Bit fuer HBM und GDDR5X, 512 bei 5X.

aufkrawall
2017-07-11, 23:07:07
Was weiß man eigentlich über die Video-Funktionalität?
Laut Phoronix hat AMD wohl immer noch rein gar nichts bez. VP9 submitted.

mczak
2017-07-11, 23:09:46
"In any case, however AMD is doing it, the updated geometry engines will also feature one more advancement, which AMD is calling the primitive shader. A new shader stage that runs in place of the usual vertex and geometry shader path, the primitive shader allows for the high speed discarding of hidden/unnecessary primitives. Along with improving the total primitive rate, discarding primitives is the next best way to improve overall geometry performance, especially as game geometry gets increasingly fine, and very small, overdrawn triangles risk choking the GPU.

AMD isn’t offering any real detail here in how the primitive shader operates, and as a result I’m curious here whether this is something that AMD’s shader compiler can automatically add, or if it requires developers to specifically call it (like they would vertex and geometry shaders)."
Das widerspricht allerdings AMDs Angaben zu den 11 Tris/Clock für die 4 Geometry Engines. Denn die Shader sind ja kein Teil davon.
(Dass man im Primitive Shader Tris verwerfen kann ist übrigens nicht so revolutionär. Das geht selbstverständlich auch in einem Geometry Shader und der Primitive Shader ist ja eine Kombination von VS+GS. Das Problem ist nur dass GS sehr problematisch für alle HW ist und daher langsam, deswegen wäre es verrückt einen GS bloss laufen zu lassen für early backface culling.)
Ich finde das ist alles etwas widersprüchlich formuliert...

basix
2017-07-11, 23:21:42
HBM hat 2n Prefetch bei 128b/Channel, GDDR5 8n und GDDR5X 16n bei je 32b/channel. Insgesamt also 256 Bit fuer HBM und GDDR5X, 512 bei 5X.

Danke ;)

vinacis_vivids
2017-07-11, 23:49:39
Das widerspricht allerdings AMDs Angaben zu den 11 Tris/Clock für die 4 Geometry Engines. Denn die Shader sind ja kein Teil davon.
(Dass man im Primitive Shader Tris verwerfen kann ist übrigens nicht so revolutionär. Das geht selbstverständlich auch in einem Geometry Shader und der Primitive Shader ist ja eine Kombination von VS+GS. Das Problem ist nur dass GS sehr problematisch für alle HW ist und daher langsam, deswegen wäre es verrückt einen GS bloss laufen zu lassen für early backface culling.)
Ich finde das ist alles etwas widersprüchlich formuliert...

Wo ist der Widerspruch?

Die 4 Geometry Engines sind flexibel (intelligent) programmierbar.

Primitive Shader ist nicht die Kombination aus VS+GS sondern eher eine Verschmelzung wo beide *gleichgeschaltet* sind und zusammen für breiteren output sogen.

iuno
2017-07-11, 23:56:05
Was weiß man eigentlich über die Video-Funktionalität?
Laut Phoronix hat AMD wohl immer noch rein gar nichts bez. VP9 submitted.


- H265/HEVC Decode8 HD / 4K60
- H265/HEVC Encode1080p240 or 4K60 Mxed with Decode

Glaube nicht, dass da bzgl. VP9 noch was kommt :( Zur Architektur-Preview gab es kein Wort dazu, in den Patches nicht und bei der FE auch nicht, obwohl es fuer (semi-)Profis sicherlich auch interessant sein kann.

Nightspider
2017-07-12, 00:52:00
Zwar schade aber VP9 stirbt doch eh schon bald wieder.

AV1 support ist schon in den ersten Browsern drin.

aufkrawall
2017-07-12, 00:59:46
Zwar schade aber VP9 stirbt doch eh schon bald wieder.

Wie kommst du darauf? Wenn YT mit AV1 weiter die Qualität hochdrehen will, wird das wohl noch mehr CPU-Leistung als die bisherigen VP9-Videos brauchen. Vor Navi wird AMD das nicht in Hardware hinbekommen (und wie gut mit Navi dann, sei nach den bisherigen Erfahrungen mit VP9/HEVC 10 Bit mal dahin gestellt).
Ich nehme an, dass auch wegen Mobile Videos auf YT noch ziemlich lange als VP9 angeboten werden, weil man weder die H.264 Matsche wiederhaben, noch zig Geräte mit nur VP9-Support ausschließen will.

Ich will jetzt mal schwer hoffen, dass Vega VP9 8 Bit nativ kann. 10 Bit wär schon wieder für AMD-Verhältnisse eine enorm positive Überraschung.

Nightspider
2017-07-12, 01:09:30
Zumindest sitzt AMD mit in der Alliance for Open Media, welche AV1 entwickelt. Mit Glück gehts dann deutlich schneller mit dem Support bei Navi. Wer weiß.

Unicous
2017-07-12, 01:23:21
Der Großteil hat sich auf HEVC gestürzt und Google steht eher allein mit VP9 da. AOMedia genießt deutlich mehr Vertrauen, weil es eben ein standards body ist und man nicht von der Gnade Googles abhängig ist.

VP9 kam einfach zu früh, da die Industrie immer noch nicht den switch gemacht hat. AV1 dürfte ausgereift genug sein wenn der Großteil umschwenkt. Darüber hinaus setzt Adobe auf HEVC und sie haben noch ein großes Gewicht wenn es um content delivery geht.

aufkrawall
2017-07-12, 01:29:53
Der Großteil hat sich auf HEVC gestürzt und Google steht eher allein mit VP9 da.
Trotzdem ist YT für einen großen Teil des non-porn Video-Traffics verantwortlich, auf Mobile wahrscheinlich noch stärker. >1080p + >30fps Content auf YT ist ausschließlich VP9.

Unicous
2017-07-12, 01:46:05
Ja, aber was hat "Mobile" mit "Desktop" zu tun?:confused:

Google kann und wird mehrgleisig waren, das tun sie ja schon eine ganze Weile. Die meisten neueren Mobile Chips unterstützen ja auch VP9, afaik.(Nur Apple sperrt sich.) Sie beliefern die verschiedenen Geräte mit dem effizientesten Codec und werden auch AV1 unterstützen, VP10 haben sie ja schon eingestellt.

VP9 wird Nische bleiben. Uncool, dass AMD da entweder geschlafen hat oder gleich gar nicht mitmacht... oder es auf Software-Seite nicht hinbekommt? aber es wird verschmerzbar sein, solange sie AV1 zeitnah unterstützen können.

Isen
2017-07-12, 07:37:07
Ab 18 Juli dürfte es vielleicht paar mehr Infos geben :)



Radeon RX Vega is on its way—but before that, we’re bringing it to you. We’re making a few stops to show it off in action: we’re packing up a few Radeon RX Vega GPUs and embarking on a mini community tour, and we’re hoping you join us!

At our stops, we’re setting up a Radeon RX Vega Experience area where you’ll be able to game on the upcoming graphics card and take in the experience, tradeshow-style.

The main reason for this tour is to host a meet-up: for all of us PC gamers to get together, play some games, chat and hang out. Just bring yourselves and your friends.



Radeon RX Vega at Akvárium Klub in Budapest, Hungary

Our first stop is Europe. We want to meet up with our fans in Budapest, Hungary, so we’ll be popping by on Tuesday, July 18 at the Akvárium Klub from 2 to 7 CET.

If you’re in Hungary, mark your calendars and meet up with us!

Radeon RX Vega at PDXLAN in Portland, USA

After Budapest, we’re headed to PDXLAN in Portland, USA from July 21 to 23. We’ll be setting up a Radeon RX Vega area, mingling with all the gamers attending PDXLAN.

If you’re participating at PDXLAN, take a break with some Radeon gaming. Watch our social media channels for our location!

Finally, During SIGGRAPH 2017 in Los Angeles, USA

We know you’ve been waiting for Radeon RX Vega and we can’t wait to unveil it to you all.

Details on the Radeon RX Vega are coming during SIGGRAPH 2017, so you’ll want to pay attention to what’s happening during this technology summit taking place in the last week of July.

Here’s where you can follow us during our tour and SIGGRAPH for all details on the Radeon RX Vega:

Facebook – @Radeon
Twitter – @Radeon
Instagram – @WeAreRadeon

We’ll be blogging about our meet-ups, so come back to Radeon.com for updates and photos on our tour stops.



https://radeon.com/en-us/rx-community-meetup/
https://videocardz.com/70895/amd-radeon-rx-vega-is-going-on-a-tour

Palpatin
2017-07-12, 07:57:05
Mythos;11427645']Wenn diese drei Vega Varianten wirklich kommen, kann ich mir das nur so erklären:
Vega XL gegen GTX 1070
Vega XT gegen GTX 1080
Vega XTX gegen GTX 1080ti.

Wenn Vega wirklich so schlecht wäre wie es momentan mit der FE aussieht, würden diese drei Varianten null Sinn ergeben. Denn dann müsste sich der Top dog mit ner wahnwitzigen TDP irgendwie mit ner GTX 1080 prügeln und die schwächeren Varianten dann unterhalb der GTX 1070 einpendeln. -> komplett sinnlos.

Zwischen 1080 und 1080ti ist der Unterschied zu groß als das man das mit Brechstangen OC holt, zumal der Speichertakt bei XTX kaum höher als bei XT sein wird.
Wenn VEGA XT auf dem Niveau der 1080 liegt, kommt XTX im optimal Fall irgendwo 10-15% oberhalb 1080 aber klar unterhalb 1080ti raus.
Ich persönlich hoffe das VEGA XL und XT ca 10% oberhalb 1070 und 1080 liegen, dann bleibt die Krone zwar klar bei NV aber es gibt ne Freesync alternative zur 1070 und zur 1080, hoffentlich dann auch bezahlbar.

dargo
2017-07-12, 09:20:14
Ich persönlich hoffe das VEGA XL und XT ca 10% oberhalb 1070 und 1080 liegen, dann bleibt die Krone zwar klar bei NV aber es gibt ne Freesync alternative zur 1070 und zur 1080, hoffentlich dann auch bezahlbar.
Wird nicht passieren da AMD den Salvage nicht so stark kastriert. Wenn RX Vega XT = 1080 +10% dann ist Vega XL = 1080 (eventuell ~5% langsamer). Es sei denn AMD geht diesmal einen neuen Weg und liefert Vega XL mit 56 CUs und deutlich niedrigeren Taktraten. Letzteres glaube ich aber nicht.

Cyphermaster
2017-07-12, 09:22:50
Ich finde es schade, daß man wohl keine neue Nano auflegen wird. Vielleicht ja als Custom? Ich denke, daß sowas durchaus seine Fans finden würde.

scully1234
2017-07-12, 09:46:40
Ich finde es schade, daß man wohl keine neue Nano auflegen wird. Vielleicht ja als Custom? Ich denke, daß sowas durchaus seine Fans finden würde.

Denen müsstest du erst einmal verklickern ,das anstatt die Brechstange auszupacken und auf Gedeih u Verderb mit dem Mitbewerber mitzuhalten, der vernünftigere Weg gewählt wurde.

Viele Fans wird man damit nicht generieren ,denn die Mehrzahl schaut auf den Status Quo zwischen den beiden Herstellern.

Der Teufelskreis ist somit also nicht so leicht zu durchbrechen, mit einer Vernunfts Edition

Menace
2017-07-12, 09:49:25
Vielleicht ist diese Version von Vega dafür zu ungünstig (zu hungrig und heiß). Bis Navi wollte ich sowieso überbrücken.

BlacKi
2017-07-12, 10:00:36
Vielleicht ist diese Version von Vega dafür zu ungünstig (zu hungrig und heiß). Bis Navi wollte ich sowieso überbrücken.
runterdrücken kannst du jede karte, auch die nano hätte man noch weiter runter drücken können. aber genau wie bei der nano, wird die karte erst interessant(ausser für die freaks), wenn das p/l sitzt. viele haben die nano erst für 400-450€ gekauft, nicht für 650€ wie ursprunglich die fury x.

eigentlich ist aber nur der formfaktor interessant, denn eigentlich jeder konnte aus einer fury verbrauchstechnisch eine nano machen.

vinacis_vivids
2017-07-12, 10:05:42
Vielleicht ist diese Version von Vega dafür zu ungünstig (zu hungrig und heiß). Bis Navi wollte ich sowieso überbrücken.

Du meinst Vega FE ist von der Effizienz her schlecht? Kannst du Beispiele nennen?

dargo
2017-07-12, 10:10:59
Ich finde es schade, daß man wohl keine neue Nano auflegen wird. Vielleicht ja als Custom? Ich denke, daß sowas durchaus seine Fans finden würde.
Mit einer GPU 4 verschiedene Grafikkarten abdecken wäre wohl etwas viel.

Denen müsstest du erst einmal verklickern ,das anstatt die Brechstange auszupacken und auf Gedeih u Verderb mit dem Mitbewerber mitzuhalten, der vernünftigere Weg gewählt wurde.

Zittert schon die Hose? :D Brechstange gibts nur beim wassergekühlten Vega. Den Vollausbau gibts diesmal auch mit Luft, inkl. Customs. Allerdings bin ich mir ziemlich sicher, dass einzelne Partner auch bei Vega XT die Brechstange rausholen werden. Stichwort... hohes PT-Limit, vorranging MSI.

Übrigens... wenn die Asic-Power 220W beträgt könnte Vega XT bei ca. 260W liegen. Fury Tri-X hat ja eine Asic Power von 216W und verbraucht laut TH 254W in Games.

ndrs
2017-07-12, 10:19:50
Warum sind eigentlich nominell so geringe Taktraten bei hbm der Fall? (Relativ zu modernem gddr5/x)
Die Taktraten der eigentlichen Speicherzellen sind nicht wirklich langsamer. Die bewegen sich schon seit vielen Jahren im ähnlichen Bereich bei wenigen 100 MHz. Lediglich das Interface ist zugunsten höherer Packdichte der PHYs und Datenleitungen langsamer.

Korvaun
2017-07-12, 10:27:02
Du meinst Vega FE ist von der Effizienz her schlecht? Kannst du Beispiele nennen?

Öhm, eigentlich JEDER Spielebench zeigt die aktuell mangelnde Effizienz? 250-300W für knapp 1080-Leistung, wobei die 1080 nur ca. 180W braucht?

Cyphermaster
2017-07-12, 10:30:40
Mit einer GPU 4 verschiedene Grafikkarten abdecken wäre wohl etwas viel.Warum? Es braucht nicht zwingend besondere, aufwendige Anpassungen. Für eine Nano dürfte man die XL/XT mit Spar-BIOS prinzipiell schon brauchen können. Bei denen sollten die PCBs auch nicht besonders riesig werden. Und auch wenn: Es gibt auch derzeit immer wieder mal "ITX"-Varianten von Boardpartnern. Dann halt eine "inoffizielle" Nano.

vinacis_vivids
2017-07-12, 10:32:03
Öhm, eigentlich JEDER Spielebench zeigt die aktuell mangelnde Effizienz? 250-300W für knapp 1080-Leistung, wobei die 1080 nur ca. 180W braucht?

Vega FE ist keine Gaming Karte. Ist das bei dir noch nicht angekommen?

basix
2017-07-12, 10:32:13
Eine Vega Nano wäre wirklich klasse. Habe selber eine Fiji Nano hier herumfliegen. Für mich war das die mit Abstand beste Fiji Implementation. Natürlich hat man dann nicht die maximale Leistung, für mich persönlich spielt Effizienz aber eine viel grössere Rolle. Das ist nämlich aus technischer Sicht wesentlich interessanter als die Brechstange ;)

elhomomomo
2017-07-12, 10:32:47
Dann halt eine "inoffizielle" Nano.

Gibt es eigentlich Verbrauchsmessungen der Vega FE auf Fury X Taktraten?

nairune
2017-07-12, 10:34:08
Wird man doch mit jeder beliebigen XT Karte + Wattman selbst realisieren können, oder nicht? Da die Kühlung für die "volle" Karte ausgelegt ist, sollte das dann auch noch quasi lautlos sein.

Menace
2017-07-12, 10:44:13
Du meinst Vega FE ist von der Effizienz her schlecht? Kannst du Beispiele nennen?

:eek: Wo hast Du das denn aus meinem Satz heraus gelesen? Ich sprach weder von der FE, noch von der Effizienz. Und ein "vielleicht" wurde sogar voran gestellt, so dass dieser Satz als reine Spekulation zu erkennen war. Warum sollte ich also jetzt noch ein Beispiel liefern, was Du komplett aus der Luft hineininterpretierst?

basix
2017-07-12, 10:46:17
Wird man doch mit jeder beliebigen XT Karte + Wattman selbst realisieren können, oder nicht? Da die Kühlung für die "volle" Karte ausgelegt ist, sollte das dann auch noch quasi lautlos sein.

Effizienz Ja. Formfaktor Nein.

M4xw0lf
2017-07-12, 10:46:54
Eine Nano-Vega könnte auch später noch kommen. Bei Fiji war sie zwar von Anfang an angekündigt, aber kam deutlich später als die Furies.

Isen
2017-07-12, 10:50:14
Naja ich will doch hoffen, dass da ne kürzere Vega kommt... sonst kann ich gleich nen neues Gehäuse kaufen, da sonst mein Radi nicht in die Front passt ...

Kartenlehrling
2017-07-12, 10:52:36
Radeon™ on the Road: Bringing Radeon RX Vega to the Gamers

Radeon RX Vega is on its way—but before that, we’re bringing it to you.
We’re making a few stops to show it off in action: we’re packing up a few Radeon RX Vega GPUs and
embarking on a mini community tour, and we’re hoping you join us!
https://radeon.com/en-us/rx-community-meetup/?sf97206526=1

Leonidas
2017-07-12, 10:58:47
Wenn ich so lese was Format C schreibt, scheint es ja doch ggf. einen HArdlaunch am 29.7 zu geben. Aber wenn das Finale Bios erst am 2.08 verfügbar ist, passt das nicht so ganz zusammen.


Doch, das geht schon. Verkauft werden nach dem Launch ja reine Referenzdesigns, die AMD selber hat fertigen lassen und die nur ein Label des jeweiligen Herstellers bekommen. Möglicherweise sehen die Karten die einzelnen Grafikkarten-Hersteller nie von innen, das Auflabeln und das Zusammenpacken mit dem Hersteller-spezifischen Karton kann auch ein Drittanbieter übernehmen - der dann direkt an die Distributoren weiterliefert.

All dies betrifft nicht die Herstellerdesigns, für welche AMD das BIOS erst am 2.8. rausrückt. Vermutlich Taktik, denn vorher kann niemand selbst mit Zugriff auf Karten die exakte Performance leaken. Vermutlich laufen die Vorserien-BIOSe von AMDs Testsampeln bei den Grafikkarten-Hersteller sogar mit bewußten Bremsen/Deaktivierungen, um auch damit keine (sinnvollen) Leaks zu ermöglichen. Spekulativ gedacht.

Schnitzl
2017-07-12, 11:03:35
+1 für Vega Nano
Soweit ich weiss hat doch Mr Koudri(?) diese angekündigt?

vinacis_vivids
2017-07-12, 11:14:48
Ob in Ungarn die RX Vega schon einen reiferen Treiber hat?

basix
2017-07-12, 11:19:17
All dies betrifft nicht die Herstellerdesigns, für welche AMD das BIOS erst am 2.8. rausrückt. Vermutlich Taktik, denn vorher kann niemand selbst mit Zugriff auf Karten die exakte Performance leaken.

Und wenn man den Gedanken weiterspinnt kann man viel von Vega erwarten. Wenn es so kommt, war es wirklich ein riesiger HW und Marketing Stunt von AMD. Dass die FE momentan eher schlecht abschneidet wäre sofort vergessen und Vega wird in den Himmel gelobt. Das ist dann sicher das nachhaltigere Bild als das der heutigen FE. Vielleicht mit ein Grund, wieso man keine Review-Samples verteilt hat. Das macht den Impact de FE im Juli so klein wie möglich. Nur in diesem einen Monat könnten sich einige bereits eine Nvidia Karte zugelegt haben. All zu viele werden es aus meiner Sicht aber nicht sein.

dargo
2017-07-12, 11:24:24
Warum? Es braucht nicht zwingend besondere, aufwendige Anpassungen. Für eine Nano dürfte man die XL/XT mit Spar-BIOS prinzipiell schon brauchen können. Bei denen sollten die PCBs auch nicht besonders riesig werden. Und auch wenn: Es gibt auch derzeit immer wieder mal "ITX"-Varianten von Boardpartnern. Dann halt eine "inoffizielle" Nano.
Ich hätte grundsätzlich nichts dagegen. Dann aber bitte nicht wieder mit einem einzelnen 92mm Lüfter. Das ist mir einfach zu laut. Zwei 92-er Lüfter, ~180W TDP und die Sache ist geritzt.

Piefkee
2017-07-12, 11:43:35
Doch, das geht schon. Verkauft werden nach dem Launch ja reine Referenzdesigns, die AMD selber hat fertigen lassen und die nur ein Label des jeweiligen Herstellers bekommen. Möglicherweise sehen die Karten die einzelnen Grafikkarten-Hersteller nie von innen, das Auflabeln und das Zusammenpacken mit dem Hersteller-spezifischen Karton kann auch ein Drittanbieter übernehmen - der dann direkt an die Distributoren weiterliefert.

All dies betrifft nicht die Herstellerdesigns, für welche AMD das BIOS erst am 2.8. rausrückt. Vermutlich Taktik, denn vorher kann niemand selbst mit Zugriff auf Karten die exakte Performance leaken. Vermutlich laufen die Vorserien-BIOSe von AMDs Testsampeln bei den Grafikkarten-Hersteller sogar mit bewußten Bremsen/Deaktivierungen, um auch damit keine (sinnvollen) Leaks zu ermöglichen. Spekulativ gedacht.


Also bei aller Liebe zu AMD aber wieso sollte man sowas machen? Ewige Verzögerungen etc etc. bei VEGA und am August soll dann ein Wunder geschehen...würde ich gerne glauben aber alles sieht nach Fiji 2.0 aus...leider

Dural
2017-07-12, 11:47:55
Wie die Nano ein grosser Erfolg war, abseits weniger Freaks hat die Karte doch keiner interessiert. Zuteuer, zulaut, zuwenig Leistung.

pilzsammler2002
2017-07-12, 11:58:53
Zuteuer, zulaut, zuwenig Leistung.
Zu teuer ja...

Aber es gab nix vergleichbares in ITX mit der Leistung und wirklich laut war se für die Größe/Leistung auch nicht :freak:

vinacis_vivids
2017-07-12, 12:05:57
Also bei aller Liebe zu AMD aber wieso sollte man sowas machen? Ewige Verzögerungen etc etc. bei VEGA und am August soll dann ein Wunder geschehen...würde ich gerne glauben aber alles sieht nach Fiji 2.0 aus...leider

Welche Verzögerung?
Vega FE wurde im Q1 releases. RX Vega mit gaming optimierten Treiber klar zur Siggraph angekündigt. Wesentliche Features sind geschützt ohne die compute Leistung zu beeinflussen.
Fiji 2.0 hätte man viel schneller rausbringen können.
Dass Vega eine Fiji entspricht ist falsch, sie ist aber vollkommen abwärtskompatibel. Hier zeigt sich das Konzept von AMD für Spieleentwickler, die für Konsolen optimieren. Die Konsolen haben noch die ältere Arch.

Allein ein Blick auf die Shadergröße sagt schön dass diese Behauptung nicht sein kann.

Raff
2017-07-12, 12:07:36
Es hat einfach zu lange gedauert. Vor einem Jahr wäre diese Grafikkarte ohne Zweifel stark gewesen.

MfG,
Raff

iuno
2017-07-12, 12:11:15
VP9 wird Nische bleiben. Uncool, dass AMD da entweder geschlafen hat oder gleich gar nicht mitmacht... oder es auf Software-Seite nicht hinbekommt? aber es wird verschmerzbar sein, solange sie AV1 zeitnah unterstützen können.
Vergessen wurde es schonmal nicht, mitmachen wollte man wohl doch auch irgendwie noch:
https://pics.computerbase.de/7/3/0/7/2/43-1080.649446517.png

aber es wird verschmerzbar sein, solange sie AV1 zeitnah unterstützen können.
Was fraglich bleibt. Selbst wenn ist AV1 ja nichtmal fertig, kommt dann vielleicht fruehestens nach Navi? Bis dahin ist man schon mal wieder hinterher.
Zumal es ja keine Verschwendung ist, VP9 zu haben und von dort aus auf AV1 zu gehen, weil sie sich aehneln. Oder wird diese IP komplett eingekauft?


+1 für Vega Nano
Soweit ich weiss hat doch Mr Koudri(?) diese angekündigt?

Like Fiji Vega will excel in small form factors etc due to HBM2 advantages
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqn3si/

Das heisst aber nicht zwingend, dass es eine Nano von AMD gibt. Womoeglich baut ein Boardpartner halt eine.

Ich hätte grundsätzlich nichts dagegen. Dann aber bitte nicht wieder mit einem einzelnen 92mm Lüfter. Das ist mir einfach zu laut. Zwei 92-er Lüfter, ~180W TDP und die Sache ist geritzt.

Dass es super funktionieren kann, hat Igor doch gezeigt: http://www.tomshardware.de/amd-radeon-r9-nano-modding-silent-umbau,testberichte-241932.html

Aber auch standardmaessig war sie schon nicht laut, fuer den Formfaktor bei der Leistung sowieso nicht. Die Karte war nur 15 cm lang, da bekommt man gar keine zwei Luefter unter und es hat schon auch den Charme der Karte ausgemacht. Mit 2*92mm bist du schon wieder fast auf 20cm

dildo4u
2017-07-12, 12:15:25
Es hat einfach zu lange gedauert. Vor einem Jahr wäre diese Grafikkarte ohne Zweifel stark gewesen.

MfG,
Raff
Ebend sie wäre 2016 Killer gewesen als Nvidia nur eine 700€ 1080 und Titan X im Markt hatte.Jetzt werden sie "dank" des Minings nicht mal für vernünftige Preise kommen.

Adam D.
2017-07-12, 12:34:55
Ebend sie wäre 2016 Killer gewesen als Nvidia nur eine 700€ 1080 und Titan X im Markt hatte.Jetzt werden sie "dank" des Minings nicht mal für vernünftige Preise kommen.
Exakt auch mein Problem: kein Gamer kauft aktuell 'ne Grafikkarte bei der Marktsituation. Ich freu mich zwar, wenn AMD beim Launch die Katze aus dem Sack lässt, aber einen wirklichen Mehrwert zum Angebot der Konkurrenz wird es kaum geben (außer sie gehen hart über den Preis, was aber wegen HBM schwer möglich sein wird), das ist dann für Mitte 2017 einfach meh.

Pirx
2017-07-12, 12:38:06
Exakt auch mein Problem: kein Gamer kauft aktuell 'ne Grafikkarte bei der Marktsituation. Ich freu mich zwar, wenn AMD beim Launch die Katze aus dem Sack lässt, aber einen wirklichen Mehrwert zum Angebot der Konkurrenz wird es kaum geben (außer sie gehen hart über den Preis, was aber wegen HBM schwer möglich sein wird), das ist dann für Mitte 2017 einfach meh.
schon allein Freesync...

Piefkee
2017-07-12, 12:51:02
Welche Verzögerung?
Vega FE wurde im Q1 releases. RX Vega mit gaming optimierten Treiber klar zur Siggraph angekündigt. Wesentliche Features sind geschützt ohne die compute Leistung zu beeinflussen.
Fiji 2.0 hätte man viel schneller rausbringen können.
Dass Vega eine Fiji entspricht ist falsch, sie ist aber vollkommen abwärtskompatibel. Hier zeigt sich das Konzept von AMD für Spieleentwickler, die für Konsolen optimieren. Die Konsolen haben noch die ältere Arch.

Allein ein Blick auf die Shadergröße sagt schön dass diese Behauptung nicht sein kann.

Ok dann lass ich jetzt mal die Spekulationen mit der Verzögerung. Aber wenn mir doch bitte einen positiven Punkt in Bezug auf das was wir jetzt seit Hawaii im Bezug auf High-End Gaming von AMD gesehen haben?

Ich bin großer AMD Fan aber das was jetzt alles gezeigt wurde ist schlicht einfach schlecht und wäre vor einen Jahr gerade noch befriedigend. An einen Wundertreiber glauben doch wirklich nur totalen Fanboys...

Und ich stelle jetzt mal noch die Frage in den Raum warum AMD nochmal eine Karte mit AIO bringt...sollte jeder verstehen warum..

Duplex
2017-07-12, 12:54:34
Im GPU Bereich hat AMD aktuell keine interessante Architektur, das reicht nicht gegen Nvidia.

Erbsenkönig
2017-07-12, 13:05:23
Mir würde es als potentieller Käufer ja schon reichen, wenn man einen billigeren Konkurrenten zu 1070/1080 präsentieren würde. Ob man das aber nicht schon letztes Jahr hätte tun sollen, ist natürlich eine berechtigte Frage.

Piefkee
2017-07-12, 13:07:15
Im GPU Bereich hat AMD aktuell keine interessante Architektur, das reicht nicht gegen Nvidia.


Die Leistungsfähigkeit von GCN ist im bezug auf NV begrenzt ja.

Aber für AMD ist GCN im Hinblick auf Kosten ziemlich gut. Der HW-Scheduler ermöglicht die Treiberanpassungen für die Grafikkarten gering zu halten. Man muss bedenken in fast jeder Konsole steckt GCN. AMD hat nicht das Geld für alle Systeme zu optimieren.

Ich denke seit AMD mit Bulldozer ziemlich tief gefallen ist, sind die Ressourcen der GPU Entwicklung drastisch gesenkt worden. CPU>GPU :biggrin:

dargo
2017-07-12, 13:11:32
Dass es super funktionieren kann, hat Igor doch gezeigt: http://www.tomshardware.de/amd-radeon-r9-nano-modding-silent-umbau,testberichte-241932.html

Aber auch standardmaessig war sie schon nicht laut, fuer den Formfaktor bei der Leistung sowieso nicht. Die Karte war nur 15 cm lang, da bekommt man gar keine zwei Luefter unter und es hat schon auch den Charme der Karte ausgemacht. Mit 2*92mm bist du schon wieder fast auf 20cm
2750 RPM ist weit von dem entfernt was ich als angenehm empfinde. Die paar cm mehr stören mich nicht, ich habe genug Platz im Gehäuse. Von mir aus kann der Kühler gerne über das PCB hinausragen. Das kam bei der Tri-X auch ganz gut an mit dem letzten Lüfter der da zum großen Teil frei war. Umbau ist ja ganz nett, aber warum nicht gleich so? An den zusätzlichen ~10€ in der Preisklasse kann es ja kaum scheitern.

PS: 20cm wären sogar noch verdammt kompakt.

Dural
2017-07-12, 13:13:30
Ist doch logisch, weil man einen chip hat der es locker mit einem gp102 mit 250watt aufnehmen kann, da haut amd halt mit absicht noch mal 100w inkl. Wakü drauf, alles andere wäre ja schwachsinn :D ;)

Screemer
2017-07-12, 13:13:47
Mir würde es als potentieller Käufer ja schon reichen, wenn man einen billigeren Konkurrenten zu 1070/1080 präsentieren würde. Ob man das aber nicht schon letztes Jahr hätte tun sollen, ist natürlich eine berechtigte Frage.

Wieviel günstiger als ~350€ (gestern für die palit Jetstream) für ne 1070 sollen denn Vega mit massiv größerem chip und teurem hbm werden? Die Karten müssen alle vor der 1080 landen um preislich für AMD überhaupt rentabel zu sein. Nach unten fehlt da imho ein kleiner aber leistungsstarker chip wie gp104.

Cyphermaster
2017-07-12, 13:14:29
An einen Wundertreiber glauben doch wirklich nur totalen Fanboys...Es ist kaum als "Wunder" zu bezeichnen, geplante und in Hardware vorhandene (zugesicherte) Dinge wie DSBR schlicht in einer neuen Treiberversion zu aktivieren. Eine prinzipielle Verbesserung treiberseitig wird es also mit größter Wahrscheinlichkeit geben.

Fanboytum bzw. "Wundertreiber" würden erst da beginnen, wo die individuelle Erwartungshaltung jedes technisch realistische Level an Verbesserung übersteigt. Also nach dem Treiberupdate etwas zu haben wie eine 100W-Karte mit verdoppelter Leistung, die nebenher Kaffee kocht.

Erbsenkönig
2017-07-12, 13:19:35
Wieviel günstiger als ~350€ (gestern für die palit Jetstream) für ne 1070 sollen denn Vega mit massiv größerem chip und teurem hbm werden? Die Karten müssen alle vor der 1080 landen um preislich für AMD überhaupt rentabel zu sein. Nach unten fehlt da imho ein kleiner aber leistungsstarker chip wie gp104.

500 €? Keine Ahnung was für AMD überhaupt noch rentable wäre.:confused:

Ich meinte das auch nicht als generelle "Richtungsvorgabe", sondern etwas, was ich mir als Käufer erhoffe. Da ich mir schon mit dem Hoffen auf die RX480 die Finger verbrannt habe, warte ich aber mal ruhig ab.

Piefkee
2017-07-12, 13:20:17
Es ist kaum als "Wunder" zu bezeichnen, geplante und in Hardware vorhandene (zugesicherte) Dinge wie DSBR schlicht in einer neuen Treiberversion zu aktivieren. Eine prinzipielle Verbesserung treiberseitig wird es also mit größter Wahrscheinlichkeit geben.

Fanboytum bzw. "Wundertreiber" würden erst da beginnen, wo die individuelle Erwartungshaltung jedes technisch realistische Level an Verbesserung übersteigt. Also nach dem Treiberupdate etwas zu haben wie eine 100W-Karte mit verdoppelter Leistung, die nebenher Kaffee kocht.

Sicherlich, dass meinte ich damit auch nicht. Was ich damit meinte ist einfach, dass einige sich durch den Treiber Leistungssprünge in Richtung der Txp erwarten. :wink:

Cyphermaster
2017-07-12, 13:32:58
Sicherlich, dass meinte ich damit auch nicht. Was ich damit meinte ist einfach, dass einige sich durch den Treiber Leistungssprünge in Richtung der Txp erwarten. :wink:
Klang halt nur so, weil du auf "das jetzt Gezeigte" referenziert hattest. Wieviel DSBR usw. realistisch bringen können, ist zumindest als grober Rahmen ja bekannt.

Interessanter als der Treiber ist -für mich- mittlerweile sowieso eher, ob bei den FE wirklich auch irgendwas in Hardware noch "Beta" war/ist. Schließlich bedingt die Hardware, wieviel die Software maximal noch rausholen kann. ;)

X-Bow
2017-07-12, 13:38:57
Was meint Ihr was für ein Killer die Vega 2010 gewesen ware :-O...

Jetzt mal ernsthaft, diese Hypothesen "was wäre gewesen" sind doch total irrelevant. AMD bring eben erst 2017 ein Konkurrenz zur 1070; 1080 (Ti und Titan?!?). Besser als wenn es nie ein Konkurrenzprodukt geben würde.
Gerade weg FreeSync könnte es schon einige interessieren. Auch rüstet nicht jeder auf wenn nVidia ein neue Grafkartengeneration auf den Markt wirft.

Zu Leonidas's Spekulation bezüglich extra zurückhalten von Leistung gäbe es aus meiner Sicht nur einen Grund: Marketing.
Den Gedanke kann man jetzt in zwei Richtungen weiterführen über den Grund.
Negativ: Sie versuchen sich Zeit zu erkaufen um potenzielle Kunden von der Konkurrenz abzuhalten.
Positiv: Sie haben die Leistung und versuchen damit einen Marketingclou. Der könnte auch durchaus funktionieren, gewisse Leistung vorausgesetzt. Wenn man damit dann nur knapp unter einer Ti mit der Brechstange rauskommt, dann geht der Schuss nach hinten los. Sollte aber tatsächlich so viel Performance brach liegen, dass man Pascal tatsächlich nicht mehr als Konkurrenz sieht und nVidia dann mit Volta kontern müsste, dann kann AMD auf den Monat schlechte Presse sogar ganz gut verzichten, sie wäre sogar hilfreich weil dann die Erwartungen niederer wären und der Paukenschlag umso größer und Werbewirksamer.

scully1234
2017-07-12, 13:42:34
500 €? Keine Ahnung was für AMD überhaupt noch rentable wäre.:confused:
.

Das siehst du an der Fury/Nano und deren Preisgefüge ,wo die Schmerzgrenze ist für solch einen HBM bestückten Chip

Erbsenkönig
2017-07-12, 13:44:58
Das siehst du an der Fury/Nano und deren Preisgefüge ,wo die Schmerzgrenze ist für solch einen HBM bestückten Chip

Billig waren die damals ja auch nicht, stimmt.

Falls aber die Leistung nicht stimmt und sie in diesem Fall auch nicht über den Preis gegensteuern, wird das ein Fiasko für AMD.

horn 12
2017-07-12, 13:45:36
Vega XL zwischen GTX 1080 und 1080 TI
Vega XT = GTX 1080 TI plus 10%
Vega XTX = GTX 1080TI plus um die 20%

Preislich 349 - 499 und 749 Euro
Wie realistisch ist dies schlussendlich @Format C

Somit hätte man Volta Preislich und Performance mässig sowas von ausgespielt.
Träumen kann man ja noch, Realistisch könnte es aber doch werden, wenn die Treiber echt die 30 bis 50% Mehrperformance bringen.

iuno
2017-07-12, 13:47:01
2750 RPM ist weit von dem entfernt was ich als angenehm empfinde. Die paar cm mehr stören mich nicht, ich habe genug Platz im Gehäuse. Von mir aus kann der Kühler gerne über das PCB hinausragen. Das kam bei der Tri-X auch ganz gut an mit dem letzten Lüfter der da zum großen Teil frei war.

Klar, sie ist nicht super silent, aber im Vergleich immer noch recht leise:

https://i.imgur.com/5s5ZSo1.png
https://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/7/

Das was du willst, ist dann halt keine "Nano" mehr. Aber sicher wird es fuer dich auch customs geben, die leise sind, es gab ja auch leise Furien.

Umbau ist ja ganz nett, aber warum nicht gleich so? An den zusätzlichen ~10€ in der Preisklasse kann es ja kaum scheitern.
Das meinte ich ja, prinzipiell geht es schon mit 1*92mm.

deekey777
2017-07-12, 14:53:47
Was weiß man eigentlich über die Video-Funktionalität?
Laut Phoronix hat AMD wohl immer noch rein gar nichts bez. VP9 submitted.
Glaube nicht, dass da bzgl. VP9 noch was kommt :( Zur Architektur-Preview gab es kein Wort dazu, in den Patches nicht und bei der FE auch nicht, obwohl es fuer (semi-)Profis sicherlich auch interessant sein kann.
Funktioniert die VP9-Beschleunigung auf Polaris-GPUs?

dargo
2017-07-12, 15:04:28
Das siehst du an der Fury/Nano und deren Preisgefüge ,wo die Schmerzgrenze ist für solch einen HBM bestückten Chip
Da siehst du gar nichts dran. Erstens war Fiji ~120mm² größer. Zweitens hatte er vier Stacks. Und drittens ist AMD bei HBM2 nicht der einzige.

Edit:
Viertens gibts es bei Vega V10 noch andere Märkte wie man bei Vega FE und demnächst Mi25 sieht. Da holt man sich die hohen Margen. Fiji war nur Gaming, außer vielleicht Radeon Pro Duo.

scully1234
2017-07-12, 15:08:47
Da siehst du gar nichts dran. Erstens war Fiji ~120mm² größer. Zweitens hatte er vier Stacks. Und drittens ist AMD bei HBM2 nicht der einzige.

relativieren kannst du in zwei Wochen ,von Luft und Liebe bezahlt man kein R&D , die aufwändigere Speicherbestückung, als auch den großen Core:wink:

Die Karte wird gewiss nicht zum Nulltarif eingeführt, es sei denn man sieht keine andere Chance

dargo
2017-07-12, 15:11:29
relativieren kannst du in zwei Wochen ,von Luft und Liebe bezahlt man kein R&D , die aufwändigere Speicherbestückung, als auch den großen Core:wink:

Dann muss wohl AMD zaubern können, siehe Ryzen. :rolleyes:


Die Karte wird gewiss nicht zum Nulltarif eingeführt, es sei denn man sieht keine andere Chance
Immer wieder interessant sowas von jemanden zu lesen der absolut Null Ahnung hat was Vega AMD tatsächlich kostet.

scully1234
2017-07-12, 15:12:58
orientier dich an der Frontier, dann hast du deine Antwort

dargo
2017-07-12, 15:13:48
Du redest Bullshit. Du orientierst dich wahrscheinlich auch an der Titan XP was GP102 kostet. :rolleyes:

grauenvoll
2017-07-12, 15:14:15
Zu Leonidas's Spekulation bezüglich extra zurückhalten von Leistung gäbe es aus meiner Sicht nur einen Grund: Marketing.


Das reicht doch schon. Wenn man mit der FE schon alle Karten auf den Tisch legt, hätte man sich die Veranstaltung an Juli sparen können.

Ich schließe mich Leos Spekulation an und glaube auch, dass der aktuelle Stand gewollt ist. Man will die Karten noch nicht auf den Tisch legen, deshalb kommentiert man auch die Spieleleistung nicht.

scully1234
2017-07-12, 15:15:44
Du redest Bullshit.


ah dein Lieblingswort wenn du sonst nicht weiter kommst;)


Immer wieder interessant sowas von jemanden zu lesen der absolut Null Ahnung hat was Vega AMD tatsächlich kostet.

Dann lasse andere teilhaben an deiner Weisheit ,und unterminiere nicht anders Leute Einschätzung ,mit deinem Bullshit Bingo

mmmh wie wäre das??
Du orientierst dich wahrscheinlich auch an der Titan XP was GP102 kostet. :rolleyes:

ganz gewiss tue ich das sogar ,denn die Frontier ist Copy/Paste in jeder Hinsicht, falls dir das noch nicht aufgefallen sein sollte.
Also stell dich bei der RX mal lieber auf Preise in der Region über 500Euro ein, so wie das bei der Ti auch der Fall ist

aufkrawall
2017-07-12, 15:16:29
Funktioniert die VP9-Beschleunigung auf Polaris-GPUs?
Nur per Hybrid und es ist afair so, dass es nur für Chrome freigeschaltet ist und nicht per DXVA generell. Für Linux gibts da, wie iuno ja schon raugestellt hat, nichts von AMD.
Würd mich aber nicht wundern, wenn es auch unter Windows mit Chrome nicht wirklich zuverlässig funktioniert. Hybrid ist auch einfach richtig kacke, das zieht dir den Notebook-Akku deutlich schneller leer als nativ.

dargo
2017-07-12, 15:30:08
Dann lasse andere teilhaben an deiner Weisheit ,und unterminiere nicht anders Leute Einschätzung ,mit deinem Bullshit Bingo

Ich habe nirgendwo gesagt ich würde die Produktionskosten kennen. Und eben aus diesem Grund halte ich mich mit solchen hirnrissigen Prognosen/Bemerkungen wie von dir zurück. Und selbst wenn ich es wissen würde wärst du der letzte der das von mir erfährt. Nur um meinen Spaß zu haben.


Also stell dich bei der RX mal lieber auf Preise in der Region über 500Euro ein, so wie das bei der Ti auch der Fall ist
Du bist zu langsam.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11427050&postcount=641

G3cko
2017-07-12, 15:53:31
Eine GTX460 gab's mal für 200€. Und das war auch ein popeliger GF104 mit 330mm2. Also quasi eine GTX1080... Meine 7970 hat nach einem 3/4 Jahr 40nm 330€ gekostet. (365mm2).

Wird also Zeit, dass die Preise purzeln.

N0rG
2017-07-12, 16:08:40
Eine GTX460 gab's mal für 200€. Und das war auch ein popeliger GF104 mit 330mm2. Also quasi eine GTX1080... Meine 7970 hat nach einem 3/4 Jahr 40nm 330€ gekostet. (365mm2).

Wird also Zeit, dass die Preise purzeln.

Da lag der Euro aber auch noch bei 1,35$ oder so. Sofern bei Vega die Leistung passt wird wird die auch über 600€ Kosten denke ich. Und wenn Vega die 1080ti nicht klar schlägt wird NV nicht im Traum daran denken die Preise zu senken.

Hübie
2017-07-12, 16:09:25
Tahiti war schon immer in 28 nm gefertigt. ;) Das die Preise purzeln wird so schnell nicht passieren. Die Kosten pro Transistor steigen überproportional und die Anzahl der Transistoren (behaupte ich mal pi*Auge) umgekehrt proportional zum Flächengewinn. Wäre natürlich schön; gar keine Frage. :smile:

Leonidas
2017-07-12, 16:15:16
Das mit sinkenden Grafikkarten-Preisen werden wir wohl nicht mehr sehen. Selbst wenn der Euro nochmal besser zum Dollar stehen sollte - das wird dann durch immer teurere Fertigungsverfahren aufgefressen. Kurzfristig kann es da immer mal einen Ausbruch geben, aber der langfristige Trend ist vorgezeichnet durch die zugrundeliegende Technik.

Entropy
2017-07-12, 16:55:33
Das mit sinkenden Grafikkarten-Preisen werden wir wohl nicht mehr sehen. Selbst wenn der Euro nochmal besser zum Dollar stehen sollte - das wird dann durch immer teurere Fertigungsverfahren aufgefressen. Kurzfristig kann es da immer mal einen Ausbruch geben, aber der langfristige Trend ist vorgezeichnet durch die zugrundeliegende Technik.
Das kommt drauf an was du als Referenz siehst. Während z.B. Intel ohne Konkurenz eine ruhige Kugel schiebt, versucht NVidia wirklich alles um jeden Markt best möglich abzudecken, die haben quasi sich selbst als Konkurenz. Deswegen gibt es alle Zeit wieder eine GTX*80 die Titan Leistung vom Vorjahr bietet und ein Jahr später eine Titan mit 50%+ und im Anschluss Ti mit Titan Leistung und Preis einer GTX*80. Das ist deren Tick-Tock:
Selbe Leistung für 50% weniger, 50% mehr Leistung zum Premiumpreis.

Vielleicht werden die neuen Fertigungsverfahren immer teurer, aber das wird niemanden davon abhalten den ganzen Markt melken zu wollen. Wie bei RyZen, so will auch NVidia vielleicht modulare GPUs zusammenstecken: https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discusses-Multi-Die-GPUs
Das kann viele Vorteile beim Preis, Kühlung als auch bei möglicher Spitzenleistung haben.

Vielleicht ist der magische Memory Controller von Vega auch ein Schritt zum Modularen, denn damit kann jedes Modul theoretisch die gerade wichtigen Daten halten, ohne wie bei CrossFire komplett alle Daten zu spiegeln, es reicht ja wenn die Daten von irgendeinem anderen Modul gehalten werden. Fast wie beim L3-CCX, nur im GB Bereich.

Berkeley
2017-07-12, 17:08:14
Vega XL zwischen GTX 1080 und 1080 TI
Vega XT = GTX 1080 TI plus 10%
Vega XTX = GTX 1080TI plus um die 20%

Preislich 349 - 499 und 749 Euro
Wie realistisch ist dies schlussendlich @Format C...
Ist das ironisch oder ernst gemeint?

Also wenn durch Treiberverbesserungen etc. eine VEGA XL etwa so schnell (oder etwas drunter) wie eine 1080_OC (ca. 210W) wird und um die 240W verbrennt und dazu noch für etwa 399€ zu haben wäre, dann würde ich das schon als "sehr" konkurrenzfähig ansehen. Man muss auch irgendwo realistisch bleiben. Aber evtl. kann AMD zaubern... wer weiß.

Auf 30-50W Mehrverbrauch käme es mir persönlich nicht an (wobei evtl. Undervolting hilft) und momentan muss man allein für die 1070 schon um die 460€ (480€ lieferbar) zahlen.

Eine VEGA XL auf 1070_OC Niveau mit 280W Verbrauch für 399€ wäre immer noch P/L-mäßig gut, jedoch als Gesamtpaket nicht mehr so attraktiv.

AtTheDriveIn
2017-07-12, 19:09:08
Das es eine XTX geben wird, zeigt das Vega XT nicht an die TI herankommenn wird. Es wird also keinen Wunderteiber geben der 20 bis 30% bringt.

vinacis_vivids
2017-07-12, 19:11:48
Unlogisch.
XT und XTX sind nur eine Bezeichnung.

Piefkee
2017-07-12, 19:26:48
Erklärung von NerdtechGasm zur Vega FE Gaming Performance...


I was going to do a video on it, but there's really no point since it's obvious to all something is very wrong with Vega FE's drivers. If it's not utilizing the new architecture features, and opts to fall-back modes, Vega is just an overclocked Fury X with less bandwidth.

I've said in my other Vega videos that the biggest risk with Vega is actually drivers. Any major change in architecture brings with it a lot of work for the driver team to ensure all the prior apps and games run well on it. The driver stack is full of optimizations that are app/game specific and it has to be redone for them all or the features remain non-useful. No small task as you can imagine.

To me, seeing AMD's development of MIOpen, ROCm, HIP and their Machine Intelligence framework support and OpenCL port, they have done tremendous amount of software work in a short period of time. In the past, AMD's HPC GPU software was lacking, but they kept up with gaming optimizations okay (though GCN remained similar). Now it seems like they shifted their focus to server/HPC and this came at a bad time with a major new & different GPU architecture and gaming suffers as a consequence.

AMD needs more investment, a bigger software team if they want to do both well like NV. But unfortunately they were downsized over the years due to the failing CPU business. It seems that they lack the resources to remain competitive in both gaming & HPC so they prioritized on pro apps for Vega FE. Looking at PCPER's pro app benchmarks, it is exactly that, Vega FE puts out respectable performance in all the tests, whereas Fury Pro was pretty weak and even total failed. It showed AMD takes the pro side of things very seriously. Even Titan Xp was hit & miss, which shows how important an optimized driver stack is.

Hopefully the profits from Ryzen, Threadripper & EPYC will boost AMD's R&D resources so they can be more competitive moving forward but there's not much chance of RX Vega being competitive on launch to the 1080Ti. They have a month to improve their gaming drivers in a select list of commonly benchmarked games, and it could happen, but it definitely is a case of biting off more than their small software team could chew.

vinacis_vivids
2017-07-12, 19:31:20
AMD sagte schon vor einem halben Jahr, dass Treiberarbeit den höchsten Aufwand fordert.

Erbsenkönig
2017-07-12, 19:32:04
Sollte aber der Vega RX Treiber nicht nahezu identisch sein? Oder gibt es so große Unterschiede, wenn eine Grafikkarte eher für den professionellen Einsatz gedacht ist?

Piefkee
2017-07-12, 19:37:10
Sollte aber der Vega RX Treiber nicht nahezu identisch sein? Oder gibt es so große Unterschiede, wenn eine Grafikkarte eher für den professionellen Einsatz gedacht ist?

Kann dir nur das Video empfehlen, eigentlich alle in seinen Channel. Video ist sehr lange und extrem technisch.


https://www.youtube.com/watch?v=m5EFbIhslKU&t=4s

AtTheDriveIn
2017-07-12, 19:43:52
Unlogisch.
XT und XTX sind nur eine Bezeichnung.

Nein, eine XTX mit 375w und Wasserkühlung ist ein Produkt, das weit jenseits von Sweep-spot betrieben wird. Wenn eine XT reichen würde, um TI zu schlagen, warum sollten sie überhaupt eine XTX bringen und sich Schläge bezüglich "Stromverbrauch" abholen?

Wenn es halbwegs gut läuft, wird die XT optimiert irgendwo oberhalb der GTX landen, aber nicht TI Niveau. VEGA FE ist von der Hardware (bis auf Speichergröße) wohl identisch mit XT und hat gezeigt wo es unoptimiert hingeht. FE +20-30% wäre ja alleine TI Konkurrenz, dann bräuchte es die XTX nicht.

vinacis_vivids
2017-07-12, 19:46:46
Vega XTX ~ 1080ti OC/Titan Xp

Die Luftgekühlte Vega macht 1700Mhz, vielleicht schaft die XTX auch 1750-1800Mhz. Das wären bis 14,7 tflops.

Piefkee
2017-07-12, 19:57:49
Vega XTX ~ 1080ti OC/Titan Xp

Die Luftgekühlte Vega macht 1700Mhz, vielleicht schaft die XTX auch 1750-1800Mhz. Das wären bis 14,7 tflops.


@1700Mhz-->400W :freak:
Update on @AMD #VEGA hybrid mod: 1700MHz/1100MHz seems stable. ~400W draw through PCIe cables, FETs under 65C, core at 49C (ambient 23C).

dosenfisch24
2017-07-12, 20:12:14
Vega XTX ~ 1080ti OC/Titan Xp

Die Luftgekühlte Vega macht 1700Mhz, vielleicht schaft die XTX auch 1750-1800Mhz. Das wären bis 14,7 tflops.

In welcher Traumwelt lebst du? Dreh den Lüfter der FE auf volle 4900RPM, erhöhe die Spannung auf maximal einstellbare 1.25V und freue dich, dass 1700 MHz trotzdem nicht stabil laufen. Beim Undervolting kann man feststellen, dass die Karte irgendwo jenseits der 1500MHz beginnt überproportional mehr Spannung zu benötigen. Bei mir liegt es beispielsweise zwischen 1550MHz und 1600MHz. Wenn ich den Beitrag von Raff lese, dass er 1075mV für 1600MHz benötigt, liegt dass ziemlich nahe an meinen 1085mV. Damit kann ich davon ausgehen, dass sich seine Karte bis auf 20-30MHz rum genau so verhalten wird.

dargo
2017-07-12, 20:25:51
FE +20-30% wäre ja alleine TI Konkurrenz, dann bräuchte es die XTX nicht.
Was ist das denn für eine absurde Logik? Also darf jetzt AMD niemals schneller als Nvidia sein?

Hübie
2017-07-12, 20:31:34
Kann dir nur das Video empfehlen, eigentlich alle in seinen Channel. Video ist sehr lange und extrem technisch.


https://www.youtube.com/watch?v=m5EFbIhslKU&t=4s

Hey, Danke! :up: Echt mal gut erklärt. Der Typ klingt nur leicht nasal. :biggrin:

Piefkee
2017-07-12, 20:32:30
Was ist das denn für eine absurde Logik? Also darf jetzt AMD niemals schneller als Nvidia sein?

Die Logik stimmt schon. Wenn Vega10 konkurrenzfähig in allen belangen zur Ti ist dann braucht es keine AIO-Lösung seits AMD. Darum können sich die Partner kümmern...

Piefkee
2017-07-12, 20:36:20
Hey, Danke! :up: Echt mal gut erklärt. Der Typ klingt nur leicht nasal. :biggrin:


Haha:biggrin::biggrin: Ja das stimmt. Aber er als GPU Software-Entwickler bringt einen ziemlich tief in die Materie:cool: Schade, dass er nicht mehr aufmerksamkeit bekommt. Verdienen tut er es auf jeden Fall :smile:

dosenfisch24
2017-07-12, 20:38:40
Der Lüfter der FE ist vllt. nicht potent genug. Ist ja für 300W ausgelegt.

Die Kühlung ist schon ganz vernünftig, wenn die Lautstärke egal ist. Wenn ich die Spannung bei 1600MHz auf 1,25V erhöhe, rennt er unter Superposition 4K bei 4900 RPM knapp ins +50% Power Limit (~81°C GPU bei ~23-24°C im Raum).

Setsul
2017-07-12, 20:41:04
Tahiti war schon immer in 28 nm gefertigt. ;) Das die Preise purzeln wird so schnell nicht passieren. Die Kosten pro Transistor steigen überproportional und die Anzahl der Transistoren (behaupte ich mal pi*Auge) umgekehrt proportional zum Flächengewinn. Wäre natürlich schön; gar keine Frage. :smile:
Ist so leider falsch.
Die Kosten pro Transistor steigen nicht. Sie sinken aber auch nicht mehr wirklich. Was im Vergleich zu früher (Kosten proportional zur Fläche) natürlich katastrophal ist.
Eine GPU mit sagen wir mal 300mm² wird also mit jeder Verdoppelung der Packdichte doppelt so teuer in der Herstellung, anstatt wie früher immer mehr oder weniger das gleiche zu kosten.
Momentan sind wir aber noch lange nicht soweit, dass es daran liegen würde wenn AMD oder nVidia solche GPUs nicht unter 400€ rausrücken wollen. Bei 16/14nm sind wir bei keinen 50€ in der Herstellung.

Es ist natürlich schwer für die Foundries das zu verkaufen und was sich nicht verkauft lohnt sich nicht zu entwickeln, also versuchen die doch noch den Preis pro Transistor zu drücken.
450mm wird ja nichts, deshalb weicht Intel auf "Hyperscaling" aus. Fläche aggressiver reduzieren, immer hart an der Grenze von was auch immer man gerade einführt (double/quad patterning usw.) damit man dann eben doch eine Kostenreduzierung hat am Ende. Man sieht was das mit den Yields macht, sowohl 14nm als auch 10nm haben enorme Anlaufschwierigkeiten, aber die Rechnung an sich geht auf. Wenn man auf dem Prozess grob geschätzt eine Milliarde Dies produziert, dann sind ein paar Prozent weniger Kosten pro Transistor genug um einige Milliarden Entwicklungskosten wieder mehr als auszugleichen. Den niedrigeren Stromverbrauch und höhere Taktraten gibt es dann quasi gratis dazu.

Es wird interessant was der Rest der Welt macht, aber wie gesagt der Druck zur Kostenreduzierung ist hoch. Dann noch die Möglichkeit mit mehreren Dies auf einem Interposer um Maskenkosten zu drücken und Yieldraten hochzutreiben. Wie das letztendlich abschneidet im Vergleich zu früher weiß ich nicht.
Sicher ist nur dass selbst der worst case (konstanter Preis pro Transistor) bei Weitem nicht an deine Theorie (überproportional also größer als der Schrumpfungsfaktor) herankommt, bei mehr als einer Vervierfachung der Kosten pro Fläche je Halbierung der Transistorgröße könnte sich das keiner leisten.

Hübie
2017-07-12, 20:45:14
Durch die grobe Abstufung bei Takt und anliegender Spannung, sind es zumindest um die 50W in manchen Bereichen.

Da ist auf jeden Fall noch was nicht richtig. Siehe PC-Per

https://www.pcper.com/image/view/83415?return=node%2F68028

Als die den Lüfter aufgedreht haben genehmigte die sich gut und gerne 280 Watt und mehr.
Hier ein Vergleich in RotTR DX12 (war auch bei mir ziemlicher Killer):

https://abload.de/thumb/verbrauch_vegac0s10.png (http://abload.de/image.php?img=verbrauch_vegac0s10.png)

Dagegen der Verbrauch von den 1080 Ti customs:

https://abload.de/thumb/verbrauch_gp102i7s22.png (http://abload.de/image.php?img=verbrauch_gp102i7s22.png)

Also status quo ist, dass es nicht gut für Vega in der Metrik Perf/Watt steht. Da brauchen wir nicht groß diskutieren. Das ist solider Durchschnitt. Das wird sich aber auf jeden Fall noch ändern. AMD tät gut daran nicht an die Kotzgrenze zu gehen. :wink:

Edit: @Setsul: Das ist mir aus einer der NV-Vorträge nur hängen geblieben. Dazu gibt es auch slides. Der Chip selber mag keine 50$ sein, aber zu eine Produkt gehört bedeutend mehr. Auch hier wird es nicht günstiger werden. Wobei ich mich gerade frage welche Chips du mit <50$ meinst (ALLE?) und ob nur den Die (also ohne Package).

StefanV
2017-07-12, 21:02:43
Wenn eine XT reichen würde, um TI zu schlagen, warum sollten sie überhaupt eine XTX bringen
Weil sie es können!

dargo
2017-07-12, 21:04:37
Da ist auf jeden Fall noch was nicht richtig. Siehe PC-Per

https://www.pcper.com/image/view/83415?return=node%2F68028

Als die den Lüfter aufgedreht haben genehmigte die sich gut und gerne 280 Watt und mehr.
Hier ein Vergleich in RotTR DX12 (war auch bei mir ziemlicher Killer):

https://abload.de/thumb/verbrauch_vegac0s10.png (http://abload.de/image.php?img=verbrauch_vegac0s10.png)

Das Thema hatten wir schon. Mit Defaultsettings läuft Vega FE ins TT. Mit aufgedrehten Lüfter eben ins PT. Im Schnitt ohne ins TT zu laufen verbraucht Vega FE ca. 290W.

Edit:
Bei der PCGH liegt VEGA FE bei "nur" 259W in Anno/Witcher @4k.
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/

Ich vermute aber, dass auch hier die Karte ins TT läuft. Vielleicht kann Raff was dazu sagen?

Rincewind
2017-07-12, 21:05:35
Die Logik stimmt schon. Wenn Vega10 konkurrenzfähig in allen belangen zur Ti ist dann braucht es keine AIO-Lösung seits AMD. Darum können sich die Partner kümmern...

Werden die Partner bestimmt auch machen, aber warum darf das AMD nicht?

Piefkee
2017-07-12, 21:10:09
Werden die Partner bestimmt auch machen, aber warum darf das AMD nicht?

Die Frage ist doch nicht warum sie es nicht dürfen?

Die Frage ist warum sie es denn überhaupt machen? Weil Fury-X mit dem Wasserkühler so ein rießiger Hit war?;D;D

Hübie
2017-07-12, 21:11:10
@Setsul: Um das noch mal kurz aufzugreifen: Da hat mein Gedächtnis mich getrübt. Die Kosten pro Transistor sind, wie du schon richtig gesagt hast, etwas geringer bzw. konstant. Es ging mir um diese Zahlen:

https://www.extremetech.com/computing/123529-nvidia-deeply-unhappy-with-tsmc-claims-22nm-essentially-worthless

Hab es damals als Vortrag mitbekommen. Die ersten 28-nm-Wafer (Kepler) kosteten NV ca. 19k $ :freak:

Wie läuft das eigentlich bei AMD ab? Zahlen die pro Die der funktioniert oder pro Wafer der belichtet wurde sobald auch nur ein Die davon funktioniert?

vinacis_vivids
2017-07-12, 21:13:56
Die Frage ist doch nicht warum sie es nicht dürfen?

Die Frage ist warum sie es denn überhaupt machen? Weil Fury-X mit dem Wasserkühler so ein rießiger Hit war?;D;D

Ich verstehe deine Polemik nicht. Wenn man die 375W ansetzt, dann braucht man einen guten Kühler.

Gipsel
2017-07-12, 21:14:17
Wie läuft das eigentlich bei AMD ab? Zahlen die pro Die der funktioniert oder pro Wafer der belichtet wurde sobald auch nur ein Die davon funktioniert?Die Verträge sind nicht öffentlich, aber typischerweise teilt man sich das Risiko über entsprechende Preismodelle. Die Antwort lautet also: weder noch.

@all:
Bitte laßt den OT-Kram sein!

Piefkee
2017-07-12, 21:27:31
Ich verstehe deine Polemik nicht. Wenn man die 375W ansetzt, dann braucht man einen guten Kühler.



Es geht doch nicht um Kühlung von 375W! Es geht darum, warum AMD eine OC-Karte überhaupt selber bringt! Vega per Luft gekühlt reicht nicht für den längsten Balken. Daher meine Zweifel an der Performance.

Sollte Vega10 wirklich richtig gut werden. Was würde AMD den machen?
Den Chip im Sweep-Spot laufen lassen, per Luftkühlung. Die Reviewer würden den super Performance und Verbrauch loben und keine Sau würde sich für den extrem gestiegenen Verbrauch von den OC-Partnerkarten kümmern. Siehe 1080Ti FE vs 1080Ti OC Partner.

Sollte Vega10 aber nicht so gut sein. Was kann AMD für den Release machen? Richtig man bringt eine OC-Karte (XTX). Dann hat man zwar einen längeren Balken bei der Performance dafür aber auch erheblich größern Verbrauch...

JustMy2Cents:cool:

vinacis_vivids
2017-07-12, 21:30:56
Die Kühlung ist schon ganz vernünftig, wenn die Lautstärke egal ist. Wenn ich die Spannung bei 1600MHz auf 1,25V erhöhe, rennt er unter Superposition 4K bei 4900 RPM knapp ins +50% Power Limit (~81°C GPU bei ~23-24°C im Raum).

81°C ist vielleicht zu heiß weil es hinten dann meistens noch heißer ist.
4900 RPM brauchst du schon Gehörschutz.

Ein besserer Lükü bringt die Karte sicher runter auf 60-65°C, dann ist auch mehr Potential drinn.

1650Mhz mal probiert?

Es geht doch nicht um Kühlung von 375W! Es geht darum, warum AMD eine OC-Karte überhaupt selber bringt! Vega per Luft gekühlt reicht nicht für den längsten Balken. Daher meine Zweifel an der Performance.

AMD bringt bessere min fps., bessere Varianz , weniger drops und weniger Einbrüche in höheren Auflösungen.
low lvl API > 1080ti
high lvl API > 1080

Man wird Nvidia nicht überall von der Balkenlänge her schlagen können, muss man aber auch nicht.

AtTheDriveIn
2017-07-12, 21:32:25
Was ist das denn für eine absurde Logik? Also darf jetzt AMD niemals schneller als Nvidia sein?

Wo schreibe ich das denn? Die Kernfrage ist doch, wie weit AMD pushen muss, damit sie konkurrenzfähig sind. Eine Karte mit Monsterchip am Limit, 375W und Wasserkühlung ist sicher nicht billig in der Produktion und würde imho nicht kommen, wenn sie schon mit der XT die Ti deutlich in die Schranken verweisen würden. Nach dem Motto: Wir wollen die Leistungskrone und wir gehen ans Limit.

Erinnert leider alles stark an Fury X gegen 980Ti

btw: Geht mir die aggressive Art in diesem Thread auf den Sack.

Bucklew
2017-07-12, 21:39:29
Den Chip im Sweep-Spot laufen lassen, per Luftkühlung. Die Reviewer würden den super Performance und Verbrauch loben und keine Sau würde sich für den extrem gestiegenen Verbrauch von den OC-Partnerkarten kümmern.
Vega10 ist dann aber (leider) auf dem Niveau von GP104. Und müsste sich dann natürlich mit dessen Leistungsaufnahme rumschlagen.

iuno
2017-07-12, 21:40:34
HBM hat 2n Prefetch bei 128b/Channel, GDDR5 8n und GDDR5X 16n bei je 32b/channel. Insgesamt also 256 Bit fuer HBM und GDDR5X, 512 bei 5X.

Habe nochmal nachgeschaut. GCN hatte bisher 64 Byte grosse Cachelines, also das Doppelte von dem, was ein GDDR5 oder HBM Zugriff bringt. Koennte sein, dass sie auch mal auf 32 runter gehen um overfetch zu vermeiden?! Ich weiss nicht, wie problematisch das ist, aber NV hat auch nur 32B

https://pics.computerbase.de/7/6/2/4/6/8-1080.3292021564.png

basix
2017-07-12, 21:40:38
Wo schreibe ich das denn? Die Kernfrage ist doch, wie weit AMD pushen muss, damit sie konkurrenzfähig sind. Eine Karte mit Monsterchip am Limit, 375W und Wasserkühlung ist sicher nicht billig in der Produktion und würde imho nicht kommen, wenn sie schon mit der XT die Ti deutlich in die Schranken verweisen würden. Nach dem Motto: Wir wollen die Leistungskrone und wir gehen ans Limit.

Erinnert leider alles stark an Fury X gegen 980Ti


Grundsätzlich stimmige Argumente. Kann es aber nicht auch sein, dass man ein Ausrufezeichen setzen will? Mit knapp auf 1080 Ti Niveau erreicht man das nicht. Also dann lieber All-In. Mit dem aktuellen Portfolio wird man einfach nicht wirklich als Konkurrent auf Augenhöhe angesehen.

Und Volta ist auch nicht mehr ewig weit weg.

vinacis_vivids
2017-07-12, 21:41:30
Wo schreibe ich das denn? Die Kernfrage ist doch, wie weit AMD pushen muss, damit sie konkurrenzfähig sind. Eine Karte mit Monsterchip am Limit, 375W und Wasserkühlung ist sicher nicht billig in der Produktion und würde imho nicht kommen, wenn sie schon mit der XT die Ti deutlich in die Schranken verweisen würden. Nach dem Motto: Wir wollen die Leistungskrone und wir gehen ans Limit.

Erinnert leider alles stark an Fury X gegen 980Ti

btw: Geht mir die aggressive Art in diesem Thread auf den Sack.

Du schreibst aber jetzt auch nichts neues.
Warum soll AMD nicht konkurrenzfähig sein?
Mit Ryzen haben sie beim übermächtigen Gegner Intel auch tief getroffen.

dargo
2017-07-12, 21:42:45
Die Kernfrage ist doch, wie weit AMD pushen muss, damit sie konkurrenzfähig sind. Eine Karte mit Monsterchip am Limit, 375W und Wasserkühlung ist sicher nicht billig in der Produktion und würde imho nicht kommen, wenn sie schon mit der XT die Ti deutlich in die Schranken verweisen würden. Nach dem Motto: Wir wollen die Leistungskrone und wir gehen ans Limit.

Wir halten fest... RX Vega 10% langsamer als 1080TI = fail. RX Vega 20% schneller (oder was verstehst du unter "deutlich in die Schranken verweisen"? Vielleicht +30%?) = konkurrenzfähig. :freak: Und wer sagt, dass die AIO Unmengen mehr an Geld verschlingt als die fetten Kühler bsw. einer Custom 1080TI? Zumal die XTX mit AIO eh am teuersten verkauft wird, ich sehe da das Problem jetzt nicht.

vinacis_vivids
2017-07-12, 21:43:12
Vega10 ist dann aber (leider) auf dem Niveau von GP104. Und müsste sich dann natürlich mit dessen Leistungsaufnahme rumschlagen.


RX Vega ist gar nicht erschienen. Woher kennst du die Performance?

Rincewind
2017-07-12, 21:50:29
Die Frage ist doch nicht warum sie es nicht dürfen?

Die Frage ist warum sie es denn überhaupt machen? Weil Fury-X mit dem Wasserkühler so ein rießiger Hit war?;D;D

Abgesehen von vinacis_vivids Antwort finde ich es äußerst befremdlich, dass eine einfache Frage mit einer Gegenfrage beantwortet wird. Diesen Diskussionsstil mag ich nicht.
Es zwingt Dich keiner eine Karte von AMD zu kaufen, ein paar Wochen später wird es genug Alternativen der Partner geben, da kann sich dann jeder seine Karte nehmen/kaufen, die er möchte.

dosenfisch24
2017-07-12, 21:52:03
81°C ist vielleicht zu heiß weil es hinten dann meistens noch heißer ist.
4900 RPM brauchst du schon Gehörschutz.

Ein besserer Lükü bringt die Karte sicher runter auf 60-65°C, dann ist auch mehr Potential drinn.

1650Mhz mal probiert?

Bei +50% PT ist die Karte schon jenseits der 400W unterwegs und die Wärme muss auch noch aus dem Gehäuse raus wenn man keinen DHE Kühler verwendet. Das dürfte eine ziemliche Herausforderung sein das Gehäuse genug zu belüften, um dennoch die Karte unter 70°C zu bekommen.

1650MHz habe ich schon grob getestet. Die Karte braucht dabei schon über 1.2V. In dem Bereich ist sie entweder zu laut für den normalen Betrieb oder hält den Takt kaum, deshalb habe ich die exakte Spannung nicht weiter getestet (1.2V war instabil, ein Versuch mit 1.25V schien fürs erste zu laufen).

Am besten bewegt sich die Karte im Moment mit 1050mV bei 1552MHz. Bis zu diesem Punkt skaliert sie mit +75mv je 100MHz, ausgehend von 1252MHz bei 825mV.

Piefkee
2017-07-12, 22:09:10
Abgesehen von vinacis_vivids Antwort finde ich es äußerst befremdlich, dass eine einfache Frage mit einer Gegenfrage beantwortet wird. Diesen Diskussionsstil mag ich nicht.
Es zwingt Dich keiner eine Karte von AMD zu kaufen, ein paar Wochen später wird es genug Alternativen der Partner geben, da kann sich dann jeder seine Karte nehmen/kaufen, die er möchte.

Hey, da muss ich dir recht geben war nicht gut von mir...
Bei meinen Aussagen über die RX-Performance ging es mir nicht darum, dass AMD keine OC Wassergekühlte Karte bringen darf. Dürfen sie und können sie.

Ich selber bin AMD-Fan! R9 290x und Ryzen davor FX, Free-Sync-Moni etc..
Und ich hoffe das die Vega für AMD ein rießen Erfolg wird!

Ich lasse jetzt mal die komplette Treiber für RX und Gaming-Performance Debatte. Aber halten wir doch mal fest was wir bis jetzt von Vega-RX gesehen haben


- Tolle Präsentationen mit wirklich geilen Features
- Ziel 4k@60fps
--> Hypetrain
--> Wait, Wait, Wait...

Release Vega FE
--> Extremer Verbrauch
--> konkurrenzfähige Performance im Pro-Segement
--> Gaming zwischen 1070 und 1080

Dazu die möglichen XL, XT und XTX Varianten für RX.

Aus meiner Sicht ist bis jetzt keine wirklichen positiven Aspekte von Vega im Gaming Bereich zu sehen. Und der Verkauf einer OC-Wassergekühlten Karte untermauern die schlechten Vorzeichen, finde ich, noch weiter.

AtTheDriveIn
2017-07-12, 22:13:21
Wir halten fest... RX Vega 10% langsamer als 1080TI = fail. RX Vega 20% schneller (oder was verstehst du unter "deutlich in die Schranken verweisen"? Vielleicht +30%?) = konkurrenzfähig. :freak: Und wer sagt, dass die AIO Unmengen mehr an Geld verschlingt als die fetten Kühler bsw. einer Custom 1080TI? Zumal die XTX mit AIO eh am teuersten verkauft wird, ich sehe da das Problem jetzt nicht.

Keine Ahnung was du da liest oder womit du mir hier argumentativ einen Strick drehen willst, aber fahr deinen Adrenalinspiegel mal zurück.

Sobald man auf Dinge hindeutet, die weniger gut erscheinen für AMD, hast du Schaum vor dem Mund. Ähnlich nervig wie der Bashtrain von dildo

XT knapp unter TI Niveau wäre ein Fall, den ich mir unter den gegebenen Indikatoren sogar noch vorstellen kann und begrüßen würde. XTX dann nur für die Leistungskrone, wie damals die dual Karten.

[MK2]Mythos
2017-07-12, 22:15:27
Es gilt ja mittlerweile als erwiesen dass momentan noch wichtige Performance und Verbrauchsfeatures deaktiviert sind, das ist kein fanboy-Gelaber sondern durch mehrere recht objektive Quellen unabhängig voneinander erwiesen.
Dementsprechend kann man natürlich davon ausgehen dass die Gaming Vega Karten noch ne ordentliche Schippe drauflegen.
Davon abgesehen finde ich eine Vega@AiO Wasserkühlung überhaupt nicht problematisch. Meine Karte wird eh unter Wasser gesetzt und wenn man sich anguckt dass AiO's mittlerweile die absoluten Renner im Verkauf sind, trifft AMD damit nur den Zeitgeist.

Piefkee
2017-07-12, 22:17:28
AMD bringt bessere min fps., bessere Varianz , weniger drops und weniger Einbrüche in höheren Auflösungen.
low lvl API > 1080ti
high lvl API > 1080

Man wird Nvidia nicht überall von der Balkenlänge her schlagen können, muss man aber auch nicht.


Ich stimme dir in den oberen Punkten zu. Für den interessierten Leser im GPU/CPU Bereich spielen die Faktoren eine wesentliche Rolle. Aber die meisten Laien kaufen doch wer den längsten Balken hat und schaut nicht nach min. fps und drops etc...

decimad2
2017-07-12, 22:18:27
Man kann nicht "davon ausgehen" dass eine "ordentliche Schippe draufgelegt" werden kann. Aber diese Umstände geben zumindest Anlass, die Hoffnung darauf nicht zu begraben.

AtTheDriveIn
2017-07-12, 22:19:16
Mythos;11428777']Es gilt ja mittlerweile als erwiesen dass momentan noch wichtige Performance und Verbrauchsfeatures deaktiviert sind, das ist kein fanboy-Gelaber sondern durch mehrere recht objektive Quellen unabhängig voneinander erwiesen.
Dementsprechend kann man natürlich davon ausgehen dass die Gaming Vega Karten noch ne ordentliche Schippe drauflegen.
Davon abgesehen finde ich eine Vega@AiO Wasserkühlung überhaupt nicht problematisch. Meine Karte wird eh unter Wasser gesetzt und wenn man sich anguckt dass AiO's mittlerweile die absoluten Renner im Verkauf sind, trifft AMD damit nur den Zeitgeist.

Gegen AiO ist nichts einzuwenden. Aber 80w mehr Asic Power ist allerdings ein recht deutlicher Indikator, dass wir ein Produkt am Limit sehen werden.

decimad2
2017-07-12, 22:22:18
Letzten Endes wäre es sogar gut, wenn Vega sich mir nicht als rundes Paket darstellen wird, dann würde ich wenigstens nicht dazu genötigt, meine kostbare Lebenszeit zu verdaddeln :) Ist es sonderbar, statt AMD lieber gar nichts herzunehmen, wenn die einzige Alternative nVidia lautet? :)

Piefkee
2017-07-12, 22:24:53
Mythos;11428777']Es gilt ja mittlerweile als erwiesen dass momentan noch wichtige Performance und Verbrauchsfeatures deaktiviert sind, das ist kein fanboy-Gelaber sondern durch mehrere recht objektive Quellen unabhängig voneinander erwiesen.
Dementsprechend kann man natürlich davon ausgehen dass die Gaming Vega Karten noch ne ordentliche Schippe drauflegen.
Davon abgesehen finde ich eine Vega@AiO Wasserkühlung überhaupt nicht problematisch. Meine Karte wird eh unter Wasser gesetzt und wenn man sich anguckt dass AiO's mittlerweile die absoluten Renner im Verkauf sind, trifft AMD damit nur den Zeitgeist.


RX-Vega wird mit absoluter Sicherheit eine ordentliche Schippe drauflegen. Die Frage ist nur wann? Zum Release? Glaube ich nicht.

Und die Vega@AiO ist auch nicht problematisch. Problematisch finde ich es nur wenn AMD sie selbst anbietet und es nicht den AiB überlässt. Das hat finde ich einen faden Beigeschmack:rolleyes:

vinacis_vivids
2017-07-12, 22:38:41
Ich stimme dir in den oberen Punkten zu. Für den interessierten Leser im GPU/CPU Bereich spielen die Faktoren eine wesentliche Rolle. Aber die meisten Laien kaufen doch wer den längsten Balken hat und schaut nicht nach min. fps und drops etc...

AMD ist derzeit ohnehin ausverkauft. Ich mache mir da absolut keine Sorgen was die Verkäufe angeht.
RX Vega wird über Preis/Leistung kommen. "best bang for bucks" - wie schon beim Ryzen. Das wird dann auch schnell beim *Laien* ankommen.

RX Vega XL 399$
RX Vega XT 499$
RX Vega XTX 599-649$

Bei diesen Preisen wären die Karten sehr schnell vergriffen. Mal schauen wie gut die Ausbeute bei GloFo geworden ist.

basix
2017-07-12, 22:47:06
Ach die Pessimisten hier. RX Vega wird gut :D

Piefkee
2017-07-12, 23:01:21
AMD ist derzeit ohnehin ausverkauft. Ich mache mir da absolut keine Sorgen was die Verkäufe angeht.
RX Vega wird über Preis/Leistung kommen. "best bang for bucks" - wie schon beim Ryzen. Das wird dann auch schnell beim *Laien* ankommen.

RX Vega XL 399$
RX Vega XT 499$
RX Vega XTX 599-649$

Bei diesen Preisen wären die Karten sehr schnell vergriffen. Mal schauen wie gut die Ausbeute bei GloFo geworden ist.


Ich bin auf alle Fälle extrem auf Vega gespannt!
Trotzdem bleiben mir zweifel, die Features und dadurch auch die Performance hängt von den Treibern ab. Und die müssen zum Release auch funktionieren.
AMD treibt neue Technologie vorran, aber bei der Ausführung sind sie oft geschweitert. Hoffen wir also das beste für Vega:smile:

TheGood
2017-07-12, 23:08:53
Eine weitere Theorie könnte sein, dass sie Nvidia in ihrem Märchenschlaf nicht aufwecken wollen (sofern VEGA schneller ist), weil jede Minute in der NVidia weiss sie müssen mehr bieten ist ein Vorteil für sie.

Bucklew
2017-07-12, 23:17:29
RX Vega ist gar nicht erschienen. Woher kennst du die Performance?
Ist Vega10 auf der RX Vega ein anderer Chip als auf der Vega FE?

Die RX Vega wird das gleiche Problem plagen, wie der FE: Zu hohe Leistungsaufnahme und damit zu starke Drosselung des Taktes. AMD verspricht Leistungswerte bei einem völlig theoretischen Maximaltakt, der von der Standardkarte nie gehalten wird. Der reale Takt (= Benchmarkergebnis) liegt dann mal locker 15-20% drunter. Logisch, dass man es da schwer hat, ausreichend schnell zu sein, für die verlange Leistung.

Rincewind
2017-07-12, 23:19:35
RX Vega XL 399$
RX Vega XT 499$
RX Vega XTX 599-649$


Glaskugel :D

Mach aus dem Dollar Euro und 50 Euro weniger, ist halt mein Tipp: das darf ich im Speku-Bereich. ;)

[MK2]Mythos
2017-07-12, 23:53:43
Ist Vega10 auf der RX Vega ein anderer Chip als auf der Vega FE?

Die RX Vega wird das gleiche Problem plagen, wie der FE: Zu hohe Leistungsaufnahme und damit zu starke Drosselung des Taktes. AMD verspricht Leistungswerte bei einem völlig theoretischen Maximaltakt, der von der Standardkarte nie gehalten wird. Der reale Takt (= Benchmarkergebnis) liegt dann mal locker 15-20% drunter. Logisch, dass man es da schwer hat, ausreichend schnell zu sein, für die verlange Leistung.
Kaum zu glauben dass du es immer noch nicht mitbekommen hast, Mr Ingenieur, aber Vega ist taktbereinigt momentan langsamer als Fury und zusätzlich schlägt der Mehrtakt unterirdisch schlecht durch. Es gibt noch massive Probleme mit dem Treiber und der Architektur. Und typischerweise boostet Vega FE mit ~1,4 Ghz. Nichts mit 20% weniger Takt.
Einfach mal bei der Wahrheit und den Fakten bleiben.

vinacis_vivids
2017-07-12, 23:59:03
Ist Vega10 auf der RX Vega ein anderer Chip als auf der Vega FE?

Die RX Vega wird

... bald erscheinen. Alles andere was du schreibst ist es nicht wert zu besprechen. Es sei denn, du zeigt mir ne RX Vega. Dann zeig ich dir wie sie auf 1700Mhz gebracht werden kann :cool:

Deine Logik muss noch stark justiert werden. ;)

Glaskugel :D

Mach aus dem Dollar Euro und 50 Euro weniger, ist halt mein Tipp: das darf ich im Speku-Bereich. ;)

Ich schätze bei 350€ wird die XL mit 4GB HBM² rauskommen. Reicht ja auch aus, um die 1070 zu kassieren. Mit 8GB HBM² wäre natürlich super, aber dann auch teurer. Es spricht aber viel für letzteres auf produktionstechnischer Seite.

Gipsel
2017-07-13, 00:01:25
Ich schätze bei 350€ wird die XL mit 4GB HBM² rauskommen. Reicht ja auch aus, um die 1070 zu kassieren. Mit 8GB HBM² wäre natürlich super, aber dann auch teurer. Es spricht aber viel für letzteres auf produktionstechnischer Seite.Vega10 wird ziemlich sicher nicht mit 4GB erscheinen.

reaperrr
2017-07-13, 00:13:56
Vega10 wird ziemlich sicher nicht mit 4GB erscheinen.
Richtig, macht weder aus Marketing-, Performance- (HBCC hin oder her, alles kann das auch nicht kompensieren) noch Kosten-Sicht Sinn (bezweifle, dass 2GB-HBM2 überhaupt gibt bzw. in Massenproduktion gehen wird, und würde außerdem separates Package benötigen).
Unterm Strich daher wahrscheinlich keine Kostenvorteile, die den Aufwand und die Performance-Einbußen wert wären.

4GB wird, wenn überhaupt, höchstens Vega11 mit einzelnem Stack bekommen.

Leonidas
2017-07-13, 06:21:07
Sollte aber der Vega RX Treiber nicht nahezu identisch sein? Oder gibt es so große Unterschiede, wenn eine Grafikkarte eher für den professionellen Einsatz gedacht ist?


Ja, da gibt es große Unterschiede. Profi-Anwendungen nutzen meist den die komplette Grafik-Pipeline gar nicht aus, sondern nur die vorhandenen Shader-Einheiten wie als FP-Beschleuniger. Demzufolge gibt es im Profi-Bereich auch weniger Optimierungen, die Architektur-bedingt sind. Im Spiele-Bereich bietet die Pipeline dagegen derart viele Tricks, um effizienter zu arbeiten, das dies ohne Treiber einfach fast wertlos ist.

Konkret: Kaum eine Profi-Software zieht Nutzen aus dem Binning Rasterizer. Für Spiele ist es dagegen der heilige Gral, könnte locker +30% alleine für sich bringen.




Ach die Pessimisten hier. RX Vega wird gut :D


Auch wieder Ironie: Wenck wird kommen!

LadyWhirlwind
2017-07-13, 07:18:29
Ja, da gibt es große Unterschiede. Profi-Anwendungen nutzen meist den die komplette Grafik-Pipeline gar nicht aus, sondern nur die vorhandenen Shader-Einheiten wie als FP-Beschleuniger. Demzufolge gibt es im Profi-Bereich auch weniger Optimierungen, die Architektur-bedingt sind. Im Spiele-Bereich bietet die Pipeline dagegen derart viele Tricks, um effizienter zu arbeiten, das dies ohne Treiber einfach fast wertlos ist.

Konkret: Kaum eine Profi-Software zieht Nutzen aus dem Binning Rasterizer. Für Spiele ist es dagegen der heilige Gral, könnte locker +30% alleine für sich bringen.


Auch wieder Ironie: Wenck wird kommen!

Da RX Vega als letztes erscheint, wird man sich auch als letztes darum gekümmert haben. Bei AMDs begrenzten (perdonellen) Ressourcen ging wohl einfach nicht alles gleichzeitig. Vega FE braucht keinen Binning Rasterizer um eine gute Profi-Karte zu sein.

basix
2017-07-13, 07:58:02
Was AMD momentan in der Pipeline hat ist schon massiv. Threadripper, EPYC, Vega, APU mit Ryzen + Vega, Xbox Scorpio. Alles bis auf das letztere total neue Architekturen und Konzept inkl. neuen Plattformen und SW-Stacks. Ryzen 2 ist ebenfalls nicht mehr sooo extrem weit weg, irgendwann nächstes Jahr in 7nm. Navi kommt ein wenig später. Für eine Firma mit der Struktur von AMD ist das ein Mammutprogramm.

thegian
2017-07-13, 08:16:08
Ich stimme dir in den oberen Punkten zu. Für den interessierten Leser im GPU/CPU Bereich spielen die Faktoren eine wesentliche Rolle. Aber die meisten Laien kaufen doch wer den längsten Balken hat und schaut nicht nach min. fps und drops etc...
Und was bringen bessere min. FPS gegenüber AKTUELLEN GPU's auf dem Markt, wenn die GPU dann übetrieben gesagt 400 Watt frisst und mit einer AIO gekühlt werden muss?

Screemer
2017-07-13, 08:21:37
ein besseres/runderes spielgefühl. ob das für die paar stunden dann 3cent mehr kostet wäre mir dann egal.

p.s.: dass sich deine beiden karten in ähnlichen regionen bewegen ist dir schon bewusst, oder?

Pirx
2017-07-13, 08:22:14
Und was bringen bessere min. FPS gegenüber AKTUELLEN GPU's auf dem Markt, wenn die GPU dann übetrieben gesagt 400 Watt frisst und mit einer AIO gekühlt werden muss?
Fragte der Mann mit dem übertakteten Titan SLI-Setup.

thegian
2017-07-13, 08:30:32
Was ist jetzt das wieder für ein Argument?
Meine Titan@OC fressen nicht soviel wie eine NEUE aus dem AMD Stock Lager. Darum geht es!
Neues soll doch auch Fortschritt bringen. Ein paar stabilere min.FPS (das man noch nicht mal wirklich belegen kann im aktuellen Zustand) sollen 375 Watt @Stock AMD rechtfertigen?
Dann kommt noch OC von den Herstellern wie MSI/ASUS und die gehen dann auf 400Watt.

vinacis_vivids
2017-07-13, 08:35:40
Du hast schon die Benches mit RX Vega gemacht?

thegian
2017-07-13, 08:41:23
Nein, ich kann auch nur vom Wissenstand ausgehen der hier verteilt wird.
Und wenn hier von Testergebnisse 375Watt und AIO Kühlung gesprochen werden, dann sieht es meiner Meinung nach nicht so super aus. Da bringen auch die angeblichen günstigeren Preise und etwas bessere min.FPS nichts.

Hast du schon OC Tests gemacht das du weisst das die @1700-1800 laufen können?
Hast du schon Benches gemacht, da du dir ja so sicher bist das die min.FPS besser sein werden?

pixeljetstream
2017-07-13, 08:42:58
Eine weitere Theorie könnte sein, dass sie Nvidia in ihrem Märchenschlaf nicht aufwecken wollen (sofern VEGA schneller ist), weil jede Minute in der NVidia weiss sie müssen mehr bieten ist ein Vorteil für sie.

Bißchen realitätsfremd. Wo sollen sich diese Minuten widerspiegeln? Die Produkte sind schon raus und die nächsten Chips in der Mache, bzw für HPC mit Volta auch weiter.

Man sollte immer von nem starken Konkurrenten ausgehen um kein blaues Auge zu riskieren. Bin mir sicher dass das für viele Technikfirmen gilt, man geht oft vom best case für den Gegner aus und ist selbstkritisch, das ist natürlich nicht Teil des Marketings aber normal im Entwicklungsprozess. Alles unterliegt dem Verbessern.

AMD wird sich hier eher um die eigenen Kunden kümmern müssen, das ist doch erstmal wichtiger. Sie müssen ihren Kram noch verkaufen.

Bucklew
2017-07-13, 09:10:41
... bald erscheinen. Alles andere was du schreibst ist es nicht wert zu besprechen.
Die Fakten interessieren dich also nicht? Das verwundert mich jetzt nicht.

Es sei denn, du zeigt mir ne RX Vega. Dann zeig ich dir wie sie auf 1700Mhz gebracht werden kann :cool:
Es wurde dir bereits erklärt, was Vega10 - und damit auch RX Vega - braucht für 1700MHz: Wasserkühlung und 400W. Nix mit Luftkühlung.

In welcher Traumwelt lebst du? Dreh den Lüfter der FE auf volle 4900RPM, erhöhe die Spannung auf maximal einstellbare 1.25V und freue dich, dass 1700 MHz trotzdem nicht stabil laufen.

Man sollte auch mal lesen, was andere User schreiben. Du darfst ja auch gern ne Begründung dafür liefern, warum der identische Vega10 Chip auf der RX Vega plötzlich so viel besser takten sollte, als dies bei der FE der Fall ist. So machst du dich nur lächerlich. Und je länger du noch so einen Unfug behauptest (und je öfter du ihn wiederholst), umso peinlicher wird der Release für dich.

vinacis_vivids
2017-07-13, 09:13:12
Nein, ich kann auch nur vom Wissenstand ausgehen der hier verteilt wird.
Und wenn hier von Testergebnisse 375Watt und AIO Kühlung gesprochen werden, dann sieht es meiner Meinung nach nicht so super aus. Da bringen auch die angeblichen günstigeren Preise und etwas bessere min.FPS nichts.

Hast du schon OC Tests gemacht das du weisst das die @1700-1800 laufen können?
Hast du schon Benches gemacht, da du dir ja so sicher bist das die min.FPS besser sein werden?

Die min FPS sind bei Low Level API jetzt schon besser. FuryX > 1080/1070

Rechnet man 30% durch den DSBR hinzu und 10-20% min FPS durch den HBCC,hat man dann eine Vorstellung was raus kommt.

Der Schritt von GDDR zu HBM ist sowas wie HDD zu SSD. Braucht Zeit.

Fury Shrink ist bei dem Vergleich der Shadergröße ausgeschlossen.

Screemer
2017-07-13, 09:15:01
Was ist jetzt das wieder für ein Argument?
Meine Titan@OC fressen nicht soviel wie eine NEUE aus dem AMD Stock Lager. Darum geht es!
Neues soll doch auch Fortschritt bringen. Ein paar stabilere min.FPS (das man noch nicht mal wirklich belegen kann im aktuellen Zustand) sollen 375 Watt @Stock AMD rechtfertigen?
Dann kommt noch OC von den Herstellern wie MSI/ASUS und die gehen dann auf 400Watt.
deine spekulation in allen ehren aber ich hab dir gesagt wie ich das sehe und das ist völlig unabhängig vom hersteller. weniger differenz bei min. - max. fps bei gleicher avg. leistung wäre für mich ein fortschritt so wie du ihn ja einforderst. die meinung anderer scheint dir aber ja eh am arsch vorbei zu gehen.

den fanboy saft den vinacis_vivids hier versprüht möchte ich übrigens nicht abbekommen.

Sven77
2017-07-13, 09:16:30
Du hast schon die Benches mit RX Vega gemacht?

Vega ist released, deal with it. Ob FE, RX oder WTF spielt dabei keine große Rolle. Der Chip liegt Testern vor und das ist aussagekräftiger als geleakte benches bei bisherigen Launches.. wo sind die eigentlich? Ach ja, gibt es nicht um die Konkurrenz in Sicherheit zu wiegen.. links blinken, rechts überholen. So wirds dann wohl kommen..

thegian
2017-07-13, 09:38:09
deine spekulation in allen ehren aber ich hab dir gesagt wie ich das sehe und das ist völlig unabhängig vom hersteller. weniger differenz bei min. - max. fps bei gleicher avg. leistung wäre für mich ein fortschritt so wie du ihn ja einforderst. die meinung anderer scheint dir aber ja eh am arsch vorbei zu gehen.

Leider hatte ich die Seite direkt übersprungen und deine Antwort auf meine Antwort garnicht gelesen.
Mir ist die Meinung anderer auf keinen Fall egal und ja meine eingebauten GPU's die schon länger auf dem Markt sind gehen in die Verbrauchsregion wie die NEUEN AMD Karten. Wenn man am Ende deutlich mehr Leistung erhält, dann ist ja gut. Wenn sie aber nur gleich oder etwas besser ist, wo bleibt der grosse Sprung?

Es ist jedoch verwirrend, wie man nun den Mehrverbrauch dann mit "aber sie hat halt tolle min.FPS" herunterspielt.

Die Aussage kam nicht von dir und ich wollte dich damit auch nicht angreifen!

Achim_Anders
2017-07-13, 09:40:25
Laut sämtlichen Tests ist Vega ohne einige essentielle Verbesserungen unterwegs...
Anstatt sinnvoll darüber zu diskutieren, was die Aktivierung dieser Features im Spielen bringen kann, ziehen sich die gemäßigten zurück und die Hardliner auf beiden Seiten schießen mit irgendwelchen hahnebüchenen Aussagen wie Unkraut hier im Thread ein und verteidigen ihre Marke... :-/
Aus meiner Sicht wäre es viel sinnvoller zu diskutieren :
1. Werden die Features bei Rx Vega aktiviert sein?
2. Was können Sie maximal/minimal bringen?
3. Wie können sich diese sich auf den realen Verbrauch auswirken?


Stattdessen wird hier nicht über den Chip und das Produkt geschrieben, sondern häufig über das Marketing, die Unternehmensplanung und Probleme von eben diesem auf den Tisch gebracht, die mit dem eigentlichen Produkt nichts zu tun haben!
Sehr schade, dass sich hier beide Seiten nicht einfach mal im Zaun halten können..

Rsioux
2017-07-13, 09:57:09
Hat eigentlich schon jemand in Bezug auf die Herstellerdesigns bzgl. Wasser gehört.
Ich werde meinen Rechner in den nächsten Wochen auf Wasser umrüsten. Die Karte selber umzubauen werde ich mir nicht zutrauen (abseits von evtl. Garantieverlust), wenn schon die Hersteller darauf hingewiesen werden, aufzupassen. Und wenn ich das bzgl. der FuryX richtig im Netz gelesen haben, lässt sich eine AiO nicht integrieren, da die Pumpe auf der Karte selber sitzt.

Gruß

Dural
2017-07-13, 09:58:51
Laut sämtlichen Tests ist Vega ohne einige essentielle Verbesserungen unterwegs...
Anstatt sinnvoll darüber zu diskutieren, was die Aktivierung dieser Features im Spielen bringen kann, ziehen sich die gemäßigten zurück und die Hardliner auf beiden Seiten schießen mit irgendwelchen hahnebüchenen Aussagen wie Unkraut hier im Thread ein und verteidigen ihre Marke... :-/
Aus meiner Sicht wäre es viel sinnvoller zu diskutieren :
1. Werden die Features bei Rx Vega aktiviert sein?
2. Was können Sie maximal/minimal bringen?
3. Wie können sich diese sich auf den realen Verbrauch auswirken?


Stattdessen wird hier nicht über den Chip und das Produkt geschrieben, sondern häufig über das Marketing, die Unternehmensplanung und Probleme von eben diesem auf den Tisch gebracht, die mit dem eigentlichen Produkt nichts zu tun haben!
Sehr schade, dass sich hier beide Seiten nicht einfach mal im Zaun halten können..

Es könnte ein Defekt in der GPU vorliegen, die könnte AMD aber verbessern, jedoch macht AMD keine anstalten für ein neues Stepping, man hört dazu einfach nichts.

Ich Tippe ja mehr auf ein Designe Fehler. ;) Das mit den Treiber ist völliger Blödsinn, wenn doch gehört die gesamte Treiber Abteilung auf der stelle gefeuert ;)

Screemer
2017-07-13, 10:00:30
Die Aussage kam nicht von dir und ich wollte dich damit auch nicht angreifen!
so schnell kann es zu Missverständnissen kommen. sorry auch von meiner seite.

Loeschzwerg
2017-07-13, 10:02:22
Hat eigentlich schon jemand in Bezug auf die Herstellerdesigns bzgl. Wasser gehört.


Leider nein, ich kenne derlei Lösungen auch nur bei NV Karten. Kühler wird es zu 100% geben und möglicherweise bieten dann Shops wie Caseking o.ä. entsprechend vormontierte Karten an.

Fragman
2017-07-13, 10:05:11
Anstatt sinnvoll darüber zu diskutieren, was die Aktivierung dieser Features im Spielen bringen kann,

darueber wird doch spekuliert, nur leider mit voellig uebertriebenen erwartungen, zumindest aus meiner sicht. wie lange geht die treiberentwicklung jetzt bis anfang august, knapp 1 jahr?

das amd nichts leaked, das die situation deutlich entschaerfen koennte, deutet nunmal nichts gutes an. wenn sie jetzt immernoch keinen vollwertigen treiber haben der richtig performt, dann gute nacht. dann bleiben die aktuellen vega werte so stehen, das heisst zwischen 1070 und 1080 niveau (mal davon abgesehen, das die lange entwicklung andeutet, das amd die treiber WIEDER nicht im griff hat).

realistisch betrachtet koennte man jetzt darueber spekulieren, wieviel geld man spart durch die halbierung des rams und wieviel weniger strom rx benoetigen wuerde. alles andere ist ein netter bonus.

horn 12
2017-07-13, 10:05:30
VEGA Frontier Edition mit Wasserkühlung ist ab heute Lieferbar!
Zumindest in Vereinigten Staaten:

https://www.sabrepc.com/amd-100-506062-radeon-vega-frontier-edition-liquid-cooled-16gb-hbc-workstation-graphics-card.html

unl34shed
2017-07-13, 10:05:54
Es könnte ein Defekt in der GPU vorliegen, die könnte AMD aber verbessern, jedoch macht AMD keine anstalten für ein neues Stepping, man hört dazu einfach nichts.

Ich Tippe ja mehr auf ein Designe Fehler. ;) Das mit den Treiber ist völliger Blödsinn, wenn doch gehört die gesamte Treiber Abteilung auf der stelle gefeuert ;)

Ein Hardwarefehler, der sich auf die Kern Features auswirkt Halle ich dir ausgeschlossen, denn das hätte man den Aktionären sicher melden müssen, sonst kann man auch gleich auf entsprechende Strafzahlungen einstellen, den dieser wird sicher nicht erst gestern aufgehalten sein.

Dural
2017-07-13, 10:08:30
Deswegen sage ich ja, an einen Bug glaube ich nicht. Man hört dazu einfach rein gar nichts.

Und wenn es kein Bug ist, ist das Problem sicherlich auch nicht schnell zu beheben = Navi abwarten ;)

Rsioux
2017-07-13, 10:11:56
Leider nein, ich kenne derlei Lösungen auch nur bei NV Karten. Kühler wird es zu 100% geben und möglicherweise bieten dann Shops wie Caseking o.ä. entsprechend vormontierte Karten an.

Hoffe ich mal. Hatte bei Caseking auch schon nachgeschaut, die bieten aktuell nur vormontierte von NV an, wobei die Fury bei den Händlern ja auch nicht mehr zu finden ist.

Korfox
2017-07-13, 10:23:20
3. Wie können sich diese sich auf den realen Verbrauch auswirken?

Das ist in meinen Augen eigentlich die Kernfrage.
Wenn man postuliert, dass VEGA FE und RX VEGA identische Hardware sind und sich erstere in Spielen 250-300 Watt genehmigt, was müsste dann der Treiber für RX VEGA an Veränderung liefern?
Im Endeffekt ist man sich auf beiden Seiten doch relativ einig, dass 20-40% Mehrleistung 'hermüssten'. Umgekehrt und einfach mal (fälschlicher weise) unterstellt, dass die Leistung linear mit der Energieaufnahme skaliert könnte man auch - grob - 17-35% geringeren Energieumsatz fordern.
Kann sowas denn überhaupt softwareseitig geleistet werden?

vinacis_vivids
2017-07-13, 10:39:24
Irgendwie finde ich es geil, dass AMD nichts leakt. Das dämpft die Erwartungen und macht die Überraschung umso größer.

Hardware Bug halte ich für ausgeschlossen bei der laufenden Massenproduktion von Vega.

Kartenlehrling
2017-07-13, 10:44:56
Nach dem brillanten start des ersten HDR Freesync2 Monitor kann alles nur besser werden.
Nvidia und Intel brauch sich eigentlich wirklich nur zurücklehnen, AMD versaut ihre Produkt Release schon selbst.

Mangel76
2017-07-13, 10:51:42
Das ist in meinen Augen eigentlich die Kernfrage.
Wenn man postuliert, dass VEGA FE und RX VEGA identische Hardware sind und sich erstere in Spielen 250-300 Watt genehmigt, was müsste dann der Treiber für RX VEGA an Veränderung liefern?
Im Endeffekt ist man sich auf beiden Seiten doch relativ einig, dass 20-40% Mehrleistung 'hermüssten'. Umgekehrt und einfach mal (fälschlicher weise) unterstellt, dass die Leistung linear mit der Energieaufnahme skaliert könnte man auch - grob - 17-35% geringeren Energieumsatz fordern.
Kann sowas denn überhaupt softwareseitig geleistet werden?

Ich denke, diese Größenordnung ist durchaus realistisch, wenn alle Features wie vorgesehen funktionieren. Gipsel hatte dazu vor kurzem irgendwo was erklärt. Der DSBR sortiert die Geometrie um und aus (hidden surface removal). Dadurch können massiv Speicherzugriffe und Kopieraktionen vermieden werden, denn einerseits wird die Datenlokalität erhöht (in den Tiles liegen wohl mit größerer Häufigkeit Flächen mit gleichen Texturen als bei zufälliger Sortierung???). Andererseits werden durch Entfernen nicht sichtbarer Dinge Rechenaufwand und weitere Speicherzugriffe eingespart (weil deren Texturen dann nicht geladen werden müssen). Wie groß der Effekt ist hängt natürlich von der Situation ab. Aber gerade die Verringerung von Speicherzugriffen spart a) ne Menge Energie und b) könnte VEGA deutlich schneller machen, da es im Moment nach gravierender Bandbreitenlimitierung aussieht (+50% Rohleistung bei geringerer Bandbreite im Vergleich zu Fiji).

Hier noch ein älterer Post von Gipsel:

Die bessere Auslastung kommt daher, daß man die Effektivität der Caches erhöht, also weniger oft durch den Speicher limitiert wird. Und je nachdem wie man es macht (z.B. hidden surface removal in den Tiles vor Ausführung des Pixelshaders) kann man auch die Menge der ausgeführten Arbeit reduzieren. Letzteres erhöht nicht wirklich die Auslastung (es kann sie sogar reduzieren), aber wenn man mit 90% Auslastung nur 60% der Arbeit machen muß, ist man trotzdem schneller als wenn man mit 100% Auslastung 100% der Arbeit erledigen soll.

Und bei 90% Auslastung statt 100% dabei sogar noch sparsamer.

Der_Korken
2017-07-13, 10:58:41
Ich glaube man kann das Schweigen von AMD zu der bisher relativ schwachen Spieleperformance der FE auf zwei Arten deuten: Entweder Vega hat die eigenen Erwartungen vollkommen verfehlt, weil das Design einfach nicht aufgegangen ist (so wie Bulldozer) oder AMD ist sich seiner Sache verdammt sicher und löst die Handbremse wirklich mit der RX - sei es durch einen Treiber, der die bisher nicht funktionsfähigen Features freigibt oder durch einen Respin, der einen Hardwarebug beseitigt, durch den jene Features nicht genutzt werden konnten. Je nachdem für welche Seite man sich entscheidet, kann den ordentlich auf den jeweils anderen eindreschen (was leider auch zum Teil passiert).

Wo die RX letztlich landen wird, kann keiner sagen. Wenn man davon ausgeht, dass zum jetzigen Zeitpunkt wirklich der gesamte Rasterizer in einem Fallback-Mode läuft und auch der Shadercompiler noch nicht an die neuen CUs angepasst ist und all das zum Launch dann tatsächlich funktioniert, kann der Performance-Schub schon substanziell ausfallen. Die schwache GPU-Takt-Skalierung ist ein Indikator dafür, dass es irgendwo noch einen ordentlichen Flaschenhals gibt, vermutlich die Speicherbandbreite. Im Review-Thread der FE hatte ich die Tage mal einen Post zitiert (Link (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11425618#post11425618)), wo die "IPC" von Kepler und Pascal verglichen wurde. Aus dem ging allerdings auch hervor, dass die GTX1060 gegenüber der GTX760 bei gleicher Bandbreite und 100% mehr GPU-Power tatsächlich mit +100% skaliert (entspricht auch grob dem 3DC-Index).

Jetzt kann man natürlich sagen, dass Maxwell auch bei den SPs einen Schub gebracht hat (weil die Kepler-Cluster nicht richtig ausgelastet werden konnten), das gleiche könnte man allerdings auch von Fiji sagen, der gemessen an seiner Rohleistung im Vergleich mit jedem anderen GCN-Chip relativ schlecht aussieht. Ich denke alles in allem wären Fiji+60% und RX580+100% eigentlich ganz vernünftige Prognosen in diesem Fall. Beim Takt sehe ich nicht so das große Potenzial, ich denke mehr als 1500Mhz werden es bei @Stock mit Lukü nicht werden. Man ist aktuell bei knapp 1400Mhz bei 285W. Durch besseres Binning und weniger Spannung (ich las hier von 1085mV@1600Mhz statt der Default 1200mV) kriegt man das vielleicht noch auf 1500Mhz hochgeschraubt, alles darüber geht schon Richtung Kotzgrenze, da alles über 1000mV bei 14/16nm-GPUs nicht mehr viel zu bringen scheint.

Treten all diese Verbesserungen nicht ein, wird Vega wohl leider ein ähnliches Dasein fristen wie seinerzeit die 2900XT aka R600: Ein großer, stromhungriger Chip, der gemessen an seinen Eckdaten deutlich hinter der Konkurrenz zurückbleibt. In dem Fall bleibt nur zu hoffe, dass Navi ein RV770 2.0 wird ;).

Isen
2017-07-13, 11:15:58
und Intel brauch sich eigentlich wirklich nur zurücklehnen

Hat man gesehen, was draus wurde. Plumpe Sprüche, völlig desaströse Vergleiche bei gleichzeitigem Versagen. Zuletzt wie ein HB-Männchen umher rennen - jepp. Wenn das nicht zurücklehnen ist, dann weiß ich auch nicht.

Das die FE ein Bios hat, dass die für den Einsatzzweck nicht benötigen Features ausknipst, darauf kam nie einer oder?

iuno
2017-07-13, 11:19:40
einerseits wird die Datenlokalität erhöht (in den Tiles liegen wohl mit größerer Häufigkeit Flächen mit gleichen Texturen als bei zufälliger Sortierung???)

So wie ich das verstanden habe, ist der Ansatz ja eben nicht so ganzheitlich wie bei einem TBDR, sondern betrifft nur die Rasterisierung. Dass texture lookups davon profitieren, muesste das ja noch weiter gehen.
Falls sowas gemacht wuerde, frage ich mich auch, ob das Loesungen wie tiled oder gar clustered renderer wie in DOOM hinfaellig macht oder gar kontraproduktiv wird :confused:

Schnitzl
2017-07-13, 11:30:14
Hallo, mal ne Frage:
ist es theoretisch möglich, dass Vega RX im Vergleich zu der F.E. sparsamer und schneller wird?
Stichwort TBDR und evtl. Treiber Energiesparmechanismen
So hab ich das bisher verstanden....

P.S.: das zerreden von Vega RX nervt langsam - es gibt noch genug Zeit zum Meckern wenn RX draussen ist!!!

Complicated
2017-07-13, 11:32:20
Noch ein weiterer Punkt den ich gerne in die Spekulation mit einbringen würde. Am Anfang dieses Threads letztes Jahr wurde über die Beschaffenheit der NCU Shader-Organisation spekuliert. Nakai hatte ein interessantes Patent dazu verlinkt:
Es ist auch nicht klar, wie bei Vega die CUs umgekrempelt wurden. Viele AMD Patente gehen in eine interessante Richtung mit verschieden-große SIMDs. Wie genau das nun implementiert ist, da müssen wir uns noch gedulden. Im Grunde wird dadurch die Perf/Watt gesteigert.

Ich könnte mir vorstellen, dass jegliche 16er SIMD auch in anderen SIMD-Modis arbeiten kann, also im SIMD8, SIMD4 oder SIMD2-Modus. Durch die 64Bit Maskierung könnte man theoretisch die Wavefronts komprimieren. Also wenn eine 64er Wavefront eben nur weniger als 32 valide Work-Items hat, wird die Wavefront auf 32 beschnitten und die SIMD arbeitet im SIMD8-Modus mit gleicher Latenz, aber eben mit höherer Perf/Watt. da die Hälfte der Slots "abgeschaltet" werden.

ODER, je BIG SIMD16 gibt es eine zusätzliche little SIMD8/4/2/1, welche dann dynamisch umgeschalten wird (eben anhand der Maskierung). Man müsste dementsprechend die Multiplexer zur Registerfile anpassen.
Patent dazu mit Bild: http://www.patentsencyclopedia.com/app/20160085551#ixzz4SeaV7XMi
http://www.patentsencyclopedia.com/img/20160085551_05.png
It is noted that while the compute unit 400 is shown with two scalar ALUs 404, one two thread wide vector SIMD unit 406, one four thread wide vector SIMD unit 412, and one eight thread wide vector SIMD unit 418, the compute unit 400 may be constructed with different numbers of the scalar units and the SIMD units without affecting the overall operation of the compute unit 400. Alternatively, SIMD units 406, 412, and 418 may initially have the same width (e.g., each being an eight thread wide SIMD unit) but may be configured (on a demand basis) to deactivate (e.g., through gating mechanisms, disabling, powering off, etc.) to have different widths (e.g., a two thread wide, a four thread wide, and an eight thread wide SIMD unit, as described above, by deactivating, six, four, and zero, respectively, pipes or ALUs in each unit).

Das würde sich bei einer VEGA FE mit Profi-Software in Vollast-Tests kaum auswirken, jedoch in Spielen, die ja im Gegensatz zu Compute Anwendungen eine wesentlich variablere Last erzeugen, ein schlechteres Ergebnis ausliefern mit relativ hohem Verbrauch - so wie es jetzt in vielen Tests vermessen wurde.

Ist das vielleicht das Feature, welches AMD nutzt um mit der RX Vega im Spielesektor zu überraschen? Hier würde wohl ein Schalter genügen um die geänderte Verwaltung entsprechend im Treiber zu aktivieren (Hier würde es ausreichen das powergaten der SIMDs zu deaktivieren - siehe fetter Text im Zitat). Das würde auch Sinn ergeben im Bezug auf die Wahl des hohen Wertes bei der TDP/TBP.

dargo
2017-07-13, 11:42:27
Das die FE ein Bios hat, dass die für den Einsatzzweck nicht benötigen Features ausknipst, darauf kam nie einer oder?
Doch... die Info war hier im Forum sogar "versteckt". Aber ich finde es köstlich wie die ganzen Trolle gerade angelockt werden. :popcorn:

Der_Korken
2017-07-13, 11:42:30
Noch ein weiterer Punkt den ich gerne in die Spekulation mit einbringen würde. Am Anfang dieses Threads letztes Jahr wurde über die Beschaffenheit der NCU Shader-Organisation spekuliert. Nakai hatte ein interessantes Patent dazu verlinkt:

Patent dazu mit Bild: http://www.patentsencyclopedia.com/app/20160085551#ixzz4SeaV7XMi
http://www.patentsencyclopedia.com/img/20160085551_05.png


[...]

Ist das vielleicht das Feature, welches AMD nutzt um mit der RX Vega im Spielesektor auf zu überraschen? Hier würde wohl ein Schalter genügen um die geänderte Verwaltung entsprechend im Treiber zu aktivieren. Das würde auch Sinn ergeben im Bezug auf die Wahl des hohen Wertes bei der TDP/TBP.

Das Patent geisterte doch bereits damals durch den Polaris-Thread. Es klingt erstmal logisch, dass man dadurch wahlweise die Auslastung verbessern oder aber Energie einsparen kann. Die Frage ist nur, wie teuer das ganze flächenmäßig ist. Schließlich hätte AMD ja auch auf 8er SIMDs umschwenken können, wenn das nicht viel teuer als 16er SIMDs ist und letztere sich als sehr ineffizient erweisen. Ich würde lieber nicht zu viel davon erwarten, dann kann man positiv überrascht werden.

MadPenguin
2017-07-13, 11:45:23
Undervolting:
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/#a5

Wenn schon gepostet, sorry.

Complicated
2017-07-13, 11:47:04
@Korken
Daher habe ich auf das Zitat im Patent verwiesen. Der Aufbau muss nicht bis 4er und 2er SIMDs gesplittet sein wie in der Grafik, sondern kann nur mit SIMD8 eine solche auch durch powergating zu SIMD4 oder SIMD2 kappen. Ist dies derzeit deaktiviert würde sich das sicherlich erheblich bemerkbar machen, wenn es denn freigeschaltet wird auf der RX Vega XTX/XT/XL

LadyWhirlwind
2017-07-13, 11:48:28
Ein Hardwarefehler, der sich auf die Kern Features auswirkt Halle ich dir ausgeschlossen, denn das hätte man den Aktionären sicher melden müssen, sonst kann man auch gleich auf entsprechende Strafzahlungen einstellen, den dieser wird sicher nicht erst gestern aufgehalten sein.

Nicht zwingend. Sofern die Kosten für die Behebung nicht ausserordentlich hoch sind, kann das auch in den "normalen" Risiken versteckt sein. Das etwas nicht auf Anhieb funktioniert ist ja so ungewöhnlich nicht. Es liegt in der Natur von AMDs Geschäft, dass wenn das Silizium nochmals angepasst werden muss, dass es a) zu einigen Wochen Verzögerung kommt b) das nicht ganz billig ist.



@Complicated: Ups, danke xD

Complicated
2017-07-13, 11:52:38
Es liegt in der Natur von AMDs Geschäft, dass wenn das Silikon nochmals angepasst werden muss, dass es a) zu einigen Wochen Verzögerung kommt b) das nicht ganz billig ist.
AMD ist nun in der Schönheitsindustrie tätig? ;D
*SCNR*
War Silizium gemeint? :D

LadyWhirlwind
2017-07-13, 11:54:06
AMD ist nun in der Schönheitsindustrie tätig? ;D
*SCNR*
War Silizium gemeint? :D
Natürlich, wo hatte ich mein Kopf? Wohl beim Schönheitschirurg xD

Complicated
2017-07-13, 12:04:01
Die Wasser gekühlte Vega FE ist nun auch veröffentlicht:
https://www.computerbase.de/2017-07/radeon-vega-frontier-edition-wasserkuehlung/

Jetzt gehen die ganzen Spieletest mit der 375W Karte erneut in die nächste Runde.
Also ich kann mir beim besten Willen nicht vorstellen, dass AMD mit diesem Release-Rhythmus eine schwächelnde RX Vega bringt Ende des Monats. Die müssen etwas in Peto haben um dieses Marketing so durch zu ziehen.

vinacis_vivids
2017-07-13, 12:04:19
@Der Korken
1900xt zur 2900xt war keine uArch Änderung und daher nicht vergleichbar.

Gorkon
2017-07-13, 12:10:34
@Der Korken
1900xt zur 2900xt war keine uArch Änderung und daher nicht vergleichbar.
Hä? :freak:

1900XT (Fixed Function Pipeline) > 2900XT (TeraScale, Unified Shader) war keine µArch-Änderung? Ich glaube nicht Tim... :unono:

Der_Korken
2017-07-13, 12:12:26
@Der Korken
1900xt zur 2900xt war keine uArch Änderung und daher nicht vergleichbar.

Ähm bitte was? Das war allein durch die Umstellung auf Unified Shader, DX10 statt DX9 und Einführung einer Tesselation Unit (auch wenn sie am Ende nie genutzt wurde) schon ein völlig anderer Chip. Die Transistoren wurden knapp verdoppelt bei gleichbleibender Zahl an TMUs und Erhöhung der Shader von 48+8 (Pixel+Vertex) auf 64 (sofern man die überhaupt vergleichbar sind). Meinst du vielleicht den Schritt von 2900XT auf 3870? Das war wirklich nur ein Shrink.

Raff
2017-07-13, 12:13:17
Die Wasser gekühlte Vega FE ist nun auch veröffentlicht:
https://www.computerbase.de/2017-07/radeon-vega-frontier-edition-wasserkuehlung/

Jetzt gehen die ganzen Spieletest mit der 375W Karte erneut in die nächste Runde.
Also ich kann mir beim besten Willen nicht vorstellen, dass AMD mit diesem Release-Rhythmus eine schwächelnde RX Vega bringt Ende des Monats. Die müssen etwas in Peto haben um dieses Marketing so durch zu ziehen.

Die Leistung dieser Karte kannst du bei PCGH sehen, dort laufen alle Tests zusätzlich mit konstanten 1.600 MHz. An der Grundaussage ändern diese 10 bis 20 Prozent nichts, denn die Energieeffizienz wird bei der AiO-/Liquid-Version nicht besser.

MfG,
Raff

Complicated
2017-07-13, 12:18:16
Eben - das weiß AMD ja auch.
Hier wird IMHO mit Absicht die Erwartung gesenkt.

N0Thing
2017-07-13, 12:23:20
Es könnte ein Defekt in der GPU vorliegen, die könnte AMD aber verbessern, jedoch macht AMD keine anstalten für ein neues Stepping, man hört dazu einfach nichts.

Ich Tippe ja mehr auf ein Designe Fehler. ;) Das mit den Treiber ist völliger Blödsinn, wenn doch gehört die gesamte Treiber Abteilung auf der stelle gefeuert ;)

Ein Defekt wird es nicht sein, dann hätte AMD dies bekannt gegeben, einen Respin angeleiert und die Veröffentlichung verschoben.
Ein Designfehler wäre auch schon früher aufgefallen und man hätte darauf reagieren können.
Was ziemlich sicher nicht das Ziel war, ist der hohe Stromverbrauch bei der Zielfrequenz und die nahezu gleiche IPC im Vergleich zu Fiji.
Bei der IPC kann das BIOS und der Treiber einen Unterschied machen, bei der Leistungsaufnahme sieht man sich an frühere GPUs erinnert, auch da stieg die Leistungsaufnahme zu früh zu stark an und AMD wird wohl auch dieses Mal in dem Bereich nicht zu Nvidia aufschließen können.


Das Patent geisterte doch bereits damals durch den Polaris-Thread. Es klingt erstmal logisch, dass man dadurch wahlweise die Auslastung verbessern oder aber Energie einsparen kann. Die Frage ist nur, wie teuer das ganze flächenmäßig ist. Schließlich hätte AMD ja auch auf 8er SIMDs umschwenken können, wenn das nicht viel teuer als 16er SIMDs ist und letztere sich als sehr ineffizient erweisen. Ich würde lieber nicht zu viel davon erwarten, dann kann man positiv überrascht werden.

Ich meine, daß bei der damaligen Diskussion heraus gekommen ist, daß dieses Patent noch keine Umsetzung gefunden hat und auch bei Vega nicht.

Achim_Anders
2017-07-13, 12:24:15
AMD bestätigte doch schon ausdrücklich , dass vorsätzlich nichts zurückgehalten wird...
Deine Annahme ist damit auf sehr wackeligen Füßen

Malabolge
2017-07-13, 12:39:11
Mal ne Kleine Frage meinerseits.
Kann es sein das AMD den HBCC-Chip im Moment einfach noch nicht aktiviert hat ?
Das der HBM-Speicher im Moment "Ungecached durchläuft" ?
Würde das nicht die "Speicherbandbreiten Probleme" erklären ?

Nehmen wir einfach mal an das der HBM im Moment ca 250GB/s bringt
und durch Cachen des Selben,auf ca.400GB/s "angehoben" wird.
(Bevor hier wieder die "Boys" durchdrehen: Hypothetische Werte !)
Könnte dadurch nicht eine Menge Bandbreite gewonnen und gleichzeitig Strom gespart werden ?

Pirx
2017-07-13, 12:47:42
nope, der HBM wird bei HBCC als Cache genommen/betrachtet und sollte bei Durchsatz usw. auch jetzt schon die maximal mögliche Leistung bringen

Felixxz2
2017-07-13, 12:48:13
AMD hält auch nichts zurück. Die FE ist schlicht keine Gamingkarte. Genauso wie eine Geforce keine Quadro ist.

Im Prinzip ist diese ganze Diskussion hier doch sinnlos. Die Vegakarze fürs Gaming ist schlicht nicht auf dem Markt. Und Softwarebeschneidung ist heute etwas ganz übliches, sogar bei Autos.

Muss da nebenbei auch die PCGH rügen. Euer Test vermittelt den Eindruck eines offiziellen Tests der Gamingkarte. Klar weist ihr im Text drauf hin. Aber Überschrift und aufmachung sind IMO viel zu "testig".

Wie gesagt, die FE ist keine Basis. Und dann kommen hier Leute mit Designfehlern und HW Bugs. Jungs die Karte ist noch nicht auf dem Markt! Und hier wird von Respins geredet. Wo es doch offensichtlich ist, dass der Treiber aktuell Vega in Games als Fiji behandelt, weil AMD genau eins nicht möchte: Dass die vorher erscheinende Prosumerkarte für dilletantische Gamingtests herhalten muss.

Warum für diese nachvollziehbare Entscheidung dann das Treiberteam gefeuert werden muss, weiß wohl nur der User selbst.

Und jetzt wieder viel Spaß beim bashen :D

SamLombardo
2017-07-13, 12:49:08
Irgendwie finde ich es geil, dass AMD nichts leakt. Das dämpft die Erwartungen und macht die Überraschung umso größer.

Hardware Bug halte ich für ausgeschlossen bei der laufenden Massenproduktion von Vega.
Das findest du geil? Es ist völlig unlogisch. Ich möchte nicht wissen, wie viele potentielle Vega Kunden sich nach den enttäuschenden Werten der FE eine 1080 (Ti) gekauf haben. Diese Kunden sind für AMD für diese Generation verloren! Wenn RX Vega deutlich besser läuft, dann hätte das jeder (!) der auch nur ein bisschen was von Marketing versteht sofort nach dem FE Launch auch so kommuniziert, Benchmarks geleaked etc, einfach mit offenen Karten gespielt ala "wartet mit dem Kauf, es lohnt sich, RV Vega wird die Ti schlagen" oder sowas. Dass da nichts kommt, lässt leider nur einen Schluss zu. Dass man die Erwartungen "dämpft" und dann alle zu überraschen ist doch marketingtechnischer Blödsinn. Dann hätte man alle überrascht, toll, aber nebenbei Millionen an Umsatz verloren. Wer sich nach den enttäuschenden FE Ergebnissen eine NV gekauft hat, kommt in dieser Generation nicht mehr zu AMD zurück.

[MK2]Mythos
2017-07-13, 12:49:49
AMD bestätigte doch schon ausdrücklich , dass vorsätzlich nichts zurückgehalten wird...
Deine Annahme ist damit auf sehr wackeligen Füßen
Soweit ich mich erinner, hat ein einziger Mitarbeiter von AMD geschrieben, der Treiber wäre nicht künstlich langsam, nur eben alt.
1) Kann dadurch trotzdem auf der Vega ein beschnittenes Bios laufen
2) Kann der alte Treiber eben der Grund dafür sein, dass bestimmte Funktionen noch nicht laufen.

Loeschzwerg
2017-07-13, 12:55:07
Mythos;11429194']
1) Kann dadurch trotzdem auf der Vega ein beschnittenes Bios laufen
2) Kann der alte Treiber eben der Grund dafür sein, dass bestimmte Funktionen noch nicht laufen.

Treiber ja. Bios glaube ich nicht, oder will man etwa sämtlichen Vega FE Käufern später einen Bios-Update aufs Auge drücken? Wohl eher nicht :)

vinacis_vivids
2017-07-13, 12:55:30
Ähm bitte was? Das war allein durch die Umstellung auf Unified Shader, DX10 statt DX9 und Einführung einer Tesselation Unit (auch wenn sie am Ende nie genutzt wurde) schon ein völlig anderer Chip. Die Transistoren wurden knapp verdoppelt bei gleichbleibender Zahl an TMUs und Erhöhung der Shader von 48+8 (Pixel+Vertex) auf 64 (sofern man die überhaupt vergleichbar sind). Meinst du vielleicht den Schritt von 2900XT auf 3870? Das war wirklich nur ein Shrink.

Die ganzen Tests wurden damals auf DX9 durchgeführt und die 2900XT konnte sich dadurch nur wenig absetzen. Neue Unified Shader konnten nicht gut ausgelastet werden (Fiji Parallelen)
DX10 und Tesselation waren unbedeutend für die Praxis.
ROP und TMU blieben gleich, also fillrate. Bandbreite wurde extrem aufgebohrt (Fiji Parallelen).

Loeschzwerg
2017-07-13, 12:58:05
Unified Shader können Vertex/Pixel Shader gleichermaßen ausführen, an der Auslastung bedingt durch DX9 Anwendungen lag das sicherlich nicht.

dargo
2017-07-13, 12:58:19
Das findest du geil? Es ist völlig unlogisch. Ich möchte nicht wissen, wie viele potentielle Vega Kunden sich nach den enttäuschenden Werten der FE eine 1080 (Ti) gekauf haben. Diese Kunden sind für AMD für diese Generation verloren!
Bei der aktuellen Preislage der Grafikkarten sehr wenige.

[MK2]Mythos
2017-07-13, 12:58:58
Treiber ja. Bios glaube ich nicht, oder will man etwa sämtlichen Vega FE Käufern später einen Bios-Update aufs Auge drücken? Wohl eher nicht :)
Da die FE nicht zum gamen gemacht ist, könnte AMD das tatsächlich tun für diejenigen, die mit ihrer FE dann auch zocken möchten.

Fetza
2017-07-13, 13:00:05
Das findest du geil? Es ist völlig unlogisch. Ich möchte nicht wissen, wie viele potentielle Vega Kunden sich nach den enttäuschenden Werten der FE eine 1080 (Ti) gekauf haben. Diese Kunden sind für AMD für diese Generation verloren! Wenn RX Vega deutlich besser läuft, dann hätte das jeder (!) der auch nur ein bisschen was von Marketing versteht sofort nach dem FE Launch auch so kommuniziert, Benchmarks geleaked etc, einfach mit offenen Karten gespielt ala "wartet mit dem Kauf, es lohnt sich, RV Vega wird die Ti schlagen" oder sowas. Dass da nichts kommt, lässt leider nur einen Schluss zu. Dass man die Erwartungen "dämpft" und dann alle zu überraschen ist doch marketingtechnischer Blödsinn. Dann hätte man alle überrascht, toll, aber nebenbei Millionen an Umsatz verloren. Wer sich nach den enttäuschenden FE Ergebnissen eine NV gekauft hat, kommt in dieser Generation nicht mehr zu AMD zurück.

Ich bin zum Beispiel einer derjenigen die sich jetzt erstmal woanders bedient haben. Die aktuelle Politik seitens AMD bezüglich Vega hat mir einfach das Vertrauen genommen, das es sich noch lohnt zwei Monate auf entsprechende Beschleuniger zu warten.

Der_Korken
2017-07-13, 13:06:38
Die ganzen Tests wurden damals auf DX9 durchgeführt und die 2900XT konnte sich dadurch nur wenig absetzen. Neue Unified Shader konnten nicht gut ausgelastet werden (Fiji Parallelen)
DX10 und Tesselation waren unbedeutend für die Praxis.
ROP und TMU blieben gleich, also fillrate. Bandbreite wurde extrem aufgebohrt (Fiji Parallelen).

Inwiefern widerspricht das jetzt dem, was ich geschrieben habe? Eine neue Archtiektur zeichnet sich durch Veränderungen im "wie" aus, nicht über das "wie schnell". Außerdem sehe ich die Parallelen vom R600 eindeutig bei V10, nicht bei Fiji. R600 war nicht wegen schlechter Auslastung so langsam, sondern weil an vielen Stellen die Rohleistung gefehlt hat, weil Transistoren für Features verbraten wurden, die nichts gebracht haben. So wäre es auch bei Vega, wenn die spekulierte Leistungssteigerung ausbleibt.

Loeschzwerg
2017-07-13, 13:08:38
Mythos;11429200']Da die FE nicht zum gamen gemacht ist, könnte AMD das tatsächlich tun für diejenigen, die mit ihrer FE dann auch zocken möchten.

Wenn Funktionen im Bios deaktiviert wurden, können diese nach Aktivierung auch einen Einfluss auf Anwendungen abseits Gaming haben, oder nicht?

Cyphermaster
2017-07-13, 13:10:47
Treiber ja. Bios glaube ich nicht, oder will man etwa sämtlichen Vega FE Käufern später einen Bios-Update aufs Auge drücken? Wohl eher nicht :)
Überleg mal, wie viele "sämtliche" FE-Käufer sind. Grade auch die schlechte Verfügbarkeit könnte dafür sprechen.

Raff
2017-07-13, 13:15:04
Ein Firmware-Update ist heutzutage nicht mit 1337-Haxx0rn unter DOS verbunden. Der Hersteller muss nur ein Exe-Package zum Download anbieten, das alle nötigen Schritte im Stile einer Batch übernimmt. Neustart und gut. Wenn was schief geht, haben FE-Käufer ja noch das sekundäre BIOS. :)

MfG,
Raff

LadyWhirlwind
2017-07-13, 13:21:37
Das findest du geil? Es ist völlig unlogisch. Ich möchte nicht wissen, wie viele potentielle Vega Kunden sich nach den enttäuschenden Werten der FE eine 1080 (Ti) gekauf haben. Diese Kunden sind für AMD für diese Generation verloren! Wenn RX Vega deutlich besser läuft, dann hätte das jeder (!) der auch nur ein bisschen was von Marketing versteht sofort nach dem FE Launch auch so kommuniziert, Benchmarks geleaked etc, einfach mit offenen Karten gespielt ala "wartet mit dem Kauf, es lohnt sich, RV Vega wird die Ti schlagen" oder sowas. Dass da nichts kommt, lässt leider nur einen Schluss zu. Dass man die Erwartungen "dämpft" und dann alle zu überraschen ist doch marketingtechnischer Blödsinn. Dann hätte man alle überrascht, toll, aber nebenbei Millionen an Umsatz verloren. Wer sich nach den enttäuschenden FE Ergebnissen eine NV gekauft hat, kommt in dieser Generation nicht mehr zu AMD zurück.

Das funktioniert aber nur, wenn sie auch konkrete Aussagen machen können. Wenn allerdings noch an der Karte gearbeitet wird, kann man auch noch keine Aussagen mache, weil man ja noch nicht weiss, wo das Produkt am Schluss steht.
Und solche Leaks würden sicher zu einem steigen des Börsenkurses führen, was, wenn die Vorhersagen nicht eintreffen, dann zu Schwierigkeiten für AMD und die Manager führen könnte.

Mal abgesehen davon, dass sich die Anzahl der Käufer die jetzt abgewandert sind, nur schlecht Messen lassen und in absoluten Stückzahlen möglicherweise vernachlässigbar sind.

gas3t
2017-07-13, 13:23:05
Ein Firmware-Update ist heutzutage nicht mit 1337-Haxx0rn unter DOS verbunden. Der Hersteller muss nur ein Exe-Package zum Download anbieten, das alle nötigen Schritte im Stile einer Batch übernimmt. Neustart und gut. Wenn was schief geht, haben FE-Käufer ja noch das sekundäre BIOS. :)

MfG,
Raff

Ein Biosupdate halte ich ebenfalls für nicht unwahrscheinlich. Mittlerweile gibt es genügend technische Alltags-Geräte, wo dies nicht unüblich ist (Smartphone, TV, Receiver, Navi...). Gerade bei solch einem High-Tech-Produkt dieser Preisklasse sollte das keinen vor eine Hürde stellen. Wenn dann noch eine deutliche Verbesserung der Leistung dazukommt, ist das ein 1A Kundendienst und sehr lobenswert.

unl34shed
2017-07-13, 13:24:07
Nicht zwingend. Sofern die Kosten für die Behebung nicht ausserordentlich hoch sind, kann das auch in den "normalen" Risiken versteckt sein. Das etwas nicht auf Anhieb funktioniert ist ja so ungewöhnlich nicht. Es liegt in der Natur von AMDs Geschäft, dass wenn das Silizium nochmals angepasst werden muss, dass es a) zu einigen Wochen Verzögerung kommt b) das nicht ganz billig ist.

Ich hab mich auf das Finale Silizium bezogen, nicht auf mögliche Vorgänger Revisionen. Sicherlich wird auch der Chip nicht 100% fehlerfrei sein und eine errata mit bringen, aber eben nichts gravierendes an den keyfearures.

@biosupdate:
Ein BIOS Update könnten sie sogar mit in den Treiber einbauen. Wäre auch nicht unüblich.

Loeschzwerg
2017-07-13, 13:29:47
Klar ist das theoretisch machbar, aber ist das denn Service und Qualität? Von den Käufern unserer Notebooks/Workstations kann ich ein Biosupdate nur in Ausnahmefällen oder groben Problemen verlangen, die Grundfunktionen müssen vorhanden sein. Also zumindest vertrete ich dieses Maß an Qualität :)

Gut, will das Thema nicht zu weit ausreizen, habe da keinen Einfluss darauf. Ich hoffe es zumindest nicht, macht keinen guten Eindruck (persönliche Meinung).

gas3t
2017-07-13, 13:37:54
Klar ist das theoretisch machbar, aber ist das denn Service und Qualität? Von den Käufern unserer Notebooks/Workstations kann ich ein Biosupdate nur in Ausnahmefällen oder groben Problemen verlangen, die Grundfunktionen müssen vorhanden sein. Also zumindest vertrete ich dieses Maß an Qualität :)

Gut, will das Thema nicht zu weit ausreizen, habe da keinen Einfluss darauf. Ich hoffe es zumindest nicht, macht keinen guten Eindruck (persönliche Meinung).

Man sollte auch berücksichtigen, dass die Hersteller am 2. August ein neues Bios bekommen. Warum sollte man dies erst so spät veröffentlichen, wenn die Änderungen nur kosmetischer Natur sind? Das Vorgehen deutet jedenfalls darauf hin, dass etwas mehr dahinter steckt.

Loeschzwerg
2017-07-13, 13:40:04
Die bekommen nicht zwangsweise ein neues Bios, die bekommen das Source-Bios womit die Hersteller überhaupt erst die jeweiligen Anpassungen (Takt, Spannung, Lüftersteuerung, Timings...) vornehmen können. Aber lassen wir uns einfach überraschen.

vinacis_vivids
2017-07-13, 14:03:16
Inwiefern widerspricht das jetzt dem, was ich geschrieben habe? Eine neue Archtiektur zeichnet sich durch Veränderungen im "wie" aus, nicht über das "wie schnell". Außerdem sehe ich die Parallelen vom R600 eindeutig bei V10, nicht bei Fiji. R600 war nicht wegen schlechter Auslastung so langsam, sondern weil an vielen Stellen die Rohleistung gefehlt hat, weil Transistoren für Features verbraten wurden, die nichts gebracht haben. So wäre es auch bei Vega, wenn die spekulierte Leistungssteigerung ausbleibt.

R580 -> R600
Pixel MP/s: 10.400 -> 11.872 +14%
Texel MT/s : 10.400 -> 11.872 +14%
Shader Gflops: 374 -> 475 +27%
Bandbreite GB/s: 49,6 -> 106 +113%
Speicher MB: 512 -> 512 +0%
Transistoren Mio: 384 -> 700 +82%

Fiji -> Vega 10:
Pixel MP/s: 67.200 -> 88.400 ++31%
Texel MT/s : 268.800 -> 353.800 ++31%
Shader Gflops: 8.600 -> 11.300 ++31%
Bandbreite GB/s: 512 -> 484 -6%
Speicher MB: 4GB -> 8GB +100%
Transistoren Mrd: 8.9 -> 12? +34%

Ich sehe da ganz andere Änderungen.
Das *wie* steckt im u.a. im L2, HBCC und DSBR.
Die einfach Leistungssteigerung gäbe es auch schon mit fiji shrink.

Einen Vorgeschmack auf >11.3 Tflops zeigt CF mit Polaris, und zwar ohne große uArch-Änderung.
https://abload.de/img/rx580-crossfire-snipel9szt.png

Schaffe89
2017-07-13, 14:22:47
Die min FPS sind bei Low Level API jetzt schon besser. FuryX > 1080/1070

Ja, so wie mit Ryzen die Minimum FPS generell besser sind als bei Intel, ist es bei den AMD Grafikkarte natürlich auch so.:rolleyes:
Man sollte die Threads echt schließen bis Vega raus ist.
Es kommt doch außer Quatsch, Bullshit und Ratespielen eh nix bei rum, wofür es sich lohnt überhaupt in die Tasten zu hauen.

[MK2]Mythos
2017-07-13, 14:24:32
Ja, so wie mit Ryzen die Minimum FPS generell besser sind als bei Intel, ist es bei den AMD Grafikkarte natürlich auch so.:rolleyes:
Man sollte die Threads echt schließen bis Vega raus ist.
Es kommt doch außer Quatsch, Bullshit und Ratespielen eh nix bei rum, wofür es sich lohnt überhaupt in die Tasten zu hauen.
Dann lass es doch bitte. :)

Isen
2017-07-13, 14:24:32
Es kommt doch außer Quatsch, Bullshit und Ratespielen eh nix bei rum, wofür es sich lohnt überhaupt in die Tasten zu hauen.

Studenten Inside GF :freak:
DEIN Quatsch, Bullshit und Ratespiele bei Ryzen... Schaffe eben.

horn 12
2017-07-13, 16:22:14
Bei AMD geht es nun Schlag auf Schlag:
So viel Erfolg und da wird Vega dies fortführen werden!

https://videocardz.com/70933/amd-ryzen-threadripper-and-ryzen-3-product-updates

d2kx
2017-07-13, 17:02:33
@biosupdate:
Ein BIOS Update könnten sie sogar mit in den Treiber einbauen. Wäre auch nicht unüblich.

BIOS Updates, gerade auf der GPU, sind allerdings wirklich unschön. In den letzten zehn Jahren gab es AtomBIOS als Schnittstelle zwischen dem VBIOS und dem Treiber, wodurch man bereits die Möglichkeit hatte, einige Funktionen ins VBIOS auszulagern, die der Treiber dann einfach nur noch aufrufen muss.

Mit Vega wird AtomBIOS durch AMD AtomFirmware ersetzt, praktisch dem Nachfolger, mit welchem es noch mehr Möglichkeiten der Nachjustierung gibt und VBIOS Updates im besten Fall überflüssig werden. Zumindest, sobald der finale Code da ist (siehe Posts von Format_C).

Screemer
2017-07-13, 17:03:18
Ein Firmware-Update ist heutzutage nicht mit 1337-Haxx0rn unter DOS verbunden. Der Hersteller muss nur ein Exe-Package zum Download anbieten, das alle nötigen Schritte im Stile einer Batch übernimmt. Neustart und gut. Wenn was schief geht, haben FE-Käufer ja noch das sekundäre BIOS. :)

MfG,
Raff
na dann hat hoffentlich keiner tools laufen, die am i2c rumspielen oder irgendwelche anderen auswertungen fahren wie hwinfo oder arschbrenner. dadurch hätte ich mir fast meine 480 gebrickt.

basix
2017-07-13, 17:25:11
Hat Vega eigentlich auch On-Die LDOs wie Ryzen? Evtl. könnte man dann jeweils je einen LDO für die vier Rasterizer-Blöcke spendieren (also pro 1024 CUs 1x LDO). Damit könnte man noch was an Effizienz gewinnen. Oder lohnt sich das bei einer GPU nicht?

Setsul
2017-07-13, 18:53:10
@basix:
Bringt nichts weil man die nicht unabhängig takten kann.
Außerdem hält sich bei jeweils einem Viertel der GPU zusammengefasst der Unterschied in der benötigten Spannung für den gleichen Takt sehr in Grenzen.
Nebenbei Vega hat 4096 SPs, nicht CUs.

basix
2017-07-13, 19:06:52
@basix:
Bringt nichts weil man die nicht unabhängig takten kann.
Außerdem hält sich bei jeweils einem Viertel der GPU zusammengefasst der Unterschied in der benötigten Spannung für den gleichen Takt sehr in Grenzen.
Nebenbei Vega hat 4096 SPs, nicht CUs.

OK natürlich sind es SPs :) Der Takt sollte schon gleich sein, das ist die Grundbedingung. Es ging mir nur darum, On-Die Variationen abzufangen. Ich dachte nämlich die LDOs kommen bei Summit Ridge vor allem darum zum Einsatz, um Güte-Unterschiede von Core zu Core abzufangen und nicht verschiedene Clock-States noch mit variabler Spannung über die LDOs zu fahren. Oder liege ich da falsch?

Und wegen wenig Spielraum: AMD macht das bei Summit Ridge bei knapp 100mm2 für 2x CCX individuell für alle 8 Cores. Die DIE Fläche eines 1024 SP Abschnitts ist ja viel grösser. Oder liegt hier der Hund begraben? Müsste man es feiner als 1024 SPs machen können?

unl34shed
2017-07-13, 19:38:01
Bei Ryzen nutzt man die LDOs um Fertigungsunterschiede der einzelnen Cores auszugleichen, wenn du das pro CU oder sogar pro 1024SPs machst, kannst du es dir auch gleich sparen, da du statistisch wohl überall einen schlechten "Core" erwischen wirst und du deine Spannung an diesen anpassen musst.

So zumindest meine Einschätzung.

basix
2017-07-13, 21:02:24
Eben das wäre die Frage. Pro wie viel DIE Area man wie viel Performance-Unterschiede hat. Über einer gewissen Grösse lohnt sich das wahrscheinlich nicht mehr.

Iruwen
2017-07-13, 21:58:19
Respin, der einen Hardwarebug beseitigt, durch den jene Features nicht genutzt werden konnten.

Raja so "trolololo" und alle die die FE gekauft haben bekommen eine neue, nicht defekte Karte? Die Wahrscheinlichkeit dafür liegt Pi mal Daumen bei 0, +/-0.

vinacis_vivids
2017-07-13, 22:03:33
Hä?
Vega FE ist defekt?

Der_Korken
2017-07-13, 22:13:43
Raja so "trolololo" und alle die die FE gekauft haben bekommen eine neue, nicht defekte Karte? Die Wahrscheinlichkeit dafür liegt Pi mal Daumen bei 0, +/-0.

Na, das wär doch mal ein richtig guter Troll :freak: Ist mir schon klar, dass das unwahrscheinlich ist, aber ausschließen kann man es nie, da es im Laufe der Chipentwicklung immer wieder mal krasse Bugs gab wie damals den berüchtigten TLB-Bug bei AMD.

R580 -> R600
Pixel MP/s: 10.400 -> 11.872 +14%
Texel MT/s : 10.400 -> 11.872 +14%
Shader Gflops: 374 -> 475 +27%
Bandbreite GB/s: 49,6 -> 106 +113%
Speicher MB: 512 -> 512 +0%
Transistoren Mio: 384 -> 700 +82%

Fiji -> Vega 10:
Pixel MP/s: 67.200 -> 88.400 ++31%
Texel MT/s : 268.800 -> 353.800 ++31%
Shader Gflops: 8.600 -> 11.300 ++31%
Bandbreite GB/s: 512 -> 484 -6%
Speicher MB: 4GB -> 8GB +100%
Transistoren Mrd: 8.9 -> 12? +34%

Vergiss nicht, dass Vega alle Vorteile von 14nm mitnimmt, während R600 damals im selben Prozess (nur ein half node tiefer) wie der R580 antreten musste. Ansonsten sind +31% (im Optimalfall auch mal +50%) für V10 jetzt nicht so der Hammer, die Steigerung hat Fiji auf Hawaii im selben Prozess auch schon geschafft und Hawaii auf Tahiti auch. Speichermenge ist davon unabhängig und Speicherbandbreite in gewisserweise auch (klar ist auch wichtig wie effizient ein Chip mit Bandbreite umgeht, aber prinzipiell wäre es bei V10 nicht unmöglich gewesen mehr zu verbauen, nur eben recht teuer).


Das *wie* steckt im u.a. im L2, HBCC und DSBR.
Die einfach Leistungssteigerung gäbe es auch schon mit fiji shrink.

Ebendies. Es wurde viel unter der Haube geändert, aber man sieht bisher keinen positiven Effekt. Den Rohleistungsanstieg hätte man billiger haben können. Deswegen sage ich ja: Falls die RX nicht substantiell (d.h. nicht durch mehr Takt und Verbrauch) zulegt => R600 2.0

vinacis_vivids
2017-07-13, 22:33:09
Kannst auch nichts davon sehen, weil es deaktiviert ist. Aber das ist schon länger bekannt jetzt.

HBCC und HBC verstehe ich jetzt als ne Art L3 Cache. Da bringt massiv min FPS.

DSBR ist sowas wie SMT + branch prediction. Extrem verbesserte Auslastung, weniger overhead.

Insgesamt würde ich bis zu +40% taktnormiert zur Fiji behaupten bei 4k und höher.

Raff
2017-07-13, 23:04:30
Die derzeit effektiv "herausfallende" Speichertransferrate ist unter aller Sau, wenn man bedenkt, dass das bereits AMDs zweite HBM-Generation ist. Da muss noch mehr faul sein als "nur" ein inaktiver DSBR. Die Fury X erreicht in einigen Synthies bereits nicht ihren Rohdurchsatz von 512 GByte/s, sondern gute 25 Prozent weniger, und bei der Frontier Edition sieht's fast genauso aus (bei geringerer Brutto-Rate). Es gibt aber auch Lichtblicke wie Dirt 4, wo die Frontier Edition knapp an einer GTX 1080 vorbeizieht.

MfG,
Raff

aufkrawall
2017-07-13, 23:09:20
Richtig schlecht ist die Performance in Mirror's Edge. Womöglich kann sich NV da jede Menge Rechenarbeit durch verdeckte Levelgeometrie sparen.

Rsioux
2017-07-13, 23:19:05
Darauf war auch meine Frage vor ein paar Seiten bezogen. Kann der HBCC auf die Speichertransferrate Einfluss haben?

Die Hoffnung stirbt zuletzt :wink:

Raff
2017-07-13, 23:37:33
Richtig schlecht ist die Performance in Mirror's Edge. Womöglich kann sich NV da jede Menge Rechenarbeit durch verdeckte Levelgeometrie sparen.

Hauptsache, man hat mehr als 4 GiB. ;) Wobei mich da wundert, dass die Frostbite-Engine das Auslassen verdeckter Oberflächen nicht von sich aus beherrscht. Der Gewinn durch TBR sollte bei unoptimierten Engines mit hohem Overdraw besonders groß sein. Grundsätzlich ist's natürlich besser, wenn sich die Hardware darum kümmert, als sich auf Software-Tricks zu verlassen.

MfG,
Raff

iuno
2017-07-13, 23:44:05
Die haben das eigentlich schon im Blick: https://www.slideshare.net/gwihlidal/optimizing-the-graphics-pipeline-with-compute-gdc-2016

Kann mir eigentlich schwer vorstellen, dass das gerade dort schlimmer sein soll als bei anderen Engines

aufkrawall
2017-07-13, 23:45:52
Bei BF4 war mir noch häufig das Ausblenden von Objekten durch aggressives Culling aufgefallen, das hab ich bei ME tatsächlich nicht mehr bemerkt. Allerdings sind die fps im CPU-Limit verdammt hoch. Müsste mal jemand vom Fach aufklären, wie dabei Anwendung und Hardware zueinander stehen.

F4USt
2017-07-13, 23:55:42
Also ich bin gespannt. Wenn ich mir folgende Grafik anschaue, dann sieht es doch so aus, als wenn AMD darauf hinarbeitet zumindest die 1080 zu knacken.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60588&stc=1&d=1499982193

Die Treiberversion, die dort genutzt wurde, ist 22.19.653.0 und die scheint doch (viel) aktueller zu sein als die bisher bekannte Version 22.19.171.25.

Es erinnert mich doch sehr an die RX480 die man auch hochprügeln musste, um die GTX 970 zu knacken.

Quelle: https://www.youtube.com/watch?v=lgweXM5LZGQ

Dorn
2017-07-14, 07:22:57
Nix 1080 knacken, bei 280+ Watt Boardpower ist das Ziel min. 1080 TI. Zum Glück ist es bald soweit und wir alle Wissen bald mehr...
Geld liegt auf jeden Fall bereit für Vega RX oder TI.

horn 12
2017-07-14, 08:10:34
Bei mir ebenso.
Sapphire Fury Nitro OC+ wird nach knapp 2 Jahren nun verkauft, ca. 280 bis 320 Euro sollte ich dafür bekommen (war dessen Neupreis)
und dann leg ich nochmals 250 Euro drauf, denn mehr als 550 Euro wird die XT nicht kosten, dafür wohl mindestens gleichziehen mit GTX 1080TI und mehr als jene aufbieten können.
Noch 4 Tage dann sollten wir Spiele mit der RX Vega und dem optimiertem, zumindest Vorabtreiber sehen,- und AMD legt schlussendlich wohl noch einen obendrauf!

Schnitzl
2017-07-14, 09:24:46
Hallo,
ich finde es nicht mehr - wieviel Unterschied in Watt ist nochmal zwischen GDDR5X und HBM?
25-30W?
Danke i.V.

ndrs
2017-07-14, 10:05:15
Hallo,
ich finde es nicht mehr - wieviel Unterschied in Watt ist nochmal zwischen GDDR5X und HBM?
25-30W?
Danke i.V.
Meinst du diese Folien?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11358612&postcount=321

dlux
2017-07-14, 10:06:53
Wenn ich mir folgende Grafik anschaue, dann sieht es doch so aus, als wenn AMD darauf hinarbeitet zumindest die 1080 zu knacken.
AMD hat GCN5 bzw. Vega (484 mm²) sicherlich nicht mit Hintergedanke entwickelt, lediglich die GTX1080 (GP104, 314 mm²) knapp zu schlagen. Wenn das tatsächlich so eintreffen sollte, wäre GCN5 für Gaming ohne Frage eine komplette Fehlentwicklung und es würden Köpfe rollen müssen.

Ich glaube immer noch fest daran, dass AMD die Handbremse Ende des Monats lösen wird, damit wir alle im siebten GPU-Himmel schweben können. ;)

Iruwen
2017-07-14, 10:07:15
Hä?
Vega FE ist defekt?
Nein eben nicht, das war eine seiner Theorien. Warum auch immer die bisherigen Ergebnisse aussehen wie sie aussehen, dass AMD bewusst Karten mit einem Hardwaredefekt der die Performance so stark beeinflusst für >1200€ verkauft kann man wohl ausschließen.

Mortalvision
2017-07-14, 10:19:58
Fingernägel bis zum 27.07. kauen...

Pirx
2017-07-14, 10:41:01
Fingernägel bis zum 27.07. kauen...
am 18.7 gibts immerhin schon mal die erste Preview in Budapest

nairune
2017-07-14, 10:49:25
Ja, Budapest wird interessant... ich sehe zwei Möglichkeiten:
1. völlig sinnlos, irgendwelche Leute dürfen 5 min ohne FPS Counter zocken, es werden nur riesige Logos abgelichtet
2. Start des Marketings für RX Vega, mit Häppchen und evtl. schon Balken

2 wäre natürlich schön und würde sinnvoll sein, wenn sie tatsächlich mit Leistung überraschen können. 2 Wochen vor Start kann man das Feuer schon mal entfachen, ohne dass es wieder aus geht.

BlacKi
2017-07-14, 11:18:15
1 und 2.

punkt 2 wird man aber genau wie damals marketing balken sehen, die den hypetrain befeuern, aber nicht den durchschnitt zeigen.

aber amd käufer spielen doch eh nur dx12 und vulkan^^

Bei mir ebenso.
Sapphire Fury Nitro OC+ wird nach knapp 2 Jahren nun verkauft, ca. 280 bis 320 Euro sollte ich dafür bekommen (war dessen Neupreis)
erinnerungen defekt? https://geizhals.de/?phist=1373816

Palpatin
2017-07-14, 11:50:31
Nix 1080 knacken, bei 280+ Watt Boardpower ist das Ziel min. 1080 TI. Zum Glück ist es bald soweit und wir alle Wissen bald mehr...
Geld liegt auf jeden Fall bereit für Vega RX oder TI.
Ich hoffe das die XL mit 8GB kommt und die 1070 OC klar schlägt und unter 500€ liegt. Stromverbrauch wäre mir relativ egal.
VEGA XL >= 1070OC ~450€
VEGA XT = 1080OC ~550€
VEGA XTX <= 1080ti Stock ~650€

Fragman
2017-07-14, 11:53:28
Ja, Budapest wird interessant... ich sehe zwei Möglichkeiten:
1. völlig sinnlos, irgendwelche Leute dürfen 5 min ohne FPS Counter zocken, es werden nur riesige Logos abgelichtet
2. Start des Marketings für RX Vega, mit Häppchen und evtl. schon Balken

2 wäre natürlich schön und würde sinnvoll sein, wenn sie tatsächlich mit Leistung überraschen können. 2 Wochen vor Start kann man das Feuer schon mal entfachen, ohne dass es wieder aus geht.

ich tippe da auch eher auf "sinnlos", wie immer bei solchen roadshows.
alles andere wuerde ja deren genannten termin nach vorn verlegen.

Raff
2017-07-14, 11:56:05
Stromverbrauch ist nie egal. Wenn ihr sowas sagt, meint ihr gewiss die Stromrechnung. Was man dabei nicht vergessen darf, ist, dass die in Wärme umgewandelte Energie weggeschafft werden muss. Viel Durst heißt immer viel Kühlaufwand – und das wird schnell laut. Wenn eine Grafikkarte günstig sein soll und viel säuft, wird sie garantiert laut, da wenig Budget für ordentliche Kühlung vorhanden ist.

MfG,
Raff

basix
2017-07-14, 12:07:24
@ Raff: Genau

@ Schnitzl:
Anhand des Links von ndrs ca. 50W bei 500GB/s (512bit @ 8Gbps vs. 4x HBM1 @ 1Gbps). Ich nehme an, dass dieser Unterschied ein wenig kleiner ist bei 384 bit @ 11Gbps vs. 2x HBM @ 2Gbps

Edit:
Was ich noch los werden wollte: AMDs neuer Webauftritt mit Ryzen, EPYC, Threadripper und Vega FE sieht sehr sauber aus. Auch die verlinkten Dokumente etc. sehen auf den ersten Blick sehr sauber und erwachsen aus. So ist das richtig, wenn man neuen Kunden gewinnen will :up:

dargo
2017-07-14, 12:21:43
Stromverbrauch ist nie egal. Wenn ihr sowas sagt, meint ihr gewiss die Stromrechnung. Was man dabei nicht vergessen darf, ist, dass die in Wärme umgewandelte Energie weggeschafft werden muss. Viel Durst heißt immer viel Kühlaufwand – und das wird schnell laut. Wenn eine Grafikkarte günstig sein soll und viel säuft, wird sie garantiert laut, da wenig Budget für ordentliche Kühlung vorhanden ist.

MfG,
Raff
Ist im Prinzip richtig. Ihr habt aber der Sapphire Fury Tri-X selbst das Prädikat "leise" bescheinigt. Und wenn die Asic-Power von 220W für die Lüküs stimmt erwarte ich genau dort auch Vega... ~260W.

BlacKi
2017-07-14, 12:26:18
wenn die hitze dann aber das gehäuse unnötig aufheizt ist das auch nicht toll. eine 300w karte würde ich nur wassergekühlt verbauen.

dargo
2017-07-14, 12:30:19
Die luftgekühlten RX Vegas werden keine 300W verbrauchen wenn die Angaben zur Asic-Power stimmen, siehe R9 Fury.

Raff
2017-07-14, 12:31:59
Die Partner dürfen die GPU-Power aber bestimmt in einem abgesteckten Rahmen erhöhen. Da gibt's bei der RX 580 auch alles von 145 bis 190 Watt.

Alles halb so wild, man kann im Wattman ja fast beliebig rauf und runtergehen, was wirklich praktisch ist. :) Jetzt muss das Plugin nur noch die Kinderkrankheiten loswerden.

MfG,
Raff

dargo
2017-07-14, 12:34:09
Natürlich, hattest du was anderes erwartet? :tongue: Hoffentlich treiben wieder nicht alle Partner das PT nach oben um den längsten zu haben.

BlacKi
2017-07-14, 12:37:25
igor meinte doch das es sogar 375w luftgekühlte rx vegas geben wird.

iuno
2017-07-14, 12:39:07
Die Aufteilung zw. XT und XTX wird schon auch bewusst so gemacht sein, da wuerde ich bei der XT eher von "ruhigeren" Customs ausgehen.

dargo
2017-07-14, 12:41:56
igor meinte doch das es sogar 375w luftgekühlte rx vegas geben wird.
Muss mir entgangen sein. Selbst wenn, die muss man nicht kaufen.

Die Aufteilung zw. XT und XTX wird schon auch bewusst so gemacht sein, da wuerde ich bei der XT eher von "ruhigeren" Customs ausgehen.
Stimmt auch wieder.