PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Schaffe89
2017-07-03, 00:46:08
Hat den jetzt nun jemand so einen taktnormierten Vergleich irgendwo angestellt?

Gipsel
2017-07-03, 00:51:00
Hat den jetzt nun jemand so einen taktnormierten Vergleich irgendwo angestellt?Ich habe sogar die Werte für einen so gemachten Benchmark genannt, die vorher hier mit Screenshots dokumentiert wurden. Liest Du die Posts im Thread?

Unicous
2017-07-03, 00:59:09
Ist das eine Fangfrage?:eek:

Nakai
2017-07-03, 01:19:04
Boah der Thread nervt.

Das etwas mit Vega nicht stimmt, sollte klar sein. Beruhigt euch alle mal und wartet ab.

mczak
2017-07-03, 04:00:46
Was kann man sich eigentlich von Primitive Shader erwarten, wenn das jemand implementiert?
Der Primitive Shader ist in dem Sinne immer aktiv - die verschiedenen Shaderstages müssen zwingend vom Treiber zusammengeführt werden. Bei "normalen" nur VS+PS siehst du da natürlich rein gar nichts, da müssen schon Geometry- und/oder Tesselationshader her.
(Eine andere Frage ist ob man da allenfalls die Dinge schneller machen könnte wenn man diese kombinierten Shader auch direkt in den APIs nutzen könnte.)
Synthetische Tests (für Tesselation und Geometryshader) sollten das eigentlich beantworten können ich habe aber noch keine gesehen.

victore99
2017-07-03, 06:10:39
RX Vega soll nicht auf der Siggraph sein? da sagt AMD aber doch was anderes:
https://twitter.com/Radeon/status/881233662821486593
"We can't wait to announce our new Vega products, including RX at this year's #SIGGRAPH"

Korvaun
2017-07-03, 07:37:21
RX Vega soll nicht auf der Siggraph sein? da sagt AMD aber doch was anderes:
https://twitter.com/Radeon/status/881233662821486593
"We can't wait to announce our new Vega products, including RX at this year's #SIGGRAPH"

Mit Betonung auf "announce" und nicht "launch"... muss nix heißen, kann aber auf einen Paperlaunch hindeuten mit Verfügbarkeit nicht Anfang August sondern irgendwann später.

uweskw
2017-07-03, 07:39:38
AMD muss doch wissen, wo das Teil in etwa stehen würde, wenn alles funktioniert. Dass sie das bisher nicht kommunizieren, kann man wohl nur schwerlich als etwas positives interpretieren.

Sehe ich genauso.
Was es aber nicht klärt, ist warum Vega FE nur in homöopathischen Dosen verfügbar ist. Die müssten mittlerweile doch zig-tausend funktionierte Chips haben.
Wenn klar ist, dass die Leistung nicht für einen High-End Gaming Chip ausreichend ist, warum halten Sie dann die Prosumer Karten zurück, bei denen er wenigstens ein wenig Sinn macht?

Greetz
US

24p
2017-07-03, 08:06:06
Jup, das war bei Ryzen ja auch so. Da gab es angepeiltes Performanceziel.

Cyphermaster
2017-07-03, 08:14:53
@Nakai: +1.

Wenn klar ist, dass die Leistung nicht für einen High-End Gaming Chip ausreichend ist, warum halten Sie dann die Prosumer Karten zurück, bei denen er wenigstens ein wenig Sinn macht?Geringe Stückzahl macht schon alleine deshalb Sinn, weil das die Wahrscheinlichkeit senkt, daß ihnen die Kunden massiv wegen den aktuell schlechten Treibern mit nicht-aktivierten Features Ärger machen wollen. (Man kann ja den Output parallel zum nächsten Treiber-Release nach oben fahren. Derweil tausende Karten auf Halde zu legen braucht nur etwas mehr Lagerplatz als eine Doppelgarage). Abgesehen davon - und wie man sieht - hält es die Diskussion und damit das Interesse am köcheln, das man braucht, um Verbesserungen gut publik machen zu können bzw. RX Vega an den Mann zu bringen.

Daraus kann man also alles orakeln, was man will.

Rancor
2017-07-03, 08:52:56
Der Launch ist ähnlich Katastrophal wie der Skylake X und Kabylake X Launch. ICh verstehe nicht wieso IHVs sowas machen. Das schlechte Image der Produkte hängt doch ewig nach.

AMD muss doch klar gewesen sein, das etwaige User die VEGA FE durch Spielebenchmarks schickt...

uweskw
2017-07-03, 08:53:10
@Nakai: +1.

Geringe Stückzahl macht schon alleine deshalb Sinn, weil das die Wahrscheinlichkeit senkt, daß ihnen die Kunden massiv wegen den aktuell schlechten Treibern mit nicht-aktivierten Features Ärger machen wollen. ........

wenn Software, dann geht es wohl auch um das Bios.
Glaskugel+kleines1x1: Ich glaube eher die haben kaum funktionierendes Silizium und warten auf das neue Binning.
Das ist das einzige was das Verhalten von AMD wenigstens halbwegs erklärbar macht. Zumindest wenn man von professionellen Verhalten beim AMD-Management ausgeht

greetz
US

Isen
2017-07-03, 08:57:57
Abgesehen davon - und wie man sieht - hält es die Diskussion und damit das Interesse am köcheln, das man braucht, um Verbesserungen gut publik machen zu können bzw. RX Vega an den Mann zu bringen.

Wonach jeder giert - Lauffeuer vom feinsten
Sehe das genauso. Am Ende interessiert es, was mit der FE zu Beginn war nicht die Bohne.

Alles andere ist ne mächtig besoffene Glaskugel.

Korvaun
2017-07-03, 09:17:08
Hehe das ist ja mal ganz ausgefuchstes Marketing von AMD. Man launcht ein "semipro"-Produkt (absichtlich) langsam und in sehr geringen Stückzahlen damit man dann später die Gamer-Version mit nem "Wundertreiber" umso besser verkaufen kann ;)

grauenvoll
2017-07-03, 09:33:40
Das ist das einzige was das Verhalten von AMD wenigstens halbwegs erklärbar macht. Zumindest wenn man von professionellen Verhalten beim AMD-Management ausgeht

greetz
US

Wenn man ausschließlich Vega betrachtet könnte man zu der Annahme gelangen. Wenn man aber sieht was AMD dieses Jahr alles auf den Markt geschmissen hat und noch vor sich hat, ist das ein enormer Kraftakt. Die haben meinen größten Respekt!

Dural
2017-07-03, 09:34:02
Geniales Marketing, da sollte sich Intel und NV mal etwas abschauen ;)

Der erste Blick zählt, und der ist definitiv nicht gut.

Hasenpfote
2017-07-03, 09:38:03
Mit Betonung auf "announce" und nicht "launch"... muss nix heißen, kann aber auf einen Paperlaunch hindeuten mit Verfügbarkeit nicht Anfang August sondern irgendwann später.Launch wurde aber von nem Kareting-Team-Mitglied bestätigt:
https://twitter.com/killyourfm/status/881204308863180800

Kann natürlich auch nur n Paperlaunch sein.

deekey777
2017-07-03, 09:41:51
Hehe das ist ja mal ganz ausgefuchstes Marketing von AMD. Man launcht ein "semipro"-Produkt (absichtlich) langsam und in sehr geringen Stückzahlen damit man dann später die Gamer-Version mit nem "Wundertreiber" umso besser verkaufen kann ;)
Auf den R600-Wundertreiber wartet man schon sehr lange. X-D

Ich verfolge den Thread nicht wirklich in den letzten Tagen, aber der Laie sieht nur Balken. Und wenn Balken nicht lang genug sind, interessiert es ihn nicht, warum das so ist und ob das gefixt werden kann.

AlterSack
2017-07-03, 09:52:31
Hehe das ist ja mal ganz ausgefuchstes Marketing von AMD. Man launcht ein "semipro"-Produkt (absichtlich) langsam und in sehr geringen Stückzahlen damit man dann später die Gamer-Version mit nem "Wundertreiber" umso besser verkaufen kann ;)

Oder weil RXVega auf einem neuen Stepping beruht...?

nairune
2017-07-03, 10:00:06
der Laie sieht nur Balken. Und wenn Balken nicht lang genug sind, interessiert es ihn nicht, warum das so ist und ob das gefixt werden kann.

Mein Gott, es gibt noch keine RX Vega Balken, muss das wirklich ständig wiederholt werden? Wenn die stimmen, ist alles in Ordnung. Hier geht's um Spekulationen ob es so kommt, nicht um die 3000. "AMD ist nächstes Jahr pleite" Vorhersage.

Isen
2017-07-03, 10:06:42
Anderes Thema. SIGGRAPH - wird das gestreamt oder sowas? Oder wird Presse eingeladen?

unl34shed
2017-07-03, 10:12:59
Würde mich wundern wenn nicht. War bei den anderen capsaicin Events auch so.

Cyphermaster
2017-07-03, 10:48:22
wenn Software, dann geht es wohl auch um das Bios.Warum das?
Das ist das einzige was das Verhalten von AMD wenigstens halbwegs erklärbar macht.Ich glaube umgekehrt: das Einzige, was man mit großer Wahrscheinlichkeit ausschließen kann, ist, daß das alles ganz genau so von langer Hand geplant war und perfekt gelaufen ist.

@deekey777: Den Laien interessiert aber nach der Logik auch keine Profikarte, sondern erst die RX. Und damit wird es nun mal neue Balken geben, auf die es dann ankommt.

Loeschzwerg
2017-07-03, 10:51:31
So wie den Laien auch keine Titan interessiert? :D

Cyphermaster
2017-07-03, 10:57:57
Ja. Oder kennst du jemanden, der mit dem Thema wirklich überhaupt nix am Hut hat, aber trotzdem semiprofessionelle Highend-Performance-Grafikkarten für teils vierstellige Summen kauft?

grauenvoll
2017-07-03, 11:03:11
Geniales Marketing, da sollte sich Intel und NV mal etwas abschauen ;)

Der erste Blick zählt, und der ist definitiv nicht gut.


Ich glaube auch, dass man sich da etwas verrechnet hat.
Denkbar, dass man den finalen Treiber unter Verschluss hält, damit nicht im Vorfeld des Launches Ende Juli schon Test durchsickern und der Knalleffekt im Marketing verpufft. So wie man es bei Ryzen gemacht hat. Man wird Features deaktiviert haben, so dass es für die Hersteller zum testen reicht, aber noch nicht die volle Performance sichtbar ist.

Loeschzwerg
2017-07-03, 11:05:43
Was bedeutet schon "überhaupt nix". Jeder der Google bedienen kann oder in einem Forum entsprechend die Frage stellt (brauche Rechner, Kosten egal), der wird früher oder später auf diese Sparte stoßen.

Wer jetzt nach der schnellsten Radeon sucht, der wird auch bei der FE landen (oder abgeschreckt durch die Ergebnisse nicht).

Cyphermaster
2017-07-03, 11:21:09
Was bedeutet schon "überhaupt nix".Jemand, der wie von dir beschrieben "beliebig viel" Geld in seinen Rechner steckt, um maximale Performance zu kriegen, muß sich mal mindestens auch mit den einzelnen Grafikkarten-Features beschäftigt haben (sonst kann er die teure Gaming-Maschine nicht wie gewünscht einstellen). Und so jemand, der Abkürzungen wie UHD, WHD, SSAA, TSAA, MSAA, TN, IPS, SLI, Crossfire usw. inklusive ihrer Unterschiede und die Bedeutung von Begriffen wie Quincunx, Anisotrope Filterung, Downsampling, PCIe-Lanes kennt, ist eben schon kein Laie auf einem Level mehr, daß er alleine nur Balkenlänge ohne irgendwelchen weiteren Informationen werten würde.

Entsprechend kannst du also auch davon ausgehen, daß so jemand genauso die Infos zum DX Feature Level bzw. dem TBR googeln würde.

MadPenguin
2017-07-03, 11:32:37
Ein weiterer Test der FE:

http://www.gamersnexus.net/hwreviews/2973-amd-vega-frontier-edition-reviewed-too-soon-to-call

Vielleicht grundsätzlich interessant

Leonidas
2017-07-03, 11:45:18
Das wissen doch alle hier.
Die Frage ist nur, wie viel die RX Vega mit optimierten Treiber zur RV-FE zulegen wird?
Leo hat ja irgendwas von 20% - 50% eingeschätzt.


Wilde Schätzung mit bewußt weit auseinanderliegenden Extremwerten. Warum? Weil es nicht schätzbar ist.




Die Spekulationen zum launch hier gehen ja in zwei Richtungen:

1. RX Vega launch, performance zwischen 1070 und 1080, in einigen Ausreißer vielleicht über einer 1080. Dazu 300W+ Verbrauch und wird sehr heiß/laut.

2. RX Vega launch, endlich passende Treiber, 1080Ti +50% bei realen 250W. Die Lederjacke weint, Raja rauch 1000 Zigarren.


Nein, das sehe ich anders. Die Anhänger von (1) sagen den Gegenstimmen gern nach, das jene von (2) ausgehen. Aber jene Gegenstimmen gehen eher von (3) aus:

1. RX Vega launch, performance zwischen 1070 und 1080, in einigen Ausreißer vielleicht über einer 1080. Dazu 300W+ Verbrauch und wird sehr heiß/laut.

2. RX Vega launch, endlich passende Treiber, 1080Ti +50% bei realen 250W. Die Lederjacke weint, Raja rauch 1000 Zigarren.

3. RX Vega launch mit aktiven GCN5-Features, damit Lösung der Handbremse. Performance Richtung 1080Ti, möglicherweise nicht ganz erreicht, Verbrauch drüber bei 300W. AMD hat was konkurrenzfähiges, aber nVidia nicht wirklich geschlagen - alle können damit leben.

Loeschzwerg
2017-07-03, 11:48:50
Jemand, der wie von dir beschrieben "beliebig viel" Geld in seinen Rechner steckt, um maximale Performance zu kriegen, muß sich mal mindestens auch mit den einzelnen Grafikkarten-Features beschäftigt haben (sonst kann er die teure Gaming-Maschine nicht wie gewünscht einstellen).

Muss er nicht und genügend Beispiele hierzu gibt es in den einschlägigen Foren. Da wird viel Geld ausgegeben, die Regler im Spiel auf ganz rechts gezogen und wenn etwas nicht läuft... ja dann ersucht man um Hilfe.

Das war doch schon immer so und wird auch immer so bleiben.

Isen
2017-07-03, 11:48:51
@MadPenguin

lol - das ist doch die Flitzpiepe mit dem 3 Wetter Taft Wellenschlag...

Iruwen
2017-07-03, 11:49:42
Ja. Oder kennst du jemanden, der mit dem Thema wirklich überhaupt nix am Hut hat, aber trotzdem semiprofessionelle Highend-Performance-Grafikkarten für teils vierstellige Summen kauft?
Der eine Typ der die FE gebencht hat ;D

uweskw
2017-07-03, 11:55:49
Warum das?
Ich glaube umgekehrt: das Einzige, was man mit großer Wahrscheinlichkeit ausschließen kann, ist, daß das alles ganz genau so von langer Hand geplant war und perfekt gelaufen ist......




Glaskugel+1x1:
Macht doch Sinn: ein Vega Launch in H1/2017 der dafür sorgt, dass dem Management die Bonis erhalten bleiben. Und die Vega RX etwas später, mit neuem Binning.
Da geht man doch gern mal das Risiko ein, dass Gaming-Vega im Vorfeld schlecht geredet wird, in der Hoffnung, dass die Benchmarks dann eine andere Sprache sprechen.
Wenn AMD etwas besseres in der Hand hätte, würden die dem Anti-Hype doch etwas entgegensetzen.

greetz
US

HOT
2017-07-03, 12:01:51
Das mit der Spieleleistung haben die bei AMD glaub ich nie so als Drama gesehen. Ich glaube nicht, dass man da zu viel hineininterprätieren sollte. Ich hab ja auch gedacht, die haben nen kaputten Chip, aber, das scheint sich ja glücklicherweise nicht zu bewahrheiten. Ich denke eher, die haben das ein wenig unterschätzt, wie die Gemeinde darauf reagieren würde. Und ich stimme Leo Einschätzung, dass die Performance für Spiele zum Testen für die FE besonders wichtig sei auch überhaupt nicht zu. Das wird für das Testen irrelevant sein, hierfür ist eigentlich nur wichtig, dass man die Features alle testen kann. Was da letztendlich für Leistung bei rumkommt sollte dem Entwickler herzlich wurscht sein.
Und für Spieler ist die Karte nicht gedacht, es ist eben doch keine Titan sondern eine Pro-Lite quasi und so sollte man das Ding auch sehen.

24p
2017-07-03, 12:06:48
Klar, konnte ja keiner damit rechnen, dass 1070-Leistung bei 300+Watt bei den Spielern für Verstimmung sorgt. Dass nach über 6 Monaten ohne echte Info die Karte mit Spielen getestet wird ist ebenso nicht vorherzusehen gewesen.

lowkres
2017-07-03, 12:10:39
Warum sollte AMD Vega einführen, wenn diese zum Beispiel langsamer sein sollte als Polaris???
Damit schießt man sich doch selber ab. Von daher denke ich schon das wir die tatsächliche Leistung noch garnicht erst gesehen haben. AMD hat am Anfang so viel über ihre neuen Features erzählt. Für irgendwas müssen die doch gut sein. :D :D

gedi
2017-07-03, 12:20:39
Ich möchte folgendes zu bedenken geben:

- Raja hat ~ 4 Wochen vor dem Launch der FE bereits angemerkt, dass Gamer u.U. zuerst nicht zufrieden sein werden und es besser für Gamer wäre auf die RX zu warten, welche nur wenig später aufschlägt.

- Natürlich gibt es auch ein Performancetarget bez. der IPC, welches da auf einer Folie dargestellt wurde mit >40% zum Vorgänger (es war afair die gleiche Folie/das gleiche Event, welche u.a. auch die Ryzen Prognose gezeigt hatte - und die war imo im Vgl. zum Vorgänger noch sehr konservativ gewählt).

scully1234
2017-07-03, 12:23:14
Der eine Typ der die FE gebencht hat ;D

good Point:biggrin:

scully1234
2017-07-03, 12:39:59
ch keine Titan sondern eine Pro-Lite quasi und so sollte man das Ding auch sehen.

Ist die Titan nicht auch eine Quadro Lite, nur eben mit restriktiveren Vorgaben, bei den Treibern?

Deshalb beherrscht sie das andere Feld Gaming aber genau so

Der Sinn sich die Pro Sparte wegzuschneiden, indem man zuviel Pro in die FE steckt, erschließt sich eigentlich auch nur, wenn die Manpower fehlt ,um im Pro Bereich den entsprechenden Support zu leisten.

Wer verzichtet denn bitte freiwillig auf die Einnahmen in dem Bereich?

Der Geist ist jedenfalls aus der Flasche, und den bekommen sie nun auch nicht wieder eingesperrt.

Und die FE greifen sie dann im "Niedriglohnsektor" mit der RX Vega an, mit noch besser optimierten Treibern für Gamer?

Also bei aller Liebe ,das zeigt keine wirklich sinnvolle Produktplatzierung

-/\-CruNcher-/\-
2017-07-03, 12:50:28
Ist die Titan nicht auch eine Quadro Lite, nur eben mit restriktiveren Vorgaben, bei den Treibern?

Deshalb beherrscht sie das andere Feld Gaming aber genau so

Der Sinn sich die Pro Sparte wegzuschneiden, indem man zuviel Pro in die FE steckt, erschließt sich eigentlich auch nur, wenn die Manpower fehlt ,um im Pro Bereich den entsprechenden Support zu leisten.

Wer verzichtet denn bitte freiwillig auf die Einnahmen in dem Bereich?

Der Geist ist jedenfalls aus der Flasche, und den bekommen sie nun auch nicht wieder eingesperrt.

Und die FE greifen sie dann im "Niedriglohnsektor" mit der RX Vega an, mit noch besser optimierten Treibern für Gamer?

Also bei aller Liebe ,das zeigt keine wirklich sinnvolle Produktplatzierung

Weil dieser markt wegbricht er ist Ausgelutscht Low Level kann jetzt jeder

Cyphermaster
2017-07-03, 12:57:53
Muss er nicht und genügend Beispiele hierzu gibt es in den einschlägigen Foren. Da wird viel Geld ausgegeben, die Regler im Spiel auf ganz rechts gezogen und wenn etwas nicht läuft... ja dann ersucht man um Hilfe.

Das war doch schon immer so und wird auch immer so bleiben.Sicher gibt es auch diese Vögel, nur ist das sogar unter den wenigen Käufern in der Liga nochmal eine kleine Minderheit. Das ist also mitnichten "der (typische) Laie".
Glaskugel+1x1:
Macht doch Sinn: ein Vega Launch in H1/2017 der dafür sorgt, dass dem Management die Bonis erhalten bleiben. Und die Vega RX etwas später, mit neuem Binning.
Da geht man doch gern mal das Risiko ein, dass Gaming-Vega im Vorfeld schlecht geredet wird, in der Hoffnung, dass die Benchmarks dann eine andere Sprache sprechen.
Wenn AMD etwas besseres in der Hand hätte, würden die dem Anti-Hype doch etwas entgegensetzen.

greetz
USGenauso logisch Sinn machen auch eine Handvoll andere Theorien, wie sie auch hier schon genannt wurden. Bis man weitere Informationen kriegt, steht also "Glaskugel+1x1" gegen "Glaskugel+1x1", gegen "Glaskugel+1x1".

Cyphermaster
2017-07-03, 12:59:55
Der eine Typ der die FE gebencht hat ;D:biggrin: (y)

Kartenlehrling
2017-07-03, 13:06:41
Mit Features die erst in 5-8 Jahren Spiele Entwicklungszyklus greifen kann man natürlich nicht werben.
Ich erwarte aber auch 50% Leistungzuwachs zur R9nano(Performance Per Watt, 650€) in einem 1 Jahre alten DX12 Spiel, das kann man wohl nach 2 Jahre verlangen.

bun
2017-07-03, 13:17:35
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/

[–]gfxchiptweeter In Raja We Trust
Developing drivers for new architecture is one of the most complex and difficult engineering tasks for a GPU company...In fact this is one of the reasons why there are only so few GPU companies.

Wo liegt eine der größten Stärken Nvidias? Guter DirectX11 Treiber der handoptimiert aus jedem Spiel das letzte bisschen Leistung rausquetscht.

DirectX12, Mantle und Vulkan sind nett, aber nicht die Mehrheit der Spiele.

Wo setzt AMD nun -logischerweise- an um Vega's Performance zu verbessern? Treiber. Und das dauert scheinbar. Nvidia hat das auch nicht über Nacht geschafft, das war ein langer Prozess.

An kaputte Chips glaube ich nicht. Respin, vielleicht, mit kleinen Fixes. Ist ja nichts Unübliches.

grauenvoll
2017-07-03, 13:28:54
Und für Spieler ist die Karte nicht gedacht, es ist eben doch keine Titan sondern eine Pro-Lite quasi und so sollte man das Ding auch sehen.

Ich kann mir vorstellen, die Leistung kommt noch. Nach dem RX Launch.
Wenn man jetzt schon alle Karten auf den Tisch legt, kann man sich die Präsentation im Ende Juli sparen.

dildo4u
2017-07-03, 13:31:42
Das Problem sind nicht die Treiber sondern,das die GPU über 300 Watt will ansonsten trottelt sie das es kein Morgen gibt.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11418792&postcount=310

dosenfisch24
2017-07-03, 13:49:34
Das Power Limit ist für die Performance nicht das Hauptproblem. Selbst wenn sie dank Undervolting und 2600 RPM auf dem Lüfter konstant zwischen 1500 und 1600 MHZ läuft, bleibt sie unverhältnismäßig langsam. Allerdings spielt es sich dann deutlich angenehmer. Besonders in GTA 5 merkt man es, wenn sie beginnt den Ram Takt ein paar Sekunden zu senken weil sie zu Warm wird oder zu viel Saft zieht. In P-State 0 bis 3 läuft der Ram nur mit 500-800MHZ. Erst in den States 4 bis 7 läuft der Ram mit dem eingestellten Takt.

Der_Korken
2017-07-03, 13:54:00
Das Problem sind nicht die Treiber sondern,das die GPU über 300 Watt will ansonsten trottelt sie das es kein Morgen gibt.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11418792&postcount=310

Mir ist in einem CB-Posting, wo ein User einen Wattman-Screenshot zeigt aufgefallen, dass die Takt-Spannungskurve sehr eigenartig aussah. Spannung und Takt sind proportional gestiegen über die höchsten fünf Powerstates hinweg. Chips verhalten sich erfahrungsgemäß aber eher so, dass es einen Bereich gibt, wo man aus wenig Spannung sehr viel Mehrtakt bekommt, dafür aber irgendwann der Punkt erreicht wird, wo die benötigte Spannung für Mehrtakt plötzlich stark steigt oder man gar eine Taktwall erreicht wie bei Ryzen. Ich würde daher davon ausgehen, dass die Powerstates noch nicht gut austariert sind. Wenn 1600Mhz schon am oberen Limit der Taktbarkeit liegen, würde ich erwarten, dass gerade bei um die 1400Mhz noch massiv undervolting möglich ist und dieser Takt mit Feintuning sehr viel besser gehalten werden kann. Bis zur RX scheint ja noch einiges an Zeit zu sein.

dosenfisch24
2017-07-03, 13:58:59
Ich kann nur für meine Karte sprechen. Sie macht 1352MHz @ 1V, 1452MHz @ 1,05V, 1552MHz @ 1,1V. Danach gehts mit dem Spannungsbedarf Berg auf. 1600MHz benötigen schon 1,15V und 1650 1,2V. Für 1700MHz reichen die möglichen 1,25V nicht mehr aus.
Dafür ist der HBM sehr genügsam. 1GHz bei 0,925V scheinen bisher kein Problem zu sein. 0,9V bringen hingegen erste Fehler. Standard sind übrigens 1V.

dildo4u
2017-07-03, 14:09:17
Radeon Vega: FE Vcore Behemoth - VRM & PCB Analysis

https://youtu.be/zeoiPVVUnl8

fondness
2017-07-03, 14:47:55
Radeon Vega: FE Vcore Behemoth - VRM & PCB Analysis

https://youtu.be/zeoiPVVUnl8

Also nicht nur der Kühler und die Verarbeitung sehr hochwertig, sondern auch das PCB und die verbauten Teile erste Sahne.

scully1234
2017-07-03, 15:21:58
Jetzt könnte man ja mal hinterfragen ,warum man solch einen Ausbau braucht...

grauenvoll
2017-07-03, 15:26:29
Wo liegt eine der größten Stärken Nvidias? Guter DirectX11 Treiber der handoptimiert aus jedem Spiel das letzte bisschen Leistung rausquetscht.

DirectX12, Mantle und Vulkan sind nett, aber nicht die Mehrheit der Spiele.


DX11 können sie. DX12 und Vulkan sind bei dafür nur rudimentär implementiert.

Bei LowLevel APIs verlagert sich die Komplexität in die Applikation. Feintuning ist bei neuen Architekturen immer notwendig. Egal wie und wo. Wir haben es bei Ryzen gesehen.

Achill
2017-07-03, 15:27:14
Jetzt könnte man ja mal hinterfragen ,warum man solch einen Ausbau braucht...

Man könnte auch Fragen, warum man damit nicht zufrieden sein kann ...

BTT ... Ich warte bis Rx Vega vorgestellt wird, dann bilde ich mir ein abschließendes Urteil.

Gipsel
2017-07-03, 15:30:16
Dafür ist der HBM sehr genügsam. 1GHz bei 0,925V scheinen bisher kein Problem zu sein. 0,9V bringen hingegen erste Fehler. Standard sind übrigens 1V.Das wird in Wattman mal wieder die Spannung des Speichercontrollers sein. HBM(2) ist mit 1,2V spezifiziert. Diese Spannung wird man wohl in Wattman nicht ändern können, nur die für den Speichercontroller.

scully1234
2017-07-03, 15:33:01
Man könnte auch Fragen, warum man damit nicht zufrieden sein kann ...
.

Weil kein Hersteller grundlos mehr verbaut , wie unbedingt nötig, schon gar nicht wenn man wie AMD auf jeden Cent angewiesen ist.

Copy/Paste RX480 jenseits des Sweetspots , danach sieht die Versorgung aus...

fondness
2017-07-03, 15:46:17
Weil kein Hersteller grundlos mehr verbaut , wie unbedingt nötig, schon gar nicht wenn man wie AMD auf jeden Cent angewiesen ist.

Copy/Paste RX480 jenseits des Sweetspots , danach sieht die Versorgung aus...

Das ist eine $1000 Karte, da darf man auch hochwertige Bauteile erwarten. Nur weil NV auch bei einer TITAN nur Plastik und das nötigste verbaut, muss das AMD nicht genau so machen.

scully1234
2017-07-03, 15:49:01
Ich kann nur für meine Karte sprechen. Sie macht 1352MHz @ 1V, 1452MHz @ 1,05V, 1552MHz @ 1,1V. Danach gehts mit dem Spannungsbedarf Berg auf. 1600MHz benötigen schon 1,15V und 1650 1,2V. Für 1700MHz reichen die möglichen 1,25V nicht mehr aus.
.

hier hast du deine Antwort für die "hochwertigen" Bauteile

dargo
2017-07-03, 15:50:21
Weil kein Hersteller grundlos mehr verbaut , wie unbedingt nötig, schon gar nicht wenn man wie AMD auf jeden Cent angewiesen ist.

Bei einer Vega FE für 1200+€ ist man also auf jeden Cent angewiesen? Aha...

btw.
Intel ist dann wohl auch auf jeden Cent angewiesen. Schließlich verlöten sie den IHS im Performancesegment nicht. ;D

Hübie
2017-07-03, 15:53:01
Also nicht nur der Kühler und die Verarbeitung sehr hochwertig, sondern auch das PCB und die verbauten Teile erste Sahne.

War bei Fury iirc eigentlich schon Richtung top tier, vor allem für ein Referenz-Design. Die Backplate sieht mir aber nach Stahl-Blech aus oder täuscht das? Sieht jedenfalls nicht wie eloxiertes Aluminium aus.

Dural
2017-07-03, 16:01:31
Laut einem User im Computerbase soll es eine Kunststoff Abdeckung sein.

Und die hochwertigen Bauteile machen schon sinn, eventuell auch weil sie so extrem nahe an der GPU (Thermische Belastung) verbaut sind. Der Speicher Puffer fällt bei HBM Karten halt aus und wirklich wenig
zieht die Karte ja auch nicht aus der Dose ;)

fondness
2017-07-03, 16:01:50
hier hast du deine Antwort für die "hochwertigen" Bauteile

Seit wann ist OC-Spielraum was schlechtes? Ein hochwertiges PCB ist nie ein Nachteil, aber klar das du wieder irgendwie das Haar in der Suppe hineininterpretieren musst.

Laut einem User im Computerbase soll es eine Kunststoff Abdeckung sein.


Was schlicht Blödsinn ist.

Isen
2017-07-03, 16:03:32
Laut einem User im Computerbase soll es eine Kunststoff Abdeckung sein.


Ist aber Alu ;)
User nur keine Ahnung

dildo4u
2017-07-03, 16:05:03
Das Positive aus dem Video ist das HBM2 sparsam ist also ne Option für ne zukünftige Konsole.

Dural
2017-07-03, 16:05:10
Sicher? Wie so meint der das dann? Er hat die Karte ja :)

uweskw
2017-07-03, 16:05:51
Jetzt könnte man ja mal hinterfragen ,warum man solch einen Ausbau braucht...

jetzt könnte man mal hinterfragen, ob du für dein ständiges gebashe wenigstens bezahlt wirst?
Nur leider ist es selten so offensichtlich wie in diesem Beispie.

greetz
US

dargo
2017-07-03, 16:09:48
hier hast du deine Antwort für die "hochwertigen" Bauteile
Gibt es dafür auch Verbrauchsmessungen? Mir schwirren bei RX Vega immer noch 12,5 TFLOPs im Kopf. Wenn AMD bei 1526Mhz noch unter 1,10V bleiben kann passt das noch in 250W TDP?

fondness
2017-07-03, 16:10:14
Sicher? Wie so meint der das dann? Er hat die Karte ja :)

Weil er keine Ahnung hat? Reviews lesen, dann siehst du, dass das definitiv Alu ist. Hört man auch schon alleine am Klang.

Isen
2017-07-03, 16:11:38
Sicher? Wie so meint der das dann? Er hat die Karte ja :)

Absolut sicher.
Umso schlimmer ist es, wenn er sie hat und es nicht erkennt. Eben keine Ahnung die Flitzpiepe.

scully1234
2017-07-03, 16:11:49
jetzt könnte man mal hinterfragen, ob du für dein ständiges gebashe wenigstens bezahlt wirst?
Nur leider ist es selten so offensichtlich wie in diesem Beispie.

greetz
US

Oben steht ganz klar wie es mit der Stromversorgung aussieht ,und wie sich das nur mäßig im OC niederschlägt. Keine Ahnung warum man da wegen der Stromversorgung zum Jubelperser werden soll, nur weil sie schlicht und ergreifend notwendig ist, so wie selbstredend bei der 480 schon.

Wenn man vor hat 375Watt Karten mit AIO zu bauen ,ist das eben ein notwendiges Übel

dosenfisch24
2017-07-03, 16:15:24
Sicher? Wie so meint der das dann? Er hat die Karte ja :)

Die Teile sind 100% aus eloxiertem Alu. Als die Karte am Samstag Morgen kam, hat man wunderbar gemerkt wie typisch kühl alles in der Hand lag, was bei Kunststoff nie der Fall ist. Entsprechend durfte die Karte auch erst mal auf Raumtemperatur kommen, bevor sie verbaut wurde.

Troyan
2017-07-03, 16:19:41
Wo hast du bestellt? In England?

fondness
2017-07-03, 16:21:14
MF hat schon "über 5 Karten" verkauft.
https://www.mindfactory.de/product_info.php/16GB-AMD-Radeon-Vega-Frontier-Air--HBM2--HDMI--3x-DisplayPort_1180479.html

Andere Händler werden wohl auch eine Hand voll Karten bekommen haben.

Taigatrommel
2017-07-03, 16:38:57
Sicher? Wie so meint der das dann? Er hat die Karte ja :)
Von den bisherigen Antworten mal abgesehen war besagter User die einzige Quelle, die behauptet hat, die Kühlerabdeckung sei aus Kunststoff. Alle anderen Quellen haben stets Metall bzw. eben direkt Alu angegeben. Bereits vor diesem einen Statement waren ja schon vereinzelt andere Berichte online.

X-Bow
2017-07-03, 17:03:54
Sicher? Wie so meint der das dann? Er hat die Karte ja :)

Außerdem sind die Schrauben versenkt. Würde bei so dünnem Kunststoff überhaupt kein Sinn machen.

Klang, Farbe, Bearbeitung und Festigkeit sprechen eindeutig für Alu. :wink:

aufkrawall
2017-07-03, 17:22:23
Wie viele Seiten muss es sich hier im Speku-Thread eigentlich noch um ein völlig unwichtiges Bauteil drehen?

N0Thing
2017-07-03, 17:32:17
Wie viele Seiten muss es sich hier im Speku-Thread eigentlich noch um ein völlig unwichtiges Bauteil drehen?

Scheint für einige deutlich wichtiger zu sein, als hochwertige Bauteile auf dem PCB. :freak:

Hübie
2017-07-03, 17:53:09
Weil er keine Ahnung hat? Reviews lesen, dann siehst du, dass das definitiv Alu ist. Hört man auch schon alleine am Klang.

Ja eben. Klingt eher wie Weiß- oder Stahlblech. Ist zwar nicht wichtig aber einfach nur der Vollständigkeit halber. ;)

[MK2]Mythos
2017-07-03, 18:13:01
Womit sich einige hier identifizieren, sieht man ja schon am Profilbild. ;)
Ich finde auch, dass es, im Gegensatz zur Spieleleistung, (die ja vermutlich noch deutlich besser wird) an der Vega Grafikkarte nicht viel zu meckern gibt, wenn es denn knappe 1080ti Leistung wird, gehen 300 Watt Verbrauch völlig in Ordnung. NVIDIA kanns ja auch nicht viel besser. 50 Watt mehr oder weniger sind bei diesen Größenordnungen dann wirklich wurscht. Viel wichtiger finde ich, dass die Karte nicht fiept, um die Abwärme kümmert sich dann eh eine Wasserkühlung.

Cyphermaster
2017-07-03, 18:23:20
Das Power Limit ist für die Performance nicht das Hauptproblem. Selbst wenn sie dank Undervolting und 2600 RPM auf dem Lüfter konstant zwischen 1500 und 1600 MHZ läuft, bleibt sie unverhältnismäßig langsam. Allerdings spielt es sich dann deutlich angenehmer. Besonders in GTA 5 merkt man es, wenn sie beginnt den Ram Takt ein paar Sekunden zu senken weil sie zu Warm wird oder zu viel Saft zieht. In P-State 0 bis 3 läuft der Ram nur mit 500-800MHZ. Erst in den States 4 bis 7 läuft der Ram mit dem eingestellten Takt.
Ich kann nur für meine Karte sprechen. Sie macht 1352MHz @ 1V, 1452MHz @ 1,05V, 1552MHz @ 1,1V. Danach gehts mit dem Spannungsbedarf Berg auf. 1600MHz benötigen schon 1,15V und 1650 1,2V. Für 1700MHz reichen die möglichen 1,25V nicht mehr aus.
Dafür ist der HBM sehr genügsam. 1GHz bei 0,925V scheinen bisher kein Problem zu sein. 0,9V bringen hingegen erste Fehler. Standard sind übrigens 1V.Solche Karten werden üblicherweise so ausgelegt, daß sie nur in/zu einem gewissen Prozentsatz an Anwendungen drosseln. Wenn die Karte ziemlich durchgehend/chronisch drosselt, obendrein das auch noch trotz Undervolting ist das ein Indiz für einen Betrieb fernab des Auslegungspunktes.
Das spricht genau wie der fehlende, dem Mehrtakt angemessene Leistungszuwachs dafür, daß man die Karte anhand von ganz anderen (Meß-?)Daten eingestellt und den Kühler definiert hatte. Was wiederum die Theorie stützt, daß bei der FE etwas eher kurz als lang vor dem Release aufgefallen ist, und/oder es sich bei dem Problem um etwas handelt, was man in Software und eher rasch nachbessern kann - bei einem Hardware-Problem (= persistent) hätte man bei Kühler und Einstellungskurven wohl noch in einer Hauruck-Last-Minute-Notfallaktion was gemacht, um das sich ergebende Bild ein wenig zu schönen.

Entropy
2017-07-03, 18:28:21
DX11 können sie. DX12 und Vulkan sind bei dafür nur rudimentär implementiert.
Bei LowLevel APIs verlagert sich die Komplexität in die Applikation.
Etwas komplexes kann NVidia, etwas rudimentäres nicht? Kannst du das bitte erklären? Für mich klingt das paradox.

basix
2017-07-03, 18:33:24
Etwas komplexes kann NVidia, etwas rudimentäres nicht? Kannst du das bitte erklären? Für mich klingt das paradox.

Das war bei der Aussage von grauenvoll gar nicht gemeint. Rudimentär heisst in diesem Fall "mehr schlecht als recht" oder "man könnte es noch besser machen" ;) Ob dies nun auf Seiten HW oder SW hakt ist eine andere Frage

Screemer
2017-07-03, 18:34:14
Ja eben. Klingt eher wie Weiß- oder Stahlblech. Ist zwar nicht wichtig aber einfach nur der Vollständigkeit halber. ;)
sagt mal ehrlich. geht euch noch gut? erst wird aus alu schnell mal plastik, dann wird wieder angezweifelt, dass es alu ist und es wird weißblech draus. als ob du das am klang in nem video hören könntest. fondness ging es mit seiner aussage schlicht darum, dass es metallisch klingt und deshalb nicht plastik sein kann. sollen die käufer und reviewer die shroud jetzt einer metallurgischen untersuchung unterziehen oder könnte man zur abwechslung einfach mal amd glauben was sie sagen? verkneift euch so nen scheiß doch einfach.

Hübie
2017-07-03, 18:39:02
Ich sag doch nirgends was von Plastik. Alu kannst du jedoch sehr schlecht abkanten wenn der Steg so kurz ist und klingt eben auch anders. Würfel mal nichts durcheinander. Das es kein Kunststoff ist sieht ein Blinder mit einem Krückstock und hört ein Tauber sogar heraus. Vielleicht geht es DIR nicht gut gleich wieder so anzuspringen... :rolleyes:

Entropy
2017-07-03, 18:48:03
Das war bei der Aussage von grauenvoll gar nicht gemeint. Rudimentär heisst in diesem Fall "mehr schlecht als recht" oder "man könnte es noch besser machen" ;) Ob dies nun auf Seiten HW oder SW hakt ist eine andere FrageAch, dann hatte ich das falsch interpretiert.

Aus unserer Sicht ist es jedoch schwer zu sagen, ob nun D3D 12 bzw. Vulkan so verbesserungswürdig ist, oder deren D3D 11 nur so gut implementiert ist.

Gipsel
2017-07-03, 18:55:40
Solche Karten werden üblicherweise so ausgelegt, daß sie nur in/zu einem gewissen Prozentsatz an Anwendungen drosseln. Wenn die Karte ziemlich durchgehend/chronisch drosselt, obendrein das auch noch trotz Undervolting ist das ein Indiz für einen Betrieb fernab des Auslegungspunktes.Schau Dir mal an, was nV-Karten so machen. Wann boosten die denn im Referenzdesign mal auf ihren wirklichen Maximaltakt (der ja gar nicht angegeben wird)? Die "drosseln" doch auch ständig, nur wird es da halt andersrum verkauft. ;)

aufkrawall
2017-07-03, 19:00:37
1. Es gibt keinen allgemeingültigen Vorteil von NV mit DX11, einige Spiele laufen auch auf Radeons im Vergleich zu NV damit rasend schnell im GPU-Limit.
2. Es gibt auch Spiele, die mit DX12 auf Nvidia auch im GPU-Limit schneller laufen als mit DX11.
3. Gibt es auch Spiele, die im GPU-Limit auf Radeons mit DX12/Vulkan langsamer laufen als mit DX11.

-> diese ständig im Raum stehende Behauptung, NV verliere generell mit LL im GPU-Limit und AMD gewinnt, ist so verkürzt, dass sie schon wieder falsch ist.

Screemer
2017-07-03, 19:09:21
Ich sag doch nirgends was von Plastik. Alu kannst du jedoch sehr schlecht abkanten wenn der Steg so kurz ist und klingt eben auch anders. Würfel mal nichts durcheinander. Das es kein Kunststoff ist sieht ein Blinder mit einem Krückstock und hört ein Tauber sogar heraus. Vielleicht geht es DIR nicht gut gleich wieder so anzuspringen... :rolleyes:
Wenn ein Hersteller sagt, dass das shroud aus alu ist und sogar in den USA produziert wird geh ich schlicht davon aus, dass sie kein Stahlblech verbauen. Ist völlig scheiß egal welcher Hersteller. Das was du machst ist nicht mal im Ansatz Spekulation sondern schlicht fud. Da das abkanten von alu ja so problematisch ist kannst du in jedem Baumarkt alu-l-profile kaufen die ein vermögen kosten. Hörst du dir eigentlich zu? Was soll das?

Troyan
2017-07-03, 19:24:35
Meine Frontier Edition ist unterwegs. Soll ich ein ALU-Test machen? :D

Screemer
2017-07-03, 19:27:36
und igor hat immer noch nicht mal ein datum für eine? ich lach mich tot.

Troyan
2017-07-03, 19:28:43
Ich habe bei Caseking einfach mal per Nachnahme bestellt. War für 5. Juli angegeben und sprang gestern oder so auf 12. Juli.

Loeschzwerg
2017-07-03, 19:29:56
AMD gibt in einem Pressebericht Kelt Reeves (Falcon Northwest) wieder, der von Alu spricht. Da gehe ich davon aus dass das auch stimmt und hier nicht eine Falschinformation weitergegeben wird.

Cyphermaster
2017-07-03, 19:33:32
Schau Dir mal an, was nV-Karten so machen. Wann boosten die denn im Referenzdesign mal auf ihren wirklichen Maximaltakt (der ja gar nicht angegeben wird)? Die "drosseln" doch auch ständig, nur wird es da halt andersrum verkauft. ;)Pro/Semi-Pro afaik gar nicht so selten. Und sogar im Fall, dass sie das nicht so oft tun würden: Wenn der Unterschied in der Leistung zwischen 'normal' und 'maximal' aber eher minimal ist wie bei der FE, ist trotzdem was faul. ;)

Hübie
2017-07-03, 19:36:39
Wenn ein Hersteller sagt, dass das shroud aus alu ist und sogar in den USA produziert wird geh ich schlicht davon aus, dass sie kein Stahlblech verbauen. Ist völlig scheiß egal welcher Hersteller. Das was du machst ist nicht mal im Ansatz Spekulation sondern schlicht fud. Da das abkanten von alu ja so problematisch ist kannst du in jedem Baumarkt alu-l-profile kaufen die ein vermögen kosten. Hörst du dir eigentlich zu? Was soll das?

Das ist stranggepresstes Alu was du meinst (das Prinzip wie bei Playdo-Knete die man durch eine Form drückt). Shroud ist die Ummantelung des Kühlers und der Lüfter.
Entweder die ist gegossen (teuer, aufwändig und vor allem bei der dünnen Stärke unwahrscheinlich), die ist aus einem Alu-Stück gefräst (sehr viel Verschnitt ( Späne) oder es ist (Weiß- bzw Stahl-) Blech.
Ich markiere mal die dünnen Abkantungen (Umformen so kleiner Flächen und Kanten geht bei üblichen Alu-Legierungen nur mit Warumumformung die teuer ist):

https://abload.de/img/radeonvegafe_backplat9ns99.png (http://abload.de/image.php?img=radeonvegafe_backplat9ns99.png)

Hier noch was:
https://abload.de/img/radeonvegafe_backplat57shb.png (http://abload.de/image.php?img=radeonvegafe_backplat57shb.png)

Hier hörst du ein Geräusch was ziemlich nach Blech klingt (und auch beim herausnehmen der Schrauben etc.): https://youtu.be/txHJZdPadG0?t=160

Ich finde es zwar nicht wichtig, aber wenn du so herum pupst will ich dir auch sagen, warum ich denke, dass es Blech ist.

Cyphermaster
2017-07-03, 19:40:39
Echt jetzt, ihr hängt euch immer noch DARAN auf? :rolleyes:

dildo4u
2017-07-03, 19:43:06
Schau Dir mal an, was nV-Karten so machen. Wann boosten die denn im Referenzdesign mal auf ihren wirklichen Maximaltakt (der ja gar nicht angegeben wird)? Die "drosseln" doch auch ständig, nur wird es da halt andersrum verkauft. ;)
AMD wirbt mit 13 Tflops für Vega Fe,das hat gar nix mit der Realität zu tun jedenfalls für die Lukü Version.

https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/

NV's Angabe vom Boost stimmt laut PCGH ziemlich gut.

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/Geforce-GTX-1080-Test-Review-1195464/2/

Base 1.6Ghz /Boost 1.733Ghz

http://abload.de/img/1080h85slk.png

Also läuft AMD in den Nähe der Baseclock,NV in der Nähe vom Boost.
Kein Plan was das mit anders verkaufen zu tun haben soll.

Gipsel
2017-07-03, 19:54:04
Hier noch was:
https://abload.de/img/radeonvegafe_backplat57shb.png (http://abload.de/image.php?img=radeonvegafe_backplat57shb.png)Wat nu? Alu und gefräst oder Stahlblech (mit ein paar Kratzern)? Die Backplate haben die nämlich sicher nicht aus einem Block Stahl gefräst. Das wäre wirklich zu aufwendig. :rolleyes:
Btw., die Oberflächenstruktur sieht da anders aus, weil Du sie nicht siehst, weil nicht im Fokus.

Achill
2017-07-03, 19:54:43
Echt jetzt, ihr hängt euch immer noch DARAN auf? :rolleyes:

+1

Können wir uns nicht darauf einigen das es eine metallische Backplane ist? Dann können wir das hinter uns lassen.

Für mich wirkt die Fokussierung gekünstelt, interessant ist doch das ROCm v1.6 seit dem 30. Juni 2017 auch Support für Vega FE mitbringt unter Linux mitbringt ...

[..]
New GPU Support for ROCm 1.6:

Radeon Instinct Family MI25, MI8, MI6
Radeon Vega Frontier Edition
[..]

bbott
2017-07-03, 20:03:12
Warum sollte Vega FE zum Launch mit der vollen Gaming Performance herausbringen?!

Man versucht sich einen neuen Profi-Kundenstamm aufzubauen, da sollte man bei beschränkter Menge nicht noch mehr potenzielle Käufer anlocken.

dargo
2017-07-03, 20:11:54
3. Gibt es auch Spiele, die im GPU-Limit auf Radeons mit DX12/Vulkan langsamer laufen als mit DX11.

Kannst du da mal Beispiele nennen? Mir sind nämlich keine bekannt. Bitte kein Linux.

AlterSack
2017-07-03, 20:12:31
Meine Frontier Edition ist unterwegs. Soll ich ein ALU-Test machen? :D

Halte einfach einen Magneten ran. ...gut könnte ja auch Edelstahl sein.
Dann hielte der auch nicht. ;)

Schaffe89
2017-07-03, 20:28:52
Hehe das ist ja mal ganz ausgefuchstes Marketing von AMD. Man launcht ein "semipro"-Produkt (absichtlich) langsam und in sehr geringen Stückzahlen damit man dann später die Gamer-Version mit nem "Wundertreiber" umso besser verkaufen kann ;)

Total geniales Marketing. Monatelang schlechte Presse, monatelang wird der Verkauf der 1070/1080/1080 Ti angekurbelt, keine Stellungnahme zu der Leistung auf Niveau einer GTX 1070. Das ist wirklich Marketing dass dem generieren von Einnahmen massiv schadet und der Marke AMD im generellen.;D

Ein absoluter Geniestreich von AMD, sich selbs das Geschäft zu versauen, daher ist es völlig unwahrscheinlich dass das eine Strategie sein soll.
Höchstens eine Strategie um pleite zu gehen.
Manchmal muss man wirklich den Verstand einiger AMD Fans hier massiv anzweifeln.

Gipsel
2017-07-03, 20:33:13
Also läuft AMD in den Nähe der Baseclock,NV in der Nähe vom Boost.
Kein Plan was das mit anders verkaufen zu tun haben soll.Du hast meinen Punkt nicht verstanden.
Wie hoch boostet eine typische Pascal-Karte bei sehr guter Kühlung und nach Erhöhung des Powerlimits? Ist das eine irgendwo prominent genannte Zahl und ist es für eine Referenzkarte@Stock realistisch, daß die Karte dauerhaft an dem Takt klebt? Nein?
Genau! Deswegen ist es nicht wirklich zielführend zu sagen, daß der Fakt, daß die FE@stock nur eher selten die 1,6GHz erreicht, dafür spricht, daß die Karte "fernab ihres Auslegungspunktes" betrieben wird. Denn das trifft eigentlich auch auf alle nV-Karten zu. Die bewerben eben nur nicht den Maximaltakt (kann sich der nicht sogar von Karte zu Karte unterscheiden?), sie verkaufen es anders mit Angabe von Basetakt und "typischem" Boost (ohne den Maximalboost zu erwähnen). Der Fakt, daß die Karte selten mit Maximalboost läuft, ist aber eigentlich identisch.

dildo4u
2017-07-03, 20:35:22
Total geniales Marketing. Monatelang schlechte Presse, monatelang wird der Verkauf der 1070/1080/1080 Ti angekurbelt, keine Stellungnahme zu der Leistung auf Niveau einer GTX 1070. Das ist wirklich Marketing dass dem generieren von Einnahmen massiv schadet und der Marke AMD im generellen.;D

Ein absoluter Geniestreich von AMD, sich selbs das Geschäft zu versauen, daher ist es völlig unwahrscheinlich dass das eine Strategie sein soll.
Höchstens eine Strategie um pleite zu gehen.
Manchmal muss man wirklich den Versand einiger AMD Fans hier massiv anzweifeln.
Vega FE verkauft in jedem Fall 1080,die sind kacke zum Minen der Preis steigt trotzdem.

https://www.computerbase.de/2017-07/bitcoin-ethereum-mining-anleitung-installation-gefahren-nutzen/

tm0975
2017-07-03, 20:38:03
T...keine Stellungnahme zu der Leistung auf Niveau einer GTX 1070...

bla bla bla, wie immer von dir.

In den Tests schlägt die Radeon Vega Frontier Edition eine ähnlich teure GeForce Titan Xp deutlich um 20 bis 80 Prozent.

das sind die tests für die software-zielgruppe, für die die karte gedacht ist.

n porsche turbo ist auch nicht besonders gut für einen umzug geeignet oder als mannschaftsbus, ist aber dennoch nicht grundsätzlich ein schlechtes auto... zu kompliziert für dich?!

Isen
2017-07-03, 20:40:41
Das ist zu Complicated für ihn :P :freak:

aufkrawall
2017-07-03, 20:42:53
Kannst du da mal Beispiele nennen? Mir sind nämlich keine bekannt. Bitte kein Linux.
Hitman läuft gleich schnell, aber mit weniger AF. Also würde es mit gleich viel AF langsamer laufen.
Talos Principle und damit wohl auch Fusion 2017 laufen mit Vulkan im GPU-Limit ebenfalls langsamer. Dota 2 in 4k offenbar auch.

Schaffe89
2017-07-03, 20:55:20
bla bla bla, wie immer von dir.

Ist halt das Ergebnis von PcPer.:rolleyes:
Natürlich interveniert AMD da nicht, wenn des finale Ergebnis kaum besser ist.
So nimmt man wenigstens kleinere Steigerungen mit und kann sie positiv verkaufen, das nennt man Strategie und das ist die einzige die halbwegs Sinn ergibt.

Wenn da viel mehr drinn wäre, hätte man lange schon den Mund aufgemacht, schließlich geht es da um Asche.

das sind die tests für die software-zielgruppe, für die die karte gedacht ist.

Genau, deswegen wird sie als Konkurrenz zur Titan X angeführt und beinhaltet einen Gaming Mode mit angepasster Lüftersteuerung..;D


n porsche turbo ist auch nicht besonders gut für einen umzug geeignet oder als mannschaftsbus, ist aber dennoch nicht grundsätzlich ein schlechtes auto... zu kompliziert für dich?!

Ein absoluter Geniestrech von AMD professionelle Treiiber gegen G-Force Treiber zu vergleichen, aber dann wenn es um Gaming geht, das gesame Marketing an die Wand fahren zu lassen und quasi nix zu sagen, sondern wie bei Bulldozer einen Spielbarkeitsvergleich zu machen.:D
Die AMD Fans missionieren massiv in den Foren, weil Really Really Raja, der schon zur Effizienz der RX 480 schlicht und einfach gelogen hat, jetzt bei so einer verfahrenen Situation die hinten ujnd vorne keinen Sinn ergibt, total glaubürdig ist.

Ich hoffe der Mann wird gefeuert. Schadet AMD nur und kann kein Englisch das man halbwegs versteht und zudem kann er keine Präsentationen halten.

Wer da immernoch überzeugt ist. Naja was soll man dazu noch sagen? Realitätsverweigerung ist da schon zu milde ausgedrückt.

Wo ist denn AMD´s Selbstbewusstsein, ala poor Volta hin? Wo gibt es denn Hinweise auf zurückgehaltene Leistung? Alles Gerüchte, Schätzungen, mehr nicht.

Nakai
2017-07-03, 21:14:12
Schaffe, eine Bitte an dich:
Schnapp dir eine Pille und leg dich ins Bett.:)

Das ist hier so unerträglich. Man kann hier nicht einfach mal lesen, ohne konstant irgendwelchen Bullshit zu lesen.

Die getesteten Werte der FE sind einfach erbärmlich mies, für eine GPU dieser Größe. Nochmal, da passt was nicht. Lasst den Leute, die jetzt eine FE haben, ein paar Benchmarks laufen und vielleicht finden wir mehr heraus. Dieses sinnlose Gebashe/Gezerre auf beiden Seiten bringt gar nichts. Sucht euch mal ehrliche Probleme.

dargo
2017-07-03, 21:21:06
Du hast meinen Punkt nicht verstanden.
Wie hoch boostet eine typische Pascal-Karte bei sehr guter Kühlung und nach Erhöhung des Powerlimits? Ist das eine irgendwo prominent genannte Zahl und ist es für eine Referenzkarte@Stock realistisch, daß die Karte dauerhaft an dem Takt klebt? Nein?
Genau! Deswegen ist es nicht wirklich zielführend zu sagen, daß der Fakt, daß die FE@stock nur eher selten die 1,6GHz erreicht, dafür spricht, daß die Karte "fernab ihres Auslegungspunktes" betrieben wird. Denn das trifft eigentlich auch auf alle nV-Karten zu. Die bewerben eben nur nicht den Maximaltakt (kann sich der nicht sogar von Karte zu Karte unterscheiden?), sie verkaufen es anders mit Angabe von Basetakt und "typischem" Boost (ohne den Maximalboost zu erwähnen). Der Fakt, daß die Karte selten mit Maximalboost läuft, ist aber eigentlich identisch.
Jein. Bei NV ist das ziemlich durcheinander. Einem GP106 bescheinigt NV bsw. einen Boost von 1708Mhz. In Games taktet die Referenzkarte sogar über diesem Wert, nämlich mit >1800Mhz.
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-9.html

Bei GP104 ist es wieder andersrum.
http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-11.html

GP102 stimmt in etwa bzw. liegt man leicht drüber.
http://www.tomshardware.de/nvidia-geforce-gtx-1080-ti,testberichte-242335-6.html

BlacKi
2017-07-03, 21:23:09
Halte einfach einen Magneten ran. ...gut könnte ja auch Edelstahl sein.
Dann hielte der auch nicht. ;)
einfach mal den alumagneten rausholen:biggrin:

dargo
2017-07-03, 21:30:10
Hitman läuft gleich schnell, aber mit weniger AF. Also würde es mit gleich viel AF langsamer laufen.

Hmm...
https://www.youtube.com/watch?v=KrDj912Vlto

Verstehnix
2017-07-03, 21:33:02
Warum die Backplate nicht einfach vermessen und dann wiegen....
Aluminium dichte: iwas bei 2,71 g/cm³ ,stahl iwas bei 7,8 g/cm³ und kunststoff sollte bei rund 1 g/cm³ liegen....

aufkrawall
2017-07-03, 21:35:33
Hmm...
https://www.youtube.com/watch?v=KrDj912Vlto
In meinem Test im Paris-Level lief es gleich schnell und in dem Video ist ja teilweise sogar die 1060 im CPU-Limit und somit mit DX12 schneller.

dildo4u
2017-07-03, 21:38:14
Das ist 1440p,da wird der 1060 der Speicher ausgehen.

aufkrawall
2017-07-03, 21:39:03
Ich denke nicht.

Screemer
2017-07-03, 21:40:47
Holy crap. backplate? fuuu. sorry my bad. zur backplate hat amd nämlich nix gesagt... mea culpa, mea maxima culpa!

dargo
2017-07-03, 21:41:57
Das ist 1440p,da wird der 1060 der Speicher ausgehen.
Man sieht davon in der FCAT Messung nichts.

Gipsel
2017-07-03, 21:44:35
Einem GP106 bescheinigt NV bsw. einen Boost von 1708Mhz. In Games taktet die Referenzkarte sogar über diesem Wert, nämlich mit >1800Mhz.Und der Maximalboost (nicht der beworbene typische!) liegt noch höher und der wird natürlich nicht gehalten.
Bei GP104 ist es wieder andersrum.Da ist gar nichts andersrum, der Maximalboost (~1,9GHz?) wird klar nicht gehalten.
GP102 stimmt in etwa bzw. liegt man leicht drüber.Nein, auch da wird der maximale Boosttakt natürlich nicht gehalten.

Ergo: Maximaler Boosttakt wird @Stock nie gehalten. Praktisch genau wie bei der Vega FE. Nur wird der bei nV halt nicht beworben. Am Verhalten ist eigentlich kaum was anders.

Iruwen
2017-07-03, 21:44:47
Warum sollte Vega FE zum Launch mit der vollen Gaming Performance herausbringen?!

Man versucht sich einen neuen Profi-Kundenstamm aufzubauen, da sollte man bei beschränkter Menge nicht noch mehr potenzielle Käufer anlocken.

Was ein Argument :freak:

Hübie
2017-07-03, 21:49:22
Echt jetzt, ihr hängt euch immer noch DARAN auf? :rolleyes:

Sommerloch. :biggrin: Ich hätte es gar nicht weiter breit getreten um ehrlich zu sein, da die Verarbeitungsqualität wirklich auf hohem Niveau ist. Unabhängig davon ob es nun Alu oder was anderes ist. Okay, für Kunststoff braucht man schon viel Fantasie... :freak:

dargo
2017-07-03, 21:49:44
@Gipsel

Ich weiß nicht von welchem Maximalboost du gerade sprichst. Einen solchen Boost gibt es bei NV nicht.
http://www.nvidia.de/object/geforce-desktop-graphics-cards-de.html

Es gibt nur einen Boosttakt. Wie Unter welchen Bedingungen dieser ermittelt wurde bleibt wohl ein Geheimnis von NV.

uweskw
2017-07-03, 21:49:51
Vega FE verkauft in jedem Fall 1080,die sind kacke zum Minen der Preis steigt trotzdem.

https://www.computerbase.de/2017-07/bitcoin-ethereum-mining-anleitung-installation-gefahren-nutzen/

Die Mining-Karten haben sich in ein paar Wochen ohnehin erledigt. In 6 Wochen wird das, was jetzt noch Profit abwirft, ohnehin mehr Stromkosten haben als Coin-Ertrag.
Aber ja! Vega FE verkauft 1070 bis 1080Ti. Weil viele zweifeln ob Vega-Gaming eine echte Alternative ist und sich nun endlich NV ergeben.

greetz
US

Lehdro
2017-07-03, 22:05:28
@Gipsel

Ich weiß nicht von welchem Maximalboost du gerade sprichst. Einen solchen Boost gibt es bei NV nicht.
http://www.nvidia.de/object/geforce-desktop-graphics-cards-de.html

Ich glaube du verstehst nicht was er meint:
Taktet bei AMD die Karte ÜBER den angegebenen "Boosttakt"? Nein, er ist gleichzeitig der Maximaltakt.

Kann bei NV die Karte ÜBER den angebenen "Boosttakt" takten? Ja, er ist nicht also nicht der maximale Boosttakt.

uweskw
2017-07-03, 22:07:05
einfach mal den alumagneten rausholen:biggrin:
Aber keinesfalls vergessen den am Siemens Lufthaken zu fixieren!

greetz
US

Hübie
2017-07-03, 22:09:23
Wat nu? Alu und gefräst oder Stahlblech (mit ein paar Kratzern)? Die Backplate haben die nämlich sicher nicht aus einem Block Stahl gefräst. Das wäre wirklich zu aufwendig. :rolleyes:
Btw., die Oberflächenstruktur sieht da anders aus, weil Du sie nicht siehst, weil nicht im Fokus.

Nein nicht aus einem Block Stahl. Es könnte aus einem Alu-Blockstück gefertigt sein (siehe die Frässpuren, denn die sind nicht abstreitbar). Aber Alu kannst du nicht mit hohen Schnittgeschwindigkeiten fräsen und wäre Verschwendung. Das Umkanten geht wie gesagt auch nicht (nur Warmumformung - ebenfalls aufwändig). Also bin ich mir ziemlich sicher, dass es kein Alu ist. Die Oberfläche sieht im Video anders aus. Schau es dir an. Auch mal darauf achten wenn er die beiseite legt. Ist wie gesagt auch nicht wichtig.
Man muss mich deshalb ja nicht gleich anfahren. Alle schreien nach sachlicher Diskussion und ich bringe Argumente, aber werde wieder nur angefahren. :rolleyes:

@dargo: Der Boost wird über die Größe der Leckströme bestimmt. NVIDIA hat ein (wirklich) sehr aufwändiges Auswertungsverfahren über die Jahre entwickelt und kann die Chips nun schon ziemlich weit ausfahren (Pascal hat ja geringeres OC-Niveau als Maxwell). Meine Karte ist ja das Paradebeispiel:
Basistakt 1216 MHz, Boost 1317 und in Wahrheit 1418 MHz Minimum. Die startet immer bei 1443 oder mehr und geht auf 1430 herunter, wo sie verbleibt. Ich ziehe sogar den ganzen 1070 @2 GHz davon. Standard wären 1002 / 1075 MHz ;D
Wie komplex die PCU mittlerweile ist weiß aber außerhalb von NV wohl niemand und auch nicht wie oder wonach der Algorithmus arbeitet.

Cyphermaster
2017-07-03, 22:18:27
Ergo: Maximaler Boosttakt wird @Stock nie gehalten. Praktisch genau wie bei der Vega FE. Nur wird der bei nV halt nicht beworben. Am Verhalten ist eigentlich kaum was anders.Doch, denn bei der FE scheint der Boost zusätzlich zwar sehr viel mehr Saft zu ziehen und die Kühlung trotz Undervolting (siehe 1-2 Seiten vorher) zu überlasten, aber nicht mal halbwegs entsprechend mehr Output an Leistung zu liefern. Geschweige denn ausreichend, um die "Gegner" 1080/Ti zu gefährden. Das ist so deshalb imho keine plausible absichtliche Ausgestaltung, genau wie die starke Abregelung des Speichers bis auf die obersten P-States, wenn die aber praktisch nie anliegen (und so viel schluckt der RAM nicht).

Das wirkt, wie der bekannte Unterschied zwischen 3DMark-'Volllast' (dafür war die FE geplant) und Furmark-Vollast (so scheint sie mir aktuell zu laufen). Das würde deshalb die Theorie imho stützen, dass Vega stark (gefährlich stark für in jeder Lage gleichmäßig gute Leistung?) am noch inaktiven TBR hängt.

stinki
2017-07-03, 22:19:19
AMD gibt den typischen "Boost-Takt" für die FE doch selber mit 1382MHz auf der Produktseite an.
Maximum ist 1600 und typisch ist 1382.
Nvidia gibt halt immer nur typisch und nicht max an, da max bei jeder Karte wahrscheinlich anders sein kann.

Cyphermaster
2017-07-03, 22:29:30
Das macht es nicht plausibler, die Karte so auszulegen, dass sie ineffizient laufen muss.

stinki
2017-07-03, 22:37:12
Sorry, ich kann da nicht ganz folgen, wie sollte sie denn laufen?
Sie verbraucht bei ca. 1382MHz eine gewisse Menge Strom und erreicht dabei eine gewisse Temperatur auf Grund einer definierten Lüfterkurve.
Sie läuft also wie alle heutigen Karten entweder in ein Temperatur oder ein Power-Limit das für sie im BIOS hinterlegt wurde und mit einem Tool geändert werden kann.
Natürlich würde sie mit einem anderen Treiber, andere Ergebnisse liefern. Aber ich finde das grundsätzliche Verhalten der Karte nicht unnatürlich. Sie ist von AMD nicht mit 1600MHz Dauerlast angegeben worden sondern nur mit 1382.

dargo
2017-07-03, 22:40:06
Ich glaube du verstehst nicht was er meint:

Jetzt verstehe ich auch was Gipsel mit dem maximalen Boosttakt bei Pascal meint. Mir sind nämlich meine UV-Versuche bei der GTX1080 wieder eingefallen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60300&d=1497510163

Somit liegt der max. Boosttakt bei der MSI GeForce GTX 1080 Armor 8G OC bei 1950Mhz, der natürlich von NV bzw. in dem Fall von MSI so nicht kommuniziert wird.

-/\-CruNcher-/\-
2017-07-03, 22:40:49
Wilde Schätzung mit bewußt weit auseinanderliegenden Extremwerten. Warum? Weil es nicht schätzbar ist.







Nein, das sehe ich anders. Die Anhänger von (1) sagen den Gegenstimmen gern nach, das jene von (2) ausgehen. Aber jene Gegenstimmen gehen eher von (3) aus:

1. RX Vega launch, performance zwischen 1070 und 1080, in einigen Ausreißer vielleicht über einer 1080. Dazu 300W+ Verbrauch und wird sehr heiß/laut.

2. RX Vega launch, endlich passende Treiber, 1080Ti +50% bei realen 250W. Die Lederjacke weint, Raja rauch 1000 Zigarren.

3. RX Vega launch mit aktiven GCN5-Features, damit Lösung der Handbremse. Performance Richtung 1080Ti, möglicherweise nicht ganz erreicht, Verbrauch drüber bei 300W. AMD hat was konkurrenzfähiges, aber nVidia nicht wirklich geschlagen - alle können damit leben.

3

Sehe ich als spekulativ, du weist nicht wie sich die Workflows entwickeln werden das kann ganz schnell zu Nvidias jetzigen Hardware usern ungunsten gehen und plötzlich steht GCN besser und bricht plötzlich im gesammten weniger ein und das generele Spielgefühl ist ein besseres inklusive Bugs die bei Nvidia immer mehr werden.

Auf jedenfall könnten für Nvidia ordentlich Mehrkosten entstehen.

Nvidia kämpft vor allem unter Windows 10 momentan so richtig heftig.

Möchte nicht wissen wie gestresed Nvidias Treiber Developer momentan sind ;)

AlterSack
2017-07-03, 22:47:24
Nein nicht aus einem Block Stahl. Es könnte aus einem Alu-Blockstück gefertigt sein (siehe die Frässpuren, denn die sind nicht abstreitbar).

Sind ganz sicher sind das keine Frässpuren. Die sähen anders aus. Tippe auf Aludruckguss.

Gipsel
2017-07-03, 22:47:25
@Gipsel

Ich weiß nicht von welchem Maximalboost du gerade sprichst. Einen solchen Boost gibt es bei NV nicht.Na klar gibt es den. Den sagt Dir nV bloß nicht (und er kann sich sogar von GPU zu GPU innerhalb einer Serie unterscheiden). NV gibt einen "typischen" Boosttakt an. Aber natürlich kann die GPU höher gehen und tut dies auch @stock unter geeigneten Umständen. Das geht bis zu einem (typischerweise nicht angegebenen) Maximaltakt, für den nV den Chip bei niedrigen Temperaturen und geringer Last (Verbrauch unter Powerlimit) spezifiziert und entsprechende Spannungs- und Taktwerte hinterlegt hat.

Edit:
Note to myself: Nächste Seite vor dem Antworten lesen hilft manchmal.

dosenfisch24
2017-07-03, 23:04:28
Wo hast du bestellt? In England?
Ja, die Karte stammt aus England.

CompuJoe
2017-07-03, 23:32:08
Hatte die Karte vor 2 Stunden auch das erste mal in der Hand, die Rückseite ist definitiv aus eloxiertem Aluminium, die schönste Karte die je in Händen hielt!

Digidi
2017-07-03, 23:35:16
Ich habe bei Caseking einfach mal per Nachnahme bestellt. War für 5. Juli angegeben und sprang gestern oder so auf 12. Juli.

Du wetterst gegen Vega und kaufst dir dann eine Frontier Edition. Whaaatt???

PrivateCeralion
2017-07-03, 23:40:40
Kann jemand mit einer Vega FE der Person mal helfen: https://www.reddit.com/r/Amd/comments/6l1qky/vega_driver_deeper_dive_and_testing_requesting/

Unicous
2017-07-03, 23:41:33
@Digidi

Natürlich um sich auf die momentane Performance persönlich einen runterzuholen und uns das allen dann mitzuteilen.

Keine Sorge, das Teil wird sicherlich wieder verkauft nachdem er damit fertig ist.:wink:

Rincewind
2017-07-03, 23:46:45
Das macht es nicht plausibler, die Karte so auszulegen, dass sie ineffizient laufen muss.

Mal ne blöde Frage: Warum nicht? Warum sagen die Ingenieure nicht einfach mal "Drauf geschissen!"

[MK2]Mythos
2017-07-04, 00:13:43
Sind ganz sicher sind das keine Frässpuren. Die sähen anders aus. Tippe auf Aludruckguss.
So ist es, mit 1000%iger Sicherheit keine "Frässpuren"
Und jetzt beenden wir dieses leidige Alu-oder-Nicht-Alu-Backplate-Thema bitte.

CompuJoe
2017-07-04, 00:19:58
Sah für mich wie gestanzt und dann geschliffen aus, hatte auch leichte Kratzer am Rand gehabt wo das Alu durchschien.

Schaut euch die Bilder von PC World an.

http://images.idgesg.net/images/article/2017/06/rvfe_c-100727131-large.jpg

Die haben auch solche Kratzer, fast an der selben Stelle.

gedi
2017-07-04, 00:25:44
Na klar gibt es den. Den sagt Dir nV bloß nicht (und er kann sich sogar von GPU zu GPU innerhalb einer Serie unterscheiden). NV gibt einen "typischen" Boosttakt an. Aber natürlich kann die GPU höher gehen und tut dies auch @stock unter geeigneten Umständen. Das geht bis zu einem (typischerweise nicht angegebenen) Maximaltakt, für den nV den Chip bei niedrigen Temperaturen und geringer Last (Verbrauch unter Powerlimit) spezifiziert und entsprechende Spannungs- und Taktwerte hinterlegt hat.

Edit:
Note to myself: Nächste Seite vor dem Antworten lesen hilft manchmal.

Den Maximaltakt kann man ganz leicht der Kurve entnehmen. Auch kann man die Abstufungen bei ausgehebeltem PT-Limit der Kurve entnehmen. Ansonsten Faustformel: GPU-Clock+0.4G = max. Boosttakt im PT-Limit ohne Vcore Erhöhung. Ob man das gut heißen mag bleibt jedem selbst überlassen.

Anhand der Bilder auf ein bestimmtes Material schließen zu wollen ist de Facto unmöglich. Ich persönlich würde auf Kunststoff tippen, ganz einfach der Kosten wegen. Und wenn es Kunststoff ist und es dann so aussieht, dann ist doch alles prima :)

Hübie
2017-07-04, 00:34:15
Mythos;11420677']So ist es, mit 1000%iger Sicherheit keine "Frässpuren"
Und jetzt beenden wir dieses leidige Alu-oder-Nicht-Alu-Backplate-Thema bitte.

Ja stimmt. Im Video sah es so aus, aber die Bilder sprechen da eine andere Sprache. Nun gut. ;)

gedi
2017-07-04, 00:46:59
Nein nicht aus einem Block Stahl. Es könnte aus einem Alu-Blockstück gefertigt sein (siehe die Frässpuren, denn die sind nicht abstreitbar). Aber Alu kannst du nicht mit hohen Schnittgeschwindigkeiten fräsen und wäre Verschwendung. Das Umkanten geht wie gesagt auch nicht (nur Warmumformung - ebenfalls aufwändig). Also bin ich mir ziemlich sicher, dass es kein Alu ist. Die Oberfläche sieht im Video anders aus. Schau es dir an. Auch mal darauf achten wenn er die beiseite legt. Ist wie gesagt auch nicht wichtig.
Man muss mich deshalb ja nicht gleich anfahren. Alle schreien nach sachlicher Diskussion und ich bringe Argumente, aber werde wieder nur angefahren. :rolleyes:


Wenn man Aluminium nicht mit hohen Schnittgeschwindigkeiten fahren kann, was dann? "Umkanten" braucht man auch nicht, dafür gibt es verschiedene (Fräs-)Achsen und so simple Dinge wie die Trigonometrie. Ansonsten gebe ich dir allerdings recht: Den Deckel auf einer Fräsmaschine zu fertigen wäre viel zu teuer. Wenn Metall, dann irgendein Blech, welches gebogen, gestanzt und poliert wurde.

PrivateCeralion
2017-07-04, 01:03:57
Ein Kilo Aluminium kostet 1,69€ an der Börse. Und bei der geringen Stückzahl ist es wahrscheinlich CNC gefräst. Alles andere wäre für so wenig Stück viel zu teuer.

Setsul
2017-07-04, 01:07:27
Warum die Backplate nicht einfach vermessen und dann wiegen....
Aluminium dichte: iwas bei 2,71 g/cm³ ,stahl iwas bei 7,8 g/cm³ und kunststoff sollte bei rund 1 g/cm³ liegen....
Archimedes weiß Rat. In ein Gefäß randvoll mit Wasser und dann das verdrängte Volumen messen. Genauer wirds nicht.

Eigentlich traurig, dass dieser Teil der Diskussion momentan den größten Sachgehalt hat, auch wenn der Nutzen gering bleibt.

Effe
2017-07-04, 01:07:36
Ist gebürstetes Aluminium jetzt Raketenwissenschaft?

Hübie
2017-07-04, 01:13:42
Das ist aber Roh-Alu oder? In der Industrie nutzt man zu 99% Legierungen (AlCrMo) und extrudierte Werkstücke. Ich frage mich immer wie gut so eine Alu-Hülle eigentlich (elektromagnetische) Strahlung ablenkt / abhält. Auch ob PC-Gehäuse so etwas verstärken oder eher dämpfen. Aber das ist ein anderes Thema.

Wie steht es eigentlich um die Video-Fähigkeiten von Vega? Das wurde afair bisher sehr wenig oder gar nicht beleuchtet, oder?

gedi
2017-07-04, 01:17:16
Das ist aber Roh-Alu oder? In der Industrie nutzt man zu 99% Legierungen (AlCrMo) und extrudierte Werkstücke. Ich frage mich immer wie gut so eine Alu-Hülle eigentlich (elektromagnetische) Strahlung ablenkt / abhält. Auch ob PC-Gehäuse so etwas verstärken oder eher dämpfen. Aber das ist ein anderes Thema.

Wie steht es eigentlich um die Video-Fähigkeiten von Vega? Das wurde afair bisher sehr wenig oder gar nicht beleuchtet, oder?

Reines Aluminium wäre zu weich, Cr in Verbund mit Aluminium zu teuer. Wenn dann AlMgSi.

Hübie
2017-07-04, 01:23:49
Na ja war exemplarisch. Gibt zig Legierungen bzw. Mischverhältnisse innerhalb der Legierungen. Ich hab eben überlegt ob man so ein Alublech auch stanzen kann ohne dass es aufreißt. Ginge ja mit einer weniger spröden Legierung oder? Weiß das einer?

gedi
2017-07-04, 01:35:34
Eine Alulegierung zu stanzen ist kein Hexenwerk (die von mir genannte ist die wohl weit verbreiteste im Maschinenbau). Ein Biegevorgang mit kleinen Radien ist da schon eher die Herausforderung. Hierfür eignet sich eher so etwas wie 16MnCr5 (Einsatzstahl) und härter bis ca. C45 (also Vergütungsstahl). Wenn biegen mit Alu, dann AlMnCu - ist aber schweineteuer, denn da geht es bereits in den Bereich Bronze-Legierung.

Zudem stanzt man heute eigentlich auch nicht mehr - wenn, dann wird gelasert. Vorteile: Schneller, genauer und flexibler.

=Floi=
2017-07-04, 02:10:56
Das ist stranggepresstes Alu was du meinst (das Prinzip wie bei Playdo-Knete die man durch eine Form drückt). Shroud ist die Ummantelung des Kühlers und der Lüfter.
Entweder die ist gegossen (teuer, aufwändig und vor allem bei der dünnen Stärke unwahrscheinlich), die ist aus einem Alu-Stück gefräst (sehr viel Verschnitt ( Späne) oder es ist (Weiß- bzw Stahl-) Blech.
Ich markiere mal die dünnen Abkantungen (Umformen so kleiner Flächen und Kanten geht bei üblichen Alu-Legierungen nur mit Warumumformung die teuer ist):

https://abload.de/img/radeonvegafe_backplat9ns99.png (http://abload.de/image.php?img=radeonvegafe_backplat9ns99.png)

Hier noch was:
https://abload.de/img/radeonvegafe_backplat57shb.png (http://abload.de/image.php?img=radeonvegafe_backplat57shb.png)

Hier hörst du ein Geräusch was ziemlich nach Blech klingt (und auch beim herausnehmen der Schrauben etc.): https://youtu.be/txHJZdPadG0?t=160

Ich finde es zwar nicht wichtig, aber wenn du so herum pupst will ich dir auch sagen, warum ich denke, dass es Blech ist.


wenn du die form strangpressen kannst, dann solltest du ein patent anmelden.

die löcher sind auch eher gestanzt und die kanten umgebogen. (du kannst keine eckigen kanten fräsen.)

CompuJoe
2017-07-04, 02:34:04
Wie schon gesagt, es sieht für mich gestanzt aus, ich habe in dem Bereich einmal gearbeitet und weis wie das am Ende ausschaut.

bun
2017-07-04, 03:39:58
und igor hat immer noch nicht mal ein datum für eine? ich lach mich tot.

Naja wenn er sich bei den Shops so aufführt wie hier im Forum :D

Ich sag doch nirgends was von Plastik. Alu kannst du jedoch sehr schlecht abkanten wenn der Steg so kurz ist

Das ist kein Problem, der kleine Biegeradius eher.


Entweder die ist gegossen

Geht nicht, viel zu dünn.

Aber Alu kannst du nicht mit hohen Schnittgeschwindigkeiten fräsen

Das Gegenteil ist der Fall. Es gibt Alulegierungen da geht den meisten Fräsmaschinen der Vorschub aus, weil Oberflächenqualität und Werkzeugverschleiß absolut im grünen Bereich sind. Entsprechend sind die Schnittgeschwindigkeiten da auch schon an der Oberkante. Generell sind Schnittgeschwindigkeiten für Aluminium die obere Kante des Spektrums.
Mit der Erfindung von extrem gut zerspanbaren Hartaluminiumlegierungen gab es einen regelrechten Sprung in der Produktivität, Faktoren von 5-10 in der Geschwindigkeit. Weiches Aluminium ist schwierig bis gar nicht bearbeitbar, reines Aluminium ist quasi nicht zu Fräsen. Das Werkzeug klebt schlicht zu, das Aluminium schweißt sich auf. Härtere Aluminiumsorten sind immer noch so weich, das die Schnittkräfte gering sind, aber die Werkzeuge werden nicht zugeklebt, der Spanbruch und Abtransport funktioniert, etc. Ergo kann man Hartaluminiumlegierungen wunderbar Fräsen. Noch besser kann man eigentlich nur Spezialstoffe wie gewisse Hartschäume etc Fräsen


Das Umkanten geht wie gesagt auch nicht (nur Warmumformung - ebenfalls aufwändig).

Quark, lohnt bei der Stückzahl aber nicht, zu hohe Werkzeugkosten.

Den Deckel auf einer Fräsmaschine zu fertigen wäre viel zu teuer. Wenn Metall, dann irgendein Blech, welches gebogen, gestanzt und poliert wurde.

Billig ist es nicht, aber die Karten sind auch nicht billig. Wäre für den Verkaufspreis problemlos drin die Backplate komplett zu Fräsen. Die Backplate war eh auf einer Fräsmaschine, alle Fasen und die Senkungen für die Schrauben haben eine andere, stark glänzende Oberfläche -> typisch für nachträgliche Fräsbearbeitung. Auch haben manche Ausschnitte typische Eckradien die zu Fräserdurchmessern passen würden. Die nahezu eckigen Schlitze auf der Rückseite wären aber ins Knie geschossen, da hätte man einen arg dünnen Fräser verwenden müssen.
Würde optisch auch so aussehen wenn man alles Fräst und dann Schleift/Bürstet für den typischen gebürsteten Alu-Look. Würde einen niedrigen bis mittleren zweistelligen Betrag für das Teil ansetzen, wenn man halbwegs eine Menge abnimmt. Also ein paar hundert Stück zumindest.

Ein Stanz- und Umformwerkzeug in der Größe lohnt sich bei der Stückzahl nicht, auch weil mehrere Arbeitsschritte nötig wären. Solche Werkzeuge waren mal mein Job.

Ich hab eben überlegt ob man so ein Alublech auch stanzen kann ohne dass es aufreißt.

Problemlos. Je härter das Alu um so besser zum Stanzen, btw.

Hierfür eignet sich eher so etwas wie 16MnCr5 (Einsatzstahl) und härter bis ca. C45 (also Vergütungsstahl).

Warum ausgerechnet solche Stähle? Damit würde man sich das Leben nur schwerer machen. Die am einfachsten umzuformenden Stähle sind sehr weiche Stähle mit geringem Kohlenstoffgehalt und eventuell noch Zusätzen die die Festigkeit weiter herabsetzen. Zum Beispiel der ST12 Kaugummistahl aus dem die meisten PC Gehäuse sind.


Wenn biegen mit Alu, dann AlMnCu - ist aber schweineteuer, denn da geht es bereits in den Bereich Bronze-Legierung.

Gibt diverse Alulegierungen die sich biegen lassen. Das ist 1x90 Grad, kein Tiefziehen.

Zudem stanzt man heute eigentlich auch nicht mehr - wenn, dann wird gelasert. Vorteile: Schneller, genauer und flexibler.

Es kommt immer auf die Stückzahl an. Niemand lasert Unterlegscheiben aus, weil die Stückzahlen gigantisch sind. Baut man kleine bis mittlere Serien, ist der Laser natürlich stark im Vorteil, weil die Werkzeugkosten wegfallen und die Flexibilität da ist.

Genauigkeit beim Stanzen geht problemlos runter auf 0,005mm. Man kann auch Präzisionsstanzwerkzeuge mit Null Schnittspalt bauen, gerade bei weichen Materialien und geringen Materialstärken (was hier klar der Fall wäre) Das wird mit einem Laser schwierig. Zudem kommt beim Laser zwingend die schräge Kante, da der Fokuspunkt halt ein Punkt ist. Je nach Material, Materialstärke und Schnittspalt bekommt man beim Stanzen nahezu gerade, parallele Flächen hin.

Massives Offtopic :( aber so viel Falsches kann ich nicht unkommentiert stehen lassen.

basix
2017-07-04, 03:49:02
Ich frage mich immer wie gut so eine Alu-Hülle eigentlich (elektromagnetische) Strahlung ablenkt / abhält. Auch ob PC-Gehäuse so etwas verstärken oder eher dämpfen. Aber das ist ein anderes Thema

Kommt sehr darauf an, was du abschirmen willst. Faustregel:

Ferromagnetische Materalien = Gut für niederfrequenz M-Feld, schlecht für niederfrequenz E-Feld
Unmagnetische Leiter = Gut für E-Felder, schlecht für niederfrequenz M-Feld. Magnetische Gleichfelder werden sogar gar nicht gedämpft


Da man in einem PC von HF-Emission ausgehen kann (ausser beim Netzteil) wäre in den allermeisten Fällen also Alu oder sogar besser eine Alulegierung mit ferromagnetischem Anteil optimal ;) Eine Backplate nützt aber auch nur dann als Abschirmung, wenn es richtig an GND der Karte angeschlossen ist (optimalerweise rund herum am Rand der Karte mit möglichst vielen Kontaktstellen und kleinen Abständen dazwischen). Ansonsten kann es sogar kontraproduktiv sein und als Antenne wirken. Da diese Backplates im Regelfall das letzte Kriterium nicht erfüllen, dienen sie meiner Meinung nach eher der Optik, dem Schutz der darunterliegenden Komponenten und wenn es hoch kommt noch ein wenig als Kühler.

StefanV
2017-07-04, 05:27:50
Da man in einem PC von HF-Emission ausgehen kann (ausser beim Netzteil)
Not Really (https://www.infineon.com/cms/de/product/power/ac-dc-power-conversion/ac-dc-pwm-pfc-controller/llc-resonant-mode-controller/ICE2HS01G/productType.html?productType=db3a30432a40a650012a4583f22b2b4f)...
Bei modernen Geräten hast Schaltfrequenzen von ein paar (dutzend/hundert) kHz, also gar nicht mal so niedrig, wie man erwarten würde...
Auch DC-DC Module arbeiten mit 50-400kHz (z.B. ein relativ üblicher APW7159)


Bei billigeren Geräten kommt ein Champion Micro CM6800 zum Einsatz, bei dem im Datenblatt auch 'bis zu 250kHz' steht.

Da muss ich dich also leider enttäuschen, auch (oder gerade) Netzteile sind auch im HF Bereich ;)

Wenn du gute, alte, robuste und schwere, mit Netzfrequenz arbeitende Stromwandler meinst, da hast du natürlich Recht.
Bei Schaltnetzteilen weniger.

Eine Backplate nützt aber auch nur dann als Abschirmung, wenn es richtig an GND der Karte angeschlossen ist (optimalerweise rund herum am Rand der Karte mit möglichst vielen Kontaktstellen und kleinen Abständen dazwischen). Ansonsten kann es sogar kontraproduktiv sein und als Antenne wirken. Da diese Backplates im Regelfall das letzte Kriterium nicht erfüllen, dienen sie meiner Meinung nach eher der Optik, dem Schutz der darunterliegenden Komponenten und wenn es hoch kommt noch ein wenig als Kühler.
In dem Video, welches Hübie verlinkt hat, siehst du ein paar Sekunden weiter, dass die Löcher für die Schrauben auf der anderen Seite blank sind und auf der Karte auch auf einem großen Punkt aufliegen, so dass hier sehr wohl ein elektrischer Kontakt vorhanden ist. Diese Platte kann also durchaus als Abschirmung verwendet werden...

ggF auch als ESD Protection...

mczak
2017-07-04, 05:31:49
Da diese Backplates im Regelfall das letzte Kriterium nicht erfüllen, dienen sie meiner Meinung nach eher der Optik, dem Schutz der darunterliegenden Komponenten und wenn es hoch kommt noch ein wenig als Kühler.
Ich dachte Backplates dienten vor allem der Stabilität (damit sich das PCB nicht verbiegen kann)?

Cyphermaster
2017-07-04, 06:30:04
Mal ne blöde Frage: Warum nicht? Warum sagen die Ingenieure nicht einfach mal "Drauf geschissen!"
Weil es unnötig schlechte Performance abliefert, was das Marketing nicht will? Den Speicher fast nur im Boost auf volle Geschwindigkeit zu setzen, bremst die Karte darunter stark, spart aber kaum Energie. Und ein Boost, der die Karte schwer saufen und drosseln lässt, bringt auch nix - insbesonders, wenn der Gewinn an Leistung dadurch nicht reicht, um irgendwas zu reißen.

Die Grenzwerts wären im BIOS schnell angepasst gewesen, und mit etwas mehr Zeit auch der Kühler; daher meine Spekulation, dass die FE derzeit im 'brute force'-Modus läuft, will ein Problem quadi in letzter Minute erkannt wurde und dass das nicht so geplant war.
Kann man teilen, muss man aber nicht. Ist hält nur meine aktuelle Spekulation.

pilzsammler2002
2017-07-04, 08:26:38
pcper geht in die vollen :)

https://pbs.twimg.com/media/DD1Vy4NVYAEtj-v.jpg

Cyphermaster
2017-07-04, 08:45:02
:eek: :lol: (y)

Aber wozu?

pilzsammler2002
2017-07-04, 10:13:49
:eek: :lol: (y)

Aber wozu?

Keine Ahnung...
Ich könnte es mir mit RX gut vorstellen um Test bezüglich IF zu machen :freak:

scully1234
2017-07-04, 11:01:18
:eek: :lol: (y)

Aber wozu?

Naja wenn man jetzt nicht gleich voraus setzt, das der Treiber der RX Modelle noch Berge versetzen wird, ist ein Crossfire Test doch legitim

Vielleicht reicht Ryan die Kommunikative Stille seitens AMD ja aus , um seine Schlüsse daraus zu ziehen?

Sie hätten es ja in der Hand andere Belege zu liefern

crux2005
2017-07-04, 11:05:23
5 Seiten lange Diskussion über die backplate?! LUL
Ich hoffe die Chinesen leaken etwas in den nächsten 3 Wochen sonst glaube ich an einen zweiten R600.

Effe
2017-07-04, 11:05:56
Legitim, aber sinnlos, da kein Erkenntnisgewinn rauskommen wird außer: Oh, CF skaliert nicht gut, liegt wohl am Treiber. Überraschung!

scully1234
2017-07-04, 11:09:46
was soll denn nun plötzlich auch noch mit Crossfire kaputt sein?

Sorry dann hätten sie sich den Launch eben schenken können, wenn an dem Chip so rein gar nix funktionsfähig ist

Wenn man da wirklich so naiv war zu glauben, das alle weiter Däumchen drehen, dann ist das auch nicht mehr zu entschuldigen

Effe
2017-07-04, 11:16:09
Wenn der Treiber bei Single GPU schon rumspackt, warum soll er bei Multi GPU plötzlich besser sein? Logik?
Der Launch galt einer (Semi-)Profikarte, keiner Gamerkarte. Funktioniert irgendwas von diesen Features nicht?

Cyphermaster
2017-07-04, 11:18:46
was soll denn nun plötzlich auch noch mit Crossfire kaputt sein?Mangelnde Treiberanpassung, weil man einen Fallback-Treiber benutzt?
Sorry dann hätten sie sich den Launch eben schenken können, wenn an dem Chip so rein gar nix funktionsfähig ist
Chip != Treiber.

Bin da bei Effe. Mehr als "läuft gleich" oder "läuft schlechter" kann da kaum rauskommen, und ist wegen dem alten Treiber auch praktisch nicht auf die RX übertragbar.

scully1234
2017-07-04, 11:27:19
Der Launch galt einer (Semi-)Profikarte, keiner Gamerkarte. Funktioniert irgendwas von diesen Features nicht?

Wo ist hier der Unterschied zur Titan?

Brauchte man bei der etwa Excuses , für nicht funktionierende Featuresets?

Gab es da etwa auch keinen Multi GPU Support?

Wieso muss das bei AMD dann alles relativiert werden, als wäre es das normalste auf der Welt, das man so eine GPU in den Markt drückt?

Das was da sich jetzt verselbstständigt, dazu hat man in Eigenverantwortung mit beigetragen

Und ob die Ausflüchte letztendlich überhaupt noch tragbar sind, wird man in spätestens 4 Wochen sehen

Ein Großteil geht gewiss nicht mehr davon aus, nach den Erfahrungen der letzten Releases

Das Statement trift den Nagel auf den Kopf

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11420636&postcount=395

Effe
2017-07-04, 11:52:07
Wo ist hier der Unterschied zur Titan?
Es gibt noch keinen geeigneten Gamingtreiber. Vega ist komplett neu, Titan gibts seit Kepler, mit leicht aufgebohrter Architektur.

Das Statement trift den Nagel auf den Kopf

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11420636&postcount=395
Ich finde das viel zu emotional. AMD hat halherzig eine nicht-Gamingkarte veröffentlicht, um einen Termin einzuhalten und hält sonst die Klappe.
Es geht immer noch um Hardware, da muss dieses Enttäuschungsgeschwurbel nicht sein.
Einfach den Sommer genießen und ab September /Oktober wird das Ding schon im Laden liegen. Jetzt sind die Preise eh kaputt durch den Miningirrsinn.

G3cko
2017-07-04, 11:55:16
Ja das finde ich viel schlimmer. Bei mir stand Vega auf der Agenda, aber wenn die Preise dank Mining durch die Decke gehen, dann warte ich lieber auf die 16GB Version mit 4 Stacks.

Achill
2017-07-04, 11:56:30
Wo ist hier der Unterschied zur Titan?

Brauchte man bei der etwa Excuses , für nicht funktionierende Featuresets?

Gab es da etwa auch keinen Multi GPU Support?

Wieso muss das bei AMD dann alles relativiert werden, als wäre es das normalste auf der Welt, das man so eine GPU in den Markt drückt?

Das was da sich jetzt verselbstständigt, dazu hat man in Eigenverantwortung mit beigetragen

Und ob die Ausflüchte letztendlich überhaupt noch tragbar sind, wird man in spätestens 4 Wochen sehen

Ein Großteil geht gewiss nicht mehr davon aus, nach den Erfahrungen der letzten Releases

Das Statement trift den Nagel auf den Kopf

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11420636&postcount=395

@scully1234 - man sollte AMD bis zum 30.07. Zeit einräumen da dieser Termin als offizieller Start von Rx Vega seitens AMD genannt wurde. Vega FE hat Treiber für den prof. Bereich bekommen und die scheinen dort auch erstmal zu tun. Das der Treiber ernsthafte Probleme hat mit Spielen liegt auch auf der Hand, ich habe keine Publikation gesehen, due etwas anderes behauptet hat. Das sind erst einmal Fakten ...

Die indirekte Behauptung deinerseits, AMD hätte jetzt schon liefern müssen um ein anderes Bild zu zeichnen, umfasst die Annahme das Vega FE mit den aktuellen Treibern schon Rx Vega ist - aber es ist letztlich eine Annahme (deine und evtl. auch von ein paar anderen hier im Forum).

Wenn die Treiber von Vega FE nicht run laufen, wie viel Aufwand wird AMD dann bisher in CF gesteckt haben? Warum sollte eine IT-Seite ein Test machen und was soll außer Clicks und Bashing dabei raus kommen?

Zuletzt noch persönliche Fragen: Was interessiert dich so sehr an Vega das du hier regelmäßig auf verschiedene neg. Aspekte aufmerksam machst? Es ist ja nicht so das du von deiner NV GPU (war Titan?) weg willst oder? Oder aber das es neue Erkenntnisse sind die du lieferst?

Entropy
2017-07-04, 11:57:04
Bei NVidia gab es früher auch Quadro Karten mit entsprechenden Treibern, die super unter z.B. Maya liefen, aber bei Spielen nicht brauchbar waren, bzw. garnicht erst starteten.

Nach kurzem suchen bin ich erstaunt, dass da heute immer noch Defizite sind:
https://www.pugetsystems.com/labs/articles/Can-you-game-on-an-NVIDIA-Quadro-GPU-604/

Aus der Sicht, es ist durchaus vorstellbar, dass AMD sich erst darauf konzentriert hat die Treiber für den professionellen Anwendungsbereich zu optimieren und jetzt vollen Fokus auf gaming hat und genau wie die Quadros da 5%-10% mehr liefert.

Gipsel
2017-07-04, 11:57:06
dann warte ich lieber auf die 16GB Version mit 4 Stacks.Die 16GB-Variante (die FE ist ja eine!) hat auch nur 2 Stacks.

Isen
2017-07-04, 12:18:44
Er meint bestimmt die RX Variante mit 16GB - die wird es wohl auch geben, nur eben was später. War ja bei der 290 auch so (8GB), auch wenn es frühzeitig wieder unterbunden wurde.
Wobei, wenn sich HBCC bewährt, sind die evtl. gar nicht nötig (16GB)
Naja mal abwarten... meine 290x habe ich verkauft bekommen und gammel nun mit ner 6600 GT rum ( die ist sogar scheiße laut, mist Ding ) :D - brauch zeitig Ersatz.

uweskw
2017-07-04, 12:38:38
...
.....aber das man nichts hoert von amd und das sie wohl wirklich noch 4 weitere wochen schweigen wollen, laesst nichts gutes erahnen. selbst wenn sie ne bombe platzen lassen, das wirkt dann im nachhinein nur noch komischer, denn dann haben sie ihre kunden richtig getrollt. bin nicht sicher ob das gut ankommen wuerde.


Wenn AMD wirklich Vega RX mit neuem Binning bringt, wie lange vor Release hätten die dann verlässliche Werte für Taktbarkeit und Leistung?
Kann es sein, dass AMD selbst noch nicht genau weiss wo das Binning landet?

greetz
US

Fragman
2017-07-04, 12:48:09
Kann es sein, dass AMD selbst noch nicht genau weiss wo das Binning landet?

greetz
US


wenn man durch hardware aenderungen soviel herausholen kann, und das kurz vorher passiert, muss man dann nicht auch mit bugs rechnen weil die zeit zum kontrollieren sehr kurz ist?

dargo
2017-07-04, 12:52:20
Wo ist hier der Unterschied zur Titan?

Der Unterschied zur Titan liegt darin, dass diese Karte von Anfang an für Gamer gedacht war. Im Gegensatz zu Vega FE, was AMD auch offiziell so bestätigt kommuniziert hat.

iuno
2017-07-04, 13:12:57
Wie steht es eigentlich um die Video-Fähigkeiten von Vega? Das wurde afair bisher sehr wenig oder gar nicht beleuchtet, oder?

Hmm, kein VP9? :usad:

- H265/HEVC Decode8 HD / 4K60
- H265/HEVC Encode1080p240 or 4K60 Mxed with Decode


Er meint bestimmt die RX Variante mit 16GB - die wird es wohl auch geben, nur eben was später. War ja bei der 290 auch so (8GB), auch wenn es frühzeitig wieder unterbunden wurde.
Die hat irgendein Boardpartner gebracht, "offiziell" gab es nur die FirePRO und spaeter 390er mit 8GiB. Da das Package inkl. Speicher von AMD an die Boardpartner geht koennen sie auch nicht einfach mehr Speicher verbauen.

Die 16GB-Variante (die FE ist ja eine!) hat auch nur 2 Stacks.
Weiss man eigentlich inzwischen, woher die 8Hi Stacks kommen? Hynix und Samsung listen beide noch keine und da wurde ja irgendwie Micron ausgelesen :ulol:

Uebrigens finde ich es sehr schoen auch nochmal die Speicherdichte so vor Augen zu haben, seit die Bilder da sind. Fuer 16 GiB braucht man ein komplett zugepflastertes PCB... vor nicht allzulanger Zeit sogar noch Vorder- und Rueckseite ;)

Isen
2017-07-04, 13:16:54
Da das Package inkl. Speicher von AMD an die Boardpartner geht...

stimmt, total vergessen .. :redface:

yamamoto_dc
2017-07-04, 13:17:00
Es gibt noch keinen geeigneten Gamingtreiber. Vega ist komplett neu, Titan gibts seit Kepler, mit leicht aufgebohrter Architektur.

Ich finde das viel zu emotional. AMD hat halherzig eine nicht-Gamingkarte veröffentlicht, um einen Termin einzuhalten und hält sonst die Klappe.
Es geht immer noch um Hardware, da muss dieses Enttäuschungsgeschwurbel nicht sein.
Einfach den Sommer genießen und ab September /Oktober wird das Ding schon im Laden liegen. Jetzt sind die Preise eh kaputt durch den Miningirrsinn.

Sehe ich genauso, die Diskussion nimmt ja schon hysterische Züge an. Wir sollten uns alle mal entspannt zurück lehnen und abwarten was der Release der Gaming-Vega so bringt. Danach können die Hater oder die enttäuschten Fans dann immer noch an die Decke gehen.

yamamoto

unl34shed
2017-07-04, 13:17:25
Glaubt ihr echt, AMD macht für die rx Vega ein neues binning?

Dann hätten sie die Vega FE auch verschoben, wenn da wirklich Bugs drin wären oder massiv Leistung liegen geblieben ist. Das hätte man auch sicher schon beim letzten Investoren call gewusst und so kommuniziert.
Es spricht auch dagegen, dass man dann die Vega FE mit dem alten binning weiter produzieren müsste.

dargo
2017-07-04, 13:21:19
Sagt mal... interpretiere ich das Bild richtig?

https://www2.pic-upload.de/img/33455133/VegaFE.jpg

https://pro.radeon.com/en-us/radeon-vega-frontier-edition-for-the-pioneers-in-game-design-visualization-and-vr/

Mit der Erscheinen von RX Vega wird Vega FE erst fürs Gaming freigeschaltet? Ich nehme an der rechte Teil erscheint dann in rot?

iuno
2017-07-04, 13:22:54
Wie kommst du darauf? Den Switch und den "gaming mode" gibt es bereits.
Ja, die Karte stammt aus England.
:up:
Hast du schon mal an theoretische Tests zur Geometrieleistung gedacht?

dargo
2017-07-04, 13:27:26
Wie kommst du darauf? Den Switch und den "gaming mode" gibt es bereits.

Weils für mich nach ausgegraut aussieht. Ok, dann falsch verstanden. :redface:

grauenvoll
2017-07-04, 13:27:39
Mit der Erscheinen von RX Vega wird Vega FE erst fürs Gaming freigeschaltet? Ich nehme an der rechte Teil erscheint dann in rot?

Ob der rot erscheint statt ausgegraut, weiß ich nicht. Aber ich rede schon seit Tagen davon dass es für den GameMode keine wirkliche Treiberunterstützung gibt. Die erwarte ich erst mit dem Release der RX Vega.

Isen
2017-07-04, 13:27:59
Ja, es gibt ihn bereits. Allerdings erhöht er nur das PT-Limit und ändert die Lüfterkurve. Das wars.

dargo
2017-07-04, 13:30:34
Ob der rot erscheint statt ausgegraut, weiß ich nicht.
Wird rot, siehe Video im Link. :)

grauenvoll
2017-07-04, 13:40:40
Ja, es gibt ihn bereits. Allerdings erhöht er nur das PT-Limit und ändert die Lüfterkurve. Das wars.

Ich vermute, dann wird auch ein anderer Treiber geladen. Nicht mehr RadeonPro...
Und genau dieser scheint aktuell nur im Kompabilitätsmode(der VGA-Mode unter den Radeon Treibern;)) zu laufen.

dosenfisch24
2017-07-04, 14:01:52
Hast du schon mal an theoretische Tests zur Geometrieleistung gedacht?

Wenn du an was bestimmtes denkst, nur raus damit, dann lass ich es mal laufen.

davidzo
2017-07-04, 15:01:18
Ein Kilo Aluminium kostet 1,69€ an der Börse. Und bei der geringen Stückzahl ist es wahrscheinlich CNC gefräst. Alles andere wäre für so wenig Stück viel zu teuer.

Nein, das Teil ist hundert pro gestanzt, vielleicht mit einigen gelaserten ausschnitten.

Aber allein um die Form zu erreichen braucht man ein Tiefzieh-Werkzeug, das in eine simple Presse gestellt wird. Da man also sowieso ein Spezialwerkzeug bauen muss bietet sich ein Kombi-Werkzeug an das gleichzeitig auch stanzt einfach an.
Bei Lasern oder Fräsen hätte man einen zusätzlichen Arbeitsschritt, neu Aufspannen, Nullpunkt finden, größere Toleranzen und Handlingkosten. Nicht zu vergessen das Fräsen mit den gezeigten Innenradien schon mal gar nicht möglich ist.
Bei dieser Form baut man eher ein Flachwerkzeug zum Tiefziehen. Flachwerkzeuge sind relativ simpel und werden aus gelaserten Stahlplatten aufgestapelt. Das bau ich dir an einem Nachmittag.
Wenn die Kanten und Löcher ebenfalls gestanzt und nicht gelasert sind, nennt sich das "Schrittfolgewerkzeug". Das ist ein Tiefziehwerkzeug, bloß ergänzt durch eingesetzte Messer aus gehärtetem Stahl. Das sind Normteile für den Werkzeugbau und daher recht günstig, man kann die einfach in gefräste oder gelaserte Aussparungen im Werkzeug einsetzen. Normalerweise bewegen sich die Stanzmesser zuerst nach unten und danach folgt im selben Hub der Umformschritt.

Alternativ ist das Teil auf einer CNC Laser-Stanz Kombimaschine (z.B. trumpf Trumatic 7000) gemacht worden, wo sich ebenfalls Schrittfolgewerkzeuge einsetzen lassen, aber nur für einzelne Löcher und Kanten. Das ist eher eine Technologie für Kleinserien im Apparatebau und Co, in der Großserie dominieren immer noch große Pressen mit spezialisierten Werkzeugeinsätzen. Die Kanten sehen mir aber eher nicht nach einer Kombimaschine aus, dafür ist die gleichmäßige Abkantung über die ganze Kartenlänge zu lang...

In allen Fällen ist die gebürstete Alu-Oberfläche, möglicherweise sogar samt Eloxierung, vorher schon drauf. Es wird sogar mit Folie drauf gekantet und gestanzt.
Kein Mensch würde sich die Arbeit machen eine solch gleichmäßige Bürstung nach dem Umformprozess aufzubringen. Nachträglich macht man eher nur noch Sachen wie trowalisieren, sandstrahlen, eloxieren, galvanisieren etc.

In Deutschland hergestellt würde so eine Backplate schon bei 10.000er Stückzahlen keine 1,50€ kosten... in China etwas weniger. Dominierend sind bei einem solchen vollautomatisch hergestellten Bauteil die Material und Maschinenkosten die sich Global nur wenig unterscheiden.


Schrittfolgewerkzeuge sind von den Kosten ähnlich wie Spritzgusswerkzeuge. Bei Flachwerkzeugen eher günstiger...
Der Werkzeugbau selber kann hier schonmal 8000€ kosten, was in China generell deutlich günstiger ist (eher unter 2000€), aber nicht immer in zuverlässiger Qualität.

M4xw0lf
2017-07-04, 15:21:13
Haben wirs dann mit #alugate? :freak:

Cyphermaster
2017-07-04, 15:24:07
JA. HABEN WIR. Ab jetzt ist gut.

mczak
2017-07-04, 15:45:42
Wenn du an was bestimmtes denkst, nur raus damit, dann lass ich es mal laufen.
Also mich würde sowas wie Tessmark, SubD11 (aus dem DX SDK) oder selbst Heaven (Unterschied ohne bis mit Extreme Tesselation) interessieren.
Oder einfach bloss Tri-Throughput mit/ohne Culling wie sie Damien misst (z.B. hier: http://www.hardware.fr/articles/948-10/performances-theoriques-geometrie.html) - ich weiss aber gerade nicht was da für ein Programm benutzt wird...
Optimierter Treiber hin oder her, da müsste man deutliche Unterschiede zu Fiji sehen.
(Performance mit Geometry Shader wäre auch interessant, es kommt mir aber gerade kein Benchmark in den Sinn...)

y33H@
2017-07-04, 16:35:07
Damien nutzt wohl die Beyond3D Suite, muss er bei Rys anfragen (so war's früher glaub).

Unicous
2017-07-04, 16:40:23
Damien wird gar nichts mehr nutzen(e:also für Tests ;)), denn er ist jetzt bei AMD.:freak:

basix
2017-07-04, 16:47:36
Bei modernen Geräten hast Schaltfrequenzen von ein paar (dutzend/hundert) kHz, also gar nicht mal so niedrig, wie man erwarten würde...
Auch DC-DC Module arbeiten mit 50-400kHz (z.B. ein relativ üblicher APW7159)


Bei billigeren Geräten kommt ein Champion Micro CM6800 zum Einsatz, bei dem im Datenblatt auch 'bis zu 250kHz' steht.

Da muss ich dich also leider enttäuschen, auch (oder gerade) Netzteile sind auch im HF Bereich ;)

Da hast du ganz klar recht. Hatte irgendwie nur Netzseitig 50Hz im Sinn, war auch spät gestern :freak: Ändert aber nichts an der Grundaussage, dass Alu grundsätzlich sehr gut geeignet ist, um im PC EMV zu verbessern. Die Backplate so wie sie verschraubt wird aber nur mit Vorbehalt gut abschirmt.

Und auch, dass die Backplate die Stabilität der Karte unterstützt ist ebenfalls einer der Hauptgründe bei den schweren Brocken. Mea culpa :)

Zur Vega Performance:
Ich habe noch ein Gedankenspiel angestellt. Vega FE ist momentan +25% schneller als Fiji bei sagen wir gleichem Verbrauch. Verglichen dazu ist die 1080 Ti 80-90% schneller als Fiji. Die Differenz Vega FE und 1080 Ti beträgt also um die 50%. Dies wiederum entspricht der Effizienzsteigerung Kepler --> Maxwell.

Geht man davon aus, dass man mit TBR keine Bandbreitenhürden mehr hat und sich die Effizienz ebenfalls verbessert (siehe Maxwell), kann man nach meiner Idee den Takt von 1600Mhz halten und der Mehrtakt schlägt 1zu1 durch gegenüber Fiji. Dann wäre man 50% schneller als Fiji. Man wäre in etwa Stromverbrauchsmässig beim Effizienzsprung von Kepler --> Maxwell von ca. 50%. Die Effizienzverbesserung beruht vor allem auf weniger Off-Chip Traffic (on-Chip Cache des TBR) und der neuen Fertigung verglichen zu Fiji. Nun ist man aber immer noch 20-25% langsamer als eine 1080 Ti FE. Kann man diesen Abstand noch einholen mit TBR? Mein Gedanke: Durch das TBR wird das Culling und HSR wesentlich effektiver. Dadurch muss effektiv weniger gearbeitet werden und somit erhöht sich die Effizienz bei gleichem Output. Ist das in der Grössenordnung realistisch?

Ein weiterer Gedanke: Da der Shadercompiler etc. noch auf Fiji / Polaris Niveau läuft, macht man aber noch zu viel unnötige Arbeit aufgrund der Fallback-Manöver und der Stromverbrauch ist unverhältnismässig hoch bei der gezeigten Performance. Das würde auch eine Erklärung für die "gesunkene" IPC ggü. Fiji sein (siehe Superposition Bench). Bei angepasstem Shadercompiler würde man hier ebenfalls noch 10-20% rausholen und dann wäre man erst auf Fiji Niveau. Kann das aufgebohrte Frontend (unabhängig vom TBR) die ALUs noch besser auslasten als Fiji wäre nochmals ein Boost zu erwarten.

Ich meine Maxwell hat beim selben Fertigungsprozess 50% Effizienzsteigerung im Vergleich zu Kepler gebracht. Vega geht Architekturmässig in eine ähnliche Richtung mit TBR UND hat einen neuen Fertigungsprozess. Allein schon vom Prozess her sollten 50% oder sogar mehr zu erwarten sein. Nimmt einen ähnlichen Effizienzgewinn der Architektur wie bei Maxwell an, kommt man auf Faktor >2 ggü. Fiji und somit 10-20% über der 1080Ti bei 10-20% mehr Stromverbrauch. So unrealistisch finde ich das nicht. Hoffen wir, dass es so kommt. Dann kann man auch wieder eher wählen bei High-End ;)

MadPenguin
2017-07-04, 17:00:13
Hoffen wir, dass es so kommt. Dann kann man auch wieder eher wählen bei High-End ;)
So etwas wurde bereits vom MSI Mitarbeiter erwähnt, oder? Verbrauch immer im Zusammenhang mit der Leistung sehen :)

Hoffentlich wird es so kommen ;D

Klevapalis
2017-07-04, 17:07:04
Nimmt einen ähnlichen Effizienzgewinn der Architektur wie bei Maxwell an, kommt man auf Faktor >2 ggü. Fiji und somit 10-20% über der 1080Ti bei 10-20% mehr Stromverbrauch. So unrealistisch finde ich das nicht. Hoffen wir, dass es so kommt. Dann kann man auch wieder eher wählen bei High-End ;)
Frage: Warum liegen auf der Karte aktuell deutlich oberhalb von 50% an (Gaming-)Leistung brach, aber die Leistungsaufnahme ist dennoch in der Nähe der 300W TDP?

Das ergibt doch keinen Sinn: Auf der einen Seite soll die Karte softwareseitig gedrosselt sein, weil der Treiber noch nicht fertig ist, trotzdem zieht die Karte trotzdem ihre volle oder nahezu volle Leistung.

Wenn tatsächlich Teile des Chips nicht angesprochen werden, müsste sich das in nicht ausgelasteten Chipteilen (Shader, ROPs etc.) zeigen und diese wiederum müssten weniger Leistung aufnehmen. Dafür kann ich aber kein Anzeichen sehen, außer, die Karte nähme tatsächlich unter Volllast mit allen Features oberhalb von 300W auf.

Das passt doch vorne und hinten nicht, dass ein Wundertreiber da jetzt 50% mehr Leistung raus holt, ohne die Leistungsaufnahme zu beeinflussen.

Gipsel
2017-07-04, 17:09:56
Du hast nicht verstanden, welche Auswirkungen das Tiling und Binning haben kann.
Man ordnet die Arbeit so um, daß sie effizienter zu erledigen ist, beseitigt bzw. vermindert nebenbei den Bandbreiten-Flaschenhals und falls HSR ordentlich funktioniert, spart man gegebenenfalls auch noch redundante Berechnungen ein. Im Optimalfall macht man weniger, das natürlich schneller und dies auch noch effizienter für das gleiche Ergebnis.

CompuJoe
2017-07-04, 17:15:17
Frage: Warum liegen auf der Karte aktuell deutlich oberhalb von 50% an (Gaming-)Leistung brach, aber die Leistungsaufnahme ist dennoch in der Nähe der 300W TDP?

Das ergibt doch keinen Sinn: Auf der einen Seite soll die Karte softwareseitig gedrosselt sein, weil der Treiber noch nicht fertig ist, trotzdem zieht die Karte trotzdem ihre volle oder nahezu volle Leistung.

Wenn tatsächlich Teile des Chips nicht angesprochen werden, müsste sich das in nicht ausgelasteten Chipteilen (Shader, ROPs etc.) zeigen und diese wiederum müssten weniger Leistung aufnehmen. Dafür kann ich aber kein Anzeichen sehen, außer, die Karte nähme tatsächlich unter Volllast mit allen Features oberhalb von 300W auf.

Das passt doch vorne und hinten nicht, dass ein Wundertreiber da jetzt 50% mehr Leistung raus holt, ohne die Leistungsaufnahme zu beeinflussen.

Musst du so sehen, jetzt wird sie noch mit unnötigen Sachen ausgelastet, wenn tbr und co. dann später funktionieren und das unnötige weg ist kommen dann hinten mehr FPS raus.

dargo
2017-07-04, 17:17:36
Frage: Warum liegen auf der Karte aktuell deutlich oberhalb von 50% an (Gaming-)Leistung brach, aber die Leistungsaufnahme ist dennoch in der Nähe der 300W TDP?

Gegenfrage... warum beschleunigt Vulkan in Doom einen Fiji und Grenada um bis zu 50% im GPU-Limit gegenüber OpenGL bei praktisch gleichem Stromverbrauch?
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/

G3cko
2017-07-04, 17:22:16
der Verbrauch wäre nur geringer bei identischen Bildraten.

gleiche fps -> weniger Verbrauch
oder
gleicher Verbrauch -> mehr fps

;)

BlacKi
2017-07-04, 17:34:53
wo sieht man das der stromverbrauch gleich ist? bei doom wurden die shader besser ausgelastet und das erhöht den stromverbrauch bzw. der stromverbrauch mag gedeckelt sein, boostet dann aber geringer. bei vega ist das problem doch grundlegend anders.

basix
2017-07-04, 17:44:28
wo sieht man das der stromverbrauch gleich ist? bei doom wurden die shader besser ausgelastet und das erhöht den stromverbrauch bzw. der stromverbrauch mag gedeckelt sein, boostet dann aber geringer. bei vega ist das problem doch grundlegend anders.

Der Boosttakt spielt doch gar keine Rolle. Mehr Performance bei selbem Stromverbrauch ist der Schlüsselfaktor. Wenn man bei Vega +40% Takt anlegt und dies dem Prozess vs. Prozess Effizienzvorteil entspricht, ergibt sich auch der selbe Stromverbrauch. Macht man nun unnötige Sachen aufgrund nicht an Vega angepasster Treiber (Fallback) oder rennt ins Bandbreitenlimit kommt man eben auf die gesehenen +25% Performance. Es kann zudem sein, dass gewisse Power Saving Features noch nicht aktiviert sind oder noch nicht optimal eingestellt. Das sieht man z.B. an den relativ grossen Taktsprüngen von Vega FE. Dass dann die GPU-Spannung ebenfalls eher höher ist als nötig hilft ebenfalls nicht.

Oben hatte ich noch eine Frage in meinem vorigen Posting: Wie viel Arbeit kann man sich mit TBR und besserem HSR etc. typischerweise sparen? Oder was für einen Rahmen kann man sich erwarten?

Gipsel
2017-07-04, 18:01:56
Oben hatte ich noch eine Frage in meinem vorigen Posting: wie viel Arbeit kann man sich mit TBR und besserem HSR etc. typischerweise sparen? Oder was für einen Rahmen kann man sich erwarten?Das ist extrem stark von der Situation abhängig und auch was die Engine da jeweils macht. Allgemeingültige Zahlen dürfte es da kaum geben. Aber Bandbreitenersparnisse von (im Schnitt) 35% oder so sollten locker drin sein (nV behauptet für Pascal ja 60% gesparte Bandbreite, zwar inklusive DCC, die aber ohne Tiling oft nicht viel bringt [wegen Overhead, der mit Tiling zu einem großen Teil wegfällt]).
Da keiner hier weiß, wie gut das HSR-Feature bei AMD funktionieren wird, also wie oft es greift (das geht ja nicht immer), wäre es reines Rumraten, dafür konkrete Zahlen anzugeben. Der mögliche Bereiche reicht von 0 bis maximal zum Overdrawverhältnis der Szene (Letzteres ist aber recht unwahrscheinlich für reale Situationen, da ja auch schon jetzt meist etwas frühzeitig verworfen wird).

dargo
2017-07-04, 18:30:56
wo sieht man das der stromverbrauch gleich ist?
Bei der eigenen Karte die bei beiden APIs ins PT-Limit läuft. Bei Vulkan war der Takt nur geringfügig niedriger. Umgerechnet dürften es beim gleichen Takt 5-10W mehr sein. Bei einem PT von ~200W dann eher irrelevant.

BlacKi
2017-07-04, 18:33:53
Der Boosttakt spielt doch gar keine Rolle. Mehr Performance bei selbem Stromverbrauch ist der Schlüsselfaktor. Wenn man bei Vega +40% Takt anlegt und dies dem Prozess vs. Prozess Effizienzvorteil entspricht, ergibt sich auch der selbe Stromverbrauch. Macht man nun unnötige Sachen aufgrund nicht an Vega angepasster Treiber (Fallback) oder rennt ins Bandbreitenlimit kommt man eben auf die gesehenen +25% Performance. Es kann zudem sein, dass gewisse Power Saving Features noch nicht aktiviert sind oder noch nicht optimal eingestellt. Das sieht man z.B. an den relativ grossen Taktsprüngen von Vega FE. Dass dann die GPU-Spannung ebenfalls eher höher ist als nötig hilft ebenfalls nicht.

Oben hatte ich noch eine Frage in meinem vorigen Posting: Wie viel Arbeit kann man sich mit TBR und besserem HSR etc. typischerweise sparen? Oder was für einen Rahmen kann man sich erwarten?
mir ging es darum das unter opengl fiji nicht ordentlich auslastbar war, der verbrauch sogar geringer war als mit vulkan, aber dementsprechend auch deutlich geringere fps an lagen.

ich hab ja geschrieben das die sachlage bei vega komplett anders ist.

Schaffe89
2017-07-04, 18:52:56
Frage: Warum liegen auf der Karte aktuell deutlich oberhalb von 50% an (Gaming-)Leistung brach, aber die Leistungsaufnahme ist dennoch in der Nähe der 300W TDP?

Das ist eins sehr guter Punkt, der bisher ein bisschen zu unrecht pauschal abgeschmettert wird.
Aber es ist schon so ein Verhalten zu beobachten. Denn soviel ich gelesen haben, sinkt der Verbrauch öfter mals auf unter 250 Watt, ohne dass sich der Takt groß verändert. Das ist ein paar mal vorgekommen.

Meistens war die Karte aber vom Verbrauch her recht nahe am Maximum.
Ein weiter Punkt der tendenziell eher dafür spricht, dass da nicht mehr viel kommt, aber vielleicht mag man sich ja auch irren.

Ich kenne jedenfalls genug Beispiele wo Fijii und Polaris weit in der Leistung zurückhingen und der gemessene Strombedarf demzufolge auch sehr niedrig war.
Soviel ich mich erinnern kann war das in den CB Leistungsaufnahmetests sehr oft der Fall dass die Radeons da zwar 100% ausgelastet waren, aber der Strombedarf niedrig und die FPS sehr low waren.

unl34shed
2017-07-04, 18:58:45
Das ist eins sehr guter Punkt, der bisher ein bisschen zu unrecht pauschal abgeschmettert wird.
Aber es ist schon so ein Verhalten zu beobachten. Denn soviel ich gelesen haben, sinkt der Verbrauch öfter mals auf unter 250 Watt, ohne dass sich der Takt groß verändert. Das ist ein paar mal vorgekommen.

Meistens war die Karte aber vom Verbrauch her recht nahe am Maximum.
Ein weiter Punkt der tendenziell eher dafür spricht, dass da nicht mehr viel kommt, aber vielleicht mag man sich ja auch irren.

Ich kenne jedenfalls genug Beispiele wo Fijii und Polaris weit in der Leistung zurückhingen und der gemessene Strombedarf demzufolge auch sehr niedrig war.
Soviel ich mich erinnern kann war das in den CB Leistungsaufnahmetests sehr oft der Fall dass die Radeons da zwar 100% ausgelastet waren, aber der Strombedarf niedrig und die FPS sehr low waren.

Und die unnützen Berechnungen, die mit aktiven TBR wegfallen würden, haben kein Strom verbraucht?

iuno
2017-07-04, 19:34:33
Es kann zudem sein, dass gewisse Power Saving Features noch nicht aktiviert sind oder noch nicht optimal eingestellt. Das sieht man z.B. an den relativ grossen Taktsprüngen von Vega FE. Dass dann die GPU-Spannung ebenfalls eher höher ist als nötig hilft ebenfalls nicht.
Das ist aber "normal" bei AMD.
Vielleicht muss man mal von den nur 8 DPM states wegkommen, ich bin gar nicht sicher, ob sich bei PowerTune seit Bonaire ueberhaupt was getan hat. Wobei den Reviews von Igor iirc zumindest zu entnehmen war, dass die Zustaende extrem schnell gewechselt werden koennen.
Wenn du an was bestimmtes denkst, nur raus damit, dann lass ich es mal laufen.
Ich dachte an synthetische Tests, kenne mich damit aber auch nicht gut aus :redface:

Klevapalis
2017-07-04, 20:05:09
Ich kenne jedenfalls genug Beispiele wo Fijii und Polaris weit in der Leistung zurückhingen und der gemessene Strombedarf demzufolge auch sehr niedrig war.
War es nicht FuryX vs. GTX980Ti, wo viele Benchmarker den Unigine Heaven genutzt hatten, dieser aber auf der FuryX deutlich gedrosselt lief? Mag mich da jetzt aber auch irren.

Ich finde die grundsätzliche Theorie komisch. Und noch komischer finde ich, dass - so die grundsätzliche Theorie dann doch hin kommt - dieses Feature mehr als 6 Monate in die Treiberentwicklung hinein noch nicht fertig sein soll. Das klingt doch mehr als merkwürdig, gerade wo doch auch AMD genau bewusst ist, dass das Produkt getestet wird. Selbst wenn sie nur eine Karte verkauft hätten.

Zumindest ausgesucht Spiele hätte man per exe-Erkennung aktivieren können. Mir da zu unterstellen, ich hätte nur einfach keine Ahnung - irgendwie ein Flame, oder nicht? Zumindest ohne eine sinnvolle Begründung - ist sehr simpel. Aber gut, manche dachten ja auch die RX480 käme mit 110W Leistungsaufnahme ;D

dargo
2017-07-04, 20:22:07
War es nicht FuryX vs. GTX980Ti, wo viele Benchmarker den Unigine Heaven genutzt hatten, dieser aber auf der FuryX deutlich gedrosselt lief? Mag mich da jetzt aber auch irren.

Höchstens bei hohen Tess. Faktoren was dann auch kein Wunder ist.

Cyphermaster
2017-07-04, 21:00:09
War es nicht FuryX vs. GTX980Ti, wo viele Benchmarker den Unigine Heaven genutzt hatten, dieser aber auf der FuryX deutlich gedrosselt lief? Mag mich da jetzt aber auch irren.

Ich finde die grundsätzliche Theorie komisch. Und noch komischer finde ich, dass - so die grundsätzliche Theorie dann doch hin kommt - dieses Feature mehr als 6 Monate in die Treiberentwicklung hinein noch nicht fertig sein soll. Das klingt doch mehr als merkwürdig, gerade wo doch auch AMD genau bewusst ist, dass das Produkt getestet wird. Selbst wenn sie nur eine Karte verkauft hätten.

Zumindest ausgesucht Spiele hätte man per exe-Erkennung aktivieren können. Mir da zu unterstellen, ich hätte nur einfach keine Ahnung - irgendwie ein Flame, oder nicht? Zumindest ohne eine sinnvolle Begründung - ist sehr simpel. Aber gut, manche dachten ja auch die RX480 käme mit 110W Leistungsaufnahme ;D
Was ist daran komisch, daß man in der Phase der letzten Tests der geplanten Treiber (einige Wochen, nicht Monate vor release) noch einen Bug gefunden haben könnte, der in der Zeit nicht behebbar war? Und was soll der Aufwand der exe-Erkennung (vorausgesetzt, das wäre überhaupt möglich) bei einer Karte, die für das Erzeugen neuen Contents gedacht ist, wo das also keine Wirkung hätte?

Gipsel
2017-07-04, 21:34:12
Vielleicht muss man mal von den nur 8 DPM states wegkommenDie Granularität der möglichen Taktänderungen ist deutlich feiner als nur diese Zustände. Das zeigen Dir bloß viele Tools nicht an (und die Frequenzen wechseln auch extrem schnell, bei Polaris ist die Schrittgröße beim Takt z.B. afaik nur ~6 MHz oder sowas). Das war bei anderen GPUs auch so. Später kamen bzw. kommen dann Tools, die das können (oder zumindest den mittleren Takt in einem gewissen Zeitintervall ausgeben).

dosenfisch24
2017-07-04, 21:52:40
Ich habe Tessmark laufen lassen. Die Ergebnisse beziehen sich auf einen Takt von 1550/1050, der dauerhaft gehalten wird. Es kommt Set 4 ohne AA und PostFX im Fenstermodus zum Einsatz, denn in Vollbild taktet die Karte zwar hoch, wird aber nicht ausgelastet. Selbst der Lüfter dreht dann nicht hoch.
Als Ergebniss dienen die avg. FPS für die Tess. Faktoren 8x,16x,32x und 64x.

720p: 981 987 955 393
1080p: 987 981 833 350
1440p: 977 960 684 305

iuno
2017-07-04, 22:15:57
Die Granularität der möglichen Taktänderungen ist deutlich feiner als nur diese Zustände. Das zeigen Dir bloß viele Tools nicht an (und die Frequenzen wechseln auch extrem schnell, bei Polaris ist die Schrittgröße beim Takt z.B. afaik nur ~6 MHz oder sowas). Das war bei anderen GPUs auch so. Später kamen bzw. kommen dann Tools, die das können (oder zumindest den mittleren Takt in einem gewissen Zeitintervall ausgeben).
Das ist wie gesagt klar, gilt aber glaube ich nicht fuer die Spannungen oder? Man ist immer genau in einem DPM state, eben bis zu dessen maximalem Takt. Entsprechend wird sich auch der momentane Verbrauch am Beispiel von Vega zwischen 300 und 900 MHz recht wenig unterscheiden?

Gipsel
2017-07-04, 22:19:17
Das ist wie gesagt klar, gilt aber glaube ich nicht fuer die Spannungen oder? Man ist immer genau in einem DPM state, eben bis zu dessen maximalem Takt. Entsprechend wird sich auch der momentane Verbrauch am Beispiel von Vega zwischen 300 und 900 MHz recht wenig unterscheiden?Na der Verbrauch skaliert immer noch linear mit dem Takt (gibt halt einen Offset von Null wegen der Peripherie [läuft getrennt getaktet] und Leakage).

iuno
2017-07-04, 22:22:57
Prinzipiell schon, aber es spielen ja noch andere Sparmechanismen als nur Runtertakten mit (oder eben auch nicht).
Die Frage war eher, ob man an PowerTune im Allgemeinen feilen sollte oder ueberhaupt mal gefeilt hat

-=Popeye=-
2017-07-04, 22:23:19
Ich habe Tessmark laufen lassen. Die Ergebnisse beziehen sich auf einen Takt von 1550/1050, der dauerhaft gehalten wird. Es kommt Set 4 ohne AA und PostFX im Fenstermodus zum Einsatz, denn in Vollbild taktet die Karte zwar hoch, wird aber nicht ausgelastet. Selbst der Lüfter dreht dann nicht hoch.
Als Ergebniss dienen die avg. FPS für die Tess. Faktoren 8x,16x,32x und 64x.

720p: 981 987 955 393
1080p: 987 981 833 350
1440p: 977 960 684 305


Bei Tessmark kannste die Karte gleich komplett in die Tonne treten.

Gipsel
2017-07-04, 22:32:33
Bei Tessmark kannste die Karte gleich komplett in die Tonne treten.Sehr qualifizierter Kommentar!
Hast Du Vergleichswerte im Fenstermodus anzubieten, am besten von Fiji?

-=Popeye=-
2017-07-04, 22:36:42
Mit Fiji nicht aber einer Maxwell Titan.

Moment...

edit: Karte GTX TitanX @ 1367/4001
720p
https://abload.de/img/ts720p8x3osy4.png
https://abload.de/img/ts720p16x9dsyo.png
https://abload.de/img/ts720p32xqnsim.png
https://abload.de/img/ts720p64xiwsu7.png

1080p
https://abload.de/img/ts1080p8x0es8s.png
https://abload.de/img/ts1080p16x9ps9z.png
https://abload.de/img/ts1080p32xlcsk0.png
https://abload.de/img/ts1080p64xsuslj.png

PrivateCeralion
2017-07-04, 22:37:14
Wie viel langsamer wird Vega eigentlich dadurch, dass der HBM im ECC-Modus läuft?

Gipsel
2017-07-04, 22:43:16
Wie viel langsamer wird Vega eigentlich dadurch, dass der HBM im ECC-Modus läuft?Läuft er im ECC-Modus? Und selbst wenn, sollte das ein recht geringer Unterschied sein.

LadyWhirlwind
2017-07-04, 23:05:50
Was ist daran komisch, daß man in der Phase der letzten Tests der geplanten Treiber (einige Wochen, nicht Monate vor release) noch einen Bug gefunden haben könnte, der in der Zeit nicht behebbar war? Und was soll der Aufwand der exe-Erkennung (vorausgesetzt, das wäre überhaupt möglich) bei einer Karte, die für das Erzeugen neuen Contents gedacht ist, wo das also keine Wirkung hätte?

Nicht vergessen, dass es von Vega 3 Editionen gibt:
- Radeon Instinct MI25
- Vega FE
- Vega RX

Kann gut sein, dass TBR da recht spät dran kam, einfach weil es für die MI25 und dir FE nicht so wichtig ist.

-=Popeye=-
2017-07-04, 23:07:34
Sehr qualifizierter Kommentar!
Hast Du Vergleichswerte im Fenstermodus anzubieten, am besten von Fiji?

Hab editiert.

mczak
2017-07-04, 23:07:38
Bei Tessmark kannste die Karte gleich komplett in die Tonne treten.
350 fps bei x64 wären deutlich mehr als die Fury X und RX 480 erreichen (erstere ca. 200, letztere knapp darüber). Jedenfalls unter der Annahme dass da FHD bei den anderen Tests verwendet wird. Das wäre fast GTX 1080-Niveau. (Bei den tiefen Tesselation-Levels kann man keine Aussage treffen, weil ziemlich sicher da das Window-Compositing begrenzt und alle anderen wohl full-screen testen - full-screen und window sollte bei den höheren Levels ja im Normalfall keinen grossen Unterschied machen).
Das wäre also sicher kein schlechter Wert und ein deutlicher Fortschritt (neuere GCN-Chips sind da eh schon schneller - die R9 290 kam noch nicht mal auf 100 fps).
Ist jetzt aber von mir ein ziemlich spekulativer Vergleich...

-/\-CruNcher-/\-
2017-07-04, 23:13:58
Läuft er im ECC-Modus? Und selbst wenn, sollte das ein recht geringer Unterschied sein.

Anscheinend wurde von AMD bestätigt im Gamernexus review das ECC nur ein Workstation Feature ist somit in der Pro keine Verwendung findet macht ja auch Sinn.

Also denke mal das ECC läuft kann man nun endgültig ad acta legen, es ist kein Pro Target sondern nur Workstation bei AMD.

Allerdings frag ich mich wenn ROCm da auch läuft wie kann man auf ECC verzichten es wird ja für Compute und Machine Learning sprich dann auch Simulationen vermarktet das passt irgendwie nicht so ganz also Science und Medical bassierende Anwendungen sollten da wohl besser auf Workstation Karten laufen als wie auf der PRO die PRO is wohl wirklich zu einem sehr großen Teil auf alles was Computer Graphics related ist ausgelegt, was demnach keine kritischen komponenten beinhalten sollte :D

Simulationen und Machine Learning ja aber dann bitte nur für VR und Gaming, wo Fehler keinen umbringen können. ;)

-=Popeye=-
2017-07-04, 23:19:05
350 fps bei x64 wären deutlich mehr als die Fury X und RX 480 erreichen (erstere ca. 200, letztere knapp darüber). Jedenfalls unter der Annahme dass da FHD bei den anderen Tests verwendet wird. Das wäre fast GTX 1080-Niveau. (Bei den tiefen Tesselation-Levels kann man keine Aussage treffen, weil ziemlich sicher da das Window-Compositing begrenzt und alle anderen wohl full-screen testen - full-screen und window sollte bei den höheren Levels ja im Normalfall keinen grossen Unterschied machen).
Das wäre also sicher kein schlechter Wert und ein deutlicher Fortschritt (neuere GCN-Chips sind da eh schon schneller - die R9 290 kam noch nicht mal auf 100 fps).
Ist jetzt aber von mir ein ziemlich spekulativer Vergleich...

Mein edit hast du gesehen?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11421608&postcount=7973

Achill
2017-07-04, 23:31:01
Ich habe Tessmark laufen lassen. Die Ergebnisse beziehen sich auf einen Takt von 1550/1050, der dauerhaft gehalten wird. Es kommt Set 4 ohne AA und PostFX im Fenstermodus zum Einsatz, denn in Vollbild taktet die Karte zwar hoch, wird aber nicht ausgelastet. Selbst der Lüfter dreht dann nicht hoch.
Als Ergebniss dienen die avg. FPS für die Tess. Faktoren 8x,16x,32x und 64x.

720p: 981 987 955 393
1080p: 987 981 833 350
1440p: 977 960 684 305

Mal die 390X ...

720p: 1424 1267 404 102
1440p: 1108 - - 99

-/\-CruNcher-/\-
2017-07-04, 23:34:09
Da könnte man echt denken die veräppeln uns alle ;)

Wobei ja die Aufteilung sehr balanciert ausschaut und nur bei 64x einbricht ansonsten ist kein Ergebnis zu stark oder zu schwach sondern sehr balanciert.

Allerdings sollte man das wohl eher von Fiji aus betrachten als wie Hawaii

also ich traue momentan am ehesten den Luxmark Ergebnisen die in relativ breiter masse vergleichbar sind wenn es um die Raw Performance geht.

Auch hier hab ich klare Vorstellungen das sollte minimum zu RX Vega Release 60 FPS erreichen.


https://www.computerbase.de/forum/attachment.php?attachmentid=631261&d=1499125560
https://www.computerbase.de/forum/attachment.php?attachmentid=631262&d=1499125586
https://www.computerbase.de/forum/attachment.php?attachmentid=631008&d=1499016561


Low Level ist man dort

https://www.computerbase.de/forum/attachment.php?attachmentid=631260&d=1499125508

Alerdings ist man immer sehr nah am DX 11 Ergebnis von Nviidia mit einer OCed GTX 1080 auf 2000 MHz :)

https://youtu.be/VrKgpcQgNso?t=242

PrivateCeralion
2017-07-04, 23:43:23
Anscheinend wurde von AMD bestätigt im Gamernexus review das ECC nur ein Workstation Feature ist somit in der Pro keine Verwendung findet macht ja auch Sinn.

Also denke mal das ECC läuft kann man nun endgültig ad acta legen, es ist kein Pro Target sondern nur Workstation bei AMD.

Allerdings frag ich mich wenn ROCm da auch läuft wie kann man auf ECC verzichten es wird ja für Compute und Machine Learning sprich dann auch Simulationen vermarktet das passt irgendwie nicht so ganz also Science und Medical bassierende Anwendungen sollten da wohl besser auf Workstation Karten laufen als wie auf der PRO die PRO is wohl wirklich zu einem sehr großen Teil auf alles was Computer Graphics related ist ausgelegt, was demnach keine kritischen komponenten beinhalten sollte :D

Simulationen und Machine Learning ja aber dann bitte nur für VR und Gaming, wo Fehler keinen umbringen können. ;)

Laut Computer Base läuft es im ECC Modus. Seltsam.

[MK2]Mythos
2017-07-04, 23:52:10
Ich habe Tessmark laufen lassen. Die Ergebnisse beziehen sich auf einen Takt von 1550/1050, der dauerhaft gehalten wird. Es kommt Set 4 ohne AA und PostFX im Fenstermodus zum Einsatz, denn in Vollbild taktet die Karte zwar hoch, wird aber nicht ausgelastet. Selbst der Lüfter dreht dann nicht hoch.
Als Ergebniss dienen die avg. FPS für die Tess. Faktoren 8x,16x,32x und 64x.

720p: 981 987 955 393
1080p: 987 981 833 350
1440p: 977 960 684 305

R9 Nano @900Mhz
Set4
720p
X8: 1489; X16: 1369; X32: 608; X64: 157

mczak
2017-07-04, 23:52:44
Mein edit hast du gesehen?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11421608&postcount=7973
Ja hab's gesehen aber halt schon vorher zitiert...
Aendert aber nichts an meiner generellen Einschätzung, die Resultate sind nicht so schlecht (wobei der nvidia-Treiber offensichtlich kein 1000fps Limit hat, aber über die Leistungsfähigkeit bei Tessellation sagt das ja nichts aus).
Ist jedenfalls so ziemlich der erste Test bisher wo sich die Architekturänderungen doch bedeutend auswirken...

Achill
2017-07-04, 23:53:59
Wir sind ja im Spekulationen-Forum, was wäre denn mit folgender Theorie?

Es handelt sich bei Vega FE um ein Salvage von Chips, wo Teile des Tile-Based-Rasterizer defekt sind. Annahme ist, dass bei professioneller Software (compute basiert, wireframe, ...) nicht primäre benötigt wird, als Ausgleich gibt es Pro-Treiber jedoch ohne Zertifizierung um die WX-Line nicht zu kannibalisieren.

Rx Vega und WX** sind dann Chips wo Tile-Based-Rasterizer funktioniert.

Würde das Sinn machen?

mczak
2017-07-05, 00:00:05
Es handelt sich bei Vega FE um ein Salvage von Chips, wo Teile des Tile-Based-Rasterizer defekt sind. Annahme ist, dass bei professioneller Software (compute basiert, wireframe, ...) nicht primäre benötigt wird, als Ausgleich gibt es Pro-Treiber jedoch ohne Zertifizierung um die WX-Line nicht zu kannibalisieren.

Halte ich für ausgeschlossen. Die Chancen dafür dass gerade der TBR nicht funktioniert der Rasterizer aber sonst schon (bzw. eigentlich alle 4) zusammen mit dem restlichen Chip dürfte so ziemlich null sein. Na gut hast du 1 Million Chips gibt es vielleicht schon einen bei dem das zutreffen könnte :biggrin:.
Da wäre es imho schon deutlich wahrscheinlicher dass der bei diesem Chip-Stepping nie funktioniert...

Screemer
2017-07-05, 00:12:22
Vega fe 720p: 981 987 955 393

Mal die 390X ...

720p: 1424 1267 404 102
1440p: 1108 - - 99

Mythos;11421662']R9 Nano @900Mhz
Set4
720p
X8: 1489; X16: 1369; X32: 608; X64: 157


Txm 720p: 2594 2344 1254 537

Die karte ist bei niedrigen tes-faktoren langsamer als eine 700mhz niedriger getaktete fury und sogar langsamer als granda. Wenn jetzt noch jemand glaubt bei Vega läuft alles rund, dem ist auch nicht mehr zu helfen.

PrivateCeralion
2017-07-05, 00:37:47
Txp 720p: 2594 2344 1254 537

Die karte ist bei niedrigen tes-faktoren langsamer als eine 700mhz niedriger getaktete fury und sogar langsamer als granda. Wenn jetzt noch jemand glaubt bei Vega läuft alles rund, dem ist auch nicht mehr zu helfen.

Das es so abartig schlecht läuft macht mir Hoffnung, dass es doch noch richtig krass wird.

basix
2017-07-05, 00:47:57
Das es so abartig schlecht läuft macht mir Hoffnung, dass es doch noch richtig krass wird.

Das nenne ich die richtige Einstellung :D

Nakai
2017-07-05, 00:57:12
Ich möchte etwas Öl ins Feuer gießen.

Mal eine dumme Annahme:
Der TileBased-Renderer bei Vega ist kaputt und man nimmt einen Fallback-Modus, welcher eigentlich nur fürs Debugging verwendet wird. Da muss definitiv etwas nicht funktionieren. Die Frage ist eher, wieso AMD eine FE rausbringt und das finale Produkt noch auf sich warten lässt. Man hört nichts, was da passiert ist. Vega war Anfang 2017 "geplant", aber der Release wurde immer weiter nach hinten diregiert. Treiber sind wahrscheinlich ein wichtiger Punkt. aber eventuell steckt mehr dahinter. Die Vega FE Boards sehen sehr Beta aus. Man verschwendet nicht, so einfach, soviel Platz. Klar ist es eine Beta-Karte, aber ich bin wirklich gespannt, ob man das ganze auf 30 Tage hinbiegen kann. Awaiting Siggraph.

€: Compute-Sachen scheinen ganz passabel zu laufen. Ergo liegt der schwarze Peter in Richtung Grafik. Compute-Kompatiblität kann man wohl simpler auf Fiji ummünzen.

Klevapalis
2017-07-05, 01:12:01
Was ist daran komisch, daß man in der Phase der letzten Tests der geplanten Treiber (einige Wochen, nicht Monate vor release) noch einen Bug gefunden haben könnte, der in der Zeit nicht behebbar war?
Nimmt man den Treiber aus dem Build vorher. Ist der halt ne Woche älter oder zwei. Aber so alt, dass ein dermaßen wichtiges, Wunderheilermittel-ähnliches Feature nicht funktioniert? Blödsinn, um es mal realistisch zu sagen.

Realistisch wird der Treiber im Großen und Ganzen schon im März/April gelaufen sein. Sicherlich nicht bugfrei, aber schon so, dass man ihn vorzeigen kann. Sonst bräuchte man einen Release im Juli auch nicht zu denken.

Und was soll der Aufwand der exe-Erkennung (vorausgesetzt, das wäre überhaupt möglich) bei einer Karte, die für das Erzeugen neuen Contents gedacht ist, wo das also keine Wirkung hätte?
Was für ein Aufwand, diese exe-Erkennung, die doch heute schon überall Teil des Treiber ist:

http://support.amd.com/PublishingImages/Support/Game%20Profiles/4.png

:rolleyes:

mczak
2017-07-05, 01:22:45
Die karte ist bei niedrigen tes-faktoren langsamer als eine 700mhz niedriger getaktete fury und sogar langsamer als granda.
Dass es in dem Benchmark bei der Vega ein sehr sehr offensichtliches 1000fps Limit gibt aus irgendeinem Grund müsste man eigentlich ja nicht speziell erwähnen weil das wirklich nicht zu übersehen ist aber anscheinend sind hier einige völlig blind.
Die Werte die NICHT in dem Limit hängen sind jedenfalls ziemlich gut (auch wenn die nicht an die Titan X (Pascal) herankommen.

horn 12
2017-07-05, 01:32:08
@Nakai

Sicherlich
Amd ist sich Ihrer Sache wohl recht sicher und man wird GTX 1080 TI definitiv schlagen mit geringem Mehrverbrauch schlussendlich, aber es werden wohl mehr als 5-10% sein zur GTX 1080 TI.

N0Thing
2017-07-05, 02:21:14
Vega war Anfang 2017 "geplant", aber der Release wurde immer weiter nach hinten diregiert. Treiber sind wahrscheinlich ein wichtiger Punkt. aber eventuell steckt mehr dahinter. Die Vega FE Boards sehen sehr Beta aus. Man verschwendet nicht, so einfach, soviel Platz. Klar ist es eine Beta-Karte, aber ich bin wirklich gespannt, ob man das ganze auf 30 Tage hinbiegen kann. Awaiting Siggraph.


Warum sehen die Boards sehr Beta aus? Die Länge des PCBs kann an der Kühllösung liegen. Mit dem längeren PCB bei der Vega FE kann man einen größeren Kühlkörper neben dem Lüfter unterbringen.
Die Custom Fury Karten haben auch deutlich längere PCBs als die Referenz Fury X, ohne dabei einen Beta-Status zu haben.

d2kx
2017-07-05, 03:54:33
Es kann zudem sein, dass gewisse Power Saving Features noch nicht aktiviert sind oder noch nicht optimal eingestellt. Das sieht man z.B. an den relativ grossen Taktsprüngen von Vega FE. Dass dann die GPU-Spannung ebenfalls eher höher ist als nötig hilft ebenfalls nicht.

Das ist korrekt. AVFS (Adaptive voltage & frequency scaling, seit Polaris) und ACG (neu mit Vega) sind im aktuell verfügbaren Treiber noch nicht richtig lauffähig bzw. letzteres sogar noch vollständig deaktiviert.

Diese und andere noch fehlende Treiberfeatures haben situationsabhängig Einfluss auf die Performance, Genaueres weiß ich allerdings auch nicht. Ich wäre aber vorsichtig mit den aktuellen Ergebnissen und würde mir vor dem Launch der RX Vega und neuem Treiberbranch kein Urteil bilden.

StefanV
2017-07-05, 05:40:46
Halte ich für ausgeschlossen. Die Chancen dafür dass gerade der TBR nicht funktioniert der Rasterizer aber sonst schon (bzw. eigentlich alle 4) zusammen mit dem restlichen Chip dürfte so ziemlich null sein. Na gut hast du 1 Million Chips gibt es vielleicht schon einen bei dem das zutreffen könnte :biggrin:.
Da wäre es imho schon deutlich wahrscheinlicher dass der bei diesem Chip-Stepping nie funktioniert...
Nicht, wenn es absichtlich z.B. aufgrund eines Hardware Fehlers geschehen ist...

Warum sehen die Boards sehr Beta aus?
Schau dir mal die Spannungsregler an...
Und dann vergleiche mal die Fury X oder whatever...

Und dann schau hier:
https://www.pcper.com/news/Graphics-Cards/Radeon-Vega-Frontier-Edition-GPU-and-PCB-Exposed

12 Phasen für die GPU (+1 Aux)? SRYSLY?!
Looks kinda fishy too me.

Insbesondere da die Fury X mit deutlich weniger auskommt. Und die auch nicht z.T. fast in der GPU drin sitzen wie bei der VEGA FE...

Frontier Edition hat hier wohl mehr als einen Grund/Sinn ;)

unwissend!
2017-07-05, 07:47:04
Mythos;11421662']R9 Nano @900Mhz
Set4
720p
X8: 1489; X16: 1369; X32: 608; X64: 157

FuryX @ 1050/500 @ 17.6.2 default settings
Set4
720p Fenster Modus
X8: 1244 X16: 1214 X32: 641 X64: 182

dargo
2017-07-05, 07:59:45
Die Vega FE Boards sehen sehr Beta aus. Man verschwendet nicht, so einfach, soviel Platz.
Keine Ahnung wie du darauf kommst? Das PCB wurde nur künstlich wegen der Kühlung verlängert.

AffenJack
2017-07-05, 08:07:13
Dass es in dem Benchmark bei der Vega ein sehr sehr offensichtliches 1000fps Limit gibt aus irgendeinem Grund müsste man eigentlich ja nicht speziell erwähnen weil das wirklich nicht zu übersehen ist aber anscheinend sind hier einige völlig blind.
Die Werte die NICHT in dem Limit hängen sind jedenfalls ziemlich gut (auch wenn die nicht an die Titan X (Pascal) herankommen.

Jop, da hapert es auf jeden Fall an irgendwas. Andererseits zeigen die x64 Werte anscheinend, dass der primitive shader oder TBR doch laufen. Denn die unterscheiden sich zu stark von der Fury, als dass das deaktiviert sein könnte.