PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

aufkrawall
2017-06-29, 23:49:34
Unseriös wäre, irgendwas zu sagen und behaupten, es wäre die Wahrheit. Seine Meinung auszudrücken fällt eher nicht darunter.
Ich wollte sagen, dass er sich als Repräsentant von pcper sicher drei Mal überlegen wird, rumzuspekulieren und sich dann später bei Nicht-Eintreffen den Vorwurf anhören muss, biased rumgestänkert zu haben.

r3ptil3
2017-06-29, 23:51:40
Mein Post sollte keine Kritik darstellen.

Man muss jetzt nicht jeden zerreissen, wenn er was spekuliert was nicht stimmen "könnte".

Man kann ja dankbar sein, dass er überhaupt einen solchen Livestream durchführt.

Unicous
2017-06-29, 23:54:52
Ich mag Ryan, aber ja, er labert auch gerne mal Unsinn, was ich irgendwie nicht nachvollziehen kann da er schon seit vielen viele Jahren dabei ist.

Man kann froh sein, dass er viele Leute um sich hat die etwas mehr Expertise besitzen, wie z.b Josh Walrath und Allyn Malventano.

Man merkt das öfter bei den wöchentlichen Podcasts.

Linmoum
2017-06-29, 23:55:04
Es ist viel mehr davon auszugehen dass die Fontier Edition schon den kompletten Vega Zauber gezeigt hat, mit Ausnahme vielleicht von bei Grafikkarten allgemein üblichen Performanceverbesserungen (1-5%) durch neuere Treiber und allenfalls slektierte Chips (höherer Clockspeed und/oder tiefere Voltage) für die Gaming Versionen.
Davon ist logisch betrachtet überhaupt nicht auszugehen, da die aktuelle Performance keinen Sinn ergibt. Ganz einfach, das ist bisher nichts weiter als Fiji mit höherem Takt, was man da sieht. Und dafür sind die Veränderungen mit Vega dann doch mehr als nur oberflächlich, um da überhaupt nichts mitzunehmen.

Ich wollte sagen, dass er sich als Repräsentant von pcper sicher drei Mal überlegen wird, rumzuspekulieren und sich dann später bei Nicht-Eintreffen den Vorwurf anhören muss, biased rumgestänkert zu haben.
Ist ja kein rumstänkern, grob 10% über Spieleoptimierungen sind ja durchaus realistisch. Wobei das insb. bei neuer Architektur durchaus variieren kann, aber da muss man noch die paar Wochen abwarten.

Digidi
2017-06-29, 23:56:14
Bekommt man das irgendwie als EXE zum laufen?
http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/

Troyan
2017-06-29, 23:58:01
Wenn PCPer fertig sein wird, kann man sehen, wie schnell AMD mit "Damage Control" sein wird. Die Werte sind schon nach 3DMark und Heaven richtig schlecht.

Wer auch immer die Idee hatte dieses Produkt zum jetzigen Zeitpunkt zu veröffentlichen, gehört gefeuert.

Isen
2017-06-30, 00:02:36
Man weiß ja nicht, was auf dem Spiel stünde, wenn sie es nicht getan hätten.
Auch weiß man nicht, ob AMD mit dieser Aktion irgendwas bestimmtes bezweckt.
Kurios ist es allemal, aber da irgendwas in passende Schubladen zu stecken ist doch voll gaga.

Was die FE bei den Benches abliefert, hätte AMD viel früher haben können.. so dämlich sich AMD auch anstellen kann, aber, dass jetzt, ist so dämlich, dass das nicht sein kann.

HOT
2017-06-30, 00:02:40
GPU-Z gibt aus, dass der ECC-HBM der FE von Micron stammt, stimmt das?

Gipsel
2017-06-30, 00:03:51
Wer auch immer die Idee hatte dieses Produkt zum jetzigen Zeitpunkt zu veröffentlichen, gehört gefeuert.Das lese ich jetzt zum gefühlten 10. Mal. Ich denke, jeder hier im Thread kennt Deine Meinung inzwischen. Können wir hier bitte eine mehr sachorientierte Debatte führen? Danke.

Gipsel
2017-06-30, 00:04:41
GPU-Z gibt aus, dass der ECC-HBM der FE von Micron stammt, stimmt das?Ja, ist aber vermutlich ein Fehler von GPU-Z.

Unicous
2017-06-30, 00:05:36
GPU-Z gibt aus, dass der ECC-HBM der FE von Micron stammt, stimmt das?


Wie soll das stimmen können wenn Micron nie HBM produziert hat und sich auf GDDR5X/6 stürzt?

Und was hat ECC damit zu tun?:confused:

Gipsel
2017-06-30, 00:07:45
Und was hat ECC damit zu tun?:confused:ECC-HBM würde andere Speicherchips erfordern. Aber vermutlich unterstützt die FE gar kein ECC (im Gegensatz zur MI25).

Unicous
2017-06-30, 00:10:34
Nichts anderes meinte ich gerade.;)

horn 12
2017-06-30, 00:40:00
Temperaturen und Lautstärke, was sagt, messt er bitte dazu ?
Wo sind die Werte.

Linmoum
2017-06-30, 00:44:32
Er bencht bisher ausschließlich Spiele.

gravitationsfeld
2017-06-30, 00:46:35
ECC-HBM würde andere Speicherchips erfordern. Aber vermutlich unterstützt die FE gar kein ECC (im Gegensatz zur MI25).
NVIDIA scheint mit einem geraden Speicherinterface auch ECC zu koennen. Wahrscheinlich weil sie die ECC-Bits interleaven.

Hübie
2017-06-30, 00:51:07
Bekommt man das irgendwie als EXE zum laufen?
http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/

Gute Idee. :up: Microsoft bietet den Compiler von VS gratis an. Soll Ryan herunterladen, kompilieren und ausführen. Dann herrscht Klarheit.

scully1234
2017-06-30, 00:59:27
Ich bin mal gespannt auf den RX Vega Treiber ,mit dem sie sich dann die teure FE Kundschaft kaputt patchen.

Mein Dafürhalten ist, das ist alles ein weiterer kleiner Bluff ,um die Kundschaft so lange als möglich,bei der Stange zu halten.

FE nimmt sich am Ende rein gar nix, zum RX Vega, oder wenn dann nur wieder in 1,2 Vorzeigespielen, wie Doom und Ashes, weil man gar nicht die Manpower/finanziellen Mittel hat dafür die Treiber hochgradig zu spezialisieren

mili2110
2017-06-30, 01:07:00
Er hat gerade 280W gemessen in Witcher 3. Wenn die (finale) Leistung stimmt, ist das vollkommen ok.

CompuJoe
2017-06-30, 01:07:25
Jetzt wird es interessant, irgendwas drosselt die Karte.

Kommt mir bald so vor als ob die mit Absicht eingebremst wird ^^

Der_Korken
2017-06-30, 01:17:37
Jetzt wird es interessant, irgendwas drosselt die Karte.

Er sagt zwar, dass der Takt stabil bei 1440Mhz in W3 bleibt, aber wenn der Takt nur einmal pro Sekunde gemessen wird, dann ist es eher Zufall, wenn man mal eine von den (Verbrauchs-)Ausreißern nach unten erwischt. Der Takt müsste mit der gleichen Frequenz erfasst werden. Von daher würde ich sagen, dass es die Temps sind. 280W sind aber wirklich noch weniger schlimm als gedacht. Dafür ist die Performance bisher ziemlich meh für die Eckdaten des Chips (und den anvisierten Preis).

Edit: Außerdem wurde gesagt, dass die Karte nur <25W über den Slot zieht, was einige hier bereits spekuliert hatten.

Troyan
2017-06-30, 01:20:33
Die Karte drosselt ab rund 83°C oder so. Gestern im Livestream hat man gesehen, wie Afterburner immer hin und hergesprungen ist.

Agent117
2017-06-30, 01:20:46
Er hat schon mal gesagt, dass er nicht mehr als ~+10% für den Rx Vega-Treiber in ein paar Wochen erwartet.

Naja mit 10% mehr ist man dann etwas über der 1080. Man bedenke, dass die Leistungsaufnahme oberhalb des Sweet Spots bezogen auf die Performance exponentiell ansteigt (sonst gäbe es den Begriff Sweet Spot ja nicht:freak:).
Die Frage ist doch, warum bringt AMD ein 300W+ Produkt, wenn es keine konkurenzfähige Performance zur 1080 Ti bietet. Da läuft die Presse doch Sturm.
Wenn die 1080 Ti eh nicht erreicht wird, wäre dann Vega @ 200 - 225W kühler, leiser mit 10 bis 15% weniger Fps nicht die bessere Lösung? Dazu Übertaktungspotential.
Ich bleibe dabei, die Brechstange mit 300W+ holt man nur raus, wenn die Performance konkurenzfähig zur Ti ist.

CompuJoe
2017-06-30, 01:23:00
Was man auch gesehen hat bei den benches , da wo die fps bei der txp hoch gingen blieben sie bei der vega recht konstant und waren näher an der txp, irgendwas ist noch buggy

Evtl. vrm temps?

Achill
2017-06-30, 01:26:14
Naja mit 10% mehr ist man dann etwas über der 1080. Man bedenke, dass die Leistungsaufnahme oberhalb des Sweet Spots bezogen auf die Performance exponentiell ansteigt (sonst gäbe es den Begriff Sweet Spot ja nicht:freak:).
Die Frage ist doch, warum bringt AMD ein 300W+ Produkt, wenn es keine konkurenzfähige Performance zur 1080 Ti bietet. Da läuft die Presse doch Sturm.
Wenn die 1080 Ti eh nicht erreicht wird, wäre dann Vega @ 200 - 225W kühler, leiser mit 10 bis 15% weniger Fps nicht die bessere Lösung? Dazu Übertaktungspotential.
Ich bleibe dabei, die Brechstange mit 300W+ holt man nur raus, wenn die Performance konkurenzfähig zur Ti ist.

Im Live-Speed waren es bisher <= 280W ...

CompuJoe
2017-06-30, 01:26:58
Erinnert mich gerade an die Referenz 7970 von damals im Sommer ^^

Edit. Templimit

Gipsel
2017-06-30, 01:32:03
NVIDIA scheint mit einem geraden Speicherinterface auch ECC zu koennen. Wahrscheinlich weil sie die ECC-Bits interleaven.Bei GDDR5 wird was vom Speicher abgezwackt, ja. Aber bei HBM(2) sind wirklich ECC-Stacks vorgesehen, die eben mehr Platz für die zusätzlichen ECC-Bits haben und auch über getrennte Datenleitungen gelesen und geschrieben werden (praktisch wie beim ECC für Hauptspeicher von CPUs). Man verliert bei HBM allerdings mit aktivem ECC die Möglichkeit, per Write Data Mask einzelne Bytes zu schreiben (weil die Data-Mask-Pins zur Übertragung der ECC-Bits genutzt werden), da wird dann also immer mit der normalen Zugriffsgranularität geschrieben (32 Bytes an Stück).

Achill
2017-06-30, 01:33:02
Vega@Luft hat anschneiend eine suboptimale Lüfterkurve. Gab drops auf 240W die mit 100% Fan nicht mehr auftraten ...

crux2005
2017-06-30, 01:35:05
Vega@Luft hat anschneiend eine suboptimale Lüfterkurve. Gab drops auf 240W die mit 100% Fan nicht mehr auftraten ...

Teilweise nur 200W

CompuJoe
2017-06-30, 01:36:16
Vega@Luft hat anschneiend eine suboptimale Lüfterkurve. Gab drops auf 240W die mit 100% Fan nicht mehr auftraten ...

Ja, die lief ins templimit, evtl. wird bei der Karte nicht über den reinen Takt gedrosselt sondern über etwas anderes.
Kann mir vorstellen das man das gut anpassen kann, evtl. etwas undervolting um im powerlimit mehr Takt zu bekommen, oder das limit einfach erhöhen.
Der höhere Verbrauch mit 100% Lüfter dürfte vom Lüfter selbst kommen ^^

Troyan
2017-06-30, 01:36:54
Es ist keine "suboptimale" Lüfterkurve. AMD will einfach nicht, dass die Karte an Lautstärke zulegt. Das ist exakt wie bei nVidia mit den Founder Editions.

CompuJoe
2017-06-30, 01:38:11
Es ist keine "suboptimale" Lüfterkurve. AMD will einfach nicht, dass die Karte an Lautstärke zulegt. Das ist exakt wie bei nVidia mit den Founder Editions.

Ist auch richtig so für den Einsatzzweck, hätte kein Bock am Arbeitsplatz so ein Triebwerk neben mir zu haben

Digidi
2017-06-30, 01:42:20
Gute Idee. :up: Microsoft bietet den Compiler von VS gratis an. Soll Ryan herunterladen, kompilieren und ausführen. Dann herrscht Klarheit.
Ich habs zum laufen gebracht man braucht aber das Windows SDK dafür :)

gravitationsfeld
2017-06-30, 01:54:26
Bei GDDR5 wird was vom Speicher abgezwackt, ja. Aber bei HBM(2) sind wirklich ECC-Stacks vorgesehen, die eben mehr Platz für die zusätzlichen ECC-Bits haben und auch über getrennte Datenleitungen gelesen und geschrieben werden (praktisch wie beim ECC für Hauptspeicher von CPUs). Man verliert bei HBM allerdings mit aktivem ECC die Möglichkeit, per Write Data Mask einzelne Bytes zu schreiben (weil die Data-Mask-Pins zur Übertragung der ECC-Bits genutzt werden), da wird dann also immer mit der normalen Zugriffsgranularität geschrieben (32 Bytes an Stück).
Das wuerde aber bedeuten, dass sie unterschiedliche Interposer bauen muessen etc. Ich weiss nicht ob sich das wirklich lohnt fuer die CAD-SKUs.

Digidi
2017-06-30, 02:15:26
Ich hab Ihn genervt er hat es mit dem Tool aufgeschnappt :)

Gipsel
2017-06-30, 02:17:21
Das wuerde aber bedeuten, dass sie unterschiedliche Interposer bauen muessen etc. Ich weiss nicht ob sich das wirklich lohnt fuer die CAD-SKUs.Na das Interface der Stacks ist identisch (Du kannst ja z.B. auch DDR4-ECC-Riegel in normale Consumerboards stecken), das geht mit dem gleichen Interposer. Man muß nur bei SKHynix oder Samsung ECC-Stacks ordern. Die Stacks selber unterscheiden sich, mehr aber auch nicht.

matty2580
2017-06-30, 02:19:30
Den Stream finde ich sehr gut, auch dass man persönliche Wünsche äußern kann.

Nur die Leistung von AMDs RV-FE überzeugt wieder einmal nicht.
Da kann man wirklich nur auf bessere Treiber zum Release hoffen.
Aber ob die dann noch einmal über 40% zur 1080ti zulegen, ist doch sehr unwahrscheinlich. :(

Digidi
2017-06-30, 02:20:38
Ich hab ihm den Link zum Video geschickt. Das ist ihm Zu lang
https://www.youtube.com/watch?v=Nc6R1hwXhL8
:)

Schaffe89
2017-06-30, 02:24:13
Also Fallout 4 bei etwa 44 FPS in 4K während die Titan X knapp über 60 macht.
Mhm.. Meh.

Troyan
2017-06-30, 02:29:23
Sagen wir mal so: Die GTX1080 ist rund 60% schneller als die Sapphire 580 Limited. Die FE verbraucht rund 250W und liegt +- auf GTX1080 Niveau. Ist also 60% effizienter als die schnellste RX 580.

Schaffe89
2017-06-30, 02:30:54
Wieso hat er den Vebrauch schon ordentlich gemessen?

iuno
2017-06-30, 02:31:33
Ich habs zum laufen gebracht man braucht aber das Windows SDK dafür :)
Auf github ist ein release (https://github.com/nlguillemot/trianglebin/releases) build, dafuer brauchst du kein SDK.

Wurde schon geschaut und was dazu gesagt, ob der Treiber fuer die Karte FL 12_1 meldet?

Troyan
2017-06-30, 02:31:50
Ja, vor rund einer Stunde. 280W ohne Drosseln, ~250W mit Drosseln und ~300W ohne Temp-Limitierung.

dildo4u
2017-06-30, 02:48:17
Luxmark lief auch langsam da kann mit keiner erzählen die Karte wäre nicht für Open CL optimiert,die Karte boostet einfach deutlich zu niedrig.

BlacKi
2017-06-30, 02:53:59
er benched gta 5 4k, FE 35fps gtx 1080 45fps. hätte man sowas hier vor 1 woche geschrieben, wäre man für bekloppt erklärt worden wie man amd ständig bashen kann. wth is going on?

Schaffe89
2017-06-30, 03:07:05
Jetzt kommt der interessante Teil... fuktioniert tiled based rendering?
Da bin ich jetzt mal sehr gespannt.

N0Thing
2017-06-30, 03:15:16
Hab ich dir doch erklärt. :| Dennoch finde ich es Quatsch einfach 3D Mark zu nehmen (auch wenn FireStrike grob passt: alte API und wenig Aussagekraft für Technologien ala DSBR, HBCC oder allgemein Durchsatz von ALUs, TMUs oder ROPs). Spiele sind viel interessanter - also konkrete, harte Fakten (Frametimes, FPS). Mit und ohne MSAA, mit und ohne AF, Paralax Maps (usw.) mit und ohne Tesselation etc... Verstehst wie ich's meine.


Benchmarks mit Savegames in Spielen sind der Königsweg, da sind wir uns einig, keine Frage.
Du hast nur damals 3DMark generell als nicht repräsentativ und dessen Ergebnisse als nicht übertragbar bezeichnet und nun genau die gegenteilige Position vertreten. Ich habe deine Erklärung gelesen, nur war von Cloud Gate und anderen unüblichen Benchmarks abseits von deinem Einwand auf meine Antwort nie die Rede. Von daher: Nein, ich habe von dir keine nachvollziehbare Erklärung bekommen, aber wenn du eine hast, wäre eine Antwort via PM inzwischen besser, denn mit Vega hat es ja keine Verbindung mehr.

gravitationsfeld
2017-06-30, 03:17:10
Na das Interface der Stacks ist identisch (Du kannst ja z.B. auch DDR4-ECC-Riegel in normale Consumerboards stecken), das geht mit dem gleichen Interposer. Man muß nur bei SKHynix oder Samsung ECC-Stacks ordern. Die Stacks selber unterscheiden sich, mehr aber auch nicht.
Kannst du nicht, die meisten Boards fuehren nur 64 statt 72 Leitungen zum RAM.

hat er Chip selber ueberhaupt die noetigen Interfaces und Pins fuer mehr Leitungen?

Leonidas
2017-06-30, 04:44:38
Zudem schrieb die PCGH, dass der HBM im ECC-Mode läuft. Eine Profi-Hawaii ist auch langsamer unter spielen aufgrund der höheren Speicherlatenz.


Wobei dies bei der RV-FE wahrscheinlich nie anders sein wird. Die Gaming-Treiber auf Vega-Pfad werden sie eines Tages beschleunigen, der ECC dürfte aber bleiben. Oder ist das kein offizielles Feature?





Die spannende Frage ist eigentlich nur noch, warum RX Vega laut Raja schneller sein wird als die Frontier.


Frage ich mich auch. Diese Aussage bezieht sich ja auch ausgereifte Treiber für beide Produkte, nicht auf den Istzustand. Mögliche Auflösung: Gleiche technische Daten - und dann macht das ECC die FE langsamer und sie hat womöglich auch gar kein HBCC per default (nicht notwendig bei 16 GB).




Speicher made in Sachsen. High Berformance Cache. ;D


Ausgesprochen ist es noch viel schöner :)

Digidi
2017-06-30, 05:59:06
Yes kein tiled Base Rasterizer aktive. Minute 230

Isen
2017-06-30, 06:48:21
Cool. Kauf ich mir nachher Chips, ne Cola, und lies mir durch, wie die ganzen Hater gebasht werden, die ja meinten, dass wäre nur wieder ein Strohhalm. :-D

decimad
2017-06-30, 07:07:08
https://m.youtube.com/watch?time_continue=3591&v=bhGAS_oGN3c

Yes kein tiled Base Rasterizer aktive. Minute 230

Bei mir probiert er da gerade irgendwelche Miner aus...

MR2
2017-06-30, 07:09:12
Cool. Kauf ich mir nachher Chips, ne Cola, und lies mir durch, wie die ganzen Hater gebasht werden, die ja meinten, dass wäre nur wieder ein Strohhalm. :-D
Und hast wieder 3 Kilo zugenommen. Lass lieber...

Loeschzwerg
2017-06-30, 07:11:45
Bei mir probiert er da gerade irgendwelche Miner aus...

Musst kurz vor Stunde 4 scrollen :)

decimad
2017-06-30, 07:14:41
Musst kurz vor Stunde 4 scrollen :)
Na gut, es ist noch früh :P peinlich peinlich

mili2110
2017-06-30, 07:14:57
In Fallout 4 auf Augenhöhe mit 1080 Ti, Rest der Games knapp über 1070 (ohne TBR)

uweskw
2017-06-30, 07:18:41
.......Wer auch immer die Idee hatte dieses Produkt zum jetzigen Zeitpunkt zu veröffentlichen, gehört gefeuert.


Was habt ihr alle? Das ist audrücklich keine Gamer Karte.

Kann schon sein, dass AMD total verkackt hat. Kann aber genau so sein, dass wesentliche Spieleoptimierungen fehlen.
Wieso muss jeder auf Biegen und Brechen "sein" Urteil verkünden obwohl unterm Strich garnichts geklärt ist?

Was mich viel mehr interessieren würde, ist warum auch die FE offensichtlich nur in homöopathischen Dosen verfügbar ist. Das liegt definitiv nicht am Treiber.
Da gibt es entweder massive technische Probleme in der Fertigung oder AMD will FE nicht in Stückzahlen verkaufen.

greetz
US

24p
2017-06-30, 07:27:51
Dass da nach ewiger Wartezeit ohne echte Infos die Karte trotzdem mit Spielen getestet wird war natürlich total überraschend.

uweskw
2017-06-30, 07:32:17
Dass da nach ewiger Wartezeit ohne echte Infos die Karte trotzdem mit Spielen getestet wird war natürlich total überraschend.

aber wir wissen doch alle um die Aussagekraft dieser Tests.

greetz
US

decimad
2017-06-30, 07:38:07
Die Erfahrung zeigt, dass wenn AMD etwas bringt, das im ersten Test langsam ist und viel Strom braucht, es halt auch auf den zweiten Blick so ist. Einigen inklusive mir wird es auch allmählich zu dämlich, ständig zu hoffen und wieder enttäuscht zu werden, hehe. Vielleicht sollten sie einfach mal eine Produktgeneration aussetzen und sich Gedanken darüber machen, wie sie die Rohpower irgendwie effizient auf die Straße bekommen und ob HBM im Consumer-Segment wirklich nötig ist... Ich kann von Glück reden, dass ich nicht direkt angewiesen bin auf eine schnelle Grafikkarte, denn nur weil es AMD ein um's andere Mal "versemmelt", muss ich nicht gleich NV kaufen...

Korvaun
2017-06-30, 07:38:12
Der erste Eindruck zählt.... und der ist nicht sonderlich gut. Weis der Geier warum AMD keinen aktuellen Beta-Treiber vertöffentlicht, von mir aus mit dickem rotem Warnhinweis "BETA/KANN ABSTÜRZEN!!!" damits auch jeder schnallt. Entweder sind die Treiber noch so buggy das überhaupt nichts richtig geht, oder AMD will absolut keine echten Performancewerte zeigen bevor der Release ist, vermutlich um NV möglichst wenig Zeit zum reagieren zu geben?
Oder die Karte ist tatsächlich Mist und es gibt vielleicht noch 5-10% oben drauf und das wars dann und man will das möglichst lange verschleiern....

24p
2017-06-30, 07:40:02
Das ändert nichts daran, dass das Bild verheerend ist. Und wie hoch die Aussagekraft genau ist weiß noch keiner, gut möglich dass die Ergebnisse nicht mehr viel besser werden. Zusammen mit de Weigerung von AMD etwas handfestes zur Einschätzung der Performance zu liefern ergeben sich da schon gewisse Indizien. Ich bleibe dabei: Wenn die Karte wirklich gut wäre, dann hätte AMD dafür gesorgt, dass das jeder mitbekommt anstatt die wahre Leistungsfähigkeit zu verheimlichen.

uweskw
2017-06-30, 07:51:10
.........Entweder sind die Treiber noch so buggy das überhaupt nichts richtig geht, oder AMD will absolut keine echten Performancewerte zeigen bevor der Release ist, vermutlich um NV möglichst wenig Zeit zum reagieren zu geben?
.......



Und was bitte hat das mit den geringen verfügbaren Stückzahlen der FE zu tun?
Wie gesagt: Ich denke da gibt es entweder massive technische Probleme in der Fertigung oder AMD will einfach keine Stückzahlen von FE an den Mann brigen.

greetz
US

uweskw
2017-06-30, 08:14:23
Hat jemand mal durchgerechnet wie ein reiner Fury-Shrink bei gleicher Chipfläche wie Vega aussehen würde?
Wieviel Einheiten? Wo würde man ungefähr beim Takt landen? daraus folgt wievielfache Fury Performance?
Sehr interssant wäre auch ein hochskalierter Polaris.

greetz
US

r3ptil3
2017-06-30, 08:23:46
Nebenbei mal, wer war zu Zeiten von Tahiti Chefentwickler bei AMD in der GPU-Sparte?

Fragman
2017-06-30, 08:33:28
Zusammen mit de Weigerung von AMD etwas handfestes zur Einschätzung der Performance zu liefern ergeben sich da schon gewisse Indizien.


am ende wissen sie selber nicht wo das problem liegt und hoffen durch bessere treiber irgendwie die theoretische leistung, die auf irgendeinem papier steht, auf die strasse zu bekommen. haetten sie es bis jetzt hinbekommen, wir wuerden benches sehen.

und natuerlich muss amd aktuell sagen, das die fe nicht die leistung wiederspiegelt. was sollen sie denn sonst machen bei aktuell knapper 1080 leistung und eventuell 600$ fuer die gaming karte?
sie koenne sich ja nicht hinstellen und sagen "ja, vega gaming wird auf 1080 niveau sein". damit treibt man viele, die aktuell gewartet haben, zu nvidia.

btw, 1080 leistung waere bei entsprechendem preis ok, sagen wir 400-450 euro (strassenpreis leicht drunter).

Locuza
2017-06-30, 08:38:01
Nebenbei mal, wer war zu Zeiten von Tahiti Chefentwickler bei AMD in der GPU-Sparte?
Keine Ahnung wie viele Rollen bei der Entwicklung vorhanden sind, aber der damalige CTO und technische Direktor Eric Demers, ist von AMD zu Qualcomm gewechselt.
http://www.anandtech.com/show/5538/amds-eric-demers-is-leaving-the-company

MR2
2017-06-30, 08:40:05
Nebenbei mal, wer war zu Zeiten von Tahiti Chefentwickler bei AMD in der GPU-Sparte?

Rick Bergmann glaube ich. Bis 2009 war koduri ja auch bei Amd und an der Entwicklung des r300 beteiligt. Am Ende hängt es wie so oft an der Kohle. Jetzt mit den guten cpu Verkäufen wird wohl wieder mehr Geld in die GPU Abteilung fließen.

Digidi
2017-06-30, 08:43:30
HAHAHA Ich hab Beyond3d getriggert:
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-and-vega-20-rumors-and-discussion.59649/page-123

Cyphermaster
2017-06-30, 08:45:43
Was habt ihr alle? Das ist audrücklich keine Gamer Karte.+1. Es ist ja sogar so, daß die FEs noch nicht mal in Hardware 100% der Referenz-RX entsprechen müssen. Weder von Spannung/Takt/P-States, noch PT oder Kühler. Nur Chip und RAM sind schon fix.
Wieso muss jeder auf Biegen und Brechen "sein" Urteil verkünden obwohl unterm Strich garnichts geklärt ist?
Wenn die Leute, die hier immer so klar und vehement Personalentscheidungen im AMD-Management fordern, wirklich so kompetent wären, um das einzuschätzen, wären sie imho sehr wahrscheinlich in einer Position, wo sie diese Kündigung nicht nur fordern, sondern unterschreiben könnten... :wink:
Der erste Eindruck zählt.... und der ist nicht sonderlich gut.
Das ändert nichts daran, dass das Bild verheerend ist.
Nur, wenn man sich schon auf Schlagzeilen auf Bildzeitungsniveau zufrieden gibt. Die FE ist nun mal keine RX, und der Treiber wird auch ein Anderer sein. Wäre der Druck durch die Verzögerung nicht so groß, würde sich keine Sau für die FE@Gaming interessieren...

Digidi
2017-06-30, 08:49:25
So sieht das auf meiner Fury X aus. Genau So wie bei Ihm im Video bei 3:50:17 und verhält sich genau so.


https://picload.org/image/rpdcorpa/rasterizer.png

decimad
2017-06-30, 09:02:34
Wo nimmst Du denn nach all den Jahren noch deine positive Einstellung her? Es fällt mir schwer, technische Gründe zu ersinnen, aus denen die Performance dieser Frontier Edition maßgeblich von einer speziellen Gamer-Variante abweichen könnte. Ja es ist möglich, aber was wir gerade sehen spricht eben für die Alternative. Das ist das gleiche Silizium, schalten kostet immer gleichviel Strom, und wenn man sogar so schon in's thermische bzw. Power-Limit rennt... Also wenn ich mit Wahrscheinlichkeiten rangehe, dann folgt für mich, dass die Gamer-Variante ein sehr ähnliches Bild abliefern wird. Oder würdest Du nach den Ergebnissen jetzt mit gutem Gefühl von 1080 Ti + 10% ausgehen?
Einen Monat vor dem Launch noch keinen Feature-kompletten Treiber zu haben bei dem man bis zum Launch nur noch Polishing-Arbeit betreibt, hielte ich auch für ein extrem schlechtes Zeichen - wenn es überhaupt der Fall wäre...

Loeschzwerg
2017-06-30, 09:03:00
+1.
....
Wäre der Druck durch die Verzögerung nicht so groß, würde sich keine Sau für die FE@Gaming interessieren...

Ist das Teil nun TXP Konkurrent oder nicht? Falls ja, MUSS das Teil leider auch für Gaming herhalten.

Von ausdrücklich keine Gaming Karte habe ich nichts gelesen ;) Aber das sind Spitzfindigkeiten.

Pirx
2017-06-30, 09:05:50
Und hast wieder 3 Kilo zugenommen. Lass lieber...
Lachen (beste Medizin) bewegt so viele Muskeln, daß sich das sogar ausgleichen könnte;)


Wo nimmst Du denn nach all den Jahren noch deine positive Einstellung her? Es fällt mir schwer, technische Gründe zu ersinnen, aus denen die Performance dieser Frontier Edition maßgeblich von einer speziellen Gamer-Variante abweichen könnte. ...
Hier geht es hauptsächlich um Spekulation und erst in untergeordneter Linie um Emotion. Und diese Speku und der Beitrag von Digidi ist sehr interessant.

24p
2017-06-30, 09:06:54
Nur, wenn man sich schon auf Schlagzeilen auf Bildzeitungsniveau zufrieden gibt. Die FE ist nun mal keine RX, und der Treiber wird auch ein Anderer sein. Wäre der Druck durch die Verzögerung nicht so groß, würde sich keine Sau für die FE@Gaming interessieren...


Ja, wenn die Argumente ausgehen kommt eben der Bildzeitungsvorwurf. Langweilig.#

Ich bleibe dabei, sie hatten Monate Zeit wenigstens etwas hinzubekommen. Dass man da nichts gehört hat sagt schon einiges.

Dural
2017-06-30, 09:08:13
Mir ist noch was in den Sinn gekommen, die Karte hat 16GB und so wie ich gelesen habe auch ECC?!

Die 16GB könnten etwas langsamer als die 8GB sein, zudem dürften die zusätzlichen 8GB etwas TDP fressen. Und ECC ist sicherlich auch nicht Gratis. Somit dürfte AMD recht behalten und die RX Vega ist ca. 5% schneller ;)

Isen
2017-06-30, 09:15:42
Tjo. Man wird nun sehen, wie AMD die nächsten Wochen auf diesen Druck reagieren wird, wenn nicht, wird der Druck nicht geringer, da jeder der eine FE in die Hände bekommt und testet, diesen immer wieder erneut anfachen wird; da die Community ein Signal vermittelt, was hohes Interesse an diesen suggeriert.

Sofern AMDs handeln mit der FE dem Umstand darin geschuldet ist den Investoren zu unterliegen und nicht irgendeine kuriose PR-Geschichte darin zugrunde liegt, so hat sich AMD diesen Stunt durchaus versaut und der Nutzen dahinter zerplatzt wie eine Seifenblase.

Ob die Game Optimierungen durch den Treiber erst das tile based rendering zum korrekten funktionieren bewegt, dies AMD aber nicht offen kommuniziert - ob nun wegen " Typisch AMD " oder aus anderen Gründen - müssen sie es nun aber tun, wenn da tatsächlich noch große Leistungen brach liegen die zu RX Vega kommen werden.

Das dies jedenfalls so ist, betonte AMD ja in dem einem Video ziemlich oft, dass die FE nicht die Leistung in den Games zeigt, wie es RX Vega tun wird, nur eben nicht in welchem Ausmaß.

Was also von dem ganzen "Stunt" übrig bleibt ist, wie hoch das Ausmaß tatsächlich ist und 3 Fragen Vermutungen bleiben dann nur noch übrig:

1. Das Ausmaß ist derart gering, dass AMD ein auf Schweigeminute macht
2. Das Ausmaß ist derart hoch, dass AMD damit irgendeinen Zweck erfüllt, der ihnen aber nun um die Ohren fliegt.
3. Das Ausmaß hoch werden kann aber nicht muss, da sie die Zeit noch benötigen und es selbst nicht einmal wissen, wo sie in einem Monat stehen werden.

Ich jedenfalls beteilige mich in den nun kommenden "Gefechten" nicht - das ist mir zu dumm - schlimm genug das auch jene die sonst ein auf vernünftig tun darin beteiligt sind, und je nachdem wer am Ende Recht behält nur wieder die üblichen Keulen schwingen, da sie sich im Recht sehen.

matty2580
2017-06-30, 09:18:01
@Dural:
Ich hoffe doch sehr, dass die RX Vega deutlich schneller als die RV-FE ist.
5% mehr reichen gerade so aus um auf 1080 Niveau zu kommen.
Es müssten also mindesten 20% mehr sein, besser noch 30% um in Schlagweite der 1080ti zu kommen.
Sonst kann AMD die RX Vega nur gut über den Preis verkaufen.

Digidi
2017-06-30, 09:23:38
Der Rasterizer verhält sich wie bei der Fury X da stimmt was ganz gewaltig nicht. ;D

Hübie
2017-06-30, 09:26:46
Dann kann es so sein wie Gipsel sagt: Der ist noch nicht "angeknipst" bzw. so konfiguriert wie es geplant ist. Warum weiß man nicht, aber das wird man dann bei RX Vega hoffentlich nachholen. Da sind sicher mehr als 10% drin.
Danke dass du Ryan damit genervt hast. :D :up:

MR2
2017-06-30, 09:30:08
Der Rasterizer verhält sich wie bei der Fury X da stimmt was ganz gewaltig nicht. ;D

Arggh, da wurde wohl am Fließband von einem Mitarbeiter versehentlich ins Fiji Regal gegriffen.

"3. Das Ausmaß hoch werden kann aber nicht muss, da sie die Zeit noch benötigen und es selbst nicht einmal wissen, wo sie in einem Monat stehen werden. "

So wird es wohl sein.

Gipsel
2017-06-30, 09:31:05
Kannst du nicht, die meisten Boards fuehren nur 64 statt 72 Leitungen zum RAM.Passen tut das schon. ECC funktioniert dann gegebenenfalls nicht, aber der Speicher an sich schon. Und wie ich schrieb, benutzt ECC bei HBM bereits vorhandene Leitungen (die für die Write-Masks zum byteweisen Schreiben, ist also 1 Bit pro Byte). Man benötigt also keinen neuen Interposer, sondern nur andere Stacks (die laut Spec pinkomatibel sind). Und natürlich einen Speichercontroller, der die ECC-Daten berechnen und auswerten kann.
hat er Chip selber ueberhaupt die noetigen Interfaces und Pins fuer mehr Leitungen?Siehe oben, man benötigt nicht mehr Leitungen. Die Stacks müssen die zusätzliche Kapazität (+12,5%) aufweisen, um noch die ECC-Bits speichern zu können (berechnet werden sie vom Speichercontroller, nicht im Stack). Und Vega 10 unterstützt offiziell ECC-HBM (die MI25 bekommt es laut Produktseite). Ist nicht anders als bei GP100, die nutzen auch ECC-HBM. Vielleicht produzieren die Speicherhersteller aus Effizienzgründen sogar nur ECC-HBM2, man muß es ja nicht nutzen.

HOT
2017-06-30, 09:35:32
Der Rasterizer verhält sich wie bei der Fury X da stimmt was ganz gewaltig nicht. ;D

Jo, damit wäre das bestätigt. TBR ist nicht aktiv, wie vermutet. Das Teil läuft also aktuell im Polaris-Mode und hängt bei Spielen in der Bandbreite. Da können also lässig 25 - 50% Mehrleistung fehlen. Das passt auch zu den Benchmarks, V10 ohne TBR ist etwas langsamer, als eine RX570 + 100%. Warten wir doch einfach noch den Monat ab, dann wird man hoffentlich den TBR-Treiber fertig haben. Dann werden die Karten wirklich neu gemischt. Dann haben sich die ganzen Hater ganz umsonst den Mund fusselig geredet :D.

Und noch was: Dann ist das auch im Profibereich nicht aktiv. Da geht also auch noch was.

Hübie
2017-06-30, 09:45:23
Zur Veranschaulichung wie es bei gebinnten triangles aussehen sollte:

https://abload.de/img/trianglebint8s54.gif (http://abload.de/image.php?img=trianglebint8s54.gif)

Leonidas
2017-06-30, 09:47:09
https://m.youtube.com/watch?time_continue=3591&v=bhGAS_oGN3c

Yes kein tiled Base Rasterizer aktive. Minute 230


3:50? Nix davon zu sehen. Wo genau bitte? Pix - or it didnt happend!

Oder schließt ihr das aus diesen Bilder wie vorstehend? Wie kann ich das gut erklären? Was ist da zu sehen, was sollte zu sehen sein?

r3ptil3
2017-06-30, 09:47:17
Interessant...
Bin mal hochgespannt was da beim Launch rauskommt.

Isen
2017-06-30, 09:48:09
@Gipsel,

ist das möglich, dass Game Optimierungen im Treiber einen signifikanten Anteil daran haben, wie der tbr zu funktionieren hat oder anders gesagt, erst dann funktioniert und nicht bloß ein Lichtschalter ist, weil die Hand=Game Optimierungen erst dann den Schalter betätigt?

@Leonidas,

230 minuten / 60 = 3,5h irgendwas :-) hab deine 3,50 als 3min 50sek interpretiert, sorry - dort wird es von PCper nicht DIREKT gesagt, sondern es funktioniert bzw. es ist was da, nachher, er weiß es nicht. Dann: Es Resultliert dann darin, dass das, was man sieht nicht dem eines funktionierenden entspricht. Entsprechende Ergänzungen hier:

Ergänzend dazu, schaue hier bis Seite 124:

https://forum.beyond3d.com/threads/amd-vega-10-vega-11-and-vega-20-rumors-and-discussion.59649/page-122

Darin sind dann auch die Beispiele, wie es "funktionieren soll" : https://www.youtube.com/watch?v=Nc6R1hwXhL8 - Edit auch hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11417199&postcount=7321 und natürlich von, Hübie, über dir: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11417246&postcount=7334

Digidi
2017-06-30, 10:14:50
@Leonidas ich meinte 3 Stunde 50 Minuten und 17 Sekunden im Video da ist genau oben das Bild zu sehen das ich auch mit FIJI bekomme :D
@Isen Danke

Cyphermaster
2017-06-30, 10:18:19
Ja, wenn die Argumente ausgehen kommt eben der Bildzeitungsvorwurf. Langweilig.#Nichts desto trotz ist er zutreffend, weil sogar Knochenorakel mit nur kleinen Bruchstücken nicht machbar sind.
Ich bleibe dabei, sie hatten Monate Zeit wenigstens etwas hinzubekommen. Dass man da nichts gehört hat sagt schon einiges.Ja - und zwar immer das, was man draus lesen will. Nicht vorhandene Informationen haben den unbestreitbaren Vorteil, daß sie der eigenen Wunsch-Theorie nicht widersprechen können. Es ist nur so, daß das für so ziemlich jegliche Theorie dazu gilt, im Positiven wie Negativen, Belastbarkeit der Aussagen also entsprechend.

basix
2017-06-30, 10:24:45
Bei Maxwell sprach man von +35% IPC gegenüber Kepler und bei Perf/Watt waren es schlussendlich >50% (?). Wenn Vega in etwa den selben Sprung macht wäre man bei beiden Metriken von Perf & Perf/Watt in etwa auf 1080 Ti Level. Ziemlich gut, wenn auch "nur" gleichauf.

Oder kann man aus irgendeinem Grund explizit mehr oder auch weniger erwarten? AMD geht weiter als Nvidia z.B. mit dem HBC Ansatz. Sonst noch was Grundlegendes?

Screemer
2017-06-30, 10:26:18
Warum ist das teil eigenich grad in fa4 schneller als ne 1080ti. Das Spiel hat AMD Karten bisher ganz und gar nicht gemocht und hängt auch massiv am Speicher. Liegt es vielleicht daran?

decimad
2017-06-30, 10:28:23
Ich möchte bezüglich meiner Kommentare nur nochmal zum Besten geben, dass es nicht meine Wunschvorstellung ist, dass Vega nicht einschlägt. Hatte mich eigentlich darauf gefreut, im Herbst einen schönen AMD Spiele-PC zusammenzubauen, würde aber als Ersatz keine NV-Maschine kaufen, dann gibt es einfach gar nichts neues. Dieser "Launch" erzeugt aber keine große Zuversichlichkeit in mir... Umso besser, wenn mich die Sache dann positiv überrascht.
Da ich kein Lagerwechsler bin, wär es für mich eigentlich schöner, wenn AMD einfach ansagen würde, was Sache ist... Aber wenn die meinen, dass wegen der Konkurrenzsituation das derzeitige Vorgehen geschickt ist...
Wenn das inaktive TBR kein Zeugnis eines Hardware-Fehlers oder unrealistischer Simulation und damit Praxisuntauglichkeit darstellt, dann bleibt ja noch zu hoffen dass im Moment die Rohleistung unnütz verbraten wird.

Leonidas
2017-06-30, 10:44:28
Vollständige Vergleichswerte unter TimeSpy & Ethereum siehe hier:
https://www.3dcenter.org/news/weitere-benchmarks-zur-radeon-vega-frontier-edition-unter-witcher-3-3dmark13-timespy-ethereum-m

Kleine Bitte: Pack da bitte Werte von RX570 noch mit rein. Dann kann man gut sehen, wie der jetzige Vega-Treiber zu Polaris steht. Wie gesagt, wäre die 570 fast ne halbe Vega von den Specs her..


Es stehen kaum Werte von unübertakten Varianten zur Verfügung, kann man aus den angegebenen Quellen schon ersehen. Daher leider nicht möglich.



Isen & Digidi: Danke für die Erklärung.

Nebenbei: Ist der "Draw Stream Binning Rasterizer" nun der Tile-based Renderer - oder nur ein Teil davon?

DrumDub
2017-06-30, 10:45:42
3:50? Nix davon zu sehen. Wo genau bitte? Pix - or it didnt happend!

Oder schließt ihr das aus diesen Bilder wie vorstehend? Wie kann ich das gut erklären? Was ist da zu sehen, was sollte zu sehen sein? bittesehr ...

https://abload.de/img/vegfurmf.jpg

basix
2017-06-30, 11:01:41
Nebenbei: Ist der "Draw Stream Binning Rasterizer" nun der Tile-based Renderer - oder nur ein Teil davon?

Es ist ein Tile-based Renderer, aber kein vollwertiger. So weit ich verstanden habe ist es immer noch ein Immediate Mode Renderer mit gewissen Teilen mit Tiled-based Ansatz.

Gipsel und Co. können das sicher genauer erklären ;)

Gipsel
2017-06-30, 11:01:44
Nebenbei: Ist der "Draw Stream Binning Rasterizer" nun der Tile-based Renderer - oder nur ein Teil davon?Ja, das ist er. Die Tiles sind die Bins für das Binning.
Edit:
Aber wie basix schon schrieb ist es kein TBDR sondern vom Grundprinzip immer noch ein IMR, der nur "opportunistisch" ein wenig Dreiecke sammelt, um Bandbreite zu sparen (und per HSR vor dem Raster auch ein wenig Rechenleistung, Vega soll das ja können).

BlacKi
2017-06-30, 11:11:30
Zur Veranschaulichung wie es bei gebinnten triangles aussehen sollte:

https://abload.de/img/trianglebint8s54.gif (http://abload.de/image.php?img=trianglebint8s54.gif)
den unterschied sieht man ja, aber warum sieht es anders aus? und jetzt erklärt bitte nicht: weil TBR nicht aktiv ist^^

ich konnte mir nicht vorstellen das vega auf 1070 OC lvl sein sollte. ich hoffe das reißt es rum. ich verstehe aber trotzdem nicht, warum amd da einfach zuschaut und nichts macht...

Digidi
2017-06-30, 11:12:45
Ja, das ist er. Die Tiles sind die Bins für das Binning.
Edit:
Aber wie basix schon schrieb ist es kein TBDR sondern vom Grundprinzip immer noch ein IMR, der nur "opportunistisch" ein wenig Dreiecke sammelt, um Bandbreite zu sparen (und per HSR vor dem Raster auch ein wenig Rechenleistung, Vega soll das ja können).

Hat Nvidia TBDR oder auch so einen verschnitt wie AMD? Was ist HSR?

Loeschzwerg
2017-06-30, 11:14:05
TBDR hat nur ImgTec/PowerVR (Broadcom?), bei NV ist es meines Wissens nach auch nur ein "Verschnitt".

Edit: HSR => Hidden Surface Removal. Also alles was in der Szene nicht sichtbar ist an Dreiecken wird verworfen.

Pirx
2017-06-30, 11:20:30
Fragt sich bloss, warum AMD nicht deutlich kommuniziert, daß Vega RX deutlich schneller ist, von mi aus durch die Blume/Leak. So stehen sie doch mit Ansage dumm da.

tm0975
2017-06-30, 11:23:25
Fragt sich bloss, warum AMD nicht deutlich kommuniziert, daß Vega RX deutlich schneller ist, von mi aus durch die Blume/Leak. So stehen sie doch mit Ansage dumm da.

vielleicht will lisa ihre aktien, die sie für umgerechnet 12 € verkauft hat, nun für unter 10 € wieder kaufen. :rolleyes:

ich bin bereit für weitere unnötige schlechte nachrichten, wenn dann in 4 wochen wieder die post abgeht.!

r-or
2017-06-30, 11:33:16
Wahrscheinlich funktioniert halt nichts... Vielleicht sogar ein Hardware Bug.

scully1234
2017-06-30, 11:36:37
Nur, wenn man sich schon auf Schlagzeilen auf Bildzeitungsniveau zufrieden gibt. Die FE ist nun mal keine RX, und der Treiber wird auch ein Anderer sein. Wäre der Druck durch die Verzögerung nicht so groß, würde sich keine Sau für die FE@Gaming interessieren...

Entschuldigung das haben sie sich doch selbst eingebrockt, im Januar einen undefinierten Doom Bench ,und dann hat man es auch noch für nötig gehalten ,gegen des Mitbewerbers nächste Architektur zu stänkern, als ob man diese outperformt als gäbe es keinen Morgen mehr.

Seit dem sind nun mindestens 9-11 Monate Treiberentwicklung ins Land gegangen, in der man bezüglich Gamer Vega stumm war wie ein Fisch.

Wenn nun ne FE kommt die das Vega Branding trägt, dann nutzt die Kundschaft eben die Hardware ,um selbst für mehr Klarheit zu sorgen

Das AMD immer noch schweigt, und nicht einmal kleine cherry Picking Häppchen verteilt, spricht allein Bände für sich

Gipsel
2017-06-30, 11:36:40
den unterschied sieht man ja, aber warum sieht es anders aus? und jetzt erklärt bitte nicht: weil TBR nicht aktiv ist^^Der Test zeichnet eine Menge großer Dreiecke (bedecken jeweils den halben Bildschirm, die Grenze verläuft entlang der Bildschirmdiagonale). Aufeinanderfolgende Dreiecke haben dabei eine andere Farbe. Gleichzeitig wird die Ausgabe des Farbwerts im Pixelshader unterdrückt, wenn eine einstellbare Anzahl an Pixeln bereits rausgeschrieben wurde. Dies hat den Effekt, das man im Prinzip sehen kann, in welcher Reihenfolge und mit welchem Muster die Dreiecke gerastert werden. Bisherige GCN-Karten geben schön ein Dreieck nach dem anderen aus (minimaler Overlapp wegen der parallelen Rasterengines möglich). Man sieht das Rasterizer-Muster wenn man die Anzahl der ausgegebenen Pixel erhöht, aber die Dreiecke kommen schon nacheinander.
Bei einem Binning/Tiling-Rasterizer werden ja die Dreiecke vor dem Rastern gesamelt und dann pro Bin alle auf einmal berechnet. Bei Maxwell/Pascal sieht man also die Ausgabe gleich mehrerer Dreiecke pro Bin (es geht z.B. von Schwarz direkt auf die Farbe des 5. Dreiecks), bevor die nächsten Kachel drankommt (bzw. arbeitet die GPU teilweise an mehreren Kacheln parallel, aber das ist ein Detail). Dies ist ein fundamanetal anderes Verhalten, was man dort in dem Test beobachten kann.

====================================

Was ist HSR?Hidden surface removal. Verdeckte Flächen werden erst gar nicht an die Pixelshader geschickt sondern schon vorher (pixelgenau) aussortiert. Es gibt viele Tricks, mit denen man versucht, nicht unnötig viele Pixel zu berechnen. Die Engines selber sortieren schon komplette Objekte aus, die nicht sichtbar sind, in den Shadern, die die Geometrie verabeiten (vor der Rasterization) kann man ebenfalls Culling durchführen (mehr oder weniger aufwändig). Und GPUs selber versichen halt mit early-Z möglichst früh Pixel zu verwerfen und nicht erst ganz am Ende beim Z-Test in den ROPs. Aber Verschnitt gibt es trotzdem praktisch immer.
Durch Sammeln der Geometrie vor dem Rastern kann man im Prinzip pixelgenaues HSR durchführen und so Rechenleistung (und Bandbreite) sparen.

Sven77
2017-06-30, 11:37:05
Fragt sich bloss, warum AMD nicht deutlich kommuniziert, daß Vega RX deutlich schneller ist, von mi aus durch die Blume/Leak.

Einzige Erklärung: weils nicht so ist

Hübie
2017-06-30, 11:38:16
Tja, so richtig erklären kann es wohl nur einer bei AMD und da muss die Presse ran. ;)
Die Gründe, warum man das deaktiviert können vielfältig sein. Ich hoffe nicht dass die Hardware einen Bug hat.

Dural
2017-06-30, 11:38:40
Die Hoffnung stirbt bei manchen halt zuletzt (und wahrscheinlich gar nie...)

Loeschzwerg
2017-06-30, 11:40:05
Ich hoffe nicht dass die Hardware einen Bug hat.

;D Irgendwer hatte hier doch mal den Savage 2000 erwähnt

Digidi
2017-06-30, 11:40:33
Der Test zeichnet eine Menge großer Dreiecke (bedecken jeweils den halben Bildschirm, die Grenze verläuft entlang der Bildschirmdiagonale). Aufeinanderfolgende Dreiecke haben dabei eine andere Farbe. Gleichzeitig wird die Ausgabe des Farbwerts im Pixelshader unterdrückt, wenn eine einstellbare Anzahl an Pixeln bereits rausgeschrieben wurde. Dies hat den Effekt, das man im Prinzip sehen kann, in welcher Reihenfolge und mit welchem Muster die Dreiecke gerastert werden. Bisherige GCN-Karten geben schön ein Dreieck nach dem anderen aus (minimaler Overlapp wegen der parallelen Rasterengines möglich). Man sieht das Rasterizer-Muster wenn man die Anzahl der ausgegebenen Pixel erhöht, aber die Dreiecke kommen schon nacheinander.
Bei einem Binning/Tiling-Rasterizer werden ja die Dreiecke vor dem Rastern gesamelt und dann pro Bin alle auf einmal berechnet. Bei Maxwell/Pascal sieht man also die Ausgabe gleich mehrerer Dreiecke pro Bin (es geht z.B. von Schwarz direkt auf die Farbe des 5. Dreiecks), bevor die nächsten Kachel drankommt (bzw. arbeitet die GPU teilweise an mehreren Kacheln parallel, aber das ist ein Detail). Dies ist ein fundamanetal anderes Verhalten, was man dort in dem Test beobachten kann.

====================================

Hidden surface removal. Verdeckte Flächen werden erst gar nicht an die Pixelshader geschickt sondern schon vorher (pixelgenau) aussortiert. Es gibt viele Tricks, mit denen man versucht, nicht unnötig viele Pixel zu berechnen. Die Engines selber sortieren schon komplette Objekte aus, die nicht sichtbar sind, in den Shadern, die die Geometrie verabeiten (vor der Rasterization) kann man ebenfalls Culling durchführen (mehr oder weniger aufwändig). Und GPUs selber versichen halt mit early-Z möglichst früh Pixel zu verwerfen und nicht erst ganz am Ende beim Z-Test in den ROPs. Aber Verschnitt gibt es trotzdem praktisch immer.
Durch Sammeln der Geometrie vor dem Rastern kann man im Prinzip pixelgenaues HSR durchführen und so Rechenleistung (und Bandbreite) sparen.

Danke Gipsel für die Erklärung. Bei Fiji und auch im Test von PCPer bauen sich die Farben der Dreiecke eben erst nacheinander auf. Deshalb die Vermutung das Tiled-Base-Rasterizer nicht an ist. Oder kann der an sein und es sieht genau so aus?

Dural
2017-06-30, 11:41:07
;D Irgendwer hatte hier doch mal den Savage 2000 erwähnt

Zeitlich würde es aber perfekt passen, 10 Jahre danach :freak: :wink:

Hübie
2017-06-30, 11:46:49
Danke Gipsel für die Erklärung. Bei Fiji und auch im Test von PCPer bauen sich die Farben der Dreiecke eben erst nacheinander auf. Deshalb die Vermutung das Tiled-Base-Rasterizer nicht an ist. Oder kann der an sein und es sieht genau so aus?

Der Shadercode dürfte ja universell sein, also wird auch hier ein Farbwert unterdrückt. Ist aber nicht der Fall, also wird da wohl auch nicht parallel dran gearbeitet. Just guessing.

Fragman
2017-06-30, 11:47:09
Zeitlich würde es aber perfekt passen, 10 Jahre danach :freak: :wink:

its not a bug, its a tribute!

Gipsel
2017-06-30, 11:49:19
Bei Fiji und auch im Test von PCPer bauen sich die Farben der Dreiecke eben erst nacheinander auf. Deshalb die Vermutung das Tiled-Base-Rasterizer nicht an ist. Oder kann der an sein und es sieht genau so aus?Ich wüßte jetzt spontan keinen einleuchtenden Weg, wie das gehen würde. Aber da müßte vielleicht mal ein Entwickler mit einer FE ein wenig mit gezielten Tests rumspielen, um das zu bestätigen (oder die Bedingungen auszuloten, unter denen man was sieht). Vielleicht kann man sebbbi bei B3D mal nerven, wennn der wieder auftaucht. Wobei, das machen bestimmt dann sowieso Alle. :wink:

scully1234
2017-06-30, 11:51:53
Zeitlich würde es aber perfekt passen, 10 Jahre danach :freak: :wink:

Ist das auch schon wieder so lange her:confused:

Wie die Zeit verfliegt Junge Junge=)

Hübie
2017-06-30, 11:54:30
Ich wüßte jetzt spontan keinen einleuchtenden Weg, wie das gehen würde. Aber da müßte vielleicht mal ein Entwickler mit einer FE ein wenig mit gezielten Tests rumspielen, um das zu bestätigen (oder die Bedingungen auszuloten, unter denen man was sieht). Vielleicht kann man sebbbi bei B3D mal nerven, wennn der wieder auftaucht. Wobei, das machen bestimmt dann sowieso Alle. :wink:

Rys ist iirc auch ein Dev. :smile:

Der_Korken
2017-06-30, 11:56:35
Wenn das Binning nicht aktiv ist, würde es zumindest die schlechten Spielebenches erklären. Es wurde hier ja bereits zur Genüge erklärt, dass das Binning sehr viel Speicherbandbreite einspart. Wenn das nun wegfällt, verhält sich Vega eher wie ein Fiji, bei dem nur der GPU-Takt angehoben, die Speicherbandbreite aber leicht gesenkt wurde. Da Fiji teilweise schon von höherem Speichertakt profitiert hat, dürften die 480GB/s von Vega massiv bremsen. Auch kosten Speicherzugriffe mehr Energie als Cache-Zugriffe, d.h. der erreichte Boost könnte sich auch noch leicht erhöhen, wenn das Binning so funktioniert wie es sollte. Die Frage ist nur, warum es noch nicht funktioniert. Entweder der Rasterizer wurde massiv überschätzt und ist weit vom Maxwell-Rasterizer entfernt oder es wurde relativ spät noch ein schlimmer Bug gefunden (Hard- oder Software), der AMD dazu gezwungen hat es zu deaktivieren.

BlacKi
2017-06-30, 11:58:16
@Gipsel: Vielen dank!

Digidi
2017-06-30, 12:00:43
@Der_Korken
Es gibt auch eine 3 Möglichkeit. Amd wollte mal wieder die Eierlegende Wollmilchsau und hat beide Raster Rizer Typen integriert. Aus Kompatiblitätsgründen fällt man nun auf den Intermediate Rasterizer zurück.

Bei den Spielen muss dann einzeln geprüft werden ob man den TBR verwendet oder nicht, was dann wohl ein Heiden Aufwand ist für die Programmierer.
Das würde vielleicht auch erklären warum Fallout 4 auf einmal vor einer Titan XP liegt während der Rest verliert, weil dort vielleicht TBR aktiv ist.

Birdman
2017-06-30, 12:01:09
Die Gründe, warum man das deaktiviert können vielfältig sein. Ich hoffe nicht dass die Hardware einen Bug hat.
Möglich wäre das aber schon - daher die ganzen Verzögerungen und das grosse Warten auf den Respin mit dem dann die Gaming (und echten Profi) Karten ins Rennen geschickt werden.
Allenfalls sah sich AMD aber halt gezwungen irgendwas rauszubringen und somit haut man nun homöopatische Mengen von Vegas in einem Markt raus, der eigentlich kaum Relevanz hat und es nicht so "schlimm" ist, wenn die Performance semioptimal ist und womögliche fehlende/defekte Features keine Rolle spielen.

Der_Korken
2017-06-30, 12:05:46
@Der_Korken
Es gibt auch eine 3 Möglichkeit. Amd wollte mal wieder die Eierlegende Wollmilchsau und hat beide Raster Rizer Typen integriert. Aus Kompatiblitätsgründen fällt man nun auf den Intermediate Rasterizer zurück.

Bei den Spielen muss dann einzeln geprüft werden ob man den TBR verwendet oder nicht, was dann wohl ein Heiden Aufwand ist für die Programmierer.
Das würde vielleicht auch erklären warum Fallout 4 auf einmal vor einer Titan XP liegt während der Rest verliert, weil dort vielleicht TBR aktiv ist.

Das wäre natürlich blöd von AMD wenn der Rasterizer pro Spiel angepasst werden muss. Im Grunde sollte das doch gar nicht von der Anwendung abhängig sein, da es eine Methode zur Verarbeitung von Dreiecksdaten ist, egal wie diese zustande gekommen sind. Wenn ein Kompatiblitätsmodus ohne Binning genutzt wird, dann imho eher weil es noch kritische Bugs gibt und AMD lieber eine langsame als eine instabile Karte raushauen will.

Digidi
2017-06-30, 12:06:54
AMD hat es mal beim Primitive Shader durchblicken lassen das man das wohlmöglich in Zukunft noch in Vulcan oder DX12 integrieren muss.

https://www.pcper.com/reviews/Graphics-Cards/AMD-Vega-GPU-Architecture-Preview-Redesigned-Memory-Architecture/Primitive-Sh

fondness
2017-06-30, 12:12:38
Okay, das mit dem fehlenden Tiled-Base-Rasterizer erklärt, warum die Karte nicht schneller ist. Die Frage ist aber, warum der Tiled-Base-Rasterizer nicht aktiv ist. Ich glaube hier nicht an einen simplen Treibertrick den man schnell einschalten kann. Denn warum sollte man den Tiled-Base-Rasterizer bei der Founders Edition deaktivieren, vor allem ohne es zu kommunizieren? Klar könnte man jetzt argumentieren die Karte ist nicht für Spieler gedacht, aber dann hätte man das IMO zumindest kommunizieren müssen.

Isen
2017-06-30, 12:14:17
vor allem ohne es zu kommunizieren?

1, 2, oder 3....

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11417220&postcount=7327

Digidi
2017-06-30, 12:17:48
Einen Hardwarebug hätte man schon längst kommuniziert. Da würden die Shareholder an die Decke gehen wenn Ihnen diese Info verschwiegen wird.

Linmoum
2017-06-30, 12:18:08
Wobei mich 1 schon arg wundern würde. Aber gut, das deutet zumindest in die Richtung, dass das weiterhin nur ein auf Stabilität getrimmter Fiji-Treiber sein könnte. Und es würde auch Sinn ergeben, dass man da bisher nur 'ne Fury X mit entsprechendem Takt sieht.

dildo4u
2017-06-30, 12:19:05
Warum ignoriert ihr den Luxmarkwert.
Die Karte boostet einfach nicht hoch genug,die Kompression funzt sonst würde sie sich gar nicht von Fury absetzen,da sie weniger Bandbreite hat.

Dino-Fossil
2017-06-30, 12:26:35
Tja, es bleibt spannend...

Aktuell sehe ich 3 3,5 Möglichkeiten:
1. Der TBR ist bei aktuellen VEGA-Chips nicht implementiert oder komplett defekt - das wäre der GAU.
Dann sehe ich Vega aufgrund der (relativ) schlechten Performance bei hohen Kosten nur in homöopathischen Dosen auf den Markt kommen.
1b. Der TBR funktioniert, bietet aber kaum Vorteile, bzw kann gerade so die gravierenden Probleme in einem anderen Bereich überdecken. -> eher unwahrscheinlich wenn man dem Test glauben darf, der gezeigt hat, dass kein TBR aktiv ist.
2. Der TBR funktioniert, muss aber bei AMDs Implementierung für jedes Spiel/Szenario treiberseitig gesondert angepasst werden - bedeutet gewaltigen Treiberaufwand, aber immerhin liefert es dann gute Performance (siehe Fallout 4 im Stream gestern?).
3. Der TBR ist vorhanden und läuft prinzipiell - auch automatisch, aber AMD hat ihn aus irgendwelchen Gründen (Treiber-Bug? Geheimhaltung vor RX-Launch?) treiberseitig deaktiviert. Das wäre ideal wohl noch die beste Auflösung.


Naja, aktuell kann man nur spekulieren.

Raff
2017-06-30, 12:32:34
Hidden surface removal. Verdeckte Flächen werden erst gar nicht an die Pixelshader geschickt sondern schon vorher (pixelgenau) aussortiert. Es gibt viele Tricks, mit denen man versucht, nicht unnötig viele Pixel zu berechnen. Die Engines selber sortieren schon komplette Objekte aus, die nicht sichtbar sind, in den Shadern, die die Geometrie verabeiten (vor der Rasterization) kann man ebenfalls Culling durchführen (mehr oder weniger aufwändig). Und GPUs selber versichen halt mit early-Z möglichst früh Pixel zu verwerfen und nicht erst ganz am Ende beim Z-Test in den ROPs. Aber Verschnitt gibt es trotzdem praktisch immer.
Durch Sammeln der Geometrie vor dem Rastern kann man im Prinzip pixelgenaues HSR durchführen und so Rechenleistung (und Bandbreite) sparen.

Wie war das nochmal mit 3dfx? Die letzten Beta-Treiber von Anfang 2001 boten eine rudimentäre HSR-Implementierung via Software und nur für Glide und OpenGL. Das war AFAIR vertexbasiert und mit entsprechenden Artefakten belegt. Der Performance-Unterschied bei UT war jedoch gigantisch.

Zeitlich würde es aber perfekt passen, 10 Jahre danach :freak: :wink:

Der Savage 2000 kam nicht 2007, sondern 1999 – (auf Biegen und Brechen) vor der GeForce 256. :)

MfG,
Raff

fondness
2017-06-30, 12:33:19
Klar könnte man es theoretisch dem verrückten Raja Konduri zutrauen, dass er alle trollt. Aber ich glaube so viel Eier hat er nicht. :D

Im besten Fall braucht es noch Treiberarbeit, ansonsten würde ich eher auf ein HW-Problem tippen.

Pirx
2017-06-30, 12:33:53
War die GF nicht davor?

Digidi
2017-06-30, 12:36:33
Klar könnte man es theoretisch dem verrückten Raja Konduri zutrauen, dass er alle trollt. Aber ich glaube so viel Eier hat er nicht. :D

Im besten Fall braucht es noch Treiberarbeit, ansonsten würde ich eher auf ein HW-Problem tippen.
Wenn es ein Hardware Problem wäre würde man nicht schon munter FE Ausliefern ;D

Loeschzwerg
2017-06-30, 12:37:58
War die GF nicht davor?

~2 Monate später, aber die Vorstellung war ca. zeitgleich. Zu lange her ^^

Edit zu 3dfx HSR: http://www.anandtech.com/show/683 :)

HOT
2017-06-30, 12:39:16
Der R600 kam vor 10 Jahren :D.
Aber AMD kommunizierte doch bei einer der Events, dass sowohl der Rasterizer als auch HBC vollkommen transparent für die Software ist. Einzig die Primitive-Shader gehen nur über DX12+ und Vulkan. Die plausibelste Erklärung: Treiber nicht fertig. Die FE richtet sich an professionelles Publikum. Da kann man keinesfalls experimentelle Beta-Software anbieten, die nicht stabil ist. Das ist just another verkackter Launch. Es wäre nicht AMD, wenn man die Launches richtig machen würde :D.
Korrekt wäre es gewesen, die FE bis zum 29.7. zu verschieben aus meiner Sicht. Wie auch immer, es wäre sowieso wieder Wasser auf die Mühlen der Hater gewesen. Man hat eben rechtzeitig HBM für 16k Produkte geliefert bekommen und die Dinger abgesetzt. Kann ich denen nicht verdenken, so zu handeln. Ich glaube man wird aus Treibersicht anders handeln: Man wird bei der RX nicht fertig sein, man wird einen Treiber mit HBC und Binning anbieten und einen Fallback für die Spiele aktivieren, die nicht richtig funktionieren. So wird das laufen, nicht umgekehrt, das macht keinen Sinn.

w0mbat
2017-06-30, 12:45:39
Korrekt wäre es gewesen, die FE bis zum 29.7. zu verschieben aus meiner Sicht.

AMD hat für Vega auf einem Investor-Event einen H1/2017 launch angegeben. Das bedeutet, dass sie rechtlich daran gebunden sind, bzw. sich für Schadenersatzklagen öffnen, wenn sie Vega (in welcher Form auch immer) nicht im H1/2017 releasen.

Morgen ist das H1 vorbei, es war einfach keine Zeit mehr. Der FE launch, und mMn die ganzen "FE" Karten, gibt es nur aus diesem einen Grund. Wenn AMD nur von 2017 und nicht von H1 gesprochen hätte, würden wir Vega erst später sehen, da bin ich mir ganz sicher.

fondness
2017-06-30, 12:53:06
AMD hat für Vega auf einem Investor-Event einen H1/2017 launch angegeben. Das bedeutet, dass sie rechtlich daran gebunden sind, bzw. sich für Schadenersatzklagen öffnen, wenn sie Vega (in welcher Form auch immer) nicht im H1/2017 releasen.

Morgen ist das H1 vorbei, es war einfach keine Zeit mehr. Der FE launch, und mMn die ganzen "FE" Karten, gibt es nur aus diesem einen Grund. Wenn AMD nur von 2017 und nicht von H1 gesprochen hätte, würden wir Vega erst später sehen, da bin ich mir ganz sicher.

Und was ist dann passiert zwischen dem Investor-Event und heute, warum Vega offenbar nicht wie geplant fertig wurde?^^

AffenJack
2017-06-30, 12:58:53
AMD hat für Vega auf einem Investor-Event einen H1/2017 launch angegeben. Das bedeutet, dass sie rechtlich daran gebunden sind, bzw. sich für Schadenersatzklagen öffnen, wenn sie Vega (in welcher Form auch immer) nicht im H1/2017 releasen.


Nur weil etwas auf einem Investor-Event gesagt wurde, heißt es nicht, dass man sofort verklagt wird, wenn es Schwierigkeiten gibt. Wenn die unvorhersehbar waren und man es schnell kommuniziert passiert da gar nix. Projekte und Releases verpäten sich oftmals. Nur bei fahrlässigen Dingen oder wenn man es verschweigt kannste klagen. Sonst hätte z.B. Intel bei ihren Prozessverschiebungen auch schon soviele Klagen am Hals.

Die Frage ist wie fondness aber schon schreibt eher, wieso ist das Ding noch nicht fertig und die Treiber in so einem Zustand?

Linmoum
2017-06-30, 12:58:58
Software ist (noch) nicht fertig. Passt doch dazu, dass TBR bei der Frontier Edition scheinbar noch nicht aktiv ist. Fiji-Treiber, damit (verständlicherweise) erstmal die Stabilität gegeben ist und fertig.

grauenvoll
2017-06-30, 13:04:24
AMD hat für Vega auf einem Investor-Event einen H1/2017 launch angegeben. Das bedeutet, dass sie rechtlich daran gebunden sind, bzw. sich für Schadenersatzklagen öffnen, wenn sie Vega (in welcher Form auch immer) nicht im H1/2017 releasen.

Das ist die einzig sinnvolle Erklärung dafür, warum man die Karten "sinnlos" auf den Markt geschmissen hat. Aus Marketingsicht ein Desaster.

Wenn ich das Puzzleteil richtig einsortiere, bedeutet es, der Treiber scheint das große Problem zu sein, nicht HBM. Dazu passt eine Aussage von Raja, der vor einigen Wochen darauf hinwies, wie kompliziert die Treiberentwicklung ist. Dazu passen auch die Gerüchte eines hervorragenden Preis/Leistungsverhältnis. Man darf erwarten, dass Vega-Karten in ausreichender Stückzahl auf den Markt kommen. Wäre HBM das Problem, ist es blödsinnig, eine erstklassiges Preis/Leistungsverhältnis anzubieten.

grauenvoll
2017-06-30, 13:08:26
Nur weil etwas auf einem Investor-Event gesagt wurde, heißt es nicht, dass man sofort verklagt wird, wenn es Schwierigkeiten gibt. Wenn die unvorhersehbar waren und man es schnell kommuniziert passiert da gar nix. Projekte und Releases verpäten sich oftmals. Nur bei fahrlässigen Dingen oder wenn man es verschweigt kannste klagen. Sonst hätte z.B. Intel bei ihren Prozessverschiebungen auch schon soviele Klagen am Hals.


Aber wer will das Risiko eingehen? Es spielt auch einen große Rolle wer wann was gesagt hat. Wenn der CEO wenige Wochen vor dem Launch auf einer Investorenveranstaltung das 1.HJ nennt, ist das keine beliebige Notiz.

AffenJack
2017-06-30, 13:13:14
Dazu passen auch die Gerüchte eines hervorragenden Preis/Leistungsverhältnis. Man darf erwarten, dass Vega-Karten in ausreichender Stückzahl auf den Markt kommen. Wäre HBM das Problem, ist es blödsinnig, eine erstklassiges Preis/Leistungsverhältnis anzubieten.

Ein gutes P/L Verhältniss Gerücht sagt dir nicht viel aus. Denn es kann genauso sein, dass solche Gerüchte von niedrigen Preisen kommen, die Urheber aber nix über die Perf wissen und die überschätzen. Am Ende kann sich ein gutes P/L dann nur als adäquates P/L herausstellen, weil die Perf nicht gestimmt hat.

Aber wer will das Risiko eingehen? Es spielt auch einen große Rolle wer wann was gesagt hat. Wenn der CEO wenige Wochen vor dem Launch auf einer Investorenveranstaltung das 1.HJ nennt, ist das keine beliebige Notiz.

Dann sind wir bei der fehlenden Kommunikation/Verschweigen die ich angesprochen habe. Aber man muss sich dann sehr fragen, wie es sein kann, dass ein CEO solche Aussagen tätigt, obwohl andere Dinge absehbar sind und noch solche Probleme da sind. Das ist dann nen krasser Managementfehler.

Iruwen
2017-06-30, 13:22:42
AMD will absolut keine echten Performancewerte zeigen bevor der Release ist, vermutlich um NV möglichst wenig Zeit zum reagieren zu geben?
Womit sollte NV denn reagieren? Die haben doch schon alles rausgehauen was da ist, reagieren könnten sie höchstens mit Preissenkungen, aber wozu solange AMD nichts im Markt hat und die genauen Preise nicht bekannt sind.

grauenvoll
2017-06-30, 13:38:31
Ein gutes P/L Verhältniss Gerücht sagt dir nicht viel aus. Denn es kann genauso sein, dass solche Gerüchte von niedrigen Preisen kommen, die Urheber aber nix über die Perf wissen und die überschätzen. Am Ende kann sich ein gutes P/L dann nur als adäquates P/L herausstellen, weil die Perf nicht gestimmt hat.


Kann alles sein. Das sind eben nur Gerüchte. Ich habe nur versucht die Puzzleteile widerspruchsfrei zusammenzufügen. In der Vergangenheit bin ich gut damit gefahren.


Dann sind wir bei der fehlenden Kommunikation/Verschweigen die ich angesprochen habe. Aber man muss sich dann sehr fragen, wie es sein kann, dass ein CEO solche Aussagen tätigt, obwohl andere Dinge absehbar sind und noch solche Probleme da sind. Das ist dann nen krasser Managementfehler.

Das sagt sich immer so leicht. Wieviele Lines of Code hast du in deinem Leben schon geschrieben? Software ist tückisch, ich ziehe meinen Hut vor jemanden, der GPU-Treiber entwickelt. Dass man sich da leicht verschätzen kann war wohl allen bewusst, deswegen hat man auch Halbjahr angegeben und nicht Quartal.

Blediator16
2017-06-30, 13:44:09
Ich hätte nicht gedacht, dass wir hier im Forum noch so viele und vor allem bessere Ingenieure und Software Entwickler haben als bei AMD :freak:

decimad
2017-06-30, 13:48:10
Im Gegenteil: Mit der Weisheit, dass es schlecht ist, wenn einen Monat vor Launch noch mehr als Feinarbeit nötig ist, haben ja gerade die schlechteren Entwickler wie ich große Erfahrung. Vielleicht ist das ja auch komplettes Neuland für AMD, sollen sich mal an mich wenden :)

DrFreaK666
2017-06-30, 13:56:47
Wahrscheinlich ist Vega nur bei Apps konkurrenzfähig und bei Games leider nicht ganz :ugly:

Monsta
2017-06-30, 14:27:12
Vielleicht ist es gar kein Vega Chip. Es ist der alte Fiji. Massiv selektiert um Ihn auf 1600Mhz zu prügeln. 16Gb Ram angeflanscht, fertig.

r3ptil3
2017-06-30, 14:28:42
Wäre wirklich mal interessant hinter die Kulissen sehen zu können.

Zwei Jahre ohne High-End Produkt und dann das Datum fast nicht mal eingehalten, das muss ja auch was bedeuten.

Entwicklungskosten habe ich auch nie welche gesehen. Aber spekuliert wird oft, dass AMD weniger Ressourcen zur Verfügung hat. Schon klar bei dem Umsatz, aber Zahlen dazu gibt's nicht.

Bin gespannt, ob man jemals wieder so weit vor der Konkurrenz sein wird wie mit R300, R580... (RV870 natürlich auch... ganz vergessen :D)

iuno
2017-06-30, 14:29:34
Auch wenn ich das fuer Unsinn halte, waere es schoen, wenn endlich mal einer unter den Kuehler schauen wuerde ;p

Was FO4 betrifft kann ich mir vorstellen, dass Fehler gemacht wurden. Warum soll die Karte gerade bei dem Spiel so deutlich besser abschneiden?
So sieht das auf meiner Fury X aus. Genau So wie bei Ihm im Video bei 3:50:17 und verhält sich genau so.
Sieht uebrigens auch auf Hawaii genauso aus, obwohl andere was anderes behauptet haben. Und unabhaengig davon, wie es ganz genau raus kommt, sieht man das generelle Verhalten sowieso seit Generationen so.

Isen
2017-06-30, 14:29:53
Monsta

Dann müsste Fury X aber mehr schaffen:

http://www.pcgameshardware.de/Fallout-4-Spiel-18293/Specials/Test-Benchmark-vor-Release-1177284/

robbitop
2017-06-30, 14:33:56
Die Performance entspricht mit Sicherheit nicht dem Geplanten.
Vega ist ~500 sqmm groß. Da hätte Polaris 10 (232 sqmm) >2x reingepasst. Ohne neue mArch, ohne viel RnD. ~4600-5000 ALUs und 512 bit GDDR5x @1,3 GHz.
Offenbar muss eine neue mArch pro sqmm und/oder pro Watt mehr als das bringen, sonst wäre es sinnfrei. Das hier gezeigte entspricht folglich nicht dem, was V10 eigentlich können sollte/müsste.

Also gibt es einen Grund dafür. Ein HW Bug wäre möglich - dann würde man aber sicherlich einen Respin machen. Oder aber AMD ist ganz einfach nocht nicht so weit. Wenn Vega Ende Juli vorgestellt wird, wird man es ja sehen. Bis dahin wird wohl nichts anderes bleiben als abzuwarten...

Cyphermaster
2017-06-30, 14:36:13
Und was ist dann passiert zwischen dem Investor-Event und heute, warum Vega offenbar nicht wie geplant fertig wurde?^^
Die Frage ist wie fondness aber schon schreibt eher, wieso ist das Ding noch nicht fertig und die Treiber in so einem Zustand?
Den Zustand der geplanten FE-Treiber kennen wir nicht. Wie ich schon im Review-Thread geschrieben habe:
Da reicht es, wenn in letzter Minute vor dem Release im nagelneuen Performance-Treiber beim Testen überraschend ein Bug gefunden wird, der kritisch genug ist. Nicht releasen ist keine Option (weil sonst die Karten ganz ohne Treiber dastünden), zum Fixen aber nicht ausreichend Zeit --> Fallback auf den letzten stabilen Treiber.

Natürlich kann es auch sein, daß sich AMD monatelang aus Unfähigkeit nur peilungsfrei wechselweise an Sack und Kopf gekratzt hat, oder es böswillig rausprogrammiert wurde, weil's das auch nicht bringt, oder es waren kleine grüne Männchen (ha-ha), die nachts in die die Firma eingedrungen sind und den Treibercode sabotiert haben. Kommt halt drauf an, wen du fragst.

Dino-Fossil
2017-06-30, 14:40:01
Vorausgesetzt, es ist "nur" ein Softwareproblem, kommt im besten Fall im Laufe der nächsten Wochen (und damit noch vor der RX) noch ein Treiberupdate, dass die gröbsten Probleme beseitigt.

Ansonsten muss man eben bis zum Launch auf definitive Antworten warten. Würde die RX auch in diesem Zustand launchen, könnte AMD es sich eigentlich auch sparen, ich bezweifle, dass man damit viel reißen könnte.

X.Perry_Mental
2017-06-30, 14:49:37
Vorausgesetzt, es ist "nur" ein Softwareproblem, kommt im besten Fall im Laufe der nächsten Wochen (und damit noch vor der RX) noch ein Treiberupdate, dass die gröbsten Probleme beseitigt.

Um Ehrlich zu sein glaube ich nicht an einen Hardware-Bug. Der würde ohne Beseitigung verhindern, dass man das gewünschte Performance-Ziel erreicht oder mit Beseitigung durch einen Respin eine Verzögerung der Veröffentlichung bedeuten. In beiden Fällen würde ich davon ausgehen, dass man das den Aktionären mitteilen müsste.
Grüße: Perry

Digidi
2017-06-30, 14:54:17
Noch mal was zum Nachdenken und Hardwarefehler. Der Tiled Base Rasterizer wurde schon sehr stark beworben. Der muss enthalten sein in der Hardware. Wenn das Feature nicht geht kann man wahrscheinlich die Karte Postwenden zurückschicken. Ich möchte nicht wissen was AMD dann für einen Aufwand hat wegen den Karten.

Das deckt sich dann auch mit Leonidas Artikel zum Rasterizer wieder. Wobei ein Treiber ein kleines Übel ist während defekte Hardware der Supergau wäre.

Dino-Fossil
2017-06-30, 14:57:39
Ja, ohne TBR wäre Vega eine reine Luftnummer.
Sie haben ja schon beim Polaris-Launch die Tatsachen teils ziemlich "kreativ" ausgelegt, aber ein Feature zu bewerben, dass derartige Auswirkungen haben sollte und es dann nicht zu liefern wäre doch eine andere Dimension.

Leonidas
2017-06-30, 15:07:34
Vielleicht liefern sie deswegen so wenige aus ... weniger Sorgen mit möglichen Rücknahmen.

Cyphermaster
2017-06-30, 15:13:54
Es wäre nicht nur ein Super-GAU, es ist auch imo deutlich unwahrscheinlicher, als ein Software-Problem. Wenn die Hardware nicht taugt, dann würde das bedeuten, daß keine einzige Treiberversion mit diesem Feature bisher je stabil Leistung hätte bringen können.
Ein konsistentes, systematisches Problem solchen Ausmaßes MUSS eigentlich bei den internen Tests sehr früh auffallen (genau dafür sind sie ja gemacht).

Dural
2017-06-30, 15:14:50
Finde es so wie so sehr speziell das zuerst eine Semi Pro. Karte kommt.

robbitop
2017-06-30, 15:17:17
Wenn es ein HW Bug wäre, würde AMD IMO nicht launchen sondern respinnen. Wenn die mArch (analog R600) für die Katz wäre, hätte man das schon deutlich länger vorher gewußt. Eigentlich schon in den Simulationen vor dem Tapeout. Mindestens H1 2016.

Palpatin
2017-06-30, 15:22:11
Wenn TBL nicht funktioniert bzw es AMD nicht hinbekommt bei VEGA, macht es absolut keinen Sinn das sie beim Takt und Verbrauch in die Vollen gehen.

Troyan
2017-06-30, 15:24:00
Wenn es ein HW Bug wäre, würde AMD IMO nicht launchen sondern respinnen. Wenn die mArch (analog R600) für die Katz wäre, hätte man das schon deutlich länger vorher gewußt. Eigentlich schon in den Simulationen vor dem Tapeout. Mindestens H1 2016.

Ja und? Soll man VEGA #1 wegwerfen und zwei Jahre lang nur mit Polaris überleben?

Wir haben doch schon im Dezember gesehen, dass mit VEGA etwas nicht stimmt. AMD verkauft Fiji als MI8 weiter und bietet im Gegensatz zur MI25 ein viel besseres Perf/W Verhältnis. Das hat mich im Dezember schon irritiert und ist im Grunde vollkommen absurd...

iuno
2017-06-30, 15:25:13
Wenn TBL nicht funktioniert bzw es AMD nicht hinbekommt bei VEGA, macht es absolut keinen Sinn das sie beim Takt und Verbrauch in die Vollen gehen.
Warum? Wuerde man auch noch unter die 1080 fallen kann man das Ding dann bald fuer 300 € verkaufen. Das ist sicherlich nicht das Ziel. Dass man von AMD kein Produkt im sweetspot erwarten kann sollte nach all den Jahren klar sein.

Dino-Fossil
2017-06-30, 15:33:16
Ja, ich schätze auch, dass sie dann wieder den Takt möglichst hoch drehen würden und die Effizienz hinten runter fällt um wenigstens irgendwie ein Minimalziel (z.B. ca die 1080) in der Performance zu erreichen.
Allerdings wäre es ein Chip, der verhältnismäßig teuer in der Herstellung ist und dafür wenig überzeugend in Performance und Verbrauch (und zudem zu spät am Markt wäre).
Von daher würde es AMD kaum helfen - lediglich um eine eher theoretische Alternative im entsprechenden Marktsegment zu bieten.

Bis auf weiteres gehe ich aber noch eher von einem Treiberseitigen Problem aus.

Isen
2017-06-30, 15:35:00
@Troyan

Das Faullout 4 Ergebnis macht doch stutzig ohne Ende. Allein deswegen ist es nicht zutreffend was du sagst

PrivateCeralion
2017-06-30, 15:36:18
Wäre Gaming Vega bereit, wäre sich veröffentlicht worden. Ich habe tiefes vertrauen in AMD, dass wir Ende Juli nicht enttäuscht werden.

dildo4u
2017-06-30, 15:37:12
Fallout kann bei 1440p ins CPU Limit laufen,die 4k Werte waren normal unter der 1080p.

-/\-CruNcher-/\-
2017-06-30, 15:37:14
Das kann VEGA nicht packen das ist irsinn

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11416923#post11416923


das höchste was ich kalkuliert hab sind 16 fps

16.5 Millionen Samples

Mit keinem Treiber update werden sie das so hoch packen (dennoch etwas mehr als 2x GTX 970 Performance ist nicht zu verachten für den vorausichtlich angestrebten Preis von ~500€)



Wie viel erreicht Titan (X)P ?


Nvidia ist schon fast bei der 3 fachen Performance der GTX 970

Kriton
2017-06-30, 15:47:17
Was FO4 betrifft kann ich mir vorstellen, dass Fehler gemacht wurden. Warum soll die Karte gerade bei dem Spiel so deutlich besser abschneiden?

Na ja, welche Engine nutzt FO4 denn? Man kann ja die Qualität einer HW nicht ohne die jeweilige SW betrachten (jedenfalls dann nicht, wenn man bei der SW nicht auf der grünen Wiese beginnt und diese komplett auf die HW abstimmen kann).

Kann also sein, dass die Engine von FO4 etwas macht, was Vega besonders gut liegt (im Gegensatz zu den anderen getesteten Engines/Spielen).

Birdman
2017-06-30, 15:51:28
Dass man von AMD kein Produkt im sweetspot erwarten kann sollte nach all den Jahren klar sein.
Na ja, die Ryzen CPU's (OK, vieleicht nicht gerade der 1700X sowie 1800X) haben bzgl. Sweetspot und Stromverbrauch durchaus Hoffnung aufkeimen lassen.

Menace
2017-06-30, 15:53:30
Dass man von AMD kein Produkt im sweetspot erwarten kann sollte nach all den Jahren klar sein.


Nano
R7 1700

dildo4u
2017-06-30, 15:54:44
Na ja, die Ryzen CPU's (OK, vieleicht nicht gerade der 1700X sowie 1800X) haben bzgl. Sweetspot und Stromverbrauch durchaus Hoffnung aufkeimen lassen.
Die Chips sind gut weil sie in die Breite gehen(Mehr Cores) aber den Takt gering halten,Vega hingegen ist genau so groß wie Fury,die Leistung muss also über den Takt kommen.

Dino-Fossil
2017-06-30, 15:57:43
Nein, das ist falsch.
Die Leistung muss ultimativ über eine verbesserte Architektur kommen.
Lediglich Fiji + mehr Takt funktioniert nicht (wie man ja sieht).

Linmoum
2017-06-30, 15:58:39
Vega ist auch nicht nur so groß wie Fiji, sondern deutlich größer.

Digidi
2017-06-30, 16:02:15
Auf github ist ein release (https://github.com/nlguillemot/trianglebin/releases) build, dafuer brauchst du kein SDK.

Wurde schon geschaut und was dazu gesagt, ob der Treiber fuer die Karte FL 12_1 meldet?

Danke Iuno hab ich garnicht gesehen. Das könnenn jetzt ja alle hier mal ausprobieren :freak:

Palpatin
2017-06-30, 16:08:37
Warum? Wuerde man auch noch unter die 1080 fallen kann man das Ding dann bald fuer 300 € verkaufen. Das ist sicherlich nicht das Ziel. Dass man von AMD kein Produkt im sweetspot erwarten kann sollte nach all den Jahren klar sein.
Leistung zwischen 1080 und 1070 mit ähnlichen Verbrauchswerten liese sich aktuell für 400-500€ verkaufen.
Leistung knapp oberhalb der 1080 (mehr ist bei der geringen Bandbreite ohne TBL nicht drinnen) mit ~300W+ Verbrauch würde sich kaum teurer verkaufen aber vermutlich deutlich schlechter.

Cyphermaster
2017-06-30, 16:10:17
Ja und? Soll man VEGA #1 wegwerfen und zwei Jahre lang nur mit Polaris überleben? Im Zweifelsfall wäre ein Respin mit Verschiebung immer noch wesentlich billiger, als wissentlich ein defektes Produkt verkaufen, und sich damit absehbar zum Ziel von Schadenersatzklagen zu machen (auch bei den Shareholdern, da sind das dann keine Peanuts mehr...).

dildo4u
2017-06-30, 16:11:01
Nein, das ist falsch.
Die Leistung muss ultimativ über eine verbesserte Architektur kommen.
Lediglich Fiji + mehr Takt funktioniert nicht (wie man ja sieht).
Kann es nicht sein das sie erwartet haben so hoch wie Nvidia zu takten,wenn sie mit 1700 Boosten würde wäre sie ziemlich flott.
Die 580 ging ja z.b besser als die 480 was den Takt angeht,das Problem ist nur das der Verbrauch explodiert.

-/\-CruNcher-/\-
2017-06-30, 16:11:59
Momentan sieht es eher so aus als Stimmt was mit der RAW Shader Power nicht die scheint überhaupt nicht anzukommen

Es scheint total noch auf Fiji Niveou festzuhängen

Das errinert an Ryzens Fabric Latency Probleme

Digidi
2017-06-30, 16:15:04
Momentan sieht es eher so aus als Stimmt was mit der RAW Shader Power nicht die scheint überhaupt nicht anzukommen

Es scheint total noch auf Fiji Niveou festzuhängen

Wenn der Rasterizer auf Fiji Niveau arbeitet und schlecht culling betreibt geht die ganze Shader Power für Pixel drauf die man am Ende gar nicht sieht ;)

Agent117
2017-06-30, 16:17:09
Das wird schon eine größere Sache sein mit dem TBR. Einer von AMD sagte doch auch Anfang des Jahres, dass 80% ihrer Treiberabteilung an Vega arbeiten. Ich würde ja auch sagen, dass einen Monat vor Release nur noch Feinarbeit zu tun sein sollte, aber vlt ist man ja auch wirklich schlicht noch nicht so weit.
Ich bin jedoch zumindest optimistisch, dass wir die nächsten Tage und Wochen stückchenweise mehr von AMD Mitarbeitern erfahren werden.

-/\-CruNcher-/\-
2017-06-30, 16:19:30
Ja aber auch bei Compute scheint die Shader Power drauf zu gehen das kann dann schlecht am Tiled Renderer liegen.

Digidi
2017-06-30, 16:21:39
Ja aber auch bei Compute scheint die Shader Power drauf zu gehen das kann dann schlecht am Tiled Renderer liegen.
Gib mal bitte ein Beispiel Danke

Emperator
2017-06-30, 16:28:01
Entwicklungskosten habe ich auch nie welche gesehen. Aber spekuliert wird oft, dass AMD weniger Ressourcen zur Verfügung hat. Schon klar bei dem Umsatz, aber Zahlen dazu gibt's nicht.

Aktuell hat AMD ca. 9000 Mitarbeiter, 2009 waren es noch 15000. Da die meisten Projekte jahrelange Entwicklungszeiten haben, zeigt sich die Auswirkungen von weniger Ressourcen nicht sofort, sondern erst Jahre später.

Dural
2017-06-30, 16:30:39
1.2V bei 1600MHz
1.1V bei 1440MHz

fondness
2017-06-30, 16:34:07
Aktuell hat AMD ca. 9000 Mitarbeiter, 2009 waren es noch 15000. Da die meisten Projekte jahrelange Entwicklungszeiten haben, zeigt sich die Auswirkungen von weniger Ressourcen nicht sofort, sondern erst Jahre später.

Ja das unterschätzen auch viele, die GPU-Abteilung musste ordentlich Leute abbauen, während NV weiter eingestellt hat. Erst in jüngster zeit wird wieder aufgestockt, aber das wirkt sich frühestens bei Navi oder noch später aus.

dildo4u
2017-06-30, 16:35:34
Die Game Auswahl von dem was sie bisher gezeigt haben war natürlich nicht zufällig,wenn man sieht wo Fury X ist macht die Vega Performance über der 1080 Sinn.

http://abload.de/img/index0yszw.png

AMD wird es unter DX11 schwer habe die Karte auszulasten,was komplett Sinn macht je stärker die Karte um so mehr fällt der Treiber Overhead auf.

Troyan
2017-06-30, 16:35:54
1.2V bei 1600MHz
1.1V bei 1440MHz

Erklärt den Stromverbrauch. Die GTX1080TI FE läuft mit rund 1,06V bei 1900MHz (Max-Clock): https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/34.html

/edit: Sapphire RX 580 Limited Edition benötigt 1,125V für 1450Mhz: https://www.techpowerup.com/reviews/Sapphire/RX_580_Nitro_Plus/34.html

Screemer
2017-06-30, 16:37:34
Es wird immer besser hetzt ist das shroud schon aus Plastik. Manchen sollte man wirklich lieber nen Ziegelstein in die Hand drücken.

Digidi
2017-06-30, 16:37:50
Die Game Auswahl von dem was sie bisher gezeigt haben war natürlich nicht zufällig,wenn man sieht wo Fury X ist macht die Vega Performance über der 1080 Sinn.

http://abload.de/img/index0yszw.png

AMD wird es unter DX11 schwer habe die Karte auszulasten,was komplett Sinn macht je stärker die Karte um so mehr fällt der Treiber Overhead auf.


Ach Dildo4u wann fängst du an deinen Kopf zu benutzen? Vergleich die Rohdaten Werte (Von mir aus auch die mit 1400 Mhz Takt) und setzte das mal mit der Tablle in Relation.

d2kx
2017-06-30, 16:41:53
The First Radeon Vega Frontier Linux Benchmark Doesn't Tell Much (http://www.phoronix.com/scan.php?page=news_item&px=Vega-Frontier-Linux-Quickie)
Phoronix

Birdman
2017-06-30, 16:44:01
Leistung zwischen 1080 und 1070 mit ähnlichen Verbrauchswerten liese sich aktuell für 400-500€ verkaufen.
Du hast keine Ahnung von der aktuellen Marksituation :tongue:
Solange die MH/s Leistung passt, wäre die Karte ausverkauft auch wenn sie weniger fps als eine 1070 liefert :biggrin:

iuno
2017-06-30, 16:45:20
Na ja, die Ryzen CPU's (OK, vieleicht nicht gerade der 1700X sowie 1800X) haben bzgl. Sweetspot und Stromverbrauch durchaus Hoffnung aufkeimen lassen.

Nano
R7 1700

Jeweils eine SKU aufzuzaehlen ist nicht zweckdienlich, hier geht es ums Flaggschiff. Die Nano ist nicht im sweetspot sondern hat einfach nur haertere Limits als "normal". Genausowenig hat einer der Ryzen 7 hat etwas mit dem sweetspot zu tun, schau dir mal Epyc an. Das hat nichts damit zu tun, wie effizient diese SKUs absolut gesehen sind (da sieht es naemlich durchaus gut aus), darum geht es auch ueberhaupt nicht. Wir muessen aber auch nicht das Thema schon wieder abschweifen lassen.

Dorn
2017-06-30, 16:46:37
Es ist erstaunlich ruhig bei AMD. Man sollte doch jetzt mal energisch dem treiben entgegen wirken. Kein gutes Zeichen...

Digidi
2017-06-30, 17:04:13
Was mich wundert ist das es bei PCPer so ruhig ist. Kein Link zum Video auf Ihrer Seite, keine neue News obs da Ärger von AMD gab?

iuno
2017-06-30, 17:06:26
Man wird erstmal alles richtig durchtesten und verarbeiten wollen. Ausserdem ist Freitag ;p

Isen
2017-06-30, 17:07:11
Vielleicht wissen sie mehr (Erhalten) und sich zurück halten sollen...
Nächste Woche kommt vielleicht eine Reaktion von AMD?

Cyphermaster
2017-06-30, 17:07:34
Es ist erstaunlich ruhig bei AMD. Man sollte doch jetzt mal energisch dem treiben entgegen wirken. Kein gutes Zeichen...Was sollten sie denn machen? Irgendwelche Ankündigungen, Erklärungen oder gar Versprechungen schaden doch mehr, als sie nutzen könnten. Etwas zeigen? Sollte man sich tunlichst verkneifen, bis es wirklich fertig ist.

Digidi
2017-06-30, 17:08:40
So viele klicks lässt man sich doch aber nicht entgehen. Schon alleine was 3dcenter, bei Reddit und bei Beyond3d abgeht ist schon was Wert.

Man könnte noch die WCCFTech Kerze Zünden das wäre der Meltdown ;D;D;D

AffenJack
2017-06-30, 17:14:46
Was mich wundert ist das es bei PCPer so ruhig ist. Kein Link zum Video auf Ihrer Seite, keine neue News obs da Ärger von AMD gab?

Ryan hat extra mit AMD telefoniert gestern, daher wird das schon alles passen. Ansonsten schreiben sie halt ihren Artikel. Das Video war halt nur etwas Preview.

Unicous
2017-06-30, 17:19:14
Desweiteren ist es gerade Vormittag in Kentucky, die Herren haben sicherlich genug anderes zu tun und einen Artikel zu schreiben dauert auch seine Zeit wenn man nicht wie WTF-Tech 90% des Textes recycled.
Zumal er auch nicht fertig ist mit den Tests, schätze ich.

Dural
2017-06-30, 17:44:30
Karte geht in 3DMark bis auf 1342MHz runter, das sind gerade mal 11TFlops oder rund 30% mehr als Fury X.

berhan
2017-06-30, 18:02:03
Da wir ja im Spekulationsforum sind stelle ich jetzt mal die Vermutung auf dass der einzige unterschied zwischen FE und RX der HBM2 ist. Dabei meine ich jedoch nicht die Größe sondern ECC. HBM2 soll ja beides unterstützen, bei gleichem Interface. Siehe https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35308-warum-hbm-mehr-als-nur-eine-erhoehung-der-speicherbandbreite-ist.html
Deswegen vermute ich, ist die RX schneller.

Dural
2017-06-30, 18:10:55
Ich weis nicht was ihr immer habt, die Leistung stimmt schon etwa! Wenn die WaKü Version die 1600MHz halten kann sind wir auf 1080 Leistung / sogar etwas höher im Durchschnitt.

Von 1080Ti Leistung war nie die rede, es stand immer die 1080 im Blickpunkt.

Neuere Treiber Versionen werden auch ein paar Prozentpunkte bringen, das übliche halt. Ein Wunder Treiber gab es aber noch nie.

AtTheDriveIn
2017-06-30, 18:11:05
Desweiteren ist es gerade Vormittag in Kentucky, die Herren haben sicherlich genug anderes zu tun und einen Artikel zu schreiben dauert auch seine Zeit wenn man nicht wie WTF-Tech 90% des Textes recycled.
Zumal er auch nicht fertig ist mit den Tests, schätze ich.
Muss heute aber fertig werden, Montag ist 4th July :)

Effe
2017-06-30, 18:19:01
Es wird immer besser hetzt ist das shroud schon aus Plastik. Manchen sollte man wirklich lieber nen Ziegelstein in die Hand drücken.
Kannst Du das bitte übersetzen? Der Satz ergibt keinen Sinn mMn.

Zergra
2017-06-30, 18:21:52
Ich habe eher das Gefühl das AMD genau das geplant hat. So können die Entwickler Vega die Treiber erstmal testen und AMD berichten. So kann in einem Monat dann die rx vega besser verkauft werden, da sie noch eine schippe drauflegt.

Unicous
2017-06-30, 18:23:00
Ein Monat ist arg wenig für so ein Manöver. :wink:

Der_Korken
2017-06-30, 18:24:20
Ich weis nicht was ihr immer habt, die Leistung stimmt schon etwa! Wenn die WaKü Version die 1600MHz halten kann sind wir auf 1080 Leistung / sogar etwas höher im Durchschnitt.

Von 1080Ti Leistung war nie die rede, es stand immer die 1080 im Blickpunkt.

Die Leistung stimmt in keinster Weise. Verglichen mit GP104 ist V10 60% größer, braucht mit konstanten 1600Mhz vermutlich knapp doppelt so viel Strom und benutzt deutlich teureren Speicher. Zudem ist der Chip mehr als ein Jahr später als GP104, sodass er zeitlich eher gegen den GV104 antreten dürfte. Für den Aufwand, den AMD betrieben hat, hätte mehr bei rumkommen müssen. Von den angekündigten Architekturverbesserungen ist abgesehen vom FO4-Bench bisher nichts zu sehen gewesen.

Isen
2017-06-30, 18:26:27
Ein Monat ist arg wenig für so ein Manöver. :wink:


Enge Partner wie Dice kommen doch durchaus früher an die Karten ran, war doch bei der Fury auch so, wenn mich jetzt nicht alles täuscht, oder?

Linmoum
2017-06-30, 18:26:58
Die Leistung stimmt natürlich vorne und hinten nicht, weil man bisher nur eine höher taktende Fury X sieht. Und wer ernsthaft meint, dass das zu erwarten war und ist, sollte sich vielleicht noch einmal in Ruhe mit der Thematik beschäftigen. Ausgehend von den pcper-Benches reicht's nicht mal für die 1080.

Unicous
2017-06-30, 18:32:30
Enge Partner wie Dice kommen doch durchaus früher an die Karten ran, war doch bei der Fury auch so, wenn mich jetzt nicht alles täuscht, oder?

Davon erfährt man nur wenn es auch "veröffentlicht" bzw. gezeigt wird. Und da AMD bei Vega Totschweigen als Devise ausgegeben hat kann man nicht automatisch davon ausgehen, dass Devs Karten vereinzelt vor Launch bekommen haben.

Isen
2017-06-30, 18:35:03
kann man nicht automatisch davon ausgehen, dass Devs Karten vereinzelt vor Launch bekommen haben.

War auch nicht meine Intension, eher die "Möglichkeit"

Schnitzl
2017-06-30, 18:37:27
"ganz offensichtlich gibt es bei AMD intern Probleme, was Vega angeht."
nun denn, doch auf Navi warten? :freak:Du mußt ordentlich "Aufrüstdruck" haben, wenn du von der einen auf die nächste Spekulation ohne jeglichen konkreten Anhaltspunkt wechselst. :rolleyes:

nö ich hab keinen Druck, obwohl immer noch die GTX770 2GB drin ist ;D
Jedesmal wenn ich aufrüsten wollte kam was dazwischen:
Fiji ... Enttäuschung
Polaris ... viel Versprochen dann nur Mainstream
Vega-Probleme --> und wieder weiter warten
Navi ... ???

Mal schaun obs dieses Jahrzehnt noch was wird!
sorry falls OT

Iruwen
2017-06-30, 18:45:01
Vielleicht ist es gar kein Vega Chip. Es ist der alte Fiji. Massiv selektiert um Ihn auf 1600Mhz zu prügeln. 16Gb Ram angeflanscht, fertig.
Oder es ist Manuel Neuer :eek:

:rolleyes:

uweskw
2017-06-30, 18:50:32
Die Leistung stimmt natürlich vorne und hinten nicht, weil man bisher nur eine höher taktende Fury X sieht. Und wer ernsthaft meint, dass das zu erwarten war und ist, sollte sich vielleicht noch einmal in Ruhe mit der Thematik beschäftigen. Ausgehend von den pcper-Benches reicht's nicht mal für die 1080.

Wenn Vega FX Gamer wirklich besser wird, warum lässt sich die Marketingabteilung von AMD dann so durch den Kakao ziehen und sein Produkt so kaputt reden?
1 oder 2 mini Leaks und schon hätte man wieder etwas Aufwind unter den Flügeln.
Ich muss sagen es sieht leider so aus als hätte AMD nichts mehr im Köcher.

greetz
US

Troyan
2017-06-30, 18:50:35
Der Spaß geht weiter: GamersNexus hat auch eine Karte und wird diese ebenfalls testen: https://twitter.com/GamersNexus/status/880825325252472832

Gimmick
2017-06-30, 18:53:50
Nachdem zu sehen war, dass da was noch ordentlich schief hängt, ist mein Interesse an weiteren Reviews, die auch nur das gleiche aufzeigen, extrem gesunken.

Spannend wirds doch erst wieder wenn AMD von sich hören lässt.

iuno
2017-06-30, 18:55:51
Da stimme ich zu. Interessant waere momentan nur noch zu schauen, was die Karte featuremaessig wirklich drauf hat oder sowas wie ein clock by clock Vergleich mit Fiji.

Der_Korken
2017-06-30, 18:56:55
Eine Sache, die ich gerade bezüglich Takt und Spannung sehe:

https://www.computerbase.de/forum/showthread.php?t=1692170&page=20&p=20221436#post20221436

Im Wattman steigen Takt und Spannung auch in den höheren States quasi proportional an, obwohl es ja eigentlich eher so ist, dass mit jeder weiteren Spannungszugabe das Taktplus kleiner ausfällt. Das Diagramm sieht bei ausgeloteten Taktstates dann eher so aus: Klick (https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58221&d=1481288527)

Das heißt:

Die Karte ist entweder bei 1600Mhz noch nicht ausgereizt ist, da der Takt noch sehr gut mit der Spannung skaliert (der Verbrauch wird dann aber schon happig ...).

oder:

Die 1600Mhz sind bereits nah am sinnvollen Limit dran. Dann könnten die kleineren States zwischen 1000-1100mV allerdings deutlich mehr Takt schaffen als voreingestellt. Das würde dazu führen, dass man durch Optimierung der Taktstates einen deutlich höheren durchschnittlichen Boost bei gleichem Verbrauch erzielen könnte, sprich die Effizienz steigt.

Dino-Fossil
2017-06-30, 18:57:47
Ich denke auch - solange es keine neuen Treiber oder ein Statement von AMD gibt, wird sich nicht viel ändern. Und ich fürchte beides wird auf sich warten lassen.

Linmoum
2017-06-30, 18:59:43
Da stimme ich zu. Interessant waere momentan nur noch zu schauen, was die Karte featuremaessig wirklich drauf hat oder sowas wie ein clock by clock Vergleich mit Fiji.
Ja, auf letzteres warte ich auch. Stattdessen darf man aber wahrscheinlich den 500. Spielebenchmark sehen, weil wegen fps und Rest interessiert eh keinen. *seufz*

Tobalt
2017-06-30, 19:25:09
an die microarchitekturversteher:

war die Kepler Arch einfacher zu verbessern zum heutigen pascal als GCN oder ist der faktische stillstand bei perf/watt nur den limitierten entwicklungsressourcen geschuldet?

ohne eine zeitgemäße arch kann es sich AMD eigentlich schenken consumer grakas zu bauen. sollen sie lieber noch mehr 480er an miner/hpcler verticken und was neues designen.

mir tut es leid um freesync. nvidia wird keinen move richtung freesync machen müssen, solange keine ryzen-artige gpu kommt ;-)

Mancko
2017-06-30, 19:25:57
Ich weis nicht was ihr immer habt, die Leistung stimmt schon etwa! Wenn die WaKü Version die 1600MHz halten kann sind wir auf 1080 Leistung / sogar etwas höher im Durchschnitt.

Von 1080Ti Leistung war nie die rede, es stand immer die 1080 im Blickpunkt.


Das wäre katastrophal. Die 1080 ist eine Performance Karte die zwar noch für 500 Euro verkauft wird aber die kann Nvidia auch für 300 verkaufen. Das wäre ja extremst bitter. Vega RX kostet da erheblich mehr dank, größerem DIE, HBM2 und insbesondere aufwändigerer Kühlung. Da muss schon ordentlich mehr Leistung her, sonst sind die im High End keinen mm weiter als heute.

Troyan
2017-06-30, 19:29:48
an die microarchitekturversteher:

war die Kepler Arch einfacher zu verbessern zum heutigen pascal als GCN oder ist der faktische stillstand bei perf/watt nur den limitierten entwicklungsressourcen geschuldet?


Nein. Kepler war ein riesiger Schritt weg von Fermi, um das Stromverbrauchsproblem in den Griff zubekommen. Jedoch hatte Kepler haufenweise Probleme mit der Auslastung aller Recheneinheiten (aka viele Einheiten, viele Informationen pro Datentransfer).

Maxwell hat dann wiederrum einiges über den Haufen geworfen, um die Architektur effzienter (Stromverbrauch und Leistung) zu gestalten: Delta Compression, überarbeite Compute Units, Tile Cache Rendering etc.

Bis jetzt ist es fraglich, ob VEGA überhaupt an den Schritt Kepler -> Maxwell heran reicht oder weiter nur GCN mit ein paar Pflastern ist.

fondness
2017-06-30, 19:43:07
Die Performance entspricht mit Sicherheit nicht dem Geplanten.
Vega ist ~500 sqmm groß. Da hätte Polaris 10 (232 sqmm) >2x reingepasst. Ohne neue mArch, ohne viel RnD. ~4600-5000 ALUs und 512 bit GDDR5x @1,3 GHz.
Offenbar muss eine neue mArch pro sqmm und/oder pro Watt mehr als das bringen, sonst wäre es sinnfrei. Das hier gezeigte entspricht folglich nicht dem, was V10 eigentlich können sollte/müsste.

Also gibt es einen Grund dafür. Ein HW Bug wäre möglich - dann würde man aber sicherlich einen Respin machen. Oder aber AMD ist ganz einfach nocht nicht so weit. Wenn Vega Ende Juli vorgestellt wird, wird man es ja sehen. Bis dahin wird wohl nichts anderes bleiben als abzuwarten...

Sehe ich ähnlich. Ein geshrinkter Fiji mit Polaris Features und halbierten 2048-bit SI läge vielleicht bei ~350mm². Und mehr Leistung sieht man aktuell nicht. Auch die TDP ist nicht niedriger wie bei Fiji in 28nm. Für irgendwas müssen die zusätzlichen ~150mm² ja gut sein, und zwar nicht nur um Strom zu verbraten. :ugly:

Dorn
2017-06-30, 19:45:20
Von 1080Ti Leistung war nie die rede, es stand immer die 1080 im Blickpunkt.

Was labersch du:confused:

Bei dir vielleicht:freak:

Solange kein Preis für die Gamer Karten raus sind steht von 1070gtx bis 1080gtx alles im Blickpunkt! (Und die finale Leistung natürlich)

Screemer
2017-06-30, 19:47:49
Kannst Du das bitte übersetzen? Der Satz ergibt keinen Sinn mMn.

*Jetzt

Bezog such auf: https://www.computerbase.de/forum/showthread.php?t=1692170&page=20&p=20221239#post20221239

lowkres
2017-06-30, 19:54:15
TBR soll tatsächlich deaktiviert sein. Einer aus dem Computerbase Forum besitzt die Frontier Edition. Forenname: r4yn3
https://www.computerbase.de/forum/showthread.php?t=1692170&page=21

fondness
2017-06-30, 19:58:15
Das ist bereits länger bekannt. Die Frage ist, ob das noch aktiviert wird bzw. aktiviert werden kann. :ugly:

reaperrr
2017-06-30, 19:59:10
war die Kepler Arch einfacher zu verbessern zum heutigen pascal als GCN oder ist der faktische stillstand bei perf/watt nur den limitierten entwicklungsressourcen geschuldet?

Beides.

Kepler hat noch den fehlgeleiteten Ansatz der Consumer-Fermis (GF104 usw.) beim Shader-Modul-Aufbau mit sich rumgeschleppt (ohne Anpassungen nur 128 von 192 SP effektiv nutzbar, mehr TMUs pro SM als nötig), allein das hat bei Maxwell schon ne Menge gebracht bei Perf./mm².
Das Tile Cache Rendering hat zusammen mit der starken Delta-Color-Compression dann den Rest besorgt.

Bei den Entwicklungsresourcen von AMD kam ne Menge zusammen. 2011, als Tahiti kam, war grad der große Umbruch mit CEO-Rausschmiss, Bulldozer-Fiasko, und Seifert als Interims-CEO.
Seifert hat Gerüchten zufolge in den Monaten, die er CEO war, durch seine Sparmaßnahmen mehr Schaden in Form von Entwicklungsverzögerungen und -einstellungen angerichtet, als in den ganzen Jahren vorher durch Fehlentscheidungen entstanden waren.
Read hat später dann ebenfalls den Budget-Fokus auf CPUs gelegt. Außerdem haben die Konsolen-Deals Ressourcen gebunden, die sonst für Desktop-GPUs zur Verfügung gestanden hätten.
Gleichzeitig hat NV ab Maxwell 2.0 natürlich Kohle gescheffelt ohne Ende, was der Entwicklung von Pascal und Volta sicher nicht geschadet hat, Reinfälle wie den GF100 hat es von NV seitdem nicht mehr gegeben.
Außerdem hat AMD von seinem wesentlich kleineren Budget einen prozentual sicher wesentlich höheren Teil für HBM-R&D abzwacken müssen, die sich jetzt nicht so wirklich bezahlt gemacht hat.

Generell hat bei AMD durch all das zu lange Stillstand in einigen Bereichen, vor allem beim Rasterizer und den Render-Backends geherrscht, deshalb der hohe Bandbreitenbedarf und schlechtere Effizienz (weil die GPUs durch den veralteten Rasterizer im Vergleich zu Maxwell und Pascal zu viel FLOPs und Energie auf überflüssige, weil auf dem Bild nicht sichtbare Operationen verschwenden).
Ich würde aktuell auch noch drauf wetten, dass sie wieder bei 4 Z/Stencil-Ops pro ROP geblieben sind und deshalb in dieser Disziplin weiter hinter NV herrennen, die seit der GTX 8800(!) 8 dieser Ops pro ROP pro Takt schaffen. Die Auswirkung hat man u.a. in der Risen 3 EE gesehen, wo AMD hauptsächlich durch die höhere Schatten-Auflösung abgesackt ist (Stichwort Stencil Shadows).
Auch wette ich, dass Vega weiterhin bei 16xAF stärker einbricht als die NV-Archs, weil NV noch immer SFUs fürs Texture-Sampling nutzt, was AMD schon seit Cypress/5000er Serie über ALUs macht.

Wieviel genau Vega davon vielleicht doch behebt, wird man wohl erst in RX-Reviews von Seiten wie hardware.fr sehen, nach den bisherigen Infos scheint AMD mit Vega bestenfalls den prozessbereinigten technologischen Rückstand auf ca. 3 Jahre zu reduzieren (ca. Maxwell 2.0-Niveau, in manchen Disziplinen weiter schlechter, in manchen alten wie Compute und DX12-Perf und neuen wie DX12.1-Support besser, Rest irgendwo dazwischen).

Schlammsau
2017-06-30, 20:02:42
Das ist bereits länger bekannt. Die Frage ist, ob das noch aktiviert wird bzw. aktiviert werden kann. :ugly:
Stellst du das ernshaft in Frage?

fondness
2017-06-30, 20:03:19
Ja.

r3ptil3
2017-06-30, 20:11:08
Stellst du das ernshaft in Frage?

Ein paar Seiten zurück, dann weisst du weshalb.

Gipsel
2017-06-30, 20:32:22
https://www.computerbase.de/forum/showthread.php?t=1692170&page=20&p=20221436#post20221436Wie der HBC funktionieren soll, hat er aber keinen Plan von. Daß die 24GB vermutlich die 16GB HBM + was die Karte maximal von seinem RAM abzwacken kann (da also 8GB) sein könnten, auf die Idee ist er wohl nicht gekommen.

Korvaun
2017-06-30, 20:33:27
Wenn der TBR nicht funktioniert dann ist der Chip ne Totgeburt. Das ist ja wohl das wichtigste Feature der VEGA-Generation.

Ich kann mir aber überhaupt nicht vorstellen wie das gehen soll, wenn es nen Hardware/Design-Defekt geben würde hätte AMD nicht die VEGA-FE released, das wäre doch Wahnsinn...
Wenns nur der Treiber ist, gut, nicht schön aber dann gibts noch Hoffnung auf starke Verbesserung (mind. +20%) wenn der Gamer-VEGA vorgestellt wird.

BoMbY
2017-06-30, 20:33:56
Das ist bereits länger bekannt. Die Frage ist, ob das noch aktiviert wird bzw. aktiviert werden kann. :ugly:


/*
* BinningMode enum
*/

typedef enum BinningMode {
BINNING_ALLOWED = 0x00000000,
FORCE_BINNING_ON = 0x00000001,
DISABLE_BINNING_USE_NEW_SC = 0x00000002,
DISABLE_BINNING_USE_LEGACY_SC = 0x00000003,
} BinningMode;


vega10_enum.h

Grabhopser
2017-06-30, 20:38:50
Der erste Test von PCPer ist online.

https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review

Seltsamer Test einer seltsamen GPU :D

AlterSack
2017-06-30, 20:54:42
Mal was (zu?) Optimistisches:

- Könnte es sein, dass 2 4Gb-Stapel bei den Spielevegas höhere Taktraten erreichen als die 2 8GB-Stapel der FE, sprich mehr Bandbreite bereitstellen?
(zusammen mit der nicht aktivierten Fehlerkorrektur höhere Spieleleistung)

- AMD verfügt soweit ich mich erinnere seit etwa Anfang Dezember über die ersten funktionierenden Vega-Chips. Wer weiss schon, wie alt die in den FE-Karten verbauten Vegas sind? Vllt. hat man alle verfügbaren voll funktionsfähigen Dies, die sich seit Jahresanfang angesammelt haben und nicht an Boardpartner als Entwicklersamples versandt wurden zusammengekratzt und für die FE verwurstet, nur um den zu optimistischen Termin zu halten?
Womöglich gibt´s für alles, was nach FE kommt eine neue Revision für mehr Takt?

- Mal davon abgesehen, dass ja offenkundig nicht alle Features funktionieren
und der Treiber eher von der Fury stammt, ist es nicht ungewöhnlich, dass bei neuen GPUs mit optimierten Treibern 10-20% Mehrleistung drin sind.

Wunschtraum: ohne Fehlerkorrektur + die versprochenen 1000MHz beim HBM ---> 5-10% Steigerung. 10-15% höherer GPU-Takt im Vergleich zu den 1382 MHz der FE und nochmal 30-40% durch Treiberoptimierung und freigeschaltete/funktionierende neue Funktionen. ...das sollte doch eigentlich reichen, oder?

y33H@
2017-06-30, 20:58:07
Mal schauen wer bei hardware.fr testet, nachdem Damien zu AMD ist :D

davidzo
2017-06-30, 21:16:43
Wenn der TBR nicht funktioniert dann ist der Chip ne Totgeburt. Das ist ja wohl das wichtigste Feature der VEGA-Generation.

Ich kann mir aber überhaupt nicht vorstellen wie das gehen soll, wenn es nen Hardware/Design-Defekt geben würde hätte AMD nicht die VEGA-FE released, das wäre doch Wahnsinn...
Wenns nur der Treiber ist, gut, nicht schön aber dann gibts noch Hoffnung auf starke Verbesserung (mind. +20%) wenn der Gamer-VEGA vorgestellt wird.


Naja, so unwahrscheinlich ist das nicht.
Nicht jede neue Technologie läuft auf anhieb und manche nachher sogar gar nicht.
Gabs bei ATI schon ein par mal und bei so komplexen Chips läuft schonmal was schief, siehe der aktuelle HT-Bug bei Intel.

Bei der Radeon 8500 war das fortschrittliche Multisampling auch defekt und man hat die komplexe "Smoothvision" Software die ATI dafür entwickelt hatte (temporal AA, etc. waren damals schon geplant) stattdessen als langweiliges Supersampling gelauncht. Dabei hatte man das Multisampling und temporal AA schon vollmundig angekündigt. Bei der Radeon 9000 als midrange-Auskopplung der 8500, hat man letztendlich die Transistoren für das problematische Multisampling einfach weggespart und erst im R300 dann die eigentliche funktionsfähige Implementierung herausgebracht.
Bei R600 hatten die ROPs ebenfalls einen defekt der dazu führte dass man stattdessen Shader Antialiasing (+CFAA) angeboten hat.

Die Verzögerung von RX-Vega lässt zumindest hoffen dass man noch fest daran glaubt TBR noch irgendwie zum laufen zu bekommen, entweder über den Treiber oder man hat noch ein neues Stepping in der Mache.
Andererseits könnte die Verzögerung auch sein weil man weiß dass man keinen konkurrenzfähigen chip hat und den nun mit softwaretricks auf ein neues level bringen muss. Das läuft dann meistens auf cheating hinaus. Wäre nicht das erste mal dass jemand sowas versucht. Bei einigen gescheiterten Hoffnungsträgern hat man das versucht, da sich so schnell kein neuer chip aus dem Boden stampfen lässt: Radeon 8500, Geforce4mx, FX5800, Volari V8 Duo, R600,...

scully1234
2017-06-30, 22:25:24
@Troyan

Das Faullout 4 Ergebnis macht doch stutzig ohne Ende. Allein deswegen ist es nicht zutreffend was du sagst

@Ryan

Yah, those numbers looked odd to me last night, only the 2560x1440. I re-ran them three times today, all with the lower score you see in the story today.

My guess is I had the incorrect resolution set previously.


vielleicht doch nicht;)

https://www.pcper.com/files/review/2017-06-30/Fallout4_2560x1440_OFPS.png

https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review

Der_Korken
2017-06-30, 22:36:11
Der erste Test von PCPer ist online.

https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review

Seltsamer Test einer seltsamen GPU :D

V10 FE vs Fury X:
Dirt Rally: +15%
Witcher 3: +16%
GTA 5: +16%
Fallout 4: +27%
Hitman: +27%
RotTR: +46%

Mit Ausnahme von RotTR holt die FE also nicht mal den Mehrtakt gegenüber der Fury raus. Der anliegende Takt lag gestern afaik so um die 1400Mhz in Spielen, was +33% auf die Fury entspricht. Mich würde mal interessieren, was passiert, wenn man den GPU-Takt auf die 1050Mhz der Fury reduziert. Wenn die Speicherbandbreite bremst, weil der TBR nicht richtig funktioniert, müsste die Karte verhältnismäßig wenig Performance verlieren und dürfte insbesondere nicht langsamer als die Fury werden.

Grabhopser
2017-06-30, 22:39:57
Jup......

witzig sind auch die im Fazit bescheinigten 25-45% Mehrperformance gegenüber der FuryX.
Gekrönt wird das ganze mit For an architecture to architecture leap that is impressive,... ;D

dildo4u
2017-06-30, 22:50:16
V10 FE vs Fury X:
Dirt Rally: +15%
Witcher 3: +16%
GTA 5: +16%
Fallout 4: +27%
Hitman: +27%
RotTR: +46%

Mit Ausnahme von RotTR holt die FE also nicht mal den Mehrtakt gegenüber der Fury raus. Der anliegende Takt lag gestern afaik so um die 1400Mhz in Spielen, was +33% auf die Fury entspricht. Mich würde mal interessieren, was passiert, wenn man den GPU-Takt auf die 1050Mhz der Fury reduziert. Wenn die Speicherbandbreite bremst, weil der TBR nicht richtig funktioniert, müsste die Karte verhältnismäßig wenig Performance verlieren und dürfte insbesondere nicht langsamer als die Fury werden.

Die Kompression funzt doch ansonsten würde man nicht mal in die nähe von 30% kommen,nicht vergessen Vega hat weniger Bandbreite als Fury.

Linmoum
2017-06-30, 22:58:46
Das funktioniert alles so wahnsinnig gut, dass pcper beim Witcher 3 bei der FE 1440MHz anliegen hatte, die Karte aber nur 16% schneller als die Fury X ist. Bei 37% mehr Takt. Genial.

Der_Korken
2017-06-30, 23:00:28
Die Kompression funzt doch ansonsten würde man nicht mal in die nähe von 30% kommen,nicht vergessen Vega hat weniger Bandbreite als Fury.

Hat die Fury gar keine DCC? Ich dachte, dass die Kompressionen bereits mit Tonga eingeführt und mit Polaris nur weiter verbessert wurden, sodass Fiji auch was davon abbekommen hat. Imho wird die Kompression allein stark überschätzt. Gipsel hatte mal erläutert, dass die effektiv durch Kompression gesparte Bandbreite erst dann richtig durchschlägt, wenn man eine hohe Datenlokalität bei den Zugriffen hat (z.B. indem man einen Tiled Renderer nutzt). Davon ab kann die FE auch ohne TR deutlich schneller als Fiji werden, da letzterer ja nicht zu 100% bandbreitenlimitiert ist. Deswegen würde mich in den Spielen, wo die FE nur 15% schneller ist, halt interessieren, wie stark sie mit dem GPU-Takt skaliert bzw. wie stark sie an der Bandbreite hängt.

mczak
2017-06-30, 23:10:02
Das Ding performt genau so wie man das etwa von einer Fury mit entsprechendem Takt und Speicherbandbreite erwarten würde. Das kann es doch irgendwie nicht sein, da muss doch noch etwas kommen, wozu genau sollen sonst die Architekturänderungen gut sein? Das Ding ist ja auch erheblich komplexer als die Fury.

N0Thing
2017-07-01, 00:05:49
Die Kompression funzt doch ansonsten würde man nicht mal in die nähe von 30% kommen,nicht vergessen Vega hat weniger Bandbreite als Fury.

Meinst du ernsthaft, daß man bei 512GB/s vs. 483 GB/s so eine Schlußfolgerung ziehen kann?

Entropy
2017-07-01, 00:09:47
Das Ding performt genau so wie man das etwa von einer Fury mit entsprechendem Takt und Speicherbandbreite erwarten würde. Wobei Vega 14nm sein sollte, Fiji 28nm, sollte das nicht weit Energiesparsamer sein?

Die Bandbreite ist natürlich geblieben, aber noch weit über der 1080, somit sollte Vega an dieser Stelle genug haben, selbst ohne TBR und Kompression.

Troyan
2017-07-01, 00:18:22
Wobei Vega 14nm sein sollte, Fiji 28nm, sollte das nicht weit Energiesparsamer sein?

Nicht mit 1,2V bei 1600MHz.

Fury X benötigt 1,22V für 1050MHz: https://www.techpowerup.com/reviews/AMD/R9_Fury_X/35.html