PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Chaser187
2017-07-30, 18:53:29
Irgendeinen Deal wird es geben, aber Linus muss auch auf seinen guten Ruf achten, wenn er Vega jetzt hyped und es ist eine Gurke, dann wird er unglauwürdig.

Er hat nichts darüber gesagt wie die performance ist. Wenn sie scheisse ist, ist es doch nicht sein Problem...

d2kx
2017-07-30, 18:59:25
Echte Frage: Ist Linus ein Marketing-Junge von AMD? Bei Ryzen war er die ganze Zeit zu sehen, Threadripper, Rant gegen Skylake X und nun Vega. Wobei ich seine Videos echt gerne sehe. :confused:

Linus arbeitet für NVIDIA, das weiß doch jeder:

CMTUZtF27kA

Ich gehe von einem Deal aus. Exklusiv-Interviews und Infos (wie z.B. bei Polaris, TR und ähnlichem) gegen die Reichweite seiner Videos. Das ist eine Win Win Situation ohne das Geld direkt fließen muss.

Linus hats die Exklusivität bzw. die ersten Infos/Bilder, AMD das Publikum.

Genau so ist es. Linus ist irgendwo zwischen Technik & Unterhaltung, in meinen Augen eine großartige Mischung. Ich bin ein großer Fan von ihm. Natürlich ersetzt er kein ComputerBase, Golem, PCGH und AnandTech.

Er hat eine sehr große Reichweite und ist natürlich über Exclusives sehr dankbar, wie auch AMD sehr dankbar für seine Videos sind.

Linus war dazu vor einigen Tagen im AMD HQ in Sunnyvale: https://twitter.com/LinusTech/status/890375859592232960

Hast du eine Idee, warum es keinen Livestream gibt und nur ein aufgezeichnetes Video am Tag danach?

Ich weiß es nicht, aber ich gehe davon aus, dass man der Fachpresse die Möglichkeit geben möchte, eigene Artikel zu verfassen und am Montag zu veröffentlichen. Aber das ist nur Spekulation meinerseits.

Troyan
2017-07-30, 19:01:48
Er wird von AMD eingekauft, um AMD Produkte zu promoten. Seine "Reviews" über AMD-Produkte und die der Konkurrenz kann man damit in der Pfanne rauchen. Wäre er deutscher, müssten über solche Videos "Gesponsort durch Produktplazierung" stehen.

Aber das ist eher ein Thema für den "Onlinejournalismus" Thread als hier.

N0Thing
2017-07-30, 19:03:38
Ich weiß es nicht, aber ich gehe davon aus, dass man der Fachpresse die Möglichkeit geben möchte, eigene Artikel zu verfassen und am Montag zu veröffentlichen. Aber das ist nur Spekulation meinerseits.

Das ergibt Sinn. War das bei Polaris und Ryzen auch schon so?

Timbaloo
2017-07-30, 19:04:53
Ack. Der Typ ist einfach eine Laberbacke, hüben wie drüben. Erschreckend, dass der hier tatsächlich als Referenz aufgeführt wird.

N0Thing
2017-07-30, 19:10:41
Er wird von AMD eingekauft, um AMD Produkte zu promoten. Seine "Reviews" über AMD-Produkte und die der Konkurrenz kann man damit in der Pfanne rauchen. Wäre er deutscher, müssten über solche Videos "Gesponsort durch Produktplazierung" stehen.

Aber das ist eher ein Thema für den "Onlinejournalismus" Thread als hier.

Die ganzen positiven Reviews über Nvidia sind also auch nur gekauft und gesponsort? Wieder was gelernt. :rolleyes:

Ack. Der Typ ist einfach eine Laberbacke, hüben wie drüben. Erschreckend, dass der hier tatsächlich als Referenz aufgeführt wird.

Wo wird er denn als Referenz aufgeführt? Er hat die Karten in einem Video präsentiert und man konnte sich abseits von den anderen Photos ein (bewegtes) Bild von der Karte machen. Inhaltlich hat er sich überhaupt nicht zu der Karte geäußert.

PrivateCeralion
2017-07-30, 19:11:28
Er wird von AMD eingekauft, um AMD Produkte zu promoten. Seine "Reviews" über AMD-Produkte und die der Konkurrenz kann man damit in der Pfanne rauchen. Wäre er deutscher, müssten über solche Videos "Gesponsort durch Produktplazierung" stehen.

Aber das ist eher ein Thema für den "Onlinejournalismus" Thread als hier.


Hat er bei den Videos von der CES sogar gemacht. Wenn man drauf klickt steht da: Enthält bezahlte Promotionen.

Menace
2017-07-30, 19:11:34
@Troyan: Danke, das wollte ich wissen. Quelle auch bitte anfügen.

d2kx
2017-07-30, 19:18:26
Ack. Der Typ ist einfach eine Laberbacke

Schreibt der User auf Seite 488...

Erschreckend, dass der hier tatsächlich als Referenz aufgeführt wird.

Er hält eine der ersten RX Vega in der Hand, selbstverständlich darf man sich deshalb auf ihn beziehen. Oder worauf wolltest du hinaus?

Dass er im Video euphorisch ist könnte, und das ist natürlich total weit hergeholt, auch damit zusammenhängen, dass er sich auf seiner ersten, eigenen LinusTechTips Convention/Meetup (LTX 2017) befindet. Das ist alles. Er hat mit keinem Ton irgendwelche erfundenen Behauptungen zur Performance/Preis aufgestellt, falls er da selber überhaupt etwas näheres weiß.

Hat er bei den Videos von der CES sogar gemacht. Wenn man drauf klickt steht da: Enthält bezahlte Promotionen.

Das macht er bis heute, wenn es direkt gesponsorte Videos gegen Bezahlung sind, z.B. vor 11 Tagen durch Intel:

PRCPokomp5U

Screemer
2017-07-30, 19:25:53
Ich lach mich tot. Nach dem Linus jetzt Jahre lang Intel und nvidia gefeiert hat, ist er jetzt urplötzlich ein AMD shill. :up: könnte ja nicht an vorzeigbaren Produkten liegen und nem beschissenen launch (skylake-x) auf der anderen Seite liegen :ugly: das was intel auf der computex abgeliefert hat war ne reine shitshow und da war Linus nicht der einzige der da kein gutes Wort für übrig hatte.

Menace
2017-07-30, 19:39:14
Ok, er macht Werbung für intel und weißt sogar darauf hin; damit kann ich leben. Er macht Werbung für nvidia und für AMD. Dann kommt also letztlich wieder Neutralität raus. :biggrin:

Was ich bisher gesehen habe, begründet er seine Meinung recht fundiert; besser als die meisten Forumsmitglieder hier.

Apropos: Troyan, Du denkst an die Quelle, warum man seine Reviews in der Pfanne hauen bzw. in der Pfeife rauchen kann? Auch wenn Du als neutraler Schreiber hier bekannt bist, sollte man seine Aussagen ja schon belegen. :smile:

Sind eigentlich irgendwelche hier bekannte Schreiber (Raff, Igor, y33h@) vor Ort?

Dorn
2017-07-30, 19:46:24
Apropos: Troyan, Du denkst an die Quelle, warum man seine Reviews in der Pfanne hauen bzw. in der Pfeife rauchen kann? Auch wenn Du als neutraler Schreiber hier bekannt bist, sollte man seine Aussagen ja schon belegen. :smile:

Ich warte auch noch auf eine Quelle von Troyan aber da kann man wohl lange warten...

=Floi=
2017-07-30, 19:54:37
Ok, er macht Werbung für intel und weißt sogar darauf hin;

denke es gibt international auch regelungen für gekaufte videos. Ein video kann so viel geld bringen, wie der ganze kanal im monat abwirft!
Solche videos sind wesentlich lukrativer.

Troyan
2017-07-30, 20:09:22
Apropos: Troyan, Du denkst an die Quelle, warum man seine Reviews in der Pfanne hauen bzw. in der Pfeife rauchen kann? Auch wenn Du als neutraler Schreiber hier bekannt bist, sollte man seine Aussagen ja schon belegen. :smile:


Wie gesagt, anderer Thread. Daher kurz: Er hat exklusiven Zugriff auf Vega erhalten und exklusiv das Recht bekommen das Review-Sample zu unboxen. Hier entsteht eine wirtschaftliche Beziehung zwischen zwei Entitäten, die natürlich keine Trennung mehr zwischen "Werbung" und "Neutralität" zulässt.

Er kann RX Vega ja testen: Gegen die alten AMD Produkte. Mit Freesync-Monitore. Oder ob RX Vega für 4K mit 60FPS ausreichend ist.

Ansonsten hier ein bisschen "Uncut" von seinem Unboxing: https://www.youtube.com/watch?v=_3-8a4rymAI

gmb
2017-07-30, 20:11:25
Ich lach mich tot. Nach dem Linus jetzt Jahre lang Intel und nvidia gefeiert hat, ist er jetzt urplötzlich ein AMD shill. :up: könnte ja nicht an vorzeigbaren Produkten liegen und nem beschissenen launch (skylake-x) auf der anderen Seite liegen :ugly: das was intel auf der computex abgeliefert hat war ne reine shitshow und da war Linus nicht der einzige der da kein gutes Wort für übrig hatte.


Dann müsste er AMD genauso verreißen, wenn sich die schlechten Performance Eindrücke gepaart mit hoher Leistungsaufnahme und der sehr langen Verzögerung bewahrheiten sollte. Wenn er das dann wirklich macht, dann wäre es Ok. Es sieht aber eher so aus, als wenn er AMD gut darstellen möchte, er also in der Hinsicht nicht neutral ist.

Schnoesel
2017-07-30, 20:14:24
Ihr 2 seid zu geil. Hat er irgendwelche Aussagen bzgl. Performance gemacht? Hatte er überhaupt die Möglichkeit sich die Performance anzusehen? Er hat nen Karton aufgemacht. That's it.
Nach der Definition wäre Pcper das Haus und Hofblatt Nvidias.

PS: Was mach ich hier eigentlich. War klar dass hier die Trolle wieder zusammenkommen. Sry my fault.

BlacKi
2017-07-30, 20:15:10
Ich lach mich tot. Nach dem Linus jetzt Jahre lang Intel und nvidia gefeiert hat, ist er jetzt urplötzlich ein AMD shill. :up: könnte ja nicht an vorzeigbaren Produkten liegen und nem beschissenen launch (skylake-x) auf der anderen Seite liegen :ugly: das was intel auf der computex abgeliefert hat war ne reine shitshow und da war Linus nicht der einzige der da kein gutes Wort für übrig hatte.
auf dem event kann er garnicht objektiv/kritisch auf das produkt eingehen. was er dort oben treibt ist fanservice. das hat er früher gemacht und macht es heute noch viel mehr. er verdient damit geld. mehr muss man dazu doch nicht sagen?

N0Thing
2017-07-30, 20:24:19
Jedes Unboxing-Video ist Fanservice. Daß jetzt bestimmte Leute daraus ein alles was der Unboxer sagt ist gekauft Ding machen, ist einfach nur Vorab Spin Doctor Bla Bla. Mit Dreck werfen, bevor es einen Grund gibt, nachher kann man das immer noch ignorieren, wenn der Unboxer sich doch kritisch äußern sollte.

Screemer
2017-07-30, 20:24:35
Geht die kasperei jetzt weiter? Ich glaub die bans waren zwei Tage zu kurz.

Erbsenkönig
2017-07-30, 20:41:22
Noch 8h! Morgen Früh dann beim Frühstück hier erst einmal 20 Seiten durchgehen :freak:

Tarkin
2017-07-30, 20:42:17
Offizielle Bilder des RX PCB

http://www.legitreviews.com/official-amd-radeon-rx-vega-product-pictures-released_196579

Das ist ein anderes PCB als das der FE. Eine Phase weniger.

Siehe http://media.gamersnexus.net/media/k2/items/cache/2cdbed97a3252cdb5d2744be0d0f852f_XL.jpg

crux2005
2017-07-30, 20:50:50
Offizielle Bilder des RX PCB

http://www.legitreviews.com/official-amd-radeon-rx-vega-product-pictures-released_196579

Das ist ein anderes PCB als das der FE. Eine Phase weniger.

Siehe http://media.gamersnexus.net/media/k2/items/cache/2cdbed97a3252cdb5d2744be0d0f852f_XL.jpg

Das PCB ist ziemlich sicher das gleiche. Es fehlt nur eine Phase.

Cyphermaster
2017-07-30, 20:54:27
Phase (https://de.wikipedia.org/wiki/Phase). Nicht Fase (https://de.wikipedia.org/wiki/Fase).

Ansonsten: Reißt euch zusammen, Leute, sonst gibt's Urlaub notfalls auch über die Siggraph hinweg.

scully1234
2017-07-30, 20:55:33
Das ist doch gerendertes Material des PCBs

yamamoto_dc
2017-07-30, 21:41:14
Er hat nichts darüber gesagt wie die performance ist. Wenn sie scheisse ist, ist es doch nicht sein Problem...

Ich zititere mal aus dem video (6:01):

"I promise this would be absolutely unbelivable, you would be blown away."

Leider kam vorher ein Schnitt, ist nicht ganz sicher worauf es sich bezieht.

Egal, die eigentliche Frage ist doch, schaffen wir die 500 Seiten bevor Vega gelauncht ist. :biggrin:

Menace
2017-07-30, 21:46:13
Er hat exklusiven Zugriff auf Vega erhalten und exklusiv das Recht bekommen das Review-Sample zu unboxen. Hier entsteht eine wirtschaftliche Beziehung zwischen zwei Entitäten, die natürlich keine Trennung mehr zwischen "Werbung" und "Neutralität" zulässt.


Aber Exklusivmaterial bekommen die meisten Medien ja auch. Eine wirtschaftliche Abhängigkeit gibt es immer, wenn man sein Zeug sich nicht selber einkauft bzw. beschafft. Das ist noch kein Grund, dass er absichtlich Falschaussagen trifft. Ansonsten müsste man das (was ja viele hier gerne machen) ja auch pcgh, CB und anderen vorwerfen.

Eines muss man AMD zugute halten. Sie sorgen für massig clicks hier im Forum. :biggrin:

Zergra
2017-07-30, 21:46:38
Ich zititere mal aus dem video (6:01):

"I promise this would be absolutely unbelivable, you would be blown away."

Leider kam vorher ein Schnitt, ist nicht ganz sicher worauf es sich bezieht.
Geht bestimmt um den Luftstrom vom Radial Kühler ! :freak:

Bin echt gespannt was da morgen früh kommt. Aber irgendwie denke ich nicht das wir alle zufrieden sein werden.

Screemer
2017-07-30, 21:50:46
Aber irgendwie denke ich nicht das wir alle zufrieden sein werden.
eine seite ganz sicher nicht. 1080 leistung für 500€ will niemand noch mal und 1080ti leistung für 500€ wäre für ti käufer zum heulen.

Agent117
2017-07-30, 22:18:07
Vega Air wird mit den geleakten Taktraten wohl dann zumindest sehr leise zu Werke gehen wenn der Kühler 1:1 dem der FE entspricht. Das eine Stromsparfeature noch aktiviert und der Binning Rasterizer könnten da noch weiter helfen.

SamLombardo
2017-07-30, 22:19:41
eine seite ganz sicher nicht. 1080 leistung für 500€ will niemand noch mal und 1080ti leistung für 500€ wäre für ti käufer zum heulen.
Ach wo. Ich hab vor vier Monaten eine Custom 1080ti (MSI) für 750€ gekauft. Sollte Vega jetzt diese Leistung für 500€ bringen, stört mich das überhaupt nicht. Ich habe seit vier Monaten Spaß an der Ti und zocke flüssig in 4K. Heulen muss man da als Ti Käufer sicher nicht. Im Gegenteil, ich hoffe sogar, dass Vega die Ti schlägt - Das würde nVidia ein bisschen Dampf machen, nicht nur bzgl. der Preise, sondern auch bzgl. Launch Termin von Volta. Jeder NV "Fan" sollte auf ein gutes Vega Ergebnis hoffen!

Digidi
2017-07-30, 22:24:33
So wie es aussieht gab es ja schon ein Breefing der Presse gestern Abend? Hä

https://twitter.com/Radeon

Linmoum
2017-07-30, 22:30:23
Ja, daher auch u.a. die tweets von hardwarecanucks.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11443927&postcount=9668

Isen
2017-07-30, 22:30:36
Tüllich.
Der ein oder andere konnte bestimmt ein Exemplar mitnehmen...
Grob ~2 Tage zum Testen, daher auch kein Live Stream, damit die Presse bissle mehr Zeit bekommt und exklusiv berichten dürfen bzw. AMD nicht vorweg rennt. Wenns so ist, nobel, auch wenn die ~2 Tage ziemlich wenig sind.

TheGood
2017-07-30, 22:30:43
OK, dann hoffe ich eben imemr noch dass die VEGA irgendwie zwischen 1080 und 1080TI rauskommt. Das ist immer noch gut und dazu würde der Preis auch passen. Die Balance Oreis/Leistung muss einfach stimmen. Sonst wird's nichts. MIt dem Nachfolger kann man dann Nvidia im Highend wieder angreifen. ES ist ja sowieso eher unrealistisch dass ich nach Jahren einfach mal so wieder einen Spitzenchip raushaue, auch das muss man sich erarbeiten.

Nichtsdestotrotz ist der Release doch super spannend. Leider kann eben genau das jetzt auch zum Problem werden. Vielelciht wissen wir in ein paar stundne ja mehr :)

Troyan
2017-07-30, 22:36:18
Tüllich.
Der ein oder andere konnte bestimmt ein Exemplar mitnehmen...
Grob ~2 Tage zum Testen, daher auch kein Live Stream, damit die Presse bissle mehr Zeit bekommt und exklusiv berichten dürfen bzw. AMD nicht vorweg rennt. Wenns so ist, nobel, auch wenn die ~2 Tage ziemlich wenig sind.

Äh, die veröffentlichen das Video 24h später. Und keiner macht Tests auf der Siggraph. :D

Morgen wird es Powerpoint-Folien und Videos von AMD geben. Test dann bestimmt am 10.08 mit Threadripper zusammen.

Isen
2017-07-30, 22:37:54
Was dichtest du bitte wieder irgendwelchen Dünnpfiff da rein?
Geh in deine Grüne Höhle und gib Ruhe.

CB, war irgendwo Anwesend und hat eigene Bilder geschossen.
https://www.computerbase.de/2017-07/radeon-rx-vega-fotos/

Nicht das erste mal, dass CB von diese Art Veranstaltungen, entsprechende Geräte mitnehmen durfte, zuletzt Ryzen - und deswegen keine Probleme mit dem Zoll hatte, wo zu Beginn einige klagten.

maximus_hertus
2017-07-30, 22:55:26
Äh, die veröffentlichen das Video 24h später. Und keiner macht Tests auf der Siggraph. :D

Morgen wird es Powerpoint-Folien und Videos von AMD geben. Test dann bestimmt am 10.08 mit Threadripper zusammen.

Der 10.08. isz für einen Vega Launch ausgeschlossen. Man kann ja vom AMD MArketing halten was man will, aber so dämlich sind sie nicht. Selbst die gleiche Woche wie Threadripper wäre wohl suboptimal. Im Prinzip gibt es folgende Optionen:

Do, 3.8. => wohl etwas zu knapp
Di, 8.8. => könnte passen
Do, 10.8. => Threadripper-Launch, kein Vega Launch am gleichen Tag
Di/Do, 15.8./17.8. => möglich, aber fast schon zu lange Zeit zwischen Verteilung der Hardware und Testberichte - Stichwort Leaks

G3cko
2017-07-30, 23:00:36
Wir hatten doch spekuliert, dass Vega mit Ryzen über die infinity fabric kommuniziert. Ein nahezu gemeinsamer launch ist da schon sinnvoll. Auch kann man dann wieder sagen: seht her AMD ist zurück. Bei CPUs als auch CPUs. Denke das ist für AMD enorm wichtig.

Der gleiche Tag wird es aber wohl nicht sein. Die treiberfeatures hat man ja bereits separat vorgeschoben. Sonst wird es zu viel.

Menace
2017-07-30, 23:06:45
Falls Vega schlechter wird, als erwartet. Vor Threadripper launchen, da dann das positivere jünger ist und vielleicht die schlechte Nachrichten etwas verdrängt.

d2kx
2017-07-30, 23:18:23
Ich weiß nicht, wann es Benchmarks von der Fachpresse geben wird (0-2 Wochen?), ich weiß nur, dass meine ComputerBase Pro und Golem Abos nicht die Überstunden entschädigen, die die Redaktionen mit Sicherheit wieder leisten werden müssen ;(

Menace
2017-07-30, 23:24:57
@d2kx: Danke für den Hinweis. Wann immer es Überstunden gibt, kamen Treiber nachgeplätschert. Scheint wirklich ein kompliziertes neues Design zu sein.

Zergra
2017-07-30, 23:56:48
Wenn Vega 64 500€ kostet, bei GTX 1080 Leistung +. Werde ich die einfach bestellen, habe jetzt einen FreeSync Monitor gekauft und die 290x ist am Ende bei 4k. Je nach P/L auch die 56CU Version.

@ Menace, für mich liest sich das eher , als wenn er das vermutet.

Troyan
2017-07-31, 00:42:10
Videocardz hat ein Bild der MSI-Referenz-Karte: https://videocardz.com/newz/msi-radeon-rx-vega-64-pictured

Und die Taktraten von vorhin sind wohl bestätigt.

LSSJBroly
2017-07-31, 02:56:47
Erste Slides + Performance + Preise
https://videocardz.com/71430/amd-announces-radeon-rx-vega-64-series

RX Vega 56 - 399$ (210 Watt TDP)
RX Vega 64 - 499$ (295 Watt TDP)
RX Vega 64 Limited - 599$ (295 Watt TDP)
RX Vega 64 Liquid - 699$ (345 Watt TDP)

Locuza
2017-07-31, 03:14:06
Vom Link oben:
https://a.disquscdn.com/get?url=https%3A%2F%2Fstatic.gamespot.com%2Fuploads%2Fscale_large%2F1568%2F15683 559%2F3266508-performance.png&key=tCVcalt7W9c11-I57rgryg&w=800&h=340

Das sieht wie ein würdiger R600 Nachfolger aus.

iuno
2017-07-31, 03:17:53
Angeblich bessere MinFPS (wie angeblich bei Fiji vs. GM200) und Ryzen Bundle als Argumente? :usad:
Die 56 ist wenigstens relativ guenstig, vielleicht ok gegen 1070.

Pixelmonk
2017-07-31, 03:42:45
Wieso geben sie zusätzlich nicht die Durchschnitts-fps an?
Nur die minimal-fps-range in Spielen angeben die der RX Vega gut liegen strahlt nicht viel Stärke aus.

Zusätzlich vergleicht man sie noch gegen eine über zwei Jahre alte 980 Ti. Wieso nicht gegen die GTX 1080 TI?
Macht den Eindruck dass sie was zu verbergen haben.

Wenn sie die GTX 1080 schlagen würden, dann hätten sie das garantiert beworben.
Somit kann man davon ausgehen dass die RX Vega vergleichbar mit der FE ist und es keinen Wundertreiber gibt.

Atma
2017-07-31, 03:47:09
Das sieht wie ein würdiger R600 Nachfolger aus.
Auch wenn es noch nicht mal 4 Uhr ist: Made my Day ;D

DrFreaK666
2017-07-31, 04:01:18
Wenn das stimmt, dann ist es wohl ein Hardwarefehler, oder was meint ihr?

Isen
2017-07-31, 04:07:33
https://a.disquscdn.com/get?url=http%3A%2F%2Fcdn.wccftech.com%2Fwp-content%2Fuploads%2F2017%2F07%2FAMD-Vega-Nano.jpg&key=Bu5FLSC2a0bPf5LzB0DyuA&w=800&h=446

Atma
2017-07-31, 04:39:45
Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/

crux2005
2017-07-31, 04:40:19
So unerwartet... :freak:

Aus der CB Preview:

https://i.gyazo.com/d5538f428111d1ed9cbc0c118477f85c.png

;D

Wake
2017-07-31, 04:56:55
Welche Detailstufe wurde da denn bei der Fury X gebencht, dass die nicht in 4K absauft?
Finde bei CB keine "Endnotes"?

980 Ti/1080 wohl in DX12 bei BF1, dann klappts auch mit den 26 min fps ... .

Außerdem: Haben nicht alle G-Sync 4K-Monitore derzeit (bis der ASUS-Bomber kommt und die Geldbörsen sprengt) eine 30-60 Hz Range, sodass dort wenigstens deren LFC greift?

Komische Vorstellung echt.

Pixelmonk
2017-07-31, 05:01:22
In den Benchmarks haben sie die Wassergekühlte RX Vega 64 mit maximalen Taktraten verwendet. Die GTX 1080 war Referenz-design.
Trotzdem schlagen sie die GTX 1080 nur in einigen Spielen die der Vega gut liegen in bei den Min-fps.

Das wird wohl die schlechteste neue GPU-Architektur aller Zeiten.

scully1234
2017-07-31, 05:03:04
In den Benchmarks haben sie die Wassergekühlte RX Vega 64 mit maximalen Taktraten verwendet. .


Wo nachzulesen?

crux2005
2017-07-31, 05:06:52
In den Benchmarks haben sie die Wassergekühlte RX Vega 64 mit maximalen Taktraten verwendet. Die GTX 1080 war Referenz-design.
Trotzdem schlagen sie die GTX 1080 nur in einigen Spielen die der Vega gut liegen in bei den Min-fps.

Das wird wohl die schlechteste neue GPU-Architektur aller Zeiten.

Laut Golem sind das Ergebnisse einer RX Vega Air Cooled/Limited Edition:
https://www.golem.de/news/grafikkarte-radeon-rx-vega-64-kostet-500-us-dollar-1707-129195.html

Isen
2017-07-31, 05:10:30
Jo. Kann mich der PC Markt mal... ich kauf ne Konsole.
Auf der anderen Seite wirste abgezockt und auf der anderen kriegste ne Möhre vorgesetzt.
Macht euch beiden dreien ruhig den PC Markt kaputt.

Wake
2017-07-31, 05:13:08
Alle slides zur Präsentation: https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/5.html

Steht nur "Radeon RX Vega 64", nix von LC.

Auch interessant von AT (http://www.anandtech.com/show/11680/radeon-rx-vega-unveiled-amd-announecs-499-rx-vega-64-399-rx-vega-56-launching-in-august/3):
"The short answer is that no, the DSBR is not enabled in Vega FE’s current drivers. Whereas we have been told to expect it with the RX Vega launch. AMD is being careful not to make too many promises here – the performance and power impact of the DSBR vary wildly with the software used – but it means that the RX Vega will have a bit more going on than the Vega FE at launch."


Und nun wissen wir auch warum der transistor count so hoch ist:

Talking to AMD’s engineers, what especially surprised me is where the bulk of those transistors went; the single largest consumer of the additional 3.9B transistors was spent on designing the chip to clock much higher than Fiji. Vega 10 can reach 1.7GHz, whereas Fiji couldn’t do much more than 1.05GHz. Additional transistors are needed to add pipeline stages at various points or build in latency hiding mechanisms, as electrons can only move so far on a single clock cycle; this is something we’ve seen in NVIDIA’s Pascal, not to mention countless CPU designs. Still, what it means is that those 3.9B transistors are serving a very important performance purpose: allowing AMD to clock the card high enough to see significant performance gains over Fiji.

scully1234
2017-07-31, 05:15:08
Auf der anderen Seite wirste abgezockt und auf der anderen kriegste ne Möhre vorgesetzt.


Wo wirst du denn abgezockt?

Die wollen für den 300Watt Ofen doch auch GTX1080 Preise

Isen
2017-07-31, 05:17:24
Bei NV wirste abgezockt. Bei AMD die Möhre, faulig bis man sie dann endlich mal erreicht hat.
Dann kriegst du als PCler nur noch Software-Müll vor die Füße geschmissen und darfst dafür dann auch noch schön blechen.. ne ne... keine Lust mehr. PC kann mich mal.
Kauf mir gleich ne olle günstige Karte die 6 Monitore packt, nur noch zum arbeiten. Das wars dann für mich. Den scheiß hab ich endgültig satt.

Pixelmonk
2017-07-31, 05:19:19
Wo nachzulesen?

AMD is using the flagship Radeon RX Vega 64 Liquid cooled models in most of the benchmarks and this variant has the highest clock speeds of all. In performance tests, AMD used a reference GTX 1080 against their RX Vega 64 Liquid edition and most of the results were on par with the GeForce solution.

http://wccftech.com/amd-radeon-rx-vega-64-56-official-slide-performance-specs-price-leak/


Mit vorsichtig zu genießen, aber ich finde es plausible dass sie die schnellste Karte verwenden.

scully1234
2017-07-31, 05:23:19
mmmh jetzt fragt sich wer richtig liegt

wenn es wirklich die H2O war für die Slides, dann gute Nacht und kein Morgen

PrivateCeralion
2017-07-31, 05:25:54
Wo wirst du denn abgezockt?

“Die wollen für den 300Watt Ofen doch auch GTX1080 Preise
die GPU-Power verringert sich von 265 Watt auf 220 Watt. Im Falle der Radeon RX Vega 56 sinkt der Takt auf 1.156/1.471 MHz und die TGP auf 165 Watt“

crux2005
2017-07-31, 05:27:07
mmmh jetzt fragt sich wer richtig liegt

wenn es wirklich die H2O war für die Slides, dann gute Nacht und kein Morgen

AMD sagt nichts über LC und Golem auch nicht. Würde das also eher glauben.

https://i.gyazo.com/b6d636106ce6ed69814d78fbc6e4ba26.png

Wake
2017-07-31, 05:28:20
Deckt sich zumindest nicht mit den Endnotes für die relevanten Folien 33-38 der min fps-Tests, WTFTech halt.

Evtl. meinen sie die ultra wide-Benchmarks welche wohl aus einem anderen Foliensatz stammen:
https://i.redd.it/69to03ihducz.jpg

TheGood
2017-07-31, 05:40:02
Hm, leider hat AMD wohl den Knoten nicht gefunden und konnte ihn auch nicht lösen. Das ist schade.
Dass es der Megawurf wird, war nicht zu erwarten. Allerdings enttäuscht die Karte in der jetzigen Form dann irgendwie doch, wenn man die zugrundeliegenden Rohdaten heranzieht. Da muss doch einfach viel viel mehr rauskommen :(

Jetzt müssen wir mal echte Tests abwarten und sehen was es für ein Fazit gibt. Mit den Radeon Packs die AMD fährt machen Sie imho aber ein am Ende wohl doch faires günstiges Angebot. Ziel -> Preis/Leistung muss passen und für diejenigen die den STromverbrauch anprangern, können dafür gerne dann mehr Geld ausgeben :)

Interessant ist aber, dass der DSBR auf VEGA FE tatsächlich nicht lief, aber dann doch nur einen minimalen Impact haben soll. Die Frage ist, wo da die Effizienz hin ist. Es bleibt also offen ob man doch noch später per Treiber was nachliefern kann...

RoughNeck
2017-07-31, 05:43:07
Die Doom Folie ist von der LC oder AIR VEGA?

Wake
2017-07-31, 05:47:45
Keine Ahnung woher die überhaupt ist, keine Quellenangabe auf /r/amd .
Der deutlichere Abstand zur 1080 FE könnte von der LC-Version mit höheren Taktraten stammen.

Periscope stream des Events (https://www.pscp.tv/OptimistechR/1djGXLmbXaNGZ)

ASUS ROG Strix RX Vega64 (OC Edition) via PCPer (https://www.pcper.com/news/Graphics-Cards/ASUS-Announces-Four-RX-Vega-64-GPUs-Headlined-ROG-STRIX-RX-Vega-64-OC-Edition)
https://www.pcper.com/files/news/2017-07-30/asus-rog-strix-vega-64.jpg
DVI lives on ;)

scully1234
2017-07-31, 05:58:19
Interessant ist aber, dass der DSBR auf VEGA FE tatsächlich nicht lief, aber dann doch nur einen minimalen Impact haben soll. Die Frage ist, wo da die Effizienz hin ist. Es bleibt also offen ob man doch noch später per Treiber was nachliefern kann...

#Wenck wird kommen ;)

TheGood
2017-07-31, 06:03:45
Hm vielleicht ist aber tatsächlich die Radeon Vega 56 ein sehr gutes Angebot mit guten Kompromiss bei preis Leistung / STromverbrauch usw. Die werde ich persönlich im Auge behalten.

Edit: bzw. dann doch wieder die NANO, sofern diese preislich nicht wieder völlig überteuert ist.

TheGood
2017-07-31, 06:05:45
#Wenck wird kommen ;)
Ne daran ist ja nicht mehr zu glauben. Ausserdem gibt's ja schon einen ersten Impact, da er jetzt aktiv ist.
MEhr als 5% mit viel Glück und Ausnahmen 10% ist nicht drin. Und das sicher auch nicht durchweg sondern nur bei bestimmten Games.

MikePayne
2017-07-31, 06:12:56
Die Vega 56 ist interessant, könnte auf Dauer meine RX 480 ablösen.
Der Rest ist leider zu teuer plus Stromverbrauch jenseits von gut und böse.

Nvidia bleibt mit der GTX 1080 TI vorne.

Next GPU plz :ugly:

TheGood
2017-07-31, 06:13:48
Aus anandtech.com

And for the purposes of AMD’s product stack, the company is treating the vanilla Vega 64 as the “baseline” card for the Vega 64 family. This means that the company’s performance projections are based on this card, and not the higher-clocked liquid cooled card.


Also jeder schreibt etwas anderes zu den performancetests von AMD :) Ob das wohl so gewollt war um weiterhin die Leute zu verwirren....

Edit: Da fällt mir ein, dass diese Performancetest bei den REviews wahrscheinlich dann wieder schlechter ausfallen werden...

TheGood
2017-07-31, 06:24:36
Zu den offiziellen Preisen:

Geforce 1070: 379 $
Geforce 1080: 599 $

Vega 56 air: 399 $
Vega 64 air: 499$

Vega 56 müsste die 1070 eigentlich deutlich schlagen. Die Karte wird für mich immer interessanter.

Adam D.
2017-07-31, 06:36:02
So, ich warte jetzt mal auf den ersten Post von Horn12, wann denn der Uber-Wunder-Treiber kommt, damit ich mein Zeitfenster für den Kauf eingrenzen kann :usad:

Das Positive: in relevanten Preisregionen kriegen wir offenbar brauchbare Konkurrenz.

Das Negative: AMD braucht dafür ein Riesen-Die und HBM2, da schrumpft die Marge, was für zukünftige Entwicklungen bestimmt nicht förderlich ist. Das Teil ist ein Jahr zu spät und schafft bei den Rohdaten gerade die 1080? Das ist kein gutes Omen für die Zukunft des GPU-Marktes. Hoffen wir, dass irgendwas kaputt ist und mit der nächsten Iteration dann der Durchbruch gelingt.

Korfox
2017-07-31, 06:51:14
Sehe ich das richtig, dass sich grob abschätzen lässt, dass RX nochmal ~10% auf die FE drauflegt?
Das wäre dann ja im Rahmen (recht genau in der Mitte) der realistischen Erwartungen...

Mortalvision
2017-07-31, 06:52:31
Kaputt? Das ist leider ein Flop, und sowas habe ich definitiv schon laaaange nicht mehr gesehen...

+10% auf die FE 1080 wohl nur mit Cherrypicking.

Preislich ok dürfte die V56 werden. 400€ und zwischen 1070 und 1080, besonders ab WQHD.

Den Wundertreiber wirds wohl nimmer geben ;D

Troyan
2017-07-31, 06:58:08
Sieht wie nVidias CineFX aus: Langsam, zu spät, stromhungrig - und FP16 wird es richten.

Naja. AMDs Glück ist die Miningphase und dadurch überhöhte Grafikkartenpreise. Ansonsten ist das schon eine Enttäuschung. 12,5 Milliarden Transistoren und dann eine Leistung von GP104. Und die hohe Taktung kommt mit einem immensen Stromverbrauch einher...

AtTheDriveIn
2017-07-31, 06:59:42
Sieht schlecht aus für uns Kunden. Nvidia weiter ohne echte Konkurrenz im Höchstsegment. Leider zu erwarten gewesen, bei den Entwicklung der letzten Wochen. Leider ist AMD mit dem Produkt ein Jahr zu spät.

Was die Folie mit der Weinflasche und Vega Logo wohl suggerieren soll...?

Loeschzwerg
2017-07-31, 07:01:53
1x Vega 64 Air Limited für mich :cool: Auf eine neue Nano warte ich diesmal nicht, da bevorzuge ich das DHE Design.

Die Leistung scheint, wie erwartet, nicht so toll zu werden... aber auf NV zu wechseln und dann auch den Monitor tauschen zu müssen, kommt nicht in Frage.

Pirx
2017-07-31, 07:06:18
Tja echt schade und sehr bedenklich, daß AMD tatsächlich technologisch nichts besseres auf die Beine stellen kann.

Kartenlehrling
2017-07-31, 07:14:20
https://pbs.twimg.com/media/DGCFhQ-UQAAMFQS.jpg

Das soll ja die RXvega Nano sein, 64 oder 56?

Loeschzwerg
2017-07-31, 07:20:01
Würde ich auf 64 tippen, wie schon bei der R9 Nano. Takt/Spannung müssen entsprechend niedrig sein um nicht das Power Budget zu sprengen, da geht man dann lieber in die Breite.

Seit wann ist Sweeney eigentlich AMD Fan? :D

horn 12
2017-07-31, 07:22:30
Hi da bin ich!
Echt enttäuschend und wo bleibt der Treiber!
Ist nicht mal schneller als die FE und vielleicht weiss d2kx was aber so kann man die Karte nicht an den Mann bringen. Da klemmt etwas noch gewaltig.
Versagt AMD erneut und bringt die Spieleleistung der ansonsten extrem hohen Rohleistung immer noch nicht auf die Straße.

Leonidas
2017-07-31, 07:26:10
mmmh jetzt fragt sich wer richtig liegt

wenn es wirklich die H2O war für die Slides, dann gute Nacht und kein Morgen


Laut diverser Berichterstattung die 64-Air. Aber ob die alle auch einfach nur annehmen? Sichere Bestätigung derzeit Fehlanzeige.





Periscope stream des Events (https://www.pscp.tv/OptimistechR/1djGXLmbXaNGZ)


Leider nix mehr da.




MEhr als 5% mit viel Glück und Ausnahmen 10% ist nicht drin. Und das sicher auch nicht durchweg sondern nur bei bestimmten Games.


Mit der entscheidenden Fußnote: Über die Jahre werden diese 5-10% kommen. Alle Treiberverbesserungen, die jetzt noch kommen, sind eine langfristige Angelegenheit.



Nachts stehe ich nur dann auf, wenn NBA Playoffs laufen ;)


/OT
Exakt so hat das auch zu sein!

Wobei ich zu meiner Schande gestehe, das zuletzt als Download am jeweils nächsten Abend gesehen zu haben, weil die Qualität des Downloads einfach besser war (HD @ 60Hz). Aber es war eine große Hürde, allen möglichen Ergebnismeldungen aus dem Weg zu gehen ;)

dildo4u
2017-07-31, 07:29:22
Hi da bin ich!
Echt enttäuschend und wo bleibt der Treiber!
Ist nicht mal schneller als die FE und vielleicht weiss d2kx was aber so kann man die Karte nicht an den Mann bringen. Da klemmt etwas noch gewaltig.
Versagt AMD erneut und bringt die Spieleleistung der ansonsten extrem hohen Rohleistung immer noch nicht auf die Straße.
Das sind alles Peak Angaben,die Leistung kann deutlich geringer sein wenn die Karte warm wird.Die Basis Taktraten sind extrem gering.

uweskw
2017-07-31, 07:30:55
Tja AMD, gut gemeint und schlecht gemacht. Zu viel vorgenommen und wohl genau deswegen zuwenig umgesetzt. Verzettelt nennt man das. Ich verstehe da nur das Herumgeeier der Marketingabteilung nicht.
Warum sagt man nicht klar: "wir sind zwar Leistungsmäßig nicht da gelandet wo wir wollten, dafür werden wir ein hervorragendes Preis-Leistungs-Verhältnis und modernste Features bieten. Freut Euch auf Vega!"

Greetz
US

Troyan
2017-07-31, 07:34:34
http://i.imgur.com/svc5kwd.png
https://forums.anandtech.com/threads/amd-vega-fe-and-rx-benchmarks-updated-july-28-with-vega-10-11-12-20.2508928/page-68#post-39008624

Korvaun
2017-07-31, 07:35:00
Das ist alles? Nach all der Zeit, nach all den "Verbesserungen" der Architektur? Mit HBM2, Chipfläche größer als GP102 und 250-375W Verbrauch?

Hardware MEGA-FAIL des Jahres!

AMD kann froh sein das sie jetzt Ryzen haben, ansonsten könnten sie dichtmachen...

Tarkin
2017-07-31, 07:38:03
typisch mal wieder die ersten Reaktionen von den üblichen Kandidaten. :rolleyes:

So wie ich das sehe, wird die AIR Version mit der 1080er gut mithalten können und die LC Version dürfte knapp unter TI Niveau liegen (mit Potential nach oben). Das gebotene ist für den ausgerufenen Preis absolut konkurrenzfähig.

Also das Geheule rund um dieses Launch ist wirklich lächerlich... schlechteste GPU ever... mhm... bestimmt :freak:

uweskw
2017-07-31, 07:44:29
Im Vergleich zur Fury 40% mehr Takt und 20% mehr Leistung. Da wäre ein blanker shrink wohl besser gewesen.
Greetz
US

Korvaun
2017-07-31, 07:45:19
Ja die Preise sind gut, der Leistung angemessen. Aber es war 100% sicher nicht AMDs Ziel einen Konkurrenten für die GTX1080 herauszubringen, über 1 Jahr später, mit den bekannten weiteren Nachteilen...

Klar, für Kunden die nur auf Preis/Leistung schauen, was ohne Zweifel die meisten sind, ist das ganz ok. Aber wir sind hier im 3dCenter und nicht im MediaMarkt-Forum... von daher ganz klar MEGA-FAIL Vega!

Tarkin
2017-07-31, 07:45:20
Im Vergleich zur Fury 40% mehr Takt und 20% mehr Leistung. Da wäre ein blanker shrink wohl besser gewesen.
Greetz
US

es sind 30-35% mehr Leistung zum aktuellen Stand, nicht 20% :rolleyes:

(und alle Zahlen dürften von der AIR Version stammen die LC Version wird nochmal 10% drauflegen)

dildo4u
2017-07-31, 07:46:08
http://i.imgur.com/svc5kwd.png
https://forums.anandtech.com/threads/amd-vega-fe-and-rx-benchmarks-updated-july-28-with-vega-10-11-12-20.2508928/page-68#post-39008624
Also 30% zu Fury x,der Wert scheint realistisch.

MadManniMan
2017-07-31, 07:49:57
Also 30% zu Fury x,der Wert scheint realistisch.

Und das nach einem Wechsel der Fertigung von 28 nm auf 14 nm?

AMD please ...

Dorn
2017-07-31, 07:53:04
Im Vergleich zur Fury 40% mehr Takt und 20% mehr Leistung. Da wäre ein blanker shrink wohl besser gewesen.
Greetz
US
Echt Peinlich was hier AMD abliefert, ein Jahr später und was hat es gebracht...nix. 100+ Watt mehr Verbrauch als eine 1080GTX :facepalm:. Sorry Leute ich bleibe bei nvidia. Bei Navi gibts wieder ne Chance für AMD.

Leonidas
2017-07-31, 07:53:27
Fury wäre auch nach Shrink nicht auf 1600 MHz zu bringen. Das Design limitiert da einfach. So gesehen hat AMD ein was wirklich erreicht: Ein Hochtakt-Design zu bringen.

Aber es bleibt ansonsten arg ineffizient. Und anstatt mehr Takt hätte man diese Chipfläche auch für mehr Einheien verbraten können, Polaris 10 x2 hätte es auch gebracht und wäre letztes Jahr schon einsatzfähig gewesen.

Hasenpfote
2017-07-31, 07:57:31
Sehr schön!
Endlich eine Alternative zu 1070 und 1080.
Und dank dem Stromverbrauch werden die Miner davon auch die Finger lassen.

@Korvaun:Nur weil man hier im 3dcenter-Forum ist, heißt es, dass sich jeder eine 1080ti leisten kann oder will oder braucht.

Opprobrium
2017-07-31, 07:58:25
Interessant ist die Aussage seitens Anandtech, dass die Idee mit den Radeon Packs wohl auch dazu dienen soll die Cryptominer fernzuhalten. Zumindest Ryan Smith (http://www.anandtech.com/show/11680/radeon-rx-vega-unveiled-amd-announecs-499-rx-vega-64-399-rx-vega-56-launching-in-august/2) geht daher davon aus, dass es erstmal weniger Retail und mehr Bundle Karten geben wird.

Im Grunde keine schlechte Idee, und wenn man es geschickt anstellt und die Hardware auch braucht (oder zum fast vollen Preis wieder verkaufen kann) kriegt man die Karten auch recht günstig. Allerdings hätte ich mir etwas mehr Flexibilität gewünscht, man ist ja doch recht beschränkt. Vor allem bei dem Monitor. Und auch non-X Ryzens wären nett. Aber logisch, AMD zahlt die 300$ Hardware Kosten siche rnicht komplett aus eigener Tasche.

Gleichzeitig binden Sie damit Leute eventuell an FreeSync und ihre eigene CPU Infrastruktur.

Mal schauen, wie das in Deutschland funktioniert. Und wie die Nano wird :cool:

HOT
2017-07-31, 07:59:21
Man hat sich mal wieder bei der Software krass überschätzt mMn. Man bekommt die Hardware nicht von Anfang an auf ein Niveau, dass man von einem runden Leistungsverhalten sprechen könnte. Das kann man schon daran sehen, dass man den DSBR bei einigen Titeln manuell deaktivieren musste ... das Produkt reift also beim Kunden, das ist die Aussage. Ich wette, dass die Hardware durchaus in der Lage wäre mit der 1080Ti mitzuhalten (bei mehr Stromverbrauch, klar), aber die Software ist noch in einem derart frühen Stadium, dass man sich schlicht die 1080 als Gegner aussuchen musste...

Fury wäre auch nach Shrink nicht auf 1600 MHz zu bringen. Das Design limitiert da einfach. So gesehen hat AMD ein was wirklich erreicht: Ein Hochtakt-Design zu bringen.

Aber es bleibt ansonsten arg ineffizient. Und anstatt mehr Takt hätte man diese Chipfläche auch für mehr Einheien verbraten können, Polaris 10 x2 hätte es auch gebracht und wäre letztes Jahr schon einsatzfähig gewesen.

Ich denke, dass du da komplett daneben liegst. Polaris wäre jetzt nicht schlechter gewesen, aber wenn man das mal über 2-3 Jahre sieht ist Polaris sicher nicht konkurrenzfähig. Lass die die Treiber mal optimiert haben und den DSBR und HBCC mal großflächig im Einsatz haben, dann sieht die Sache anders aus. Das hätte Polaris bei dann moderner Software nicht gepackt. Jetzt im Moment wäre Polaris natürlich kein Nachteil gewesen, aber Vega ist ja mehr als das jetzige Produkt, das ist die architektonische Grundlage für bestimmt 5 Jahre. Insofern ist es tatsächlich ein R600 - RV770 und Evergreen sind ebenfalls Abkömmlinge des R600. Ich glaube aber, dass der Vergleich hinkt, da hier vor allem die Software einfach nicht fertig geworden ist. Die haben mMn solange gebraucht den grundsätzlichen IP9-Treiber zu schreiben, dass für Optimierungen schlicht keine Zeit mehr blieb. Das wird sicher noch 1/4 Jahr dauern, bis man da auf einem akzeptablen Niveau ist, man wollte aber so lange den Launch nicht verschieben.

Zudem ist der Preispunkt auch verdächtig (auch da ist deine Argumentation in den News völlig daneben mMn), denn Vega ist vergleichsweise teuer. AMD hätte, wenn die Performance wirklich final so wäre, die Dinger niemals auf dem Preisniveau der 1080 und 1070 starten können, die hätte schlicht keiner gekauft. Man hätte die Preise, wie bei Zen, erheblich niedriger ansetzen müssen. Das haben sie nicht getan. Du kannst nicht nach einem Jahr Monopol auf dem Preisniveau des Monopolisten ansetzen, das funktioniert einfach nicht, du musst mindestens ein Produkt darunter bleiben.

Adam D.
2017-07-31, 07:59:40
typisch mal wieder die ersten Reaktionen von den üblichen Kandidaten. :rolleyes:

So wie ich das sehe, wird die AIR Version mit der 1080er gut mithalten können und die LC Version dürfte knapp unter TI Niveau liegen (mit Potential nach oben). Das gebotene ist für den ausgerufenen Preis absolut konkurrenzfähig.

Also das Geheule rund um dieses Launch ist wirklich lächerlich... schlechteste GPU ever... mhm... bestimmt :freak:
Den Preis hat doch niemand kritisiert, aber er war bestimmt nicht so angepeilt. Dass man mit einem Jahr Verspätung und dem Package den 320mm2-Pendant von Nvidia angreift, ist natürlich as planned :rolleyes:

Und das letzte Mal, als ich geschaut hab, lag die Ti in 4k 35% vor der 1080 - wie das 10% höherer Takt bei der LC-Variante (und wir von Taktskalierung noch nichts wissen) hier ein knappes Ergebnis erwarten lassen, weißt auch nur du.

Timbaloo
2017-07-31, 08:00:43
Wann ist denn nun mit echten Reviews zu rechnen?

Edit: Nevermind, 14. August.

Screemer
2017-07-31, 08:03:07
http://i.imgur.com/svc5kwd.png
https://forums.anandtech.com/threads/amd-vega-fe-and-rx-benchmarks-updated-july-28-with-vega-10-11-12-20.2508928/page-68#post-39008624
Das wäre taktnormiert weniger Leistung als Fiji. Well, well.

Troyan
2017-07-31, 08:03:42
Laut Computerbase sollen die Kartem am 14.08 erhältlich sein. Also wird es Reviews in spätesten 14 Tagen geben.

Das beste an Vega ist der Rabatt auf Vega zum Start. Ist auch eine Leistung auf dem "Investortag" von "Margin" zu reden und dann gleich Mal für Monitore, Mainboards, CPUs und Spiele den selben Preis zu erlassen. :lol:

AffenJack
2017-07-31, 08:04:22
Im Vergleich zur Fury 40% mehr Takt und 20% mehr Leistung. Da wäre ein blanker shrink wohl besser gewesen.
Greetz
US

Das Problem gegenüber Fury ist einfach die Bandbreitenlimitierung. 40% mehr Takt bringen dir nix, wenn du da einfach fest steckst und weniger zur Verfügung hast als die Fury und je nach Spiel reicht der DSBR gerademal dafür aus um das Bandbreitenminus durch 2 Stacks auszugleichen:

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-35.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/6.html

Im Durchschnitt hat Vega einfach gerade mal ~10% mehr Bandbreite als Fury zur Verfügung. Die Bytes per Frame Savings kann man zwar wohl nicht 100% vergleichen, aber in etwa sollte das zeigen wieviel das einfach bringt. Wobei da auch noch die erweiterte Color Compression von Polaris dazu kommt. Aber insgesamt anscheinend zu wenig. Beim Frontend weiß man auch nicht so recht wie das nun alles skaliert.

Loeschzwerg
2017-07-31, 08:11:01
Wie d2kx es schon angekündigt hatte, es sind auf dem AMD YT Kanal etliche neue Videos hinzugekommen. Viel Marketing, aber auch ein wenig Erklärung zu neuen Features.

https://www.youtube.com/user/amd/videos

Screemer
2017-07-31, 08:11:17
Btw. Vega packs gibts nur in: UNITED STATES / MEXICO / CANADA / AUSTRALIA / SINGAPORE

Edit: bezieht sich wohl "nur" auf den Rabatt beim Kauf mit dem 34" aus monitor. Rest für mich noch offen.

w0mbat
2017-07-31, 08:11:20
Satz mit X... Da haben die GTX 1080 Käufer der ersten Stunde wohl alles richtig gemacht. Schade. Ich warte jetzt auf eine GTX 2070.

Loeschzwerg
2017-07-31, 08:15:05
Btw. Vega packs gibts nur in: UNITED STATES / MEXICO / CANADA / AUSTRALIA / SINGAPORE

Die Game-Codes aber schon, oder?

Linmoum
2017-07-31, 08:19:37
Zu spät für die gebotene Performance. Zu langsam. Zu stromhungrig. Zu teuer, zumindest die 64-Variante.<br />
<br />
Das muss von der Fachpresse die volle Breitseite und unangenehme Fragen geben. Vor allem, warum es taktbereinigt nur +-Fiji-Niveau ist und wofür die 484mm^2 eigentlich draufgegangen sind. Dickes Ei hat man sich da geschossen, bei dem es nichts zu beschönigen gibt.

Daredevil
2017-07-31, 08:20:29
Poor Volta ist was anderes.... aber anscheinend wohl schöne Bang for Buck Karten, fein AMD. :)
Wenn es auf 1080 Niveau und in manchen Szenarien drüber geht, gibts doch nichts zu meckern.

Computerbase:

AMD gibt für die Spiele auch genaue Messwerte an. Demnach schlägt die Radeon RX Vega 64 in Ultra HD die GeForce GTX 1080 in Battlefield 1 locker. Der Vorsprung beträgt gute 21 Prozent. In Call of Duty: Infinite Warfare ist die AMD-Grafikkarte gar mehr als doppelt so schnell – dort gibt es aber offenbar ein Problem für die Nvidia-Grafikkarte. In Civilization VI und Far Cry Primal gibt es einen Gleichstand, während die GeForce GTX 1080 in Hitman um neun Prozent und in Overwatch um zwölf Prozent schneller ist.

Ebenso interessant ist der Vergleich zur Radeon R9 Fury X. in Battlefield 1 ist die Radeon RX Vega 64 47 Prozent zügiger unterwegs, während es in Overwatch nur 19 Prozent sind. Offenbar gibt es in den Spielen also vielleicht noch Treiber-Limitierungen bei der neuen Architektur.

Schlammsau
2017-07-31, 08:22:31
Ich hab so langsam das Gefühl, AMD verschiebt seinen Fokus von Gaming hin zu Pro.

SamLombardo
2017-07-31, 08:22:34
Sehr schön!
Endlich eine Alternative zu 1070 und 1080.
Und dank dem Stromverbrauch werden die Miner davon auch die Finger lassen.
Ist das dein Ernst? Das war also das, was du von der neuen AMD Architektur erwartet hast? Oder war das Galgenhumor, den ich nicht erkannt habe?

...und wie schon geschrieben, jegliche "Schadenfreude" liegt mir als derzeitiger NV User mehr als fern. Mir gefällt nvidias Gebahren auch nicht wirklich, und ich hätte mir (als 1080Ti Besitzer) einen Vega gewünscht, der diese wegfegt! Ich spiele in 4K und brauche die Leistung. Deswegen war die Ti für mich die richtige Entscheidung, keine Frage. Aber gerade deswegen habe ich auf Konkurrenz im HighEnd Segment gehofft - und nicht auf eine 1070/80 Konkurrenz mit (möglicherweise?) besserem Preis Leistungs Verhältnis. Enttäuschend, gerade im Bezug auf die neue Architektur. Wer was anderes behauptet, macht sich was vor, meiner Meinung nach. DIESES Ergebnis kann niemals die Erwartung selbst der größten AMD Fans gewesen sein:(

Screemer
2017-07-31, 08:22:41
Die Game-Codes aber schon, oder?
Die Aussage von oben bezieht sich wohl doch nur auf den $200 Rabatt mit dem 34" aus monitor. Die anderen Bündels könnte es schon geben. Bin noch nicht ganz sicher.

Zu spät für die gebotene Performance. Zu langsam. Zu stromhungrig. Zu teuer, zumindest die 64-Variante.<br />
<br />
Das muss von der Fachpresse die volle Breitseite und unangenehme Fragen geben. Vor allem, warum es taktbereinigt nur +-Fiji-Niveau ist und wofür die 484mm^2 eigentlich draufgegangen sind. Dickes Ei hat man sich da geschossen, bei dem es nichts zu beschönigen gibt.
Die Frage wurde doch schon beantwortet. Lies den thread und mach kein copy'n'paste bon irgendwelchen anderen orten...

@samlombardo: die nvidia-"Fans" hätten die Karte ja nur dafür gebraucht, dass sich nvidias preispunkte reduzieren. Gekauft würde trotz dem wieder grün. Damit ist dem Markt nicht geholfen.

Fragman
2017-07-31, 08:25:36
war so abzusehen, auf einen wundertreiber konnte man nicht hoffen.
die frage ist allerdings, weshalb amd immernoch die hohe theoretische rechenleistung angibt, obwohl vega davon 20-30 prozent nicht erreichen kann?

man kommt sich halt eben doch veralbert vor. wieso sollte man die amd karte kaufen? die kleinste wird wahrscheinlich ok sein, aber die anderen sind ein witz. das verhaeltnis perf/watt ist mies, dazu kommt der preis.

aber sie werdens wohl preislich nicht anders machen koennen, ohne probleme zu bekommen.
das dumme ist nur, das nv bei volta, wenn er denn kommt, preislich wieder machen koennen was sie wollen.

akuji13
2017-07-31, 08:26:22
$200 Rabatt auf einen Monitor der neben seinen anderen Macken im FS Betrieb eigentlich nicht benutzbar ist...da muss man seinen Hut ziehen vor der Marketing Abteilung.

HOT
2017-07-31, 08:27:18
Im Klartext heißt das einfach, dass Volta noch mal 100€ drauflegen wird. Es wird ja trotzdem gekauft.

Das Problem gegenüber Fury ist einfach die Bandbreitenlimitierung. 40% mehr Takt bringen dir nix, wenn du da einfach fest steckst und weniger zur Verfügung hast als die Fury und je nach Spiel reicht der DSBR gerademal dafür aus um das Bandbreitenminus durch 2 Stacks auszugleichen:

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-35.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/6.html

Im Durchschnitt hat Vega einfach gerade mal ~10% mehr Bandbreite als Fury zur Verfügung. Die Bytes per Frame Savings kann man zwar wohl nicht 100% vergleichen, aber in etwa sollte das zeigen wieviel das einfach bringt. Wobei da auch noch die erweiterte Color Compression von Polaris dazu kommt. Aber insgesamt anscheinend zu wenig. Beim Frontend weiß man auch nicht so recht wie das nun alles skaliert.

NV gibt Einsparungsraten von 62%+ durch diese Technik an. Was haben die da gemacht? Das Teil ist auf jeden Fall immer noch Bandbreitenlimitiert. Das bringt dann 10% mehr Power im Durchschnitt und Ende. Das ist natürlich erheblich zu wenig. Hoffen wir, dass man da mit Softwareoptimierungen noch einiges rausholen kann. Soll ja auch nicht so einfach sein. Kann aber wie gesagt auch sein, dass da ein schwerwiegender Fehler drin ist, der nicht durch ein Metalspin behoben werden kann. Ich bin seit Release der FE von dieser Theorie überzeugt.

Tarkin
2017-07-31, 08:28:11
Ich hab so langsam das Gefühl, AMD verschiebt seinen Fokus von Gaming hin zu Pro.

klar, da wird die Kohle verdient die dringend benötigt wird - das gezeigt 1 Petaflop Serverrack und die Radeon Pro SSG sind ziemlich beeindruckende Teile! Wichtig und richtig, dass sich AMD darauf fokussiert, sonst enteilt nVidia hier komplett und es wird immer schwieriger bei den normalen Consumer Karten mit der grünen Lederjacke zu konkurrieren.

Die sind ja nicht blöde. Nächstes Jahr gibts dann aber hoffentlich auch mit Navi wieder eine richtige Ultra-High-End Gaming Karte. Die RX Vega ist (wenn auch für den Preis OK) eine mehr oder weniger große Enttäuschung für die Gaming Community...

Linmoum
2017-07-31, 08:30:55
Di Frage wurde doch schon beantwortet. Lies den thread und mach kein copy'n'paste bon irgendwelchen anderen orten...
Die Frage kann gar nicht beantwortet worden sein, weil es keinen Sinn ergibt. Auch die Bandbreite erklärt das alleine bei weitem nicht.

Troyan
2017-07-31, 08:32:18
Was ist so besonderes am 1/2 Petaflop Serverrack? nVidia erreicht die "Halbe Genauigkeit" mit 16 GV100 Karten gegenüber den 80 Vega Karten.

Das ist doch nur "sugar coating" für Investors.

Gimmick
2017-07-31, 08:33:09
Ich seh das Problem weiterhin beim Treiber.
Heisst jetzt nicht, dass es besser wird. Das Problem bei AMD sind schon seit Jahren die Treiber :freak:



NV gibt Einsparungsraten von 62%+ durch diese Technik an. Was haben die da gemacht?

Realistische Werte angegeben? ;D

Screemer
2017-07-31, 08:34:56
Die Frage kann gar nicht beantwortet worden sein, weil es keinen Sinn ergibt. Auch die Bandbreite erklärt das alleine bei weitem nicht.
dann solltest du vielleicht dein hauptaugenmerk mehr in richtung lesen anstatt bashen verschieben...

Talking to AMD’s engineers, what especially surprised me is where the bulk of those transistors went; the single largest consumer of the additional 3.9B transistors was spent on designing the chip to clock much higher than Fiji. Vega 10 can reach 1.7GHz, whereas Fiji couldn’t do much more than 1.05GHz. Additional transistors are needed to add pipeline stages at various points or build in latency hiding mechanisms, as electrons can only move so far on a single clock cycle; this is something we’ve seen in NVIDIA’s Pascal, not to mention countless CPU designs. Still, what it means is that those 3.9B transistors are serving a very important performance purpose: allowing AMD to clock the card high enough to see significant performance gains over Fiji.

Hübie
2017-07-31, 08:36:33
Ist das dein Ernst? Das war also das, was du von der neuen AMD Architektur erwartet hast? Oder war das Galgenhumor, den ich nicht erkannt habe?

...und wie schon geschrieben, jegliche "Schadenfreude" liegt mir als derzeitiger NV User mehr als fern. Mir gefällt nvidias Gebahren auch nicht wirklich, und ich hätte mir (als 1080Ti Besitzer) einen Vega gewünscht, der diese wegfegt! Ich spiele in 4K und brauche die Leistung. Deswegen war die Ti für mich die richtige Entscheidung, keine Frage. Aber gerade deswegen habe ich auf Konkurrenz im HighEnd Segment gehofft - und nicht auf eine 1070/80 Konkurrenz mit (möglicherweise?) besserem Preis Leistungs Verhältnis. Enttäuschend, gerade im Bezug auf die neue Architektur. Wer was anderes behauptet, macht sich was vor, meiner Meinung nach. DIESES Ergebnis kann niemals die Erwartung selbst der größten AMD Fans gewesen sein:(

Da geh ich zu 100% mit. Es ist wirklich schade. Über die Zeit wird man die 1080 überall hinter sich lassen, aber aktuell ist es wohl kein völlig rundes Produkt und dass trotz der ziemlich offensichtlichen Verspätung (wer erinnert sich noch an die Bilder die von einem Notebook abfotografiert wurden auf dem man Vega in genau dieser Form sah?).
Nun ja. Ich behalte einfach meine 980 Ti. Die ist so schnell dass eine 1080, und somit auch Vega, obsolet ist. :tongue:

pixeljetstream
2017-07-31, 08:37:35
Das kann man schon daran sehen, dass man den DSBR bei einigen Titeln manuell deaktivieren musste ...

Es ist nicht unüblich solche internen Einstellungen den Anforderungen anzupassen, die Chips haben immer nen Schwung an Performanceeinstellungen die vom Treiber angepasst werden können, das ist halt interne Funktionsweise und nicht öffentlich, über die gesamte Produktpalette und Applikationen gesehen ist tiled caching bei nvidia auch nicht immer an und das feature wurde ja auch mehr beiläufig spät erwähnt.
Komischer ist der Unterschied zur FE in dem Bereich (wenn es denn stimmt), und dass sie das Fass mit Volta aufmachten aber okay Marketing halt und vermutlich wurden ihre eigenen Projektionen halt von irgendwas entschieden gestört. So lange sind sie mit den GPUs auch nicht auf GloFo statt TSMC, das ist vielleicht auch nen Faktor (und evtl konnten sie aus Polaris nicht soviel mitnehmen...).

Jeder hat halt seine Baustellen und wenn ich den Aufwand bei uns sehe, hätte mich gewundert wenn AMD das so ohne weiteres hinbekommen in ihren etwas eingeschränkteren Jahren. Nächste Runde haben sie Ryzen sei Dank sicher wieder etwas mehr Ressourcen.

dildo4u
2017-07-31, 08:37:47
Die Frage kann gar nicht beantwortet worden sein, weil es keinen Sinn ergibt. Auch die Bandbreite erklärt das alleine bei weitem nicht.
Die Bandbreite scheint das gut zu erklären,Fury X war in hoher Auflösung gerade wegen der Bandbreite immer stark und kacke in 1080p.Man kann also die Architektur massiv Verbessern und massig Transistoren verbraten damit sie in 1080p deutlich besser läuft,was aber ohne zusätzliche Bandbreite in 4k komplett verpufft.

THEaaron
2017-07-31, 08:39:09
Ist das dein Ernst? Das war also das, was du von der neuen AMD Architektur erwartet hast? Oder war das Galgenhumor, den ich nicht erkannt habe?

...und wie schon geschrieben, jegliche "Schadenfreude" liegt mir als derzeitiger NV User mehr als fern. Mir gefällt nvidias Gebahren auch nicht wirklich, und ich hätte mir (als 1080Ti Besitzer) einen Vega gewünscht, der diese wegfegt! Ich spiele in 4K und brauche die Leistung. Deswegen war die Ti für mich die richtige Entscheidung, keine Frage. Aber gerade deswegen habe ich auf Konkurrenz im HighEnd Segment gehofft - und nicht auf eine 1070/80 Konkurrenz mit (möglicherweise?) besserem Preis Leistungs Verhältnis. Enttäuschend, gerade im Bezug auf die neue Architektur. Wer was anderes behauptet, macht sich was vor, meiner Meinung nach. DIESES Ergebnis kann niemals die Erwartung selbst der größten AMD Fans gewesen sein:(

Deine Erwartungen sind da jetzt aber auch nicht realistisch. Hätte mich überaus gewundert wenn da viel mehr bei rumgekommen wäre, als das, was wir letzten Endes zu Gesicht bekommen haben.

Die typische Generationslücke ist halt immer irgendwie da.

SamLombardo
2017-07-31, 08:40:14
@samlombardo: die nvidia-"Fans" hätten die Karte ja nur dafür gebraucht, dass sich nvidias preispunkte reduzieren. Gekauft würde trotz dem wieder grün. Damit ist dem Markt nicht geholfen.
Klar, das haben "Fans" so an sich, die kriegst du nicht - auf beiden Seiten. :wink:.Es gibt aber auch - ich nenne sie mal anspruchsvolle User - die eine schnelle Grafikkarte wollen, egal was drauf steht. Und die gern mal AMD kaufen würden. Was bleibt denen denn zur Zeit anderes übrig, als ....wieder mal....Nvidia ? Echt schade.

Hübie
2017-07-31, 08:46:06
Deine Erwartungen sind da jetzt aber auch nicht realistisch. Hätte mich überaus gewundert wenn da viel mehr bei rumgekommen wäre, als das, was wir letzten Endes zu Gesicht bekommen haben.

Die typische Generationslücke ist halt immer irgendwie da.

Moment mal: mehr ALUs, mixed precision, ähnliche Taktrate und genug Bandbreite lassen auf dem Papier einen GP102 als Vergleich zu. Also sind das eben keine unrealistischen Erwartungen.
Ich sagte schon vor langer Zeit dass man GP104 OC Leistung erwarten kann um nicht enttäuscht zu werden, aber dass dem am Ende auch wirklich so ist, erfreut mich sicher nicht. :wink:

Linmoum
2017-07-31, 08:49:01
dann solltest du vielleicht dein hauptaugenmerk mehr in richtung lesen anstatt bashen verschieben...
Keine Notwendigkeit, von bashen zu sprechen. Mit dieser Performance ist Vega schlicht ein Desaster, Punkt. Es bestreitet niemand, dass da möglich Gründe für vorliegen, aber da ist es dann eben wie bei Fiji: Rohleistung bringt dir nichts, wenn du sie nicht auf die Straße bekommst.

THEaaron
2017-07-31, 08:50:22
Moment mal: mehr ALUs, mixed precision, ähnliche Taktrate und genug Bandbreite lassen auf dem Papier einen GP102 als Vergleich zu. Also sind das eben keine unrealistischen Erwartungen.
Ich sagte schon vor langer Zeit dass man GP104 OC Leistung erwarten kann um nicht enttäuscht zu werden, aber dass dem am Ende auch wirklich so ist, erfreut mich sicher nicht. :wink:


Ja, ich spreche auch nur auf Grund von Erfahrungen der letzten Generationen. Der AMD Stempel bedeutete dabei zuletzt mindestens gleiche Power für 100w mehr Energie. ;D

Meine letzten Karten waren AMDs und mich hat schon der Unterschied von der 390 zur 970 bzgl Perf/Watt aufgeregt. Aber irgendwie will ich auch nicht von FreeSync weg, bzw sehe es noch weniger ein die nVidia Tax bei GSYNC zu zahlen.

Da muss ich mich einfach weiter geißeln. ¯\_(ツ)_/¯

Screemer
2017-07-31, 08:53:38
Keine Notwendigkeit, von bashen zu sprechen. Mit dieser Performance ist Vega schlicht ein Desaster, Punkt. Es bestreitet niemand, dass da möglich Gründe für vorliegen, aber da ist es dann eben wie bei Fiji: Rohleistung bringt dir nichts, wenn du sie nicht auf die Straße bekommst.
du hast gefragt wo die transistoren hin sind. die frage wurde eben beanwortet auch wenn du die antwort wohl nicht lesen willst. der rest ist imho erst mal rant.

btw. too little 'n' too late, ist hier durchaus angebracht.

dargo
2017-07-31, 08:53:38
Die Bandbreite scheint das gut zu erklären,Fury X war in hoher Auflösung gerade wegen der Bandbreite immer stark und kacke in 1080p.
Kompletter Unsinn. In Doom war Fiji auch in 1080p stark. Wenn Fiji in 1080p schlecht performte lags hauptsächlich an der CPU-/ bzw. API-Limitierung.

btw. Vega
Bin etwas enttäuscht. Es fehlen imho ca. 10-30% Leistung je nach Game. Irgendwas ist faul. Die ganzen neuen Features müssten Vega eigentlich stärker beschleunigen. Naja... mal sehen ob neuere Treiber noch paar Prozent hier und da bringen werden. Für mich steht jedenfalls fest RX Vega 56 ist mit 210W TDP das einzig interessante Produkt. Wenn es noch ein sehr gutes Angebot bis Ende des Jahres für ~350-380€ gibt schlage ich wohl zu, das muss dann bis Navi reichen. Natürlich eine leise Custom-Karte mit keinem hirnverbrannten PT-Limit. RX Vega 64 ist mit 295W TDP weit über dem Sweetspot für Lükü. Die einzige Frage die ich mir aktuell stelle... liefert RX Vega 56 die doppelte Leistung meiner alten R9 390? :uponder: Stromverbrauch ist nämlich exakt gleich. Wenn die RX Vega 56 den Takt von 1471Mhz in Games kaum halten kann wird es wohl eher auf "nur" +70-80% hinauslaufen.

RoughNeck
2017-07-31, 08:55:32
Finde es auch schade.
Ich hätte mir eine gekauft, alleine schon weil ich was neues zum herumspielen haben will. Aber das was da am ende rauskommt, ist nicht wirklich das was ich erwartet habe.

Wollte eigentlich einen AMD only Rechner, habe günstig einen R5 1600X geschossen, samt Board und RAM. Vielleicht können die ja noch was per Treiber richten, ansonsten ist es doch enttäuschend. Ein Fail ist es nicht aber ich habe mir mehr erhofft.

TheGood
2017-07-31, 08:59:27
Moment mal: mehr ALUs, mixed precision, ähnliche Taktrate und genug Bandbreite lassen auf dem Papier einen GP102 als Vergleich zu. Also sind das eben keine unrealistischen Erwartungen.
Ich sagte schon vor langer Zeit dass man GP104 OC Leistung erwarten kann um nicht enttäuscht zu werden, aber dass dem am Ende auch wirklich so ist, erfreut mich sicher nicht. :wink:

Natürlich lassen Sie den Vergleich zu, aber dass man Sie damit überflügelt war schon immer unrealistisch bzw. ein absolutes Best Case Szenario. Vor allem deshalb weil es seit mindestens zwei Jahren keine High End Lösung von AMD mehr gegeben hat und der Designansatz von AMD an irgendwas krankt. Die möglichen LÖsungen mit VEGA haben offensichtlich nicht das gebracht wie es erhofft war - mal wieder.
DAs Problem ist für das absolute High End braucht man einfach mehr Resourcen die nicht da sind bzw. nicht da waren. Inzwischen hat man ja wieder aufgerüstet und das lässt vielleicht für Navi hoffen oder sogar schon einen VEGA 11.

nairune
2017-07-31, 09:00:11
Vega 56 mit hochgeprügeltem HBM, sonst den Chip am sweet spot, wird denke ich kein schlechtes Paket. Im Schnitt etwas unter der 1080, aber über 1070 und für unter 400€ mit okayem Stromverbrauch. Findet sicher seine Abnehmer.

RoughNeck
2017-07-31, 09:01:52
Abnehmer hat AMD bis jetzt immer gefunden, da braucht sich keiner sorgen machen.
Ich finde es halt schade dass es bei den Grafiklösungen nicht hinhauen will, bei den CPUs ist der Knoten geplatzt.

dildo4u
2017-07-31, 09:02:01
Kompletter Unsinn. In Doom war Fiji auch in 1080p stark. Wenn Fiji in 1080p schlecht performte lags hauptsächlich an der CPU-/ bzw. API-Limitierung.


Warum bläst man dann die Geometrie Leistung auf kosten von massig Transistoren auf?Ein Schlauch Shooter muss natürlich nur relativ wenige Polygone darstellen,Tomb Raider's offene Level zeigen z.b ein anderes Bild.

http://abload.de/img/rotrdx12_2560x1440_ofjns39.png

HOT
2017-07-31, 09:03:22
Es ist nicht unüblich solche internen Einstellungen den Anforderungen anzupassen, die Chips haben immer nen Schwung an Performanceeinstellungen die vom Treiber angepasst werden können, das ist halt interne Funktionsweise und nicht öffentlich, über die gesamte Produktpalette und Applikationen gesehen ist tiled caching bei nvidia auch nicht immer an und das feature wurde ja auch mehr beiläufig spät erwähnt.
Komischer ist der Unterschied zur FE in dem Bereich (wenn es denn stimmt), und dass sie das Fass mit Volta aufmachten aber okay Marketing halt und vermutlich wurden ihre eigenen Projektionen halt von irgendwas entschieden gestört. So lange sind sie mit den GPUs auch nicht auf GloFo statt TSMC, das ist vielleicht auch nen Faktor (und evtl konnten sie aus Polaris nicht soviel mitnehmen...).

Jeder hat halt seine Baustellen und wenn ich den Aufwand bei uns sehe, hätte mich gewundert wenn AMD das so ohne weiteres hinbekommen in ihren etwas eingeschränkteren Jahren. Nächste Runde haben sie Ryzen sei Dank sicher wieder etwas mehr Ressourcen.

Schau dir die 1060 gegen P10 an. Die spart mindestens 30% Bandbreite und 20% Rechenleistung durchgängig. Ich glaube nicht, dass NV das tile cache rendering irgendwo deaktiviert...
Mickrige 10% bei Vega sind einfach zu wenig für so eine Neuerung. Entweder liegt tatsächlich ein Defekt vor oder der Treiber ist noch in einem sehr frühen Stadium. Ich denke, dass das Sollziel schon war, 30-50% Mehrleistung durch den neuen Raserizer auch zu erreichen, das wurde aber aus irgendeinem Grund verfehlt. Dann hätte die Leistung nämlich gepasst.

Hübie
2017-07-31, 09:03:46
Na ja wenigsten wissen wir nun was AMD als ultra-enthusiast market bezeichnet und anvisiert. So lang aber keine unabhängigen Tester, also schon mal keine YT Deppen, richtige Werte veröffentlichen sollte man sich mit absoluten Aussagen noch zurück halten.

Opprobrium
2017-07-31, 09:04:13
Kann mir durchaus vorstellen, dass Vega auch jetzt schon in einzelfällen, unter den richtigen Vorraussetzungen, an die 1080ti rankommt. Also das richtige Spiel mit der passenden API.

Bleibt nur die Frage ob Vega lange genug Teil des AMD Plans bleibt um in den nächsten Jahren durch Optimierungen weiter aufzuholen. Angesichts der APU Pläne kann man jedoch davonausgehen.

Nur warum sie immer so koste es was es wolle den Takt raufprügeln muss man nicht verstehen, Sweetspot lässt Grüßen. Wäre dochsicherlich für einige interessanter,wenn es eine Karte mit etwas weniger Performance, deutlich niedrigerem Verbrauch und dafür besser OC Ergebnisse gäbe...

Screemer
2017-07-31, 09:04:54
Warum bläst man dann die Geometrie Leistung auf kosten von massig Transistoren auf?Ein Schlauch Shooter muss natürlich nur relativ wenige Polygone darstellen,Tomb Raider's offene Level zeigen z.b ein anderes Bild.

http://abload.de/img/rotrdx12_2560x1440_ofjns39.png
kannst du dir mal abgewöhnen irgendwelche slides/bilder zu posten, ohnen ne quelle dafür anzugeben?

Digidi
2017-07-31, 09:05:21
So schlecht ist Vega gar nicht 98fps in Battelfield 1. Die 1080ti packt da auch nur 103 Fps
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-ti,4972-2.html
Und das ist die air version!

dargo
2017-07-31, 09:05:39
Da fällt mir gerade noch was ein. Alle RX Vega Karten haben doch die selbe Bandbreite oder täusche ich mich? Wenn das der Fall ist und DSBR tatsächlich nicht genug bringt wird die Skalierung von RX Vega 56 auf RX Vega 64 eher mies aussehen. Noch ein weiterer Grund (außer dem Preis und TDP) für RX Vega 56.

HOT
2017-07-31, 09:07:15
So schlecht ist Vega gar nicht 98fps in Battelfield 1. Die 1080ti packt da auch nur 103 Fps
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-ti,4972-2.html
Da gibt AMD auch über 30% Bandbreitenersparnis durch den DSBR an...

Pixelmonk
2017-07-31, 09:07:43
Bis die Benchmarks der RX Vega rauskommen kann man sich ja die Benchmarks der Vega FE angucken.

PC Games Hardware (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/) hat die Vega FE undervolted mit 1600 Mhz getestet. Die Leistung +~5% ist wohl der Wert auf den die Wassergekühlte RX Vega kommen wird.
In einem Benchmark (Dirt 4) kommt sie knapp an eine GTX 1080 TI (1582 Mhz) ran, in anderen (Assassin's Creed: Syndicate, Watch Dogs 2, GTA 5) fällt sie hinter die GTX 1070 zurück. Meistens ist sie hinter der GTX 1080 (1733 Mhz).

Anzahl der Benchmarks: 24 (DOOM, GTA 5 doppelt mit anderen Einstellungen)

Vor GTX 1080: 7
Hinter GTX 1080: 14
Hinter GTX 1070: 3

Beachten muss man aber dass man die GTX 1070/1080/Ti Karten mit besserer Kühlung auf über 2000 Mhz übertakten kann.

http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/

Digidi
2017-07-31, 09:07:46
Da gibt AMD auch über 30% Bandbreitenersparnis durch den DSBR an...

Bei BF4 nicht BF1

Palpatin
2017-07-31, 09:08:57
. Für mich steht jedenfalls fest RX Vega 56 ist mit 210W TDP das einzig interessante Produkt. Wenn es noch ein sehr gutes Angebot bis Ende des Jahres für ~350-380€ gibt schlage ich wohl zu, das muss dann bis Navi reichen.
So sieht es bei mir auch aus, könnt mir zwar noch vorstellen das AMD vor Navi noch einen VEGA done Right in 16nm mit GDDR 6 bringt der mit 2070/2080 mitschwimmen kann, den werde ich dann wohl auslassen. Mit RX 56 und Free Sync Moni bin ich die nächsten 2 Jahre für mich gut genung aufgestellt.

dargo
2017-07-31, 09:10:32
Nur warum sie immer so koste es was es wolle den Takt raufprügeln muss man nicht verstehen, Sweetspot lässt Grüßen. Wäre dochsicherlich für einige interessanter,wenn es eine Karte mit etwas weniger Performance, deutlich niedrigerem Verbrauch und dafür besser OC Ergebnisse gäbe...
Das wird die Nano sein. :)

So schlecht ist Vega gar nicht 98fps in Battelfield 1. Die 1080ti packt da auch nur 103 Fps
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-ti,4972-2.html
Und das ist die air version!
Afaik ist Nvidia in BF1 @DX12 bissel langsamer als @DX11. Sinnvoller fände ich Vergleiche zwischen beiden mit der schnellsten API für den jeweiligen IHV.

Menace
2017-07-31, 09:13:33
MEhr als 5% mit viel Glück und Ausnahmen 10% ist nicht drin. Und das sicher auch nicht durchweg sondern nur bei bestimmten Games.


Den Wundertreiber wirds wohl nimmer geben ;D

Ein Wundertreiber, der eine Vega vor die 1080Ti bringt wird es imho nicht geben. Aber
Apropos Treiber: Laut AMD sollen durch neue Treiber deutlich größere Performanceverbesserungen möglich sein als mit der älteren GCN-Generation. Während diese ausgereizt sei, stehe man bei Vega erst am Anfang in der Entwicklung und es sei noch viel Potenzial vorhanden. Wie lange die Entwicklung dafür benötigt, bleibt aber unklar.
Quelle: https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/2/



AMD kann froh sein das sie jetzt Ryzen haben, ansonsten könnten sie dichtmachen...

Drama, Baby, Drama!

Ich hab so langsam das Gefühl, AMD verschiebt seinen Fokus von Gaming hin zu Pro.

Wollte ja Lisa Su. Aber ist da das Hochfrequenzdesign wirklich die beste Lösung? Hat doch schon bei der CPU (Bulldozer) nicht funktioniert.

Was ich befürchte ist, dass man mal wieder einen Weg eingeschlagen hat, aus dem man erst in einigen Jahren rauskommt (vgl. Bulldozer -> Ryzen). Und dass die nur mäßige Architektur (wobei es ja mit anderen Speicher besser aussehen könnte, oder?) auch Auswirkungen auf die APU hat.

Wieso gibt es nichts genaueres zur Nano Version. Die einzige, die mich noch immer interessiert.

Dorn
2017-07-31, 09:19:22
Für mich steht jedenfalls fest RX Vega 56 ist mit 210W TDP das einzig interessante Produkt. Finde ich auch ob es gegen eine 1070 GTX reicht bezweifle ich jedoch stark.

dargo
2017-07-31, 09:20:41
Das Problem gegenüber Fury ist einfach die Bandbreitenlimitierung. 40% mehr Takt bringen dir nix, wenn du da einfach fest steckst und weniger zur Verfügung hast als die Fury und je nach Spiel reicht der DSBR gerademal dafür aus um das Bandbreitenminus durch 2 Stacks auszugleichen:

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-35.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/6.html

Im Durchschnitt hat Vega einfach gerade mal ~10% mehr Bandbreite als Fury zur Verfügung. Die Bytes per Frame Savings kann man zwar wohl nicht 100% vergleichen, aber in etwa sollte das zeigen wieviel das einfach bringt. Wobei da auch noch die erweiterte Color Compression von Polaris dazu kommt. Aber insgesamt anscheinend zu wenig. Beim Frontend weiß man auch nicht so recht wie das nun alles skaliert.
Mal eine Frage dazu... lässt sich das eventuell mit neueren Treibern weiter ausbauen oder ist es eine feste Größe?

Pirx
2017-07-31, 09:22:22
Wäre interessant zu erfahren, wie die Profikarten Vega SSG, Instinct MI25, WX 9100 zu bewerten sind.

Complicated
2017-07-31, 09:22:47
Ich denke, dass du da komplett daneben liegst. Polaris wäre jetzt nicht schlechter gewesen, aber wenn man das mal über 2-3 Jahre sieht ist Polaris sicher nicht konkurrenzfähig. Lass die die Treiber mal optimiert haben und den DSBR und HBCC mal großflächig im Einsatz haben, dann sieht die Sache anders aus.
Und das ist IMHO das ständige AMD-Problem. Es hängt mal wieder an der Software und die Hardware ist dann schön ausgelastet wenn die Konkurrenz schon wieder das nächste Spitzenprodukt mit Verbesserungen im Markt hat.

Die Verbesserungen durch DSBR finde ich persönlich enttäuschend und zu wenig. Nvidia hat einen größeren Sprung durch die Einführung des Features erreicht. Dass HBCC direkt auch 7% Mehrperformance bringen kann ohne im Speicherlimit zu liegen überrascht mich wiederum positiv.

So gesehen ist AMDs Vega-Projekt für den Augenblick zumindest ein halber ReinfallDem würde ich so zustimmen, zumindest aus technishcer Sicht. Es ist mal wieder die Software-Sparte wo es hinkt. Allerdings kann ich das bei den verfügbaren Ressourcen und den vielen Baustellen die AMD parallel bearbeitet hat zumindest nachvollziehen, auch wenn ich mir gewünscht hätte sie hätten Vega etwas mehr gepusht. Aber auch das ist nachvollziehbar, da Vega den geringsten Umsatz der dieses Jahr veröffentlichten Produkte stellen wird. Daher wohl auch hier als erstes zurück gestellt wurde wenn es eng wurde.

Wo AMD IMHO wiederum alles richtig macht ist die Preisgestaltung und ich kann mir vorstellen, dass die 56-Version ein Knaller bei den Reviews werden wird.

Die "Radeon Packs" finde ich sind ein sehr gutes Einstiegsangebot und gut durchdacht seitens des AMD-Marketings. Auch wenn vermutlich hier im Forum nur wenige in den kompletten Genuß der Vorteile kommen, da sie die meiste Hardware schon haben. Aber für User die noch keinen Freesync Monitor haben ist das ein Bombengeschäft, erst recht wenn man noch ein Board dazu möchte weil man auf eine AMD-Plattform umsteigen will. Hier werden wohl einige zuschlagen bei den Bundles, die auf eine moderne Plattform umsteigen. $ 300,- zu sparen beim Umstieg auf eine solche AMD-Plattform mit Ryzen bedeutet einen Preis von $ 99,- für das Vega56 Modell. AMD sollte hier nur schnellst möglich die Monitor-Auswahl erweitern, da nicht jeder a) 34" und b) einen "curved" Monitor möchte. Das schränkt die Zielgruppe unnötig ein, doch ist das sicherlich einer exklusiven Launchphase für Samsung geschuldet um die $ 200,- Rabatt zu erhalten.

Rechnet man das Zusammen würde das bedeuten ein Ryzen 1700X (340,- €)+MSI X370 Power Extrem (250,- €)+ Vega56 (399,- €)+DDR4 3000 16GB (+150,- €)+Netzteil (70,- €)= 1.059,- €
Abzgl. 300,- € ist das ein beinahe 30% Rabatt auf das gesamte System (ohne Gehäuse und der Einfachheit halber 1:1 $/€)

Also für 750,- € ein solches hochwertiges Gaming-System ist schon eine Ansage. Nun kann man auch die Roadshow mit den Blindtests besser nachvollziehen, da man sich auf diese "gefühlten" Ergebnisse jetzt beziehen wird als Preis-/Leistungs-Argument.

THEaaron
2017-07-31, 09:23:53
Finde ich auch ob es gegen eine 1070 GTX reicht bezweifle ich jedoch stark.

Schließe mich an.

Mein Setup für Endes des Jahres sollte der 8700k mit Vega sein. Jetzt bin ich mal gespannt wie sich das ganze bis dahin so entwickelt.

nairune
2017-07-31, 09:24:23
Die Leistung +~5% ist wohl der Wert auf den die Wassergekühlte RX Vega kommen wird.


Den Punkt dass TSBR bei Vega FE nun offiziell deaktiviert ist, beim RX Start aber nicht (zumindest nicht überall), ist bei dir angekommen?
Denke nicht, dass die benches 1:1 sein werden.

dargo
2017-07-31, 09:24:27
Finde ich auch ob es gegen eine 1070 GTX reicht bezweifle ich jedoch stark.
What? Du meinst RX Vega 56 würde nicht mal die GTX1070 erreichen? Das wäre dann mega peinlich. :D RX Vega 64 hat 20% mehr TFLOPs als RX Vega 56. Wegen dem "Bandbreitenproblem" erwarte ich beim ersteren aber höchstens 10% mehr Leistung.

AffenJack
2017-07-31, 09:31:13
Da fällt mir gerade noch was ein. Alle RX Vega Karten haben doch die selbe Bandbreite oder täusche ich mich? Wenn das der Fall ist und DSBR tatsächlich nicht genug bringt wird die Skalierung von RX Vega 56 auf RX Vega 64 eher mies aussehen. Noch ein weiterer Grund (außer dem Preis und TDP) für RX Vega 56.

Nein, die Vega56 hat nur 1,6Gb/s HBM2, also 410 Gb/s im Vergleich zu den 484 Gb/s bei der Vega64

http://www.anandtech.com/show/11680/radeon-rx-vega-unveiled-amd-announecs-499-rx-vega-64-399-rx-vega-56-launching-in-august

Mal eine Frage dazu... lässt sich das eventuell mit neueren Treibern weiter ausbauen oder ist es eine feste Größe?

Kein Plan, vielleicht kann man da noch was dran drehen, aber viel würde ich da jetzt nicht erwarten.

Pixelmonk
2017-07-31, 09:33:20
Den Punkt dass TSBR bei Vega FE nun offiziell deaktiviert ist, beim RX Start aber nicht (zumindest nicht überall), ist bei dir angekommen?
Denke nicht, dass die benches 1:1 sein werden.


Die GTX 1070/1080/TI kann man dafür noch um ~20% übertakten.
Das sollte den Gewinn durch TSBR mehr als ausgleichen.

Der PC Games Hardware Benchmark kommt der Vega FE noch entgegen (übertaktete Vega vs unübertaktete GTX).
Mit maximaler Übertaktung wird die RX Vega wohl noch weiter gegenüber der GTX zurückfallen.

Opprobrium
2017-07-31, 09:37:39
Rechnet man das Zusammen würde das bedeuten ein Ryzen 1700X (340,- €)+MSI X370 Power Extrem (250,- €)+ Vega56 (399,- €)+DDR4 3000 16GB (+150,- €)+Netzteil (70,- €)= 1.059,- €
Abzgl. 300,- € ist das ein beinahe 30% Rabatt auf das gesamte System (ohne Gehäuse und der Einfachheit halber 1:1 $/€)

Also für 750,- € ein solches hochwertiges Gaming-System ist schon eine Ansage. Nun kann man auch die Roadshow mit den Blindtests besser nachvollziehen, da man sich auf diese "gefühlten" Ergebnisse jetzt beziehen wird als Preis-/Leistungs-Argument.
Du hast den Monitor unterschlagen :nono: Mit dem ist es gleich mehr als doppelt so teuer, oder aber man zieht den inklusive Rabatt ab und hat nur noch ~10% Ersparnis

Rincewind
2017-07-31, 09:38:37
...

btw. Vega
Bin etwas enttäuscht. Es fehlen imho ca. 10-30% Leistung je nach Game. Irgendwas ist faul. Die ganzen neuen Features müssten Vega eigentlich stärker beschleunigen. Naja... mal sehen ob neuere Treiber noch paar Prozent hier und da bringen werden. Für mich steht jedenfalls fest RX Vega 56 ist mit 210W TDP das einzig interessante Produkt. Wenn es noch ein sehr gutes Angebot bis Ende des Jahres für ~350-380€ gibt schlage ich wohl zu, das muss dann bis Navi reichen.
...


Ich bin auch etwas enttäuscht, hätte auch mehr erwartet. Die Vega 56 ist auch für mich das Produkt, welches für mich interessant ist. Irgendeine nette Custom wird es wohl werden.

Advanced
2017-07-31, 09:40:44
Ich habe mir auch mehr erhofft. Allerdings stehe ich glücklicherweise nicht unter Zugzwang und kann noch etwas abwarten, wie sich Vega vielleicht noch entwickelt.
Derzeit am interessantesten wäre für mich aber auch Vega 56.

Grendizer
2017-07-31, 09:42:22
Alles in allem zu spät. Vor 14 Monaten wäre das ein gutes Ergebnis gewesen, aber nicht jetzt. Interessant, das gute Hoffnungsprinzp bei AMD. Beim Polarislaunch war man auch nicht so zu 100% zufrieden, aber da sollte es dann "etwas" später Vega richten. Jetzt ist es Navi, auf dem dann in Zukunft die Hoffnung liegt.

Ich findes nVidias Gebahren auch manchmal ätzend und gerade der Mehrpreis für G-Sync ist eine Frechheit. Allerdings ist das auf eine Nutzungzeit von 5-7 Jahren auch ein Witz, wenn man sich in der Zeit 2-3 Grafikkarten zwischen 400-600 Euro kauft.

Das das Monitorbundle nicht in Deutschland angeboten wird, würde ich als AMD Käufer dann schon als Frechheit empfinden, wobei da auch wieder die Frage ist, auf welchen Betrag gibt es den "Cashback" ? Auf normalen Handelspreis.... oder irgendeiner UVP, die eh jenseits von gut und böse ist.

Ja, ich habe eine 1080 und war schon seit dem entäuschenden Polaris Launch nicht wirklich von der AMD Grafikkartensparte überzeugt, aber das es so "ernüchternd" wird, da habe ich nicht erwartet. Ich habe nichts gegen AMD per se (habe ja einen Ryzen), aber Grafikkarten gibt es bei nVidia schon seit langen besseres. Den Preis finde ich jetzt auch nicht so den burner, wie viele andere.

Complicated
2017-07-31, 09:42:31
Ich denke anhand der Leistungsdaten wird Vega nur ein kurzes "Marktleben" beschert sein. Navi wird wohl schneller folgen müssen als erwartet und Vega 11 wird wohl Polaris im Midrange ersetzen. Vega 12 könnte ja über der Vega10 angesiedelt sein mit mehr Shadern :biggrin: (man soll die Hoffnung ja nie aufgeben), wobei sich dann die Frage stellt wie groß der Chip werden soll. IMHO haben sie die zusätzlichen Transistoren nicht richtig eingesetzt für die Takterhöhung, oder besser gesagt ist dabei wohl weniger rum gekommen als erhofft.

Was mir fehlt sind die ganzen technischen Folien was nun bei den NCUs anders ist als bei GCN.

Dorn
2017-07-31, 09:43:45
What? Du meinst RX Vega 56 würde nicht mal die GTX1070 erreichen? Das wäre dann mega peinlich. :D RX Vega 64 hat 20% mehr TFLOPs als RX Vega 56. Wegen dem "Bandbreitenproblem" erwarte ich beim ersteren aber höchstens 10% mehr Leistung.
Ja hast recht habe gerade falsch geschaut und mir von der 1070 GTX den Watt Verbrauch des ganzen Systems angeschaut. :freak:
https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/7/

Sollte dann wohl gleich auf sein und die "übliche" Watt Differenz passt auch wieder^^.

BigBangBacket
2017-07-31, 09:45:05
Ich habe da mal eine Frage die ich auch ernst meine und keinen Fanboystreit mit anfangen möchte. AMD hat ja vor ein paar Wochen getwittert (glaube war Twitter) das sie das Unmögliche möglich gemacht haben oder machen werden(oder so ähnlich). Auf was hat AMD sich denn jetzt bezogen?

Loeschzwerg
2017-07-31, 09:45:58
Auf EPYC und Threadripper, denke ich mal. In diesen beiden Fällen stimmt das "Unmögliche" auch.

Menace
2017-07-31, 09:46:13
Weiß man eigentlich, wo das Problem bei Vega ist? HBM-Speicher?

Cyphermaster
2017-07-31, 09:46:16
Das Problem gegenüber Fury ist einfach die Bandbreitenlimitierung. 40% mehr Takt bringen dir nix, wenn du da einfach fest steckst und weniger zur Verfügung hast als die Fury und je nach Spiel reicht der DSBR gerademal dafür aus um das Bandbreitenminus durch 2 Stacks auszugleichenSchau dir die 1060 gegen P10 an. Die spart mindestens 30% Bandbreite und 20% Rechenleistung durchgängig.(...)
Mickrige 10% bei Vega sind einfach zu wenig für so eine Neuerung. Entweder liegt tatsächlich ein Defekt vor oder der Treiber ist noch in einem sehr frühen Stadium. Ich denke, dass das Sollziel schon war, 30-50% Mehrleistung durch den neuen Raserizer auch zu erreichen, das wurde aber aus irgendeinem Grund verfehlt. Dann hätte die Leistung nämlich gepasst.
This. Schade, ich bin persönlich etwas negativ überrascht von der Performance-Differenz eines im Vorfeld groß beworbenen Hauptfeatures DSBR. Auch die Preisgestaltung ist aus meiner Sicht trotz allem nicht attraktiv genug, um wirklich was zu bewegen. Vega wirkt mehr wie eine Tech-Demo - es ist alles Mögliche mit drin, aber die Kombination ist noch weit weg von einem gut optimierten Endprodukt.

Raff
2017-07-31, 09:46:35
Mäh. Gerade Wolfenstein II wäre spannend als Bündelspiel gewesen (neu & geil), aber das kann man Deutsch(sprachig)en ja nicht zumuten. :ugly:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60709&stc=1&d=1501487183

MfG,
Raff

Der_Korken
2017-07-31, 09:47:36
Es läuft wohl doch auf einen R600 2.0 hinaus. Die Performance-Steigerung DSBR hatte ich mir wesentlich höher erhofft, vor allem wegen der eingesparten Bandbreite. In den geposteten Folien sieht es nach <15% aus, wodurch natürlich klar ist, dass sich bei der Performance nicht viel tut (HSR mal außen vor). Man jetzt mit 220W für die GPU einen doppelt so hohen Verbrauch wie für einen P10, der im Referenzdesign 110W verbraucht. Den Off-Chip-Verbrauch hat man zwar nicht verdoppelt, was man sich aber vermutlich durch den teuren HBM erkauft. Mit GDDR läge das Teil locker über 300W Gesamtverbrauch. Zusätzlich ist der Die trotz HBM mehr als doppelt so groß. Da sich die Performance zu P10 nicht mal ansatzweise zu verdoppeln scheint, ist Vega also ineffizienter als Polaris. Von den kolportierten +40% Perf/W, die man aus alten Roadmaps versucht hat rauszulesen, ist nichts zu sehen.

Ich frage mich nur, was bei Vega schiefgelaufen ist. Hat man die Bandbreitenersparnis überschätzt und deswegen zu wenig Bandbreite verbaut? Dann wären hätte man entweder auf vier Stacks hochgehen müssen oder (falls zu teuer) den Chip auf 48 oder 56 CUs beschneiden sollen, damit die Bandbreite besser zur restlichen Rohleistung passt. Hat man den neuen Rasterizer treibermäßig nicht im Griff oder hat man beim Design Fehler gemacht? Dann wäre die Hoffnung, dass es die anderen Vega-Chips hier besser abschneiden und es für V10 vielleicht einen Refresh gibt (V20 = V10 done right + 1:2DP?).

Hat sich der erhebliche Mehraufwand an Transistoren wirklich für den Mehrtakt gelohnt? Der Chip schafft geschätzt 20% mehr Takt als P10 (genauer wird man es erst sehen, wenn einige ihn undervoltet und/oder übertaktet haben), wirklich sparsam ist er aber nicht und die Leistung scheint auch nicht gut mit dem Takt zu skalieren (was vielleicht auch an der Bandbreite liegt). Hätte man sich vielleicht auch mit den 1,3Ghz zufrieden geben sollen, die Polaris erreicht? Der Chip hat 40% mehr Transistoren als Fiji. Da sind natürlich auch der neue Rasterizer und der HBCC drin, aber wenn man davon ausgeht, dass Fiji in 14nm ebenfalls ~1,3Ghz geschafft hätte, sieht das nach einem schlechten Deal für mich aus.

Ich hätte vorab schon mal einen Wunsch an Reviewer oder testfreudige User: Bencht die RX64 bitte nicht nur @stock, sondern auch mit variierten (und fixen) Taktraten bei Speicher und Chip. Also z.B. 1500/1000, 1200/1000, 900/1000, 1500/800 und 1500/600 (Chip/Speicher), damit man mal sieht, was eigentlich wie gut skaliert und was den Chip am meisten ausbremst.

dargo
2017-07-31, 09:48:07
Nein, die Vega56 hat nur 1,6Gb/s HBM2, also 410 Gb/s im Vergleich zu den 484 Gb/s bei der Vega64

http://www.anandtech.com/show/11680/radeon-rx-vega-unveiled-amd-announecs-499-rx-vega-64-399-rx-vega-56-launching-in-august

Ätsch. :usad:

Complicated
2017-07-31, 09:48:35
Du hast den Monitor unterschlagen Mit dem ist es gleich mehr als doppelt so teuer, oder aber man zieht den inklusive Rabatt ab und hat nur noch ~10% Ersparnis
Ups stimmt - :)
Klar die 800,- müssen noch mit rein.

Loeschzwerg
2017-07-31, 09:48:44
Mäh. Gerade Wolfenstein II wäre spannend als Bündelspiel gewesen (neu & geil), aber das kann man Deutsch(sprachig)en ja nicht zumuten. :ugly:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60709&stc=1&d=1501487183

MfG,
Raff

Och nööööö :(:( Was will ich denn mit Sniper Elite 4... pfuii.

Gimmick
2017-07-31, 09:49:05
Bin mal auf die Nano gespannt.

Raff
2017-07-31, 09:49:57
Och nööööö :(:( Was will ich denn mit Sniper Elite 4... pfuii.

Sniper 1337 4 ist definitiv ein klasse Spiel, aber das hat mittlerweile fast jeder (durch). Diese Entscheidung sollten sie überdenken, zumal es von Wolfenstein II ja gewiss eine "German Edition" geben wird.

MfG,
Raff

Hübie
2017-07-31, 09:52:17
Die "Radeon Packs" finde ich sind ein sehr gutes Einstiegsangebot und gut durchdacht seitens des AMD-Marketings. Auch wenn vermutlich hier im Forum nur wenige in den kompletten Genuß der Vorteile kommen, da sie die meiste Hardware schon haben. Aber für User die noch keinen Freesync Monitor haben ist das ein Bombengeschäft, erst recht wenn man noch ein Board dazu möchte weil man auf eine AMD-Plattform umsteigen will. Hier werden wohl einige zuschlagen bei den Bundles, die auf eine moderne Plattform umsteigen. $ 300,- zu sparen beim Umstieg auf eine solche AMD-Plattform mit Ryzen bedeutet einen Preis von $ 99,- für das Vega56 Modell. AMD sollte hier nur schnellst möglich die Monitor-Auswahl erweitern, da nicht jeder a) 34" und b) einen "curved" Monitor möchte. Das schränkt die Zielgruppe unnötig ein, doch ist das sicherlich einer exklusiven Launchphase für Samsung geschuldet um die $ 200,- Rabatt zu erhalten.

Rechnet man das Zusammen würde das bedeuten ein Ryzen 1700X (340,- €)+MSI X370 Power Extrem (250,- €)+ Vega56 (399,- €)+DDR4 3000 16GB (+150,- €)+Netzteil (70,- €)= 1.059,- €
Abzgl. 300,- € ist das ein beinahe 30% Rabatt auf das gesamte System (ohne Gehäuse und der Einfachheit halber 1:1 $/€)

Also für 750,- € ein solches hochwertiges Gaming-System ist schon eine Ansage. Nun kann man auch die Roadshow mit den Blindtests besser nachvollziehen, da man sich auf diese "gefühlten" Ergebnisse jetzt beziehen wird als Preis-/Leistungs-Argument.

Da rechnest du dir das aber schön. Die 300 bekommst du nur wenn du den 800-Euro Monitor kaufst. :D Dennoch kein schlechter Weg, den die damit gehen.

Und wie verstehe ich das:

Die Limited und die Liquid Edition gibt es nur mit einem Radeon Pack

Als einzelne Grafikkarte gibt es nur die Radeon RX Vega 56 und die Radeon RX Vega 64 in der „Black Edition“ zu kaufen. Die Radeon RX Vega 64 Limited Edition und die Radeon RX Vega 64 Liquid Edition gibt es dagegen nur mitsamt einem Radeon Pack. Euro-Preise oder welche Händler in Deutschland an der Aktion teilnehmen, sind noch unbekannt. In Zukunft sollen die Radeon Packs zudem ausgebaut werden. Andere Monitore stehen derzeit bei AMD in der Diskussion.

Quelle (https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/2/)

Bedeutet das nun dass ich Vega 56 / 64 BE mit beiden Packs kombinieren kann und Vega 64 Limited und Liquid nur mit einem Pack (also entweder Graka oder Monitor)? :confused: Oder bedeutet es dass man letzte ausschließlich zusammen mit einem Monitor und / oder MB-CPU kaufen kann (d.h. nicht als einzelne Graka im Handel)? Irgendwie missverständlich ausgedrückt.

Advanced
2017-07-31, 09:52:29
Wobei man vielleicht dennoch abschließend die Reviews am 14.08. abwarten sollte. Man weiß ja nie.

Pirx
2017-07-31, 09:52:49
DSBR, 2x FP16, usw. scheinen völlig zu verpuffen - sehr mysteriös.

dargo
2017-07-31, 09:53:27
Vega 12 könnte ja über der Vega10 angesiedelt sein mit mehr Shadern :biggrin:
Eher unter V11. ;) Bei Polaris 12 aka RX550 ist es auch nicht anders. Über V10 ist TDP mäßig überhaupt kein Platz mehr, das Ding ist schon an der Kotzgrenze.

Complicated
2017-07-31, 09:54:31
Da rechnest du dir das aber schön. Die 300 bekommst du nur wenn du den 800-Euro Monitor kaufst. :D Dennoch kein schlechter Weg, den die damit gehen.
Nicht mit Absicht - siehe ;)
Ups stimmt - :)
Klar die 800,- müssen noch mit rein.

deekey777
2017-07-31, 09:55:40
AMD hat aktuell eine größere Lücke zwischen dem vollausgebauten P11 und dem teildeaktivierten P20. Keine Ahnung, ob diese Lücke geschlossen werden soll.

tEd
2017-07-31, 09:56:04
DSBR, 2x FP16, usw. scheinen völlig zu verpuffen - sehr mysteriös.

2xFP16 wird noch von keinen Spiel unterstützt.

dildo4u
2017-07-31, 09:56:04
AMD hat kein einziges DX11 Game gebencht nicht mal Prey.

http://abload.de/img/slides-raja-51l8sy4.jpg

Erbsenkönig
2017-07-31, 09:57:00
/OT
Exakt so hat das auch zu sein!

Wobei ich zu meiner Schande gestehe, das zuletzt als Download am jeweils nächsten Abend gesehen zu haben, weil die Qualität des Downloads einfach besser war (HD @ 60Hz). Aber es war eine große Hürde, allen möglichen Ergebnismeldungen aus dem Weg zu gehen ;)

Wofür gibt es League Pass? :cool:

Jupiter
2017-07-31, 09:57:19
AMD hat kein einziges DX11 Game gebencht nicht mal Prey.

http://abload.de/img/slides-raja-51l8sy4.jpg

Ich sehe schon in Watch Dogs 2 ein 30-40% geringere Geschwindigkeit im Vergleich zu NVIDIA.

deekey777
2017-07-31, 09:59:20
2xFP16 wird noch von keinen Spiel unterstützt.
Muss ein Spiel das unterstützen oder packt der Compiler selbst 2 FP16-Berechnungen in einen Wisch?

Loeschzwerg
2017-07-31, 09:59:39
Sniper 1337 4 ist definitiv ein klasse Spiel, aber das hat mittlerweile fast jeder (durch). Diese Entscheidung sollten sie überdenken, zumal es von Wolfenstein II ja gewiss eine "German Edition" geben wird.

MfG,
Raff

Eben, Sniper 4 ist doch ein alter Hut. Enttäuscht mich jetzt gefühlt mehr als der Rest, denn auf die Hardware hatte ich mich nach der FE schon "eingestellt".

Cyphermaster
2017-07-31, 09:59:57
NVIDIA ist für mich edel,Halte ich für die gleiche Argumentation wie bei Apple-Produkten. Das Preisniveau rechtfertigt sich effektiv nicht über die Leistung, sondern die mangelnde Konkurrenz auf den obersten Leistungsniveaus. Meine nV-Karten waren bislang sämtlich nicht "edler" als welche von AMD, PowerVR oder S3 - wie auch, x Watt sind und bleiben eben bei jedem Hersteller x Watt; bei den Kühlern nehmen sie sich auch praktisch nichts.

Das ist für mich ja das eigentlich Ärgerliche: weiterhin eine Quasi-Monopolstellung von nVidia im höheren Leistungsbereich, mit entsprechenden Preisen. Und das -wenn ich an V11/V12/V20 denke, das auch noch in näherer Zukunft weiter, weil es nicht nach so großen Taktsprüngen bei HBM2 aussieht, um die Bandbreitenlücke bei Vega zu schließen.

tech noir
2017-07-31, 10:00:41
Ich habe da mal eine Frage die ich auch ernst meine und keinen Fanboystreit mit anfangen möchte. AMD hat ja vor ein paar Wochen getwittert (glaube war Twitter) das sie das Unmögliche möglich gemacht haben oder machen werden(oder so ähnlich). Auf was hat AMD sich denn jetzt bezogen?

Vielleicht dass man mit kürzerem Balken flüssiger spielen kann als mit langem.

scully1234
2017-07-31, 10:00:50
Wobei man vielleicht dennoch abschließend die Reviews am 14.08. abwarten sollte. Man weiß ja nie.

hoffst du das es da "besser" wird wie auf den Haus und Hof Slides:wink:

Timbaloo
2017-07-31, 10:02:53
AMD hat kein einziges DX11 Game gebencht nicht mal Prey.

http://abload.de/img/slides-raja-51l8sy4.jpg
...
kannst du dir mal abgewöhnen irgendwelche slides/bilder zu posten, ohnen ne quelle dafür anzugeben?

Screemer
2017-07-31, 10:04:51
auf dem ding steht wenigstens drauf wo es her ist (tpu)...

dildo4u
2017-07-31, 10:06:25
hoffst du das es da "besser" wird wie auf den Haus und Hof Slides:wink:
Die echten Review's werden vernichtet,da die meist gezockten Game's DX11 nutzen.(z.b Overwatch,GTA5,PlayerUnknown's Battlegrounds)
Keiner guckt danach wie Sniper Elite 4 läuft.

tEd
2017-07-31, 10:07:09
Muss ein Spiel das unterstützen oder packt der Compiler selbst 2 FP16-Berechnungen in einen Wisch?

FP16 muss schon vom Entwickler unterstützt werden. Der Entwickler muss angeben welcher Code nur mit FP16 ausgeführt werden soll. Klar könnte das auch der Compiler von sich aus machen aber dann schreien wieder alle beschiss ;) ..Man erinnere sich an GFFX da gab es ja diese Fälle.

Entropy
2017-07-31, 10:08:53
Muss ein Spiel das unterstützen oder packt der Compiler selbst 2 FP16-Berechnungen in einen Wisch?
Minimal kann der Compiler das, aber für die messbare Geschwindigkeitssteigerung braucht es Handarbeit.

Timbaloo
2017-07-31, 10:10:44
auf dem ding steht wenigstens drauf wo es her ist (tpu)...
Ich bin mittlerweile so gut darin Wasserzeichen auszublenden, das ist der Hammer :D

Jupiter
2017-07-31, 10:12:36
Halte ich für die gleiche Argumentation wie bei Apple-Produkten. Das Preisniveau rechtfertigt sich effektiv nicht über die Leistung, sondern die mangelnde Konkurrenz auf den obersten Leistungsniveaus. Meine nV-Karten waren bislang sämtlich nicht "edler" als welche von AMD, PowerVR oder S3 - wie auch, x Watt sind und bleiben eben bei jedem Hersteller x Watt; bei den Kühlern nehmen sie sich auch praktisch nichts.

Das ist für mich ja das eigentlich Ärgerliche: weiterhin eine Quasi-Monopolstellung von nVidia im höheren Leistungsbereich, mit entsprechenden Preisen. Und das -wenn ich an V11/V12/V20 denke, das auch noch in näherer Zukunft weiter, weil es nicht nach so großen Taktsprüngen bei HBM2 aussieht, um die Bandbreitenlücke bei Vega zu schließen.

AMD kann sein Ansehen bei mir jederzeit verändern. Wenn ich aktuell eine CPU kaufen müsste, würde ich Ryzen nehmen. Vorher stand AMD im CPU-Bereich sehr schlecht da.

Ich bin unvoreingenommen herangegangen und VEGA hätte mich überzeugen können. Die letzte Karte von AMD welche mich sehr interessierte war die R290. Seit NVIDIAs Maxwell fallen sie für mich sehr ab.

Nun kommt ein enttäuschendes VEGA erst im August 2017 während die GTX 1080 bereits seit Mai 2016 draußen ist.

Apple kauft für mich von verschiedenen Händeln ein die bauen in den meisten Bereichen keine eigene Hardware mehr. Das finde ich nicht beeindruckend.

Botcruscher
2017-07-31, 10:16:03
FFFFFFFFFFFFFFFAAAAAAAAAAAAAAAAAAAAAAAIIIIIIIIIIIIIIIIIIIIILLLLLL.

Fiji plus 40% ist einfach nur erbärmlich und jetzt diskutieren wir tatsächlich ob die Müllrampe der Konkurrenz mit Billigspeicher sowie deutlich besserem Verbrauch schneller ist. 314 vs 481mm², HBM2... NV könnte die 1070 für 250€ mit ausreichend Gewinn verkaufen. Bei so einer Krücke von Konkurrenz wirkt selbst die TI als solides Angebot.
Der Monat FE hat ja noch nicht gereicht, weswegen es erst am 12 14. wirkliche Tests gibt. Da wird sicher weiter am Wundertreiber optimiert. Verfügbarkeit dann sicher gegen 2018... passend mit GDDR6 Volta.

Das Hardwarebündel bzw. die Cashback ist genau so lächerlich. CPU ok aber den Moni und die Spiele können sie sich sonst wohin stecken.

Gott was für eine Gurke!

PS: Und denk daran Kinder: Die FE ist keine Spielerkarte mit aussagekräftiger Geschwindigkeit.;D

deekey777
2017-07-31, 10:20:08
Minimal kann der Compiler das, aber für die messbare Geschwindigkeitssteigerung braucht es Handarbeit.
Ach ja, das habt du und andere schon erklärt.

@tEd:
Ich meinte den doppelten Durchsatz.

Wolfenstein 2 und Doom mit FP16: https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/3/

Ist eigentlich nicht überraschend, denn beide Titel kommen für die Xbox One X bzw. bekommen den entsprechenden Patch (auch die PS4Pro bekommt einen).

Wie macht man eigentlich mit FP16 die Performance auf den Pascals "unbeabsichtigt" kaputt? :devil:

TheGood
2017-07-31, 10:24:14
HM Xbox One X kann doch gar kein FP 16 Rapid packed math...

r3ptil3
2017-07-31, 10:24:30
Immerhin etwas neues auf dem Grafikkartenmarkt.

Die Aussage mit der R600 passt leider irgendwie schon. Das Wortgebilde "Treiberoptimierung" sollte in Verbindung mit Vega verboten werden.

Erbsenkönig
2017-07-31, 10:27:15
Interessant, das gute Hoffnungsprinzp bei AMD. Beim Polarislaunch war man auch nicht so zu 100% zufrieden, aber da sollte es dann "etwas" später Vega richten. Jetzt ist es Navi, auf dem dann in Zukunft die Hoffnung liegt.

Das stört mich auch so ein wenig. Wollte meine damalige 6950 eigentlich durch eine RX 480 ersetzen, aber die war ja dann auch nicht wirklich schneller als eine R9 390 und man wurde auf Vega verwiesen. So wurde es dann eine gebrauchte R9 390. Jetzt soll man wieder auf Navi hoffen...

Ihm
2017-07-31, 10:28:55
RX Vega 64 für ca. 420€ wäre wirklich ein Fail, wenn sie darüberhinaus auch noch schneller als eine GTX 1080 wäre...:rolleyes:

tEd
2017-07-31, 10:30:26
Wann kommen denn nun die Reviews?

Erbsenkönig
2017-07-31, 10:32:35
Wann kommen denn nun die Reviews?

Wohl am 14.August.

Complicated
2017-07-31, 10:35:11
auf dem ding steht wenigstens drauf wo es her ist (tpu)...Vor allem ist der Inhalt der Folie die Quellenangabe für die Messwerte der AMD-Präsentation ;D

Schnoesel
2017-07-31, 10:35:47
Irgendwie weder Fisch und Fleisch was ich bisher gelesen habe. Dabei überrascht mit nicht dass die Karte in etwas auf 1080er Niveau liegt, das wäre in Ordnung und würde auf ca 50% Leistungsplus gegenüber meiner FuryX in 1440p deuten, wenn nicht die Leistung so unkonstant wäre:

Ebenso interessant ist der Vergleich zur Radeon R9 Fury X. In Battlefield 1 ist die Radeon RX Vega 64 47 Prozent zügiger unterwegs, während es in Overwatch nur 19 Prozent sind. Offenbar gibt es in den Spielen also vielleicht noch Treiber-Limitierungen bei der neuen Architektur.

https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/2/

Wegen 19% egal in welchem Spiel werde ich sicher nicht wechseln. Mal die Benches und auch die OC Werte abwarten, aber momentan eher entäuschend.

PS: Der Preis dabei geht sicher in Ordnung aber um den geht es mir nicht Primär.

PPS: Was ich auch nicht verstehe: Warum ein Bundle mit dem CF791? Denn ich hatte den Monitor hier und der war zu diesem Zeitpunkt in Verbindung mit Freesync absolut unbrauchbar wegen flickering im FreesyncBetrieb und das in jedem Spiel. Also entweder der Monitor funktioniert mittlerweile mit Freesync und das Bundle wird eine Katastrophe. Oder ist das ein neues Modell?

Rsioux
2017-07-31, 10:36:27
Habe mir insgesamt auch mehr erhofft.
Aber habe ich das richtig gelesen, dass die Wasservariante nur im Bundle kommt? Einzig interessante für mich wäre Wolfenstein und das gibt es nicht in DE.....

dargo
2017-07-31, 10:37:28
Ist eigentlich schon bekannt wann die Customs eintrudeln? Klappt es noch September oder eher Oktober?

Edit:
Woher kommen eigentlich die +47% in BF1 für Vega vs. Fiji? Ich sehe hier max. +34%. :confused:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11444826&postcount=9847

Szenenabhängig?

tEd
2017-07-31, 10:38:28
Wohl am 14.August.

Nochmal 2 Wochen warten :eek:

Screemer
2017-07-31, 10:41:50
Vor allem ist der Inhalt der Folie die Quellenangabe für die Messwerte der AMD-Präsentation ;D
trotzdem postet man sowas nicht ohne quelle und bei ihm ist das leider der absolute standard.

Pixelmonk
2017-07-31, 10:42:07
Ist eigentlich schon bekannt wann die Customs eintrudeln? Klappt es noch September oder eher Oktober?


Die ASUS ROG Strix RX Vega64 soll Anfang September verfügbar sein.

https://videocardz.com/press-release/asus-announces-radeon-rx-vega-64-rog-strix-series

deekey777
2017-07-31, 10:42:53
HM Xbox One X kann doch gar kein FP 16 Rapid packed math...
Sie kann aber FP16 nativ ausführen (wie Polaris).

BoMbY
2017-07-31, 10:43:31
Zur Vega-Architektur gibt es eine neue Präsentation: AMD Vega Microarchitecture Technical Overview (https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/)

Eine Menge neue Details.

dargo
2017-07-31, 10:43:35
Die ASUS ROG Strix RX Vega64 soll Anfang September verfügbar sein.

https://videocardz.com/press-release/asus-announces-radeon-rx-vega-64-rog-strix-series
Ah... danke, dann gehts schneller als ich dachte. :)

Erbsenkönig
2017-07-31, 10:48:28
Nochmal 2 Wochen warten :eek:

Der Treiber muss noch fertig werden :D

Ah... danke, dann gehts schneller als ich dachte. :)

Also wenigstens in dieser Hinsicht werden die Erwartungen übertroffen.:biggrin:

scully1234
2017-07-31, 10:49:46
Achja, wie bereits gesagt wird Vega noch nicht fertig (Grund bitte einfügen) sein, musste aber zwingend released werden. Auch wenn scully das nicht wahr haben will. Er hat ja noch 2 Wochen Zeit sich darauf einzustellen. Nicht das er hyperventilierend und vor Schnappatmung vom Stuhl fällt, wenn es "überraschend" doch so kommt wie man ohnehin annimmt. Das wollen wir doch alle nicht. ;)

so du darfst jetzt gerne präzisieren was nun eher zugetroffen hat ich warte auf weitere Ausflüchte ...

aber mit dem vom Stuhl fallen könntest du recht behalten, aber nicht wegen der äußerst präzisen Vorhersage

Rush
2017-07-31, 10:53:37
RX Vega 64 für ca. 420€ wäre wirklich ein Fail, wenn sie darüberhinaus auch noch schneller als eine GTX 1080 wäre...:rolleyes:

$499 MSRP ist netto, sprich, hierzulande wird Vega64 dann vermutlich für um die 499€ an den Start gehen.
Ich bezweifle allerdings, dass sich der Preis lange halten wird.

Die letzten Tage haben mich wirklich gehyped, aktuell bin ich aber eher "Meh".

deekey777
2017-07-31, 10:55:28
Zur Vega-Architektur gibt es eine neue Präsentation: AMD Vega Microarchitecture Technical Overview (https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/)

Eine Menge neue Details.

Danke!

Jetzt fehlen noch Infos zum UVD und VCE.

AffenJack
2017-07-31, 10:58:50
Die Features sind gut wie 2xFP16 und der Primitive shader und sowieso alles von DX12 und bestimmt freuen sich die Programmierer auch über einige ISA Features. Problem ist für all das braucht man Devs die das auch einsetzen und bis auf 2xFP16 was die PS4Pro kann, werden die erweiterten Features nicht eingesetzt werden. Erst wenn die nächste Konsolengen mit dann Vegafeatureset kommt, wird das über Multiplattform kommen. Ein tolles Featureset für die Zukunft reicht einfach nicht aus, wenn die Geschwindigkeit im Moment nicht stimmt.

Complicated
2017-07-31, 11:09:20
Zur Vega-Architektur gibt es eine neue Präsentation: AMD Vega Microarchitecture Technical Overview (https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/)

Eine Menge neue Details.
Ah endlich. Danke für den Link.

MadPenguin
2017-07-31, 11:11:22
Hmm. Also haben wir einen 1080 Kontrahenten, der wahrscheinlich leicht schneller sein wird zu einem sehr interessanten Preis. Schade, dass es nicht ehr geworden ist. Mir reicht es :) ne RX 56 Luft und undervolten!

dildo4u
2017-07-31, 11:12:01
Schätze mal Sicherheitsangabe falls man ein Threadripper System baut?

https://i.redd.it/qhs93wo35vcz.jpg

http://www.gigabyte.de/Graphics-Card/GV-RXVEGA64X-W-8GD-B#kf

Grendizer
2017-07-31, 11:12:44
Ich bin mir nicht sicher, aber hat nVidia auch beim GP102/104 auch Neuerungen, die erst unterstützt werden mußten, damit der Chip so gut performnt ?

Ich habe das Gefühl, das AMD das Heil in neuen Features sucht, weil sie den "Standard" einfach nicht performant auf die Piste bekommen. Allerdings ist das meiner Meinung nach eine fatale Entwicklung, weil man so gewzungen ist Know-How bei externen Entwicklern aufzubauen und vor allem muss man Energie in die Überzeugung stecken, das es "was" bringt.

Screemer
2017-07-31, 11:15:06
Schätze mal Sicherheitsangabe falls man ein Threadripper System baut?

https://i.redd.it/qhs93wo35vcz.jpg

http://www.gigabyte.de/Graphics-Card/GV-RXVEGA64X-W-8GD-B#kf
löl. für die 1080ti extreme gibt gigabyte 600W und für die vega air 750W fürs PSU an.

Menace
2017-07-31, 11:15:26
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-38.jpg

Quelle (https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/)

Wie speziell ist Perlin Noise und was bitte schön ist Vega 220W und Vega 150W?

Und gab es nicht unangenehme Fragen @ AMD bei der Veranstaltung?

Kartenlehrling
2017-07-31, 11:17:24
20% Leistungsteigerung nach 2 Jahren zur FuryX sind einfach zu wenig, ich bin wirklich enttäuscht.

scully1234
2017-07-31, 11:18:57
Und gab es nicht unangenehme Fragen @ AMD bei der Veranstaltung?

Das werden die Anleger im Nachgang übernehmen

Complicated
2017-07-31, 11:19:36
220W ist die ASIC Power Angabe für die Vega64 und 150W vermute ich für die Vega56. Wobei Leo in der Tabelle 165W stehen hat für Vega56: https://www.3dcenter.org/news/amd-stellt-radeon-rx-vega-56-64-vier-varianten-offiziell-vor

dildo4u
2017-07-31, 11:20:16
20% Leistungsteigerung nach 2 Jahren zur FuryX sind einfach zu wenig, ich bin wirklich enttäuscht.
Es sind eher 30% wenn man hier den Schnitt nutzt.

http://i.imgur.com/svc5kwd.png

Steffko
2017-07-31, 11:20:29
RX Vega 64 für ca. 420€ wäre wirklich ein Fail, wenn sie darüberhinaus auch noch schneller als eine GTX 1080 wäre...:rolleyes:

Wo hast du denn 420€ her? Die Karte soll $499 vor Steuern kosten. Das sind ~420€ VOR Mwst.

Screemer
2017-07-31, 11:21:46
Wie speziell ist Perlin Noise und was bitte schön ist Vega 220W und Vega 150W?

das ist wohl das einfach ein vega64 und sein scaling mit dem verbrauch in perlin noise. quasi untertaktet und wohl untervoltet bis zu der leistungsgrenze und dann leistung(fps)/verbrauch. perlin noise gabs das letzte mal als subtest von 3dmark vantage, wenn ich mich richtig erinnere :ugly:

Perlin-Noise-Test:
Der Perlin-Noise-Test im 3DMark Vantage ist wohl zweifellos der optisch fadeste Abschnitt im neuen Benchmark. Perlin Noise ist ein spezieller Algorithmus, bei dem man durch einfache Formeln schier unendliche Formen mit weichen Übergängen erstellen kann. Unter anderem zur Wolkendarstellung kann man Perlin Noise benutzen. In dem Benchmarkprogramm werden mehrere „Oktaven“ von Perlin Noise mittels des Pixelshaders erstellt. Jeder Farbkanal hat eine eigene „Noise-Funktion“, um die Rechenlast auf der GPU zu erhöhen.
https://www.computerbase.de/2008-04/bericht-3dmark-vantage-der-performance-report/4/

Zergra
2017-07-31, 11:22:53
Ah... danke, dann gehts schneller als ich dachte. :)
Das PCB sieht auch wesentlich kürzer aus.

Complicated
2017-07-31, 11:28:45
Also die Infos zum HBCC finde ich spannend:
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/2.html

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-7.jpg

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-6.jpg

Sowohl als inclusive als auch als exclusive Cache nutzbar. Hier konkrete Zahlen:

This can be especially handy when a program loads into memory resources it finds relevant to the 3D scene being rendered, but not have direct access to all of it all the time. This disparity hampers the otherwise high memory bandwidth, and consumes resources moving said data. By using the high-bandwidth memory cache (HBMC) in Vega, AMD is tackling it via a direct hardware solution and this is where the HBCC comes in.

The example above showed uniform size pages, but the high-bandwidth cache controller is designed to handle irregular size memory pages as well depending on the use case. Being able to access not just system memory and storage, but also non-volatile RAM such as Intel's new Optane technology-based SSDs. If you have used a small SDD as a scratch/cache disk with a spinning drive, think of the practical benefits you achieved. That is a very rough, and borderline ugly, comparison but it was the best context I could think of providing at this time.

The design of the high-bandwidth cache controller will be handy also in that AMD now has a platform to use the concept with new microarchitectures or scaled-up silicon, and expand upon the same functionality. As it is now, it provides as much as 27 GB worth of assets to be used allowing for real-time OpenGL rendering of ~500 million triangles. AMD estimates this can be expanded upon to as much as 512 TB of virtual space.

Das soll wohl heißen, der HBCC ist noch nicht in vollem Umfang aktiv. Die angekündigte Nutzung von Netzwerk-Ressourcen ist noch nicht gegeben. Entspricht aber ca. 27 GB VRAM in der jetzigen Vega64 Implementierung beim rendering mit OpenGL mit ca. 500 Mio Dreiecken. Mit physischen 8 GB HBM.

w0mbat
2017-07-31, 11:29:50
Irgend etwas ist leicht schief gelaufen. Ich denke u.a. HBM2 und die Fokusierung auf ein high freq design.

Wenn VEGA ähnliche Taktraten bei einer ähnlichen Spannung wie GP104 erreicht hätte, und dazu der HMB2 problemlos (und ohne erhöhte Vcore) auf 2GHz takten würde, hätten wir irgend etwas zwischen einer GTX1080 und einer Ti.

So viel muss da nicht schief laufen. Die eigentliche Architektur scheint ganz gut zu sein. Ich denke AMD fehlt da u.a. einfach auch das Geld, bzw. die "manpower". Mit mehr R&D Geld und mehr Spezialisten würden solche Probleme vielleicht sehr schnell ausgemerzt. Da zeigt sich eben der Unterschied in den finanziellen Möglichkeiten zwischen AMD und Nvidia. Und AMD macht auch noch CPUs!

Man stelle sich vor, GP104 würde max. 1,6GHz machen und GDDR5X hätte Probleme bereitet. Aber so ist es nunmal. Mein Punkt ist: so viel muss gar nicht schief laufen, damit ein Produkt nicht das wird, was man erwartet, bzw. so viel ist bei VEGA wahrscheinlich auch gar nicht schief gelaufen. Vielleicht war das high freq design nicht ganz so erfolgreich wie erwartet, was an sich ja noch OK wäre. Dazu kommen aber noch die externen HBM2 Probleme, welche den Zeitplan über den Haufen werfen und dazu nicht ganz die Bandbreite ermöglicht, die man sich wünschte.

Man stelle sich einen VEGA launch im Januar vor: gleicher Takt wie jetzt und gleicher, hoher Verbrauch, dafür aber 512 GB/s HBM2. Das dumme ist, dass Nvidia jetzt nicht reagieren muss. Kann mir gut vorstellen, dass Nvidia nun keine Eile hat Volta zu bringen und die Pascal Preise werden auch so bleiben.

Hoffen wir nur, dass Navi wieder etwas wird.

Menace
2017-07-31, 11:31:12
220W ist die ASIC Power Angabe für die Vega64 und 150W vermute ich für die Vega56. Wobei Leo in der Tabelle 165W stehen hat für Vega56: https://www.3dcenter.org/news/amd-stellt-radeon-rx-vega-56-64-vier-varianten-offiziell-vor

Hm, vielleicht wird die Vega56 doch noch eine gute Karte, sofern man nicht einen 1080-Killer erwartet. Bin wirklich gespannt, welche die höhere Effizienz letztlich hat. Nano oder 56.

perlin noise gabs das letzte mal als subtest von 3dmark vantage, wenn ich mich richtig erinnere :ugly:


Danke. :smile:

Screemer
2017-07-31, 11:33:09
Das PCB sieht auch wesentlich kürzer aus.
das täuscht. die strix sind unglaublich hoch. hier zum verlgeich 480 und vega

http://hexus.net/media/uploaded/2016/7/f4e5b6e0-6b91-4f47-8140-abe9ab6f4035.png
(http://hexus.net)
https://cdn.videocardz.com/1/2017/07/ASUS-ROG-STRX-VEGA64-2.jpg (http://www.videocardz.com)

Erbsenkönig
2017-07-31, 11:37:00
Kam das hier schon zur Sprache?

http://www.anandtech.com/show/11680/radeon-rx-vega-unveiled-amd-announecs-499-rx-vega-64-399-rx-vega-56-launching-in-august/2

However what’s not being said by AMD is how much of the RX Vega launch supply will be allocated to stand-alone cards. For various reasons the bundles are more lucrative to AMD and its partners, and as a result it’s difficult to imagine AMD sending the bulk of the cards to stand-alone configurations, or even a 50-50 split. Instead I expect that the bulk of the cards will go towards the bundles. So while we’re going to have to see what launch day brings next month, I’m not convinced that stand-alone cards will be available in great numbers.

Rush
2017-07-31, 11:38:30
Radeon Packs DACH:

- 100€ Rabatt auf beim Kauf eines 1700X/1800X, allerdings nur in Verbindung mit: ASUS ROG Crosshair VI Extreme; GIGABYTE GA-AX370-Gaming K7 oder MSI X370 XPOWER GAMING TITANIUM
- Kein Wolfenstein (dafür Sniper Elite 4) :rolleyes:
- kein $200 Monitor-Rabatt :rolleyes:

Quelle (https://gaming.radeon.com/en-us/RXVega/?sessionGUID=48d07b00-89a8-ba32-70b0-de8c85214397&webSyncID=79e9a94d-12cd-1236-3665-5eacc850c9cd&sessionGUID=42dc727a-b816-eebc-2e64-d5e553943723)

scully1234
2017-07-31, 11:41:27
ich denke mal man ist sich bewusst das man stand alone sowieso mehr Ladenhüter hätte als einen lieb ist, mit Ryzen gebundelt kommt da wenigstens noch etwas Zucker auf die Torte

robbitop
2017-07-31, 11:42:56
Man sagt AMD (damals u.A auch coda) nach, dass die HW nicht die Schwachstelle an ihren Produkten ist sondern die Software. Insbesondere im Zusammenhang mit dem Shadercompiler. Ist schon sehr interessant, was man rausholen kann, wenn man da Hand anlegt (siehe Doom @GCN).
Angeblich hat man das SW Department ja bereits aufgestockt (bzw ist noch dabei) - ggf. kann man hier mittelfristig einige Früchte ernten.

dildo4u
2017-07-31, 11:45:21
ich denke mal man ist sich bewusst das man stand alone sowieso mehr Ladenhüter hätte als einen lieb ist, mit Ryzen gebundelt kommt da wenigstens noch etwas Zucker auf die Torte
Die Karten gehen auch so weg dafür sind einfach zu viele Freesync Display's im Markt,jemand der sich ein neuen 1440p/4k Monitor damit gekauft hat hat keine andere Wahl.

https://geizhals.de/?cat=monlcd19wide&xf=11939_23~11942_2560x1440~11942_3440x1440~11942_3840x2160~11992_AMD+FreeSync&asuch=&bpmax=&v=e&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=300

Mancko
2017-07-31, 11:51:34
typisch mal wieder die ersten Reaktionen von den üblichen Kandidaten. :rolleyes:

So wie ich das sehe, wird die AIR Version mit der 1080er gut mithalten können und die LC Version dürfte knapp unter TI Niveau liegen (mit Potential nach oben). Das gebotene ist für den ausgerufenen Preis absolut konkurrenzfähig.

Also das Geheule rund um dieses Launch ist wirklich lächerlich... schlechteste GPU ever... mhm... bestimmt :freak:

Das Ganze muss man grundsätzlich auch immer im Kontext des zeitlichen Rückstandes zur Konkurrenz und des betriebenen Hardware Aufwands für die gebotene Leistung setzen und da ist man nun wirklich doch sehr vergleichbar zu Nvidia's Fermi oder der berüchtigten FX Serie mit NV30. Anders kann man das nicht sagen. Die letzten beiden haben es aber wenigstens noch geschafft in der oberen Leistungskategorie mitzuspielen, wenn auch zu spät, zu laut und zu stromhungrig. Bei Vega ist man aber mit der Leistung meilenweit von der Meßlatte 1080Ti entfernt die in der gleichen DIE Größenkategorie und ohne HBM2 spielt.

Erbsenkönig
2017-07-31, 11:53:36
Radeon Packs DACH:

- 100€ Rabatt auf beim Kauf eines 1700X/1800X, allerdings nur in Verbindung mit: ASUS ROG Crosshair VI Extreme; GIGABYTE GA-AX370-Gaming K7 oder MSI X370 XPOWER GAMING TITANIUM
- Kein Wolfenstein (dafür Sniper Elite 4)
- kein $200 Monitor-Rabatt

Quelle (https://gaming.radeon.com/en-us/RXVega/?sessionGUID=48d07b00-89a8-ba32-70b0-de8c85214397&webSyncID=79e9a94d-12cd-1236-3665-5eacc850c9cd&sessionGUID=42dc727a-b816-eebc-2e64-d5e553943723)

Das kommt jetzt auch ein wenig spät. Wer Ryzen wollte, wird so wie ich wahrscheinlich die Plattform schon betreiben. Vor allem sollte das mE schon eine größere Produktpalette umfassen; nicht jeder braucht/will Mainboards jenseits der 200 €.

maximus_hertus
2017-07-31, 11:53:37
ich denke mal man ist sich bewusst das man stand alone sowieso mehr Ladenhüter hätte als einen lieb ist, mit Ryzen gebundelt kommt da wenigstens noch etwas Zucker auf die Torte

Naja, wenn Vega 64 Air für 500-550 Euro kommt, konkurriert sie bei "uns" mit der 1060 / 1070 ;) So lange die Versorgung der nV Karten eher knapp ist, so lange gibt es die (krassen) Aufpreise.

nV (UVP) Preise sind ja schön und gut, aber solange die Händler ordentlich aufschlagen, so lange kann Vega durchaus attraktiv sein.

Die Bundles sind jedoch schlicht dämlich. Warum kein Threadripper Bundle?
In der aktuellen Form extrem unattraktiv.

Agent117
2017-07-31, 11:55:47
Mag ja sein, dass Vega wirklich bis Ende des Jahres im Mittel aller Spiele 20% mehr durch bessere Treiber herausholt (was schon sehr viel wäre, aber im Fall von Vega wahrscheinlich).
Das Problem ist aber dass Nvidia ihr Standardprogramm der letzten Jahre ebenfalls sehr wahrscheinlich konsequent fortführen werden. Zwischen Dezember 17 und März 18 schlägt dann Volte auf mit mind. 50% mehr Perf/W in 12nm und auch geringeren Vorteilen in Perf/mm² (wie man anhand von GV100 schon sehen kann).
Wo steht AMD dann mit Vega ? Navi so schnell wie möglich bringen wäre gut aber Navi muss einen gewaltigen Rückstand in Perf/W aufholen.
Man darf in der aktuellen Situation durchaus mal die Frage stellen, ob es die RTG in derzeitiger Form noch in einem Jahr geben wird oder man sich nächstes Jahr aus dem High End Gaming offiziell zurückzieht.
Aber ich habe natürlich keine Ahnung, was sie für Navi alles in der Pipeline haben. Hoffe nur in der RTG gibt es noch gute Ideen und die Mittel und Strukturen das dann auch Umzusetzen.

Mancko
2017-07-31, 11:57:34
Zudem ist der Preispunkt auch verdächtig (auch da ist deine Argumentation in den News völlig daneben mMn), denn Vega ist vergleichsweise teuer. AMD hätte, wenn die Performance wirklich final so wäre, die Dinger niemals auf dem Preisniveau der 1080 und 1070 starten können, die hätte schlicht keiner gekauft. Man hätte die Preise, wie bei Zen, erheblich niedriger ansetzen müssen. Das haben sie nicht getan. Du kannst nicht nach einem Jahr Monopol auf dem Preisniveau des Monopolisten ansetzen, das funktioniert einfach nicht, du musst mindestens ein Produkt darunter bleiben.

Ich würde mal vermuten, dass AMD Produktionsprobleme hat und wahrscheinlich die HErstellungskosten von dem Teil erheblich höher als die einer GTX1080 und 1070 sind. Daher setzt AMD den Preis vermutlich extra so an, da es eben eine gewisse Fanbase gibt welche die PRodukte auch bei dem Preis kaufen werden. Darüber hinaus will man vermutlich gar nicht viel mehr verkaufen und insbesondere Nvidia nicht zu einer Preisreduzierung annimieren. Denn eins ist klar. Nvidia kann AMD hier mit einer Preisreduzierung bei der 1080 und 1070 im Gaming Markt komplett K.O. setzen. 1080 und 1070 sind in der Fertigung totoptimiert und kosten erheblich weniger in der Herstellung. Das lässt einfach deutlich größere Preisspielräume zu. Ich denke deshalb, dass AMD deswegen einfach gar keinen Preiskrieg anzetteln will. Ich bin mal gespannt was Nvidia macht. Eigentlich könnten sie jetzt AMDs RTG richtig weh tun. Ich glaube aber die lassen es und verdienen lieber weiter viel Geld. Huang hat ja im Vorfeld schon gesagt, dass er nicht glaubt das sich ihre Wettbewerbssituation groß ändern wird mit Vega. Jede Wette das die schon ungefähr wussten was da kommt.

BlacKi
2017-07-31, 11:57:59
tja, nix neues oder? die karte performt genau so wie man es von der FE ableiten konnte. nur dachte ich rx vega kommt mehr mehr takt statt mit weniger ggü. der FE.

wie kommt ihr eigentlich darauf das amd preislich alles richtig gemacht hat? die rx 56 ist vl preislich am attraktivsten, aber 400$ ggü. der gleich schnellen 350$ msrp 1070? oder die 499$ rx64 vs die schnellere gtx1080 499$?
achso die rabatte die wohl kaum einer braucht. aha.

noch interessanter ist die frage wo man rx64 preislich einordnen will, wenn die gtx 2060/2070 in ein paar monaten kommt. +-300€ für nen 500mm² chip? autsch.

OC_Burner
2017-07-31, 12:00:30
Scheinen wohl echte Vega Shots auf den Slides zu sein.:)

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-37.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-05.jpg

Fragman
2017-07-31, 12:00:39
sorry, aber wie lange haben sie jetzt am treiber gewerkelt, 1 jahr?
es sollte doch klar sein das da nichts mehr kommt.

und langsam glaube ich nicht, das das treiber team die probleme verursacht, sondern eher, das die hardware sparte es nicht auf die reihe bekommt.
die ganzen neuerungen der hardware verpuffen einfach, kommt davon ueberhaupt etwas an?