PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 [41] 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Pixelmonk
2017-07-31, 12:03:16
Naja, wenn Vega 64 Air für 500-550 Euro kommt, konkurriert sie bei "uns" mit der 1060 / 1070 ;) So lange die Versorgung der nV Karten eher knapp ist, so lange gibt es die (krassen) Aufpreise.

nV (UVP) Preise sind ja schön und gut, aber solange die Händler ordentlich aufschlagen, so lange kann Vega durchaus attraktiv sein.

Die Bundles sind jedoch schlicht dämlich. Warum kein Threadripper Bundle?
In der aktuellen Form extrem unattraktiv.


Keine Ahnung wo du wohnst, aber bei in Deutschland bekommt man eine custom GTX 1070 für €450, und eine custom GTX 1080 für €550.

Palpatin
2017-07-31, 12:04:38
noch interessanter ist die frage wo man rx64 preislich einordnen will, wenn die gtx 2060/2070 in ein paar monaten kommt. +-300€ für nen 500mm² chip? autsch.
Vermute das man bis dahin eine auf GDDR6 basierte optimierte VEGA Karte am Start hat die irgendwo auf 2070 oder 2060 Niveau liegt. Die RX Reste werden dann genau wie Fury reste abverkauft. Navi dann frühestens zum Jahreswechesl auf 2019.

Hübie
2017-07-31, 12:06:07
Keine Ahnung wo du wohnst, aber bei in Deutschland bekommt man ein custom GTX 1070 für €450, und eine custom GTX 1080 für €550.

Er meint damit Käsekönig (caseking).

Grendizer
2017-07-31, 12:07:45
Wobei das nur die Leute betrifft, die jetzt kaufen.

Es gab schon letzte Jahr schon 1070er für 349 Euro. Die Preise sind dank Mining komplett im Arsch und ich denke auch, das Vega nicht so günstig in den Handel kommen wird, wie die Preise jetzt aufzeigen.

Agent117
2017-07-31, 12:08:31
noch interessanter ist die frage wo man rx64 preislich einordnen will, wenn die gtx 2060/2070 in ein paar monaten kommt. +-300€ für nen 500mm² chip? autsch.

Ohne Zweifel nicht optimale Marge, aber 14nm ist nicht mehr so neu und 500mm² kann man für 300€ wohl noch halbwegs profitabel verkaufen. HBM2 ist wohl auch nicht so teuer wie oft gemeint wird, was genaues weiß man aber nicht.

Complicated
2017-07-31, 12:09:03
Hmm .. ich habe jetzt mal grob gegoogled und mal versucht die Performance Zuwächse die AMD in der einen Folie für die 10 Spiele angegeben hat den Testergebnissen der Frontier Edition dazu zu rechnen. Im Schnitt ist es ja ein Plus von 13%, doch wenn man die einzelnen Spiele (habe jetzt Fallout4 und Dirt mal mit den +17% recherchiert) dann liegen die Ergebnisse so ziemlich genau zwischen 1080 und 1080 TI mit aktiviertem DSBR.
Der Rest ist schwer etwas vergleichbares zu finden.

Rush
2017-07-31, 12:09:54
Keine Ahnung wo du wohnst, aber bei in Deutschland bekommt man ein custom GTX 1070 für €450, und eine custom GTX 1080 für €550.

Ich habe sogar noch eine EVGA 1080 für 440€ auf Halde bei Amazon (Verfügbar Anfang September).

Wenn die Nvidia-Preise sinken (und das werden sie), wird es interessant sein zu sehen, ob AMD da mitziehen kann.

DrFreaK666
2017-07-31, 12:11:57
Oh man. Bin echt enttäuscht :(

Hübie
2017-07-31, 12:14:51
Hmm .. ich habe jetzt mal grob gegoogled und mal versucht die Performance Zuwächse die AMD in der einen Folie für die 10 Spiele angegeben hat den Testergebnissen der Frontier Edition dazu zu rechnen. Im Schnitt ist es ja ein Plus von 13%, doch wenn man die einzelnen Spiele (habe jetzt Fallout4 und Dirt mal mit den +17% recherchiert) dann liegen die Ergebnisse so ziemlich genau zwischen 1080 und 1080 TI mit aktiviertem DSBR.
Der Rest ist schwer etwas vergleichbares zu finden.

Welch Überraschung X-D

Vega wird möglicherweise in 5 Jahren besser dastehen als GP102, aber das bringt den wenigsten Käufern heute einen Vorteil. Echt schade, dass AMD es so verkackt hat. Hätte sicher gutes Geld für meine Hardware bekommen und der Wechsel wäre gar nicht so teuer gewesen. Nur fühlt es sich eher wie ein sidegrade an. ;(

Complicated
2017-07-31, 12:16:12
Das kommt jetzt auch ein wenig spät. Wer Ryzen wollte, wird so wie ich wahrscheinlich die Plattform schon betreiben.
;D Das wäre ja schlecht für AMD und sie könnten die Ryzen-Produktion jetzt einstellen noch bevor die Ryzen 3 Mainstreamchips den Markt erreicht haben. Ich empfehle dir Leonidas Artikel zu Retail und OEM Verkäufen mal anzuschauen:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2930-juli-2017
Hiermit läßt sich vor allem die (relative) Größe der einzelnen Märkte – OEM & Retail – genauer bemessen. In diesem Punkt dürften Jon Peddie Research auch weniger mit Schätzungen und Annahmen arbeiten müssen, sondern haben ihre Quellen aus der Industrie vorliegen, welche diese Daten (vergleichsweise) solide machen. So läßt sich gemäß dieser Daten sagen, das der Retailhandel mit Grafikkarten nur 7% aller hergestellten dedzierten Grafikchips ausmacht. Da sich im Retailhandel dann aber immer noch gewisse Kontingente an nicht fürs Gaming geeigneten LowEnd-Grafikkarten befinden, macht der Retailhandel mit reinen Gaming-Grafikkarten wohl einen nochmals geringeren Anteil aus. Etwas ausgeglichen wird dies durch Komplett-PCs mit Gaming-Grafikkarten sowie durch Gaming-Notebooks, welche in dieser Menge noch nicht enthalten sind (mangels passenden Zahlenmaterials nicht ermittelbar).
Da geht es um GPUs, doch die OEMs haben noch gar nicht angefangen Ryzen an den Endkunden zu verkaufen. Vielleicht solltest du das neu bewerten? ;)

X-Bow
2017-07-31, 12:16:13
Also ganz so kritisch wie die meisten hier sehe ich die Vega nicht. Es ist jetzt keine Wunderarchitektur aber ganz sicher auch kein Fail.

Warum ich das so sehe:
Vega ist ein ganz neue Architektur welche von Grund auf neu ist welche es in der Form davor noch nicht gab. Verglichen wird Vega aber mit Pascal, was letztliche eigentliche eine 3 Jahre alte Architektur ist (Shrink von Maxwell mit sporadischen Verbesserungen), mit dementsprechenden Optimierungen jeglicher Art. Auch sind alle Spiele die als Vergleich hergenommen werden Games welche nach Maxwell auf den Markt gekommen sind, sprich auch die ein oder andere Verbesserung für Pascal mit sich bringen.
(Spaßes-halber würde mich ein „krüppel-Test“ interessieren, 1080, 1080ti und beide Vega mit den jeweils ersten Treiber ihrer Architekturgeneration in einem Game (Vanilla) das vor den Architekturen auf den Markt kam. Sodass von beiden Seiten keine Verbesserungen stattfinden konnte.)

AMD gibt ja auch offen zu. Das Features wie HBCC und DSBR noch nicht richtig funktionieren und erst noch „verstanden“ werden muss wie man diese am besten Einsetzt. Auch kann Vega „RPM“ was kaum ein Spiel nutzt. Ergo läuft Vega nicht am Limit und kann sich noch steigern. Des weiteren versteh ich Vega als Architektur für die Zukunft, genauso wie nVidia die Volta Architektur für die Zukunft bringt (vielleicht ist Maxwell bzw. Pascal nun einfach optimierungstechnisch am Ende). Es kann gut sein das Volta auch kein großer Sprung bringt, aber eben für die nächsten 3-4 Jahre dann „reift“.

Damit sehe ich Vega nicht als Fail sondern Schritt in die Zukunft. (Genau so könnte übrigens auch das „poor Volta“ gemeint sein, nicht das man schneller ist als Volta sondern die Architektur führ zukünftige Generationen dieses mal vor nVidia mit Volta am Start hat)

Ich werd mir eine Vega 64 LC in den Rechner packen (FreeSync, WaKü Freund aber zu Faul was selbst zu basteln, und ich mag tatsächlich den nV Treiber meiner jetzigen Pascal-Karte nicht (ständig schwarzer Bildschirm beim Starten von Anwendungen oder Bildswitch auf Fernseher), hatte bisher mit AMD Treiber weniger Probleme als mit nVidia.)

HOT
2017-07-31, 12:17:58
and the trolling continues...


sorry, aber wie lange haben sie jetzt am treiber gewerkelt, 1 jahr?
es sollte doch klar sein das da nichts mehr kommt.

und langsam glaube ich nicht, das das treiber team die probleme verursacht, sondern eher, das die hardware sparte es nicht auf die reihe bekommt.
die ganzen neuerungen der hardware verpuffen einfach, kommt davon ueberhaupt etwas an?
Komplexe Hardware erfordert komplexe Software. Es was ja die Rede davon, dass man den Shadercompiler für Vega komplett neu Schreiben musste. Das wird NV für Maxwell ebenfalls getan haben, aber die hatten einfach andere Zeiträume, denn für GM107 war es nicht so wichtig und GM2xx kam ja fast ein Jahr später, was ein Jahr mehr Treiberarbeit ermöglichte und NV hat da die besseren Leute im Vergleich zu AMD.
Ich gehe jede Wette ein, dass der Treiber erhebliche Probleme verursacht hat und alle Zeitpläne gerissen hat. Ich mein, Vega performt bei verschiedenen Spielen echt unterirdisch und bei einigen ziemlich gut. Das ist eigentlich eher ein Zeichen dafür, dass die Software einfach nicht in der Lage ist die Hardware in jeder Situation, auch in den ungünstigen, gut auszulasen. NV hat da Jahrelang erheblich mehr Manpower reingesteckt und auch für kleinere Titel direkt optimiert, falls die ungünstig liefen, das zahlt sich halt aus.
AMD hat erst ab 2015 begonnen Manpower für das Treiberteam zu aquirieren, das dauert alles seine Zeit. Wenn man beginnt ein Softwareteam mit so spezieller Erfahrung aufzubauen dürfte man erst jetzt auf einem Level sein, dass man mit NV auch nur annähernd konkurrieren kann. AMDs Kostendruck hat eben wichtige Köpfe gekostet und den Aufbau des Teams verhindert/verzögert, das rächt sich jetzt.
Bei Hardware gilt ähnliches, AMD kann nur so viele Chips gleichzeitig bringen, wie NV das schafft.

Grendizer
2017-07-31, 12:20:23
... Verglichen wird Vega aber mit Pascal, was letztliche eigentliche eine 3 Jahre alte Architektur ist (Shrink von Maxwell mit sporadischen Verbesserungen), mit dementsprechenden Optimierungen jeglicher Art. Auch sind alle Spiele die als Vergleich hergenommen werden Games welche nach Maxwell auf den Markt gekommen sind, sprich auch die ein oder andere Verbesserung für Pascal mit sich bringen...

Die Tests wurden alle unter DX12/Vulcan durchgeführt. DX12 liegt den nVidia Karten bekannterweise weniger als den AMD Karten. Allerdings performen die nVidia Karten unter DX11 in den Spielen oft auf einem besseren Level als die DX12 Ergebnisse. Also sind die Test suboptimal für den nVidia Vergleich angelegt.

Hat man mit DX12 wirkliche Vorteile ? Die einen sagen so, die anderen sagen so.... aber meiner Meinung nach braucht man sich mit einer starken CPU, nVidia Karten und DX11 auch nicht vor AMD und DX12 verstecken.

Hübie
2017-07-31, 12:21:31
Ich zitiere mich mal selber:

Also man muss ja Fiji ersetzen -> Vega 11. Der Salvage schließt die Lücke so dass man auf Fury-non-X-Niveau kommt. Vega 10 ist dann GP104 auf Steroide (1080 OC)und V10 Salvage ordnet sich bei einer 1070 / GTX 980 Ti OC ein. So deckt man alles ab.
Wünschenswert wäre natürlich dass man GP102 kontert und somit eine waschechte 4k-Karte hat, aber ich lass mal die Kirche im Dorf. :D GP104 ist z.B. weder Fisch noch Fleich. Für 1440p zu schnell, für 4k zu lahm. Ideal eigentlich nur für 3440x1440. Somit wäre V10 also auch nix Halbes aber auch nix Ganzes.

Exakt dies traf nun ein.

Complicated
2017-07-31, 12:22:47
Die Tests wurden alle unter DX12/Vulcan durchgeführt.
Wie kommst du darauf?
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-35.jpg

Pirx
2017-07-31, 12:23:57
poor Voltage war es afair

Grendizer
2017-07-31, 12:24:49
Wie kommst du darauf?
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-35.jpg

Die Vergleichstests.... :rolleyes:

Complicated
2017-07-31, 12:25:44
@Wow
Auf welche beziehst du dich? (Screemer hat schon recht mit den Quellen ;) )

Rush
2017-07-31, 12:27:31
AMD gibt ja auch offen zu. Das Features wie HBCC und DSBR noch nicht richtig funktionieren und erst noch „verstanden“ werden muss wie man diese am besten Einsetzt. Auch kann Vega „RPM“ was kaum ein Spiel nutzt. Ergo läuft Vega nicht am Limit und kann sich noch steigern.

Man kann natürlich hoffen, dass das Potential noch ausgeschöpft wird, aber darauf verlassen sollte man sich nicht.

Über den Preis - wie erhofft - kommt man dieses mal nicht, denn dafür wird Vega 100€ zu teuer. Hauptkriterium ist aktuell wirklich FreeSync. Mehr sieht der 08/15 Gamer zZ nicht.

mczak
2017-07-31, 12:27:46
Ich wäre dankbar, wenn Du mir selbst die Entscheidung überlässt, was ich lesen möchte und was nicht. :rolleyes:

Ja die sind ganz interessant - die technischen Details sind doch einiges konkreter.
Da wird nun auch offiziell bestätigt dass der native Polygondurchsatz (taktbereinigt) genau so hoch ist wie bei Fiji (oder auch Polaris 10), und die höhere Culling-Rate nur mit Primitive Shader erreicht werden kann. Wie man die erreichen will ist mir allerdings immer noch schleierhaft, der Treiber macht sowas wohl nicht von selber, und direkt programmieren kann man den ja (jedenfalls noch) nicht.


Wie speziell ist Perlin Noise und was bitte schön ist Vega 220W und Vega 150W?

Hier ist zu beachten dass AMD (leider, aber nicht unerwartet und durchaus üblich) nur die jeweils ineffizientesten Vertreter zum Vergleich herangezogen hat. Es fehlen sowohl non-X Fury oder Nano wie auch Polaris Chips, gegen die würde man sich wohl auf ähnlichem Niveau bewegen.

X-Bow
2017-07-31, 12:32:16
Die Tests wurden alle unter DX12/Vulcan durchgeführt. DX12 liegt den nVidia Karten bekannterweise weniger als den AMD Karten. Allerdings performen die nVidia Karten unter DX11 in den Spielen oft auf einem besseren Level als die DX12 Ergebnisse. Also sind die Test suboptimal für den nVidia Vergleich angelegt.

Hat man mit DX12 wirkliche Vorteile ? Die einen sagen so, die anderen sagen so.... aber meiner Meinung nach braucht man sich mit einer starken CPU, nVidia Karten und DX11 auch nicht vor AMD und DX12 verstecken.

Ich sprach dabei nicht von den Folien von AMD sondern von den Usern hier die "Fail" "AMD hat verkackt" "FE Benchmarks sind real" usw. schreien ;).

Grendizer
2017-07-31, 12:34:00
Ich sprach dabei nicht von den Folien von AMD sondern von den Usern hier die "Fail" "AMD hat verkackt" "FE Benchmarks sind real" usw. schreien ;).


https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-51.jpg

Die Bemerkungen zu Slide 33-35

Edit: Sorry .. ich wollte Complicated zitieren.

X-Bow
2017-07-31, 12:34:44
Man kann natürlich hoffen, dass das Potential noch ausgeschöpft wird, aber darauf verlassen sollte man sich nicht.

Über den Preis - wie erhofft - kommt man dieses mal nicht, denn dafür wird Vega 100€ zu teuer. Hauptkriterium ist aktuell wirklich FreeSync. Mehr sieht der 08/15 Gamer zZ nicht.

Ich meinte auch nicht "nur" für Vega 10 sondern für die künftigen Architekturen welche eventuell auf Vega aufbauen.

Rancor
2017-07-31, 12:35:10
Ich finde es auch ein wenig enttäuschent. Aber ich warte dann nochmal die ersten unabhängigen Benchmarks ab.

Raff
2017-07-31, 12:35:45
Ach ja. Da wird 1,7 GHz gefeiert im Vergleich zu Fiji und Polaris. Als ob das relevant wäre. :P

Pentium 4 reloaded? :ugly: Wobei "Thermi" der bessere Vergleich ist – da gab's zumindest eine hochtaktende und somit versoffene ALU-Taktdomäne.

MfG,
Raff

Skysnake
2017-07-31, 12:36:22
Also ich muss sagen, ich bin ziemlich enttäuscht...

Zu spät, zu hungrig und nicht schneller als alles andere.

Was AMD by Ryzen gut gemacht hat, haben Sie hier versiebt.

Ich bin mal nur noch gespannt, wie es in Compute aussieht, wobei ja FP64 fehlt, wodurch das Ding an sich eigentlich völlig uninteressant ist für mich....

Und zur InfiFabric hat man auch nichts gesagt....

Bis Vega20 kommt, ist der Zug für AMD bei mir abgefahren. Und für Vega20 bin ich eher pessimistisch nach dem was Sie hier abgeliefert haben. :down:

BoMbY
2017-07-31, 12:42:29
Radeon Packs DACH:

- 100€ Rabatt auf beim Kauf eines 1700X/1800X, allerdings nur in Verbindung mit: ASUS ROG Crosshair VI Extreme; GIGABYTE GA-AX370-Gaming K7 oder MSI X370 XPOWER GAMING TITANIUM
- Kein Wolfenstein (dafür Sniper Elite 4) :rolleyes:
- kein $200 Monitor-Rabatt :rolleyes:

Quelle (https://gaming.radeon.com/en-us/RXVega/?sessionGUID=48d07b00-89a8-ba32-70b0-de8c85214397&webSyncID=79e9a94d-12cd-1236-3665-5eacc850c9cd&sessionGUID=42dc727a-b816-eebc-2e64-d5e553943723)

Ja, scheint so als sollte man warten bis das "limited offer" ausgelaufen ist, und die Preise sinken ... Diese Bundle sind für die Tonne.

Hasenpfote
2017-07-31, 12:49:19
Radeon Packs DACH:

- 100€ Rabatt auf beim Kauf eines 1700X/1800X, allerdings nur in Verbindung mit: ASUS ROG Crosshair VI Extreme; GIGABYTE GA-AX370-Gaming K7 oder MSI X370 XPOWER GAMING TITANIUM
- Kein Wolfenstein (dafür Sniper Elite 4) :rolleyes:
- kein $200 Monitor-Rabatt :rolleyes:

Quelle (https://gaming.radeon.com/en-us/RXVega/?sessionGUID=48d07b00-89a8-ba32-70b0-de8c85214397&webSyncID=79e9a94d-12cd-1236-3665-5eacc850c9cd&sessionGUID=42dc727a-b816-eebc-2e64-d5e553943723)Bei Golem stand es vorhin noch anders und ich hab mich schon gefreut, für 50Euro mehr nen 1800X statt nem 1700 zu kaufen.
Aber das Angebot mit 250Euro+ Mainboards ist ja wohl n Witz.

DrFreaK666
2017-07-31, 12:52:12
Naja. Nach der 2900XT kam die gleichschnelle 3870, die deutlich weniger schluckte. Vielleicht schafft AMD das Kunststück nochmal und schließt in Punkto Leistungsaufnahme an NV an
Dann wären die Karten empfehlenswerter

Rancor
2017-07-31, 12:53:58
Schade, ich hätte gedacht nach Ryzen schaffen Sie es auch wieder im GPU Markt zum Konkurrenten aufzuschließen. So bleibt NV leider immer noch alternativlos im Performance und Highend-Bereich.

Grendizer
2017-07-31, 12:57:23
Schade, ich hätte gedacht nach Ryzen schaffen Sie es auch wieder im GPU Markt zum Konkurrenten aufzuschließen. So bleibt NV leider immer noch alternativlos im Performance und Highend-Bereich.

Ja finde das auch etwas schade, aber irgendwie absehbar. Intel treiben sie gerade ganz schön an und habe heftig Druck aufgebaut....

Jupiter
2017-07-31, 13:04:09
Die Bandbreite scheint das gut zu erklären,Fury X war in hoher Auflösung gerade wegen der Bandbreite immer stark und kacke in 1080p.Man kann also die Architektur massiv Verbessern und massig Transistoren verbraten damit sie in 1080p deutlich besser läuft,was aber ohne zusätzliche Bandbreite in 4k komplett verpufft.

Was aus meiner Sicht zu sehr betont wird weil die Karten für hohe Auflösungen zu langsam sind. Selbst die Titan X/GTA 1080Ti, welche in einer anderen völlig anderen Geschwindigkeitsklasse sind, sind keine UHD-Karten.

Schnoesel
2017-07-31, 13:04:39
Das bedeutet für den Markt leider nur eines. Die künftige Nvidia Generation wird wieder mal die teuerste. Kein Grund sich zu freuen für niemanden.

Habe andere Partner außer Asus schon Eigendesigns vorgestellt?

DrFreaK666
2017-07-31, 13:05:52
Was aus meiner Sicht zu sehr betont wird weil die Karten für hohe Auflösungen zu langsam sind. Selbst die Titan X/GTA 1080Ti, welche in einer anderen völlig anderen Geschwindigkeitsklasse sind, sind für UHD noch immer zu langsam.

Schon mal was von High Details gehört anstatt very high?
Je nach Spiel schafft das auch meine 980TI

Erbsenkönig
2017-07-31, 13:05:57
;D Das wäre ja schlecht für AMD und sie könnten die Ryzen-Produktion jetzt einstellen noch bevor die Ryzen 3 Mainstreamchips den Markt erreicht haben. Ich empfehle dir Leonidas Artikel zu Retail und OEM Verkäufen mal anzuschauen:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2930-juli-2017

Da geht es um GPUs, doch die OEMs haben noch gar nicht angefangen Ryzen an den Endkunden zu verkaufen. Vielleicht solltest du das neu bewerten? ;)

Ich verstehe ehrlich gesagt nicht, worauf du hinaus willst. Diese "Pakete" gibt es doch nur im Einzelhandel, oder?:confused:

Jupiter
2017-07-31, 13:08:51
Schon mal was von High Details gehört anstatt very high?
Je nach Spiel schafft das auch meine 980TI

Für Wildlands reicht es mit einer Titan X auf Ultra gerade einmal für 1440p/60fps. Um UHD zu erreichen muss die Grafik enorm abgeschwächt werden. Bei anderen Titeln wie Mass Effect Andromeda wird es ähnlich aussehen. Viel zu langsam für UHD. Da verstehe ich nicht wie die viel langsamere Fury X da in UHD gut laufen soll, wenn die Rechenleistung nicht ausreicht.

BlackBirdSR
2017-07-31, 13:10:21
Ich denke, dass du da komplett daneben liegst. Polaris wäre jetzt nicht schlechter gewesen, aber wenn man das mal über 2-3 Jahre sieht ist Polaris sicher nicht konkurrenzfähig. Lass die die Treiber mal optimiert haben und den DSBR und HBCC mal großflächig im Einsatz haben, dann sieht die Sache anders aus.


Das hätte Polaris bei dann moderner Software nicht gepackt. Jetzt im Moment wäre Polaris natürlich kein Nachteil gewesen, aber Vega ist ja mehr als das jetzige Produkt, das ist die architektonische Grundlage für bestimmt 5 Jahre. Insofern ist es tatsächlich ein R600 - RV770 und Evergreen sind ebenfalls Abkömmlinge des R600. Ich glaube aber, dass der Vergleich hinkt, da hier vor allem die Software einfach nicht fertig geworden ist. Die haben mMn solange gebraucht den grundsätzlichen IP9-Treiber zu schreiben, dass für Optimierungen schlicht keine Zeit mehr blieb. Das wird sicher noch 1/4 Jahr dauern, bis man da auf einem akzeptablen Niveau ist, man wollte aber so lange den Launch nicht verschieben.



Nicht böse gemeint, aber warum erinnert mich ganze an Pentium 4 und SSE 2 statt P3?

DrFreaK666
2017-07-31, 13:11:27
Wenn die Next-Gen-Konsolen Vega-GPUs haben, dann werden sie wieder eher schwach was Grafikleistung angeht

Erbsenkönig
2017-07-31, 13:12:12
Referenzkarten von Sapphire:

http://www.sapphiretech.com/catapage_pd.asp?cataid=338&lang=eng

Complicated
2017-07-31, 13:13:51
Ich verstehe ehrlich gesagt nicht, worauf du hinaus willst. Diese "Pakete" gibt es doch nur im Einzelhandel, oder?:confused:Nur sind diese OEM-Geräte ja noch gar nicht im Einzelhandel angekommen. Es ist weniger als 10% des bisherigen Endkunden-Marktes mit Produkten beliefert worden. Daher kannst du kaum davon ausgehen, dass jeder der einen Ryzen wollte schon einen daheim stehen hat. Das würde ja bedeuten, dass all die Dell, HP und Lenovo Desktops im Laden stehen bleiben würden. Das Vega Bundle ist attraktiv genug um so manchen Komplett-PC Käufer dazu zu bewegen sich das Teil dann lieber von einem "Bekannten" zusammen bauen zu lassen bei der Ersparnis. Freesync Monitore sind auch noch nicht auf jedem Zocker-Tisch zu finden.

dargo
2017-07-31, 13:13:52
Wenn die Next-Gen-Konsolen Vega-GPUs haben, dann werden sie wieder eher schwach was Grafikleistung angeht
Blödsinn. Eine Konsolenumgebung ist was völlig anders als der PC!

HOT
2017-07-31, 13:15:05
Ich zitiere mich mal selber:



Exakt dies traf nun ein.
Kurzfristig wird V11 oberhalb Polaris antreten und mittelfristig V12 Polaris 10 (und 11 teilweise) ersetzen. Dann gibts da noch V20, bei dem ich der Meinung bin, dass AMD sich keinen Chip allein für HPC leisten kann wie NV, dafür fehlt die nötige Marktdurchdringung. V20 wird also ebenfalls mittelfristig in alle Bereiche wandern.

Nicht böse gemeint, aber warum erinnert mich ganze an Pentium 4 und SSE 2 statt P3?

Wenn man sich die Primitive-Shader und FP16 anschaut, könnte man durchaus (mit Abstrichen) auf diese Idee kommen.

Wenn die Next-Gen-Konsolen Vega-GPUs haben, dann werden sie wieder eher schwach was Grafikleistung angeht

a.) sind das Polaris/Vega-Hybriden und
b.) ist das purer Unsinn, weil sie ja unmittelbar optimiert werden, das ist nicht mit PC-Grafik vergleichbar

Außerdem ist Vega teilweise wie schon erwähnt punktuell sehr stark und durchaus auf 1080Ti-Niveau. Grade Frostbyte-Spiele scheinen Vega von Anfang an zu liegen. Allerdings ist er stellenweise auch extrem schwach, also unter 1070 Niveau und stellenweise grade mal 15% über Fiji. Eine solche Bandbreite kann eigentlich nur über Software erklärt werden.

Erbsenkönig
2017-07-31, 13:16:41
Nur sind diese OEM-Geräte ja noch gar nicht im Einzelhandel angekommen. Es ist weniger als 10% des bisherigen Endkunden-Marktes mit Produkten beliefert worden. Daher kannst du kaum davon ausgehen, dass jeder der einen Ryzen wollte schon einen daheim stehen hat. Das würde ja bedeuten, dass all die Dell, HP und Lenovo Desktops im Laden stehen bleiben würden. Das Vega Bundle ist attraktiv genug um so manchen Komplett-PC Käufer dazu zu bewegen sich das Teil dann lieber von einem "Bekannten" zusammen bauen zu lassen bei der Ersparnis. Freesync Monitore sind auch noch nicht auf jedem Zocker-Tisch zu finden.

Das leuchtet ein. Ich sprach (natürlich) von der (wohl zugegebenermaßen kleinen) Zielgruppe der "Zocker", die gleichzeitig auch noch technikaffin genug sind, an solch dubiosen Orten wie hier abzuhängen :D

Jupiter
2017-07-31, 13:18:08
Wenn die Next-Gen-Konsolen Vega-GPUs haben, dann werden sie wieder eher schwach was Grafikleistung angeht

Die GPU-Leistung der PlayStation 4 Pro und Xbox One X sind für den PC nicht bedrohlich. Ob es in der nächsten Generation in der alle Komponenten aufgewertet werden sollen, im GPU-Bereich anders aussehen wird? Die werden wahrscheinlich etwas in der Leistungsklasse von Vega nutzen.

Complicated
2017-07-31, 13:21:19
Na für solche Leute wie hier fallen die Bundles ja schon Aufgrund der mangelnden Auswahl flach, würde ich meinen ;) Ich würde mir z.B. keinen 34" kaufen und auch keinen curved Monitor und ich vermute nur wenige hier würden einen Samsung Monitor nehmen. Die Spiele haben die meisten wohl auch schon durch. Die X370 Boards finde ich auch allesamt überteuert.

Erbsenkönig
2017-07-31, 13:27:19
Na für solche Leute wie hier fallen die Bundles ja schon Aufgrund der mangelnden Auswahl flach, würde ich meinen ;) Ich würde mir z.B. keinen 34" kaufen und auch keinen curved Monitor und ich vermute nur wenige hier würden einen Samsung Monitor nehmen. Die Spiele haben die meisten wohl auch schon durch. Die X370 Boards finde ich auch allesamt überteuert.

Sehe ich genauso. Glaubt AMD aber dann, dass der "gemeine Kunde" zuschlagen wird?:confused:

Erbsenkönig
2017-07-31, 13:30:01
http://www.eurogamer.net/articles/digitalfoundry-2017-radeon-rx-vega-revealed

AMD talked performance on the air-cooled RX Vega 64, saying that the minimum reported frame-rates are generally higher on their card compared to Nvidia's GTX 1080 (53fps vs 45fps) when benchmarked across nine titles at ultra-wide 1440p resolution (3440x1440). Obviously, vendor-supplied metrics need to be taken with a massive pinch of salt, but AMD is promising big improvements to the variable gaming performance reported from the existing Radeon Vega Frontier Edition, a prosumer version of the card available now. The boosts to performance come from significantly improved drivers and a revision to power delivery, even though consumer card frequencies are mildly downclocked compared to the Frontier Edition.

Noch geht was :D

Schlammsau
2017-07-31, 13:40:10
Weiß man schon wie Vega beim Minen performt?

Schnoesel
2017-07-31, 13:43:55
Finde ich auch interessant:
AMD forscht: Radeon Vega Nano, Radeon-Pro-Karten und der Petaflop-Server Project 47


Weil die Siggraph in Los Angeles stattfindet und traditionell von Hollywoods Filmemachern und Effektspezialisten bevölkert wird, nahmen diese einen großen Teil der Capsaicin-Präsentation ein.

und

Grafikveteran Roy Taylor soll die neugegründete Abteilung AMD Studios leiten. Hier arbeiten neben AMD-Ingenieuren zahlreiche Hollywood-Experten daran, offene Standards wie OpenCL und GPUOpen weiter voranzutreiben.


http://www.pcgameshardware.de/Vega-Codename-265481/News/Radeon-Vega-Nano-1234514/

Irgendwie kommt es mir so vor als wäre der Fokus der Vega ganz klar nicht das Gaming sondern allenfalls ein Nebenprodukt.

Grendizer
2017-07-31, 13:51:52
Finde ich auch interessant:
AMD forscht: Radeon Vega Nano, Radeon-Pro-Karten und der Petaflop-Server Project 47



und




http://www.pcgameshardware.de/Vega-Codename-265481/News/Radeon-Vega-Nano-1234514/

Irgendwie kommt es mir so vor als wäre der Fokus der Vega ganz klar nicht das Gaming sondern allenfalls ein Nebenprodukt.


Doch ich glaube schon, das sie Gaming interessiert, aber eher in Form von semi-custom Designs für Konsolen.

cat
2017-07-31, 13:53:07
Die 99th Percentile-Werte gepaart mit dem Chill-Stromverbrauch und den Verkaufspreisen sind jetzt nicht total unattraktiv, oder?

Die 99th Percentile, minimum FPS und dropped Frames sind ja hauptverantwortlich für das Spielgefühl bzw. die Immersion.

Hier ein Link zur HBCC-Info bei CB
https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/3/#abschnitt_der_high_bandwidth_cache_controller

aktuell im Standard OFF wegen noch zu wenig Erfahrung für generelle Aktivierung.
manuell bis zu 64GB zuteilbar.

Raja sagt der HBCC ist eine Garantie für Zero-Dropped -Frames
https://www.youtube.com/user/amd/videos

HOT
2017-07-31, 13:55:33
So wie ich das verstanden habe, braucht man mit aktivem HBCC aber mehr RAM im System als 16GB, scheint jedenfalls empfehlenswert. Das dürfte auch der Grund sein, warum es standardmäßig deaktiviert ist. Es braucht halt viel Speicher.

SamLombardo
2017-07-31, 14:01:37
Für Wildlands reicht es mit einer Titan X auf Ultra gerade einmal für 1440p/60fps. Um UHD zu erreichen muss die Grafik enorm abgeschwächt werden. Bei anderen Titeln wie Mass Effect Andromeda wird es ähnlich aussehen. Viel zu langsam für UHD.
Aber nur, wenn man unbedingt 60 fps braucht. Ich spiele Wildlands mit allem@max in UHD mit meiner Ti bei 45fps und empfinde es als super spielbar. Genau das selbe gilt für Andromeda. Da ist nichts abgeschwächt. Die 1080Ti ist schon eine UHD Karte mMn. Es sei denn, die durchgehenden 60 fps sind "heilig". Mehr geht natürlich immer aber es ist so schon echt gut spielbar.


Sorry für OT

Der_Korken
2017-07-31, 14:04:26
So wie ich das verstanden habe, braucht man mit aktivem HBCC aber mehr RAM im System als 16GB, scheint jedenfalls empfehlenswert. Das dürfte auch der Grund sein, warum es standardmäßig deaktiviert ist. Es braucht halt viel Speicher.

Ja gut, dass was an physikalischem Speicher auf der Graka weniger vorhanden ist, muss man natürlich mit RAM ausgleichen. Im Worst-Case braucht man 3 GB mehr als eine 1080Ti, wenn eine Anwendung >=11GB Speicher allokiert. Da normaler RAM erheblich billiger ist und zudem aufrüstbar, finde ich das schon ein sehr schönes Feature. Bei Fiji wäre der HBCC der Knaller schlechthin gewesen.

(Ich gehe mal davon aus, dass nichts doppelt gespeichert wird und der Inhalt des VRAM nicht noch zusätzlich im RAM liegen muss oder dass man es zumindest so konfigurieren kann (für professionelle Anwendungen kann ein "inklusiver" Ansatz aber sicherlich nützlich sein))

Relic
2017-07-31, 14:05:27
Weiß man schon wie Vega beim Minen performt?

ca. 1080 Niveau also ziemlich schlecht... ka was man noch an optimierungen an der Minersoftware rausholen kann...

Complicated
2017-07-31, 14:09:24
Aus dem CB-Link
Dies liegt daran, dass der HBCC so genanntes (flexibel großes) Page-Based Memory Management nutzt, das die Speicherdaten selbstständig in für die GPU optimale Pages aufteilt. Dadurch ist es zum Beispiel nicht nötig, immer einen kompletten Datensatz im Grafikspeicher zu haben. Dieser kann zum Teil im Grafikspeicher und zum anderen Teil im Systemspeicher liegen. Aktive Pages werden im High Bandwidth Cache (der HBM2-Speicher) gehalten, während inaktive in den Systemspeicher geschoben werden. Ohne HBCC würde auch inaktive Teile durchweg im Grafikspeicher gelassen oder müssten komplett in den Systemspeicher und bei erneuter Verwendung wieder zurück kopiert werden.
Also damit würde man den Entwicklern aber einiges an Arbeit abnehmen, wenn man kein eigenes Speichermanagement mehr programmieren müsste bei Low-Level APIs für diese SKUs. DX12/Vulkan fordern ja gerade beim Speichermanagement viel Einarbeitung und Aufwand.
Irgendein DX12/Vulkan-Enwickler hier der das aus erster Hand beurteilen kann?

ca. 1080 Niveau also ziemlich schlecht... ka was man noch an optimierungen an der Minersoftware rausholen kann...
Deutlich über 1080-Niveau minen die Polaris Karten ja schon. ;) Ungefähr so schnell wie eine 1080 Ti. (bei Etherum)

Blediator16
2017-07-31, 14:10:57
Die PR war eindeutig von der feinsten Sorte. Wie man es eben von der GPU Sparte bei AMD gewohnt ist. Ein halbes Jahr vorher davon reden, drölfzig Ankündigungen machen und am Ende die gewohne AMD Lieferung. Sie brauchen ein zweites Ryzen im GPU Segment.

Complicated
2017-07-31, 14:14:01
Navi sollte das zweite Ryzen werden - kleine Chips mit IF verbunden und dadurch skalierbar.

iuno
2017-07-31, 14:40:47
Raja sagt der HBCC ist eine Garantie für Zero-Dropped -Frames
https://www.youtube.com/user/amd/videos
Raja sagt viel wenn der Tag lang ist :rolleyes:

NV gibt Einsparungsraten von 62%+ durch diese Technik an. Was haben die da gemacht?
Realistische Werte angegeben? ;D
Dann schau mal wie sich die Bandbreite und Spieleleistung bei Nvidia entwickelt hat und dann schau bei Vega.

Ich denke, dass das Sollziel schon war, 30-50% Mehrleistung durch den neuen Raserizer auch zu erreichen, das wurde aber aus irgendeinem Grund verfehlt.
Da bin ich mir sogar relativ sicher. Sonst haette man auch direkt ein SI mit 4096 Bit verbauen koennen. Der groessere Interposer macht den Kohl bei Vega doch auch nicht mehr fett. Salvage kann man immer noch mit 2 oder 3 Stacks (oder beides!) verkaufen und beim Topmodell deutlich mehr verlangen. Die Taktraten waeren beim HBM dann auch nicht das Problem, das sie zu sein scheinen.
Mindestens die liquid wuerde man so sicher auf Ti Niveau bekommen, selbst wenn sie Strom braeuchte ohne Ende waere der Ersteindruck ein ganz anderer.
Verstehe einfach nicht, wie sowas passieren kann. Das muss doch schon seit einer Ewigkeit klar gewesen sein. Nachdem Fiji ueberall als unausgeglichen tituliert wurde haut man den Nachfolger mit zu wenig Bandbreite raus. Und dann kommen auch noch so Marketing-Fails wie "Ultra High End" und "Poor Volta" :facepalm:

Relic
2017-07-31, 14:48:33
Deutlich über 1080-Niveau minen die Polaris Karten ja schon. ;) Ungefähr so schnell wie eine 1080 Ti. (bei Etherum)

ETH ist aber nur eine Coin und z.B. auf 1080 und 1080TI nicht die profitabelste...

X-Bow
2017-07-31, 14:52:52
Sagt mal hab ich irgendwo ein Test übersehen wo zu sehen war das Vega ein Bandbreitenproblem hat?

Wenn Ja, kann mir wer bitte den Link schicken oder zumindest sagen wo ich den Test finden kann?

Danke im Voraus.

Hübie
2017-07-31, 14:54:50
Irgendwie kommt es mir so vor als wäre der Fokus der Vega ganz klar nicht das Gaming sondern allenfalls ein Nebenprodukt.

Dann muss man mal ganz klar formulieren: Wenn dem so ist sind die dumm! Man schaue sich an, wo die ganzen Riesen die fette Kohle machen. :rolleyes:

SRY 4 OT.

AtTheDriveIn
2017-07-31, 14:56:54
http://www.eurogamer.net/articles/digitalfoundry-2017-radeon-rx-vega-revealed


Noch geht was :D

https://abload.de/img/capture8duyv.png

...passend dazu diese Slide aus der Präsentation? :)

Troyan
2017-07-31, 14:58:01
Vega floppt doch auch im professionellen Markt. Quadro P6000 schneller. GV100 schneller. Keine Chance im Notebookmarkt, da viel zu ineffizient.

Vega ist einfach ein Jahr zu spät auf dem Markt gekommen. "Time to Market" ist essientiell in diesem Geschäft.

dargo
2017-07-31, 15:03:48
Sagt mal hab ich irgendwo ein Test übersehen wo zu sehen war das Vega ein Bandbreitenproblem hat?

Wenn Ja, kann mir wer bitte den Link schicken oder zumindest sagen wo ich den Test finden kann?

Danke im Voraus.
Bisher alles nur Vermutungen. Genaueres wissen wir erst wenn die ersten Skalierungstests eintrudeln.

scully1234
2017-07-31, 15:04:26
Und dann kommen auch noch so Marketing-Fails wie "Ultra High End" und "Poor Volta" :facepalm:


"Wenn du das Unmögliche ausgeschlossen hast, dann ist das, was übrig bleibt, die Wahrheit, wie unwahrscheinlich sie auch ist"

Wollte man nicht auch das Unmögliche schaffen...


AMDs UK-Abteilung hat einen Tweet verschickt, der die Hardware-Welt zu Spekulationen verleitet. Der Chiphersteller sei bereit, auf der SIGGRAPH 2017 im Rahmen des eigenen Capsaicin-Events "das Unmögliche zu zeigen (http://www.pcgameshardware.de/Vega-Codename-265481/News/Launch-Vergleich-GTX-1080-1233768/)

unl34shed
2017-07-31, 15:08:05
Sagt mal hab ich irgendwo ein Test übersehen wo zu sehen war das Vega ein Bandbreitenproblem hat?

Wenn Ja, kann mir wer bitte den Link schicken oder zumindest sagen wo ich den Test finden kann?

Danke im Voraus.

Gab meines Wissens nach nur die zuvor geleakten firestrike Durchläufe und da skalierte die grafik score noch immer 1zu1 bei einer Taktsteigerung von 1.5 auf 1.6 GHz. HBM Takt soll gleich gewesen sein 945mhz.

Ist halt nichts offizielles.
https://videocardz.com/71090/amd-radeon-rx-vega-3dmark-fire-strike-performance

Troyan
2017-07-31, 15:14:43
Sieht wohl so aus, dass AMD sich gleich 3DMark kauft, um Vega vor Pascal zu platzieren:
http://www.hardware.fr/medias/photos_news/00/54/IMG0054435.jpg
http://www.hardware.fr/news/15210/amd-leve-voile-rx-vega.html

Korvaun
2017-07-31, 15:16:33
Wollte man nicht auch das Unmögliche schaffen...


AMDs UK-Abteilung hat einen Tweet verschickt, der die Hardware-Welt zu Spekulationen verleitet. Der Chiphersteller sei bereit, auf der SIGGRAPH 2017 im Rahmen des eigenen Capsaicin-Events "das Unmögliche zu zeigen (http://www.pcgameshardware.de/Vega-Codename-265481/News/Launch-Vergleich-GTX-1080-1233768/)

Na das hat AMD doch auch geschafft. Sie sind mit "Vega" weiter von der Spitze weg als sie es mit dem Vorgänger "Fiji" zum Release waren ;)

[dzp]Viper
2017-07-31, 15:17:25
Also Performance knapp oberhalb der nv 1080. Gar nicht so schlecht für unausgereifte Hardware und Treiber.

Wahrscheinlich wird das wieder so wie mit jeder AMD Karte der letzten Jahre. Über die nächsten 1-2 Jahre bekommt die Karte nochmal 15-30% mehr Performance und landet dann doch auf dem Niveau der 1080ti... nur eben viel zu spät.

Die ganzen Features der Karte sind toll. Aber werden meist fast gar nicht von den Spieleentwicklern genutzt. Kann sich noch wer an das Audio-Dingsbums auf der Fiji erinnern? Das klang so toll und war direkt vom Marktstart aus tot... :(

Bleibt Vega64 beim Straßenpreis unter 500€ wäre das ein wirklich gutes Angebot gegenüber der 1080. Über 550€ diese dann aber zu teuer.

X-Bow
2017-07-31, 15:20:13
@unl34shed: Genau das war auch mein letzter Stand, aber weil hier so viele mit Verbissenheit behaupten es läge an der Bandbreite dachte ich schon irgendwas verpasst zu haben.
Ich gehe nämlich davon aus das AMD die Probleme bei der Fury kennt und denen vorgebeugt hat. Alles andere wäre sonst echt fraglich.

Screemer
2017-07-31, 15:34:17
Deutlich über 1080-Niveau minen die Polaris Karten ja schon. ;) Ungefähr so schnell wie eine 1080 Ti. (bei Etherum)
Eine 1070 ist schneller als eine 1080. Das liegt schlicht am RAM und dessen Latenz. Eine 1070 ist auch scheller als eine polariskarte.

y33H@
2017-07-31, 15:34:49
Scheinen wohl echte Vega Shots auf den Slides zu sein.

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-37.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-05.jpg
https://abload.de/thumb/vega-10-wafer94si5.png (http://abload.de/image.php?img=vega-10-wafer94si5.png)

dargo
2017-07-31, 15:39:24
Sieht wohl so aus, dass AMD sich gleich 3DMark kauft, um Vega vor Pascal zu platzieren:
http://www.hardware.fr/medias/photos_news/00/54/IMG0054435.jpg
http://www.hardware.fr/news/15210/amd-leve-voile-rx-vega.html
Ist halt der einfachste Schritt die Vorteile von FP16 zu präsentieren. Den nächsten Schritt müssen die Spieleentwickler machen.

Screemer
2017-07-31, 15:42:41
Vega floppt doch auch im professionellen Markt. Quadro P6000 schneller.
Das ist schon mal inkorrekt. In creo gibts auf den Arsch für gp100 und in anderen professionelle workloads ist das plv um Welten besser: http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375-6.html

Troyan
2017-07-31, 15:45:32
ach komm, so wie Nvidia Timespy gekauft hatte, weil er "falsches" Async benutzt hat? Ist doch immer wieder lustig wie die Anschuldigungen von der einen oder anderen Seite kommen.
Timespy war ein DX12 FL11.0 Benchmark, wo man hauptsächlich die API verändert hat. Der nächste 3dmark ist hoffentlich endlich FL12.0 und nutzt dann eben mehr Features von DX12 wie FP16 Support. Keine Sorge, 1,2 Jahre später kommt dann bestimmt auch ein Bench der von DX12_1 nutzen zieht.

Na, hoffentlich gibt es in dem Bench auch ein nVidia-Teil mit fetten Logo, wo Pascal erheblich schneller ist.

Das fette AMD Logo im Screen hast du gesehen, ja?

Das ist schon mal inkorrekt. In creo gibts auf den Arsch für gp100 und in anderen professionelle workloads ist das plv um Welten besser: http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375-6.html

Toll, in einem Benchmark, wo es NICHT auf die Leistung der Hardware ankommt. AMD hat Werte für die W9100 im Energy-01 Teil vom SpecView veröffentlichen: Langsamer als P6000.

basix
2017-07-31, 15:47:48
wtf was hier für Zeugs abgefeuert wird...Krude Verschwörungstheorien

Wenn AMD dort steht ist doch alles gut. Dann weiss man, wer der Sponsor ist. 3DM11 hatte MSI als Sponsor etc. 3DM Vantage hatte GPU PhysX und es gibt noch dutzende weitere Beispiele. Oder wie war das nochmals mit Witcher 3 und absurd hoher Tesselation-Faktoren, welche auch Kepler weh getan haben? TWIMTBP ist im Vergleich zu AMD & Wolfenstein II ja auch Sponsoring in indirekter Form. Jeder Hersteller will sein Produkt möglichst gut aussehen lassen. Und wenn man das Logo noch dick und fett sieht, verstehe ich einfach nicht, wie man das kritisieren will...

RX Vega scheint leider nicht ganz das erhoffte Leistungsniveau zu erreichen. Aber mal den 14. August abwarten, vielleicht kommt noch was.

Edit:
Beim neuen 3DM wird anscheinend eine Peformance-Verbesserung bei identischer Optik erreicht. Wenn ein Hersteller das nicht kann, dann ist es halt so. In die gleiche Richtung geht Async Compute. Keine Nachteile für die Konkurrenz, Vorteile für das eigene Produkt.

Dural
2017-07-31, 15:48:30
Das ist schon mal inkorrekt. In creo gibts auf den Arsch für gp100 und in anderen professionelle workloads ist das plv um Welten besser: http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375-6.html

Bei welchem verbrauch? ;) und im durchschnitt ist pascal immer noch schneller.

Linmoum
2017-07-31, 15:50:15
Schon bitter. Jetzt weiß man zwar, dass der DSBR bei der FE tatsächlich noch keine Rolle spielt (lol ne bei der FE ist schon alles aktiv was wollt ihr denn!!), aber bringen tut er scheinbar trotzdem kaum was, wenn man sich die AMD Benchmarks anschaut. Ich gehe dann mal davon aus, dass AMD ihn bei den eigenen Benches genutzt hat, Fußnoten oder Aussagen dazu kenn ich leider nicht, vielleicht gibt's die aber doch irgendwo (oder auch nicht...).

Screemer
2017-07-31, 15:53:46
Na, hoffentlich gibt es in dem Bench auch ein nVidia-Teil mit fetten Logo, wo Pascal erheblich schneller ist.

Das fette AMD Logo im Screen hast du gesehen, ja?



Toll, in einem Benchmark, wo es NICHT auf die Leistung der Hardware ankommt. AMD hat Werte für die W9100 im Energy-01 Teil vom SpecView veröffentlichen: Langsamer als P6000.
specview ist absolut nicht tauglich um aussagen über die leistung zu geben. in specviewperf 12.1 ist die vega fe auch langsamer in allen tests als eine p5000 und zwar welten. wie es real aussieht siehst du ja bei igor. also hör bitte auf mist zu verbreiten.

dlux
2017-07-31, 15:54:18
Vega beherrscht angeblich bereits Infinity Fabric, richtig? Vielleicht klebt AMD zwei Vega 10 auf ein MCM und lässt das Monstrum alias RX Vega 128 auf die GTX 1080 Ti los. :biggrin: ;D

Jedenfalls hätte ein doppelter Polaris 10 schon vor einem Jahr released werden können und wäre mit sicherheit schneller und effizienter als Vega 10. Schade eigentlich... aber wenn der Preis stimmt wird auch RX Vega gekauft.

Troyan
2017-07-31, 15:55:00
specview ist absolut nicht tauglich um aussagen über die leistung zu geben. in specviewperf 12.1 ist die vega fe auch langsamer in allen tests als eine p5000 und zwar welten. wie es real aussieht siehst du ja bei igor. also hör bitte auf mist zu verbreiten.

Bewerbe dich doch bei AMD in der Marketingabteilung, wenn du es besser weißt - Page 42:
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-49.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/7.html

/edit: Folien ersetzt.

Pirx
2017-07-31, 16:00:00
...
Den Test der Vega FE bei THG hast du wohl nicht mitbekommen?

X-Bow
2017-07-31, 16:00:37
@Troyan: Quelle für den Benchmark für die W9100?

Und nur weil da ein AMD Logo im Benchmark ist heißt das lange nicht das der von AMD gekauft ist... Bei so vielen Games prangt am Start das nVidia Logo, kein Wunder das AMD nicht mehr on Top ist...

Vega FE hat ein viel besseres P/L als die GP100, find dich damit ab.
Und die teuerste Vega (SSG) kann immerhin was wo deine tolle GP100 abstürzt, Sachen gibt's wenn man Cherrypicking betreibt.

http://www.pcgameshardware.de/Vega-Codename-265481/News/Radeon-Vega-Nano-1234514/

dargo
2017-07-31, 16:01:28
Das fette AMD Logo im Screen hast du gesehen, ja?

Geht das Kasperltheater wieder los? Die fetten Nvidia Logos in Project Cars an jeder Ecke hatten dich offenbar nicht gestört. :rolleyes:

Gipsel
2017-07-31, 16:02:30
Und jetzt bleiben wir bitte sachlich und vor Allem beim Thema!

Screemer
2017-07-31, 16:05:52
Bewerbe dich doch bei AMD in der Marketingabteilung, wenn du es besser weißt - Page 42:
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-49.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/7.html

/edit: Folien ersetzt.
und? nur weil amd specviewperf benutzt muss es noch lang nicht die realität wiederspiegeln. das teil nutzt in version 12.1 software aus der steinzeit. einfach mal ein zitat von jemandem mit definitiv mehr plan als du:

Wir haben somit bewusst auf den Einsatz des SPECviewperf Freeware-Benchmarks verzichtet, denn er hat mit einem echten Abbild der tatsächlichen Workstation- bzw. CAD-Performance samt der darin enthaltenen, viel zu kurzen und alten Workloads in etwa so viel zu tun, wie billiger Kunsthonig mit echtem Imkerhonig. Außerdem starten einige der darin enthaltenen Programme in Wirklichkeit gar nicht erst bzw. nur eingeschränkt mit Consumer-Grafikkarten bzw. -Treibern.
http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375-6.html

Grendizer
2017-07-31, 16:07:06
@Troyan: Quelle für den Benchmark für die W9100?

Und nur weil da ein AMD Logo im Benchmark ist heißt das lange nicht das der von AMD gekauft ist... Bei so vielen Games prangt am Start das nVidia Logo, kein Wunder das AMD nicht mehr on Top ist... [/url]

Naja ... das liegt zuerst an der Leistung und dann erst an Gameworks.

deekey777
2017-07-31, 16:07:07
Workstation-Grafikkarten mit Vega-GPU: AMD Radeon Pro SSG mit 2 TByte Speicher und Radeon Pro WX 9100 (https://www.heise.de/newsticker/meldung/Workstation-Grafikkarten-mit-Vega-GPU-AMD-Radeon-Pro-SSG-mit-2-TByte-Speicher-und-Radeon-Pro-WX-9100-3787131.html)

Radeon Pro WX 9100 ersetzt die FirePro W9100. Was ist das für eine bescheuerte Nummerierung? Als ich die Fußnote zu Seite 42 las, dachte ich automatisch an die FirePro W9100. Irrsinn.

Raff
2017-07-31, 16:08:01
Schon bitter. Jetzt weiß man zwar, dass der DSBR bei der FE tatsächlich noch keine Rolle spielt (lol ne bei der FE ist schon alles aktiv was wollt ihr denn!!), aber bringen tut er scheinbar trotzdem kaum was, wenn man sich die AMD Benchmarks anschaut. Ich gehe dann mal davon aus, dass AMD ihn bei den eigenen Benches genutzt hat, Fußnoten oder Aussagen dazu kenn ich leider nicht, vielleicht gibt's die aber doch irgendwo (oder auch nicht...).

Wo beichtet AMD denn explizit, dass das DSBR bei der Frontenkriegsedition nicht verwendet wird?

MfG,
Raff

Grendizer
2017-07-31, 16:09:46
Workstation-Grafikkarten mit Vega-GPU: AMD Radeon Pro SSG mit 2 TByte Speicher und Radeon Pro WX 9100 (https://www.heise.de/newsticker/meldung/Workstation-Grafikkarten-mit-Vega-GPU-AMD-Radeon-Pro-SSG-mit-2-TByte-Speicher-und-Radeon-Pro-WX-9100-3787131.html)

Radeon Pro WX 9100 ersetzt die FirePro W9100. Was ist das für eine bescheuerte Nummerierung? Als ich die Fußnote zu Seite 42 las, dachte ich automatisch an die FirePro W9100. Irrsinn.

Wobei die Radeon Pro SSG im Professionellen Umfeld bestimmt interessiert aufgenommen wird. Ich kenne mich da nicht aus, aber wenn man wirklich längere Sequenzen am Stück bearbeiten kann hört sich das für mich nach einem extremen Produktivitätsgewinn an, und dann sind auch 7000 Euro "Peanuts"

Gipsel
2017-07-31, 16:11:29
Wo beichtet AMD denn explizit, dass das DSBR bei der Frontenkriegsedition nicht verwendet wird?Das war in diversen Berichten am WE zu lesen, wobei allerdings das vermutlich heißen könnte, daß der DSBR bei der FE (in Spielen) meist aus ist (punktuell z.B. im energy-01 Subtest von SpecViewPerf ist er ja offenbar an und liefert einen ansehnlichen Performancevorteil). Vermutlich wird das mit dem nächsten Treiberupdate für die FE angeglichen.

Screemer
2017-07-31, 16:12:13
Wobei die Radeon Pro SSG im Professionellen Umfeld bestimmt interessiert aufgenommen wird. Ich kenne mich da nicht aus, aber wenn man wirklich längere Sequenzen am Stück bearbeiten kann hört sich das für mich nach einem extremen Produktivitätsgewinn an, und dann sind auch 7000 Euro "Peanuts"
die jungs von red waren auf jeden fall begeistert.

dildo4u
2017-07-31, 16:17:52
Wo beichtet AMD denn explizit, dass das DSBR bei der Frontenkriegsedition nicht verwendet wird?

MfG,
Raff
https://youtu.be/51SsMsUXTt8?t=5m30s

Ihm
2017-07-31, 16:36:02
Wo hast du denn 420€ her? Die Karte soll $499 vor Steuern kosten. Das sind ~420€ VOR Mwst.

Das sind alles UVP.
Interessant wird der Marktpreis bei ausreichender Verfügbarkeit.
Wenn die Karten dem Mining nicht zum Opfer fallen, dann wird sich der Preis nach 1-2 Monaten wahrscheinlich irgendwo bei 420-450€ inkl. MwSt. einpendeln.

UVP für den Ryzen 7 1800X war zum Marktstart 499$. Aktuell bekommst du den Prozessor in Deutschland für ca. 450€ inkl. Steuern.
Auch wenn man Grafikkarten im Preisverlauf nicht direkt mit CPUs vergleichen kann. AMDs Strategie ist aber eindeutig und die heißt Preiskampf.

Dino-Fossil
2017-07-31, 16:41:55
Weiß nicht so recht, was ich von der ganzen Sache halten soll. Bis die unabhängigen Reviews raus sind, bleibt die genaue Performance eh unklar (wobei die AMD-eigene Platzierung nicht all zu viel erhoffen lässt).
Nichts desto trotz hat das alles erheblichen Beta-Charakter - Beta Hardware betrieben von Beta-Treibern. Das Ergebnis ist nach dem bisherigen Eindruck ein Chip mit für seine Größe und der Leistungsaufnahme lauwarmer Performance und vermutlich viel verschenktem Potential.
Offenbar fehlen AMD/RTG ganz erheblich die Entwickler...

M4xw0lf
2017-07-31, 16:43:41
https://abload.de/img/capture8duyv.png

...passend dazu diese Slide aus der Präsentation? :)
"Reift beim Kunden nach"? :uponder:

fondness
2017-07-31, 16:46:14
Ich versuche mal eine Einordnung. Vega10 liegt von der Größe und den Rohdaten her also auf GP102-Niveau bzw. tw. sogar etwas darüber, scheint bei der Leistung in Spielen aber nur GP104-Niveau zu erreichen. Interessant wäre jetzt die Gründe. 10-20% davon kann man sicherlich mit den Treibern begründen. Die erste größere Architekturänderung seit langem, und eben AMDs bescheidene Ressourcen in der Treiberentwicklung. Ich gehe stark davon aus, dass die Karte in einem Jahr besser liegen wird als heute. Einen Teil kann man natürlich auch begründen mit 2xFP16/4xINT8 Speed und FL12_1 top tier. Beim Rest muss man erstmal sehen und abwarten.

Marketingstechnisch hat AMD versucht alles raus zu holen, mit sehr hochwertigen Karten und vielen unterschiedlichen Versionen und diversen Bundles. Was der Karte das Genick bricht ist IMO die hohe Leistungsaufnahme, ansonsten wäre die Preise ja absolut konkurrenzfähig - hier muss man natürlich abwägen. Insgesamt fehlt es AMD mittlerweile auch klar ersichtlich an den entsprechenden Ressourcen in der HW-Entwicklung, war man hier lange führend und konnte so andere Defizite weg machen, ist mittlerweile längst Nvidia hier auch vorbei gezogen. Hier braucht es ohne Frage deutliche Investitionen, die dank Ryzen zum Glück schon im Gange sind.

Ansonsten ist VEGA als neue Architektur schlicht enttäuschend, 2xP10 wäre wohl sogar die bessere Wahl gewesen, hier gab es wohl langfristige Investitionen, ansonsten macht diese neue Architektur wenig Sinn. Vielleicht kommt wie nach R600 kurze Zeit später eine entsprechend optimierte Version mit deutlich besseren Perf/mm² bzw. Perf/Watt Charakteristik, ansonsten hätte man auch bei GCN4 bleiben können. All in all natürlich von technischen Standpunkt her enttäuschend, aber es hat sich leider in den letzten Jahren schon abgezeichnet. Man kann eben nicht auf Dauer mit erheblich weniger RnD konkurrenzfähige Produkte liefern, das ist schlicht unrealistisch.

dildo4u
2017-07-31, 16:47:49
Weiß nicht so recht, was ich von der ganzen Sache halten soll. Bis die unabhängigen Reviews raus sind, bleibt die genaue Performance eh unklar (wobei die AMD-eigene Platzierung nicht all zu viel erhoffen lässt).
Nichts desto trotz hat das alles erheblichen Beta-Charakter - Beta Hardware betrieben von Beta-Treibern. Das Ergebnis ist nach dem bisherigen Eindruck ein Chip mit für seine Größe und der Leistungsaufnahme lauwarmer Performance und vermutlich viel verschenktem Potential.
Offenbar fehlen AMD/RTG ganz erheblich die Entwickler...
AMD kann halt nicht wie Nvidia eine HPC und eine Gameing GPU bauen,eine P100 PCI-E Karte taktet auch deutlich langsamer als die Gameingkarten um im TDP zu bleiben.
P100 PCI-E 9.3 Tflops,Titan Xp 12 Tflop beide haben ein 250 TDP.

HOT
2017-07-31, 17:00:07
Ich find das drollig mit den ganzen Enttäuschten. Ich würd da mal die genauen Messungen auch mit Frametimes und tralala abwarten bevor ich enttäuscht die Segel streiche :freak:.
Sicher, der Killer ist das Ding jetzt nicht und den Wundertreiber gibts jetzt auch nicht (eher auf eine ganze Latte an Treiberupdates verteilt vllt :D), aber das hat auch keiner mehr ernsthaft erwartet oder? Vielleicht gibts ja noch andere überraschende Erkenntnisse. Man traut der Architektur immerhin 4 verschiene CPUs und eine APU zu, so schlimm kanns also nicht sein.

Erbsenkönig
2017-07-31, 17:02:53
Ich find das drollig mit den ganzen Enttäuschten. Ich würd da mal die genauen Messungen auch mit Frametimes und tralala abwarten bevor ich enttäuscht die Segel streiche :freak:.
Sicher, der Killer ist das Ding jetzt nicht und den Wundertreiber gibts jetzt auch nicht (eher auf eine ganze Latte an Treiberupdates verteilt vllt :D), aber das hat auch keiner mehr ernsthaft erwartet oder? Vielleicht gibts ja noch andere überraschende Erkenntnisse.

Ich denke man muss dahingehend auch zwei Perspektiven unterscheiden: Die Frage des technischen Fortschritts und dann die eigene Kaufentscheidung. Ich wollte mir als 390 Nachfolger eigentlich eine 1080 kaufen. Wenn mir nun die Vega ähnliche Leistung liefert, werde ich dort zuschlagen. Zwar auch nicht in jeder Hinsicht das Gelbe vom Ei, aber für mich dürfte es reichen.:wink:

Grabhopser
2017-07-31, 17:06:27
Vielleicht kommt wie nach R600 kurze Zeit später eine entsprechend optimierte Version mit deutlich besseren Perf/mm² bzw. Perf/Watt Charakteristik, ansonsten hätte man auch bei GCN4 bleiben können. All in all natürlich von technischen Standpunkt her enttäuschend, aber es hat sich leider in den letzten Jahren schon abgezeichnet. Man kann eben nicht auf Dauer mit erheblich weniger RnD konkurrenzfähige Produkte liefern, das ist schlicht unrealistisch.


Woher soll die Perf/Watt den kommen?
Der nächste Node heißt 7nm und auf dem steht "Ende 2019".
GCN wird immer mehr zu einem gedrehten TeraScale. Der Anfang war gut, das Ende übel. :freak:

Zeit für was neues....

Ihm
2017-07-31, 17:10:04
Ich denke man muss dahingehend auch zwei Perspektiven unterscheiden: Die Frage des technischen Fortschritts und dann die eigene Kaufentscheidung. Ich wollte mir als 390 Nachfolger eigentlich eine 1080 kaufen. Wenn mir nun die Vega ähnliche Leistung liefert, werde ich dort zuschlagen. Zwar auch nicht in jeder Hinsicht das Gelbe vom Ei, aber für mich dürfte es reichen.:wink:

DEN technischen Fortschritt werden wir meiner Meinung sowieso erst dann haben, wenn eine GPU grafisch aufwendige Titel in 4K mit durchschnittlich 90fps darstellen kann und keine 800€ kostet. Das kann aktuell weder Nvidia, noch AMD liefern.
Dann würde für mich persönlich die wirklich nächste Revolution beim Gaming
eintreten: praxistaugliche HMDs.

X-Bow
2017-07-31, 17:11:37
@fondess: Ich habe eine Aussage seitens AMD gelesen das GCN4 Optimierungstechnisch eher am Ende war. Man brauchte eine neue Basis, was eben GCN5 darstellen soll.

Finde aber auf die schnelle den Link dazu nicht, reiche denn ggf. später nach.

Edit: War von CB: https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/2/

"Per Treiber sollen noch größere Steigerungen möglich sein

Apropos Treiber: Laut AMD sollen durch neue Treiber deutlich größere Performanceverbesserungen möglich sein als mit der älteren GCN-Generation. Während diese ausgereizt sei, stehe man bei Vega erst am Anfang in der Entwicklung und es sei noch viel Potenzial vorhanden. Wie lange die Entwicklung dafür benötigt, bleibt aber unklar."

w0mbat
2017-07-31, 17:11:43
Zwei Gedanken:

1. Kann ich mich daran erinnern, dass es einige Zeit nach dem GCN launch (HD7000 Serie) ein größeres Update kam, was spürbar mehr Performance brachte. Ich denke in einem halben Jahr könnte sowas für Vega auch kommen (was leider nichts an der aktuellen Performance ändert).

2. HBM2 läuft anscheinend noch nicht so wie gewollt. Zum einen werden die 2Gbps nicht erreicht, sondern nur 1,89Gbps, zum anderen schafft man das anscheinend nur mit deutlich erhöhter Spannung. Vielleicht sehen wir irgendwann ein "Vega v2" mit 2Gbps HMB2 und gesenkter Spannung. Wenn sich dann noch die Fertigung verbessert hat, womöglich auch bei der GPU mit weniger Verbrauch oder mehr Takt.
Dazu noch einen FineWineTM Treiber und eine Preissenkung, dann wird Vega mein :D

dargo
2017-07-31, 17:13:10
Man kann eben nicht auf Dauer mit erheblich weniger RnD konkurrenzfähige Produkte liefern, das ist schlicht unrealistisch.
Naja... Ryzen hat mir das Gegenteil bewiesen. Und das Teil ist auch noch sehr effizient.

Opprobrium
2017-07-31, 17:13:25
Die Nano wird mal wieder das Highlight werden. Hat nur 8-Pol PCIe Anschluß und wird vermutlich wieder auf dem Vollausbau basieren. Speicher wird wohl eher nicht beschnitten werden. Da kann man nur hoffen, dass die nicht zu teuer wird, und das vielleicht der eine oder andere Hersteller, sofern AMD das gestattet, ein Stamdard Board mit ähnlichenTaktungen rausbringt.
Dann hätte AMD durchaus was im Angebot in der 400-550€ Preisklasse. Abgesehen von überteuerten Polaris Karten natürlich 🙄

dargo
2017-07-31, 17:16:32
2. HBM2 läuft anscheinend noch nicht so wie gewollt. Zum einen werden die 2Gbps nicht erreicht, sondern nur 1,89Gbps, zum anderen schafft man das anscheinend nur mit deutlich erhöhter Spannung. Vielleicht sehen wir irgendwann ein "Vega v2" mit 2Gbps HMB2 und gesenkter Spannung. Wenn sich dann noch die Fertigung verbessert hat, womöglich auch bei der GPU mit weniger Verbrauch oder mehr Takt.
Dazu noch einen FineWineTM Treiber und eine Preissenkung, dann wird Vega mein :D
Jo... an den fehlenden 6% Bandbreite scheitert bestimmt Vega. :crazy:

Bezüglich deiner Verbessungswünsche... bis es soweit ist (falls überhaupt) sind ~12,6 TFLOPs auch nichts Besonderes mehr. ;)

Dino-Fossil
2017-07-31, 17:16:51
Ich find das drollig mit den ganzen Enttäuschten. Ich würd da mal die genauen Messungen auch mit Frametimes und tralala abwarten bevor ich enttäuscht die Segel streiche :freak:.

Nehmen wir mal an, dass eine RX Vega generell etwas "smoother" ist als eine 1080, bei ~ähnlichen fps - AMD muss das trotzdem erstmal verkauft bekommen.
Leider werden die meinsten eher auf die Länge der Balken schielen.
Zweites Problem - TBP von knapp 300W bei 1080 Performance ist auch nicht gerade sexy. Ich bin allerdings gespannt auf die Vega 56 - pardon, Vega 56. Sieht ein klein wenig danach aus, als ob AMD die großen Karten mal wieder etwas prügelt. Wenn die am Ende wirklich bei ca 200-225W liegt dürfte sie jedenfalls deutlich bessere Perf./Watt liefern als eine RX580.

Zeit für was neues...

Navi lässt jetzt erstmal auf sich warten. Und wie neu Navi wird bleibt auch erstmal abzuwarten. Evtl. "nur" GCN modularisiert. Und ehrlich gesagt: Ich mag mir lieber nicht vorstellen, was dass für ein Chaos gibt, bis solche multichip-Verbünde ordentlich laufen.
Wobei ich GCN nach wie vor nicht für eine so schlechte Architektur halte. Gibt halt ein paar Bremsklötze, die AMD nicht so recht gelöst bekommt.

ilibilly
2017-07-31, 17:17:06
Warten auf vega done right. :)
Ich weiss ja nicht wie groß polaris ist aber ich denke 3x polaris wären bei selber grösse machbar ,und man wäre vor drr Ti und könnte wohl 700-900 verlangen

fondness
2017-07-31, 17:19:54
Schönes Übersicht, was AMD da alles an Modellen aufgelegt hat:
https://videocardz.com/71487/amd-radeon-vega-graphics-cards-explained

Erbsenkönig
2017-07-31, 17:20:33
Jo... an den fehlenden 6% Bandbreite scheitert bestimmt Vega. :crazy:

Bezüglich deiner Verbessungswünsche... bis es soweit ist (falls überhaupt) sind ~12,6 TFLOPs auch nichts Besonderes mehr. ;)

Ich seh schon, wir hätten unsere 390er behalten sollen :D

Erbsenkönig
2017-07-31, 17:22:11
Die Nano wird mal wieder das Highlight werden. Hat nur 8-Pol PCIe Anschluß und wird vermutlich wieder auf dem Vollausbau basieren. Speicher wird wohl eher nicht beschnitten werden. Da kann man nur hoffen, dass die nicht zu teuer wird, und das vielleicht der eine oder andere Hersteller, sofern AMD das gestattet, ein Stamdard Board mit ähnlichenTaktungen rausbringt.
Dann hätte AMD durchaus was im Angebot in der 400-550€ Preisklasse. Abgesehen von überteuerten Polaris Karten natürlich 🙄

Macht eine Nano auch Sinn, wenn man genug Platz im Gehäuse hat? Wird die dann von Haus aus so optimiert, dass sie möglichst kein Backofen ist?

w0mbat
2017-07-31, 17:22:12
Jo... an den fehlenden 6% Bandbreite scheitert bestimmt Vega. :crazy:

Bezüglich deiner Verbessungswünsche... bis es soweit ist (falls überhaupt) sind ~12,6 TFLOPs auch nichts Besonderes mehr. ;)

6% Bandbreite könnten ~6% mehr Leistung bringen, wenn Vega Bandbreitenlimitiert ist. Und mir ging es eher um den niedrigeren Verbrauch. Weniger Spannung bei GPU und HMB2 könnten einige Watt bringen. Dazu ein schnellerer Treiber und vielleicht ist man 20% schneller, wer weiß? Der GCN Treiber hat bei mir damals in BF3 extrem viel gerissen.

Wenn es das dann in einem halben Jahr für 350€ gibt, wäre ich zufrieden (außer eine GTX 2070 für 400€ bringt 1080Ti Performance :freak:).

M4xw0lf
2017-07-31, 17:26:28
Schönes Übersicht, was AMD da alles an Modellen aufgelegt hat:
https://videocardz.com/71487/amd-radeon-vega-graphics-cards-explained
Die neue Nano ist länger als die alte! Skandal!
Ob der Leuchtwürfel in der Ecke Schuld ist?

basix
2017-07-31, 17:26:45
Was auffällt: Nur 2x 56er Versionen und 10x 64er. Ist der Yield so gut?

fondness
2017-07-31, 17:27:08
Die neue Nano ist länger als die alte! Skandal!


Woran erkennst du das? :ugly:

M4xw0lf
2017-07-31, 17:29:09
Woran erkennst du das? :ugly:
Im Direktvergleich neue/alte Nano sieht man schon deutlich, dass der Kühler der Neuen weiter über die PCIe-Kontakte / die Slot-Haltenase raussteht.

"Nano 2 - jetzt noch größer!" :freak:

Blediator16
2017-07-31, 17:29:46
Wolfenstein 2 unterstützt FP16 und Vulkan

https://www.golem.de/news/id-software-wolfenstein-2-unterstuetzt-fp16-und-vulkan-1707-129201.html

Ein Anfang :freak:

dargo
2017-07-31, 17:32:37
Ich seh schon, wir hätten unsere 390er behalten sollen :D
Ach was... selbst wenn RX Vega 56 nur 50-60% auf meine 390 drauflegt bin ich zufrieden. Ich meine ich zahle dann auch nur ~180€ Aufpreis. :D Dennoch hätte ich mir endlich Faktor 2 für den WoW-Effekt gewünscht.

6% Bandbreite könnten ~6% mehr Leistung bringen, wenn Vega Bandbreitenlimitiert ist.
Das ist doch kompletter Humbug. So balanciert man Grafikkarten nicht aus. Und selbst wenn dieses Worst Case eintreten sollte rückt das Vega in kein besseres Licht. Da fehlt deutlich mehr als nur 6 % (je nach Game).

Wolfenstein 2 unterstützt FP16 und Vulkan

https://www.golem.de/news/id-software-wolfenstein-2-unterstuetzt-fp16-und-vulkan-1707-129201.html

Ein Anfang :freak:
Auf Coda & Co ist eben Verlass. :up:

Erbsenkönig
2017-07-31, 17:38:05
Ach was... selbst wenn RX Vega 56 nur 50-60% auf meine 390 drauflegt bin ich zufrieden. Ich meine ich zahle dann auch nur ~180€ Aufpreis. :D Dennoch hätte ich mir endlich Faktor 2 für den WoW-Effekt gewünscht.

Dank meines Betrügers habe ich ja eigentlich 90 € Verlust gemacht...aber gut, das Geld kann ich eh abschreiben - bei mir würde es ein Aufpreis von 110 € zur 56er für 399 € sein.:D

Schnoesel
2017-07-31, 17:38:32
6% Bandbreite könnten ~6% mehr Leistung bringen, wenn Vega Bandbreitenlimitiert ist.

Speicher OC bei HBM2 hat auch noch keiner versucht mit der FE?

Elite_Warrior
2017-07-31, 17:38:45
Bin auch nicht wirklich von der RX Vega überzeugt. Aber wenn man bedenkt dass ich meine RX480 wegen dem Mininghype für 300 Eurones los geworden bin sollte der Aufpreis für ein Vega^56 eigentlich ein ziemlich guter Upgrade werden. Bin natürlich auf die Tests gespannt wie sich der cutdown Vega schlägt. Etwas Undervolting und wenn es möglich ist ein besserer Memory Clock sollte es schon bringen.

robbitop
2017-07-31, 17:39:36
Mit etwas angepassten Taktraten und etwas undervolting ist in Bezug auf die Leistungsaufnahme sicherlich noch einiges drin. Auf dem Sweetspot laufen die RX Vega sicherlich nicht. Die Nano bringt das dann out of the box. Und da Vega anscheinend (zumindest aktuell) ein Stück weit bandbreitenlimitiert ist, kosten etwas niedrigere Taktraten sicherlich such kaum Leistung.

Der_Korken
2017-07-31, 17:45:28
Eine Sache noch zum Thema Bandbreitenlimit: Die RX Vega 64 hat (nehme ich mal an) die selben 480GB/s wie die FE, also +87,5% auf eine 480. Gleichzeitig hat sich die Bandbreiteneffizienz gegenüber Polaris sicherlich nicht verschlechtert. Eine GTX1080 FE ist geschätzt 70% schneller als eine 480 und die Vega soll ähnlich schnell sein. So stark kann das Bandbreitenlimit doch gar nicht sein. Da muss es noch ein anderes, viel größeres Problem geben.

dargo
2017-07-31, 17:48:47
Da muss es noch ein anderes, viel größeres Problem geben.
Ja... nennt sich Software. ;)

Mit Wolfenstein 2 bin ich mir ziemlich sicher, dass wir die tatsächliche Leistung von Vega zu Gesicht bekommen. Vulkan, AC, FP16 und Shader Intrinsics ist die ultimative Mischung. =) Es müssten halt mehr Entwickler in der PC-Umgebung so effizient mit der Software umgehen wie id. :(

Digidi
2017-07-31, 17:53:03
Ich hab am Anfang es schon gesagt,
Amd wird mit Vega im ersten Moment nicht überzeugen können, denn die Features die Vega bietet müssen erst in der Software umgesetzt werden.

Der Primitive Shader wäre gut 3 mal so stark wie der von Nvidia. Es muss aber in der Software implementiert werden. Da Nvidia hier den Markt mit Gameworks beherscht wird AMD das schwer haben. Und wieder haben wir bessere Hardware die wegen einer Markmacht nicht voran kommt.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-21.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/4.html

Dino-Fossil
2017-07-31, 17:54:46
Es müssten halt mehr Entwickler in der PC-Umgebung so effizient mit der Software umgehen wie id. :(

Vielleicht sollte AMD die id-Entwickler einstellen und an den Treibern arbeiten lassen - dann wären sie evtl. nicht mehr ganz so sehr auf die Optimierungsarbeit der Spieleentwickler angewiesen. :freak:

dildo4u
2017-07-31, 17:55:32
Eine Sache noch zum Thema Bandbreitenlimit: Die RX Vega 64 hat (nehme ich mal an) die selben 480GB/s wie die FE, also +87,5% auf eine 480. Gleichzeitig hat sich die Bandbreiteneffizienz gegenüber Polaris sicherlich nicht verschlechtert. Eine GTX1080 FE ist geschätzt 70% schneller als eine 480 und die Vega soll ähnlich schnell sein. So stark kann das Bandbreitenlimit doch gar nicht sein. Da muss es noch ein anderes, viel größeres Problem geben.
Ganz einfach die 500$ Karte kommt nicht mal in die Nähe der 1.6Ghz,die Baseclock ist sogar 133mhz geringer als bei der FE.Ich schätze mal nicht das AMD die Wassergekühlte Karte gegen die 1080 gebencht hat.
Laut PCGH läuft die Luftgekühlte FE in 4k meistens mit 1348 - 1440mhz,also wird Vega 64 unter 1.3Ghz laufen.

dargo
2017-07-31, 17:59:58
Ich hab am Anfang es schon gesagt,
Amd wird mit Vega im ersten Moment nicht überzeugen können, denn die Features die Vega bietet müssen erst in der Software umgesetzt werden.

Der Primitive Shader wäre gut 3 mal so stark wie der von Nvidia. Es muss aber in der Software implementiert werden. Da Nvidia hier den Markt mit Gameworks beherscht wird AMD das schwer haben. Und wieder haben wir bessere Hardware die wegen einer Markmacht nicht voran kommt.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-21.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/4.html
Es wird kommen, nur halt schleichender als es eigentlich sollte. Immerhin ist dann Vega wieder langlebiger. :D Ich rechne mir mal was schön. Nehmen wir an Vega 56 ist 60% schneller als meine alte 390. Wenn in ca. einem Jahr (so ne Graka behalte ich 2-3 Jahre) Vega 56 plötzlich insgesamt ~100% drauflegt bin ich nicht abgeneigt. :wink:

Vielleicht sollte AMD die id-Entwickler einstellen und an den Treibern arbeiten lassen - dann wären sie evtl. nicht mehr ganz so sehr auf die Optimierungsarbeit der Spieleentwickler angewiesen. :freak:
Du hast den Sinn einer Next-Gen API bzw. low level offenbar nicht ganz verstanden. Im übrigen kümmert sich id um genau ein Spiel zum gegebenen Zeitpunkt. An wievielen Spielen werkeln die AMD-Leute im Treiber mehr oder weniger gleichzeitig? :rolleyes:

Grendizer
2017-07-31, 18:01:40
Ich hab am Anfang es schon gesagt,
Amd wird mit Vega im ersten Moment nicht überzeugen können, denn die Features die Vega bietet müssen erst in der Software umgesetzt werden.

Der Primitive Shader wäre gut 3 mal so stark wie der von Nvidia. Es muss aber in der Software implementiert werden. Da Nvidia hier den Markt mit Gameworks beherscht wird AMD das schwer haben. Und wieder haben wir bessere Hardware die wegen einer Markmacht nicht voran kommt.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-21.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/4.html

AMD limitiert sich extrem auf DX12 Features. Beim Design von Vega konnte man ja nicht ahnen, das der Support seitens der Entwickler eher mäßig sein würde.

crux2005
2017-07-31, 18:03:34
AMD limitiert sich extrem auf DX12 Features. Beim Design von Vega konnte man ja nicht ahnen, das der Support seitens der Entwickler eher mäßig sein würde.

Oh doch. So viel Erfahrung sollte die Graphics Group schon haben. :rolleyes:

iuno
2017-07-31, 18:03:50
Vulkan, AC, FP16 und Shader Intrinsics ist die ultimative Mischung. =)
Ist ja schoen und gut, aber imho sollte das nur Bonus sein.

Genau wie auch die top tier d3d12 Implementierungen. Z.B. unterstuetzt ja NV auch schon seit Maxwell Conservative Rasterization und es wird trotz Gameworks kaum mal wofuer benutzt. Ich kenne eigentlich nur die HFTS in the Division

Uebrigens auch interessant ist die "neue Geometriepipeline", wo man im primitive Shader nochmal cullen soll, so wie es zum Teil auch schon in compute shadern gemacht wird. Sicherlich nicht das, was sich viele vorgestellt haben :D

Dino-Fossil
2017-07-31, 18:10:27
Du hast den Sinn einer Next-Gen API bzw. low level offenbar nicht ganz verstanden. Im übrigen kümmert sich id um genau ein Spiel zum gegebenen Zeitpunkt. An wievielen Spielen werkeln die AMD-Leute im Treiber mehr oder weniger gleichzeitig? :rolleyes:

Ach, manchmal bräuchte man doch ein Ironie-Tag...

Aber davon abgesehen: Mich interessiert beim Hardware-Kauf mehr der Ist-Zustand, als der potentielle "Wird"-Zustand in einer nicht näher definierten Zukunft (der ist eher ein angenehmer Bonus). Und (leider!) ist low-level immer noch nicht der große Heilsbringer, den wir alle gerne hätten.
Und eine herstellerseitig rund laufende Karte ist für den Kunden immer noch vorteilhafter als eine, die jeder Spieleentwickler händisch selbst optimieren muss.

Von daher: AMD muss weiter kräftig selbst an den Treibern arbeiten und kann sich nicht darauf verlassen, dass low-level APIs das schon irgendwie retten werden - selbst dann sind die Entwickler immer noch auf Unterstützung durch AMD angewiesen, wenn das was werden soll.

Mit Beta-Launches wie jetzt Vega schneidet man sich meiner Meinung nach eher ins eigene Fleisch.

dargo
2017-07-31, 18:12:10
Ist ja schoen und gut, aber imho sollte das nur Bonus sein.

Bonus? Ich hätte diese Features am liebsten in jedem Spiel. Meine Güte... wir haben bald das Jahr 2018 und leben nicht mehr in der Steinzeit der APIs! Offenbar doch... :usad:

G3cko
2017-07-31, 18:13:34
Ersteinmal die Tests abwarten. Man merkt zwar an vielen Ecken, dass Vega überhastet auf den Markt geworfen wurde, weil GCN immer mehr zur Last wurde, aber da fehlen AMD wohl einfach die Ressourcen. Als Kunde stört mich das nicht solange das Preisleistungsverhältnis zum Release stimmt. Das ist halt wieder doof für AMD aber super für den Kunden.

Für mich ist Vega daher ein würdiger Nachfolger für die gute 7970. Preisleistung am Anfang gut und mit der Zeit immer besser. Da ich die Hardware mehere Jahre nutzte setze ich lieber auf eine brandaktuelle Architektur mit viel Potenzial als auf etwas ausoptimiertes.

Preise zum Release der 780Ti und aktuelle Performance
https://www2.pic-upload.de/img/33632910/Grakas1.png

Grafikkarten-Rangliste 2017: 35 Radeon- und Geforce-GPUs im Benchmarkvergleich [jetzt mit Radeon Vega FE] (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)
https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/11/

Schnoesel
2017-07-31, 18:13:38
Schätze mal dass alle Features die nicht in einer Konsole zu finden sind sich auch nicht durchsetzen werden, mit einzelnen Ausnahmen wie z.B. der Deal mit Bethesda.

Abgeschrieben habe ich Vega noch nicht, noch über ein Jahr geht mit den 4GB VRAM einfach nicht klar aber ich hoffe doch da geht noch was und wenn ich es über Takt machen muss (sofern möglich denn bei Fiji war es nicht mal das).

Hübie
2017-07-31, 18:13:54
Es wird kommen, nur halt schleichender als es eigentlich sollte. Immerhin ist dann Vega wieder langlebiger. :D

Ganz ehrlich: Die Mär von AMDs besserer Langlebigkeit ist irgendwie quatsch. Klar ist eine HD7970 GHz heute schneller als die GTX 680, aber wenn man nun schaut mit welchen Details und welche Geschwindigkeit lohnt es sich nicht so alte Gammelgurken noch zu verwenden. Gegen eine 770 4 GB sieht es dann auch schon wieder anders aus (siehe meine alten MSI-Karten die mit ootb 1254 MHz liefen).

Dann hieß es Fiji wäre langlebiger. Und wo bitte ist die Karte besser als meine? Nirgends.
Nun soll Vega der 5-Jahresrenner werden. Not gonna happen würde ich sagen. Das Teil wird über die Zeit schneller, dank Software und Treiber, aber ein Überflieger ganz sicher nicht.
Das ganze in dem Kontext dass ein Spiel nicht absichtlich schlecht programmiert ist wo ein IHV dann manuell hinter laufen darf *auf Hitman schielt*

Die Katze ist aus dem Sack. Vega wird die RTG auch nicht zurück ins Spiel bringen wie man es sich, als gesunder Konsument, gerne wünscht. Man spielt weiter zweite Geige und (ACHTUNG: Spitze! :P) muss sich mit Hohn und Spott zufrieden geben.

uweskw
2017-07-31, 18:15:35
AMD limitiert sich extrem auf DX12 Features. Beim Design von Vega konnte man ja nicht ahnen, das der Support seitens der Entwickler eher mäßig sein würde.

Gibt Sinn: Bei der Konzeption von Vega ist man wohl davon ausgegangen, dass bei seinem Release DX12 bereits weit verbreitet ist. #

Ich bin ja mal auf die nächsten Wochen gespannt. Wenn NV will, kann sie AMD in Sachen Preis/Leistung voll an die Wand fahren lassen.
Die könnten die 1080 GXT zu halben Preis von Vega anbieten und würden immer noch Profit machen und so AMD in Sachen GPU endgültig begraben. Mich wundert, dass die Aktienkurse stabil bleiben.

greetz
US

Spasstiger
2017-07-31, 18:17:07
Auf dem Sweetspot laufen die RX Vega sicherlich nicht.
AMD selbst gibt an, dass mit dem energiesparenden zweiten BIOS (65% Leistungsaufnahme) die Effizienz um ein Drittel steigt.
https://www.golem.de/news/grafikkarte-radeon-rx-vega-64-kostet-500-us-dollar-1707-129195.html

Nach Adam Riese kostet diese Maßnahme also nur 15% an Performance.

Complicated
2017-07-31, 18:18:02
Eine 1070 ist schneller als eine 1080. Das liegt schlicht am RAM und dessen Latenz. Eine 1070 ist auch scheller als eine polariskarte.
Dass es am GDDR5X liegt ist bekannt. Die GTX 1070 ist dennoch nicht schneller als eine Polaris mit Mining-BIOS. Siehe: http://www.buriedone.com/gpuhashrates.html
24-30 MH/s vs. 28,5 MH/s
Woher soll die Perf/Watt den kommen?
Der nächste Node heißt 7nm und auf dem steht "Ende 2019".
Das gilt für Intel und EUV-7nm. GF und TSMC 7nm DUV kommt im 2H/2018.
Quelle: http://www.anandtech.com/show/10704/globalfoundries-updates-roadmap-7-nm-in-2h-2018

Schnoesel
2017-07-31, 18:18:39
Mich wundert, dass die Aktienkurse stabil bleiben.

Nur weil der Gamerableger kein Knaller geworden ist muss das nicht zwangsläufig heißen, dass der Chip nicht auch was einbringen kann. Gamer sind nicht Nabel der Welt.

dargo
2017-07-31, 18:20:18
Ganz ehrlich: Die Mär von AMDs besserer Langlebigkeit ist irgendwie quatsch.
Sorry... da muss ich dir widersprechen. Grenada non X in Schach gehalten fand ich sehr gut. Wenn eine Graka zum späteren Zeitpunkt noch ordentlich zulegt (und das ist definitiv bei Grenada/Hawaii vs. Tahiti passiert) dann ist das für mich langlebiger.

Schnoesel
2017-07-31, 18:22:19
Tahiti war/ist super langelebig ebenso wie Hawaii/Grenada (nicht umsonst wegen VRAM). Fiji ist allerdings das Gegenteil davon .. leider.

Dino-Fossil
2017-07-31, 18:22:46
Wenn NV will, kann sie AMD in Sachen Preis/Leistung voll an die Wand fahren lassen.
Die könnten die 1080 GXT zu halben Preis von Vega anbieten und würden immer noch Profit machen und so AMD in Sachen GPU endgültig begraben.

Warum sollten sie sich ihre Marge kaputt machen? Falls sich Vega so gut verkauft, dass es ihnen das Geschäft kaputt macht, könnten sie das vielleicht - aber unter den aktuellen Umständen - wofür?

Grendizer
2017-07-31, 18:22:54
Ehrlich .... wer eine 1080 vor 14 Monaten gekauft hat, wird auch eine langlebige Karte haben.

G3cko
2017-07-31, 18:26:01
Fiji hatte ein Problem mit der VRAM Größe und Frontend. Da reichen schon ein paar negative Ausreißer.

Und keine Ahnung was manche für Vorstellungen haben. Wenn eine Karte Preisleistungsmäßig zu einer doppelt so teuren Nvidia aufschließt ist das manchen wohl immernoch zu wenig...

Ich hätte gerne eine 120€ Karte die Nvidias Titan Xp weghaut. Bitte auch mit perfekter Crossfireskalierung und 50Watt Verbrauch. Oh man...

fondness
2017-07-31, 18:26:40
Ehrlich .... wer eine 1080 vor 14 Monaten gekauft hat, wird auch eine langlebige Karte haben.

Richtig, aber nachdem man nicht in der Vergangenheit reisen kann, zählt, was heute die bessere Wahl ist und nicht was vor 14 Monaten war.

Ex3cut3r
2017-07-31, 18:26:48
Ist ja schön und gut, mir ist aber der Ist-Stand zum rls. Wichtiger, ich war schon an Vega interessiert, weil mir die Leistung der 1070er in 3440x1440 nicht immer reicht. So warte ich aber lieber bis zum Frühjahr auf Volta.

DX11 wird auch die nächsten Jahre die API nr.1 bleiben, da bin ziemlich sicher. Sodass ich keine Wundersprünge für Vega in den meisten Games erwarte.

Unrockstar
2017-07-31, 18:28:33
Eine Sache noch zum Thema Bandbreitenlimit: Die RX Vega 64 hat (nehme ich mal an) die selben 480GB/s wie die FE, also +87,5% auf eine 480. Gleichzeitig hat sich die Bandbreiteneffizienz gegenüber Polaris sicherlich nicht verschlechtert. Eine GTX1080 FE ist geschätzt 70% schneller als eine 480 und die Vega soll ähnlich schnell sein. So stark kann das Bandbreitenlimit doch gar nicht sein. Da muss es noch ein anderes, viel größeres Problem geben.

Für mich kommen derzeit:
-Frontend
-Infinity Fabric
-HBM Controller
-Rasterizer

Als Frage: Warum sollte Vega Bandbreitenlimmitiert sein? gibts da Anhaltspunkte bzw Artikel?

in Frage als Übeltäter.. Leider bin ich nicht so bewandert so ein Blockdiagramm auszuwerten. Aber mich macht massiv stutzig dass ein Fiji @ 1400MHz mehr Power hätte (auch wenn AMD sagt viele Transistoren braucht man nur um den Takt zu erreichen) Aus heutiger Sicht war VLIV aufzugeben sinnvoll, aber irgendwie ist seit 2 Revisionen bei GCN der Wurm drin.

Schnoesel
2017-07-31, 18:29:26
Wenn eine Karte Preisleistungsmäßig zu einer doppelt so teuren Nvidia aufschließt ist das manchen wohl immernoch zu wenig...

?Welche wäre denn das?

Vega ist auch kein P/L Knaller Stand jetzt.

Linmoum
2017-07-31, 18:33:13
Die 64 ist definitiv zu teuer bei der zu erwartenden Performance, die 56 könnte interessant werden.

G3cko
2017-07-31, 18:35:03
?Welche wäre denn das?

Vega ist auch kein P/L Knaller Stand jetzt.

Eine Seite zurück.

Dino-Fossil
2017-07-31, 18:36:02
Aus heutiger Sicht war VLIV aufzugeben sinnvoll, aber irgendwie ist seit 2 Revisionen bei GCN der Wurm drin.

Naja, Polaris ist so schlecht nicht (wenn man die Chips nicht zu weit prügelt).
In den meisten Fällen (wobei es Ausnahmen gibt) kommt der kleinere Polaris10 gut gegen Hawaii/Grenada an.
GCN skaliert aber scheinbar nicht sonderlich gut über einer bestimmten Größe - für die Auflistung der Ursachen gibt es hier aber deutlich kompetentere Leute.

Allerdings fehlen AMD auch die großen Sprünge an Leistung und Effizienz, die nVidia mit Maxwell/Pascal hingelegt hat.

dargo
2017-07-31, 18:36:23
Ehrlich .... wer eine 1080 vor 14 Monaten gekauft hat, wird auch eine langlebige Karte haben.
Das ist zwar richtig. Den zeitlichen Vorteil hat NV bei sich, der nicht gerade klein ist. Allerdings lag der Releasepreis der GTX1080FE afaik bei 699$. Und einem Freesync Nutzer bringt eine NV Karte auch nichts.

MadManniMan
2017-07-31, 18:37:21
Und keine Ahnung was manche für Vorstellungen haben. Wenn eine Karte Preisleistungsmäßig zu einer doppelt so teuren Nvidia aufschließt ist das manchen wohl immernoch zu wenig...

Oh, welchen Preis vergleichst Du gerade womit genau?

Hübie
2017-07-31, 18:41:29
Sorry... da muss ich dir widersprechen. Grenada non X in Schach gehalten fand ich sehr gut. Wenn eine Graka zum späteren Zeitpunkt noch ordentlich zulegt (und das ist definitiv bei Grenada/Hawaii vs. Tahiti passiert) dann ist das für mich langlebiger.

Ich rede nicht von cherry picking. NV pflegte Maxwell und Kepler genau so (~5% Zuwachs über die Dauer) wie AMD. Problem ist halt oftmals, dass die Presse kaum Nachtests liefert. Doom @Vulkan gewann bei mir insgesamt 10% und stellenweise je nach Szene sogar 100% Zuwachs (war halt verbuggt). Langlebig sind beide. Langlebiger keiner von beiden. Andere Spiele verhielten sich konstant nach oben, aber bei weitem nicht solche Ausreißer.

Sogar StefanV wurd mit seinem Geschrei nach DX12 für Fermi zu Schweigen gebracht. X-D

Egal wir können das im eigenen Thread diskutieren. Ich halte die Mär für quatsch und ich kenne beide Seiten. :wink:

Wir können uns nun Vega 11, 12 und 20 zuwenden, denn dies hier ist der Speku-Thread. Folgt man P10 und P20 wird V20 demnach nur minimal besser als Vega was auf verbessertes Binning hindeutet. Da wird auch nicht mehr viel kommen, wenn das Namensschema sich gleich verhält. V11 wird Polaris wohl ersetzen und V12 dann die Gurken für die Geizhälse / Innovationsbremsen(:biggrin:).

dargo
2017-07-31, 18:42:23
Ich rede nicht von cherry picking.
Nein... überhaupt nicht. Deswegen redest du immer und immer wieder von Fiji. ;D

Hübie
2017-07-31, 18:44:21
Dann lies noch mal. Ich habe von Tahiti bis Vega geschrieben. :rolleyes:

Richtig, aber nachdem man nicht in der Vergangenheit reisen kann, zählt, was heute die bessere Wahl ist und nicht was vor 14 Monaten war.

Die Antwort wird dir nicht gefallen. Aber definiere doch mal "besser". ;)

dargo
2017-07-31, 18:47:17
Dann lies noch mal. Ich habe von Tahiti bis Vega geschrieben. :rolleyes:

Vielleicht in diesem Thread gerade aktuell. Ansonsten kommst du doch immer mit Fiji und GM200. Was anderes gibt es bei dir offenbar nicht. ;) Ich hatte schon öfter gesagt, dass Fiji nicht gerade der Bringer war. Einerseits wegen Vram, andererseits zu vollgestopft mit Shadern die man nicht voll ausfahren konnte.

robbitop
2017-07-31, 18:48:18
Ja... nennt sich Software. ;)

Mit Wolfenstein 2 bin ich mir ziemlich sicher, dass wir die tatsächliche Leistung von Vega zu Gesicht bekommen. Vulkan, AC, FP16 und Shader Intrinsics ist die ultimative Mischung. =) Es müssten halt mehr Entwickler in der PC-Umgebung so effizient mit der Software umgehen wie id. :(
Oder man hat einen sehr guten Shadercompiler. NV steckt wohl eine leicht zu unterschätzende Menge an Ressourcen in die Softwareentwicklung und -pflege.

dildo4u
2017-07-31, 18:48:43
AMD Capsaicin at Siggraph 2017

https://youtu.be/nuFGUVg0U9U

G3cko
2017-07-31, 18:53:03
Oh, welchen Preis vergleichst Du gerade womit genau?

Ihr seid doch des lesens mächtig oder?

zB. 7970 (320€) vs GTX780 (640€)
zum Release der GTX780
https://www.computerbase.de/2013-05/nvidia-geforce-gtx-780-test/14/
Da AMD damals frühzeitig mit der GHz-Edition für Wettbewerb im eigenen Lager gesorgt hat, war praktisch jede 7970 eine GHz.

Lustige Anmerkung am Rande:
Die GTX780 erschien sogar 1 Jahr und 2 Monate nach der 7970-GHz für 640€. Die 7970 war über 1 Jahr früher für 380€ zu haben.
https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/13/

Parallelbeispiel wäre die 290 vs 780Ti. Selbst mit 6GB sieht eine Titan heute kein Land gegen Hawaii.

Und ja auch die VRAM-Ausstattung gehört in die Betrachtung. Ist ja schön und gut, dass es auch GTX680/GTX770 mit 4GB gab. Bringt nur nichts, wenn bereits eine GTX680 mit 2GB 150€ teurer war...

Ich würde behaupten Vega wurde noch mehr im Beta-Stadium auf den Markt geworfen. Aber man hatte durch Maxwell keine Wahl. Entweder noch ein Flop auf Basis von Polaris in Groß oder einen großen Rundumschlag. Für beides fehlen die Ressourcen. Mehr als 2 Grafikchips pro Jahr gibt es ja kaum. Und die müssen auch 2-3 Jahre im Markt bleiben. Man kann aber nur das verlangen was die Hardware zum Releasezeitpunkt leistet.

Wer in 4k spielt, den wird das nicht interessieren. Aber ich behaupte mal der Großteil spielt nach wie vor in FullHD und dreht auch mal im Zweifel die Settings runter. Auch ein BF1 läuft in FullHD mit hohen Settings noch mit 60fps. Und das mit einer 5 Jahre alten 7970. Konsolenports machen die Hardware immer langlebiger. Die UltraSettings dienen nur dazu die PC-Hardware an die Kotzgrenze zu treiben sorgen aber kaum noch für optischen Mehrwert. Erst wenn die HighEnd-Hardware an die Wand gefahren wird ist ja eine Grafikengine auf der höhe der Zeit - so die Denkweise der Masse. Nun gibt es ja soga Hoch, Ultra, Nightmare. Soweit hat sich die PC Performance von der Konsole entfernt.

robbitop
2017-07-31, 18:53:36
Ganz ehrlich: Die Mär von AMDs besserer Langlebigkeit ist irgendwie quatsch. Klar ist eine HD7970 GHz heute schneller als die GTX 680, aber wenn man nun schaut mit welchen Details und welche Geschwindigkeit lohnt es sich nicht so alte Gammelgurken noch zu verwenden. Gegen eine 770 4 GB sieht es dann auch schon wieder anders aus (siehe meine alten MSI-Karten die mit ootb 1254 MHz liefen).
Naja IIRC läuft Tahitii auf GTX780 Niveau in modernen Spielen. Hawaii sieht heute AFAIK auch besser ggü GM204 aus als noch vor 2 Jahren. Der Ursprüngliche Gegner (GK110) ist für Hawaii kein echter Gegner mehr.

Ich könnte mir gut vorstellen, dass bei einer neuen mArch noch etwas Potenzial zum Ausschöpfen bei Vega vorhanden ist. Ggf. liegt man in 1-2 Jahren dann dochmal auf GP102 Niveau (auch wenn es kaum noch jemanden interessieren wird).

Man kann nur hoffen, dass RTG mittelfristig in Fahrt kommt. Wäre gut für den Markt.

Opprobrium
2017-07-31, 18:53:39
Macht eine Nano auch Sinn, wenn man genug Platz im Gehäuse hat? Wird die dann von Haus aus so optimiert, dass sie möglichst kein Backofen ist?

Deshalb meine ich ja auch, dass der eine oder andere Hersteller eine Karte mit Nano Eigenschaften auf einen Standard Größe PCB verbauen sollte. Würde sicherlich eine leise Karte.

Edit: Und ja, AMD hat die letzten Generationen immer noch nachgelegt was die Performance angeht. Und warum sollte das gerade bei Vega, einer komplett neuen Architektur die sie auch für Konsolen und RavenRidge nutzen werden, anders sein? Natürlich wird da auch an der Hardware noch einiges tweakbar sein, aber wie viele hier schon anmerkten sind Performance Zugewinne im zweistelligen Bereich mittelfristig nicht unrealistisch.

Grendizer
2017-07-31, 18:56:15
Oder man hat einen sehr guten Shadercompiler. NV steckt wohl eine leicht zu unterschätzende Menge an Ressourcen in die Softwareentwicklung und -pflege.

Jepp ... aber das wird nVidia ja immer vorgeworfen. Viele beschweren sich ja über Gameworks und unterstellen immer, das nVidia hier einen unfairen Vorteil hat. Ja aber verdammt nochmal, sie haben das Zeug entwickelt, stellen es zur Verfügung und supporten es vorbildlich. Ist das nun ein Dient am nVidia Kunden ? AMD kann das wohl aus Ressourcenmangel nicht mitgehen. Und die ganzen tollen Features müssen ja supportet werden. Jetzt, zum Release wird man sich darum reissen einige AAA Produktionen optimal zu tweaken... aber wenn die Launchreviews rum sind, werden nur noch sehr ausgewählte Produktionen unterstützt werden. Ob es dann für Vega noch viele spielspezifische optimierungen geben wird, wage ich zu bezweifeln.

Timbaloo
2017-07-31, 19:04:32
Oder man hat einen sehr guten Shadercompiler. NV steckt wohl eine leicht zu unterschätzende Menge an Ressourcen in die Softwareentwicklung und -pflege.
Glaubst du wirklich, dass es etwas derart grundlegendes wie der Shader Compiler ist woran es bei AMD hapert?

Ernst gemeinte Frage, ich kann das nicht einschätzen, aber es klingt irgendwie... seltsam.

G3cko
2017-07-31, 19:05:33
Jepp ... aber das wird nVidia ja immer vorgeworfen. Viele beschweren sich ja über Gameworks und unterstellen immer, das nVidia hier einen unfairen Vorteil hat. Ja aber verdammt nochmal, sie haben das Zeug entwickelt, stellen es zur Verfügung und supporten es vorbildlich. Ist das nun ein Dient am nVidia Kunden ? AMD kann das wohl aus Ressourcenmangel nicht mitgehen. Und die ganzen tollen Features müssen ja supportet werden. Jetzt, zum Release wird man sich darum reissen einige AAA Produktionen optimal zu tweaken... aber wenn die Launchreviews rum sind, werden nur noch sehr ausgewählte Produktionen unterstützt werden. Ob es dann für Vega noch viele spielspezifische optimierungen geben wird, wage ich zu bezweifeln.

Dank der Konsolen-Deals spielt die Zeit für AMD. Nvidia muss hier Geld in die Hand nehmen. Bestes Beispiel ist das mittlerweile tote PhysX.

Zergra
2017-07-31, 19:05:48
Die 64 ist definitiv zu teuer bei der zu erwartenden Performance, die 56 könnte interessant werden.
Ist das nicht immer so ? Der Vollausbau ist vom P/L immer schlechter..

Hübie
2017-07-31, 19:07:39
Die Slides von TPU als PDF:

https://1drv.ms/b/s!ApAO2q7najajg6M87r_FP4UnDhpDMQ

Ich war mal so frei.

robbitop
2017-07-31, 19:07:59
Glaubst du wirklich, dass es etwas derart grundlegendes wie der Shader Compiler ist woran es bei AMD hapert?

Ernst gemeinte Frage, ich kann das nicht einschätzen, aber es klingt irgendwie... seltsam.
Das sagt zumindest id (in einer GDC Präsentation und einer der Engineentwickler), die wie kein anderer Rohleistung von GCN (@PC) auf die Straße bekommen.

Grendizer
2017-07-31, 19:08:10
Dank der Konsolen-Deals spielt die Zeit für AMD. Nvidia muss hier Geld in die Hand nehmen. Bestes Beispiel ist das mittlerweile tote PhysX.

Hätte ich auch vor 3 Jahren gesagt... ABER.... die PS4 und XBOX One sind in den Schnittstellen zu unterschiedlich. Xbox One unterstützt DX12, PS4 nicht, dafür die PS4 Pro dann FP16.

Edit: nVidia nimmt das Geld halt auch in die Hand und sie haben viel davon eingenommen.

dargo
2017-07-31, 19:11:45
Dank der Konsolen-Deals spielt die Zeit für AMD. Nvidia muss hier Geld in die Hand nehmen. Bestes Beispiel ist das mittlerweile tote PhysX GPU-PhysX.
fixed

Screemer
2017-07-31, 19:12:05
24-30 MH/s vs. 28,5 MH/s

ist nicht korrekt. mit ausoptimiertem bios knallt eine 1070 bei aktueller difficulty über 34-36MH/s (https://forum.ethereum.org/discussion/comment/80481)raus. eine 4/580 kratzt vielleicht noch grad so an den 30, wenn der speicher richtig gut läuft. sorry to bust your bubble ;)

Korvaun
2017-07-31, 19:18:53
Langlebigkeit schön und gut, aber das bringt einem nur was wenn man mit jedem Jahr seine Ansprüche bzgl. Qualitätseinstellungen/Auflösung/Fps/etc. in neuen Spielen herunterschraubt. Was bringt denn eine VEGA die jetzt "Treiber-lahm" ist und in 3-4 Jahren ihr volles Potential zeigt, wobei ihre absolute Leistung dann wahrscheinlich nur noch unteres Mittelmaß ist?
Das natürlich nur aus Sicht eines "Qualitätsfetischisten" der die Mittel hat das auch auszuleben, wer das lockerer sieht kann natürlich auch mit VEGA glücklich werden, es sei jedem gegönnt.

BlacKi
2017-07-31, 19:19:01
Ich rechne mir mal was schön. Nehmen wir an Vega 56 ist 60% schneller als meine alte 390.
siehst du wie schnell rx vega 64 ggü. der fury x ist? 29% schneller, das entspricht einem 3dc index von aufgerundeten 870%, mit den werten die amd geliefert hat. ich bezweifle stark das die rx56 durchschnittlich schneller ist als die 1070.
rx 56 hat 12,5 weniger recheneinheiten und oben drauf einen geringeren takt, so schätze ich die rx 56 15% langsamer ein als die rx64. damit ist die rx56 ca 38% schneller als eine r9 390-.-

https://i.gyazo.com/d5538f428111d1ed9cbc0c118477f85c.png
edit: hab die linke spalte vergessen und nun in meine zahlen angepasst.

lowkres
2017-07-31, 19:19:21
Es ist gerade echt schwierig die RX VEGA Grafikkarten einzuordnen. Ich bin der Meinung, dass sehr viel Leistung brach liegt und mit späteren Treibern sehr stark aufgewertet werden kann. Die Frage ist nur wann dies passieren wird? Ich glaube erst mit Navi wird AMD eventuell die neue Arch in den Griff bekommen und erst dann könnten sie mit Volta gleichziehen. Bei der Effizienz wird AMD Nvidia jedoch niemals erreichen können(glaube ich). Bin mal gespannt auf die ganzen Testergebnisse am 14. August.


Edit: @BlacKi: 36% mehr als eine 390 Graka wäre sogar unter der GTX 980Ti laut Computerbase Grafikkarten Rangliste. Das wäre eigentlich sehr schwach für den Preis. Ich denke sie mit der Stock 1070 gut konkurrieren können.

Linmoum
2017-07-31, 19:20:34
Jepp ... aber das wird nVidia ja immer vorgeworfen. Viele beschweren sich ja über Gameworks und unterstellen immer, das nVidia hier einen unfairen Vorteil hat. Ja aber verdammt nochmal, sie haben das Zeug entwickelt, stellen es zur Verfügung und supporten es vorbildlich. Ist das nun ein Dient am nVidia Kunden ? AMD kann das wohl aus Ressourcenmangel nicht mitgehen. Und die ganzen tollen Features müssen ja supportet werden. Jetzt, zum Release wird man sich darum reissen einige AAA Produktionen optimal zu tweaken... aber wenn die Launchreviews rum sind, werden nur noch sehr ausgewählte Produktionen unterstützt werden. Ob es dann für Vega noch viele spielspezifische optimierungen geben wird, wage ich zu bezweifeln.
Es geht immer um das "wie". Wenn man dann bei sowas wie dem Witcher 3 sinnlos mit Tessellation um sich wirft, obwohl es oberhalb von x16 de facto keine Unterschiede gibt (oder man sie mit vier Lupen suchen muss) dann ist das nicht so toll. Auch für nVidia-User nicht. Gibt viele tolle Effekte, wenn das im Gesamtpakte alles nur deutlich runder wäre.

Aber hey, einfach vollknallen und massiv Performance kosten lassen, ist ja hipp.

G3cko
2017-07-31, 19:20:47
- Liegt dieser HoloCobe nur der Limited Edition bei?
- Kann man die Bundle-Artikel wie den Monitor zu einem späteren Zeitpunkt kaufen?

M4xw0lf
2017-07-31, 19:22:26
Der Holocube liegt nirgendwo bei.

dildo4u
2017-07-31, 19:22:38
siehst du wie schnell rx vega 64 ggü. der fury x ist? 26% schneller, das entspricht einem 3dc index von aufgerundeten 850%, mit den werten die amd geliefert hat. ich bezweifle stark das die rx56 durchschnittlich schneller ist als die 1070.
rx 56 hat 12,5 weniger recheneinheiten und oben drauf einen geringeren takt, so schätze ich die rx 56 15% langsamer ein als die rx64. damit ist die rx56 ca 36% schneller als eine r9 390-.-
https://i.gyazo.com/d5538f428111d1ed9cbc0c118477f85c.png
Erstaunlich das NV in Hitman DX12 vorne ist.

Blediator16
2017-07-31, 19:22:52
Far Cry 5 wird auch FP16 und Rapid Packed Math nutzen, was auch immer das bedeutet.

dargo
2017-07-31, 19:33:08
Kommt da etwa ein Vega Spielpatch für Doom und FP16?
Neben Wolfenstein: The New Colossus soll unter anderem auch DOOM mit Vulkan-API von Rapid Packed Math profitieren.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43870-wolfenstein-the-new-colossus-radeon-rx-vega-mit-rapid-packed-math-beschleunigt.html

Und nochwas... als id vom stärkeren AC-Einsatz @PC für zukünftige Spiele sprach bezog man sich da schon auf Wolfenstein 2 oder erst spätere Titel?

Linmoum
2017-07-31, 19:34:33
Gibt's für Far Cry 5 auch 'ne Quelle? Wäre nicht schlecht, wenn Bethesda und Ubisoft schon in der Richtung was unternehmen. Da könnte aber auch die PS4 Pro 'ne entscheidende Rolle spielen.

AffenJack
2017-07-31, 19:37:35
Dank der Konsolen-Deals spielt die Zeit für AMD. Nvidia muss hier Geld in die Hand nehmen. Bestes Beispiel ist das mittlerweile tote GPU-PhysX.

fixed

Auch das ist glaube falsch, PhysX ist in Flex usw aufgegangen und unterstützt mittlerweile DX12 und dürfte auch auf AMD laufen, da es über compute shader läuft. Da gibts ja eh Tonnen von Zeug bei den, wo man gar nicht mehr weiß was noch aktuell ist

G3cko
2017-07-31, 19:43:14
Der Holocube liegt nirgendwo bei.

Klär mich/uns doch bitte auf.

Blediator16
2017-07-31, 19:45:28
Gibt's für Far Cry 5 auch 'ne Quelle? Wäre nicht schlecht, wenn Bethesda und Ubisoft schon in der Richtung was unternehmen. Da könnte aber auch die PS4 Pro 'ne entscheidende Rolle spielen.

Quelle:
https://youtu.be/LvRdKkc4bfk?t=18

crux2005
2017-07-31, 19:46:14
Klär mich/uns doch bitte auf.

https://videocardz.com/71417/amd-radeon-holocube-will-not-be-shipping-with-radeon-rx-vega-in-august

MadManniMan
2017-07-31, 19:48:54
zB. 7970 (320€) vs GTX780 (640€)

Sorry, dass Du Dich auf was nicht aktuelles bezogen hast, hab ich da nicht rausgelesen - für mich ging es um Vega vs. GP104.

Rincewind
2017-07-31, 19:48:58
Interessant: Keiner schreibt das Wort "Spieleschwäche" ;D

*SCNR*

deekey777
2017-07-31, 19:49:33
Spieleschwäche!

M4xw0lf
2017-07-31, 19:53:40
Klär mich/uns doch bitte auf.
https://videocardz.com/71417/amd-radeon-holocube-will-not-be-shipping-with-radeon-rx-vega-in-august
Der Bequemlichkeit halber nochmal das relevante Zitat:


AMD appreciates the excitement and curiosity surrounding the Radeon Holocube. The Radeon Holocube was developed as a prototype and at this time, it is one of very few that exist in the world. The Holocube will not be shipping with Radeon RX Vega in August

Kartenlehrling
2017-07-31, 19:54:18
nuFGUVg0U9U
AMD Capsaicin at Siggraph 2017

dargo
2017-07-31, 19:55:03
Quelle:
https://youtu.be/LvRdKkc4bfk?t=18
Wechselt Ubisoft endlich auf low level oder geht RPM auch unter DX11? Letzteres wäre meh.

Edit:
Kann das jemand bestätigen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11445731&postcount=5011

crux2005
2017-07-31, 20:08:39
AMD Capsaicin at Siggraph 2017

https://youtu.be/nuFGUVg0U9U

cringe lvl over 9000 mit Raja und Tim ;D

Setsul
2017-07-31, 20:08:40
Ich nehme mal an AMD reitet momentan deshalb so sehr auf min fps herum weil es mit den Treibern sehr knapp wird. Man schreibt in solche Folien nicht Werte rein die man am Abend vorher mit einem Treiber, der 5 Anläufe braucht um ohne crash durchs Benchmark zu kommen, auf die Schnelle gerade noch so rechtzeitig bekommen hat. Alles was man jetzt von sich gibt muss auch definitiv zum Launch erreicht oder überboten werden. Was zur der Zeit als die Folien gemacht wurden der letzte stable Treiber war kann sie stark unterscheiden von dem was zum Launch kommt. Vega sollte in ein paar Monaten wahrscheinlich konkurrenzfähig sein, in 1-2 Jahren definitiv, aber wie nah kommt AMD zu Launch schon ran? Das war bei 290X und Fury X genauso, es ist toll wenn die GPUs 2 Jahren später schneller sind als die direkten Konkurrenten, aber die meisten kaufen danach wie es beim Launch aussieht.
Das letzte mal als AMD bei Vega fps gezeigt hat war die Panik groß. Also gibts dieses mal min fps, beim worst case bringt der DSBR auch wenig (sonst wäre es nicht der worst case), das heißt das sollte sich bis zum Launch nicht viel verändern. Man verschenkt also fast nichts, während avg fps nur zu mehr Drama führen, selbst wenn zum Launch dann eine positive Überraschung kommt. Also min fps, vergleichen mit den Karten die preislich ähnlich sind, den Vergleich kann man gewinnen, Marketing kann zeigen dass man den längeren Balken hat und das Ziel ist erreicht. Letztendlich ist es nichtssagend, aber man hat Zahlen die man vorschieben kann um "richtige" Benchmarks bis zum Launch hinauszuzögern.

Mancko
2017-07-31, 20:11:14
Hätte ich auch vor 3 Jahren gesagt... ABER.... die PS4 und XBOX One sind in den Schnittstellen zu unterschiedlich. Xbox One unterstützt DX12, PS4 nicht, dafür die PS4 Pro dann FP16.

Edit: nVidia nimmt das Geld halt auch in die Hand und sie haben viel davon eingenommen.

Und zudem hat er vergessen, dass Nvidia durch den Nintendo Deal und GeForce Now so richtig schön weiter daran sägt, dass sich dort eben nicht nur eine Richtung manifestiert. Und am PC nehmen sie einfach das Geld in die Hand und gut ist. Sie können es und sie machen es und genau das ist AMDs Problem. Da wird sich mit XBox und Playstation aber auch rein gar nichts ändern.

robbitop
2017-07-31, 20:13:41
Der Nintendo Deal ist relativ irrelevant, da die Switch wenig AAA Ports von der PS4/PRO und der Xbone /X bekommen wird, da völlig andere Größenordnung der Geschwindigkeit. Die Ports für Switch müssen deshalb wahrscheinlich eh massiv angefasst werden (sicherlich nicht ganz so sehr wie die Wii Ports aber sicherlich irgendwo dazwischen).

Wie oft denn noch. :frown:
Die Fury X ist auch nach 2 Jahren nicht vor der 980 Ti.
Wobei die mickrigen 4 GB VRAM nicht gerade helfen...
In Doom mit Shader Intrinsics und AC zeigt sie, was sie kann.

Sardaukar.nsn
2017-07-31, 20:14:03
...Das natürlich nur aus Sicht eines "Qualitätsfetischisten" der die Mittel hat das auch auszuleben, wer das lockerer sieht kann natürlich auch mit VEGA glücklich werden, es sei jedem gegönnt.

PC-Gaming befindet sich aber gerade stark im Wandel, denn Enthusiasten und auch viele normale Zocker interessieren sich ja grade für den großen Monitor/Auflösungs-Wandel. Analog zum TV-Markt also weg vom FullHD hin zu 4k bzw. für Spieler auch oft interessante 1440p/144hz/variable V-Sync.

In diesem Wandel hat nVidia mit der 1080Ti natürlich erstmal ein paar Pflöcke eingeschlagen (erste 4k/60hz taugliche Grafikkarte) und AMD schafft aktuell den Anschluss nicht so recht.

Grendizer
2017-07-31, 20:17:07
Der Nintendo Deal ist relativ irrelevant, da die Switch wenig AAA Ports von der PS4/PRO und der Xbone /X bekommen wird, da völlig andere Größenordnung der Geschwindigkeit. Die Ports für Switch müssen deshalb wahrscheinlich eh massiv angefasst werden (sicherlich nicht ganz so sehr wie die Wii Ports aber sicherlich irgendwo dazwischen).


Meiner Meinung nach gibt es recht wenige "echte Portierungen" das meiste ist heutzutage als Multiplattformtitel ausgelegt und da gibt dann entsprechende Middleware, die das alles "relativ" automatisiert auf die Zielplattormen bringt.
Unity, UE4, ID Tech Engines, Frostbite , Snowdrop + diverse Drittanbieter tools.

Erbsenkönig
2017-07-31, 20:18:17
Deshalb meine ich ja auch, dass der eine oder andere Hersteller eine Karte mit Nano Eigenschaften auf einen Standard Größe PCB verbauen sollte. Würde sicherlich eine leise Karte.

Was macht denn AMD bei einer Nano? Runter mit Takt und Spannung, oder wird auch was am Innenleben geändert, damit da weniger Hitze rauskommt?

Grendizer
2017-07-31, 20:20:46
PC-Gaming befindet sich aber gerade stark im Wandel, denn Enthusiasten und auch viele normale Zocker interessieren sich ja grade für den großen Monitor/Auflösungs-Wandel. Analog zum TV-Markt also weg vom FullHD hin zu 4k bzw. für Spieler auch oft interessante 1440p/144hz/variable V-Sync.

In diesem Wandel hat nVidia mit der 1080Ti natürlich erstmal ein paar Pflöcke eingeschlagen (erste 4k/60hz taugliche Grafikkarte) und AMD schafft aktuell den Anschluss nicht so recht.


Halte ich noch für nicht wirklich relevant in der breiten Masse. Der Media Marktkäufer nimmt das Schnäppchen das Tages (Full HD VA Panel), weils so schön knallig aussieht.

Ich selber zähle mich ja eher zu den Enthusiasten, aber selbst ich sitze hier noch vor 3 Dell 24 Zoll Monitoren mit 1920x1200... und nichts UHD oder sooo:freak:

robbitop
2017-07-31, 20:26:56
Meiner Meinung nach gibt es recht wenige "echte Portierungen" das meiste ist heutzutage als Multiplattformtitel ausgelegt und da gibt dann entsprechende Middleware, die das alles "relativ" automatisiert auf die Zielplattormen bringt.
Unity, UE4, ID Tech Engines, Frostbite , Snowdrop + diverse Drittanbieter tools.
Das funktioniert aber nur, wenn alle Plattformen grob in der gleichen Region der Rohleistung, Bandbreite, RAM etc liegen.
Es gibt aktuell nur sehr sehr wenige AAA Ports für die Switch. Das wird sich IMO zwar etwas ändern - aber es wird längst nicht annährnd alle Multititel geben. Dazu ist der Unterschied einfach zu groß.

Chaser187
2017-07-31, 20:29:15
Na was hab ich gesagt. Nix mit wunder treiber und auch nix mit Ti performance.

Die eigentlichen interessanten Produkte sind die Vega 56 und die Nano, darauf bin ich gespannt.

horn 12
2017-07-31, 20:32:03
Mann, AMD hat es wohl verkackt, zumindest GTX 1080TI wäre ein MUSS gewesen!!
Da klemmt noch was gewaltig und meine Fury sucht einen Nachfolger...

Linmoum
2017-07-31, 20:32:45
Was heißt nix mit Wundertreiber?

Der DSBR sollte theoretisch einen mehr als ordentlichen Performanceschub bringen und da der aktuell bei der FE noch nicht aktiv ist (wie von den meisten angenommen), wäre eine spürbar höhere Performance für die RX-Karten logisch gewesen. Scheint aber zu hapern und das Ding bringt kaum etwas, warum auch immer.

Mann, AMD hat es wohl verkackt, zumindest GTX 1080TI wäre ein MUSS gewesen!!
Kirche im Dorf lassen, Pflicht hätte es sein müssen, die 1080 klar zu schlagen. Hat man aus Gründen nicht geschafft und das ist desaströs, aber 1080ti ist dann auch zu hoch gegriffen.

Opprobrium
2017-07-31, 20:35:55
Was macht denn AMD bei einer Nano? Runter mit Takt und Spannung, oder wird auch was am Innenleben geändert, damit da weniger Hitze rauskommt?

Eben, und man zahlt dann halt für den kleinen PCB. Klar kann man auch eine normale Vega Karte Untertakten und Untervolten, aber so eine Vega RX 64 Green/Eco/Etc. Edition hätte doch was, zumal doch trotzdem Abwärme anfällt. Und die lässt sich nun mal mit einen großen PCB und dementsprechenden Kühl(körp)er besser ableiten.

grauenvoll
2017-07-31, 20:36:29
In diesem Wandel hat nVidia mit der 1080Ti natürlich erstmal ein paar Pflöcke eingeschlagen (erste 4k/60hz taugliche Grafikkarte) und AMD schafft aktuell den Anschluss nicht so recht.

Naja, AMD kommt sehr entgegen, dass die Monitorhersteller noch mehr hinterher hinken als AMD. Mehr als 4k@60Hz wird wird es so schnell nicht geben.

Ansonsten ist Vega einer der sinnlosesten Produktlaunches der vergangenen Jahre. Man kann ja argumentieren, dass AMD nicht die Ressourcen hat wie nVidia, aber dann soll man sich auf das machbare konzentrieren und nicht zu ehrgeizige Ziele verfolgen. Ich kann mir vorstellen, dass dies bei AMD personelle Konsequenzen hat, ähnlich wie es mit Dirk Meyer nach dem Bulldozer Desaster auch passiert ist.

Gimmick
2017-07-31, 20:40:11
Gibt es eigentlich Abschätzungen wieviel die Nutzung von FP16 in Spielen bringt bei einem FP16/32 Verhältnis von 2:1?

dargo
2017-07-31, 20:42:02
Ansonsten ist Vega einer der sinnlosesten Produktlaunches der vergangenen Jahre. Man kann ja argumentieren, dass AMD nicht die Ressourcen hat wie nVidia, aber dann soll man sich auf das machbare konzentrieren und nicht zu ehrgeizige Ziele verfolgen. Ich kann mir vorstellen, dass dies bei AMD personelle Konsequenzen hat, ähnlich wie es mit Dirk Meyer nach dem Bulldozer Desaster auch passiert ist.
Wenn ich sowas lese wünsche ich mir wir hätten schon den 27 Oktober. :D

Hübie
2017-07-31, 20:47:00
Naja IIRC läuft Tahitii auf GTX780 Niveau in modernen Spielen.

Da übertreibst du ein wenig. Tahiti läuft in BF1 deutlich besser, ja - weil die 680 nur 2 GB hatte und kaum mit 4GB verkauft wurde (Taktik). Sonst ruckeln beide mit einem Abstand von ~20% zu Gunsten von Tahiti. In Werten also z.B. 18,3 zu 21,9 fps. :freak:


Test (1440p) Result GTX 680 Result Radeon HD 7970 Difference from 680 to 7970
Battlefield 1 16,00 29,00 181,25%
Deus Ex: Mankind Divided 23,60 26,30 111,44%
Rise of the Tomb Raider 26,40 25,70 97,35%
Call of Duty: Black Ops III 25,40 37,40 147,24%
Fallout 4 23,20 25,50 109,91%
The Witcher 3 18,30 21,90 119,67%
Ryse: Son of Rome 29,40 35,70 121,43%
Far Cry 4 29,90 35,30 118,06%
Bioshock: Infinite 50,00 51,40 102,80%
Company of Heroes 2 30,00 35,90 119,67%
Alan Wake 38,80 44,20 113,92%
Dirt Showdown 45,50 55,90 122,86%
The Elder Scrolls V: Skyrim 69,50 74,90 107,77%
Anno 2070 29,50 31,40 106,44%
Mittelwert 119,99%
Verhältnis damals (2560x1600 4xAA/16xAF)
GTX 680 100%
HD 7970 99%


Hawaii sieht heute AFAIK auch besser ggü GM204 aus als noch vor 2 Jahren. Der Ursprüngliche Gegner (GK110) ist für Hawaii kein echter Gegner mehr.

Das stimmt so auch nicht ganz. Es gibt hier und da Ausreißer wo Hawaii Grenada besser weg kommt wenn man bei computerbase schaut, aber da tauscht man die Spiele aus und schon normiert sich das.

Test (1440p) Result GTX 780 Ti Result Radeon R9 290X Difference from 780 Ti to 290X
Battlefield 1 41,60 42,20 101,44%
Deus Ex: Mankind Divided 36,80 42,70 116,03%
Rise of the Tomb Raider 40,50 40,10 99,01%
Call of Duty: Black Ops III 41,50 53,40 128,67%
Fallout 4 32,30 39,80 123,22%
The Witcher 3 30,20 35,50 117,55%
Ryse: Son of Rome 45,40 54,70 120,48%
Far Cry 4 45,90 51,90 113,07%
Bioshock: Infinite 78,40 72,10 91,96%
Company of Heroes 2 45,20 56,10 124,12%
Alan Wake 62,50 58,80 94,08%
Dirt Showdown 68,60 87,20 127,11%
The Elder Scrolls V: Skyrim 112,60 74,90 66,52%
Anno 2070 44,80 47,00 104,91%
Mittelwert 109,16%
Verhältnis damals (2560x1600 4xAA/16xAF)
GTX 770 70% (97%)
R9 280X 72% (100%)
GTX 780 Ti 100%
R9 290X 89%


AMD verbessert seine Produkte offensichtlich mehr als NV. Da muss ich also etwas zurück rudern was die Langlebigkeit angeht (basierend auf den Test von computerbase.de). Speicherlimit oder einfach keine Optimierung können hier die Ursache sein. Eingehende Untersuchungen wären hier mal interessant. Kennt noch jemand Artikel wie diese beiden?

https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/

https://www.computerbase.de/2017-01/radeon-hd-7970-290x-fury-x-vergleich/

Ich könnte mir gut vorstellen, dass bei einer neuen mArch noch etwas Potenzial zum Ausschöpfen bei Vega vorhanden ist. Ggf. liegt man in 1-2 Jahren dann doch mal auf GP102 Niveau (auch wenn es kaum noch jemanden interessieren wird).

Man kann nur hoffen, dass RTG mittelfristig in Fahrt kommt. Wäre gut für den Markt.

Definitiv. Wenn es nicht so läuft wie bei Fiji (der offenbar langsamer geworden ist*), dann sind hier auch 20% drin. Wenn nicht noch mehr.

Bei NV liegt es einfach daran, dass man nur zwei Generationen pflegt. Kepler bekommt bugfixes, aber keine expliziten Performanceoptimierungen (eher Synergieeffekte durch Compiler, alte Profile etc.).

*980 Ti <-> Fiji:
Test (1440p) Result GTX 980 Ti Result Radeon R9 FuryX Difference from 980 Ti to Fury X
Battlefield 1 60,40 55,40 91,72%
Deus Ex: Mankind Divided 56,40 54,70 96,99%
Rise of the Tomb Raider 60,20 50,60 84,05%
Call of Duty: Black Ops III 75,60 57,80 76,46%
Fallout 4 58,00 50,40 86,90%
The Witcher 3 46,60 47,50 101,93%
Ryse: Son of Rome 67,40 67,60 100,30%
Far Cry 4 69,60 71,00 102,01%
Bioshock: Infinite 104,20 102,20 98,08%
Company of Heroes 2 70,10 63,40 90,44%
Alan Wake 94,60 62,80 66,38%
Dirt Showdown 107,30 106,00 98,79%
The Elder Scrolls V: Skyrim 148,60 132,00 88,83%
Anno 2070 70,60 61,20 86,69%
Mittelwert 90,68%
Verhältnis damals (2560x1440 hohe Qualität)
GTX 780 Ti 65% (100%)
R9 290X 62% (96%)
GTX 980 Ti 100%
R9 Fury X 94%

grauenvoll
2017-07-31, 20:47:32
Wenn ich sowas lese wünsche ich mir wir hätten schon den 27 Oktober. :D

Was verdammt nochmal ist am 27.10???:D

grauenvoll
2017-07-31, 20:48:46
Gibt es eigentlich Abschätzungen wieviel die Nutzung von FP16 in Spielen bringt bei einem FP16/32 Verhältnis von 2:1?

Frostbite spricht von ca. 30%

Gimmick
2017-07-31, 21:00:10
Frostbite spricht von ca. 30%

Das hab ich mal gegooglet ( http://gamingbolt.com/mass-effect-andromeda-ps4-pro-dev-explains-benefits-of-checkerboard-rendering-30-improvement-due-to-fp16).
Die Aussage bezog sich auf den Gewinn bei angeschaltetem Checkerboard-Rendering.

Ich verstehe, dass so, dass das Checkerboard-Verfahren in FP16 gerechnet wird und alleine das schon 30% bringt.

dargo
2017-07-31, 21:01:13
Was verdammt nochmal ist am 27.10???:D
Lass dich überraschen.

Hübie
2017-07-31, 21:02:45
Was verdammt nochmal ist am 27.10???:D

Da kommt Wolfenstein II heraus. :D

Blediator16
2017-07-31, 21:03:32
Naja, AMD kommt sehr entgegen, dass die Monitorhersteller noch mehr hinterher hinken als AMD. Mehr als 4k@60Hz wird wird es so schnell nicht geben.

Ansonsten ist Vega einer der sinnlosesten Produktlaunches der vergangenen Jahre. Man kann ja argumentieren, dass AMD nicht die Ressourcen hat wie nVidia, aber dann soll man sich auf das machbare konzentrieren und nicht zu ehrgeizige Ziele verfolgen. Ich kann mir vorstellen, dass dies bei AMD personelle Konsequenzen hat, ähnlich wie es mit Dirk Meyer nach dem Bulldozer Desaster auch passiert ist.

Die Leute von RED sind von der SSG begeistert.

dargo
2017-07-31, 21:05:37
Da kommt Wolfenstein II heraus. :D
Spielverderber. :P

Erbsenkönig
2017-07-31, 21:06:41
https://www.alza.de/search.htm?exps=amd%20vega

SAPPHIRE Radeon RX Vega 64 8G HBM2: 922,90 €
SAPPHIRE Radeon RX Vega 64 8G HBM2 Limited Edition: 931,90 €
SAPPHIRE Radeon RX Vega 64 8G HBM2 Liquid Cooling: 1.040,90 €

:freak:

Screemer
2017-07-31, 21:07:39
Die Leute von RED sind von der SSG begeistert.
Hab ich auch schon angemerkt. Hat aber keinen interessiert.

G3cko
2017-07-31, 21:08:00
Lass dich überraschen.

Vielleicht gibt's doch den Würfel. :freak: Ich mag den Würfel. :cool:

Linmoum
2017-07-31, 21:13:54
Hab ich auch schon angemerkt. Hat aber keinen interessiert.
Da geht's ja auch nicht ums zocken. :P

Blediator16
2017-07-31, 21:15:25
Da geht's ja auch nicht ums zocken. :P

Bei vielen hört es sich so an, als ob die Karte im Gesamten total unnütz ist.

MartinRiggs
2017-07-31, 21:17:23
Da kommt Wolfenstein II heraus. :D

Dann kommt Vega der 1080Ti nahe und alle feiern :uclap:
Es wird Zeit das die AMD-Karten in vielen Games gescheit performen und nicht immer nur in einigen wenigen

Rancor
2017-07-31, 21:18:19
Bei vielen hört es sich so an, als ob die Karte im Gesamten total unnütz ist.

Naja für den Preis schon. Wenn sich die VGA Preise wieder normalisieren bekomme ich eine GTX 1070 für 400€ brutto. Was soll ich da mit ner VEGA 56 ?

Linmoum
2017-07-31, 21:21:27
Naja für den Preis schon. Wenn sich die VGA Preise wieder normalisieren bekomme ich eine GTX 1070 für 400€ brutto. Was soll ich da mit ner VEGA 56 ?
Vielleicht nochmal genauer lesen, er sprach ja eben nicht nur vom Gaming, sondern Vega als Ganzes. Mag für einige hier unvorstellbar sein, aber Grafikkarten werden nicht nur zum zocken genutzt. Da performt Vega unterdurchschnittlich schlecht, abseits davon sieht's auf den ersten Blick aber sehr ordentlich aus.

dargo
2017-07-31, 21:39:24
Dann kommt Vega der 1080Ti nahe und alle feiern :uclap:

Da jetzt zusätzlich RPM kommt erwarte ich, dass die 1080TI überholt wird. ;)


Es wird Zeit das die AMD-Karten in vielen Games gescheit performen und nicht immer nur in einigen wenigen
Ist halt ein schleichender Prozess. Die Entwickler müssen mitziehen. Ubisoft ist wohl auch langsam im LL-Boot. Zumindest hoffe ich, dass Farcry 5 nicht das einzige Game bleibt.

anddill
2017-07-31, 21:44:31
Das Ding ist definitiv als Profichip entwickelt worden. Dafür haben sie mal wieder eine Menge neuer Ideen und Features reingepackt. Die leider dem Gamer heute nicht viel bringen, und sich in bester AMD-Manier erst auszahlen wenn die Konkurrenz es kopiert hat und Vega 1 obsolet ist.
Die Gamingkarten sind bestimmt aus der Not geboren, daß AMD aktuell schlicht nichts schnelleres als Fiji im Regal hat, außer Vega halt. Da muß der Profichip jetzt auch für Gaming herhalten, besser als nichts neues anzubieten ist es allemal. Und wenn sie das Ding für 399$ verkaufen können ohne dabei Geld zu verbrennen, dann ist das für beide Seiten oK. Spieler bekommen eine ordentliche Graka mit jeder Menge zukunftsfähiger Features zum akzeptablen Preis, AMD kann Stückzahlen machen um damit Vega 2 zu finanzieren.

Digidi
2017-07-31, 21:50:24
Dann kommt Vega der 1080Ti nahe und alle feiern :uclap:
Es wird Zeit das die AMD-Karten in vielen Games gescheit performen und nicht immer nur in einigen wenigen
Ok Setzt du dich dafür ein das Gameworks dann verschwindet? Dann könnte das was werden. ;D

deekey777
2017-07-31, 21:53:44
Gibt es eigentlich Abschätzungen wieviel die Nutzung von FP16 in Spielen bringt bei einem FP16/32 Verhältnis von 2:1?
Richtig gutes Posting eines DICE-Praktikanten:
https://forum.beyond3d.com/threads/id-buffer-and-dr-fp16.60209/page-2#post-1987076

Mancko
2017-07-31, 22:17:09
Der Nintendo Deal ist relativ irrelevant, da die Switch wenig AAA Ports von der PS4/PRO und der Xbone /X bekommen wird, da völlig andere Größenordnung der Geschwindigkeit. Die Ports für Switch müssen deshalb wahrscheinlich eh massiv angefasst werden (sicherlich nicht ganz so sehr wie die Wii Ports aber sicherlich irgendwo dazwischen).


Das macht nix, denn der Nintendo Deal ist langfristig und die Switch wird nicht das letzte Gerät sein. Fakt ist, dass Nvidia damit schön zur Segmentierung des Gaming Marktes beiträgt was die Hardware Plattform angeht und genau das ist gut für sie, denn es sägt auch mit jedem Jahr Gaming auf ARM auch ein Stückchen an der x86 Plattform. Von der Cloud Seite kommt dann noch ein bisschen GeForce Now dazu und parallel dazu sind sie im PC Gaming ganz einfach gesetzt. Da muss AMD schon über mehrere Generationen hinweg konstant vorne liegen um daran was zu ändern und das sehe ich nicht. Denen fehlt hinten und vorne einfach das Geld und Resourcen. Ich kann jetzt aber nicht sehen, dass dies unverdient ist. Letztendlich hat sich AMD genau dahin selbst reinmanövriert durch krasse strategische Fehlentscheidungen.

Seit gefühlt 10 Jahren hört man APUs machen dies, Konsolen machen das und bla. Nichts davon ist eingetreten und der einzige der da richtig Geld mit GPUs verdient ist nunmal Nvida. Von daher ist jedes derartiger Kommentare als dummes Geschwätz entlarvt, denn die Performance der letzten Jahre zeigt genau das Gegenteil und somit muss sich da erstmal nachhaltig über mehrere Jahre etwas anderes einstellen bevor auch nur im Ansatz darüber zu fabulieren ist.

dargo
2017-07-31, 22:37:20
Seit gefühlt 10 Jahren hört man APUs machen dies, Konsolen machen das und bla. Nichts davon ist eingetreten und der einzige der da richtig Geld mit GPUs verdient ist nunmal Nvida Intel.
fixed

Keine Sorge... die APUs kommen mit Raven Ridge. Den Grundstein hat AMD bereits mit Ryzen gelegt.

Digidi
2017-07-31, 22:37:26
Das macht nix, denn der Nintendo Deal ist langfristig und die Switch wird nicht das letzte Gerät sein. Fakt ist, dass Nvidia damit schön zur Segmentierung des Gaming Marktes beiträgt was die Hardware Plattform angeht und genau das ist gut für sie, denn es sägt auch mit jedem Jahr Gaming auf ARM auch ein Stückchen an der x86 Plattform. Von der Cloud Seite kommt dann noch ein bisschen GeForce Now dazu und parallel dazu sind sie im PC Gaming ganz einfach gesetzt. Da muss AMD schon über mehrere Generationen hinweg konstant vorne liegen um daran was zu ändern und das sehe ich nicht. Denen fehlt hinten und vorne einfach das Geld und Resourcen. Ich kann jetzt aber nicht sehen, dass dies unverdient ist. Letztendlich hat sich AMD genau dahin selbst reinmanövriert durch krasse strategische Fehlentscheidungen.

Seit gefühlt 10 Jahren hört man APUs machen dies, Konsolen machen das und bla. Nichts davon ist eingetreten und der einzige der da richtig Geld mit GPUs verdient ist nunmal Nvida. Von daher ist jedes derartiger Kommentare als dummes Geschwätz entlarvt, denn die Performance der letzten Jahre zeigt genau das Gegenteil und somit muss sich da erstmal nachhaltig über mehrere Jahre etwas anderes einstellen bevor auch nur im Ansatz darüber zu fabulieren ist.

Ja klassische Fehlentscheidungen wenn die Konkurrenz die Abnehmer besticht oder mit Gameworks bei den Spieleentwickler einkauft.

Cloud Gaming wird sich wohl nicht durchsetzen wegen der Latenz den Kosten und der Bandbreite die die DSL Leitung benötigt.

horn 12
2017-07-31, 22:39:00
@anddill

Wird Vega NEUE Maßtäbe setzen Können unter 4K und den von AMD angegebenen FreeSync Range 32+ bis 60 Hz
Würde die Untere Range um die 33 bis 35 fps NICHT unterschritten hätte AMD doch ein nicht zu vernachlässigendes Ass im Ärmel.

DrFreaK666
2017-07-31, 22:52:14
@anddill

Wird Vega NEUE Maßtäbe setzen Können unter 4K und den von AMD angegebenen FreeSync Range 32+ bis 60 Hz
Würde die Untere Range um die 33 bis 35 fps NICHT unterschritten hätte AMD doch ein nicht zu vernachlässigendes Ass im Ärmel.

Übertreibt ihr es nicht ein bisschen? Wie ist der Marktanteil von Freesync-Monitoren?

dargo
2017-07-31, 22:59:24
Von Jahr zu Jahr besser. Bei GH sehe ich aktuell 151 Freesync Monitore. Das sind aber nicht alle. Einige schaffen es nicht nach Europa. Würde die niemand kaufen würde die Anzahl dieser Geräte nicht kontinuierlich steigen.

Linmoum
2017-07-31, 23:03:15
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11344932&postcount=2899

Hachja. So nett, dass man sich sogar u.U. 'ner 1080 geschlagen geben muss. :P

DrFreaK666
2017-07-31, 23:03:35
Das ist schon klar. Aber deswegen verkauft sich Vega nicht gleich super

maguumo
2017-07-31, 23:06:55
Würde die niemand kaufen würde die Anzahl dieser Geräte nicht kontinuierlich steigen.
War nicht mal die rede davon das praktisch alle neuen Scaler VESA Adaptive Sync eh unterstützen? Der Aufwand das zu implementieren (gerade mit dem begrenzten Frequenzraum den man leider oft sieht) könnte so gering sein das sie das einfach für viele Neugeräte machen um ein Marketing Label mehr zu haben was man auf die Verpackung klatschen kann. Also da gleich auf die Verkaufs oder Nutzerzahlen zu schließen halte ich für recht unsicher.

dargo
2017-07-31, 23:10:33
Das ist zwar richtig. Langfristig wird aber jeder einen Freesync bzw. A-Sync fähigen Bildschirm (auch TV) daheim stehen haben. Man kann es nur verhindern indem man sich explizit einen G-Sync Bildschirm kauft.

Edit:
Laut AMD gibt es 200+ Freesync Monitore.

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-31.jpg

dildo4u
2017-07-31, 23:18:51
AMD hat vermutlich nicht die Kohle massig Freesync Werbung zu schalten,vermutlich wissen viele Leute gar nicht das ihr TFT es kann.
Ich sehe grad bei Geizhals viele haben das Logo nicht mal auf dem Gerät was natürlich kacke ist,da die Meisten bei einem Monitor vermutlich nicht in die Anleitung schauen.

DrFreaK666
2017-07-31, 23:19:03
Das ist zwar richtig. Langfristig wird aber jeder einen Freesync bzw. A-Sync fähigen Bildschirm (auch TV) daheim stehen haben. Man kann es nur verhindern indem man sich explizit einen G-Sync Bildschirm kauft.

Edit:
Laut AMD gibt es 200+ Freesync Monitore.

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-31.jpg



Aber die Zukunft hat jetzt keinen Einfluss auf die Vega-Verkaufszahlen. Monitore werden eher selten ersetzt. Naja. Ist bei mir jedenfalls so

crux2005
2017-07-31, 23:21:33
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11344932&postcount=2899

Hachja. So nett, dass man sich sogar u.U. 'ner 1080 geschlagen geben muss. :P

Ich glaube der meinte das "Aussehen" Wortwörtlich. :freak:

dargo
2017-07-31, 23:21:36
@DrFreaK666
Keine Ahnung was dein Problem ist. Wo soll ich gesagt haben Freesync würde signifikant die Verkaufszahlen von Vega ankurbeln?

yamamoto_dc
2017-07-31, 23:25:24
Freesync ist den meisten Leuten leider egal, vielleicht ändert sich das mal wenn es auch die Fernseher können. Dann kann es Nvidia aber immer noch implementieren und es ist für AMD kein Vorteil mehr.

Ich habe den Eindruck, dass AMD Vega in erster Linie für den Profi-Bereich entwickelt hat und auch vermarktet. Die Consumer-Produkte werden dann auch noch mitgenommen um die Fixkosten zu verdünnen und den Anschluss nicht total zu verlieren.

dargo
2017-07-31, 23:28:01
Sagt mal... deute ich diese beiden Folien richtig?

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-33.jpg

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-36.jpg

Vega bricht wesentlich weniger ein? Mal sehen was davon in der Praxis mit unabhängigen Tests übrig bleibt.

Dann kann es Nvidia aber immer noch implementieren und es ist für AMD kein Vorteil mehr.
Ein offener Standard ist für alle Kunden ein Vorteil!

Timbaloo
2017-07-31, 23:36:27
Sagt mal... deute ich diese beiden Folien richtig?

Vega bricht wesentlich weniger ein? Mal sehen was davon in der Praxis mit unabhängigen Tests übrig bleibt.
Da nichtmal klar ist wie die Zahlen zustande kommen ist das erstmal pures Marketing. Ich meine ist "min" hier das Minimum der Min-FPS aller genannten Spiele (alle in DX12/Vulkan getetestet?)? Oder der Durschnitt der Min-FPS? Dito "max"? Die Angaben lassen viel zuviel Spielraum...


Ein offener Standard ist für alle ein Vorteil!
In der Theorie ist das so. Bei einem Doupol praktisch aber irrelevant. Man kann hier wieder mit der guten alten Moral argumentieren, wenn man denn will, an der Entscheidung ändert das aber faktisch nichts. Zumal ich mich eher frage ob Freesync nun Vega hilft, oder Vega eher Freesync schadet...

crux2005
2017-07-31, 23:37:58
Sagt mal... deute ich diese beiden Folien richtig?

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-33.jpg

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-36.jpg

Vega bricht wesentlich weniger ein? Mal sehen was davon in der Praxis mit unabhängigen Tests übrig bleibt.


Ein offener Standard ist für alle ein Vorteil!

Das sind nur noch bessere Marketing Slides von den hier:
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/gpu-5.jpg
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/gpu-7.jpg.

Die Min. 26 FPS @ 4K sind aus CoD: IW. Ohne den Wert würde es wieder anders aussehen. Also mal Reviews abwarten. Glaube da bleibt weniger von dem übrig.

Da nichtmal klar ist wie die Zahlen zustande kommen ist das erstmal pures Marketing. Ich meine ist "min" hier das Minimum der Min-FPS aller genannten Spiele (alle in DX12/Vulkan getetestet?)? Oder der Durschnitt der Min-FPS? Dito "max"? Die Angaben lassen viel zuviel Spielraum...

Doch. Es ist die Spanne der Min. FPS = schlechteste min. FPS und beste min. FPS aus den getesteten Spielen. Steht auch unten im Slide:
https://i.gyazo.com/07485ed890c70a77ac31c5608e757b02.png
Also Marketing2.

Complicated
2017-07-31, 23:43:23
Dann kann es Nvidia aber immer noch implementieren und es ist für AMD kein Vorteil mehr.Anders herum - AMD hat erfolgreich verhindert, dass GSync ihre GPUs aussperrt indem es Verbreitung findet. Freesync ist nicht exklusiv.

dargo
2017-07-31, 23:45:08
Da nichtmal klar ist wie die Zahlen zustande kommen ist das erstmal pures Marketing. Ich meine ist "min" hier das Minimum der Min-FPS aller genannten Spiele (alle in DX12/Vulkan getetestet?)? Oder der Durschnitt der Min-FPS? Dito "max"? Die Angaben lassen viel zuviel Spielraum...

In den Endnotes steht eigentlich alles.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/5.html

Eine Frage hätte ich noch zu Rapid Packed Math. Sehe ich es richtig, dass alle Titel die für die PS4 Pro mit RPM erscheinen (außer die Exklusives natürlich) auch dies bei der PC-Version tun? Ich sehe als Laie nicht den Mehraufwand für die Entwickler. Ich meine welche Effekte jetzt mit FP16 realisiert werden sollen entscheidet sich bei der Entwicklung. Völlig unabhängig ob Konsole oder PC. Oder liege ich damit falsch?