PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 [42] 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

dildo4u
2017-07-31, 23:58:08
Laut AMD sind die Boost Angaben jetzt mit Nvidia's Boost vergleichbar aber erstmal echte Test's abwarten,hab mich schon gewundert warum die Baseclock geringer ist als bei der FE obwohl die Karte nur 8GB haben.

https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-Vega-64-and-Vega-56-Specs-Prices-Power-Detailed

Zu den Benches COD:IW@4k ist ein Vram Monster,da könnte AMD ein echten Vorteil haben mit dem HBC.

Flusher
2017-08-01, 00:04:15
Das Ding ist definitiv als Profichip entwickelt worden. Dafür haben sie mal wieder eine Menge neuer Ideen und Features reingepackt. Die leider dem Gamer heute nicht viel bringen, und sich in bester AMD-Manier erst auszahlen wenn die Konkurrenz es kopiert hat und Vega 1 obsolet ist.
Die Gamingkarten sind bestimmt aus der Not geboren, daß AMD aktuell schlicht nichts schnelleres als Fiji im Regal hat, außer Vega halt. Da muß der Profichip jetzt auch für Gaming herhalten, besser als nichts neues anzubieten ist es allemal. Und wenn sie das Ding für 399$ verkaufen können ohne dabei Geld zu verbrennen, dann ist das für beide Seiten oK. Spieler bekommen eine ordentliche Graka mit jeder Menge zukunftsfähiger Features zum akzeptablen Preis, AMD kann Stückzahlen machen um damit Vega 2 zu finanzieren.

Halte ich für eine Fehlannahme. Der Profi-Chip wird Vega 20 sein. AMD hat nie gesagt dass Vega 10 besonders gut für den professionellen Einsatz geeignet wäre, abseits natürlich dem Marketing Geblubber für die Frontier Edition. Das Ding war ganz klar für den Gaming Markt ausgerichtet.

Sardaukar.nsn
2017-08-01, 00:06:58
...
Ich selber zähle mich ja eher zu den Enthusiasten, aber selbst ich sitze hier noch vor 3 Dell 24 Zoll Monitoren mit 1920x1200... und nichts UHD oder sooo:freak:

Ich hatte fast 10 Jahre einen SyncMaster in 1920x1200 der mir leider im Januar diesen Jahres gestorben ist. Von der Basis her einen Nachfolger zu finden ist sau schwer, du musst halt überall Kompromisse eingehen, aber zu Schluss ist es ein Dell S2716DG geworden. https://www.youtube.com/watch?v=dydg7Fv-Oy4

Timbaloo
2017-08-01, 00:06:59
In den Endnotes steht eigentlich alles.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/5.html
Ah Danke für den Hinweis. Hab ich mal die Einzeldaten angeschaut. Ich habe mal nur Vega und 1080 herangenommen (Abtippen war dann doch nervig...). Es fällt auf, dass der auf dem Slide angegebene min aus allen "min-Frames" (nach der in den Endnotes beschriebenen Art) bei NV durch den Ausreisser (25.1 min-FPS) bei CoD kommt. Nimmt man diesen raus ist es nicht mehr 42.7 (Vega) und 25.1 (1080), sondern nunmehr 42.7 (Vega) und 39.3 (1080). Der Mittelwert der angegeben min-FPS ist (mit dem Ausreisser bei der 1080 bei CoD) bei 50.79 (Vega) und 49.33 (1080), ohne Ausreisser bei 50.19 (Vega) und 51.75 (1080).

Da wäre jetzt natürlich interessant wie die min-FPS bei CoD @1080 zusammen gekommen sind.

Edit: Trotzdem noch neugierig gewesen: CoD ist auch bei der 980ti das definierende Minimum gewesen... Naja, darf jeder seine Schlüsse draus ziehen ;)

dildo4u
2017-08-01, 00:07:15
Halte ich für eine Fehlannahme. Der Profi-Chip wird Vega 20 sein. AMD hat nie gesagt dass Vega 10 besonders gut für den professionellen Einsatz geeignet wäre, abseits natürlich dem Marketing Geblubber für die Frontier Edition. Das Ding war ganz klar für den Gaming Markt ausgerichtet.
AMD verkauft Vega 10 auch als 2200 und 7000$ Pro Karte,da gibt nicht nur die FE.

https://www.computerbase.de/2017-07/radeon-pro-ssg-vega-2-tbyte-grafikkarte/

Und auch als Gegner für NV's HPC Tesla Karten als Instinct.

https://instinct.radeon.com/en-us/product/mi/radeon-instinct-mi25/

Vega 20 kommt erst 2H 2018 in 7nm.

https://videocardz.net/gpu/amd-vega-20/

Mancko
2017-08-01, 00:10:14
Anders herum - AMD hat erfolgreich verhindert, dass GSync ihre GPUs aussperrt indem es Verbreitung findet. Freesync ist nicht exklusiv.

Aus Sicht des Kunden ist es das und ich behaupte mal, dass G-Sync Kunden alleine wegen des Aufpreises und der generell etwas teureren Nvidia Hardware für AMD für eine ganze Weile verloren sind. Umgekehrt ist das eben weit weniger der Fall, insbesondere wenn es einfach für lau überall dabei ist. Und insbesondere so lange Nvidia die besseren GPUs liefern können die ganz fein mit GSync leben. Die hatten doch eh nicht die Erwartungshaltung das jetzt an jeden zu verteilen, denn dann hätten die ein ganz anderes Preismodell gewählt. Das soll ganz einfach Nvidia's Premium Image abrunden und das tut es ja auch. Verschenkt wird da selbstredend gar nichts. Sowas führt nur zum Image als Billigheimer.

BoMbY
2017-08-01, 00:45:04
Vega bricht wesentlich weniger ein? Mal sehen was davon in der Praxis mit unabhängigen Tests übrig bleibt.


Wenn ich das richtig sehe habe ich diese Vermutung bereits im Januar geäußert. Das wäre vor allem meine Erwartung vom Gewinn durch den DSBR, und den Primitive Discard Accelerator von GCN 4.0.

Timbaloo
2017-08-01, 00:57:11
Und die Erklärung für die schlechten min-FPS in CoD:Infinity Whatever?

https://steamcommunity.com/app/292730/discussions/0/1368380934291393407/

Clever gewählt AMD, clever gewählt :)

N0Thing
2017-08-01, 01:23:19
Das Ding ist definitiv als Profichip entwickelt worden. Dafür haben sie mal wieder eine Menge neuer Ideen und Features reingepackt. Die leider dem Gamer heute nicht viel bringen, und sich in bester AMD-Manier erst auszahlen wenn die Konkurrenz es kopiert hat und Vega 1 obsolet ist.
Die Gamingkarten sind bestimmt aus der Not geboren, daß AMD aktuell schlicht nichts schnelleres als Fiji im Regal hat, außer Vega halt. Da muß der Profichip jetzt auch für Gaming herhalten, besser als nichts neues anzubieten ist es allemal. Und wenn sie das Ding für 399$ verkaufen können ohne dabei Geld zu verbrennen, dann ist das für beide Seiten oK. Spieler bekommen eine ordentliche Graka mit jeder Menge zukunftsfähiger Features zum akzeptablen Preis, AMD kann Stückzahlen machen um damit Vega 2 zu finanzieren.

Halte ich für unwahrscheinlich, sonst würde es keinen Vega20 geben, der die bisher für den Profimarkt unabdingbare DP-Leistung mit sich bringt.

Nachdem Vega 10 kaum Fortschritt gegenüber Polaris im Bereich Perf/Watt gebracht hat, frage ich mich, ob die NCU wirklich so neu sind, oder eher nur alter Wein in neuen Schläuchen, bzw. nur einen neuen Namen für eine Evolution darstellen.
Für Vega war immer nur HBM2 als markantes Feature vermerkt und im Endeffekt ist auch nur genau dies am Ende dabei herum gekommen. Man braucht weniger Stacks für den Speicher, bei der Performance des Chips gab es keine großen Fortschritte gegenüber Fiji, wenn man die Leistung taktnormiert betrachtet.
Dagegen wird bei Navi von Scalability (und Netxgen Memory) gesprochen, was ja seit Generationen die Achillesverse von Radeon GPUs ist. Schlechte Skalierung über Takt und Anzahl der Shadereinheiten. Sicherlich kann AMD dank neuer Features in den nächsten Jahren noch Performance aus Vega heraus kitzeln, ich glaube aber nicht, daß die Einheiten von Vega abseits der explizit neuen Features den Namen NCU verdienen und dieser Schritt erst mit Navi kommen wird.

Troyan
2017-08-01, 01:33:03
Die Compute-Einheiten sind soweit neu, dass verschiedene Genauigkeiten gleichzeitig verwendet werden können. Aber sie sind exakt gleich, wenn rein FP32 benutzt wird.

Es ist eben Fiji mit ein paar neuen Features und 3,9 Mrd. Transistoren für die Taktsteigerung.

Taigatrommel
2017-08-01, 03:06:11
Gibt es eigentlich bereits Informationen bzgl. der genauen Verfügbarkeit oder Vorbestellungen? Threadripper kann man ja seit gestern bei zwei Shops vorbestellen, Release ist meines Wissens nach nächste Woche.
Laut AMD sollen die Referenzkarten ab dem 14. August verfügbar sein, man sprach zwar auch über die Radeon Bundles, über irgendwelche Vorbestellaktionen habe ich jedoch noch nichts gelesen.

grauenvoll
2017-08-01, 07:05:46
Sagt mal... deute ich diese beiden Folien richtig?

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-36.jpg

Vega bricht wesentlich weniger ein? Mal sehen was davon in der Praxis mit unabhängigen Tests übrig bleibt.


Ich deute sie so, dass man das Ziel 4K@60Hz klar verfehlt hat. Da helfen auch alle FreeSyncspielereien nix. Die Aussage, Vega is on track, kann man als eine gezielte Fehlinformation bezeichnen. Beschiss.

Vega kann man keinem Kunden ernsthaft empfehlen. Ob AMD die Probleme jemals über Treiberupdates gefixt bekommt, steht vollkommen in den Sternen.
So hat AMD bei dem Polaris-Launch versprochen, die erhöhte Leistungsaufnahme im Idle-Mode bald zu fixen. Passiert ist das nie. Erst der Refresh RX5xx löste das Problem.

Für den DX12-Pfad ist man auf die Zusammenarbeit mit Entwicklern stark angewiesen. Nur wie will AMD Entwickler diese von der Leistungsfähigkeit Vegas überzeugen, wenn man die eigenen Herausforderungen nicht lösen kann? Optimierter Code für Vega zu schreiben, scheint alles andere als einfach zu sein. Viele Entwickler klagen aktuell schon über die Komplexität von DX12. An AsyncShader hat sich schon so mancher die Zähne ausgebissen. Und jetzt noch Vega? AMD, das wird nix!

Nazar
2017-08-01, 07:41:14
Ich deute sie so, dass man das Ziel 4K@60Hz klar verfehlt hat. Da helfen auch alle FreeSyncspielereien nix. Die Aussage, Vega is on track, kann man als eine gezielte Fehlinformation bezeichnen. Beschiss.

Vega kann man keinem Kunden ernsthaft empfehlen. Ob AMD die Probleme jemals über Treiberupdates gefixt bekommt, steht vollkommen in den Sternen.
So hat AMD bei dem Polaris-Launch versprochen, die erhöhte Leistungsaufnahme im Idle-Mode bald zu fixen. Passiert ist das nie. Erst der Refresh RX5xx löste das Problem.

Für den DX12-Pfad ist man auf die Zusammenarbeit mit Entwicklern stark angewiesen. Nur wie will AMD Entwickler diese von der Leistungsfähigkeit Vegas überzeugen, wenn man die eigenen Herausforderungen nicht lösen kann? Optimierter Code für Vega zu schreiben, scheint alles andere als einfach zu sein. Viele Entwickler klagen aktuell schon über die Komplexität von DX12. An AsyncShader hat sich schon so mancher die Zähne ausgebissen. Und jetzt noch Vega? AMD, das wird nix!

Dieser Kommentar liest sich wie ein großes Ausgekotze ohne Bezug zur Fragestellung! Was soll das bezwecken? :confused:
In der Folie wird aufgezeigt, dass die AMD Karte angeblich eine sehr viel höhere minimale FPS Zahl bietet, was dann dazu beiträgt, dass das Spielerlebnis deutlich flüssiger ist.
Darum ging es und nicht darum, was in der Vergangenheit nicht geschafft wurde.

Korvaun
2017-08-01, 07:42:39
Um die Spieleperformance möglichst sinnvoll zu fördern bietet es sich natürlich an die großen Engines stark zu unterstützen in der Optimierung auf Vega (logischerweise zusätzlich zum eigentlichen Radeon-Treiber). Also Unreal/Frostbite (/Cryengine/Unity) zumindest mal. Das sollte schon seit Monaten laufen damit die Spiele der Weihnachtssaison 2017 davon noch profitieren, ansonsten ist es eigentlich schon zu spät. Nächstes Frühjahr kommt dann Volta, was genau die nV-Karten bringen ist zwar noch unsicher, aber es wird dadurch nicht besser für AMD...

=Floi=
2017-08-01, 08:00:50
Dank der Konsolen-Deals spielt die Zeit für AMD.

die konsolen laufen noch auf CGN!

Hasenpfote
2017-08-01, 08:14:09
Sagt mal... deute ich diese beiden Folien richtig?

Vega bricht wesentlich weniger ein? Mal sehen was davon in der Praxis mit unabhängigen Tests übrig bleibtWas ich so an Freesync-Monitoren gesehen bisher habe, haben die meisten ihre variable Bildwiederholrate irgendwo bei 48Hz -75Hz (spontan n Samsung und n Dell bei geizhals geschaut). Also reicht es für AMD den Bereich zu treffen, um ein gutes Spielgefühl zu erreichen.

OT: Als Freesync damals rauskam und ich mich damit beschäftigt habe, hab ich das so verstanden, dass es eigentlich bei niedrigen Bildwiederholraten was bringen würde und ab 60Hz würde man dann normales vSync anmachen. Praktisch implementieren die Hersteller aber oftmals Freesync um die 60Hz herum. Wenn man von nem 4K-Display ausgeht, befinden sie die fps doch auch eher bei 30 als bei 60+. Also was soll das?
edit: hier eine schöne Übersicht: https://en.wikipedia.org/wiki/FreeSync
Die Masse hat 48Hz als Minimum. N paar wenige Monitore ab 30Hz.
edit2: Hier ein Golem-Artikel dazu, der genau meine Erinnerung bestätigt:
https://www.golem.de/news/amd-freesync-im-test-kostenlos-im-gleichen-takt-1503-113065-3.html
Würden die Hersteller Monitore mit 9Hz liefern (so wie in der Spec geschrieben), wäre Freesync wirklich toll. So bringt es nur was mit guten Grafikkarten die konstant ordentliche min. fps liefern. Und das soll Vega ja scheinbar schaffen. D.h. AMD bügelt mal wieder die Unfährigkeit der Hersteller aus.

Pirx
2017-08-01, 08:15:40
die konsolen laufen noch auf CGN!
auf einem atomgetriebenen Lenkwaffenkreuzer (https://en.wikipedia.org/wiki/Virginia-class_cruiser)?

Trap
2017-08-01, 08:18:38
Wenn man von nem 4K-Display ausgeht, befinden sie die fps doch auch eher bei 30 als bei 60+. Also was soll das?
Freesync bedeutet, dass die Grafikkarte entscheiden kann wann ein Displayrefresh stattfindet.

Panel die dafür optimiert sind gibt es glaube ich noch wenig/nicht. Wenn man eins von der Stange nimmt kann es halt sein, dass das Panel nur 48-75 Hz kann und außerhalb davon Bildfehler sichtbar sind.

RoughNeck
2017-08-01, 08:30:24
Und genau deswegen kannst auch 90% der Freesync Teile in die Tonne treten.

dargo
2017-08-01, 08:35:13
Ich deute sie so, dass man das Ziel 4K@60Hz klar verfehlt hat.
Mich interessiert 4k nicht da ich Vega 64 genauso dafür zu langsam finde wie 1080TI. Bei ca. 20-25 TFLOPs wäre das womöglich schon anders. Mein Target beträgt 1440p.


Würden die Hersteller Monitore mit 9Hz liefern (so wie in der Spec geschrieben), wäre Freesync wirklich toll.
Glaub mir... du willst keine 9Hz oder dergleichen sehen, auch wenn die Technik es hergibt. :tongue: Es sei denn du stehst auf "flüssige" Diashows. Denn so träge ist kein Auge.

auf einem atomgetriebenen Lenkwaffenkreuzer (https://en.wikipedia.org/wiki/Virginia-class_cruiser)?
;D

@floi
Es heißt immer noch GCN (Graphics Core Next).

grauenvoll
2017-08-01, 08:48:31
Dieser Kommentar liest sich wie ein großes Ausgekotze ohne Bezug zur Fragestellung! Was soll das bezwecken? :confused:
In der Folie wird aufgezeigt, dass die AMD Karte angeblich eine sehr viel höhere minimale FPS Zahl bietet, was dann dazu beiträgt, dass das Spielerlebnis deutlich flüssiger ist.
Darum ging es und nicht darum, was in der Vergangenheit nicht geschafft wurde.

Das Sheet zeigt gemittelte Min/Max-Werte gängiger Titel. Das ich aus dem Sheet etwas anderes lese als mir AMD vermitteln will, ist die Freiheit eines eigenständig denkenden Betrachters.
Man hat im Frühjahr die Aussage gemacht, dass man sich 4k@60Hz als Ziel gesetzt hat und dieses habe man erreicht. Wenn man dieses Ziel erreicht hätte, müssten die Balken anders aussehen. Nämlich der Max-Wert etwas über 60FPS und der Min-Wert etwas darunter. Aber davon ist man weit entfernt.

Vega macht für einen Kunden nur halbwegs Sinn, wenn die neue Architektur irgendwann ihr Potential auf die Straße bringt. Angesichts der Größe der Herausforderungen habe ich meine Zweifel, dass dies in absehbarer Zeit passieren wird. Viele Studios haben noch mit DX12 oder Vulkan zu tun, das wird man wenig Ressourcen für eine so eigenwillige Architektur wie Vega haben. AMD hat es in den vergangenen Monaten noch nicht mal geschafft ein Leuchtturmprojekt zu schaffen, dass man der Öffentlichkeit zum Launch zeigen kann: "Seht her, Vega ist noch nicht perfekt, aber hat Potential"

grauenvoll
2017-08-01, 08:53:28
Mich interessiert 4k nicht da ich Vega 64 genauso dafür zu langsam finde wie 1080TI. Bei ca. 25 TFLOPs wäre das womöglich schon anders. Mein Target beträgt 1440p.


Das ist eine andere Geschichte. Mir ging es darum, dass man die Öffentlichkeit schlicht und ergreifend beschissen hat. Die Zahlen stammen von AMD selbst, da kann man nicht sagen, es sei falsch getestet worden.
Wenn dir das egal ist, ist das deine Sache. Ich empfinde es als Beschiss. Ähnlich wie die Abgaswerte eines VW-Diesel.

Menace
2017-08-01, 08:57:36
Ich empfinde es als Beschiss. Ähnlich wie die Abgaswerte eines VW-Diesel.

Autovergleiche gehen ja meistens nach hinten los. Aber das ist ja mal wirklich eine neue Dimension. Glückwunsch dazu.

dargo
2017-08-01, 09:01:39
Und genau deswegen kannst auch 90% der Freesync Teile in die Tonne treten.
Deshalb hat AMD wohl Freesync 2 mit einigen Erweiterungen ins Leben gerufen.
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/Freesync-2-mit-intelligenter-HDR-Unterstuetzung-1217305/

Jeder Freesync 2 Bildschirm muss LFC können.

Mir ging es darum, dass man die Öffentlichkeit schlicht und ergreifend beschissen hat.
Das liegt im Auge des Betrachters. Nicht jeder Spieler verwendet krampfhaft max. Details in jedem Game. Selbst AMD verwendet in den eigenen Tests oft High Detail Presets.

Korvaun
2017-08-01, 09:03:51
4k@60Hz geht schon, musst halt nur die Einstellungen entsprechend herunterdrehen von ultra/very high auf high/med/low... ist natürlich nicht der Sinn des Ganzen. Die Aussage ist halt schlicht sehr schwammig formuliert wie es sich gehört für ordentliches Marketing ;)

Bösewicht
2017-08-01, 09:14:48
Seid Bulldozer kann ich mich zurück erinnern das hier immer und immer wieder gepriesen wird das die Kerne/Module der Treiber die Funktion das neue DX die neue low Level api es über die Zeit schon richten wird und das Ermüdet auf Dauer echt ganz schön.
Nimmt es doch einfach so hin wie es ist und freut euch wenn es dann doch mal mehr wird.:tongue:
Die Konkurrenz verbessert sich aber auch ständig deswegen relativieren sich die Optimieren im vergleich dann doch wieder.

dargo
2017-08-01, 09:16:18
Hatten wir eigentlich dieses Video schon?

uxVzDQtHzqo

Falls ja... dann sorry.

Beim neuen 3DMark spricht er von +15% durch Rapid Packed Math wenn ich das richtig verstanden habe?
https://www.youtube.com/watch?v=uxVzDQtHzqo#t=4m41s

btw.
Die offenbar sehr gute Kooperation mit Ubisoft gefällt mir immer mehr. =) Hoffentlich trägt das die selben Früchte wie bei id.

AffenJack
2017-08-01, 09:32:48
Die offenbar sehr gute Kooperation mit Ubisoft gefällt mir immer mehr. =) Hoffentlich trägt das die selben Früchte wie bei id.

Ubi steht halt drauf Geld von den Grafikkartenherstellern zu bekommen und wer mehr zahlt kriegt den Deal :wink:

grauenvoll
2017-08-01, 09:36:00
4k@60Hz geht schon, musst halt nur die Einstellungen entsprechend herunterdrehen von ultra/very high auf high/med/low... ist natürlich nicht der Sinn des Ganzen. Die Aussage ist halt schlicht sehr schwammig formuliert wie es sich gehört für ordentliches Marketing ;)

Das hat nichts mit Marketing zu tun. Das ist schlicht unseriös!
Es sei denn, AMD möchte sich auf eine Stufe mit einem dahergelaufenen Bazarschreihals stellen, der das blaue vom Himmel verspricht.

dargo
2017-08-01, 09:36:45
@AffenJack

Nach Mancko´s Manier dürfte AMD doch gar kein Geld haben. :tongue:

grauenvoll
2017-08-01, 09:37:54
Ubi steht halt drauf Geld von den Grafikkartenherstellern zu bekommen und wer mehr zahlt kriegt den Deal :wink:

Nicht nur. Wenn es zu viel Arbeit ist, hilft das auch nicht.
Ideal ist, wenig Aufwand, große Wirkung...

Pirx
2017-08-01, 09:43:32
...
Ideal ist, wenig Aufwand, große Wirkung...
Das hat wohl jeder gern, aber von nichts kommt meistens auch nichts.:rolleyes:

grauenvoll
2017-08-01, 09:58:01
Das hat wohl jeder gern, aber von nichts kommt meistens auch nichts.:rolleyes:

Schon klar. Aber krude, schwer verständliche APIs kann man sich gleich sparen, die werden sich nie durchsetzen.
Das man in den letzten Monaten es nicht geschafft hat, jemanden für ein Vorzeigeprojekt zu gewinnen, lässt nichts gutes ahnen.

Menace
2017-08-01, 10:06:40
Das man in den letzten Monaten es nicht geschafft hat, jemanden für ein Vorzeigeprojekt zu gewinnen, lässt nichts gutes ahnen.

:confused: Du meinst ein Vorzeigeprojekt, bei dem das Spiel Vega richtig unterstützt und es dadurch um einiges schneller ist als andere (https://www.golem.de/news/id-software-wolfenstein-2-unterstuetzt-fp16-und-vulkan-1707-129201.html)? Oder redest Du gar nicht von Vega im Vega-Thread?

akuji13
2017-08-01, 10:06:48
Jeder Freesync 2 Bildschirm muss LFC können.

Könnte auch klappen, außer er stammt von Samsung.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11421707#post11421707

Eigentlich dachte ich mir das AMD die entsprechenden Geräte auch mal testet bevor das FS2 Siegel vergeben wird.

Die sollten Samsung mal einbremsen, das C34F791 Desaster war auch schon übel.

Pirx
2017-08-01, 10:07:11
Schon klar. Aber krude, schwer verständliche APIs kann man sich gleich sparen, die werden sich nie durchsetzen.
Das man in den letzten Monaten es nicht geschafft hat, jemanden für ein Vorzeigeprojekt zu gewinnen, lässt nichts gutes ahnen.
"krude APIs" - hast du diesbezüglich Erfahrung bzw. Infos aus erster Hand?

Malabolge
2017-08-01, 10:09:11
@AffenJack

Nach Mancko´s Manier dürfte AMD doch gar kein Geld haben. :tongue:

ach du meinst Manko's "Karl RanseierAMD ist Tot !"
Was bei jeder Neuerscheinungh von AMD ausgepackt wird ?
(RTL Samstag Nacht erinnert Ihr euch noch ?:D:biggrin:)


Allerdings auch wieder mal bezeichnend, das noch niemand einen "offiziellen" Benchmark gesehen hat, aber aller schon von "FAIL" schreiben.
Die einzigen "Benchmarkwerte" zur RX sind im Moment noch, die von Ihrer eigene Folie. Ich für meinen Teil warte da lieber auf "unabhängige" Tests (Kein "Cherrypicking", auf beiden Seiten !)

Wenn das Teil bei 1080 Niveau (+10-20%?) und einem Preis von ~450 aufschlägt , kann man sich eigentlich nicht beklagen. Aber scheinbar sind hier einige Heiss auf Extreme Preise und wollen Ihr Geld mit Gewalt los werden.

Wenn es AMD schafft bis zum Weihnachtsgeschäft den Preis auf 400-450€ zu "setzen" und die Leistung über den Treiber auf 10-20% über die 1080 zu stellen, könnte das Ding relativ gut weggehen.
AMD könnte damit im "semi-Entusiasten"-Bereich Boden gut machen.
Jetzt noch einen V11 mit gutem Preis an die 1070 setzten und bis zui NAVI wäre AMD gestellt. Sicher V erkaufrekorde darf man nicht erwarten, aber einen guten Mittelplatz ion den Verkäufen wird man sicher nicht ablehnen.

Also erstmal Abwarten und Tee trinken, bis "Endgültige" Preise und Leistung feststehen.

dargo
2017-08-01, 10:13:30
Schon klar. Aber krude, schwer verständliche APIs kann man sich gleich sparen, die werden sich nie durchsetzen.

Nur gut, dass du damit kein DX12/Vulkan meinen kannst.

Dino-Fossil
2017-08-01, 10:15:17
Nachdem Vega 10 kaum Fortschritt gegenüber Polaris im Bereich Perf/Watt gebracht hat, frage ich mich, ob die NCU wirklich so neu sind, oder eher nur alter Wein in neuen Schläuchen, bzw. nur einen neuen Namen für eine Evolution darstellen.

Ähnliches Getöse gab es ja schon bei Polaris - am Ende war es ein detailverbesserter Tonga @14nm.
Nicht das ich Polaris schlecht finde, es ist eben nur nicht der große Wurf als der er vom Marketing zunächst verkauft wurde.

Allerdings bietet Vega zumindest ein paar weitere neue Hardwarefeatures, die potentielle game-changer sein könnten - den binning rasterizer und den HBCC.
Zu dumm, dass beide von Hard- und Softwareseite noch im Betastadium zu stecken scheinen...

dargo
2017-08-01, 10:20:23
ach du meinst Manko's "Karl RanseierAMD ist Tot !"
Was bei jeder Neuerscheinungh von AMD ausgepackt wird ?

Bingo.


Wenn das Teil bei 1080 Niveau (+10-20%?) und einem Preis von ~450 aufschlägt , kann man sich eigentlich nicht beklagen. Aber scheinbar sind hier einige Heiss auf Extreme Preise und wollen Ihr Geld mit Gewalt los werden.

Habe ich auch nie verstanden.

Habe hier gerade exakt 1.365€ an der Seite für PC-Hardware liegen. Habe für so einen Kram eine eigene "Kasse". Dennoch muss ich die ganze Summe nicht gleich verballern. P/L muss schon stimmen. Und wenn was übrig bleibt wirds halt für die nächste Hardware ausgegeben.

Raff
2017-08-01, 10:34:14
Wenn das Teil bei 1080 Niveau (+10-20%?) und einem Preis von ~450 aufschlägt , kann man sich eigentlich nicht beklagen. Aber scheinbar sind hier einige Heiss auf Extreme Preise und wollen Ihr Geld mit Gewalt los werden.

Vega hat Stand jetzt mehrere Probleme.

– Wer 1080-Leistung zum 1080-Preis will, hat mit großer Wahrscheinlichkeit längst zugeschlagen. Vega ist zu spät dran.
– Selbst wenn die Leistungsaufnahme als Kostenfaktor zu vernachlässigen ist (die Differenz zwischen einer GP104- und einer Vega-10XT[X]-Karte), führt sie doch direkt zu erhöhtem Kühlaufwand. Es muss sich noch zeigen, wie viele AMD-Partner damit leise klarkommen. Davon ab: Ich habe ein Problem damit, im Sommer eine 350-Watt-Grafikkarte zu verwenden, weil die Bude dann Richtung 30 °C geht. Wie sieht das die Mehrheit? Aber, hey: Undervolting FTW. Dennoch ist Nvidia hier ganz klar effizienter.
– Zusammengefasst: Warum sollte der Normalbürger eine Vega-Karte anstelle einer Geforce kaufen?

Letzteres ist das Hauptproblem. Ich sehe da gerade keine Argumente für Normalsterbliche. Wir Geeks finden Alternativen toll und Monopole doof. Wir stehen auf HBM2, Low Level und GPU Open. Das juckt Normalsterbliche aber nicht.

MfG,
Raff

grauenvoll
2017-08-01, 10:35:09
:confused: Du meinst ein Vorzeigeprojekt, bei dem das Spiel Vega richtig unterstützt und es dadurch um einiges schneller ist als andere (https://www.golem.de/news/id-software-wolfenstein-2-unterstuetzt-fp16-und-vulkan-1707-129201.html)?

Doch, genau das meinte ich.

Grendizer
2017-08-01, 10:39:48
Wie hier Ubisoft jetzt dafür gefeiert wird, das sie DX12 unterstützen werden.

Soviel ich weis hat der DX12 Renderer von Battlefield 1 auf AMD auch nicht wirklich für besserer Frames gesorgt. Falls jemand aktuelle Benchmarks hat, die das anders zeigen bin ich gerne offen, aber zum Release war der DX12 Renderer wohl eine Katastrophe (ich spiele es nicht !)

Viele Studios kommen damit einfach nicht richtig zurecht, und das selbst so lange nachdem Release von DX12. Wenn es dann auch noch unterschiedliche Featuresets und "spezielle" Renderpfade geben muss, macht das die Sache für die Entwickler doch nicht einfacher. Bei BF sprechen wir zudem auch noch von Dice, die ja ihre eigene Engine unter Kontrolle haben sollten.

Wenn SAUBERES DX12 notwendig ist, damit Vega performant löuft, dann gute Nacht ...

Pirx
2017-08-01, 10:40:10
...
– Wer 1080-Leistung zum 1080-Preis will, hat mit großer Wahrscheinlichkeit längst zugeschlagen. Vega ist zu spät dran....
Auch das bedeutet wiederum, daß nV die Produktion der 1080 nun einstellen sollte.

MadManniMan
2017-08-01, 10:42:09
– Zusammengefasst: Warum sollte der Normalbürger eine Vega-Karte anstelle einer Geforce kaufen?

Hm, Freesync?

Ist das draußen in der freien Wildband ein Argument?

Raff
2017-08-01, 10:44:54
Stimmt, Freesync. Ist aber auch mehr ein Geek-Feature denn Massenhysterie.

Wenn die Vega-Karten in vielen bunten, leisen Formen verfügbar sein werden und die Preise noch etwas fallen, dann passt das schon.

MfG,
Raff

dildo4u
2017-08-01, 10:45:44
Ryzen hilft imo Vega zu verkaufen es gibt mit Sicherheit dau's die denken AMD CPU's laufen nur mit AMD GPU's ordentlich.

Grendizer
2017-08-01, 10:47:37
... Ich habe ein Problem damit, im Sommer eine 350-Watt-Grafikkarte zu verwenden, weil die Bude dann Richtung 30 °C geht. Wie sieht das die Mehrheit? Aber, hey: Undervolting FTW. Dennoch ist Nvidia hier ganz klar effizienter.
...
MfG,
Raff

Bin ich sofort bei dir. Mein Büro ist leider unterm Dach und da geht es sogar im Hochsommer bei 37° mit 2 aktiven Rechnern und 3 Bildschirmen dann sogar schnell richtung 40°.

Ich hatte mal für ein paar Monate eine AMD 390 als Nachfolger der Geforce 960 drin. Bis zum Sommer 2016 .... nachdem etwas unrunden 480 Launch bin ich dann auf eine 1070 und auf Grund eines Defektes dann auf eine 1080 umgestiegen.

grauenvoll
2017-08-01, 10:48:47
"krude APIs" - hast du diesbezüglich Erfahrung bzw. Infos aus erster Hand?

Nein. Aber aus Erfahrung weiß ich, dass die Dokumentation bei AMD meist stark zu wünschen lässt. Da fehlen oft die Ressourcen. Zu Vega findet man im AMD Entwicklerportal so ziemlich ... nix. Noch nicht mal ein lausiges Example...
Wenn man Glück hat findet man in den Foren ein paar halbgare Beispiele. Als Entwickler könnte sich AMD Vega in den Popo schieben...

X-Bow
2017-08-01, 10:49:32
Ich möchte hier noch einmal ein Gedanke aufgreifen welcher vor einigen Seiten mal gefallen ist.

Und zwar dass die Ingenieure beim Start der Entwicklungen für Vega davon ausgegangen sind, dass DX12/Vulkan (Mantel) zu der Zeit der Fertigstellung von Vega deutlich weiter sind als sie nun in Wirklichkeit sind. Im Klartext, die Vorgabe an die Ingenieure war: Entwickelt ein Architektur für zukünftige API’s. (Jetzt nur für die Gamer-Sicht gesprochen, das dies nicht die einzige Vorgabe für Vega sein konnte ist klar)

In der einfachen Annahme das die so gewesen sein könnte, müssten die Gedanken derer, welche diese Vorgabe definiert haben, auf Einschätzungen und Informationen auf eine Faktenlage begründen. Was wiederum bedeutet, das die Wahrscheinlichkeit hoch ist, dass andere Grafikchipentwickler, welche eigene Forschungen und Vorgaben haben, ihre Schlüsse aus einer ähnlichen Faktenlage ziehen und zu Vorgaben kommen die derer von Vega nahe kommen.

Daraus ergibt sich für mich die Frage, wie hoch ist die Wahrscheinlichkeit, das Vega eine Architekturbasis darstellt, welche zukünftige Generationen von Grafikkarten und Spielen bereichern soll, und wie wahrscheinlich ist, dass die Konkurrenz in die gleiche Richtung tendieren wird mit ihrer neuen Architektur?

Kurz:
Kann es sein das Vega und Volta kein großer Sprung auf aktuelle Spiele darstellen sollen sondern beide DX11 einfach hinter sich lassen, weg veraltet und beide den Weg für zukünftige Generationen bereiten sollen?
(Überlegung nach dem Typischen Henne – Ei Prinzip, was braucht man als erstes, Spiele wo auf low LVL API’s ausgelegt sind um dementsprechende GPU’s zu entwickeln oder braucht man erst auf low LVL API’s ausgelegte GPU’s um die Spielebranche in die Richtung zu bewegen?)

Erbsenkönig
2017-08-01, 10:52:00
Gibt es eigentlich bereits Informationen bzgl. der genauen Verfügbarkeit oder Vorbestellungen? Threadripper kann man ja seit gestern bei zwei Shops vorbestellen, Release ist meines Wissens nach nächste Woche.
Laut AMD sollen die Referenzkarten ab dem 14. August verfügbar sein, man sprach zwar auch über die Radeon Bundles, über irgendwelche Vorbestellaktionen habe ich jedoch noch nichts gelesen.

Tschechien:

https://www.alzashop.com/amd-vega-graphics-card/18862222.htm

SAPPHIRE Radeon RX Vega 64 8G HBM2: 925,07 €
SAPPHIRE Radeon RX Vega 64 8G HBM2 Limited Edition: 932,53 €
SAPPHIRE Radeon RX Vega 64 8G HBM2 Liquid Cooling: 1.044,48 €

Menace
2017-08-01, 10:52:41
Dennoch ist Nvidia hier ganz klar effizienter.


Ich persönlich finde gerade das das Hauptproblem bei AMDs Karten und die Nano deshalb ein überteuerter Kompromiss (für mich).

AMD ist zu spät und wohl auch zu ineffizient. Vermutung einiger hier ist das auch den Profi-Markt geschuldet, in dem AMD Fuß fassen möchte.
Ich glaube das Motto bei Vega ist ähnlich wie bei Bulldozer: Augen zu und durch (Parallelität des Hochtaktdesigns :rolleyes: ).

Wegen der Technikspielereien hoffe ich, dass AMD auf Igor gehört haben und Sweetspot-Produkte bei Vega 56 oder Nano. Aber ein Massenmarkt ist das nicht, das stimmt.

BWT: Gibt es eigentlich Werte, in wie weit in anderen Ländern Effizienz bzw. Lautstärke eine Rolle spielt oder ob den meisten Käufern weltweit der längste Balken doch wichtiger ist?

Grendizer
2017-08-01, 10:54:07
Kurz:
Kann es sein das Vega und Volta kein großer Sprung auf aktuelle Spiele darstellen sollen sondern beide DX11 einfach hinter sich lassen, weg veraltet und beide den Weg für zukünftige Generationen bereiten sollen?
(Überlegung nach dem Typischen Henne – Ei Prinzip, was braucht man als erstes, Spiele wo auf low LVL API’s ausgelegt sind um dementsprechende GPU’s zu entwickeln oder braucht man erst auf low LVL API’s ausgelegte GPU’s um die Spielebranche in die Richtung zu bewegen?)


Ich bin mal da etwas ketzerisch..... AMD Architekturansatz mit brachiale paraleller Rechenpower ist dem Ansatz von nVidia in DX9/10/11 unterlegen. Die performance verpufft durch die Limitierungen von DX11. Deshalb hat man erst mit Mantle eine eigene API gebastelt und war dann froh das Microsoft mit DX12 einen Standard geschaffen hat.

Das Problem ist nur, das nVidia DX12 momentan nichts bringt. Die Karten performen eher schlechter in DX12 als in DX11. AMD ist aber extrem darauf angewiesen DX12 in die breite zu bekommen, damit AMD Karten nvidias DX11 Performace erreichen können.

edit: Manche User echauffieren sich hier ja immer wieder darüber, das noch soviele Engines kein lowlevel API nutzen. Allerdings scheint die Programmierung halt auch deutlich komplexer zu sein. Und hier gibt es dann mit Sicherheit auch eine Kosten/Nutzenanalyse. Wieviel User haben AMD Karten ? Wieviel User haben Windows 10. Was kostet der DX12 Renderer zusätzlich ?

BigBangBacket
2017-08-01, 11:01:02
Ich möchte hier noch einmal ein Gedanke aufgreifen welcher vor einigen Seiten mal gefallen ist.

Und zwar dass die Ingenieure beim Start der Entwicklungen für Vega davon ausgegangen sind, dass DX12/Vulkan (Mantel) zu der Zeit der Fertigstellung von Vega deutlich weiter sind als sie nun in Wirklichkeit sind. Im Klartext, die Vorgabe an die Ingenieure war: Entwickelt ein Architektur für zukünftige API’s. (Jetzt nur für die Gamer-Sicht gesprochen, das dies nicht die einzige Vorgabe für Vega sein konnte ist klar)

In der einfachen Annahme das die so gewesen sein könnte, müssten die Gedanken derer, welche diese Vorgabe definiert haben, auf Einschätzungen und Informationen auf eine Faktenlage begründen. Was wiederum bedeutet, das die Wahrscheinlichkeit hoch ist, dass andere Grafikchipentwickler, welche eigene Forschungen und Vorgaben haben, ihre Schlüsse aus einer ähnlichen Faktenlage ziehen und zu Vorgaben kommen die derer von Vega nahe kommen.

Daraus ergibt sich für mich die Frage, wie hoch ist die Wahrscheinlichkeit, das Vega eine Architekturbasis darstellt, welche zukünftige Generationen von Grafikkarten und Spielen bereichern soll, und wie wahrscheinlich ist, dass die Konkurrenz in die gleiche Richtung tendieren wird mit ihrer neuen Architektur?

Kurz:
Kann es sein das Vega und Volta kein großer Sprung auf aktuelle Spiele darstellen sollen sondern beide DX11 einfach hinter sich lassen, weg veraltet und beide den Weg für zukünftige Generationen bereiten sollen?
(Überlegung nach dem Typischen Henne – Ei Prinzip, was braucht man als erstes, Spiele wo auf low LVL API’s ausgelegt sind um dementsprechende GPU’s zu entwickeln oder braucht man erst auf low LVL API’s ausgelegte GPU’s um die Spielebranche in die Richtung zu bewegen?)

Den Fehler macht AMD schon seit 15 Jahren. Immer Techniken entwickeln die dem Gamer momentan nix bringen aber in 5 Jahren bestimmt Hammer sind.
Ich wünsche mir wirklich mehr Konkurenz für NV aber das erreicht man nur im hier und jetzt und nicht mit 5 Jahren Treiberoptimierungen. Ich weiss nicht wie oft wir bei AMD schon auf Wundertreiber gewartet haben. Eigentlich bei jeder neuen AMD Karte bis zur nächsten neuen AMD Karte
Ich hoffe das AMD durch Ryzen genug reinbekommt um mal wieder eine kühle effiziente schnelle Overclockingkarte zu entwickeln

Pirx
2017-08-01, 11:02:10
Vulkan und leider DX12 setzen sich doch gerade durch...

X-Bow
2017-08-01, 11:02:46
Stimmt, Freesync. Ist aber auch mehr ein Geek-Feature denn Massenhysterie.

Wenn die Vega-Karten in vielen bunten, leisen Formen verfügbar sein werden und die Preise noch etwas fallen, dann passt das schon.

MfG,
Raff

Die Frage ist, wie läuft ein Gespräch ab zwischen Kunde und MediaMarkt "Fachberater"

"Ich brauch ein neue Grafikkarte!"

Fragt dann der Berater nach den Umständen (Wohnort, Strompreis, Ergebnisse der letzten Gehöruntersuchung)? Ich glaube nicht:freak:
Eher wird er Fragen was für ein Bildschirm und wie viel Geld man dafür ausgeben möchte.
(Hier wäre mal eine Studie der Redaktionen interessant wie die "Fachleute" von MediaMarkt und Co wirklich beraten):uponder:

Grendizer
2017-08-01, 11:04:02
Vulkan und leider DX12 setzen sich doch gerade durch...

Tatsächlich ? Wenn man sich die Produktionen mit DX12 und Vulkan Renderer in diesem Jahr anschaut, dann ist das eine überschaubare Menge.

https://en.wikipedia.org/wiki/List_of_games_with_Vulkan_support
https://en.wikipedia.org/wiki/List_of_games_with_DirectX_12_support

grauenvoll
2017-08-01, 11:05:29
Das Problem ist nur, das nVidia DX12 momentan nichts bringt. Die Karten performen eher schlechter in DX12 als in DX11. AMD ist aber extrem darauf angewiesen DX12 in die breite zu bekommen, damit AMD Karten nvidias DX11 Performace erreichen können.

DX12 ist komplizierter als es viele gedacht haben. nVidia ist mit DX11 aus verständlichen Gründen zufrieden und unterstützt DX12 ziemlich lustlos.
Da die meisten mit nVidia unterwegs sind, stellt sich schnell das Gefühl ein, dass DX12 sinnlos ist.

Es fehlt eine Engine die komplett auf Vulkan oder DX12 konzipiert worden ist. Der Ansatz, verschiedene Renderpfade zu Supporten, ist eine ziemliche Bremse.

pilzsammler2002
2017-08-01, 11:05:37
Es wird das angeboten wo man am meisten (als Firma) dran verdient :freak:

Botcruscher
2017-08-01, 11:06:01
Hm, Freesync?
Ist das draußen in der freien Wildband ein Argument?

Nö. Monitore sind mit Abstand die langlebigste PC Hardware. Der 1080p Pöbel kauft einfach das billigste Gerät. Die sind versorgt und werden so schnell nicht aufrüsten. Die Oberliga ist wiederum ein einziger Krampf um DP1.4 bzw. UHD@120Hz+. Alle Geräte unter dem zähen klar zur Marke veralteter Abfall mit oder ohne gebogenem Fliegengitter. Von den Leuten mit UHD die ich keine tut sich keiner mehr weniger als 150ppi an.

PS: Ich kann die Leistungsdiskussion um UHD nicht mehr sehen. Jenseits der AAA Titel läuft so ziemlich alles am Framelimiter.

Vulkan und leider DX12 setzen sich doch gerade durch...
Wo? Vom lächerlichen Hype ist nichts über. Vulkan geht viel zu langsam. DX12 kann mit der Spyware zusammen sterben gehen.



Ironie an
AMD scheint ja auch dazulernt haben. Partnerkarten schon im September und nicht 3 Monate Später. In zehn Jahren bekomme ich die wie bei der Konkurrenz mit zum Start. Durch den vorgezogenen Produktstart von Vega war bestimmt mal wieder keine Zeit mit den Partnern zu kommunizieren.
Ironie aus

Grendizer
2017-08-01, 11:16:13
...

Ironie an
AMD scheint ja auch dazulernt haben. Partnerkarten schon im September und nicht 3 Monate Später. In zehn Jahren bekomme ich die wie bei der Konkurrenz mit zum Start.
Ironie aus


Ich bin zwar momentan eher nVidia zugetan, aber auch nVidia hat bei der 1070/1080 zuerst die Founders Editions gelauncht, bevor die Custom Designs der Partner kamen.

Korvaun
2017-08-01, 11:22:37
Wenn Leonidas recht behält (siehe aktuelle News) und sich die Vega RX 56 gut fürs Mining eignet dann wirds eh nix mit Verfügbarkeit oder günstigen Preisen für Vega...

Es kann AMD also fast egal sein ob der Treiber gut zum Spielen geeignet ist, hauptsache Mining geht effizient, dann wird die Karte gekauft als ob sie locker die 1080Ti in Spielen schlagen würde ;)

maximus_hertus
2017-08-01, 11:23:43
– Wer 1080-Leistung zum 1080-Preis will, hat mit großer Wahrscheinlichkeit längst zugeschlagen. Vega ist zu spät dran.

Man muss aber Straßenpreis und UVP unterscheiden. Sicher, mindfactory und Co verlangen mittlerweile wieder etwas humanere Preise bzw. haben wieder etwas mehr GeForce Karten auf Lager. Aber im lokalen Fachhandel werden die meisten 1080 (immer noch) über UVP Preis verkauft. Teils für 200 Euro über UVP. Falls Vega ordentlich lieferbar ist (zum UVP Preis) konkurriert sie preislich eher mit der 1070 (wie gesagt, MF und Co sind teilweise günstiger geworden, die lokalen Händler idR nicht).

Richtig interessant wird Vega 56. Möglichweise ein Stück schneller als die GTX 1070, humaner Stromverbrauch und mit rund 400 Euro durchaus günstig. Die meisten 1060 sind nicht weit von 400 Euro entfernt.

Jedoch wird der große "Reibach" mit OEMs bzw. deren Komplettsystemen verdient. Dort sehe ich jedoch kaum eine Chance auch nur ein wenig mehr zu verkaufen als bisher.

Erbsenkönig
2017-08-01, 11:25:38
Wenn Leonidas recht behält (siehe aktuelle News) und sich die Vega RX 56 gut fürs Mining eignet dann wirds eh nix mit Verfügbarkeit oder günstigen Preisen für Vega...

Es kann AMD also fast egal sein ob der Treiber gut zum Spielen geeignet ist, hauptsache Mining geht effizient, dann wird die Karte gekauft als ob sie locker die 1080Ti in Spielen schlagen würde ;)

Na hoffentlich nicht. Ich will jetzt auch mal drankommen.

Botcruscher
2017-08-01, 11:35:04
Ich bin zwar momentan eher nVidia zugetan, aber auch nVidia hat bei der 1070/1080 zuerst die Founders Editions gelauncht, bevor die Custom Designs der Partner kamen.

Aber bei komplett neuem Fertigungsverfahren und deswegen geringer Verfügbarkeit. Testkarten zum Teil schon beim Start der FE mit breiter Verfügbarkeit 14 Tage später. Die Fools Edition war nicht schön aber kein Vergleich. Bei AMD bleibt es seit Hawaii jedes mal ein Traum. Alleine die Zeit bis zu den Partnerkarten bei Polaris gegen GP104.

fondness
2017-08-01, 11:41:25
– Zusammengefasst: Warum sollte der Normalbürger eine Vega-Karte anstelle einer Geforce kaufen?


Weil Vega mit sehr hoher Wahrscheinlichkeit mehr Potential für die Zukunft hat (Sicherlich noch wesentlich mehr Möglichkeiten zur Treiberoptimierung, potentielle Leistungsverbesserungen durch 2xFP16, moderneres Featureset, etc. ). Dazu ist sicherlich wie schon erwähnt FreeSync kein schlechtes Argument.

Gegenfrage: Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Grendizer
2017-08-01, 11:43:26
Aber bei komplett neuem Fertigungsverfahren und deswegen geringer Verfügbarkeit. Testkarten zum Teil schon beim Start der FE mit breiter Verfügbarkeit 14 Tage später. Die Fools Edition war nicht schön aber kein Vergleich. Bei AMD bleibt es seit Hawaii jedes mal ein Traum. Alleine die Zeit bis zu den Partnerkarten bei Polaris gegen GP104.


Ach.... bin ich nicht der einzige, der den Launch der Partnerkarten als Desaster mit lang anhaltender schlechter Verfügbarkeit der Partnerdesigns im Kopf hat. Mir wird immer unterstellt, das ich den damaligen Launch falsch darstelle und das alles Super war. Das einzige was super war, wäre die ersten Lieferung der 4 Gb 480er gewesen, die sich ja als 8Gb Varianten rausgestellt hatten.

Menace
2017-08-01, 11:43:53
Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Bessere Effizienz könnte einhergehen mit leiseren, kühleren Produkten. Das ist nicht zu vernachlässigen.

Timbaloo
2017-08-01, 11:45:14
Gegenfrage: Warum sollte man die 1080 vorziehen?
Na ganz klar die Effizienz.

Grendizer
2017-08-01, 11:45:29
Weil Vega mit sehr hoher Wahrscheinlichkeit mehr Potential für die Zukunft hat (Sicherlich noch wesentlich mehr Möglichkeiten zur Treiberoptimierung, potentielle Leistungsverbesserungen durch 2xFP16, moderneres Featureset, etc. ). Dazu ist sicherlich wie schon erwähnt FreeSync kein schlechtes Argument.

Gegenfrage: Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Warten wir die "unabhängigen" Tests ab. Ich würde im Moment aber vermuten mehr Leistung in allen nicht von AMD geteaserten Benchmarks (vor allem unter DX11)

fondness
2017-08-01, 11:45:58
Bessere Effizienz könnte einhergehen mit leiseren, kühleren Produkten. Das ist nicht zu vernachlässigen.

Ich sage ja nicht, dass das keine Rolle spielt, aber viel mehr bleibt womöglich auch nicht über. Aber warten wir mal Tests ab...

Botcruscher
2017-08-01, 11:48:49
Seit über einem Jahr in allen Formen kaufbar. Dazu vermutlich mit OC mehr Leistung als Vega im Schnitt je sehen wird und an dem Punkt noch ein besseres P/L? Der Chip steht imo da wo sich Fiji gegen die 980TI wiedergefunden hat. Teuer, langsam, stromhungrig, kein OC Potential... Dafür wenigstens nicht schon zu wenig Speicher.

Ich liebäugle eigentlich mit einer 56 aber die wird vermutlich gegen eine 1070 kein Land sehen. Mit OC wird es dann sicher ganz dunkel.

Timbaloo
2017-08-01, 11:51:47
Na wenn ich mir anschaue wie AMD die Folien zusammengeschönt hat, dann werden die Reviews ein Tag der Traurigkeit, sollte sich bis dahin nicht was wundersames über Treiber ändern...

Dino-Fossil
2017-08-01, 11:52:14
Gegenfrage: Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Gerade so vergleichbare Performance zu, wenns dicke kommt, doppeltem Stromverbrauch?
Sorry, aber das ist einfach eine etwas zu schwache Vorstellung, um damit viele Leute zu ködern...

Ich hoffe da kommt noch mehr in zwei Wochen.

Fragman
2017-08-01, 11:53:56
Im Klartext, die Vorgabe an die Ingenieure war: Entwickelt ein Architektur für zukünftige API’s.

man kann nur hoffen die man den, oder die manager, die solche vorgaben machen, spaetestens gestern gefeuert hat.

ich hoffe wirklich das amd nicht so arrogant ist. die mantle geschichte war schon ein witz. anstatt die hardware anzupassen, entwickelt man einen eigenen standard. irgendwie verkehrte welt. das schlimmste aber ist, die user springen noch drauf an und feiern das ganze.

amd soll endlich hardware entwickeln, die out of the box laeuft, ohne proprietaeren mist. von mir aus koennen sie das den treiber machen lassen, alles andere hilft keinem wenn ich dafuer die games anpassen muss.

Pirx
2017-08-01, 11:56:47
Du meintest mit dem proprietaeren Mist sicher nV und hast dich im Thread geirrt, oder?

Fragman
2017-08-01, 12:01:21
Du meintest mit dem proprietaeren Mist sicher nV und hast dich im Thread geirrt, oder?



den hardware bock hat amd geschossen, nur tun viele wieder so als wenn demnaechst alles besser wird. derweil verkauft nv noch mehr karten, hat damit noch mehr kohle und es wird noch schwieriger fuer amd irgendwas zu bringen.

keine ahnung wie man so einen mist verteidigen kann...

Pirx
2017-08-01, 12:08:17
...keine ahnung wie man so einen mist verteidigen kann...
Der erste Schritt dazu wäre, nicht alles, was einem auf den ersten Blick nicht passt, direkt als Mist zu bezeichnen und die Dinge eingehender und differenziert zu betrachten.

akuji13
2017-08-01, 12:09:51
Hm, Freesync?
Ist das draußen in der freien Wildband ein Argument?

Stimmt, Freesync. Ist aber auch mehr ein Geek-Feature denn Massenhysterie.

Ist natürlich keine allgemeingültige Aussage aber:
In meinem Umfeld habe ich bereits 6 FS Geräte untergebracht.
Geeks sind da keine dabei.

Allerdings wird dort nur in 2 Fällen FS überhaupt genutzt, Hauptargument war der Preis.
Sollte die AMD Karten die bessere P/L bieten wird zumindest der Anteil derer die es nutzen können hier steigen.

Grendizer
2017-08-01, 12:12:31
Der erste Schritt dazu wäre, nicht alles, was einem auf den ersten Blick nicht passt, direkt als Mist zu bezeichnen und die Dinge eingehender und differenziert zu betrachten.


1. Augenscheinlich benötigt Vega den direkten Support von DX12 Erweiterungen, die nVidia gar nicht unterstützt um seine theoretische Leistung ausspielen zu können.

2. Vega benötigt zwingend DX12/Vulcan um auf eine 1080 Leistung überhaupt zu erreichen

3. DX12 ist für Entwickler aufwendig und die bisherigen Ergebnisse nicht immer überzeugend.

4. DX12 wird nur von Windows 10 unterstützt

Das führt zu dem Schluss das Vega auf sehr viel guten Willen bei Entwicklern angewiesen sein wird um dauerhaft eine 1080 Leistung erbringen zu können.

Fragman
2017-08-01, 12:14:05
Der erste Schritt dazu wäre, nicht alles, was einem auf den ersten Blick nicht passt, direkt als Mist zu bezeichnen und die Dinge eingehender und differenziert zu betrachten.

das passiert doch, die ganze zeit, gerade aus dem lager der amd user. ich nenn das relativieren. amd braeuchte man einen tritt in den hintern, AUS dem lager der amd user, damit sie endlich hardware bauen, die out of the box leistung bringt.

dieses schoenreden (bei vega in der gamingsparte) hilft keinem, besonders nicht amd selbst. die kommen mit navi naemlich wieder mit einen chip, der erst wieder monate oder jahre nach release braucht, um zu zuenden (spekulation meinerseits, aber es funktioniert ja seit jahren). nur ist es dann zu spaet.

wir brauchen konkurenz gegen nvidia die stark ist und dabei nicht an einer api haengt die kaum einer nutzt.

X-Bow
2017-08-01, 12:15:45
man kann nur hoffen die man den, oder die manager, die solche vorgaben machen, spaetestens gestern gefeuert hat.

ich hoffe wirklich das amd nicht so arrogant ist. die mantle geschichte war schon ein witz. anstatt die hardware anzupassen, entwickelt man einen eigenen standard. irgendwie verkehrte welt. das schlimmste aber ist, die user springen noch drauf an und feiern das ganze.

amd soll endlich hardware entwickeln, die out of the box laeuft, ohne proprietaeren mist. von mir aus koennen sie das den treiber machen lassen, alles andere hilft keinem wenn ich dafuer die games anpassen muss.

Das ist doch keine Begründung die Du da ablieferst. Geschweige denn reißt Du irgend eine Aussage aus dem Zusammenhang raus.

Also wenn man Überhaupt eine Firma "arrogant" nenne kann das wohl eher die welche wirklich ihr eigenes Süppchen kochen und keine offene Standards bieten.

Der Rest ist doch total hanebüchen. Der Start für Vega war vor über 5 Jahren, AMD hätte zu dem Zeitpunkt mit ziemlicher Sicherheit wissen müssen wie das hier und jetzt aussieht um etwas "out of the box" mit guter DX11 Leistung* bringen zu müssen.

*welche wir noch nicht wirklich wissen da weder AMD noch Unabhängige Benchmarks gezeigt haben.

Thunder99
2017-08-01, 12:21:09
Hab den Bericht erst jetzt gelesen aber bin auch eher enttäuscht von der Vorstellung. Vega hat definitiv Potential nach oben aber mehr auch nicht. Die Ankündigung über den Preis und den möglichen Rabatt auf andere Produkte sprechen da eine ganz bestimme Sprache.

AMD bleibt wahrscheinlich leider seiner Linie treu. Gutes Produkt am Anfang was nicht ganz mit der Konkurrenz mithalten kann aber später dann überflügelt und dann die nächste Karten-Klasse nass macht.

Ich glaube nicht, dass die Zielsetzung nur die 1080 war. Was aber möglicherweise schief gelaufen ist werden wir wohl nie erfahren.
Ich habe auch Bedenken dass die Karte leise zu kühlen geht bei nicht extremen Ausmaßen der Kühlfläche.

X-Bow
2017-08-01, 12:21:37
1. Augenscheinlich benötigt Vega den direkten Support von DX12 Erweiterungen, die nVidia gar nicht unterstützt um seine theoretische Leistung ausspielen zu können.

2. Vega benötigt zwingend DX12/Vulcan um auf eine 1080 Leistung überhaupt zu erreichen

3. DX12 ist für Entwickler aufwendig und die bisherigen Ergebnisse nicht immer überzeugend.

4. DX12 wird nur von Windows 10 unterstützt

Das führt zu dem Schluss das Vega auf sehr viel guten Willen bei Entwicklern angewiesen sein wird um dauerhaft eine 1080 Leistung erbringen zu können.


1. Quelle?

2. Wissen wir nicht da keine Test mit DX11 veröffentlicht wurden.

Meine Vermutung ist das AMD hier (wie auch bei Ihren "Events") eines zeigen wollte, das mit DX12/Vulkan das FreeSync Ergebnis in dem doofen Fenster drin ist. Vermutlich ist es mit DX11 nicht in dem Fenster als zeigt man es nicht. Das heißt aber nicht das die Balkenlänge der Vega und DX11 unbedingt kürzer ist als bei GP104 sein muss.

Raff
2017-08-01, 12:23:01
Hab den Bericht erst jetzt gelesen aber bin auch eher enttäuscht von der Vorstellung. Vega hat definitiv Potential nach oben aber mehr auch nicht. Die Ankündigung über den Preis und den möglichen Rabatt auf andere Produkte sprechen da eine ganz bestimme Sprache.

AMD bleibt wahrscheinlich leider seiner Linie treu. Gutes Produkt am Anfang was nicht ganz mit der Konkurrenz mithalten kann aber später dann überflügelt und dann die nächste Karten-Klasse nass macht.

Ich glaube nicht, dass die Zielsetzung nur die 1080 war. Was aber möglicherweise schief gelaufen ist werden wir wohl nie erfahren.
Ich habe auch Bedenken dass die Karte leise zu kühlen geht bei nicht extremen Ausmaßen der Kühlfläche.

Fiji hat AMDs Durchmarsch mit dem verzögerten "Nassmachen" übrigens beendet (die Karte hat sich selbst nassgemacht :ugly: ). Vega könnte das wegen des ausreichenden Speichers aber wieder schaffen, wie zuletzt Hawaii alias Grenada. Es bleibt zu hoffen, dass ein Vega-Refresh oder Navi dann ein paar Lorbeeren ernten können. Ich glaub's aber nicht, denn Nvidia ist nicht untätig und keineswegs "poor".

MfG,
Raff

Menace
2017-08-01, 12:25:50
Ich sage ja nicht, dass das keine Rolle spielt, aber viel mehr bleibt womöglich auch nicht über. Aber warten wir mal Tests ab...

Ich hätte einige Gründe, warum ich AMD vorziehe. Für mich der wichtigste ist immer noch OpenCl-Anwendungen. Aber es fällt mir bei hohem Stromverbrauch schon schwer.


ich hoffe wirklich das amd nicht so arrogant ist. die mantle geschichte war schon ein witz.

Mantle war das beste, was in den letzten Jahren überhaupt passiert ist. Erst nachdem AMD mantle an Vulkan abgegeben hat kommt das ganze ins Stocken (ich frage mich wirklich warum, habe aber so den ein oder anderen Verdacht).
Noch gebe ich die Hoffnung nicht auf, dass aus Vulkan endlich mal eine bessere, offene Alternative für Spiele und Anwendungen entsteht. Wie gesagt, ich habe aber den Verdacht, dass da im Hintergrund eher gebremst wird.

dargo
2017-08-01, 12:28:39
Vega hat Stand jetzt mehrere Probleme.

– Wer 1080-Leistung zum 1080-Preis will, hat mit großer Wahrscheinlichkeit längst zugeschlagen. Vega ist zu spät dran.
– Selbst wenn die Leistungsaufnahme als Kostenfaktor zu vernachlässigen ist (die Differenz zwischen einer GP104- und einer Vega-10XT[X]-Karte), führt sie doch direkt zu erhöhtem Kühlaufwand. Es muss sich noch zeigen, wie viele AMD-Partner damit leise klarkommen. Davon ab: Ich habe ein Problem damit, im Sommer eine 350-Watt-Grafikkarte zu verwenden, weil die Bude dann Richtung 30 °C geht. Wie sieht das die Mehrheit? Aber, hey: Undervolting FTW. Dennoch ist Nvidia hier ganz klar effizienter.
– Zusammengefasst: Warum sollte der Normalbürger eine Vega-Karte anstelle einer Geforce kaufen?

Letzteres ist das Hauptproblem. Ich sehe da gerade keine Argumente für Normalsterbliche. Wir Geeks finden Alternativen toll und Monopole doof. Wir stehen auf HBM2, Low Level und GPU Open. Das juckt Normalsterbliche aber nicht.

MfG,
Raff
Ich sehe hier einen Denkfehler. Einerseits sprichst du vom "Normalbürger", andererseits von GTX1080 Leistung. Da passt was nicht zusammen. Vega 56 für 399$ hast du mitbekommen oder? :) Das ist die Karte für die größere Masse, genauso wie die GTX1070. Und mit 210W TDP ist Vega 56 auch in der Region von einigen RX 580 Customs die sich noch ganz gut mit Lükü kühlen lassen. Zumal die GPU mehr als doppelt so groß wie Polaris ist was kühltechnisch wieder von Vorteil ist. Vega 64 und Vega 64 AIO... das sind eher Karten für die Geeks.

y33H@
2017-08-01, 12:29:51
Beim neuen 3DMark spricht er von +15% durch Rapid Packed Math wenn ich das richtig verstanden habe?https://abload.de/thumb/2017-08-01_11284767r5k.png (http://abload.de/image.php?img=2017-08-01_11284767r5k.png)

Korvaun
2017-08-01, 12:32:10
Was mich mal interessieren würde ist warum es AMD wieder mal nicht geschafft hat die Leistungsaufnahme einigermaßen zu bändigen. Ich erinnere mich dunkel das Effizienz eines der Hauptziele der Entwicklung war, oder täusche ich mich da?

dargo
2017-08-01, 12:38:19
Den Fehler macht AMD schon seit 15 Jahren. Immer Techniken entwickeln die dem Gamer momentan nix bringen aber in 5 Jahren bestimmt Hammer sind.
Ich wünsche mir wirklich mehr Konkurenz für NV aber das erreicht man nur im hier und jetzt und nicht mit 5 Jahren Treiberoptimierungen. Ich weiss nicht wie oft wir bei AMD schon auf Wundertreiber gewartet haben. Eigentlich bei jeder neuen AMD Karte bis zur nächsten neuen AMD Karte
Ich hoffe das AMD durch Ryzen genug reinbekommt um mal wieder eine kühle effiziente schnelle Overclockingkarte zu entwickeln
Man könnte den Spieß auch umdrehen und sagen Nvidia ist eine Technologiebremse im Gamingbereich am PC, es wird immer nur das allernötigste für die aktuelle Generation implementiert. Ohne AMD wären wir womöglich noch bei DX9.

https://abload.de/thumb/2017-08-01_11284767r5k.png (http://abload.de/image.php?img=2017-08-01_11284767r5k.png)
Das sind doch nur Ergebnisse der einzelnen Effekte. Mich interessiert das Gesamtergebnis, sprich um wieviel Prozent steigt die Framerate. Du glaubst doch nicht wirklich das könnte man addieren? :tongue: Mit +69% durch FP16 würde man Nvidia komplett an die Wand klatschen. :freak:

Grendizer
2017-08-01, 12:39:30
1. Quelle?

2. Wissen wir nicht da keine Test mit DX11 veröffentlicht wurden.

Meine Vermutung ist das AMD hier (wie auch bei Ihren "Events") eines zeigen wollte, das mit DX12/Vulkan das FreeSync Ergebnis in dem doofen Fenster drin ist. Vermutlich ist es mit DX11 nicht in dem Fenster als zeigt man es nicht. Das heißt aber nicht das die Balkenlänge der Vega und DX11 unbedingt kürzer ist als bei GP104 sein muss.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/DirectX-12-Support-Geforce-Radeon-Treiber-1204767/

Sowie die AMD Slides.

BigBangBacket
2017-08-01, 12:39:56
Weil Vega mit sehr hoher Wahrscheinlichkeit mehr Potential für die Zukunft hat (Sicherlich noch wesentlich mehr Möglichkeiten zur Treiberoptimierung, potentielle Leistungsverbesserungen durch 2xFP16, moderneres Featureset, etc. ). Dazu ist sicherlich wie schon erwähnt FreeSync kein schlechtes Argument.

Gegenfrage: Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Dieses ZukunftsPotenzial hat noch nie was gebracht. Diese paar Prozentpunkte rechtfertigen nicht diese Effizienz.
Ich kaufe auch heute kein Auto das erst in 3 Jahren konkurrenzfähig sein könnte. Sondern das es JETZT ist. Oder ich kaufe es dann in 3 Jahren. Aber dann gibt es wieder bessere Modelle zu denen ich greife.
Von den NV User verlangt man das sie nicht die überteuerten NV Produkte kauft damit NV lernt Preise anzupassen. Dann kann man aber AMD User fragen warum sie eine AMD GraKa kaufen die grösstenteils nicht konkurrenzfähig ist. Kauft keine AMD Produkte damit AMD lernt mal GraKas zu entwickeln die hier und jetzt Leistung bringen. Und nicht erst womöglich irgendwann in der Zukunft. Die Pascals sind sehr gut zum übertakten. Wenn man dieses Feature mit einbezieht sieht Vega gar kein Land mehr.
Vor einer Woche waren hier noch einige der Meinung Vega könnte 20% schneller werden als eine 1080ti und dabei 30% günstiger sein. Heute halten sich einige nur noch an Freesync fest.
Wir brauchen ernstzunehmende Konkurrenz für NV. Und keine Hardware die nur von Fanboys getragen wird.
NV hat das meiste Geld schon mit der 1070/80 gemacht. Für die ist das kein Problem Preise in den nächsten Wochen anzupassen

X-Bow
2017-08-01, 12:46:55
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/DirectX-12-Support-Geforce-Radeon-Treiber-1204767/

Sowie die AMD Slides.

In deiner Quelle steht nirgends das AMD DX12 Erweiterungen benötigt welche nVidia nicht besitzt um die theoretische Mehrleistung ausspielen zu können.

Grendizer
2017-08-01, 12:48:29
In deiner Quelle steht nirgends das AMD DX12 Erweiterungen benötigt welche nVidia nicht besitzt um die theoretische Mehrleistung ausspielen zu können.

FP16/32 wird hier als +15% bringer angepriesen :rolleyes:

dargo
2017-08-01, 12:49:49
man kann nur hoffen die man den, oder die manager, die solche vorgaben machen, spaetestens gestern gefeuert hat.

ich hoffe wirklich das amd nicht so arrogant ist. die mantle geschichte war schon ein witz. anstatt die hardware anzupassen, entwickelt man einen eigenen standard. irgendwie verkehrte welt. das schlimmste aber ist, die user springen noch drauf an und feiern das ganze.

Der nächste der nichts von Crossgaming verstanden hat. Unglaublich, dass es Leute gibt die immer noch nicht kapieren welchen Weg Entwickler langfristig bei XBox/Playstation und PC gehen möchten.


amd soll endlich hardware entwickeln, die out of the box laeuft, ohne proprietaeren mist.
Finde die Ironie. ;D

Grendizer
2017-08-01, 12:53:20
Der nächste der nichts von Crossgaming verstanden hat. Unglaublich, dass es Leute gibt die immer noch nicht kapieren welchen Weg Entwickler langfristig bei XBox/Playstation und PC gehen möchten.


Welchen ??? DX12 gibt es nicht für die PS4 .... FP16 nicht für nVidia Karten, PS4 Standard und die xbox one, allerdings für die PS4 Pro. Die Switch ist zu langsam für alles und muss angepaßt und optimiert werden...

Es wird nie ein auch nur annähernd einheitliches Featureset bei Konsolen und PC Grafikkarten geben.

dargo
2017-08-01, 12:56:36
Welchen ???
Danke für die Bestätigung.


Es wird nie ein auch nur annähernd einheitliches Featureset bei Konsolen und PC Grafikkarten geben.
Richtig... bei Nvidia wird es das nicht geben. Ganz einfach weil die bei den schnellsten Konsolen nicht mitspielen.

Edit:
Übrigens... Vulkan findet immer mehr Gefallen bei den Entwicklern.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

Es hat halt etwas mit einer vernünftigen Dokumentation gedauert. Afaik ist Vulkan auch flexibler was neue Features angeht als DX12.

X-Bow
2017-08-01, 12:59:17
FP16/32 wird hier als +15% bringer angepriesen :rolleyes:

Ich glaub wir drehen uns hier im Kreis...

Nochmal, ja, AMD sagt das DX12 Vorteile hat, im Beispiel von FP16/32 eben ~15%. AMD oder auch PCGH sagen aber nicht das Vega deshalb in DX11 nicht ihre theoretische Mehrleistung ausspielen können. :wink:

Faktisch wissen wir nicht wie Vega gegen Pascal in DX11 abschneidet. Das Grundsätzlich Vega Pascal in DX12 überlegen ist durch besser Unterstützung, das schon, aber auch hier wissen wir nicht bestimmt wie viel es letztlich auf der FPS Anzeige nützt.

Grendizer
2017-08-01, 13:08:15
Edit:[/B]
Übrigens... Vulkan findet immer mehr Gefallen bei den Entwicklern.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

Es hat halt etwas mit einer vernünftigen Dokumentation gedauert. Afaik ist Vulkan auch flexibler was neue Features angeht als DX12.

Und es läuft halt auf Linux, Mac OS, Windows 7 und Windows 10....

Fragman
2017-08-01, 13:15:34
Finde die Ironie. ;D

genau das ist der grund weshalb amd so weiter machen kann. jede kritik wird kaputtgeredet, denn da ist ja der boese gruene wolf, der ist viel schlimmer.

mich interessiert das nicht, das ich fuer nv produkte aber mehr zahlen muss schon. dann kommt amd um die ecke, macht einen auf dicke hose und wenn die dann unten sind, bleibt nichts mehr uebrig.

und was machen die amd user? die fangen an das ganze schoenzureden. diese grabenkaempfe helfen keinem. hier gehts nicht darum welche firma die angeblich bessere ist, sondern darum, das amd seit jahren die eigenen produkte nicht im griff hat. tech am markt vorbei entwickelt und dann mit einer eigenen api kommen muss um das zu kompensieren.
den gleichen mist lesen wir jetzt wieder bei vega.

der kunde hat insgesamt das nachsehen. der amd kaeufer weil er auf treiber hoffen muss und der nv kunde, weil er weiter hoehere preise zahlen muss.

eratte
2017-08-01, 13:24:18
Gehe zurück zum Start und fange damit anzuerkennen was ein proprietärer Standard ist und was ein offener Standard und dann komm noch mal zurück.

Von AMD gibt es keine eigene API, auch der böse grüne Wolf macht off. bei Vulkan mit https://www.khronos.org/vulkan/.

BlacKi
2017-08-01, 13:25:33
Was mich mal interessieren würde ist warum es AMD wieder mal nicht geschafft hat die Leistungsaufnahme einigermaßen zu bändigen. Ich erinnere mich dunkel das Effizienz eines der Hauptziele der Entwicklung war, oder täusche ich mich da?
man kann jede karte drosseln und auf effizienz gehen. aber dann müsste amd die karten deutlich günstiger verkaufen. ob die boardbartner da mitmachen ist dann wieder eine andere geschichte. aber es ist sicher kein problem vega mit 1ghz und niedriger voltage unter 200w zu halten, siehe nano.

Raff
2017-08-01, 13:25:48
genau das ist der grund weshalb amd so weiter machen kann. jede kritik wird kaputtgeredet, denn da ist ja der boese gruene wolf, der ist viel schlimmer.

mich interessiert das nicht, das ich fuer nv produkte aber mehr zahlen muss schon. dann kommt amd um die ecke, macht einen auf dicke hose und wenn die dann unten sind, bleibt nichts mehr uebrig.

und was machen die amd user? die fangen an das ganze schoenzureden. diese grabenkaempfe helfen keinem. hier gehts nicht darum welche firma die angeblich bessere ist, sondern darum, das amd seit jahren die eigenen produkte nicht im griff hat. tech am markt vorbei entwickelt und dann mit einer eigenen api kommen muss um das zu kompensieren.
den gleichen mist lesen wir jetzt wieder bei vega.

der kunde hat insgesamt das nachsehen. der amd kaeufer weil er auf treiber hoffen muss und der nv kunde, weil er weiter hoehere preise zahlen muss.

Dass Low-Level bei entsprechender Fachkenntnis und Zeit die bessere Wahl als x-fach abstrahierende Schnittstellen ist, sollte klar sein. Die proprietäre Mantle-API hat den Stein ins Rollen gebracht. Früher, in den Kindertagen der 3D-Beschleunigung, mussten die IHVs auch eigene APIs zimmern, da "der Markt" eine träge Masse ist (die man durchaus formen kann). Ohne Glide kein Voodoo-Durchbruch, ohne Low-Level kein Fortschritt. Nicht falsch verstehen, ich würde mir auch wünschen, dass AMD sich etwas bei Nvidia abguckt und mehr für die Gegenwart denn für die Zukunft baut, denn Wegbereitung ist mit hohen Kosten verbunden, deren Früchte man nicht zwangsläufig selbst erntet.

MfG,
Raff

AwesomeSauce
2017-08-01, 13:26:48
Und es läuft halt auf Linux, Mac OS, Windows 7 und Windows 10....
Vulkan läuft nicht auf MacOS. Jedenfalls nicht ohne Metal-Zwischenlayer.

Matrix316
2017-08-01, 13:36:11
Alleine der Preis von 399 bzw. 499 ist viel zu billig. Irgendwie schade. Erst der große Tam Tam und dann doch nur wieder eine Upper Midrange Karte die nicht ganz so High End ist.

Grendizer
2017-08-01, 13:36:46
Vulkan läuft nicht auf MacOS. Jedenfalls nicht ohne Metal-Zwischenlayer.
Ah .. ok ... mein Fehler, hatte ich nicht explizit geprüft und einfach angenommen, das es so ist.

Fragman
2017-08-01, 13:36:56
Dass Low-Level bei entsprechender Fachkenntnis und Zeit die bessere Wahl als x-fach abstrahierende Schnittstellen ist, sollte klar sein. Die proprietäre Mantle-API hat den Stein ins Rollen gebracht. Früher, in den Kindertagen der 3D-Beschleunigung, mussten die IHVs auch eigene APIs zimmern, da "der Markt" eine träge Masse ist (die man durchaus formen kann). Ohne Glide kein Voodoo-Durchbruch, ohne Low-Level kein Fortschritt. Nicht falsch verstehen, ich würde mir auch wünschen, dass AMD sich etwas bei Nvidia abguckt und mehr für die Gegenwart denn für die Zukunft baut, denn Wegbereitung ist mit hohen Kosten verbunden, deren Früchte man nicht zwangsläufig selbst erntet.

MfG,
Raff

das problem bei amd ist ja der, das man ohne vulkan die leistung nicht auf die strasse bekommt. das ist mein kritikpunkt. es geht mir nicht um vulkan selbst, was es bringt etc. sondern das amd diese entwicklung erst anstossen musste weil sie es auf anderem weg nicht hinbekommen haben die leistung ihrer eigenen hardware frei zu setzen.
anstatt hardware zu entwickeln, die allgemein gut performt.

Loeschzwerg
2017-08-01, 13:38:27
Dass Low-Level bei entsprechender Fachkenntnis und Zeit die bessere Wahl als x-fach abstrahierende Schnittstellen ist, sollte klar sein.

Ich behaupte mal ganz frech dass es auch in Zukunft viel zu sehr an entsprechendem Personal fehlen und Low-Level daher ein extremst langsamer, teurer Zug sein wird.
Fällt für mich in die gleiche Kategorie wie z.B. Assembler Programmierer. Man hat die alten Hasen und nachrücken tut nur sehr wenig.

So sehr ich mir hier eine schnellere Entwicklung wünschen würde, ich sehe diese nicht :(

X-Bow
2017-08-01, 13:43:15
@Fragman ich weiß nicht was Du willst. AMD hat doch ein GPU entwickelt welcher out of box konkurrenzfähig ist. Nennt sich Polaris. Kauf doch den.

Eher andersrum. nVidia soll endlich mal wieder ein Chip entwickeln welcher neue Technologien bringt und nicht nur ein shrink mit proprietärem Mist ist. Kepler->Maxwell->Pascal. Viel Innovation war da nicht, Detailverbesserungen und shrink, that's it.

Deswegen sag ich ja die Entscheidung ob Vega "gut" ist mit einer 3 Generationen lang optimierten Architektur zu vergleichen halt ich für fraglich (Der Vergleich zweckst Kaufentscheidung etc. ist da ja schon richtig, schließlich geht es da um das was kauf ich im hier und jetzt).

robbitop
2017-08-01, 13:46:47
Was mich mal interessieren würde ist warum es AMD wieder mal nicht geschafft hat die Leistungsaufnahme einigermaßen zu bändigen. Ich erinnere mich dunkel das Effizienz eines der Hauptziele der Entwicklung war, oder täusche ich mich da?
Das ist doch eine Frage des Betriebspunktes. Prügelt man einen Chip an die Taktgrenze kann man für wenig Mehrtakt schnell mal Faktor 2 an Leistungsaufnahme verballern.
Die Nano zeigte ja bereits bei Fijii, wie effizient GCN GPUs sein können, wenn man ein kleines bisschen Leistung opfert.
Dann ist der Abstand in Punkto Effizienz zwischen Pascal und GCN nicht mehr so groß.

AMD muss dringend die Bandbreiteneffizienz erhöhen, dann kommt auch etwas mehr Leistung. Auch muss man dann nicht mit so fetten Interfaces (teurer) gegen die technisch günstigere Konkurrenz kämpfen.
Tahitii: 384 bit - GK104: 256 bit
Hawaii: 512 bit - GK110: 384 bit
P10: 256 bit - GP106: 128 bit 192 bit

Fijii und Vega haben auch deutlich mehr Rohbandbreite als ihre jeweilig ähnlich starken Gegner (GM200:Fijii und GP104:Vega).

Wenn man das in den Griff bekommt, kann man ja auch ruhig die mArchs alle etwas breiter machen und dafür den Takt senken. Also bspw ein Vega mit 10-20% mehr SPs und dafür 10-20% weniger Takt. Wäre bei gleicher Leistung deutlich effizienter. Aber die Kosten dürfen eben gleichzeitig auch nicht explodieren.

robbitop
2017-08-01, 13:50:42
Dieses ZukunftsPotenzial hat noch nie was gebracht. Diese paar Prozentpunkte rechtfertigen nicht diese Effizienz.
Ich kaufe auch heute kein Auto das erst in 3 Jahren konkurrenzfähig sein könnte. Sondern das es JETZT ist.
Wenn das Produkt A gleichschnell wie Produkt B ist, jedoch gleich teuer oder günstiger, ist es doch kein Nachteil, wenn Produkt A über die Zeit schneller wird.

Tahiti war 2011/12 ähnlich teuer wie GK104 (7970 vs 680). War aber deutlich länger benutzbar. Im Prinzip kann man @1080p selbst heute noch sehr gut mit Tahiti spielen. Tahiti legt sich heute in modernen Games häufig eher mit einer GK110 (GTX780) an.

Sehe ich nicht als Nachteil.

Vega ist anscheinend konkurrenzfähig. Zur 1080. Wenn sie auch nur so viel kostet wie die 1080, ähnlich schnell ist und zukünftig wahrscheinlich schneller wird (und länger benutzbar ist), ist das doch eindeutig ein Vorteil.

Allerdings besteht dieser Vorteil nur für Kunden, die ihre HW lange nutzen. Wenn man alle 18 Monate die GPU aufrüstet, ist der Vorteil natürlich nicht gegeben.

bun
2017-08-01, 13:51:15
Ich bin mal da etwas ketzerisch..... AMD Architekturansatz mit brachiale paraleller Rechenpower ist dem Ansatz von nVidia in DX9/10/11 unterlegen. Die performance verpufft durch die Limitierungen von DX11. Deshalb hat man erst mit Mantle eine eigene API gebastelt und war dann froh das Microsoft mit DX12 einen Standard geschaffen hat.

Das Problem ist nur, das nVidia DX12 momentan nichts bringt. Die Karten performen eher schlechter in DX12 als in DX11. AMD ist aber extrem darauf angewiesen DX12 in die breite zu bekommen, damit AMD Karten nvidias DX11 Performace erreichen können.

edit: Manche User echauffieren sich hier ja immer wieder darüber, das noch soviele Engines kein lowlevel API nutzen. Allerdings scheint die Programmierung halt auch deutlich komplexer zu sein. Und hier gibt es dann mit Sicherheit auch eine Kosten/Nutzenanalyse. Wieviel User haben AMD Karten ? Wieviel User haben Windows 10. Was kostet der DX12 Renderer zusätzlich ?

Ich glaube du siehst das Etwas falsch.

Ich bin kein Experte, aber so stellt sich das mir dar: DirectX11 ist eine abstraktere API, die weniger direkten Hardware Zugriff zulässt. Mittlerweile hat die Grafikhardware die wir heute haben auch nicht mehr viel mit der Hardware zu tun, die aktuell war, als DirectX entwickelt wurde. Die Spielehersteller haben bisher Grafikhardware mit DirectX11 daher eher schlecht ausnutzen können.

Nvidia und AMD betreiben im DirectX11 Treiber einige Magie, um Spiele zu beschleunigen. Nvidia geht hierbei so weit größere Teile des Renderers eines Spieles quasi komplett neu im Treiber zu implementieren, und ersetzt dann die Befehle mit dem der Treiber gefüttert wird mit völlig anderen Befehlen in einer anderen Reihenfolge um Spiele zu beschleunigen.

DirectX11 Treiber sind sehr komplex, ein Geschäftsgeheimnis und starker wirtschaftlicher Vorteil des Herstellers. Ergo sind DirectX11 Treiber eine Blackbox für Spielenentwickler, die keine Einsicht und keine Kontrolle darüber haben, wie ihr Spielecode auf der Grafikhardware überhaupt umgesetzt wird.
Das macht die Spieleentwicklung nicht gerade einfach. Ich habe Berichte gelesen das dann von Nvidia ein Treibertechniker mit seinem Laptop und Diagnosetreiber vorbeikommt, und Tipps gibt, weil er der Einzige ist der Einblick hat.

AMD Mantle, Vulkan, DirectX12 schlagen alle in die selbe Kerbe: Eine einfachere, auf die Hardware zugeschnittene low level api die weniger abstrahiert und sich stark an der Hardware orientiert. Spieleentwickler haben direkten Zugriff auf die Hardware, mit umfangreichen Debugging Möglichkeiten, ohne das der Grafikkarten Hersteller involviert wäre.

AMD sagt der DirectX12 Treiber ist sehr klein und unkompliziert im Vergleich zum gigantischen DirectX11 Treiber.

Zugegeben hat Nvidia deutlich mehr in ihren DirectX11 Treiber investiert als AMD, das ist natürlich ein Wettbewerbsvorteil für Nvidia.

Es sind halt komplett andere Philosophien, aber zu sagen das DirectX12 deutlich komplexer ist, stimmt so eigentlich nicht. Der Ansatz mit DirectX11 und gigantischem Blackbox Treiber ist komplexer, DirectX12 ist der direktere, simplere Ansatz. Es scheint den Entwicklern aber durchaus andere Fähigkeiten abzuverlangen, als die die man mit DirectX11 Entwicklung bisher gesammelt hat, und mag auch schwieriger sein. Immerhin erwartet man nun von den Entwicklern sauberen, effizienten Code zu Schreiben, weil kein Treiberteam im Hintergrund mit Magie wartet. Nur hält AMD nichts davon ab, den Entwicklern Software Tools und Hilfestellung zu geben, was sie auch aktiv tun.

http://gpuopen.com/gaming-product/radeon-gpu-profiler-rgp/

Alles in Allem denke ich das low level APIs zwar ein schwieriger, zäher Schritt sind, aber unbedingt notwendig waren. Typisch AMD diesen Weg zu gehen.

Zudem sollte man nicht vergessen, das AMD Chips für alle Konsolen liefert, und diese werden nicht in DirectX11 angesprochen, sondern ebenfalls mit low level apis. Es gibt also durchaus eine breite Entwicklerbasis von Konsolenentwicklern die low level apis gewohnt sein sollten, denn die sind bei Konsolen schon immer üblich.

robbitop
2017-08-01, 13:54:32
AMD braucht dringend einen anständigen Shadercompiler (und ein Team, welches diesen ständig pflegt und an kommende Titel anpasst), um nicht auf zu großem Maß an Handoptimierung beim Studio angewiesen zu sein. Manche machen das (man sieht bei id und DICE, wie es gehen kann), andere nicht.
Wobei ich mir relativ sicher bin, dass der NV Shadercompiler zwar sehr sehr gut und robust ist, aber auch nicht zaubern kann. Ich vermute, dass es eine ziemlich gute Anzahl an SW Leuten bei NV gibt, die den Shadercompiler auf die entsprechenden Spiele tunen.

BlacKi
2017-08-01, 13:54:45
Das ist doch eine Frage des Betriebspunktes. Prügelt man einen Chip an die Taktgrenze kann man für wenig Mehrtakt schnell mal Faktor 2 an Leistungsaufnahme verballern.
Die Nano zeigte ja bereits bei Fijii, wie effizient GCN GPUs sein können, wenn man ein kleines bisschen Leistung opfert.
Dann ist der Abstand in Punkto Effizienz zwischen Pascal und GCN nicht mehr so groß.

AMD muss dringend die Bandbreiteneffizienz erhöhen, dann kommt auch etwas mehr Leistung. Auch muss man dann nicht mit so fetten Interfaces (teurer) gegen die technisch günstigere Konkurrenz kämpfen.
Tahitii: 384 bit - GK104: 256 bit
Hawaii: 512 bit - GK110: 384 bit
P10: 256 bit - GP106: 192 bit

Fijii und Vega haben auch deutlich mehr Rohbandbreite als ihre jeweilig ähnlich starken Gegner (GM200:Fijii und GP104:Vega).

Wenn man das in den Griff bekommt, kann man ja auch ruhig die mArchs alle etwas breiter machen und dafür den Takt senken. Also bspw ein Vega mit 10-20% mehr SPs und dafür 10-20% weniger Takt. Wäre bei gleicher Leistung deutlich effizienter. Aber die Kosten dürfen eben gleichzeitig auch nicht explodieren.
habs mal korrigiert.

Grendizer
2017-08-01, 13:54:48
@Fragman ich weiß nicht was Du willst. AMD hat doch ein GPU entwickelt welcher out of box konkurrenzfähig ist. Nennt sich Polaris. Kauf doch den.

Eher andersrum. nVidia soll endlich mal wieder ein Chip entwickeln welcher neue Technologien bringt und nicht nur ein shrink mit proprietärem Mist ist. Kepler->Maxwell->Pascal. Viel Innovation war da nicht, Detailverbesserungen und shrink, that's it.


Jetzt aber langsam.... Mit Maxwell kam Tiled based rendering dazu, welches für die extrem starke Leistungsteigerung bei Maxwell ursächlich war.3

Mearest
2017-08-01, 13:55:44
Ich hoffe das Die VEGA in den kommenden Tests gut abscheidet (Konkurrenzkampf). Dann gibt vielleicht mal wieder (auch in den nächsten Generation) 1070 (oder das AMD Gegenstück) Leistung für 300€-350€ und 1060 (6GB)&RX480 Leistung für 200€-250€. (Alles aus Customs Sicht).

robbitop
2017-08-01, 13:57:36
Jetzt aber langsam.... Mit Maxwell kam Tiled based rendering dazu, welches für die extrem starke Leistungsteigerung bei Maxwell ursächlich war.3
Der TBR brachte die unglaublich gute Bandbreiteneffizienz. Aber die hohe genutzte arithmetische Leistung kommt von den schlankeren SMs. Die haben das Verhältnis von Ausführungslogik zur Kontrolllogik angepasst. 128 statt 192 SPs pro SM. Brachten ~90% der Leistung, waren aber deutlich schlanker, so dass man deutlich mehr SMs pro Transistorbudget unterbringen konnte.

habs mal korrigiert.
Danke :)

grauenvoll
2017-08-01, 13:59:03
Sehe ich nicht als Nachteil.

Vega ist anscheinend konkurrenzfähig. Zur 1080. Wenn sie auch nur so viel kostet wie die 1080, ähnlich schnell ist und zukünftig wahrscheinlich schneller wird (und länger benutzbar ist), ist das doch eindeutig ein Vorteil.

Allerdings besteht dieser Vorteil nur für Kunden, die ihre HW lange nutzen. Wenn man alle 18 Monate die GPU aufrüstet, ist der Vorteil natürlich nicht gegeben.

Ist es auch nicht. Gravierender ist doch, dass der Markt den die GTX1070/1080 besetzt, abgegrast ist. Die wenigsten werden über ein Jahr auf AMD warten. Für Vega gibt es zur Zeit keinen wirklichen Markt.

Grendizer
2017-08-01, 13:59:39
Der TBR brachte die unglaublich gute Bandbreiteneffizienz. Aber die hohe genutzte arithmetische Leistung kommt von den schlankeren SMs. Die haben das Verhältnis von Ausführungslogik zur Kontrolllogik angepasst. 128 statt 192 SPs pro SM. Brachten ~90% der Leistung, waren aber deutlich schlanker, so dass man deutlich mehr SMs pro Transistorbudget unterbringen konnte.


Danke :)

Oder so....aber trotzdem war das nicht nur ein innovationsloser Shrink.:biggrin:

Rincewind
2017-08-01, 14:03:15
Ist es auch nicht. Gravierender ist doch, dass der Markt den die GTX1070/1080 besetzt, abgegrast ist. Die wenigsten werden über ein Jahr auf AMD warten. Für Vega gibt es zur Zeit keinen wirklichen Markt.

Nein, ist er nicht, ansonsten könnte nV die Produktion für die 1070/1080 einstellen.

grauenvoll
2017-08-01, 14:04:06
Wobei ich mir relativ sicher bin, dass der NV Shadercompiler zwar sehr sehr gut und robust ist, aber auch nicht zaubern kann. Ich vermute, dass es eine ziemlich gute Anzahl an SW Leuten bei NV gibt, die den Shadercompiler auf die entsprechenden Spiele tunen.

Weiß nicht. Wahrscheinlich ist es sinnvoller, bei der Entwicklung unterstützend zur Seite zu stehen, als den Umweg über einen Shadercompiler zu gehen.

Am Ende kann man es drehen und wenden wie man will, AMD hat zu wenig Personal.

robbitop
2017-08-01, 14:06:12
Oder so....aber trotzdem war das nicht nur ein innovationsloser Shrink.:biggrin:
Ganz im Gegenteil. Maxwell war auf dem gleichen Fertigungsprozess (28 nm). Und eine stark veränderte mArch.

Vega ist laut AMD auch eine stark veränderte mArch (erstmalig seit 2011 / Tahitii). Man muss mal sehen, wie sich Vega und dessen mArch über die Jahre entwickelt.

R600 war ein Desaster. Er führte die GCN-Vorgänger mArch (basierend auf VLIW) ein. RV770 (gleiche mArch) hingegen war sehr sehr gut. Hatte irre viel punch-pro-Transistor.

Bei AMD ist mit dem kleineren Team eine neue mArch schon ein großer Umbruch. Kann gut sein, dass man erst mit einem Nachfolger diese besser ausschöpfen kann.

Ich vermute, dass ein SW Team (von der größe und Güte von NV) zu deutlich besseren Resultaten führen würde.

Man schaue sich mal an, was GCN in Doom schaffen kann, wenn Entwickler Hand anlegen (und somit eine anständige Auslastung der ALUs hinbekommen). Oder was z.T. auf der PS4/PRO und XBox One/X möglich ist. Gerade bei 1st Party AAAs.

Weiß nicht. Wahrscheinlich ist es sinnvoller, bei der Entwicklung unterstützend zur Seite zu stehen, als den Umweg über einen Shadercompiler zu gehen.

Am Ende kann man es drehen und wenden wie man will, AMD hat zu wenig Personal.
NV tut wahrscheinlich beides. AMD muss jetzt die Gewinne durch Ryzen dringend direkt in RnD investieren. Eine ordentliche SW Sparte für RTG und die HW Sparten bei RTG und CPU weiter stärken.

grauenvoll
2017-08-01, 14:06:56
Nein, ist er nicht, ansonsten könnte nV die Produktion für die 1070/1080 einstellen.

Und Mindfactory das Teil aus dem Sortiment nehmen...
Es wird sich immer jemand finden, der noch eine benötigt. Aber die Luft ist schon raus.

bun
2017-08-01, 14:07:55
Am Ende kann man es drehen und wenden wie man will, AMD hat zu wenig Personal.

Radeon Technology Group hat mittlerweile über 3000 Mitarbeiter. Nvidia hat nur viel früher damit angefangen, große Mengen an Treiberentwicklern zu beschäftigen, die sich jedes noch so popelige Spiel zur Optimierung vornehmen können.

BlacKi
2017-08-01, 14:08:17
Nein, ist er nicht, ansonsten könnte nV die Produktion für die 1070/1080 einstellen.
genau, sonst hätten wir andere preise.

dargo
2017-08-01, 14:09:32
das problem bei amd ist ja der, das man ohne vulkan die leistung nicht auf die strasse bekommt. das ist mein kritikpunkt.
Das ist kompletter Unfug. Es gibt auch DX11-Titel wo P10 GP106 überholt. Mit low level holt mal nur noch mehr aus den GPUs raus.

YfOrU
2017-08-01, 14:10:56
AMD muss dringend die Bandbreiteneffizienz erhöhen, dann kommt auch etwas mehr Leistung. Auch muss man dann nicht mit so fetten Interfaces (teurer) gegen die technisch günstigere Konkurrenz kämpfen.

Das ist ein Punkt der für mich immer wieder unverständlich ist. AMD hat IGPs nicht erst seit gestern und gerade die sind nun mal grundsätzlich durch die Bandbreite limitiert. Bei mobilen dGPUs ist es auch schon seit einigen Jahren ein eklatanter Nachteil (Effizienz, Kosten) da praktisch durchgehend breitere Interfaces als bei Nvidia notwendig sind bzw. GDDRx statt DDRx.

Natürlich hat man weniger R&D Kapazitäten aber damit alleine kann es aufgrund der großen Zeitspanne eigentlich nicht begründet werden. Mir kommt es langsam so vor als hätte man sich darauf verlassen das Bandbreite durch zukünftige Speichertechnologien weniger kritisch ist und nur das notwendige Minimum investiert. Bei Nvidia dürfte man aufgrund der Tegra SoCs das Thema auf der Prioritätsliste deutlich weiter oben angesiedelt haben.

robbitop
2017-08-01, 14:11:09
Und Mindfactory das Teil aus dem Sortiment nehmen...
Es wird sich immer jemand finden, der noch eine benötigt. Aber die Luft ist schon raus.
Da sagen die Umsatzzahlen von NV aber was anderes.
Ein Markt funktioniert nicht so, dass schlagartig der Großteil aufrüstet. Die Granularität ist wahrscheinlich nahezu infenitesimal, so dass (abgesehen von Saisonbedingten Schwankungen: Black Friday, Back to School, Weihnachten etc) die Verkaufszahlen nahezu konstant sind.

Sieht man ja an Ryzen. Verkauft sich wunderbar. Obwohl alle eigentlich schon durch HSW-E, BDW-E, HSW, SKL, KBL aufgerüstet hätten müssten... ;)

dargo
2017-08-01, 14:15:58
Das ist doch eine Frage des Betriebspunktes. Prügelt man einen Chip an die Taktgrenze kann man für wenig Mehrtakt schnell mal Faktor 2 an Leistungsaufnahme verballern.
Die Nano zeigte ja bereits bei Fijii, wie effizient GCN GPUs sein können, wenn man ein kleines bisschen Leistung opfert.
Dann ist der Abstand in Punkto Effizienz zwischen Pascal und GCN nicht mehr so groß.

Hier wird der Punkt mit dem Biosschalter bei Vega interessant. Angeblich soll Vega bei 15% weniger Leistung nur noch 65% Verlustleistung produzieren. Ich weiß jetzt nur nicht ob sich diese Angaben auf die ganze Grafikkarte oder eher nur die GPU beziehen. Wahrscheinlich letzteres. Genaueres wissen wir am Releasetag.

Grendizer
2017-08-01, 14:16:34
Da sagen die Umsatzzahlen von NV aber was anderes.
Ein Markt funktioniert nicht so, dass schlagartig der Großteil aufrüstet. Die Granularität ist wahrscheinlich nahezu infenitesimal, so dass (abgesehen von Saisonbedingten Schwankungen: Black Friday, Back to School, Weihnachten etc) die Verkaufszahlen nahezu konstant sind.

Sieht man ja an Ryzen. Verkauft sich wunderbar. Obwohl alle eigentlich schon durch HSW-E, BDW-E, HSW, SKL, KBL aufgerüstet hätten müssten... ;)

Wobei ich aber vermuten würde, das nach dem launch der Vega auch die Verkaufzahlen der 1080(Ti) anziehen werden.

robbitop
2017-08-01, 14:17:50
Das ist ein Punkt der für mich immer wieder unverständlich ist. AMD hat IGPs nicht erst seit gestern und gerade die sind nun mal grundsätzlich durch die Bandbreite limitiert.

Bei mobilen dGPUs ist es auch schon seit einigen Jahren ein eklatanter Nachteil (Effizienz, Kosten) da praktisch durchgehend breitere Interfaces als bei Nvidia notwendig sind bzw. GDDRx statt DDRx.

Natürlich hat man weniger R&D Kapazitäten aber damit alleine kann es aufgrund der großen Zeitspanne eigentlich nicht begründet werden. Mir kommt es langsam so vor als hätte man darauf gesetzt das Bandbreite durch zukünftige Speichertechnologien weniger kritisch ist.
Die Leistung der IGP ist offenbar gar nicht so extrem marktrelevant. Intel verkauft ihre CPUs mit den kleinen IGPs (die also nicht so schnell sind) sehr sehr gut. AMDs schnelle IGPs waren (wohl wegen schlechterer CPU) wesentlich weniger erfolgreich.

Wo Bandbreite noch wichtiger ist, sind ULP GPUs (also in Tablet/Smartphone SoCs). Dort gehen nahezu alle GPU Hersteller auf Tiling. Dort hat NV einiges gelernt/probiert. Maxwell ist ein Stück weit die Frucht des Exkurses mit der Tegra Sparte.

AMD hat diese Sparte ja sehr frühzeitig an Qualcomm verkauft.

Gipsel
2017-08-01, 14:18:19
Aber aus Erfahrung weiß ich, dass die Dokumentation bei AMD meist stark zu wünschen lässt. Da fehlen oft die Ressourcen.Ähm, die Hardware-Dokus von AMD sind gegenüber nV bald vorbildlich zu nennen. Man weiß z.B. ziemlich genau wie die CUs intern funktionieren, wenn man mit ein wenig Grips mal die dazugehörigen ISA-Manuals (die haben jeweils so ~350-400 Seiten) liest, die es zu jeder Generation seit R600 gibt und direkt die Hardware beschreiben. Sowas habe ich von nV nie gesehen. Nicht mal ansatzweise. Die ganze Geschichte mit dem PTX-Krams (wofür es von nV eine Doku gibt) ist ja nur eine Intermediate Language und nicht wirklich die ISA der Hardware. Das ist im Vergleich völlig undurchsichtig bei nV und man kann höchstens durch ein wenig Reverse Engineering was über die eigentliche Hardware lernen.
Und die Konsolen-Entwickler bekommen auch noch weiter führende Doku an die Hand.

=====================

ich hoffe wirklich das amd nicht so arrogant ist. die mantle geschichte war schon ein witz. anstatt die hardware anzupassen, entwickelt man einen eigenen standard. irgendwie verkehrte welt. das schlimmste aber ist, die user springen noch drauf an und feiern das ganze.Dier ist schon klar, daß das eine oder andere Entwicklerstudio mit der Idee einer low level API praktisch hausieren ging und auch an nV damit herangetreten ist, bis mal jemand (AMD) darauf angesprungen ist? Was Du schreibst klingt nicht überzeugend.
amd soll endlich hardware entwickeln, die out of the box laeuft, ohne proprietaeren mist.Und das klingt nach FUD. Die Karten laufen doch out-of-the-box mit allen gängigen offenen Standards.
von mir aus koennen sie das den treiber machen lassen, alles andere hilft keinem wenn ich dafuer die games anpassen muss.Bestimmte Dinge kann nur das Spiel sinnvoll machen und nicht der Treiber. Ein wenig Hirnschmalz sollten die Entwickler schon noch in ihre Produkte stecken. Ein Treiber ist kein Orakel, was vorhersagen kann, was die Engine eigentlich machen will. ;)

==============================

1. Augenscheinlich benötigt Vega den direkten Support von DX12 Erweiterungen, die nVidia gar nicht unterstützt um seine theoretische Leistung ausspielen zu können.Ähm, daß nV bestimmte Features nicht unterstützt, ist ein Nachteil für die AMD-Karten? Bestimmt haben die Leute damals bei Einführung des Farbfernsehens auch über ihre Farbfernseher geschimpft, weil ja auch die Sender in Farbe senden mußten und nicht automatisch Alles in Farbe ankam! So eine schlechte Technik aber auch! :freak:
Features müssen genutzt werden, damit sie nutzen! Und ein Feature, was nV nicht unterstützt, kann dann auch bei nV nicht förderlich wirken. Der ganze Blödsinn von wegen nV benötige die Features nicht, um optimale Leistung zu erzielen ist ganz offensichtlicher Blödsinn (und FUD).

==============================

In deiner Quelle steht nirgends das AMD DX12 Erweiterungen benötigt welche nVidia nicht besitzt um die theoretische Mehrleistung ausspielen zu können.
FP16/32 wird hier als +15% bringer angepriesen :rolleyes:FP16 funktioniert auch schon mit DX11 (https://msdn.microsoft.com/en-us/library/windows/desktop/ff476124(v=vs.85).aspx#D3D11_FEATURE_SHADER_MIN_PRECISION_SUPPORT). ;)

BigBangBacket
2017-08-01, 14:18:47
Wenn das Produkt A gleichschnell wie Produkt B ist, jedoch gleich teuer oder günstiger, ist es doch kein Nachteil, wenn Produkt A über die Zeit schneller wird.

Tahiti war 2011/12 ähnlich teuer wie GK104 (7970 vs 680). War aber deutlich länger benutzbar. Im Prinzip kann man @1080p selbst heute noch sehr gut mit Tahiti spielen. Tahiti legt sich heute in modernen Games häufig eher mit einer GK110 (GTX780) an.

Sehe ich nicht als Nachteil.

Vega ist anscheinend konkurrenzfähig. Zur 1080. Wenn sie auch nur so viel kostet wie die 1080, ähnlich schnell ist und zukünftig wahrscheinlich schneller wird (und länger benutzbar ist), ist das doch eindeutig ein Vorteil.

Allerdings besteht dieser Vorteil nur für Kunden, die ihre HW lange nutzen. Wenn man alle 18 Monate die GPU aufrüstet, ist der Vorteil natürlich nicht gegeben.

Du musst dabei aber auch mit einberechnen das die 1080 schon seit ca. einem Jahr auf dem Markt ist. Dann effizienter und dadurch besser zu ocen ist.
Dein Beispiel ist eigentlich auch AMDs grösstes Problem. AMD Hardware bleibt im Schnitt viel länger im Rechner. Bedeutet aber auch zwangsläufig das weniger AMD Hardware verkauft wird. Weniger Geld für AMD.
Ich wünsche mir von AMD mal wieder so einen Augenöffner wie damals die 970. Die hat die ausgelutschte GF4 sowas von hinter sich gelassen und NV musste dringendst reagieren und bevor sie das könnten haben sie schon die 980 rausgebracht. Die haben NV vor sich hergetrieben weil sie Hardware für aktuelle Spiele entwickelt haben.
Das hat den Markt damals richtig aufgemischt.

grauenvoll
2017-08-01, 14:25:26
Ähm, die Hardware-Dokus von AMD sind gegenüber nV bald vorbildlich zu nennen. Man weiß z.B. ziemlich genau wie die CUs intern funktionieren, wenn man mit ein wenig Grips mal die dazugehörigen ISA-Manuals (die haben jeweils so ~350-400 Seiten) liest, die es zu jeder Generation seit R600 gibt und direkt die Hardware beschreiben. Sowas habe ich von nV nie gesehen.

Zu Vega habe ich nix gefunden. Die Dokus mag es irgendwann geben...
Vielleicht bin ich auch zu blind.

dargo
2017-08-01, 14:29:46
FP16 funktioniert auch schon mit DX11. ;)
Mist... dann kann es doch noch passieren, dass FC5 nur mit DX11 kommt. :usad:

grauenvoll
2017-08-01, 14:35:17
FP16 funktioniert auch schon mit DX11. ;)

Ist dort aber nur ein kastriertes FP32, die ersten 16Bit werden genutzt.
Wenn ich es richtig verstanden habe, will AMD bei Vega 2 x FP16 in einem FP32 haben. Bedeutet, ich müsste es erst umpacken. Das hört sich nicht effizient an...

Raff
2017-08-01, 14:36:10
Mist... dann kann es doch noch passieren, dass FC5 nur mit DX11 kommt. :usad:

Weiß man denn schon, welche Engine das Spiel nutzt? Wieder so einen Dunia-Frankenstein 6.0? Falls die edle Snowdrop zum Einsatz kommt, können wir hoffen. Open World plus Low Level: Highest Win. ;)

MfG,
Raff

Gipsel
2017-08-01, 14:36:51
Zu Vega habe ich nix gefunden. Die Dokus mag es irgendwann geben...
Vielleicht bin ich auch zu blind.Ist ja auch noch nicht wirklich released. Die Manuals kommen immer etwas nach dem Launch, zumindest öffentlich. Es ist zu vermuten, daß z.B. ID für Wolfenstein 2 die Vega-Doku (bzw. eine Vorabversion davon) schon hat. Und zumindest einen Teil der Änderungen der ISA kennen wir auch bereits öffentlich (es gibt entsprechende Patches mitsamt Kommentaren für Linux, Open Source FTW ;)).

Aber ich sehe, daß Du nicht bestreitest, daß es sowas von nV nicht gibt. ;)

Gipsel
2017-08-01, 14:38:44
Ist dort aber nur ein kastriertes FP32, die ersten 16Bit werden genutzt.
Wenn ich es richtig verstanden habe, will AMD bei Vega 2 x FP16 in einem FP32 haben. Bedeutet, ich müsste es erst umpacken. Das hört sich nicht effizient an...Nein. Das ist schlicht falsch bzw. hast Du es nicht richtig verstanden. Das funktioniert exakt so wie bei DX12. Man kann es vielleicht dem Shadercompiler etwas einfacher machen, es zu packen (durch Verwendung von vec2 Datentypen), nötig ist es aber nicht. Und schon gar nicht muß irgendwas umgepackt werden, was es bei DX12 nicht müßte. Und packed FP16 funktioniert bei den nV-GPUs die es unterstützen übrigens ganz genau so (zwei FP16-Werte stehen in einem FP32-Register). Dummerweise wird bei einigen nV-GPUs (der Mehrzahl der verkauften) packed FP16 allerdings langsamer als skalares ausgeführt. Hier ist es dann Aufgabe des Shadercompilers von nV (und nicht des Entwicklers!) gegebenenfalls das Packen zu verhindern, damit es nicht zu eklatanten Performance-Einbrüchen kommt. Aber für die Benutzung von FP16 (bzw. die Deklaration bestimmter Variablen im Shader als FP16 bzw. mindestens FP16) durch den Entwickler spielt das erstmal keine Rolle. Der muß "nur" die Numerik mal überprüfen, wofür genau FP16 ausreicht, ohne Artefakte zu erzeugen.

X-Bow
2017-08-01, 14:39:26
Oder so....aber trotzdem war das nicht nur ein innovationsloser Shrink.:biggrin:

Zugegeben das hab ich mich schlecht ausgedrückt, gemeint war Kepler->Maxwell(Detailverbesserung)Maxwell->Pascal (shrink)

Ich empfand Maxwell damals aber nicht als "große" Veränderung. Kepler hat die SMX-Cluster eingeführt, bei Maxwell wurde das SMX-Cluster nur in vier Blöcke á 32 Shadereinheiten aufgeteilt was für eine deutlich einfachere Control-Logig sorgte. (Klar gab auch noch weiter Detailverbesserungen aber das war das "größte" an Kepler->Maxwell)
Das ist was ich meinte, Maxwell war eine Weiterentwicklung von Kepler.

cat
2017-08-01, 14:39:41
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a4

Hab zur Verdeutlichung die Daten zur Texturbandbreite in erreichten % in ein Diagramm gehauen.
http://img.techpowerup.org/170801/percentoftexbandwidth.png

Complicated
2017-08-01, 14:44:19
Zu Vega habe ich nix gefunden. Die Dokus mag es irgendwann geben...
Vielleicht bin ich auch zu blind.
Wann wurde denn Vega vorgestellt und ist Vega denn schon offiziell gelaunched? Eine wirklich unlogische Aussage die tatsächlich als FUD gesehen werden kann:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43866-amd-radeon-rx-vega-64-und-56-offiziell-vorgestellt-preise-details-und-mehr.html?start=1
Da AMD die ISA öffentlich macht, können auch Compiler von diesen neuen Instruktionen profitieren und diese anwenden.

Fragman
2017-08-01, 14:55:02
Dier ist schon klar, daß das eine oder andere Entwicklerstudio mit der Idee einer low level API praktisch hausieren ging und auch an nV damit herangetreten ist, bis mal jemand (AMD) darauf angesprungen ist? Was Du schreibst klingt nicht überzeugend.


jup, das ist ein alter hut. nur hatte man ja zwischenzeitlich davon abgesehen.

Grendizer
2017-08-01, 14:57:23
Ähm, daß nV bestimmte Features nicht unterstützt, ist ein Nachteil für die AMD-Karten? Bestimmt haben die Leute damals bei Einführung des Farbfernsehens auch über ihre Farbfernseher geschimpft, weil ja auch die Sender in Farbe senden mußten und nicht automatisch Alles in Farbe ankam! So eine schlechte Technik aber auch! :freak:
Features müssen genutzt werden, damit sie nutzen! Und ein Feature, was nV nicht unterstützt, kann dann auch bei nV nicht förderlich wirken. Der ganze Blödsinn von wegen nV benötige die Features nicht, um optimale Leistung zu erzielen ist ganz offensichtlicher Blödsinn (und FUD).


Das ist doch vollkommen falsch zusammengefaßt.

1 .1070/1080 entwickeln bei vielen Spielen ihre optimale Leistung unter DX 11.
2. DX12 bringt auf 1070/1080 kaum Performancegewinne, eher Verluste.
3. Vega wurde nur unter DX12 gegen die 1080 gebencht und bringt es hier auf teilweise besser minimum fps.
4. Wolfenstein II (ID Tech) bekommt spezielle Optimierungen für die Vega und wird dadurch in DX12 eine bessere Leistung zeigen als ohne diese Features.
5. 1070/1080 unterstützt die für AMD eingesetzten Features nicht und wird deshalb vermutlich langsamer sein

--> VEGA kann unter DX12 bzw. Vulkan bei Nutzung vegaspezifischer Optimierungen durch die Entwickler in zukünftigen Spielen eine deutlich bessere Leistung als eine 1080 in DX12 bringen.


Meine Befürchtungen an dieser Stelle sind :

Die Unterstützung durch die Entwickler wird jetzt zum Launch bis Ende 2017 besonders intensiv sein. Nach 3-5 "optimierten" Spielen, bekommt auch der Veganutzer dann nur wieder DX12 Standardkost, die genau so toll laufen wie aktuelle DX12 Titel und bei denen die 1080 in DX 11 evtl. schneller sein wird.

Daran aber festzumachen, das die Vega in Zukunft besser performen wird halte ich für gewagt.

grauenvoll
2017-08-01, 14:58:26
Aber ich sehe, daß Du nicht bestreitest, daß es sowas von nV nicht gibt. ;)

Warum sollte ich... :wink:

Danke dir erst mal für deine Erläuterungen.

Gipsel
2017-08-01, 14:58:59
jup, das ist ein alter hut. nur hatte man ja zwischenzeitlich davon abgesehen.Zwischenzeitlich? Also erst wollte man es, dann mal kurz nicht und jetzt wieder? :freak:
Einige mögen den Aufwand etwas unterschätzt haben, aber Vulkan und DX12 werden nicht verschwinden sondern im Gegenteil die Zukunft der größeren Engines werden (wenn es nicht schon so ist), die dann von vielen Spielen des Studios oder in Lizenz genutzt werden.

grauenvoll
2017-08-01, 15:03:23
Wann wurde denn Vega vorgestellt und ist Vega denn schon offiziell gelaunched?

Was daran unlogisch? Wenn man die Doku erst später bringt, darf man sich nicht wundern, wenn sich die Features erst 12 oder 18 Monate später in Produkten wiederfindet. Und der Launch so aussieht wie er jetzt aussieht.

captain_drink
2017-08-01, 15:10:08
Gegenfrage: Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Wenn man die Vega FE als Maßstab nimmt, dann bietet die 1080 jedenfalls keine Wundertüte hinsichtlich der Leistungsbandbreite, welche mal unterhalb einer 1070 und mal oberhalb einer 1080 OC liegt.
Gerade wer das Pech hat, hauptsächlich ein Spiel zu spielen, das nicht oder nur unzureichend auf Vega optimiert ist, ist gelackmeiert. (Umgekehrt könnte man natürlich auch das Glück haben, dass das eigene Lieblingsspiel sehr gut auf Vega skaliert.)

Gipsel
2017-08-01, 15:26:42
Das ist doch vollkommen falsch zusammengefaßt.Nö, sehe ich anders.
1 .1070/1080 entwickeln bei vielen Spielen ihre optimale Leistung unter DX 11.Der Satz ergibt wie erläutert keinen Sinn. Sie könnten aber noch mehr leisten, wenn sie einige Sachen mehr könnten. Alternativ erreichen auch AMD-GPUs ihre "optimale" Leistung (unter den gegebeben Umständen, also den ausgeführten Code) ;).
2. DX12 bringt auf 1070/1080 kaum Performancegewinne, eher Verluste.Das ist so allgemein formuliert schlicht falsch. Unter den richtigen Umständen und mit dem richtigen Code bringt es auch bei nV etwas. Hier schadet sich nV tendentiell auch etwas selber, da die Hardware bei nV ziemlich intransparent und wenig dokumentiert ist (und dann gegebenenfalls anders reagiert als der Entwickler erwartet).
4. Wolfenstein II (ID Tech) bekommt spezielle Optimierungen für die Vega und wird dadurch in DX12 eine bessere Leistung zeigen als ohne diese Features.
Würde nV auch schnelles FP16 unterstützen (eins der angekündigten Dinge), würden auch sie davon profitieren. Und auch wie auch bei Doom kann AMD hier damit punkten, daß sie ihre Hardware-ISA (anders als nV) öffentlich machen, so daß man eben Dinge besser auf diese Hardware zuschneiden kann (und GCN ist immer noch eine in meinen Augen gut durchdachte ISA, meine Statements dazu von vor dem Start von Tahiti gelten auch heute noch).
5. 1070/1080 unterstützt die für AMD eingesetzten Features nicht und wird deshalb vermutlich langsamer seinDann ist es wohl eher ein Problem, daß Consumer-Pascal keine schnelles FP16 kann, denn das soll ja bei Wolfenstein 2 zum Einsatz kommen. Ich sehe jetzt nicht, wie das ein Nachteil für AMD sein sollte (genauso wie seitens nV fehlender Support von anderen nützlichen Funktionen über Shader-Intrinsics oder der nicht existenten Möglichkeit, eine höhere Auslastung der Einheiten über gleichzeitige Ausführung von Grafik- und Compute-Shadern auf dem gleichen SM zu erreichen).
--> VEGA kann unter DX12 bzw. Vulkan bei Nutzung vegaspezifischer Optimierungen durch die Entwickler in zukünftigen Spielen eine deutlich bessere Leistung als eine 1080 in DX12 bringen.Damit sind wir wieder beim Farbfernseher, der nur was bringt, wenn auch in Farbe gesendet wird. ;)
Böte nV entsprechenden Support, würden die auch von der Nutzung dieser Features profitieren. Das sind oft keine wirklich "vegaspezifischen" Features, es sind einfach nützliche Features.
Meine Befürchtungen an dieser Stelle sind :

Die Unterstützung durch die Entwickler wird jetzt zum Launch bis Ende 2017 besonders intensiv sein. Nach 3-5 "optimierten" Spielen, bekommt auch der Veganutzer dann nur wieder DX12 Standardkost, die genau so toll laufen wie aktuelle DX12 Titel und bei denen die 1080 in DX 11 evtl. schneller sein wird.FP16-Support wird langsam aber sicher kommen. Zum einen kann es ein Teil der Konsolen (auch z.B. die Switch ;)) und andererseits auch die meisten Mobilgeräte. Und Consumer-Volta könnte nachziehen. Also den Vorteil (variabel je nach Situation und Spiel) wird Vega gegenüber Pascal auf jeden Fall haben.
Daran aber festzumachen, das die Vega in Zukunft besser performen wird halte ich für gewagt.Es sind ja offenbar noch ein paar Dinge in Vega eher noch so im Betazustand, bei dem sich eventuell zukünftig ebenfalls mehr tun dürfte. Das Potential ist einfach größer als bei Pascal.

Gipsel
2017-08-01, 15:28:24
Was daran unlogisch? Wenn man die Doku erst später bringt, darf man sich nicht wundern, wenn sich die Features erst 12 oder 18 Monate später in Produkten wiederfindet. Und der Launch so aussieht wie er jetzt aussieht.Vega ändert ja nicht grundlegend was an den CUs. Daß packed FP16 kommt, weiß man schon lange und konnte ebenso lange schon seine Shader darauf abklopfen, ob es irgendwo was bringt. Und um das zu implementieren, benötigt man kein Doku. Die benötigt man für tiefergreifende Sachen.

Fragman
2017-08-01, 15:29:04
Zwischenzeitlich? Also erst wollte man es, dann mal kurz nicht und jetzt wieder? :freak:
Einige mögen den Aufwand etwas unterschätzt haben, aber Vulkan und DX12 werden nicht verschwinden sondern im Gegenteil die Zukunft der größeren Engines werden (wenn es nicht schon so ist), die dann von vielen Spielen des Studios oder in Lizenz genutzt werden.



wir hatten sie frueher, dann hiess es mal, das man sie nicht mehr braucht, dank ogl oder vor allem dx. nun hatt man sie wieder herausgeholt.

robbitop
2017-08-01, 15:39:38
Du musst dabei aber auch mit einberechnen das die 1080 schon seit ca. einem Jahr auf dem Markt ist. Dann effizienter und dadurch besser zu ocen ist.
Dein Beispiel ist eigentlich auch AMDs grösstes Problem. AMD Hardware bleibt im Schnitt viel länger im Rechner. Bedeutet aber auch zwangsläufig das weniger AMD Hardware verkauft wird. Weniger Geld für AMD.
Ich wünsche mir von AMD mal wieder so einen Augenöffner wie damals die 970. Die hat die ausgelutschte GF4 sowas von hinter sich gelassen und NV musste dringendst reagieren und bevor sie das könnten haben sie schon die 980 rausgebracht. Die haben NV vor sich hergetrieben weil sie Hardware für aktuelle Spiele entwickelt haben.
Das hat den Markt damals richtig aufgemischt.
Einen zweiten R300 (der u.A. so stark erscheint, weil NV3x so ein Reinfall war) kann es IMO nicht mehr geben. Dafür ist NV viel zu erfahren und zu mittlerweile zu professionell und straff organisiert. Gleiches gilt für einen zweiten K8 (der vor allem wegen P4 so gut aussah).

Mit AMDs Ressourcen kann aber ein guter zweiter Platz erreicht werden. Siehe Ryzen. Ggf. zu einem besseren Preis. Dazu muss man aber noch IMO die Kostentreiber in den Griff kriegen (Bandbreiteneffizienz, so dass man schmalere/günstigere SIs verbauen kann / Auslastung der ALUs, so dass man nicht mehr Transistoren für gleiche Leistung braucht). Das ist mMn mittelfristig nicht unrealistisch.

Mist... dann kann es doch noch passieren, dass FC5 nur mit DX11 kommt. :usad:
Bereits FC1 (DX9) hatte für NV35 einen Renderpfad mit partieller Genauigkeit (FP16). :)
Für NV30 gab es sogar einen Renderpfad mit INT12. Für alle anderen Karten FP24 (volle Genauigkeit gem. DX9).

Pirx
2017-08-01, 15:43:30
wir hatten sie frueher, dann hiess es mal, das man sie nicht mehr braucht, dank ogl oder vor allem dx. nun hatt man sie wieder herausgeholt.
Beispiel für das, was wir früher hatten?

BlacKi
2017-08-01, 15:44:44
1 .1070/1080 entwickeln bei vielen Spielen ihre optimale Leistung unter DX 11.
2. DX12 bringt auf 1070/1080 kaum Performancegewinne, eher Verluste.


Der Satz ergibt wie erläutert keinen Sinn. Sie könnten aber noch mehr leisten, wenn sie einige Sachen mehr könnten. Alternativ erreichen auch AMD-GPUs ihre "optimale" Leistung (unter den gegebeben Umständen, also den ausgeführten Code) ;).
Das ist so allgemein formuliert schlicht falsch. Unter den richtigen Umständen und mit dem richtigen Code bringt es auch bei nV etwas.
gipsel, es tut mir leid, aber er spricht davon wie die hw und software von NV nun eben jetzt aussieht und du wie es sein könnte. und da hat er einfach recht.

so allgemein formuliert ist es eben richtig, derzeit. nur sollte man das vl nicht so allgemein sehen. viele werden in ein paar monaten auf volta wechseln, dann können wir weiter sehen ewas die spiele in der nahen zukunft bringen. über pascal will ich weder jetzt noch hier oder überhaupt über die unterstützung und featureset der neuen api´s reden.

derzeit sieht es aber grob umrissen aber so aus, wie er es formuliert hat.

robbitop
2017-08-01, 15:45:18
Zwischenzeitlich? Also erst wollte man es, dann mal kurz nicht und jetzt wieder? :freak:
Einige mögen den Aufwand etwas unterschätzt haben, aber Vulkan und DX12 werden nicht verschwinden sondern im Gegenteil die Zukunft der größeren Engines werden (wenn es nicht schon so ist), die dann von vielen Spielen des Studios oder in Lizenz genutzt werden.
Wobei man konstatieren muss, dass die reine Nutzung einer LL API keine Verbesserung der Auslastung der Recheneinheiten garantiert. :)
Das liegt schon in der Hand des Entwicklers. - mir ist klar, dass du das weißt - wollte es aber für die Gesamtheit nochmal klarstellen.

dargo
2017-08-01, 15:47:35
Mit AMDs Ressourcen kann aber ein guter zweiter Platz erreicht werden. Siehe Ryzen. Ggf. zu einem besseren Preis. Dazu muss man aber noch IMO die Kostentreiber in den Griff kriegen (Bandbreiteneffizienz, so dass man schmalere/günstigere SIs verbauen kann / Auslastung der ALUs, so dass man nicht mehr Transistoren für gleiche Leistung braucht). Das ist mMn mittelfristig nicht unrealistisch.

Ich lese da bei dir immer Hardwarevorteile bei NV. Ich sehe das etwas anders. Gleiches gilt für die Effizienz. Effizienz ist immer das Ergebnis aus Perf/Watt. Und hier spielt die Software (völlig egal ob auf Treiber-/ API-/ oder Anwendungsebene) eine extrem entscheidende Rolle. Ich würde zu gerne Pascal vs. Polaris/Vega in einer Konsolenumgebung sehen. Erst dann hätte man einen verlässlichen Effizienzvergleich.

Troyan
2017-08-01, 15:50:20
Vega liegt doch voll im Niemandsland der Grafikkarten. Für ältere Spiele wird die Leistung nicht reichen und moderne Techniken wie Tessellation bleiben weiterhin der Genickbruch.
Zukünftige Spiele müssen massiv optimiert werden und selbst dann weiß man nicht, ob der Konkurrent in 6 Monaten besseres zu ähnlichen Preisen liefert.

Vega fehlen einfach die letzten 12 Monate. Da stellt sich wirklich die Frage, wieso man jetzt zuschlagen sollte. Ein starker Volta bringt auch die Vega-Preise zum Fallen. Und wenn Volta kommt, gibt es auch schon die ersten Vega-optimierten Spiele, die heute und in den nächsten 6 Monaten kaum existieren...

Menace
2017-08-01, 15:57:09
Für ältere Spiele wird die Leistung nicht reichen und moderne Techniken wie Tessellation bleiben weiterhin der Genickbruch.


Bei welchen vernünftigen Tessellationeinstellungen, die sich diesseits von esoterischen Wahrnehmungsempfindungen bewegen, bricht sich Vega das Genick? :confused:

Bitte mit Vergleichsbildern und FPS-Angaben. Und wieso übersehe ich immer die wichtigen Tests?

dargo
2017-08-01, 16:00:48
Bei welchen vernünftigen Tessellationeinstellungen, die sich diesseits von esoterischen Wahrnehmungsempfindungen bewegen, bricht sich Vega das Genick? :confused:

Der labert nur wieder dummes Zeug. Schon bei Polaris wurde die Tess. Leistung ordentlich gesteigert. Vega hat schon alleine durch den höheren Takt noch mehr Durchsatz. Und dank den Konsolen spielt Tessellation selbst heute noch eine unbedeutende Rolle, zumindest was extrem hohe Faktoren angeht.

X-Bow
2017-08-01, 16:02:45
Vega liegt doch voll im Niemandsland der Grafikkarten. Für ältere Spiele wird die Leistung nicht reichen und moderne Techniken wie Tessellation bleiben weiterhin der Genickbruch.
Zukünftige Spiele müssen massiv optimiert werden und selbst dann weiß man nicht, ob der Konkurrent in 6 Monaten besseres zu ähnlichen Preisen liefert.

Vega fehlen einfach die letzten 12 Monate. Da stellt sich wirklich die Frage, wieso man jetzt zuschlagen sollte. Ein starker Volta bringt auch die Vega-Preise zum Fallen. Und wenn Volta kommt, gibt es auch schon die ersten Vega-optimierten Spiele, die heute und in den nächsten 6 Monaten kaum existieren...

Mach mal die Augen auf^^ Für jedes Spiel für das eine GTX1080 reicht wird auch eine Vega reichen. Und in zwei Jahren wird das immer noch so sein, umgekehrt bin ich mir aber nicht so sicher :rolleyes:

Gipsel
2017-08-01, 16:08:09
gipsel, es tut mir leid, aber er spricht davon wie die hw und software von NV nun eben jetzt aussieht und du wie es sein könnte. und da hat er einfach recht.Nein. Das scheitert allein schon daran, daß er und Du gar nicht definieren könnt, was "optimale Leistung unter DX11" überhaupt sein soll.
Wenn man schreibt, daß AMD z.B. Async Compute benötigt, um die optimale Leistung zu erreichen, der versteht nicht, daß bei identischem Maßstab dann entweder nV seine optimale Leistung nie erreichen kann (weil nV Compute und Grafik nicht auf dem gleichen SM mixen kann, also die Hardware AC nicht auf dem gleichen Level ausführen kann) oder eben AMD-GPUs auch ohne AC ihre "optimale Leistung" unter den gegebenen Umständen (also ohne AC) erreichen. Oder anders: Die Aussage ist schlicht sinnlos.
Richtig ist: AC ist ein Feature, was sich harmonisch ins Feature-Set der GPUs bzw. APIs einfügt und womit sich bei richtiger Nutzung die Leistung steigern läßt. Es ist aber bei nV-Hardware nur halbherzig umgesetzt und deswegen bringt es je nach Situation weniger bis gar nichts im Vergleich zu AMD.
so allgemein formuliert ist es eben richtig, derzeit.Also ist es sogar laut Dir so allgemein formuliert nicht richtig. ;)

Grendizer
2017-08-01, 16:14:14
Nein. Das scheitert allein schon daran, daß er und Du gar nicht definieren könnt, was "optimale Leistung unter DX11" überhaupt sein soll.
...)

1. 1070/1080 erreichen momentan überwiegend unter DX11 ihre höchsten FPS Zahlen.
2. Unter DX12 gewinnen 1070/1080 keine FPS dazu, verlieren meistens sogar

:rolleyes:

Complicated
2017-08-01, 16:14:51
Was daran unlogisch? Wenn man die Doku erst später bringt, darf man sich nicht wundern, wenn sich die Features erst 12 oder 18 Monate später in Produkten wiederfindet. Und der Launch so aussieht wie er jetzt aussieht.
Unlogisch ist deine Argumentation, dass Entwickler erst Zugriff auf eine ISA-Dokumentation haben wenn diese auch öffentlich verfügbar ist und hier verlinkt werden kann. Unlogisch ist auch dein Argument, dass die ISA nicht vor dem offiziellen Launch von DIR eingesehen werden kann und daher von niemandem eingesehen werden kann und somit Entwickler erst 12 bis 18 Monate nachdem du die ISA kennst die Features implementieren können.

Gipsel
2017-08-01, 16:16:15
Bereits FC1 (DX9) hatte für NV35 einen Renderpfad mit partieller Genauigkeit (FP16). :)
Für NV30 gab es sogar einen Renderpfad mit INT12. Für alle anderen Karten FP24 (volle Genauigkeit gem. DX9).Das ist doch Steinzeit! ;)
Unter DX10 (und DX11.0) gab es aber nur noch FP32. Alle fp16 Deklarationen wurden auf FP32 umgebogen, sagt die DX -Doku. Erst mit 11.1 wurde das dann wieder eingeführt.

Troyan
2017-08-01, 16:18:36
Mach mal die Augen auf^^ Für jedes Spiel für das eine GTX1080 reicht wird auch eine Vega reichen. Und in zwei Jahren wird das immer noch so sein, umgekehrt bin ich mir aber nicht so sicher :rolleyes:

Darum geht es nicht. Vega kommt heute. Vega benötigt für heutige und gestrige Spiele mehr Strom für die selbe Leistung. Vega ist erst besser, wenn morgige Spiele erscheinen. Aber zu dem Zeitpunkt gibt es dann auch wieder bessere Hardware von nVidia (und AMD).

Das ganze ist vergleichbar mit Kepler und Hawaii. Als Hawaii davon zog, kam Maxwell und die Preise auf AMD-Seite sind massiv gefallen.

Und der zeitliche Abstand hier ist noch größer: 15 Monate zwischen GTX1080 und RX Vega.

Wer mit dem Kauf von Vega wartet, bekommt in 6-8 Monate die Karten zu deutlich günstigeren Preisen. Der Wertverlust wird massiv sein, da Vega aufgrund seiner "Time-To-Market" Positionierung viel näher an Volta liegt als an Pascal.

Gipsel
2017-08-01, 16:19:41
1. 1070/1080 erreichen momentan überwiegend unter DX11 ihre höchsten FPS Zahlen.
2. Unter DX12 gewinnen 1070/1080 keine FPS dazu, verlieren meistens sogar

:rolleyes:Du meinst also, weil die DX12-Variante eventuell mittelprächtig umgesetzt ist (und nV da teilweise auch noch komische Sachen im Treiber macht, wie teilweise deutliche Veränderungen unter DX12 mit Treiberupdates zeigen), ergibt das "optimale Leistung unter DX11"? Sorry, das paßt logisch nicht zusammen.

BlacKi
2017-08-01, 16:19:51
@gipsel: nein, du deutest etwas in seine worte rein, was er nicht beabsichtigte. für ihn, für die allgemeinheit, ist das wort optimal schon ausreichend, wenn es den bedürfnissen voll entspricht. bei dir, wenn alle möglichkeiten die performance zu steigern ausgenutzt werden.

ich benötige kein AC für eine optimale spiele leistung.

Gipsel
2017-08-01, 16:24:22
@gipsel: nein, du deutest etwas in seine worte rein, was er nicht beabsichtigte. für ihn, für die allgemeinheit, ist das wort optimal schon ausreichend, wenn es den bedürfnissen voll entspricht. bei dir, wenn alle möglichkeiten die performance zu steigern ausgenutzt werden.Nicht unbedingt. Ich habe aufgezeigt, daß die Aussage sinnfrei ist, egal wie man sie interpretiert.
ich benötige kein AC für eine optimale spiele leistung.Wenn Du "optimal" als "schon ausreichend"/"den Bedürfnissen voll entspricht" definierst, brauchst Du das bei AMD auch nicht. Aber kann eine GPU schnell genug sein? :rolleyes:
Wie gesagt: sinnfrei.

X-Bow
2017-08-01, 16:25:38
Darum geht es nicht. Vega kommt heute. Vega benötigt für heutige und gestrige Spiele mehr Strom für die selbe Leistung. Vega ist erst besser, wenn morgige Spiele erscheinen. Aber zu dem Zeitpunkt gibt es dann auch wieder bessere Hardware von nVidia (und AMD).

Das ganze ist vergleichbar mit Kepler und Hawaii. Als Hawaii davon zog, kam Maxwell und die Preise auf AMD-Seite sind massiv gefallen.

Und der zeitliche Abstand hier ist noch größer: 15 Monate zwischen GTX1080 und RX Vega.

Wer mit dem Kauf von Vega wartet, bekommt in 6-8 Monate die Karten zu deutlich günstigeren Preisen. Der Wertverlust wird massiv sein, da Vega aufgrund seiner "Time-To-Market" Positionierung viel näher an Volta liegt als an Pascal.

Ja und nun? Deswegen kann Vega trotzdem alle Spiele auf den Bildschirmabbilden. Und das mit ausreichender Geschwindigkeit.

Stell dir mal vor, als die 1080ti raus kam ist die 1080 auch im Preis gefallen. Das ist der lauf der Dinge das neues billiger wird wenn es alt wird* ;D

*wenn nicht sonstiges wie Minig-Hype oder sonstige Katastrophen die Verfügbarkeit beeinträchtigen

robbitop
2017-08-01, 16:26:59
Ich lese da bei dir immer Hardwarevorteile bei NV. Ich sehe das etwas anders. Gleiches gilt für die Effizienz. Effizienz ist immer das Ergebnis aus Perf/Watt. Und hier spielt die Software (völlig egal ob auf Treiber-/ API-/ oder Anwendungsebene) eine extrem entscheidende Rolle. Ich würde zu gerne Pascal vs. Polaris/Vega in einer Konsolenumgebung sehen. Erst dann hätte man einen verlässlichen Effizienzvergleich.
Ich meine natürlich Effizienz auf dem PC (da die Grafikkarten PC Produkte sind) im geometrischen Durchschnitt der aktuellen Spiele.

Würde in allen Spielen so vorbildlich optimiert werden, wie id es tut, wäre die Situation sicherlich etwas anders.

NVs Hard- und Software sorgt für höhere Auslastung der Recheneinheiten ohne all zu sehr vom Entwickler abhängig zu sein. Und das bringt ihnen die Loorberen. Es wird sicherlich immer ein gemischtes Bild sein, wie gut welcher Entwickler für welche HW optimiert. Besser wäre es für PC Grafikkarten, wenn man hier ein wenig unabhängiger würde.

Von Hand optimiert ist GCN sehr gut/sehr schnell. Seit Vega und ihrem DSBR offenbar auch schon besser in der Bandbreiteneffizienz (wenn das Spiel gut dazu passt anscheinend - war es nicht BF1, was hier sehr gut passte?).

Grendizer
2017-08-01, 16:27:35
Du meinst also, weil die DX12-Variante eventuell mittelprächtig umgesetzt ist (und nV da teilweise auch noch komische Sachen im Treiber macht, wie teilweise deutliche Veränderungen unter DX12 mit Treiberupdates zeigen), ergibt das "optimale Leistung unter DX11"? Sorry, das paßt logisch nicht zusammen.


Im Ergebnis sind halt gute min. und avg. FPS das Ziel... wenn die nunmal bei der 1070/1080 im DX11 Renderer ereicht werden, paßt das für DICH vieleicht logisch nicht zusammen, für MICH und vermutlich auch einige andere, würden bestimmt die Aussage unterstützen, das die Karten unter DX11 besser performen (bzw. mehr FPS liefern) als unter DX12. Ich kann nicht nachvollziehen, was daran nicht logisch ist.

Pirx
2017-08-01, 16:28:45
... Als Hawaii davon zog,..
legte sich der vorbildliche Kepler-User natürlich umgehend Maxwell zu und war wieder obenauf, außer im Portemonnaie...:lol:

Gipsel
2017-08-01, 16:30:26
Darum geht es nicht. Vega kommt heute. Vega benötigt für heutige und gestrige Spiele mehr Strom für die selbe Leistung. Vega ist erst besser, wenn morgige Spiele erscheinen. Aber zu dem Zeitpunkt gibt es dann auch wieder bessere Hardware von nVidia (und AMD).Die Frage ging darum, welche Gründe für und gegen Vega (im Vergleich zu Pascal) sprechen können.

Pro:
- vergleichbare Performance(?, gibt ja noch keine unabhängigen Tests) zur GTX1080 zu vermutlich etwas niedrigerem Preis
- FreeSync
- größerer Feature-Support
- potentielle Performancesteigerungen in der Zukunft

Con:
- schlechtere Energieeffizienz

Der Rest ist irrelevant. Willst Du etwas zur Liste hinzufügen?

robbitop
2017-08-01, 16:31:16
Richtig ist: AC ist ein Feature, was sich harmonisch ins Feature-Set der GPUs bzw. APIs einfügt und womit sich bei richtiger Nutzung die Leistung steigern läßt.
Wobei anzunehmen ist, dass AC für eine GPU A, die bei gleichem Code eine geringere Auslastung der Ausführungseinheiten hat als GPU B, AC wahrscheinlich eine größere Steigerung der Leistung bringen wird, oder?

Ein wenig wie SMT. (In-Order Atom mArch oder die extrem breite Execution vom Power8 sind von Haus aus nicht besonders gut ausgelastet bei typischem, nicht syntetischen Code. SMT holt hier deutlich höhere Steigerungen heraus als bei bspw einem Core i7, dessen Execution von Haus aus besser ausgelastet ist)

Grendizer
2017-08-01, 16:32:47
Die Frage ging darum, welche Gründe für und gegen Vega (im Vergleich zu Pascal) sprechen können.

Pro:
- vergleichbare Performance(?, gibt ja noch keine unabhängigen Tests) zur GTX1080 zu vermutlich etwas niedrigerem Preis
-

Das ist noch zu beweisen, weil wir nur DX12 Tests gesehen haben, ich sage, das in "echten" Tests, wo auch gegen DX 11 getestet wird durchaus ganz andere Ergebnisse rauskommen könnten.

dargo
2017-08-01, 16:35:29
Das ist doch Steinzeit! ;)
Unter DX10 (und DX11.0) gab es aber nur noch FP32. Alle fp16 Deklarationen wurden auf FP32 umgebogen, sagt die DX -Doku. Erst mit 11.1 wurde das dann wieder eingeführt.
Moment mal... jetzt wirds wieder interessant. FP16 geht also nur ab DX11.1, ergo min. Windows 8.x? Verstehe ich dich hier richtig?

X-Bow
2017-08-01, 16:36:20
Im Ergebnis sind halt gute min. und avg. FPS das Ziel... wenn die nunmal bei der 1070/1080 im DX11 Renderer ereicht werden, paßt das für DICH vieleicht logisch nicht zusammen, für MICH und vermutlich auch einige andere, würden bestimmt die Aussage unterstützen, das die Karten unter DX11 besser performen (bzw. mehr FPS liefern) als unter DX12. Ich kann nicht nachvollziehen, was daran nicht logisch ist.

Das bestreitet auch keiner das nV in DX11 mehr FPS als DX12 hervor bringt (zum jetzigen Stand wobei vor gut einem Jahr war der Abstand deutlich größer), aber das heißt zum einen nicht das nV in DX11 "optimal" läuft und auch nicht das deswegen DX11 für immer bestand haben wird/muss. Das heißt auch nicht das Vega deswegen in DX11 deutlich schlechter performen muss.

Das einzige was nicht logisch ist was die nV DX11 Performance im Vega Speku Thread verloren hat:freak:

Gipsel
2017-08-01, 16:36:29
Wobei anzunehmen ist, dass AC für eine GPU A, die bei gleichem Code eine geringere Auslastung der Ausführungseinheiten hat als GPU B, AC wahrscheinlich eine größere Steigerung der Leistung bringen wird, oder?

Ein wenig wie SMT. (In-Order Atom mArch oder die extrem breite Execution vom Power8 sind von Haus aus nicht besonders gut ausgelastet bei typischem, nicht syntetischen Code. SMT holt hier deutlich höhere Steigerungen heraus als bei bspw einem Core i7, dessen Execution von Haus aus besser ausgelastet ist)Na klar hängt es von Details der GPUs ab, wie viel es im Einzelfall bringt. Aber daß es auch etwas bei nV bringen würde, kann kaum jemand bestreiten. Dann sind es in irgend einem Tests halt z.B. nur 8% statt 11% oder sowas. Das ändert aber an dem Punkt nichts. Und wer sagt überhaupt, daß es bei nV wirklich immer weniger bringen würde?

===============================

Moment mal... jetzt wirds wieder interessant. FP16 geht also nur ab DX11.1, ergo min. Windows 8.x? Verstehe ich dich hier richtig?Ja.
Oder halt eine andere API (Vulkan).

===============================

- vergleichbare Performance(?, gibt ja noch keine unabhängigen Tests) zur GTX1080
Das ist noch zu beweisen, weil wir nur DX12 Tests gesehen haben, ich sage, das in "echten" Tests, wo auch gegen DX 11 getestet wird durchaus ganz andere Ergebnisse rauskommen könnten.Das Fragezeichen an dem Punkt und den Hinweis auf noch fehlende Tests hast Du sicher nicht überlesen. ;)

dargo
2017-08-01, 16:38:38
Wer mit dem Kauf von Vega wartet, bekommt in 6-8 Monate die Karten zu deutlich günstigeren Preisen. Der Wertverlust wird massiv sein, da Vega aufgrund seiner "Time-To-Market" Positionierung viel näher an Volta liegt als an Pascal.
Wird der Wertverlust einer 399$ verspäteten Vega 56 oder einer 499$ Vega 64 kleiner oder größer als bei einer 1299$ Titan XP sein? :uponder:

Ja.
Danke.

Damit einen schönen Gruß an die Windows 10 Hater. :P Wenn man sich nämlich die Steam Hardware Statistik anschaut ist Windows 8.x quasi tot. Ergo kein FP16 ohne Windows 10, jedenfalls bei DirectX. Und jetzt habe ich wieder Hoffnung auf low level bei Farcry 5. DX11.1 wurde nämlich bisher in keinem Ubisoft Titel meinem Kenntnisstand nach verwendet. Eigentlich verwendet es niemand außer DICE oder?

Grendizer
2017-08-01, 16:40:39
Das bestreitet auch keiner das nV in DX11 mehr FPS als DX12 hervor bringt (zum jetzigen Stand wobei vor gut einem Jahr war der Abstand deutlich größer), aber das heißt zum einen nicht das nV in DX11 "optimal" läuft und auch nicht das deswegen DX11 für immer bestand haben wird/muss. Das heißt auch nicht das Vega deswegen in DX11 deutlich schlechter performen muss.

Das einzige was nicht logisch ist was die nV DX11 Performance im Vega Speku Thread verloren hat:freak:


Ging ja ursprünglich um die Performanceeinschätzung der Vega auf Grundlage von reinen DX12 Tests im Vergleich zur 1080.

robbitop
2017-08-01, 16:41:22
Na klar hängt es von Details der GPUs ab, wie viel es im Einzelfall bringt. Aber daß es auch etwas bei nV bringen würde, kann kaum jemand bestreiten. Dann sind es in irgend einem Tests halt z.B. nur 8% statt 11% oder sowas. Das ändert aber an dem Punkt nichts. Und wer sagt überhaupt, daß es bei nV wirklich immer weniger bringen würde?

Ich denke auch, dass es etwas bringen würde. Nur würde ich erwarten, dass es bei aktuellen AMD GPUs aufgrund der geringen Auslastung mehr bringen würde als bei einer NV GPU (wenn sie AC sinnvoll umgesetzt hätten), weil deren Grundauslastung bereits höher ist.

In jedem Fall profitiert man davon. So sehe ich das auch.


Damit einen schönen Gruß an die Windows 10 Hater. :P
Wie kann man denn Windows 10 hassen? Win 8.x verstehe ich ja noch. :)

X-Bow
2017-08-01, 16:42:39
@Grendizer: Mir ist klar warum es Ursprünglich geht, das war nur ein Wink das es eben nicht mehr darum geht und somit es OT geworden ist ;-)

BlacKi
2017-08-01, 16:42:44
Wird der Wertverlust einer 399$ verspäteten Vega 56 oder einer 499$ Vega 64 kleiner oder größer als bei einer 1299$ Titan XP sein? :uponder:
pro monat gerechnet?

ansonsten, made my day!:biggrin:

grauenvoll
2017-08-01, 16:44:36
Ging ja ursprünglich um die Performanceeinschätzung der Vega auf Grundlage von reinen DX12 Tests im Vergleich zur 1080.

Ich sehe Vega auch kritisch, aber dein DX11-Untergangsszenario teile ich nicht. Je höher die Auflösung, desto geringer die Unterschiede zwischen DX11/12. Wer Vega oder eine 1080 mit 720p fährt, dem kann man auch nicht helfen.

Korvaun
2017-08-01, 16:46:33
Wird der Wertverlust einer 399$ verspäteten Vega 56 kleiner oder größer als bei einer 1299$ Titan XP sein? :uponder:

Wenn schon dann:

Wird der Wertverlust einer GTX1070 kleiner oder größer sein als bei einer Vega56. Und wer hat den höheren nicht messbaren Mehrwert einer schon über 1 Jahr vorhandenen&jeden Tag erfahrbaren sehr ordentlichen Performance, wenn man mal davon ausgeht das zukünftige Vega56-User aktuell eher Kepler/Maxwell oder 390/X/Fiji-User sind?

dargo
2017-08-01, 16:54:31
Wie kann man denn Windows 10 hassen? Win 8.x verstehe ich ja noch. :)
Och... gibt ja immer wieder Einzelfälle. Schau dich einfach hier im Forum um. Von wegen Überwachung und so. Ich hoffe auch, dass diese Hater weder ein Smartphone noch Kreditkarte etc. nutzen ansonsten kann ich sowas nicht erst nehmen. Ich mag Windows 10 sehr. Was ich allerdings hasse ist UWP, zumindest im aktuellen Zustand.

Screemer
2017-08-01, 16:54:44
Wenn schon dann:

Wird der Wertverlust einer GTX1070 kleiner oder größer sein als bei einer Vega56. Und wer hat den höheren nicht messbaren Mehrwert einer schon über 1 Jahr vorhandenen&jeden Tag erfahrbaren sehr ordentlichen Performance, wenn man mal davon ausgeht das zukünftige Vega56-User aktuell eher Kepler/Maxwell oder 390/X/Fiji-User sind?
das geht doch voll an der aussage troyans vorbei. der ja meinte man solle halt noch 1/2-3/4 Jahr auf volta warten und dann evtl. vega kaufen, denn dann sind die ja billiger :ugly:

Troyan
2017-08-01, 16:58:55
Und genau das ist die richtige Entscheidung. RX Vega wird für heutige und gestrige Spiele mehr Nachteile aufweisen - Stromkosten, Netzteil, Kühlung etc. Die selben Probleme existieren auch in 6 Monaten, aber der Preis wird deutlich unter den von heute liegen, wenn die Konkurrenz ihre 15 Monate alte Architektur ersetzt.

dargo
2017-08-01, 17:00:24
Und genau das ist die richtige Entscheidung. RX Vega wird für heutige und gestrige Spiele mehr Nachteile aufweisen - Stromkosten, Netzteil, Kühlung etc.
Das gleiche Problem hat auch ein GP102, in Einzelfällen auch bis zur Kotzgrenze geprügelte GP104 Customs.

BlacKi
2017-08-01, 17:04:02
er will darauf hinaus, das wenn man jetzt kaufen möchte, so oder so von dem wertverfall in kurzer zeit betroffen sein wird. da hat er recht.

Grendizer
2017-08-01, 17:04:29
Ich sehe Vega auch kritisch, aber dein DX11-Untergangsszenario teile ich nicht. Je höher die Auflösung, desto geringer die Unterschiede zwischen DX11/12. Wer Vega oder eine 1080 mit 720p fährt, dem kann man auch nicht helfen.

BF1 DX11 50 fps DX12 44 fps bei 3840x2160, wobei BF1 wohl auch einen ausbaufähigen DX12 Renderer hatte und ich nicht weiss, ob das aktuell immer noch so ist. Deshalb kann die Performance der Vega zum aktuellen Vergleichstand sich noch etwas anders einsortieren.

ecodriver
2017-08-01, 17:10:44
Ich bin der Meinung das wir die Testberichte abwarten müssen um die Leistung beurteilen zu können.
Es ist noch nicht einmal klar mit welcher Vega die Performance Test gemacht worden sind.
Ich kann mich auch nicht erinnern wann ich auf Folien so oft von unfertigen Treibern gelesen hatte.

Nüchtern betrachtet war eine Performace um die 1080 erwartet worden und die wird wohl auch geliefert. Das ist meiner Meinung nach für einen Chip der alles abdecken soll verdammt gut.
Er muss sich immerhin mit einem Spezialchip für Gamer messen das sollte man nicht vergessen.

Gipsel
2017-08-01, 17:11:50
Wird der Wertverlust einer GTX1070 kleiner oder größer sein als bei einer Vega56. Und wer hat den höheren nicht messbaren Mehrwert einer schon über 1 Jahr vorhandenen&jeden Tag erfahrbaren sehr ordentlichen Performance, wenn man mal davon ausgeht das zukünftige Vega56-User aktuell eher Kepler/Maxwell oder 390/X/Fiji-User sind?Völlig irrelevant für einen potentiellen Käufer, der in den nächsten paar Wochen etwas im Preisbereich 400-500€ kaufen will (also noch keine 1070/1080 hat ;)).
Die selben Probleme existieren auch in 6 Monaten, aber der Preis wird deutlich unter den von heute liegen, wenn die Konkurrenz ihre 15 Monate alte Architektur ersetzt.Es ist immer besser auf die nächste Generation zu warten, wenn man nicht jetzt kaufen will. :rolleyes:
Und ob es mehr oder weniger Probleme sind, also ob die Pros die Cons überwiegen oder andersrum, kann jeder nach seinen selbst gewichteten Kriterien entscheiden. Dies kannst Du Niemandem abnehmen. ;)

Korvaun
2017-08-01, 17:16:23
Wer in den nächsten Wochen kaufen will kann (mal abgesehen vom "Mining-Problem") tatsächlich beide Hersteller wählen, das macht keinen grossen Unterschied, je nach persönlicher Präferenz. Andererseits könnte er auch noch weitere 6 Monate warten und Volta ins Auge fassen, was wohl in jedem Fall die dann deutlich beste Wahl wäre. Wer eh schon bis heute gewartet hat....

Troyan
2017-08-01, 17:22:19
Es ist immer besser auf die nächste Generation zu warten, wenn man nicht jetzt kaufen will. :rolleyes:
Und ob es mehr oder weniger Probleme sind, also ob die Pros die Cons überwiegen oder andersrum, kann jeder nach seinen selbst gewichteten Kriterien entscheiden. Dies kannst Du Niemandem abnehmen. ;)

Manche warten schon seit 15 Monaten auf die nächste AMD-Generation. ;D

Aber zurück zu mehr produtiven:
Laut Gamernexus werde AMD den Crossfire-Support zurückfahren und auch keine großartige Unterstützung für Vulkan und DX12 liefern (kein Zugriff auf GN, daher nur Zweitquelle): https://www.techpowerup.com/235699/amd-giving-up-on-crossfire-with-rx-vega

Menace
2017-08-01, 17:24:48
Manche warten schon seit 15 Monaten auf die nächste AMD-Generation. ;D


Manche warten auch gar nicht; kaufen trotzdem, wenn wieder was nettes kommt. ;D Und irgendwie habe ich den Eindruck, dass in der ein oder anderen Vega-Ausführung etwas nettes schlummert.

Aber zurück zu etwas produktiveren. Du bist mir noch Quellen zu Deinen Aussagen schuldig.

grauenvoll
2017-08-01, 17:24:50
Wer in den nächsten Wochen kaufen will kann (mal abgesehen vom "Mining-Problem") tatsächlich beide Hersteller wählen, das macht keinen grossen Unterschied, je nach persönlicher Präferenz. Andererseits könnte er auch noch weitere 6 Monate warten und Volta ins Auge fassen, was wohl in jedem Fall die dann deutlich beste Wahl wäre. Wer eh schon bis heute gewartet hat....

Jupp. Als die 1070/1080 auf den Markt kam, gab es einen Wow-Effekt, der viele dazu veranlasst hat zuzugreifen. Der fehlt definitiv bei Vega. Schmeckt wie kalter Kaffee. Man kann sich eine Vega zulegen, aber man muss es nicht.

dargo
2017-08-01, 17:31:15
Jupp. Als die 1070/1080 auf den Markt kam, gab es einen Wow-Effekt, der viele dazu veranlasst hat zuzugreifen. Der fehlt definitiv bei Vega. Schmeckt wie kalter Kaffee. Man kann sich eine Vega zulegen, aber man muss es nicht.
Wieder so eine Nullaussage. Für wen war denn die 1070/1080 interessant? Für den 970/980 Besitzer (ersterer war praktisch schon gezwungen wegen dem Beschiss von NV zu wechseln). Ähnlichen WoW-Effekt erwarte ich bei Grenada/Hawaii vs. Vega.

X-Bow
2017-08-01, 17:35:42
Den Wow-Effekt hatte ich auch bei Vega, Shroud aus Aluminium :love2:

G3cko
2017-08-01, 17:36:42
er will darauf hinaus, das wenn man jetzt kaufen möchte, so oder so von dem wertverfall in kurzer zeit betroffen sein wird. da hat er recht.

Vielleicht überrascht uns nvidia auch und es rutscht dann alles noch eine Stufe höher. Neben der Titan, welche dann nur noch einen GV104 hat gibts dann nvidia Goliat mit GV102 für natürlich 2000€. ;D

Natürlich heulen dann alle wieder rum, dass das natürlich AMDs Schuld ist, auch wenn sie nie eine AMD gekauft hätten. 5x übern Tisch gezogen und immer noch Happy. :rolleyes:

Ich warte ersteinmal die Tests ab um mir ein Urteil zu bilden, aber für mich kommt nvidia ohnehin nicht in Frage. Die müssen ersteinmal wieder beweisen, dass ihre Geschäftspraktiken wirklich seriös sind. Die Kracher der letzten Jahre werden leider zu schnell von der Masse vergessen. Leider bleibt dann nur noch AMD... Mehr Auswahl gibts ja nicht.

dargo
2017-08-01, 17:39:33
Natürlich heulen dann alle wieder rum, dass das natürlich AMDs Schuld ist, auch wenn sie nie eine AMD gekauft hätten. 5x übern Tisch gezogen und immer noch Happy. :rolleyes:
Manche sind halt lernresistent oder noch nicht lange genug dabei. Spätestens aus den Praktiken von Intel müsste der eine oder andere was gelernt haben.

HOT
2017-08-01, 17:41:52
Manche warten schon seit 15 Monaten auf die nächste AMD-Generation. ;D
[...]
Wann kapiert ihr Leute endlich, dass diese bescheuerte Schadenfreude sowas von dämlich ist... Man überlege sich mal den fiktiven Fall, AMD hört nach dem "Vega fail" einfach mal auf GPUs zu entwickeln, was meinst du passiert dann? Dann ist "warten" dein geringstes Problem.

Wer in den nächsten Wochen kaufen will kann (mal abgesehen vom "Mining-Problem") tatsächlich beide Hersteller wählen, das macht keinen grossen Unterschied, je nach persönlicher Präferenz. Andererseits könnte er auch noch weitere 6 Monate warten und Volta ins Auge fassen, was wohl in jedem Fall die dann deutlich beste Wahl wäre. Wer eh schon bis heute gewartet hat....

Was meinst du, wie sieht ein Vega 56 gegen eine 1080 wohl in einem Jahr aus? Vor allem wenn die Spielehersteller jetzt doch öfters mal rapid packed math und low level doch mal einsetzen?
In einem Jahr redet keiner mehr von der 1080, aber das wird aus heutiger Sicht dann glasklar das schlechtere Produkt sein.

X-Bow
2017-08-01, 17:42:48
Vielleicht überrascht uns nvidia auch und es rutscht dann alles noch eine Stufe höher. Neben der Titan, welche dann nur noch einen GV104 hat gibts dann nvidia Goliat mit GV102 für natürlich 2000€. ;D

Natürlich heulen dann alle wieder rum, dass das natürlich AMDs Schuld ist, auch wenn sie nie eine AMD gekauft hätten. 5x übern Tisch gezogen und immer noch Happy. :rolleyes:

Du meinst wohl eher eine Titan X mit GV106, ein halbes Jahr später dann die Titan Xv mit GV104 und wieder nach weitern 8 Monaten mit GV102 die TITAN Xv ;D

Immerhin hat man dann immer was in Aussicht auf was man warten kann damit das aktuelle was man begehrt billiger bekommt. :rolleyes:

Troyan
2017-08-01, 17:48:54
Aber zurück zu etwas produktiveren. Du bist mir noch Quellen zu Deinen Aussagen schuldig.

Klar, hier der Test der FE: http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a2

Tomb Raider: 20% hinter GTX1080.
The Witcher 3 mit Hairworks: 15% hinter GTX1080.

In Tomb Raider soll der DSBR weniger an 5% Bandbreitenersparnis bringen: https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-43.jpg

Jetzt bist du dran mit einer Quelle die zeigt, dass RX Vega auch mit modernen Techniken wie Tessellation gut umgehen kann.

HOT
2017-08-01, 17:53:35
Klar, hier der Test der FE: http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a2

Tomb Raider: 20% hinter GTX1080.
The Witcher 3 mit Hairworks: 15% hinter GTX1080.

In Tomb Raider soll der DSBR weniger an 5% Bandbreitenersparnis bringen: https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-43.jpg

Jetzt bist du dran mit einer Quelle die zeigt, dass RX Vega auch mit modernen Techniken wie Tessellation gut umgehen kann.
Nein du bist dran, eine Quelle für TR zu bringen, denn bislang ist deine Behauptung BS. Da gibts keine Aussage. Alter Treiber der FE, eine unspezifische Aussage über den DSBR.

Schnoesel
2017-08-01, 17:57:40
Jetzt bist du dran mit einer Quelle die zeigt, dass RX Vega auch mit modernen Techniken wie Tessellation gut umgehen kann.

Hmm Hardware Tessellation gibts seit 2001

http://rastergrid.com/blog/2010/09/history-of-hardware-tessellation/

Abgesehen davon definiere gut umgehen. Gut ist für mich nicht eine Tessfaktor zu wählen der keine optische Verbesserung bringt oder Sachen zu tesselieren die offenbar mit einer anderen Technik besser umgesetzt werden könnten nur um die Konkurrenz schlecht dastehen zu lassen.

Aber davon mal abgesehen driftet die Diskussion schon wieder sehr weit ab.

Leonidas
2017-08-01, 18:00:41
Wir können uns nun Vega 11, 12 und 20 zuwenden, denn dies hier ist der Speku-Thread. Folgt man P10 und P20 wird V20 demnach nur minimal besser als Vega was auf verbessertes Binning hindeutet. Da wird auch nicht mehr viel kommen, wenn das Namensschema sich gleich verhält. V11 wird Polaris wohl ersetzen und V12 dann die Gurken für die Geizhälse / Innovationsbremsen(:biggrin:).


Vega 20 wird sicherlich noch dicker und dürfte damit Probleme mit dem hohen Takt haben. Eventuell wird dies durch die bessere 14nm-Produktion in einem Jahr wieder ausgeglichen. Interessant könnte werden, wie gut das doppelte Speicherinterface zieht. Eventuell macht AMD dann hieraus eine Vega 64 XYZ, die nochmal 15% oben drauf legt, als kleinen Refresh vor Navi.

V11 war sicherlich etwas vor Polaris 10 gedacht, nun müssen sie zusehen, das sie Polaris 10 überhaupt gut ersetzen können. Bin auf die Chipfläche im Vergleich zur Performance gespannt - nicht das V11 die P10-Performance zu einer größeren Chipfläche bietet ...

V12 kann noch alles sein. Selbst ein Schreibfehler (gab nur einen einzigen V12-Eintrag in jener Auflistung).

Gipsel
2017-08-01, 18:12:06
Aber davon mal abgesehen driftet die Diskussion schon wieder sehr weit ab.
This.
Wir sind immer noch im Vega-Speku-Thread.

Menace
2017-08-01, 18:17:50
Klar, hier der Test der FE: http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a2

Tomb Raider: 20% hinter GTX1080.
The Witcher 3 mit Hairworks: 15% hinter GTX1080.
Jetzt bist du dran mit einer Quelle die zeigt, dass RX Vega auch mit modernen Techniken wie Tessellation gut umgehen kann.

Also bei Hairworks nur 15% hinter Witcher? Das sieht alles andere als ein Genickbruch aus - was Du mit Deiner neutralen Ansicht anders sehen dürftest.
Bei welchen vernünftigen Tessellationeinstellungen, die sich diesseits von esoterischen Wahrnehmungsempfindungen bewegen, bricht sich Vega das Genick? :confused:

Bitte mit Vergleichsbildern und FPS-Angaben. Und wieso übersehe ich immer die wichtigen Tests?

Die Anforderungen waren doch klar, oder? Ich halte gar nichts von Pseudoeffekten, die alte oder Konkurrenzmodelle ausbremsen. Falls das ein Hersteller machen sollte, wäre es eher ein Grund die Konkurrenz zu wählen.

Edit: Die Tessellationleistung einer Vega gehört eigentlich schon in einen Spekulationsthread, oder?

AlterSack
2017-08-01, 18:26:17
Vega11 als Polaris-Ersatz? Sicher zu teuer.
Mit 36 CUs könnte der so 300mm² gross sein?
Dazu die zwei HBM2 Stapel. Ob sich das für AMD lohnt?

Complicated
2017-08-01, 18:27:40
Vega 20 wird sicherlich noch dicker und dürfte damit Probleme mit dem hohen Takt haben.
Folgt man P10->P20 ist es ein Respin der höher takten kann.

Der_Korken
2017-08-01, 18:28:51
V11 war sicherlich etwas vor Polaris 10 gedacht, nun müssen sie zusehen, das sie Polaris 10 überhaupt gut ersetzen können. Bin auf die Chipfläche im Vergleich zur Performance gespannt - nicht das V11 die P10-Performance zu einer größeren Chipfläche bietet ...

Diese Befürchtung zu V11 habe ich nach aktueller Informationslage leider auch. Nehmen wir mal an, dass V11 mit 40 CUs bei gleichem Takt wie V10 kommt und ein 192bit-SI mit 6GB GDDR6 @12Ghz hat (sofern der HBCC auch GDDR6 kann, ansonsten muss man auf 8GB hochgehen). Die Rohleistung läge bei 62,5% von V10 und die Bandbreite bei 59%. 62,5% von GTX1080FE ist nur minimal schneller als eine RX580. 62,5% von 295W Verbrauch sind 187W, also auch nicht wirklich besser als eine 580@Stock. Die Fläche ist schwer abzuschätzen, aber weniger als 62,5% von V10 wird es wohl nicht werden, da der Rasterizer nicht mitschrumpft und das HBM2-Interface durch ein vermutlich nicht kleineres GDDR6-Interface getauscht werden muss. Das wären dann um die 300mm². Es wäre Irrsinn P10 durch so einen Chip zu ersetzen. Dazu müsste V11 schon konsistente 1600Mhz in Spielen erreichen und dabei <180W bleiben. Alles andere wäre witzlos.

Ich frage mich gerade, ob AMD hier irgendwo Spielraum findet, die Architektur zeitnah besser hinzukriegen. Beim RV670 konnte AMD innerhalb von 6 Monaten einen Shrink bringen, der zumindest schon mal den Stromverbrauch halbiert hat und die Chipfläche sogar mehr als halbiert. Der RV770 hat die Transistoren/ALU massiv senken können, sodass man in 50% mehr Transistoren 150% mehr ALUs unterbringen konnte - bei vielleicht 60-70% mehr Verbrauch als RV670. Das wäre im Prinzip das, was AMD jetzt bräuchte, denn Nvidia hat bei der Rohleistung mittlerweile aufgeholt, ohne dass AMD die IPC auch nur annähernd auf Nvidia-Niveau steigern konnte.

RoughNeck
2017-08-01, 18:32:03
Gegenfrage: Warum sollte man die 1080 vorziehen? Da bleibt außer die bessere Effizienz genau was?

Bei DX11 super Performance Out of the Box
Das Feature Set was AMD bietet ist super aber den 0815 Gamer juckt das nicht, der will seine Games zocken und fertig.
Wenn AMD das mal in den Griff bekommt und dazu gehören auch die Early Access Games, dann schaut es da auch besser aus.

Ich will auch nicht immer nur Nvidia kaufen aber aktuell bietet Nvidia einfach mehr für den Gamer (meine Meinung).

Digidi
2017-08-01, 18:36:28
Mal eine Frage zu Vega. Da gabs die 3dmark Benchmarks mit Treiber 22.19.640.2

Ist das schon der 17.30 Treiber?

Trap
2017-08-01, 18:38:15
Ich will auch nicht immer nur Nvidia kaufen aber aktuell bietet Nvidia einfach mehr für den Gamer (meine Meinung).
Wenn sie Freesync unterstützen würden hätte ich vielleicht schon eine gekauft.

dargo
2017-08-01, 18:39:30
Vega11 als Polaris-Ersatz? Sicher zu teuer.
Mit 36 CUs könnte der so 300mm² gross sein?
Dazu die zwei HBM2 Stapel. Ob sich das für AMD lohnt?
Für einen Polaris-Ersatz könnte ein HBM Stack reichen. Oder halt GDDR6.

Schnoesel
2017-08-01, 18:41:06
Wenn man schon Vega mit der 1080 vergleicht kann man auch noch die Tests abwarten, da darf man sich dann auch wieder einzelne Balken ins Gesicht werfen.
Was mich zunächst stört ist weder die ca. 1080 Leistung noch der Preis oder sonstwas, sondern dass die Leistung doch sehr unkonstant zu sein scheint. Also was schmeckt Vega hier nicht?

Demnach schlägt die Radeon RX Vega 64 in Ultra HD die GeForce GTX 1080 in Battlefield 1 locker. Der Vorsprung beträgt gute 21 Prozent. In Call of Duty: Infinite Warfare ist die AMD-Grafikkarte gar mehr als doppelt so schnell – dort gibt es aber offenbar ein Problem für die Nvidia-Grafikkarte. In Civilization VI und Far Cry Primal gibt es einen Gleichstand, während die GeForce GTX 1080 in Hitman um neun Prozent und in Overwatch um zwölf Prozent schneller ist.
Ebenso interessant ist der Vergleich zur Radeon R9 Fury X. In Battlefield 1 ist die Radeon RX Vega 64 47 Prozent zügiger unterwegs, während es in Overwatch nur 19 Prozent sind.

COD klammere ich mal aus. Aber zwischen 21% vor der 1080 und 88% der 1080 in Overwatch liegt ne Menge.

dargo
2017-08-01, 18:41:58
Das Feature Set was AMD bietet ist super aber den 0815 Gamer juckt das nicht, der will seine Games zocken und fertig.

Laufen Spiele mit einer Radeon nicht? :confused: Der 08/15 Gamer hat garantiert auch keinen Framecounter laufen.

@Schnösel

Ist ein Softwarelimit für dich wirklich so abwegig?

G3cko
2017-08-01, 18:42:00
Ich will auch nicht immer nur Nvidia kaufen aber aktuell bietet Nvidia einfach mehr für den Gamer (meine Meinung).

Diesen Spruch hat man immer wieder die letzten Jahre gehört. Effektiv hat man bei gleichem Preispunkt nie mehr geboten. Weder beim Release noch über die Zeit. Nur fürs Gedächnis:

7970 vs GTX670
290 vs GTX780
390 vs GTX970
480 vs GTX1060
Vega56 vs GTX1070

Und selbst wenn die Effizienz doppelt so gut wäre, würde man wieder andere Argumente finden (siehe GTX480 vs 5870).

Der größte Fortschritt aktuell ist das Marketing durch die gegründete Radeongroup. Endlich mal hochwertig anmutende Karten. (Selbst wenn der Lüfter scheiße ist, spielt keine Rolle (siehe Nvidia). Endlich mal Marketing, dass man auch so bezeichnen kann.

Grendizer
2017-08-01, 18:48:12
...

Der größte Fortschritt aktuell ist das Marketing durch die gegründete Radeongroup. Endlich mal hochwertig anmutende Karten. (Selbst wenn der Lüfter scheiße ist, spielt keine Rolle (siehe Nvidia). Endlich mal Marketing, dass man auch so bezeichnen kann.

Theoretisch gebe ich dir recht, aber in Deutschland /EU erlaubt sich das Marketing schon wieder einen riesen Fauxpas, da in es das Monitor Pack nicht geben wird und mit Sniper 4 die Spieleauswahl auch bescheidener ist.

Schnoesel
2017-08-01, 18:50:14
Ist ein Softwarelimit für dich wirklich so abwegig?

Nein aber ist es das wirklich? Das ist die Frage. An der Software kann ich noch was drehen. Die Hardware steht. Egal muss eh warten wie sich das Gesamtbild zusammensetzt.

Theoretisch gebe ich dir recht, aber in Deutschland /EU erlaubt sich das Marketing schon wieder einen riesen Fauxpas, da in es das Monitor Pack nicht geben wird und mit Sniper 4 die Spieleauswahl auch bescheidener ist.

Wenn der Monitor mit Freesync immer noch so bescheiden funktioniert wie zu Beginn ist es kein Fauxpas sondern ein Win für jeden der sich das nicht antun muss.

Grendizer
2017-08-01, 18:50:59
Nein aber ist es das wirklich? Das ist die Frage. An der Software kann ich noch was drehen. Die Hardware steht. Egal muss eh warten wie sich das Gesamtbild zusammensetzt.

Bis zum ersten richtigen Test kommen wir hier auf 750 Seiten :eek:

Hübie
2017-08-01, 18:51:54
Diese Befürchtung zu V11 habe ich nach aktueller Informationslage leider auch. Nehmen wir mal an, dass V11 mit 40 CUs bei gleichem Takt wie V10 kommt und ein 192bit-SI mit 6GB GDDR6 @12Ghz hat (sofern der HBCC auch GDDR6 kann, ansonsten muss man auf 8GB hochgehen). Die Rohleistung läge bei 62,5% von V10 und die Bandbreite bei 59%. 62,5% von GTX1080FE ist nur minimal schneller als eine RX580. 62,5% von 295W Verbrauch sind 187W, also auch nicht wirklich besser als eine 580@Stock. Die Fläche ist schwer abzuschätzen, aber weniger als 62,5% von V10 wird es wohl nicht werden, da der Rasterizer nicht mitschrumpft und das HBM2-Interface durch ein vermutlich nicht kleineres GDDR6-Interface getauscht werden muss. Das wären dann um die 300mm². Es wäre Irrsinn P10 durch so einen Chip zu ersetzen. Dazu müsste V11 schon konsistente 1600Mhz in Spielen erreichen und dabei <180W bleiben. Alles andere wäre witzlos.

Ich frage mich gerade, ob AMD hier irgendwo Spielraum findet, die Architektur zeitnah besser hinzukriegen. Beim RV670 konnte AMD innerhalb von 6 Monaten einen Shrink bringen, der zumindest schon mal den Stromverbrauch halbiert hat und die Chipfläche sogar mehr als halbiert. Der RV770 hat die Transistoren/ALU massiv senken können, sodass man in 50% mehr Transistoren 150% mehr ALUs unterbringen konnte - bei vielleicht 60-70% mehr Verbrauch als RV670. Das wäre im Prinzip das, was AMD jetzt bräuchte, denn Nvidia hat bei der Rohleistung mittlerweile aufgeholt, ohne dass AMD die IPC auch nur annähernd auf Nvidia-Niveau steigern konnte.

Wie bitte? Wo guckst du, dass du zu der Aussage gelangst, eine RX 580 läge nur minimal hinter 1080 FE bzw diese minimal vor 580? :| Standest du zu lang in der Sonne? :D
Die beiden trennen gut und gerne 40% ausgehend von der 1080 (laut cb leistet die 580 eben 62% der 1080 in 1440p klick (https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440)). Spielraum ist also durchaus da. Man muss es eben günstig und effizient hinbekommen. Das sehe ich nicht wenn ich V10 als Spekulationsgrundlage nehme. Die IPC dürfte kaum gestiegen sein und einzig der Takt muss es rausholen, was wiederum Transistoren kostet... Im Grunde interessieren mich solche Gurken aber nicht. :D

AlterSack
2017-08-01, 18:51:55
Für einen Polaris-Ersatz könnte ein HBM Stack reichen. Oder halt GDDR6.

Ein Stapel wäre für 36 oder gar 40 CU zu wenig.
Mit GDDR6 würde der Chip wahrscheinlich noch grösser
und durstiger. Hatte den V11 eigentlich im Leistungsbereich
einer 1070 erträumt. Nun gut, das hilft mir unnütze
Geldausgaben zu vermeiden. Die 970er reicht mir
objektiv gesehen noch lange. Spiele eigentlich nur Skyrim
und den Witcher3. Bei diesem zunehmenden Onlinezwang
vergeht mir ohnehin die Lust...
Und den ganzen G-Punkt -und Freesync. Quatsch
brauch ich nicht. Da werden Probleme erfunden,
von denen ohne den Hype garniemand wüsste. :biggrin:

dargo
2017-08-01, 18:55:32
Nein aber ist es das wirklich? Das ist die Frage. An der Software kann ich noch was drehen. Die Hardware steht. Egal muss eh warten wie sich das Gesamtbild zusammensetzt.

Afaik wurde BF1 mit DX12 verglichen oder täusche ich mich? Und soweit ich weiß ist Pascal in DX12 etwas langsamer als DX11, zumindest im GPU-Limit. Aus den 21% könnten also bei Vega @DX12 vs. Pascal @DX11 nur noch ~10% übrig bleiben. Dann bist du bei ~110% bis 88%. Eine ganz normale Spanne wenn man mehrere Games vergleicht.

Ein Stapel wäre für 36 oder gar 40 CU zu wenig.

Sehe ich nicht so bei einem Performancechip. P10 kommt mit 256GB/s auch ganz gut zurecht.


Und den ganzen G-Punkt -und Freesync. Quatsch
brauch ich nicht. Da werden Probleme erfunden,
von denen ohne den Hype garniemand wüsste. :biggrin:
Bei dem Nickname verwundert das glaube ich niemanden. :D

Grendizer
2017-08-01, 19:01:39
Bei dem Nickname verwundert das glaube ich niemanden. :D

Wenn man es noch nie gesehen hat (meine Monitore können auch nur 60 hz) vermisst man es nicht.

Linmoum
2017-08-01, 19:03:41
Man vermisst auch kein HD-Fernsehen, wenn man bisher ausschließlich SD schaut. Und trotzdem ist der Unterschied gewaltig und es besteht schon fast Augenkrebsgefahr, gerade bei Sport. Überspitzt formuliert.

dargo
2017-08-01, 19:12:59
Wenn man es noch nie gesehen hat (meine Monitore können auch nur 60 hz) vermisst man es nicht.
Bei mir war das etwas anders.

Bis zur GTX970 spielte ich noch alles mit Vsync Off (Vsync On ohne VRR kann ich nicht ertragen wegen Input-Lag) mit 60Hz. Als die GTX970 kam hatte ich plötzlich überall (Mini)Ruckler bemerkt. Keine Ahnung warum. Wie ein Klick im Kopf. Dann kam langsam Freesync ins Rollen. Nach dem NV-Beschiss mit der 970 kaufte ich gleich die R9 390 + Freesync Bildschirm. Seitdem nie wieder ohne VRR und auch keine 60Hz!!! Erst hier wurden mir die Augen geöffnet (und auch ich war zu Anfangszeiten von G-Sync sehr skeptisch, da gab es viele Diskussionen damals mit Grestorn) wie flüssig Games sein können. Ohne VRR ruckelt für mich alles, selbst mit 144Hz.

StefanV
2017-08-01, 19:20:18
Bessere Effizienz könnte einhergehen mit leiseren, kühleren Produkten. Das ist nicht zu vernachlässigen.
Genau und dazu am besten 'nen Skylake-X nutzen. Dann passt das Statement am besten.

reaperrr
2017-08-01, 19:21:46
Wie bitte? Wo guckst du, dass du zu der Aussage gelangst, eine RX 580 läge nur minimal hinter 1080 FE bzw diese minimal vor 580? :| Standest du zu lang in der Sonne? :D
Er guckt nirgends, du kannst nur nicht lesen :P

Er hat geschrieben 62,5% von 1080 FE (bezogen auf V11) wäre nur minimal schneller als [RX] 580, was ja auch stimmt.

cat
2017-08-01, 19:25:29
Der Kunde sollte die passende Waffe für sein Schlachtfeld wählen.

Ist das Schlachtfeld DX11 gibt es eher eine Tendenz Nvidia zu nutzen.
Generell ist das von Game zu Game verschieden, und keiner weiß was in
jedem einzelnen zukünftige Game die bessere Wahl sein wird.

Man kann ja von Nvidias Blackbox-System und AMDs open-dingsda für Programmierer halten was man will,
aber der Programmierer bzw. das Studio entscheidet ob und wie optimiert wird.

dargo
2017-08-01, 19:27:56
Man kann ja von Nvidias Blackbox-System und AMDs open-dingsda für Programmierer halten was man will,
aber der Programmierer bzw. das Studio entscheidet ob und wie optimiert wird.
So einfach ist es aber nicht. Bei high level ist oft Rätselraten angesagt.

StefanV
2017-08-01, 19:28:37
amd soll endlich hardware entwickeln, die out of the box laeuft, ohne proprietaeren mist.
Du meinst sowas wie Gameworks und insbesondere G-Sync?? Oder wovon sprichst du gerade??

Botcruscher
2017-08-01, 19:30:57
Der größte Fortschritt aktuell ist das Marketing durch die gegründete Radeongroup.

Ich ersticke gleich an meinem Essen. Für mich sind das die gleichen Dilettanten die schon seit Hawaii [gefeuert] gehören.

Rancor
2017-08-01, 19:33:32
Ich sehe hier einen Denkfehler. Einerseits sprichst du vom "Normalbürger", andererseits von GTX1080 Leistung. Da passt was nicht zusammen. Vega 56 für 399$ hast du mitbekommen oder? :) Das ist die Karte für die größere Masse, genauso wie die GTX1070. Und mit 210W TDP ist Vega 56 auch in der Region von einigen RX 580 Customs die sich noch ganz gut mit Lükü kühlen lassen. Zumal die GPU mehr als doppelt so groß wie Polaris ist was kühltechnisch wieder von Vorteil ist. Vega 64 und Vega 64 AIO... das sind eher Karten für die Geeks.

399$ netto... ne GTX 1070 lag vor dem Mining Boom bei unter 400€ brutto. Vega ist zu teuer für das was die Architektur momentan bringt.

Grendizer
2017-08-01, 19:34:28
Du meinst sowas wie Gameworks und insbesondere G-Sync?? Oder wovon sprichst du gerade??


G-Sync ok... das ist Mist gehe ich mit...

Gameworks ... ist ja nicht so, als ab AMD ähnliche Dinge nicht auch probiert hat. Erinnert sich noch jemand an http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/tressfx

dargo
2017-08-01, 19:35:52
399$ netto...
Wie oft denn noch? :rolleyes:

Rancor
2017-08-01, 19:36:59
Wie oft denn noch? :rolleyes:

Ja was denn? :cool: Du vergleichst Äpfel mit Birnen? Kannst brutto und netto nicht auseinander halten? Wo ist das Problem?

gravitationsfeld
2017-08-01, 19:38:05
G-Sync ok... das ist Mist gehe ich mit...

Gameworks ... ist ja nicht so, als ab AMD ähnliche Dinge nicht auch probiert hat. Erinnert sich noch jemand an http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/tressfx
TressFX ist Open Source und laeuft auf beiden GPUs gleich gut. HairWorks ist absichtlich so konstruiert, dass es moeglichst schlecht auf AMD laueft.

Aepfel und Birnen.

Schnoesel
2017-08-01, 19:38:07
Basierend auf den absoluten Zahlen die ich hier gefunden habe:

http://www.gamestar.de/artikel/rx-vega-vs-gtx-1080-was-sagen-amds-benchmarks-aus,3317744,seite2.html

COD kann man ignorieren denke ich:

https://s1.postimg.org/ve8073jq7/image.jpg

https://s4.postimg.org/hrhlm2lxp/image.jpg

Sieht das nach ziemlichen Gleichstand aus. Fehlen nur noch die Taktraten zu Einordnung.

Menace
2017-08-01, 19:38:10
Genau und dazu am besten 'nen Skylake-X nutzen. Dann passt das Statement am besten.

Sorry, Du bellst den Falschen an. Bei mir steckt eine astreine 1700-CPU (kühl und effizient) drin und noch eine Nano. Letztere darf bleiben; aber meine Tochter benötigt langsam eine neue GPU. Also hoffe ich auf eine dem Ryzen 1700 analoge, effiziente Karte.

Der_Korken
2017-08-01, 19:43:59
Wie bitte? Wo guckst du, dass du zu der Aussage gelangst, eine RX 580 läge nur minimal hinter 1080 FE bzw diese minimal vor 580? :| Standest du zu lang in der Sonne? :D
Die beiden trennen gut und gerne 40% ausgehend von der 1080 (laut cb leistet die 580 eben 62% der 1080 in 1440p klick (https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440)).

Die Rohleistung läge bei 62,5% von V10 und die Bandbreite bei 59%. 62,5% von GTX1080FE ist nur minimal schneller als eine RX580

:P :D

Wie gesagt, skaliert man von V10 aus runter, kriegt man mit V11 nur einen P10 in teurer. Perf/mm² hat sich bei Vega trotz HBM deutlich verschlechtert und das obwohl Polaris bereits schlechter als Pascal war. In der Form ergibt eine Ersetzung von Polaris überhaupt keinen Sinn.

StefanV
2017-08-01, 19:44:44
Sieht man ja an Ryzen. Verkauft sich wunderbar. Obwohl alle eigentlich schon durch HSW-E, BDW-E, HSW, SKL, KBL aufgerüstet hätten müssten... ;)
Ja, weil die 2011 Plattform zu teuer war, die 4 Kerner im Desktop nicht wirklich interessant für die mit Sandy/Ivy Bridge CPU .

Die Aufrüstung muss ja auch einen nennenswerten VOrteil bringen. Und im Gegensatz zu vor 10 Jahren kann man auch ~10 Jahre mit den Komponenten auskommen...

Die aktuelle CPU in meinem Haupt Rechner ist ja auch schon 5,5 Jahre alt. Vor 10 Jahren wäre das ein Athlon XP mit Palomino Core oder ein Pentium 4 Willamette. Nicht gerade Prozessoren, die man in 2006 besonders toll gefunden hätte.
Und heute schaut das so aus, dass man mit einem 5,5 Jahre altem Prozessor nicht wirklich Druck zum Aufrüsten oder eine Notwendigkeit dafür hat.

PS: Is 'nen 6 Kern Sandy Bridge-E...

Und da kauft man sich halt 'nen mittelprächtigen/großen Ryzen, um dann für die nächsten 5-10 Jahre gerüstet zu sein.

BoMbY
2017-08-01, 19:44:56
Erinnert sich noch jemand an http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/tressfx

Ja, es ist gerade Version 4 mit DX12-Unterstützung veröffentlicht worden:

https://github.com/GPUOpen-Effects/TressFX

Steht unter der MIT License und kann jeder nutzen wie er lustig ist.

dargo
2017-08-01, 19:45:57
Ja was denn? :cool: Du vergleichst Äpfel mit Birnen? Kannst brutto und netto nicht auseinander halten? Wo ist das Problem?
:facepalm:

Schau dir die UVPs von Ryzen an und dann die Straßenpreise in DE. Das einzige was bei Vega passieren kann ist, dass der abklingende Miningboom noch eine gewisse Auswirkung auf die Straßenpreise haben kann. Jetzt völlig unabhängig vom normalen Deppenaufschlag zum Release. Bei jedem Hardwarerelease der gleiche Käse.

Basierend auf den absoluten Zahlen die ich hier gefunden habe:

http://www.gamestar.de/artikel/rx-vega-vs-gtx-1080-was-sagen-amds-benchmarks-aus,3317744,seite2.html

COD kann man ignorieren denke ich:

https://s4.postimg.org/4ir901o25/image.jpg

https://s1.postimg.org/pvszmxq4v/image.jpg

Sieht das nach ziemlichen Gleichstand aus. Fehlen nur noch die Taktraten zu Einordnung.
Das sieht ja noch besser für Vega aus als ich zuerst dachte. Besonders Forza 3 gefällt mir hier, denn das möchte ich dann weiter im Herbst/Winter spielen. Hier wird sogar Vega 56 die GTX1080 erreichen wenn die Benchmarks tatsächlich stimmen. =)

crux2005
2017-08-01, 19:53:39
Basierend auf den absoluten Zahlen die ich hier gefunden habe:

http://www.gamestar.de/artikel/rx-vega-vs-gtx-1080-was-sagen-amds-benchmarks-aus,3317744,seite2.html

COD kann man ignorieren denke ich:

https://s4.postimg.org/4ir901o25/image.jpg

https://s1.postimg.org/pvszmxq4v/image.jpg

Sieht das nach ziemlichen Gleichstand aus. Fehlen nur noch die Taktraten zu Einordnung.

Das sind die min. FPS in den Spielen.

bun
2017-08-01, 19:57:06
G-Sync ok... das ist Mist gehe ich mit...

Gameworks ... ist ja nicht so, als ab AMD ähnliche Dinge nicht auch probiert hat. Erinnert sich noch jemand an http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/tressfx

Mit dem kleinen aber feinen Unterschied das AMD den Quellcode von TressFX vollständig zum Download anbietet, und jeder Spieleentwickler sich das anschauen und modifizieren kann, wie er möchte. Auch glaube ich lief TressFX auch sehr gut auf Nvidia.

Krasser Gegensatz zu Hairworks.

Rancor
2017-08-01, 20:02:00
:facepalm:

Schau dir die UVPs von Ryzen an und dann die Straßenpreise in DE. Das einzige was bei Vega passieren kann ist, dass der abklingende Miningboom noch eine gewisse Auswirkung auf die Straßenpreise haben kann. Jetzt völlig unabhängig vom normalen Deppenaufschlag zum Release. Bei jedem Hardwarerelease der gleiche Käse.


Achso meinst du das.

Es müssen aber ja schon mindesten 19% Discount werden damit Vega 56 attraktiv wird und das glaube ich wohl kaum, zumindest nicht in den nächsten 3 - 4 Monaten. Ausserdem fallen die GTX Preise ja auch.

Vega muss schon deutlich mehr Bang for Bucks bieten ,damit sie Nvidia Kunden abnehmen können. Für 299$ netto wäre die Karte richtig attraktiv.

AMD hat mit Ryzen alles richtig gemacht, aber VEGA ist so wie es bisher aussieht Fiji reloaded.

Schnoesel
2017-08-01, 20:02:31
Das sind die min. FPS in den Spielen.

Jap habe ich auch gerade festgestellt: https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-52.jpg

Werds ausbessern.

Grendizer
2017-08-01, 20:03:07
Jap habe ich auch gerade festgestellt: https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-52.jpg

Werds ausbessern.


War gerade auch erstmal erstaunt. Aber da sind zumindest mal DX11 Werte dabei