Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
dargo
2017-08-03, 12:10:31
Vega 56 Power - Eco
Hier bin ich noch unsicher ob es diesen Schalter geben wird. Und bei der Nano macht der auch keinen Sinn, die ist ja schon auf Öko getrimmt.
Loeschzwerg
2017-08-03, 12:11:44
@dargo: Siehe FuryX vs Nano bzw 6 Phasen vs 4 Phasen. Ich sehe da nicht wirklich ein Problem bei einer Vega Nano. Zur Not wird es nur ein Vega "XL" auf der Nano.
Über 175Watt sind bei der Größe und den Möglichkeiten der Kühlung nicht sinnvoll.
Vapor Chamber + Quad-Slot-Brocken mit 100-mm-Lüfter: bäm! :naughty:
MfG,
Raff
BlacKi
2017-08-03, 12:14:09
Wie soll Vega56 da 30% schneller als die GTX1070 sein? Da wäre sie genauso schnell wie Vega 64.
ich sehe das zwar genauso, aber die rx56 hat ordentlich OC potential, wenn man die fesseln abnimmt. ich könnte mir vorstellen das die werte mit OC sind und tweaktown hat dann gtx 1070 werte dazu geschrieben.
es sind halt einfach unbestätigte leaks die man vorerst vorsichtig behandeln sollte.
Loeschzwerg
2017-08-03, 12:15:45
Vapor Chamber + Quad-Slot-Brocken mit 100-mm-Lüfter: bäm! :naughty:
MfG,
Raff
Nachdem SLI/CF quasi am Ende sind, warum nicht, die Slots sind vorhanden :D
pilzsammler2002
2017-08-03, 12:17:52
Nachdem SLI/CF quasi am Ende sind, warum nicht, die Slots sind vorhanden :D
Ist ja nicht am Ende... Aus mehreren Gründen wird der support halt nur reduziert...
Bei AMD halt wegen DX12 mGPU und (meiner meinung nach) auch dank IF :freak:
Nachdem SLI/CF quasi am Ende sind, warum nicht, die Slots sind vorhanden :D
Erinnert sich noch jemand an Heidi? Nicht die Trulla, sondern den EKL-Kühler: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-und-Radeon-von-Edelgrafikkarten-691871/galerie/1170337/
[x] Für eine Wiederbelebung
MfG,
Raff
y33H@
2017-08-03, 12:28:37
Und hier der damalige Test :biggrin:
http://www.pcgameshardware.de/Luftkuehlung-Hardware-217993/Tests/Neuer-VGA-Cooler-auf-dem-Pruefstand-686314/
fondness
2017-08-03, 12:28:55
Wird man bei der Nano eigentlich wieder 175W TDP anstreben?
Viel mehr wird man mit dem Winzkühler jedenfalls nicht kühlen können.
dargo
2017-08-03, 12:29:17
Über 175Watt sind bei der Größe und den Möglichkeiten der Kühlung nicht sinnvoll.
10-15W mehr ändern nun wirklich nichts gravierend an der Lautstärke bei ansonsten identischen Kühlung. Lässt du dabei der GPU ~3-5°C mehr Spielraum wird sich nicht mal die Lautstärke ändern.
Edit:
Apropo Spielraum... war da nicht was, dass HBM2 höhere Temperaturen verträgt als HBM1? Afaik war der HBM1 bei Temperaturen schneller am Limit als die GPU an sich.
MadManniMan
2017-08-03, 12:33:21
ich sehe das zwar genauso, aber die rx56 hat ordentlich OC potential, wenn man die fesseln abnimmt. ich könnte mir vorstellen das die werte mit OC sind und tweaktown hat dann gtx 1070 werte dazu geschrieben.
Was? Wie? Hat sie? Weiß man woher?
BlacKi
2017-08-03, 12:34:48
geht es bei den nano interessierten darum, die karte möglichst klein zu halten oder wären 17,5cm (gleich lang wie die itx boards) nicht besser wegen der besseren kühlungsmöglichkeiten?
Was? Wie? Hat sie? Weiß man woher?
vermutlich wird die karte ein deutlich niedrigeres boost verhalten an den tag legen als die rx64. legt man den powertarget schalter um, wird die karte vermutlich sogar höher boosten als die rx64, auch wenn sie die leistung trotzdem nicht gsnz erreichen kann. aber so könnte man ziemlich einfach die leaks erklären, ohne das ich ein NVidianer das höschen nass macht.
fondness
2017-08-03, 12:35:04
Was? Wie? Hat sie? Weiß man woher?
Weil sie deutlich niedriger taktet als Vega64 und mehr auf Effizienz getrimmt ist (295W vs. 210W).
Adam D.
2017-08-03, 13:05:43
Weil sie deutlich niedriger taktet als Vega64 und mehr auf Effizienz getrimmt ist (295W vs. 210W).
Sie ist bestimmt nicht primär auf Effizienz getrimmt sondern durch Taktverhalten so angepeilt, dass genug Luft zum großen Bruder bleibt.
Dino-Fossil
2017-08-03, 13:13:32
Sind die Power Profiles (über Wattman, zusätzlich zum Dual Bios) schon bekannt?
http://oc.jagatreview.com/2017/08/fitur-baru-radeon-wattman-performance-per-watt-profile-untuk-rx-vega/
Sorry, ist indonesisch...
robbitop
2017-08-03, 13:19:18
Wahrscheinlich gar nicht so dumm von AMD, Vega56 erst ein wenig später zu bringen. So bleibt man immer im Gespräch. War mit Ryzen auch so. Ggf. ist bis Ende September noch ein wenig Potenzial im Treiber freigelegt worden. Wundertreiber sind natürlich nicht zu erwarten.
Mangel76
2017-08-03, 13:21:36
Sind die Power Profiles (über Wattman, zusätzlich zum Dual Bios) schon bekannt?
http://oc.jagatreview.com/2017/08/fitur-baru-radeon-wattman-performance-per-watt-profile-untuk-rx-vega/
Sorry, ist indonesisch...
Sieht auf jeden Fall sehr interessant aus. Zusätzlich zu doppeltem Bios noch jeweils 3 Einstellungen macht 6 verschiedene Energieprofile ootb. Da ist sicher für jeden was dabei, der nicht noch händisch die besten Einstellungen ermitteln will.
fondness
2017-08-03, 13:22:14
Sind die Power Profiles (über Wattman, zusätzlich zum Dual Bios) schon bekannt?
http://oc.jagatreview.com/2017/08/fitur-baru-radeon-wattman-performance-per-watt-profile-untuk-rx-vega/
Sorry, ist indonesisch...
Ich finde es toll, wie viele Tuningmöglichkeiten und auch unterschiedliche, hochwertige Kartendesigns AMD mittlerweile bringt. Die Treiber werden zu Jahresende wieder sinnvolle neue Features, wie zB ein Ingame Overlay bekommen. Die haben aus ihren Fehlern in der Vergangenheit definitiv gelernt, auch das Marketing wird immer besser. Jetzt müsste nur noch die HW wieder konkurrenzfähig werden. :ugly:
Dino-Fossil
2017-08-03, 13:35:21
Ich hoffe mal, dass mit den voreingestellten Energieprofilen für Vega auch bald die Möglichkeit kommt, eigene Profile im Wattmann zu speichern und wieder zu laden.
Das vermisse ich manchmal, ist auch in der Umfrage von AMD recht beliebt, glaube ich.
fondness
2017-08-03, 13:36:05
Jap, kommt sicher bald, sonst wäre es nicht in der Umfrage.
Das, was zuletzt in der Umfrage oben stand, wurde erst ein halbes Jahr später implementiert und veröffentlicht. Ergo: Radeon Crimson Relive Redux zu Weihnachten. ;)
MfG,
Raff
M4xw0lf
2017-08-03, 13:50:23
Oder doch mal ne neue Farbe. Radeon Scarlet. (y)
dargo
2017-08-03, 14:11:08
Ich finde es toll, wie viele Tuningmöglichkeiten und auch unterschiedliche, hochwertige Kartendesigns AMD mittlerweile bringt. Die Treiber werden zu Jahresende wieder sinnvolle neue Features, wie zB ein Ingame Overlay bekommen. Die haben aus ihren Fehlern in der Vergangenheit definitiv gelernt, auch das Marketing wird immer besser. Jetzt müsste nur noch die HW wieder konkurrenzfähig werden vermehrt moderne Software kommen. :ugly:
fixed
Das mit dem Overlay finde ich toll.
Grendizer
2017-08-03, 14:13:28
Ich finde diese abgewandelte Zitate echt unmöglich. Hat zwar nichts mit dem Thread zu tun, aber geht nur mir das so ?
Rincewind
2017-08-03, 14:15:29
was für abgewandelte Zitate?
Grundkurs
2017-08-03, 14:17:34
Wahrscheinlich gar nicht so dumm von AMD, Vega56 erst ein wenig später zu bringen. So bleibt man immer im Gespräch. War mit Ryzen auch so. Ggf. ist bis Ende September noch ein wenig Potenzial im Treiber freigelegt worden. Wundertreiber sind natürlich nicht zu erwarten.
Oh ja super, noch ein bisschen mehr Verzögerung. Soviel zu AMDs Versprechen, Vega "in der ersten Jahreshälfte 2017" zu veröffentlichen.
Oh ja super, noch ein bisschen mehr Verzögerung. Soviel zu AMDs Versprechen, Vega "in der ersten Jahreshälfte 2017" zu veröffentlichen.
https://geizhals.de/amd-radeon-vega-frontier-edition-100-506061-a1646319.html
Grendizer
2017-08-03, 14:38:43
Jeder Monat der Vega 56 später auf den Markt kommt verkürzt den Zeitraum in dem man mit einem Performancevorteil in der 399$ Klasse führend wäre (falls das tatsächlich so ist.
Edit: Spekulieren wir dann noch auf schlechte verfügbarkeiten am Anfang, zeitlich nachgelagerte Customdesigns usw.... dann sind evtl. nur ein 3-6 Monate bis Volta. Halte ich für zu gefährlich und ich denke, das die Vega 56 auch jetzt sofort kommt.
dildo4u
2017-08-03, 14:47:06
Apple hat die 56 auch im Angebot schätze mal da wird ne ordentlich Menge hingehen,wenn du Apple als Partner hast dann behandelst du die wie Könige.
https://www.apple.com/de/imac-pro/specs/
Monsta
2017-08-03, 14:49:00
AMD gibt alles um so schnell wie möglich den Markt zu bedienen. Die haben auch alles gegeben um ein konkurenzfähiges Produkt zu liefern.
Es hat nunmal nicht gereicht. Natürlich wäre es besser das Ding letztes Jahr schon mal Start zu haben, oder jetzt schneller als ne 1080ti zu sein.
Bei vielen Beiträgen die ich hier lese , hab ich das Gefühl ihr glaubt AMD würde extra ein lahmes Produkt mit Monster Stromverbrauch zu spät in geringer Stückzahl liefern.
deekey777
2017-08-03, 14:51:35
Jeder Monat der Vega 56 später auf den Markt kommt verkürzt den Zeitraum in dem man mit einem Performancevorteil in der 399$ Klasse führend wäre (falls das tatsächlich so ist.
Edit: Spekulieren wir dann noch auf schlechte verfügbarkeiten am Anfang, zeitlich nachgelagerte Customdesigns usw.... dann sind evtl. nur ein 3-6 Monate bis Volta. Halte ich für zu gefährlich und ich denke, das die Vega 56 auch jetzt sofort kommt.
Ich frage mich ehrlich gesagt, warum du so ein (Nicht-)Interesse an Vega hast. Sofern du vor Anfang Juli nicht mit einem anderen Account hier geschrieben hast, ist das schon bemerkenswert.
dargo
2017-08-03, 14:57:07
Jeder Monat der Vega 56 später auf den Markt kommt verkürzt den Zeitraum in dem man mit einem Performancevorteil in der 399$ Klasse führend wäre (falls das tatsächlich so ist.
Edit: Spekulieren wir dann noch auf schlechte verfügbarkeiten am Anfang, zeitlich nachgelagerte Customdesigns usw.... dann sind evtl. nur ein 3-6 Monate bis Volta. Halte ich für zu gefährlich und ich denke, das die Vega 56 auch jetzt sofort kommt.
Ich kann das bald mit eurem Volta nicht mehr hören. Gaming ist nur ein Teilaspekt vom ganzen "Kuchen". Vega 10 gibt es in zig verschiedenen Varianten. Im Gamingsektor am Desktop wird es 4 verschiedene V10 geben. Dann gibt es die Vega FE, Mi25 und bei Apple werden auch noch Vegas verbaut. Bald gibt es APUs mit VegaIP. Dann haben wir noch die Radeon Pro SSG und bestimmt habe ich noch was vergessen. Egal in welchen Bereich man schaut... überall heißt es Vega. Aber natürlich ist es die drölftausendste Pleite bei AMD weil in einigen Monaten Volta kommt wo man die Leistung noch überhaupt nicht einschätzen kann. Zumal hier dank fast gleichen Fertigungsprozess auch keine großen Sprünge zu erwarten sind.
Menace
2017-08-03, 14:58:58
Apple hat die 56 auch im Angebot schätze mal da wird ne ordentlich Menge hingehen,wenn du Apple als Partner hast das behandelst du die wie Könige.
https://www.apple.com/de/imac-pro/specs/
Hoffentlich bleiben genug für den Retail-Markt und sie verkaufen Vega nicht zu billig an Apple. Aber schön, dass das funktioniert.
OT Frage zu Apple: Ist der Monitor nicht höhenverstellbar?
deekey777
2017-08-03, 15:01:53
Nein, vielleicht kann die Neigung geändert werden.
Die Neigung der Apple-Kunden? Glaube ich nicht. :biggrin:
MfG,
Raff
deekey777
2017-08-03, 15:06:40
Die Neigung der Apple-Kunden? Glaube ich nicht. :biggrin:
MfG,
Raff
Zu viel flüssigen Stickstoff eingeatmet?
;D
Hast du Infos zu VCE?
X-Bow
2017-08-03, 15:11:59
Was? Wie? Hat sie? Weiß man woher?
Gab auf der Sig eine Folie von AMD dazu, wie immer findet man im Internet nichts mehr...
Aber CB berichtet auch davon:
https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/
Menace
2017-08-03, 15:13:39
Die Neigung der Apple-Kunden? Glaube ich nicht. :biggrin:
Good one. ;D Ist da eine Vega nicht Perlen vor die... ach, zu offtopic. :wink:
Hast du Infos zu VCE?
Auf https://www.x.org/wiki/RadeonFeature/#index9h2 ist Vega inzwischen eingetragen, aber keine Neuigkeiten im Code zu sehen. VP9 encoding wird imho immer noch nicht gehen, decoding mit der neuen UVD moeglicherweise.
Adam D.
2017-08-03, 15:31:43
Ich kann das bald mit eurem Volta nicht mehr hören. Gaming ist nur ein Teilaspekt vom ganzen "Kuchen". Vega 10 gibt es in zig verschiedenen Varianten.
90% der User hier denken aber primär in Gaming-Kategorien und da ist seit einem Jahr im roten Lager nichts anderes als warten angesagt. Was interessiert es mich als Endkunde mit 'nem Gaming-PC, wo Vega noch überall landet? Freut mich für AMD, aber wenn ich jetzt noch bis zum Herbst warten muss, bis ein gescheites Custom-Design am Markt ist, dann ist die Zeit bis zum Marktstart des Nvidia-Refreshs so nah dran, dass ich mal wieder - ja, rate mal, warten kann.
Blediator16
2017-08-03, 15:37:25
90% der User hier denken aber primär in Gaming-Kategorien und da ist seit einem Jahr im roten Lager nichts anderes als warten angesagt. Was interessiert es mich als Endkunde mit 'nem Gaming-PC, wo Vega noch überall landet? Freut mich für AMD, aber wenn ich jetzt noch bis zum Herbst warten muss, bis ein gescheites Custom-Design am Markt ist, dann ist die Zeit bis zum Marktstart des Nvidia-Refreshs so nah dran, dass ich mal wieder - ja, rate mal, warten kann.
Wenn jemand heulen will, ok, aber die komplette Vega Reihe als Müll abzustempeln, ist total Banane.
deekey777
2017-08-03, 15:39:57
Auf https://www.x.org/wiki/RadeonFeature/#index9h2 ist Vega inzwischen eingetragen, aber keine Neuigkeiten im Code zu sehen. VP9 encoding wird imho immer noch nicht gehen, decoding mit der neuen UVD moeglicherweise.
Das einzig greifbare, was ich finden konnte, ist das
4K Accelerated Encode/Decode
Multi-stream hardware H.265 HD encode/decode for power-efficient and quick video encoding and playback. 3
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
Was fehlt (und damit gibt gibt man gerne an): Irgendein Hinweis auf Software oder ähnliches. Oder wenigstens die Aufgenwischerei wie damals bei der Vorstellung von Polaris mit dem Pseudo-2-Pass-Encoding.
Kartenlehrling
2017-08-03, 15:40:34
Bin im falschen thread
BlacKi
2017-08-03, 15:41:42
nah, einzelne leute sind einfach zu empfindlich. thats all.
Opprobrium
2017-08-03, 15:47:56
90% der User hier denken aber primär in Gaming-Kategorien und da ist seit einem Jahr im roten Lager nichts anderes als warten angesagt. Was interessiert es mich als Endkunde mit 'nem Gaming-PC, wo Vega noch überall landet? Freut mich für AMD, aber wenn ich jetzt noch bis zum Herbst warten muss, bis ein gescheites Custom-Design am Markt ist, dann ist die Zeit bis zum Marktstart des Nvidia-Refreshs so nah dran, dass ich mal wieder - ja, rate mal, warten kann.
Ist doch schön. Entweder man braucht eine Karte und läuft auch die, die man für sinnvoll erachtet, oder man hätte gerne eine Karte, bei der man das Gefühl hast alles richtig zu machen (favorisierter Hersteller, Features, Preis, Leistung, Verbrauch, Lüfter, Design und was weiß ich noch). War neu mir zuletzt die HD5850, die ist dann leider irgendwann gestorben. Hatte dann eine Fiji Nano, die ich aber kürzlich mich zu einem recht guten Preis verkauft habe.
Für mich bedeutet das ich brauche demnächst eine Karte, und da steht Vega allem Anschein nach hat nicht so schlecht da. Werde noch auf Reviews und die Nano warten und mich bis dahin dank iGPU weniger zum Zocken verleiten lassen :)
Ach, und wenn Volta dann vollständig auf dem Markt ist ist es auch nicht mehr so lange hin bis Navi erscheint, dann muss man ja wieder warten ;)
Mangel76
2017-08-03, 16:00:38
CB (https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/):
AMD nennt für die Radeon RX Vega 64 und die RX Vega 56 den 14. August als Termin.
vs. PCGH (http://www.pcgameshardware.de/Radeon-RX-Vega-56-Grafikkarte-266624/News/AMD-Benchmarks-gegen-Geforce-GTX-1070-1234849/):
Am 14. August wird AMD mit der Radeon RX Vega 64 die erste GCN-5-basierte Grafikkarte für den Endkundenmarkt veröffentlichen. Die kleinere RX Vega 56 mit teildeaktivierter Vega-10-GPU und langsamerem HBM2 wird zu einem noch nicht genannten Zeitpunkt später folgen.
Was stimmt denn nun? :confused:
Adam D.
2017-08-03, 16:02:39
Wenn jemand heulen will, ok, aber die komplette Vega Reihe als Müll abzustempeln, ist total Banane.
Macht doch keiner, oder? (Außer die üblichen Verdächtigen, die man getrost ignorieren kann) Zu spät, auf jeden Fall. Konkurrenzfähig? Wird man sehen müssen, sieht aber aktuell gut aus.
Ich war 100% auf Vega 56 aus, nur spricht aus mir echt der Frust, wollte nach meiner jetztigen 970 auf keinen Fall mehr Nvidia kaufen, schauen wir mal, wie das so klappt :freak:
dildo4u
2017-08-03, 16:10:54
CB (https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/):
vs. PCGH (http://www.pcgameshardware.de/Radeon-RX-Vega-56-Grafikkarte-266624/News/AMD-Benchmarks-gegen-Geforce-GTX-1070-1234849/):
Was stimmt denn nun? :confused:
Die AMD Folien zeigen nur 64 für August.
http://abload.de/img/slides-raja-441ls4d.jpg
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/5.html
reaperrr
2017-08-03, 16:14:07
Zumal hier dank fast gleichen Fertigungsprozess auch keine großen Sprünge zu erwarten sind.
Das sehe ich leider anders (und ich habe ne RX 470 und AMD-Aktien...).
GV100 deutet stark darauf hin, dass NV mit Volta in dem 12FFN-Prozess in der Lage sein wird, 40% mehr SM in nur ~25% mehr Fläche bei ungefähr gleich bleibenden TDPs und Taktraten zu packen.
Also GV104-Full ca. auf 1080Ti-Niveau, GV104-Salvage ca. auf 1080OC-Niveau, GV106-Full ca. auf 1070 FE-Niveau usw..
Das reicht, um z.B. 1070-Performance bei 1060-6G-Verbrauch für ~299$ anbieten zu können. Dann müsste AMD Vega56 schon fast mit Null-Marge verkaufen, da allein der Chip schon fast doppelt so groß wie GV106 sein dürfte, und 8GB HBM2 auch viel teurer als 6GB G5X/G6 sein werden.
y33H@
2017-08-03, 16:15:59
Das sagt der Hersteller:The launch of the Radeon RX Vega family of GPUs, with availability starting from Aug. 14th, including three new products [...]
Complicated
2017-08-03, 16:23:14
AMD hat nie gesagt, wie genau man über das HBCC-Feature auf Dinge wie Netzwerkspeicher zugreifen kann. Da es durchaus ein paar technischere Erklärungen seitens AMD gibt, die daruf hindeuten, daß der HBCC praktisch (auch) die Funktion einer Hardware-Paging-Engine ausführt, steht es stark zu vermuten, daß für bestimmte Zugriffe (z.B. auf Netzwerklaufwerke) die Mithilfe des OS/Treiber von Nöten ist. Wie das allgemein z.B. mittels memory mapped files funktionieren kann, habe ich schon vor einiger Zeit erklärt. Das ist eine recht universelle Lösung, die aber eben nicht völlig autonom von der GPU durchgeführt werden kann (es verläßt sich auf das Memory Management des OS, dessen virtueller Adressraum eben im 49Bit-Adressraum der GPU vollständig enthalten ist; Funktionen des OS zu duplizieren wäre ja bescheuert und nie so flexibel seitens der möglichen Hardware- und Softwareunterstützung). Es fügt sich aber harmonisch ein.
Das alles was du schreibst ist korrekt. Ich habe auch nie anderes behauptet. Dass das OS nicht beteiligt sein soll steht in keinem meiner Beiträge. Oder etwas von völliger Autonomie.
Hier wird von anderen abgestritten, dass AMDs HBCC auf Netzwerkspeicher oder SSD/HDD schreiben und lesen kann die zuvor in gemeinsamem Adressraum alloziert wurden und dann Cachekohärent zugegriffen wird.
Ich erinnere an die Ausführungen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11380921&postcount=5034
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11375481&postcount=4245
The HBCC gives the GPU access to 512TB (half a petabyte) of virtual address space and gives the GPU fine-grained control, for adaptable and programmable data movement. Often, more memory is allocated for a particular workload than is necessary; the HBCC will allow the GPU to better manage disparities like this for more efficient use of memory. The huge address space will also allow the GPU to better handle datasets that exceed the size of the GPU’s local cache. AMD showed a dataset being rendered in real-time on Vega using its ProRender technology, consisting of hundreds of gigabytes of data. Each frame with this dataset takes hours to render on a CPU, but Vega handled it in real-time.
Read more at http://hothardware.com/reviews/amd-v...MK6S6Xreltg.99 (http://hothardware.com/reviews/amd-vega-gpu-architecture-details-revealed#PfPIeMK6S6Xreltg.99)
Grendizer
2017-08-03, 16:33:59
Das sagt der Hersteller:
Das sieht dann doch echer nach einem Start von Vega 56 frühstens im September aus. Wird AMD die 56er vieleicht gar nicht selber anbieten, sondern nur die Partner ? Habe das nicht auf dem Schirm ?
X-Bow
2017-08-03, 16:34:19
Das sehe ich leider anders (und ich habe ne RX 470 und AMD-Aktien...).
GV100 deutet stark darauf hin, dass NV mit Volta in dem 12FFN-Prozess in der Lage sein wird, 40% mehr SM in nur ~25% mehr Fläche bei ungefähr gleich bleibenden TDPs und Taktraten zu packen.
Also GV104-Full ca. auf 1080Ti-Niveau, GV104-Salvage ca. auf 1080OC-Niveau, GV106-Full ca. auf 1070 FE-Niveau usw..
Das reicht, um z.B. 1070-Performance bei 1060-6G-Verbrauch für ~299$ anbieten zu können. Dann müsste AMD Vega56 schon fast mit Null-Marge verkaufen, da allein der Chip schon fast doppelt so groß wie GV106 sein dürfte, und 8GB HBM2 auch viel teurer als 6GB G5X/G6 sein werden.
Ich werde das Gefühl nicht los, das Volta performence-technisch kein so großer Sprung gegenüber Pascal werden wird wie ihr Euch das vorstellt. Gerade was DX11 angeht. Volta wird wie Vega sich weiter auf DX12/Vulkan konzentrieren und durch diese neue Struktur braucht es neue Treiber.
Deswegen wird es schon zu einem Duell Volta gegen Vega kommen und das Spiel um bessere Treiber geht hier von vorne los^^ (Ich sprech von Games)
X-Bow
2017-08-03, 16:36:55
Das sieht dann doch echer nach einem Start von Vega 56 frühstens im September aus. Wird AMD die 56er vieleicht gar nicht selber anbieten, sondern nur die Partner ? Habe das nicht auf dem Schirm ?
Sie bieten die V56 doch im "Red Pack" an, also denke ich schon das die im Ref. Design kommt.
dargo
2017-08-03, 17:11:25
90% der User hier denken aber primär in Gaming-Kategorien und da ist seit einem Jahr im roten Lager nichts anderes als warten angesagt. Was interessiert es mich als Endkunde mit 'nem Gaming-PC, wo Vega noch überall landet? Freut mich für AMD, aber wenn ich jetzt noch bis zum Herbst warten muss, bis ein gescheites Custom-Design am Markt ist, dann ist die Zeit bis zum Marktstart des Nvidia-Refreshs so nah dran, dass ich mal wieder - ja, rate mal, warten kann.
Meine Güte... der nächste Einzelfall. Kaufe einfach eine Nvidia Gamingkarte und sei glücklich anstatt wieder im Vega Thread rumzuheulen.
Das sehe ich leider anders (und ich habe ne RX 470 und AMD-Aktien...).
GV100 deutet stark darauf hin, dass NV mit Volta in dem 12FFN-Prozess in der Lage sein wird, 40% mehr SM in nur ~25% mehr Fläche bei ungefähr gleich bleibenden TDPs und Taktraten zu packen.
Und das nennst du Fortschritt? Weck mich wieder wenn die nächste Grafikkarte ca. Faktor 2 für ~500€ liefert.
Dann müsste AMD Vega56 schon fast mit Null-Marge verkaufen, da allein der Chip schon fast doppelt so groß wie GV106 sein dürfte, und 8GB HBM2 auch viel teurer als 6GB G5X/G6 sein werden.
Geht schon wieder los. Macht euch weniger Gedanken um die Margen wo ihr die Kosten eh nicht kennt. Für höhere Margen hat AMD andere Segmente im GPU-Bereich. Und zum Glück jetzt auch eine starke CPU wo Intel gar nicht mehr weiß wo hinten und vorne ist.
Leonidas
2017-08-03, 17:13:49
Mal zu V20: Ich gehe davon aus, dass 7nm mit 64NCUs einfach BS waren, der sieht nicht so aus, das macht 0 Sinn. 7nm ist Navi.
So lange die entsprechende Roadmap (die bis jetzt immer korrekt war) nicht gerade regelrecht Fake ist, dann war V20 in jedem Fall in 7nm geplant. Als Pipecleaner für 7nm auch durchaus sinnvoll. Nun bringt man es lieber in 14nm, wahrscheinlich weil 7nm gar nicht so einfach geht wie gedacht.
pilzsammler2002
2017-08-03, 17:20:37
Ich werde das Gefühl nicht los, das Volta performence-technisch kein so großer Sprung gegenüber Pascal werden wird wie ihr Euch das vorstellt. Gerade was DX11 angeht. Volta wird wie Vega sich weiter auf DX12/Vulkan konzentrieren und durch diese neue Struktur braucht es neue Treiber.
das ist ein guter punkt auch wenn es leicht offtopic ist... Vorallem da man den Volta GV100 nicht als maßstab für die ganze next gen nehmen sollte... :freak:
Die Strukturverbesserung ist nicht so "groß" wie die 12nm (Marketing wie 16 und 14 etc.) es vermuten lassen. Deshalb würde ich da jetzt auch keinen Mega-Sprung erwarten...
Denke auf lange sicht sind die Treiber bei der Vega am wichtigsten... Wenn sie das irgendwann komplett im Griff haben (mehr leute und R&D budget etc.) dann werden sich die release-zyklen auch wieder anpassen :cool:
Anpassen im Sinne von, schnellere releases und konkurrenzfähig mit innovationen auf beiden Seiten...
Wiseman
2017-08-03, 17:21:22
Ich bin überrascht, wie schnell es Custom Vega 64 geben wird.
https://sapphirenation.net/sapphire-radeon-vega/
Sapphire kündigt hier offiziell an, dass man die 3 Sapphire Vega 64 Varianten ab 14. August kaufen kann.
@horn12
Ich denke, wir zwei zufriedene Sapphire Fury (non-X) Besitzer können in aller Ruhe bis Anfang/Mitte September warten, bis es Reviews zu den Custom Vega 56 Karten gibt. Wenn man mal 2 Jahre lang eine lautlose Grafikkarte genießen konnte, so wie wir zwei, dann will man nichts anderes mehr, gell. Ich hoffe doch sehr, dass Sapphire auch eine lautlose Vega 56 im Angebot haben wird.
fondness
2017-08-03, 17:23:14
Das sind alles Referenzdesigns von AMD.
Adam D.
2017-08-03, 17:23:25
bitte löschen
Grendizer
2017-08-03, 17:24:38
Ich bin überrascht, wie schnell es Custom Vega 64 geben wird.
https://sapphirenation.net/sapphire-radeon-vega/
Sapphire kündigt hier offiziell an, dass man die 3 Sapphire Vega 64 Varianten ab 14. August kaufen kann.
Das sind doch das ganz normale Referenzdesign. War bei Polaris auch nicht anders beim Release. Die eigenen Kühlerdesigns haben die Partner aber erst etwas später an den Start gebracht,.
Erbsenkönig
2017-08-03, 17:24:54
Ich bin überrascht, wie schnell es Custom Vega 64 geben wird.
https://sapphirenation.net/sapphire-radeon-vega/
Sapphire kündigt hier offiziell an, dass man die 3 Sapphire Vega 64 Varianten ab 14. August kaufen kann.
Ist das nicht das Ref Design? Oder sind die Bilder nur Platzhalter?
Schnoesel
2017-08-03, 17:25:34
Was bedeutet Max Clock (DPM7)? Da ist bei der SAPPHIRE Radeon RX Vega 64 Liquid Cooled 1750Mhz angegeben.
Blediator16
2017-08-03, 17:27:24
Ok, viel Spaß dabei, ausschließlich "ausgewogen" das große Bild im Blick zu behalten. Freue mich schon darauf, weitere Argumente von dir zu hören, warum ein später Release für die Kunden überhaupt das allertollste ist, denn Apple kauft jetzt auch bei AMD ein! Jesus Christ...
Wahrscheinlich dachten die sich bei AMD auch "lass uns doch mal im HighEnd Segment komplett raus sein, damit sich die Leute aufregen" was glaubst du eigentlich wie das läuft?
AMD hat so wenig Geld zu Verfügung, dass das an ein Wunder grenzt, dass die Ryzen so gut hinbekommen haben und GPUs liefern können, die einigermaßen mit der Konkurrenz mithalten.
@Wiseman
Das bestätigt die Aussage seitens AMD, dass der Grund (mitunter) des späten Launches darin begründet liegt, genügend Karten auf Halde zu kriegen, um auch Mögliche Probleme mit den Minern vorzubeugen.
Andere mögen in dieser Aussage eine indirekte Bestätigung für HBM-Probleme sehen, aber das sehe ich, im Fall, dass ab dem 14. August auch gleich Karten Breitflächig zur Verfügung stehen nicht so.
Mal davon ab, dass hinsichtlich Minen, Vega wieder ein Leckerbissen werden wird, auch wenn mit HBM noch nicht viel angefangen werden kann - wie ich aber zu hören bekommen habe, sind die Russen mittlerweile dem Ziel nahe, dass effektiv mit dem HBM "gearbeitet" werden kann...
Nun... ein Vega 56 könnte sich mit hinblick auf die Nextgen (sei es nun Volta/Navi) als Lukratives Geschäft entpuppen, was den Wiederverkauf der Vega 56 betrifft, genau wie es eben mit Polaris und kurzfristig Hawaii/Grenada war...
Gipsel
2017-08-03, 17:28:49
Was bedeutet Max Clock (DPM7)? Da ist bei der SAPPHIRE Radeon RX Vega 64 Liquid Cooled 1750Mhz angegeben.Das ist der maximale Boost-Clock, der höher liegt, als die von AMD beworbene Boost-Clock. AMD hat sich da etwas an nV angenähert. Die von AMD angegebene/beworbene Boost-Taktrate (offiziell 1677MHz für die Liquid Cooling Edition) ist nicht mehr die höchste Taktrate, die die GPU im Betrieb@stock erreichen kann. Offenbar gibt Sapphire die aber trotzdem noch mit an (der höchste DPM-State sollte die maximale erreichbare Taktrate sein, die man aber im Normalbetrieb wohl eher selten sehen wird).
Locuza
2017-08-03, 17:29:54
Was bedeutet Max Clock (DPM7)? Da ist bei der SAPPHIRE Radeon RX Vega 64 Liquid Cooled 1750Mhz angegeben.
Der maximal erreichbare Clock-State.
Bei der Vega Frontiers Edition waren es die 1600 Mhz.
AMD ändert die Vermarktung der Taktraten mit der RX Vega.
Der Boost-Clock ist nun wie bei Nvidia eher als typischer Takt zu verstehen und nicht eine maximale Schranke, die in der Praxis selten bis nie erreicht wird.
Edit: Gegipselt :O
Adam D.
2017-08-03, 17:31:18
Wahrscheinlich dachten die sich bei AMD auch "lass uns doch mal im HighEnd Segment komplett raus sein, damit sich die Leute aufregen" was glaubst du eigentlich wie das läuft?
AMD hat so wenig Geld zu Verfügung, dass das an ein Wunder grenzt, dass die Ryzen so gut hinbekommen haben und GPUs liefern können, die einigermaßen mit der Konkurrenz mithalten.
Ich bin mir über die Situation doch im Klaren, ich habe nur versucht, aus individueller Perspektive Frust über die aktuelle Marktsituation zum Ausdruck zu bringen. Ich stelle aber selbstkritisch fest, dass ich mich hier jetzt raushalte und erstmal den Launchtag abwarte, die Diskussion führt zu nix.
Schnoesel
2017-08-03, 17:37:18
Danke @ Gipsel/Locuza
Mal sehen was mit OC da noch möglich ist.
Ich stelle aber selbstkritisch fest, dass ich mich hier jetzt raushalte und erstmal den Launchtag abwarte, die Diskussion führt zu nix.
Besser so. Ich hätte mir auch mehr gewünscht aber eventuell wirds noch was mit einer Leistung in der Gegend einer OC 1080 (mit manuellem OC).
dargo
2017-08-03, 17:37:59
Das ist der maximale Boost-Clock, der höher liegt, als die von AMD beworbene Boost-Clock. AMD hat sich da etwas an nV angenähert. Die von AMD angegebene/beworbene Boost-Taktrate (offiziell 1677MHz für die Liquid Cooling Edition) ist nicht mehr die höchste Taktrate, die die GPU im Betrieb@stock erreichen kann. Offenbar gibt Sapphire die aber trotzdem noch mit an (der höchste DPM-State sollte die maximale erreichbare Taktrate sein, die man aber im Normalbetrieb wohl eher selten sehen wird).
Interessant... das lässt wiederum hoffen, dass die GPUs in Games näher am Boosttakt als am Basetakt operieren.
dosenfisch24
2017-08-03, 17:42:47
Interessant ist doch, dass LC Variante 1750MHz erreichen soll. Das hat bisher keiner der Tester mit der FE geschafft, selbst mit geänderter Kühlung.
dargo
2017-08-03, 17:45:29
Ich denke das hängt mit den bei Vega FE noch nicht richtig funktionierenden Stromsparmechanismen zusammen. d2kx meine mal da würde noch nicht alles richtig funktionieren. Wenns richtig funktioniert wird halt bei gleichem PT-Limit etwas mehr Takt erreicht.
Falscher Ansatz... es wurde bei Vega FE so hoher Takt auch nicht mit manuell erhöhten PT-Limit erreicht oder? Vielleicht selektiert AMD für die XTX?
dosenfisch24
2017-08-03, 17:54:41
Selbst bei +50% war so weit ich weiß zwischen 1680 und 1700MHz Schluss
Edit: Bei beyond3d spekulieren sie, ob bei der FE noch kein "adaptive clocking" aktiviert ist.
Schnoesel
2017-08-03, 18:05:54
Also nochmal kurz nachgesehen wegen OC bei der FE und alle haben gemeint, dass es extrem buggy wäre:
http://www.gamersnexus.net/hwreviews/2973-amd-vega-frontier-edition-reviewed-too-soon-to-call?showall=1
We are working on OCing still, just running into lots of bugs.
https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review/Clock-Speeds-and-Power-Co
As the first person (pretty much) with a Radeon Vega Frontier Edition in hand, overclocking is a bit of the wild west.
fondness
2017-08-03, 18:36:13
Schlechte Nachricht für Gamer, wenn es stimmt:
Seems the hash rate on VEGA is 70-100 per card, which is insanely good. :(
Trying to devise some kind of plan so gamers can get them at MSRP without the miners wiping all the stock out within 5 minutes of product going live.
https://forums.overclockers.co.uk/threads/gibbo-vega-preorders.18788127/page-6#post-31026435
Zum Vergleich: Eine TITAN Xp schafft ~30.
AMD has allegedly just informed their partners that RX Vega 64 will achieve very high hash rate in Ethreum mining.
This information comes from a good source of mine, but for now, take it with a grain of salt. Apparently, new features were enabled on the latest RX Vega driver, which have also (indirectly) increased mining performance of Vega.
I’m not a fan of sharing numbers I can’t verify, but we are looking at at least doubled Vega Frontier mining performance (which has a hash rate of ~30 MH/s). This number comes internally from AMD.
https://videocardz.com/71591/rumor-amd-radeon-rx-vega-64-to-be-great-for-mining
AlterSack
2017-08-03, 18:37:39
90% der User hier denken aber primär in Gaming-Kategorien und da ist seit einem Jahr im roten Lager nichts anderes als warten angesagt. Was interessiert es mich als Endkunde mit 'nem Gaming-PC, wo Vega noch überall landet? Freut mich für AMD, aber wenn ich jetzt noch bis zum Herbst warten muss, bis ein gescheites Custom-Design am Markt ist, dann ist die Zeit bis zum Marktstart des Nvidia-Refreshs so nah dran, dass ich mal wieder - ja, rate mal, warten kann.
Der Volta wird ja wohl eh ein anderes Segment bedienen
als Vega56/GTX1070. Ausserdem kaufen Nvidia-Jünger
prinzipiell nix was von AMD kommt.
dargo
2017-08-03, 18:39:20
Schlechte Nachricht für Gamer, wenn es stimmt:
https://forums.overclockers.co.uk/threads/gibbo-vega-preorders.18788127/page-6#post-31026435
https://videocardz.com/71591/rumor-amd-radeon-rx-vega-64-to-be-great-for-mining
Verdammte Hacke!!! :mad:
Schlechte Nachricht für Gamer, wenn es stimmt:
Sach ich doch. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11448899&postcount=10815)
Ich werde mir wohl mehrere 56er krallen, die gehen nachher weg wie warme semmeln. Die Miner schröpf ich :freak:
Linmoum
2017-08-03, 18:44:56
Alter Schwede, das wäre ja abnormal. Bin ja mal gespannt, ob es (früher oder später) auch gesonderte Editionen geben wird. Wobei man, sofern das stimmt, nicht einmal im entferntesten mit der Produktion nachkommen wird.
fondness
2017-08-03, 18:46:10
Das würde zumindest auch zeigen, dass bei der RX Vega doch noch einiges freigeschaltet wurde, was bei der Front-Edition noch fehlte und lässt natürlich auch auf bessere Performance in Spielen hoffen.
Die "speziellen" Mining Karten müssten abartig günstiger sein, was mit dem dicken Chip und HBM völlig Absurd wäre. Zumal die Miner sich ja dann quasi vom Gebrauchtmarkt abschneiden...
Was willst du denn auch noch machen?
Software o.Ä die da etwas blockiert? Das fummeln die sich dann wieder zurecht.
Nen Extra Chip aufm PCB? Kriegen die auch umgemogelt. Alles Ressourcen die AMD sich schenken kann...
Geht mal in die Russischen Miner Foren... was die da veranstalten ist nicht mehr normal... da ist der Typ in Island nen Witz gegen.
Tja.. ist ganz schön scheiße für AMD... kriegen die Karten zwar Mengenmäßig wie Semmeln weg gerissen, aber dem Marktanteil wird das zusetzen.
Und produziert AMD zuviel und es wurde wieder eine groß angelegte Attacke gefahren, und die Blase platzt, hängen sie auf den vollen Lagern und die Teile liegen wie Blei in den Regalen.
Grendizer
2017-08-03, 18:50:37
Aber jetzt aufeinmal die 3x Hashrate der Vega Frontier Edition ? .... ich werde mir mal 4x Vega 56 vorbestellen, sobald es geht ... bei den Preisen kann ich mir vom "Gewinn" des Weiterverkaufs mir ja fast eine Threadripper CPU kaufen
Achill
2017-08-03, 18:56:25
Verdammte Hacke!!! :mad:
Wenn man es positive sieht, dann können wir spielen und lassen hinten rum mit evtl. ~45 hashes noch etwas Etherium (oder was auch immer) "minen" mit async compute in niedriger Prio laufen ... Es muss dann nur Chill erweitert werden, dass wenn keine Eingaben kommen, der Miner etwas mehr zulangen darf ... ;D
Nvidia wird das freuen... Marktanteile aufgrund Mangelware bei der Konkurrenz.
Edit:
RTG soll sich in RTM umbenennen, Ready to Mine...
Thomas Gräf
2017-08-03, 19:10:13
Wo ist horn 12...ein Batch Vegas bitte nach 3DC. :biggrin:
Troyan
2017-08-03, 19:10:59
Vega hat nur 484GB/s an Bandbreite. P100 hat 732GB/s und kommt auf rund 70Mh/s mit Ethereum.
Da es zig verschiedene Coins gibt, bringt das bloße Nennen der Nummer keinen Mehrwert.
Nvidia wird das freuen... Marktanteile aufgrund Mangelware bei der Konkurrenz.
Edit:
RTG soll sich in RTM umbenennen, Ready to Mine...
Bringt NV nicht viel, wenn sich der Konkurrent trotzdem dumm und dämlich an seinem Produkt verdient :(.
Was ich allerdings an den Werten von Tweaktown nicht verstehe ist, dass V56 praktisch bereits so schnell ist wie eine 1080FE. Wie kann es also sein, dass sich eine XTX nicht einmal von V56 absetzen kann?
Zockerfrettchen
2017-08-03, 19:11:50
Ich kenne mich mit dem ganzen Mining-Quatsch nicht besonders gut aus ;-)
Habe aber das Gefühl, der Öko-Knopf im Bios wurde nur für die Miner gemacht. Kann einer die Attraktivität einer solchen Karte für Miner einschätzen (65% Verbrauch bei -15% Performance)? Wenn die Karte da Nutzen stifftet, ist es eigentlich egal, wie sie im Gaming im Vergleich zu Nvidia steht. Vega FE für CAD-Einsatz, Vega fürs Mining (und Gaming im höheren Preissegment). Wenn es für AMD gut läuft, hält der Mining-Boom bis Navi am Markt ist und man die Probleme von Vega gefixed hat. Dann hat man auch nicht das Problem, dass die RX480 etc den Markt fluten, da Navi das erfüllt was Vega versprochen hat: Deutliche Mehrperformance.
Wenn das so hinauen sollte ist Vega für AMD ne Goldgrube, zumindest deutlich lukrativer als die Generation hier dargestellt wird. Nichts für Gamer aber sehr gut fürs Konto von AMD...
Grüße,
Zockerfrettchen
Selbstlob stinkt.... Wenn die Karten so stark im Mining sind, könnte jemand das nochmal einordnen bezüglich des "Öko-Bios"?
@gedi,
klar bringt das NV was ( Marktanteil )... genau das braucht doch AMD.
Ich wüsste nicht, was AMD am Marktanteil von ~90% im Mining für @Games bringt :D
Piefkee
2017-08-03, 19:17:23
This information comes from a good source of mine, but for now, take it with a grain of salt. Apparently, new features were enabled on the latest RX Vega driver, which have also (indirectly) increased mining performance of Vega.
https://videocardz.com/71591/rumor-amd-radeon-rx-vega-64-to-be-great-for-mining
@Horn12 da ist dein Wundertreiber!
Spaß beiseite, wenn das stimmt das Vega von 30 auf 100MH/s mit einen Treiber kommt, dann kann man jetzt schon sagen das die Gaming-Performance noch deutlich zunimmt. AMD hat wohl wirklich ;D;D alle an der Nasse herumgeführt. Jetzt bin ich wirklich extrem auf die Reviews gespannt :biggrin::biggrin:
Kann auch daran liegen, dass mit dem HBM nun "umgegangen" werden kann, was bei der Fury noch ein Problem war... wie gesagt, die Russen tüftelten seit Fury am HBM rum... und kürzlich hieß es, die sind fast am Ziel....und dann kommt Gibbo... Zufall :D?
dildo4u
2017-08-03, 19:19:06
Warum sollte man es sich freiwillig schon wieder mit dem Gamern verscherzen,ich würde genau das Gegenteil machen und das Mining per Treiber beschränken.
lol ^^.... arg Naiv zu glauben, dass die sich davon beirren lassen. 70-100 Hash ist quasi Gold. Der Isländer kann gleich seine Hawaiis / Grenadas weg schmeißen
fondness
2017-08-03, 19:22:51
,ich würde genau das Gegenteil machen und das Mining per Treiber beschränken.
Und wie soll man das machen ohne die Gamingperformace einzuschränken? Eine App-Detektion kann man immer umgehen.
Chaser187
2017-08-03, 19:23:52
Zumal die Gamer unwichtig sind. Die Miner kaufen alle Karten und die haben auch die Kohle.
fondness
2017-08-03, 19:27:50
Das einzig gute an einer solchen Mining-Leistung wäre, dass dann alle anderen Karten schnell wieder verfügbar wären. :D
Screemer
2017-08-03, 19:28:11
Aber jetzt aufeinmal die 3x Hashrate der Vega Frontier Edition ? .
Das wird eher an gefixten Treibern und an fixes von claymore in seinem miner. Das hat sich in einschlägigen Foren schon angekündigt.
Dino-Fossil
2017-08-03, 19:33:03
Oder es ist mal wieder der typische pre-release Quatsch. Abwarten.
Loeschzwerg
2017-08-03, 19:38:23
Ich hoffe es.
Mein Hass auf die Miner wächst trotzdem irgendwie :freak: Für den Scheiß soll es gefälligst eigene Hardware geben.
Das einzig gute an einer solchen Mining-Leistung wäre, dass dann alle anderen Karten schnell wieder verfügbar wären. :D
Hehe, dann steige ich wieder auf Nvidia um.
Complicated
2017-08-03, 19:41:31
Keine Ahnung was ihr habt, konnten wir doch hier mehrfach schon lesen, dass kein Gamer Vega kaufen will bei GTX 1080 Leistung und bei dem Stromverbrauch. Nun kaufen es andere und es ist auch nicht Recht? AMD kann einem echt Leid tun.
;)
70-100 hash würde allerdings auch bedeuten, dass man diese Karten nicht so schnell auf dem Gebrauchtmarkt zu sehen bekommen wird.
dildo4u
2017-08-03, 19:42:49
Zumal die Gamer unwichtig sind. Die Miner kaufen alle Karten und die haben auch die Kohle.
Hä du verkaufst an einen Miner keine Freesync Monitore und keine 6 oder 8 Core CPU's.AMD hat Massives Interessent daran man sich mit einem Freesync TFT eindeckt,der garantiert das du beim nästen mal wieder zu einer AMD GPU greifst.
Noch dazu macht AMD nicht mehr Kohle wenn der Händler 700€ für ne 500€ Karte einsteckt.
Schnitzl
2017-08-03, 19:43:03
Chris Hook spricht von 150Watt TGP (Typical Gaming Power; GPU+Mem) für die Nano.
https://www.youtube.com/watch?v=A1vLL1O9iQo (ab 1:12)
150W ? Super ist gekauft und wenn das Ding 600€ kostet mir egal ;D
Es sei denn nVidia bringt ne 1090Ti LP mit 150W ...
ich steh einfach auf solche "NischenProdukte", anderes Beispiel: deshalb fahre ich auch Saab XWD V6
Die Customs folgen relativ schnell, da die von Asus schon gelistet sind. https://geizhals.eu/asus-rog-strix-radeon-rx-vega-64-oc-gaming-a1664657.html
Da nur 64er Karten gelistet sind und auf der Basis viele Varianten angekündigt sind, kann man von einer guten Ausbeute reden (bei zu viel Spannung)
Die Mining Software via Treiber auszubremsen ist sicherlich eine Option........man muss ja nicht jede Optimierung freigeben....oder die Karten verbrauchen zu viel.....als Abschreckung.....
Idee- man flutet den Markt mit teuren 64er Modellen (inkl. Miningbedarf) und wenn den Markt bedient ist, flutet man die 56er in den Gaming Markt wo es gegen die 1070 geht. Erst Marge, dann Marktanteil......
Complicated
2017-08-03, 19:45:12
AMD könnte ja eine Gebraucht-Börse mit gebrauchten Polaris+Freesync Bundles eröffnen - die Vegas den Minern und die Freesync Monitore mit günstigen P10/20 zum Unschlagbaren Angebot machen :freak:
Den Markt kannst du nicht (stillend)-bedienen, bei der genannten Leistung, kaum kann man damit nen LKW/Flugzeug füllen sind die auch schon wieder weg.
Loeschzwerg
2017-08-03, 19:53:16
Die Mining Software via Treiber auszubremsen ist sicherlich eine Option...
Die Karten abfackeln lassen, spricht sich dann schon herum :freak:
mig23
2017-08-03, 19:53:29
Guten Tag!
Ich bin ein begeisterter Mitleser und „Wenigschreiber“, aber ich wollte gerne meine Sicht der Dinge einmal Mitteilen.
Da sich im Zuge des Älterwerdens einige „Aufgaben“ vor das Zocken am PC geschoben haben, bin ich
keine Person mehr, die ihre Grafikkarte alle 12 - 18 Monate austauscht. Wenn ich dieses Forum hier betrachte, habe ich den Eindruck, dass hier der Großteil dies jedoch macht oder sogar kürzere Intervalle bevorzugt.Wer sich das leisten kann soll das tun... :-)
Deswegen suche ich für mich persönlich eine Grafikkarte, die eine vernünftige Leistung bringt zu einem vernünftigen Preis mit der ich auch in 3 Jahren noch AA / AAA Titel unter vernünftigen Einstellungen zocken kann. Ich muss aber nicht schneller sein als mein Nachbar oder mein Block! ;-)
Deshalb ist meine aktuelle Grafikkarte eine R9 290 unter Wasser, die für mich für 1080p bis jetzt noch funktioniert. (Witcher 3, BF1, TW WARHAMMER) Diese habe ich im November 2013 gekauft und später umgebaut, doch jetzt soll Ersatz her für 1440p mit neuem Monitor. (Free-Sync oder G-Sync ist ja auch eine Kostenfrage...)
Und für diesen Verwendungszweck klingt die RX VEGA 56 für 399 Dollar / ca. 430 - 450 Euro im Vergleich zur GTX 1070 für ca. 480 - 500 Euro schon sehr interessant. Neuere Technik, neuerer Speicher, höhere oder gleiche vermutliche Performance, günstigerer Monitorpreis und, wie bei meiner 290, noch Verbesserungen möglich in naher/ferner Zukunft. Eine 1080 oder höher ist mir viel zu teuer für meine Ansprüche!
Ich finde, man muss sich auch mal die „Normalen“ User ins Gedächtnis rufen, die sind sehr froh über eine Belebung der Grafikkartenangebote in diesem mittleren Preisbereich! Die absoluten Leistungsjäger dürfen ruhig 1000 Euro ausgeben, und enttäuscht über die VEGA sein, ich bin es auf jeden Fall nicht.
Ich hoffe nur, dass man ab Oktober zu vernünftigen Preisen eine RX VEGA 56 bekommt und nicht alles zu den Zwergen geht... ;-)
Schnoesel
2017-08-03, 19:54:13
Abwarten. Als allerletzten Ausweg wirds ne 1080ti mit Wakü und neuem Monitor und darauf hab ich echt kein Bock.
5CH4CHT3L
2017-08-03, 19:56:46
Naja wenn die RX580 für 30MH/s 300€ Wert ist würden die Miner für RX Vega 64 mit angenommenen 100MH/s auch 1000€ blechen, Strombedarf relativiert sich da auch locker.
Insofern kann man nur hoffen das eine schlechtere Hashrate durch Vega den Boom abbremst bzw. andere Karten wieder verfügbar macht
dargo
2017-08-03, 20:07:33
Keine Ahnung was ihr habt, konnten wir doch hier mehrfach schon lesen, dass kein Gamer Vega kaufen will bei GTX 1080 Leistung und bei dem Stromverbrauch.
Stimmt nicht... ich kaufe eine...
wenn ich eine bekomme
:P
Der_Korken
2017-08-03, 20:15:23
Wenn man es positive sieht, dann können wir spielen und lassen hinten rum mit evtl. ~45 hashes noch etwas Etherium (oder was auch immer) "minen" mit async compute in niedriger Prio laufen ... Es muss dann nur Chill erweitert werden, dass wenn keine Eingaben kommen, der Miner etwas mehr zulangen darf ... ;D
Das wär echt das Knallerfeature schlechthin ;D
Tarkin
2017-08-03, 20:17:59
Stimmt nicht... ich kaufe eine...
wenn ich eine bekomme
:P
ditto! (y)
Complicated
2017-08-03, 20:34:55
Das wär echt das Knallerfeature schlechthin ;DAbsolut - am besten so wie das Streaming mit lediglich 3-4% Leistungsverlust und 6 Monaten Kaufpreis-Amortisation
X-Bow
2017-08-03, 20:36:31
Ich denke Vega wird viele Abnehmer* finden, ich will auch so eine schöne Wassergekühlte^^
*Nein ich sprech hier nicht von Miner:rolleyes:
captain_drink
2017-08-03, 20:40:43
Da hält AMD faktisch alles Relevante bis zum Schluss unterm Deckel und ausgerechnet die Info, die für leere Lager schon vor dem offiziellem Verkaufsstart sorgen wird, rutscht zwei Wochen vor selbigem raus. Zufall oder Methode?
Dino-Fossil
2017-08-03, 20:52:33
Zufall oder Methode?
Wer weiß - andererseits klingt das mMn eben sehr wie die Gerüchte, die man seit einer Weile vor jedem Launch hat - eine nicht näher genannte, aber angeblich mit Insiderinformationen ausgestattete Quelle hat dem Schreiber gesteckt das Produkt x Feature y bietet, dass alles bisher dagewesene in den Schatten stellt/unglaublich viel fortschrittlicher ist als alle Konkurrenzprodukte/etc...
Hinterher bleibt davon dann davon meist nichts übrig - sind halt Wichtigtuer/Trolle die das in Umlauf bringen.
AMD nannte in dem Interview ja, dass der Grund für die Verspätung, dass auf Halde füllen als Vorbeuge wegen Mining passierte.. nun... kann man als Ausrede sehen (HBM) oder es ist tatsächlich so... aber warum, wenn es doch nur der ~30 Hash sein wird, siehe FE? ...
Grendizer
2017-08-03, 21:03:46
AMD nannte in dem Interview ja, dass der Grund für die Verspätung, dass auf Halde füllen als Vorbeuge wegen Mining passierte.. nun... kann man als Ausrede sehen (HBM) oder es ist tatsächlich so... aber warum, wenn es doch nur der ~30 Hash sein wird, siehe FE? ...
Evtl. mußten sie auch erst noch ein Lager für die Apple lieferungen füllen. Keine Ahnung wieviel tausend Karten die auf einmal geordert haben. Macht aus Apple sicht ja auch sinn, wäre ja fatal, wenn man das kaufwütige Volk nicht bedienen kann.
Achim_Anders
2017-08-03, 21:04:38
Warum sollte die FE 30hash haben und jetzt rx vega 80+?
Das ist einfach nen troll...
Locuza
2017-08-03, 21:06:39
Warum sollte die FE 30hash haben und jetzt rx vega 80+?
Das ist einfach nen troll...
AMD hat vor einiger Zeit angekündigt den Compiler für Mining zu verbessern und bei der RX Vega Vorstellung haben sie bei den NCUs 40 neue Instruktionen angegeben, einige davon sind für Mining gedacht.
Könnte also sein, dass AMD die Compiler entsprechend optimiert hat und deswegen so eine große Leistungssteigerung auftritt.
Achim,
weil die Russen das Problemchen mit dem HBM gelöst haben... vor paar Tagen hieß es, man sei fast am Ziel... kann natürlich auch ein fucking Troll sein, und die ganzen Zufälle, die nun perfekt zusammenpassen, sind auch nur Zufall... +@Locuza, noch einer.. ja.. k.A mir zuviel Zufall für einen "Zufall" :P
dargo
2017-08-03, 21:11:07
Sind die Furys dann auch interessanter durch die HBM-Geschichte?
Jo.
Noch reichen die 4GB - also für jene die bereits eine haben, lohnt sich das durchaus. Mal sehen, mal die Nacht bei denen ne Runde lesen.
Rincewind
2017-08-03, 21:32:35
Stimmt nicht... ich kaufe eine...
wenn ich eine bekomme
:P
Ich auch, Vega 56.
Elite_Warrior
2017-08-03, 21:36:35
Solange keine böse Überraschung dabei ist, wird hier auch eine56 erworben
Angiesan
2017-08-03, 21:37:33
Ich finde Vega jetzt gar nicht so schlecht auch wenn dss Marketing mal wieder total versagt hat. Mit 16 GB Speicher könnte man auch von Zukunftsicherheit sprechen und die Zeit würde eine Vega 64 mit eben 16 GB auch die hier erwarteten Leistungsteigerung bescheren. Ich fürchte nur,dass der ständig wachsende Speicherhunger selbst die 8 GB in 1 bis 2 Jahren abgefrühstückt hat und Vega dann die Langlebigkeit wie Fury nicht zeigen kann. Eine Vega 64 für 599 Euro mit 16 Gb würde ich glatt ordern obwohl ich die Leistung mit meiner 1080 schon habe. Ich habe das deutlich bei meiner 980 gespürt vieles geht noch sehr gut von der reinen Leistungsfähigkeit aber die 4 GB Speicher haben oft genug nicht mehr gereicht und das in 1440 p. Das Paket mit abgearbeiteten Featureset und 16 GB würde ich wirklich interessant finden nur nicht zu dem aktuell aufgerufenen Preis der FE.und man hätte auch wie früher wieder einen weiteren Vorteil der durchaus in der Zielgruppe ansprechen könnte.
Erbsenkönig
2017-08-03, 21:38:34
Wenn die 56er rauskommt, muss hier einer so schnell wie möglich ne Sammelbestellung aufgeben, damit wir auch ja alle eine bekommen. Wer kann ein paar Tausender vorstrecken? :D
anddill
2017-08-03, 21:42:45
Wenn man es positive sieht, dann können wir spielen und lassen hinten rum mit evtl. ~45 hashes noch etwas Etherium (oder was auch immer) "minen" mit async compute in niedriger Prio laufen ... Es muss dann nur Chill erweitert werden, dass wenn keine Eingaben kommen, der Miner etwas mehr zulangen darf ... ;D
Das geht auch schon mit Hawai.
Ich finde Vega jetzt gar nicht so schlecht auch wenn dss Marketing mal wieder total versagt hat. Mit 16 GB Speicher könnte man auch von Zukunftsicherheit sprechen und die Zeit würde eine Vega 64 mit eben 16 GB auch die hier erwarteten Leistungsteigerung bescheren. Ich fürchte nur,dass der ständig wachsende Speicherhunger selbst die 8 GB in 1 bis 2 Jahren abgefrühstückt hat und Vega dann die Langlebigkeit wie Fury nicht zeigen kann. Eine Vega 64 für 599 Euro mit 16 Gb würde ich glatt ordern obwohl ich die Leistung mit meiner 1080 schon habe. Ich habe das deutlich bei meiner 980 gespürt vieles geht noch sehr gut von der reinen Leistungsfähigkeit aber die 4 GB Speicher haben oft genug nicht mehr gereicht und das in 1440 p. Das Paket mit abgearbeiteten Featureset und 16 GB würde ich wirklich interessant finden nur nicht zu dem aktuell aufgerufenen Preis der FE.und man hätte auch wie früher wieder einen weiteren Vorteil der durchaus in der Zielgruppe ansprechen könnte.
Da hat bei AMD einer genau aufgepasst wie das die Konkurrenz macht.
dildo4u
2017-08-03, 21:43:24
Ich finde Vega jetzt gar nicht so schlecht auch wenn dss Marketing mal wieder total versagt hat. Mit 16 GB Speicher könnte man auch von Zukunftsicherheit sprechen und die Zeit würde eine Vega 64 mit eben 16 GB auch die hier erwarteten Leistungsteigerung bescheren. Ich fürchte nur,dass der ständig wachsende Speicherhunger selbst die 8 GB in 1 bis 2 Jahren abgefrühstückt hat und Vega dann die Langlebigkeit wie Fury nicht zeigen kann. Eine Vega 64 für 599 Euro mit 16 Gb würde ich glatt ordern obwohl ich die Leistung mit meiner 1080 schon habe. Ich habe das deutlich bei meiner 980 gespürt vieles geht noch sehr gut von der reinen Leistungsfähigkeit aber die 4 GB Speicher haben oft genug nicht mehr gereicht und das in 1440 p. Das Paket mit abgearbeiteten Featureset und 16 GB würde ich wirklich interessant finden nur nicht zu dem aktuell aufgerufenen Preis der FE.und man hätte auch wie früher wieder einen weiteren Vorteil der durchaus in der Zielgruppe ansprechen könnte.
HBC soll doch das Problem mit dem Vram lösen.
https://youtu.be/85ProuqAof0
dargo
2017-08-03, 21:45:57
Ich finde Vega jetzt gar nicht so schlecht auch wenn dss Marketing mal wieder total versagt hat.
Dann schau dich mal gerade im Threadripper-Thread um. :eek:
Mit 16 GB Speicher könnte man auch von Zukunftsicherheit sprechen und die Zeit würde eine Vega 64 mit eben 16 GB auch die hier erwarteten Leistungsteigerung bescheren. Ich fürchte nur,dass der ständig wachsende Speicherhunger selbst die 8 GB in 1 bis 2 Jahren abgefrühstückt hat und Vega dann die Langlebigkeit wie Fury nicht zeigen kann. Eine Vega 64 für 599 Euro mit 16 Gb würde ich glatt ordern obwohl ich die Leistung mit meiner 1080 schon habe.
HBCC ist offensichtlich noch ein Fremdwort für dich. :)
Angiesan
2017-08-03, 21:49:11
HBC soll doch das Problem mit dem Vram lösen.
https://youtu.be/85ProuqAof0
Wenn ich das richtig verstanden habe wird es das Problem nicht lösen nur abfedern und es muss expliziet implementiert werden, wenn das NV nicht unterstützt werden wir das eher selten sehen.
dildo4u
2017-08-03, 21:54:17
Es muss von AMD im Treiber integriert werden nicht vom Spielehersteller.
Linmoum
2017-08-03, 21:54:25
Es muss nichts (vom Entwickler) implementiert werden und nVidia hat damit auch nichts zu tun. Die genauen Auswirkungen werden die Reviews dann zeigen.
Angiesan
2017-08-03, 22:01:06
Es muss nichts (vom Entwickler) implementiert werden und nVidia hat damit auch nichts zu tun. Die genauen Auswirkungen werden die Reviews dann zeigen.
Ok jetzt bin ich echt neugierig! Die Lebensdauer der vergangenen Grafikkarten hing bei vielen Spielen nach meinem Empfinden nicht an der reinen Leistungsfähigkeit sondern sehr oft am VRam zumindest im grünen Lager und das nervt! Aber die wissen halt wie sie an mein Geld kommen;-)
Screemer
2017-08-03, 22:13:05
Dann lies dich ein bisschen ein und such hier im thread noch hbcc. Das muss jetzt bitte nicht noch mal durch gekaut werden. Das hatten wir erst vor 2 tagen.
Complicated
2017-08-03, 22:23:15
:D;D:D
Hier etwas weniger technisch und konkret auf das VRAM-Limit bezogen:
https://www.computerbase.de/2017-02/amd-radeon-rx-vega/
Anhand des Spiels Deus Ex: Mankind Divided hat AMD die Wirksamkeit des High Bandwidth Cache Controller (HBCC) von Vega demonstriert. Mit HBCC lief die Demo deutlich flüssiger: Nach AMDs Angaben stieg bei Aktivierung von HBCC die durchschnittliche Bildrate (Average FPS) um über 50 Prozent. Die ebenso relevanten Minimum-FPS seien sogar um 100 Prozent erhöht worden. Ohne HBCC sei dem System der für die Demo 2 GByte große Speicher im regulären VRAM-Modus ausgegangen. Die Demo-Szene erfordere eigentlich 4 GByte Speicher, erklärte Koduri. Man wolle damit demonstrieren, dass dank HBCC mit nur 2 GByte Speicher eine mindestens ähnliche Leistung wie mit 4 GByte möglich wird.
Angiesan
2017-08-03, 22:30:08
Dann lies dich ein bisschen ein und such hier im thread noch hbcc. Das muss jetzt bitte nicht noch mal durch gekaut werden. Das hatten wir erst vor 2 tagen.
Das habe ich durchaus gemacht und in diese Richtung hat Gipsel auch eun paar interessante Dinge erläutert aber eine Einschätzung wie sich HBCC gegen eine Grafikkarte verhält der der Vram nicht ausgeht habe ich nicht gelesen. Was interessiett mich 7% wenn ein vergleichbares Produkt bei genügend VRam mal gerne 20 oder 30% schneller ist. Und wie sich das dann anfühlt will ich zuerst mal aus erster Hand erzählt bekommen.
@ Complicated:Danke ich war zu langsam schreibe hier aus dem Urlaub mit dem Handy und sehr langsamen Internet.
Nakai
2017-08-03, 22:32:57
Die Reviewer sollten definitiv dann die Min-FPS austesten. Wenn der VRAM groß genug ist, sollte es erstmal wenige bis keine Performance-Unterschiede geben.
Wie verhält sich eigentlich der VRAM-Verbrauch in Spielen? Kann dieser stark Schwanken? Kann es auch bei ausreichendem VRAM zu sogenannten Speicherspitzen kommen, welche ein Swapping und auch Zugriffe zum Hauptspeicher verursachen? Falls ja, dann kann der HBCC auch hier nützlich sein. Im Grunde wird es eher den Min-FPS gut tun, falls der VRAM knapp bemessen ist. Also liebe Reviewer, bitte die Min-FPS begutachten.
Elite_Warrior
2017-08-03, 22:36:02
Gambrinus sei dank wird es in modernen Redaktionen öfter gemessen, besonders die 99 Percentile find ich sehr gut.
dargo
2017-08-03, 22:45:03
Es wird erstmal überhaupt schwierig sein ein Spiel zu finden welches mit den 8GB Speicher von Vega ohne HBCC einknickt. :freak: Kann man das Feature überhaupt deaktivieren? Ich meine das ging nur mit dem ES oder nicht?
Angiesan
2017-08-03, 22:46:09
Die Reviewer sollten definitiv dann die Min-FPS austesten. Wenn der VRAM groß genug ist, sollte es erstmal wenige bis keine Performance-Unterschiede geben.
Wie verhält sich eigentlich der VRAM-Verbrauch in Spielen? Kann dieser stark Schwanken? Kann es auch bei ausreichendem VRAM zu sogenannten Speicherspitzen kommen, welche ein Swapping und auch Zugriffe zum Hauptspeicher verursachen? Falls ja, dann kann der HBCC auch hier nützlich sein. Im Grunde wird es eher den Min-FPS gut tun, falls der VRAM knapp bemessen ist. Also liebe Reviewer, bitte die Min-FPS begutachten. Mir ist nur aufgefallen das z. B. bei TR die eh schon hohe Speicherauslastung bei der 1080 unter DX 12 ans Limit geht. Ob dss nun einfach voll gemacht wird oder wirklich benötigt wird kann ich jedoch nicht sagen.
Digidi
2017-08-03, 23:27:05
Wer wissen will was für Vega spricht der soll sich Mal die neusten Fury X und 980ti benchmarks anschauen!
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Mini/28.html
@d2kx du weißt gar nicht was da noch so alles über deinen Köpfen fliegt. Die Geschäftswelt ist krank :(
Linmoum
2017-08-03, 23:27:51
Aber die fast finalen? :D
Langlay
2017-08-04, 01:00:03
Es wird erstmal überhaupt schwierig sein ein Spiel zu finden welches mit den 8GB Speicher von Vega ohne HBCC einknickt. :freak: Kann man das Feature überhaupt deaktivieren? Ich meine das ging nur mit dem ES oder nicht?
Ich meine bei Bildern vom Treiber einer Vega FE ein Button gesehen zu haben wo man es ein/aus schalten kann, also den HBCC.
Korfox
2017-08-04, 07:03:15
Man kann AMD vorwerfen, was man will... aber eines ist schon krass:
Nach vielen Aufs und Abs in der Berichterstattung haben sie es jetzt geschafft, zwischen Vorstellung und Release nochmal alle aufzuwecken und komplett in den Medien zu stehen. Und das, obwohl man schon mehrfach dachte, mit der VEGA FE sei alles gesehen und abschätzbar, was da kommen wird.
anddill
2017-08-04, 08:07:48
Es wird erstmal überhaupt schwierig sein ein Spiel zu finden welches mit den 8GB Speicher von Vega ohne HBCC einknickt. :freak: Kann man das Feature überhaupt deaktivieren? Ich meine das ging nur mit dem ES oder nicht?
Auf einer der früheren Vega-Veranstaltungen hatten sie den VRAM bis auf 2GB abgeschaltet, und das Spiel (war glaub ich BF1 auf Max) lief unbeeindruckt davon flüssig.
edit: Complicated war schneller und besser.
ilibilly
2017-08-04, 08:09:26
Also für mich war das schon enttäuschend am tag der presentation,aber jetzt ein paar tage später muss ich sagen das ich mich mit vega56 anfreunden kann,da amd wohl aggresiv über den preis kommen will,ich hab atm ne 1070 und bei gebrauchtpreise über 400€ (Dank mining) wäre es es quasi 1:1 tausch ,falls ich eine vega irgendwie bekommen könnte :).
Dennoch bin ich auf die tests gespannt,als 60fps gamer muss ich auch sagen das es mir wichtiger ist framedrops zu vermeiden ,80 oder 100 fps brauch ich nicht,schlimmer sind drops auf 30 oder gar drunter.
Von daher ist amd' ansatz durchaus interessant,mal schaun wie die ersten tests abschneiden.
dargo
2017-08-04, 08:13:59
Auf einer der früheren Vega-Veranstaltungen hatten sie den VRAM bis auf 2GB abgeschaltet, und das Spiel (war glaub ich BF1 auf Max) lief unbeeindruckt davon flüssig.
Afaik waren das Enginering Samples und keine Endkundenprodukte. Oder AMD kann HBCC über den Treiber ein-/ und ausschalten. Die Frage ist halt ob der Endkunde diese Option ebenfalls bekommt?
Ich meine bei Bildern vom Treiber einer Vega FE ein Button gesehen zu haben wo man es ein/aus schalten kann, also den HBCC.
Link wäre nicht schlecht. :)
anddill
2017-08-04, 08:45:05
Die haben nicht die HBCC-Funktion abgeschaltet, sondern 75% des VRAMs.
deekey777
2017-08-04, 08:49:17
Es wird erstmal überhaupt schwierig sein ein Spiel zu finden welches mit den 8GB Speicher von Vega ohne HBCC einknickt. :freak: Kann man das Feature überhaupt deaktivieren? Ich meine das ging nur mit dem ES oder nicht?
Wenn ich mich richtig erinnere, stand in einem der Artikel vom Montag, dass der Schalter von Anfang an dabei ist, aber standardmäßig deaktiviert ist, weil AMD noch nicht genügend erfahrung damit habe.
Oder war das DSBR?
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-terry-10.jpg
dargo
2017-08-04, 08:49:40
Dann eben so herum. Der Endkunde wird aber garantiert keinen Vram abschalten können. :wink:
basix
2017-08-04, 09:05:12
Macht ja im normalen Betrieb auch keinen Sinn ;)
X-Bow
2017-08-04, 09:19:27
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/Die-Software-hinkt-offiziell-der-Hardware-zurueck-1234899/
Na also, Wundertreiber incoming in X Wochen/Monate/Jahre xD
Wenigstens gibt es mal ein ehrliches Statement dazu :-)
dargo
2017-08-04, 09:22:29
Jetzt verstehe ich erst das Bild mit dem Wein. :D
mkh79
2017-08-04, 09:24:06
So unterschiedlich können Erfahrungen sein.
Vega ist selbst als Sidegrade für mich interessant, wenn sie genug Leistung zur 1080 (später vielleicht OC) bringt, da meine Karte mehr als genug Probleme bereitet. (Ich hatte eigentlich noch nie dermaßen Probleme mit Hardware an sich, es sei denn irgend etwas war einfach defekt)
Dann kommen noch die Features dazu, die mich interessieren, allen voran HBCC.
Ich warte die Tests ab und bin gespannt.
@mkh79 Afterburner installiert?;-)
mkh79
2017-08-04, 09:34:10
Afterburner habe ich nicht drauf, leider liegt es daran nicht. Ich versuche, das System von Drittanbietersoftware so frei wie möglich zu halten.
Wäre schön, wenn die Aussagen von AMD nicht nur reines Marketing sind, dass der Treiber sich noch entwickelt und da noch was geht:D
nagus
2017-08-04, 09:34:18
Ich auch, Vega 56.
kaufe alle die ich kriegen kann!
mining rig steht bereit und mein ryzen will endlich prey, doom etc. in 4k ausgeben :)
Dural
2017-08-04, 09:37:02
Soll ich mal AMD in der 2900xt zeit zitieren? ;) das hat sich damals +/- genau so angehört.
Und ihr mit eurem HBCC, bis das wirklich gross was bringt dürfte vega von der leistung eine low end karte mit 300w + verbrauch sein...
dargo
2017-08-04, 09:47:28
Und ihr mit eurem HBCC, bis das wirklich gross was bringt dürfte vega von der leistung eine low end karte mit 300w + verbrauch sein...
Und weiter? HBCC ist auch ein Feature für zukünftige GPU-Designs. :rolleyes: Schon witzig... bei Nvidia wird immer wieder die Keule rausgepackt NV würde weniger Hardware für gleiche Leistung brauchen (SI, Vram etc.). Jetzt geht AMD den gleichen Weg mit anderem Ansatz und plötzlich ist es völlig unwichtig. :uup: Denk doch mal eine Generation weiter wenn NV mit 16GB kommt und bei AMD immer noch 8GB reichen. Oder im Performancesegment 8GB NV vs. 4GB mit HBCC bei AMD.
M4xw0lf
2017-08-04, 09:47:51
Jetzt verstehe ich erst das Bild mit dem Wein. :D
Ich habs damals schon geschrieben: reift beim Kunden :freak:
Es ist echt nicht mehr lustig, wie sehr AMDs Treiberentwicklung hinterherhinkt. Und damit meine ich nicht mal Features oder Bugs, nein, einfach nur ihre neuen Produkte zum Laufen Performen zu kriegen.
Da scheint mir die an sich coole Möglichkeit zur Community-Abstimmung über kommende Treiberfeatures geradezu Misswirtschaft mit den f*cking knappen Ressourcen zu sein.
dargo
2017-08-04, 09:55:18
Ich habs damals schon geschrieben: reift beim Kunden :freak:
Das ist doch nun wirklich nichts Neues. Egal ob Nvidia oder AMD. Bei der Software (Spiele) sieht es nicht viel anders aus. Wer zum Release kauft ist oftmals der Dumme. Voller Preis, bugverseucht. Natürlich gibt es auch Ausnahmen.
X-Bow
2017-08-04, 09:57:01
Ganz so Krass sehe ich das nicht. Ich denke AMD hat sich mit der Umstrukturierung für die Treiber auf die neue Architektur einfach grob verschätzt.
Das sagen die ja durch die Blume selbst, indem Sie z.b. HBCC Standardmäßig deaktiviert haben weil sie selbst noch zu wenig darüber wissen und wie man es Bestmöglich einsetzten kann.
Vor solchen Fällen wird vermutlich das Treiberteam zuhauf stehen und nach und nach werden Sie verschiedene Knoten lösen können.
pilzsammler2002
2017-08-04, 09:58:50
Da scheint mir die an sich coole Möglichkeit zur Community-Abstimmung über kommende Treiberfeatures geradezu Misswirtschaft mit den f*cking knappen Ressourcen zu sein.
Ich finde es gut da ich nicht davon ausgehe das AMD/RTG 99% der ressourcen auf die Treiberfeatures der Community verwendet... Das wird eher nen geringer teil sein und gibt mir als Kunden aber immerhin das Gefühl ich kann an dem "perfekten" Treiber mitwirken.
Perfekt im Sinne von genauso wie ich ihn gerne hätte :)
Menace
2017-08-04, 09:59:15
Ich habs damals schon geschrieben: reift beim Kunden :freak:
Es ist echt nicht mehr lustig, wie sehr AMDs Treiberentwicklung hinterherhinkt. Und damit meine ich nicht mal Features oder Bugs, nein, einfach nur ihre neuen Produkte zum Laufen Performen zu kriegen.
Da scheint mir die an sich coole Möglichkeit zur Community-Abstimmung über kommende Treiberfeatures geradezu Misswirtschaft mit den f*cking knappen Ressourcen zu sein.
Bevor Du Dich künstlich so aufregst, warte doch einfach mal die Tests ab und herauszufinden, in wie weit sie hinterhinken; welche Features noch komplett fehlen und wie lange es braucht, bis es freigeschalten wird bzw. wie schnell und stark sich Verbesserungen zeigen.
Dass AMD softwareseitig am Limit arbeitet hat ja eine Ursache: Sparkurs der letzten Jahre.
Sich jetzt auch noch über die Userbeteiligung aufzuregen (es können nicht alle Programmierer an der gleichen Software(abschnitt) arbeiten, oder?) ist mal wieder typisch für: "Egal was AMD macht, es ist falsch." :rolleyes:
Dino-Fossil
2017-08-04, 10:03:24
Ich hatte wirklich gehofft, dass sie es zum Vega-Launch mit dem Treiber besser hinbekommen.
Angenommen die Karte hätte das Potential, die 1080Ti zu erreichen, oder sogar teils zu schlagen (rein von den Rohdaten sollte es ja so sein) - in dem Fall würde man auch den (vermuteten) Stromverbruach der Karte deutlich wohlwollender aufnehmen.
Das es nicht ganz klappt mag auch der Hardware geschuldet sein (z.B. binning rasterizer nicht so effektiv wie nVidias Lösung), aber scheinbar klemmt der Treiber auch noch ganz erheblich - und so macht man sich die Kundenmeinung zu einem teilweise sehr interessanten Produkt ein gutes Stück weit kaputt.
Bevor Du Dich künstlich so aufregst, warte doch einfach mal die Tests ab und herauszufinden, in wie weit sie hinterhinken; welche Features noch komplett fehlen und wie lange es braucht, bis es freigeschalten wird bzw. wie schnell und stark sich Verbesserungen zeigen.
Stimmt schon, aber ich denke AMD hat aus gutem Grund auf der Siggraph die 1080 als Marschrichtung vorgegeben...
dargo
2017-08-04, 10:05:10
Ist auch imho kompletter Unsinn sich darüber aufzuregen. Feedback der eigenen Kunden ist unheimlich wichtig. Ich finds zb. immer noch zum Kotzen, dass es keinen deutschprachigen Support gibt. Jegliche Bugs würde ich direkt melden. Und mit Support meine ich eine bzw. mehrere Personen die auch von der anderen Seite direktes Feedback geben. Auf einseitige Kommunikation stehe ich nämlich nicht so.
deekey777
2017-08-04, 10:07:13
Nur so eine Vermutung:
Aufgrund der Geldknappheit hat AMD viele fähige Leute verloren, die zB Apple dankend aufgenommen hat. Da stellt sich für mich die Frage, ob es überhaupt viele sehr kluge Köpfer gibt, die Treiber und entsprechende Compiler programmieren können.
M4xw0lf
2017-08-04, 10:12:42
Bevor Du Dich künstlich so aufregst, warte doch einfach mal die Tests ab und herauszufinden, in wie weit sie hinterhinken; welche Features noch komplett fehlen und wie lange es braucht, bis es freigeschalten wird bzw. wie schnell und stark sich Verbesserungen zeigen.
Dass AMD softwareseitig am Limit arbeitet hat ja eine Ursache: Sparkurs der letzten Jahre.
Sich jetzt auch noch über die Userbeteiligung aufzuregen (es können nicht alle Programmierer an der gleichen Software(abschnitt) arbeiten, oder?) ist mal wieder typisch für: "Egal was AMD macht, es ist falsch." :rolleyes:
Ich rege mich nicht über die Userbeteiligung auf, ich finde die Features toll, die meine Nano in den Radeon Settings nach und nach geliefert bekommt, allen voran Freesync und Wattman.
Ich zweifle nur die langfristigen Erfolgsaussichten und damit den Sinn dieser Strategie an, wenn auf der anderen Seite die Performance der neuen Flaggschiff-GPU einfach nicht auf die Straße gebracht werden kann.
skampi
2017-08-04, 10:12:59
Soll ich mal AMD in der 2900xt zeit zitieren? ;) das hat sich damals +/- genau so angehört.
Und ihr mit eurem HBCC, bis das wirklich gross was bringt dürfte vega von der leistung eine low end karte mit 300w + verbrauch sein...
Hm, ich finde in diesem Zusammenhang das hier vorgebrachte Argument ganz passend:
Wer wissen will was für Vega spricht der soll sich Mal die neusten Fury X und 980ti benchmarks anschauen!
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Mini/28.html
...
dargo
2017-08-04, 10:20:59
Ich zweifle nur die langfristigen Erfolgsaussichten und damit den Sinn dieser Strategie an, wenn auf der anderen Seite die Performance der neuen Flaggschiff-GPU einfach nicht auf die Straße gebracht werden kann.
Ich würde mit der Dramaturgie zumindest bis zum 27.10.17 warten, sind ja keine 3 Monate mehr. :wink:
Menace
2017-08-04, 10:24:33
Ich zweifle nur die langfristigen Erfolgsaussichten und damit den Sinn dieser Strategie an, wenn auf der anderen Seite die Performance der neuen Flaggschiff-GPU einfach nicht auf die Straße gebracht werden kann.
Wie schon so häufig von anderen hier im Thread erwähnt: Wenn AMD anders könnte, würden sie es anders machen.
Ich bin trotzdem vorsichtig optimistisch, dass nicht zuletzt Dank Lisa Su, das bei jeder Neuvorstellung besser wird:
Ryzen/Epyc könnte Umsatz und Gewinn generieren
Ausrichtung von den Pro-Markt kostet momentan bestimmt immens Software Ressourcen, die aber (sofern erfolgreich) umso mehr Gewinn bringen;
Neue Architektur wird an so vielen Stellen eingesetzt (APU, Pro, Gamer, ...); dass sich wohl auch die Konzentration dahingehend verlagern wird.
Worst Case: Man müsste auf Navi warten (siehe 2900 XT-Desaster). Aber das glaube ich nicht, da ja schon FE ganz passable Werte für den Preis erreicht. Wenn die Karte dann für den Preis in 6 Monaten immer stärker an die Ti-Version heranrückt hat man auch keinen Nachteil. :biggrin:
basix
2017-08-04, 10:25:35
Dass die normale GTX 1080 als Leistungsziel angegeben wurde finde ich schon vernünftig. Das heisst, dass man die mit Vega 64 definitiv schlagen wird und zumindest in diesem Vergleich positiv da steht. Und wenn man die Vega 56 vs. 1070 Benches glaubt, sollte dies sogar relativ "deutlich" der Fall sein (ca. +10%). Verhält sich die junge Architektur gleich wie GCN ist es für mich zudem nicht ausgeschlossen, dass man irgendwann mal in Richtung 1080 Ti Performance kommt. Der grosse Nachteil von AMD ist einfach die Energieeffizienz. Hier muss mit Navi ein grosser Sprung passieren, sonst wird das schwer mit Konkurrenz auf Augenhöhe.
Obwohl ich schon länger Intel und Nvidia verwende, mein Herz schlägt für AMD (die R9 Nano tätscheln :D)
Die Frage ist, wie man "GTX 1080" oder "GTX 1070" definiert. Die lahmen Gründereditionen oder die OC-Designs, welche zu einem mehr oder minder großen Aufpreis zwischen 10 und 15 Prozent schneller (und außerdem leiser sowie etwas versoffener) sind?
MfG,
Raff
Menace
2017-08-04, 10:47:51
Die Frage ist, wie man "GTX 1080" oder "GTX 1070" definiert. Die lahmen Gründereditionen oder die OC-Designs, welche zu einem mehr oder minder großen Aufpreis zwischen 10 und 15 Prozent schneller (und außerdem leiser sowie etwas versoffener) sind?
Warum nicht Referenz vers Referenz und Custom vers Custom? Ist doch eigentlich ganz einfach, oder?
Alternativ natürlich auch möglich: gleicher Preis vers gleicher Preis.
pilzsammler2002
2017-08-04, 10:48:12
Ich persönlich würde FE vs Referenz vergleichen und dann custom vs custom...
:freak:
Edit:
Mist zu spät xD
Menace
2017-08-04, 10:52:45
Ich persönlich würde FE vs Referenz vergleichen und dann custom vs custom...
:freak:
Edit:
Mist zu spät xD
Ach was, doppelt (mehrfach) hält besser und sorgt vielleicht mal für andere Tests. :wink: Wurde nicht immer eine Absolute Über-OC-Custom-Karte mit nvidia bei pcgh.de mitgetestet, was dazu führte, dass man a priori gesagt hat, dass die nvidia-GPU besser sei? Wie hieß die nur noch?
yamamoto_dc
2017-08-04, 10:56:30
Mal so ein Gedanke zum zukünftigen Verkaufserfolg:
Ich könnte mir vorstellen, dass der Mining-Hype viele Leute auf die Vega-Seite ziehen könnte, die das Mining als zusätzlichen Bonus nutzen und die eigentlich nur spielen wollen. Insbesondere in Ländern mit günstigem Strom, würde die Karte durch Mining erheblich günstiger.
Dino-Fossil
2017-08-04, 11:03:46
(und außerdem leiser sowie etwas versoffener)
Manches mal aber durchaus nur wenig schneller aber spürbar versoffener.
NVidia hat es schon bei Maxwell ganz gut geschafft, das man Referenz-Verbrauch mit OC-Leistung verknüpft...
dargo
2017-08-04, 11:12:24
Die Frage ist, wie man "GTX 1080" oder "GTX 1070" definiert. Die lahmen Gründereditionen oder die OC-Designs, welche zu einem mehr oder minder großen Aufpreis zwischen 10 und 15 Prozent schneller (und außerdem leiser sowie etwas versoffener) sind?
Toller Vergleich wieder. Natürlich macht nur Referenz vs. Referenz und Custom vs. Custom Sinn.
Für euch vielleicht. Ein unwissender (sprich: neutraler) Interessent sucht aber nicht nach einem "fairen" Vergleich, sondern nach "Ich habe 500 Euro: Was kriege ich wo?" :)
Manches mal aber durchaus nur wenig schneller aber spürbar versoffener.
Yep. Da stehen oft +10 Prozent Fps +20 Prozent Verbrauch entgegen. Solche Vergleiche darf man nicht einfach ausblenden.
MfG,
Raff
deekey777
2017-08-04, 11:19:11
Für euch vielleicht. Ein unwissender (sprich: neutraler) Interessent sucht aber nicht nach einem "fairen" Vergleich, sondern nach "Ich habe 500 Euro: Was kriege ich wo?" :)
MfG,
Raff
Ja, würde ich auch sagen.
Auf der anderen Seite hat auch dargo Recht. Aber das müsst ihr dann ausbaden.
Schnoesel
2017-08-04, 11:19:20
Ja mir ist das eigentlich egal, denn ich kann eigenständig denken, aber was ich gerne hätte bei euren Benches @Raff wäre die Angabe des OCs der Custom Karte in % gegenüber der Referenz. Ihr gebt zwar die Taktrate an aber nicht jeder kennt die Taktraten der Referenz auswendig.
Würde es noch leichter machen das einzuordnen.
TGKlaus
2017-08-04, 11:20:57
Für euch vielleicht. Ein unwissender (sprich: neutraler) Interessent sucht aber nicht nach einem "fairen" Vergleich, sondern nach "Ich habe 500 Euro: Was kriege ich wo?" :)
MfG,
Raff
Und dafür bekommt er bei Nvidia OC-Performance bei Referenz-Vderbrauch???
Tja, die Fachpresse halt... :freak:
dildo4u
2017-08-04, 11:22:52
Die Tester sollten einfach vom Referenz Design abraten nur bekommen sie dann wieder von den AMD Fan's eins um die Ohren.Der Unterschied zwischen dem Trash AMD Kühler und den Custom Karten wird bei einer 300 Watt Karte massiv sein und zwar in jedem Punkt.(Hitze,Speed,Lautstärke)
Armaq
2017-08-04, 11:22:53
Für euch vielleicht. Ein unwissender (sprich: neutraler) Interessent sucht aber nicht nach einem "fairen" Vergleich, sondern nach "Ich habe 500 Euro: Was kriege ich wo?" :)
Yep. Da stehten oft +10 Prozent Fps +20 Prozent Verbrauch entgegen. Solche Vergleiche darf man nicht einfach ausblenden.
MfG,
Raff
Hm, als Produkteinführung sehe ich das nicht. Es gibt doch eh diese Übersichten dafür. Das erste Review sollte wirklich die Karten der Hersteller vergleichen und dann kann man sagen, welche Karte ist die beste Custom-Karte und welches sind die besten im Preisbereich X.
Sieht natürlich aus Nvidias Perspektive besser aus, wenn ich oben stehe mit meiner 1080TI OC.
Emperator
2017-08-04, 11:23:56
Ich könnte mir vorstellen, dass der Mining-Hype viele Leute auf die Vega-Seite ziehen könnte, die das Mining als zusätzlichen Bonus nutzen und die eigentlich nur spielen wollen. Insbesondere in Ländern mit günstigem Strom, würde die Karte durch Mining erheblich günstiger.
Dafür kommt VEGA 3 Monate zu spät, der Miningboom ist schon zu Ende. Mit den angeblichen 70-100 Mh/s hätte die Karte im Mai/Juni 15-20€ am Tag gemacht. Aktuell sind es nur noch 3-5€ pro Tag mit stark fallender Tendenz und die Stromkosten muss man auch noch davon abziehen. Da kommt man schon in den Bereich wo man auch 5-8 Pfandflaschen am Tag sammeln kann und mehr verdient ^^
Ja mir ist das eigentlich egal, denn ich kann eigenständig denken, aber was ich gerne hätte bei euren Benches @Raff wäre die Angabe des OCs der Custom Karte in % gegenüber der Referenz. Ihr gebt zwar die Taktrate an aber nicht jeder kennt die Taktraten der Referenz auswendig.
Würde es noch leichter machen das einzuordnen.
Das lässt sich einrichten. =)
MfG,
Raff
AffenJack
2017-08-04, 11:27:25
Ich würde mit der Dramaturgie zumindest bis zum 27.10.17 warten, sind ja keine 3 Monate mehr. :wink:
Und ein völlig auf AMD optimiertes Spiel soll dir was aussagen? Außer von ID wirst du kein Spiel finden was so auf AMD optimiert ist. Far Cry wird da wahrscheinlich schon eher ein Anhaltspunkt für "normal" optimierte Spiele mit RPM.
Dino-Fossil
2017-08-04, 11:29:06
@Raff
Ein Vergleich über den Preis ist schon sinnvoll. Aber ihr werdet ja sicherlich nicht nur eine 1080 Xtreme OC Uber Edition testen - die Referenz (FE) noch mit aufzunehmen, sollte ja machbar sein.
Aber natürlich ist nVidia da schon ganz automatisch im Vorteil, da sie deutlich länger im Markt stehen - es sei denn AMD schlägt die 1080 (inklusive OC Versionen) dann doch einigermaßen deutlich.
TGKlaus
2017-08-04, 11:29:12
Das lässt sich einrichten. =)
MfG,
Raff
Und es wäre sinnvoll mal den Mehrverbrauch für die paar Prozent anzugeben.
Aber ich wette, das läßt sich nicht einrichten.
yamamoto_dc
2017-08-04, 11:29:24
Dafür kommt VEGA 3 Monate zu spät, der Miningboom ist schon zu Ende. Mit den angeblichen 70-100 Mh/s hätte die Karte im Mai/Juni 15-20€ am Tag gemacht. Aktuell sind es nur noch 3-5€ pro Tag mit stark fallender Tendenz und die Stromkosten muss man auch noch davon abziehen. Da kommt man schon in den Bereich wo man auch 5-8 Pfandflaschen am Tag sammeln kann und mehr verdient ^^
Zum Pfandflaschen sammeln musst Du raus in die feindliche Umwelt und hart arbeiten, Mining geht nebenbei ohne etwas aktiv zu tun.
Im Mai wäre es natürlich die Bombe gewesen, aber bei niedrigem Strompreis lohnt es sich auch jetzt noch, zumindest wenn die Karte wirklich > 60Mh/s schafft. Es könnte einfach für viele ein Argument sein, statt der 1070 eine V56 zu holen. :confused:
dargo
2017-08-04, 11:29:32
Für euch vielleicht. Ein unwissender (sprich: neutraler) Interessent sucht aber nicht nach einem "fairen" Vergleich, sondern nach "Ich habe 500 Euro: Was kriege ich wo?" :)
Verstehe dein Problem immer noch nicht. AMD orientiert sich doch aktuell an den Nvidia Preisen. :confused:
Screemer
2017-08-04, 11:29:40
Die Tester sollten einfach vom Referenz Design abraten nur bekommen sie dann wieder von den AMD Fan's eins um die Ohren.Der Unterschied zwischen dem Trash AMD Kühler und den Custom Karten wird bei einer 300 Watt Karte massiv sein und zwar in jedem Punkt.(Hitze,Speed,Lautstärke)
Lool. Der ref. Kühler der Vega fe ist wahrhaftig Referenz und völlig unstrittig auf gleichem Niveau wie bei NV.
dargo
2017-08-04, 11:32:36
Und ein völlig auf AMD optimiertes Spiel soll dir was aussagen?
Das Potenzial vom GPU-Design zeigen.
Außer von ID wirst du kein Spiel finden was so auf AMD optimiert ist.
Und das weißt du vorher?
btw.
Vom völlig auf Vega optimiert sind wir in einer PC-Umgebung noch etwas entfernt, trotz low level. :wink:
Schnoesel
2017-08-04, 11:36:49
Und es wäre sinnvoll mal den Mehrverbrauch für die paar Prozent anzugeben.
Interessiert doch niemanden. Ein Bench soll mir sagen wie das Spiel auf Karte X performt. Nicht wie viel Strom ich dabei brauche. Das gehört da nicht hin. Und deine private Fehde mit PCGH nervt langsam.
Dino-Fossil
2017-08-04, 11:42:28
Die Verbrauchswerte der getesteten Karten findet man doch üblicherweise genauso tabellarisch aufgelistet.
Man könnte sich allerdings manchmal wünschen, dass genauer auf bestimmte Details eingegangen wird.
AffenJack
2017-08-04, 11:44:20
Das Potenzial vom GPU-Design zeigen.
Das ist so als wenn ich einen auf Nvidia viel besser laufenden twimtbp Titel nehme und sage er zeigt das Potential der Nvidia-Arch weil diese viel schneller ist.
Und das weißt du vorher?
Wieviele Titel laufen wie Doom auf AMD, was du in jedem Thread immer wieder als Beispiel aufführst? Die Menge ist doch arg überschaubar und die kleineren Vulkantitel sind da weit von entfernt. Bethesda hat na Kooperation mit AMD, da können mehr Titel kommen, aber bei neutralen Studios zweifle ich da eher dran.
Dino-Fossil
2017-08-04, 11:50:55
Ich sehe das auch eher kritisch.
Ist "nice to have", sogar wichtig (gerade für AMD), dass man zeigt welches Potential in der Architektur steckt.
Es kann aber immer nur ein Teilaspekt sein. Letztlich muss AMD einfach daran arbeiten, dass die Karten auch ohne auf spezifische Optimierung durch Entwickler angewiesen zu sein gut performen.
Auch low-level APIs alleine helfen nicht wirklich weiter, wenn wiederum alles am Entwickler hängt - denn dann wird der Konkurrent mit deutlich mehr Geld auch wieder besser da stehen, der kann es sich nämlich eher leisten, die Studios bei der Optimierung zu unterstützen.
Und high-level APIs verschwinden in den nächsten 3-4 Jahren sicherlich auch nicht so einfach.
Screemer
2017-08-04, 11:53:32
Interessiert doch niemanden. Ein Bench soll mir sagen wie das Spiel auf Karte X performt. Nicht wie viel Strom ich dabei brauche. Das gehört da nicht hin. Und deine private Fehde mit PCGH nervt langsam.
Dann lassen wir in Zukunft alle Verbrauchsmessungen sein und das Argument von der hohen Leistungsaufnahme ist ab heute nichtig. Ich nehmen dich beim Wort.
Mal völlig davon ab, dass sich der Verbrauch der ref. Designs immer in die Köpfe brennt und auch mit customs assoziiert wird, auch wenn diese für 10% mehr Leistung mal schick 25% mehr aus der dose nuckeln.
Mangel76
2017-08-04, 11:54:43
Interessiert doch niemanden. Ein Bench soll mir sagen wie das Spiel auf Karte X performt. Nicht wie viel Strom ich dabei brauche. Das gehört da nicht hin. Und deine private Fehde mit PCGH nervt langsam.
Ich finde das schon interessant. Denn genau so entsteht ja die Verknüpfung von FE-Verbrauch und OC-Leistung. Im ersten Test wird die Referenz mit ihrem Verbrauch getestet und später orientiert man sich bei der Leistung an den OC-Werten, der Verbrauch wird jedoch im Kopf nicht upgedated;D
edit: Screemer war schneller
N0Thing
2017-08-04, 12:09:36
Für euch vielleicht. Ein unwissender (sprich: neutraler) Interessent sucht aber nicht nach einem "fairen" Vergleich, sondern nach "Ich habe 500 Euro: Was kriege ich wo?" :)
Yep. Da stehen oft +10 Prozent Fps +20 Prozent Verbrauch entgegen. Solche Vergleiche darf man nicht einfach ausblenden.
MfG,
Raff
Das Preisleistungsverhältnis, bzw. welches Produkt für Preis XY am das rundeste Produkt ist, ist doch prädestiniert für ein Fazit.
Im Test selber gehört für mich das Referenzmodell beider Hersteller und 1-2 gelungene Herstellerdesigns, evtl. Modell 1 mit der Paradedisziplin Leitung und Modell 2 Lautstärke.
Je nachdem wo die Prioritäten für den Leser liegen, die könnt ihr ja nicht wissen, kann der Leser dann selber entscheiden ob es das günstige, das schnelle oder das leise Modell am besten paßt.
Kartenlehrling
2017-08-04, 12:18:32
AMD hat es in den letzten 6-8 Jahre nicht geschaft die rein rechnerischen Vorteil der GPUs umzusetzen, auf dem Papier hätten die Grafikkarten mehr leisten können müssen.
War nicht AMD der Vorreiter für DX11 Tessellation, was daraus geworden ist hat jeder mitbekommen, zuerst bremst Nvidia die Entwicklung und
wenn sie es besser Umsetzten, treiben sie die Sau über den Marktplatz und zeigen die Unfähigkeit der Konkurrenz auf.
Das gleich wird hier mit FP16, asynchronous compute, primitive shader und High Bandwidth Cache Control passieren.
Menace
2017-08-04, 12:26:12
AMD hat es in den letzten 6-8 Jahre nicht geschaft die rein rechnerischen Vorteil der GPUs umzusetzen, auf dem Papier hätten die Grafikkarten mehr leisten können müssen.
Euch sind wirklich 5% längere Balken wichtig, oder?
Was ich AMD vorwerfe ist, dass sie bei der Effizienz hinterhinken. Ob sie dabei 5-10 % schneller oder langsamer sind... das ist -wenn man mal ehrlich ist- doch recht kindisch (Quartet-Übrigbleibsel von Jungs).
dargo
2017-08-04, 12:35:22
Wieviele Titel laufen wie Doom auf AMD, was du in jedem Thread immer wieder als Beispiel aufführst? Die Menge ist doch arg überschaubar und die kleineren Vulkantitel sind da weit von entfernt. Bethesda hat na Kooperation mit AMD, da können mehr Titel kommen, aber bei neutralen Studios zweifle ich da eher dran.
Wie lange gibt es die Dokumentionen zu Vulkan? Wie lange braucht eine Gameentwicklung?
Ich sehe das auch eher kritisch.
Ist "nice to have", sogar wichtig (gerade für AMD), dass man zeigt welches Potential in der Architektur steckt.
Es kann aber immer nur ein Teilaspekt sein. Letztlich muss AMD einfach daran arbeiten, dass die Karten auch ohne auf spezifische Optimierung durch Entwickler angewiesen zu sein gut performen.
Das tun sie. Oder kannst du deine Spiele mit Radeon nicht spielen? Es ist unglaublich, dass hier immer noch Leute nicht verstehen was hinter low level steckt. Würde Nvidia ihre Hardware so gut wie AMD dokumentieren würde es diese spezifischen Optimierungen bei NV auch geben. Wenn sich NV nicht weiter öffnet sind die selbst schuld. Nvidia lässt sich nun mal ungern in die Karten schauen.
Und high-level APIs verschwinden in den nächsten 3-4 Jahren sicherlich auch nicht so einfach.
Da würde ich nicht drauf wetten.
2020 ist Windows 7 quasi tot. Windows 8.x interessiert praktisch niemanden mehr. Was bleibt ist Windows 10 oder halt 11 (keine Ahnung wann 11 ansteht). Ein idealer Zeitpunkt um high level endgültig fallen zu lassen. Irgendwann muss man sich davon eh trennen (Doppelbelastung). In 3-4 Jahren hast du schon längst die PS5 da. Und wenn diese einen 12-16 Threader @Pinnacle Ridge abbekommt was glaubst du wie weit du dann am PC noch mit high level kommst? Jetzt nicht unbedingt auf den High-End Markt bezogen sondern das Performancesegment, ergo die Masse? Oder willst du wieder die Zeiten zurück mit XBox360/PS3 wo der PC geschwächelt hatte? Übrigens... aktuell werden viele große Engines auf Vulkan umgestellt, auch die UE4. Das macht man nicht weil man gerade Langerweile hat sondern bestimmte Ziele.
fondness
2017-08-04, 12:37:17
Und ein völlig auf AMD optimiertes Spiel soll dir was aussagen? Außer von ID wirst du kein Spiel finden was so auf AMD optimiert ist. Far Cry wird da wahrscheinlich schon eher ein Anhaltspunkt für "normal" optimierte Spiele mit RPM.
Ein Spiel, dass Features einer Hardware ausnützt, ist noch lange nicht "völlig auf AMD optimiert". Nvidia verfolgt eben einen anderen Ansatz, Dinge wie Rapid Packed Math, Shader Intrinsics, Async Compute, Primitive Shaders, etc. sind dort nicht oder nur unzureichend vorhanden. AMD gibt den Entwicklern Kontrolle über die HW und baut auch ganz bewusst HW-spezifische Features ein. Natürlich ist man dadurch auch ein Stück weit auf den Support der Entwickler angewiesen, aber AMD hat viel mit Entwicklern geredet und alle wollten mehr Kontrolle.
Der_Korken
2017-08-04, 12:37:20
AMD hat es in den letzten 6-8 Jahre nicht geschaft die rein rechnerischen Vorteil der GPUs umzusetzen, auf dem Papier hätten die Grafikkarten mehr leisten können müssen.
Das stimmt so aber auch wieder nicht. Klar waren die Perf/Flop niedriger als bei Nvidia, dafür war zumindest bei RV770/RV870 die Rechenleistung spottbillig, wenn man sie in Relation zu Chipfläche und -verbrauch setzt. Ob man fette ALUs verbaut, die sich gut auslasten lassen aber dafür sehr teuer sind, oder schlanke ALUs, die ihre theoretische Leistung schlechter umsetzen, man dafür aber viel mehr davon verbauen kann, ist doch eine reine Designentscheidung.
BlacKi
2017-08-04, 12:45:29
wenn es dank mining kaum karten hin zu den gamern schaffen, ist die wahrscheinlichkeit das neue gaming features oder gamingtreiber darunter leiden leider größer denn je. bin gespannt wo der gereifte wein in 2 jahren steht.
fondness
2017-08-04, 12:55:06
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/Die-Software-hinkt-offiziell-der-Hardware-zurueck-1234899/
Na also, Wundertreiber incoming in X Wochen/Monate/Jahre xD
Wenigstens gibt es mal ein ehrliches Statement dazu :-)
LOL, da gehört natürlich schon ein gesundes Maß an Selbstironie dazu, um den Testern so ein Bild zu zeigen.
Aber es deutet zumindest schonmal darauf hin, dass in der Architektur noch viel Potential stecken sollte. New Hawaii incoming. :D
https://s1.postimg.org/lxsbost5b/AMD-_Radeon-_RX-_Vega-_Fine_Wine-pcgh.png (https://postimg.org/image/qwfu3bwy3/)
Jetzt müsste man den Wein ebenfalls noch anbieten, das hätte dann wirklich was :D.
Klar bei weniger Personal im Softwarebereich kann man halt nur nach und nach optimieren. Es gibt halt keinen "Wundertreiber" sondern eine ganze Serie von Treibern die Vega in den ersten Monaten sicherlich stark verbessern werden in der Summe.
Schade, dass man davon nix mitbekommen wird:
http://www.guru3d.com/news-story/rumor-radeon-rx-vega-cards-look-to-be-insanely-good-crypto-currency-miners.html
Bin mal gespannt, ob wie auf absehbare Zeit überhaupt kaufbare Vega sehen werden, ich glaub da nicht dran.
Bei einigen Shops liegen doch so Wein-Gutscheine bei, wenn man bestellt. Mit denen sollte AMD kooperieren. Oder eine Launch-Aktion: Buy one Vega, get one Aldi-Wine for free!
MfG,
Raff
fondness
2017-08-04, 13:01:31
Noch was zur Mining-Performace von VEGA:
Aiding in computation with Vega NGCU is added support for over 40 new ISA instructions that take advantage also of the increased IPC over Polaris. Here's the thing - some of these are very relevant to GPU mining. Need I say more on where this goes? AMD estimates a single NGCU to be able to handle as many as 512 simultaneous 8-bit operations.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/3.html
Es scheinen also spezifische neue ISA Instructions zu sein, welche in VEGA eingebaut wurden und auch das Mining beschleunigen.
https://s1.postimg.org/4j7ydo0z4f/arch-13.jpg (https://postimg.org/image/6p7czfsmvf/)
elhomomomo
2017-08-04, 13:10:17
Noch was zur Mining-Performace von VEGA:
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/3.html
Kennt jemand das tatsächliche Releasedate? Aktuell ist ja Ende September im Gespräch? Naja, F5 incoming ... so viel mitnehmen wie geht :smile:
Der_Korken
2017-08-04, 13:13:50
Mal eine technische Frage: Warum sind die (N)CUs eigentlich so extrem länglich? Hinsichtlich Signalwege würde ich erwarten, dass es besser ist, einen logisch zusammenhängenden Block möglichst kompakt zu halten, am besten quadratisch.
Zergra
2017-08-04, 13:14:32
Werden die ersten Vega 56 freischaltbar sein ? Das ist doch das wichtigste... :D
X-Bow
2017-08-04, 13:17:18
@Raff: Klar, ich gebe Dir da ja auch vollkommen Recht wenn Du sagst man vergleicht Hardwarepreis X mit X. Aber wenn es von einem Produkt nur Ref. gibt, dann darf das nicht mit OC-Customkarten verglichen werden. Bedenken sollte man dabei nämlich, das in den OC-Customdesings Entwicklungskosten drin stecken die nicht der GPU Entwickler gestemmt hat (von der Zeit mal noch ganz abgesehen). Somit der Entwicklungsgrad bei der einen Karte im Ref. noch aussteht.
Nach dem Motto: Was hat AMD zustande gebracht und was nVidia.
(Und eben nicht was hat AMD zustande gebracht und was nVidia mit Asus Hilfe)
dargo
2017-08-04, 13:23:24
Es scheinen also spezifische neue ISA Instructions zu sein, welche in VEGA eingebaut wurden und auch das Mining beschleunigen.
https://s1.postimg.org/4j7ydo0z4f/arch-13.jpg (https://postimg.org/image/6p7czfsmvf/)
So langsam kommt es mir vor als ob AMD bei den Minern eine Goldgrube riecht. :freak: Für AMD sicherlich super, für Gamer Kacke. Es sei denn AMD kann die Produktion extrem hoch bei Vega fahren, so dass es zur keinen Verknappung kommt. Das wäre eine win/win Situation für alle.
Schnoesel
2017-08-04, 13:28:45
So langsam kommt es mir vor als ob AMD bei den Minern eine Goldgrube riecht.
Ehrlich gesagt glaube ich nicht dran dass man bei Vega (die Entwicklung dauert ja mehrere Jahre) explizit an Miner gedacht hatte. Imo wird das ein Zufall sein, den man gerne mitnimmt.
dargo
2017-08-04, 13:30:01
Hast auch wieder recht. Als die GPU in Planung war wusste man noch nicht mal was Mining ist.
dildo4u
2017-08-04, 13:31:50
GPU Mining war schon zur 290 ein Thema.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-Litecoin-Miner-R9-290-1101699/
BlacKi
2017-08-04, 13:32:11
Und weiter? HBCC ist auch ein Feature für zukünftige GPU-Designs. :rolleyes: Schon witzig... bei Nvidia wird immer wieder die Keule rausgepackt NV würde weniger Hardware für gleiche Leistung brauchen (SI, Vram etc.). Jetzt geht AMD den gleichen Weg mit anderem Ansatz und plötzlich ist es völlig unwichtig. :uup: Denk doch mal eine Generation weiter wenn NV mit 16GB kommt und bei AMD immer noch 8GB reichen. Oder im Performancesegment 8GB NV vs. 4GB mit HBCC bei AMD.
wo geht amd denselben weg? 500mm² vs 314mm²? obendrauf ist der speicher der NV karten sogar günstiger.
AMD versucht die fehlenden softwareskills durch nochmehr keule auszugleichen. sieht man ja am verbrauch. und jetzt kommst du mit einem feature, das keiner unabhängig getestet hat und sagst NV braucht die stumpfe HW keule... den vergleich halte ich für unangebracht.
dargo
2017-08-04, 13:33:25
wo geht amd denselben weg? 500mm² vs 314mm²? obendrauf ist der speicher der NV karten sogar günstiger.
Denke einfach etwas nach.
Achill
2017-08-04, 13:33:58
@Raff: Klar, ich gebe Dir da ja auch vollkommen Recht wenn Du sagst man vergleicht Hardwarepreis X mit X. Aber wenn es von einem Produkt nur Ref. gibt, dann darf das nicht mit OC-Customkarten verglichen werden. Bedenken sollte man dabei nämlich, das in den OC-Customdesings Entwicklungskosten drin stecken die nicht der GPU Entwickler gestemmt hat (von der Zeit mal noch ganz abgesehen). Somit der Entwicklungsgrad bei der einen Karte im Ref. noch aussteht.
Nach dem Motto: Was hat AMD zustande gebracht und was nVidia.
(Und eben nicht was hat AMD zustande gebracht und was nVidia mit Asus Hilfe)
Ich finde das Argument von Raff kann man schon nicht von der Hand weisen und auch wenn ich mir pers. den Ref vs Ref vergleich wünsche, interessiert es den Käufer was er für Summe XYZ bekommt.
Wichtig ist im Endeffekt nur, dass Verbrauch und Perf/Watt dann auch für die OC gut ersichtlich ausgewiesen wird. Das heißt für mich, dass wenn man in einen Absatz über die neue Karte A und deren Verbrauch schreibt, man auch Bezug für Karte B OC nimmt und eben nicht von der Ref. von B schreibt. Gilt für mich für alle Arten von Vergleichen, darum kann jeder AMD/NV für A/B bzw. B/A einsetzen.
--
Edit:
Außerdem ist das noch nicht alles, es ist ja die Dreifaltigkeit von:
- Verbrauch der FE
- OC-Potenzial der FE
- Performance der OC
Damit meine ich explizit nicht die HW-Magazine/-Presse sondern dies Mixups der Community-Beiträge in den Foren. Man könnte es aber als Indikator nehmen, wo man ggf. in einen zukünftigen Artikel ansetzen sollte ...
Schnoesel
2017-08-04, 13:34:00
GPU Mining war schon zur 290 ein Thema.
Ja und ist danach vollends in der Versenkung verschwunden. Kein Mensch kann den Bedarf an GPUs bzgl. Mining vorhersagen. Da braucht nur eine Währung oder GPU_Mining aus welchen Gründen auch immer unnaktraktiv werden und das wars dann.
Wir haben so gesehen einfach Pech gehabt.
BlacKi
2017-08-04, 13:35:12
Denke einfach etwas nach.
die empfehlung gebe ich gerne zurück.
Hast auch wieder recht. Als die GPU in Planung war wusste man noch nicht mal was Mining ist.
dürfte einfach ein "Abfallprodukt" der immer mehr vorangetriebenen Entwicklung der GPU zum "Coprozessor" seitens AMD sein
Screemer
2017-08-04, 13:41:59
Hast auch wieder recht. Als die GPU in Planung war wusste man noch nicht mal was Mining ist.
Du weist aber wie alt bitcoin ist und wie geil terrascale dafür war bevor es asics für BC gab?
GPU Mining war schon zur 290 ein Thema.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-Litecoin-Miner-R9-290-1101699/
Das war schon zu 58xx-zeiten Thema.
Ati-karten waren mit den ersten opencl-minern ca. 10 mal so schnell wie ihre nv-pendants.
X-Bow
2017-08-04, 13:43:42
Ich finde das Argument von Raff kann man schon nicht von der Hand weisen und auch wenn ich mir pers. den Ref vs Ref vergleich wünsche, interessiert es den Käufer was er für Summe XYZ bekommt.
Wichtig ist im Endeffekt nur, dass Verbrauch und Perf/Watt dann auch für die OC gut ersichtlich ausgewiesen wird. Das heißt für mich, dass wenn man in einen Absatz über die neue Karte A und deren Verbrauch schreibt, man auch Bezug für Karte B OC nimmt und eben nicht von der Ref. von B schreibt. Gilt für mich für alle Arten von Vergleichen, darum kann jeder AMD/NV für A/B bzw. B/A einsetzen.
Wie geschrieben gebe ich Ihm da ja auch recht, nur glaube ich nicht das ein Käufer der sagt "ich hab 500€, was bekomm ich dafür" explizit den Test der Vega Ref. raussucht. Sondern die schöne Übersicht die PCGH auch Vorbildlich (jedes Quartal?!?) aktualisiert. Und da dürfen natürlich gerne dann auch die OC Karten mit drin sein.
Aber die braucht man ja nicht gleich im Ref. Test nur die OC Karten drauf los lassen. Das verfälscht aus meiner Sicht den "Ersteindruck"
(Und das gilt für alle Karten, egal ob Ref.Test nVidia oder AMD)
N0Thing
2017-08-04, 13:57:35
Es ist auch für die Einordnung hilfreich, wenn man in den Benchmarks die Referenzkarten als, äh, Referenz hat. Dann entfällt auch das Vergleichen über drei unterschiedliche Benchmarks hinweg von Custom- und Referenzkarten. Gleiche Settings, gleiche Treiber, vergleichbare Ergebnisse, sowohl bei der Geschwindigkeit als auch bei Leistungsaufnahme und Lautstärke.
Euch sind wirklich 5% längere Balken wichtig, oder?
Was ich AMD vorwerfe ist, dass sie bei der Effizienz hinterhinken. Ob sie dabei 5-10 % schneller oder langsamer sind... das ist -wenn man mal ehrlich ist- doch recht kindisch (Quartet-Übrigbleibsel von Jungs).
Finde ich auch, bis zu dieser Generation hat man bei AMD seit einigen Jahren halt nicht den längsten Balken gehabt, in der Praxis hat es bis auf Einzelfälle aber auch keinen echten Unterschied gemacht.
Mit dieser Generation sieht es nun schon etwas anders aus, da ist die Leistungsaufnahme scheinbar ziemlich deutlich höher bei AMD und dem Spitzenmodell von Nvidia kann man wohl auch nichts entgegensetzen, der Abstand zwischen GTX1080 und GTX1080Ti ist ja schon größer als 5-10%, eher 30-40%.
Menace
2017-08-04, 14:01:29
Mit dieser Generation sieht es nun schon etwas anders aus, da ist die Leistungsaufnahme scheinbar ziemlich deutlich höher bei AMD und dem Spitzenmodell von Nvidia kann man wohl auch nichts entgegensetzen, der Abstand zwischen GTX1080 und GTX1080Ti ist ja schon größer als 5-10%, eher 30-40%.
Ich glaube, das "Problem" mit der Ti sieht AMD auch. Deshalb zielen sie doch mit dem Preis auf die Non-Ti.
Dino-Fossil
2017-08-04, 14:03:11
Oder kannst du deine Spiele mit Radeon nicht spielen? Es ist unglaublich, dass hier immer noch Leute nicht verstehen was hinter low level steckt.
Ich hab ja auch ne Radeon verbaut. Aber man kann nicht von der Hand weisen, dass seit Maxwell/Pascal nVidia eine sehr effiziente Architektur hat, die für Leute, die "einfach nur" aktuelle Spiele zocken wollen meistens eine sehr gute Wahl darstellt - und die beinhalten eben immer noch sehr viele DX11 Titel. Und das bekommen die auch toll vermarktet.
Da würde ich nicht drauf wetten.
2020 ist Windows 7 quasi tot. Windows 8.x interessiert praktisch niemanden mehr. Was bleibt ist Windows 10 oder halt 11 (keine Ahnung wann 11 ansteht). Ein idealer Zeitpunkt um high level endgültig fallen zu lassen.
Auch 2020 werden DX11 und Konsorten nicht plötzlich verschwinden. Und selbst wenn - bis dahin sind es immer noch fast 3 Jahre, in denen wir wohl mehr als nur einen Nachfolger für Vega sehen werden.
DX12/Vulkan (vor allem Vulkan) sind toll, aber man muss auch realistisch bleiben und den ist-Zustand betrachten.
2020 sind alle AAA-Titel nur noch low level. Bis dahin sind alle wichtigen Engines mit entsprechenden ausgereiften Renderern ausgestattet, Win7 spielt dann eh keine Rolle mehr und der Detailgrad steigt ja weiterhin.
DX11 bleibt interessant für kleinere Projekte. Z.B. werden die Elex-Macher Piranha Bytes sicher nicht sehr schnell auf low level wechseln.
N0Thing
2017-08-04, 14:13:27
Ich glaube, das "Problem" mit der Ti sieht AMD auch. Deshalb zielen sie doch mit dem Preis auf die Non-Ti.
Das ist auch nicht zu beanstanden, das Problem erwächst ja in den Monaten bis Navi, sofern Nvidia mit Volta nochmal etwas auf Pascal drauf legen kann. Dann ist die Non-Ti in 12 Monaten EOL und AMDs Spitzenmodell muß sich mit vermeintlich kleineren Lösungen von Nvidia herum schlagen. Sollte Navi die mit Fiji, Polaris und Vega angekündigten deutlichen Effizienzverbesserungen immer noch nicht abliefern können, wird der Abstand im Vergleich zur Volta-Nachfolgegeneration evtl. nochmal anwachsen. Mal als worst case.
Da kann man nur hoffen, daß AMD a) mit dem Treiber für Vega wirklich noch überdurchschnittlich viel Performance gewinnen kann und b) die Entwicklung von Navi endlich dahin führt, wo AMD seit einigen Generationen hin will.
robbitop
2017-08-04, 14:14:45
2020 sind alle AAA-Titel nur noch low level. Bis dahin sind alle wichtigen Engines mit entsprechenden ausgereiften Renderern ausgestattet, Win7 spielt dann eh keine Rolle mehr und der Detailgrad steigt ja weiterhin.
DX11 bleibt interessant für kleinere Projekte. Z.B. werden die Elex-Macher Piranha Bytes sicher nicht sehr schnell auf low level wechseln.
Low Level garantiert allein aber noch keine gesteigerte Ausnutzung der mArch von Haus aus. Das hängt sehr stark vom Entwickler ab. Id und DICE sind hier schon ziemliche Leutturmstudios, die so viel Aufwand in die Optimierung @PC @Radeon stecken.
Kartenlehrling
2017-08-04, 14:20:57
Mir zu unterstellen ich würde nur auf die FPS zu schauen ist Bullshit, ich habe mehr als 8 Jahre schon immer ein FPS-Limiter betrieben.
Nur gehen maxFPS auch oft mit minFPS Hand in Hand, und wenn Spiele bei Tessellation und Ambient Occlusion, die ja in DX11 Spiele die Zugpferde waren,
stärker einbrechen als das Produkt der Konkurrenz läuft doch was falsch, die haben es in den 6 Jahren 2009-2015 bis zur Einführung von DX12/Vulkan nicht geschaft,
es erwarte doch wirklich keiner mehr das sich das ändert.
Selbst heute sind Nvidia Karten die eigentlich auf dem gleichen Leistunglevel sind 10-15% schneller, müssen wir wirklich noch weiter 6 Jahre warten? :confused:
Menace
2017-08-04, 14:29:57
Sollte Navi die mit Fiji, Polaris und Vega angekündigten deutlichen Effizienzverbesserungen immer noch nicht abliefern können, ...
Wobei ich der Fiji zugestehe, dass vor allem als Nano, aber auch sonst, für 95% der benutzten Zeit (bei mir!) mehr als Effizient ist.
Ich habe 3 Monitore:
27' Zoll Benq mit großem Farbraum (zum Arbeiten und zocken) (1440)
23' Zoll NEC (Arbeit)
23' Huion Grafik-Tablett (Wacom Alternative).
Laut Tests und meinen groben Erfahrungen verursachen diese kein signifikanten Mehrverbrauch auch bei unterschiedlichen Auflösungen/Marken. Sie schlägt da auch 1070 und 1080. Ich hoffe, dass lassen sie so auch bei der Vega-Version.
Ein Großteil der Mitglieder hier hat ja aber nur ein Monitor, daher eher ein Spezialfall. Wobei ich mich echt frage, warum man eine teure Grafikkarte für nur einen Monitor verschleudert. :biggrin:
grauenvoll
2017-08-04, 14:31:13
Low Level garantiert allein aber noch keine gesteigerte Ausnutzung der mArch von Haus aus. Das hängt sehr stark vom Entwickler ab. Id und DICE sind hier schon ziemliche Leutturmstudios, die so viel Aufwand in die Optimierung @PC @Radeon stecken.
Man darf die Frage aber stellen, in wie weit die anderen Engines sich halten können. Schließlich gibt es unter den Engines auch einen Wettbewerb.
AMD hat in den vergangenen Monaten viel in die Zusammenarbeit mit Entwicklerstudios investiert. Das ist für beide eine Win/Win-Situation.
AMD kann eigene Technologien promoten und bekommt ein Gefühl dafür, wo den Entwicklern der Schuh drückt. Die Studios bekommen Infos dazu wie AMD sich das vorgestellt hat, was den Weg bei der Implementierung der LowLevel-Schnittstelle kürzer macht. Es dauert manchmal etwas bis sich so etwas auszahlt.
dargo
2017-08-04, 14:35:11
Du weist aber wie alt bitcoin ist und wie geil terrascale dafür war bevor es asics für BC gab?
Ich muss zugeben, dass ich vom Mining keinen blassen Schimmer habe. Sonst hätte ich schon selbst gemined, sofern sich das lohnt.
robbitop
2017-08-04, 14:36:07
AMD hat allerdings aktuell einen vergleichsweise geringen Marktanteil in einem Teilmarkt (PC), der wiederum auch im Vergleich zum Konsolenmarkt relativ klein ist.
Die Umstellung auf LL APIs wird früher oder später kommen. Aber in wiefern die breite Masse an Studios mehr aus AMDs mArch holt ist mMn offen.
AMD wird sicherlich die Grundleistung mittelfristig wie NV über einen besseren Shadercompiler nach und nach erhöhen. Auch wird man sicherlich den DSBR immer weiter entwickeln, so dass er homogenere Ergebnisse erzeugt.
dargo
2017-08-04, 14:38:34
Mit dieser Generation sieht es nun schon etwas anders aus, da ist die Leistungsaufnahme scheinbar ziemlich deutlich höher bei AMD und dem Spitzenmodell von Nvidia kann man wohl auch nichts entgegensetzen, der Abstand zwischen GTX1080 und GTX1080Ti ist ja schon größer als 5-10%, eher 30-40%.
Laut CB ist die 1080TI im Schnitt 28% schneller. Und sowas kannst du locker mit einer effizienten Software ausgleichen. Bei Rapid Packed Math spricht man aktuell von ~15% alleine.
Ich glaube, das "Problem" mit der Ti sieht AMD auch. Deshalb zielen sie doch mit dem Preis auf die Non-Ti.
Völlig korrekt. Anstatt Vega 64 für 599-649$ anzubieten ist man eben aktuell gezwungen 499$ zu verlangen.
Ich hab ja auch ne Radeon verbaut. Aber man kann nicht von der Hand weisen, dass seit Maxwell/Pascal nVidia eine sehr effiziente Architektur hat, die für Leute, die "einfach nur" aktuelle Spiele zocken wollen meistens eine sehr gute Wahl darstellt - und die beinhalten eben immer noch sehr viele DX11 Titel. Und das bekommen die auch toll vermarktet.
Ich weiß nicht wie oft ich es noch wiederholen muss. Ob Nvidia effizientere Hardware hat kann ich erst in einer Konsolenumgebung sehen und keiner PC-Umgebung mit Steinzeit-APIs!
Marktanteil kann AMD auch gut gebrauchen, sofern sie liefern können (was mir immer noch suspekt ist, denn was da alles aus der einen 14 nm - Fab kommen soll...)
N0Thing
2017-08-04, 14:45:24
Laut CB ist die 1080TI im Schnitt 28% schneller. Und sowas kannst du locker mit einer effizienten Software ausgleichen.
Hab bei PCGH.de den Test zur Frontier Edition angeschaut, weil der sehr aktuell ist und da sind es in den 4K Tests meistens die genannten 30-40%. Können uns auch gerne auf 30% einigen, das ändert meine Einschätzung der Situation nicht. Und 30% gleicht man meiner Erfahrung nach auch nicht mal eben "locker" aus, sofern es nicht in einer Anwendung einen spezifischen Bug gibt.
Brillus
2017-08-04, 14:46:13
GPU Mining war schon zur 290 ein Thema.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-Litecoin-Miner-R9-290-1101699/
Vega soll 5 Jahre Entwicklungszeit hinter sich haben also noch 1 Jahr davor angefangen.
dargo
2017-08-04, 14:49:28
Low Level garantiert allein aber noch keine gesteigerte Ausnutzung der mArch von Haus aus. Das hängt sehr stark vom Entwickler ab. Id und DICE sind hier schon ziemliche Leutturmstudios, die so viel Aufwand in die Optimierung @PC @Radeon stecken.
Kleiner Einwand von mir.
DICE hat bei mir stark abgebaut. Was für mich völlig unverständlich ist, da die mit AMD low level vorangetrieben haben. Der DX12 Renderer von BF1 ist alles andere als optimal. Immerhin performt aber der DX11 Renderer auch auf GCN ordentlich. Ich hoffe die liefern mit Battlefront 2 eine wesentlich bessere Leistung @low level ab.
Und 30% gleicht man meiner Erfahrung nach auch nicht mal eben "locker" aus, sofern es nicht in einer Anwendung einen spezifischen Bug gibt.
Selbst Hawaii/Grenada wurde in Doom mit Vulkan bis 50% beschleunigt. Bei Fiji lag die Beschleunigung noch etwas höher. Du unterschätzst die Möglichkeiten einer low level API enorm.
dildo4u
2017-08-04, 15:01:51
AMD hat allerdings aktuell einen vergleichsweise geringen Marktanteil in einem Teilmarkt (PC), der wiederum auch im Vergleich zum Konsolenmarkt relativ klein ist.
Die Umstellung auf LL APIs wird früher oder später kommen. Aber in wiefern die breite Masse an Studios mehr aus AMDs mArch holt ist mMn offen.
AMD wird sicherlich die Grundleistung mittelfristig wie NV über einen besseren Shadercompiler nach und nach erhöhen. Auch wird man sicherlich den DSBR immer weiter entwickeln, so dass er homogenere Ergebnisse erzeugt.
Das komischste für mich ist das die neue XBox kein RPM kann,das hätte die Verbreitung beschleunigt.
Troyan
2017-08-04, 15:02:03
Wie oft willst du noch Doom anbringen? In Gears of War 4 ist AMD langsamer. In Tomb Raider ist man richtig viel langsamer.
Die Karten gewinnen in Doom, weil der OpenGL-Pfad im allgemeinen und im speziellen für AMD grottig ist. Und ein Unternehmen hier eben rein nur auf AMD optimiert.
In allen anderen Vulkan-Spielen ist AMD langsamer als nVidia.
deekey777
2017-08-04, 15:04:00
Das komischste für mich ist das die neue XBox kein RPM kann,das hätte die Verbreitung beschleunigt.
Ich find's interessant, dass du die Xbox One X erwähnst, obwohl robbitop weder die Xbox noch RPM erwähnt hat.
dargo
2017-08-04, 15:07:19
In Tomb Raider ist man richtig viel langsamer.
Ist völliger Quark, schau dir das ganze mit max. 2xAF oder noch besser 1xAF an. :rolleyes:
deekey777
2017-08-04, 15:07:38
Wie oft willst du noch Doom anbringen? In Gears of War 4 ist AMD langsamer. In Tomb Raider ist man richtig viel langsamer.
Die Karten gewinnen in Doom, weil der OpenGL-Pfad im allgemeinen und im speziellen für AMD grottig ist. Und ein Unternehmen hier eben rein nur auf AMD optimiert.
In allen anderen Vulkan-Spielen ist AMD langsamer als nVidia.
Er schreibt, dass Radeons mit Vulkan beschleunigt werden. Er schreibt weder was von Nvidia noch schneller als die Konkurrenz.
Troyan
2017-08-04, 15:19:54
Er schreibt, dass Radeons mit Vulkan beschleunigt werden. Er schreibt weder was von Nvidia noch schneller als die Konkurrenz.
Er benutzt Doom als Beispiel für Vulkan. Und was ist AMD in Doom? Richtig, viel schneller als nVidia. Wieso benutzt er nicht Talos, Serious Sam oder Dota?
Wir können auch nach Linux schauen. Dort gibt es Mad Max.
Wer so penetrant dauern "Low-Level API" und "Doom" im selben Satz verwendet, tut dies bestimmt nicht, weil Vulkan so gut für AMD ist.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.