Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Hasenpfote
2017-06-23, 15:10:15
;D
Wenn ich sowas lese, bin ich jedes Mal froh, daß bei mir Karten in der Leistungsregion eh nicht mehr auf dem Einkaufszettel stehen. Ich erklär mal kurz meinen Hintergrund:
Mein aktuelles System ist rund 7 Jahre alt.
Beim Kauf war eine 3870 passiv drin (Powercolor). Preis ~200Euro.
Die ist nach 3 oder 4 Jahren gestroben und musste ersetzt werden.
Rein kam eine passive 5750 für 150Euro glaub ich.
Die wurde dann ersetzt durch eine gebrauchte 5870 mit anderem Kühler für 50Euro.
D.h. über 7 Jahre habe ich 400Euro bezahlt. Von der Leistung reicht mir die 5870 sogar, nur sie hat zu wenig Speicher (1GB).
Die neue Karte soll wieder diesen Zeitraum (oder sogar länger) halten. Zusätzlich steht mittelfristig bei meinen Kindern auch n Rechner an. Da AMD vielleicht die Virtualisierung der Grafikkarten auch für Consumer-Karten unterstützt, kann die Karte dann zu Einsparungen dort führen (wozu 2x ne 150Euro-Karte verbauen, wenn eine Vega auch beide befeuern kann).
Und Nvidia kommt mir nicht ins Haus (Geforce Experience my ass, keine offenen Treiber, etc.).
Ergo schau ich zum ersten Mal in meinem gesamten PC-Bastler-Leben (20 Jahre?) in Preisregionen von 400+Euro für die Grafikkarte. Auch sonst war mein bisheriges System auf einen schmalen Geldbeutel zugeschnitten (CPU ist ein Athlon X4 615e für damals 60Euro(?), keine System-SSD, etc.). Nur einmal möchte ich einen RICHTIGEN Computer haben :biggrin:
BlacKi
2017-06-23, 15:22:59
https://www.computerbase.de/2017-06/radeon-rx-vega-leistungsaufnahme-taktrate/
Moment mal: 180W für die FE plus 130W für die schnellsten Partnerkarten macht 310W. Da beschwere sich nochmal einer, dass Vega mit 300W höchsten auf 1080-OC-Niveau kommt ;D Das wäre ja effizienter als Pascal :freak:
Und bevor der ShitStorm losbricht: ja, ich weiß, da gibt es auch noch einen GP102:P
autsch^^
das gesammte system natürlich, nicht die karte^^ ausserdem "nur" 102w.
Gynoug MD
2017-06-23, 15:30:13
bzw. als "Vorschau", was irgendwann in den für mich relevanten Segmenten verkauft werden wird.
Das "S-Klasse-Prinzip", sehr gut.:wink:
Cyphermaster
2017-06-23, 15:31:54
Nicht ganz, ich hab nur einfach nicht mehr so viel Zeit für's Gaming, daß sich die Investition lohnen würde.
Entropy
2017-06-23, 15:33:17
Im Grunde können alle modernen GPUs 1:1 FP16 Code ausführen, das heißt es wäre nicht langsamer es umzusetzen, aber halt auch nicht schneller. In kommenden GPUs wird man eben eine theoretische 2:1 Ratio haben, was sicherlich einen merklichen Unterschied bringen kann, wenn man überall dort FP16 einsetzt wo man es ginge. Nur da fehlt mir wirklich die Kenntnis wo man es überall einsetzen kann. :confused:
FP16 wird seit GCN3 unterstützt:
https://www.custompcreview.com/wp-content/uploads/2016/06/amd-gcn-4.0-improvements.jpg
Der Grund dafür ist, dass es den Verbrauch an Registern reduziert. Wenn weniger Register benutzt werden, kann eine GPU mehr Waves, also gleichzeitig zu bearbeitende Shader, ablaufen lassen.
https://image.slidesharecdn.com/gs-4108billbilodeau-131121143042-phpapp01/95/gs4108-direct-compute-in-gaming-by-bill-bilodeau-27-638.jpg?cb=1385046926
FP16 einzubauen ist sehr Trivial, im einfachsten Fall ersetzt du einfach nur float durch half wo es Sinn macht. (Es gibt noch ein paar Details, aber im Prinzip ist es das).
Bei Vega kommt zu FP16 noch FP16 von 2 Elementen hinzu, also sowas wie half-vec2 oder half2, da musst du eventuell mehr umschreiben, damit du die Operationen paarweise ausführst. Wie gut du Operationen zu Paaren zusammenfassen kannst wirkt sich dann auf die Beschleunigung aus.
Hast du dazu eine Quelle? Ich habe es noch nicht gesehen, kann mir aber nicht vorstellen dass man halfs manuell in vec2 packen muss, der compiler wird das schon automatisch machen?!
deekey777
2017-06-23, 15:51:45
FP16 wird seit GCN3 unterstützt:
https://www.custompcreview.com/wp-content/uploads/2016/06/amd-gcn-4.0-improvements.jpg
Die Folie bestätigt den aktuellen Kenntnisstand: Nur die APUs (ab Carrizo) unterstützen FP16 nativ (es soll auch Aussagen gegeben haben, die auch Tonga und Fiji einschließen).
Entropy
2017-06-23, 15:52:58
Natürlich wird ein Compiler alles mögliche machen um das Optimale zu erreichen, daran hege ich keine Zweifel, jedoch ist das kein Fingerschnippen, weil es zur Laufzeit auch Moves kostet Daten zu Paaren zu bilden. Es gibt bestimmt triviale Shader bei denen der Compiler 99% erreicht, aber Datenorganisation ist dabei die Quelle zum Erfolg, das kann der Compiler nur bedingt machen.
Wo wir bei Quellen sind, meine Erfahrung auf NVidia ist meine Quelle, somit natürlich Spekulation für Vega.
Die Folie bestätigt den aktuellen Kenntnisstand: Nur die APUs (ab Carrizo) unterstützen FP16 nativ (es soll auch Aussagen gegeben haben, die auch Tonga und Fiji einschließen).
Alles an GCN3 und GCN4 sollte, laut der Folie.
deekey777
2017-06-23, 16:01:44
In Klammern steht doch "APU" und in der Polaris-Spalte dGPU. :|
Hübie
2017-06-23, 16:03:17
Aha. Das wusste ich gar nicht. Hänge zu oft bei den grünen rum. :D Müssen die Operationen gleich sein oder habe ich das jetzt missverstanden? Also sammelt man und scheduled dann gezielt? Braucht man zwei Skalareinheiten für half-vec2/half2??? :redface:
mczak
2017-06-23, 16:06:12
Natürlich können fp16 alle Chips ab gcn3. Sieht man problemlos in den gcn isa Spezifikationen.
@Hübie: Ich gehe schon davon aus, dass es dieselbe Operation sein muss, werden ja als Paar verarbeitet.
@Entropy: Ja, das stimmt vermutlich...
=Floi=
2017-06-23, 19:48:30
.
----Woran willst du das festmachen?
der sweetspot dürfte designtechnisch irgendwo bei 200-225watt liegen. darauf wurde der chip mal designt, weil man sicherlich keine 300watt als standard im kopf hatte.
polaris fängt wegen den letzten 100mhz auch zum saufen an und bei noch mehr geht die TDP komplett durch die decke. Dafür ist der takt einfach mit den angegebenen verbrauchswerten zu hoch.
----Eventuell hat der normale vega wieder eine billige stromversorgung und bläst da nochmal 20watt mehr raus.
----Dafür müßte man eine gemessene Kurve mit Leistung/Stromverbrauch haben.
ja, wenn man es ganz genau festmachen will dann schon. die vorhandenen daten dürften aber auf kein sparwunder schliessen lassen.
----Das brauchte wohl von Anfang an keine Glaskugel. Schon GCN4 war in Sachen Performance/Watt (@Gaming) noch ein gutes Stück von dem entfernt, was nVidia anbietet. Bei den Verbesserungen war imho nicht zu erwarten, daß GCN5 das in einem Sprung aufholen kann (und beim RAM ist dann so viel Unterschied eh nicht).
würde man eine grüne version mit weniger takt bringen und die ganz gute spannungsversorgung verbauen, dann könnte man da schon noch ordentlich etwas an effizienz rausholen. So weit würde ich jetzt nicht gehen zu sagen GCN kann das nicht.
Das AMD management will das nicht. das ist eher das problem. Format_C hat es bei polaris mal so schön geschrieben, dass es im alltag besser ist auf 100mhz zu verzichten und dafür 50watt zu sparen.
----Auch da: Woran willst du das festmachen? RX480 war auch nicht überteuert, und grade im teuren Segment will AMD doch wieder einen Fuß in die Türe kriegen --> Grund für günstigere Preisgestaltung als bei der Konkurrenz.
man könnte die Titan angreifen wollen. Im schnitt sind die 1080ti auch bei 750€. Geringe verfügbarkeit und der early adopter deppenaufschlag könnten auch dort den preis hoch halten. die aufwändigere kühlung dürfte auch teurer sein. Das lässt sich AMD ebenfalls bezahlen.
Ich persönlich möchte ja auch gerne eine 1080Ti (gamerock) für 650€, aber man sieht ja die stabilen preise und langsam beerdige ich die hoffnung nach einem preisrutsch.
Bei der 480er hatte man die vorteile der kleineren chips und der alten architektur. Andere kundengruppe.
Rampage 2
2017-06-23, 20:01:33
Die 1080 Ti skaliert gut bei 2Ghz ist sie ziemlich genau 2X 1070. Nich schlecht für 700,vorallem weil man keine 1070 für unter 400€ mehr bekommt.
http://abload.de/img/img_20170623_140409615osl5.jpg
Ja... aber in der Vergleichsliste war keine bis zum Anschlag übertaktete 1070 zu finden - dann hätte die 1080Ti nur noch 60-70% Vorsprung;)
R2
Ja und? Die 1080ti hat ja auch nicht doppelt so viele Cuda Cores.
basix
2017-06-23, 22:23:44
Ja und? Die 1080ti hat ja auch nicht doppelt so viele Cuda Cores.
Wenn man es preismässig vergleicht, kann man es ja auch mit gleichen Nebenbedingungen machen. Out of the Box oder OC, nicht gemischt. Ansonsten hat dildo4u recht, die Architektur skaliert nicht schlecht und auch P/L ist in einem ähnlichen Rahmen.
scully1234
2017-06-23, 23:55:28
Ja... aber in der Vergleichsliste war keine bis zum Anschlag übertaktete 1070 zu finden - dann hätte die 1080Ti nur noch 60-70% Vorsprung;)
R2
ändert das was an der Aussage das die Karte gut skalliert mit dem Takt?
Leonidas
2017-06-24, 06:52:43
Die 300 Watt TDP bei der professionellen Vega-Karte beziehen sich auf die GPU allein. Auf der RX480 steckt ja auch eine 110 Watt-GPU (was ich auf den Punkt gemessen und bestätigt habe). Rechnet man Speicher, VR-Verluste und Gedöns dazu, sind 375 Watt TBP dann mehr als nur realistisch.
Halte ich für arg unrealistisch. Bei TDP-Angaben ist AMD zu Wahrheiten gezwungen, ansonsten steigt einem das Profi-Segment aufs Dach. Jeder *erwartet* dort Angaben für die ganze Karte - was AMD intern bei der Chipsteuerung macht, ist egal, aber diese Gesamtangaben wird zwingend erwartet. Der Unterschied sind schließlich nicht nur ein paar Watt, sondern allein bei der RX480 schon 54 Watt.
Natürlich könnte AMD bei reinen Gamer-Produkten tatsächlich nur von der Chip-TDP sprechen. Aber bei Profi-Produkten halte ich es für schwer unwahrscheinlich.
Daneben würde ich aus AMDs Nennungen von "TDP" und "TBP" nicht all zu viel deuten wollen. AMD haut diese Begriffe meistens quer durch den Raum, da dürften haufenweise Fehler dabei sein. Man muß leider bei jeder dieser Nennung nachfragen, wie jene gemeint ist.
Meinst du diese (https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed) hier? Die geistern ja schon lange rum, aber ist denn die Echtheit belegt? Kommen mir sehr dilettantisch vor.
Echtheit unbelegt, dilletantisch ja - und interessanterweise bislang immer noch nicht wiederlegt. Aber vor allem: Da geht es um Profi-Zeugs, eben gerade nicht Gamer-Varianten. Aber auch hier dürfte AMD sicherlich nicht Wattangaben nur für den Chip bringen, wäre für Profi-Zeugs einfach unüblich.
Ich vermissen deinen Sportsgeist.
Ich hätte da was:
https://scontent.xx.fbcdn.net/v/t1.0-0/p526x296/18893110_1623491417685516_6364538545750278701_n.jpg?oh=ccff903c3afda64043db0da93 5e84dd7&oe=59D86CAF
Restbestände von der GeForce FX?
Korvaun
2017-06-24, 07:16:26
Also 300W+ für das VEGA-Topmodell, was AMD-typisch wieder mal nah am Limit läuft und dann auch nicht gut übertaktet werden kann (siehe Fiji). Bin mal gespannt auf die Leistung, alles unter 1080ti wäre übel bei den Vorraussetzungen. Man kann nur hoffen das die salvage-VEGA dann eher im Rahmen bleibt und trotzdem nicht allzuviel Leistung verliert.
Hübie
2017-06-24, 07:35:36
Natürlich können fp16 alle Chips ab gcn3. Sieht man problemlos in den gcn isa Spezifikationen.
Das stimmt zwar, aber ich konnte noch nirgends nachlesen, dass man das mit 2:1 machen kann um entsprechend einen Geschwindigkeitsvorteil zu haben. Wo kann ich das nachlesen? Ich schaue die ISA durch.
robbitop
2017-06-24, 07:41:57
IIRC hat erst Vega die doppelte FP16 Rate. GCN3 und GCN4 profitieren lediglich durch reduzierte Occupancy in den Registern.
Hübie
2017-06-24, 07:52:52
Dann weiß ich nicht warum mein Beitrag moniert wurde. :confused:
horn 12
2017-06-24, 07:59:22
Vega 8GB HBM 2 für 499 Dollar und GTX 1080 TI und gar schneller
Vega 8G Salvage mit etwa GTX 1080 OC Performance für 379 bis 399 Dollar
Falls dies von der Ital. Webseite erst genommen werden darf...
Wenn dies nur Wahr werden könnte...
Hübie
2017-06-24, 08:21:16
Link pls...
basix
2017-06-24, 08:22:03
Das wäre eine Hausnummer. Bisschen optimistische Preise aber wieso nicht? Nvidia hat beim Preis Spielraum nach unten und könnte kontern. Vega hat bei 8GB weniger Speicher als die 1080Ti und den evtl. höheren Stromverbrauch. Kampfpreise wären es trotzdem.
Vega 8GB HBM 2 für 499 Dollar und GTX 1080 TI und gar schneller
Vega 8G Salvage mit etwa GTX 1080 OC Performance für 379 bis 399 Dollar
Es wird wahr und zwar nächtes Jahr...:freak:
Marktanteile -> aggressive Preise
(HBM 2 günstiger, da unter Spezifikation geliefert wird)
Stromverbrauch - HBM 2 braucht viel mehr als geplant, um überhaupt auf den Takt zu kommen (eh unterm Ziel)
Performance - wird geliefert / Verbrauch entsprechend - vielleicht sehen wir Karten von 1080/Nano (<= SP) bis über Ti (>= SP)
Mein Gefühl ist, entweder wird der Refresh erst einschlagen, oder wir sehen beim Consumer Lauch erst den Refresh.
Meine R290 möchte auch ersetzt werden.
btw. bei Navi gehe ich vom MCM Hybrid Ansatz aus oder eine Gen später.
Hasenpfote
2017-06-24, 10:04:25
Vega 8GB HBM 2 für 499 Dollar und GTX 1080 TI und gar schneller
Vega 8G Salvage mit etwa GTX 1080 OC Performance für 379 bis 399 DollarDas wäre schon geil! Da wäre mir der Mehrverbauch auch egal, da ich dann runtertakten und untervolten würde.
Link pls...
Jede Wette, dass er das dort selber geschrieben hat. War doch schon mal so.
Fetza
2017-06-24, 10:57:56
Die Gaming-Pascals bieten keine herausragenden FP16-Fähigkeiten an.
Es kann gut sein, dass große Studios hier und da FP16-Möglichkeiten nutzen (die Polaris-Radeons und die letzten APUs können FP16-Berechnungen mit gleicher Geschwindigkeit ausführen wie FP32), aber die Nutzerbasis wird wohl nicht hoch genug sein, um Resourcen zu investieren.
Ja, genau - deswegen ja meine Frage. Angenommen ich würde mir jetzt eine 1080 Ti kaufen, aber in einem Jahr würde sie aufgrund der fehlenden FP16 Fähigkeit (also mit der Fähigkeit FP16 in doppelter Geschwindigkeit zu berechnen) 20% Performance in Spielen verlieren, dann wäre das für mich jetzt eher abturnend. :)
Das ist doch falsch. Die Aussage von Dice ist, dass sie bei CBR bis zu 30% mit FP16 auf der PS4Pro rausholen.
Und welche Konsolen sollen es sein? Die PS3? Im Ernst: Es gibt mehr PS4 und Xbox One/S als PS4Pro, die Xbox One X wird da nicht viel ändern. Natürlich wäre ein Mixedmode wünschenswert, denn FP16 scheint hilfreich zu sein. Die Frage bleibt aber die gleiche: Nutzen <-> Aufwand.
Wenn Firmen wie Dice ihre Engine entsprechend optimieren, würde ich denken dass auch alle weiteren Spiele dieser Firma für alle weiteren Spiele mit der betreffenden Engine auch FP16 Support für FP16 fähige Hardware anbieten.
Spätestens hier wäre mal wirklich interessant zu sehen was FP16 in Spielen so wirklich bringt.
IIRC hat erst Vega die doppelte FP16 Rate. GCN3 und GCN4 profitieren lediglich durch reduzierte Occupancy in den Registern.
GP100 kann ja glaube ich FP16 in doppelter Geschwindigkeit, wenn ich es recht entsinne. Ist es eigentlich wahrscheinlich das Nvidia evtl. FP16 per Treiber für die restlichen Pascals freischaltet, oder ist das Ganze bei denen schon in Hardware beschnitten.
Hübie
2017-06-24, 11:03:06
Die Consumer Pascal können FP16 1:1 ausführen, aber die Hardware kann nicht zwei FP16 Operationen auf eine FP32 ALU mappen.
Gipsel
2017-06-24, 11:27:35
Die Consumer Pascal können FP16 1:1 ausführen, aber die Hardware kann nicht zwei FP16 Operationen auf eine FP32 ALU mappen.
Es ist noch bescheuerter. Skalare FP16-Ops werden auf die FP32-ALUs gemappt, laufen also 1:1. Vec2 FP16-Ops (also die, die bei GP100 und dann Vega den 2:1 Speedup haben) werden aber nur mit 1:32 Rate ausgeführt, also erheblich langsamer als die skalaren (ergeben nur 1/16 der FP32 FLOPs). Absolut sinnbefreit von der Performance-Perspektive (man wollte nur überall den gleichen Befehlssatz unterstützen).
@Fetza:
Ja, die sind in Hardware beschnitten.
Hübie
2017-06-24, 12:27:48
Das sind eben die Dinge von denen ich zu wenig verstehe. :redface: So ehrlich muss ich dann sein. Was ist alles ein Skalar in einer Engine, was wird über Vektoren gemacht? Was FP32, was FP16 und dann haben wir ja noch INT. Klar kann man sich einige Dinge denken (Vektoren wird ja sicherlich alles was Geometrie ist sein..), aber es ist eben nicht wissen. Danke für die Klarstellung. Hatte mich nämlich gewundert warum man ansonsten die FP16-Fähigkeiten von Vega herausstellen würde, wenn man dies schon könnte.
Link pls...
Ich denke er bezog sich auf bitsandchips, die auch die Quelle für Folgeartikel von PCGH & co. waren:
AMD Radeon RX Vega: Gerüchteweise mit hervorragendem Preis-Leistungs-Verhältnis (http://www.pcgameshardware.de/Vega-Codename-265481/News/AMD-Radeon-RX-Vega-Geruechteweise-mit-hervorragendem-Preis-Leistungs-Verhaeltnis-1231369/)
PCGH
bitsandchips hatten aber keine genauen Preise genannt. Wer weiß, wieviel Geld man für eine Polaris Karte derzeit hinlegen muss, kann sich ja ausrechnen wie wahrscheinlich es ist, dass Vega am Markt *weniger* kosten wird.
dildo4u
2017-06-24, 16:04:40
Kommt drauf an wie schlecht HBM2 für's Mining ist 1080 gibt es für relativ normale Preise.
https://www.mindfactory.de/product_info.php/8GB-KFA2-GeForce-GTX-1080-EX-OC-Edition-Aktiv-PCIe-3-0-x16--Retail-_1063005.html
Kommt drauf an wie schlecht HBM2 für's Mining ist 1080 gibt es für relativ normale Preise.
https://www.mindfactory.de/product_info.php/8GB-KFA2-GeForce-GTX-1080-EX-OC-Edition-Aktiv-PCIe-3-0-x16--Retail-_1063005.html
Die sind auch gestiegen um ca. 50-90 Euro...:tongue: Normal ist was anderes...
Nur ein Beispiel bei den anderen Karten Verhält es sich mehr oder weniger genau so:
https://geizhals.de/?phist=1566773
Also wer glaubt Vega wird es günstig zum kaufen geben irrt sich hier bestimmt gewaltig.
Leonidas
2017-06-25, 04:19:52
Vega 8GB HBM 2 für 499 Dollar und GTX 1080 TI und gar schneller
Vega 8G Salvage mit etwa GTX 1080 OC Performance für 379 bis 399 Dollar
Falls dies von der Ital. Webseite erst genommen werden darf...
Wenn dies nur Wahr werden könnte...
Bits 'n' Chips haben ihre Treffer, aber bei machen Dingen denke ich mir, das die einfach nur spekulieren - gerade bei Sachen, wo man auch mit Raten immer mal wieder einen Treffer landen wird.
Locuza
2017-06-25, 05:27:58
Bits 'n' Chips haben ihre Treffer, aber bei machen Dingen denke ich mir, das die einfach nur spekulieren - gerade bei Sachen, wo man auch mit Raten immer mal wieder einen Treffer landen wird.
Die Seite hat offensichtlich keinen soliden Track-Record.
Fottemberg hat eindeutig einen Pro AMD Bias und daneben viele Behauptungen und Spekulationen aufgestellt, die sich nicht als richtig herausgestellt haben.
z.B. das Skylake eine große Architekturänderung mit sich bringen wird und Morphcore unterstützen bzw. "Reverse-HT" und AMDs neue Architektur (Zen) würde angeblich das selbe Feature unterstützen.
Ebenso das AMDs neue Architektur (Zen) flexibel mit unterschiedlichen SIMD-Einheiten ausgestattet werden kann, für unterschiedliche Marktsegmente, ähnlich wie es Intel mit Skylake macht, AVX256-Bit für Konsumenten, AVX512-Bit für Enterprise.
Daneben soll der nächste Zen unter IBMs 14nm HP Prozess mit SOI hergestellt werden, dass wird höchstwahrscheinlich nicht eintreffen.
Und ansonsten hält er sich stets vage.
-/\-CruNcher-/\-
2017-06-25, 08:40:16
Hmm schlafen die leute hier alle ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581686
deekey777
2017-06-25, 09:13:16
Hmm schlafen die leute hier alle ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581686
Was hat das mit dem Thema zu tun?
-/\-CruNcher-/\-
2017-06-25, 09:46:39
Wirst du noch früh genug erleben ;)
deekey777
2017-06-25, 11:02:45
Ja, genau - deswegen ja meine Frage. Angenommen ich würde mir jetzt eine 1080 Ti kaufen, aber in einem Jahr würde sie aufgrund der fehlenden FP16 Fähigkeit (also mit der Fähigkeit FP16 in doppelter Geschwindigkeit zu berechnen) 20% Performance in Spielen verlieren, dann wäre das für mich jetzt eher abturnend. :)
Mit FP16 sollte Leistung verbessert werden, nicht verschlechtert. Ich kann's mir schlecht vorstellen, dass wir wieder in die Zeiten zurückkehren, als gezielte Verschlimmbesserungen zu massiven Leistungseinbußen führten.
Richtige Baustelle: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=570989
Eldoran
2017-06-25, 12:28:19
Naja, das kommt leider immer wieder vor, die Hardware kann nominal mit einem bestimmten Befehlssatz umgehen, das heißt sie kann diese verarbeiten und erzeugt das erwartete Ergebnis, aber es ist langsamer oder zumindest nicht scheller als die ältere Vorgehensweise. Etwa SSE2 war auf den alten Pentium M möglich, aber nur halber Takt von MMX, damit war die Verdopplung der Vektorenlänge nutzlos. In Fällen wie diesen wird man vermutlich ohnehin einen FP32 Pfad für ältere Hardware haben, und nur auf Hardware wo es sinnvoll ist mit FP16 arbeiten, egal was diese nominal verarbeiten kann (oder eben in den Optionen einen FP16 Renderpfad anbieten).
Kriton
2017-06-25, 13:20:01
Wenn ich das mit meinem laienhaften Verständnis betrachte, dann wird bei HW, die FP16 nicht beherrscht, doch einfach in 32 FP gerechnet, so dass es keine Leistungseinbußen gibt, sondern nur nicht realisierte Gewinne. Denke mal, in die Richtung geht deekey777.
Eldoran
2017-06-25, 13:55:28
Wenn ich das mit meinem laienhaften Verständnis betrachte, dann wird bei HW, die FP16 nicht beherrscht, doch einfach in 32 FP gerechnet, so dass es keine Leistungseinbußen gibt, sondern nur nicht realisierte Gewinne. Denke mal, in die Richtung geht deekey777.
Klar in vielen Fällen kein Problem, aber die Frage ist bei so etwas auch, ob es tatsächlich möglich ist - ggf. benötigt man entsprechende Konvertierungsoperationen etc. bei FP16->FP32 verlängert etwa sowohl Mantisse als auch Exponent, aber nicht gleichmäßig. Ich habe aber keine Ahnung wie bei Pascal die ISA konkret ausschaut und warum des dieses Problem überhaupt gibt. Wenn das tatsächlich nur eine Treiberbegrenzung ist, wird nvidia wohl wenn es demnächst wirklich relevant würde, einen "fix" bringen (also direkt auf fp32 und damit etwa 1:1). So wie sie async compute zumindest soweit optimiert haben, wie die Hardware hergibt.
Gipsel
2017-06-25, 14:02:30
Wenn etwas als half float (fp16) im Shadercoder (einer high level language wie HLSL) definiert ist, ist es Aufgabe des Shadercompilers (der von den GPU-Herstellern kommt) FP16 zu FP32 zu promoten, falls es nicht nativ unterstützt wird (oder schlicht zu lahm wäre). Soweit ich weiß, werden nur Konsolenspiele mit fertig kompilierten Shadern ausgeliefert, auf dem PC wird das erst auf der Targetmaschine in Binärcode für die GPU kompiliert.
Troyan
2017-06-25, 14:03:42
Es ist keine Treiberlimitierung. Es gibt nur einige FP32 Einheiten, die FP16 in "packed" Modus ausführen. Es ist exakt das selbe wie mit FP64.
Hübie
2017-06-25, 15:36:58
Wieso soll eine SIMD-ALU nicht einen Shader der von FP16 auf FP32 kompiliert wurde ausführen können? :| Verstehe ich dich denn richtig, dass nicht jede ALU das ausführen kann was Gipsel beschrieben hat?
Fetza
2017-06-25, 15:42:14
Wenn etwas als half float (fp16) im Shadercoder (einer high level language wie HLSL) definiert ist, ist es Aufgabe des Shadercompilers (der von den GPU-Herstellern kommt) FP16 zu FP32 zu promoten, falls es nicht nativ unterstützt wird (oder schlicht zu lahm wäre). Soweit ich weiß, werden nur Konsolenspiele mit fertig kompilierten Shadern ausgeliefert, auf dem PC wird das erst auf der Targetmaschine in Binärcode für die GPU kompiliert.
Kann man denn evtl. schon einschätzen wie sehr Vega davon real in Spielen profitieren wird? Wieviel würde beispielsweise der letzte Tomb Raider Teil davon profitieren können, auf dem PC?
Ups, die Frage wird ja schon erschöpfend woanders behandelt. :)
aufkrawall
2017-06-25, 15:54:36
Wird man sehen müssen, in wie weit es Treiber-Optimierungen für einzelne Titel geben wird. Da AMD da nicht so viele Ressourcen wie Nvidia hat, wär ich eher skeptisch. Es müsste dann der Spieleentwickler explizit nutzen, und da würd ich mir für bereits erschienene Titel wenig bis gar nichts erwarten. Kommende Titel wird man sehen müssen, aber Async Compute ist in der Breite ja bisher auch kaum genutzt worden. Meine Speku: Vielleicht gibts hier auch wieder die Parallele, dass vorerst auf dem PC nur id und Oxide es zu nutzen werden wissen.
Wenn etwas als half float (fp16) im Shadercoder (einer high level language wie HLSL) definiert ist, ist es Aufgabe des Shadercompilers (der von den GPU-Herstellern kommt) FP16 zu FP32 zu promoten, falls es nicht nativ unterstützt wird (oder schlicht zu lahm wäre). Soweit ich weiß, werden nur Konsolenspiele mit fertig kompilierten Shadern ausgeliefert, auf dem PC wird das erst auf der Targetmaschine in Binärcode für die GPU kompiliert.
Verhält sich dies bei UWP-Titeln gleich, insbesondere bei jenen, welche Crossplay unterstützen?
Natuerlich. Allerdings hat DX eine IR oder jetzt mit d3d12 die DXIL, aehnlich wie SPIR-V, es ist also nicht so dass die Shader wie bei OpenGL im Quelltext ausgeliefert werden, sondern in einer Zwischensprache. Das compiler backend fuer die Uebersetzung in Maschinencode ist aber natuerlich weiterhin im Treiber und dort benutzt man dann halt floats wenn halfs nicht gehen.
GLSL hat z.B. uebrigens sogenannte precision qualifiers, wodurch man hohe, mittlere oder niedrige Praezision angeben kann. Man versteift sich also nicht auf half, float oder double sondern es ist auch fuer den Entwickler klar, dass es nach oben hin nur ein Soll (fuer ggf. hoehere Geschwindigkeit) und kein Muss ist.
OgrEGT
2017-06-26, 07:05:10
Wann ist der Launch der FE nochmal... 27.06. also morgen? Hoffentlich gibt es auch ein paar Reviews mit Tests zur Game Performance...
horn 12
2017-06-26, 07:30:57
Ja, morgen Hardlaunch
Hoffe es gibt zumindest ein Userreview sobald die Karte ankommt.
Hasenpfote
2017-06-26, 09:14:09
Ja, morgen Hardlaunch
Hoffe es gibt zumindest ein Userreview sobald die Karte ankommt.Auf Reddit hat jemand n paar ETH coins zu richtigem Geld gemacht und sich ne FE bestellt. Ansonsten denke ich, dass auch n paar große Seiten sich eine Karte gekauft haben und reviewen werden:
https://www.reddit.com/r/Amd/comments/6if94c/ill_let_you_guys_know_how_the_rx_vega_might_stack/
Korvaun
2017-06-26, 09:30:48
Gibt es überhaupt schon Spiele die FP16 benutzen und dadurch einen bemerkbaren Speedup haben? Die grossen Engines (Unreal/Cryengine) können das aber alle schon ausgeben oder? Wenn sich das so "schnell" durchsetzt wie DX12 dann sollte man da keinen großen Wirbel drum machen, wird dann so ab ca. Ende 2018 vielleicht mal akut ;)
Gipsel
2017-06-26, 09:58:54
Gibt es überhaupt schon Spiele die FP16 benutzen und dadurch einen bemerkbaren Speedup haben? Die grossen Engines (Unreal/Cryengine) können das aber alle schon ausgeben oder?Es geht nicht um die Ausgabe, sondern um die Berechnung vorher.
Entropy
2017-06-26, 09:59:39
Es gibt viel alten Shadercode der noch FP16 hat und manche haben einfach weiter "half" benutzt ohne zu verifizieren, dass das auch funktioniert, denn es gab keine Hardware dafür.
Bei der NV30 und NV40 Generation war das fundamental wichtig, leider ist das nicht auf die neuen FP16 Einheiten angepasst.
Kartenlehrling
2017-06-26, 10:10:10
Wird nicht bei den HDR Spiele ein ablegen in FP16 genommen, jedenfall würde es so für Rise of the Tombraider im Blog geschrieben und eine .PDF beschreibt es auch so.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57759&d=1477224265
Gipsel
2017-06-26, 10:13:06
Das ist auch die Ausgabe. Um die geht es wie gesagt gar nicht, wenn über die Beschleunigung von Shadern mittels FP16-Berechnungen geredet wird.
Entropy
2017-06-26, 10:13:07
Das ablegen schon, aber die ganzen Berechnungen waren in FP32. Deswegen macht FP16 Sinn, denn wozu in FP32 rechnen, wenn es eh nicht zusehen ist? ...jedenfalls bei manchen Dingen.
Cyphermaster
2017-06-26, 10:16:36
der sweetspot dürfte designtechnisch irgendwo bei 200-225watt liegen. darauf wurde der chip mal designt, weil man sicherlich keine 300watt als standard im kopf hatte.
polaris fängt wegen den letzten 100mhz auch zum saufen an und bei noch mehr geht die TDP komplett durch die decke. Dafür ist der takt einfach mit den angegebenen verbrauchswerten zu hoch.Woher willst du das so genau wissen? Du weißt nicht, wie der Zusammenhang zwischen Takt und Stromdurst ist. Zum Einen weißt du nicht, auf welchen Sweetspot-Takt man Vega ausgelegt hat, zum Anderen ist der Zusammenhang mit Polaris wahrscheinlich nicht 1:1, und zuletzt ist die Frage, in wie weit man von Taktraten/Verbrauch der Profi-Variante mit Passivkühlung auf die mit an Sicherheit grenzender Wahrscheinlichkeit aktiv gekühlten Referenz Gamer-Vega Karten extrapolieren kann.
Daß die Architektur auf der Strukturbreite in Sachen Energiesparen wohl nVidia nicht grundsätzlich in den Schatten stellen wird, dürfte nach Polaris relativ klar sein (d.h. Energiebedarf immer nV-Gegenstück +XY%); aber aus 100MHz mehr oder weniger Takt jetzt schon so viel sicher herauslesen zu wollen, daß die Karten allesamt weit überhalb des Sweetspots angesiedelt wären, halte ich für sehr dünnes Eis. Insbesondere, wenn man sich die sinngemäße Aussage "was Vega an Strom braucht, braucht er halt" vor Augen hält ==> von Sweetspot bis an die Kotzgrenze getriebene Versionen je nach Bedarf.
Mit den Daten zur FE morgen/übermorgen kann man solche Aussagen erhärten/widerlegen, und zielgerichtet auf Custom-Versionen spekulieren; d.h. da bin ich wieder gespannt. :sweet:
deekey777
2017-06-26, 10:33:18
Das ablegen schon, aber die ganzen Berechnungen waren in FP32. Deswegen macht FP16 Sinn, denn wozu in FP32 rechnen, wenn es eh nicht zusehen ist? ...jedenfalls bei manchen Dingen.
NV40 und seine Nachfolger (G70/G71) konnten FP16-Texturen filtern, blenden und in den Buffer schreiben (untechnisch geschrieben). Ließen sich damals Spiele mit Deferred Renderer wie Stalker durch Berechnungen mit halber Genauigkeit beschleunigen?
DinosaurusRex
2017-06-26, 11:42:37
[CBR] sieht aus wie Arsch. Es ist pures Marketing und noch dazu lahm. Alle Spiele mit normalem Upsampling sehen besser aus.
Es scheint auch Fans zu geben. Zum Beispiel DICE: 4K Checkerboard in Battlefield 1/ Mass Effect Andromeda (https://de.slideshare.net/DICEStudio/4k-checkerboard-in-battlefield-1-and-mass-effect-andromeda)
Und bei denen läuft das auch noch schnell genug für 60fps.
N0Thing
2017-06-26, 11:48:00
Nicht, daß sie damit nicht recht haben könnten, aber das ist doch so, als ob man einem Autohersteller vertraut, der sich positiv zu seinen aktuellen Motoren äußert.
Mit den Daten zur FE morgen/übermorgen kann man solche Aussagen erhärten/widerlegen, und zielgerichtet auf Custom-Versionen spekulieren; d.h. da bin ich wieder gespannt. :sweet:
Ich bin auch schon sehr gespannt, ob es Reviews zur FE geben wird und wie viele Informationen man davon für die Consumer-Version gebrauchen kann.
DinosaurusRex
2017-06-26, 12:06:46
Nicht, daß sie damit nicht recht haben könnten, aber das ist doch so, als ob man einem Autohersteller vertraut, der sich positiv zu seinen aktuellen Motoren äußert.
Es kommt halt immer auf den Kontext an und ich glaube DICE hatte es auf der GDC 2017 nicht nötig, anderen Entwicklern einen Bären aufzubinden.
grauenvoll
2017-06-26, 12:20:18
Ob Entwickler FP16 nutzen oder nicht, ist nicht nur eine Frage des Aufwandes, sondern auch eine politische Frage. Das würde hinter den Kulissen ganz schön grummeln, wenn ein Hersteller einseitig bevorzugt wird. Ich erwarte einen Durchbruch erst, wenn beide Hersteller das bei gleicher Leistung anbieten.
AffenJack
2017-06-26, 12:25:03
Soweit ich es bisher auch verstanden habe hat die Xbox Scorpio auch kein 2xFP16 Support. Das hätte die Userbase nochmal deutlicher gepusht, aber so wies aussieht ist bei den Konsolen ja nur die PS4Pro dabei. So muss man sehen wieviele Entwickler wegen einer Prokonsole und der am Anfang geringen Insallbase von Vega drauf setzen werden.
Bisher noch alles sehr ruhig trotz Launch morgen. Bin gespannt ob nur ausgewählte Seiten Karten bekommen haben oder ob wir wieder nur ne PowerPoint Slides zum Launch kriegen. Wäre schön morgen endlich mal erste Handfestere Infos zu haben. Ich befürchte aber wir bekommen nur Slides.
uweskw
2017-06-26, 12:27:17
Ob Entwickler FP16 nutzen oder nicht, ist nicht nur eine Frage des Aufwandes, sondern auch eine politische Frage. Das würde hinter den Kulissen ganz schön grummeln, wenn ein Hersteller einseitig bevorzugt wird. Ich erwarte einen Durchbruch erst, wenn beide Hersteller das bei gleicher Leistung anbieten.
einseitig bevorzugt?? ne jetzt... :freak: schon mal was von Gameworks gehört?
Ich bin auch schon sehr gespannt, ob es Reviews zur FE geben wird und wie viele Informationen man davon für die Consumer-Version gebrauchen kann.
Wie? gibt es keine regulären Reviews von den großen Seiten?
greetz
US
Tarkin
2017-06-26, 12:46:23
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.html
Of course, we’d expect such performance from a $1,200 card, but many are concerned that Vega just won’t perform. From what we’ve seen, that concern may be misplaced. It appears to be plenty fast and, at least for the settings and the games we played, indistinguishable from the competition (war in dem Fall eine Titan xp)
MechWOLLIer
2017-06-26, 12:47:53
Wie? gibt es keine regulären Reviews von den großen Seiten?
greetz
US
Zu einem professionellen Produkt? :(
y33H@
2017-06-26, 12:49:25
Wie bei Radeon Pro Duo - keine Samples der Vega FE, muss man also kaufen/leihen.
Fetza
2017-06-26, 12:56:46
Zu einem professionellen Produkt? :(
Was spricht denn dagegen?
Wie bei Radeon Pro Duo - keine Samples der Vega FE, muss man also kaufen/leihen.
Achso, ok - aber große Magazine wie die PC Games Hardware sollten doch so ein Teil fix anschaffen können.
Taigatrommel
2017-06-26, 12:59:18
Wie? gibt es keine regulären Reviews von den großen Seiten?
greetz
US
Darüber wurde bereits vor zahlreichen Seiten spekuliert, da die FE ja kein typisches Produkt für Konsumenten ist, halte ich es für fraglich, ob AMD entsprechende Testmuster an die Redaktionen verteilen wird. Da im Reddit AMA auch explizit erwähnt wurde, dass die Radeon Relive Treiber für die FE (noch?) nicht zur Verfügung stehen werden und man somit keine spezifischen Optimierungen für Spiele erhält, sehe ich für "offizielle" Tests auch eher schwarz.
Dennoch denke ich, dass sich so manche Redaktion sicher auf eigene Rechnung eine FE sichern wird. Egal wie das Ergebnis aussehen wird, ein solches Review wird viele Klicks garantieren.
Entropy
2017-06-26, 13:00:39
NV40 und seine Nachfolger (G70/G71) konnten FP16-Texturen filtern, blenden und in den Buffer schreiben (untechnisch geschrieben). Ließen sich damals Spiele mit Deferred Renderer wie Stalker durch Berechnungen mit halber Genauigkeit beschleunigen?
Ja, auf G70 usw. wurde half exzessiv benutzt, praktisch überall wenn du Shader schriebst und nur wenn Fehler sichtbar waren, wurde float verwendet. Natürlich gibt es Dinge wie z.B. globale Positionskoordinaten die immer float sind.
Vom quasi ersten Deferred Shading Spiel kannst du unten ein bisschen Source anschauen, was das gut verdeutlicht.
https://developer.nvidia.com/gpugems/GPUGems2/gpugems2_chapter09.html
deekey777
2017-06-26, 13:26:00
Ja, auf G70 usw. wurde half exzessiv benutzt, praktisch überall wenn du Shader schriebst und nur wenn Fehler sichtbar waren, wurde float verwendet. Natürlich gibt es Dinge wie z.B. globale Positionskoordinaten die immer float sind.
Vom quasi ersten Deferred Shading Spiel kannst du unten ein bisschen Source anschauen, was das gut verdeutlicht.
https://developer.nvidia.com/gpugems/GPUGems2/gpugems2_chapter09.html
Danke. Auch eine stehende Uhr (=ich) zeigt zweimal am Tag die richtige Uhrzeit.
Es ist noch bescheuerter. Skalare FP16-Ops werden auf die FP32-ALUs gemappt, laufen also 1:1. ....
@Fetza:
Ja, die sind in Hardware beschnitten.
Führt das trotzdem zu Verbesserungen der Leistung?
Cyphermaster
2017-06-26, 13:27:18
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.htmlInteressant auch:
"Our original estimates after seeing Radeon Vega Frontier Edition with Sniper Elite 4 at Computex still hold: The cards appears to be faster than Nvidia's GTX 1080 and close to that of a GTX 1080 Ti card."
Wohlgemerkt, schon bei der Luftkühler-Version, nicht bei der mit Wasserkühlung. Das würde sich, wenn es sich halbwegs auf RX Vega übertragen läßt (wovon ich ausgehe, da AMD ja offensichtlich auch Gaming-Einsatz bei ihren Pro-Karten mit einrechnet), decken mit den Einschätzungen von ~1080 non-Ti OC für eine Referenzkarte, und 1080 Ti (bis evtl. sogar OC?) für Customs - aber letztere Regionen wohl nur unter massiv ansteigendem Verbrauch und ggf. Wasserkühlung.
Das wäre gar nicht mal schlecht.
Fetza
2017-06-26, 13:58:05
Interessant auch:
Wohlgemerkt, schon bei der Luftkühler-Version, nicht bei der mit Wasserkühlung. Das würde sich, wenn es sich halbwegs auf RX Vega übertragen läßt (wovon ich ausgehe, da AMD ja offensichtlich auch Gaming-Einsatz bei ihren Pro-Karten mit einrechnet), decken mit den Einschätzungen von ~1080 non-Ti OC für eine Referenzkarte, und 1080 Ti (bis evtl. sogar OC?) für Customs - aber letztere Regionen wohl nur unter massiv ansteigendem Verbrauch und ggf. Wasserkühlung.
Das wäre gar nicht mal schlecht.
Hmm, meint ihr alle wirklich das die neue VEGA maximal bei einer 1080 Ti einzuordnen ist? Das fände ich irgendwie entäuschend.
dildo4u
2017-06-26, 14:03:18
Das passt genau zu den Specs,die Luftgekühlte Version kommt nur auf 12 Tflop,das ist nur minimal besser als die 1080 Ti.
NV hat die Lücke dort dank Boost 3.0 ordentlich geschlossen.Laut dem hier sind's 11.3 mit Boost,Custom Karten mit 2Ghz sind bei 14.
https://en.wikipedia.org/wiki/GeForce_10_series
Gipsel
2017-06-26, 14:06:16
Führt das trotzdem zu Verbesserungen der Leistung?Wenn der Shadercompiler aus irgendeinem Grunde vec2-FP16 Code erzeugt (oder man ihn dazu zwingt), läuft das sehr viel langsamer (statt 2:1 Beschleunigung wie gesagt nur noch 1:16). Das ist also eher nicht zu empfehlen. Sollte aber meist auch kein Problem sein (weil nV vermutlich dran interessiert ist, daß ihre GPUs gut abschneiden und das dann auf diesen Karten in FP32 rechnen).
Hasenpfote
2017-06-26, 14:07:23
Hmm, meint ihr alle wirklich das die neue VEGA maximal bei einer 1080 Ti einzuordnen ist? Das fände ich irgendwie entäuschend.AMD rennt seit Jahren hinter Nvidia hinterher und wenn sie gleichziehen ist das irgendwie enttäuschend. Nagut, für viele war es auch enttäuschend, dass Ryzen unter 720p nicht mit nem 7700k mithalten konnte.
Also wenn die FE ohne spieleoptimierte Treiber an eine 1080TI rankommt, kann Vega FX mit ordentlichem Treiber auf gleicher Höhe oder davor sein (ok, abzüglich die 8GB weniger RAM). Wenn man dann noch dazu nimmt, dass AMD die Karte für rund 500Euro verkauft, sollte man mit dem Kauf vielleicht nicht zu lange warten, sonst sind die Lager leer und AMD kann nicht schnell genug nachliefern. Mal hoffen, dass die Karte zum Minen nix taugt.
edit: bzgl.
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.html
Sie sagen, sie konnten beim Wechsel zwischen den Rechner keinen Unterschied feststellen. Das kann man auch so interpretieren, dass 20fps mehr oder weniger bei 100fps nicht feststellbar sind.
AffenJack
2017-06-26, 14:15:58
Hmm, meint ihr alle wirklich das die neue VEGA maximal bei einer 1080 Ti einzuordnen ist? Das fände ich irgendwie entäuschend.
Mein Tipp ist ja 1080TI Ref +5% bei 300W mit Luft und Custom vs Custom dann etwa gleich bei mehr Verbrauch von Vega. Alles was bisher zur Leistungsaufnahme bekannt ist deutet einfach darauf, dass man wieder sehr nah an die Grenze des machbaren gehen wird und das hätte man nicht nötig, wenn man schon so schneller als die 1080Ti wäre.
N0Thing
2017-06-26, 14:20:47
Hmm, meint ihr alle wirklich das die neue VEGA maximal bei einer 1080 Ti einzuordnen ist? Das fände ich irgendwie entäuschend.
Die 1080Ti war eigentlich die anzunehmende Obergrenze der Leistung von Vega 10, oder nicht? Die Präsentation mit Doom lag damals etwas oberhalb einer GTX 1080 und das mit Vulkan. Wenn Vega 10 inzwischen auch abseits der idealen Benchmark-Szenarien in die Nähe der GTX 1080Ti kommen sollte, wäre das schon ziemlich gut.
Linmoum
2017-06-26, 14:34:37
Die Doom-Demo lief damals aber auch nur auf einem Vega mit 1200MHz, davon gab es ja auch diverse 3DMark-Einträge. Mittlerweile wissen wir ja, dass es out of the box (zumindest bei der Frontier Edition) bis zu ~1600MHz sein werden.
Dass man die 1080 klar schlagen muss, ist logisch. Sollte auch problemlos der Fall sein. Beim Rest muss man dann schauen. Da wird entscheidend sein, ob Vega auch abseits von Doom und Co. die PS auf die Straße kriegt.
dildo4u
2017-06-26, 14:42:41
Ich glaube ehrlich gesagt nicht das die FE ein schlechteren Gametreiber als die RX bekommt,das Ding wird u.a auf Spielentwickler ausgerichtet,die das Game direkt testen wollen.
LadyWhirlwind
2017-06-26, 14:51:12
Ich glaube ehrlich gesagt nicht das die FE ein schlechteren Gametreiber als die RX bekommt,das Ding wird u.a auf Spielentwickler ausgerichtet,die das Game direkt testen wollen.
Jein. Sicher wird die FE auch fürs Gaming benutzt, aber der Schwerpunkt liegt wo anders. Entsprechend werden Optimierungen für Spiele nicht der Fokus sein. Ich vermute sogar, dass diese dann vom Consuer-Treiber von Vega übernommen werden.
Dino-Fossil
2017-06-26, 14:51:24
Die FE wird sicherlich eventuell auf einem vergleichbaren Stand bezüglich der Treiber sein.
Allerdings würde es mich nicht wundern, wenn zum Launch der Treiber der FE in so manchem Spiel noch nicht die endgültige Performance liefert...
Cyphermaster
2017-06-26, 15:02:27
Hmm, meint ihr alle wirklich das die neue VEGA maximal bei einer 1080 Ti einzuordnen ist? Das fände ich irgendwie entäuschend.
Warum? Wenn man sich ansieht, wie weit bezüglich Perf./Watt AMD grade in Spielen hinter nVidia lag, teils die oberen Segmente gar nicht erst besetzen konnte (!), wäre ein leistungsmäßig äquivalentes Produktportfolio zu etwas mehr Energieverbrauch, aber entsprechend etwas günstigeren Preisen doch ein großer Schritt vorwärts. Insbesondere, wenn man neue Technologien wie HBM dabei mit einführt.
Brillus
2017-06-26, 15:15:00
Mein Tipp ist ja 1080TI Ref +5% bei 300W mit Luft und Custom vs Custom dann etwa gleich bei mehr Verbrauch von Vega. Alles was bisher zur Leistungsaufnahme bekannt ist deutet einfach darauf, dass man wieder sehr nah an die Grenze des machbaren gehen wird und das hätte man nicht nötig, wenn man schon so schneller als die 1080Ti wäre.
Oder man ist über 1080Ti und bekommt so die Titan geschlagen.
Skysnake
2017-06-26, 15:25:23
Wenn der Shadercompiler aus irgendeinem Grunde vec2-FP16 Code erzeugt (oder man ihn dazu zwingt), läuft das sehr viel langsamer (statt 2:1 Beschleunigung wie gesagt nur noch 1:16). Das ist also eher nicht zu empfehlen. Sollte aber meist auch kein Problem sein (weil nV vermutlich dran interessiert ist, daß ihre GPUs gut abschneiden und das dann auf diesen Karten in FP32 rechnen).
Wobei ich dieses ganze "Optimieren" kritisch sehe.
Der Compiler soll dafür sorgen, dass der Code genau in der Precision ausgeführt wird, die ich anfordere. Klar, am Ende bringt es vielleicht mehr Performance, aber das wird dann zu üblen Äpfel mit Birnen Vergleichen..
Fetza
2017-06-26, 15:41:07
Warum? Wenn man sich ansieht, wie weit bezüglich Perf./Watt AMD grade in Spielen hinter nVidia lag, teils die oberen Segmente gar nicht erst besetzen konnte (!), wäre ein leistungsmäßig äquivalentes Produktportfolio zu etwas mehr Energieverbrauch, aber entsprechend etwas günstigeren Preisen doch ein großer Schritt vorwärts. Insbesondere, wenn man neue Technologien wie HBM dabei mit einführt.
So gesehen hast Du natürlich recht, ich beurteile das eher auch aus einer subjektiven Sicht. Möchte mir eigentlich jetzt eine neue Graka kaufen und da wäre für mich das warten auf Vega halt eigentlich nur dann interessant, wenn es eben auch einen Grund zum warten gäbe.
Jein. Sicher wird die FE auch fürs Gaming benutzt, aber der Schwerpunkt liegt wo anders. Entsprechend werden Optimierungen für Spiele nicht der Fokus sein. Ich vermute sogar, dass diese dann vom Consuer-Treiber von Vega übernommen werden.
Das wird erst Mal der Fall sein. Es wird letztendlich auf einen Profitreiber+ hinauslaufen, der auch einige Programme direkt unterstützten wird.
Der Gamingpart wird einfach noch nicht fertig sein. Ich denke, es wird alles soweit funktionieren, aber den letzten Schliff wird man erst bei der RX fertig haben. Das wird dann mMn so aussehen:
Instinct 1,5GHz V10XT 16GB
FE 1,6GHz V10XT 16GB
RX XT >1,6GHz V10XT 8GB (ist ja bestätigt worden, dass die schneller wird als die FE)
Pro SSG <1,5GHz V10XT 16GB + 2TB NVME SSD
Und die FE taugt dann auch als Titan, weil man in den professionellen Treiber auch den Gamingteil mit integrieren wird.
Gipsel
2017-06-26, 16:10:54
Das wird erst Mal der Fall sein. Es wird letztendlich auf einen Profitreiber+ hinauslaufen, der auch einige Programme direkt unterstützten wird.
Der Gamingpart wird einfach noch nicht fertig sein. Ich denke, es wird alles soweit funktionieren, aber den letzten Schliff wird man erst bei der RX fertig haben. Das wird dann mMn so aussehen:
Instinct 1,5GHz V10XT 16GB
FE 1,6GHz V10XT 16GB
RX XT >1,6GHz V10XT 8GB (ist ja bestätigt worden, dass die schneller wird als die FE)
Pro SSG <1,5GHz V10XT 16GB + 2TB NVME SSD
Und die FE taugt dann auch als Titan, weil man in den professionellen Treiber auch den Gamingteil mit integrieren wird.Zur gefetteten Zeile:
Die Aussage, daß Rx Vega eine höhere Performance als die FE erreichen sollte, bezog sich explizit auf die Spieleleistung. Dies kann also bereits über weiter reichende Optimierungen des Treibers auf Spiele erreicht werden, selbst wenn der Takt z.B. nur 1,55GHz betragen würde.
Cyphermaster
2017-06-26, 16:26:50
So gesehen hast Du natürlich recht, ich beurteile das eher auch aus einer subjektiven Sicht. Möchte mir eigentlich jetzt eine neue Graka kaufen und da wäre für mich das warten auf Vega halt eigentlich nur dann interessant, wenn es eben auch einen Grund zum warten gäbe.Den gibt's doch immer und nie. Kaufst du, veraltet die Karte ab morgen zusehends. Wartest du, kannst du nicht Zocken. Und weil sowieso nach jeder Kartengeneration eine schnellere kommt... :rolleyes:
Und beim Geld ist es genauso: Kauft man direkt nach dem Release, wird die Karte nicht so schnell von einer neueren Generation ersetzt (und man "muß" nicht neu kaufen); dafür zahlt man andersrum wieder direkt nach dem Release auch am Meisten.
Daß du enttäuscht bist, wundert mich aber trotzdem ein wenig. Leistungen nennenswert oberhalb der 1080 Ti waren schließlich für Vega von vorn herein eigentlich kaum ernsthaft im Gespräch, zumindest nicht außerhalb irgendwelcher Spezial-Szenarios oder unter Vulkan.
Gipsel
Die wird den Takt schon mindestens mitbringen. Bislang waren es immer die Gaming-Varianten, die den höchsten Takt brachten, warum sollte sich das jetzt ändern - von den Custom-Varianten gar nicht zu reden.
Wenn meine Theorie stimmt, dass die FE normalen Gamingsupport bekommt, lieg ich ja auch mit deiner Annahme richtig.
Gipsel
2017-06-26, 16:57:59
Gipsel
Die wird den Takt schon mindestens mitbringen. Bislang waren es immer die Gaming-Varianten, die den höchsten Takt brachten, warum sollte sich das jetzt ändernWeil es diesmal die Frontier Edition gibt, die man als ganz grobes Äquivalent zur Titan (aber ein wenig mehr auf den Pro-Markt getrimmt) für den grob doppelten Preis als die normale Consumer-Variante losschlägt?
Muß nicht so kommen, könnte aber.
dildo4u
2017-06-26, 17:37:08
Die Consumer Varianten kommen vermutlich nicht mit 2X8 Pin,so könnte man die Karte gut abgrenzen.Halt minimal schneller als die schnellste Gameing GPU siehe 1080 Ti vs Titan Xp.
Gipsel
2017-06-26, 17:45:51
Die Consumer Varianten kommen vermutlich nicht mit 2X8 Pin,so könnte man die Karte gut abgrenzen.Halt minimal schneller als die schnellste Gameing GPU siehe 1080 Ti vs Titan Xp.
Als ob der Stecker die Stromaufnahme limitiert. :rolleyes:
Und Customs können da doch sowieso drauf löten, was dem Hersteller beliebt.
Mortalvision
2017-06-26, 18:52:34
://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43490-amd-radeon-vega-frontier-edition-gegen-nvidia-titan-xp-im-vergleich.html
Holy cow! ;D
deekey777
2017-06-26, 19:13:36
://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43490-amd-radeon-vega-frontier-edition-gegen-nvidia-titan-xp-im-vergleich.html
Holy cow! ;D
Hat HWL alles von PCWorld übernommen?
basix
2017-06-26, 19:19:25
Nun ja als Spieler kann man jetzt nicht allzuviel darauf geben. Aber optisch gefällt mir das blau eloxierte brushed Alu wesentlich besser als die Titan Xp
Menace
2017-06-26, 19:23:13
Aber optisch gefällt mir das blau eloxierte brushed Alu wesentlich besser als die Titan Xp
Endlich ein Punkt, bei dem ich mitreden kann: Mir auch. :biggrin:
Fetza
2017-06-26, 19:33:18
Nun ja als Spieler kann man jetzt nicht allzuviel darauf geben. Aber optisch gefällt mir das blau eloxierte brushed Alu wesentlich besser als die Titan Xp
Stimmt, wirkt irgendwie gediegener. :-)
Swissr
2017-06-26, 19:43:42
Intressantes Interview/live test.
Sie spielen auf TitanX und Vega, und PCWorld hat zumindest keinen Unterschied bemerkt. Und DENNOCH sagt AMD, dass man auf die NonPro Variante warten muss, da diese "besser/schneller" (besser optimiert? evtl. höherer Takt? definitiv Treiberoptimierungen) sein wird. ..... ich freu mich, obwohl das meine erste AMD bzw. ATI Karte seit der Radeon 9800 Pro - und somit 13 Jahren sein wird.
fondness
2017-06-26, 19:47:47
AMD scheint definitiv mehr wert auf Design zu legen, dieses Ding soll ab morgen verfügbar sein:
https://s21.postimg.org/ov2f8n5dj/DDP7_1_BWs_AEVId_N.jpg (https://postimg.org/image/6fhyb8r8z/)
basix
2017-06-26, 19:55:06
Stimmt, wirkt irgendwie gediegener. :-)
Auch das Vega Logo gefällt mir gut. Schlicht und doch stylisch. So soll das sein, wenn ich viel Geld für eine Karte ausgeben will ;) Da war die Ur-Titan ebenfalls besser dabei als die Titan Xp. Die goldene Vega mit WaKü gefällt mir aber wiederum nicht, golden ist mir zu viel Protz :D
aceCrasher
2017-06-26, 20:00:12
Nun ja als Spieler kann man jetzt nicht allzuviel darauf geben. Aber optisch gefällt mir das blau eloxierte brushed Alu wesentlich besser als die Titan Xp
Mir ehrlich gesagt nicht, das Blau ist mir definitiv zu stark als Farbe, ich habe lieber etwas schlichtes was sich ins System einfügt, als einen gigantischen Farbklecks.
AtTheDriveIn
2017-06-26, 20:02:06
Der gelb beleuchtete R-Würfel macht was her. Soll der bei der RX Vega auch so kommen? Das Ding wird was.
Google Bildersuche zeigt einen Roten und die Karte schwarz. Sehr Nett :)
M4xw0lf
2017-06-26, 20:02:34
Mir ehrlich gesagt nicht, das Blau ist mir definitiv zu stark als Farbe, ich habe lieber etwas schlichtes was sich ins System einfügt, als einen gigantischen Farbklecks.
Bei dem Preis kann man auch gleich ein farblich passendes System drumrumbauen :uup:
dildo4u
2017-06-26, 20:04:19
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.html
Of course, we’d expect such performance from a $1,200 card, but many are concerned that Vega just won’t perform. From what we’ve seen, that concern may be misplaced. It appears to be plenty fast and, at least for the settings and the games we played, indistinguishable from the competition (war in dem Fall eine Titan xp)
Haben die dort ein alten Treiber genutzt,ich komme schon auf 84 fps bei Cinebench mit meiner 1070.
http://abload.de/img/cinef67jix.png
-/\-CruNcher-/\-
2017-06-26, 20:05:10
AMD scheint definitiv mehr wert auf Design zu legen, dieses Ding soll ab morgen verfügbar sein:
https://s21.postimg.org/ov2f8n5dj/DDP7_1_BWs_AEVId_N.jpg (https://postimg.org/image/6fhyb8r8z/)
Das ist doch ein Falcon System oder irre ich mich (Logo) ?
Taigatrommel
2017-06-26, 20:09:06
Der gelb beleuchtete R-Würfel macht was her. Soll der bei der RX Vega auch so kommen? Das Ding wird was.
Google Bildersuche zeigt einen Roten und die Karte schwarz. Sehr Nett :)
Das sind bislang leider alles nur Photoshop Spielereien, welche auf der FE basieren. Das Design der RX Vega ist leider noch vollkommen unbekannt - oder zumindest halt nicht veröffentlicht. Ich persönlich hoffe ja schon auf eine schwarz/rote Version, analog zum bisherigen Farbmuster der Radeon Reihe, einige der Montagen sehen schon sehr gut aus.
dildo4u
2017-06-26, 20:11:14
Das ist doch ein Falcon System oder irre ich mich (Logo) ?
Ja ist ein Falcon Tiki.
https://youtu.be/Lfx4mcbD5hk
fondness
2017-06-26, 20:12:43
Das sind bislang leider alles nur Photoshop Spielereien, welche auf der FE basieren. Das Design der RX Vega ist leider noch vollkommen unbekannt - oder zumindest halt nicht veröffentlicht. Ich persönlich hoffe ja schon auf eine schwarz/rote Version, analog zum bisherigen Farbmuster der Radeon Reihe, einige der Montagen sehen schon sehr gut aus.
Das sind keine Photoshop-Spielchen. Siehe Videos von PC World.
https://s7.postimg.org/59tujz5l7/AMD-_Radeon-_Vega-_Frontier-4-1600x900.jpg (https://postimg.org/image/9iykm58uf/)
https://s7.postimg.org/no4dnyhvv/AMD-_Radeon-_Vega-_Frontier-5-1600x900.jpg (https://postimg.org/image/icph38vt3/)
@fondness
Was bedeutet denn beim Stromanschluss der Karte die LED-Lampenreihe mit der Bezeichnung "GPU-Tach" ?
Tachometer, der was ! anzeigt ?
fondness
2017-06-26, 20:21:52
Das Ding zeigt die Auslastung der GPU an, hatte auch schon die Fury X. :)
Wenn Zero Core an ist leuchtet es grün.
N0Thing
2017-06-26, 20:34:16
Das sind keine Photoshop-Spielchen. Siehe Videos von PC World.
Da ist aber keine RX Vega zu sehen.
Taigatrommel
2017-06-26, 20:43:15
Das sind keine Photoshop-Spielchen. Siehe Videos von PC World.
Ich meinte damit explizit das Design der RX Vega, nicht der FE. Das Letztere so aussehen wird, inklusive leuchtenden "R" Würfel, war ja seit der Präsentation bekannt. Doch das Design der Gaming Version wurde bislang noch nicht gezeigt, die Bilder, welche im Netz kursieren, sind alles Montagen. Videocardz.com hat kurz nach der FE Präsentation sogar eine Umfrage zur beliebtesten Design-Montage zur RX Vega gemacht.
Die doppelten in-Game FPS der Fiji NANO dürften nicht weit daneben liegen, oder?
Etwa doppelte MHz in-Game.
Perfekte Skalierung + Bonus und man kratzt an der 1080Ti
*jubel* *jubel* *freu* *freu*
-=Popeye=-
2017-06-26, 20:59:48
Haben die dort ein alten Treiber genutzt,ich komme schon auf 84 fps bei Cinebench mit meiner 1070.
http://abload.de/img/cinef67jix.png
Lol?
Swissr
2017-06-26, 21:07:37
Spielt die Auflösung eine Rolle?
(del)
2017-06-26, 21:11:08
Mal was Technisches zwischendurch:
Wer Vega auf Wasser umbauen möchte, sollte extrem vorsichtig mit dem Interposer umgehen. Aktuell besucht AMD die Hersteller, um Hilfestellung bei älteren SMT-Maschinen zu geben. Außerdem dürfen keine Röntgentests mehr gemacht werden, bei denen Strahlung auf die GPU gelangen kann. Wärmeleitpaste zwischen Speicher und GPU sollte nicht mehr komplett entfernt werden, man empfiehlt maximal ein weiches Tuch und etwas Alkohol für die Oberflächen. Und warnt vor zu viel Anpressdruck, der ja trotz schützedem Sockelrahmen durch Wölbungen überschritten werden könnte. Das Teil scheint also recht fragil zu sein. Ein paar von einer ganzen Reihe "Tipps" an die Hersteller:
No X-ray inspection is allowed on Vega 10 ASIC...
Passivation layer of interposer is very fragile. Do not touch interposer with or without tool. No cleaning is required on the interposer...
Ich frage mich nur, wie so ein Teil dann den Zoll überstehen soll, wenn X-Ray prohibited ist? Oder hat jemand Angst vor Die-Shots? Bei Fiji war die Liste nicht so umfangreich. :D
Bis zu 375 Watt TBP, nicht TDP. Für die nicht übertakteten Customs. Laut PCB-Entwickler.
Die Positionierung der VRM so eng um die GPU herum ist auch eine thermische Problemstellung erster Güte. Es muss nun wesentlich mehr Abwärme durch die Heatpipes bis ans Kartenende geschafft werden, wo früher die VRM noch im Bereich des Kartenendes direkt gekühlt werden konnten. Eine gute Vapor-Chamber wär eine Lösung. Doch wo der OC-Spielraum herkommen soll bei Luft ist immer noch so ein Ding für sich.
Dino-Fossil
2017-06-26, 21:12:46
Cool, meine RX 480 kommt auch schon auf 100 Punkte - damit ist klar, dildo's GTX 1070 wird von Polaris ordentlich deklassiert.
Oder es gibt da einige Parameter, die die Vergleichbarkeit stark beeinträchtigen...
dildo4u
2017-06-26, 21:14:26
Cool, meine RX 480 kommt auch schon auf 100 Punkte - damit ist klar, dildo's GTX 1070 wird von Polaris ordentlich deklassiert.
Oder es gibt da einige Parameter, die die Vergleichbarkeit stark beeinträchtigen...
Meinst du 100FPS?Vermutlich ein CPU Limit warum testen die 1200€ Karten mit Krüppel CPU's?
slimSpencer
2017-06-26, 21:15:13
@Format_C:
Weißt Du, ob Fiji auch schon genau so empfindlich war? Habe jetzt keine Berichte über massenhaft geschrottete Karten durch Wakü-Umbau in Erinnerung...
Eigentlich habe ich genau das vor - Vega @Wasser - aber keine Lust, ein derart hohes Risiko einzugehen. Mein Wurstfinger-Faktor ist manchmal nicht zu unterschätzen :freak:
aufkrawall
2017-06-26, 21:15:21
Bis zu 375 Watt TBP, nicht TDP. Für die nicht übertakteten Customs. Laut PCB-Entwickler.
Positive Interpretation: Die TDP im Bios ist niedriger eingestellt.
Negative " : Es gibt quasi überhaupt kein Powertune-Limit und der Verbrauch kann noch höher gehen.
gas3t
2017-06-26, 21:15:42
Lol?
Wieso wird beim Cinebench R15 eigentlich Windows 8 als OS angezeigt? Im Video von PCWorld läuft doch Windows 10?!
dildo4u
2017-06-26, 21:17:02
Wieso wird beim Cinebench R15 eigentlich Windows 8 als OS angezeigt? Im Video von PCWorld läuft doch Windows 10?!
CB15 ist von 2013.
Loeschzwerg
2017-06-26, 21:18:31
Noch fragiler als Fiji oder identisch? Ich meine, die gleichen (durchaus sinnvollen) Warnungen hatten wir auch bei sämtlichen Fiji Karten.
Das sind bislang leider alles nur Photoshop Spielereien, welche auf der FE basieren. Das Design der RX Vega ist leider noch vollkommen unbekannt - oder zumindest halt nicht veröffentlicht. Ich persönlich hoffe ja schon auf eine schwarz/rote Version, analog zum bisherigen Farbmuster der Radeon Reihe, einige der Montagen sehen schon sehr gut aus.
Man erinnere sich an den geleakten Teaser Trailer zur RX Vega, da hatten wir Silber und einen "roten Würfel" (für die Wakü Variante):
http://www.legitreviews.com/wp-content/uploads/2017/03/amd-vega.jpg
Gimmick
2017-06-26, 21:18:42
Meinst du 100FPS?Vermutlich ein CPU Limit warum testen die 1200€ Karten mit Krüppel CPU's?
Wurde mit einem 1800X getestet. Kann auch am Treiber liegen.
Screemer
2017-06-26, 21:18:54
Meinst du 100FPS?Vermutlich ein CPU Limit warum testen die 1200€ Karten mit Krüppel CPU's?
I loled. 1800x.
(del)
2017-06-26, 21:20:30
@Format_C:
Weißt Du, ob Fiji auch schon genau so empfindlich war? Habe jetzt keine Berichte über massenhaft geschrottete Karten durch Wakü-Umbau in Erinnerung...
Eigentlich habe ich genau das vor - Vega @Wasser - aber keine Lust, ein derart hohes Risiko einzugehen. Mein Wurstfinger-Faktor ist manchmal nicht zu unterschätzen :freak:
Auf Maschinen, wo Fiji noch problemlos lief, knackt Vega weg. Es ist eine Frage des Transporters und möglicher Berührungen / physischer Kontakte. Und warum kein X-Ray mehr? Der Die soll extrem dünn und empfindlich sein. Laut Ingenieur nehmen die aktuell auf den ES ein Wolltuch und etwas Isopropanol, um den alten Schmodder abzuwischen. Die Reste zwischen GPU und RAM bleiben immer drauf. Wenn das Package einmal fest aufgelötet ist, wird man es mit etwas Geschick also beherrschen können. Nur die Extrem-Cleaner werden wohl in die Röhre gucken. :D
dildo4u
2017-06-26, 21:21:39
I loled. 1800x.
Der Test ist uralt wenn er nicht über alle Core's skaliert ist man massiv CPU Limitiert.
-=Popeye=-
2017-06-26, 21:25:05
Wieso wird beim Cinebench R15 eigentlich Windows 8 als OS angezeigt? Im Video von PCWorld läuft doch Windows 10?!
:rolleyes:
https://abload.de/thumb/blablahwuyj.png (http://abload.de/image.php?img=blablahwuyj.png)
(del)
2017-06-26, 21:25:55
Je nach installierter OpenGL-Version schwanken die Cinebench-Resultate sowieso extrem. Und auch der OpenGL-Run ist extrem CPU-limitiert (Takt UND Kerne).
deekey777
2017-06-26, 21:27:44
CB15 ist von 2013.
CINEBENCH 15.0.3.8 ist vom Februar. Und wurde an die aktuellsten Prozessoren angepasst.
gas3t
2017-06-26, 21:29:42
Der Test ist uralt wenn er nicht über alle Core skaliert ist man massiv CPU Limitiert.
Mit einer RX470 und i5-3450 (3,1 GHz) kommt man auf 73FPS -> reiner SingleCore CPU und OpenGL Treiber Test
gas3t
2017-06-26, 21:30:45
CINEBENCH 15.0.3.8 ist vom Februar. Und wurde an die aktuellsten Prozessoren angepasst.
Gerade die neuste Version getestet. Sie zeigt immernoch Windows 8 trotz Verwendung von 10 an...
(del)
2017-06-26, 21:31:50
http://i.imgur.com/NW4YFXr.jpg
gas3t
2017-06-26, 21:41:16
http://i.imgur.com/NW4YFXr.jpg
Radeon Pro WX 7100 mit 199 FPS über 60% vor VEGA FE. Was stimmt da nicht?!
dildo4u
2017-06-26, 21:43:45
Es läuft nur auf einem Core dort ist ein 7740k natürlich Lichtjahre vor einem 1800X.
scully1234
2017-06-26, 21:45:42
warum testen die 1200€ Karten mit Krüppel CPU's?
Warum testen die die GPU nun schon wieder mit den selben Anwendungen wie neulich bei dem Marketingstunt müsste es heißen
Es weiß doch nun mittlerweile jeder ,wo bei der TitanX und der P6000 die Handbremse sitzt, und das dies nichts mit dem Chip selbst zu tun hat
vorgreifende Spieletest Fehlanzeige...
Was man bei der P6000 vernebelt durch TitanX Treiber, wird auf der anderen Ebene wieder weggelassen
Ja solange Nvidia die Treiber nicht öffnet für jeden GP102, bleibt die Frontier bei den Anwendungsfällen vor der Titan X , das ist aber keine neue Erkenntnis
Achill
2017-06-26, 21:49:05
Radeon Pro WX 7100 mit 199 FPS über 60% vor VEGA FE. Was stimmt da nicht?!
Ich sehe da keine Karte die ~124fps hat ... 124 fps * 1,6 (+60%) = ~199fps
dildo4u
2017-06-26, 21:50:49
Sie testen im selben Preis Bereich was ok ist,aber dieser CPU Limitierter Test ist irreführend ohne Ende.
(del)
2017-06-26, 21:50:52
Radeon Pro WX 7100 mit 199 FPS über 60% vor VEGA FE. Was stimmt da nicht?!Ja, die Treiber. Die WX läuft mit echten Radeon Pro Treibern ;)
Wenn ich den AMD-Treiber samt OpenGL komplett entferne und nur den Quadro-Treiber nehme, dann hat sogar die hier gerade geschmähte 1070 die Karten aus dem verlinkten Test aber sowas von weg...
Natürlich läuft die 1070 nur als GeForce, aber die OpenGL-Version passt besser und für solche Benches lässt NV sogar mal die volle Leistung zu. :D
http://i.imgur.com/5pHYGR0.jpg
Was wiederum beweist, dass solche Benchmarks volkommen wertlos sind, wenn die Karten mit den falschen Treibern gebencht werden. Mit der P6000 und den Quadro-Treibern bin ich weit jenseits der 200er-Marke ;)
Es läuft nur auf einem Core dort ist ein 7740k natürlich Lichtjahre vor einem 1800X.
Den Test auf einem Core laufen zu lassen ist sowas von blödsinnig...
Laut Screenshot sind es aber 8 cores beim ryzen 7
Digidi
2017-06-26, 21:54:23
@Format_C
Werden wir morgen näheres zur Architektur erfahren? Mich würde mal interessieren wie viele Rasterizer wirklich verbaut sind und wie man auf die 11 Polygonen kommt. Vielleicht erbarmt sich ja ein Tester und lässt mal die Beyond3d Suite und den Polygonedurchsatz durchlaufen
scully1234
2017-06-26, 21:55:16
Sie testen im selben Preis Bereich was ok ist,aber dieser CPU Limitierter Test ist irreführend ohne Ende.
Im selben Preisbereich liefert die Titan X aber auch Spieleperformance, wo bleibt da bei der Frontier die Gegenüberstellung?
Diese CAD Demonstrationen haben sie ja nun schon bis zum Erbrechen gebracht
Screemer
2017-06-26, 21:56:41
Vielleicht schaust du mal das vid oder liest vielleicht den Text.
gas3t
2017-06-26, 21:57:19
Ich sehe da keine Karte die ~124fps hat ... 124 fps * 1,6 (+60%) = ~199fps
Ich bin vom PCWorld Bench ausgegangen. Dort hat die VEGA FE 120 FPS. Aber wie es Format_C schon schreibt. Der Cinebench ist wertlos.
Taigatrommel
2017-06-26, 21:58:21
Ich denke man sollte mal die kommenden Tage abwarten. Mich selbst würde es nicht wundern, wenn sich einzelne Enthusiasten eine FE (vor)bestellt haben um diese entsprechend zu testen. Individuen kann AMD ja keinerlei Testbedingungen aufdrücken, die können die Karte nutzen, wie sie gerne möchten. Das ganze wird sicher recht zügig in einschlägigen Foren veröffentlich werden.
scully1234
2017-06-26, 21:59:05
@Screemer
Der ist nicht mehr erbauend wie die letzten Marketingpräsentationen , bzw fast 1:1 geclont
Welche neue Erkenntnis soll daraus jetzt also gewonnen werden?
(del)
2017-06-26, 21:59:46
1 Kern, GTX 1070 und - tada- nun ja. Was beweist, dass Cinebench ohne richtige Treiber... Aber das hatten wir ja gerade :D
http://i.imgur.com/cU7Hoks.jpg
Oops. HT nicht ausgeschaltet :D
Was wiederum beweist, dass solche Benchmarks volkommen wertlos sind, wenn die Karten mit den falschen Treibern gebencht werden. Mit der P6000 und den Quadro-Treibern bin ich weit jenseits der 200er-Marke ;)
Den Test auf einem Core laufen zu lassen ist sowas von blödsinnig...
Das hat mit den Treibern nichts zu tun, der Test ist komplett CPU limitiert. Es lässt ihn auch keiner mit nur einem Kern laufen, dieser Benchmark macht das von alleine. Mein i7-7700k wird gerade mal mit 15% ausgelastet, meine GTX 1080 wiederum langweilt sich. Das ist praktisch ein Singlethread Test der CPU, deswegen sind die FPS mit dem Ryzen auch so niedrig.
i7-7700k
GTX 1080
167 FPS.....mit stinknormalen Windows Treibern. Selbst meine integrierte Intel HD 630 kommt da schon auf 70 FPS.
(del)
2017-06-26, 22:03:01
167 FPS.....mit stinknormalen Windows Treibern. Selbst meine integrierte Intel HD 630 kommt da schon auf 70 FPS.Aber meine 1070 macht Dich trotzdem platt ;)
Nachtest:
144, 04 FPS mit einem Thread.
Ryzen 7 1800X und die P6000 (GP102 full): 138,8
Klar ist das pervers GPU-limitiert. Aber die 102 FPS mit der Titan XP sind unmöglich.
Screemer
2017-06-26, 22:06:30
Schön hier wieder zig offtopic nvidia schwanzvergleiche zu sehen. Wir haben es beim ersten mal kapiert. Der bench ist singlethread lästig und man kann mit OpenGL Treibern die Ergebnisse massiv beeinflussen.
(del)
2017-06-26, 22:08:54
Schon, aber es war zu beweisen, dass es auch mit Ryzen 7 nicht stimmen kann, was da gebencht wurde. ich bin leider zum Schweigen verdonnert...
scully1234
2017-06-26, 22:09:35
Dann muss man sich also nicht mehr fragen was PCWorld damit bezwecken möchte?
gravitationsfeld
2017-06-26, 22:09:54
Ich frage mich nur, wie so ein Teil dann den Zoll überstehen soll, wenn X-Ray prohibited ist? Oder hat jemand Angst vor Die-Shots? Bei Fiji war die Liste nicht so umfangreich. :D
Die X-Rays beim Zoll sind eine ganz andere Ordnung an Dosis.
Ich frag mich aber wirklich, ob das einen technischen Grund hat. Roentgenstrahlung ist in aller Regel nicht ionisierend, das sollte keinen Effekt auf die Struktur haben. Weiss jemand mehr?
dildo4u
2017-06-26, 22:10:59
Dann muss man sich also nicht mehr fragen was PCWorld damit bezwecken möchte?
Sie hätten sonst kein Zugang zur Karte bekommen,der "Test" ist nur dazu da um Clicks zu sammeln.
(del)
2017-06-26, 22:11:17
Dann muss man sich also nicht mehr fragen was PCWorld damit bezwecken möchte?www.nebelkerzen.de/schaetze.php?result=random ;)
(del)
2017-06-26, 22:14:44
Ich frag mich aber wirklich, ob das einen technischen Grund hat. Roentgenstrahlung ist in aller Regel nicht ionisierend, das sollte keinen Effekt auf die Struktur haben. Weiss jemand mehr?Das war der Grund, das hier mal zu posten. Ich weiß es nämlich auch nicht. Und meine Kontakte sagen nichts. Vielleicht kann man sie ja per X-Ray zu Volta "umflashen"/mutieren? :D
scully1234
2017-06-26, 22:16:31
Egal was ,es mutet schon sehr seltsam an, das hier exakt die selben Tests gefahren werden wie vor kurzem, und darüber hinaus kein Sterbenswort zu anderen Anwendungsfällen fällt.
Ryzen 7 1800X und die P6000 (GP102 full): 138,8.
Screenshot? Quelle?
(del)
2017-06-26, 22:18:53
Egal was ,es mutet schon sehr seltsam an, das hier exakt die selben Tests gefahren werden wie vor kurzem, und darüber hinaus kein Sterbenswort zu anderen Anwendungsfällen fällt.Da ich auch im September noch leben will, schreibe ich aus Gründen zu diesem Thema nichts. Aber Du könntest Recht behalten :D
(del)
2017-06-26, 22:21:07
Screenshot? Quelle?Lies einfach mein Launch-Review (http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-9.html). Da waren es 132,12 FPS mit DDR4 2666 für GP102. Die neueren Zahlen stammen aus Nachtests mit neuem BIOS und DDR4 3200. Die Screens aus dem FE Test können nicht stimmen. Oder aber die Frontiers ist auf dem Niveau einer 1080, was ja nicht sein darf. :)
Dino-Fossil
2017-06-26, 22:25:05
Oder aber die Frontiers ist auf dem Niveau einer 1080, was ja nicht sein darf. :)
Und die Titan Xp auf dem Niveau einer 1070?
Naja, warten wir besser noch ein wenig auf unabhängige Tests...
(del)
2017-06-26, 22:25:43
Ja eben. Der Test ist irgendwie nicht plausibel. Ich vermute mal eher, da hat der Praktikant erst die FE gebencht und bei der Titan XP kein sauberes Image verwendet, sondern nur den Treiber drübergebügelt. NV und OpenGL spackt, wenn Radeon-Zeug installiert ist.
Ich habe einen 16-Stunden-Tag hinter mir, da werfe ich mir jetzt ein Bier ein und gehe. Bis morgen :D
BlacKi
2017-06-26, 23:03:03
Interessant auch:
Zitat:
"Our original estimates after seeing Radeon Vega Frontier Edition with Sniper Elite 4 at Computex still hold: The cards appears to be faster than Nvidia's GTX 1080 and close to that of a GTX 1080 Ti card."
Wohlgemerkt, schon bei der Luftkühler-Version, nicht bei der mit Wasserkühlung. Das würde sich, wenn es sich halbwegs auf RX Vega übertragen läßt (wovon ich ausgehe, da AMD ja offensichtlich auch Gaming-Einsatz bei ihren Pro-Karten mit einrechnet), decken mit den Einschätzungen von ~1080 non-Ti OC für eine Referenzkarte, und 1080 Ti (bis evtl. sogar OC?) für Customs - aber letztere Regionen wohl nur unter massiv ansteigendem Verbrauch und ggf. Wasserkühlung.
Das wäre gar nicht mal schlecht.
da sniper elite amd karten bevorzugt, liegt der spätere 3dcenter wert wohl etwas niedriger als man von der einschätzung der tester ableiten darf, welche dann eher auf augenhöhe einer stock 1080 liegen.
ich bezweifle einfach das da noch 20-25% mit OC drin sind. vl wenn man ein paar monate noch optimierte treiber mit reinschmeißt.
aber dann stehts immer noch wakü vega vs stock 1080ti :redface:
dann muss halt der preis stimmen.
Linmoum
2017-06-26, 23:14:19
da sniper elite amd karten bevorzugt,
Nicht wirklich.
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/
dildo4u
2017-06-26, 23:18:16
Nicht wirklich.
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/
In hoher Auflösung ist Fury X schneller als die OC 1070,AMD wird natürlich keine Games zeigen wo sie kein Vorteil haben das macht keiner.
Gipsel
2017-06-26, 23:33:39
Mich würde mal interessieren wie viele Rasterizer wirklich verbaut sind und wie man auf die 11 Polygonen kommt.Es gibt 4 Rasterizer. Man kann also maximal 4 Dreiecke pro Takt dann auch wirklich zeichnen. Aber mit Tricks beim parallelen (verteilten?) Setup könnte man vor den Rasterizern mehr Dreiecke durchschleusen und gegebenenfalls verwerfen. NV macht ja was Ähnliches.
Mal eine Zahlenspielerei:
64 CUs, jede CU hat ihr eigenes Setup, was aber pro Dreieck 6 Takte benötigt. => Setup-Rate maximal 10,67 Dreiecke pro Takt (~11)
10,67/4 = 2,67, abgerundet 2,6 mal so viele wie Fiji pro Takt
Schaffe89
2017-06-26, 23:40:42
In hoher Auflösung ist Fury X schneller als die OC 1070,AMD wird natürlich keine Games zeigen wo sie kein Vorteil haben das macht keiner.
Vor allem weiß man ja nicht wie sich Vega verhält.
Fijii ist in den bisher gezeigten Spielen jeweils ein bisserle schneller als eine 1070 OC, demnach ist das mehr oder weniger schon der Bestcase.
MadManniMan
2017-06-26, 23:49:17
Ich frag mich aber wirklich, ob das einen technischen Grund hat. Roentgenstrahlung ist in aller Regel nicht ionisierend, das sollte keinen Effekt auf die Struktur haben. Weiss jemand mehr?
:|
Meinst Du wegen potentieller Abschirmung, oder wie?
Weil Röntgen entsprechend der Quelle eigentlich echt gut ionisieren tun kann.
horn 12
2017-06-27, 00:00:45
27.06.2017
So es kann losgehen!
Hoffe in ein Paar Stunden sind wir etwas schlauer.
BlacKi
2017-06-27, 00:56:05
Nicht wirklich.
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/
doch schon, und nicht zu knapp, nichtz soviel wie in doom aber schon ausschlaggebend.
https://www.computerbase.de/2017-02/sniper-elite-4-benchmark/#diagramm-sniper-elite-4-3840-2160
Aber meine 1070 macht Dich trotzdem platt ;)
Nachtest:
144, 04 FPS mit einem Thread.
Ryzen 7 1800X und die P6000 (GP102 full): 138,8
Klar ist das pervers GPU-limitiert. Aber die 102 FPS mit der Titan XP sind unmöglich.
Also sooo unmöglich erscheint mir das Ergebnis jetzt nicht. Zum Vergleich eine Custom Ti:
http://up.picr.de/29607676ei.jpg
gravitationsfeld
2017-06-27, 01:01:00
:|
Meinst Du wegen potentieller Abschirmung, oder wie?
Weil Röntgen entsprechend der Quelle eigentlich echt gut ionisieren tun kann.
Hab ich wohl was verwechselt, danke :)
Hübie
2017-06-27, 14:12:03
Was macht AMD eigentlich? Eine 900-Dollar-Karte schlägt eine brandneue 1200-Dollar-Karte. WTF?!
1300 $ 1200 $ 900 $ 900$
Test Result Titan Xp Result Vega FE Result Quadro P4000 Result Quadro M4000 Speedup over Titan Xp Speedup over Quadro P4000 Speedup over Quadro M4000
catia-04 103,6 137,68 155,63 91,31 32,8957529 -13,03747821 41,32879265
creo-01 57,02 88,55 120,93 82,69 55,29638723 -36,56691135 31,62159927
sw-03 62,07 112,13 170,02 119,64 80,65087804 -51,62757514 29,63180802
I'm not amused...
Screemer
2017-06-27, 14:17:21
Was macht AMD eigentlich? Eine 900-Dollar-Karte schlägt eine brandneue 1200-Dollar-Karte. WTF?!
1300 $ 1200 $ 900 $ 900$
Test Result Titan Xp Result Vega FE Result Quadro P4000 Result Quadro M4000 Speedup over Titan Xp Speedup over Quadro P4000 Speedup over Quadro M4000
catia-04 103,6 137,68 155,63 91,31 32,8957529 -13,03747821 41,32879265
creo-01 57,02 88,55 120,93 82,69 55,29638723 -36,56691135 31,62159927
sw-03 62,07 112,13 170,02 119,64 80,65087804 -51,62757514 29,63180802
I'm not amused...
:confused: genau das haben wir schon vor einer woche diskutiert.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11408044&highlight=p4000#post11408044
du hattest dich doch selbst daran beteiligt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11408142&postcount=6307
warum muss man die suppe jetzt noch mal aufkochen. die ist doch mittlerweile gammlig.
Blediator16
2017-06-27, 14:29:55
Die brandneue 1300$ Karte wird ja ebenfalls geschlagen :freak:
Hübie
2017-06-27, 14:31:33
Öhm. In dem von dir verlinkten Beitrag ging es um den HBCC... :confused:
Ich koche nix auf, aber nun haben wir hoch offizielle Zahlen von AMD bzw. PC-World (wobei der Typ ja nur doofe Fragen stellte und nix machen durfte).
Was soll man davon halten?
Linmoum
2017-06-27, 14:35:09
Die hochoffiziellen Zahlen gibt's seit Mitte Mai und dem FAD, warum kramt man das eigentlich jedesmal neu hervor? :D
Gipsel
2017-06-27, 14:37:13
Ich dachte, das Fazit war schon vor einiger Zeit, daß das mehr ein Test von Teiber und CPU ist als ein GPU-Test und zudem für 99% hier relativ irrelevant. Schafft nicht sogar die Polaris-basierende single-Slot(!) Radeon-Pro WX7100 mit den "richtigen" Pro-Treibern und schnellerer (single-thread) CPU da ~200fps? Irgendwie hatte Igor doch da sowas verlinkt.
Offensichtlich sind wir schon im Sommerloch, wenn es nichts Anderes gibt, an dem man sich hochziehen kann. :rolleyes:
Hübie
2017-06-27, 14:38:14
Ach so und dann waren die Ausreden einiger hier schon nicht valide?! Als sei der Treiber heute exakt gleich geblieben und als hätte man Mitte Mai schon das finale Produkt gehabt. :rolleyes: Man nehmt es doch zur Kenntnis und gut.
@Gipsel: Da ging es um Cinebench 15 mit OGL.
dildo4u
2017-06-27, 14:38:14
AMD wird noch Karten über der FE haben,(Fire Pro Serie)für die hebt man sich vermutlich die besseren Workstation Treiber auf.Die FE kann alles halbwegs ok so muss man sich nicht zwingend zwei Karten kaufen.
Digidi
2017-06-27, 14:39:46
Es gibt 4 Rasterizer. Man kann also maximal 4 Dreiecke pro Takt dann auch wirklich zeichnen. Aber mit Tricks beim parallelen (verteilten?) Setup könnte man vor den Rasterizern mehr Dreiecke durchschleusen und gegebenenfalls verwerfen. NV macht ja was Ähnliches.
Mal eine Zahlenspielerei:
64 CUs, jede CU hat ihr eigenes Setup, was aber pro Dreieck 6 Takte benötigt. => Setup-Rate maximal 10,67 Dreiecke pro Takt (~11)
10,67/4 = 2,67, abgerundet 2,6 mal so viele wie Fiji pro Takt
Hmm könnte aber auch sein das es zwar 4 Geometrie Engines sind, aber jede Engine 2 Rasterizer enthält. Würde ja auch sinn machen. Der Geometriprozessor (Tesselator) macht ja aus einem Dreieck mehre kleine Dreiecke und um die alle dann durchzubringen braucht man dann auch mehr Rasterizer. Nvidia braucht 6 Rasterizer um gerade mal 8 Polygonen als outputt zu bekommen. Wie soll AMD hier mit 4 Rasterizer auf 11 kommen?
Gipsel
2017-06-27, 14:40:25
@Gipsel: Da ging es um Cinebench 15 mit OGL.Okay. Aber SpecViewPerf ist genauso ein Treiber-Benchmark (edit: gerade mal nachgesehen, die WX7100 erreicht dort im erstbesten Test, den ich gefunden habe, praktisch identische Werte wie die FE => das kann wohl kaum eine Aussage über die Hardware sein). Das Argument gilt also auch da, daß das relativ wenig über die hier viel bedeutsamere Spieleperformance aussagt.
@Screemer,
genau das haben wir schon vor einer woche diskutiert.
Alzheimer? ;D
Hübie
2017-06-27, 14:55:10
Okay. Aber SpecViewPerf ist genauso ein Treiber-Benchmark (edit: gerade mal nachgesehen, die WX7100 erreicht dort im erstbesten Test, den ich gefunden habe, praktisch identische Werte wie die FE => das kann wohl kaum eine Aussage über die Hardware sein). Das Argument gilt also auch da, daß das relativ wenig über die hier viel bedeutsamere Spieleperformance aussagt.
Qed. Bei neuen Produkten ist der Treiber immer ein wichtiger Faktor, aber ab einer gewissen Marktreife tut sich (abgesehen von Bugs, was selbst bei Quadro vorkommt) nicht viel. In Hinsicht auf Vega mag deine Aussage also zutreffend sein, generell würde ich es nicht unterschreiben.
Laut THG (http://www.tomshardware.com/reviews/amd-radeon-pro-wx-7100,4896-3.html) (mit 10-Kerner & 64 GB) liegt man mit der VFE in catia 30% vor der WX7100, Creo 7% und Solidworks ausgeglichen. Ist für mich alles andere als konsistent und spornt wohl niemanden an, der ernsthaftes Interesse hat.
@Isen: Ja manchmal schon. :D :P
Gipsel
2017-06-27, 14:58:51
Hmm könnte aber auch sein das es zwar 4 Geometrie Engines sind, aber jede Engine 2 Rasterizer enthält.Halte ich für zweifelhaft, zumal 4 Rasterizer heutzutage für einen Chip in Vega-Größe noch völlig ausreichen sollten, wenn sie effizient funktionieren.
Und was unterscheidet eigentlich 4 Engines mit je 2 Rasterizern von 8 Engines?
Würde ja auch sinn machen. Der Geometriprozessor (Tesselator) macht ja aus einem Dreieck mehre kleine Dreiecke und um die alle dann durchzubringen braucht man dann auch mehr Rasterizer.Der Tessellator hat damit erstmal nicht so viel zu tun. Das ist auch nicht der "Geometrieprozessor". Tessellation (vor allem mit hohen Faktoren) bläht bloß die Menge an Daten auf, so daß das Routing und Verteilung derselben schwierig wird, wenn man Stalls vermeiden will. Und auch die Rasterizer haben in dieser Phase keinen Einfluß. Nach der Tessellation läuft ja erst noch der Domainshader über die Daten (erst der macht die eigentliche Expansion der Geometriedaten!).
Nvidia braucht 6 Rasterizer um gerade mal 8 Polygonen als outputt zu bekommen. Wie soll AMD hier mit 4 Rasterizer auf 11 kommen?Nicht so ganz. Auch nV kommt mit 6 Rasterizern nicht über 6 gerasterte Dreiecke pro Takt hinaus (Peak, praktisch sustained typischerweise etwas weniger, insbesondere mit Tess).
Und die Antwort habe ich doch schon gegeben: Mit einem verteilten Setup, wie das auch nV tut. Die Anzahl der Rasterizer gibt an, wie viel Dreiecke dann letztendlich gerastert werden können. Wieviele man vorher durch die Geometriepipeline schleusen kann (und vor den Rasterizern culled/verwirft), ist davon erst einmal unabhängig.
Die Geheimniskrämerei und dann noch falsche Werte ... die Sache stinkt, irgendwas stimmt nicht. Wollen wir mal hoffen, dass das ne Softwaresache ist, die da nicht stimmt...
Finde ich nicht. Einzig: Wer wird gefoppt - Kunde oder Konkurrent :D
mboeller
2017-06-27, 15:20:51
@Screemer,
Alzheimer? ;D
... wollte ich auch gerade schreiben... hab mich aber nicht getraut ihm Demenz vorzuwerfen.
pilzsammler2002
2017-06-27, 15:24:17
https://globenewswire.com/news-release/2017/06/27/1029535/0/en/AMD-Launches-the-World-s-Fastest-Graphics-Card-for-Machine-Learning-Development-and-Advanced-Visualization-Workloads-Radeon-Vega-Frontier-Edition-Available-Now.html
5 Testing conducted by AMD Performance Labs as of May 24th, 2017 on a test system comprising of Intel E5-1650 v3 @ 3.50 GHz, 16GB DDR4 physical memory, Windows 7 Professional 64-bit, Radeon™ Vega Frontier Edition/Radeon™ Pro Duo (Polaris)/ Radeon™ Pro WX 7100, AMD graphics driver 17.20 and LITEON 512GB SSD.
Benchmark Application: SteamVRPerformance Test/VRMark. Radeon™ Vega Frontier Edition SteamVRPerformance Test Score: 11. Radeon™ Pro Duo (Polaris) SteamVRPerformance Test Score: 9.1. Radeon™ Pro WX 7100 SteamVRPerformance Test Score: 6.4. Radeon™ Vega Frontier Edition VRMark–Orange Room Score: 8157. Radeon™ Pro Duo (Polaris) VRMark–Orange Room Score: 6596. Radeon™ Pro WX 7100 VRMark–Orange Room Score: 6588.
VRMark irgendwie vergleichbar mit anderen Anwendungen?
Das ist schon so ausgewählt, daß man nicht vergleichen kann.
pilzsammler2002
2017-06-27, 15:32:29
Das ist schon so ausgewählt, daß man nicht vergleichen kann.
http://www.3dmark.com/search?locale=de#/?mode=advanced&url=/proxycon/ajax/search/cpu/vrpor/DE/1991/8815?minScore=4541&cpuName=Intel%20Xeon%20Processor%20E5-1650%20v3
Hier der vergleich von dem Xeon :freak:
Troyan
2017-06-27, 15:33:21
Die Orange-Room-Werte sind lächerlich gering. Kaum schneller als Fury X, langsamer als eine GTX1070: https://www.overclock3d.net/reviews/gpu_displays/vrmark_gpu_performance_review/2
Kein Plan, wieso man solche Werte veröffentlichen würde... :confused:
Maximaler Brainfuck-Impact.
Anders kann man das ganze Jonglieren nicht bezeichnen :D
pilzsammler2002
2017-06-27, 15:37:20
Kein Plan, wieso man solche Werte veröffentlichen würde... :confused:
Jap, habe extra nen vergleichbaren Prozessor genommen. Aber auch da liegen se unter ner 1080 mit stock clocks :freak:
PrivateCeralion
2017-06-27, 15:44:19
https://www.youtube.com/watch?v=WcfgdXpKUxo
Hasenpfote
2017-06-27, 15:52:21
So, die erste Rabattrunde ist auch schon durch :D :
999$ für die luftgekühlte und 1499$ für die wassergekühlte Variante
Radeon Vega Frontier Edition graphics cards are available from etailers in select regions today with an SEP of $999 USD for the air-cooled edition. The water-cooled edition is expected to launch in Q3 with an SEP of $1499.
Troyan
2017-06-27, 15:57:10
Und endlich auch die Spezifikation: http://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
"Typical Engine Clock (MHz)": 1382Mhz.
"Typical Board Power": <300W und eine Netzteilempfehlung von 850W...
-/\-CruNcher-/\-
2017-06-27, 16:00:47
Würde zu gern wissen ob meine ~16 FPS hier realistisch sind :)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581686&page=2
https://www.youtube.com/watch?v=WcfgdXpKUxo
Naja Quanten Computer werden das wohl aber sicher keine GPU aber die GPU könnte dazu beitragen schneller zu einem Quanten Compute state zu kommen :)
Aber schönes Marketing kann man nix sagen das beindruckt schon like Hollywood ;)
robbitop
2017-06-27, 16:01:51
GPU Peak-Clock: 1600 MHz
Memory Clock: 945 MHz
16 GB RAM
Board-Power: < 300 W
http://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
Netzteilempfehlung ist mMn irrelevant. Die sind idR eh hahnebüchen. Häufig ist ein Sicherheitsfaktor drauf und man geht von Chinaböllernetzteilen aus. Board-TDP ist viel aussagekräftiger. Und die ist, sofern mit NV vergleichbar, etwas höher. ~50W mehr TDP als die FE 1080 ti.
Der Boost-Clock von 1600 MHz ist für AMD tatsächlich ein ordentlicher Sprung. Die 1080 ti hat laut Spec 1582 MHz. Boostet aber in der Realität eher auf 18xx MHz.
Bei AMD ist historisch weniger Spielraum nach oben. Kann also sein, dass es bei den 1600 MHz bleibt (Polaris taktete IIRC eher ohne Anpassung unter seinem maximalen Boost) und auch per OC nicht all zu viel mehr herauszuholen ist.
Digidi
2017-06-27, 16:04:47
Halte ich für zweifelhaft, zumal 4 Rasterizer heutzutage für einen Chip in Vega-Größe noch völlig ausreichen sollten, wenn sie effizient funktionieren.
Und was unterscheidet eigentlich 4 Engines mit je 2 Rasterizern von 8 Engines?
Der Tessellator hat damit erstmal nicht so viel zu tun. Das ist auch nicht der "Geometrieprozessor". Tessellation (vor allem mit hohen Faktoren) bläht bloß die Menge an Daten auf, so daß das Routing und Verteilung derselben schwierig wird, wenn man Stalls vermeiden will. Und auch die Rasterizer haben in dieser Phase keinen Einfluß. Nach der Tessellation läuft ja erst noch der Domainshader über die Daten (erst der macht die eigentliche Expansion der Geometriedaten!).
Nicht so ganz. Auch nV kommt mit 6 Rasterizern nicht über 6 gerasterte Dreiecke pro Takt hinaus (Peak, praktisch sustained typischerweise etwas weniger, insbesondere mit Tess).
Und die Antwort habe ich doch schon gegeben: Mit einem verteilten Setup, wie das auch nV tut. Die Anzahl der Rasterizer gibt an, wie viel Dreiecke dann letztendlich gerastert werden können. Wieviele man vorher durch die Geometriepipeline schleusen kann (und vor den Rasterizern culled/verwirft), ist davon erst einmal unabhängig.
Bei mehr Rasterizeren hat ein Rasterizer weniger Shader. Wodurch die Auslastung der Shader steigen dürfte. Das war mein Gedankengang. Wie du ja schon sagst wären rein Rechnerisch 4 Rasterizer schon mehr als genug. Also warum hat Nvidia dann 6? Wegen der Auslastung.
Und endlich auch die Spezifikation: http://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
"Typical Engine Clock (MHz)": 1382Mhz.
"Typical Board Power": <300W und eine Netzteilempfehlung von 850W...
Das ist nicht unüblich. Für Hawaii gabs ähnlich hohe Wattzahlen als Empfehlung.
Der Treiber kann man übrigens zwischen Pro und Gaming switchen. Das Treiber-Log offenbart, dass das Teil definitiv noch beta ist.
Die Vorab-Preissenkung bestätigt meinen Verdacht, wenn man sich die Preise der anderen Pro-Varianten anschaut. Ich gehe mittlerweile jede Wette ein, dass ein schweres Problem vorliegt.
BoMbY
2017-06-27, 16:11:35
Jo, sieht so aus als hätte wirklich bisher niemand eine Vega FE in die Finger bekommen. In Deutschland noch nicht mal irgendwo gelistet zum (Vor-)Bestellen.
AffenJack
2017-06-27, 16:15:36
http://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
Netzteilempfehlung ist mMn irrelevant. Die sind idR eh hahnebüchen. Häufig ist ein Sicherheitsfaktor drauf und man geht von Chinaböllernetzteilen aus. Board-TDP ist viel aussagekräftiger. Und die ist, sofern mit NV vergleichbar, etwas höher. ~50W mehr TDP als die FE 1080 ti.
Der Boost-Clock von 1600 MHz ist für AMD tatsächlich ein ordentlicher Sprung. Die 1080 ti hat laut Spec 1582 MHz. Boostet aber in der Realität eher auf 18xx MHz.
Bei AMD ist historisch weniger Spielraum nach oben. Kann also sein, dass es bei den 1600 MHz bleibt (Polaris taktete IIRC eher ohne Anpassung unter seinem maximalen Boost) und auch per OC nicht all zu viel mehr herauszuholen ist.
Der Boostclock mag ja gut aussehen, aber der Typical Engine Clock ist ganz schön niedrig. Ich höre diese Bezeichnung auch das erste mal. Ist die Frage ob das nun der Grundtakt ist oder eher eine typische Clockspeed, wie der Name es suggeriert. Dann wäre es ganz schön niedrig und würde auch die Benches stärker erklären.
nairune
2017-06-27, 16:18:00
... und würde jede Menge Spielraum für gut gekühlte RX Vegas lassen
dildo4u
2017-06-27, 16:22:46
Deshalb kostet die Wakü Version 500$ mehr sie ist massiv schneller.
victore99
2017-06-27, 16:27:37
ob jetzt - von den Typischen Taktraten ausgehend - 15% mehr Takt bei gleicher Transferrate für "deutlich schneller" ausreichen, naja..
dildo4u
2017-06-27, 16:30:07
Möglich das der Boost jetzt wie bei Nvidia funktioniert und nicht direkt bei 1.6Ghz limitiert ist.
Troyan
2017-06-27, 16:32:45
Dort steht "Peak".
Und 15% mehr Takt benötigt meistens auch (deutlich) mehr Spannung. Die wassergekühlte Version wird also die "Peak"-Werte dauerhaft halten und bis zu 75W mehr Strom aufnehmen.
Sie ist halt 200MHz schneller - massiv ist das jetzt nicht unbedingt, aber schon ordentlich. Die Lukü-Variante soll so um die 1380 laufen im Durchschnitt. Kann natürlich sein, dass auch diese Angabe zu hoch gefasst ist, aber so um den Dreh wird das schon laufen.
BoMbY
2017-06-27, 16:35:19
"Peak" ist eigentlich recht eindeutig. Die Begrenzung erfolgt entweder über TDP- oder Temperaturlimit, je nachdem was zuerst zieht, wie bei AMD bisher üblich (siehe z.B. Fury X vs. Nano). Die Werte kann man sicher mit der richtigen Software anpassen, wobei ich fast wette Wattman und Afterburner funktionieren noch nicht mit Vega. Man könnte aber auf jeden Fall versuchen einen anderen Kühler auf eine der Karten zu tackern, wenn es überhaupt irgendwo welche gibt.
victore99
2017-06-27, 16:36:15
hoffentlich nicht, dieses verdammte herumgebooste und dann wieder heruntergetakte, wenn man in die Nähe (man muss ja nicht mal da rein rennen, so aufm Weg dahin sein reicht ja) von den Limits kommt (als wüsste die Graka besser, was gut ist, als ich es weiß) ging mir wahnsinnig auf den Keks. alle Übertaktungen liefen Stabil, bis es im Winter etwas kälter war und die Graka sich dachte, sie müsse nochmal 20 MHz Takt drauflegen und um 20mV runter mit der Spannung.. Hoffentlich nicht bei Vega.
mighty_qwerty
2017-06-27, 16:48:59
https://np.reddit.com/r/Amd/comments/6js2nm/amd_vega_fe_benchmark_thread_placeholder/djgoyfc/
also paper launch (nur damit die roadmap stimmt und amd nicht verklagt werden kann durch die aktionäre etc? ...)
Linmoum
2017-06-27, 16:50:50
War doch eigentlich klar, dass es keine Testsamples von AMD geben wird? Verstehe die Verwunderung darüber irgendwie nicht, nVidia hat bei der Titan Xp auch keine bereitgestellt.
aufkrawall
2017-06-27, 16:56:45
hoffentlich nicht, dieses verdammte herumgebooste und dann wieder heruntergetakte, wenn man in die Nähe (man muss ja nicht mal da rein rennen, so aufm Weg dahin sein reicht ja) von den Limits kommt (als wüsste die Graka besser, was gut ist, als ich es weiß) ging mir wahnsinnig auf den Keks. alle Übertaktungen liefen Stabil, bis es im Winter etwas kälter war und die Graka sich dachte, sie müsse nochmal 20 MHz Takt drauflegen und um 20mV runter mit der Spannung.. Hoffentlich nicht bei Vega.
Hat deine Wohnung keine Glasscheiben in den Fenstern? Die Witterung macht beim NV-Boost garantiert nicht so viel aus, dass auf einmal nicht mehr an OC zu denken wäre.
Dural
2017-06-27, 16:58:27
"Typical" mit der LuKü Version also rund 1400MHz, das ergibt 11,5TFlops bei rund 300Watt TDP.
Die WaKü Version wird wohl nahe an den 1600MHz sein, bei 375Watt TDP.
Unicous
2017-06-27, 17:16:43
Geht's eigentlich noch?
Bloß weil die Preise vorab bei Händlern höher lagen wird jetzt hier von einer Reduzierung des Preises geschwafelt?
Was einige hier an bullshit produzieren und als Fakt darstellen ist einfach nicht zu glauben.:facepalm:
dildo4u
2017-06-27, 17:19:50
PC World hatte 1200$ im Artikel und AMD war dort vor Ort.
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.html
Vieleicht hat man nicht die gewollte Performance erreicht,die 580 war ja schon Hot ohne Ende.
-/\-CruNcher-/\-
2017-06-27, 17:22:53
PC World hatte 1200$ im Artikel und AMD war dort vor Ort.
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.html
Man kann den gennanten Preis von 1200 auch als Marketing sehen die Jungs innerhalb AMDs Marketing Abteilung sind definitv cleverer geworden oder es war ein Kommunikationsfehler, alles möglich wie kommt und wer kommt darauf das er an Problemen liegen soll dann doch eher an Benchmark unterschieden vs der Konkurenz ;)
Und dann kann sich jeder Freuen wenn die daraufhin den Preis senken also ich finds witzig noch billiger dank benchmarkwahn bitte immer so ;)
nairune
2017-06-27, 17:29:45
Sie ist ja definitiv kaufbar, sogar in (noch) EU Land:
https://www.scan.co.uk/products/16gb-amd-radeon-vega-frontier-edition-air-cooled-hbc-4096-streams-262-fp16-tflops-131-fp32-tflops-3x
Also wird es die nächsten Tage Infos geben, macht euch nicht verrückt...
Unicous
2017-06-27, 17:33:35
PC World hatte 1200$ im Artikel und AMD war dort vor Ort.
http://www.pcworld.com/article/3202659/components-graphics/hands-on-amds-radeon-vega-frontier-edition-vs-nvidia-titan-xp.html
Vieleicht hat man nicht die gewollte Performance erreicht,die 580 war ja schon Hot ohne Ende.
Und wer sagt, dass die Zahlen von AMD stammen und nicht stupide von Newegg und Co. übernommen wurden die oh Wunder oh Wunder, eben diese Preise aufgerufen haben (und AMD sich gar nicht dazu geäußert hat)?:rolleyes:
AMD hat also innerhalb weniger Tage, bzw. eher Stunden den Preis um 15% gesenkt weil ihnen plötzlich aufgefallen ist, dass die Preise zu hoch sind.
Es ist natürlich völlig unplausibel, dass die Preise schon feststanden und die Händler Vorbesteller-Mondpreise aufgerufen haben.
:rolleyes::rolleyes::rolleyes::rolleyes:
-/\-CruNcher-/\-
2017-06-27, 17:36:35
Jo sehr unplausibel das passiert wie gesagt erst wenn überhaupt nach den Reviews aber nicht davor und so viel Review feedback haben sie ja sicherlich noch nicht um so eine Entscheidung zu treffen ;)
deekey777
2017-06-27, 18:05:20
Wirst du noch früh genug erleben ;)
Und wann genau?
Digidi
2017-06-27, 19:26:47
Wo sind denn die ersten Tests -.-
(del)
2017-06-27, 19:30:16
Wo sind denn die ersten Tests -.-AMD sampelt nicht und kaufen kann man sie erst ab dem 01.07.2017. Wir kaufen eine, weil AMD (derzeit) nichts an die Presse gibt. Nur Tests unter AMD-Aufsicht und mit deren Freigabe. Keinen Meter, sowas machen wir nicht. Ich habe gerade ein Déjà-vu mit Intels neuen CPUs.
The PC World thing - that was AT AMD tho, not in their own (PC World) labs. It was a supervised affair.So gesehen würde auf dieses Preview nichts geben. Kaufen, fair testen und Meinung bilden. Ohne Atem im Nacken ;)
Digidi
2017-06-27, 19:31:23
Gibt's denn zumindestens mehr Info über den Aufbau?
fondness
2017-06-27, 19:32:10
kaufen kann man sie erst ab dem 01.07.2017.
Die Karte ist bei Shops schon lagernd und lieferbar.
Jo. Kauf die doch innerhalb EU. In England hat die ja auch nen Shop auf Lager, 1060€ oder sowas. Edit: Hm, hat nun auf PreOrder gestellt. Sollte aber schneller gehen als aus den Staaten
https://www.scan.co.uk/products/16gb-amd-radeon-vega-frontier-edition-air-cooled-hbc-4096-streams-262-fp16-tflops-131-fp32-tflops-3x
deekey777
2017-06-27, 19:35:03
AMD sampelt nicht und kaufen kann man sie erst ab dem 01.07.2017. Wir kaufen eine, weil AMD (derzeit) nichts an die Presse gibt. Nur Tests unter AMD-Aufsicht und mit deren Freigabe. Keinen Meter, sowas machen wir nicht.
Ernste Frage:
Wie refinanziert sich das? Reicht ein faktisch exklusiver Artikel die Kosten einzuholen?
Das, was AMD veranstaltet, klingt nach schlechter Verfügbarkeit bzw., dass sie die Ziele nicht einhalten können.
(del)
2017-06-27, 19:36:03
Die Karte ist bei Shops schon lagernd und lieferbar.
Dann bestelle doch mal und schau aufs Lieferdatum. Ich bekomme sie erst nach dem 01.07.2017 ;)
Ist alles Pre-Order, egal wo oder wer. Wir haben angerufen. Sonst gabe es auch schon Reviews :)
https://www.newegg.com/Product/Product.aspx?Item=N82E16814105073
Ernste Frage:
Wie refinanziert sich das? Reicht ein faktisch exklusiver Artikel die Kosten einzuholen?
Das, was AMD veranstaltet, klingt nach schlechter Verfügbarkeit bzw., dass sie die Ziele nicht einhalten können.
Bei 8 Mio Uniques oder mehr weltweit in der ersten Woche lohnt sich das sehr wohl. Was glaubst Du, wie viel auf X299 reinkam? Das amortisiert sich recht fix. :)
TH ist Purch, wie Anandtech auch. Das ist eine Shareholder-Bude und wenn Profit winkt, wird auch kräftig das Budget aufgestockt. Die schwimmen in Kohle, ist ja nicht DE
Schaffe89
2017-06-27, 19:38:15
Und endlich auch die Spezifikation: http://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
"Typical Engine Clock (MHz)": 1382Mhz.
"Typical Board Power": <300W und eine Netzteilempfehlung von 850W...
Soviel also zu den Stänkereien gegenüber meiner Person und der "verbotenen Performanceschätzungen".
Na da habt ihrs Vega wird ein Flop der seinesgleichen sucht.
Mit dem Takt wird das Ding kaum groß schneller sein als eine olle Fury X und von einer besseren Effizienz braucht man auch nicht mehr groß reden.;D
Die Lufgekühlte Variante wird wohl knapp unterhalb einer GTX 1080 liegen bei 300 Watt und die 375 Watt Variante knapp drüber bei mehr als doppeltem Strombedarf.
Da kann AMD dann die Karte gleich einstampfen, nvidia braucht Volta gar nicht mehr für den Consumerbereich bringen.
Wer soll denn das noch kaufen? Ernsthaft.
(del)
2017-06-27, 19:48:43
Zum Link auf die Radeon-Seite:
Der Benchmark-Balken aus Maya stimmt mich traurig. Die vergleichen dort wirklich die Frontier unter OpenGL samt Radeon-Pro-Treibern mit eine Titan XP und den beschnittenen Geforce-Treibern? Warum nicht mit einer P6000 und Quadro-Treibern? Ist ja auch GP102. Nichts für ungut, aber da wiederstrebt mir innerlich alles, diesen Balken zu glauben. Bei allem besten Willen.
Menace
2017-06-27, 19:49:23
Soviel also zu den Stänkereien gegenüber meiner Person.
Na da habt ihrs Vega wird ein Flop der seinesgleichen sucht.
Mit dem Takt wird das Ding kaum groß schneller sein als eine olle Fury X und von einer besseren Effizienz braucht man auch nicht mehr groß reden.;D
Ach Schaffe. Diese Voraussage hätte ich auch treffen können. Dass Radeon-Abteilung gerne in die Kotzgrenze prügelt ist nicht neu. Bei mir wäre dann das aber wie bei Dir: "Auch ein blindes Huhn....". Nur Du triffst so viele Voraussagen, die nicht zutreffen, da relativiert sich auch mal ein Treffer. :biggrin:
Edit: Und ich habe hier noch immer Deine Quotes.
(del)
2017-06-27, 19:50:23
Immerhin, Schaffe lebt noch. :)
-/\-CruNcher-/\-
2017-06-27, 19:50:47
Dann bestelle doch mal und schau aufs Lieferdatum. Ich bekomme sie erst nach dem 01.07.2017 ;)
https://www.newegg.com/Product/Product.aspx?Item=N82E16814105073
Bei 8 Mio Uniques oder mehr weltweit in der ersten Woche lohnt sich das sehr wohl. Was glaubst Du, wie viel auf X299 reinkam? Das amortisiert sich recht fix. :)
TH ist Purch, wie Anandtech auch. Das ist eine Shareholder-Bude und wenn Profit winkt, wird auch kräftig das Budget aufgestockt. Die schwimmen in Kohle, ist ja nicht DE
Dann seh mal zu das du endlich ein FCAT System aus Antoine Boulin rausquetscht.
Erzähl ihm das wird die target range erweitern und neue Zielgruppen eröffnen, noch mehr clicks noch mehr advertising revenue noch mehr 3rd party sales ,bla,bla,bla dir fällt schon was ein ;)
Zum Link auf die Radeon-Seite:
Der Benchmark-Balken aus Maya stimmt mich traurig. Die vergleichen dort wirklich die Frontier unter OpenGL samt Radeon-Pro-Treibern mit eine Titan XP und den beschnittenen Geforce-Treibern? Warum nicht mit einer P6000 und Quadro-Treibern? Ist ja auch GP102. Nichts für ungut, aber da wiederstrebt mir innerlich alles, diesen Balken zu glauben. Bei allem besten Willen.
Ehh Preis ?
Das Nvidia sich den Preis bei Quadro durch die Arbeit ihrer Pro Software stack Engineers bezahlen lässt sollte dir ja klar sein ;)
Die sind ja auch zu 80% für die OpenGL Low level Performance verantwortlich und die neusten Entwicklungen finden sich dann bei Quadro ;)
Nichts anderes bezahlt der Pro Kunde als das Low Level Optimierungs know how dieser Coder und dessen R&D ;)
Schaffe89
2017-06-27, 19:53:13
Verwundert mich nicht man hat ja den Preis der Karte quasi bevor die Karte des Licht der Welt erblickt hatte schon um 200 Dollar gesenkt.
Ich denke man sollte da nochmal 200 oder 300 Euro runtergehen, dann könnte die Karte in etwa da liegen wo sie noch halbwegs kaufbar ist.
Ich kann mir das bei Maya abe trotzdem irgendwie nicht vorstellen, mit professionellen/zertifizierten? Treibern müsste die Vega da trotzdem weiter vor einer Titan X sein.
fondness
2017-06-27, 19:53:41
Zum Link auf die Radeon-Seite:
Der Benchmark-Balken aus Maya stimmt mich traurig. Die vergleichen dort wirklich die Frontier unter OpenGL samt Radeon-Pro-Treibern mit eine Titan XP und den beschnittenen Geforce-Treibern? Warum nicht mit einer P6000 und Quadro-Treibern? Ist ja auch GP102. Nichts für ungut, aber da wiederstrebt mir innerlich alles, diesen Balken zu glauben. Bei allem besten Willen.
Weil das Ding gegen die Titan gerichtet ist. Wenn Nv dafür keine vernünftigen Treiber liefert, obwohl man stets den professionellen Anspruch betont, dann ist das nicht das Problem von AMD. Die P6000 kostet mehr als das dreifache und ist da sicherlich kein passender Gegner.
(del)
2017-06-27, 19:54:24
Dann seh mal zu das du endlich ein FCAT System aus Antoine Boulin rausquetscht.Antoine ist nicht der Finazminister. Der sitzt in den Staaten. :)
Wir haben sogar FCAT 2, aber der Aufwand lohnt aktuell kaum. Jedes mal die Spedi-Kosten hin und her. Zwei Systeme hat NV nicht locker machen wollen.
Weil das Ding gegen die Titan gerichtet ist. Wenn Nv dafür keine vernünftigen Treiber liefert, obwohl man stets den professionellen Anspruch betont, dann ist das nicht das Problem von AMD.Wenn etwas als Radeon Pro firmiert, sollte es auch gegen eine Quadro getestet werden. Aber es wird mir ein Vergnügen sein, so einen Test mal mit Vega und Titan XP zu wiederholen. Beides Krüppel-Treiber unter OpenGL. Das wird lustig. ;)
Nvidia hat nie den professionellen Charakter der Titan XP betont, weil es eine Kannibalisierung der Quadro P6000 wäre. Da wären sie doch doof. Sie richtet sich an sogenannte Prosumer (Kack-Wort, das auch Intel so mag), also (semi-)professionelle Content-Produzenten z.B., aber eben nicht an die typische Workstation Clientel. Dass AMD aber auch dorthin abzielt, zeigen die ganzen Renderer-Implementierungen, die man jetzt bekommen kann.
Troyan
2017-06-27, 19:56:17
Weil das Ding gegen die Titan gerichtet ist. Wenn Nv dafür keine vernünftigen Treiber liefert, obwohl man stets den professionellen Anspruch betont, dann ist das nicht das Problem von AMD.
nVidia hat nie den Workstationmarkt mit der Titan-Serie bedient. Es ist nicht deren schuld, wenn AMD meint mit Lügen ihre Produkte verkaufen zu müssen.
Hier würde auch niemand nVidia ernst nehmen, die eine GTX1080TI gegen eine WX7100 in Spielen vergleicht und am Ende marketingtechnisch zum Schluss kommt, dass eine nVidia-Grafikkarte für Spiele ein doppelt so gutes P/L Verhältnis besitzt. :freak:
Hübie
2017-06-27, 20:01:20
Weil das Ding gegen die Titan gerichtet ist. Wenn Nv dafür keine vernünftigen Treiber liefert, obwohl man stets den professionellen Anspruch betont, dann ist das nicht das Problem von AMD. Die P6000 kostet mehr als das dreifache und ist da sicherlich kein passender Gegner.
Titan war noch nie für CAD konzipiert, sondern für alle möglich CUDA, Fortran-, Python- und sonst-was-Tasks - mit Wohlwollen für Video-Editing / -Rendering. Da ging mit Kepler einiges ganz gut, aber dann haben die schnell kapiert, dass die sich ins Knie schießen. Was mittlerweile alles noch geht und nicht, kann ich dir gar nicht sagen.
Sorry, Doppelpost
Hast du eine P4000 am Start?? :freak:
(del)
2017-06-27, 20:03:05
Titan war noch nie für CAD konzipiert, sondern für alle möglich CUDA, Fortran-, Python- und sonst-was-Tasks - mit Wohlwollen für Video-Editing / -Rendering. Da ging mit Kepler einiges ganz gut, aber dann haben die schnell kapiert, dass die sich ins Knie schießen. Was mittlerweile alles noch geht und nicht, kann ich dir gar nicht sagen.
Hast du eine P4000 am Start?? :freak:Ich habe alle hier, Radeon Pro (bis auf Frontier) und alle Quadros bis hoch zur P6000. Die ganz Dicken sind nicht im Budget :(
Zum Link auf die Radeon-Seite:
Der Benchmark-Balken aus Maya stimmt mich traurig. Die vergleichen dort wirklich die Frontier unter OpenGL samt Radeon-Pro-Treibern mit eine Titan XP und den beschnittenen Geforce-Treibern? Warum nicht mit einer P6000 und Quadro-Treibern? Ist ja auch GP102. Nichts für ungut, aber da wiederstrebt mir innerlich alles, diesen Balken zu glauben. Bei allem besten Willen.
Das ist wirklich sehr traurig, was AMD veranstaltet. Seriös sieht anders aus.
Unicous
2017-06-27, 20:04:35
Na zumindest einer hat eine bekommen.:freak:
Just got a Vega FE. Going to test some fp16 optimizations tomorrow. I have a few juicy targets :)
At some point I also need to test the paging system. It is awesome that we finally have automated paging on graphics workloads. Let's see how it manages a 32 GB volume texture :)
Update: Maybe I should buy extra 32 GB RAM to test with 64 GB volume texture instead :)
https://forum.beyond3d.com/posts/1989071/
Sebastian Aaltonen war bei Redlynx/Ubisoft für die Trials-Serie zuständig.
(del)
2017-06-27, 20:07:53
Na zumindest einer hat eine bekommen.:freak:
https://forum.beyond3d.com/posts/1989071/
Sebastian Aaltonen war bei Redlynx/Ubisoft für die Trials-Serie zuständig.Dann kann er sich glücklich schätzen. Newegg nimmt nur pre-orders :(
StefanV
2017-06-27, 20:10:10
Wir kaufen eine, weil AMD (derzeit) nichts an die Presse gibt. Nur Tests unter AMD-Aufsicht und mit deren Freigabe.
Wird aber auch mal Zeit, dass sie das machen!
Hat man ja letztens wieder bei Polaris gesehen, wo wieder das Haar in der Suppe gefunden werden musste und wegen irgendeinem Unsinn sinnlos geflamt werden musste...
Keinen Meter, sowas machen wir nicht.
Bei AMD meinst du...
Bei nVidia scheint das bisher kaum jemanden zu stören...
Und Intel gibt doch eh kaum mehr Samples an die Presse raus...
Ich habe gerade ein Déjà-vu mit Intels neuen CPUs.
und da ist der nächste Tritt in Richtung AMD nicht weit.
Und _DANN_ wunderst du dich, dass sie Review Samples nur unter NDA und Bedingungen raus geben?!
So gesehen würde auf dieses Preview nichts geben. Kaufen, fair testen und Meinung bilden. Ohne Atem im Nacken ;)
So wie bei Polaris?
Oder was meinst du genau?
Digidi
2017-06-27, 20:11:00
Zum Link auf die Radeon-Seite:
Der Benchmark-Balken aus Maya stimmt mich traurig. Die vergleichen dort wirklich die Frontier unter OpenGL samt Radeon-Pro-Treibern mit eine Titan XP und den beschnittenen Geforce-Treibern? Warum nicht mit einer P6000 und Quadro-Treibern? Ist ja auch GP102. Nichts für ungut, aber da wiederstrebt mir innerlich alles, diesen Balken zu glauben. Bei allem besten Willen.
Na ja aber eine P6000 ist nicht in diesem Preisrahmen wie die Titan Xp. Da stimmt mich dann die Titan Xp traurig. So viel mehr Kohle und dann kaum einen Mehrwert. Bei der Frontier Edition bekommt man immerhin etwas mehr CAD Leistung
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.