PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon Vega Frontier Edition (P)Review-Thread


Seiten : 1 [2] 3 4

Kriton
2017-06-30, 22:58:02
Hmm, wenn die von ihm angegebenen 47,3mm x 47,3mm für das Package stimmen, dann hat er falsch gemessen. Damit kommt man nämlich nur auf ~498mm² (25,6 x 19,4) für das GPU-Die. Eins von beidem kann nur stimmen, das liegt außerhalb der Fehlermarge. Ich vermute bald, er hat die Fläche des Interposers seitlich und oben mitgenommen, dann kommen nämlich seine Zahlen etwas besser hin. Oder die Package-Größe ist grob falsch (die läßt sich per Meßschieber aber recht einfach gut vermessen).

Die 498mm² würden zu Rajas Aussage passen.

iuno
2017-06-30, 23:04:08
Hmm, wenn die von ihm angegebenen 47,3mm x 47,3mm für das Package stimmen, dann hat er falsch gemessen. Damit kommt man nämlich nur auf ~498mm² (25,6 x 19,4) für das GPU-Die. Eins von beidem kann nur stimmen, das liegt außerhalb der Fehlermarge.
Ich glaube, dass die Groesse vom Package stimmt. An den HBM Stacks kann man sich auch orientieren, die sind von Hynix mit 7.75*11.87mm angegeben. Das wurde ja auch bei frueheren Schaetzungen gemacht und kam dann hin. Ausser natuerlich die Groesse der Stacks unterscheidet sich von der Angabe ;p

Dino-Fossil
2017-06-30, 23:43:51
Also ich hab eben nochmal genauer nachgemessen (das vorher verlinkte Bild ausgerichtet und die Perspektive korrigiert, der PCIe-Bus als Maßstab):

Ein HBM-Chip kommt bei mir auf (7,8x11,9) mm.
Die GPU hat damit (26,65x20,4)mm=544mm^2.

Damit wäre ich immer noch deutlich über 500, aber immerhin näher dran...

BlacKi
2017-06-30, 23:44:39
Also ich hab eben nochmal genauer nachgemessen (das vorher verlinkte Bild ausgerichtet und die Perspektive korrigiert, der PCIe-Bus als Maßstab):

Ein HBM-Chip kommt bei mir auf (7,8x11,9) mm.
Die GPU hat damit (26,65x20,4)mm=544mm^2.

Damit wäre ich immer noch deutlich über 500...
ich komm auch auf 540mm

-/\-CruNcher-/\-
2017-07-01, 00:08:56
Ryan sieht das Realistisch,euren eigenes Gehype ist das Problem.



Es gab es schon ewig nicht mehr das der direkte Nachfolger 50%+ rausholt.

Naja es ist ja nicht nur das man muss schon das gesammte betrachten wichtige IP Updates und vollen DX 12 Tier support.

Für mich ist die Architektur eine sehr stabile und warten wir mal ab wie das gesamterlebnis in Zukunft aussehen wird, Probleme innerhalb der Architektur mit Performance gewonnen durch Power Savings die ganze Zeit zu erschlagen naja, wie lange geht das wohl gut.

Aber Power zu nutzen um es insgesammt alles stabiler miteinander unter einen Hut zu bekommen ohne wie wild den takt andauernd rauf zu jagen der Ansatz ist ein komplett anderer :)

Und wir sehen ja teils auch wie dieser unterschied sich im Alterungsprozess von Nvidia Hardware auswirkt

24p
2017-07-01, 01:12:05
Ich habe ja kein Einblick in den Semi-Prof-Bereich. Aber die Zusammenfassung von PCper hört sich doch nicht schlecht an?

"Looked at solely through the lens of a professional user that is only tangentally interested in gaming, AMD can claim the product to be a success. For $999 the Vega Frontier Edition offers high levels of performance in some of our tested workloads from SPECviewperf, LuxMark and Cinebench. Our testing obviously isn't comprehensive due to time constraints, but it is a good indicate that AMD was right to target this product and this price at that kind of user. "

https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review/Conclusionsfor-now


Ist ja auch kein Kunststück, da NVidia da bezüglich der Treiber für diese Anwendungen eine ziemliche Lücke zw der Titan und den Quadros klaffen lässt.

-/\-CruNcher-/\-
2017-07-01, 01:26:39
Warte immernoch auf einen Baikal Bench

https://youtu.be/D5GcpYA7_wY?t=299


Ein relativ guter vergleich der Raw Power

With a score of 4690, the Radeon Vega Frontier Edition performs 41% faster than the Quadro P5000 (GTX 1080 equivalent) and than the Radeon Pro Duo running on a single GPU (essentially a Fury X). That’s a big shift from the gaming results we just went through on the preceding pages. NVIDIA’s Titan Xp though was able to bring a score of 5800, giving it a 23% advantage over AMD’s middle-level pro-sumer graphics offering.

Der Baikal Bench zeigt dies teils auch

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11416923#post11416923

Und das AMD heavy in Richtung Bandbreite optimiert, was ja auch nicht verwunderlich ist mit HBM

Bestätigung dann auch nochmal hier ;)

https://youtu.be/D5GcpYA7_wY?t=974


Ungefähr hier würde ich das Frontier Edition Ergebnis einordnen wenn es denn mal kommt ;)

http://imgur.com/gM7IRxQ.jpg

dildo4u
2017-07-01, 02:22:32
AMD Vega: FE Tear-Down, Die Size, Mounting Spacing

https://youtu.be/txHJZdPadG0

-/\-CruNcher-/\-
2017-07-01, 07:51:52
AMD Vega: FE Tear-Down, Die Size, Mounting Spacing

https://youtu.be/txHJZdPadG0

Die Material Quality ist echt nice auf den ersten blick definitiv nicht so billig wie Founders Edition und Co :)

Dural
2017-07-01, 08:18:37
Was? Die Karte sieht richtig billig aus, zudem die Abdeckung nur Kunststoff sein soll.

Wenigsten verwendet AMD endlich mal ein Delta Lüfter, ist bei NV Standard nur AMD hatte in Vergangenheit immer irgend welche billig teile drauf.

Opprobrium
2017-07-01, 08:29:50
Sieht auf jeden fall aus, als könne man da dank HBM wieder ähnlich knuffig kleine Karten wie Fury X/R9 Nano draus bauen :)

Klingt zwar alles gerade nich so berauschend, aber wenn AMD da noch eine vernünftige Balance zwischen Preis, Performance und Formfaktor hinkriegt auch nich so apokalyptisch wie manche hier meinen. Ein Volltreffer wie Ryzen wird Vega aber allem Anschein nach nicht werden, eher Fury 2.0 (oder 1.5, je nachdem wieviel da noch durch Treiber optimiert werden kann)

akuji13
2017-07-01, 09:56:41
Was? Die Karte sieht richtig billig aus, zudem die Abdeckung nur Kunststoff sein soll.

Für mich sieht das matte, aufgeräumte PCB hochwertig aus.

Gipsel
2017-07-01, 11:11:49
AMD Vega: FE Tear-Down, Die Size, Mounting Spacing

https://youtu.be/txHJZdPadG0Lustig, daß er keine Vapor Chamber erkennt, wenn er sie sieht ("world's tiniest heatpipe" ;D).

Opprobrium
2017-07-01, 11:18:35
Lustig, daß er keine Vapor Chamber erkennt, wenn er sie sieht ("world's tiniest heatpipe" ;D).

"Might also be a manufacturing error" ;)

(del)
2017-07-01, 11:20:16
Ja, bei 13:07 musste ich auch mal kurz husten...

Immerhin alles SMD-Caps und keine ollen Becher, schön. Nur die Spulen hätten bei dem Preis doch etwas wertiger ausfallen können. Ist halt nichts Besonderes.
Wenn PC-Partner etwas kann, dann Vapor Chambers verbauen lassen. Die müssen die Dinger ja gehortet haben ;)

Schnoesel
2017-07-01, 11:20:23
War auch zunächst perplex dass der VRAM fehlt ;-)

Na ich hoffe an den Gerüchte über die Empfindlichkeit des Packages ist genauso viel dran wie bei Fiji.

(del)
2017-07-01, 11:26:50
Na ich hoffe an den Gerüchte über die Empfindlichkeit des Packages ist genauso viel dran wie bei Fiji.

Auch die Boardpartner erhalten ihre Bedienungsanleitungen für den Test im Lab:
http://i.imgur.com/H8j9338.jpg

Zumindest in einigen SMT Machinen, wo Fiji lief, knacken die Vega Interposer. AMD hilft vor Ort ;)

Gipsel
2017-07-01, 12:22:53
Auch die Boardpartner erhalten ihre Bedienungsanleitungen für den Test im Lab:
http://i.imgur.com/H8j9338.jpgDie sind aber ziemlich Standard. Wärmeleitpaste soll man offiziell immer mit einen weichen Tuch entfernen (auch wenn die Dies mehr aushalten) und zwischen GPU und HBM liegen halt die Metallayer der Verbindung praktisch offen (nur von einem sehr sehr dünnen passivation layer bedeckt). Das ist eigentlich völlig klar.
Zumindest in einigen SMT Machinen, wo Fiji lief, knacken die Vega Interposer. AMD hilft vor Ort ;)Wie schon mal gesagt, je dünner, desto flexibler und biegsamer. Also so ganz allgemein. Sicher, man kann deutlich kleinere Kräfte aufnehmen, aber der Interposer soll ja wohl hoffentlich nicht die Maschine in Position bringen.
Ich hatte ja schon mal gefragt, ob vielleicht der Underfill Probleme macht, weil das Brechen des Interposers selbst kann es eigentlich kaum sein.

fondness
2017-07-01, 12:25:14
Was? Die Karte sieht richtig billig aus, zudem die Abdeckung nur Kunststoff sein soll.


Die Abdeckung und die Backplate ist aus gebürstetem Aluminium. Selbst die Platte mit dem Displayanschlüssen besteht auch hochwertigem, beschichtetem Metall. Plastik bekommst du bei Nvidia^^.

https://www.youtube.com/watch?v=txHJZdPadG0&feature=youtu.be&a

(del)
2017-07-01, 12:28:38
Wie schon mal gesagt, je dünner, desto flexibler und biegsamer. Also so ganz allgemein. Sicher, man kann deutlich kleinere Kräfte aufnehmen, aber der Interposer soll ja wohl hoffentlich nicht die Maschine in Position bringen.
Ich hatte ja schon mal gefragt, ob vielleicht der Underfill Probleme macht, weil das Brechen des Interposers selbst kann es eigentlich kaum sein.Ein Underfill-Issue ist gut möglich. Der Ing. vor Ort meinte, es darf nichts von oben drücken oder auch nur irgendwie von der Seite pressen. Es kommt ja fast ausschließlich als fertiges Package mit Frame von AES.

Und das hier:
Passivation layer of interposer is very fragile.

Schnoesel
2017-07-01, 13:01:42
Die Abdeckung und die Backplate ist aus gebürstetem Aluminium.

Bei der abdeckung sagt er eindeutig, dass es aussieht wie anodisiertes Aluminium. Ist offenbar keines.

BlacKi
2017-07-01, 13:05:19
wie kann man eine die size messung mit ausgeschaltetem messschieber machen? wtf...

Screemer
2017-07-01, 13:17:13
Bei der abdeckung sagt er eindeutig, dass es aussieht wie anodisiertes Aluminium. Ist offenbar keines.
die shroud wird in den usa produziert und ist definitiv aus alu. wer alu nicht von plastik unterscheiden kann, dem sollte man so ne karte echt nicht verkaufen.

https://youtu.be/txHJZdPadG0?t=424. das klappert so dermaßen blechern, dass das nicht mal im ansatz kunststoff sein kann.

was bei dem gamernexus vid auch auffällt ist, dass man die stellen zwischen stacks und gpu überhaupt nicht reinigen muss. die sind fast bindig mit dem underfill und die paste lässt sich sogar mit nem zewa entfernen. wie der drauf rumgrubbelt hat dachte ich mir erst "ohh das macht gleich knax".

Captain Future
2017-07-01, 13:36:12
Was mir beim Gamersnexus Video auffällt ist dass der Typ echt planlos wirkt. Von einer Vapor Chamber hat er noch nie was gehört. Der seit Jahren zu den AMD-Standarts gehörende Lüfter ist "riesig", er erfühlt kein Alu wenn er es anfasst, wundert sich wo die VRAMs sind, glaubt dass die I/Os, sprich DPs gekühlt werden usw usf. Sad state of reviewers.

Screemer
2017-07-01, 13:43:48
absolut. die fins am luftauslasse sind ganz eindeutig dafür da die der "baseplate" überhaupt mal ein bisschen oberfläche zu geben damit der luftstrum was abführen kann. gibt ja auch kein pad zwischen den ports und der plate. diese planlosigkeit ist mir bei gamernexus schon öfter aufgefallen. allerdings ist der im video erwähnte buildzoid ein crack: https://www.youtube.com/channel/UCrwObTfqv8u1KO7Fgk-FXHQ

BlacKi
2017-07-01, 13:52:41
meines wissens war bei fiji der hbm speicher minimal tiefer als die gpu die, ist das bei vega auch der fall?

fondness
2017-07-01, 14:10:19
meines wissens war bei fiji der hbm speicher minimal tiefer als die gpu die, ist das bei vega auch der fall?

Nein.

bun
2017-07-01, 14:50:38
allerdings ist der im video erwähnte buildzoid ein crack: https://www.youtube.com/channel/UCrwObTfqv8u1KO7Fgk-FXHQ

Der hat sich schon öfters blamiert und ist bereits mehrmals stark zurückgerudert.

Das Einzige was er tut ist Datenblätter von Komponenten lesen die er auf den Karten findet, von Elektrotechnik und VRM Design selbst hat er keine Ahnung was er auch zugegeben hat.

Wenn du dir seine frühen Videos auf seinem Kanal anschaust und dann das was er auf dem Gamersnexus Kanal veröffentlicht hat wird dir der dramatische Unterschied auch auffallen. Vorher hat er großkotzig Designs als Schrott bezeichnet die völlig in Ordnung waren, und wurde dafür auch stark kritisiert. Da ist er schon auf seinem Kanal zurückgerudert.
Nun (auf Gamersnexus) sind seine Videos nichtssagend weil er einräumt die Designs eigentlich gar nicht beurteilen zu können und viel mehr als die Funktion der Komponenten zu erklären und deren Typen und theoretische Daten aufzulisten macht er nicht mehr.

Das Problem liegt darin das er nur Datenblattwerte abließt, aber keinen Einblick darin hat wie Mosfets, Spulen und Kondensatoren zusammenarbeiten und wie die Arbeitstemperatur der Fets wirklich aussieht das für Effizienz- und Leistungsbetrachtungen relevant wäre. Wenn ich gute Fets verbaue und diese schlecht kühle, hilft das am Ende auch nicht, da VRMs bei niedrigeren Temperaturen generell höhere Effizienzen aufweisen.

Unterm Strich sind so gut wie alle VRM Designs so weit überdimensioniert das seine "Analysen" Zeitverschwendung sind, und selbst "grenzwertige" Designs sind nur bei LN2 Rekordversuchen grenzwertig. Unter Luft und selbst Wasser weitestgehend völlig irrelevant.

(del)
2017-07-01, 15:25:07
Er liest wirklich nur Datenblattgedöns ab, und zwar die puren Grenzwerte von Seite Eins. Wenn er aber nicht mal weiß, mit welcher Schaltfrequenz die VR einer speziellen Karte laufen, dann kann er ja noch nicht einmal objektiv beurteilen, wie viele Ampere so ein MOSFET in der konkreten Schaltung wirklich maximal bringen kann. Entscheidend sind die Diagramme auf den inneren Seiten solcher Datenblätter (Frequenzen, Spannungen, Temperaturen usw.) und die tatsächliche Verschaltung. Und was nützt ein 200A-MOSFET vor einer Spule, die nur 20 Ampere abkann? Von Load-Balancern, Phase-Doublern und Gate-Treibern hat der auch noch nichts gehört. Geschweige denn von den verschiedenen Power-Modi und der Aufteilung der Phasen unter wechselnden Lasten mit den unterschiedlichen PWM Controllern. Das ist nettes Youtube-Entertainment für schlichte Gemüter, mehr nicht.

Stullen Andi
2017-07-01, 16:06:06
wie kann man eine die size messung mit ausgeschaltetem messschieber machen? wtf...

Mit der Skala darauf :wink:

(del)
2017-07-01, 16:29:21
Mit der Skala darauf :wink:

Diese Displays sind nicht genauer :D

Hübie
2017-07-01, 17:03:48
Das war an, aber sagte dass man es nicht sieht (Blickwinkel).

Er hat nicht mal gecheckt dass es eine Vapor Chamber ist. Er orakelte was von smallest heatpipe he ever saw. X-D

basix
2017-07-01, 17:04:38
Entscheidend sind die Diagramme auf den inneren Seiten solcher Datenblätter (Frequenzen, Spannungen, Temperaturen usw.) und die tatsächliche Verschaltung. Und was nützt ein 200A-MOSFET vor einer Spule, die nur 20 Ampere abkann?

Schlussendlich ist der Ampere Peak-Wert der MOSFETs nur ein Parameter von vielen. Was meistenes viel wichtiger ist, ist die korrekte Dimensionierung der Spule sowie des Glättungskondensators. Farrad, Henry und all ihre parasitären Kameraden wollen wohl auf die Schaltfrequenz und den FET abgestimmt sein, damit z.B. nicht extreme Stromspitzen am MOSFET entstehen können. Auch die FET Gate-Charge / Rds_on etc. spielen bei solchen Schaltreglern eine enorme Rolle bezüglich Eigenerwärmung aber auch Spannungs-Ripple der Ausgangsspannung. Zudem wird es bei den allermeisten Spulen gar nicht möglich sein, den exakten Typ einfach so zu bestimmen.

Ein VRM Design richtig und grundlegend zu analysieren erfordert ziemlich gute Elektrotechnik-Kenntnisse in diesem Bereich. Zudem wäre eine BOM von grossem Vorteil, diese wird man aber eher nicht bekommen ;) Ich habe zwar Elektrotechnik studiert, aber nur wenig mit solchen Schaltreglern zu tun. Deshalb kann ich das Design auch nur eher oberflächlich beurteilen. Für mich sieht es elektronisch ziemlich solide und hochwertig aus, mehr Lehne ich mich da nicht aus dem Fenster :D Wie du schreibst hat dann auch noch das Load-Balancing über die verschiedenen Phasen sehr hohen Einfluss auf eine gleichmässige Erwärmung usw.
Am einfachsten die Qualität eines Speisungsdesigns zu ermitteln ist also oft, sich mit einem guten Oszilloskop die Speisung bei verschiedenen Lastszenarien und Lastwechseln anzuschauen und die Temperaturen im Auge zu behalten. Dann muss man natürlich wissen, auf was man bei den Oszi-Signalen achten muss :D

Hehe, das mit der "Smallest Heatpipe Ever" fand ich auch ganz witzig ;D Nur schon wie er die ganzen Komponenten und Werkzeuge in die Hand nimmt, lassen mich ein wenig schaudern (z.B. den Kühlblock wieder auf die Karte setzen oder das Messen mit dem Messschieber). Dafür, dass er solch ein Tear Down machen darf, ist er nicht wirklich begabt mit Handgeschick und im Umgang mit technischen Instrumenten.

Edit:
Die Produktseite der Vega FE sieht meiner Meinung nach ziemlich gut und Erwachsen aus.

(del)
2017-07-01, 17:26:58
Ich bin privat mit einem der PCB-Designer eines größeren Boardpartners befreundet und lerne auch täglich immer wieder dazu. Theorie und Praxis sind nun mal immer verschiedene Welten und es gibt immer Leute, die es besser wissen. Aber den dann zu fragen hilft ungemein :)

Die genaue Abstimmung der kompletten Beschaltung, sowie die Auswahl der passenden und zweckmäßigen Komponenten ist immer eine Wissenschaft für sich. Wir haben z.B. lange diskutiert, ob es einen Sinn ergibt, die Caps als SMD-"Leiste" aktiv mitzukühlen und dafür ggf. sogar eine Temepraturklasse niedriger einsetzen zu können, oder wieder die billigeren Cans zu nehmen. Die Spulen haben wir auch beschlossen aktiv zu kühlen. Ergo wurden es 6 Phasen mit Doubler, was in 12 Regelkreisen mündet, deren Spulen man dann natürlich flacher wählen und besser mit kühlen konnte. Eingesetzt wurden aktiv gekühlte SMD-Capss auf der Front- und passiv gekühlte auf der Rückseite (Backplate + Tape). Insgesamt deutlich kühler, eine bessere Einzel-Bestückung und trotzdem nicht teurer. Hotspots zu entzerren ist sinnvoll. :)

Wenn man sich aber beschwert, dass der Frame als Grundgerüst die VRMs kühlt, jedoch nicht mit dem Kühlkörper verbunden ist, dann hat er von den Grundlagen einer effizienten und vor allem zweckmäßigen Kühlung NULL Ahnung. Der eingesetzte Kühlblock samt Vapor Chamber als Boden ist bei keinem der aktuellen oder älteren Designs (Quado, Fire Pro, Radeon Pro, Referenzkarten der HD-, R9-Serie) jemals mit dem Montageframe verbunden gewesen. Thermodynamisch wäre so etwas Selbstmord.

fondness
2017-07-01, 17:32:58
564 mm² ... da möge sich Raja noch mal zu äußern :usad:

Man muss sich das mal vorstellen: Der Chip ist nur minimal kleiner als Fiji, der 596mm² misst. Und das trotz mehr als einem Fullnode-Shrink (28nm vs. 14nm), hat sogar dann noch dieselbe TDP wie Fiji in 28nm und ist im Schnitt vielleicht 25% schneller. Das kann es eigentlich schlicht nicht gewesen sein mit der Performance.

Screemer
2017-07-01, 17:36:47
Wenn man sich aber beschwert, dass der Frame als Grundgerüst die VRMs kühlt, jedoch nicht mit dem Kühlkörper verbunden ist, dann hat er von den Grundlagen einer effizienten und vor allem zweckmäßigen Kühlung NULL Ahnung.
ach das hat er auch noch gesagt? da muss mir wohl grad der wind beim kopfschütteln um die ohren gesaust sein. vielleicht kam das nach "cooling of ports", da war der wind besonders kräftig.

Man muss sich das mal vorstellen: Der Chip ist nur minimal kleiner als Fiji, der 596mm² misst. Und das trotz mehr als einem Fullnode-Shrink (28nm vs. 14nm), hat sogar dann noch dieselbe TDP wie Fiji in 28nm und ist im Schnitt vielleicht 25% schneller. Das kann es eigentlich schlicht nicht gewesen sein mit der Performance.
kann vega jetzt eigentlich 1:2 dp? das dürfte ja ordentlich transistoren kosten. die können hawaii ja nicht noch ewig dafür mitschleppen.

(del)
2017-07-01, 17:39:26
Ich habe auch nur noch halb hingehört, aber er faselte ständig was von einer Alu-Platte. Ich habe anfangs gar nicht genau gewusst, was er meinte. :D

Gipsel
2017-07-01, 17:42:59
kann vega jetzt eigentlich 1:2 dp?Offiziell 1:16, also nein. Vega20 soll dann 2018 gerüchteweise 1:2 DP bieten.

N0Thing
2017-07-01, 17:43:16
ach das hat er auch noch gesagt? da muss mir wohl grad der wind beim kopfschütteln um die ohren gesaust sein.


kann vega jetzt eigentlich 1:2 dp? das dürfte ja ordentlich transistoren kosten. die können hawaii ja nicht noch ewig dafür mitschleppen.

Scheinbar hat Vega 1/16. 1:2 soll erst mit Vega 20 kommen, sofern die bisherigen Roadmaps keine Erfindung sind.

https://www.3dcenter.org/artikel/amd-grafikchip-roadmap-2016-2019

dildo4u
2017-07-01, 17:58:55
Das neue Geometrie Setup wird Die Size gekostet haben,dort sind es oft 80-100% zu Fiji.


https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review/Professional-Testing-SPEC

Leonidas
2017-07-01, 18:08:59
Das (vergleichsweise) Hochtaktdesign wird auch Transistoren kosten. Weitere Punkte:
- GCN5
- DX12 FL12_1

Kann also schon hinkommen. Aber: Dafür *muß* dann auch Mehrperformance rauskommen (oberhalb der höheren Taktrate). Ansonsten hätte sich das wirklich nicht gelohnt.

BlacKi
2017-07-01, 18:22:30
Mit der Skala darauf :wink:
schon klar, aber es ist nicht wirklich genau. zb. sieht man 26mm, aber wegen der abstufung der messschenkel kann man es nicht vernünftig abschätzen.

https://abload.de/img/unbenanntv7s8h.png

Stullen Andi
2017-07-01, 18:28:24
Egal wie die Schenkel ausssehen, zusammen ist Null und was dazwischen passt wird auf der Skala angezeigt. Wer den Umgang mit dem Geräte gelernt hat, weis auch die obere Skala zu deuten.

Aber alles zu sehr OT hier, ich mag den Nexus Typen eh nich, sabbelt mir zuviel, wie fast alle Youtuber.

basix
2017-07-01, 18:38:20
Egal wie die Schenkel ausssehen, zusammen ist Null und was dazwischen passt wird auf der Skala angezeigt. Wer den Umgang mit dem Geräte gelernt hat, weis auch die obere Skala zu deuten.

Richtig, die 0 ist jeweils auf Höhe der Messschenkel. Gegen den Nonius hin hat es immer diese Ausbuchtungen. Bei verschobenen Skalen müsste man ja immer die Masse schätzen, was ja nicht das Ziel eines Messmittels ist. Da war Blacki ein wenig zu vorschnell ;)

@ dildo4u:
Welche Tests meinst du genau mit dem Geometrie Setup? Liegt das nicht zum Teil auch am "Pro" Treiber?

BlacKi
2017-07-01, 18:50:05
Richtig, die 0 ist jeweils auf Höhe der Messschenkel. Gegen den Nonius hin hat es immer diese Ausbuchtungen. Bei verschobenen Skalen müsste man ja immer die Masse schätzen, was ja nicht das Ziel eines Messmittels ist. Da war Blacki ein wenig zu vorschnell ;)
stimmt, ich hatte meinen im kopf, der hat eine andere skala bzw. bezugspunkt.

bun
2017-07-01, 18:53:04
Egal wie die Schenkel ausssehen, zusammen ist Null und was dazwischen passt wird auf der Skala angezeigt.

Und an welchem Punkt liest du die Skala ab? Dafür gibt es gar keine Markierungen, nur die Kante des Displaygehäuses. Genau ist Etwas anderes.

Die Skale an digitalen Messschiebern ist eher Deko, und Sanitycheck um zu prüfen ob die Anzeige auf dem Display plausibel oder grob daneben ist.

Gegen den Nonius hin hat es immer diese Ausbuchtungen.

Das obere sind übrigens Inches und kein Nonius.

(del)
2017-07-01, 19:10:55
Ich habe erst gar keine Digital-Skala, jetzt bin ich sicher für Youtube voll uncool. :(

Stullen Andi
2017-07-01, 19:16:40
Und an welchem Punkt liest du die Skala ab? Dafür gibt es gar keine Markierungen, nur die Kante des Displaygehäuses. Genau ist Etwas anderes....

Na an der passenden Stelle eben. Oder ist dir nicht aufgefallen das die Skala eben auch um genau diese Kerbe versetzt ist? Wem man den Umgang mit den Teilen noch erklären muss der stellt auch solche Fragen....

Auch sollte klar sein das die 3€ Teile ausm Baumarkt auch nur Schätzeisen sind, trotzdem zu gebrauchen wenn man damit umzugehen weis. Habe auch einen, ist ideal um Markierungen auf die Unterseite von Heatspreadern zu zaubern.

Zum arbeiten hat man dann für gewöhnlich noch diverse analoge Varianten oder wenn es digital sein soll, dann steht da halt Mitutoya oder Vergleichbares drauf.

Linmoum
2017-07-01, 19:17:13
Ich habe erst gar keine Digital-Skala, jetzt bin ich sicher für Youtube voll uncool. :(
Wahrscheinlich hast du deswegen noch keine FE bekommen. :D

(del)
2017-07-01, 19:26:34
AMD verwendet auf der FE übrigens für eine der gedoppelten 6 Phasen einen interessanten Load-Balancer zwischen PEG und PCIe. Der Typ im Video hat echt keinen Plan. Das ist doch mal ein echtes Feature. PCI SIG FTW :D
Ich habe mir mal die Platinenbilder von PCPer angesehen. Die reichen für eine Analyse völlig aus. Dieses Pseudo-Tear-Down auf Youtube ist wirklich nur peinlich. Kein Wunder, dass die auf der Computex kaum einer in den Booth lasssen wollte. Hauptsache wichtig, mit fetten Kameras. Der Typ sollte weniger seine Haare ausbreiten, das sieht aus wie ein Shampoo-Werbefilm. :D

-/\-CruNcher-/\-
2017-07-01, 19:26:47
absolut. die fins am luftauslasse sind ganz eindeutig dafür da die der "baseplate" überhaupt mal ein bisschen oberfläche zu geben damit der luftstrum was abführen kann. gibt ja auch kein pad zwischen den ports und der plate. diese planlosigkeit ist mir bei gamernexus schon öfter aufgefallen. allerdings ist der im video erwähnte buildzoid ein crack: https://www.youtube.com/channel/UCrwObTfqv8u1KO7Fgk-FXHQ

Naja da hast du noch nie einen richtigen Elektro Crack gesehen, er bringt ab und zu mal sachen durcheinand seine Einstellung zu Power Saving ist ein wenig naja aber ansonsten ganz ok ;)

Und er gibt selbst zu das seine Lötskills so lala sind ;)

Er ist jedenfalls nicht der Youtube worstcase ;)

basix
2017-07-01, 19:54:42
AMD verwendet auf der FE übrigens für eine der gedoppelten 6 Phasen einen interessanten Load-Balancer zwischen PEG und PCIe. Der Typ im Video hat echt keinen Plan. Das ist doch mal ein echtes Feature. PCI SIG FTW :D

Für was ist der gut? Die Leistung vom PCIe Slot begrenzen?

Zur Ausführung: Wird nach der Dopplung diese Aufteilung der Source für das Loadbalancing gemacht? Also total 1/2 der Phasenleistung vom PCIe Slot und 1/2 vom PEG? Würde ja den kolportierten 25W vom PCIe Slot entsprechen, wenn die 300W gleichmässig über alle Phasen verteilt sind (was es normalerweise aber nicht ganz ist).

-/\-CruNcher-/\-
2017-07-01, 19:56:30
AMD verwendet auf der FE übrigens für eine der gedoppelten 6 Phasen einen interessanten Load-Balancer zwischen PEG und PCIe. Der Typ im Video hat echt keinen Plan. Das ist doch mal ein echtes Feature. PCI SIG FTW :D
Ich habe mir mal die Platinenbilder von PCPer angesehen. Die reichen für eine Analyse völlig aus. Dieses Pseudo-Tear-Down auf Youtube ist wirklich nur peinlich. Kein Wunder, dass die auf der Computex kaum einer in den Booth lasssen wollte. Hauptsache wichtig, mit fetten Kameras. Der Typ sollte weniger seine Haare ausbreiten, das sieht aus wie ein Shampoo-Werbefilm. :D

Naja er ist partly noch schlimmer als Shrout beide sind unfaszinierend beide total auf 3rd party stuff angewiesen in ihren Setups.

Du und Leadbetter seit dagegen weitaus uniquer und auch weitaus beliebter bei AIBS und Co nehm ich mal stark an auch wenn man dich nicht vor der Kamera sieht, als diese beiden flitzpipen ;)

(del)
2017-07-01, 20:20:41
Für was ist der gut? Die Leistung vom PCIe Slot begrenzen?

Zur Ausführung: Wird nach der Dopplung diese Aufteilung der Source für das Loadbalancing gemacht? Also total 1/2 der Phasenleistung vom PCIe Slot und 1/2 vom PEG? Würde ja den kolportierten 25W vom PCIe Slot entsprechen, wenn die 300W gleichmässig über alle Phasen verteilt sind (was es normalerweise aber nicht ganz ist).

Eine der beiden gedoppelten Phasen ist offensichtlich bei der Source zwischen Mainboardslot und PCIe gesplittet, was nicht gewöhnlich, aber durchaus machbar ist. Ich müsste halt mal mit dem Messgerät ran, aber es sieht wirklich so aus. Je nachdem, was sonst noch so am PEG hängt, könnte man den voll auslasten ohne ihn zu überlasten. Mich würde diesbezüglich auch mal der verwendete PWM-Controller samt Doubler-Chips interessieren. Aber das hat leider keiner parat. Die labern lieber von Aluplatten und Heatpipes, die keine sind. :D

basix
2017-07-01, 20:39:58
Eine der beiden gedoppelten Phasen ist offensichtlich bei der Source zwischen Mainboardslot und PCIe gesplittet, was nicht gewöhnlich, aber durchaus machbar ist.

OK, demfall wahrscheinlich wie vermutet. Mich würde das Schema davon interessieren. Es kann nämlich sein, dass man die PCIe 1/2 Phase anders dimensionieren muss wie die andere (Quell-Impedanzen und so). Eine interessante Lösung auf jedenfall und nach Bauchgefühl auch eine ziemlich smarte. Auch wenn dann nur wenig vom PCIe gezogen wird, über die PEG Stecker kann man eh genug Power ziehen. Anscheinend hat man aus der RX 480 gelernt. Dort war aber einfach das Design zu hart an die PCIe + 1x 6p PEG Grenze geprügelt worden. Hätte Polaris 10 die GTX 980 mit 100MHz weniger übertrumpft, hätte die Geschichte ganz anders ausgesehen.

(del)
2017-07-01, 21:22:07
PEG ist Mainboard, PCIe sind die die beiden Externen. Die Leute glauben ja immer noch an das 75-Watt-Märchen des Slots - dabei sind es 5.5 A und somit 66 Watt bei exakt 12V. Die 75 Watt ergäben sich ja nur, wenn das Netzteil am oberen Rand der ATX-Spezifikation arbeiten würde. Und ja, einige der bösartigen Karten (z.B. XFX oder HIS) haben es sogar auf deutlich über 7 Ampere gebracht (völlig irre), da sind auch RMA-Fälle an Mainboards von Aufrüstern bekannt (überwiegend Dell-Billigbretter). Andere haben die RX 480 deutlich besser designt (Asus, MSI, Gigabyte, Powercolor), da spielte der Slot keine negative Rolle mehr.

bun
2017-07-01, 21:31:41
Na an der passenden Stelle eben. Oder ist dir nicht aufgefallen das die Skala eben auch um genau diese Kerbe versetzt ist?

Du hast nicht Verstanden das auf dem verschiebbaren Teil keine Markierung existiert, an dem die Skale abgelesen werden könnte, unabhängig davon ob die Skale nun "passend versetzt" ist oder nicht. Man kann vielleicht die Gehäusekante zum Schätzen nehmen, mehr ist das dann aber auch nicht. Dank des großen Abstands des Gehäuses zur Skale treten dann noch gröbere Parallaxefehler auf.


Wem man den Umgang mit den Teilen noch erklären muss der stellt auch solche Fragen....

Bin u.A. ausgebildeter Mechaniker, mir sind Messschieber vertraut :rolleyes:

Gipsel
2017-07-01, 21:57:33
Das neue Geometrie Setup wird Die Size gekostet haben,dort sind es oft 80-100% zu Fiji.

https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review/Professional-Testing-SPECNa wenn das mal nicht die Pro Duo mit 2x Polaris ist ;).
Edit: Hmm, im Text schreiben sie irgendwo, es wäre die Fiji-Version. Bleibt noch die große Unsicherheit der Treiber, die in den Benchmarks ja bekanntlich sehr viel ausmachen (siehe Quadro vs. Titan). Das Resultat würde ich z.B. zum größten Teil auf den Treiber und nicht die Hardware schieben:
https://www.pcper.com/files/imagecache/article_max_width/review/2017-06-30/quadro-spec8_0.png

-/\-CruNcher-/\-
2017-07-01, 22:13:56
Titan XP hat keine PRO R&D die gibt es nur auf Quadro gegen Aufschlag aber das ist schon lange bekannt das ist unter anderem Instancing und andere low level Optimierungen (OIT speedups) des Viewport Render Parts.

Bei der Frontier Edition gibt es das nun for Free dazu bei der Pro Duo war das noch nicht der Fall, das hat so relativ wenig mit der overall Geometrie Performance der Hardware zu tun die testet man besser mit den üblichen Tesselation Workloads ;)

Bei diesen sachen geht es nur um Brain Know how die bezahlt werden sollten weil sie einiges an Entwicklungsresourcen verschlingen und daraus hat man dann gleich ein paar extreme überteuerte Produkte für die Pros gezaubert.

In Zukunft wird man mit diesen keine Kohle mehr schöffeln können man hat sich quasi dazu entschlossen alles zu veröffentlichen vor allem im Zuge von Low Level APIs erübrigt sich das nun, da jeder dort quasi die selben speedups erreichen wird.

AMD ist sich dessen sehr bewusst (wieso wohl) deshalb das Geschenk (deprecated) sozusagen ;)

Die Exclusive Zeit dieser sachen ist Vorbei sie sind überbezahlt und zu viele haben die gleichen ideen gefunden allerdings ohne low level nie so performant umzusetzen ;)

Frontier Edition macht den Anfang

dildo4u
2017-07-01, 23:13:43
Taktraten Metro in 4k.

https://youtu.be/eSjllaOFYrU?t=18m10s

Dropt hier unter 1.3Ghz,teilweise auf 1.1Ghz Ram geht auch runter auf 800mhz,die Performance macht immer mehr Sinn.

http://abload.de/img/vergafercsmw.png

Troyan
2017-07-02, 02:50:17
Benchmark mit Professionel Mode, Game Mode, Übertaktung und gegen GTX1080FE: https://www.youtube.com/watch?v=YflRl9np70k&feature=youtu.be

Nicht die aktuellsten Spiele. Man sieht sehr schön, wie stark die Karte drosselt.

dildo4u
2017-07-02, 03:15:07
Nvidia hat ja vor dem Stromverbrauch von HBM gewarnt,wird interessant ob Karten mit nur 8GB besser boosten.

Troyan
2017-07-02, 03:19:13
HBM2 mit 500GB/s verbraucht weniger Strom als GDDR5(x). Der Stromverbrauch kommt nicht vom Speicher. Die Karten kommen mit bis zu 1,2V an Spannung. Das ist 28nm Niveau. Pascal ohne OV hört bei rund 1,06V auf...

BlacKi
2017-07-02, 03:22:54
Pascal ohne OV hört bei rund 1,06V auf...
und mehr bringt auch kaum was zumindest bei pascal, da hatter recht.

dildo4u
2017-07-02, 04:04:07
PCPer hat die Die noch mal gemessen 512mm².

https://twitter.com/ryanshrout/status/881317151277285376

BlacKi
2017-07-02, 04:07:33
wer blamiert sich nun mehr, raja oder ryan? idk, mayb both^^

Daredevil
2017-07-02, 05:46:17
Die FE hat aber auch keinen riesigen Kühler, da wären fernab von den jetzigen technischen Grenzen auch noch thermisch was zu holen.

Ne Standard GTX980ti kommt mit ~1000\1180Mhz Taktraten daher, eine EVGA mit gutem Custom Kühler geht auf 1200\1410Mhz hoch. Das ist schon ein großer Unterschied.

Ich freu mich auf Vega. :)
Anscheinend läuft sie FE Hard- als auch Softwareseitig noch mit Handbremse und lässt nur vermuten, was das Baby leisten kann.

Stromverbrauch und Die Fläche werden doch mit 8GB statt 16GB bestimmt auch noch abnehmen können, oder?

Wake
2017-07-02, 07:32:06
Gamers Nexus AMD Vega Frontier Edition Review
ZHb7fC5zUdU
http://www.gamersnexus.net/hwreviews/2973-amd-vega-frontier-edition-reviewed-too-soon-to-call

(del)
2017-07-02, 08:00:17
Was ist da dran in-depth? Steckdosenmessung und totoptimiertes Zeug wie SPECviewperf 12 gehören nicht in ein in-depth Review.

Opprobrium
2017-07-02, 09:35:12
PCPer hat die Die noch mal gemessen 512mm².
Hatte mich auch ob der ~560 die hier mal rumgeisterten gewundert, denn bei der (zugegeben recht groben) Messung in dem Tear Down Video waren es 20 * 26mm.

Und falls für den Gamerchip tatsächlich anderes Silicon als für die FE verwendet wird werdens je vielleicht doch noch <500

AtTheDriveIn
2017-07-02, 09:56:57
484mm^2 ist Größe. Raja hat es gerade gewittert

https://twitter.com/KMoamm/status/881378417274265600

horn 12
2017-07-02, 10:13:03
Nun, kann doch noch was werden mit Vega ...

Hübie
2017-07-02, 10:14:03
Sieht von hier nicht perfekt quadratisch aus. Ob Raja die Fläche mit Transistoren meint? Also ohne Rand?

basix
2017-07-02, 10:24:13
Sieht von hier nicht perfekt quadratisch aus. Ob Raja die Fläche mit Transistoren meint? Also ohne Rand?

Er sagt 22*22mm sei "das am besten passende perfekte Quadrat". Es kann auch irgendwas wie 21.5*22.5mm oder 21*23mm sein.

AtTheDriveIn
2017-07-02, 10:39:38
Er sagt 22*22mm sei "das am besten passende perfekte Quadrat". Es kann auch irgendwas wie 21.5*22.5mm oder 21*23mm sein.
Er sagt, dass die Größe das am dichtesten an 500 liegende "perfect Square" ist. Das kann also nur 484 sein

24p
2017-07-02, 10:54:05
Oder zB 22,3^2. Die 484mm^2 stimmen nur, wenn es die Seitenlänge auch ganzzahlige mm sein müssen.

AtTheDriveIn
2017-07-02, 11:10:15
Nun ist aber nunmal Quadratzahl definiert als "eine Ganze Zahl multipliziert mit sich selbst" :)

(del)
2017-07-02, 11:11:52
So ein Nackchip hat/braucht ja auch einen nicht belegten Rand und niemand wird die Transistoren bis an diesen ziehen wollen. Spätestens bei Trennen aus dem Wafer würde ja alles beschädigt. Wenn, dann meint er wohl die tatsächliche Funktionsfläche und nicht den ganzen Nacktchip einschließlich der nötigen Ränder. Das ist wieder eine reine Brutto- vs. Netto-Rechnerei.

grauenvoll
2017-07-02, 11:20:23
Lassen wir mal die klassischen FPS-Spielereien für einen Moment links liegen...

Vega Frontier sollte im Zusammenhang mit dem ROC Framework gesehen werden. Auf Heise Developer ist ein umfangreicherer Artikel zu ROC mit einem von CUDA portierten Benchmark von Matthias Werner (ZiH, TU Dresden) und Robert Haase (Scionics) zu finden.

https://1.f.ix.de/developer/imgs/06/2/2/2/9/0/7/7/abb2-c32a006c9e921161.png

Beide sind von dem Framework ziemlich angetan, auch wenn noch etwas Weg notwendig ist.

Gipsel
2017-07-02, 11:22:47
So ein Nackchip hat/braucht ja auch einen nicht belegten Rand und niemand wird die Transistoren bis an diesen ziehen wollen. Spätestens bei Trennen aus dem Wafer würde ja alles beschädigt. Wenn, dann meint er wohl die tatsächliche Funktionsfläche und nicht den ganzen Nacktchip einschließlich der nötigen Ränder. Das ist wieder eine reine Brutto- vs. Netto-Rechnerei.Die Ränder benötigen nicht so viel Platz. 100µm oder gar weniger (dann hauptsächlich kleinere Chips, die man dann bevorzugt auf dünneren Wafern produziert) reichen im Prinzip, je nachdem, wie man genau das Dicing macht. Man platziert aber auch typischerweise Teststrukturen zwischen die Dies (werden dann beim Dicing größtenteils zerstört). Der Platz hat also oft auch einen Zweck und ist nicht unbedingt verschwendet.

Edit:
Immerhin waren meine aus dem Foto gewonnenen 498mm² am dichtesten an den nun semioffiziellen 484mm² dran. :)

Dino-Fossil
2017-07-02, 11:32:21
Was meint er also nun? Die effektiv mit Transistoren belegte Fläche?
Der Chip auf der FE scheint trotzdem noch größer als 500mm^2, die theoretische Ausbeute pro Wafer würde sich also nicht nach den 484mm^2 richten, oder?

Gipsel
2017-07-02, 11:45:14
Was meint er also nun? Die effektiv mit Transistoren belegte Fläche?
Der Chip auf der FE scheint trotzdem noch größer als 500mm^2, die theoretische Ausbeute pro Wafer würde sich also nicht nach den 484mm^2 richten, oder?Der sichtbare Chip ist ziemlich nah an den 500mm² dran. Sogar PCPer messen jetzt nur noch 512mm² mit dem Meßschieber (habe doch gleich gesagt, daß ihre anfänglichen 564mm² außerhalb der Fehlergrenzen der Fotomessung liegen). Vermutlich konnte da einer den Meßschieber nicht richtig bedienen/ablesen (ihre offizielle Erklärung ist, daß sie den Die/Interposer nicht beschädigen wollten und deswegen etwas Platz gelassen hätten :rolleyes:). Die Sache mit Netto-/Bruttofläche eines Chips hat man ja immer. Aber wenn man halbwegs sparsam ist, liegt die Differenz bei vielleicht 10mm² oder so.

Und ja, die Menge an Chips, die man von einem Wafer bekommt, richtet sich natürlich danach, mit welchen Pitch zwischen den Belichtungen des Wafers gearbeitet wurde (also Chipgröße + Abstand dazwischen). Für die eigentlichen Kosten ist es aber sogar noch komplizierter. Das hängt auch davon ab, wieviele Einzelbelichtungen man pro Wafer letztendlich benötigt, also auch, wie man die Chips (bzw. gegebenenfalls auch mehrere Kopien davon) auf der Maske innerhalb des Reticle-Limits anordnet. Allein die Fläche ist also nicht Alles.

BlacKi
2017-07-02, 12:03:10
Was meint er also nun? Die effektiv mit Transistoren belegte Fläche?
Der Chip auf der FE scheint trotzdem noch größer als 500mm^2, die theoretische Ausbeute pro Wafer würde sich also nicht nach den 484mm^2 richten, oder?
der gezeigte chip der FE ist weder ein quadrat noch 484mm² groß.

(del)
2017-07-02, 12:10:56
Vielleicht haben sie die Dies ja noch mit Hand gesägt, weil es schnell gehen musste. :D

Menace
2017-07-02, 12:14:31
der gezeigte chip der FE ist weder ein quadrat noch 484mm² groß.

Wo seht ihr den Chip? Bisher sah ich nur den Heatspreader.

Dino-Fossil
2017-07-02, 12:14:49
Der sichtbare Chip ist ziemlich nah an den 500mm² dran. Sogar PCPer messen jetzt nur noch 512mm² mit dem Meßschieber (habe doch gleich gesagt, daß ihre anfänglichen 564mm² außerhalb der Fehlergrenzen der Fotomessung liegen). Vermutlich konnte da einer den Meßschieber nicht richtig bedienen/ablesen (ihre offizielle Erklärung ist, daß sie den Die/Interposer nicht beschädigen wollten und deswegen etwas Platz gelassen hätten :rolleyes:).

Na hoffentlich haben sie ihn beim zweiten Versuch richtig bedient. :rolleyes:

Ich komme auf den Fotos immer noch eher auf 540 - wobei ich bei den HBM Chips recht gut auf die offiziellen Werte (Länge/Breite) komme.
Aber natürlich bleibt es eine Messung anhand eines Fotos inklusive Umrechnung über andere Features (PCIe-Bus). Also durchaus einige Fehlerquellen. Trotzdem habe ich noch ein wenig den Eindruck, dass Raja bei den Größenangaben ein wenig "trickst". Naja, wird sich schon irgendwann aufklären...

Edit: Das es nicht der eigentliche Chip ist, sondern ein aufgesetzter Heatspreader wäre vielleicht eine Möglichkeit. Kann ich nicht beurteilen.

Gipsel
2017-07-02, 12:17:27
der gezeigte chip der FE ist weder ein quadratDas behauptet auch keiner. Nur daß die Diefläche in mm² dem am dichtesten an 500 liegenden Quadrat einer natürlichen Zahl entspricht. Dazu muß das Die nicht qadratisch sein (es mißt halt irgendwas 25,x mm * 19,y mm) ;).

Gipsel
2017-07-02, 12:21:05
Wo seht ihr den Chip? Bisher sah ich nur den Heatspreader.Es gibt keinen Heatspreader. Keine Ahnung, was Du da siehst.
Ich komme auf den Fotos immer noch eher auf 540 - wobei ich bei den HBM Chips recht gut auf die offiziellen Werte (Länge/Breite) komme.Mit oder ohne Sidemold? Und haben die HBM-Chips überhaupt diese Größe (die von SKHynix und Samsung sollten unterschiedlich groß sein, falls es extra ECC-Stacks gibt [es also nicht alle können], sind die auch noch mal etwas größer)?
Ich komme ausgehend von der Packagegröße auf deutlich weniger (498mm², wie ich schon Freitag schrieb (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11417979#post11417979)).
Die lange Seite muß übrigens ziemlich sicher unter 26mm (abzüglich Teststrukturen/Dicing-Strait für Nettogröße) liegen. Das ist das Reticle-Limit in eine Richtung für die kostengünstigere Ausrichtung des Dies. ;)

fondness
2017-07-02, 12:26:46
Wenn AMD 484mm² sagt, dann ist der Chip auch 484mm² groß. 484 ist die am dichtesten an 500 liegenden Quadratzahl. Das man meist mit einer Schieblehre etwas mehr misst ist ja nun wirklich nichts neues mehr, man braucht die Schieblehre nur minimal schräg halten, nicht genügend Anpressdruck erzeugen, etc. - daher sind die 512mm² von PCPER auch nicht überraschend. Die 564mm² waren es, aber die wurden ja inzwischen korrigiert.

Menace
2017-07-02, 12:27:24
Es gibt keinen Heatspreader. Keine Ahnung, was Du da siehst.


Wie bezeichnet man die graue Oberfläche? Die eigentliche DIE bzw. die eigentliche GPU ist das doch nicht, oder?

Gipsel
2017-07-02, 12:31:09
Wie bezeichnet man die graue Oberfläche? Die eigentliche DIE bzw. die eigentliche GPU ist das doch nicht, oder?
Doch, genau so sieht Silizium aus. Genauer sieht man da vier Dies. Den Interposer, die GPU und jeweils das Top-Die der beiden HBM-Stacks.

Menace
2017-07-02, 12:51:26
Doch, genau so sieht Silizium aus. Genauer sieht man da vier Dies. Den Interposer, die GPU und jeweils das Top-Die der beiden HBM-Stacks.

:eek: Mal wieder etwas von Dir gelernt. Ich stelle mich mal jetzt für eine halbe Stunde in die Ecke und schäme mich. :redface: Edit: Ich dachte, die hätten als Schutz wirklich noch etwas drauf geklebt.

Dino-Fossil
2017-07-02, 12:58:42
Mit oder ohne Sidemold? Und haben die HBM-Chips überhaupt diese Größe (die von SKHynix und Samsung sollten unterschiedlich groß sein, falls es extra ECC-Stacks gibt [es also nicht alle können], sind die auch noch mal etwas größer)?

Gemessen anhand der mittelgrauen Fläche (also ohne die etwas dunkleren Ränder).
Damit habe ich 11,8x7,8mm - das ist ca das, was hier für HBM2 von Hynix gepostet wurde (ich habe mir aber nicht die Mühe gemacht, genauer zu recherchieren).
Naja, wer weiß, vielleicht haben die hier verbauten Chips eigentlich eine leicht andere Größe.
Das Bild, anhand dessen ich meine Abschätzung gemacht habe ist in einigen Bereichen leicht defokusiert, das könnte einige Größen zusätzlich verzerren.

gedi
2017-07-02, 13:43:58
Also ich denke die FE wird in ~2 Monaten wesentlich stärker daher kommen, als es Sie jetzt tut.

Zum Einen wird es wahrscheinlich derzeit wahrscheinlich keinen WHQL-Treiber für die RX geben, so dass sich die FE derzeit noch im Kompatibilitätsmodus rumstrampeln muss. Zum Anderen denke ich, dass für die professionellen Dinge noch 10% an Performance brachliegen. Höchste Prio dürfte mit dem Treiber die Stabilität gehabt haben.

Für den Moment ist die Karte imo ein Fail, es könnte sich allerdings schon noch zu einem brauchbaren Nischenprodukt entwickeln, ähnlich der Titan-Serie seitens NV, nur dass der Fokus breiter gefächert ist.

Stullen Andi
2017-07-02, 15:58:27
Du hast nicht Verstanden das auf dem verschiebbaren Teil keine Markierung existiert, an dem die Skale abgelesen werden könnte...

Nein, Du hast nicht verstanden das die Markierung eben doch existiert. Mir ist die Diskussion auch zu flach, entweder Du kannst mit dem Teil umgehen oder nicht. Und die Messungenauigkeit zwischen dem Billigteil und einen Hightech Teil ist so gering das die in dem gemessenen Bereich mal garkeine Rolle spielt.

(del)
2017-07-02, 16:11:45
Ich sehe jedoch ein größeres Problem in der Kanibalisierung der eigenen Radeon Pro Sparte (früher FirePro). Indem man der FE quasi die teuer hergestellten Pro-Treiber freigibt, kann man eine spätere WX xxxx eigentlich komplett knicken. Genau aus diesem Grund gibt es für die Titan XP nun mal auch keine Quadro-Treiber. Nvidia ist alles mögliche, meinetwegen auch nicht durchgängig sympathisch, aber Mopedjacke ist garantiert nicht blöd.

Ich verstehe nur nicht, warum AMD damit die Radeon Pro Sparte faktisch kampflos aufgibt. Dass diese mit Verlust arbeitete, war schon zu FirePro-Zeiten kein Geheimnis. Nicht umsonst hat AMD den kompletten Ablauf bis hin zum Vetrieb wieder von Sapphire zu AMD heimgeholt (doofer Begriff, ich weiß), weil man einfach nicht glücklich mit den Ergebnissen war. Nur ist seitem auch nichts weiter passiert, was man hätte als Wende bezeichnen können.

Das ist kein Bashing, sondern eine nüchterne Feststellung, da eine Pro-Sparte extrem personalintensiv ist und man sich so etwas erst einmal leisten können muss. NV hat es da deutlich einfacher und lässt diese Arbeit den Kunden bezahlen, der das Geld auch gern ausgibt. Firmen denken da beim Preis nun mal in komplett anderen Kategorien. Alles, womit man Geld verdienen kann, kostet auch erst mal selbiges und zwar richtig. Das reicht von einer guten Schieblehre bis hin zur professionellen Grafikkarte. Warum jedoch AMD jetzt Nvidia dieses Feld fast schon kampflos überlässt, kann ich so nicht nachvollziehen. MI zähle ich nicht dazu, sondern das ist eine komplett andere Baustelle.

Die Softwareoptimierungen beziehen sich im normelen Leben doch nicht auf so einen Krempel wie SPECvieperf. Dieser Synthi ist totoptimiert, weil sich der Aufwand dafür in Grenzen hält. Aber allein alle Majors und Minors von Standrad-Programmen wie Solidworks oder Creo zu bedienen, ist extrem zeitintensiv. Dinge wie Maya & Co. sind da deutlich einfacher zu handeln, weil es kaum softwarespezifische Implementierungen gibt und man auch bei der Zertifizierung einfacher dabei ist. Nur möchte ich mich in kein Auto oder Flugzeug setzen, bei dem wegen eines albernen Fehlers in der Entwurfsphase mein Leben auf dem Spiel steht.

Nein, Du hast nicht verstanden das die Markierung eben doch existiert. Mir ist die Diskussion auch zu flach, entweder Du kannst mit dem Teil umgehen oder nicht. Und die Messungenauigkeit zwischen dem Billigteil und einen Hightech Teil ist so gering das die in dem gemessenen Bereich mal garkeine Rolle spielt.Recht haste. Jeder Gegenstand ist nur so gut, wie der, der ihn bedient ;)

Gipsel
2017-07-02, 16:16:49
Ich sehe jedoch ein größeres Problem in der Kanibalisierung der eigenen Radeon Pro Sparte (früher FirePro). Indem man der FE quasi die teuer hergestellten Pro-Treiber freigibt, kann man eine spätere WX xxxx eigentlich komplett knicken.Nicht unbedingt. AMD hat gesagt, daß die Pro-Treiber für die FE nicht offiziell zertifiziert werden. Firmen, die darauf Wert legen, werden die also nicht kaufen.

Thowe
2017-07-02, 16:20:20
Was den Messschieber angeht, kann ja jeder hier nachlesen: https://de.wikipedia.org/wiki/Messschieber und ansonsten halte ich für meinen Teil die Diskussion hier für unnötig. :) Erfahrungsgemäß kann man alle günstigen mit digitaler Anzeige auch gleich wegwerfen.


Um selbst etwas zum Thema zu sagen, für eine Grafikkarte die im professionellen Segment und nicht für Spiele ein Zuhause hat und bislang noch völlig unklar ist, in wieweit überhaupt bislang der Treiber seitens Spiele ihre tatsächlichen Möglichkeiten ausreizt, ist sie absolut okay. Für mich positioniert AMD aktuell recht geschickt den Ryzen gegen Intel und die Vega Frontier gegen die Quadros. Wie es dann mit den Vegas für uns Spieler aussehen wird, werden wir dann sehen. Ich kann mit meiner Fury bis dahin gut leben, für mich immer noch die beste Grafikkarte die ich bis heute hatte, vor allem, weil ich sie für unter 300,- Euro neu kaufen konnte.

(del)
2017-07-02, 16:25:06
Nicht unbedingt. AMD hat gesagt, daß die Pro-Treiber für die FE nicht offiziell zertifiziert werden. Firmen, die darauf Wert legen, werden die also nicht kaufen.Diesen Denkansatz halte ich für bedenklich. ;)

Warum? Bleiben wir mal bei den beiden genannten Programmen. Software wie Solidworks testet aktuell ab, ob für bestimmte Programm-Komponenten qualifizierte Treiber existieren (z.B. Renderer, Simulationen usw.). Ist dies der Fall, läuft alles wie gehabt. Andere Programme, wie Creo beispielsweise, nageln das aber immer an der Hardware-ID fest. Ich konnte zum Beispiel keine P-Quadro nutzen, solange nicht auch der passende Patch freigegeben wurde und die Leistung entprechend ausfiel. Wenn aber AMD quasi die Pro-Treiber dermaßen aufweicht und die Zertifizierung der Hardware so umgeht, dann sehe ich es kommen, dass die Premium-Softwareschmieden in Zukunft alle auf IDs setzen werden. Dann aber ist der Vorteil so einer Karte auch wieder dahin. Das verschafft nur einen Aufschub, ist aber keine Lösung. Dann hat man schnell auch nur noch Titan XP Niveau.

Was mich irritiert ist, warum AMD die Pro-Sparte jetzt kampflos fast komplett aufgibt. Ich finde das wirklich bedauerlich. Man hat ja selbst im Kleinen ab und zu NV geradezu vor sich her treiben können (z.B. Digital Signage), weil man Nischenprodukte wie eine W600 gebracht hat, die in ihrer Art wirklich einzigartig waren. Mit den lächerlichen 1000 USD für ein paar FE kann man so etwas nicht halten. Schön für den Kunden, aber schlecht fürs eigene Geschäft. Ich hätte gehofft, AMD ist da selbstbwusster und greift im Pro-Bereich mal wieder richtig ab. Die Kohle wird sichern gern gesehen sein. Den Umkehrschluss, dass man die Karte bereits selbst nicht auf einem höheren Leistungsniveau sieht, würde ich hier definitiv nicht ziehen wollen, denn im Pro-Bereich gelten andere Regeln und Gesetze. Da ist der allerletzte FPS nämlich uninteressant wie ein Kropf.

-/\-CruNcher-/\-
2017-07-02, 16:34:02
AMD sieht das selbst als deprecated und das macht auch auf Längere zeit Sinn siehe meine Ausführung.

Hier auch nochmal die Bestätigung

https://youtu.be/ZHb7fC5zUdU?t=95

Die Pros müssen halt neue Felder finden wo sie cash machen können die werden sich auch entwickeln.

Solidworks ist ja teils auch schon dabei in anderen Feldern ;) also da sollte man sich keine sorgen machen.

Wichtig ist das die sachen jetzt jederman nutzen wird und sie insgesammt ausbezahlt sind ;)

Und die Performance wird ja bei PRO immernoch höher bleiben nur nicht mehr exclusiv zudem ist sie für VR Entwickler gedacht und nicht für CAD Designer an deren Designs leben hängen.

(del)
2017-07-02, 16:37:53
Das in diesem nutzlosen Video sind keine echten Applikationen, sondern synthetischer Mist. Die alte SW13-Version ist in diesem echt limitierten kleinen Part keinerlei Maßstab, was Solidworks kann. Das betrifft auch den Rest dieser Suite. Deshalb schreibe ich auch nutzlos, weil diese Standardtests, die jeder Hinz und Kunz für seine Selbstdarstellung nutzt, schlichtweg kaputtoptimiert sind. Das hat mit Pro-Software absolut nichts zu tun.

Trotzdem hast Du sicher den Sinn meiner Ausführung nicht verstanden. Indem man diese Seite aufweicht, zieht man sich selbst ein lukratives Kissen unterm Popo weg. VR hin oder her, das ganze Geraffel will auch erst mal entworfen und hergestellt werden. Dafür brauchst Du aber komplett andere Software. Wenn AMD wirklich dreigleisig fahren will, dann hätte ich mir für diesen Pro-Sumer Part eher teiloptimierte OpenGL-Treiber vorstellen können.

Gipsel
2017-07-02, 16:41:27
Diesen Denkansatz halte ich für bedenklich. ;)

Warum? Bleiben wir mal bei den beiden genannten Programmen. Software wie Solidworks testet aktuell ab, ob für bestimmte Programm-Komponenten qualifizierte Treiber existieren (z.B. Renderer, Simulationen usw.). Ist dies der Fall, läuft alles wie gehabt. Andere Programme, wie Creo beispielsweise, nageln das aber immer an der Hardware-ID fest. Ich konnte zum Beispiel keine P-Quadro nutzen, solange nicht auch der passende Patch freigegeben wurde und die Leistung entprechend ausfiel. Wenn aber AMD quasi die Pro-Treiber dermaßen aufweicht und die Zertifizierung der Hardware so umgeht, dann sehe ich es kommen, dass die Premium-Softwareschmieden in Zukunft alle auf IDs setzen werden.Die Zertifizierung gilt wie schon mal gesagt für die Kombination aus Karte und Treiber. Es sind also immer nur bestimmte Kombinationen aus Hardware-ID und Treiberversion zertifiziert. Da muß sich gar nichts ändern. Und Zertifizierung und Performance sind auch zwei verschiedene Paar Schuhe.

-/\-CruNcher-/\-
2017-07-02, 16:46:00
Das in diesem nutzlosen Video sind keine echten Applikationen, sondern synthetischer Mist. Die alte SW13-Version ist in diesem echt limitierten kleinen Part keinerlei Maßstab, was Solidworks kann. Das betrifft auch den Rest dieser Suite. Deshalb schreibe ich auch nutzlos, weil diese Standardtests, die jeder Hinz und Kunz für seine Selbstdarstellung nutzt, schlichtweg kaputtoptimiert sind. Das hat mit Pro-Software absolut nichts zu tun.

Trotzdem hast Du sicher den Sinn meiner Ausführung nicht verstanden. Indem man diese Seite aufweicht, zieht man sich selbst ein lukratives Kissen unterm Popo weg. VR hin oder her, das ganze Geraffel will auch erst mal entworfen und hergestellt werden. Dafür brauchst Du aber komplett andere Software. Wenn AMD wirklich dreigleisig fahren will, dann hätte ich mir für diesen Pro-Sumer Part eher teiloptimierte OpenGL-Treiber vorstellen können.

For the greater good some must cry ;)

Und das das Synt shrott ist weiss ich selber dennoch trift es in der latenz zu und das kann man so nicht mehr exclusiv halten die Zeiten sind vorbei seh das ein.

dildo4u
2017-07-02, 16:47:30
Das Ziel 480 CF wurde übrigens erreicht,es gab ja bei dem ersten Teaser zur 480 ein Ashes Crossfire Vergleich zur 1080.Nur hat NV mittlerweile den DX12 Treiber gefixt.


http://abload.de/img/vega-fe-aots-4kaxukf.png

(del)
2017-07-02, 16:48:03
Die Zertifizierung gilt wie schon mal gesagt für die Kombination aus Karte und Treiber. Es sind also immer nur bestimmte Kombinationen aus Hardware-ID und Treiberversion zertifiziert. Da muß sich gar nichts ändern. Und Zertifizierung und Performance sind auch zwei verschiedene Paar Schuhe.Jain.

Wenn Autodesk früher (in den Vor-DirectX-Zeiten) z.B. einen Treiber zertifiziert hat, wurde die Kompatibilät zur Hardware automatisch von den im Treiber unterstützten Hardware-IDs abgeleitet. Genau das aber weicht AMD jetzt damit auf. Man muss in Zukunft also alle Karten einzeln zertifizieren. Das treibt den Aufwand echt nach oben. Oftmals konnte man eine Karte einer Modellreihe testen und den Rest quasi als identische Plattform mitschleppen.

gedi
2017-07-02, 16:58:32
Ähm - für was ist dann MI25 gedacht? Ich dachte immer es handelt sich hierbei um Vega-Pro?! Bei dem Kauderwelsch beider IHVs blickt ja keine Sau mehr durch :D

(del)
2017-07-02, 17:08:16
Ähm - für was ist dann MI25 gedacht? Ich dachte immer es handelt sich hierbei um Vega-Pro?! Bei dem Kauderwelsch beider IHVs blickt ja keine Sau mehr durch :D
Bei der MI25 muss Du Dir das Bild im Kopf selbst ausrechnen, die hat keine Videoausgänge. Radeon Instinct. :)

Machine Learning.... Purer Rechenknecht. Sie wie NVs Tesla-Dinger.

Gipsel
2017-07-02, 17:17:40
Jain.Ich hatte mal bei Solidworks nachgeschaut und da war es so wie von mir beschrieben. Und irgendwer hier im Forum hat ebenfalls von seinem Job berichtet, daß nicht alle lauffähigen Treiberversionen auch für eine bestimmte Software zertifiziert sind. Das klingt ziemlich nach meiner Beschreibung.
Und Karten wurden schon bisher offenbar einzeln getestet und zertifiziert. Damit eine WX5100 und eine WX7100 zertifiziert werden, müssen beide die entsprechenden Tests bestehen. Da wird wohl gar nichts aufgeweicht sondern die FE einfach nicht getestet und bekommt somit das Zertifikat nicht.

r-or
2017-07-02, 17:27:31
Vielleicht sehen sie es als Investition in die Zukunft.. GPUs bzw deren Leistung wird eh vergleichsweise schnell obsolet, da kann man schon mal ein (einmaliges) Geschenk machen, um ein paar Leute zu überzeugen. Das setzt natürlich ein "überzeugendes" Produkt voraus... Zumal die FE eh nicht in Stückzahlen verkauft wird

(del)
2017-07-02, 17:37:00
Vielleicht kommt ja irgendwann mal die Bestellung an, dann kann ich das mit der Software auch überprüfen. Bisher haben ja die wenigen Tests nur mit synthetischen Benchmarks ohne jegliche Zertifizierung gearbeitet, was komplett witzlos ist, da es nur wenig zeigt. Nur das mit Maya würde mich auch mal privat stark interessieren. :)
Nächste Woche bekomme ich mein Upgrade von SW15 auf SW17, da wäre auch mal ein Nachtest fällig.

@Gipsel:
Ich meine keine verbalen Zertifizierungen, sondern fest einprogrammierte Restriktionen, die dann beim Erscheinen neuer Hardwarezertifizierungen umgepatcht werden. Ich bekomme bei Creo und Solidworks nette Fenster angezeigt, wenn sich ungültige Treiber oder Hardware im System befindet. Je nachdem. Bei Solidworks kann ich sogar die Hardware-ID in den Treiber reinmogeln, bei Creo fehlt einfach die Performance (Fallback).

=Floi=
2017-07-02, 17:54:38
Diesen Denkansatz halte ich für bedenklich. ;)


Was mich irritiert ist, warum AMD die Pro-Sparte jetzt kampflos fast komplett aufgibt. Ich finde das wirklich bedauerlich. Man hat ja selbst im Kleinen ab und zu NV geradezu vor sich her treiben können (z.B. Digital Signage), weil man Nischenprodukte wie eine W600 gebracht hat, die in ihrer Art wirklich einzigartig waren. Mit den lächerlichen 1000 USD für ein paar FE kann man so etwas nicht halten. Schön für den Kunden, aber schlecht fürs eigene Geschäft. Ich hätte gehofft, AMD ist da selbstbwusster und greift im Pro-Bereich mal wieder richtig ab. Die Kohle wird sichern gern gesehen sein. Den Umkehrschluss, dass man die Karte bereits selbst nicht auf einem höheren Leistungsniveau sieht, würde ich hier definitiv nicht ziehen wollen, denn im Pro-Bereich gelten andere Regeln und Gesetze. Da ist der allerletzte FPS nämlich uninteressant wie ein Kropf.

NV wird vom marktanteil erheblich größer sein und mit der aktion will man eben den semi professionellen bereich und NV kundschaft gewinnen.
denke das kann schon aufgehen. das was amd verliert dürfte gegenüber nv erheblich geringer sein und man kann die treiberentwicklung auf mehr leute rechnen.

Gipsel
2017-07-02, 17:55:01
Ich meine keine verbalen Zertifizierungen, sondern fest einprogrammierte Restriktionen, die dann beim Erscheinen neuer Hardwarezertifizierungen umgepatcht werden. Ich bekomme bei Creo und Solidworks nette Fenster angezeigt, wenn sich ungültige Treiber oder Hardware im System befindet. Je nachdem. Bei Solidworks kann ich sogar die Hardware-ID in den Treiber reinmogeln, bei Creo fehlt einfach die Performance (Fallback).Sowas habe ich mir schon gedacht, weshalb ich auch darauf hinwies, daß die Performance ein anderes Paar Schuhe ist. Sicher sperren einige Softwareanbieter bestimmte (Beschleunigungs-)Funktionen ohne passenden Treiber bzw. bei Consumerhardware. Dies wird im allgemeinen z.B. mit dem Pro-Treiber erschlagen. Damit sollte es dann scheller laufen. Darüber hinaus wird aber gegebenenfalls eine Karte mit einem Treiber in einer bestimmten Anwendung intensiv auf Korrektheit und Stabilität geprüft. Erfüllt diese Kombination die entsprechenden Kriterien, gilt diese Kombination (und nur diese) als zertifiziert für den Einsatz. Unternehmen setzen in entsprechenden Bereichen nur so freigegebene Kombinationen ein. Und diese Art der Zertifizierung wird es für die FE nicht geben. Und deswegen kannibalisiert man sich auch die Pro-Linie nicht wesentlich (für die gibt es das natürlich).

gedi
2017-07-02, 18:30:06
Bei der MI25 muss Du Dir das Bild im Kopf selbst ausrechnen, die hat keine Videoausgänge. Radeon Instinct. :)

Machine Learning.... Purer Rechenknecht. Sie wie NVs Tesla-Dinger.

Ahja - danke für den Hinweis

(del)
2017-07-02, 19:10:17
@Gipsel:
Ich weiß, wie Soft- und Hardwarelizensierung funktioniert bzw. dies tun sollte, ich war lange genug in der Branche. Allerdings zeigt sich die Tendenz, dass bestimmte Hardwarehersteller darauf dringen, mehr die ID direkt in den eigenen Kompilaten zu nutzen und eben nicht nur Treiber abzuchecken. Es gibt genügend kleine "Patches" die es erlauben, auch nicht freigegebene Hardware laufen zu lassen. Kleinere Firmen neigen mitunter auch zu gewissen "Kostenoptimierungen" ;)
Mit fest einkompilierten Hardware-IDs wird eine Zertifizierung gleichzeitig auch zur restriktiven -Validierung. Mir fehlt nur aktuell die Kohle für Creo 4, da soll es noch etwas schärfer zugehen. Müsste ich aber mal verifizieren, ist nur vom Hörensagen. Wenn dies sich final durchsetzt, ist auch ein Pro-Treiber wirkungslos.

Ich erinnere immer gern an den Fall, wo NV vergessen hatte, den aktuellen Quadro-Treiber bei Dassault zu zertifizieren. Ich habe halt nur mit dem zugelassenen gearbeitet und da sah es nicht so gut aus. Die haben wirklich innerhalb von 48 Stunden eine (teure) Validierung durchgestochen, weil sie es schlicht vergessen hatten und einige Anwender damit wohl nicht ganz so zufrieden waren. Möchte nicht wissen, was das quasi Overnight gekostet hat :D

bun
2017-07-03, 00:07:04
Zertifizierte Treiber sollte man gerade im MCAD Bereich nicht überbewerten. Quasi sämtliche relevante Software in dem Bereich läuft seit mehr als 10 Jahren problemlos beschleunigt mit Consumerkarten.

Auch sind die Anforderungen im MCAD Bereich nicht so dramatisch gestiegen, wie die verfügbare Rechenleistung. Kleine bis mittlere Baugruppen stemmt heute jeder Laptop problemlos.

Natürlich gibt es Kunden mit entsprechenden Ansprüchen, die stellen im MCAD Markt aber eine kleine Nische dar.

(del)
2017-07-03, 06:56:37
@bun:
In allen sicherheitsrelevanten und Produktiv-Bereichen großer Unternehmen sind Zertifizierungen eiserne Pflicht. Das hat seinen Grund und ich meine hier nicht ein paar Architekten oder Game-Developer. Und bei den Zertifizierungen geht as auch nicht primär um die Größe von Workloads, sondern viele andere Dinge. Workstations werden nicht von Bastlern zusammengesetzt und sehr oft kommen komplette Workstations zusammen mit der Software zum Kunden. Oft werden die Systeme auch nicht gekauft, sondern geleast oder gemietet. Systemhäuser sind auch nicht vergleichbar mit dem PC-Schraubershop um die Ecke. Am Ende geht es nämlich auch um Gewährleistungsansprüche und Investitionssicherheit. Nische? Was glaubst Du, wie viele Lizenzen in der Industrie laufen und nicht bei kleinen Krautlern zu Hause. :)

pilzsammler2002
2017-07-03, 08:37:59
"Kurz" offtopic :)
Wollte das pcper review im startpost editieren.
Edit ist aber nicht mehr möglich :freak:

Dino-Fossil
2017-07-03, 10:54:16
@bun:
In allen sicherheitsrelevanten und Produktiv-Bereichen großer Unternehmen sind Zertifizierungen eiserne Pflicht. [...]Nische? Was glaubst Du, wie viele Lizenzen in der Industrie laufen und nicht bei kleinen Krautlern zu Hause. :)

Dann wundert es mich ein wenig, dass du der Meinung bist/warst, mit der FE mache sich AMD die Pro Sparte kaputt.

(del)
2017-07-03, 11:24:33
Das ist einfach erklärt:
Normalerweise gibt es die Pro-Treiber NUR zusammen mit den jeweiligen PRO-Karten. Wenn AMD das hier aufweicht, dann passiert genau DAS. Und dies ist wohl auch der Grund, warum ein Mitbewerber jetzt versucht, mehr auf Hardware-IDs zu setzen. ;)

Dino-Fossil
2017-07-03, 11:28:46
I see, dann warten wir also mal ab, inwiefern die FE mit den Zertifizierungen zusammenspielt oder nicht...

(del)
2017-07-03, 11:53:29
Lustig:
Ich bin seit Jahren mit dem dem Manager der technischen PR der Radeon Pro Sparte für EMEA befreundet und der wiederum hat versucht über das Sales-Team eine FE zu ordern. Ohne Erfolg bisher. AMD hat offensichtlich selbst gar nichts (mehr), es konnte bei Newegg auch keine FE mit genauer Terminzusage nachgeordert werden. Angeblich erst wieder Ende Q3. Die "gebrauchte" Karte aus Utah hat sich auch noch nicht konkretisiert, ich bekomme echt die Krise. :(

uweskw
2017-07-03, 12:02:13
Lustig:
Ich bin seit Jahren mit dem dem Manager der technischen PR der Radeon Pro Sparte für EMEA befreundet und der wiederum hat versucht über das Sales-Team eine FE zu ordern. Ohne Erfolg bisher. AMD hat offensichtlich selbst gar nichts (mehr), es konnte bei Newegg auch keine FE mit genauer Terminzusage nachgeordert werden. Angeblich erst wieder Ende Q3. Die "gebrauchte" Karte aus Utah hat sich auch noch nicht konkretisiert, ich bekomme echt die Krise. :(

offensichtlich gibt es massive Probleme mit den Chips. Das lässt auf ein neues Binning und konkurrenzfähige Gamerkarten hoffen.
Die Frage ist nur wann?

greetz
US

(del)
2017-07-03, 12:10:14
Interessanterweise hat man den Händlern/Distris ebenfalls Mitte/Ende Q3 für Polaris in Aussicht gestellt. Dann hört endlich mal das Gezerre um die Karten auf :)
Die OEM haben noch keine finalen Vega für die MP bekommen. Sollen aber Ende Juli eintreffen. PVT is Mitte Juli bei den meisten auf dem Schedule, könnte also ungefähr hinkommen.

Leonidas
2017-07-03, 12:20:35
Und falls für den Gamerchip tatsächlich anderes Silicon als für die FE verwendet wird werdens je vielleicht doch noch <500


Gaaanz sicher nicht. Bitte nicht auf die Hersteller-PR hereinfallen. Es *ist* ein und derselbe Chip.




"Kurz" offtopic :)
Wollte das pcper review im startpost editieren.
Edit ist aber nicht mehr möglich :freak:


Keine Ahnung, warum. Ich mach es fix.

Screemer
2017-07-03, 13:05:36
Gaaanz sicher nicht. Bitte nicht auf die Hersteller-PR hereinfallen. Es *ist* ein und derselbe Chip.

Und was macht dich da so sicher, dass es sich um einen metalspin oder gar respin handelt? Das ist nach meinem Verständnis nämlich nicht der gleiche chip.

bun
2017-07-03, 14:11:50
@bun:
In allen sicherheitsrelevanten und Produktiv-Bereichen großer Unternehmen sind Zertifizierungen eiserne Pflicht.

Definiere sicherheitsrelevant? Definiere Produktiv-Bereich?

Ist der Mittelständler mit 150 Mitarbeitern der Spezialteile für Arbeitsbühnen herstellt mit seinem MCAD in der Konstruktionsabteilung unproduktiv? Ist das nicht sicherheitsrelevant?
Natürlich sind die DIN 9001 zertifiziert, das Material hat Materialprüfstempel und die Teile haben eine TÜV Abnahme. Das heißt aber nicht das sich irgendjemand für zertifizierte Treiber interessiert. Die interessieren sich nichtmal für Workstation Grafikkarten, warum auch.

Das hat seinen Grund und ich meine hier nicht ein paar Architekten oder Game-Developer.

Was sollen die mit MCAD? Ich rede von der Maschinenbau Branche.


Und bei den Zertifizierungen geht as auch nicht primär um die Größe von Workloads, sondern viele andere Dinge. Workstations werden nicht von Bastlern zusammengesetzt und sehr oft kommen komplette Workstations zusammen mit der Software zum Kunden. Oft werden die Systeme auch nicht gekauft, sondern geleast oder gemietet. Systemhäuser sind auch nicht vergleichbar mit dem PC-Schraubershop um die Ecke. Am Ende geht es nämlich auch um Gewährleistungsansprüche und Investitionssicherheit. Nische? Was glaubst Du, wie viele Lizenzen in der Industrie laufen und nicht bei kleinen Krautlern zu Hause. :)

Du scheinst in der Branche unbedarft zu sein. Das Rückrat der deutschen Industrie ist der Mittelstand und Kleinunternehmen, im Gegensatz zu anderen Ländern sind unsere Großunternehmen nur ein recht kleiner Prozentsatz. Dementsprechend sieht es auch mit dem Verkauf von CAD Lizenzen aus, der Großteil geht eben nicht an Großunternehmen sondern an "kleine Krautler".

(del)
2017-07-03, 14:25:37
Ist der Mittelständler mit 150 Mitarbeitern der Spezialteile für Arbeitsbühnen herstellt mit seinem MCAD in der Konstruktionsabteilung unproduktiv? Ist das nicht sicherheitsrelevant?Ich würde z.B. Sachen wie eine lineare Spannungsanalyse nie auf unzertifizierter Consumer-Hardware laufen lassen. Simulationen und andere wichtige Berechnungen ohne ECC wären mir ein Graus. Und da ist es fast egal, ob nun Maschinen- oder Fahrzeugbau oder sonstwas. Sicher ist der Mittelstand die Masse, aber das sind nicht die Krautler (die ich mit "Zuhause" auch sehr stark eingegrenzt habe). Wenn Ihr es nicht braucht, freut Euch des Lebens. Ih kenne genug Firmen, die gar nicht drumrum kommen. Und mit MCAD hast Du angefangen. Als wäre dies das alleine Einsatzgebiet zertifizierter Hardware. Es ist eines von vielen :)

HOT
2017-07-03, 15:06:37
Wenn die kolpotierten 16k Produkte weg sind, wird man wohl erst mal nachproduzieren müssen. Vielleicht hat man erst im August wieder ausreichend 8GB Stacks in entsprechenden Mengen zur Verfügung. Die müssen ja auch für die Pro (SSG) herhalten. Bis dahin gibts halt nur MI25.

bun
2017-07-03, 15:20:20
Ich würde z.B. Sachen wie eine lineare Spannungsanalyse nie auf unzertifizierter Consumer-Hardware laufen lassen. Simulationen und andere wichtige Berechnungen ohne ECC wären mir ein Graus.

:rolleyes: Sowas findet beim genannten Mittelständler nicht statt. Dafür fehlt die Kompetenz. Fordert auch Niemand.

Selbst wenn, ich würde mir da weniger Sorgen um Treiber und ECC machen, da gibt es deutlich größere Baustellen:

https://media.ccc.de/v/31c3_-_6558_-_de_-_saal_g_-_201412282300_-_traue_keinem_scan_den_du_nicht_selbst_gefalscht_hast_-_david_kriesel

Und mit MCAD hast Du angefangen. Als wäre dies das alleine Einsatzgebiet zertifizierter Hardware. Es ist eines von vielen :)

Ich habe die Einschränkung MCAD von Anfang an klar genannt, weil das der Bereich ist, mit dem ich mich intim auskenne, und eine Aussage treffen kann. Ich habe nie Aussagen dazu getroffen, wie wichtig MCAD im Bereich zertifizierter Hardware ist und welche Größenordnung es einnimmt.

Allerdings gibt es viele konkurrierende und bekannte MCAD Software, die sich durchaus auch für Benchmarks gut eignen und daher auch oft herangezogen werden. Von daher könnte ein uninformierter Leser schnell den Eindruck gewinnen das zertifizierte Treiber unbedingt notwendig sind und das ohne gar nichts läuft, wenn von 6-8 in "Reviews" verwendeten Programmen 1-2 MCADs sind.

In der Realität sehe ich in dem Bereich die Nutzung von professioneller Hardware mit zertifizierte Treiber als Ausnahme an, die breite Mehrheit kommt sehr gut ohne aus. Reviewer erscheinen mir auch meist eher planlos mit der Software zu agieren.

uweskw
2017-07-03, 16:17:07
Ich würde z.B. Sachen wie eine lineare Spannungsanalyse nie auf unzertifizierter Consumer-Hardware laufen lassen. Simulationen und andere wichtige Berechnungen ohne ECC wären mir ein Graus. Und da ist es fast egal, ob nun Maschinen- oder Fahrzeugbau oder sonstwas. Sicher ist der Mittelstand die Masse, aber das sind nicht die Krautler (die ich mit "Zuhause" auch sehr stark eingegrenzt habe). Wenn Ihr es nicht braucht, freut Euch des Lebens. Ih kenne genug Firmen, die gar nicht drumrum kommen. Und mit MCAD hast Du angefangen. Als wäre dies das alleine Einsatzgebiet zertifizierter Hardware. Es ist eines von vielen :)

Wir wissen es ja alle schon lang: Du bist der einzige der wirklich Ahnung hat. Die Leute die den ganzen Tag damit arbeiten haben eh keinen Plan, weils die nur langweilt...:rolleyes:
Kannst du deine OT Rechthaberei bitte lassen?

greetz
US

Cyphermaster
2017-07-03, 16:33:39
Spekulatius bitte wieder im Spekulatius-Thread lassen, sonst gibt's irgendwann WeihnachtsForumsurlaub. Danke Jungs. ;)

dargo
2017-07-03, 20:49:32
Hatten wir eigentlich das schon?
https://www.youtube.com/watch?v=owtOiovc6zI

Die Ergebnisse in GTA V und Fallout 4 sind schon krass bei 1440p vs. 4k im Vergleich zur GTX1080 TI. Aber gut... von Vega FE auf die Gamingperformance zu schließen ist natürlich Käse.

Wake
2017-07-03, 21:32:21
Die Klimaanlage im PCPer-Studio wird ordentlich schuften müssen in naher Zukunft ;D
http://abload.de/img/dd1vy4nvyaetj-vqiugl.jpg
https://twitter.com/ryanshrout/status/881955498618224640

scully1234
2017-07-03, 21:51:57
Mit anderen Worten, Ryan will es jetzt noch "even worse" machen ,als eh schon geschehen, indem er noch Crossfire abmelkt

Hoffentlich verzeiht ihm das ein gewisses Klientel, und tut es nicht als Clickbait ab

DarknessFalls
2017-07-03, 21:55:59
Das hat wenig mit "gewissem Klientel" zu tun, das IST schlicht und einfach Clickbait. Nach allem, was wir bisher wissen, läuft Vega im "Polaris-Modus" ohne jegliche architektonischen und potenziell (möglicherweise massiv) performanceverbessernden Features überhaupt anzusprechen.

Er bedient hier einfach eine andere "gewisse Klientel", die nur drauf wartet, auf Vega einzuprügeln, bevor es einen Treiber gibt, der diese Features überhaupt ins Boot nimmt - nichtwahr? ;)

Wenn RX Vega draußen ist und tatsächlich miserabel performt, bitteschön, dann möge das Bashen beginnen. So ist es jedoch eher armselig und zeigt, wessen Geistes Kind der eine oder andere eh schon bekannte Troll hier ist.

scully1234
2017-07-03, 22:03:27
bevor es einen Treiber gibt, der diese Features überhaupt ins Boot nimmt - nichtwahr? ;)


Der Wundertreiber der es in einem Monat richten wird ,like Urban Legend, was er die letzten 9 Monate nicht geschafft hat...

Aber dein Post bestätigt nur was Ryan nun blüht ,mit der Ankündigung die Frontier nun auch noch damit testen zu wollen;)

dargo
2017-07-03, 22:10:00
Ich wiederhole mich gerne nochmal. Von Vega FE auf die Performance in Games zu schließen ist an Dämlichkeit kaum zu überbieten.

In GTA V ist die 1080TI (eine wassergekühlte laut Video?) in 1440p 17% (7% bei den min.fps) schneller als Vega FE. In 4k sind es dann plötzlich 100% (116% bei den min.fps) mehr. Bei Fallout 4 ist die 1080TI in 1440p 7% (5% bei min.fps) schneller, in 4k wiederum 67% (24% bei den min.fps). Jetzt könnte man auf die Idee kommen, dass in 1440p man stärker ins CPU-Limit kommt. Dann frage ich mich allerdings was aus dem DX11 Treiber-Overhead bei AMD geworden ist. ;)

Matrix316
2017-07-03, 22:46:17
Ich wiederhole mich gerne nochmal. Von Vega FE auf die Performance in Games zu schließen ist an Dämlichkeit kaum zu überbieten.

In GTA V ist die 1080TI (eine wassergekühlte laut Video?) in 1440p 17% (7% bei den min.fps) schneller als Vega FE. In 4k sind es dann plötzlich 100% (116% bei den min.fps) mehr. Bei Fallout 4 ist die 1080TI in 1440p 7% (5% bei min.fps) schneller, in 4k wiederum 67% (24% bei den min.fps). Jetzt könnte man auf die Idee kommen, dass in 1440p man stärker ins CPU-Limit kommt. Dann frage ich mich allerdings was aus dem DX11 Treiber-Overhead bei AMD geworden ist. ;)
Das liest sich ja fast so, als ob der Vega FE der VRAM ausgeht...

dargo
2017-07-03, 22:53:04
Das liest sich ja fast so, als ob der Vega FE der VRAM ausgeht...
Mit 16GB ganz bestimmt. :usweet:

Gipsel
2017-07-03, 22:59:00
Laßt den Fanboy-Kram bitte zu Hause!

Gipsel
2017-07-03, 23:00:29
Mit 16GB ganz bestimmt. :usweet:Läuft halt im Fury-Mode. :eek: :weg:
:freak:

dargo
2017-07-03, 23:03:55
Läuft halt im Fury-Mode. :eek: :weg:
:freak:
Auf die Idee kam ich noch gar nicht. Dann auch mit nur der halben Bandbreite? :D Letzteres erklärt aber immer noch nicht den deutlichen fps Anstieg in GTA V und Fallout 4 bei 1440p.

DarknessFalls
2017-07-03, 23:09:19
@dargo: Da wird der Treiber einfach fürchterlich komisches Zeug machen. Ich finde es wirklich schwierig, von der FE auf die RX zu schließen, weder was Performance nach "oben" oder nach "unten" angeht.

Das Einzige, was IMHO einigermaßen zu beurteilen ist, sind die nackten technischen Daten - und das leider ohne die zusätzlichen Features. IMHO käme schon ein Polaris auf 1600MHz an die 1080 ran, ein Polaris mit 4096 Shadern müsste deutlich drüber rauskommen. Das ist mMn der Mindestansatz für Vega, dann kommt hinzu, was die zusätzlichen Features heraushauen. Und das ist die Unbekannte.

Matrix316
2017-07-03, 23:09:22
Ach so, nur die normale Vega wird ab 8 GB losgehen. Das liest sich trotzdem so, als ob einfach der Speicher ausgeht. Normalerweise gibt's zwischen verschiedenen Auflösungen nicht so drastische Unterschiede, oder? (wenn nicht gerade der Speicher ausgeht...)

Aber das ist ja schon fast wie beim Ryzen. In Anwendungen super, in Games naja, obwohl die Rohleistung eigentlich für mehr reichen sollte. Die Titan XP ist ja auch nicht unbedingt eine reine Anwenderkarte schon schon von Nvidia für (Extrem reiche) Gamer ausgelegt. Ist ja keine Quadro oder so.

Angiesan
2017-07-03, 23:10:09
AMD lernt es einfach nicht mehr, es ist eine Schande was aus meiner ehemaligen Lieblings-GPU-Schmiede geworden ist!!!

Wie sich die Performance der RX auch immer präsentieren wird, mit der FE haben sie mal wieder alles falsch gemacht was man falsch machen kann:freak:
Ob es nun wirklich die Treiber sind die noch nicht das volle Potential entfalten können, oder ob es an was anderem (Beta-Bios) liegt ist aktuell sicherlich schwer zu beurteilen. Fakt ist aber, das der Performance-Gewinn schon heftig sein muss um überhaupt noch eine reale Absatzchance bei der RX zu erzeugen.
Wie, wenn auch aktuell noch nicht überzeugende Ingenieur-Leistung, durch ein an Stümperhaftigkeit kaum zu überbietendes Marketing verramscht wird grenzt meiner Meinung nach schon an Sabotage.
Vielleicht wäre es klüger gewesen eventuell anstehende Vertragsstrafen in Kauf zu nehmen dafür aber nicht ein halbfertiges Produkt auf den Markt zuwerfen, das natürlich genüsslich von der einschlägigen Presse (zu Recht) zerpflückt wird.

Ebenso kann man sich selbst als Laie heute die Performance der kommenden NV GPU´s ausrechnen und Entsprechendes in das eigenen Lastenheft als Ziel aufnehmen.
Statt dessen, versucht AMD mit überzogenen Andeutungen ihre eigenen Neuentwicklungen schönzureden nur um dann, wiederholt der gesamtem Fan-Community eine volle Breitseite der En(d)ttäuschung zu verpassen :P

Ich bin mittlerweile nicht mehr gewillt den Aussagen: Das und dies funktioniert noch nicht, aber das wird schon ..... und den Wundertreiber....natürlich den dürfen wir nicht vergessen, der kommt bestimmt genau wie bei den Generationen davor :mad:

AMD hat meiner Meinung nach heute weder die nötigen Ressourcen noch das nötige Know How um mit NV Schritt zu halten, sie versuchen es mit der Brechstange und müssen dafür die entsprechenden Nachteile in Kauf nehmen.
Hinzu kommt das desaströse Strategische-Marketing, welches weder in der Vergangenheit noch heute ein Fettnäpfchen auslassen will oder kann.
Wie ist es anders zu erklären eine Neuvorstellung einer Grafikkarte, die technisch so nahe an dem kommenden Flaggschiff ist, dem Zufall zu überlassen.
Man verteilt keine Review-Anweisungen noch Testmuster erklärt nicht die aktuelle Leistungsschwäche und lässt den Spekulationen freien Lauf.
Selbst wenn man das vielleicht wieder mal unterschätzt hätte, kein Kommentar, keine Aufklärung oder Richtigstellung zu den nun überall auftauchenden Tests, was soll man davon halten.

Ich habe mich entschieden zu glauben, man sieht heute schon die Leistung die wir auch bei RX sehen werden, nur einen etwas höheren Takt und damit noch mehr Stromverbrauch, noch schwieriger zu kühlen bei leicht gestiegener Performance. Vielleicht greift man wieder zu Wasser um der Hitze Herr zu werden, hoffentlich funktioniert dann aber die Qualitätskontrolle ;-)

Man wird sich mit der 1080 battlen und wieder massiv an der Preisschraube drehen müssen, NV kann dies sicherlich gelassen sehen, die 1080 und ihre Ableger haben ihre R+D Kosten sicherlich eingebracht.
Aufgrund der größeren Erfahrung und des zeitlichen Vorsprungs in der Produktion der damit zusammenhängenden besseren Ausbeute an funktionierenden Chips....... NV hält alle Trümpfe mal wieder in der Hand und AMD schaut erneut, wie die Schulbuben zu, wie ein anderer das Pausenbrot verschlingt...... gut man bietet es trotz riesigem Hunger ja auch freizügig an.:freak:

dildo4u
2017-07-03, 23:12:04
Auf die Idee kam ich noch gar nicht. Dann auch mit nur der halben Bandbreite? :D Letzteres erklärt aber immer noch nicht den deutlichen fps Anstieg in GTA V und Fallout 4 bei 1440p.
PCper hat doch GTA5 und Fallout 4 in 1440 gebencht,die Unterschiede waren massiv.

https://www.pcper.com/image/view/83261?return=node%2F68031

https://www.pcper.com/image/view/83281?return=node%2F68032

Wobei GTA5 immer noch ordentlich Limitiert ist,1080=1080Ti.

DarknessFalls
2017-07-03, 23:14:18
Die Performanceeinschätzung macht keinen Sinn, @Angiesan. Mal fiktiv: Verdopple einen Polaris 10, flansche HBM an und schieße ihn auf 1600MHz. Schon so sollte man OBERHALB von 1080Ti rauskommen können.

In Anbetracht dessen erscheint eine Leistung von RX Vega auf Augenhöhe mit der "normalen" 1080 unwahrscheinlich.

Natürlich - ausschließen will ich nix, aber wenn AMD das SO vergeigt, müssen sie sich fragen, warum sie eben nicht einfach Polaris verdoppelt haben. Nicht? ;)

dargo
2017-07-03, 23:18:30
@dargo: Da wird der Treiber einfach fürchterlich komisches Zeug machen. Ich finde es wirklich schwierig, von der FE auf die RX zu schließen, weder was Performance nach "oben" oder nach "unten" angeht.

Mir brauchst du das nicht sagen, ich weiß es. Ich sag nur Ryzens Spieleschwäche. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11402142&postcount=6422

Ähnliches erwarte ich bei RX Vega in den Games wo Vega FE aktuell verhältnismäßig gegenüber 1080TI stark einbricht. Wie so oft wird Software völlig unterschätzt. Bei DX11 Games ist es der Treiber (mit eventuell noch deaktivierten Features). Bei DX12/Vulkan höchstwahrscheinlich die Applikation. Beim letzteren bin ich eh sehr gespannt wie RX Vega ohne einen Spielepatch performen wird. Läuft die Karte dann im sogenannten Fallback-Modus auf "Sparflamme" oder nicht?

-/\-CruNcher-/\-
2017-07-03, 23:38:18
:rolleyes: Sowas findet beim genannten Mittelständler nicht statt. Dafür fehlt die Kompetenz. Fordert auch Niemand.

Selbst wenn, ich würde mir da weniger Sorgen um Treiber und ECC machen, da gibt es deutlich größere Baustellen:

https://media.ccc.de/v/31c3_-_6558_-_de_-_saal_g_-_201412282300_-_traue_keinem_scan_den_du_nicht_selbst_gefalscht_hast_-_david_kriesel



Ich habe die Einschränkung MCAD von Anfang an klar genannt, weil das der Bereich ist, mit dem ich mich intim auskenne, und eine Aussage treffen kann. Ich habe nie Aussagen dazu getroffen, wie wichtig MCAD im Bereich zertifizierter Hardware ist und welche Größenordnung es einnimmt.

Allerdings gibt es viele konkurrierende und bekannte MCAD Software, die sich durchaus auch für Benchmarks gut eignet und daher auch oft herangezogen wird. Von daher könnte ein uninformierter Leser schnell den Eindruck gewinnen das zertifizierte Treiber unbedingt notwendig sind und das ohne gar nichts läuft, wenn von 6-8 in "Reviews" verwendeten Programmen 1-2 MCADs sind.

In der Realität sehe ich in dem Bereich die Nutzung von professioneller Hardware mit zertifizierte Treiber als Ausnahme an, die breite Mehrheit kommt sehr gut ohne aus. Reviewer erscheinen mir auch meist eher planlos mit der Software zu agieren.


Nice herr kriesel mich wundert es immernoch wie DSR das handelt hehe 6 wird zu 8 ist da garnicht so abwegig 3 zu 5 ist auch witzig ist aber auch Display out Pixelbedingt ;)

Aber naja Nvidia ist ja auf dem Weg DSR enorm zu verbessern Neuro Net sei dank ;)

Angiesan
2017-07-03, 23:38:46
Die Performanceeinschätzung macht keinen Sinn, @Angiesan. Mal fiktiv: Verdopple einen Polaris 10, flansche HBM an und schieße ihn auf 1600MHz. Schon so sollte man OBERHALB von 1080Ti rauskommen können.

In Anbetracht dessen erscheint eine Leistung von RX Vega auf Augenhöhe mit der "normalen" 1080 unwahrscheinlich.

Natürlich - ausschließen will ich nix, aber wenn AMD das SO vergeigt, müssen sie sich fragen, warum sie eben nicht einfach Polaris verdoppelt haben. Nicht? ;)
Das sehe ich ganz anders, schon in der Vergangenheit ist es AMD nicht gelungen sich mit ihrem Top Dog von den Pro Modellen aus eigenem Hause abzusetzen. AMD hat seit Jahren ein massives Skalierungsproblem das sie bis heute nicht in den Griff bekommen haben.
Wenn ich mir dann noch das Rating bei z.B. Computerbase anschaue wo eine 1080TI mal glatt doppel so schnell ist wie eine RX 580 könnte das schon hinkommen mit der 1080+ oder OC Modellen der 1080 als Gegner.

Monsta
2017-07-04, 08:55:41
Ich bin auch enttäuscht.
Ich möchte meine 970er gerne in Rente schicken.
Sie erkennt sporadisch meine 4K Monitore nicht. Mehr als nervig.
Wollte eigentlich Nvidia den Rücken kehren.
Aber was Amd da abliefert ist ja grausam. Ich habe vor fast 3 Jahren ca. 350Euro für die Karte bezahlt.
Jetzt komme ich für das selbe Geld kaum mehr Leistung.
1060 und 580 sind ja mehr sidegrade :/

Matrix316
2017-07-04, 10:08:08
Die Performanceeinschätzung macht keinen Sinn, @Angiesan. Mal fiktiv: Verdopple einen Polaris 10, flansche HBM an und schieße ihn auf 1600MHz. Schon so sollte man OBERHALB von 1080Ti rauskommen können.

In Anbetracht dessen erscheint eine Leistung von RX Vega auf Augenhöhe mit der "normalen" 1080 unwahrscheinlich.

Natürlich - ausschließen will ich nix, aber wenn AMD das SO vergeigt, müssen sie sich fragen, warum sie eben nicht einfach Polaris verdoppelt haben. Nicht? ;)

Gabs sowas nicht schon so ähnlich? Nämlich die Fury X2:
https://www.heise.de/newsticker/meldung/AMDs-VR-Geschoss-Dual-GPU-Grafikkarte-Radeon-R9-Fury-X2-mit-zwei-Fiji-Prozessoren-3083514.html

Das dämliche ist ja, wir warten alle wie gut Vega wird und gleichzeitig wird größte Alternative, die 1080TI immer teurer. Was ist denn hier nicht los? Liegt das auch an dem Mining Hype? Vor ein paar Wochen gabs eine MSI Gaming noch für 750 und jetzt fängt die bei 780 an. Gigabytes Auros war gestern abend nur über 800 lieferbar.

Palpatin
2017-07-04, 10:35:39
Die Performanceeinschätzung macht keinen Sinn, @Angiesan. Mal fiktiv: Verdopple einen Polaris 10, flansche HBM an und schieße ihn auf 1600MHz. Schon so sollte man OBERHALB von 1080Ti rauskommen können.

In Anbetracht dessen erscheint eine Leistung von RX Vega auf Augenhöhe mit der "normalen" 1080 unwahrscheinlich.

Natürlich - ausschließen will ich nix, aber wenn AMD das SO vergeigt, müssen sie sich fragen, warum sie eben nicht einfach Polaris verdoppelt haben. Nicht? ;)
RX 580 hat 256 GB/s Bandbreite welche in vielen Spielen limitiert. RX VEGA hat weniger als doppelt soviel Bandbreite. Ergo nein ein doppelter Polaris @ 1,6 GHZ würde bei der HBM 2 Anbindung von VEGA RX nicht Oberhalb der 1080TI rauskommen sondern oft gerade so mit der 1080 mithalten können.

Fragman
2017-07-04, 10:45:14
AMD lernt es einfach nicht mehr, es ist eine Schande was aus meiner ehemaligen Lieblings-GPU-Schmiede geworden ist!!!

Wie sich die Performance der RX auch immer präsentieren wird, mit der FE ...

dem kann man nur zustimmen. die fe ist aktuell nunmal wie sie ist und laut amd ist das eine vega karte. also zieht jeder seine schluesse aus den benchmarks und die sind leider vernichtend. egal ob feature deaktiviert sind oder nicht. der gaming mode im treiber hilft ja auch nicht gerade den optimismus bezueglich gaming vega zu foerdern.

und obendrauf das schweigen von amd. das mag man anfangs noch verstanden haben, aber gerade wird die gamingperformance der fe im netz zerpflueckt und was macht amd? nichts, kein statement, keine bench leaks, nichts.

die hoffnung stirbt zuletzt, eben weil wohl features nicht genutzt werden und die theoretische rechenleistung aufgrund der architektur viel zu niedrig ist.

aber das man nichts hoert von amd und das sie wohl wirklich noch 4 weitere wochen schweigen wollen, laesst nichts gutes erahnen. selbst wenn sie ne bombe platzen lassen, das wirkt dann im nachhinein nur noch komischer, denn dann haben sie ihre kunden richtig getrollt. bin nicht sicher ob das gut ankommen wuerde.

Gipsel
2017-07-04, 11:39:04
Der Modtext (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11420618#post11420618) war ernst gemeint!

uweskw
2017-07-04, 20:58:10
Wie wahrscheinlich ist es, dass Vega mit dem richtigen Treibersupport beim Mining gewaltig reinhaut?
Dann könnten die Vega-Chips für AMD richtig Geld verdienen. Das würde dazu passen, dass AMD ja offensichtlich alles dafür unternimmt möglichst wenig Vega zu verkaufen.

greetz
US

BlackArchon
2017-07-04, 21:11:51
Ich würde es ehrlich gesagt eher bevorzugen, wenn AMD eine OpenCL-Bremse bei den Gamer-Grafikkarten implementiert. Nur die spezellen Mining-Karten sollte dort ihre volle Power ausspielen dürfen. Dies hätte auch gleich den Vorteil, dass die Miner nicht mehr den Gamern ihre Karten wegkaufen. Im aktuellen Zustand wäre doch ein Miner blöd, sich diese speziellen Miner-Karten zu kaufen, die keine Display-Ausgänge besitzen. Wie soll er die denn wieder verkaufen, wenn die aktuelle Mining-Blase geplatzt ist? Hat er hingegen Gamer-Karten zum Minen benutzt, kann er die auch wieder an Gamer weiterverkaufen.

Bestimmt wird aber AMD nicht diesen Schritt gehen - gerade mit Vega würde sich doch aber sowas anbieten. Die Frontier Edition (professionelle Variante) bekommt volle OpenCL-Power, während die Gamer-Variante RX Vega meinetwegen bei 50% OpenCL-Leistung abgeriegelt wird.

(del)
2017-07-04, 21:27:56
Die Frontier Edition (professionelle Variante) bekommt volle OpenCL-Power, während die Gamer-Variante RX Vega meinetwegen bei 50% OpenCL-Leistung abgeriegelt wird.
Au weia das wäre aber richtig gemein.
Es gibt ja schließlich noch andere Anwendungen die OpenCL benötigen wie z.b Seti@home und viele andere BOINC Projekte.
Sollen die Leute dann darunter leiden die an solchen Projekten teilnehmen?
Im Gegensatz zu den Minern die Geld an ihrer Karte verdienen spenden BOINC Teilnehmner ja Rechenzeit/Strom und sollen dann auch noch mehr für ihre Karte zahlen?

-/\-CruNcher-/\-
2017-07-04, 21:35:44
Ich würde es ehrlich gesagt eher bevorzugen, wenn AMD eine OpenCL-Bremse bei den Gamer-Grafikkarten implementiert. Nur die spezellen Mining-Karten sollte dort ihre volle Power ausspielen dürfen. Dies hätte auch gleich den Vorteil, dass die Miner nicht mehr den Gamern ihre Karten wegkaufen. Im aktuellen Zustand wäre doch ein Miner blöd, sich diese speziellen Miner-Karten zu kaufen, die keine Display-Ausgänge besitzen. Wie soll er die denn wieder verkaufen, wenn die aktuelle Mining-Blase geplatzt ist? Hat er hingegen Gamer-Karten zum Minen benutzt, kann er die auch wieder an Gamer weiterverkaufen.

Bestimmt wird aber AMD nicht diesen Schritt gehen - gerade mit Vega würde sich doch aber sowas anbieten. Die Frontier Edition (professionelle Variante) bekommt volle OpenCL-Power, während die Gamer-Variante RX Vega meinetwegen bei 50% OpenCL-Leistung abgeriegelt wird.

Wie soll das dann bitteschön mit Games mit Compute Workload funktionieren du brauchst schon irgend eine Balance.

Dann müsste man wieder explizite locks entwickeln die eine Zuweisung für bestimmte Workloads sperren oder verlangsamen, toller käse.

Und wenn die Miner merken würden moment wir können das umgehen wir basteln einfach ein schönes 3D Interface drumherum dann werden die das auch null komma nix machen und du würdest viele schöne neue Miner Interfaces sehen.

Da müsst dann eine art Traffic Shaping system ran das zudem über eine art IDS verfügt und bestimmen kann was ein Miner Workload ist und das dann nach kurzer Zeit throttled.

Zumal ein teil der Miner sind Crypto Cracks wenn du die verärgerst da reisen die dir irgendwann alle sicherheitschranken des treibers ausseinander, solche drakonischen masnahmen sollte man deshalb gut überlegen das könnte durchaus eskalieren.

Vor allem geht es hier ja um GELD sehr viel GELD.

Menace
2017-07-04, 21:37:47
Ich würde es ehrlich gesagt eher bevorzugen, wenn AMD eine OpenCL-Bremse bei den Gamer-Grafikkarten implementiert.

Ein Vorteil gegenüber nvidia aufgeben? Hätten wohl viele hier gerne. :P

Ich nutze fast täglich OpenCl alleine für meine RAW-Bearbeitung und Konvertierung. Das manche einfach nicht über ihren Spielhorizont hinaus sich andere, alltägliche Nutzungsmöglichkeiten einer Grafikkarte vorstellen können...

Gipsel
2017-07-04, 21:54:40
Wie wahrscheinlich ist es, dass Vega mit dem richtigen Treibersupport beim Mining gewaltig reinhaut?Verbesserungen am Shadercompiler könnten da noch ein wenig bringen. Und natürlich, wenn jemand das auf Assemblerebene handoptimiert. Ansonsten würde ich mir nicht zu viel erwarten. Die Spieleleistung soll ja eigentlich stärker steigen als die Rechenleistung. Die ganzen neuen Features bringen für Compute erstmal nicht so viel.

Birdman
2017-07-04, 22:01:35
Wie wahrscheinlich ist es, dass Vega mit dem richtigen Treibersupport beim Mining gewaltig reinhaut?
Null, nicht vorhanden.
Möglich dass man die schnellste single GPU Mining Karte auf die Beine stellen wird, aber der Stromverbrauch und der Preis deuten in Richtung vom doppelten einer Polaris Karte.
Letzteres wird daher immer effektiver sein.

uweskw
2017-07-04, 22:28:45
Null, nicht vorhanden.
Möglich dass man die schnellste single GPU Mining Karte auf die Beine stellen wird, aber der Stromverbrauch und der Preis deuten in Richtung vom doppelten einer Polaris Karte.
Letzteres wird daher immer effektiver sein.

Gut! So können wir wenigstens auf verfügbare Vega-Karten für uns Zocker hoffen.
Nur verstehe ich dann AMD nicht. Die tun wirklich alles um möglichst wenig Vega-Karten zu verkaufen.

greetz
US

TheGood
2017-07-04, 22:43:34
Die Politik von AMD ist gerade sehr komisch. Man kann nur hoffen dass Sie die VEGA tatsächlich noch aus dem Käfig lassen und dann eine gute Performance abliefern, ggf. sogar über der Titan. Aber ehrlich gesagt glaube ich da nicht dran.

Andererseits kann es aber auch gar nicht sein, dass die Karten so langsam ist wie jetzt. DAs passt mit den Daten einfach nicht zusammen und AMD hat das ja schon vor 6 Monaten gewusst. DAs ergibt genausowenig Sinn. Da würde dann keiner hinstehen, wie geschehen, und sagen, wir liefern 4K Gaming bei 60 Herz.

Von daher kann die einzig logische Schlussfolgerung nur sein, dass das einfach nicht die Treiber des aktuellen Standes sind und somit die Leistungsfähigkeit der Grafikkarte nicht wiederspiegeln... Was auch dafür spricht ist dass die Doom Werte sich seit Januar nicht geändert haben.

yamamoto_dc
2017-07-05, 00:02:18
Der Mining-Hype geht sowieso bald zuende. Die Hash-Difficulty hat sich seit einem Monat knapp verdoppelt, Trend unverändert. Ich habe jedenfall heute meine Mining-Aktivitäten wieder eingestellt, weil es sich bei deutschen Stromkosten kaum noch lohnt. Bald wird es zumindest in den Industrieländern wieder genug Karten für Gamer zu kaufen geben.

Bezüglich Vega: Wenn die Gaming-Vega tatsächlich die Bombe werden sollte, dann ist der Jubel plötzlich groß und AMD hat alles richtig gemacht. Das Heulen und Zähneklappern, was hier derzeit abgeht, ist dann schnell vergessen.

Leonidas
2017-07-05, 07:49:37
Und was macht dich da so sicher, dass es sich um einen metalspin oder gar respin handelt? Das ist nach meinem Verständnis nämlich nicht der gleiche chip.


Zwei Ausführungen desselben Chips, aber weiterhin (im übergeordneten Sinn) derselbe Chip. Merkt man auch daran, das das neue Stepping das alte ersetzt, nicht beide nebeneinander produziert werden.




Frage: Bei Reddit (https://www.reddit.com/r/Amd/comments/6l59tp/apples_to_apples_fury_x_vs_vega_fe_at_same_clock/djr9t06/) behauptet jemand, das Vega FE derzeit nur 4 poly/clock lt. AMD-Webseite erreicht - und es eigentlich 11 poly/clock sein müssten. Kann aber sein, das dies von der Idee her generell nicht passt. Was denkt ihr?

AffenJack
2017-07-05, 08:11:09
Frage: Bei Reddit (https://www.reddit.com/r/Amd/comments/6l59tp/apples_to_apples_fury_x_vs_vega_fe_at_same_clock/djr9t06/) behauptet jemand, das Vega FE derzeit nur 4 poly/clock lt. AMD-Webseite erreicht - und es eigentlich 11 poly/clock sein müssten. Kann aber sein, das dies von der Idee her generell nicht passt. Was denkt ihr?

Guck mal in den Spekuthread. Die Tessmark Werte bei x64 zeigen viel bessere Werte als die Fury. Mit 4poly/clk würde man sich nicht so stark absetzen da.

pixeljetstream
2017-07-05, 09:15:50
AMD gibt 4 tris/clk selbst als peak für die FE an
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/

Peak Engine Clock (MHz)
1600
Peak Triangle/s (BT/s)
6.4

Die 11 tris/clk die sie auch nennen beziehen sich imo auf die Fähigkeit Dreiecke zu verwerfen bevor sie den Rasterizer erreichen.

Mit Polaris hat AMD ebenfalls beworben die Tessallierung schon verbessert zu haben, vermutlich können sie nun auch die evaluation der post tessallierten Dreiecke über den chip verteilen, und müssen sie nicht da abarbeiten wo das Ursprungspatch herkam. Dieses skalierende System hat NVIDIA seit Fermi.

Matrix316
2017-07-05, 09:40:05
Der Mining-Hype geht sowieso bald zuende. Die Hash-Difficulty hat sich seit einem Monat knapp verdoppelt, Trend unverändert. Ich habe jedenfall heute meine Mining-Aktivitäten wieder eingestellt, weil es sich bei deutschen Stromkosten kaum noch lohnt. Bald wird es zumindest in den Industrieländern wieder genug Karten für Gamer zu kaufen geben.

Bezüglich Vega: Wenn die Gaming-Vega tatsächlich die Bombe werden sollte, dann ist der Jubel plötzlich groß und AMD hat alles richtig gemacht. Das Heulen und Zähneklappern, was hier derzeit abgeht, ist dann schnell vergessen.
Aber dann versteh ich nicht, warum man die FE künstlich langsam hält. Oder hat man angst, dass Gamer die FE kaufen und dann keine Gamer Vega mehr? Kann doch denen egal sein wie die Karte heißt auf dem die gleiche HW verbaut ist...

Zergra
2017-07-05, 11:51:11
Aber dann versteh ich nicht, warum man die FE künstlich langsam hält. Oder hat man angst, dass Gamer die FE kaufen und dann keine Gamer Vega mehr? Kann doch denen egal sein wie die Karte heißt auf dem die gleiche HW verbaut ist...
Weil der Treiber nicht fertig ist und mehr Probleme macht als nutzen ?

HOT
2017-07-05, 11:51:22
Kein TBR, deutlich weniger HSR und Culling, hab ich doch richtig verstanden, oder? Zudem ist die Cache-Architektur auf TBR, nicht auf klassischen IMR-Betrieb optimiert. Da er als reiner IMR aber läuft, ist das eben mit Handbremse.
Da ist nichts künstlich gedrosselt, er funktioniert halt nicht mit dem aktuellen Befehlssatz, sondern nur in einer Art Kompatiblitätsmodus, das ist alles.

Wenn AMD das in den Griff kriegt, ist die Performance überhaupt nicht abschätzbar. Das kann 30% mehr bringen, oder eben bis zu 80%, je nach Anwendungsbereich. Wenn das Teil fehlerhaft ist und weiter dauerhaft im Kompatiblitätsmodus läuft, kann AMD da noch ein paar Sachen optimieren, die Leistung würde aber weiterhin unterirdisch bleiben.

Grendizer
2017-07-05, 12:07:06
...

Bezüglich Vega: Wenn die Gaming-Vega tatsächlich die Bombe werden sollte, dann ist der Jubel plötzlich groß und AMD hat alles richtig gemacht. Das Heulen und Zähneklappern, was hier derzeit abgeht, ist dann schnell vergessen.


Naja... man hat nVidias 1070, 1080, 1080 Ti und Titan jetzt über 1 Jahr keine Chip entgegen gesetzt, alles andere wie Bombe ist eine Enttäuschung. Wenn man solange braucht um einen gleichwertigen Chip ins Rennen zu schicken, dann ist das nur ein Fail.

Dino-Fossil
2017-07-05, 12:21:34
Sollte Vega beim RX Launch mit funktionierendem TBR laufen, könnte die Karte eine brauchbare High-End Alternative werden. Das man die 1080Ti schlagen wird bezweifle ich zwar, aber das ist mMn auch nicht unbedingt nötig. Man sollte bei ca 300W Leistungsaufnahme allerdings zumindest in die Nähe kommen.

Eine Katastrophe wäre es allerdings, sollte die RX sich ähnlich verhalten wie die FE (plus evtl. ein paar wenige % durch bisher nicht vorhandene Spieleoptimierungen).
Nicht, dass ein alternatives Angebot zur 1070 und 1080 nicht auch wünschenswert wäre - aber dafür erscheint mir Vega zu groß angelegt.

dildo4u
2017-07-05, 12:48:31
Ich hab immer noch keine Plan wie ein Treiber den Verbrauch senken soll,die Karte braucht nicht wirklich 300 sie will deutlich mehr.

https://www.pcper.com/image/view/83421?return=node%2F68029

Selbst mit 20% mehr Saft hält sie keine 1.6Ghz.

aufkrawall
2017-07-05, 12:54:25
Das sieht wirklich übel aus, dagegen war ja Fiji harmlos. Auch wenn die Architektur nun Tess gut wegsteckt, dürfte es weiterhin die Auslastung in der GPU und damit den Verbrauch senken (tut es bei NV auch).
In Powervirus-Spielen wie Trine 2 oder Serious Sam Fusion mit SSAA dürfte das Teil kräftig drosseln.

fondness
2017-07-05, 14:05:11
Es sind noch nicht alle Stromsparfeatures aktiv, also mal sehen. Wunder würde ich allerdings auch keine mehr erwarten.

Ich hab immer noch keine Plan wie ein Treiber den Verbrauch senken soll,die Karte braucht nicht wirklich 300 sie will deutlich mehr.


Wo genau siehst du das die Karte mehr wie 300W benötigt? Ganz im Gegenteil, alle bisherigen Messungen zeigen, dass die Karten teils deutlich unter 300W drosselt, also häufig nicht die Leistungsaufnahme sondern was anderes limitiert.

Daredevil
2017-07-05, 14:10:25
Wer sagt eigentlich, dass bei den Consumer Produkten auch 16GB mit an Bord sind?
Die hälfte würde doch auch eine Ecke weniger Saft ziehen und weniger heizen > Sparsamer und damit potentiell höher taktbarer?

dildo4u
2017-07-05, 15:24:35
Wo genau siehst du das die Karte mehr wie 300W benötigt? Ganz im Gegenteil, alle bisherigen Messungen zeigen, dass die Karten teils deutlich unter 300W drosselt, also häufig nicht die Leistungsaufnahme sondern was anderes limitiert.
Sie braucht über 300 wenn sie 1.6Ghz halten will,das eingestellte TDP drückt den Takt unter 1.3Ghz.

https://youtu.be/eSjllaOFYrU?t=19m29s

Also selbst wenn der Treiber gefixt wird fehlt der Takt.

iuno
2017-07-05, 15:34:40
Wer sagt eigentlich, dass bei den Consumer Produkten auch 16GB mit an Bord sind?
Die hälfte würde doch auch eine Ecke weniger Saft ziehen und weniger heizen > Sparsamer und damit potentiell höher taktbarer?
Die "normale" RX kommt sicherlich mit 8 GiB, ueber eine 16 GiB Variante soll man aber nachdenken (Raja im AMA). Am Verbraucht macht es fast nix aus, voellig vernachlaessigbar

Matrix316
2017-07-05, 15:52:40
Die "normale" RX kommt sicherlich mit 8 GiB, ueber eine 16 GiB Variante soll man aber nachdenken (Raja im AMA). Am Verbraucht macht es fast nix aus, voellig vernachlaessigbar
Das mit den 8 GB ist halt der Nachteil von diesem Stacked HBM Speicher, oder? Man kann halt nur 2,4,8,16 oder 32 GB draufpacken. Nvidia nimmt halt 11 und hat da schon wieder einen Vorteil bei der 1080TI.

Eigentlich hätte die Fury schon 8 haben müssen und die neue 16 für alle.

Warum hat man eigentlich keine 480X2 oder 580X2 gemacht für die Zeit bis Vega ausgereift ist? Ging ja früher auch mit der 3870 und 4870 bis die 5870 fertig war.

maximus_hertus
2017-07-05, 16:05:51
Warum hat man eigentlich keine 480X2 oder 580X2 gemacht für die Zeit bis Vega ausgereift ist? Ging ja früher auch mit der 3870 und 4870 bis die 5870 fertig war.

Gibt es doch: Radeon Pro Duo (2017). Da sind 2 Polaris 10 Chips drauf.

Gipsel
2017-07-05, 16:51:07
Ich hab immer noch keine Plan wie ein Treiber den Verbrauch senken soll,die Karte braucht nicht wirklich 300 sie will deutlich mehr.Wenn Arbeit effizienter erledigt wird (TBR ordnet die Bearbeitung so um, daß sie mit weniger externen Datentransfers auskommt, was Strom spart [Datenbewegungen kosten relativ viel Strom, nicht nur Berechnungen], HSR spart auch Berechnungen), steigt logischerweise Performance/Watt. Entweder wird sie deutlich schneller, deutlich sparsamer oder ein wenig schneller und ein wenig sparsamer.
Wieviel genau jeweils "deutlich "und "wenig" sein werden und was überhaupt passiert, wird man sehen müssen.

Außerdem kam doch hier auch eine Meldung, daß angeblich noch gar nicht alle Stromsparfeatures aktiv sind. Das könnte den Stromverbrauch auch noch etwas drosseln (je nach dem welche Features das betrifft, nicht nur im idle).

Matrix316
2017-07-05, 17:44:44
Gibt es doch: Radeon Pro Duo (2017). Da sind 2 Polaris 10 Chips drauf.
Das ist doch Fury X2 und nicht 480 / 580 X2.

Dino-Fossil
2017-07-05, 17:59:19
Es gibt (oder wurde zumindest vor einer Weile angekündigt) auch eine Radeon Pro Duo auf Basis von Polaris.

bun
2017-07-05, 17:59:23
Das mit den 8 GB ist halt der Nachteil von diesem Stacked HBM Speicher, oder? Man kann halt nur 2,4,8,16 oder 32 GB draufpacken. Nvidia nimmt halt 11 und hat da schon wieder einen Vorteil bei der 1080TI.

Eigentlich hätte die Fury schon 8 haben müssen und die neue 16 für alle.


https://www.techpowerup.com/231093/amd-vega-high-bandwidth-cache-controller-improves-minimum-and-average-fps

https://www.youtube.com/watch?v=zAIM-EGYa14

nordic_pegasus
2017-07-05, 17:59:26
Vega FE vs. Fury X Clock-for-Clock: "IPC" Tested

https://www.youtube.com/watch?v=0l6Uc5kBrxY

beide Karten @1050MHz...

Troyan
2017-07-05, 18:00:00
Gamersnexus hat einen Vergleich mit der Fury X und bei gleicher Taktfrequenz: http://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc

Da ich nur kurz über das Youtube-Video gesprungen bin, weiß ich nicht, ob man auch die Bandbreite angeglichen hat.

Dino-Fossil
2017-07-05, 18:05:44
Das Video ist interessant. Ich hab's mir nicht im Detail angesehen, aber es scheint sich folgendes Bild zu bieten:
Synthetische Benchmarks: größtenteils identisch (reine theoretische Rechenleistung?)
Spiele: Fury leicht vorn (wegen fehlenden Optimierungen für Vega?)
Profi-Anwendungen: klarer Sieg für die FE (möglicherweise sind das die einzigen Dinge auf die der FE-Treiber schon getrimmt wurde?)

dildo4u
2017-07-05, 18:11:00
Vega ist vorne wenn Tesselation's genutzt wird und die Auflösung reduziert wird,diese Schwäche wurde entschärft.

Dino-Fossil
2017-07-05, 18:25:20
Falls nicht in dem verlinkten Artikel andere Dinge stehen (kann ihn gerade nicht abrufen) hast du anscheinend andere Benchmarks gesehen - das Video gibt das jedenfalls nicht her.
Fiji ist da in der Tesselationsperformance sogar leicht vorn. Da liegt offenbar noch einiges im Argen bzw wird vom Treiber nicht angesprochen.
Bisher ist Vega FE offenbar Fiji mit mehr Takt.

dildo4u
2017-07-05, 18:30:40
Falls nicht in dem verlinkten Artikel andere Dinge stehen (kann ihn gerade nicht abrufen) hast du anscheinend andere Benchmarks gesehen - das Video gibt das jedenfalls nicht her.
Fiji ist da in der Tesselationsperformance sogar leicht vorn. Da liegt offenbar noch einiges im Argen bzw wird vom Treiber nicht angesprochen.
Bisher ist Vega FE offenbar Fiji mit mehr Takt.
Metro nutzt keine extremen Tesselationstufen man müsste mal Witcher 3 testen.

Let’s plot a performance trendline with all the different tessellation settings, starting with AVG FPS. This is where it gets interesting. Here, with AVG FPS plotted for 1080p, we see that the Fury X retains a stronger lead with tessellation disabled, but loses that lead as tessellation becomes more demanding – ultimately giving way to a very slight bump at the end for Vega (this bump is within STDEV, so we must call it ‘effectively equal’ at this point). If we could further increase tessellation settings in this benchmark, we’d suspect this trend would continue. Normal tessellation starts to close the gap, but not much, and “High” tessellation is the turning point.

Dino-Fossil
2017-07-05, 18:41:47
Das hat man ja so auch in den früher verlinkten Tessmark-Benches gesehen.
Ist aber aktuell wenig hilfreich, da die Gesamtperformance außerhalb von Specviewperf im Allgemeinen auf Fiji Niveau ist.
Ob da die Tesselation bei höheren Einstellungen etwas besser läuft, so what?
Es müssen ja nicht alle Hardware-Änderungen voll per Treiber (de-)aktivierbar sein, so dass man 100% Gleichheit zu Fiji erhält, wenn man nur ein paar bits anders setzt.

Troyan
2017-07-05, 18:44:00
Specview ist Treiber und Treiber alleine. Hat überhaupt keine Aussagekraft. Ratet mal, wieso AMD hier die Tests als Vergleich genommen hat, wo man schneller als die Titan Xp war?

dildo4u
2017-07-05, 18:57:16
Das hat man ja so auch in den früher verlinkten Tessmark-Benches gesehen.
Ist aber aktuell wenig hilfreich, da die Gesamtperformance außerhalb von Specviewperf im Allgemeinen auf Fiji Niveau ist.
Ob da die Tesselation bei höheren Einstellungen etwas besser läuft, so what?
Es müssen ja nicht alle Hardware-Änderungen voll per Treiber (de-)aktivierbar sein, so dass man 100% Gleichheit zu Fiji erhält, wenn man nur ein paar bits anders setzt.
Ich weiß noch immer nicht was ihr erwartet,takte mal Maxwell und Pascal gleich da kommt das selbe Raus.Die Leistung soll wie bei Pascal durch den Mehrtakt kommen,das Problem ist dort das die GPU dafür zuviel Saft braucht.

Dino-Fossil
2017-07-05, 19:00:58
Ich weiß noch immer nicht was ihr erwartet,takte mal Maxwell und Pascal gleich da kommt das selbe Raus.Die Leistung soll wie bei Pascal durch den Mehrtakt kommen,das Problem ist dort das die GPU dafür zu viel Saft braucht.

Eben nicht. Die Leistung soll laut AMD selbst v.a. durch Architekturänderungen kommen. Nicht Maxwell-> Pascal, sondern Kepler -> Maxwell.

Wenn sie am Ende lediglich auf mehr Takt setzen haben sie auf ganzer Linie ihr Ziel verfehlt. Ob es so ist sehen wir wohl spätestens, sobald die RX raus ist.

unl34shed
2017-07-05, 19:04:18
Ich weiß noch immer nicht was ihr erwartet,takte mal Maxwell und Pascal gleich da kommt das selbe Raus.Die Leistung soll wie bei Pascal durch den Mehrtakt kommen,das Problem ist dort das die GPU dafür zuviel Saft braucht.

Dann vergleich doch mal Kepler und Maxwell/Pascal bei gleichen shadern und Takt, dann kommt mit Sicherheit nicht das gleiche dabei raus :wave:

Und gerade diese Verbesserungen bekommt nun auch Vega und davon kommt aktuell eben nichts an.

dildo4u
2017-07-05, 19:04:59
Wie soll AMD mit einem wesentlich geringen Budget größere IPC Sprünge machen als Nvidia?Fury war ja keine totale Krücke wie die FX CPU's,die Schwächen waren Geometrieleistung und die 4GB Vram,beides wurde gefixt.
Polaris sollte z.b 2.7 besser Performance per Watt haben,das wurde bewusst gegen die älteste GCN Generation gemessen,ich würde mich also nicht von Hype Folien blenden lassen.

hq-hq
2017-07-05, 19:20:04
ist der Eintrag "neu"...
3dMark2011?

http://www.3dmark.com/3dm11/12256169

Der_Korken
2017-07-05, 19:28:10
Wie soll AMD mit einem wesentlich geringen Budget größere IPC Sprünge machen als Nvidia?Fury war ja keine totale Krücke wie die FX CPU's,die Schwächen waren Geometrieleistung und die 4GB Vram,beides wurde gefixt.

Dir ist aber schon aufgefallen, dass Vega geschätzt 40% mehr Transistoren bei gleicher Anzahl von Recheneinheiten besitzt? Wie kann man denn davon ausgehen, dass ein so massiv aufgepumpter Chip seine Performance allein durch den Mehrtakt holen soll, den der Fertigungsprozess mitbringt? Der Unterschied entspricht im Prinzip dem Anstieg von GM200 auf GP102 und da wird ja wohl keiner behaupten, die deutliche Mehrperformance kommt einzig und allein durch den Takt. Abgesehen davon war Fiji afair wirklich eine "Krücke", in dem Sinne als dass sie in 18 Monaten zusammengeschustert wurde. An Vega arbeitet wird AMD sicher mehr als doppelt so lange gearbeitet haben.

Pirx
2017-07-05, 19:40:16
Dir ist aber schon aufgefallen, dass Vega geschätzt 40% mehr Transistoren bei gleicher Anzahl von Recheneinheiten besitzt? Wie kann man denn davon ausgehen, dass ein so massiv aufgepumpter Chip seine Performance allein durch den Mehrtakt holen soll, den der Fertigungsprozess mitbringt? Der Unterschied entspricht im Prinzip dem Anstieg von GM200 auf GP102 und da wird ja wohl keiner behaupten, die deutliche Mehrperformance kommt einzig und allein durch den Takt. Abgesehen davon war Fiji afair wirklich eine "Krücke", in dem Sinne als dass sie in 18 Monaten zusammengeschustert wurde. An Vega arbeitet wird AMD sicher mehr als doppelt so lange gearbeitet haben.
das ist halt Schnellschuß-dildo

dildo4u
2017-07-05, 19:41:51
Wie gesagt das Problem ist das der Takt nachgibt,mit 1.6Ghz ist sie dort wo sie AMD vermutlich erwartet hat.

http://abload.de/img/amd-rx-vega-gtx-1080-z7uyo.jpg

http://wccftech.com/amd-rx-vega-benchmark-leaked-specs-confirmed-1630mhz-8gb-hbm2-484gbs-of-bandwidth/

Default 28k und OC 32k.

https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance

MadManniMan
2017-07-05, 20:15:54
Entsprechen die 32k einem Fury @1600 oder etwas, was tatsächlich (weil TBR) effizienter ist?

Pirx
2017-07-05, 20:59:42
Lustig:
Ich bin seit Jahren mit dem dem Manager der technischen PR der Radeon Pro Sparte für EMEA befreundet und der wiederum hat versucht über das Sales-Team eine FE zu ordern. Ohne Erfolg bisher. AMD hat offensichtlich selbst gar nichts (mehr), es konnte bei Newegg auch keine FE mit genauer Terminzusage nachgeordert werden. Angeblich erst wieder Ende Q3. Die "gebrauchte" Karte aus Utah hat sich auch noch nicht konkretisiert, ich bekomme echt die Krise. :(
Vega FE lieferbar in DE https://www.mindfactory.de/product_info.php/16GB-AMD-Radeon-Vega-Frontier-Air--HBM2--HDMI--3x-DisplayPort_1180479.html

-/\-CruNcher-/\-
2017-07-05, 21:11:18
Der Mining-Hype geht sowieso bald zuende. Die Hash-Difficulty hat sich seit einem Monat knapp verdoppelt, Trend unverändert. Ich habe jedenfall heute meine Mining-Aktivitäten wieder eingestellt, weil es sich bei deutschen Stromkosten kaum noch lohnt. Bald wird es zumindest in den Industrieländern wieder genug Karten für Gamer zu kaufen geben.

Bezüglich Vega: Wenn die Gaming-Vega tatsächlich die Bombe werden sollte, dann ist der Jubel plötzlich groß und AMD hat alles richtig gemacht. Das Heulen und Zähneklappern, was hier derzeit abgeht, ist dann schnell vergessen.

Darauf hab ich echt gehoft die Blockchains werden zu kompliziert endlich :)

Bin echt gespannt wie lange sich das auch noch in anderen ländern lohnen wird für Otto normals, so gesehen war die ganze Überlegung von irgend jemanden einen hype dafür zu kreiren um es später massentauglich zu machen und das durch die Gier oder eben der Verzweifelung anderer voran zu treiben äusserst perfide.

Screemer
2017-07-05, 21:13:24
Entsprechen die 32k einem Fury @1600 oder etwas, was tatsächlich (weil TBR) effizienter ist?
Ausgehend von 19200 punkten für die fury x @1050mhz und vega @1550mhz müsste letzterer bei knapp 28300 punkten landen, wenn er rein über den Takt skaliert. Das entspricht genau den non OC Vorstellungen von Dildo.

http://www.3dmark.com/3dm11/10699409

Da ist auf jeden Fall etwas gewaltig faul im Staate Dänemark.

Edgecrusher86
2017-07-05, 21:20:45
Eine Momentaufnahme:

PCPer: AMD Radeon Vega Frontier Edition CrossFire Testing (https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-Vega-Frontier-Edition-CrossFire-Testing)

Aktuell natürlich nicht so sinnvoll, aber wenn man schon mal zwei Karten hat...

-/\-CruNcher-/\-
2017-07-05, 21:21:39
Naja... man hat nVidias 1070, 1080, 1080 Ti und Titan jetzt über 1 Jahr keine Chip entgegen gesetzt, alles andere wie Bombe ist eine Enttäuschung. Wenn man solange braucht um einen gleichwertigen Chip ins Rennen zu schicken, dann ist das nur ein Fail.

Das ist der normale Zyklus einer steht vorne der andere kommt später man darf nur nicht zu weit hinten stehen, das man gegenüber dem vorderen garnichts auf die Reihe bekommt bevor der sein neues Produkt einführt und das war zu lange der Fall.

Loeschzwerg
2017-07-06, 07:38:10
Eine Momentaufnahme:

PCPer: AMD Radeon Vega Frontier Edition CrossFire Testing (https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-Vega-Frontier-Edition-CrossFire-Testing)

Aktuell natürlich nicht so sinnvoll, aber wenn man schon mal zwei Karten hat...

Wenn es funktioniert ist die Skalierung (4K) gar nicht mal so schlecht.

Edgecrusher86
2017-07-06, 12:03:35
Bei den Frametimes besteht aber definitiv noch Nachholbedarf.

Raff
2017-07-06, 13:31:21
Bei den Frametimes besteht aber definitiv noch Nachholbedarf.

Den wird's immer geben. Selbst bei taktstabilen Modellen seucht's ganz böse.

MfG,
Raff

P.S: Licht am Ende des veganen Tunnels ... :)

MadManniMan
2017-07-06, 13:33:43
P.S: Licht am Ende des veganen Tunnels ... :)

Ach? Wie? Wo?

uweskw
2017-07-06, 14:01:42
Nicht dass das nur die Rücklichter der 1080Ti sind.:P Weil über Vega Gaming hat ja wohl noch keiner etwas....

greetz
US

Leonidas
2017-07-06, 18:17:31
Gamersnexus hat einen Vergleich mit der Fury X und bei gleicher Taktfrequenz: http://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc


Benchmarks mal in Form gebracht und ausgewertet:
https://www.3dcenter.org/news/ipc-test-zur-radeon-vega-frontier-edition-zeigt-sehr-ineffektiven-vega-10-chip


.|Radeon R9 Fury X|Vega FE @ 1050 MHz|Vega FE @ Stock
Schnitt aus 4 Spielen & FS-Ultra|104,6%|100%|117,6%

Isen
2017-07-06, 18:24:46
Dann mach mal Licht an, Raff, ist Pflicht im Tunnel!

Troyan
2017-07-06, 18:24:55
Ich habe gelesen, dass die Bandbreite nicht angeglichen wurde. Die Fury X hat also rund 5,7% mehr. Das kann den Unterschied zwischen beiden Karten bei gleicher Kerntaktfrequenz erklären.

Isen
2017-07-06, 18:26:53
TBR aber auch ^^

N0Thing
2017-07-06, 18:47:42
Ich habe gelesen, dass die Bandbreite nicht angeglichen wurde. Die Fury X hat also rund 5,7% mehr. Das kann den Unterschied zwischen beiden Karten bei gleicher Kerntaktfrequenz erklären.

Da müßte die FE aber arg von der Bandbreite limitiert werden, damit das fast 1:1 auf die FPS durchschlägt.

MadManniMan
2017-07-06, 19:07:18
Da müßte die FE aber arg von der Bandbreite limitiert werden, damit das fast 1:1 auf die FPS durchschlägt.

Hm, kann schon sein, oder? Siehe dazu Leos Beitrag auf der Mainpage (https://www.3dcenter.org/news/ipc-test-zur-radeon-vega-frontier-edition-zeigt-sehr-ineffektiven-vega-10-chip):

"Selbige Problematik kann man auch an der Taktratenskalierung von Vega FE zwischen heruntergetakteter und regulärer Variante sehen. Prinzipiell sollte man bei dieser Heruntertaktung eine eher perfekte Skalierung sehen – da die Stock-Taktraten in Richtung eines optimalen Mixes aus Rechenleistung und Speicherbandbreite gehen sollten, eine schlechter werdende Skalierung erst oberhalb dieser Taktraten zu Tage treten darf. Dummerweise trifft diese theoretische Überlegung hier überhaupt nicht ein: Für rund 37% Mehrtakt (ausgehend von den vermeldeten ~1440 MHz realer Chiptakt unter Spielen bei Vega FE) gibt es im Schnitt unter UltraHD nur +17,6% Mehrperformance. Selbst Rechnungen mit nur 1400 MHz Chiptakt (+33%) oder 1380 MHz Chiptakt (+31%) bringen kein beachtbar anderes Ergebnis: Die Radeon Vega Frontier Edition skaliert derzeit sehr schlecht mit ihrem Chiptakt, bringt grob nur die Hälfte an Mehrperformance pro Steigerung des Chiptakts."

fondness
2017-07-06, 20:36:01
Nicht mal IPC einer Fury, obwohl AMD mehr IPC versprochen hat als Polaris. Das da was nicht stimmt sollte spätestens mit diesen Benchs offensichtlich sein.

Raff
2017-07-06, 20:55:40
Dann mach mal Licht an, Raff, ist Pflicht im Tunnel!

Gemach. Es war aufgrund der desaströsen Liefersituation viel Zeit, alles vorzubereiten. Aber eine Karte bedeutet auch, dass nur ein Mann testen kann, was alles etwas hinauszögert. Aber es gibt ab morgen Häppchen. :)

MfG,
Raff

Troyan
2017-07-06, 21:55:50
Doom testen ohne Alptraum: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Vega-10-HBM2-GTX-1080-1215734/

TGKlaus
2017-07-06, 21:55:59
Da es noch nicht mal "unter der Hand" auch nur nen BetaGamingTreiber gibt könnt ihr euch den Mist sparen.

Auf der jetzigen Basis ist das was ihr wohl machen werdet reines redaktionelles AMD Bashing.

Loeschzwerg
2017-07-06, 21:58:12
Auf der jetzigen Basis ist das was ihr wohl machen werdet reines redaktionelles AMD Bashing.

Oder schlichtweg eine Momentaufnahme ;)

TGKlaus
2017-07-06, 22:03:38
Wie war denn die "Momentaufnahme" bei pcgh zum Skylake-X Launch?

Da hat man lieber nix veröffentlicht und erklärt, man wartet bis die Plattform bessere Werte liefert.

Schon komisch wie unterschiedlich pcgh hier mal wieder handelt ...

Iruwen
2017-07-06, 22:14:27
Die sind doch gekauft!!1

Linmoum
2017-07-06, 22:18:05
Jetzt noch den dreißigsten Gaming-Test zu bringen, halte ich jedenfalls für wenig zielführend. Es ist zur Frontier Edition und der Gaming-Performance grundsätzlich alles bekannt, daran dürfte sich auch bis zur Siggraph und den RX-Karten nichts mehr ändern. Ab da wird es dann spannend.

Aber natürlich kann man den Ist-Zustand der Frontier Edition beurteilen, das hat nix mit bashing zu tun.

Loeschzwerg
2017-07-06, 22:18:11
@Klaus: Keine offiziellen Testmuster bzw. finale CPUs und täglich neue Bios Versionen (die immer wieder die Testwerte versauen) sind da geringfügig etwas anderes. Zudem war die Plattform nicht wirklich kaufbar.

Du schießt dich hier mit Absicht auf etwas ein, nur weil es bei Vega nicht ganz rund läuft.

Ich freue mich über jede weitere Analyse zur FE, die weitere Details der Architektur verraten können und über spätere Nachtests, die dann entsprechende Fortschritte (möglicherweise durch neu aktivierte Features) zeigen.

TGKlaus
2017-07-06, 22:23:40
@Klaus: Keine offiziellen Testmuster bzw. finale CPUs und täglich neue Bios Versionen (die immer wieder die Testwerte versauen) sind da geringfügig etwas anderes. Zudem war die Plattform nicht wirklich kaufbar.

Du schießt dich hier mit Absicht auf etwas ein, nur weil es bei Vega nicht ganz rund läuft.


Ok, lassen wir mal kurz VEGA raus und vergleichen die Artikel von pcgh vom Ryzenstart und vom Skylake-X Start.

Kannst mir gerne den Artikel zu Ryzen raussuchen, in dem pcgh erklärt, das man vorerst keine "schlechten" Werte veröffentlich, weil die Plattform noch Probleme macht.

Hint: 2133er RAM :freak:

Troyan
2017-07-06, 22:25:36
Was hat dein Einwand hier zu suchen? Frontier Edition ist draußen. Frontier Edition wird getestet.

Vielleicht hätte AMD eben keine Titan Karte als Vergleich nehmen sollen, wenn Spiele nicht der Fokus wären. Aber hey, anders kann man dieses Produkt in diesem (künstlichen) Status wohl nicht vermarkten...

TGKlaus
2017-07-06, 22:33:22
Was hat dein Einwand hier zu suchen? Frontier Edition ist draußen. Frontier Edition wird getestet.

Skylake-X ist draußen. Skylake-X wird getestet.
Oh, Wait ....

Vielleicht hätte AMD eben keine Titan Karte als Vergleich nehmen sollen, wenn Spiele nicht der Fokus wären.

Genau, denn die Titan ist die typsche Spielekarte ... :facepalm:

Linmoum
2017-07-06, 22:34:05
Vielleicht hätte AMD eben keine Titan Karte als Vergleich nehmen sollen, wenn Spiele nicht der Fokus wären. Aber hey, anders kann man dieses Produkt in diesem (künstlichen) Status wohl nicht vermarkten...
Vielleicht solltest du vor dem verfassen eines Beitrages nachdenken. So schwer ist das selbst für dich nicht, Zusammenhänge zu erkennen und Schlussfolgerungen zu ziehen. Oder etwa doch?

Loeschzwerg
2017-07-06, 22:34:42
Kannst mir gerne den Artikel zu Ryzen raussuchen, in dem pcgh erklärt, das man vorerst keine "schlechten" Werte veröffentlich, weil die Plattform noch Probleme macht.

Hint: 2133er RAM :freak:

Punkt 1) PCGH hat zeitig (wenn auch später als andere Redaktionen) Testmuster erhalten
Punkt 2) Getestet wurde mit den offiziell freigegeben 2400 DR und straffen Timings
Punkt 3) Probleme in gewissen Teilbereichen zu haben und keine konsistenten Werte zu erhalten, ist leider wieder etwas anderes...

Fragman
2017-07-06, 22:42:51
wenn man die ganzen werte sieht, koennte man meinen das amd auf der fe nicht den vega chip verbaut hat, der mal angekuendigt war, sondern fury x, oder ein update davon. waere das denkbar?

als fe kaeufer siehts so aus, entweder sind die treiber hin oder die hardware.
wenns die hardware ist, hat man die fe kaeufer gelinkt. wenns die treiber sind, auch, denn man verkauft ein produkt zum vollen preis, welches nicht mit voller leistung laeuft (vorausgesetzt vega ist so schnell wie einige hier hoffen). oder gibts benchmarks, die die von amd angekuendigte leistung irgendwie doch zeigen?

die hardware kann man nicht fixen, bleibt also nur der treiber, auf den die fe kaeufer hoffen koennen.

Iruwen
2017-07-06, 22:44:35
Genau, denn die Titan ist die typsche Spielekarte ... :facepalm:
Nein, eine sehr teure. Wird aber für Gaming beworben und bringt auch die Leistung, daran muss sich AMD dann auch messen lassen.

Troyan
2017-07-06, 22:45:27
Vielleicht solltest du vor dem verfassen eines Beitrages nachdenken. So schwer ist das selbst für dich nicht, Zusammenhänge zu erkennen und Schlussfolgerungen zu ziehen. Oder etwa doch?

Kannst du mir zeigen, wo nVidia die Titan-Karte für professionelle Grafikanwendungen bewirbt? Nein? Bingo.

TGKlaus
2017-07-06, 22:46:48
Punkt 2) Getestet wurde mit den offiziell freigegeben 2400 DR und straffen Timings


wurde im Text nachträglich geändert.
in den Diagrammen jedoch nicht.

https://picload.org/image/rplgrcii/ryzen-r7-1800x-test-cpu-core-s.png

Edit:
nach der RX480 Aktion von pcgh hab ich mir angewöhnt Screenshots zu machen, pcgh ändert ihre Texte nachträglich ziemlich häufig, die Werte ändern sich komischer Weise aber nicht

Linmoum
2017-07-06, 22:48:00
Nein, eine sehr teure. Wird aber für Gaming beworben und bringt auch die Leistung, daran muss sich AMD dann auch messen lassen.
Das üben wir aber nochmal.
Die Titan Xp richtet sich explizit nicht an Spieler, wie Nvidia betont, aus diesem Grund sei die Vorstellung auch derart leise erfolgt.
https://www.computerbase.de/2017-04/nvidia-titan-xp-gp102-spezifikationen-preis/

Loeschzwerg
2017-07-06, 22:51:51
wurde im Text nachträglich geändert.
in den Diagrammen jedoch nicht.

https://picload.org/image/rplgrcii/ryzen-r7-1800x-test-cpu-core-s.png

Da steht sogar DDR3 ;D Aber egal wie, bei 4 Modulen sind offiziell auch nur 2133 SR freigegeben ;)

dargo
2017-07-06, 22:52:26
Kannst du mir zeigen, wo nVidia die Titan-Karte für professionelle Grafikanwendungen bewirbt? Nein? Bingo.
Zeig du uns erstmal wo AMD VEGA FE als Gamingkarte bewirbt.

dildo4u
2017-07-06, 22:54:15
Das üben wir aber nochmal.

https://www.computerbase.de/2017-04/nvidia-titan-xp-gp102-spezifikationen-preis/

?

http://abload.de/img/tianaxpb7uu8.png

Troyan
2017-07-06, 22:54:26
Wozu? AMD vergleicht sie mit einer Karte, die keine Probleme in Spielen hat. So etwas nennt man auch Eigentor.

AMD hätte hier eine Quadro P4000 nehmen können. Da würde ich die Kritik verstehen. Aber dann wiederum wäre die FE auch nicht 20%,30% oder 130% schneller.

dargo
2017-07-06, 22:57:44
Aber egal wie, bei 4 Modulen sind offiziell auch nur 2133 SR freigegeben ;)
Beim Launch vielleicht. :tongue:
https://www.hardwareluxx.de/community/f219/asus-prime-x370-pro-am4-1156996-149.html#post25661366

Mal sehen ob AMD dies bald korrigiert oder ob die Folie tatsächlich in Vergessenheit gerät.

hq-hq
2017-07-06, 22:59:09
Das üben wir aber nochmal.

https://www.computerbase.de/2017-04/nvidia-titan-xp-gp102-spezifikationen-preis/

Titan:
http://www.nvidia.de/graphics-cards/geforce/pascal/titan-xp/

"schnellste Grafikkarte der Welt"
"DIE NEUESTEN GAMING TECHNOLOGIEN"
und natürlich
"VR ERLEBNISSE DER NÄCHSTEN GENERATION"

Vega Frontier:
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/

"@Developers"
"Advanced technologies, including real-time visualization, physically-based rendering and virtual reality (VR)"
"tasks like video editing, animation, post-production, and virtual reality (VR)"


-> warten auf RX Vega.... :freak:

dargo
2017-07-06, 23:08:48
Wozu? AMD vergleicht sie mit einer Karte, die keine Probleme in Spielen hat. So etwas nennt man auch Eigentor.

Ja... höchstens in deiner Welt. Schalte doch mal den Kopf ein. Das nennt sich Marketing. Zudem kann AMD sagen VEGA FE ist günstiger als der schnellste Pascal. Das könnte AMD bei der 1080TI nicht mehr. Dafür kommt dann halt RX Vega.

Du glaubst wahrscheinlich auch jeden Marketingscheiß bei Nvidia wie sowas hier wah?

https://www2.pic-upload.de/img/33469697/Titan.jpg

Kannst mir mal zeigen in welchem Spiel Titan Pascal 3x schneller als Titan Maxwell ist. ;D Und komm mir jetzt nicht mit irgendeinem VR-Mist.

TGKlaus
2017-07-06, 23:19:33
AMD hätte hier eine Quadro P4000 nehmen können.

Also ausgehend von diesen Werten
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11422508&postcount=8108

ist die VEGA FE im jetzigen Zustand, außer bei Solidworks, schneller als die P4000, und zwar bis zu 80%.

Sobald wir welche in der Firma haben, kann ich auch mal gegentesten

Troyan
2017-07-06, 23:36:28
Ja... höchstens in deiner Welt. Schalte doch mal den Kopf ein. Das nennt sich Marketing. Zudem kann AMD sagen VEGA FE ist günstiger als der schnellste Pascal. Das könnte AMD bei der 1080TI nicht mehr. Dafür kommt dann halt RX Vega.

Lügen hat nichts mit Marketing zu tun. Die FE ist nicht schneller als die schnellste Pascal-Karte. Sie ist nichtmal schneller als GP104. Manchmal ist die Karte sogar langsamer als eine Pascal-Karte mit 1024 Cores und 75W:
https://www.pcper.com/files/imagecache/article_max_width/review/2017-06-30/quadro-spec3_0.png
https://www.pcper.com/reviews/Graphics-Cards/Radeon-Vega-Frontier-Edition-16GB-Air-Cooled-Review/Professional-Testing-SPEC

Es ist AMD, die die Titan-Karte in Creo mit der FE verglichen hat: https://globenewswire.com/news-release/2017/06/27/1029535/0/en/AMD-Launches-the-World-s-Fastest-Graphics-Card-for-Machine-Learning-Development-and-Advanced-Visualization-Workloads-Radeon-Vega-Frontier-Edition-Available-Now.html

TGKlaus
2017-07-06, 23:44:42
Oder sie ist schneller als Nvidias 2000€ P5000 Karte :biggrin:

https://picload.org/image/rplgarol/quadro-spec4_0.png

Menace
2017-07-07, 06:17:15
Kann man hier mal das offtopic virale Marketing von nvidia-Karten bitte in die entsprechende nvidia-Threads verschieben?

Wartet außerdem ab, wie pcgh die FE testet. Vielleicht legen sie nur Wert auf prof. Anwendungen, ohne Aussagen bzgl. RX zu machen und dann wäre die ganze Aufregung hier unnötig. Wobei das mit Skylake-X schon komisch ist, aber in diesem Thread letztlich auch offtopic.

uweskw
2017-07-07, 07:11:09
Ok, lassen wir mal kurz VEGA raus und vergleichen die Artikel von pcgh vom Ryzenstart und vom Skylake-X Start.

Kannst mir gerne den Artikel zu Ryzen raussuchen, in dem pcgh erklärt, das man vorerst keine "schlechten" Werte veröffentlich, weil die Plattform noch Probleme macht.

Hint: 2133er RAM :freak:

Stimmt, bei Syklake-X überschlagen sich die Tester ihr Verständnis für momentane Schwächen und unzulänglichkeiten zu zeigen, Vega hingegen wird mit Gaming genüsslich durch den Kakao gezogen obwohl das ausdrücklich KEINE Gamer-Karte ist.
Da wird mit zwei Maßstäben gemessen, die Marktführer haben halt ihren "Bonus" und die Foren-Marketeers jubeln dazu.

greetz
US

-/\-CruNcher-/\-
2017-07-07, 07:14:26
wenn man die ganzen werte sieht, koennte man meinen das amd auf der fe nicht den vega chip verbaut hat, der mal angekuendigt war, sondern fury x, oder ein update davon. waere das denkbar?

als fe kaeufer siehts so aus, entweder sind die treiber hin oder die hardware.
wenns die hardware ist, hat man die fe kaeufer gelinkt. wenns die treiber sind, auch, denn man verkauft ein produkt zum vollen preis, welches nicht mit voller leistung laeuft (vorausgesetzt vega ist so schnell wie einige hier hoffen). oder gibts benchmarks, die die von amd angekuendigte leistung irgendwie doch zeigen?

die hardware kann man nicht fixen, bleibt also nur der treiber, auf den die fe kaeufer hoffen koennen.

Es ist schade das die leute immernoch nicht kappiert haben das der Treiber in Zukunft nicht mehr diese große rolle spielen wird und das es mehr am Entwickler liegen wird wie viel Performance er von der Raw Power im Stande ist freizusetzen mit dem ihm verfügbaren featureset ohne auf irgendwelche spezial APIs angewiesen zu sein :)


Nur die Creme dela Creme wird hier auch die besten Ergebnise erzielen.