PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

reaperrr
2017-01-07, 00:48:06
Allerdings macht mich bei der Folie eines stutzig:
Warum schreiben die Hawaii drauf? Der S9170 ist mit Grenada ausgestattet. Ich weiss die meisten sagen es sei der selbe Chip, doch warum sollte AMD seine eigenen Codenamen nicht benutzen? Ich bin gerade skeptisch geworden bzgl. der Echtheit.
Grenada hieß nur der Desktop-Refresh. Die einzigen Änderungen von Belang waren der verbesserte Tesselation-Treiber und der höhere Speichertakt, beides kommt auf der S9170 nicht zum Tragen.

StefanV
2017-01-07, 00:54:16
Wie wird der NVRAM eigentlich angesprochen? Gibt es einen integrierten nativen NVRAM(NAND-Flash)-Controller. IP-Cores gibts dafür. Und gibt es native PHYs?
Wahrscheinlich PCIe, GMI oder Hyper Transport New oder so.

Ev, ähnlihc der Radeon Pro SSG, von der ich gerne ein frontales "Nacktbild" sehen würde. Aber schaut wohl 'nur' nach 'nem onboard PLX Chip mit PCIe SSDs aus.

Botcruscher
2017-01-07, 01:15:28
Selbst Slide 36 lässt da Interpretationsspielraum. Es ist ja nicht nur der neue Controller angebunden sondern auch direkt der L2. Da bliebt erst mal nur PCIe. Da drüber wird es spannend.
Solche "Kleinigkeiten" im Schaubild sind aber imo kein Zufall. Dazu ist das ganze auch noch verschieden dick.

Rampage 2
2017-01-07, 01:19:55
Ich hatte mehrfach schonmal gelesen, dass man das Taktpotential von CPUs steigern kann indem man einfach mehr Transistoren spendiert - womit dann wohl auch die Chipfläche größer wird. Gilt das auch für GPUs?

Das wäre vielleicht eine Erklärung dafür, warum V10 trotz 14nm und trotz "nur" 4096SPs eine so große Chipfläche (450-500mm^2) beansprucht - weil es möglicherweise auf hohe Taktfrequenzen ausgelegt ist... (wie Maxwell und Pascal)

Oder habe ich da etwas missverstanden?

R2

horn 12
2017-01-07, 10:07:23
EVGA steigt auch bei Ve.ga ein
Da muss es wohl was Großes werden!

http://wccftech.com/amd-evga-vega/

Tamagothi
2017-01-07, 10:14:52
Ich glaube da will jemand nur einen scherz machen VEGA->EVGA :freak:

HOT
2017-01-07, 10:25:01
Wieso, Zatac verbaut in einer ZBox auch schon ne RX480. Die werden mMn sicher auch Vega10 als kaufbare Grafikkarte anbieten. Warum nicht auch EVGA?

AnarchX
2017-01-07, 10:39:00
Dementi: https://twitter.com/TEAMEVGA/status/817545425418743809

Wieso, Zatac verbaut in einer ZBox auch schon ne RX480. Die werden mMn sicher auch Vega10 als kaufbare Grafikkarte anbieten. Warum nicht auch EVGA?
EVGA ist der Premium-Partner von NV. In der Zotac Box sind wohl eh nur MXM-Module verbaut.

mboeller
2017-01-07, 10:39:00
Zu V11 wissen wir erstmal gar nichts. Ansonsten klingt V11 nach einer Interessanten Karte. Ich würde schon 25% mindestens auf P10 draufrechnen.

doch, seit gestern wissen wir das es die Nachfolgekarte zu Polaris 10/11 wird und noch dieses Jahr kommt:

http://cdn.videocardz.com/1/2017/01/AMD-VEGA-10-VEGA20-VEGA-11-NAVI-roadmap.jpg

mironicus
2017-01-07, 11:33:27
Vega kommt also mit 16 GB HBM2? Wann kommt der Aufschrei, dass niemand 16 GB braucht? :biggrin:

dildo4u
2017-01-07, 12:21:13
Das sind Server Slides,es gibt auch Hawaii Karten mit 16GB/32GB.

http://www.amd.com/de-de/products/graphics/workstation/firepro-3d/9100


Das heißt nix für den Consumer Markt.

Screemer
2017-01-07, 12:37:52
http://cdn.videocardz.com/1/2017/01/AMD-VEGA-10-VEGA20-VEGA-11-NAVI-roadmap.jpg
schaut euch doch mal bitte diesen slide an. der sieht aus, als hätte ihne photoshop philip in 2 minuten hingerutzt. das sind nie und nimmer offizielle slides.

[MK2]Mythos
2017-01-07, 12:59:09
Der Urheber lacht sich vermutlich seit gestern ins Fäustchen weil überall dieser billo Fake verbreitet wird.

Complicated
2017-01-07, 13:05:08
Ich bin da auch noch skeptisch, trotz reaperrrs recht gutem Einwand zu dem verwenden von Hawaii anstatt Grenada.
Grenada hieß nur der Desktop-Refresh. Die einzigen Änderungen von Belang waren der verbesserte Tesselation-Treiber und der höhere Speichertakt, beides kommt auf der S9170 nicht zum Tragen.

Auf jeden Fall wurde Grenada häufig verwendet im Bezug zur S9170:
https://www.techpowerup.com/gpudb/2744/firepro-s9170
Auf GPU Z Screenshots die ich bisher finden konnte wurde selbst die Desktop GPU der 3xxer-Serie mit Hawaii bezeichnet.

Mr.Bug
2017-01-07, 13:08:53
"Fake News" mit der Gefahr an gefährlichem Augenkrebs zu erkranken! Selbst die roten, senkrechten Linien sind schief. :D Das würde sicher kein Mitarbeiter bei AMD intern seinem Vorgesetzten so präsentieren, es sei denn man will die Branche wechseln.

Aber was AMD dieses Jahr generell hardwareseitig auf die Beine stellt, lässt enorm hoffen, Daumen hoch!

Leonidas
2017-01-07, 13:26:41
Würde ein Faker so offensichtliche Fehler begehen? Bzw. ist es nicht sogar schwieriger, es derart schief hinzubekommen, wenn man es fakt?

Ich sehe keinen Sinn darin, Monate alte Infos nochmal erneut zu faken. Wenn, dann macht man das zugunsten von neuen, wirklich unbekannten Infos.

Screemer
2017-01-07, 13:34:58
die folien passen in kein einziges tamplate, dass amd jemals genutzt hat. das sieht einfach nur nach mega rotz aus. allein die balken über den beispielbilder für die gpus sind sowas von abartig, sowas würde doch keine sau in ner offiziellen präsentation nutzen. das ist alles völlig out of line und das in mehrfacher hinsicht. mich wundert eher, dass sowas für bare münze genommen wird.

Troyan
2017-01-07, 13:35:52
Hier gibt es ein 40 Minutiges Interview mit dem Raja Typen: https://www.youtube.com/watch?time_continue=2444&v=FwcUMZLvjYw

Screemer
2017-01-07, 13:36:39
Hier gibt es ein 40 Minutiges Interview mit dem Raja Typen: https://www.youtube.com/watch?time_continue=2444&v=FwcUMZLvjYw
warum kannst du eigentlich deine abfällige art nicht mal stecken lassen?

iuno
2017-01-07, 13:37:47
Hier gibt es ein 40 Minutiges Interview mit Raja: https://www.youtube.com/watch?time_continue=2444&v=FwcUMZLvjYw
Ich bezweifle, dass da irgendwas interessantes drin steckt.
Also?

Troyan
2017-01-07, 13:48:15
Videocardz hat ein Transcript: http://videocardz.com/65531/pcworld-interviews-raja-koduri-about-vega

Unicous
2017-01-07, 14:02:30
Das EVGA Logo ist "fake", das Gerücht hingegen kommt von Bits'n'Chips bzw. wurde nochmals aufgewärmt, da sie behaupten mit Vega wird es Chips von EVGA geben. Da B'n'C in den letzten Monaten was AMD Gerüchte anbelangt sehr oft richtig lag werden die nächsten Monate zeigen ob sie hier auch Recht behalten oder es am Ende Getrolle war.

Wegen dem layout einer AMD-Folie würde ich wirklich keine fake-Diskussion starten. Es erscheint zumindest plausibel.

AffenJack
2017-01-07, 14:09:19
Das EVGA Logo ist "fake", das Gerücht hingegen kommt von Bits'n'Chips bzw. wurde nochmals aufgewärmt, da sie behaupten mit Vega wird es Chips von EVGA geben. Da B'n'C in den letzten Monaten was AMD Gerüchte anbelangt sehr oft richtig lag werden die nächsten Monate zeigen ob sie hier auch Recht behalten oder es am Ende Getrolle war.

Wegen dem layout einer AMD-Folie würde ich wirklich keine fake-Diskussion starten. Es erscheint zumindest plausibel.

Evga hat es sowohl bei twitter als auch deren Forum klar dementiert. Da gibts kein großes warten ob es eintrifft. BnC hat sich einfach mal schön was ausgedacht. Kein Plan was du mit dem Evga Logo da willst.

Unicous
2017-01-07, 14:19:13
Ein klares Dementi. Vom Social Media Team.

:eek:

Ich zittere, ich zittere.


:rolleyes:


Kein Plan was Du mit dem EVGA-Logo willst. Bei Reddit wurde es als direkt von EVGA stammend verteilt, es ist aber eine photoshop-Spinnerei.
Es gab in der Vergangenheit schon mehrere "Überläufer" in beide Richtungen, du brauchst nicht so zu tun als wäre das völlig unmöglich.

AffenJack
2017-01-07, 14:32:17
Ich traue einfach lieber offiziellen Kanälen als einer Seite die sich in Sachen Informationsgehalt mit WTF-Tech battelt. Aber glaube ruhig das Zeug, nur sei später nicht enttäuscht wenn es anders wird.

Unicous
2017-01-07, 14:41:15
Du brauchst mir nicht so großkotzig Worte in den Mund legen. Ich habe nicht behauptet, dass es kommen wird, ich habe lediglich gesagt, dass es in der Vergangenheit schon öfter passiert ist, siehe XFX, Gainward... (bei AMD zu Nvidia fällt mir jetzt gerade der Hersteller nicht ein) und 2008 gab es schon einmal das Gerücht, dass EVGA auch AMD-Karten herstellen wollte (laut AMD) und Nvidia das rigoros abgelehnt hat, bzw. behauptete dann EVGA AMD wäre an sie herangetreten.

XFX wurde damals der Partner-Status entzogen und seitdem stellen sie exklusiv für AMD her.

Nakai
2017-01-07, 14:49:16
warum kannst du eigentlich deine abfällige art nicht mal stecken lassen?

Ja, Raja Koduri gehört zu den absoluten Koryphäen auf diesem Sektor. Vor 4 Jahren hat man Raja Koduri von Apple abgeworben. Die Vega-Entwicklung wurde vor 4 Jahren gestartet. Das richtige Kind seitens Raja Koduri?

Ansonsten wenn euch LZ 2.0 nicht gefällt einfach auf die Ignore-List schieben und alles ist gut.

BlacKi
2017-01-07, 16:02:53
soooo, nächstes thema. hdmi 2.1? wirds vega haben? reicht dp1.4 überhaupt für uhd @144hz 10bit?

edit: dp1.4 reicht, aber 1.4 nutzt eine verlustbehaftete kompression.

Kriegsgeier
2017-01-07, 16:37:20
Nach dem 45 min. Interview steht für mich zumindest fest, dass VEGA 399$ kosten wird...

Und die mit 8 GB HBM2 kommt die ca. den heutigen 16 GB entsprechen (wegen Speichermanagement)

1.000$ 4K PC lässt grüßen

montey
2017-01-07, 16:41:11
Mich interessiert vor Allem, wie gut ein Dual Vega in Sachen Alltagstauglichkeit, Frametimes und natürlich Performance abschneidet. Wie man ließt, könnten die kommenden "VR-Jahre" endlich dazu führen, dass Crossfire- bzw SLI-Gespanne etabliert werden.

2017 wird uns Hardwarefreaks so einiges bieten.

Viele Grüße,
Nils

maximus_hertus
2017-01-07, 17:39:29
soooo, nächstes thema. hdmi 2.1? wirds vega haben? reicht dp1.4 überhaupt für uhd @144hz 10bit?

edit: dp1.4 reicht, aber 1.4 nutzt eine verlustbehaftete kompression.

HDMI 2.1 und VEGA schließe ich komplett aus - die Spezifikation wird erst im Frühling finalisiert und VEGA ist da schon quasi in Produktion.


@montey

Leider wird Crossfire / SLI erst einmal nichts bringen - siehe Leos Bestandsaufnahme des bisherigen Spiele-Herbst/Winters - 13 Games, 10 ohne SLI/CF Support. Bei VR könnte es was bringen, aber VR ist noch eine Nische in der Nische.

Nakai
2017-01-07, 18:16:24
Nach dem 45 min. Interview steht für mich zumindest fest, dass VEGA 399$ kosten wird...

Und die mit 8 GB HBM2 kommt die ca. den heutigen 16 GB entsprechen (wegen Speichermanagement)

1.000$ 4K PC lässt grüßen

Vega11 interessiert mich eher. Ein Zen-Octa/Hexacore + V11 klingt ganz gut. Vor allem möchte ich mal mit MGPU zwischen NV und AMD rumspielen.

basix
2017-01-07, 18:31:29
Aber DP1.4 sollte unterstützt werden?

BlacKi
2017-01-07, 18:33:44
Vega11 interessiert mich eher. Ein Zen-Octa/Hexacore + V11 klingt ganz gut. Vor allem möchte ich mal mit MGPU zwischen NV und AMD rumspielen.
genau diese apu meinte er mit dem 1000$ pc, denn für 30fps und mehr reicht der chip bestimmt^^

und das hbc speichermanagement muss eben auch supportet werden sonst bringts eben nichts. so wie bei dem verdoppeln der speichermenge in crossfire systemen unter mantle.

könnte mir aber auch vorstellen das man die chips einzeln ansprechen kann, also anwendungen die hohe bandbreite benötigen nutzen bandbreite beider chips und zb. texturen werden nur in einem chip gespeichert, wodurch sich der benötigtes platz halbiert.


edit: könnte man ein solches feature mit fiji nutzen hätte die karte bis zu 16gb speicher...
Aber DP1.4 sollte unterstützt werden?

polaris ist dp 1.4 ready, warum sollte vega das nicht sein.

ks
2017-01-07, 22:18:10
Ich verweise auf das Update am Anfang. Link kam selbst von amd via twitter. Doch 64 CUs? MADD(2x OP) => NCU in verschiedenen Konfigurationen für eine bessere Auslastung? (dynamisch via Treiber?) Sprich nicht alle NCUs sind gleich konfiguriert.

https://www.extremetech.com/extreme/242122-amd-releases-new-details-new-gpu-architecture-codename-vega0?sf49829028=1


bei 4096 SPs erwarte ich @1300-1300Mhz (Max 1600Mhz) - ich denke der Prozess wird so langsam etwas.


http://videocardz.com/65531/pcworld-interviews-raja-koduri-about-vega
Und der Link wurde ja hier gepostet :) - bei 16:00 - also entweder ist es noch ein weiter Weg oder in paar Wochen (sonst hätte er Monate gleich gesagt) - werden uns noch die Taktraten verraten.


Was wäre das beste Vorgehen, wenn Vega10 besser als erwartet geworden ist, aber der Prozess noch eine kleine Weile braucht für genug Takt oder Output?. Hart auf Halde produzieren um den Markt zu fluten (kein 5850 bottleneck) ? (bei 1080+er Leistung ?)

Wie ist eigentlich die IPC von der PS4 Pro zu der von Polaris10 ?

wolik
2017-01-07, 22:35:11
siehe Leos Bestandsaufnahme des bisherigen Spiele-Herbst/Winters - 13 Games, 10 ohne SLI/CF Support.

So lange das die restliche 3 von 13 Dishonored 2. Watch Dogs 2. Titanfall 2 (DXMK) sind. Ist mir restliche 10 voll egal sind. (GoW4, DOOM etc...)
Ich habe vor kurzem überlegt eine 1060 oder 480 zu kaufen. Es wurde 480 (8Gb) gekauft. ATI muss wieder alles richtig machen das auch solche Leute wie ich (wir) mal wieder ATI fahren.

Gipsel
2017-01-08, 00:34:18
bei 4096 SPs erwarte ich @1300-1300Mhz (Max 1600Mhz) - ich denke der Prozess wird so langsam etwas.Falls Vega 10 4096SPs hat, müssen die mit >=1,5 GHz laufen. Sonst kommen nämlich die bereits angekündigten 25 TFlop/s in FP16 für die Servervariante MI25 nicht hin ;). Daß die Consumervariante deutlich niedriger takten soll, klingt unwahrscheinlich.

Edit:
Und der Fortschritt des Taktes gegenüber Polaris dürfte eher im Design zu suchen sein, nicht im Prozeß.

Thunder99
2017-01-08, 11:11:39
So lange das die restliche 3 von 13 Dishonored 2. Watch Dogs 2. Titanfall 2 (DXMK) sind. Ist mir restliche 10 voll egal sind. (GoW4, DOOM etc...)
Ich habe vor kurzem überlegt eine 1060 oder 480 zu kaufen. Es wurde 480 (8Gb) gekauft. ATI muss wieder alles richtig machen das auch solche Leute wie ich (wir) mal wieder ATI fahren.
Nicht alleine die HW ist entscheidend sondern auch der Treiber. Wenn in einem Spiel einfaches VSync nicht geht mit AMD, aber mit Nvidia (Wither 1 EE) dann fragt man sich schon ein wenig wann AMD solche Baustellen hin bekommt. (Das Problem des Tearing und Fiepen durch zu hohe FPS hab ich bei AMD durch unnötige GPU Last umgangen (WHQHD+4xSGSSAA :freak:)
Ansonsten haben sich in den letzten 5 Jahren die Treiber von AMD echt gemacht, sodass diese nur noch wenige ärgerliche Bugs haben. (Features wie SGSSAA in fast jedem DX9 Spiel lasse ich mal außen vor, da es bei AMD Glücksache ist und bei Nvidia man es via Bits steuern kann ;))

Vega ist eine gute Weiterentwicklung wo ich auch schon gespannt bin wie der Chip wird. Schätze seit der CES den Chip auf knapp unter TXP Niveau ein :).

iuno
2017-01-08, 13:01:02
Nach dem 45 min. Interview steht für mich zumindest fest, dass VEGA 399$ kosten wird...

[...]

1.000$ 4K PC lässt grüßen

Ja, als stretch goal, also nicht dieses Jahr

Gouvernator
2017-01-08, 14:08:36
knapp unter TXP Niveau
Und das für 400€... dann lohnt sich die GTX1080/1070 auf Ebay zu verkaufen. Wie quasi Übergangslösung bis zur Vega.

Aber ich glaube nicht das AMD so schlau ist, sich auf diesem Weg Marktanteile zu sichern.
Die werden mit 700€ einsteigen und dann untergehen...

iuno
2017-01-08, 14:17:17
Es bringt nichts, mit Fantasiezahlen wie 400€ um sich zu werfen. Vega ist groesser und hat HBM, kostet daher mehr in der Herstellung als GP102. Wenn du da allen Ernstes erwartest, dass AMD einen konkurrenzfaehigen Vega unter GP104-Preisen verkauft, hast du gar nichts verstanden.
Ausserdem ist es imho ein Trugschluss, zu glauben, dass bei 400€ viel mehr Marktanteil rausspringen wuerde. Die Leute werden schon seit einem Jahr mit GP104 bedient, mit OC ist es schon wieder kein lohnendes Upgrade mehr. Und dann hat Nvidia immer noch die Ti in der Hand.

horn 12
2017-01-08, 14:18:22
Den Fehler der Fury X machen sie nicht erneut, zudem soll Hynics wohl einen Adapter Preis für die gesamte HBM Geschichte liefern.
und für 400 bis 450 Euro mit 8GB HBM² und zwischen GTX 1080 und Titan X Pascal wäre die Karte der Hammer schlechthin.
Rechne 8GB HBM² ist gleichauf teuer, maximal minimal teurer für AMD wie damals die 4x 1GB HBM 1 auf der Fury (X) und dies war das Vorserienmodell für Interposer, HBM und das Know-How welches eben erst nun die Früchte trägt.

Schaffe89
2017-01-08, 14:25:32
Was will AMD eigentlich zwischen VEGA10 und P10 bringen? Wenn VEGA angeblich sogut werden soll, was ist dann dazwischen? Dann hat man ja wieder kein Gegenstück zur GTX 1070.

Vll kommt ja doch noch die Dual P10 Karte.

AlphaNUSS
2017-01-08, 14:29:09
AMD braucht neben Marktanteilen aber auch Geld. AMDs R&D Budget für CPUs und GPUs ist ungefähr halb so groß wie das von Nvidia. Wenn AMD mehr Geld in die Entwicklung stecken könnte, würde Vega sicherlich auch nicht so spät kommen. Ich denke der Preis wird irgendwo zwischen 400 und 600€ liegen.

Gipsel
2017-01-08, 14:29:13
Was will AMD eigentlich zwischen VEGA10 und P10 bringen? Wenn VEGA angeblich sogut werden soll, was ist dann dazwischen?Vega11?

horn 12
2017-01-08, 14:39:27
Sage ich doch
Vega unter GTX Pascal für gute 450 Euro, vielleicht gar mehr wenn die Performance passt (Treiber!!)
Vega 11 aber erst später und um die 300 Euro, Tendenz 350 vielleicht.
Dann wird man noch einen Vega 16GB bringen und jenen höher takten lassen um die GTX 1080TI auszustechen.

iuno
2017-01-08, 15:13:59
Den Fehler der Fury X machen sie nicht erneut, zudem soll Hynics wohl einen Adapter Preis für die gesamte HBM Geschichte liefern.
und für 400 bis 450 Euro mit 8GB HBM² und zwischen GTX 1080 und Titan X Pascal wäre die Karte der Hammer schlechthin.
Rechne 8GB HBM² ist gleichauf teuer, maximal minimal teurer für AMD wie damals die 4x 1GB HBM 1 auf der Fury (X) und dies war das Vorserienmodell für Interposer, HBM und das Know-How welches eben erst nun die Früchte trägt.
Welchen Fehler meinst du?
Fiji hatte hauptsaechlich zu wenig Speicher. Der Preis waere mit 8 GiB angesichts der Konkurrenz (980-Titan) mehr als ordentlich gewesen.

Ausserdem muss man auch erstmal liefern koennen. Zen wird einige Kapazitaeten bei GF brauchen, Nvidia bei TSMC sowieso. Von den ganzen mobile SoCs bei TSMC+Samsung(+GF) ganz zu schweigen. Fiji und vor allem auch Hawaii waren absolut gesehen auch nicht billig und zum Start trotzdem schlecht verfuegbar.
So wie Pascal uebrigens auch.

Schaffe89
2017-01-08, 15:52:32
Vega11?

VEGA11 ist auf der AMD Folie die sie zum Launch von Polaris brachten der hellste und größte Stern.
Wahrscheinlich wird eher ein Dual Polaris 10 gebacht 2xRX470, zwischen RX480 und 2xRX470 dann eine überarbeitete Fury in 28nm mit 8GB HBM und darüber dann erst Vega 10 weiter darüber Vega 11.

Tahiti könnte das unten geshrinked abrunden wie eine warme Krautsuppe.

Unicous
2017-01-08, 16:02:25
Ein Stern, der deinen Namen trägt....

Gipsel
2017-01-08, 16:05:38
VEGA11 ist auf der AMD Folie die sie zum Launch von Polaris brachten der hellste und größte Stern.Du meinst die Fanart-Folie, die gar nicht von AMD kam? :rolleyes:

Auf den restlichen Kram gehe ich lieber nicht ein. Liest sich wie hanebüchener Blödsinn.

Korvaun
2017-01-08, 16:19:00
Wenn ich immer die Preisträumerei von gewissen Leute lese... da kann ich nur den Kopf schütteln. Wenn AMD wirklich so brutal auf Marktanteile aus ist, warum kostet dann ein RX480 8GB ab 250.- und eine GTX1060 6GB ab 260.-? Die Karten sind so gut wie gleichwertig. Warum kostet dann die AMD-Karte nicht durchgängig nur 230.- oder 210.- oder gar nur 199.-? AMD hat nix zu verschenken, Marktanteile um jeden Preis ergattern kann sich AMD schlicht nicht leisten...

Genau so wird das bei VEGA10/11 laufen. Preise werden entsprechend der Konkurrenz festgelegt, wenn irgend möglich mit Vorteil für AMD. Aber hunderte Euro billiger als die Konkurrenz, nur damit die Leute nen "Knallerangebot" kaufen können wird sicher nicht passieren.

Edit: Wer kann sich noch and die Fury/X-Preise erinnern? Die waren mit grossen Bauchschmerzen gerade so konkurrenzfähig, aber auch nur wenn man AMD-Fan war ;)

cyrusNGC_224
2017-01-08, 16:24:25
Auf den restlichen Kram gehe ich lieber nicht ein. Liest sich wie hanebüchener Blödsinn.Zumal Tahiti seit Tonga EOL ist.

mili2110
2017-01-08, 16:26:12
Vega Hands-On von Linus:
https://www.youtube.com/watch?v=Y8tDaPLHxiE


http://fs5.directupload.net/images/170108/6pmdf7u4.png

Gipsel
2017-01-08, 16:33:23
Erst Alles zukleben und dann das Seitenpanel vom Gehäuse abnehmen. So richtig entscheiden konnten Sie sich wohl auch nicht.

Skysnake
2017-01-08, 16:41:04
Naja, ich denke das war durchausw geplant. Sonst müsste man ja nicht abkleben. Was man nämlich nicht sieht sind die PCI-E Stromanschlüsse, auch mit abgenommenen Seitenteil. ;)

Das Ding hinten dran mit dem USB könnten Sie aber ruhig auf den Markt drücken für die Analyse von Kernels. Google und andere große Rechenzentren würden sich freuen, wenn Sie eine Hand voll von den Dingern hätten.

Thunder99
2017-01-08, 16:49:09
Sieht man ja, dass es ein Testboard ist also Prototyp

AlphaNUSS
2017-01-08, 16:53:14
Es wäre ja ganz toll von AMD, wenn manche Reviewer auch so schöne Karte bekommen würden, an der man per USB einfach alles auslesen kann.

Nightspider
2017-01-08, 16:58:07
Ob manche Spieleentwickler sowas vllt bekommen werden um ihren Programmcode optimal effizient zu schreiben, falls sie es wollen?

Botcruscher
2017-01-08, 17:27:53
Da müsste er mal klar sein was der Stöpsel da hinten alles macht. PS: Vom Netzteil werden schon typisch 8 und 6 angeschlossen sein.

Unicous
2017-01-08, 17:38:38
Da müsste er mal klar sein was der Stöpsel da hinten alles macht.

Was soll er denn machen? Es ist ein angeflanschtes Evaluationsboard, da werden sämtliche Messfühler, Spannungen, Taktraten, Temperaturen mitgeloggt.

Botcruscher
2017-01-08, 18:08:53
Debug und Monitoring wird schon noch ein gutes Stück mächtiger sein als ein paar Temperaturen und Spannungen. Sonst würde er sich im Vid auch nicht die Zeit nehmen.

Hübie
2017-01-08, 18:16:19
Debug-Ports sitzen weiter vorn. Kenne das von NV so. Da hast du wirklich direkten Zugriff aufs 'Metall'. Der USB-Port ermöglicht dagegen eben das Aufnehmen von sämtlichen Daten in Echtzeit ohne das System zu belasten. Afaik gibt AMD aber selbst bei seinen Consumer-Karten immer deutlich mehr heraus als NV (z.B. VRM Temps & Stromstärke...).

cyrusNGC_224
2017-01-08, 18:35:32
Debug macht macht man eher mit JTAG als mit USB. Oder es ist ein Konverter.

Loeschzwerg
2017-01-08, 18:39:40
Ab 4:11 wird die Funktion erklärt...
https://youtu.be/Y8tDaPLHxiE?t=4m11s

Edit:
Mich würde ja interessieren ob die finalen Karten ebenfalls mit einer DHE Kühllösung (siehe Video) erscheinen oder ob es wieder eine AiO Wakü (Fury X) sein wird.

Screemer
2017-01-08, 19:38:19
Also zumindest sind die vorserienkarten in doom schon mal knapp schneller als txp. Ist ja schon mal chic.

BlacKi
2017-01-08, 19:47:18
Also zumindest sind die vorserienkarten in doom schon mal knapp schneller als txp. Ist ja schon mal chic.
wie kommst du darauf? in den 4k ultra video zur karte liegt die txp bei ca. 73-108fps. die vega karte ca. zwischen 58 und 76

hast du dir die maxwell karte angesehen?

Complicated
2017-01-08, 20:00:56
Die 108 kannst du getrost auf 85 korrigieren für die TXP. Ansonsten müsstest du die Fury X mit 55-75 FPS angeben, obwohl sie nur gelegentlich die 60 FPS streift. Die ersten 2 Sekunden kannst du vergessen:
http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9KL1AvNjAwNzU3L29yaWdpbmFsL2Rvb20tMzh4MjEt ZnJvdC5wbmc=/r_600x450.png
Ja sie ist schneller aber lass uns doch reele Zahlen benutzen.

aufkrawall
2017-01-08, 20:05:18
Sind die Zahlen denn auch valide, sprich wurde ca. die gleiche Szene gebencht?

Hübie
2017-01-08, 20:06:52
Debug macht macht man eher mit JTAG als mit USB. Oder es ist ein Konverter.

Klar. Das sind dann diese kleinen Pins die nach oben herausragen. Über USB hab ich es zumindest noch nie gesehen.

https://abload.de/img/debug0cuqt.png (http://abload.de/image.php?img=debug0cuqt.png)

Das blaue könnte Display sein und hinten die Pins vom PCIe-Slot.

BlacKi
2017-01-08, 21:15:57
Die 108 kannst du getrost auf 85 korrigieren für die TXP. Ansonsten müsstest du die Fury X mit 55-75 FPS angeben, obwohl sie nur gelegentlich die 60 FPS streift. Die ersten 2 Sekunden kannst du vergessen:
http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9KL1AvNjAwNzU3L29yaWdpbmFsL2Rvb20tMzh4MjEt ZnJvdC5wbmc=/r_600x450.png
Ja sie ist schneller aber lass uns doch reele Zahlen benutzen.
meine ca zahlen hatte ich hier her https://www.youtube.com/watch?v=gM92g5xq6mY

edit: ich glaube auch nicht das die leistung, die man dort in der vega demo sieht, final sind, das wäre ganz schön mieß wenn vega 10 grade mal 20-30% schneller wäre als die fury x. das wäre im 3dc index grade mal 1080 leistungsniveau.

basix
2017-01-08, 21:23:04
JTAG ist schon normalerweise die Testschnittstelle für Microcontroller und Konsorten. Ich denke USB bietet einfach mehr Performance / Bandbreite. Keine Ahnung ob es eine "high performance" JTAG Schnittstelle für etwas dickere Chips gibt. Wenn du etliche Sensoren im Mikro- wenn nicht sogar Nanosekundenbereich loggen willst (z.B. Input- und Outputstreams ihres Sensornetzwerks für die Temperatur, Spannungs- und Taktanpassung) generiert das schon ziemlich viele Daten.

Alternativ können sie ja dort jetzt direkt eine SSD anhängen und Daten darauf loggen ;)

horn 12
2017-01-08, 21:52:31
Sieht nicht soo schlecht aus für AMD
Vielleicht kommt heute zum Abschluss noch kleines Detail am Rande...
Eine ungefähre Preisangabe würde so manche zum Abwarten bewegen!

y33H@
2017-01-08, 22:01:04
Wo du immer deinen Optimismus hernimmst ...

reaperrr
2017-01-08, 22:50:13
edit: ich glaube auch nicht das die leistung, die man dort in der vega demo sieht, final sind, das wäre ganz schön mieß wenn vega 10 grade mal 20-30% schneller wäre als die fury x. das wäre im 3dc index grade mal 1080 leistungsniveau.
Die Architektur wurde in quasi allen Bereichen teils deutlich überarbeitet, in den Demos läuft die Vega-Karte aber aktuell nur mit leicht angepassten Fiji-Treibern, schöpft viele der Hardware-Verbesserungen also wohl noch gar nicht aus.
Ich erinnere dabei auch mal an Hawaii und Tonga, deren Tesselation-Performance erst mit dem Treiber-Refresh zur 300er Serie auf das Niveau gebracht wurde, welches die Hardware eigentlich hergab (was natürlich verdammt spät war, >1,5 Jahre nach Launch der 290(X)...).
Auch aus der RX 480 hat AMD seit Launch nochmal fast 10% rausgekitzelt, und die Architekturänderungen Tonga/Fiji -> Polaris waren ein Klacks im Vergleich zu Polaris -> Vega.

Man darf auch nicht ganz vergessen, dass die TXP - von der kommenden 1080 Ti mal ganz abgesehen, die anhand der bisher "geleakten"/spekulierten Specs eher noch einen Tick drunter landen sollte - in vielen Titeln nur 25-30% vor der 1080 liegt, so einen Wahnsinns-Sprung muss AMD also gar nicht mehr machen, wenn sie mit völlig unoptimierten Treibern schon gleichauf oder knapp über der 1080 liegen.

Last but not least: Wir wissen nicht, welcher durchschnittliche Takt bei dem Vega-ES überhaupt anlag. Wenn der Chip z.B. nur mit ~1100-1200 MHz lief, aber finale Karten mit 1500+ MHz kommen sollen...

Botcruscher
2017-01-08, 22:55:51
Optimismus ist bei einem Vorzeigetitel, Prototyp und eher durchwachsenen Leistungen ja auch angebracht. 70 oder 80 FPS wären von der Fury jetzt nicht sonderlich überzeugend.

Wann die ersten fertigen Karten bei AMD und später den Partnern aufschlagen würde mich mal interessieren. Spannende Sache. Die Vega Torte mit den Projekt F "Leaks" war glaube ich im März. Dauert also alles seine Zeit.

Complicated
2017-01-08, 22:59:50
meine ca zahlen hatte ich hier her https://www.youtube.com/watch?v=gM92g5xq6mY
Ja immer dann wenn der Spieler stehen bleibt. Daher auch die ersten Sekunden bei THG wo hoch sind für alle getesteten Karten. Doch dann gehts los und die werden nicht mehr erreicht.

horn 12
2017-01-08, 23:04:41
Exakt, denn durch das Zukleben aller Lüftungsschlitze dürfte selbst die Karte nicht das Volle Potential ausschöpfen und AMD wird wohl dafür gesorgt haben dass der Takt drosselt.
Nehmen wir mal an die 1300 bis 1400 Mhz, wären also nochmals gute 10 bis 15% obendrauf falls die Vega GPU mit 1500+ Mhz kommen sollte.

AMD lässt sich nicht in die Karten schauen, wissen wohl was auf dem Spiel steht und machen es einer GTX 1080TI wahrlich nicht leicht.

cyrusNGC_224
2017-01-08, 23:55:41
Klar. Das sind dann diese kleinen Pins die nach oben herausragen. [...]
Das blaue könnte Display sein und hinten die Pins vom PCIe-Slot.Dafür müssen die erstmal wieder die Pins zurecht biegen :D

JTAG ist schon normalerweise die Testschnittstelle für Microcontroller und Konsorten. Ich denke USB bietet einfach mehr Performance / Bandbreite. Keine Ahnung ob es eine "high performance" JTAG Schnittstelle für etwas dickere Chips gibt. Wenn du etliche Sensoren im Mikro- wenn nicht sogar Nanosekundenbereich loggen willst (z.B. Input- und Outputstreams ihres Sensornetzwerks für die Temperatur, Spannungs- und Taktanpassung) generiert das schon ziemlich viele Daten.JTAG interessiert es nicht, was da durchleuchtet wird. Und man kann damit, wenn es so designt ist, jedes Register, jedes Gtter, jeden Transistor testen/ansteueren. Und selbst im Betrieb manipulieren. Aber richtig, zum loggen von Sensordaten usw. ist etwas spezifisches besser geeignet.

Rabiata
2017-01-08, 23:57:49
VEGA11 ist auf der AMD Folie die sie zum Launch von Polaris brachten der hellste und größte Stern.
Wahrscheinlich wird eher ein Dual Polaris 10 gebacht 2xRX470, zwischen RX480 und 2xRX470 dann eine überarbeitete Fury in 28nm mit 8GB HBM und darüber dann erst Vega 10 weiter darüber Vega 11.

Tahiti könnte das unten geshrinked abrunden wie eine warme Krautsuppe.
Wenn schon, dann Tonga. Tahiti ist doch schon etwas älter :freak:.
Aber ob das Teil gegenüber der RX 470 noch konkurrenzfähig ist, bezweifle ich doch sehr.

Ich hab mal (wieder) bei Mindfactory reingeschaut, um Preise zu vergleichen:

R9 380 - noch ein Modell verfügbar, von PowerColor (4GB) für 169,90€
RX 470 - die billigsten 4GB Modelle kosten 189€

Also noch etwa 20 Euro Unterschied, und in dem Kotaku Review das ich auf die Schnelle gefunden habe, hat die RX 470 klar bessere Performance.
Dazu der geringere Stromverbrauch, und Tonga ist nur noch als Gebraucht-Billigschnäppchen interessant.

Edith sagt:
Das "geshrinkt" hab ich überlesen, aber was ist damit gemeint? Tonga in 14nm ergibt meiner Meinung keinen Sinn, eher würde AMD noch einen neuen GCN4 Chip in die Lücke zwischen Polaris 10 und 11 schieben...

aufkrawall
2017-01-09, 00:13:40
Ist dieser Arcade-Level aus Doom der einzige, der mit Vega gezeigt wurde, oder gibts mehr Material?
https://www.youtube.com/watch?v=13V8lYS--Pg
Beim Melee-Kill vom Imp gehen die fps mit Vega in den 40er Bereich runter, schon viel zu langsam für das Spiel.

BlacKi
2017-01-09, 00:15:09
Ja immer dann wenn der Spieler stehen bleibt. Daher auch die ersten Sekunden bei THG wo hoch sind für alle getesteten Karten. Doch dann gehts los und die werden nicht mehr erreicht.
ich ziehe die vergleiche mit der vega demo nicht mit denen von thg.

rechnen wir den fps der vega demo noch 15% drauf, dann kommt man immernoch nicht an die txp, wäre ja nicht schlecht, wenn man das auf andere spiele ebenso übertragen könnte.

ja, aber nur könnte. die performance von einer 1080ti/txp wird die karte nicht erreichen. ist ja aber kein problem, das passt man eben über den preis an.

[MK2]Mythos
2017-01-09, 00:34:17
Hört doch mal auf aufgrund von Fantasiezahlen auf andere Fantasiezahlen zu schließen. Vermutlich weiß nicht mal AMD selber wie schnell Vega am Ende genau wird und ihr fantasiert schon wieder mit ausgedachten Frequenzen über Taktverbesserungen und Treiberoptimierungen auf eine endgültige Performance. Meine Güte...

Loeschzwerg
2017-01-09, 07:06:14
Exakt, denn durch das Zukleben aller Lüftungsschlitze dürfte selbst die Karte nicht das Volle Potential ausschöpfen und AMD wird wohl dafür gesorgt haben dass der Takt drosselt.


Das "Zukleben" hat da vermutlich nicht so viel Einfluss. In der Front sitzen zwei dicke Lüfter die Frischluft reinschaufeln und die Karte hat einen DHE Kühler, einen Stau beim Luftstrom hast du da erstmal nicht. Wenn dann limitiert die DHE Kühlung falls der Radiallüfter durch eine Lüftersteuerung begrenzt wurde.

horn 12
2017-01-09, 07:13:50
Dies stimmt auch wieder! Man sieht das Flackern des schwarzen Abklebestreifens.

Loeschzwerg
2017-01-09, 07:24:42
Hat jemand ne Ahnung was da für ein Netzteil eingesetzt wurde? Sonderlich viel scheint da nicht "abgezweigt" zu werden.

58602

Screemer
2017-01-09, 07:39:50
für mich sieht das sogar so aus, als ob man nur einen der 8pin genutzt hätte.

Loeschzwerg
2017-01-09, 07:46:04
Sieht schwer danach aus, aber das Kabel kann sich zur Graka hin noch mal aufteilen. Das Netzteil (Kabelsatz) wäre daher interessant zu wissen :)

KORE
2017-01-09, 07:47:06
Für mich auch.
Es könnte aber auch ein Molex Adapter genutzt worden sein.

tm0975
2017-01-09, 08:51:09
nix da extra 8pin stromanschluß. das teil zieht verbotene 80 watt aus dem mainboard-pcie-slot!

M4xw0lf
2017-01-09, 08:54:20
Hat jemand ne Ahnung was da für ein Netzteil eingesetzt wurde? Sonderlich viel scheint da nicht "abgezweigt" zu werden.

58602
für mich sieht das sogar so aus, als ob man nur einen der 8pin genutzt hätte.
Sieht schwer danach aus, aber das Kabel kann sich zur Graka hin noch mal aufteilen. Das Netzteil (Kabelsatz) wäre daher interessant zu wissen :)
Schluss jetzt, sie haben sich so viel Mühe gegeben, die Stromstecker abzukleben! :unono:

Flusher
2017-01-09, 09:15:46
Hat jemand ne Ahnung was da für ein Netzteil eingesetzt wurde? Sonderlich viel scheint da nicht "abgezweigt" zu werden.

58602

Möglicherweise irgendwas von Corsair? Das Gehäuse sieht zumindest nach Corsair aus - wäre naheliegend da auch ein Netzteil von Corsair drinstecken zu haben. Hab aber auf die schnelle bei GH nichts finden können.

Kriton
2017-01-09, 09:22:27
nix da extra 8pin stromanschluß. das teil zieht verbotene 80 watt aus dem mainboard-pcie-slot!

Der war gut! :biggrin:

StefanV
2017-01-09, 09:27:59
Hat jemand ne Ahnung was da für ein Netzteil eingesetzt wurde? Sonderlich viel scheint da nicht "abgezweigt" zu werden.

58602
Müsst eins der größeren Cooler Master Master Power sein, 1200W oder so.
Kannst dir ja mal anschauen.

KORE
2017-01-09, 09:38:42
Müsst eins der größeren Cooler Master Master Power sein, 1200W oder so.
Kannst dir ja mal anschauen.

Nein das ist kein Cooler Master.

Hübie
2017-01-09, 09:53:09
Hat jemand ne Ahnung was da für ein Netzteil eingesetzt wurde? Sonderlich viel scheint da nicht "abgezweigt" zu werden.

58602

Thermaltake. Bei Minute 3:12 sieht man ganz unten am Bildschirmrand das 'Tt-Logo'. Bei 4:22 sieht man dass es teilmodular ist. :D

KORE
2017-01-09, 10:01:54
Thermaltake. Bei Minute 3:12 sieht man ganz unten am Bildschirmrand das 'Tt-Logo'. Bei 4:22 sieht man dass es teilmodular ist. :D

Die Stecker passen aber nicht... Die Form erinnert etwas an Superflower.

Hübie
2017-01-09, 10:11:09
Hab auf deren Homepage auch nix passendes gefunden. Vielleicht schon ein altes Modell. Wer weiß. Ist auch nicht sonderlich relevant.

Loeschzwerg
2017-01-09, 10:20:37
Danke Hübie, dann ist es aus der halbwegs aktuellen SMART Serie von Thermaltake:
https://www.amazon.com/Thermaltake-BRONZE-Modular-Supply-SP-1200MPCBUS/dp/B0085RQ9AU

Also vermutlich ist das Kabel gesplittet auf 2x 6+2Pin.

Hübie
2017-01-09, 10:22:29
Hey da ist es ja. :D Das wären 300 Watt plus PCIe oder?

Edit: Wobei das ja nicht auf den Verbrauch hindeuten muss.

Loeschzwerg
2017-01-09, 10:24:44
Wir sind genauso un/wissend wie zuvor, >= 225Watt ^^

KORE
2017-01-09, 10:27:45
Kann denn keiner, anhand der Form des Klebeband, schätzen welche Stecker gesteckt sind ? XD

Ich tippe auf 2x6 ...

Complicated
2017-01-09, 10:29:31
Ich sehe das genau so wie Leonidas es geschrieben hat in seiner News:
Interessant aus jetziger Sicht ist vor allem das, was AMD da abklebt hat: Es sind die PCI-Express-Stromanschlüsse – welche Hinweise zum Stromverbrauch und damit der TDP der Karte geben würden. Angesichts der genannten 225 Watt für den Vega-10-Chip könnte es AMD hierbei sicherlich mit zwei 6poligen Stromsteckern versuchen – besser wäre gerade im Sinne eines Prototypen allerdings eine wirklich sichere Lösung mit 1x 6pol. und 1x 8pol. oder auch gleich 2x 8pol. Stromsteckern. Möglicherweise wollte AMD an dieser Stelle nur den Aufschrei "Vega frisst 300 Watt" vermeiden (oder gar 375W bei 2x8pol.), welcher sich aus einer Milchmädchen-Hochrechnung dieser Anschlüsse ergeben hätte.
Und genau das beobachten wir hier ja gerade ;)

[MK2]Mythos
2017-01-09, 10:31:44
Wieso? Dank Troyan wissen wir doch schon dass die Karte 299-300 Watt verbrauchen wird. Was soll das Rumgerate? :D

KORE
2017-01-09, 10:36:22
Mythos;11259945']Wieso? Dank Troyan wissen wir doch schon dass die Karte 299-300 Watt verbrauchen wird. Was soll das Rumgerate? :D

Es geht dabei darum ob Spezifikationen überschritten werden. XD

Schnoesel
2017-01-09, 10:43:19
Hört doch mal auf aufgrund von Fantasiezahlen auf andere Fantasiezahlen zu schließen. Vermutlich weiß nicht mal AMD selber wie schnell Vega am Ende genau wird und ihr fantasiert schon wieder mit ausgedachten Frequenzen über Taktverbesserungen und Treiberoptimierungen auf eine endgültige Performance. Meine Güte...

This. Es wird schon seinen Grund haben warum es noch Monate dauert bis Vega final ist.

BlacKi
2017-01-09, 10:43:33
jaber warum klebt man an der graka alles ab, und lässt das netzteil unbeklebt, wennn man das gerate vermeiden wollte?

AffenJack
2017-01-09, 10:49:07
Weil es einem als normal da arbeitender Typ nicht in den Sinn kommt, dass die Leute sich sogar über so einen unwichtigen Kleinscheiß den Kopf zerbrechen und Theorien draus machen. Vor allem da Samples oft eine größere Stromversorgung haben. Zumindest ich kriege bei dieser Diskussion nur das Verlangen Kopf->Tischkante.

BlacKi
2017-01-09, 10:53:47
tu dir keinen zwang an.

Hübie
2017-01-09, 10:56:57
Ach so meintest du das. Ich habe verstanden, dass 2 x 6 + 2 Pin an die Graka gehen. :freak:

Complicated
2017-01-09, 11:23:54
jaber warum klebt man an der graka alles ab, und lässt das netzteil unbeklebt, wennn man das gerate vermeiden wollte?Ich glaube auch nicht dass beim Abkleben vorgesehen war jemanden das Seitenteil des Gehäuses abnehmen zu lassen.

- Anweisung an Messemitarbeiter: Auf keinen Fall Gehäuse öffnen, sonst direkt gefeuert. Klebt alles ab damit man nichts sieht von den Innereien.
- Ankunft Presse
- Ankunft Management das mit der Presse spricht
- Management sagt Lieblings-Presse "Klar kannst du das Seitenteil abnehmen" denkt sich "ist ja alles abgeklebt auf Anweisung". Messemitarbeiter kriegt Herzinfarkt weil man doch einiges sehen kann.

Typische Messedynamiken.

BlacKi
2017-01-09, 11:33:13
Messemitarbeiter kriegt Herzinfarkt weil man doch einiges sehen kann.

Typische Messedynamiken.
:biggrin:

KORE
2017-01-09, 11:34:56
Da wir ja aufgeklärt wurden das die Karte 300 Watt zieht, ist es eben noch wichtig zu wissen welche Stecker gesteckt sind, um zu wissen wie viel Watt über den pcie gehen.:freak:

Hübie
2017-01-09, 11:42:19
Die Grünen sagen: 300 Watt über PCIe-Slot und 75 Watt vom Stecker. Die Roten sagen: 100 über Stecker 50 über Slot, Rest ist Reserve.
Die Wahrheit ist in der Mitte. ;D Auf einer der Folien stand ja 16 FF+ TSMC. Wenn das stimmt erwarte ich bessere Verlustleistung als P10 (in Relation), da der 14-nm-Prozess eventuell noch nicht so ausgereift ist oder aber das Design von P10 suboptimal ist. Kann man ja nicht mit Sicherheit sagen.
Ich erinnere mich halt nur an die Apple-Chips wo TSMC doch etwas besser abschnitt.

Zergra
2017-01-09, 11:47:07
Hey da ist es ja. :D Das wären 300 Watt plus PCIe oder?

Edit: Wobei das ja nicht auf den Verbrauch hindeuten muss.

Heißt ja auch nicht das von den Steckern auch alle angeschlossen sind :freak:

Complicated
2017-01-09, 12:05:04
Raja Koduri in einem weiteren Interview sagt, dass mit Vegas HBCC die verbaute Festplatte keine Rolle mehr spielt (SSD oder HDD) für die Performance und der Speicherbedarf auf der GPU selber (wird nur noch Cache genannt anstatt VRAM) sich etwa halbiert.
https://www.youtube.com/watch?v=FwcUMZLvjYw

Das würde für AMD Spielrechner einen enormen Kostenvorteil bedeuten im Gesamtsystem. OEMs müssten gar keine SSD mehr verbauen, sondern nur noch eine TB HDD. Na da bin ich mal auf Tests gespannt die das genauer untersuchen.

Edit: Damit würden sämtliche schnelle Massenspeicher für Spielerechner obsolet :O

Pirx
2017-01-09, 12:14:18
na die Kunden würden sich bedanken...

Dino-Fossil
2017-01-09, 12:24:50
Eine SSD ist ja nun nicht nur für Spieleperformance wichtig (dafür wohl sogar eher weniger). Und ich bezweifle doch sehr, dass ein Vega-System auf einmal Bootvorgang, Öffnen von Programmen und andere allgemeine Dateiaktionen außerhalb von GPU-basierten Vorgängen in irgendeiner Weise tangiert.

Botcruscher
2017-01-09, 12:31:17
Bandbreite brauchen wir auch keine mehr. Wer weiss in welchem Zusammenhang der Werbefritze das gemeint hat. Am Ende wird das so erfolgreich wie Chill...

Complicated
2017-01-09, 12:52:08
Raja Koduri ist für dich also ein Werbefritze...aha.
Das ist hier echt wie Perlen vor die Säue zu werfen im Forum.... naja in 3 Monaten seid ihr vielleicht auch soweit euch mit diesem Thema geistig etwas differenzierter auseinander zu setzen.

Nur mal so als Erinnerung:
Vor seiner Tätigkeit bei AMD war Raja Koduri Direktor des Bereichs Graphics Architecture bei Apple Inc. Dort war er an der Erstellung eines führenden Grafiksubsystems für die gesamte Mac-Produktfamilie beteiligt und leitete den Umstieg auf Retina-Displays für Computer. Vor seiner Einstellung bei Apple war Raja Koduri in verschiedene Leitungspositionen tätig. Dabei zeichnete er nicht nur verantwortlich für Initiativen zur Sicherstellung einer optimalen GPU-Performance bei Hardware und Software, sondern arbeitete auch maßgeblich am Design der GPU-Systemarchitektur. Überdies war er an der Entwicklung von Funktionen beteiligt, die zu einer Qualitätsverbesserung und vereinfachten Programmierbarkeit von AMD und ATI Grafikprodukte geführt hatten.Und was war deine Qualifikation nochmal um seine Aussagen in irgendeiner Form zu Beurteilen?

Troyan
2017-01-09, 12:55:18
Ja, nur zur Erinnerung:
https://cms-images.idgesg.net/images/article/2016/05/radeon-480-performance-100663924-orig.png
http://www.pcworld.com/article/3077432/components-graphics/polaris-confirmed-amds-200-radeon-card-will-bring-high-end-graphics-to-the-masses.html

Der Typ ist ein Proxy für die Werbeaussagen der Geschäftsführung.

Zergra
2017-01-09, 12:57:25
Da steht ja auch UP TO.

Sollte jeder der einen Internet Anschluss oder einen Mobilfunkvertrag hat kennen....

Complicated
2017-01-09, 13:04:14
@Troyan
Der Typ ist die Geschäftführung. Schlag mal Proxy nach.
Und was soll uns dieses Bild sagen? Alles was darauf zu sehen ist kam genau so im Markt an.

Soll ich mal deine Zitate hier raus kramen du Troll?

Troyan
2017-01-09, 13:08:12
Es ist offensichtlich, dass es reine Fantasiezahlen waren, um ein nicht veröffentliches Produkt zu hypen.

Das passiert mit Vega exakt genauso. Es gibt keine Erklärungen, keine technischen Beschreibungen, keine Codebeispiel... aber wir wissen schon, dass es SSDs für Spiele überflüssig werden lässt. Alleine der nicht übersehbare Elefant "PCIe" wird nirgendwo angesprochen. Wenn Leute meinen, dass 16gb/s ausreichend wären, wieso gibt es Bestrebungen für PCIe 4.0 und propritäre Schnittstellen wie NVLink?

Locuza
2017-01-09, 13:12:07
Raja Koduri in einem weiteren Interview sagt, dass mit Vegas HBCC die verbaute Festplatte keine Rolle mehr spielt (SSD oder HDD) für die Performance und der Speicherbedarf auf der GPU selber (wird nur noch Cache genannt anstatt VRAM) sich etwa halbiert.
https://www.youtube.com/watch?v=FwcUMZLvjYw

Das würde für AMD Spielrechner einen enormen Kostenvorteil bedeuten im Gesamtsystem. OEMs müssten gar keine SSD mehr verbauen, sondern nur noch eine TB HDD. Na da bin ich mal auf Tests gespannt die das genauer untersuchen.

Edit: Damit würden sämtliche schnelle Massenspeicher für Spielerechner obsolet :O
Nicht anders ist es auch Heutzutage und ich habe keine Ahnung wie man zu der Ableitung kommen kann, dass auf einmal SSDs mit einer HDD ersetzt werden könnten.

Complicated
2017-01-09, 13:19:46
Weil genau das Raja Koduri gesagt hat - frag doch ihn. Beginnend min. 7.30 bis 8:00 im Video das ich verlinkt habe
"Where User doesn't have to make the subchoice 'Hey do I buy a 128 GB SSD that boots fast an all or, you know, a 2 TB Harddisk that ist cheaper', right? I want to take this coice out of the Users stuff. It's like 'don't worry'"

Ich habe ein paar "ääähs" weg gelassen.

deekey777
2017-01-09, 13:22:07
:popcorn:
Zu geil hier. Maharadscha kommt von Apple, also wendet er die gleiche Marketingstrategie an. Und alles Lügen.

KORE
2017-01-09, 13:25:01
Vielleicht liegt ja eine SSD bei. :)

Botcruscher
2017-01-09, 13:26:54
Und was soll uns dieses Bild sagen? Alles was darauf zu sehen ist kam genau so im Markt an.

Na dann ist ja gut.:freak: Ansonsten _ist_ jede Aussage über Technologien die nicht unabhängig überprüft wurden schlicht Marketing. Beim HDD/SSD Vergleich kommt noch die Bandbreite dazu. Ich zweifle auch ganz öffentlich solchen Bullshit wie 8GB Vega Speicher werden 16 typischen Vrams entsprechen. NV and AMD können aktuell überhaupt nicht so schlecht sein. Steigerungen von 50% sind bei optimierten System utopisch.
Und alles Lügen.
Nicht Lügen, Marketing. Da ist ein enormer Unterschied. Vega wird keine SSD ersetzen aber in gewissen Fällen gibt es eben keinen Unterschied zur SSD. Im Zweifel tritt dieser Fall eben normal nie ein.
Ein Techniker würde auch ganz anders argumentieren.

Rabiata
2017-01-09, 13:27:37
Raja Koduri in einem weiteren Interview sagt, dass mit Vegas HBCC die verbaute Festplatte keine Rolle mehr spielt (SSD oder HDD) für die Performance und der Speicherbedarf auf der GPU selber (wird nur noch Cache genannt anstatt VRAM) sich etwa halbiert.
https://www.youtube.com/watch?v=FwcUMZLvjYw

Das würde für AMD Spielrechner einen enormen Kostenvorteil bedeuten im Gesamtsystem. OEMs müssten gar keine SSD mehr verbauen, sondern nur noch eine TB HDD. Na da bin ich mal auf Tests gespannt die das genauer untersuchen.

Edit: Damit würden sämtliche schnelle Massenspeicher für Spielerechner obsolet :O
Na die naheliegende Quelle, um Texture und dergleichen nachzuladen, wäre der RAM des PCs. Also Festplatte oder SSD => RAM => VRAM (letzteres nach Bedarf).

Da bleibt die SSD durchaus relevant, mal abgesehen davon, daß sie schon zum flotten Laden des Betriebssystems hilft :wink:.

Unicous
2017-01-09, 13:27:49
Könnt ihr mal eure rassistischen Anwandlungen für euch behalten. Danke im Voraus.

Complicated
2017-01-09, 13:28:57
Es ist offensichtlich, dass es reine Fantasiezahlen waren, um ein nicht veröffentliches Produkt zu hypen.

Das passiert mit Vega exakt genauso. Es gibt keine Erklärungen, keine technischen Beschreibungen, keine Codebeispiel... aber wir wissen schon, dass es SSDs für Spiele überflüssig werden lässt. Alleine der nicht übersehbare Elefant "PCIe" wird nirgendwo angesprochen. Wenn Leute meinen, dass 16gb/s ausreichend wären, wieso gibt es Bestrebungen für PCIe 4.0 und propritäre Schnittstellen wie NVLink?
Was denn für Fantasiezahlen. Die Zahlen sind korrekt und in Produkten vor zu finden. Ich bin sicher du hast nachgeschaut was in der Fussnote mit der Ziffer "2" steht auf dieser Folie.

Wenn PCIe der Flaschenhals ist, worin unterscheidet sich dann die SSD von der HDD in der Performance?

Es gibt Codebeispiele und es gibt komplette Dokumentationen wie das funktioniert. http://gpuopen.com/games-cgi/
Doch wozu verlinken, du hast dir ja nicht mal das Video angeschaut über das du hier her ziehst. Achso halt du hast ja eine Schmutz-Kampagne gegen Raja Koduri gestartet, oder den "Typ" wie du ihn immer wieder bezeichnest.

Gipsel
2017-01-09, 13:30:58
Weil genau das Raja Koduri gesagt hat - frag doch ihn. Beginnend min. 7.30 bis 8:00 im Video das ich verlinkt habe
"Where User doesn't have to make the subchoice 'Hey do I buy a 128 GB SSD that boots fast an all or, you know, a 2 TB Harddisk that ist cheaper', right? I want to take this coice out of the Users stuff. It's like 'don't worry'"Das hast Du mißverstanden. Das war eine Analogie zum VRAM bezüglich Kapazität und Geschwindigkeit. Bei Festplatten muß sich der User entscheiden (völlig unabhängig von der Frage der Grafik), ob er eine kleinere aber schnellere SSD kaufen will, eine große aber langsamere Festplatte oder irgendeine Kombination davon. Dies ist (war) eine mehr oder weniger schwierige Entscheidung, insbesondere in der Anfangszeit der SSDs.
Mit dem HBCC will man in Bezug auf Grafikkarten eine ähnliche Schwierigkeit bei der Wahl vermeiden (also ob man lieber eine 16GB Karte mit etwas langsamerem VRAM oder eine 8GB-Karte mit schnellerem VRAM nehmen sollte). Das war der Kern der Aussage. SSDs werden mit Vega natürlich nicht obsolet.

Locuza
2017-01-09, 13:31:25
Weil genau das Raja Koduri gesagt hat - frag doch ihn. Beginnend min. 7.30 bis 8:00 im Video das ich verlinkt habe
"Where User doesn't have to make the subchoice 'Hey do I buy a 128 GB SSD that boots fast an all or, you know, a 2 TB Harddisk that ist cheaper', right? I want to take this coice out of the Users stuff. It's like 'don't worry'"

Ich habe ein paar "ääähs" weg gelassen.
Dann hört man sich am Besten die Stellen vorher an wie 6:35, wo der Kontext darum geht wie viel VRAM und Bandbreite man hat und wie schwer es teilweise ist den Konsumenten in diesem Belang zu unterrichten.
Das Beispiel SSD vs. HDD war nur ein stellvertretendes Beispiel und keine technische Ankündigung.

Complicated
2017-01-09, 13:31:52
Na die naheliegende Quelle, um Texture und dergleichen nachzuladen, wäre der RAM des PCs. Also Festplatte oder SSD => RAM => VRAM (letzteres nach Bedarf).

Da bleibt die SSD durchaus relevant, mal abgesehen davon, daß sie schon zum flotten Laden des Betriebssystems hilft :wink:.
Richtig nur macht das der HBCC nicht mehr mit dem RAM. Auch das sagt Raja Koduri in dem Video. Er beschreibt, wie mit Vega der System-RAM nicht mehr geflusht wird wenn man den Task wechselt und dann mal Browser oder andere Dinge nutzt und somit alle relevanten Daten beim Switch zurück nach wie vor da sind und es keine langen Wartezeiten gibt beim zurück switchen. Der System-RAM spielt hier nicht mehr die Rolle wie zuvor beim Spielen, sondern wird zum großen Teil umgangen.

Gipsel
2017-01-09, 13:33:27
An Alle geht die Aufforderung, sich doch bitte etwas zu beruhigen. Hier darf und soll gerne über Vega spekuliert werden, aber doch bitte sachlich.

Danke.

Complicated
2017-01-09, 13:36:11
Ich glaube nicht dass dies eine Analogie war. Nachdem ich mir das ganze nochmal angehört habe sagt Koduri ab 5:30, dass er zukünftige die Bandbreite auf die Packung schreiben will, damit die Gamer eine neue Metrik bei Ihrer Kaufentscheidung berücksichtigen, da diese wichtiger ist als die Menge des "Caches" den er zu keiner Zeit als VRAM bezeichnet. Nur die "nerdigsten der nerdigen" sprechen über Bandbreite und er will das dem Massenpublikum näher bringen.

dildo4u
2017-01-09, 13:36:41
Was er erzählt hat klingt für mich logisch auf dem PC werden massig Ressourcen verschwendet,die PS4 hat 5GB für V-ram und den Arbeitsspeicher und die High End Games sehen dort exzellent aus.So gut das erst die PS4 Pro das volle Potenzial der Assets zeigen kann.

https://youtu.be/hdRdH5RxWRM

Korvaun
2017-01-09, 13:37:38
Der gute Raja hat schon einen Hang zur "positiven Übertreibung". Klar, was soll er gross anderes machen, er ist schließlich Chef der Grafiksparte. Trotzdem, ich erinnere mich dunkel an das laut seinen Aussagen OC-Super-Duper-Grakamonster Fiji, was dann eher ein laues Lüftchen war. Dann der Polaris-Chip, eine Zeitenwende, unglaublich supertoll das Ding laut seiner Aussagen. Wurde dann auch eher ein laues Lüftchen. Wenn man das auf VEGA weiterdenkt...

Gipsel
2017-01-09, 13:39:00
Richtig nur macht das der HBCC nicht mehr mit dem RAM. Auch das sagt Raja Koduri in dem Video. Er beschreibt, wie mit Vega der System-RAM nicht mehr geflusht wird wenn man den Task wechselt und dann mal Browser oder andere Dinge nutzt und somit alle relevanten Daten beim Switch zurück nach wie vor da sind und es keine langen Wartezeiten gibt beim zurück switchen. Der System-RAM spielt hier nicht mehr die Rolle wie zuvor beim Spielen, sondern wird zum großen Teil umgangen.Da ging es um den VRAM und Austausch von Inhalten darin.
Ich glaube nicht dass dies eine Analogie war.Na klar war das eine.
Nachdem ich mir das ganze nochmal angehört habe sagt Koduri ab 5:30, dass er zukünftige die Bandbreite auf die Packung schreiben will, damit die Gamer eine neue Metrik bei Ihrer Kaufentscheidung berücksichtigen, da diese wichtiger ist als die Menge des "Caches" den er zu keiner Zeit als VRAM bezeichnet. Nur die "nerdigsten der nerdigen" sprechen über Bandbreite und er will das dem Massenpublikum näher bringen.Und auch das macht klar, daß es ihm um die Abwägung Bandbreite<=>Kapazität beim auf der Karte verbauten RAM geht und das zukünftig mehr Wert auf die Bandbreite gelegt werden sollte, als nur fett 8GB auf die Packung zu schreiben (was im Zweifelsfall grottenlahmes DDR4 ist). ;)

Troyan
2017-01-09, 13:39:34
Wenn PCIe der Flaschenhals ist, worin unterscheidet sich dann die SSD von der HDD in der Performance?

Eine SSD ist schneller als eine HDD. Beide können PCIe nicht auslasten. Da also der limitierende Faktor die Festplatte darstellt, kann AMD überhaupt nicht die SSD für das schnellere Laden der Daten negieren.


Es gibt Codebeispiele und es gibt komplette Dokumentationen wie das funktioniert. http://gpuopen.com/games-cgi/

Codebeispiel von Pre-Vega. Asynchrones Laden von Daten zur GPU wird schon seit Ewigkeiten unterstützt.


Doch wozu verlinken, du hast dir ja nicht mal das Video angeschaut über das du hier her ziehst. Achso halt du hast ja eine Schmutz-Kampagne gegen Raja Koduri gestartet, oder den "Typ" wie du ihn immer wieder bezeichnest.

Gibt es im Video eine technische Erklärung, wie AMD die SSD überflüssig werden lassen will?

Complicated
2017-01-09, 13:41:04
Na klar war das eine.Bitte wo wird das zur Analogie in dem Interview? Es müssen doch ein paar Worte gefallen sein die dir diese Überzeugung geben. Welche Worte waren das?

Dino-Fossil
2017-01-09, 13:44:33
Ein Unternehmen betreibt Marketing, welches wiederum auf Übertreibungen basiert, soweit nix neues. Machen die anderen genauso.
Aber es ist sicherlich angebracht, da Skepsis walten zu lassen, wird einem ja mit jedem neuen Produktlaunch wieder gezeigt.

Was die SSD<->HDD Geschichte angeht, tendiere ich eher zu Gipsels Interpretation, weil die deutlich sinniger erscheint. Das Video kann ich mir erst später selbst ansehen.

Gipsel
2017-01-09, 13:45:57
Bitte wo wird das zur Analogie in dem Interview? Es müssen doch ein paar Worte gefallen sein die dir diese Überzeugung geben. Welche Worte waren das?Wie auch schon von Locuza dargelegt, war es ausdrücklich ein stellvertretendes Beispiel für das Problem, die Wichtigkeit von Bandbreite vs. Kapazität dem Consumer klarzumachen. Nicht nur Kapazität ist wichtig, auch die Geschwindigkeit (ähnlich wie bei SSD vs. mechanische Festplatte). AMD will es dem Konsumenten einfacher machen als bei SSD vs. Harddisk, weil es eben deutlich weniger Kompromisse (im Idealfall praktisch keine) mit dem Management durch den HBCC gibt, als das bei der Wahl SSD vs. Festplatte der Fall ist.

Edit, mal ein kleiner persönlicher transcript (ich glaube irgendeine Webseite hat den auch komplett):
Wie von Locuza schon erwähnt, die Passage geht bei 6:35 mit der Frage los, wie schwierig es ist, dem Consumer sowas klarzumachen. Und Koduri kommt ab 6:58 darauf zu sprechen, daß es immer schwierig ist, die Speicherhierarchie zu ändern, nicht nur bei Grafikkarten, um dann auf das Beispiel der SSDs zu kommen, wie lange das gedauert hat und welche Hindernisse es da zu überwinden galt. Ganz klar ein Analogon.
("Not just graphics, changing memory hierarchy, changing memory types for the computer industry has always been a difficult problem. Remember the transition when we went from harddisk to SSD, how hard it was initially? Because SSD said smaller sizes and they were expensive and all. That was hard, right? That took so many years.[..] That [SSD vs. harddisk] is an extreme example of memory hierarchy. So one of the reasons we took the approach with the HBCC is the lessons we learned from the previous memory transitions. You can make all of this stuff to work only if you make it transparent to the user. Where the user doesn't have to make the tough choice of, 'Hey, do I buy a 128GB SSD that is good, fast and all, or you know a 2TB harddisk that is cheap.' I want to take this choice out of the users stuff. Don't worry! You just don't have to worry. Look at how much bandwidth you are buying and how much cache you have in there. And everything else takes care of itself. That's were we need to get to. [..]")

Complicated
2017-01-09, 13:46:16
Eine SSD ist schneller als eine HDD. Beide können PCIe nicht auslasten. Da also der limitierende Faktor die Festplatte darstellt, kann AMD überhaupt nicht die SSD für das schnellere Laden der Daten negieren.
Alleine der nicht übersehbare Elefant "PCIe" wird nirgendwo angesprochen. Wenn Leute meinen, dass 16gb/s ausreichend wären, wieso gibt es Bestrebungen für PCIe 4.0 und propritäre Schnittstellen wie NVLink?
Aha..und wie bringst du nun diese beiden Aussagen unter einen Hut?
Was jetzt? Limitiert PCIe oder ist das noch lange kein Nadelöhr?
Du scheinst es dir willkürlich je nach gefallen hinzubiegen.

Mal sehen, vielleicht hat Vega auch einen Slot um SSDs/HDDs direkt anzubinden wie die Radeon SSG und das wird die Auflösung des vermeintlichen Widerspruches hier. Würde mir auch gut gefallen.

@Gipsel
Ich verstehe voll umfänglich was du mir erklären willst, ebenso was Locuza sagen wollte. Nur gibt das Interview keinerlei Sätze in dieser Form von Raja Koduri her. Daher fragte ich dich wo du das zitieren kannst, da ich es nirgends gefunden habe in den 45 Minuten. Da reicht ein Satz wie "It's like" oder "Compare it with...." der vor seinen Erläuterungen fällt...doch das ist nicht der Fall.

deekey777
2017-01-09, 13:50:09
Könnt ihr mal eure rassistischen Anwandlungen für euch behalten. Danke im Voraus.
Mein "Maharadsha" diente nur dazu, die Absurdität der letzten Seiten zu verdeutlichen.

Raja Koduri hat mit RTG die Grafikabteilung aus tiefem Schlaf geholt. Ihm vorzuwerfen, er sei nur eine Marketingschlampe, ist unerhört.

Unicous
2017-01-09, 13:50:19
Er redet über "transitions" im Allgemeinen wie z.B. HDD zu SSD.

"Remember when..." "that's an extreme example" um dann die Analogie zu HBM zu schlagen. Was er sagen will: Mit HBM muss man sich diese Frage nicht stellen. HBM vereint schnell und große Kapazität.

Aber ich sagte ja bereits, die Englischkenntnisse lassen zu wünschen übrig. Genau wie das "in Kontext setzen" und das Sezieren und partielle Zitieren von Aussagen.:rolleyes:

Troyan
2017-01-09, 13:50:37
Hast du überhaupt eine Ahnung, wie Komponenten im PC angebunden sind?
PCIe limitiert, wenn aus dem RAM gelesen werden soll. Die Festplatte limitiert, wenn in den RAM geschrieben werden soll.

Es wäre daher doch für alle von Vorteil, wenn du dich kurz mit dem Aufbau eines PC beschäftigst und verstehst, wann das Interface PCIe zur Limitierung wird.

Complicated
2017-01-09, 13:54:30
Ok jetzt habe ich die Stelle. 7:07 sagt Raja "Remember when...."etc. Das davor hat ja der Typ in der MItte ausgesprochen als Frage, daher habe ich darauf nicht geachtet. Also ihr habt recht es ist eine Analogie ab diesem Zeitpunkt.

Unicous hats gerade auch geschrieben als ich dabei war das zu tippen.

Dino-Fossil
2017-01-09, 13:54:31
Mal sehen, vielleicht hat Vega auch einen Slot um SSDs/HDDs direkt anzubinden wie die Radeon SSG und das wird die Auflösung des vermeintlichen Widerspruches hier. Würde mir auch gut gefallen.

Da ist vermutlich kein Widerspruch in der Aussage, sondern nur darin, wie sie aufgefasst wurde.

Wie soll denn auch eine GPU helfen, eine SSD durch eine HDD ersetzen? Das würde einfach (außerhalb von grafikbezogenen Workloads) keinen Sinn ergeben.

Complicated
2017-01-09, 14:06:27
Hast du überhaupt eine Ahnung, wie Komponenten im PC angebunden sind?
PCIe limitiert, wenn aus dem RAM gelesen werden soll. Die Festplatte limitiert, wenn in den RAM geschrieben werden soll.

Wir können uns gerne über AGP-Slots und andere bisherige Architekturen unterhalten. Nur haben Vega und Ryzen eben einen neuen Unterbau. Du solltest das irgendwann mal begreifen: https://www.youtube.com/watch?v=pN8P6jHAqlU
Stichwort Infinity-Fabric

Troyan
2017-01-09, 14:09:02
Weder Zen v1 noch Vega v1 kommen mit einer neuen propritären Schnittstelle.

SpielerZwei
2017-01-09, 14:09:45
Ich habe so das Gefühl entweder haben hier einige Poster das Video nicht gesehen, nur durchgeklickt oder einfach 0 Englisch-Skills... Wie kommt Ihr auf den Schwachsinn mit der HDD/SSD Geschichte? Wie oben schon erklärt war das nur ein Vergleich. Er redet doch nur davon wie sich der Umgang mit der Resource VRAM ändern wird - und das es nicht mehr um Speichergröße sondern um Bandbreite geht. Ganz am Anfang des Videos erwähnt er doch: Die meisten Spiele benutzen nur 50% des Videospeichers welchen sie belegen. Also bei 4GB belegtem Speicher werden nur 2GB effektiv benutzt - weil das jetztige System einfach extrem unfelxibel ist. Das wollen sie mit Vega ändern - aber die Masse schaut halt eher auf viel VRAM, bla blubb. Ist wie bei CPUs. Mehr Kerne, mehr Takt = besser (und das ist halt nicht immer so und darum geht's).

Botcruscher
2017-01-09, 14:10:59
Was er erzählt hat klingt für mich logisch auf dem PC werden massig Ressourcen verschwendet,die PS4 hat 5GB für V-ram und den Arbeitsspeicher und die High End Games sehen dort exzellent aus.So gut das erst die PS4 Pro das volle Potenzial der Assets zeigen kann.

https://youtu.be/hdRdH5RxWRM


Das volle Potential ist dann unschärfe-gammel AA, schlechtere Texturen, kein AF und das gannze auch mal in 700p. Dazu ein BS mit einem Faktor geringer Funktionen und ohne Hintergrundprogramme und prefetch. Der Massenspeicher ist dazu dann noch per USB angebunden...
Von der Menge gibt es überhaupt keinen Grund sich zu beklagen. Einen gemeinsamen Vram und Arbeitsspeicher wird es beim PC nie geben. Wenn AMD hier was bringen will müssen sie erst mal die Apus richtig anbinden. Das Speichermanagement von Vega dürfte Spieler eh weniger tangieren. Für Rendering bis Computing kann es wiederum nicht groß und flexibel genug sein.

PS: (V)RAM Belegung sagt überhaupt nichts aus. Im Idealfall ist der immer voll. Dafür sind Zwischenspeicher da. Alles andere muss über den PCIe und das dauert, egal wie gut der neue Controller ist.

Complicated
2017-01-09, 14:11:51
@SpielerZwei
Ich habe den Eindruck du hast den Thread nicht komplett gelesen. Das ist geklärt und auch wie ich darauf kam. Reichen die Ausführungen soweit für dein Verständnis?

Ich sage jetzt aber nichts über Deutsch-Skills.

Gipsel
2017-01-09, 14:13:56
Mal sehen, vielleicht hat Vega auch einen Slot um SSDs/HDDs direkt anzubinden wie die Radeon SSG und das wird die Auflösung des vermeintlichen Widerspruches hier. Würde mir auch gut gefallen.Standardmäßig nein. Ein paar Profivarianten werden vielleicht als SSG-Variante kommen (vermutlich mit extra-Controller auf der Karte).
Ansonsten läuft die Funktion wahrscheinlich über das erweiterte Virtual Memory Management und in den Speicher gemappte Dateien über PCIe (edit: oder was auch immer zukünftig für Interfaces verbaut werden). Ist die einfachste Möglichkeit, die sich harmonisch in das bestehende Ökosystem einfügt. Die Frage wäre nur, wie clever man das Verhalten des HBCC hinbekommt und wie das Caching im HBM genau abläuft (wie groß sind die Pages [man wird vermutlich Pages cachen, keine 64Byte Cachelines, ansonsten wären die Tags schon riesig], wie läuft das Replacement, wie gut geht das Prefetching, welche Hints benötigt das eventuell, um effizient zu arbeiten usw.).

Complicated
2017-01-09, 14:16:16
IIRC wurde irgendwo erwähnt, dass die Pages recht klein sein sollen um eine feine Granularität hin zu bekommen.

Unicous
2017-01-09, 14:16:39
Auf einer der Folien stand ja 16 FF+ TSMC.

Welche Folie soll das sein?

Troyan
2017-01-09, 14:17:31
Ich habe so das Gefühl entweder haben hier einige Poster das Video nicht gesehen, nur durchgeklickt oder einfach 0 Englisch-Skills... Wie kommt Ihr auf den Schwachsinn mit der HDD/SSD Geschichte? Wie oben schon erklärt war das nur ein Vergleich. Er redet doch nur davon wie sich der Umgang mit der Resource VRAM ändern wird - und das es nicht mehr um Speichergröße sondern um Bandbreite geht. Ganz am Anfang des Videos erwähnt er doch: Die meisten Spiele benutzen nur 50% des Videospeichers welchen sie belegen. Also bei 4GB belegtem Speicher werden nur 2GB effektiv benutzt - weil das jetztige System einfach extrem unfelxibel ist. Das wollen sie mit Vega ändern - aber die Masse schaut halt eher auf viel VRAM, bla blubb. Ist wie bei CPUs. Mehr Kerne, mehr Takt = besser (und das ist halt nicht immer so und darum geht's).

Speichermanagement wird nicht durch Vega sondern durch Vulkan und DX12 geändert. Beide APIs erlauben das asynchrone Übertragen von Daten während die GPU gleichzeitig Berechnungen durchführt. Somit muss die GPU nicht mehr alle Informationen "cachen" - also im VRAM vorhalten - sondern der Entwickler kann explizit bestimmen, zu welchem Zeitpunkt bestimmte Informationen zur GPU geladen werden soll.

cyrusNGC_224
2017-01-09, 14:18:19
Eine SSD ist schneller als eine HDD. Beide können PCIe nicht auslasten. Das sehen SSDs mit PCIe aber anders.


Einen gemeinsamen Vram und Arbeitsspeicher wird es beim PC nie geben. Wenn AMD hier was bringen will müssen sie erst mal die Apus richtig anbinden. Für was soll hUMA und HSA sonst da sein (bzw. wie sollte es sonst funktionieren)?

Gipsel
2017-01-09, 14:21:05
IIRC wurde irgendwo erwähnt, dass die Pages recht klein sein sollen um eine feine Granularität hin zu bekommen.Standardmäßig sind die Pages oft 4kB bei CPUs. Neuerdings allerdings auch mal gerne 2MB oder bei ganz großen System gar 1GB (unterscheidet sich aber nach Architektur, SPARC, ARM, IA64 oder Power haben andere Größen als x86). Das Speichermanagement von GCN hatte ursprünglich glaube ich 64kB Pages. Aber mit der Anbindung an die CPU müßte man das eigentlich kompatibel gestalten.

Edit: GCN ist bereits ausdrücklich kompatibel zum x86er virtual Memory und unterstützt 4kB Pages. Die Formulierung in der Doku klingt so, als wenn die intern auch noch andere Größen können (wie z.B. die ursprünglich erwähnten 64kB), es wird aber meines Wissens nirgendwo ausdrücklich erwähnt.

Troyan
2017-01-09, 14:23:12
Welche SSDs erreichen 16GB/s?

KORE
2017-01-09, 14:28:20
Das wird die Marketing-Vorbereitung sein wenn man mit Vega die Vram-Menge nicht so ohne weiteres erhöhen kann, aber eben über das breite Interface punkten kann und NVIDIA eben nicht so schnell auf HBM oder ähnliches gehen wird. Außer eben bei der Titan oder ähnlichem.

Vielleicht?

Complicated
2017-01-09, 14:29:55
Das sind 16 PCIe Lanes. 1 Lane reicht schon lange nicht mehr aus.
Fragt sich nur in welchem Slot du dann deine GPU unterbringst. 32 PCIe Lanes haben die wenigsten Gamingmaschinen. In Version 3.0 existieren sie gar nicht.

Lern mal den Grundlegenden Aufbau eines PCs ;)
Wird ein tolles Forum wenn man solche dummen Sprüche immer dran hängt.....nicht wahr?

Edit:
Intels DMI besteht aus 4 Lanes für alles was am Chipsatz hängt...SSDs an der CPU direkt anschließen geht da nur wenn man keine dGPU verbaut.

Ryzen beitet einen NVMe Port direkt an die CPU angebunden mit 4xPCIe für schnelle SSDs - das ist ein Novum.

aufkrawall
2017-01-09, 14:35:55
Ist dieser Arcade-Level aus Doom der einzige, der mit Vega gezeigt wurde, oder gibts mehr Material?
https://www.youtube.com/watch?v=13V8lYS--Pg

*bump*

Troyan
2017-01-09, 14:40:41
Das wird die Marketing-Vorbereitung sein wenn man mit Vega die Vram-Menge nicht so ohne weiteres erhöhen kann, aber eben über das breite Interface punkten kann und NVIDIA eben nicht so schnell auf HBM oder ähnliches gehen wird. Außer eben bei der Titan oder ähnlichem.

Vielleicht?

Naja, Hynix hat nur 4GB Stacks für Q1 Verfügbarkeit im Angebot: http://www.intel.de/content/www/de/de/solid-state-drives/intel-ssd-dc-family-for-pcie.html

nVidia liefert auch "genug" Bandbreite. TitanX hat 480GB/s. P100 hat sogar 720GB/s.

Deswegen verstehe ich den Sinn auch nicht mit "wir werden die Bandbreite auf die Verpackung" drucken. Mit OnChip-Caches und "Delta Compression" hat die reine theoretische Leistungsaussage keine Bedeutung. Stell dir vor nVidia bewirbt eine TitanX nicht mit 480GB/s sondern mit 768GB/s (60% Steigerung durch Deltra Compression)...

KORE
2017-01-09, 14:47:41
Ja Troyan, die top Karte.
Wie wird es aber darunter aussehen? Vielleicht möchte AMD genau dort punkten, wenn auch die "kleinen" ein fettes Interface haben.

Schließlich ist man mit HBM Speicher nicht so flexibel. Wer weiß... nur so ein Gedankengang was sie damit bezwecken wollen.

Gipsel
2017-01-09, 14:48:40
*bump*Auf einen kurzen (<0.5s?) Drop auf 40er fps würde ich bei den angeblich noch unoptimierten Treibern nicht so viel geben. PCGH (oder war es Golem), die ein wenig hands-on damit rumgespielt und die exakten Settings nachgeschaut haben (was nicht die gleiche Version sein muß, wie in dem Video), meinten, daß es wohl etwa 10% schneller war als eine GTX1080@1.9GHz. Aber keine Ahnung, wie zuverlässig die Auskunft ist im Vergleich zum Video.

Aber kurze Antwort auf Deine Frage: Nein, ich denke im Moment ist öffentlich nichts Genaueres bekannt.

Botcruscher
2017-01-09, 14:50:30
Für was soll hUMA und HSA sonst da sein (bzw. wie sollte es sonst funktionieren)?
APUs. An der physischen Trennung zwischen RAM und VRAM ändert sich nichts. Grob vereinfacht baut Vega um das Problem drum herum. Je nach Anwenung wird das dann mehr oder weniger erfolgreich sein. Spieler werden imo eh nicht profitieren. Bei 8GB wird das ganze dazu noch schwer messbar.

aufkrawall
2017-01-09, 15:04:33
Aber kurze Antwort auf Deine Frage: Nein, ich denke im Moment ist öffentlich nichts Genaueres bekannt.
Ok. Es soll ja auch definitiv der große Vega 10 XT (wohl @1.5GHz) sein.
Dafür ist das Ergebnis einfach nur desaströs, ca. 1080 OC OGL Ergebnis.

M4xw0lf
2017-01-09, 15:11:25
Ok. Es soll ja auch definitiv der große Vega 10 XT (wohl @1.5GHz) sein.
Dafür ist das Ergebnis einfach nur desaströs, ca. 1080 OC OGL Ergebnis.
Die Taktrate ist reine Kaffeesatzleserei.

aufkrawall
2017-01-09, 15:13:59
Wie wahrscheinlich ist es, dass man ein Produkt vorführt, das deutlich unter seinem finalen Potenzial bleibt?

pilzsammler2002
2017-01-09, 15:14:47
Ziemlich wahrscheinlich da es ja noch nicht fertig ist... :D

fondness
2017-01-09, 15:27:19
Die Karten ist wohl fast ein halbes Jahr vor der Markteinführung. Die Architektur wurde stark überarbeitet. Es braucht grundlegend neue Compiler/Treiber und ob das Ding schon mit finalen Takt fährt weiß kein Mensch.

aufkrawall
2017-01-09, 15:30:50
LL-Treiber ist dünn und Treiber werden schon zusammen mit der Hardware entwickelt.

fondness
2017-01-09, 15:33:41
LL-Treiber ist dünn und Treiber werden schon zusammen mit der Hardware entwickelt.

Auch eine LL-API benötigt einen Compiler. Und gerade bei LL-APIs ist die Optimierung der Entwickler wichtig. Eine gute GCN-Optimierung bedeutet hier nicht notwendigerweise eine gute Vega-Optimierung. Doom ist mit Sicherheit noch nicht auf Vega angepasst.

aufkrawall
2017-01-09, 15:36:34
Ich würde mal davon ausgehen, dass die ganzen GCN-Optimierungen weiterhin funktionieren und eine brauchbare Auslastung damit in 4k realistisch ist.

[MK2]Mythos
2017-01-09, 15:38:47
Raja Koduri hat im Interview auch erwähnt dass sie selber noch dabei sind die finalen Taktraten zu ermitteln.
Du kannst dir also ziemlich sicher sein dass Vega noch nicht ansatzweise so rund und schnell läuft, wie er das bei Markteintritt tun wird. Selbst Polaris hat seit seiner Einführung über 10% zugelegt (und das ohne Taktsteigerung).

Rancor
2017-01-09, 15:38:57
VEGA hat doch auch einige gravierende Änderungen in der Architektur erhalten im Vergleich zu den alten GCN oder nicht? So dass die GCN 4 Optimierungen gar nicht vollständig greifen können?
Ich würde anhand der Vorführung noch nicht auf die endgültige Performance der VEGA Karte schließen. Da wird sicherlich noch mehr gehen.

HOT
2017-01-09, 15:49:16
Die Taktrate ist reine Kaffeesatzleserei.
Seh ich auch so. Irgendwo geisterten ja auch schon 14TFLOPs herum, was 1,7GHz wären für VegaXT (vielleicht 1,5GHz für Referenzdesign um die TDP hinzubekommen, 1,7Hz+ für die Customs). 1,5GHz mit Fokus auf die Neuentwicklung der NCUs auf Takt wär doch etwas sehr mau.
Ich würd schon sagen, dass die Taktoptimierung wohl eher ähnliche Früchte tragen wird wie bei Maxwell/Pascal.
V20 muss das Ganze dann ja quasi auf die Spitze treiben mit seinen 7nm, das dürfte dann 2,2GHz ca. werden, denn mehr als 64CUs scheint mit Vega ja auch gar nicht zu gehen - der hat ja dann auch 810 bzw. 1024GB/s Bandbreite zur Verfügung dann mit 4 Stacks - das würde also so gut passen. Der Trend geht eindeutig von Fläche zu mehr Takt, das wurde ja auch ähnlich kommuniziert, dass der Takt neben der größeren Flexibilität wesentlicher Motor der Neuentwicklung der NCU war. Bei den teurer werdenden Produktionskosten ist es ja auch vollkommen sinnvoll auf Takt zu optimieren, mehr als jemals zuvor bei GPUs.

Botcruscher
2017-01-09, 16:25:04
Wie wahrscheinlich ist es, dass man ein Produkt vorführt, das deutlich unter seinem finalen Potenzial bleibt?

In dem Fall fast eins. Das war ein reiner Prototyp und von einer Vorführung noch weit entfernt. Den Zweck das Marketingpotential der CES zu nutzen hat er erfüllt.

robbitop
2017-01-09, 17:32:29
+10 % ggü einer 1080 @1900 MHz ist IMO besser als es klingt.
Die 1080 läuft out of the box (founders edition - also referenz) mit 1600-1750 MHz. Wären, wenn man die 1750 MHz Boost annimmt immerhin 8,5 % schnellers als die Referenz. Somit wäre Vega bereits jetzt 19...20 % schneller als eine 1080FE. Mit Vorserientreibern, Vorserienkühler und Vorserientaktraten. Gerade da es eine neue mArch ist, sollte (sofern es stimmt, dass es noch 5 Monate dauert, bis sie kommt) es nicht überraschen, wenn da nochmal gute +10...20 % durch höhere Taktraten und/oder reifere Treiber (Shadercompiler!) herauskommen.

+30% auf die 1080FE sind also möglich. Und das ist IIRC TXP Niveau. Selbst wenn es 10% drunter wäre, wäre es immernoch ein interessantes Produkt (sofern der Preis passt).

Für TXP Niveau bräuchte es grob 14,3 TFLOPs mit Polaris mArch. Wenn man mit 12,5 TFLOPs diese Leistung schafft, würde es bedeuten, dass man ~15 % IPC Erhöhung geschafft hat.

Ein doppelter Polaris wäre sicher nur < 460 sqmm (2x 230 sqmm sind eher pessimistisch, da nicht alles mitskaliert wird) groß. Vega geht eher in Richtung 500 sqmm mit weniger als 2x der SPs. Also kosten die Units offenbar mehr. Wäre (insbesondere vor dem Hintergrund der präsentierten Verbesserungen) also auch verwunderlich, wenn da nicht etwas bei herauskommen würde. Ich finde auf die Schnelle keinen Benchmark in dem RX480 und TXP aufeinandertreffen. Aber welche zur 1070 von der aus extrapoliert werden kann. Dementsprechend ist TXP 2,35x schneller als RX480. Dann darf auf der resultierende Vega Chip für TXP Performance größer als 2x RX480 sein.
Wenn man Polaris linear skalieren würde, bis TXP Niveau erreicht wäre (wenn Faktor 2,35x hinkommt), würde eine GPU mit 540 sqmm hinkommen.

Laut Raja ist Vega < 500 sqmm. Sagen wir also einfach mal 500 sqmm. Punch pro sqmm steigt also um 8...9 %.

Wenn das ungefähr hinkäme, wäre der Vorsprung hinsichtlich Perf/sqmm seitens NV durch Pascal auf nur nur noch 9 % gesunken. Leistungsaufnahme kennen wir noch nicht. Aber nehmen wir mal 300 W. Mi25 gab ja < 300 W an. Wahrscheinlich wird es weniger als das sein. Dann sinkt der Vorsprung auf 20 % im worst case.
Polaris auf TXP Niveau aufgeblasen würde (linear extrapoliert) 352 W benötigen.

Mir ist klar, dass man diese Dinge nicht linear extrapolieren kann. Aber die groben Vorzeichen zeigen, dass Vega sich offenbar in die richtige Richtung entwickelt und den doch Vorsprung von Pascal hinsichtlich perf/W und perf/sqmm reduzieren kann.

Troyan
2017-01-09, 17:54:25
PCGH hat mit Vulkan getestet. Eine GTX1080@1900Mhz liegt an der Stelle mit OpenGL bei ~67FPS.

Gipsel
2017-01-09, 18:00:00
+10 % ggü einer 1080 @1900 MHz ist IMO besser als es klingt.
Die 1080 läuft out of the box (founders edition - also referenz) mit 1600-1750 MHz. Wären, wenn man die 1750 MHz Boost annimmt immerhin 8,5 % schnellers als die Referenz. Somit wäre Vega bereits jetzt 19...20 % schneller als eine 1080FE. Mit Vorserientreibern, Vorserienkühler und Vorserientaktraten. Gerade da es eine neue mArch ist, sollte (sofern es stimmt, dass es noch 5 Monate dauert, bis sie kommt) es nicht überraschen, wenn da nochmal gute +10...20 % durch höhere Taktraten und/oder reifere Treiber (Shadercompiler!) herauskommen.Falls das mit den frühen Treibern stimmt und die Chips wirklich erst vor ein paar Wochen zurückgekommen sind (und daß man die Vegas auf Bring-Up-Boards mit angeflanschter Diagnostik vorführt, spricht meiner Meinung nach dafür), dann können da auch noch jede Menge weitere Fallbacks drin sein (also außer unoptimiertem Shadercompiler), die wesentlich für die Performance sind. Grobes Beispiel: Dem Tile Binning Rasterizer könnte für die Demos schlicht das Binning abgeschaltet (oder deutlich reduziert) worden sein, da die Konfiguration dafür bzw. für die Work Distribution dahinter auf die CUs noch nicht vernünftig debugged wurde (das Verhalten kann man sicher per Firmware/Treiber steuern), so daß der sich momentan noch sehr ähnlich zu den alten Rasterizern verhält.

Will sagen: Die momentane gezeigte Performance kann eigentlich nur der Worst case sein, nämlich daß man in den nächsten 5 Monaten keine wesentlichen Fortschritte mehr macht.

Complicated
2017-01-09, 18:09:59
Wie wahrscheinlich ist es, dass man ein Produkt vorführt, das deutlich unter seinem finalen Potenzial bleibt?

*Räusper*
https://1.f.ix.de/scale/geometry/695/q75/imgs/18/1/4/2/2/3/5/8/fermi-attrappe_mfi-0b33cda70a0148b8.jpeg
https://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html

[MK2]Mythos
2017-01-09, 18:13:05
Haha, Klassiker.

fondness
2017-01-09, 18:13:22
Will sagen: Die momentane gezeigte Performance kann eigentlich nur der Worst case sein, nämlich daß man in den nächsten 5 Monaten keine wesentlichen Fortschritte mehr macht.

Der Satz trifft es denke ich ganz gut. Langsamer als das, was man Anfang Jänner gezeigt hat, wird es fünf Monate später sicher nicht.

Da AMD es normalerweise nicht mal zum Release schafft, ausreichend optimierte Treiber zu haben, wird das fünf Monate vorher sicher nicht besser sein. Schon gar nicht bei der größten Architekturänderung seit 5 Jahren.

dildo4u
2017-01-09, 18:16:20
Doom Vulkan ist nicht Worst sondern Bestcase für AMD.Selbst wenn die Karte zu dem gezeigten unter Doom noch 20% zulegt,ist sie im Schnitt wieder bei der 1080.

Loeschzwerg
2017-01-09, 18:17:50
Ich brauche den Prototyp unbedingt für meine Sammlung :freak:

Mythos;11260391']Haha, Klassiker.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11260315#post11260315 :D:D

Tru
2017-01-09, 18:31:22
PCGH hat mit Vulkan getestet. Eine GTX1080@1900Mhz liegt an der Stelle mit OpenGL bei ~67FPS.
Wir haben beides getestet und hatten an der Stelle kohärente Ergebnisse mit 1-2 Fps Abweichung zwischen den APIs. :P

Gipsel
2017-01-09, 18:33:28
Doom Vulkan ist nicht Worst sondern Bestcase für AMD.Thema verfehlt.

Hübie
2017-01-09, 19:14:41
Warum reiten alle auf dieser Stelle in Doom herum? Es gibt doch ein Video wo man sieht wie er durchs Level flitzt. Später kommen noch viel forderndere Szenen. Da jetzt irgendwas abzuleiten ist absoluter Käse. Vom Stadium mal ganz abgesehen. Auf youtube häufen sich die Videos der 1080-Besitzer (u.ä.). :rolleyes:

Edit:

Das Netzteil hat 6 * 6 + 2 Pin PCIe und ist teilmodular (SP-1200MPCBUS von Thermaltake (http://www.thermaltakestore.mx/index.php/fuentes-de-poder-pc/potencia/fuente-de-poder-thermaltake-smart-modular-1200w-sp-1200mpcbus.html)). Es wird nur ein 6+2 Pin Stecker verwendet (siehe Video). Am befestigten Strang sind lediglich der 24 Pin ATX, ein EPS und ein eATX (4 + 4) Pin Stecker. Das bedeutet also 150 Watt über externe Versorgung und maximal 75 Watt über den Slot. Ergo ist die TDP des gezeigten Modell-Prototypen < 225 Watt.

robbitop
2017-01-09, 19:52:43
Die Frage ist, ob Vega die GCN spezifischen Optimierungen so viel bringen. IIRC wurden ja die skalaren ALUs in den CUs nun auch gut ausgelastet, die sonst eher nur mäßig ausgelastet worden sind. Wer weiß, ob die NCUs noch so aufgebaut sind oder aber der Compiler und die Kontrolllogik die NCUs nicht von vorn herein gleich ganz anders auslasten können. Dann wäre die Performance in Doom nicht mehr best case sondern so wie in anderen Spielen auch.

gogetta5
2017-01-09, 19:53:24
Das Netzteil hat 6 * 6 + 2 Pin PCIe und ist teilmodular (SP-1200MPCBUS von Thermaltake (http://www.thermaltakestore.mx/index.php/fuentes-de-poder-pc/potencia/fuente-de-poder-thermaltake-smart-modular-1200w-sp-1200mpcbus.html)). Es wird nur ein 6+2 Pin Stecker verwendet (siehe Video). Am befestigten Strang sind lediglich der 24 Pin ATX, ein EPS und ein eATX (4 + 4) Pin Stecker. Das bedeutet also 150 Watt über externe Versorgung und maximal 75 Watt über den Slot. Ergo ist die TDP des gezeigten Modell-Prototypen < 225 Watt.

Gute Chancen also für <=300 Watt :D

Screemer
2017-01-09, 20:14:13
Sind sicher >=300w, denn amd scheut sich nicht 100w über pcie und über 200w aus dem peg zu saugen. Dass sie auf die specs einen feuchten dreck geben, hat man dich beim polaris launch gesehen. Habt ihr das immer noch nicht begriffen?

Loeschzwerg
2017-01-09, 20:22:05
Das Netzteil hat 6 * 6 + 2 Pin PCIe und ist teilmodular (SP-1200MPCBUS von Thermaltake (http://www.thermaltakestore.mx/index.php/fuentes-de-poder-pc/potencia/fuente-de-poder-thermaltake-smart-modular-1200w-sp-1200mpcbus.html)). Es wird nur ein 6+2 Pin Stecker verwendet (siehe Video). Am befestigten Strang sind lediglich der 24 Pin ATX, ein EPS und ein eATX (4 + 4) Pin Stecker. Das bedeutet also 150 Watt über externe Versorgung und maximal 75 Watt über den Slot. Ergo ist die TDP des gezeigten Modell-Prototypen < 225 Watt.

Das Netzteil hat 3x PCIe Ausgänge (6+2) und die Kabel dazu splitten sich auf 2x 6+2 ;) Scroll mal weiter runter zu "Connectors & Cable length".

Macht uns letztendlich aber auch nicht schlauer, da die Karte ja trotzdem nur 1x 6+2 haben könnte.

aufkrawall
2017-01-09, 20:48:14
Die Frage ist, ob Vega die GCN spezifischen Optimierungen so viel bringen. IIRC wurden ja die skalaren ALUs in den CUs nun auch gut ausgelastet, die sonst eher nur mäßig ausgelastet worden sind. Wer weiß, ob die NCUs noch so aufgebaut sind oder aber der Compiler und die Kontrolllogik die NCUs nicht von vorn herein gleich ganz anders auslasten können. Dann wäre die Performance in Doom nicht mehr best case sondern so wie in anderen Spielen auch.
Egal wie man es dreht, für fast 500mm² mit HBM2 ist das Ergebnis einfach nur mies.
Mit der (angenommenen, wird wohl kaum langsamer als Polaris takten) Taktsteigerung wäre ein doppelter Hawaii schneller, und dieser wäre in ~500mm² mit dem Prozess ohne das riesige 512 Bit Interface sicherlich möglich.
Natürlich ist noch lange nichts final, aber dass AMD selbst so etwas zeigt, sollte zu denken geben.

Agent117
2017-01-09, 20:54:30
Dass Vega mit mindestens 1500Mhz taktet ist doch im Grunde sicher. Die 4096 SP sind bestätigt, genau wie die 12,5 TFlops der Profilösung. Wenn Raja Koduri sagt man habe die finalen Taktraten noch nicht gefunden heißt das nicht, dass noch alles völlig offen ist. AMD weiß wohl nur dass 300W TDP für12,5 TFlops FP32 im Profi Segment ausreichen; ob die dann am Ende ausgereizt werden oder nicht weil Vega Taktfreudiger und/oder effizienter oder eben das Gegenteil der Fall ist weiß AMD hingegen noch nicht.

[MK2]Mythos
2017-01-09, 20:55:30
Sind sicher >=300w, denn amd scheut sich nicht 100w über pcie und über 200w aus dem peg zu saugen. Dass sie auf die specs einen feuchten dreck geben, hat man dich beim polaris launch gesehen. Habt ihr das immer noch nicht begriffen?
Genau! Und hinter den Standaufbauten hat Raja Koduri Kinder von NVIDIA Angestellten zum Frühstück gegessen!!! :facepalm:

Unicous
2017-01-09, 20:55:51
@aufkrawall

Bist du dann mal endlich fertig mit deinem "Das Produkt ist nicht mal im Laden, ich echauffiere mich trotzdem über die fps-Anzeige bei der Präsentation eines Vorserienprodukts".:rolleyes:

Complicated
2017-01-09, 21:02:42
Der 28nm Prozess skaliert auf 16nm nur mit einem Faktor von 1,1x wenn eine Frequenz von 1.500 MHZ anliegen soll. Das solltest du in deine Rechnung einfliesen lassen und dann wirst du feststellen, dass es nicht so einfach ist, selbst auf dem Papier nicht.

http://img.deusm.com/eetimes/zvb-3pi-0019-06-lg.jpg

robbitop
2017-01-09, 21:51:49
Egal wie man es dreht, für fast 500mm² mit HBM2 ist das Ergebnis einfach nur mies.
Mit der (angenommenen, wird wohl kaum langsamer als Polaris takten) Taktsteigerung wäre ein doppelter Hawaii schneller, und dieser wäre in ~500mm² mit dem Prozess ohne das riesige 512 Bit Interface sicherlich möglich.
Natürlich ist noch lange nichts final, aber dass AMD selbst so etwas zeigt, sollte zu denken geben.
Die Taktsteigerung ist aber nicht kostenlos. Schaue dir mal an, wieviel fetter die ALUs bei Pascal ggü Maxwell geworden sind.
GP102 hat 11 Mrd Transistoren für 3840 SPs. GM200 hat 8 Mrd für 3072 SPs. Sind 37,5 % mehr Transistoren für nur 25% mehr SPs. Also SP normiert 10 % mehr Transistoren verballert.

Hawaii hat die Transistoren nicht für den Takt investiert. Hawaii taktet out of the box mit ~1050 MHz und erreicht 5,9 TFLOPs. Für TXP bräuchte es locker 14,3 TFLOPs - eher mehr weil ein Polaris 14,3 TFLOPs bräuchte und der hat bis zu 15% mehr IPC. Ein doppelter Hawaii würde allerdings nur 11,8 TFLOPs schaffen. Der höhere Takt durch Finfet sollte grob durch die geringere IPC ggü Polaris aufgefressen werden. Ohne Designanpassung gibt es nicht wesentlich mehr Takt.

Ein doppelter Hawaii hätte 12,4 Mrd Transistoren. Dabei wäre TXP noch immer grob 20 % schneller. Läge also näher an der GTX1080 als an TXP.

Weiterhin würde der Doppel-Hawaii selbst diese Leistung gar nicht ausschöpfen können, also gar nicht linear skalieren können. Er würde an der Geometrieleistung (mehr als 4x Rasterizer waren für die GCN Serie AFAIK nicht vorgesehen), der Auslastung der CUs und an der Bandbreite verhungern. Ggü Hawaii würde man mit 512bit GDDR5X (10 Gbs) nur 66 % mehr Bandbreite erreichen. In Hawaii gab es noch keine DCC. Und selbst die DCC in Polaris ist laut Foobar ziemlich schlecht. Hawaii war einfach nicht besonders gut in dieser Hinsicht.
Hinsichtlich der Auslastung der SPs sieht man ja an Fijii, dass lineare Skalierung eher mäßig bis schlecht ist. 60% mehr SPs, 33% mehr Bandbreite und nur 20 % mehr Performance in Spielen...

Selbst Polaris skaliert nicht so toll (RX470->RX480) - wobei hier auch ein fettes Bandbreitenlimit vorliegt.

Vega wird sicherlich in Bezug auf Skalierbarkeit, Auslastung, Geometrie und Bandbreite einfach geeigneter unterwegs sein. Nicht alles skaliert gut - wenn ein doppelter Hawaii besser wäre, hätte AMD keine Zeit mit Polaris oder Vega verschwendet.

Ein doppelter Hawaii würde bei 529 sqmm liegen. Vega hat bei 500 sqmm voraussichtlich mehr Performance und eine höhere Effizienz also so ein hypothetischer Hawaii. Sonst hätte man sich sicherlich viele Mannstunden RnD sparen können.


Außerdem wird man 5 Monate vorm Launch mit frischen Chips (gerade zurück aus der Foundry) mit einer neuen mArch und dementsprechend noch vermutlich stark optimierungsbedürftigen Treibern (es gibt offenbar nichtmal fertige Boards) noch keine aussagekräftige Performance liefern. 5 Monate vorm Launch ist ziemlich viel für eine Grafikkarte. Selbst 1-2 Metalspins sind noch drin in der Zeit.

aufkrawall
2017-01-09, 21:53:32
@aufkrawall

Bist du dann mal endlich fertig mit deinem "Das Produkt ist nicht mal im Laden, ich echauffiere mich trotzdem über die fps-Anzeige bei der Präsentation eines Vorserienprodukts".:rolleyes:
Darf ich das etwa nicht, wenn AMD da selber einen kleinen Hype drum macht?
Wir können das aber gerne abschließen. Ich will nur nochmal festhalten, dass man nach derzeitigem Stand mit einer 500mm² GPU mit HBM2 ca. auf Augenhöhe mit einer 300mm² GPU mit 256 Bit GDDR5X zu sein scheint. ;)

Troyan
2017-01-09, 21:58:21
GP102 ist weit mehr als nur GM200 mit mehr Recheneinheiten. Neben den 25% mehr Ausführungseinheiten gibt es einen besseren Videoen-/dekoder, die Rasterizer wurden für Tier 2 angepasst, Displayoutput wurde überarbeitet, der Commandprozessor wurde bzgl. Async Shaders erweitert, die ALUs können 4x INT8 (2x INT16) Operationen ausführen, der Speichercontroller ist überarbeitet, der Chip kann 49bit Speicheradressieren, hat die "Page Migration Engine" und die "Delta Memory Compression" wurde (deutlich) verbessert.

Wer weiß, wieviel davon vom Budget weggeht.

Linmoum
2017-01-09, 21:59:56
Ich will nur nochmal festhalten, dass man nach derzeitigem Stand mit einer 500mm² GPU mit HBM2 ca. auf Augenhöhe mit einer 300mm² GPU mit 256 Bit GDDR5X zu sein scheint. ;)
Die Battlefront Demo zeigte eher Titan X(P)-Niveau. Das kann man genauso festhalten, komischwerweise versteift man sich aber ausschließlich auf Doom. ;)

Unicous
2017-01-09, 22:00:00
@aufkrawall

Das entspricht aber nicht der Wahrheit. Du vergleichst hier gerade retail-GPU, unabhängig getestet, mit einem Dev-Board das AMD bei der CES ausgestellt hat. Sehe nicht den Mehrwert den dieser Vergleich bringt. Aber wenn es dich glücklich macht kannst du den Vergleich ja ziehen. Aber vllt. nicht unbedingt hier.

Du kannst ja einen Extra-Thread aufmachen, z.B. "Vega Dev-Board (P)review" würde ich vorschlagen. (y)

robbitop
2017-01-09, 22:08:07
GP102 ist weit mehr als nur GM200 mit mehr Recheneinheiten. Neben den 25% mehr Ausführungseinheiten gibt es einen besseren Videoen-/dekoder, die Rasterizer wurden für Tier 2 angepasst, Displayoutput wurde überarbeitet, der Commandprozessor wurde bzgl. Async Shaders erweitert, die ALUs können 4x INT8 (2x INT16) Operationen ausführen, der Speichercontroller ist überarbeitet, der Chip kann 49bit Speicheradressieren, hat die "Page Migration Engine" und die "Delta Memory Compression" wurde (deutlich) verbessert.

Wer weiß, wieviel davon vom Budget weggeht.
Mag sein. Aber dennoch kostet Takt praktisch immer Transistoren. Nicht zu knapp. Man benötigt mehr Pipelinestufen.

aufkrawall
2017-01-09, 22:08:46
Die Battlefront Demo zeigte eher Titan X(P)-Niveau. Das kann man genauso festhalten, komischwerweise versteift man sich aber ausschließlich auf Doom. ;)
Ich weiß vielleicht auch nicht alles? Link pls?

Unicous, ich vergleiche das, was AMD angibt. Sie tun so, als wär ihr Vega-Ergebnis in Doom endgeil konkurrenzfähig. Darf man bei dir bei AMD nicht mal das Marketing entzaubern, wo du doch selber so gerne draufhaust?

Troyan
2017-01-09, 22:10:27
Mag sein. Aber dennoch kostet Takt praktisch immer Transistoren. Nicht zu knapp. Man benötigt mehr Pipelinestufen.

Vergleiche Polaris 11 und GP107. Ich sehe keine wirklichen Unterschiede in der Transistorenanzahl.

Unicous
2017-01-09, 22:11:43
@aufkrawall

AMD hat nichts dergleichen gesagt (oder "angegeben"), aber du kannst deine aus der Luft gegriffene Behauptung natürlich mit einer Quelle belegen, oder? :up:

robbitop
2017-01-09, 22:13:47
Vergleiche Polaris 11 und GP107. Ich sehe keine wirklichen Unterschiede in der Transistorenanzahl.
Das sind zu fremde mArchs um sie in dieser Hinsicht sinnvoll vergleichen zu können. Vergleichbar ist in dieser Hinsicht nur Maxwell mit Pascal, da Pascal sehr sehr stark auf Maxwell basiert.

Schnoesel
2017-01-09, 22:17:28
Ich weiß vielleicht auch nicht alles? Link pls?


https://www.youtube.com/watch?v=fkvj-uij42M

Sagt aber auch nix aus weil bei 60FPS caped.

Nach wie vor Käse sich über so etwas überhaupt zu unterhalten. Wenn es final wäre warum nicht releasen?

aufkrawall
2017-01-09, 22:22:53
@aufkrawall

AMD hat nichts dergleichen gesagt (oder "angegeben"), aber du kannst deine aus der Luft gegriffene Behauptung natürlich mit einer Quelle belegen, oder? :up:
Klar. Hier bestätigt Koduri, dass man aus seiner Sicht die 1080 auch mit OpenGL abziehen würde:
http://wccftech.com/amd-confirms-vega-10-doom-4k60fps-vulkan-demo-outperform-gtx-1080-opengl/

Ich greife btw. gar nichts aus der Luft, sondern spekuliere hier nur aufgrund des Gezeigten, wie übrigens jeder andere auch. Kannst den Aggro-Modus jetzt wieder stecken lassen, btw².

Schnoesel
2017-01-09, 22:29:31
Klar. Hier bestätigt Koduri, dass man aus seiner Sicht die 1080 auch mit OpenGL abziehen würde:

Ne hat er nicht. Er hat gesagt er denkt schon hat die Aussage danach aber gleich wieder relativiert. Und von abziehen war mal gar keine Rede (zumindest nicht von seiner Seite). Offenbar hats dus nicht verstanden oder willst nur stänkern.

https://youtu.be/FwcUMZLvjYw?t=1546

Unicous
2017-01-09, 22:30:01
@aufkrawall


Hahaha.

Da geht es um Vulkan vs. OpenGL. Und du glaubst doch wohl selbst nicht, dass ausgerechnet Raja Koduri Aussagen zur Performance machen würde.

Oder willst du mir wirklich erzählen, dass "I think it would... " "But let me not say that too confidently" irgendeine Aussagekraft haben.

;D;D;D;D


(Mir war aber klar, dass du nichts hast, es war eine rhetorische Frage. ;) )



e: Dass du WTF-Tech verlinkst ist auch bezeichnend. Aber lustig zu sehen, wie dieses Video-Interview bis zum Letzten ausgeschlachtet wird.:rolleyes:

Gipsel
2017-01-09, 22:33:39
Ne hat er nicht. Er hat gesagt er denkt schon hat die Aussage danach aber gleich wieder relativiert. Und von abziehen war mal gar keine Rede. Offenbar hats dus nicht verstanden oder willst nur stänkern.Die Aussage ist so oder so kein Beleg für diese Behauptung:
Sie tun so, als wär ihr Vega-Ergebnis in Doom endgeil konkurrenzfähig.Im Prinzip hat AMD nur gezeigt, daß Vega bereits läuft und nicht nur eine Diashow produziert. Das war die Aufgabe der Vorführung. Diese hat sie erfüllt. Mit genauen Performanceangaben hält man sich zurück, bis man näher am Release ist.
Man muß nicht immer versuchen, in Alles was hineinzuorakeln. :rolleyes:

Screemer
2017-01-09, 22:38:26
Mythos;11260608']Genau! Und hinter den Standaufbauten hat Raja Koduri Kinder von NVIDIA Angestellten zum Frühstück gegessen!!! :facepalm:
Nein, da hat er behauptet, dass vega eine txp selbst in ogl, was ja eine bekannte schwäche amds ist, zum frühstück verputzt.

Gipsel
2017-01-09, 23:23:28
Bitte zukünftig Ironietags benutzen, wenn Zweifel bestehen, daß es für alle offensichtlich ist. Oder gleich ganz drauf verzichten und sachlich bleiben. ;)

y33H@
2017-01-09, 23:24:49
Das Infinity Fabric könnte sich als heimlicher Star und Geheimwaffe herausstellen.
Eine Sache fehlt mir aber in der Wordcloud, und zwar der neue Interconnect (Infinity Fabric).Kam grade rein ...

https://abload.de/thumb/2017-01-09_231810unjri.jpg (http://abload.de/image.php?img=2017-01-09_231810unjri.jpg) https://abload.de/thumb/2017-01-09_231813i5jpt.jpg (http://abload.de/image.php?img=2017-01-09_231813i5jpt.jpg) https://abload.de/thumb/2017-01-09_231815ogklr.jpg (http://abload.de/image.php?img=2017-01-09_231815ogklr.jpg) https://abload.de/thumb/2017-01-09_2318178sk5w.jpg (http://abload.de/image.php?img=2017-01-09_2318178sk5w.jpg) https://abload.de/thumb/2017-01-09_231820srk8m.jpg (http://abload.de/image.php?img=2017-01-09_231820srk8m.jpg) https://abload.de/thumb/2017-01-09_231822rdkz6.jpg (http://abload.de/image.php?img=2017-01-09_231822rdkz6.jpg) https://abload.de/thumb/2017-01-09_2318247ukfb.jpg (http://abload.de/image.php?img=2017-01-09_2318247ukfb.jpg)

Unicous
2017-01-09, 23:27:20
Vielen Dank schon mal.(y)

Leider zum Großteil nichtssagend. Hmmmm.;(

y33H@
2017-01-09, 23:42:47
Das war wie Ryzen und Vega in Sonoma, sprich (bewusst) alles vergleichsweise oberflächlich - Preview eben.

aufkrawall
2017-01-09, 23:48:57
Da geht es um Vulkan vs. OpenGL.
Da geht es auch um 1080 vs. Vega, und er antwortet eindeutig, dass er glaubt, Vega wäre auch mit OpenGL vs. die 1080 schneller.
Jetzt kannst du dich weiterhin dumm stellen oder nicht, aber das wirst du ohne meine Assistenz tun müssen, denn auf beinahe debile Hütchenspiele lasse ich mich nicht weiter ein.

iuno
2017-01-10, 00:08:31
Du weisst aber auch, dass bei der Aufloesung schon so viel shaderlast erzeugt wird, dass Vulkan gar nicht mehr so viel bringt?
Im initialen Test von Vulkan in DOOM bei CB legte Fiji in FHD mit Vulkan 66% zu, bei UHD waren es nur 11%. In UHD war man damit also auch in OGL schon gleich schnell wie eine 980 Ti, was alles andere als selbstverstaendlich ist. FHD war die Ti in OGL 31% schneller.

Und genau das sagt Raja an der Stelle uebrigens auch:
I think it would, because at that resolution things are more GPU bound
Mit den anderen Verbesserungen und insgesamt deutlich hoeherem Takt ist es denkbar, dass Vulkan in DOOM in UHD Vega fast gar nichts mehr bringt (zumindest was die durchschnitts-FPS angeht, Frametimes womoeglich schon).

Ich verstehe nicht, wie man das so ignorieren kann, das hatte ich schon die ganze Zeit so im Kopf. Wirklich interessant und wichtig ist aber doch, ob die Performance eben auch in DX11 und bei anderen Titeln rueber kommt. Und da sollte Vega Staerken haben.

Was die Taktraten angeht, wuerde ich hier auch nichts finales erwarten. Und nur mal so:
GP104@1,9G: 9.7 TF
Vega@1,5G: 12.2 TF
Waeren 10% Mehrleistung bei maximal(!) 25% mehr FLOPS. Soo uebel ist das jetzt nicht. Natuerlich, es geht noch deutlich besser, aber wie oben beschrieben ist DOOM in UHD eben doch nicht so ein herausragender pro-AMD Titel und bzgl. Vega ist das eh fraglich. Wenn Vega hier nur mit 1,3 G takten wuerde (was wir nicht wissen), waere die Mehrleistung 1:1 umgesetzt.
Eine TXP ist uebrigens bei ~25% mehr Rohleistung ootb idR. auch weniger als 20% schneller als eine 1080.
Davon ab frage ich mich, ob die ueberhaupt auch schon Zugriff auf HBM Stacks haben, die mit 2 Gbps laufen. Hynix fertigt offiziell fuer die naechsten Monate nichts dergleichen, von Samsung ist auch nichts angekuendigt.

Kam grade rein ...
Nice, danke. Wenn Slides auch auf diese Weise zeitnah verfuegbar gemacht werden, schon bevor der Artikel dazu da ist, erspart einem das auch, wccf zu besuchen ;D
Das bleibt auf jeden Fall interessant. Auch, ob sie vorhaben, nicht nur on-die oder ueber Interposer Komponenten zu verbinden, sondern auch ueber laengere Strecken, wie etwa NVLink zu gehen oder da einfach fuer die Zukunft auf PCIe4 setzen?

Gipsel
2017-01-10, 00:16:30
Können wir diese irgendwie sinnlose Diskussion nicht langsam sein lassen?
Oder um mich mal selbst zu zitieren:
Im Prinzip hat AMD nur gezeigt, daß Vega bereits läuft und nicht nur eine Diashow produziert. Das war die Aufgabe der Vorführung. Diese hat sie erfüllt. Mit genauen Performanceangaben hält man sich zurück, bis man näher am Release ist.
Man muß nicht immer versuchen, in Alles was hineinzuorakeln. :rolleyes:

rentex
2017-01-10, 05:53:00
Auch orakeln gehört zum spekulieren...auch wenn es am Ende anders kommt.

MR2
2017-01-10, 17:28:22
http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Philosophie-Bandbreite-1217867/

AMDs Chefarchitekt Raja Koduri über seine Vega-Philosophie




Fand ich sehr interessant!

Unicous
2017-01-10, 17:53:40
So wie ich das sehe hat der Autor nichts weiter gemacht, als das PC World Video (und Linus Tech Tips Video) zu transkribieren?

Ich lese jedenfalls nichts grundlegend Neues. Wäre dahingehend nett gewesen, die Quelle auch zumindest zu erwähnen, PCGH.:rolleyes:

(Hmmm, wobei, er könnte auch in der crowd gestanden haben, während des Interviews. Trotzdem nicht die feine Art, mMn.)

Malabolge
2017-01-12, 11:18:59
Ich weiß vielleicht auch nicht alles? Link pls?

Unicous, ich vergleiche das, was AMD angibt. Sie tun so, als wär ihr Vega-Ergebnis in Doom endgeil konkurrenzfähig. Darf man bei dir bei AMD nicht mal das Marketing entzaubern, wo du doch selber so gerne draufhaust?

Hüstel ! Wie war das nochmal mit taktet auf 2.5K ! Hüstel !
(Nur wenn der Mond im dritten Haus über Saturn steht !:D)

Wartet doch wenigstens die ersten "End"-Modelle ab, bevor ihr hier schon mit dem "niedermachen" anfängt !

tm0975
2017-01-12, 11:53:25
Wartet doch wenigstens die ersten "End"-Modelle ab, bevor ihr hier schon mit dem "niedermachen" anfängt !

techniker können damit warten. für die anderen ist es religion, und das sind ja meistens die, denen es reicht, zu glauben...

MR2
2017-01-12, 15:56:00
Hier stand nix...

Leonidas müsste das in die Forenrichtlinien aufnehmen...Wccftech Verbot. Dann wäre es okay;-)

y33H@
2017-01-12, 16:03:43
Hört doch auf die zu verlinken :usad:

basix
2017-01-12, 17:42:33
techniker können damit warten. für die anderen ist es religion, und das sind ja meistens die, denen es reicht, zu glauben...

Das ist schon fast Signatur würdig ;D

Edit:
313...löst bei mir Kindheitserinnerungen aus =)

Leonidas
2017-01-13, 04:46:25
Hört doch auf die zu verlinken :usad:


Ich versuche es. Manchmal läßt es sich nicht vermeiden.

vinacis_vivids
2017-01-13, 14:53:20
Die sehe VEGA in der höheren Ausbaustufe deutlich stärker als ne kastrierte 1080(+ti). Eher auf Augenhöhe mit der Titan und in höheren Auflösung (4k+) schneller.

Der Speicher wird eine Schlüsselrolle spielen und da ist AMD traditionell stärker.

aufkrawall
2017-01-13, 15:01:59
Die labern einfach rum, ohne irgendeinen Clou zu haben, und sind eh immer im Hype-Modus.

vinacis_vivids
2017-01-13, 15:03:38
Die labern einfach rum, ohne irgendeinen Clou zu haben, und sind eh immer im Hype-Modus.


Haben nur von Nvidia gelernt und sich weiterentwickelt.
Ich ärgere mich aber auch über AMD, so isses nicht.

y33H@
2017-01-13, 16:05:25
Ich versuche es. Manchmal läßt es sich nicht vermeiden.Ich widerspreche =)

Unicous
2017-01-13, 16:13:56
Ich widerspreche =)

Ich stimme zu.

TheGood
2017-01-13, 17:20:00
geschenkt.

=Floi=
2017-01-14, 04:07:11
und sind eh immer im Hype-Modus.

weil hype zieht und nur das noch aufmerksamkeit bringt.
schau dir den ganzen klickbait bei YT an. fast keiner kann mehr normale titel schreiben.

Ailuros
2017-01-14, 14:17:51
Hört doch auf die zu verlinken :usad:

Selbst wenn, mindert es nicht sehenswert die hits solcher Seiten. Manchmal ist es doch besser etwas Scheisse zu riechen, damit man dann auch nicht vergisst wie gut es dort ist wo es ist eben nicht stinkt :freak:

Auch orakeln gehört zum spekulieren...auch wenn es am Ende anders kommt.

Da ich als Grieche gerne auf einem Dreifuss hocke und halluzinogene Blaetter kaue: Vega hatte als Projekt sein hauptsaechliches Ziel in Profi-Maerkten zu punkten und dieses Ziel wird innerhalb AMD's Moeglichkeiten auch voll erreicht werden. Im Bereich perf/W gewinnt es nicht wirklich im Vergleich zu GP102 schon erstmal weil das letztere eher ein dedizierter desktop high end chip ist.

robbitop
2017-01-16, 11:35:21
@Ailuros
Aufgrund der hohen FP16 Rate oder hat Vega auch eine hohe FP64 Rate?

fondness
2017-01-16, 11:42:42
Wohl erst Vega20, sonst wäre der völlig sinnlos. Aber Vega10 bekommt wohl auch sonst noch einiges an Profi-Zeug, das GP102 nicht kennt wie die Infinity Fabric-Links, den "Speicherpool", 2xFP16 und womöglich noch anderes Zeug von dem man noch nichts weiß. Da fehlt auf GP100 nur mehr FP64 und die wird Vega20 nachliefern. GP102 hat eine hohe FP32-Leistung und ist voll auf Spiele getrimmt.

Complicated
2017-01-16, 12:36:25
Vor allem da P100 noch nirgends auftaucht um Grenada Konkurrenz zu machen. Der trägt immer noch die DP-Leistungskrone. Die S9170 hat 2,62 TFlops DP mit 32 GB ECC bei 275 W Verbrauch (16GB bei 235W)

Die Tesla P4 basiert auf GP104, kommt also weit abgeschlagen mit 1/32 DP seiner SP-Performance und die P40 ist bisher nicht aufgetaucht und soll 4,7 TFlops DP bringen, nur die Frage wie hier die Lieferbarkeit aussieht. Hier ist die Vega 20 GPU nah genug dran als Release um dagegen zu halten, vor allem mit den zusätzlichen Features die AMD ja den Vega-Profi-Lösungen zukommen lässt. Also AMD hat da wenig Zugzwang und steht mit dem Konter schon bereit.

Pirx
2017-01-16, 12:59:37
Naja, ob Vega 20 in 7 nm noch 2017 kommt?

Complicated
2017-01-16, 15:17:04
Die Frage ist ob P40 noch 2017 in genügend Stückzahlen kommt, damit AMD darauf reagieren muss. Das ist eher zu bezweifeln. Selbst IBM nutzt die P100 Chips lediglich auf ihren Entwickler-Plattformen um NVLink zu integrieren und dann die großen Systeme mit Volta zu bestücken.
Siehe IBM-Presserklärung: https://www-03.ibm.com/press/us/en/pressrelease/50479.wss

IBMs Summit kommt dann 2018 mit Volta, auch schon 1 Jahr später als ursprünglich angekündigt und eben nicht mit Pascal: https://www.olcf.ornl.gov/summit/
Auch der Supercomputer Sierra wird kein Pascal bekommen wenn er fertig ist sondern kommt ebenfalls erst 2018 1 Jahr später und wird mit Volta ausgerüstet sein:
http://computation.llnl.gov/computers/sierra-advanced-technology-system

iuno
2017-01-16, 16:03:55
Vor allem da P100 noch nirgends auftaucht um Grenada Konkurrenz zu machen. Der trägt immer noch die DP-Leistungskrone.
P100 gibt es doch schon als PCIe Karte, laut Geizhals bei haufenweise Haendlern mit <1 Woche Liefzerzeit.

Und gibt es eigentlich Xeon Phi noch nicht auf PCIe Karte?

Ailuros
2017-01-16, 17:20:53
@Ailuros
Aufgrund der hohen FP16 Rate oder hat Vega auch eine hohe FP64 Rate?

V10 hat unter FP32 alles was eine heutige high end Profi-GPU haben koennte. Fuer gaming, compute (lowp) und workstation.

Wohl erst Vega20, sonst wäre der völlig sinnlos. Aber Vega10 bekommt wohl auch sonst noch einiges an Profi-Zeug, das GP102 nicht kennt wie die Infinity Fabric-Links, den "Speicherpool", 2xFP16 und womöglich noch anderes Zeug von dem man noch nichts weiß. Da fehlt auf GP100 nur mehr FP64 und die wird Vega20 nachliefern. GP102 hat eine hohe FP32-Leistung und ist voll auf Spiele getrimmt.

Wie ich schon mal sagte es erscheint mir heutzutage praktisch unmoeglich dass man alle Profi- und 3D Vorraussetzungen auf einen einzigen chip stecken kann ohne dass der Stromverbrauch durch die Decke haut. Sowohl V10 als auch P100 punkten in peak FLOPs eher weil der TDP bei oder leicht unter 300W liegt.

Sonst duerfte es keine sehenswerte FP64 auf V10 geben weil man es eben wohl nur in 7FF bei logischerem Stromverbrauch reinquetschen kann.

fondness
2017-01-16, 17:21:52
V10 hat unter FP32 alles was eine heutige high end Profi-GPU haben koennte.

Du sprichst in Rätseln. :D

Ailuros
2017-01-16, 17:34:48
Du sprichst in Rätseln. :D

Nicht wirklich http://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-06.png?_ga=1.57635050.1352481436.1479283064

AffenJack
2017-01-16, 17:57:34
Du sprichst in Rätseln. :D

Es fehlt nur FP64, aber das brauchen nur die wenigsten Workloads und dafür ist ein haufen anderes Zeug drin. Für 90% des Serverbereichs ist V10 top bestückt von den Features her.

Die Frage ist ob P40 noch 2017 in genügend Stückzahlen kommt, damit AMD darauf reagieren muss. Das ist eher zu bezweifeln.

P40 hat kein hohes DP, nur P100 hat das. Ansonsten aber wie Iuno schon schrieb, du kannst P100 ohne Probleme erwerben mittlerweile seit ~Dezember. Aber joa, die meisten warten eher auf Volta.