Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
dargo
2017-07-07, 09:03:13
Mal eine Frage zu diesem Thema mit den Stromsparmechanismen. Warum hat der Treiber eigentlich so großen Einfluss darauf? Müsste das nicht ausschließlich in Hardware implementiert sein? Oder lässt man sich hier einfach nur die Option offen die volle Kontrolle darüber zu haben? Ich meine für die Masse ist es einfacher einen neuen Treiber zu installieren als eine neue Firmware fürs Bios, sollten Fehler auftauchen.
Ich kann mich bsw. daran erinnern es gab mal einen AMD Treiber der fälschlicherweise das PT Limit von ~200W bei meinem damaligen Grenada einfach ausgehebelt hatte. Die Folge... die Karte taktete beim Powervirus nicht herunter und zog mit 1020Mhz bis zu 330W. :freak:
yamamoto_dc
2017-07-07, 09:22:31
Ist bei CPUs auch nicht viel anders, die meisten Notebooks brauchen unter Linux erheblich mehr Strom als mit angepasstem Windows.
Dural
2017-07-07, 09:22:37
Die Karte zieht rund +-280W, ist also meilenweit von deinen 2x8-Pin und 375W entfernt. Und OEMs werden natürlich sterben, weil es 2x8 statt 6/8 sind. Hoffentlich kann sich die Branche davon erholen.
Die LuKü Version eventuell nicht, die WaKü Version aber bestimmt, die hat nämlich eine TDP von 375Watt ;)
Eher 300W und da wäre es mit 6+8 zu knapp geworden.
Zumal der, wie schon gedacht, nur Speichercontroller und Displycontroller über den PEG versorgt (~20W), Chip und Speicher jedoch vollständig über die PCIe-Stecker. Kann man am PCB gut sehen.
Complicated
2017-07-07, 10:52:12
Bitte:
https://abload.de/thumb/rottr_usagedps8n.png (http://abload.de/image.php?img=rottr_usagedps8n.png)
Das füllt sich dann und kommt auf ca. 16 GB insgesamt. Glaube früher war das immer 14,5 GB. Ist echt gut dass so viele Resourcen genutzt werden. Die Engine ist echt gut. :up:
Ja dachte mir dass du dich da in die Irre führen lässt von den Begrifflichkeiten.
Der dynamische VRAM im Artikel ist zusätzlich zu System-RAM. Das kannst du im HardOCP Artikel einfach daraus schließen, das die anderen Karten natürlich nicht mit 0 GB System-RAM gelaufen sind dieser aber keinerlei Berücksichtigumg findet. Es ist dedizierter dynamischer VRAM. Das zeigt dein Screenshot in keinster Weise, weil Nvidia so etwas nicht bietet. Nvidia nutzt andere Techniken um den System-RAM mit zu nutzen. Nur werden da immer noch zwischen VRAM und DRAM kopien hin und her geschoben. Nicht bei AMD.
Rabiata
2017-07-07, 11:16:29
2x8Pin hat schon vor Monaten gezeigt das Panik da ist,niemand reduziert freiwillig die Kompatibilität für OEM's.
http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Radeon-Vega-Frontier-Edition-1228115/
Und Du glaubst die OEMS könnten keine Netzteile mit 2x8Pin verbauen? Bullshit, mit wenig Google-Einsatz finde ich das be quiet! System Power 8 600W.
Preise ab ca. 60 Euro für den Endverbraucher. Im Vergleich zu einer Vega spottbillig, das hält keinen OEM davon ab das Teil zu verbauen.
Und für die Stückzahlen die ein OEM so verbraucht, legen die Hersteller auch gern eine Sonderserie auf, wenns sein muß.
Dural
2017-07-07, 11:58:01
Die Stecker sind sicherlich nicht so das Problem, aber die Leistungsaufnahme (Netzteil teurer) und die Verlustleistung (Gehäuse, Kühlung) machen es dann schon etwas teurer.
Wenn man dafür eine NV Karte bekommt, die bei der Masse so wie so besser ankommt und weniger Strom zieht dürfte der Fall für die OEMs klar sein. Ausser man nennt sich Apple die ständig ihre Sonderwünsche haben. ;) Wobei ich sage ja schon lange, AMD muss langsam extrem aufpassen was sie da für Hardware abliefern, den plötzlich sind ihre grossen Abnehmer weg (Apple, Sony, MS)
Setsul
2017-07-07, 12:05:15
@Rabiata:
Ich glaube es geht darum, dass PCIe Karten offiziell nur maximal 300W verbrauchen dürfen.
Nachdem die PCIe Spezifikation in der Richtung sowieso sehr sinnvoll ist (6 Pin = 2 Paare = 75W, 8 Pin = 3 Paare = 150W) wird das gerne ignoriert. Es gibt genügend PCs mit Titan Z (375W TDP) oder 295X2 (500W TDP), beide mit 2x8 Pin.
Es muss funktionieren, kühlbar sein und die Leistung muss stimmen.
Und mal ehrlich, ich denke nicht dass die Masse der 1080 Tis und anderer preislich ähnlich gelegener GPUs bei Dell landet.
Die FE ist sowieso etwas eigen und bei passiv gekühlten Workstation/Servekarten wie der MI25 sieht alles wieder anders aus, aber bei RX Vega interessiert es reichlich wenig. Wenn das Ding langsamer wird als eine 1080 dann ändert 1x6 Pin oder 4x8 Pin auch nichts mehr. Wenns schneller wird als eine 1080 Ti, dann sind auch 350W worst case gerade noch so akzeptabel, wenn der Preis stimmt. Ob der Strom dann aus 6+8 oder 8+8 kommt, wird niemanden interessieren, solange es funktioniert.
Ich nehme an 8+8 hat ganz einfache Gründe. Nach der RX 480 wird jeder Depp nachmessen und wenn jetzt fast nichts am PEG hängt, der Vebrauch knapp unter 300W ist und deshalb 6+8 Pin mehr als 225W ziehen, dann geht der ganze Zirkus von vorne los.
DrumDub
2017-07-07, 12:33:27
Ich nehme an 8+8 hat ganz einfache Gründe. Nach der RX 480 wird jeder Depp nachmessen und wenn jetzt fast nichts am PEG hängt, der Vebrauch knapp unter 300W ist und deshalb 6+8 Pin mehr als 225W ziehen, dann geht der ganze Zirkus von vorne los. das seh ich auch so. das ist einfach am plausibelsten.
StefanV
2017-07-07, 13:14:48
Ist bei CPUs auch nicht viel anders, die meisten Notebooks brauchen unter Linux erheblich mehr Strom als mit angepasstem Windows.
Nicht nur Notebooks, auch Desktops...
Hier mal, was ich mit 'nem MSI A88X-G45 Gaming abgeschätzt habe:
A10-7850K
MSI A88X-GD45 GAMING (mit diesem Killer E2205 Gedöns)
12GiB RAM (3x4GiB)
Seasonic 660W Platinum
~36W Idle (Pollin Dingsda)
Das obere war übrigens unter Linux MInt, mit einer 5400rpm Notebook Platte.
Das ganze mit einem Windows 10 und einer billigsten (Sandisk, 64GB) SSD:
~30W idle.
Also ~5W Unterschied oder ~17% mehr unter Linux...
reaperrr
2017-07-07, 14:32:35
Also anhand der bisherigen Tests würde ich ganz klar sagen, die FE ist mit den aktuellen Treibern entweder massiv bandbreitenlimitiert (deaktiviertes/kaputtes TBR/DSBR), oder massiv CPU-limitiert. ~17% mehr Performance durch über 31% mehr Takt sind selbst für GCN-Verhältnisse extrem schlecht. Mäßige IPC hin oder her, solange keines der o.g. limitiert, müsste die Performance zu mindestens ~80% oder mehr mit dem Takt skalieren, die FE skaliert @stock aber nur mit wahnsinnigen ~53,8%, wenn man von festen 1382 MHz ausgeht, was ja nichtmal der Fall ist. Mit festen 1600* sinkt der Wert unter 50%. Das kann nicht an der Architektur als solcher liegen (außer eben, man hat einen Defekt im Design oder eine Fehlentscheidung getroffen, als man nur 2 HBM2-Interfaces verbaut hat).
*vorausgesetzt die waren wirklich fix
robbitop
2017-07-07, 14:40:03
Selbst mit nur 1050 MHz (wo ja deutlich wenige Bandbreitenlimit vorliegen sollte bei gleichem HBM Takt) als mit 1600 ist man ein wenig langsamer als Fijii. Bereits Polaris ist normiert auf die Rechenleistung ein gutes Stück schneller. Und das bei >+3 Mrd Transistoren. Dass da was nicht stimmt / nicht so sein soll (selbst außerhalb vom TBR, was hauptsächlich Bandbreite spart!) sieht ein Blinder mit nem Krückstock. :D
Die 3 Mrd Transistoren werden sicherlich z.T. in die Taktbarkeit geflossen sein - doch aber sicherlich nicht unwesentlich in die Kontrolllogik. Das würde implizieren, dass man mehr Leistung aus der Rechenleistung extrahieren können müsste.
Gibt es eigentlich DOOM Benchmarks von Vega? Insbesondere @1050 Mhz?
Nakai
2017-07-07, 14:45:22
Also anhand der bisherigen Tests würde ich ganz klar sagen, die FE ist mit den aktuellen Treibern entweder massiv bandbreitenlimitiert (deaktiviertes/kaputtes TBR/DSBR), oder massiv CPU-limitiert. ~17% mehr Performance durch über 31% mehr Takt sind selbst für GCN-Verhältnisse extrem schlecht. Mäßige IPC hin oder her, solange keines der o.g. limitiert, müsste die Performance zu mindestens ~80% oder mehr mit dem Takt skalieren, die FE skaliert @stock aber nur mit wahnsinnigen ~53,8%, wenn man von festen 1382 MHz ausgeht, was ja nichtmal der Fall ist. Mit festen 1600* sinkt der Wert unter 50%. Das kann nicht an der Architektur als solcher liegen (außer eben, man hat einen Defekt im Design oder eine Fehlentscheidung getroffen, als man nur 2 HBM2-Interfaces verbaut hat).
*vorausgesetzt die waren wirklich fix
Der HBCC könnte auch ein Problem darstellen. Eventuell wird der HBM2 noch nicht richtig gut als "Cache" eingesetzt. Dass der TBR nicht richtig funktioniert ist auch sehr nageliegend. Hinzu kommt noch ECC. ECC erhöht die Latenz. Wenn man in den weiten des Internets guckt, kann der ECC schon ein paar Prozentpunkte "klauen". Im Endeffekt ist es eh nur ein konstanter Faktor und ist so ziemlich vernachlässigbar. Das könnte jedoch den kleinen, aber feinen, Performanceunterschied zwischen Fiji und V10 bei gleicher Taktung ausmachen. Dass die Performance nicht mit dem Takt skaliert spricht hier sehr stark für ein Bandbreiten-Limit.
Ich habe keine Ahnung was TBR für IPC-Steigerungen mit sich bringt. Im BestCase sollten schon 50% drin sein, aber das kann man eher auf synthetische Benchmarks beziehen.
BoMbY
2017-07-07, 14:50:11
Gibt es eigentlich DOOM Benchmarks von Vega? Insbesondere @1050 Mhz?
Ja, alles da: http://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc
Troyan
2017-07-07, 15:11:14
Der HBCC könnte auch ein Problem darstellen. Eventuell wird der HBM2 noch nicht richtig gut als "Cache" eingesetzt. Dass der TBR nicht richtig funktioniert ist auch sehr nageliegend. Hinzu kommt noch ECC. ECC erhöht die Latenz. Wenn man in den weiten des Internets guckt, kann der ECC schon ein paar Prozentpunkte "klauen". Im Endeffekt ist es eh nur ein konstanter Faktor und ist so ziemlich vernachlässigbar. Das könnte jedoch den kleinen, aber feinen, Performanceunterschied zwischen Fiji und V10 bei gleicher Taktung ausmachen. Dass die Performance nicht mit dem Takt skaliert spricht hier sehr stark für ein Bandbreiten-Limit.
HBCC ist im Gaming-Mode deaktiviert und ECC wird von AMD für die FE-Karte nicht beworben.
Ich habe keine Ahnung was TBR für IPC-Steigerungen mit sich bringt. Im BestCase sollten schon 50% drin sein, aber das kann man eher auf synthetische Benchmarks beziehen.
Weder nVidia noch AMD haben ein TBR. Es ist "Tiled Caching Rasterizing".
Nö. HBCC kann man im G-Mode auch aktivieren.
Troyan
2017-07-07, 15:22:20
Ich weiß. Es ist trotzdem als Standard deaktiviert.
Hübie
2017-07-07, 17:24:43
Ja dachte mir dass du dich da in die Irre führen lässt von den Begrifflichkeiten.
Der dynamische VRAM im Artikel ist zusätzlich zu System-RAM. Das kannst du im HardOCP Artikel einfach daraus schließen, das die anderen Karten natürlich nicht mit 0 GB System-RAM gelaufen sind dieser aber keinerlei Berücksichtigumg findet. Es ist dedizierter dynamischer VRAM. Das zeigt dein Screenshot in keinster Weise, weil Nvidia so etwas nicht bietet. Nvidia nutzt andere Techniken um den System-RAM mit zu nutzen. Nur werden da immer noch zwischen VRAM und DRAM kopien hin und her geschoben. Nicht bei AMD.
Sorry, ich kann dir da gerade nicht folgen. :redface: Woher hat HardOCP die Menge an dynamic VRAM eigentlich? Auf meinem System wird der verfügbare Grafikspeicher mit maximal 14.306 MB angegben (abzüglich der 6.144 MB also 8.162 MB), aber wie viel akut genutzt wird kann man nicht heraus lesen.
Aber was meinst du mit Kopien von VRAM und DRAM hin- und herschieben? Das liest sich als würden bei NV Daten doppelt vorhanden sein. Das ergibt für mich keinen Sinn. Woran erkennst du bei meinem Screenshot wie viel von dem RAM als ausgelagerter VRAM genutzt wird? Ich würde das gerne mal sehen, aber habe bis heute kein Tool gefunden, was das anzeigen kann.
HardOCP gibt in dem Artikel nicht den Gesamtspeicherbedarf an. In einem anderen Test sah ich das mal (erinnere mich nicht mehr welche Seite das war) und da kam man in der Summe auf jeder Plattform auf ca. 14,5 GB wenn ich mich recht entsinne.
Mit anderen Worten: Fiji macht hier nix besonderes bzw es gibt keine Anzeichen für eine frühe Version eines HBC. Bei einer GTX 970 sieht NV auch immer zu unter den magischen 3,5 GB zu bleiben. :freak:
Langlay
2017-07-07, 17:32:03
HardOCP gibt in dem Artikel nicht den Gesamtspeicherbedarf an. In einem anderen Test sah ich das mal (erinnere mich nicht mehr welche Seite das war) und da kam man in der Summe auf jeder Plattform auf ca. 14,5 GB wenn ich mich recht entsinne.
Mit anderen Worten: Fiji macht hier nix besonderes bzw es gibt keine Anzeichen für eine frühe Version eines HBC. Bei einer GTX 970 sieht NV auch immer zu unter den magischen 3,5 GB zu bleiben. :freak:
https://m.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13
The AMD Radeon R9 Fury X VRAM behavior does make sense though if you look toward the dynamic VRAM. It seems the onboard dedicated VRAM was mostly pegged at or near its 4GB of capacity. Then it seems the video card is able to shift its memory load out to system RAM, by as much as almost 4GB at 4K with 4X SSAA. If you combine the dynamic VRAM plus the on board 4GB of VRAM the numbers come out to equal numbers much higher than the AMD Radeon R9 390X and closer to what the GeForce GTX 980 Ti achieved in terms of dedicated VRAM.
Hübie
2017-07-07, 17:33:42
In wie weit beantwortet das meine Fragen? :| Ich habe das durchaus gelesen.
So richtig wissen tun die wohl auch nix und stellen eher Vermutungen an.
dildo4u
2017-07-07, 17:40:28
https://m.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13
Die Anzeigen sind Nutzlos,Fury X kackt schon in 1440p ab.Nix mit Verhält sich wie ne 8GB Karte.
https://www.pcper.com/image/view/83322?return=node%2F68034
Langlay
2017-07-07, 17:48:24
In wie weit beantwortet das meine Fragen? :| Ich habe das durchaus gelesen.
So richtig wissen tun die wohl auch nix und stellen eher Vermutungen an.
Naja du behauptest Fiji macht hier nichts besonders. Sie verhält sich aber nicht wie eine R9 390, also macht sie was anderes/besonderes. Was sie genau macht und wieviel das unterm Strich bringt darüber kann man steiten.
Oh man bei Amazon.co.uk gibts in 2-3 Wochen
EVGA GeForce GTX 1080 Ti Founders Edition 11GB für 657,56€ (Amazon.co.uk)
Vega Rx mach hin...und wehe du wirst Scheiße...
Hübie
2017-07-07, 17:59:15
Naja du behauptest Fiji macht hier nichts besonders. Sie verhält sich aber nicht wie eine R9 390, also macht sie was anderes/besonderes. Was sie genau macht und wieviel das unterm Strich bringt darüber kann man steiten.
Keine Karte verhält sich wie die 390X bzw. Grenada. Woher weißt du denn dass es nicht ein Bug ist, da die stets bei 4 GB klebt (und dann auch schon dynamic VRAM nutzt). Irgendwie doch verdächtig meinst du nicht? Also noch mal: Wo beantwortet dein Link meine Fragen? :confused:
Woher die den dynamischen VRAM-Anteil haben wurde auch noch nicht beantwortet.
Edit: Um den Bogen zu Vega zu schlagen: Warum also sollte man ein Feature dass dem HBC schon nah kommt einfach unterschlagen bzw. gar nicht erwähnen, wenn man es bei Vega im Vorfeld schon so anpreist? Ich denke das ist eine einfach Treiber-Geschichte wie auch bei der 970. NV nutzt doch auch den DRAM als erweiterten VRAM, also wo ist der Unterschied? Bei Vega hat complicated in Beitrag #8230 ja schon ausführlich erwähnt wie das funktioniert, aber bei bisherigen Chips sehe ich da keine (starken) Unterschiede bzw. sind mir diese nicht bekannt oder fallen besonders positiv auf.
dosenfisch24
2017-07-07, 18:02:27
Ich habe mir vorhin mit GPU-Z die Einträge vom Bios angesehen und die Bootup Message der FE lautet "Vega10 A1 XTX AIR D05011 16GB 852e/945m 0.95V"
Wenn die Gpu wirklich noch ein A1 Stepping ist, hätten sie doch alle Zeit der Welt gehabt potentielle Probleme/Fehler der HW zu finden und zu beheben, um anschließend ein späteres Stepping zu verbauen. Das bestärkt meiner Meinung nach die Theorie, dass es einzig und allein der Treiber alles gegen die Wand fährt.
Gipsel
2017-07-07, 18:05:35
Der HBCC könnte auch ein Problem darstellen.Solange der VRAM nicht ausgeht, dürfte das so ziemlich nichts ausmachen (weil der HBCC "arbeitslos" ist).
Weder nVidia noch AMD haben ein TBR. Es ist "Tiled Caching Rasterizing".Es ist schon ein tile based rasterizer. Die Geometrie wird in Screentiles gebinnt, etwas gesammelt und dann Tile für Tile gerastert und abgearbeitet (nV macht das auch). Nur die Abkürzung TBR ist üblicherweise schon für "tile based renderer" reserviert, so daß die Verwendung für "tile based rasterizer" zur Verwirrung führen kann. Vielleicht sollte man sich auf "binning rasterizer" oder sowas einigen?
MadManniMan
2017-07-07, 18:11:29
Dass das alles keine TBDR (Tile Based Deferred Renderer) wie die Kyros damals sind, ist klar, aber inwiefern ist es denn heute ... "verzögertes" Rendern?
Hübie
2017-07-07, 18:12:27
Ich habe übrigens jetzt mal etwas Zeit mit googlen von Texturformaten verbracht und irgendwie ist mir nicht klar in wie weit AMD da fortschrtittlichere Algorithmen haben soll, wie HardOCP behauptet? Worin soll sich das bemerkbar machen? Weniger VRAM-Bedarf? Oder ist dieser bestenfalls ein Indiz?
@MadManniMan: Ich bin zwar nicht so in der Materie aber so weit ich es verstanden habe binned ein tile so lang bis jeweils ein Warp mit 32 Threads "gefüllt" werden kann, damit eine optimale Auslastung erreicht wird. Ein Batch ist immer 32 Pixel, daher ergäbe es für mich Sinn so lange zu sammeln...
12. The Raster Engine of a GPC works on the triangle it received and generates the pixel information for those sections that it is responsible for (also handles back-face culling and Z-cull).
13. Again we batch up 32 pixel threads, or better say 8 times 2x2 pixel quads, which is the smallest unit we will always work with in pixel shaders. This 2x2 quad allows us to calculate derivatives for things like texture mip map filtering (big change in texture coordinates within quad causes higher mip). Those threads within the 2x2 quad whose sample locations are not actually covering the triangle, are masked out (gl_HelperInvocation). One of the local SM's warp scheduler will manage the pixel-shading task.
Quelle (https://developer.nvidia.com/content/life-triangle-nvidias-logical-pipeline)
Ich nehme auch mal stark an, dass es hier auch Zeitfenster gibt, da man ja auch Bildschirmbereiche hat die nicht groß mit Dreiecken gefüllt sind (bpsw. der Himmel).
Langlay
2017-07-07, 18:14:24
Woher die den dynamischen VRAM-Anteil haben wurde auch noch nicht beantwortet.
GPU-Z
http://gpuz.techpowerup.com/17/07/07/wyg.png
vinacis_vivids
2017-07-07, 18:22:55
Ich habe übrigens jetzt mal etwas Zeit mit googlen von Texturformaten verbracht und irgendwie ist mir nicht klar in wie weit AMD da fortschrtittlichere Algorithmen haben soll, wie HardOCP behauptet? Worin soll sich das bemerkbar machen? Weniger VRAM-Bedarf? Oder ist dieser bestenfalls ein Indiz?
Irgendwie scheinst du was nicht zu verstehen. AMD wird dir ohnehin keine fortschrittlichen Algorithmen zeigen. Geh doch mal die AMD-Folien durch. Die Nvidia Folien scheinst du ja schnell in deiner Bettlektüre verstanden zu haben, stell dich mal bei AMD nicht so an... :rolleyes:
The World’s Most Advanced GPU Memory Architecture
The Vega GPU features a revolutionary memory controller capable of leveraging system memory, flash-based SSDs and new storage-class memory types to create incredible new possibilities for gaming, design, and compute analysis workloads.
With a dedicated High-Bandwidth Cache, the Vega GPU utilizes HBM2, the latest in graphics memory technology, to provide incredible levels of power efficiency and memory performance.
BoMbY
2017-07-07, 18:31:00
Ich habe übrigens jetzt mal etwas Zeit mit googlen von Texturformaten verbracht und irgendwie ist mir nicht klar in wie weit AMD da fortschrtittlichere Algorithmen haben soll, wie HardOCP behauptet?
Vielleicht ist ja die neue Patentanmeldung hier gemeint: TEXTURE COMPRESSION TECHNIQUES (http://patents.justia.com/patent/20170195683)
-/\-CruNcher-/\-
2017-07-07, 18:44:37
Oha AMDs eigener
PVR-TC is a recently developed compression scheme that scales an image down to a fraction of its original size and then scales it back up to obtain a good first-approximation of the original image. Texture compression is thus achieved by storing the downscaled version and then adding some modulation to create a fairly accurate reconstruction of the original data. This texture compression scheme works well for some types of data (particularly smooth gradients), and scales reasonably even to low bit rates. However, PVR-TC has a tendency to blur images somewhat and lose high frequency details. Occasionally the PVR-TC compression also seems to introduce other artifacts such as high frequency modulation noise and ringing.
Competitor
:D
However, rather than mechanistically compressing the regular texture blocks, the present invention introduces the idea of further subdividing or partitioning the block internally into “subsets”
Das hört sich ja endlich an als bekommen wir sub partitioning efficiency in Desktop Hardware :D
Das letzte mal das ATI Compression angerührt hat das war doch ATI2N aka BC5 ?
Bald in AMD Compress ?
aber Vega wird es doch noch nicht in Hardware supporten Patent filling war 2016 wohl eher Navi aber vielleicht schon Vega Mobile (obwohl die Zeit doch auch für Vega Final wohl gereicht hätte) :)
Vielleicht ist es aber schon teil der neuen IP das ist ja spannend :D
Microsoft hätte wohl deutlich interesse daran gehabt für die Xbox One X um die Bandbreite weiter zu pimpen.
Hat eigentlich mal jemand den NV12 throughput getestet von Vega mit HBM2 ?
gravitationsfeld
2017-07-07, 18:51:51
Was ist an dem PVR-TC-Teil des Patents hier irgendwie relevant? Du zitierst doch nur irgend einen Scheiss voellig ohne Zusammenhang und schreibst dann Bullshit dazu. Es nervt.
Dass das alles keine TBDR (Tile Based Deferred Renderer) wie die Kyros damals sind, ist klar, aber inwiefern ist es denn heute ... "verzögertes" Rendern?
Es ist verzoergert, solange der Buffer im L2 nicht voll laeuft. Der einzige Unterschied zu ImgTec ist, dass die Geometrie nie den Chip verlaesst. AMD hat wohl sogar HSR.
Hübie
2017-07-07, 19:27:09
Irgendwie scheinst du was nicht zu verstehen. AMD wird dir ohnehin keine fortschrittlichen Algorithmen zeigen. Geh doch mal die AMD-Folien durch. Die Nvidia Folien scheinst du ja schnell in deiner Bettlektüre verstanden zu haben, stell dich mal bei AMD nicht so an... :rolleyes:
The World’s Most Advanced GPU Memory Architecture
The Vega GPU features a revolutionary memory controller capable of leveraging system memory, flash-based SSDs and new storage-class memory types to create incredible new possibilities for gaming, design, and compute analysis workloads.
With a dedicated High-Bandwidth Cache, the Vega GPU utilizes HBM2, the latest in graphics memory technology, to provide incredible levels of power efficiency and memory performance.
Was hat deine Antwort nun mit der zitierten Texturformat-Thematik zu tun? :confused: :confused:
Das mit dem HBC auf Vega ist geklärt und mit NV hatte ich in der Vergangenheit berufsbedingt einfach engeren Kontakt, weshalb es klar ist, dass ich da die µArch und Technologien besser kenne. Wenn ich einem Unternehmen eine Empfehlung ausspreche oder etwas für ein Projekt plane muss das eben auch alles abdecken. Ich muss zwar nicht programmieren können, aber muss wissen was die benötigen (Features, Leistung und natürlich Quantität). Da war AMD bisher keine wirkliche Option (auch wenn deren Hardware sehr gut ist, dass stelle ich nicht in Frage).
@Langlay: Danke. :up: Das kannte ich (verständlicherweise) nicht. Ich gucke mal in der NVAPI Referenz ob man das überhaupt auslesen kann. Ich bin mir aber ziemlich sicher, dass NV auch diesen "dynamic VRAM" hat. Ich kenne es zumindest von CUDA so. In wie weit sich das Lese/Schreib-Verhalten unterscheidet kann ich aber nicht sagen. Eventuell weiß ein anderer mehr.
@BoMbY: Ist das denn in Fiji drin?
Mal so allgemein gefragt: Ist eine Texturkompression immer "aktiv" oder muss die explizit über eine API aufgerufen werden bzw. wird aufgerufen wenn eine Textur im Format XY (S3TC, DXTC, BC5 etc) vorliegt? Hat jemand mal eine nette Übersicht was eigentlich häufiger und was weniger häufig genutzt wird? Das scheint noch recht nebelig zu sein. =)
pixeljetstream
2017-07-07, 19:28:51
@MadManniMan: Ich bin zwar nicht so in der Materie aber so weit ich es verstanden habe binned ein tile so lang bis jeweils ein Warp mit 32 Threads "gefüllt" werden kann, damit eine optimale Auslastung erreicht wird. Ein Batch ist immer 32 Pixel, daher ergäbe es für mich Sinn so lange zu sammeln...
Quelle (https://developer.nvidia.com/content/life-triangle-nvidias-logical-pipeline)
Ich nehme auch mal stark an, dass es hier auch Zeitfenster gibt, da man ja auch Bildschirmbereiche hat die nicht groß mit Dreiecken gefüllt sind (bpsw. der Himmel).
Das quad-merging in warps was da von mir beschrieben ist, hat nicht direkt was mit dem "tiled caching" zu tun. Der rasterizer ist auch ohne "tiled-caching" in so tiles organisiert.
Mehr zu tiled-caching usw. hier https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11424534#post11424534
gravitationsfeld
2017-07-07, 19:35:27
Tiled Caching erhoeht wahrscheinlich auch die Effizienz der Framebuffer-Kompression, oder nicht?
vinacis_vivids
2017-07-07, 19:36:30
Was hat deine Antwort nun mit der zitierten Texturformat-Thematik zu tun? :confused: :confused:
Das mit dem HBC auf Vega ist geklärt und mit NV hatte ich in der Vergangenheit berufsbedingt einfach engeren Kontakt, weshalb es klar ist, dass ich da die µArch und Technologien besser kenne. Wenn ich einem Unternehmen eine Empfehlung ausspreche oder etwas für ein Projekt plane muss das eben auch alles abdecken. Ich muss zwar nicht programmieren können, aber muss wissen was die benötigen (Features, Leistung und natürlich Quantität). Da war AMD bisher keine wirkliche Option (auch wenn deren Hardware sehr gut ist, dass stelle ich nicht in Frage).
Wird Zeit, dass du dir ne Vega zulegst und selbst testest.
Welche Projekte sollen es denn sein? Ansonsten beratest du ja 0815 ohne wirkliche Kenntnisse.
Hübie
2017-07-07, 19:39:23
Ah, vielen Dank. Also ist die Grenze eher die Größe des Caches die ziemlich proportional zur Anzahl der SMs und somit der ALUs steigt.
Welche Stellschrauben wären das, an denen man drehen kann? HSR wäre eine die ich mir aus den Fingern saugen kann (weniger Geometrie im tile oder läuft HSR erst danach?).
@vinacis_vivids: Gerne per PN da hier OT ;) Wieso legst du dir keine Vega zu? :P
Der Vollständigkeit halber:
Man kommt per NVAPI auch an die Info des dedicated memory.
NvU32 NV_DISPLAY_DRIVER_MEMORY_INFO_V3::sharedSystemMemory
Size(in kb) of shared system memory that driver is allowed to commit for surfaces across all allocations.
NvU32 NV_DISPLAY_DRIVER_MEMORY_INFO_V3::systemVideoMemory
Size(in kb) of system memory the driver allocates at load time.
-/\-CruNcher-/\-
2017-07-07, 19:39:47
Was ist an dem PVR-TC-Teil des Patents hier irgendwie relevant? Du zitierst doch nur irgend einen Scheiss voellig ohne Zusammenhang und schreibst dann Bullshit dazu. Es nervt.
Es ist verzoergert, solange der Buffer im L2 nicht voll laeuft. Der einzige Unterschied zu ImgTec ist, dass die Geometrie nie den Chip verlaesst. AMD hat wohl sogar HSR.
Das es der gegenpart zu ImgTec Entwicklung ist und man damit direkt versucht auch ARM (ASTC) und Nvidia VTC paroli zu bieten das ist schon gewaltig.
Jeder von uns könnte diese Kompressionsqualität mit den DSPs erreichen auch du CODA aber es würde mächtig patent probleme geben ;)
Hier scheint AMD jetzt endlich sicher zu sein eine Patentfähige Weiterentwicklung in der Hand zu haben die MPEG nicht sauer machen wird und dich und mich sehr glücklich ohne andauernd hin und her zu streamen und resourcen unnötig zu belasten ;)
Es sei den natürlich ID Tech ist voll Prozedural geworden ;)
Frag mich was da auf uns zukommt :)
GL_AMD_texture_compression_???
Eigentlich bin ich davon ausgegangen das wir bei BC6/BC7 für eine lange Zeit hängen werden.
Aber vielleicht weist du ja schon mehr als jeder andere hier und tust nur so auf unwissend bzw NDA läst grüßen ;)
pixeljetstream
2017-07-07, 19:48:32
Tiled Caching erhoeht wahrscheinlich auch die Effizienz der Framebuffer-Kompression, oder nicht?
Nach meinem Verständnis sparen wir insgesamt Bandbreite, weil wir länger auf den gleiche Pixeln rummhampeln. Bin auch nicht so der Experte für das Feature und interpoliere mal aus den veröffentlichten slides.
vinacis_vivids
2017-07-07, 20:10:47
@Hübie
Hoffe du zeigst nicht nur 3dmurks Werte bei deiner Präsentation für die Leistungsfähigkeit moderner GPUs für Firmen ;D
Was Details von Vega angeht, sind wir noch am Anfang. Mich verwundern nur deine Fragen, weil die eben nicht von technischen Wissen zeugen.
Was Texturformat angeht, hängt es bei Vega unmittelbar mit dem veränderten L2 zusammen. Alle berechneten Daten (Geometry, Compute, Pixel) landen im L2 und können dort auch verweilen ohne dass man ständig hin und her schieben muss. Das spart Zeit, Bandbreite und V-Ram-Belegung, wozu auch jegliche Texturen gehören.
M4xw0lf
2017-07-07, 20:18:28
Nach meinem Verständnis sparen wir insgesamt Bandbreite, weil wir länger auf den gleiche Pixeln rummhampeln. Bin auch nicht so der Experte für das Feature und interpoliere mal aus den veröffentlichten slides.
Ich mag, wie ein Nvidia-Mitarbeiter einer der konstruktivsten und -im Gegensatz zu "seinen" Fans- am wenigsten nervigen Teilnehmer dieses Threads ist. :D
Hübie
2017-07-07, 20:23:58
@Hübie
Hoffe du zeigst nicht nur 3dmurks Werte bei deiner Präsentation für die Leistungsfähigkeit moderner GPUs für Firmen ;D
Was Details von Vega angeht, sind wir noch am Anfang. Mich verwundern nur deine Fragen, weil die eben nicht von technischen Wissen zeugen.
Was Texturformat angeht, hängt es bei Vega unmittelbar mit dem veränderten L2 zusammen. Alle berechneten Daten (Geometry, Compute, Pixel) landen im L2 und können dort auch verweilen ohne dass man ständig hin und her schieben muss. Das spart Zeit, Bandbreite und V-Ram-Belegung, wozu auch jegliche Texturen gehören.
Mein aktuelles Projekt hat auch gar nichts mit GPUs zu tun, also bin ich da auch nicht auf dem Laufenden. Und wie gesagt muss ich nicht programmieren können. :wink:
Dennoch ist mir der Zusammenhang aus Textur, L2 und HBC in deiner Antwort nicht klar. :confused:
gravitationsfeld
2017-07-07, 20:58:04
Das es der gegenpart zu ImgTec Entwicklung ist und man damit direkt versucht auch ARM (ASTC) und Nvidia VTC paroli zu bieten das ist schon gewaltig.
Jeder von uns könnte diese Kompressionsqualität mit den DSPs erreichen auch du CODA aber es würde mächtig patent probleme geben ;)
Hier scheint AMD jetzt endlich sicher zu sein eine Patentfähige Weiterentwicklung in der Hand zu haben die MPEG nicht sauer machen wird und dich und mich sehr glücklich ohne andauernd hin und her zu streamen und resourcen unnötig zu belasten ;)
Es sei den natürlich ID Tech ist voll Prozedural geworden ;)
Frag mich was da auf uns zukommt :)
GL_AMD_texture_compression_???
Eigentlich bin ich davon ausgegangen das wir bei BC6/BC7 für eine lange Zeit hängen werden.
Aber vielleicht weist du ja schon mehr als jeder andere hier und tust nur so auf unwissend bzw NDA läst grüßen ;)
Wenn man keine Ahnung hat, einfach mal die Klappe halten.
Das trifft im Uebrigen so gut wie auf jeden Post von dir zu. Deine geistigen Erguesse kannst du dir unter das Bett haengen. Es nervt jeden hier.
Es gibt keinen kohaerenten Faden oder Sinn der irgend etwas zu einer Diskussion hier jemals beigetragen hat. Es ist kompletter geistiger Duennschiss ohne Substanz.
vinacis_vivids
2017-07-07, 20:59:47
@Hübie
Wirst du auch nicht und das habe ich auch nie erwartet. Es gibt auch niemanden hier im Thread der dir das beantworten kann wie du es Nvidiamäßig verstehst. Kannst die nächsten 10 Jahre dich im Kreis drehen.
Schau dir doch einfach die Neuanordnung von Vega an. Kernpunkt ist die Änderung der Cache Struktur (L2, HBC, HBMC). Kürzere Wege und kürzere Latenzen verursacht weniger VRAM Nutzung. Intelligente Verwaltung wird durch den Treiber gemacht.
-=Popeye=-
2017-07-07, 22:14:54
@Hübie
Wirst du auch nicht und das habe ich auch nie erwartet. Es gibt auch niemanden hier im Thread der dir das beantworten kann wie du es Nvidiamäßig verstehst. Kannst die nächsten 10 Jahre dich im Kreis drehen.
Schau dir doch einfach die Neuanordnung von Vega an. Kernpunkt ist die Änderung der Cache Struktur (L2, HBC, HBMC). Kürzere Wege und kürzere Latenzen verursacht weniger VRAM Nutzung. Intelligente Verwaltung wird durch den Treiber gemacht.
Treiber cheating also... da RX Vega höchstwahrscheinlich nur mit 8Gig VRAM kommt werden also Details weggelassen. Aha.
Hast du das PCGH Video gesehen? Da werden bei der FE (16) schon deutlich über 8Gig gefüllt und dass war noch nicht einmal volle Pulle.
btw... die 12 einer TX sind bei RotTR auch schon grenzwertig.
dargo
2017-07-07, 22:30:02
Hast du das PCGH Video gesehen? Da werden bei der FE (16) schon deutlich über 8Gig gefüllt und dass war noch nicht einmal volle Pulle.
Wenn mehr zur Verfügung steht wird auch mehr gefühlt, ist ja nichts Neues. Zudem heißt das noch gar nichts. Außerdem wurde hier schon mal erwähnt, dass HBCC bei Vega FE aktuell nicht aktiviert ist.
vinacis_vivids
2017-07-07, 22:31:17
Treiber cheating also... da RX Vega höchstwahrscheinlich nur mit 8Gig VRAM kommt werden also Details weggelassen. Aha.
Hast du das PCGH Video gesehen? Da werden bei der FE (16) schon deutlich über 8Gig gefüllt und dass war noch nicht einmal volle Pulle.
btw... die 12 einer TX sind bei RotTR auch schon grenzwertig.
HBCC = off
Nichtsichtbare Details werden mit TBR weggelassen und das ist gut so :)
basix
2017-07-07, 22:49:33
Mal eine andere Frage: Wenn man durch das Tiling bessere HSR etc. machen kann, sinkt dadurch auch die effektive Speicherbelegung? Ich meine evtl. können ein paar Texturen oder so weggelassen werden und erst später bei Bedarf nachgeladen werden. Dies würde vor allem bei weiter entfernten Objekten gut funktionieren (da potentiell öfter verdeckt). Oder macht das nur wenig Sinn, weiter entfernte Objekte haben ja die geringere Texturauflösung als nahe Objekte.
Digidi
2017-07-07, 22:54:31
Bei GamersNexus wurden jetzt die beiden Modie Pro und Game verglichen. Es gibt da 0,0% unterschied. Das sind beides die gleichen Treiber.
Mir kommt noch eine andere These in den Sinn. AMD musste Vega unbedingt releasen weil es ja versprochen war. Leider hatte man für den Release nicht genug Karten übrig. Also kreiert man eine Karte die Beides so lala kann und beschneidet sie künstlich im Treiber das sich nicht all zu viele auf die Karte stürzen.
Das verschafft einem Zeit nun genug Karten für den eigentlichen Release zu fertigen und einen ordentlichen Launch mit ordentlicher Verfügbarkeit hinzulegen und dort dann positiv zu überraschen.
Linmoum
2017-07-07, 22:58:10
Es gibt da auch schlicht keinen Unterschied, AMD hatte schon gegenüber pcper bestätigt, dass die beiden Modi nur die Treiberoberfläche umschalten.
-=Popeye=-
2017-07-07, 22:59:17
Wenn mehr zur Verfügung steht wird auch mehr gefühlt, ist ja nichts Neues. Zudem heißt das noch gar nichts. Außerdem wurde hier schon mal erwähnt, dass HBCC bei Vega FE aktuell nicht aktiviert ist.
Aha ok.
Wenn Aktiv möchte ich hier ein GTA V im 2160p mit allem was geht in diesem Spiel (welches sich übrigens locker 24GB nimmt) unabhängig der Performance sehen.
basix
2017-07-07, 23:07:36
Wenn Aktiv möchte ich hier ein GTA V im 2160p mit allem was geht in diesem Spiel (welches sich übrigens locker 24GB nimmt) unabhängig der Performance sehen.
Wenn man die Demo von AMD mit HBCC anschaut und sich das in GTA V ähnlich verhält, könnte das ziemlich gut klappen ohne wirkliche Performanceeinbussen ;)
-=Popeye=-
2017-07-07, 23:15:38
Wie denn? Wenn das Spiel selbst per Hinweis sagt das nicht genügend VRAM vorhanden ist. :rolleyes:
basix
2017-07-07, 23:25:24
Wie denn? Wenn das Spiel selbst per Hinweis sagt das nicht genügend VRAM vorhanden ist. :rolleyes:
Hast Du Dir überhaupt mal durchgelesen, was der Sinn hinter HBCC bei Games ist? Das Spiel will den Speicher belegen, ja. Aber es wird niemals alles davon wirklich benötigt / darauf zugegriffen. Alles was man nicht benötigt, kann man auslagern, ohne dass man irgendwelche Performance Einbussen hat.
Hier noch ein schönes Bild von AMD dazu. Wie das genau funktioniert, die richtigen Daten auszulagern weiss ich aber nicht. Evtl. erklärt uns AMD das mal.
https://www.pcper.com/image/view/77622?return=node%2F66831
Ein anderer Grund ist einfaches Vorhalten von Daten ohne sie wirklich zu benötigen. Kannst du dich an Lords of the Fallen erinnern? Dort wurde IMMER der ganze VRAM gefüllt. Egal ob eine 4GB oder 8GB Karte eingesetzt wurde. Trotzdem hatte die 4GB Karte die selbe Performance. Nun erkläre Du mir doch bitte, ob GTA V die von Dir genannten 24GB auch wirklich benötigt und nicht nur vorlädt. Ich tendiere auf das zweite.
dargo
2017-07-07, 23:32:31
Wenn Aktiv möchte ich hier ein GTA V im 2160p mit allem was geht in diesem Spiel (welches sich übrigens locker 24GB nimmt) unabhängig der Performance sehen.
Ein GTA V benötigt 24GB Vram? In welchem Universum? :|
-=Popeye=-
2017-07-07, 23:34:28
Schau dir GTA doch einfach an, ob es die 24 benötigt sei dahin gestellt, dass Spiel gibt dir nicht mehr als du hast.
Und dieser Witcher Vergleich ist albern, mehr als fünf hab ich dort noch nie gesehen.
Iruwen
2017-07-07, 23:35:18
Offensichtlich will AMD die finalen Treiber so spät wie möglich breit streuen.
Also entweder VEGA wird wirklich einer der größten Flops, den AMD jemals produziert hat, oder die Firma pokert und spielt gerade den größten Bluff in seiner Geschichte.
Schön wärs, nur: wozu? Über der 1080 Ti kommt nichts mehr, und momentan wird jemand der bisher gezögert hat wohl zu selbiger greifen angesichts der ernüchternden Prognosen.
vinacis_vivids
2017-07-07, 23:37:55
Durch Tiling wird V-Ram Verbrauch, Bandbreite, Strom eingespart. Gleichzeitig wird die ersparte Raw-Rechenpower in andere Bereiche investiert, programable, also alles möglich.
Wichtig ist halt, dass die Latenzen konstant bleiben, dadurch weniger Schwankung in der Framerange, mehr Synchronisation. Damit gibs bessere min fps. und weniger Drops.
----------------------- HBM²
C->L1-> -------------↓↑
G->L1->L2<=> HBCC
P->L1 -> ↓↑-----↓↑---↑↓
---------- 12TB VAS - HBC
Vegachips mit weniger Shader haben trotzdem den kompletten Vorteil des HBCC. Bei Nvidia erfolgt die Beschneidung auch im Memory Interface.
1080ti ~ 8GB HBM² Vega 4096SP 1630Mhz
1080 ~ 4GB HBM² Vega 3584SP 1650Mhz ?
1070 ~ 8GB GDDR5 Vega 3072SP 1650Mhz ?
Vega dürfte durchgehend in höheren Auflösungen weniger einbrechen als vergleichbare Pascal.
Iruwen
2017-07-07, 23:48:48
Wie... Fiji?
dargo
2017-07-07, 23:49:03
Schau dir GTA doch einfach an...
Ich kenne das Spiel.
-=Popeye=-
2017-07-07, 23:51:39
Ein GTA V benötigt 24GB Vram? In welchem Universum? :|
https://abload.de/thumb/gta5_2017_07_07_23_43opum3.png (http://abload.de/image.php?img=gta5_2017_07_07_23_43opum3.png) https://abload.de/thumb/gta5_2017_07_07_23_39zruwc.png (http://abload.de/image.php?img=gta5_2017_07_07_23_39zruwc.png)
:wink:
Ich kenne das Spiel.
Anscheinend nicht.
basix
2017-07-07, 23:55:33
Und dieser Witcher Vergleich ist albern, mehr als fünf hab ich dort noch nie gesehen.
Ist doch egal ob 5GB, 10GB oder 50GB. Es geht darum, dass man weniger Speicher benötigt als das Spiel alloziert ;)
Oder findest du, dass eine heutige 4GB Karte Freude an den 5GB in Witcher 3 hätte? Bei GTA V wird es halt per SW gecancelt. Heute vielleicht sinnvoll, mit Vega nicht mehr.
TGKlaus
2017-07-07, 23:55:41
Bei GamersNexus wurden jetzt die beiden Modie Pro und Game verglichen. Es gibt da 0,0% unterschied. Das sind beides die gleichen Treiber.
Ja, wow. Was für ne Erkenntnis.
Das Sagen eine handvoll Leute, inklusive mir, seit 2 Wochen.
Aber statt das der ein oder andere mal sein Hirn einschaltet, wird Schwachsinn erzählt und man wird persönlich angegangen.
Und die Fachpresse bringt nur weitere sinnlose Gamingbenches.
aufkrawall
2017-07-07, 23:58:20
Oder findest du, dass eine heutige 4GB Karte Freude an den 5GB in Witcher 3 hätte?
Witcher 3 belegt in WQHD kaum 3GB, wo kommt diese Zahl her?
basix
2017-07-07, 23:59:39
Witcher 3 belegt in WQHD kaum 3GB, wo kommt diese Zahl her?
Hat Popeye so genannt. Kann ja 4k sein, keine Ahnung. Das Spiel und die Zahl an sich spielen wie gesagt keine Rolle. Ist ja nur ein Beispiel von vielen. Es gibt immer Fälle, wo eine Karte zuwenig VRAM hat. Stell dir mal Fury X mit HBCC vor, das hätte sehr viel gebracht.
-=Popeye=-
2017-07-08, 00:04:49
Witcher 3 belegt in WQHD kaum 3GB, wo kommt diese Zahl her?
Ich schrieb nicht mehr als FÜNF und ja es gibt Stellen die mehr als DREI belegen.
dargo
2017-07-08, 00:08:38
https://abload.de/thumb/gta5_2017_07_07_23_43opum3.png (http://abload.de/image.php?img=gta5_2017_07_07_23_43opum3.png) https://abload.de/thumb/gta5_2017_07_07_23_39zruwc.png (http://abload.de/image.php?img=gta5_2017_07_07_23_39zruwc.png)
:wink:
Anscheinend nicht.
:rolleyes:
Witzbold... nimm erstmal deinen Bildskalierungsmodus raus und am besten auch das völlig ineffiziente MSAA falls aktiviert.
https://www.youtube.com/watch?v=Xd0OdxCBud4&t=31s
Und ist das bei dir überhaupt Vanilla oder kaputt gemoddet?
aufkrawall
2017-07-08, 00:16:37
Ich schrieb nicht mehr als FÜNF und ja es gibt Stellen die mehr als DREI belegen.
Ich würd aber so oder so davon ausgehen, dass dieses Spiel gut mit 4GB in 4k zurecht kommt.
Wobei der Titel halt das andere Extrem zu RotTR DX12 ist, was den Verbrauch angeht.
Nützt jetzt nichts, das Feature entweder zu bejubeln oder zu verteufeln. Zu Release wird man sehen, wie halt den Rest auch. Die Fanboys dürfen pure fps-Werte dann aber gerne von Anfang an stecken lassen, denn die allein sind bei VRAM-Knappheit mitunter völlig wertlos.
-=Popeye=-
2017-07-08, 00:18:23
Es geht doch gerade um dieses Superduper HBCC Feature welches angeblich den VRAM Verbrauch kompensieren soll, also unabhänig des Settings und der Performance.
Rincewind
2017-07-08, 00:18:41
1080ti ~ 8GB HBM² Vega 4096SP 1630Mhz
1080 ~ 4GB HBM² Vega 3584SP 1650Mhz ?
1070 ~ 8GB GDDR5 Vega 3072SP 1650Mhz ?
.
Ich liebe Glaskugeln, bei der 1080Ti bin ich bei Dir.
Bei der 1080 nicht, 4 GB kannst Du nicht verkaufen, trotz HBCC. Gib ihr 8 GB.
Zur 1070: Vega und GDDR5? :confused:
Ich dachte, das will AMD nicht, bzw. geht nicht. Oder meinst Du V11, über die wir ja eigentlich nichts wissen?
https://abload.de/thumb/gta5_2017_07_07_23_43opum3.png (http://abload.de/image.php?img=gta5_2017_07_07_23_43opum3.png) https://abload.de/thumb/gta5_2017_07_07_23_39zruwc.png (http://abload.de/image.php?img=gta5_2017_07_07_23_39zruwc.png)
:wink:
Anscheinend nicht.
Belegen =! benötigen.
aufkrawall
2017-07-08, 00:23:15
Es geht doch gerade um dieses Superduper HBCC Feature welches angeblich den VRAM Verbrauch kompensieren soll, also unabhänig des Settings und der Performance.
Eben darauf bezog ich mich ja. So weit ich das mitbekommen habe, gibts das als Option schon im FE Treiber, aber ohne Klärung/Gewissheit, dass es so wie mit der Rx funktionieren wird?
Ich bin ja auch skeptisch, aber eine Restwahrscheinlichkeit für Funktionalität bleibt ja. ;)
(Anders als bei diesem Müll-Feature Chill, wo ich von Anfang an völligst pessimistisch war, und das ja seit Einführung auch quasi 0 gepflegt/weiterentwickelt wurde.)
vinacis_vivids
2017-07-08, 00:29:14
@Rincewind
Vega 64~4096 und 56~3584 sind doch schon offiziell bei Apple.
Die 8GB und 4GB Austattung macht AMD doch schon die ganze Zeit, siehe Polaris. Kann man bei HMB² genauso machen. Spricht doch nichts dagegen.
Der ne große Marketingzahl haben möchte, nimmt halt 8GB GDDR5 bei Polaris.
Vega ist 484mm² groß, da können alle Teildefekten Chips untergebracht werden.
-=Popeye=-
2017-07-08, 00:37:39
Belegen =! benötigen.
Es geht doch gerade um dieses Superduper HBCC Feature welches angeblich den VRAM Verbrauch kompensieren soll, also unabhänig des Settings und der Performance.
Darum gehts.
Rincewind
2017-07-08, 00:38:43
@Rincewind
Vega 64~4096 und 56~3584 sind doch schon offiziell bei Apple.
Ja, das habe ich auch gelesen.
@Rincewind
Vega 64~4096 und 56~3584 sind doch schon offiziell bei Apple.
Die 8GB und 4GB Austattung macht AMD doch schon die ganze Zeit, siehe Polaris. Kann man bei HMB² genauso machen. Spricht doch nichts dagegen.
Der ne große Marketingzahl haben möchte, nimmt halt 8GB GDDR5 bei Polaris.
Vega ist 484mm² groß, da können alle Teildefekten Chips untergebracht werden.
Vega ist aber eine total andere Leistungsklasse als Polaris. Unter 8 GB geht nix. Ich als potentieller Käufer würde nie zu einer 4GB-Karte greifen (trotz HBCC).
vinacis_vivids
2017-07-08, 00:44:42
Du musst auch keine 4GB Variante Kaufen. Andere vielleicht schon. Ist wie bei Polaris. Hierzulande wollen alle 8GB zum Gaming haben obwohl 4GB vollkommen ausreichen in dieser Leistungsklasse.
Rincewind
2017-07-08, 00:48:38
Da haben wir unterschiedliche Meinungen, was ja nicht schlimm ist. Wäre ja langweilig, wenn alle die gleiche Meinung hätten. ;)
Digidi
2017-07-08, 00:59:14
Es gibt da auch schlicht keinen Unterschied, AMD hatte schon gegenüber pcper bestätigt, dass die beiden Modi nur die Treiberoberfläche umschalten.
Und welchen Sinn ergibt es dann so ein Feature zu Release ohne sinn :freak:
Rincewind
2017-07-08, 01:06:58
keinen, aber sie haben zur genannten Zeit die Karte raus gebracht.
Warten auf RX (DIE Karte, worauf wir warten), alles andere ist Glaskugel!
Hübie
2017-07-08, 01:18:04
@Hübie
Wirst du auch nicht und das habe ich auch nie erwartet. Es gibt auch niemanden hier im Thread der dir das beantworten kann wie du es Nvidiamäßig verstehst. Kannst die nächsten 10 Jahre dich im Kreis drehen.
Nein weil du Blech redest würde ich sagen. Texturen werden nicht in den L2 geladen. Die haben einen eigenen Cache.
Schau dir doch einfach die Neuanordnung von Vega an. Kernpunkt ist die Änderung der Cache Struktur (L2, HBC, HBMC). Kürzere Wege und kürzere Latenzen verursacht weniger VRAM Nutzung. Intelligente Verwaltung wird durch den Treiber gemacht.
Ich kenne das Bild der high level memory hierarchy mittlerweile gut genug. Wurde auch erst vor ~5 Seiten gepostet. Da sieht man trotzdem nix von Texturformat-Kompressionsverfahren. Nicht zu verwechseln mit der delta color compression (DCC) des L2$.
vinacis_vivids
2017-07-08, 01:38:13
Texturen werden gestreamt heutzutage.
TGKlaus
2017-07-08, 01:44:30
Nein weil du Blech redest würde ich sagen. Texturen werden nicht in den L2 geladen. Die haben einen eigenen Cache.
Ich hoffe das ist als Witz gemeint.
Ansonsten arbeitest du hart an der Qualifikation für die Ignorliste.
vinacis_vivids
2017-07-08, 02:03:55
Nein weil du Blech redest würde ich sagen. Texturen werden nicht in den L2 geladen. Die haben einen eigenen Cache.
;D
Wieder ein Beweis, dass du keine Ahnung hast was sich in Vega verändert hat.
Hübie
2017-07-08, 02:04:57
Um zu vermeiden dass wir jetzt nicht alle an einander vorbei reden:
Meines wissen läuft es so ab:
ein Shader fordert Daten einer Textur an (Texel) um bspw. Beleuchtung darauf zu projizieren
die TMU lädt den entsprechenden Teil in seinen eigenen Texturcache (war iirc bis Maxwell ein 48 KB großer read only memory)
die TMU dekomprimiert die Texturdaten beim Laden aus dem RAM
es wird gefiltert und die Texel-Koordinaten werden generiert
Dann werden die Daten "hochgeladen"
Die kompletten Texturen selber liegen in dem Format in dem diese gespeichert wurden im Memory pool (DRAM oder VRAM). So ist meine Auffassung. Gerne lasse ich mich da belehren. :smile:
@TGKLaus: Ich halte dich nicht ab. Bist ja eh nicht so der beste Diskussionspartner :P
@vinacis_vivids: Erleuchte mich, statt so hochtrabend zu quatschen!
vinacis_vivids
2017-07-08, 02:16:36
Ich hab schon vor Seiten erklärt. Schau dir die Änderung in der Vega Architektur an und komm dann wieder.
Alle Engines/Pipelines sind am gemeinsamen L2 gekoppelt, hoffe irgendwann machts auch mal *click*.
Hübie
2017-07-08, 02:21:00
Die sind aktuell auch am L2.
vinacis_vivids
2017-07-08, 02:44:26
Bei Nvidia?
Hübie
2017-07-08, 03:13:58
Im Grunde auch bei GCN wobei hier der CP dran klebt und man auch noch den GDS hat. Eine genaue Beschreibung der Vega Architektur gibt es doch noch gar nicht woher willst du das alles wissen?
Ich nehme an mit Engines meinst du einen DPP und mit Pipelines sALU/vALU, TMU, HS/DS usw. oder was genau meinst du?
Locuza
2017-07-08, 03:54:30
Bei Vega hängen die ROPs nun auch am L2$, vor Vega am MC:
Meanwhile, on the ROP side of matters, besides baking in the necessary support for the aforementioned binning technology, AMD is also making one other change to cut down on the amount of data that has to go off-chip to VRAM. AMD has significantly reworked how the ROPs (or as they like to call them, the Render Back-Ends) interact with their L2 cache. Starting with Vega, the ROPs are now clients of the L2 cache rather than the memory controller, allowing them to better and more directly use the relatively spacious L2 cache.
This is especially significant for a specific graphics task, which is rendering to a texture (as opposed to a frame buffer to be immediately displayed). Render to texture is an especially common operation for deferred shading, and while deferred shading itself isn’t new, its usage is increasing. With this change to Vega, the ROPs can now send a scene rendered to a texture to the L2 cache, which can in turn be fetched by the texture units for reuse in the next stage of the rendering process. Any potential performance improvements from this change are going to be especially game-specific since not every game uses deferred shading, but it’s one of those corner cases that is important for AMD to address in order to ensure more consistent performance.
http://www.anandtech.com/show/11002/the-amd-vega-gpu-architecture-teaser/3
Entropy
2017-07-08, 04:24:40
Bei Vega hängen die ROPs nun auch am L2$, vor Vega am MC:
With this change to Vega, the ROPs can now send a scene rendered to a texture to the L2 cache, which can in turn be fetched by the texture units for reuse in the next stage of the rendering process.
http://www.anandtech.com/show/11002/the-amd-vega-gpu-architecture-teaser/3
Die Theorie ist leider falsch, da du erst die ganzen "deferred shading textures" rendern musst, das sind mindestens 3 Texturen + Z-Buffer, bei 4k kommst du auf 100-300MB, und das wird kaum der L2 sein.
Damit der L2 was bringt, muss wohl das "tiled rendering" an sein, sonst ist das zu cachende "working set" weit mehr als L2 fassen kann, da würden die bisherigen kleinen ROP "streaming caches" weit aus effizienter sein.
mczak
2017-07-08, 06:39:20
Damit der L2 was bringt, muss wohl das "tiled rendering" an sein, sonst ist das zu cachende "working set" weit mehr als L2 fassen kann, da würden die bisherigen kleinen ROP "streaming caches" weit aus effizienter sein.
Würde ich jetzt so nicht unterschreiben. Bei nvidia benutzen die ROPs L2 seit Fermi, der TBR kam erst mit Maxwell. z.B brauchst du keinen Render-Cache Flush mehr wenn du das RT als Textur nutzen willst. Möglicherweise gibt es da auch irgendwelche L2-Cache-Policies so dass die ROPs nie den ganzen Cache nutzen, ist aber bloss eine Vermutung.
dargo
2017-07-08, 08:17:21
Vega 64~4096 und 56~3584 sind doch schon offiziell bei Apple.
Die 8GB und 4GB Austattung macht AMD doch schon die ganze Zeit, siehe Polaris. Kann man bei HMB² genauso machen. Spricht doch nichts dagegen.
Nein, machen sie nicht. Bei Hawaii war dies bsw. nicht der Fall. Offiziell gab es keinen Hawaii mit 8GB im Gamingsektor. Das war nur eigene Suppe von Sapphire. Gleiches gilt für Tahiti. Es gab offiziell nur einen Tahiti mit 3GB. Achja... und bei Grenada hast du wieder das Gegenbeispiel. Es gab nur eine 8GB Variante. Afaik gabs mal Gerüchte von einer 4GB Variante für den asiatischen Markt. Ob was daraus geworden ist oder nur ein Gerücht weiß ich nicht mehr.
uweskw
2017-07-08, 08:55:29
Schön wärs, nur: wozu? Über der 1080 Ti kommt nichts mehr, und momentan wird jemand der bisher gezögert hat wohl zu selbiger greifen angesichts der ernüchternden Prognosen.
Leider ist das so. Fast alle Magazine schreiben dass Vega zum Spielen nicht konkurrenzfähig ist. Deswegen haben sich jetzt viele eine 1080 ti geholt, bevor die Preise ins Uferlose steigen.
Das AMD nicht Stellung bezieht und ein paar Leaks bringt die zeigen, dass VEGA RX in Games deutlich besser performed als Vega FE belegt, dass AMD leider nichts in der Hinterhand hat.
Greetz
US
dargo
2017-07-08, 09:49:42
@uweskw
Nichts für ungut. Aber deine ständigen Posts "Vega taugt nichts" nehmen langsam horn-Züge an, nur in die andere Richtung. Kauf dir doch endlich die 1080TI und sei glücklich. :)
Zergra
2017-07-08, 10:21:31
Leider hat er aber in dem Punkt recht. Ich sehe nur eine andere Möglichkeit und zwar das der Treiber noch wirklich so schlecht ist, das AMD selber keine viel besseren Benchmarks Zustande bekommt.
dargo
2017-07-08, 10:26:32
In welchem Punkt? Das ganze Rumgeeier seit Wochen (oder Monaten?) was er sich nun kauft nervt nur noch und hat hier nichts verloren. Ist es wirklich so schwer den Release von RX Vega abzuwarten? Falls ja... 1080TI kaufen und fertig.
Zergra
2017-07-08, 10:30:43
Nein, aber das die Strategie von AMD nicht umbedingt was gutes bedeuten muss. Hoffe wir werden eines besseren belehrt. Würde mir auch gerne eine vega Karte in den PC setzen....
StefanV
2017-07-08, 10:45:33
Leider hat er aber in dem Punkt recht.
Nein, hat er nicht.
Die Benches mit VEGA FE @ 1050MHz Core belegen, dass was nicht stimmt und etwas gehörig schief läuft.
Wie zur Hölle soll eine VEGA FE langsamer als eine Fury X sein??
uweskw
2017-07-08, 11:06:46
Nein, hat er nicht.
Die Benches mit VEGA FE @ 1050MHz Core belegen, dass was nicht stimmt und etwas gehörig schief läuft.
Wie zur Hölle soll eine VEGA FE langsamer als eine Fury X sein??
Ja, da ist wohl etwas gewaltig schief gelaufen. Mit der Hardware.
Wenn es nur ein Softwarebug oder gar Absicht wäre, hätte AMD schon längst etwas geleakt um das Gamingpotential von Vega zu zeigen und so die Kunden zum Abwarten zu bewegen.
greetz
US
Kriton
2017-07-08, 11:11:02
Die Theorie ist leider falsch, da du erst die ganzen "deferred shading textures" rendern musst, das sind mindestens 3 Texturen + Z-Buffer, bei 4k kommst du auf 100-300MB, und das wird kaum der L2 sein.
Damit der L2 was bringt, muss wohl das "tiled rendering" an sein, sonst ist das zu cachende "working set" weit mehr als L2 fassen kann, da würden die bisherigen kleinen ROP "streaming caches" weit aus effizienter sein.
Wenn Sie das bereits nutzen und das tiled rendering nicht läuft (falls ich das als Hypothese richtig verstanden habe), wären das doch weitere Prozente, die an Leistung hinzukommen könnten. Kann man das (im Schnitt) quantifizieren?
vinacis_vivids
2017-07-08, 11:16:02
Ja, da ist wohl etwas gewaltig schief gelaufen. Mit der Hardware.
Wenn es nur ein Softwarebug oder gar Absicht wäre, hätte AMD schon längst etwas geleakt um das Gamingpotential von Vega zu zeigen und so die Kunden zum Abwarten zu bewegen.
greetz
US
So ein Unsinn. AMD sagte schon vor Monaten, dass der Treiber noch den Feinschliff braucht. Hardwarebug wäre durch einen respin schon erledigt worden vor der Massenproduktion.
Hübie
2017-07-08, 11:24:15
Würde ich jetzt so nicht unterschreiben. Bei nvidia benutzen die ROPs L2 seit Fermi, der TBR kam erst mit Maxwell. z.B brauchst du keinen Render-Cache Flush mehr wenn du das RT als Textur nutzen willst. Möglicherweise gibt es da auch irgendwelche L2-Cache-Policies so dass die ROPs nie den ganzen Cache nutzen, ist aber bloss eine Vermutung.
Es gab immer wieder gemunkel, dass es dedizierte ROP-Caches gibt. Einige (und ich denke das ist näher an der Realität) gehen davon aus, dass der L2 bzw. ein Teilbereich als ROP-Cache getagged werden kann.
unl34shed
2017-07-08, 11:31:20
Ja, da ist wohl etwas gewaltig schief gelaufen. Mit der Hardware.
Wenn es nur ein Softwarebug oder gar Absicht wäre, hätte AMD schon längst etwas geleakt um das Gamingpotential von Vega zu zeigen und so die Kunden zum Abwarten zu bewegen.
AMD hat doch zum Release der FE gesagt, dass die RX schneller in Games sein wird, wenn die Allgemeinheit nur mal wieder zu dumm dafür ist, das zu verstehen,... Warum soll AMD noch mehr sagen? Hört doch eh keiner zu
E: Man hätte die Aussage vllt. in ein schönes Balkendiagramm verpacken sollen, da hat AMD gepennt :D
Felixxz2
2017-07-08, 11:48:10
Also was hier für ein Unsinn verzapft wird. Wäre Vega so schlecht, auch nur in Games, würde Apple den nie verbauen in ihrem super duper iMac Pro. Tun sie aber. Einen Chip, der langsamer ist als Fury/Takt. SRSLY!!??
Ein Mac wird ja auch nicht als Gaming-Wundermaschine beworben. ;) Die Durchsatzwerte von Vega sehen gut aus, ebenso die Performance bei vielen produktiven Applikationen. Es fehlt "nur" die Spiele-Leistung, welche derzeit einfach kaputt ist (ein besseres Wort dafür gibt es nicht).
MfG,
Raff
deekey777
2017-07-08, 12:02:22
Vega56 und Vega64 werden in einem engen iMac-Gehäuse stecken - zusammen mit Skylake-X. Die Spieleleistung ist vielleicht nicht so relevant, aber der Verbrauch und Temperaturentwicklung schon.
Hübie
2017-07-08, 12:03:36
Also was hier für ein Unsinn verzapft wird. Wäre Vega so schlecht, auch nur in Games, würde Apple den nie verbauen in ihrem super duper iMac Pro. Tun sie aber. Einen Chip, der langsamer ist als Fury/Takt. SRSLY!!??
Was ist das für eine Logik? :confused: Apple verbaut kein highend für gaming sondern dass was sie billig einkaufen und teuer verkaufen können. Tonga war doch auch so ein Reinfall. Erkläre mir sonst warum Apple kein Fiji verbaut hat.
So weit ich mich erinnere gabe es in der Vergangheit immer eine 10-prozentige Steigerung der instructions per clock (IPC).
basix
2017-07-08, 12:18:57
Was ich mich schon ein wenig frage ist, wieso AMD gar keine weiteren Infos oder Teaser rausgibt. Nich mal einen Anhaltspunkt, wie viel RX Vega schneller sein könnte (sind es Faktor 1.1x; 1.3x oder 2.0x?). Entweder sie pokern hoch und das Teil zersägt alles andere auf dem Markt oder sie sind nicht ganz so konkurrenzfähig wie sie gern wären. Aber vielleicht ist dieses Ratespiel ja beabsichtigt.
@ Raff:
Was ist eigentlich aus deinem 5820K geworden? Ist der R7 1700 noch effizienter? Oder ist es die Liebe zu AMD ;)
Achim_Anders
2017-07-08, 12:29:52
Igor hat es in einem anderen Thread ja angedeutet: Vielleicht weiß AMD selbst noch gar nicht, wo sie in Spielen rauskommen? Das ist hier noch gar nicht diskutiert worden...
scully1234
2017-07-08, 12:47:53
Vielleicht weiß AMD selbst noch gar nicht, wo sie in Spielen rauskommen? Das ist hier noch gar nicht diskutiert worden...
Nach über 9 Monaten Treiberentwicklung:freak:
Und dann soll es der eine Monat nach dem Frontier Release lösen...
basix
2017-07-08, 12:48:04
Igor hat es in einem anderen Thread ja angedeutet: Vielleicht weiß AMD selbst noch gar nicht, wo sie in Spielen rauskommen? Das ist hier noch gar nicht diskutiert worden...
Hmm, das mag sein. Aber 1 Monat vor dem Launch und 7 oder 8 Monate nachdem man lauffähiges Silizium hatte? Irgend eine Hausnummer wird man ja wohl wissen.
Troyan
2017-07-08, 12:49:53
Man weiß, wo man steht. Dafür hat der liebe Gott Simulationen erfunden. Die komplette GPU inkl. Treiber werden im Simulator getestet, verfeinert und geschrieben.
Skysnake
2017-07-08, 13:08:47
Ein Mac wird ja auch nicht als Gaming-Wundermaschine beworben. ;) Die Durchsatzwerte von Vega sehen gut aus, ebenso die Performance bei vielen produktiven Applikationen. Es fehlt "nur" die Spiele-Leistung, welche derzeit einfach kaputt ist (ein besseres Wort dafür gibt es nicht).
MfG,
Raff
Vielleicht liegt aber auch eben genau da das Problem.
Eventuell hat die treiberentwicklung für Apple mehr Ressourcen gebunden als man erwartet hat. Und Apple kann man da eher schlecht hängen lassen im Vergleich zu irgend welchen gamern
scully1234
2017-07-08, 13:15:56
Eventuell hat die treiberentwicklung für Apple mehr Ressourcen gebunden als man erwartet hat. Und Apple kann man da eher schlecht hängen lassen im Vergleich zu irgend welchen gamern
Sucht doch nicht immer weiter nach neuen Excuses ,als ob die Architektur eine andere wäre, die sie da Apple feil bieten:cool:
Hübie
2017-07-08, 13:18:28
Apple schreibt die Treiber doch selber, oder ist das nun nicht mehr aktuell??
Schaffe89
2017-07-08, 13:32:48
Das AMD nicht Stellung bezieht und ein paar Leaks bringt die zeigen, dass VEGA RX in Games deutlich besser performed als Vega FE belegt, dass AMD leider nichts in der Hinterhand hat.
Ja, genauso sieht es aus.
Kann deine Einschätzung hier nur teilen. Leider liest man so etwas sehr selten.
Hätte AMD etwas, dann würden sie liefern. Ich denke nach wie vor dass AMD noch am Überlegen ist, ob sie überhaupt Stückzahlen von RX Vega produzieren und nicht schon lange an Vega 20 bzw Vega 11 arbeiten.
scully1234
2017-07-08, 13:42:11
Ich denke nach wie vor dass AMD noch am Überlegen ist, ob sie überhaupt Stückzahlen von RX Vega produzieren .
Solange Volta noch nicht vor Ort ist, sollten sie es zu mindestens forcieren
Wer soll sonst das dafür aufgebrachte R&D begleichen, wenn nicht wenigstens ein paar Karten ,über die Ladentheken gehen?
BlacKi
2017-07-08, 13:43:47
Ja, genauso sieht es aus.
Kann deine Einschätzung hier nur teilen. Leider liest man so etwas sehr selten.
Hätte AMD etwas, dann würden sie liefern. Ich denke nach wie vor dass AMD noch am Überlegen ist, ob sie überhaupt Stückzahlen von RX Vega produzieren und nicht schon lange an Vega 20 bzw Vega 11 arbeiten.
ich vermute zwar ebenso, aber letztendlich ist es ne speku bei der ich nicht so sicher bin. mit ein paar optimierungen und 1650-1700mhz auf den 375w wakü modellen wird man ca 1080oc mindestens erreichen, dann finden die paar karten wie fiji seine besitzer. nur eben, so wie vor ein paar monaten von einigen spekuliert, mit 225w ne titan x(p) zu schlagen wirds definitiv nichts mehr. letztes jahr wurde ich hier als idiot bezeichnet, als ich gesagt habe, das amd mit H1 wohl juni -juli meint und die karten dann die customs im september kommen. jetzt ist die thematik eine ganz andere.
Digidi
2017-07-08, 13:46:58
ich vermute zwar ebenso, aber letztendlich ist es ne speku bei der ich nicht so sicher bin. mit ein paar optimierungen und 1650-1700mhz auf den 375w wakü modellen wird man ca 1080oc mindestens erreichen, dann finden die paar karten wie fiji seine besitzer. nur eben so wie vor ein paar monaten von einigen spekuliert mit 225w ne titan x(p) zu schlagen wirds definitiv nichts mehr.
Und das weist du woher? Wir wissen noch gar nichts weil die Radeon Vega noch immer nicht draußen ist. Was zurzeit draußen ist, ist ein FIJI Simulator auf Vega Basis ;D
[MK2]Mythos
2017-07-08, 13:51:45
Also soweit ich ich erinnern kann, waren die Optimisten hier schon immer der Meinung dass Vega 10 zwischen 1080 und 1080ti bei ~250W landen wird. Wenn man mal von horn absieht, gab es hier nie völlig überzogene Erwartungshaltungen.
Ich weiß nicht warum hier nachträglich von einigen immer so getan wird, als wären alle AMD'ler völlig verblendet.
BlacKi
2017-07-08, 13:53:33
Und das weist du woher?
ich weiß garnix, ich betreibe speku im speku fred, ich hab vermute geschrieben. wenn du wissen willst warum, dann ließ doch das worauf ich geantwortet habe. das wirst du doch noch schaffe
Mythos;11425047']Also soweit ich ich erinnern kann, waren die Optimisten hier schon immer der Meinung dass Vega 10 zwischen 1080 und 1080ti bei ~250W landen wird. Wenn man mal von horn absieht, gab es hier nie völlig überzogene Erwartungshaltungen.
Ich weiß nicht warum hier nachträglich von einigen immer so getan wird, als wären alle AMD'ler völlig verblendet.
deswegen schrieb ich einige und nicht alle. was du wieder ließt...
deekey777
2017-07-08, 13:54:17
Apple schreibt die Treiber doch selber, oder ist das nun nicht mehr aktuell??
Nvidia schreibt Treiber für macOS auch. (Klugscheißermodus)
Die Frage ist, ob das so bleibt, wenn Apple mit High Sierra externe Grafikkarten offiziell unterstützt: Warum selbt Treiber schreiben, wenn Nvidia diesen liefert?
aceCrasher
2017-07-08, 14:15:25
Mal angenommen, das in Vega tatsächlich noch ein Haufen ungenutztes Potential steckt - sollte es doch trotzdem schwer werden an einer 1080ti vorbeizukommen, man hat keinen Bandbreitenvorteil, und bist jetzt wurde diese von NV effizienter genutzt. (Woran der tbr natürlich was ändern könnte)
Hübie
2017-07-08, 14:33:49
Nvidia schreibt Treiber für macOS auch. (Klugscheißermodus)
Die Frage ist, ob das so bleibt, wenn Apple mit High Sierra externe Grafikkarten offiziell unterstützt: Warum selbt Treiber schreiben, wenn Nvidia diesen liefert?
Schlechter Vergleich:
NVIDIA veröffentlicht keine low level ISA - auch nicht für Apple. NVIDIA wird auch aus dem und weiteren Gründen nicht mehr verbaut. Hackintosh zählt nicht.
Und zu guter letzt: Apple unterstützt bald keine Geräte mit gewissem Alter nicht mehr (oder es ist schon der Fall).
Kriton
2017-07-08, 14:33:59
Die PCGH-Thematik passt besser in diesen Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=577870
Schnitzl
2017-07-08, 15:31:44
so langsam gibts glaube ich nur noch 2 Möglichkeiten. Entweder wirds eine Enttäuschung oder AMD haut mit Vega voll rein ... (z.B. Preis/Leistung)
50/50
Edit: dritte Möglichkeit, AMD interessiert sich nicht wirklich für die Spieler und möchte lieber dort verkaufen wo es mehr Geld gibt?
StefanV
2017-07-08, 15:58:11
Nach über 9 Monaten Treiberentwicklung:freak:
Windows XP auf Vista hat wie lange gedauert? Und wann kam 'Vista done Right' aka NT6.1 aka Windows 7??
Du hast doch keine Ahnung von Software Entwicklung und wie aufwändig das ist.
scully1234
2017-07-08, 16:02:59
Windows XP auf Vista hat wie lange gedauert? Und wann kam 'Vista done Right' aka NT6.1 aka Windows 7??
Du hast doch keine Ahnung von Software Entwicklung und wie aufwändig das ist.
Du vergleichst hier jetzt nicht etwa ein komplettes OS mit der Treiberentwicklung einer expliziten Grafikkartenarchitektur, und bezichtigst andere der Ahnungslosigkeit
Edit: dritte Möglichkeit, AMD interessiert sich nicht wirklich für die Spieler und möchte lieber dort verkaufen wo es mehr Geld gibt?
Im Januar war das Interesse noch so groß, das man sich nicht mal zu Schade war, des Mitbewerbers noch nicht released Architektur aufs Korn zu nehmen. Was soll da also zwischenzeitlich passiert sein?
Der Clip damals,war gewiss nicht an den Pro Sektor gerichtet,sollte man annehmen.
Troyan
2017-07-08, 16:37:37
zurück zum Thema:
so langsam gibts glaube ich nur noch 2 Möglichkeiten. Entweder wirds eine Enttäuschung oder AMD haut mit Vega voll rein ... (z.B. Preis/Leistung)
50/50
Preis/Leistung sollte wohl das geringste Problem sein. Die neuen Preise der GTX1070/GTX1080/GTX1080TI sind seit März bekannt.
Mein Tipp: $399/$499 - 10-20% schneller als die jeweilige nVidia-Karte - fast doppelter Mehrverbrauch beim Strom.
basix
2017-07-08, 16:48:10
Zu Vega Performance: Ich glaube immer noch, das Vega 64 die 1080 Ti erreichen kann. Im Optimalfall noch ein wenig drüber aber wahrschenlich auch mehr Stromverbrauch. Die Rohleistung hat man dazu. Nun ist die Frage, ob man sie auch auf den Boden bringt. Mit TBR, HBCC, HBM2 und weiteren Verbesserungen wie AFS und ACG hätte man schon noch was im Köcher. Wenn man das aber nicht schafft, wird es schwer. Zumindest mit Ryzen hat AMD aber wieder eine Geschäftsstütze.
Schnitzl
2017-07-08, 17:03:31
Im Januar war das Interesse noch so groß, das man sich nicht mal zu Schade war, des Mitbewerbers noch nicht released Architektur aufs Korn zu nehmen. Was soll da also zwischenzeitlich passiert sein?
Der Clip damals,war gewiss nicht an den Pro Sektor gerichtet,sollte man annehmen.
Ich hab keine Ahnung - kenne nicht die AMD Interna.
Eventuell hat man ein paar Verträge abgeschlossen und verschiebt die Prioritäten? Oder Vega ist tatsächlich kaputt und man versucht zu retten was zu retten ist?
In 3 Wochen wissen wir mehr =)
Wie gesagt: 50/50 - finde nichts was die eine oder andere Seite wahrscheinlicher macht...
Hübie
2017-07-08, 18:20:51
Wobei die 12 nm schon ein ziemlich krasser Marketing-Abklatsch ist. Wie sich heraus stellte ändert sich im Grund nur die fin-pitch zu metal ratio von 9T auf 7.5T was sich rein auf die SRAM-Zellen bezieht. Der Rest ist üblicher Gewinn durch Prozessoptimierung (vorrangig Leakage und somit Spannung). Das nur am Rande. :smile:
Mir fiel vorhin beim Durchsehen der Vega slides auf das oft da steht "once enabled [...]"; im Zusammenhang mit dem binning rasterizer.
Gipsel
2017-07-08, 19:04:40
Wobei die 12 nm schon ein ziemlich krasser Marketing-Abklatsch ist. Wie sich heraus stellte ändert sich im Grund nur die fin-pitch zu metal ratio von 9T auf 7.5T was sich rein auf die SRAM-Zellen bezieht.Das stimmt so nicht, auch wenn der Flächenvorteil überschaubar ist. Das wird hier aber OT.
Gipsel
2017-07-08, 19:07:17
Mal ein wenig aufgeräumt.
Diesmal ist es noch bei einer Verwarnung geblieben, das nächste Mal wird es das vermutlich nicht bleiben. In dem Zusammenhang auch eine Bitte an alle Anderen. Geht auf den Spam und das Offtopic erst gar nicht ein. Nur melden, nicht reagieren. Sonst kann es passieren, daß auch Euch Sanktionen treffen.
Danke.
Gipsel
2017-07-08, 20:18:14
Durch Tiling wird V-Ram Verbrauch, Bandbreite, Strom eingespart.Nein, ja, ja. Das erste Nein gilt absolut immer, die beiden Ja im Schnitt bzw. meistens.
Texturen werden nicht in den L2 geladen. Die haben einen eigenen Cache.Texturen werden im L2 gecached, seit es GPUs mit L2 gibt.
Um zu vermeiden dass wir jetzt nicht alle an einander vorbei reden:
Meines wissen läuft es so ab:
ein Shader fordert Daten einer Textur an (Texel) um bspw. Beleuchtung darauf zu projizieren
die TMU lädt den entsprechenden Teil in seinen eigenen Texturcache (war iirc bis Maxwell ein 48 KB großer read only memory)
die TMU dekomprimiert die Texturdaten beim Laden aus dem RAM
es wird gefiltert und die Texel-Koordinaten werden generiert
Dann werden die Daten "hochgeladen"
Die kompletten Texturen selber liegen in dem Format in dem diese gespeichert wurden im Memory pool (DRAM oder VRAM). So ist meine Auffassung. Gerne lasse ich mich da belehren. :smile:
Als allerstes kommen die Texturkoordinaten. Die stammen entweder bereits aus der Interpolation der Vertexattribute (jedem Vertex wird schon bei Erstellung des Modells eine Texturkoordinate zugeordnet) oder werden im Pixelshader irgendwie generiert (gegebenenfalls inklusive Gradienten für die Filterung). Für diese Texturkoordinate+Gradienten fordert dann der Pixelshader irgendwie gefilterte Daten (meist bestimmt durch einen Sampler-Descriptor) einer bestimmten Textur an (welche genau wird durch einen Resourcedescriptor festgelegt, der vereinfacht gesagt sowas wie ein Zeiger auf den entsprechenden Speicherbereich darstellt und auch Informationen über Typ und Größe enthält). Je nach gewählter Kombination erzeugt die Texture-Address-Einheit (praktisch Teil der TMU) dann die eigentlichen Speicheradressen, die für diese Operation nötig ist und fetched diese Daten. Diese können entweder aus dem L1 (bei GCN dem Vektor-L1), dem L2 oder auch dem VRAM selber kommen (bei Vega offenbar auch aus dem kompletten virtuellen Speicher des Systems). Bei nVidia hatten mal GPUs einen getrennten Textur- und allgemeinen L1 (Fermi/Kepler separat, ab Maxwell unified wie bei GCN), aber auch bei einem getrennten Textur-L1 werden Texturen auch im L2 gecached. Der komplette Transfer bis zur TMU findet dabei mit komprimierten Daten statt (meist verwendet man ja irgendeine Form der Texturkompression). Erst vor dem Filtern werden die Daten entpackt (auch der L1 enthält komprimierte Texturdaten [bei de VLIW-GPUs wurde noch beim Transfer vom L2 in den L1 entpackt]). Entsprechend der gewählten Filteroperation werden dann die Daten entsprechend miteinander verrechnet und das Ergebnis dann schlußendlich in ein (Vektor-)Register übertragen, so daß der Shader damit weiterarbeiten kann.
pixeljetstream
2017-07-08, 21:14:21
+1
Antworte mal wieder offtopic: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11425349#post11425349
pixeljetstream
2017-07-08, 21:41:55
Ich vermute AMD's HBC Texturzugriff in sysram zielt nicht so sehr auf die meisten Gamer hier die sich ne 6+ GB Karte holen, die Karten haben genug VRAM im Verhältnis zu den Konsolen, daher glaub ich nicht dass es hier so viel bringt. Auch wenn manche die indirekte Langlebigkeit betonen, am Ende glaube ich kaufen doch viele dann die nächste GPU Generation...
Imo ist das Ziel eher Laptops, wo man vermutlich so wenig Geld wie möglich für die Chips/HBM ausgeben will und so einen Mehrwert in nem Szenario hat wo weniger mehr ist.
dargo
2017-07-08, 22:01:24
Natürlich gehts hier aktuell hauptsächlich um die eigenen APUs mit Vega IP. Wenn dort ein kleiner HBM Speicher von 2-4GB reicht hat man schon viel gewonnen. Aber auch für die nächste Generation an Desktop-GPUs wüsste ich jetzt nicht warum HBCC dann wieder uninteressant werden sollte? Du wirst damit immer Kosten bei der Grafikkarte einsparen können wenn tatsächlich weniger benötigt wird als ohne HBCC. Auch für die nächsten Konsolen dürfte sich HBCC auszahlen.
TheGood
2017-07-08, 22:05:44
Der punkt ist, wenn AMDs HBCC super funktioniert und in Spielen nicht extra angepasst werden muss, können Sie mit 4GB KArten richtig den Markt umkrempeln. Die Frage ist wie schnell der Markt das bei dieser Kombination auch wirklich kapiert.
AMD hat seit Ende letzten Jahres sein Treiberteam massivst erweitert. Die Logik, dass sie immer noch zu wenig Leute habe, kann ich daher nicht nachvollziehen. Sie haben schon vor langem kapiert, dass Sie in dem Bereich einiges tun müssen und tun dies auch schon.
Warum AMD aber gar keine Infos rausgibt, warum auch immer, steht auf einem anderen Blatt. Spätestens Ende des Monates wissen wir warum...
Gipsel
2017-07-08, 22:45:04
Auch für die nächsten Konsolen dürfte sich HBCC auszahlen.Konsolen mit unified RAM würde ich da eher als letztes Einsatzgebiet sehen. Was soll denn damit erreicht werden? Der Entwickler legt seinen Texturatlas auf Platte und öffnet den als memory mapped File damit er kein eigenes Texturstreaming (was vermutlich insbesondere bei Szenenwechseln besser wäre als Alles, was der HBCC automatisch hinbekommt) machen muß? Klingt für mich auf Anhieb erstmal nicht so überzeugend. Der Konsole fehlt schlicht der zusätzliche RAM-Pool des PC.
basix
2017-07-08, 22:52:50
Warum AMD aber gar keine Infos rausgibt, warum auch immer, steht auf einem anderen Blatt. Spätestens Ende des Monates wissen wir warum...
Warum? Weil Raja das einzige RX Vega Sample fallen gelassen hat und man gar nichts zeigen kann ;D
https://thumbs.gfycat.com/BraveWhichDolphin-size_restricted.gif
StefanV
2017-07-09, 00:17:23
Du vergleichst hier jetzt nicht etwa ein komplettes OS mit der Treiberentwicklung einer expliziten Grafikkartenarchitektur, und bezichtigst andere der Ahnungslosigkeit.
Warum denkst du, dass die Treiberentwicklung für moderne Grafikkarten deutlich schneller gehen soll??
Hast du mal geschaut, wie groß ein Treiber aktuell ist?!
Da reden wir momentan von ~500MiB!
Und für VEGA muss man sehr vieles neu schreiben, damit das wirklich funktioniert. Wie kommst du drauf, dass man das in ein paar Wochen schaffen soll?!
Konsolen mit unified RAM würde ich da eher als letztes Einsatzgebiet sehen. Was soll denn damit erreicht werden? Der Entwickler legt seinen Texturatlas auf Platte und öffnet den als memory mapped File damit er kein eigenes Texturstreaming (was vermutlich insbesondere bei Szenenwechseln besser wäre als Alles, was der HBCC automatisch hinbekommt) machen muß? Klingt für mich auf Anhieb erstmal nicht so überzeugend. Der Konsole fehlt schlicht der zusätzliche RAM-Pool des PC.
Ja, wenn man bei dem aktuellen, flachen Speichermodell bleibt.
Aber mit dem HBCC könnte man ja 'fast RAM' und 'Slow RAM'. einbauen und sehr viel für das eigentliche PCB sparen. Dann braucht man auch keine hoch taktenden GDDR5/6/whatever Speicherinterfaces, dann kann man schlicht etwas HBM (2/4GiB) auf das Package packen und mit einem 'gewöhnlichem' 128bit Speicher Interface und standard DDR4/5 Speicher arbeiten.
Das ganze braucht dann im best Case keinerlei zusätzliche Arbeit für den Entwickler, da das transparent erfolgen könnte.
BlacKi
2017-07-09, 00:35:19
Aber mit dem HBCC könnte man ja 'fast RAM' und 'Slow RAM'. einbauen und sehr viel für das eigentliche PCB sparen. Dann braucht man auch keine hoch taktenden GDDR5/6/whatever Speicherinterfaces, dann kann man schlicht etwas HBM (2/4GiB) auf das Package packen und mit einem 'gewöhnlichem' 128bit Speicher Interface und standard DDR4/5 Speicher arbeiten.
Das ganze braucht dann im best Case keinerlei zusätzliche Arbeit für den Entwickler, da das transparent erfolgen könnte.
die idee ist gut, aber wer soll das umsetzen:freak:
es scheint schlichtweg billiger zu sein an den spielentwicklungskosten zu sparen als an den hardwarekosten, die zahlt ja der käufer und die sind willig.
scully1234
2017-07-09, 00:40:01
Warum denkst du, dass die Treiberentwicklung für moderne Grafikkarten deutlich schneller gehen soll??
Die wird nicht deutlich schneller abgehen, aber sie wird sich im ähnlichen Zeitrahmen bewegen, wie bei vergangenen Releases ,unter denen sich auch immer mal wieder "vollkommen"neue Architekturen befanden.
Ich weis nicht welche Magic Sauce das nun sein soll, die alles bisherige über den Haufen wirft bei Vega, was bei allen vorherigen funktionierte
Auch sprach hier keiner von "Wochen" wie du es auslegst, sondern von mindestens 9 Monaten, was angesichts des Tapeouts schon eine sehr konservative Schätzung ist.Wenn man berücksichtigt das AMD wie Nvidia auch den Chip bereits vor diesem Datum virtuell simuliert (https://youtu.be/650yVg9smfI?t=219),und dafür entsprechende Treiber auffahren muss die zur Architektur passen
StefanV
2017-07-09, 00:50:51
die idee ist gut, aber wer soll das umsetzen:freak:
Sony?? Microsoft?!
BlacKi
2017-07-09, 00:52:03
Sony?? Microsoft?!
willst du ein dx11 revival? das müssen die einzelnen entwickler studios machen dank low lvl api :biggrin:
Screemer
2017-07-09, 02:22:04
Das soll doch für die Software transparent sein. Anders bringt es doch nix.
StefanV
2017-07-09, 02:41:50
willst du ein dx11 revival? das müssen die einzelnen entwickler studios machen dank low lvl api :biggrin:
Wait, what?!
Du solltest die Dinge, die hier über AMD Hardware geschrieben werden, auch mal lesen.
Insbesondere was mit dem HBCC zu tun hat...
Weil das macht deine Einwände irgendwie total sinnlos.
Und was hat DX11 mit dem Thema zu tun?! Falscher Thread?!
Wir sind hier schließlich im VEGA Thread, da sollte man schon erwarten, dass jeder beteiligte sich mit der Materie auseinander setzt...
Und entsprechend ist es auch Unsinn zu behaupten, dass das die Entwickler Studios machen. Das ist ja gerade der Vorteil von dieser Technologie...
Leonidas
2017-07-09, 06:00:10
Es ist schon ein tile based rasterizer. Die Geometrie wird in Screentiles gebinnt, etwas gesammelt und dann Tile für Tile gerastert und abgearbeitet (nV macht das auch). Nur die Abkürzung TBR ist üblicherweise schon für "tile based renderer" reserviert, so daß die Verwendung für "tile based rasterizer" zur Verwirrung führen kann. Vielleicht sollte man sich auf "binning rasterizer" oder sowas einigen?
Sollte man wohl tun: Vega als "Binning Rasterizer".
vinacis_vivids
2017-07-09, 09:37:09
Sollte man wohl tun: Vega als "Binning Rasterizer".
Der bei Vega heißt es "Draw Stream Binning Rasterizer" -> DSBR
Der bei Vega heißt es "Draw Stream Binning Rasterizer" -> DSBR
Ich glaub er meinte eher sowas wie: Maxwell, Pascal und Vega sind "binning rasterizer" -GPUs.
BlacKi
2017-07-09, 11:03:39
Wait, what?!
Du solltest die Dinge, die hier über AMD Hardware geschrieben werden, auch mal lesen.
Insbesondere was mit dem HBCC zu tun hat...
Weil das macht deine Einwände irgendwie total sinnlos.
Und was hat DX11 mit dem Thema zu tun?! Falscher Thread?!
Wir sind hier schließlich im VEGA Thread, da sollte man schon erwarten, dass jeder beteiligte sich mit der Materie auseinander setzt...
Und entsprechend ist es auch Unsinn zu behaupten, dass das die Entwickler Studios machen. Das ist ja gerade der Vorteil von dieser Technologie...
why so much rage??? btw: du hast ot angefangen^^
wenn du verschiedene speicher mit verschiedene speichervarianten hast, muss die software angepasst werden, siehe ESRam der xbox1. wie hbcc abseits von amd marketing funktioniert muss sich erst noch zeigen.
vinacis_vivids
2017-07-09, 11:47:38
why so much rage??? btw: du hast ot angefangen^^
wenn du verschiedene speicher mit verschiedene speichervarianten hast, muss die software angepasst werden, siehe ESRam der xbox1. wie hbcc abseits von amd marketing funktioniert muss sich erst noch zeigen.
Deine Frage mit dem "wer soll das umsetzen" ist schon etwas beschränkt bzw. eine 0815 Frage ohne nennenswerte Gedanken.
AMD hat jetzt die zweite Generation HBM für consumer am Start. Unterchiedliche Ram Verwaltung ist seit jeher schon Grundlage der Computertechnik. HBCC ist eine logische Weiterentwicklung.
danarcho
2017-07-09, 11:49:36
wenn du verschiedene speicher mit verschiedene speichervarianten hast, muss die software angepasst werden, siehe ESRam der xbox1. wie hbcc abseits von amd marketing funktioniert muss sich erst noch zeigen.
Der ESRam ist ein gutes Beispiel, da es zeigt, wie es aktuell gemacht werden muss. StefanV meint aber, dass das in Zukunft transparent für die Software sein soll. Du musst ja auch nicht deine Software anpassen, nur weil Intel beschließt auf der neuen CPU den L3 kleiner zu machen. Und so sollte es halt für die GPU auch sein: unified memory und dazu einen high bandwidth cache für die GPU (neben dem existierenden low latency cache für die CPU). Und dann alle Caches und RAM cache coherent. Tadaaa.
Und jetzt überlegen wir uns noch kurz, was passiert, wenn man GPU und HBC nicht onchip packt, sondern auf eine PCIe Karte: Richtig, wir bekommen Vega :eek:
Disclaimer: Das ist meine Einschätzung bzgl HSA/ROCm für Vega.
Erbsenkönig
2017-07-09, 11:54:38
Von Vega muss jetzt schon was kommen. Ich hab die Nacht schon davon geträumt, mir schweren Herzens eine GTX 1080 für 600 € gekauft haben zu müssen.:freak:
=Floi=
2017-07-09, 14:38:53
aber wie soll das mit dem kleinen durchsatz funkrionieren?
500mb bleiben 500mb und ich hab liber 16gb vram gut angebunden wie so ein krempel. Und alleine schon das programmieren dafür wäre ein nogo.
und kommt jetzt keiner mit dem verbrauch, wenn amd jetzt auch die 300 und 375watt grenze freigibt. das ganze muss doch viel mehr in hardware optimiert werden, dass eben der treiber einfacher zu handeln ist.
vinacis_vivids
2017-07-09, 14:41:38
500MB in welchem Zusammenhang?
Dass DeusEx oder ROTR mit HBBC on auch mit 2GB laufen, hast du noch nicht mitbekommen?
aufkrawall
2017-07-09, 14:43:12
Bisher doch nur im AMD-HQ über einer Wasserader.
vinacis_vivids
2017-07-09, 14:55:05
4k Auflösung, 13,7fps HBCC off -> HBCC on 49,1fps min. hast du vergessen ;)
Bein den min. fps wird Vega die 1080ti richtig abkochen. Das ist meine Ansicht.
dildo4u
2017-07-09, 15:00:36
Weil man 11GB in spielbaren Einstellungen ja auch so oft voll bekommt.Ist dir noch nicht aufgefallen,das sie in den Demo's die Karte immer künstlich begrenzen müssen damit man HBCC demonstrieren kann.
Hasenpfote
2017-07-09, 20:46:50
Noch drei weitere lange Wochen. Und dann nochmal acht weitere lange Wochen, bis RX Vega kaufbar ist. Oh man....
Gipsel
2017-07-09, 21:07:23
Mal den Müll rausgebracht.
Und ich möchte hier keine ausufernde und auch schwachsinnige OT-Diskussionen sehen. Urlaubssaison geht auch im Forum.
reaperrr
2017-07-09, 22:27:15
Noch drei weitere lange Wochen. Und dann nochmal acht weitere lange Wochen, bis RX Vega kaufbar ist. Oh man....
Dass es so lange dauern wird glaube ich zwar nicht, aber einen Hard-Launch wird es Ende Juli meiner Meinung nach definitiv nicht geben, das sehe ich auch so.
N0Thing
2017-07-09, 23:45:24
AMD hat doch zum Release der FE gesagt, dass die RX schneller in Games sein wird, wenn die Allgemeinheit nur mal wieder zu dumm dafür ist, das zu verstehen,... Warum soll AMD noch mehr sagen? Hört doch eh keiner zu
E: Man hätte die Aussage vllt. in ein schönes Balkendiagramm verpacken sollen, da hat AMD gepennt :D
Die Aussage von AMD war:
Can you game on a Radeon Vega Can you game on a Radeon Vega Frontier Edition? The answer is yes, absolutely. But because this graphics card is optimized for professional use cases (and priced accordingly), if gaming is your primary reason for buying a GPU, I’d suggest waiting just a little while longer for the lower-priced, gaming-optimized Radeon RX Vega graphics card. You’ll be glad you did.? The answer is yes, absolutely. But because this graphics card is optimized for professional use cases (and priced accordingly), if gaming is your primary reason for buying a GPU, I’d suggest waiting just a little while longer for the lower-priced, gaming-optimized Radeon RX Vega graphics card. You’ll be glad you did.
Daß die Radeon RX Vega schneller sei, steht da nicht explizit. Sie wird billiger sein als die Frontier Edition, da kann man als Kunde sicher froh drüber sein. Sonderlich gaming-optimized erscheint die Frontier Edition auch noch nicht, auch da kann man froh sein, wenn dies mit der RX Vega besser wird.
vinacis_vivids
2017-07-10, 00:22:26
"... gaming optimized Radeon RX Vega" =)
N0Thing
2017-07-10, 00:55:47
Optimierung ist leider ein dehnbarer Begriff. Ob und wie viel Performance gewonnen werden kann, steht in den Sternen. AMD hat definitiv nicht davon gesprochen, daß die RX Vega schneller sein wird. Es gibt Aussagen, die darauf hindeuten. Aber keine Aussage, daß "die RX schneller in Games sein wird."
Daredevil
2017-07-10, 00:58:08
Muss sie ja auch gar nicht.
Es muss ja nur der "Game Mode" optimiert werden, dadurch würde ja auch eine FE fluffiger laufen.
Rsioux
2017-07-10, 07:13:22
Mal eine Frage von einem Laien.
HBCC scheint ja nicht aktiv zu sein. Der Controller ist doch für die komplette Speicherverwaltung zuständig, richtig?
Wenn der Controller durch den Treiber noch nicht „richtig“ angesprochen wird, besteht da die Möglichkeit, dass es insgesamt zu Performanceinbußen bei der Transferrate zwischen GPU und HBM kommt?
basix
2017-07-10, 07:38:31
Solange der HBM VRAM genug gross ist, sollte man nichts spüren. Bei 16GB also nichts.
Korvaun
2017-07-10, 07:56:44
Das hier viele so einen Aufstand um HBCC machen ist lustig, das Feature ist ja ganz nett aber unwichtig in der Gesamtbetrachtung einer üblichen 8GB "Spiele-Karte".
Das Feature mit dem VEGA steht oder fällt ist TBR.
Wenn das nicht funktioniert bei RX release ists ne FE-reloaded und kein Spieler bei Verstand wird sich son Teil kaufen. Wenn es funktioniert wie geplant kann die Performance sicher 20-30% durchschnittlich steigen. Dann wäre es ne gute Karte.
Also "Epic-Fail" oder "AMD is back!" ;)
Rsioux
2017-07-10, 08:00:52
Das war nicht auf die Speichermenge bezogen, sondern auf die Transferrate des HBM und dass diese evtl. nicht ganz ausgeschöpft wird. Evtl. auch in Verbindung mit den nicht aktiven Features zur Spannungskontrolle.
Ich hoffe einfach, dass VEGA noch wesentlich besser wird, da ich meine 480 tauschen muss.
horn 12
2017-07-10, 08:08:41
Da das Bios wohl erst am 02.08. erscheinen dürfte laut @Format C
Rechne ich zur Siggraph wohl nur die Vorstellung der RX Vega mit aktuellen Benchmarks und offiziellem Treiber, und Verfügbarkeit und Online Test erst ca. 2 Wochen später.
Vorrausgesetzt Einflug über Luft, ansonsten wirds echt wohl Anfang September bis die Karten kaufbar sind.
Das hier viele so einen Aufstand um HBCC machen ist lustig, das Feature ist ja ganz nett aber unwichtig in der Gesamtbetrachtung einer üblichen 8GB "Spiele-Karte".
Das Feature mit dem VEGA steht oder fällt ist TBR.
Wenn das nicht funktioniert bei RX release ists ne FE-reloaded und kein Spieler bei Verstand wird sich son Teil kaufen. Wenn es funktioniert wie geplant kann die Performance sicher 20-30% durchschnittlich steigen. Dann wäre es ne gute Karte.
Also "Epic-Fail" oder "AMD is back!" ;)
Der Witz ist ja, dass mit HBCC die Karte eben keine 8GB-Karte mehr ist. Aber du hast schon recht, TBR ist die Keyfunktion. Ich denke aber 30% ist das Minimum, was man hier an Mehrleistung erwarten kann, worst case quasi, sollte AMD das korrekt implementiert haben.
horn 12
2017-07-10, 08:47:41
Neuer WHQL Treiber von Microsoft Version 17.7
Für Vega aber ungeeignet, oder kann man dies modden:
http://forums.guru3d.com/showthread.php?t=415663
Kartenlehrling
2017-07-10, 08:59:38
Wieso vergleichst du es nicht selber?
Wenn ich mir die Version anschau dann ist das altes Zeug was schon im 17.4.3 verbaut wurde.
2D Driver Version - 8.1.1.1599
Direct3D® Version - 9.14.10.01261
Leonidas
2017-07-10, 09:00:42
Da das Bios wohl erst am 02.08. erscheinen dürfte laut @Format C
Quellenlink?
Dank im Voraus.
Rsioux
2017-07-10, 09:17:47
Format_C hat im Review-Thread zur FE was geschrieben:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11425102&postcount=546
...
Das ist aus einem Schedule der Boardpartner, wobei es bei fast allen größeren Anbietern so aussehen dürfte. Die Termine unterscheiden sich zwischen den Firmen vielleicht um wenige Tage. Für alle ist der 02.08 offensichtlich eine Art Stichtag, weil es dann das PPBIOS gibt.
...
Mit wohldosiertem Wattman-Undervolting und aggressiverer Belüftung hält die Kiste ihre 1.600 MHz und macht gleich einen besseren Eindruck. Der Kühler ist aber leider trotzdem ziemlicher Crêpes, zumindest für die zugrunde liegende Hardware. Die aktuellen Temperaturen fördern nun mal den Durst.
MfG,
Raff
Vega@1.7GHz
http://www.3dmark.com/fs/13036093
Da wäre jetzt die Frage, ob der Takt gehalten wurde. Mit dem Referenzkühl-Air unwahrscheinlich. Ansonsten sind 1.700 MHz und 2,2 GT/s ziemlich neiß.
MfG,
Raff
G3cko
2017-07-10, 12:12:53
Ohne HBC wären mir 8GB zu wenig, wenn bereits eine 470/390/290 mit 8GB zu haben ist. Meine Karte soll wieder 5 Jahre halten.
Mangel76
2017-07-10, 13:05:25
Das war nicht auf die Speichermenge bezogen, sondern auf die Transferrate des HBM und dass diese evtl. nicht ganz ausgeschöpft wird. Evtl. auch in Verbindung mit den nicht aktiven Features zur Spannungskontrolle.
Ich hoffe einfach, dass VEGA noch wesentlich besser wird, da ich meine 480 tauschen muss.
Ich vermute ja, dass aufgrund der fehlenden Binning-Funktion die FE deutlich von ihrer Speicherbandbreite eingebremst wird. Bei Fiji war wohl schon einiges durch übertakten des HBMs rauszuholen (:confused:) und die FE hat sogar weniger Bandbreite. Das würde auch erklären, warum die Leistung der FE so schlecht mit dem GPU-Takt korreliert. Der DSBR soll ja durch frühzeitiges Verwerfen nicht sichtbarer Teile nicht nur die GPU entlasten sondern vor allem auch die Speicherzugriffe, da so Texturen entfernter Geometrie eben gar nicht geladen werden müssen. Durch Vermeidung solcher Zugriffe müsste sich doch auch einiges an Strom sparen lassen, oder nicht? Hat hier nicht mal jemand gesagt, dass solche Kopiervorgänge sehr viel Strom verbrauchen?
Gipsel
2017-07-10, 13:55:00
Mit wohldosiertem Wattman-Undervolting und aggressiverer Belüftung hält die Kiste ihre 1.600 MHz und macht gleich einen besseren Eindruck. Der Kühler ist aber leider trotzdem ziemlicher Crêpes, zumindest für die zugrunde liegende Hardware. Die aktuellen Temperaturen fördern nun mal den Durst.Falls das stimmt, daß AVFS noch nicht richtig und ACG noch gar nicht im aktuellen Treiber implementiert ist, könnte der Stromdurst durchaus noch etwas sinken, auch bei hoher Last.
Der DSBR soll ja durch frühzeitiges Verwerfen nicht sichtbarer Teile nicht nur die GPU entlasten sondern vor allem auch die Speicherzugriffe, da so Texturen entfernter Geometrie eben gar nicht geladen werden müssen.Der Binning Rasterizer macht im Prinzip zwei Sachen, die aufeinander aufbauen. Und je nach Situation kann entweder das Zweite (hidden surface removal) oder auch schon das Erste (Binning in Tiles) nicht optimal funktionieren.
Zuallererst sortiert der DSBR die Geometrie in Screentiles und arbeitet dann Kachel nach Kachel ab (für gerasterte Kacheln wird dann der Pixelshader ausgeführt). Dies bewirkt eine Umsortierung der Ausführung und damit auch der Speicherzugriffe. Vor allem die Datenlokalität der Framebufferzugriffe wird stark erhöht, wodurch das Caching deutlich effizienter werden kann. Dies spart Speicherbandbreite.
Zusätzlich kann eventuell auf der Geometrie in einer Kachel vor der Ausführung des Pixelshaders Hidden Surface Removal gemacht werden. Dies geht aber nicht immer und ist an bestimmte Bedingungen geknüpft (je nachdem was der Pixelshader macht und bei transparenten Dingen geht es z.B. natürlich auch nicht). Außerdem vermeiden einige Spieleengines Overdraw zu einem sehr großen Teil, so daß in einigen Fällen kaum ein merklicher gegenüber bereits existierende Mechanismen in der GPU (early-Z) rauskommen wird. Falls aber HSR wirksam greift, spart man ansonsten unnütz aufgewendete Rechenleistung and auch noch ein wenig Bandbreite ein (Lesen von Texturen und Buffern). Aber Speicherbandbreite zum Framebuffer spart man eigenlich nicht zusätzlich zu dem, was Tiling/Binning alleine schon tut (man reduziert lediglich die Belastung der ROPs und des Caches).
Durch Vermeidung solcher Zugriffe müsste sich doch auch einiges an Strom sparen lassen, oder nicht? Hat hier nicht mal jemand gesagt, dass solche Kopiervorgänge sehr viel Strom verbrauchen?Datentransfers kosten Strom, das stimmt. Und je weiter man die Daten bewegt, desto mehr Strom kostet es im Allgemeinen. L2-Zugriffe sind aber sicher stromsparender als Speicherzugriffe. Aber wie viele Watt das für so eine GPU sind, könnte man nur sehr grob schätzen, zumal es immer von der genauen Situation abhängt und wie effizient das Festure greift (siehe oben, das ist stark situationsabhängig). Ganz unerheblich wird es aber nicht sein.
Complicated
2017-07-10, 14:27:35
Hier ein Gedanke der für eine mögliche positive Überraschung durch Vega Grundlage der Spekulation sein kann, abseits von technischen Betrachtungen:
AMD verkündet am 31.07 die Quartalszahlen. Wenn man nun bedenkt, dass Q2 ja mit sinkenden Umsätzen vorhergesagt wurde (-18%) und dazu die Erfahrungen mit dem Aktienkurs nach den Q1 Zahlen (-17 % an einem Tag), verursacht lediglich durch ein Prognose von -1% Marge für das Q2, bei ansonsten Zahlen wie erwartet.
Dies kann AMD dazu verleitet haben ein überraschendes positives Signal mit einem Produkt direkt mit den Quartalszahlen zu lancieren. Daher vielleicht die Entscheidung für diesen seltsamen und teilweise schädlichen Launch-Ryhthmus bei Vega. Eine solche Überlegung würde natürlich nur dann funktionieren und die zwischen erscheinen der Frontier Edition und RX Vega gestiftete Verwirrung rechtfertigen, wenn RX Vega dann wie ein Phönix aus der Asche der schlechten Prognosen und Vorab-Benches mit der FE emporsteigt.
Liegt die Performance von Vega allerdings auf den von den Skeptikern erwartetem Niveau und ist ein Fail, dann hat AMD mit dem gleichzeiteitigen Launch zu den Quartalszahlen den denkbar schlechtesten aller Zeitpunkt ausgewählt um die Karte vorzustellen. Sie hätten die Karte schon längst released um dem Marketing Zeit zu verschaffen die Auswirkungen auf den Börsenkurs zu minimieren - hier wird eine schlechte oder auch nur kaum akzeptable Leistung der RX Vega den Kurs enorm in den Abgrund reisen. Ich denke durch den Termin auf der Siggraph demonstriert AMD das Selbstbewusstsein, dass der Launch ein Aha-Erlebnis im positiven Sinne sein wird.
aufkrawall
2017-07-10, 14:33:24
Waren nicht auch in das neue Powergating von Polaris 10 hohe Erwartungen gesetzt, und das war dann einfach kaputt?
Dino-Fossil
2017-07-10, 14:58:31
Ob es kaputt war, oder einfach nur für P10 nicht vorhanden, war, glaube ich, nicht ganz klar.
Allerdings ist es eh fraglich, wie viel man sich davon in einer Desktop-Karte erwarten kann. Unter Volllast braucht man nichts gaten, dadurch lässt sich dann auch nichts sparen.
Und unter Niedrig-/Teillast machen +/- 5 W am Desktop auch nicht viel aus (andere Sparmechanismen laufen ja weiterhin) - mobile allerdings schon eher und ich denke darauf zielt das Feature primär ab.
Waren nicht auch in das neue Powergating von Polaris 10 hohe Erwartungen gesetzt, und das war dann einfach kaputt?
P10 hat keins IIRC, weil das Die sonst erheblich größer geworden wäre. Bei P11 und P12 ist das eher unsicher, kann aber sein. Sollte Vega das haben, könnte das also ne Erklärung für die doch recht stark gestiegene Diefläche sein bei Vega. Polaris mit 64CUs wär sicher kaum größer als 400mm² geworden. Aber ich glaub nicht dran, es war ja auch nur von Clockgating die Rede AFAIK.
aufkrawall
2017-07-10, 15:54:46
Unter Volllast braucht man nichts gaten, dadurch lässt sich dann auch nichts sparen.
Ist die Frage, ob das wirklich so ist. Immerhin sind ohne Async Compute die Shader eher nie voll ausgelastet. Wenn das Gating extrem feingranular arbeiten würde, ließe sich womöglich trotzdem noch etwas einsparen?
Troyan
2017-07-10, 16:21:50
Es gibt keine Unterschiede zwischen Polaris 10 und Polaris 11. Man hat nur vom schlechten Produkt ablenken wollen, um die zwei Monate bis zu Polaris 11 zu überbrücken. Im Grunde ist P11 noch schlechter, weil der der direkte Konkurrent meilenweit entfernt ist.
yamamoto_dc
2017-07-10, 16:40:28
Hier ein Gedanke der für eine mögliche positive Überraschung durch Vega Grundlage der Spekulation sein kann, abseits von technischen Betrachtungen:
AMD verkündet am 31.07 die Quartalszahlen. Wenn man nun bedenkt, dass Q2 ja mit sinkenden Umsätzen vorhergesagt wurde (-18%) und dazu die Erfahrungen mit dem Aktienkurs nach den Q1 Zahlen (-17 % an einem Tag), verursacht lediglich durch ein Prognose von -1% Marge für das Q2, bei ansonsten Zahlen wie erwartet.
Dies kann AMD dazu verleitet haben ein überraschendes positives Signal mit einem Produkt direkt mit den Quartalszahlen zu lancieren. Daher vielleicht die Entscheidung für diesen seltsamen und teilweise schädlichen Launch-Ryhthmus bei Vega. Eine solche Überlegung würde natürlich nur dann funktionieren und die zwischen erscheinen der Frontier Edition und RX Vega gestiftete Verwirrung rechtfertigen, wenn RX Vega dann wie ein Phönix aus der Asche der schlechten Prognosen und Vorab-Benches mit der FE emporsteigt.
Liegt die Performance von Vega allerdings auf den von den Skeptikern erwartetem Niveau und ist ein Fail, dann hat AMD mit dem gleichzeiteitigen Launch zu den Quartalszahlen den denkbar schlechtesten aller Zeitpunkt ausgewählt um die Karte vorzustellen. Sie hätten die Karte schon längst released um dem Marketing Zeit zu verschaffen die Auswirkungen auf den Börsenkurs zu minimieren - hier wird eine schlechte oder auch nur kaum akzeptable Leistung der RX Vega den Kurs enorm in den Abgrund reisen. Ich denke durch den Termin auf der Siggraph demonstriert AMD das Selbstbewusstsein, dass der Launch ein Aha-Erlebnis im positiven Sinne sein wird.
Ich denke auch, dass das Verhalten von AMD ungewöhnlich "frech" ist. So viel Chuzpe spricht IMO eher dafür, dass Vega positiv überraschen wird. ;D
Es gibt keine Unterschiede zwischen Polaris 10 und Polaris 11. Man hat nur vom schlechten Produkt ablenken wollen, um die zwei Monate bis zu Polaris 11 zu überbrücken. Im Grunde ist P11 noch schlechter, weil der der direkte Konkurrent meilenweit entfernt ist.
Man hat also mit einem noch schlechteren Produkt von dem schlechten ablenken wollen - Wahnsinnslogik und völlig OT.:rolleyes:
Leonidas
2017-07-10, 18:06:16
Da das Bios wohl erst am 02.08. erscheinen dürfte
Quellenlink?
Dank im Voraus.
im Review-Thread zur FE was geschrieben:
Verarbeitet:
https://www.3dcenter.org/news/der-release-fahrplan-der-herstellerdesigns-zur-radeon-rx-vega
Ausnahmsweise kein Quellenlink, ich weiss nicht ob das Ärger ergeben könnte.
Ich denke auch, dass das Verhalten von AMD ungewöhnlich "frech" ist. So viel Chuzpe spricht IMO eher dafür, dass Vega positiv überraschen wird. ;D
Hoffen wir es. Sowohl ironisch als auch im positiven Sinne gemeint: Wenck wird kommen!
TGKlaus
2017-07-10, 20:55:08
VEGA wurde von gewissen Fraktionen so kaputt geredet, da könnte zu guter Performance noch kommen das die Karte Kaffee kochen und gleichzeitig Staubsaugen kann und trotzdem wäre keine positive Überraschung mehr möglich.
robbitop
2017-07-10, 21:09:33
Das Feature mit dem VEGA steht oder fällt ist TBR.
Wenn das nicht funktioniert bei RX release ists ne FE-reloaded und kein Spieler bei Verstand wird sich son Teil kaufen. Wenn es funktioniert wie geplant kann die Performance sicher 20-30% durchschnittlich steigen.
TBR/DSBR spart vor allem Bandbreite. Selbst @Fijii Taktraten war die FE nicht schneller als Fijii. Also mit ~2/3 der Nennrohleistung bei voller Bandbreite.
Da klemmt es noch woanders. Im Shadercompiler ggf? Neue CUs. Wie man an Doom sieht, ist AMDs Shadercompiler zumindest bis Polaris nur mittelmäßig. Die Leute von id haben laut gdc Präse den Shadercompiler komplett umgangen und dadurch deutlich höhere Auslastung hinbekommen. Maxwell/Pascals Shadercompiler in Verindung mit den ALUs fahren von Haus aus hohe Auslastung.
Eventuell können die NCUs das in Verbindung mit nem neuen Shadercompiler das auch. Und ggf ist der noch nicht fertig.
Keine Ahnung obs auch so ist. Nur geraten. Ist aber auffällig. Polaris holt 10-15% mehr IPC aus ihren CUs. Vega leicht weniger als Fijii. Trotz fetterer nCUs? IMO auffällig. :)
Fragman
2017-07-10, 21:29:06
VEGA wurde von gewissen Fraktionen so kaputt geredet,...
weil die hardware/software aktuell auch kaputt ist. kaputtreden muss man da nichts, das macht die karte allein und die bisherigen analysen von besitzern zeigen das ja auch.
dargo
2017-07-10, 21:38:12
@robbitop
Deine These würde nur Sinn ergeben wenn Doom auf Vega FE sehr gut performen würde. Was nicht der Fall ist. Allerdings bin ich mir hier nicht sicher ob Vega überhaupt ohne einen Spielpatch in Doom volle Leistung zeigen kann.
robbitop
2017-07-10, 21:39:22
@robbitop
Deine These würde nur Sinn ergeben wenn Doom auf Vega FE sehr gut performen würde. Was nicht der Fall ist. Allerdings bin ich mir hier nicht sicher ob Vega überhaupt ohne einen Spielpatch in Doom volle Leistung zeigen kann.
Denkfehler, wenn die ncus deutlich anders sind als die alten cus. Die id Leute haben ja auf die alten cus optimiert.
Locuza
2017-07-10, 22:35:23
TBR/DSBR spart vor allem Bandbreite. Selbst @Fijii Taktraten war die FE nicht schneller als Fijii. Also mit ~2/3 der Nennrohleistung bei voller Bandbreite.
Da klemmt es noch woanders. Im Shadercompiler ggf? Neue CUs. Wie man an Doom sieht, ist AMDs Shadercompiler zumindest bis Polaris nur mittelmäßig. Die Leute von id haben laut gdc Präse den Shadercompiler komplett umgangen und dadurch deutlich höhere Auslastung hinbekommen. Maxwell/Pascals Shadercompiler in Verindung mit den ALUs fahren von Haus aus hohe Auslastung.
Eventuell können die NCUs das in Verbindung mit nem neuen Shadercompiler das auch. Und ggf ist der noch nicht fertig.
Keine Ahnung obs auch so ist. Nur geraten. Ist aber auffällig. Polaris holt 10-15% mehr IPC aus ihren CUs. Vega leicht weniger als Fijii. Trotz fetterer nCUs? IMO auffällig. :)
Du kannst nicht den ganzen Shader-Compiler umgehen.
Was Doom aber bei AMD macht ist Shader-Intrinsics verwenden, um Funktionen ohne direkten API-Support zu verwenden.
Was die Entwickler bezüglich des Shader-Compilers angemerkt haben, war das beim Lightning-Abschnitt AMDs Shader-Compiler schlechtere Resultate erzielt hat, als die Shader-Compiler der Konsolenhersteller (Seite 25):
http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf
Falls Vega intern aber wirklich soviel geändert hat, dann hat AMD sicher noch eine Menge Arbeit vor sich.
Und da erwarte ich eher Monate bis Jahre.
Unicous
2017-07-10, 22:41:08
Verarbeitet:
https://www.3dcenter.org/news/der-release-fahrplan-der-herstellerdesigns-zur-radeon-rx-vega
Ausnahmsweise kein Quellenlink, ich weiss nicht ob das Ärger ergeben könnte.
Mensch toll. Keine "Quellenangabe" und das Zwei-Quellen-Prinzip ist ja voll unwichtig heutzutage. So funktioniert moderner Journalismus. Chapeau.:massa:
Ich freue mich schon auf die obligatorische WTF-Verwurstung.(y)
Gipsel
2017-07-10, 23:58:19
Es gibt keine Unterschiede zwischen Polaris 10 und Polaris 11.Nun, daß nur P11 das Powergating einzelner CUs unterstützt, ist offiziell. Dies erfordert einen Ring von Powergating-Transistoren um jede einzelne CU. Deine Anmerkung ist also schlicht falsch.
=============================
TBR/DSBR spart vor allem Bandbreite.Nun, je nach Situation kann auch das HSR in den Tiles (was AMD explizit erwähnt hat) auch Rechen-, Textur- und ROP-Leistung sparen, nicht nur Framebuffer-Bandbreite.
Dural
2017-07-11, 00:12:46
Hat vega 64 oder 128 rops?
Gipsel
2017-07-11, 00:16:02
Hat vega 64 oder 128 rops?64.
Leonidas
2017-07-11, 06:03:20
Mensch toll. Keine "Quellenangabe" und das Zwei-Quellen-Prinzip ist ja voll unwichtig heutzutage. So funktioniert moderner Journalismus. Chapeau.:massa:
Ich freue mich schon auf die obligatorische WTF-Verwurstung.(y)
Widerspruch.
1. Der Wortlaut "ausnahmesweise keine Quellenangabe" ist sehr eindeutig IMO. Sagt aus, das es eine Ausnahme ist, sagt aus, das es normalerweise anders ist.
2. Quelle existiert natürlich (hier im Forum).
3. Das Zwei-Quellen-Prinzip funktioniert heutzutage überhaupt nicht mehr. Funktioniert, um nicht vom Höhrensagen her Unsinn zu berichten. Funktioniert überhaupt nicht gegenüber gezielten Kampagnen, die todsicher mehrere Quellen mit derselben Fake-News bereitstellen. Insofern kann man da nur sagen: Bitte nicht an Formeln der Formel wegen festhalten.
4. Das Zwei-Quellen-Prinzip funktioniert bei Gerüchten sowieso nicht. Da gibt es prinzipgebunden immer nur eine Quelle - und auch keine Möglichkeit, das zu ändern. Da kann man nur mit Augenmaß entscheiden, ob man berichtet oder eben nicht. War eigentlich schon immer so.
5. Wir schreiben hier nicht über Politik. Da würde ich Gerüchte auch eher ablehnen wollen - oder zumindest doch auf der zweiten Quelle bestehen. Wir schreiben hier aber über PC-Hardware. Da muß man diese harte Prinzip nicht wirklich durchsetzen.
Cyphermaster
2017-07-11, 09:47:15
Widerspruch.
1. Der Wortlaut "ausnahmesweise keine Quellenangabe" ist sehr eindeutig IMO. Sagt aus, das es eine Ausnahme ist, sagt aus, das es normalerweise anders ist.
2. Quelle existiert natürlich (hier im Forum).Das Ganze ist allerdings nicht deutlich von den Nicht-nur-Gerüchte-News abgehoben/kenntlich gemacht. So läßt du den Eindruck entstehen, es hätte mehr Gehalt. Und auch Quellpostings im Forum sind -entgegen der üblichen Gepflogenheiten- nicht verlinkt. Finde ich nicht gut, das ist schon WTFtech-Niveau.
deekey777
2017-07-11, 10:01:20
Also kein Pulitzer-Preis für 3DC dieses Jahr?
|MatMan|
2017-07-11, 10:28:49
Nun, daß nur P11 das Powergating einzelner CUs unterstützt, ist offiziell. Dies erfordert einen Ring von Powergating-Transistoren um jede einzelne CU. Deine Anmerkung ist also schlicht falsch.
Offiziell kann P11 einzelne CUs powergaten, nur sieht man davon in der Praxis wenig bis nichts. Die angekündigte Notebook-Offenbarung ist jedenfalls ausgeblieben, da sich P10 und P11 nicht so sehr in Bezug auf Energieeffizienz unterscheiden. In der Hinsicht stimmt seine Aussage schon irgendwie, auch wenn das eine sehr oberflächliche Betrachtung ist.
Ein aufwendiges CU-Powergating könnte eine Begründung für die große Fläche von V10 sein. Da dies aber eher ein Notebook-Feature ist, würde ich nicht davon ausgehen...
Wie gesagt, kann V10 sicherlich clockgating, aber sicher kein powergating. Das ist eher nur für Notebooks sinnvoll.
Sicher funktioniert das Powergating bei P11, nur ist der Effekt im Desktop nicht relevant und die Notebookhersteller halten wohl generell nicht viel von den AMD-GPUs. Und nein, er hat nicht recht.
Bezüglich der News: Das geht schon klar, weil es ne Ausnahme war. Es ist schlicht und einfach informativ, selbst wenn es nicht 100% korrekt sein sollte.
Ich halte eh nichts von derzeitiger Pressearbeit, denn man sieht ja auch im Mainstream, wie schlecht das trotzdem läuft und wieviele Falschinformationen darin sind. Plausibilität halte ich für weitaus wichtiger als Quellen, solange es nicht um konkrete Frakten geht, wie beispielsweise welcher Fertigungsprozess genau verwendet wurde.
In Zeiten des unbegrenzten Informationsflusses funktioniert Presse eh nicht mehr (also Vorauslese und Vorverarbeitung von Infos für den Endverbraucher), es ist vielmehr jeder selber gefragt, sich aktiv zu informieren. Deswegen ist auch dieses Fakenews-Gesetz einfach nur albern; ich verstehe die Leute, die das gemacht haben, die haben aber einfach nicht kapiert, dass die Informationsbeschaffung sich grundlegend verändert hat. Wenn eine Webseite falsche Informationen weitergibt ist das besser, als wenn sie keine weitergibt. Es muss aber reagiert werden, wenn es wirklich falsch ist.
Unicous
2017-07-11, 11:46:26
@Leonidas
Ich fühle mich leicht verarscht, aber gut.
Nicht mal in einem Halbsatz wird erwähnt, dass das Ganze ein Gerücht ist, da es nicht unabhängig verifiziert wurde. Es ist nichts weiter als Hörensagen.
Und dass du dir als PC-Hardware-Schreiberling herausnimmst ethische und moralische Grundprinzipien des Journalismus ist eben auch die Crux an der Geschichte. Da sich so gut wie niemand an Prinzipien hält kommt es eben zu dieser echo chamber in der alles zig mal wiederholt wird und durch stille Post bzw. die Sprachbarriere wird aus einem Gerücht oder einem Gedankenspiel schnell mal ein "Fakt". Du wirst dadurch zum Erfüllungsgehilfen für WTF-Tech und Co.. Diese "Artikel" die du da tagtäglich raushaust werden komplett fehlinterpretiert weil du sorglos mit dem Thema umgehst und so gut wie alles was ansatzweise kohärent klingst sofort zu einer news verarbeitest. Du machst dadurch Tag um Tag Fehler, die nicht korrigiert werden oder viel zu spät, wenn das Kind schon in den endlosen viralen Strudel gefallen ist.
Meiner Meinung nach erweist du dir und auch den "Quellengebern" damit einen Bärendienst, zumal du ja meist nicht einmal um Erlaubnis fragst (die du ja durch die Foren-AGB wahrscheinlich nicht brauchst) oder wenigstens um feedback. Du haust es einfach nach Gutdünken raus. Finde ich mehr als gefährlich und unverantwortlich.
Leonidas
2017-07-11, 11:57:13
Das Ganze ist allerdings nicht deutlich von den Nicht-nur-Gerüchte-News abgehoben/kenntlich gemacht. So läßt du den Eindruck entstehen, es hätte mehr Gehalt. Und auch Quellpostings im Forum sind -entgegen der üblichen Gepflogenheiten- nicht verlinkt. Finde ich nicht gut, das ist schon WTFtech-Niveau.
Ich hab es in diesem Fall bewußt so getan. Ich weiss einfach nicht, ob sich I. damit nicht Schwierigkeiten bereitet. Quellen-Eigenschutz in diesem Augenblick.
@ Unicous:
Warum man an Tech-News nicht die gleichen Ansprüche stellen sollte wie an Politik-News, hatte ich eigentlich klar begründet. So ein Vorgehen würde ich im Politik-Bereich niemals machen. Ich sehe das im Tech-Bereich einfach nicht so tragisch, das ist Hobby & Spaß. Und nochmals: Offizielle Bestätigungen wird es in diesem Feld niemals geben (bei nicht releaster Hardware). Das ist der feuchte Traum der Hersteller-PR, wenn wir noch das berichten können, was die Hersteller bestätigt haben.
Gleichfalls sehe ich nicht, das wirklich durch 3DC unhaltbare Gerüchte losgetreten werden. Ich verfolge solcherart wichtige Meldungen durchaus mal - und muß sagen, das viele Webseiten sich dazu ihre eigenen Gedanken machen und dann durchaus mal unsere Version der Dinge ablehnen oder wenigstens anzweifeln. Hinzu kommt, daß das 3DC selbst für andere Tech-Webseiten zu technisch ist, vieles also von anderen Webseiten gar nicht übernommen wird. Daß das 3DC der Ausgangspunkt für vielerlei Gerüchtemeldungen ist, die dann in bemerkbarer Anzahl falsch gewesen wären, ist so nie passiert. Eher wäre erstaunenswert, wie hoch im Rückblick die Trefferquote war, wenn man da die Dünnheit der Datenlage gegenüberstellt.
Korfox
2017-07-11, 12:39:40
Meint ihr nicht, die Diskussion über die journalistische Qualität des Beitrags und die Hintergründe gehört allmählich an folgende Stelle:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11427130#post11427130?
Ich hab es in diesem Fall bewußt so getan. Ich weiss einfach nicht, ob sich I. damit nicht Schwierigkeiten bereitet. Quellen-Eigenschutz in diesem Augenblick.
Dir ist aber schon klar, dass man hier im Forum nach dem ersten Schlagwort ("BOM Release") suchen kann, das einem ins Auge fällt und dann nurnoch zwei Beiträge übrig sind, unter denen man deutlich erkennen kann, welcher die Quelle ist?
Der link ist ohne zusammemhang zu Vega
Ich habe mal versucht, meine Aussage eindeutiger zu formulieren.
Complicated
2017-07-11, 12:57:10
Der link ist ohne zusammemhang zu Vega
Hasenpfote
2017-07-11, 13:12:50
AMD verkündet am 31.07 die Quartalszahlen. Wenn man nun bedenkt, dass Q2 ja mit sinkenden Umsätzen vorhergesagt wurde (-18%) und dazu die Erfahrungen mit dem Aktienkurs nach den Q1 Zahlen (-17 % an einem Tag), verursacht lediglich durch ein Prognose von -1% Marge für das Q2, bei ansonsten Zahlen wie erwartet.
Dies kann AMD dazu verleitet haben ein überraschendes positives Signal mit einem Produkt direkt mit den Quartalszahlen zu lancieren.Q2 Earnings Report ist am 25.7.:
http://ir.amd.com/mobile.view?c=74093&p=irol-calendar
Deine Idee halte ich für wirklich beschi..en! Ich wollte nämlich mit 300Euro short gehen und mit ein paar Zertifikaten gegen AMD wetten, um wenigstens was vom Kursverfall zu haben (statt nur Tränen). Und jetzt kommst Du und machst mir meine feste Überzeugung kaputt. :P
kacke ey, was machen ich denn nu?
Complicated
2017-07-11, 14:02:17
Meint ihr nicht, die Diskussion über die journalistische Qualität des Beitrags und die Hintergründe gehört allmählich an folgende Stelle:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11427130#post11427130?
Danke für den Kontext, der war mir entgangen. Dem stimme ich auch zu :)
@Hasenpfote
Ja der korrigierte Termin am 25.07 macht das ganze wieder weniger wahrscheinlich. 1 Woche Abstand ist zu lange als dass man damit ein Gegengewicht bilden könnte. Würde aber passen wenn man eben 31.07 geplant hatte und nun kein Gegengewicht mehr braucht sondern einen positiven Zusatzschub generieren möchte für die Aktien. Q2 Bericht 1 Woche früher überrascht positiv wegen Mining und daher steigende Kurse und Vega soll ein weiteres mal einen Schub geben 1 Woche später wenn die Auswirkungen der Q2 Zahlen nachlassen.
Wäre Vega negativ würden sicherlich die positiven Q2 Zahlen nach dem Launch dran kommen.
yamamoto_dc
2017-07-11, 14:29:28
Ja der korrigierte Termin am 25.07 macht das ganze wieder weniger wahrscheinlich. 1 Woche Abstand ist zu lange als dass man damit ein Gegengewicht bilden könnte. Würde aber passen wenn man eben 31.07 geplant hatte und nun kein Gegengewicht mehr braucht sondern einen positiven Zusatzschub generieren möchte für die Aktien. Q2 Bericht 1 Woche früher überrascht positiv wegen Mining und daher steigende Kurse und Vega soll ein weiteres mal einen Schub geben 1 Woche später wenn die Auswirkungen der Q2 Zahlen nachlassen.
Ich glaube nicht, dass Lisa Su solche taktischen Überlegungen wichtig sind. Lisa Su verfolgt eine langfristige Agenda, die sie immer wieder auch nennt: "Make great products".
In diesem Sinne hoffe ich darauf, dass Vega gut wird, dann kommen automatisch auch die Umsätze und der Aktienkurs steigt.
Complicated
2017-07-11, 15:00:15
Ich glaube solche taktischen Überlegungen sind Lisa Sus wichtigste Entscheidungen. Wenn man aus der selben Unternehmensleistung mehr Performance erzielen kann wäre man als CEO falsch beraten dies nicht zu nutzen. Das ist genau das was Nvidia besser machte in der Vergangenheit.
yamamoto_dc
2017-07-11, 15:24:27
Ich habe eher den Eindruck, dass Lisa den Aktienkurs momentan etwas bremsen will, so vorsichtig wie die Prognosen sind. Macht ja auch Sinn, bei der hohen Volatilität ist AMD für große Fondgesellschaften als Investment nicht interessant. Um den Kurs langfristig hoch zu bringen, ist Stabilität wichtiger als kurzfristige Kursprünge.
Unicous
2017-07-11, 15:30:14
:rolleyes::rolleyes::rolleyes:
https://www.techpowerup.com/235067/amd-aib-partners-rx-vega-manufacturing-bios-release-schedule-leaked
:facepalm::facepalm::facepalm:
self fulfilling prophecy und so.
Kartenlehrling
2017-07-11, 15:32:56
Source: 3D Center
:)
Unicous
2017-07-11, 15:35:42
Was willst du damit sagen? Natürlich ist die Quelle "3DC".:confused:
yamamoto_dc
2017-07-11, 15:50:08
:rolleyes::rolleyes::rolleyes:
https://www.techpowerup.com/235067/amd-aib-partners-rx-vega-manufacturing-bios-release-schedule-leaked
:facepalm::facepalm::facepalm:
self fulfilling prophecy und so.
Jetzt ist es bald bei WTF, Fudzilla, Reddit und in diversen Tweets. ;D
Cyphermaster
2017-07-11, 15:51:46
Zumindest vermerken TPU korrekt gleich zu Beginn und deutlich:
Disclaimer things first: take this with a grain of salt, since this hasn't seen the amount of confirmations we'd like.
Und es wird auch im Text viel klarer rausgestellt, daß es sich um ein Gerücht handelt, z.B. so:
(...) that supposedly demonstrates (...)
Unicous
2017-07-11, 16:03:57
Ja, lustigerweise machen sie das was Leonidas nicht für berichtenswert und vernachlässigbar hielt.:rolleyes:
Aber es ist ja nur Hardware-Zeugs, da muss man es nicht so eng sehen mit dem Journalisten-Kodex.
Hey das ist doch furzpiepegal ob die das berichten. Solange das nur auf 3Dc zurückgeht ist alles gut. Ich seh das sogar eher so: Leo macht hier wirkliche Reporterarbeit, nämlich Dinge aufdecken, die die Hersteller gern geheimhalten wollen. Und das man da nicht ausplaudern darf, wo das herkommt, versteht sich von selbst. Das ist ein Problem unserer Zeit. Keiner traut sich mehr was, deswegen fallen so viele auf den Clickbait herein, weil eine seriösere investigative Instanz mittlerweile einfach fehlt. Der Grad ist schmal, aber einfach notwendig.
Cyphermaster
2017-07-11, 16:45:04
Solange das nur auf 3Dc zurückgeht ist alles gut.Problem ist, daß die Quellenaufdeckung nur 3 Klicks mehr braucht.
Keiner traut sich mehr was, deswegen fallen so viele auf den Clickbait herein, weil eine seriösere investigative Instanz mittlerweile einfach fehlt. Der Grad ist schmal, aber einfach notwendig.Es ist imo trotzdem wenig journalistisch, Informationen einfach nur "nachzuplappern". Nicht nur, daß blankes c&p in Zeiten von Suchmaschinen oftmals unnötige bis schädliche* Redundanz ist, es ist imho auch nicht besonders seriös, wenn man die Informationen nicht ausreichend in den notwendigen Kontext (hier die begrenzte Quellenlage usw.) für das richtige Verständnis/Interpretation derselben setzt.
Das entspricht meiner Meinung nach dem Mischen der Review- und Speku-Foren bzw. Threads zu einer Art "gefühlten Realität". Und das begünstigt sowohl Hypes, als auch die Beeinflußbarkeit der Seiten, und schadet in so einem Fall wieder jedem Versuch einer wirklichen Verbesserung der Informationslage. Man muß sich nur ansehen, was durch implizite Gleichsetzung von "Vega", Vega FE" und "RX Vega" auf den Seiten vorher in diesem Thread immer wieder passiert ist.
(*- Alleine durch das Zitieren wird ein bestimmter Eindruck im Publikum erweckt: "Da muß was dran sein. Wenn's nur Unsinn wäre, hätten die es sicher nicht als News gebracht". Damit werden zweifelhafte Dinge ggf. "aufgewertet"; z.B. wenn sie nicht ausreichend als zweifelhaft gekennzeichnet sind.)
unl34shed
2017-07-11, 16:50:41
Siehe Hardwareluxx, haben das auch nur abgeschrieben, erwähnen nicht, dass es nur ein Gerücht ist und Zack die ersten Idioten drehen durch...
Unicous
2017-07-11, 16:55:01
@Cyphermaster
Amen.
:frown:
LadyWhirlwind
2017-07-11, 17:43:05
Die nächste Seite spekuliert dann im gleichen Kontext über ein Release 2 Wochen später und über eine Leistung auf 1080 TI Niveau. Die nächste bringt das dann schon als Tatsache und schon ist man verdammt nah an Fake News.
Aber das ist OT.
Leonidas
2017-07-11, 17:43:11
Dir ist aber schon klar, dass man hier im Forum nach dem ersten Schlagwort ("BOM Release") suchen kann, das einem ins Auge fällt und dann nurnoch zwei Beiträge übrig sind, unter denen man deutlich erkennen kann, welcher die Quelle ist?
Ist mit klar. Wenn ich nicht im Zweifel darüber wäre, ob das ganze Probleme für I. macht, hätte ich die Quelle sehr ausführlich gewürdigt. Warum auch nicht - kommt ja klar besser. Ich habe bewußt Qualität der Meldung geopfert für den reinen Verdacht, I. könnte Probleme bekommen. Und ja - ich weiss selber, das man das durch Suchen auch wieder findet. Ich weiss aber auch, wie große Hersteller arbeiten. So lange da der Name nicht im Klartext dasteht, kann das durchaus (mit etwas Glück) durchrutschen.
StefanV
2017-07-11, 17:57:16
Warum man an Tech-News nicht die gleichen Ansprüche stellen sollte wie an Politik-News,
leuchtet niemanden ein...
In gewissem Maße sollte man schon gewisse Grundsätze beachten und Gerüchte/Vermutungen auch als solche vermarkten...
"Diverse" 3 Buchstaben Neuigkeiten Netzwerke zeigen auch, wie man es am besten nicht macht. Das mag kurzfristig Erfolg versprechend sein, aber langfristig eben nicht...
Durchschnittsalter der Konsumenten dieser Organisationen soll bei ~60 Jahren liegen...
Und hier gehts gerade auch nur darum, dass du Gerüchte/Meinungen, die nicht verifiziert werden können, auch als solche kennzeichnest...
Leonidas
2017-07-11, 18:04:04
Und hier gehts gerade auch nur darum, dass du Gerüchte/Meinungen, die nicht verifiziert werden können, auch als solche kennzeichnest...
.... was auch immer richtig ist, und (wenn es von mir nicht beachtet wird) auch immer anmängelbar ist. Keine Frage, wenn das nicht genau genug gemacht wird meinerseits, dann ist Kritik berechtigt.
PS: Neues Futter zum Spekulieren. Die Quelle kennt ihr ;)
https://www.3dcenter.org/news/erste-informationen-zu-den-einzelnen-modellen-von-amds-radeon-rx-vega
Troyan
2017-07-11, 18:24:16
PCGH hat den Beyond3d Suit laufen lassen: http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/
Beim Bandbreitentest sieht man, wieso die Karte zur Zeit kaum mit den Takt in Grafikanwendungen skaliert.
BoMbY
2017-07-11, 19:01:25
Ja, schon merkwürdig, dass die Vega bei der Random Texture so abkackt. Bei der Black Texture ist die Geschwindigkeit ja wie erwartet etwa gleich der Fury X.
Eigentlich sollte die Vega FE etwa 96.8% der Fury X erreichen, kommt aber nur auf 72-76%. Kann ich mir nicht durch Treiberprobleme erklären. Außer der der HBM2-Takt wird falsch angezeigt/angegeben, und die Komprimierung für den Framebuffer ist im Best Case deutlich besser geworden.
Unicous
2017-07-11, 19:32:06
PS: Neues Futter zum Spekulieren. Die Quelle kennt ihr ;)
https://www.3dcenter.org/news/erste-informationen-zu-den-einzelnen-modellen-von-amds-radeon-rx-vega
Und munter geht es weiter.
:facepalm:
mczak
2017-07-11, 19:32:13
Auch von der höheren Polygonrate sieht man nichts. Sollten ja jetzt bis zu 11 Tri/Clock sein, aber selbst bei 100% culled klebt man da immer noch an der 4 Tri/Clock Rate.
Troyan
2017-07-11, 19:33:22
Nein, es sind weiterhin 4 Tris/Clock. 11Tris/Clock sind es nur bei Verwendung des "Primitive Shaders".
BoMbY
2017-07-11, 19:58:06
GamersNexus via Twitter (https://twitter.com/GamersNexus/status/884788921154105344):
Update on @AMD #VEGA hybrid mod: 1700MHz/1100MHz seems stable. ~400W draw through PCIe cables, FETs under 65C, core at 49C (ambient 23C).
und (https://twitter.com/GamersNexus/status/884816425369694208):
Seeing +17% ~ +18% in FireStrike performance with our Vega Hybrid OC so far. Not representative of games, necessarily, but still decent.
robbitop
2017-07-11, 20:18:40
Der hbm ist, wie schon auf Fijii, nicht besonders gut übertaktbar. Woran liegt das bei HBM?
Warum sind eigentlich nominell so geringe Taktraten bei hbm der Fall? (Relativ zu modernem gddr5/x)
Digidi
2017-07-11, 20:20:15
Auch von der höheren Polygonrate sieht man nichts. Sollten ja jetzt bis zu 11 Tri/Clock sein, aber selbst bei 100% culled klebt man da immer noch an der 4 Tri/Clock Rate.
Ist die Frage was Byond3d Suite da zählt. Entweder wie viele Polygonen man bekommt und abarbeiten kann oder das was am Ende wirklich nur rauskommt.
Wenn die gpu 11 Millionen Polygonen bekommt und die bis auf 4 Millionen ausfiltert ist das ein guter wert. Und mehr als 4 Polygonen pro Takt kann der Rasterizer nicht verarbeiten.
mczak
2017-07-11, 20:27:27
Nein, es sind weiterhin 4 Tris/Clock. 11Tris/Clock sind es nur bei Verwendung des "Primitive Shaders".
Der Primitive Shader sollte nichts damit zu tun haben - der fasst ja eigentlich bloss mehrere Shader Stages zu einer zusammen. AMD hat ja gesagt 4 Geometry Engines, bis zu 11 Tris/Clock. Es müsste also ähnlich wie bei Nvidia sein - maximal 4 gerenderte Tris, aber bis zu 11 verworfene.
Wenn man die 11 Tris/Clock nur per Spezialshader erreichen könnte den man gar nicht benutzen kann (weil die APIs das ja direkt nicht ermöglichen) wäre das völlig nutzlos.
Es wäre allenfalls denkbar dass man das Culling im "Primitive Shader" vornehmen muss damit man auf die 11 Tris/Clock kommt. So klar geht das aus dem Marketingmaterial nicht hervor. In dem Fall müsste dann der Treiber das übernehmen, dann könnte es natürlich sein dass das einfach nicht aktiv ist. (Was aber auch heisst dass man in dem Fall die Berechnungen doppelt machen müsste - sowohl als Teil des Fixed-Fuction Setup in der Geometry-Engine wie auch als Teil des Primitive Shader, was mir auch nicht gerade optimal erscheint.)
Troyan
2017-07-11, 20:40:16
Es kommt direkt von AMD: https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
mczak
2017-07-11, 20:56:06
Es kommt direkt von AMD: https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
Das sehe ich da nirgends. Klar es steht 6.4 BTris/s - aber das bezieht sich wohl eher auf effektiv gerenderte. Wenn du aber bei den Features auf Graphics klickst, steht da was von verdoppeltem Peak Geometry Throughput - und in der Fussnote dazu stehen dann die erwähnten 11 Tris/Clock mit 4 Geometry Engines.
[MK2]Mythos
2017-07-11, 21:29:06
Wenn diese drei Vega Varianten wirklich kommen, kann ich mir das nur so erklären:
Vega XL gegen GTX 1070
Vega XT gegen GTX 1080
Vega XTX gegen GTX 1080ti.
Wenn Vega wirklich so schlecht wäre wie es momentan mit der FE aussieht, würden diese drei Varianten null Sinn ergeben. Denn dann müsste sich der Top dog mit ner wahnwitzigen TDP irgendwie mit ner GTX 1080 prügeln und die schwächeren Varianten dann unterhalb der GTX 1070 einpendeln. -> komplett sinnlos.
StefanV
2017-07-11, 21:30:21
Der hbm ist, wie schon auf Fijii, nicht besonders gut übertaktbar. Woran liegt das bei HBM?
Warum sind eigentlich nominell so geringe Taktraten bei hbm der Fall? (Relativ zu modernem gddr5/x)
low power PHY; massively parallel, nicht gebaut/gedacht für enorme Taktraten...
Brillus
2017-07-11, 21:35:01
Mythos;11427645']Wenn diese drei Vega Varianten wirklich kommen, kann ich mir das nur so erklären:
Vega XL gegen GTX 1070
Vega XT gegen GTX 1080
Vega XTX gegen GTX 1080ti.
Wenn Vega wirklich so schlecht wäre wie es momentan mit der FE aussieht, würden diese drei Varianten null Sinn ergeben. Denn dann müsste sich der Top dog mit ner wahnwitzigen TDP irgendwie mit ner GTX 1080 prügeln und die schwächeren Varianten dann unterhalb der GTX 1070 einpendeln. -> komplett sinnlos.
Eher:
Vega XL gegen GTX 1080
Vega XT gegen GTX 1080ti
Vega XTX gegen Titan XP.
Der Sprung von XT zu XTX ist sonst zu groß.
vinacis_vivids
2017-07-11, 21:44:57
Der hbm ist, wie schon auf Fijii, nicht besonders gut übertaktbar. Woran liegt das bei HBM?
Warum sind eigentlich nominell so geringe Taktraten bei hbm der Fall? (Relativ zu modernem gddr5/x)
HBM/HBC sitz viel näher an der GPU bzw. ist schon fast ein Teil der GPU. Die getrennte Spannungsversorgung wird die Schwierigkeit sein. Auch kühlungsabhängig für die 375W auf der kleinen Fläche.
GDDR5 hat eine viel größere Fläche, separete Spannung, gröbere Strukturen und lässt sich daher einfacher kühlen.
Außerdem lebt HBM ja von der Breite/Flexibilität und weniger vom Takt. Wenn man Bandbreite braucht, dann stackt man einfach beliebig drauf.
Eher:
Vega XL gegen GTX 1080
Vega XT gegen GTX 1080ti
Vega XTX gegen Titan XP.
Der Sprung von XT zu XTX ist sonst zu groß.
Vega Nano vs GTX 1070
Troyan
2017-07-11, 21:48:41
Das sehe ich da nirgends. Klar es steht 6.4 BTris/s - aber das bezieht sich wohl eher auf effektiv gerenderte. Wenn du aber bei den Features auf Graphics klickst, steht da was von verdoppeltem Peak Geometry Throughput - und in der Fussnote dazu stehen dann die erwähnten 11 Tris/Clock mit 4 Geometry Engines.
Von Techreport:
AMD thinks this sort of access [aka Primitive Shaders] will ultimately allow primitives to be discarded at a very high rate. Interestingly, Mantor expects that programmable pipeline stages like this one will ultimately replace fixed-function hardware on the graphics card. For now, the primitive shader is the next step in that direction.
http://techreport.com/review/31224/the-curtain-comes-up-on-amd-vega-architecture/2
dargo
2017-07-11, 21:50:50
Mythos;11427645']Wenn diese drei Vega Varianten wirklich kommen, kann ich mir das nur so erklären:
Vega XL gegen GTX 1070
Vega XT gegen GTX 1080
Vega XTX gegen GTX 1080ti.
Ich kann mir nicht vorstellen, dass AMD den Salvage so stark kastriert wie Nvidia. Wäre zumindest unüblich für AMD.
Der_Korken
2017-07-11, 21:50:53
Sind eigentlich die (absoluten) Latenzen von HBM prinzipiell geringer als von GDDR wegen Interposer vs PCB? Oder spielt das keine Rolle?
vinacis_vivids
2017-07-11, 21:54:10
@mczak
http://www.anandtech.com/show/11002/the-amd-vega-gpu-architecture-teaser/2
"In any case, however AMD is doing it, the updated geometry engines will also feature one more advancement, which AMD is calling the primitive shader. A new shader stage that runs in place of the usual vertex and geometry shader path, the primitive shader allows for the high speed discarding of hidden/unnecessary primitives. Along with improving the total primitive rate, discarding primitives is the next best way to improve overall geometry performance, especially as game geometry gets increasingly fine, and very small, overdrawn triangles risk choking the GPU.
AMD isn’t offering any real detail here in how the primitive shader operates, and as a result I’m curious here whether this is something that AMD’s shader compiler can automatically add, or if it requires developers to specifically call it (like they would vertex and geometry shaders)."
Sind eigentlich die (absoluten) Latenzen von HBM prinzipiell geringer als von GDDR wegen Interposer vs PCB? Oder spielt das keine Rolle?
AMD sieht HBM als HBC, also Cache. Latenzen können dadurch viel besser und präziser abgestimmt werden durch den HBCC. Also klar hängt das mit dem Interposer zusammen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.