PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 [59] 60 61

BoMbY
2019-01-02, 08:18:23
Du hast also Einblick in das WSA und andere Verträge zwischen AMD und glofo? Bitte mehr Infos!

Jeder hat Einblick, denn diese Dinge müssen bei der SEC gemeldet werden, und dort werden sie veröffentlicht. Seit der Bekanntgabe von GloFo's 7nm Plänen gab es kein neues Filing, und alle Warnungen bezüglich GloFo in AMD's Dokumenten haben sich nicht geändert.

HOT
2019-01-02, 09:09:49
GloFo kann das Abkommen nicht erfüllen. Können wir jetzt aufhören mit dem BS? Das wird AMDs 7nm-Pläne nicht beeinflussen. Da gibts eher ne Strafzahlung, als dass das ne Rolle spielen wird.

BoMbY
2019-01-02, 09:44:10
Es ist vollkommen irrelevant das GloFo das Abkommen nicht erfüllen kann (Edit: Jedenfalls in Bezug auf die 7nm-Fertigung, solange sie überhaupt irgendwas fertigen können). Es gibt nur zwei Möglichkeiten wie AMD da raus kommt: Entweder GloFo brennt komplett mit allen Standorten ab (oder meldet Insolvenz an und wird abgewickelt), oder GloFo lässt AMD freiwillig aus dem WSA raus. Wer etwas anderes behauptet hat scheinbar keines der Dokumente auch nur ansatzweise gelesen.

mboeller
2019-01-02, 13:34:53
GloFo kann das Abkommen nicht erfüllen. Können wir jetzt aufhören mit dem BS? Das wird AMDs 7nm-Pläne nicht beeinflussen. Da gibts eher ne Strafzahlung, als dass das ne Rolle spielen wird.

aus dem anandtech Artikel:


Under this new agreement, AMD has been granted a “limited waiver” to work with other foundries “with respect to certain products in the 14nm and 7nm technology nodes...

This flexibility comes at a cost though. Not unlike past years where AMD has paid GlobalFoundries a penalty under take-or-pay, AMD will be paying the foundry for this new flexibility. GlobalFoundries will be receiving a $100M payment from AMD, spread out over the next 4 quarters. Meanwhile starting in 2017, AMD will also have to pay GlobalFoundries for wafers they buy from third-party foundries

Ultimately this means AMD could end up paying GlobalFoundries two different types of penalties: one for making a chip at another fab, and a second penalty if AMD doesn’t make their wafer target for the year with GlobalFoundries


der markierte Teil ist IMHO schon ein starkes Stück und es zeigt aus meiner Sicht in welch schwacher Verhandlungsposition AMD 2016 war. Das Abkommen gilt ja min. bis 2020 bzw. so lange bis es einen neuen Vertrag gibt. Zumindest für mich ein weiterer Grund für die Chiplets. Mehr CPU-Cores per Wafer sind also ein 2facher Gewinn für AMD.

Unicous
2019-01-02, 14:40:58
Bomby erzählt mal wieder kompletten Blödsinn. Wenn GF keinen aktuellen Fertigungsprozess liefern kann dann wird neu verhandelt.

Auszug aus dem originalen WSA:


2. PURCHASE AND CAPACITY COMMITMENTS

2.1 Purchase Commitments.

[...]

(b) Second Sourcing.

i. Notwithstanding Section 2.1(a), AMD may source up to [****] percent ([****]%) of AMD’s and the Remaining Discovery Subsidiaries’ quarterly MPU Product Wafer requirements with [****] at Process Nodes of [****] nm or greater, until [****] establishes a fabrication facility at an [****] outside [****] with Qualified Processes to manufacture the applicable MPU Products for AMD.

ii. If at any time while AMD may purchase the applicable MPU Products from [****], FoundryCo cannot deliver in a timely manner Qualified Products produced on Qualified Processes that meet the Specifications in accordance with Binding Forecasts, the Partnership Committee shall promptly address the situation, including conducting a prompt review process and implementing a corrective action plan. If, however, such failure to so deliver such Products is causing AMD to fail to meet its material commitments to its customers, and AMD as a result needs to purchase greater MPU Product volumes from [****] than otherwise set forth above, AMD may increase its purchases at [****] for the affected MPU Products above the [****] percent ([****]%) maximum to meet such customer requirements. AMD may thereafter continue to purchase MPU Products over the [****] percent ([****]%) maximum until such time as FoundryCo demonstrates, as mutually agreed upon, that FoundryCo can meet the relevant Specifications and Yields for such MPU Product in a manner reasonably comparable or better than those of [****], as well as meet the applicable supply commitments set forth in this Agreement or as actually required by AMD.
https://www.sec.gov/Archives/edgar/data/2488/000119312509046101/dex105.htm

Sobald GlobalFoundries nicht liefern kann, was sie über einen längeren Zeitraum versprochen haben, kann AMD sofort einen anderen Zulieferer beauftragen. Wenn GlobalFoundries überhaupt nicht liefern kann, darf AMD die festgelegte Grenze an "Fremdfertigung" überschreiten. Natürlich wurde das durch die Amendments eh nochmals völlig verwässert, aber wen interessiert das schon, nicht Bomby.:freak:

Fakt ist, AMD und GF verhandeln den Vertrag neu, weil GF den Vertrag nicht einhalten kann. Währenddessen kann AMD feuchtfröhlich woanders fertigen lassen und auch in Zukunft können. Denn AMD muss laut dem WSA in der Lage sein ihre Produkte in einem aktuellen und konkurrenzfähigen Prozess herstellen zu können.

Screemer
2019-01-02, 14:51:32
Danke fürs posten. Das wollte ich heute nach der Arbeit auch noch Mal raus suchen. Hatte ich glaub ich vor Jahren schon Mal gepostet oder zumindest gelesen und hab mich da auch dunkel an den Wortlaut erinnert.

BoMbY
2019-01-02, 15:04:22
Ja, Unicous der Held der alles immer besser weiß ...


Oct 31, 2018 - 10Q - Quarterly report which provides a continuing view of a company's financial position (http://ir.amd.com/static-files/5d8f42d4-c415-4926-ad94-df9b9392cd95)

On August 27, 2018, GF announced that it was putting its 7nm FinFET program on hold indefinitely. The Company is presently focusing the breadth of its 7nm product portfolio on Taiwan Semiconductor Co., Ltd.’s (TSMC) 7nm process. The Company is in discussion with GF to modify the WSA to align with GF’s new business strategy.

Und seit dem gibt es nichts neues. Und die Zahlungen sind auch weiter gelaufen. AMD ist und bleibt reiner Bittsteller in dieser Geschichte.

Edit: Und nur weil da steht, dass AMD mehr bei z.B. TSMC kaufen darf, steht da nicht, dass die Strafzahlungen die an anderer Stelle definiert wurden nicht gelten:


The Company’s total purchases from GF related to wafer manufacturing, research and development activities and other for the nine months ended September 29, 2018 and September 30, 2017 were $1.2 billion and $773 million, respectively. Included in the total purchases for the three and nine months ended September 29, 2018 were amounts related to the volume of certain wafers purchased from another wafer foundry, as agreed by the Company and GF under the WSA Sixth Amendment

Screemer
2019-01-02, 15:07:40
Ist klar. Deswegen gibt's auch diese explizite Formulierung im WSA oder hat die einen anderen Grund? AMD hat bis zu 90 Tage Zeit um neue Vereinbarungen mit glofo der sec vorzulegen.

BoMbY
2019-01-02, 15:17:59
Änderungen sind nur einvernehmlich möglich, und in der Regel heißt das gegen Zahlung von AMD, weil das WSA primär eine finanzielle Verpflichtung für AMD ist. Wenn es keine gütliche Einigung gibt, gibt es nur den Weg vor ein LCIA-Tribunal in London zu ziehen.

SKYNET
2019-01-02, 15:26:25
Änderungen sind nur einvernehmlich möglich, und in der Regel heißt das gegen Zahlung von AMD, weil das WSA primär eine finanzielle Verpflichtung für AMD ist. Wenn es keine gütliche Einigung gibt, gibt es nur den Weg vor ein LCIA-Tribunal in London zu ziehen.


quatsch, AMD muss garnix, aber goflo muss u.u. zahlen, da sie den vertrag nicht einhalten können und darum AMD eigentlich anspruch auf konventionalstrafe hat.

BoMbY
2019-01-02, 15:35:31
Oder auch in WSA Erweiterung 6 (https://www.sec.gov/Archives/edgar/data/2488/000000248816000263/wsaamendmentno6redacted.htm), Section 4:


b. In the event FoundryCo’s Actual Annual Revenue From AMD is less than the Annual Effective Revenue Floor, AMD shall make mitigation payments (“Mitigation Payments”) to FoundryCo, within [****] of the end of such fiscal year, equal to the following:

[...]

c. In the event AMD is unable to meet the requirements of Section 4(a) as a direct result of FoundryCo having insufficient capacity (as acknowledged in a writing by FoundryCo to AMD) and AMD had provided sufficient forecasting to allow FoundryCo a reasonable opportunity to prepare for the volume of Product ordered, or if FoundryCo had sufficient capacity in place to meet AMD’s Product requirements but informed AMD in writing that it allocated such capacity to other FoundryCo customers, then the Parties will engage in good faith discussions to adjust the Mitigation Payments to account for such unavailable capacity for the applicable time periods.

Nur wenn GloFo zustimmt muss AMD eventuell weniger zahlen ...

Unicous
2019-01-02, 15:59:03
Bomby versteht halt nicht was ein Amendment ist. ¯\_(ツ)_/¯


Der Second Sourcing Paragraph wurde afaik nach seit dem ursprünglichen WSA nicht verändert.

HOT
2019-01-02, 18:24:36
Wie auch immer, das behindert definitiv nicht AMDs 7nm-Produkte. Es ist eben glasklar, GloFo kann 7nm nicht liefern, also sind sie raus.

TheGood
2019-01-02, 19:59:56
Natürlich behindert das AMDs 7nm Produkte nicht. Warum sollte es auch.
Je nachdem wie man es interpretiert können sie die 7nm Kostenlos beziehen oder müssen ggf. noch eben was draufzahlen. Alles was unter Second Sourcing steht hat Priorität vor den ganzen anderen anhängen...

Das wichtigste habt ihr aber vergessen oder es ist bewusst ausgeklammert. die Fertigungsnode steht gar nicht drin, wer sagt also ob diese Agreement überhaupts für den 7nm Prozess gilt...

horn 12
2019-01-03, 16:03:21
Vega II in Anmarsch
Abverkauf der Restposten und man macht Platz für die Neuen Vegas.

https://www.overclockers.co.uk/sapphire-radeon-rx-vega-64-nitro-8gb-hbm2-pci-express-graphics-card-gx-38j-sp.html?utm_source=Overclockers+UK+Newsletter&utm_campaign=b0b00f512f-EMAIL_CAMPAIGN_2019_01_02_10_49&utm_medium=email&utm_term=0_77650efd85-b0b00f512f-219539949



https://www.overclockers.co.uk/sapphire-radeon-rx-vega-56-pulse-8gb-hbm2-pci-express-graphics-card-11276-02-40g-gx-38f-sp.html?utm_source=Overclockers+UK+Newsletter&utm_campaign=b0b00f512f-EMAIL_CAMPAIGN_2019_01_02_10_49&utm_medium=email&utm_term=0_77650efd85-b0b00f512f-219539949

Hakim
2019-01-03, 16:27:59
ähnliche Angebote gibts doch schon seit einer Weile. Unter Abverkauf verstehe ich was anderes als -2% oder -11%

Achill
2019-01-03, 16:29:47
Vega II in Anmarsch
Abverkauf der Restposten und man macht Platz für die Neuen Vegas.

https://www.overclockers.co.uk/sapphire-radeon-rx-vega-64-nitro-8gb-hbm2-pci-express-graphics-card-gx-38j-sp.html?utm_source=Overclockers+UK+Newsletter&utm_campaign=b0b00f512f-EMAIL_CAMPAIGN_2019_01_02_10_49&utm_medium=email&utm_term=0_77650efd85-b0b00f512f-219539949



https://www.overclockers.co.uk/sapphire-radeon-rx-vega-56-pulse-8gb-hbm2-pci-express-graphics-card-11276-02-40g-gx-38f-sp.html?utm_source=Overclockers+UK+Newsletter&utm_campaign=b0b00f512f-EMAIL_CAMPAIGN_2019_01_02_10_49&utm_medium=email&utm_term=0_77650efd85-b0b00f512f-219539949

Wäre schön wenn bald Navi oder Vega in 7nm kommen würden bzw. ein paar Infos dazu. Kann aber auch einfach in Vorbereitung auf die Vorstellung und Einführung der RTX 2060 sein ...

HOT
2019-01-03, 18:15:39
Vor allem, was will man bei Vega großartig abverkaufen? Da gibts doch sowieso nur kürzlich hergestellte Produkte, weil die nur recht kleine Kontingente verkaufen werden (wie war das? im Round-Robin-Verfahren an die Hersteller?) Da gibts sicherlich kaum Karten am Markt die älter als 4 Wochen sind schätze ich. Das ist i.Ü. auch der Grund, warum die Vega-Preise noch so hoch sind und stellenweise so stark schwanken. Wenn die ein neues Produkt bringen verkauft sich die letzte Charge automatisch ab, das wird man gar nicht merken preislich.

BlacKi
2019-01-03, 20:07:15
naja...
https://geizhals.de/powercolor-radeon-rx-vega-64-axrx-vega-64-8gbhbm2-3dh-a1664830.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk

Adam D.
2019-01-03, 20:24:45
Igor geht ja inzwischen sogar so weit, den (anscheinend) etwas chaotisch ablaufenden 2060/1160-Launch auf die Vorstellung neuer AMD-Produkte in 7nm zur CES zurückzuführen. Bin ehrlich gesagt doch überrascht, dass so zeitig von AMD was zu kommen scheint.

https://www.tomshw.de/2018/12/30/launchgefluester-zur-rtx-2060-und-der-gtx-1660-ti-mit-dem-tu116/

SKYNET
2019-01-04, 01:10:43
Igor geht ja inzwischen sogar so weit, den (anscheinend) etwas chaotisch ablaufenden 2060/1160-Launch auf die Vorstellung neuer AMD-Produkte in 7nm zur CES zurückzuführen. Bin ehrlich gesagt doch überrascht, dass so zeitig von AMD was zu kommen scheint.

https://www.tomshw.de/2018/12/30/launchgefluester-zur-rtx-2060-und-der-gtx-1660-ti-mit-dem-tu116/


machen sich alle derzeit pipi in die hosen wegen AMD... und jetzt kurz vor der CES kacken sich NV und Intel richtig ein, man kann sie sogar bis hier riechen, so stinken sie inzwischen vor angst ;D


überlege grad, schnell meine 1080Ti zu verkaufen :freak: :confused: so ne 16GB vega2 wäre schon klasse :redface:

Dural
2019-01-04, 10:35:52
Da kommt gar nichts, preislich wäre das für amd so wie so extrem schwirig damit überhaupt was zu verdienen.
Ein vega2 16gb dürfte im moment das dreifache + in der herstellung kosten als ein vega1 8gb!

Navi dürfte im frühjahr kommen.

HOT
2019-01-04, 10:38:03
Unsinn. V20 mit 2 Stacks wird das gleiche kosten etwa.

Dural
2019-01-04, 10:39:49
Nein.

basix
2019-01-04, 10:55:31
Wieso Vega, wenn Navi kommt? ;D

Complicated
2019-01-04, 12:18:17
Ein vega2 16gb dürfte im moment das dreifache + in der herstellung kosten als ein vega1 8gb!

Wohl eher umgekehrt, wenn du nicht das Design meinst. 7nm sind in der Herstellung günstiger als 14nm. Selbst mit 8GB HBM2 mehr. Die höheren Designkosten werden über die Stückzahlen immer günstiger...

mironicus
2019-01-04, 15:38:35
Vielleicht kommt ja beides. Eine Desktop-Variante der Vega 2 mit 16 GB HBM2 als Top Karte und die RX 3060/3070/3080 mit GDDR6 basierend auf Navi alles im Frühjahr.
Und den passenden Monitor mit Freesync 2 den es in der Art für Nvidia nicht gibt: https://www.computerbase.de/2019-01/samsung-crg9-49-zoll-monitor-hdr-120-hz/

Dann wäre ich schon mal auf die kommenden Diskussionen gespannt, ob man 16 GB VRAM benötigt, aber die nächsten Konsolen werden sicherlich auch in dem Bereich liegen...

Klevapalis
2019-01-04, 18:22:01
machen sich alle derzeit pipi in die hosen wegen AMD...
Durchaus möglich.

Vor Lachen.

Turing ohne RT/DL-Cores ist selbst in 12nm ein ziemlicher Todesstoß für die gesamte AMD-Produktpalette. Egal ob Vega oder Polaris, egal ob 14, 12 oder 7nm.

MadPenguin
2019-01-04, 18:39:00
Durchaus möglich.

Vor Lachen.

Turing ohne RT/DL-Cores ist selbst in 12nm ein ziemlicher Todesstoß für die gesamte AMD-Produktpalette. Egal ob Vega oder Polaris, egal ob 14, 12 oder 7nm.

Weil? Würde mich brennend interessieren. RT ist aktuell noch ein Rohrkrepierer. Die Nvidia Karten werden ohne RT auch nicht viel weniger kosten. Wenn Vega 20 einige Probleme von der ersten Generation ausbügelt, wäre die Karte super aufgestellt. Navi ist eine komplett neue Generation. Ich bin und bleibe gespannt :)

mczak
2019-01-04, 20:17:15
Turing ohne RT/DL-Cores ist selbst in 12nm ein ziemlicher Todesstoß für die gesamte AMD-Produktpalette. Egal ob Vega oder Polaris, egal ob 14, 12 oder 7nm.
Turing in der Hinsicht ist aber keinesfalls schlimmer für AMD als Pascal, ich bin sicher AMD ist erleichtert dass im Prinzip Turing ohne RT/DL (und andere Features) eigentlich eher ein Rückschritt ist.
Denn die Energieeffizienz ist mehr oder weniger identisch zu Pascal (insgesamt sind die neuen Karten etwas besser wegen leicht tieferem Takt).
Aber die Effizienz pro Fläche (oder Transistor) ist in Spielen sehr deutlich schlechter. Vergleiche doch mal die GTX 1080 (gp104, 314mm^2, 7.2 Mrd Transistoren) mit der RTX 2070 (tu106, 445mm^2, 10.8 Mrd Transistoren).
Das sind 42% mehr Fläche, 50% mehr Transistoren, und das ganze bringt etwa 10% mehr Geschwindigkeit (na gut wenn man den Taktnachteil ausgleichen würde wären es noch ~5% mehr). Die neuen SMs sind zwar deutlich effizienter pro SM (ich würde sagen in Spielen so um die 20%), waren aber eben alles andere als gratis zu haben.
Ein gp104 mit gddr6-Unterstützung wäre vermutlich geschwindigkeitsmässig praktisch gleichauf - klar der Chip würde da sicher minim grösser werden, und die GTX 1080 verhungert jetzt nicht gerade wegen zuwenig Bandbreite, aber 40% mehr Bandbreite (wie das die RTX 2070 gegenüber der GTX 1080 hat) könnten wohl schon etwa an die 10% Performance bringen.
Das gibt AMD im Prinzip die Chance mit Navi deutlich aufzuholen - ob sie das auch tun ist natürlich eine ganz andere Frage...

Dural
2019-01-04, 20:58:55
Ihr träumt von sachen, unglaublich.

Wie gross ist vega2? Sind doch um die 350mm2 + zwei zuzätzliche stack hbm + 8gb mehr speicher, die field dürften bei einem 350mm2 die noch unterirdisch sein, vega2 ist bis heute schlisslich nicht wirklich lieferbar (stückzahlen)

Das ding wird aktuell noch das 3x kosten, wer was anders behauptet hat schlicht keine ahnung. Selbst AMD hat mehrfach (!!!) gesagt das das ding für normale radeon desktop gamer karten zu teuer ist, aber man fantasiert lieber etwas zusammen...

https://www.3dcenter.org/news/der-7nm-prozess-verdoppelt-die-fertigungskoststen-auf-gleicher-chipflaeche


@mczak
Interessant das du schon wissen willst wie effizient turing ohne rt ist. Ich weis es jedenfalls nicht.

HOT
2019-01-04, 21:10:14
Kommt halt auf die Ausbeute an. Wie die bei V20 gut ist, ist der auch billiger. AMD bringt Chips eigentlich immer mit eher guter Ausbeute an den Markt. V20 hätte eben mehr Entwicklungskosten und weniger Produktionskosten bei gutem Yield. Entweder es gibt einen zusätzlichen Chip, der den Bereich abdeckt, oder AMD ist gezwungen V20 auch in den Consumermarkt zu bringen. V10 sollte nämlich besser früher als später EOL gehen.

Dural
2019-01-04, 21:12:24
Wenn 7nm für gamer karten sprich auch für grosse stückzahlen bezahlbar wäre, hätten wir turing nicht in 12nm.

Sunrise
2019-01-04, 21:34:05
Kommt halt auf die Ausbeute an. Wie die bei V20 gut ist, ist der auch billiger. AMD bringt Chips eigentlich immer mit eher guter Ausbeute an den Markt. V20 hätte eben mehr Entwicklungskosten und weniger Produktionskosten bei gutem Yield. Entweder es gibt einen zusätzlichen Chip, der den Bereich abdeckt, oder AMD ist gezwungen V20 auch in den Consumermarkt zu bringen. V10 sollte nämlich besser früher als später EOL gehen.
Die Ausbeute ist geradezu fantastisch, genauso wie eure Wunschträume.

Wenn hier jemand 7nm forciert, dann weil AMD gewusst hatte (das sollte dir eigentlich auch klar sein, wenn du dir mal die Events angeschaut hättest, aber nur mal so...), dass Ihnen 7nm vor allem Zeitvorteile und wieder Konkurrenzfähigkeit gibt, das ist aber bei GPUs derzeit nicht möglich, wenn man weiterhin >330mm^2 monolithisch produzieren muss, und Vega20 auch ohne Ende mit unnötigem Ballast für die Consumer-Zielgruppe aufgeblasen ist. Noch dazu HBM2, aber das ignoriere ich jetzt mal bewusst (ist sowieso schon lächerlich das vergleichen zu wollen). Das Ding ist rein für HPC bzw. den Profi-Markt gebaut und das bestätigten auch die seit über 2 Jahren geleakten Folien, nichts weiter. Vega bleibt eben Vega.

Wie Dural schon richtig geschrieben hat, ist es vollkommen ausgeschlossen, dass die Ausbeute besser ist als bei V10 auf 14nm bzw. bei NV auf 12nm. 7nm ohne EUV ist derzeit enorm komplex und unnötig teuer und AMD weiß genau warum sie Chiplets wollten, weil es nur Vorteile hat (außer vielleicht Latenzen, wissen wir noch nicht sicher).

Die Wirtschaftlichkeit könnten sie dann genauso gut aus dem Fenster werfen. AMD benötigt eine kleine aber performante GPU ohne Ballast im Massenmarkt bei maximal Polaris-Größe die auf 7nm entwickelt wurde und nicht wie Vega für HPC adaptiert, alles darüber wird zu teuer und hat keinen durchschlagenden Effekt, siehe die neue CPU-Strategie.

Wenn etwas Scheiße ist, dann baue ich das nicht nochmal, sondern entwerfe es neu und mache es richtig für die Zielgruppe.

mczak
2019-01-04, 22:26:19
@mczak
Interessant das du schon wissen willst wie effizient turing ohne rt ist. Ich weis es jedenfalls nicht.
Nun, meine Vermutung ist die Energieeffizienz bleibt genau gleich - nichtbenutzte Einheiten sollten bloss einen minimalen Einfluss auf den Stromverbrauch haben.
Wie's mit der Effizienz pro Transistor (oder Fläche) aussieht wenn man RT (allenfalls die Tensor Cores auch, ist mir jetzt da aufgrund der Leaks nicht klar) weiss ich natürlich auch nicht - aber um da nur schon dieselbe Effizienz zu erreichen wie Pascal müsste der Chip da eben massiv abspecken. Damit das aufgeht müsste so ungefähr 2/3 des Flächenzuwachs durch RT und Tensor Cores bedingt sein (oder anders gesagt insgesamt müssten diese Einheiten etwa 20% der Fläche ausmachen), was mir deutlich zu hoch erscheint - aber das ist in der Tat bloss eine Vermutung, da kann ich natürlich auch falsch liegen...
Ich bestreite auch gar nicht dass da AMD (zumindest bis Vega) noch hinten liegt - nur eben bezweifle ich sehr sehr stark dass Turing da wirklich die Führung ausgebaut hat.

robbitop
2019-01-04, 22:44:50
Sehe ich auch wie mczak. Einheiten die nicht genutzt werden verbrauchen praktisch keinen Strom. Power und Clockgating sind ein alter Hut.
Turing hat schon mehr Perf/W als Pascal.

Allerdings hängt es auch stark vom Betriebspunkt ab (Taktrate/Spannung) und auch vom Prozess. 12nm ist ja schon vorteilhaft ggü 16 nm.

gas3t
2019-01-04, 23:24:10
Ich verfolge das Thema ebenfalls mit Interesse und meines Erachtens nach wird AMD auf der CES folgendes ankündigen/vorstellen:

1. Ryzen 3000 (Technologie, Features) - Verfügbarkeit März/April 2019
2. Ryzen APU 3000 (Technologie, Features) - Verfügbarkeit März/April 2019
3. VEGA 7nm (Launch) - Verfügbarkeit Januar/Februar 2019
4. NAVI 7nm (Teaser) - offizieller Launch zur Computex Mai/Juni 2019

Folgendes Schaubild würde das unterstützen:
https://news.mynavi.jp/photo/article/20190104-750800/images/012l.jpg

Und passend zum Thread meine Einschätzung für das Portfolio bis Juni`19:
VEGAII 64 @ ~1500/1800 MHz (Base/Boost), 16GB HBM@1000MHz, LP 799 €
VEGAII 56 @ ~1450/1750 MHz (Base/Boost), 8GB HBM@1000MHz, LP 599 €
VEGAI 64 @ ~1256/1630 MHz (Base/Boost), 8GB HBM@945MHz, LP 499 €*
VEGAI 56 @ ~1147/1590 MHz (Base/Boost), 8GB HBM@800MHz, LP 399 €*
RX590 @ ~1470/1545 MHz (Base/Boost), 8GB GDDR5, LP 299 €*


* Quelle zu den technischen Daten der VEGA und RX590:
www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/
www.computerbase.de/2018-11/amd-radeon-rx-590-test/

Der_Korken
2019-01-05, 00:35:16
VEGAII 64 @ ~1500/1800 MHz (Base/Boost), 16GB HBM@1000MHz, LP 799 €
VEGAII 56 @ ~1450/1750 MHz (Base/Boost), 8GB HBM@1000MHz, LP 599 €

Wie will AMD solche Preise rechtfertigen? Für 800€ muss das Teil mindestens so schnell wie eine 2080 sein (diese kann ja zusätzlich noch RT), welche 40% vor einer V64 liegt. Das werden die 15-20% Takt nicht reißen. Und große Leistungssteigerungen der CUs selbst sind für V20 ziemlich unwahrscheinlich, weil bereits bekannt ist, dass kaum Transistoren dazukommen, die außerdem schon für 1:2 DP und einige DL-Features draufgehen dürften. Und 16GB kann man direkt vergessen für den Preis. Die "Vega2 56" wäre vielleicht noch denkbar, aber nur wenn sie die 2070 knackt, sonst ist die 2070er der bessere Deal.

stinki
2019-01-06, 14:28:39
Falls ein Vega20 für den Consumerbereich kommen sollte, dann wird AMD versuchen ihn möglichst günstig in der Herstellung zu machen. Deshalb wird es nur Salvage Varianten des Chips geben um den Yield von Vega20 zu maximieren. Im Profibereich haben wir 64 und 60 CUs. Im Consumerbereich rechne ich mit maximal 60 (oder 56) für die große Variante und ca. 52 (oder 48) für die kleine Variante, alles abhängig vom Binning und dem Yield. Die kleinere Variante hätte wahrscheinlich 8GB (2 HBM Chips) und eine Performance wie RTX2060 und die größere auch nur entweder 8GB oder 12GB (2 oder 3 HBM Chips) und Performace wie RTX2070. Die Taktraten dann entsprechend der Anzahl der CUs um auf die benötigte Performance zu kommen. Preise würde ich die gleichen wie bei RTX2070 und RTX2060 erwarten.

Complicated
2019-01-06, 21:26:12
dann wird AMD versuchen ihn möglichst günstig in der Herstellung zu machen. Deshalb wird es nur Salvage Varianten des Chips geben um den Yield von Vega20 zu maximieren.
Das ergibt Null Sinn. Ein teil-defekter Chip kostet genau das selbe in er Herstellung wie ein voll funktionsfähiger. Nur wird er billiger Verkauft um die Chips nicht in den Müll wandern zu lassen. NUR Salvage Chips machen überhaupt nichts günstiger oder maximieren die Yields. Was macht man denn mit den voll funktionierenden Chips?

Der_Korken
2019-01-06, 22:16:20
Das ergibt Null Sinn. Ein teil-defekter Chip kostet genau das selbe in er Herstellung wie ein voll funktionsfähiger. Nur wird er billiger Verkauft um die Chips nicht in den Müll wandern zu lassen. NUR Salvage Chips machen überhaupt nichts günstiger oder maximieren die Yields. Was macht man denn mit den voll funktionierenden Chips?

Das kommt ganz darauf an, wie die Ausbeute von V20 ausfällt. Da die Profikarten die größte Marge haben, will man da möglichst die 64CU-Chips und am besten auch noch gute Bins verwenden, um die Karten so effizient wie möglich zu bekommen. Wenn aber viele Chips teildefekt sind, müssen die auch irgendwie verkauft werden, z.B. als Gamingkarten. Wenn die Yields schon sehr gut sind, dann hast du Recht, aber das darf man bei einem nagelneuen Prozess erstmal bezweifeln.

BlacKi
2019-01-06, 22:38:55
kommt auf die yields an oder? wenn genug da sind könnte man beide chip varianten verkaufen, wenn nicht genug da sind nur salvage. like titans.

das rechnet sich aber nicht, wenn es wirklich nur ein paar sind. das werden mehr sein als nur ein paar reste wenn der consumer markt bedient werden soll.

Complicated
2019-01-07, 07:39:02
Wenn in großen Chips Redundanzen verbaut werden ist das etwas anderes als eine Salvage Strategie. Salvage gibt es nur wenn es auch einen Vollausbau gibt, wovon man eben ein Salvage Modell anbieten kann.
Daher ergibt NUR Salvage anzubieten keinen Sinn.

Mangel76
2019-01-07, 09:34:12
Wenn in großen Chips Redundanzen verbaut werden ist das etwas anderes als eine Salvage Strategie. Salvage gibt es nur wenn es auch einen Vollausbau gibt, wovon man eben ein Salvage Modell anbieten kann.
Daher ergibt NUR Salvage anzubieten keinen Sinn.

Naja, ähnlich macht es NVIDIA ja auch, den TU102 gibt es auf professionellen Karten (inkl. Titan, aber ne Karte für 2700 zähle ich nicht wirklich als Consumer-Karte). Gehen die besten V20 in die professionellen Karten, können die schlechteren auch noch verkauft werden.

Das ergibt Null Sinn. Ein teil-defekter Chip kostet genau das selbe in er Herstellung wie ein voll funktionsfähiger. Nur wird er billiger Verkauft um die Chips nicht in den Müll wandern zu lassen. NUR Salvage Chips machen überhaupt nichts günstiger oder maximieren die Yields. Was macht man denn mit den voll funktionierenden Chips?

Ein teildefekter Chip kostet natürlich auch, die Kosten sind jedoch bereits entstanden (sunk cost zum Zeitpunkt der Qualitätsprüfung). Du sagst ja selbst, dass die dann nicht in den Müll wandern, wenn man sie verkaufen kann. Damit verringern sich dann nämlich die Durchschnittskosten pro verwertbarem Chip! Warum also nicht? Voll funktionierende Chips werden natürlich dort verkauft, wo sie die meiste Marge bringen.

Ist doch ziemlich einfach: über den Preis der Salvage-Versionen kann die Nachfrage der Rate der teildefekten Chips angepasst werden. Hat man gute Yieldraten, setze ich den Preis für die Salavageprodukte höher an, bei vielen teildefekten Chips entsprechend etwas niedriger.

Viel schwieriger finde ich da das Vorgehen von NVIDIA. Die verkaufen z.B. den Vollausbau des TU106 als 2070 und die Salvagevariante als 2060 mit einer wohl deutlich größeren Stückzahl. Entweder haben sie wirklich eine sehr miese Yieldrate oder sie müssen hier massenweise vollfunktionsfähige GPUs als günstigere Salvagevariante verkaufen.

(Andererseits kann man es natürlich auch so sehen: TU106 wird im Vollausbau eine Etage höher verkauft als seine eigentliche Preiskategorie. Damit wäre dies die maximale Abzocke ;D)

Digidi
2019-01-07, 09:43:32
Viel schwieriger finde ich da das Vorgehen von NVIDIA. Die verkaufen z.B. den Vollausbau des TU106 als 2070 und die Salvagevariante als 2060 mit einer wohl deutlich größeren Stückzahl. Entweder haben sie wirklich eine sehr miese Yieldrate oder sie müssen hier massenweise vollfunktionsfähige GPUs als günstigere Salvagevariante verkaufen.




Die Yields können beim Tu106 (445 mm²) nicht so schlecht sein. Die sollten eigentlich besser sein als bei der GTX 1080ti (471 mm² ) damals.

Mangel76
2019-01-07, 10:30:41
Die Yields können beim Tu106 (445 mm²) nicht so schlecht sein. Die sollten eigentlich besser sein als bei der GTX 1080ti (471 mm² ) damals.

Umso schlimmer, dann ist die "Verschwendung" ja umso größer :freak:

basix
2019-01-07, 18:30:27
Naja, vermutlich hat TU106 deutlich höhere Stückzahlen als GP102. Da macht eine Salvage Version sehr viel Sinn (absolut gesehen höhere Beträge, welche man aufgrund Salvage nicht abschreiben muss). Verschwendung in dem Sinn ist es ja nicht. Es könnten halt nur mehr 2070er produziert werden, welche dann aber aufgrund des höheren Preises nicht so viele Leute kaufen würden. Hier das Maximum an Umsatz und Profit aus den gefertigten Chips herauszuholen ist immer das Ziel. Das nennt man dann Produktpolitik ;)

Linmoum
2019-01-08, 19:16:24
Kommt drauf an, was V20 leistet. Eine 2080er sollte man mit Takt erreichen können. Eine 2080 Ti wird schwer aber wer weiss Ist sie hypothetisch gesehen schneller als eine 2080 Ti wäre das doch genau das einzig richtige, was AMD machen kann. Wann hatten sie zuletzt das King-of-the-Hill Produkt? Und dann noch inkl. 16GB anstatt 11/12GB? Aber eben, rein hypothetisch gesehn. Morgen wissen wir mehr.
Mal in den richtigen Thread packen.

Angenommen, V20 schafft ~1900Mhz. Wie will man damit eine 2080 schlagen? Eine Liquid mit >1500MHz hat schon gute 30% Rückstand auf eine 2080. Takt skaliert zudem nicht 1:1. Nur über den Takt würde man auch keine 2080 knacken, selbst mit 2GHz wäre das eher unwahrscheinlich.

Ich bezweifle, dass 7nm schon so gut laufen, dass man V20 zusätzlich noch für den Desktop entbehren kann, zudem noch Rome und Ryzen hat. Von Navi im Laufe des Jahres ganz zu schweigen. Da ergibt ein V20 Null Sinn, es sei denn, der kann klar eine 2080 schlagen. Aber da müssten sie schon den hornschen Wundertreiber entdeckt haben.

Der_Korken
2019-01-08, 19:59:23
Ich frage mich gerade, ob diese ganzen ominösen "Navi"-Chips mit N1x-Bezeichnung nicht eventuell unter dem Label Vega 2 verkauft werden, weil sie sich technisch kaum von Vega 1 unterscheiden, nur eben in sparsam durch 7nm. Navi wäre dann der Name für eine neue Architektur, irgendwann 2020.

mboeller
2019-01-08, 20:55:11
Ich frage mich gerade, ob diese ganzen ominösen "Navi"-Chips mit N1x-Bezeichnung nicht eventuell unter dem Label Vega 2 verkauft werden, weil sie sich technisch kaum von Vega 1 unterscheiden, nur eben in sparsam durch 7nm. Navi wäre dann der Name für eine neue Architektur, irgendwann 2020.

Sehe ich ähnlich. Navi ist ja nur der interne Code-Name und nicht der Marketing-Name für die neue GPU-Reihe.

Navi = VEGA II (IMHO), das hat nix mit Vega20 zu tun.

dargo
2019-01-08, 21:14:55
Sehe ich ähnlich. Navi ist ja nur der interne Code-Name und nicht der Marketing-Name für die neue GPU-Reihe.

Navi = VEGA II (IMHO), das hat nix mit Vega20 zu tun.
Na hoffentlich. V20 hat auch zu viel unnötigen Balast für eine Consumer-GPU.

Pirx
2019-01-08, 21:30:55
und bringt für Spieler kaum was ggü. Vega "alt"

Felis silvestris
2019-01-09, 01:21:33
Ich frage mich gerade, ob diese ganzen ominösen "Navi"-Chips mit N1x-Bezeichnung nicht eventuell unter dem Label Vega 2 verkauft werden, weil sie sich technisch kaum von Vega 1 unterscheiden, nur eben in sparsam durch 7nm. Navi wäre dann der Name für eine neue Architektur, irgendwann 2020.
Den Gedanken hatte ich auch schon das sie einfach den Nachfolger von Vega eben Vega II nennen, unabhängig vom Codenamen der verwendeten GPU. "Navi" klingt zumindest im deutschen Sprachraum eher nach "wenn möglich und erlaubt bitte wenden!":freak: und nicht nach einer GPU. Ich hoffe wirklich das es in dem Fall dann etwas mehr als "Vega in 7nm mit vielleicht GDDR6 statt HBM" wird.

Palpatin
2019-01-09, 09:48:11
Mal in den richtigen Thread packen.

Angenommen, V20 schafft ~1900Mhz. Wie will man damit eine 2080 schlagen? Eine Liquid mit >1500MHz hat schon gute 30% Rückstand auf eine 2080. Takt skaliert zudem nicht 1:1. Nur über den Takt würde man auch keine 2080 knacken, selbst mit 2GHz wäre das eher unwahrscheinlich.

Ich bezweifle, dass 7nm schon so gut laufen, dass man V20 zusätzlich noch für den Desktop entbehren kann, zudem noch Rome und Ryzen hat. Von Navi im Laufe des Jahres ganz zu schweigen. Da ergibt ein V20 Null Sinn, es sei denn, der kann klar eine 2080 schlagen. Aber da müssten sie schon den hornschen Wundertreiber entdeckt haben.
Kommt halt wirklich drauf an wie gut 7nm läuft und ob man vega mit GDDR6 koppelt bzw HBM2 mittlerweile günstig geworden ist. Zwischen 2070 und 2080 RTX wäre sowohl preislich als auch von der Leistung genung Luft um eine Karte zu plazieren. Leistung auf oder oberhalb der 2080 ist von AMD 2019 eher nicht zu erwarten.

Dural
2019-01-09, 10:21:30
Ihr wisst aber schon das Vega2 mit einer 300W TDP schon vorgestellt wurde? :rolleyes:

SKYNET
2019-01-09, 11:04:21
Kommt halt wirklich drauf an wie gut 7nm läuft und ob man vega mit GDDR6 koppelt bzw HBM2 mittlerweile günstig geworden ist. Zwischen 2070 und 2080 RTX wäre sowohl preislich als auch von der Leistung genung Luft um eine Karte zu plazieren. Leistung auf oder oberhalb der 2080 ist von AMD 2019 eher nicht zu erwarten.

ehm, die professionelle lösung(MI60) der vega 7nm hat schon 1800MHz...

und in anbetracht der tatsache das ne vega 56 mit 1700MHz schon ne 2070 alt aussehen lässt... den rest kannst selber zusammen zählen, 1+1 und so... ;)

Rancor
2019-01-09, 11:09:00
also ob ne VEGA 56 ne 2070 "ALT" aussehen lässt. Unter alt aussehen lassen verstehe ich was anders als ein paar Frame Vorsprung. Und ne VEGA 56 muss erstmal 1700MHZ machen.

dildo4u
2019-01-09, 11:13:02
ehm, die professionelle lösung(MI60) der vega 7nm hat schon 1800MHz...

und in anbetracht der tatsache das ne vega 56 mit 1700MHz schon ne 2070 alt aussehen lässt... den rest kannst selber zusammen zählen, 1+1 und so... ;)
Du kannst die 1800 nicht als gegeben nehmen,AMD gibt Vega 64 mit 1.5Ghz Boost an.Was nix mit dem tatsächlichen Takt innerhalb der 300 Watt zu tun hat.
Das ist nicht wie bei Nvidia wo der tatsächliche Boost Takt meist über der Angabe von Nvidia liegt.

Felis silvestris
2019-01-09, 11:15:55
Ihr wisst aber schon das Vega2 mit einer 300W TDP schon vorgestellt wurde? :rolleyes:
Echt? Wo? Wann? Wie? Link?
Mein Stand 09.11.2019 um 11 Uhr ist nur eine AMD Radeon Instinct MI50 und MI60 mit Vega20 GPU welche schon im Dezember vorgestellt wurde.
Das eine Vega 2 oder II Grafikkarte bereits vorgestellt wurde ist mir nicht bekannt ich bin aber auch bissi verplant manchmal. :freak:;D
Sollte aber so eine Vega2 vorgestellt werden und auf so einer Vega20 GPU basieren wäre es für mich aber wirklich uninteressant. Weil der ganze DP und Int4/8 Balast welchen man für Spiele nicht braucht nur den Stromverbrauch wieder in die Höhe treibt. Es sei denn sie haben einiges geändert damit Games effektiver laufen.

SKYNET
2019-01-09, 11:29:34
also ob ne VEGA 56 ne 2070 "ALT" aussehen lässt. Unter alt aussehen lassen verstehe ich was anders als ein paar Frame Vorsprung. Und ne VEGA 56 muss erstmal 1700MHZ machen.

aha, wenn AMD nur ein "paar" frames vorsprung hat, isses nix, bei NV wird aber grad gefeiert... :rolleyes:


ich glaub ich fange wieder mit kiffen an, dann wirds hier evtl. wieder erträglich...

dargo
2019-01-09, 18:49:27
Es kommt doch eine Radeon Vega II für Gamer mit 16GB HBM2 und bis zu 42% schneller als Vega64. Endlich hat AMD auch den Referenzlüfter überarbeitet. Referenzdesign mit 3 Lüftern.

Edit:
Gleiche bis schnellere Performance als RTX 2080 bei ~300W wenn ich es richtig verstanden habe.

Loeschzwerg
2019-01-09, 18:53:34
Da sind die Folien:
https://www.anandtech.com/show/13828/the-amd-keynote-at-ces-2019-live-blog-looking-ahead-starts-9am-pt-5pm-utc

---

Also ein Salvage Vega20 mit den 60CUs?

Edit: Und bei gleicher TDP hätte ich lieber wieder einen DHE Kühler, den fand ich jetzt nicht so schlecht :D

Edit2: Für 699USD

Dural
2019-01-09, 19:05:46
Die bringen tatsächlich einen HPC chip als gaming produkt auf den markt, für mich völlig unverständlich.

Leistung sicher etwas unter 2080 bei deutlich höheren herstellungskosten + 300W TDP - RT. Kann ich überhaupt nicht nachvollziehen, für rund 800.- oder was es kosten wird, wird das ding nur sehr wenige spezielle kunden ansprechen.

Wo bleibt navi???

Loeschzwerg
2019-01-09, 19:11:53
Hier sollte alles zu Radeon VII zusammengefasst sein (wenn der Link mal geht):
https://www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699

Linmoum
2019-01-09, 19:13:35
7nm muss echt richtig gut laufen. Nicht nur V20 für den Desktop, sondern das ganze schon Anfang Februar.

Not bad.

Dural
2019-01-09, 19:15:23
Ja richtig gut, das ding kommt ja erst im juli 2019...

Linmoum
2019-01-09, 19:19:01
Was kommt im Juli? V20 für den Desktop kommt am 7. Februar.

HOT
2019-01-09, 19:19:31
Die bringen tatsächlich einen HPC chip als gaming produkt auf den markt, für mich völlig unverständlich.

Leistung sicher etwas unter 2080 bei deutlich höheren herstellungskosten + 300W TDP - RT. Kann ich überhaupt nicht nachvollziehen, für rund 800.- oder was es kosten wird, wird das ding nur sehr wenige spezielle kunden ansprechen.

Wo bleibt navi???

16GB

Dural
2019-01-09, 19:20:43
Da steht klar juli

https://www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699

dildo4u
2019-01-09, 19:21:32
Da steht klar juli

https://www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699
US Schreibweise.

Linmoum
2019-01-09, 19:22:37
US Schreibweise.

;D ;D ;D

Loeschzwerg
2019-01-09, 19:24:05
7nm muss echt richtig gut laufen. Nicht nur V20 für den Desktop, sondern das ganze schon Anfang Februar.

Not bad.

Naja, Resteverwertung :D Ist OK, aber Navi wäre mir lieber gewesen.

Daredevil
2019-01-09, 19:24:53
Radeon VII kommt ja auch mit PCIe 4.0, das könnte nochmal n guten Push geben mit der neuen Ryzen Plattform. :)

Dural
2019-01-09, 19:25:49
US Schreibweise.

Was auch logisch wäre... :freak:

Das ding ist gekauft.

Linmoum
2019-01-09, 19:26:03
Naja, Resteverwertung :D Ist OK, aber Navi wäre mir lieber gewesen.
Klar aber schon Anfang Februar ist dann doch erstaunlich.

Loeschzwerg
2019-01-09, 19:29:01
Ja, man verliert zumindest nicht ganz den Anschluss zu NV und bietet mit den 16GB auch Argumente. Passt schon.

Dural
2019-01-09, 19:29:03
Da muss man fragen was mit navi ist, müsste somit ja auch bald kommen.

Und vorallem brutale bandbreite ;)

nordic_pegasus
2019-01-09, 19:29:29
nur ein Salvage Chip (ob vielleicht eine Frontier Edition mit 64CU kommt?) und (wahrscheinlich) kein HDMI 2.1... schade.

w0mbat
2019-01-09, 19:29:46
Da steht klar juli

https://www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699
Schau dir mal den Link an den du da postest...

"amd-radeon-vii-high-end-7nm-february-7th-for-699"

Merkst du was? :D

Dural
2019-01-09, 19:32:24
Ja ist gut, hab es einfach übersehen. Wahrscheinlich weil ich so überrascht war. :freak:

Für 699,- kann man nix sagen, amd wird zwar kaum was dran verdienen aber das kann uns ja egal sein ;)

AffenJack
2019-01-09, 19:40:28
Laut Anandtech ist AMDs offizielle Performanceaussage:

AMD says that the Radeon VII should beat their former flagship by anywhere between 20% and 42% depending on the game (with an overall average of 29%)"]AMD says that the Radeon VII should beat their former flagship by anywhere between 20% and 42% depending on the game (with an overall average of 29%)

Also geschätzt 5% hinter der 2080, dafür doppelter Ram.

Der_Korken
2019-01-09, 19:43:35
Finde die 25% more performance at the same power immer noch extrem underwhelming für 7nm. Hat ein Full Node schon mal so wenig gebracht? Sieht stark nach Taktung an der Kotzgrenze aus. 699$ hauen mich jetzt auch nicht um, das ist P/L-mäßig in Turing-Gefilden. Naja, AMD muss sich leider irgendwie durchschleppen bis zur nächsten µArch ...

Edit: @Affenjack: Die 2080 ist knapp 40% vor der V64. Also eher 10 als 5% Rückstand für die VII.

mironicus
2019-01-09, 19:44:23
Das ist halt nur ein Die-Shrink, erst mit Navi kommt eine Karte die wohl ähnlich schnell ist bei deutlich weniger Stromverbrauch.
Bei einigen Anwendungen war ja von bis zu 60% höhere Geschwindigkeit gegenüber Vega 64 die Rede.
Die 1 TB Speichertransfer könnte interessant für Ultra HD-Gaming sein.

dildo4u
2019-01-09, 19:45:46
Ist ein Salvagepart die vollen 64CU könnten langsamer Takten und hätten vermutlich eine besser Effienz. Aber Yields lassen den vollen Chip für 700€ vermutlich nicht zu.

AffenJack
2019-01-09, 19:50:31
Edit: @Affenjack: Die 2080 ist knapp 40% vor der V64. Also eher 10 als 5% Rückstand für die VII.

Vs FE ja, aber FE kostet auch 100$ mehr. Gegen die langsameren Modelle eben die 5% langsamer bei gleichem Preis, aber doppelten Ram.

Das ist halt nur ein Die-Shrink, erst mit Navi kommt eine Karte die wohl ähnlich schnell ist bei deutlich weniger Stromverbrauch.
Bei einigen Anwendungen war ja von bis zu 60% höhere Geschwindigkeit gegenüber Vega 64 die Rede.
Die 1 TB Speichertransfer könnte interessant für Ultra HD-Gaming sein.

Ist eben die Frage wie oft man Speicher und nicht Shaderlimitiert ist. Man hat gerade mal 9% mehr Tflops als V64.

Daredevil
2019-01-09, 19:54:07
Finde die 25% more performance at the same power immer noch extrem underwhelming für 7nm.
Jo, das stimmt wohl, zumal Apple halt in 7nm total freidreht und beim iPad z.B. doppelt so hohe MT performance zaubert.
Aber vielleicht will man ja nun auch nicht alles beim ersten mal verschießen bzw. man hat halt seine Roadmap mit dem Tick-Tock.

Vega ist ja immer noch keine Gaming Architektur, in manchen Games ist sie ja laut AMD 42% schneller, also Potential ist ja da.
In dem OpenCL Kram waren es ja irgendwas mit 6x%.

Navi ist halt die Gaming Karte, diese nicht.
Aber es ist halt, wie bei Vega auch, ein sehr netter Fanservice.

Zudem, lassen wir uns mal überraschen, was die Preise wirklich sagen. ;)

bananaMonkey
2019-01-09, 19:54:26
Fürs Gaming für manche bestimmt interessant.

Aber aus der Sicht von Simulanten: Ab Anfang Februar ~6,7 TF FP64 mit 1 TB/s 16 GB HBM für grob 700€ Hammer! Das ist doch sofort ausverkauft?!

Dural
2019-01-09, 19:55:23
Hat sie den so viel FP64?

mczak
2019-01-09, 19:55:24
Ja das mit RTX 2080 Geschwindigkeit kommt mit 25% schneller gegenüber Vega 64 nicht hin, die meisten Reviews liegen da eher so bei 35%-40% Vorsprung der RTX 2080 gegenüber Vega 64.
Das ist natürlich nicht so super, hat ja auch wieder deutlich höheren Stromverbrauch, aber halt das beste was AMD pre-Navi bieten kann, deswegen macht man das wohl auch. Ich teile übrigens die Einschätzung bei anandtech nicht dass Vega 64 ROP und bandbreitenlimitiert war, wenn man da bei mehr als Verdoppelung auch bloss 15% oder so zusätzliche Performance rausholt. Aber klar jetzt ist die Karte jedenfalls sicher nicht mehr bandbreitenlimitiert, egal ob die Architektur bandbreitenschonend ist oder nicht :biggrin:.

Daredevil
2019-01-09, 19:57:03
Bei Vega hat aber doch HBM OC mehr gebracht als GPU OC. Wenn man nun 1TB/s hat und das mit PCIe 4.0 kombiniert. Ist ein starkes Gerät, ja nicht nur für Gamer.

Linmoum
2019-01-09, 19:57:33
@dargo wird wahrscheinlich bei seiner Vega64 LC bleiben, aber alle anderen dürfen hier fröhlich zugreifen und von UV berichten. :D

Wenn man das Ding bei 250W in die Nähe der großen 2 vorne kriegt, wäre das sehr lecker.

Troyan
2019-01-09, 19:57:46
Warum reden hier alle, dass Navi "Gaming" wäre? Vega@7nm hat gerade mal 3,2% mehr Transistoren gegenüber Vega@14nm.

Wieviel besser soll denn Navi mit GDDR6 werden?! Eher sieht das ganze richtig schlecht aus, da AMD noch mehr Aufwand betreiben muss, um irgendwie auch nur in die Nähe von Pascal zu kommen...

gravitationsfeld
2019-01-09, 19:59:16
Wer sagt dass Navi GDDR6 hat?

Der_Korken
2019-01-09, 20:02:15
Bei Vega hat aber doch HBM OC mehr gebracht als GPU OC. Wenn man nun 1TB/s hat und das mit PCIe 4.0 kombiniert. Ist ein starkes Gerät, ja nicht nur für Gamer.

Es könnte sein, dass bei Vega nicht der Durchsatz zum Speicher limitiert hat, sondern die Latenzen. Die werden durch VRAM-OC ja ebenfalls besser. In dem Fall hätte die GPU lieber größere Caches als doppelten Speicherdurchsatz gebraucht.

Dural
2019-01-09, 20:02:21
Wer sagt dass Navi GDDR6 hat?

Was sollte navi sonst haben?

fondness
2019-01-09, 20:04:35
Hat sie den so viel FP64?

Der Chip kann definitiv 1:2 DP, ob es bei der Desktop-Version aktiv ist, ist natürlich nochmal eine andere Frage.

fondness
2019-01-09, 20:05:34
Finde die 25% more performance at the same power immer noch extrem underwhelming für 7nm.

Der Vergleich hinkt allerdings schon, da es kein reiner Shrink ist sondern diverse Sache dazugekommen sind, die natürlich den Stromverbrauch erhöhen (DP1:2, PCIe4.0, IF, doppelt so viel Speicher, Speichercontroller, Interface), zudem sicher Taktung bis man die 300W erreicht hat. Außerdem nur Salvage. :)

w0mbat
2019-01-09, 20:06:56
Warum reden hier alle, dass Navi "Gaming" wäre? Vega@7nm hat gerade mal 3,2% mehr Transistoren gegenüber Vega@14nm.

Wieviel besser soll denn Navi mit GDDR6 werden?! Eher sieht das ganze richtig schlecht aus, da AMD noch mehr Aufwand betreiben muss, um irgendwie auch nur in die Nähe von Pascal zu kommen...
Hä :confused:

Ich glaube du stehst gerade dick auf dem Schlauch :freak:

HOT
2019-01-09, 20:07:16
Was sollte navi sonst haben?

HBM? GDDR6 ist ebenfalls recht teuer und HBM dürfte im Vergleich immer billiger werden, weil immer mehr Kapazitäten darauf verwendet werden.


Ob V10 in 12nm refresht wird als VI? Ist doch sehr naheliegend. Man wartet sicherlich nur auf HBM mit 2,4GHz. Da würds ja auch reichen, wenn man den nur mit 60 CUs bringt, passt doch gut. Gleichzeitig hält man GloFo im Geschäft und man hat keine Kosten zusätzlich.

Troyan
2019-01-09, 20:09:22
Hä :confused:

Ich glaube du stehst gerade dick auf dem Schlauch :freak:

Nö. Navi muss deutlich überarbeitet werden, um irgendwie auch nur konkurrenzfähig gegenüber Pascal zu sein. GP104 ist 317mm^2 groß und nach AMDs Benchmarks 20% langsamer bei 50% geringerem Stromverbrauch.

Was soll Navi liefern? GTX1070 Leistung für 300€ bei 200W?

mironicus
2019-01-09, 20:09:30
Vielleicht kann man den Chip auf 2 GHz hochtakten. Bin schon gespannt auf Tests.

Daredevil
2019-01-09, 20:12:31
Wie im übrigen erhofft wird Radeon 7 wohl eine verdammt gute Figur abgeben können in Miningrelevanten Szenarien aufgrund des sehr schnellen HBM2.

w0mbat
2019-01-09, 20:13:13
Nö. Navi muss deutlich überarbeitet werden, um irgendwie auch nur konkurrenzfähig gegenüber Pascal zu sein. GP104 ist 317mm^2 groß und nach AMDs Benchmarks 20% langsamer bei 50% geringerem Stromverbrauch.

Was soll Navi liefern? GTX1070 Leistung für 300€ bei 200W?
Navi ist eine neue Architektur für Gaming-GPUs, Vega ist eine HPC-Architektur.

Nochmal, du stehst dick auf dem Schlauch ;D

Der_Korken
2019-01-09, 20:14:02
Ich frage mich gerade, warum AMD tatsächlich auf vier Stacks HBM setzt, wo hier noch mit zweien spekuliert wurde. Wären 3 Stacks mit 12GB und 768GB/s nicht mehr als ausreichend gewesen, wenn die GPU eh nur knapp 30% zulegt? Da hätte man nochmal 50$ runtergehen können mit dem Preis, ohne Marge zu opfern.

bananaMonkey
2019-01-09, 20:16:40
Der Chip kann definitiv 1:2 DP, ob es bei der Desktop-Version aktiv ist, ist natürlich nochmal eine andere Frage.
Nagut stimmt, man muss wohl eher davon ausgehen dass auf 1/16 reduziert wird. Wäre auch zu schön sonst :frown:

Brillus
2019-01-09, 20:17:27
Ich frage mich gerade, warum AMD tatsächlich auf vier Stacks HBM setzt, wo hier noch mit zweien spekuliert wurde. Wären 3 Stacks mit 12GB und 768GB/s nicht mehr als ausreichend gewesen, wenn die GPU eh nur knapp 30% zulegt? Da hätte man nochmal 50$ runtergehen können mit dem Preis, ohne Marge zu opfern.
Evtl. ROPs die hängen doch oft nahe am Speicherinterface, vielleicht hätte man dann welche mit deaktiviert und hätte da limitiert oder um den 16GB Vorteil zu haben.

Dural
2019-01-09, 20:17:36
Die vier waren doch immer klar, herstellungs-technisch einfach einfacher ;)

NV hat bei ihren 12gb karten ja auch 4 drauf.

Troyan
2019-01-09, 20:17:48
Ich frage mich gerade, warum AMD tatsächlich auf vier Stacks HBM setzt, wo hier noch mit zweien spekuliert wurde. Wären 3 Stacks mit 12GB und 768GB/s nicht mehr als ausreichend gewesen, wenn die GPU eh nur knapp 30% zulegt? Da hätte man nochmal 50$ runtergehen können mit dem Preis, ohne Marge zu opfern.

Prestige-Objekt. Das ganze ist kein wirtschaftliches Produkt. Weniger macht auch kein Sinn, da eine GTX1080TI von vor zwei Jahren schon 11GB hatte und die Karte hier kaum besser ist...

dildo4u
2019-01-09, 20:17:58
Ich frage mich gerade, warum AMD tatsächlich auf vier Stacks HBM setzt, wo hier noch mit zweien spekuliert wurde. Wären 3 Stacks mit 12GB und 768GB/s nicht mehr als ausreichend gewesen, wenn die GPU eh nur knapp 30% zulegt? Da hätte man nochmal 50$ runtergehen können mit dem Preis, ohne Marge zu opfern.
Das Ding ist u.a auch für VFX Produzenten gedacht,dafür ist das Mega "billig" da man beim Nvidia 2500€ für mehr als 11GB zahlen müsste.

dargo
2019-01-09, 20:18:29
Vielleicht kann man den Chip auf 2 GHz hochtakten. Bin schon gespannt auf Tests.
Kann man vermutlich schon. Nur ob dann jeder mit den 400-450W leben will bezweifle ich. ;)

HOT
2019-01-09, 20:18:49
Navi könnte ausschließlich Konsole sein. 40CUs würde auch zur 7nm-Konsolen-Generation gut passen. Da gibts vielleicht gar keine Desktop-GPUs von. Kommt mir einfach so vor, als würde AMD alles auf die neue GPU-Generation nach GCN konzentrieren. Das passt einfach gut.

Linmoum
2019-01-09, 20:20:15
Navi könnte ausschließlich Konsole sein. 40CUs würde auch zur 7nm-Konsolen-Generation gut passen. Da gibts vielleicht gar keine Desktop-GPUs von.
Bis 2020 noch Midrange mit Polaris überbrücken? Niemals.

HOT
2019-01-09, 20:21:06
Hey wir kennen AMD.

Daredevil
2019-01-09, 20:21:14
Kann man vermutlich schon. Nur ob dann jeder mit den 400-450W leben will bezweifle ich. ;)
Zumal sind drei Lüfter ja toll, aber die Abdeckung sag genauso wie bei Nvidia aus, als könnte da kaum Luft an den Seiten entweichen.

Vielleicht bekommt die Karte ja auch einfach die Custom Kühler der 2080/ti drauf, das würde dann schon gehen. ^^

dargo
2019-01-09, 20:28:25
Der Kühler dürfte von Powercolor kommen oder?

mczak
2019-01-09, 20:28:38
Nagut stimmt, man muss wohl eher davon ausgehen dass auf 1/16 reduziert wird. Wäre auch zu schön sonst :frown:
Muss nicht unbedingt sein. Bisher hatten die Consumer-Varianten der Chips mit hohem DP-Durchsatz 1/4 DP-Durchsatz der Pro-Varianten - Hawaii hatte auch 1:2 DP:SP Rate, und die Consumer-Chips hatten dann eben 1:8.
Das wäre auf jeden Fall einiges mehr als alles was nvidia in Consumer-Chips zu bieten hat (1:32).

Linmoum
2019-01-09, 20:45:46
Der Kühler dürfte von Powercolor kommen oder?
Ich gehe ganz stark von Sapphire aus.

HOT
2019-01-09, 20:47:29
Ich frage mich gerade, warum AMD tatsächlich auf vier Stacks HBM setzt, wo hier noch mit zweien spekuliert wurde. Wären 3 Stacks mit 12GB und 768GB/s nicht mehr als ausreichend gewesen, wenn die GPU eh nur knapp 30% zulegt? Da hätte man nochmal 50$ runtergehen können mit dem Preis, ohne Marge zu opfern.

Nein die 16gb verkaufen.

dargo
2019-01-09, 20:48:36
Ich gehe ganz stark von Sapphire aus.
Hmm... vom Design her hätte ich eindeutig auf Powercolor getippt.

Rabiata
2019-01-09, 20:59:32
Die bringen tatsächlich einen HPC chip als gaming produkt auf den markt, für mich völlig unverständlich.

Leistung sicher etwas unter 2080 bei deutlich höheren herstellungskosten + 300W TDP - RT. Kann ich überhaupt nicht nachvollziehen, für rund 800.- oder was es kosten wird, wird das ding nur sehr wenige spezielle kunden ansprechen.

Wo bleibt navi???
Könnte mir vorstellen, daß das ein "Hallo Welt, wir können noch mithalten" Produkt ist. Um einfach auch als GPU-Hersteller wieder mehr Aufmerksamkeit zu bekommen.
So was ähnliches hatten wir in der CPU-Welt schon mal, als Intel den Pentium 4 Extreme Edition brachte, angekündigt zufällig gerade eine Woche vor dem Start des Athlon 64.

Die 16 GB sind allerdings schon deutlich mehr als bei den Consumer-Karten der grünen Konkurrenz :tongue:

soLofox
2019-01-09, 21:12:10
https://www.amd.com/de/products/graphics/radeon-vii

fondness
2019-01-09, 21:16:51
Ich dachte das Ding heißt Radeon Vega 2, aber es heißt Radeon 7. Warum das?

dildo4u
2019-01-09, 21:17:04
7nm.

mironicus
2019-01-09, 21:18:08
Vega 2. Römisch V+2 = 7 = 7 nm.

Hakim
2019-01-09, 21:19:56
Ob die kleinere Version ebenfalls 16gb haben wird? Da würden ja ansich 8gb reichen was evtl den Kosten und Preis gut tun würde

Linmoum
2019-01-09, 21:21:17
Gibt's denn überhaupt 'nen Salvage vom Salvage? Vielleicht belässt man es auch einfach dabei.

dildo4u
2019-01-09, 21:21:25
Die wäre dicht an der Vega 64,lohnt sich vermutlich nicht weil 7nm noch teuer ist.

crux2005
2019-01-09, 21:21:46
https://www.amd.com/de/products/graphics/radeon-vii

2x8 Pin

Also wird der Stromhunger nicht wirklich kleiner sein als be Vega 64.

Loeschzwerg
2019-01-09, 21:23:32
Ich dachte das Ding heißt Radeon Vega 2, aber es heißt Radeon 7. Warum das?

Nicht böse gemeint, aber genau deswegen hasse ich diese Fragmentierung über viele Themen :freak:

Die wäre dicht an der Vega 64,lohnt sich vermutlich nicht weil 7nm noch teuer ist.

Ganz abschreiben würde ich das noch nicht, vielleicht lässt man V10 demnächst komplett auslaufen und sammelt bis dahin entsprechend defekte V20 (also 56 CUs und 12GB o.ä.).

TheGood
2019-01-09, 21:46:11
Da steht klar juli

https://www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699
man sollte beim trollen auch den verstand einschalten :D

Mangel76
2019-01-09, 22:09:04
So ganz komme ich mit den angegebenen Werten aber nicht klar.

Die VII soll einen typischen Boost von 1800 MHz haben, die V64 sollte offiziell bei 1546 MHz liegen. Das sind aber nur 16% mehr Takt? Die Aussage war aber, dass durch den Prozess allein 25% mehr Leistung bei gleichem Verbrauch möglich ist. Entweder gilt dieses Verhältnis im Randbereich nicht mehr, oder der Verbrauch wird am Ende doch unter dem von V64 liegen.

Andererseits sind die Zuwächse ja deutlich größer als das Taktplus vermuten lassen würde:confused:

Edit: zum geringen Taktplus kommt erschwerend ja sogar noch die geringere Zahl der Shader.

Daredevil
2019-01-09, 22:12:38
del

Mangel76
2019-01-09, 22:15:49
CB (https://www.computerbase.de/2019-01/amd-radeon-vii-ces/) wundert sich auch:

Noch einmal zurück zur Performance: AMD müsste sich schon sehr verrechnet haben beziehungsweise die Geschwindigkeit viel zu positiv interpretiert haben, um nicht davon ausgehen zu müssen, dass die Spiele-Performance pro Takt bei Vega 20 um ein gutes Stück höher als bei Vega 10 ausfällt. Da AMD sich nicht dazu geäußert hat, dass es diesbezüglich eine Verbesserung gegeben hat, ist das aber nur eine Spekulation.

Gaestle
2019-01-09, 22:20:46
Edit: zum geringen Taktplus kommt erschwerend ja sogar noch die geringere Zahl der Shader.

Mehr ROPs und mehr Bandbreite. Anandtech äußert sich dazu.

deekey777
2019-01-09, 22:28:05
Ich dachte das Ding heißt Radeon Vega 2, aber es heißt Radeon 7. Warum das?
Weil Vega so eingeschlagen hat.

Mangel76
2019-01-09, 22:31:13
Mehr ROPs und mehr Bandbreite. Anandtech äußert sich dazu.

Dann hätten die aber einen deutlichen Performanceeinfluss. Ist mir bisher nicht aufgefallen, dass meine Vega so sehr an der Bandbreite hängt. Zudem passt es auch mit den Taktraten und Verbrauch nicht. 25% Steigerung durch Prozess, aber nur 16% mehr Takt bei gleichem Verbrauch? Was machen 2 weitere HBM-Stapel und der HPC-Kram beim Verbauch aus?

Obwohl (https://www.computerbase.de/2019-01/amd-radeon-vii-ces/):
Darüber hinaus spricht AMD noch davon, dass die Grafikkarte bei gleicher Leistungsaufnahme 25 Prozent schneller arbeiten soll als ein mit Vega 10 ausgestattetes Produkt. Allerdings ist diese Aussage wenig hilfreich. Denn es gab keine Vega-10-Grafikkarte mit dieser Konfiguration, sodass sich die 25 Prozent auf ein fiktives Produkt bezieht.

gravitationsfeld
2019-01-09, 22:31:57
Was sollte navi sonst haben?
HBM3?

TheGood
2019-01-09, 22:38:46
Endlich gibt es etwas Konkurrenz. DAs ist doch was zählt. Kaufen kann das Teil auch nur gutbetuchte...

Dural
2019-01-09, 22:56:55
Also praktisch keiner, weil die so wie so nv kaufen ;)

HBM3?

HBM macht bei kleineren gpus nicht so viel sinn.

Daredevil
2019-01-09, 23:01:29
Also praktisch keiner, weil die so wie so nv kaufen ;)



HBM macht bei kleineren gpus nicht so viel sinn.
Wie z.B. bei Kaby Lake G ? :D

Felis silvestris
2019-01-09, 23:06:54
Andererseits sind die Zuwächse ja deutlich größer als das Taktplus vermuten lassen würde:confused:

Edit: zum geringen Taktplus kommt erschwerend ja sogar noch die geringere Zahl der Shader.

Laut Anandtech (www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699) hat die Karte 128 ROPs und KEINEN PCI-E 4.0 Support den gäbe es nur für die Profi-Karten.

Felis silvestris
2019-01-09, 23:09:37
Warum reden hier alle, dass Navi "Gaming" wäre? Vega@7nm hat gerade mal 3,2% mehr Transistoren gegenüber Vega@14nm.

Wieviel besser soll denn Navi mit GDDR6 werden?! Eher sieht das ganze richtig schlecht aus, da AMD noch mehr Aufwand betreiben muss, um irgendwie auch nur in die Nähe von Pascal zu kommen...
Vega@14nm ist ein schlechtes Beispiel weil ursprünglich fürs Profi Segment gedacht. Fette 1:2 DP Einheiten braucht Navi beispielsweise nicht. Da kann man sicher einiges einsparen.

Edit: sorry fürs zweimal postern

horn 12
2019-01-09, 23:11:13
Wie oft denn noch Jungs, hatte Recht und das Übrige ist Treiber Gefixt worden!
Da sind nochmals 10 bis 15% drinn gewesen.

Complicated
2019-01-09, 23:37:56
Vega 2. Römisch V+2 = 7 = 7 nm.
7nm.
Und Erscheinungstermin am 07.02. :D
AMDs Marketing scheint nichts auszulassen.

Raff
2019-01-09, 23:42:19
Laut Anandtech (www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699) hat die Karte 128 ROPs und KEINEN PCI-E 4.0 Support den gäbe es nur für die Profi-Karten.

Fiji (4.096 ALUs, 4.096 Bit – wie Vega 20) hat übrigens auch nur 64 ROPs. Soweit ich weiß, ist die Anzahl der Render-Backends seit Jahren auch nicht wirklich relevant. Ihr Durchsatz steigt immerhin mit dem Takt. Wenn Vega 20 jetzt 128 von den Dingern hat: Cool, warum nicht, aber für Spiele vermutlich irrelevant. Dass die Kiste kein PCIe 4.0 kriegt, ist angesichts von Ryzen 3000, der das ja auch können wird, aber schade für die Checkliste.

MfG,
Raff

horn 12
2019-01-09, 23:44:07
07 - Für die 7nm Geschichte
02 -- für die 2-te Vega Generation

Treiberfixes hat es gegeben und gibt es weiter, Igor weiss da weitaus mehr davon, was alles gefixt wurde bei Vega VII
Die Neue Karte wird ab heute wirklich immer höher gehypt werden, wenn die Fixes ans Licht kommen.
Darf erst ab Morgen weder etwas preisgeben!

Armaq
2019-01-09, 23:55:10
07 - Für die 7nm Geschichte
02 -- für die 2-te Vega Generation

Treiberfixes hat es gegeben und gibt es weiter, Igor weiss da weitaus mehr davon, was alles gefixt wurde bei Vega VII
Die Neue Karte wird ab heute wirklich immer höher gehypt werden, wenn die Fixes ans Licht kommen.
Darf erst ab Morgen weder etwas preisgeben!
Erspar uns das doch bitte. :)

MSABK
2019-01-10, 00:12:49
Ist die Radeon 7 jetzt ein Die-Shrink der Vega 10? Wenn ja, dann sollte ja irgendwann eine neue 7 nm Generation kommen. Dann hätte man was gegen Nvidia wenn die auch auf 7nm gehen.

w0mbat
2019-01-10, 00:29:29
Ja, Vega20 ist ein 7nm shrink von Vega10 der noch ein paar HPC extras, wie zB 2:1 DP FP64 bekommen hat. Für Spiele leider irrelevant.

Schneller wird Vega20 aka Radeon VII wohl vor allem durch den höheren Takt, mehr ROPs, und mehr Speicher(bandbreite).

War Anfangs nur als HPC/Profi Karte geplant, aber die Turing Preise, bessere 7nm yields und fallende Wafer-Preise bei TSMC haben AMD wohl dazu verführt, Vega20 auch in den consumer Markt zu werfen.

Mit Navi arbeitet AMD gerade, laut Gerüchten, an einer neuen, reinrassigen gaming Architektur.

nordic_pegasus
2019-01-10, 00:31:58
sieht irgendwer die Möglichkeit für ein Titan Äquivalent mit 64 CUs? ein Salvage-Chip von AMD als Top-Dog ist irgendwie komisch. Bei 331 mm² müssten doch genug Chips ohne Teildefekt rauskommen, oder verkauft AMD soviele MI60? Der große Kostentreiber dürfte ja eher der HBM-Speicher sein.

Brillus
2019-01-10, 00:36:39
07 - Für die 7nm Geschichte
02 -- für die 2-te Vega Generation

Treiberfixes hat es gegeben und gibt es weiter, Igor weiss da weitaus mehr davon, was alles gefixt wurde bei Vega VII
Die Neue Karte wird ab heute wirklich immer höher gehypt werden, wenn die Fixes ans Licht kommen.
Darf erst ab Morgen weder etwas preisgeben!

Kannst du da bitte noch mindestens 1 Jahr dran hängen. Danke

BlacKi
2019-01-10, 00:39:32
Wenn in großen Chips Redundanzen verbaut werden ist das etwas anderes als eine Salvage Strategie. Salvage gibt es nur wenn es auch einen Vollausbau gibt, wovon man eben ein Salvage Modell anbieten kann.
Daher ergibt NUR Salvage anzubieten keinen Sinn.
this!
sieht irgendwer die Möglichkeit für ein Titan Äquivalent mit 64 CUs? ein Salvage-Chip von AMD als Top-Dog ist irgendwie komisch. Bei 331 mm² müssten doch genug Chips ohne Teildefekt rauskommen, oder verkauft AMD soviele MI60? Der große Kostentreiber dürfte ja eher der HBM-Speicher sein.
oder man nimmt eben auch intakte, wenn man über hat. war bei fury auch so, konnte man im nachhinein freischalten.
Bei Vega hat aber doch HBM OC mehr gebracht als GPU OC. Wenn man nun 1TB/s hat und das mit PCIe 4.0 kombiniert. Ist ein starkes Gerät, ja nicht nur für Gamer.
wenn man bereit ist richtung 400w zu gehen, wird der coretakt, dank der SI und banbreite allgemein, sehr gut mitskalieren.

So ganz komme ich mit den angegebenen Werten aber nicht klar.

Die VII soll einen typischen Boost von 1800 MHz haben, die V64 sollte offiziell bei 1546 MHz liegen. Das sind aber nur 16% mehr Takt? Die Aussage war aber, dass durch den Prozess allein 25% mehr Leistung bei gleichem Verbrauch möglich ist. Entweder gilt dieses Verhältnis im Randbereich nicht mehr, oder der Verbrauch wird am Ende doch unter dem von V64 liegen.

Andererseits sind die Zuwächse ja deutlich größer als das Taktplus vermuten lassen würde:confused:

Edit: zum geringen Taktplus kommt erschwerend ja sogar noch die geringere Zahl der Shader.
ganz einfach, man nehme spiele in den vergleich, die sehr gut mit bandbreite skalieren und schon hat man wegen der verdoppelten bandbreite eine sehr stark ansteigende performance.

im vergleich zu v64 ist die speicherbandbreite gerade zu OP! mit den 16gb gefällt mir das sehr gut!

crux2005
2019-01-10, 00:48:08
sieht irgendwer die Möglichkeit für ein Titan Äquivalent mit 64 CUs? ein Salvage-Chip von AMD als Top-Dog ist irgendwie komisch. Bei 331 mm² müssten doch genug Chips ohne Teildefekt rauskommen, oder verkauft AMD soviele MI60? Der große Kostentreiber dürfte ja eher der HBM-Speicher sein.

Der große Kostentreiber ist die 7nm fertigung. Der V20 wird in der Herstellung nicht viel weniger kosten als TU104.
Wäre NV nicht in der jetzigen Preisregion könnte sich AMD nicht leisten so einen Karte zu bringen.

nordic_pegasus
2019-01-10, 00:59:00
Der große Kostentreiber ist die 7nm fertigung. Der V20 wird in der Herstellung nicht viel weniger kosten als TU104.
Wäre NV nicht in der jetzigen Preisregion könnte sich AMD nicht leisten so einen Karte zu bringen.

einfach nur schade. Salvage ist so mäh...

Außerdem ich trauer meiner zerstörten Hoffnung auf HDMI 2.1 hinterher.

w0mbat
2019-01-10, 01:01:01
Die MI Karten gibts ja als Vollausbau, oder? Dann wäre VII doch als salvage möglich.

Blediator16
2019-01-10, 01:14:58
Die MI Karten gibts ja als Vollausbau, oder? Dann wäre VII doch als salvage möglich.

Mi60 müsste der Vollausbau sein mit 64cu und die Vega 7 ist eine umgelabelte MI50 mit 60cu

https://scr3.golem.de/screenshots/1811/Radeon-Instinct-MI60/thumb620/Radeon-Instinct-MI60-05.jpg

Daredevil
2019-01-10, 01:28:38
Radeon VII hat allerdings ein deutlich höheres PCB und der Infinity Fabric Link fehlt. :(
Im Grunde sieht die Karte fast aus wie eine Sapphire Nitro+ von der Maßen her.

SKYNET
2019-01-10, 02:20:11
Radeon VII hat allerdings ein deutlich höheres PCB und der Infinity Fabric Link fehlt. :(
Im Grunde sieht die Karte fast aus wie eine Sapphire Nitro+ von der Maßen her.

macht eigentlich immernoch powercolor die referenzkarten für AMD, oder ist das inzwischen wer anders? evtl. sapphire?

Daredevil
2019-01-10, 02:29:57
Keine Ahnung, irgendwo habe ich hier gelesen, das es PoCo sein soll.

So im Vergleich muss man echt sagen, die Karte sieht richtig eckig und rudimentär scheiße aus. :D
Als hätte man einfach das Blech oben genommen und mit biegen und brechen drei 90mm ( 100mm ? ) Löcher reingestanzt, damit man daraus auch eine Consumer Version machen kann.

Damit man mal die Dimensionen sieht.
Die Karte wird deutlich fetter als eine Ref Vega 64, nicht nur vom Kühler her, sondern auch von den Dimensionen.
Sapphire Vega 64 Nitro+ vs. Radeon VII vs. Vega 64 Ref

https://abload.de/img/unbenannt2e3f08.png
https://abload.de/img/unbenannttkdqw.png
https://www.profesionalreview.com/wp-content/uploads/2017/07/radeon-rx-vega-64-2.jpg

crux2005
2019-01-10, 03:08:53
Der Abstand zwischen den Lüftern ist unterschiedlich groß.

https://i.imgur.com/BDS0qho.png

https://media1.tenor.com/images/1802381fcbc980524bb31a0a9bd888cd/tenor.gif

Thunder99
2019-01-10, 07:01:26
Die Karte ist AMDs Antwort da sie ansonsten nichts gegen Nvidia haben. Wohl lieber ein Chip verkaufen der kaum Gewinn macht als das jemand Nvidia kauft.

w0mbat
2019-01-10, 08:10:27
War ja Anfangs auch nicht geplant. Aber als AMD die Turing Preise gesehen hat wusste man, dass da auch noch Platz für nen Vega20 Chip ist.

Rancor
2019-01-10, 08:16:41
Der Abstand zwischen den Lüftern ist unterschiedlich groß.

https://i.imgur.com/BDS0qho.png

https://media1.tenor.com/images/1802381fcbc980524bb31a0a9bd888cd/tenor.gif

:facepalm:

OMG :eek::freak:

Sven77
2019-01-10, 08:19:47
Ist bestimmt nur ein Mock-Up

BlackBirdSR
2019-01-10, 08:34:51
Die Karte ist AMDs Antwort da sie ansonsten nichts gegen Nvidia haben. Wohl lieber ein Chip verkaufen der kaum Gewinn macht als das jemand Nvidia kauft.

Darum geht's wahrscheinlich weniger, als einen der oberen Spots bei Reviews zu haben.

Schnitzl
2019-01-10, 10:57:08
:eek: :eek: :eek:
https://www.computerbase.de/2019-01/ryzen-3000-amd-intel-core-i9-9900k/
https://www.computerbase.de/2019-01/amd-radeon-vii-ces/
7.Februar, sorry aber da muss ich jetzt ein Filmzitat von Platoon abwandeln:
"sche*sse die kommen jetzt schon - Die warten nicht bis nachher..."

ich hatte AMD GPU-technisch bis 2020 eigentlich abgeschrieben. (für Gamer)
Um so mehr freut es mich dass jetzt doch Vega20 für Gamer kommt.
Und wenn ich die Präsentationen so anschaue, merke ich dass AMD von nVidia gelernt hat!
Sehr gut.

wenn ich von dieser News aus spekuliere:
https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/
das steht "arriving summer 2019" dann ist Radeon 7 eine Überbrückung bis im Sommer Navi kommt?
Das wäre ja fast zu schön um wahr zu sein? Ich bezweifle dass man von Herbst 2018 bis Sommer 2019 schnell raytracing einbauen kann...
ok mit Sommer 2019 ist wohl Ryzen3000 gemeint

darkcrawler
2019-01-10, 11:14:30
warum kobiniert man die GPU eigentlich nicht mit günstigem DDR, statt hbm?
oder ist genau das der unterschied zwischen polaris und vega (von den SPs mal abgesehen)

dann würde ein polaris II mit 25% plus, in 7nm doch passabel in der unteren mittelklasse rocken

:facepalm:

OMG :eek::freak:


wir werden alle steeerben !!!1111elf:eek::eek::eek:

SKYNET
2019-01-10, 11:16:30
Und wenn ich die Präsentationen so anschaue, merke ich dass AMD von nVidia gelernt hat!
Sehr gut.



die lederjacke hat mich ein wenig verstört...

SKYNET
2019-01-10, 11:18:52
warum kobiniert man die GPU eigentlich nicht mit günstigem DDR, statt hbm?
oder ist genau das der unterschied zwischen polaris und vega (von den SPs mal abgesehen)

dann würde ein polaris II mit 25% plus, in 7nm doch passabel in der unteren mittelklasse rocken




wir werden alle steeerben !!!1111elf:eek::eek::eek:


dafür müsste man wohl die halbe GPU nu basteln, und es bräuchte dann nen 512bit interface um auf die bandbreite zu kommen...

Dino-Fossil
2019-01-10, 11:23:02
die lederjacke hat mich ein wenig verstört...

Lisa Su wechselt zu nVidia CONFIRMED!!!1!11!!elf!

Hakim
2019-01-10, 11:23:11
Und wären immer noch Tick darunter

Schnitzl
2019-01-10, 11:52:09
die lederjacke hat mich ein wenig verstört...
;D ;D ;D
ok dann doch eine Kleinigkeit übers Ziel hinausgeschossen :freak:

w0mbat
2019-01-10, 12:15:22
OK, das ist mal interessant :D

Aus einem älteren "exclusiven" WCCFTECH Artikel (https://wccftech.com/exclusive-mike-rayfield-amd-retires/)über die Gründe, wieso der ehemalige VP Rayfield bei AMD gehen musste:
He presented suggestions that werent really feasible such as ‘Radeon VII ‘ which was to be a Vega 20 based consumer facing part that cost $750 to build and would barely tie in with an [NVIDIA] GTX 1080 Ti.

LOL!

Loeschzwerg
2019-01-10, 13:03:32
Base 1450MHz:
https://youtu.be/IcL4XFwptHo?t=117

Boost wurde nach Aussagen von AMD überarbeitet.

Dural
2019-01-10, 13:07:33
OK, das ist mal interessant :D

Aus einem älteren "exclusiven" WCCFTECH Artikel (https://wccftech.com/exclusive-mike-rayfield-amd-retires/)über die Gründe, wieso der ehemalige VP Rayfield bei AMD gehen musste:


LOL!

:freak::freak::freak:

Rancor
2019-01-10, 13:21:07
Alleine Nvidia mit Ihren absurden Preise hat diese Karte Möglich gemacht. Gegen eine 1080TI wäre die so sicherlich nicht gekommen.

Savay
2019-01-10, 13:21:31
LOL!

Das Statement der Quelle liest sich eher nach einer Vermengung von "Büroklatsch" + Infos über intern angedachte Produkte. ;)
Innerhalb von einem Monat bastelt ja keiner mal spontan eine "neue" Produktreihe zusammen...zumal da mehr dran hängt als sich einfach nur einen Namen auszudenken.

w0mbat
2019-01-10, 13:38:17
Naja, die Radeon VII scheint "einfach" nur eine MI50 mit anderem Kühler zu sein. Das sollte schon relativ schnell gehen.

reaperrr
2019-01-10, 13:56:12
OK, das ist mal interessant :D

Aus einem älteren "exclusiven" WCCFTECH Artikel (https://wccftech.com/exclusive-mike-rayfield-amd-retires/)über die Gründe, wieso der ehemalige VP Rayfield bei AMD gehen musste:


LOL!
Soviel dazu ;D
Da waren Wang und/oder Su offensichtlich anderer Meinung zur "feasibility" als diese ominöse Quelle.

Fairerweise muss man aber sagen, dass
- wir nicht wissen, wie aktuell die "750$" noch sind, bzw. wie viel davon evtl. Fixkosten sind die eh schon angefallen sind
- u.U. das Prestige und der zusätzliche Umsatz es wert sind vorübergehend einen geringen Verlust in Kauf zu nehmen
- evtl. auch die Gerüchte stimmen, dass es erstmal nur 20.000 Karten gibt, und nur bei entsprechender Nachfrage evtl. nochmal nachprduziert wird

BoMbY
2019-01-10, 14:00:24
Auf Reddit (https://www.reddit.com/r/Amd/comments/aeimvi/full_amd_radeon_vii_slide_deck_from_ces_2019/) hat jemand das komplette Radeon VII Slidedeck gepostet:

https://imgur.com/a/hdUiRU5

Edit: Und OC3D hat mehr Benchmark-Ergebnisse (https://www.overclock3d.net/news/gpu_displays/amd_releases_additional_benchmarks_for_their_radeon_vii_gpu/1).

SKYNET
2019-01-10, 14:10:24
Keine Ahnung, irgendwo habe ich hier gelesen, das es PoCo sein soll.

So im Vergleich muss man echt sagen, die Karte sieht richtig eckig und rudimentär scheiße aus. :D
Als hätte man einfach das Blech oben genommen und mit biegen und brechen drei 90mm ( 100mm ? ) Löcher reingestanzt, damit man daraus auch eine Consumer Version machen kann.



denke dürfte noch immer PoCo sein... war ja schon immer nr.1 seit ATI zeiten...

ich mags, sorry, bin halt maschinenschlosser, und wenns aussieht wie aus nem klotz gefeilt, geht mir einfach einer ab :usex:

Savay
2019-01-10, 14:10:45
Das sollte schon relativ schnell gehen.

Technisch ja...aber da hängt ja noch mehr dran. :)
Logistik, Analysen, Marketing, Treiber? etc. pp.

Ich bin ziemlich sicher das sie nicht nur 2 1/2 Wochen darüber diskutiert und das dann einfach spontan auf den Markt werfen weil es eh im Regal lag. :wink:

Solche Optionen werden doch sicher lange im Vorfeld diskutiert...das sie jetzt wirklich kommt liegt aber wahrscheinlich am ehesten wirklich nur an dem Preisfenster das nV mit Turing aufgestoßen hat.

w0mbat
2019-01-10, 14:13:44
Klar, die Turing Präsentation war Mitte September. Das ist genug Zeit.

SKYNET
2019-01-10, 14:14:39
Naja, die Radeon VII scheint "einfach" nur eine MI50 mit anderem Kühler zu sein. Das sollte schon relativ schnell gehen.


jupp, neues bios, anderes PCB & kühler, mehr anschlüsse und fertig.... dadrinne sehe ich auch eher nen kleines problem, die GPU war ja fix und fertig.

erinnert mich aber nen wenig an die 2060 mit NV... die 2060er PCBs noch nicht fertig, also schnell auf nen 2070er PCB geklatscht :ulol:

in sofern hat AMD da mehr arbeit geleistet, das eigentlich alles um die GPU rum neu entworfen wurde, bei NV hat man nur den laser angesetzt um die karte zu beschneiden. :freak:

amdfanuwe
2019-01-10, 14:20:44
ein Salvage-Chip von AMD als Top-Dog ist irgendwie komisch. Bei 331 mm² müssten doch genug Chips ohne Teildefekt rauskommen, oder verkauft AMD soviele MI60?
An der MI60 verdienen sie wesentlich mehr und es würden eventuell die Mengen für Konsumer nicht reichen.

SKYNET
2019-01-10, 14:21:16
Auf Reddit (https://www.reddit.com/r/Amd/comments/aeimvi/full_amd_radeon_vii_slide_deck_from_ces_2019/) hat jemand das komplette Radeon VII Slidedeck gepostet:

https://imgur.com/a/hdUiRU5

Edit: Und OC3D hat mehr Benchmark-Ergebnisse (https://www.overclock3d.net/news/gpu_displays/amd_releases_additional_benchmarks_for_their_radeon_vii_gpu/1).


weiss nicht welche auflösungen sie bei den anderen games hatten, aber zumindest SotTR ist in 4k gebencht worden... fps nahezu identisch mit jeder anderen seite in 4k

ne 2080 schafft in 4k nur 41fps dort... heisst die VII ist 17% schneller in 4k :devil:

amdfanuwe
2019-01-10, 14:22:13
Der Abstand zwischen den Lüftern ist unterschiedlich groß.
[/URL]
Vermeidet unerwünschte Resonanzen.

Rancor
2019-01-10, 14:23:15
1080TI Performance. Naja 100€ runter und dann passt es. Die 16GB sind natürlich nice ! :up:

SKYNET
2019-01-10, 14:26:58
1080TI Performance. Naja 100€ runter und dann passt es. Die 16GB sind natürlich nice ! :up:

ein wenig utopisch, 16GB mit 2080 speed bzw. sogar drüber(siehe anderer faden) und dann noch 100 billiger sein soll als die 2080 :ulol: der preis ist vollkommen angemessen, das ding wird in compute wohl auch ne volta zerfetzen... muss grad blender laufen lassen wenn die da ist ;D

Ex3cut3r
2019-01-10, 14:29:38
Glaubst also ehrlich AMD Folien, so gutgläubig? Das Passt nicht zu dir. ;D

Belg4rion
2019-01-10, 14:31:02
Für 7nm kommt mir das Ergebnis speziell beim Verbrauch aber dann doch unterirdisch vor.
Liegt das an dem einfachen Shrink von V10 und den HPC Erweiterungen?

Ex3cut3r
2019-01-10, 14:34:07
Liegt daran das es selbe Architektur ohne Effizienz Verbesserungen ist, Technologisch gesehen, sehr einfach was AMD macht, ein Shrink, mehr ist das nicht.

BoMbY
2019-01-10, 14:35:05
Die größte Frage für mich ist eigentlich ob die 1/2 DP künstlich begrenzt werden wie bei Hawaii damals? Wenn das Ding 6.9 TFlop/s DP bringen würde, wäre das ein Kracher für den Preis.

Troyan
2019-01-10, 14:35:33
7nm bringt kaum Verbesserungen. Einfach nur eine Architektur shrinken und dann auf den Prozess hoffen, ist nicht mehr möglich.

Im Grunde liefert die Karte rund 30% besseres Perf/W gegenüber nVidias Maxwell. Und das mit zwei Fullnodes. Hier sieht man, wie wenig sich im Bereich Prozesstechnologie seit 28nm getan hat.

Ravenhearth
2019-01-10, 14:35:39
Für 7nm kommt mir das Ergebnis speziell beim Verbrauch aber dann doch unterirdisch vor.
Liegt das an dem einfachen Shrink von V10 und den HPC Erweiterungen?
7nm bringt bei gleichem Verbrauch nur 25% mehr Takt, und das reizt AMD voll aus. Die Alternative wäre gewesen, Takt und Leistung auf Niveau von Vega 64 zu belassen und dafür den Verbrauch des Chips zu halbieren. Dann wäre die aber wohl nur auf dem Level der RTX 2070 gewesen, wobei man aufgrund der hohen Produktionskosten wohl kaum niedriger als $699 gehen kann. Die Karte hochzuprügeln und bei dem Preis der RTX 2080 Paroli zu bieten, war die bessere Wahl für AMD. Runtertakten und Undervolten kann man als User immer noch.

Raff
2019-01-10, 14:37:07
[...] das ding wird in compute wohl auch ne volta zerfetzen... muss grad blender laufen lassen wenn die da ist ;D

Das läuft eher auf einen Gleichstand hinaus. GV100 wird mit 5.120 FP32-ALUs rausgelassen und die FP64-Rate (DP) beträgt wie bei Vega 20 die Hälfte. Letzterer muss also verflucht hoch takten, um beispielsweise einer Titan V gefährlich zu werden. Beide liegen im Bereich um 7–8 TFLOPS DP, je nach Takt, was ziemlich fett ist. Turing kann bei FP32 gut mithalten, vor allem bei der effektiv nutzbaren Leistung, ist aber ein DP-Krüppel.

MfG,
Raff

Ravenhearth
2019-01-10, 14:45:20
7nm bringt kaum Verbesserungen. Einfach nur eine Architektur shrinken und dann auf den Prozess hoffen, ist nicht mehr möglich.

Im Grunde liefert die Karte rund 30% besseres Perf/W gegenüber nVidias Maxwell. Und das mit zwei Fullnodes. Hier sieht man, wie wenig sich im Bereich Prozesstechnologie seit 28nm getan hat.
???

Das liegt doch nicht primär am Prozess, seit 28nm hat sich schon deutlich mehr getan als nur 30% mehr Perf/W. Nur ist Vega an sich schon nicht die effizienteste Architektur und zusätzlich entscheidet AMD sich abermals dazu, den Takt hochzuprügeln, was weiter Effizienz kostet. Maxwell mit Vega20 zu vergleichen und daraus einen kaum besseren Prozess abzuleiten, ist sowas von Äpfel und Birnen. Es ist möglich, dass Maxwell in 7nm drei mal so effizient wäre verglichen mit 28nm. Oder eine GTX 2080 in 7nm würde sicher nur die Hälfte der Radeon VII verbrauchen.

SKYNET
2019-01-10, 14:48:23
Glaubst also ehrlich AMD Folien, so gutgläubig? Das Passt nicht zu dir. ;D


im gegensatz zu intel, hauen die AMD folien meistens hin... und die benchmarks kannst dir ja selber raussuchen, passt alles ziemlich genau mit den folien aus dem anderen faden.

Pirx
2019-01-10, 14:48:32
Die größte Frage für mich ist eigentlich ob die 1/2 DP künstlich begrenzt werden wie bei Hawaii damals? Wenn das Ding 6.9 TFlop/s DP bringen würde, wäre das ein Kracher für den Preis.
wird bestimmt begrenzt

SKYNET
2019-01-10, 14:49:39
Das läuft eher auf einen Gleichstand hinaus. GV100 wird mit 5.120 FP32-ALUs rausgelassen und die FP64-Rate (DP) beträgt wie bei Vega 20 die Hälfte. Letzterer muss also verflucht hoch takten, um beispielsweise einer Titan V gefährlich zu werden. Beide liegen im Bereich um 7–8 TFLOPS DP, je nach Takt, was ziemlich fett ist. Turing kann bei FP32 gut mithalten, vor allem bei der effektiv nutzbaren Leistung, ist aber ein DP-Krüppel.

MfG,
Raff


schauen wir dann mal... btw. hatte die ne PN geschickt, wenn du so nett wärst... bräuchte mal den link zum speicher-lod schummel artikel...

Troyan
2019-01-10, 14:56:16
???

Das liegt doch nicht primär am Prozess, seit 28nm hat sich schon deutlich mehr getan als nur 30% mehr Perf/W. Nur ist Vega an sich schon nicht die effizienteste Architektur und zusätzlich entscheidet AMD sich abermals dazu, den Takt hochzuprügeln, was weiter Effizienz kostet. Maxwell mit Vega20 zu vergleichen und daraus einen kaum besseren Prozess abzuleiten, ist sowas von Äpfel und Birnen. Es ist möglich, dass Maxwell in 7nm drei mal so effizient wäre verglichen mit 28nm. Oder eine GTX 2080 in 7nm würde sicher nur die Hälfte der Radeon VII verbrauchen.

Das Problem ist nicht die Taktrate. Die geringe Spannungssenkung führt dazu, dass man nicht einfach mehr Transistoren verbauen kann. nVidia kann auf "12nm" 21,3 Mrd. Transistoren produzieren und das ganze innerhalb von 250W verkaufen.

AMD produziert 13,2 Mrd. Transistoren auf 7nm und liegt bei 300W.

Ailuros
2019-01-10, 15:10:37
???

Das liegt doch nicht primär am Prozess, seit 28nm hat sich schon deutlich mehr getan als nur 30% mehr Perf/W. Nur ist Vega an sich schon nicht die effizienteste Architektur und zusätzlich entscheidet AMD sich abermals dazu, den Takt hochzuprügeln, was weiter Effizienz kostet. Maxwell mit Vega20 zu vergleichen und daraus einen kaum besseren Prozess abzuleiten, ist sowas von Äpfel und Birnen. Es ist möglich, dass Maxwell in 7nm drei mal so effizient wäre verglichen mit 28nm. Oder eine GTX 2080 in 7nm würde sicher nur die Hälfte der Radeon VII verbrauchen.

Nein zum letzten. Ein hypothetischer 1:1 shrink eines Turing chips von 12FF auf 7FF wuerde den Stromverbrauch nur minimal, wenn ueberhaupt beinflussen, egal ob der chip um N % kleiner geringt unter 7nm. Bei einem NV chip der von Grund auf fuer 7nm entwickelt wurde sieht es anders aus, aber gilt nur fuer zukuenftige Generationen.

NV benutzt zu verdammt viel Transistoren bzw. Flaeche momentan fuer ihre GPU chips dass sich 7FF im Vergleich zu 12FF heute schon lohnen wuerde.

Gipsel
2019-01-10, 15:20:38
Das Problem ist nicht die Taktrate. Die geringe Spannungssenkung führt dazu, dass man nicht einfach mehr Transistoren verbauen kann. nVidia kann auf "12nm" 21,3 Mrd. Transistoren produzieren und das ganze innerhalb von 250W verkaufen.

AMD produziert 13,2 Mrd. Transistoren auf 7nm und liegt bei 300W.Nun, Taktrate, Spannung und Stromverbrauch hängen schon irgendwie zusammen. Daß wenn man den neuen Prozeß nur zu Frequenzsteigerungen nutzt, die Leistungsaufnahme nicht wirklich sinken kann, ergibt sich ja von alleine. Aber falls man vergleichbare Takte wie bei der Vega64 fahren würde, ergäbe sich ein deutlich geringerer Stromverbrauch (und auch niedrigere Spannungen wären dafür natürlich nötig). Damit hätte man dann auch genug Powerbudget übrig, um größere GPUs in 300W unterzubringen. Das ist nun nicht so kompliziert.

Ravenhearth
2019-01-10, 15:21:52
Das Problem ist nicht die Taktrate. Die geringe Spannungssenkung führt dazu, dass man nicht einfach mehr Transistoren verbauen kann. nVidia kann auf "12nm" 21,3 Mrd. Transistoren produzieren und das ganze innerhalb von 250W verkaufen.

AMD produziert 13,2 Mrd. Transistoren auf 7nm und liegt bei 300W.
Wenn Vega und Turing Prozess-agnostisch gleich effizient wären, dann wäre 12nm laut deinen Daten ein viel besserer Prozess als 7nm, aber das ist ja offensichtlich nicht so. :freak: AMD sagt selber, dass 7nm bei gleichem Takt -50% Verbrauch (die doppelte Effizienz) bietet. Also welche geringe Spannungssenkung?

Auf altem Takt hätte Vega20 theoretisch nur den halben Verbrauch bzw. sie könnten bei 300W einen doppelt so breiten Chip bauen. Wäre nur sehr groß und teuer. Aber das nutzt man nicht, stattdessen reizt man den Mehrtakt von 25% voll aus. -> Weniger effizient. Keine Frage, 7nm bietet weniger Mehrtakt bei gleichem Verbrauch (nur 25% statt 40% oder so) als frühere Prozesse, aber das ist nicht der Hauptgrund, wieso Vega20 im Vergleich so schlecht dasteht.

Das liegt neben dem Takt hauptsächlich an der Architektur. Mit einer besseren würde das Ergebnis offensichtlich besser aussehen, wie man sehr gut an deinem Vergleich von GV100 und Vega20 sieht. Denn dass ersterer trotz 12nm effizienter ist, liegt an weniger Takt und der Architektur und nicht daran, dass 12nm ein besserer Prozess als 7nm wäre, wie du suggerierst (zumindest verstehe ich deinen Post so).

Nein zum letzten. Ein hypothetischer 1:1 shrink eines Turing chips von 12FF auf 7FF wuerde den Stromverbrauch nur minimal, wenn ueberhaupt beinflussen, egal ob der chip um N % kleiner geringt unter 7nm. Bei einem NV chip der von Grund auf fuer 7nm entwickelt wurde sieht es anders aus, aber gilt nur fuer zukuenftige Generationen.

NV benutzt zu verdammt viel Transistoren bzw. Flaeche momentan fuer ihre GPU chips dass sich 7FF im Vergleich zu 12FF heute schon lohnen wuerde.
Das meinte ich eigentlich auch. Eben eine hypothetische Geforce mit 2080-Leistung, deren Chip für 7nm entwickelt wurde. Da wären 150W wohl realistisch.

Nun, Taktrate, Spannung und Stromverbrauch hängen schon irgendwie zusammen. Daß wenn man den neuen Prozeß nur zu Frequenzsteigerungen nutzt, die Leistungsaufnahme nicht wirklich sinken kann, ergibt sich ja von alleine. Aber falls man vergleichbare Takte wie bei der Vega64 fahren würde, ergäbe sich ein deutlich geringerer Stromverbrauch (und auch niedrigere Spannungen wären dafür natürlich nötig). Damit hätte man dann auch genug Powerbudget übrig, um größere GPUs in 300W unterzubringen. Das ist nun nicht so kompliziert.
Danke. :)

Troyan
2019-01-10, 15:38:25
Nun, Taktrate, Spannung und Stromverbrauch hängen schon irgendwie zusammen. Daß wenn man den neuen Prozeß nur zu Frequenzsteigerungen nutzt, die Leistungsaufnahme nicht wirklich sinken kann, ergibt sich ja von alleine. Aber falls man vergleichbare Takte wie bei der Vega64 fahren würde, ergäbe sich ein deutlich geringerer Stromverbrauch (und auch niedrigere Spannungen wären dafür natürlich nötig). Damit hätte man dann auch genug Powerbudget übrig, um größere GPUs in 300W unterzubringen. Das ist nun nicht so kompliziert.

Die Zeiten von reinen kosteneffektiven und zeitnahen Shrinks sind längst vorbei. Vega@7nm liefert die selbe Leistung wie die GTX1080TI mit 50W+ mehr Verbrauch 23 Monate (GP102 ist sogar 31 Monate alt) später.

Es lohnt sich nicht mehr. AMD muss viel mehr in eine effizientere Architektur investieren. Aber das wiederum macht die Dies größer und teurer.

Ich habe es hier ja schon mal geschrieben: Navi muss komplett umgebaut werden, um überhaupt relevant zu sein. Ansonsten reden wir hier von GTX1070 Leistung bei 200W...

SKYNET
2019-01-10, 16:10:22
Die Zeiten von reinen kosteneffektiven und zeitnahen Shrinks sind längst vorbei. Vega@7nm liefert die selbe Leistung wie die GTX1080TI mit 50W+ mehr Verbrauch 23 Monate (GP102 ist sogar 31 Monate alt) später.

Es lohnt sich nicht mehr. AMD muss viel mehr in eine effizientere Architektur investieren. Aber das wiederum macht die Dies größer und teurer.

Ich habe es hier ja schon mal geschrieben: Navi muss komplett umgebaut werden, um überhaupt relevant zu sein. Ansonsten reden wir hier von GTX1070 Leistung bei 200W...

wenn sie so schnell ist wie ne 2080, ist sie schneller als ne 1080Ti FE... und die customs 1080Ti ziehen durch die bank 280-300W... also so ziemlich das gleiche...

du bist echt nen NV fantroll, anders kann mans leider nicht sagen. :frown:

BoMbY
2019-01-10, 16:15:36
Übrigens auffallend kein xGMI-Link für Gaming/besseres Crossfire:

https://pbs.twimg.com/media/DwfX1IjUwAAMo3a.jpg:orig

Bild von hier. (https://twitter.com/KeithPlaysPC/status/1083071549593145345)

Dural
2019-01-10, 16:15:40
wenn sie so schnell ist wie ne 2080, ist sie schneller als ne 1080Ti FE... und die customs 1080Ti ziehen durch die bank 280-300W... also so ziemlich das gleiche...

du bist echt nen NV fantroll, anders kann mans leider nicht sagen. :frown:

7nm vs 16nm
16GB / HBM2 1TB/s
11GB / GDDR5X

Merkst du was? :rolleyes:

Seit Monaten kommen von Ihm nur Fake News und Halbwahrheiten, das hat doch ein Schema :rolleyes:

Ich glaube das ist der erste der auf meine Bannliste kommt, reife Leistung.


Jensen Huang hat übrigens vor Jahren selber mal gesagt das ein einfacher Shrink kaum noch was bringe, wie man an Vega7 sieht hatte er völlig recht.

Der_Korken
2019-01-10, 16:18:28
Es wird sicherlich neues bei AMD kommen. Die werden nicht bis in alle Ewigkeit ihre alten Chips respinnen/shrinken/rebranden. Die Situation ist ein bisschen wie mit Bulldozer. Man hinkte sowohl bei der Effizienz als auch bei der Leistungskrone deutlich hinterher. Man hatte aber erkannt, dass in Bulldozer so viele schlechte Design-Entscheidungen steckten, dass es sich gar nicht lohnte größere Umbauten vorzunehmen, sondern von Grund auf neu designed werden musste (Zen). Das einzige, was von AMD kam waren kleinere Refreshs (Piledriver) und jede Menge APUs, wo man mit kleinem Aufwand immer noch ein bisschen Effizienz rausgequetscht hat.

Das Problem ist nur, dass eine neue Architektur viel Zeit braucht. In Gerüchten war von 2020 die Rede. Man kann jetzt natürlich bei jedem Release ablästern, dass AMD mit Minimalaufwand nur Minimalverbesserung erzielt hat (hallo Huang) oder warten bis der echte Fortschritt fertig ist. Mit einer neuen Arch ist es dann auch unerheblich wie weit man mit der alten zurücklag, weil die Entwicklung davon weitestgehend unabhängig ist (siehe ebenfalls Zen).

Es ist nur rückblickend natürlich sehr ernüchternd, wenn man V20 z.B. mit Fiji vergleicht. Der Sprung von 28nm auf 7nm hätte nach bisherigen Daten nicht mal für eine Leistungsverdopplung bei gleichem Verbrauch gereicht. Man sieht ja an den Zen2-Benches, was mit 7nm möglich wäre: Ein 75W-ES schlägt den alten 120W+ 2700X um >10%.

nairune
2019-01-10, 16:21:17
Kann einem als Kunde doch egal sein wie die Leistung erreicht wird. Dass das nur durch "bruteforce" (shrink) zu stande kommt, ist zwar schade, aber letztendlich Wurscht.
AMD weiß selber, dass sie für zukünftige Karten was ändern müssen, aber bis dahin dauert es offenbar noch.
Insofern kein Knaller, aber immerhin eine Alternative.

Blediator16
2019-01-10, 16:27:14
Was ich eigentlich in sämtlichen Foren lese ist "Mimimi AMD hat keinen RTX Killer gebracht, damit meine Nvidia Karte mal wieder günstiger wird" :biggrin:

Dural
2019-01-10, 16:27:45
Klar kann das einem als Kunde egal sein, aber ich kann dir versichern das es AMD als Firma nicht egal sein darf.

Ich habe ja langsam den verdacht das bei Navi etwas nicht stimmt, die vielen Abgänge letztes Jahr bei AMD und die Veröffentlichung eines Produktes wo so gar nicht geplant war sehen schon etwas "komisch" aus.

Dazu muss man sagen das NV mit ihren grossen Dies und die RT Platz "Verschwendung" AMD natürlich sehr in die Hand gespielt haben.

Robspassion
2019-01-10, 16:54:23
Dem CEO von Nvidia gefällt die neue Grafikkarte wohl nicht :freak:

https://www.computerbase.de/2019-01/nvidia-ceo-amd-radeon-vii/

"And if we turn on ray tracing we’ll crush it."

Das ist einfach nur gut :D

Dino-Fossil
2019-01-10, 16:58:40
Vielleicht hatte er auf einen Ersatz für seine 2080 Ti gehofft? :ugly:

Ravenhearth
2019-01-10, 17:00:03
Ich finde sowas gehört sich einfach nicht. Der ist doch nur angepisst, dass seine Aktie abgestürzt ist und sich Turing nicht so gut verkauft :P

SKYNET
2019-01-10, 17:00:11
Dem CEO von Nvidia gefällt die neue Grafikkarte wohl nicht :freak:

https://www.computerbase.de/2019-01/nvidia-ceo-amd-radeon-vii/

"And if we turn on ray tracing we’ll crush it."

Das ist einfach nur gut :D


habe das gefühl das dural evtl. die lederjacke selber ist... :confused: :ulol:

Troyan
2019-01-10, 17:04:21
Ich finde sowas gehört sich einfach nicht. Der ist doch nur angepisst, dass seine Aktie abgestürzt ist und sich Turing nicht so gut verkauft :P

Oder er macht sich nur über ein schlechtes Produkt lustig.

Mach AMD doch auch dauernd über Intel und die Leute feiern das.

BoMbY
2019-01-10, 17:05:03
Das beste an der CES-Keynote war eigentlich die Lederjacke von Lisa. Vermutlich hat das ihren Onkel ein bisschen aus der Bahn geworfen.

Linmoum
2019-01-10, 17:05:30
Das eine ist Marketing, das andere peinliche Aussagen eines CEO. Wundert mich nicht, dass du das nicht verstehst.

Ravenhearth
2019-01-10, 17:06:44
Das eine ist Marketing, das andere peinliche Aussagen eines CEO. Wundert mich nicht, dass du das nicht verstehst.
Dito. AMD schmäht Intel nicht in solch drastischen Worten.

Außerdem, wenn Huang sagt "The performance is lousy", trasht er damit nicht auch seine 2080? ;D

Unicous
2019-01-10, 17:16:29
Was passiert eigentlich wenn man RT "anschaltet"?

Allein für diese Aussage müsste man ihn schon vor der versammelten, nach sound bites lechzenden Journaille auslachen.

Wie viele Spiele gibt es denn bislang, die RT nutzen?

Ach ja, die kann man ja an einem Finger abzählen.;D


Dass Vega II wahrscheinlich niemanden vom Hocker hauen wird, geschenkt. Zu behaupten Vanity-Features die man momentan so gut wie nicht nutzen kann würden das noch nicht erschienene Produkt in Grund und Boden stampfen ist einfach nur ein Spuckefaden im Gesicht der "Gamer".

Im Übrigen ist das Argument ähnlich wie dem bei Mantle, komisch dass sich hier die damals so lautstarken Stimmen an dem Vorgehen von Nvidia nicht zu stören scheinen, zumal sie die Preise für das Feature das man in einem Spiel nutzen kann auch noch deutlich angehoben kann (ich könnte mich nicht erinnern, dass AMD die Preise wegen Mantle angehoben hat :uponder:). Aber hey, in einem Jahr gibt es bestimmt schon unzählige Spiele mit RT.:freak:

edit( ich hab mal ein paar emojis entfernt...:freak:)

Dural
2019-01-10, 17:35:00
Mantle war Software, RT ist Software und Hardware.

Kleiner aber feiner Unterschied ;)

iuno
2019-01-10, 17:40:41
Was passiert eigentlich wenn man RT "anschaltet"?
IT JUST WORKS!!!!:freak:

dargo
2019-01-10, 17:42:52
sieht irgendwer die Möglichkeit für ein Titan Äquivalent mit 64 CUs? ein Salvage-Chip von AMD als Top-Dog ist irgendwie komisch. Bei 331 mm² müssten doch genug Chips ohne Teildefekt rauskommen, oder verkauft AMD soviele MI60? Der große Kostentreiber dürfte ja eher der HBM-Speicher sein.
Welches Interesse bei den Käufern sollten jetzt 3-4% mehr Leistung erwecken :confused:

BoMbY
2019-01-10, 17:49:39
Was mich eher wundert ist, dass es nur 60er und 64er gibt, und nicht auch eine 56er-Variante? Wenn die Yields schlecht wären, sollte es doch deutlich mehr 56er als 60er geben?

w0mbat
2019-01-10, 17:52:53
Wenn die yields schlecht wären, würde es keine RVII geben.

dargo
2019-01-10, 17:53:59
Edit: Und OC3D hat mehr Benchmark-Ergebnisse (https://www.overclock3d.net/news/gpu_displays/amd_releases_additional_benchmarks_for_their_radeon_vii_gpu/1).
Mich würde mal echt interessieren warum Fallout 76 so aus der Reihe tanzt.

w0mbat
2019-01-10, 17:57:54
Mich würde mal echt interessieren warum Fallout 76 so aus der Reihe tanzt.
Mich wundert bei FO76 gar nichts. Wahrscheinlich braucht es 32GB und 2TB/s um gut zu laufen.

Unicous
2019-01-10, 18:07:10
Komisch. Mantle ist nur Software?:confused:

Ich dachte für Mantle braucht man einen "Hardware-Stack"/Architektur ähnlich dem von Vulkan und DX12. Aber hey warum sollte ich mit dem Experten streiten, der sonst diesen Thread und andere Threads mit Unsinn vollspammt. ¯\_(ツ)_/¯

Grendizer
2019-01-10, 18:17:00
Ich finde das Gebrüll von Huang gerade auch unmöglich und finde auch das er ein wenig von seinem hohen Ross runterkommen sollte, aber bei AMD ist man auch nicht wirklich innovativ und verläßt sich doch auch nur auf seine Fertigungspartner.

Und mal ehrlich ... kein Mensch verliert ein Wort über NGG und primitive Shaders ... ist also auch hier vermutlich immer noch kaputt. nVidia hat versucht innovativ zu sein und wird sein Lehrgeld zahlen müssen.

Bei Radeon VII bin ich dann mal wirklich auf die Verfügbarkeit gespannt. Wenn der Speicher so schnell ist, wird sie vieleicht ja auch eher wieder für Miner interessant und dann werden die Preise wieder steigen.

gmb
2019-01-10, 18:19:34
Dem CEO von Nvidia gefällt die neue Grafikkarte wohl nicht :freak:

https://www.computerbase.de/2019-01/nvidia-ceo-amd-radeon-vii/

"And if we turn on ray tracing we’ll crush it."

Das ist einfach nur gut :D


Endlich spricht jemand die Wahrheit aus :up: Bei dem gezeigten kann man nur enttäuscht sein.

Unicous
2019-01-10, 18:32:24
"Die Wahrheit"™.

Im Post-Truth-Zeitalter von "die Wahrheit" sprechen.;D

Linmoum
2019-01-10, 18:35:33
Wenn das die Wahrheit war, trifft dasselbe laut gmb also auch auf seine Aussage Richtung Intel zu. ;D

MR2
2019-01-10, 19:34:00
AMD hat's halt drauf, die entwickeln nebenbei noch die GPU für Intel!

Wenn es ne gute, leise Costum gibt werde ich meine Fury Trix ablösen.

SKYNET
2019-01-10, 20:25:14
Mich würde mal echt interessieren warum Fallout 76 so aus der Reihe tanzt.


weil: fallout 76 - 11GB(1440p)

HOT
2019-01-10, 20:48:06
AMD schafft es mit 2 7nm-Chips alle Märkte aufzurollen. Da kann Jensen noch so enttäuscht sein, kosteneffizienter kann mans nicht hinbekommen.

gravitationsfeld
2019-01-10, 20:55:49
Komisch. Mantle ist nur Software?:confused:

Ich dachte für Mantle braucht man einen "Hardware-Stack"/Architektur ähnlich dem von Vulkan und DX12. Aber hey warum sollte ich mit dem Experten streiten, der sonst diesen Thread und andere Threads mit Unsinn vollspammt. ¯\_(ツ)_/¯
Mantle ist nur Software, aber es war sehr auf GCN ausgelegt - was gerade beim Resource-Binding viel weiter war als NVIDIA um die Zeit. Um Mantle auf NVIDIA zu implementieren zu koennen braeuchte man wohl Turing.

nordic_pegasus
2019-01-10, 20:59:35
Welches Interesse bei den Käufern sollten jetzt 3-4% mehr Leistung erwecken :confused:

weil für viele Technik-Nerds teildefekte Chips nicht ansprechend sind. Warum wurde z.B. die TitanXp gegen 1080Ti von manchen bevorzugt.

Ich würde auch kein Auto kaufen, bei dem ein Zylinder wegen Fehlern bei der Herstellung zugegossen wurde ;-) Selbst wenn es dafür viel Rabatt gäbe.

Rabiata
2019-01-10, 20:59:38
Mi60 müsste der Vollausbau sein mit 64cu und die Vega 7 ist eine umgelabelte MI50 mit 60cu

https://scr3.golem.de/screenshots/1811/Radeon-Instinct-MI60/thumb620/Radeon-Instinct-MI60-05.jpg
Vielleicht ist gegenüber der MI50 auch ECC gestrichen, das spart noch ein paar Euro.
Apropos ECC, die Module werden ja sonst immer mit einem 9.Chip für die Paritätsbits gebaut. Gibt es jetzt etwa 9-high HBM Stacks dafür?? Hab auf die Schnelle mit Google nix dazu gefunden.

Troyan
2019-01-10, 21:04:50
Dito. AMD schmäht Intel nicht in solch drastischen Worten.

Außerdem, wenn Huang sagt "The performance is lousy", trasht er damit nicht auch seine 2080? ;D

Natürlich macht es AMD mit Intel. Schon vergessen die Aussagen ala "Nobody got fired for buying Xenon" oder die anderen Sprüche über Xenon: https://www.notebookcheck.net/AMD-trolls-Intel-yet-again-compares-Xeon-to-dinosaurs.318260.0.html



Was passiert eigentlich wenn man RT "anschaltet"?

Allein für diese Aussage müsste man ihn schon vor der versammelten, nach sound bites lechzenden Journaille auslachen.

Wie viele Spiele gibt es denn bislang, die RT nutzen?

Ach ja, die kann man ja an einem Finger abzählen.;D


Dass Vega II wahrscheinlich niemanden vom Hocker hauen wird, geschenkt. Zu behaupten Vanity-Features die man momentan so gut wie nicht nutzen kann würden das noch nicht erschienene Produkt in Grund und Boden stampfen ist einfach nur ein Spuckefaden im Gesicht der "Gamer".


Final Fantasy 15 unterstützt DLSS und damit ist eine 2080 Lichtjahre schneller als Vega 7. Damit hat er recht.

Unicous
2019-01-10, 21:06:46
Mantle ist nur Software, aber es war sehr auf GCN ausgelegt - was gerade beim Resource-Binding viel weiter war als NVIDIA um die Zeit. Um Mantle auf NVIDIA zu implementieren zu koennen braeuchte man wohl Turing.

Merkste selber ne?:freak:

Mantle ist/war Software um spezielle Hardware-Eigenschaften (effizienter) nutzen zu können. Mantle muss/te speziell in Spiele integriert werden.

OptiX ist eine Software um spezielle Hardware-Eigenschaften, in diesem Falle einen Raytracing Algorithmus, nutzen zu können. Raytracing muss durch OptiX (oder eine ähnliche API) speziell in Spiele integriert werden.


edit:
Manch einer behauptet, dass DLSS eine Verschlimmbesserung ist. ¯\_(ツ)_/¯

Linmoum
2019-01-10, 21:10:17
Natürlich macht es AMD mit Intel. Schon vergessen die Aussagen ala "Nobody got fired for buying Xenon" oder die anderen Sprüche über Xenon: https://www.notebookcheck.net/AMD-trolls-Intel-yet-again-compares-Xeon-to-dinosaurs.318260.0.html
Natürlich macht AMD es mit Intel, nennt sich Marketing.

"Xeon Ruled. So did Dinosaurs" sagt alles. So gewinnt man Aufmerksamkeit, Kunden und sorgt für Schmunzler.

Auf der anderen Seite jemand, der CEO eines Unternehmens ist und fast schon trash talking in dieser Funktion betreibt. Professionalität scheint man bei Nvidia jedenfalls klein zu schreiben. Oder die sind gerade so dermaßen angespannt, weil Turing sich mies verkauft und sich das in den kommenden Quartalszahlen widerspiegeln wird. Der Ausblick war ja schon eine Katastrophe.

Troyan
2019-01-10, 21:12:01
Stimmt. Wenn AMD Xenon als veraltet bezeichnet, dann ist dies okay. Macht es Huang in Form von nVidia ist es böse.

Erkläre mal: Was ist der Unterschied zwischen "lousy" and "Xeon was great. So was coal."?


edit:
Manch einer behauptet, dass DLSS eine Verschlimmbesserung ist. ¯\_(ツ)_/¯

Manch einer behauptet auch, dass weniger als 30FPS vollkommen ausreichend sind.

w0mbat
2019-01-10, 21:16:29
Final Fantasy 15 unterstützt DLSS und damit ist eine 2080 Lichtjahre schneller als Vega 7. Damit hat er recht.
Wie wenn AMD kein upsampling könnte. Und wow, mit einer niedrigeren Auflösung ist die 2080 schneller, hammer krass :freak:

Niemand will mit upsampling spielen. Dafür braucht man keine schnelle GPU.

Unicous
2019-01-10, 21:16:34
Der Unterschied ist eindeutig.

Marketing-Abteilung entwickelt eine Kampagne die der ein oder andere als cringey empfindet.

CEO trash talked über die Konkurrenz. Das ist ähnlich wie bei Steve Jobs. Immer wenn er über die Konkurrenz gelästert hat wurde es fremdschämig.

Intel war jahrelang in der Lage die Konkurrenz überhaupt nicht adressieren zu müssen (außer im Fertigungsbereich, da gab es auch immer wieder Trash Talk).

Der Trash Talk hat erst wieder begonnen als AMD Produkte auf den Markt gebracht hat die ihnen gefährlich werden konnte.

Warum also muss Jensen sich überhaupt auf dieses Niveau bewegen ist doch die Frage? Was erhofft er sich davon?

SKYNET
2019-01-10, 21:28:20
Final Fantasy 15 unterstützt DLSS und damit ist eine 2080 Lichtjahre schneller als Vega 7. Damit hat er recht.

und DLSS sieht scheisse aus, artefakte, texturen zT. matschig usw. sorry, komm mal mit was anderem als mit features die schrott sind... DLSS = fail, RT = fail(zumindest in der aktuellen graka gen, weil zu lahm).

bleibt nur noch die rohleistung unterm strich, und da kommt die VII die der 2080 das wasser abgräbt und die doppelte speichermenge hat, welche man effektiv nutzen kann, und der user einen mehrwert von hat, im gegensatz zu RT und DLSS :P

Fetza
2019-01-10, 21:28:46
Ich glaube ja, dass Herr Huang deshalb so krass austeilt, weil er weiss dass die 16 GB Ram der Radeon 7 die 8 GB der 2080 nunmal äußerst mickrig erscheinen lässt.
NVidia hat jetzt doch folgendes Problem: Der Graphikspeicher der eigenen Karten wird zunehmend als defizitär angesehen. Sie können jetzt aber nicht sofort neue Modelle mit mehr Graka-Ram raushauen, sonst wären alle alten Käufer sauer. Eine bald erscheinende hypothetische RTX 2080 mit 12 GB Ram würde sicher so eine Reaktion (verständlicher Weise) provozieren.

Armaq
2019-01-10, 21:30:14
Der Ram-Speed könnte in bestimmten Anwendungen das reale Problem sein. Das ist einfach massiv Bandbreite.

SKYNET
2019-01-10, 21:31:34
Ich glaube ja, dass Herr Huang deshalb so krass austeilt, weil er weiss dass die 16 GB Ram der Radeon 7 die 8 GB der 2080 nunmal äußerst mickrig erscheinen lässt.
NVidia hat jetzt doch folgendes Problem: Der Graphikspeicher der eigenen Karten wird zunehmend als defizitär angesehen. Sie können jetzt aber nicht sofort neue Modelle mit mehr Graka-Ram raushauen, sonst wären alle alten Käufer sauer. Eine bald erscheinende hypothetische RTX 2080 mit 12 GB Ram würde sicher so eine Reaktion (verständlicher Weise) provozieren.

12GB geht nicht, wenn müssen sie 16GB machen... und dann kostet die karte fast soviel wie ne 2080Ti ;D

horn 12
2019-01-10, 21:40:19
@Fetza

Und würde den Preis erneut um 60 Dollar weiter nach oben treiben bei einer rtx 2080
HBM ² wird zusehend eher billiger als Teurer und auch die angepeilten 40% zur RX Vega 64 werden angestrebt und schlussendlich auch so kommen,- also Augenhöhe mit RTX 2080FE Modell

Zur 2080TI würden dann nur mehr die 20 bis 25% fehlen,- aber die lässt AMD Sausen,
da Nv dort eh schon gut Bedient ist, Jeder weiss was ich meine :-)


@edit
Mir glaubt dies auch keiner, ebensowenig die bereits von mir erwähnten 16GB HBM² da AMD wusste Nvidia an der Ferse zu treffen,- sogleich deren Preise in die Höhe geschossen wurden.
Zudem wurde am Treiber weiterentwickelt was nun Vega VII zu gute kommt und auch dringendst notwendig war.