Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
fondness
2017-06-21, 11:31:24
Hm, 300W für 13,1 TFLOPs. Jetzt kommt es auf die Effektivität an, wenn man bei Spielen Pascal Effektivität erreicht, wäre das okay. Eine 1080 Ti schafft 11.3 TFLOPs bei 250W.
Bucklew
2017-06-21, 11:33:23
Ankündigen kann man viel, nicht wahr. Es ist immer das am Schnellsten, was IST, nicht was wäre, hätte, könnte, wird oder vielleicht ist.
Zum schön reden einer Ankündigung von AMD taugt das jetzt nicht so richtig ;D
Deiner Logik nach ist AMDs Aussage immer noch falsch. Denn die schnellste Karte ist - tada! - GP100. Die Mi25 könnte vielleicht kurzfristig die schnellste sein. Aber kaufbar ist sie aktuell nicht.
Mancko
2017-06-21, 11:43:36
Zum schön reden einer Ankündigung von AMD taugt das jetzt nicht so richtig ;D
Deiner Logik nach ist AMDs Aussage immer noch falsch. Denn die schnellste Karte ist - tada! - GP100. Die Mi25 könnte vielleicht kurzfristig die schnellste sein. Aber kaufbar ist sie aktuell nicht.
Am Ende ist doch die interessanteste Info eh, dass Vega nicht über die gleichen FP64 Möglichkeiten wie P100 und V100 verfügt. Damit ist bei HPC zumindest schon mal eine ordentliche Einschränkung da. Bei Deep-Learning ist halt AMD leider wie im Gaming sehr spät drann, vermutlich aber in Relation sogar noch viel später als beim Gaming denn P100 für Deep-Learning gibt es länger als das GeForce Gaming Derivat und auch V100 wird früher ausgeliefert als das GeForce Gaming Derivat. Sprich mit V100 ist P100 obsolet und MI25 in der Folge im Grunde auch. Ich will jetzt nicht auf einzelnen Monaten der Lieferbarkeit rumreiten aber wenn es optimal für AMD läuft, dann haben sie vielleicht 3 Monate für PCIe Varianten.
Mangel76
2017-06-21, 11:58:05
Immer diese Schwarzseher :rolleyes:
Zudem ist auf den Fotos zu erkennen, dass die Radeon Instinct MI25 über einen Acht-Pin- und einen Sechs-Pin-Stromstecker verfügt.
https://www.computerbase.de/2017-06/radeon-instinct-mi25-specs/
Die Mi8 ist mit 300W Board Power angegeben, hat aber nur Acht- und Sechs-Pin-Stecker? Ich glaube kaum, dass sich AMD so entschieden hätte, dass hier so auf Kante zu nähen im professionellen Bereich. Ich erinnere mich da an den Aufschrei bei RX 480 wegen der Überschreitung der Spezifikationen am PCIe-Slot.
Immer diese Schwarzseher :rolleyes:
https://www.computerbase.de/2017-06/radeon-instinct-mi25-specs/
Die Mi8 ist mit 300W Board Power angegeben, hat aber nur Acht- und Sechs-Pin-Stecker? Ich glaube kaum, dass sich AMD so entschieden hätte, dass hier so auf Kante zu nähen im professionellen Bereich. Ich erinnere mich da an den Aufschrei bei RX 480 wegen der Überschreitung der Spezifikationen am PCIe-Slot.
Jo mehr als 250 w kann die in der config nicht vernrauchen.
Troyan
2017-06-21, 12:56:58
Deswegen bewirbt AMD die Karte auch mit 300W, weil sie nicht mehr als 250W benötigt. :rolleyes:
Habt ihr überhaupt eine Ahnung, wie solche Serversysteme konzeptioniert werden? Wenn da 300W stehen, dann werden diese Karten auch nur in System verbaut, die 300W abführen können. Da denkt sich keiner: 300W? Quatsch. Die Karte hat ja nur 6+8 Pin. Da kann ich bei der Kühlung ein paar Cent sparen. Wird schon nichts passieren.
Einfach die Realität akzeptieren. Und einfach auch mal AMD glauben, die die eigenen 300W als Berechnungsgrundlage verwenden. ;D
AffenJack
2017-06-21, 12:59:45
Jo mehr als 250 w kann die in der config nicht vernrauchen.
Doch ganz sicher verbraucht sie mehr als 250W, sonst hätte man ihr ne 250W TDP gegeben. Sie hat aber nicht ohne Grund 300W bekommen.
BoMbY
2017-06-21, 13:15:25
AMD EPYC Empowers Server GPU Deep Learning (http://www.amd.com/system/files/2017-06/TIRIAS-AMD-Epyc-GPU-Server.pdf):
http://i.imgur.com/p9SoAmb.png
Und diesen Part finde ich besonders interessant:
AMD SoC and GPU Better Together
There is a time-honored tradition in the high-tech industry of trying to provide
proprietary “better together” solutions, but these single-vendor match-ups
nearly always fail because they make unacceptable compromises when
operating in a multi-vendor deployment. AMD took a different path when
looking at EPYC and Radeon Instinct together. Both products must operate in
multi-vendor deployments – EPYC with a range of PCIe accelerator AIBs
and Radeon Instinct with other vendors’ processors. Because of this, using
proprietary hardware or software lock-ins was and is unacceptable to AMD.
AMD’s better together story is about adding a bit of extra logic to the memory
controllers on both products without making any compromises.
AMD started with the fact that both products are HSA-compliant. The original
plan was to surface memory page faults and report precisely what happens.
As a result, AMD implemented IOMMUv2 Address Translation Cache (ATC),
which enables a GPU to directly access a processor’s memory page tables.
AMD’s implementation of ATC will be supported in hardware and is intended to
work with existing Linux distributions. ATC will not be enabled at the launch of
either EPYC or Radeon Instinct; AMD intends to enable the ATC feature at a
later date.
ATC enables AMD’s Vega 10 GPU to keep pace with AMD’s EPYC SoC page
table operations in real-time. The SoC does not have to pin virtual memory to
a physical location before copying the contents of that memory to the GPU,
and then unpin memory after the copy to free it back into the virtual memory
pool. Pinning and unpinning takes time, which affects performance.
The net effect of IOMMUv2 ATC will be more efficient data copies between
SoC and GPU in many cases.
With virtual memory pointers freely shared between SoC and GPU, the GPU’s
high bandwidth memory cache sees one virtual memory pool spanning
SoC and GPU. The underlying memory system will migrate data to the
GPU’s HBM as it is needed. Software developers writing applications on
Radeon Instinct will be able to reference memory allocated by processes
running under Linux on EPYC, and processes running under Linux on
EPYC will be able to see Radeon Instinct stack variables and memory
allocations. This bi-directional memory access should make it easier to
develop new compute acceleration applications for or to port existing
applications to Radeon Instinct.
IOMMUv2 ATC is invisible to applications code because the required changes
are within AMD’s ROCm software stack. AMD is collecting data to evaluate the
performance impact before ATC is enabled in the market, and expects that
many applications will run a little faster.
Bucklew
2017-06-21, 13:17:03
Jo mehr als 250 w kann die in der config nicht vernrauchen.
So wie ja auch die 150W bei der RX480 niiiiiiiiiemals erreicht wurden ;D
Linmoum
2017-06-21, 13:18:13
Was natürlich ein sinnvoller Vergleich ist.
Aber mehr als 250W wird das Teil auf jeden Fall ziehen.
@BoMbY
Was ja eigentlich schon von den Dächern gezwitschert wird, nun einen Namen hat (ATC) - Danke für den Link.
Cyphermaster
2017-06-21, 13:25:40
Zum schön reden einer Ankündigung von AMD taugt das jetzt nicht so richtig ;DIch will ja auch nichts schönreden, sondern nur feststellen, daß du mit deinem Äpfel-und-Birnen-Vergleich das Ganze nur noch schlimmer machst.
Deiner Logik nach ist AMDs Aussage immer noch falsch. Denn die schnellste Karte ist - tada! - GP100.Das ist richtig.
Doch ganz sicher verbraucht sie mehr als 250W, sonst hätte man ihr ne 250W TDP gegeben. Sie hat aber nicht ohne Grund 300W bekommen.1.: TDP != TDP, je nach Hersteller.
2.: TDP != MBP
3.: Die Pro Duo hat eine TDP von 300W, der Gaming-Vega 225W. (http://cdn.wccftech.com/wp-content/uploads/2017/01/AMD-VEGA-10-specifications-840x458.jpg)
Ich beziehe mich mit den 250W auf die gesamte Karte, also TDP von Chip+Rest und unter den 1600 MHz Takt wie bei den Profi-Versionen. Wobei 250W eben nur eine sehr plakative, gut im Marketing handelbare Zahl ist. Wenn's effektiv 255,7W wären ist das sicher auch nicht schlecht, sieht auf dem Datenblatt nur nicht so schön aus. Bezüglich der Stecker nimmt sich das eh nix, da wird man standardmäßig 6+8 nehmen.
3.: Die Pro Duo hat eine TDP von 300W, der Gaming-Vega 225W. (http://cdn.wccftech.com/wp-content/uploads/2017/01/AMD-VEGA-10-specifications-840x458.jpg)
Das ist wohl Fake Unsinn. Ich denke auch dass man, nachdem alles in eine Richtung geht (FE mit 2x8 Pin, MI25 mit 300W trotz verfehltem Taktziel und keiner Belastung der TMUs, ROPs, ...), nicht mehr so optimistisch rechnen muss.
BoMbY
2017-06-21, 13:32:09
@BoMbY
Was ja eigentlich schon von den Dächern gezwitschert wird, nun einen Namen hat (ATC) - Danke für den Link.
Naja, sieht so aus als wäre das eigentlich keine wirkliche Neuigkeit - nur bisher wenig beachtet: https://www.phoronix.com/forums/forum/linux-graphics-x-org-drivers/open-source-amd-linux/911118-radeon-open-compute-1-3-platform-brings-polaris-other-features?p=911166#post911166s
Ist vielleicht genau das "Feature" (ATC) dafür Verantwortlich, dass der ganze Kram(IF) am RAM Takt gekoppelt wurde? ... Oder liege ich da gänzlich falsch?
Complicated
2017-06-21, 13:44:59
Das ist richtig. Die IOMMU ist der zentrale Kern in AMDs Speicherverwaltung für hUMA bei APUs, allerdings gab es bisher auf GPUs keine IOMMU Einheit. Möglich, dass dies oder Elemente davon in den HBCC gewandert ist. Allerdings war IOMMU involviert bei der klassischen I/O-Anbindung welche durch CCIX eigentlich ersetzt wird. Bei Carrizo war IOMMU noch das dritte Element in Verbindung mit dem GPU-Speicherkontroller und dem CPU-Speichercontroller. Siehe Bild:
http://www.notebookcheck.com/fileadmin/_processed_/csm_carrizo_hsa_features_d6eff11ebd.jpg
Interessant hier die separate "ATC"-Kommunikation um die Cache-Kohärenz zu gewährleisten.
Mittlerweile gibt es IOMMU in der dritten Version - das Update war gerade im Dezember 2016. Hier der Link zum Whitepaper falls jemand mal rein schauen will: http://support.amd.com/TechDocs/48882_IOMMU.pdf
Allerdings glaube ich, dass nur Teile davon im HBCC enthalten sind, da dieser CCIX und GenZ Merkmale aufweist, welche IOMMU nicht bieten konnte. Das sind z.B die direkten memory read/writes auf SSD/HDD/SAN. In den beiden Links zu CCIX die ich schon gepostet habe ist auch dieser Unterschied zu finden in den animierten Grafiken. Dort wird der Bereich der hier bei AMD IOMMU und "ATC" genannt wird als "SMP" betitelt, weil die Beispiele mit symetrischen Multi-prozessoren ausgeführt sind. ATC ist im Prinzip die fabric, welche in einer APU die Cache-Cohärenz herstellt.
;)
Rampage 2
2017-06-21, 13:48:58
Wieviel Watt würde eigentlich ein Vega-Vollausbau @ 1.7GHz Chiptakt ziehen? Ich gehe mal davon aus, dass die besten Vega-Exemplare sich bis auf 1.7GHz übertakten lassen. Bei 1.7GHz hätte das Ding knapp 14 TFlops - und damit fast genau so viel wie eine 1080Ti @ 2GHz... (14.3 TFlops)
R2
Troyan
2017-06-21, 13:54:37
Die Frontier-Edition mit Wasserkühlung wird mit 375W beworben. Du kannst also wohl in der Richtung rechnen.
Bucklew
2017-06-21, 14:06:16
Ich will ja auch nichts schönreden, sondern nur feststellen, daß du mit deinem Äpfel-und-Birnen-Vergleich das Ganze nur noch schlimmer machst.
Den Äpfel-Birnen-Vergleich hat wohl AMD angestellt, wenn sie ihre Ankündigung mit lieferbaren Produkten vergleichen und genau wissen, dass im gleichen Zeitraum, durchaus vor ihrem eigenen Lieferstart, ein besseres Produkt lieferbar sein wird.
Ich vergleich nur Birnen - angekündigt - mit Birnen - angekündigt - und das gewinnt NVIDIA nun mal locker. Und das wusste AMD auch schon zum Zeitpunkt 2. Juni. Es ist einfach gelogen da noch zu behaupten, man hätte die schnellste Karte.
vinacis_vivids
2017-06-21, 14:12:09
Edit:
https://abload.de/img/radeon-vega-fe-vs-titahu6a.jpg
http://www.zdnet.com/article/amd-radeon-vega-frontier-graphics-cards-make-an-appearance/
Bucklew
2017-06-21, 14:16:16
Wer kauft eine Titan für 1000US$+, wenn eine Quadro P4000 für um die 900US$ schneller ist, auch schneller als die 1199US$ Vega FE?
Mangel76
2017-06-21, 14:17:44
Deswegen bewirbt AMD die Karte auch mit 300W, weil sie nicht mehr als 250W benötigt. :rolleyes:
Habt ihr überhaupt eine Ahnung, wie solche Serversysteme konzeptioniert werden? Wenn da 300W stehen, dann werden diese Karten auch nur in System verbaut, die 300W abführen können. Da denkt sich keiner: 300W? Quatsch. Die Karte hat ja nur 6+8 Pin. Da kann ich bei der Kühlung ein paar Cent sparen. Wird schon nichts passieren.
Einfach die Realität akzeptieren. Und einfach auch mal AMD glauben, die die eigenen 300W als Berechnungsgrundlage verwenden. ;D
Achso, hier ist der grobe Rahmen von 300W natürlich viiiiiieeeeeel ausschlaggebender als die Spezifikation der Anschlüsse!?! Mit 8- und 6-Pin-Anschlüssen werden 225W bereitgestellt. Es kommt mir zumindest fragwürdig vor, dass nach dem RX480-"Skandal" auch nur annähernd weitere 75W aus dem Slot gezogen werden sollen bzw. bezweifele ich, dass sie die Spezifikation der anderen Anschlüsse sprengen, auch wenn es in der Praxis kein Problem wäre!
:confused:Hatte nicht kürzlich jemand hier im Forum mal geschrieben, dass 75 Watt aus dem Slot zu ziehen ginge wegen HBM gar nicht? War das nicht der Grund dafür, dass z.B. Fiji kaum Strom aus dem Slot bezog?:confused:
Ach übrigens, die 250 Watt hast du behauptet!
deekey777
2017-06-21, 14:17:45
Die Frontier-Edition mit Wasserkühlung wird mit 375W beworben. Du kannst also wohl in der Richtung rechnen.
Hast du einen Link dazu? Ich finde irgendwie nichts.
http://pro.radeon.com/en-us/vega-frontier-edition/
http://www.anandtech.com/show/11403/amd-unveils-the-radeon-vega-frontier-edition
Cyphermaster
2017-06-21, 14:18:38
Ich vergleich nur Birnen - angekündigt - mit Birnen - angekündigt - und das gewinnt NVIDIA nun mal locker.:rolleyes: Diese Ankündigungen sind über Faktenlagen hinausgehender, üblicher Marketing-Bullshit mit Annahmen von fiktiven Szenarien. Da die Annahmen von Firma A für ihre Szenarien nicht die gleichen sind/sein müssen (v.a. was die zu einem Zeitpunkt von der Konkurrenz aufgebotene Performance angeht - geht ja schon damit los, daß man die natürlich immer an den Benchmarks bestimmt, wo man selber tendenziell besser weg kommt...), wie die von Firma B, sind diese auch nicht vergleichbar = Äpfel vs. Birne.
Wenn man wie jetzt irgendwelche Marketing-Fantasien für bare Münze nimmt (1. Fail), und dann auch noch unterschiedliche Fantasien versucht, miteinander in einen Schwanzvergleich zu packen (2. Fail), wird aus Bullshit eben Bullshit², aber keine sinnvolle Information, geschweige denn Fakten.
Troyan
2017-06-21, 14:19:29
Hast du einen Link dazu? Ich finde irgendwie nichts.
http://pro.radeon.com/en-us/vega-frontier-edition/
http://www.anandtech.com/show/11403/amd-unveils-the-radeon-vega-frontier-edition
Jo, hier ein andere Händler mit den selben Angaben: https://www.newegg.com/Product/Product.aspx?Item=N82E16814105074&cm_re=frontier_edition-_-14-105-074-_-Product
Der Marketingtext und die Spezifikation stammt von AMD. Oben wurde auch die Vergleichsfolie gepostet.
Complicated
2017-06-21, 14:21:02
Wer kauft eine Titan für 1000US$+, wenn eine Quadro P4000 für um die 900US$ schneller ist, auch schneller als die 1199US$ Vega FE?
Jemand der 16GB Speicher benötigt wie z.B. Entwickler und Video Editoren. P4000 hat nur 8 GB und die Titan XP auch nur 12 GB.
Screemer
2017-06-21, 14:22:19
https://abload.de/img/2017-06-1608-56-48hmu10.jpg
Noch mal das ist ein komplett sinnloser Vergleich und die Werte stehen seit Wochen auf der AMD Homepage. Die hast du jetzt s hon gefühlte 20 mal gepostet. Die billigere p4000 hat schon bessere specviewperf Werte als die vfe.
Bucklew
2017-06-21, 14:23:18
:rolleyes: Diese Ankündigungen sind über Faktenlagen hinausgehender, üblicher Marketing-Bullshit mit Annahmen von fiktiven Szenarien.
Es ist das eine Cherrypicking zu betreiben, wie es NVIDIA gern macht, das andere ist es, zu lügen, wie es AMD in diesem Vergleich getan hat.
Der Vergleich Vega gegen die in OGL gedrosselte Titan XP ist ja genauso blödsinnig, wenn schlussendlich eine 30% günstigere und gerade mal 1/3 an Leistung aufnehmende Quadro P4000 schneller ist. Damit blamiert man sich nur und macht sich zum Gespött.
Jemand der 16GB Speicher benötigt wie z.B. Entwickler und Video Editoren. P4000 hat nur 8 GB und die Titan XP auch nur 12 GB.
Video Editoren kaufen ihre Karte nach Benchmarks von SpecViewperf? Das ist mir neu ;D Aber schön, dass du nachplapperst, was ich schon lange geschrieben habe. Manchmal klappts ja bei dir mit dem lesen :up:
Für die Kunden, die 16GB benötigen, gibt es übrigens die P5000. Hat ebenfalls 16GB. Wer noch mehr will, kann auch 24GB haben.
vinacis_vivids
2017-06-21, 14:23:42
Quelle?
Habs editiert. Es sind mehrere Quellen, die voneinander abschreiben. Original angeblich von *Exxact Corp*
Complicated
2017-06-21, 14:24:55
Der Vergleich Vega gegen die in OGL gedrosselte Titan XP ist ja genauso blödsinnig, wenn schlussendlich eine 30% günstigere und gerade mal 1/3 an Leistung aufnehmende Quadro P4000 schneller ist. Damit blamiert man sich nur und macht sich zum Gespött.
Das einzige was zu Gespött führt ist das völlige ausblenden der Speicherausstattung - seit wann ist das denn nicht mehr wichtig und vor allem kostenlos?
vinacis_vivids
2017-06-21, 14:26:15
Noch mal das ist ein komplett sinnloser Vergleich und die Werte stehen seit Wochen auf der AMD Homepage. Die hast du jetzt s hon gefühlte 20 mal gepostet. Die billigere p4000 hat schon bessere specviewperf Werte als die vfe.
Kann mich nicht erinnern jemals gepostet zu haben :confused:
Bucklew
2017-06-21, 14:28:50
Habs editiert. Es sind mehrere Quellen, die voneinander abschreiben. Original angeblich von *Exxact Corp*
Nö. AMD. Wurde dir schon 3x erklärt.
Das einzige was zu Gespött führt ist das völlige ausblenden der Speicherausstattung - seit wann ist das denn nicht mehr wichtig und vor allem kostenlos?
Da lob ich dich im letzten Posting noch und nun zeigst du doch wieder deine völlige Ignoranz gegenüber dem Lesen:
Da kann AMD nur mit dem doppelten Speicher gegen anstinken, alles Andere spricht für die P4000.
Es ist allerdings mehr als nur fraglich, ob im Leistungsbereich einer P4000 ein Speicher von 16GB wirklich notwendig ist. Was ich bisher gesehen habe, eher nicht.
deekey777
2017-06-21, 14:30:57
Jo, hier ein andere Händler mit den selben Angaben: https://www.newegg.com/Product/Product.aspx?Item=N82E16814105074&cm_re=frontier_edition-_-14-105-074-_-Product
Der Marketingtext und die Spezifikation stammt von AMD. Oben wurde auch die Vergleichsfolie gepostet.
Die 375W ist die TDP. Sprich die Wasserkühlung ist in der Lage eine Wärmeverlustleistung von (mindestens) 375 W abzuführen. Nur so ein Gedanke: In den 375 steckt auch ein Spielraum für Übertaktung.
Und dann verweise ich auf die Tabelle bei Anandtech. Eine duale Polaris-Pro mit 2x32 CUs und 1243 MHz (plus Speicher und was auch immer) hat die Typical Board Power von 250 W. Entweder hat AMD es wirklich richtig verkackt, oder wir sollten Füße stillhalten, bis der Verbrauch der Karte gemessen wird.
Screemer
2017-06-21, 14:32:42
Jemand der 16GB Speicher benötigt wie z.B. Entwickler und Video Editoren. P4000 hat nur 8 GB und die Titan XP auch nur 12 GB.
Der Vergleich hinkt trotz dem. Dann kann man auch ne p5000 für ein bisschen mehr kaufen und hat noch mehr RAM. Die gibts grad bei real online (:ugly:) für 1650€ brutto. Da hast du dann noch mehr performance, genau so viel RAM und die gleichen kosten...
Langsam glaub ich an nem ziemlichen rohrkrepierer bei Vega.
Mit AMD Basis ala threadripper und epyc gibts noch das plus von Atc.
@vivids: dann warst es halt nicht du. Es kam aber schon so häufig im thread vor, dass du es sicherlich schon gesehen hast.
Habs editiert. Es sind mehrere Quellen, die voneinander abschreiben. Original angeblich von *Exxact Corp*
Die Grafik war auf der Seite unten statt der HTML Tabelle: https://exxactcorp.com/index.php/product/prod_detail/2565
Da sich die Daten exakt mit den lange bekannten von AMD decken (und von der Aufmachung her) sollten sie auch von dort kommen, vermutlich aus irgendeinem Kit fuer Presse oder Haendler.
edit: noch ueber der Tabelle, ist im Archiv: https://web.archive.org/web/20170615204354/https://exxactcorp.com/index.php/product/prod_detail/2565
Troyan
2017-06-21, 14:35:16
Die 375W ist die TDP. Sprich die Wasserkühlung ist in der Lage eine Wärmeverlustleistung von (mindestens) 375 W abzuführen. Nur so ein Gedanke: In den 375 steckt auch ein Spielraum für Übertaktung.
Und komischerweise verbrauchen die Karten im Grunde immer exakt das, was als TDP angegeben wird. Da frage ich mich: Wie kann das sein? :rolleyes:
Und dann verweise ich auf die Tabelle bei Anandtech. Eine duale Polaris-Pro mit 2x32 CUs und 1243 MHz (plus Speicher und was auch immer) hat die Typical Board Power von 250 W. Entweder hat AMD es wirklich richtig verkackt, oder wir sollten Füße stillhalten, bis der Verbrauch der Karte gemessen wird.
Ja und? Die MI8 hat ein Verbrauch von 175W bei 8,2 TFLOPs. Die MI25 kommt auf 300W bei 12,3 TFLOPs.
Die 1500MHz+ sind eben kein Pappenstil, nur weil nVidia mit Pascal das als Basis-Takt angibt.
Cyphermaster
2017-06-21, 14:35:28
Es ist das eine Cherrypicking zu betreiben, wie es NVIDIA gern macht, das andere ist es, zu lügen, wie es AMD in diesem Vergleich getan hat.Lügen bedingt Unwahrheit, Unwahrheit bedingt eine nachprüfbare Wahrheit, was Fakten bedingt. Angekündigte zukünfitge Produkte sind keine Fakten, und daraus konstruierte Schwanzvergleiche spekulativ abgeleiteter Performance nach unterschiedlichen Maßstäben noch viel weniger.
Spekulation ist das Eine (wofür das Forum hier gedacht ist) - sich Fakten zu konstruieren und jemanden daraus ableitend einer direkten Lüge zu bezichtigen aber etwas ganz Anderes.
Complicated
2017-06-21, 14:37:23
Da lob ich dich im letzten Posting noch und nun zeigst du doch wieder deine völlige Ignoranz gegenüber dem Lesen:
Das einzig Ignorante ist zu denken es käme nur auf SpecPerf-Werte an. Die P5000 ist dann auch keine 30% billiger sondern 100% teurer mit selbem RAM wie die Frontier Edition. P6000 ist gleich viermal so teuer. Da wird der griff zur Frontier Edition für Content Entwickler zum Selbstläufer. Für diese ist sie ja auch gemacht und für die wird sie beworben.
Cyphermaster
2017-06-21, 14:40:13
Und komischerweise verbrauchen die Karten im Grunde immer exakt das, was als TDP angegeben wird.So? Interessant, daß AMD dann TDP für den Chip angibt, aber dann die gesamte Karte (deiner Aussage nach) diese TDP einhält. Zero-Energy-RAM und Wandler mit 100% Wirkungsgrad? Wow.
Abgesehen davon, daß bei nVidia mittlerweile gar keine TDP mehr direkt angegeben wird, sondern eine TBP = "typical board power", was wiederum was Anderes ist als eine MBP = "maximum board power", usw. usw.. Also besser Vorsicht mit solchen Aussagen, diese Abkürzungen sind seit Längerem nicht mehr so eindeutig.
Bucklew
2017-06-21, 14:47:31
Lügen bedingt Unwahrheit, Unwahrheit bedingt eine nachprüfbare Wahrheit, was Fakten bedingt. Angekündigte zukünfitge Produkte sind keine Fakten, und daraus konstruierte Schwanzvergleiche spekulativ abgeleiteter Performance nach unterschiedlichen Maßstäben noch viel weniger.
AMD selbst hat als "Benchmark" für die Behauptung ihre Shader * Takt * Flops gerechnet:
AMD TFLOPS calculations conducted with the following equation: FLOPS calculations are performed by taking the engine clock from the highest DPM state and multiplying it by xx CUs per GPU. Then, multiplying that number by xx stream processors, which exist in each CU. Then, that number is multiplied by 2 FLOPS per clock for FP32. To calculate TFLOPS for FP16, 4 FLOPS per clock were used. The FP64 TFLOPS rate is calculated using 1/16th rate.
Und dann bei NVIDIA auf der Homepage geschaut:
External results on the NVidia Tesla P100-16 (16GB card) GPU Accelerator resulted in 18.7 TFLOPS peak half precision (FP16) and 9.3 TFLOPS peak single precision (FP32) floating-point performance. Results found at: https://images.nvidia.com/content/tesla/pdf/nvidia-tesla-p100-PCIe-datasheet.pdf.
Ein Link daneben findet sich das hier:
http://images.nvidia.com/content/technologies/volta/pdf/437317-Volta-V100-DS-NV-US-WEB.pdf
Es IST eine Unwahrheit, wenn ich Fakten weg lasse. Und diese Fakten standen da auf der Homepage von NVIDIA. Und dann nur den Datensheet zu nehmen, der mir in den Kram passt und den anderen zu ignorieren, ist schlicht eine Lüge, wenn ich darauf aufbauend behaupte ich hätte die "schnellste Training Karte der Welt".
Das einzig Ignorante ist zu denken es käme nur auf SpecPerf-Werte an.
:rolleyes:
Da musst du dich bei vinacis_vivids beschweren, dass er sich ausschließlich auf die SPEC-Werte bezieht.
Und da gewinnt AMD nicht mal gegen die 900US$ P4000 und der Speicher wird eher nachrangig sein.
Die P5000 ist dann auch keine 30% billiger sondern 100% teurer mit selbem RAM wie die Frontier Edition. P6000 ist gleich viermal so teuer. Da wird der griff zur Frontier Edition für Content Entwickler zum Selbstläufer. Für diese ist sie ja auch gemacht und für die wird sie beworben.
Du redest Unfug. AMD selbst wirbt bei der Vega mit den SPEC-Werten, von denen du vor zwei Sätzen noch behauptet hast, die wären uninteressant.
Was denn nun?
http://pro.radeon.com/en-us/vega-frontier-edition/
Es ist offensichtlich, dass für den selbst von AMD gewählten Fokus die P4000 die deutlich bessere Wahl ist. Und gleichzeitig noch deutlich günstiger ist. Dein Vergleich mit P5000/P6000 hinkt alleine deshalb, weil die Karten deutlich schneller als eine Vega FE in den AMD-Benchmarks sind.
Screemer
2017-06-21, 14:49:39
Das einzig Ignorante ist zu denken es käme nur auf SpecPerf-Werte an. Die P5000 ist dann auch keine 30% billiger sondern 100% teurer mit selbem RAM wie die Frontier Edition.
Hä? Die wce von Vega kostet teila mehr bis gleichviel wie eine p5000 nach steuern und die dhe kostet schlappe 300-400€ weniger inkl. Steuer bei entsprechend höherer perf. AMD muss sich mit Vega ganz schön strecken.
Mangel76
2017-06-21, 14:51:21
Und komischerweise verbrauchen die Karten im Grunde immer exakt das, was als TDP angegeben wird. Da frage ich mich: Wie kann das sein? :rolleyes:
Die MI25 kommt auf 300W bei 12,3 TFLOPs.
.
Aha. Und die Frontier Edition hat 13,1 TFLOPS bei 300W. Was denn nun? Und die wassergekühlte hat auch 13,1 TFLOPS, aber bei 375W. Du siehst mich verwirrt :freak:
Cyphermaster
2017-06-21, 14:53:30
Und dann nur den Datensheet zu nehmen, der mir in den Kram passt und den anderen zu ignorieren, ist schlicht eine Lüge.Oh, vorhin war das doch noch lediglich "Cherrypicking"?
Und wie gesagt, "Fakten" über lediglich theoretische Produkte in einer theoretischen Marktsituation mit theoretischen Konkurrenzprodukten... ein echter Bucklew.
Langsam glaube ich, schlägt entweder das informative Sommerloch oder die Hitze bei einigen zu, daß man sich über Spekulationen hier teilweise wieder dermaßen massiv verbal an die Gurgel will.
vinacis_vivids
2017-06-21, 14:56:12
Hä? Die wce von Vega kostet teila mehr bis gleichviel wie eine p5000 nach steuern und die dhe kostet schlappe 300-400€ weniger inkl. Steuer bei entsprechend höherer perf. AMD muss sich mit Vega ganz schön strecken.
Hö?
https://abload.de/img/amd-radeon-vega-fronts2utt.png
Screemer
2017-06-21, 14:57:31
Hö?
https://abload.de/img/amd-radeon-vega-fronts2utt.png
Sequentielles leseverständnis? Es ging eindeutig um die performance der von AMD angegeben specviewperf benches.
deekey777
2017-06-21, 14:58:58
Video Editoren kaufen ihre Karte nach Benchmarks von SpecViewperf? Das ist mir neu ;D...
.
Nein, 3DMark.
Aha. Und die Frontier Edition hat 13,1 TFLOPS bei 300W. Was denn nun? Und die wassergekühlte hat auch 13,1 TFLOPS, aber bei 375W. Du siehst mich verwirrt :freak:
Zauberei?
vinacis_vivids
2017-06-21, 14:59:55
Merkst du nicht, dass Vega alles kann?
Und genau das ist der Vorteil....
Sequentielles leseverständnis? Es ging eindeutig um die performance der von AMD angegeben specviewperf benches.
Gipsel
2017-06-21, 15:00:57
wir sollten Füße stillhalten, bis der Verbrauch der Karte gemessen wird.Gut Einstellung! :up:
================================
Was Produktvergleiche bei Ankündigung eines Produktes betrifft, so ist es vollkommen üblich (bei allen Herstellern!), das angekündigte eigene Produkt mit am Markt befindlichen (eigenen oder fremden) zu vergleichen. Es kommt äußerst selten vor, daß sich ein Hersteller entschließt, seine eigenen angekündigten Produkte mit den angekündigten anderer Hersteller zu vergleichen. Und sei es nur, weil eben die angekündigten Produkte anderer Hersteller schlicht noch nicht für eventuelle Benchmarks zur Vefügung stehen.
Schaut Euch doch mal den EPYC-Launch an. Da konnten wir Benchmarks gegen intels aktuelle Xeon-Reihe sehen (Broadwell-E/EP). Es gab keine Benchmarks gegen den Nachfolger Skylake-SP (auch schon angekündigt und wird in Pilotsystemen bereits verbaut). Der ist aber schlicht noch nicht für normale Kunden verfügbar, also kann man damit auch nicht gut vergleichen. Außer einem Statement seitens AMD (daß man natürlich auch mit Skylake-SP konkurrenzfähig sein wird), gab es dazu nichts. Und das ist auch völlig normal.
Das versteht Jeder, der nicht gerade die Fanboy-Brille aufhat und sich unbedingt künstlich aufregen will.
Screemer
2017-06-21, 15:02:32
Merkst du nicht, dass Vega alles kann?
Und genau das ist der Vorteil....
Das bringt mir was, wenn ich catia oder creo als Haupteinsatzzweck habe? Warum nutzt man sowas um ein produkt zu bewerben. Es gab bis heute überhaupt keine anderen zahlen von AMD. Das ist einfach ein marketing fuckup vom feinsten.
Bucklew lass mal ein bisschen dampf aus dem Kessel. Deine vergleiche hinken wie invalidie Pferde. Lies was gipsel geschrieben hat. Das ist völlig normales Verhalten von Herstellern.
Bucklew
2017-06-21, 15:04:41
Merkst du nicht, dass Vega alles kann?
Und genau das ist der Vorteil....
Vega schlägt nicht mal einen GP104 mit 104W Leistungsaufnahme.
Ich hoffe nur, dass es im Gaming besser aussieht. In Sachen CAD wird AMD da nicht viel raus holen können.
Warum nutzt man sowas um ein produkt zu bewerben.
Einfach:
Weil man sonst gart nichts zum werben hätte. Und das ist das wirklich traurige.
Aber ist ja kein Problem, ist ja nur "Cherrypicking" (Zitat Cyphermaster) ;D
Troyan
2017-06-21, 15:08:27
Aha. Und die Frontier Edition hat 13,1 TFLOPS bei 300W. Was denn nun? Und die wassergekühlte hat auch 13,1 TFLOPS, aber bei 375W. Du siehst mich verwirrt :freak:
Es sind Peak-Werte. ;)
vinacis_vivids
2017-06-21, 15:10:31
Das bringt mir was, wenn ich catia oder creo als Haupteinsatzzweck habe? Warum nutzt man sowas um ein produkt zu bewerben. Es gab bis heute überhaupt keine anderen zahlen von AMD. Das ist einfach ein marketing fuckup vom feinsten.
Was dir was bringt ist mir vollkommen rille...
Es werden noch eine Reihe von Karten auf Vega-Basis kommen und die FE ist nicht die letzte.
Nvidia hat auf Pascal Basis auch nicht nur eine Karte sondern eine ganze Palette, also schön die Füße still halten.
Für deine Sachen gibst ne kastrierte Vega mit GDDR5 für billig.
Complicated
2017-06-21, 15:10:46
Hä? Die wce von Vega kostet teila mehr bis gleichviel wie eine p5000 nach steuern und die dhe kostet schlappe 300-400€ weniger inkl. Steuer bei entsprechend höherer perf. AMD muss sich mit Vega ganz schön strecken.
Die Frontier Edition liegt bei $ 1200,-, die P5000 bei $ 2.000,- - wovon sprichst du bitte?
Du redest Unfug. AMD selbst wirbt bei der Vega mit den SPEC-Werten, von denen du vor zwei Sätzen noch behauptet hast, die wären uninteressant.Du zitierst mich wo ich kein Wort über Spec verliere sondern über die Preise. P4000 hat nur 8 GB, P5000 mit 16GB kostet das doppelte von der Vega und P6000 das vierfache.
Daher fällt die Wahl für Content Creators IMHO nicht schwer. Und AMD wirbt mit Spec-Werten verglichen mit der Titan XP weil die Frontier Editon das selbe kostet und deutlich mehr zu bieten hat an Performance und Speicher. Daher ist es zwar nett, dass die P4000 30% billiger ist und bei Spec schneller ist, doch eben mit anderen Eckdaten wie dem Speicher nicht mithalten kann. Das ist ja wohl nicht neu in der PC-Industrie und Nvidia hat den Aufpreis für Speicher schließlich selber erfunden mit der Titan. Sie verkauft die Titan ja auch deutlich teurer als die P4000 obwohl sie noch langsamer ist als die AMD Vega Karte.
Screemer
2017-06-21, 15:22:56
Die Frontier Edition liegt bei $ 1200,-, die P5000 bei $ 2.000,- - wovon sprichst du bitte?
War bis vor 10 Minuten auch noch zu dem preis auf der HP. Seit mind. 2 Wochen.
Kannst dir auch gern mal den preisverlau auf gh.de ansehen: https://geizhals.de/pny-quadro-p5000-vcqp5000-pb-xvcqp5000-pb-a1481811.html?show_ratings=1
Die straßenpreise sind weit vom uvp weg. Zumindest in de. Die amis haben sie allerdings nicht alle. Newegg will $2500 :ugly:
Troyan
2017-06-21, 15:25:30
Die Titan-Karte ist keine Wortstation-Karte und wird von nVidia auch nicht für diesen Markt beworben. Es ist also ziemlich lächerlich diese als Vergleich heranzuziehen.
Hübie
2017-06-21, 15:26:05
;)
Ich erkenne gerade keine Vorteile ggü. Volta:
Access Counter feature keeps track of the frequency of access that a GPU makes to memory located on other processors. [...] The Access counters feature can work in either NVLink- or PCIe-connected GPU-CPU or GPU-GPU architectures, and can work with different types of CPUs including Power 9, x86, and others. Volta also supports Address Translation Services (ATS) over NVLink. ATS allows the GPU to directly access the CPU’s page tables. A miss in the GPU MMU will result in an Address Translation Request (ATR) to the CPU. The CPU looks in its page tables for the virtual-to-physical mapping for that address and supplies the translation back to the GPU. ATS provides the GPU full access to CPU memory, for example to memory allocated directly with ‘malloc’.
Ist das nicht auch so eine Art Controller wie der HBCC? :confused: Kannst du das mal etwas erläutern?
Für deine Sachen gibst ne kastrierte Vega mit GDDR5 für billig.
:facepalm: Nicht dein ernst oder?
fondness
2017-06-21, 15:26:15
Die Titan-Karte ist keine Wortstation-Karte und wird von nVidia auch nicht für diesen Markt beworben. Es ist also ziemlich lächerlich diese als Vergleich heranzuziehen.
Dasselbe könnte man über die Frontier Edition behaupten.
Screemer
2017-06-21, 15:27:55
Ich erkenne gerade keine Vorteile ggü. Volta:
Verfügbarkeit vielleicht ;) ich weiß, dass das nicht gemeint war.
Troyan
2017-06-21, 15:30:11
Dasselbe könnte man über die Frontier Edition behaupten.
Darum geht es mir nicht. Die Titan-Karte war nie und wurde auch nie für Workstation beworben. AMD nimmt aber genau diesen Workload, um einen Vorsprung zu suggerieren, der jedoch in der Realität nicht vorhanden ist.
Heißt also: Jemand, der eine Karte für Content-Creation sucht, greift zur Quadro-Version mit erweiterten Support und Garantie. Und dann ist auch schon eine P4000 schneller als eine Titan Xp #2.
vinacis_vivids
2017-06-21, 15:32:14
:facepalm: Nicht dein ernst oder?
WX 7100...
Gipsel
2017-06-21, 15:32:32
Ich erkenne gerade keine Vorteile ggü. Volta:
Ist das nicht auch so eine Art Controller wie der HBCC? :confused: Kannst du das mal etwas erläutern?Die Vermutung geht in die Richtung, daß bei nV Page Migration (also Kopiervorgänge zwischen Host- und GPU-Speicher) nicht vollautomatisch ablaufen (zumindest nicht auf Consumerkarten und unter Grafik-APIs) und Treiberinteraktion benötigen. NVs Page Migration Engine könnte aber im Prinzip recht äquivalente Features bieten (das ist leider Alles noch nicht im Detail beschrieben, wie das genau funktioniert). Das haben wir vor einiger Zeit auch schon mal diskutiert.
Hübie
2017-06-21, 15:33:59
Verfügbarkeit vielleicht ;) ich weiß, dass das nicht gemeint war.
:P
Nein ich meinte natürlich in Bezug auf den HBCC, das weißt du aber auch. Ich steig da nur noch nicht so recht bei AMD durch, daher frage ich.
Das NV den Markt künstlich beschneidet und fragmentiert ist wie bei Intel völlig verständlich, aber auch ziemlich unerwünscht. Nur würde man theoretisch den Quadro-Markt völlig kannibalisieren wenn Titan nicht künstlich beschnitten wird...
@Gipsel: Da war aber noch nicht Volta in dem Detail geklärt und gerade geht es ja um Vega Instinct vs. Volta Tesla. ;) P100 hat jedenfalls keine access counter - schon gar nicht in Hardware wie bei Volta. Das es hier allerdings adress translation service heißt, könnte deine These stützen.
Mangel76
2017-06-21, 15:35:47
Es sind Peak-Werte. ;)
Also 300W Peak-Verbrauch :P
Troyan
2017-06-21, 15:39:44
Die Vermutung geht in die Richtung, daß bei nV Page Migration (also Kopiervorgänge zwischen Host- und GPU-Speicher) nicht vollautomatisch ablaufen (zumindest nicht auf Consumerkarten und unter Grafik-APIs) und Treiberinteraktion benötigen. NVs Page Migration Engine könnte aber im Prinzip recht äquivalente Features bieten (das ist leider Alles noch nicht im Detail beschrieben, wie das genau funktioniert). Das haben wir vor einiger Zeit auch schon mal diskutiert.
Es ist immer noch und es war immer vollständig automatisch: https://devblogs.nvidia.com/parallelforall/unified-memory-cuda-beginners/
Es läuft auch bei AMD nicht ohne Softwareunterstützung ab. Deswegen ist es am Anfang auch erst mal deaktiviert:
IOMMUv2 ATC is invisible to applications code because the required hanges are within AMD’s ROCm software stack.
http://www.amd.com/system/files/2017-06/TIRIAS-AMD-Epyc-GPU-Server.pdf
Also 300W Peak-Verbrauch :P
Richtig: Es sind 300W oder 13,1TFLOPs. Vergess nicht, dass mit steigender Temperatur auch der Stromverbrauch ansteigt und der Kühler mehr arbeitet verrichtet, was ebenfalls am Stromverbrauchsbudget nagt.
Gipsel
2017-06-21, 15:40:28
Darum geht es mir nicht. Die Titan-Karte war nie und wurde auch nie für Workstation beworben. AMD nimmt aber genau diesen Workload, um einen Vorsprung zu suggerieren, der jedoch in der Realität nicht vorhanden ist.
Heißt also: Jemand, der eine Karte für Content-Creation sucht, greift zur Quadro-Version mit erweiterten Support und Garantie. Und dann ist auch schon eine P4000 schneller als eine Titan Xp #2.Die Diskussion um die GPU und Quadro vs. Titan vs. Vega FE an Workstation-Benchmarks festzumachen, entbehrt nicht einer gewissen Sinnlosigkeit. Die Resultate dieser Benchmarks werden zu einem sehr großen Teil durch den Treiber und weniger durch die Hardware selbst bestimmt. Sie erlauben erstmal kaum eine Aussage über die Leistungsfähigkeit der Hardware an sich. Es sind also per Definition schlicht schlechte Benchmarks für den übergroßen Teil der Leute (hier und im Allgemeinen). Solange man also nicht an genau den Workloads interessiert ist, kann man SpecViewPerf also getrost ignorieren.
Und irgendeine Metadiskussion über das Marketing von Firmen und das Cherrypicking welche Benchmarks bei Produktvorstellungen gezeigt werden, führt hier sicher zu nichts und kann man getrost auch sein lassen (oder meinetwegen einen eigenen Thread dafür aufmachen).
Complicated
2017-06-21, 15:40:40
Die Frontier Edition ist so manchen anscheinend völlig unklar in der Zielgruppe. Es ist keine klassische Workstation Karte, sondern eine für Content Creator. Das wurde nun oft genug gesagt. Ist Nvidia das einzige Unternehmen das eine Zielgruppe isolieren und Produkte für diese bauen darf?
Die Frontier Edition soll sowohl Profi als auch Radeon Treiber erhalten. Also so etwas wie Semi-Professionell. So wie Nvidia seine Titan bewirbt.
Eine P4000 hat nur halb so viel Speicher wie eine Vega FE. Wie oft muss man das wiederholen? Hört doch auf Äpfel mit Birnen zu vergleichen.
Beispiel: Ein Entwickler der für Zielhardware im Gaming Markt entwickelt, wo 8 GB Standard ist, der braucht mehr als besagte 8 GB um vernünftig zu arbeiten.
http://pro.radeon.com/en-us/vega-frontier-edition/
The Radeon Vega Frontier Edition graphics card simplifies and accelerates game creation by providing a single GPU that is optimized for every stage of a game developer’s workflow — from asset production, to playtesting, to performance optimization. With AMD graphics technology found in many of today’s game consoles and PCs, developers can build and optimize next-gen games for a large install base. And combined with Radeon Loom, AMD’s revolutionary 360-degree video stitching technology, a new breed of filmmakers will be able to harness the compute power of Radeon Vega Frontier Edition to stitch high-resolution video in real time.
Hübie
2017-06-21, 15:41:32
WX 7100...
Das ist Polaris!
Gipsel
2017-06-21, 15:48:03
Es ist immer noch und es war immer vollständig automatisch: https://devblogs.nvidia.com/parallelforall/unified-memory-cuda-beginners/Auch unter Grafik-APIs und bei Consumerkarten? Das war mein Einwand.
Es läuft auch bei AMD nicht ohne Softwareunterstützung ab. Deswegen ist es am Anfang auch erst mal deaktiviert:
http://www.amd.com/system/files/2017-06/TIRIAS-AMD-Epyc-GPU-Server.pdfDas pdf kann man getrost ignorieren. Da sind so viele Fehler/Ungenauigkeiten drin, das ist nicht die Bandbreite wert, das runterzuladen. Das kommt ja auch nicht von AMD direkt sondern von einem externen "Analysten", der offenbar nicht viel Ahnung hat (keinen Schimmer, warum die meinen, sich so einen Schrott auf die Seite packen zu müssen).
Hübie
2017-06-21, 15:51:27
Auch unter Grafik-APIs und bei Consumerkarten? Das war mein Einwand.
Na ja wenn es ein Controller in Hardware ist sollte es theoretisch wie bei Vega über Treiberkonfiguration automatisch laufen, aber wie du sagst: Nichts genaues weiß man bis jetzt.
Troyan
2017-06-21, 15:52:01
Auch unter Grafik-APIs und bei Consumerkarten? Das war mein Einwand.
Page Migration und 49bit-Adressraum wird mit jeder Variante unterstützt.
Für eine Grafik-API müsste doch nur die Virtualisierung hergestellt werden. Das ganze existiert heute doch schon ansonsten wäre der Treiber auch nicht in der Lage Daten unabhängig von der Anwendung in den Speicher zu laden.
Mancko
2017-06-21, 15:54:20
Die Frontier Edition liegt bei $ 1200,-, die P5000 bei $ 2.000,- - wovon sprichst du bitte?
Unter anderem davon, dass die Frontier Edition keine Treiber und App Zertifizierung hat. Die Vega FE Edition kannst mit ner Titan vergleichen aber nicht mit Quadro Karten.
Complicated
2017-06-21, 15:58:50
Die Vega FE Edition kannst mit ner Titan vergleichen aber nicht mit Quadro Karten.
Was genau das ist was ich schrieb - während alle anderen hier versuchen sie mit den Quadros zu vergleichen. Was auch genau das ist was AMD macht während alle anderen hier versuchen sie mit Quadros zu vergleichen. Zumal sie auch genau so viel wie eine Titan kostet.
Mangel76
2017-06-21, 16:00:07
Es ist immer noch und es war immer vollständig automatisch: https://devblogs.nvidia.com/parallelforall/unified-memory-cuda-beginners/
Es läuft auch bei AMD nicht ohne Softwareunterstützung ab. Deswegen ist es am Anfang auch erst mal deaktiviert:
http://www.amd.com/system/files/2017-06/TIRIAS-AMD-Epyc-GPU-Server.pdf
Richtig: Es sind 300W oder 13,1TFLOPs. Vergess nicht, dass mit steigender Temperatur auch der Stromverbrauch ansteigt und der Kühler mehr arbeitet verrichtet, was ebenfalls am Stromverbrauchsbudget nagt.
Das ist mir durchaus bewusst. Aber warum hat dann die wassergekühlte Version, die doch deutlich kühler und damit verbrauchsärmer bei gleicher Leistung laufen sollte, die 375-Watt-Angabe? Also entweder spiegeln diese Werte nicht den tatsächlichen Verbrauch, sondern sowas wie die maximal abführbare Verlustleistung (Wiki: die thermische Dimensionierung eines Systems) der Kühlvorrichtungen wieder, oder die Leistungswerte passen vorne und hinten nicht mit den real erzielbaren Werten überein. Aber auch bei CPUs hat die TDP-Angabe ja nur grob was mit dem tatsächlichen Verbrauch zu tun.
Hübie
2017-06-21, 16:01:27
Ihr solltet auf Gipsel hören. Beide Argumente sind imo valide, da man eben Preis oder Performance gegenüberstellen kann. Aber da alles noch nicht offiziell ist würde ich mal auf Igor's Review warten. Er wird sich sicher auch den CAD-Bedürfnissen zuwenden.
deekey777
2017-06-21, 16:02:49
Die Diskussion um die GPU und Quadro vs. Titan vs. Vega FE an Workstation-Benchmarks festzumachen, entbehrt nicht einer gewissen Sinnlosigkeit. Die Resultate dieser Benchmarks werden zu einem sehr großen Teil durch den Treiber und weniger durch die Hardware selbst bestimmt.
Spielverderber.
Was kommt als nächstes? Dass Specdings-Ergebnisse auch für professionelles Videoedit interessant sein können, wenn Effekte auf der Grafikkarte über Grafik-APIs gerendert werden?
AffenJack
2017-06-21, 16:15:24
Das ist mir durchaus bewusst. Aber warum hat dann die wassergekühlte Version, die doch deutlich kühler und damit verbrauchsärmer bei gleicher Leistung laufen sollte, die 375-Watt-Angabe
Weil sie den Boost hält, während die Airversion das nicht macht. Wir haben nun schon seit etlichen Generationen Boost, wieso soll das jetzt plötzlich was neues sein? Air läuft mit bis zu 1600mhz, während die AIO die Taktrate immer hält. Dafür braucht sie aber mehr TDP Spielraum. Ist doch bei den ganzen anderen Karten auch nicht anders. Polaris hat auch nen Boost, den die Referenzkarte nicht hält. Customkarten mit besserem Kühler und mehr TDP Limit takten dagegen immer mit Boosttaktrate.
(del)
2017-06-21, 16:23:50
@Hübie:
Natürlich wird nicht nur die volle Dröhnung getestet, das ist eh praxisfern. Mich interessiert Vega in erster Linie sowieso nur im semi-professionellen Bereich, weil Nvidia da nette Lücken offen lässt und nicht alles CUDA-basiert ist. Ich kenne mittlerweile auch die TDP (wurde ja auch hier schon erwähnt), die den Boardpartnern für deren Kühllösungen mitgeteilt wurde und die so definitiv stimmen soll. Einschließlich der Empfehlung, möglichst keine luftgekühlten Karten zu bauen. Trotzdem wird es diese geben, das ist amtlich. Damit scheidet die Karte trotzdem für meine privaten Interessen leider aus, könnte aber in einem Produktivsystem sicher gut aussehen. Aber dieses Forum ist leider keine Basis für solche Diskussionen.
Hübie
2017-06-21, 16:26:07
Das dachte ich mir schon. ;) Freue mich darauf.
ps: Wann fliegst du in den Urlaub?
(del)
2017-06-21, 16:27:16
Das dachte ich mir schon. ;) Freue mich darauf.
ps: Wann fliegst du in den Urlaub?
Geht nicht. Threadripper, Vega und und und... Verlängerte Wochenenden sind das Maximum
Ich freue mich schon auf den Wasserblock für Threadripper. Der wird richtig fett :)
Luftgekühlte Grafikkarten mit mehr als 300 Watt sind gar kein Problem – Triple-Slot FTW. Ja, das ist fett, aber mit Kleinvieh und Miefquirlen braucht man da nicht anzurücken. Es gab Zeiten, da schnallten Hersteller Accelero-Kühler auf Serienkarten (Sparkle, you remember?). Beim Vega-Package wird das nicht ohne große Anpassungen der Coldplate gehen, aber mit der Auflagefläche sollte sich das Ding gut kühlen lassen. Hmm, ob der Morpheus 2 passt? :D
MfG,
Raff
Gipsel
2017-06-21, 16:42:20
Page Migration und 49bit-Adressraum wird mit jeder Variante unterstützt.
Für eine Grafik-API müsste doch nur die Virtualisierung hergestellt werden. Das ganze existiert heute doch schon ansonsten wäre der Treiber auch nicht in der Lage Daten unabhängig von der Anwendung in den Speicher zu laden.Das hat mit Page Migration nichts zu tun. Und die funktioniert mit Consumer-GPUs unter Grafik-APIs heutzutage eben nicht, soll es aber mit Vega.
Mangel76
2017-06-21, 16:50:00
Weil sie den Boost hält, während die Airversion das nicht macht. Wir haben nun schon seit etlichen Generationen Boost, wieso soll das jetzt plötzlich was neues sein? Air läuft mit bis zu 1600mhz, während die AIO die Taktrate immer hält. Dafür braucht sie aber mehr TDP Spielraum. Ist doch bei den ganzen anderen Karten auch nicht anders. Polaris hat auch nen Boost, den die Referenzkarte nicht hält. Customkarten mit besserem Kühler und mehr TDP Limit takten dagegen immer mit Boosttaktrate.
Au, da seh ich schon die Käufer reihenweise bei AMD vor der Tür stehen, wenn teure Profikarten die versprochene Leistung in der Praxis nicht bringen. Nicht umsonst haben die Profiversionen höhere TDP-Angaben und/oder geringere Leistungsangaben als die Normalprodukte.
(del)
2017-06-21, 17:03:23
@Raff:
Also ca. 400 Watt bei Custom-OC-Karten müchte ich mit Luft nicht mehr kühlen, weil es mir die ganze Kiste aufheizt. Ich will kontrollieren können, wo die Wärme austritt - im Case ist so etwas denkbar unsinnig. Und bitte nicht mit Airflow im Gehäuse kommen, dafür habe ich im Bad einen Fön und viel zu gute Ohren. ;)
Ja, die Sparke verrottet hier im Archiv, die Lüftermodule waren leider Müll. Ich habe die mehrmals tauschen müssen. Aber die 480er als solche hat es bisher alles überlebt. :D
Menace
2017-06-21, 17:07:32
@Hübie:
Einschließlich der Empfehlung, möglichst keine luftgekühlten Karten zu bauen.
Gut, dass ich noch keinen Nano-Ersatz benötige. :frown:
AffenJack
2017-06-21, 17:13:24
Au, da seh ich schon die Käufer reihenweise bei AMD vor der Tür stehen, wenn teure Profikarten die versprochene Leistung in der Praxis nicht bringen. Nicht umsonst haben die Profiversionen höhere TDP-Angaben und/oder geringere Leistungsangaben als die Normalprodukte.
Nur ist die FE keine richtige Pro Variante. Das Ding ist eher sowas wie die Titan. Die richtige Pro Variante Mi25 taktet 100mhz tiefer, damit sie diese immer hält. Abgesehen davon interessiert das die Leute auch nicht wirklich ob das Ding etwas runtertaktet oder nicht. Hauptsache die Leistung stimmt. Nvidias Profigpus wie P100 takten auch je nach Workload verschieden. Die Leute haben sich daran gewöhnt und es ist nix besonderes mehr.
Troyan
2017-06-21, 17:26:26
Das hat mit Page Migration nichts zu tun. Und die funktioniert mit Consumer-GPUs unter Grafik-APIs heutzutage eben nicht, soll es aber mit Vega.
Natürlich würde das ganze auch unter einer Grafik-API funktionieren, wenn es nVidia wollte. Spiele haben keine Informationen darüber, wo sich notwendige Daten befinden.
Es ist aber auch einfach nur unsinng, so etwas umzusetzen. Sobald die Karte auf Daten zugreift, die eben nicht im eigenen Bereich liegt, wird die Leistung massiv einbrechen.
@Raff:
Also ca. 400 Watt bei Custom-OC-Karten müchte ich mit Luft nicht mehr kühlen, weil es mir die ganze Kiste aufheizt. Ich will kontrollieren können, wo die Wärme austritt - im Case ist so etwas denkbar unsinnig. Und bitte nicht mit Airflow im Gehäuse kommen, dafür habe ich im Bad einen Fön und viel zu gute Ohren. ;)
Hmm ...
Das Ding wiederbelebt als Triple-Slut könnte dir/uns gefallen. :naughty:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60353&stc=1&d=1498058948
Ja, die Sparke verrottet hier im Archiv, die Lüftermodule waren leider Müll. Ich habe die mehrmals tauschen müssen. Aber die 480er als solche hat es bisher alles überlebt. :D
Echt? Ich hatte noch nie Accelero-Lüfterprobleme – außer man steckt da im Betrieb Sachen rein ... ;)
MfG,
Raff
Gipsel
2017-06-21, 17:30:25
Natürlich würde das ganze auch unter einer Grafik-API funktionieren, wenn es nVidia wollte.Es geht aber nicht. Keine Ahnung ob uns nV das Feature nur aus Marktsegmentierungsgründen vorenthält oder es andere Probleme gibt.
Auch heute haben Spiele keine Ahnung, wo sich Daten befinden.Das stimmt nur so halb. Unter DX12/Vulkan haben die Anwendungen schon eine bessere Ahnung davon, wo was liegt. Und im Zweifelsfall weiß es Software (der Treiber).
Es ist aber auch einfach nur unsinng, so etwas umzusetzen. Sobald die Karte auf Daten zugreift, die eben nicht im eigenen Bereich liegt, wird die Leistung massiv einbrechen.Mit einer vernünftigen Page Migration Strategie eben offenbar nicht. Das ist der ganze Punkt mit diesem HBCC, was ja von AMD bereits funktionsfähig demonstriert wurde ;).
(del)
2017-06-21, 17:45:04
...
Die IceQ hatte ich sogar als Crossfire. Bissl arg brummig der Lüfter, aber es war echt kühl im Gehäuse und gar nocht so laut wie befürchtet. Bleibt für Vega wirklich nur Open Loop. Aber dafür hat man ja ordentliche Lagerbestände und Blöcke wirds wohl schnell geben. Notfalls stelle ich mich selbst an die CNC. 3D-Scan ist hier kein Thema. :)
Die kleinen Module sind zweimal hinüber gewesen (Lagerschaden). Allerdings lief die Karte fast ständig 24/7. Mit den später gewechselten kleinen "Turbo"-Modulen trat das dann nicht mehr auf.
deekey777
2017-06-21, 18:01:19
Seid ihr etwa fertig mit euren Vega-Artikeln? :biggrin:
Loeschzwerg
2017-06-21, 18:08:32
Einschließlich der Empfehlung, möglichst keine luftgekühlten Karten zu bauen. Trotzdem wird es diese geben, das ist amtlich.
Da kommt ja richtig Freude auf ;( Also auf einen axialen Heizkübel wie die Fury kann ich verzichten, hoffe da kommt ein passender Ersatz für die Nano?
Mancko
2017-06-21, 18:49:31
Was genau das ist was ich schrieb - während alle anderen hier versuchen sie mit den Quadros zu vergleichen. Was auch genau das ist was AMD macht während alle anderen hier versuchen sie mit Quadros zu vergleichen. Zumal sie auch genau so viel wie eine Titan kostet.
Nicht ganz. AMD hat schon bei der Präsentation bzw. Vorstellung und dem Marketing Gewäsch etwas anderes suggeriert. Das Thema fehlende Zertifizierung für Workstation und zu geringe FP64 Leistung für HCP ist nicht so ganz thematisiert worden. Das kam dann erst tröpfchenweise, zumal die MI25 auch m.E. später kommt. Das hat AMD aber erst später zum Besten gegeben und nicht zum Launch der Vega FE. Deswegen wird es auch interessant sein zu sehen, wie das Teil im Gaming gegen TitanX(p) abschneidet, denn das ist bei Prosumer mit dabei.
Cyphermaster
2017-06-21, 19:08:21
Aber ist ja kein Problem, ist ja nur "Cherrypicking" (Zitat Cyphermaster) ;DEhre, wem Ehre gebührt, das Zitat bzw. diese Definition habe ich von einer "bekannten Forengröße":
Es ist das eine Cherrypicking zu betreiben, wie es NVIDIA gern macht, das andere ist es, zu lügen, wie es AMD in diesem Vergleich getan hat.
Aber wieder zu was Relevantem:
Ich kenne mittlerweile auch die TDP (wurde ja auch hier schon erwähnt), die den Boardpartnern für deren Kühllösungen mitgeteilt wurde und die so definitiv stimmen soll. Einschließlich der Empfehlung, möglichst keine luftgekühlten Karten zu bauen. Trotzdem wird es diese geben, das ist amtlich.Die Empfehlung kann ich gut verstehen und finde sie sogar gut. Wenn Customs mit eh schon ordentlich Abwärme @Stock stark getrieben werden sollen, und sich Vega halbwegs ähnlich zu Polaris dabei verhält, dann geht oberhalb des Sweet Spot der Stromdurst und die Wärme massiv durch die Decke. Umso drastischer, sollte man Vega 10 wie Polaris 10 schon in der Referenz eigentlich leicht übertaktet in den Markt bringen. Und das Letzte, was man dann beim neuen Flaggschiff als Reputation im Netz haben/finden will, ist schließlich so ein Kühlerdebakel wie -nur als ein Beispiel von vielen- die legendären FX5900 Ultra - Youtube-Videos, nur weil Boardpartner beim Kühlsystem knausern...
Ich bin schon mal sehr gespannt, insbesondere auf deinen Artikel.
-/\-CruNcher-/\-
2017-06-21, 19:18:17
Microsoft ruehrt auch schon die Werbetrommel um Leute davon zu ueberzeugen, dass 4K "the next big thing" ist. Ohne Sinn und Verstand. Und um irgendwie damit wegzukommen draengen sie Leute dazu CBR zu verwenden. Was eindeutig zu schlechterer Grafik fuehren wird, weil es teuer und kacke ist.
Es ist stinknormales Upsampling, das ist klar ersichtlich an den Screenshots. Temporal ist fuer AA.
Du kannst das ganze sehr gut mit Video Kompression vergleichen nichts anderes passiert hier nämlich seit man auf den Konsolen Performance herzaubern muss und Cloud und 3D Engines langsam verschmelzen, und das sehr verstärkt nie war es so extrem ;)
Teils gebe ich dir da recht Lossy Kompression ist immer ein Problem aber es ist nunmal eine alternative und ja es ist Richtig es kostet mehr aber der user hat genauso etwas davon seine investitionen halten sich niedriger natürlich du hast dafür mehr Arbeit und ID Tech höhere kosten.
Es wird Langsam Zeit das GPUs Nativ bessere Texturformate übernehmen das ist ein anderes Problem das Mobile schon in die nächste Generation gestiegen ist und hier immernoch mit resourcen verlust hin und her kopiert wird ist sehr unschön, dabei gibt es schon jetzt Möglichkeiten effizientere Textur Kompression aus den GPUs zu erzwingen und das mit sehr Performanten Hardware Ergebnissen allerdings muss man das sehr Hardware spezifisch umsetzen und rennt unweigerlich in ein Patent Problem ;)
Hmm find es etwas extreme das du meinst das weil ihr SMAA T2X Super integriert haben wollt CBR überall scheisse ist in Relation von Performance/Aufwand und Finale Temporal BQ, zumal nicht jeder CBR genauso implementiert sondern sehr bestimmt auf die Engine abstimmt und wie du ja weist es auf das Zusammenspiel des Gesammten ankommt wie am Ende letztendlich das Ergebnis der Rekonstruktion ausfällt und welche Artefakte dabei herauskommen, du scherst hier scheinbar willkürlich alle Devs über ein und den selben Kamm.
Da vermisse ich doch glatt Coda :)
Complicated
2017-06-21, 19:27:10
Nicht ganz. AMD hat schon bei der Präsentation bzw. Vorstellung und dem Marketing Gewäsch etwas anderes suggeriert. Nun da es offensichtlich Leute gibt die der Suggestion anheim fallen anstatt einfach einen Marketing Termin als Werbung für das Unternehmenseigene Produkt zu verstehen, wird es bestimmt demnächst ein Gesetz geben damit Unternehmen nur noch und ausschließlich darüber berichten was ihre Produkte NICHT können. Da wird dir sicherlich auch dann geholfen worden sein damit. :rolleyes:
Dann können wir auch endlich die unabhängigen Reviews nach erscheinen von Produkten abschaffen. Die sind schließlich auch nicht mehr das was sie mal waren.
Hübie
2017-06-21, 19:52:09
Na zumindest ein Forenmitglied beharrt darauf das die lügen und verschleiern (oder war es vernebeln?). Für diese Person ist es also irrelevant, da Beweise unterminiert werden.
SCNR.
Eine Nano 2.0 wäre am sweet spot ein Verkaufsschlager. Mit 8 GB HBC ist man imo gut genug aufgestellt, im Gegensatz zu Fiji damals. Ich glaube wirklich das die 4 GB einen großen Anteil am Misserfolg von Fiji haben / hatten.
Complicated
2017-06-21, 19:54:19
Fiji war und ist nach wie vor ein großer Erfolg für AMD. Trotz 4 GB.
vinacis_vivids
2017-06-21, 19:57:12
Irgendwie sinnlos schon wieder über Fiji zu sinnieren. Davon abgesehen ist sie gut genug für 1440p. 1070 oder 1080 sind mit 8GB auch zu schwach für 4k.
HBM ist eben der Meilenstein von AMD.
-/\-CruNcher-/\-
2017-06-21, 20:06:41
Hauptsache Huebue muss irgendwas nachplappern was ins Weltbild passt ��
Folien, die ich gesehen habe, zeigen bis +50% für Vega FE vs Titan XP bei SpecInt. Sollte auch nur ein Teil ankommen, wird NV richtig richtig schwitzen.
Sie werden schwitzen bei einigen Workloads aber nicht für sehr lange trotzdem das man es geschaft hat wenn auch nur für Kurze Zeit vorne zu sein als erster das war es doch worauf jeder gewartet hat :)
Und das Jensen immer wieder mit der gleichen ohh schaut mal wieviel wir in die Entwicklung gesteckt haben masche ankommt ist einfach nur noch lächerlich.
Die Präsentation von Max-Q war einfach nur der Hammer 90% da haben nichtmal ansatzweise verstanden was es ist, klatsch klatsch wir optimieren das BQ/Performance Ergebnis und machen aus den Usern weiter schön Geforce Experience abhängige und verkaufen es mal als hochragende innovative Leistung :D
Der hat sowas die Hose voll von Ryzen Mobile so panisch hat Nvidia noch nie reagiert wenn es um ihre Mobile parts ging das sie es je nötig hatten so einen tam tam mit etwas wie Max-Q zu veranstalten, erstaunlich was da ablief.
r3ptil3
2017-06-21, 20:23:53
Also was man an gute Infos die letzten Seite bekommen hat:
-TDP von der schnellsten Gamer Vega wird mind. 300W haben
-in sehr Grafiklastigen Titeln also durchaus einiges mehr Verbrauch als FuryX
-eine gut gekühlte Vega wird wohl mehrheitlich eine Wakü beinhalten
-summa summarum: Vega wird primär durch den hohen Takt den Anschluss halten wollen an die Konkurrenz, sonst hätte man nicht eine solch hohe TDP in Kauf genommen
Sweetspot bei Vega liegt vermutlich bei ca. 1.2Ghz.
AMD hätte vlt. auch in Richtung HD 3870 gehen können, da konnte man zwar nicht mit Top-Performance brillieren, aber die Karte hatte ein gutes Zeugnis erhalten und wurde hauptsächlich mit Effizienz assoziiert.
Der_Korken
2017-06-21, 20:38:52
Wenn V10 wirklich 300W real verbraucht, dann muss das Teil aber auch in die Nähe einer 1080Ti kommen, sonst wäre das imho ein Schuss in den Ofen. Käme bei 300W nur 1080-Leistung heraus, wäre die Karte im Grunde nicht effizienter als eine alte 28nm Nano, trotz deutlich mehr Transistoren, neuer Architektur und 14nm. Den Kommentaren von Format_C entnehme ich zwischen den Zeilen, dass uns AMD beim Verbrauch nicht positiv überraschen wird, daher bleibt nur zu hoffen, dass es die Leistung richtet.
-/\-CruNcher-/\-
2017-06-21, 20:43:56
Selbst wenn es so kommt das ist wieder die gleiche Panik wie immer jeder FPS zählt scheisst auf Balance wir müssen doch first sein die User wollen keine Balance die wollen das wir vor unserer Competition stehen und da sind nunmal FPS die Fakten.
Es wird sich nie etwas ändern und somit werden die Leute weiterhin schön veräppelt mit FPS Balken und die Reviewer werden wieder von Nvidia mit hochgezüchteten Treibern veräppelt, die letzte anti competition reserven aktivieren ;)
Das gleiche spielchen wie immer die AIBs verarschen sich und die Reviewer mit OC gegenseitig um ganz vorn zu stehen nichts ändert sich, buisness as usual nur mit einem Unterschied diesmal stimmt die Balance am Sweetspot ;)
Und die Mehrheit der Reviewer macht das ganze spielchen ja selbstbewusst mit sehr oft eben aus wirtschaftlichem Eigeninteresse und fördern diese ganze scheiße.
Hübie
2017-06-21, 21:10:56
Fiji war und ist nach wie vor ein großer Erfolg für AMD. Trotz 4 GB.
Ähm. Nein! Das Kind ist gleich zu Anfang in den Brunnen gefallen und wenn du mal schaust was die Entwicklung kostet und was man verdient hat, war es kein Erfolg. Marktanteile konnte sich AMD ebenfalls nirgends mit Fiji sichern. Was bezeichnest du also als Erfolg? :|
Irgendwie sinnlos schon wieder über Fiji zu sinnieren. Davon abgesehen ist sie gut genug für 1440p. 1070 oder 1080 sind mit 8GB auch zu schwach für 4k.
HBM ist eben der Meilenstein von AMD.
Ja, nein, ja, ja. Für einige Spiele ist die in 1440p gut, oft muss man aber schon eine Stufe zurück. Ansonsten stimme ich dir (ausnahmsweise) wirklich zu. Fiji brachte ich aus zwei Gründen ins Spiel: Einmal weil meine persönliche Enttäuschung über Fiji meine Hoffnung in Vega dämpft (Vega wird allgemein hin als Fiji done right bezeichnet) und eben aufgrund einiger technischen Parallelen wie HBM, Anzahl der ALUs und so weiter. Da hat man eine ziemlich straighte Ausgangslage was die neuen Technologien alles an yield bringen und wie die Effizienz gestiegen ist.
Complicated
2017-06-21, 21:24:01
Ähm. Nein! Das Kind ist gleich zu Anfang in den Brunnen gefallen und wenn du mal schaust was die Entwicklung kostet und was man verdient hat, war es kein Erfolg. Marktanteile konnte sich AMD ebenfalls nirgends mit Fiji sichern. Was bezeichnest du also als Erfolg? :|
Ach ja? Zeig mal die Zahlen bitte.
Ich bezeichne es als Erfolg wenn ein Unternehmen damit seine Zielsetzung erreicht hat. Die hat AMD zu 100% mit dem nach wie vor guten Verkauf von Fiji basierenden GPUs vor allem im professionellen Sektor. Fiji ist ein Meilenstein in der GPU-Entwicklung mit den Radeon SSG und Radeon Pro Duo und es gibt nach wie vor keine vergleichbaren Produkte der Konkurrenz. Dieses Alleinstellungsmerkmal hat den gesamten Content Creator Markt auf sich gezogen. VR-Developement findet zu 80% auf Fiji basierenden GPUs statt. Hier hat AMD seine Margen im GPU Geschäft verbessert in 2016/2017
gravitationsfeld
2017-06-21, 22:27:08
VR-Developement findet zu 80% auf Fiji basierenden GPUs statt.
Aeeeh, nein ;D
-/\-CruNcher-/\-
2017-06-21, 22:30:59
Hm, 300W für 13,1 TFLOPs. Jetzt kommt es auf die Effektivität an, wenn man bei Spielen Pascal Effektivität erreicht, wäre das okay. Eine 1080 Ti schafft 11.3 TFLOPs bei 250W.
Wird wohl etwas höher wird sich mit den ACEs aber auch nicht verhindern lassen dafür eben CPU Entlastung und eine smoothere Render Kurve :)
Was vor allem bei Path Tracing interessant wird vor allem in einem Ryzen gespann die Latenz sollte deutlich niedriger sein als wie bei Nvidia Maxwell/Paxwell momentan :)
(Kit)Kat(e)
2017-06-21, 22:38:44
AMD hätte vlt. auch in Richtung HD 3870 gehen können, da konnte man zwar nicht mit Top-Performance brillieren, aber die Karte hatte ein gutes Zeugnis erhalten und wurde hauptsächlich mit Effizienz assoziiert.
Das dachte ich mir auch. Aber vielleicht kommt ja dann die kleinere Karte à la Radeon Nano effizienter daher wenn die "große" Schwester dann eher ein "volle Pulle - viel hilft viel" Modell werden sollte. So wären ja mehrere Bereiche abgedeckt.
Hübie
2017-06-21, 22:57:50
Ach ja? Zeig mal die Zahlen bitte.
Ich bezeichne es als Erfolg wenn ein Unternehmen damit seine Zielsetzung erreicht hat. Die hat AMD zu 100% mit dem nach wie vor guten Verkauf von Fiji basierenden GPUs vor allem im professionellen Sektor. Fiji ist ein Meilenstein in der GPU-Entwicklung mit den Radeon SSG und Radeon Pro Duo und es gibt nach wie vor keine vergleichbaren Produkte der Konkurrenz. Dieses Alleinstellungsmerkmal hat den gesamten Content Creator Markt auf sich gezogen. VR-Developement findet zu 80% auf Fiji basierenden GPUs statt. Hier hat AMD seine Margen im GPU Geschäft verbessert in 2016/2017
Ich weiß wo du deine Zahlen her hast. Die sind Realität aber nicht Wirklichkeit.
@fondness: Auf dem Papier stehen zumindest erst mal 44 gegen 48 GFLOPs pro Watt, was schon ziemlich nah an Pascal dran ist. Wenn ich da an Fiji vs GM200 denke, wo es umgekehrt war (Fiji ~31, GM200 ~26 GFLOPs pro Watt, trotzdem sah Fiji kein Stich), dann sieht das doch aktuell gar nicht so übel aus. ;)
Cyphermaster
2017-06-21, 22:59:08
Den Kommentaren von Format_C entnehme ich zwischen den Zeilen, dass uns AMD beim Verbrauch nicht positiv überraschen wird, daher bleibt nur zu hoffen, dass es die Leistung richtet.Daß man ohne Vorsprung bei der Fertigung und mit zurückliegender Effizienz gegenüber nVidia mit einem einzigen Satz, gemacht durch eine deutlich kleinere Entwicklungsabteilung, die Konkurrenz plötzlich in irgendwas komplett pulversisieren/deklassieren würde, wäre schon eine sehr, sehr kühne Annahme. Den Vorzeichen nach gesehen, dürfte AMD Karten nahe nVidia-Effizienz bauen können, aber nur sehr unwahrscheinlich darüber. Ein 1080Ti-Gegner von AMD würde also auch bei 1080Ti-Verbrauch plus einige Prozent landen. Mit gewissen Unwägbarkeiten betreffend Szenarien, die mal AMD, mal nVidia selektiv besser liegen, wird man -logischerweise- möglichst eine Platzierung von Produkten entweder billiger bei identischer oder gleich teuer bei etwas besserer Performance anstreben = ungefähre Gegenstücke zu 1070, 1080, 1080ti zu erwarten.
Spannender ist deshalb für mich eher der zugehörige Preis des jeweiligen Pakets, wie (un-?)ausgereift die Detektions-/Sparmethoden bzgl. verdeckten Pixeln sind und wie sich das HBM-Speichersystem nun in der Praxis zeigt (Stärken? Schwächen? Menge?).
Agent117
2017-06-21, 23:00:17
Das dachte ich mir auch. Aber vielleicht kommt ja dann die kleinere Karte à la Radeon Nano effizienter daher wenn die "große" Schwester dann eher ein "volle Pulle - viel hilft viel" Modell werden sollte. So wären ja mehrere Bereiche abgedeckt.
Ja ein vernünftiger Salvage wäre schon ganz nett. Gabs bei der Fury und 290er Serie leider nicht.
Was mich aber am meisten beunruhigt ist die Aussage von Format C, die oft genannte TDP (wohl 300W) stimmt und Empfehlung nur WaKü zu verbauen. Das schließt wahrscheinlich schonmal aus, dass man deutlich vor der 1080Ti liegt, denn wozu sonst diese Verrenkung mit den bekannten Folgen in der Presse "Heiß, Laut....". Im Best Case schlägt man diese also knapp und nimmt dafür auch einen höheren Verbrauch in Kauf. Im schlechtesten Fall muss man auf 300W gehen, um die normale 1080 in Schach zu halten, das wäre sehr bitter. Ich gehe aber mal vom Best Case aus und hoffe auf einen vernünftigen Salvage zwischen 1080 und 1080Ti bei 225W.:smile:
Complicated
2017-06-21, 23:19:21
Die letzten Aussagen die Format C hier aus seinen Quellen verlauten lies waren alle ein Schuß in den Ofen und nicht stichhaltig. Daher würde ich auf diese bzgl. Kühler ebenso wenig geben.
Ist mal wieder einfach ein Satz in den Raum geworfen ohne ihn belegen zu müssen und einem noch nicht erschienenen Produkt ein negatives Label angeklebt. Genau das was ich bei Möchtegern-Presseleuten am meisten kritisiere. So zuverlässig wie Polaris Yield Probleme oder dass es nicht lohnt auf RX 580 zu warten weil es sowieso das selbe wie die RX 480 ist. Beides als Enten von seinen ominösen Quellen entlarvt, die er hier verbreitet hat.
-/\-CruNcher-/\-
2017-06-21, 23:24:03
Die letzten Aussagen die Format C hier aus seinen Quellen verlauten lies waren alle ein Schuß in den Ofen und nicht stichhaltig. Daher würde ich auf diese bzgl. Kühler ebenso wenig geben.
Ist mal wieder einfach ein Satz in den Raum geworfen ohne ihn belegen zu müssen und einem noch nicht erschienenen Produkt ein negatives Label angeklebt. Genau das was ich bei Möchtegern-Presseleuten am meisten kritisiere. So zuverlässig wie Polaris Yield Probleme oder dass es nicht lohnt auf RX 580 zu warten weil es sowieso das selbe wie die RX 480 ist. Beides als Enten von seinen ominösen Quellen entlarvt, die er hier verbreitet hat.
(Möchtegern-Presseleuten)
Also ich würde das ja vielen die hier auf 3DCenter unterwegs sind von der Media Riege ankreiden aber Igor doch am Wenigsten ;)
Und so gesehen wo unterscheidet sich RX480 von der RX580 wirklich es ist kein Meilenstein in IP updates Fiji war es teils und Vega wird es in Vollkommenheit :)
Nach der RX480 Investition langfristiger in RX580 zu investieren macht nicht wirklich sinn bei Vega absolut, dort wird die Effizienz über die Lifetime steigen im Software Stack Polaris wird davon auch profetieren aber im Ganzen nicht so sehr wie Vega das ROI kann man bei Vega schon höher einschätzen.
So hoch das wenn man den Rumors glauben schenken mag ja selbst Intel über eine Integration nachdenkt, was faktisch ja fast schon bedeuten würde das sie an ihrer neuen Intel HD GPU IP anfangen zu zweifeln, da das performance durch shrinking ja auch immer weiter abnimmt und AMD immer weiter boden ingesammt gut macht könnte man wirklich denken das sie ihre IP trotz einigen vorzügen als quasi gescheitert ansehen.
Hübie
2017-06-22, 00:08:14
Die letzten Aussagen die Format C hier aus seinen Quellen verlauten lies waren alle ein Schuß in den Ofen und nicht stichhaltig. Daher würde ich auf diese bzgl. Kühler ebenso wenig geben.
Ist mal wieder einfach ein Satz in den Raum geworfen ohne ihn belegen zu müssen und einem noch nicht erschienenen Produkt ein negatives Label angeklebt. Genau das was ich bei Möchtegern-Presseleuten am meisten kritisiere. So zuverlässig wie Polaris Yield Probleme oder dass es nicht lohnt auf RX 580 zu warten weil es sowieso das selbe wie die RX 480 ist. Beides als Enten von seinen ominösen Quellen entlarvt, die er hier verbreitet hat.
Suchst du mir mal bitte heraus wo Igor sagte es gäbe Yield-Probleme? Ich finde per Sufu einfach nichts ("yield problem", Benutzername "Format_C"). :redface:
Danke! :up:
Unicous
2017-06-22, 00:26:28
*hust hust
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11385697&postcount=250
(Möchtegern-Presseleuten)
Also ich würde das ja vielen die hier auf 3DCenter unterwegs sind von der Media Riege ankreiden aber Igor doch am Wenigsten ;)
Und so gesehen wo unterscheidet sich RX480 von der RX580 wirklich es ist kein Meilenstein in IP updates Fiji war es teils und Vega wird es in Vollkommenheit :)
Nach der RX480 Investition langfristiger in RX580 zu investieren macht nicht wirklich sinn bei Vega absolut, dort wird die Effizienz über die Lifetime steigen im Software Stack Polaris wird davon auch profetieren aber im Ganzen nicht so sehr wie Vega das ROI kann man bei Vega schon höher einschätzen.
So hoch das wenn man den Rumors glauben schenken mag ja selbst Intel über eine Integration nachdenkt, was faktisch ja fast schon bedeuten würde das sie an ihrer neuen Intel HD GPU IP anfangen zu zweifeln, da das performance durch shrinking ja auch immer weiter abnimmt und AMD immer weiter boden ingesammt gut macht könnte man wirklich denken das sie ihre IP trotz einigen vorzügen als quasi gescheitert ansehen.
Ich mag dich, bzw. das was du von dir gibst, eigentlich wirklich - aber nun weiß ich wie schwer es ist einem Gedanken zu folgen, in welchem die Satzzeichen versenkt wurden (oder muss ich dir dafür dankbar sein :confused:).
BTW. eine 1080Ti sollte kein Maßstab sein, denn so wahnsinnig schnell ist die ja auch nicht - oder anders ausgedrückt: Wenn Vega 4k kann, dann kann se mehr als alle anderen!
Hübie
2017-06-22, 01:38:05
*hust hust
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11385697&postcount=250
*hust hust*
Da geht es um PCBs nicht, wie von Complicated mal wieder durcheinander gewürfelt, "Polaris Yield Probleme"... Und da wirft er mir Leseverständnis-Schwäche vor. :rolleyes: Erstaunlich wie oft man sich selbst diskreditieren kann.
Aber neeeeeiiiin das hat Igor erfunden um sich hier aufzuspielen und wichtig zu tun.
Unicous
2017-06-22, 02:39:15
Ist nicht der einzige Post (in einem anderen wird die Behauptung näher erläutert), aber ich bin nicht dein Such-Assistent wie ich dir schon öfter gesagt habe (ich schlage vor Nachhilfe in dem Bereich zu nehmen, mich hat es nur wenige Sekunden gekostet die beiden Posts zu finden). Ich kann im Übrigen nichts dafür wenn du kein Leseverständnis hast und du doch tatsächlich davon ausgehst, dass die PCBs Yield Probleme hätten ;D;D;D;D und den Post offensichtlich nicht zu Ende liest sondern auf das erstbeste Yield springst was dir in die Augen fällt.:rolleyes:
horn 12
2017-06-22, 06:36:09
Vega muss einfach gut werden und das RX Vega höher taktet als die FE wurde ja bereits offiziell von Raja Koduri bestätigt.
Jene sollte bei 1700 Mhz in etwa liegen, und somit die GTX 1080TI einnehmen, zumindest gleichziehen.
Aber wie die Lautheit wird ist ein anderes Thema, denke da hat aber Sapphire Ihre Finger mit im Spiel.
(del)
2017-06-22, 06:42:28
Sapphire hat damit primär nichts zu tun, der Job wird bei PC-Partner gemacht. Sapphire hat dort nur eine Etage gemietet. Ich befürchte eher, PC-Partner hat wieder Cooler Master mit im Boot (und damit AVC). ;)
@Hübie:
Gegen die rote Content-Mafia hat man als Außenstehender im 3DC nie eine Chance. Wenn man sich den Thread nämlich mal genauer durchliest, werden auch viele der Probleme deutlich, die manche hier im Forum mit sich und anderen haben. Im Gegensatz dazu bin ich allerdings nie persönlich geworden, aber für einige (wenige) ist so etwas leider der Grundpfeiler ihrer Kommunikation mit Dritten. Mangels echter Alternativen im realen Leben, nehme ich mal an. Dort nämlich bekommt man für besondere Frechheit auch schon mal ein paar auf die Zwölf. Hier ist man anonym unterwegs und kann sich gefahr- und gedankenlos auskotzen. Das überlese ich nonchalant und nehme meine sozialhygienische Funktion doch gern war. Wenn jemand ein Ventil braucht, bitte schön :D
@Hübie:
Natürlich wird nicht nur die volle Dröhnung getestet, das ist eh praxisfern. Mich interessiert Vega in erster Linie sowieso nur im semi-professionellen Bereich, weil Nvidia da nette Lücken offen lässt und nicht alles CUDA-basiert ist. Ich kenne mittlerweile auch die TDP (wurde ja auch hier schon erwähnt), die den Boardpartnern für deren Kühllösungen mitgeteilt wurde und die so definitiv stimmen soll. Einschließlich der Empfehlung, möglichst keine luftgekühlten Karten zu bauen. Trotzdem wird es diese geben, das ist amtlich. Damit scheidet die Karte trotzdem für meine privaten Interessen leider aus, könnte aber in einem Produktivsystem sicher gut aussehen. Aber dieses Forum ist leider keine Basis für solche Diskussionen.Was ist an so einem Post bitte verwerflich?
...actually VEGA is up to 375W for total board power... that's why AMd would like use water cooling on VEGA...you know the cost of water cooling is really high...
Die 300 Watt TDP bei der professionellen Vega-Karte beziehen sich auf die GPU allein. Auf der RX480 steckt ja auch eine 110 Watt-GPU (was ich auf den Punkt gemessen und bestätigt habe). Rechnet man Speicher, VR-Verluste und Gedöns dazu, sind 375 Watt TBP dann mehr als nur realistisch. Mit Werks-OC wird das dann allerdings wohl kaum reichen und wer logisch denken kann, wird da sicher zustimmen. Und noch einmal: es ist von mir persönlich NICHT bewertet, so etwas steht mir gar nicht zu. Ich hätte, würde ich dem Schreibstil der Protagonisten hier folgen, auch verrückt, Vorschlaghammer oder Brecheisen schreiben können. Mache ich aber nicht, weil es auch Anwendungsgebiete gibt, wo so etwas eher marginal ist und andere Eigenschaften mehr zählen. Nur für Gamer (und die interessieren micht privat überhaupt nicht) ist das wohl eher nichts. Aber auch das ist doch jedem selbst überlassen.
Vega interessiert mich erst öffentlich, wenn ich die Consumer-Karte zerlegt habe und weiß, was wirklich rein- und rauskommt. Spekulatius macht nicht satt. Ich habe heute Kaby Lake-X Humilation-Tag, da gibts Prügel für die Blauen. :D
300W Chip-TDP bei einer Karte mit 6+8 Pin, die kaum was aus dem PEG ziehen wird? Ich glaube nicht...
Übrigens wird die Chip-TDP inclusive Speicher gelten bei HBM.
Und das Gerücht mit den schlechten Yields ist nunmal nicht von der Hand zu weisen. Ich habs ja geglaubt. War aber Schwachsinn.
Menace
2017-06-22, 07:19:12
Ich kann die inhaltlichen Kritik an Deine Äußerungen hier im Forum nicht folgen. Selbst wenn manches nicht immer so zutrifft, sieht man bei deinen Aussagen zumindest Tendenzen. Persönliche Angriffe gehen in der Tat nicht. Das gilt aber auch für Dich, selbst, wenn Du diese nicht wahrnimmst. Dein Beitrag ist voll davon, auch wenn Du es pseudoanonymisierst: :D
@Hübie:
Gegen die rote Content-Mafia hat man als Außenstehender im 3DC nie eine Chance. Wenn man sich den Thread nämlich mal genauer durchliest, werden auch viele der Probleme deutlich, die manche hier im Forum mit sich und anderen haben. Im Gegensatz dazu bin ich allerdings nie persönlich geworden, aber für einige (wenige) ist so etwas leider der Grundpfeiler ihrer Kommunikation mit Dritten. Mangels echter Alternativen im realen Leben, nehme ich mal an. Dort nämlich bekommt man für besondere Frechheit auch schon mal ein paar auf die Zwölf. Hier ist man anonym unterwegs und kann sich gefahr- und gedankenlos auskotzen. Das überlese ich nonchalant und nehme meine sozialhygienische Funktion doch gern war. Wenn jemand ein Ventil braucht, bitte schön :D
Um nicht persönlich zu werden, formuliere ich es als Frage: Ginge es nicht "reifer" und eine Spur "bescheidener" und ohne Paradoxon? :wink:
back to topic: Gibt es bei Vega überhaupt die Möglichkeit eine "Nano-Version" zu bringen oder sprechen die Grundspecs schon dagegen?
Loeschzwerg
2017-06-22, 07:24:45
Wüsste nicht was dagegen sprechen sollte. Eine VEGA Nano würde vermutlich ordentlich drosseln (ausgehend von 1600MHz), wie es bei der R9 Nano auch schon der Fall ist.
Ein gesundes Plus an Mehrleistung zur R9 Nano sollte erhalten bleiben.
(del)
2017-06-22, 07:34:28
Das gilt aber auch für Dich, selbst, wenn Du diese nicht wahrnimmst. Dein Beitrag ist voll davon, auch wenn Du es pseudoanonymisierst:... :D
...Um nicht persönlich zu werden, formuliere ich es als Frage: Ginge es nicht "reifer" und eine Spur "bescheidener" und ohne Paradoxon? :wink:
Es wäre sicher gegangen, aber es war mir heute früh, nach eine halben Nachtschicht, einfach zu complicated. Oops. :D
Im Ernst, Du hast ja Recht, aber auch meine Fehlerquote steigt. Ich gelobe Besserung - Zeit für ein Päuschen, bevor KL glüht. :)
Edit:
Die Ignore-Funktion verkürzt die Ladezeiten ungemein. Einen Versuch ist es wert.
@Löschzwerg:
Was AMD (oder die Boardpartner) machen können, ist z.B. die Erhöhung der VR-Schaltfrequenz und Phase-Doubling, um die Effizienz zu steigern und die VR-Verluste zu reduzieren. Dann kann man auch gefahrlos Power Tune schneller agieren lassen, ohne die VR aus dem tritt zu bringen. Stichwort Power Estimation und Intervalle/Genauigkeit der Sensor-Loops. Wenn da der Treiber noch mitmacht, kommt man Boost schon ziemlich nahe. Power Tune ist einfach noch viel zu granulär. Bei der Nano hat das deutlich besser funktioniert, aber die durfte ja auch etwas langsamer sein. Ich mag das Teil (ist hier immer noch in Benutzung), so wie ich die WX 7100 mag, die aus meiner Sicht die bessere, weil vernünftigere RX 480 ist.
AffenJack
2017-06-22, 07:51:39
Die 300 Watt TDP bei der professionellen Vega-Karte beziehen sich auf die GPU allein. Auf der RX480 steckt ja auch eine 110 Watt-GPU (was ich auf den Punkt gemessen und bestätigt habe). Rechnet man Speicher, VR-Verluste und Gedöns dazu, sind 375 Watt TBP dann mehr als nur realistisch. Mit Werks-OC wird das dann allerdings wohl kaum reichen und wer logisch denken kann, wird da sicher zustimmen.
Das klingt nun aber arg pessimistisch und unglaubwürdig, wer auch immer dir das gesteckt hat. Ich gehe ja auch von 300W TDP Karten aus, nach allen Infos die wir bisher haben ist das einfach am schlüssigsten. Aber Amd hat in seinen Präsentationen, öffentlichen Infos nie die 110W TDP angegeben. Für die Instinct als auch FE haben wir nun die TDPs die 300W bei den Air Varianten angeben. Man wird da nun nicht dazu wechseln nur die GPU anzugeben, sondern es wird bestimmt die ganze Karte sein. Unter Umständen geht man etwas drüber wie bei P10, aber bestimmt nicht so stark wie du hier andeutest.
Korvaun
2017-06-22, 07:57:08
Also was man an gute Infos die letzten Seite bekommen hat:
-TDP von der schnellsten Gamer Vega wird mind. 300W haben
-in sehr Grafiklastigen Titeln also durchaus einiges mehr Verbrauch als FuryX
-eine gut gekühlte Vega wird wohl mehrheitlich eine Wakü beinhalten
-summa summarum: Vega wird primär durch den hohen Takt den Anschluss halten wollen an die Konkurrenz, sonst hätte man nicht eine solch hohe TDP in Kauf genommen
Sweetspot bei Vega liegt vermutlich bei ca. 1.2Ghz.
AMD hätte vlt. auch in Richtung HD 3870 gehen können, da konnte man zwar nicht mit Top-Performance brillieren, aber die Karte hatte ein gutes Zeugnis erhalten und wurde hauptsächlich mit Effizienz assoziiert.
Wer sich dann so eine Karte kauft (und nicht die letzten 5-10% Leistung braucht) kann ja leicht untertakten, dann sollte der Verbrauch ja stark sinken.
Abgeshen davon sind 300W Verbrauch schon echt wieder über der Kotzgrenze. Ich versteh nicht wie AMD immer wieder son Murks macht wenn es stimmt mit den 300W, gerade da ZEN in der Hinsicht ja sehr respektabel ist.
(del)
2017-06-22, 08:03:39
Das klingt nun aber arg pessimistisch und unglaubwürdig, wer auch immer dir das gesteckt hat. Ich gehe ja auch von 300W TDP Karten aus, nach allen Infos die wir bisher haben ist das einfach am schlüssigsten. Aber Amd hat in seinen Präsentationen, öffentlichen Infos nie die 110W TDP angegeben. Für die Instinct als auch FE haben wir nun die TDPs die 300W bei den Air Varianten angeben. Man wird da nun nicht dazu wechseln nur die GPU anzugeben, sondern es wird bestimmt die ganze Karte sein. Unter Umständen geht man etwas drüber wie bei P10, aber bestimmt nicht so stark wie du hier andeutest.Bei Polaris hat Raja exakt von einer 110 Watt GPU gesprochen. Ich saß noch nicht mal 10 Meter weg und meine Ohren sind wirklich in Ordnung. In der PP-Folie zum Launch stand es dann auch noch mehrmals.
Zitat von hier (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html):
AMD hat durchaus Recht, wenn man im Zusammenhang mit der Radeon RX 480 von einer echten 110-Watt-GPU spricht... Dummerweise ist dies aber nur die halbe Wahrheit, was die Grafikkarte als solche betrifft, denn es gibt ja auch noch andere Verbraucher auf dem Bord - und die Verluste sollte man auch nicht vergessen... Laut unserer Messung...liegen zwischen der Board-Power von reichlich 164 Watt...und den ebenfalls mitgeloggten 110 Watt Chip-Power rund 50 Watt Unterschied
Ich will nicht noch einmal erklären, was TDP bedeutet, aber diese bezieht sich nun mal immer nur auf die GPU allein. Was man reinsteckt, muss auch wieder (fast komplett) abgeführt werden, womit sich der logische Umkehrschluss ergibt, dass allein die Leistungsaufnahme der GPU bei bis zu 300 Watt liegen kann (im Maximum). Das hat man ja nun mittlerweile bestätigt. Und der Rest lebt ja nicht von Luft allein. Speicher, Pumpe/Lüfter, diverse weitere Komponenten - auf so einem PCB kommen schon mal schnell bis zu 5 weitere VR-Kreise zusammen, die das ganze Grundrauschen bilden, welches in der Summe auch nicht zu verachten ist. Das ist nicht pessimistisch, sondern lediglich eine logische Schlussfolgerung aus dem, was AMD selbst bisher kommuniziert hat.
Die MSI R9 390X schafft als maximale Boardpower ja auch locker 360 Watt (was übertrieben hoch ist), aber es war sogar noch irgenwie kühlbar. Nur ergibt sich mir persönlich keinerlei Sinn in so einer Aktion, da die Effizienz extrem in den Keller geht. Die beste Fiji-Karte war und ist meine W9100. Unter Last recht laut, da radial, aber vernünftig getaktet. Da läuft heute noch vieles in der älteren Workstation drüber, nur dass die Valencia-CPUs langsam mal raus müssen. Das Board spackt auch schon.
vinacis_vivids
2017-06-22, 08:04:13
300W beziehen sich auf die FE. Die consumer sind bei 225-275W.
Wie passt das (die 375 W TBP) mit den 8+6-Pin Steckern zusammen und warum setzt du dich mit dieser Frage nicht auseinander, Format_C?
Korvaun
2017-06-22, 08:12:33
Bezieht sich die TDP bei VEGA/FIJI ausdrücklich nur auf den GPU-Teil, oder das ganze Package aus GPU+HBM? Wäre schon ein großer Unterschied...
(del)
2017-06-22, 08:15:53
Wie passt das mit den 8+6-Pin Steckern zusammen?Diese Logik passt zur R9 295X2. Und: man redet ja von bis zu. Es wird sicher keine Dauerlast auf 24/7.
Die Stecker können das übrigens locker ab, ab AWG18 ist auch das Kabel kein Problem. Kleinere Querschnitte würde ich aber nicht akzeptieren ;)
Boardpartner werden ziemlich sicher mit 2x 8-Pin kommen, schon wegen der PR ;)
8+6-Pin ergäben, folgt man der Norm, erst mal 225 Watt für 12 Volt. Der Mainboard-Slot gibt 5.5 Ampere her, das sind noch einmal 66 Watt, wenn man sich wirklich knackig an die Norm halten würde (die so oft kolportieren 75 Watt gelten nur, wenn die PSU die Spannung an der oberen Grenze der ATX-Specs liefert, also leicht übervoltet). Damit lägen wir sogar unter 300 Watt für so eine Konstellation, denn die 3.3V-Schiene wird kaum noch genutzt. Man kann also davon ausgehen, dass auch 300 Watt noch etwas zu viel sind, wenn man Erbsen zählt. Wobei ich bei den externen Anschlüssen weniger Kritikpotential sehe, als beim Mainboard-Slot. Die Leistungsbeschränkung der externen Anschlüsse trägt noch AWG20 Rechnung und ist eigentlich überholt.
Wenn V10 wirklich 300W real verbraucht, dann muss das Teil aber auch in die Nähe einer 1080Ti kommen, sonst wäre das imho ein Schuss in den Ofen. Käme bei 300W nur 1080-Leistung heraus, wäre die Karte im Grunde nicht effizienter als eine alte 28nm Nano, trotz deutlich mehr Transistoren, neuer Architektur und 14nm. Den Kommentaren von Format_C entnehme ich zwischen den Zeilen, dass uns AMD beim Verbrauch nicht positiv überraschen wird, daher bleibt nur zu hoffen, dass es die Leistung richtet. Eine Vega Nano hat dann soviel Leistung wie eine 1080GTX bei gleichem Stromverbrauch? Ne so wird das doch nicht kommen, oder? :tongue:
Wie passt das (die 375 W TBP) mit den 8+6-Pin Steckern zusammen und warum setzt du dich mit dieser Frage nicht auseinander, Format_C?
Weil das einfach BS ist. Das sieht eher so aus:
TBP -> 300W
TDP -> 225W
Dann passt das auch mit der Verkablung. Eine solche Karte muss sich ja exakt an die Specs halten. Die kostet ja auch ihren Preis.
Das ist ja kein Consumer-Ausnahmeprodukt wie die 295X2, die ja auch nicht im Dauerbetrieb läuft. Die 295X2 ist ne ganz eigenständige Nummer und taugt einfach überhaupt nicht als Beispiel. Aller Karten davor und danach waren ja innerhalb der Spezifikationen, wenn man von dem minimalen Ausreißer der 480 mal ab sieht. Selbst bei Fiji hat man 2x 8Pin nur deshalb verbaut, weil die kaum über 20W aus dem PEG zieht und somit alles über die PCIe-Stecker speisen muss, übrigens auch THG-Test.
(del)
2017-06-22, 08:27:52
Die Leistungsaufnahme von Vega relativiert sich mit ihrer Qualifikation für bestimmte Anwendungsgebiete (schrieb ich schon einige Male). Aber ob da das schnöde Gaming auch dazugehören wird, will ich nicht beurteilen.
(del)
2017-06-22, 08:29:20
Weil das einfach BS ist. Das sieht eher so aus:
TBP -> 300W
TDP -> 225W
Dann passt das auch mit der Verkablung. Eine solche Karte muss sich ja exakt an die Specs halten. Die kostet ja auch ihren Preis.
Das ist ja kein Consumer-Ausnahmeprodukt wie die 295X2.
Die Hersteller sehen das schon lange nicht mehr so eng. Die Quadro P6000 zieht beim Rendern konstante 252 Watt, hat aber auch nur den 8-Pin. :)
Wir können aber Ende Juli gern noch einmal darauf zurückkommen.
(sorry für den Doppelpost, der Nachlader dauerte zu lange)
Cyphermaster
2017-06-22, 08:32:39
Gut, daß du schon am frühen Morgen so geduldig bist, Igor.
AffenJack
2017-06-22, 08:39:34
Bei Polaris hat Raja exakt von einer 110 Watt GPU gesprochen. Ich saß noch nicht mal 10 Meter weg und meine Ohren sind wirklich in Ordnung. In der PP-Folie zum Launch stand es dann auch noch mehrmals.
Gut, dann wechseln wir halt zur TBP. Es geht mir um die Leistungsaufnahme die in den Shops usw genannt wird, egal welche diese nun ist. Da sind es bei P10 150W, die noch leicht untertrieben sind. Bei Instinct als auch der FE 300W. Da glaube ich einfach nicht, dass man nun seine Definition dafür wechselt und da noch stärker als bei P10 drüber hinaus schießt. Wirst du dir eigentlich zeitnah eine FE besorgen zum Benchen nach dem Launch? (Außer es gibt sogar Tests zum Launch, aber ich habe da eher Zweifel).
Cyphermaster
2017-06-22, 08:46:48
Ich befürchte eher, PC-Partner hat wieder Cooler Master mit im Boot (und damit AVC). ;)Och nöö... ;(
Gut, dann wechseln wir halt zur TBP. Es geht mir um die Leistungsaufnahme die in den Shops usw genannt wird, egal welche diese nun ist. Da sind es bei P10 150W, die noch leicht untertrieben sind. Bei Instinct als auch der FE 300W. Da glaube ich einfach nicht, dass man nun seine Definition dafür wechselt und da noch stärker als bei P10 drüber hinaus schießt.:rolleyes: Und nochmal: F_A_L_S_C_H. Die Vega-Chips sind hochoffiziell mit 225/300W TDP angegeben, so wie P10 mit 110W TDP. Heißt, die TBP (= die ganze Karte )wird jeweils ein gutes Stück darüber liegen müssen.
Da wurde nichts gewechselt, diese Angaben sind schon bei Polaris so formuliert worden, und bei Vega ist es nicht anders.
Screemer
2017-06-22, 09:07:40
wo kommt denn diese "hochoffizielle" Angabe her? bei allen angaben bisher handelt es sich imho um typical board power. ich kenne keine folie von amd auf der für polaris 110w tdp angegeben werden.
nur mal ein paar beispiele aus der vergangenheit:
https://www.custompcreview.com/wp-content/uploads/2016/05/rx-480-specs.jpg
http://cdn.wccftech.com/wp-content/uploads/2016/07/AMD-Radeon-RX-470_Official_Specs.jpg
https://www.custompcreview.com/wp-content/uploads/2014/04/amd-radeon-r9-295x2-specifications-press-deck.jpg
ich lass mich da gerne eines besseren belehren.
Hübie
2017-06-22, 09:11:42
Ich lese auch nur von TBP. :confused:
Bei der Radeon Instinct MI25 spricht AMD mal von 300 Watt TDP und mal von 300 Watt TBP ... s. Produktseite (http://instinct.radeon.com/product/mi/radeon-instinct-mi25/)und dort verlinktes Datenblatt (http://rtg.re/MI25datasheet).
Screemer
2017-06-22, 09:30:13
Bei der Radeon Instinct MI25 spricht AMD mal von 300 Watt TDP und mal von 300 Watt TBP ... s. Produktseite (http://instinct.radeon.com/product/mi/radeon-instinct-mi25/)und dort verlinktes Datenblatt (http://rtg.re/MI25datasheet).
und daran hängt man sich auf? das es sich dabei um die board power handelt sollte doch wohl klar sein.
Mangel76
2017-06-22, 09:45:05
Die 300 Watt TDP bei der professionellen Vega-Karte beziehen sich auf die GPU allein.
Wo hast du das her? Zumindest bei der professionellen Mi25 gibt AMD die Typical Board Power mit 300W (http://instinct.radeon.com/product/mi/radeon-instinct-mi25/) an. Bei der FE hab ich diese Angaben leider nicht gefunden. Hast du dafür einen Link?
(del)
2017-06-22, 09:45:57
Polaris wurde beim letztjährigen Event in Macau von Raja als 110 Watts GPU vorgestellt. Die Anwesenden wissen das alle (mich eingeschlossen), nur waren Videoaufnahmen eigentlich untersagt. Später hieß es dann 150 Watt Power (ohne irgendeinen Zusatz). Und ja, die GPU genehmigt sich exakt 110 Watt. :)
AMD schrieb es bei der MI25 so: 300W TDP board power. Was natürlich an sich schon Quark ist, weil es beides sinnlos vermengt. Hintertür? Nur ist das eine noch die niedriger getaktete Variante. Ein Boardpartner sprach gestern von 375 Watt TDP für den beauftragten Kühler, was deutlich zu hoch erscheint. Oder jemand spielt wieder sinnlos mit dem Power Limit um den Längsten zu haben. Genau dehalb habe ich nichts hineininterpretiert.
Skysnake
2017-06-22, 10:18:58
Oder man will leise sein ;)
Hübie
2017-06-22, 10:22:47
Das kann in der Tat hinkommen. Viele customs haben 400+ Watt Kapazität. Gigabyte sogar bis zu 600 Watt. :uponder:
Ja, toll, mit 100 Prozent Lüfterleistung, also ohrentötendem Surren. ;)
MfG,
Raff
Hübie
2017-06-22, 10:25:27
DAS, mein lieber Raffael, sagt dir das Marketing doch nicht. Die wären ja schön plöht. :freak: Hattet ihr damals nicht auch über 300 Watt für Fiji gemessen? Wenn dem wieder so ist muss man mindestens doppelte Leistung erbringen.
(del)
2017-06-22, 10:27:55
Ja, toll, mit 100 Prozent Lüfterleistung, also ohrentötendem Surren. ;)
MfG,
RaffIch vermissen deinen Sportsgeist.
Ich hätte da was:
https://scontent.xx.fbcdn.net/v/t1.0-0/p526x296/18893110_1623491417685516_6364538545750278701_n.jpg?oh=ccff903c3afda64043db0da93 5e84dd7&oe=59D86CAF
vinacis_vivids
2017-06-22, 10:31:31
Fiji ist undervoltet sogar Recht effizient Auch Polaris kann man wunderbar trimmen 😁
Wird mit Vega sehr sehr interessant. Da gibs die breiteste Karte für smoothes Gaming ohne Drops bei kühlen Temps. Freue mich schon richtig drauf.
Dass sie ueberhaupt nur eine Richtung zu kennen scheinen, verwirrt mich etwas. 300 W fuer Ref, 375(+?) fuer customs mit einer Empfehlung auf Fluessigkuehlung? :usad: Was ist mit einer neuen Nano, einer mal von Haus aus effizienten Karte als Konkurrenz zur 1080? Und vor allem: woran liegt es? Ist der Chip so teuer, dass man eben partout nicht ein paar Euro billiger verkaufen will sondern das Ding ums Verrecken pruegeln muss?
Was war eigentlich die max. TBP von einer 390X?
Mangel76
2017-06-22, 10:51:42
AMD schrieb es bei der MI25 so: 300W TDP board power. Was natürlich an sich schon Quark ist, weil es beides sinnlos vermengt. Hintertür? Nur ist das eine noch die niedriger getaktete Variante. Ein Boardpartner sprach gestern von 375 Watt TDP für den beauftragten Kühler, was deutlich zu hoch erscheint. Oder jemand spielt wieder sinnlos mit dem Power Limit um den Längsten zu haben. Genau dehalb habe ich nichts hineininterpretiert.
Also auf der Produktseite heißt es "Typical Board Power 300W" und im Datasheet "Standard Max Power: 300W TDP". Und auch der Anschluss mit 8- + 6-Pin spricht eindeutig für die ganze Karte. Nur weil ein Boardpartner Reserven für seine Super-Duper-OC-Karte will, muss das doch nichts heißen. Daher tippe ich auf deine zweite Variante mit dem sinnlosen Power Limit.
Aber wie kannst du sagen, du hättest nichts hineininterpretiert? Die Aussage, dass die 300W nur für die GPU sind und die TBP damit bei 375W liegen wird, war doch deine Interpretation der genannten 300W:
Die 300 Watt TDP bei der professionellen Vega-Karte beziehen sich auf die GPU allein. Auf der RX480 steckt ja auch eine 110 Watt-GPU (was ich auf den Punkt gemessen und bestätigt habe). Rechnet man Speicher, VR-Verluste und Gedöns dazu, sind 375 Watt TBP dann mehr als nur realistisch. Mit Werks-OC wird das dann allerdings wohl kaum reichen und wer logisch denken kann, wird da sicher zustimmen. Und noch einmal: es ist von mir persönlich NICHT bewertet, so etwas steht mir gar nicht zu.
Ich bilde mir ein, ganz gut logisch denken zu können, aber deinen Spekulationen kann ich nicht folgen. Natürlich werden hier wieder zwei verschiedene Dinge verglichen. Einmal eine professionelle Karte, an die natürlich ganz andere Anforderungen gestellt werden als an eine Gamingkarte, die zudem noch ganz verschiedene Dinge tun. Darf ich dich an deinen Test der Fury X (http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html) erinnern? Die hatte unter Gaming in UHD mal eben 100W weniger Verbrauch im Schnitt als unter Futuremark oder der Monte-Carlo-Simulation. Natürlich liegt das auch an der Unausgewogenheit von Fiji, aber in UHD sollte der Effekt nicht mehr so riesig sein. Mit einer besseren Auslastung in Vega sollte aber auch bei Gamingkarten noch etwas Luft zu professionellen Anwendungen sein.
y33H@
2017-06-22, 10:51:57
Polaris wurde beim letztjährigen Event in Macau von Raja als 110 Watts GPU vorgestellt. Die Anwesenden wissen das alle (mich eingeschlossen), nur waren Videoaufnahmen eigentlich untersagt.Jupp, hatte damals notiert:
Radeon RX 480 = 36 CUs, 1.266 MHz, 8 Gbps, 4/8 GByte GDDR5 256 Bit, 110W ASIC,150W Board
Jupp, hatte damals notiert:
Radeon RX 480 = 36 CUs, 1.266 MHz, 8 Gbps, 4/8 GByte GDDR5 256 Bit, 110W ASIC,150W Board
Dito (alle guten Dinge sind 3!)
Screemer
2017-06-22, 11:24:12
dass polaris das kann, wenn man nicht die brechstange auspackt zeigen doch die red devil und die strix ganz gut. vor allem erstere liegt grad mal 5% über den 150w tbp und das in thgs gaming torture.
vinacis_vivids
2017-06-22, 11:34:45
dass polaris das kann, wenn man nicht die brechstange auspackt zeigen doch die red devil und die strix ganz gut. vor allem erstere liegt grad mal 5% über den 150w tbp und das in thgs gaming torture.
Kann man auch noch undervolten und landet dann bei 110W bei gleicher Leistung.
Complicated
2017-06-22, 11:42:04
Och nöö... ;(
:rolleyes: Und nochmal: F_A_L_S_C_H. Die Vega-Chips sind hochoffiziell mit 225/300W TDP angegeben, so wie P10 mit 110W TDP. Heißt, die TBP (= die ganze Karte )wird jeweils ein gutes Stück darüber liegen müssen.
Da wurde nichts gewechselt, diese Angaben sind schon bei Polaris so formuliert worden, und bei Vega ist es nicht anders.
Nur dass hier die Frage im Raum steht ob der Speicherverbrauch bei HBM in der TDP, da on Package, angegeben wird und die Differenz eben deutlich kleiner ist zur TBP oder sogar fast identisch da kaum weitere Verbraucher auf dem PCB vorhanden sind. Wie war das denn bei Fiji (schlecht zu recherchieren am Handy)? Zumal es nach wie vor Kühlungsangaben sind und diese sich vielleicht wie bei Fiji ganz auf den Interposer samt RAM konzentrieren kann - was auch dann der plausible Grund für die Empfehlung einer Wasserkühlung sein kann. Einfach wegen der Kompaktheit und dem Formfaktor.
Vergleiche mit Polaris oder anderen GDDR5 Karten sind hier sinnlos.
Screemer
2017-06-22, 11:46:21
Was hat den der stix kühler von aus als max in der spec? Vielleicht hat ja die info einer Insider. Sicherlich auch um die 375w. Der ist aber auch auf 155-180w Kärtchen drauf.nach den specs für kühler auf die Leistungsaufnahme der Karte zu schließen ist halt ein bisschen :ugly:
vinacis_vivids
2017-06-22, 11:53:04
die 300-375W deuten aber eher auch auf ein höherwertigeres (mehr layer) PCB hin.
Cyphermaster
2017-06-22, 11:58:03
Also auf der Produktseite heißt es "Typical Board Power 300W und im Datasheet "Standard Max Power: 300W TDP".Man kann klar erkennen, daß dort 1. jeweils lediglich die passiv gekühlte Variante referenziert ist (nicht die Version mit WaKü, die aber auch schon gezeigt wurde) und 2. mit 300W SMP, wohingegen TBP auf der Produktseite.
Neben der Frage, ob bei der passiven Version wirklich TDP = SMP = TBP ist, stellt sich die wesentlich einfacher zu beantwortende Frage, ob eine mit einer extra leistungsfähigen WaKü versehene Version wohl erwartbar mehr Leistung umsetzt und deshalb auch mehr Abwärme emittiert als eine passive Version. Wenn die Wasserkühlung also nicht rein zu dekorativen Zwecken verbaut wird, ist die Annahme von mehr Takt, mehr Abwärme, damit mehr Strombedarf und höherer TDP als die angegebenen 300W der Passiv-Variante aus meiner Sicht keineswegs irgendwie abwegig. Umgekehrt passen auch 300W für die passive Karte zur Angabe 225/300W, wenn man die 225/300W als reinen ASIC-Verbrauch der unterschiedlichen Versionen nimmt, was einen dann bei der "Vollgas"-Karte bei etwa 375W rauskommen ließe.
Monsta
2017-06-22, 12:04:27
Da wird Apple ja Spaß kriegen. Wenn die einen großen Vega und nen 18Core Xeon in den iMac ballern wollen.
Ist ja Konfigurationssache, geht der Takt halt runter.
Mobile Variante wird es aber vermutlich leider wieder nicht geben
Cyphermaster
2017-06-22, 12:08:56
Nach den specs für kühler auf die Leistungsaufnahme der Karte zu schließen ist halt ein bisschen :ugly:Schon klar, deshalb ist das hier ja auch das Speku-Forum. ;) Bis die Tester mit den harten Daten rausrücken, sind diese Abschätzungen/Ratespiele nun mal das Ende der Fahnenstange.
Dino-Fossil
2017-06-22, 12:09:26
AMD tendiert seit Jahren dazu, ihre Karten etwas zu weit zu prügeln und nimmt dafür höhere Leistungsaufnahme in Kauf.
So gesehen könnte Vega in der Tat ein "Monster" werden.
Allerdings heißt das nicht, das der Chip z.B. für Apple nicht näher am sweet spot betrieben wird und dadurch deutlich genügsamer werkelt (und weniger Wärme erzeugt).
Ich denke, die werden AMD schon kommuniziert haben, was sie gerne hätten.
Aber davon abgesehen bleibt auch noch abzuwarten, was Vega am Ende liefert. Wenn die Performance passt und die Kühlung stimmt, werden sich viele an 50W mehr oder weniger nicht aufhängen.
(del)
2017-06-22, 12:14:55
Ich war und bin mit der Nano wirklich zufrieden - die Karte war vernünftig genug, um auch mit etwas weniger Leistungs das zu tun, was man von Ihr abverlangt hat. Mit meinem 92mm-Fan-Mod noch umso mehr. Die Fury mag ich hingegen überhaupt nicht (private Meinung).
Und ja, es ist der Spekulatius-Faden hier und nicht Susis Fakten-Check. Deshalb posten wir das alle ja auch hier :)
Bei der R9 290X OC hatte ich bis zu 50 Watt Leakage gegenüber der wassergekühlten GPU - das ist echt eine Hausnummer! Nur ist LuKü in diesen Leistungsklassen meist Crap und geht somit auch indirekt zu Lasten der Steckdose.
@Dino-Fossil:
Performance und Preis. Die Kühlung ist Boardpartner-abhängig und notfalls wird halt Wasser angesetzt.
Menace
2017-06-22, 12:22:20
Und ja, es ist der Spekulatius-Faden hier und nicht Susis Fakten-Check. Deshalb posten wir das alle ja auch hier :)
Spekulation ist eines, solltem man aber als solches auch entsprechend schreiben. Eine Spekulation als Tatsache zu verkaufen oder Spekulationen bewusst zu erfinden (ich nenne mal keinen Namen, aber ihr kennt den Schreiber, der in der Uni gehört hat, dass Ryzen heiß und ineffizient sei) ist eine andere Sachen. Ich speichere in der Zwischenzeit einfach manche Aussagen, um sie später gegenprüfen zu können.
Ich finde nämlich, dass auch einem Spekulationsthread gewisse Fakten einfach gut tun. :biggrin: Der Faktencheck könnte also durchaus noch kommen.
Edit: Und die Nano finde ich einfach nur gelungen - auch gerade in der OpenCl-Leistung.
Bei der R9 290X OC hatte ich bis zu 50 Watt Leakage gegenüber der wassergekühlten GPU - das ist echt eine Hausnummer!
Die Erfahrung hatte ich auch ohne OC gemacht, allerdings auch mit richtig schlechtem Kühler. Insofern gewinnt man natürlich auch headroom wenn man wakü voraussetzt, trotzdem sollte imho auch ein massentauglicheres Produkt, gerne als nano, können.
Linmoum
2017-06-22, 12:32:19
Ich war und bin mit der Nano wirklich zufrieden - die Karte war vernünftig genug, um auch mit etwas weniger Leistungs das zu tun, was man von Ihr abverlangt hat. Mit meinem 92mm-Fan-Mod noch umso mehr. Die Fury mag ich hingegen überhaupt nicht (private Meinung).
Und ja, es ist der Spekulatius-Faden hier und nicht Susis Fakten-Check. Deshalb posten wir das alle ja auch hier :)
Bei der R9 290X OC hatte ich bis zu 50 Watt Leakage gegenüber der wassergekühlten GPU - das ist echt eine Hausnummer! Nur ist LuKü in diesen Leistungsklassen meist Crap und geht somit auch indirekt zu Lasten der Steckdose.
@Dino-Fossil:
Performance und Preis. Die Kühlung ist Boardpartner-abhängig und notfalls wird halt Wasser angesetzt.
Denkst du denn, dass Sapphires Kühllösung von der Fury Nitro/Tri-X passen bzw. ausreichen würde? Hat mich bei meiner Nitro einfach nur begeistert, eingestellt auf ~1060 RPM und Temperaturen über 73 Grad sehe ich damit quasi nie, egal was ich zocke. Von irgendwelchem Furmark-Kram jetzt natürlich mal abgesehen. :P
Hab prinzipiell nichts gegen WaKü, aber wenn's mit Luft angenehm zu kühlen geht, bevorzuge ich dann doch eher das.
Mangel76
2017-06-22, 12:36:42
Man kann klar erkennen, daß dort 1. jeweils lediglich die passiv gekühlte Variante referenziert ist (nicht die Version mit WaKü, die aber auch schon gezeigt wurde) und 2. mit 300W SMP, wohingegen TBP auf der Produktseite.
Neben der Frage, ob bei der passiven Version wirklich TDP = SMP = TBP ist, stellt sich die wesentlich einfacher zu beantwortende Frage, ob eine mit einer extra leistungsfähigen WaKü versehene Version wohl erwartbar mehr Leistung umsetzt und deshalb auch mehr Abwärme emittiert als eine passive Version. Wenn die Wasserkühlung also nicht rein zu dekorativen Zwecken verbaut wird, ist die Annahme von mehr Takt, mehr Abwärme, damit mehr Strombedarf und höherer TDP als die angegebenen 300W der Passiv-Variante aus meiner Sicht keineswegs irgendwie abwegig. Umgekehrt passen auch 300W für die passive Karte zur Angabe 225/300W, wenn man die 225/300W als reinen ASIC-Verbrauch der unterschiedlichen Versionen nimmt, was einen dann bei der "Vollgas"-Karte bei etwa 375W rauskommen ließe.
Dann sind wir uns doch einig, genau das habe ich doch geschrieben. Ich war nicht der, der behauptete "Die 300 Watt TDP bei der professionellen Vega-Karte beziehen sich auf die GPU allein. " Und professionelle Vega-Karte ist zunächst mal die MI25, auf die bezogen sich ja auch alle Links. Zur Frontier Edition vermisse ich die offiziellen Angaben, die gab es meines Wissens nach nur auf einer Händlerseite mit den 375W:confused:
Wo hast du denn diese Angaben gefunden: "Die Vega-Chips sind hochoffiziell mit 225/300W TDP angegeben". Kannst du mal einen Link geben?
vinacis_vivids
2017-06-22, 12:40:20
In den AMD-Folien tauchen die Zahlen 225/275W auf für consumer Vega.
Complicated
2017-06-22, 13:02:36
Womit wir schon ganz von alleine auf den Bullshit-Gehalt des Gerücht gekommen sind basierend auf der Annahme ein Interposer-Produkt hätte den selben Stromaufschlag zwischen GPU TDP und TBP wie ein klassisches Produkt mit GDDR5 auf dem ganzen PCB verteilt. Genauso ein Fehlschluß und FUD wie die Yield Geschichte und getrost in die Schublade gemeinsam mit den Uni-Freunden zu stecken und der Putzfrau.
Mangel76
2017-06-22, 13:32:14
In den AMD-Folien tauchen die Zahlen 225/275W auf für consumer Vega.
Meinst du diese (https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed) hier? Die geistern ja schon lange rum, aber ist denn die Echtheit belegt? Kommen mir sehr dilettantisch vor.
Zumal hier 225 Watt stehen, wofür auch immer (Chip, Package mit HBM, ganze Karte)??? Die 300W beziehen sich offensichtlich auf Dual-GPU-Karte (4 stack HBM2).
Die einzige überzeugende Angabe ist weiterhin 300W TBP für die MI25. Wenn du was anderes hast, bitte mit Link. Danke.
Hasenpfote
2017-06-22, 13:50:46
Fiji ist undervoltet sogar Recht effizient Auch Polaris kann man wunderbar trimmen 😁
Wird mit Vega sehr sehr interessant. Da gibs die breiteste Karte für smoothes Gaming ohne Drops bei kühlen Temps. Freue mich schon richtig drauf.Wenn sie dafür aber 600+Euro verlangen können sie mir gestohlen bleiben. Ich will einfach nur eine 1070 Alternative bis max 400Euro. Aber das ist scheinbar zuviel verlangt heutzutage.
@compilcated: Ob das Yield-Problem FUD ist, ist offen. Wenn AMD wirklich auf Teufel komm raus Chips herstellt und die Hersteller Karten herstellen, wird man das auf dem Earningscall für Q2 sehen (wie Format_C schon sagte). Das sollte Anfang August der Fall sein. Hast Du Recht, düfte die Radeonsparte deutlich aus den roten Zahlen raus sein. Probleme mit irgendwelchen Zulieferteilen (wie es gerüchtet wurde), sollten in der Zeit auf jeden Fall lösbar sein.
Meinst du diese (https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed) hier? Die geistern ja schon lange rum, aber ist denn die Echtheit belegt? Kommen mir sehr dilettantisch vor.
Zumal hier 225 Watt stehen, wofür auch immer (Chip, Package mit HBM, ganze Karte)??? Die 300W beziehen sich offensichtlich auf Dual-GPU-Karte (4 stack HBM2).
Die einzige überzeugende Angabe ist weiterhin 300W TBP für die MI25. Wenn du was anderes hast, bitte mit Link. Danke.
Macht ja nichts, wenn die Spekulationen Vega im guten Licht darstellen werden daraus instant Fakten. ;)
Cyphermaster
2017-06-22, 14:14:58
Macht ja nichts, wenn die Spekulationen Vega im guten Licht darstellen werden daraus instant Fakten. ;)Umgekehrt doch genauso. Manche haben hier einfach einen Missionierungsdrang auf nahezu ISIS-Level.
Mangel76
2017-06-22, 15:15:34
Umgekehrt doch genauso. Manche haben hier einfach einen Missionierungsdrang auf nahezu ISIS-Level.
Ich hoffe, du meinst damit nicht mich. Denn meine Frage, wo du deine "Fakten" her hast, war wirklich ernst gemeint:
Och nöö... ;(
:rolleyes: Und nochmal: F_A_L_S_C_H. Die Vega-Chips sind hochoffiziell mit 225/300W TDP angegeben, so wie P10 mit 110W TDP. Heißt, die TBP (= die ganze Karte )wird jeweils ein gutes Stück darüber liegen müssen.
Umgekehrt doch genauso. Manche haben hier einfach einen Missionierungsdrang auf nahezu ISIS-Level.
Das stimmt, wobei ich aber die Beiträge von Igor recht neutral finde, auch wenn es danach eher nach 300W Verbrauch aussieht.
Screemer
2017-06-22, 15:36:52
Ich hoffe, du meinst damit nicht mich. Denn meine Frage, wo du deine "Fakten" her hast, war wirklich ernst gemeint:
jup meine frage nach der quelle dieser höchstoffiziellen angaben blieb leider auch unbeantwortet.
AffenJack
2017-06-22, 15:50:44
Umgekehrt doch genauso. Manche haben hier einfach einen Missionierungsdrang auf nahezu ISIS-Level.
Vielleicht solltest du dir da an deine eigene Nase fassen, denn genau das gleiche machst du die ganze Zeit. Es gibt keinerlei Anzeichen, dass es nicht 300W werden, aber du behauptest immernoch es werden 225W basierend auf einer uralten Folie die zu 50% sowieso Fake ist und dann redest du von "hochoffiziellen" Angaben.
Complicated
2017-06-22, 16:02:32
@compilcated: Ob das Yield-Problem FUD ist, ist offen.
Ist es nicht. Siehe entsprechenden Polaris Thread wo es aufgedröselt wurde.
Taigatrommel
2017-06-22, 16:41:53
Wenn sie dafür aber 600+Euro verlangen können sie mir gestohlen bleiben. Ich will einfach nur eine 1070 Alternative bis max 400Euro. Aber das ist scheinbar zuviel verlangt heutzutage.
Das kannst du IMHO beim Vollausbau von Vega vergessen. Vielleicht wird es was mit dem abgespeckten Vega 11(?), welcher ja gegen Jahresende erscheinen soll. Ich glaube aber kaum, dass AMD die RX Vega für weniger als 600,-€ anbieten wird, 500,- wären schon ein absoluter Kracher, darunter werden die Entwicklungskosten wohl schlichtweg zu hoch sein, als das sich dieses Projekt jemals rentieren würde.
Setsul
2017-06-22, 16:46:19
Diese Diskussion ist doch relativ sinnbefreit.
Papier ist geduldig.
Was vor Monaten "festgelegt" ist letztendlich nichts anderes als ein Wunschzettel des Marketings. Was sie tatsächlich bekommen kann anders aussehen.
Siehe Polaris. Da kann man sich 150W noch so sehr wünschen, wenn man mit der Leistung im Markt nicht gut genug da steht, dann wird das Ding eben auf 165W hochgeprügelt.
Man kann so oft x TFlops und y Watt draufschreiben wie man will, wenn der Chip das nicht macht dann ist es eben so. Umgekehrt kann man sich sicher sein, dass AMD die ersten sein werden die Verbrauchsmessungen rausholen, wenn der Vebrauch niedriger ist als erwartet.
Aufgrund von [beliebiger dreibuchstabiger Abkürzung] die plusminus [alles Mögliche] für Chip/Karte/was auch immer einen [Minimal-/Maximal-/Durchschnittswert] angibt abschätzen zu wollen ob der Gesamtverbrauch (Chip oder ganze Karte?) in einer bestimmten Situation (ändert sich ja wieder je nach Programm) über oder unter x Watt liegt ist sinnlos. Da kann ich eine Münze werfen und liege genauso oft richtig.
Wenn man so etwas vergleichen will nimmt man sich die Karten die man vergleichen will, lässt auf beiden die gleichen Programme laufen und schreibt sich dann auf was an Leistung und Verbrauch rausgekommen ist.
Das ist keine begründete Spekulation, das ist ein glaubensbasiertes Ratespiel. Welche Zahl mir am besten gefällt muss die richtige sein.
Hasenpfote
2017-06-22, 16:49:11
Via Videocardz
https://videocardz.com/70465/msi-damn-rx-vega-needs-a-lot-of-power
erweitert um Info aus reddit:
https://www.reddit.com/r/Amd/comments/6it7sv/msi_damn_rx_vega_needs_a_lot_of_power/dj8uvi0/
Vega zieht Saft, RICHTIG viel Saft. Irgendwas bei 350W@1600Mhz.
Aber wie auch Format_C schon sagte: die Leistung relativiert das Ganze schon wieder.
Ich dreh durch :freak:
(del)
2017-06-22, 16:55:35
@Hasenpfote:
Weißt Du, was ein Thermal Leader ist? Ich bekomme bald Besuch und einer Deiner Links ist sehr nah an meiner Quelle ;)
Gipsel
2017-06-22, 17:52:38
Die Posts zu Polaris-Lieferbarkeit wurden in den passenden Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11409167#post11409167) verschoben.
horn 12
2017-06-22, 18:49:52
@Format C
Also doch weitaus schneller als viele gedacht
Die GTX 1080TI OC sollte also doch um Einiges geschlagen werden bei 1600+ Mhz und Optimierten Treibern, zudem der Architekturverbesserung!
Cyphermaster
2017-06-22, 19:06:03
Vielleicht solltest du dir da an deine eigene Nase fassen, denn genau das gleiche machst du die ganze Zeit. Es gibt keinerlei Anzeichen, dass es nicht 300W werden, aber du behauptest immernoch es werden 225W basierend auf einer uralten Folie die zu 50% sowieso Fake ist und dann redest du von "hochoffiziellen" Angaben.Bislang hat die Folie niemand als Fake enttarnt, die Aussagen von 225W (Chip, nicht Karte, und auf den Profi-Karten-Settings) haben zudem auch andere persönlich gehört und (imo das Wichtigste dran) ich erhebe keinen Anspruch, daß diese Aussagen Fakten wären, noch daß sie 1:1 auf RX Vega übertragen würden. Ich habe im Gegenteil mehrfach sogar direkt geschrieben, daß es sich dabei in keiner Forum um etwas handelt, was schon mit Daten belegt wäre.
Speku-Forum ist Speku-Forum, und abseits explizit als Faktum gekennzeichneten und am Besten auch belegten Dingen persönliche Theorie. Auch bei mir. Setsul hat es eigentlich optimal zusammengefaßt.
@Format C
Also doch weitaus schneller als viele gedacht
Die GTX 1080TI OC sollte also doch um Einiges geschlagen werden bei 1600+ Mhz und Optimierten Treibern, zudem der Architekturverbesserung!
Klar. Ich glaube auch, dass Vega 20% schneller als eine 1080ti OC sein wird bei einem Verbrauch von 225W.
(del)
2017-06-22, 19:21:28
@Format C
Also doch weitaus schneller als viele gedacht
Die GTX 1080TI OC sollte also doch um Einiges geschlagen werden bei 1600+ Mhz und Optimierten Treibern, zudem der Architekturverbesserung!
Zu einer Spekulation um die Gaming-Performance werde ich mich nicht hinreißen lassen, denn auch die aktuellen Pro-Karten könnten von den Treibern sicher noch viel deutlicher profitieren - oder eben auch nicht. Das weiß aber nur AMD allein. Frontier kaufen, DX-basierten Kram wie AutoCAD oder Inventor Fusion laufen lassen und vergleichen. Glaskugel polieren, Kaffeesatz umrühren und spekulieren. Damit sollte man bis Ende Juli schon leben können :)
Igor, vorhin richtig verstanden, CM ist wieder im Boot?
Hätte ja gehofft, dass man die Methode von Alphacool verwendet, damit es wegen den Patenten keine Probleme gibt, zumal diese Methode meiner Meinung nach konkurrenzlos ist, was Lautstärke und Laufleistung betrifft.
(del)
2017-06-22, 19:29:54
Ich habe nur geschrieben, ich befürchte es, weil die ja das ganze Geraffel für PC-Partner machen. Und ich wüsste nicht, dass man die final gekickt hätte. Auch Alphacool hat Patente auf die Pumpe, das fällt also als Kopie schon mal aus. AVC ist nicht blöd und eine riesige Butze, die werden schon was Patensicheres hinbekommen. Cooler Master ist doch nur Man-in-the-midlle, der die Komponenten wie Pumpe, Heatsink und Piepes dann zusammenstöpseln lässt. Montiert wird das alles sowieso in Dongguan bei PC Partner und AVC liefert / produziert auch dort. AMD hat den Vetrrag mit PC-Partner, Cooler Master ist auch nur "Subunternehmer" :D
So sehr ich Alphacool so einen Auftrag wünschen würde, das hier ist eine andere Hausnummer.
Ja... soweit verständlich. Mir ging es eher darum, welche Art von Kühlung die dort wieder drauf kleistern. "wieder" bei CM, da denke ich, dass die das selbe drauf hauen wie bei Fiji schon. Fand die Lösung ziemlich "Kosten" Optimiert. Wünschen würde ich mir einfach nen stink normalen Block, meinetwegen auch aus ALU - immer noch besser als Luft. Den Rest dann eben mit nem DHE - sowas ähnliches wie Alphacools Custom Nachrüst-Kühler ^^
[MK2]Mythos
2017-06-22, 19:40:06
Wenn Vega sich wirklich im Bereich um 300 Watt gönnt, werden die Custom Wasserkühlungsblöcke eh nicht lange auf sich warten lassen.
Möglicherweise wird es ja auch Karten fertig mit Wasserblock für die Integration in bestehende Wasserkühlungen geben.
Langlay
2017-06-22, 19:45:23
Mythos;11409302']Möglicherweise wird es ja auch Karten fertig mit Wasserblock für die Integration in bestehende Wasserkühlungen geben.
Beim Käsekönig sicherlich.
Mal sehen... wenn die Stock bereits gut genug ist, bleibt die drin, notfalls kann man dann immer noch nachrüsten, aber Luft tue ich mir nicht mehr an. Bei GPUs ist Wasser wie ein Segen.
Langlay
2017-06-22, 19:59:18
Meine R9 290 läuft ja auch unter Wasser. Und auf den Vega werde ich auch wieder nen Wasserblock setzten. Und dann isset auch wurst ob das Teil 225W oder 350W schluckt, die 5€ mehr Strom im Jahr sind egal. Und man hat den Vorteil du kannst gleich am Anfang die Referenzkarte kaufen.
BlacKi
2017-06-22, 20:03:10
Meine R9 290 läuft ja auch unter Wasser. Und auf den Vega werde ich auch wieder nen Wasserblock setzten. Und dann isset auch wurst ob das Teil 225W oder 350W schluckt, die 5€ mehr Strom im Jahr sind egal. Und man hat den Vorteil du kannst gleich am Anfang die Referenzkarte kaufen.
zockst du nur 2,6stunden in der woche?
60fps / Framlimiter... schon mal davon gehört?
Bei BF1 läuft meine r200 nur auf 700mhz :D
Blediator16
2017-06-22, 20:55:17
60fps / Framlimiter... schon mal davon gehört?
Bei BF1 läuft meine r200 nur auf 700mhz :D
ditto. meine gtx1060 hat bei tomb raider und dem teil danach nur bis ca 1030mhz geboostet und die lüfter haben ab und zu mal angedreht, nachdem die karte über ihre 54° gekommen ist ;D
Rincewind
2017-06-22, 21:13:02
ob nun 5€ oder 25€ pro Jahr, Sinn macht es schon, dass man Wasser anstelle von Luft benutzt. Persönlich werde ich wohl zu Weihnachten Ryzen 7 und Vega unter Wasser setzen. Wenn ich mir schon ein vernünftiges System bauen möchten, welches auch ein paar Jahre halten soll, dann macht Wasser schon Sinn. Ob nun mit 2x AiO oder ein größeres System muss ich mal schauen. Erfahrung mit WK-Einbau habe ich und mein Big-Tower bietet Platz genug.
Hasenpfote
2017-06-22, 21:27:15
@Hasenpfote:
Weißt Du, was ein Thermal Leader ist?Der Hersteller, der die Hardware liefert, die am meisten Strom verbraucht und am meisten Wärme entwickelt unabhängig von der resultierenden Leistung? :biggrin:
Nee ehrlich: kA. Kann es nur vermuten.
(del)
2017-06-22, 21:48:36
Der Ingenieur, der für die Kühllösungen zuständig ist. Also eine Art Produktmanager für die heiße Theke :)
Swissr
2017-06-22, 22:13:07
Also eine Art Produktmanager für die heiße Theke :)
Und du bist dir sicher, dass du jetzt nicht vom Ansager des nächsten Lapdance im Vergnügungsetablissement sprichst?
SCNR ;-)
Langlay
2017-06-22, 22:16:09
zockst du nur 2,6stunden in der woche?
Naja sind eher 4h die Woche im Schnitt. Aber jedenfalls ist der Stormverbrauch von meinem PC kein grosser Kostenpunkt. Und die R9 290 ist jetzt auch nicht gerade ne Stromsparkarte.
Digidi
2017-06-22, 22:48:00
Mal etwas mit spekulieren. AMD hat ja gesagt das FIJI sehr viel Rechenleistung für Unsinn verbraten hat, weil ja nicht genug Polygonen verworfen wurden.
Jetzt ist der Polygonenoutput gut 2x (200%) mal so groß zu Fiji wohlgemerkt bei gleichem Takt. Hinzu kommt das die Karte gut 57% schneller Taktet. Rhein mathematisch hat Vega dann einen 314% höhren Polygonenoutput zu Fiji.
Wenn man es jetzt noch packt die ganzen Polygonen auf die Shader umzulegen ist es kein Wunder, dass das Teil 370 Watt zieht.
horn 12
2017-06-22, 23:12:54
https://twitter.com/GChip/status/877977292688863232
Najut. Rajas Bart ist noch dran (gekürzt=bald Launch :D) er sagte ja, wenn Launch dann isser ab *gg*
BlacKi
2017-06-22, 23:22:59
https://twitter.com/GChip/status/877977292688863232
ist dass das erste bild seiner art?
Screemer
2017-06-22, 23:24:46
2*8pin
Complicated
2017-06-22, 23:44:45
Dazu passend mal was amüsantes:
http://www.pcgameshardware.de/Vega-Codename-265481/News/MSI-Radeon-RX-Vega-Leistungsaufnahme-Performance-1231289/
Die Vega-10-GPU taktet dort mit etwa 1.500 MHz. Die für den semiprofessionelle Einsatzzweck gedachte Radeon Vega Frontier Edition hat in der luftgekühlten DHE-Variante eine TDP von 300 Watt, das Modell mit Kompakt-Wasserkühlung sogar eine von 375 Watt - vor allem bei AMD ist die Bezeichnung TDP allerdings sehr schwammig. Der GPU-Takt ist dort mit 1.600 Watt jedenfalls noch etwas höher angesetzt. Wer bietet mehr? :biggrin:
Digidi
2017-06-22, 23:57:41
2*8pin
314% Steigerung des Polygonen Output dafür. Wenn es 8 Rasterizer sind wäre das sogar eine Steigerung von 628%
Wurde das jetzt mal endlich Verkündet wie viele Rasterizer das Teil hat? Es gibt ja 4 Geometrieengines aber wie viele Rasterizer eine Engine enthält hört man nichts davon.
dildo4u
2017-06-23, 00:38:38
Schätze mal alle 16GB Karten haben zwei mal 8 Pin,noch kein Hinweiß auf die Consumer Karten.
=Floi=
2017-06-23, 01:05:13
@Format C
Also doch weitaus schneller als viele gedacht
Die GTX 1080TI OC sollte also doch um Einiges geschlagen werden bei 1600+ Mhz und Optimierten Treibern, zudem der Architekturverbesserung!
zu den treibern sage ich jetzt nichts.
Du gehst aber schon wieder von viel zu viel leistung aus. wäre vega so schnell, dann müssten sie nicht den takt so hoch drehen. Auch jetzt kann man schon sagen, dass der sweetspot überschritten ist und das teil so kein stromsparwunder werden wird.
Eine OC 1080Ti mit guten 1900mhz muss erstmal eingeholt und überholt werden.
prügeln sie vega wirklich über die Ti wird der preis auch entsprechend sein. Wollt ihr auch 800€ zahlen?
Für mich spielt es schon eine rolle wieviel watt das teil mir ins zimmer bläst. überspitzt gesagt 100watt mehr mehrt man in vielerlei hinsicht.
Digidi
2017-06-23, 01:14:10
zu den treibern sage ich jetzt nichts.
Du gehst aber schon wieder von viel zu viel leistung aus. wäre vega so schnell, dann müssten sie nicht den takt so hoch drehen. Auch jetzt kann man schon sagen, dass der sweetspot überschritten ist und das teil so kein stromsparwunder werden wird.
Eine OC 1080Ti mit guten 1900mhz muss erstmal eingeholt und überholt werden.
prügeln sie vega wirklich über die Ti wird der preis auch entsprechend sein. Wollt ihr auch 800€ zahlen?
Für mich spielt es schon eine rolle wieviel watt das teil mir ins zimmer bläst. überspitzt gesagt 100watt mehr mehrt man in vielerlei hinsicht.
Mit 1900 MHz übertreibt du auch normale Karten (keine golden Sampels) packen 1600-1700 Ghz
aufkrawall
2017-06-23, 01:37:37
Bei Nvidia packen schon lange die großen Chips ca. gleich viel Takt wie Midrange. Gibts einen Beleg dafür, dass sich das mit Pascal geändert haben soll? Ich glaubs nicht.
Mangel76
2017-06-23, 04:01:33
zu den treibern sage ich jetzt nichts.
Du gehst aber schon wieder von viel zu viel leistung aus. wäre vega so schnell, dann müssten sie nicht den takt so hoch drehen. Auch jetzt kann man schon sagen, dass der sweetspot überschritten ist und das teil so kein stromsparwunder werden wird.
Eine OC 1080Ti mit guten 1900mhz muss erstmal eingeholt und überholt werden.
prügeln sie vega wirklich über die Ti wird der preis auch entsprechend sein. Wollt ihr auch 800€ zahlen?
Für mich spielt es schon eine rolle wieviel watt das teil mir ins zimmer bläst. überspitzt gesagt 100watt mehr mehrt man in vielerlei hinsicht.
Klar. Und so eine 1080Ti verbraucht bei knapp 2 GHz bekanntermaßen ja nur 230W. Da hat Vega mindestens 100W mehr! oo
MadManniMan
2017-06-23, 06:16:13
Seite 1 bzw. Post 1 hat dazu nix, gebt mir mal bitte ein Update: Wann kommt Vega raus? Es scheint ja schon ziemlich konkret zu werden.
Juli/August-Sep. @Customs.
Mit Pech (wegen Mining) kannst du sie dir auf den Weihnachtszettel schreiben.
(del)
2017-06-23, 06:38:08
Seite 1 bzw. Post 1 hat dazu nix, gebt mir mal bitte ein Update: Wann kommt Vega raus? Es scheint ja schon ziemlich konkret zu werden.Zur Siggraph, die Ende Juli beginnt. Mal sehen, ob man da was abfassen kann. Sonst muss es doch erst mal die Frontier-Edition richten. Aber wenn schon, dann die goldene mit dem wassergekühlten 375 HP Hemi :P
Loeschzwerg
2017-06-23, 06:57:50
Die FE dann Ende diesen Monats? Persönlich finde ich die "blaue" Version schöner. Ich hoffe du schaust dir beide Varianten an ;) *Peltor Optime III Gehörschutz könnte ich sponsern*
uweskw
2017-06-23, 07:01:52
Jetzt macht das alles auf einmal Sinn: AMD hält Vega zurück um erstmal selbst kräftig Bitcoins zu schürfen.
Geschäftlich das Beste was sie machen können. Die haben dazugelernt.
Und wir können uns darauf freuen, dass in der nächsten Generation eine AMD Architektur auf dem Markt kommt in die richtig Kohle gesteckt wurde.
Greetz
US
PD.:
Wer einen link dazu findet kann ihn gern rechten
Digidi
2017-06-23, 07:10:41
Zur Siggraph, die Ende Juli beginnt. Mal sehen, ob man da was abfassen kann. Sonst muss es doch erst mal die Frontier-Edition richten. Aber wenn schon, dann die goldene mit dem wassergekühlten 375 HP Hemi :P
Werden wir da zumindest so Sachen erfahren wie Shader struktur, Anzahl der rops und Rasterizer, mehr über HBCC?
Ich hoffe vielmehr, dass die Presse mal was länger "Zeit" bekommt. Um auch mal bei einigen anderen Sachen mehr ins Detail gehen zu können...
Nervt mich mittlerweile am meisten.
Edit: Gibt es mittlerweile nähere Informationen darüber, ob mit Vega ATC (http://www.amd.com/system/files/2017-06/TIRIAS-AMD-Epyc-GPU-Server.pdf) auch bei AM4 Einzug hält?
(del)
2017-06-23, 07:51:34
@Digidi
Der Launch, oder besser die Produktvorstellung der fertigen Karte, soll laut Lisa auf der Siggraph erfolgen, aber keiner weiß, ob da schon ein Hardlaunch folgt oder ob es Salami-Scheiben wie bei Ryzen gibt.
Ich konzentriere mich aktuell eher auf Threadripper und die albernen KL-X. Ich hätte auch gern was von dem Zeug, das derjenige geraucht hat, als er diesen X299 Quadcore-Quark ausgebrütet hat. Das muss umwerfend sein. :D
Den I7-7740X musste ich mir jetzt per UPS aus den Staaten schicken lassen, weil in Europa irgendwie nichts aufzutreiben war und die Boardpartner alle amüsiert abwinken. Mit den Dingern plant sicher keiner ernsthaft. Die sind schon tot, bevor sie (falls überhaupt) mal im Regal stehen.
Intel hat mittlerweile überall empfohlen, günstigere X299 Bretter mit nur 4 Slots anzubieten. Es soll ja Kunden geben, die den i5/i7 mit 8 Modulen betreiben wollen und sich dann über den hälftig fehlenden RAM beklagen. Passieren wird nichts (BSOD oder Ähnliches), der ist einfach nur nicht da. Wie auch?
Mit 1900 MHz übertreibt du auch normale Karten (keine golden Sampels) packen 1600-1700 Ghz
Nein.
Cyphermaster
2017-06-23, 08:17:08
Auch jetzt kann man schon sagen, dass der sweetspot überschritten istWoran willst du das festmachen? Dafür müßte man eine gemessene Kurve mit Leistung/Stromverbrauch haben.
und das teil so kein stromsparwunder werden wird.Das brauchte wohl von Anfang an keine Glaskugel. Schon GCN4 war in Sachen Performance/Watt (@Gaming) noch ein gutes Stück von dem entfernt, was nVidia anbietet. Bei den Verbesserungen war imho nicht zu erwarten, daß GCN5 das in einem Sprung aufholen kann (und beim RAM ist dann so viel Unterschied eh nicht). Ich bin gespannt drauf, ob es bei gleicher Leistung (~1080Ti-Niveau) am Ende eher auf 300/350W (Delta ~15%) oder doch eher 250/350W (Delta ~40%) rauslaufen wird. Letzteres wäre wirklich übel, da könnte man dann nur auf eine zweite Nano hoffen.
prügeln sie vega wirklich über die Ti wird der preis auch entsprechend sein. Wollt ihr auch 800€ zahlen?Auch da: Woran willst du das festmachen? RX480 war auch nicht überteuert, und grade im teuren Segment will AMD doch wieder einen Fuß in die Türe kriegen --> Grund für günstigere Preisgestaltung als bei der Konkurrenz.
Für mich spielt es schon eine rolle wieviel watt das teil mir ins zimmer bläst. überspitzt gesagt 100watt mehr mehrt man in vielerlei hinsicht.Sehe ich auch so. Allerdings ist bei der Mehrzahl des Zielpublikums das eben eine eher untergeordnete Betrachtung.
Vorwegnahmen sind halt seit einiger Zeit im Trend, und wenn das Vorweggenommene dann zufällig eintritt schwillt die Brust und es wird verstärkt weitergemacht.
Hübie
2017-06-23, 09:11:30
Mit 1900 MHz übertreibt du auch normale Karten (keine golden Sampels) packen 1600-1700 Ghz
Es boosten fast alle schon über deine 1700 MHz und OC ist ebenfalls bei so gut wie allen auf 1900 MHz oder mehr drin. Das ist der zugrunde liegenden Architektur in Kombination mit dem 16FF+ Prozess zu verdanken. Erstaunlich ist es alle mal.
Vega wird es so oder so nicht einfach haben.
@digidi: Es steht ja sogar in dem verlinkten, fehlerhaften Paper dass ATC auf beiden Seiten vorerst deaktiviert ist und später aktiviert wird. Wer weiß was der Grund ist. Volta hat so etwas offenbar auch spendiert bekommen, was der Verbreitung dienlich sein dürfte.
Es boosten fast alle schon über deine 1700 MHz und OC ist ebenfalls bei so gut wie allen auf 1900 MHz oder mehr drin. Das ist der zugrunde liegenden Architektur in Kombination mit dem 16FF+ Prozess zu verdanken. Erstaunlich ist es alle mal.
Vega wird es so oder so nicht einfach haben.
@digidi: Es steht ja sogar in dem verlinkten, fehlerhaften Paper dass ATC auf beiden Seiten vorerst deaktiviert ist und später aktiviert wird. Wer weiß was der Grund ist. Volta hat so etwas offenbar auch spendiert bekommen, was der Verbreitung dienlich sein dürfte.
Beim Benchen sind >1.9G nett, beim Gamen in 4k (!) macht es annähernd 0 Unterschied ob jetzt 1.7G, oder aber 2G anliegen. S.h. da kommt beim Takt nimmer so viel bei rum ...
Cyphermaster
2017-06-23, 10:22:54
Vorwegnahmen sind halt seit einiger Zeit im Trend, und wenn das Vorweggenommene dann zufällig eintritt schwillt die Brust und es wird verstärkt weitergemacht.Eine Vorwegnahme ist es nur, wenn es schon Fakten wären. So sind das alles Spekulationen, mehr oder minder (Bevor wieder einer meckert: jup, auch bei mir), und sollten auch als solche genommen werden.
Digidi
2017-06-23, 10:23:51
@Digidi
Der Launch, oder besser die Produktvorstellung der fertigen Karte, soll laut Lisa auf der Siggraph erfolgen, aber keiner weiß, ob da schon ein Hardlaunch folgt oder ob es Salami-Scheiben wie bei Ryzen gibt.
?
Danke. Ich dachte der Launch der Frontier Edition wäre schon am 27.06?
Und da würde man zumindest mehr über das Layout von Vega erfahren. Erst wenn wir wissen was mit dem Rasterizer los ist kann man die Performance einschätzen.
Man könnte dann auch mal mit der Beyond3d Suite den Polygoneoutput testen.
r3ptil3
2017-06-23, 10:44:48
http://fs5.directupload.net/images/170623/l6vodrli.jpg
Könnte auch einfach BS sein was der erzählt.
Beim Benchen sind >1.9G nett, beim Gamen in 4k (!) macht es annähernd 0 Unterschied ob jetzt 1.7G, oder aber 2G anliegen. S.h. da kommt beim Takt nimmer so viel bei rum ...
Wenn du den Speicher übertaktet hast, merkst du den Unterschied zwischen 1,7 und 2,0 GHz. In Ultra HD kann man jedes Frame gebrauchen (ich freue mich da über 45 statt 40 Fps). :)
MfG,
Raff
Fetza
2017-06-23, 10:49:44
Wie sieht es eigentlich mit der FP16 Fähigkeit von Vega im Kontext der Spielebeschleunigung aus? Wird das wohl demnächst ein wichtiges Feature? Pascal bietet das ja nicht, wenn ich richtig informiert bin.
Hasenpfote
2017-06-23, 11:23:03
http://fs5.directupload.net/images/170623/l6vodrli.jpg
Könnte auch einfach BS sein was der erzählt.Das Zweit-Wichtigste hase vergessen:
Polaris will continue to have best Perf/Power consumption ratio for mining ;)
Oh man, das warten nervt ECHT!
Wenigstens hat sie die AMD-Aktie erholt und ein 1700 + Vega ist wieder finanzierbar (ohne Frauchen um Erlaubnis zu fragen :biggrin: )
Cyphermaster
2017-06-23, 11:27:29
Oh man, das warten nervt ECHT!;D
Wenn ich sowas lese, bin ich jedes Mal froh, daß bei mir Karten in der Leistungsregion eh nicht mehr auf dem Einkaufszettel stehen. Bei mir ist das mittlerweile eher akademisches Technik-Interesse, bzw. als "Vorschau", was irgendwann in den für mich relevanten Segmenten verkauft werden wird.
Schnoesel
2017-06-23, 11:48:13
Evrl hat da jemand falsch übersetzt:
https://www.computerbase.de/2017-06/radeon-rx-vega-leistungsaufnahme-taktrate/
Videocardz hat die Aussage zum Stromverbrauch in „[RX Vega] braucht verdammt viel Strom“ übersetzt. Von „verdammt viel“ ist in dem Posting aber keine Rede, eher von „verbraucht so viel wie nötig“.
Digidi
2017-06-23, 12:12:29
Evrl hat da jemand falsch übersetzt:
https://www.computerbase.de/2017-06/radeon-rx-vega-leistungsaufnahme-taktrate/
Das war Absicht! Es lebe der Hyptrain und das damit verbundene Clickbiting
deekey777
2017-06-23, 12:20:18
Wie sieht es eigentlich mit der FP16 Fähigkeit von Vega im Kontext der Spielebeschleunigung aus? Wird das wohl demnächst ein wichtiges Feature? Pascal bietet das ja nicht, wenn ich richtig informiert bin.
Die Gaming-Pascals bieten keine herausragenden FP16-Fähigkeiten an.
Es kann gut sein, dass große Studios hier und da FP16-Möglichkeiten nutzen (die Polaris-Radeons und die letzten APUs können FP16-Berechnungen mit gleicher Geschwindigkeit ausführen wie FP32), aber die Nutzerbasis wird wohl nicht hoch genug sein, um Resourcen zu investieren.
Mangel76
2017-06-23, 12:22:30
Im Vergleich zur von Nvidia mit 180 Watt Verbrauch angegebenen GeForce GTX 1080 Founders Edition (Test) zeigen Partnerkarten der GeForce GTX 1080 im Test allerdings bis zu knapp 20 Prozent mehr Leistung, verbrauchen unter Last dann aber auch 130 Watt mehr.
Der typische Verbrauch der Referenzversion der Radeon RX Vega ist also auch davon abhängig, wie nahe AMD die eigene Variante bereits an die Grenze des Machbaren verlegt. Im Vergleich zur GeForce GTX 1080 Founders Edition erscheinen 300 Watt und mehr zuerst viel, im Vergleich zu ausgewählten Partnerkarten relativiert sich das Bild. https://www.computerbase.de/2017-06/radeon-rx-vega-leistungsaufnahme-taktrate/
Moment mal: 180W für die FE plus 130W für die schnellsten Partnerkarten macht 310W. Da beschwere sich nochmal einer, dass Vega mit 300W höchsten auf 1080-OC-Niveau kommt ;D Das wäre ja effizienter als Pascal :freak:
Und bevor der ShitStorm losbricht: ja, ich weiß, da gibt es auch noch einen GP102:P
Wenn nicht einmal Holländer der Übersetzung widersprechen, halte ich sie für tendenziell korrekt. :)
grauenvoll
2017-06-23, 12:32:17
Die Gaming-Pascals bieten keine herausragenden FP16-Fähigkeiten an.
Es kann gut sein, dass große Studios hier und da FP16-Möglichkeiten nutzen (die Polaris-Radeons und die letzten APUs können FP16-Berechnungen mit gleicher Geschwindigkeit ausführen wie FP32), aber die Nutzerbasis wird wohl nicht hoch genug sein, um Resourcen zu investieren.
Das ist auf den Konsolen schon längst umgesetzt. DICE nennt bei Frostbite einen durchschnittlichen Gewinn von 30%. Es bleibt noch die Entscheidung, ob man es auf dem PC nutzen will. Das ist wohl eher eine politische Entscheidung.
deekey777
2017-06-23, 12:40:41
Das ist auf den Konsolen schon längst umgesetzt. DICE nennt bei Frostbite einen durchschnittlichen Gewinn von 30%. Es bleibt noch die Entscheidung, ob man es auf dem PC nutzen will. Das ist wohl eher eine politische Entscheidung.
Das ist doch falsch. Die Aussage von Dice ist, dass sie bei CBR bis zu 30% mit FP16 auf der PS4Pro rausholen.
Und welche Konsolen sollen es sein? Die PS3? Im Ernst: Es gibt mehr PS4 und Xbox One/S als PS4Pro, die Xbox One X wird da nicht viel ändern. Natürlich wäre ein Mixedmode wünschenswert, denn FP16 scheint hilfreich zu sein. Die Frage bleibt aber die gleiche: Nutzen <-> Aufwand.
Hübie
2017-06-23, 13:09:15
Im Grunde können alle modernen GPUs 1:1 FP16 Code ausführen, das heißt es wäre nicht langsamer es umzusetzen, aber halt auch nicht schneller. In kommenden GPUs wird man eben eine theoretische 2:1 Ratio haben, was sicherlich einen merklichen Unterschied bringen kann, wenn man überall dort FP16 einsetzt wo man es ginge. Nur da fehlt mir wirklich die Kenntnis wo man es überall einsetzen kann. :confused:
uweskw
2017-06-23, 13:58:01
Beim Benchen sind >1.9G nett, beim Gamen in 4k (!) macht es annähernd 0 Unterschied ob jetzt 1.7G, oder aber 2G anliegen. S.h. da kommt beim Takt nimmer so viel bei rum ...
Ja die 1080Ti soll in Sachen FPS nicht so gut mit dem Takt skalieren. Was limitiert da? der Speicher? Oder regelt das irgendwas runter?
greetz
US
grauenvoll
2017-06-23, 14:02:37
Das ist doch falsch. Die Aussage von Dice ist, dass sie bei CBR bis zu 30% mit FP16 auf der PS4Pro rausholen.
Sorry, meinte natürlich die PS4pro. Ist in Battlefield 1 und Mass Effect Andromeda umgesetzt. Ob das nun "bis zu" oder im Durchschnitt 30% sind wird nicht näher erläutert.
https://de.slideshare.net/DICEStudio/4k-checkerboard-in-battlefield-1-and-mass-effect-andromeda
Aus der Tatsache, dass die Verbreitung der PS4Pro nicht die größte ist, man aber trotzdem zu FP16 gegriffen hat, sagt mir, dass die Umsetzung nicht so wild sein kann und der Nutzen überwiegt.
dildo4u
2017-06-23, 14:07:26
Ja die 1080Ti soll in Sachen FPS nicht so gut mit dem Takt skalieren. Was limitiert da? der Speicher? Oder regelt das irgendwas runter?
greetz
US
Die 1080 Ti skaliert gut bei 2Ghz ist sie ziemlich genau 2X1070.Nich schlecht für 700,vorallem weil man keine 1070 für unter 400€ mehr bekommt.
http://abload.de/img/img_20170623_140409615osl5.jpg
deekey777
2017-06-23, 14:10:33
Würde es denn schaden?
Auf GP10x schon. X-D
Es gibt im Technologie-Forum einen Thread dazu. Es gibt keinen Grund halbe Genauigkeit nicht zu nutzen, sofern sie ausreicht. Das Problem ist eher, ob sich die Entwickler die Mühe machen, für das bisschen Mehr Resourcen zu investieren.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.