Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Die Aufteilung zw. XT und XTX wird schon auch bewusst so gemacht sein, da wuerde ich bei der XT eher von "ruhigeren" Customs ausgehen.
Gedankenanstoß: Es gibt RX 580er "XTX" mit 1.340-1.380 MHz und "XTR" mit 1.411-1.450 MHz. Was ist der Unterschied? Primär der Durst. ;) Sinnvoll wäre eine Abstufung des Portfolios, wie du sie anregst, aber gewiss.
MfG,
Raff
Ne schöne Lightning 2x 8Pin 1x 6Pin, lecker Panels aufm Dach und gib Marzipan.
Winter wird dieses Jahr wieder knackig. :D
MadPenguin
2017-07-14, 13:27:39
Wenn wir schon beim Wunschkonzert sind: Ich will ne Vega Nano :D
basix
2017-07-14, 13:39:42
Kam schon vor ein paar Seiten. Wollen alle hier ;)
Gedankenanstoß: Es gibt RX 580er "XTX" mit 1.340-1.380 MHz und "XTR" mit 1.411-1.450 MHz. Was ist der Unterschied? Primär der Durst. ;)
Natuerlich, aber da ist man immer noch in gemaessigten Regionen. Wenn es jenseits der 300 Watt geht, sieht es halt schon nochmal deutlich anders aus.
deekey777
2017-07-14, 14:01:08
Stromverbrauch ist nie egal. Wenn ihr sowas sagt, meint ihr gewiss die Stromrechnung. Was man dabei nicht vergessen darf, ist, dass die in Wärme umgewandelte Energie weggeschafft werden muss. Viel Durst heißt immer viel Kühlaufwand – und das wird schnell laut. Wenn eine Grafikkarte günstig sein soll und viel säuft, wird sie garantiert laut, da wenig Budget für ordentliche Kühlung vorhanden ist.
MfG,
Raff
Es ist nicht nur der Stromverbrauch, der verursacht vielleicht schlechtes Gewissen, also kann man weniger zocken. Wenn aber das Netzteil falsch dimensioniert ist und der PC nach längerer Zeit des "Wenigzockens" aussteigt, trifft es richtig hart.
aufkrawall
2017-07-14, 14:04:46
Mit dem Verbrauch gibts einfach keine Design Wins -> weniger Geld für AMD, mehr für Nvidia, schlecht für den Markt.
Nicht mit der XTX, mit anderen vielleicht schon. Nicht vergessen, dass Apple Vega 56 in den iMac packt. Es kommt nur darauf an, wie teuer man das dann auch anbietet. Fuer Ryzen+Vega gibt es vielleicht noch extra Rabatt, da koennte man schon was machen.
Schnitzl
2017-07-14, 14:33:43
Meinst du diese Folien?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11358612&postcount=321
ah danke. Leider hab ich nur gesundes Halbwissen :freak:
was heisst denn das jetzt für VegaRX vs 1080 (ti) ? 15-20W werden gespart durch HBM?
Wäre nicht so viel aber dennoch könnte Vega theoretisch zur 1080(ti) Effizienz aufschliessen durch HBM? (Der Grafikchip alleine ist etwas weniger effizient aber durch die geringere Verlustleistung des Speichers gleich AMD das aus...)
MfG
EDIT : @ basix ah ok dann eher 30-40W Unterschied?
Das Speicherinterface an sich verbraucht mehr Strom als der Speicher selbst. Ich denke, dass es deutlich mehr sein koennten als 20 W.
Aber um bzgl. der Effizienz aufzuschliessen, muss man natuerlich ueberhaupt auch erst mal so schnell werden wie die Ti, sonst bringt der Vergleich nichts.
y33H@
2017-07-14, 15:12:29
Wenn aber das Netzteil falsch dimensioniert ist und der PC nach längerer Zeit des "Wenigzockens" aussteigt, trifft es richtig hart.Ist das heutzutage nicht eher ... selten? :freak:
TheAntitheist
2017-07-14, 15:16:29
Ist das heutzutage nicht eher ... selten? :freak:
bei 300W+ein paar spitzen die auch mal 380W oder so sein können
dazu noch der andere kram kann man schonmal auf peak über 550 dadurch kommen... und viele haben halt nur 500-550W
So selten wir das auf keinen Fall sein.
Dural
2017-07-14, 15:18:18
HBM zieht nicht weniger Strom, das haben alle HBM Produkte die es bis jetzt gab ganz klar gezeigt. HBM bringt vor allem eins mit, deutlich mehr Bandbreite, mit GDDR5 ist dies kaum bis gar nicht zu erreichen. Das Verhältnis Speicher / Chip Stromverbrauch hat sich durch HBM kaum bis gar nicht geändert. Ich verstehe auch nicht wie so AMD bei Vega nur zwei HBM Stacks bringt, vier wären sicherlich sinnvoller gewesen und man hätte den Takt niedrig halten können.
Nicht umsonst verwendet NV HBM nur bei ihren Tesla chips die max. Bandbreite benötigen.
F4USt
2017-07-14, 15:24:24
Nix 1080 knacken, bei 280+ Watt Boardpower ist das Ziel min. 1080 TI. Zum Glück ist es bald soweit und wir alle Wissen bald mehr...
Geld liegt auf jeden Fall bereit für Vega RX oder TI.
AMD hat GCN5 bzw. Vega (484 mm²) sicherlich nicht mit Hintergedanke entwickelt, lediglich die GTX1080 (GP104, 314 mm²) knapp zu schlagen. Wenn das tatsächlich so eintreffen sollte, wäre GCN5 für Gaming ohne Frage eine komplette Fehlentwicklung und es würden Köpfe rollen müssen.
Ich glaube immer noch fest daran, dass AMD die Handbremse Ende des Monats lösen wird, damit wir alle im siebten GPU-Himmel schweben können. ;)
Aber wie interpretiert ihr dann die Grafik (https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60588&stc=1&d=1499982193)? Neuester bekannter Treiber und die Leistung wurde nach und nach gesteigert. Dennoch landen wir bei der 1080.
unl34shed
2017-07-14, 15:31:23
Aber wie interpretiert ihr dann die Grafik (https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60588&stc=1&d=1499982193)? Neuester bekannter Treiber und die Leistung wurde nach und nach gesteigert. Dennoch landen wir bei der 1080.
Deren Nummerierung ist falsch, die Ergebnisse wären zeitlich sortiert wild gemischt und nicht steigend sortiert.
Schnitzl
2017-07-14, 15:49:20
Das Speicherinterface an sich verbraucht mehr Strom als der Speicher selbst. Ich denke, dass es deutlich mehr sein koennten als 20 W.
Aber um bzgl. der Effizienz aufzuschliessen, muss man natuerlich ueberhaupt auch erst mal so schnell werden wie die Ti, sonst bringt der Vergleich nichts.
natürlich, deshalb ti in Klammern ;)
reaperrr
2017-07-14, 15:55:08
was heisst denn das jetzt für VegaRX vs 1080 (ti) ? 15-20W werden gespart durch HBM?
Ich tippe eher auf 'quasi gar nichts' oder 'Verbrauch sogar etwas höher'.
Begründung:
HBM2-Stacks sind bei 4-facher Kapazität pro Layer auch fast doppelt so groß von der Fläche wie HBM1, das impliziert, dass der Fertigungsprozess nur einen Full-Node weiter ist.
Das bedeutet, dass ein HBM2-Stack wahrscheinlich schon @500MHz mehr Saft ziehen würde als HBM1.
Nun werden die aber auf >900 MHz hochgeprügelt (was nicht so leicht zu sein scheint, sonst hätten wir bei Vega m.E. 1GHz gesehen).
Die dafür benötigte Spannung dürfte deutlich höher sein, was in Kombination mit dem fast doppelten Takt schnell beim drei- bis vierfachen Verbrauch landen kann.
Soll heißen: Ich gehe davon aus, dass die 2 HBM2-Stacks von Vega bis zu doppelt (2x4fach vs. 4x1fach) so viel Saft ziehen wie die vier HBM1-Stacks auf Fiji. Im Extremfall evtl. sogar noch mehr.
Laut Schaubild wären wir damit schon ca. beim DRAM-Verbrauch von 512bit G5-8Gbps.
Die beiden HBM2-Interfaces könnten durch den Shrink trotz hohem Takt weniger verbrauchen als bei Fiji, aber sicher wäre ich mir da nicht.
Nehmen wir mal ~35W für den HBM2 und ~10W für die PHYs an, wären wir bei 45W.
Jetzt zur 1080Ti:
Statt 512bit hat die nur 352bit, allein das wäre schon eine Reduzierung von 84W auf 57,75W laut Schaubild.
GDDR5X ist aber deutlich effizienter pro Gbps als GDDR5, 20% kann man dafür bestimmt abziehen. Dann wären wir bei 46,2W für die Ti, und 33,6 für die 1080, wobei die noch langsameren Speicher hat, also eher noch das eine oder andere Watt weniger.
Unterm Strich nimmt sich das ganze also nichts, und NV spart sich den Interposer und hat mehr VRAM.
Hauptvorteil von HBM2 scheint zu sein, dass er Verbrauch und Größe der PHYs pro GB/s auf Seiten des Grafikchips reduziert (wobei der Verbrauch bei hohen Taktraten wohl größtenteils nur auf den Speicher selbst 'ausgelagert' wird), und natürlich massiv PCB-Fläche spart. Und zumindest aktuell eine höhere maximale Bandbreite erlaubt, siehe GV100 (>900GB/s sind selbst mit G5X @ 512bit aktuell nicht drin).
Beim Verbrauch insgesamt dürfte der Vorteil pro GB/s gegenüber GDDR5X und später GDDR6 aber vernachlässigbar sein.
Entropy
2017-07-14, 16:18:38
Wie ist es mit der Kühlung? Viel dichter liegende Chips sollten sich doch gegenseitig behindern, oder ist es effizienter weil der Kühlkörper nur eine Quelle für Wärme, und somit einen besseren Luftstrom erlaubt?
deekey777
2017-07-14, 16:23:51
Ist das heutzutage nicht eher ... selten? :freak:
Nicht wirklich. Anders gesagt:
Man freut sich auf eine neue starke Grafikkarte, vergisst aber, dass das alte gute Netzteil unterdimensioniert ist. Mein Cougar von 2010 ist eigentlich ein gutes Netzteil (380W), aber sollte ich aufrüsten, wird es einem besseren Netzteil weichen müssen.
y33H@
2017-07-14, 16:28:04
Da es 200+ Watt Karten seit ner gefühlten Ewigkeit gibt, wundert mich das, aber gut ... ist Off-Topic.
aufkrawall
2017-07-14, 16:28:57
Konnte das PSU-Argument noch nie nachvollziehen. Kosten den Bruchteil einer GraKa und haben eine 2x-3x so lange Nutzungsdauer. Da kann man auch gleich zu 800W greifen.
Problematischer find ich eher die Abwärme in kleinen Räumen, weil sich das ekelhaft aufheizt.
Mortalvision
2017-07-14, 16:30:46
Was du sehr oft siehst: schlecht gekühlte oder nur per Plastikschiss an den Kühler angeflanschte VRMs. Da ist es imho schon besser, die Hitze von einem Fleck wegzubringen. Brauchste zwar Kupferkern, gute Heatpipes etc. Aber besser so als der Hitzetot für die Vram-Chips (rip 8800GTX)
Mortalvision
2017-07-14, 16:34:12
Macht es beim NT hinsichtlich der GPU eigentlich etwas aus, ob es 2.3, 2.31 oder 2.4 ATX Spec ist?
Solange es die wilden Stromstöße moderner GPUs abkann, 150W pro 8pin liefert und nicht das Rippeln anfängt, müsste das doch egal sein, oder?
Dant3
2017-07-14, 17:00:00
Wurde mittlerweile denn schon irgendwo offiziell bestätigt dass es mehr als nur eine "große" Vega Karte zum Launch geben wird? Bisher war doch immer nur die Rede vom Vollausbau zum Launch und plötzlich geistern überall noch 2 weitere Varianten rum.
vinacis_vivids
2017-07-14, 17:02:31
"offiziell bestätigt"
Diese Aussage ist hier zwecklos 😁
HBM2-Stacks sind bei 4-facher Kapazität pro Layer auch fast doppelt so groß von der Fläche wie HBM1, das impliziert, dass der Fertigungsprozess nur einen Full-Node weiter ist.
Das bedeutet, dass ein HBM2-Stack wahrscheinlich schon @500MHz mehr Saft ziehen würde als HBM1.
Der Stromverbrauch skaliert so gut wie überhaupt nicht mit der Kapazität, sondern nur mit der Übertragungsrate. ruhender Speicher verbraucht so gut wie nichts.
[/QUOTE]
Nun werden die aber auf >900 MHz hochgeprügelt (was nicht so leicht zu sein scheint, sonst hätten wir bei Vega m.E. 1GHz gesehen).
Die dafür benötigte Spannung dürfte deutlich höher sein, was in Kombination mit dem fast doppelten Takt schnell beim drei- bis vierfachen Verbrauch landen kann.
[/QUOTE]
Das Interface taktet höher. Aber wie sieht es mit den Speicherzellen aus? Sind die vielleicht paralleler organisiert als HBM1?
GDDR5X ist aber deutlich effizienter pro Gbps als GDDR5, 20% kann man dafür bestimmt abziehen.
Da gab es vor ner Weile mal ne Diskussion mit Skysnake der gut dargelegt hat, warum der Effizienzvorteil garnicht mal so groß ist. Weiterhin taktet die 1080ti den GDDR5X mit 11Gbps. Der sollte dann in jedem Fall mehr brauchen als 8Gbps GDDR5.
Beim Verbrauch insgesamt dürfte der Vorteil pro GB/s gegenüber GDDR5X und später GDDR6 aber vernachlässigbar sein.
Ein sehr großer Teil des Verbrauchs wird durch das Interface erzeugt. Das Umladen der Leitungskapazitäten frisst hier das meiste. Und in so ne mehrere cm lange und deutlich dickere Leitung auf dem PCB passt nunmal viel mehr Kupfer als auf so nen schnuckeligen Interposer.
Der größte Rest ist DRAM. Der ist bei bei GDDR und HBM quasi identisch und taktet (wenn ich nicht komplett falsch bin) auch in ähnlichen Regionen (wenige 100 MHz). Dieser Teil ist also bei allen Varianten gleich.
mczak
2017-07-14, 22:30:22
Soll heißen: Ich gehe davon aus, dass die 2 HBM2-Stacks von Vega bis zu doppelt (2x4fach vs. 4x1fach) so viel Saft ziehen wie die vier HBM1-Stacks auf Fiji. Im Extremfall evtl. sogar noch mehr.
Halte ich für Quatsch im Quadrat.
Der Stromverbrauch pro Stack müsste etwa linear mit dem Takt zunehmen (denn IIRC ist die Interfacespannung dieselbe). Die 2 HBM2 Stacks der Vega dürften also etwa dasselbe verbrauchen wie die 4 HBM1 der Fury, grössere Speichermenge hin oder her.
robbitop
2017-07-14, 23:54:17
Ich erwarte schon noch etwas mehr von Vega. 1080 Performance @300W wären mit einem doppelten Polaris mit viel weniger Aufwand im worst case mit 460sqmm drin gewesen. Vermutlich eher etwas weniger. 512 bit GDDR5/X. Gerade GDDR5X hätte einem doppelten Polaris geholfen, da rx480/580 relativ bandbreitenlimitiert waren.
Vega10 ist größer und hat weniger SMs. Die Mehrtransistoren sollten schon in einer deutlich höheren taktnormierten Leistung münden. Sonst wäre da was faul (ala R600). Kann ich mir nach GCN und Polaris aber nur schwer vorstellen. Ich bin wirklich auf den Launch gespannt und wäre nicht überrascht, wenn dann erst ein richtig optimierter Shadercompiler im Treiber hinterlegt ist. Und natürlich der DSBR.
Kriton
2017-07-15, 12:04:08
bei 300W+ein paar spitzen die auch mal 380W oder so sein können
dazu noch der andere kram kann man schonmal auf peak über 550 dadurch kommen... und viele haben halt nur 500-550W
So selten wir das auf keinen Fall sein.
425 W sind es bei mir und 500 W bei meiner Frau oO
Ich verstehe aber auch nicht warum so viele zu hohe Wattzahlen nehmen, da leidet doch die Effizienz.
Zu Vega: Sowohl Carsten (im eigenen Forum), als auch Raff (hier) haben doch schon angedeutet, dass Vega was Ordentliches wird.
AlterSack
2017-07-15, 12:15:22
Ich erwarte schon noch etwas mehr von Vega. 1080 Performance @300W wären mit einem doppelten Polaris mit viel weniger Aufwand im worst case mit 460sqmm drin gewesen. Vermutlich eher etwas weniger. 512 bit GDDR5/X. Gerade GDDR5X hätte einem doppelten Polaris geholfen, da rx480/580 relativ bandbreitenlimitiert waren.
Vega10 ist größer und hat weniger SMs. Die Mehrtransistoren sollten schon in einer deutlich höheren taktnormierten Leistung münden. Sonst wäre da was faul (ala R600). Kann ich mir nach GCN und Polaris aber nur schwer vorstellen. Ich bin wirklich auf den Launch gespannt und wäre nicht überrascht, wenn dann erst ein richtig optimierter Shadercompiler im Treiber hinterlegt ist. Und natürlich der DSBR.
Vllt. mit wesentlich weniger, da man den gesamten 2D-Teil ja nur
einmal braucht. Dazu, falls möglich 4x2Gb HBM2 mit 700-800MHz
und alle Sorgen wegen der Bandbreite wären vergessen gewesen.
Man erinnere sich nur an das Geunke vor dem Ryzen-Start.
Viele rechneten nicht mit einem konkurrenzfähigen Chip.
Ähnliches erwarte ich von Vega.
Mein Wunschtraum wäre, dass der RX sogar 4 Stapel (4096 bit) spendiert bekäme.
Gross genug ist das Teil ja und vllt. hat man das zurückgehalten.
...weiss, unwahrscheinlich.
decimad2
2017-07-15, 13:09:03
Meines Wissens nach haben Netzteile meist bei rund 50% Load die höchste Effizienz. So kann man gut die maximale Hitze-Erzeugung drücken.
Screemer
2017-07-15, 13:15:16
Meines Wissens nach haben Netzteile meist bei rund 50% Load die höchste Effizienz. So kann man gut die maximale Hitze-Erzeugung drücken.
korrekt. allerdings würd ich da nicht all zu viel drauf geben, denn bei 40-70% last ist das heutzutage fast vernachlässigbar. wegen einem prozent effizienzvorteil von 50% auf 90% auslastung mach ich mir jetzt auch nicht ins hemd. da kann man auch zu nem günstigeren nt greifen, wenn einen die evtl. geräuschkulisse nicht stört. je mehr leistungsreserve das nt hat um so mehr energie verbrennt man im idle, denn da kommen moderne systeme mit 450-500W+ NTs kaum noch über 10-15% auslastung. geht man dann noch höher in die 650-800W klasse sinkt die effizienz massiv da die auslastung oft unter 10% fällt.
https://www.tweakpc.de/hardware/tests/netzteile/cougar_gx-s/i/eff230v.pnghttps://www.tweakpc.de/hardware/tests/netzteile/be_quiet_pure_power_10/i/eff230v.png
https://www.tweakpc.de/hardware/tests/netzteile/be_quiet_pure_power_10/i/eff230v100.png
https://www.tweakpc.de/hardware/tests/netzteile/cougar_gx-s/s03.php
https://www.tweakpc.de/hardware/tests/netzteile/be_quiet_pure_power_10/s03.php
Piefkee
2017-07-15, 16:08:06
Neue OC-Ergebnisse der FE @1730Mhz in TimeSpy = 8098 Pkt
http://www.3dmark.com/compare/spy/2071508/spy/2068702/spy/2066210/spy/2065605/spy/2051727
vinacis_vivids
2017-07-15, 16:54:49
Das ist schon ordentlich vom Takt her. Mal schauen ob die 1750Mhz geknackt werden können. 1800Mhz ist dann the *Wall*.
horn 12
2017-07-15, 17:32:20
Immer noch zu wenig.
um die 30 bis 40% Oberhalb einer Fury OC
Da sollten 70 bis 80% locker drinnen sein.
aufkrawall
2017-07-15, 17:34:45
Die Furies haben doch nur mit Mühe überhaupt 1,1 mitgemacht?
Mitm Voltage Tweak waren 1,2Ghz drin.
Wenn man es unbedingt wollte, kein Thema. Stand aber zu keinem Verhältnis. Die meisten haben es bei 1080-1100/545-550 Mem belassen. Ähnlich wie bei Ryzen... für die 100mhz zu 4Ghz sind je nach Güte viel zu bekloppte Spannungen nötig ( +1,450v )
vinacis_vivids
2017-07-15, 18:28:57
Immer noch zu wenig.
um die 30 bis 40% Oberhalb einer Fury OC
Da sollten 70 bis 80% locker drinnen sein.
1850-1900Mhz?
Evtl. beim Salvage 56
400-450W kriegt man nicht mehr so einfach gekühlt.
basix
2017-07-15, 18:37:01
Das war nicht auf den Takt bezogen, sondern auf die Performance ;)
M4xw0lf
2017-07-15, 18:42:21
Das war nicht auf den Takt bezogen, sondern auf die Performance ;)
Jo, siehe auch hier (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a4) bei PCGH. Trotz annähernd 60% mehr Takt in diesem Test kommen selten 40% mehr Leistung ggü Fiji raus, meist weniger. Zwei Fälle (GRW, Hitman) mit etwas über 60% finden sich tatsächlich auch - reicht aber trotzdem nicht, um an die 1080 Ti ranzukommen. GRW und Hitman dürften alleine wegen des größeren VRAMs so viel besser performen.
bbott
2017-07-15, 19:09:02
Wenn Vega nur auf 1070/1080 Performance kommen würde, wäre kein Platz mehr für Vega 11. Vega 10/11 (3x Vaga10 (XTX,XT,XL) + 2-3x Vaga11) machen nur Sinn, wenn man gleich auf oder über die Ti kommt.
Denn mit Vega 11 die neue RX580 zu ersetzten macht keinen Sinn. Vega 11 dürfte wohl wegen HBM2 eher teurer werden als die RX 5x0, und letztere würde dann durch eine Performance gleichwertige ersetzen?!
Ergo, muss Vega 11 über der RX 5x0 liegen, da Vega 10 schneller als Vaga 11 ist, muss die Performance besser sein als die 1070/1080.
Falls Vega nicht den selbst gesteckten Zielen entsprechen würde, müsse wohl AMD die Aktionäre vorwarnen bzw. Informieren.
StefanV
2017-07-15, 19:44:05
Meines Wissens nach haben Netzteile meist bei rund 50% Load die höchste Effizienz. So kann man gut die maximale Hitze-Erzeugung drücken.
Nein, das ist eine Lüge/Ein Märchen.
Die 'Peak Effizienz' liegt zwischen 25 und 60%.
Und der Unterschied zwischen Peak und Worst ist, bei 80plus Gold oder besser, im Bereich von 20-80% Last gerade mal 1% Punkt. Also zu vernachlässigen.
Und das betrifft natürlich nur das 115VAC Netz. Im 230VAC Netz schauts anders aus. Da kackt die Effizienz bei hoher Last nicht so stark ab...
Wir reden hier über Brotkrumen, die völlig irrelevant ist.
Und die Behauptung, dass man ein Netzteil nur bis 50% belasten sollte, ist einfach nur komplett gelogen. Das mag vor 20 Jahren der Fall gewesen sein, bei modernen, hochwertigen Geräten braucht man auch keine ANgst vor 100% Last haben.
basix
2017-07-15, 20:02:08
Naja, ein wenig Reserve ist immer gut. Heutige Prozessoren und GPUs Peaken sehr stark ab der Speisung. Das kann gegen die doppelte Durchschnittsleistung gehen. Klar kann ein Netzteil kurzzeitig auch ein wenig mehr liefern, optimal ist es aber nicht. Wenn ich ein 450W Netzteil zu 80% auslaste und ein 550W Netzteil für 10 Euro mehr bekomme, würde ich definitiv zum 550W Modell greifen. Das bisschen weniger Effizienz im Niedriglastbereich ist meiner Meinung nach zu vernachlässigen. Zudem lässt man noch Raum für spätere Upgrades: Stärkere CPU oder Grafikkarte, eine HDD mehr und da ein Lüfter und schon würde es langsam eng mit dem kleineren Netzteil.
Ich habe mir bei der Zusammenstellung meines PCs genau diese Gedanken zu Effizienz je nach Auslastung sowie maximale Auslastung gemacht. Anstatt das 600W Netzteil habe ich dann das 700W Modell genommen. Nur marginal teurer und sogar die neue Serie. Ab der Steckdose messe ich nun nur ca. 350-400W bei Maximallast. Bereuen tue ich den entscheid aber nicht. Wer weiss, ob mal ein OC Threadripper rein kommt :D Du hast ja auch ein 750W Modell ;)
Ich hab in meinem Leben bisher nur 4 Netzteile gehabt. Das älteste hat 10 Jahre auf dem Buckel, rennt immer noch, wenn ich wollen würde, selbst bei voller Belastung. Ersetzt hab ich die bisher nur, wegen zu wenig Anschlüssen bzw. aus Angst, dass das Teil mir Ärger macht.
Hab immer rund 100-150W mehr eingebaut als nötig. Auch wie jetzt.
[MK2]Mythos
2017-07-15, 21:00:35
Wieso wurde die Vega FE Watercooling Edition hier eigentlich noch nicht thematisiert?
Gamers Nexus hat Bilder dazu bekommen und ein Video gemacht, sieht ziemlich aufwändig und teuer aus.
https://www.youtube.com/watch?v=oSZz6xoooAw
-=Popeye=-
2017-07-15, 21:05:08
Cool, Fullcover quasi.
basix
2017-07-15, 21:59:18
Sieht hochwertig aus, ja.
BlacKi
2017-07-15, 22:39:49
keine ahnung was ich von dem "reservoir" halten soll. ich verstehe nicht wie er funktionieren soll, seine these leuchtet mir nicht ganz ein.
unl34shed
2017-07-15, 23:03:18
keine ahnung was ich von dem "reservoir" halten soll. ich verstehe nicht wie er funktionieren soll, seine these leuchtet mir nicht ganz ein.
Das ist ein "Kolben", der auf der einen Seite das Wasser hat und auf der anderen die Umgebungsluft. Dehnt sich das Wasser durch die Temperatur aus, schiebt es den "Kolben" nach außen und erhöht das Volumen im Kreislauf.
Ist mMn. gar nicht so schlecht, da du keine Luft im Kreislauf brauchst, um die Volumenänderungen auszugleichen.
E: So stell ich mir das zumindest vor ;)
[MK2]Mythos
2017-07-15, 23:08:10
Das Reservoir müsste aus zwei Kammern bestehen, eine gefüllt mit Flüssigkeit, die andere gefüllt mit einem Gas, welche mit einer flexiblen Membran von der Flüssigkeit getrennt wird. Das Gas würde so einen kleinen Druck auf die Flüssigkeit im Reservoir Richtung Kühlkreislauf aufbauen. Sobald im Kreislauf Flüssigkeit verloren geht, würde also die Flüssigkeit aus dem Reservoir über ein einwegeventil in den Kreislauf fließen. Kann mir aber auch nicht vorstellen dass das so aufgebaut ist
Rincewind
2017-07-15, 23:47:18
ist bestimmt sowas wie ein Druckausdehnungsgefäß wie in der Haustechnik genutzt wird. Nur ne Nummer kleiner. :D
Hübie
2017-07-16, 00:04:16
Sieht mir etwas overengineered aus, wobei das jetzt nicht negativ ist. Da hat man ein Konzept auch zu Ende gedacht. Wobei ich noch keine Zahlen der Wakü kenne. :D
BlacKi
2017-07-16, 00:05:48
wasser dehnt sich kaum aus, wohl unter 1%bei 30 -40grad differenz, als ausgleich dürften die schläuche reichen, die sind flexibel. es sei denn das wasser geht in den gasförmigen zustand über^^
dargo
2017-07-16, 00:10:59
Mythos;11431172']Wieso wurde die Vega FE Watercooling Edition hier eigentlich noch nicht thematisiert?
Gamers Nexus hat Bilder dazu bekommen und ein Video gemacht, sieht ziemlich aufwändig und teuer aus.
https://www.youtube.com/watch?v=oSZz6xoooAw
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11430653&postcount=791
;)
Rincewind
2017-07-16, 00:19:25
wasser dehnt sich kaum aus, wohl unter 1%bei 30 -40grad differenz, als ausgleich dürften die schläuche reichen, die sind flexibel. es sei denn das wasser geht in den gasförmigen zustand über^^
das mag bestimmt stimmen, aber die Schläuche sollen ja auch ein paar Jahre halten. Wäre doch blöd, wenn nach 2 Jahren die Karten zu lecken anfangen. Da kann das Reservoir helfen.
Ich komm auf 4% bei allerdings 70K. 10°C bei Befüllung, max. 80°C im Wasserkreislauf. Wasserinhalt (geschätzt) 0,25l.
mighty_qwerty
2017-07-16, 02:50:23
zwei wochen + weniger als zwei studen + 1 tag -> perfekte xfire skalierung = intelligent workload distributor = "some goodies we cant talk about yet" -> navi tech vorweggenommen (pretty please, amd) :)
https://twitter.com/RadeonPro/status/880898033206079490
"cutting-edge Radeon™ “Vega” architecture" + " new era of precision and performance" , klingt sehr vielversprechend
18.07. Budapest ^^ und am 21-23. Finale SIGGRAPH ... nächste Woche sollten also (so hoffe ich doch) paar mehr Infos kommen, AMD bezweckt ja offensichtlich einen Hype auszulösen, mal sehen wie viel Wert der hat.
mighty_qwerty
2017-07-16, 03:09:23
https://www.reddit.com/r/Amd/comments/6n69o1/_/dk9fa6y/?context=3
"Well that settles that for now. 1737mhz core 1100mhz hbm2 is my stable overclock."
https://youtu.be/giKR9AKptkE?t=5933
G3cko
2017-07-16, 08:17:29
zwei wochen + weniger als zwei studen + 1 tag -> perfekte xfire skalierung = intelligent workload distributor = "some goodies we cant talk about yet" -> navi tech vorweggenommen (pretty please, amd) :)
https://twitter.com/RadeonPro/status/880898033206079490
"cutting-edge Radeon™ “Vega” architecture" + " new era of precision and performance" , klingt sehr vielversprechend
Ich denke, dass geht alles in die infinity fabric Richtung die wir ja auch bereits spekuliert haben. Ich bin gespannnt was AMD aus der Kombi Ryzen + Vega zaubert.
scully1234
2017-07-16, 09:06:17
18.07. Budapest ^^ und am 21-23. Finale SIGGRAPH ... nächste Woche sollten also (so hoffe ich doch) paar mehr Infos kommen, AMD bezweckt ja offensichtlich einen Hype auszulösen, mal sehen wie viel Wert der hat.
Na klar und das ausgerechnet in Budapest, warum nicht gleich im Karpatengebirge ,da ist der Zugang für viele noch mehr gegeben.
London,Berlin,Paris hätte den Hype dann wohl explodieren lassen, oder was anderes losgetreten
basix
2017-07-16, 09:20:01
Budapest ist ja nur ein kleines Dorf und sooo weit im Hinterland, dass man nur mit Ross und Wagen dort hin kommt...
[MK2]Mythos
2017-07-16, 09:22:52
Der ein oder andere NVIDIA Fanboy hat auch bei jeder News was zu meckern, unglaublich. :D
Schnitzl
2017-07-16, 10:28:27
zwei wochen + weniger als zwei studen + 1 tag -> perfekte xfire skalierung = intelligent workload distributor = "some goodies we cant talk about yet" -> navi tech vorweggenommen (pretty please, amd) :)
https://twitter.com/RadeonPro/status/880898033206079490
"cutting-edge Radeon™ “Vega” architecture" + " new era of precision and performance" , klingt sehr vielversprechend
ok aber das:...how AMD’s product lineup is revolutionizing the creative pipeline, leading industries from entertainment to engineering into a new era of precision and performance. (...) where visitors will be able to see professional workflows powered by Radeon Pro graphics products.
https://www.eventbrite.ca/e/amd-capsaicin-siggraph-2017-tickets-35520337285
Ich lese da nichts von VegaRX oder Gaming... :|
uweskw
2017-07-16, 10:43:55
ok aber das:
https://www.eventbrite.ca/e/amd-capsaicin-siggraph-2017-tickets-35520337285
Ich lese da nichts von VegaRX oder Gaming... :|
Richtig da steht weder etwas von Vega RX noch von gaming.
Ich befürchte auf die Gamer Karte werden wir noch eine Zeit lang warten müssen.
Greetz
US
scully1234
2017-07-16, 11:18:55
Ich befürchte auf die Gamer Karte werden wir noch eine Zeit lang warten müssen.
Greetz
US
Das würde dann aber überhaupt keinen Sinn mehr machen noch zu Releasen
Zeit haben sie schlicht und ergreifend keine mehr, denn Volta winkt schon um die Ecke
Und was wenn Nvidia beschließt ,Pascal nochmal im neuen Stepping zu bringen im Herbst,mit mehr Takt und Bandbreite, dank neuer GDDR5X Chips?
Die Option ist auch noch nicht vollends vom Tisch
Tamagothi
2017-07-16, 11:22:24
wasser dehnt sich kaum aus, wohl unter 1%bei 30 -40grad differenz, als ausgleich dürften die schläuche reichen, die sind flexibel. es sei denn das wasser geht in den gasförmigen zustand über^^
Jeder der ne Custom Wasserkühlung hat/hatte weiß das mit der Zeit minimal Wasser nachgefüllt werden muss.
https://www.reddit.com/r/Amd/comments/6n69o1/_/dk9fa6y/?context=3
"Well that settles that for now. 1737mhz core 1100mhz hbm2 is my stable overclock."
https://youtu.be/giKR9AKptkE?t=5933
Zehn Prozent mehr (gegenüber dem Referenzboost) mit der Keule. Geht mit Referenzkühler auch mit schwankendem Boost (1.650-1.750 MHz), ist halt fast 20 Sone laut. :uup: Was der Leistung dabei hilft, ist übrigens der Speichertakt.
MfG,
Raff
Kein Wunder, dass das Teil ohne TBR am Speicher hängt :freak:
scully1234
2017-07-16, 11:58:57
ist halt fast 20 Sone laut. :uup: .
MfG,
Raff
über 80 db :D
=Floi=
2017-07-16, 12:03:48
Mythos;11431417']Der ein oder andere NVIDIA Fanboy hat auch bei jeder News was zu meckern, unglaublich. :D
vieleicht auch, weil es schon eine karte mit dem chip auf dem markt gibt?!
Kriton
2017-07-16, 12:58:50
vieleicht auch, weil es schon eine karte mit dem chip auf dem markt gibt?!
Das bezog sich wohl auf die Kritik an Budapest.
Digidi
2017-07-16, 13:08:06
Das bezog sich wohl auf die Kritik an Budapest.
Don't feed the trolls
AtTheDriveIn
2017-07-16, 15:01:54
Noch immer keine Leaks zur eigentlichen RX Performance ;-(. In zwei Tagen soll doch RX auf Demotour gehen oder? So langsam können wir die Hoffnung auf einen Wow-Moment wohl begraben.
StefanV
2017-07-16, 15:46:56
Naja, ein wenig Reserve ist immer gut.
Wofür?
Und zu welchem PReis??
Bei manchen Netzteilen hast du dann die Situation, dass der Lüfter bei +100W fast doppelt so hoch dreht.
Bitfenix Whisper M ist z.B. so ein Beispiel.
Im 450 und 550W Modell kommt ein 0,45A Lüfter zum Einsatz, der minimal mit ~400rpm dreht.
Ab 650W kommt ein 0,6A Lüfter zum Einsatz, der minimal mit ~700rpm dreht.
Gibt ja auch das Dokument vom Dark Power P10, in dem das 550W Gerät bei 100% Last den Lüfter niedriger drehen lässt als da 650W Modell bei 10%...
Heutige Prozessoren und GPUs Peaken sehr stark ab der Speisung.
Dafür willst du eher eine hohe Kapazität auf der Sekundären Seite.
Und 10mF sind jetzt nicht soo selten in diesen Tagen...
Eigentlich willst du ja auch vermeiden, dass diese Schwankungen von den MOSFETs fern bleiben bzw möglichst wenig dabei ankommt...
Das kann gegen die doppelte Durchschnittsleistung gehen. Klar kann ein Netzteil kurzzeitig auch ein wenig mehr liefern, optimal ist es aber nicht.
Bei qualitativ hochwertigen Geräten ist das nicht wirklich wild und absolut kein Problem.
Bei qualitativ schlechten Geräten hingegen schon...
Aber die kombiniert man eh nicht mit hochwertigen Komponenten (naja, Enduser tun das nicht, SIs schon. Die wollen ja, dass die Netzteile schnell verrecken, damit die Leute mehr PCs kaufen)...
Wenn ich ein 450W Netzteil zu 80% auslaste und ein 550W Netzteil für 10 Euro mehr bekomme, würde ich definitiv zum 550W Modell greifen. Das bisschen weniger Effizienz im Niedriglastbereich ist meiner Meinung nach zu vernachlässigen. Zudem lässt man noch Raum für spätere Upgrades: Stärkere CPU oder Grafikkarte, eine HDD mehr und da ein Lüfter und schon würde es langsam eng mit dem kleineren Netzteil.
Warum? Wo ist der Vorteil, dass das 550W Gerät weniger stark belastet wird??
Insbesondere wenn einige Komponenten (z.B. Kondensatoren) in der gesamten Reihe identisch sind.
Schau z.B. mal nach Reviews zum 600W Pure Power 10 und dann schau mal mein 400W an.
Bei beiden hast du auf der Sekundären Seite die gleichen Kondensatoren. 2x3300µF pro Rail...
Und noch zusätzlich 2x2200µF auf der +12V Rail.
Bei manchen Serien gibt es Unterschiede in diesem Punkt. Bei manchen Serien gibt es keinerlei Unterschiede bei den Kondensatoren. Da wird von 450W bis 850W die gleiche Kombination auf der Sekundären Seite eingesetzt. NUr der Primäre unterscheidet sich erheblich.
Natürlich gibt es Unterschiede bei den FETs und dem Transformator...
Ich habe mir bei der Zusammenstellung meines PCs genau diese Gedanken zu Effizienz je nach Auslastung sowie maximale Auslastung gemacht. Anstatt das 600W Netzteil habe ich dann das 700W Modell genommen. Nur marginal teurer und sogar die neue Serie. Ab der Steckdose messe ich nun nur ca. 350-400W bei Maximallast. Bereuen tue ich den entscheid aber nicht. Wer weiss, ob mal ein OC Threadripper rein kommt :D Du hast ja auch ein 750W Modell ;)
Keine Angst vor volle Auslastung haben du musst!
Einige Hersteller werben sogar damit, dass die Netzteile die drauf geschriebene Leistung 24/7 schaffen...
Aber du musst auch schauen, wie es z.B. beim Lüfter ausschaut...
Wieviele verschiedene Lüfter werden in der Serie verbaut? be quiet treibts hier auf die Spitze mit irgendwo zwischen 3 und 4 verschiedenen Lüftern. Andere verwenden immer den gleichen über die gesamte Serie (oder sowas wie bis 750W einen und darüber einen anderen, deutlich stärkeren)...
Üblich ist es aber, zwei verschiedene Lüfter zu verwenden und entweder beim 650W oder 750W Modell zu wechseln...
Du hast also erst mal eine (deutlich) höhere Minimal Drehzahl, damit deutlich höhere Lautheit....
Und, wenn du Pech hast, sind die Geräte auch noch identisch mit dem Unterschied, dass das stärkere Gerät einfach einen schneller drehenden Lüfter drin hat...
Cyphermaster
2017-07-16, 18:17:04
BTT oder ich mach hier zu. Klar soweit?
TheGood
2017-07-16, 22:50:01
Richtig da steht weder etwas von Vega RX noch von gaming.
Ich befürchte auf die Gamer Karte werden wir noch eine Zeit lang warten müssen.
Greetz
US
Es steht dass weitere VEGA Produkte vorgestellt werden sollen von Entertainment bis Engineering.
Erklär doch bitte mal für uns was "Entertainment" ausser Gaming sein soll, wenn es um eine neue High End Architektur gehen soll?
Hasenpfote
2017-07-16, 23:13:30
Richtig da steht weder etwas von Vega RX noch von gaming.
Ich befürchte auf die Gamer Karte werden wir noch eine Zeit lang warten müssen.Vom Marketing-Heini von AMD wurde gesagt, dass Gaming Vega vorgestellt wird. Soll ich den Tweet noch raussuchen oder schaffste das alleine?
yamamoto_dc
2017-07-17, 01:01:47
Wird dann wohl so eine Art Sneak Preview werden, sprich man bekommt die Karte kurz zu sehen, dann läuft eines der üblichen Spiele, ohne dass man daraus groß auf die Performance schliessen kann. Viel würde ich davon nicht erwarten . Echte Infos gibt es erst am 30.7. , so lange ist das ja auch nicht mehr hin, nur noch 13 mal schlafen. :D
Hasenpfote
2017-07-17, 10:45:08
18.07. Budapest ^^ und am 21-23. Finale SIGGRAPH ... nächste Woche sollten also (so hoffe ich doch) paar mehr Infos kommen, AMD bezweckt ja offensichtlich einen Hype auszulösen, mal sehen wie viel Wert der hat.Wir wissen ja, dass das AMD-Marketing-Team .... öhem... verbesserungswürdig arbeitet. Aber die sehen, wie Vega FE bzgl. Spiele und Stromverbrauch zerissen wird und anstatt Vega RX still und heimlich zu releasen, machen die ne Tour und versuchen nen Hype auszulösen. Als normal logisch denkender Mensch (also IQ von 100), würde ich doch sowas nur machen, wenn ich weiß, dass die RX auch was abliefert. Gut, wir reden hier vom AMD-Marketing-Team, aber die werden doch so'n Aufwand nicht für ne 1070 + 100W für 399$ veranstalten, oder habe ich irgendwo nen Denkfehler?
Civtam
2017-07-17, 11:12:51
Wir wissen ja, dass das AMD-Marketing-Team .... öhem... verbesserungswürdig arbeitet. Aber die sehen, wie Vega FE bzgl. Spiele und Stromverbrauch zerissen wird und anstatt Vega RX still und heimlich zu releasen, machen die ne Tour und versuchen nen Hype auszulösen. Als normal logisch denkender Mensch (also IQ von 100), würde ich doch sowas nur machen, wenn ich weiß, dass die RX auch was abliefert. Gut, wir reden hier vom AMD-Marketing-Team, aber die werden doch so'n Aufwand nicht für ne 1070 + 100W für 399$ veranstalten, oder habe ich irgendwo nen Denkfehler?
Für 1080 +100W bei 399€ schon ;)
Ich glaube solche Shows sind relativ unabhängig von der Leistung. Das ist das erste High-End für AMD seit zwei Jahren, da macht sich ein bisschen Aufmerksamkeit gut.
Felixxz2
2017-07-17, 12:25:34
1080 + 100W wäre die technologische Kapitulation. Vor allem weil 1 Jahr später. Wenn man sich das ganze gehype um Vega in den letzten Monaten anschaut, wäre das ultrapeinlich. Und langsamer als 2x Polaris :freak:
fondness
2017-07-17, 12:44:32
Mythos;11431172']Wieso wurde die Vega FE Watercooling Edition hier eigentlich noch nicht thematisiert?
Gamers Nexus hat Bilder dazu bekommen und ein Video gemacht, sieht ziemlich aufwändig und teuer aus.
https://www.youtube.com/watch?v=oSZz6xoooAw
Wo bekommt man heute noch so eine Verarbeitungsqualität? Wie schon bei der Air Cooling Edition also wieder erste Sahne.
y33H@
2017-07-17, 13:22:45
Was bringt dir eine tolle Verarbeitungsqualität bei GTX 1080 + 100 Watt? *SCNR*
PrivateCeralion
2017-07-17, 13:47:38
Was bringt dir eine tolle Verarbeitungsqualität bei GTX 1080 + 100 Watt? *SCNR*
GTX 1080 FP16: 138 GFLOPs
Vega FE FP16: 25 Tflops
Somit ist die Vega FE in bestimmten Deep Learning Anwendungen 180 mal so schnell.
fondness
2017-07-17, 13:50:31
Was bringt dir eine tolle Verarbeitungsqualität bei GTX 1080 + 100 Watt? *SCNR*
Nur zum spielen ist das Ding offensichtlich nicht geeignet, das ist alleine auch schon wegen des Preises offensichtlich. Der Unterschied ist nur, bei NV bezahlt man für manche Karten auch gerne mal >$1000 und bekommt trotzdem nur einen Plastikbomber.
Die Founder-Editionen als "Plastikbomber" zu bezeichnen, ist IMO übertrieben. Der Kühler kann nix, aber das Material ist durchaus hochwertig – das Alu der Frontier finde ich aber auch cooler.
MfG,
Raff
Einen leisen Rechner.
-100W machen den Rechner leiser. ;)
scully1234
2017-07-17, 13:57:33
bei NV bezahlt man für manche Karten auch gerne mal >$1000 und bekommt trotzdem nur einen Plastikbomber.
Wenn du mir diesen "Plastikbomber" denn mal zeigen könntest?
Und davon ab dürfte ja wohl die Renderperformance an erster Stelle stehen ,und nicht irgendwelches Bling Bling
Cyphermaster
2017-07-17, 13:59:51
Was bringt dir eine tolle Verarbeitungsqualität bei GTX 1080 + 100 Watt? *SCNR*
Kommt halt drauf an, womit man die Semipro-Karte vergleichen will; passend ist eine 1080 nur in Spielen.
Wobei ich trotzdem nicht verstehe, warum der Chip auf der FE derart säuft. Null Verbesserung zu Fiji Niveau trotz aller neuen Features wäre schon arg seltsam schlecht - andererseits eine Verbesserung von Perf./Watt durch Aktivierung von DSBR und dem Gating-Zeug in Dimensionen von +25% auch sehr überraschend. Vielleicht hat es was mit der Instabilität unter den Profi-Anwendungen zu tun, die Raff beim UV aufgefallen ist?
y33H@
2017-07-17, 14:01:30
Einen leisen Rechner.Wohl kaum bei 350 Watt.Somit ist die Vega FE in bestimmten Deep Learning Anwendungen 180 mal so schnell.Dafür gibt's die Radeon Instinct.
thegian
2017-07-17, 14:05:45
Und was bringen bessere min. FPS gegenüber AKTUELLEN GPU's auf dem Markt, wenn die GPU dann übetrieben gesagt 400 Watt frisst und mit einer AIO gekühlt werden muss?
So unrecht hatte ich wohl doch nicht .
Es ist von 440 Watt (@OC) die Rede :eek:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43722-wassergekuehlte-radeon-vega-frontier-edition-deutlich-taktfreudiger.html
Woher holt die sich die Leistung?
ATX Pin = 300 Watt
PCIE ? 75 Watt (Theoretisch mehr möglich, aber gesund?)
Der Suff geht durch die 8-Pol-Buchsen, der PEG wird nur sanft berührt. ;) Sind dort schlimmstenfalls 30 Watt. Mit offenem Powerlimit wird (nur) die Steckerspezifikation recht ordentlich überfahren, das sind dann gerne 16-17 Ampere – also circa 200 Watt pro Buchse. Da fliegen reihenweise Netzteile ab, so viel ist schon jetzt sicher.
MfG,
Raff
PrivateCeralion
2017-07-17, 14:16:46
Dafür gibt's die Radeon Instinct.
Was ändert es daran, dass AMD ROCm für die Frontier Edition nutzbar gemacht hat?
https://rocm.github.io/ROCmInstall.html
scully1234
2017-07-17, 14:39:26
Da fliegen reihenweise Netzteile ab, so viel ist schon jetzt sicher.
MfG,
Raff
Wer solch einem Schluckspecht ,nem China Böller NT gegenüberstellt, der hats dann auch nicht anders verdient:D
Alle halbwegs gut ausgestatteten sollten dem Suff oberhalb der Specs schon Herr werden
deekey777
2017-07-17, 14:44:01
Was ändert es daran, dass AMD ROCm für die Frontier Edition nutzbar gemacht hat?
https://rocm.github.io/ROCmInstall.html
Nichts?
Oder anders gesagt:
Wenn ein einzelner Anwendungsfall für die Vega FE spricht, gibt es immer noch zig Anwendungsfälle, die dagegen sprechen. y33H@s Antwort war vielleicht übereilt, aber bis der doppelte FP16-Durchsatz wirklich ein Vorteil ist, dauert es natürlich (wobei es falsch, ROCm darauf zu reduzieren).
dildo4u
2017-07-17, 15:16:26
Der Suff geht durch die 8-Pol-Buchsen, der PEG wird nur sanft berührt. ;) Sind dort schlimmstenfalls 30 Watt. Mit offenem Powerlimit wird (nur) die Steckerspezifikation recht ordentlich überfahren, das sind dann gerne 16-17 Ampere – also circa 200 Watt pro Buchse. Da fliegen reihenweise Netzteile ab, so viel ist schon jetzt sicher.
MfG,
Raff
Laut PCper bringt mehr als 300 eh kaum was.
In Fallout 4 the water and air-cooled version of the Vega hardware are within 4% of each other but when the resolution gets bumped to 4K, the newer version running at 350 watts is 13% faster. This new performance level is also within 2-4% of the GTX 1080, moving AMD’s new flagship card a bit up the ladder. Worth noting as well is that both games tested so far show very little actual in-game performance difference between the 350-watt iteration of the card and the 300 watt.
https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-Vega-Frontier-Edition-16GB-Liquid-Cooled-Review/Fallout-4
Schätze mal die Bandbreite limitiert über 1.6Ghz.
Felixxz2
2017-07-17, 15:25:29
Kein Wunder wenn der DSBR aus ist. Hat ja Raff auch schon gesagt, dass MEM OC viel bringt.
Was bei den Verbesserungen in Vega und 500GB/s extrem ungewöhnlich ist.
dildo4u
2017-07-17, 15:31:19
Da ist alles aktiv kaum einer wird Luftgekühlte Karten mit 350 TDP bringen,die Karte ist ausgewogen was Rechenleistung/Bandbreite@ 300 Watt angeht.
Cyphermaster
2017-07-17, 15:33:17
Da ist alles aktivInteressant. Woher hast du diese "Fakten", obwohl Test-Tools bisher das Gegenteil zeigen?
[MK2]Mythos
2017-07-17, 15:39:37
Kann man diese Fakenews-Maschinerie mal einbremsen? Ist ja fürchterlich ständig die gleichen Lügen hier zu lesen.
Felixxz2
2017-07-17, 15:52:06
Da ist alles aktiv ist ne witzige Aussage, obwohl die Karte noch nicht mal aufm Markt ist. FE ist und bleibt keine Gaming Karte.
BoMbY
2017-07-17, 15:59:56
aber bis der doppelte FP16-Durchsatz wirklich ein Vorteil ist
Derzeit kann NVidia auch nicht gegen AMD's/Vega's 24 Bit IOPS (~12475 24-bit GIOPS) anstinken, bei GCN scheinen die im Verhältnis zu 32 Bit 5x schneller zu sein, bei NVidia 1:1 (Titan X Pascal: ~4685 24-bit GIOPS).
scully1234
2017-07-17, 16:04:01
FE ist und bleibt keine Gaming Karte.
das Märchen wird nicht wahrer je öfter man es wiederholt
Blubb
RK: The Frontier Edition was designed for a variety of use-cases like Machine Learning, real-time visualization, and game design. Can you play games on Frontier Edition? Yes, absolutely. It supports the RX driver and will deliver smooth 4K gaming. But because it is optimized for professional use cases (and priced accordingly), if gaming is your primary reason for buying a GPU, I’d suggest waiting just a little while longer for the lower-priced, gaming-optimized Radeon RX Vega graphics card (https://videocardz.com/69662/raja-koduri-explains-where-radeon-rx-vega-in-reddit-ama)
selbst der Inder sieht das wohl etwas pragmatischer
nur weil eine Titan X teurer ist als eine Geforce, wird sie auch nicht automatisch ungeeigneter für Games
PrivateCeralion
2017-07-17, 16:20:24
das Märchen wird nicht wahrer je öfter man es wiederholt
Blubb
selbst der Inder sieht das wohl etwas pragmatischer
nur weil eine Titan X teurer ist als eine Geforce, wird sie auch nicht automatisch ungeeigneter für Games
Hast du den Text eigentlich gelesen, den du zitierst? Denn der widerspricht deiner Aussage.
dargo
2017-07-17, 16:24:26
Was ein Eigentor. ;D
scully1234
2017-07-17, 16:25:43
Hast du den Text eigentlich gelesen, den du zitierst? Denn der widerspricht deiner Aussage.
But because it is optimized for professional use cases (and priced accordingly)
Den Rotz hat man bei der Titan X auch geschrieben, jedoch geht keiner bei klaren Verstand davon aus, das das signifikante Unterschiede macht für den Einsatzzweck
BlacKi
2017-07-17, 16:28:10
rx vega wird taktoptimiert, aber der optimierte treiber kommt auch der FE zugute. ein geringerer takt alleine macht die FE nicht deutlich langsamer. eigentlich ist nur der preis der grund warum man als gamer keine FE kaufen sollte.
hoffentlich stellt mal einer die frage direkt an die entwickler auf dem kommenden event, damit sie vom tisch ist.
scully1234
2017-07-17, 16:31:37
rx vega wird taktoptimiert, aber der optimierte treiber kommt auch der FE zugute. ein geringerer takt alleine macht die FE nicht deutlich langsamer. eigentlich ist nur der preis der grund warum man als gamer keine FE kaufen sollte.
Genau das sagt der Inder ja auch=)
fondness
2017-07-17, 16:33:35
Den Rotz hat man bei der Titan X auch geschrieben, jedoch geht keiner bei klaren Verstand davon aus, das das signifikante Unterschiede macht für den Einsatzzweck
Die TITAN X hat stets nur einen normalen Gaming-Treiber bekommen, die Vega FE hat allerdings einen professionellen Treiber. Das ist ein wesentlicher Unterschied.
dargo
2017-07-17, 16:34:28
eigentlich ist nur der preis der grund warum man als gamer keine FE kaufen sollte.
Kompletter Humbug. Bei Vega FE gibt es keine Custom-Designs. Gerade die sind für die Masse an Gamern interessant.
Der Suff geht durch die 8-Pol-Buchsen, der PEG wird nur sanft berührt. ;) Sind dort schlimmstenfalls 30 Watt. Mit offenem Powerlimit wird (nur) die Steckerspezifikation recht ordentlich überfahren, das sind dann gerne 16-17 Ampere – also circa 200 Watt pro Buchse. Da fliegen reihenweise Netzteile ab, so viel ist schon jetzt sicher.
MfG,
Raff
Ich erinnere mich an einen THG-Netzteiltest mit der 295X, wo nicht die Stromstärke das Problem war, sondern die Schaltzeiten. Deshalb sind einige wenige bei der Karte ausgestiegen. Wenn man da kein Schrottnetzteil oder eines, das wirklich zu schwach ist, nimmt, passiert da gar nix. Die Steckverbinder halten normalerweise das doppelte oder dreifache der Energie aus, die da geliefert wird, ohne warm zu werden.
@Dildo, wenn du einen Beweis findest, dass bei Vega alles aktiv ist, wär ich dir sehr verbunden. Bisher gibt es nur Indizien für das Gegenteil. Nur weil du willst, dass das Vegas Finalleistung ist, die da jetzt abgerufen wird, wird das dennoch nicht sofort wahr :D.
Ich bin mir sicher, auch der Gamerteil der FE wird nach dem RX-Launch einen voll aktivierten Consumertreiber bekommen.
Screemer
2017-07-17, 16:38:55
@scully: Kannst deinen abfälligen "der inder"-scheiß mal sein lassen?
BlacKi
2017-07-17, 16:43:35
Kompletter Humbug. Bei Vega FE gibt es keine Custom-Designs. Gerade die sind für die Masse an Gamern interessant.
betrachtet man die kühlung, gibt es genug die die karte unter wasser setzen wollen/werden/müssen. da reicht das referenz pcb und bringt vorteile bei der kompatibilität.
man kann also nicht sagen das die FE für keinen gamer interessant sein könnte, speziell wegen den 16gb, auch wenn derzeit noch kein bedarf dafür besteht.
Felixxz2
2017-07-17, 16:46:00
Den Rotz hat man bei der Titan X auch geschrieben, jedoch geht keiner bei klaren Verstand davon aus, das das signifikante Unterschiede macht für den Einsatzzweck
Kam die Titan vor der 1080 raus? Nein. Schlicht darum geht es.
Solange es keinen finalen Gaming Treiber gibt (und wieso sollte AMD den VOR dem Release der Gamingkarte veröffentlichen?), gibt es keine finale Gamingperformance.
dargo
2017-07-17, 16:54:38
man kann also nicht sagen das die FE für keinen gamer interessant sein könnte, speziell wegen den 16gb, auch wenn derzeit noch kein bedarf dafür besteht.
Die sind für den Gamer, und somit RX Vega völlig uninteressant wenn HBCC so funktioniert wie beworben.
scully1234
2017-07-17, 16:54:44
Kam die Titan vor der 1080 raus? Nein. Schlicht .
Die Titan ist der GP102 und ja die kam vor der 1080TI raus;)
Ist also der direkte Clon zu dem was AMD hier macht mit der Frontier und RX Vega
Nur das Nvidia es noch nicht nötig hat seine Quadro Modelle zu torpedieren, indem man zu viel Pro Features dort eingepflanzt hat
BlacKi
2017-07-17, 16:58:15
@dargo, warum weichst du aus? schaden tut der extra speicher nicht, es gibt durchaus leute die den extra speicher gerne bezahlen. letztendlich bleibt meine aussage korrekt egal wie du dich windest.
Felixxz2
2017-07-17, 17:04:23
Die Titan ist der GP102 und ja die kam vor der 1080TI raus;)
Ist also der direkte Clon zu dem was AMD hier macht mit der Frontier und RX Vega
Nur das Nvidia es noch nicht nötig hat seine Quadro Modelle zu torpedieren, indem man zu viel Pro Features dort eingepflanzt hat
Meine Herren, du weißt doch genau was ich meine. Die FE kommt vor der ersten Gamingkarte mit neuer Vega Architektur, ergo gibt es keinen fertigen Treiber für Spiele. Und genau so wird sie auch verkauft. Der Text den du zitierst weißt doch ausdrücklich darauf hin, dass man nicht unbedingt auf die finale Performance der Gaming-Radeons schließen kann.....
Hätte nV die Titan als Profi/Prosumer Karte vor der 1080 gebracht, wär das wohl ähnlich verlaufen.
scully1234
2017-07-17, 17:16:51
Hätte nV die Titan als Profi/Prosumer Karte vor der 1080 gebracht, wär das wohl ähnlich verlaufen.
Ganz gewiss nicht ,wenn man weis was man releasen will,weis man auch wo die Prioritäten sitzen, das konstatiere ich beiden Firmen!
Dieser eine Monat zusätzlich fürs RX Treiberteam, ist so oder so nur noch Makulatur
Wer da ernsthaft glaubt dort bewegt sich noch viel,außer ein Bisschen Feinschliff für die Spieleprofile, sollte sich das Gesagte des Inders zur Frontier ,nochmal zu Gemüte führen
Felixxz2
2017-07-17, 17:19:37
Ganz gewiss nicht ,wenn man weis was man releasen will,weis man auch wo die Prioritäten sitzen
Dieser eine Monat zusätzlich fürs RX Treiberteam, ist so oder so nur noch Makulatur
Es ging nie um zusätzliche Zeit fürs Treiberteam. Der Treiber ist fertig, einzelne Funktionen (wie DSBR) aber gezielt deaktiviert, um Tests der FE vorzubeugen.
dargo
2017-07-17, 17:25:54
schaden tut der extra speicher nicht, es gibt durchaus leute die den extra speicher gerne bezahlen.
Für was denn? Nur damit man im OSD die 16GB sieht? ;D Du solltest vielleicht mal langsam bei Grafikkarten mit HBCC umdenken.
Dieser eine Monat zusätzlich fürs RX Treiberteam, ist so oder so nur noch Makulatur
Wer da ernsthaft glaubt dort bewegt sich noch viel,außer ein Bisschen Feinschliff für die Spieleprofile, sollte sich das Gesagte des Inders zur Frontier ,nochmal zu Gemüte führen
Die Treiber werden wie immer beim Kunden weiter reifen. Ist ja nichts Neues, dass mit neueren Treibern weitere Performancesteigerungen möglich sind. Wie lange hat nochmal Nvidia gebraucht um die DX12/Vulkan Performance zu steigern? 6, 12, 18 Monate?
scully1234
2017-07-17, 17:32:42
einzelne Funktionen (wie DSBR) aber gezielt deaktiviert, um Tests der FE vorzubeugen.
hört sich an wie ein unumstößlicher Fakt,Dildos Meinung wäre da gleich zerrissen wurden
zwei Wochen darfst du das gerne noch verbreiten...
Felixxz2
2017-07-17, 17:40:26
Es ist einfach das wahrscheinlichste, natürlich aber (siehe Forumtitel) auch Spekulation.
Die Performance aktuell macht einfach keinen Sinn. Hinten und Vorne nicht. Obs 30% mehr werden? Weiß man nicht. Wird die Performance mit Releasetreiber steigen? Mit Sicherheit.
Man hätte sonst auch einfach Fiji shrinken können.
Mal abgesehen davon: Ich verbreite das nicht, sondern vor allem alle HW Seiten inklusive Leonidas hier im 3DC. Sind das alles AMD Fanboys? Nunja....
scully1234
2017-07-17, 17:53:58
Die TITAN X hat stets nur einen normalen Gaming-Treiber bekommen, die Vega FE hat allerdings einen professionellen Treiber. Das ist ein wesentlicher Unterschied.
Hatte ich doch glatt übersehen
Ist das so?
Dann magst du mir ja auch erklären warum diese Pro Karte hier ,trotz allem schneller ist im Gamingmode wie ihr Geforce Gegenstück
http://www.pcgameshardware.de/Pascal-Codename-265448/News/Nvidia-Quadro-P6000-schneller-als-Titan-X-1217141/
Warum gelten da also bei AMD nun andere Maßstäbe, oder redet ihr euch das "eventuell" nur ein, das hier eine solch große Lücke klafft mit der Pro Karte?
PrivateCeralion
2017-07-17, 18:03:34
Hatte ich doch glatt übersehen
Ist das so?
Dann magst du mir ja auch erklären warum die Pro Karte hier ,trotz allem schneller ist im Gamingmode
http://www.pcgameshardware.de/Pascal-Codename-265448/News/Nvidia-Quadro-P6000-schneller-als-Titan-X-1217141/
Warum gelten da also bei AMD nun andere Maßstäbe, oder redet ihr euch das "eventuell" nur ein, das hier eine solch große Lücke klafft mit der Pro Karte?
Nur weil im Nvidia Profi Treiber Game Optimierungen aktiv sind, müssen sie noch lange nicht bei AMD aktiv sein.
Und nur weil eine Quadro in spielen schneller als eine 1080ti ist, heißt das nicht, dass dadurch AMDs zukünftige Grafikkarten Generation schlecht wird, weil die Vega FE in Games nur auf dem Level einer 1080 ist. Jetzt schon von einem Fail zu reden ist einfach unfundiert.
Es ging nie um zusätzliche Zeit fürs Treiberteam. Der Treiber ist fertig, einzelne Funktionen (wie DSBR) aber gezielt deaktiviert, um Tests der FE vorzubeugen.
Der Eindruck drängt sich einfach auf, wenn man sieht, was alles nicht aktiv ist.
Mancko
2017-07-17, 18:09:21
Kompletter Humbug. Bei Vega FE gibt es keine Custom-Designs. Gerade die sind für die Masse an Gamern interessant.
Gibts bei der Titan auch nicht. Scheint also eher kein Grund zu sein, insbesondere da Leute die sich custom WaKüs drauf bauen ohnehin lieber Referenzdesigns kaufen.
scully1234
2017-07-17, 18:15:39
Nur weil im Nvidia Profi Treiber Game Optimierungen aktiv sind, müssen sie noch lange nicht bei AMD aktiv sein.
.
Ist klar AMD macht prinzipiell alles anders,solange es der Argumentation in den Kram passt , darum auch ne Frontier die man der TitanX gegenüberstellt
Was wäre das auch für eine Einsicht wenn man sich eingestehen müsste das die Frontier nicht weit weg ist von der RX Vega
[MK2]Mythos
2017-07-17, 18:27:10
hört sich an wie ein unumstößlicher Fakt,Dildos Meinung wäre da gleich zerrissen wurden
zwei Wochen darfst du das gerne noch verbreiten...
Wie wärs wenn du ab jetzt zwei Wochen nicht mehr so tust als hättest du die Weisheit mit Löffeln gefressen und wartest den Launch ab? Danach darfst du dich immer noch freuen wenn AMD hart failed. ;)
Digidi
2017-07-17, 18:27:31
Ist klar AMD macht prinzipiell alles anders,solange es der Argumentation in den Kram passt , darum auch ne Frontier die man der TitanX gegenüberstellt
Was wäre das auch für eine Einsicht wenn man sich eingestehen müsste das die Frontier nicht weit weg ist von der RX Vega
Gesteh du dir Mal ein das man auf Vega RX nicht von der FE schließen kann weil wichtige Features (nachweislich!!!!!!!!) Deaktiviert sind.
- powermanagment deaktivieren
- Binningen Rasterizer deaktiviert
- HBM Interface ist eingeschränkt
scully1234
2017-07-17, 18:36:06
Gesteh du dir Mal ein das man auf Vega RX nicht von der FE schließen kann weil wichtige Features (nachweislich!!!!!!!!) Deaktiviert sind.
- powermanagment deaktivieren
- Binningen Rasterizer deaktiviert
- HBM Interface ist eingeschränkt
Nein das gestehe ich mir nicht ein ,auch wenn du hinter deinen Satz noch zwanzigtausend Ausrufezeichen setzt:wink:
Du darfst gerne der Meinung bleiben ,das man das noch "repartiert" oder aus taktischen Gründen "verbergen" will ,bis RX Vega da ist
Gipsel
2017-07-17, 19:02:23
Bitte verbessert Eure Umgangsformen hier im Thread! Mit Flames und an Beleidigungen grenzenden Bemerkungen ist Niemandem geholfen.
Und ich zitiere mal einen Modtext aus einem anderen Thread:
Und den drölfzigsten Rehash von: "Vega FE ist nicht für Gamer! Ist sie doch! Aber der Treiber reißt das noch raus! Nein wird er nicht!" benötigen wir nirgendwo im Forum.
G3cko
2017-07-17, 19:37:01
Ist doch ohnehin nur ein Marketing-Cou von AMD. Immerhin hat man dazugelernt und es scheint nun unter der Radeon-Spate etwas wie Marketing zu geben. Auch der neue Auftritt von AMD in den letzten 2 Jahren gefällt mir immer besser. Viel schwarz, sieht alles schicker und moderner aus. Das war auch dringend nötig.
Achja, wie bereits gesagt wird Vega noch nicht fertig (Grund bitte einfügen) sein, musste aber zwingend released werden. Auch wenn scully das nicht wahr haben will. Er hat ja noch 2 Wochen Zeit sich darauf einzustellen. Nicht das er hyperventilierend und vor Schnappatmung vom Stuhl fällt, wenn es "überraschend" doch so kommt wie man ohnehin annimmt. Das wollen wir doch alle nicht. ;)
horn 12
2017-07-17, 19:58:45
In Budapest fallen nun schon langsam die RX Vega vom Laster
Muss schnell einer dorthin eilen aus Deutschland.
Sollte wohl morgen nachmittags über die Bühne gehen... 14 bis 19 Uhr
Budapest, Hungary July 18 at the Akvárium Klub from 2 to 7 CET.
Portland, USA, PDXLAN in, July 21 to 23
Los Angeles, USA, SIGGRAPH 2017, July 30
AlterSack
2017-07-17, 20:22:20
Nein das gestehe ich mir nicht ein ,auch wenn du hinter deinen Satz noch zwanzigtausend Ausrufezeichen setzt:wink:
Du darfst gerne der Meinung bleiben ,das man das noch "repartiert" oder aus taktischen Gründen "verbergen" will ,bis RX Vega da ist
Und ewig grüsst das Murmeltier.
Ist es euch nicht langsam zuviel, alle zwei Tage diesselben
Texte zu tippen? :ucrazy3:
Skysnake
2017-07-17, 20:50:16
Meine Fresse diskutiert ihr immer noch über nichts?
Das sind inzwischen sicherlich 30+ Seiten nur mit heißer Luft.... Können wir nicht endlich mal die Füße still halten bis es zumindest mal spekulatius gibt?
Sich einfach irgend einen Mist muss man sich doch nicht aus dem Arsch ziehen am laufenden Band...
Dino-Fossil
2017-07-17, 22:25:22
Vielleicht gibt's ja morgen ein paar erste brauchbare Infos.
http://www.game-debate.com/news/23319/amd-to-tour-radeon-rx-vega-graphics-cards-first-showcase-in-budapest-on-july-18
Sicherlich nichts wirklich substantielles, aber warten wir mal ab.
horn 12
2017-07-17, 22:50:33
Wo bleiben bitte die Vega Trommeln von damals im Jänner 17 oder verstummen diese nun komplett...
https://www.ht4u.net/news/32580_amd_ruehrt_die_werbetrommel_fuer_seinen_grafikchip_vega_ein_weiteres_mal/
CompuJoe
2017-07-18, 00:45:31
Sorry das ich das jetzt mal sagen muss, aber einige hier haben echt einen an der Waffel.
Das macht hier keinen Spaß mehr mit zu lesen.
Ich dachte andere Foren sind schlimm aber was hier z.zt. abgeht enttäuscht mich zunehmend.
Screemer
2017-07-18, 11:23:21
vielleicht sollte man mal igors review auch hier verlinken. es zeigt sich nämlich, dass vega fe im vergleich zur p6000 gar nicht mal so schlecht abschneidet. voraussetzung ist natürlich, dass man aktuelle workloads und softwareversionen nutzt und nicht auf alten gammel wie specviewperf12(.1).
http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375.html
mal ein zitat aus seinem fazit:
AMD vermarktet die Radeon Vega Frontier Edition ja bewusst nicht als Gamer-Karte. Wie man das jetzt zum obigen Absatz im Kontext sehen mag, sei jedem selbst überlassen. Was sie aber kann, ist gediegen zu arbeiten. Lässt man mal die totoptimierten Mainstream-Benchmarks beiseite, offeriert sich die Frontier Edition in einigen der getesteten Vollversionen als echte Workstation-Grafikkarte mit sauberer OpenGL-Unterstützung und ordentlicher Farbtiefe, die dann auch im OpenGL-Overlay funktioniert. Dieses Feature hat man bei der Titan XP von Nvidia leider nicht, denn es beschränkt sich dort nur auf DirectX.
Wir waren von der Performance in diesem Bereich wirklich überrascht, denn es ist eine Nische, in der man sogar deutlich teurere Mitbewerberkarten mit ähnlichem Feature-Set ordentlich in Bedrängnis bringen könnte. Natürlich immer vorausgesetzt, die Radeon Pro Treiber spielen da auch mit. Auch wenn es AMD nicht so nennt, die Vega FE ist eigentlich eine Art echte WX-Karte und eben kein halbgarer Hybrid zwischen Workstation und Gaming.
allein dass 10bit farbtiefe pro kanal unterstützt werden ist ein absolutes pro argument in der zielgruppe. das bietet im übrigen keine non-quadro von nv. da sind die treiber beschnitten.
uweskw
2017-07-18, 13:01:45
Gibt es eine Zeitverschiebung zu Budapest?
Greetz
US
PrivateCeralion
2017-07-18, 13:16:45
Gibt es eine Zeitverschiebung zu Budapest?
Greetz
US
In Budapest gibt es keine Zeitverschiebung zu DE :)
Also noch 45min Warten :)
Skysnake
2017-07-18, 13:40:38
Gibt es einen Stream?
https://twitter.com/Radeon/status/887228708418854913
kein Stream anscheinend
Sam Pau
2017-07-18, 14:36:44
Hier zumindest ein Twitter User der live dabei ist, berichtet und paar Fotos hochlädt.
https://twitter.com/Koli0842
Das Ambiente passt schonmal lol, hoffentlich lassen sich eventuell anwesende Fachleute nicht zu sehr ablenken.:D
y33H@
2017-07-18, 14:45:52
Die rechte guckt skeptisch :usad: ;D
Skysnake
2017-07-18, 14:58:19
Da sprüht ja jemand vor Begeisterung :ugly:
[MK2]Mythos
2017-07-18, 14:58:21
Sieht alles irgendwie sehr merkwürdig aus. Und die ungarischen Mädels freuen sich bestimmt auch, in einem dunklen Etablissement von nem Haufen sabbernder Nerds gedauerblitzdingst zu werden. :D
Edit: Natürlich Ungarn. :facepalm:
r3ptil3
2017-07-18, 15:00:43
Mythos;11433497']Sieht alles irgendwie sehr merkwürdig aus. Und die bulgarischen Mädels freuen sich bestimmt auch, in einem dunklen Etablissement von nem Haufen sabbernder Nerds gedauerblitzdingst zu werden. :D
Budapest liegt in Ungarn und nicht in Bulgarien.
Die leicht bekleideten Mädchen passen da mal gar nicht rein. Zieht das Ganze ziemlich ins lächerliche.
[MK2]Mythos
2017-07-18, 15:04:03
Natürlich, habs schon korrigiert. Wo war ich bloß mit den Gedanken... :redface:
Troyan
2017-07-18, 15:11:37
Was man so liest, erklärt es, wieso man nach Budapest ging: https://www.reddit.com/r/Amd/comments/6o0kku/vega_equals_or_is_close_to_gtx_1080_performance/
Soll wohl noch ein NDA geben, aber anscheinend keine Fotos der Karte, kein FPS-Counter, "rate mal"-Spiele etc.
Ich frage mich wirklich, wieso man so ein Event macht, wenn man keine harten Fakten liefern möchte.
Screemer
2017-07-18, 15:17:53
Was man so liest, erklärt es, wieso man nach Budapest ging: https://www.reddit.com/r/Amd/comments/6o0kku/vega_equals_or_is_close_to_gtx_1080_performance/
Soll wohl noch ein NDA geben, aber anscheinend keine Fotos der Karte, kein FPS-Counter, "rate mal"-Spiele etc.
Ich frage mich wirklich, wieso man so ein Event macht, wenn man keine harten Fakten liefern möchte.
wie man aus nem vergleich von adaptive-sync-system beider hersteller ableiten kann, dass rx vega so schnell ist wie eine 1080 ist mir schon mal wieder ein rätsel.
Korvaun
2017-07-18, 15:19:05
Ganz einfach die Menge anheizen. Immer reizen und die Hoffnung schüren das jetzt dann gleich der Knaller kommt und echte Fakten herausgelassen werden. Und dann nochmal und dann nochmal und dann ists endlich soweit. Bis dahin ist der interessierte User immer schön voller Hoffnung und abgelenkt vom ist-Stand der Vega-FE ;)
Cyphermaster
2017-07-18, 15:21:45
Ich frage mich wirklich, wieso man so ein Event macht, wenn man keine harten Fakten liefern möchte.Um Leute wie dich dazu zu bringen, am Ball zu bleiben. Funktioniert ja auch. ;D
http://www.tomshardware.de/samsung-hbm2-8gb,news-258248.html
Damit sollte klar sein, wo der Vega FE-Speicher herkommt. GV100 hat ja nur 4 4GB-Stacks.
Was man so liest, erklärt es, wieso man nach Budapest ging: https://www.reddit.com/r/Amd/comments/6o0kku/vega_equals_or_is_close_to_gtx_1080_performance/
Soll wohl noch ein NDA geben, aber anscheinend keine Fotos der Karte, kein FPS-Counter, "rate mal"-Spiele etc.
Ich frage mich wirklich, wieso man so ein Event macht, wenn man keine harten Fakten liefern möchte.
Der Sinn und Zweck eines Community Meetups ist es, Leute zu treffen und sich über gemeinsame Interessen auszutauschen, und genau das ist heute in Ungarn der Fall.
Dass es immer wieder zu solchen Zuständen wie jetzt im AMD-Subreddit kommt, ist sehr nervig. Die Moderatoren des Subreddits ignorieren die Warnungen und Bitten über Sticky-Threads mit ordentlichen Informationen und lassen den Nerds mit ihren Falschmeldungen und Clickbaits freien Lauf. Da kann man noch so oft Tage vorher schreiben, dass das RX Vega Reveal Event am 30.07. auf der SIGGRAPH ist und das Community Meetup damit nichts zu tun hat.
Taigatrommel
2017-07-18, 15:41:21
Was man so liest, erklärt es, wieso man nach Budapest ging: https://www.reddit.com/r/Amd/comments/6o0kku/vega_equals_or_is_close_to_gtx_1080_performance/
Soll wohl noch ein NDA geben, aber anscheinend keine Fotos der Karte, kein FPS-Counter, "rate mal"-Spiele etc.
Ich frage mich wirklich, wieso man so ein Event macht, wenn man keine harten Fakten liefern möchte.
Also für mich wirkt das Event sehr armselig. Ohne Budapest schmälern zu wollen, es ist ja schön, dass man Osteuropa bei Veranstaltungen ein wenig mehr Beachtung schenkt, doch wieso ausgerechnet dort? London, Paris, Berlin, Amsterdam oder auch Wien wären nur einige Großstädte, welche wohl direkt im zentralen Markt Europas liegen. Mangelnde Verfügbarkeit von entsprechenden Locations? Auf mich wirkt es eher, als wolle man keinen größeren Andrang von Fachpresse oder Enthusiasten haben wollen, zumindest noch nicht. Denn langfristig verhindern können wird man das nicht.
Nun spricht man offenbar nur noch von "close to 1080 Performance?", hieß es Seitens Raja nicht bislang, man würde sich eher an der 1080 Ti als an der originalen 1080 orientieren? Daraus könnte man nun durchaus Rückschlüsse ziehen, dass da nicht mehr großartig Performancereserven in irgendwelchen offiziellen Treibern schlummern. Die wassergekühlte Frontiers Edition ist immerhin leistungstechnisch ziemlich auf dem Niveau der 1080.
Somit wird auch der Preis nicht höher als 550 Euro für eine wassergekühlte RX Vega liegen dürfen, ansonsten ist die Karte schlicht unattraktiv und da ist nicht einmal der höhere Stromverbrauch einkalkuliert.
dildo4u
2017-07-18, 15:47:10
Raja hat auf der CES gesagt sie wollen ein 1000$ 4k PC möglich machen,da kommste bei maximal 500$ für die GPU raus.
https://youtu.be/FwcUMZLvjYw?t=14m45s
Cyphermaster
2017-07-18, 15:54:39
Nun spricht man offenbar nur noch von "close to 1080 Performance?", hieß es Seitens Raja nicht bislang, man würde sich eher an der 1080 Ti als an der originalen 1080 orientieren?Bislang gibt's dazu nur inoffizielle Eindrücke (!) von jemandem, der das anhand von einem 1080 G-Sync vs. RX Vega (welche?) FreeSync-System eingeschätzt hat.
Hasenpfote
2017-07-18, 16:43:17
Also für mich wirkt das Event sehr armselig. Ohne Budapest schmälern zu wollen, es ist ja schön, dass man Osteuropa bei Veranstaltungen ein wenig mehr Beachtung schenkt, doch wieso ausgerechnet dort?Weil ungarische Mädels nunmal deutlich hübscher sind als welche aus "London, Paris, Berlin, Amsterdam oder auch Wien". :D Nicht ohne Grund werden dort viele Erwachsenenfilme gedreht. Und die Ergo-Versicherung hat ihre besten Verkäufer auch nach Budapest zum Party machen geschickt, und nicht nach Berlin oder Wien! ;Dhieß es Seitens Raja nicht bislang, man würde sich eher an der 1080 Ti als an der originalen 1080 orientieren?Das hab ich nicht gelesen. Ich finde, dass Raja sogar SEHR ruhig ist, was Vega angeht. :confused: Und wenn es stimmt, dass das finale BIOS erst am 2.8. an die Hersteller geht, was haben die denn vor Ort gezeigt?
Tesseract
2017-07-18, 16:47:50
Bislang gibt's dazu nur inoffizielle Eindrücke (!) von jemandem, der das anhand von einem 1080 G-Sync vs. RX Vega (welche?) FreeSync-System eingeschätzt hat.
wenn die ein 1080-system daneben hinstellen ist das bereits ein schlechtes zeichen. außerdem kann man davon ausgehen, dass bei so einem event garantiert der größte chip mit dem aktuellsten lauffähigen treiber betrieben wird.
Jupp, die Vorzeichen stehen ziemlich schlecht. Was soll das dann für ein Marketing sein?
Wenn am Ende eine Karte rauskommt, die mit hohem Aufwand und Strom"verbrauch" die 1080 verfehlt hat man doch monatelang die Leute verarscht.
robbitop
2017-07-18, 17:01:40
Wenn es wirklich so kommen sollte, dass nur GP104 Leistung herumkommt? Warum hat man dann nicht einfach Polaris verdoppelt? Wozu der Aufriss mit den neuen CUs und dem dsbr?
4608 sps bei ~1300 mhz
300 w für die karte
512 bit gddr5/x
8 und 16 gb versionen
500€
alles ziemlich exakt 2xP10. Auch der Preis.
fondness
2017-07-18, 17:05:17
Wenn am Ende eine Karte rauskommt, die mit hohem Aufwand und Strom"verbrauch" die 1080 verfehlt hat man doch monatelang die Leute verarscht.
Warum? Es wurde nirgends behauptet, dass man sich mit der 1080Ti anlegt oder dergleichen. Aber richtig, die Vorzeichen stehen nicht besonders, wäre nach dem bisher gezeigten schon sehr überraschend, wenn da plötzlich noch sehr viel mehr Leistung heraus springen würde.
Sven77
2017-07-18, 17:06:06
Was den Preis angeht würde ich mir auch nicht allzuviel Hoffnungen machen, anscheinend wir der Preisvorteil von Freesync als rausstechendes Merkmal propagiert
https://www.reddit.com/r/Amd/comments/6o0f1k/report_from_budapest_they_are_showcasing_2_vega/
fondness
2017-07-18, 17:09:22
Wenn es wirklich so kommen sollte, dass nur GP104 Leistung herumkommt? Warum hat man dann nicht einfach Polaris verdoppelt? Wozu der Aufriss mit den neuen CUs und dem dsbr?
4608 sps bei ~1300 mhz
300 w für die karte
512 bit gddr5/x
8 und 16 gb versionen
500€
alles ziemlich exakt 2xP10. Auch der Preis.
Naja, die neuen CUs erlauben mehr Takt, liefern FL 12_1 top level tier, 2xFP16, 4x INT8 Performance und wohl auch eine bessere Energieeffizienz - 2xP10 wäre eher bei 400W. Aber ja, wo die besseren IPC hin verschwunden ist bleibt jedenfalls sehr mysteriös, aktuell hat man die Leistung von Fiji mit mehr Takt.
Cyphermaster
2017-07-18, 17:10:22
wenn die ein 1080-system daneben hinstellen ist das bereits ein schlechtes zeichen. außerdem kann man davon ausgehen, dass bei so einem event garantiert der größte chip mit dem aktuellsten lauffähigen treiber betrieben wird.Unter Sync-Bedingungen wird es sowieso keinerlei FPS-Vergleiche oder sowas geben können, an denen Belastbares und Aussagefähiges abzulesen wäre. Auch, wenn man wüßte, welche 1080 (Ti oder nicht) da gegen welche RX Vega antritt, unter dem Strich wird's ziemlich egal sein - Schwanzvergleich ist nicht.
Entropy
2017-07-18, 17:12:35
Wenn es wirklich so kommen sollte, dass nur GP104 Leistung herumkommt? Warum hat man dann nicht einfach Polaris verdoppelt? Wozu der Aufriss mit den neuen CUs und dem dsbr?
Worauf AMD scheinbar stolz ist, wie man aus dem Mi25 Namen entnimmt, sind die 25TFlops.
World’s Fastest Training Accelerator for Machine Intelligence and Deep Learning
War das nicht auch eines der ersten Dinge die deren Marketing preisgab? Immerhin ist Deep Learning ein sehr schnell wachsender Markt und Nvidia war konkurenzlos. An Vega und gleichzeitig Dual-Polaris zu arbeiten verschlingt vielleicht zuviel.
Daredevil
2017-07-18, 17:15:54
Erst wird nüx gesagt und Morgen hat Linus ein Video oben, ich prophezeihe ! :D
Cyphermaster
2017-07-18, 17:17:22
Was den Preis angeht würde ich mir auch nicht allzuviel Hoffnungen machen, anscheinend wir der Preisvorteil von Freesync als rausstechendes Merkmal propagiertNope. Anfang der Aussage, auf die du dich beziehst:
I suspect...
robbitop
2017-07-18, 17:20:20
Worauf AMD scheinbar stolz ist, wie man aus dem Mi25 Namen entnimmt, sind die 25TFlops.
War das nicht auch eines der ersten Dinge die deren Marketing preisgab? Immerhin ist Deep Learning ein sehr schnell wachsender Markt und Nvidia war konkurenzlos. An Vega und gleichzeitig Dual-Polaris zu arbeiten verschlingt vielleicht zuviel.
Polaris kann doch auch bereits 2x FP16 Rate.
Die 25 TFlops FP16 wären mit ~1350 MHz auch machbar gewesen.
edit: stimmt doch nicht. Polaris kann nur 1xFP16. Wären somit nur 12...12,5 TFlops....
trotzdem ein Aufriss für einen noch sehr kleinen Markt. Aber möglich, dass er bald schnell wächst. Dann wäre ein früher Einstieg wichtig.
Wenn es wirklich so kommen sollte, dass nur GP104 Leistung herumkommt? Warum hat man dann nicht einfach Polaris verdoppelt? Wozu der Aufriss mit den neuen CUs und dem dsbr?
4608 sps bei ~1300 mhz
300 w für die karte
512 bit gddr5/x
8 und 16 gb versionen
500€
alles ziemlich exakt 2xP10. Auch der Preis.
Ich denke, dass es sich langsam bewahrheitet, dass das Ding doch schlichtweg kaputt ist, das wird auch das Problem sein. Ein doppelter Polaris wär ja auch noch deutlich schneller gewesen, das ist der Witz bei der Sache. Und nein, Polaris kann nur 1x FP16 pro CU. Als Pro-Variante ist Vega wirklich gut brauchbar, das hat der THG-Test gezeigt, als Consumer leider nicht.
Ich fürchte, es ist wie ich von Anfang an einschätzte - das Ding ist einfach kaputt. Da wird einfach ne neue Maske her müssen - oder gleich ein neuer Chip. Bin gespannt, wann die das zugeben müssen. Ich nehme auch an, dass bereits ein Ersatzprodukt auf dem Weg ist, aber das wird sicherlich noch etwas dauern. Oder die sitzen das ernsthaft bis 7nm aus - wär evtl. verschmerzbar, im CPU-Sektor läufts ja. Glaub ich aber nicht dran, wenn das Teil echt kaputt ist, wird das recht früh bekannt gewesen sein und man wird ein Ersatzdesign gestartet haben.
Navi ist dann 4x Polaris im Sweetspot mit IF verdrahtet :freak:
robbitop
2017-07-18, 17:26:04
Wenn das Ding kaputt ist, wird es interessant, ob die Implementierung von Vega in Raven Ridge funktioniert oder auch kaputt ist.
So wie die FE aktuell performt, ist definitiv etwas kaputt/funktioniert etwas nicht. Oder die mArch ist ein Griff ins Klo.
Cyphermaster
2017-07-18, 17:30:22
Kurz: Nix Neues aktuell, nur die alten Spekulationen "wiederbelebt". :rolleyes:
Wenn das Ding kaputt ist, wird es interessant, ob die Implementierung von Vega in Raven Ridge funktioniert oder auch kaputt ist.
So wie die FE aktuell performt, ist definitiv etwas kaputt/funktioniert etwas nicht. Oder die mArch ist ein Griff ins Klo.
Jo der tolle neue Rasterizer. Ich nehme an, der in RR und V11 wird funktionieren. Diese Produkte sind wohl nicht umsonst recht stark bis in 2018 hinein verzögert worden. Ich denke nicht, dass es an der Architektur selbst liegt, das fehlende HSR spricht mMn für sich. Für V10 war es mMn einfach zu spät um das noch zu korrigieren.
bbott
2017-07-18, 17:36:29
Wenn es wirklich so kommen sollte, dass nur GP104 Leistung herumkommt? Warum hat man dann nicht einfach Polaris verdoppelt? Wozu der Aufriss mit den neuen CUs und dem dsbr?
4608 sps bei ~1300 mhz
300 w für die karte
512 bit gddr5/x
8 und 16 gb versionen
500€
alles ziemlich exakt 2xP10. Auch der Preis.
Passt aber nicht, da aktuell die bisherige Leistung (bei gleichem Takt) von Vega unter Fiji liegt. Da Vega eine höhere IPC als Polaris haben soll, aber Fiji hat eine IPC unter Polaris, passt die Performance aktuell nicht in Bild:
AMDs IPC Angabe: Fiji < Polaris < Vega
Aktuelle (IPC)Bench: Vega < Fiji < Polaris
Polaris hat eine verbessere Kompression, welche Bandbreite sparen sollte und dies allein Vegas aktuelle Bandbreitenlimitierung zu mindestens im Vergleich zu Fiji besser dastehen lassen sollte und nicht schlechter wie derzeit. Außer es ist ein weiteres Freature was aktuelle deaktiviert ist.
Falls Vega wirklich nur zur 1080 aufschließen kann und das bei 300 bis 350W wäre Vega ein mega fail.
Aber aktuell gehe ich immer noch davon aus, das im Treiber viele Freatures noch nicht frei geschaltet sind. Ich erst eine andere Standpunkt akzeptieren, wenn geklärt ist wodurch die vergleichsweise schwache Performance zustande kommt.
robbitop
2017-07-18, 17:37:16
@HOT
Bei der APU bin ich mir nicht so sicher. APUs hatten in der Vergangenheit häufig nicht die allerneuste GFX IP. Ggf ist die Validierung von APUs aufwändiger. Oder auch die Dauer von Tapeout bis zur Massenfertigung?
@HOT
Bei der APU bin ich mir nicht so sicher. APUs hatten in der Vergangenheit häufig nicht die allerneuste GFX IP. Ggf ist die Validierung von APUs aufwändiger. Oder auch die Dauer von Tapeout bis zur Massenfertigung?
RR sollte ja erst im 2.Hj erscheinen, wohl eher früher als später. Ich denke nicht, dass man das so verzögert hätte, wenn alles i.O. gewesen wäre. Erst hieß es 2.Hj, dann spätes 2.Hj, dann Weihnachten, dann 2018. Aber dass V11 erst 2018 kommen soll, das sehe ich als sehr schlechtes Zeichen an. Selbst wenn RR noch kaputt ist, wär es relativ egal. Aber V11 muss funktionieren. MMn haben die erst am Silizium gesehen, dass V10 kein HSR kann, dann mussten die anderen Projekte zurück in die Entwicklung. V10 versuchen die jetzt in geringen Mengen an den Mann zu bringen, damit das Projekt wenigstens kein Verlust war, aber Geld verdienen wird man IMHO damit nicht. Man sieht das ja schon daran, dass die FE bei dem sehr geringen Preis zertifizierte Treiber bekommt, reines Marketing. Die bringen das Teil nur als RX, damit man überhaupt was im Segment der 1080 anbieten kann, was ab Volta eben Mainstream wäre.
unl34shed
2017-07-18, 17:48:12
Welche Vega wurde denn überhaupt getestet? Soll ja immerhin 3 verschiedene Versionen der RX geben. Mal etwas weiter gedacht, 3 Events 3 Karten....
Komme auch noch nicht wirklich auf die bis jetzt bekannten Werte klar (Ob jetzt FE oder der aktuelle vergleich mit "nur" der 1080). Doppelte Rohleistung einer RX580, doppelter Verbrauch, fast doppelte CUs/ROPs/TMUs und Bandbreite und es kommen einfach nur 45% Mehrleistung gegenüber der 580 an.
Das etwas kaputt ist, glaube ich nicht. Aber irgendetwas stimmt einfach nicht. Die Perf/W passt nicht, die FPS/GFLOPs passt nicht... Ich bin verwirrt und es dauert noch sooo lange.
Welche Vega wurde denn überhaupt getestet? Soll ja immerhin 3 verschiedene Versionen der RX geben. Mal etwas weiter gedacht, 3 Events 3 Karten....
Komme auch noch nicht wirklich auf die bis jetzt bekannten Werte klar (Ob jetzt FE oder der aktuelle vergleich mit "nur" der 1080). Doppelte Rohleistung einer RX580, doppelter Verbrauch, fast doppelte CUs/ROPs/TMUs und Bandbreite und es kommen einfach nur 45% Mehrleistung gegenüber der 580 an.
Das etwas kaputt ist, glaube ich nicht. Aber irgendetwas stimmt einfach nicht. Die Perf/W passt nicht, die FPS/GFLOPs passt nicht... Ich bin verwirrt und es dauert noch sooo lange.
Der Rasterizer ist eine Effizienzbombe, so einfach ist das nicht, wie du das jetzt machst. Leider ist er aber nicht aktiv, deshalb liegt der Verdacht nahe, dass er kaputt ist. Um das nochmal zu betonen: Das ist das Hauptfeature, das Maxwell effizient gemacht hat! Vega ist auch exakt darauf ausgerichtet. Er hätte kaum in der Bandbreite hängen dürften im Gegensatz zu Polaris, tut er aber wie hulle. Er hätte ca. 2,5 fache Leistung als Polaris abrufen müssen, tut er aber nicht. Das passt nicht. Wie gesagt, diese Leistung hätte man mit einem 64CUs Polaris mit 512Bit GDDR5 auch geschafft.
unl34shed
2017-07-18, 17:52:52
Wäre er kaputt, hätte man ihn nicht vor ein paar Wochen noch als Hauptfeature der Architektur groß angepriesen, denn nach fast einem Jahr Testen, sollte das schon mal dem ein oder anderen aufgefallen sein, meinst du nicht?
Wäre er kaputt, hätte man ihn nicht vor ein paar Wochen noch als Hauptfeature der Architektur groß angepriesen, denn nach fast einem Jahr Testen, sollte das schon mal dem ein oder anderen aufgefallen sein, meinst du nicht?
Nein, die Tester tappen im Dunkeln, was sie i.Ü. auch alle schreiben. Nur AMD kann bestätigen, dass das Teil kaputt ist. Die darauf basierenden FL12_1-Features scheinen i.Ü. zu funktionieren, wenigstens das.
Es ist einfach total bekloppt anzunehmen, dass das Teil WIRKLICH so ineffizient ist, dass es langsamer als Polaris ist, das war definitiv nicht beabsichtigt, also stimmt was nicht.
Erbsenkönig
2017-07-18, 17:56:14
Kann es sowas denn überhaupt geben - "kaputt"? Die entwickeln doch nicht monatelang an dem Teil rum und testen es das erste Mal zwei Wochen vor dem Launch?!
Kann es sowas denn überhaupt geben - "kaputt"? Die entwickeln doch nicht monatelang an dem Teil rum und testen es das erste Mal zwei Wochen vor dem Launch?!
Wenn das ein schwerer Fehler ist, der erst aufgefallen ist, als die das Ax-Silizium getestet haben, kann man nichts mehr ändern, so einfach ist das. Dann hätte man die Maske ändern müssen, was sicher 1/2 Jahr oder mehr Verzögerung bedeutet hätte und sehr teuer gewesen wäre.
Troyan
2017-07-18, 18:00:19
Es ist einfach total bekloppt anzunehmen, dass das Teil WIRKLICH so ineffizient ist, dass es langsamer als Polaris ist, das war definitiv nicht beabsichtigt, also stimmt was nicht.
Vega ist >60% effizienter als Polaris 10 (Sapphire RX580 Limited).
Kriegsgeier
2017-07-18, 18:01:17
Ich glaube AMD zieht den größten Fake aller Zeiten ab!
Vega ist >60% effizienter als Polaris 10 (Sapphire RX580 Limited).
Wie kommt man auf so einen BS?
Cyphermaster
2017-07-18, 18:02:44
Leider ist er aber nicht aktiv, deshalb liegt der Verdacht nahe, dass er kaputt ist.Nach dem Wenigen, was AMD an Infos raus läßt (direkt oder indirekt), kann das "kaputt" aber theoretisch immer noch alles von Arch, nur DSBR-Anteil bis hin zu reinem Treiberproblem heißen.
Aus den nicht aussagefähigen Infos nun zum x-ten Male zu orakeln zu versuchen, macht das auch nicht besser. Das ist wie der Versuch, ein Buch ein 11. Mal zu lesen in der Hoffnung, es wäre plötzlich eine zweite Geschichte drin. Wenn man sich anstrengt, kann man natürlich vieles REINlesen...
Egal wie: AMD macht es jedenfalls imo richtig, jetzt erst recht überhaupt nichts an verwertbaren Performance-Daten über die RX raus zu lassen - wie man am Thread hier sieht. Wie bei Dessous besteht die große Spannung eben nur, solange man die Dinge noch NICHT sieht. ;)
unl34shed
2017-07-18, 18:03:17
Wenn das ein schwerer Fehler ist, der erst aufgefallen ist, als die das Ax-Silizium getestet haben, kann man nichts mehr ändern, so einfach ist das. Dann hätte man die Maske ändern müssen, was sicher 1/2 Jahr oder mehr Verzögerung bedeutet hätte und sehr teuer gewesen wäre.
Und selbst das wäre zeitlich drin gewesen, da noch ein respin zu fahren. Und wäre es nur ein Metal fix, wären es sogar nur ein paar Wochen.
Daredevil
2017-07-18, 18:06:57
Egal wie: AMD macht es jedenfalls imo richtig, jetzt erst recht überhaupt nichts an verwertbaren Performance-Daten über die RX raus zu lassen - wie man am Thread hier sieht. Wie bei Dessous besteht die große Spannung eben nur, solange man die Dinge noch NICHT sieht. ;)
Quote of the Day. :D
Warum sollte AMD auch auf so einer kleinen Pipi Konferenz was raushauen, wenn sie Youtube schon bei Ryzen genutzt haben und das eine riesige Welle erzeugt hat.
G3cko
2017-07-18, 18:12:01
Wäre das Feature kaputt hätte man noch 2 Stacks dran gebaut und die Bandbreite zumindest so verbessert.
Wäre natürlich der super Gau, erst mit Polaris das gesamte Perfomance- und High-End-Segment ausgelassen und dann ist Vega kaputt.
Ich glaube immer noch daran, dass AMD nur marketingtechnisch überraschen will. Bei Intel klappt das ohne Probleme über den Preis, da man hier auf mondniveau angekommen ist. Die 1080Ti hat aber Vega einiges an Überraschung und wow Effekt vorrausgenommmen. Vor einem halben Jahr wäre es besser gewesen, daher muss man nun so tun als wäre man nur auf Niveau von GP104.
1.) Es wäre eben nicht mit einem Metalspin getan, sonst hätte man das gemacht.
2.) Auch für mehr VRAM-Stacks braucht man eine neue Maske.
Cyphermaster
Natürlich ist das weiterhin Speku, ich bezweifle aber, dass das AMDs Absicht ist. Die werden bis zum 30. damit warten bekanntzugeben, was wirklich los ist. Dass man RX gegen 1080 antreten lässt und die FE ganz zufällig in dessen Bereiche vorstößt (vor allem in DX12) ist nunmal sehr verdächtig.
unl34shed
2017-07-18, 18:19:23
1.) Es wäre eben nicht mit einem Metalspin getan, sonst hätte man das gemacht.
2.) Auch für mehr VRAM braucht man eine neue Maske.
3.) Man hat nichts gemacht, weil nichts kaputt...
3.) Man hat nichts gemacht, weil nichts kaputt...
Man hätte nichts gemacht, weil er so kaputt ist, dass es eben zu teuer wäre und zu lange gedauert hätte und es reicht um das Produkt trotzdem zu verkaufen.
unl34shed
2017-07-18, 18:29:39
Alles klar, hast mich überzeugt, das Teil ist kaputt...
Jeder will 1080 Leistung für wohl 500€+ über ein Jahr später.
Unter Sync-Bedingungen wird es sowieso keinerlei FPS-Vergleiche oder sowas geben können, an denen Belastbares und Aussagefähiges abzulesen wäre. Auch, wenn man wüßte, welche 1080 (Ti oder nicht) da gegen welche RX Vega antritt, unter dem Strich wird's ziemlich egal sein - Schwanzvergleich ist nicht.
Mal ehrlich, so langsam sollte man sich damit abfinden, wohin die Reise geht. Die Wahrscheinlichkeit, dass man die 1080ti erreicht oder gar auf dem Niveau der Costums spielt mag zwar noch gegeben sein, sie wird aber mit jedem Fetzen Info geringer.
Kriegsgeier
2017-07-18, 18:34:08
Und wenn es nur um eine Taktik handelt?
AtTheDriveIn
2017-07-18, 18:34:10
Mal ehrlich, so langsam sollte man sich damit abfinden, wohin die Reise geht. Die Wahrscheinlichkeit, dass man die 1080ti erreicht oder gar auf dem Niveau der Costums spielt mag zwar noch gegeben sein, sie wird aber mit jedem Fetzen Info geringer.
Ja und von welchen Infos redest du? Es gibt offiziell nichts Neues, und das seit Wochen :-)
Die letzte Info die micht hat aufhorchen lassen, war die asic Power der XTX.
Complicated
2017-07-18, 18:35:23
Ich halte die "Kaputt-Theorie" für kaputt und an den Haaren herbei gezogen.
Es ist nichts bekannt über die Performance der RX Vega. Die FE performt in den vorgesehenen Workloads excellent, daher gibt es keine Anzeichen dafür, dass etwas kaputt ist. Das zu vermuten ohne Tests der RX Vega mit zugehörigem Bios und Treibern ist einfach nur FUD.
Die Frage ist warum man das fünfmal wiederholen muss ohne irgendeine Grundlage.
Hier nen Haufen Fotos, wems interessiert:
http://www.instaphotos.co/tag-photos-videos/vegainbudapest
Ja und von welchen Infos redest du? Es gibt offiziell nichts Neues, und das seit Wochen :-)
Die letzte Info die micht hat aufhorchen lassen, war die asic Power der XTX.
Klar, wenn man die Augen bis zum Schluss schliessen will. Ja, es gibt nur Indizien. Wenn die aber alle in die selbe Richtung deuten wird irgendwann ei. Schuh draus.
Complicated
2017-07-18, 18:48:56
Nenn mal Indizien. Ich lese hier nur wirre und vor allem halbgare Schlußfolgerungen.
robbitop
2017-07-18, 18:50:45
RR sollte ja erst im 2.Hj erscheinen, wohl eher früher als später. Ich denke nicht, dass man das so verzögert hätte, wenn alles i.O. gewesen wäre. Erst hieß es 2.Hj, dann spätes 2.Hj, dann Weihnachten, dann 2018. Aber dass V11 erst 2018 kommen soll, das sehe ich als sehr schlechtes Zeichen an. Selbst wenn RR noch kaputt ist, wär es relativ egal. Aber V11 muss funktionieren. MMn haben die erst am Silizium gesehen, dass V10 kein HSR kann, dann mussten die anderen Projekte zurück in die Entwicklung. V10 versuchen die jetzt in geringen Mengen an den Mann zu bringen, damit das Projekt wenigstens kein Verlust war, aber Geld verdienen wird man IMHO damit nicht. Man sieht das ja schon daran, dass die FE bei dem sehr geringen Preis zertifizierte Treiber bekommt, reines Marketing. Die bringen das Teil nur als RX, damit man überhaupt was im Segment der 1080 anbieten kann, was ab Volta eben Mainstream wäre.
RR ist wichtig. Damit holst du die Designwins im mobile Bereich. Dort sind die Margen recht wichtig. Eine gute GPU ist schon nicht unwichtig für eine mobile APU. Bei den Vorgängern war das ja der Fall - nur leider war die CPU zu schlecht für viele Design wins.
Gerade eine iGPU japst nach Bandbreite. Hier wäre der dabr wichtig.
Nenn mal Indizien. Ich lese hier nur wirre und vor allem halbgare Schlußfolgerungen.
Und was deutet nochmal darauf hin, dass die Karte die 1080ti erreicht oder mehr? Dazu gibt es nicht mal halbgare Infos. ;)
unl34shed
2017-07-18, 18:59:02
Und was deutet nochmal darauf hin, dass die Karte die 1080ti erreicht oder mehr? Dazu gibt es nicht mal halbgare Infos. ;)
IPC unterhalb von Fiji
Stärker Bandbreiten limitiert als Fiji, trotz HBCC, DSBR
Shader*Takt = 2x Polaris --> Leistung bei weitem nicht
Perf/W sollte sich verbessert haben --> aktuell eher schlechter
Wäre das Teil am Arsch, hätte man es den Investoren schon vor Monaten berichten müssen
sicher noch ein paar mehr
Complicated
2017-07-18, 18:59:24
@24p
Und wer hat das behauptet?
Ist das dein Argument?
[MK2]Mythos
2017-07-18, 19:00:28
Darum gehts nicht, es geht darum, ob bei Vega noch wichtige Features deaktiviert sind, die eventuell zum Launch aktiviert werden. Und ja, genau dafür gibt es Indizien. Aber wir Drehen uns damit im Kreis, das ist alles schon tausendmal durchgekaut worden. Bis es keine neuen Infos gibt, die in die eine oder andere Richtung schließen lassen, ist das hier einfach nur ins Blaue raten.
MadPenguin
2017-07-18, 19:56:45
Ich hoffe immer noch, dass Vega besser wird als momentan angenommen. Glaube aber leider, dass es nicht so sein wird. Wieso jetzt noch bluffen? Würde AMD ein Vega zeigen, der schneller als eine XP ist, könnte Nvidia trotzdem nichts machen. Das Teil ist für'n Arsch.
Deshalb hat man die Verkündung der Quartals zahlen vorverlegt: Diese sind bestimmt super und werden die Investoren bei Stange halten. Dass dann Vega ein Flop wird, werden die Investoren verzeihen....
Cyphermaster
2017-07-18, 20:06:28
Cyphermaster
Natürlich ist das weiterhin Speku, ich bezweifle aber, dass das AMDs Absicht ist. Die werden bis zum 30. damit warten bekanntzugeben, was wirklich los ist. Dass man RX gegen 1080 antreten lässt und die FE ganz zufällig in dessen Bereiche vorstößt (vor allem in DX12) ist nunmal sehr verdächtig.Bislang gibt es kein "Antreten". Zwei Systeme in einem Modus, der keine vernünftige Performanceprognose erlaubt, und mit Grafikkarten, bei denen nicht einmal die verwendeten Typen angegeben wurden. Sogar, daß es sich um eine 1080 handelt, war -soweit mein Kenntnisstand bis ~18 Uhr- nur eine Aussage eines Besuchers. Zusammengefaßt: Nicht in Sachen Peak-Performance einschätzbare Vergleiche auf praktisch unbekannten Systemen. Schon ab diesem Punkt beginnt der Bereich der Spekulation.
Klar, wenn man die Augen bis zum Schluss schliessen will. Ja, es gibt nur Indizien. Wenn die aber alle in die selbe Richtung deuten wird irgendwann ei. Schuh draus.Wenn dem so eindeutig so wäre, hätte man Beweise. Indizien sind nun mal interpretierbar, und über die Richtung kann man sich -wie dieses Subforum zeigt- trefflich streiten.
Je nachdem, welche Annahmen zu den Hintergründen der aktuellen Performance und der gewählten Informations- und Marketingstrategie von AMD man macht, und wie man sie gewichtet, ergeben sich unterschiedliche Theorien bzw. Wahrscheinlichkeiten für deren Eintreten. Weitere Stilisierung zu quasi gesicherten Informationen ist schlichtweg Scharlatanerie, egal ob pro/contra favorem AMD.
Ich habe nie abgestritten, dass ich eindeutige Beweise haben. Die hat hier keiner, auch nicht für die Spekulation, dass Vega eben die 1080ti+ erreicht. Es sieht aber eben mit jedem bisschen Info eher nicht danach aus. Ich bleibe daher dabei, wenn die Karte viel mehr leisten würde, dann hätte man es geteased.
Was die Allgemeinplätze um die Wahrscheinlichkeiten angeht, es gibt gar keine Infohappen die darauf hindeuten, dass Vega die o.g. Ziele erreicht. Das bisschen (und sei es auch wenig) deutet eher nicht darauf hin. Da kann man sich 10x hinstellen und was von gewichteten Marketingstrategien erzählen. Wer im ernst meint, dass AMD aus Jux die wahre Leistung zurückhält, weil sie bock drauf haben, mag das gerne glauben. Die Wahrscheinlichkeit dafür ist imo aber sehr viel geringer als für die Gegenthese.
...Ich bleibe daher dabei, wenn die Karte viel mehr leisten würde, dann hätte man es geteased.
Das wäre die logische Vorgehensweise. Man hat eine 4K-Karte angekündigt - wenn man nun nur bei der FE rauskommt, aber diese Aussage bis zum bitteren Ende aufrechterhält, verscherzt man es sich doch massiv.
Cyphermaster
2017-07-18, 20:21:23
Wieso jetzt noch bluffen?Auch, wenn deine Theorie natürlich valide ist - jetzt weiter nichts zu sagen, ist schon durch das (wie man an Budapest sieht, vortrefflich funktionierende!) Halten der emotionalen Spannung und damit einer deutlichen Medienpräsenz in der Zielgruppe von Vorteil. Grade durch die mit der Zeit ohne Informationen immer weiter sinkenden Erwartungen (passiert zwangsläufig!) KANN RX Vega doch praktisch nur Image-mäßig gewinnen, solange die Karte mindestens eine Schippe auf die FE legt. Je mehr, desto mehr wirkt die RX dann wie ein Underdog, der tatsächlich den "Phoenix aus der Asche" schafft. Ein Bild, das man sich schon bei Ryzen sehr stark bemüht hat zu zeichnen.
Es wäre demnach auch bei guter RX-Performance nicht unbedingt unsinnig von AMD, die sich entwickelnde Dynamik nicht weiter laufen zu lassen. Auch nur eine Theorie, klar, aber gegenteilige Annahmen zu deinen liefern eben auch eine, die inhärente Logik hat.
Loeschzwerg
2017-07-18, 20:22:58
Verglichen mit dem Ryzen Launch ist das Vorgehen zumindest reichlich seltsam. Wenn Vega der Oberhammer wird, kann NV genauso noch kontern (Preis runter)... Warum also so ruhig verglichen zu Ryzen?
Egal in welche Richtung es nun mit Vega geht, ich hoffe wir erhalten im Nachgang entsprechend Infos bezüglich des Warum :) Die Probleme bei der Entwicklung des R600 fand ich z.B. sehr spannend (A11 Revision => "Someone forgot to connect the pins that let the GPU communicate with the outside world.") und ist auch einer der Gründe warum ich diese Karte so gerne sammle (wie auch GF100; Stolzer Besitzer einer GTX 480 mit 512 SPs :cool:).
Cyphermaster
2017-07-18, 20:33:45
Das wäre die logische Vorgehensweise.Nicht "die" logische Vorgehensweise. Logische bzw. funktionierende Vorgehensweisen/Marketing-Strategien gibt es sehr viele. Es wäre die übliche, erwartete, "konservative" Vorgehensweise. Möglichkeiten, davon abzuweichen, gibt es genauso wie entsprechende mögliche Gründe, viele.
MadPenguin
2017-07-18, 20:38:13
Auch, wenn deine Theorie natürlich valide ist - jetzt weiter nichts zu sagen, ist schon durch das (wie man an Budapest sieht, vortrefflich funktionierende!) Halten der emotionalen Spannung und damit einer deutlichen Medienpräsenz in der Zielgruppe von Vorteil. Grade durch die mit der Zeit ohne Informationen immer weiter sinkenden Erwartungen (passiert zwangsläufig!) KANN RX Vega doch praktisch nur Image-mäßig gewinnen, solange die Karte mindestens eine Schippe auf die FE legt. Je mehr, desto mehr wirkt die RX dann wie ein Underdog, der tatsächlich den "Phoenix aus der Asche" schafft. Ein Bild, das man sich schon bei Ryzen sehr stark bemüht hat zu zeichnen.
Es wäre demnach auch bei guter RX-Performance nicht unbedingt unsinnig von AMD, die sich entwickelnde Dynamik nicht weiter laufen zu lassen. Auch nur eine Theorie, klar, aber gegenteilige Annahmen zu deinen liefern eben auch eine, die inhärente Logik hat.
Klingt natürlich auch richtig und möglich. Aber wäre positive emotionale Spannung nicht besser? Mit den Events wäre man trotzdem in den Schlagzeilen. Ich hoffe du hast am Ende trotzdem recht :)
[MK2]Mythos
2017-07-18, 20:45:10
Man kann sich eigentlich nur wünschen dass Vega was kann. Wenn ich mir die Preise der 1080ti so ansehe... Ich hab kein Bock Mondpreise für Hardware zu bezahlen.
Cyphermaster
2017-07-18, 20:51:15
Klingt natürlich auch richtig und möglich. Aber wäre positive emotionale Spannung nicht besser? Mit den Events wäre man trotzdem in den Schlagzeilen. Ich hoffe du hast am Ende trotzdem recht :)Hinter sowas steckt neben der Annahme, daß nicht das Marketing ggf. auch ein totaler Fail ist, viel Psychologie; und die Frage, in wie weit sowas von langer Hand so geplant vs. kurzfristig improvisiert ist. Allzu weit wage ich mich da psychologisch nicht aus dem Fenster zu lehnen. Und was bei AMD hinter den Kulissen wirklich läuft, weiß ich auch nicht.
Allerdings wäre es spätestens nach den Ergebnissen der FE im Gaming -meiner Ansicht nach- ungleich schwerer und aufwendiger geworden, eine positive emotionale Spannung auf gleichem Level entgegen dem Trend der Erwartungen aufzubauen. Jeglicher Leak mit guten Ergebnissen wäre mehr angezweifelt, denn geglaubt worden. Weil ja "klar" gewesen wäre, daß da "nur was für die Werbung irgendwo so hingedreht" worden ist, schließlich hat man ja "gesicherte" Infos von der FE, wie die RX werden wird...
Ich halte im Übrigen auch die eher konservativen Einschätzungen für wahrscheinlicher, als eine positive Überraschung; wenn auch nicht mit der gleichen, an Sicherheit grenzenden Wahrscheinlichkeit, wie mancher hier. Ich versuche nur, den mittlerweile laufenden Anti-Hype-Train ein wenig mehr auf den Schienen der Realität zu halten. ;)
Digidi
2017-07-18, 20:55:48
Um mal weiter zu spekulieren. Warum ist Vega in 3d CAD Programmen auf Level einer P6000 aber in 3d Games nicht? ;D
http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375-6.html
Sind die feature wie der Bining Rasterizer bei den 3d CAD vielleicht schon aktiviert? :rolleyes::wink:
Menace
2017-07-18, 21:02:00
Das liest du aus einer fotografierten, unkommentierten Geste von irgendeinem, dir unbekannten Gast auf dem Meeting, deren Zusammenhang nirgendwo klar herausgeht? :rolleyes:
Sorry, hätte wohl ein Sarkasmusschild hochhalten sollen. :rolleyes: Jenseits von Ironie und Sarkasmus lese ich gar nichts aus dem Bild; man könnte aber genauso viel hinein interpretieren, wie es hier Leute machen um Aussagen in beide Richtungen zu tätigen. Ist ja ein Speku-Thread und wenn es Spaß macht, dann macht ruhig weiter.
Das einzige, wofür es Sinn machte eine Vega zu testen war die Anwendungen für die FE-Version. Und da schlägt sich Vega sehr ordentlich. Erstes Ziel erreicht. Der Rest ist noch wilde Spekulation.
Edit:
Falls AMD Samsung Speicher nutzt, scheint ein Fehler nicht bei HBM zu liegen: https://www.computerbase.de/2017-07/samsung-hbm2-produktion/
Um mal weiter zu spekulieren. Warum ist Vega in 3d CAD Programmen auf Level einer P6000 aber in 3d Games nicht? ;D
http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375-6.html
Sind die feature wie der Bining Rasterizer bei den 3d CAD vielleicht schon aktiviert? :rolleyes::wink:
Im AutoCAD 2017 ist sie einen Tick langsamer als die 1080FE. Und nu? Dass die Karte irgendwo mal ihre Rohleistung ausspielen kann bestreitet keiner. Das konnte Fiji bei einigen Kirschen ebenso.
Digidi
2017-07-18, 21:08:34
Im AutoCAD 2017 ist sie einen Tick langsamer als die 1080FE. Und nu? Dass die Karte irgendwo mal ihre Rohleistung ausspielen kann bestreitet keiner. Das konnte Fiji bei einigen Kirschen ebenso.
Autocad 2017 ist kaum als 3d Programm zu bezeichnen. Autodesk bietet hier Inventor an. Eine 1080 ist genau so schnell wie ein P6000 :p
Interessant ist das man so hohe werte in Creo oder Solidworks nur erreichen kann wenn der Rasterizer aktiv ist.
Cyphermaster
2017-07-18, 21:08:39
Sorry, hätte wohl ein Sarkasmusschild hochhalten sollen. :rolleyes: Sry, my bad. Aber bei dem, was hier in den letzten Wochen so aus informativen Eingeweiden hin und her orakelt wird, hätte mich so ein Post im Ernst auch nicht besonders gewundert. :biggrin:
Auch hier wieder die vorhersehbare Ausrede. Es bleibt dabei, in Spezialfällen war auch Fiji schon schneller als eine Costum 9080Ti. Aber eben nur da.
Cyphermaster
2017-07-18, 21:19:55
Dass die Karte irgendwo mal ihre Rohleistung ausspielen kann bestreitet keiner. Das konnte Fiji bei einigen Kirschen ebenso.
Ist halt die Frage, ob die teils gemessene gute Leistung singuläre "Kirschen" sind, oder ob der Unterschied der DSBR ist. Letzteres ließe die Option offen, daß das Feature auch breit in Spielen ähnliche Unterschiede ausmachen kann (sobald es über den Treiber implementiert/aktiviert ist), weil es prinzipbedingt nicht von bestimmten Engines etc. abhängt.
So wie's Igor auch formuliert:
Also entweder hat AMD alle genüsslich über ein Jahr am Nasenring herumgeführt und entfesselt mittels des Ende Juli erwarteten Treibers für die Radeon RX Vega völlig neue Performance-Stürme mit einem dann auch nachweislich gut funktionierenden DSBR (Draw Stream Binning Rasterizer), oder aber es wird nach all den heißen Stunden der letzten Monate nichts weiter als ein lauer Abendwind.
wuzetti
2017-07-18, 21:21:41
Ich hab mal ganz schnell drübergerechnet, damit man Zahlen (= Fakten) hat:
In Solidworks liegt man bei 90,9% einer P6000
In Creo liegt man bei 122% einer P6000
In 3DS Max 2015 liegt man bei 97,76% einer P6000
Wenn man Autocad noch hinzunehmen möchte: Dort liegt man nicht so gut, kaum über dem Niveau der WX 7100, die aber auf Polaris basiert, oder?
Also unter den 3d Anwendungen ist hier eher Autocad der Ausreißer nach unten.
Daraus ableitend könnte man tatsächlich spekulieren, dass im Treiber für diese Anwendungen schon neue Features freigeschalten sind, im Gegensatz zum Spieletreiber/modus.
Oder anders gefragt: Wieviel Prozent liegt man hinter einer 1080TI in Spielen?
Screemer
2017-07-18, 21:35:44
Acad ist kein 3d. Das nutz nur die 2d bis von directx, früher directdraw. Das das nicht der shit ist auf Vega hat man doch schon auf den ersten Seite des reviews gesehen als die thg suit getestet wurde.
Ist halt die Frage, ob die teils gemessene gute Leistung singuläre "Kirschen" sind, oder ob der Unterschied der DSBR ist.
Zunaechst mal hielte ich das nicht fuer ein gutes, sondern ein sehr schlechtes Zeichen, denn das wuerde bedeuten, dass AMD offensichtliche Probleme hat und deswegen bei jedem Titel genau hinschauen und das binning manuell aktivieren muesste.
Wenn man die Ergebnisse anschaut, ist aber auch wieder offensichtlich, dass z.B. das gute Ergebnis bei Creo nicht am DSBR liegt. Wenn die Zahlen vergleichbar sind, ist selbst die WX 7100 (P10) in dem Test schneller als die P6000 und damals 3x so schnell wie eine M4000 - das ist GM204, in Spielen sind die Chips vergleichbar. Die Vega FE waere demnach wiederum nur 12% schneller als diese Karte. Das laeuft einfach vergleichsweise beschissen bei Nvidia:
http://media.bestofmicro.com/2/V/631255/original/03-Creo-3-Overall-Score.png
Vor allem bei den Graphic-Sub-Scores sieht die Quadro M4000 kein Land. Doch das war nicht immer so: Noch im Sommer diesen Jahrens haben wir lange mit AMD an einer Fehlerdiagnose getüftelt, denn Creo 3.0 lief in den aktuellen Versionen (ab M90) nicht stabil auf den damaligen FirePro-Karten. Mittlerweile hat der Treiber dieses Manko jedoch nicht nur ausgleichen, sondern mehr als wettmachen können.
http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272-3.html
Cyphermaster
2017-07-18, 22:09:04
Zunaechst mal hielte ich das nicht fuer ein gutes, sondern ein sehr schlechtes Zeichen, denn das wuerde bedeuten, dass AMD offensichtliche Probleme hat und deswegen bei jedem Titel genau hinschauen und das binning manuell aktivieren muesste.Nachdem schon länger klar ist, daß ein angekündigtes Feature im aktuellen Gaming-Treiber nicht aktiv ist, hatte ich das eher als Verbesserung zum aktuellen Stand der Performance gewertet.
BoMbY
2017-07-18, 22:11:27
Ich hab mal ganz schnell drübergerechnet, damit man Zahlen (= Fakten) hat:
In Solidworks liegt man bei 90,9% einer P6000
In Creo liegt man bei 122% einer P6000
In 3DS Max 2015 liegt man bei 97,76% einer P6000
Und beim Preis liegt die Vega FE bei ~20% einer Quadro P6000.
Digidi
2017-07-18, 22:13:27
Zunaechst mal hielte ich das nicht fuer ein gutes, sondern ein sehr schlechtes Zeichen, denn das wuerde bedeuten, dass AMD offensichtliche Probleme hat und deswegen bei jedem Titel genau hinschauen und das binning manuell aktivieren muesste.
Wenn man die Ergebnisse anschaut, ist aber auch wieder offensichtlich, dass z.B. das gute Ergebnis bei Creo nicht am DSBR liegt. Wenn die Zahlen vergleichbar sind, ist selbst die WX 7100 (P10) in dem Test schneller als die P6000 und damals 3x so schnell wie eine M4000 - das ist GM204, in Spielen sind die Chips vergleichbar. Die Vega FE waere demnach wiederum nur 12% schneller als diese Karte. Das laeuft einfach vergleichsweise beschissen bei Nvidia:
http://media.bestofmicro.com/2/V/631255/original/03-Creo-3-Overall-Score.png
http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272-3.html
Danke Iuno war nur ein These. Also noch weiter warten :D
Kriton
2017-07-18, 22:52:42
Jedenfalls wurden da scheinbar schon Customs gezeigt (mockups?).
Was ist mit den NBs? Eventuell schon APUs mit Vega, oder "nur" Ryzen? Wobei hier
https://scontent.cdninstagram.com/t51.2885-15/s640x640/sh0.08/e35/20184102_275390082943131_3621894252260229120_n.jpg
auf die Grafik verwiesen wird.
Aber hier werden ja lieber wilde Behauptungen aufgestellt (sprachlich als Fakten dargestellt) um dann zu behaupten, in einem Speku-Forum müsste man sprachlich nicht zwischen Fakten, Beweisen, Indizien, Annahmen, Spekulationen oder (wilden/abstrusen) Behauptungen differenzieren...:rolleyes:
crux2005
2017-07-18, 22:57:07
Die NBs hatten RX 580-er Grafikkarten.
edit: nvm, zu müde um zu lesen.
deekey777
2017-07-18, 23:07:24
Jedenfalls wurden da scheinbar schon Customs gezeigt (mockups?).
Was ist mit den NBs? Eventuell schon APUs mit Vega, oder "nur" Ryzen? Wobei hier
https://scontent.cdninstagram.com/t51.2885-15/s640x640/sh0.08/e35/20184102_275390082943131_3621894252260229120_n.jpg
auf die Grafik verwiesen wird.
Aber hier werden ja lieber wilde Behauptungen aufgestellt (sprachlich als Fakten dargestellt) um dann zu behaupten, in einem Speku-Forum müsste man sprachlich nicht zwischen Fakten, Beweisen, Indizien, Annahmen, Spekulationen oder (wilden/abstrusen) Behauptungen differenzieren...:rolleyes:
Wenn ich mich nicht irre, ist in der externen Box eine RX 480 (https://twitter.com/Radeon/status/887301656886616064), hier geht's eben um die externe Box von Asus. Dann wurde auch ein Laptop mit dem R7 1700 gezeigt.
Hier ein Siebzehnzöller von HP mit der RX 580, https://gaming.radeon.com/en-us/hp-omen-17-laptop-freesync/?sf98853596=1
Das linke System (https://photos.google.com/b/109541559665785153572/share/AF1QipO3WQli3EJgiN42EsfAFWBn7cKgLmtJ-WB1aRS0KyrH_LQJEPY5nhE7sdHonPakug?key=eHRxcHlyUUNhTjQwWUViN0xONWM5UGJSQVJ4Mi13) (mit FreeSync Monitor (https://geizhals.de/asus-designo-curve-mx34vq-90lm02m0-b01170-a1565011.html)) war angeblich spürbar schneller als das rechte System (https://photos.google.com/share/AF1QipOzNpVi7WDXvdGiQqR-cpDvDgoDs_i6DnteT7y6olj9Uq8QwRe5iZx_r62Xz6GWAQ?key=UEVNM1ZDeGZBMFNJN3FNZWt0aTFOU UF2eUFIUFdn) (mit G-Sync Monitor (https://geizhals.de/asus-rog-swift-pg348q-90lm02a0-b01370-a1276261.html)).
Bei Reddit wird von einem Besucher der Veranstaltung behauptet, die RX Vega wurde lediglich einer GTX1080 gegenübergestellt. Andere Besucher sagen es wurden überhaupt keine Infos von AMD bekanntgegeben.
Troyan
2017-07-18, 23:35:38
Hier gibt es ein Vergleich mit Battlefield 1 und der Frontier Edition mit GTX1080: https://www.youtube.com/watch?v=0PrSpv6F9aE&t=31s
Unter DX12 ist die Karte mit 1600Mhz rund 10% schneller.
/edit: Da DX12 weiterhin für nVidia-Karten kaputt, erklärt das, wieso ein Vega-System sich "smoother" anfühlen kann.
Kartenlehrling
2017-07-18, 23:44:17
Das linke System (https://photos.google.com/b/109541559665785153572/share/AF1QipO3WQli3EJgiN42EsfAFWBn7cKgLmtJ-WB1aRS0KyrH_LQJEPY5nhE7sdHonPakug?key=eHRxcHlyUUNhTjQwWUViN0xONWM5UGJSQVJ4Mi13) (mit FreeSync Monitor (https://geizhals.de/asus-designo-curve-mx34vq-90lm02m0-b01170-a1565011.html)) war angeblich spürbar schneller als das rechte System (https://photos.google.com/share/AF1QipOzNpVi7WDXvdGiQqR-cpDvDgoDs_i6DnteT7y6olj9Uq8QwRe5iZx_r62Xz6GWAQ?key=UEVNM1ZDeGZBMFNJN3FNZWt0aTFOU UF2eUFIUFdn) (mit G-Sync Monitor (https://geizhals.de/asus-rog-swift-pg348q-90lm02a0-b01370-a1276261.html)).
das sind doch keine 21:9 Monitore. :confused:
ok auf dem zweiten Bild stimmt das verhältnis, 21:9 .
Rincewind
2017-07-18, 23:48:03
Dieser Event war ein richtig geiler Bluff, nix gezeigt, aber alle reden drüber. :biggrin:
nairune
2017-07-18, 23:49:36
das sind doch keine 21:9 Monitore (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11434022&postcount=1266). :confused:
Doch, sind sie. Auflösung wurde auch von einem der Anwesenden auf reddit bestätigt:
https://www.reddit.com/r/Amd/comments/6o0f1k/report_from_budapest_they_are_showcasing_2_vega/
Palpatin
2017-07-19, 09:10:38
Der Rasterizer ist eine Effizienzbombe, so einfach ist das nicht, wie du das jetzt machst. Leider ist er aber nicht aktiv, deshalb liegt der Verdacht nahe, dass er kaputt ist. Um das nochmal zu betonen: Das ist das Hauptfeature, das Maxwell effizient gemacht hat! Vega ist auch exakt darauf ausgerichtet. Er hätte kaum in der Bandbreite hängen dürften im Gegensatz zu Polaris, tut er aber wie hulle. Er hätte ca. 2,5 fache Leistung als Polaris abrufen müssen, tut er aber nicht. Das passt nicht. Wie gesagt, diese Leistung hätte man mit einem 64CUs Polaris mit 512Bit GDDR5 auch geschafft.
Die Frage ist halt wenn der wirklich kaputt ist und VEGA massiv an der Bandbreite verreckt warum geht man dann mit dem GPU Takt in die Vollen. Bringt ja kaum was wenn keine Bandbreite da ist. Ein 1,2-1,3 GHZ VEGA mit niedriger Vcore bei ~200 Watt und Leistung Oberhalb der 1070 wäre doch dann deutlich sinnvoller gewesen.
Die Frage ist halt wenn der wirklich kaputt ist und VEGA massiv an der Bandbreite verreckt warum geht man dann mit dem GPU Takt in die Vollen. Bringt ja kaum was wenn keine Bandbreite da ist. Ein 1,2-1,3 GHZ VEGA mit niedriger Vcore bei ~200 Watt und Leistung Oberhalb der 1070 wäre doch dann deutlich sinnvoller gewesen.
Weil der 08/15 COD Spieler sich über Sachen wie Strom und Sinnhaftigkeit keine Gedanken macht?
Da werden höchstens Benchmarks angesehen und da zählt eben jedes Prozent.
dargo
2017-07-19, 09:26:28
Die Frage ist halt wenn der wirklich kaputt ist und VEGA massiv an der Bandbreite verreckt warum geht man dann mit dem GPU Takt in die Vollen. Bringt ja kaum was wenn keine Bandbreite da ist.
Noch irrsinniger wirkt das ganze wenn RX Vega Gaming mit bis zu 13+ TFLOPs beworben wird. Das deutet nämlich auf >1,6Ghz GPU hin.
mkh79
2017-07-19, 09:34:09
Ich finde es übrigens auch sehr schade, dass AMD bei so einer Aktion so kurz vor Erscheinen der Karte wieder keinerlei Werte zeigt.
Lässt nichts Gutes erahnen.
Dass da ein BIOS oder ein in letzter Minute gestrickter Treiber noch was bringt, steht zwar im Raum, aber ich weiß nicht, für wie wahrscheinlich ich das (noch) halten soll.
Korvaun
2017-07-19, 09:42:47
BIOS & Treiber müssen ja wohl 2 Wochen vor Vorstellung der Karte mindestens als "Release-Candidate" vorliegen. Also voll funktionstüchtig ohne grobe Fehler und einigermaßen optimiert. Feintuning wird wie immer erst im Einsatz beim Kunden passieren aber das ist ja völlig normal.
Mangel76
2017-07-19, 09:55:31
Die Frage ist halt wenn der wirklich kaputt ist und VEGA massiv an der Bandbreite verreckt warum geht man dann mit dem GPU Takt in die Vollen. Bringt ja kaum was wenn keine Bandbreite da ist. Ein 1,2-1,3 GHZ VEGA mit niedriger Vcore bei ~200 Watt und Leistung Oberhalb der 1070 wäre doch dann deutlich sinnvoller gewesen.
Weil VEGA FE eher eine Pro-Karte ist. Mit geringerem Takt hast du natürlich auch geringere Leistung. Und für diesen Einsatz sieht sie doch ganz gut aus, siehe Igors Test. Zumindest für einen Teil der Zielgruppe sind eventuell Features wie DSBR nicht so entscheidend bzw. bringen in ihrer Anwendung keine zusätzliche Leistung.
Und was passiert, wenn das bisher gesehene wirklich das Leistungsvermögen von VEGA bei Spielen ist? Mit 1,2 GHz bist du kaum noch schneller als Fiji, nur etwas sparsamer. Das gäbe vielleicht einen Aufschrei ;D
Aber im Ernst: seit gefühlt 20 Seiten nur noch MiMiMi von links, MiMiMi von rechts, und alles bei 0 neuer Information. Ist im Moment echt anstrengend hier zu lesen. Wartet es doch einfach ab! Schon erstaunlich, was viele hier so "wissen" über Firmeninterna, Marketingstrategien, technische Hintergründe und Treiberentwicklung :mad:
Malabolge
2017-07-19, 10:04:22
Bios & Treiber sind theorhetisch ja schon seit der FE "fertig".
"Freischalten" kann mann immer noch.
Selbst wenn die RX "nur" die 1080TI erreicht und dafür der Preis stimmt,wäre das ein "Zeichen" gegen den Preiswahnsinn.
Immer dran denken,NVidia müßtze jetzt über den Preis kontern. Und davon habemn alle was !
Und nach den letzten Launchs von AMD kann ich verstehen das AMD diesmal extrem dichthält.
Wie lief das den mit der 1060/1070 so "kurz" vor Polaris ? NVidia hätte das nicht so "sicher" und beruhigt bringen können,wenn Sie die LEistung der Polaris nicht so genau gewusst hätten.
Diesmal will AMD eben auf Nummer sicher gehen, das nicht kurz nach Launch plötzlich wieder "Konkurrenz" Neu auf den Markt kommt.
MadPenguin
2017-07-19, 10:05:01
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a5
PCGH mit einem Update bezüglich Spieleleistung in einer ganz speziellen Demo. Würde genial ausschauen, wenn es überall so wäre.
Versteh langsam nur Bahnhof bei Vega... :eek:
X-Bow
2017-07-19, 10:08:17
Interessant finde ich die +71% gegenüber Fiji interessant bei der Demo 2nd Stage Boss from Tokyo Game Fest 2016. http://www.pcgameshardware.de/Vega-C...-1232684/3/#a5
Kann jemand hier erklären an was es liegen könnte? Also weiß hier jemand wie die Demo berechnet wird damit es zu solch einem Leistungssprung kommt?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.