PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17

Kriegsgeier
2019-02-08, 10:08:34
Kennt sich einer mit Cinema 4D aus?
Wie ist die Karte dort einzuordnen?

Daredevil
2019-02-08, 10:19:55
http://www.pcgameshardware.de/screenshots/original/2019/02/AMD-Radeon-VII_Sustained-clock-GPU-boost-log_Anno-2070-4K-1-pcgh.png

sieht aus als könnten die min fps ordentlich profitiert haben. idr sinkt der takt ja gerade in besonders fordernden szenen, in denen man ohnehin die wenigsten fps hat.
da könnten also durchaus 10% bessere minfps, wenn man nicht den durchschnittlichen, sondern aktuellen takt zu grunde legt, erreicht werden,
So viele fordernden Szenen in der Gleichmäßigkeit wird es wohl auch nicht gegeben haben, wie auf dem Graph angegeben.
Das sieht für mich aus, als würde sie achterbahnmäßig in der Temp oder Power Limit rasseln, wohl eher Power Limit.

HTB|Bladerunner
2019-02-08, 10:47:55
Habt Ihr euch mal den Testbericht von "Igor" angeschaut?

Die Audio-Analyse des Lüfter-Betriebsgeräuschs finde ich super. Auch der Hinweis, dass die Drehzahlen der 3 Lüfter leicht abweichen und sich dadurch (zumindest für mich) unangenehme, wellenartige Störgeräusche ergeben, fand ich äußerst hilfreich. Solche Eigenheiten werden in der Regel immer unterschlagen!

unl34shed
2019-02-08, 10:59:53
Das wirst du bei jedem Multi Lüfter Design haben, dass die Drehzahlen nicht 100% identisch sind. Liegt zum einen an der Ansteuerung und zum anderen, dass man sich das Geld für einen Quarz spart und es wahrscheinlich eine eher ungenaue Taktquelle gibt.

gbm31
2019-02-08, 11:00:14
So, meine wurde gerade versendet

Leider wird sie auf Arbeit geliefert, also nichts mit Wochenende :D

Ich habe von MF die Mitteilung, dass sie die bestellte und bezahlte MSI nicht liefern können und kein neues Lieferdatum bekannt ist, und sie mir dafür eine Sapphire senden.

Mal schauen wann die kommt und wie sehr sie mir lautstärkemäßig auf den Wecker geht.

Ansonsten geht sie halt wieder und die V56 Pulse bleibt weiter - die ist super!

Timbaloo
2019-02-08, 11:04:47
Das wirst du bei jedem Multi Lüfter Design haben, dass die Drehzahlen nicht 100% identisch sind. Liegt zum einen an der Ansteuerung und zum anderen, dass man sich das Geld für einen Quarz spart und es wahrscheinlich eine eher ungenaue Taktquelle gibt.
Wozu braucht man dafür denn ein Quartz? Das Problem ist ja nicht dass man 2010U/min statt 2000U/min rennt, sondern dass die 3 Lüfter zueinander nicht synchronisiert sind...

Daredevil
2019-02-08, 11:05:36
Ich hab mir nochmal ein paar Reviews angeschaut und Videos durchforstet und ein endgültiges Fazit angeben ist heute wohl noch schwierig.

1. Das Bios ist zu sehr auf Temperatur getrimmt, AMD arbeitet anscheinend an eine optimierte Version.
2. Der Treiber braucht ebenfalls noch deutlich mehr Pflege.
3. AutoOC und AutoUV werden anscheinend ebenfalls noch überarbeitet, was die Karte sicherlich OOTB besser machen könnte.

Ich hoffe einfach inständig, dass AMD bis Sommer/Herbst den Treiber mehr optimiert und das Custom Lösungen auf den Markt kommen mit einem sinnvollerem Bios, welche die Radeon VII auf Höhe der RTX2080 positionieren können für einen Preis, welcher sich deutlich nach unten von Nvidia abhebt. 7nm Fertigung wird vielleicht ja auch mit der Zeit günstiger bzw. AMDs Auftragslage größer.

Der neueste Nvidia Treiber beschleunigt Turing nochmals um ~2-4%, die Ergebnisse sind also noch schlechter zu Erwarten bei CB.
Echt schade, dass es nicht mehr "Naja, die hat halt Freesync" als Argument gibt, da hat Nvidia AMD ordentlich in den Brei gespuckt.

SKYNET
2019-02-08, 11:07:13
So viele fordernden Szenen in der Gleichmäßigkeit wird es wohl auch nicht gegeben haben, wie auf dem Graph angegeben.
Das sieht für mich aus, als würde sie achterbahnmäßig in der Temp oder Power Limit rasseln, wohl eher Power Limit.

wenn du die tests gelesen hättest, würdest du wissen, das es eher das templimit ist... weil die karte nen perverses temp offset hat(27° warens glaub ich)... darum drehen die lüfter auch die ganze zeit auf turbine. :frown:

hoffe das wird asap gefixt.

edit, hast es doch gelesen ;)

w0mbat
2019-02-08, 11:12:19
Dafür, dass die Radeon VII "nur" eine Vega60 in 7nm ist, finde ich die Leistung ganz odentlich. Mit etwas Handarbeit beim UV sicherlich eine Option wenn man in 4K zockt und keine 1000€+ für ne 2080 Ti ausgeben will.

Aber machen wir uns nichts vor, ein Glücksgriff ist sie sicherlicht nicht. Ich hoffe ja inständig auf Navi, bzw. auf die next-gen 7nm Nvidia Karten. Ich will eigentlich drigend aufrüsten, aber eine 2 1/2 Jahre alte Paascal Karte finde ich nicht so toll, Turning ist viel zu teuer und Polaris ist kein wirkliches Upgrade.

Hat jemand ne 1070 für 200€? :D

Sven77
2019-02-08, 11:20:53
Evtl krähen dann schon die "Hähne", die heute für teuer Geld eine 8 GB-Karte kaufen ein wenig.

In 3 Jahren hab ich nicht mehr die Karte im System die jetzt drin ist :rolleyes:

BK-Morpheus
2019-02-08, 11:21:42
Dafür, dass die Radeon VII "nur" eine Vega60 in 7nm ist, finde ich die Leistung ganz odentlich. Mit etwas Handarbeit beim UV sicherlich eine Option wenn man in 4K zockt und keine 1000€+ für ne 2080 Ti ausgeben will.

Aber machen wir uns nichts vor, ein Glücksgriff ist sie sicherlicht nicht. Ich hoffe ja inständig auf Navi, bzw. auf die next-gen 7nm Nvidia Karten. Ich will eigentlich drigend aufrüsten, aber eine 2 1/2 Jahre alte Paascal Karte finde ich nicht so toll, Turning ist viel zu teuer und Polaris ist kein wirkliches Upgrade.

Hat jemand ne 1070 für 200€? :D
Ich hätte meine 1070 für knapp über 200€ gerne vertickt, aber aus den von dir genannten Gründen, warte ich auch weiter ab.
Wenn ich schon eine neue Karte kaufe, würde ich mir in etwa 1080TI Leistung erhoffen (sonst lohnt sich das Upgrade imho zu wenig), aber preislich erwarte ich den Spaß dann für deutlich unter 500€.

unl34shed
2019-02-08, 11:27:52
Wozu braucht man dafür denn ein Quartz? Das Problem ist ja nicht dass man 2010U/min statt 2000U/min rennt, sondern dass die 3 Lüfter zueinander nicht synchronisiert sind...

Da die immer(miestens?) an dem selben 4pin pwm hängen kannst du da schlecht synchronisieren. Daher würde eine relativ genaue Taktquelle helfen um den Fehler zu eliminieren.

Ja, wenn man es richtig macht wäre ein mehrkanäliger pwm-Controller, der die einzelnen Drehzahlen regelt sinnvoller.

Ein synchronisieren Signal gibt es denke eher selten bei den Controllern.

Ätznatron
2019-02-08, 11:33:38
Hat jemand ne 1070 für 200€? :D

Ja, könnte ich machen:

KFA2 GTX 1070 EX OC
(http://www.kfa2.com/kfa2/graphics-card/10-series/kfa2-geforcer-gtx-1070-exoc.html)

Und zwar dann, sobald meine neue Graka angekommen ist.

Also, wenn du möchtest..PN. ;)

dargo
2019-02-08, 11:36:58
In 3 Jahren hab ich nicht mehr die Karte im System die jetzt drin ist :rolleyes:
Und dann schmeißt du die in den Müll? Welche Karte hat wohl beim Verkauf mehr Interesse? Die, wo der Speicher dann knapp wird oder die andere?

Grendizer
2019-02-08, 11:40:23
Und dann schmeißt du die in den Müll? Welche Karte hat wohl beim Verkauf mehr Interesse? Die, wo der Speicher dann knapp wird oder die andere?


Bei mir geht es in die beiden PCs meiner Töchter :biggrin: ... und für Minecraft und die Sims 4 braucht es keine 16 Gb

Daredevil
2019-02-08, 11:40:52
Sei dir mal bei Minecraft Textur Paketen nicht so sicher. :D

Dural
2019-02-08, 11:56:51
Die Diskussion wieder :rolleyes: vor allem ein Grossteil der Gamer das Wort Radeon nicht mal kennen und immer nach GeForce verlangen...

Das ding wird in 3 Jahren völlig veraltet sein, jede 200.- karte wird da mehr Leistung haben, bei 2x weniger verbrauch. Das argument mit den 16GB ist einfach lächerlich. Schaut doch nur mal an wo die Fury X aktuell liegt, das ding ist kann man Entsorgen...

dargo
2019-02-08, 12:03:33
Eine Fury X hatte viel Speicher? Interessant... ;D

Savay
2019-02-08, 12:04:06
Oh man ey...die Fury X ist in der Beziehung wohl das dämlichste Argument das man sich überhaupt ausdenken kann!!! :facepalm:
Bei der wurde zu Release schon prophezeit das der RAM mittelfristig viel zu knapp kalkuliert ist...übrigens habe ich u.a. deswegen auch auf die Vega gewartet. Bei denen passt die Leistung nämlich ganz gut zum Speicherausbau...und der HBCC kann den Rest scheinbar relativ gut abfedern.

Bei den 390ern mit 8GB siehts im Quervergleich...oh welch wunder...übrigens mal wieder ganz anders aus! :rolleyes:
Die sind verglichen mit gleichteuren nV Karten seinerzeit ein echter Glücksgriff....was klar dafür spricht das mehr Speicher als auf einer durschn. Karte steckt, perspektivisch einfach immer ein Argument ist und bleibt.

Davon abgesehen ist die VII generell etwas zu teuer und zu laut....und weit außerhalb dessen was ich bereit bin für sowas kurzlebiges wie eine GPU zu berappen... (max. 500-550€)
Ist IMHO halt eher ein Liebhaberstück wie die Frontier!
Etwas anderes als eine Art Frontier Edition 2.0 war aber ehrlich gesagt auch gar nicht zu erwarten...und wer behauptet das auf breiter Front tatsächlich etwas erwartet wurde lügt sich selbst nur die hucke voll!

akuji13
2019-02-08, 12:04:14
Welche Karte hat wohl beim Verkauf mehr Interesse? Die, wo der Speicher dann knapp wird oder die andere?

Die wo NV drauf steht. :wink:

Ob das logisch ist sinnvoll ist spielt dabei keine Rolle, ich verkaufe einen teuren G-Sync Monitor auch schneller und einfacher als einen mit FS.

SKYNET
2019-02-08, 12:06:18
Dafür, dass die Radeon VII "nur" eine Vega60 in 7nm ist, finde ich die Leistung ganz odentlich. Mit etwas Handarbeit beim UV sicherlich eine Option wenn man in 4K zockt und keine 1000€+ für ne 2080 Ti ausgeben will.

Aber machen wir uns nichts vor, ein Glücksgriff ist sie sicherlicht nicht. Ich hoffe ja inständig auf Navi, bzw. auf die next-gen 7nm Nvidia Karten. Ich will eigentlich drigend aufrüsten, aber eine 2 1/2 Jahre alte Paascal Karte finde ich nicht so toll, Turning ist viel zu teuer und Polaris ist kein wirkliches Upgrade.

Hat jemand ne 1070 für 200€? :D


hol dir ne V56 und gut ist... :smile:

SKYNET
2019-02-08, 12:07:50
Die Diskussion wieder :rolleyes: vor allem ein Grossteil der Gamer das Wort Radeon nicht mal kennen und immer nach GeForce verlangen...

Das ding wird in 3 Jahren völlig veraltet sein, jede 200.- karte wird da mehr Leistung haben, bei 2x weniger verbrauch. Das argument mit den 16GB ist einfach lächerlich. Schaut doch nur mal an wo die Fury X aktuell liegt, das ding ist kann man Entsorgen...

auf RX590 leistung... mit halben speicher ;D

dargo
2019-02-08, 12:18:54
Die wo NV drauf steht. :wink:

Nö... ich hatte damals für meine R9 390 mehr bekommen als bei vergleichbarer Maxwell. ;)

Pirx
2019-02-08, 12:19:36
...
Bei der wurde zu Release schon prophezeit das der RAM mittelfristig viel zu knapp kalkuliert ist...übrigens habe ich u.a. deswegen auch auf die Vega gewartet. Bei denen passt die Leistung nämlich ganz gut zum Speicherausbau...und der HBCC kann den Rest scheinbar relativ gut abfedern.
...
Naja einige meinten damals afair schon daß der hohe HBM(:eek:)-Speicherdurchsatz auf magische Weise die magere Speichermenge ausgleichen könnte.;)


...
Bei den 390ern mit 8GB siehts im Quervergleich...oh welch wunder...übrigens mal wieder ganz anders aus! :rolleyes:
Die sind verglichen mit gleichteuren nV Karten seinerzeit ein echter Glücksgriff....was klar dafür spricht das mehr Speicher als auf einer durschn. Karte steckt, perspektivisch einfach immer ein Argument ist und bleibt.
...Nach Meinung einiger müsste doch Hawaii viiiel zu langsam für diese unglaubliche Speichermenge sein.:|

Nene bin da ganz bei dir, die doppelte RAM-Menge im Vergleich zu Konkurrenz war und ist ein schlagendes Argument.

Daredevil
2019-02-08, 12:23:15
Da Navi wohl kaum mit 1TByte/s kommt und von 7nm Nvidia noch nichts zu sehen ist, ist die Radeon VII natürlich eine sehr gute Investition für die Zukunft, da es schlicht die beste ETH Karte auf dem Markt ist, sogar weit vor der Titan V.
Lass den ETH Kurs im laufe von 2019 doch mal wieder nach oben schaukeln, dann kannst du die Karte im Winter für 1000€+ verkaufen...

Sven77
2019-02-08, 12:25:04
Also ich kaufe Hobbygegenstände die einen 3stelligen Betrag kosten nicht mit dem Gedanken an Wiederverkauf im Hinterkopf.. ist ja keine Immobilie :rolleyes:

dargo
2019-02-08, 12:26:07
Das ding wird in 3 Jahren völlig veraltet sein, jede 200.- karte wird da mehr Leistung haben, bei 2x weniger verbrauch.
Steht das in deiner Glaskugel wieder? Mal kurz überlegen... aktuell kostet eine GTX1060 6GB 200+€. Vor fast 3,5 Jahren kam die GTX980 TI. Wo ist die Pascal GPU schneller als die genannte Maxwell GPU? Die Zukunft wird noch düsterer aussehen denn die Steigerungszyklen werden immer länger.

Edit:
Im letzten Vergleich der CB erreicht die 1060 nicht mal die 980.
https://www.computerbase.de/2018-09/amd-nvidia-grafikkarten-generationen-vergleich/#diagramm-performancerating-fps-3840-2160

Daredevil
2019-02-08, 12:28:26
Also ich kaufe Hobbygegenstände die einen 3stelligen Betrag kosten nicht mit dem Gedanken an Wiederverkauf im Hinterkopf.. ist ja keine Immobilie :rolleyes:
Zwingt dich ja auch keiner dazu, deinen Kopf zu benutzen. :redface:
Ich habe seit 4 Jahren keinen Euro mehr extra für Grafikkarten ausgegeben und habe mich von einer R9 390 auf eine 2080ti hoch "getradet" und hatte außerordentlich Spaß beim basteln mit vielen verschiedenen Grafikkarten und letztere habe ich Neu für 850€ bekommen inkl. 2 Spielen...
Man kann auch ein wenig aufpassen, dass es kein großes Loch in der Geldbörse wird, wieso auch nicht? Hat man mehr Spaß bei neuem Kram.

Für ~600€ hätte ich auch bei der VII zugeschlagen, so muss ich halt jetzt erst auf ein vernünftiges Angebot warten.

akuji13
2019-02-08, 12:28:33
Nö... ich hatte damals für meine R9 390 mehr bekommen als bei vergleichbarer Maxwell. ;)

Eine Fliege macht keinen Sommer. :wink:

aufkrawall
2019-02-08, 12:34:52
Eine Fliege macht keinen Sommer. :wink:
Ich würde eher sagen, man kann wegen des Minings mit seinen Vorhersagen völlig daneben liegen. Ich tendiere aber derzeit auch dazu, dass sich dieser Schwachsinn in der Form nicht wiederholen wird.

gbm31
2019-02-08, 12:40:44
Irgendwie ist es schon lustig...

Niemand von euch hat das Ding geholt oder augenscheinlich Interesse daran, aber füllt hier Seite um Seite um den anderen zu überzeugen.

So ein bisschen kann ich die RTNix Käufer verstehen, die sich in den Threads beschwert haben... :-D

Mir tun die 729€ weh. Meinem Konto nicht. Aber meiner Einstellung, für eine Grafikkarte soviel Geld auszugeben.
Entsprechend mögliches Audiotuning (ohne weiter Geld hinterherzuwerfen) vorausgesetzt wird die Karte aber wohl einige Aufrüstzyklen vermeiden lassen.
Ansonsten ist halt mal eine Rechnung nicht aufgegangen. So what.

Bellspinder
2019-02-08, 12:40:54
Ich weiß nicht warum die R390 immer gelobt werden. Ja sie hat relativ gut mithalten können für ihr Alter, aber man muss sich immer vor Augen halten, dass die 390er abartig viel Strom fressen, im Verhältnis zur Leistung noch deutlich mehr als die Vegas.

Daredevil
2019-02-08, 12:43:08
https://abload.de/img/unbenannt0tknz.png

Grrrr.

SKYNET
2019-02-08, 12:44:46
Irgendwie ist es schon lustig...

Niemand von euch hat das Ding geholt oder augenscheinlich Interesse daran, aber füllt hier Seite um Seite um den anderen zu überzeugen.

So ein bisschen kann ich die RTNix Käufer verstehen, die sich in den Threads beschwert haben... :-D

Mir tun die 729€ weh. Meinem Konto nicht. Aber meiner Einstellung, für eine Grafikkarte soviel Geld auszugeben.
Entsprechend mögliches Audiotuning (ohne weiter Geld hinterherzuwerfen) vorausgesetzt wird die Karte aber wohl einige Aufrüstzyklen vermeiden lassen.
Ansonsten ist halt mal eine Rechnung nicht aufgegangen. So what.


bei mir isses derzeit 50/50... die paar % weniger leistung als meine getaktete 1080Ti stören weniger, aber dass das ding sonen föhn schon bei kleiner last ist... ihhh und halt das treiber bug dingens wegen OC

aufkrawall
2019-02-08, 12:46:46
Ich weiß nicht warum die R390 immer gelobt werden. Ja sie hat relativ gut mithalten können für ihr Alter, aber man muss sich immer vor Augen halten, dass die 390er abartig viel Strom fressen, im Verhältnis zur Leistung noch deutlich mehr als die Vegas.
Ahh, ein 440mm² 28nm Die hat ein schlechteres Perf/W-Verhältnis als neuere Chips. Gut, dass du uns das nochmal mitteilst. :idea:

Rancor
2019-02-08, 12:48:42
Die Diskussion wieder :rolleyes: vor allem ein Grossteil der Gamer das Wort Radeon nicht mal kennen und immer nach GeForce verlangen...

Das ding wird in 3 Jahren völlig veraltet sein, jede 200.- karte wird da mehr Leistung haben, bei 2x weniger verbrauch. Das argument mit den 16GB ist einfach lächerlich. Schaut doch nur mal an wo die Fury X aktuell liegt, das ding ist kann man Entsorgen...

Du weisst schon das die Fury X eher ein Beispiel dafür ist, was passiert, wenn eine eigentlich schnelle Karte zu wenig Speicher hat?

Ich würde mal sagen, das war einer der größten Fails im 3DC.... ;D

Zwingt dich ja auch keiner dazu, deinen Kopf zu benutzen. :redface:
Ich habe seit 4 Jahren keinen Euro mehr extra für Grafikkarten ausgegeben und habe mich von einer R9 390 auf eine 2080ti hoch "getradet" und hatte außerordentlich Spaß beim basteln mit vielen verschiedenen Grafikkarten und letztere habe ich Neu für 850€ bekommen inkl. 2 Spielen...
Man kann auch ein wenig aufpassen, dass es kein großes Loch in der Geldbörse wird, wieso auch nicht? Hat man mehr Spaß bei neuem Kram.

Für ~600€ hätte ich auch bei der VII zugeschlagen, so muss ich halt jetzt erst auf ein vernünftiges Angebot warten.

Weil du Karten während des Minig Booms teuer verkaufen konntest, als du sie eingekauft hast. Das ist ja nun beileibe nicht der Normalfall und wird sich auch hoffentlich nicht mehr wiederholen.

Kriegsgeier
2019-02-08, 12:52:29
Was würden denn bei der RTX2080 zusätzliche 8 GB GDDR verbrauchen?

Denn wenn wir die Effizienz vergleichen dann bitte auch 16GB vs. 16GB

dargo
2019-02-08, 12:57:54
Ich weiß nicht warum die R390 immer gelobt werden. Ja sie hat relativ gut mithalten können für ihr Alter, aber man muss sich immer vor Augen halten, dass die 390er abartig viel Strom fressen, im Verhältnis zur Leistung noch deutlich mehr als die Vegas.
Ist nur kompletter Humbug. Meine R9 390 lag bei 210W, ohne UV. :rolleyes: Und ja... ich weiß, dass es bei Grenada auch Säufer gab.

foenfrisur
2019-02-08, 13:13:30
update mit hbcc

und weitere 16gb Vorteile gezeigt.

https://www.computerbase.de/2019-02/amd-radeon-vii-test/5/#diagramm-wolfenstein-2-8-gb-vs-16-gb-3840-2160-bild-streaming-extrem

hab immer noch keine Versandbestätigung von mf ;(

mfg

SKYNET
2019-02-08, 13:16:55
update mit hbcc

und weitere 16gb Vorteile gezeigt.

https://www.computerbase.de/2019-02/amd-radeon-vii-test/5/#diagramm-wolfenstein-2-8-gb-vs-16-gb-3840-2160-bild-streaming-extrem

hab immer noch keine Versandbestätigung von mf ;(

mfg

die einzige bestätigung die du bekommst, ist das sie dein geld haben und die karten out of stock sind, und du evtl. eine andere bekommst oder warten musst ;D

bnoob
2019-02-08, 13:34:21
https://i.imgur.com/pMPRdpU.png

:)

gbm31
2019-02-08, 13:48:27
Igor könnte mal testen wie die Karte ohne die Blende kühlt - ich denke das bringt mehr als den Radeon-Schriftzug wegzuflexen... ;-)

TwoBeers
2019-02-08, 13:55:03
Mit der Verfügbarkeit sieht's ja echt wieder ganz stark aus. Im ProShop steht was vom 01.03.

Wenn Daredevil Recht behält und die Karte wirklich so geil für Mining ist, dann sehen wir die so schnell nicht mehr in den Shops.
Wer sie für 729,- bekommen hat, kann sich glücklich schätzen .. jetzt geht's wohl eher >800,-.

Zur Leistung: War so zu erwarten, nur der Lüfter überrascht negativ. Mit UV ist wie jedes Mal bei AMD einiges rauszuholen. An sich ein sehr interessantes Stück Technik, nur leider schmerzt der Preis zu viel.

bnoob
2019-02-08, 13:57:08
Igor könnte mal testen wie die Karte ohne die Blende kühlt - ich denke das bringt mehr als den Radeon-Schriftzug wegzuflexen... ;-)
Dürfte für den Popo sein, meine alte Powercolor 290X TurboDuo hatte ohne Blende schlechtere Temps, weil die Luftströme nicht mehr so gut geführt wurden.

Und es wird ja wohl ein TUL Kühler sein.

joe kongo
2019-02-08, 14:33:00
Wann kommt Navi, doch dieses Jahr?
Hab keine Lust wieder bei der Kühlung rumzuschrauben, Phasen sind auch weggelassen worden (zum hochprügeln), brauch ich irgendwie nicht für den Preis.

Taigatrommel
2019-02-08, 14:35:21
Meine MSI wurde inzwischen doch von MF verschickt, vermutlich gab es da tatsächlich noch die eine oder andere Stornierung aufgrund der Testergebnisse.

Generell zeigt sich auf jeden Fall die Wahrheit der Gerüchte im Vorfeld: Die Verfügbarkeit ist schlecht, die Preise hoch und diese werden durch das knappe Angebot wohl eher noch beflügelt. Gefühlt ist der Launch noch knapper begrenzt als der Launch der ersten Vega Generation.

Wann kommt Navi, doch dieses Jahr?
Hab keine Lust wieder bei der Kühlung rumzuschrauben, Phasen sind auch weggelassen worden (zum hochprügeln), brauch ich irgendwie nicht für den Preis.
Es soll wohl im zweiten Halbjahr etwas bezüglich Navi passieren, was genau ist natürlich fraglich.
Die weggelassenen Phasen sind IMHO wirklich kein Beinbruch und sollten auch für Übertakter mit Wasserkühlungen kein Problem darstellen. Es gibt ja diverse Videos und Artikel die sich mit der Spannungsversorgung beschäftigen und da wird quasj nur positiv berichtet, trotz der Sparmaßnahmen. Die Komponenten sind wohl generell sehr teuer und hochwertig, laut dem Video von Buildzoid hätte eine Vollbestückung die Produktionskosten um mindestens 20$ steigen lassen, was denke ich im Angesicht der eh schon teuren Karte irgendwo nachvollziehbar ist.

gbm31
2019-02-08, 14:38:43
Und es wird ja wohl ein TUL Kühler sein.

Dann würde es mich noch mehr wundern, wenn das nichts bringen sollte.

Die Lüfter sind komplett in den Finnen versenkt, sprich alles was da von der Blende verdeckt ist, behindert den Luftzug entlang der Finnen.

Also ich würde es auf den Versuch ankommen lassen...

[edit]

Okay, vergesst es, die Blende trägt die Lüfter. Also ohne Material abzuarbeiten gehts eh nicht.

[MK2]Mythos
2019-02-08, 14:49:45
Mein Kärtchen ist unterwegs und wird morgen zugestellt.
Alphacool hat mir übrigens bestätigt dass die Karte bereits vermessen wurde und der Wasserkühler gerade in die Produktion geht. Verfügbarkeit in 8 - 12 Wochen.

Pirx
2019-02-08, 14:52:11
Wann kommt Navi, doch dieses Jahr?
Hab keine Lust wieder bei der Kühlung rumzuschrauben, Phasen sind auch weggelassen worden (zum hochprügeln), brauch ich irgendwie nicht für den Preis.
lt CB frühestens Oktober:|

Ex3cut3r
2019-02-08, 14:57:24
Mythos;11921569']Mein Kärtchen ist unterwegs und wird morgen zugestellt.
Alphacool hat mir übrigens bestätigt dass die Karte bereits vermessen wurde und der Wasserkühler gerade in die Produktion geht. Verfügbarkeit in 8 - 12 Wochen.

Cool. Viel Spaß damit :up:

EDIT: In deine Sys Profil steht 1080Ti momentan drin, echt jetzt? Was ein unnötiger Wechsel, sry. 2070+ Leistung kann man auch billiger haben, aber gut, ist ja nicht mein Geld. :D

Menace
2019-02-08, 15:36:28
Cool. Viel Spaß damit :up:

EDIT: In deine Sys Profil steht 1080Ti momentan drin, echt jetzt? Was ein unnötiger Wechsel, sry. 2070+ Leistung kann man auch billiger haben, aber gut, ist ja nicht mein Geld. :D

Und musstest Du jetzt weshalb so kommentieren? Manchmal kommt mir das 3dcenter wie ein Umerziehungslager vor, wobei jeder immer meint, er wüsste alle Gründe der anderen. Das gilt nicht nur für die nvidia-Jünger, wie bei diesem Beispiel sondern auch für AMD-Anhänger.

Ich bin mit meiner Vega 56 Nano sehr glücklich. Aber alleine die OpenCl-Leistung und den Drang zu spielen würde mich bei der VII reizen. Allerdings ist für mich auch dieser Preis viel zu hoch. :biggrin:

Ex3cut3r
2019-02-08, 15:38:48
Sry. Ich habe mich halt gefragt, warum man von einer 1080 Ti ein Downgrade/Sidegrade macht, vorallem beim Preis der Vega 7 ein Schnäppchen sieht sicherlich anders aus.

[MK2]Mythos
2019-02-08, 15:46:30
Weil ich Bock drauf hatte und auf die Kohle scheiße.

Menace
2019-02-08, 15:46:47
Aber Du weißt ja auch, dass es viele andere Gründe gibt rumzuspielen.

Ist ja kein Kaufberatungsthread. Mich nervt das genauso wie wenn jemand in Frage stellt, warum einer eine 2080 Ti kauft. Auch für diese doch sehr teure Grafikkarte gibt es so viele unterschiedliche Gründe.

Ex3cut3r
2019-02-08, 15:49:39
Mythos;11921633']Weil ich Bock drauf hatte und auf die Kohle scheiße.

Achso, stark. Weiter so. :freak:

Aber Du weißt ja auch, dass es viele andere Gründe gibt rumzuspielen.

Ist ja kein Kaufberatungsthread. Mich nervt das genauso wie wenn jemand in Frage stellt, warum einer eine 2080 Ti kauft. Auch für diese doch sehr teure Grafikkarte gibt es so viele unterschiedliche Gründe.

Es ist ja schon ein Unterschied, was man davor hatte, z.B von einer 1070 auf die 2080 oder Ti. Aber von einer 1080Ti auf eine Vega 7, war halt für nicht gleich klar, warum man das tut. Aber ist ja jetzt geklärt, hoffentlich.

Menace
2019-02-08, 16:00:06
Wir sprechen häufig über Hobbys. Wann sind die denn immer rationell begründbar.

Ich finde in diesem Zusammenhang mal wieder Igors Fazit recht gelungen. :up:

gbm31
2019-02-08, 16:40:02
Erstaunlich.

Nvidia zieht mit Turing die Preise für die komplette Grafikkartenriege ohne wirklichen Gegenwert an Leistung in die Höhe, die Titan RTniX setzt neue Maßstäbe in der Unverfrorenheit, wenn auch irrelevant da limitierte Sparte.

Die Jüngerschaft applaudiert und überschlägt sich im argumentieren warum das gut ist.

AMD bringt als Marketing-Maßnahme eine limitierte Karte im Bereich Leistung und Preis der RTniX Mittelklasse, sogar genau wie sie angekündigt wurde, und die gleiche Jüngerschaft überschlägt sich im argumentieren warum das scheisse ist.

Gut dass ich das nicht mehr lesen muss...

gnomi
2019-02-08, 16:43:41
In Sachen Hobby wird alles schnell zur Schönrederei.
Für mich zählt nur das Gaming Fazit und da ist Vega VII okay, aber halt unterlegen vom Gesamtpaket her...
So werden die Mondpreise bei nvidia 2019 denke ich nur minimal fallen. (2080 TI bis zu 800; 2080 bis zu 550 bei Aktionen)
Letztendlich wollen beide (dick) abkassieren gerade.
Ich bleibe also mal in der neuen besseren Mittelklasse. (GTX 1080 OC ist immerhin zwischen 2060 & 2070)
Zukünftig bin ich gespannt, ob wir überhaupt noch mal eine High End Karte zum Release bei Maximum 650 Euro sehen.
Vielleicht wird die RTX 3080 mal wieder richtig was feines. =)

M4xw0lf
2019-02-08, 16:45:10
Mythos;11921633']Weil ich Bock drauf hatte und auf die Kohle scheiße.
Hast du dann eine 1080Ti günstig abzugeben? :uponder:

[MK2]Mythos
2019-02-08, 17:05:53
Hast du dann eine 1080Ti günstig abzugeben? :uponder:
Hab ich hier im Forum letzten Freitag verkauft. Sorry. ;(

Fragman
2019-02-08, 17:11:43
Was die Preise angeht, da haben wir wohl die nächste Stufe erreicht, wie damals schon bei der GF2/Ultra und der G3. AMD macht das jetzt nicht anders. Ob und wie weit sich das ändert wird wohl erst Navi zeigen und nv im nächsten Jahr. Die Chips werden aber gross bleiben und Speicher wird auch mehr werden. Die 700 für diese Leistung dürften daher wohl gesetzt sein.

Hakim
2019-02-08, 17:24:24
Caseking hat noch welche auf Lager und lässt es sich schon vergolden, 819 und 829€.....

oldgamer
2019-02-08, 17:33:52
Caseking hat noch welche auf Lager und lässt es sich schon vergolden, 819 und 829€.....
Gestern haben sie noch 799€ verlangt...

Taigatrommel
2019-02-08, 18:07:09
Wer es *etwas* günstiger haben will, der bekommt bei Alternate derzeit noch die XFX für 779,-€:
https://www.alternate.de/XFX/AMD-Radeon-VII-Grafikkarte/html/product/1516841?

Davon abgesehen sind alle Händler inzwischen auf Minimum 749,-€ hochgegangen, auch dort wo nichts mehr lieferbar ist.

Daredevil
2019-02-08, 18:14:23
Ich warte jetzt 7 Tage und sehe garantiert die erste B-Ware Karten im Alternate Outlet. :-D
Dann kommt irgendwann der 10% Outlet Gutschein rein und ZACK, 600€.

Lowkey
2019-02-08, 18:39:30
Und ZACK kauf ich dir die Karten weg... vor der Nase ... mit Gutschein ... :)

Odal
2019-02-08, 18:46:30
Was die Preise angeht, da haben wir wohl die nächste Stufe erreicht, wie damals schon bei der GF2/Ultra und der G3. AMD macht das jetzt nicht anders. Ob und wie weit sich das ändert wird wohl erst Navi zeigen und nv im nächsten Jahr. Die Chips werden aber gross bleiben und Speicher wird auch mehr werden. Die 700 für diese Leistung dürften daher wohl gesetzt sein.

naja mit 7nm neue Fertigung (sicher erstmal nicht billig bei der Größe) und 16GB HBM (sicher auch nicht billig) ... NV hat gegen die Produktionskosten sicher die deutlich überzogeneren Preise

Lowkey
2019-02-08, 18:48:01
Paßt zwar nicht hier rein, aber 7nm ist bestimmt teuer und lediglich bei UV sinnvoll. Man merkt von den 7nm nichts, denn die 16nm? 1080 Ti ist immer noch besser ...

Bis zur 3000er Serie müßte ich die Füße stillhalten. Das wird ein hartes Jahr.

Ex3cut3r
2019-02-08, 19:20:46
Paßt zwar nicht hier rein, aber 7nm ist bestimmt teuer und lediglich bei UV sinnvoll. Man merkt von den 7nm nichts, denn die 16nm? 1080 Ti ist immer noch besser ...

Bis zur 3000er Serie müßte ich die Füße stillhalten. Das wird ein hartes Jahr.

Nein 7nm von Nvidia wird massiv besser sein, egal ob Energie oder Leistung. Nvidia hat mit Maxwell auch noch einiges aus 28nm rausgeholt.

AMD holt einfach aktuell nix aus 7nm raus, vermutlich auch deswegen weil Vega 7 halt immer noch die alte Vega Architektur ist. Man muss halt mal Navi mit den Midrange/Performance Karten abwarten wie es da aussieht.

Ich finde aber auch die Vega 7 hätte man sich gleich sparen sollen und dann halt mit Navi eine Highend Karte rausbringen sollen. Aber anscheinend wird auch Navi nicht so viel Kraft mitbringen, wie es eigentlich für eine neue Architektur der Fall sein sollte.

aufkrawall
2019-02-08, 19:23:41
muss halt mal Navi mit den Midrange/Performance Karten abwarten wie es da aussieht.
Wie denn wohl? 180-200% RX 480 bei gleichem Verbrauch, im Worstcase 8GB VRAM.
Wobei neue Spiele halt zunehmend besser auf Radeons laufen, UE4 DX11-Crap ausgenommen.

M4xw0lf
2019-02-08, 19:38:13
Mythos;11921704']Hab ich hier im Forum letzten Freitag verkauft. Sorry. ;(
Wir wäre uns eh nicht handelseinig geworden :ugeizhals: :D

Odal
2019-02-08, 20:06:17
Ich finde aber auch die Vega 7 hätte man sich gleich sparen sollen und dann halt mit Navi eine Highend Karte rausbringen sollen. Aber anscheinend wird auch Navi nicht so viel Kraft mitbringen, wie es eigentlich für eine neue Architektur der Fall sein sollte.

Warum das denn? Solang man damit keine Verluste einfährt spricht doch nichts gegen die Vega II. Man ist eine Klasse über Vega I hat doppelt soviel Ram, bessere Perf / Watt - klar man wird sicher keine großen Volumen verkaufen bei dem Preis, aber man hat erstmal wieder auf die 2080 aufgeschlossen.
Und warum sollte man als erstes ein Navi Highend bringen? Es braucht erstmal GPUs für die Konsolen. Das ist doch klar das da erstmal ein Polaris Nachfolger kommt, der wird sicherlich auf min. RX2070 Niveau kommen bei einem guten Perf/Watt.

Ex3cut3r
2019-02-08, 20:10:33
Weil die Vega 7 definitiv viel zu günstig verkauft wird damit AMD überhaupt Gewinn macht. Man macht sich halt wieder einen Namen bzw. taucht der eigentliche Name wieder weiter oben in den Benchmarks auf, das wars aber auch schon.

Lowkey
2019-02-08, 20:14:25
Den Gewinn machen doch die Händler? Alles über 729 Euro ist reiner Gewinn?

Monsta
2019-02-08, 20:21:34
Ich finde aber auch die Vega 7 hätte man sich gleich sparen sollen und dann halt mit Navi eine Highend Karte rausbringen sollen. Aber anscheinend wird auch Navi nicht so viel Kraft mitbringen, wie es eigentlich für eine neue Architektur der Fall sein sollte.


Wieso das denn? Die Vega 7 ist doch auf dem Niveau der 2080er zum ähnlichen Preis.
Du hast doch selber eine Karte in der Leistungsklasse die sogar teurer war.
Hätte sich die Nvidia ja auch sparen sollen?

Dural
2019-02-08, 21:03:00
Wie oft den noch???

Vega7 ist bei weitem nicht konkurenz fähig, 7nm + 16gb hbm gegen alten 12nm prozess + lächerliche 256bit gddr6 si. Die karte dürfte in der herstellung sehr teuer sein, dazu praktisch nicht lieferbar. Die 2080ti hat laut steam schon die selbe verbreitung wie alle vega karten zusammen, eine 1000.- + karte (!!!!!)

Navi wird aktuell auch immer wie weiter nach hinten geschoben, jetzt soll er erst ab oktober kommen.

Ex3cut3r
2019-02-08, 21:03:30
Wieso das denn? Die Vega 7 ist doch auf dem Niveau der 2080er zum ähnlichen Preis.
Du hast doch selber eine Karte in der Leistungsklasse die sogar teurer war.
Hätte sich die Nvidia ja auch sparen sollen?

Was hat meine 2080 damit wieder zu tun? Ich weiß echt nicht, warum ihr da immer die "Schärfe" da mit einbringt, ich bin raus.

Achill
2019-02-08, 21:39:25
Da muss man mal etwas länger in der Woche arbeiten ... für mich gab es gestern nur die etwas teureren Angebote. Noch gab es keine Info bzgl. Versand, ich lasse mich überraschen.

Phoronix legt sich wieder mächtig ins Zeug: https://www.phoronix.com/scan.php?page=article&item=radeon-vii-mesa&num=1

Benchmarks mit Kernel 5.0/Mesa 19.0 vs. ältere Versionen

Man sieht schön wie die Community und AMD an der Performance für die Radeon VII in der letzten Zeit gearbeitet haben. Schön auch zu sehen, dass es mit Arch-Linux keine Probleme geben sollte ... :)

Neben den guten Abschneiden bei den Spielen (https://www.phoronix.com/scan.php?page=article&item=radeon-vii-linux) sah auch die Performance und das P/W Verhältnis bei den OpenCL Anwendungen (https://www.phoronix.com/scan.php?page=article&item=radeon-vii-linux&num=9) gut aus. Gibt auch ein guten Einblick was im Cloud-Bereich machbar ist und dort auch Optionen für AMD existieren (imho).

--
Edit: Gerade gesehen, dass Pirx ja schon den Artikel mit den Kombinationen verlinkt hatte ... meinen Text angepasst.

Monsta
2019-02-08, 21:49:16
Wie oft den noch???

Vega7 ist bei weitem nicht konkurenz fähig, 7nm + 16gb hbm gegen alten 12nm prozess + lächerliche 256bit gddr6 si. Die karte dürfte in der herstellung sehr teuer sein, dazu praktisch nicht lieferbar. Die 2080ti hat laut steam schon die selbe verbreitung wie alle vega karten zusammen, eine 1000.- + karte (!!!!!)

Navi wird aktuell auch immer wie weiter nach hinten geschoben, jetzt soll er erst ab oktober kommen.

Was interessieren mich die Gewinnmargen von Amd, für das Geld was sie kostet ist sie konkurrenzfähig.
Der Fertigungsprozess ist ja mal auch total egal. Oder spürt man das beim Arbeiten / Spielen?

Hakim
2019-02-08, 21:49:21
Aber anscheinend wird auch Navi nicht so viel Kraft mitbringen, wie es eigentlich für eine neue Architektur der Fall sein sollte.

Noch gibt es überhaupt keine Hinweise (nur Gerüchte, apored glaube ich sowieso nichts) bezüglich wie Navi Performen wird, da sollte man einfach mal abwarten. Soviel braucht auch Navi gar nicht, wenn man sich mit der 2060 anlegen kann, 8 GB hat und Preislich gar tick darunter und würden sehr viele zuschlagen glaube ich.

hilo
2019-02-08, 21:53:05
Na ob 7nm der "Bringer" ist, wie alle einfach so vermuten, wissen wir doch überhaupt nicht. Das hier, die Radeon VII, ist das erste Produkt überhaupt nach Epic Epyc (und der findet quasi unter Ausschluß der "gemeinen" Öffentlichkeit statt). Versprochen waren erst 35 % Taktsteigerung bei gleichen Stromverbrauch. Das hat man dann still und leise auf 25 % reduziert. Schon mal nicht gerade ein Beleg. Wir haben aber nun einmal eh nicht Besseres als die 7 nm im Moment, und vermutlich deshalb muß es einfach der Heilsbringer sein. Die 25 % dürften eh nur best case sein. AMD hat bei Radeon VII ca. 29 % bei etwa gleichem Power-Budget rausgeholt. Das ist also schon mal ziemlich gut, wenn davon ausgeht, daß auf die verbesserte Speicherbandbreite vielleicht 10 % entfallen und die 25 % sowieso best case sind. Die Kurve bei der Steigerung der Leistung von Grafikkarten flacht nun mal gnadenlos ab - warum sollte das dann gerade bei den Prozessen anders sein? Deshalb glaube ich auch erstmal nicht, daß Nvidia da rein aus den 7 nm allein mehr rausgeholt hätte.

SKYNET
2019-02-08, 22:07:17
Na ob 7nm der "Bringer" ist, wie alle einfach so vermuten, wissen wir doch überhaupt nicht. Das hier, die Radeon VII, ist das erste Produkt überhaupt nach Epic (und der findet quasi unter Ausschluß der "gemeinen" Öffentlichkeit statt). Versprochen waren erst 35 % Taktsteigerung bei gleichen Stromverbrauch. Das hat man dann still und leise auf 25 % reduziert. Schon mal nicht gerade ein Beleg. Wir haben aber nun einmal eh nicht Besseres als die 7 nm im Moment, und vermutlich deshalb muß es einfach der Heilsbringer sein. Die 25 % dürften eh nur best case sein. AMD hat bei Radeon VII ca. 29 % bei etwa gleichem Power-Budget rausgeholt. Das ist also schon mal ziemlich gut, wenn davon ausgeht, daß auf die verbesserte Speicherbandbreite vielleicht 10 % entfallen und die 25 % sowieso best case sind. Die Kurve bei der Steigerung der Leistung von Grafikkarten flacht nun mal gnadenlos ab - warum sollte das dann gerade bei den Prozessen anders sein? Deshalb glaube ich auch erstmal nicht, daß Nvidia da rein aus den 7 nm allein mehr rausgeholt hätte.


die 35% bezogen sich auf ZEN

hilo
2019-02-08, 22:19:48
Oh Danke, das hatte ich tatsächlich falsch erinnert.

TheGood
2019-02-08, 22:36:50
Was hat meine 2080 damit wieder zu tun? Ich weiß echt nicht, warum ihr da immer die "Schärfe" da mit einbringt, ich bin raus.
JA Gott sei Dank...
PS: Der Witz war übrigens gut...

TheGood
2019-02-08, 22:44:37
Wie oft den noch???

Vega7 ist bei weitem nicht konkurenz fähig, 7nm + 16gb hbm gegen alten 12nm prozess + lächerliche 256bit gddr6 si. Die karte dürfte in der herstellung sehr teuer sein, dazu praktisch nicht lieferbar. Die 2080ti hat laut steam schon die selbe verbreitung wie alle vega karten zusammen, eine 1000.- + karte (!!!!!)

Navi wird aktuell auch immer wie weiter nach hinten geschoben, jetzt soll er erst ab oktober kommen.
Das ist einfach nur ein dummes geschwätz ohne jegliche Substanz was dazu an der Sache auch noch maximal vorbeigeht...

Wir haben hier zwei Karten die in der Performance nah beieinander sind. Die etwas langsamere ist aktuell teurer, hat dafür aber mehr Speicher (was auch den Aufpreis widerspiegelt), dafür einen Lüfter den man so nicht auf die Kundschaft loslassen darf.
Jeder kann für sich entscheiden was er daraus macht... Ich kaufe weder die ein noch die andere, weil ich schlichtweg nicht einsehe soviel Geld für eine Graka auszugeben.
Aber es wird dadraußen Leute geben sie sich das so ansehen und dann eine Entscheidung für links oder rechts treffen, jeder aus seinen ganz persönlichen Gründen.
Wenn man es aber rein wirtschaftlich sieht, sind beide Karten ein Fail (das sagt man ja neudeutsch zu allem.....)!!! weil ich für weniger Geld ein weitaus bessere Preis/Leistungsverhältnis bekomme.

Achill
2019-02-09, 00:01:16
Mythos;11921569']Mein Kärtchen ist unterwegs und wird morgen zugestellt.
Alphacool hat mir übrigens bestätigt dass die Karte bereits vermessen wurde und der Wasserkühler gerade in die Produktion geht. Verfügbarkeit in 8 - 12 Wochen.

Ich habe mal EKWB und Aqua Computer geschrieben. Alphacool hatte mich bei der 390X mit den Hybriden Kühler nicht wirklich überzeugt, weil die Spannungswandler nur durch den passiven Kühlkörper gekühlt wurden und ich dann noch ein Lüfter brauchte ... was irgendwie an der Sache vorbei ist.

Taigatrommel
2019-02-09, 00:18:09
Ich habe mal EKWB und Aqua Computer geschrieben. Alphacool hatte mich bei der 390X mit den Hybriden Kühler nicht wirklich überzeugt, weil die Spannungswandler nur durch den passiven Kühlkörper gekühlt wurden und ich dann noch ein Lüfter brauchte ... was irgendwie an der Sache vorbei ist.
Alphacool stellt meines Wissens nach seit mindestens einem Jahr auch richtige Fullcover Versionen her, nicht nur die hybriden Varianten. Mich würde es wundern, wenn sie für die VII keinen kompletten Kühlkörper anbieten würden.

[MK2]Mythos
2019-02-09, 00:22:34
Ich habe mal EKWB und Aqua Computer geschrieben. Alphacool hatte mich bei der 390X mit den Hybriden Kühler nicht wirklich überzeugt, weil die Spannungswandler nur durch den passiven Kühlkörper gekühlt wurden und ich dann noch ein Lüfter brauchte ... was irgendwie an der Sache vorbei ist.
EKWB hat mir ne Absage erteilt. Zumindest kurz bis mittelfristig wird es da wohl nichts geben.

hq-hq
2019-02-09, 01:46:33
Mythos;11921633']Weil ich Bock drauf hatte und auf die Kohle scheiße.

Das ist eine gesunde Einstellung die hervorragend artikuliert wurde, unter Wasser wird der Schatz besonders interessant. 2100 MHz GPU Takt wären ein Grund zur vollen Freude, da damit die 1080Ti wohl endgültig umfänglich abgehängt würde.
Meine 1080Ti frisst gerne mal 350Watt, leise kühlt sich das mit Luft ebensowenig.

Bis zur Wasserlassung könnte man den Radeon-Schriftzug des Gehäuses herausschneiden, scheint wirklich übermäßig den "Airflow" zu beeinträchtigen.

hilo
2019-02-09, 05:29:51
Ist zwar wirklich "Ghetto", aber wenn ich mir das tear-down-Video von Gamers Nexus (https://www.youtube.com/watch?v=0b9_c4oJRTE) mal so ansehe, müßte es doch möglich sein, einfach nur das Gehäuse wegzulassen und die Lüfter direkt auf den Kühlkörper zu basteln. Sollte den Luftstrom verbessern und bei der Gelegenheit ermöglichen, gleich noch zu größeren Lüftern greifen (12er oder 14er Silent Wings 3?) zu können. Das Ganze wäre auch komplett rückbaubar zwecks allfälliger RMA (eventuell sowas hier verwenden
https://geizhals.de/phobya-4-pin-pwm-auf-3x-4-pin-pwm-kabel-1011109-a1714087.html). Kostenpunkt ca. 40 Euro (2 x Silent Wings 3 + Phobya-Kabel).
Ganz Unternehmende könnten vielleicht sogar den Kühlkörper wiederauffüllen (vielleicht sowas https://geizhals.de/king-mod-alu-kuehlkoerper-set-fuer-raspberry-pi-cpkm-002-a1238452.html?). Ob das mit dem Wiederauffüllen so eine gute Idee ist (kühltechnisch und finanziell) gegenüber einer "richtigen" (Morpheus) Lösung, weiß ich natürlich nicht, aber der Charme läge zum einen bei vergleichsweise niedrigen Kosten (der "nackte" Morpheus kostet ja schon ca. 65 Euro ohne Lüfter, und der eine oder andere hat die Lüfter vielleicht ja ohnehin überzählig schon rumliegen) aber vor allem darin, daß man kaum an die Karte ran müßte und alles wieder rückstandslos rückbauen könnte, wenn man z.B. Blechmuttern (https://www.youtube.com/watch?v=sz_L5St-9E0) verwenden könnte, um Kühlkörperelemente einfach anzuklemmen. Ansonsten müßte halt Wärmeleitkleber benutzt werden. Ist dann halt nicht mehr ganz rückstandsfrei (Kleber nur an wenigen Stellen verwenden, dann bekommt man bestimmt die Profile auch wieder ab). Das Wiederauffüllen des Kühlkörpers wäre ohnehin nur das Sahnehäubchen oben drauf.

horn 12
2019-02-09, 07:14:57
Interessant:

1440P

Vega 64 LC Stock gegen Radeon VII Stock

Von 10 bis 30+% alles mit dabei


https://www.youtube.com/watch?v=kabX-Yn406Y&feature=youtu.be

dildo4u
2019-02-09, 08:15:52
Ist eher Interessant wie hoch die LC Stock Boostet.
Vielleicht macht einer ein Mod mit der Radeon 7,die Wakü scheint dem neuen Kühler Haushoch überlegen.

grobi
2019-02-09, 08:17:30
Die Karte finde ich an sich nicht schlecht. Aber der Kühler-/Lüfterkombination im Zusammenhang mit der schlechten Lüftersteuerung geht so nicht klar. Warum kein Lüfterstop im idle etc....

mfg grobi

RoughNeck
2019-02-09, 09:01:05
Fast 3000 RPM bei der Radeon VII :freak:
AMD baut auch nur scheiß, da hätte ab Werk ein Dual Radi mit einer AiO drauf gehört und fertig. Der Kundenkreis der Karte ist eh klein genug und ein Dual Radi passt in fast jedes Case rein.

Daredevil
2019-02-09, 09:11:46
AMD sieht halt nicht nur Gamer als Zielgruppe, da muss man irgendwo halt abwägen, Radeon VII trägt ja ebenso wie Vega unnötig viel Compute Ballast mit sich. Für so eine Zielgruppe ist die Lautstärke auch eher zweitrangig.
Vega 56/64 hat sich halt trotzdem verkauft wie geschnitten Brot, so unterm Strich.
Man kann jetzt zwar sagen, dass Vega sich nur wegen des Minings verkauft hat, aber die Compute Leistung war es halt eben auch, weswegen sie sich so gut verkauft hat und für mehr als das doppelte des UVP gehandelt wurde.

Es ist halt Fanservice und das ist doch okay so, nur eben für Fans und nicht für den maximalen reinen Gamer.

dargo
2019-02-09, 10:23:19
Ist eher Interessant wie hoch die LC Stock Boostet.

Was soll daran interessant sein? Ist doch völlig normal. :confused: Auch die ~1,7Ghz in ACO sind völlig normal weil Vega dort überhaupt nicht gefordert wird wegen dem starken CPU-Limit.


AMD baut auch nur scheiß, da hätte ab Werk ein Dual Radi mit einer AiO drauf gehört und fertig. Der Kundenkreis der Karte ist eh klein genug und ein Dual Radi passt in fast jedes Case rein.
Da hätte schon die gleiche AIO wie bei der V64 LCE vollkommen gereicht und das Ding wäre spitze. Zumal der Verbrauch hier noch geringer als bei der V64 LCE @Stock mit Bios 1 ist.

dildo4u
2019-02-09, 10:28:40
Liegt daran das ihr alle undervoltet ich bin 1.5Ghz von Vega gewohnt.

dargo
2019-02-09, 10:37:30
Das Ding ist halt bei 1,5+Ghz verdammt effizient, deshalb fahre ich den Takt. ;) Eine Stock V64 LCE zieht ~350W, meine LCE liegt bei ca. 210W (oft auch weniger weil ich die Telemetrie von AMD verlasse). Und sie ist mit den 1,5+Ghz nicht langsamer als eine LCE @Stock. Die fehlenden ~100Mhz GPU gleiche ich einfach mit 11% mehr Bandbreite aus. Vega 1 skaliert ab einem gewissen Punkt mit dem GPU-Takt einfach miserabel.

btw.
Hat sich denn überhaupt einer schon mal die Vega VII mit 1,5-1,6Ghz GPU ohne UV angeschaut? Mich würde es kein Stück wundern wenn das Ding dann ca. 200-220W nur noch zieht. ;) Natürlich wenn der Wattman richtig funktioniert. Gibt es irgendwo schon eine PP-Table von Vega VII?

Edit:
Ähm... was ist hier los?
https://www.youtube.com/watch?time_continue=741&v=7usANnBQC7U
https://youtu.be/IzbvueCLLyQ?t=370

Bei dem einen ist die Vega VII vor RTX2080, bei dem anderen nicht. Treiberprobleme oder misst hier einer Mist? :D

PS: ich weiß 4k vs. 1440p. Aber ob sich die Verhältnisse dadurch alleine so verschieben?

dildo4u
2019-02-09, 11:12:20
Joker scheint die Karten zu OC oder zumindest das Powerlimit zu erhöhen,1.8Ghz sind nicht normal für ne 1080 Ti.PCGH hat die bei 1.65Ghz Default Boost.


http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

SKYNET
2019-02-09, 11:12:39
Das Ding ist halt bei 1,5+Ghz verdammt effizient, deshalb fahre ich den Takt. ;) Eine Stock V64 LCE zieht ~350W, meine LCE liegt bei ca. 210W (oft auch weniger weil ich die Telemetrie von AMD verlasse). Und sie ist mit den 1,5+Ghz nicht langsamer als eine LCE @Stock. Die fehlenden ~100Mhz GPU gleiche ich einfach mit 11% mehr Bandbreite aus. Vega 1 skaliert ab einem gewissen Punkt mit dem GPU-Takt einfach miserabel.

btw.
Hat sich denn überhaupt einer schon mal die Vega VII mit 1,5-1,6Ghz GPU ohne UV angeschaut? Mich würde es kein Stück wundern wenn das Ding dann ca. 200-220W nur noch zieht. ;) Natürlich wenn der Wattman richtig funktioniert. Gibt es irgendwo schon eine PP-Table von Vega VII?

Edit:
Ähm... was ist hier los?
https://www.youtube.com/watch?time_continue=741&v=7usANnBQC7U
https://youtu.be/IzbvueCLLyQ?t=370

Bei dem einen ist die Vega VII vor RTX2080, bei dem anderen nicht. Treiberprobleme oder misst hier einer Mist? :D

PS: ich weiß 4k vs. 1440p. Aber ob sich die Verhältnisse dadurch alleine so verschieben?


viel besser finde ich, dass das 2. video DONs(HWL) test bestätigt, die VII und 1080Ti spiken zwar mehr als die 2080, dafür aber nicht so stark, erste beiden sollten unmerkbar beiden, bei der 2080 sind die spikes aber zt. heftig.

Mega-Zord
2019-02-09, 11:17:56
Edit:
Ähm... was ist hier los?
https://www.youtube.com/watch?time_continue=741&v=7usANnBQC7U
https://youtu.be/IzbvueCLLyQ?t=370

Bei dem einen ist die Vega VII vor RTX2080, bei dem anderen nicht. Treiberprobleme oder misst hier einer Mist? :D

PS: ich weiß 4k vs. 1440p. Aber ob sich die Verhältnisse dadurch alleine so verschieben?

Bei AMD... definitv Treiber-Problem. Wenn man bedenkt, wie lange es gedauert hat, bis die V56/64 auf Touren gekommen ist.

Mich würde mal interessieren, wer so eine Karte aktuell zu diesem Preis kaufen würde. Davon, dass die doppelt so viel VRAM hat, wie eine 2080, kann man sich ja nichts kaufen. Man kann hoffen, dass das in zwei bis drei Jahren was bringt, wenn wir bereits zwei Generationen weiter sind. Solange kann man 8 GB HBM von der Karte knacken un sich die Rille damit putzen ;D

dildo4u
2019-02-09, 11:19:49
Vram wird in 1440p kaum eine Rolle spielen,das werden eher Treiber Sachen sein die man fixen muss.AC: O läuft z.b absolut grottig auf der Radeon obwohl die fps nicht weit weg sind von der 1080 Ti.

SKYNET
2019-02-09, 11:21:07
für 750 franke nehme ich sie, vorrausgesetzt das OC funzt und es gibt alternative kühler... ne FX5800 ultra 2.0 brauch ich nicht, die habe ich schon damals ausgelassen X-D

Screemer
2019-02-09, 11:23:07
@mega-zord: imho unterscheidet sich V2 nicht genug von v64 unterscheidet um da große Treiberprobleme zu bekommen.

bnoob
2019-02-09, 11:31:47
@wakü: Ich bin gerade mit Watercool in Kontakt, gibt wahrscheinlich was

SKYNET
2019-02-09, 11:40:32
@mega-zord: imho unterscheidet sich V2 nicht genug von v64 unterscheidet um da große Treiberprobleme zu bekommen.

sieht aber derzeit ganz anders aus mit den treibern...

Screemer
2019-02-09, 11:44:37
Das sind reine Probleme mit der Telemetrie. Grundsätzliche Treiberprobleme sehen anders aus. Wirkliche Änderungen, die über das scaling mit evtl. höherem Boost hinaus gehen, würde ich nicht erwarten. Vega hat damals teils massiv durch Treiberoptimierung gewonnen. Imho wird das bei der V2 nicht hat eintreten. Einzig das mehr an vram/bandbreite kann und wird sich wohl auch noch in manchen zukünftigen Games auswirken.

maximus_hertus
2019-02-09, 11:52:06
Nachdem ich mehrere Reviews durchgegangen bin und alles ein wenig hab sacken lassen muss man AMD leider ein schlechtes Zeugnis ausweisen, doch der Reihe nach:

Performance: 2+ => 4K ist häufig ordentlich bis gut spielbar, mit späteren / ausgereiften Treibern und etwas mehr fps gibt es vielleicht eine 1- ;)

Stromverbrauch: 3- => 270-300W sind für diese Performance Klasse gerade so in Ordnung, mit UV und 210-250W wäre es eine 2.

Speicher: 1 => 16 GB und massive Speicherbandbreite. Das passt.

Sonstige Features: kein VP9 in Hardware, kein Raytracing etc (auch wenn es aktuell irrelevant ist, aber wer weiß wie es in 2020+ aussieht)

Kühlung/Lautstärke: 5 => Totale Katastrophe. Indiskutabel. Lächerlich. Typisch AMD. Mit UV und Lautstärke auf 2080 FE Niveau wäre es eine 3.

Preis/Leistung: 4 => 729 Euro UVP. Von der Performance her ein gutes Preis-Leistungs-Verhältnis. Mit der extremen Lautstärke und dem erhöhten Strombedarf sowie der Alternativlosigkeit bei der Kühlung (keine Customs) ist es maximal eine 4. Bei der "UV-Variante" bei 250W und 2080 Lautstärke wäre es mindestens eine 2.

FAZIT: Out of the box ist die Radeon VII keine gute Wahl. Extreme Lautstärke, hoher Stromverbrauch, aktuell noch unsauberer Treiber und ein Preis von 729 Euro sind in Kombination kein guter Deal. AMD weiß wohl selber nicht, was sie wollen. Produktivität ja, Spielen ja, aber dennoch nicht Fisch, nicht Fleisch.
Imo hätte es drei (bessere) Optionen gegeben: Wakü (dicker Single Radi mit 2 Lüftern hätte gereicht), Triple Slot Kühler oder auf die letzten MHz verzichten und die Spannung etwas niedriger ansetzen, quasi eine UV Karte out of the box (mit etwas weniger fps).

So ist sie leider nur bedingt zu Empfehlen. Für "Bastler" bzw. diejenigen, die sehr gerne tweaken / das maximale aus der Hardware herausholen wollen, ist sie jedoch ein wahres Eldorado. Sehr viel Tuing Potential (UV, OC, Kühlung) mit großer Auswirkung.

Es ist leider wie so oft bei AMD. Sie hängen immer noch (bzw. die RTG) irgendwo in 1999 fest. 50-100 MHz weniger Chiptakt, weniger Spannung, 250-270W Stromverbrauch out of the box, Lautstärke auf 2080 FE Niveau und die Karte wäre eine runde Sache. Schade, so ist es nur schwer möglich die Karte zu empfehlen. Die meisten wollen einfach nur Zocken und nicht "tunen" und da ist die VII leider keine gute Wahl.

dargo
2019-02-09, 11:54:18
Joker scheint die Karten zu OC oder zumindest das Powerlimit zu erhöhen,1.8Ghz sind nicht normal für ne 1080 Ti.PCGH hat die bei 1.65Ghz Default Boost.


http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/
Darum gings mir zwar nicht, aber egal. Was die 1,8Ghz bei Joker angeht... vielleicht verwendet er irgendeine Custom?


Mich würde mal interessieren, wer so eine Karte aktuell zu diesem Preis kaufen würde.
Bei MF alleine gingen schon mal über 200 Karten weg.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+VII.html

Vram wird in 1440p kaum eine Rolle spielen,das werden eher Treiber Sachen sein die man fixen muss.AC: O läuft z.b absolut grottig auf der Radeon obwohl die fps nicht weit weg sind von der 1080 Ti.
Das ist nur in cpu-limitierten Szenen der Fall. Bist du in gpu-limitierten Szenen sind die Frametimes perfekt. Das Ding sollte einfach mit DX12 kommen und nicht mit der Steinzeit-API.

@mega-zord: imho unterscheidet sich V2 nicht genug von v64 unterscheidet um da große Treiberprobleme zu bekommen.
Deswegen performt FH4 wieder zu langsam. ;) Ich möchte gar nicht wissen wieviele Workarounds die IHVs in ihre Treiber einbauen um gute Performance zu bekommen. Da schleichen sich dann immer wieder Probleme ein.

dargo
2019-02-09, 11:56:17
doppelpost

SKYNET
2019-02-09, 12:03:21
Nachdem ich mehrere Reviews durchgegangen bin und alles ein wenig hab sacken lassen muss man AMD leider ein schlechtes Zeugnis ausweisen, doch der Reihe nach:

Performance: 2+ => 4K ist häufig ordentlich bis gut spielbar, mit späteren / ausgereiften Treibern und etwas mehr fps gibt es vielleicht eine 1- ;)

Stromverbrauch: 3- => 270-300W sind für diese Performance Klasse gerade so in Ordnung, mit UV und 210-250W wäre es eine 2.

Speicher: 1 => 16 GB und massive Speicherbandbreite. Das passt.

Sonstige Features: kein VP9 in Hardware, kein Raytracing etc (auch wenn es aktuell irrelevant ist, aber wer weiß wie es in 2020+ aussieht)

Kühlung/Lautstärke: 5 => Totale Katastrophe. Indiskutabel. Lächerlich. Typisch AMD. Mit UV und Lautstärke auf 2080 FE Niveau wäre es eine 3.

Preis/Leistung: 4 => 729 Euro UVP. Von der Performance her ein gutes Preis-Leistungs-Verhältnis. Mit der extremen Lautstärke und dem erhöhten Strombedarf sowie der Alternativlosigkeit bei der Kühlung (keine Customs) ist es maximal eine 4. Bei der "UV-Variante" bei 250W und 2080 Lautstärke wäre es mindestens eine 2.

FAZIT: Out of the box ist die Radeon VII keine gute Wahl. Extreme Lautstärke, hoher Stromverbrauch, aktuell noch unsauberer Treiber und ein Preis von 729 Euro sind in Kombination kein guter Deal. AMD weiß wohl selber nicht, was sie wollen. Produktivität ja, Spielen ja, aber dennoch nicht Fisch, nicht Fleisch.
Imo hätte es drei (bessere) Optionen gegeben: Wakü (dicker Single Radi mit 2 Lüftern hätte gereicht), Triple Slot Kühler oder auf die letzten MHz verzichten und die Spannung etwas niedriger ansetzen, quasi eine UV Karte out of the box (mit etwas weniger fps).

So ist sie leider nur bedingt zu Empfehlen. Für "Bastler" bzw. diejenigen, die sehr gerne tweaken / das maximale aus der Hardware herausholen wollen, ist sie jedoch ein wahres Eldorado. Sehr viel Tuing Potential (UV, OC, Kühlung) mit großer Auswirkung.

Es ist leider wie so oft bei AMD. Sie hängen immer noch (bzw. die RTG) irgendwo in 1999 fest. 50-100 MHz weniger Chiptakt, weniger Spannung, 250-270W Stromverbrauch out of the box, Lautstärke auf 2080 FE Niveau und die Karte wäre eine runde Sache. Schade, so ist es nur schwer möglich die Karte zu empfehlen. Die meisten wollen einfach nur Zocken und nicht "tunen" und da ist die VII leider keine gute Wahl.


also ich will auch einfach nur zocken, trotzdem habe ich sicherlich 3 tage damit verbracht meine kurve in arschbrenner für meine 1080Ti zu basteln... weil manchmal liefs eigentlich überall, und dann kam das eine böse game und plopp... also alles nochmal von vorne, und das geht halt nen weilchen.

btw. 2700X + VII vs. 2700X + 1080Ti(meine):
https://www.3dmark.com/compare/fs/18235246/fs/16278762

die VII lief auf standard, denke mit OC(= wenns dann richtige kühler dafür gibt) zieht die an mir vorbei...

zum vergleich: 2080 + 2700X(1. platz in firestrike) hat nen schlechteren graphicscore als meine 1080Ti... CPU lief bei der 2080 nicht wie ausgelesen auf 4350MHz sondern auf 4650Mhz(siehe CPU score), 11k CPU score sind um die 4800MHz :)
https://www.3dmark.com/compare/fs/16278762/fs/17062764

heisst die VII ist nichtmal weit weg von ner getakteten 2080 ;D

Linmoum
2019-02-09, 12:24:51
3dmark ist nur kein Spiel und lag Vega grundsätzlich schon immer gut.

SKYNET
2019-02-09, 12:51:13
3dmark ist nur kein Spiel und lag Vega grundsätzlich schon immer gut.


firestrike ist nen recht guter indikator für (halbwegs-)aktuelle games... und wenn ich mir V64er da anschaue, die sind ja alle fernerliefen... 1. platzierte -20% graphicscore auf meine 1080Ti :freak:

Achill
2019-02-09, 12:54:17
3dmark ist nur kein Spiel und lag Vega grundsätzlich schon immer gut.

firestrike ist nen recht guter indikator für (halbwegs-)aktuelle games... und wenn ich mir V64er da anschaue, die sind ja alle fernerliefen... 1. platzierte -20% graphicscore auf meine 1080Ti :freak:

Ich sehe das wie Linmoum, nur meine Ableitung wäre noch etwas differenzierter: Wenn ein Spiel oder Engine nicht nur für eine GPU optimiert/ausgelegt ist (z.B. nicht wie UE4), dann ist die Performance zwischen beiden Karten sehr ähnlich.

Daredevil
2019-02-09, 13:35:36
Aufmerksamkeits-Igor hat noch was zum sehr interessanten Wärmeleiter
61fc8-Jlq1Y

Edit: ERSTER!!!11elf

mironicus
2019-02-09, 13:36:43
Was zur verwendeten "Wunderpaste": https://www.youtube.com/watch?v=61fc8-Jlq1Y

SKYNET
2019-02-09, 13:40:50
Aufmerksamkeits-Igor hat noch was zum sehr interessanten Wärmeleiter
https://youtu.be/61fc8-Jlq1Y

Edit: ERSTER!!!11elf


lippenstift für emos *muahahahah* :ulol: er is so geil X-D

gbm31
2019-02-09, 13:52:06
Meine VII ist leider erst beim zweiten Schwung Mitte nächster Woche dabei...

Lowkey
2019-02-09, 14:15:27
Bis dahin ist sie schon veraltet :)

Grendizer
2019-02-09, 14:19:46
Da investiert AMD sau viel Geld in die Spannungsversorgung (10x Infineon Chip für 2,x $, sau teueres Wärmeleitzeug) .... und dann verkackt man es am Schluss auf Grund eines 2 Slot Designs, keine Ahnung, was die Ingeneure /Kühlerkonstrukteure da geritten hat.

Das kommt mir echt so vor .... wie nehmen richtig gutes Zeug, bestücken das PCB .... und am Schluss Stand der Controller da uns sagte, der Kühler samt Lüfter darf aber nicht mehr wie 20 Dollar kosten .. oder 30 oder was auch immer

x-force
2019-02-09, 14:20:40
https://youtu.be/61fc8-Jlq1Y



https://static.tvtropes.org/pmwiki/pub/images/f_6611.jpg

pssst, ey... willst du paste kaufen?

unl34shed
2019-02-09, 14:22:36
Aufmerksamkeits-Igor hat noch was zum sehr interessanten Wärmeleiter

Laut Gamernexus und deren Rücksprache mit AMD ist es das hier --> TC-HM03
http://www.hitachi-chem.co.jp/english/products/cc/026.html
Ist schon lange bekannt, kein Plan warum da jetzt so ein Geheimnis gemacht wird... Ok ich ging davon aus dass es ein Pad ist.

https://youtu.be/0b9_c4oJRTE?t=429

Daredevil
2019-02-09, 14:23:14
Da investiert AMD sau viel Geld in die Spannungsversorgung (10x Infineon Chip für 2,x $, sau teueres Wärmeleitzeug) .... und dann verkackt man es am Schluss auf Grund eines 2 Slot Designs, keine Ahnung, was die Ingeneure /Kühlerkonstrukteure da geritten hat.

Das kommt mir echt so vor .... wie nehmen richtig gutes Zeug, bestücken das PCB .... und am Schluss Stand der Controller da uns sagte, der Kühler samt Lüfter darf aber nicht mehr wie 20 Dollar kosten .. oder 30 oder was auch immer


3 Slot Designs kannste halt knicken für "Semi-Pro" User und Mining.
https://images10.newegg.com/NeweggImage/productimage/11-147-270-V01.jpg

Aber ja, das ist echt schade. :(
Trotzdem sehr beachtlich im negativen Sinne, das aufgrund der ganzen Maßnahmen das Endprodukt so laut ist. Aber man hat sich dort halt auf Performance und Temperatur versteift, die Kühler perse ist ja schon besser als bei Vega I, nur geht die halt gut und gerne bis 100°C hoch im Hotspot.

dildo4u
2019-02-09, 14:27:31
2 Slot wird eine Vorgabe der System Bauer sein,damit kann man sie Theoretisch in Mini ITX Gehäusen nutzen.

Exxtreme
2019-02-09, 14:28:29
Laut Gamernexus und deren Rücksprache mit AMD ist es das hier --> TC-HM03
http://www.hitachi-chem.co.jp/english/products/cc/026.html
Ist schon lange bekannt, kein Plan warum da jetzt so ein Geheimnis gemacht wird... Ok ich ging davon aus dass es ein Pad ist.

https://youtu.be/0b9_c4oJRTE?t=429
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/48510-7-nm-gpu-und-16-gb-hbm2-die-radeon-vii-im-test.html?start=3


Anscheinend gibt es da keine Unterschiede zu normaler WLP was Leitfähigkeit angeht. Aber interessant ist es schon wenn es nicht austrocknet wie normale Wärmeleitpaste.

x-force
2019-02-09, 14:33:04
3 Slot Designs kannste halt knicken für "Semi-Pro" User und Mining.

glaubst du, daß das die zielgruppe einer radeon ist?
die vergangenheit zeigt, daß es sich für mining sogar lohnt extra karten ohne display ausgänge zu produzieren.
was auch immer ein semi pro ist, aber ich denke die sollen lieber radeon pro bezahlen aus amd sicht.

die karten sind knapp. man hat mit der letzten generation schon die gamer an die kryptos verkauft.
die karte wird für gaming beworben.

das würde bedeuten amd hat geld für falsches marketing ausgegeben, oder sie haben die karte am markt vorbei designed.

mironicus
2019-02-09, 14:48:26
Anscheinend gibt es da keine Unterschiede zu normaler WLP was Leitfähigkeit angeht. Aber interessant ist es schon wenn es nicht austrocknet wie normale Wärmeleitpaste.

Eine Paste die nie austrocknet und somit ist die Karte für einen problemlosen 24/7 Betrieb geeignet - AMD macht mit der Karte vor allem Miner glücklich. :freak:

Megamember
2019-02-09, 14:51:54
Hab noch nie WLP erlebt die ausgetrocknet ist, selbst nach Jahren.

Exxtreme
2019-02-09, 14:57:20
Hab noch nie WLP erlebt die ausgetrocknet ist, selbst nach Jahren.
Ich schon. Sie wird zu einem harten und spröden Klumpen. Kann sein, dass sie unter dem Kühler abbröckelt und Teile davon fallen herunter. Tut der Wärmeleitfähigkeit nicht gut.

SKYNET
2019-02-09, 15:02:26
Hab noch nie WLP erlebt die ausgetrocknet ist, selbst nach Jahren.


war bei mir nach mindestens 3 jahren der fall, zuletzt als ich von meiner GTX 670 den kühler runter geholt habe, war nur noch sonen brösmeliger krams...

BlacKi
2019-02-09, 15:12:31
ich frag mich wie gut der scheis gegenüber LM performt. besser wird die neue paste bestimmt nicht sein, aber wenn man sich das polieren hinterher sparen kann, wäre das schon nice.

[MK2]Mythos
2019-02-09, 15:35:07
So, da ist das Kärtchen. Ich bin zwar echt nicht der PC-Optik-Modding-Fanatiker, aber eingebaut sieht sie schon sehr edel aus durch den Alu Kühler und das kräftig leuchtende Logo.

Jetzt wird ein bißchen UV getestet.

https://www.bilder-upload.eu/thumb/911ef4-1549722670.jpg (https://www.bilder-upload.eu/bild-911ef4-1549722670.jpg.html)

Zergra
2019-02-09, 15:42:58
Würde das Zeug gerne mal kaufen und testen , aber gibt es ja nirgends?

LM ist ziemlich sicher besser. Aber auf eine Grafikkarte ist das ja auch so ne Sache, muss man echt vorsichtig sein.

Daredevil
2019-02-09, 16:01:40
glaubst du, daß das die zielgruppe einer radeon ist?
die vergangenheit zeigt, daß es sich für mining sogar lohnt extra karten ohne display ausgänge zu produzieren.
was auch immer ein semi pro ist, aber ich denke die sollen lieber radeon pro bezahlen aus amd sicht.

die karten sind knapp. man hat mit der letzten generation schon die gamer an die kryptos verkauft.
die karte wird für gaming beworben.

das würde bedeuten amd hat geld für falsches marketing ausgegeben, oder sie haben die karte am markt vorbei designed.
Nein, es gibt mehrere Zielgruppen. Da wir hier aber eine HPC Karte haben, die unter anderem auch Gaming kann, ist es halt eben keine 100%ige Gaming Karte. Welchen Gaming Mehrwert hat sie denn bekommen im Vergleich zu Vega 1? Sie blinkt weder toll, noch hat sie besondere Gaming Features, noch ist sie besonders leise, noch ist sie besonders schnell.
Es ist eine High Performance "Multimedia" Karte, welche auch im Videoschnitt , bei Compute und eben auch bei Mining eingesetzt werden kann und gerade bei letzterem überflügelt sie jede Titan Karte auf dem Markt in bestimmten Algorithmen.
Bei hochqualitativen Videoschnitt mit RED Dateien braucht man 16GB Ram, da kackt man bei 8GB ordentlich ab. Das kann man mit HBCC ein wenig auffangen, was Nvidia halt nicht kann, aber 16GB sind dort einfach gut.

Zudem spricht die Preis/Leistung und die Verfügbarkeit ebenfalls nicht für eine Gaming Karte, die massenweise verkauft werden will.
Kein Gamer gibt 800€+ für so eine Karte aus, für den Preis wird sie aber aktuell gehandelt auf Ebay.
Ich weiß, dort ist ein Gaming Paket bei, aber trotzdem ist das einfach eine bulk HPC Karte und das ist aus AMDs Sicht auch okay. Hätten sie diese Features nicht, könnten sie auch nicht soviel Geld verlangen.
Schon alleine der Inhalt der Verpackung zeigt dir, dass das kein geiles Gaming Ding sein soll, sondern dass es seinen Zweck erfüllt.

[MK2]Mythos
2019-02-09, 16:31:18
Nach ner knappen Stunde PUBG kann ich sagen:
-Schnellschuss mit 1000mV statt 1052mV scheint problemfrei zu laufen und die Karte boostet dann standardmäßig mit 1780 Mhz

-PUBG hängt @3840x1600@max durchgehend im fps Limiter (75hz)
-die Geräuschkulisse des Kühlers ist ne absolute Unverschämtheit ;D , ich nutze ein offenes Headset Sennheiser PC360 und muss das auf Maximum hochdrehen damit wichtige Spielesounds nicht übertönt werden. Die Lüfter hielten die Karte bei 72°C bei rund 2800 U/min.

-Wer keinen Bock auf Feintuning bzw Kühlertausch hat, für den ist die Karte absolut nichts. Das werden lange Wochen bis ich den Kühler tauschen kann

horn 12
2019-02-09, 16:38:22
Gar mit UV auf 1,00 Volt laufen Deine Lüfter mit 2800 U/ Min
Probiere mal 0,950 Volt und dann sollten um die 2000+ U/Minute ausreichen.

mironicus
2019-02-09, 16:58:53
Gegen hohe Geräuschpegel kann ich ein Noise-Canceling-Kopfhörer empfehlen (z.B. Sony XM 1000). Den kann man auch lagfrei im Kabelbetrieb nutzen. Habe ich mir damals für mein Gaming-Laptop geholt, das ist ein richtiger Segen. Die Lautstärke im Kopfhörer kann dann auch sehr schonend leise eingstellt bleiben, da die störende Geräuschkulisse ja damit fast komplett weg ist.

Erbsenkönig
2019-02-09, 17:03:32
Mythos;11922383']-die Geräuschkulisse des Kühlers ist ne absolute Unverschämtheit ;D , ich nutze ein offenes Headset Sennheiser PC360 und muss das auf Maximum hochdrehen damit wichtige Spielesounds nicht übertönt werden. Die Lüfter hielten die Karte bei 72°C bei rund 2800 U/min.

2800 :freak: und mir kommen die ~1000 RPM bei meiner R9 380 schon laut vor.;D

aufkrawall
2019-02-09, 17:03:55
Ich habs jetzt nicht so genau verfolgt: Was passiert, wenn man einfach den Lüfter per Software runter regelt? Hotspot-Bildung?

hq-hq
2019-02-09, 17:06:17
Gegen hohe Geräuschpegel kann ich ein Noise-Canceling-Kopfhörer empfehlen (z.B. Sony XM 1000). Den kann man auch lagfrei im Kabelbetrieb nutzen. Habe ich mir damals für mein Gaming-Laptop geholt, das ist ein richtiger Segen. Die Lautstärke im Kopfhörer kann dann auch sehr schonend leise eingstellt bleiben, da die störende Geräuschkulisse ja damit fast komplett weg ist.

Wäre das nicht ein toller Werbegag von AMD z.B. einen 50€ Gutschein für einen Sony WH-1000XM3 beizulegen, wenn man online die Rechnung hochlädt bekommt man 50€ überwiesen.
:freak:

Ich sollte mich in der PR Abteilung bewerben!

Linmoum
2019-02-09, 17:13:06
Ich muss gestehen, dass ich doch froh bin, keine mehr abbekommen zu haben. Da hätte man es lieber wie bei der Fury X und LCE machen sollen. Mit 'ner besseren Kühllösung ist man dann locker flockig bei >800€, sofern man eine zur UVP abbekommen hat. DHE wäre nicht so schlecht/schlechter, dafür aber sicher billiger gewesen. Einfach nur ein richtiger fail, das muss einem aber eigentlich ausfallen.

Hätte als Reviewer im ersten Moment gedacht, mit der Karte ist irgendwas nicht in Ordnung. Aber Igor hatte ja bei AMD nachgefragt und das läuft, wie geplant. Eigentlich absurd.

hq-hq
2019-02-09, 17:19:46
:freak: :cool:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65610&stc=1&d=1549729240

dildo4u
2019-02-09, 17:19:57
Laut Gamestar ist ein neues Bios angedacht,wobei ich dann nicht weiß mit dem 100° Hotspot passieren soll.Vorallem wenn wir wieder so ein Sommer wie 2018 haben.

https://youtu.be/2jzMrDtY1xA?t=389

Erbsenkönig
2019-02-09, 17:52:51
Ich hab mir gerade das Video von Igor angesehen: Wem ist denn dieser Schwachsinn eingefallen?! Ich dachte erst da hätte einer ein Formel 1 Rennen drübergelegt so hat die Karte losgelegt.:freak:;D

dargo
2019-02-09, 18:06:34
Laut Gamestar ist ein neues Bios angedacht,wobei ich dann nicht weiß mit dem 100° Hotspot passieren soll.Vorallem wenn wir wieder so ein Sommer wie 2018 haben.

https://youtu.be/2jzMrDtY1xA?t=389
Ich hoffe nicht für den asiatischen Raum. Wenn die zu leise ist kauft die keiner dort mehr. :D

x-force
2019-02-09, 18:10:11
Zudem spricht die Preis/Leistung und die Verfügbarkeit ebenfalls nicht für eine Gaming Karte, die massenweise verkauft werden will.


also komplettes marketingfail bei amd deiner meinung nach.

Daredevil
2019-02-09, 18:17:57
Fanservice, habe ich doch gesagt.

( Darunter fällt für mich aber z.B. auch die RTX2080ti bzw. Titan. Niemand hat nach einer Karte für 1300€ 2700€ gefragt, aber manche wenige spricht es nun mal an... )

anorakker
2019-02-09, 18:26:42
Die Karte mit 8Gb für um die 550€-> hätt ich vllt. gekauft

Linmoum
2019-02-09, 18:29:15
Die Karte mit 8Gb für um die 550€-> hätt ich vllt. gekauftDie Karte mit 8GB und die ist u.U. langsamer als eine Vega64 LCE, weil die hohe Bandbreite flöten geht.

Mortalvision
2019-02-09, 18:31:30
Die 16GB hbm2 mit 7nm und gamer-architektur wären ein Leckerbissen!

anorakker
2019-02-09, 18:34:07
Hätt ich dazu erwähnen sollen: 8GB natürlich OHNE Performanceverlust. Wenn das eben nicht geht, dann ist die Karte für mich ein am Markt vorbeidesigntes Gerät. Es riecht hat alles noch extrem nach Mining Karte!
Vielleicht sollte man NVidia tatsächlich mal danken, dass sie zwar (aktuell) unsinniges RTX rausgebracht haben, aber sich nicht komplett für die beknackten Miner gebückt haben.
AMD kannn mit ihrem "Compute" Teil gerne dahin wo der Pfeffer wächst, ich bin Gamer!

dargo
2019-02-09, 18:35:13
Die 16GB hbm2 mit 7nm und gamer-architektur wären ein Leckerbissen!
Wenn schon Nvidia Profikarten im höheren Preissegment fürs Gaming "missbraucht" scheint sich das nicht mehr zu lohnen.

Matrix316
2019-02-09, 18:35:29
Die Karte mit 8Gb für um die 550€-> hätt ich vllt. gekauft
Wenn AMD Nvidia wäre, hätte man eine Vega 64 in 7nm rausgebracht als Vega V oder so. ;) Und das wäre auch glaube ich ein guter Schachzug gewesen, weil 700 $ oder so ist jetzt nicht unbedingt eine Karte für jeden. Wo werden denn die meisten Karten verkauft? Wahrscheinlich doch eher im Bereich 200~400.

dargo
2019-02-09, 18:37:09
Die Karte mit 8GB und die ist u.U. langsamer als eine Vega64 LCE, weil die hohe Bandbreite flöten geht.
Langsamer sicherlich nicht da der GPU-Takt etwas höher ist. Aber theoretisch wäre auch eine 8GB V20 Gaming mit 4x 2GB HBM2 möglich. Oder gibt es diese Chips nicht?

[MK2]Mythos
2019-02-09, 18:43:39
So wie ich das bisher einschätzen kann, schreit die Karte nach einem vernünftigen (Wasser)Kühler, sobald das passiert ist, wird sie erst richtig aufleben. Es ist massig UV und OC Potential vorhanden.

Die Junction Temperature ist der Faktor, der den Kühler auch bei starkem UV und UC (runtertakten auf 1600) hochdrehen lässt. Die GPU Temp dümpelt bei rund 62°C rum und die Junction Temp eskaliert bei rund 97°C. Kein Plan wo die gemessen wird, oder ob das wirklich nur ein rein rechnerischer Wert ist.

Daredevil
2019-02-09, 18:46:33
Irgendwer hat das in nem Video erklärt.
Die Junction Temp ist der neue "Hotspot", welcher den heißesten Punkt des DIEs darstellt.
Bei Vega I gab es noch 32 Sensoren auf dem DIE, bei Vega II sind es nun 64 Stück, um die Steuerung eigentlich genauer zu machen.

Erbsenkönig
2019-02-09, 18:56:50
Kann man diesen Punkt dann auch separat auslesen? HWInfo vielleicht?

Schlammsau
2019-02-09, 18:58:20
Also wenn wirklich ein besseres BIOS rauskommen würde wegen der Lautstärke und der Preis sich bei max. 700€ einpendeln würde, wäre sie sogar gar nicht so schlecht. Die Compute Leistung und die 16GB VRAM sind schon echt sexy! Geht nur kaum ein Review drauf ein.

dildo4u
2019-02-09, 19:02:08
Klar gehen die Reviews drauf ein gearde weil die Youtuber sich oft mit Adobe etc beschäftigen.

https://youtu.be/tHxXgOTMVLc?t=538

https://youtu.be/7usANnBQC7U?t=354

https://youtu.be/alhEgNvzv50?t=277

https://youtu.be/5IerpF8rfKc?t=475

https://youtu.be/RF-Tp91tUHI?t=362

https://youtu.be/a-ZB6Ld5QaE?t=1304

[MK2]Mythos
2019-02-09, 19:07:23
Kann man diesen Punkt dann auch separat auslesen? HWInfo vielleicht?
Im Wattman wird die GPU Temp und die Junction Temp angezeigt. Die einstellbare Lüfterkurve bezieht sich bei den Temperaturen offensichtlich auf die GPU Temp und wird in dem Moment gesprengt bzw obsolet, wenn die Junction Temp die GPU Temp übersteigt, was relativ schnell passiert, die Lüftersteuerung wechselt dann anschließend zwischen der eingestellten Lüfterkurve und dem Eskalationsmodus, der durch die Junction Temp verursacht wird. Die Folge ist eine sprunghafte Lüfterdrehzahlvariation zwischen 2200 (von mir eingestellt) und über 4000 U/min. :freak:

Daredevil
2019-02-09, 19:29:27
Mythos;11922512'] die Lüftersteuerung wechselt dann anschließend zwischen der eingestellten Lüfterkurve und dem Eskalationsmodus
Ich bekomme gerade schon ein bisschen Bock auf die Karte. :D Klasse!

Hier mal als Vergleich:
Dual Slot, Dual Fan Ref Design mit Vapor Chamber der 2080ti bei ~278w TDP:
https://abload.de/img/11q7ku7.gif
Obwohl der DIE fast doppelt so groß ist ( Höhere Wärmeabgabe ), dreht die Karte schon aufgrund des Dual Slot Designs ziemlich hoch. Triple Slot ist halt einfach Pflicht bei so einer Wärmeabgabe, oder halt ne längere Karte.
AMD hat echt alles gegeben mit der Vapor Chamber, den Heatpipes und dem HighTech Pad, aber sowas bekommt man doch nicht weggekühlt. :frown:

Ob uns das wohl in nächster Zeit öfter begegnet?
Temperatur Probleme aufgrund des kleinen DIEs?
Wir haben uns ja an fette Chips gewöhnt, welche man relativ einfach kühlen kann. Je kleiner der DIE wird bei gleichem Verbrauch, desto mehr muss man sich beim abtragen der Wärme bemühen.

[MK2]Mythos
2019-02-09, 20:08:31
Mir mangelt es im Moment an Zeit, systematisch die Grenzen auszutesten, hab aber eben wieder einen Schuss ins Blaue abgegeben:
1500 Mhz@805mV Lüfterkurve eingestellt 57°C - 80°C @40% ~ 1900 U/min.
Die Screenshotfunktion nimmt leider die eingeblendeten Overlaydaten nicht auf, daher mal mit Handy. :freak: Die 110W waren btw peak, davor und danach lag der Wert bei 100W.
Junction Temp war zu dem Zeitpunkt bei 62°C

https://www.bilder-upload.eu/thumb/9beae0-1549738867.jpg (https://www.bilder-upload.eu/bild-9beae0-1549738867.jpg.html)

misterh
2019-02-09, 21:28:41
kurze Testvergleich bei mir. Auf Watt Anzeige nicht drauf geachtet

5120x2160

Forze Horizon 4 Demo 8MSAA 16AF ALL MAX FXAAoff
1670-1790 / 1000 @ 1055mV 20% : 41 FPS
1660-1850 / 1000 @ 952mV 20% : 39 FPS
1410-1490 / 1000 @ 855mV 20% : 37 FPS

Alien vs Predator Benchmark VeryHigh/High/4MSAA/16AF/SSAOon/TSon/ASon
1490-1760 / 1000 @ 1055mV 20% : 62,0 FPS
1740-1765 / 1000 @ 952mV 20% : 64,0 FPS
1420-1480 / 1000 @ 855mV 20% : 56,7 FPS

Edit:
hab Takt selber eingestellt auf 1500Mhz @ 855mV und bei 952mV sowie 1055mV war 1801Mhz eingestellt von Haus aus (Max Takt in Wattman)

dargo
2019-02-09, 22:53:37
Jetzt blicke ich gar nicht mehr durch. :D Also geht der Takt bei weniger Spannung doch runter? Zumindest bei den 855mV. Oder der Wattman spinnt noch rum. Die beiden ersten Werte in FH 4 ergeben auch keinen Sinn. Aber wer weiß schon auf welchen Stand der Wattman wieder ist? Ich erinnere da nur an V10 Release. ;D

Savay
2019-02-09, 23:10:31
Ob uns das wohl in nächster Zeit öfter begegnet?


Denke schon, zumindest wenn die Leistungsaufnahme nicht sinkt, die DIE Größe aber schon... und vor allem wenn es um solche "OEM-Design" Karten geht...
Sind mehr als 2 Slot Lösungen überhaupt offiziell über eine Spec (PCI-SIG oder ATX) abgedeckt??!?

Als OEM hat man in der Beziehung ja ein paar mehr Restriktionen die man beachten muss.
Die Customs können da schon eher frei von der Leber weg so designed werden dass sie nicht nur auf 100% aller Boards passen...sondern zur Not eben nur auf 95-98%....oder nur mit Einschränkungen/Presspassung.

Kommt bei den 2,5 Slot und 3 Slot Designs ja nun schon oft genug zu div. Kollisionen. (SATA, CPU-Kühler, Chipsatzkühler, Gehäuse, sonstige Connectoren usw.) :ugly:

Ist in der Retrospektive jetzt zwar blöd mit dem 2 Slot Design bei der VII...aber ich glaube kaum das sie für ein direktvertriebenes Ref-Design groß eine andere Wahl hatten.

Steve1
2019-02-10, 10:22:50
Cracky von Rawiioli hat in seiner Bastelnacht 2 Radeon VII im Crossfireverbund getestet. Das ganze passiert ab 5 Stunden 47 Minuten.

https://www.twitch.tv/videos/377921667

Megamember
2019-02-10, 11:29:13
Cracky von Rawiioli hat in seiner Bastelnacht 2 Radeon VII im Crossfireverbund getestet. Das ganze passiert ab 5 Stunden 47 Minuten.

https://www.twitch.tv/videos/377921667


Bei ihm war die Junction Temp im Single Betrieb und undervolted auch immer weit über 100 Grad@4K und unter 1V liess sie sich auch nicht wirklich stabil betreiben.

denjudge
2019-02-10, 11:41:25
Cracky von Rawiioli hat in seiner Bastelnacht 2 Radeon VII im Crossfireverbund getestet. Das ganze passiert ab 5 Stunden 47 Minuten.

https://www.twitch.tv/videos/377921667

Das war gleichzeitig auch der interessanteste und informativste Test, den ich zur 7 bis jetzt gesehen habe. Ganz starkes Format.

Ätznatron
2019-02-10, 11:46:08
Das war gleichzeitig auch der interessanteste und informativste Test, den ich zur 7 bis jetzt gesehen habe. Ganz starkes Format.

Absolut. Der beste Beitrag zur R VII bis jetzt.

Das macht mich noch sicherer, die richtige Kaufentscheidung getroffen zu haben, von wegen Fön und so...

horn 12
2019-02-10, 12:04:33
Im positiven oder Negativem Sinne
Würde Vega 64 nun für 400 loswerden ?
Aber Shop bekommt Dienstag nur 12 Karten rein für 839 Euro derzeit
und erst am Anfang März einige Hundert.

Matrix316
2019-02-10, 12:09:18
CikBDA54rTs

dildo4u
2019-02-10, 12:15:29
Der Release Treiber soll deutlich stabiler sein als der Pressetreiber.



4YyCN1iOAHU

Ex3cut3r
2019-02-10, 12:25:05
Cracky von Rawiioli hat in seiner Bastelnacht 2 Radeon VII im Crossfireverbund getestet. Das ganze passiert ab 5 Stunden 47 Minuten.

https://www.twitch.tv/videos/377921667

Alter Falter, 6000 RPM vor dem Ohr ^^
Und was ist mit der GPU Temp los? 110 Grad? Hotspot?

denjudge
2019-02-10, 12:36:18
Das ist tjunction, der hotspot ja. Gpu Temperatur liegt viel niedriger.

Ex3cut3r
2019-02-10, 12:38:54
Ah, dachte mir schon, trotzdem nicht bedenklich? Wenn die Karte GDDR6 hätte wärs fatal, wie sieht da beim HMB2 aus?

dargo
2019-02-10, 12:42:40
Cracky von Rawiioli hat in seiner Bastelnacht 2 Radeon VII im Crossfireverbund getestet. Das ganze passiert ab 5 Stunden 47 Minuten.

https://www.twitch.tv/videos/377921667
Ist schon witzig. Reduziert man den "Hotspot" auf etwa 80-85°C drehen die Lüfter nur noch grob mit der halben Drehzahl. Das Ding wäre mit einem Nitro+ Kühler richtig geil. :) Was ist eigentlich der SoC Clock? Der vom Speichercontroller?

Edit:
Beim UV ist der Unterschied zwischen GPU-Temp. und Hotspot aber echt schon extrem mit 42°C vs. 105°C. :O

Thomas Gräf
2019-02-10, 12:48:23
Cracky von Rawiioli hat in seiner Bastelnacht 2 Radeon VII im Crossfireverbund getestet. Das ganze passiert ab 5 Stunden 47 Minuten.

https://www.twitch.tv/videos/377921667

Danke cooles Vid, Radeon XIV :biggrin:
Tja die beiden als FullCover unter Wasser...aber was man auch sieht ist das Software der wahre King ist. Und das der Großteil an Software Crap ist.

Zergra
2019-02-10, 12:49:56
Ah, dachte mir schon, trotzdem nicht bedenklich? Wenn die Karte GDDR6 hätte wärs fatal, wie sieht da beim HMB2 aus?

Also bedenklich sind solche Temperaturen schon. Deswegen drehen die Lüfter auch so hoch, eine Wasserkühlung würde der Karte echt gut tun.

dargo
2019-02-10, 13:02:18
https://youtu.be/CikBDA54rTs
Weiß einer was die Karte über den PCIe zieht? Über die beiden Stecker sind es hier ca. 250-255W in 4k und Superposition Benchmark.

BlacKi
2019-02-10, 13:06:01
mein fehler, kann weg

Lowkey
2019-02-10, 13:10:15
Ab hier wird es interessant: https://youtu.be/4YyCN1iOAHU?t=510

Ätznatron
2019-02-10, 13:18:36
Und was genau wird da interessant?

dargo
2019-02-10, 13:19:31
Ab hier wird es interessant: https://youtu.be/4YyCN1iOAHU?t=510
Was soll daran interessant sein? Dass jeder wieder was anderes misst? :D

Guckst du hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11922439&postcount=688

Dort ist die von MSI (laut MSI 260W TDP) hochgeprügelte RTX 2080 in pCars 2 @1440p nur 3% schneller und in 4k gleich schnell wie die Vega VII. Zudem sind die Frametimes schlechter. Vielleicht sollte man langsam akzeptieren, dass sich unterschiedliche Szenen zwischen beiden IHVs auch recht unterschiedlich bei den Frames verhalten können. Für mich ist die Vega VII und RTX 2080 die selbe Leistungsklasse. +/-10% ist doch eh komplett wayne.

btw.
Battlefront 2 ist auch witzig. Die messen dort -10% für die Vega VII. CB misst -2% gegenüber der RTX 2080 FE in 1440p.

Bellspinder
2019-02-10, 13:51:13
Diese pervers hohe Speicheranbindung muss doch genial tiefe frametimes erzeugen. Der Speicher sitzt bildlich gesprochen direkt neben der CPU, die beiden können sich also gegenseitig ins Ohr flüstern. Bei den GDDR6 Speichern von Nvidia sitzt der Speicher im anderen Zimmer und beide müssen sich gegenseitig zurufen, um Informationen auszutauschen. Dieses "zurufen" findest zwar extrem schnell statt, aber es bleibt ein Austausch über einen sehr viel weiteren Weg.

Ich merk das ja auf meiner V56 schon wie smooth alles läuft. 30fps auf der Vega fühlen sich anders an als 30fps auf der 1070 die ich vorher hatte. Das Bild wird mit fallenden fps nur träger, aber es stottert/ruckelt nicht mehr, bzw. kaum noch. Sehr viel angenehmeres Spielgefühl.

BeetleatWar1977
2019-02-10, 14:28:55
Hat hier jemand die von Asrock? Da gabs schon das erste Biosupdate.... https://www.asrock.com/Graphics-Card/AMD/Phantom%20Gaming%20X%20Radeon%20VII%2016G/#BIOS

robbitop
2019-02-10, 14:39:31
Was ich mich frage: ist das normal bei GPUs, dass Temperaturdifferenzen von ~30K+ innerhalb eines Dies herrschen? Bei Vega misst man offenbar granularer - aber ich frage mich, ob das bei NV GPUs und auch bei Polaris und seinen Vorgängern auch so ist und nur nicht gemessen wurde?
Die reguläre GPU Temperatur scheint ja recht ok zu sein und wenn man nur auf diese regeln würde, könnten die Lüfter viel niedriger drehen.

Was kann denn einen so hohen Wärmewiderstand auf so kleinem Raum verursachen? Normal oder eher eine ungünstige Auslegung?

Mal eben 30K mehr ist ja selbst für potente Wasserkühler dann ein Problem. Das ist schon ziemlich fetter Wärmewiderstand...

SKYNET
2019-02-10, 14:44:23
Weiß einer was die Karte über den PCIe zieht? Über die beiden Stecker sind es hier ca. 250-255W in 4k und Superposition Benchmark.

https://www.tomshw.de/2019/02/07/heisses-eisen-im-test-amd-radeon-vii-mit-viel-anlauf-und-wind-auf-augenhoehe-zur-geforce-rtx-2080/16/

M4xw0lf
2019-02-10, 15:18:11
Was ich mich frage: ist das normal bei GPUs, dass Temperaturdifferenzen von ~30K+ innerhalb eines Dies herrschen? Bei Vega misst man offenbar granularer - aber ich frage mich, ob das bei NV GPUs und auch bei Polaris und seinen Vorgängern auch so ist und nur nicht gemessen wurde?
Die reguläre GPU Temperatur scheint ja recht ok zu sein und wenn man nur auf diese regeln würde, könnten die Lüfter viel niedriger drehen.

Was kann denn einen so hohen Wärmewiderstand auf so kleinem Raum verursachen? Normal oder eher eine ungünstige Auslegung?

Mal eben 30K mehr ist ja selbst für potente Wasserkühler dann ein Problem. Das ist schon ziemlich fetter Wärmewiderstand...
Das kann nur über Zeiträume von höchstens mehreren Sekunden wahr sein.

Daredevil
2019-02-10, 15:25:46
Ich hatte auch ne Differenz von ~20°C bei Vega I zwischen HBM und GPU Temp.
Wenn also der GPU Sensor nicht im DIE ist und die TJunction halt schon, why not?

Der_Korken
2019-02-10, 15:54:39
Eventuell sind diese Hotpots Probleme, die von der 7nm-Fertigung her kommen und die AMD so nicht vorhergesehen hat. Oder sie haben es "zu spät" gemerkt und nur noch die zusätzlichen Temp-Sensoren verbaut, um die Hotspots wenigsten zu erkennens und als Workaround den Takt zu drosseln.

Ex3cut3r
2019-02-10, 16:07:24
Das erklärt auch warum die Lüfter mit 3000 blasen, nicht wegen der GPU Temp, sondern dem Hotspot von über 110 Grad. Man stelle sich jetzt mal vor, einer macht nicht die UV Keule sonder schwingt eher die OC Keule, mit 350W Bios, ähhm nach 3 Monaten ist die Graka doch im Arsch. ;D

dargo
2019-02-10, 16:11:24
https://www.tomshw.de/2019/02/07/heisses-eisen-im-test-amd-radeon-vii-mit-viel-anlauf-und-wind-auf-augenhoehe-zur-geforce-rtx-2080/16/
29W also, danke. :)

Bellspinder
2019-02-10, 16:11:59
Mal theoretisch die Haltbarkeit von Lüftern betreffend, halten die Grafikkartenlüfter länger wenn ich sie im idle Betrieb:

a) im Zero Fan Modus nutze
b) Auf 300-500rpm "geräuschlos" laufen lasse

Ich frage mich, ob der Zero-Fan mode den Lüftern langfristig nicht eher schadet, weil durch das ruckartige anlaufen/hochlaufen ja evtl. die Kugellager stärker belastet werden, als bei einem langsamen hochgleiten. Andererseits ist ein Lüfter der nicht läuft auch keinem Verschleiß ausgesetzt. Wie seht ihr das?

Ex3cut3r
2019-02-10, 16:13:25
Mal theoretisch die Haltbarkeit von Lüftern betreffend, halten die Grafikkartenlüfter länger wenn ich sie im idle Betrieb:

a) im Zero Fan Modus nutze
b) Auf 300-500rpm "geräuschlos" laufen lasse

Ich frage mich, ob der Zero-Fan mode den Lüftern langfristig nicht eher schadet, weil durch das ruckartige anlaufen/hochlaufen ja evtl. die Kugellager stärker belastet werden, als bei einem langsamen hochgleiten. Andererseits ist ein Lüfter der nicht läuft auch keinem Verschleiß ausgesetzt. Wie seht ihr das?

Wird wohl aufs gleiche hinauslaufen.

dargo
2019-02-10, 16:16:54
Was ich mich frage: ist das normal bei GPUs, dass Temperaturdifferenzen von ~30K+ innerhalb eines Dies herrschen? Bei Vega misst man offenbar granularer - aber ich frage mich, ob das bei NV GPUs und auch bei Polaris und seinen Vorgängern auch so ist und nur nicht gemessen wurde?
Die reguläre GPU Temperatur scheint ja recht ok zu sein und wenn man nur auf diese regeln würde, könnten die Lüfter viel niedriger drehen.

Das Problem ist dieser Hotspot. Mit langsamer drehenden Lüftern überschreitest du die 110°C und der GPU-Takt sinkt. AMD wollte hier offenbar auf Biegen und Brechen einen möglichst hohen Boost erreichen. Ist natürlich die Frage ob 50-100Mhz weniger der Performance wirklich weh tun? Imho nicht, schon gar nicht ersteres. Das ist bei den eh schon recht hohen Freqenzen eher irrelevant. Ob die Karte dann 2% langsamer ist, wen juckt das?

Das erklärt auch warum die Lüfter mit 3000 blasen, nicht wegen der GPU Temp, sondern dem Hotspot von über 110 Grad. Man stelle sich jetzt mal vor, einer macht nicht die UV Keule sonder schwingt eher die OC Keule, mit 350W Bios, ähhm nach 3 Monaten ist die Graka doch im Arsch. ;D
Vielleicht mal etwas nachdenken bevor man wieder wirres Zeug rumtrollt? Wenn die 110°C beim Hotspot überschritten werden schützt sich die Karte von selbst durch Drosseln vom GPU-Takt und dann natürlich entsprechend auch mit Senkung der Spannung, was stinknormales Powermanagement ist.

Ex3cut3r
2019-02-10, 16:30:19
Vielleicht mal etwas nachdenken bevor man wieder wirres Zeug rumtrollt? Wenn die 110°C beim Hotspot überschritten werden schützt sich die Karte von selbst durch Drosseln vom GPU-Takt und dann natürlich entsprechend auch mit Senkung der Spannung, was stinknormales Powermanagement ist.

Und? Nach 2 Minuten ist man wieder bei 110 Grad. Einfach mal abwarten, in ein paar Wochen wird man bestimmt etwas von Usern lesen, die sich beschweren werden, dass ihre Super Radeon 7 plötzlich tot ist. Komisch das es keine Review erwähnt, was will hier schützen?

Undertaker
2019-02-10, 16:31:28
Diese pervers hohe Speicheranbindung muss doch genial tiefe frametimes erzeugen. Der Speicher sitzt bildlich gesprochen direkt neben der CPU, die beiden können sich also gegenseitig ins Ohr flüstern. Bei den GDDR6 Speichern von Nvidia sitzt der Speicher im anderen Zimmer und beide müssen sich gegenseitig zurufen, um Informationen auszutauschen. Dieses "zurufen" findest zwar extrem schnell statt, aber es bleibt ein Austausch über einen sehr viel weiteren Weg.

Ich merk das ja auf meiner V56 schon wie smooth alles läuft. 30fps auf der Vega fühlen sich anders an als 30fps auf der 1070 die ich vorher hatte. Das Bild wird mit fallenden fps nur träger, aber es stottert/ruckelt nicht mehr, bzw. kaum noch. Sehr viel angenehmeres Spielgefühl.

Die Bedeutung der min-fps/Frametimes ist ja nun nicht erst seit gestern bekannt. Allerdings: Wenn ich mir den CB-Test anschaue, scheint die Radeon VII im Vergleich z.B. zur GTX 1080Ti da eher minimal schlechter als bei den avg-fps abzuschneiden. Es ist imo auch zu simpel gedacht, so zu argumentieren: Wer sagt denn, dass die langsamsten Frames unbedingt vom Speicherzugriff limitiert sein müssen? Offenbar ist das in der Praxis nicht sonderlich oft der Fall, sonst würde die Radeon VII hier besser dastehen.

dargo
2019-02-10, 16:32:36
@Ex3cut3r

Du redest nur wirres Zeug, geh mal an die frische Luft. Vom Powermanagement und diversen Sicherheitsmaßnahmen bei modernen GPUs scheinst du nicht wirklich auf dem aktuellen Stand zu sein.

Ätznatron
2019-02-10, 16:39:11
Die Bedeutung der min-fps/Frametimes ist ja nun nicht erst seit gestern bekannt. Allerdings: Wenn ich mir den CB-Test anschaue, scheint die Radeon VII im Vergleich z.B. zur GTX 1080Ti da eher minimal schlechter als bei den avg-fps abzuschneiden. Es ist imo auch zu simpel gedacht, so zu argumentieren: Wer sagt denn, dass die langsamsten Frames unbedingt vom Speicherzugriff limitiert sein müssen? Offenbar ist das in der Praxis nicht sonderlich oft der Fall, sonst würde die Radeon VII hier besser dastehen.

Also bei den mir bekannten Tests, bei denen die Frametimes gemessen wurden, hat die Radeon 7 eigentlich durchgehend besser abgeschnitten als deren Konkurrenz. Die max. FPS waren u.U. niedriger, die Frameverläufe selbst dafür aber erheblich ruhiger.

Außerdem dürfte es ja egal sein, ob jetzt der Speicherzugriff limitiert oder was anderes, die AMD-Karte hat jedenfalls wenig bis keine Probleme damit, nVidia dagegen schon.

PS: Du nimmst CB ernst?

JVC
2019-02-10, 16:39:21
Was ich mich frage: ist das normal bei GPUs, dass Temperaturdifferenzen von ~30K+ innerhalb eines Dies herrschen? Bei Vega misst man offenbar granularer - aber ich frage mich, ob das bei NV GPUs und auch bei Polaris und seinen Vorgängern auch so ist und nur nicht gemessen wurde?

Ich nehme mal an das alle, GPU´s und CPU´s ..., solche "Hott-Spotts" haben.
Temperaturtechnisch sind auch 150°c und mehr kein Problem für den Siliziumchip selbst.
(weit vor dem durchbrennen kommt es zuerst zu Rechenfehlern und zu nem Absturz/Freez)

Das Lötmittel bildet die thermische Grenze und selbst das hält mindestens 180°c aus.
(Kupfer ~1080° , Silizium ~1400° ...)

Aus diesem Grund wollte Intel auch von Kupfer zu Kobalt wechseln bei 10nm.
(Kobalt Schmelzpunkt ~1500°c)
https://www.golem.de/news/fertigungstechnik-intel-steckt-kobalt-und-4-5-milliarden-us-dollar-in-chips-1802-132848.html
Scheinbar wird auch Wolfram in Kernen eingesetzt (Schmelzpunkt 3400°c)

Es dürfte also Chipintern stellenweise merklich heißer zugehen als man glauben mag.:eek:

Auch beim "Altern" (Elektromigration) spielt die Spannung und das verwendete Material
eine größere rolle als die Temperatur.

m.f.g. JVC

p.s.: Eine Anekdote aus den T-bred Zeiten ^^
Zu der Zeit gab es so etwas wie "thermischen Schutz" noch nicht ...
Hab da den einen oder anderen CPU "eingebrannt" ...
@500mhz +erhöhte Spannung ~passiv 4-5h bei Volllast und 125°+ einfahren, geschätzt ~ 140-150°c :rolleyes:
(runter Takten ist wichtig damit er bei den Temperaturen noch läuft, das Mobo zeigte nur bis 125°c an ...)
Überlebt haben es alle, gebracht hat es wenig bis nix :freak:

Ex3cut3r
2019-02-10, 16:39:48
@Ex3cut3r

Du redest nur wirres Zeug, geh mal an die frische Luft. Vom Powermanagement und diversen Sicherheitsmaßnahmen bei modernen GPUs scheinst du nicht wirklich auf dem aktuellen Stand zu sein.

Geht nicht, bin Krank (Grippe). :biggrin:

dargo
2019-02-10, 16:40:52
Dann gute Besserung. :redface:

btw.
Die 110°C sind nur ein Richtwert ab wann diverse Sicherheitsmaßnahmen greifen müssen. In welcher Form auch immer. Bsw. ein schneller drehender Lüfter und/oder sinkender Takt + Spannung. Das heißt noch lange nicht, dass die 110°C Hotspot kritisch sind. Es ist wie gesagt nur ein Richtwert damit andere Maßnahmen greifen damit der Wert nicht weiter in den kritischen Bereich steigt.

Loeschzwerg
2019-02-10, 16:43:07
Im positiven oder Negativem Sinne
Würde Vega 64 nun für 400 loswerden ?
Aber Shop bekommt Dienstag nur 12 Karten rein für 839 Euro derzeit
und erst am Anfang März einige Hundert.

Mach dir keinen Stress und behalte deine V64, außer du bist absolut der Meinung die Mehrleistung zu benötigen.

Undertaker
2019-02-10, 16:47:00
Also bei den mir bekannten Tests, bei denen die Frametimes gemessen wurden, hat die Radeon 7 eigentlich durchgehend besser abgeschnitten als deren Konkurrenz. Die max. FPS waren u.U. niedriger, die Frameverläufe selbst dafür aber erheblich ruhiger.

Außerdem dürfte es ja egal sein, ob jetzt der Speicherzugriff limitiert oder was anderes, die AMD-Karte hat jedenfalls wenig bis keine Probleme damit, nVidia dagegen schon.

PS: Du nimmst CB ernst?

Was gibt es an CB auszusetzen? Und ja: Dort sind die Frametimes der Radeon VII absolut unauffällig und z.B. im Relation zu den fps eher marginal schlechter als bei einer 1080Ti. In Summe aber alles nicht der Rede wert, kein wirklicher Punkt für oder gegen eine der Karten.

dargo
2019-02-10, 16:59:14
Ich habe mir jetzt mal den Wattman bei der Vega VII genauer angeschaut. Das Undervolting ist ja noch viel simpler als bei V10. Es gibt einen schönen Kurveeditor mit dem man wunderbar rumspielen kann.
https://pics.computerbase.de/8/6/4/3/2/5-1080.1411732832.png
https://pics.computerbase.de/8/6/4/3/2/12-1080.881031631.png

Hat denn eigentlich schon einer mal folgendes probiert? Max. 1700Mhz und 875-900mV? Wenn schon CB bei max. 1802Mhz mit 950mV fahren kann (ich weiß, es wird sicherlich wieder verschiedene Chipgüten geben) halte ich diesen Wert durchaus für realistisch bei 100Mhz weniger. Wenn CB schon mit max. 1802Mhz und 950mV 207W nur noch erreicht wird die Karte mit 900mV und max. 1700Mhz locker im Bereich von 170-180W liegen. Ach hätte ich nicht die tolle V64 LCE wäre das echt ein nettes, neues Spielzeug die Vega VII. :D Allerdings nicht mit diesem Kühler.

btw.
Kann bitte mal einer der die Vega VII schon hat im Wattman auf den mittleren Punkt klicken was dort als Spannung und Frequenz hinterlegt ist? Das wäre sehr nett. :)

Edit:
Übrigens... man könnte das ja auch schön kombinieren. Der GPU-Takt bei CB steigt ja mit einer Senkung der Spannung an bei gleichem max. Wert von 1802Mhz. Jetzt könnte man den max. Takt so weit runter senken und entsprechend dann auch die Spannung, dass man praktisch den gleichen, realen Takt wie eine Default Vega VII liefert erreicht und man kommt noch weiter unter die 207W bei gleicher Leistung. ;)

Screemer
2019-02-10, 17:05:05
Und? Nach 2 Minuten ist man wieder bei 110 Grad. Einfach mal abwarten, in ein paar Wochen wird man bestimmt etwas von Usern lesen, die sich beschweren werden, dass ihre Super Radeon 7 plötzlich tot ist. Komisch das es keine Review erwähnt, was will hier schützen?

Hat sich eigentlich einer das Video von Steve Burke auf Gamernexus überhaupt angesehen? Es geht hier schon wieder steitenweise um bullshit. Tjunk ist allem Anschein nach keine reale Temperaturen sondern ein Sensorwert+Offset um die hotspottemp zu "simulieren" und möglicher Überhitzung vorzubeugen. Wie sollte man auch ne hotspottemp im die ohne 100te Sensoren messen? Das natürlich Leute wie du hier jetzt aufschlagen die nix verstanden haben war klar.

dargo
2019-02-10, 17:08:12
Hat sich eigentlich einer das Video von Steve Burke auf Gamernexus überhaupt angesehen? Es geht hier schon wieder steitenweise um bullshit. Tjunk ist allem Anschein nach keine reale Temperaturen sondern ein Sensorwert+Offset um die hotspottemp zu "simulieren" und möglicher Überhitzung vorzubeugen.
Oh... eine sehr wichtige Information! Danke dafür, das ist für mich auch neu. Ich nehme an AMD hat sich für diesen Schritt entschieden um viel schneller mit dem Boost reagieren zu können oder?

Ätznatron
2019-02-10, 17:11:51
Was gibt es an CB auszusetzen? Und ja: Dort sind die Frametimes der Radeon VII absolut unauffällig und z.B. im Relation zu den fps eher marginal schlechter als bei einer 1080Ti. In Summe aber alles nicht der Rede wert, kein wirklicher Punkt für oder gegen eine der Karten.

Wer mit "AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2 (https://www.computerbase.de/2019-02/amd-radeon-vii-test/)" titelt, ist doch wohl mehr auf Klamauk und Krawall aus, als auf Ernsthaftigkeit. Aber das nur als kleines Indiz. CB ist für mich jedenfalls schon seit längerem keine seriöse Seite mehr.

Und schau einer an: Abseits von CB ergibt sich in der Frage ein anderes Bild. Woran mag's wohl liegen?

@dargo

Gibt doch dazu schöne Infrarotmessungen von THW (https://www.tomshw.de/2019/02/07/heisses-eisen-im-test-amd-radeon-vii-mit-viel-anlauf-und-wind-auf-augenhoehe-zur-geforce-rtx-2080/17/).

Weit ab von der TJunction. Der Offset scheint von AMD wirklich supergroßzügig gewählt zu sein, zum eigenen Nachteil womöglich.

Screemer
2019-02-10, 17:13:53
Keine Ahnung warum das so gehandhabt wird. Ist wie Tdie/Tctlt bei ryzen. Zumindest hat Steve es damit verglichen. Musste Mal schauen ob ich die Stelle finde.


€dit: da fällt mir grad was ein. War das überhaupt Steve oder war es doch roman?! Verdammt.

Ex3cut3r
2019-02-10, 17:18:36
Dann gute Besserung. :redface:

btw.
Die 110°C sind nur ein Richtwert ab wann diverse Sicherheitsmaßnahmen greifen müssen. In welcher Form auch immer. Bsw. ein schneller drehender Lüfter und/oder sinkender Takt + Spannung. Das heißt noch lange nicht, dass die 110°C Hotspot kritisch sind. Es ist wie gesagt nur ein Richtwert damit andere Maßnahmen greifen damit der Wert nicht weiter in den kritischen Bereich steigt.

Alles gut. Danke.

Ok, klingt logisch, was du sagst. :wink:

-Yayo-
2019-02-10, 17:24:40
btw.
Kann bitte mal einer der die Vega VII schon hat im Wattman auf den mittleren Punkt klicken was dort als Spannung und Frequenz hinterlegt ist? Das wäre sehr nett. :)


Bei mir sind das 1304 Mhz bei 780mv.

Menace
2019-02-10, 17:33:27
Wer mit "AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2 (https://www.computerbase.de/2019-02/amd-radeon-vii-test/)" titelt, ist doch wohl mehr auf Klamauk und Krawall aus, als auf Ernsthaftigkeit.


Ja, ist leider so. Aber einfache Gemüter brauchen halt einfache Schlagwörter. Ist wohl die neue Art Informationen zu erhalten und weiterzugeben. Keine Zeit für Differenzierungen. :biggrin:


Weit ab von der TJunction. Der Offset scheint von AMD wirklich supergroßzügig gewählt zu sein, zum eigenen Nachteil womöglich.

Könnte das nicht einfach von den Profi-Karten übernommen worden sein? Dort kommt es umso mehr auf Langlebigkeit und Zuverlässigkeit an.

Screemer
2019-02-10, 17:40:11
Gibt doch dazu schöne Infrarotmessungen von THW (https://www.tomshw.de/2019/02/07/heisses-eisen-im-test-amd-radeon-vii-mit-viel-anlauf-und-wind-auf-augenhoehe-zur-geforce-rtx-2080/17/).

Weit ab von der TJunction. Der Offset scheint von AMD wirklich supergroßzügig gewählt zu sein, zum eigenen Nachteil womöglich.

Da Igor den die ja nicht direkt vermessen kann und seine Messpunkte eher träge auf Temperaturen reagieren, kann man aus den ir-aufnahmen Recht wenig ableiten. Es kann durchaus sein, dass es Punkte auf dem die gibt die bei >100°C liegen. Da aber der Wärmeübergabe zum Kühlkörper unabhängig von der Lüftergeschwindigkeit ist frag ich mich warum amd da solche Drehzahlen anlegt und die auch noch von Tjunk abhängig macht. Bin echt gespannt ob es da noch eine Erklärung für geben wird.

dargo
2019-02-10, 17:48:12
Bei mir sind das 1304 Mhz bei 780mv.
Wahnsinn. Und das ohne UV. :eek:

Wärst du so nett und könntest den Kurveeditor so einrichten dass max. Takt bei 1,5Ghz liegt und dann die entsprechende Spannung (welche eigentlich?) anliegt? Ohne UV versteht sich, alles Default! Mich würde der Stromverbrauch damit interessieren. Wenns dir nicht zu viel Arbeit macht auch gerne mit max. 1,6Ghz + entsprechende Spannung (bitte diese auch angeben :)). Kannst dafür gerne den Superposition Benchmark @1440p mit Texturen 4k optimized nehmen.

Danke im voraus. :)

Da Igor den die ja nicht direkt vermessen kann und seine Messpunkte eher träge auf Temperaturen reagieren, kann man aus den ir-aufnahmen Recht wenig ableiten. Es kann durchaus sein, dass es Punkte auf dem die gibt die bei >100°C liegen. Da aber der Wärmeübergabe zum Kühlkörper unabhängig von der Lüftergeschwindigkeit ist frag ich mich warum amd da solche Drehzahlen anlegt und die auch noch von Tjunk abhängig macht. Bin echt gespannt ob es da noch eine Erklärung für geben wird.
Jo.. ich auch. Selbst die VRMs sind ja aktuell sowas von im grünen Bereich. Da hätte man noch locker 10°C "frei machen" können.

Edit:
Wobei... dann wäre die GPU auch schon wieder bei ~90°C, nicht so prickelnd. Der Kühler ist einfach unterdimensioniert.

Screemer
2019-02-10, 17:55:44
Die Überlegung, dass die Telemetrie einfach von den Instinkt Karten übernommen wurde, ist für mich durchaus nachvollziehbar.

Megamember
2019-02-10, 18:21:53
Hat denn eigentlich schon einer mal folgendes probiert? Max. 1700Mhz und 875-900mV?

Rawiioli konnte Stock Takt ~1700-1750 nicht wirklich unter 1V stabil betreiben.
Er hat aber auch mit 4K getestet.

[MK2]Mythos
2019-02-10, 18:23:05
Bei meiner Karte gibt es ein ganz hartes unteres Limit:
Eingestellt sind 1,5 Ghz @ 805mV. Das läuft nach einem halben Tag Zockerei und Bencherei absolut stabil, leise und kühl. Die maximal gemessenen Temperaturen waren 50°C bei der GPU und 62°C Junction Temp.
Die Taktfrequenz variiert mit dieser Einstellung zwischen 1467 und 1500 Mhz.
Bei 791mV ist die Karte bereits instabil, selbst mit nur 1,4 Ghz.

dargo
2019-02-10, 18:26:24
Das ist völlig normal. Unten rum flacht die Kurve stärker ab. Das siehst du schon am Kurveeditor. Aber ~1,5Ghz und 805mV ist schon ne Hausnummer. :D Was zieht die Karte damit? 150-160W?

[MK2]Mythos
2019-02-10, 18:29:45
Das ist völlig normal. Unten rum flacht die Kurve stärker ab. Das siehst du schon am Kurveeditor. Aber ~1,5Ghz und 805mV ist schon ne Hausnummer. :D Was zieht die Karte damit? 150-160W?
Wie beschrieben bei PUBG @3840x1600 @maxed Details rund 110W

dargo
2019-02-10, 18:31:12
Lol... echt jetzt? ;D ASIC oder gesamte Karte? Wobei... selbst bei ASIC wären das ca. 140-150W für die ganze Karte. Not bad dieses 7nm wenn man die GPU nicht wieder an die "Kotzgrenze" treibt. ;)

robbitop
2019-02-10, 18:34:55
Wobei ich mich dann frage, ob es bei AMD nicht einen zuständigen MA gibt, der Karten mal vor Release testet (Lautstärke und somit ungünstige Lüfterkurven, Spannung, OC Verhalten etc).
Warum finden das Halblaien/Journalisten/youtuber innerhalb von wenigen Stunden raus und AMD nicht selbst zuvor und stellt so offensichtliche Dinge ab?

x-force
2019-02-10, 18:42:00
Wobei ich mich dann frage, ob es bei AMD nicht einen zuständigen MA gibt, der Karten mal vor Release testet (Lautstärke und somit ungünstige Lüfterkurven, Spannung, OC Verhalten etc).
Warum finden das Halblaien/Journalisten/youtuber innerhalb von wenigen Stunden raus und AMD nicht selbst zuvor und stellt so offensichtliche Dinge ab?

ich hab das gefühl ein produkt wird bei amd nur released wenn es mindestens einen größeren fehler hat bzw wenigstens einmal ordentlich ins klo gegriffen wurde.

diesesmal ist es wieder der kühler. quasi ein modernes pendant zum fön.

[MK2]Mythos
2019-02-10, 18:44:16
Hier mal PUBG und BFV beides @max 3840x1600
Verbrauch schwankt zwischen 80 und 130 Watt je nach Situation. Soweit ich weiß bezieht sich das auf den Verbrauch von GPU+Speicher.
https://www.bilder-upload.eu/thumb/207ef6-1549820573.jpg (https://www.bilder-upload.eu/bild-207ef6-1549820573.jpg.html)
Edit: Und sorry für die schlechte Qualität, aber ich kriegs einfach nicht hin dass auf den Screens die Overlaydaten angezeigt werden.

dargo
2019-02-10, 18:49:36
Warum nimmst du kein Video mit ReLive auf? :)

Undertaker
2019-02-10, 18:51:45
Wer mit "AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2 (https://www.computerbase.de/2019-02/amd-radeon-vii-test/)" titelt, ist doch wohl mehr auf Klamauk und Krawall aus, als auf Ernsthaftigkeit. Aber das nur als kleines Indiz.

Genau das war in so ziemlich jedem Test das Fazit ;) CB Bias vorzuwerfen ist angesichts des Lobes über Ryzen oder der Kritik an Schwächen bei Nvidia oder Intel ziemlich weit hergeholt, oder passt einfach nur das Ergebnis nicht? ;)

Welche Seite liefert denn in den Spielen, bei denen CB keine besseren Frametimes für Vega 20 sieht, ein gegenteiliges Resultat?

dargo
2019-02-10, 18:52:55
ich hab das gefühl ein produkt wird bei amd nur released wenn es mindestens einen größeren fehler hat bzw wenigstens einmal ordentlich ins klo gegriffen wurde.

diesesmal ist es wieder der kühler. quasi ein modernes pendant zum fön.
Ihr müsst das auch mal global sehen. Wir in DE sind da empfindlich. Für Millionen von Asiaten muss ne Powerkarte hörbar sein. ;) Vielleicht war der Kühler auch einfach nur ein Schnellschuss. Zuerst hieß es es wird definitiv keinen V20 im Gamingsektor geben. Dann kam Turing und es gibt nun doch einen V20 für Gamer. Alles ziemlich kurz entschlossen. Viel schlimmer fände ich wenn es wirklich keine Customs bei V20 geben sollte.

[MK2]Mythos
2019-02-10, 18:56:10
Weil die ganze Testerei bisher ja eigentlich eher für mich war um zu Optimieren bis ich den Wasserkühler habe. Mit der Default Einstellung wäre Zocken nämlich definitiv nicht drin gewesen. Ich muss auch gleich zur Arbeit, wenn es hier gewünscht ist, kann ich mich die Tage aber nochmal mit einer qualitativ höheren Beweismittelsammlung beschäftigen. :biggrin: Hab beim BFV zocken gerade mal den Stromverbrauch des gesamten PC's (Ryzen 1800x 24GB Ram, Wasserkühlung, 2 SSD's) beobachtet, der schwankt zwischen 210 und 230 Watt. Die dargestellten Werte sollten also gut hinkommen.

Wieso muss AMD die Grafikkartenentwicklung eigentlich immer auf den letzten Metern verkacken? :freak:

-Yayo-
2019-02-10, 18:57:46
Wahnsinn. Und das ohne UV. :eek:

Wärst du so nett und könntest den Kurveeditor so einrichten dass max. Takt bei 1,5Ghz liegt und dann die entsprechende Spannung (welche eigentlich?) anliegt? Ohne UV versteht sich, alles Default! Mich würde der Stromverbrauch damit interessieren. Wenns dir nicht zu viel Arbeit macht auch gerne mit max. 1,6Ghz + entsprechende Spannung (bitte diese auch angeben :)). Kannst dafür gerne den Superposition Benchmark @1440p mit Texturen 4k optimized nehmen.

Danke im voraus. :)



https://www.bilder-upload.eu/thumb/e3c9c5-1549821165.jpg (https://www.bilder-upload.eu/bild-e3c9c5-1549821165.jpg.html)
1500 Mhz @ 865 mV.
Die maximale Leistung, die mir das Wattmanoverlay angezeigt hat war 150 Watt. Sonst schwankte der Wert zwischen 120-130 Watt

https://www.bilder-upload.eu/thumb/ac3b17-1549821336.jpg (https://www.bilder-upload.eu/bild-ac3b17-1549821336.jpg.html)
1600Mhz @ 923mV
max: 176 Watt
Ø:140-160 Watt

dargo
2019-02-10, 18:58:55
Mythos;11923205']Weil die ganze Testerei bisher ja eigentlich eher für mich war um zu Optimieren bis ich den Wasserkühler habe.
Hey... ich möchte auch mal mit vielen nützlichen Infos gefüttert werden. :upara: Finde ich zumindest viel interessanter als die Standardkost diverser Reviews wo es um Grabenkriege geht welche Grafikkarte nun 5% schneller ist.

https://www.bilder-upload.eu/thumb/e3c9c5-1549821165.jpg (https://www.bilder-upload.eu/bild-e3c9c5-1549821165.jpg.html)
1500 Mhz @ 865 mV.
Die maximale Leistung, die mir das Wattmanoverlay angezeigt hat war 150 Watt. Sonst schwankte der Wert zwischen 120-130 Watt

https://www.bilder-upload.eu/thumb/ac3b17-1549821336.jpg (https://www.bilder-upload.eu/bild-ac3b17-1549821336.jpg.html)
1600Mhz @ 923mV
max: 176 Watt
Ø:140-160 Watt
Klasse!!! :up:

Zum Vergleich meine UV V64 LCE.
https://abload.de/thumb/superposition_benchmar9jco.png (http://abload.de/image.php?img=superposition_benchmar9jco.png)

~1,515Ghz bei ~885mV, avg. 165W ASIC und max. 176W ASIC


Mythos;11923205']Hab beim BFV zocken gerade mal den Stromverbrauch des gesamten PC's (Ryzen 1800x 24GB Ram, Wasserkühlung, 2 SSD's) beobachtet, der schwankt zwischen 210 und 230 Watt. Die dargestellten Werte sollten also gut hinkommen.

Herrje... das ist ja ein hervorragender Wert. :eek: Hinter dem Netzteil gemessen?

=Floi=
2019-02-10, 18:59:20
Weit ab von der TJunction. Der Offset scheint von AMD wirklich supergroßzügig gewählt zu sein, zum eigenen Nachteil womöglich.

imho wegen dem vram! Dessen empfindlichkeit war doch auch der grund, warum der takt bei V1 nicht maximiert wurde.
Imho konnte der vram nur bis ca. 90 grad aushalten. Das ganze package dürfte sich hier unweigerlich gegenseitig aufheizen.


Für Millionen von Asiaten muss ne Powerkarte hörbar sein.

edit
das ist wohl auch eher so ein märchen. warum sollten es die asiaten nicht auch leise mögen?! ist ja kein hexenwerk das zu verstehen/vermitteln.

x-force
2019-02-10, 19:06:44
gebt dem affen doch seinen zucker.

man kauft doch auch keinen 8 zylinder, wenn man ihn nur halbgas fährt, weil er ja sonst so viel verbraucht.

dargo
2019-02-10, 19:07:55
edit
das ist wohl auch eher so ein märchen. warum sollten es die asiaten nicht auch leise mögen?! ist ja kein hexenwerk das zu verstehen/vermitteln.
Das musst du die schon fragen. Vielleicht einfach nur weil sie Power mit einer gewissen Portion Lautstärke verbinden. Ein fetter 8-Zylinder Motor muss auch entsprechend klingen und nicht so wie ein E-Auto. ;)


man kauft doch auch keinen 8 zylinder, wenn man ihn nur halbgas fährt, weil er ja sonst so viel verbraucht.
Deshalb haben moderne 8 Zylinder bei Teillast Zylinderabschaltung. :rolleyes:

[MK2]Mythos
2019-02-10, 19:08:03
Herrje... das ist ja ein hervorragender Wert. :eek: Hinter dem Netzteil gemessen?
Jep, hinter dem Netzteil. Ich hatte vorher ja eine wassergekühlte GTX 1080Ti drin, an der ich zugegebenermaßen nicht rumgetweaked habe, da lag der Verbrauch aber rund 150 Watt drüber. :biggrin:

dargo
2019-02-10, 19:18:23
Mythos;11923218']Jep, hinter dem Netzteil. Ich hatte vorher ja eine wassergekühlte GTX 1080Ti drin, an der ich zugegebenermaßen nicht rumgetweaked habe, da lag der Verbrauch aber rund 150 Watt drüber. :biggrin:
Mache mal bitte ein paar gut reproduzierbare Messungen. Mich würde mal interessieren wieviel Watt du mit der Wasserkühlung aufgrund geringerer Temps. noch einsparst. Wobei der Vergleich wieder schwierig sein dürfte wenn die Karte durch die wesentlich geringeren Temps. wieder höher boostet. :freak: Da müsstest du dir die realen Taktraten notieren und bei der Wakü über den max. Takt den realen entsprechend anpassen.

misterh
2019-02-10, 19:20:32
Forze Horizion 4 Demo Benchmark
5120x2160 alles max, ohne FXAA

1500Mhz @ 855mV / 1000
84w - 174w

1300Mhz @ 801mV / 1000
68w - 143w

und hier Bild zu 1300 @ 801mV
Nachdem durchgang

https://abload.de/thumb/unbenannt4tj27.png (http://abload.de/image.php?img=unbenannt4tj27.png)

Edit:
1300Mhz @ 776mV / 1000
64w - 136w

dargo
2019-02-10, 19:35:20
Die Sprünge in der Wattage sind aber weiterhin so heftig wie schon in der Telemetrie von V10. Mal sehen wie es mit angepassten OverdriveNTool demnächst aussieht. Sehe ich es richtig, dass durch die fehlenden P-States aktuell die Telemetrie von AMD nicht geändert werden kann? Ist aber nur eine Frage der Zeit bis es im Afterburner auftaucht. Der Kurveeditor ist auf dem ersten Blick eine 1:1 Kopie von Nvidia.

misterh
2019-02-10, 19:41:36
Standard Einstellung
~1760 @ 1055mV / 1000
133w - 276w

für 9 FPS

robbitop
2019-02-10, 19:56:54
ich hab das gefühl ein produkt wird bei amd nur released wenn es mindestens einen größeren fehler hat bzw wenigstens einmal ordentlich ins klo gegriffen wurde.

diesesmal ist es wieder der kühler. quasi ein modernes pendant zum fön.
IMO ist es nicht der Kühler sondern die Regelung der Lüfter.

Ich begreife auch nicht, wozu man Offsets auf Messwerte geben muss, wenn man Kenntnisse über die Regelstrecke und ihr dynamisches Verhalten haben müsste. Und wenn man das nicht hat, kann man einen dummen PID Regler immer noch schlauer parametrieren (die jeweilgen Anteile und die Sollwerte).

robbitop
2019-02-10, 20:07:19
Es gibt bei NV doch seit neustem Auto OC. Ich frage mich, warum man sowas nicht automatisiert in der Fabrik für jede Karte macht - aber nicht für OC sondern in bezug auf Spannung.
Der IHV legt Frequenzen für alle möglichen Powerstates fest und in der Fabrik wird die minimal mögliche Spannung für jeden Betriebspunkt jeder Karte ermittelt. Das würde alle GPUs deutlich effizienter machen. Insbesondere die von AMD da diese out of the box weiter weg von ihrer notwendingen Spannung liegen.

Tesseract
2019-02-10, 20:21:35
Ich frage mich, warum man sowas nicht automatisiert in der Fabrik für jede Karte macht - aber nicht für OC sondern in bezug auf Spannung.

das macht die voltage curve bei nvidia doch seit jahren. natürlich wird man OOTB nie so knapp ans limit gehen wie manuell da das teil auch nach mehreren jahren nutzung und mit ungünstigen workloads stabil sein soll aber der unterschied zwischen einzelnen karten der selben serie ist oft größer als der UV-headroom.

x-force
2019-02-10, 20:22:02
IMO ist es nicht der Kühler sondern die Regelung der Lüfter.


so wie ich gelesen habe, wird die drehzahl benötigt um der hotspotts herr zu werden.

imo ist das zu viel verlustleistung für das gerippe.

Taigatrommel
2019-02-10, 20:23:24
Es gibt bei NV doch seit neustem Auto OC. Ich frage mich, warum man sowas nicht automatisiert in der Fabrik für jede Karte macht - aber nicht für OC sondern in bezug auf Spannung.
Der IHV legt Frequenzen für alle möglichen Powerstates fest und in der Fabrik wird die minimal mögliche Spannung für jeden Betriebspunkt jeder Karte ermittelt. Das würde alle GPUs deutlich effizienter machen. Insbesondere die von AMD da diese out of the box weiter weg von ihrer notwendingen Spannung liegen.
Ich denke das Problem würde sein, dass man quasi die Katze im Sack kauft. Gut, das tut man so gesehen sowieso, doch die beim Kunden direkt effektiv ankommende Serienstreuung wäre ja durchaus hoch. Da bekommen dann die Tester gute Karten, welche vielleicht mit deutlich unter 1000mV laufen und dementsprechend leise(r) sind, während einzelne Kunden dann Gurken bekommen, die vielleicht wirklich nicht unter 1025 oder gar 1050mV arbeiten wollen - dann mit entsprechender Lautstärke. Was nun der bessere Weg ist, es von Haus aus dem Kunden zu überlassen - wie jetzt - oder direkt zu optimieren, ist natürlich eine andere Frage.

robbitop
2019-02-10, 20:34:07
so wie ich gelesen habe, wird die drehzahl benötigt um der hotspotts herr zu werden.

imo ist das zu viel verlustleistung für das gerippe.
Laut Steve Burke ist der Hotspot/Tjunction anscheinend ein Messwert mit Offset. Vgl Ryzen CPU Temperatur in der X Serie. Nutzt man für möglichst hohen Boost.
Aus Regelungstechnischer Sicht ein ziemlich plumper Weg.

anddill
2019-02-10, 20:39:39
Der Kühler hat zu viele Lüfter und zu wenig Rippenfläche. 2 Lüfter und mehr Kühlfläche wäre in dem Volumen effizienter.

x-force
2019-02-10, 20:39:40
Laut Steve Burke ist der Hotspot/Tjunction anscheinend ein Messwert mit Offset.

ich glaube mehr an einen maximalwert, der aus der gesamtheit der 64 messwerte abgelesen wird.

offsets machen für eine interne regelung wenig sinn. der kunde fühlt sich idr ja auch nicht ruhig, wenn er >100° liest ;)

Der Kühler hat zu viele Lüfter und zu wenig Rippenfläche. 2 Lüfter und mehr Kühlfläche wäre in dem Volumen effizienter.

aber nicht als 2 slot sinnvoll baubar, das wäre dann wieder ein klassischer fön mit einem radiallüfter geworden.

Taigatrommel
2019-02-10, 20:42:30
Laut Steve Burke ist der Hotspot/Tjunction anscheinend ein Messwert mit Offset. Vgl Ryzen CPU Temperatur in der X Serie. Nutzt man für möglichst hohen Boost.
Aus Regelungstechnischer Sicht ein ziemlich plumper Weg.
So habe ich es auch verstanden, entweder er hatte es erwähnt oder Der 8auer. Einer von beiden jedenfalls, die Info stammt wohl von AMD.
Was mich wundert: Die GeForce 2080 Ti (FE) hat ja nun im normalen Spielebetrieb nicht sonderlich weniger Leistungsaufnahme. Der Kühler ist dabei kleiner (ragt kaum über Slotblende heraus), ebenfalls ein Dual-Slot Design und wiegt dabei nur etwas über 30 Gramm mehr als jener der Radeon VII. Dennoch scheint das nVidia Gegenstück die GPU wesentlich besser im Griff zu haben als AMD. Ich frage mich ob es wirklich am Design des Kühlers liegt, welches ja prinzipiell alles andere als billig ist oder ob es eher an der Software liegt. Am Logo wird es kaum liegen: Auch bei der RTX Referenzkarte bedeckt das Logo einen nicht unerheblichen Teil der Kühlrippen.

Freestaler
2019-02-10, 20:44:10
Hat schon einer einfach 3x92 bzw. 2x140 getestet? Bei Lüftern ohne "Seitenwand" hab ich bei verwendung auf Kühlkörper so meine Fragezeichen.

robbitop
2019-02-10, 20:46:49
ich glaube mehr an einen maximalwert, der aus der gesamtheit der 64 messwerte abgelesen wird.

offsets machen für eine interne regelung wenig sinn. der kunde fühlt sich idr ja auch nicht ruhig, wenn er >100° liest ;)



aber nicht als 2 slot sinnvoll baubar, das wäre dann wieder ein klassischer fön mit einem radiallüfter geworden.

Dass das nicht sinnvoll ist, sehe ich auch so. Aber von den 30K höheren Temperaturen war wohl in der Realität nichts festzustellen und AMD macht es wie gesagt bei Ryzen auch so.

Und wie gesagt: 30K Temperaturdifferenz sind schon auffällig hoch. 110C bei vielleicht 50C warmen Kühlkörperntrotz direktem Kontakt? Das kann nicht real sein oder nicht gewollt sein.

Taigatrommel
2019-02-10, 20:52:49
Übrigens hat TechPowerUp durch eine kleine Modifikation die tJunction Temperatur um gute 10°C senken können:
With the washers installed, my Radeon VII Junction Temperature dropped by around 10°C to 100°C, which is a significant improvement.

Quelle: https://www.techpowerup.com/reviews/AMD/Radeon_VII/33.html

Zu lesen etwa ab der zweiten Hälfte der Seite.

dargo
2019-02-10, 20:55:04
Was mich wundert: Die GeForce 2080 Ti (FE) hat ja nun im normalen Spielebetrieb nicht sonderlich weniger Leistungsaufnahme. Der Kühler ist dabei kleiner (ragt kaum über Slotblende heraus), ebenfalls ein Dual-Slot Design und wiegt dabei nur etwas über 30 Gramm mehr als jener der Radeon VII. Dennoch scheint das nVidia Gegenstück die GPU wesentlich besser im Griff zu haben als AMD. Ich frage mich ob es wirklich am Design des Kühlers liegt, welches ja prinzipiell alles andere als billig ist oder ob es eher an der Software liegt. Am Logo wird es kaum liegen: Auch bei der RTX Referenzkarte bedeckt das Logo einen nicht unerheblichen Teil der Kühlrippen.
331mm² vs. 754mm², das ist kühltechnisch ein riesen Unterschied.