PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 5700 & RX 5700 XT Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16

maguumo
2019-07-10, 15:38:38
Die vier Slots wirst du ja wohl noch frei haben :D
Mit Kühler und Lüftern wiegt das Teil fast 1.5 kg, ohne Stütze sackt das etwas ab.

[MK2]Mythos
2019-07-10, 15:42:01
Der Trend geht eindeutig zum 5 Slot Design!

M4xw0lf
2019-07-10, 15:49:24
Die vier Slots wirst du ja wohl noch frei haben :D
Mit Kühler und Lüftern wiegt das Teil fast 1.5 kg, ohne Stütze sackt das etwas ab.
Ich hab ein µATX-Gehäuse, vier Slots sind ungefähr alle die ich habe...
Ok, fünf. :uup:

T86
2019-07-10, 16:06:53
Hm, kann ich den Kühler von meiner Vapor-X R9 290 vielleicht auch auf ne Navi schrauben? :D

Hab einen 7870 kühler auf der rx 480
Mit etwas Dremel Aktion bekommt man alles passend.

Meinen hyper 212 hat auch ne selbst gebauten back Plate Weils noch kein am4 umrüstkit gab.

Die Karte bietet sich aber an für eine Hybrid Lösung
Wie alle durstigen blower Karten.

Wie meine 290 damals
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10963617&postcount=10

bnoob
2019-07-10, 16:44:58
OT: Deine fand ich damals unglaublich hübsch und wollte immer mit einem Nachbau meinen schrecklichen TurboDuo Kühler ersetzen, naja :D

@Topic: Ich finde gar nicht, dass das Kühlerkonzept schlechter als das der VII ist, Radiallüfter haben für Referenzdesigns echte Vorteile. In meinem ITX-Gehäuse ist der VII-Kühler abgesoffen, der Vega ging ziemlich gut. Gleiches gilt für Massen-PCs mit aus anderen Gründen zweifelhafter Kühlung, was nunmal die Mehrzahl sind.

SKYNET
2019-07-10, 16:58:01
Das Ding kann so gut kühlen wie es will, so ein Watz kommt mir nicht in die Kiste :freak:
Die Lego-Stütze unten X-D

gibt leute die brauchen mehr schein als sein... ich bevorzuge mehr sein als schein ;)

maguumo
2019-07-10, 17:01:10
Was ist an nem guten Luftkühler "mehr schein als sein"?

SKYNET
2019-07-10, 17:07:27
Was ist an nem guten Luftkühler "mehr schein als sein"?

einen besseren luftkühler als den morpheus, gibt es halt einfach nicht ;)

Raff
2019-07-10, 17:09:17
AMD RX 5700 XT | Custom-Kühler | 2 GHz+ | leise und kühl? | Overclocking (https://www.youtube.com/watch?v=WGo6s-2RXwo)

Powered by Accelero Xtreme IV. Kostenpunkt: 50 Marque.

MfG,
Raff

MSABK
2019-07-10, 17:19:03
Hat sich bisher niemand an Undervolting gewagt?

Dural
2019-07-10, 17:31:45
AMD RX 5700 XT | Custom-Kühler | 2 GHz+ | leise und kühl? | Overclocking (https://www.youtube.com/watch?v=WGo6s-2RXwo)

Powered by Accelero Xtreme IV. Kostenpunkt: 50 Marque.

MfG,
Raff

270Watt mit 2030MHz :eek: Nicht schlecht für ein 250mm2 7nm Chip :rolleyes:

Was zieht eine 2070 mit diesem Takt? Doch ziemlich sicher darunter?

w0mbat
2019-07-10, 17:40:55
Die stock 2070S hatte bei Igor peaks >400W.

Dural
2019-07-10, 17:44:31
1. Habe ich nach der 2070 gefragt
2. habe ich nicht nach Peak Werten gefragt.

dargo
2019-07-10, 17:52:53
AMD RX 5700 XT | Custom-Kühler | 2 GHz+ | leise und kühl? | Overclocking (https://www.youtube.com/watch?v=WGo6s-2RXwo)

Powered by Accelero Xtreme IV. Kostenpunkt: 50 Marque.

MfG,
Raff
Wie überraschend... :tongue: das Ding säuft wie Hölle wenn man den Takt an der Kotzgrenze betreibt. Plus 50% Verlustleistung bei +13% Takt und +6% Performance. :ulol:

robbitop
2019-07-10, 17:56:09
Das ist doch nichts neues.
Interessant jedoch: man kommt nun endlich völlig krampffrei auf Taktregionen, die NV seit Pascal hat.

BoMbY
2019-07-10, 17:59:26
Hat sich bisher niemand an Undervolting gewagt?

Das Auto-Undervolt funktioniert auf jeden Fall für ca. 1.5% mehr Leistung in Time Spy und maximal 204W laut Radeon Settings in Furmark.

Der_Korken
2019-07-10, 19:31:55
270Watt mit 2030MHz :eek: Nicht schlecht für ein 250mm2 7nm Chip :rolleyes:

Was zieht eine 2070 mit diesem Takt? Doch ziemlich sicher darunter?

270W? Das ist nur die GPU, da kommen noch mindestens 50W drauf für VRAM+VRMs+Lüfter ;)

Absolut not worth it für das bisschen Takt.

SKYNET
2019-07-10, 21:08:29
Wie überraschend... :tongue: das Ding säuft wie Hölle wenn man den Takt an der Kotzgrenze betreibt. Plus 50% Verlustleistung bei +13% Takt und +6% Performance. :ulol:

bei igor hat sie weniger verbraucht:

https://www.tomshw.de/2019/07/08/amd-radeon-rx-5700-xt-mit-einem-ekwb-rx-5700-problemlos-auf-21-ghz-uebertaktet-wasser-sei-dank/

25W mehr, bei 2100MHz...

SKYNET
2019-07-10, 21:09:52
AMD RX 5700 XT | Custom-Kühler | 2 GHz+ | leise und kühl? | Overclocking (https://www.youtube.com/watch?v=WGo6s-2RXwo)

Powered by Accelero Xtreme IV. Kostenpunkt: 50 Marque.

MfG,
Raff


machst du jetzt auf wolverine look a like? :confused:

Benutzername
2019-07-10, 21:22:25
machst du jetzt auf wolverine look a like? :confused:

Elvis lebt! ;)

Screemer
2019-07-10, 21:25:40
Der raffi war schon immer ein fescher Bub.

:eek:

blaidd
2019-07-10, 22:33:44
Igor hat eine wassergekühlte RX 5700 XT auf 2200+ MHz hochgeprügelt... nicht schlecht.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67099&stc=1&d=1562790680

https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Figor.wallossek%2Fposts%2F26532090 81380406

M4xw0lf
2019-07-10, 22:42:53
Igor hat eine wassergekühlte RX 5700 XT auf 2200+ MHz hochgeprügelt... nicht schlecht.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67099&stc=1&d=1562790680

https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Figor.wallossek%2Fposts%2F26532090 81380406
Kompressorgekühlt, wenn ich mich nicht sehr irre. Aber die Temperatur lässt keinen anderen Schluss zu. (Und er schreibt auch Chiller :D)

blaidd
2019-07-10, 23:16:46
Kompressorgekühlt, wenn ich mich nicht sehr irre. Aber die Temperatur lässt keinen anderen Schluss zu. (Und er schreibt auch Chiller :D)

Von mir aus... ;) Die Temperatur lässt aber auch die Vermutung zu, dass solche Taktraten wohl auch mit einer regulären Wasserkühlung keine unmittelbare Kernschmelze befürchten ließen müssten.

Rampage 2
2019-07-11, 04:56:36
Wenn hier Nvidia nicht Turing mit Ampere wie CineFX aussehen lässt, dann gibt es eine vernünftige Konkurrenzsituation in den nächsten Jahren und die kommenden Konsolen mit hoffentlich ~64 CUs haben ein gute Basis.


Ist zwar OT, aber:

War CineFX denn sooo schlecht? NV30 war ein Rohrkrepierer, ja! Aber bereits der NV35 hatte mehrere wichtige Leistungsknoten gelöst (ohne aber den fundamentalsten, Architektur-bedingten Leistungsknoten zu lösen;)) und dadurch die Leistung ggü. NV30 z.T. gewaltig gesteigert. Spätestens der NV40 war ein "CineFX done right" - ganz abseits der brachialen Leistungssteigerung ggü. NV3x (z.T. mehr als doppelt so schnell wie NV38). Mit G70 (NV47) kam CineFX dann voll zur Geltung (Anzahl Pipes & Units stark aufgebohrt: ALUs und TEX-Pipes von 16 -> 24, VS Units von 6 -> 8, bis zu 550 MHz Chiptakt, bis zu 512 MB VRAM, bis zu 850 MHz GDDR3, erstmals Transparenz-AA). Mit dem G71-Refresh wurde CineFX schließlich der letzte Schliff verpasst (nochmals erhöhter Chiptakt auf 650 MHz, Alpha-Blending Ops von 8 -> 16 verdoppelt bzw. "echte" 16 ROPs). Vom NV40 bis zum G71 wurde bei CineFX die Leistung insgesamt nochmal (mehr als?) verdoppelt.

Einige Architektur-bedingten Schwächen blieben bis Zuletzt (G71) erhalten - solange diese aber nicht angetastet wurden, bot G70/G71 eine konkurrenzfähige oder sogar überlegene Leistung zu ATi's/AMD's R5xx. Von der reinen Rohleistung war sie R5xx z.T. sogar deutlich überlegen:)

R2

robbitop
2019-07-11, 06:30:56
Pipelinestalls. Alle CineFX inkl. G7x konnten entweder eine Texturoperation oder eine arithmetische durchführen. Das war leider gekoppelt. Je mehr Arithmetik, desto mehr ging G7x in die Knie. In moderneren DX9 Spielen mit mehr PS Anteil wurde G7x (bspw Oblivion, Crysis etc) von R520 und R580 überfahren. Einer der Hauptgründe warum G80 ggü G7x so viel besser erschien.
CineFX wurde zwar besser aber nie wirklich gut.

Ghost1nTh3GPU
2019-07-11, 08:01:53
Außer mehr Einheiten und bessere Taktbarkeit sehe ich bei Ampere nicht soviel Änderungspotential. RDNA2 kann da neben RT wohl noch die Intergerleistung deutlich steigern und mehr Parallelität für FP- und Int-Ops bieten.

Bei Navi10 scheint man die Positionierung etwas verpasst zu haben, mit 48 CUs hätte wohl auch die 2080(S) gewackelt und man hätte mit einer 16GiB Anniversary auch $699 verlangen können.

Schnitzl
2019-07-11, 08:52:49
machst du jetzt auf wolverine look a like? :confused:
mir kam eher Captain America in den Sinn.

Aber passt. Lass die Haare ruhig noch a bissle wachsen :up:

Das Video wie immer top! Das Auseinanderbauen hat mir gefallen, jetzt hab ich fast schon ne Anleitung :D

pixeljetstream
2019-07-11, 08:56:28
Außer mehr Einheiten und bessere Taktbarkeit sehe ich ... nicht soviel Änderungspotential.

Also das Ende der GPU Entwicklung ist noch nicht erreicht für beide Hersteller ;)

Raff
2019-07-11, 09:04:25
Igor hat eine wassergekühlte RX 5700 XT auf 2200+ MHz hochgeprügelt... nicht schlecht.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67099&stc=1&d=1562790680

https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Figor.wallossek%2Fposts%2F26532090 81380406

Mörderaufwand für die letzten fünf Prozent. This. Is! GEEKY! :biggrin:

MfG,
Raff

y33H@
2019-07-11, 09:27:28
Kostenpunkt: 50 MarqueErtappt! ;D

Benutzername
2019-07-11, 09:28:17
Raff rechnet immernoch in MArk um. ;D

AMD RX 5700 XT | Custom-Kühler | 2 GHz+ | leise und kühl? | Overclocking (https://www.youtube.com/watch?v=WGo6s-2RXwo)

Powered by Accelero Xtreme IV. Kostenpunkt: 50 Marque.

MfG,
Raff

Die hätte so oder so ähnlich schon aus der Fabrik kommen sollen. Sähe doch gut aus mit den drei großen Arctic Lüftern. Oder einfach denselben wie dei Radeon VII benutzen. Echt AMD. :hammer:

Oder zumindest wie es Gamers Nexus gemaucht hat, das dicke Wärmeleitpad durch WLP ersetzt:

Ud8Bco0dk6Q

Meinetwegen auch ein dünneres Pad. Und tadaa, da geht noch was.

=Floi=
2019-07-11, 12:36:20
Das pad wurde wegen einer eventuellen unebenheit der vapor champer und wegen dem phasenwechsel genommen. Diese lösung ist sicherlich teurer.

Tarkin
2019-07-11, 12:42:37
https://www.tomshw.de/2019/07/11/ungefesselt-radeon-rx-5700-xt-auf-ueber-22-ghz-uebertaktet-break-the-limits-mit-den-neuen-softpowerplaytables-fuer-die-rx-5700-und-rx-5700-xt/

Wahnsinn... mit SoftPowerPlayTables für die RX 5700 und RX 5700 XT zu 2080 FE Speed - OHNE RAM OC - Herzliches Dank an Igor und seine Community!!

In Navi steckt echt Potential. Lässt sich wieder richtig toll tweaken das Teil.

M4xw0lf
2019-07-11, 12:54:37
https://www.tomshw.de/2019/07/11/ungefesselt-radeon-rx-5700-xt-auf-ueber-22-ghz-uebertaktet-break-the-limits-mit-den-neuen-softpowerplaytables-fuer-die-rx-5700-und-rx-5700-xt/

Wahnsinn... mit SoftPowerPlayTables für die RX 5700 und RX 5700 XT zu 2080 FE Speed - OHNE RAM OC - Herzliches Dank an Igor und seine Community!!

In Navi steckt echt Potential. Lässt sich wieder richtig toll tweaken das Teil.
Neeeeerds!
Sehr sehr coole Ergebnisse, wenn auch absolut nicht DAU-geeignet ^^

Tarkin
2019-07-11, 12:58:38
Neeeeerds!
Sehr sehr coole Ergebnisse, wenn auch absolut nicht DAU-geeignet ^^

Wann war OC jemals DAU geeignet?

Registry File klicken ist jetzt auch nicht so die Hexerei... sollte man hinkriegen aus durchschnittliches Computerkind :D

M4xw0lf
2019-07-11, 13:56:44
Wann war OC jemals DAU geeignet?

Registry File klicken ist jetzt auch nicht so die Hexerei... sollte man hinkriegen aus durchschnittliches Computerkind :D
Naja, OC mit dem normalen Wattman ist im Vergleich zu dieser Methode mit allen Limits ausgehebelt quasi supersafe ^^

robbitop
2019-07-11, 14:15:01
Außer mehr Einheiten und bessere Taktbarkeit sehe ich bei Ampere nicht soviel Änderungspotential. RDNA2 kann da neben RT wohl noch die Intergerleistung deutlich steigern und mehr Parallelität für FP- und Int-Ops bieten.

Bei Navi10 scheint man die Positionierung etwas verpasst zu haben, mit 48 CUs hätte wohl auch die 2080(S) gewackelt und man hätte mit einer 16GiB Anniversary auch $699 verlangen können.
Es gilt zunächst mal zu evaluieren, ob es sich wirklich lohnt, so viele INT Einheiten für 3D Grafik einzubauen. Offenbar scheint man bei RDNA mit einem Bruchteil an INT Leistung auf vergleichbare Leistung zu kommen.

Ich vermute mal, dass die Dinger in der Anzahl (wie auch die Tensor Cores) aus erster Linie wegen A.I. in Turing und Volta Einzug hielten.

Laut NV sind es bei Spielen bis zu 35% Integercode. Das scheint aber zumindest derzeit nur auf sehr wenige Spiele in der Masse zuzutreffen (zumindest, dass der Speedup durch die Masse an INT ALUs kommt).

Dural
2019-07-11, 14:20:55
2080 Speed???

Ich sehe einen einzigen Benchmark in 1080p und da ist die 5700XT @ 2200MHz gerade mal 11% schneller als eine stock 5700XT. Und 10% ist ein sehr normales OC Verhalten, das sieht man bei jeder Stock Grafikkarte.

Da fehlt noch einiges für 2080 Speed, erst recht in 4K.

Der_Korken
2019-07-11, 14:57:05
Es gilt zunächst mal zu evaluieren, ob es sich wirklich lohnt, so viele INT Einheiten für 3D Grafik einzubauen. Offenbar scheint man bei RDNA mit einem Bruchteil an INT Leistung auf vergleichbare Leistung zu kommen.

Ich vermute mal, dass die Dinger in der Anzahl (wie auch die Tensor Cores) aus erster Linie wegen A.I. in Turing und Volta Einzug hielten.

Laut NV sind es bei Spielen bis zu 35% Integercode. Das scheint aber zumindest derzeit nur auf sehr wenige Spiele in der Masse zuzutreffen (zumindest, dass der Speedup durch die Masse an INT ALUs kommt).

Funktionieren die Vec-ALUs bei AMD nicht so, dass die FP und INT können, aber immer nur eins gleichzeitig? Da würde ich die INT-Leistung nicht als "Bruchteil" von Nvidia bezeichnen. Die Angabe mit den 35% ist irgendwie seltsam. Da INT auf Turing quasi "for free" ist (sofern nicht mehr INT als FP gerechnet wird), würden die SPs nun im Schnitt für 100 Instruktionen nur noch 65 Takte brauchen, weil die 35 INTs einfach parallel berechnet werden können. Das wäre ein Speedup von 50%! Da kann irgendwas nicht stimmen. Oder aber durch die Quasi-Verdopplung der Rohleistung limiteren jetzt andere Teile in den SMs, die vorher ausreichend dimensioniert waren, z.B. sowas wie Register, Decode oder Instruction Fetch. Die SMs sind ja nicht so viel größer geworden durch Turing, wenn man bedenkt, dass da noch Tensor-Cores, RT und eben FP+INT drinsteckt.

hlynska
2019-07-11, 15:50:11
Der Buzzer ist ja mal nice... Kommt so ab ca. der Mitte zum Einsatz :D
Ich schau das lieber als ich es lese....

LjHV9LPxzTs

Hakim
2019-07-11, 16:39:51
Ich frag mich ob AMD zumindest bei den kommenden Großen Navi nächstes Jahr mal endlich einen vernünftigen Kühllösung beim Referenz mit einbaut. Schon einige tests gelesen wo die Tester nur deswegen derzeit keine Empfehlung geben.

Benutzername
2019-07-11, 17:29:56
Das pad wurde wegen einer eventuellen unebenheit der vapor champer und wegen dem phasenwechsel genommen. Diese lösung ist sicherlich teurer.

Okay, aber ist die Streuung bei den vapor-chambers so groß, daß man so ein dickes pad nehmen muss und so einen großen Abstand einhalten muss?

Daredevil
2019-07-11, 17:40:19
Ich zitier mich mal unverschämter weise selbst. :>
Bei Payback im "Couponautomat" gibt es aktuell 20 Fach Payback Punkte für manche Shops, wenn man Glück hat. Darunter auch Ebay und Media Markt und 20-Fach Punkte bedeutet 10% Rabatt.
Kombiniert man das noch mit 3% Cashback von Shoop kommt man aktuell auf nen Preis von 366€ ne 5700xt und für 322€ ne 5700.

Mein Coupon bei MM läuft bis zum 18.07, also könnten da durchaus auch noch 2060/2070S drunter fallen bzw. Ryzen 3 Prozessoren. Diese beiden Artikel sind aber aktuell nicht gelistet.

dargo
2019-07-11, 17:43:35
Ich frag mich ob AMD zumindest bei den kommenden Großen Navi nächstes Jahr mal endlich einen vernünftigen Kühllösung beim Referenz mit einbaut. Schon einige tests gelesen wo die Tester nur deswegen derzeit keine Empfehlung geben.
Ist doch wurscht. Nächsten Monat gibts Customs dann gibt es auch Empfehlungen.

Hakim
2019-07-11, 19:47:04
Ist doch wurscht. Nächsten Monat gibts Customs dann gibt es auch Empfehlungen.

Ja ist schon richtig, nur bleibt halt oft der erste Eindruck hängen bei Leuten die nicht so viele Tests lesen.

Kann man davon ausgehen das sich bei den Customs einige Hersteller evt die 5700 nonXT selben Versorgung verpassen wie dem mit XT? Sprich also selbe Anzahl Phasen und keine Power Limitierung.

Badesalz
2019-07-11, 20:46:39
Naja, OC mit dem normalen Wattman ist im Vergleich zu dieser Methode mit allen Limits ausgehebelt quasi supersafe ^^Safe um sich nichts zu himmeln beim bisschen Drauflegen. Ok.

Aber a) optimale Sweetpoints zu Chipquali oder b) sichere Grenzen, ist was anderes.
Wattman ist was für Leute die paar Einstellungen ausprobieren, welche sie im Netz gefunden haben. Ist soweit ok so. Mehr aber auch nicht.

Seinerzeit zb. ging hier ohne WattTool, OCCT und HWInf64 garnichts. Da hätte man nach 1 Jahr noch gelegentlich Abstürze oder würde unnötig grillen, ohne zu begreifen was und warum.

Dural
2019-07-11, 23:55:40
Was jammert ihr wieder um den kühler.

Ich kann mich nicht erinnern das amd jemals eine so hochwertige grafikkarte auf den markt gebracht hat, die karte sieht in echt extrem hochwertig aus, selbst die delle wirkt in echt nicht billig. Zudem die komponenten sehr hochwertig sind zb. Delta lüfter etc. auch das PCB ist gut bestückt.

Dazu ist es die erste amd karte die gleichwertig zum nv gegenstück war/ist, gut dank 7nm ran gemogelt aber ist ein anderes thema.

Jeder amd fanboy der die karte noch nicht zuhause hat kann man definitiv nicht mehr ernst nehmen, gut ist ja nichts neues ;)

Aber jammert nur rum, lieber ein rissen plastik bomber mit billig lüfter als eine schöne edle karte die wenn es sein muss innert wenigen minuten umbebaut hätte. Aber eben ist ja nichts neues...

dildo4u
2019-07-12, 08:06:11
7MLr1nijHIo

Badesalz
2019-07-12, 10:21:30
Wow. Für mich persönlich macht 1440p + AMD sharpening das 4k gaming obsolet. Dieser Kelch könnte dankenderweise an mir wohl vorbeigehen. Wenn das später mixed mit deren RT genutzt werden kann, bin ich dabei.
Da braucht man nicht neidisch rüberschauen, daß einem dafür im Vergleich die FPS zu stark einbrechen. Man braucht es einfach nicht :cool:

Extrem gut abgestimmt. Muss ich mal neidvoll anerkennen. Als wenn die Frames einzeln mit CaptureOne vom Pro nachgeschärft wären.
Ich hab mich schon woanders lustig gemacht was das für Effekthascherei sein wird, mit überkontrastierten "Edges", aber die haben das überhaupt nicht versaut.

Auch mal bei AMD eine echte TopEnd Technologie die auch noch kein FPS kostet.
Wie eine BR die von einem Pana BDT 320 gespielt wird und noch über nen Darbee auf 35% läuft. Sehr feine Sache AMD. Thx.

dargo
2019-07-12, 10:39:49
https://youtu.be/7MLr1nijHIo
Lol... und NV verbaut dafür Tensor Cores. ;D Bin schon echt gespannt ob dieses Sharpening in die neuen Konsolen kommt. Wäre zumindest sehr naheliegend und würde dort viel helfen wenn ein Target von xxfps für 4k nicht reicht.

bnoob
2019-07-12, 10:54:23
Jeder amd fanboy der die karte noch nicht zuhause hat kann man definitiv nicht mehr ernst nehmen, gut ist ja nichts neues ;)
Echte AMD-Fanboys wie ich haben sich zu Release eine VII geholt :P

Aber endlich kann man den Leuten auch mal wieder abseits Polaris AMD empfehlen :)

Birdman
2019-07-12, 11:02:23
https://youtu.be/7MLr1nijHIo
Autsch. Mal schauen wie lange es geht bis nVidia eingesteht dass DLSS ein Fehlschuss war und auch sowas anbietet. (könnte aber länger dauern...siehe g/free -sync ;) )

Allerdings müsste AMD DX11 Support anbieten, damit dieses Feature für mich auch wirklich einen Kaufgrund darstellt - und hier habe ich so meine Zweifel...

Andron
2019-07-12, 11:18:59
Autsch. Mal schauen wie lange es geht bis nVidia eingesteht dass DLSS ein Fehlschuss war und auch sowas anbietet. (könnte aber länger dauern...siehe g/free -sync ;) )

Allerdings müsste AMD DX11 Support anbieten, damit dieses Feature für mich auch wirklich einen Kaufgrund darstellt - und hier habe ich so meine Zweifel...


Auszug meines Beitrags im aktuellen Adrenalin Treibers Thread:

AMD hat den Sourcecode [von FFX] auf gpuopen/github veröffentlicht:

https://gpuopen.com/gaming-product/fidelityfx/
(https://gpuopen.com/gaming-product/fidelityfx/)

Fidelity FX wurde auch bereits in Reshade portiert und kann auf AMD/Nvidia Karten ausprobiert werden. In Falle von Navi/Vega allerdings ohne die möglichen Performance-Vorteile durch Rapid Packed Maths (FP16).

https://www.reddit.com/r/Amd/comments/cc0575/i_ported_fidelityfx_cas_to_reshade_so_anyone_can/


Mit Reshade kann es auch unter DX11 genutzt werden.

Andi Y
2019-07-12, 11:22:08
Das hat doch nix mit DLSS am Hut. ist doch eigentlich bloß Image Sharpening.
Geht auch mit ReShade oder Nvidia Freestyle.
Siehe auch PCGH: https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Specials/Radeon-Image-Sharpening-Test-1293637/

dargo
2019-07-12, 11:23:45
Da ist aber ein kleiner Fehler drin. Gerade Navi und Vega haben RPM. ;)

Andron
2019-07-12, 11:27:00
Da ist aber ein kleiner Fehler drin. Gerade Navi und Vega haben RPM. ;)

Genau, da Reshade allerdings kein FP16 unterstützt, können die Vorteile von RPM bei dieser Variante nicht genutzt werden. Dürfte bei den allgemeinen performancekosten von CAS aber vernachlässigbar sein.

Das hat doch nix mit DLSS am Hut. ist doch eigentlich bloß Image Sharpening.
Geht auch mit ReShade oder Nvidia Freestyle.[/url]

DLSS ist eine Upscaling-Methode (+Image Sharpening im Falle von Metro Exodus z.B.). Das gleiche kann mit klassischem Upscaling + AMD CAS erreicht werden und dies teilweise sogar in besserer Qualität bei ähnlichen Leistungskosten, wie Hardware Unboxed im Video demonstriert. Damit ist das Ergebnis sehr wohl mit DLSS vergleichbar, vor allem, da es potenziell mit fast jedem Spiel, ohne vorheriges Antrainieren, funktioniert.

dargo
2019-07-12, 11:30:22
Ach so hast du das gemeint. Ok... sorry. :redface: Weiß man eigentlich schon wie stark RPM hilft bzw. wie teuer es ohne RPM ist?

Screemer
2019-07-12, 11:33:08
wie hoch ist der performancehit ohne fp16? mit ist er ja quasi inexistent.

was ich ja bei dem dlss/sharpening vergleich (https://youtu.be/7MLr1nijHIo?t=499) mit metro richtig garstig finde, sind die screenspace artefakte bei den reflektionen auf dem wasser. die sind zwar mit der amd lösung auch da aber bei weitem nicht so hervorstechend.

Andron
2019-07-12, 11:41:10
Ach so hast du das gemeint. Ok... sorry. :redface: Weiß man eigentlich schon wie stark RPM hilft bzw. wie teuer es ohne RPM ist?

wie hoch ist der performancehit ohne fp16? mit ist er ja quasi inexistent.


Zitat des Reddit-Users, der CAS in Reshade portiert hat:

On my RTX2070S it takes 0.15ms to evaluate ReShade CAS at 1440p.

Quelle (https://www.reddit.com/r/Amd/comments/cc0575/i_ported_fidelityfx_cas_to_reshade_so_anyone_can/etjs2u2/)

Screemer
2019-07-12, 11:46:36
thx

bf5 slider side by side: https://imgsli.com/NDQ3OQ

Andron
2019-07-12, 11:51:12
@Screemer:

Komme auf etwas mehr als 0,5 Frames, wenn die 0,15 ms stimmen.

Screemer
2019-07-12, 11:52:43
klar. hatte mich da hart vertippt.

im reddit thread gibts auch angaben zu vega mit 4k:

Thought i'd give some feedback, it takes about 0.45 to 0.49ms at 4K on my Vega Frontier Edition using ReShade 4.30, it's much clearer and produces a purer image than LumaSharpen filter does. Really hope to see official support for this on the drivers soon, no reason not to have it, and no reason not to use it either!

https://www.reddit.com/r/Amd/comments/cc0575/i_ported_fidelityfx_cas_to_reshade_so_anyone_can/etkv7gx/

aufkrawall
2019-07-12, 11:53:45
Lol... und NV verbaut dafür Tensor Cores. ;D Bin schon echt gespannt ob dieses Sharpening in die neuen Konsolen kommt. Wäre zumindest sehr naheliegend und würde dort viel helfen wenn ein Target von xxfps für 4k nicht reicht.
Adaptive Sharpen ist ein alter Hut, gibts schon ewig für Video. AMD hat es halt durch 2:1 FP16 enorm beschleunigt, was es wesentlich attraktiver für Spiele macht.
DLSS ist durch Deep Learning wesentlich komplexer, aber trotzdem bekommt Nvidia damit nur Murks auf die Reihe. Evtl. sind die Tensor Cores viel zu lahm für brauchbare Ergebnisse in Echtzeit, und dann hauen sie doch wieder billiges Schrott-Sharpen mit Ekel-Ringing drauf (oder der ganze Ansatz taugt einfach nichts...).

Wär ganz cool, das beschleunigte Radeon Sharpen in Spiele per Slider eingebaut zu haben, etwa als Ersatz/Alternative für das Sharpen in idTech. Ich sag ja schon lange, dass DLSS vs. brauchbares TAA + brauchbares Sharpen wie in idTech komplett enttäuschend ist.

Edit: Bei BF5 muss man übrigens aufpassen, mindestens "TAA High" hat bereits einen eigenen Sharpen Pass (inkl. Ekel-Ringing).

dargo
2019-07-12, 12:07:16
Zitat des Reddit-Users, der CAS in Reshade portiert hat:

Quelle (https://www.reddit.com/r/Amd/comments/cc0575/i_ported_fidelityfx_cas_to_reshade_so_anyone_can/etjs2u2/)
Das ist ja auch nur 1% Verlust bei 60fps. Geschenkt... :tongue:


Edit: Bei BF5 muss man übrigens aufpassen, mindestens "TAA High" hat bereits einen eigenen Sharpen Pass (inkl. Ekel-Ringing).
Jo... kommt mir schon zu überschärft vor. Müsste man mit dem anderen TAA vergleichen.

Andi Y
2019-07-12, 12:25:34
DLSS ist eine Upscaling-Methode (+Image Sharpening im Falle von Metro Exodus z.B.). Das gleiche kann mit klassischem Upscaling + AMD CAS erreicht werden und dies teilweise sogar in besserer Qualität bei ähnlichen Leistungskosten, wie Hardware Unboxed im Video demonstriert. Damit ist das Ergebnis sehr wohl mit DLSS vergleichbar, vor allem, da es potenziell mit fast jedem Spiel, ohne vorheriges Antrainieren, funktioniert.
Danke für den Hinweis.

Mr. Lolman
2019-07-12, 14:54:29
https://www.dsogaming.com/news/modder-has-ported-amds-new-image-sharpening-to-reshade-allowing-all-nvidia-amd-gamers-to-use-it/

][immy
2019-07-12, 15:18:38
https://www.dsogaming.com/news/modder-has-ported-amds-new-image-sharpening-to-reshade-allowing-all-nvidia-amd-gamers-to-use-it/
das ging schnell.
War klar das es letztlich z.B. für reshade kommt, aber so schnell hab ich damit nicht gerechnet. Ist ja letztlich nur eine Softwarelösung da Postprocessing.

Interessant wäre allerdings, wie viel Performance das Features mit reshade frisst. Bei Navi ist es ja im 1% Bereich.

dargo
2019-07-12, 15:41:40
Steht doch im Post 310.

dildo4u
2019-07-12, 16:54:07
Ich musste zwei mal gucken aber bei ACO ist die 5700Xt fast 2070 S Level,hab erst 2070 gelesen.


_l9FjSLf6sg

][immy
2019-07-12, 16:58:07
Ich musste zwei mal gucken aber bei ACO ist die 5700Xt fast 2070 S Level,hab erst 2070 gelesen.


https://youtu.be/_l9FjSLf6sg
Kommt halt immer auf Titel und Bench-Szenen an. Aber viel tut sich da in der tat nicht. War ja in einigen Testberichten so, das die 5700XT gar nicht so schlecht da stand gegenüber der 2070s. Ich sehe das ähnlich wie Hardware unboxed, alles innerhalb von 5% ist quasi gleichstand.
Aber man sieht z.b. an Forza Horizon schon, das es ziemlich auf GCN optimiert wurde und die neue Architektur (wie nahe sie jetzt auch immer an GCN ist) scheint das auch zu freuen. Nimmst du hingegen Fortnite mit auf, geht es wieder stark in Richtung nvidia. Keine Ahnung was epic da macht, aber besonders dieses Spiel scheint so rein gar keine Optimierungen für AMD Architekturen zu haben.

Steht doch im Post 310.
habe ich wohl übersehen :)

dildo4u
2019-07-12, 17:03:13
Der Titel war extrem pro Nvidia daher verwundert mich das.

Laut Techspot Vega 64=1660TI. :eek:

https://www.techspot.com/review/1870-amd-radeon-rx-5700/

dargo
2019-07-12, 17:53:01
Laut CB nicht. :eek:

Digidi
2019-07-12, 20:02:14
lol Nvidia wurde wirklich Jebaited:
https://www.youtube.com/watch?time_continue=80&v=QZyHBAEJTC8

Man hat es auf die normalen 2070 abgesehen. Nvidia sollte Probleme bekommen diese abzuverkaufen :D

Badesalz
2019-07-12, 21:25:43
[immy;12047262']das ging schnell.Nicht schlimm. Das war ja mit x86-64 auch nicht anders ;) GUTE Sachen setzen sich auch mal sehr schnell durch.

Screemer
2019-07-12, 21:39:18
[immy;12047262']das ging schnell.
War klar das es letztlich z.B. für reshade kommt, aber so schnell hab ich damit nicht gerechnet. Ist ja letztlich nur eine Softwarelösung da Postprocessing.

Interessant wäre allerdings, wie viel Performance das Features mit reshade frisst. Bei Navi ist es ja im 1% Bereich.das war nur deswegen so schnell, weil fidelityFX open source ist: https://github.com/GPUOpen-Effects/FidelityFX/

Rockhount
2019-07-12, 22:08:46
Leider ist nur das Sharpening für alle verfügbar, Scaing gibts derzeit nur für Navi. Ergo: erst Scaling, dann Sharpening, auf Navi dann umgekehrt. Dadurch siehts auf Navi noch besser aus

So jedenfalls lt reddit

Badesalz
2019-07-12, 22:12:25
Dachte entweder Scaling oder Skalieren? ;) Scaling hat mich aber ehrlich gesagt nicht dermassen angesprochen :confused: Immerhin wurde die Welt (die ganze) von der Idee DLSS befreit. Wie davor von Itanium. Nur mit Gsync zieht sich das grad noch bisschen. Noch ;)

DrFreaK666
2019-07-12, 22:17:03
Erinnert sich noch jemand an die Smartshader?
Da war AMD anderen voraus...

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=214464

x-force
2019-07-12, 23:09:24
der weg sollte sein korrekt(sowohl af als auch aa und seine temporalen freunde) zu filtern und nicht am kaputten bild herumzudoktern, wobei der trend auch zu furchtbarem überschärfen geht.

das würde erstmal heißen hq af dx12, gerne auch mit 32x option, und korrektes aa.

Mr. Lolman
2019-07-13, 08:55:50
Der Weg sollte sein (und ist auch zum Glück), möglichst wenig Leistung für möglichst gute BQ zu verschwenden.

Benutzername
2019-07-13, 12:57:57
Dachte entweder Scaling oder Skalieren? ;) Scaling hat mich aber ehrlich gesagt nicht dermassen angesprochen :confused: Immerhin wurde die Welt (die ganze) von der Idee DLSS befreit. Wie davor von Itanium. Nur mit Gsync zieht sich das grad noch bisschen. Noch ;)

Wieso? nVidia hat doch jetzt auch Freesync.

-------------------------------

Der Weg sollte sein (und ist auch zum Glück), möglichst wenig Leistung für möglichst gute BQ zu verschwenden.

War es das nicht schon immer? :uponder:

x-force
2019-07-13, 14:56:25
Der Weg sollte sein (und ist auch zum Glück), möglichst wenig Leistung für möglichst gute BQ zu verschwenden.

nicht jeder steht auf flimmern und bugwellen

Daredevil
2019-07-13, 21:00:31
Wasn los hier Leute, nur 17 Seiten bei nem AMD GPU Review Thread? :D
Hat die Karte mittlerweile wer in der Kiste und kann berichten, was OC und UV so bringt, oder wartet ihr alle auf die Custom Karten?
Ich kann meine wohl vermutlich am Dienstag abholen im Media Markt, dann schau ich mir den Kram auch mal an.

Eigentlich wollte ich auf die Customs warten, aber 2100rpm mit dem Radial Lüfter bekomme ich ( vermutlich ) locker mit UV unter 2000rpm gedrückt und dann passt das für mich.
Meine alte Vega56@ war damit auch gut nutzbar.
Silent ist das zwar überhaupt nicht, aber der Preis ist halt heiß.

OgrEGT
2019-07-14, 09:11:00
Wieso? nVidia hat doch jetzt auch Freesync.


Naja... da eigentlich der Monitor die Komponente ist die man in der Regel nicht so oft wechselt wäre es imo brauchbarer wenn die Gsync Monitore AMD Karten unterstützen würden nicht anders herum.

dildo4u
2019-07-14, 09:20:02
Wasn los hier Leute, nur 17 Seiten bei nem AMD GPU Review Thread? :D

Die Masse hier hat schon Jahre Karten wie GTX1080,ich werde jetzt vermutlich auch bis 2020 warten 7nm EUV könnte deutlich mehr bringen.

Raff
2019-07-14, 09:24:30
Für dich würde sich eine XT aber durchaus lohnen. :)

MfG,
Raff

Daredevil
2019-07-14, 09:25:24
Viele haben auch nen Ryzen 1/2 Gen und sidegraden auf die 3 gen, das akzeptiere ich nicht als Entschuldigung. :>

dildo4u
2019-07-14, 09:28:10
Ich hab ein 4kTV,die näste Karte soll das zumindest mit 60fps stemmen,die 2080 S soll ja wieder über 700€ kosten.

TheGood
2019-07-14, 09:37:14
Wasn los hier Leute, nur 17 Seiten bei nem AMD GPU Review Thread? :D
Hat die Karte mittlerweile wer in der Kiste und kann berichten, was OC und UV so bringt, oder wartet ihr alle auf die Custom Karten?
Ich kann meine wohl vermutlich am Dienstag abholen im Media Markt, dann schau ich mir den Kram auch mal an.

Eigentlich wollte ich auf die Customs warten, aber 2100rpm mit dem Radial Lüfter bekomme ich ( vermutlich ) locker mit UV unter 2000rpm gedrückt und dann passt das für mich.
Meine alte Vega56@ war damit auch gut nutzbar.
Silent ist das zwar überhaupt nicht, aber der Preis ist halt heiß.

Die Karte ist zu rund, dass es Zuviel von grüner Seite zu bashen gibt :D
oder doch zu beliebig, dass es keinen interessiert :D

Ich denke eher dass es ein relativ rundes Produkt ist und mit dem Custom lösungen wird es noch runder.

dargo
2019-07-14, 10:00:35
Wasn los hier Leute, nur 17 Seiten bei nem AMD GPU Review Thread? :D

Was erwartest du denn? Dass sich alle auf die laute Referenz stürzen? :tongue: In 4-6 Wochen sollten die Customs eintruddeln dann wird der Thread sicherlich lebendiger. Ich warte auch schon gespannt auf die Customs da ich mich leider bis Oktober von der tollen V64 LCE trennen muss. ;( Der eine oder andere hats sicherlich schon damals mitbekommen. Die ersten 10 Tage war absolute Stille, danach hat die Pumpe bei mir Geräusche gemacht. Mich stört es nicht da ich ein gedämmtes Gehäuse habe und dies kaum zu hören ist. So eine Karte kann ich aber natürlich nicht privat verkaufen. Einer der nen Schweizer Käse hat könnte es dann stören. Und auf ein hin und her schicken habe ich keinen Bock. Bei MF kriege ich noch einen Restwert. Bissel was drauf legen und schon ist eine Custom 5700(XT) drin.

Daredevil
2019-07-14, 10:45:09
WaKü Customs sollen ja auch kommen laut dem AMD Radeon Typen, brauchst halt nur die restliche WaKü Infrastruktur, dann kannst du es so weiterführen. :)

Ich befürchte ja, dass die Board Partner Ryzen like für ihr Crazy TriSlot Konstruktionen mehr Geld verlangen... wäre gerade ja nicht unüblich, bei AMD Geld zu verdienen. Mal schauen. :)

dildo4u
2019-07-14, 11:03:02
Die Marge wird bei Vega einfach nicht da gewesen sein ich sehe hier viele billige Custom Modelle.Den Chip kannste in der Konfiguration locker für 300€ verkaufen.

Ex3cut3r
2019-07-14, 11:36:39
Was erwartest du denn? Dass sich alle auf die laute Referenz stürzen? :tongue: In 4-6 Wochen sollten die Customs eintruddeln dann wird der Thread sicherlich lebendiger. Ich warte auch schon gespannt auf die Customs da ich mich leider bis Oktober von der tollen V64 LCE trennen muss. ;( Der eine oder andere hats sicherlich schon damals mitbekommen. Die ersten 10 Tage war absolute Stille, danach hat die Pumpe bei mir Geräusche gemacht. Mich stört es nicht da ich ein gedämmtes Gehäuse habe und dies kaum zu hören ist. So eine Karte kann ich aber natürlich nicht privat verkaufen. Einer der nen Schweizer Käse hat könnte es dann stören. Und auf ein hin und her schicken habe ich keinen Bock. Bei MF kriege ich noch einen Restwert. Bissel was drauf legen und schon ist eine Custom 5700(XT) drin.

Wurde gleich auf eine 2080 Super wechseln, da hast du mehr/spürbar was von von einer Vega 64 LCE. + RT. :smile:

Navi XT wäre nur ein Sidegrade wenn überhaupt -> macht keinen Sinn. Freesync geht ja jetzt auch schon länger mit einer Geforce, was will man noch mit einer AMD Karte? Kann nix besser oder gleichwertig.

uweskw
2019-07-14, 11:40:40
https://youtu.be/7MLr1nijHIo


https://www.youtube.com/watch?time_continue=4&v=7MLr1nijHIo



Wau, sind Hardware Unboxed AMD Fanboys und haben manipuliert oder sieht 1440p sharpened tatsächlich meist besser aus als 4k native oder 4k DLSS ?:eek:
Hat sich schon eines der renommierten Magazine mal einem Vergleich der Bildqualität gewidmet?
Ich kenne bisher nur den Bericht von der PCGH und der macht nicht so richtig lust darauf..
https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Specials/Radeon-Image-Sharpening-Test-1293637/
Greetz
US

dildo4u
2019-07-14, 11:42:44
Zockst du keine aktuellen Games?TAA Matscht das Bild teilweise deutlich deshalb ist sogar DLSS in extrem fällen besser siehe z.b Final Fantasy 15.

uweskw
2019-07-14, 12:03:09
Die Vergleiche sind doch ohne TAA? Oder habe ich das falsch verstanden?
greetz
US

dargo
2019-07-14, 12:06:45
WaKü Customs sollen ja auch kommen laut dem AMD Radeon Typen, brauchst halt nur die restliche WaKü Infrastruktur, dann kannst du es so weiterführen. :)

Nö... kein Bock auf Wakü. AIO finde ich noch ok da ich dort ein geschlossenes System habe und nicht rumfummeln muss. Gute Luftkühler kommen aber auch mit ~200W schön leise zurecht. Die 5700XT würde ich eh wieder undervolten so, dass ich im Bereich von ~200W bleibe.

Wurde gleich auf eine 2080 Super wechseln, da hast du mehr/spürbar was von von einer Vega 64 LCE. + RT. :smile:

Kein Nvidia! :nono: Erstmal 5700(XT) Custom, nächstes Jahr dann Big Navi. Sofern ich die Leistung bis dahin überhaupt brauche. RT ist für mich in dieser Generation noch kein Thema.

btw.
Die 2080 FE ist eh nur 19% schneller in 1440p laut CB als die 5700XT Referenz. Ne Custom legt da nochmal 5-10% drauf. Dafür dann ~50% mehr Geld ausgeben? :tongue: Nö...

Screemer
2019-07-14, 12:06:45
Die Vergleiche sind doch ohne TAA? Oder habe ich das falsch verstanden?
greetz
US

Kann man das in Meteo überhaupt deaktivieren?

Ex3cut3r
2019-07-14, 12:11:03
Kein Nvidia! :nono: Erstmal 5700(XT) Custom, nächstes Jahr dann Big Navi. Sofern ich die Leistung bis dahin überhaupt brauche.
Na gut, musst du wissen. Ich persönlich wurde es von einer V64 machen, aber gut, wenn man natürlich das Leistungs Prinzip außer Acht lässt, und nur nach "Glauben" kauft....verpasst man halt vieles.

btw.
Die 2080 FE ist eh nur 19% schneller in 1440p laut CB als die 5700XT Referenz. Ne Custom legt da nochmal 5-10% drauf. Dafür dann ~50% mehr Geld ausgeben? :tongue: Nö...

Eine Custom RTX 2080 Super wird mehr drauflegen, locker 30%. Du kriegst auch noch RT obendrauf + Freesync. Naja, ein Versuch war es wird. :P

dargo
2019-07-14, 12:14:54
Eine Custom RTX 2080 Super wird mehr drauflegen, locker 30%. Du kriegst auch noch RT obendrauf + Freesync. Naja, ein Versuch war es wird. :P
Und die wird dann 600€ kosten? :rolleyes: Selbst ne 2080 non S kriegst du kaum unter 650€ mit vernünftigen Kühler.

Ex3cut3r
2019-07-14, 12:16:40
Und die wird dann 600€ kosten? :rolleyes:

Ach Göttchen, verkaufst du halt wieder für 350€ wenn Nvidias 7nm Gen kommt. So what...

dargo
2019-07-14, 12:19:45
Wir können das Thema begraben. Ich kaufe eh nix mehr von Nvidia, aus Überzeugung. Sollte irgendwann mal Lisa Su so ticken wie die Lederjacke und in der Position sein die Kunden zu verarschen dann schaue ich mich wieder bei Nvidia oder Intel um.

Daredevil
2019-07-14, 12:21:51
Eine Custom RTX 2080 Super wird mehr drauflegen, locker 30%. Du kriegst auch noch RT obendrauf + Freesync. Naja, ein Versuch war es wird. :P
Also die Geizhals Leak-Specs haben letztens was von 3072 Shader Einheiten gesprochen für ne 2080Super, also nicht mal 128 Einheiten mehr.
Das entspricht weniger als der Aufschlag bei der 2060 und 2060Super und die ist "nur" 15% schneller bei 256 mehr Einheiten.
Wie du da auf 30% kommen möchtest, frage ich mich gerade. :>

Aber endlich ist deine Karte nun kein Speicherkrüppel mehr, weil sie auf die Leistung einer 500€ Karte degradiert wurde und da sind 8GB okay. :D ( Ein wenig ärgern muss doch sein ^^ )

dargo
2019-07-14, 12:23:42
Er meint 30% auf Navi 10.

aufkrawall
2019-07-14, 12:23:46
Guck mal in den Thread des aktuellen NV-Treibers, verewigt sich mal wieder im Windows-Ereignislog durch Crashes. Nvidia ist einfach das neue ATi, was die miese Qualität der Software angeht. ;D

gnomi
2019-07-14, 12:29:57
Jo, Leider wird auch die 2080 Super der 2080 TI nicht gefährlich genug.
5700 XT, 2070 Super sind eher um die 1080 TI Niveau.
Mit Vega 64 oder einer guten 1080 leider kaum ein Update.
Vor allem erstere, da kein RT oder mehr VRAM.
Dafür ist der Anschaffungspreis allerdings günstiger.
Letztendlich ist das alles gerade eine nach oben hin sehr teuer werdende Zwischengeneration.
Gibt es nochmal High End statt Performance in der nächsten um 500-600 Euro? :confused:

Raff
2019-07-14, 12:30:12
Also die Geizhals Leak-Specs haben letztens was von 3072 Shader Einheiten gesprochen für ne 2080Super, also nicht mal 128 Einheiten mehr.
Das entspricht weniger als der Aufschlag bei der 2060 und 2060Super und die ist "nur" 15% schneller bei 256 mehr Einheiten.

Wir sind längst aus dem Leak-Status raus, die Karte wurde offiziell von Nvidia vorgestellt; siehe Ausführungen bei PCGH (https://www.pcgameshardware.de/Geforce-RTX-2070-Super-Grafikkarte-275183/Tests/RTX-2060-Super-Review-Benchmark-Leistung-Preis-1293230/) und Produktseite bei Nvidia (https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-super/). :) 739 Euro wird der Spaß kosten. Dafür bekommt man immerhin einen vollen TU104 und erstmals 15,5-GT/s-GDDR6 – aber nur 8 GiByte. Für etwas mehr kann man sich mittlerweile Billig-Tis im Gebrauchtmarkt schießen.

MfG,
Raff

dildo4u
2019-07-14, 12:30:47
Die Vergleiche sind doch ohne TAA? Oder habe ich das falsch verstanden?
greetz
US
Kann man Heute so gut wie nie abschalten.

dargo
2019-07-14, 12:31:43
Ich befürchte ja, dass die Board Partner Ryzen like für ihr Crazy TriSlot Konstruktionen mehr Geld verlangen... wäre gerade ja nicht unüblich, bei AMD Geld zu verdienen. Mal schauen. :)
Mal sehen... so ne Powercolor Red Dragon dürfte recht preiswert sein. Weiß nur noch nicht ob die mit den 180W GPU Power der 5700XT noch schön leise klar kommt. Sind aber nur 15W mehr als bei der V56 Red Dragon. Vielleicht werden die Kühler noch leicht verbessert. Bald wissen wir mehr. Wenn ich die Karte aber Richtung ~200W drücke, was ca. 150W GPU Power entsprechen dürfte sollte das wieder passen. :)

Raff
2019-07-14, 12:32:10
Gerade in Metro sieht RIS meiner Meinung nach sehr geil aus. Man beachte die Vergleichsshots aus dem Menü bei PCGH. Viel besser lesbar mit RIS. Aus diesem Grund habe ich auch so gerne ältere Spiele mit Luma oder Adaptive Sharpen aufgewertet: Man kann plötzlich Texturbrei besser lesen. :)

MfG,
Raff

Ex3cut3r
2019-07-14, 12:33:17
Echt köstlich was Krawall und Dargo hier ablassen. Gut, dann keine Nvidia @ Dargo. Viel Spaß mit deinem Sidegrade. Wenigstens ein paar rationale Gründe, warum keine Nvidia Karte wären wünschenswert gewesen, aber leider entscheidest eher mit deinen Gefühlen als mit sachlichem Verstand, ach so ich vergaß der Preis....wie immer bei dir. ^^

Raff
2019-07-14, 12:34:39
"Ich möchte den kleineren Marktteilnehmer unterstützen" kann man durchaus als rationale Entscheidung formulieren.

MfG,
Raff

dargo
2019-07-14, 12:36:19
Echt köstlich was Krawall und Dargo hier ablassen. Gut, dann keine Nvidia @ Dargo. Viel Spaß mit deinem Sidegrade. Wenigstens ein paar rationale Gründe, warum keine Nvidia Karte wären wünschenswert gewesen, aber leider entscheidest eher mit deinen Gefühlen als mit sachlichem Verstand, ach so ich vergaß der Preis....wie immer bei dir. ^^
Meinen Sachverstand schätze ich höher ein als deinen. Im Gegensatz zu dir wünsche ich mir ein gesundes Maß an Konkurrenz. Wie das geht sieht du wieder schön im Bereich der CPUs. Mir sind im übrigen "Underdogs" viel sympatischer als großkotzige Unternehmen die selbst mit Kohle ohne Ende kaum bessere Produkte auf die Beine stellen. Zumindest wenn man die Budgets der jeweiligen IHVs in Relation stellt.

dildo4u
2019-07-14, 12:39:26
Echt köstlich was Krawall und Dargo hier ablassen. Gut, dann keine Nvidia @ Dargo. Viel Spaß mit deinem Sidegrade. Wenigstens ein paar rationale Gründe, warum keine Nvidia Karte wären wünschenswert gewesen, aber leider entscheidest eher mit deinen Gefühlen als mit sachlichem Verstand, ach so ich vergaß der Preis....wie immer bei dir. ^^
Der ganze Markt war nicht von Turing überzeugt nich nur AMD Fanboys,das wurde doch aufgeschlüsselt Turing hat sich besser verkauft weil viele Modelle gleichzeitig gekommen sind.
Wenn man z.b nur 1070 vs 2070 vergleicht verkauft sich Turing in dem Fall langsamer.

uweskw
2019-07-14, 12:40:42
Kann einer mal etwas zu AMDs "Anti Lag" sagen? Nur ein Marketing Gag oder spürt man das wirklich?

greetz
US

Raff
2019-07-14, 12:43:22
Man spürt es, das bestätigen zahlreiche Nutzer und Artikel. Grab dich da mal durch. :)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=595535
https://www.pcgameshardware.de/Radeon-RX-5700-Grafikkarte-274683/Specials/Radeon-Anti-Lag-Test-Navi-1293817/

MfG,
Raff

dargo
2019-07-14, 12:45:02
Mich würde auch noch ein Punkt interessieren (sorry falls es schon behandelt wurde). Hat sich schon jemand mit UV intensiver beschäftigt? Sind 200W ohne Leistungsverlust bei der 5700XT Referenz realistisch? Ich kann den Spielraum von Navi 10 noch schlecht einschätzen.

Zergra
2019-07-14, 12:47:28
Sind 200W ohne Leistungsverlust bei der 5700XT Referenz realistisch? Ich kann den Spielraum von Navi 10 noch schlecht einschätzen.
Hatte irgendwo gelesen das mit Auto UV man den 200W schon ziemlich nah kommt, bei gleichzeitigem leichten Anstieg der Leistung. Also 200Watt bei gleicher Leistung sind bestimmt möglich.

Daredevil
2019-07-14, 12:47:42
Kann ich dir übermorgen liefern, da mach ich wieder nen UV Scaling mit Unigine, wie mit der VII und 2080ti auch. (:

*Falls es schon funktioniert

dargo
2019-07-14, 12:50:55
Hatte irgendwo gelesen das mit Auto UV man den 200W schon ziemlich nah kommt, bei gleichzeitigem leichten Anstieg der Leistung. Also 200Watt bei gleicher Leistung sind bestimmt möglich.
Oh... selbst mit der Autofunktion schon die noch deutlich Spielraum "verschenkt"? Klingt schon mal super. :up: Dann halte ich 180-190W gar nicht mal für so unrealistisch. =)

Kann ich dir übermorgen liefern, da mach ich wieder nen UV Scaling mit Unigine, wie mit der VII und 2080ti auch. (:

*Falls es schon funktioniert
:up::up::up:

Raff
2019-07-14, 12:52:00
Was Gaming angeht, sind 200 Watt TBP ohne Leistungsverlust gar kein Problem (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12048193&postcount=3710). Beim Compute hatte ich jedoch viele, viele Abstürze nach dem Undervolting. Der Treiber ist ausdrücklich in diesem Bereich unfertig, da könnte sich also noch was tun. Pikant ist, dass schon ein Kühlerwechsel viel Spielraum bei der Boardpower freischaufelt, immerhin säuft der Delta-Lüfter bis zu ~28 Watt (natürlich nicht bei normalen Drehzahlen; normal ist der Bereich um 10+ Watt). :D

MfG,
Raff

dargo
2019-07-14, 12:54:04
Was Gaming angeht, sind 200 Watt TBP ohne Leistungsverlust gar kein Problem. Beim Compute hatte ich jedoch viele, viele Abstürze nach dem Undervolting. Der Treiber ist ausdrücklich in diesem Bereich unfertig, da könnte sich also noch was tun. Pikant ist, dass schon ein Kühlerwechsel viel Spielraum freischaufelt, immerhin säuft der Delta-Lüfter bis zu 24 Watt (natürlich nicht bei normalen Drehzahlen). :D

Ja... paar Wattchen hier und da lassen sich immer einsparen. Bin schon gespannt ob die Custom PCBs effizienter als das Referenz PCB was Spannungsversorgung angeht arbeiten oder eher nicht.

aufkrawall
2019-07-14, 12:54:47
Bei AMD klaut der Lüfter der GPU nichts vom Strom-Budget.

dargo
2019-07-14, 12:56:15
Bei AMD klaut der Lüfter der GPU nichts vom Strom-Budget.
Das nicht, für den gesamten Verbrauch der Karte spielt es aber eine Rolle. Rein theoretisch müssten einige Customs etwas weniger verbrauchen. Sparsamere Lüfter, kühlere Temperaturen wegen besserer Kühler. Natürlich nur wenn man die gleiche GPU-Power verwendet. Da wird es sicherlich wieder einige Kandidaten geben die Richtung 200-220W GPU-Power bei der 5700XT gehen werden.

btw.
OverdriveNTool funzt noch nicht mit Navi?

Daredevil
2019-07-14, 12:56:17
Compute mit OpenCL scheint allgemein noch sehr kaputt zu sein.
In den Mining Foren sehen wir hier aktuell Hashraten von bis zu 8 MH/s ( Vega ~40 MH/s ) bei ETHash und 800H/s ( Vega 2000 H/s ) bei Monero. Da läuft garnix.

Nanominer sagt in nem Update:
Added Ethash binaries for AMD Radeon RX 5700 and AMD Radeon RX 5700 XT cards. Performance is awful but maybe it will boost with next driver update.

gnomi
2019-07-14, 12:56:17
Der ganze Markt war nicht von Turing überzeugt nich nur AMD Fanboys,das wurde doch aufgeschlüsselt Turing hat sich besser verkauft weil viele Modelle gleichzeitig gekommen sind.
Wenn man z.b nur 1070 vs 2070 vergleicht verkauft sich Turing in dem Fall langsamer.

Pascal war einfach super. Sieht man ja an der 3 Jahre alten 1080 und der nachgeschobenen 1080 TI. Vega hatte da Null Chance in der Akzeptanz.
Turing= viel zu teuer. Wenngleich qualitativ weiter High End. Gilt bis heute.
Jetzt will ATI natürlich mit ihren weit besseren, konkurrenzfähigen Performance GPU's auch ein Stück vom Kuchen und Geld verdienen. nvidia will auch nicht so recht günstiger mit Super. Bisschen umlabeln und zwei Spiele mit rein. Das war jetzt so das Minimum scheinbar...
Echt schade. Die nächste Konsolengeneration wird zwar auch um die 500-600 kosten, aber, falls die technisch mit den Spielen abliefert, muss die nächste GPU Reihe beider Hersteller wieder so richtig was bieten.
Ansonsten wird der Gaming Markt noch mehr überteuerte Nische mit Bling Bling. (4K Monitore sind auch zu teuer selbst verglichen mit OLED's)
Ich denke AMD könnte hier wirklich noch mehr Gas geben und nvidia richtig herausfordern. Ich habe keine Lust auf eine 1000 Euro High End GPU wie die 2080 TI und denke, nvidia könnte die Performance mit der nächsten Generation für 2/3 des Preises und vielleicht bei 200 Watt abliefern.
AMD hat ja auch dann RT in den Konsolen und neue GPU's, die wieder weiterentwickelt sind.
Auf jeden Fall wird es wieder spannend, auch wenn AMD bei den CPU's jetzt noch eindrucksvoller unterwegs ist und Intel zusetzt...

dargo
2019-07-14, 13:04:48
Ich denke AMD könnte hier wirklich noch mehr Gas geben und nvidia richtig herausfordern.
Wofür? Damit deine Geforce günstiger wird? Was bringt es AMD außer weniger Marge? Du willst güstigere Preise bei Grafikkarten? Dann muss bei dir auch ein Umdenken im Kopf stattfinden.

aufkrawall
2019-07-14, 13:06:48
btw.
OverdriveNTool funzt noch nicht mit Navi?
Laut Unwinder haben sich die APIs mit Navi nicht geändert und u.a. Igor hatte ja schon erfolgreich eine Soft Power Table genutzt.

dargo
2019-07-14, 13:25:15
Ah... da war ja was.
https://www.youtube.com/watch?v=LjHV9LPxzTs

uweskw
2019-07-14, 13:27:01
Man spürt es, das bestätigen zahlreiche Nutzer und Artikel. Grab dich da mal durch. :)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=595535
https://www.pcgameshardware.de/Radeon-RX-5700-Grafikkarte-274683/Specials/Radeon-Anti-Lag-Test-Navi-1293817/

MfG,
Raff


thanks..
Das sind ja mal echte Verbesserungen. Und nicht für die älteren Generationen gesperrt...
greetz
US

dargo
2019-07-14, 13:35:35
Noch eine Sache vergessen... kann man schon irgendwelche Prognosen abgeben was die Taktbarkeit der 5700 non XT angeht? Sprich... lassen sich die Salvages schlechter takten, brauchen mehr Spannung wie die 5700XT für Takt X? Ich denke da die 5700 non X von Haus aus mit weniger Takt läuft ist da mit SPPT einfach mehr Spielraum drin. Ich stelle mir halt gerade so ne 5700 non XT mit 1,9-2Ghz vor. Die Karte hat die selbe Bandbreite wie die 5700XT. Beim gleichen Takt bleiben also nur 11% mehr Shader übrig. Wie gut skalieren eigentlich die reinen Shader bei Navi? Von +10% ist man da sicherlich noch weit entfernt oder? Auf der anderen Seite finde ich die 50€ Differenz nicht so prickelnd. Die 5700 non X müsste schon eher 300-320€ kosten.

JVC
2019-07-14, 13:42:56
Eine Custom RTX 2080 Super wird mehr drauflegen, locker 30%.

Gibt's da ne Quelle dazu ?
Irgendwie glaub ich das nicht, da es die 2080Ti kannibalisieren würde...
(oder verheimlicht NV ne 2080Ti Super, damit der Verkauf der 2080Ti nicht einbricht?)

M.f.G. JVC

dargo
2019-07-14, 13:44:43
Gibt's da ne Quelle dazu ?
Irgendwie glaub ich das nicht, da es die 2080Ti kannibalisieren würde...

Muss man das jetzt hier vertiefen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12048587&postcount=355

Ravenhearth
2019-07-14, 13:44:50
Gibt's da ne Quelle dazu ?
Irgendwie glaub ich das nicht, da es die 2080Ti kannibalisieren würde...

M.f.G. JVC
Er meint 30% auf die 5700XT

Hakim
2019-07-14, 14:09:52
Noch eine Sache vergessen... kann man schon irgendwelche Prognosen abgeben was die Taktbarkeit der 5700 non XT angeht? Sprich... lassen sich die Salvages schlechter takten, brauchen mehr Spannung wie die 5700XT für Takt X? Ich denke da die 5700 non X von Haus aus mit weniger Takt läuft ist da mit SPPT einfach mehr Spielraum drin. Ich stelle mir halt gerade so ne 5700 non XT mit 1,9-2Ghz vor. Die Karte hat die selbe Bandbreite wie die 5700XT. Beim gleichen Takt bleiben also nur 11% mehr Shader übrig. Wie gut skalieren eigentlich die reinen Shader bei Navi? Von +10% ist man da sicherlich noch weit entfernt oder? Auf der anderen Seite finde ich die 50€ Differenz nicht so prickelnd. Die 5700 non X müsste schon eher 300-320€ kosten.

Bei der Referenz scheint die nonXT durch max + 20% power limitiert zu sein. Hat zwar auch glaub ich nur 5 statt 6 Phasen, weiß aber nicht ob das viel Einfluss hat. Zumindest kam igor damit auf max 2,1 , während die XT durch den höheren Limit höher gehen kann.

Müsste wir abwarten ob die customs da freie Hand haben oder obs eine Vorgabe seitens AMD ist.

JVC
2019-07-14, 14:11:43
Ok, SRY und Danke ^^
(bin nur mit nem halben Auge hier)

https://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/Youtuber-baut-sich-eine-Next-Gen-Konsole-mit-Radeon-RX-5700-und-Ryzen-3700X-1294765/
Interessanter Teil:
"Als GPU dient eine Radeon RX 5700 ohne XT-Suffix. Änderungen gibt es gegenüber den Werks-Settings nicht. In Zahlen bedeutet das 8.154 Punkte im 3DMark Time Spy. Das Resultat liegt etwas mehr als 200 Punkte über seinem erzielten Ergebnis mit einer Geforce RTX 2070."

M.f.G. JVC

dargo
2019-07-14, 14:14:24
@Hakim

Och... 2,1Ghz klingen auch schon ganz gut. So viel brauche ich gar nicht. Ich gebe mich auch mit 1,9-2Ghz zufrieden. :tongue: Mir ist da ein gesunder Sweetspot viel wichtiger. Wenn die 5700 non X da unter 200W bleibt ist alles im grünen Bereich. Was hatte die 5700 non X für ein GPU-Power-Limit? 150W? Wären dann bei +20% (sofern diese ausgeschöpft werden) 180W. Ist mir eh schon zu viel.

Der_Korken
2019-07-14, 14:32:35
Compute mit OpenCL scheint allgemein noch sehr kaputt zu sein.
In den Mining Foren sehen wir hier aktuell Hashraten von bis zu 8 MH/s ( Vega ~40 MH/s ) bei ETHash und 800H/s ( Vega 2000 H/s ) bei Monero. Da läuft garnix.


Das sind doch mal gute Nachrichten :freak:

Hoffentlich bleibt die Mining-Performance wegen der geringen Rohleistung schön mies, damit normaler Nutzer die Karten zu normalen Preisen kaufen können.

Daredevil
2019-07-14, 14:54:06
Du kannst die Karten immer zu normalen Preise kaufen, deswegen vertreibt AMD die halt ( wie Nvidia auch früher ) nun auch selbst, genau aus dem Grund.

Screemer
2019-07-14, 15:06:36
Bei der Referenz scheint die nonXT durch max + 20% power limitiert zu sein. Hat zwar auch glaub ich nur 5 statt 6 Phasen, weiß aber nicht ob das viel Einfluss hat. Zumindest kam igor damit auf max 2,1 , während die XT durch den höheren Limit höher gehen kann.

Müsste wir abwarten ob die customs da freie Hand haben oder obs eine Vorgabe seitens AMD ist.
Mit softpowertables gehen bei der nonXT wohl auch >20%.

=Floi=
2019-07-14, 17:07:32
.

die super karten werden durch das powerlimit und nicht direkt durch die einheiten limitiert!
Das ist eine ganz neue art.

2080S ist einfach zu teuer für den mehrgewinn an performance.

Du immer mit deinen fabelpreisen, weil du nur die billigsten karten raussuchst. :rolleyes: Eine ordentliche karte mit leisem kühler kostet locker 100€ mehr. (+12-15% fps) Wach auf! Als ob das bei AMD anders werden wird.
Mir ist es auch lieber, dass auch bei den kleineren karten geklotzt wird und ein viel zu großer kühler verbaut wird. Ist doch nichts negatives.

mercutio
2019-07-15, 12:56:09
Wow, der Preis ist krass, wenn die € 369,- stimmen.
Fast soviel habe ich im Februar für meine Vega 56 bezahlt. Und die hat fast doppelt so viel Stromverbrauch. :freak:

Da fühle ich mich fast veräppelt.

aufkrawall
2019-07-15, 12:58:11
Hättest du mal eine 6GB 2060 gekauft.

dargo
2019-07-15, 14:10:31
Ich liebe deinen Humor. :biggrin:

gnomi
2019-07-15, 15:08:53
Wofür? Damit deine Geforce günstiger wird? Was bringt es AMD außer weniger Marge? Du willst güstigere Preise bei Grafikkarten? Dann muss bei dir auch ein Umdenken im Kopf stattfinden.

Okay. Spielen wir das mal durch. :wink:
Ich habe Turing bislang selber nicht gekauft.
Und auch hinsichtlich meiner 3 Jahre alten Pascal habe ich die FE zurück gesendet wegen frechen 789 Euro und dann zu einer mit Spiel gebundelten Palit Gamerock Pro Premium für 650 gegriffen.
Diese besitze ich bereits 3 Jahre und plane jetzt mit längeren Zyklen wegen solcher Anschaffungskosten!
Du kannst nicht von mir erwarten, mir was von AMD zu kaufen, wenn ich seit 20 Jahren mit nvidia zufrieden bin und sie besonders zuletzt das bessere Produkt mit mehr Leistung früher haben. :freak:
Bis auf die Pixel Shader 2 Einführung vor 15 Jahren zu HL2 Zeiten hat denke ich nvidia stark geliefert und den Markt logischerweise mal mehr, mal weniger, dominiert...
Ausgehend von einer 1080 sind Vega 64 und auch 5700 & 5700XT anders als die nvidia GPU's mit RT und mehr VRAM wie eine 2080TI kein empfehlenswertes Update aus Leistungssicht.
Ich finde sogar nvidia mit den überarbeiteten FE Kühlern und jetzt Super Varianten plus Spielbundle als Gesamtpaket eher attraktiver, wenn man die Karte länger als 18 Monate nutzen möchte. Wie siehst Du das nüchtern betrachtet :confused:
Man muss natürlich mal sehen, wie gut die 5700 % 5700 XT Custom Karten werden.
Aber ausgemacht ist es noch nicht, dass AMD so derbe bei den Marktanteilen aufholt.
Gelohnt hat sich das alles jedoch schon für alle Spieler. Es gibt außerhalb der abverkauften Vega Karten eine weit bessere moderne GPU Auswahl als im letzten Jahr.
Nur Performance ist eben das neue High End und noch zu teuer. Da muss man mal abwarten.
Ich finde bei den CPU's ist AMD wirklich so weit, dass man doch gerne mal seit dem Athlon wieder wechselt. (allerdings habe ich schon einen 8700k wegen OS Kompatibilität und konnte diesen Sprung der dritten Auflage auch nicht vorhersehen)
Aber nvidia ist eben nicht Intel und hat einem jedes Jahr da ein paar Prozent mehr Leistung verkauft.
Die haben den Sprung auf die neue Fertigung auch noch vor sich und dann wird sich zeigen, ob es so teuer wie bei Turing sein muss. :(

uweskw
2019-07-15, 17:59:56
......Aber ausgemacht ist es noch nicht, dass AMD so derbe bei den Marktanteilen aufholt. Gelohnt hat sich das alles jedoch schon für alle Spieler.........





AMD derbe aufholen... das wird nicht passieren.
War doch in der Vergangeheit schon ein paar mal so, dass AMD das bessere Produkt und Software hatte aber sowohl Intel als auch NV ihre Marktmacht erfogreich eingesetzt haben, um die Konkurenz klein zu halten.


Da ich nicht mehr als 24 Zoll stellen will werde ich wohl noch lange bei 1440p bleiben. Hat jemand mal gesehen wie groß der BQ unterschied zuwischen einem 4k Monitor und native 4k und 1440 sharpened ist?



greetz
US

medi
2019-07-15, 19:27:58
Hat das eigentlich schon wer hier gepostet?
https://www.reddit.com/r/Amd/comments/cd2vp7/5700xt_voltage_is_to_high_everyone_should/

Scheinbar laufen die RX5700 per default mit viel mehr Spannung als benötigt und lassen sich somit entweder im Verbrauch ordentlich drosseln oder aber in der performance noch gut steigern.

Screemer
2019-07-15, 19:37:37
Same procedure, different day.

dargo
2019-07-16, 10:13:57
Hat das eigentlich schon wer hier gepostet?
https://www.reddit.com/r/Amd/comments/cd2vp7/5700xt_voltage_is_to_high_everyone_should/

Scheinbar laufen die RX5700 per default mit viel mehr Spannung als benötigt und lassen sich somit entweder im Verbrauch ordentlich drosseln oder aber in der performance noch gut steigern.
Völliger Unsinn mal wieder. Es gibt Workloads wo sein UV garantiert nicht funktionieren wird. Games gehören u.U. nicht dazu. Was ist mit Compute? Oder ein ganz einfaches Beispiel... Gamen und gleichzeitig mit HEVC aufnehmen? Letzteres geht bsw. mit meinem UV auf Vega auch nicht (Spannung zu niedrig), nur AVC geht. Und das obwohl alle Games problemlos laufen.

aufkrawall
2019-07-16, 10:37:35
Wobei ich so etwas nicht von Polaris kenne.

dargo
2019-07-16, 10:39:43
Vielleicht gehst du einfach nur nicht tief genug mit der Vcore runter? Oder bist du auch bei unter 0,9V?

aufkrawall
2019-07-16, 11:16:47
Mit P20 geht es bei >1,3GHz mit der Spannung nicht so weit runter. <1V kann man sich abschminken, will man sich nicht nur mit scheinstabilen Benchmark-Runs im Internet prahlen. Ich habe vier verschiedene P20 UVed, bei allen gab es sonst Grafikfehler oder Crashes in HotS. Gegenüber der Standard-Spannung von >1,1V ist natürlich trotzdem ordentlich Potenzial vorhanden. Imho gibt es da definitiv einen Unterschied zu Vega, wo Spiele mitunter mit deutlich weniger Spannung tatsächlich stabil laufen, Compute aber nicht unbedingt.

Dino-Fossil
2019-07-16, 11:27:48
Naja, es sind jeweils unterschiedliche Chips und Navi kommt auch in einem anderen Prozess, entsprechend können die sich durchaus unterschiedlich Verhalten, oder?
Mal davon abgesehen, das dargo's Spezial-undervolting evtl. auch nochmal ne Sache für sich ist...

aufkrawall
2019-07-16, 11:37:29
Vega ist wohl eher eine "Spezi-GPU". :tongue:

Immerhin beträgt die Differenz zwischen GPU und Junction offenbar nur ~10°C mit dem Blower. Und wenn das, was er im Video sagt stimmt, gibts dafür auch reichlich Puffer nach oben. Schon mal eine nervige Vega-Krankheit weniger.

Badesalz
2019-07-16, 12:02:56
Völliger Unsinn mal wieder. Es gibt Workloads wo sein UV garantiert nicht funktionieren wird. Games gehören u.U. nicht dazu. Was ist mit Compute? Oder ein ganz einfaches Beispiel... Gamen und gleichzeitig mit HEVC aufnehmen? Letzteres geht bsw. mit meinem UV auf Vega auch nicht (Spannung zu niedrig), nur AVC geht. Und das obwohl alle Games problemlos laufen.Wenn er nur zockt, ist das für andere nur Zocker ok.
Sonst haben die Leute aber wirklich meist NULL Plan wie sie testen sollen und was sie bei AMD einstellen sollen.
Erstens testet man es (bisher) mit OCCT. Shaderkomplexität einmal 3 und einmal 7. Mit Fehlerüberwachung natürlich. 2 Minuten sind ok. 2GB mindestens. Zweitens sind P5 und P6 nicht weniger wichtig als P7, von welchem man immer glaubt, wenn die Tools nichts anderes anzeigen, dann wird es gehalten.
Wird es nicht. Powertune kann in 10µs hin und her regeln. Welche Software unter welchem Kernel welches Betriebssystems, auf dem Adrenalin läuft, soll das denn erfassen können? :freak:

aufkrawall
2019-07-16, 12:11:00
Dafür lassen sich ja die States locken.

dargo
2019-07-16, 12:12:54
Mit P20 geht es bei >1,3GHz mit der Spannung nicht so weit runter. <1V kann man sich abschminken, will man sich nicht nur mit scheinstabilen Benchmark-Runs im Internet prahlen.
Ich bin mir jetzt nicht 100% sicher wo da bei mir die Grenze für stabiles UV beim Gamen + HEVC Aufnahme war. Ich meine ich brauche mindestens 980mV, könnten aber auch 1000mV sein. Mehr auf jeden Fall nicht.

2Ms
2019-07-16, 19:08:22
Gehört eigentlich ins Hardware-Hilfe-Forum, wolte aber nicht extra einen Thread aufmachen.
Daher dann also hier die Frage, ob GPU-Z die Specs für die 5700 falsch ausliest, oder ob mein Chip wirklich nur 2048 Shader hat statt der eignetlichen 2304.
Und mein altes Asrock Mainboard von 2012 kann bestimmt noch kein PCIe4.0

Ich benutze GPU-Z 2.22 mit dem Adrenalin 19.7.1.

Kann das wer noch verifizieren ?

dargo
2019-07-16, 19:33:27
Added preliminary Radeon RX 5700 & 5700 XT (Navi) support

Liest also eher Blödsinn aus.

2Ms
2019-07-16, 19:40:15
THX.
Die Anwort beruhigt mich einwenig.

Der Kauf war eh eine kleine Katastrophe, der Weg zur Abholung beinah tödlich für mich. Da würde eine defekte GPU sehr gut ins Bild passen.

Schade nur, dass die GPU so warm wird. Aber habe bisjetzt nur ein Spiel getestet, bei dem andere GPUs wie Polaris oder Tahiti nur müde gegähnt hatten.
Rocket League ist eher CPU-lastig, trotzdem wird der Navi 64 Grad warm mit Standard-Settings.
Vorausgesetzt, HWinfo liest es korrekt aus.

Dafür bleibt aber der Lüfter noch recht leise.

Allerdings bleibt der Bug bestehen, dass im MultiMonitor-Setup der Speicher wieder vollhochtakt, auch wenn nur der Windows-Desktop zu sehen ist.

horn 12
2019-07-17, 03:21:48
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-19-7-2

Neuer Treiber

MSABK
2019-07-17, 10:52:31
In reddit (https://www.reddit.com/r/Amd/comments/ce8hj8/personal_experience_undervolting_navi_5700xt/?utm_source=share&utm_medium=web2x) hat einer geschrieben er hat seine XT undervoltet und mit 1900Mhz einen Verbrauch von rund 110-130Watt. Richtig cool wenn das so stimmt.

dildo4u
2019-07-17, 10:57:42
130 für die GPU nicht vergessen die Tools zeigen bei AMD nicht die ganze Karte.

Ätznatron
2019-07-17, 11:27:06
130 für die GPU nicht vergessen die Tools zeigen bei AMD nicht die ganze Karte.


Du meinst also, die tatsächliche Leistungsaufnahme liegt bei ~ 250 Watt?

medi
2019-07-17, 11:30:37
Du meinst also, die tatsächliche Leistungsaufnahme liegt bei ~ 250 Watt?

Nein aber die RGB Beleuchtung, Ram und Lüfter kommen noch drauf. Vermutlich was um die 10-20W

dildo4u
2019-07-17, 11:31:52
Ich glaube die 5700XT liegt bei 180 für die GPU 220 fürs ganze Board.
Also ca 40 Watt für den Rest der Karte.

aufkrawall
2019-07-17, 11:34:49
Der "Rest" ist kein fixer Wert, sondern die Wandlerverluste hängen auch vom GPU-Verbrauch ab.

Daredevil
2019-07-17, 11:43:19
Hab gerade die Karte bei MM abgeholt und bin am testen, die UV Ergebnisse werden euch umhauen. :D
Brauch noch so ne halbe Stunde.

Ätznatron
2019-07-17, 11:47:40
Hm, wenn ich die HWInfo-Werte (GPU, Asic, und Mem-Power) mal für meine Karte addiere und noch ein bisschen was draufgebe für Lüfter und Beleuchtung, müsste die Karte deutlich mehr verbrauchen als mir mein, zugegebenermaßen billiges, Strommessgerät für den ganzen PC ausgibt.

Nehme ich nur die GPU Asic-Power und addiere dazu 70 Watt für den Rest-PC, kommt das ziemlich gut mit der Steckdosenmessung hin.

Schwammtaucher
2019-07-17, 12:05:29
Hab gerade die Karte bei MM abgeholt und bin am testen, die UV Ergebnisse werden euch umhauen. :D
Brauch noch so ne halbe Stunde.

Die Uhr tickt... ;)

Bin sehr gespannt.

dildo4u
2019-07-17, 12:36:09
Geekbench hat ein Update bekommen damit die Open CL Werte mit Navi stimmen kann das mal bitte jemand testen?

https://www.geekbench.com/blog/2019/07/geekbench-440/

Daredevil
2019-07-17, 13:28:17
Sooo, hat doch noch etwas länger gedauert zum Ende hin.

Also vorweg einmal, AMD hat es ENDLICH geschafft, die GPU bzw. den Treiber so zu optimieren, dass er im Falle eines Instabilität nicht komplett das System killt, sondern wirklich sauber einen Treiber Reset vornimmt. Das war ( bei mir ) mit Vega nicht der Fall und mit Vega II ebenso wenig. Deswegen schon mal einen riesen Daumen nach Oben.

Folgende Vorrangehensweise:
Unigine Superposition 4k mit jeweils zwei Vorgängen hintereinander
Taktraten in der Liste sind die, die im WattMan gesetzt wurde. Je nach Szenario schwank die Taktrate von 10-50Mhz nach unten. ( Je höher der Takt, je höher schwankt er. ) 1850&1900 sind so korrekt ausgelesen.
Es handelt sich hier immer um den ASIC Verbrauch.

MinimalVolt > Takterhöhung > Crash > 25mv mehr Spannung > Takterhöhung

Radeon 5700XT
Verbrauch|Taktrate|Spannung|Score|HotSpot Temp|RPM|Punkte pro Watt| Anmerkung
68w| 800Mhz| 750mv| 3404pts| 77°C | 713rpm | 50|
73w| 900Mhz | 750mv | 3777pts | 82°C | 712rpm| 52|
78w| 1000Mhz| 750mv| 4154pts | 86°C | 716rpm| 53|
82w | 1100Mhz | 750mv | 4534pts| 87°C| 813rpm| 55|
87w | 1200Mhz| 750mv| 4883pts | 87°C | 813rpm | 56|
89w | 1300Mhz | 750mv | 5225pts | 87°C | 853rpm| 58|
93w | 1400mhz | 750mv | 5560pts| 87°C| 901rpm|60| Sweet Spot
108w | 1500mhz | 800mv | 5895pts | 78°C | 1280rpm| 55 | Ab hier an hörbarer Lärmpegel
117w | 1600mhz| 824mv | 6202pts| 82°C | 1281rpm | 53|
131w | 1700mhz| 875mv | 6519pts | 86°C| 1375rpm | 49|
148w| 1800mhz | 931mv | 6831pts | 88°C| 1693rpm | 46 | Ab hier an störender Lärmpegel

170w| 1850mhz| 1000mv | 7095pts| 91°C| 2100rpm | 41 | (Ab hier an fönt sich meine Freundin damit die Haare
213w| 1900mhz | 1081mv | 7366pts | 107°C | 2113rpm| 35|
180w |~1800Mhz |1056mv |6974pts| 94°C| 2100rpm | 38 | Stock Werte


Als Vergleich hier mal die Radeon VII
ASIC Verbrauch|Takt|Spannung|Score| Watt pro Punkte Punkte pro Watt |Lüfter RPM
75w |1200mhz |725mv |5505pts | 73 |900rpm|
90w |1300mhz| 777mv |5924pts | 65 | 900rpm|
102w| 1400mhz| 805mv| 6326pts | 62 |1120rpm
115w| 1500mhz |851mv| 6682pts | 58 | 1450rpm
148w |1600mhz| 900mv |7039pts | 47 |1750rpm ( Ab hier an hörbarer Lärmpegel )
180w |1700mhz| 950mv |7389pts | 41 |2331rpm ( Ab hier an störender Lärmpegel )
191w| 1800mhz |978mv| 7702pts | 40 |2733rpm
219w |1900mhz| 1052mv| 7959pts | 36 |2900rpm

240w |1750mhz |1110mv |7599pts| 31 | 2900rpm ( Stock )


Insgesamt ist die VII deutlich flexibler, wenn es ums Undervolting geht, weil man sie mit einer niedrigeren Spannung betreiben kann und trotzdem noch sehr viel Leistung/Watt aus der Karte kommt. ( Im Unigine Benchmark versteht sich. )
Aber auch bei Navi kann man noch ordentlich Verbrauch sparen im Gegensatz zu den Stock Werten.

Mit nur 100 Mhz weniger ( ~1700Mhz ) bekommt man sie von Stock@2100rpm auf UV@1375rpm getaktet, was die Geräuschkulisse deutlich mindert.
Navi ist bei weitem nicht so schlimm wie die Vega Karten, man hört sich aber deutlich raus, wenn sie aufdreht.

Interessant ist auch der Sweet Spot, welcher sich bei VegaI bei ~1000Mhz befand, bei VegaII bei ~1200Mhz und welcher bei Navi auf ~1400Mhz angestiegen ist.

Zum Vergleich hier aber mal generelle Werte als Vergleich im Sweetspot.
Nvidia Karten performen in diesem Bench deutlich besser, deswegen ist der Vergleich nicht machbar. UV als Vergleich ist hier aber dafür ersichtlich.

3715pts GTX1060 @Stock 120w
5023pts Vega 56 @Stock 180w
5505pts VegaII UV@ ~100w/900rpm
5560pts NaviXT UV@ ~120w/900rpm
6323pts GTX980TI @OC 300w
7272pts GTX1080 @OC 240w
9179pts GTX1080TI @Stock 250w
10210pts RTX2080ti UV@ ~155w/1050rpm
11163pts Palit RTX2080ti B-Chip @Stock 250w

Fazit: I need dat Big Navi @ ~1400-1600Mhz. :D

mr coffee
2019-07-17, 14:37:23
Mining Performance ist praktisch nicht vorhanden, hast du dazu Infos?

dargo
2019-07-17, 15:06:17
Also vorweg einmal, AMD hat es ENDLICH geschafft, die GPU bzw. den Treiber so zu optimieren, dass er im Falle eines Instabilität nicht komplett das System killt, sondern wirklich sauber einen Treiber Reset vornimmt. Das war ( bei mir ) mit Vega nicht der Fall und mit Vega II ebenso wenig. Deswegen schon mal einen riesen Daumen nach Oben.

Kann meine Vega schon lange. ;)

Daredevil
2019-07-17, 15:14:38
Mining Performance ist praktisch nicht vorhanden, hast du dazu Infos?
Also aktuell ist eine VII in Ethereum ca. 25 mal schneller als ne 5700xt. :D
AMD bekommt es ja selber nicht hin, einen sauberen Treiber zu schreiben, ( Grüße gehen an den Pink Screen nach der Installation ) da muss man der Mining Community noch ein wenig Zeit lassen zum optimieren der Miner.

Aktuell ist wie gesagt die Unterstützung nicht da, das wird sicherlich auch noch ein wenig dauern. Die 1080/1080ti hat einen richtig guten Miner erst nach ~11 Monaten bekommen, da muss aktuell wohl viel gebastelt werden.

Ehrlich gesagt sehe ich aber auf keiner Ebene, dass Navi in irgendeiner Form brilliert und sich gut für sowas eignet. Der "HPC" Teil ist raus, das ist negativ, die Bandbreite ich gesunken, das ist negativ, die Cache Performance ist durchs wegfallen des HBM ebenfalls gesunken, ebenfalls negativ.
Die Karten kommen aktuell nur mit 8GB und können somit auch bei den MimbleWimble Coins nicht mitspielen.

Eine 7nm Vega wäre sehr interessant, hier sehe ich aktuell kein Wunderwerk, was jeder haben möchte.

Kann meine Vega schon lange. ;)
Meine vier Vegas und 6 VegaII können das nicht. :> ( Mein Rig hat nen frisches Win10 )

aufkrawall
2019-07-17, 15:16:03
Wenn die Recovery nicht funzt, ist das nach meiner Erfahrung häufig ein Zeichen für instabilen VRAM, und nicht unbedingt die GPU selbst.

][immy
2019-07-17, 15:21:35
Mining Performance ist praktisch nicht vorhanden, hast du dazu Infos?
Ist GPU Mining nicht tot?
selbst bei Ethereum mischen doch inzwischen Asics mit.

2Ms
2019-07-17, 15:43:07
Radeon Adrenalin 19.7.2
https://www.amd.com/de/support/graphics/amd-radeon-5700-series/amd-radeon-rx-5700-series/amd-radeon-rx-5700
Support For
GEARS 5™ BETA
Fixed Issues
Radeon ReLive streaming and uploading of videos and other content to Facebook™ is currently unavailable.
Textures in Star Wars® Battlefront II may appear pixelated or blurry when using DirectX®11 API.
With Radeon Image Sharpening enabled, Radeon Overlay may flicker in DirectX®9 applications or games.
Valve Index headset may experience flicker for approximately 30 seconds when launching SteamVR on AMD Radeon RX 5700 Series Graphics.
Auto Tuning controls in Radeon WattMan may fail to apply to per game profiles when global Radeon WattMan changes are made.
Some enemies may experience yellow texture/color corruption in DOOM™.
Auto Tuning features in Radeon WattMan may show max values instead of increased values when the Auto Tuning results screen is shown.
Radeon WattMan memory clock gauge may fail to update when memory clock changes have been made.
AMD Display Drivers may fail to uninstall when using express uninstall on Hybrid Graphics system configurations.
Known Issues
AMD Log Utility Driver may intermittently fail to install on Windows®7 system configurations.
Radeon Overlay may intermittently fail to appear when toggled in game.
Audio for clips captured by Radeon ReLive may be corrupted or garbled when desktop recording is enabled.
Minor stuttering may occur when playing Fortnite™ during the first few minutes of gameplay on AMD Radeon RX 5700 Series Graphics.
Radeon RX 5700 Series Graphics may experience a black screen during uninstall on Windows®7 system configurations. A work around is to perform uninstall in safe mode.
Recording clips with Radeon ReLive may result in blank clips on Radeon RX 5700 Series Graphics with Windows®7 system configurations.
League of Legends™ may fail to launch on Radeon RX 5700 Series Graphics with Windows®7 system configurations.

SKYNET
2019-07-17, 15:51:55
Sooo, hat doch noch etwas länger gedauert zum Ende hin.

Also vorweg einmal, AMD hat es ENDLICH geschafft, die GPU bzw. den Treiber so zu optimieren, dass er im Falle eines Instabilität nicht komplett das System killt, sondern wirklich sauber einen Treiber Reset vornimmt. Das war ( bei mir ) mit Vega nicht der Fall und mit Vega II ebenso wenig. Deswegen schon mal einen riesen Daumen nach Oben.

Folgende Vorrangehensweise:
Unigine Superposition 4k mit jeweils zwei Vorgängen hintereinander
Taktraten in der Liste sind die, die im WattMan gesetzt wurde. Je nach Szenario schwank die Taktrate von 10-50Mhz nach unten. ( Je höher der Takt, je höher schwankt er. ) 1850&1900 sind so korrekt ausgelesen.
Es handelt sich hier immer um den ASIC Verbrauch.

MinimalVolt > Takterhöhung > Crash > 25mv mehr Spannung > Takterhöhung

Radeon 5700XT
Verbrauch|Taktrate|Spannung|Score|HotSpot Temp|RPM|Punkte pro Watt| Anmerkung
68w| 800Mhz| 750mv| 3404pts| 77°C | 713rpm | 50|
73w| 900Mhz | 750mv | 3777pts | 82°C | 712rpm| 52|
78w| 1000Mhz| 750mv| 4154pts | 86°C | 716rpm| 53|
82w | 1100Mhz | 750mv | 4534pts| 87°C| 813rpm| 55|
87w | 1200Mhz| 750mv| 4883pts | 87°C | 813rpm | 56|
89w | 1300Mhz | 750mv | 5225pts | 87°C | 853rpm| 58|
93w | 1400mhz | 750mv | 5560pts| 87°C| 901rpm|60| Sweet Spot
108w | 1500mhz | 800mv | 5895pts | 78°C | 1280rpm| 55 | Ab hier an hörbarer Lärmpegel
117w | 1600mhz| 824mv | 6202pts| 82°C | 1281rpm | 53|
131w | 1700mhz| 875mv | 6519pts | 86°C| 1375rpm | 49|
148w| 1800mhz | 931mv | 6831pts | 88°C| 1693rpm | 46 | Ab hier an störender Lärmpegel

170w| 1850mhz| 1000mv | 7095pts| 91°C| 2100rpm | 41 | (Ab hier an fönt sich meine Freundin damit die Haare
213w| 1900mhz | 1081mv | 7366pts | 107°C | 2113rpm| 35|
180w |~1800Mhz |1056mv |6974pts| 94°C| 2100rpm | 38 | Stock Werte


Als Vergleich hier mal die Radeon VII
ASIC Verbrauch|Takt|Spannung|Score| Watt pro Punkte Punkte pro Watt |Lüfter RPM
75w |1200mhz |725mv |5505pts | 73 |900rpm|
90w |1300mhz| 777mv |5924pts | 65 | 900rpm|
102w| 1400mhz| 805mv| 6326pts | 62 |1120rpm
115w| 1500mhz |851mv| 6682pts | 58 | 1450rpm
148w |1600mhz| 900mv |7039pts | 47 |1750rpm ( Ab hier an hörbarer Lärmpegel )
180w |1700mhz| 950mv |7389pts | 41 |2331rpm ( Ab hier an störender Lärmpegel )
191w| 1800mhz |978mv| 7702pts | 40 |2733rpm
219w |1900mhz| 1052mv| 7959pts | 36 |2900rpm

240w |1750mhz |1110mv |7599pts| 31 | 2900rpm ( Stock )


Insgesamt ist die VII deutlich flexibler, wenn es ums Undervolting geht, weil man sie mit einer niedrigeren Spannung betreiben kann und trotzdem noch sehr viel Leistung/Watt aus der Karte kommt. ( Im Unigine Benchmark versteht sich. )
Aber auch bei Navi kann man noch ordentlich Verbrauch sparen im Gegensatz zu den Stock Werten.

Mit nur 100 Mhz weniger ( ~1700Mhz ) bekommt man sie von Stock@2100rpm auf UV@1375rpm getaktet, was die Geräuschkulisse deutlich mindert.
Navi ist bei weitem nicht so schlimm wie die Vega Karten, man hört sich aber deutlich raus, wenn sie aufdreht.

Interessant ist auch der Sweet Spot, welcher sich bei VegaI bei ~1000Mhz befand, bei VegaII bei ~1200Mhz und welcher bei Navi auf ~1400Mhz angestiegen ist.

Zum Vergleich hier aber mal generelle Werte als Vergleich im Sweetspot.
Nvidia Karten performen in diesem Bench deutlich besser, deswegen ist der Vergleich nicht machbar. UV als Vergleich ist hier aber dafür ersichtlich.

3715pts GTX1060 @Stock 120w
5023pts Vega 56 @Stock 180w
5505pts VegaII UV@ ~100w/900rpm
5560pts NaviXT UV@ ~120w/900rpm
6323pts GTX980TI @OC 300w
7272pts GTX1080 @OC 240w
9179pts GTX1080TI @Stock 250w
10210pts RTX2080ti UV@ ~155w/1050rpm
11163pts Palit RTX2080ti B-Chip @Stock 250w

Fazit: I need dat Big Navi @ ~1400-1600Mhz. :D


32 23% weniger leistung, ist für dich der sweet spot? na dann... :ulol:

dargo
2019-07-17, 15:55:10
32% weniger leistung, ist für dich der sweet spot? na dann... :ulol:
Rechnen ist nicht deine Stärke, gell? Es sind -20% gegenüber Stock. Und was ein Sweetspot ist weißt du offensichtlich auch nicht. Bei 93W GPU Power gibts die höchste Perf/W.

@Daredevil
Ist schon ne Hausnummer... -48% Verlustleistung bei -20% Performance. Allerdings ist das UV. Interessant wäre zu sehen wie es aussieht wenn du dich an die PP-Table von AMD hälst. Also praktisch nur Powerlimit reduzieren.

SKYNET
2019-07-17, 16:05:53
Rechnen ist nicht deine Stärke, gell? Es sind -20% gegenüber Stock. Und was ein Sweetspot ist weißt du offensichtlich auch nicht. Bei 93W GPU Power gibts die höchste Perf/W.

zahlendreher :P sind nämlich 23%(grob im kopf gerechnet)


der sweet spot isses trotzdem nicht, da der von jedem per definition anders ausgelegt wird, für mich wäre der sweet spot 1850 @ 1.000V bei seiner karte... weil alles drunter hat leistungsverlust zufolge.

und sowas wäre mir eh nur in meinerm schlafzimmerrechner wichtig, in der hauptkiste würde das teil hochgedreht bis zum sonstwas(an igors 2200MHz navi denke dabei)

mr coffee
2019-07-17, 16:10:32
Interessant ist das doch vor allem für die Konsolen ... man sieht etwas Untertaktung und Undervolting hilft viel.

dargo
2019-07-17, 16:11:30
Seit wann wird auf Konsole undervoltet? :freak:

mr coffee
2019-07-17, 16:28:45
Ach komm, man kann mit dem Festlegen der Spannung und dem Takt gut spielen, heißt es hat Auswirkungen. Die werden da schon was passendes finden.

Th3o
2019-07-17, 16:32:39
Hoffentlich bleibt Navi ein Mining Nobody, ist ja eh nur pure Energieverschwendung.

tm0975
2019-07-17, 16:42:22
Sooo, hat doch noch etwas länger gedauert zum Ende hin.

Also vorweg einmal, AMD hat es ENDLICH geschafft, die GPU bzw. den Treiber so zu optimieren, dass er im Falle eines Instabilität nicht komplett das System killt, sondern wirklich sauber einen Treiber Reset vornimmt. Das war ( bei mir ) mit Vega nicht der Fall und mit Vega II ebenso wenig. Deswegen schon mal einen riesen Daumen nach Oben.

Folgende Vorrangehensweise:
Unigine Superposition 4k mit jeweils zwei Vorgängen hintereinander
Taktraten in der Liste sind die, die im WattMan gesetzt wurde. Je nach Szenario schwank die Taktrate von 10-50Mhz nach unten. ( Je höher der Takt, je höher schwankt er. ) 1850&1900 sind so korrekt ausgelesen.
Es handelt sich hier immer um den ASIC Verbrauch.

MinimalVolt > Takterhöhung > Crash > 25mv mehr Spannung > Takterhöhung

Radeon 5700XT
Verbrauch|Taktrate|Spannung|Score|HotSpot Temp|RPM|Punkte pro Watt| Anmerkung
68w| 800Mhz| 750mv| 3404pts| 77°C | 713rpm | 50|
73w| 900Mhz | 750mv | 3777pts | 82°C | 712rpm| 52|
78w| 1000Mhz| 750mv| 4154pts | 86°C | 716rpm| 53|
82w | 1100Mhz | 750mv | 4534pts| 87°C| 813rpm| 55|
87w | 1200Mhz| 750mv| 4883pts | 87°C | 813rpm | 56|
89w | 1300Mhz | 750mv | 5225pts | 87°C | 853rpm| 58|
93w | 1400mhz | 750mv | 5560pts| 87°C| 901rpm|60| Sweet Spot
108w | 1500mhz | 800mv | 5895pts | 78°C | 1280rpm| 55 | Ab hier an hörbarer Lärmpegel
117w | 1600mhz| 824mv | 6202pts| 82°C | 1281rpm | 53|
131w | 1700mhz| 875mv | 6519pts | 86°C| 1375rpm | 49|
148w| 1800mhz | 931mv | 6831pts | 88°C| 1693rpm | 46 | Ab hier an störender Lärmpegel

170w| 1850mhz| 1000mv | 7095pts| 91°C| 2100rpm | 41 | (Ab hier an fönt sich meine Freundin damit die Haare
213w| 1900mhz | 1081mv | 7366pts | 107°C | 2113rpm| 35|
180w |~1800Mhz |1056mv |6974pts| 94°C| 2100rpm | 38 | Stock Werte


Als Vergleich hier mal die Radeon VII
ASIC Verbrauch|Takt|Spannung|Score| Watt pro Punkte Punkte pro Watt |Lüfter RPM
75w |1200mhz |725mv |5505pts | 73 |900rpm|
90w |1300mhz| 777mv |5924pts | 65 | 900rpm|
102w| 1400mhz| 805mv| 6326pts | 62 |1120rpm
115w| 1500mhz |851mv| 6682pts | 58 | 1450rpm
148w |1600mhz| 900mv |7039pts | 47 |1750rpm ( Ab hier an hörbarer Lärmpegel )
180w |1700mhz| 950mv |7389pts | 41 |2331rpm ( Ab hier an störender Lärmpegel )
191w| 1800mhz |978mv| 7702pts | 40 |2733rpm
219w |1900mhz| 1052mv| 7959pts | 36 |2900rpm

240w |1750mhz |1110mv |7599pts| 31 | 2900rpm ( Stock )


Insgesamt ist die VII deutlich flexibler, wenn es ums Undervolting geht, weil man sie mit einer niedrigeren Spannung betreiben kann und trotzdem noch sehr viel Leistung/Watt aus der Karte kommt. ( Im Unigine Benchmark versteht sich. )
Aber auch bei Navi kann man noch ordentlich Verbrauch sparen im Gegensatz zu den Stock Werten.

Mit nur 100 Mhz weniger ( ~1700Mhz ) bekommt man sie von Stock@2100rpm auf UV@1375rpm getaktet, was die Geräuschkulisse deutlich mindert.
Navi ist bei weitem nicht so schlimm wie die Vega Karten, man hört sich aber deutlich raus, wenn sie aufdreht.

Interessant ist auch der Sweet Spot, welcher sich bei VegaI bei ~1000Mhz befand, bei VegaII bei ~1200Mhz und welcher bei Navi auf ~1400Mhz angestiegen ist.


tolle übersicht, vielen dank! das heißt dann aber, dass ich in der amd-welt die hächste effizient mit vegaII bekomme, richtig? jetzt wäre nur noch interessant zu wissen, die die leistung bei spielen ist und damit die effizient, im sweet spot. die leistung bei vegaII für 75 w verbrauch würde mir locker reichen. im winter können sie ja mit höherem verbrauch laufen. jetzt nur eine günstig im abverkauf ergattern. :-)

Lowkey
2019-07-17, 17:00:59
@DD nice!

Mach mal weiter so und dann kannst du die Karte wieder innerhalb der 2 Wochen zurückschicken, die 5700 nehmen und gegentesten ;)

Im Ernst: mich interessiert die Selektion und Serienstreuung der 5700 und 5700xt.

Daredevil
2019-07-17, 17:27:12
tolle übersicht, vielen dank! das heißt dann aber, dass ich in der amd-welt die hächste effizient mit vegaII bekomme, richtig? jetzt wäre nur noch interessant zu wissen, die die leistung bei spielen ist und damit die effizient, im sweet spot. die leistung bei vegaII für 75 w verbrauch würde mir locker reichen. im winter können sie ja mit höherem verbrauch laufen. jetzt nur eine günstig im abverkauf ergattern. :-)
Ja, die VII ist im Undervolting effizienter, aber das bedeutet nicht, dass es die bessere Karte ist.
Man bezahlt ja auch ordentlich drauf, nech. Die 5700xt gabs ja jetzt für 370€, die günstigste VII gab es einst für 700€.



der sweet spot isses trotzdem nicht
Ja, doch.
Da ich Sweet Spot definiere mit Performance pro Watt und mir ( und anderen auch ) die Entwicklung bei AMD wichtig ist, ist das nun mal ein Faktor, den ich teste.
Der maximale Takt bei minimaler Spannung ist ein Indikator für jetzige und kommende Karten, ich mag das. (:

Nochmal:
VegaI ist bei ~1000Mhz mit 0.800v
VegaII ist bei~1200Mhz mit 0.724v
NaviXT ist bei ~1400Mhz mit 0,750v
Die 2080ti ist bei ~1600MHz mit 0.737v

Der Sprung bei NaviXT von 1000Mhz auf 1400Mhz kostet 15w
Der Sprung bei NaviXT von 1400Mhz auf 1800Mhz kostet 55w

Der Sprung bei der 2080ti von 1000Mhz auf 1400Mhz kostet 31w
Der Sprung bei der 2080ti von 1400Mhz auf 1800Mhz kostet 74w

Da geht noch was bei AMD. :)



Hier mal Gamewerte aus Overwatch im Trainingscamp in WQHD@Ultra bei 150% Skalierung.

Stock:
https://abload.de/img/img_03412okg5.png

UV mit Fokus auf Verbrauch bei gleicher Leistung:
https://abload.de/img/img_0343ibk4v.png

UV mit Fokus auf Lautstärke:
https://abload.de/img/img_0342lgkiv.png

AMD Link funktioniert immerhin mal und das Autoconnect Feature auch.

Wiseman
2019-07-17, 17:38:22
Hoffentlich bleibt Navi ein Mining Nobody, ist ja eh nur pure Energieverschwendung.

Aber sowas von.

Lowkey
2019-07-17, 17:49:58
Stell dir vor Libra kommt und läuft auf Navi gut ;)

Bei dem Angstpotential dürfte es einschlagen.

Schwammtaucher
2019-07-17, 19:27:30
Sooo, hat doch noch etwas länger gedauert zum Ende hin.



Vielen Dank!

2Ms
2019-07-17, 22:44:14
Hab gerade die Karte bei MM abgeholt und bin am testen, die UV Ergebnisse werden euch umhauen. :D
Brauch noch so ne halbe Stunde.
@DD

Habe meine Karte auch im MM gekauft, aber "noch" keinen Code für den Xbox Gaming Pass bekommen.
Wie sah das bei dir aus ?

Und wo gab es denn die XT für das Geld (370 €), dass mich die kleine 57er gekostet hat ?

Was mich wirklich freut ist, dass die Karte wirklich gut performt trotz meines Uralt- Prozessors "FX8320e". Aber man muss die undervolten, sonst schlagen Flammen aus dem Kühler, so heiß wird sie.

Bin zur Zeit noch bei 0,950 Volt@1750 Mhz.

Der_Korken
2019-07-18, 13:00:15
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-custom-designs-msi/#update1

Ferner hat MSI den voraussichtlichen Termin für das Erscheinen der ersten Custom-Modelle nun auf Ende August eingegrenzt. Modelle der Gaming-Serie seien erst im September zu erwarten.

:mad:

Wenn die so weiter machen, kauf ich mir doch eine 2070S. Scheiß Salami-Taktik.

Raff
2019-07-18, 13:23:02
Kauf dir eine Referenzkarte und pack einen Accelero Twin Turbo oder Xtreme drauf. Billigstmögliche Geilheit (Montageaufwand, Lüfter inklusive, Rückbau problemlos).

MfG,
Raff

Daredevil
2019-07-18, 13:30:05
@DD

Habe meine Karte auch im MM gekauft, aber "noch" keinen Code für den Xbox Gaming Pass bekommen.
Wie sah das bei dir aus ?

Und wo gab es denn die XT für das Geld (370 €), dass mich die kleine 57er gekostet hat ?

Was mich wirklich freut ist, dass die Karte wirklich gut performt trotz meines Uralt- Prozessors "FX8320e". Aber man muss die undervolten, sonst schlagen Flammen aus dem Kühler, so heiß wird sie.

Bin zur Zeit noch bei 0,950 Volt@1750 Mhz.
Ich hab’s über die 20-Fach Payback Aktion bei Media Markt bekommen, das entspricht halt 10%.
Meist verschickt MM nach zwei Wochen, weil ab dahin dann die Rückgabe ausgeschlossen werden kann. So war es zumindest mal mit Keys von einer NVIDIA Aktion.

Schwammtaucher
2019-07-18, 13:30:31
Kauf dir eine Referenzkarte und pack einen Accelero Twin Turbo oder Xtreme drauf. Billigstmögliche Geilheit (Montageaufwand, Lüfter inklusive, Rückbau problemlos).

MfG,
Raff

Muss man die RAMs denn dann nicht noch mit Kühlkörpern versehen?

Raff
2019-07-18, 13:34:39
Muss man die RAMs denn dann nicht noch mit Kühlkörpern versehen?

Nope. Einfach die Platinenrückseite an den entsprechenden Stellen (gegenüber den RAM-Chips und der VRM-Linie) mit den mitgelieferten Wärmeleitpads bestücken, den Backside-Kühler drauflegen, ordentlich drücken (aufpassen) und dann festzurren. Die Oberseite der Bauteile bekommt den Luftzug der Propeller ab. Ich rate zu einer manuellen Lüfterkurve mit mehr PWM, denn die Auto-Einstellung führt zu recht hohen Temperaturen.

MfG,
Raff

Schwammtaucher
2019-07-18, 13:37:41
Nope. Einfach die Platinenrückseite an den entsprechenden Stellen (gegenüber den RAM-Chips und der VRM-Linie) mit den mitgelieferten Wärmeleitpads bestücken, den Backside-Kühler drauflegen, ordentlich drücken (aufpassen) und dann festzurren. Die Oberseite der Bauteile bekommt den Luftzug der Propeller ab. Ich rate zu einer manuellen Lüfterkurve mit mehr PWM, denn die Auto-Einstellung führt zu recht hohen Temperaturen.

MfG,
Raff

Danke!
Klingt na recht entspannt.

2Ms
2019-07-18, 14:30:12
Ich hab’s über die 20-Fach Payback Aktion bei Media Markt bekommen, das entspricht halt 10%.
Meist verschickt MM nach zwei Wochen, weil ab dahin dann die Rückgabe ausgeschlossen werden kann. So war es zumindest mal mit Keys von einer NVIDIA Aktion.
Dank dir für die Info.

Wegen der Wartezeit wurde mir das auch so mitgeteilt. In der Vergangenheit haben wohl manche die Ware zurückgegeben, aber die Bundle-Keys waren schon eingelöst und damit ein Verlustgeschäft für MM.
Somit ist der Ehrliche wieder der Dumme, weil es manche mit der Ehrbarkeit nicht so genau genommen haben.

Die Keys lassen sich aber bis zum 3.2020 noch einlösen. Ergo ist einwenig Wartezeit noch ok. Und der Xbox Gaming Pass kostet bis November in der Betaphase eh nur einen (1) Euro. Dafür mach ich mir nicht ins Hemd.


Zum neuen 19.7.2 Adrenalin:
Wer hat noch üble Stocker/Pausen/Ruckler in Games, oder kann ein Spiel, dass minimiert in der Taskleiste liegt, nicht mehr maximieren ?

... Ich rate zu einer manuellen Lüfterkurve mit mehr PWM, denn die Auto-Einstellung führt zu recht hohen Temperaturen.

MfG,
Raff

Auch beim Referenzkühler ist es sinnvoll die Lüfterkurve von Hand zu optimieren.
Meine Sapphire wird sonst kochendheiß, überall.
Kann nachvollziehen, warum der Ref-Kühler aus Alu ist und nicht aus Plastik. Metall führt die Hitze besser ab, und Plastik würde sicher mit der Zeit brüchig oder sich verformen. Nur macht das die Karte 1031 Gramm schwer.

Tarkin
2019-07-18, 14:35:55
und los gehts...

ASRock Takes The Lead In Announcing Radeon RX 5700 Challenger Series Graphics Cards
The First Custom Graphics Card Series Designed for Advanced Gaming Experiences with AMD 2nd Generation 7nm Gaming GPU (http://www.asrock.com/news/index.asp?iD=4290)

http://www.asrock.com/Graphics-Card/photo/RX%205700%20XT%20Challenger%208G%20OC(L1).png

http://www.asrock.com/Graphics-Card/photo/RX%205700%20XT%20Challenger%208G%20OC(L3).png

http://www.asrock.com/Graphics-Card/photo/RX%205700%20XT%20Challenger%208G%20OC(L6).png

Daredevil
2019-07-18, 14:40:05
Da muss schon mehr kommen als Dual Fan und Dual Slot, um sich von der Ref Möhre abzugrenzen. :(
Sieht auf jeden Fall billig aus. :D Positiv als auch Negativ gemeint.

Die MSI Karten sehen auch so aus, als wären das einfach Kühler der RX590 :<

Edit:
Oh, die haben aber was vor von Asrock.
- 2 x 8-pin

Badesalz
2019-07-18, 15:07:32
Seit wann wird auf Konsole undervoltet? :freak:Wie du kennst die kompletten Specs des PS5 Chips ;)

Ich muß aber auch sagen: Spielt man zu dolle an der GPU, sauberer Reset. Spielt man am Vram, meist blackscreen of death (bei dem man aber ggf. Sound weiter laufen hört).

Das System wird so oder so nicht einfach nur weggeschossen. Man kann es beim Blackscreen/Redscreen mit Tippen auf die Powertaste noch zwangsrunterfahren.
Kein Vergleich also zu früher. Jedenfalls bisher mit Bonaire und Polaris :rolleyes:

Mortalvision
2019-07-18, 16:20:54
Tja, das AsRock Kärtchen sieht wirklich minimalistisch aus...

SKYNET
2019-07-18, 16:38:16
soll wohl deren einstiegskarte sein, so wie einst armor bei msi.

T86
2019-07-18, 17:49:36
Mit 4x 8mm heatpipes und backplate?
Was will man denn mehr?

Der Chip ist eh zu klein für mehr Heatpipes.
Warm werden die Custom Karten also eh

Mich spricht sie an. Ein kürzeres pcb und etwas frei Luft am kühler wäre noch nett gewesen.

Was ich richtig gut finde ist das Kreuz hinter der gpu
Der Rev kühler hat das nicht umsonst.
Schade das so viele Custom Karten darauf verzichten

aufkrawall
2019-07-18, 17:51:05
Yey, es kommen noch Karten mit DVI. Dann kann ich das Monitor-Upgrade noch hinausschieben.

Grendizer
2019-07-18, 18:05:48
Gibt doch auch Kabel von DP/HDMI auf DVI.

https://www.amazon.de/DisplayPort-BENFEI-Vergoldet-1080P-Kabel-1-8M/dp/B01GPMRXL0/ref=sr_1_1_sspa?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=5KCVLBO4T1X0&keywords=dp+dvi+kabel&qid=1563465971&s=gateway&sprefix=dp+dvi%2Caps%2C148&sr=8-1-spons&psc=1

aufkrawall
2019-07-18, 18:10:44
Gehen nicht mit Monitoren ohne Scaler.

Grendizer
2019-07-18, 18:13:45
hmmm .... ok ... ich habe mir die Frage nie gestellt und bei mir haben sie funktioniert.

Screemer
2019-07-18, 19:54:21
@krawall: ich hätte noch irgendwo einen bizlink dp2dvi adapter da. ich benutze grad selber einen baugleichen mit meinem xstar/qnix. geht bis 94hz problemlos mit reduced blanking. falls du da interesse dran hast kannst du dich gern melden. hab ich mal für knapp 10€ bei ebay geschossen. der reguläre preis lag ca. 5-6x so hoch.

Wilhelm
2019-07-18, 20:08:07
Kauf dir eine Referenzkarte und pack einen Accelero Twin Turbo oder Xtreme drauf. Billigstmögliche Geilheit (Montageaufwand, Lüfter inklusive, Rückbau problemlos).

MfG,
Raff

https://proxy.duckduckgo.com/iu/?u=http%3A%2F%2Forig10.deviantart.net%2Fd352%2Ff%2F2015%2F180%2F4%2F6%2F4f361778 _960px_shut_up_and_take_my_money_1024x1280_by_amnoartist-d8z92vq.jpg&f=1

Ich glaub das werde ich auch tun. Könntest du bitte meine PM beantworten Raff?

hq-hq
2019-07-18, 20:26:33
Tja, das AsRock Kärtchen sieht wirklich minimalistisch aus...

Asrock kann ganz gute Mainboards bauen, bei den Grafikkarten haperts aber noch a weng. Hatte mal eine rx 570 von Asrock, der hier gezeigten nicht unähnlich... IMO verkauft sich die dann nur über den Preis

also erstmal nen Test abwarten

Grendizer
2019-07-18, 20:29:36
Asrock baut ja erst seit 1,5 Jahren Grafikkarten. Ich denke auch, das ich da Hersteller mit mehr expertise nehmen würde.

aufkrawall
2019-07-18, 20:42:51
@krawall: ich hätte noch irgendwo einen bizlink dp2dvi adapter da. ich benutze grad selber einen baugleichen mit meinem xstar/qnix. geht bis 94hz problemlos mit reduced blanking. falls du da interesse dran hast kannst du dich gern melden. hab ich mal für knapp 10€ bei ebay geschossen. der reguläre preis lag ca. 5-6x so hoch.
Hi,
thx für das Angebot, aber aktive Adapter meide ich lieber.

=Floi=
2019-07-19, 01:28:13
Kauf dir eine Referenzkarte und pack einen Accelero Twin Turbo oder Xtreme drauf. Billigstmögliche Geilheit (Montageaufwand, Lüfter inklusive, Rückbau problemlos).

MfG,
Raff

ich find das aber schon eine bastellösung. Der ram wurde angesprochen und gemessen wurden dessen tems auch nicht. (hotspot)
Bei einer custom habe ich auch eine entsprechende spannungsversorgung und gleich out of the box ein fertige lüfterkurve.

OgrEGT
2019-07-19, 06:08:11
ich find das aber schon eine bastellösung. Der ram wurde angesprochen und gemessen wurden dessen tems auch nicht. (hotspot)
Bei einer custom habe ich auch eine entsprechende spannungsversorgung und gleich out of the box ein fertige lüfterkurve.

Zudem kommen die Custom Karten in wenigen Wochen...das kann man auch noch abwarten... Geduld ist eine Tugend...

Edit
Ob der Accelero besser kühlt als Twin/Tri Frozr wäre auch eine Frage?

Messias
2019-07-19, 15:29:31
Ich bin ja ein großer AMD Freund.
Und auch, wenn ich sicher kein Fanboy bin oder war, habe ich mir schon gelegentlich mal deren Produkte der letzten Jahre schön geredet und mich über Nvidia Fanboys geärgert, die kein gutes Haar an AMD Grafikkarten lassen konnten.

Aber ganz ehrlich: Die 5700/XT ist aus meiner Sicht gar nicht so richtig begeisternd.
Irgendwie nichts Halbes und nichts Ganzes.
Weder High End noch günstig...

Da war für mich Polaris ein viel größerer Wurf. Ein echt billiger Chip, mit dem auch wirklich preiswerte Grafikkarten machbar waren.
Die konnten zwar nicht mit dem High End am Markt konkurrieren, aber sie waren mindestens für Full HD super spieletauglich und sind per Treiber über die Jahre noch um einiges performanter geworden.

Meine RX480 mit 8GB RAM hat damals gerade mal 139€ gekostet!
Das war unmittelbar nach dem Launch!
Und die Karte habe ich noch immer im Rechner, allerdings inzwischen mit 580er BIOS.

Polaris, das waren gute Performer mit einem Preis, den (fast) jeder sich leisten konnte (mal die Mining-Hochzeit ausgenommen).

Zwischendurch hatte ich mal eine Vega64 und ja, die war schneller, aber dafür, daß sie mal das dreieinhalbfache gekostet hatte, war sie einfach nicht überzeugend genug. Deshalb ging sie schnell wieder weg...

Und jetzt?

Jetzt hat AMD Jahre später eine Karte auf den Markt gebracht, die ein bißchen über Vega64 performt und in etwa soviel kostet, wie Vega, als sie damals erschien.
Immerhin: Sie verbraucht etwas weniger Strom.
Aber sonst?

Sorry, ich will nicht gegen AMD sticheln, aber irgendwie muß doch mal wieder bißchen mehr kommen, als nur graduelle Evolution zu - aus meiner Sicht - zu hohen Preisen.

Hakim
2019-07-19, 15:36:01
139€ für die 8gb Version war aber die Ausnahme, ich weiß noch das ich bei 239€ kurz selber davor war eins zu holen. Wo konnte man bitte normal kurz nach launch es für 139€ kaufen?

Linmoum
2019-07-19, 15:36:47
Wie viel mehr als Navi soll denn, gerade von AMD, zum aktuellen Zeitpunkt noch kommen? Das ist bereits jetzt ein riesiger Sprung im Vergleich zu GCN - und was wir hier sehen ist wohlgemerkt gerade mal die erste Iteration von RDNA.

iuno
2019-07-19, 15:37:46
Aber ganz ehrlich: Die 5700/XT ist aus meiner Sicht gar nicht so richtig begeisternd.
Irgendwie nichts Halbes und nichts Ganzes.
Weder High End noch günstig...
Begeistert bin ich zwar auch nicht, aber ich finde den Preis jetzt, nach der Anpassung, ok.

Natuerlich wuerde sich die 5700 in einem vollen Lineup besser machen. Es wuerde Radeon sicher mal helfen, wenn man mal wieder eine komplette Palette anbieten koennte, aber das ist offenbar momentan einfach nicht drin.

Meine RX480 mit 8GB RAM hat damals gerade mal 139€ gekostet!
Das war unmittelbar nach dem Launch!
Eine gebrauchte, umgeflashte 470 oder was soll das gewesen sein?

Jetzt hat AMD Jahre später eine Karte auf den Markt gebracht, die ein bißchen über Vega64 performt und in etwa soviel kostet, wie Vega, als sie damals erschien.
Immerhin: Sie verbraucht etwas weniger Strom.
Aber sonst?
Vega kam damals fuer 500€ und wird von der 5700 (350€) geschlagen. Welche Zahlen hast du im Kopf?

Messias
2019-07-19, 15:56:00
Ich hatte damals eine 480 XFX für 149€ und eine Powercolor für 139€ gekauft.
War Anfangs auch kein Problem, Karten zu dem Kurs zu bekommen.
Aber ja, ein paar Wochen später zogen die Preise brutalst an.
Meine XFX habe ich zur Mining Zeit dann für knappe 300€ verkauft. ;)

Ich will Navi auch nicht schlecht reden. Aber ich finde Navi eben nicht so den Brüller.
Ich schrieb ja auch, daß Navi Vega schlägt, aber eben nicht um Längen und der Straßenpreis bei der 5700XT liegt eben doch bei guten 400€.
Für 250€ für die 5700 und 300€ für die 5700XT sähe die Sache schon anders aus.
Aber so?

Ich will hier nicht rumrechten. Die 5700/XT ist kein schlechtes Produkt. Aber eben doch auch kein echter Sprung nach vorne, wie es AMD mit der Einführung der Zen Architektur gelungen ist.

Und wie immer gilt: Das ist erstmal nur meine bescheidene Meinung.

PS: Ich bin mir gerade nicht ganz sicher, ob ich nicht einen Hunderter beim Preis der 480er unterschlage. Meine Erinnerung. Sorry, wenn ich mich vertan haben sollte...

Grendizer
2019-07-19, 15:59:58
139€ für die 8gb Version war aber die Ausnahme, ich weiß noch das ich bei 239€ kurz selber davor war eins zu holen. Wo konnte man bitte normal kurz nach launch es für 139€ kaufen?


Habe da 209 für die 4 Gb Version und 239/249 für die 8 Gb Version im Kopf. Richtig geil war, das die ersten Lieferungen der 4 Gb Version dann auch 8 Gb hatten.

Hakim
2019-07-19, 16:13:12
Aber nur via 8gb fw flash oder? Zumindest hab ich das so in Erinnerung, und gab nur wenige 4gb Versionen nach dem launch.

Aber beim Hauptpunkt hat er schon recht, nach 3 Jahren könnte man eigentlich ~vega oder 1070-1080 Leistung für 250-300€ erwarten. Ist bei beiden teuer geworden.

Grendizer
2019-07-19, 16:16:33
Aber nur via 8gb fw flash oder? Zumindest hab ich das so in Erinnerung, und gab nur wenige 4gb Versionen nach dem launch.

Aber beim Hauptpunkt hat er schon recht, nach 3 Jahren könnte man eigentlich ~vega oder 1070-1080 Leistung für 250-300€ erwarten. Ist bei beiden teuer geworden.

Es gab gar keine 4 Gb Versionen, deshalb waren die ersten Lieferungen von Alternate und Mindfactory an Vorbesteller 8 Gb Karten.

Screemer
2019-07-19, 16:33:37
Meine RX480 mit 8GB RAM hat damals gerade mal 139€ gekostet!
Das war unmittelbar nach dem Launch!


In welchem Alternativuniversum soll das gewesen sein? Einer oder zwei Sprünge?

Aber nur via 8gb fw flash oder? Zumindest hab ich das so in Erinnerung, und gab nur wenige 4gb Versionen nach dem launch.

Aber beim Hauptpunkt hat er schon recht, nach 3 Jahren könnte man eigentlich ~vega oder 1070-1080 Leistung für 250-300€ erwarten. Ist bei beiden teuer geworden.
What? Die 5700 ist schneller als ne 1070, selbst eine 1080 wird oft geschlagen und kostet 350€. Klar wären 300€ schöner. Aber ich halte die Karte nicht für überpreist.

Screemer
2019-07-19, 16:41:26
Dp

basix
2019-07-19, 18:21:35
Die Karten ordnen sich im aktuellen Preisgefüge gut ein. Aber schon traurig, wie wenig sich bezüglich P/L seit Pascal (Mitte 2016!) getan hat.

2Ms
2019-07-19, 18:31:47
Wurde schon öfter erwähnt und seh ich auch so, nachdem ich erstmal mehr Probleme mit der 5700 habe als Spielspaß, dass ein Launchpreis von 300-320 Euros angemessener gewesen wären.

Klar bringt die ihre Leistung, aber gerade jetzt hatte ich wieder nen Crash in Prey.
Zu einem runden Produkt zum vollen oder leicht erhöhten Preis gehören auch ordentliche Treiber. Wird ja nicht so gewesen sein, dass die Software-Schreiber von der Hardware überrascht wurden wie wir immer von Weihnachten oder Schnee im Winter.

370 Euros sind nunmal eine Menge Holz, auch wenn man sich so ne Karte nicht mal eben selbst basteln könnte.


Muss noch ergänzen, dass ich von der 480 für 280 Euros wie von der 580 für 230 Euros doch sehr enttäuscht war von der Leistung. Die waren kaum schneller als meine uralte HD7950. Ich erwarte von einem neuen Launch, dass sich doppelte Performance zur alten Serie zeigt, besonders zu den kleineren Modellen wie der 7950.

Und ich habe die 480 direkt beim Launch gekauft, und da gab es nirgends Angebote für 139 Euros, sonst hätte ich die sicher auch genutzt.

HOT
2019-07-19, 19:00:56
Eine 570 kostet heute grad mal 140€, damals waren selbst 4GB-Varianten der RX480 250€+. Als die Customdesigns endlich erschienen waren die um die 300€ verfügbar. 120-150€ haben Polaris 11-Varianten gekostet!

Nosferatu1
2019-07-19, 19:26:21
Navi ist besser geworden als gedacht mit Uv sogar die Referenz brauchbar und sausparsam. 5700xt nur 180 watt bei Stockspeed. Asic 135Watt

Nosferatu1
2019-07-19, 19:27:21
Die Karten ordnen sich im aktuellen Preisgefüge gut ein. Aber schon traurig, wie wenig sich bezüglich P/L seit Pascal (Mitte 2016!) getan hat.
Pascal hat die Preise auch massiv erhöht.

Hakim
2019-07-19, 20:03:27
Ja aber man hat quasi gtx980 Leistung mit 2gb mehr vram für unter 300€ bekommen. Die aktuellen Karten finde ich einfach etwas zu teuer.

Screemer
2019-07-19, 20:20:53
Ich hab am 5.7.16 249€ für ein 480 ref. Design bezahlt. Fast exakt ein Jahr später für ne strix 199€.

Nosferatu1
2019-07-19, 20:23:24
Etwas ist gut die 2070 ist der grösste scam ever. 70iger chip als 80iger zu verkaufen ist einfach Betrug und DANN auch noch Preis anziehen wegen marketing gag features. Pacal war der Hammer, hatte einige Modelle von 1060 bis 1080ti aber seit turing werde ich nie wieder ne nvidia karte kaufen aus Prinzip. 1200 euro

2Ms
2019-07-19, 20:24:23
Navi ist besser geworden als gedacht mit Uv sogar die Referenz brauchbar und sausparsam. 5700xt nur 180 watt bei Stockspeed. Asic 135Watt
Die Reduzierung des Stromverbrauchs begrüße ich aber auch.
Navi ist schnell, keine Frage, aber verbraucht 40 Watt weniger als meine alte mit der GCN1-Architektur. Das ist aufjedenfall schon eine anerkennenswerte Ingineursleistung.
Somit relativiert sich auch der höhere Anschaffungspreis wieder.

Nosferatu1
2019-07-19, 20:24:24
Ich hab am 5.7.16 249€ für ein 480 ref. Design bezahlt. Fast exakt ein Jahr später für ne strix 199€.

50 in nem jahr weniger ist legitim. Early launch käufer zahlen immer drauf.

Dural
2019-07-19, 21:26:13
Etwas ist gut die 2070 ist der grösste scam ever. 70iger chip als 80iger zu verkaufen ist einfach Betrug und DANN auch noch Preis anziehen wegen marketing gag features. Pacal war der Hammer, hatte einige Modelle von 1060 bis 1080ti aber seit turing werde ich nie wieder ne nvidia karte kaufen aus Prinzip. 1200 euro

Du musst probleme haben... AMD ist was die preise anbelangt ja viel besser, wäre nv höher eingestiegen hätten wir jetzt die 449.- für die 5700xt nur so als info. Oder die vega 7 zum preis einer 2080... wann begreift ihr fanboys endlich das jede firma das nimmt wo die kunden bereit sind zu zahlen!?!

Die 2070 ist übrigens die beste turing karte überhaupt, neben der titan rtx.

Nosferatu1
2019-07-19, 21:56:44
Lol hab ja auch gesagt das navi relativ zu teuer ist aber bei weitem nicht turing Niveau. Oder bekommt man ne super2070 unter 400 NEU? Ich fanboy lol mich können beide firmen am arsch lecken ich kaufe das was beste P\L hat meine Seven hat 538 gekostet Mindstar und auf 2000mhz zieht die ne 2080 ab ausser ue4 usw aber dafür Dice games genau umgekehrt bf v ultra 4k 60-90. fps.

Daredevil
2019-07-19, 22:09:35
Ne 2070Super kostet ~20% mehr, ist ~11% schneller unter Stock ( im Gegensatz zur okayen Referenz der 5700xt ), hat dafür aber auch ein paar Features mehr On Board, z.B. RayTracing/DLSS/NVENC/SLI/Freesync+GSync/Shadowplay/Moonlight/VirtualLink.
Das sind Features, die man sehr gerne bezahlen kann, aber sie nicht bezahlen muss.

Navi hat die FPS und den Preis, da sind sie halt gut drin und das ist vermutlich auch der Fokus, den die meisten Spieler an erster Stelle für eine Grafikkarte stellen. Preis/Leistung halt.
Deswegen ist der Weg von AMD auch klug, eben da anzusetzen und sich selbst nicht mit Raytracing o.ä. zu übernehmen.
Nvidia verbaut unnötig wegen dem RTX Kram Einheiten und AMD stichelt genau dort rein. Das fördert zwar nicht unbedingt die allgemeine Entwicklung im Grafikkartenmarkt, ist aber für AMD eine Chance. Klappt doch auch ganz gut, was man so sieht von den Kärtchen.

2Ms
2019-07-19, 22:18:04
Navi ist besser geworden als gedacht mit Uv sogar die Referenz brauchbar und sausparsam. 5700xt nur 180 watt bei Stockspeed. Asic 135Watt
Hatte mit UnderVolting noch nie soviele Crashes, die dann leider das ganze System runterreißen wie mit dieser Karte.
Sicher kenn ich das auch, dass der Treiber gern abschmiert, dann aber eben nur der, und nicht gleich alles.
Wieoft ich heute ein Spiel neuanfangen musste, weil ja der PC wieder hochgefahren werden wollte, ich kanns nicht zählen. Sicher 4 Mal bei Prey, 2 Mal bei Overload, 1 Mal bei Rocket League. The Witcher 3 läuft stundenlang bei 0,963 Volt durch, sogar in Stereo3D.

Es nervt langsam.
Ich lasse erstmal die Finger vom UV und gebe nur mehr Speed auf die Lüfter.

Update: Die reproduzierbaren Crashes kommen nicht nicht vom UV, sondern entstehen durch einen Bug im Treiber, wenn man die Lüftersteuerung verändert. Beläßt man den Lüfter auf AUTO, dann darf man ohne Sorgen undervolten.

Nosferatu1
2019-07-19, 22:35:10
Dann hast du nicht richtig undervolted. Bei mir crashts 3-4 dann weis ich was geht fertig. Kann auch sein das der Treiber noch spinnt ! Navi ist stock doch schon ziemlich gut bis auf LS und Temps aber Referenz ist zu erwarten.Dlss kacke, rtx kacke das andere zeug kenne ich nicht. Navi hat ris soll ganz gut sein.anti lag keine Ahnung interessiert mich auch nicht. Vor allem gehts mir um Leistung um was sonst bei ner gpu. Das andere zeug ist höchstens nett aber kein kaufgrund schon gar nicht bei dem scheiss was nvidia abgelifert hat. Quake 2 meme des jahres.

Achim_Anders
2019-07-19, 23:16:52
Gibt es nen Grund warum du bei AMD Freesync, sharpening, oc im treiber, Relive, enhanced sync usw nicht als Feature listest? Oo ausser Dlss und raytracing gibt es doch Pendants.. Und selbst dlss hat Anwendungsvariabel mal besser mal schlechter, siehe igors Vergleich... Bleibt Raytracing...

Nosferatu1
2019-07-19, 23:45:03
Wie gesagt nett aber kein muss die user hier wissen denk ich mal Offensichtlicher weise was Amd alles bietet. Raytracing ? Nope weierentwickeltes Environment mapping. Eher fake-hybrid Raytracing vom echten Raytracing sind wir noch weit entfernt. Das viele anscheinend Nvidias Marketing reinfallen sagt mir das sie Business Mässig um einiges vor AMD stehen.

2Ms
2019-07-19, 23:45:44
Natürlich muss man die Range für das UV ausloten. Dachte, ich hätte das ausreichend gemacht.
Aber Spannungen, die vorher noch gingen wie 0,950 V gehen nun nicht mehr.
Der Treiber sagt selbst bei dem AutoUV, 0,986 wären unkritisch, aber die Karte crasht sogar mit 0,996.

Stock sind 1,036 V. Zu 0,996 ist der Abstand doch garnicht soooo groß, aber die kArte will halt nicht. Gut lass ich sie bis neue stabile Treiber da sind, die nicht das System killen oder einen Black-Screen hervorzaubern.
Aber ich habe auch nicht den Chip in Verdacht, sondern das Ram. Obwohl ich an dem noc hnicht rumgefummelt habe.

Update: Habe nun 2 Stunden Prey gezockt und es ist durchgelaufen, begann aber nach einiger Zeit zu stocken. GPU-Z zeigt nur Mist an. Und ein Reboot des PCs ist angebracht, weil die Temps auf 59° festhängen, auch auf im Desktop-Betrieb.

Nosferatu1
2019-07-19, 23:46:49
Dann wirds der unmature treiber sein. Early Adopter haben schon immer die Arschkarte gezogen gerade bei Amd.

Daredevil
2019-07-20, 00:17:19
RayTracing/DLSS/NVENC/SLI/Freesync+GSync/Shadowplay/Moonlight/VirtualLink.


Gibt es nen Grund warum du bei AMD Freesync, sharpening, oc im treiber, Relive, enhanced sync usw nicht als Feature listest? Oo ausser Dlss und raytracing gibt es doch Pendants.. Und selbst dlss hat Anwendungsvariabel mal besser mal schlechter, siehe igors Vergleich... Bleibt Raytracing...
Natürlich ist AMD nicht Feature los, ich habe auch nur die Dinge genannt, warum man zu einer Nivida greifen könnte.
Die oben genannten Dinge sind halt "exklusiv gut" funktionierend. Etwas, was man nicht unbedingt von Relive, AMDLink und Crossfire behaupten kann.

Shadowplay funktioniert besser, Moonlight funktioniert besser, SLI funktioniert besser. Was nicht bedeutet, dass es bei AMD gar nicht funktioniert, aber AMD Software braucht immer noch ein wenig schliff.
AMD holt immer mehr auf mit dem Treiber, aber das Overlay z.B. ist eine Design Katastrophe und zeigt z.T. Mondwerte an. AMD muss nur an der Qualität der Software schrauben, dann wird das schon.

Nosferatu1
2019-07-20, 00:20:29
Das OC und UV kann buggy sein ja(schielt auf Vega angangsphase)aber besser wie nix(schielt auf Nvidia mit steinzeittreiber)

aufkrawall
2019-07-20, 00:54:15
Hab mir gerade nochmal Doom unter Windows auf der RX 570 OC/UV angeschaut: Nur durch das Einblenden des Steam fps-Counters, gehen schon knapp über 10% Performance verloren :freak: (Screenshots mit Steam erstellt, deshalb ist der Counter darauf nicht sichtbar):
https://abload.de/thumb/379720_201907200044415ijt6.jpg (https://abload.de/image.php?img=379720_201907200044415ijt6.jpg) https://abload.de/thumb/379720_201907200045017zk5t.jpg (https://abload.de/image.php?img=379720_201907200045017zk5t.jpg)

-> Man muss offenbar immer noch dicke Fragezeichen an Benchmarks von Vulkan-Spielen machen.

Nosferatu1
2019-07-20, 00:55:23
10% für nen simplen fps counter wtf steam mach was 😂