PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17

x-force
2019-02-10, 21:02:56
Ich frage mich ob es wirklich am Design des Kühlers liegt, welches ja prinzipiell alles andere als billig ist oder ob es eher an der Software liegt. Am Logo wird es kaum liegen: Auch bei der RTX Referenzkarte bedeckt das Logo einen nicht unerheblichen Teil der Kühlrippen.

vielleicht ist das package einfacher zu kühlen und besitzt homogenere temperaturen über die fläche, weil da nicht noch extra hbm mit drunter sitzt und dadurch vielleicht die schicht über dem die dünner ist?

x-force
2019-02-10, 21:07:30
Dass das nicht sinnvoll ist, sehe ich auch so. Aber von den 30K höheren Temperaturen war wohl in der Realität nichts festzustellen und AMD macht es wie gesagt bei Ryzen auch so.

Und wie gesagt: 30K Temperaturdifferenz sind schon auffällig hoch. 110C bei vielleicht 50C warmen Kühlkörperntrotz direktem Kontakt? Das kann nicht real sein oder nicht gewollt sein.

raff redet von "kann 30° höher sein", das klingt für mich nicht nach der regel, igor redet von 15-20°

robbitop
2019-02-11, 00:03:04
Schau dir die Plots von GN und der Bauer an. Sind mind 30K.

Digidi
2019-02-11, 02:01:48
Um ehrlich zu sein geht es im Grafikkartenmarkt voran aber beim Kontent immer weiter abwärts. Keine Ahnung ob ich gerade in einer Sinneskriese mit dem Pc bin. Zurzeit würde ich die 1000 Euro die ich für eine GPU angespart habe lieber in ein zweites Timbleweedpark oder Company of Heroes stecken aber sowas ist nicht in Sicht...

Jeden Tag mehr Sinnlose Shooter und Loot RPGs..... Nichts mehr mit Anspruch auf Orginalität und Förderung des Intellekts.

x-force
2019-02-11, 02:48:18
Jeden Tag mehr Sinnlose Shooter und Loot RPGs..... Nichts mehr mit Anspruch auf Orginalität und Förderung des Intellekts.

die breite ist größer denn je. talos principle inkl addon schon durch?

Digidi
2019-02-11, 03:16:59
Talos Principal ist nicht so meins. Was mich wundert das unabhäng Ron Gilbert und auch Dedlic gesagt haben das sich Adventures wie Thimblweed Park oder Deponia nicht mehr lohnen da die Community dafür zu klein ist...

WTF.....

Menace
2019-02-11, 06:18:58
Nichts mehr mit Anspruch auf Orginalität und Förderung des Intellekts.

"Oxygen not included"? Braucht auch keine 1000 € GPU. :biggrin:

rentex
2019-02-11, 07:23:04
@Digidi: Habe leider den gleichen Eindruck. Letztes neuerer Game war Hellblade...und das ist schon gute zwei Jahre alt.
Metro Exodus würde mich aber sehr interessieren.

foenfrisur
2019-02-11, 07:30:07
Übrigens hat TechPowerUp durch eine kleine Modifikation die tJunction Temperatur um gute 10°C senken können:


Quelle: https://www.techpowerup.com/reviews/AMD/Radeon_VII/33.html

Zu lesen etwa ab der zweiten Hälfte der Seite.

verstehe nicht, wie das mit den unterlegscheiben mehr Anpressdruck erzeugen soll?

die junction-temp ist ein offset-wert, der am Limit eine feinere Regulierung ermöglicht. entweder man arbeitet mit 0,5 Werten oder man erhöht einfach den Wert um ein Offset.
amd versucht jedes Prozent rauszukitzeln.

hab immer noch keine Versandbestätigung.

mfg

Daredevil
2019-02-11, 07:57:23
https://abload.de/img/unbenannt5pkzo.png

;D

Die Preise gehen auf Ebay inzwischen auf über 850-900€ Angebotspreis.
Da bin ich ja mal gespannt, was die Händler mit der zweiten Charge machen, die ja irgendwo Ende Februar/Anfang März kommen soll...

Fragman
2019-02-11, 08:26:00
Es passiert das, was nach Gerüchten, es sind nur kleine Chargen, ab zu sehen war.
Kauf bei Interesse sofort als Gamer, denn die Karte wird über Nacht uninteressant dank stark steigender Preise. Sollten die Stückzahlen so bleiben, werden auch die Preise so bleiben.
Nach Vega und VegaII kann man AMD nur inständig drum bitten, bei Navi nicht wieder so einen Stunt ab zu ziehen.

Daredevil
2019-02-11, 08:36:02
Es war aber nun einmal überhaupt nicht abzusehen, dass AMD überhaupt eine Radeon VII bringt UND sie in 7nm als erster noch im Februar kommt.
Klar, ist so ein Launch frustrierend für manche, die nicht eine am ersten Tag bekommen haben und durch Knappheit die Preise steigen, aber für AMD Verhältnisse ist das schon ziemlich fix, eben weil es auch 7nm ist. Damit hätte niemand gerechnet vor der Keynote.

mironicus
2019-02-11, 09:36:47
https://www.youtube.com/watch?v=YC4mWzcnaYU

Taigatrommel
2019-02-11, 09:47:32
Es war aber nun einmal überhaupt nicht abzusehen, dass AMD überhaupt eine Radeon VII bringt UND sie in 7nm als erster noch im Februar kommt.
Klar, ist so ein Launch frustrierend für manche, die nicht eine am ersten Tag bekommen haben und durch Knappheit die Preise steigen, aber für AMD Verhältnisse ist das schon ziemlich fix, eben weil es auch 7nm ist. Damit hätte niemand gerechnet vor der Keynote.
Richtig, absehbar war es nicht und ich würde behaupten, alle waren sehr überrascht, ein Großteil der Fachpresse inklusive. Noch überraschender dann wohl die Ankündigung einer kurzfristigen Verfügbarkeit: Nichtmal einen Monat nach Vorstellung. Vergleicht man das mal mit RX Vega, ist das schon eine Leistung.

Dennoch halte ich Kritik am Launch für gerechtfertigt. AMD hat AFAIK eine Knappheit der Karten dementiert und behauptet, es werde keine Engpässe geben. Dies ist nicht der Fall. Ob AMD auf die hohen Preise, welche nun von Händlern verlangt werden, Einfluss nehmen kann, weiß ich nicht. Doch der Launch und eben das ist das Problem, sieht wortwörtlich nach Vega II aus:
- Schlechte Verfügbarkeit
- Bereits starke Preisunterschiede bei den wenigen Partnerhändlern
- Preise deutlich über der UVP von 729,-€
- Keine genauen Infos über neue Lieferungen

Gleichzeitig gibt es den direkten und selbst ernannten Konkurrenten, die RTX 2080, großflächig verfügbar und das für deutlich unter 700,-€ in Form von "normalen" Customs einiger Hersteller. Diese sind unterm Strich etwas schneller und dabei leiser. Zählt man das alles zusammen gibt es zumindest für typische Spieler nach der ersten Vega auch beim Refresh kaum einen Grund, zur Radeon zu greifen. Das Produkt ist auch jetzt vor allem etwas für Fans oder Leute, welche eben spezielle Anforderungsprofile haben - sprich die Leistungsdaten werden noch für Anwendungen abseits von Spielen benötigt.

Auch Reviewer haben, zu recht, den Launch kritisiert. Jayztwocents hat es am recht gut zusammengefasst: Er hätte sich wirklich gewünscht, die Radeon besser beurteilen zu können, doch das ist ja nur anhand dessen möglich, was AMD den Testern eben in die Hand drückt. Das war eine sehr laute Karte, welche unterm Strich langsamer als die Konkurrenz ist und dazu noch einen Haufen Treiberprobleme mit sich brachte, zudem waren die Antworten auf Anfragen seitens AMD wohl teils schwer nachvollziehbar bis teilweise widersprüchlich. Da stelle ich mir als Aussenstehender dann die Frage, ob AMD das Produkt wirklich unter extremen Zeitdruck auf den Markt gegeben hat oder ob man selbst gar nicht richtig geprüft hat, in welchem Zustand man es den Redaktionen denn übergibt.

331mm² vs. 754mm², das ist kühltechnisch ein riesen Unterschied.
Gut, daran habe ich nicht gedacht.

Tatwaffe
2019-02-11, 09:52:11
Der Kühler hat zu viele Lüfter und zu wenig Rippenfläche. 2 Lüfter und mehr Kühlfläche wäre in dem Volumen effizienter.


Ja die Lüfter sind crap, extrem kleine Finnen im Verhältnis zum Motor.


Die Asus 290x machte es jedenfalls vor 4 Jahren besser, die hatte tdp 290 watt.

https://www.bilder-upload.eu/thumb/d723df-1549874874.jpg (https://www.bilder-upload.eu/bild-d723df-1549874874.jpg.html)

Nach dem was man so hört (nachdem die R7 bei mir nur ein Bios Post anzeigt um sich dann im Blackscreen zu suhlen) dürfte die Asus Faktor 5 leiser sein.

Daredevil
2019-02-11, 09:53:49
Natürlich ist die Kritik gerechtfertigt. Die Presse/Reviewer kauft ja nicht die Karten, sondern eben die Endnutzer. Da ist es völlig egal, welche technischen Neuigkeiten die Karte hat, solange sie nicht auf dem Tisch liegen kann.

https://www.youtube.com/watch?v=YC4mWzcnaYU
Dann heißt es halt nicht mehr "Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2", sondern "Laut, viel zu langsam und zu teuer, aber mit 16 GB HBM2. :D

Mearest
2019-02-11, 12:32:38
https://www.youtube.com/watch?v=YC4mWzcnaYU

Macht der etwas falsch mit seinem Beispiel in Rise of The Tom Raider? Ich habe in RoTT mal die selben Einstellung gemacht wie er. Ich habe da aber nicht nur etwas mehr FPS sondern erheblich mehr (2080). Ich trau mich es gar nicht genau zu schreiben wollte ich erst. Stimmt da bei dem etwas nicht oder liegt das am Prozessor, GPU ist ja bei 99%?

dildo4u
2019-02-11, 12:39:11
PCGH hat auch solche Werte in 1440p,60-70fps für Radeon 7,65-80fps 2080.

dargo
2019-02-11, 12:41:59
https://www.youtube.com/watch?v=YC4mWzcnaYU
Kann es sein, dass die Software, speziell Wattman noch spinnt? Sein Messgerät zeigt da am Anfang im Menü praktisch die ganze Zeit ~370W für das Gesamtsystem an und der ASIC-Wert ändert sich teilweise um 100+W. :freak: Das ergibt einfach keinen Sinn. Gerade im Spielmenü ändert sich an der CPU-/ und GPU-Last praktisch nichts.


Dann heißt es halt nicht mehr "Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2", sondern "Laut, viel zu langsam und zu teuer, aber mit 16 GB HBM2. :D
Stimmt... bei -4% Performance wird aus zu langsam viel zu langsam. :facepalm:

Mearest
2019-02-11, 12:45:24
Er hat in seinem Benchmark lauf (das im hautpmenü) 95,66FPS. Da habe ich mit den selben setting 114,5. Da wo er im Spiel rum rennt hat er 55-63FPS. Ich habe da 83-(97 ok die peaken selten) in WQHD mit seinen Settings.

Aber vielleicht mache ich ja etwas falsch, ich bin da nicht so versiert wie ihr.

dildo4u
2019-02-11, 12:51:11
Er hat in seinem Benchmark lauf (das im hautpmenü) 95,66FPS. Da habe ich mit den selben setting 114,5. Da wo er im Spiel rum rennt hat er 55-63FPS. Ich habe da 83-(97 ok die peaken selten) in WQHD mit seinen Settings.

Aber vielleicht mache ich ja etwas falsch, ich bin da nicht so versiert wie ihr.
Das passt bei PCGH läuft die 2080 mit 1.8Ghz bei rund 80fps.Wenn deine höher Läuft ist sie halt ein paar FPS schneller.

Mearest
2019-02-11, 12:57:49
Achso ja stimmt ich habe die Asus Strix OC (1910-1950 läuft die so ungefähr) aber im Quiet Bios damit man sie nicht hört. Ich frag das und schreib das übrigens, da ich selbst Interesse an einer 16GB Karte hätte, wenn es sich lohnt. Deswegen frage ich da so genau nach.

dildo4u
2019-02-11, 13:00:12
Hier kommt einer mit Radeon 7 auf 105fps im Bench bei 1950 mhz.

https://www.reddit.com/r/Amd/comments/apd9gb/radeon_vii_ocuvstock_benchmarks_rottr/

Mearest
2019-02-11, 13:02:11
4k Probiere ich auch mal, mal sehn was bei rum kommt.

Mearest
2019-02-11, 13:11:55
Auf 4k mit allen auf Max.

Ich habs 3 mal laufen lassen, damit die Karte etwas aufheizt.

60,26FPS Takt in der ersten Scene 1950 ab der zweiten 1890-1920 Fan Speed 1100FPM 72 Grad.
Ich zocke auf WQHD. Für 4k finde ich beide Karten noch nicht gut genug, jedenfalls wenn man hohe Details will.

dildo4u
2019-02-11, 13:19:20
Jup der Bench läuft deutlich schneller als das Game wenn man sich in den Hub Welten bewegt,da fällt 4k aus.Ich hatte aber Probleme mit dem Game mit der 1070 weil das Game@Very High Texturen über 8GB Vram wollte,kein Plan ob es mit der 2080 besser läuft.

Der_Korken
2019-02-11, 13:38:20
Gibt es eigentlich offizielle Informationen darüber, ob die VII auch als Custom Design kommen wird? Ich finde der Kühler wertet die Karte als Produkt schon ziemlich ab und das obwohl der alles andere als günstig aussieht.

Daredevil
2019-02-11, 13:45:19
Hat Cracky nicht 4k laufen ?

@dargo
4% reichen halt aus, um nicht mehr in der Nähe der 2080 zu sein, sondern in der Nähe der 2070. ( Beides Stock )
Ist halt nicht so super geil.

Mearest
2019-02-11, 13:52:55
5:55 in dem Video. Die Einstellungen habe ich auch genommen. Da hat er WQHD.

dildo4u
2019-02-11, 13:55:35
Hat Cracky nicht 4k laufen ?


1440p Maxed:

https://youtu.be/YC4mWzcnaYU?t=314

Daredevil
2019-02-11, 14:06:11
Huch, dachte sein Vega Test war auch eher in 4k. WQHD ist doch lasch.

Mearest
2019-02-11, 14:28:22
Naja, was heißt lasch. Wenn es da schon bei ihm in WQHD an der 60FPS Grenze kratzt. Für mich sind beide Karten keine 4k Karten. Da muss man mir schon zuviel nach links schieben. Finde sie eher für WQHD und 144Hz Monitore gut (beide).

Dural
2019-02-11, 14:45:55
Schon komisch, bei RT hies es immer das alles unter 4K für so teure Karten nicht mehr gehen würde, jetzt ist AMDs "4K" Karte auf dem Markt und plötzlich ist 1440p OK :biggrin:

Aber ich weis, in 3 Jahren geht ohne 16GB nichts mehr :wink:

Linmoum
2019-02-11, 15:22:57
Schon komisch, bei RT hies es immer das alles unter 4K für so teure Karten nicht mehr gehen würde
Wo denn?

Freestaler
2019-02-11, 15:50:37
Schon komisch, bei RT hies es immer das alles unter 4K für so teure Karten nicht mehr gehen würde, jetzt ist AMDs "4K" Karte auf dem Markt und plötzlich ist 1440p OK :biggrin:

Aber ich weis, in 3 Jahren geht ohne 16GB nichts mehr :wink:

Bitte Dural, die Diskussion war RTX 1080p @60hz und das mit ner TI für mehr als 1000€. Nicht 1440p, auch nicht 4k und nicht 2080 nonti. Flame wo anders..

Hakim
2019-02-11, 16:00:37
Cyperport hat gerade einen für 799 auf Lager

basix
2019-02-11, 16:06:19
Huch, dachte sein Vega Test war auch eher in 4k. WQHD ist doch lasch.

Er sagt doch an einigen Stellen 4K? Zum Beispiel bei Tomb Raider. Jetzt wundert mich 1440p ein bisschen. Oder waren die 4K nur bei Crossfire?

dargo
2019-02-11, 16:28:20
@dargo
4% reichen halt aus, um nicht mehr in der Nähe der 2080 zu sein, sondern in der Nähe der 2070. ( Beides Stock )
Ist halt nicht so super geil.
So ein Quark... es gibt genug Games und Szenen wo die Vega VII vor der RTX 2080 liegt, auch mit 4% weniger Leistung. An der Leistungsklasse ändert sich dadurch überhaupt nichts.

Tatwaffe
2019-02-11, 17:07:47
So ein Quark... es gibt genug Games und Szenen wo die Vega VII vor der RTX 2080 liegt, auch mit 4% weniger Leistung. An der Leistungsklasse ändert sich dadurch überhaupt nichts.

Manchen bedeuten diese Leistendiagramme halt mehr als das Zocken an sich.

Wenn die dann noch so schön gemacht sind und 8% mehr Leistung 30% mehr Leistendiagramm sind, verfallen sie in Extase.

Das es am Ende mehr auf saubere Frametimes ankommt und das ne Karte nach 2 Jahren kein Alt-Eisen ist, naja jeder hat so seine eigenen Prioritäten, kann ich mit Leben, das die Karte aber wegen 8% weniger als der Klassenprimus "zu langsam" ist, comedy pur.

Und das AMD seine Karten gefälligst billiger als Nvidia verkaufen soll weil sie in Spiel xY auch langsamer ist, comedy pur.

Und das die 16gb gefälligst AMD bezahlen soll weil sie heute noch nix/(kaum)
was bringen, na comedy pur halt.

Welche Karte kann denn neben Gaming noch FP64 in 10 Facher Leistung zur 2080?
Welche Karte hat aktuell 16gb bezahlbar?
Welche Karte wird denn mit DirectML nochmal zusätzliche Funktionen bereitstellen?
Welche Karte ist ein Monster wenn es um Videoschnitt/Rendering in 4k oder 8k geht?
Welche Karte lässt sich dank 7nm ordentlich undervolten?
Welche Karte zahlt sich durch Mining innerhalb 1 Jahres um 50% ab?
Welche Karte bekommt vielleicht einen HDMi 2.1 Adapter für den Displayport?

Einzig die Kühlung ist ein echter Witz, der Rest passt sowas von.

Würde man einen Blindtest machen, keiner könnte die R7 von der 2080 unterscheiden ohne fps-counter.

dargo
2019-02-11, 17:29:49
@Tatwaffe

Du sprichst mir da echt aus der Seele. :) Anstatt die Games zu zocken wird nur noch gebenchmarkt und Grabenkriege wegen +/-10% geführt. Da packe ich mir echt jedes Mal an den Kopf. Manche brauchen das wohl um sich zu profilieren. Die Macht des Internets halt.

SKYNET
2019-02-11, 17:30:44
@Tatwaffe

Du sprichst mir da echt aus der Seele. :) Anstatt die Games zu zocken wird nur noch gebenchmarkt und Grabenkriege wegen +/-10% geführt. Da packe ich mir echt jedes Mal an den Kopf. Manche brauchen das wohl um sich zu profilieren. Die Macht des Internets halt.

darum sagte ich ja, das mir es puppe ist das die evtl. 10% langsamer als meine getaktete 1080Ti ist... dafür 16GB :ulove:

Ex3cut3r
2019-02-11, 17:31:44
Grafikkarten sind am einfachsten zu Wechseln in einem PC, dass jemand ein Graka für 3 Jahre + kauft, kann ich nicht verstehen, egal wie viel Speicher sie hat. Anders sieht es für mich bei CPU, Board, RAM aus, da soll man einfach das beste auf den Mainstream kaufen, und 7 Jahre+ ruhe haben.

Hakim
2019-02-11, 17:45:34
Grafikkarten sind am einfachsten zu Wechseln in einem PC, dass jemand ein Graka für 3 Jahre + kauft, kann ich nicht verstehen, egal wie viel Speicher sie hat. Anders sieht es für mich bei CPU, Board, RAM aus, da soll man einfach das beste auf den Mainstream kaufen, und 7 Jahre+ ruhe haben.

Ich hatte die 1060 z.B nur für 2 Jahre gekauft, aber derzeit ist es einfach Kacke mit was neuem, wenn man von damals mit RX480 oder 1060 kommt. Bei AMD gibt es quasi halt nur die alten Vegas (die mich nicht 100% überzeugen) und eine alte 1070 setzt sich nicht zu weit ab, die 2060 würde vom Perf her ideal passen, aber 6GB wie bei der 1060 stören zumindest mich persönlich sehr, auch wenn es höchstwahrscheinlich bei mir wohl für die nächsten 2 Jahre keine Probleme machen würde. Bleibt eigentlich nur die 2070 derzeit, leider. OT ich weiß sry

dildo4u
2019-02-11, 17:46:53
Radeon 7 soll Pro Treiber Support bekommen.

https://www.hardwareluxx.de/index.php/news/software/treiber/48592-radeon-vii-bekommt-radeon-pro-software-unterstuetzung.html

Game Auswahl spielt eine massiv Rolle bei der Karte.

CB:AMD Radeon VII: Benchmarks mit aktuellsten Spielen und (Async) Compute

https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/

oldgamer
2019-02-11, 18:21:46
Welche Karte kann denn neben Gaming noch FP64 in 10 Facher Leistung zur 2080?
Keine Gamerkarte weil völlig irrelevant

Welche Karte hat aktuell 16gb bezahlbar?
Keine, siehe Tests ob die 16GB einen Vorteil bringen.

Welche Karte wird denn mit DirectML nochmal zusätzliche Funktionen bereitstellen?
Also noch ist davon nichts da, wenn ich mir ansehe wie sehr DLSS & Raytracing als sinnlos angesehen werden weil sie bisher nur von wenigen Spielen unterstützt werden, was ist die Absichtserklärung von AMD wert (Primitive Shader noch in Erinnerung?)
Und generell unterstützt auch NV alle DirectML Funktionen.

Welche Karte ist ein Monster wenn es um Videoschnitt/Rendering in 4k oder 8k geht?
Bitte einen Link zur Monsterleistung, ich finde in keinem Produktivitätsbenchmark bei den Adobe-Produkten einen signifikanten Vorteil.
Und 8k-Videoschnitt, mach dich bitte nicht lächerlich, wer sich eine Red ab 15k€ leisten kannst stellt sich eine ordentliche Workstation hin.

Welche Karte lässt sich dank 7nm ordentlich undervolten?
Genial, es ist also ein Vorteil dass AMD die Standardspannungen soweit anheben muss um viele Chips innerhalb der Spec zu erhalten.

Welche Karte bekommt vielleicht einen HDMi 2.1 Adapter für den Displayport
Vielleicht ....

Die beste Entscheidung hat AMD heute kundgetan mit der Verfügbarkeit des Pro-Treibers für die Karte (natürlich wie immer ohne Datum)
Das würde AMD nicht machen wenn sie wüssten dass sie eine Radeon Pro in dem Segment positionieren könnten, mit der würden sie mehr verdienen.

AMD hat eine Gamer-Karte gebracht, war Lisa-Su ganz wichtig bei der Vorstellung der neuen Karte dass sie für Gamer ist. Inzwischen schwenkt AMD um, Pro-Treiber, vielleicht kommt noch ein Mining-Treiber (hatten wir ja auch schon)
AMD hat die Karte völlig falsch positioniert, einen solchen Krachmacher verzeiht man in der Workstation, aber eher nicht im Desktop-PC (außer in Asien)

Mortalvision
2019-02-11, 18:37:10
Also, ich habe nur zwei Kritikpunkte, diek mich vom Kauf abhalten: low pdrformance in fullhd, mieser Kühler. Kommt eine 3 slot custom Karte, würde ich gerne 800€ zahlen und meine Stromrechnung gimpen ;D

Monsta
2019-02-11, 19:41:05
, einen solchen Krachmacher verzeiht man in der Workstation, aber eher nicht im Desktop-PC (außer in Asien)

Wie kommst Du auf die Idee, meine Workstation ist flüsterleise, hab da alles unter Wasser.
Wie soll man sonst den ganzen Tag bei dem Lärm arbeiten?

Der Gaming Pc darf da eher was lauter sein, da hat man oft Kopfhörer an. Und das auch nicht 8h am Tag.

Bellspinder
2019-02-11, 19:53:20
AMD ist nach Umsatz 35% kleiner als nvidia und 1100% kleiner als Intel, dennoch können sie auf beiden Gebieten konkurrenzfähige Produkte anbieten. Ich finde das beachtenswert. Gibt es Neuigkeiten wie sie sich beim mining schlägt? Die Kurse gehen ja wieder ganz leicht hoch in den letzten Tagen. :rolleyes:

Blediator16
2019-02-11, 19:55:02
Grafikkarten sind am einfachsten zu Wechseln in einem PC, dass jemand ein Graka für 3 Jahre + kauft, kann ich nicht verstehen, egal wie viel Speicher sie hat. Anders sieht es für mich bei CPU, Board, RAM aus, da soll man einfach das beste auf den Mainstream kaufen, und 7 Jahre+ ruhe haben.

Hab meine 1060 6g vor 2 Wochen verkauft, um auf eine RX580 zu wechseln oder Navi später im Jahr. :biggrin:
Ich hatte Ende Mai 2017 keine andere Wahl, weil mining gerade wieder Krass war und die RX Karten über 350€ gekostet haben. Meine Strix OC kam mich gerade mal 230€. 200€ hab ich sie verkauft. Ich hatte mir nach der 660OC geschworen für die nächsten Jahre keine NV Karte zu kaufen, kam halt leider anders, wurde aber meine Karte endlich gut los.

Mortalvision
2019-02-11, 19:56:19
Die Radeon VII ist in Anwendungen ohne tensorcores wirklich gute Konkurrenz! Aber beim Gaming allein fehlt einfach wahre AMD Oberklasse, so eine Radeon 9700pro reloaded...

dargo
2019-02-11, 20:08:37
Die Radeon VII ist in Anwendungen ohne tensorcores wirklich gute Konkurrenz! Aber beim Gaming allein fehlt einfach wahre AMD Oberklasse, so eine Radeon 9700pro reloaded...
Du meinst => RTX 2080TI?

Das wäre prinzipiell überhaupt kein Problem (genug Kohle vorausgesetzt). Die 331mm² in 7nm sind schon fast winzig. Das war früher Mainstream bis Performanceklasse. Eine neue GPU mit ~420mm² und du hast die RTX 2080TI locker im Sack. Das Problem ist imho nach wie vor das GCN Design. Mehr als 64 CUs gehen nicht. Zumindest habe ich den Eindruck. Ergo hast du nur die Option über den Takt zu gehen. Und wie wir alle wissen sehr hoher Takt skaliert schlecht mit der Effizienz. Imho wird AMD bei dem Enthusiasten-Segment erst wieder mit Navi+ bei Next-Gen mitspielen, sprich neuem Design. Wobei dann immer noch offen ist ob AMD einen brauchbaren Gaming-Markt bei Grafikkarten @1.000€ oder mehr sieht.

Bellspinder
2019-02-11, 20:08:38
Aber beim Gaming allein fehlt einfach wahre AMD Oberklasse, so eine Radeon 9700pro reloaded...

oder die hier, meine erste große Liebe:

http://www.vgamuseum.info/media/k2/items/cache/26fdc8bcfe874d68b945cfc55e1c7548_XL.jpg

Grendizer
2019-02-11, 20:11:26
Ach so eine Radeon 9500 war eigentlich richtig nice :biggrin:

dildo4u
2019-02-11, 20:39:39
Du meinst => RTX 2080TI?

Das wäre prinzipiell überhaupt kein Problem (genug Kohle vorausgesetzt). Die 331mm² in 7nm sind schon fast winzig. Das war früher Mainstream bis Performanceklasse. Eine neue GPU mit ~420mm² und du hast die RTX 2080TI locker im Sack. Das Problem ist imho nach wie vor das GCN Design. Mehr als 64 CUs gehen nicht. Zumindest habe ich den Eindruck. Ergo hast du nur die Option über den Takt zu gehen. Und wie wir alle wissen sehr hoher Takt skaliert schlecht mit der Effizienz. Imho wird AMD bei dem Enthusiasten-Segment erst wieder mit Navi+ bei Next-Gen mitspielen, sprich neuem Design. Wobei dann immer noch offen ist ob AMD einen brauchbaren Gaming-Markt bei Grafikkarten @1.000€ oder mehr sieht.
7nm wird Anfang 2019 eher zu teuer sein um deutlich größere Chips zu produzieren,sieht man ja bei Zen 2.Dort werden bewusst nur die Kerne in 7nm gefertigt,selbst ein 16 Core ist halb so groß wie Radeon 7.

Screemer
2019-02-11, 20:45:33
:ugly:
AMD Radeon VII Has No UEFI Support (https://www.techpowerup.com/252476/amd-radeon-vii-has-no-uefi-support)

und das ist bisher keinem der reviewer aufgefallen?

Tatwaffe
2019-02-11, 21:01:21
Keine Gamerkarte weil völlig irrelevant

irrelevant für dich

Keine, siehe Tests ob die 16GB einen Vorteil bringen.

Sie glätten bereits jetzt die Frametimes nach Aussage einiger. Zeigt dir halt kein Leistendiagramm.


Also noch ist davon nichts da, wenn ich mir ansehe wie sehr DLSS & Raytracing als sinnlos angesehen werden weil sie bisher nur von wenigen Spielen unterstützt werden, was ist die Absichtserklärung von AMD wert (Primitive Shader noch in Erinnerung?)
Und generell unterstützt auch NV alle DirectML Funktionen.

Ob das dann so passt bei denen, wer weiß, dx12 und asynchrone Compute sollte ja auch per Treiber kommen, kam aber nix von NVIDIA, AMD Karten bekommen das über asynchrone Compute angeblich problemlos hin, bzw liegt da am meisten Leistung brach.
Primitive Shader scheinen nen grundlegenden Fehler zu haben, glaub nicht das da noch was kommt.

DLSS und Raytracing werden nicht als sinnlos angesehn, allerdings wirkt die Begrenzung auf 1080p anachronistisch 2018, 2019 erst recht, ebenso die knappe bezahlbare RAM-ausstattung mit 6gb/8GB,
die meisten sind aber wohl nur genervt von Jensens Gelaber mit "it simply works", und dann kommt aber nix ausser Verschiebungen.
Wer spielt den einen Titel nach 3-6 Monaten nochmal nur weils jetzt DLSS dafür gibt?


Bitte einen Link zur Monsterleistung, ich finde in keinem Produktivitätsbenchmark bei den Adobe-Produkten einen signifikanten Vorteil.
Und 8k-Videoschnitt, mach dich bitte nicht lächerlich, wer sich eine Red ab 15k€ leisten kannst stellt sich eine ordentliche Workstation hin.

In Adobe Premiere sind es 29 Prozent, in OpenCL-Anwendungen sogar bis zu 62 Prozent mehr Leistung, das 16gb statt 4gb da auch noch einiges bringen brauch ich doch nicht extra erklären.


Genial, es ist also ein Vorteil dass AMD die Standardspannungen soweit anheben muss um viele Chips innerhalb der Spec zu erhalten.

Ist so bei AMD, war immer so, und wird auch so bleiben, nach meiner Erfahrung. Leb damit und freu dich aufs basteln, oder kauf im anderen Lager.



AMD hat eine Gamer-Karte gebracht, war Lisa-Su ganz wichtig bei der Vorstellung der neuen Karte dass sie für Gamer ist.

Ihr war aber auch Content-Creation und STEM wichtig, genau das macht die Karte jetzt, plus Gaming.


Inzwischen schwenkt AMD um, Pro-Treiber, vielleicht kommt noch ein Mining-Treiber (hatten wir ja auch schon)
AMD hat die Karte völlig falsch positioniert, einen solchen Krachmacher verzeiht man in der Workstation, aber eher nicht im Desktop-PC (außer in Asien)

Ja Kühlung ist murks, sieht ein Laie sofort wenn er sie vor sich liegen hat und 300Watt TDP aufm Plan stehn, aber der Kühler ist schwer, die Lüfter tauschen dürfte schon eine Menge bringen, ansonsten haben halt viele die Karte im geschlossenen Gehäuse und wenn sie zocken nen Headset auf.
Ich wüsste aber auch nicht wann das Referenzdesign das letztemal eine brauchbare Kühlung hatte.

Dafür kann man die Karte mit nem billigen GPU-Wasserkühler sehr gut pimpen, HBM2 wird gleich mitgekühlt, minimal-Aufwand für Bastler.

edit:
UEFI BIOS über ASROCK, da Referenzdesign geht das bei allen.
UEFI BIOS https://www.techpowerup.com/vgabios/208233/asrock-radeonvii-16384-190119
Flasher: https://www.techpowerup.com/download/ati-atiflash/

dargo
2019-02-11, 21:08:21
7nm wird Anfang 2019 eher zu teuer sein um deutlich größere Chips zu produzieren,sieht man ja bei Zen 2.
Also 420mm² sind für mich nicht groß. Wenn AMD 331mm² mit 16GB HBM2 für 699$ verkaufen kann wüsste ich nicht warum dies bei 420mm² für 999$ nicht auch gehen sollte.

VooDoo7mx
2019-02-11, 21:13:13
Welche Karte kann denn neben Gaming noch FP64 in 10 Facher Leistung zur 2080?
Abgesehen davon, dass für den Heimanwender FP64 rein gar nichts bringt...
Ja welche Karte denn? Die Radeon VII sicher nicht, denn da 1:2 FP64 deaktiviert. Also ist das schon mal gar kein Argument.
Wenn du das willst, musst du Radeon Instinct MI150/160 kaufen, die kosten aber a bisl mehr als die Radeon VII. In den Preisbereich kannst du auch schon ne Titan V dann kaufen.
Also kein Punkt für Radeon VII

Welche Karte hat aktuell 16gb bezahlbar
Punkt für Radeon VII

Welche Karte wird denn mit DirectML nochmal zusätzliche Funktionen bereitstellen?
nVidia GPUs untersützen auch Direct ML, dass ist kein AMD Standard, sondern in DirectX verankert. Und gerade wenn dir ML, AI, neuronale Netze oder ähnliches wichtig sind, ist nVidia die bessere Wahl. Dedizierte Tensor Cores rechnen die dafür nötigen Operationen viel schneller als Standard Shader ALUs und würde im Spiele Betrieb diese nicht zusätzlich blockieren.
Punkt gegen Radeon VII

Welche Karte ist ein Monster wenn es um Videoschnitt/Rendering in 4k oder 8k geht?
Kannst du das irgendwie belegen? Ich finde dazu rein gar nichts. Meine Praxiserfahrung zeigt nämlich dass schnellere GPUs beim Rendering von Videos nur noch sehr geringe Vorteile bringen.
Kein Punkt für Radeon VII

Welche Karte lässt sich dank 7nm ordentlich undervolten?
Ich weiß nicht wo du die letzten 3 Jahre warst, aber Pascal Chips ließen sich auch allesamt mit 16nm sehr gut undervolten. Da war das wohl kein wichtiges Thema für dich, wenn es nVidia Karten betrifft?
Auch Turing Karten lassen sich sehr gut undervolten.
Meine RTX 2080Ti macht 1,6GHz bei 0,706V. Doom 3 UHD Ultra Preset ist der Sromverbrauch für das gesamte Board bei 180W max. Die meiste Zeit war es so um die ~160W.
Und selbst in diesen Zustand war die Karte unhörbar und immer noch deutlich schneller als eine bis an die Kotzgrenze übertaktete Radeon VII.
Kein Punkt für Radeon VII

Welche Karte zahlt sich durch Mining innerhalb 1 Jahres um 50% ab?
Reine Spekulation und Mining ist nicht relevant für Gamer.
Kein Punkt für Radeon VII

Welche Karte bekommt vielleicht einen HDMi 2.1 Adapter für den Displayport?
Da hast du echt lange überlegt dafür. Das vielleicht irgendwann mal ein Adapter kommt der ganuso auch auf einer nVidia Grafikkarte funktionieren könnte. Oder hat AMD einen Magic Display Port?
Kein Punkt für Radeon VII

Alles in allen bleiben nur noch der Speicher übrig.
Und ganz davon abgesehen ist es absolut enttäuschend was AMD trotz modernster und teurer Technik wie 7nm Fertigung und 4 Stacks HBM2 tatsächlich an Leistung rausholt.

:ugly:
AMD Radeon VII Has No UEFI Support (https://www.techpowerup.com/252476/amd-radeon-vii-has-no-uefi-support)

und das ist bisher keinem der reviewer aufgefallen?

Klassischer AMD mal wieder. :ulol:

x-force
2019-02-11, 21:23:04
Klassischer AMD mal wieder. :ulol:

omg wenn das wirklich so ist, wäre es für amd und reviewer peinlich.

iuno
2019-02-11, 21:23:46
Die VII hat nunmal 1:4 und die 2080 1:32. Der Faktor 10 ist schon richtig. Und nein, mit dem Preisbereich einer Instinct (die uebrigens keine Displayausgaenge hat, also fuer Workstation untauglich ist) oder einer Titan hat das nichts zu tun.
Fuer wen das in einer Workstation hin und wieder wichtig ist, mag das also schon ein Argument sein. Das sind aber die allerwenigsten.

omg wenn das wirklich so ist, wäre es für amd und reviewer peinlich.
Ernsthaft, zumal das Problem ja nicht neu ist.

Troyan
2019-02-11, 21:24:04
Vor Allem ist Turing die viel bessere Architektur für "Content Creators". Raytracing, AI und VR sind die Mittel für die Zukunft: Content erzeugen, Content automatisiert bearbeiten und dann in VR präsentieren.

Selbst heute ist die 2080 ohne RT Core Unterstützung schneller, wenn Raytracing in "Content Creation" Anwendungen verwendet werden. Computerbase hat gerade ja neue Benchmarks online gestellt: https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/#diagramm-baikal-benchmark-radeon-pro-renderer

Mit RT Cores wird man >2x mehr Leistung sehen...

iuno
2019-02-11, 21:32:14
Klar, mit Turing erstellt sich der Content quasi automatisch ;D

Klar ist RT super. Aber es wird halt noch nirgends unterstuetzt. Und die erste Gen ist zu lahm um wirklich guten Echtzeit-Kram damit zu machen.
Selbst heute ist die 2080 ohne RT Core Unterstützung schneller, wenn Raytracing in "Content Creation" Anwendungen verwendet werden. Computerbase hat gerade ja neue Benchmarks online gestellt: https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/#diagramm-baikal-benchmark-radeon-pro-renderer
Ja, um ein µ...
Wie man sieht, kommt es stark auf die Software an. Bei Luxmark ist AMD schneller. Bei Blender hat CB mal wieder verkackt. Bei THG ist der Unterschied minimal und das, obwohl sie fuer Nvidia eine neuere Version genommen haben, weil die aktuelle Relaseversion auf Turing nicht laeuft.

Tatwaffe
2019-02-11, 21:35:27
@VooDoo7mx
die Karte hätte auch sonst die gleiche FP64 Leistung wie die Instinct, dafür das andere Karten 1:16 sind ist 1:2 grad unschlagbar günstig, kauf 2 und du hast die Leistung der Titan V und mit dem Restgeld kaufste noch 2 und hast das doppelte.

Ob Nvidia DirectML wirklich fördern wird wo sie doch grad ein Monopol ausbauen mit Tensorcores & Cuda & DLSS usw.
Zweifelhaft das man da auf einen offenen standard zurückgreift.

Der Speicher bringt die Vorteile wenn du in 4k und 8K Content erstellst.

Ist doch schön wenn sich die NVIDIA Karten gut undervolten lassen, inwiefern ist das ein Nachteil wenns auch bei Radeon gut geht?

Wow deine 1400€ Karte ist schneller als eine 730€ Karte, ernsthaft? das soll ein Argument gegen die R7 sein?

Also darf ich 2 x R7 nehmen gegen deine einzelne 2080TI, damits preislich passt, und wie sieht die Leistung dann aus.

Und Mining ist nicht relevant für Gamer? Häh sprichst du grad für dich? oder für alle 2 Milliarden Gamer dieser Welt, oder nur für die Gamer in Deutschland?

Veilleicht ist ja eher 8% weniger Leistendiagramm nicht relevant für die meisten Gamer, spüren tut solche Werte nämlich keiner ingame, gute frametimes spürt man jedoch von der ersten Sekunde an.

edit: mit LiquidVR hat AMD doch auch eine VR-technologie an Board

Ex3cut3r
2019-02-11, 21:48:52
Das Argument mit den Frametimes checke ich nicht, nach den AMD Befürwortern, klingt es immer so, dass eine 2080 und Ti abscheuliche Frametimes haben, und AMD besonders da, 2 Level besser ist. :confused:

Tatwaffe
2019-02-11, 22:03:05
Ist nicht so gemeint das die RTX immer abscheulich sind bei fps times, sondern je näher sie an ihr V-Ram maximum kommen die fps unruhig werden, der knappe Speicher verschärft das halt nochmal bei zugeschalteten RTX Funktionen. Bei dem etliche sagen das die fps zwar gut sind aber die fps-times garnicht gehn in Battlefield und sie deswegen RTX ausschalten.

Hab bisher 2 Fps Diagramme gesehn wo die 2080 regelmäßig spiked im Vergleich zur R7, bzw. allgemein etwas unrughigere fps-times liefert.


Auch geil bei Computerbase:
In dem jetzt genutzten Parcours steigt der Vorsprung der Radeon VII zur Radeon RX Vega 64 von 25 auf 28 Prozent an, während der Rückstand zur GeForce RTX 2080 FE von neun Prozent auf vier Prozent reduziert ist.:rolleyes:

Wer möchte Wetten wieviele neue Treiber nötig sind damit in dem Parcour +4% für die R7 stehn, wird die 2080 dann zu "underwhelming slow" erklärt?

VooDoo7mx
2019-02-11, 22:55:30
die Karte hätte auch sonst die gleiche FP64 Leistung wie die Instinct, dafür das andere Karten 1:16 sind ist 1:2 grad unschlagbar günstig, kauf 2 und du hast die Leistung der Titan V und mit dem Restgeld kaufste noch 2 und hast das doppelte.
Ich brauch keine FP64 Berechnung. Wozu verwendest du sie?
Ob Nvidia DirectML wirklich fördern wird wo sie doch grad ein Monopol ausbauen mit Tensorcores & Cuda & DLSS usw.
Zweifelhaft das man da auf einen offenen standard zurückgreift.
Das ist doch alles nur belangloses rumgelaber. DirectML ist ein Standard innerhalb von DirectX von Microsoft, dass muss weder von AMD noch nVidia gefördert werden. Wenn eine Applikation das abfragt, läuft es auf beiden, fertig.
Und was weißt du denn schon inwiefern überhaupt Direct ML nur irgend eine Rolle spielen wird? Warum soll das für AMD wichtiger sein wenn es genauso auch auf nVidia läuft? Es kann genauso sein, dass DirectML die nächsten Jahre für Gamer überhaupt nichts bringt. Genauso könnten auch die Tensor Cores in den Turing GPUs über lange Zeit komplett ohne Nutzen brach liegen.
Wie es in den Bereich aussieht, wird die Zukunft zeigen. Fakt ist aber das nVidia genauso DirectML kann und eben noch zusätzlich die Tensor Cores dabei hat, was in diesen Bereich eben von Vorteil ist. Da gibt es auch nichts dran zu rütteln.
Der Speicher bringt die Vorteile wenn du in 4k und 8K Content erstellst
Beweise?
Ist doch schön wenn sich die NVIDIA Karten gut undervolten lassen, inwiefern ist das ein Nachteil wenns auch bei Radeon gut geht?
Hab ich nie behauptet. Du drehst deine eigenen Argumente um.
Du hast behauptet, dass gerade wegen 7nm sich die Radeon VII besonders gut undervolten lässt worauf ich einfach nur erwiedert habe, dass sich auch Pascal und Turing Karten ohne 7nm genauso gut, wenn nicht sogar besser undervolten lassen. Trotz 7nm Fertigung sind immer noch die nVidia Karten deutlich energieeffizienter.
Wow deine 1400€ Karte ist schneller als eine 730€ Karte, ernsthaft? das soll ein Argument gegen die R7 sein?
Was ist das für ein Kindergarten Niveau? Mal abgesehen davon, dass du den Preis der RTX 2080Ti künstlich aufblähst, habe ich nur ein undervolting Beispiel genannt, was mit meiner Grafikkarte möglich ist. Mehr nicht.
Und selbst wenn ich mich für die 700€ 2080 entschieden hätte, wäre die immer noch schneller. So what?
Also darf ich 2 x R7 nehmen gegen deine einzelne 2080TI, damits preislich passt, und wie sieht die Leistung dann aus. Und der Kindergarten geht weiter. Aber ja, mach das nur. :lol:
Vielleicht findest du dann auch raus, dass die Radeon VII gar kein Crossfire unterstützt. So kannst du dann die 2. Karte als Türstopper oder Briefbeschwerer nutzen. :uup:
Aber gut das du das ansprichst. Gerade nVidia hat mit Turing die neue NVLink Schnittstelle in den Privatkunden Markt gebracht, die eine enorme Steigerung der Bandbreite bietet und unter anderen Features wie VRam Stacking bietet. Dass müsste doch für einen mGPU Fan wie dich ein großer Kaufanreiz sein, oder?
Und Mining ist nicht relevant für Gamer? Häh sprichst du grad für dich? oder für alle 2 Milliarden Gamer dieser Welt, oder nur für die Gamer in Deutschland?
Ja Mining ist nicht relevant für Spieler. Die Leute die sich eine Grafikkarte für ihren Spiele PC kaufen, nutzen diese in der Regel nicht für mining.
Leute die damit ihr Geld machen, kaufe nicht 1 Grafikkarte, sondern 100+ und einbauen tun sie diese Karten auch nicht in einen Gaming PC.
Ist nicht so gemeint das die RTX immer abscheulich sind bei fps times, sondern je näher sie an ihr V-Ram maximum kommen die fps unruhig werden, der knappe Speicher verschärft das halt nochmal bei zugeschalteten RTX Funktionen. Bei dem etliche sagen das die fps zwar gut sind aber die fps-times garnicht gehn in Battlefield und sie deswegen RTX ausschalten.

Hab bisher 2 Fps Diagramme gesehn wo die 2080 regelmäßig spiked im Vergleich zur R7, bzw. allgemein etwas unrughigere fps-times liefert.

Wie immer nur rumgelaber. Das selbe könnte ich ohne Nachweise auch anders herum erzählen.
Auch geil bei Computerbase:
In dem jetzt genutzten Parcours steigt der Vorsprung der Radeon VII zur Radeon RX Vega 64 von 25 auf 28 Prozent an, während der Rückstand zur GeForce RTX 2080 FE von neun Prozent auf vier Prozent reduziert ist.:rolleyes:

Wer möchte Wetten wieviele neue Treiber nötig sind damit in dem Parcour +4% für die R7 stehn, wird die 2080 dann zu "underwhelming slow" erklärt?
Dieser Test bei Computerbase ist schlecht. Warum? Weil eine Uralt Version von Ashes of the Singularity gebencht wurde.
In der aktuellen Version vom Spiel ist meine Grafikkarte in DirectX12 sogar deutlich schneller als in DirectX11 und nicht langsamer wie in der Urversion die Computerbase zum Test nimmt.

https://abload.de/img/ashessvk3s.jpg

In UHD Crazy Preset ist meine RTX2080Ti in DirectX12 19% schneller als unter DirectX 11.

Das sollte man in so einen Benchmark auf jeden Fall einfließen lassen. Wenn man dazu auch noch andere Direct X12 Titel dazu nimmt wie z.B. Vermintide II kann sich das Bild schon wieder ganz anders verschieben.

Und ja, der Horn Treiber kommt bestimmt. :rolleyes:

Mearest
2019-02-11, 23:11:13
Crossfire kann sie. Der Typ in dem Video, wo ich ein paar Seiten vorher seine Benchs in RoTT nachgemacht habe, hat auf Twitch nen Video, wo er es mit RoTT macht und so in 4k 85+ FPS hat. Das ist aber ein 9h Video, wo ich vorhin kurz durch gezapt habe und es gesehen habe. Keine Lust das jetzt zu suchen.

Der neue Bench auf CBase ist leider nur in 4k. Ich sehe da nur, das beide Karten nicht wirklich 4k tauglich sind bei "Grafik Highlights" - Shadow of the Tomb Raider z.B.

Tatwaffe
2019-02-11, 23:24:24
@VooDoo7mx
Den Kindergarten ziehst du doch ab mit deiner 2080 ti, die hat bei erscheinen 1400€ gekostet +-50€, und verfügbar waren sie auch kaum.

Und das Crossfire nicht läuft?, wenn man keine Ahnung hat einfach mal S*****e halten, x-fire läuft gut wenns das Spiel unterstützt. (ca .+100%)

https://www.twitch.tv/videos/377921667?t=05h54m29s

Und ja, zusammen rasieren sie deine Karte dann sowas von, während sie Kreise drum ziehen.:P

Der Wundertreiber wurde doch schon angekündigt mit dem Radeon Pro Treiber, keine Ahnung was Horn damit zu tun hat?

die Karte ist nichtmal ne Woche draußen vielleicht sollten wir nochmal mit nem Treiber testen als die 2080ti ne Woche draußen war, ist doch nicht so schwer zu verstehen das sich da noch was tut, aktuell klappt nichtmal das overclocken manuell richtig.

und den Nvlink find ich auch putzig, kostet schlappe 90€ das Teil und bringt dann ernsthaft 2-3% Mehrleistung wie ohne den Link, na das ist doch mal gut angelegtes Geld.

Ich kenne aber auch keinen der sich ne 1xxx€ Karte nur fürs Spielen kauft.

und zu den restlichen Vorwürfen alles "rumgelauber!?", schau dir mal den cracky an, da kannst noch was lernen.

und zum mining, wenn die Leute merken das sich die Karte von selbst abzahlt werden das auch Gamer tun, das hat auch garnix mit Miner bauen 1000 Karten ein zu tun. Das ist einfach ein nettes Feature.
wer mit dem mining heckmeck so nix zu tun haben will kann das sogar direkt auf paypal-Zahlung machen mit https://www.quantumcloudai.com/

Linmoum
2019-02-11, 23:25:29
Der neue Bench auf CBase ist leider nur in 4k. Ich sehe da nur, das beide Karten nicht wirklich 4k tauglich sind bei "Grafik Highlights" - Shadow of the Tomb Raider z.B.
Unterhalb von UHD sieht's für die VII ja auch schlecht(er) aus. ;)

Ich finde >=40fps in Kombination mit einem VRR-Monitor in SP-Spielen in der Form gut genug, als dass ich in diesen Fällen die deutlich bessere Bildqualität hohen fps-Zahlen vorziehe. Sieht im MP natürlich anders aus, aber da muss man ja sowieso irgendwelche Details runterschrauben um nicht benachteiligt zu werden. ;D

Mearest
2019-02-11, 23:27:52
Unterhalb von UHD sieht's für die VII ja auch schlecht(er) aus. ;)

Ich finde >=40fps in Kombination mit einem VRR-Monitor in SP-Spielen in der Form gut genug, als dass ich in diesen Fällen die deutlich bessere Bildqualität hohen fps-Zahlen vorziehe. Sieht im MP natürlich anders aus, aber da muss man ja sowieso irgendwelche Details runterschrauben um nicht benachteiligt zu werden. ;D

Hmm ne, das kann ich nur mit XBOX Controller aufm Fernseher. Hab ich so bei Evil Within 2 gemacht.

Rancor
2019-02-12, 07:56:03
Hätte ich keinen G-Sync Monitor, wäre die R7 meine nächste Karte geworden. Mit UV ist das schon ein feines Kärtchen und die 16GB schmecken einfach. Das kann man nicht wegdiskutieren :)
So ist es nun der VRAM Krüppel 2080 geworden. :D

Es reicht wenn sie mich durch The Division 2 und Anthem 2019 trägt. 2020 wird dann geschaut was es so neues gibt.
Die 1070 hats leider einfach nicht mehr gebracht ( für mich ).

Ich finde aber auch das man jetzt nicht wieder die Diskussion um einen Wundertreiber anfangen sollte. Das gab es alles schon bei den ersten VEGA Karten. Man darf auch nicht vergessen das die R7 nur eine kleiner Iteration der Vega 10 Karten ist. Viel hat sich da nicht geändert, von daher wird es vllt noch 5% mehr geben, aber von irgendwelchen größeren Steigungen sollte man nicht ausgehen.

mkh79
2019-02-12, 07:59:04
@Rancor:
RT in BF 5 läuft unfassbar schlecht.
Ich finde es unspielbar mit den Hängern und Frametimes, mit 2080ti und auf RT low.
Ich kann nur auf den neuen Patch warten, der die RT Leistung verbessert, bis dahin ist RT für mich sinnlos.

Rancor
2019-02-12, 08:07:06
@Rancor:
RT in BF 5 läuft unfassbar schlecht.
Ich finde es unspielbar mit den Hängern und Frametimes, mit 2080ti und auf RT low.
Ich kann nur auf den neuen Patch warten, der die RT Leistung verbessert, bis dahin ist RT für mich sinnlos.

Also das was ich gesehen und gespielt habe, lief problemlos, bzw so wie DX 12 halt läuft. Hier und da mal nen Spike, aber nichts dramatisches.

CPU war eine R5 2600x und als GPU ne 2080. Ich wollte damit auch nur sagen, das entgegen der ersten Erfahrungen, RT in dieser Gen nicht komplett sinnlos ist. In SP spielen mit der Performance ist das machbar.
Es ist natürlich kein must have Feature und ich würde auch deswegen keine RTX kaufen oder eine Kaufempfehlung aussprechen. Mehr als ein nice to have ist es nicht. Aber immerhin ist es nutzbar.

RoughNeck
2019-02-12, 08:40:56
@Rancor:
RT in BF 5 läuft unfassbar schlecht.
Ich finde es unspielbar mit den Hängern und Frametimes, mit 2080ti und auf RT low.

Bei mir genau das Gegenteil.
1440p, maxed out, dxr auf medium und es läuft super mit der 2080 TI.

gbm31
2019-02-12, 09:48:07
Bei MF ist die Sapphire wieder lagernd für 749. Meine ist bereits reserviert.

Taigatrommel
2019-02-12, 10:00:27
Meine Radeon VII wurde gestern geliefert und ich habe sie nachts mal eingebaut, viel testen konnte ich jedoch noch nicht. Den Geräuschpegel habe ich mir ehrlichgesagt deutlich schlimmer vorgestellt. Sie ist natürlich alles andere als ein Leisetreter, doch IMHO eben auch kein Föhn, Turbine oder sonstiges. Der Vergleich mit der Vega 64 kommt grob hin, welche mich ebenfalls nicht so extrem störte, den DHE Lüfter habe ich aber etwas brummiger in Erinnerung. Ich werde mich später mal mit etwas dezentem UV beschäftigen wobei ich jetzt schon sagen muss:
Ich kann verstehen, dass AMD die Karte hier mehr oder minder bis zum höchstmöglichen getrieben hat, hier nochmal 4-5% weniger Leistung, nur damit die Karte weniger zieht und keine akustische Umweltbelastung darstellt ist für meine Begriffe kontraproduktiv. Da hat man dann eine Karte, welche effektiv deutlich teurer als eine 2080 ist und gegen diese endgültig kein Land mehr sieht. Für mich ist UV, wie schon bei der 64er, nur bis zu dem Punkt interessant, wo die eigentlich gesetzte Leistung gerade noch erreicht wird.

Hier wäre vielleicht wirklich noch ein Dual-BIOS eine Lösung gewesen, wo man zwischen Höchstleistung und "Silent"modus umschalten kann.

Ätznatron
2019-02-12, 10:20:28
Ab morgen werde ich wohl auch mit im Radeon VII Club sein.

Die erste AMD-Karte seit der HD 7970 von 2011.

Freue mich sehr darauf.

foenfrisur
2019-02-12, 11:02:58
ja, bei mir steht nun auch endlich:
"Lagernd und für Sie reserviert"

mfg

Timbaloo
2019-02-12, 11:31:03
Und die erste Gen ist zu lahm um wirklich guten Echtzeit-Kram damit zu machen.
Gähn... :rolleyes:

https://www.youtube.com/watch?v=ZnQRzLZ5nEE

SKYNET
2019-02-12, 11:46:47
hier in der schweiz kostet sie im fall umgerechnet 650€(XFX), 675€(gigabyte), 685€(asus), 718€(sapphire), 727€(asrock & powercolor).... werde wohl bei der XFX zuschlagen wenn der neue treiber das OC problem beseitigt ;D

Taigatrommel
2019-02-12, 12:01:11
Bezüglich der fehlenden UEFI Unterstützung will AMD laut HardOCP (https://www.hardocp.com/news/2019/02/11/amd_releases_bios_for_radeon_vii_uefi_gop/) ein Update direkt über die eigene Webseite anbieten:

AMD has released a BIOS for the Radeon VII with UEFI GOP included for our AIB partners. We will also make a one click installable BIOS available to end users via AMD.com. We do not expect gaming performance differences between the non UEFI BIOS and the UEFI GOP included BIOS, although the non UEFI BIOS may experience slower boot times from cold boot.

Tatwaffe
2019-02-12, 12:02:33
Hier hat jemand noch ne interessant Theorie allgemein zur Performance der AMD Karten und wie deren Treiber und Nvidias Treiber arbeitet, und was uns vielleicht in Zukunft öfter erwarten kann.

https://forums.battlefield.com/en-us/discussion/180036/does-radeon-vii-battlefield-vs-performance-demonstrate-future-multi-threaded-game-performance

Vor allem die Frostbite-engine scheint damit den AMD-Karten sehr zu liegen. Nächster Titel damit wird Anthem.

Allgemein lässt erwarten, je besser der multithread-Ansatz in Spielen umgesetzt ist, desto mehr profitierteren die AMD Karten.

gbm31
2019-02-12, 12:09:13
Bezüglich der fehlenden UEFI Unterstützung will AMD laut HardOCP (https://www.hardocp.com/news/2019/02/11/amd_releases_bios_for_radeon_vii_uefi_gop/) ein Update direkt über die eigene Webseite anbieten:


Das wär grandios in die Hose gegangen - ich hab CSM im BIOS deaktiviert...

Muss draran denken das wieder zu aktivieren bevor ich die Grafikkarte tausche.

mkh79
2019-02-12, 12:11:11
@Rancor
Ok, da bin ich bei dir.
Wie gesagt, ich hoffe wirklich noch auf Verbesserungen in BF5 und teste auch intensiv jedes Mal neu. Und da hast du Recht, es läuft jetzt besser als zu Anfang.

@RoughNeck
Das ist aber seltsam.
Ich teste jedesmal und beobachte genau, was sich tut und es gibt marginale Verbesserung. Also reagiert mein System auf Veränderung. Es läuft nur keinesfalls rund bei mir.
DX11 und Dx12 ohne RT läuft wirklich richtig glatt bei mir. Da also keine Probleme mit meiner Hardware.

JVC
2019-02-12, 12:20:34
Weis man schon mehr im Bezug auf HDMI 2.1 ?

AMD meinte ja das sie das über den DP mit Adapter zu realisieren versuchen...

Wenn die 7 HDMI 2.1 bieten würde, wäre das ein enormer Kaufanreiz für mich.
(inklusive funktionierendem VRR für Fernseher natürlich)

m.f.g. JVC

anddill
2019-02-12, 12:21:00
Hier hat jemand noch ne interessant Theorie allgemein zur Performance der AMD Karten und wie deren Treiber und Nvidias Treiber arbeitet, und was uns vielleicht in Zukunft öfter erwarten kann.

https://forums.battlefield.com/en-us/discussion/180036/does-radeon-vii-battlefield-vs-performance-demonstrate-future-multi-threaded-game-performance

Vor allem die Frostbite-engine scheint damit den AMD-Karten sehr zu liegen. Nächster Titel damit wird Anthem.

Allgemein lässt erwarten, je besser der multithread-Ansatz in Spielen umgesetzt ist, desto mehr profitierteren die AMD Karten.

Frostbyte läuft immer nur ordentlich wenn die Implementierung direkt von Dice kommt. Anthem wird wie eine dreibeinige Schildkröte auf AMD laufen. War bei Andromeda auch schon so, und ich sehe keinen Grund warum das bei Anthem besser werden soll.

dildo4u
2019-02-12, 12:24:27
Jup Anthem kommt ohne DX12,das Game soll zwar DLSS Support bekommen dafür ist aber Low Level nicht nötig.

Vega dreht auf wenn die CPU Last gering ist z.b in Höhlen.

https://youtu.be/Xrt8DJ9G-dk?t=496

aufkrawall
2019-02-12, 12:45:08
Jup Anthem kommt ohne DX12,das Game soll zwar DLSS Support bekommen dafür ist aber Low Level nicht nötig.

Vega dreht auf wenn die CPU Last gering ist z.b in Höhlen.

https://youtu.be/Xrt8DJ9G-dk?t=496
Ich seh die Vega 56 bei dem Kampf draußen mindestens ~10% schneller laufen als die 1070, dein Link passt überhaupt nicht zu deiner Aussage...

GerryB
2019-02-12, 12:57:55
Und das Crossfire nicht läuft?, wenn man keine Ahnung hat einfach mal S*****e halten, x-fire läuft gut wenns das Spiel unterstützt. (ca .+100%)
https://www.twitch.tv/videos/377921667?t=05h54m29s


Sehr erfrischend, das hier der Threadstarter auch etwas von Cf versteht.(99% der Reviewer ja net gerade; PCiE+ Gamesettings etc. voll daneben)
War noch nie so preiswert wie Heute im Mindstar:
2x 259,-€ + 6x Games (RX56cf)

Und Wer schlau war hatte letztens 2x Eiswolf für je 99,-€ geordert.

robbitop
2019-02-12, 13:12:02
@Vorteil bei Content Creation wg 16GB
Das ist im DF Video beschrieben. Gibt tatsächlich Vorteile.

y33H@
2019-02-12, 13:54:46
Das liegt aber primär am Plugin von DF, wenn man "nur" drei 4K-Streams nutzt, klappt das selbst mit 8GB.

dildo4u
2019-02-12, 14:03:23
Ich seh die Vega 56 bei dem Kampf draußen mindestens ~10% schneller laufen als die 1070, dein Link passt überhaupt nicht zu deiner Aussage...
Klar so bald sie in der Höhle sind ist die 1070 bei 60fps die Vega bei 80.
Das entspricht den Abstand bei BF5,sobald man bei Anthem ins offene geht brechen die FPS auf Vega ein.(Keine 80fps mehr sondern unter 70)

Bei BF5 liegt Vega 56 vor der 1080,das ist der SP also wenig CPU Last.

https://farm8.staticflickr.com/7809/46347728204_82f4356d01_b.jpg (https://flic.kr/p/2dBAdS9)BFV (https://flic.kr/p/2dBAdS9) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Zergra
2019-02-12, 14:45:49
Nur sind die min FPS nicht so dolle. Da ist die Vega2 wieder auf Höhe der 1080TI.

Am Ende ist die V2 einfach zu teuer für die Leistung, für 600€ hätte ich sie mir wohl gekauft, dazu noch ein FC Block und Ruhe.

Ätznatron
2019-02-12, 14:52:56
Hast ja Recht! Macht BF5 nahezu unspielbar.

Da ist die 2080 wirklich hochüberlegen. ;)

SKYNET
2019-02-12, 14:54:20
Nur sind die min FPS nicht so dolle. Da ist die Vega2 wieder auf Höhe der 1080TI.

Am Ende ist die V2 einfach zu teuer für die Leistung, für 600€ hätte ich sie mir wohl gekauft, dazu noch ein FC Block und Ruhe.


ahahaha, wegen 2 frames? :ulol:

irgendwie sucht man sich wohl wirklich gründe :freak:

Zergra
2019-02-12, 15:07:27
ahahaha, wegen 2 frames? :ulol:

irgendwie sucht man sich wohl wirklich gründe :freak:

Es geht mir nicht um die Zwei frames....

Die V2 verliert wesentlich mehr von avg zu min... Das finde ich komisch. Mehr nicht.

Der Bf5 Benchmark täuscht jedenfalls auf den ersten Blick, den dort ist die V2 eine Ecke schneller als die 2080 bei den min. FPS aber nicht.

SKYNET
2019-02-12, 15:18:22
Es geht mir nicht um die Zwei frames....

Die V2 verliert wesentlich mehr von avg zu min... Das finde ich komisch. Mehr nicht.

Der Bf5 Benchmark täuscht jedenfalls auf den ersten Blick, den dort ist die V2 eine Ecke schneller als die 2080 bei den min. FPS aber nicht.

und, sei doch froh das die min. frames gleiche sind aber die max frames dafür hoher...

manchen kann man auch garnichts recht machen... wenn kein bock auf min-max hast, setzt den limiter auf 90 und fertig.

BiG OnE
2019-02-12, 16:06:18
Hää, warum sollte man darüber froh sein? Wenn die Karte bei den max Fps schneller ist, sollte sie auch bei den min schneller sein.

Ex3cut3r
2019-02-12, 16:15:38
Die Diskrepanz ist halt nicht so prickelnd, bei so einen großen Frame Unterschied leidet imo die Smoothness, bei den Turing ist das Verhältnis zwichen Max. und Min. einfach besser.

gbm31
2019-02-12, 16:22:14
Hää, warum sollte man darüber froh sein? Wenn die Karte bei den max Fps schneller ist, sollte sie auch bei den min schneller sein.

Echt? Was bringen dir die max FPS?

Je näher min und max Werte beieinander liegen, desto konstanter ist die Leistung.

Sprich: wenn die min-Werte hoch genug sind, und die Frametimes nicht spiken, ist alles weitere egal.

dargo
2019-02-12, 16:27:24
Ich seh die Vega 56 bei dem Kampf draußen mindestens ~10% schneller laufen als die 1070, dein Link passt überhaupt nicht zu deiner Aussage...
Anhand der Beta kann man sich über Anthem sowieso noch kein Urteil bilden. Die Beta war hier bsw. völlig kaputt. Ich hatte einzelne Stellen wo die Frames unter 30fps gedroppt sind. Dass das noch völlig verbugt ist bzw. war sollte jedem klar sein. Erfreulicherweise waren aber die Frametimes sehr gut.

Tatwaffe
2019-02-12, 16:37:34
@Ex3cut3r
Wir reden hier bei der R7 über ca. 2,5ms Unterschied bei den FPS-Times max/min, und daß soll die smoothness zerstören?:freak:

dargo
2019-02-12, 16:37:46
Es geht mir nicht um die Zwei frames....

Die V2 verliert wesentlich mehr von avg zu min... Das finde ich komisch. Mehr nicht.

Der Bf5 Benchmark täuscht jedenfalls auf den ersten Blick, den dort ist die V2 eine Ecke schneller als die 2080 bei den min. FPS aber nicht.
Ich kann echt wieder nur mit dem Kopf schütteln.

https://abload.de/img/cb82k5i.jpg

Ist zwar kein BFV, aber immerhin die Frostbite und direkt von DICE. CB hat leider kein BFV getestet. Wo siehst du hier Nachteile bei 1% low im Vergleich zur Konkurrenz? Ihr versteift euch da bei einzelnen Testszenen und Systemen so sehr, dass es schon echt weh tut. Von Messfehlern (aus welchen Gründen auch immer) kann sich keine Redaktion freisprechen! Das kann immer wieder mal passieren. Und wenn es keine Messfehler sind verhält sich halt die Szene X etwas anders als die Szene Y. Ihr macht immer wieder den Fehler ein Messergebnis von wenigen Sekunden auf das gesamte Spiel zu übertragen.

Die Diskrepanz ist halt nicht so prickelnd, bei so einen großen Frame Unterschied leidet imo die Smoothness, bei den Turing ist das Verhältnis zwichen Max. und Min. einfach besser.
Was wieder eine glatte Lüge ist. :rolleyes:

hmmm
2019-02-12, 16:49:42
Es fehlen ingame Input-/lag/latenz Tests. Nvidia schaft es gerade in neueren Games eigentlich oft nur mit "render ahead" ihren "WunderTreiber" am leben zu halten. Die FPS alleine sagen heute doch fast überhaupt nichts mehr.

EDIT:
Kontext ist Frostbite, also eine moderne multithreaded Engine.

Mangel76
2019-02-12, 16:54:21
Die Diskrepanz ist halt nicht so prickelnd, bei so einen großen Frame Unterschied leidet imo die Smoothness, bei den Turing ist das Verhältnis zwichen Max. und Min. einfach besser.

Das kannst du so überhaupt nicht erkennen! Nehmen wir an, du bist kurz in einer Szene, wo viel los ist und die FPS sind ziemlich niedrig. Danach wechselt die Szene oder du schaust länger in den Himmel und die FPS steigen deultich an. Nun wird das 99%-Percentil komplett von den FPS in der ersten Szene bestimmt und der AVG fast nur von der zweiten Szene. Die FPS können in beiden Szenen völlig konstant sein, und doch bekommst du eine große Differenz zwischen beiden Werten.

Ex3cut3r
2019-02-12, 17:12:38
Meine Aussage bezog sich allein auf dem Bild/Benchmark von Dildo. Meine Güte.
Man kann nichts negatives sagen, ohne das ein Haufen AMD Fans sich gleich angetriggert fühlen, aber im Turing Thread wurde alles möglich lächerliche abgezogen, is klar. :rolleyes:

Es ist eine Solide Karte -10% 2080 Leistung ist doch klasse, mit ein paar kleinen Krankheiten und ein paar kleinen schwächen. Wurde ich heute immer noch eine 1070 haben, wurde ich wahrscheinlich die 7 nehmen.

Tatwaffe
2019-02-12, 17:34:59
Du hast klar ne Aussage getroffen das es die smoothness stört auf der R7 mit min/max 92/122fps ohne zu wissen wie der fps-verlauf ist, und das ist halt quatsch, und hat garnix mit Fanboys zu tun, weil es halt quatsch ist, zum einen sind das nur 2.5ms FPS-time-Unterschied min/max, zum andern heisst das nicht das die fps von 122 auf 92 droppen innerhalb 1 fps, was im Umkehrschluß auch bedeuten kann das die fps moderat von 122 auf 92 in mehreren Abstufungen fallen, was dann auch nur 1ms (oder weniger) Unterschied bei den FPS-Times bedeutet, und das garantiert nicht die smoothness stört.

Das Leistendiagramm gibt einfach keine gute Beurteilung her.

dargo
2019-02-12, 17:36:57
Hier... extra für Zerga und Ex3cut3r rausgesucht. :wink:

https://abload.de/img/bf5q4kwe.jpg

CKmExYwcHhY

Sind zwar nur High-Settings, aber immerhin BFV. Und bevor mir einer mit DX12 mimimi kommt... hier läuft DX12 mittlerweile rund.

Ps: jetzt könnt ihr euch weiter die Köppe einschlagen.

btw.
https://abload.de/img/verbrauchwcjbs.jpg

;)

Zergra
2019-02-12, 17:41:03
Ich kann echt wieder nur mit dem Kopf schütteln.

https://abload.de/img/cb82k5i.jpg

Ist zwar kein BFV, aber immerhin die Frostbite. CB hat leider kein BFV getestet. Wo siehst du hier Nachteile bei 1% low im Vergleich zur Konkurrenz? Ihr versteift euch da bei einzelnen Testszenen und Systemen so sehr, dass es schon echt weh tut. Von Messfehlern (aus welchen Gründen auch immer) kann sich keine Redaktion freisprechen! Das kann immer wieder mal passieren. Und wenn es keine Messfehler sind verhält sich halt die Szene X etwas anders als die Szene Y. Ihr macht immer wieder den Fehler ein Messergebnis von wenigen Sekunden auf das gesamte Spiel zu übetragen.


Was wieder eine glatte Lüge ist. :rolleyes:


BFV gibt es auch bei CB...
https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/#diagramm-performancerating-3840-2160


Und hier liegt die V2 bei min und Avg leicht hinter der 2080...

Ich hatte seit 7 Jahren quasi nur AMD Karten genutzt, das die Karte für den Preis und die Kühlleistung zu teuer ist, ist halt Fakt. Bin nur auf nivida umgestiegen, weil es dort gebraucht ein wesentlich besser P/L Verhältnis gibt.

Freestaler
2019-02-12, 17:48:42
Meine Aussage bezog sich auf dem Bild/Benchmark von Dildo. Meine Güte.
Man kann nichts negatives sagen, ohne das ein Haufen AMD Fans sich gleich angetriggert fühlen, aber im Turing Thread wurde alles möglich lächerliche abgezogen, is klar. :rolleyes:

Bitte, hör endlich auf. Du postet Aussagen die einfach nicht haltbar sind, da schlicht falsch. Mehrfach aufgezeigt, bewissen und erklärt. Und wenn man dich darauf hinweist ist man sofort Fanboy blah. Komm lass es endlich und komm klar mit der Welt.

dargo
2019-02-12, 17:57:40
BFV gibt es auch bei CB...
https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/#diagramm-performancerating-3840-2160


Und hier liegt die V2 bei min und Avg leicht hinter der 2080...

Ah... den Nachtest vergessen. Hier sieht man wieder wie unterschiedlich sich zig verschiedene Szenen verhalten.


Ich hatte seit 7 Jahren quasi nur AMD Karten genutzt, das die Karte für den Preis und die Kühlleistung zu teuer ist, ist halt Fakt. Bin nur auf nivida umgestiegen, weil es dort gebraucht ein wesentlich besser P/L Verhältnis gibt.
Du musst dich bei mir nicht rechtfertigen. Soll jeder kaufen was er für richtig hält. Mich nerven nur diese Scheinargumente wo 20-30 Sekunden Benchmarks rausgepickt werden und das dann auf das gesamte Spiel übertragen wird.

Freestaler
2019-02-12, 17:59:38
...und noch falsch intepretiert...

SKYNET
2019-02-12, 18:00:24
BFV gibt es auch bei CB...
https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/#diagramm-performancerating-3840-2160


Und hier liegt die V2 bei min und Avg leicht hinter der 2080...

Ich hatte seit 7 Jahren quasi nur AMD Karten genutzt, das die Karte für den Preis und die Kühlleistung zu teuer ist, ist halt Fakt. Bin nur auf nivida umgestiegen, weil es dort gebraucht ein wesentlich besser P/L Verhältnis gibt.

also 650€ wie hier in der schweiz ist alles andere als teuer... die 2080er customs(mit dem gammelchip) gehen ja auch erst bei 650€ los... und da nehme ich lieber die VII... ok, würde die eh in jedem fall nehmen :ulol:

crux2005
2019-02-12, 18:49:48
Hier hat jemand noch ne interessant Theorie allgemein zur Performance der AMD Karten und wie deren Treiber und Nvidias Treiber arbeitet, und was uns vielleicht in Zukunft öfter erwarten kann.

https://forums.battlefield.com/en-us/discussion/180036/does-radeon-vii-battlefield-vs-performance-demonstrate-future-multi-threaded-game-performance

Vor allem die Frostbite-engine scheint damit den AMD-Karten sehr zu liegen. Nächster Titel damit wird Anthem.

Allgemein lässt erwarten, je besser der multithread-Ansatz in Spielen umgesetzt ist, desto mehr profitierteren die AMD Karten.

Wo hat er den VRAM Verbrauch her?!
BFV hatte bei mir nie mehr als ~5 GB in WQHD.

Edit: nvm. Es ist RAM nicht VRAM. Bin blind.

Bellspinder
2019-02-12, 18:56:16
Wenn eine Grafikkarte mehr RAM zur Verfügung hat, dann schaufelt sie auch mehr in den Speicher, das heißt aber nicht, dass sie nicht mit weniger im Speicher nicht genauso schnell wäre. Eine Dampflock fährt auch nicht schneller, nur weil der Kohleanhänger vollgeladen ist, aber sie kommt theoretisch länger damit aus.

huey
2019-02-12, 19:10:50
https://abload.de/img/verbrauchwcjbs.jpg

;)

Dieses Bild lässt den Stromverbrauch ja auf grob die Hälfte von dem Zusammenschmelzen was bei den einzelnen Messungen der GPU's sonst so im Schnitt rauskommt.
Ich frage mich schon länger wie groß der Abstand zwischen Nvidia und AMD nun wirklich an der Steckdose ist... .
Es ist mir klar das Nvidia effizienter ist und am Ende auch bleiben wird, wenn der Treiber die CPU besser nutzt wird diese halt mehr verbrauchen und die Frage ist wieviel das nun ist? In den Balken ist ein Abstand von 70W oder dann z.B. 40W halt d
doch schon wieder ein Unterschied und auch die Bewertung der Temperaturentwicklung im Gehäuse würde einen Unterschied machen bzw. eben nicht mehr wirklich eine so große Rolle spielen. Es wäre schön wenn die Redaktionen mal wieder den Gesamtverbrauch angeben könnten und das am besten für den entsprechenden Benchmark insgesamt über die Zeit.
Vielleicht täuscht es ja, aber selbst eine 10-20Watt kleinere Differenz lassen einige Tabellen schon etwas anders aussehen.

dargo
2019-02-12, 19:17:20
Dieses Bild lässt den Stromverbrauch ja auf grob die Hälfte von dem Zusammenschmelzen was bei den einzelnen Messungen der GPU's sonst so im Schnitt rauskommt.

Da Wattage keine feste Größe ist wirst du da immer wieder Workloads finden wo der Unterschied zwischen den beiden mal größer, mal kleiner ausfällt. Diese Versteifungen auf maximale Verbräuche ist genau so ein Schwachsinn wie die damaligen Vergleiche zwischen LCD und Plasma. Ein Plasma ohne "Augen-wegbrenn-modus"... ähm, Dynamikmodus und viel dunklen Inhalten war auch sehr sparsam. Das ist durchaus mit Grafikkarten vergleichbar. Bei Teillast ist Vega auch effizient. Und ich gebe dir vollkommen recht. Eigentlich müsste man den gesamten Verbrauch vom System messen. Und dann halt den Schnitt über die Spielzeit ermitteln. Keine 20-30 Sekunden sondern schon eher 30 Minuten. Nur welcher Reviever hat dafür Zeit? Zumal das ganze auch möglichst 100% reproduzierbar sein sollte. Optimal wäre in solchen Fällen eine "Timedemo" aufzunehmen. Diese dann ablaufen zu lassen und den Stromverbrauch dabei messen. Nur läuft man bei solchen Aufnahmen wieder Gefahr die CPU-Last erheblich zu senken. Es müsste eine Lösung geben wo die CPU-Last praktisch simuliert wird.

horn 12
2019-02-12, 19:48:37
Gigabyte in Italien angekommen:

Jene waren in Deutschland denke ich gar nicht verfügbar.

https://www.hwupgrade.it/forum/showthread.php?t=2873719&page=94

Tatwaffe
2019-02-12, 19:52:55
ausser dem Gigabyte Aufkleber 100% identisch mit den anderen Karten.

dargo
2019-02-12, 19:59:28
Gigabyte in Italien angekommen:

Jene waren in Deutschland denke ich gar nicht verfügbar.

https://www.hwupgrade.it/forum/showthread.php?t=2873719&page=94
Ist zumindest gelistet. Aber nur hier...
https://www.computeruniverse.net/de/gigabyte-radeon-vii-hbm2-16g-160-gb-enthusiast-graphics-card?utm_channel=psm&utm_source=geizhals&utm_campaign=cpc&utm_medium=artikel&utm_content=90748231&agt=288&acode=xr5fy7ije3er4

Andi Y
2019-02-12, 20:02:10
Radeon 7 soll Pro Treiber Support bekommen.

https://www.hardwareluxx.de/index.php/news/software/treiber/48592-radeon-vii-bekommt-radeon-pro-software-unterstuetzung.html


Wohl nicht so ganz.
https://www.hardwareluxx.de/index.php/news/software/treiber/48592-radeon-vii-bekommt-radeon-pro-software-unterstuetzung.html
http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/News/AMD-Radeon-VII-One-Driver-bringt-nur-bedingt-Pro-Features-1275283/

huey
2019-02-12, 20:13:03
.... Eigentlich müsste man den gesamten Verbrauch vom System messen. Und dann halt den Schnitt über die Spielzeit ermitteln. Keine 20-30 Sekunden sondern schon eher 30 Minuten. Nur welcher Reviever hat dafür Zeit? Zumal das ganze auch möglichst 100% reproduzierbar sein sollte. Optimal wäre in solchen Fällen eine "Timedemo" aufzunehmen. Diese dann ablaufen zu lassen und den Stromverbrauch dabei messen. Nur läuft man bei solchen Aufnahmen wieder Gefahr die CPU-Last erheblich zu senken. Es müsste eine Lösung geben wo die CPU-Last praktisch simuliert wird.

Ich meine zumindest bei einem Reviewer mal gelesen zu haben das der Gesamtverbrauch natürlich auch immer mit aufgenommen wird und das sie ja in der Regel eh feste Sequenzen Benchen wäre es ja ein leichtes den Gesamtverbrauch für einen Durchgang (z.B. pro Spiel) mit anzugeben.
Naja der Gesamtverbrauch von 301Watt Vega 7 und 271Watt 2080 in diesem Beispiel deutet ja zumindest in die Richtung das die Abstände dann kleiner werden würden und fragen tue ich mich das schon seit dem der Abstand so groß geworden ist und gleichzeitig der bezüglich CPU Auslastung gute Nvidia Treiber hervorgehoben wird.

y33H@
2019-02-12, 20:55:05
Es fehlen ingame Input-/lag/latenz Tests. Nvidia schaft es gerade in neueren Games eigentlich oft nur mit "render ahead" ihren "WunderTreiber" am leben zu halten. Die FPS alleine sagen heute doch fast überhaupt nichts mehr.

EDIT:
Kontext ist Frostbite, also eine moderne multithreaded Engine.Ohne Future Rendering bzw mit nur 1 Frame voraus hast du weniger Fps und mehr Spikes in den Frametimes, was dir die niedrige Latenz wieder ruiniert ...

Birdman
2019-02-12, 20:55:25
btw.
https://abload.de/img/verbrauchwcjbs.jpg
;)
Die Verbrauchswerte wurden mit Unigine Heaven (verm. unter Windows) ermittelt und das liegt den Radeons halt generell nicht so. Dementsprechend wurde die VII vermutlich nicht voll ausgelastet was dann den relativ geringen Unterschied erklärt.

Ohne entsprechende FPS Werte dazu sind solche Verbrauchsangaben eh nicht viel wert.
An sich müsste der Verbrauch genauso wie die Performance über mehrere Spiele/Applikationen gemessen um eine vernünftige Aussage treffen zu können.

hq-hq
2019-02-12, 21:00:38
hm bei den Detailaufnahmen lugt das PCB über den Alukühler heraus und man sieht die greislig abgetrennten Nutzenstege, der Kühler hätte ein paar Millimeter größer ausfallen sollen :-/

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65661&stc=1&d=1550001729

x-force
2019-02-12, 21:02:37
Ohne Future Rendering bzw mit nur 1 Frame voraus hast du weniger Fps und mehr Spikes in den Frametimes, was dir die niedrige Latenz wieder ruiniert ...

die latenz ist mit einem vorgerenderten bild immer und grundsätzlich besser als mit 2 oder 3

aufkrawall
2019-02-12, 21:46:15
Es fehlen ingame Input-/lag/latenz Tests. Nvidia schaft es gerade in neueren Games eigentlich oft nur mit "render ahead" ihren "WunderTreiber" am leben zu halten. Die FPS alleine sagen heute doch fast überhaupt nichts mehr.

Renderahead Limit 1 via Treiber kostet bei Nvidia meistens fast gar nichts, du denkst dir einfach wieder Unfug aus.

Screemer
2019-02-12, 22:13:26
https://abload.de/img/verbrauchwcjbs.jpg

solche messungen kann man nicht oft genug fordern (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11923571#post11923571)!

aufkrawall
2019-02-12, 22:17:42
Kann man den Effizienz-Fetischisten jedenfalls gelegentlich mal unter die Nase reiben. Im Notebook ist das sicherlich fies, das dürfte ja AVX2-Last sein.

Ex3cut3r
2019-02-12, 22:30:43
Checke ich nicht? Meine Custom Gigabyte 2080 darf bei Power Target 100% max 245W nehmen, rechnen wir mal ein paar Watt oben drauf, und machen 250W, aber welche 2080 soll jetzt out of the box 270 fressen? Die Gigabyte Aourus vlt?

Ich fahre 94% PT sind 230W und erreiche damit + Mem OC auch nicht immer 2000mhz je nach Spiel. Ist mir aber Wumpe. Bleibt kühl und leise. :)

Achso ist das ganze System, trotzdem nicht sehr transparent.

Und ich bezweifle es auch stark. So eine Grafik aus Youtube kann ich auch in 2 Minuten in PS erstellen/Modifizieren.

hmmm
2019-02-12, 22:31:20
Renderahead Limit 1 via Treiber kostet bei Nvidia meistens fast gar nichts, du denkst dir einfach wieder Unfug aus.
Stimmt so nicht. Und speziell bei Frostbite ist es schlicht Stuss.

Ohne Future Rendering bzw mit nur 1 Frame voraus hast du weniger Fps und mehr Spikes in den Frametimes, was dir die niedrige Latenz wieder ruiniert ...
Nvidia braucht es mehr als AMD. Dice future frame rendering ist aber offensichtlich "mehr" als nur RenderAheadLimit, die Engine scheint wirklich um jeden CPUzyklus zu kämpfen, damit die Auswertung der "InputLoop" so spät wie möglich erfolgt.

y33H@
2019-02-12, 22:36:14
die latenz ist mit einem vorgerenderten bild immer und grundsätzlich besser als mit 2 oder 3Ja, aber die reine Latenz ist nur ein Faktor neben hohen Fps und sauberen Frametimes.

GerryB
2019-02-12, 22:36:43
Es fehlen ingame Input-/lag/latenz Tests. Nvidia schaft es gerade in neueren Games eigentlich oft nur mit "render ahead" ihren "WunderTreiber" am leben zu halten. Die FPS alleine sagen heute doch fast überhaupt nichts mehr.

EDIT:
Kontext ist Frostbite, also eine moderne multithreaded Engine.
Ohne Future Rendering bzw mit nur 1 Frame voraus hast du weniger Fps und mehr Spikes in den Frametimes, was dir die niedrige Latenz wieder ruiniert ...
Renderahead Limit 1 via Treiber kostet bei Nvidia meistens fast gar nichts, du denkst dir einfach wieder Unfug aus.
Stimmt so nicht. Und speziell bei Frostbite ist es schlicht Stuss.

Hmmm,
you nailed it!

NV ist im Händling am Desktop mit RAL und Triplebuffer etc. gerade mit Pascal in SWBF2@HDR ne Katastrophe.
Kommt bei AMD mit FS2(für future Games) noch der niedrige Inputlag dazu (bei Monis für kleines Geld).
Daher wäre ein Blindtest mal net schlecht.(ala HardOCP)

Ex3cut3r
2019-02-12, 22:46:20
Checke ich nicht? Meine Custom Gigabyte 2080 darf bei Power Target 100% max 245W nehmen, rechnen wir mal ein paar Watt oben drauf, und machen 250W, aber welche 2080 soll jetzt out of the box 270 fressen? Die Gigabyte Aourus vlt?

Ich fahre 94% PT sind 230W und erreiche damit + Mem OC auch nicht immer 2000mhz je nach Spiel. Ist mir aber Wumpe. Bleibt kühl und leise. :)

Achso ist das ganze System, trotzdem nicht sehr transparent.

Und ich bezweifle es auch stark. So eine Grafik aus Youtube kann ich auch in 2 Minuten in PS erstellen/Modifizieren.

Warum so einen unseriösen Youtube Video trauen? Wenn man selbst kompetente Redakteure wie Raff hat?

https://abload.de/img/unbenannt85j59.png

Das sieht mir doch schon wesentlich realistischer aus, anstatt so einem Diagramm für "ganze System" mit 270W und 301W zu trauen, verstehe Dargo hier überhaupt nicht.

aufkrawall
2019-02-12, 22:46:28
Stimmt so nicht. Und speziell bei Frostbite ist es schlicht Stuss.

Belege Fehlanzeige, als ob du das selber ausprobiert haben willst...

Linmoum
2019-02-12, 22:50:44
Warum so einen unseriösen Youtube Video trauen? Wenn man selbst kompetente Redakteure wie Raff hat?

https://abload.de/img/unbenannt85j59.png

Das sieht mir doch schon wesentlich realistischer aus, anstatt so einem Diagramm für "ganze System" mit 270W und 301W zu trauen, verstehe Dargo hier überhaupt nicht.
Raff und PCGH messen aber GPU only, daher bringt der Vergleich nichts. Es gibg ja gerade um das Gesamtsystem, denn nur weil GPU A 50W weniger verbraucht als GPU B, verbaucht der gesamte Rechner nicht zwingend diese 50W weniger. Auch, wenn die restlichen Komponenten identisch sind. ;)

GerryB
2019-02-12, 22:56:08
Raff und PCGH messen aber GPU only, daher bringt der Vergleich nichts. Es gibg ja gerade um das Gesamtsystem, denn nur weil GPU A 50W weniger verbraucht als GPU B, verbaucht der gesamte Rechner nicht zwingend diese 50W weniger. Auch, wenn die restlichen Komponenten identisch sind. ;)

1+
Wenn NV die CPU stärker belastet zählt nur das Komplettsystem.
und
24/7 braucht man gar net mehr über den Verbrauch streiten, weil die Radeon VII mit leichtem UV sehr genügsam ist.(dito RTX)
Das ist kein Parameter, der die Entscheidung Pro/Contra wesentlich beeinflusst für den Käufer.(der i.d.R. nen TR hat)

Wenn doch ein Reviewer Langeweile hat, dann kann Er gerne W2@4k60fps, aber bitte mit einem UV-Setting bei Beiden testen.
4k60fps mit Stock ist sinnlos.(macht kein User)
Außerdem ist W2 veraltet. StrangeBrigade ist die neue Vulkan-Referenz.

y33H@
2019-02-12, 23:01:30
Eine Radeon VII verballert über 100 Watt mehr als eine RTX 2080 FE, das gleicht die CPU selbst bei höherer Auslastung nicht aus.

dargo
2019-02-12, 23:03:05
Warum so einen unseriösen Youtube Video trauen? Wenn man selbst kompetente Redakteure wie Raff hat?

https://abload.de/img/unbenannt85j59.png

Das sieht mir doch schon wesentlich realistischer aus, anstatt so einem Diagramm für "ganze System" mit 270W und 301W zu trauen, verstehe Dargo hier überhaupt nicht.
Du hast mal wieder nichts verstanden, ich gebs auf.

Edit:
Ich will mal nicht so sein. Schon mal was von Teillast gehört? Selbst der Test von Raff zeigt das hervorragend. Aber sowas übersiehst du mal wieder weil die 303W der Vega VII in einem Anno viel dramatischer aussehen. Schau dir die Messung von Raff in Crysis 3 in 1080p an. Vega VII und RTX 2080 haben dort die gleiche Effizienz (wenn ich trollen wollte würde ich sagen Vega VII ist effizienter). Hätte Raff das gesamte System gemessen würde es mich nicht wundern wenn das System mit der Geforce paar Wattchen mehr verbraucht als das gleiche System mit der Radeon. Stichworte DX11 Applikation und Nvidia Treiber.

btw.
Schau dir auch mal die Messung der Vega VII vs. Vega 64 LCE in 1080p @Crysis 3 an. Ist nämlich auch nicht ganz uninteressant. Gleiches gilt für RTX 2080 vs. GTX 1080TI bei Teillast. Wolf 2@60fps zum Beispiel vs. Crysis 3. Und dann schau dir noch den Verbrauch in Idle bei Vega VII und RTX 2080 an wenn zwei Bildschirme mit unterschiedlichen Auflösungen an den Grakas hängen. Da scheint Turing noch Probleme zu haben (Treiberproblem?). Denn Pascal ist sparsam mit der Konfiguration.

Linmoum
2019-02-12, 23:08:09
Eine Radeon VII verballert über 100 Watt mehr als eine RTX 2080 FE, das gleicht die CPU selbst bei höherer Auslastung nicht aus.
Wie kommst du auf über 100W? :confused:

Die VII zieht rund 300, die 2080 FE rund 225W.

bnoob
2019-02-12, 23:11:43
Karte eingebaut, Karte gibt mir Rätsel auf (und ist laut, holy shit)

Sie ist über 3DMark Firestrike, AC Origins, AC Oddysey durchweg nur ca. 10% schneller als meine Vega 64 Air @ 150% PT (hatte sie in Wakü betrieben)

Da fehlen so 10-20 Prozentpunkte, wo könnten die sein?

Treiber ist der 19.2.1 for Radeon VII

Und gibt es schon eine kompatible GPU-Z Version?

Der_Korken
2019-02-12, 23:16:48
Sie ist über 3DMark Firestrike, AC Origins, AC Oddysey durchweg nur ca. 10% schneller als meine Vega 64 Air @ 150% PT (hatte sie in Wakü betrieben)

Da fehlen so 10-20 Prozentpunkte, wo könnten die sein?

Die 10-20% stecken im OC deiner V64.

GerryB
2019-02-12, 23:18:08
Yep,
AsbachUralt "Anno" mit MSAA-Bug ist für AMD-Verbrauch nichtssagend.

bnoop
Schau Dir die 25 BenchListe an. Welche Games gehen und welche eh durch DCL oder defered limitiert sind.
Dann dreh die die Seven auch auf 120% (momentan nur mit Lüfter 80-90% möglich ohne h2o).
Wenn Du nur ACO spielst, wäre natürlich NV vernünftiger gewesen.

bnoob
2019-02-12, 23:20:08
Ahhhhhhhhhh Watercool gib Heatkiller :freak:

bnoob
2019-02-12, 23:21:46
Dann dreh die die Seven auch auf 120% (momentan nur mit Lüfter 80-90% möglich ohne h2o).
Wenn Du nur ACO spielst, wäre natürlich NV vernünftiger gewesen.
Danke für den Tipp mit dem Lüfter :)

Naja, wenn ich vernünftig wäre, hätte ich von Anfang an keine VII gekauft sondern eine gebrauchte 1080ti

Slipknot79
2019-02-12, 23:40:03
Also Effizienz ist nicht mein "Fachgebiet", weil Shice drauf wasn Lambo an Sprit sauft, die Shice gehört getreten. :cool:

Aber warum wird hier die Effizienz von GPUs in unterschiedlicher nm-Fertigung verglichen? Oo :redface:

dargo
2019-02-12, 23:45:22
Aber warum wird hier die Effizienz von GPUs in unterschiedlicher nm-Fertigung verglichen? Oo :redface:
Warum nicht? Was kann AMD dafür, dass Nvidia aktuell keine 7nm GPUs bringt? Vega VII ist direkte Konkurrenz zur RTX 2080. So ist die Lage nun mal aktuell. Kommen neue Karte wird wieder neu verglichen.

Yep,
AsbachUralt "Anno" mit MSAA-Bug ist für AMD-Verbrauch nichtssagend.

Ich verstehe auch nicht so ganz warum Raff dafür so alte Schinken nimmt. Mich würde viel mehr bsw. eine Verbrauchsmessung in 4k in einem Forza Horizon 4 mit einer modernen API interessieren. Von mir aus gerne irgendwas anderes aus dem Jahr 2018.

Ex3cut3r
2019-02-13, 00:01:46
Du hast mal wieder nichts verstanden, ich gebs auf.

Edit:
Ich will mal nicht so sein. Schon mal was von Teillast gehört? Selbst der Test von Raff zeigt das hervorragend. Aber sowas übersiehst du mal wieder weil die 303W der Vega VII in einem Anno viel dramatischer aussehen. Schau dir die Messung von Raff in Crysis 3 in 1080p an. Vega VII und RTX 2080 haben dort die gleiche Effizienz (wenn ich trollen wollte würde ich sagen Vega VII ist effizienter). Hätte Raff das gesamte System gemessen würde es mich nicht wundern wenn das System mit der Geforce paar Wattchen mehr verbraucht als das gleiche System mit der Radeon. Stichworte DX11 Applikation und Nvidia Treiber.

btw.
Schau dir auch mal die Messung der Vega VII vs. Vega 64 LCE in 1080p @Crysis 3 an. Ist nämlich auch nicht ganz uninteressant. Gleiches gilt für RTX 2080 vs. GTX 1080TI bei Teillast. Wolf 2@60fps zum Beispiel vs. Crysis 3. Und dann schau dir noch den Verbrauch in Idle bei Vega VII und RTX 2080 an wenn zwei Bildschirme mit unterschiedlichen Auflösungen an den Grakas hängen. Da scheint Turing noch Probleme zu haben (Treiberproblem?). Denn Pascal ist sparsam mit der Konfiguration.

Was ist das für Logik?

Crysis 3 dein ernst?

Vermutlich steckt Raff in 1080p? mittlerweile hoffungslos im CPU Limit dem Kack DX11 von AMD, und die Vega 7 wird einfach dort nicht ausgelastet. Rede dir doch nix ein, eine Vega 7 wird niemals an die Effizienz von einer 2080 rankommen, auch wenn da ein paar Youtube Videos was anderes behaupten. Das kannst du drehen wie du willst. Am ende des Tages frisst nun mal eine Vega im Schnitt 70W mehr, ist ja jetzt auch nicht sooo super schlimm.

dargo
2019-02-13, 00:03:40
Wie ich mir dachte, mit Differenzieren hast du es nicht so. Egal... Vega VII ist ein Säufer und ich habe meine Ruhe.

Simon
2019-02-13, 01:21:52
Gerade kam die Versandbestaetigung von AMD. Sollte am Freitag ankommen =)

aufkrawall
2019-02-13, 01:32:31
Vermutlich steckt Raff in 1080p? mittlerweile hoffungslos im CPU Limit dem Kack DX11 von AMD, und die Vega 7 wird einfach dort nicht ausgelastet.
In zig Spielen gibt es kaum einen Unterschied bei der DX11-CPU-Performance zwischen AMD & Nvidia. Ziemlich trübe Vorurteils-Brühe, die du hier (oder bei CB) rausblubberst...

Stretcher
2019-02-13, 04:06:52
Schau dir die Messung von Raff in Crysis 3 in 1080p an. Vega VII und RTX 2080 haben dort die gleiche Effizienz (wenn ich trollen wollte würde ich sagen Vega VII ist effizienter

Ohne FPS Werte kann man die Effizienz gar nicht beurteilen.
Zudem ist Crysis 3 unter Directx11 auf einer AMD GPU im massiven CPU Bottleneck das erklärt den geringen Strombedarf der AMD GPU.

Nimm was gescheites. VII hat niemals die gleiche Effizienz wie eine 2080.

Wie ich mir dachte, mit Differenzieren hast du es nicht so. Egal... Vega VII ist ein Säufer und ich habe meine Ruhe.

Dein Problem ist deine extrem dicke AMD Brille, da kannst du fast gar nicht mehr durchgucken.
Die VII ist kein Säufer, zieht aber eben 50 Watt mehr bei weniger Bums.

dargo
2019-02-13, 04:10:48
Ohne FPS Werte kann man die Effizienz gar nicht beurteilen.

Stimmt... und ohne der Messung vom restlichen System auch nicht. Also ist die ganze Messung für die Katz und hat Null Grundlage für jegliche Diskussion.


Die VII ist kein Säufer, zieht aber eben 50 Watt mehr bei weniger Bums.
Ach... jetzt sind es also 50W mehr. Na immerhin, wir entfernen uns langsam von 100(+)W. ;D

btw.
Du wirst uns auch sicherlich erklären können warum eine V64 LCE im vollen CPU-Limit (Aussage von Ex3cut3r) mal eben 131W mehr als die Vega VII nuckelt?

Digidi
2019-02-13, 05:07:25
gerade mal geschaut wegen Vega vll Whitepaper. Noch nichts da, bin dann aber über das hier gestolpert:
https://developer.amd.com/wp-content/resources/Vega_Shader_ISA_28July2017.pdf

Auf Seite 118 (126 im PDF) wird beschrieben was Primitive Shaders machen...

y33H@
2019-02-13, 07:55:34
Wie kommst du auf über 100W? :confused: Die VII zieht rund 300, die 2080 FE rund 225W.Nope, 300W und 185W.

dildo4u
2019-02-13, 08:04:14
THG hat sie bei 225 bei welchem Game ist wie bei 185?

https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-founders-edition,5809-10.html

Die Radeon ist bei 300W.

https://www.tomshardware.com/reviews/amd-radeon-vii-vega-20-7nm,5977-5.html

y33H@
2019-02-13, 08:07:09
Ah, verdammt, da sind mir die 2070-Werte reingerutscht, mein Fehler!

maximus_hertus
2019-02-13, 08:07:10
CB liegt (auch) bei mindestens 230W: https://www.computerbase.de/2018-11/geforce-rtx-2080-vergleich-test/3/?amp=1#abschnitt_so_viel_watt_benoetigen_die_hoeheren_taktraten

Je nach Custom Karte geht es auf 286W rauf, bei jedoch mehr Geschwindigkeit.


Die RTX 2070 FE liegt bei 185W.

Troyan
2019-02-13, 09:49:12
Was ist das für Logik?

Crysis 3 dein ernst?

Vermutlich steckt Raff in 1080p? mittlerweile hoffungslos im CPU Limit dem Kack DX11 von AMD, und die Vega 7 wird einfach dort nicht ausgelastet. Rede dir doch nix ein, eine Vega 7 wird niemals an die Effizienz von einer 2080 rankommen, auch wenn da ein paar Youtube Videos was anderes behaupten. Das kannst du drehen wie du willst. Am ende des Tages frisst nun mal eine Vega im Schnitt 70W mehr, ist ja jetzt auch nicht sooo super schlimm.

Bingo. Crysis 3 ist kaputt auf AMD Hardware: https://pclab.pl/art79427-5.html

Raff
2019-02-13, 10:02:12
Ich verstehe auch nicht so ganz warum Raff dafür so alte Schinken nimmt. Mich würde viel mehr bsw. eine Verbrauchsmessung in 4k in einem Forza Horizon 4 mit einer modernen API interessieren. Von mir aus gerne irgendwas anderes aus dem Jahr 2018.

Das steht doch in fast jedem Artikel: Anno 2070 heizt auf jeder GPU stärker als andere Spiele. Daher wurde das bisher nicht ersetzt – somit hält das Archiv eine riesige Vergleichsbasis bereit. Was ein "MSAA-Bug" in diesem Kontext sein soll, weiß ich nicht.

MfG,
Raff

dildo4u
2019-02-13, 10:04:50
Dargos Vorschlag ist eh der absolute Käse er weiß selber das FH4 keine GPU vernünftig auslastet,einfach nur eine Manipulation um Vega besser dastehen zu lassen.

Raff
2019-02-13, 10:07:02
Trotzdem ist es gut, wenn ihr Dinge hinterfragt. Leider wird das oft bei den falschen Leuten bzw. Dingen getan. :) Vieles, was nicht direkt intuitiv wirkt, hat gute Gründe. Dazu zählt auch, nicht alle zwei Wochen den Benchmark-Parcours umzuschmeißen (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925303&postcount=10).

MfG,
Raff

SKYNET
2019-02-13, 10:16:42
Das steht doch in fast jedem Artikel: Anno 2070 heizt auf jeder GPU stärker als andere Spiele. Daher wurde das bisher nicht ersetzt – somit hält das Archiv eine riesige Vergleichsbasis bereit. Was ein "MSAA-Bug" in diesem Kontext sein soll, weiß ich nicht.

MfG,
Raff

wenns ums heizen geht kannst ja auch furmark nehmen? :confused:

RoughNeck
2019-02-13, 10:18:52
Die PCGH legt doch alles offen was die Benchmark Einstellungen, Szenen, usw... angeht.
Was da noch unklar sein soll verstehe ich nicht. FH4 ist doch ein Witz auf jeder halbwegs aktuellen GPU und 8x MSAA scheint bei AMD Karten einen Bug zu haben.

pixeljetstream
2019-02-13, 10:30:41
gerade mal geschaut wegen Vega vll Whitepaper. Noch nichts da, bin dann aber über das hier gestolpert:
https://developer.amd.com/wp-content/resources/Vega_Shader_ISA_28July2017.pdf

Auf Seite 118 (126 im PDF) wird beschrieben was Primitive Shaders machen...
da steht nur wie sie eine Instruktion nutzen sollen.

foenfrisur
2019-02-13, 10:40:48
https://www.amd.com/en/support/radeonvii-vbios-eula

falls jemand das bios-update für uefi sucht.

mfg

Mangel76
2019-02-13, 10:47:07
Trotzdem ist es gut, wenn ihr Dinge hinterfragt. Leider wird das oft bei den falschen Leuten bzw. Dingen getan. :) Vieles, was nicht direkt intuitiv wirkt, hat gute Gründe. Dazu zählt auch, nicht alle zwei Wochen den Benchmark-Parcours umzuschmeißen (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925303&postcount=10).

MfG,
Raff

Das ist ja gerade das Problem, dass solche Werte eben nicht hinterfragt werden. Da wird dann bei AMD immer von den 300W ausgegangen, auch wenn die bei der VII gar nicht mehr in allen Fällen auch anliegen. Gabs da nicht auch andere Durchschnittsverbräuche im Bereich von 270W??? Bei NVIDIA wird dagegen gerne der geringe offizielle Verbrauch genannt, auch wenn die Customs und mittlerweile sogar die FE einen höheren Verbrauch haben. Dazu kommt dann noch die höhere CPU-Auslastung durch den NVIDIA-Treiber, was den Gesamtverbrauch des Systems erhöht. Natürlich ist NVIDIA in weiten Bereichen effizienter in der Architektur. So gravierend, wie es ein ANNO 2070 mit 303 vs. 224 suggeriert, ist es in der Praxis jedoch so gut wie nie. (Ähnliches Beispiel: Intel-CPU mit 95W TDP vs. AMD-CPU mit 105W TDP, die Realverbräuche sehen dann jedoch völlig anders aus)

Das größte Problem ist m.M.n. der unterschiedliche Betriebspunkt der Referenzkarten. NVIDIA hat es nicht nötig, wegen ein paar FPS die Karte bis zum Anschlag zu prügeln. Das überlässt man den Customs, nimmt aber das Effizienzimage mit. AMD muss leider um jedes einzelne FPS kämpfen, um überhaupt gegenüber NVIDIA bestehen zu können. Sieht man ja hier auch oft genug im Forum: von AMD wird erwartet, dass sie mehr FPS bei weniger Verbrauch und vor allem zum halben Preis bringen, damit die Lieblingsmarke (NVIDIA/Intel) gezwungen ist, die Preise etwas zu verringern. (Achtung: überspitzte Darstellung)

Aus Erfahrung kann ich sagen, dass auch eine V64 mit ein wenig UV und Verringerung des PT eine sehr effiziente Karte sein kann bei deutlich geringerem Verbrauch aber ähnlicher Leistung wie eine Referenzkarte. (Meine V64 lief zuletzt in der Beta von Anno 1800 mit 1,5GHz bei -25% PT, also ca. 175W ASIC). Hier würde mich tatsächlich mal ein Vergleich des Gesamtsystems mit 1080/2070 bei ähnlicher Leistung interessieren. (@Raff & Co!)

GerryB
2019-02-13, 10:51:22
Sorry,
Meinte Anno 2205. Da verliert AMD überproportional mit 8x MSAA.
Zu der Engine hätte ich kein Vertrauen. Dito Unity und UE4.
Alle net geeignet um AMD zu bewerten.
Leider teilt die Software die Welt in 2 Parteien.
(So läuft AMD im Leerlauf durch Limit XYZ und verbrät nur sinnlos W. Schaltet man mit Gamesettings am Besten ab.)

Von Reviewern würde ich mir eine neutrale Engine für Verbrauchsmessungen wünschen.

y33H@
2019-02-13, 11:08:55
Was zählt ist die Praxis und kein Cherry Picking um die Leistungsaufnahme zu drücken oder extrem weit verbreitete Engines auszuschließen ... davon ab, wer hab mit Vsync spielt oder CPU-limitiert ist, bei dem schluckt die Grafikkarte weniger, das gilt aber für Geforce und Radeon.

dildo4u
2019-02-13, 11:12:02
Sorry,
Meinte Anno 2205. Da verliert AMD überproportional mit 8x MSAA.
Zu der Engine hätte ich kein Vertrauen. Dito Unity und UE4.
Alle net geeignet um AMD zu bewerten.
Leider teilt die Software die Welt in 2 Parteien.
(So läuft AMD im Leerlauf durch Limit XYZ und verbrät nur sinnlos W. Schaltet man mit Gamesettings am Besten ab.)

Von Reviewern würde ich mir eine neutrale Engine für Verbrauchsmessungen wünschen.
Nutzt Raff in 4k noch 8xMSAA?Ansonsten sieht es ziehmlich fair aus.

X-Bow
2019-02-13, 11:14:56
Was zählt ist die Praxis und kein Cherry Picking um die Leistungsaufnahme zu drücken oder extrem weit verbreitete Engines auszuschließen ... davon ab, wer hab mit Vsync spielt oder CPU-limitiert ist, bei dem schluckt die Grafikkarte weniger, das gilt aber für Geforce und Radeon.


Genau genommen ist nur der Verbrauch der Grafikkarte zu messen aber auch eine Art Charry Picking. Die Praxis wäre dann direkt an der Steckdose. :wink:

y33H@
2019-02-13, 11:16:35
Unter Volllast braucht die Karte unabhängig von der CPU gleich viel Energie.

pilzsammler2002
2019-02-13, 11:20:50
Unter Volllast braucht die Karte unabhängig von der CPU gleich viel Energie.
In der Tat.
Aber die CPU wird ja unterschiedlich belastet... :freak:

aufkrawall
2019-02-13, 11:23:49
Bingo. Crysis 3 ist kaputt auf AMD Hardware: https://pclab.pl/art79427-5.html
Aha, deshalb läuft bei mir mit Polaris und 6700k statt Vega und 8700k der Damm-Level (root of all evil) mal eben >50% schneller als dort (1080p und 720p):
https://abload.de/thumb/mpv-shot0001rwk3u.png (http://abload.de/image.php?img=mpv-shot0001rwk3u.png) https://abload.de/thumb/mpv-shot0002a5j7m.png (http://abload.de/image.php?img=mpv-shot0002a5j7m.png) https://abload.de/thumb/mpv-shot0003ryjfi.png (http://abload.de/image.php?img=mpv-shot0003ryjfi.png)
https://abload.de/thumb/mpv-shot0004klk1l.png (http://abload.de/image.php?img=mpv-shot0004klk1l.png) https://abload.de/thumb/mpv-shot00052xjei.png (http://abload.de/image.php?img=mpv-shot00052xjei.png) https://abload.de/thumb/mpv-shot00061pkjv.png (http://abload.de/image.php?img=mpv-shot00061pkjv.png)

dildo4u
2019-02-13, 11:28:30
Eurogamer hat aktuelle Crysis 3 Werte.

In 1440p Vega 64 84fps,Radeon 7 86fps,GTX 1080 96fps.
Fettes CPU Limit mit einem 8700k,in 4k sieht es ein bissel besser aus.


https://www.eurogamer.net/articles/digitalfoundry-2019-02-07-amd-radeon-7-review?page=2

bnoob
2019-02-13, 11:32:09
wenns ums heizen geht kannst ja auch furmark nehmen? :confused:
Solange ich das auf Radeon immer noch in funmark.exe umbenennen muss nö :freak:

Edit:

Hab mir mal eine Handvoll Kunststoff-Unterlegscheiben bestellt, dürfte für die Übergangszeit bis zur Wasserkühlung die beste Option sein. Hoffe nur, dass der Anpressdruck mir nicht meinen Die beschädigt :D

-10K TJ Hotspot sind halt schon ne Ansage bei so einem überforderten Kühler.

GerryB
2019-02-13, 11:36:28
Bzgl.Cherrypicking:
Wer sich für Gameworkstitel ne Vega kauft, ist eh net zu verstehen. (dann doch gleich NV nehmen)
Hinterher wg. der W mit der ungünstigen Engine rumningeln ist daher der eigene Fehler.
Gefühlte 1000 unwichtige Games machen UE noch lange net bedeutend für einen Veganer.(so einen Crap kauft man nicht, oder spielt net maxed)

Als Neutral würde ich 3dmark ansehen.
Dann kann noch der Hinweis kommen, das Games u.U. mehr verbrauchen können. = Alle zufrieden.
(Nach m.E. sind auch die meisten AMD-Titel rel. neutral.)

Mangel76
2019-02-13, 11:38:15
Unter Volllast braucht die Karte unabhängig von der CPU gleich viel Energie.

Aber arbeitet denn so eine Karte immer unter Volllast? Und selbst bei annähernd 100% Auslastung im Afterburner habe ich schon sehr unterschiedliche Verbrauchswerte gesehen. So pauschal kann man das eben nicht sagen!

Beispiel: wie erklären sich dann die Verbrauchswerte bei CB (https://www.computerbase.de/2019-02/amd-radeon-vii-test/4/#abschnitt_messung_der_leistungsaufnahme)? Wird da etwa im CPU-Limit gemessen??? Da kommen eben keine 300W Verbrauch heraus, eher 270-280W.

Ätznatron
2019-02-13, 11:45:05
Und mein Radeon VII Abenteuer ist schon wieder zu Ende, noch bevor es eigentlich losgegangen ist: Die Karte wurde wohl beim Händler so schwer beschädigt, dass er sie nicht mehr versenden konnte.

Na ja, schade, hatte mich schon auf die Bastelarbeit gefreut.

SKYNET
2019-02-13, 11:46:10
Solange ich das auf Radeon immer noch in funmark.exe umbenennen muss nö :freak:

Edit:

Hab mir mal eine Handvoll Kunststoff-Unterlegscheiben bestellt, dürfte für die Übergangszeit bis zur Wasserkühlung die beste Option sein. Hoffe nur, dass der Anpressdruck mir nicht meinen Die beschädigt :D

-10K TJ Hotspot sind halt schon ne Ansage bei so einem überforderten Kühler.

also ich muss da nix umbenennen bei der 580er :confused:

bnoob
2019-02-13, 11:58:16
Bei meiner 4870, 260X, 290X, Vega 64 immer das selbe Problem, davor wahrscheinlich auch, aber weiß ich nicht mehr.

Es läuft natürlich, aber man merkt halt dass es throttled, sobald ich die exe umbenenne throttled nichts mehr.

aufkrawall
2019-02-13, 12:15:06
Läuft hier wie jede andere 3D-Anwendung auch.

hmmm
2019-02-13, 12:16:57
Das steht doch in fast jedem Artikel: Anno 2070 heizt auf jeder GPU stärker als andere Spiele.
Und gerade das macht die Werte für Gamer irrelevant.

dildo4u
2019-02-13, 12:23:26
Wo ist das irrelevant die AMD Fans beten doch schon ewig um mehr Low Level Games,je mehr man die CPU aus dem Geschehen raus-nimmt um so eher wirst du durch die Bank die 300 Watt sehen.

Raff
2019-02-13, 12:27:30
Richtig.

MfG,
Raff

huey
2019-02-13, 12:29:52
Trotzdem ist es gut, wenn ihr Dinge hinterfragt. Leider wird das oft bei den falschen Leuten bzw. Dingen getan. :) Vieles, was nicht direkt intuitiv wirkt, hat gute Gründe. Dazu zählt auch, nicht alle zwei Wochen den Benchmark-Parcours umzuschmeißen (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925303&postcount=10).

MfG,
Raff

Ich gehe mal davon aus das bei so einem Testaufbau auch der Gesamtverbrauch schön mitgeloggt wird und wenn es so sein sollte dann wäre es ja sicher ein Leichtes für zumindest einige Spiele und Auflösungen auch diese Werte mal mit anzugeben. Am besten würde ich es finden wenn dort Karte X in Spiel A z.B. 0,2kwh verbraucht und bei durchschnittlich 80fps 20s für den Bench gebraucht hat. Aus diesen Werten könnte man dann wirklich mal auf den Stromverbrauch und noch wichtiger auf die benötigte Kühlung des ganzen Systems schließen und das in Relation zu den erziehlten fps setzen.
Ich weiß das man vor Jahren vom Gesamtverbrauch zum reinen Komponentenverbrauch gewechselt ist, aber weiß überhaupt nicht mehr warum denn als reiner Endverbraucher ist mir der Komponentenverbrauch eigentlich egal sondern es zählen wenn überhaupt nur kwh/Fps des Gesamtsystems.
Es gibt ja zur Vega 7 vielleicht noch den ein oder anderen Nachtest und vielleicht findet sich ja dort dann eine Redaktion die mal etwas "Neues" zum lesen anbietet :wink:

Ich will jetzt keinen Fanboystreit auslösen sondern möchte einfach mal wissen was am Ende des Abends bei etwa gleichen Fps auf der Strom-/Verlustwärme-/Rechnung steht und das aus reiner Neugier denn meine Vega56 wird wohl irgendwann ohne große Elektromigration :biggrin: nach X Jahren wieder den Besitzer wechseln sprich sie sieht kaum ein Spiel.

hmmm
2019-02-13, 12:42:43
Richtig.

MfG,
Raff
Falsch. Siehe zb Forza Horizon, niemand hat wohl etwas dagegen wenn eine GPU auch das "zieht" was angegeben ist, nur sollten die Bedingungen fair sein.

aufkrawall
2019-02-13, 12:44:14
Es ist vollkommen unsinnig, nicht auch einen Worst Case zu testen.

dildo4u
2019-02-13, 12:45:26
Bei Froza verkackt vermutlich das MSAA die Auslastung der GPU,ich glaube kaum das das noch mal ein großes Comeback feiert.

Raff
2019-02-13, 12:45:37
Eine voll ausgelastete Grafikkarte operiert dauerhaft am Powerlimit (sofern der Kühler mithält, ansonsten wechseln sich Power- und Temperaturlimit ab). Daran gibt es nichts zu diskutieren. Teillasttests sind natürlich trotzdem sinnvoll, wobei man dann aber klar sagen muss, dass es Teillast ist. Im Falle der PCGH sind übrigens Crysis 3 in Full HD sowie Wolfenstein 2 mit Framelimit (ebenfalls Full HD) solche Teillasttests.

MfG,
Raff

Mangel76
2019-02-13, 12:47:13
Wo ist das irrelevant die AMD Fans beten doch schon ewig um mehr Low Level Games,je mehr man die CPU aus dem Geschehen raus-nimmt um so eher wirst du durch die Bank die 300 Watt sehen.

Es ist natürlich nicht irrelevant. Es stellt aber eben auch nur einen möglichen Fall dar. Es ist ein Extrembeispiel! In 3 anderen Spielen bei CB liegt eben der Verbrauch niedriger, wie wohl in vielen anderen Spielen auch. Die VII unterscheidet sich hier sehr deutlich von der V64, die mit nem vernünftigen Kühler immer verbrauchslimitiert war. Die VII ist mit dem aktuellen Kühler aber auf Werkseinstellungen eher temperaturlimitiert oder reizt oft aus anderen Gründen die 300W nicht voll aus.

hmmm
2019-02-13, 12:52:04
Es ist vollkommen unsinnig, nicht auch einen Worst Case zu testen.

Ja, aber dann gehören die Last Messungen auch bei den Benchmark dazu. Ohne diese und nur das Worst Case ist schlicht für Gamer irrelevant.

Es ist schlicht ein Unterschied ob ich FPS/Watt mit Anno oder Forza vergleiche.

Mangel76
2019-02-13, 12:53:43
Eine voll ausgelastete Grafikkarte operiert dauerhaft am Powerlimit (sofern der Kühler mithält, ansonsten wechseln sich Power- und Temperaturlimit ab). Daran gibt es nichts zu diskutieren.

Dazu müsste man aber erst einmal den Begriff "voll ausgelastet" definieren. Heißt das, dass alle Teile (Geometrie, Shader usw.) der GPU vollkommen ausgelastet sein müssen? Oder reicht es, wenn ein Teil (="Flaschenhals") komplett ausgelastet ist? Welches Spiel schafft es denn schon, die Last so perfekt auszubalancieren, dass sämtliche Teile einer GPU gleichzeitig vollständig am Limit laufen? Und das dann auch noch bei verschiedenen GPU-Architekturen mit unterschiedlichen Verhältnissen dieser Bereiche? Die Idee von einem Spiel, dass sämtliche GPUs in allen Bereichen zu 100% auslastet, halte ich ehrlich gesagt für absurd.

GerryB
2019-02-13, 12:54:38
Da hier ein AMD-Thread ist, würde ich aber net gerade Anno2070 als entscheidend für ne Kaufempfehlung anführen.
Kann sich aber mit Anno@DX12 gerne ändern.

Momentan sehe ich net viele Argumente gegen ne Radeon VII.
Gerade Raff mit seinem UV-Versuch hat den Käufern gut Mut gemacht.
oder auch CB: ( da ist noch net mal der Nachtest drin)

Savay
2019-02-13, 12:55:14
Die Idee von einem Spiel, dass sämtliche GPUs in allen Bereichen zu 100% auslastet, halte ich ehrlich gesagt für absurd.

Dito.

Teillasttests sind natürlich trotzdem sinnvoll, wobei man dann aber klar sagen muss, dass es Teillast ist.

Was heißt für dich "Teillast"? CPU/FPS Limit?
Da wäre ich voll bei dir...

Ich halte es davon abgesehen aber für komplett utopisch bei derart unterschiedlich ausgelegten Architekturen und GPUs keinen Fall zu finden den man nicht irgendwie als "Teillast" definieren könnte!
Mal limitiert bei Softare X vielleicht die Bandbreite, mal bei Software Y der Pixeldurchsatz, mal die Arithmetikleistung...dann wieder der Geometriedurchsatz, dann wieder die Speichermenge und und und.
Das bedeutet im Umkehrschluss aber auch unterschiedliches Verhalten was die Stromaufnahme angeht...je nachdem wo der Flaschenhals ist.

Es unterscheiden sich ja schon GPUs einer an und für sich identischen Architektur teilweise signifikant in ihrer Auslegung!
Man muss sich doch nur mal die Turing Chips ansehen.

Rancor
2019-02-13, 12:58:57
Da hier ein AMD-Thread ist, würde ich aber net gerade Anno2070 als entscheidend für ne Kaufempfehlung anführen.
Kann sich aber mit Anno@DX12 gerne ändern.

Momentan sehe ich net viele Argumente gegen ne Radeon VII.
Gerade Raff mit seinem UV-Versuch hat den Käufern gut Mut gemacht.
oder auch CB: ( da ist noch net mal der Nachtest drin)

Und eine 2080 kann man nicht undervolten? Ich finde die Diskussion sowas von lächerlich.

Mangel76
2019-02-13, 12:59:46
Es ist vollkommen unsinnig, nicht auch einen Worst Case zu testen.

Natürlich braucht man auch den Wort Case. Aber wie der Name schon sagt, ist es eben der denkbar schlechteste Fall. Der hat oft nicht so viel mit dem "Normalfall" zu tun. Daher finde ich den Wert von CB, ein Durchschnittsverbrauch über mehrere Spiele, sehr viel aufschlussreicher als den Worts Case Anno 2060. Dazu noch andere Kennzahlen, wie etwa W2 auf 60FPS bei PCGH. Ein umfassendes Bild kann man sich nur machen, wenn man alle Fälle kennt.

Was lernen wir daraus: zu allen Benchmarks mit den FPS- auch die Verbrauchswerte angeben, und zwar für Grafikkarte und Gesamtsystem :D

GerryB
2019-02-13, 13:01:37
Und eine 2080 kann man nicht undervolten? Ich finde die Diskussion sowas von lächerlich.

Hat ja Keiner behauptet. (das CB die RTX net mit UV aufgeführt hat, kannst Du gerne Dort im Forum anmeckern)
Nur für die Radeon VII ist der Verbrauch überhaupt net das Kriterium, ob Kaufen oder Nicht.

Nach m.E. ist die Seven ein netter Tick zur Vega und durch die 16GB zukunftssicher.(Tock wäre dann nextGen)
FS2+HDR sind mit genügend preiswerten Monis im Paket erhältlich.
Evtl. kommt sogar noch der DP zu HDMi2.1-Adapter.

Für Prosumer wird es als Duo mit ner Pro(oder FE?) evtl. sogar als Workstation funzen.
Die Pro bringt die Zertifizierung und die Seven soll auch mit Workloads abarbeiten können.
(mal schauen, wie Das im Detail mit den entspr. Treibern dann funzt)

y33H@
2019-02-13, 13:06:27
Aber die CPU wird ja unterschiedlich belastet ... Müsste man messen ob und wie die höhere Auslastung der CPU tatsächlich deren Package Power und die Leistungsaufnahme des Systems beeinflusst.
Als Neutral würde ich 3dmark ansehen.Auf dessen Engine so viele Spiele basieren ... ah nee, doch nicht ;D
Aber arbeitet denn so eine Karte immer unter Volllast?Sofern kein CPU- oder Fps-Limit gegeben ist, schon. Wie gesagt - mit Vsync oder nem Atom braucht freilich auch die Karte weniger.

aufkrawall
2019-02-13, 13:09:01
Müsste man messen ob und wie die höhere Auslastung der CPU tatsächlich deren Package Power und die Leistungsaufnahme des Systems beeinflusst.

Wenn du das testen willst, sollte das wohl mit AC: Od. ganz gut gehen. Afair geht bei Nvidia auch mit 6C + HTT ständig die CPU-Auslastung auf 100% hoch, während das mit AMD nicht mal bei 4C + HTT der Fall ist. Natürlich drauf achten, im GPU-Limit zu sein.

HTB|Bladerunner
2019-02-13, 13:10:10
Und mein Radeon VII Abenteuer ist schon wieder zu Ende, noch bevor es eigentlich losgegangen ist: Die Karte wurde wohl beim Händler so schwer beschädigt, dass er sie nicht mehr versenden konnte.

Na ja, schade, hatte mich schon auf die Bastelarbeit gefreut.

Mindfactory was... :D
Die Antwort habe ich auf Nachfrage auch erhalten...

Savay
2019-02-13, 13:11:02
Sofern kein CPU- oder Fps-Limit gegeben ist, schon.

Das halte ich halt ebenfalls durchaus für nen Trugschluss.

Du wirst ziemlich immer irgendwelche Software schreiben oder finden können die Architektur A besser auslastet als Architektur B, wenn sich diese in der Auslegung signifikant unterscheiden...je nach Ausgangslage schlägt sich das dann ziemlich sicher auch in anderen Lastszenarien nieder.
Turing ist doch schon nen gutes Beispiel...hast du eine SW die zusätzlich die Tensor und RT Cores belastet, hast du garantiert eine andere Lastverteilung als ohne!

Wenn die GPUs aber in jedem Fall in einen TDP Limiter laufen, wird dieser das natürlich deckeln und derartige Differenzen einfach Glattbügeln...dass heißt aber nicht das das es nicht auch Fälle gibt in denen das Limit nicht erreicht wird.

dargo
2019-02-13, 13:14:12
Das steht doch in fast jedem Artikel: Anno 2070 heizt auf jeder GPU stärker als andere Spiele. Daher wurde das bisher nicht ersetzt – somit hält das Archiv eine riesige Vergleichsbasis bereit.
Ich weiß, dass Anno gut heizt, interessiert heute nur keine Sau mehr. :)

Dargos Vorschlag ist eh der absolute Käse er weiß selber das FH4 keine GPU vernünftig auslastet,einfach nur eine Manipulation um Vega besser dastehen zu lassen.
Oh... dildo mit seien Verschwörungstheorien wieder? :up: Wenn FH4 keine GPU voll auslastet gilt das selbe auch für die Konkurrenz, also wo ist das Problem? Achja... dann kann man sich mit 300W nicht mehr schmücken gell? Hättest du meinen Post richtig gelesen würde dir auffallen, dass mein Vorschlag eher auf neue Games zutrifft. Von mir aus kann man auch gerne ein SotTR mit DX12 oder demnächst The Division mit DX12 nehmen. Übrigens heizt The Division 2 mehr als SotTR auf Vega, grob vergleichbar mit Witcher 3. Sieht man natürlich erst wenn man die Telemetrie von AMD verlässt.

Das ist ja gerade das Problem, dass solche Werte eben nicht hinterfragt werden. Da wird dann bei AMD immer von den 300W ausgegangen, auch wenn die bei der VII gar nicht mehr in allen Fällen auch anliegen. Gabs da nicht auch andere Durchschnittsverbräuche im Bereich von 270W??? Bei NVIDIA wird dagegen gerne der geringe offizielle Verbrauch genannt, auch wenn die Customs und mittlerweile sogar die FE einen höheren Verbrauch haben. Dazu kommt dann noch die höhere CPU-Auslastung durch den NVIDIA-Treiber, was den Gesamtverbrauch des Systems erhöht. Natürlich ist NVIDIA in weiten Bereichen effizienter in der Architektur. So gravierend, wie es ein ANNO 2070 mit 303 vs. 224 suggeriert, ist es in der Praxis jedoch so gut wie nie.
Du triffst genau den Nagel auf den Kopf. ;) U.a. deshalb kam der Vorschlag von mir mit FH4. In FH4 performen Radeons recht gut gegenüber der Konkurrenz. Treiberprobleme natürlich ausgeklammert, da gabs welche die wesentlich langsamer performten.

Mal völlig fiktive Zahlen in den Raum geworfen:

RTX 2080 FE @4k = 200W
Radeon VII @4k = 250W

Wenn zweitere gleich schnell oder sogar bissel schneller ist sieht das schon etwas anders aus als 300W vs. 225W in einem alten Anno 2070 wo die Radeon noch einiges langsamer ist. ;) Wie ich schon immer sagte Perf/W ist das Ergebnis aus Software und Hardware. Ersteres hat einen erheblichen Einfluss darauf.

Ersetzt du in diesem Vergleich die RTX 2080 FE durch eine MSI RTX 2080 Gaming X Trio (https://www.computerbase.de/2018-11/geforce-rtx-2080-vergleich-test/3/?amp=1#abschnitt_so_viel_watt_benoetigen_die_hoeheren_taktraten) kommen sich beide Karten noch viel näher beim Verbrauch bzw. der Perf/W. Und nein... eine MSI RTX 2080 Gaming X Trio ist garantiert keine 24% schneller als eine RTX 2080 FE.

FH4 ist doch ein Witz auf jeder halbwegs aktuellen GPU und 8x MSAA scheint bei AMD Karten einen Bug zu haben.
Man muss kein 8xMSAA nehmen, 4xMSAA reicht völlig.

Was zählt ist die Praxis und kein Cherry Picking um die Leistungsaufnahme zu drücken oder extrem weit verbreitete Engines auszuschließen ... davon ab, wer hab mit Vsync spielt oder CPU-limitiert ist, bei dem schluckt die Grafikkarte weniger, das gilt aber für Geforce und Radeon.
Da könnte ich jetzt auch fragen was an einem Spiel von 2011 Praxis ist? Das Ding ist doch schon längst abgehackt. Und was die Teillast angeht könnten sich die Verhältnisse durchaus verschieben. Eine GPU die oben weiter vom Sweetspot läuft wird bei Teillast im Verhältnis sparsamer abschneiden. Und wo wir schon beim Thema sind... einem Spieler der mit 1440p oder gar 1080p unterwegs ist wird eine Messung in 4k auch nichts bringen.

Screemer
2019-02-13, 13:26:20
Mir ist es sowieso schleierhaft, warum man nicht einfach alle Durchschnittsverbräuche zu den jeweiligen benshes mit angibt und zwar die vom Gesamtsystem. Reine Angaben zur GPU taugen im Bestfall zur Entscheidungsfindung beim Netzteilkauf.

Birdman
2019-02-13, 13:27:41
Du wirst ziemlich immer irgendwelche Software schreiben oder finden können die Architektur A besser auslastet als Architektur B, wenn sich diese in der Auslegung signifikant unterscheiden...je nach Ausgangslage schlägt sich das dann ziemlich sicher auch in anderen Lastszenarien nieder.
Durchaus korrekt, aber kommt das in der Praxis bei Games wirklich vor?
Einfacher Test ist hier z.B. Doom auf einer Radeon im GPU Limit - einmal unter OpenGL und einmal mit Vulkan.
"Ausgelastet" wäre die Karte in beiden Fällen, produziert in einem Falle aber massiv mehr fps.


Turing ist doch schon nen gutes Beispiel...hast du eine SW die zusätzlich die Tensor und RT Cores belastet, hast du garantiert eine andere Lastverteilung als ohne!
Aber trotzdem den selben Stromverbrauch, zumindest im Auslieferungszustand der Karten wo diese ja mehr oder weniger immer von der TDP limitiert werden.
Mit aktiven Tensor und RT Cores müsste die Karte dadurch natürlich langsamer werden, aber das wird sie durch RT ja sowieso :D
Aber die Clockrates sollten natürlich durchaus tiefer sein, wenn in einem Spiel z.B. RTX zugeschaltet wird. (gibts hier einen Tests dazu wo man das sehen könnte?)

dargo
2019-02-13, 13:50:14
Im Falle der PCGH sind übrigens Crysis 3 in Full HD sowie Wolfenstein 2 mit Framelimit (ebenfalls Full HD) solche Teillasttests.

Argh... warum steht das im Diagramm nicht wie bei Wolf2? :freak: Oder habe ich es übersehen? Aber danke für den Hinweis denn hier waren schon einige fest davon überzeugt Crysis 3 wäre bei AMD voll im CPU-Limit in eurem Vergleich. Umso mehr sieht man hier sehr schön was bei Teillast passiert bzw. passieren kann. Denn bei Wolf 2 @60fps ist Turing wieder effizienter. Mich würde dennoch interessieren warum die V64 LCE so viel mehr in diesem Szenario zieht? Messfehler ausgeschlossen?


Sofern kein CPU- oder Fps-Limit gegeben ist, schon. Wie gesagt - mit Vsync oder nem Atom braucht freilich auch die Karte weniger.
Und das ist eben falsch. Du wirst in einem Forza Teil niemals einen so hohen Verbrauch wie in einem Anno2070 sehen. Weder CPU-Limit noch Framelimit.

Durchaus korrekt, aber kommt das in der Praxis bei Games wirklich vor?
Einfacher Test ist hier z.B. Doom auf einer Radeon im GPU Limit - einmal unter OpenGL und einmal mit Vulkan.
"Ausgelastet" wäre die Karte in beiden Fällen, produziert in einem Falle aber massiv mehr fps.

Das ist bestes Beispiel von ineffizienten Software, in dem Fall dem OpenGL Treiber.

maximus_hertus
2019-02-13, 14:06:32
Mir ist es sowieso schleierhaft, warum man nicht einfach alle Durchschnittsverbräuche zu den jeweiligen benshes mit angibt und zwar die vom Gesamtsystem. Reine Angaben zur GPU taugen im Bestfall zur Entscheidungsfindung beim Netzteilkauf.


+1

Genau das. Einfach bei jedem Bench den Stromverbrauch mit angeben - case solved :)


Dann kann man einen Durchschnittsverbrauch ausrechnen und kann dann eine echte Performance / Stromverbrauch Aussage treffen.

Ätznatron
2019-02-13, 14:20:17
Mindfactory was... :D
Die Antwort habe ich auf Nachfrage auch erhalten...

ROFL

So isses....:biggrin:

Muss wohl der ganze Stapler umgefallen sein (muss man halt nur dran glauben).

y33H@
2019-02-13, 14:21:12
Und das ist eben falsch. Du wirst in einem Forza Teil niemals einen so hohen Verbrauch wie in einem Anno2070 sehen. Weder CPU-Limit noch Framelimit.Kläre mich, wo hängt's bei (welchem) Forza?
Das halte ich halt ebenfalls durchaus für nen Trugschluss.
Du wirst ziemlich immer irgendwelche Software schreiben oder finden können die Architektur A besser auslastet als Architektur B, wenn sich diese in der Auslegung signifikant unterscheiden ... je nach Ausgangslage schlägt sich das dann ziemlich sicher auch in anderen Lastszenarien nieder. Turing ist doch schon nen gutes Beispiel ... hast du eine SW die zusätzlich die Tensor und RT Cores belastet, hast du garantiert eine andere Lastverteilung als ohne!Wie du schon sagtest, idR läuft eine Karte ins Power- oder Temp-Limit, das gilt freilich auch wenn die RT- und die Tensor-Cores laufen. Die Lastverteilung ist anders, aber die Targets die selben.
Genau das. Einfach bei jedem Bench den Stromverbrauch mit angeben - case solved.Das zu loggen erhöht den Aufwand halt wieder massiv.

dargo
2019-02-13, 14:26:24
Kläre mich, wo hängt's bei (welchem) Forza?

Egal welches... kannst FM7, FH3 oder FH4 nehmen. Mir kommt es so vor als ob Turn 10 bzw. Playground Games einen kleinen Puffer bei den Hardwareressourcen frei lassen würden.

Ätznatron
2019-02-13, 14:27:43
Das zu loggen erhöht den Aufwand halt wieder massiv.

Na ja, also "massiv" bezweifel ich.

Da es der Wahrheitsfindung dient, wäre aber selbst ein massiver Mehraufwand durchaus vertretbar.

X-Bow
2019-02-13, 14:29:03
@Raff ich hab gerade nochmals Eure Messungen angeschaut und stell mir folgende Fragen: Wenn Crisis 3 ein Teillasttest ist, und die 2080 rennt schon in ihr Powerlimit, was ist daran Teillast?

Wenn die 2080 schon beim Teilasttest im Powerlimit ist, was bring dann der Vollasttest mit Anno wenn sich die Last sowieso nicht erhöht?

Vor allem was bring dann der Vergleich zwischen Produkten? Und wo sind beim Verbrauchstest der VII die FPS/Watt Werte wie beim Test der 2080/Ti?

aufkrawall
2019-02-13, 14:32:42
Na ja, also "massiv" bezweifel ich.

Paar Sekunden aufs Wattmeter schauen. :freak:

y33H@
2019-02-13, 14:35:50
Na ja, also "massiv" bezweifel ich. Da es der Wahrheitsfindung dient, wäre aber selbst ein massiver Mehraufwand durchaus vertretbar.Tests von GraKas sind so schon extrem aufwendig und zeitintensiv, noch mehr Werte machen es nicht besser. Mir gefällt die Idee, nur wird's am Ende halt einige wenige ernsthaft interessieren. Mir fehlt zudem das Equipment um parallel zur GraKa auch das System im sub-Sekunden-Bereich zu loggen, sprich da muss erst mal Geld/Zeit investiert werden, die sowieso schon sehr rar ist ... leider. Wahrheitsfindung als Geschäftsmodell hat seine Tücken ^^
Paar Sekunden aufs Wattmeter schauen.Genau das ist's halt nicht - sollte schon gescheit gemacht werden ... du hast ja idR keine statische Szene, sondern Bewegung für 30-60 sec oder mehr.
Egal welches ... kannst FM7, FH3 oder FH4 nehmen. Mir kommt es so vor als ob Turn 10 bzw. Playground Games einen kleinen Puffer bei den Hardware Ressourcen frei lassen würden.Damit kann ich nicht viel anfangen, diese Aussage hilft leider nicht.

Ätznatron
2019-02-13, 14:36:20
Paar Sekunden aufs Wattmeter schauen. :freak:

Damit hast du es ganz gut beschrieben.

@y33H@

Du kannst doch mit HWInfo die CPU Package Power mitloggen. Und als Indiz sollte der Wert schon ausreichend genug sein. Ich denke mal, niemand erwartet ein gerichtsfestes Gutachten über die Leistungsaufnahme. Dazu dann noch der von aufkrawall erwähnte Blick auf's Wattmeter und gut ist.

y33H@
2019-02-13, 14:38:51
Damit hast du es ganz gut beschrieben.Du weißt offenbar nicht wie GraKa-Tests auflaufen und unterschätzt das wohl.

aufkrawall
2019-02-13, 14:40:17
Genau das ist's halt nicht - sollte schon gescheit gemacht werden ... du hast ja idR keine statische Szene, sondern Bewegung für 30-60 sec oder mehr.

Man kann entweder eine statische Szene heranziehen oder den Verbrauch einer dynamischen frei Kopf mitteln. Besser als gar keine Verbrauchsangabe allemal und nur wenig Mehraufwand.

Savay
2019-02-13, 14:40:41
hmmm....
https://www.victronenergy.de/accessories/energy-meter
;)

Für den durchschn. Systemverbauch ist ne millisekundengenaue Messung auch kaum relevant.
Ich würde dafür eh längere Gameloops oder via Script der Einfachheit halber für die Gesamtheit aller Loops nehmen die eh im Parcours sind und in den/einen Index fließen...dann reicht auch ne Angabe in kWh.

Das man das wirklich für jede Szene separat macht ist denke ich kaum nötig! :wink:

dargo
2019-02-13, 14:46:38
Paar Sekunden aufs Wattmeter schauen. :freak:
Kann man bei einem Wattmeter nicht einfach den Durchschnittsverbrauch über ne Zeitachse messen? Ich meine das ist problemlos möglich. :uponder:


Damit kann ich nicht viel anfangen, diese Aussage hilft leider nicht.
Dann musst du schon konkreter in der Fragestellung werden. :)

y33H@
2019-02-13, 15:13:53
Man kann entweder eine statische Szene heranziehen oder den Verbrauch einer dynamischen frei Kopf mitteln. Besser als gar keine Verbrauchsangabe allemal und nur wenig Mehraufwand.Eine statische Szene hat eine geringe Last für GPU und CPU und ergo eine niedrigere Auslastung bzw Leistungsaufnahme, womit wir das ad absurdum führen, was wir eigentlich aufzeigen wollen.
Dann musst du schon konkreter in der Fragestellung werden.OK, du sagst, bei einem Forza erreicht keine Grafikkarte ihr übliches Power-Limit? Sprich eine RTX 2080 etwa bleibt weit unter ca 225W?

Dural
2019-02-13, 15:23:34
Was für eine Sinnlose Diskussion.

Es ist völlig Normal das eine Karte die weniger ausgelastet wird auch weniger verbraucht, und es ist auch völlig Normal das eine Karte die viele FPS bringt das restliche System mehr fordert.

Ändert aber an der Tatsache nichts das die AMD Karten durch die Bank viel zu viel verbrauchen für die Leistung die sie bringen, erst recht mit einer 7nm 300mm2 GPU.

Da gibt es nichts schön zureden, so eine GPU dürfte maximal 200Watt verbrauchen. Die Leistung wäre mit der üblichen Serien Streuung und Sicherheit aber sicherlich unter einer 2070!
AMD musste halt mal wieder ihre GPU künstlich hoch pushen um halbwegs mit einer 2080 mithalten zu können, das ist ja bei AMD üblich.

Mangel76
2019-02-13, 15:28:20
Was für eine Sinnlose Diskussion.

Es ist völlig Normal das eine Karte die weniger ausgelastet wird auch weniger verbraucht, und es ist auch völlig Normal das eine Karte die viele FPS bringt das restliche System mehr fordert.

Ändert aber an der Tatsache nichts das die AMD Karten durch die Bank viel zu viel verbrauchen für die Leistung die sie bringen, erst recht mit einer 7nm 300mm2 GPU.

Da gibt es nichts schön zureden, so eine GPU dürfte maximal 200Watt verbrauchen. Die Leistung wäre mit der üblichen Serien Streuung und Sicherheit aber sicherlich unter einer 2070!
AMD musste halt mal wieder ihre GPU künstlich hoch pushen um halbwegs mit einer 2080 mithalten zu können, das ist ja bei AMD üblich.

Und was hindert dich daran, so eine Karte mit 200W laufen zu lassen? Mache ich mit meiner V64 auch, und dabei ist sie nicht wirklich langsamer als die Referenz. Ein Effizienzvergleich zweier Referenzkarten ist tatsächlich völliger Blödsinn, wenn beide Hersteller hier komplett andere Strategien fahren.

Ex3cut3r
2019-02-13, 16:03:13
Das entspricht aber nicht der Norm, ich kann eine 2070 auch nochmal undervolten auf 150W. Die Vega 7 verbraucht nunmal out of the Box 250-300W je nach Spiel, ist doch ok, finde ich vollkommen ok, besser als 300-350W oder ähnliches. Und die Leistung stimmt auch + viel Speicher, tolle Karte.

SKYNET
2019-02-13, 16:03:57
Das entspricht aber nicht der Norm, ich kann eine 2070 auch nochmal undervolten auf 150W. Die Vega 7 verbraucht nunmal pur of the Box 250-300W je nach Spiel, ist doch ok, finde ich vollkommen ok, besser als 300-350W oder ähnliches. Und die Leistung stimmt auch + viel Speicher, tolle Karte.


account gehackt? :upara:

Ex3cut3r
2019-02-13, 16:15:23
Nö, hätte ich noch eine 1070 im Rechner und bräuchte jetzt eine neue Karte, würde ich wohl auch eher die 7 nehmen, es müssten nur noch leise Customs erscheinen. So warte ich auf Nvidia 7nm Gen, die sowieso alles in den Boden stampfen wird.

dildo4u
2019-02-13, 16:16:58
Metro Benches sind da Radeon 7 = RTX 2070.


http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/2/

dargo
2019-02-13, 16:18:21
OK, du sagst, bei einem Forza erreicht keine Grafikkarte ihr übliches Power-Limit? Sprich eine RTX 2080 etwa bleibt weit unter ca 225W?
Zu Turing kann ich nichts genaueres sagen. Habe keine entsprechende Karte. Bei Vega 10 muss man aber echt differenzieren wie ich gerade feststelle. Ich habe mir den Benchmark von FH4 in 1440p, max. Details (4xMSAA, kein FXAA, also meine Spielsettings) mit verschiedenen Settings (nicht mit Grafikoptionen verwechseln) genauer angesehen. Mal alles zusammen gefasst.

FH4 @mein UV
https://abload.de/thumb/fh4_uvgzk9q.jpg (http://abload.de/image.php?img=fh4_uvgzk9q.jpg)

Im Schnitt eine ASIC von 125-130W. Mit gleichen UV Settings bin ich in anderen Games bei 140-160W ASIC. In seltenen Fällen auch mal 160-175W.

Jetzt schauen wir uns das ganze mal bei einer Default V64 LCE an.
https://abload.de/thumb/fh4_default54kke.jpg (http://abload.de/image.php?img=fh4_default54kke.jpg)

Hier sieht man ganz gut, dass das Powermanagement das PT voll ausschöpft weil die LCE im höchstens Boost nunmal bis 1750Mhz gehen darf. Bei der LCE ändert sich also nichts, es sind weiterhin ~345W für die gesamte Karte in dieser Konstellation. Übrigens... die Default V64 LCE ist hier in FH4 2% schneller. Ich müsste also bei meinem UV speziell in FH4 eher Richtung 135-140W ASIC gehen (anstatt max. 920mV dann eher 930-940mV, was dann entsprechend mehr GPU-Takt ergibt) um gleiche Frames wie Default zu erhalten.

Jetzt habe ich mal eine Referenz V64 mit der entsprechenden PP-Table @max. 220W ASIC nachgestellt. Bei mir natürlich ohne TT-Limit. Also eher mit einer Custom V64 vergleichbar die max. 220W ASIC zulässt.
https://abload.de/thumb/fh4_default_220wwpjf4.jpg (http://abload.de/image.php?img=fh4_default_220wwpjf4.jpg)

Sind 195-200W ASIC im Schnitt. Hier wird das volle PT nicht ausgeschöpft. Es ist kein CPU-Limit. Die CPU liefert wesentlich mehr Frames.

Edit:
Argh... sehe gerade hier spackte bei der Nachstellung der 220W Karte was rum, der Speicher blieb in P2 mit 800Mhz stecken. Moment...

So... jetzt aber richtig.
https://abload.de/thumb/fh4_default_220w_1gpk7m.jpg (http://abload.de/image.php?img=fh4_default_220w_1gpk7m.jpg)

Auch ein 220W V10 hängt hier im vollen PT-Limit. Der höhere HBM2-Takt klaut einiges vom Budget beim GPU-Takt. Also zumindest in 1440p laufen die Default Vegas ins volle PT-Limit. Eventuell ändert sich das erst in 1080p. Ich habe mich schon so an die UV Vega gewöhnt, dass ich das Verhalten einer Default Vega völlig vergesse. :redface:

Edit 2:
Bei den beiden letzten Vergleichen fällt mir gerade was interessantes auf.

1608Mhz/800Mhz ist im Prinzip gleich schnell wie 1524Mhz/945Mhz in FH4. Dabei verbraucht ersteres weniger. Hmm... :uponder: Was auch dabei auffällt... die Sprünge in der Spannung beim zweiteren sind wieder so groß wie das halt üblich bei der Telemetrie von AMD ist. Beim ersteren ist die Spannung gleichmäßiger. Irgendwie ist die Telemetrie bei Vega für den Popo. Imho verschenkt AMD hier Leistung bzw. Stromverbrauch.

Mangel76
2019-02-13, 16:19:06
Das entspricht aber nicht der Norm, ich kann eine 2070 auch nochmal undervolten auf 150W. Die Vega 7 verbraucht nunmal out of the Box 250-300W je nach Spiel, ist doch ok, finde ich vollkommen ok, besser als 300-350W oder ähnliches. Und die Leistung stimmt auch + viel Speicher, tolle Karte.

Was denn für eine Norm??? Wusste gar nicht, dass es für TDP-Einstellungen von Grakas ne DIN gibt? Das ist doch nur eine rein ökonomische Entscheidung, die auf einer subjektiven Geschäftsstrategie beruht, und keine feste Norm! Hätte AMD das Limit bei 250W gesetzt hätten, würde sich an der Graka doch grundsätzlich nichts ändern???

OotB ist auch toll! Das kommt immer, wenn es passt. Und im nächsten Moment wird dann erklärt, wie man selbst UV/OC betreibt. Das ist für den Fertig-PC-Käufer interessant, aber doch nicht hier im 3dcenter!

Ex3cut3r
2019-02-13, 16:22:48
Haben Sie aber nicht auf 250W festgesetzt, sondern auf 300W - Das ist der Standard/Norm, was du da mit deinem UV betreibst ist nicht der Auslieferungsstand.

Raff
2019-02-13, 16:22:54
Metro Benches sind da Radeon 7 = RTX 2070.

http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/2/

Najaa. :) Die getestete RTX 2070 ist schneller als eine Frühkäufer-Edition.

MfG,
Raff

Mangel76
2019-02-13, 16:27:30
Haben Sie aber nicht auf 250W festgesetzt, sondern auf 300W - Das ist der Standard/Norm, was du da mit deinem UV betreibst ist nicht der Auslieferungsstand.

Nix Norm, Geschäftsentscheidung, hat aber eben mit der Technik erstmal wenig zu tun.

SKYNET
2019-02-13, 16:30:30
Najaa. :) Die getestete RTX 2070 ist schneller als eine Frühkäufer-Edition.

MfG,
Raff


ich würds ja schön finden, wenn ihr auch mit FE taktraten testen würdet... nicht nur bei NV sondern auch bei den AMD karten... nur um zu sehen wie sich die customs von den referenz designs abheben können... oft sind das ja mehr als 10% differenz... optional wenn keine customs vorhanden, die referenz takten :)

Raff
2019-02-13, 16:32:47
Ist halt +100 Prozent Aufwand für sehr wenig Info, die man mit etwas Transferleistung selbst berechnen kann. IdR reicht die (Überstunden-)Zeit nicht mal für die ersten 100 Prozent. Vor allem nicht gerade jetzt, wo alle drei Minuten irgendein Spiel, eine neue Grafikkarte oder ein DLSS-Patch erscheint. :ugly:

MfG,
Raff

SKYNET
2019-02-13, 16:37:52
Ist halt +100 Prozent Aufwand für sehr wenig Info, die man mit etwas Transferleistung selbst berechnen kann. IdR reicht die (Überstunden-)Zeit nicht mal für die ersten 100 Prozent. Vor allem nicht gerade jetzt, wo alle drei Minuten irgendein Spiel, eine neue Grafikkarte oder ein DLSS-Patch erscheint. :ugly:

MfG,
Raff


darum sagte ich ja, alternativ die FE(VII) mit OC testen, wäre der geringste mehraufwand ;)

*mitriiieeesennnnglubschkulleraugenschau*

https://i.ytimg.com/vi/prCttNi6ve0/maxresdefault.jpg

Raff
2019-02-13, 17:06:17
OC ist auf der Seven selbst mit dem gestrigen WHQL-Treiber broken, es funktioniert nur das Auto-OC. Das ist also Stand jetzt recht witzlos.

MfG,
Raff

[MK2]Mythos
2019-02-13, 17:16:52
An die Radeon 7/RX Besitzer:
Habt ihr euren Prämiencode schon eingereicht? Auf AMDREWARDS.com
werden mir The Division 2, Devil May Cry 5 und Resident Evil 2 nun brav unter "Prämien" angezeigt und werden angeblich freischaltet bei Verfügbarkeit, aber Resident Evil 2 ist doch schon seit dem 25. Januar verfügbar? Mir wird da kein key angezeigt.

Simon
2019-02-13, 17:23:21
Mythos;11925888']An die Radeon 7/RX Besitzer:
Habt ihr euren Prämiencode schon eingereicht? Auf AMDREWARDS.com
werden mir The Division 2, Devil May Cry 5 und Resident Evil 2 nun brav unter "Prämien" angezeigt und werden angeblich freischaltet bei Verfügbarkeit, aber Resident Evil 2 ist doch schon seit dem 25. Januar verfügbar? Mir wird da kein key angezeigt.
Genau das hab ich auch. Auch mit dem Code vom 2600X.

SKYNET
2019-02-13, 17:23:30
OC ist auf der Seven selbst mit dem gestrigen WHQL-Treiber broken, es funktioniert nur das Auto-OC. Das ist also Stand jetzt recht witzlos.

MfG,
Raff

funktioniert über das overlay direkt in den games ebenso... :)

=Floi=
2019-02-13, 18:18:36
ich würds ja schön finden, wenn ihr auch mit FE taktraten testen würdet... nicht nur bei NV sondern auch bei den AMD karten... nur um zu sehen wie sich die customs von den referenz designs abheben können... oft sind das ja mehr als 10% differenz... optional wenn keine customs vorhanden, die referenz takten :)

Die schlechten stock kühler werden doch bald sowieso der vergangenheit angehören. hier lässt man viel zu viel leistung liegen.

Der_Korken
2019-02-13, 18:30:57
Die schlechten stock kühler werden doch bald sowieso der vergangenheit angehören. hier lässt man viel zu viel leistung liegen.

Das hatte ich hier schon mal gefragt: Hat AMD irgendwas verlauten lassen, ob es auch Custom-Designs von der R7 geben wird bzw. nicht geben wird?

Tatwaffe
2019-02-13, 18:32:56
@Der_Korken
http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/News/AMD-Radeon-VII-Powercolor-plant-zwei-Custom-Designs-1274327/

wird aber dauern, schätze so 2-3 Monate.

dildo4u
2019-02-13, 18:40:07
MF hat wieder Karten in Stock für schlanke 790€.

https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+VII.html

=Floi=
2019-02-13, 18:43:58
Das hatte ich hier schon mal gefragt: Hat AMD irgendwas verlauten lassen, ob es auch Custom-Designs von der R7 geben wird bzw. nicht geben wird?

Bei der 7er wird nichts kommen. zu geringe stückzahl und auch bei powerbudget ist hier bei 300w schluß. Warum soll man sich auch navi schlecht machen?!
Navi wird mit einem kompletten lineup durchstarten!

Daredevil
2019-02-13, 18:46:20
Custom Karten sind die Möglichkeit, nochmal 5-10% drauf zuschlagen, selbst bei gleichem Power Limit. ( Geschehen auch bei Vega 64 Ref und Vega 64 Nitro+ )
Wenn die Marge da ist, bekommt man die Karten auch unter die Leute, auch in höherer Stückzahl.

Es macht also durchaus Sinn, das man diesen Weg gehen könnte. Obs dann tatsächlich so ist, kommt auf AMDs Plan an. Der 2080 näher zu kommen bzw. die zu überholen ist sicherlich kein schlechtes Ziel, wenn Navi nur unter 500€ hantiert.

Slipknot79
2019-02-13, 18:51:36
Warum nicht? Was kann AMD dafür, dass Nvidia aktuell keine 7nm GPUs bringt? Vega VII ist direkte Konkurrenz zur RTX 2080. So ist die Lage nun mal aktuell. Kommen neue Karte wird wieder neu verglichen.


Na wenn es seitenweise um Effizienz ged, warum nicht nen Nissan Leaf statt dem Lambo, also ne iGPU nutzen. :cool: Was kann Lambo dafür, wenn Nissan keinen Leaf baut mit 520PS und 25l/100km.
Stattdessen geds hier Seitenweise um: Der Porsche braucht 18l/100km, der Mercedes AMG aber immerhin schon 16l/100km oO :biggrin: :redface:

Ich sollte mal in nem Porscheforum nach derartigen Diskussionen suchen um herauszufinden, was wirklich dahinter steckt oO falls ich überhaupt dazu Lust finde.

AlterSack
2019-02-13, 18:56:09
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-vii/launch-analyse-amd-radeon-vii-seite-3

Das Diagramm mit den Differenzen zur 1080Ti und 2080
ist schon lustig. Es suggeriert riesige Defizite, die so
nicht existent sind.

Achill
2019-02-13, 19:27:31
Hab die Woche schon einmal Feedback von EKWB und AquaComputer bekommen:


Hello,
Thank you for contacting us today.
I know we will be making one I just do not know when exactly, supposedly it is supposed to drop by the end of Q1 i would guess around late March early April.
If you have any other questions or need any additional help please feel free to ask :)
Best regards



Hello,

einen Kühler wird es wahrscheinlich geben. Wann dies der Fall sein wird ist auf Grund der hohen Arbeitsauslastung allerdings leider nicht absehbar. Es dürfte wahrscheinlich einige Wochen dauern.

Mit freundlichen Grüßen


Kling das Kühler definitiv kommen, wird nur noch etwas dauern.

[MK2]Mythos
2019-02-13, 19:37:26
Hab die Woche schon einmal Feedback von EKWB und AquaComputer bekommen:





Kling das Kühler definitiv kommen, wird nur noch etwas dauern.
Je mehr Leute danach fragen, desto wahrscheinlicher wirds jedenfalls. :)

Digidi
2019-02-14, 03:20:53
Auch interessant:
https://www.reddit.com/r/Amd/comments/aq4t33/linux_opengl_driver_radeon_vii_230_faster_rx_480/

Der Simulierte Primitive Shader Rockt ;D

:weg:

dargo
2019-02-14, 04:03:04
Das nenne ich mal Performancesteigerungen. X-D