PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Th3o
2017-11-17, 13:53:35
ich glaube nach wie vor nicht, dass sich Vega RX allzu gut verkauft. Hier sind mMn nur homöopathische Mengen an Zubehör auf dem Markt und die sind zwangsläufig teuer und schnell vergriffen.

Die Preise für die Referenz Designs sind einfach zu hoch.
Wahrscheinlich landet das Meiste bei Apple oder bei den AI Karten.

Mangel76
2017-11-17, 13:58:55
Battlefront 2 Benches mit passenden Treibern.

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/

Nix mit passendem Treiber:
PC Games Hardware wird den Treiber bei Gelegenheit nachtesten. Unsere Benchmarks sind derweil mit 17.11.1 WHQL entstanden, der eigentlich der Call-of-Duty-Treiber ist und dort 5 Prozent mehr bringen sollte.
Quelle (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/News/Treiber-von-AMD-1243848/)

Es gibt den 17.11.2 für Battlefront 2, die Benchmarks sind jedoch noch mit 17.11.1 entstanden.

Pirx
2017-11-17, 14:15:05
die Powercolor bezieht anscheinend die komplette Energie durch den PCIe-Slot:ulol:

Schlammsau
2017-11-17, 14:38:07
Not Bad, mit richtigem Treiber.
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/2/#abschnitt_grafikkartenbenchmarks_von_full_hd_bis_ultra_hd

Die GeForce GTX 1080 Ti ist für Star Wars Battlefront 2 in allen Lebenslagen die schnellste Grafikkarte. Davon abgesehen hat AMD in den jeweiligen Duellen jedoch durchweg die Nase unabhängig von der Auflösung vorn. So ist die Radeon RX Vega 64 zum Beispiel 11 bis 18 Prozent schneller als die GeForce GTX 1080 – je höher die Auflösung, desto größer fällt der Vorsprung aus. Die Radeon RX Vega 56 platziert sich problemlos vor der GeForce GTX 1070 und hält auch die GeForce GTX 1070 Ti um maximal fünf Prozent in Schach. Ab 2.560 × 1.440 legt sich die AMD-Grafikkarte gar mit der GeForce GTX 1080 an.


https://abload.de/thumb/unbenannt9kjhd.jpg (http://abload.de/image.php?img=unbenannt9kjhd.jpg)

von Richthofen
2017-11-17, 14:40:38
Battlefront 2 Benches mit passenden Treibern.

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/

zu spät: Hier passen die Treiber (Crimson 17.11.2) besser, wennauch UHD wieder nur auf "Hoch" getestet wurde:
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/

mule
2017-11-17, 14:46:43
CB hat StarWars BF2 mit dem aktuellen 17.11.2 getestet.
Im Bild beide Ergebnisse (PCGH/CB) für WQHD im direkten Vergleich.

https://abload.de/thumb/fgdsgys08ua1.jpg (http://abload.de/image.php?img=fgdsgys08ua1.jpg)

gedi
2017-11-17, 15:18:40
In BF2@4k ist ne Air-V64 mit HBCC so schnell wie ne 1080Ti - interessant :)

Kartenlehrling
2017-11-17, 15:32:22
Auch der Crimson 17.11.2 beschleunigt das neueste Star-Wars-Spiel, aber in geringerem Umfang.
So legen nur die zwei Vega-Grafikkarten ein Stück an Leistung zu.
Bei den älteren Modellen ändert sich dagegen nichts.
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/2/

Aber auch nur Vega, somit wurde an Vega features gedreht, mir wär immer lieber das würde sich auf alle Graphics Core Next Karten wiederspiegeln und
nicht wie schon bei Nvidia nur auf das neueste Modell.

dildo4u
2017-11-17, 15:45:56
Die 980 Ti ist doch gut dabei.

robbitop
2017-11-17, 15:57:40
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/2/

Aber auch nur Vega, somit wurde an Vega features gedreht, mir wär immer lieber das würde sich auf alle Graphics Core Next Karten wiederspiegeln und
nicht wie schon bei Nvidia nur auf das neueste Modell.

GCN ist wahrscheinlich schon ausoptimiert. VCN hat wahrscheinlich deutlich mehr Reserven da neue mArch. (siehe dsbr, neue CUs, bessere dcc, etc)

G3cko
2017-11-17, 16:36:27
So schlecht stehen die alten GCN Karten doch nicht da. Die 390 hat die GTX970 klar im Griff. Selbst Fiji scheint mit den 4GB gut auszukommen.

iuno
2017-11-17, 16:45:15
GCN ist wahrscheinlich schon ausoptimiert. VCN hat wahrscheinlich deutlich mehr Reserven da neue mArch. (siehe dsbr, neue CUs, bessere dcc, etc)
VCN ist der neue Multimedia/Videoblock (ab Raven). Vega ist natuerlich immer noch GCN. Du meintest vielleicht nCU? so hat AMD mal die neuen CUs bezeichnet.

robbitop
2017-11-17, 17:55:40
Ich meine die Vega mArch. Diese ist ggue den Vorgaengern schon ein ziemlich grosser Sprung.

Digidi
2017-11-17, 18:41:56
Ich meine die Vega mArch. Diese ist ggue den Vorgaengern schon ein ziemlich grosser Sprung.
Ich mag sie nicht, denn sie scheint kaputt zu sein. Wo bleiben die Primitive Shaders? Kein Wort mehr darüber.

gravitationsfeld
2017-11-17, 19:22:02
Die Vega CUs sind doch fast identisch? FP16-Support, aber das war's dann auch schon?

fondness
2017-11-17, 19:36:38
Da hat sich unter der Haube schon mehr getan. Zusätzliche Pipeline stage für höhere Clocks, diverse Optimierungen für mehr IPC (wenn auch nicht näher spezifiziert), 40 neue ISA Instructions, 4xINT8 und eben 2x FP16.

Digidi
2017-11-17, 19:36:40
CB hat StarWars BF2 mit dem aktuellen 17.11.2 getestet.
Im Bild beide Ergebnisse (PCGH/CB) für WQHD im direkten Vergleich.

https://abload.de/thumb/fgdsgys08ua1.jpg (http://abload.de/image.php?img=fgdsgys08ua1.jpg)
Fury X lol

Was ich ja interessant finde mit Polaris schlägt man Pascal während man mit Vega hinter Pascal bleibt

gravitationsfeld
2017-11-17, 20:01:57
Da hat sich unter der Haube schon mehr getan. Zusätzliche Pipeline stage für höhere Clocks, diverse Optimierungen für mehr IPC (wenn auch nicht näher spezifiziert), 40 neue ISA Instructions, 4xINT8 und eben 2x FP16.
Hoehere IPC bei was? Laengere Pipeline erreicht in aller Regel das Gegenteil.

dargo
2017-11-17, 20:08:32
Was ich ja interessant finde mit Polaris schlägt man Pascal während man mit Vega hinter Pascal bleibt
Rechnen ist wohl nicht deine Stärke, gell?

GP106 = 4,74 TFLOPs bei 1850Mhz
P20 = 6,45 TFLOPs bei 1400Mhz (Takt geschätzt da keine genauen Angaben vorhanden)

GP102 = 11,63 TFLOPs bei 1622Mhz
Vega XT Air = 11,47 TFLOPs bei 1400Mhz (Takt geschätzt da keine genauen Angaben vorhanden)

Chaser187
2017-11-17, 20:44:08
Hab mal nen Vega 64 Bios auf meine 56er gemacht und auch da schaltet sich der Lüfter im Idle ab. Scheint also normal zu sein.

horn 12
2017-11-17, 21:01:01
Nun, so wie es scheint neigen sich die Referenz Karten dem Ende zu
Zumindest bei uns in Italien sind viele RX 64 und auch RX 56 nicht mehr lieferbar,- oder gar aus dem Sortiment genommen worden.
Platz für Customs und wohl endlich meinen EIGENEN Treiber
Ist wohl einiges in Anmarch auf Weihnachten.

Die Zeit ist längst überfällig!

Hasenpfote
2017-11-17, 21:37:01
Platz für Customs und wohl endlich meinen EIGENEN Treiber
Ist wohl einiges in Anmarch auf Weihnachten.Wow! Dass Du nach der Zeit noch soviel Vertrauen in AMD ist! Respekt :biggrin:
edit: also wenn On Screen Display Bestandteil Deines Treiber ist, haste wohl recht:
https://mobile.twitter.com/BlazeK_AMDRT/status/931517060466720769/photo/2

:biggrin:

Raff
2017-11-17, 21:54:26
Es ist kein Geheimnis, dass AMD in bestimmten Intervallen große Treiber-Updates veröffentlicht. :) Dass eine grundsätzliche Bremse gelöst wird, die Vega nach vorne katapultiert, ist jedoch eher nicht zu erwarten.

MfG,
Raff

MartinRiggs
2017-11-17, 22:17:32
Stimmt :)
Mal abwarten ob denn wirklich mal irgendwann Customs kommen, AMD ist einfach viel zu spät damit dran.

yamamoto_dc
2017-11-17, 22:36:48
Sieht so aus das AMD den Release der Customs mit einem neuen Treiber-Major-Release unterstützt. So gesehen geht der Vega-Release jetzt in die zweite Phase, sozusagen Vega-Reloaded. :biggrin:

Zergra
2017-11-17, 22:51:52
Dafür müssten erstmal Customs zu kaufen sein + den neuen Treiber. Ich sehe da eher Referenz Design Reloaded ;)

Thunder99
2017-11-17, 23:04:04
Ich glaube nicht das AMD freiwillig Customs zurück hält. Apple hat sicher auch sein Kontingent geordert was AMD wohl vorrangig beliefert.

Aber wenn mehr und mehr Customs angekündigt werden und oder Leaks geben scheint es echt nicht mehr lange zu dauern.

Th3o
2017-11-17, 23:43:30
Es ist kein Geheimnis, dass AMD in bestimmten Intervallen große Treiber-Updates veröffentlicht. :) Dass eine grundsätzliche Bremse gelöst wird, die Vega nach vorne katapultiert, ist jedoch eher nicht zu erwarten.

MfG,
Raff
Wie man bei BF2 sieht, ist Vega 64 gar nicht soweit von der 1080Ti weg. Von daher muss da keine Bremse gelöst werden, sondern die Spieleprogrammierer sollen einfach nur die vorhandene Leistung ausreizen.

Digidi
2017-11-18, 01:00:18
Es ist kein Geheimnis, dass AMD in bestimmten Intervallen große Treiber-Updates veröffentlicht. :) Dass eine grundsätzliche Bremse gelöst wird, die Vega nach vorne katapultiert, ist jedoch eher nicht zu erwarten.

MfG,
Raff
Primitive Shaders?

Hübie
2017-11-18, 01:35:13
Wie man bei BF2 sieht, ist Vega 64 gar nicht soweit von der 1080Ti weg. Von daher muss da keine Bremse gelöst werden, sondern die Spieleprogrammierer sollen einfach nur die vorhandene Leistung ausreizen.

Wait. 99,9% performen auf der 1080 Ti bedeutend besser und du kommst nicht auf die Idee das was nicht in Ordnung ist? :freak:

Im Test von computerbase.de trennen die beiden im Mix sonst ~26% bei Battlefront 2 nur 11% und deine Schlussfolgerung ist dass alle anderen es falsch machen? :| Wie argumentierst du denn wenn es wie bei Forza 7, Wolfenstein 2 (worst case (https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/2/#diagramm-wolfenstein-2-3840-2160-worst-case-testsequenz) sogar 33%) oder Destiny 2 kommt? Versteh mich nicht falsch, aber ich versuche immer Logik und Schlussfolgerungen nachzuvollziehen.

gedi
2017-11-18, 01:48:28
Wait. 99,9% performen auf der 1080 Ti bedeutend besser und du kommst nicht auf die Idee das was nicht in Ordnung ist? :freak:

Im Test von computerbase.de trennen die beiden im Mix sonst ~26% bei Battlefront 2 nur 11% und deine Schlussfolgerung ist dass alle anderen es falsch machen? :| Wie argumentierst du denn wenn es wie bei Forza 7, Wolfenstein 2 (worst case (https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/2/#diagramm-wolfenstein-2-3840-2160-worst-case-testsequenz) sogar 33%) oder Destiny 2 kommt? Versteh mich nicht falsch, aber ich versuche immer Logik und Schlussfolgerungen nachzuvollziehen.

Die Worst Case Geschichte in W2 auf CB wurde bereits thematisiert. Diese Szenerie trifft dich in W2 haargenau 1x. BTW. teste mal Forza mit einer Ti mit HDR 10 - viel Spaß. Destiny läuft abseits der Balken auch auf Vega prächtig und auch hier gilt - teste doch mal mit HDR 10 :D.

Tesseract
2017-11-18, 01:52:00
außerdem testet CB doch mit den throttlenden founders editions, oder? auf anderen seiten mit custom designs liegt die 1080ti eher so 20-25% vor der V64 liquid.

Raff
2017-11-18, 01:54:19
Ich verstehe auch nicht, dass sich da niemand an den fehlenden Taktraten stört. Denn ob eine GTX 1080 Ti FE mit ~1,6 GHz oder ein Custom-Design mit ~1,9 GHz zum Einsatz kommt, ist oft gravierender als der Unterschied Vega 64 Liquid vs. Air ...

MfG,
Raff

gedi
2017-11-18, 02:10:54
Ich verstehe auch nicht, dass sich da niemand an den fehlenden Taktraten stört. Denn ob eine GTX 1080 Ti FE mit ~1,6 GHz oder ein Custom-Design mit ~1,9 GHz zum Einsatz kommt, ist oft gravierender als der Unterschied Vega 64 Liquid vs. Air ...

MfG,
Raff


Ich habe/hatte den Vergleich Ti@2G vs V64@>1.73G. Das schenkt sich in der Summe nichts.

Digidi
2017-11-18, 02:26:37
Ich verstehe auch nicht, dass sich da niemand an den fehlenden Taktraten stört. Denn ob eine GTX 1080 Ti FE mit ~1,6 GHz oder ein Custom-Design mit ~1,9 GHz zum Einsatz kommt, ist oft gravierender als der Unterschied Vega 64 Liquid vs. Air ...

MfG,
Raff
Wenn dann sollte man über gflops reden. Den die Leistung einer GPU ist immer noch Shader Einheiten mal Takt!

Und was viel mehr interessiert als der Takt ist wann die restlichen Features wie Primitive Shaders an sind. Denn ansonsten kannst du noch so viele gflops haben wenn sie nicht vom Frontend gefüttert werden!

Hübie
2017-11-18, 03:12:26
Die Worst Case Geschichte in W2 auf CB wurde bereits thematisiert. Diese Szenerie trifft dich in W2 haargenau 1x. BTW. teste mal Forza mit einer Ti mit HDR 10 - viel Spaß. Destiny läuft abseits der Balken auch auf Vega prächtig und auch hier gilt - teste doch mal mit HDR 10 :D.

Ich kenne keinen Test mit HDR10. Sli wird genau so tot geschwiegen. Wir können immer und immer wieder Kirschen und Rosinen heraus picken. :biggrin: Ändert aber nicht viel.
Jetzt kann man auch anfangen den Preis in Relation zu ziehen und muss sich dann fragen ob man besoffen sein muss 650 für V64 statt 700 für GP102 auszugeben. Aber hey, Schwamm drüber. Am Ende lacht der Käufer weil er sich das ein oder ander Produkt zurecht redet / einstellt. :freak: Subjektivität Ahoi. Volle Kraft voraus.

@Digidi: Gräme dich nicht. StefanV hat auch 2-3 Jahre auf DX12 mit Fermi gewartet und bemerkt dass sein Argument plötzlich Müll ist und keinen Menschen mehr interessiert. X-D

horn 12
2017-11-18, 03:43:08
Der Erfolg von Vega fällt oder kommt ins Rollen zusammen mit den Custom Modellen
UND
eben dem "Relive Redux" Treiber und, oder hoffe ich zusammen mit der Freischaltung Aller Features der Vega Arch.

Schafft man einen Aha bis gar Whow Effekt wird Vega einschlagen, ansonsten wird´s dies wohl gewesen sein!

Vega hat enormes Potential, nur muss dies unterstützt und auch genutzt werden!
Hier hakt, hoffe hakte es gewaltig.

Hübie
2017-11-18, 04:01:32
Vega ist bisher zumindest nicht der "Fiji-done-right" wie er gehandelt wurde. Nach Fiji enttäuscht mich AMD erneut mit geringer Performance und Perf/W auf Maxwell-Niveau.

Schaffe89
2017-11-18, 08:23:29
Wait. 99,9% performen auf der 1080 Ti bedeutend besser und du kommst nicht auf die Idee das was nicht in Ordnung ist? :freak:

Ich wüsste nicht was Battlefront featureseitig besonderes nutzen würde um Vega auszureizen.
Die Engine liegt AMD immer und auch damals schon war eine RX 580 10 teilweise 20% über einer GTX 1060. Dafür gibts genug Titel die viel mehr gespielt werden wo es genau umgekehrt ist.
Wenn Vega nicht ab und zu mal vor einer GTX 1080 liegen würde, dann würde doch irgendetwas falsch laufen.
Das sind die üblichen Schwankungen.

Interessant wären neue Testparcours in den üblichen Redaktionen aber durchaus mal, sofern nicht immer die 0815 Spiele durchlaufen würden.

horn 12
2017-11-18, 08:36:03
Fakt ist das italienische und auch nun Deutsche Online-Shops die Vega RX64 abverkaufen zu versuchen,- die RX 56 gar nicht mehr listen bzw. eher schwierig ist jene zu bekommen, ausser die kleineren Shops welche die Karte noch lagernd haben.
Alternate und Mindfactory sind mit Vega RX64 /56 fast durch und sollten schon Infos zwecks der Lieferung der Vega Customs haben.

Grundkurs
2017-11-18, 08:51:59
Apple hat sicher auch sein Kontingent geordert was AMD wohl vorrangig beliefert.

Dieses Argument fällt häufiger, aber weiß man eigentlich in welchen Stückzahlen Apple seine PCs verkauft? Auch wenn der Eindruck aufgrund IPhone und genereller Medienpräsenz täuschen mag, aber Apple Desktop Systeme waren und sind immer sehr "Nische" gewesen. Was sich etwa bei den Statistiken für genutzte Betriebssysteme zeigt (wo MS noch immer über 90% liegt). Kann mir kaum vorstellen, dass die übrigen "5-10%" der weltweiten Apple-Desktop-Syteme plötzlich alle Vega-Bestände wegfressen, vorallem da ja auch nicht jeder plötzlich aufrüsten wird. Die Ausführungen sind sehr vage, was aber auch daran liegt, dass es in dem Bereich nicht wirklich verlässliche Zahlen gibt.
Daher wundert es mich aber auch, dass hier dauernd sehr zuversichtlich und geradezu selbsterständlich Apple als Grund für den Lieferengpass genannt wird.

Vor dem Hintergrund halte ich es nach wie vor für wahrscheinlicher, dass es keine Customs gibt da es sich für die Partner schlicht nicht sonderlich lohnen wird welche aufzulegen aufgrund des hohen Preises der Karten in der Produktion + der starken Konkurrenz aus dem grünen Lager, das widerum Gift für potentielle Verkäufe ist. Problematisch ist auch, dass soweit man als Partner eine gute und halbwegs bezahlbare Custom auf den Markt wirft, NVidia offensichtlich problemlos sofort über den Preis kontern könnte. Leonidas hat im aktuellen Blog-Eintrag auf 3dcenter ja schon angemerkt, dass eine Preissenkung bei GTX 1070 (Ti) längst überfällig ist. Da überlegt man sich als Partner wahrscheinlich doppelt und dreifach, ob man das Risiko eingeht. Ist aber nur spekuliert, halte dies aber wie gesagt nicht für weniger wahrscheinlich als den "Apple-Grund", warum wir noch keine Customs sehen.

horn 12
2017-11-18, 09:03:04
AMD verkauft nun alles ab, dann sollte Customs für den AMD Preis +10% wohl ausgerufen werden.
Sprich 450 für RX Vega Custom und 550 bis 570 Euro für Custom RX Vega 64
Bringt der Relive Redux Treiber die Leistung auf die Staße bringt NV die Preisanpassung wenig,- da man durchaus schneller ist,-
dies setzt man dann wohl einfach aus,- und wartet auf Ampere...

Oder man lässt einfach weitere Bios Optimierte GTX 1070TI OC Karten zu...
Daher wohl anfangs die Sperre der Biose... bis GTX 1080 weniger auf Lager sind.

hq-hq
2017-11-18, 09:38:42
...
Vor dem Hintergrund halte ich es nach wie vor für wahrscheinlicher, dass es keine Customs gibt da es sich für die Partner schlicht nicht sonderlich lohnen wird welche aufzulegen aufgrund des hohen Preises der Karten in der Produktion + der starken Konkurrenz aus dem grünen Lager, das widerum Gift für potentielle Verkäufe ist. Problematisch ist auch, dass soweit man als Partner eine gute und halbwegs bezahlbare Custom auf den Markt wirft, NVidia offensichtlich problemlos sofort über den Preis kontern könnte...

IMHO hätte es sich schon gelohnt neue Produkte vor Weihnachten zu bringen,
Leistung reicht und fette Kühlkonstruktionen machen die Zusatzheizungen fürs
Büro leise genug. NVidia hat dagegen nur die "uralten" 1000er - mit einer
Ausnahme -> der u.A. aus diesem Grund neu erschienen 1070 Ti.
Bin mir sicher die hätten und würden sich schon gut verkaufen wenn die Preise
auf NVidia Niveau bleiben, oder gar leicht darunter fallen.
Einfach so lässt man sich das Geschäft nicht entgehen, ganz klar, da ist was faul.

Raff
2017-11-18, 11:01:32
Ich habe/hatte den Vergleich Ti@2G vs V64@>1.73G. Das schenkt sich in der Summe nichts.

Jetzt mal unter uns (die anderen bitte wegsehen): ernsthaft? Ich habe ebenfalls einen GP102 und einen V10 hier und da passiert vieles, nur kein Gleichstand. Die täglichen Erfahrungen auf der Arbeit stützen dieses Machtverhältnis. Die zehn Prozent Leistung, welche deine Vega mehr raushaut, ändern daran nichts. Ja, eine ordentlich getunte Vega 64 kommt hier und da in Schlagdistanz einer GTX 1080 Ti mit Referenzkühlung, aber quasi nie an eine mit 2 GHz (und übertaktetem Speicher). Sicher kann man mit wohlselektierten Benchmarks von einem Gleichstand sprechen, aber das ist weder ein realistischer Querschnitt noch objektiv. Dennoch hätte ich gerne eine Liste von dir, wo eine V64 OC an eine 1080 Ti OC kommt, gerne mit Einstellungen und Szene. :)

Ich fänd's auch klasse, wenn Vega stärker wäre, aber das muss von AMD kommen. Global. Sich da was zurechtzubenchen (am besten mit "Schönwetterszenen", also Indoor-Tests mit dreistelligen Fps) bringt niemandem was, der Grafikkarten einfach benutzen und das Beste für sein Geld erhalten will. Für Religionskriege sind Achtungserfolge mit konstruierten Settings natürlich toll, aber wer außerhalb von Foren übt die aus? Ich bin sicher, dass Vega über die Jahre relativ besser wird, aber dennoch ist GP102, aus heutiger Perspektive, ein sportliches Ziel.

MfG,
Raff

tEd
2017-11-18, 11:06:03
Hat jemand schon mal ein paar Benchmarks Launch vs Aktuelle Treiber gemacht?
Würde mich intressieren wieviel Vega durch Treiber zugelegt hat.

Achill
2017-11-18, 11:08:05
Mal eine andere gute Nachricht. Mit dem Linux-Kernel 4.15, der die Tage released wird, ist der benötigte DC (Display Core) Code für Vega, RR und zukünftige AMD GPU von Linus akzeptiert worden (heute Nacht):


Linus Torvalds has accepted the AMDGPU DC display code pull request for the Linux 4.15 kernel. AMD Linux users can now rejoice!
[..]


Damit sehen wir Vega support in Linux out-of-the-box, dies umfasst u.A.: HDMI/DP Audio, FreeSync, Atomic Mode-Setting und bestimmte HDMI 2.0 features.

Thunder99
2017-11-18, 11:25:03
@Grundkurs:

Customs werden sicher kommen. Die Frage ist nur wann genau und in welcher Stückzahl. Letzterer Punkt habe ich deshalb Apple als Grund genannt, da AMD einen Vertrag erfüllen will/muss. Wie stark es auf die derzeitige Situation auswirkt ist reine Spekulation. Aber schwierige Ausbeute + Apple als Kunde könnte da schon wahrscheinlich sein, dass die Partner erst mal in die Röhre schauen.

Wenn die V64(LC) mal in die Nähe kommt oder sogar mal GP102 überflügelt (Cherry Picking), ist dass doch gut, bei dem Preis was die Karte kostet :freak:.

Und btw, wenn HDR10 auf Vega quasi nichts kostet freut euch doch. Irgendein Vorteil muss die Karte doch haben wenn der Rest +/- ok ist ;D

hmmm
2017-11-18, 11:28:44
...
Ws wurde aber auch wirklich Zeit, endlich. Ich freu mich wie ein Schnitzel. ;)

Hübie
2017-11-18, 11:32:57
Jetzt mal unter uns (die anderen bitte wegsehen): ernsthaft? Ich habe ebenfalls einen GP102 und einen V10 hier und da passiert vieles, nur kein Gleichstand. Die täglichen Erfahrungen auf der Arbeit stützen dieses Machtverhältnis. Die zehn Prozent Leistung, welche deine Vega mehr raushaut, ändern daran nichts. Ja, eine ordentlich getunte Vega 64 kommt hier und da in Schlagdistanz einer GTX 1080 Ti mit Referenzkühlung, aber quasi nie an eine mit 2 GHz (und übertaktetem Speicher). Sicher kann man mit wohlselektierten Benchmarks von einem Gleichstand sprechen, aber das ist weder ein realistischer Querschnitt noch objektiv. Dennoch hätte ich gerne eine Liste von dir, wo eine V64 OC an eine 1080 Ti OC kommt, gerne mit Einstellungen und Szene. :)

Ich fänd's auch klasse, wenn Vega stärker wäre, aber das muss von AMD kommen. Global. Sich da was zurechtzubenchen (am besten mit "Schönwetterszenen", also Indoor-Tests mit dreistelligen Fps) bringt niemandem was, der Grafikkarten einfach benutzen und das Beste für sein Geld erhalten will. Für Religionskriege sind Achtungserfolge mit konstruierten Settings natürlich toll, aber wer außerhalb von Foren übt die aus? Ich bin sicher, dass Vega über die Jahre relativ besser wird, aber dennoch ist GP102, aus heutiger Perspektive, ein sportliches Ziel.

MfG,
Raff

Er wird dir mit drei Buchstaben und einer Zahl antworten. :D Vielleicht habt ihr in der Redaktion mal Lust das Thema HDR10 aufzugreifen und Performancemessungen anzustellen..? :D

fondness
2017-11-18, 11:35:19
Wie argumentierst du denn wenn es wie bei Forza 7, Wolfenstein 2 (worst case (https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/2/#diagramm-wolfenstein-2-3840-2160-worst-case-testsequenz) sogar 33%) oder Destiny 2 kommt? Versteh mich nicht falsch, aber ich versuche immer Logik und Schlussfolgerungen nachzuvollziehen.

Bei Wolfenstein 2 gibt es bereits einen Nachtest mit aktuellem Patchstand, der Vega erheblich beschleunigt. Und ich denke das weißt du auch. Forza lag IIRC Vega auch sehr gut.

Jetzt mal unter uns (die anderen bitte wegsehen): ernsthaft? Ich habe ebenfalls einen GP102 und einen V10 hier und da passiert vieles, nur kein Gleichstand. Die täglichen Erfahrungen auf der Arbeit stützen dieses Machtverhältnis. Die zehn Prozent Leistung, welche deine Vega mehr raushaut, ändern daran nichts. Ja, eine ordentlich getunte Vega 64 kommt hier und da in Schlagdistanz einer GTX 1080 Ti mit Referenzkühlung, aber quasi nie an eine mit 2 GHz (und übertaktetem Speicher). Sicher kann man mit wohlselektierten Benchmarks von einem Gleichstand sprechen, aber das ist weder ein realistischer Querschnitt noch objektiv. Dennoch hätte ich gerne eine Liste von dir, wo eine V64 OC an eine 1080 Ti OC kommt, gerne mit Einstellungen und Szene. :)

Ich fänd's auch klasse, wenn Vega stärker wäre, aber das muss von AMD kommen. Global. Sich da was zurechtzubenchen (am besten mit "Schönwetterszenen", also Indoor-Tests mit dreistelligen Fps) bringt niemandem was, der Grafikkarten einfach benutzen und das Beste für sein Geld erhalten will. Für Religionskriege sind Achtungserfolge mit konstruierten Settings natürlich toll, aber wer außerhalb von Foren übt die aus? Ich bin sicher, dass Vega über die Jahre relativ besser wird, aber dennoch ist GP102, aus heutiger Perspektive, ein sportliches Ziel.

MfG,
Raff

Laut gedi sieht das mit HDR10 anders aus. Aber das testet warum auch immer niemand.

hmmm
2017-11-18, 11:37:33
...(die anderen bitte wegsehen)...
Sorry, konnte ich nicht. ;)
Aber mal wirklich unter uns:
1) Benchmarks idR mit mehreren GameWorks Titteln.
2) ca 20 Sekunden geradeaus laufen, also idR ohne auch nur einen "Szenenwechsel" und damit Cachelastig, was Nvidia ja nun wirklich gut kann.
3) Ohne feature des Konkurrenten MaxTessellation Option

1+2+3 = Ja, da geht es Nvidia richtig gut.

Daredevil
2017-11-18, 11:48:05
Bei Conrad kommt man momentan mit dem "Google Home Mini ab 150€ gratis" an Vega Karten mit nem guten Preis.

dildo4u
2017-11-18, 12:01:12
Bei Wolfenstein 2 gibt es bereits einen Nachtest mit aktuellem Patchstand,
Raff hat doch gesagt das es auf die Testszene ankommt,selbst mit dem Patch gibt es Stellen wo NV vorne ist.Also jetzt muss man für optimale Vega Performance sich nicht nur auf ein bestimmtes Game beschränken sondern auch noch auf bestimmes Level.Es wird immer absurder.

http://abload.de/img/wolfensteinnpbja.png

Grendizer
2017-11-18, 12:06:34
Bei Wolfenstein 2 gibt es bereits einen Nachtest mit aktuellem Patchstand, der Vega erheblich beschleunigt. Und ich denke das weißt du auch. Forza lag IIRC Vega auch sehr gut.



Laut gedi sieht das mit HDR10 anders aus. Aber das testet warum auch immer niemand.


Weil vermutlich 80% der Zocker auf einem 149 Euro FHD Monitor zocken. Ambitionierte Zocker nutzen dann QHD oder 4k und noch ein geringer Anteil hat dann auch noch das passende adaptiv Sync für seine Grafikkarte.

Der Anteil von HDR Monitoren ist doch im Promillebereich zu sehen.

Hübie
2017-11-18, 12:07:15
Bei Wolfenstein 2 gibt es bereits einen Nachtest mit aktuellem Patchstand, der Vega erheblich beschleunigt. Und ich denke das weißt du auch. Forza lag IIRC Vega auch sehr gut.

Korrekt. Mit Patch 2 wurde Vega beschleunigt und Pascal wohl gebremst:

https://www.computerbase.de/2017-11/wolfenstein-2-vega-benchmark/#diagramm-async-compute-2560-1440-worst-case-testsequenz

Bei Forza haben viele dann geschrien wie toll Vega ist, dann kommt n neuer Treiber für Pascal und die Stimmen verstummen und schreien Wolfenszein 2. Als nächstes kommt Battlefront 2. Long Story short: Abwarten und vielleicht gibt es in einem halben Jahr (oder so) mal eine Performance-Betrachtung ohne Flicken und Treibergewusel. Vielleicht wenn Amperé draußen ist. Bis dahin gibt's eventuell auch den 'digidi'- und 'horn12'-Treiber. :D

Laut gedi sieht das mit HDR10 anders aus. Aber das testet warum auch immer niemand.

Wundert mich auch. Sonst sind die YouTuber doch so findig wenn es um Tagesthemen geht... :|

dargo
2017-11-18, 12:22:00
Raff hat doch gesagt das es auf die Testszene ankommt,selbst mit dem Patch gibt es Stellen wo NV vorne ist.Also jetzt muss man für optimale Vega Performance sich nicht nur auf ein bestimmtes Game beschränken sondern auch noch auf bestimmes Level.Es wird immer absurder.

Lol... der Witz des Jahres. ;D ;D ;D

Was macht denn die PCGH oder CB & Co? Die testen eine einzige, lausige Szene (wenn du Glück hast auch zwei) und du (da bist du aber nicht alleine, siehe Hübie bsw.) überträgst das Ergebnis auf das gesamte Spiel. :uclap:

Die Youtuber müssen es wieder richten da die Redaktionen damit überfordert sind. Das Video ist übrigens noch ohne den aktuellen Patch der Vega laut CB bis zu 22% beschleunigt.
WC_nxwtrrVk

Das geilste war wieder bei der PCGH mit Battlefront 2... Hauptsache erster sein und mit dem Crimson 17.11.1 getestet. :uup:


Bei Forza haben viele dann geschrien wie toll Vega ist, dann kommt n neuer Treiber für Pascal und die Stimmen verstummen und schreien Wolfenszein 2.
Wo bleibt dann der Wundertreiber für The Evil Within 2 für die Geforces? :rolleyes: Und warum testet niemand Forza mit neueren Treibern bei Vega?

Screemer
2017-11-18, 12:35:22
Raff hat doch gesagt das es auf die Testszene ankommt,selbst mit dem Patch gibt es Stellen wo NV vorne ist.Also jetzt muss man für optimale Vega Performance sich nicht nur auf ein bestimmtes Game beschränken sondern auch noch auf bestimmes Level.Es wird immer absurder.

http://abload.de/img/wolfensteinnpbja.png

Bei sowas frag ich mich immer ob das auch bei nv die worst case Stelle ist. Weil nur nach gammel auf einer Seite zu suchen ist halt irgendwie mmmhh.

Raff
2017-11-18, 12:58:07
Die Youtuber müssen es wieder richten da die Redaktionen damit überfordert sind. Das Video ist übrigens noch ohne den aktuellen Patch der Vega laut CB bis zu 22% beschleunigt.
http://youtu.be/WC_nxwtrrVk

Youtuber to the rescue! Da möchte ich mal einen 20-Modelle-Vergleich sehen (bei 20 Spielen in 2-4 Auflösungen), der akkurat nachgespielt und dann zu einem Index verrechnet wird. Wie gut, dass die erfahrenen Idioten der Redaktionen so einfach ersetzt werden können. ;D Die faseln immer was von "viel Arbeit", dabei ist das so einfach!

Bei sowas frag ich mich immer ob das auch bei nv die worst case Stelle ist. Weil nur nach gammel auf einer Seite zu suchen ist halt irgendwie mmmhh.

An dieser Stelle eine ganz alte Frage bzw. Problemstellung:

Ein Spiel hat zehn Level. 9 davon laufen mit 80 Fps, eines davon mit 50. Was benche ich? Interessiert es wirklich, ob IHV auf 48 fällt, der andere auf 53? Fakt ist, dass es hier drauf ankommt. Ist dieses Level dann kritisch und somit beachtenswert ... oder ist es völlig wurst, weil 90 Prozent des Spiels besser laufen?

MfG,
Raff

dargo
2017-11-18, 12:59:59
Lenke nicht vom Thema ab. Falls es bei dir falsch ankam... ich möchte nicht unbedingt euch was vorwerfen sondern eurer Leseschaft die nicht in der Lage ist Schlüsse aus euren Benchmarks zu ziehen. Denn es ist nichts weiter als eine bis zwei kurze Szene(n) von zig Stunden Spielzeit die sich (wie man in vielen Videos sieht) komplett anders verhalten können.

Mancko
2017-11-18, 13:04:03
Raff hat doch gesagt das es auf die Testszene ankommt,selbst mit dem Patch gibt es Stellen wo NV vorne ist.Also jetzt muss man für optimale Vega Performance sich nicht nur auf ein bestimmtes Game beschränken sondern auch noch auf bestimmes Level.Es wird immer absurder.

http://abload.de/img/wolfensteinnpbja.png

Das Problem ist doch eh, dass wir doch zum großen Teil von einer 1080 reden. Hey das ist ein Billigteil im Vergleich zum Hardwareaufwand bei Vega. Ist eh schon schlimm genug, dass AMD da nicht so richtig vorbeikommt. Das ist eine Performance Karte. Sowas lief früher im Preissegment 250 bis 400 Euro je nach Version. Der einzige Grund warum da mehr preislich für Nvidia geht ist doch genau die bescheidene Performance der Konkurrenz und das noch viel bescheidenere Performance/Watt Verhältnis.

Raff
2017-11-18, 13:04:41
Das geilste war wieder bei der PCGH mit Battlefront 2... Hauptsache erster sein und mit dem Crimson 17.11.1 getestet. :uup:

Die Schuld liegt bei AMD, nicht bei PCGH: http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/493461-star-wars-battlefront-2-unsere-effektgeladenen-und-anspruchsvollen-singleplayer-benchmarks-zum-launch.html#post9128599 (#3) Das einzige Problem dabei ist, dass AMD immer als die heilige Kuh und die PCGH immer als die Propagandamaschinerie Nvidias dargestellt wird. Wie Computerbase über Nacht mehrere Grafikkarten mit dem 17.11.2 testen konnte, erschließt sich mir nicht. Das Misstrauen ist aber für die PCGH reserviert. Und zwar nur aus dem Grund, dass dort AMD schlechter dasteht.

MfG,
Raff

Mancko
2017-11-18, 13:08:27
Lenke nicht vom Thema ab. Falls es bei dir falsch ankam... ich möchte nicht unbedingt euch was vorwerfen sondern eurer Leseschaft die nicht in der Lage ist Schlüsse aus euren Benchmarks zu ziehen. Denn es ist nichts weiter als eine bis zwei kurze Szene(n) von zig Stunden Spielzeit.

Szene und Benchweise hin oder her. Es ändert am Gesamtergebnis 1080 > Vega nichts und schon gar nicht 1080Ti größer Vega. Da kannst Du benchen was du willst. Es ist einfach extrem bescheiden wie wenig Performance AMD aus so einem riesen Teil rausholt. Schau Dir doch nur mal die Vega64 Grakas an und vergleiche das mit der billigen 1080. Das sagt doch alles. Nvidia hat hier einfach die Konkurrenz im Gaming aus Engeneering Perspektive komplett ausgekontert mit extrem intelligenten Design Entscheidungen. Normalerweise müsste bei dem Aufwand eine Vega64 vor allem noch als LV Variante signifikant über einer 1080Ti liegen. Die liegt aber im Schnitt noch nichtmal signifikant über einer 1080. Das ist einfach schlecht!

iuno
2017-11-18, 13:43:55
Mal eine andere gute Nachricht. Mit dem Linux-Kernel 4.15, der die Tage released wird, ist der benötigte DC (Display Core) Code für Vega, RR und zukünftige AMD GPU von Linus akzeptiert worden (heute Nacht):



Damit sehen wir Vega support in Linux out-of-the-box, dies umfasst u.A.: HDMI/DP Audio, FreeSync, Atomic Mode-Setting und bestimmte HDMI 2.0 features.
Und das (noch) ganz ohne Murren ;)
Nur zur Klarstellung fuer die anderen: der neue Display stack mit allen gelisteten neuen Funktionen laesst sich auch mit aelteren GPUs benutzen, ist dort nur nicht standardmaessig aktiv. Man muss dafuer aber zukuenftig nur noch einen Parameter setzen anstatt einen extra Kernel zu verwenden.
Und noch eine kleine Anmerkung was FreeSync angeht: da fehlt es noch etwas Arbeit auf userspace Seite bis es dann auch wirklich ootb funktioniert.

unl34shed
2017-11-18, 13:45:27
Leider sind die "intelligenten Designentscheidungen" nur von Vorteil für Nvidia.
- Was hat der Gamer von Physix, bei dem die neusten Effekte nur wirklich gut auf deren Highend Karten laufen?
- Was hat der Gamer davon sich mit G-Sync an einen Hersteller zu binden, anstelle des offenen Standards?
- Was hat der Gamer davon, eine super abgespeckte GPU zu besitzen, die bei der nächsten API nicht mehr mithalten kann?
- Was hatten Gamer davon, dass Nvidia Karten in der Vergangenheit immer deutlich weniger Speicher hatten und dadurch früher getauscht werden mussten?
Also aus Gamer Sicht "intelligent"? am Arsch

sorry fürs Off-Topic

Thunder99
2017-11-18, 13:57:49
Oh man, wie viele vergessen, dass AMD ein Cip für zwei Segmente entwickelt hat und Nvidia für zwei Segmente zwei Chips? :rolleyes: :mad: AMD muss Gamer und Workstation bedienen mit Vega, Nvidia kann sich GP100 leisten und baut GP102-106 primär für Spieler!

@Raff:
Wie man es macht ist es falsch :freak:. Ich finde euch eines der besten Redaktionen da ihr konstant gute Arbeit liefert und immer argumentiert warum ihr X oder Y macht :up:

fondness
2017-11-18, 14:02:05
Das Misstrauen ist aber für die PCGH reserviert. Und zwar nur aus dem Grund, dass dort AMD schlechter dasteht.


Das Problem ist - und tut mir Leid, das lässt sich mit Sicherheit auch statistisch erfassen - dass bei euch NV auffällig oft besser liegt. Woran das liegt, keine Ahnung.

Was macht denn die PCGH oder CB & Co? Die testen eine einzige, lausige Szene (wenn du Glück hast auch zwei) und du (da bist du aber nicht alleine, siehe Hübie bsw.) überträgst das Ergebnis auf das gesamte Spiel. :uclap:


Das ist ein generelles Problem, dem leider viel zu wenig Beachtung geschenkt wird. Der Test einer Szene ist viel zu wenig, um die Performace in einem Spiel zu bewerten, leider werden daraus Pauschalurteile gefällt.

akuji13
2017-11-18, 14:26:20
Wieviele sollten es stattdessen sein?
3? 5? Warum dann nicht 10?
Oder warum bei 30 leveln oder Gebieten dann nicht jeweils 1 für out- und indoor...

Das generelle Problem ist das die größten Schreihälse nur jeweils 1 Karte eines Herstellers haben. ;)

fondness
2017-11-18, 14:28:29
Wieviele sollten es stattdessen sein?
3? 5? Warum dann nicht 10?
Oder warum bei 30 leveln oder Gebieten dann nicht jeweils 1 für out- und indoor...

Das generelle Problem ist das die größten Schreihälse nur jeweils 1 Karte eines Herstellers haben. ;)

Ich habe nirgends mehr Szene gefordert. Es ist schon klar, dass das viel zu aufwändig wäre. Ich habe nur gesagt das Problem ist, dass daraus Pauschalurteile gefällt werden. So nach dem Motto "Karte xy im Spiel xy schneller als Karte sdf". Ein solches Schluss ist einfach nicht machbar anhand einer 10 Sekunden Testszene.

Im übrigen kannst du dir den letzten Satz sparen. Ich habe nirgends geschrien, und wieviele Karten ich habe spielt für diese Diskussion wohl keine Rolle. Aber klar, ist natürlich einfacher jemanden blöd anzumachen, anstatt sich einer inhaltlichen Diskussion zu stellen.

Digidi
2017-11-18, 14:36:35
Die Schuld liegt bei AMD, nicht bei PCGH: http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/493461-star-wars-battlefront-2-unsere-effektgeladenen-und-anspruchsvollen-singleplayer-benchmarks-zum-launch.html#post9128599 (#3) Das einzige Problem dabei ist, dass AMD immer als die heilige Kuh und die PCGH immer als die Propagandamaschinerie Nvidias dargestellt wird. Wie Computerbase über Nacht mehrere Grafikkarten mit dem 17.11.2 testen konnte, erschließt sich mir nicht. Das Misstrauen ist aber für die PCGH reserviert. Und zwar nur aus dem Grund, dass dort AMD schlechter dasteht.

MfG,
Raff

Mal sehen ob Ihr hier genau so nachbencht wie bei Wolfenstein wo Nvidia den neuen Treiber rausgebracht hat!?

CB hat vielleicht mehre Mainboards mit dem gleichen Setup? Da kann man dann 4 Benchmarks gleichzeitig laufen lassen.

Ich hoffe das mit dem Redux Treiber endlich die restlichen Features wie Primitive Shaders kommen.

Screemer
2017-11-18, 14:46:00
An dieser Stelle eine ganz alte Frage bzw. Problemstellung:

Ein Spiel hat zehn Level. 9 davon laufen mit 80 Fps, eines davon mit 50. Was benche ich? Interessiert es wirklich, ob IHV auf 48 fällt, der andere auf 53? Fakt ist, dass es hier drauf ankommt. Ist dieses Level dann kritisch und somit beachtenswert ... oder ist es völlig wurst, weil 90 Prozent des Spiels besser laufen?

MfG,
Raff
das ist nicht kern meiner fragestellung. die frage ist eher ob es stellen gibt, die auf jeweils auf einem ihv schlecht als als auf dem anderen laufen. sucht man solche stellen und stellt sie gegegnüber. z.b. (Fall1) gibt es eine stelle die auf ihv A 30% besser performt als auf ihv B und gibt es wiederum (Fall 2) eine andere stelle bei der sich das Bild eben in die andere Richtung dreht, dass ihv B 30% besser performt als ihv A. ist das so, dann müssen beide benchszenen in seperaten diagrammen ausgewiesen werden, denn stellt man nur Fall 1 dar drängt sich der eindruck auf, dass ihv A in jeglicher szene des spiels besser performt.

zu deinen schlägen richtung cb. hier im forum hat cb so viel fett abbekommen, dass ihr euch da wahrlich nicht als einziger empfänger von kritik sehen müsst. deinen post von oben kann ich deshalb überhaupt nicht nachvollziehen. von der frage wie cb es geschaft hat in einer nacht alle amd gpus mit neuem treiber durchzubenchen.

Argo Zero
2017-11-18, 14:48:22
Bleibt mal bitte auf einer sachlichen Ebene (akuji13 & fondness)

Th3o
2017-11-18, 14:52:00
Wait. 99,9% performen auf der 1080 Ti bedeutend besser und du kommst nicht auf die Idee das was nicht in Ordnung ist? :freak:

Im Test von computerbase.de trennen die beiden im Mix sonst ~26% bei Battlefront 2 nur 11% und deine Schlussfolgerung ist dass alle anderen es falsch machen? :| Wie argumentierst du denn wenn es wie bei Forza 7, Wolfenstein 2 (worst case (https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/2/#diagramm-wolfenstein-2-3840-2160-worst-case-testsequenz) sogar 33%) oder Destiny 2 kommt? Versteh mich nicht falsch, aber ich versuche immer Logik und Schlussfolgerungen nachzuvollziehen.
Wenn Vega 64 bei BF2 nur 11% hinter einer 1080Ti ist, dann bedeutet das, dass die Leistungsfähigkeit der Vega 64 so schlecht nicht sein kann. Dabei nehme ich an, dass Nvidia in BF2 auch gut performt. Wenn bei einem anderem Spiel Vega 64 30% hinter einer 1080Ti ist, kann das nur bedeuten, dass dieses Spiel die in BF2 erwiesene Leistung der Vega 64 nicht abruft. Die Programmierer dieses Spiels machen es vielleicht nicht ganz falsch, aber mit Sicherheit nicht ganz richtig.

aufkrawall
2017-11-18, 14:57:57
Die Wolfenstein-Szene in New York mit dem Blick zurück in den Himmel ist einfach schwachsinnig, weil da überhaupt kein Gameplay stattfindet. Eine sinnvollere fordernde Szene wäre etwa die Straßen in New Orleans.

Die Launch-Tests mit Pascal und aktiviertem Async Compute und deaktiviertem Deferred Rendering sind aber btw. auch unsinnig, weil nicht optimale Settings. Hätte der Spiele-Entwickler natürlich für GeForces auch standardmäßig gleich so einstellen können...

Kriton
2017-11-18, 15:33:54
Youtuber to the rescue! Da möchte ich mal einen 20-Modelle-Vergleich sehen (bei 20 Spielen in 2-4 Auflösungen), der akkurat nachgespielt und dann zu einem Index verrechnet wird. Wie gut, dass die erfahrenen Idioten der Redaktionen so einfach ersetzt werden können. ;D Die faseln immer was von "viel Arbeit", dabei ist das so einfach!


Deswegen verstehe ich auch (wirklich) nicht, warum man nicht (nur) die Referenz testet. Die Customs kann man sich ja vergleichsweise gut hochrechnen. Von mir aus auch einen Nebentest machen (der nicht immer mit den aktuellen Spielen aktualisiert werden muss, das Verhältnis zueinander innerhalb einer einzelnen Kartenserie wird sich ja nicht großartig ändern), um die alle einmal zueinander ins Verhältnis zu setzen und gut ist.
Dann lieber hinsichtlich des eigentlichen Benchmarks ausführlicher.

Das ist aber ein allgemeiner Punkt, nicht nur bei Euch.

Mancko
2017-11-18, 15:39:03
Leider sind die "intelligenten Designentscheidungen" nur von Vorteil für Nvidia.
- Was hat der Gamer von Physix, bei dem die neusten Effekte nur wirklich gut auf deren Highend Karten laufen?


Ist doch bei AMD nicht anders. Das nennt man Verkaufsanreize setzen und zum anderen hat das auch einfach was mit der Leistungsfähigkeit der Hardware zu tun. Es ist selbstredend, dass alte Hardware bei neuen aufwändigen Effekten nicht die gleiche Leistung abrufen kann wie neue. Regst Du dich etwa darüber auf, dass du alle 2 Jahre ein neues Smartphone brauchst weil das alte hinüber ist, sei es durch Probleme mit dem Akku, Micro oder der Antenne oder weil es einfach zu langsam wird?


- Was hat der Gamer davon sich mit G-Sync an einen Hersteller zu binden, anstelle des offenen Standards?


Hier hat der Gamer schlichtweg die technisch nach wie vor bessere Lösung. Ganz simpel und einfach.


- Was hat der Gamer davon, eine super abgespeckte GPU zu besitzen, die bei der nächsten API nicht mehr mithalten kann?


Bis zur nächsten API hat er eine neue GPU. Außerdem ist Deine Aussage schlichtweg zu pauschal. Anders herum kannst ja gleich sagen, dass er auch nichts davon hat wenn seine neue GPU in der aktuellen API schlichtweg nicht mithalten kann.


- Was hatten Gamer davon, dass Nvidia Karten in der Vergangenheit immer deutlich weniger Speicher hatten und dadurch früher getauscht werden mussten?

Fury ahoi....

Am Ende ist völlig klar, dass die GPUs so designt werden, dass sie nach 3 bis 4 Jahren spätestens für Aufrüstdruck beim Kunden sorgen. Das ist einfach klug und richtig. Im Vergleich zu SmartPhones ist das mehr als human.

Mit den richtigen Designentscheidungen war jedoch mal grundsätzlich gemeint, dass Nvidia einfach erheblich mehr Performance aus 1 Watt und auch aus 1qmm DIE Fläche sowie aus dem zugehörigen Speicherinterface herausholt. Und genau hier liegt AMD derzeit um Welten dahinter. Daher ist und bleibt Vega definitiv im Gaming ein Fail.

Aufwand und Nutzen + Zeitverzug sind einfach in einem extrem schlechten Verhältnis. In ein paar Jahren wird auch AMD das rückblickend zugeben. Ich erwarte von ihnen nicht, dass sie das im Augenblick tun. Das ändert jedoch nichts an der aktuellen Situation und dem logischen Fazit zu dem man kommen muss.

Digidi
2017-11-18, 15:44:46
Hier hat der Gamer schlichtweg die technisch nach wie vor bessere Lösung. Ganz simpel und einfach.


Seit wann ist GSync die "technisch" bessere Lösung? Ich glaube GSync war sogar schlechter als Freesync

https://www.youtube.com/watch?v=MzHxhjcE0eQ

dildo4u
2017-11-18, 15:48:07
Die Schuld liegt bei AMD, nicht bei PCGH: http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/493461-star-wars-battlefront-2-unsere-effektgeladenen-und-anspruchsvollen-singleplayer-benchmarks-zum-launch.html#post9128599 (#3) Das einzige Problem dabei ist, dass AMD immer als die heilige Kuh und die PCGH immer als die Propagandamaschinerie Nvidias dargestellt wird. Wie Computerbase über Nacht mehrere Grafikkarten mit dem 17.11.2 testen konnte, erschließt sich mir nicht. Das Misstrauen ist aber für die PCGH reserviert. Und zwar nur aus dem Grund, dass dort AMD schlechter dasteht.

MfG,
Raff
Guru 3D hat welche mit 17.11.2 und NV sieht trotzdem besser aus als bei CB.
Das selbe wie bei Wolfenstein es ist Szenenabhänig.

http://www.guru3d.com/articles_pages/star_wars_battlefront_ii_2017_pc_graphics_analysis_benchmark_review,5.html

aufkrawall
2017-11-18, 15:49:54
Seit wann ist GSync die "technisch" bessere Lösung? Ich glaube GSync war sogar schlechter als Freesync

https://www.youtube.com/watch?v=MzHxhjcE0eQ
Gibt genug Tests, die 0 Unterschied beim Input Lag zwischen FS & GS zeigen. Da musst du natürlich ausgerechnet den nehmen...

Linmoum
2017-11-18, 15:56:33
Jaja, wie üblich ...
Es ist grundsätzlich natürlich möglich, dass es hinsichtlich eines Treibers zeitlich manchmal nicht hinhaut. Das ist nun wahrlich keine große Sache.

CB hat es allerdings geschafft, mit dem 17.11.2 umfangreiche Benchmarks zu veröffentlichen und das am selben Tag wie PCGH. Insofern sollte man dann vielleicht nicht die Schuld auf einen Hersteller schieben, wenn andere es zeitlich hinbekommen haben. Wenn man dazu dann noch berücksichtigt, dass der GPU-Part bei CB in diesem Fall deutlich umfangreicher ausfällt... Dafür hat PCGH im Gegenzug eben noch etwas zur Kern-Skalierung.

Viel entscheidender als die Frage nach irgendwelchen Treibern ist aber: Man sieht doch hier wiederum schön, wie sehr man wirklich langsam von einzelnen, kurzen Benchmarkszenen wegkommen sollte. Bei CB ist die 1070 1% flotter als 'ne Fury X, bei PCGH sind's plötzlich satte 35%. Und nein, Custom vs. Referenz erklärt so einen eklatanten Unterschied nicht einmal im Ansatz. Welchen der beiden Benchmarks soll man also nun zu einer passenden Einschätzung des Leistungsvermögens nehmen?

Hier hat der Gamer schlichtweg die technisch nach wie vor bessere Lösung. Ganz simpel und einfach.
Hier hat Mancko schlichtweg wieder nach wie vor keine Ahnung. Ganz simpel und einfach.

dildo4u
2017-11-18, 16:00:53
PCGH testet ne extrem schnelle 1070 fast 2Ghz,bei Star Wars ist die 1070 Ti nur 10% schneller.
Vega 56@1.3Ghz vs 2Ghz 1070 das kommt schon hin.

scully1234
2017-11-18, 16:27:33
Gibt genug Tests, die 0 Unterschied beim Input Lag zwischen FS & GS zeigen. Da musst du natürlich ausgerechnet den nehmen...

dito

https://www.youtube.com/watch?v=mVNRNOcLUuA

BeetleatWar1977
2017-11-18, 16:46:53
Soderle...

Star Wars Battlefront 2 - 2160p Ultra Settings, Über Treiber Quali hoch+16xAF
Vega56@UV Sustained Clocks ~1500 HBM925

18-11-2017, 16:40:53 starwarsbattlefrontii.exe benchmark completed, 12617 frames rendered in 228.343 s
Average framerate : 55.2 FPS
Minimum framerate : 45.3 FPS
Maximum framerate : 332.0 FPS
Max FPS leider ein Ausreißer, da ich zu spät gestoppt habe(Auf Zwischensequenz umgeschaltet). Level war Rettung der Dauntless, Abschnitt Zerstörung der Ionenkanone.....
Treiber 17.11.1 nachher folgt nochmal dasselbe mit .2 ......

Edit: DX11



So, nochmal in DX12:

18-11-2017, 17:05:17 starwarsbattlefrontii.exe benchmark completed, 10655 frames rendered in 222.812 s
Average framerate : 47.8 FPS
Minimum framerate : 31.4 FPS
Maximum framerate : 55.8 FPS

dargo
2017-11-18, 16:53:06
Guru 3D hat welche mit 17.11.2 und NV sieht trotzdem besser aus als bei CB.
Das selbe wie bei Wolfenstein es ist Szenenabhänig.

http://www.guru3d.com/articles_pages/star_wars_battlefront_ii_2017_pc_graphics_analysis_benchmark_review,5.html
Die testen dort das kaputte DX12. Verliert NV @DX12 dort etwa weniger als AMD im Vergleich zu DX11? :D

dildo4u
2017-11-18, 17:05:28
Laut dem lief es bei ihnen normal vermutlich wurde es deshalb genutzt:


http://www.guru3d.com/articles_pages/star_wars_battlefront_ii_2017_pc_graphics_analysis_benchmark_review,8.html

Daredevil
2017-11-18, 17:41:18
Sagt mal eben bitte, wenn ich den WattTool nutze und den Afterburner im Hintergrund habe, muss ich die WattTool Settings jedes mal neu aufrufen? Also den Spannungskram.

Digidi
2017-11-18, 17:41:20
Laut dem lief es bei ihnen normal vermutlich wurde es deshalb genutzt:


http://www.guru3d.com/articles_pages/star_wars_battlefront_ii_2017_pc_graphics_analysis_benchmark_review,8.html
Normal bei denen Spikes in den Frametimes ??? ;D

Hübie
2017-11-18, 18:16:51
Hab den Test bei Guru3d nur überflogen, aber sind die besoffen? Warum vergleicht man ne Nano DX11 vs 12 und dann ne 1070 sowie TXp? :| Da wären Polaris und Vega deutlich interessanter zumal die bedeutend mehr Verbreitung haben dürften (zumindest bei Polaris kann man sich dessen Gewiss sein).

dildo4u
2017-11-18, 18:20:26
Normal bei denen Spikes in den Frametimes ??? ;D
Da ist ein Video auf der 1080 dabei sieht sauber aus.

With this chart, lower = better. Huge spikes above 40 ms to 50 ms can be considered a problem like a stutter or indicate a low framerate. It's all good fairly here. For the GeForce GTX 1080, we cannot see a significant enough glitch or stutter in frame-time scaling (chart wise) that is significant or long-lasting. The small spikes are shots fired and me zooming into the sniper mode of the rifle (and firing).

Armaq
2017-11-18, 19:06:12
Die Schuld liegt bei AMD, nicht bei PCGH: http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/493461-star-wars-battlefront-2-unsere-effektgeladenen-und-anspruchsvollen-singleplayer-benchmarks-zum-launch.html#post9128599 (#3) Das einzige Problem dabei ist, dass AMD immer als die heilige Kuh und die PCGH immer als die Propagandamaschinerie Nvidias dargestellt wird. Wie Computerbase über Nacht mehrere Grafikkarten mit dem 17.11.2 testen konnte, erschließt sich mir nicht. Das Misstrauen ist aber für die PCGH reserviert. Und zwar nur aus dem Grund, dass dort AMD schlechter dasteht.

MfG,
Raff
Was auch berechtigt war. Mehrere Male wurdet ihr daraufhin gewiesen, warum ne 1080 mit viel OC in einem Vergleich auftauchte, wo andere Karten nur @stock waren. Das wurde jedes Mal mit Zeit begründet, aber warum für die entscheidenden Stunden, denn länger ist die Halbwertszeit solcher Infos nicht, eine sehr gute 1080 genommen wurde... Ich betreibe übrigens selbst eine 1080 mit 2Ghz und such mir die auch raus, aber wenn da 3 Karten stehen und eine ist 480, nbe 1060 und ne 1080 auf Crack, dann ist die Frage berechtigt.

Raff
2017-11-18, 19:08:14
Ich verstehe nicht, was du meinst. In dem Benchmark mischen nur Custom-Designs mit, sofern solche existieren. Keine Karte ist manuell übertaktet oder sonstwie modifiziert. Alle Karten müssen vor den Messungen eine Aufheizphase über sich ergehen lassen. Wenn die erste Vega 56 abseits der Referenzversion erscheint, taucht sie bei solchen Spieletests auf. :)

MfG,
Raff

gedi
2017-11-18, 19:08:36
Jetzt mal unter uns (die anderen bitte wegsehen): ernsthaft? Ich habe ebenfalls einen GP102 und einen V10 hier und da passiert vieles, nur kein Gleichstand. Die täglichen Erfahrungen auf der Arbeit stützen dieses Machtverhältnis. Die zehn Prozent Leistung, welche deine Vega mehr raushaut, ändern daran nichts. Ja, eine ordentlich getunte Vega 64 kommt hier und da in Schlagdistanz einer GTX 1080 Ti mit Referenzkühlung, aber quasi nie an eine mit 2 GHz (und übertaktetem Speicher). Sicher kann man mit wohlselektierten Benchmarks von einem Gleichstand sprechen, aber das ist weder ein realistischer Querschnitt noch objektiv. Dennoch hätte ich gerne eine Liste von dir, wo eine V64 OC an eine 1080 Ti OC kommt, gerne mit Einstellungen und Szene. :)

Ich fänd's auch klasse, wenn Vega stärker wäre, aber das muss von AMD kommen. Global. Sich da was zurechtzubenchen (am besten mit "Schönwetterszenen", also Indoor-Tests mit dreistelligen Fps) bringt niemandem was, der Grafikkarten einfach benutzen und das Beste für sein Geld erhalten will. Für Religionskriege sind Achtungserfolge mit konstruierten Settings natürlich toll, aber wer außerhalb von Foren übt die aus? Ich bin sicher, dass Vega über die Jahre relativ besser wird, aber dennoch ist GP102, aus heutiger Perspektive, ein sportliches Ziel.

MfG,
Raff

Du vergisst - ich spiele nur Maxed out incl. 10-Bit und wenn verfügbar HDR in 4k - also das maximale was derzeit möglich ist. GP102 ist mit HDR und 10-Bit nix anderes als eine 1080 unter 8-Bit - so sieht es aus. Ich meine du hast es ja mal angedeutet: Da wo die meiste Werbung blinkt, dahin gehen die Balken. Leider habe ich Adblock aktiv, so dass ich eurer Sichtweise objektiverweise nicht folgen kann.

Ex3cut3r
2017-11-18, 19:09:07
Was auch berechtigt war. Mehrere Male wurdet ihr daraufhin gewiesen, warum ne 1080 mit viel OC in einem Vergleich auftauchte, wo andere Karten nur @stock waren. Das wurde jedes Mal mit Zeit begründet, aber warum für die entscheidenden Stunden, denn länger ist die Halbwertszeit solcher Infos nicht, eine sehr gute 1080 genommen wurde... Ich betreibe übrigens selbst eine 1080 mit 2Ghz und such mir die auch raus, aber wenn da 3 Karten stehen und eine ist 480, nbe 1060 und ne 1080 auf Crack, dann ist die Frage berechtigt.

Wieso? Welcher Nvidia User hat schon eine FE? Die Taktraten bei PCGH sind vollkommen realitisch, wenn AMD auch Customs hätte, wären die Taktraten bei der PCGH dann natürlich auch höher. Ja ist mal wieder AMDs schuld, nicht PCGHs, beschwer dich doch bei denen, wol sind die Customs? Nicht jeder viel 700€ für eine Liquid (die einzig brauchbare Version) ausgeben.

Raff
2017-11-18, 19:14:41
Du vergisst - ich spiele nur Maxed out incl. 10-Bit und wenn verfügbar HDR in 4k - also das maximale was derzeit möglich ist. GP102 ist mit HDR und 10-Bit nix anderes als eine 1080 unter 8-Bit - so sieht es aus. Ich meine du hast es ja mal angedeutet: Da wo die meiste Werbung blinkt, dahin gehen die Balken. Leider habe ich Adblock aktiv, so dass ich eurer Sichtweise objektiverweise nicht folgen kann.

Ich spiele auch nur in 4K (sogar echtem :D), was anderes kommt mir nicht mehr in die Bude. Was HDR angeht, bin ich jedoch ziemlich grün hinter den Ohren, was vor allem am Mangel ordentlicher Displays liegt. Nenn doch bitte mal so viele Spiele wie möglich, wo Vega 10 den GP102 abzieht oder zumindest ähnlich schnell ist. Das ist definitiv eine Analyse wert. :)

Viel entscheidender als die Frage nach irgendwelchen Treibern ist aber: Man sieht doch hier wiederum schön, wie sehr man wirklich langsam von einzelnen, kurzen Benchmarkszenen wegkommen sollte. Bei CB ist die 1070 1% flotter als 'ne Fury X, bei PCGH sind's plötzlich satte 35%. Und nein, Custom vs. Referenz erklärt so einen eklatanten Unterschied nicht einmal im Ansatz. Welchen der beiden Benchmarks soll man also nun zu einer passenden Einschätzung des Leistungsvermögens nehmen?

Das kann ich aufklären: Die PCGH-Benchmarkszene "Naboom!" (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Videos/Star-Wars-Battlefront-2-PCGH-Benchmark-Naboom-1243687/) ist der Grafikspeicher-Worstcase innerhalb von Battlefront 2. Andere Levels sind da deutlich gnädiger. Aus dem Test-Text (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/): "Die Last in dieser Szene liegt deutlich höher als in unseren zuvor auf Endor gefertigten Preview-Benchmarks, ist jedoch noch kein Worst-Case-Szenario. Unser neuer Benchmark ist zudem um einiges speicherhungriger, was wohl zumindest zu Teilen auf die vielen Screen-Space-Reflections und die gewaltigen, bildfüllenden Explosionen und Rauchwolken zurückfällt, welche sehenswert verschattet werden und selbst halbtransparente Schatten werfen - Bombast pur." 8-GiByte-Karten adressieren hier in Ultra HD über 7 GiByte, während es auf Endor bei etwas mehr als 5 GiByte bleibt. Da ist klar, dass 4-GiB-Karten auf Naboo einknicken. Siehe dazu:

In Full HD sieht die Welt in Ordnung aus, alle getesteten Grafikkarten erreichen mindestens spielbare, meist sogar tadellose Bildraten. Die Speicherkapazität der Grafikkarte wirkt sich jedoch schon hier aus: Mit einer Geforce GTX 770 oder vergleichbaren 2-GiByte-Grafikkarte beginnt das Streaming damit, Texturen langsam nachzuladen, was sich in teil- bzw. zeitweise unscharfen Oberflächen bemerkbar macht. Mit 3 GiByte bessern sich diese Symptome, ab vieren ist in Full HD kein Texturschwund mehr zu bemerken. Das ändert sich beim Wechsel auf die WQHD-Auflösung, diese stellt wesentlich höhere Anforderungen an den Grafikspeicher, sodass mit einer 2-GiB-Karte hier nichts mehr zu holen ist. In Ultra HD lohnt sich sogar eine 8-GiByte-Grafikkarte wie die Radeon RX Vega 56 oder Geforce GTX 1070 - die GTX 980 Ti bricht wegen ihrer 6 GiByte empfindlich ein, die Frametimes sind sehr unregelmäßig und ruckelig.

Welche Benchmarks ich als "valider" ansehe, sollte klar sein, zumal da viel Arschaufriss drinsteckt. :biggrin: IMO sollte man generell davon wegkommen, die Friede-Freude-Eierkuchen-Ergebnisse wegen ihres schönen Aussehens besonders toll zu finden und stattdessen die Worstcase-Szenen (oder solche, die nahe dran sind) ernstnehmen.

MfG,
Raff

gedi
2017-11-18, 19:15:53
Ach ja - es ist nichts kaputt in der Frostbite-Engine: Ich denke es sollte klar sein, dass die Engine auf hohe Bandbreite und niedrige Latenzen steht - also nichts was NV im Consumersegment zu bieten hat ;D

@Raff

Forza 7, Destiny 2, F1 2017, RES 7 usw. Auch ich spiele in echtem 4k und nur mit 10-Bit (dank ZD9-Panel sind gar 12-Bit möglich). Alleine 4k 10-Bit überfordert Pascal, womöglich weil die Color-Compression nicht mehr greift wie se soll. Auf AMD ist der ganze scheiß 4 free.

dildo4u
2017-11-18, 19:34:41
Vega 64 hat doch kaum mehr Bandbreite als eine 1080 TI,gegenüber Fury X hat sich dort kaum was getant.Mich wundert die HDR Geschichte überhaupt nicht,das steck in den Kinderschuhen am PC vermutlich da es kaum HDR Monitore gibt.
Wurde Freesync 2 nich auf der CES im Januar gezeigt was ist davon überhaupt im Markt?

gedi
2017-11-18, 19:43:50
Vega 64 hat doch kaum mehr Bandbreite als eine 1080 TI,gegenüber Fury X hat sich dort kaum was getant.Mich wundert die HDR Geschichte überhaupt nicht,das steck in den Kinderschuhen am PC vermutlich das es kaum HDR Monitore gibt.Wurde Freesync 2 nich auf der CES gezeigt was ist davon überhaupt im Markt?

FS2 afaik erst 2018, TV -> XBOX. Bandbreite ja, Latenzen nein.

G3cko
2017-11-18, 20:18:25
Die testen dort das kaputte DX12. Verliert NV @DX12 dort etwa weniger als AMD im Vergleich zu DX11? :D

Nicht wirklich. Was mal wieder auffällt: Die ganze Umsetzung ist grottig. Der Overhead scheint größer zu sein als unter DX11. Ab 150fps klares CPU-Limit. Entweder richtiges LowLevel oder garkeines. Dieses aufgefpanzte DX12 ist doch immer Grütze.

scully1234
2017-11-18, 20:23:20
Alleine 4k 10-Bit überfordert Pascal, womöglich weil die Color-Compression nicht mehr greift wie se soll. Auf AMD ist der ganze scheiß 4 free.

Keine Ahnung was dieser Schwachfug immer soll, das leierst du nun zum zig tausendsten Male herunter,und es wird nicht glaubhafter dadurch

Alle Spiele die ein HDR Preset besitzen, laufen auch so wie gewünscht, ohne das da was "überfordert" wird bei Pascal

Ex3cut3r
2017-11-18, 20:50:14
Raffs wird es wohl demnächst "testen". Dann können wir endlich einen weiteren AMD Mythos bei seite legen. :rolleyes:

Mal im ernst, so er wie er, dass immer beschreibt, müsste es, wenn es so einen erheblichen Unterschied in den FPS gibt, noch irgend jemanden anderes aufgefallen sein....

Ich stelle jetzt einfach mal auch eine These auf, ohne eigene Benchmarks, Videos -> Amd ist erheblich langsamer als Nvidia. *Duck und weg* :biggrin:

scully1234
2017-11-18, 20:53:31
Ich kann das auch nachstellen dank 4K Sony HDR Projektor (https://abload.de/img/dsc0042298sux.jpg)

Und ich finde diese alternativen Fakten ,die er da präsentiert ,langsam nicht mehr komisch

BeetleatWar1977
2017-11-18, 21:14:55
Ich spiele auch nur in 4K (sogar echtem :D), was anderes kommt mir nicht mehr in die Bude. Was HDR angeht, bin ich jedoch ziemlich grün hinter den Ohren, was vor allem am Mangel ordentlicher Displays liegt. Nenn doch bitte mal so viele Spiele wie möglich, wo Vega 10 den GP102 abzieht oder zumindest ähnlich schnell ist. Das ist definitiv eine Analyse wert. :)



Das kann ich aufklären: Die PCGH-Benchmarkszene "Naboom!" (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Videos/Star-Wars-Battlefront-2-PCGH-Benchmark-Naboom-1243687/) ist der Grafikspeicher-Worstcase innerhalb von Battlefront 2. Andere Levels sind da deutlich gnädiger. Aus dem Test-Text (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/): "Die Last in dieser Szene liegt deutlich höher als in unseren zuvor auf Endor gefertigten Preview-Benchmarks, ist jedoch noch kein Worst-Case-Szenario. Unser neuer Benchmark ist zudem um einiges speicherhungriger, was wohl zumindest zu Teilen auf die vielen Screen-Space-Reflections und die gewaltigen, bildfüllenden Explosionen und Rauchwolken zurückfällt, welche sehenswert verschattet werden und selbst halbtransparente Schatten werfen - Bombast pur." 8-GiByte-Karten adressieren hier in Ultra HD über 7 GiByte, während es auf Endor bei etwas mehr als 5 GiByte bleibt. Da ist klar, dass 4-GiB-Karten auf Naboo einknicken. Siehe dazu:



Welche Benchmarks ich als "valider" ansehe, sollte klar sein, zumal da viel Arschaufriss drinsteckt. :biggrin: IMO sollte man generell davon wegkommen, die Friede-Freude-Eierkuchen-Ergebnisse wegen ihres schönen Aussehens besonders toll zu finden und stattdessen die Worstcase-Szenen (oder solche, die nahe dran sind) ernstnehmen.

MfG,
Raff
Yup - das erste mal das meiner Vega der Speicher vollief.....

Btw:
Naboom@ Vega56@UV HBM925: 2160p

18-11-2017, 21:10:33 starwarsbattlefrontii.exe benchmark completed, 1252 frames rendered in 30.703 s
Average framerate : 40.7 FPS
Minimum framerate : 36.7 FPS
Maximum framerate : 45.5 FPS

Raff
2017-11-18, 21:33:50
Immerhin die Leistung der Liquid. :up:

Hast du die 20-Sekunden-Messung genau ab der steinernen Linie hinter dem Rebellentypen gestartet? Wenn man beispielsweise erst ab dem Gullideckel misst, erhält man wesentlich geringere Min-Fps, da es dort nochmal scheppert. Die Ergebnisse schwanken dann aber stärker, daher ein etwas früherer Start.

MfG,
Raff

BeetleatWar1977
2017-11-18, 21:40:03
Immerhin die Leistung der Liquid. :up:

MfG,
Raff

Sind etwa 1500Mhz sustained... ASIC liegt zwischen 200 und 260W.....
Gezockt wird aber Normalerweise in 1080p mit 150% Auflösung und Vsync...
1080p ca. 75W, mit Skalierung so 140W....

gedi
2017-11-19, 00:03:24
Ich kann das auch nachstellen dank 4K Sony HDR Projektor (https://abload.de/img/dsc0042298sux.jpg)

Und ich finde diese alternativen Fakten ,die er da präsentiert ,langsam nicht mehr komisch

Auspacken solltest du ihn schon - sonst wird's schwierig. Komisch empfand ich dies auf meiner Ti auch nicht. Was glaubst du warum ich z.B. bei meiner Ti den Kühler getauscht habe? Eigentlich dachte ich, dass ich ständig im Temp-Limit hing und daher die Performance so gar nicht passt. ACE4 drauf, Temperaturen gut, Performance weiterhin scheiße. Dann habe ich mal von 10-Bit auf 8-Bit downgraded. Temperaturen gut, Performance endlich einer Ti entsprechend.

@Raff

Was muss ich machen um die Szenerie in BF2 auf meiner LC nachzustellen? Ich lade das Spiel gerade herunter, daher wäre eine kurze Instruktion hilfreich :)

merfu
2017-11-19, 00:58:59
Lol... der Witz des Jahres. ;D ;D ;D

Was macht denn die PCGH oder CB & Co? Die testen eine einzige, lausige Szene (wenn du Glück hast auch zwei) und du (da bist du aber nicht alleine, siehe Hübie bsw.) überträgst das Ergebnis auf das gesamte Spiel. :uclap:

Die Youtuber müssen es wieder richten da die Redaktionen damit überfordert sind. Das Video ist übrigens noch ohne den aktuellen Patch der Vega laut CB bis zu 22% beschleunigt.
http://youtu.be/WC_nxwtrrVk

Das geilste war wieder bei der PCGH mit Battlefront 2... Hauptsache erster sein und mit dem Crimson 17.11.1 getestet. :uup:

Wo bleibt dann der Wundertreiber für The Evil Within 2 für die Geforces? :rolleyes: Und warum testet niemand Forza mit neueren Treibern bei Vega?

Geht es nur mir so dass das Bild der Vega in dem Video Schärfer ist? Die der NVidia sieht aus wie mir geringerer Auflösung erstellt, als wenn ich mein 4k monitor auf Full HD stelle.

mfg

Blediator16
2017-11-19, 01:23:38
Geht es nur mir so dass das Bild der Vega in dem Video Schärfer ist? Die der NVidia sieht aus wie mir geringerer Auflösung erstellt, als wenn ich mein 4k monitor auf Full HD stelle.

mfg

In dem Video ist die Darstellung der AMD Karte eindeutig schärfer.
Schrecklich unscharf. FXAA an?

Es könnte auch sein, dass der Uploader einfach mal ein Idiot ist und verschiedene Quellen für die Videos genommen hat.

Probably not, it's because he using the randomdude84 video so the it compresses even more the video on the nvidias side, and looks worse, while he's using the original file of the Vega compressing only once.

Credit to Duderandom84 for the video at https://www.youtube.com/watch?v=Kqadf...
:facepalm:

Raff
2017-11-19, 02:37:34
@Raff

Was muss ich machen um die Szenerie in BF2 auf meiner LC nachzustellen? Ich lade das Spiel gerade herunter, daher wäre eine kurze Instruktion hilfreich :)

Du musst erst zur Mission "Hochadel" spielen. Das dauert ein paar Stündchen. Dann kannst du dich am Video (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Videos/Star-Wars-Battlefront-2-PCGH-Benchmark-Naboom-1243687/) orientieren. :) Der Benchmark über 20 Sekunden ist ab dem Timestamp 0:10 zu sehen.

MfG,
Raff

horn 12
2017-11-19, 02:57:31
Dass AMD nix zum Horny Treiber sagt, denn sollte ja zum Release der Customs endlich zeitgleich kommen.
Das kann nix gutes heißen,- da bekommt AMD womöglich etwas nicht gebacken,- oder sie wollen überraschen...
Wohl nimmer lange und alle hier sind schlauer.

gedi
2017-11-19, 03:04:48
Du musst erst zur Mission "Hochadel" spielen. Das dauert ein paar Stündchen. Dann kannst du dich am Video (http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Videos/Star-Wars-Battlefront-2-PCGH-Benchmark-Naboom-1243687/) orientieren. :) Der Benchmark über 20 Sekunden ist ab dem Timestamp 0:10 zu sehen.

MfG,
Raff

Die Kampagne ist meh. Sieht zwar hübsch aus, allerdings bin ich aus dem Alter raus. Savegame needed :(

Schaffe89
2017-11-19, 04:29:18
Ich habe nirgends mehr...

Passt die Vega Performance nicht, dann ist natürlich der Tester schuld
Wie soll es auch anders sein, geht ja gar nicht anders. Nebenbei möcht ich wirklich mal wissen wie CB so manche Ergebnisse so schnell zur Verfügung stellt zudem geben sie keine Taktraten an.
Immer wieder gibt es dieselben Diskussionen, aber bei CB gäbe es Grund zum Anlass nisstrauisch zu sein, bei pcgh viel weniger da transparenter. Aber weich ruhig auf youtube aus, die testen meistens ganze 2 oder 3 Karten gegeneinander.

robbitop
2017-11-19, 05:48:00
Koennen Pascals ROPs single cycle fp16? Ansonsten halbiert sich der Durchsatz beim Schreiben der entsprechenden Werte in die entsprechenden buffer. Koennte eine Ursache fuer reduzierte hdr FB Formate sein. Auch, wenn entsprechende Kompressionen (frambuffer [z/color] und dcc) das nicht unterstuetzen...

Raff
2017-11-19, 11:04:23
Die Kampagne ist meh. Sieht zwar hübsch aus, allerdings bin ich aus dem Alter raus. Savegame needed :(

Das geht leider nicht. Die Saves sind accountgebunden. Noch so eine tolle Erfindung der Neuzeit. :(

MfG,
Raff

BeetleatWar1977
2017-11-19, 11:39:09
Immerhin die Leistung der Liquid. :up:

Hast du die 20-Sekunden-Messung genau ab der steinernen Linie hinter dem Rebellentypen gestartet? Wenn man beispielsweise erst ab dem Gullideckel misst, erhält man wesentlich geringere Min-Fps, da es dort nochmal scheppert. Die Ergebnisse schwanken dann aber stärker, daher ein etwas früherer Start.

MfG,
Raff
gestartet ja - aber zulange laufen lassen, waren rund 30 sek.....

hier mit 20:

starwarsbattlefrontii.exe benchmark completed, 826 frames rendered in 21.297 s
Average framerate : 38.7 FPS
Minimum framerate : 36.1 FPS
Maximum framerate : 41.8 FPS

gedi
2017-11-19, 14:38:22
Das geht leider nicht. Die Saves sind accountgebunden. Noch so eine tolle Erfindung der Neuzeit. :(

MfG,
Raff

:freak: - mehr gibt's dazu nicht zu sagen. Im MP habe ich auf freier Wiese zwischen 55 und 70FPS. 4k Ultra incl. HDR 10

horn 12
2017-11-19, 14:43:57
Preise der RX 56 / 64 schießen durch die Decke
Verfügbarkeit wird schlechter, teilweise gar Null!

https://www.trovaprezzi.it/prezzo_schede-grafiche_rx_vega.aspx
Montag waren es noch 162 Einträge und RX 56 für 431, RX 64 Air/ Black Silver knappe 516 Euro

Platz für Custom RX 64 oder bahnt sich der Performance Treiber an...

In den kommenden 2 Wochen wird sich viel über Vega entscheiden.
FLOPP oder schlussendlich doch TOP.

Linmoum
2017-11-19, 14:45:48
Preise der RX 56 / 64 schießen durch die Decke
Verfügbarkeit wird schlechter, teilweise gar Null!
Aber nicht in Deutschland.

MartinRiggs
2017-11-19, 15:29:34
Vega ist doch schon lange ein Flop.
AMD vergrault die eigenen Hersteller, Customs lassen auf sich warten und das Potential sieht man nur in 2-3 Titeln.

Wem außer einem frickelnden Enthusiasten, mit masochistischer Veranlagung, will man denn guten Gewissens eine Vega Grafikkarte empfehlen? :uponder:

Schlammsau
2017-11-19, 16:21:55
Vega ist doch schon lange ein Flop.
AMD vergrault die eigenen Hersteller, Customs lassen auf sich warten und das Potential sieht man nur in 2-3 Titeln.

Wem außer einem frickelnden Enthusiasten, mit masochistischer Veranlagung, will man denn guten Gewissens eine Vega Grafikkarte empfehlen? :uponder:
Leuten die Spass am Basteln haben und deren Geldbeutel locker sitzt. :)

Ansonsten, wenn nicht bald mal gute Customs zu guten Preisen den Handel erreichen seh ich absolut schwarz am High End Gamermarkt.

Ich bleibe dabei, beide Vega´s sind minimum 100€ zu teuer um gegen nVidia anzustinken. Für das Geld was man momentan für ne V56 (Referenz!) hinblättern muss bekommt man ja fast schon ne GTX 1080 ..... Traurig aber wahr. :(

Edit: Nicht nur fast, man bekommt sogar schon eine gute 1080 Custom für das was gerade eine V56 kostet. :eek:

Verkehrte Welt ....

Schaffe89
2017-11-19, 17:03:04
FLOPP oder schlussendlich doch TOP.

Heutzutage gibts dazwischen ja nichts mehr.:redface:


Wem außer einem frickelnden Enthusiasten, mit masochistischer Veranlagung, will man denn guten Gewissens eine Vega Grafikkarte empfehlen? :uponder:

Dem Freesync nutzenden Vulkan Zocker. Schauts du durch die Foren gibts hier und da jemanden der nur noch Vulkan Spiele kaufen will, alle Jahre dann zu Weihnachten vll ein neues SPiel.^^
Directx12 scheint ja quasi tod zu sein, oder kommt da nochmal was?

Hübie
2017-11-20, 08:06:54
Koennen Pascals ROPs single cycle fp16? Ansonsten halbiert sich der Durchsatz beim Schreiben der entsprechenden Werte in die entsprechenden buffer. Koennte eine Ursache fuer reduzierte hdr FB Formate sein. Auch, wenn entsprechende Kompressionen (frambuffer [z/color] und dcc) das nicht unterstuetzen...

Iirc wurde nach G80 diesbezüglich nix mehr dokumentiert. Damals waren 8 Bit Standard, wenn ich mich recht entsinne. Gibt es sinnvolle Tests die das gezielt messen können? :|

Sven77
2017-11-20, 08:27:52
Es könnte auch sein, dass der Uploader einfach mal ein Idiot ist und verschiedene Quellen für die Videos genommen hat.




:facepalm:

Und solche Videos werden hier verlinkt um dann die Ergebnisse von renommierten Testern in Frage zu stellen.. da wunderst dich halt über nix mehr..

Pirx
2017-11-20, 08:43:17
Und solche Videos werden hier verlinkt um dann die Ergebnisse von renommierten Testern in Frage zu stellen.. da wunderst dich halt über nix mehr..
Wenn man keine weiteren Erkenntnisse gewinnen will, nur selektiv kritisieren und den Mehrwert ignorieren, kann man das natürlich so sehen.

N0Thing
2017-11-20, 08:46:28
Geht es nur mir so dass das Bild der Vega in dem Video Schärfer ist? Die der NVidia sieht aus wie mir geringerer Auflösung erstellt, als wenn ich mein 4k monitor auf Full HD stelle.

mfg

Die Einstellungen sind nicht identisch.
Bei den Einstellungen auf der linken Seite (Geforces) läuft das Spiel im Fullscreen, rechts (Vega) Windowed.
Image Streaming steht auf linken Seite bei den Einstellungen auf Ultra, rechts auf Über.
Wie die Anisotrope Filterung gewählt wurde, kann man auf der rechten Seite nicht erkennen.
Links ist Sharpening auf 2.0 und Film Grain auf 0.0, rechts Sharpening auf 4.0 und Film Grain 1.0.

Der Bildunterschied dürfte also primär durch die höhere Streamingstufe und die höheren Sharpening-Werte bei der Vega kommen.
Für einen Performance-Vergleich ist das Video absolut ungeeignet, weil nicht nur die Einstellungen unterschiedlich sind und die Vega-Karte übertaktet wurde und keine Angaben zu den Nvidia-Karten gemacht wurden, sondern ein Teil des Videos auch noch aus einem anderen Video stammt, wo ebenfalls nicht die gleichen Einstellungen für die Karten verwendet wurden.

pilzsammler2002
2017-11-20, 08:47:38
Und solche Videos werden hier verlinkt um dann die Ergebnisse von renommierten Testern in Frage zu stellen.. da wunderst dich halt über nix mehr..

Ist halt die Frage ist es Sinnvoll immer den Worst case zu nehmen?
Wenn eine Karte 95% der Zeit schneller ist (Fantasy werte) aber die anderen 5% als Benchmark genutzt werden spiegelt es ja nicht den wirklichen Stand wieder...

Natürlich kann man nen Worst case erwähnen aber wie in der IT ist Worst Case nicht das was immer auftritt ;D

Sven77
2017-11-20, 09:08:53
Wenn man keine weiteren Erkenntnisse gewinnen will, nur selektiv kritisieren und den Mehrwert ignorieren, kann man das natürlich so sehen.

Die Aussagekraft solcher Amateurvideos(noch nett ausgedrückt) geht gegen 0

dargo
2017-11-20, 09:13:47
Und solche Videos werden hier verlinkt um dann die Ergebnisse von renommierten Testern in Frage zu stellen.. da wunderst dich halt über nix mehr..
Was ist das denn für ein Bullshit wieder?

Wenn mir PCGH, CB oder wer auch immer ein Video vom Savegame der getesteten Szene liefern dann tue ich genau das was der Youtuber getan hat... die Szene(n) 1:1 nachstellen. :rolleyes:

Sven77
2017-11-20, 09:23:53
Ach so, und dann mit Videos anderer Youtuber zusammenschnippeln ;D ja, so sieht seriöse Arbeit aus

Raff
2017-11-20, 09:24:07
PCGH liefert immer Videos der Benchmarkszene, damit man den Krempel zuhause nachstellen kann. Savegames folgen mit dem FAQ-Update, allerdings nicht bei diversen Spielen (wie Battlefront 2 -> Accountbindung).

MfG,
Raff

dargo
2017-11-20, 09:24:16
Die Einstellungen sind nicht identisch.
Bei den Einstellungen auf der linken Seite (Geforces) läuft das Spiel im Fullscreen, rechts (Vega) Windowed.
Image Streaming steht auf linken Seite bei den Einstellungen auf Ultra, rechts auf Über.
Wie die Anisotrope Filterung gewählt wurde, kann man auf der rechten Seite nicht erkennen.
Links ist Sharpening auf 2.0 und Film Grain auf 0.0, rechts Sharpening auf 4.0 und Film Grain 1.0.

Der Bildunterschied dürfte also primär durch die höhere Streamingstufe und die höheren Sharpening-Werte bei der Vega kommen.
Für einen Performance-Vergleich ist das Video absolut ungeeignet, weil nicht nur die Einstellungen unterschiedlich sind und die Vega-Karte übertaktet wurde und keine Angaben zu den Nvidia-Karten gemacht wurden, sondern ein Teil des Videos auch noch aus einem anderen Video stammt, wo ebenfalls nicht die gleichen Einstellungen für die Karten verwendet wurden.
Die Einstellungen sollten natürlich schon gleich sein. Wobei die Intensität beim nachschärfen und grain keine Auswirkung auf die Performance haben sollte. Beim Streaming Ultra/Über mag das anders sein, kann ich nicht beurteilen weil ich mich damit noch nicht beschäftigt habe. Steht aber Über nicht höher als Ultra? Dann wäre nämlich der Rechenaufwand von Vega sogar höher.

Zum OC... jeder kann sich die paar % durch das OC runter rechnen, kann nicht so schwer sein. Die Geforces sind übrigens auch übertaktet, das hatte ich schon mal gesagt.

btw.
Habe gerade in Wolfenstein 2 nachgeschaut. Bei mir gibt es beim Streaming über "Ultra" nur noch "Extrem". :confused: Oder heißt "Extrem" in der englischen Fassung einfach nur "Über"?

Ach so, und dann mit Videos anderer Youtuber zusammenschnippeln ;D ja, so sieht seriöse Arbeit aus
Du kannst ihm eine GTX1080 und GTX1080 TI schenken. Ich bin mir sicher er wird die durch die entsprechenden Szenen durchjagen. :rolleyes:

N0Thing
2017-11-20, 09:25:13
Was ist das denn für ein Bullshit wieder?

Wenn mir PCGH, CB oder wer auch immer ein Video vom Savegame der getesteten Szene liefern dann tue ich genau das was der Youtuber getan hat... die Szene(n) 1:1 nachstellen. :rolleyes:


Bullshit ist es, wenn man Performance-Vergleiche mit unterschiedlichen Settings anfertigt werden. Das ist das Mindestmaß, welches bei einem Vergleich eingehalten werden solle. Wenn dann noch manuelles OC hinzu kommt, sollte einem doch spätestens dann auffallen, daß keine Vergleichbarkeit mehr gegeben ist. Von den fehlenden Hardwareangaben mal ganz abgesehen.

dargo
2017-11-20, 09:27:18
Bullshit ist es, wenn man Performance-Vergleiche mit unterschiedlichen Settings anfertigt werden. Das ist das Mindestmaß, welches bei einem Vergleich eingehalten werden solle. Wenn dann noch manuelles OC hinzu kommt, sollte einem doch spätestens dann auffallen, daß keine Vergleichbarkeit mehr gegeben ist. Von den fehlenden Hardwareangaben mal ganz abgesehen.
Lese nochmal meinen Post. :rolleyes: Nur Amateure können OC-Werte nicht runter rechnen.

N0Thing
2017-11-20, 09:28:53
Lese nochmal meinen Post. :rolleyes: Nur Amateure können OC-Werte nicht runter rechnen.

1. Nur Amateure sehen das Problem nicht.
2. Wo findet man die Information, dass die die Geforces auch übertaktet wurden?

pilzsammler2002
2017-11-20, 09:30:35
Bullshit ist es, wenn man Performance-Vergleiche mit unterschiedlichen Settings anfertigt werden. Das ist das Mindestmaß, welches bei einem Vergleich eingehalten werden solle. Wenn dann noch manuelles OC hinzu kommt, sollte einem doch spätestens dann auffallen, daß keine Vergleichbarkeit mehr gegeben ist. Von den fehlenden Hardwareangaben mal ganz abgesehen.

Das ist Korrekt... Aber auch unter den "Youtubern" gibt es Leute die es korrekt machen (Angaben, config etc.)

dargo
2017-11-20, 09:33:39
2. Wo findet man die Information, dass die die Geforces auch übertaktet wurden?
:rolleyes:

Die Taktraten siehst du im Video. Und CB testet immer die Taktraten der Geforce FEs nach einer Aufwärmphase.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Orientiere dich einfach an Doom. Klar... in 1440p könnten die Taktraten etwas höher ausfallen als in 4k wie bei CB. Dennoch sieht man, dass eine GTX1080 TI FE niemals mehr als 1797Mhz erreichen kann. Auch nicht mit max. PT/TT. Im Video läuft sie mit 1860Mhz, ergo eine Custom-OC.

PCGH liefert immer Videos der Benchmarkszene, damit man den Krempel zuhause nachstellen kann.
Das ist auch lobenswert. Denn so kann man immer am eigenen Rechner testen ob sich die Ergebnisse decken und auch neuere Treiber vergleichen.

Schaffe89
2017-11-20, 09:41:55
Ist halt die Frage ist es Sinnvoll immer den Worst case zu nehmen?


Ja definitiv ist das sinnvoll dies zu tun, das ist genau dieselbe Diskussion die man ansonsten führt wenn AMD Prozessoren vermeintlich die knapp bessere Leistung in WHQD oder so liefern.
Da wird dann auch 720p in Frage gestellt, obwohl man genau wissen sollte dass dies das richtige Testverfahren ist.

Das ist Korrekt... Aber auch unter den "Youtubern" gibt es Leute die es korrekt machen (Angaben, config etc.)

Hardwareunboxed zum Beispiel finde ich am besten, die kommen aber auch aus dem Print/Onlinebereich.

Hübie
2017-11-20, 09:49:47
Lese nochmal meinen Post. :rolleyes: Nur Amateure können OC-Werte nicht runter rechnen.

Als sei es professionell bestenfalls zu schätzen da weder GPU- noch MEM-Oc linear skaliert und jedes Spiel anders drauf anspringt. Dann soll man jetzt ganz professionell Doom heran ziehen. :facepalm: Ich weiß nicht was man da noch sagen soll.

N0Thing
2017-11-20, 10:02:03
Das ist Korrekt... Aber auch unter den "Youtubern" gibt es Leute die es korrekt machen (Angaben, config etc.)

Ich finde gut gemachte Videos auch eine Bereicherung. Aber anhand zusammen kopierten Videos ohne vernünftige Hardwareangaben und unterschiedlichen Einstellungen die Arbeit etablierter Redaktionen in Frage zu stellen, denen bei jeder Kleinigkeit Parteilichkeit vorgeworfen wird, ist einfach lächerlich.

:rolleyes:

Die Taktraten siehst du im Video. Und CB testet immer die Taktraten der Geforce FEs nach einer Aufwärmphase.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Orientiere dich einfach an Doom. Klar... in 1440p könnten die Taktraten etwas höher ausfallen als in 4k wie bei CB. Dennoch sieht man, dass eine GTX1080 TI FE niemals mehr als 1797Mhz erreichen kann. Auch nicht mit max. PT/TT. Im Video läuft sie mit 1860Mhz, ergo eine Custom-OC.


Okay, also OC bei den Geforces. Nur passen die Ergebnisse von CB nicht mit denen im Video überein. Wenn es wie angegeben Founders Editionen sein sollen, wären die Taktraten zu hoch, bzw. die Temperatur zu niedrig, die müsste bei 84-87°C liegen. Oder liefen alle Karten mit maximaler Lüfterdrehzahl? Das wäre natürlich wahnsinnig praxisrelevant. :rolleyes:

Das alles zeigt nur um so deutlicher, was für ein Murks dieses Benchmark-Video ist

unl34shed
2017-11-20, 10:02:35
Da wird dann auch 720p in Frage gestellt, obwohl man genau wissen sollte dass dies das richtige Testverfahren ist.

Ist es? Sind die Ergebnisse aus dem Tests bzw. die Rückschlüsse für die Zukunft nicht schon sehr oft nach hinten losgegangen?

dargo
2017-11-20, 10:04:09
Als sei es professionell bestenfalls zu schätzen da weder GPU- noch MEM-Oc linear skaliert und jedes Spiel anders drauf anspringt. Dann soll man jetzt ganz professionell Doom heran ziehen. :facepalm: Ich weiß nicht was man da noch sagen soll.
In sämtlichen Benchmarks kann jeder sehen wie sich eine Geforce oder Radeon beim OC im Schnitt verhält. Mir gehts hier nicht um +/-5%, weil mir das einfach wumpe ist. Wenn man das ganze wissenschaftlich untersuchen möchte, sprich 100% exakt magst du durchaus recht haben. Ich bleibe dabei... solche Videos liefern mir wesentlich mehr Informationen als einzelne Szenen diverser Redaktionen. Ohne solche Videos würdest du nicht mal sehen, dass GPU X sich je nach Szene sehr unterschiedlich verhalten kann als GPU Y. Denn das sieht man auch im Video sehr gut.

N0Thing
2017-11-20, 10:08:19
Ist es? Sind die Ergebnisse aus dem Tests bzw. die Rückschlüsse für die Zukunft nicht schon sehr oft nach hinten losgegangen?

Nein, eher im Gegenteil. Ich erinnere mich noch an den Phenom oder Phenom 2, wo dank 1080p gerne mal das Fazit gezogen wurde, daß dieser schneller sei, als sein Intel Gegenstück. In 720p wie auch in späteren Spielen sah das dann anders aus.
Man kann deshalb nicht darauf schließen, wie lange eine CPU nutzbar sein wird, oder ob und wann mehr Kerne mehrheitlich einen Vorteil bringen. Aber eine CPU die in 720p schneller war, ist in den darauf folgenden Jahren nur dann hinter eine damals zurück liegende CPU gefallen, wenn sie weniger Kerne hatte und diese später genutzt wurden.

pilzsammler2002
2017-11-20, 10:15:59
http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/

Update mit 17.11.2
Aber keine Verbesserung innerhalb der Toleranz :biggrin:

dildo4u
2017-11-20, 10:25:30
Das Game verhält sich wie Wolfenstein ist die Szene Simpel sind die fps Hoch geht man ins offenen Gelände brechen die fps auf Vega ein.

B5L2zRc5FNU

Daredevil
2017-11-20, 10:31:58
Warum verbraucht die Vega dort 500mb mehr Vram und 3gb weniger RAM?
Und dann wird die GPU gebencht und es wird mit der Grafikkarte das Video aufgezeichnet. ;(

Diese Youtube Video scheiße nervt echt so langsam.
Am besten werden noch Live FPS auf Twitch gezeigt und verglichen. :redface:

dargo
2017-11-20, 10:34:37
http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/

Update mit 17.11.2
Aber keine Verbesserung innerhalb der Toleranz :biggrin:
Tjo... dann hat die PCGH wieder ein gutes Händchen dafür eine Szene zu finden die praktisch Null mit dem neuen Treiber schneller ist. Bei CB sieht es anders aus, auch wenn es jetzt nicht die Welt ist. Dort ist der Crimson 17.11.2 in 1440p 5% und in 4k 9% schneller als der Crimson 17.11.1 mit Vega64.
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark-test/#diagramm-star-wars-battlefront-2-3840-2160
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/2/#diagramm-star-wars-battlefront-2-3840-2160

Die neuen Treiber sind (oft) schneller

ComputerBase hatte bereits Benchmarks von Star Wars Battlefront 2 mit noch nicht optimierten Grafiktreibern durchgeführt – denn die ersten Tage mussten die Käufer der Premiumversion auch so spielen. Es zeigt sich, dass der GeForce 388.31 tatsächlich die Performance verbessert – und zwar unabhängig von der Grafikkarte und der Auflösung. Schnellere Modelle profitieren dabei mehr, langsamere wie die GeForce GTX 1060 dagegen weniger. Auch der Crimson 17.11.2 beschleunigt das neueste Star-Wars-Spiel, aber in geringerem Umfang. So legen nur die zwei Vega-Grafikkarten ein Stück an Leistung zu. Bei den älteren Modellen ändert sich dagegen nichts.


Und dann wird die GPU gebencht und es wird mit der Grafikkarte das Video aufgezeichnet. ;(

Du bist nicht in der Lage die ~3% Leistung die durch Relive fehlen zu den gemessenen Frames zu addieren? Ich bitte dich. :freak: Shadowplay ist übrigens auch nicht umsonst. Relive und Shadowplay nehmen sich fast nichts.

btw.
Mir fällt gerade in dem Video von dildo auf, dass auch dort die GTX1080 TI FE bei 1860Mhz klebt. Das kann nur eins bedeuten... die Karten sind nicht vorgewärmt. Denn laut CB ist das auch mit max. PT/TT nicht möglich. CB schreibt aber...

Der theoretisch maximale Takt der GeForce GTX 1080 Ti Founders Edition beträgt 1.886 MHz. Diese Frequenz liegt aber nur bei niedrigen Temperaturen und geringer Last an. In Spielen beträgt der realistische Maximaltakt dagegen 1.797 MHz. Aber auch er wird durch Verbrauchs- und Temperaturziele schnell unterschritten.

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Oder hat der Youtuber da ein modifiziertes Bios drauf?

Daredevil
2017-11-20, 10:52:00
Du bist nicht in der Lage die ~3% Leistung die durch Relive fehlen zu den gemessenen Frames zu addieren? Ich bitte dich. :freak: Shadowplay ist übrigens auch nicht umsonst. Relive und Shadowplay nehmen sich fast nichts.

Zeig du mir mal, wo getestet wurde, dass es "in etwa immer so 3%" sind, das ist eben nicht der Fall.
Wenn man einen GPU Test macht, hat man nicht automatisch mit der GPU ein Video zu encodieren. o0
Testest du etwa deine CPU Limit Tests mit dem Ryzen auch, während du das ganze per CPU Encoding streamst, oder wie?

Vergleichbar sind die beiden Methoden nur untereinander, sonst würde es solche Ergebnisse nicht geben.
http://abload.de/img/unbenannt4tkqg.png


btw.
Mir fällt gerade in dem Video von dildo auf, dass auch dort die GTX1080 TI FE bei 1860Mhz klebt. Das kann nur eins bedeuten... die Karten sind nicht vorgewärmt.

Das ist mit Sicherheit keine FE. ;)

dargo
2017-11-20, 11:19:30
Zeig du mir mal, wo getestet wurde, dass es "in etwa immer so 3%" sind, das ist eben nicht der Fall.
Wenn man einen GPU Test macht, hat man nicht automatisch mit der GPU ein Video zu encodieren. o0
Testest du etwa deine CPU Limit Tests mit dem Ryzen auch, während du das ganze per CPU Encoding streamst, oder wie?

Vergleichbar sind die beiden Methoden nur untereinander, sonst würde es solche Ergebnisse nicht geben.
http://abload.de/img/unbenannt4tkqg.png

Da hast du dir schön die Rosine rausgepickt. :rolleyes: Und ohne Link zur Quelle setzt dem die Krone auf.

https://www.gamersnexus.net/images/media/2016/news/relive/relive-vs-shadowplay-gta-v.png

Quelle (https://www.gamersnexus.net/guides/2710-amd-relive-vs-nvidia-shadowplay-benchmarks)


Das ist mit Sicherheit keine FE. ;)
Steht aber beim Video. :P

Edit:
Hier hast du noch ein nettes Video zum Thema.
8P8QJppnhcQ

Das Problem dabei ist aber, dass es halt Performance-GPUs sind. Das muss nicht 1:1 auf GTX1080 TI und Vega64 übertragbar sein. Sieht man auch ganz gut, dass bei den schwächeren GPUs @RX460 und GTX1050 TI die Aufnahme noch etwas teurer ist.

Daredevil
2017-11-20, 11:23:41
dargo, stell dich doch nicht dumm. :D
Das ist keine Rosinen Pickerei, das ist eine Antwort darauf, dass du behauptet hast, bei Relive und Shadowplay gehen generell 3% ab.
Das ist anscheinend bei GamerHexus.net ( Quelle steht im Bild ) nicht der Fall.

Also ist deine Aussage falsch, da anscheinend verschiedene Spiele anders darauf reagieren. ;)

Und genau deswegen ist ein Vergleich in dem Fall komplett sinnlos.
Eine 1080FE hält bestimmt nicht die ~60°C unter Last mit dem Gammelkühler, eine 1080ti genauso wenig.

dargo
2017-11-20, 11:27:04
dargo, stell dich doch nicht dumm. :D
Das ist keine Rosinen Pickerei, das ist eine Antwort darauf, dass du behauptet hast, bei Relive und Shadowplay gehen generell 3% ab.

Dann lese nochmal was ich geschrieben habe... nämlich ca. 3%. Damit meine ich auch den Schnitt und keine einzelne Rosinen in die eine sowie andere Richtung. Und nochmal... das sind Performancekarten!


Eine 1080FE hält bestimmt nicht die ~60°C unter Last mit dem Gammelkühler, eine 1080ti genauso wenig.
Bei einem offenen Aufbau, nicht vorgeheizt und 3.000+RPM am Lüfter halte ich es nicht unbedingt für ausgeschlossen.

Daredevil
2017-11-20, 11:35:15
Per Hand die Drehzahl zu erhöhen um nicht ins Power Target zu laufen und somit den Takt oben zu halten ist aber ebenfalls kein neutrales Testszenario....

dargo
2017-11-20, 11:38:21
Mal was völlig anderes was mir gerade auf der Zunge brennt.

Ich versuche gerade Forza Motorsport 7 für den Speicherskalierungstest zu benchen und drehe hier bald durch. Wie hat Computerbase das Spiel gemessen? Vielleicht verrät mir einer den Trick ansonsten muss ich die Messergebnisse stark anzweifeln.

Folgendes Problem:
Ich nehme dafür ein freies Spiel mit stehendem Starterfeld. Die Startposition links an Platz 15 passt auch wunderbar bei jedem Bench (wobei ich aktuell ganz vorne stehe, ist aber ein anderes Thema was ich erstmal weg lassen möchte). Jetzt das Problem... obwohl ich den Tag für den Bench nehme wechselt das Game frei nach Schnauze immer die Wetterbedingungen und die Uhrzeit. So kommt es vor, dass ich einmal am hellen Tag starte, ein weiteres Mal bei leichter Dämmerung und ein drittes Mal am hellen Tag mit hellen Wolken und das wirkt sich extrem auf die Frameraten aus. :crazy:

Tag (hell) = 130,95 avg.fps
Tag (hell mit Wolken) = 9x,xx avg.fps

WTF? :motz:

Der intergrierte Benchmark hat da schon wesentlich mehr Aussagekraft:

85,6 avg.fps
84,9 avg.fps
86,3 avg.fps


Per Hand die Drehzahl zu erhöhen um nicht ins Power Target zu laufen und somit den Takt oben zu halten ist aber ebenfalls kein neutrales Testszenario....
Das weiß ich selbst. :rolleyes: Lese doch einfach was der Youtuber schreibt.


GPU usage on the AMD card falls a few % in MSI when recording with ReLive.

Cards Used

Sapphire AMD RX Vega 64 Limited Edition
Nvidia Asus GTX 1080 TI Founders Edition
Nvidia Asus GTX 1080 Founders Edition

Power Limit Maxed

Der wollte einfach gleiche Bedingungen für alle Karten schaffen.

btw.
Ins Powerlimit läufst du immer. Du kannst höchstens mit max. Lüfter TT-Limit vermeiden.

Raff
2017-11-20, 12:08:31
Es gibt einfach Spiele, die gute Benchmarks sind, und solche, die tierisch nerven. Forza gehört aufgrund einiger Dinge zur letztgenannten Sorte. Nimm einfach The Witcher 3, SW Battlefront 2, Prey oder das gute, alte Crysis 3, dann kriegst du immer das Gewünschte raus, ohne dich mit Störfaktoren herumzuschlagen.

MfG,
Raff

Daredevil
2017-11-20, 12:09:37
Vega64 360w Benches mit 100% Turbinen-Lüfterdrehzahl sind natürlich Szenarien, die man als Endkunde sehen will und man sich freut, wenn die 220w GTX1080 hinterherhechelt. ^^
Haste mal den Unigine Heaven als CPU Test genutzt?

Btw. der Blockchain Treiber nutzt anscheinend HBCC und profitiert auch davon?
Hat jemand ein paar tiefere Infos zu diesem Treiber?

dargo
2017-11-20, 12:18:15
@Raff

Das schlimme an der ganzen Kacke ist, dass man das nicht auf Anhieb an der Szene sieht. :freak: Ich meine die Tageszeit sah auf den ersten Blick identisch aus (die Dämmerung sieht man ja sofort). Später ist mir das mit den Wolken erst aufgefallen, eine ganz üble Falle. Erst als ich die Frames gesehen habe bin ich fast vom Stuhl gefallen.

Jetzt ist halt die Frage was die Benches in FM7 von Computerbase wert sind? Wenn die echt freies Spiel genommen haben können die Ergebnisse wertlos sein. Auch die Zuwächse bei Nvidia durch den neuen Treiber. Es reicht nur ein blöder Zufall aus und man steht in der besten Szene mit höchsten Frames. Wäre schön wenn sich die Computerbase dazu mal äußern könnte.

btw.
Witcher 3 habe ich schon gebencht. Die anderen Games habe ich nicht und Crysis 3 ist mir schon etwas zu alt.

Edit:
Oh weiha... :freak:
Die Benchmark-Szene im Detail

ComputerBase hat nicht den integrierten Benchmark von Forza 7 genutzt. Es kann nie ausgeschlossen werden, dass Treiber darauf speziell optimiert worden sind. Stattdessen bestand die Testsequenz aus einer 25 Sekunden langen Fahrt hinter dem 23 Auto starken KI-Feld auf der Rennstrecke Suzuka bei schönem Wetter.
https://www.computerbase.de/2017-09/forza-7-benchmark/2/#abschnitt_grafikkartenbenchmarks_von_full_hd_bis_ultra_hd

Ich habe mittlerweile bei der gleichen Strecke drei verschiedene Ergebnisse die recht stark von einander abweichen, trotz schönem Wetter. X-D

blaidd
2017-11-20, 17:09:58
Ich teste grad HDR-Performance in einigen Spielen... aktuell noch mit Nvidia, da ist tatsächlich ein leichter Performance-Rückgang zu verzeichnen. Allerdings scheint das ein wenig auf das Spiel anzukommen. Bislang war's maximal ~10 % Fps-Verlust, aber das war nur eins von bislang vier Spielen (CoD WW2)... ansonsten hab ich eher so was wie 3 % Performance-Rückgang gemessen was eher vernachlässigbar ist. Vielleicht auch nur das Tonemapping? Würde mich dann eher wundern, wenn das bei AMD nicht so wäre...

Was aber definitiv auffällt, ist eine zusätzliche Latenz... Wow! Das merkt man schon ziemlich massiv auf dem Desktop, bei relativ niedrigen Bildraten (weil 4K) wird's dann ganz schön ekelig an der Maus... (EDIT: Dell UP2718Q, ist eventuell auch vom Display abhängig). Wobei ich sagen muss, dass ich da wohl sehr anfällig bin und schon bei 144 Hz mit Vsync (insbesondere Triple Buffering) die abolute Krise bekomme ;)

Igor TH
2017-11-20, 17:28:37
Ich habe mittlerweile bei der gleichen Strecke drei verschiedene Ergebnisse die recht stark von einander abweichen, trotz schönem Wetter. X-DEs taugt nicht als Benchmark, das war nach wenigen Minuten klar, weil ich immer fünf Durchläufe mache. Abweichungen von 10% und mehr und dann vielleicht noch Nachkommastellen in den Charts abbilden? Das schließt sich nun mal komplett aus. :D

dargo
2017-11-20, 17:35:14
Es taugt nicht als Benchmark, das war nach wenigen Minuten klar, weil ich immer fünf Durchläufe mache. Abweichungen von 10% und mehr und dann vielleicht noch Nachkommastellen in den Charts abbilden? Das schließt sich nun mal komplett aus. :D
Die einzelnen Durchläufe sind nicht das Problem, dort habe ich ganz normale Abweichungen von ~1%. Das Problem ist wenn man die gleiche Strecke bei den (auf dem ersten Blick) gleichen Wetterbedingungen neu startet. Plötzlich habe ich da bis zu 30+% Unterschied in den Frames. Die Wetterbedingungen (speziell die Wolken?) haben einen ganz großen Einfluss auf die Framerate. Das schlimme ist halt, dass man diesen Unterschied visuell direkt nicht wahrnimmt.

Armaq
2017-11-20, 21:16:49
Die Frage ist doch, was willst du aufzeigen? Worauf zielt der Benchmark ab? Geht es um die Performance des Spiels, geht es um den veränderten Takt etc. Wenn du wissen willst, welche Szene perfekt für Vega und schlecht für 1080TI ist, dann kann der Aufbau ja Sinn machen. ;)

mule
2017-11-20, 21:26:10
Das ändert ja nichts daran das ein Bench reproduzierbar sein muss um überhaupt eine Aussagekraft zu haben.

Armaq
2017-11-20, 22:08:31
Das ändert ja nichts daran das ein Bench reproduzierbar sein muss um überhaupt eine Aussagekraft zu haben.
Warum? Wenn alle FPS verlieren sobald da Wolken sind? Es ist aufwendig das nachzuvollziehen, aber es verliert nicht an Aussagekraft.

Daredevil
2017-11-20, 22:28:45
Wenn jemand Probleme mit Testsequenzen hat, müssen sie halt länger gemacht werden. ( Erste "Quick and Easy" Tests in Zeitnot meinte ich natürlich nicht. )

Was hält dich davon ab, einfach mal 10x so eine blöde Strecke mit Grafikkarte A abzufahren und dann mit Grafikkarte B. Mehr Aussagekraft geht doch nicht.

Wenn ich Wolfenstein eine Stunde lang spiele und im Hintergrund pro Level die Frames aufzeichne und ich in etwa gleichlang brauche, wird doch jeder zufrieden sein, oder nicht?
Wenn man in Sequenz A dann ausversehen mal in den Himmel blickt und für kurze Zeit 30fps mehr hat, wird das bei einer Stunde Aufnahme doch auch nicht mehr auffallen...

Nur ist das nichts für Menschen, die damit Geld verdienen und mehrere Grafikkarten testen.
Da müssen halt diejenigen her, die eh das Spiel komplett durchzocken. ;)

Hübie
2017-11-20, 22:40:34
btw.
Mir fällt gerade in dem Video von dildo auf, dass auch dort die GTX1080 TI FE bei 1860Mhz klebt. Das kann nur eins bedeuten... die Karten sind nicht vorgewärmt. Denn laut CB ist das auch mit max. PT/TT nicht möglich. CB schreibt aber...

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Oder hat der Youtuber da ein modifiziertes Bios drauf?

Ich glaube dir ist nicht klar wie Boost bei Pascal funktioniert. Der hängt nämlich von der Stromdichte und Kühlung ab. Wenn ich also ein Modell mit hoher Güte habe, welches wenig Spannung benötigt geht der Boost entsprechend hoch. Bei Maxwell lag die Streuung bei 15%. Bei Pascal weiß ich es nicht, vermutlich geht's in die gleiche Richtung. Das bedeutet nicht dass die Performanc um 15% abweicht, sondern dass die Leckströme entsprechend 87,5-107,5% betragen (blöd ausgedrückt, ich weiß). Dem entsprechend muss mit Spannung, Takt und Kühlung nachgeregelt werden.
Wenn computerbase ein Modell hat was bei 1860 einbremst, kann es sein dass andere auch bei 1886 MHz nicht oder nicht ständig im PT/TT kleben. Die Videos von randomdude84 finde ich jedoch aus folgenden Gründen nicht hilfreich:

Steht nur herum (bei heutigen streaming engines ziemliche Verzerrung)
keine Angaben zu Kühlung (kann ja sein dass er ne Turbine da hat)
Keine Skalierungstests
Keine Verbrauchsangaben


Das nur am Rande.

In sämtlichen Benchmarks kann jeder sehen wie sich eine Geforce oder Radeon beim OC im Schnitt verhält. Mir gehts hier nicht um +/-5%, weil mir das einfach wumpe ist. Wenn man das ganze wissenschaftlich untersuchen möchte, sprich 100% exakt magst du durchaus recht haben. Ich bleibe dabei... solche Videos liefern mir wesentlich mehr Informationen als einzelne Szenen diverser Redaktionen. Ohne solche Videos würdest du nicht mal sehen, dass GPU X sich je nach Szene sehr unterschiedlich verhalten kann als GPU Y. Denn das sieht man auch im Video sehr gut.

Du erhebst sonst den Anspruch auf correctness und schiebst dies hier bei Seite. Wo kommen deine +/- 5% her? Dir liefern diese Videos immer dann mehr Information wenn es dir passt - ist so mein Gefühl.

mule
2017-11-20, 23:05:04
Warum? Wenn alle FPS verlieren sobald da Wolken sind? Es ist aufwendig das nachzuvollziehen, aber es verliert nicht an Aussagekraft.

,,Wenn alle'' unter gleichen Bedingungen getestet werden, ist die Aussagekraft natürlich gegeben. Es ging ja nur darum, wie kompliziert es in Forza7 ist genau das zu realisieren. Wenn bei gleichen Settings die Wetterbedingungen und damit die FPS so schwanken wie hier beschrieben wird, dann ist ein objektiver Vergleich sehr schwierig.

gedi
2017-11-20, 23:09:47
Ich teste grad HDR-Performance in einigen Spielen... aktuell noch mit Nvidia, da ist tatsächlich ein leichter Performance-Rückgang zu verzeichnen. Allerdings scheint das ein wenig auf das Spiel anzukommen. Bislang war's maximal ~10 % Fps-Verlust, aber das war nur eins von bislang vier Spielen (CoD WW2)... ansonsten hab ich eher so was wie 3 % Performance-Rückgang gemessen was eher vernachlässigbar ist. Vielleicht auch nur das Tonemapping? Würde mich dann eher wundern, wenn das bei AMD nicht so wäre...

Was aber definitiv auffällt, ist eine zusätzliche Latenz... Wow! Das merkt man schon ziemlich massiv auf dem Desktop, bei relativ niedrigen Bildraten (weil 4K) wird's dann ganz schön ekelig an der Maus... (EDIT: Dell UP2718Q, ist eventuell auch vom Display abhängig). Wobei ich sagen muss, dass ich da wohl sehr anfällig bin und schon bei 144 Hz mit Vsync (insbesondere Triple Buffering) die abolute Krise bekomme ;)

Wie hast du den Monitor angeschlossen? In 2D wundert es mich allerdings sehr. Ein Tipp: Nur bei UWP-Spielen musst du das HDR übers OS "erzwingen". Die Auflösung muss allerdings immer in 10-Bit sein, also über den Treiber erzwungen :) Und kuck dir in 4k z.B. in Forza 7 deine Frametimes mit Pascal an - die sind nicht so gut ...

GerryB
2017-11-20, 23:22:22
Bei Anzeigeeinstellungen würde ich trotzdem vorher HDR ein machen.
Damit das Spiel weiß das ein HDR-tauglicher Monitor da ist.
Aber das hat Blaidd sicher schon gemacht bei seinem HDR Bildquali Check - Artikel.
Da kann er ja gleich wieder Hitman nehmen. Reicht sicherlich der eingebaute Benchmark
für erste Fingerzeige.
Bei mir sieht der Desktop ohne HDR Mode auch bescheiden aus. Vllt. der Grund warum
es bei Blaidd 2d lagt. Sobald HDR ein alles supi.

gedi
2017-11-20, 23:32:00
Bei Anzeigeeinstellungen würde ich trotzdem vorher HDR ein machen.
Damit das Spiel weiß das ein HDR-tauglicher Monitor da ist.
Aber das hat Blaidd sicher schon gemacht bei seinem HDR Bildquali Check - Artikel.

Das erkennt das Spiel durch das OS/Treiber. Essenziell wichtig sind lediglich die 10-Bit, denn ansonsten Fake-HDR.

GerryB
2017-11-20, 23:47:45
@Gedi
Danke dass Du in so vielen Threads für HDR am PC kämpfst. Sonst hätten wir Null Info.
Hat mir sehr bei meiner Kaufentscheidung geholfen.

gedi
2017-11-21, 00:36:46
Ist zwar ziemlich OT, aber in Win 10 Build 17040 hat sich M$ der HDR-SDR 2D-Problematik angenommen:

http://up.picr.de/31007549fu.jpg

gedi
2017-11-21, 00:56:35
Ich glaube dir ist nicht klar wie Boost bei Pascal funktioniert. Der hängt nämlich von der Stromdichte und Kühlung ab. Wenn ich also ein Modell mit hoher Güte habe, welches wenig Spannung benötigt geht der Boost entsprechend hoch. Bei Maxwell lag die Streuung bei 15%. Bei Pascal weiß ich es nicht, vermutlich geht's in die gleiche Richtung. Das bedeutet nicht dass die Performanc um 15% abweicht, sondern dass die Leckströme entsprechend 87,5-107,5% betragen (blöd ausgedrückt, ich weiß). Dem entsprechend muss mit Spannung, Takt und Kühlung nachgeregelt werden.
Wenn computerbase ein Modell hat was bei 1860 einbremst, kann es sein dass andere auch bei 1886 MHz nicht oder nicht ständig im PT/TT kleben. Die Videos von randomdude84 finde ich jedoch aus folgenden Gründen nicht hilfreich:

Steht nur herum (bei heutigen streaming engines ziemliche Verzerrung)
keine Angaben zu Kühlung (kann ja sein dass er ne Turbine da hat)
Keine Skalierungstests
Keine Verbrauchsangaben


Das nur am Rande.



Du erhebst sonst den Anspruch auf correctness und schiebst dies hier bei Seite. Wo kommen deine +/- 5% her? Dir liefern diese Videos immer dann mehr Information wenn es dir passt - ist so mein Gefühl.

So funktioniert es eben nicht bei Pascal. Entscheident sind das VBios und die Temperatur. Die ASIC-Quality bringt dir vielleicht beim basteln deiner Kurve etwas, der Boost bleibt Default allerdings immer gleich unabhängig der ASIC. Ich hatte insgesamt 3x Pascal und das Prozedere war immer das gleiche.

Igor TH
2017-11-21, 07:35:58
@Gedi:
Zwei 1080 Ti der gleichen Modellreihe eines Herstellers liefern bei mir bei gleicher Temperatur veschiedenene Boost-Taktraten, trotz gleichen BIOSes. Sowohl unter 40°C, als auch aufgeheizt. Die Voltage differiert auch. Ich kann mein wassergekühltes SLI (Kreislauf parallel, nicht seriell) ganz gut kontrollieren.

dargo
2017-11-21, 08:36:18
Die Frage ist doch, was willst du aufzeigen? Worauf zielt der Benchmark ab?
Darauf.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11555045&postcount=7143

Warum? Wenn alle FPS verlieren sobald da Wolken sind? Es ist aufwendig das nachzuvollziehen, aber es verliert nicht an Aussagekraft.
Das Problem ist du erkennst die richtigen Wetterbedingungen nicht direkt. Außerdem habe ich keine Lust das Rennen zig mal neu zu starten bis die richtigen Wetterbedingungen für alle Settings vorhanden sind. Ich will ja auch irgendwann mal fertig werden. Hier fehlt einfach eine ini in der mal die Wetterbedingungen festlegen kann um exakte Reproduzierbarkeit gewährleisten zu können.

Hübie
2017-11-21, 09:06:54
So funktioniert es eben nicht bei Pascal. Entscheident sind das VBios und die Temperatur. Die ASIC-Quality bringt dir vielleicht beim basteln deiner Kurve etwas, der Boost bleibt Default allerdings immer gleich unabhängig der ASIC. Ich hatte insgesamt 3x Pascal und das Prozedere war immer das gleiche.

Red kein Blech. Das wird dir jeder Ingi so bestätigen. Wenn Boost gleich dann Spannung und Temperatur bzw. Lüfterdrehzahl unterschiedlich, es sei denn man hat das seltene Glück ziemlich äquivalent operierende Karten zu erwischen. :rolleyes: Den Wert den du via GPU-Z auslesen kannst ist für die Tonne.
Btw: Das BIOS richtet sich nach dem Chip und dessen Güte. Das binning von NV ist teuer und aufwändig, aber zahlt sich aus.

dargo
2017-11-21, 09:13:07
Du erhebst sonst den Anspruch auf correctness und schiebst dies hier bei Seite. Wo kommen deine +/- 5% her? Dir liefern diese Videos immer dann mehr Information wenn es dir passt - ist so mein Gefühl.
Du solltest vielleicht langsam aufhören zu phantasieren.

Es gibt wissenschaftliche Untersuchungen wo es auf exakte Reproduzierbarkeit ankommt, erst recht wo es zwischen verschiedenen Testsettings kleine Performanceunterschiede gibt. Und es gibt Untersuchungen die für eine Kaufentscheidung hilfreich sind wo es auf keine +/-x% ankommt weil beides spielbar ist. Beides ist legitim. Auch wenn ich mich wiederhole... einzelne, kurze Szenen die überwiegend von Redaktionen getestet werden sagen überhaupt nichts aus über die gesamte Performance im Spiel XY mit GPU XY. Es ist nur eine grobe Richtung. Man sieht oft genug, dass sich das Blatt in einer anderen Szene wenden kann. Dieses Argument von Raff mit seiner Worst Case Szene zieht bei mir auch nicht. Mal als Beispiel... wenn Worst Case bei mir paar Sekunden dauert und die Spielzeit im Spiel XY sagen wir mal 10-15 Stunden beträgt dann ist mir diese Worst Case Szene komplett wumpe, die ist schnell vergessen. Zumal das mit einem VRR-Bildschirm noch weniger "störend" ist.

Pirx
2017-11-21, 09:14:54
Red kein Blech....
Man ist ständig nachsichtig zu dir, wieso dann weiterhin die Überheblichkeit?

Hübie
2017-11-21, 09:29:10
Was hat es mit Überheblichkeit zu tun, wenn ich schreibe wie es ist und man widerspricht fälschlicherweise. Das vBIOS bestimmt mit Sicherheit nicht die physikalische Beschaffenheit (Dotierung, Ätzung, Isolator Qualität etc.). Mit mir ist auch keiner nachsichtig und ich erwarte es auch nicht. Kannst gerne was beitragen was mehr als einen Satz beinhaltet.

@dargo: Dann ist es deine Ansicht. Allerdings stehe ich im Spiel nicht still. Worst case ist immer dazu da um zu wissen was schlimmstenfalls passieren wird. Im Rest des Spiels sind die Unterschiede nicht groß (ob 100 oder 110, 120 oder 130 fps) um darüber zu diskutieren. Nichts was man nicht mit OC angleichen kann. Kannst gerne auf meine Kritikpunkte bzgl. des Videos eingehen, aber Benchmarks der Redaktionen als irrelevant abstempeln ist ...nun ja. Überheblich.

dargo
2017-11-21, 09:32:36
@dargo: Dann ist es deine Ansicht. Allerdings stehe ich im Spiel nicht still.
Wer redet vom still stehen? In meinen Benchmarks bewege ich mich immer damit die KI darauf reagieren kann. Im Video gibts ebenfalls genug bewegte Szenen.

Kannst gerne auf meine Kritikpunkte bzgl. des Videos eingehen, aber Benchmarks der Redaktionen als irrelevant abstempeln ist ...nun ja. Überheblich.
Dann hast du da was falsch verstanden. Ich sage nichts weiter als, dass einzelne Szenen nur eins abbilden... eben diese eine Szene! Und diese bildet erstens nicht die Performance des gesamten Spiels ab. Und zweitens muss GPU A nicht zwangsläufig in anderen Szenen auch schneller sein als GPU B nur weil es in der einen Szene der Fall ist. Denn genau durch so einen Schwachsinn entstehen dann Gerüchte @GPU XY failt.

Schaffe89
2017-11-21, 09:46:30
Denn genau durch so einen Schwachsinn entstehen dann Gerüchte @GPU XY failt.

Wenn das das Level oder die Szenen sind die am meisten performancemäßig reinhauen, dann "failt" eben die GPU des Herstellers der da weniger Frames liefert.
Denn ob ich im Falle einer GTX 1080 vs RX Vega 64 in 130 oder 170 FPS habe (CPU Limit vermutlich bei CB), kann ehrlichgesagt ziemlich egal sein, wenn an anderen Stellen die 1080 dann wieder etwas schneller oder gleichschnell ist, aber die FPS in kritische Bereiche fallen.
Man merkt sofort dass es dir nicht um einen neutralen Vergleich geht, sondern nur darum dass du Vega in den von dir prohezeiten LowLevel Titeln halt klar vorne sehen willst, ist aber nunmal leider nicht so, oder halt nur bedingt.
In Wolfenstein II wird für Vega alles aufgefahren was geht und trotzdem reicht es i-wie nicht dazu wirklich schneller zu sein, das sollte doch zu denken geben.

der Boost bleibt Default allerdings immer gleich unabhängig der ASIC. Ich hatte insgesamt 3x Pascal und das Prozedere war immer das gleiche.

Dann hattest du von der ASIC- Qualität her relativ gleichwertige Karten.
Jeder Test im Netz zeigt dir untersch. hoch boostende Karten bei ansonsten gleicher Temperatur und Powertarget bzw BIOS.

Rancor
2017-11-21, 09:56:18
Ja ich finde es auch sehr lächerlich, die Redaktionen für Ihre Testmethoden und Ergebnisse zu kritisieren und zu fordern, das man das ganze Spiel betrachten müsse und nicht nur einzelne Szenen.
Das kann man vllt machen, wenn man eine Karte hat und sonst nicht weiss was man mit seiner Zeit anfangen soll.
Ansonsten ist das für eine Redaktion einfach nicht durchführbar. Die Testmethoden sind mehr als ausreichend um zu bestimmen, wie gut eine Karte in einem Spiel performt oder eben nicht.

Die Forderung rührt doch nur daher, das die Ergebnisse nicht den eigenen Erwartungen entsprechen und man deshalb solange eigene Benchmarks durchführt, bis das gewünschte Ergebnis "irgendwie" da ist.
Dann geht man unter dem Deckmantel der Neutralität hier ins Forum und sagt: "Seht Her Forum!!!! Die Reaktion benchen nur wieder Müll... Ich habe hier die einzige wahren Ergebnisse und valide Testmethoden..."

Wie oft man hier in letzter Zeit Dinge wie: EY LOL? Was hat CB da wieder gebencht, ey no way !!!111elf oder : ZOMFG PCGH wieder, kannste ehh vergessen :rolleyes: und das nur weil die eigene Karte hinter den überzogenen Erwartungen bleibt.

Pirx
2017-11-21, 10:04:49
Das ist nicht lächerlich, ganz im Gegenteil. Es zeigt die Unzulänglichkeiten von Testmethoden auf. Das ist noch keine Kritik, da es eben für Redaktionen Realitäten gibt, die nicht zu ändern sind, wie begrenzte Zeit.
Nichtsdestotrotz müssen die Redaktionen darauf eingehen und sind ein bisschen mehr zu Transparenz gezwungen. Einige erfüllen das heute schon ganz gut, andere nicht. Es soll halt niemandem zu gut gehen.;)

pilzsammler2002
2017-11-21, 10:05:09
Ich kann die "Forderung" schon verstehen...

Aus mehreren Quellen weiss man das die Vega 64/56 das ganze Game über bedeutend besser performt als an dieser einen Stelle... Warum zieht man also diese eine Stelle als Benchmark heran...? Warum nimmt man nicht (Als Bsp.) ne Stelle wo Nvidia schlecht performt? :biggrin:

Ich kaufe immer noch pcgh und lese auch auf deren Seite, aber wenn man sich teilweise die Unterschiede anguckt die z.B. mit dem 17.11.2 Treiber entstehen bei CB und PCGH kann man doch genauso gut argumentieren das einer von den beiden Mist "baut" oder sie genau so viel Aussagekraft haben wie die Youtube "Benches"... :biggrin:

Rancor
2017-11-21, 10:09:13
Ändert aber nichts daran, das wenn VEGA an der Stelle gut performt hätte, diese unsinnigen Forderungen gar nicht erst gestellt worden wären. Ich fang ja auch nicht an rumzuheulen, nur weil meine GTX 1070 immer öfters hinter VEGA 56 liegt. Ja mein Gott, dann ist es eben so. Deshalb diskreditiere ich aber nicht die Testmethoden der Magazine. :freak:

Es liegt in der Natur der Sache, das Redaktionen nicht mit 20 Grafikkarten das Spiel in der Gesamtheit benchen können und auch im Test Marathon nicht mal eben den Treiber wechseln können, weil dann bedeutet das Reset und alle nochmal von vorne.

Das ist das Problem.

dargo
2017-11-21, 10:11:28
@Rancor

Lesen und verstehen. Ich kritisiere nicht die Redaktionen in erster Linie sondern das was die Leseschaft daraus fälchlicherweise ableitet! Denn mir ist bewußt wie zeitaufwändig die Arbeit ist. Schließlich beschäftige ich mich damit selbst in bestimmten Bereichen.

PS: das einzige was ich bezüglich der Testmethodik der Redaktionen kritisiere ist ggf. fehlende Transparenz wie zb. ein Video der Benchszene.


Die Forderung rührt doch nur daher, das die Ergebnisse nicht den eigenen Erwartungen entsprechen und man deshalb solange eigene Benchmarks durchführt, bis das gewünschte Ergebnis "irgendwie" da ist.
Dann geht man unter dem Deckmantel der Neutralität hier ins Forum und sagt: "Seht Her Forum!!!! Die Reaktion benchen nur wieder Müll... Ich habe hier die einzige wahren Ergebnisse und valide Testmethoden..."

Wie oft man hier in letzter Zeit Dinge wie: EY LOL? Was hat CB da wieder gebencht, ey no way !!!111elf oder : ZOMFG PCGH wieder, kannste ehh vergessen :rolleyes: und das nur weil die eigene Karte hinter den überzogenen Erwartungen bleibt.
Was soll dieser Schwachfug wieder? Darf man jetzt nicht hinterfragen bezüglich Forza Motorsport 7 wenn man auf dem eigenen System Ungereimtheiten feststellt? :| Ich verrate dir mal was... bei CB, der PCGH und Konsorten sitzen genauso Menschen wie du und ich denen Fehler passieren können weil sie in eine "Benchfalle" tappen. Ist oft genug passiert.

Rancor
2017-11-21, 10:18:57
@Rancor

Lesen und verstehen. Ich kritisiere nicht die Redaktionen in erster Linie sondern das was die Leseschaft daraus fälchlicherweise ableitet! Denn mir ist bewußt wie zeitaufwändig die Arbeit ist. Schließlich beschäftige ich mich damit selbst in bestimmten Bereichen.

Ps: das einzige was ich bezüglich der Testmethodik der Redaktionen kritisiere ist ggf. fehlende Transparenz wie zb. ein Video den Benchszene.

Aha, also was soll die "Leserschaft" denn nun tun? Warten bis dargo seine VEGA exklusiven Benchmarks fertiggestellt hat? Soll der Leser jetzt jeden Benchmark kritisch hinterfragen?
Und wie soll er das denn praktisch tun? Niemand hat 20 Grafikkarten zu Hause um die Ergebnisse zu überprüfen.

Wer sagt mir denn, als Leser, das du da nicht ebenfalls bei deinen Bechmarks biased nachgeholfen hast und Cherrypicking betreibst?
Merkste selber oder?

Man muss den Redaktionen schon vertrauen können, ansonsten macht es überhaupt keinen Sinn Benchmarks anzuschauen, die man nicht selber durchgeführt hat.


Was soll dieser Schwachfug wieder? Darf man jetzt nicht hinterfragen bezüglich Forza Motorsport 7 wenn man auf dem eigenen System Ungereimtheiten feststellt? :| Ich verrate dir mal was... bei CB, der PCGH und Konsorten sitzen genauso Menschen wie du und ich denen Fehler passieren können weil sie in eine "Benchfalle" tappen. Ist oft genug passiert.

Das ist kein Schwachfug, sondern der Eindruck der sich hier ergibt. Fehler passieren, keine Frage. Aber es ist schon auffällig, wie häufig doch VEGA Bechmarks kritisiert werden, von Leuten die ne VEGA in ihrem Rechner haben.

dargo
2017-11-21, 10:25:27
Wer sagt mir denn, als Leser, das du da nicht ebenfalls bei deinen Bechmarks biased nachgeholfen hast und Cherrypicking betreibst?
Merkste selber oder?

Unfassbar. :facepalm:

Meine jüngsten Benchmarks sind vollkommen transparent die jeder daheim nachstellen kann!

Pirx
2017-11-21, 10:26:08
...
Man muss den Redaktionen schon vertrauen können, ansonsten macht es überhaupt keinen Sinn sich Benchmarks anzuschauen, die man nicht selber durchgeführt hat.
Vertrauen ist gut, Kontrolle ist besser.
Was sich CB mit der nicht näher benannten "worst case"-Szene geleistet hat, die dann im ganzen Artikel breitgetreten wurde, ist nicht transparent und das war nicht das erste Mal.
Daher ist es grundsätzlich gut, wenn durch Youtuber für mehr Transparenz gesorgt wird, auch wenn es neue Fragen aufwirft, damit bestimmten Redakteuren besser die Finger geklopft werden kann und sie nicht widerspruchslos immer so weiter machen können. Vertrauen muß man sich verdienen.

robbitop
2017-11-21, 10:27:16
Wenn ein Benchmark nicht reproduzierbar ist, ist er als Benchmark ungeeignet. Hier ist Kritik durchaus legitim. Reproduzierbarkeit und konkludente Ergebnisse (inkl sanity check) sind die Grundlage von seriösen Leistungsvergleichen. Das sollte schon Mindeststandard von Redaktionen sein, die ihre Ergebnisse monetarisieren, dies also professionell tun.

Rancor
2017-11-21, 10:35:46
Unfassbar. :facepalm:

Meine jüngsten Benchmarks sind vollkommen transparent die jeder daheim nachstellen kann!

Nö, da hilft dir auch Picard nicht weiter. Niemand kann sie exakt nachstellen, denn niemand hat exakt deinen Rechner. Also sind die Voraussetzung schon mal andere. Davon ab hat auch nicht "jeder" ne VEGA in seinem Rechner.

Unfassbar ist eher, das du wirklich der Meinung bist, hier die einzige wahren und validen Benchmarks zu liefern und alle andere Mumpitz benchen. Es kommt wirklich sehr Überheblich rüber und auch ein wenig lächerlich.


Wenn ein Benchmark nicht reproduzierbar ist, ist er als Benchmark ungeeignet. Hier ist Kritik durchaus legitim. Reproduzierbarkeit und konkludente Ergebnisse (inkl sanity check) sind die Grundlage von seriösen Leistungsvergleichen. Das sollte schon Mindeststandard von Redaktionen sein, die ihre Ergebnisse monetarisieren, dies also professionell tun.

Da bin ich dacor.

Aber das trifft dann wohl auf alle Spiele zu, die keine integrierte Benchmark-Funktion haben. Aber die ist ja wiederum auch scheiße, weil sie ja nicht das wahre Spiel wiedergibt.

dargo
2017-11-21, 10:37:28
Das ist kein Schwachfug, sondern der Eindruck der sich hier ergibt. Fehler passieren, keine Frage. Aber es ist schon auffällig, wie häufig doch VEGA Bechmarks kritisiert werden, von Leuten die ne VEGA in ihrem Rechner haben.
Dann überlege mal ganz scharf woran das wohl liegt? Auf die Idee bist du wohl noch nicht gekommen, dass man als Karten-Besitzer etwas mehr zu Gesicht bekommt als nur die eine einzelne Szene diverser Redaktionen? :rolleyes:

Nö, da hilft dir auch Picard nicht weiter. Niemand kann sie nachstellen, denn niemand hat exakt deinen Rechner. Also sind die Vorraussetzunge schonmal andere.

Was ist das denn wieder für ein Unsinn? Mit diesem Argument sind alle Benchmarks wertlos da niemand die gleiche Hardware zu Hause hat. Wozu also der ganze Aufwand? Dein Problem ist offenbar, dass du nicht die richtigen Schlüsse aus diversen Benchmarks ableiten kannst. Das simpleste Beispiel schlechthin... Benchmarks in 720p bringen User X gar nichts wenn er zu Hause mit 1080p/1440p spielt, genauso wenig bringen ihm Benchmarks in 4k. Selbst wenn er exakt die gleiche Hardware verwendet wie die Redaktion. Er wird immer andere Ergebnisse haben.


Das trifft dann wohl auf alle Spiele zu, die keine integrierte Benchmark-Funktion haben.
Ist kompletter Quatsch. Jedes Savegame lässt sich sehr gut reproduzierbar benchen wenn man gewisse Dinge beachtet die jeder der sich damit genauer befasst kennt.

Edit:
Da fällt mir noch was ein.

Ich hatte mal gefragt wie es sein kann, dass Vega bei CB beim Wechsel von AA off auf TSSAA (8TX) in Wolfenstein 2 ganze 18% Leistung verliert, was ich bei mir nicht nachstellen kann? Leider habe ich darauf keine Antwort bekommen. Der Fehler muss nicht immer bei dem Reviewer liegen. Manchmal gibt es Bugs, dass Settings nicht richtig übernommen werden. Manchmal sitzt das Problem vor dem Monitor oder es ist einfach die Unwissenheit, dass die Szene neu geladen werden muss damit die Settings auch korrekt übernommen werden.

Fehler passieren, davon ist auch keine Redaktion befreit.

Rancor
2017-11-21, 10:48:02
Dann überlege mal ganz scharf woran das wohl liegt? Auf die Idee bist du wohl noch nicht gekommen, dass man als Karten-Besitzer etwas mehr zu Gesicht bekommt als nur die eine einzelne Szene diverser Redaktionen? :rolleyes:

:rolleyes:
Meinst du nicht, das die Reaktionen sich schon repräsentative Szenen rausgesucht haben oder glaubst du sie nehmen wahllos irgendwelche Spielabschnitte?
Glaubst du wirklich das zB. PCGH Wolfenstein nicht durchgespielt hat um eine Seznenauswahl zu treffen? Absurd...

BTW. Hättest du das Fass aufgemacht, wenn VEGA in den Szenen normal performt hätte oder sogar besser als NV?
Ich stelle nur deine Motive in Frage, damit die Leserschaft sich eben ein neutrales Bild machen kann :D

Was ist das denn wieder für ein Unsinn? Mit diesem Argument sind alle Benchmarks wertlos da niemand die gleiche Hardware zu Hause hat. Wozu also der ganze Aufwand?

Ja, das ist wohl der Grund warum DU die Benchmarks der Redaktionen in Frage stellst. Ich hab das Thema nicht begonnen. Ich konfrontiere dich nur mit deiner eigenen Argumentation, um dir zu zeigen wie unsinnig Sie ist.

Ist kompletter Quatsch. Jedes Savegame lässt sich sehr gut reproduzierbar benchen wenn man gewisse Dinge beachtet die jeder der sich damit genauer befasst kennt.
Jede Szene ist etwas unterschiedlich, auch wenn ich ein Savegame lade. 100% wissenschaftliche Reproduzierbarkeit erreiche ich so nicht, das würde nur mit einem integrierten Benchmark funktionieren.

Daredevil
2017-11-21, 10:57:23
Wer redet vom still stehen? In meinen Benchmarks bewege ich mich immer damit die KI darauf reagieren kann. Im Video gibts ebenfalls genug bewegte Szenen.
Das ist hier kein Forza Benchmark Thread, aber gibt es keine Replay Funktion bei dem Spiel?
Der Replay müsste doch eigentlich immer gleich sein incl. Wetterbedinungen, oder?

Das könnte man ja abspielen, Settings ändern und nochmal abspielen.

dargo
2017-11-21, 11:08:51
Jede Szene ist etwas unterschiedlich, auch wenn ich ein Savegame lade. 100% wissenschaftliche Reproduzierbarkeit erreiche ich so nicht, das würde nur mit einem integrierten Benchmark funktionieren.
Das ist nach wie vor kompletter Unsinn und zeigt mir nur, dass du wenig Ahnung von diesem Thema hast.

1. Intergrierte Benchmarks eignen sich zwar sehr gut für Grafikkartentests. Für CPU-Tests oftmals nicht da die CPU-Last in Timedemos deutlich geringer sein kann als im tatsächlichen Spiel. Beim letzteren gibt es Ausnahmen. Intergrierte Benchmarks sind allerdings mit Vorsicht zu genießen, Gefahr von gezielter IHV-Optimierung.
2. Jedes Savegame lässt sich problemlos sehr gut reproduzierbar benchen. Dafür sollte man am besten die Benchszene so kurz wie möglich halten (ich nehme dafür gerne 5 Sekunden) und im Optimalfall keine Richtungswechsel tätigen, ansonsten hat man u.U. größere Abweichungen wieder.
3. Immer mehrere Durchläufe machen und davon den Schnitt ermitteln. Je nach Grad der Abweichung der einzelnen Durchläufe ggf. diese erhöhen. Wenn allerdings zwischen den einzelnen Durchläufen solche Späße wie zb. +/-10% oder gar mehr bei rumkommt dann ist die Szene als Benchmark nicht geeignet.
4. Die Benchszene bei Savegames kann ruhig auch etwas länger sein wenn die einzelnen Durchläufe wenig von einander abweichen. Das Risiko zu stärkeren Abweichungen ist halt größer.

btw.
100% kriegst du nie hin. 99,xx% reichen aber.

Das ist hier kein Forza Benchmark Thread, aber gibt es keine Replay Funktion bei dem Spiel?
Der Replay müsste doch eigentlich immer gleich sein incl. Wetterbedinungen, oder?

Ich bin gerade dran. Möchte hier allerdings auch mehrmals das Spiel neu starten und schauen ob die Ergebnisse reproduzierbar sind. Nicht, dass ich hier in die gleiche Benchfalle tappe.

:rolleyes:
Meinst du nicht, das die Reaktionen sich schon repräsentative Szenen rausgesucht haben oder glaubst du sie nehmen wahllos irgendwelche Spielabschnitte?

Die PCGH sucht schon mal nach den Worst Cases was die Höhe der Framerate angeht.

Rancor
2017-11-21, 11:25:15
Das ist nach wie vor kompletter Unsinn und zeigt mir nur, dass du wenig Ahnung von diesem Thema hast.

1. Intergrierte Benchmarks eignen sich zwar sehr gut für Grafikkartentests. Für CPU-Tests oftmals nicht da die CPU-Last in Timedemos deutlich geringer sein kann als im tatsächlichen Spiel. Beim letzteren gibt es Ausnahmen.
2. Jedes Savegame lässt sich problemlos sehr gut reproduzierbar benchen. Dafür sollte man am besten die Benchszene so kurz wie möglich halten (ich nehme dafür gerne 5 Sekunden) und im Optimalfall keine Richtungswechsel tätigen, ansonsten hat man u.U. größere Abweichungen wieder.
3. Immer mehrere Durchläufe machen und davon den Schnitt ermitteln. Je nach Grad der Abweichung der einzelnen Durchläufe ggf. diese erhöhen. Wenn allerdings zwischen den einzelnen Durchläufen solche Späße wie zb. +/-10% oder gar mehr bei rumkommt dann ist die Szene als Benchmark nicht geeignet.

btw.
100% kriegst du nie hin. 99,xx% reichen aber.

Du als professioneller "Benchmarker", hast aber die Weisheit mit Löffeln gefressen. :rolleyes: Es ist schlechter Stil jemanden keine Ahnung vorzuwerfen, wenn man selber nur Laie ist.

1. Geht es hier um Grafikkarten
2. Ist das dein Ernst? :freak: :facepalm:
3. Gehe ich mit

Nur weil du mit deiner VEGA nun ein paar Benchmarks gemacht hast, bist du weit davon entfernt ein Fachmann zu sein, auch wenn du es so gerne sein möchtest.
Deine Überheblichkeit ist wirklich kaum auszuhalten

dargo
2017-11-21, 11:26:25
2. Ist das dein Ernst?
Mein voller ernst!


Nur weil du mit deiner VEGA nun ein paar Benchmarks gemacht hast, bist du weit davon entfernt ein Fachmann zu sein.
Deine Überheblichkeit ist wirklich kaum auszuhalten
Junge... ich habe nirgendwo gesagt ich wäre Fachmann oder was auch immer. Ich habe es auch nicht nötig mich mit solchen völlig wertlosen Worten zu schmücken. Ich bin auch nicht für deine Fehlinterpretationen, die in deinem Kopf rumschwirren verantwortlich. Ich weise nur auf mögliche Fehlerquellen hin.

akuji13
2017-11-21, 11:32:44
Das ist nach wie vor kompletter Unsinn und zeigt mir nur, dass du wenig Ahnung von diesem Thema hast.

1. Intergrierte Benchmarks eignen sich zwar sehr gut für Grafikkartentests.

Was verwendest du so gerne?

:facepalm:

Auf solche stetig gleich ablaufenden Benchmarks kann gezielt optimiert werden.

Rancor
2017-11-21, 11:34:53
Junge... ich habe nirgendwo gesagt ich wäre Fachmann oder was auch immer. Ich habe es auch nicht nötig mich mit solchen völlig wertlosen Worten zu schmücken. Ich bin auch nicht für deine Fehlinterpretationen, die in deinem Kopf rumschwirren verantwortlich. Ich weise nur auf mögliche Fehlerquellen hin.

Nein du kritisierst professionelle Benchmarks und bezeichnest sie als fehlerhaft und versucht das mit deinen eigenen Benchmarks zu belegen, die aber keinesfalls dafür geeignet sein.

Wenn du mir vorwirfst keine Ahnung zu haben, du aber selber Laie bist, musst das der Leser schon wissen.

Schließlich ist es ja dein Ziel gewesen, die Leserschaft darauf aufmerksam zu machen, keine falschen Schlüsse aus PCGH und Co. zu ziehen.

Ich weise nur darauf hin, keine falschen Schlüsse aus dargo Benchmarks zu ziehen, da sie

a. ) auch entgegen deiner Behauptung nicht nachstellbar und überprüfbar für jeden sind. ( das was du den Redaktionen vorwirfst )
b. ) Du eine Laie bist
c. ) Deine Motive in Frage zu stellen sind.

dargo
2017-11-21, 11:36:28
Auf solche stetig gleich ablaufenden Benchmarks kann gezielt optimiert werden.
Stimmt, diesen Punkt habe ich vergessen zu erwähnen, wird gleich editiert.

@Rancor
Mach dich ruhig weiter lächerlich. Als ich mit Benchmarks angefangen habe da warst du lange gar nicht hier im Forum so aktiv.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=326362

Das war noch die Zeit wo madkiller (an dieser Stelle schön Grüße an madkiller :wave2:, schade, dass er hier nicht mehr unterwegs ist) und meine Wenigkeit die Masse überzeugen mussten, dass Timedemos zumindest für CPU-Tests komplett ungeeignet sind. Was ein CPU-/oder GPU-Limit ist wussten auch die wenigsten.

robbitop
2017-11-21, 11:38:47
@Rancor
deshalb investiert man eine ganze Menge Zeit in jedes Spiel, was in den Parcours aufgenommen wird. Man schaut es sich von hinten nach vorn an und sucht sich repräsentative Stellen für einen Benchmark heraus und validiert diese anschließend. Kostet etwas Zeit und geht nicht schnell schnell. Hat dann anschließend aber auh hand und Fuß. Dieser Methodik folgen mWn zumindest DF und PCGH (Igor sicherlich auch). Hoffentlich andere Redaktionen auch. Einfach nur einen unvalidierten Benchmark durchlaufen zu lassen, ist hoffentlich nicht der Anspruch.
Wenn das ganze dann noch transparent dokumentiert ist, reden wir von professioneller Arbeit. :)
(IMO)

Ohne jetzt alles gelesen zu haben:
IdR hat dargo einen ganz guten Riecher für Benchmarks, Messmethodik, Störgrößen und Bottlenecks.

Im Grunde seid ihr euch doch einig, dass gewisse Standards notwendig sind.

Igor TH
2017-11-21, 12:08:26
Für die ganz Neugieregen:
Einer der großen Hersteller startet die Vega Mass Production mit ein paar Tausend Karten noch Ende dieser Woche (diese Info ist von gerade eben). Die können dann, per Flugzeug verfrachtet und dezent gestreut, sogar noch vor Weihnachten in den Läden stehen. Somit hätten wir dann zumindest Sapphire ("Launch" ist am 8.12.), Asus, Powercolor und Gigabyte (PVT-Sample liegt hier, MP kommt nä. Woche). Ob das für eine echte Sättigung reicht - warten wir es mal ab. Aktuell bereitet man sich ja bei den Mischproduzenten schon auf Ampere vor...

Die Gigabyte-Karte ist erstaunlich kühl und leise. Dick und kompakt. Nur die Gehäuselüftung muss was abkönnen. Es geht weit über 400 Watt auf Wunsch.

Daredevil
2017-11-21, 12:11:47
Die Mining Guys werden wohl auch diese Karten aus den Händen reißen. :/
Da muss man echt schnell dann sein.

Raff
2017-11-21, 12:13:44
Die Minenarbeiter (bzw. deren Zuhälter) können auch die billigeren Referenzkarten kaufen, da ist Lautheit sekundär.

MfG,
Raff

Igor TH
2017-11-21, 12:14:34
Bei DEN Preisen werden Miner wohl eher zu zwei 1070ern greifen. :D

Rancor
2017-11-21, 12:18:09
Gut das nun die Customs endlich auf den Markt kommen. So wandert dann hoffentlich bald ne VEGA 56 in meinen Zweitrechner.

Daredevil
2017-11-21, 12:20:16
Die Minenarbeiter (bzw. deren Zuhälter) können auch die billigeren Referenzkarten kaufen, da ist Lautheit sekundär.

MfG,
Raff

Wiederverkaufswert und die Lautheit spielt für die Laien Schürfer schon ne Rolle. Aber der Preis sollte dann schon 450/550 betragen. ^^
Die Ref Karten sind ja jetzt preislich auch nicht mehr soooo attraktiv.

Dant3
2017-11-21, 12:31:43
Für die ganz Neugieregen:
Einer der großen Hersteller startet die Vega Mass Production mit ein paar Tausend Karten noch Ende dieser Woche (diese Info ist von gerade eben).
Handelt es sich dabei ausschließlich um Vega 64 oder darf man auch mit 56er Versionen rechnen?

Schlammsau
2017-11-21, 12:44:26
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil/

590 Pfund also umgerechnet 666€ (Red Devils) ...... :crazy:

Au Backe .....

Zergra
2017-11-21, 12:47:34
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil/

590 Pfund also umgerechnet 666€ (Red Devils) ...... :crazy:

Au Backe .....
War doch zu erwarten das die Custom Karten eine ganze Ecke teurer sind.

Pirx
2017-11-21, 12:48:07
lass es sich einpegeln
Es ist immer wieder das Gleiche...

Schlammsau
2017-11-21, 12:50:36
Da perndelt sich gar nix ein, nicht bevor der Mining Hype vorüber ist. Schau dir Mal die Preise der RX580 an, seit nun 5 Monaten immer noch viel zu hoch.

Aber wenn man warten kann bis Weihnachten 2018, gut.

Rancor
2017-11-21, 12:52:16
Gibts keine Infos zu VEGA 56 Customs ?

Argo Zero
2017-11-21, 13:00:37
@ Topic


Gutes Stichwort :uup: Bleibt jetzt bitte auch dabei.

Raff
2017-11-21, 13:01:51
Gibts keine Infos zu VEGA 56 Customs ?

Asus RX Vega 56 Strix kommt bald: http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/Asus-ROG-Strix-Auslieferung-Verfuegbarkeit-1244045/

MfG,
Raff

GerryB
2017-11-21, 13:52:40
Die Minenarbeiter (bzw. deren Zuhälter) können auch die billigeren Referenzkarten kaufen, da ist Lautheit sekundär.

MfG,
Raff

Die werden UV+runtergetaktet nur Vram angezogen.
NIX mit laut. Höchstens Dein Tinnitus.

Schlammsau
2017-11-21, 14:08:19
Deswegen ist Vega irgendwo zwischen Top und Flop einzuordnen. Bums haben die Karten ja ....

Raff
2017-11-21, 14:15:10
... wenn man nicht spielt, sondern etwas berechnen lässt, yep. Da kommen die zahlreichen FLOPS (hier ist ein "Flop" etwas Gutes ;)) durch.

MfG,
Raff

dargo
2017-11-21, 15:04:55
War doch zu erwarten das die Custom Karten eine ganze Ecke teurer sind.
Jepp, deshalb hatte ich auch bei den guten Angeboten zu der Liquid gegriffen.

btw.
Powercolor möchte wohl in den Benchmarks mit der Red Devil ganz vorne stehen wenn ich mir die Taktraten so anschaue und lässt sich das auch bezahlen. Sieht so aus, dass die Karte mit dem Bios 1 im balanced Profil die gleiche Asicpower von 264W (eventuell minimal weniger) abbekommt wie die Liquid. Ob das dann noch leise ist und mit welchen Temperaturen betrieben werden kann werden dann Tests zeigen. Der Preis wird sich natürlich noch etwas nach unten bewegen. Stichwort... "Deppenaufschlag".

GerryB
2017-11-21, 15:05:26
... wenn man nicht spielt, sondern etwas berechnen lässt, yep. Da kommen die zahlreichen FLOPS (hier ist ein "Flop" etwas Gutes ;)) durch.

MfG,
Raff

Oder man spielt mit HDR.
Verstehe nicht FE + 4k Moni. bei Dir.
Da kannste ein schönes Wakü Cf + HDR-Monitor machen.
More Bang for Buck

akuji13
2017-11-21, 15:10:31
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil/

590 Pfund also umgerechnet 666€ (Red Devils) ...... :crazy:

Au Backe .....

Was für ein Drama.

Ich habe die Planung soweit abgeschlossen und werde auch Vega unter Wasser setzen.

In einem anderen Gehäuse ist sie zwar deutlich leiser, stört mich aber inzwischen trotzdem.

Lehdro
2017-11-21, 15:26:12
Die werden UV+runtergetaktet nur Vram angezogen.
NIX mit laut. Höchstens Dein Tinnitus.
Doch laut.
Meine Vega 64 wurde beim ETH Mining zwangsweise laut - den HBM unter der Schwelle zu halten ist bei den meisten Vegas doch deutlich schwerer als den Kern kühl zu halten. Vor allem weil der Lüfter ja nur mit der Kerntemp steuert.

Monero ging aber halbwegs erträglich, rein akustisch gesehen. Aber leise ist definitiv was anderes, vielleicht ne Liquid :)

Zergra
2017-11-21, 16:20:24
Jepp, deshalb hatte ich auch bei den guten Angeboten zu der Liquid gegriffen.


Ja ich bin jetzt auch bei 500€ für die V64 inkl. Fullcover Block, nachdem verkauf der Spiele und dem Verkauf der V56 :rolleyes: dazu noch 200€ für den Rest der Wasserkühlung, naja das meiste ist sind ja einmal ausgaben :freak:

Palpatin
2017-11-21, 16:48:46
Da perndelt sich gar nix ein, nicht bevor der Mining Hype vorüber ist. Schau dir Mal die Preise der RX580 an, seit nun 5 Monaten immer noch viel zu hoch.

Aber wenn man warten kann bis Weihnachten 2018, gut.
RX 580 ist seit ca Mitte Oktober wieder gut zu Preisen unter 300€ verfügbar.
https://geizhals.de/?phist=1610169&age=365

Daredevil
2017-11-21, 16:51:01
Dafür kostet halt Vega56 500€ und Veg64 540€. :>
No Need RX580.

GerryB
2017-11-21, 17:50:53
Doch laut.
Meine Vega 64 wurde beim ETH Mining zwangsweise laut - den HBM unter der Schwelle zu halten ist bei den meisten Vegas doch deutlich schwerer als den Kern kühl zu halten. Vor allem weil der Lüfter ja nur mit der Kerntemp steuert.

Monero ging aber halbwegs erträglich, rein akustisch gesehen. Aber leise ist definitiv was anderes, vielleicht ne Liquid :)

Du kannst doch ne feste Lüftergeschwindigkeit einstellen.
Da kann der Core ruhig idlen.
Ich finde die Qualität vom Referenzlüfter OK. (RX480 war viel schlimmer)
Würde natürlich nicht in dem Zimmer schlafen wollen.
Ingame:
Sogar bei Cf gehts eigentlich weil die sekundäre Karte 10°C kühler ist und
damit eigentlich nicht rauszuhören.
Da macht sich bei Stress eher die Aio von der CPU bemerkbar.
Mein Custom Powersafemode = PT-10; vcore 1,02V (wg. HDR)
Am normalen 4k-Monitor ging sogar 0,95V.
Wattman ist auf jeden Fall ganz anders als bei RX480.
Habe P6+7 auf 1472/1477. Und trotzdem gehts teilweise auf 1500!?
Da reichen dann 400-2750U/min, die Ingame rel. schnell hoch und runter gehen
gerade mit fps-limit. Temp 80-55 (kühler ist besser für Vega)
Bei SingleGraka natürlich einfacher. Ich nehme mal an die primäre Karte hat einen
höheren Verwaltungsaufwand.
Die Miner haben natürlich viel tiefere Settings.

fondness
2017-11-21, 18:28:31
Wie schnell sich doch die Zeiten ändern.

Weihnachten? Man muss mindestens 6 Wochen für Shipping und Channel einplanen. Plus 2-4 Wochen für die MP im Volauf. Dann hätten wir Neujahr++. Der Zug ist abgefahren - leider.


Für die ganz Neugieregen:
Einer der großen Hersteller startet die Vega Mass Production mit ein paar Tausend Karten noch Ende dieser Woche (diese Info ist von gerade eben). Die können dann, per Flugzeug verfrachtet und dezent gestreut, sogar noch vor Weihnachten in den Läden stehen. Somit hätten wir dann zumindest Sapphire ("Launch" ist am 8.12.), Asus, Powercolor und Gigabyte (PVT-Sample liegt hier, MP kommt nä. Woche). Ob das für eine echte Sättigung reicht - warten wir es mal ab. Aktuell bereitet man sich ja bei den Mischproduzenten schon auf Ampere vor...

Die Gigabyte-Karte ist erstaunlich kühl und leise. Dick und kompakt. Nur die Gehäuselüftung muss was abkönnen. Es geht weit über 400 Watt auf Wunsch.

Achim_Anders
2017-11-21, 18:41:29
Ich denke beim ersten Post meint igor schon eher eine vollkommene Sättigung des Marktes mit breiter Verfügbarkeit...

GerryB
2017-11-21, 19:13:22
Was erwartet Ihr denn von den Customs ?
Die Strix scheint ja immer im PT zu laufen - kann sich kaum absetzen.
Da müßte man dann noch ganz schön Hand anlegen. (UV)
Vega wird ja erst unter 60°C richtig fluffig.
Marktsättigung egal : Erstmal die Enthusiasten die Weihnachten Spielzeug brauchen
und noch nicht zugeschlagen haben zum kleinen Aufpreis.
Entscheidend insgesamt wird doch Dell+HP+Lenovo.
Was ist eigentlich mit den Mac´s ? Gibt es da auch Spiele ?

dargo
2017-11-21, 19:15:35
Was erwartet Ihr denn von den Customs ?

Leise Kühlung.

Daredevil
2017-11-21, 19:17:51
Was willste denn erwarten?
Wenn du ne Stock Vega auf 100% drehst, kannste dir die Performance ja schon ausmalen, da wirst du keine großen Sprünge machen.
Eine Custom wird schnell werden, aber halt nur auf Kosten der Watt Performance, ansonsten wird die halt ziemlich leise sein, wenn man UV betreibt und sie nicht bis zum erbrechen taktet.

GerryB
2017-11-21, 19:44:04
Achill hat doch mal Watt gegen Hotspottemp. vgl. .
Wenn der Sweetspot 50Hz hoch geht ist doch schon viel gewonnen.
Da geht dann auch 50€ Aufschlag.
Unter 60°C ist die RX56 doch ne Waffe. Rev. 3 UV sehr gut.
Mich limitiert bei der Ref. eben der Lüfter. Da hilft nur PT runter wg. leiser.
Ob es wie bei der Fury wird mal schauen.
Es gibt genügend Leute die RX64LC - Niveau bei ner RX56 Air wollen.
(natürlich mt Hand anlegen)

Daredevil
2017-11-21, 20:05:17
Gibt es noch andere Möglichkeiten außerhalb des WattTools, um die Spannung komfortabel zu senken?
Ich könnte zwar auf das Vega56 Bios wieder runter gehen, aber anscheinend ist der SOC Clock unter anderem für den Performance Schub verantwortlich bei minen und der liegt bei dem Bios nicht so hoch?! Ich hab gerade so halb gecheckt, wie Pascal funktioniert, jetzt muss ich mich in Vega clocking auch noch reinfuchsen. Da ändert man das PT um 10% und zwei Clocks sinken sofort, der eine schwankt hin und her. Wtf. :D

Weil das WattTool ist anscheinend nicht kompatibel mit dem Beta Blockchain Treiber vom 23. August. Also augenscheinlich ist überhaupt gar nichts mit dem kompatibel. Ich bin froh, dass ich im Aida ein paar Watt Werte ausgespuckt bekomme. ^^

gas3t
2017-11-21, 20:22:26
Wie schnell sich doch die Zeiten ändern.

Stimmt, vor 2 Wochen war daran nicht zu denken...

2017-11-05, 17:03:43: Chaser187:
Sag ich ja. Warum sollten Sie jetzt Customs bringen wenn im März schon die neuen Karten kommen?

2017-11-05, 17:08:02: Gas3t:
Da gibt es einen sehr guten: Weihnachten.

2017-11-05, 17:22:15: Igor TH:
Weihnachten? Man muss mindestens 6 Wochen für Shipping und Channel einplanen. Plus 2-4 Wochen für die MP im Volauf. Dann hätten wir Neujahr++. Der Zug ist abgefahren - leider.

2017-11-05, 17:40:29: Gas3t:
Die Frage war "Sag ich ja. Warum sollten Sie jetzt Customs bringen wenn im März schon die neuen Karten kommen?" Das die Lieferkette das "jetzt" nicht hergibt, ist ein anderer Punkt. Leider ist das sehr schade für alle.

Nichts für ungut, man kann nicht alles wissen... Es ist gut für den Kunden, das zumindest etwas kommt (Customs und neuer Treiber). Es wird sicherlich nicht alle zufriedenstellen (geringe Lieferfähigkeit, hohe Preise und der Treiber wird wahrscheinlich auch nicht allzu große Sprünge machen, wobei das OSD schon ein nettes Feature ist), aber besser als "Der Zug ist abgefahren" ist es trotzdem.

GerryB
2017-11-21, 20:23:23
Sollte für hohe SOC Clocks nicht der Wert bei HBM Controller Spannung möglichst hoch sein.
Was hat Dargo da stehen?
Keine Ahnung ob sich das mit LC-Bios noch verbessert.
PT kannste dann immer noch senken.
Im Luxx haben einige das LC-Bios erfolgreich drauf gespielt.
Motkachler
Samsung hbm laut gpu z.
BIOS Version: 016.001.001.000.008707
VGA Bios Collection: AMD RX Vega 64 8176 MB | techPowerUp

Besser Overdrivn Tool von Guru3d.

Hasenpfote
2017-11-21, 22:02:40
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil/

590 Pfund also umgerechnet 666€ (Red Devils) ...... :crazy:

Au Backe .....Laut Videocardz sind die Preise Quatsch:
https://videocardz.com/74029/powercolor-radeon-rx-vega-64-red-devil-is-factory-overclocked#disqus_thread
und dann im Kommentarfeld
http://disq.us/p/1nyyrps
"Just got an update from PowerColor. The clocks are correct, but pricing is 'complete nonsense' = it's going to be cheaper."

unl34shed
2017-11-21, 22:33:59
Was? das wäre die erste Karte, die noch vor dem Verkaufsstart zu teuer eingepreist wird, was fällt denen ein... :ulol:

nairune
2017-11-21, 22:37:19
CB schreibt "verlangt der Händler in der Vorbestellungsphase", was ja völlig korrekt ist. Du kannst jetzt für diesen Preis vorbestellen.

Pirx
2017-11-21, 22:42:26
Wie schnell sich doch die Zeiten ändern.
Tja, da ist der Forums-Nostradamus schon wieder mal am zurückrudern. Mit etwas Zurückhaltung wäre das nicht nötig.

horn 12
2017-11-21, 22:56:08
@Zergra

Warum Beide gekauft, RX Vega 64 Silver
und RX 56 und nach paar Tagen die V56 mit Gewinn abgestoßen?
Nun folgt deine erst gekaufte Vega RX 64 inkl. Wasserkühlung und bleibt diese dann fix ?

gedi
2017-11-21, 23:58:36
@Gedi:
Zwei 1080 Ti der gleichen Modellreihe eines Herstellers liefern bei mir bei gleicher Temperatur veschiedenene Boost-Taktraten, trotz gleichen BIOSes. Sowohl unter 40°C, als auch aufgeheizt. Die Voltage differiert auch. Ich kann mein wassergekühltes SLI (Kreislauf parallel, nicht seriell) ganz gut kontrollieren.

Okay - dann revidiere ich meine Aussage ;)

horn 12
2017-11-22, 07:46:59
RX Vega 64 wird wohl im Referenz Design auf die 499 bis 519 Euro fallen
und die Custom Design bis nach Neujahr im Preisbereich von 550 bis 600 Euro verweilen.
Zudem ist die RX56 so gut wie abverkauft,- oder in den Namhaften Shops gar nicht mehr lieferbar, wie auch teilweise die RX 64 im Referenz Design.

Schlammsau
2017-11-22, 09:10:18
Mal ne völlig abstruse These von mir .... wie wahrscheinlich ist es das die angeblich schlechte Verfügbarkeit der Asics darin begründet liegt, dass AMD nur besonders gute Chips oder gar eine neue Revision an die OEMs ausliefert?

Zergra
2017-11-22, 10:37:38
@Zergra

Warum Beide gekauft, RX Vega 64 Silver
und RX 56 und nach paar Tagen die V56 mit Gewinn abgestoßen?
Nun folgt deine erst gekaufte Vega RX 64 inkl. Wasserkühlung und bleibt diese dann fix ?
Habe am 15.8 gleich zwei gekauft, eine Silver (609€) und eine normale V64. Da die V64 dann erst im Mindstar für 509€ war. Die Silver habe ich hier im Forum zum Selbstkostenpreis Verkauft. Die V56 wollte ich zum testen haben, gefiel mir aber nicht so gut wegen dem eingeschränkten PT und dem unmolded Chip. Daher ging die mit Gewinn wieder weg. Die erste V64 behalte ich fix ja, inkl. Wasser.

Igor TH
2017-11-22, 11:44:18
Wie schnell sich doch die Zeiten ändern.
Es hat sich nichts geändert. Dein erstes Zitat bezieht sich auf echte und kostendeckende Lieferungen per Container, die man für eine Marktbefriedigung braucht, das zweite auf dezent gestreute und per Flieger noch schnell vor Weihnachten verteilte Karten. Was AMD den Boardpartnern für diese Kleinserien bietet, entzieht sich meiner Kenntnis. Aber ein paar Tausend Karten sind einfach nur ein Witz.

Schlammsau
2017-11-22, 12:15:58
Was sind marktbefriedigende Stückzahlen bei 600+ Euro Grafikkarten?

1000 pro Woche, pro Tag?

dildo4u
2017-11-22, 12:29:40
Warum 600€+?AMD braucht vorallem massig Vega 56 gegen 1070 Ti für 450. https://geizhals.de/?cat=gra16_512&xf=132_8192~9810_7+7816+-+GTX+1070+Ti&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&mail=&sort=r
Die 1070 hat sich z.b deutlich besser verkauft als die 1080.

http://store.steampowered.com/hwsurvey/directx/

Complicated
2017-11-22, 13:02:49
Was AMD den Boardpartnern für diese Kleinserien bietet, entzieht sich meiner Kenntnis. Aber ein paar Tausend Karten sind einfach nur ein Witz.
Ich denke es liegt einfach daran, dass AMD mit den 14nm-Wafern auch die CPUs füttert und dort einfach mehr Geld verdient mit den 1800X, TR 1950X und EPYC. Das was dann noch für Vega an Kontingent bleibt ist eben nicht ausreichend für die Nachfrage. Unternehmerisch ist der CPU-Markt in dieser Phase für AMD wichtiger als der deutlich kleinere GPU Markt. Die großen OEMS sind nach langen Jahren mal wieder dabei und die darf man auf keinen Fall verprellen. Mit den Klein-Serien versucht man wohl die GPU-OEMs bei Laune zu halten, doch man wird sehen wie gut das gelingt.

Raff
2017-11-22, 13:28:01
Warum 600€+?AMD braucht vorallem massig Vega 56 gegen 1070 Ti für 450. https://geizhals.de/?cat=gra16_512&xf=132_8192~9810_7+7816+-+GTX+1070+Ti&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&mail=&sort=r
Die 1070 hat sich z.b deutlich besser verkauft als die 1080.

http://store.steampowered.com/hwsurvey/directx/

Wurden die (schon wieder) gehackt? Da stehen ganz perverse Zuwächse bei diversen Geforce-Grafikkarten und auch Windows 7 feiert seine Renaissance -> nicht koscher.

€dit: Ah, da kamen ein paar Hundert Millionen Chinesen dazu. Aus dem Nichts. Die haben alle Geforce-10-Grafikkarten gekauft und nutzen Windows 7. Is klar.

MfG,
Raff

Rancor
2017-11-22, 13:34:22
Das sind alles die PUBG Spieler aus China :ulol:

Schaffe89
2017-11-22, 13:36:10
Eigentlich sollte doch AMD in China eher präsenter sein als hier, hat man doch in der Vergangenheit immer wieder exotische Grafikkarten dort aufgelegt.

Complicated
2017-11-22, 13:39:52
Das zeigt wie sinnlos diese Statistik war und nach wie vor ist - da waren nun all die Jahre die ganzen Chinesen nicht mit erfasst? Wer weiß was sonst noch alles nicht mit erfasst ist. Man frage einfach mal Linux-User die nur dann Survey-Anfragen bekommen wenn sie mit Windows booten, obwohl sie deutlich länger mit Linux online sind.

Raff
2017-11-22, 13:40:27
Nebenbei bemerkt: AMD ist im CPU-Limit schon wieder flink -> http://www.pcgameshardware.de/Outcast-Second-Contact-Spiel-59776/Specials/Benchmark-Test-Review-1243719/

... bei steigender Grafiklast dann aber nicht mehr. Das Spiel nutzt die Unity-Engine in nicht ausoptimierter Form.

Man frage einfach mal Linux-User die nur dann Survey-Anfragen bekommen wenn sie mit Windows booten, obwohl sie deutlich länger mit Linux online sind.

Das Ding fragt mich auch nur auf der Arbeit nach meinem Rechner. Zuhause habe ich ewig keinen Poll Request mehr gesehen. :ugly:

MfG,
Raff

Complicated
2017-11-22, 14:24:57
Gerade mal eine Stichprobe bei Steam gemacht mit Indien. Demnach sind gerade mal 1 Mio. Inder bei Steam. Weniger als Belgier. Und das bei ca. 120 Mio. Online-Gamern in Indien.

matty2580
2017-11-22, 15:12:43
Wenn die 120 Millionen Inder noch dazu kommen, verschiebt sich wahrscheinlich noch einmal alles deutlich in Richtung W7 bei Steam. Also waren die Zahlen dort bei W10 bisher für die Tonne. ^^