PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ART-Mark - Another Ray-Tracing Benchmark


Geldmann3
2021-04-21, 00:47:09
ART-Mark - Another Ray-Tracing Benchmark

https://i.ibb.co/ZxJytV1/A-RT-Mark-trans-By-Perschistence-Inverted-Alpha2.png

Ist ein äußerst hardwareintensiver Raytracing-Benchmark zur Evaluierung von unterschiedlichsten GPUs, Netzteilen und Kühlsystemen.

Der Benchmark wurde speziell entwickelt, um moderne Grafikkarten mit Ray-Tracing-Unterstützung in die Knie zu zwingen.
Er kann jedoch auch auf Hardware ausgeführt werden, welche keine Ratracing-Unterstützung bietet.
In diesem Fall verwendet der Benchmark einfach Screen-Space und Planar Reflections und rendert beispielsweise 7 anstelle eines Viewports, um den durch Ray-Tracing erzeugten Effekten so nahe wie möglich zu kommen. (Was nicht wirklich gelingt.)


Die zum Rendern der Reflexionen verwendete Technologie ist hochgradig konfigurierbar und skalierbar.
Dies könnte besonders interessant sein, wenn ihr begutachten möchtet, wie klassisches Rendering optisch im Vergleich zum Raytracing abschneidet.

Aufgrund seiner Skalierbarkeit kann der Benchmark selbst den neuesten RTX-GPUs spielend ihre Grenzen aufzeigen.

Schaut euch das Video, an um einen Eindruck vom Wunder des Raytracings zu gewinnen
jwsT-lE4X9Y
Music by Eric Skiff, song "09 Come and Find Me - B mix" (Available at http://EricSkiff.com/music)

KEY FEATURES

Der Benchmark ist kostenlos, euer Support ist komplett optional!
State of the art rendering mithilfe der Unreal Engine.
Geeignet für extreme Hardwarestabilitätstests.
Funktioniert ohne dedizierte Raytracing-Hardware.
Optionen zur Verwendung von Screen-Space oder planaren Reflexionen auch auf nicht-DXR-fähigen-GPUs.
Die Performance ist repräsentativ für die extreme Verwendung von Raytracing in Spielen.
Loop-Stresstest zur Überprüfung der Hardwarestabilität.
Vergleicht verschiedene hochmoderne Upscaling- und Anti-Aliasing-Technologien.
Verwendet Nvidias Deep Learning Super Sampling oder Unreals Temporal Upsampling.



https://i.ibb.co/TgpFfJN/3633-200-100.png
Hardwareanforderungen:

Mindestvoraussetzungen ohne Raytracing

Windows 10
Moderne x86 CPU
2GB Ram
4GB Vram



Optimale Hardware ohne Raytracing

Windows 10
Moderne x86 CPU
2 CPU Kerne
4GB Ram
8GB Vram



Mindestvoraussetzungen für Raytracing

Windows 10
Moderne x86 CPU
4 CPU Kerne
2GB Ram
GPU mit DXR Unterstützung
4GB Vram


Optimale Hardware für Raytracing

Windows 10
Moderne x86 CPU
6 CPU Kerne
4GB Ram
GPU mit DXR Unterstützung
8GB Vram


_______________________________________________________

Hallo zusammen,

in den letzten zwei Monaten habe ich mich intensiv in die Unreal Engine eingearbeitet und im Zuge dessen einen Ray-Tracing-Benchmark mit der Unreal Engine entwickelt.

Dieses Forum ist der erste Ort, an welchem ich dies kund tue, der Benchmark befindet sich noch im Beta-Stadium und ich werde in Zukunft dementsprechend sicherlich das eine oder andere Feature hinzufügen und Bugs beheben.
Da dies mein erstes privates Projekt dieser Art ist, bin ich sehr gespannt auf eure Ergebnisse und Rückmeldungen.

Weiterhin habe ich noch keinen anderen Benchmark oder Spiel gesehen, in welchem Raytracing einen derart großen optischen Unterschied macht.
Es ist geradezu wie Tag und Nacht.
Selbstverständlich liegt das daran, dass der im Benchmark dargestellte Raum komplett aus Spiegeln besteht, für deren Berechnung Raytracing perfekt geeignet ist.
Jedoch könnt ihr euch sicher auch vorstellen wie anspruchsvoll er dementsprechend ist.

Man könnte an dieser Stelle vermuten, ich hätte keine Optimierungsarbeit in die Settings ohne Raytracing gesteckt, dem ist jedoch absolut nicht so.
Viele Stunden habe ich damit zugebracht, die Optik mit Tricks zu optimieren, während es mit Raytracing Out-Of-The-Box funktioniert hat.
Da Licht sich hier einfach so verhält, wie man es aus der Natur gewohnt ist.

Im Anschluss ist jeweils drei mal die gleiche Szene zu sehen.

mit Screen-Space-Reflections
https://i.ibb.co/kQCx2k0/Highres-Screenshot00017-Kopie.png (https://i.ibb.co/K5GtVMn/Highres-Screenshot00017-Kopie-2.png)

mit Planar Reflections 7 Viewports (Extrem performanceintensiv)
https://i.ibb.co/jyhb732/Highres-Screenshot00016-Kopie.png
(https://i.ibb.co/M1RPkVD/Highres-Screenshot00016-Kopie-2.png)
mit Raytraced Reflections (Lustigerweise nicht performanceintensiver als das Bild darüber)
https://i.ibb.co/Zx24PSh/Highres-Screenshot00015-Kopie.png (https://i.ibb.co/5hbV4cx/Highres-Screenshot00015-Kopie-2.png)

TAAU & DLSS
Im Benchmark biete ich euch weiterhin die Chance das temporale Upsampling der Unreal Engine mit Nvidias DLSS zu vergleichen.
Einerseits schlägt der Benchmark genau in die Schwachstelle von Nvidia's Deep Learning Super Sampling, da dieses schlecht mit spiegelnden Oberflächen zurechtkommt, andererseits bricht der Benchmark wohl Rekorde, wenn man die erzielte Performancesteigerung betrachtet.

Hier die ungefähren Performanceauswirkungen von DLSS:

No RT Extreme:
DLSS Off: 100%
DLSS Quality: 135%
DLSS Balanced: 152%
DLSS Performance: 154%
Ultra Performance: 161%

Absolute Overkill (Raytracing):
DLSS Off: 100%
DLSS Quality: 200%
DLSS Balanced: 250%
DLSS Performance: 350%
Ultra Performance: 825%

Richtig, ich habe in meinem Fall eine Performancesteigerung von rund 725% gemessen, als ich DLSS Ultra Performance mit dem höchsten Setting in QHD verwendet habe.
Natürlich lässt, besonders aufgrund der vielen Spiegel, auch die Optik des Benchmarks damit nach.
Doch es ist dennoch ein gigantischer, nicht von der Hand zu weisender Leistungssprung.
Bei der Entwicklung war ich sogar hin und wieder auf DLSS angeweisen, da ich sonst kaum noch in meiner Szene mit der Unreal Engine arbeiten konnte.
Meine übertaktete RTX 3090 ist nicht gerade schwachbrüstig, würde ich behaupten, doch DLSS hat aus ,,unspielbaren" Frameraten oft wieder ein fluffiges, wenn auch etwas weichgezeichnetes Ergebnis gemacht.

Hier noch ein kleiner Überblick über die im Benchmark zur Verfügung stehenden Optionen:
https://i.ibb.co/c2TsLw2/Options1-Kopie.png (https://i.ibb.co/7gyPxKd/Options1.png) https://i.ibb.co/nzCmWGp/Options2-Kopie.png (https://i.ibb.co/3BSHGNN/Options2.png)

>> HIER HERUNTERLADEN << (https://perschistence.itch.io/art-mark)
Das Installationspasswort lautet Perschistence

Kommen wir nun zum eigentlichen Thema des Threads, dem Benchmarking:

Pflicht sollen die beiden Settings No RT Extreme und Very High in 720p sein.
Vielleicht fragt ihr euch jetzt warum ich mich für eine so geringe Auflösung und nicht für das höchste Setting entschieden habe?
Sagen wir es mal so, der Benchmark ist performancetechnisch sehr zukunftssicher.

Meine Ergebnisse:

https://s18.directupload.net/images/210421/mfww6482.png

https://s8.directupload.net/images/210421/t7r82f5i.png

Darkman.X
2021-04-21, 02:06:35
ähm.....ich habe die v0.7.5 heruntergeladen, brauche aber zum Installieren ein Passwort?! Auf deiner Seite habe ich auf die Schnelle keines gefunden.

Oder war der Zweck des Threads keine Benchmarks durchzuführen, sondern nur die Vorstellung?

Geldmann3
2021-04-21, 02:12:07
Uhh, verzeih' mir. Das Passwort lautet
Perschistence

Habe es nun an diversen Stellen nachgetragen.

Darkman.X
2021-04-21, 02:40:04
Erstmal toll, dass du soetwas selber programmiert hast :up:

Da wir fast identische HW haben, gibt's auch fast identische Punkte/FPS. Ich nutze bei meiner 3090er nur das Werks-OC und habe daher etwas niedrigere Punkte.

i9-9900K @ Stock
MSI 3090 Gaming X Trio @ Werks-OC

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75063&stc=1&d=1618965548

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75064&stc=1&d=1618965548

universaL
2021-04-21, 09:32:32
5900x@stock; 32gb ddr4 3600-cl16 (sogar ohne PBO meine ich, noch nicht zum optimieren gekommen) und 6900xt @ -10% pt, -5% spannung, rest default

Scheint auch irgendwie kaputt zu sein auf der Radeon, habe keine so schönen bunten Lichter gesehen meine ich. Probiere ich später nochmal aus.

Warum ist die Setupdatei nochmal in einer Zip-Datei? Vor allem, da es keinerlei Größenunterschied macht. Mag Google Documents keine EXE?

Braucht das ganze wirklich 1,4gb? Oder kann man an den Assets vielleicht noch etwas reduzieren? Die 1,4GB stören mich nicht, ist mehr technisches Interesse :-)

Radeonfreak
2021-04-21, 10:02:06
https://abload.de/img/art-mark_result_-_verhaj6e.png

https://abload.de/img/art-mark_result_-_verxckm0.png

Geldmann3
2021-04-21, 10:09:19
5900x@stock; 32gb ddr4 3600-cl16 (sogar ohne
Scheint auch irgendwie kaputt zu sein auf der Radeon, habe keine so schönen bunten Lichter gesehen meine ich. Probiere ich später nochmal aus.

Warum ist die Setupdatei nochmal in einer Zip-Datei? Vor allem, da es keinerlei Größenunterschied macht. Mag Google Documents keine EXE?

Braucht das ganze wirklich 1,4gb? Oder kann man an den Assets vielleicht noch etwas reduzieren? Die 1,4GB stören mich nicht, ist mehr technisches Interesse :-)

Also ich habe es auf einer 6900XT, einer R9 290X und einer RTX 3090 getestet, bei mir hat das jedenfalls funktioniert.
Ich vermute es gibt einige problematische GPUs wie Ryzen APUs, in dem Fall bitte Screenshots und Result Screen teilen. Dann fixe ich das sobald möglich.

Die Setupdatei ist nochmal gezippt, weil man sonst nach dem Download vom Windows-Smart-Screen vor der Ausführung gewarnt wird.
Das würde viele Nutzer verunsichern es zu installieren, befürchte ich.

In der Tat werden rund 1,4GB benötigt. Das meiste davon ist ,,Unreal Engine" Overhead, würde ich es nennen. Ich hätte Ideen, wie man mit Kompression und Löschen einiger unnötiger Dinge noch 100 - 200MB sparen könnte. Doch das würde den Buildprozess am Ende immer etwas verkomplizieren.

Ampere scheint der Benchmark richtig gut zu schmecken, das lässt Turing und RDNA2 richtig im Staub zurück.
Ich weiß selbst leider nicht genau warum.
Der Benchmark ist die erste Software, die ich gesehen habe, in welcher Nvidia den anfänglichen Performance-Claim von +100% halten kann.

Sobald Reflektionen ins Spiel kommen, egal ob Ray-Tracing oder klassisch, gehen die anderen Architekturen in die Knie.
Habe sogar Performancemetriken dazu analysiert und konnte nichts auffälliges finden.
Scheinen auf den ersten Blick wirklich die Spiegelungen aller Art zu sein.
Wobei der Benchmark auch das größte Extrem in die Richtung zeigt, mit bis zu 50 Spiegelungen in Spiegelungen.
In der Realität konnte ich keinen Fall mit mehr als 20 Spiegelungen ineinander finden, da mit jeder weiteren Reflektion ein bisschen Licht vom Spiegel geschluckt wird.
Daher heißt das höchste Setting auch ,,Absolute Overkill".

universaL
2021-04-21, 10:50:48
Also ich habe es auf einer 6900XT, einer R9 290X und einer RTX 3090 getestet, bei mir hat das jedenfalls funktioniert.
Ich vermute es gibt einige problematische GPUs wie Ryzen APUs, in dem Fall bitte Screenshots und Result Screen teilen. Dann fixe ich das sobald möglich.


hab wohl nicht im richtigen moment hingeschaut, habe nun auch die bunten Lichter ;-) Ergebnisse siehe oben im Anhang :-)

zur Sicherheit aber trotzdem nochmal Screenshots: https://cloud.hedtri.ch/s/oqrMDiGa6pFJrri / password: kJPfnkbo


Die Setupdatei ist nochmal gezippt, weil man sonst nach dem Download vom Windows-Smart-Screen vor der Ausführung gewarnt wird.
Das würde viele Nutzer verunsichern es zu installieren, befürchte ich.


wurde ich trotzdem!


In der Tat werden rund 1,4GB benötigt. Das meiste davon ist ,,Unreal Engine" Overhead, würde ich es nennen. Ich hätte Ideen, wie man mit Kompression und Löschen einiger unnötiger Dinge noch 100 - 200MB sparen könnte. Doch das würde den Buildprozess am Ende immer etwas verkomplizieren.


aye, passt! :-)

Geldmann3
2021-04-21, 11:10:02
wurde ich trotzdem!

Interessant! Bei mir und einem Freund passiert das aus der .zip Datei nicht, nur, wenn wir direkt das Setup herunterladen.
Wir haben es mit dem Chrome heruntergeladen, verwendest Du eventuell einen anderen Browser, der auch die .zip Pakete inspiziert?

Hatte deshalb darüber nachgedacht auch das mit einem PW zu versehen, doch es schien so, als passiere es aus dem Zip nicht.

Die Bilder sehen in Ordnung aus. :) - Mich stört das RT-Rauschen, doch das bekomme ich nur weg, wenn ich entweder die Rays per Pixel auf über 10 oder so stelle, was die Performance vernichtet oder DLSS hilft auch ein wenig, gibt es aber auf AMD GPUs leider nicht. DLSS Ultra Quality mit 100% interner Auflösung wäre wahrscheinlich sehr hilfreich.
Daran arbeitet Nvidia eventuell gerade.

universaL
2021-04-21, 11:20:21
Interessant! Bei mir und einem Freund passiert das aus der .zip Datei nicht, nur, wenn wir direkt das Setup herunterladen.
Wir haben es mit dem Chrome heruntergeladen, verwendest Du eventuell einen anderen Browser, der auch die .zip Pakete inspiziert?

Hatte deshalb darüber nachgedacht auch das mit einem PW zu versehen, doch es schien so, als passiere es aus dem Zip nicht.


Firefox -> nach "Downloads" heruntergeladen und dort per Windows-ZIP (noch kein 7Zip installiert im Gaming-Windoof) entpackt und ausgeführt.

Geldmann3
2021-04-21, 11:55:01
Firefox -> nach "Downloads" heruntergeladen und dort per Windows-ZIP (noch kein 7Zip installiert im Gaming-Windoof) entpackt und ausgeführt.

Das könnte es natürlich auch sein.
Wir haben es mit WinRar entpackt.

Man könnte es natürlich direkt als .exe verschiffen, doch dann bekommt man in allen Fällen den Smart Screen.
Oder verschlüsseln, doch dann kann man es unter Windows nicht mehr mit Bordmitteln öffnen.

Lyka
2021-04-21, 12:12:05
Meine Tests (RT Software statt HW ^^)
https://abload.de/img/art-mark_result_-_no_8ujqq.png
https://abload.de/img/art-mark_result_-_vert1jww.png

Dampf
2021-04-21, 12:40:35
Meine Tests (RT Software statt HW ^^)
https://abload.de/img/art-mark_result_-_no_8ujqq.png
https://abload.de/img/art-mark_result_-_vert1jww.png

Das sollte die HW-Beschleunigung der 6700XT nutzen, da UE4 DXR verwendet.

Wir bräuchten mal Ergebnisse der Pascal-Serie. Das wäre mal interessant.

Ich werde es später mal auf meinem RTX 2060 Laptop ausführen und berichten!

Das ist wirklich ein erstklassiger Showcase für Raytracing Geldmann, Hut ab!

Geldmann3
2021-04-21, 12:50:31
Das sollte die HW-Beschleunigung der 6700XT nutzen, da UE4 DXR verwendet.

Wir bräuchten mal Ergebnisse der Pascal-Serie. Das wäre mal interessant.

Ich werde es später mal auf meinem RTX 2060 Laptop ausführen und berichten!

Das ist wirklich ein erstklassiger Showcase für Raytracing Geldmann, Hut ab!

Jup, die Hardwarebeschleunigung der 6700XT wird verwendet.
Jedoch hat RDNA2 gegen Ampere eine gewisse Raytracing Schwäche, was man normal nicht merkt, da die meisten Games Raytracing und andere Formen von Spiegelungen nur sehr sparsam einsetzen.
Bei diesem Benchmark hingegen gehen über 95% der Rechenleistung auf die Berechnungen von Reflektionen.

Wenn man das in einer gewissen Auflösung in Echtzeit rendern kann, behaupte ich mal, kann man alles mit Raytracing rendern.
Wo hat man in normalen Situationen schon so viele Bounces.
,,Im Reallife" sind es für GI und AO ca. 2-8 Bounces und bei spiegelnden Oberflächen 8-32.
Habe dafür sogar ein wenig experimentiert^^
Es ist also sozusagen die absolute Worst-Case-Szene.
Härter wird es nur, wenn man die Samples per Pixel noch hochdreht.

Dampf
2021-04-21, 13:13:14
Jup, die Hardwarebeschleunigung der 6700XT wird verwendet.
Jedoch hat RDNA2 gegen Ampere eine gewisse Ray-Tracing Schwäche, was man normal nicht merkt, da die meisten Games Raytracing und andere Formen von Spiegelungen nur sehr sparsam einsetzen. Bei diesem Benchmark hingegen gehen über 95% der Rechenleistung auf die Berechnungen von Reflektionen.

Wenn man das in einer gewissen Auflösung in Echtzeit rendern kann, behaupte ich mal, kann man alles mit Ray-Tracing rendern. Wo hat man in normalen Situationen schon so viele Bounces. ,,Im Reallife" sind es für GI und AO ca. 2-8 Bounces und bei spiegelnden Oberflächen 8-32. Habe dafür sogar ein wenig experimentiert^^ Es ist also sozusagen die absolute Worst-Case-Szene. Härter wäre es nur, die Samples per Pixel noch hochzudrehen.

Es scheint mir, als würde es Ampere bei Reflektionen gelingen, die TFLOPs vollends auf die Straße zu bringen!

Ja, ich kann sehen dass das sehr aufwendig ist, das sollte das Performance Target von wahren Next Gen Titeln nochmal übersteigen!

Hier kommt die zweitkleinste 80 Watt RTX GPU!

https://i.imgur.com/49gtVoJ.png

https://i.imgur.com/s2ZCaqT.png

Mit DLSS Balanced übertrifft der Kleine die Performance einer 2080Ti ohne DLSS:

https://i.imgur.com/JUWfkUq.png

Settings für ein spielbares Erlebnis in 1080p:

https://i.imgur.com/M5i7nDZ.png

Ist auch schön skalierbar, der Benchmark. :smile:

misterh
2021-04-21, 13:52:29
Evtl. noch Erkennung des GPU DXR ausbessern?

mit Intel Xe G7 (1165G7)

https://abload.de/img/art-mark_result_-_no_p8kc3.png

und hier mit Option Very High (nicht wenige sehe ich viele nur Grau/Dunkelgrau)
https://abload.de/img/art-mark_result_-_verg4k8h.png

Edit:

Sehr gut, danke für den Hinweis, das meinte ich vorhin, als ich schrieb, dass es noch Probleme mit bestimmten GPUs geben kann. Leider hatte ich nur beschränkte Hardware zum Testen, doch wenn ich hier über die Result-Screens etwas reinbekomme wie von Dir gerade, kann ich das fixen. Mit der nächsten Version, die noch diesen Monat kommen sollte, bekommst Du dann auch mit Deiner Grafik korrekte Ergebnisse. :) Auf Deiner GPU zum Beispiel meint der Benchmark RT wäre aktiv, die GPU kann es aber gar nicht. Auf Ryzen APUs rechne ich mit ähnlichen Problemen. Ist aber schnell gefixt, sobald ich die Problemhardware kenne.

Gut. Dann lass ich natürlich nochmal laufen. Inkl Prüfung. Bin nun weiter machen mit mein Projekt. :)

Geldmann3
2021-04-21, 13:57:20
Evtl. noch Erkennung des GPU DXR ausbessern?

mit Intel Xe G7 (1165G7)

https://abload.de/img/art-mark_result_-_no_p8kc3.png

und hier mit Option Very High (nicht wenige sehe ich viele nur Grau/Dunkelgrau)
https://abload.de/img/art-mark_result_-_verg4k8h.png

Sehr gut, danke für den Hinweis, das meinte ich vorhin, als ich schrieb, dass es noch Probleme mit bestimmten GPUs geben kann. Leider hatte ich nur beschränkte Hardware zum Testen, doch wenn ich hier über die Result-Screens etwas reinbekomme wie von Dir gerade, kann ich das fixen. Mit der nächsten Version, die noch diesen Monat kommen sollte, bekommst Du dann auch mit Deiner Grafik korrekte Ergebnisse. :) Auf Deiner GPU zum Beispiel meint der Benchmark RT wäre aktiv, die GPU kann es aber gar nicht. Auf Ryzen APUs rechne ich mit ähnlichen Problemen. Ist aber schnell gefixt, sobald ich die Problemhardware kenne.

hq-hq
2021-04-21, 14:32:24
3090@2025/10250MHz

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75069&stc=1&d=1619008263
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75070&stc=1&d=1619008263

N0rG
2021-04-21, 17:16:20
Mit RT off nutzt die Karte nur 80% des Powertargets aus (123% dürfte sie).
Irgendwas scheint also zu limitieren. Vielleicht hilft es hier noch ein Objekt mit vielen Polygonen einzubauen um die GPU gleichmäßiger zu belasten.
Im windowed Mode gehen die fps nicht über die Bildwiederholrate hinaus, Im fullscreen Mode schon. (G-sync und V-sync off)
Bei über 1000fps überlappt der fps counter das Wort Frametime. Max fps schein buggy zu sein bei über 1000, hatte 1050 max. oder so und es wird glatt 2000 angezeigt.

https://i.imgur.com/j7zsdT4.png
https://i.imgur.com/pgZGdNO.png

:freak:
https://i.imgur.com/Cv1TE2Q.png
https://i.imgur.com/POH1VKL.png

BUG
2021-04-21, 19:55:01
Ryzen 3600 | B450 | EVGA RTX 3060 12GB

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75072

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75073

DLSS = Quality
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75075

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75074

Gruß
BUG

Geldmann3
2021-04-21, 20:55:16
Mit RT off nutzt die Karte nur 80% des Powertargets aus (123% dürfte sie).
Irgendwas scheint also zu limitieren. Vielleicht hilft es hier noch ein Objekt mit vielen Polygonen einzubauen um die GPU gleichmäßiger zu belasten.
Im windowed Mode gehen die fps nicht über die Bildwiederholrate hinaus, Im fullscreen Mode schon. (G-sync und V-sync off)
Bei über 1000fps überlappt der fps counter das Wort Frametime. Max fps schein buggy zu sein bei über 1000, hatte 1050 max. oder so und es wird glatt 2000 angezeigt.


Interessante Effekte beobachtest Du da, meine RTX 3090 hängt laut MSI-Afterburner bei ,,No RT Extreme" durchgehend am voltage Limit und wird zu 99% ausgelastet. Ans Power Limit geht sie allerdings ebenfalls nicht.

Weiterhin gehen die FPS bei mir auch im Windowed Mode über die Bildwiederholrate hinaus. Und irgendwie komme ich gar nicht auf über 1000FPS siehe Bild, meine CPU könnte einfach ,,zu langsam" sein.
https://i.ibb.co/bQb6bx5/ART-Mark-Result-No-RT-Low-Ultra-Performance-2021-04-21-20-44-20.png

Danke nochmal an alle für das fleißige Testen und Benchmarken!
Alle Bugs, die ich reproduzieren kann, sollte ich auch beheben können.

-/\-CruNcher-/\-
2021-04-21, 21:34:03
@Geldmann3
Inno setup Password was soll den der Scheiß ?

Lyka
2021-04-21, 21:40:12
Lies mal oben bzw. im Startposting.

>> HIER HERUNTERLADEN <<
Das Installationspasswort lautet Perschistence

-/\-CruNcher-/\-
2021-04-21, 21:52:43
Ja ne ist klar aber wozu das ganze :D
Pack es in die Zip und ist gut so, Portable Rules
Installation für sowas und dann Passwortgeschützt ?

Geldmann3
2021-04-21, 22:17:26
Ja ne ist klar aber wozu das ganze :D
Pack es in die Zip und ist gut so, Portable Rules
Installation für sowas und dann Passwortgeschützt ?

Habe vor einigen Jahren schlechte Erfahrungen gemacht, wenn der Hoster in Deine gehostete Software hineinschauen kann, dann ändert sich mal kurz der Algorithmus der Antivirenlösung und plötzlich ist das File nicht mehr verfügbar.
Alles schon gehabt...

Mit dem Passwort will ich weiterhin ein wenig sicherstellen, dass die Leute auch über meine Links kommen, natürlich kann man sich das Passwort einfach mitkopieren oder ich könnte es über einen forwarder machen, der nur bestimmte Referrer durchlässt. Doch das ist alles sowieso noch in einem sehr frühen Stadium.

In Zukunft gibt es auch eine portable Variante. =)

Du kannst bereits jetzt einfach den Programmordner an eine beliebige Stelle kopieren und hast den Benchmark portabel.
Nur Deine gespeicherten Settings werden dabei nicht übertragen, wenn Du es auf einen anderen Rechner kopierst, doch da ist ja auch nicht viel zu verlieren...

,,DAUs" meinten zu mir, sie hielten einen Installer für professioneller und haben den Startmenüeintrag vermisst. :freak: (Den Du abwählen kannst.)

-/\-CruNcher-/\-
2021-04-21, 22:52:41
https://abload.de/img/art-mark_result_-_no_01jzp.jpg
https://abload.de/img/art-mark_result_-_no_vej3g.jpg
https://abload.de/img/art-mark_result_-_absy0jzp.jpg

Geldmann3
2021-04-21, 22:56:54
Ich hab alles umgangen und check erstmal die integrität

?

Die Integrität, Du meinst der Ergebnisse?
Kennst Du Dich zufällig mit der Unreal Engine aus?

Was hast Du getan, um so viele Punkte mit Absolute Overkill in 4k zu erhalten?
Das Ergebnis ist offensichtlich falsch, hast Du die Engine irgendwie manipuliert oder ist es ein Bug in meiner Software?
Ich kenne Methoden, wie man das mit ein paar Zeichen an der richtigen Stelle erreichen kann, doch um Manipulation bei den Ergebnissen vorzubeugen fehlen mir gerade die Kapazitäten als Einzelperson. Doch ich will nicht ausschließen in Zukunft auch ein wenig Anti-Tampering zu betreiben.
;)

Vor Deiner Intel CPU werden solche Leerzeichen ausgelesen.
Auch interessant, das habe ich so noch nicht gesehen, muss ich mir mal näher anschauen.

N0rG
2021-04-21, 23:08:29
Ich muss schon sagen, das ist ein netter Benchmark. :up: Finde ich immer super wenn Leute aus der Community sowas machen.

Hab grade nochmal versucht das mit den 2000 fps zu reproduzieren. Ganz am Ende wenn das Bild langsam schwarz wird gibt es einen fps Spike. Hatte grad beim fps counter einmal 1745 und in einem anderen run glatt 2000 gesehen. Ich vermute daher, dass 2000 die Obergrenze von der Unreal Engine ist. Nach dem 2000er run wurden in den results aber nur 1333,69 angezeigt, bei dem 1745er wurde es richtig angezeigt.

Und das mit dem Voltage Limit kann ich bestätigen. Die Karte möchte eigentlich noch höher takten weil sie noch Powerbudget übrig hat, kann aber nicht, weil die Spannung schon am Limit ist. Ich kann mir das nur so erklären, dass da ein Bereich in der GPU limitiert und der Rest langweilt sich. Wie gesagt, ich könnte mir vorstellen, dass es hilft da noch etwas in die Szene einzufügen um etwas mehr "Grundlast" zu erzeugen. Vielleicht ein paar Shadereffekte auf die Kugeln oder so einen Fellkringel. Dann sollte "RT off" sich auch etwas weiter absetzen können auf den stärkeren NV Karten. Selbst bei "720p Very High" hat meine Karte "nur" 114% PT genutzt, der Effekt ist also auch hier noch abgeschwächt zu erkennen. Die RT Cores laufen dabei vermutlich schon am Limit, aber andere Teile der GPU könnten noch mehr, haben aber nicht genug zu tun. Ist halt die Frage ob schwächere Karten dann übermäßig einbrechen. Und es soll ja auch ein RT Benchmark sein...
Ist halt seltsam, dass eine 3090 nur 10-15% einbricht mit RT, eine 3070 um 25% und eine 2060 um 55%. Die ~45% auf den AMD Karten lassen sich ja dadurch erklären, dass RT dort auf den normalen Einheiten berechnet wird.

Nutzen die kleineren NV Karten ihr Powerbudget auch nicht voll aus mit RT off? Könnte das mal jemand mit einer 3070 oder so testen?

Geldmann3
2021-04-21, 23:27:45
Ich muss schon sagen, das ist ein netter Benchmark. :up: Finde ich immer super wenn Leute aus der Community sowas machen.

Hab grade nochmal versucht das mit den 2000 fps zu reproduzieren. Ganz am Ende wenn das Bild langsam schwarz wird gibt es einen fps Spike. Hatte grad beim fps counter einmal 1745 und in einem anderen run glatt 2000 gesehen. Ich vermute daher, dass 2000 die Obergrenze von der Unreal Engine ist. Nach dem 2000er run wurden in den results aber nur 1333,69 angezeigt, bei dem 1745er wurde es richtig angezeigt.

Und das mit dem Voltage Limit kann ich bestätigen. Die Karte möchte eigentlich noch höher takten weil sie noch Powerbudget übrig hat, kann aber nicht, weil die Spannung schon am Limit ist. Ich kann mir das nur so erklären, dass da ein Bereich in der GPU limitiert und der Rest langweilt sich. Wie gesagt, ich könnte mir vorstellen, dass es hilft da noch etwas in die Szene einzufügen um etwas mehr "Grundlast" zu erzeugen. Vielleicht ein paar Shadereffekte auf die Kugeln oder so einen Fellkringel. Dann sollte "RT off" sich auch etwas weiter absetzen können auf den stärkeren NV Karten. Selbst bei "720p Very High" hat meine Karte "nur" 114% PT genutzt, der Effekt ist also auch hier noch abgeschwächt zu erkennen. Die RT Cores laufen dabei vermutlich schon am Limit, aber andere Teile der GPU könnten noch mehr, haben aber nicht genug zu tun. Ist halt die Frage ob schwächere Karten dann übermäßig einbrechen. Und es soll ja auch ein RT Benchmark sein...
Ist halt seltsam, dass eine 3090 nur 10-15% einbricht mit RT, eine 3070 um 25% und eine 2060 um 55%. Die ~45% auf den AMD Karten lassen sich ja dadurch erklären, dass RT dort auf den normalen Einheiten berechnet wird.

Nutzen die kleineren NV Karten ihr Powerbudget auch nicht voll aus mit RT off? Könnte das mal jemand mit einer 3070 oder so testen?

:D Wobei man auch sagen muss, dass 720p@DLSS Ultra Performance = Intern nur 238p sind. ^^ Wer weiß, was da intern abgeht.
Komischerweise habe ich weder auf meiner 6900XT noch auf meiner RTX 3090 am Ende einen FPS Spike.

hq-hq
2021-04-21, 23:54:10
in 720p no RT Extreme war das Powerlimit nur bei ca. 270Watt von 400Watt (diese curve endete bei 2070MHz @ 0,950V)

okay, curve bis 1.031V@2100MHz ergibt 309Watt, GPU ist angeblich zu 99% ausgelastet... ergibt ein paar mehr fps/Punkte
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75080&d=1619043026
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75081&d=1619043026



720p no RT low:

(3090@2115/10250MHz)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75079&stc=1&d=1619042024

Geldmann3
2021-04-22, 00:10:14
in 720p no RT Extreme war das Powerlimit nur bei ca. 270Watt von 400Watt (diese curve endete bei 2070MHz @ 0,950V)

720p no RT low:

(3090@2115/10250MHz)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75079&stc=1&d=1619042024

Wobei ich die No RT Settings prinzipiell auch für Leute eingeführt habe, die keine DXR GPU haben, damit sie mitmachen können. ;)
Ich kann mir sehr gut vorstellen, dass man aktuelle Enthusiasten GPUs mit den niedrigsten Settings in 720p nicht ordentlich auslasten kann.

Am Anfang hatte ich in der Mitte übrigens ein Low-Poly Karussell, das aktuelle hat etwa 100x mehr Polygone und da gingen bereits ca. 10% Performance drauf.
Da ich mich in diesem Benchmark auf das Raytracing beschränken wollte, habe ich nicht mehr Geometrie verbaut.
Doch in Zukunft kommen eventuell weitere Testszenen dazu.

___________________________________________________________

Version 0.76 des Benchmarks kann jetzt hier (https://perschistence.itch.io/art-mark) heruntergeladen werden.

Das Installationspasswort lautet weiterhin Perschistence

RELEASE NOTES (https://perschistence.itch.io/art-mark/devlog/245210/release-notes-version-076)
ART-Mark - Another Raytracing Benchmark
Version 0.76
Release Notes

Changes in this version include:

Improvements:
o Improve correct DXR detection on Intels Xe graphics
(Intel Xe graphics owners of previous versions of the benchmark should manually delete the save game at =
C:\Users\[Username]\AppData\Local\ART_Mark\Saved\SaveGames\Settings\MyOptions.sav before installing the update.)
o Clean up some detected GPU and CPU information.

misterh
2021-04-22, 03:25:34
Version 0.76 des Benchmarks kann jetzt hier (https://perschistence.itch.io/art-mark) heruntergeladen werden.

Das Installationspasswort lautet weiterhin Perschistence

RELEASE NOTES (https://perschistence.itch.io/art-mark/devlog/245210/release-notes-version-076)


https://abload.de/img/unbenanntf7j1v.png

Sonst FPS unverändert.

Geldmann3
2021-04-22, 03:30:08
https://abload.de/img/unbenanntf7j1v.png

Sonst FPS unverändert.

Vielen Dank fürs Testen!
Konnte es selbst nur simulieren, da ich nicht die Original-Hardware habe.

Wuge
2021-04-22, 12:28:13
6950X @ 4.4 Ghz, 3090 FE 2205 Mhz Core, 22500 Gbps Speicher

81.74 FPS no RT Extreme
73.64 FPS Very High

Power ohne RT ist unter 400W, mit RT so 420W rum. Genau weiß ichs nicht, da die Messung der Karte wg. Shunt Mod nicht mehr akkurat ist. Jedenfalls läuft sie durchgehend mit der höchsten Taktstufe und 1.1 bzw. 1.093V. Und als Stabilitätstest ists bei mir nicht geeignet... 2205 Mhz bei 50 Grad GPU Temperatur ist gut 60 Mhz höher als ich im Flight Simluator 2020 fahren kann.

Geldmann3
2021-04-22, 13:03:11
6950X @ 4.4 Ghz, 3090 FE 2205 Mhz Core, 22500 Gbps Speicher

81.74 FPS no RT Extreme
73.64 FPS Very High

Power ohne RT ist unter 400W, mit RT so 420W rum. Genau weiß ichs nicht, da die Messung der Karte wg. Shunt Mod nicht mehr akkurat ist. Jedenfalls läuft sie durchgehend mit der höchsten Taktstufe und 1.1 bzw. 1.093V. Und als Stabilitätstest ists bei mir nicht geeignet... 2205 Mhz bei 50 Grad GPU Temperatur ist gut 60 Mhz höher als ich im Flight Simluator 2020 fahren kann.

Ja, das stimmt. Im Gegensatz zum Flugsimulator gibt es viele Bereiche der GPU die nahezu brachliegen, die Szene ist extrem auf das Raytracing/Reflektionen fixiert.
Im Laufe des Jahres würde ich daher gerne noch andere Tests hinzufügen, die mehr Bereiche der GPU voll auslasten.
Habe den Benchmark zuerst auch aus dem Grund gebastelt, weil ich mal was haben wollte, was Raytracing so richtig hammert und ich hatte diese Szene im Kopf.^^

Wuge
2021-04-22, 15:07:16
Jo... Port Royal kann ich auch mit 2175 Mhz laufen lassen. DCS so 2145 rum dauerstabil. FS2020 ist am härtesten, da bekomm ich mit Mühe und not 2100 Mhz hin, ehr knapp drunter.

Nuon
2021-04-22, 21:56:07
R9 5900X@default
RTX3080@default, leicht werksübertaktet.
32GB DDR4 3200@3600
Windows Skalierung 200% (das Benchmarkfenster hat eine Größe von 1440p auf dem Desktop, der Screenshot hat aber 720p Auflösung)

Tyrann
2021-04-22, 22:36:13
https://i.imgur.com/2VgZU2G.png

Treiber: Adrenalin 21.4.1

Radeonfreak
2021-04-22, 22:52:07
https://abload.de/img/art-mark_result_-_no_ldk2k.png

hq-hq
2021-04-22, 22:53:46
R9 5900X@default
RTX3080@default, leicht werksübertaktet.
32GB DDR4 3200@3600
Windows Skalierung 200% (das Benchmarkfenster hat eine Größe von 1440p auf dem Desktop, der Screenshot hat aber 720p Auflösung)

windowed kostet ein paar Prozent, mach mal fullscreen in 720p low

Geldmann3
2021-04-22, 23:38:09
windowed kostet ein paar Prozent, mach mal fullscreen in 720p low

Habe das gerade mal getestet und kann es bestätigen.
Windowed kostet bei 60Hz rund 8% Performance, bei 120Hz rund 7% Performance und mit G-Sync oft noch ca. 5% Performance.
Da ich G-Sync verwende, habe ich während der Entwicklung nichts davon bemerkt, oft ist das am Rande der Messungenauigkeit.
Wenn meine RTX 3090 stark aufgeheizt ist, kann das auch schon mal ein paar Prozent ausmachen.

Ich weiß technisch nicht woran es liegt, doch vermute weil Windows es mit dem Desktop synct?
Befürchte, dass ich da als Entwickler gar nichts tun kann.
Was meint ihr, sollte der Benchmark zukünftig daher im Fullscreen starten?
Und dann in 720p oder mit der vollen Bildschirmauflösung?
Hatte zuvor mit einem Freund darüber diskutiert, beides bringt Vor- und Nachteile mit sich, doch, dass es jetzt Windowed auch noch langsamer läuft, lässt meine Meinung nun langfristig doch sehr in Richtung Fullscreen gehen.
Bei der Auflösung habe ich allerdings festgestellt, dass die User dann versucht sind den Benchmark so auch anzuschmeißen und einige schwache Systeme gehen dabei zu heftig in die Knie. 720p hingegen sieht im Fullscreen scheiße aus. :freak:


https://i.imgur.com/2VgZU2G.png
Treiber: Adrenalin 21.4.1
Das Ergebnis ist nicht valide, denn Very High sollte keine Screen Space Reflections verwenden, sondern Raytraced sein.
Könntest Du bei Gelegenheit mal das Savegame unter C:\Users\[Username]\AppData\Local\ART_Mark\Saved\SaveGames\Settings\MyOptions.sav löschen, den Benchmark erneut starten und schauen, ob Du den Fehler reproduzieren kannst?
Also bei ,,Very High" sollte nicht ,,Screen-Space" stehen.
Wenn ich das Problem auf meiner RX 6900XT Schritt für Schritt reproduzieren könnte, könnte ich es wahrscheinlich fixen.
In Zukunft werde ich eh noch stark an der Validierung der Ergebnisse arbeiten, weil ich langfristig überlege, eine Option zum automatischen Upload an eine Website zu verbauen, wie 3D Mark es tut. Doch das dauert bestimmt noch Monate, zuerst muss ich den Benchmark ,,härten" und es ist jede Menge Arbeit bis dahin.

Die bisherigen, validen Benchmark-Ergebnisse habe ich hier (https://docs.google.com/spreadsheets/d/18V8R7Z2Osm2DO1KDz7u_76ywLKj40RnDN0bSi3M6x7g/edit#gid=0) zusammengefasst.
Mithilfe von Daten->Filteransichten->Neue temporäre Filteransicht erstellen könnt Ihr die Daten beliebig, wie in Excel filtern.

-/\-CruNcher-/\-
2021-04-23, 01:21:02
Custom Test

Nicht schlecht für schnelle TAAU experimente, allerdings ist die gesammte Szene für eine Visuelle Bewertung nicht Optimal von ihrer gesammt Komplexität.

Der Ergebniss Screenshot by Default in .png vs .jpg ich weiss nicht wo der Sinn da besteht ausser unnötiger bandbreiten Verbrauch von round about +1 MB ?

https://abload.de/img/art-mark_result_-_cus74jxu.jpg

Dein Setup ist schon besser als Pure Raytrace Benchmark nur die Szenen komplexität ist bei Pure Bench realistischer
Pure Bench hat aber keinen Planar Mode den sieht man nicht so of konfigurierbar :)

Für die insgesammte Reflexions Stabilität gibt es auch keine wirklich andere Option als Planar vor allem das Zeigt dein Benchmark.

https://abload.de/img/3070finaly5tyj7w.jpg

Geldmann3
2021-04-23, 01:47:34
Custom Test

Nicht schlecht für schnelle TAAU experimente, allerdings ist die gesammte Szene für eine Visuelle Bewertung nicht Optimal von ihrer gesammt Komplexität.

Der Ergebniss Screenshot by Default in .png vs .jpg ich weiss nicht wo der Sinn da besteht ausser unnötiger bandbreiten Verbrauch von round about +1 MB ?

https://abload.de/img/art-mark_result_-_cus74jxu.jpg

Dein Setup ist schon besser als Pure Raytrace Benchmark nur die Szenen komplexität ist bei Pure Bench realistischer
Pure Bench hat aber keinen Planar Mode den sieht man nicht so of konfigurierbar :)

https://abload.de/img/3070finaly5tyj7w.jpg

Für die insgesammte Stabilität gibt es auch keine andere Option als Planar

Ja, der ART-Mark zeigt ein sehr spezifisches Szenario.
Kein normales Spiel nutzt Raytracing so extrem.

Der Sinn hinter .png liegt einfach darin, dass das UE-Plugin, welches ich verwende, leider nur .png beherrscht.
Hätte auch gerne optional .jpeg Support gehabt, doch in dem Benchmark stecken bereits weit über 100 Stunden Arbeit, das meiste in sowas wie der Menülogik und irgendwann wollte ich ihn mal raushauen und wenigstens von ein paar mehr Leuten als nur mir und einem Freund testen lassen.

Lustig, zu Beginn hatte ich so 20 Stunden geschätzt. ;D

Vieles ist ein Kompromiss aus Zeit, Skill und Inspiration. ;)
Dazu ist es übrigens mein erstes Unreal-Engine Projekt.

Will mich nicht aus dem Fenster lehnen doch vermute, der Pure Raytracing Benchmark war wesentlich weniger Arbeit.
Ich schätze, da wurden irgendwelche Assets aus dem Marketplace zusammengeklatscht.

Die Konfigurierbarkeit, das Menü, der Result-Screen ihn auf aller möglichen Hardware laufen zu lassen, das war schon Arbeit. (Der Pure Raytracing Benchmark hat z.b. einfach 2 Versionen)
Und ihr würdet wirklich nicht glauben, wie komplex die Settings-Logik im Hintergrund ist. ;D
Puh und Raytracing, DLSS und co, dann auch noch im Zusammenspiel und vollkommen konfigurierbar bringen einige Tücken mit sich.
Im Prinzip völlig unmöglich für eine Einzelperson alle Bugs zu finden.
Bin da auch auf euch angewiesen.^^

Tausende von Nodes, hunderte von selbst geschriebenen Funktionen, die auch deshalb noch viele Schwachstellen haben, weil ich erst im Laufe der Entwicklung die Best-Practices gelernt habe, wie man sowas ,,wartbar" hochzieht.
Bin ja Java-Developer und kannte daher einiges aus meinem Job.
Doch die UE ist natürlich nochmal schlicht eine andere Welt.
Und mit C++ habe ich noch nicht mal wirklich angefangen.

-/\-CruNcher-/\-
2021-04-23, 02:07:51
Das die Settings Logik komplex ist sieht man schon vor allem ja kein Standard sondern eher Advanced was so viele ja garnicht erst exposen ;)

Der HeinZ
2021-04-23, 07:11:08
Hier mal Pascal im Doppel Pack!
1080 TI
1080
Eher schlecht als Recht
Die Ergebnisse der 1080 bitte mit Grain of Salt, auch wenn ich rumoptimiert habe, PCIe 2 2x bleibt mit 800 MB Durchsatz ein Bottleneck, gerade bei DX12.
Die RTX Variante wird nicht unterstützt bzw. angeboten
Gruss Matthias

SpielerZwei
2021-04-23, 15:26:17
Welche Settings soll man testen? Ist ja hier sehr durchwachsen!? Hab hier 3900x mit 3070 - gibt ja fast nur "Uber-Systems" in der Excel-Liste und es werden nicht mal alle Settings beachtet...

Ich find das Projekt übrigends super. Hut ab!

Geldmann3
2021-04-23, 15:49:35
Welche Settings soll man testen? Ist ja hier sehr durchwachsen!? Hab hier 3900x mit 3070 - gibt ja fast nur "Uber-Systems" in der Excel-Liste und es werden nicht mal alle Settings beachtet...

Ich find das Projekt übrigends super. Hut ab!

Danke Dir!
Fände es ebenfalls interessant mal ein paar ,,normalere" Systeme zu sehen.

Pflicht sollen die beiden Settings No RT Extreme und Very High in 720p sein.
Vielleicht fragt ihr euch jetzt warum ich mich für eine so geringe Auflösung und nicht für das höchste Setting entschieden habe?
Sagen wir es mal so, der Benchmark ist performancetechnisch sehr zukunftssicher.

SpielerZwei
2021-04-23, 15:53:17
Ah - lesen und so. Nicht immer meine Stärke ;)... Normal ist mein System ja auch nicht...

SpielerZwei
2021-04-23, 16:06:27
3900x @ Stock / 3070 nVidia AutoOC
GPU 1980/RAM 7000 PT260W
https://www.bilder-hochladen.net/files/thumbs/kgjq-g-7a02.png (http://www.bilder-hochladen.net/i/kgjq-g-7a02.png)

https://www.bilder-hochladen.net/files/thumbs/kgjq-i-21b6.png (http://www.bilder-hochladen.net/i/kgjq-i-21b6.png)

Interessanter Weise laufen Spiele immer mit 7200 aufm GPU RAM, hier mag das nVidia AutoOC aber irgendwie nicht...

-/\-CruNcher-/\-
2021-04-23, 17:04:47
Dein System ist schon relativ normal es geht in die Richtung der neusten Konsolen von daher ist das absolut Normal.
Meines Hinkt etwas mehr auf der einen Seite bei den älteren Konsolen und ist der bestimmende faktor , bei dir ist es ausgeglichen normal ;)

SpielerZwei
2021-04-23, 17:06:36
Also wenn ich mir die Systeme in meiner Umgebung so ansehe - dann sind wir alle ganz weit weg von "normal" ;)...

Und ich spreche jetzt nicht von Office DAUs sondern von Gamern und professionellen Anwendern... Klar meine Blase, aber 12 Kerner und RTX 3000 sind da sehr, sehr selten - selbst im professionellen Umfeld.
Aber das ist ja generell ein Problem hier...

Klar ich kann das jetzt nicht belegen, aber ALLE meine Buddies die an den hier ausreichend diskutierten AAA Games mitarbeiten haben NICHT diese Hardware. Jetzt in der Pandemie - oh Wunder - entwickeln die das teilweise an ihren PRIVATEN Kisten zu Hause... Auch bei z.B. UBISOFT sitzten die an ALTEN Kisten. Man kann AAA auch ohne 12 Kerne und RTX entwickeln. Da hat man die ganze Effekte ausser bei internen Präsis bis zum Release nicht gesehen... Sorry...

-/\-CruNcher-/\-
2021-04-23, 17:11:30
ja 12 kerner ist noch sehr übertrieben da sind wir einfach noch nicht wir schafen so langsam den Sprung von 4 zu 6 hin zu 8 aber selbst bis wir 8 effizient voll beffeuern geht noch etwas Zeit ins Land

Lyka
2021-04-23, 17:15:27
Dabei fühle ich mich mit der Ryzen 3600 und der 6700 XT (gut, die 6700 nicht wirklich) eher als untere Mittelklasse, aber heutzutage gibts das bei neuerer HW ja nicht mehr sooooo :|

Geldmann3
2021-04-23, 17:16:29
Also wenn ich mir die Systeme in meiner Umgebung so ansehe - dann sind wir alle ganz weit weg von "normal" ;)...

Und ich spreche jetzt nicht von Office DAUs sondern von Gamern und professionellen Anwendern... Klar meine Blase, aber 12 Kerner und RTX 3000 ist da sehr, sehr selten - selbst im professionellen Umfeld.

HAHA, das war genau mein Gedanke. :D
Selbst die RTX 3070 betrachte ich noch als High-End Karte.

Für uns ist die ,,normal", hier im Thread eher Mid-Range, aber draußen ein brutales Monster.

Ich habe gerade einen Freund im Reallife, der eine RTX 2080 Ti besitzt, alle anderen im Schnitt etwas viel langsameres.

-/\-CruNcher-/\-
2021-04-23, 17:25:07
Die x70 ist die Mitte bei Nvidia die x60 das mass sale target die x80 das Entwickler Scaling Target x90 hat so gesehen keine bessondere bedeutung sie skaliert einfach nur noch nach oben weg bei jedem shrink wird das von Nvidia so durchgeführt, und man brauch eigentlich nichts mehr wirklich benchen man kann den unterschied bei jeder API quasi ausrechnen für UHD sind das immer so +10 FPS unterschied + OC.
Nur seit Turing wird die kalkulation etwas schwierieger durch die anderen Cores und Nvidias main scaling target ist auf die RT und Tensor Performance gewandert :D

Geldmann3
2021-04-23, 17:30:06
Die x70 ist die Mitte bei Nvidia die x60 das mass sale target die x80 das Entwickler Scaling Target

Jope, so sieht der Markt gerade aus. :freak:
Bei 600€ liegt praktisch der Einstiegspreis für die aktuelle Serie.

Der Gedanke mit dem Benchen kam mir auch schon.
Kann man heute gegen vor 15 Jahren z.b. ganz gut anhand der Eckdaten ausrechnen.
Gegen damals ist der Markt gefühlt recht homogen.

-/\-CruNcher-/\-
2021-04-23, 17:50:55
DLSS hat die Kalkulation auch etwas durcheinander gebracht da sind es teils nochmal +10 FPS und steigert sich nach oben je psy (sparse) qualitätseinbusen
so das eine 2060 mit DLSS locker an eine 2070 ohne DLSS kommen kann was vorher nur so bei den OC AIB Karten einkalkuliert wurde im Höchstfall (OC AIB Headroom) Allerdings ist der OC AIB Headroom quasi mit Ampere total platt da war absolut kein Spielraum mehr auch noch die OC idioten glücklich zu machen innerhalb des für Nvidia jackpot günstigen Samsung Designs zusammen mit ihren einsparungen durch DLSS ;)
Jensen freut sich gerade wie nie zuvor alles hat so geklappt wie er es sich vorgestellt hat und es ist sogar noch einen ticken besser gekommen.
Und AMD musst richtig blechen um an die Selbe Performance zu kommen bzw mit +10 FPS Native Raster Performance minimal davor aber dieser 1 seiten Sieg diesmal war extreme teuer für AMD da ist viel von dem Konsolen und Ryzen gewinn wieder reingefloßen, wenn das nicht Jensen sein Ziel war AMDs resourcen auszuquetschen dann weiss ich nicht ;)

Die gute Frau SU wollte unbedingt gegen Jensen im Strip Poker gewinnnen nun steht sie erstmal halb nackt da ;)

Tyrann
2021-04-23, 22:54:18
Das Ergebnis ist nicht valide, denn Very High sollte keine Screen Space Reflections verwenden, sondern Raytraced sein.
Könntest Du bei Gelegenheit mal das Savegame unter C:\Users\[Username]\AppData\Local\ART_Mark\Saved\SaveGames\Settings\MyOptions.sav löschen, den Benchmark erneut starten und schauen, ob Du den Fehler reproduzieren kannst?
Also bei ,,Very High" sollte nicht ,,Screen-Space" stehen.
Wenn ich das Problem auf meiner RX 6900XT Schritt für Schritt reproduzieren könnte, könnte ich es wahrscheinlich fixen.
In Zukunft werde ich eh noch stark an der Validierung der Ergebnisse arbeiten, weil ich langfristig überlege, eine Option zum automatischen Upload an eine Website zu verbauen, wie 3D Mark es tut. Doch das dauert bestimmt noch Monate, zuerst muss ich den Benchmark ,,härten" und es ist jede Menge Arbeit bis dahin.


das löschen hat geholfen

https://i.imgur.com/rHucDu3.png

https://i.imgur.com/JGpYnEe.png

https://i.imgur.com/vzybMtK.png

beim letzten hatte ich Fullscreen eingestellt

Geldmann3
2021-04-23, 23:59:27
das löschen hat geholfen

https://i.imgur.com/rHucDu3.png

https://i.imgur.com/JGpYnEe.png

https://i.imgur.com/vzybMtK.png

beim letzten hatte ich Fullscreen eingestellt

Super, danke für den Hinweis, ich habe gerade eine Codestelle gefunden, die dafür sorgen könnte, dass der Display-Mode falsch ausgelesen wird, wenn die GPU gerade sehr wenige FPS produziert, was bei Dir ja der Fall war. Werde das wahrscheinlich noch diesen Monat mit einem Update fixen. (y)

Bzw. es kann sogar bei hohen FPS passieren, die Wahrscheinlichkeit dafür sinkt nur stark.

Der HeinZ
2021-04-24, 01:46:09
@Geldmann: Glaube ich hab einen Bug gefunden.
Folgendes passiert auf beiden Karten, hier am Beispiel der GTX 1080 TI:
Schalte ich in das Preset NO RT EXTREME habe ich ca. 33 Frames/ per Second und 180 Watt Verbrauch.
Ändere ich nun das Antialiasing auf irgendwas anderes (ganz egal ob aus oder FXAA etc.) erhalte ich ca. 22 Frames/per Second , dafür aber 250 Watt Verbrauch.
Falls benötigt kann ich Screenshots erstellen.
Gruss Matthias
P.S. echt coole Arbeit!

Geldmann3
2021-04-24, 12:37:28
@Geldmann: Glaube ich hab einen Bug gefunden.
Folgendes passiert auf beiden Karten, hier am Beispiel der GTX 1080 TI:
Schalte ich in das Preset NO RT EXTREME habe ich ca. 33 Frames/ per Second und 180 Watt Verbrauch.
Ändere ich nun das Antialiasing auf irgendwas anderes (ganz egal ob aus oder FXAA etc.) erhalte ich ca. 22 Frames/per Second , dafür aber 250 Watt Verbrauch.
Falls benötigt kann ich Screenshots erstellen.
Gruss Matthias
P.S. echt coole Arbeit!

Vielen Dank für die Rückmeldung! Habe gerade 2 Stunden lang nach diesem Bug gesucht ;D hatte die Hoffnung eigentlich schon aufgeben, doch nun habe ich ihn gefunden. Werde ich in nächster Zeit fixen.

Der Bug war richtig tricky, denn ich merke ihn erst in Auflösungen ab 1080p und auf manchen Systemen tritt er aufgrund des Featuresets einfach nicht auf. :freak:
Er betrifft übrigens noch wesentlich mehr als nur das AA-Setting.
Ein Workaround, bis eine neue Version da ist ist, oben das globale Preset hin und her zu ändern.
Natürlich gehen dadurch die ,,Custom Settings" verloren.
Doch in den nächsten Tagen release ich wahrscheinlich schon die nächste Version und dann sollte das behoben sein.

Unglaublich, wie komplex muss erst die Logik in einem AAA-Game sein und wie zur Hölle testen die das.^^

Der HeinZ
2021-04-24, 19:22:52
(y)(y)(y)(y)(y)(y)(y)(y)
Super Danke dir!

Geldmann3
2021-04-26, 01:13:10
Dank eures Feedbacks konnte ich bereits einige grobe Bugs beheben.
Danke nochmal an alle, die so fließig gebenchmarkt haben!

Version 0.80 kann jetzt hier (https://perschistence.itch.io/art-mark) heruntergeladen werden.

Das Installationspasswort lautet weiterhin Perschistence

RELEASE NOTES (https://perschistence.itch.io/art-mark/devlog/246609/release-notes-version-080)
ART-Mark - Another Raytracing Benchmark
Version 0.80
Release Notes

Changes in this version include:

Features:

o Introduce GPU validation and show it on the result screen.
- Makes the benchmark a bit more sensitive against external tools but ensures the GPU offers the right feature set to render the scene correctly.

o Show it on the result screen if the preset seems to be unsaved for some reason.
- To fix this the user should go back to the menu and change the global setting back and forward. (Unfortunately I have no idea why this can happen in some cases.)


Improvements:

o Tweak timings of music and intro animations.
o Start benchmark in full screen and 720p if no save game is detected because it performs best in full screen.
- Even though it does not look best in 720p, a higher resolution could make users tempt to overload their systems when starting the benchmark.


Bug fixes:

o Fix bug that plummets performance when changing some settings.
o Fix bug that can show a wrong display mode on the result screen.
o Fix frame counter potentially overlapping frame time readout with more than 1000fps.
- Until now I have not seen that with my own eyes, but a user reported this to be an issue.

Da die Downloadzahlen, wie auf dem untigen Bild zu sehen, heute ziemlich durch die Decke gegangen sind, musste ich tatsächlich kreativ werden, um den Benchmark halbwegs unterbrechungsfrei bereitzustellen. Allein am 25.04 hat er 200GB Traffic verursacht.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75140&stc=1&d=1619392866

Danke an diejenigen, welche das Ganze unter anderem auf Reddit (https://www.reddit.com/r/hardware/comments/mxzeb6/artmark_another_raytracing_benchmark/) und overclockers.co.uk (https://www.overclockers.co.uk/forums/threads/art-mark-another-ray-tracing-benchmark.18927023/) weitergetrieben haben.

Der HeinZ
2021-04-26, 07:02:16
Direkt ausprobiert!
@Geldmann: Was genau hat es mit den Temporal Antialiasing Upsample auf sich?
Es hat den größten Einfluss auf die Bildqualität der Spiegelungen und den größten Performance Impact. (Alles non RT Modus auf Pascal versteht sich)
Gruss Matthias

-/\-CruNcher-/\-
2021-04-26, 08:12:42
Synce jetzt mit doch schon etwas content komplexer
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12662667

Geldmann3
2021-04-26, 08:40:40
Synce jetzt mit doch schon etwas content komplexer
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12662667

Falscher Thread?

Vielleicht ist es noch etwas früh, doch ich sehe den Zusammenhang nicht, außer, dass Final Fantasy natürlich etwas Content komplexer ist. :freak:

-/\-CruNcher-/\-
2021-04-26, 08:57:58
War dir der Boundary oder Bright Memory Bench zu komplex ? ;)

Frag mich was du mit diesem Classic Bench zeigen willst, der kein reales szenario abbildet sondern eher ne schönere Demo darstellt

Luw7Es66Stg
KJmwQdO2LoU

Zumal sind all diese Benchmarks inklusiver yours truly nicht OS Agnostisch und daher auch besser für die Tonne geignet

Geldmann3
2021-04-26, 10:07:11
Direkt ausprobiert!
@Geldmann: Was genau hat es mit den Temporal Antialiasing Upsample auf sich?
Es hat den größten Einfluss auf die Bildqualität der Spiegelungen und den größten Performance Impact. (Alles non RT Modus auf Pascal versteht sich)
Gruss Matthias

Das ist das temporale Upsampling der Unreal Engine.
Du kannst es mit Nvidias DLSS vergleichen nur, dass es konfigurierbarer ist und in den meisten Fällen minimal schlechtere Ergebnisse mit der gleichen internen Auflösung liefert.
Die einzelnen DLSS-Stufen haben jeweils einen fixen, internen Auflösungsfaktor, TAAU hingegen nicht und ist frei konfigurierbar.


War dir der Boundary oder Bright Memory Bench zu komplex ? ;)

Frag mich was du mit diesem Classic Bench zeigen willst, der kein reales szenario abbildet sondern eher ne schönere Demo darstellt

https://youtu.be/Luw7Es66Stg
https://youtu.be/KJmwQdO2LoU

Zumal sind all diese Benchmarks inklusiver yours truly nicht OS Agnostisch und daher auch besser für die Tonne geignet

Nichts ist mir an diesen Benchmarks zu komplex, ich finde sie toll, der ART-Mark zeigt einfach ein anderes Szenario. Ist eben mein kleines Projekt. Die meisten Workloads in Benchmarks sind mehr oder weniger synthetisch und mein Benchmark hätte in Zukunft übrigens ganz gute Chancen auch auf anderen Plattformen wie Android zu laufen. Wie vergleichbar das dann noch sein wird ist eine andere Frage. Momentan habe ich jedoch mehr als genug Arbeit mit der Windows Version und diese Arbeit mache ich, weil es mir Spaß macht.^^

Zudem bietet mein Benchmark schon ein paar Features und Eigenschaften die kein anderer bietet und ein paar krasse sind noch in der Pipeline. ;)
Habe jetzt 2 Monate fast im stillen Kämmerlein daran gearbeitet und möchte u.a. nicht ein Jahr daran arbeiten, um dann festzustellen, dass alles so verbuggt ist, dass ich es nie mehr fixen kann.
Außerdem will ich mein Baby natürlich auch mal in Aktion sehen. :D

Leonidas
2021-04-26, 11:38:44
Da die Downloadzahlen, wie auf dem untigen Bild zu sehen, heute ziemlich durch die Decke gegangen sind, musste ich tatsächlich kreativ werden, um den Benchmark halbwegs unterbrechungsfrei bereitzustellen. Allein am 25.04 hat er 200GB Traffic verursacht.

Sorry, ich hab gestern auf Reddit & Twitter promotet. Dachte, das wäre in Deinem Sinne.

Geldmann3
2021-04-26, 11:50:09
Sorry, ich hab gestern auf Reddit & Twitter promotet. Dachte, das wäre in Deinem Sinne.

Doch, das war es absolut, danke Dir!

Es hört sich zwar verrückt an, doch es war immer ein Traum von mir, dass mein Google Drive aufgrund von hohen Downloadzahlen down geht.
;D Nein wirklich... haha
Hab das oft bei Texturmods und so gesehen und dachte mir, boa, wenn ich so eine Software hätte...

Auch wenn es in dem Moment natürlich ein bisschen Mühe gekostet hat, das Ganze oben zu halten.
Jetzt ist es übrigens stabil, da ich etwas aufgerüstet habe.

Leonidas
2021-04-27, 04:18:04
:up:

Geldmann3
2021-04-28, 02:10:45
Im folgenden Diagramm habe ich die Ergebnisse der Karten zusammengefasst, von welchen ich bisher ausreichend Datenmaterial in Very High @720p sammeln konnte.

Das Bild sieht unter diesem extremen Raytracing-Workload etwas anders aus, als wir es von aktuellen AAA Spielen gewohnt sind, insbesondere wahrscheinlich deshalb, weil diese noch sehr von der Rasterisierungs-Performance getrieben werden.

https://i.ibb.co/vZB7sz2/Performanceindex-Alpha.png

Die RTX 3090 ist 41% schneller als die RTX 3070. Innerhalb der Ampere-Architektur sieht das Bild folglich wie erwartet aus. Die 6900 XT kommt unter diesem Workload hingegen nunmehr auf lediglich 55,62% der Performance der schnellsten Ampere Karte, setzt sich zu meiner Überraschung, in den bisher gesammelten Daten, jedoch deutlich (49%) vor die RTX 2080 ab, welche ihrerseits von ihren Ampere-Geschwistern zermahlen wird. Dies ist somit der erste Echtzeit-Grafik-Workload, der mir bekannt ist, in welchem Nvidia seinen anfänglichen Performance-Claim, der Performance-Verdopplung, halten kann. Jedoch ist die Datenlage teilweise noch sehr dünn, weshalb ich nur die am meisten gebenchmarkten Karten in den Index aufgenommen habe. Es würde mich folglich sehr freuen weitere Ergebnisse von euch zu sehen. Insbesondere interessant wären die Turing Modelle.

Ich hätte eher erwartet, dass Turing RDNA2 in diesem Szenario schlägt.
Würde die Ergebnisse daher gerne ein wenig festigen.

Und was zur Hölle ist hier eigentlich mit der RTX 2060 los?
Ich kann mir vorstellen, dass sie sich hier trotz einer Auflösung von nur 720p bereits an ihren 6GB Vram verschluckt.
Oder die Daten, die ich bisher habe, sind einfach Ausreißer.

Dampf
2021-04-28, 13:35:35
Und was zur Hölle ist hier eigentlich mit der RTX 2060 los?
Ich kann mir vorstellen, dass sie sich hier trotz einer Auflösung von nur 720p bereits an ihren 6GB Vram verschluckt.
Oder die Daten, die ich bisher habe, sind einfach Ausreißer.

Hast du die Daten von mir genommen? Das ist eine Laptop 2060, nicht die Desktop Version. Letztere ist deutlich potenter.

vinacis_vivids
2021-04-28, 14:57:15
Wieso ist das Ding so nvidialastig?
6900XT hinter der RTX3070 ist ein schlechter Witz.

Geldmann3
2021-04-28, 17:30:10
Hast du die Daten von mir genommen? Das ist eine Laptop 2060, nicht die Desktop Version. Letztere ist deutlich potenter.

Uh, tatsächlich habe ich nur nach der 2060 gefiltert und nicht auf den Rest geschaut.
Dann erklärt das wohl die schlechte Performance der RTX 2060.
Sind eben noch nicht genügend Daten da.

Wieso ist das Ding so nvidialastig?
6900XT hinter der RTX3070 ist ein schlechter Witz.

Das liegt an der Art des Workloads. RDNA2 schwächelt bereits in normalen Games, wenn es ans Raytracen geht, hier zeigt sich diese Schwäche in ihrem absoluten Extrem. Natürlich wirst Du sowas unter realen Games, jedenfalls in aktuellen Spielen und wahrscheinlich auch in zwei Jahren, nicht sehen.

hmmm
2021-04-28, 17:51:20
...Das liegt an der Art des Workloads. RDNA2 schwächelt bereits in normalen Games, wenn es ans Raytracen geht, hier zeigt sich diese Schwäche in ihrem absoluten Extrem. Natürlich wirst Du sowas unter realen Games, jedenfalls in aktuellen Spielen und wahrscheinlich auch in zwei Jahren, nicht sehen.
Und in wirklichkeit liegt dies daran, dass die DXR Implementation in der Unreal Engine implizit von RTX (Nvidia Hardware) aus geht.
Nach einem schnellem Test gehe ich davon aus, dass der ART-Mark code, zumindest in sachen "DXR" und RDNA 2 Hardware, zu 100% dem Code der UE entspricht.

Geldmann3
2021-04-28, 19:35:44
Und in wirklichkeit liegt dies daran, dass die DXR Implementation in der Unreal Engine implizit von RTX (Nvidia Hardware) aus geht.
Nach einem schnellem Test gehe ich davon aus, dass der ART-Mark code, zumindest in sachen "DXR" und RDNA 2 Hardware, zu 100% dem Code der UE entspricht.

Du hast recht, ich verwende die Unreal Engine native Raytracing-Implementierung. Auch ich gehe davon aus, dass der Code wesentlich stärker auf Nvidia als auf AMD optimiert wurde. Doch ich habe auch nichts speziell Nvidia spezifisches außer DLSS verwendet, der Benchmark hat kein ,,RTX" implementiert. Jedoch entspricht das auch der Praxis da draußen, wer ist schon in der Lage seine eigene GPU-beschleunigte-Echtzeit-Raytracing-Implementierung zu schreiben, die auch noch besser auf die unterschiedlichen Hardwaretypen optimiert ist, als jene, welche von einer Multimillionen-Dollar-Company stammt? Mir ist kein einziges Unreal Engine Projekt bekannt, welches eine andere Implementierung für Raytraced-Reflections verwendet. Aus gutem Grund, es ist einfach sehr schwer etwas Besseres zu entwickeln. Ich kann mir vorstellen, dass in AMD-Karten deutlich mehr Performance stecken KÖNNTE, wenn stark dafür optimiert werden würde. Doch Software ist eben immer auch ein Teil der Hardware, die man kauft. Eine Radeon VII war von der Rechenleistung her schneller als eine 2080 Ti, doch konnte sie dies je auf die Strecke bringen, hat das beim Zocken je etwas gebracht? Wobei mein Benchmark natürlich sicher alles andere als Praxisrelevant für Gamer ist. Um ehrlich zu sein, ich glaube nicht, dass RDNA2, selbst mit der besten Optimierung, an Ampere herankommen würde, was die Performance in diesem Szenario betrifft. Doch ich kann mir gut vorstellen, dass es bei der Implementierung ein paar Kniffe geben könnte, welche schwupp*di*wupp zweistellige Mehrperformance für RDNA2 herausholen könnten. Doch sicher bin ich mir da auch nicht. Wenn mir da jemand entgegenkommen möchte, gerne, ich baue es gerne ein, sofern ich es kann. :wink: Doch im Moment kann ich das genauso wenig wie 99% aller anderen Entwickler. Jedoch bin ich gespannt welche Optimierungen die Unreal Engine zukünftig in diese Richtung auf die Waage legt, insbesondere die Unreal Engine 5, welche neben Lumen sicher auch noch mit einer Raytracing-Implementierung aufwartet. Denn einige Dinge, wie das im Benchmark zu sehende, sind eben nur mit purem Raytracing darzustellen, sofern die Umgebung interaktiv sein soll.

Der HeinZ
2021-04-28, 19:37:04
Und in wirklichkeit liegt dies daran, dass die DXR Implementation in der Unreal Engine implizit von RTX (Nvidia Hardware) aus geht.
Nach einem schnellem Test gehe ich davon aus, dass der ART-Mark code, zumindest in sachen "DXR" und RDNA 2 Hardware, zu 100% dem Code der UE entspricht.
Nun... ja das ist ja erstmal nicht schlimm. Nvidia hatte hier einen enormen Vorsprung. Das ein Software Hersteller eine Technik, die auch noch ganz gut zu funktionieren scheint, integriert und vor allem darauf optimiert, ist doch nicht verwerflich sondern logisch. Es geht ja nicht darum möglichst alles gut zu unterstützen, sondern darum alles gut zu unterstützen, dass auch gut funktioniert und in breiter Masse vorhanden ist bzw. schon war.
Also daher verstehe ich den Post nicht.
Gruss Matthias

gruntzmaker
2021-04-28, 23:13:12
Sind eben noch nicht genügend Date
Das liegt an der Art des Workloads. RDNA2 schwächelt bereits in normalen Games, wenn es ans Raytracen geht, hier zeigt sich diese Schwäche in ihrem absoluten Extrem. Natürlich wirst Du sowas unter realen Games, jedenfalls in aktuellen Spielen und wahrscheinlich auch in zwei Jahren, nicht sehen.

Imho hätte AMD RDNA2 besser nicht als Raytracing Karte vermarkten sollen. Als solche sollte man die Generation jedenfalls besser nicht sehen.

Ja theoretisch kann die Generation Raytracing, aber man merkt RDNA2 schon an, dass es in Sachen Raytracing nur eine Art Versuchsballon ist, ernsthaft versucht hat man es nicht.

Sieht man auch am fehlenden DLSS Konterpart.

Wer da auf Konkurrenzfähigkeit hofft, wird einfach auf und nur auf Intel warten müssen.

just4FunTA
2021-04-30, 17:14:13
mit raytracing ist die rtx3060 ähnlich schnell wie meine rx 6900XT. :redface:


https://abload.de/img/art-mark_result_-_no_bjj69.png

https://abload.de/img/art-mark_result_-_verwaktf.png

Leonidas
2021-04-30, 17:50:17
PC Games Hardware:
Raytracing-Showcase getestet: Ampere deklassiert Turing und RDNA 2 - ein Blick in die Zukunft?
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/

Radeonfreak
2021-04-30, 17:52:01
Nur dumm das sich das überhaupt nicht in Spielen widerspiegelt, und komplett RT Games wird es lange lange nciht geben.

Ich mach trotzdem jede 3070 platt.

Nuon
2021-04-30, 18:35:13
Nur dumm das sich das überhaupt nicht in Spielen widerspiegelt, und komplett RT Games wird es lange lange nciht geben...
Ein Gegenbeispiel wäre Metro Exodus Enhanced Edition, das Anfang Mai rauskommt.

Radeonfreak
2021-04-30, 18:36:41
Ich meine eigentlich komplett getrayct ohne Rasterizing. Falls es sowas je geben sollte. Ich bin sicher auch in Metro schneller als ne 3070.

mischi
2021-04-30, 18:57:11
Bei mir bringt Benchmark bei Einstellung Very High einen invalid score. Woran liegt das? Treiber = 465.89

Raff
2021-04-30, 19:04:58
PC Games Hardware:
Raytracing-Showcase getestet: Ampere deklassiert Turing und RDNA 2 - ein Blick in die Zukunft?
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/

:up:

Ich meine eigentlich komplett getrayct ohne Rasterizing. Falls es sowas je geben sollte. Ich bin sicher auch in Metro schneller als ne 3070.

Hmm, das könnte eng werden. Wir erfahren's bald. :D

MfG
Raff

Radeonfreak
2021-04-30, 19:08:47
Freu mich schon. :)

Raff
2021-04-30, 19:10:00
Dito, sieht nach Technik- und Atmo-fest aus. =) Aber erst mal will die Zombiekuh Resi gemolken werden.

MfG
Raff

Gumril
2021-04-30, 19:40:32
Hier mal die Werte vom PC meines Bruders:

Nuon
2021-05-01, 12:46:27
Ich habe nochmal mit der neuen Version (0.8) gebencht, wegen der dazugekommenen GPU Validation und weil ich noch nicht Fullscreen gebencht habe.
Bei mir ist kein Fehler aufgetreten, ich habe den Treiber 461.72 drauf.
RTX3080, R9 5900X.

-Hilfreich wäre es, einen Hinweis auf diesen Thread im Programm oder auf der Downloadseite unterzubringen, damit mehr Ergebnisse kommen.
-Es wäre besser den Hintergrund der Resultscreens viel dunkler zu machen(so dass die Farben teilweise im Schwarz absaufen), damit wären durch einfarbige Flächen die .png Dateien deutlich kleiner und könnten direkt hier hochgeladen werden, ohne umwandeln in .jpg.

Achill
2021-05-01, 12:51:50
Hallo Geldmann3, vorweg schonmal Hut ab für die Arbeit die du in den Bench gesteckt hast. Das ist eine tolle Leistung.

Hier mal meine Ergebnisse.

Für RT-VeryHigh empfiehlt sich UV bei AMD, lief bei mir mit:
- GPU@2425MHz@1.06V
- VRAM@2150MHz@Fast-Timings2
- PT mit +15%
- HwInfo zeigt für die GPU ein Verbrauch (PTT) von ~270W während des Benchs an

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75195


Für no-RT Extrem gibt es keine gute Auslastung der GPU, hier kann ich umgekehrt den Takt hoch ziehen auf Settings, die sonst nicht Game-Stabil sind:
- GPU@2625MHz@1.1V
- VRAM@2150MHz@Fast-Timings2
- PT mit +15%
- HwInfo zeigt für die GPU ein Verbrauch (PTT) von ~190W während des Benchs an

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75196


Ich würde mich freuen, wenn folgende Punkte genauer benannt werden:
- Auf welcher Version der Unreal-Engine basiert der Benchmark?
- Wird die default Engine mit den NV DLSS Plugin genutzt oder der NV-Branch der UE?
- Gibt es weitere vorgenommene Optimierungen?

=> Damit könnte man einschätzen, wie sehr der Benchmark zukünftige Spiele mit massiven Einsatz von RT-Reflections basieren auf der UE abbildet
=> Falls später der Bench auf eine neue Version der UE gehoben wird, ob diese generell oder spezifisch für AMD/NV Verbesserungen bei der RT Performance bringt

Kann man Details (gern Optional) sichtbar und konfigurierbar machen, konkret die Größe (MB) der Vertex und BVH Struktur?

=> Wäre interessant um zu sehen, wie sich eine AMD 6000er GPU verhält, wenn diese Daten nicht mehr in den Inf-Cache passen (bzw. ggf. ist dies ja schon der Fall).

---
Edit, ich habe mich auch noch an den Settings von PCGH versucht mit:
- GPU@2425MHz@1.06V
- VRAM@2150MHz@Fast-Timings2
- PT mit +15%
- HwInfo zeigt für die GPU ein Verbrauch (PTT) von ~280W während des Benchs an

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75197

Hierbei ist mir dann jedoch aufgefallen, dass der Mem-Controller laut HwInfo fast ständig eine Auslastung von 99% anzeigt. Ein Check bei 720p mit RT-VeryHigh zeigt auch dort schon hohe 88% Auslastung. In wie fern ist der Bench ggf. an die Bandbreite der GPU gekoppelt bzw. überschreitet dieser die Inf-Cache?

Geldmann3
2021-05-01, 14:37:41
Ich habe nochmal mit der neuen Version (0.8) gebencht, wegen der dazugekommenen GPU Validation und weil ich noch nicht Fullscreen gebencht habe.
Bei mir ist kein Fehler aufgetreten, ich habe den Treiber 461.72 drauf.
RTX3080, R9 5900X.

-Hilfreich wäre es, einen Hinweis auf diesen Thread im Programm oder auf der Downloadseite unterzubringen, damit mehr Ergebnisse kommen.
-Es wäre besser den Hintergrund der Resultscreens viel dunkler zu machen(so dass die Farben teilweise im Schwarz absaufen), damit wären durch einfarbige Flächen die .png Dateien deutlich kleiner und könnten direkt hier hochgeladen werden, ohne umwandeln in .jpg.

Hey, das mit dem Link zum Thread ist wirklich eine hervorragende Idee!
Werde ich heute auf den Downloadsseite einfügen.

Haha, tatsächlich habe ich bei diesem Benchmark gerade mal mit 1% des Erfolges gerechnet, den er jetzt hat, wenn ich mir die Downloadzahlen anschaue. Daher habe ich ihn zu Testzwecken so früh hier veröffentlicht. Der Result-Screen sollte in meinen Augen generell überarbeitet werden, weil er, ähhh, wie soll ich es ausdrücken, ein bisschen hässlich ist. ;D und das sagt der Entwickler selbst. Ich könnte mir so eine Mischung aus dunklem MSI-Afterburner-Custom-Theme-Style und Superposition-Benchmark-Result-Screen vorstellen. Falls jemand Lust haben sollte sowas zu designen, nehme ich Vorschläge gerne an. Kann auch gerne ganz anders aussehen, glaube nicht, dass ich das Genie bin, was das Design angeht. Es sollte optimalerweise ein Seitenverhältnis von 16:9 haben und Platz für alles vorhanden sein, was da eventuell so angezeigt werden kann. Zum Beispiel kommt in den nächsten Wochen ein Button hinzu, mit welchem man das eigene Ergebnis an eine Datenbank übertragen kann, ähnlich wie beim 3D-Mark und co.


Ich würde mich freuen, wenn folgende Punkte genauer benannt werden:
- Auf welcher Version der Unreal-Engine basiert der Benchmark?
Der Benchmark basiert auf Version 4.26.2, also der neuesten Iteration.


- Wird die default Engine mit den NV DLSS Plugin genutzt oder der NV-Branch der UE?
Es wird der die default Engine mit Plugin verwendet, nicht der NV-Branch.

- Gibt es weitere vorgenommene Optimierungen?
Nicht im Code der Engine. Sollte alles so ziemlich State-Of-The-Art sein, wie man das heute mit der UE macht. Einige Elemente blende ich aus und einige Settings habe ich getweakt, da viele GPUs zum Beispiel heftig einbrechen, wenn die Planar Reflections aktiv sind, obwohl sie gar nicht mehr gerendert werden. Habe ich auf der 6900XT bemerkt, als ich mir das Render-Budget der einzelnen Elemente angeschaut habe.

Kann man Details (gern Optional) sichtbar und konfigurierbar machen, konkret die Größe (MB) der Vertex und BVH Struktur?

=> Wäre interessant um zu sehen, wie sich eine AMD 6000er GPU verhält, wenn diese Daten nicht mehr in den Inf-Cache passen (bzw. ggf. ist dies ja schon der Fall).

Über sowas habe ich tatsächlich auch schon nachgedacht, viel mehr Infos anzuzeigen und Echtzeit-Regler für alles zu bieten, wenigstens im Stresstest-Modus. Einfach, weil es spannend ist. Werde ich daher eventuell noch einführen. Eigentlich alles eine Sache der Zeit und Priorisierung. ;) Auch meine Vermutung ging schon Richtung des Infinity Caches

Zitat von mir aus PCGH (https://extreme.pcgameshardware.de/threads/raytracing-showcase-getestet-ampere-deklassiert-turing-und-rdna-2-ein-blick-in-die-zukunft.603763/page-4#post-10738204):
Mich interessiert vor allem auch noch etwas ältere und langsamere Hardware, auch in den No-RT Settings. Der Workload scheint recht ähnlich zu sein, die AMD Schwäche kam beispielsweise zunehmend mit den Reflexionen zum Tragen, selbst, wenn diese nicht geraytraced waren. Da scheint ein ähnliches Bottleneck vorzuliegen. Entferne ich die Reflektionen, kommen RDNA 2 und Ampere sich wieder sehr nahe, daher plane ich in Zukunft eventuell auch noch ein Featuretest für GI und AO hinzuzufügen. Ich vermute einen Zusammenhang mit dem Speichersubsystem, denn AO kann im Gegensatz zu Spiegelungen beispielsweise gecached werden, während spiegelnde Oberflächen mit jedem Frame im Speicher geupdatet werden müssen und das an jeder Stelle.

Achill
2021-05-01, 15:13:29
@Geldmann3, danke für die Antworten. :smile:

---
Ich habe mal DLSS-Q mit TAAU nachgestellt (rein von der internen Auflösung, also 66% der Zielauflösung) und mit den PCGH 1080p Settings.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75198

So sieht das ganze in Bewegung aus ... mich würde mal ein DLSS-Q Video mit den Settings interessieren. Dann hätte man ein Vergleich zu TAAU.

Die Kompression von YouTube (https://www.youtube.com/watch?v=Bi-7jo6h15s) hält man ja nicht aus, lade es zusätzlich in Drive hoch (https://drive.google.com/uc?export=download&confirm=GLmK&id=1AiMH5YyaxJaG6AQK6xJixoD0cYKhicWC).

baylander
2021-05-01, 16:05:34
75200

mahoni
2021-05-02, 15:24:57
@Geldmann3, danke für die Antworten. :smile:

---
Ich habe mal DLSS-Q mit TAAU nachgestellt...

Sicher das du DLSSQ damit nachgestellt hast? Ich habe die Settings die du bei 1920*1080 gemacht hast mal mit meiner 3080 gemacht. Da habe ich mit DLSS Q dann ca.14500Punkte. Ich hoffe ich hab nix übersehen.

Mit Dem Very High Preset ohne DLSS sind es 8200 Punkte (RTX3080).

Geldmann3
2021-05-02, 17:09:12
Sicher das du DLSSQ damit nachgestellt hast? Ich habe die Settings die du bei 1920*1080 gemacht hast mal mit meiner 3080 gemacht. Da habe ich mit DLSS Q dann ca.14500Punkte. Ich hoffe ich hab nix übersehen.

Mit Dem Very High Preset ohne DLSS sind es 8200 Punkte (RTX3080).

Das wäre durchaus möglich, denn die Ampere GPUs sind in dieser Disziplin wesentlich schneller. Könntest Du Bilder Deiner Result Screens dazu posten? Dann würde ich die Ergebnisse in meine Statistiken mit aufnehmen. :)

mahoni
2021-05-02, 18:13:19
https://s8.directupload.net/images/210502/temp/s386yo4w.png (https://www.directupload.net/file/d/6171/s386yo4w_png.htm)


https://s12.directupload.net/images/210502/temp/6dmmsusa.png (https://www.directupload.net/file/d/6171/6dmmsusa_png.htm)

Saugbär
2021-05-02, 19:27:49
Schöne Techdemo, um zu zeigen was mit RTX überhaupt möglich ist.
Mal wieder eine RTX 2060 Mobile
Angezeigt wird jedoch nur die AMD Radeon RX Vega 8 (Ryzen 4000)

Bandit3644
2021-05-04, 17:24:03
Ryzen 9 5900x @4,2 GHz bei 1,175 Volt
MSI RTX 3080 Suprim X @1905 MHz bei 0,850 Volt ca. 260 Watt
https://s8.directupload.net/images/210504/skip9sm9.png (https://www.directupload.net)
https://s8.directupload.net/images/210504/4oubgpzx.png (https://www.directupload.net)

Ryzen 9 5900x @4,2 GHz bei 1,175 Volt
MSI RTX 3080 Suprim X @Stock 370 Watt
https://s12.directupload.net/images/210504/q6he4jca.png (https://www.directupload.net)
https://s16.directupload.net/images/210504/ofpcuj4u.png (https://www.directupload.net)


Ryzen 9 5900x @4,2 GHz bei 1,175 Volt
MSI RTX 3080 Suprim X @+130 MHz 420 Watt
https://s20.directupload.net/images/210504/edepgaf7.png (https://www.directupload.net)
https://s18.directupload.net/images/210504/8rgvg6sc.png (https://www.directupload.net)

qiller
2021-05-28, 23:47:46
...

Geldmann3
2021-06-21, 02:33:01
Version 1.00 des Benchmarks kann jetzt hier (https://perschistence.itch.io/art-mark) heruntergeladen werden.

Das Installationspasswort lautet weiterhin Perschistence

RELEASE NOTES (https://perschistence.itch.io/art-mark/devlog/265792/release-notes-version-100)

ART-Mark - Another Raytracing Benchmark
Version 1.00

Release Notes

Changes in this version include:

Features:
o Add input field for username.
o Show official leaderboard at ART-Mark.de
o Add mechanism to publish result to the leaderboard at ART-Mark.de

Improvements:
o Improve support for GT 1000 GPUs.
o Fix some optical flaws in the menu.

Bug fixes:
o Fix file dialogue not showing any files when saving picture.
o Do not save a screenshot anymore if user cancels the save dialog.
o Tweak DXR validation to not trigger as many devalidations.



In mühevoller Handarbeit habe ich alle bisher im Netz geposteten, validen Benchmark-Ergebnisse nach ART-Mark.de (https://ART-Mark.de) übergeführt.
Das Leaderboard befindet sich noch immer im Aufbau, doch alles ist besser als manuell Excel-Listen zu führen.
Von jetzt an können Ergebnisse auf Wunsch des Nutzers direkt vom Result-Screen in die Datenbank übertragen werden.


Danke nochmal an meinen Freund Roman*, dessen Expertise dem Benchmark dieses Leaderboard erst ermöglicht. ;)

Natürlich hat es mich auch extrem gefreut den ausführlichen Artikel von Raff auf PCGH (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/) zum Benchmark zu lesen und noch erfreuter war ich, dass er sogar seinen Platz in der aktuellen PC Games Hardware (Digital+Printausgabe) gefunden hat.

Sweepi
2021-10-09, 00:23:37
Vernichtende Kritik:
1. Wenn ich mit einem 3440x1440 Monitor, mit DSR 6880x2880, den Temporal Anti-Aliasing Upsample "Slider" klicke, crashed das Spiel:

---------------------------
The UE4-ART_Mark Game has crashed and will close
---------------------------
LowLevelFatalError [File:Unknown] [Line: 671]
RetCode = Adapter->CreateCommittedResource(Desc, GetGPUMask(), HeapProps, InitialState, ClearValue, &NewResource, Name, false) failed
at D:/Build/++UE4/Sync/Engine/Source/Runtime/D3D12RHI/Private/D3D12Allocation.cpp:1380
with error DXGI_ERROR_DEVICE_REMOVED






---------------------------
OK
---------------------------

2. Das Menue ist laggy mit höheren Settings, da wird irgendwas schon im Hintergrund gerendert.

3. Ich sehe da noch Artefakte, ich brauch höhere Settings für RT (4 Rays pro Pixel?) und einen "Prerender to (lossless!) Video" Modus ;D

4. Mein Score ist ungültig, auch in 720p.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76952&d=1633731373

Dxdiag:


------------------
System Information
------------------
Time of this report: 10/9/2021, 00:16:49
Machine name: DESKTOP-C2T339R
Machine Id: {schnipp}
Operating System: Windows 10 Pro 64-bit (10.0, Build 19042) (19041.vb_release.191206-1406)
Language: English (Regional Setting: English)
System Manufacturer: Gigabyte Technology Co., Ltd.
System Model: X570 I AORUS PRO WIFI
BIOS: BIOS Date: 05/21/21 18:44:18 Ver: 05.00011 (type: BIOS)
Processor: AMD Ryzen 9 5950X 16-Core Processor (32 CPUs), ~3.4GHz
Memory: 32768MB RAM
Available OS Memory: 32710MB RAM
Page File: 14868MB used, 42650MB available
Windows Dir: C:\Windows
DirectX Version: DirectX 12
DX Setup Parameters: Not found
User DPI Setting: 96 DPI (100 percent)
System DPI Setting: 96 DPI (100 percent)
DWM DPI Scaling: Disabled
Miracast: Available, no HDCP
Microsoft Graphics Hybrid: Not Supported
DirectX Database Version: 1.0.8
DxDiag Version: 10.00.19041.0928 64bit Unicode

------------
DxDiag Notes
------------
Display Tab 1: No problems found.
Sound Tab 1: No problems found.
Sound Tab 2: No problems found.
Sound Tab 3: No problems found.
Input Tab: No problems found.

--------------------
DirectX Debug Levels
--------------------
Direct3D: 0/4 (retail)
DirectDraw: 0/4 (retail)
DirectInput: 0/5 (retail)
DirectMusic: 0/5 (retail)
DirectPlay: 0/9 (retail)
DirectSound: 0/5 (retail)
DirectShow: 0/6 (retail)

---------------
Display Devices
---------------
Card name: NVIDIA GeForce RTX 3090
Manufacturer: NVIDIA
Chip type: NVIDIA GeForce RTX 3090
DAC type: Integrated RAMDAC
Device Type: Full Device (POST)
Device Key: Enum\PCI\VEN_10DE&DEV_2204&SUBSYS_87AF1043&REV_A1
Device Status: 0180200A [DN_DRIVER_LOADED|DN_STARTED|DN_DISABLEABLE|DN_NT_ENUMERATOR|DN_NT_DRIVER]
Device Problem Code: No Problem
Driver Problem Code: Unknown
Display Memory: 40703 MB
Dedicated Memory: 24348 MB
Shared Memory: 16355 MB
Current Mode: 3440 x 1440 (32 bit) (120Hz)
HDR Support: Not Supported
Display Topology: Internal
Display Color Space: DXGI_COLOR_SPACE_RGB_FULL_G22_NONE_P709
Color Primaries: Red(0.639648,0.330078), Green(0.299805,0.599609), Blue(0.150391,0.059570), White Point(0.312500,0.329102)
Display Luminance: Min Luminance = 0.500000, Max Luminance = 270.000000, MaxFullFrameLuminance = 270.000000
Monitor Name: Generic PnP Monitor
Monitor Model: Dell AW3418DW
Monitor Id: DELA0FA
Native Mode: 3440 x 1440(p) (59.973Hz)
Output Type: Displayport External
Monitor Capabilities: HDR Not Supported
Display Pixel Format: DISPLAYCONFIG_PIXELFORMAT_32BPP
Advanced Color: Not Supported
Driver Name: C:\Windows\System32\DriverStore\FileRepository\nv_dispi.inf_amd64_9be48e12ebceea 24\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nv_dispi.inf_amd6 4_9be48e12ebceea24\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\n v_dispi.inf_amd64_9be48e12ebceea24\nvldumdx.dll,C:\Windows\System32\DriverStore\ FileRepository\nv_dispi.inf_amd64_9be48e12ebceea24\nvldumdx.dll
Driver File Version: 30.00.0014.7212 (English)
Driver Version: 30.0.14.7212
DDI Version: 12
Feature Levels: 12_1,12_0,11_1,11_0,10_1,10_0,9_3,9_2,9_1
Driver Model: WDDM 2.7
Hardware Scheduling: Supported:True Enabled:False
Graphics Preemption: Pixel
Compute Preemption: Dispatch
Miracast: Not Supported by Graphics driver
Detachable GPU: No
Hybrid Graphics GPU: Not Supported
Power P-states: Not Supported
Virtualization: Paravirtualization
Block List: No Blocks
Catalog Attributes: Universal:False Declarative:False
Driver Attributes: Final Retail
Driver Date/Size: 13/09/2021 02:00:00, 1056280 bytes
WHQL Logo'd: Yes
WHQL Date Stamp: Unknown
Device Identifier: {D7B71E3E-6144-11CF-DF6F-A1A70EC2D335}
Vendor ID: 0x10DE
Device ID: 0x2204
SubSys ID: 0x87AF1043
Revision ID: 0x00A1
Driver Strong Name: oem68.inf:0f066de3b9184289:Section182:30.0.14.7212:pci\ven_10de&dev_2204
Rank Of Driver: 00D12001
Video Accel:

Geldmann3
2021-10-09, 01:40:37
Danke für den Hinweis, werde mal versuchen es zu reproduzieren.
Habe um ehrlich zu sein seit Monaten nichts mehr am Benchmark gemacht, der versuchte Port zur UE5 war extrem demotivierend, im Prinzip würde ich aktuell über 100h oder so brauchen, könnte ihn dann fast gleich neu machen und lässt sich gerade nicht mit meinem Dayjob vereinbaren.^^
Vielleicht ändert sich das, wenn das Ökosystem um die UE5 mehr ausgereift ist.

3. Ich sehe da noch Artefakte, ich brauch höhere Settings für RT (4 Rays pro Pixel?) und einen "Prerender to (lossless!) Video" Modus
Du hast absolut Recht! ;D
Ersteres habe ich nicht gemacht, weil der Benchmark dann instabil wird, schlechte Performance nehme ich noch hin aber keine Abstürze.

Ich kann mir vorstellen, dass die Auflösung, die Du gefahren hast, zu heftig ist und im Hintergrund was mit dem Validierungs-Gedöns, was durchgeführt wird kaputtgegangen ist, habe ich bereits bei sehr niedrigen Frameraten erlebt.

Wenn Du den Benchmark direkt so startest, dass Du 2 stellige-Frameraten hast, könnte die Validierung wieder klappen. Die UE4 hat leider die Eigenschaft, dass die Delta-Time zwischen den Frames bei sehr niedrigen Frameraten nicht mehr korrekt berechnet werden kann. In Spielen kein Problem, aber die Validierung bringt das wohl auf die Palme.

Dieses DXGI_ERROR_DEVICE_REMOVED hatte ich manchmal gesehen, wenn ich entweder eine extreme Überlast erzeugt habe oder eine andere Anwendung im Hintergrund auf die GPU-Beschleunigung zugreift. Die UE5 scheint das noch immer zu haben.

Edit: Habe gerade mal in 8K versucht den temporalen Slider zu bewegen, da bekomme ich meist auch einen Absturz. ;D Meine RTX 3090 ist halt zu scheiße.
Deshalb gibt es auch nicht mehr als 2 Rays per Pixel.^^

Wie man sieht, reichen mit 200% TAAU selbst 720p, um eine RTX 3090 in die Knie zu zwingen.
Und das war nicht einmal das höchste Setting.

https://i.ibb.co/mJG6pSy/200TAAU.png

@Low bekomme ich immerhin noch 2 stellige Frameraten in 8K
https://i.ibb.co/2W8cXGL/ART-Mark-Result-Low-100-2021-10-09-02-00-01.png

8K DLSS Performance Extreme
https://i.ibb.co/JtMQhCV/ART-Mark-Result-Extreme-Performance-2021-10-09-02-11-39.png

Sweepi
2021-10-09, 03:04:41
Krass, dass das porten zu UE5 soviel Arbeit ist, hätte gedacht Epic hätte da Interesse Tooling / Kompatibilität anzubieten.

720p Extreme failed bei mir leider auch:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76953&stc=1&d=1633741394

Geldmann3
2021-10-09, 03:29:24
Sau interessant, warum läuft das bei mir und bei euch nicht.
Hmmm

Läuft bei euch Riva Tuner oder MSI-After-Burner im Hintergrund?
Welchen Treiber verwendet ihr?
Habt ihr vllt. VSync oder einen Framelock im Treiber aktiv?
Mir hat auch schonmal ein Neustart geholfen.

Habe es auf RTX 3090, 2080 Ti, R9 6900 XT, R9 290 mit unterschiedlichen Monitoren getestet.^^

Ich weiß alles nicht das Wahrscheinlichste, doch ich versuche Gemeinsamkeiten zu erkennen.
Raustabben, Taskleiste einblenden oder so, selbst wenn es nur einmal beim Start des Programmes ist, könnte es auch verursachen.
Sollte aber nicht, konnte ich jedenfalls nicht feststellen.
Hmm oder immer beim ersten Start nach der Installation, wenn man noch kein Savegame hat?
Konnte ich jetzt aber auch nicht reproduzieren.


Im Prinzip gibt es 2 Gründe, weshalb das auftreten kann, wenn etwas an der Optik oder an den Frametimes nicht stimmt. Oder ist es einfach nur extremes Pech, weil die Framerates so niedrig sind.

Tritt das auch auf, wenn ihr den Benchmark auf 720p Very High stellt, speichert, das Programm beendet, neu öffnet und dann einen run startet?

Krass, dass das porten zu UE5 soviel Arbeit ist, hätte gedacht Epic hätte da Interesse Tooling / Kompatibilität anzubieten.
Das muss nicht in jedem Projekt so viel Arbeit sein.
Gibt bestimmt sogar welche, da ist es eine 5 Minuten Angelegenheit.
Liegt auch daran, dass ich viele externe Abhängigkeiten habe, die nicht zur UE4 gehören und mit der UE5 so nicht mehr kompatibel sind.

Hab's aber auch zuletzt probiert, als die UE5 Beta gerade erst released wurde, könnte schon besser geworden sein und ab 2022 soll sie ja producution ready sein.
Langsam kommt in mir schon wieder die Lust hoch mich damit zu beschäftigen.^^

Edit: HAHAHA, verrückt, bei mir Passed der gerade problemlos auf allen Rechnern, selbst wenn ich das Fenster wild hin und her bewege, das Afterburner-Overlay einblende, DSR einschalte.
(VSync und Framelocks machen aber wirklich oft Probleme, das weiß ich.)

Selbst auf dem alten Drecksrechner mit der R9 290.
Hmm, eventuell habe ich gerade nicht den aktuellsten Geforce Treiber.
Habe von einigen auf PCGH (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/) gehört, dass eine Treiberneuinstallation geholfen haben soll, auch wenn ich dafür keine Erklärung habe.

Eine ganz verrückte Idee kommt mir noch.
Meine CPUs sind so konfiguriert, dass sie immer mit derselben Taktrate laufen, takten eure runter?
Vielleicht takten sie dann nicht schnell genug hoch, verursachen für einen kurzen Moment ein CPU-Limit, was wie ein Framelock wirkt und machen damit die Validierung kaputt.
Wenn ein Frame CPU-Limitiert ist und die anderen nicht, könnte das schon die Performance-Metrik der GPU invalidieren.
Hätte ich mit fixer Taktrate natürlich nie bemerkt, rechne aber auch nicht damit, dass das passiert. Doch wer weiß.
Ist jetzt aber wirklich eine abgehobene Idee.

Sweepi
2021-10-09, 10:15:49
Afterburner/Rivatuner Overlay habe ich nicht gesehen, war aber theoretisch an. Deathloop startet so nicht :ugly:
CPU läuft mit default Stromsparmassnahmen, muss also am Anfang hochtakten.
Wieläuft die Validierung? Nebenbei oder hinterher? Wenn dabei, kann der ne Option haben, das er signalisiert/abbricht wenn invalid? Dann wäre auch klar, obs direkt am Anfang passiert.

Geldmann3
2021-10-09, 10:54:47
Könnte schon genügen, wenn der Rivatuner nur im Hintergrund läuft, sollte aber nicht. Komischweise startet die UE5 z.b. auf meinem Rechner gar nicht, wenn ich den an habe, auf dem Rechner mit der RX 6900 XT aber schon.

Die Validierung schlägt meistens dann fehl, wenn die Performancemetrik einer Szene im Verhältnis zu einer anderen Szene nicht stimmt. Damals gab es einen Bug, der dafür sorgte, dass der Benchmark sich nicht wieder erholte, wenn sie beim Start fehlschlug. Den habe ich aber eigentlich mit Version 1.0 behoben. Jetzt läuft sie beim Start, im Menü und im Benchmark selbst. Der Benchmark kann sich also ,,davon erholen".

Überlege echt einen Indikator einzublenden, sobald die Validierung fehlschlägt, vllt. sogar mit einem Fehlercode, damit ich sagen kann, woran es liegt. Abbrechen würde ich ihn nicht, denn es gibt sicher Fälle, in denen man keine offiziellen, validen Ergebnisse braucht aber trotzdem Ergebnisse haben will. Die Validierung ist so empfindlich, dass es tatsächlich nicht viel bedeuten muss, wenn sie fehlschlägt. Irgendwas läuft dann jedoch nicht ganz 100%ig rund. Vielleicht ist das auf einem Rechner auch ganz gut, um das zu testen. Irgendwas nerved das Rendering oder die Frametimes, wenigstens so um 1%. Könnte auch passieren, wenn er auf einer sehr langsamen HDD liegt. Jedenfalls habe ich diesen Fall getestet, konnte dabei keine Probleme feststellen, doch vorstellbar wäre es. Wegen einem unerwarteten Nachladeruckler.

BeetleatWar1977
2021-10-09, 18:51:01
Krass, dass das porten zu UE5 soviel Arbeit ist, hätte gedacht Epic hätte da Interesse Tooling / Kompatibilität anzubieten.

720p Extreme failed bei mir leider auch:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76953&stc=1&d=1633741394
Ist die Score nicht auch viel zu niedrig?

Bei mir klappts.....

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76956&stc=1&d=1633798246

Sweepi
2021-10-09, 19:25:49
Meine GPU chillt per default bei 55% Powerlimit, daher ist der Score niedriger.

Geldmann3
2021-10-09, 19:31:53
Als Referenz, meine RTX 3090 bei diesen Settings.

https://i.ibb.co/X8n8X4X/ART-Mark-Result-Absolute-Overkill-100-2021-10-09-19-29-17.png (https://art-mark.de/#/6161d154b9bfd200178d41af)

Uh, das ist sogar mein Rekord bisher, eventuell wurde Ray-Tracing in den letzten Monaten ein wenig über die Treiber optimiert.

@Sweepi
Wo hast Du das Powerlimit eingestellt?

Der HeinZ
2021-10-20, 05:54:20
Kann man eigentlich irgendwo die Einstellungen resetten? Ich hab da mal irgendwann was eingestellt und jetzt saugt der sich beim Start die 11 GB voll und kommt garnicht mehr bis zum Startbildschirm! Auch eine de- und Neuinstallation hat nicht geholfen! ;D

Geldmann3
2021-10-20, 08:54:37
Der Benchmark legt sich eine .sav Datei unter

,,C:\Users\[Nutzername]\AppData\Local\ART_Mark\Saved\SaveGames\Settings"

an. Diese kannst Du löschen, wonach der Benchmark beim Neustart komplett zurückgesetzt sein sollte und Du ihn wieder öffnen können solltest.

Sweepi
2021-10-20, 11:35:48
Powerlimit ist per Afterburner eingestellt.

Failed auch mit 100% und all stock clocks:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77056&stc=1&d=1634722455

Es braucht übrigens noch einen "Save Screenshot for 3dcenter" Button, der maximal 500 KiB grosse Bilder auswirft... ;D

Sweepi
2021-10-21, 01:44:44
Das Problem ist/war das Setting "Max Frame Rate" in den nVidia 3D Settings.

Geldmann3
2021-10-21, 01:48:29
Ahh, hab doch geahnt, dass es was mit den Frametimes zu tun hatte^^

Dennoch sollte ich bei Gelegenheit, wenn ich mal wieder ein paar Tage freihabe, mal eine Funktion einbauen, die Genaueres sagt, als, dass der Test fehlschlug. Wenigstens einen Debug-Code liefert oder ähnliches. Hätte auch nie gedacht, dass der Benchmark nach einem halben Jahr täglich noch einige Downloads kriegt. ;D Sollte mich dringend mal wieder einarbeiten.^^

Sweepi
2021-10-21, 01:58:25
Die einzig wahre Kategorie ab jetzt ist 6880x2880 Extreme Overkill + AA off:
https://art-mark.de/#/6170abf2b9bfd200178d41b2 ^^

Sweepi
2021-10-21, 02:02:57
...und Highscore: https://art-mark.de/#/

Geldmann3
2021-10-21, 02:04:52
Cinematisch, könnte man das nennen. :D

N0rG
2021-10-21, 21:51:46
...und Highscore: https://art-mark.de/#/

nope :D
https://i.imgur.com/bR19FpK.png

Sweepi
2021-10-21, 22:53:07
ist windowed schneller als fullscreen?

N0rG
2021-10-21, 23:18:04
Bei mir läuft das irgendwie immer im windowed mode, auch wenn ich fullscreen auswähle. Liegt vielleicht daran das ich einen 21:9 Monitor habe. Keine Ahnung ob das dadurch schneller läuft.
Kannst ja mal im windowed mode gegentesten :)

Ok Fullscreen geht doch, verändert aber nichts am score. Es gibt aber scheinbar Probleme wenn ich versuche vom "Farbensalat" Setting auf etwas normales umzustellen.
https://i.imgur.com/WIzVt8j.png
Edit: Ok war wohl nur zu viel GPU Takt. Wär vielleicht gut die Settings nicht sofort (beim verschieben des Balkens), sondern erst beim klick auf ein "apply" zu übernehmen. Dann würde man sofort merken wenn man was eingestellt hat, was die Hardware mit der Übertaktung nicht verträgt. :)

Geldmann3
2021-10-21, 23:39:39
Hast Du auch rechts neben der Auswahl auf Apply gedrückt?
Unter 32:9 habe ich es jedenfalls getestet, da geht der Benchmark in den Fullscreen. Dann würde ich es auch in 21:9 erwarten.

Farbensalat Setting?

Dieses DXGI_ERROR_DEVICE_REMOVED trat bei mir manchmal auf, wenn etwas anderes als der Benchmark gleichzeitig auf die GPU Beschleunigung zugreifen wollte oder ich die GPU überfordert habe.
Scheint mir leider etwas zu sein, auf das ich als Entwickler nicht wirklich einen Einfluss habe.
Ein Unreal Engine Problem.

Zu Beginn konnte ich die frische Unreal Engine 5 sogar nicht starten, weil ich immer das bekam.

N0rG
2021-10-22, 01:25:10
Farbensalat Setting?

Dieses DXGI_ERROR_DEVICE_REMOVED trat bei mir manchmal auf, wenn etwas anderes als der Benchmark gleichzeitig auf die GPU Beschleunigung zugreifen wollte oder ich die GPU überfordert habe.
Scheint mir leider etwas zu sein, auf das ich als Entwickler nicht wirklich einen Einfluss habe.
Ein Unreal Engine Problem.

Zu Beginn konnte ich die frische Unreal Engine 5 sogar nicht starten, weil ich immer das bekam.

Fullscreen geht wenn man auf apply drückt. War ich nur zu doof für :D

TAAU 1% + 10% FOV = Farbensalat (works as intended :D)

Die error Message kam bei mir als ich den Balken für TAAU mit 2235MHz GPU clock verschoben hab. Ich vermute, dass die GPU das bei dem Takt bei niedrigen Werten noch verträgt, aber bei höheren Werten dann crashed. Mit weniger GPU clock konnte ich den Balken dann nach belieben einstellen. Das wird scheinbar "on the fly" übernommen was man da einstellt, deswegen ist es wohl gecrashed bei hohem GPU clock. Könnte man wie gesagt mit einem apply Button abfangen, dann würde man sofort merken woran es liegt.

Wär vielleicht auch ganz gut, wenn das Preset sofort auf "Custom" geändert wird, sobald man die Settings verändert und nicht nur die Werte geändert werden wenn man das Preset auswählt. TAAU kann man nach belieben verstellen auf "Absolute Overkill". Wenn ich allerdings versuche auf diese Weise zu cheaten, kommt immer "GPU validation failed". :uidea:

https://i.imgur.com/mHRFtGU.png

Geldmann3
2021-10-22, 02:10:16
Wär vielleicht auch ganz gut, wenn das Preset sofort auf "Custom" geändert wird, sobald man die Settings verändert und nicht nur die Werte geändert werden wenn man das Preset auswählt. TAAU kann man nach belieben verstellen auf "Absolute Overkill". Wenn ich allerdings versuche auf diese Weise zu cheaten, kommt immer "GPU validation failed".

Wollte gerade schreiben, dass ich das sich nicht ändernde, globale Setting fixe, doch kam beim Experimentieren wieder darauf, dass das funktioniert wie damals intended.
Die Validierung sollte natürlich nicht fehlschlagen.

Genauso wie man ,,Absolute Overkill" mit unterschiedlichen Auflösungen ausführen können sollte, sollte man es auch mit unterschiedlichen Upsamping-Verfahren ausführen können, was dann am Ende seine eigene Rangliste bekommt. Absolute Overkill, 1% TAAU, bei 6880x2880 bildet dann quasi seine eigene Kategorie mit Rangliste ab. Es wäre so gesehen also eigentlich kein cheaten, sondern sollte ,,eine valide, eigene Rangliste" darstellen. Ein anderes Upsampling ist quasi wie eine andere Auflösung.

Leider wird das im Leaderboard noch nicht ganz so wiedergegeben.
Der Freund von mir, der sich um die ,,Serverseite" gekümmert hat, hat damals studiert, ist gerade umgezogen und arbeitet nun Vollzeit. Ich hatte leider auch noch nicht die Zeit mich auf dieser Seite richtig einzuarbeiten, neben der Arbeit. Eventuell kommt er ja auch in nächster Zeit wieder dazu.

Doch aufgegeben haben wir noch nicht, ich plane noch Updates, wahrscheinlich geht es in den nächsten Tagen/Monaten weiter. :D
Irgendwie steigen nämlich auch die täglichen Downloadzahlen langsam wieder an und es ist sau schade, dass ich in letzter Zeit so selten dazu kam, den Benchmark weiterzuentwickeln.

Allein der Benchmark ist schon viel umfangreicher, als ich ihn geplant hatte, was die Komplexität hinter den Kulissen angeht. Hatte erst nicht daran geglaubt, dass ich sowas überhaupt bauen kann. Doch habe dann eben jeden Tag ein wenig mehr gelernt, was die UE angeht.

Gibt noch einige Bugs zu fixen, das Leaderboard ist noch sehr ausbaufähig, Bibliotheken zu updaten, Features hinzuzufügen und eventuell irgendwann auch das Update auf die UE5.

Beim Slider für das TAAU Setting hatte ich mal mit einem ,,Apply Button" experimentiert, glaube ich. Doch der Slider wurde dann zu kurz, sodass man den Slider nicht mehr prozentgenau kalibrieren konnte. Fand eine der Besonderheiten des Benchmarks ist, dass ich dem User erlaube so viel und feinkörnig einzustellen. Daher wollte ich auch nicht auf die prozentgenaue Kalibrierung verzichten. Das wünsche ich mir in Games auch so. Die größte Einschränkung habe ich wahrscheinlich bei den maximal 2 Samples per Pixeln gemacht. Das hätte zu zu vielen Abstürzen geführt, wenn die Nutzer damit gespielt hätten. ;D Passiert schließlich jetzt schon ab und an, besonders, wenn man etwas verrückte Dinge tut.^^

Geldmann3
2022-04-10, 02:22:44
Yaaay, ich habe mit meiner RTX 3080 Ti Platz 1 im Art-Mark einnehmen können.
Wurden hier etwa die Treiber optimiert?

https://i.postimg.cc/W4QZC7xL/ART-Mark-Result-Very-High-100-2022-04-10-02-17-37.png (https://art-mark.de/#/625220fa8b5cbe00162fb246)

Habe nicht viel getan, außer +125Mhz to the core.

Sweepi
2022-05-17, 16:49:24
Anscheinend ja, Anon hat mit einer 3090 nochmal 5% daraufgelegt.
Bin gespannt auf die Performance von Ada.

Radeonfreak
2022-10-16, 10:57:06
So?

https://abload.de/img/art-mark_result_-_cusb4d01.png

Raff
2022-10-16, 10:59:09
Haha, ich hatte mich gefragt, wann noch jemand diese Idee hat. Mit maximaler Qualität müsste Ada richtig austeilen (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/). @Perschistence: Neue Version incoming? :biggrin:

MfG
Raff

Geldmann3
2022-10-16, 14:17:19
War auch super gespannt, ob der Benchmark noch mit der neuen Generation läuft und wenn ja, wie die Ergebnisse sind. Weil man hier ja zu 99% nur Raytracing Last anliegen hat.

Leider nimmt mich mein Day-Job als Entwickler zurzeit sehr stark in Anspruch, sodass ich mich um solche Dinge nicht so kümmern kann, wie ich es mir wünschen würde. Dann noch ein paar Neben-Webprojekte, in denen ich tatsächlich über tausend Nutzer betreue.^^

Daher wird es wenigstens in den nächsten Wochen bedauerlicherweise kein Update geben können.

Im Schnitt hab' ich 131% mehr Performance gemessen. Nehme an, das ist bei Raytracing-Last auch in normalen Games das theoretische Maximum, was man zwischen einer RTX 3090 und einer RTX 4090 erwarten kann.

Troyan
2022-10-16, 14:40:12
Ja, 2,3x scheint die Grenze ohne SER zu sein. Im DXR test sind es die 2,3x und der ist auf pure Raytracing-leistung optimiert.

misterh
2022-10-20, 19:51:31
ARC A770 LE 16GB STANDARD (190w PL)

https://abload.de/img/art-mark_result_-_verv9e8y.png