PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Museum of the Microstar (DX11 GPU Partikel,Tesselation)


dildo4u
2013-02-02, 19:18:48
Download 380mb
https://dl.dropbox.com/u/11170103/RUST%20Projects/SAF/MuseumoftheMicrostar.rar

https://mega.co.nz/#!YdNQUQZJ!Qxlf-jXCLNUB1zhqpI5GAEqyAjA1nxmJIA_oDMW5NMc

Video
https://vimeo.com/57648939

Quelle
http://forum.unity3d.com/threads/166715-Museum-of-the-Microstar-A-DX11-contest-entry-by-RUST-LTD-and-co

Zu erst flythrough auswählen,habs dann mit Fraps gebencht einfach sofort gestartet und gestoppt wenn die Erklärung zu Ende ist.

AMDX6 3.2ghz GTX 460@800mhz Core /1800 Speicher 313.96


1680*1050
Frames, Time (ms), Min, Max, Avg
11727, 302970, 26, 50, 38.707

boxleitnerb
2013-02-02, 19:33:32
Also du hast angefangen, wenn das Bild kommt nach dem Ladescreen?

dildo4u
2013-02-02, 19:34:03
Ja.

boxleitnerb
2013-02-02, 19:49:22
3930K@stock, HTT aus
GTX580 3GB, FW 313.93, 16xHQ-AF

1920*1080
Frames, Time (ms), Min, Max, Avg
17997, 302000, 50, , 68, 59.593

1680*1050
Frames, Time (ms), Min, Max, Avg
19850, 305000, 54, 74, 65.082

Hab auf 302 Sekunden gestellt, hat am Ende 2-3 Sekunden abgeschnitten, aber das beeinflusst das Ergebnis ja kaum. Wenn man auf 305 Sekunden stellt, sollte es passen, dann muss man nicht aufpassen, wann es enden soll.

aufkrawall
2013-02-02, 20:23:49
Flackert es bei dir mit SLI nicht?

boxleitnerb
2013-02-02, 20:27:35
Doch, deshalb hab ich noch keine Ergebnisse gepostet damit.

aufkrawall
2013-02-02, 20:46:19
Ach so, dachte weil du SLI geschrieben hattest.

boxleitnerb
2013-02-02, 20:53:38
Ups. Gefixt.

Sonyfreak
2013-02-03, 08:58:36
Notebook Fujitsu Lifebook AH532
i5-3210M mit 2,5Ghz
Geforce GT 640M LE 384 Shader auf 570/900Mhz, HQ (Geforce 310.44) Intel HD Graphics 4000
1366x768

Frames Time (ms) Min Max Avg
2594 305000 5 13 8505

Im Treiber aktiviertes AA oder AF ändert nichts am Ergebnis.

mfg.

Sonyfreak

Spasstiger
2013-02-03, 10:14:05
@Sonyfreak: AA und AF scheinen in der Demo schon standardmäßig aktiv zu sein, sieht zumindest so aus. Wobei das AA imo auch FXAA oder eine andere Postprocessing-AA-Variante sein könnte.
Sofern dein Ergebniss korrekt ist, sollte sich Nvidia mal mit den Machern von Unity bezüglich der Shaderprogrammierung zusammensetzen, denn die GT 640M scheint im Vergleich zu meiner Radeon HD 6630M Einiges liegen zu lassen:

System
Intel Core i3-2310M (2C/4T, 2,1 GHz)
Radeon HD 6630M (default, 480 SP @ 485 MHz, 1 GiB DDR3 @ 800 MHz)
Windows 7 Professional x64
Catalyst 12.11 beta4 @ default, Enduro aktiv (Dynamic Switching im Verbund mit der Intel HD 3000)
Benchmarks ohne Enduro siehe zwei Postings weiter unten.

Ergebnisse
1366x768:
2013-02-03 09:15:06 - MicroStar
Frames: 5056 - Time: 305000ms - Avg: 16.577 - Min: 6 - Max: 27
Fast doppelt soviel avg. wie die GeForce GT 640M, obwohl sich die HD 6630M in einem normalen Spieleparcours eine Leistungsklasse drunter ansiedelt - ca. auf Höhe der GT 620M bzw. vor Rebranding GT 525M bis GT 540M.

1680x1050:
2013-02-03 09:33:22 - MicroStar
Frames: 3576 - Time: 305000ms - Avg: 11.725 - Min: 5 - Max: 19

1920x1080
2013-02-03 09:23:17 - MicroStar
Frames: 3216 - Time: 305000ms - Avg: 10.544 - Min: 1 - Max: 21

Die Framerate ist allerdings ziemlich sprunghaft und im First-Person-Modus ist die Bedienung schon quälend, was bei 16 fps durchschnittlich nicht der Fall sein sollte. Ein weiterer Lauf in 1366x768 mit Frametimeauswertung:

http://www.abload.de/img/museumofthemicrostar8yur2.png

Mein Algorithmus bewertet mir die 16 fps avg. nur mit einer gefühlten Framerate von 5 fps. Und das deckt sich imo auch gut mit dem subjektiven Eindruck. /EDIT2: Die hakelige Performance kommt von Enduro. Ohne läufts deutlich besser, siehe zwei Postings weiter unten.

/EDIT: VSync war aktiv, werde nochmal ohne VSync testen.

Raff
2013-02-03, 11:55:19
Schnieke Partikel. :) Die scheinen Tahiti gut zu schmecken.

http://666kb.com/i/cb8w0574z25j31i20.jpg

1.920x1.080 + 16:1 HQ-AF per Treiber:
Frames: 32869 - Time: 305000ms - Avg: 107.767 - Min: 85 - Max: 137

2.560x1.600 + 16:1 HQ-AF per Treiber:
Frames: 20583 - Time: 305000ms - Avg: 67.485 - Min: 54 - Max: 86

Phenom II X6 (Thuban) @ 258x14 = 3.612 MHz, NB @ 2,84 GHz, Radeon HD 7970/3G @ 1.200/3.600 MHz, 790FX, 2x 4.096 MiB DDR3 @ 860 MHz bei 9-9-9-24-1T, W7ndows x64 SP1, Catalyst 13.2 Beta 3 @ HQ

MfG,
Raff

Geldmann3
2013-02-03, 13:20:55
Bei mit mit meiner 6990 passiert bei der Demo was ganz komisches. Das fly throu läuft noch. Doch wenn ich dann aus dem Raum gehe und mir die Partikel ansehe, fängt das Bild erst an zu flackern und dann verliert der TV die Verbindung zur Grafikkarte. Ich habe dann erst wieder ein Bild, wenn ich einen anderen HDMI Port verwende??

Die Partikel sind bisher mit das Beste was ich je (ohne Physx) gesehen habe.

Man From Atlantis
2013-02-03, 13:38:18
Q9650@4.25GHz (8.5x500), ForceWare 310.64 Win 7 x64, 1920x1080
GTX4601GB @ 675/3600MHz
Frames, Time (ms), Min, Max, Avg
10455, 303266, 23, 46, 34.475


GTX4601GB @ 900/4400MHz
Frames, Time (ms), Min, Max, Avg
12667, 303251, 28, 56, 41.771

Nighthawk13
2013-02-03, 14:09:16
i5-750@3600, GTX670@1001, Win7 x64, Forceware 310.70, 1920x1080
Frames, Time (ms), Min, Max, Avg
22573, 305000, 62, 86, 74.010

Spasstiger
2013-02-03, 14:13:42
Kann man eigentlich noch irgendwie an den Grafikparametern drehen? Die Demo selbst bietet ja außer der Auflösungseinstellung, VSync und MotionBlur nicht viele Einflußmöglichkeiten. Ich denke mal, dass man vor allem über die Partikelzahl noch Einiges an Performance rausholen könnte. Der Kommandozeilen-Parameter -force-d3d9 (http://docs.unity3d.com/Documentation/Manual/CommandLineArguments.html) katapultiert zwar die fps nach oben, aber dann wird nix mehr von dem dargestellt, was die Demo ausmacht.
Wollte nur mal bei flüssigen Frameraten in der Demo rumlaufen.

Sonyfreak
2013-02-03, 15:21:15
@Sonyfreak: AA und AF scheinen in der Demo schon standardmäßig aktiv zu sein, sieht zumindest so aus. Wobei das AA imo auch FXAA oder eine andere Postprocessing-AA-Variante sein könnte.
Sofern dein Ergebniss korrekt ist, sollte sich Nvidia mal mit den Machern von Unity bezüglich der Shaderprogrammierung zusammensetzen, denn die GT 640M scheint im Vergleich zu meiner Radeon HD 6630M Einiges liegen zu lassen.Mir ist das Ergebnis schon vorher ein wenig niedrig vorgekommen, aber ich hab mir nichts weiter dabei gedacht. Jetzt habe ich einmal die Verwendung der Grafikkarte forciert und siehe da, offensichtlich hat Optimus nicht richtig umgeschaltet. Das ist das erste Mal, dass es damit Probleme gibt. Die Werte oben stammen also von der HD4000.

Also nochmal: Geforce GT 640M LE 384 Shader auf 570/900Mhz, HQ (Geforce 310.44)
Frames Time (ms) Min Max Avg
6241 305000 17 24 20,462


Ich denke, jetzt passen die Werte eher zur Leistungsfähigkeit der Karte. :smile:

mfg.

Sonyfreak

Spasstiger
2013-02-03, 15:25:44
Ich denke, jetzt passen die Werte eher zur Leistungsfähigkeit der Karte. :smile:
Ja, jetzt sieht das gut aus. Die Radeon HD 6630M profitiert bei den Partikelberechnungen zwar von ihrer relativ guten Rechenleistung, aber schneller als die GT 640M sollte sie trotzdem nicht sein.
Übrigens hab ich jetzt auch mal ohne Enduro getestet (das AMD-Gegenstück zu Optimus) und siehe da, es läuft nicht mehr so hakelig. Auch die min. fps sind deutlich nach oben gegangen.

System:
Intel Core i3-2310M (2C/4T, 2,1 GHz)
Radeon HD 6630M (default, 480 SP @ 485 MHz, 1 GiB DDR3 @ 800 MHz)
Windows 7 Professional x64
Catalyst 12.11 beta4 @ default, Enduro deaktiviert (KEIN Dynamic Switching)
VSync in der Demo deaktiviert

Ergebnisse:
1366x768
2013-02-03 15:14:13 - MicroStar
Frames: 5098 - Time: 305000ms - Avg: 16.715 - Min: 10 - Max: 23

http://www.abload.de/img/museumofthemicrostar_6uk9o.png

1680x1050
2013-02-03 15:41:25 - MicroStar
Frames: 3744 - Time: 305000ms - Avg: 12.275 - Min: 7 - Max: 18

1920x1080
2013-02-03 15:51:30 - MicroStar
Frames: 3392 - Time: 305000ms - Avg: 11.121 - Min: 5 - Max: 16

LSSJBroly
2013-02-03, 15:48:53
1.920 x 1.080
Frames, Time (ms), Min, Max, Avg
25224, 303850, 70, 95, 83.015

2.560 x 1.600
Frames, Time (ms), Min, Max, Avg
18682, 303989, 51, 72, 61.456

Intel Core i7-2600K @ 4.500 MHz, Geforce GTX 680/2GiB @ 1.176-1.241/3.420 MHz, ASRock Z68 Extreme3 Gen3, 4x 4.096 MiB DDR3 @ 800 MHz, Win7 x64 SP1, ForceWare 313.96

dildo4u
2013-02-03, 15:54:18
Ne HD 6970 wäre noch interessant ob die mit Kepler mithält,die Demo scheint mit der reinen Rechenleistung zu skalieren.

Spasstiger
2013-02-03, 16:07:20
Ne HD 6970 wäre noch interessant ob die mit Kepler mithält,die Demo scheint mit der reinen Rechenleistung zu skalieren.
Zwischen meiner Radeon HD 6630M und der Radeon HD 7970 von Raff ist es wirklich fast eine 1:1-Skalierung mit den Peak-GFlops. Die HD 6970 ohne OC müsste dann wohl so bei 60 fps avg. in FullHD liegen, vergleichbar mit der GTX 580. Bin mal gespannt, ob das Jemand mit Messwerten bestätigen kann.
Der Geometriedurchsatz mit Tessellation scheint in der Demo nicht so entscheidend zu sein, obwohl Tessellation mit dynamischem Displacement-Mapping zu den Kernfeatures der Demo gehört (die ganzen Objekte in den Schaukästen + die Höhlenwände).

LSSJBroly
2013-02-03, 16:09:43
Interessant ist das Verhältnis zwischen 1080p und 1600p.
In 1080p ist Raffs Karte 29,8% schneller als meine GTX 680, in 1600p aber nur noch 9,8%. Eigentlich sollte die Radeon nicht so stark einbrechen, bzw. schwächer als Kepler.

Spasstiger
2013-02-03, 16:13:50
Interessant ist das Verhältnis zwischen 1080p und 1600p.
In 1080p ist Raffs Karte 29,8% schneller als meine GTX 680, in 1600p aber nur noch 9,8%. Eigentlich sollte die Radeon nicht so stark einbrechen, bzw. schwächer als Kepler.
Das wollte ich auch eben noch erwähnen, verkehrte Welt. :D
/EDIT: Ich denke, es hängt damit zusammen, dass ein Großteil der Rechenzeit für die Berechnung der Partikelkoordinaten und nichts fürs Rendering der Pixel draufgeht. Dadurch verschieben sich die Lastverhältnisse in der GPU. Bei der Radeon HD 7970 ist durch die höhere Rechenleistung bei gleicher Framerate schneller als die GTX 680 mit den Partikelberechnungen fertig und kann dadurch anteilig mehr Zeit bei den Pixelberechnungen verbraten. Salopp gesagt.

misterh
2013-02-03, 16:36:37
naja...
http://www.abload.de/thumb/microstar2013-02-0316najdy.jpg (http://www.abload.de/image.php?img=microstar2013-02-0316najdy.jpg)

gedi
2013-02-03, 22:16:02
Notebook - 1920x1080 16xHQAF

2013-02-03 22:07:01 - MicroStar
Frames: 41804 - Time: 349738ms - Avg: 119.529 - Min: 90 - Max: 148

Oliver_M.D
2013-02-08, 20:35:35
Soo hoffe mal das ich alles richtig gemacht habe.
Lief auf 1080p, PC daten stehen unten in der signatur.
2013-02-08 20:25:36 - MicroStar
Frames: 11296 - Time: 306745ms - Avg: 36.825 - Min: 25 - Max: 49

dildo4u
2013-02-10, 01:28:04
AMDX6 3.2ghz GTX 460@800mhz Core /1800 Speicher 313.96

1680*1050
Frames, Time (ms), Min, Max, Avg
11727, 302970, 26, 50, 38.707



Gleiches System mit 660TI 1200 Boost/3300 Speicher

Frames, Time (ms), Min, Max, Avg
19394, 296979, 58, 74, 65.304