PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 3.5 - Day And Night


Spasstiger
2011-03-10, 18:08:14
Update: 3DCenter UE3.5 Benchmark (http://www.daywalker4536.de/files/3DCenter_UE3.5_Benchmark.rar) von daywalker4536 verfügbar.

Wie wärs, wenn wir mal die NightAndDayMap aus dem aktuellen Unreal Development Kit (UDK) benchen? Die Map ist seit dem Dezember-Release verfügbar. Im neuen März-Release ist auch ein DX11-Renderer verfügbar, den wir bei dieser Gelegenheit gleich mit ausprobieren können. Allerdings bietet die Map keine DX11-spezifisichen Optikfeatures, es ist auch alles mit DX9 möglich.

http://www.abload.de/img/u3_dnn_preview_01l71r.jpghttp://www.abload.de/img/u3_dnn_preview_02w7lf.jpg

http://www.abload.de/thumb/u3_dnn_06t74q.jpg (http://www.abload.de/image.php?img=u3_dnn_06t74q.jpg) http://www.abload.de/thumb/u3_dnn_05z7lr.jpg (http://www.abload.de/image.php?img=u3_dnn_05z7lr.jpg) http://www.abload.de/thumb/u3_dnn_0437ch.jpg (http://www.abload.de/image.php?img=u3_dnn_0437ch.jpg) http://www.abload.de/thumb/u3_dnn_03p7z1.jpg (http://www.abload.de/image.php?img=u3_dnn_03p7z1.jpg) http://www.abload.de/thumb/u3_dnn_0287om.jpg (http://www.abload.de/image.php?img=u3_dnn_0287om.jpg) http://www.abload.de/thumb/u3_dnn_01d7mq.jpg (http://www.abload.de/image.php?img=u3_dnn_01d7mq.jpg)

Download des 3DCenter UE3.5 Benchmark von daywalker4536

Download: 3DCenter UE3.5 Benchmark (http://www.daywalker4536.de/files/3DCenter_UE3.5_Benchmark.rar)

Der 3DCenter UE3.5 Benchmark enthält bereits eine Benchmark-Batch-Datei, mit der ein Benchmark ohne Frameskipping durchgeführt wird. Auf langsamen Systemen kann dies zu sehr langen Ausführungszeiten von mehr als 15 Minuten führen. Deshalb hier noch eine altenative Batch-Datei mit einem Benchmark, der Frameskipping erlaubt und damit bei jedem System auf 132 Sekunden Laufzeit beschränkt ist:

Download: Batch-Datei Benchmark2 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39108&stc=1&d=1299956804)

Installation und Konfiguration

Archiv herunterladen, Anwendung durch Ausführung der 3DCenter UE3.5 Benchmark.exe installieren, weitere Dateien gemäß readme.txt ins Installationsverzeichnis entpacken.
In der Datei Settings.ini die gewünschte Auflösung und das DirectX-Level einstellen. Die Standardeinstellung ist 720p @ DirectX 9, was den meisten Grafikkarten schon Kopfzerbrechen bereitet (Framerate unter 20 fps).
Der Benchmark wird mit der Ausführung der Datei benchmark.bat gestartet. Die Ergebnisse erscheinen anschließend im Fenster der Windows-Konsole. Außerdem werden die Ergebnisse in folgender Datei gespeichert:
[Pfad des 3DCenter UE3.5 Benchmark]\UDKGame\Logs\benchmark.log

Falls ihr ein schwaches System habt, wollt ihr vielleicht lieber die oben zum Download angebotene benchmark2.bat verwenden. Dazu das Archiv (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39108&stc=1&d=1299956804) herunterladen und die benchmark2.bat ins Hauptverzeichnis des 3DCenter UE3.5 Benchmark entpacken und ausführen. Nach dem Durchlauf bei aktivem Fenster der Windows-Konsole eine Taste drücken und die Ergebnisse erscheinen. Die Ergebnisse werden außerdem in folgender Datei gespeichert:
[Pfad des 3DCenter UE3.5 Benchmark]\UDKGame\Profiling\FPSChartStats\NightAndDayMap-FPS-PC.log

Gebt bitte beim Posten an, welche Benchmark-Version ihr verwendet habt (benchmark.bat oder benchmark2.bat). Die Ergebnisse sollten prinzipiell vergleichbar sein, jedoch liefert benchmark.bat ein genaueres, konstanteres Ergebniss.

Alternative Vorgehensweise bei Verwendung des UDK



UDK runterladen und installieren:

http://www.abload.de/img/udk1u748.jpg (http://www.udk.com/download)
Download: March 2011 UDK Beta (http://www.udk.com/download)

Gewünschte Config (über Spoiler) in folgendes Verzeichnis entpacken:
[UDK-Pfad]\UDKGame\Config

Config-Download:
- 720p, noAA, DX9 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39080&stc=1&d=1299776771)
- 720p, noAA, DX11 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39081&stc=1&d=1299776771)
- 720p, 4xMSAA, DX9 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39082&stc=1&d=1299777473)
- 720p, 4xMSAA, DX11 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39083&stc=1&d=1299777473)
- 1080p, noAA, DX9 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39087&stc=1&d=1299778500)
- 1080p, noAA, DX11 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39088&stc=1&d=1299778500)
- 1080p, 4xMSAA, DX9 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39085&stc=1&d=1299778500)
- 1080p, 4xMSAA, DX11 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39086&stc=1&d=1299778500)
In dieser ini sind bereits der Vollbildmodus und der MaxQualityMode aktiv (wie im 3DCenter UE3.5 Benchmark). /Update: Bei Prä-DX11-Karten fällt die Engine auf DX9 zurück, wenn man DX11 eingestellt hat.

---

Es gibt folgende zwei Möglichkeiten, den Benchmark bei Verwendung des UDK einzurichten:

Variante 1: Unreal Frontend

Startet das UDK Frontend aus folgendem Verzeichnis:
[UDK-Pfad]\Binaries\UnrealFrontend.exe
Dort unter Profiles das Profil "DM-Deck" mit dem Button "Clone" duplizieren und das Duplikat umbennen in "NightAndDay-Benchmark". Jetzt bei "Maps to Cook" die Map "NightAndDayMap.udk" hinzufügen und "DM-Deck.udk" entfernen.
Anschließend auf der rechten Seite ein Häkchen bei "Capture FPS ChartInfo" setzen (veranlasst Aufzeichnung der fps-Statistik) und darüber unter "Launch Options" Folgendes eintragen:
-unattended -nomoviestartup -seconds=132
Schlussendlich noch das Häkchen "Override Default" bei "Launch Map" setzen. Der Eintrag bei "Target Directory" ist egal. Wenn ihr Alles richtig gemacht habt, sehen die Eintragungen im Frontend-Fenster so aus:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39079&stc=1&d=1299776525

Variante 2: Verknüpfung mit Kommandozeilenparameter

Erstellt eine Verknüpfung der folgenden Datei
[UDK-Pfad]\Binaries\Win32\UDK.exe
Geht in die Eigenschaften der Verknüpfung und hängt dort folgende Parameter an:
-unattended -nomoviestartup -seconds=132 -NoVSync -CaptureFPSChartInfo

---

Anschließend startet ihr den Benchmark wie folgt.
Variante 1 im vorigen Schritt: Mit einem Klick auf dem "Start"-Button links oben im UDK Frontend den Benchmark starten.
Variante 2 im vorigen Schritt: Verknüpfung ausführen.

Die Demo beendet sich nach erfolgtem Durchlauf von selbst. Die Ergebnisse findet ihr im Anschluss hier:
[UDK-Pfad]\UDKGame\Profiling\FPSChartStats\NightAndDayMap-FPS-PC.html
In der obersten Zeile findet ihr das letzte Ergebniss, hier im Forum am Besten nur die avg. fps und vielleicht den Eintrag bei "GPU Bound By Percent" posten. Letzteres ist ganz interessant zu sehen, wie sehr GPU-limitiert der Bench bei Euch ausfällt.


Anhänge

Spasstiger
2011-03-10, 19:03:41
Meine Radeon HD 4850 512 MiB wird derbe geknüppelt. :freak:

System:
Intel Core 2 Duo E4300 @ 3,0 GHz
6 GiB DDR2-RAM
Radeon HD 4850 512 MiB @ default
Windows 7 64 Bit

Ergebnisse mit UDK und Unreal Frontend:
720p, noAA, DX9, 16:1 AF: 9,15 fps (92,28% GPU bound)
720p, noAA, DX11, 16:1 AF: 9,02 fps (93.84% GPU bound) Fallback auf DX9
1080p, noAA, DX9, 16:1 AF: 4,96 fps (94,96% GPU bound)
1080p, noAA, DX11, 16:1 AF: 4,99 fps (94,99% GPU bound) Fallback auf DX9

Ergebnisse mit 3DCenter UE3.5 Benchmark und benchmark2.bat:
320x240, noAA, DX9, 16:1 AF: 14,56 fps (88.59% GPU bound)
720p, noAA, DX9, 16:1 AF: 9,21 fps (94.12% GPU bound)
1080p, noAA, DX9, 16:1 AF: 5,46 fps (96.12% GPU bound)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39110&stc=1&d=1299963840

Quelle (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8618068&postcount=85)

Raff
2011-03-10, 19:46:50
Vielleicht backt euch auch Jemand eine Version des UDK-Games raus, die ausschließlich die Night-and-Day-Map enthält (0,4 GiB statt 1,4 GiB Dateigröße). Mir dauert das Hochladen zu lange.

Och büdde. :biggrin: Der Download dauert ewig. Und dann schimmelt das Paket nur herum. ;(

MfG,
Raff

Spasstiger
2011-03-10, 19:50:32
Wenn man sich die Mühe mit dem Backen macht, am Besten gleich ein Bench-Tool reinskripten. Ich hab leider keinen Plan vom UE-Skripting.
Meine Anleitung bezieht sich voll und ganz auf das UDK, da stiftet eine primitiv gebackene Version nur Verwirrung.
Außerdem hab ich Bedenken wegen Urheberrechtsansprüchen seitens Epic. Nachher flattert mir noch eine Abmahnung ins Haus.

1,4 GiB sind doch in der heutigen Zeit kein Hindernis mehr. Und das UDK hat noch mehr Demomaps, unter anderem Deck17 wie oben zu sehen. UT3 light DX11 für gratis sozusagen. ;) Und iPhone/iPad-Nutzer können die EpicCitadel-Demo auf ihren Geräten bewundern, läuft aber auch am PC .

Blaire
2011-03-10, 20:39:20
Nach der Anleitung von dir, die ich genau befolgt habe, startet UDK nicht mehr.

Folgende Meldung:
[Mrz 10, 8:35 ] COMMANDLET 'UDK.exe CookPackages -platform=PC NightAndDayMap.udk -multilanguagecook=INT' FAILED

[Skipping Launch]

[Skipping Package Game]

[Mrz 10, 8:35 ] PIPELINE FAILED TO COMPLETE.

daywalker4536
2011-03-10, 20:45:26
ich bau euch was wenn ihr wollt setzte mich dran

Spasstiger
2011-03-10, 20:46:06
Probiers mal im Admin-Mode.
Mein Log sieht so aus:
Unreal Frontend 2 started 10.03.2011 20:44:16...

[COMMANDLET 'UDK.exe make' STARTED IN ''] Mrz 10, 8:44

Init: Version: 7977
Init: Epic Internal: 0
Init: Compiled (32-bit): Feb 28 2011 19:23:08
Init: Command line:
Init: Base directory: E:\Spiele\UDK3\Binaries\Win32\
Init: Character set: Unicode
Log: Executing Class UnrealEd.MakeCommandlet
No scripts need recompiling.

Success - 0 error(s), 0 warning(s)
Execution of commandlet took: 0.27 seconds
[Mrz 10, 8:44 ] COMMANDLET 'UDK.exe make' SUCCEEDED

[COMMANDLET 'UDK.exe CookPackages -platform=PC NightAndDayMap.udk -multilanguagecook=INT' STARTED IN ''] Mrz 10, 8:44

Init: Version: 7977
Init: Epic Internal: 0
Init: Compiled (32-bit): Feb 28 2011 19:23:08
Init: Command line: -platform=PC NightAndDayMap.udk -multilanguagecook=INT
Init: Base directory: E:\Spiele\UDK3\Binaries\Win32\
Init: Character set: Unicode
Log: Executing Class UnrealEd.CookPackagesCommandlet
Cooking with SEPARATE Lighting TextureFileCache...
Cooking with SEPARATE Character TextureFileCache...

GeneratePersistentMapList> Clearing existing lists
There are 1 levels to process
Adding level ..\..\UDKGame\Content\Maps\NightAndDayMap.udk for cooking...
Adding level ..\..\UDKGame\Content\Maps\UDKFrontEndMap.udk for cooking...
Adding package ..\..\UDKGame\Content\GFx\UDKFonts.upk for cooking...
Adding level ..\..\UDKGame\Content\Maps\EnvyEntry.udk for cooking...
Adding package ..\..\UDKGame\Content\GFx\UDKFrontEnd.upk for cooking...
Materials will be cleaned up...
StaticMesh materials will be cleaned up...
StaticMesh CleanUp: Adding Class : Engine.ActorFactory
StaticMesh CleanUp: Adding Class : Engine.SequenceObject
*** Ignoring mutithreaded, less than 2 jobs.
Loading startup packages:
EngineDebugMaterials
EngineFonts
EngineMaterials
EngineSounds
FX_HitEffects
UDKFonts
SoundClassesAndModes
UI_Fonts
UI_Fonts_Final
Cooking [Seekfree Standalone] UDKFrontEnd_SF from UDKFrontEnd

Success - 0 error(s), 0 warning(s)
Execution of commandlet took: 4.17 seconds
[Mrz 10, 8:44 ] COMMANDLET 'UDK.exe CookPackages -platform=PC NightAndDayMap.udk -multilanguagecook=INT' SUCCEEDED

[Skipping Package Game]

[Mrz 10, 8:44 ] ALL PIPELINE STEPS COMPLETED SUCCESSFULLY.

ich bau euch was wenn ihr wollt setzte mich dran
Mit einer gebauten Version funktioniert halt der Benchmark nicht mehr. Ich habs nicht hinbekommen, den eingebauten Benchmark per Commandline in einer Verknüpfung zu starten, bekomme es nur per Unreal Frontend aus dem UDK hin.

/EDIT: Probiert erstmal die Config-Dateien ohne Antialiasing, bei mir startet es mit Antialiasing auch nicht.

Schlammsau
2011-03-10, 20:46:37
Bei mir lässt sichs nicht starten.
Das gleiche wie bei Blaire!

HD6970 und W7ndows x64 SP1
http://www.abload.de/thumb/1n86s.jpg (http://www.abload.de/image.php?img=1n86s.jpg)

komplette Log:
Unreal Frontend 2 started 10.03.2011 20:55:21...

[COMMANDLET 'UDK.exe make' STARTED IN ''] Mrz 10, 8:55

Init: Version: 7977
Init: Epic Internal: 0
Init: Compiled (32-bit): Feb 28 2011 19:23:08
Init: Command line:
Init: Base directory: C:\UDK\UDK-2011-03\Binaries\Win32\
Init: Character set: Unicode
Log: Executing Class UnrealEd.MakeCommandlet
No scripts need recompiling.

Success - 0 error(s), 0 warning(s)
Execution of commandlet took: 0.13 seconds
[Mrz 10, 8:55 ] COMMANDLET 'UDK.exe make' SUCCEEDED

[COMMANDLET 'UDK.exe CookPackages -platform=PC NightAndDayMap.udk -multilanguagecook=INT' STARTED IN ''] Mrz 10, 8:55

Init: Version: 7977
Init: Epic Internal: 0
Init: Compiled (32-bit): Feb 28 2011 19:23:08
Init: Command line: -platform=PC NightAndDayMap.udk -multilanguagecook=INT
Init: Base directory: C:\UDK\UDK-2011-03\Binaries\Win32\
Init: Character set: Unicode
Log: Executing Class UnrealEd.CookPackagesCommandlet
Cooking with SEPARATE Lighting TextureFileCache...
Cooking with SEPARATE Character TextureFileCache...
Ignoring multithreaded flag because shaders are out of date...
PCD didn't exist or was out of date '..\..\UDKGame\CookedPC\GlobalPersistentCookerData.upk'.
Material shader hashes have changed, forcing a recook of all packages.
Deleting: ..\..\UDKGame\CookedPC\CharTextures.tfc
Deleting: ..\..\UDKGame\CookedPC\Lighting.tfc
Deleting: ..\..\UDKGame\CookedPC\Textures.tfc

GeneratePersistentMapList> Clearing existing lists
There are 1 levels to process
Adding level ..\..\UDKGame\Content\Maps\NightAndDayMap.udk for cooking...
Adding level ..\..\UDKGame\Content\Maps\UDKFrontEndMap.udk for cooking...
Adding package ..\..\UDKGame\Content\GFx\UDKFonts.upk for cooking...
Adding level ..\..\UDKGame\Content\Maps\EnvyEntry.udk for cooking...
Adding package ..\..\UDKGame\Content\GFx\UDKFrontEnd.upk for cooking...
Warning, 10 Shader compiler errors compiling Global for platform PC-D3D-SM3:
Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(57,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(58,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(59,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(60,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(61,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(62,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(63,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(64,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionCommon.usf(65,24): Shader FOnePassPointShadowProjectionPixelShader, VF None: warning X3206: 'CalculateOcclusion': implicit truncation of vector type

Warning, ..\..\Engine\Shaders\ShadowProjectionPixelShader.usf(): Shader FOnePassPointShadowProjectionPixelShader, VF None: error X3501: 'MainOnePassPointLightPS': entrypoint not found

[Mrz 10, 8:55 ] COMMANDLET 'UDK.exe CookPackages -platform=PC NightAndDayMap.udk -multilanguagecook=INT' FAILED

[Skipping Launch]

[Skipping Package Game]

[Mrz 10, 8:55 ] PIPELINE FAILED TO COMPLETE.

daywalker4536
2011-03-10, 20:52:09
Probiers mal im Admin-Mode.
Mein Log sieht so aus:



Mit einer gebauten Version funktioniert halt der Benchmark nicht mehr. Ich habs nicht hinbekommen, den eingebauten Benchmark per Commandline in einer Verknüpfung zu starten, bekomme es nur per Unreal Frontend aus dem UDK hin.

/EDIT: Probiert erstmal die Config-Dateien ohne Antialiasing, bei mir startet es mit Antialiasing auch nicht.

Ich schau mal ^^. EIne spezielle 3dcenter version <:).

Spasstiger
2011-03-10, 21:07:28
Probiert mal Folgendes
1. UDKEngine.ini löschen
2. UDK Games aus Start -> Programme -> ... starten und dort per Ingame-Menü die Map NightAndDayMap.udk laden. Klappt das? Wenn nicht, evtl. UDK nochmal neu installieren (Adminrechte beachten) und nochmal das UDK Game testen.
3. Wenn erfolgreich, Benchmark per Unreal Frontend nach obiger Anleitung starten, ohne neue UDKEngine.ini
4. Wenn erfolgreich, folgende Einträge in UDKEngine.ini anpassen:
bUseMaxQualityMode=True
Fullscreen=True
AllowD3D11=True
MaxMultiSamples=1
bAllowD3D9MSAA=True
ResX=1280
ResY=720
Die fett markierten Einstellungen könnt ihr natürlich euren Bedürfnissen anpassen.

Blaire
2011-03-10, 21:07:31
/EDIT: Probiert erstmal die Config-Dateien ohne Antialiasing, bei mir startet es mit Antialiasing auch nicht.

Das funkt auch nicht.

Auch der andere Tip und Config selber anpassen klappt nicht.

Spasstiger
2011-03-10, 21:12:29
Alles brav mit Adminrechten gestartet?
Geht die Map bei euch überhaupt nicht, auch nicht per Editor oder UDK Game?

Wenn ihr das Spiel so starten könnt, dann könnte man den Benchmark per Kommandozeile veranlassen ("Capture FPS Chart Info"). Leider finde ich den entsprechenden Befehl nicht in der Übersicht beim Unreal Developer Network: http://udn.epicgames.com/Three/CommandLineArguments.html.
"-CaptureFPSChartInfo=1" wie bei Unreal Tournament 3 funktioniert bei mir nicht und wird im UDN auch nicht aufgeführt. Das ist wohl UT3-spezifisch. Allerdings muss es so einen Befehl fürs UDK geben, da man ja im Unreal Frontend ein Häkchen bei der entsprechenden Option setzen kann.

Notfalls einfach per Fraps benchen und als Dauer 132 Sekunden einstellen. Gebencht wird, sobald der Bildschirm nach dem Laden nicht mehr schwarz ist. Die interne Benchfunktion der UE3 hat halt noch ein paar weitere interessante Statistiken wie z.B. die mittlere GPU-Auslastung.

Blaire
2011-03-10, 21:14:38
Wenn ich das UDK normal starte funktioniert die Map problemlos. Keine Ahnung dann liegts sicher am Frontend. Adminrechte hat keine Auswirkungen.

Raff
2011-03-10, 21:18:38
Bei mir gates, es handelt sich also nicht um ein generelles Problem. Optisch eine nette Geschichte, aber es zieht arg Leistung.

720p, kein AA, DX9, 16:1 AF: 23,98 fps (41,39 % GPU bound)

Phenom II X6 (Thuban) @ 250x12 = 3.000 MHz, Radeon HD 5870/1G @ 1.050/2.800 MHz, NB/HT @ 2.500/2.250 MHz, 2x 2.048 MiB DDR3 @ 833 MHz bei 8-8-7-15-2T, 123 MHz PCIe-Takt, Catalyst 8.84.3, "Quality", W7ndows x64

Mehr folgt.

MfG,
Raff

Spasstiger
2011-03-10, 21:22:23
Nur 41% GPU bound? Wie sieht es aus, wenn du die CPU niedriger oder höher taktest? Eigentlich sollten die fps hier fast gänzlich GPU-limitiert sein.

Raff
2011-03-10, 21:28:50
Reproduzierbar im 40er-Bereich. An der CPU mag ich jetzt nicht fummeln, allerdings gilt:

– die CPU-Bound-Zahl steigt bei mehr GPU-Takt
– die Fps steigen mit mehr GPU-Takt dennoch

MfG,
Raff

san.salvador
2011-03-10, 21:31:32
Reproduzierbar im 40er-Bereich. An der CPU mag ich jetzt nicht fummeln, allerdings gilt:

– die CPU-Bound-Zahl steigt bei mehr GPU-Takt
– die Fps steigen mit mehr GPU-Takt dennoch

MfG,
Raff
Lass mal den MSI Arschbrenner mitlaufen. Da kannst dir im OSD auch die GPU-Auslasting anzeig0rn lassen.

Raff
2011-03-10, 21:39:14
/EDIT: Probiert erstmal die Config-Dateien ohne Antialiasing, bei mir startet es mit Antialiasing auch nicht.

Daran liegt's! Die höheren Configs gehen bei mir auch nicht.

MaxMultiSamples=1

Damit läuft's.

MfG,
Raff

Blaire
2011-03-10, 21:47:19
Daran liegt's! Die höheren Configs gehen bei mir auch nicht.

MaxMultiSamples=1

Damit läuft's.


Auch nicht...:( Das ist wie verhext.

Raff
2011-03-10, 21:52:02
DX11 ist auch kaputt. Nimm mal Spasstigers erste Config und änder da nur die Auflösung.

Mehr:

1.280x720, kein AA, DX9, AF via Cfg: 23,98 fps (41,39 % GPU bound)
1.920x1.200, kein AA, DX9, AF via Cfg: 16,97 fps (93,89 % GPU bound)
2.560x1.600, kein AA, DX9, 16:1 AF via Cfg: 11,79 fps (96,71 % GPU bound)

Phenom II X6 (Thuban) @ 250x12 = 3.000 MHz, Radeon HD 5870/1G @ 1.050/2.800 MHz, NB/HT @ 2.500/2.250 MHz, 2x 2.048 MiB DDR3 @ 833 MHz bei 8-8-7-15-2T, 123 MHz PCIe-Takt, Catalyst 8.84.3, "Quality", W7ndows x64

MfG,
Raff

Blaire
2011-03-10, 21:58:48
DX11 ist auch kaputt. Nimm mal Spasstigers erste Config und änder da nur die Auflösung.


Keine Ahnung was da los ist, aber startet nix. Ingame die Map laden klappt einwandfrei.

Grey
2011-03-11, 09:03:10
Ihr braucht den Umweg übers Frontend gar nicht gehen.

Einfach im UDK-Ordner unter Binaries die UDK.exe nehmen und an die Verknüpfung die Parameter dranhängen. Der Mapname ohne Bindestrich, der Rest mit.

...\2011_3\Binaries\UDK.exe" NightAndDayMap -SM5 - windowed etc.

daywalker4536
2011-03-11, 10:54:10
Ich stell es heute abend online.

Screemer
2011-03-11, 11:23:40
da freu ich mich schon. wird interessant wie mein e8400@3,9GHz+6950 abschneidet

Spasstiger
2011-03-11, 13:08:15
@grey: Wie ist denn der Befehl für den internen Benchmark?
Dass man über die Kommandozeile (= Verknüpfung) gehen kann, hab ich ja oben schon mehrfach erwähnt. Aber damit hab ich es noch nicht geschafft, den internen Benchmark anzuwerfen (Capture FPS Charts Info im Frontend).

Ich sehe das Frontend auch nicht als Umweg, sondern als eine Vereinfachung des Ablaufs. Grafische Oberfläche statt Kommandozeilen-Frickelei. Letzteres schreckt potentielle Bencher tendentiell ab.

/EDIT: Ok, ich bin ein Horst. Der Kommandozeilenparameter lautet einfach -CaptureFPSChartInfo und nicht -CaptureFPSChartInfo=1 wie bei UT3.
Ich werd meine Anleitung anpassen.

/EDIT2: Bitte neue Anleitung beachten!

-=Popeye=-
2011-03-11, 17:06:33
Q9650@4GHz(445x9)
2x2GB DDR2 1000@445 CL5-5-5-15
GTX570@default GF 266.77 WHQL (HQ)
Vista64 SP2

720p, noAA, DX9, 16:1 AF: 21.37 fps (31.63% GPU bound)
1080p, noAA, DX9, 16:1 AF: 19.70 fps (35.68% GPU bound)

edit: wie aktiviert man denn AA? MaxMultiSamples=4?

Schlammsau
2011-03-11, 17:31:21
Auch die Methode 2 funzt bei mir nicht!

Wenn ich die Exe mit deinen Parametern starte, geht bei mir nur das Game Menü auf. :freak:

daywalker4536
2011-03-11, 17:39:44
Hört auf herrum zu experimentieren ^^. Ich lade das Teil gleich hoch :).

Spasstiger
2011-03-11, 17:40:39
@Popeye: Was limitiert denn da bei der GTX 570? Bei den Radeons von mir und Raff haut die höhere Auflösung ja spürbar rein. In 720p hat Raff mit seiner Radeon HD 5870 mehr fps als du mit deiner GeForce GTX 570, in 1080p vermutlich weniger (er hat ja nur 1920x1200 getestet).

Auch die Methode 2 funzt bei mir nicht!

Wenn ich die Exe mit deinen Parametern starte, geht bei mir nur das Game Menü auf. :freak:
Ich habs getestet, bei mir gings. Kein Menü, Demo hat sich nach 132 Sekunden automatisch beendet, Eintrag in der FPS-Stats-Datei war da.

Hört auf herrum zu experimentieren ^^. Ich lade das Teil gleich hoch :).
Hast du eine automatisierte Benchmarkfunktion einbauen können?

daywalker4536
2011-03-11, 17:56:59
Alles automatisch und mehr

daywalker4536
2011-03-11, 18:08:01
Ok läd.

-=Popeye=-
2011-03-11, 18:20:57
@Popeye: Was limitiert denn da bei der GTX 570? Bei den Radeons von mir und Raff haut die höhere Auflösung ja spürbar rein. In 720p hat Raff mit seiner Radeon HD 5870 mehr fps als du mit deiner GeForce GTX 570, in 1080p vermutlich weniger (er hat ja nur 1920x1200 getestet).
Keine Ahnung, die Auslasung ist auch recht mager...

bei 1080p, MaxMultiSamples=4, DX9, 16:1 AF sind's 19.04 fps (45.19% GPU bound).

Crazy_Chris
2011-03-11, 18:26:46
Das Frontend braucht man nicht. Einfach so starten:


für DX11:

...\UDK\Binaries\Win32\UDK.exe NightAndDayMap -SM5 -unattended -nomoviestartup -seconds=132 -NoVSync -CaptureFPSChartInfo

1.920x1.080, kein AA, DX11, 16xAF: 7.63 fps (99.11 % GPU bound)

1.920x1.080, kein AA, DX9, 16xAF: 11.56 fps (99.61 % GPU bound)

Geforce GTX 460 1Gb ;D

Mit AA habe ich leider Bildfehler. Viele kleine grüne Punkte. :freak:

-=Popeye=-
2011-03-11, 18:27:50
Auch die Methode 2 funzt bei mir nicht!

Wenn ich die Exe mit deinen Parametern starte, geht bei mir nur das Game Menü auf. :freak:

Bei Methode1 vielleicht den Haken bei "Override Default" vergessen? Die zweite funktioniert bei mir auch nicht.

-=Popeye=-
2011-03-11, 19:19:15
@Popeye: Was limitiert denn da bei der GTX 570? Bei den Radeons von mir und Raff haut die höhere Auflösung ja spürbar rein. In 720p hat Raff mit seiner Radeon HD 5870 mehr fps als du mit deiner GeForce GTX 570, in 1080p vermutlich weniger (er hat ja nur 1920x1200 getestet).


Ursache gefunden (Fenstermodus):uexplode:

720p, noAA, DX9, AF via Cfg: 30.02 fps (21.67% GPU bound)
1080p, noAA, DX9, AF via Cfg: 21.94 fps (67.66% GPU bound)

Raff
2011-03-11, 20:10:44
1.024x768, kein AA, DX9, AF via Cfg: 27.68 fps (38.81% GPU bound)
1.280x720, kein AA, DX9, AF via Cfg: 24.28 fps (62.12% GPU bound)
1.920x1.080, kein AA, DX9, 16x AF per Treiber: 17.48 fps (69.58% GPU bound)
1.920x1.080, kein AA, DX11, 16x AF per Treiber: 12.79 fps (86.01% GPU bound)

Phenom II X6 (Thuban) @ 250x16 = 4.000 MHz, Radeon HD 5870/1G @ 1.050/2.800 MHz, NB/HT @ 2.500/2.250 MHz, 2x 2.048 MiB DDR3 @ 833 MHz bei 8-8-7-15-2T, 123 MHz PCIe-Takt, Catalyst 8.84.3, "Quality", W7ndows x64

Skaliert nur mit der GPU-Leistung. Warum ist die GTX 570 denn sooo viel schneller? Das ist eigentlich keine Fanboy-Engine.

MfG,
Raff

Spasstiger
2011-03-11, 20:23:55
Die GTX 460 von Crazy_Chris ist mit DX9 auch mehr als doppelt so schnell wie meine HD 4850, was eigentlich so nicht sein sollte (zumindest nicht den üblichen Rankings entspricht, solange der VRAM reicht). Mit DX11 dagegen passt das Verhältnis, da ist die GTX 460 ca. 50% schneller als die HD 4850.

Dass DX11 auf den DX11-Karten soviel Leistung gegenüber DX9 kostet, wundert mich. Bei meiner HD 4850 machts keinen Unterschied, ob ich den DX9- oder den DX11-Renderer verwende.

/EDIT: Ich sehe gerade im Fenstermodus, dass die Engine mit meiner HD 4850 automatisch auf DX9 zurückfällt, auch wenn man DX11 in der ini und als Kommandozeilenparameter eingestellt hat.

Gibt es optische Unterschiede zwischen DX9 und DX11? Mit den Parametern -BENCHMARK, -FPS=xx und -DUMPMOVIE kann man Screenshots von fixen Frames generieren lassen. Ideal für einen BQ-Vergleich. Dabei am Besten auch noch -SECONDS=1 verwenden, damit ein Lauf nicht in einer Bilderorgie endet. ;)

Megamember
2011-03-11, 21:51:06
Kann das hinkommen? Ich hab diese ini in den config Ordner kopiert
- 720p, 4xMSAA, DX11

und das ganze dann per Shortcut Parametern gestartet:

Bucket: 0 - 5 Time: 0.00 Frame: 0.00
Bucket: 5 - 10 Time: 14.09 Frame: 8.66
Bucket: 10 - 15 Time: 49.02 Frame: 42.50
Bucket: 15 - 20 Time: 20.01 Frame: 23.50
Bucket: 20 - 25 Time: 16.22 Frame: 23.81
Bucket: 25 - 30 Time: 0.33 Frame: 0.63
Bucket: 30 - 35 Time: 0.19 Frame: 0.42
Bucket: 35 - 40 Time: 0.04 Frame: 0.11
Bucket: 40 - 45 Time: 0.05 Frame: 0.16
Bucket: 45 - 50 Time: 0.02 Frame: 0.05
Bucket: 50 - 55 Time: 0.01 Frame: 0.05
Bucket: 55 - 60 Time: 0.01 Frame: 0.05
Bucket: 60 - 99 Time: 0.01 Frame: 0.05
1894 frames collected over 130.75 seconds, disregarding 0.06 seconds for a 14.49 FPS average, 0.34 percent of time spent > 30 FPS
Average GPU frame time: 58.86 ms

Taktung war 970/1400, hatte Grafikfehler am Wasserfall aber die waren immer egal wie getaktet.

Blaire
2011-03-11, 22:07:08
Core i7@2,66Ghz
Zotac AMP GTX470@800/1600/1701
Forceware 266.77@HQ
Win7 Ultimate

1.920x1.080, kein AA, DX11, 16x AF per Treiber: 13.01 fps (98.65% GPU bound)

Ruck Ruck Ruck...:biggrin:

daywalker4536
2011-03-11, 22:28:03
So, hier die erste Version vom Benchmark. Nichst aufregendes also keine extra erstellte GUI :). Kannst ihn ja in den Eröffnungspost packen wenn du magst. Wenn irgendwelche Probleme oder Änderungwünsche anstehen, mir einfach eine PN schicken. Wäre das Beste. Ihr könnt die Auflösung und den Renderpfad ändern sonst bleibt am besten alles auf max. Kantenglättung bleibt am besten erstmal aus weil es zusätzlich noch Grafikfehler verursacht und noch mehr Leistung zieht ;).

Habe es ja auch mal durchlaufen lassen und ich glaube der Treiber zickt rum. Grafikfehler unter DX9. Wer noch Grafikfehler hat bitte posten würde mich interessieren ^^.

http://www.daywalker4536.de/files/3DCenter_UE3.5_Benchmark.rar

Demogod
2011-03-11, 22:34:17
2,6 MB/Sec... nice

Spasstiger
2011-03-11, 22:35:23
Und ich saug auch noch mit 0,6 MB/s (DSL6000). :D
Bin mal gespannt, auf daywalkers Werk.

daywalker4536
2011-03-11, 22:36:16
Ist nur ein kleiner Benchmark ^^. Musste nicht soviel erstellt werden :). Hier und da ein paar Änderungen.

Demogod
2011-03-11, 22:42:54
Die Einzeldateien aus dem Rar müssen in Binaries right?
Momendemal ich kann da n Readme sehen.. xD

daywalker4536
2011-03-11, 22:43:26
Install Verzeichnis also Root. Alles darunter ist nichts für euch soll es auch nicht ^^. Tabu.

Demogod
2011-03-11, 22:49:36
Okay guts jetzt läufts. Welche Catalyst/Ati Tray Toolz Settings wollen wir nehmen?
Überschreibt ATT die eigtl immer korrekt? Hab manchmal das Gefühl du stellst im ATT was ein aber im CCC steht bischen was anderes..
BTW Fraps 3.3.2 greift nicht ein..! Quark liegt am Yuraku 24" der 720P bzw alle non-16.10-Auflösungen behindert skaliert.

ATT Settings:

AA OFF

Aniso :
-enable hq aniso off
-Application controlled

Texture Pref: HQ

MipMap Detail Level: HQ

VSync: Default Off

FlipQueue Size: 0

Additional Options:
-alternate Pixel Centers OFF
-support DXT textures ON
-support bump mapping ON

Optimizations:
-enable aniso filterering optimizations ON
-enable trilinear filterering optimizations ON

Catalyst AI: LOW

Force Z Buffer Depth : disabled

Additional Options: triple buffering OFF

Was sagt ihr dazu bzw was sollte geändert werden, damit man möglichst NV ähnliche BQ erreicht und FPS vergleichen kann (könnte natürlich je nach GrakaGen nochmal unterschiedlich sein..)?


4870 1GB @ 770/900 (default) Catalyst 11.2

1280*720 DX_9____min=3.58 avg=11.51 max=42.63
1280*800 DX_9____min=3.37 avg=11.44 max=42.90
1280*800 DX_10___min=3.40 avg=11.44 max=42.90 (kein Scheiss)
1280*800 DX_11___min=3.52 avg=11.40 max=41.36

Megamember
2011-03-11, 23:07:59
Wo sind denn nach dem Durchlauf die Ergebnisse zu sehen?
Und warum ist das Bild bei mir eigendlich schon wieder wie auch schon bei Bulletstorm schräg zweigeteilt? Hat das Problem niemand ausser mir? Eben bei der Originalinstallation sah das noch normal aus.
http://www.abload.de/thumb/udk2011-03-1123-00-40-r7hh.jpg (http://www.abload.de/image.php?img=udk2011-03-1123-00-40-r7hh.jpg)

http://www.abload.de/thumb/udk2011-03-1123-03-39-g7gb.jpg (http://www.abload.de/image.php?img=udk2011-03-1123-03-39-g7gb.jpg)

daywalker4536
2011-03-11, 23:11:07
in der DOSBOX werden dir alle drei werte angezeigt nach dem durchlauf und wenn du den bench mit esc beendest. Wird alles ein Treiberproblem sein denke ich. bei mir keine probleme deswegen. Ich habe sowieso das gefühl das der aktuelle Treiber nicht so richtig gut performt.muss wahrscheinlich noch auf udk/dx11 hin optimiert werden.

Screemer
2011-03-11, 23:16:52
e8400@3,89GHz - hd6950@1536shaders 800/1250MHz - cat11.2 - win 7 pro x64

Result (1280x720, DX9)
=========================================
min= 5.73 avg= 19.93 max= 66.88


Result (1280x720, DX11)
============================================
min= 1.64 avg= 14.58 max= 108.32
============================================

http://www.abload.de/thumb/cccprzp.png (http://www.abload.de/image.php?img=cccprzp.png)


Und warum ist das Bild bei mir eigendlich schon wieder wie auch schon bei Bulletstorm schräg zweigeteilt?
war bei mir im dx9 durchlauf auch. außerdem war das bild mit schwarzen balken versehen (monitorauflösung 1680x1050). im dx11 durchlauf war es dann ohne balken und ohne diagonalen strich.

Megamember
2011-03-11, 23:19:06
Ich seh aber keine Dosbox. Der Bench startet einfach und schliesst sich danach automatisch.

daywalker4536
2011-03-11, 23:21:34
kann nicht sein^^. liegst du auf der leertaste oder schließt was das fenster automatisch?.

Pfad zur logdatei : UDKGame\Logs\benchmark.log

Megamember
2011-03-11, 23:29:03
AH jetzt ja, 6950modded@950/1375

1280x720, DX9
min 3,92 avg 25,92 max 88,32

daywalker4536
2011-03-11, 23:33:10
Result (1920x1080, DX11)
============================================
min= 6.00 avg= 12.21 max= 45.68
============================================

Result (1920x1080, DX9)
============================================
min= 4.57 avg= 20.46 max= 44.97
============================================

Killt echt die GPU. Sieht aber echt verdammt lecker aus. DX9 aber alles schwarz nur Fehler ^^. Naja nicht übertreiben :). Teilweise schwarz.

Screemer
2011-03-11, 23:34:48
ist dieses filmgrieseln ein pp-effekt? find ich irgendwie komisch.

daywalker4536
2011-03-11, 23:36:41
ist dieses filmgrieseln ein pp-effekt? find ich irgendwie komisch.

Jo Filmgriesel is PP. Wie im Kino hehe.

Megamember
2011-03-11, 23:37:59
Pixelfehler hatte ich nicht, eben nur unter DX 9 diesen geteilten bildschirm, DX11 lief Fehlerfrei
Hier nochmal
1680x1050, Dx11

min 4,88 avg 13,30 max 104,75

daywalker4536
2011-03-11, 23:41:16
Die Sequenzen laufen alle in 16:9 ab. Je weiter sich die Auflösung davon entfernt desto größer werden die Balken. Ist halt darauf ausgerichtet.

Raff
2011-03-11, 23:45:45
Wo sind denn nach dem Durchlauf die Ergebnisse zu sehen?
Und warum ist das Bild bei mir eigendlich schon wieder wie auch schon bei Bulletstorm schräg zweigeteilt? Hat das Problem niemand ausser mir? Eben bei der Originalinstallation sah das noch normal aus.
http://www.abload.de/thumb/udk2011-03-1123-00-40-r7hh.jpg (http://www.abload.de/image.php?img=udk2011-03-1123-00-40-r7hh.jpg)

http://www.abload.de/thumb/udk2011-03-1123-03-39-g7gb.jpg (http://www.abload.de/image.php?img=udk2011-03-1123-03-39-g7gb.jpg)

Sicher, dass deine Karte der/die/das Mod fehlerfrei schluckt?

MfG,
Raff

Megamember
2011-03-11, 23:52:35
Das mit dem komischen zweigeteilten Bildschirm hab ich bisher nur bei Bulletstorm und diesem bench in Dx9. Sonst läuft alles sauber.
Ich weiss nicht was das ist. Bin anscheinend auch nicht der einzigste, siehe Screemer.

daywalker4536
2011-03-11, 23:53:23
bulletstorm läuft auch in dx9 ^^.

Megamember
2011-03-11, 23:55:12
Liegt anscheinend an der Unreal Engine. Bulletstorm hat ja dieselbe. Ich wunder mich nur warum ich im Bulletstorm Thread noch nie was drüber gelesen hab.

daywalker4536
2011-03-12, 00:02:26
Bin erstmal weg gute nacht und viel spaß noch ^^

Demogod
2011-03-12, 01:59:08
U2. Thx 4 prepping teh package!!

Spasstiger
2011-03-12, 02:06:15
Ja, dickes Dankeschön auch von mir. Hab das Startposting komplett überarbeitet, wir können jetzt alle mit deinem Paket benchen.
Kann es aber sein, dass du einen falschen Parameter zum Einstellen des DirectX-Levels verwendest? Muss das nicht -SM3, -SM4 oder -SM5 heißen?
Außerdem läuft dein Benchmark mit fixer Framerate, d.h. je langsamer die Grafikkarte, desto länger dauert der Benchmark. Ich schlage eine Erweiterung um eine Version mit fixer Zeit vor. Dafür nimmt man als Startparameter nicht "-Benchmark", sondern "-Seconds=132 -NoVSync -CaptureFPSChartInfo". Dann bekommt man auch die erweiterten Statistiken.

LovesuckZ
2011-03-12, 02:42:33
Hier mal das "Spasstiger" - Ergebnis:

C2Q@3680Mhz und GTX580, 720p und DX11


0143.35] Log: --- Begin : FPS chart dump for level 'NightAndDayMap'
[0143.35] Log: Bucket: 0 - 5 Time: 0.00 Frame: 0.00
[0143.35] Log: Bucket: 5 - 10 Time: 1.25 Frame: 0.63
[0143.35] Log: Bucket: 10 - 15 Time: 35.85 Frame: 25.60
[0143.35] Log: Bucket: 15 - 20 Time: 30.12 Frame: 29.16
[0143.35] Log: Bucket: 20 - 25 Time: 20.72 Frame: 24.88
[0143.35] Log: Bucket: 25 - 30 Time: 7.57 Frame: 11.46
[0143.35] Log: Bucket: 30 - 35 Time: 3.33 Frame: 5.87
[0143.35] Log: Bucket: 35 - 40 Time: 0.98 Frame: 1.97
[0143.35] Log: Bucket: 40 - 45 Time: 0.15 Frame: 0.34
[0143.35] Log: Bucket: 45 - 50 Time: 0.03 Frame: 0.08
[0143.35] Log: Bucket: 50 - 55 Time: 0.00 Frame: 0.00
[0143.35] Log: Bucket: 55 - 60 Time: 0.00 Frame: 0.00
[0143.35] Log: Bucket: 60 - 99 Time: 0.00 Frame: 0.00
[0143.35] Log: 2383 frames collected over 131.00 seconds, disregarding 0.02 seconds for a 18.19 FPS average, 4.49 percent of time spent > 30 FPS

Bandit3644
2011-03-12, 08:24:47
i5 2500K@Default - HD5870@ 920/1250MHz - cat11.4 - win 7 x64

Result (1280x720, DX9)
=========================================
min= 3,66 avg= 21,67 max= 73,24


Result (1280x720, DX11)
============================================
min= 5,90 avg= 15,68 max= 115,32
============================================

Screemer
2011-03-12, 10:04:07
Kann es aber sein, dass du einen falschen Parameter zum Einstellen des DirectX-Levels verwendest? Muss das nicht -SM3, -SM4 oder -SM5 heißen?

sollte eigentlich trotzdem funktionieren. hier mal ein auszug aus dem launch.log:

[0000.32] Log: Found D3D11 adapter 0: AMD Radeon HD 6900 Series
[0000.32] Log: Adapter has 2034MB of dedicated video memory, 0MB of dedicated system memory, and 1791MB of shared system memory
[0000.32] Log: Shader platform (RHI): PC-D3D-SM5


macht folgendes eigentlich was aus?
[0000.32] Error: Error, Manifest doesn't exist: ..\..\UDKGame\Script\Manifest.txt

daywalker4536
2011-03-12, 10:21:51
Ja, dickes Dankeschön auch von mir. Hab das Startposting komplett überarbeitet, wir können jetzt alle mit deinem Paket benchen.
Kann es aber sein, dass du einen falschen Parameter zum Einstellen des DirectX-Levels verwendest? Muss das nicht -SM3, -SM4 oder -SM5 heißen?
Außerdem läuft dein Benchmark mit fixer Framerate, d.h. je langsamer die Grafikkarte, desto länger dauert der Benchmark. Ich schlage eine Erweiterung um eine Version mit fixer Zeit vor. Dafür nimmt man als Startparameter nicht "-Benchmark", sondern "-Seconds=132 -NoVSync -CaptureFPSChartInfo". Dann bekommt man auch die erweiterten Statistiken.

Läuft doch in DX11 oder habe ich was auf den Augen?^^. Die sind schon richtig. Der Bench läuft doch nicht mit fixer Framerate?. Es wird die selbe Szene abgearbeitet und man bekommt min, avg und max wie in jedem anderen bench auch. Dann gibt es natürlich noch Rendertime für die ganze Szene aber das ist doch nicht wichtig. Ich kenne CaptureFPSChartInfo ich kann es ja dazu packen ich schau es mir mal an.

@Screemer

Crazy_Chris
2011-03-12, 12:56:04
Result (1280x720, DX9)
============================================
min= 2.36 avg= 6.49 max= 21.33
============================================

Core 2 Quad Q9300
Geforce 8800 GTS 512

:tongue:

Saugbär
2011-03-12, 13:22:36
Core i7 860 @ 3.6GHz | GeForce GTX 470 @ 800 - 1600 - 1900

Result (1280x720, DX9)
============================================
min= 4.10 avg= 26.40 max= 80.86
============================================


Result (1280x720, DX11)
============================================
min= 7.50 avg= 18.57 max= 80.53
============================================

Spasstiger
2011-03-12, 15:33:04
Läuft doch in DX11 oder habe ich was auf den Augen?^^. Die sind schon richtig. Der Bench läuft doch nicht mit fixer Framerate?. Es wird die selbe Szene abgearbeitet und man bekommt min, avg und max wie in jedem anderen bench auch.
Der Benchmark dauert bei mir halt eine Viertelstunde statt knapp über 2 Minuten, weil exakt definierte Frames berechnet werden. Das versteht man unter fixer Framerate. Du definierst, mit welcher Framerate eine Aufzeichnung des Benchmark laufen soll, und diese Frames werden dann allesamt berechnet, egal wie lange es dauert. Die Darstellung erfolgt nicht in Echtzeit, es ist vielmehr ein Offlinerendering mit einer gewissen Zielframerate.
Bei fixer Zeit erhält man dagegen eine Echtzeitdarstellung wie in Spielen.
Man kann ja noch eine benchmark2.bat anbieten, bei der der Benchmark mit fixer Zeit und nicht mit fixer Framerate erfolgt.

Ob der Bench mit "-DX11" auch mit DX11 läuft, kann ich mangels DX11-Grafikkarte nicht nachvollziehen (es erfolgt ein automatischer Fallback auf DX9). Aber scheint ja zu gehen.

daywalker4536
2011-03-12, 16:08:37
Der Benchmark dauert bei mir halt eine Viertelstunde statt knapp über 2 Minuten, weil exakt definierte Frames berechnet werden. Das versteht man unter fixer Framerate. Du definierst, mit welcher Framerate eine Aufzeichnung des Benchmark laufen soll, und diese Frames werden dann allesamt berechnet, egal wie lange es dauert. Die Darstellung erfolgt nicht in Echtzeit, es ist vielmehr ein Offlinerendering mit einer gewissen Zielframerate.
Bei fixer Zeit erhält man dagegen eine Echtzeitdarstellung wie in Spielen.
Man kann ja noch eine benchmark2.bat anbieten, bei der der Benchmark mit fixer Zeit und nicht mit fixer Framerate erfolgt.

Ob der Bench mit "-DX11" auch mit DX11 läuft, kann ich mangels DX11-Grafikkarte nicht nachvollziehen (es erfolgt ein automatischer Fallback auf DX9). Aber scheint ja zu gehen.

Wenn du das meinst das bei -benchmark kein "frame skipping" angewendet wird um langsamere Rechner zu entlasten dann habe ich es verstanden ^^. Es werden halt immer einzelne Frames ausgelassen. Das ist aber genauer und deswegen dauert der Benchmark auch länger als die Demo. Eine fixe Framerate kriegt man nur mit -fps. Also gibt es keine Begrenzung. Also schlägst du vor mit -seconds die dauer des Benchmarks zu begrenzen?.

Hmm

Spasstiger
2011-03-12, 16:19:12
Du hast micht nicht richtig verstanden. Schau mal ins UDN:
BENCHMARK: Run game at fixed-step in order to process each frame without skipping any frames. This is useful in conjunction with DUMPMOVIE options.
FPS: set the frames per second for benchmarking.
Quelle: http://udn.epicgames.com/Three/CommandLineArguments.html
Der Befehl BENCHMARK ist dazu gedacht, eine fixe Framerate zu erzielen, um in Verbindung mit DUMPMOVIE Videos mit einer bestimmten Framerate aufzuzeichnen. Es ist nix anderes wie Offline-Rendering. Die Framerate stellt man mit FPS ein, aber es gibt natürlich auch eine default-Framerate.
Wenn du einen Echtzeit-Benchmark (mit Frame-Skipping) machen willst, lässt du BENCHMARK ganz weg und nimmst stattdessen CAPTUREFPSCHARTINFO und SECONDS=132.

BENCHMARK ist natürlich genauer, weil Frame für Frame bei jedem Durchlauf immer exakt dasselbe berechnet wird. Aber es dauert auf Nicht-High-End-Grafikkarte eine halbe Ewigkeit.
Ich lade mal eine benchmark2.bat für die ungeduldigen Bencher hoch.

first_blood
2011-03-12, 16:24:33
C2Q 6600 @ 3,4GHz
4 GB DDR2-1066MHz
Geforce GTX 280 @ 680/1400/1200

720p, noAA, DX9: 11.99 FPS (95.81% GPU bound)

daywalker4536
2011-03-12, 16:27:05
Stimmt schon -benchmark wird auch in Verbindung mit -fps zum Videodumpen eingesetzt. Ohne -fps gibt es allerdings keine FPS Begrenzung und die fps laufen so wie es der rechner darstellen kann in echtzeit ohne frame skipping. Ist quasi ein rendering das stimmt. Na wenn es zu lange dauert kann ich das noch dazu packen.

Raff
2011-03-12, 16:31:04
Danke für den Bench! =)

2.560x1.600, DX11, AF via Config: min= 4,38 avg= 10,22 max= 37,01

Phenom II X6 (Thuban) @ 250x12 = 3.000 MHz, GeForce GTX 580/1,5G @ 950/1.900/2.400 MHz, NB/HT @ 2.500/2.250 MHz, 2x 2.048 MiB DDR3 @ 833 MHz bei 8-8-7-15-2T, 123 MHz PCIe-Takt, GeForce 267.24 @ "Quality", W7ndows x64 SP1

Bei allem darunter ist mein System extrem CPU-limitiert (720p @ DX9: ~22 Fps). Wirklich fordernd ist nur die hübsche "Blümchenszene" mit ihren Fokuseffekten. Geil wäre, wenn man die Szenen einzeln testen könnte!

MfG,
Raff

Spasstiger
2011-03-12, 16:32:39
Ohne -fps gibt es allerdings keine FPS Begrenzung und die fps laufen so wie es der rechner darstellen kann in echtzeit ohne frame skipping.
Wenn der Benchmark 15 Minuten für die Darstellung von 2 Demo-Minuten benötigt, dann ist das keine Echtzeitdarstellung. Es wird eine bestimmte Mindest-Framerate erzwungen. Mag sein, dass ohne -FPS keine Begrenzung der Framerate nach oben erfolgt, aber nach unten gibt es definitiv eine Begrenzung. Sonst würde der Benchmark eben genauso lange dauern wie die Demo und nicht auf den meisten Grafikkarten ein Vielfaches länger.

Ich bastel schon an einer alternativen Batch-Datei, musst dir keine Mühe machen. Das Paket von dir kann so bleiben, das ist wunderbar.

daywalker4536
2011-03-12, 16:34:42
Mit -benchmark ist kein frame skipping aktiv. So werden keine Frames ausgelassen deswegen dauert der Bench länger als die Demo.

daywalker4536
2011-03-12, 16:37:22
Danke für den Bench! =)

Gerne doch ^^

-=Popeye=-
2011-03-12, 16:46:37
Danke für den Bench! =)

2.560x1.600, DX11, AF via Config: min= 4,38 avg= 10,22 max= 37,01

Phenom II X6 (Thuban) @ 250x12 = 3.000 MHz, GeForce GTX 580/1,5G @ 950/1.900/2.400 MHz, NB/HT @ 2.500/2.250 MHz, 2x 2.048 MiB DDR3 @ 833 MHz bei 8-8-7-15-2T, 123 MHz PCIe-Takt, GeForce 267.24 @ "Quality", W7ndows x64 SP1

Bei allem darunter ist mein System extrem CPU-limitiert (720p @ DX9: ~22 Fps). Wirklich fordernd ist nur die hübsche "Blümchenszene" mit ihren Fokuseffekten. Geil wäre, wenn man die Szenen einzeln testen könnte!

MfG,
Raff

:confused:

Q9650@4GHz(445x9)
2x2GB DDR2 1000@445 CL5-5-5-15
GTX570@800/1600/2000 GF 266.77 WHQL (HQ)
Vista64 SP2


Result (2560x1600, DX11)
============================================
min= 3.02 avg= 11.92 max= 170.52
============================================

Raff
2011-03-12, 16:48:31
Ich habe keine Ahnung, was da los ist. :D Da bremst bei mir irgendetwas, auch schon mit der Radeon.

MfG,
Raff

Megamember
2011-03-12, 16:48:42
Ich glaub sein 3GHZ PII bremst, die 580@950 dreht doch Däumchen.

daywalker4536
2011-03-12, 16:59:27
Eure max sind echt hoch. Ich glaube NVIDIA muss mal wieder die Treiber optimieren ^^. Wer weis wie lange das schon her ist. Ich sehe ja schon das im DX9 Modus irgendwas nicht stimmen kann hehe. SCHWAAARZ!!.

Das geile DOF ist echt ein PKiller aber nice.

Edit: Ich warte erstmal die neuen Treiber ab ob sich da was ändert wenn nicht schau ich mal was diese Fehler verursacht.

kevsti
2011-03-12, 19:27:35
System:
Intel Core 2 Quad Q8400 @ 4,0 GHz
4 GiB DDR2-RAM
Radeon HD 4850 512 MiB @ von Gainward übertaktet
Windows 7 64 Bit

Ergebnisse:
720p, noAA, DX9, 16:1 AF: 10,61 fps (97,77% GPU bound)

@Spastiger wie du vlt. siehst habe ich einfach mal dein Post genommen und meine Werte reinediert - da du ein relativ gleiches System hat ging das für mich jetzt einfach schneller :biggrin:

Spasstiger
2011-03-12, 20:08:55
Hier jetzt noch eine Batch-Datei für schwächere Systeme erstellt, damit man nicht Ewigkeiten bis zum Abschluss des Benchmarks warten muss:
Download: Batch-Datei Benchmark2 (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39108&stc=1&d=1299956804).
Einfach ins Hauptverzeichniss des 3DCenter UE3.5 Benchmark entpacken.

---------------------------------------------------------------------

System:
Intel Core 2 Duo E4300 @ 3,0 GHz
6 GiB DDR2-RAM
Radeon HD 4850 512 MiB @ default
Windows 7 64 Bit

Ergebnisse (benchmark2.bat):
Alle Ergebnisse mit 16:1 AF und Catalyst A.I. default.

Result (320x240, DX9)
============================================
14.56 fps avg.
88.59 percent GPU bound
============================================

Result (1280x720, DX9)
============================================
9.21 fps avg.
94.12 percent GPU bound
============================================

Result (1920x1080, DX9)
============================================
5.46 fps avg.
96.12 percent GPU bound
============================================

---------------------------------------------------------------------

System:
Intel Core 2 Duo E4300 @ 3,0 GHz @ Singlecore (/NUMPROC=1 in boot.ini)
6 GiB DDR2-RAM
Radeon HD 4850 512 MiB @ default
Windows 7 64 Bit

Ergebnisse (benchmark2.bat):
Alle Ergebnisse mit 16:1 AF und Catalyst A.I. default.


Result (320x240, DX9)
============================================
10.82 fps avg.
14.73 percent GPU bound
============================================

Result (1280x720, DX9)
============================================
8.24 fps avg.
36.08 percent GPU bound
============================================

Result (1920x1080, DX9)
============================================
5.25 fps avg.
46.98 percent GPU bound
============================================

---------------------------------------------------------------------

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39110&stc=1&d=1299963840

Ist also trotz der niedrigen Frameraten stark CPU-abhängig.

kevsti
2011-03-12, 21:20:56
Nochmal mit der neuen Batch von Spasstiger:

System:
Intel Core 2 Quad Q8400 @ 4,0 GHz
4 GiB DDR2-RAM
Radeon HD 4850 512 MiB @ von Gainward übertaktet (+75MHz GPU, +100MHz RAM)
Windows 7 64 Bit

Result (1280x720, DX9)
============================================
10.59 fps avg.
97.12 percent GPU bound
============================================

Result (1920x1080, DX9)
============================================
6.24 fps avg.
96.60 percent GPU bound
============================================

Meine Werte liegen mit der gleichen GPU ~15% höher - allerdings ist meine GPU auch ein wenig Übertaktet (um etwa 10%). Man sieht daher dass der Benchmark noch ein wenig mit den Kernen skaliert aber nicht viel - die GPU limitiert vermutlich dann doch zu sehr.

Screemer
2011-03-12, 22:14:02
e8400@3,89GHz - hd6950@1536shaders 800/1250MHz - cat11.2 - win 7 pro x64

Result (1280x720, DX9)
============================================
21.30 fps avg.
49.80 percent GPU bound
============================================

Result (1280x720, DX11)
============================================
15.02 fps avg.
82.91 percent GPU bound
============================================

http://www.abload.de/thumb/cccprzp.png (http://www.abload.de/image.php?img=cccprzp.png)

im übrigen hab ich in dx9 immer noch dieses geteilte bild wie es megamember schon ein mal gepostet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8615967#post8615967) hat. allerdings ist es in manchen szenen da und in manchen nicht. bei den blumen und in der letzten szene mit dem übergang von nacht zum tag ist es definitiv nicht vorhanden.

€dit: spasstiger könntest du noch die min. und max. fps im ergebniss mit aufnehmen lassen? ich hab mir das log mal angesehen aus dem die batch die werte zieht, aber da ist soweit ich gesehen hab kein min. und max.

Spasstiger
2011-03-12, 22:19:35
€dit: spasstiger könntest du noch die min. und max. fps im ergebniss mit aufnehmen lassen? ich hab mir das log mal angesehen aus dem die batch die werte zieht, aber da ist soweit ich gesehen hab kein min. und max.
Sorry, aber bei dieser Benchmark-Variante zeichnet die Unreal Engine leider keine min. und max. fps auf. Falls du diese Informationen willst, musst du die Benchmarkvariante von daywalker4536 (benchmark.bat) nutzen und die eventuell deutlich längere Laufzeit in Kauf nehmen.

Screemer
2011-03-12, 22:24:16
passt dann schon. hab mich nur gewundert, denn die avg. werte liegen doch gut 10% über meinem letzten lauf. ist aber bei der frameanzahl eh wurscht :)

Spasstiger
2011-03-12, 23:06:00
Hier mal mit und ohne Depth of Field (System wie oben, noch @ Singlecore):

1080p, noAA, 16:1 AF, DX9, DoF an: 5,25 fps (46,98% GPU bound)
1080p, noAA, 16:1 AF, DX9, DoF aus: 8,18 fps (45,07% GPU bound)

/EDIT: Habs nochmal laufen lassen, ein Hintergrundprozess hatte reingepfuscht.

daywalker4536
2011-03-13, 01:27:09
UiUi das wird ja ein durcheinander aber ok schön das ihr ordentlich bencht :). Was die UE3 betrifft sollte es schon ein Quad sein um das CPU Limit auszuschließen denke ich. Die UE3 läuft glaube ich in 3 Threads soweit ich mich noch erinnern kann. Oder waren es vier. Die CE3 in 8 ^^.

Saugbär
2011-03-13, 06:09:24
Batch von Spasstiger
Core i7 860 @ 3.6GHz | GeForce GTX 470 @ 800 - 1600 - 1900

Result (320x240, DX9)
============================================
38.89 fps avg.
7.68 percent GPU bound
============================================

Result (320x240, DX11)
============================================
33.05 fps avg.
29.26 percent GPU bound
============================================

Result (800x600, DX9)
============================================
36.75 fps avg.
18.38 percent GPU bound
============================================

Result (800x600, DX11)
============================================
28.78 fps avg.
52.49 percent GPU bound
============================================

Result (1280x720, DX9)
============================================
27.29 fps avg.
52.18 percent GPU bound
============================================

Result (1280x1024, DX9)
============================================
26.63 fps avg.
53.52 percent GPU bound
============================================

Result (1280x720, DX11)
============================================
19.27 fps avg.
86.43 percent GPU bound
============================================

Result (1680x1050, DX9)
============================================
19.70 fps avg.
84.13 percent GPU bound
============================================

Result (1680x1050, DX11)
============================================
14.18 fps avg.
95.96 percent GPU bound
============================================

Result (1920x1080, DX9)
============================================
16.92 fps avg.
95.18 percent GPU bound
============================================

Result (1920x1080, DX11)
============================================
12.37 fps avg.
96.91 percent GPU bound
============================================

Result (1920x1200, DX9)
============================================
19.01 fps avg.
100.00 percent GPU bound
============================================

Result (1920x1200, DX11)
============================================
12.08 fps avg.
96.90 percent GPU bound
============================================


Das Ganze nochmal grafisch aufgewertet

Raff
2011-03-13, 12:23:28
UiUi das wird ja ein durcheinander aber ok schön das ihr ordentlich bencht :). Was die UE3 betrifft sollte es schon ein Quad sein um das CPU Limit auszuschließen denke ich. Die UE3 läuft glaube ich in 3 Threads soweit ich mich noch erinnern kann. Oder waren es vier. Die CE3 in 8 ^^.

Die Auslastung ist jedenfalls beschissen. Keine Spur von 6-Kern-Skalierung – sollte man sowas in einer Engine-Demo nicht auch nutzen?

MfG,
Raff

dargo
2011-03-13, 15:27:36
Die Auslastung ist jedenfalls beschissen. Keine Spur von 6-Kern-Skalierung – sollte man sowas in einer Engine-Demo nicht auch nutzen?

Du willst eine sehr gute Skalierung von 6 Kernen bei einer Timedemo sehen? Wie soll das gehen?

Raff
2011-03-13, 15:48:50
Indem das Rendering besser multithreaded wird. Von einer aktuellen Engine-Version kann man erwarten, dass die mehr als 1,7 Kerne nutzt.

MfG,
Raff

dargo
2011-03-13, 15:55:29
Indem das Rendering besser multithreaded wird. Von einer aktuellen Engine-Version kann man erwarten, dass die mehr als 1,7 Kerne nutzt.

Ich habe mir jetzt nicht den Benchmark angeschaut weil mir die Vorgehensweise zu kompliziert ist. Wenn ich mir aber die Bilder im ersten Post so anschaue schein es eine stinknormale Flyby-Timedemo zu sein. Was willst du da großartig multithreaden? Es ist doch überhaupt nichts los. Es muss ja nichtmal eine KI berechnet werden, zudem wird die CPU-Last dank der Timedemo eh durch GPU-Last erdrückt.

Megamember
2011-03-13, 16:10:34
Ich habe mir jetzt nicht den Benchmark angeschaut weil mir die Vorgehensweise zu kompliziert ist. .

Auf Seite 2 ist ein modifizierter Bench von Daywalker. Einfach downloaden und starten

Spasstiger
2011-03-13, 17:11:57
Auf Seite 2 ist ein modifizierter Bench von Daywalker. Einfach downloaden und starten
Ist auch im Startposting. Runterladen, installieren, Batch-Datei entpacken, Starten, Ergebniss rauskopieren und posten. Fast so einfach wie 3DMark.

Was willst du da großartig multithreaden?
Von Singlecore auf Dualcore skaliert es bei mir trotzdem. Von 11 fps auf 14,5 fps in 320x240. Die GPU-Auslastung steigt dabei von 15% auf 89%.

daywalker4536
2011-03-13, 17:22:00
Ich habe mir jetzt nicht den Benchmark angeschaut weil mir die Vorgehensweise zu kompliziert ist. Wenn ich mir aber die Bilder im ersten Post so anschaue schein es eine stinknormale Flyby-Timedemo zu sein. Was willst du da großartig multithreaden? Es ist doch überhaupt nichts los. Es muss ja nichtmal eine KI berechnet werden, zudem wird die CPU-Last dank der Timedemo eh durch GPU-Last erdrückt.

Einfacher geht es nicht. Nichts kompliziert. Ein ganz normaler Benchmark wie jeder anderen auch.

Demogod
2011-03-13, 17:26:33
Wo wir grad bei CPU Last sind.. zocke gerade Gears of War und selbst in Szenen wo nix passiert hab ich auf allen 4 Kernen ~ 50 % Cpu Last das macht eigtl konstant ~50%. Blur macht 65-70 % Gesamtsytemlast und SplitSecond !nur! 20-25% Wie kann sowas sein? (also is ein krasser Unterschied bei den beiden Rennspielen finde ich, die es ja beide auch auf Xbox gibt, wenn auch ich nicht weiss ob Xbox da Lead war)

daywalker4536
2011-03-13, 18:00:30
@Raff
Die UE3 läuft nur in 4 Threads da bringt dir ein Hexa nichts. Jeder Thread wird auf einen Kern gelegt im optimal Fall. Schlimm wäre es wenn es nicht so wäre und alles auf weniger laufen müsste. Bei meinen 8 werden auch nur 4 genutzt @ ~50%. Die anderen werden nicht angerührt. In diesem Fall ist die Taktung wichtig. Crysis 2 wäre da besser für deinen Hexa da die CE3 in 8 läuft :9.

@Demogod
Vielleicht weil Blur nur in 2 Threads läuft oder einfach nicht mehr Kerne benutzen will oder da was schief läuft?. Das würde die hohe Auslastung des ersten Kerns erklären.

Edit: Habe was vergessen man kann natürlich auch eine Begrenzung haben wieviele Kerne benutzt werden dürfen. In diesem fall werden mehrere Threads auf weniger Kernen verteilt womit natürlich die Auslastung pro kern steigt.

Demogod
2011-03-13, 18:02:26
Nee Blur lastet ja alle 4 Kerne etwa gleichstark aus (halt ~65%) und bei Split kann man sogar Dinge zerstören. Ist eventuell die KI aufwendiger bei Blur weil die PowerUps verwenden kann?

daywalker4536
2011-03-13, 18:19:40
Oh dann habe ich mich verlesen war irgendwie schwer zu lesen ^^. kanns ein wenn ich das richtig verstehe :).

dargo
2011-03-13, 18:22:22
@Raff
Die UE3 läuft nur in 4 Threads da bringt dir ein Hexa nichts. Jeder Thread wird auf einen Kern gelegt im optimal Fall. Schlimm wäre es wenn es nicht so wäre und alles auf weniger laufen müsste. Bei meinen 8 werden auch nur 4 genutzt @ ~50%. Die anderen werden nicht angerührt.

Wie kommst du auf die Idee daraus abzuleiten die UE3 würde 4 Cores nutzen? Es könnten genauso 2 Cores sein mit leichten Vorteilen für einen Triplecore.


Crysis 2 wäre da besser für deinen Hexa da die CE3 in 8 läuft :9.

Nur weil die CE3 8 Cores beschäftigen kann heißt es noch lange nicht, dass Crysis 2 dies auch tut. Es muss erstmal was vorhanden sein um Vorteile aus einem Hexacore zu ziehen.

daywalker4536
2011-03-13, 18:27:00
1. Weil ich meine mich daran zu erinnern und weil genau vier Kerne ausgelastet werden von acht. Nicht weniger nicht mehr. Es kann natürlich auch limitiert sein was die nutzung der Kerne angeht.
2. Natürlich ob es so kommt wird sich zeigen.

dargo
2011-03-13, 18:35:51
Weil ich meine mich daran zu erinnern und weil genau vier Kerne ausgelastet werden von acht. Nicht weniger nicht mehr.
Ohje... du weißt anscheinend nicht wie Windows die CPU-Last auf die jeweiligen Kerne verteilt. Wären alle 4 Kerne beispielsweise zu 85% ausgelastet kann man davon ausgehen, dass 4 Cores genutzt werden. Aber doch nicht bei 4x ~50%. :freak: Das kann genauso bedeuten DC Support mit wie gesagt leichten Vorteilen für 3 Cores (OS, Treiber etc.)

Lange Rede, kurzer Sinn - der Taskmanager sagt in erster Linie absolut nichts darüber aus wieviele Cores die Engine bzw. das Spiel tatsächlich nutzen.

daywalker4536
2011-03-13, 18:45:32
Die Auslastung hat doch nichts mit der wirklichen Core Nutzung zutun. Ich kann genausogut wenig Last in mehreren threads auf mehrer Cores verteilen und man sieht trotzdem nichts.

Ich habe ja nochmal geschrieben das ich es nicht 100% weis da keine offiziellen quellen. Aber die Auslastung im taskmanger zeigt es eigendlich ganz deutlich das die vier kerne was zutun haben ^^.

daywalker4536
2011-03-13, 18:51:17
Die ~50% Auslastung zeigt nur das die Last gleichmäßig auf die Kerne verteilt wird so wie es sein sollte.

dargo
2011-03-13, 18:51:38
Die Auslastung hat doch nichts mit der wirklichen Core Nutzung zutun. Ich kann genausogut wenig Last in mehreren threads auf mehrer Cores verteilen und man sieht trotzdem nichts.

Richtig, nichts anderes habe ich gesagt.


Aber die Auslastung im taskmanger zeigt es eigendlich ganz deutlich das die vier kerne was zutun haben ^^.
Davon hast du aber keinen fps mehr nur weil der Windows-Sheduler die Last die 2-3 Kerne erledigen können auf 4 aufteilt.

Die ~50% Auslastung zeigt nur das die Last gleichmäßig auf die Kerne verteilt wird so wie es sein sollte.
Das ist absoluter Quatsch. CPU-Last die wenige Kerne erledigen können unnötigerweise auf mehr Kerne zu verteilen macht absolut keinen Sinn.

daywalker4536
2011-03-13, 19:05:19
Das ist absoluter Quatsch. CPU-Last die wenige Kerne erledigen können unnötigerweise auf mehr Kerne zu verteilen macht absolut keinen Sinn.

Optimal ist das aber nicht. Einen Core voll auszulasten und dann auf den nächsten auszuweichen. Wenn man jeden thread auf einen kern lägt steht mehr Leistung für jeden Thread zur Verfügung. Ob nun auch weniger Kerne reichen um flüssige FPS darzustellen sei mal egal. Das wiederspräche auch einer perfekten Skalierung.

Sieht man ja auch an Crysis 2. 8 Kerne ?. Das wäre auch mit viel weniger gegangen. Jeder Kern bekommt eine Aufgabe.

daywalker4536
2011-03-13, 19:14:33
So letzter Post für heute ^^

Wo wäre der Vorteil einer CPU mit sehr wenig takt aber vielen kernen ^^.

_DrillSarge]I[
2011-03-13, 19:23:33
Ohje... du weißt anscheinend nicht wie Windows die CPU-Last auf die jeweiligen Kerne verteilt. Wären alle 4 Kerne beispielsweise zu 85% ausgelastet kann man davon ausgehen, dass 4 Cores genutzt werden. Aber doch nicht bei 4x ~50%. :freak: Das kann genauso bedeuten DC Support mit wie gesagt leichten Vorteilen für 3 Cores (OS, Treiber etc.)
UT3 profitiert bspw. von max. 3 kernen. auch viele andere ue3-spiele zeigen dieses verhalten.

I[;7151500']
1 Kern : Avg: 34.765 - Min: 19 - Max: 64
2 Kerne: Avg: 41.150 - Min: 24 - Max: 75
3 Kerne: Avg: 54.721 - Min: 33 - Max: 91
4 Kerne: Avg: 55.258 - Min: 33 - Max: 92



beim udk is ja auch eine ut3 demo dabei, müsste man mal benchen, ob sich da was getan hat.

PrefoX
2011-03-13, 20:10:25
DrillSarge du hast eindeutig recht : )

wird auch an der tripplecore xbox360 cpu liegen und 3 core support reicht auch eigentlich gut aus.
welche engine nutzt schon 4 sehr gut...

dargo
2011-03-13, 20:15:56
welche engine nutzt schon 4 sehr gut...
Framework MT von Capcom.

daywalker4536
2011-03-13, 20:21:38
Ich nochmal. Ein CPU limit lässt sich sehr gut an der Auslastung erkennen. Wenn auf allen genutzten Kernen eine geringen Auslastung anliegt kann man von einem GPU Limit sprechen. So wie es in diesem Bench der fall ist ^^. Die CPU dreht däumchen und die GPU ist am verdampfen hehe.

dargo
2011-03-13, 20:25:19
Ein CPU limit lässt sich sehr gut an der Auslastung erkennen. Wenn auf allen genutzten Kernen eine geringen Auslastung anliegt kann man von einem GPU Limit sprechen.
Nein, nicht unbedigt.

daywalker4536
2011-03-13, 20:28:02
Nein, nicht unbedigt.

Erzähl ^^

dargo
2011-03-13, 20:43:23
Erzähl ^^
Ich dachte ich hätte das schon erklärt? Also nochmal.

Dein Taskmanager zeigt dir bei 4 Cores jeweils eine CPU-Last von sagen wir mal 40% an weil der Windows-Sheduler die Last der Anwendung gleichmäßig auf 4 Cores verteilt. Tatsächlich hast du aber nur 2x 80%, 90/70%, 95/65% oder, oder. Lass dich nicht vom Taskmanager in die Irre führen. Der TM ist kein genauer Indikator um die Lasten zu bestimmen. Das kann man nur mit Benchmarks feststellen.

Edit:
Kann man diesen häßlichen Grain-Effekt abschalten? Ich finde den furchtbar. Die Performance dieser Timedemo ist für das gezeigte Material ein schlechter Witz. :ugly:

EL_Mariachi
2011-03-14, 00:54:53
Q6600 @ 3333 Mhz
GTX 580


DX11 720p no/AA

min= 3.68 avg= 24.29 max= 87.07


DX11 1080p no/AA

min= 5.75 avg= 11.49 max= 41.33




.

Grey
2011-03-14, 23:12:31
Edit:
Kann man diesen häßlichen Grain-Effekt abschalten? Ich finde den furchtbar. Die Performance dieser Timedemo ist für das gezeigte Material ein schlechter Witz. :ugly:

"Imagegrain" ist der Befehl


Es ist auch keine "Timedemo" zu der sie hier missbraucht wird, sondern eine Technologie-Demo zum auseinander nehmen.

daywalker4536
2011-03-15, 12:19:35
Ich dachte ich hätte das schon erklärt? Also nochmal.

Dein Taskmanager zeigt dir bei 4 Cores jeweils eine CPU-Last von sagen wir mal 40% an weil der Windows-Sheduler die Last der Anwendung gleichmäßig auf 4 Cores verteilt. Tatsächlich hast du aber nur 2x 80%, 90/70%, 95/65% oder, oder. Lass dich nicht vom Taskmanager in die Irre führen. Der TM ist kein genauer Indikator um die Lasten zu bestimmen. Das kann man nur mit Benchmarks feststellen.:

Verstehe ich nicht ganz. Bezogen auf einen DC?. Du verteilst alles auf einen DC. Muss es nicht eher 4 x 40 / 4 = 40% Auslastung eines QC. In deinem Fall wäre ein DC zu 80% ausgelastet. Also logischerweise das doppelte einen QC.

Anderes Beispiel:

Kern 1 = 74%
Kern 2 = 93%
Kern 3 = 62%
Kern 4 = 88%

= 317 / 4 = 79,25% Auslasung insgesamt

@Grey
Man kann alles Benchen ^^

Die Grafikfehler unter DX9 bei mir kommen durchs DOF. Die meiste Leistung fressen die dynamischen Schatten und das DOF. Es ist einfach zuviel Content in der Map was Schatten wirft.

Saugbär
2011-03-17, 13:40:03
Habe auch Schattenfehler unter DX9 aber nur bei den Blumen in der 2ten Scene, wenn herangezoomt wird.

daywalker4536
2011-03-17, 14:23:59
Ich habe jetzt mal den 267.59 installiert und die Fehler sind alle weg. Der bringt auch mehr fps ^^.

Saugbär
2011-03-17, 16:50:41
Ich habe jetzt mal den 267.59 installiert und die Fehler sind alle weg. Der bringt auch mehr fps ^^.
Tatsächlich, unter DX9 sind die Bildfehler weg, hatte vorher den 266.58.
Unter DX11 sind die Minframes überall um ca 10% gestiegen, avg ist in etwa gleichgeblieben und die Maxframes stiegen nur in den niedrigen Auflösungen.
Unter DX9 bleiben die Minframes fast wie festgenagelt bei 4 FPS stehen, egal welche Auflösung man testet. Die Avgframes sind niedriger.

dargo
2011-03-17, 17:21:29
Verstehe ich nicht ganz. Bezogen auf einen DC?.
Auf die Anwendung.

Hättest du einen echten Acht-Kerner könnte Windows genauso gut aus den 4x 40% 8x 20% machen. Ist es dann eine Achtkernanwendung? Nein.

IchoTolot
2011-07-03, 16:35:44
Kann jemand den Benchmark nochmal uppen? Der Link ist ja leider nicht mehr gültig. :-(