PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : cycles render benchmark CPU/GPU


nutel
2014-08-30, 12:41:35
habe einen kleinen benchmark gebaut - wer lust hat... :)

http://picload.org/image/cglcrwi/sss_bench.jpg

blender hier downloaden https://builder.blender.org/download/
muss nicht installiert werden - einfach entpacken und "blender" starten! :)

bitte kein blender < 2.71.6 benutzen

hier gibt es die blender "version" und die revision (auf das blender symbol klicken)

http://picload.org/image/cglclra/screenshotfrom2014-08-30145504.png

1. Final render resolution is 759 x 864 (bitte nicht die auflösung ändern - 759 x 864 ist die finale auflösung und soll nur zur berechnung er tile size helfen!)
2. Change tile size and/or order
3. F12
4. Post results (copy below)

Example:

OS: Ubuntu 14.04 64Bit
Blender: 2.71.6
Build: Buildbot (Own, Buildbot, official, ...)
Revision: f823ea1

CPU: i7-4930K 4.5GHZ
Tiles: 16x16
Optimization: -
Time: 08:29.85

GPU: 630GT 1GB - not supported
Tiles: -
Optimization: -
Time: -

File & Results (https://docs.google.com/spreadsheets/d/1MK6sTeV9Xkn-xWgwSREs6DgebzuztuVsW9iugOnF69A/edit?pli=1#gid=0)

http://picload.org/image/cglcdgw/screenshotfrom2014-08-30123836.png

-> auf cuda stellen um per gpu zu rendern
-> ich denke es werden mind. 2gb vram benötigt - kanns nicht testen da ich nur 1gb habe und es läuft damit nicht :)

für gpu rendering große tile size benutzen ~ 250x250 zb
für cpu sind kleine tiles besser - 16x16 ist meistens ok :)

Maorga
2014-08-30, 13:26:35
OS: Windows 7 Pro
Blender: 2.71.6
Build: official
Revision: 526ae63

CPU: i5-3570K 4.0GHZ
Tiles: 8x8
Optimization: -
Time: 05:25.16

GPU: GTX 670 Core 1202 MHz Speicher bei
Optimization: -
Tiles: 8x8
Time: 08:29.76
Tiles: 128x128
Time: 3:03.24
Tiles: 256x256
Time: 02:37.60
Tiles: 312x128
Time: 02:34:76
Tiles: 312x312
Time: 02:28.07

Also Blender gibt mir einen Memorypeak von 512.50M wüßte nicht warum es mit einer 1GB Garte nicht laufen sollte. - Okay die Speicherauslastung liegt bei knapp 1.5 GB der Graka

Edit: Ja ich werde mal nichts an den Render resolution ändern, sondern so lassen wie sie ist und dann die Ergebnisse posten.

nutel
2014-08-30, 13:34:13
mem peak ist nicht der ganze speicher - checks einfach mal im task manager :)

irgendwas stimmt bei dir nicht - deine zeiten sind zu gut ;)

bitte nichts ändern in der file außer "compute device" und "tiles order/size"
bitte kein blender 2.69 benutzen
bitte buildbot build nehmen wegen aktualität und gpu subsurface scattering (ist erst seit paar tagen drin)

Seth
2014-08-30, 14:41:43
OS: Windows 8.1 64Bit
Blender: 2.71.6
Build: Buildbot
Revision: 526ae63

CPU: i7-4770K 4.4GHZ
Tiles: 16x16
Optimization: -
Time: 02:54.96 11:16:39

nutel
2014-08-30, 15:04:19
ok seth sehr interessant :)

kannst du bitte das bild speichern und hochladen? (f3 = speichern)

deine zeit ist mehr als doppelt so gut wie die meines 4.5ghz 6 core mit optimierten cycles - würds nur gern nochmal checken :)

Seth
2014-08-30, 16:13:35
Ok Zeit stimmt nicht. Hatte bei Resolution 759 x 864 eingetragen ;-)
Richtiges Ergebnis ist: 11:16:39

nutel
2014-08-30, 16:16:06
ok danke :) ich werde die blend noch fixen die auflösung sollte eigentlich ne hilfe sein seine tiles zu berechnen ^^... verwirrt aber nur

11 minuten ist trotzdem ein sehr gute zeit :)

edit: so bist drin :)

Maorga
2014-08-30, 17:26:47
OS: Windows 7 SP1 Pro
Blender: 2.71.6
Build: official
Revision: 526ae63

CPU: Intel Xeon E5-2607 v2 @ 3.0 GHz
Tiles: 8x8
Optimization: -
Time: 29:11.22
Tiles: 16x16
Time: 28:52.09

Würd' nicht all zu viel auf die paar Sekunden geben, das System war beim ersten Durchlauf nicht ganz im Leerlauf.

nutel
2014-08-30, 17:41:29
was ist denn das für eine cpu =)? quad mit 3 ghz ohne hyperthreading?

soll ich dich eintragen oder willst du nochmal mit 16x16 probieren :)?

Maorga
2014-08-30, 18:10:31
16x16 ist nicht schneller als 8x8 zumindest bei dieser CPU nicht, ja ist ein Quadcore 'Ivy Bridge' ohne HT mit 10MB L3 Cache und mit 3.0 GHz. Du darfst mich gerne eintragen.
Mein System mit dem i3570K wird erst morgen geplagt ;)

nutel
2014-08-30, 18:17:49
danke für die infos - google rückt nicht so viel über das model raus :)

hast dir (im moment) den vorletzten platz gesichert ;)

Air Force One
2014-08-30, 18:42:37
ok gefunden...

Gebrechlichkeit
2014-08-30, 19:42:37
1080p

S: WIN7 SP1 64bit
Blender: 2.71.6
Build: Buildbot (Own, Buildbot, official, ...)
Revision: 526ae63

CPU: i5-4670K 3.4-3.8GHZ
Tiles: 16x16
Optimization: -
Time: 20:30.10

http://saved.im/mtcxmdq5zhqw/12.jpg

--------------------
--------------------

759 x 864

S: WIN7 SP1 64bit
Blender: 2.71.6
Build: Buildbot (Own, Buildbot, official, ...)
Revision: 526ae63

CPU: i5-4670K 3.4-3.8GHZ
Tiles: 16x16
Optimization: -
Time: 05:06.44

http://saved.im/mtcxmduwdgg2/cycles_sss_bench_pre272blend.png

nutel
2014-08-30, 19:50:04
danke gebrechlickeit - bist drin! :)

bitte nicht die auflösung verändern :)

es ist 1920*1080 eingestellt und nur der rote auschnitt + 80% davon werden gerendert ;)

http://picload.org/image/cgliagp/screenshotfrom2014-08-30195341.png

das schwarze rechteck ist die kamera: auflösung 1920*1080
die gestrichelte rote linie wird später gerendert: auflösung 949*1080
davon aber nur 80% -> 759 x 864 :)

Maorga
2014-08-30, 20:44:14
OS: Windows 7 SP1 Pro
Blender: 2.71.6
Build: official
Revision: 526ae63

CPU: Intel Xeon E5-2607 v2 @ 3.0 GHz

GPU nVidia Quadro K600
Optimization: -
Tiles: 32x32
Time: 01:30:33.17

^Damit sichert man sich bestimmt den letzten Platz ;)

nutel
2014-08-30, 20:50:38
Damit sichert man sich bestimmt den letzten Platz ;)
hehe ;) dann warte mal auf meine 1.6ghz dual core amd zbox :freak: (ist leider grad bei meinen eltern)

interessant das du mit 1GB rendern konntest :eek:

BeetleatWar1977
2014-08-30, 21:01:06
so - hier wieder mal der Aussenseiter^^


OS: Win7 SP1 32bit
Blender: 2.71.6
Build: Buildbot
Revision: 526ae63

CPU: Q8400S @ 3.8Ghz
Tiles: 16x16
Optimization: -
Time: 34:23:33

GPU: GTX 670 4GB @ Stock
Tiles: 253x432
Optimization: -
Time: 10:11:04

kunibätt
2014-08-30, 21:30:58
OS: Linux 64
Blender:2.71.6
Build: Own
Revision: ec76d47

CPU:2600K@stock
Tiles:16X16
Optimisation: -O2 -march=native
Time: 15:26:08

nutel
2014-08-30, 22:18:56
werde euch beide gleich eintragen!

kunibätt - interessant ein selbstbauer :)

welche linux distribution - und nur aus neugier welcher compiler (mit version)?

edit: beetleat der erste 32bit'er ;)

BeetleatWar1977
2014-08-30, 22:58:21
werde euch beide gleich eintragen!

edit: beetleat der erste 32bit'er ;)

Ich sagte doch Aussenseiter! :biggrin:


Edit: ich versuche mal einen Optimierten Build zu compilieren - wenn ich es hinbekomme......

nutel
2014-08-30, 23:11:35
unter windows? ich glaub das kannste knicken - falls es dir doch gelingt sag bescheid!

kunibätt
2014-08-30, 23:13:28
Ist Lubuntu 14.04. Gefällt mir irgendwie- fühlt sich von einer HDD schneller an als WIn7 von der SSD. GGC in ist in der Version 4.8.

BeetleatWar1977
2014-08-30, 23:19:23
unter windows? ich glaub das kannste knicken - falls es dir doch gelingt sag bescheid!
Werd ich tun - und natürlich die Files im Erfolgsfall irgendwo uppen.....


Edit: Sourcefiles geladen - dann erstmal den Compiler einrichten.....

Edit2: Compile läuft - und dann mal gucken das ich eine Lauffähige mit SSE4.1 hinbekomme ;)

Edit3: 11:27 - der Kopf raucht..... fehlten natürlich erstmal Librarys....... manuel nach installieren *gnarf*

HisN
2014-08-31, 01:31:26
OS: Win7 SP1 64Bit
Blender: 2.71.6
Build: Buildbot
Revision: 526ae63

CPU: i7-3930K 4.2GHZ
Tiles: 16x16
Optimization: -
Time: 09:49.00

GPU: GTX Titan Black 6GB
Tiles: 253x432
Optimization: -
Time: 05:15:90

GPU: GTX 750 TI 2GB
Tiles: 253x144
Optimization: -
Time:

GPU: GTX 750 TI 2GB + GTX Titan Black 6GB
Tiles: 253x72
Optimization: -
Time: 05:27:96


GPU: GTX Titan Black 6GB @ DP
Tiles: -
Optimization: -
Time:

Die Titan zeigt im ersten Durchlauf übrigens 2665MB benutztes VRAM an.
Bei der 750 muss ich mehr Tiles rechnen, weil sonst die 2GB VRAM nicht ausreichen.

Maorga
2014-08-31, 01:40:55
Kann sein, dass der V-Ram verbrauch mit der Tilegröße zunimmt, deswegen musste ich ja auf 32x32 Tilegröße bei der Quadro gehen die hatte ja auch nur 1GB und selbst da schmierte der Treiber mit einer OGl Fehler ab.

HisN
2014-08-31, 02:16:05
Würde ich auch tippen. Die Titan schafft übrigens kein 759x864, da schmiert der Treiber ab.

Maorga
2014-08-31, 02:47:44
OS: Windows 7 SP1 Pro
Blender: 2.71.6
Build: official
Revision: 526ae63

CPU: Intel i3570K @ 4.0 GHz

GPU nVidia GTX 670 @1202 MHz
Optimization: -
Tiles: 128x128
Time: 10:30.96

Ronny G.
2014-08-31, 10:33:44
Also ich bin bis jetzt nicht dahinter gestiegen wie ich den Bench starte, die Anleitung ist für Leute die sich mit dem Programm nicht auskenne einfach viel zu dünne beschrieben ...wir sind schließlich alle nen START BUTTON gewohnt :-D

BeetleatWar1977
2014-08-31, 11:00:31
Also ich bin bis jetzt nicht dahinter gestiegen wie ich den Bench starte, die Anleitung ist für Leute die sich mit dem Programm nicht auskenne einfach viel zu dünne beschrieben ...wir sind schließlich alle nen START BUTTON gewohnt :-D
Erst Blender starten, dann über File/open die Datei öffnen.

Mit F12 startest du den Bench.

Ronny G.
2014-08-31, 11:12:26
Erst Blender starten, dann über File/open die Datei öffnen.

Mit F12 startest du den Bench.

welche Datei öffnen?

Maorga
2014-08-31, 11:13:11
Aber zuerst noch den File herunterladen ;D

wußte das es passiert :)

https://www.google.com/url?q=https%3A%2F%2Fwww.dropbox.com%2Fs%2Fz2s9wtnpfofvyrq%2Fcycles_sss_bench_pre 272.blend%3Fdl%3D0


OS: Windows 7 SP1 Pro
Blender: 2.71.6
Build: official
Revision: 526ae63

CPU: Intel i3570K @ 4.0 GHz
Optimization: -
Tiles: 8x8
Time: 21:31.70
Tiles: 16x16
Time: 21:40.12

Ronny G.
2014-08-31, 11:34:41
Aber zuerst noch den File herunterladen ;D

wußte das es passiert :)

https://www.google.com/url?q=https%3A%2F%2Fwww.dropbox.com%2Fs%2Fz2s9wtnpfofvyrq%2Fcycles_sss_bench_pre 272.blend%3Fdl%3D0


OS: Windows 7 SP1 Pro
Blender: 2.71.6
Build: official
Revision: 526ae63

CPU: Intel i3570K @ 4.0 GHz
Optimization: -
Tiles: 8x8
Time: 21:31.70

was wusstest du, das mal einer nachfragt wie der Spaß überhaupt funktioniert ? :-D ...das mit dem File hier war im Eingangpost garnicht so erkenntlich gewesen. :wink:

Maorga
2014-08-31, 11:48:19
das 'wußte das es passiert' habe ich später nach deinem Post bzw. nachdem ich es gelessen habe noch hineingezaubert :) wir haben ja fast zeitgleich geschrieben.

nutel
2014-08-31, 12:22:44
so werde alle neuen ergebnisse gleich eintragen :) - hoffe es findet sich noch jemand mit einem dual cpu setup (~50-60ghz total) um die cpu flagge etwas hochzuhalten :D

ronny g ist jetzt alles klar oder soll ich noch eine kurze genauere anleitung in den eingangspost packen?

@ hisn was genau ist mit "titan @ dp" gemeint? warum rendert es nicht?

HisN
2014-08-31, 12:45:55
Ich hab Wochenend-Dienst und nicht so viel Zeit um alle Durchläufe zu schaffen, sitze also schon wieder auf der Arbeit rum.
Ich wollte schauen ob es Unterschiede macht wenn ich die Titan auf double precision schalte.

Schrotti
2014-08-31, 12:54:58
Ich bekomme das Programm nicht einmal zum starten.

Windows 8.1

BeetleatWar1977
2014-08-31, 13:03:07
so - hier wieder mal der Aussenseiter^^


OS: Win7 SP1 32bit
Blender: 2.71.6
Build: Buildbot
Revision: 526ae63

CPU: Q8400S @ 3.8Ghz
Tiles: 16x16
Optimization: -
Time: 34:23:33

GPU: GTX 670 4GB @ Stock
Tiles: 253x432
Optimization: -
Time: 10:11:04
Update:

GPU: GTX 670 4GB @ Stock
Tiles: 759x864
Optimization: -
Time: 9:59:96

Edit: Vram-usage 1780MB


Compiler läuft noch :freak:

nutel
2014-08-31, 13:03:33
@ hisn deine durchläufe reichen schon ;) wollte nur ein paar informationen (habe keine ahnung von gpu zeug ;))

@ schrotti mal kurz nach "0xc00007b" googeln? :)

Maorga
2014-08-31, 13:05:55
Versuch doch mal die normale Blender.exe

HisN
2014-08-31, 13:10:10
@ hisn deine durchläufe reichen schon ;) wollte nur ein paar informationen (habe keine ahnung von gpu zeug ;))


Alles klar,
was ich übrigens sehr lustig fand ...

dass der Durchlauf mit Titan + 750TI LANGSAMER läuft als wenn man die Titan alleine rechnen lässt.

BeetleatWar1977
2014-08-31, 13:12:54
Alles klar,
was ich übrigens sehr lustig fand ...

dass der Durchlauf mit Titan + 750TI LANGSAMER läuft als wenn man die Titan alleine rechnen lässt.
Da musst du die passende Tilegröße finden.....

nutel
2014-08-31, 13:18:52
die 750ti zieht die titan immer runter...
wenn du mit blender/cycles arbeiten würdest wäre dein setup gut für:

750ti fürs display
titan zum rendern

bei beiden karten wird die 750 immer limitieren entweder durch kleine tile size (titan mag große) oder durch große tile size (titan muss dann auf die 750ti warten)

nutel
2014-08-31, 19:50:40
wollte den benchmark mal bei CB posten und wurde doch glatt wegen "werbespam" gesperrt :eek:

Air Force One
2014-08-31, 20:03:44
Ist halt ein Kinderforum da.

HisN
2014-08-31, 22:27:13
Da wird wahrscheinlich auch kaum einer mitmachen. Da zählen nur 3DM-Punkte, nix anderes läuft da an Benches.

Hobby
2014-09-01, 09:37:45
wollte den benchmark mal bei CB posten und wurde doch glatt wegen "werbespam" gesperrt :eek:

Da kam man mir auch einmal so albern, dass ich mich zurückgezogen habe!

-----------------

Andere Frage als Unwissender. Bekomme den Bench auf meinem AMD-System - HIS 7850 - 2 GB / FX 6300 / WIN 7 64 - ans Laufen. Natürlich berechnet der nur über die CPU, da kein CUDA.

Kann man den Bench auch irgendwie über OpenCL ans Laufen bekommen?

thx

nutel
2014-09-01, 12:29:31
man kann per opencl rendern aber...

1. nicht offiziell unterstützt (besonders wegen amd...)
2. buggy buggy buggy ;)
3. subsurface scattering scheint damit nicht zu gehen (habs eben mit nvidia opencl probiert)

du kannst es aber mal probieren

1. lade dir blender runter
2. gehe in den blender ordner ../2.71/scripts/addons/cycles/kernel und öffne die datei "kernel_types.h"
3. in der zeile 103 sollte stehen "#ifdef __KERNEL_OPENCL_AMD__" dort drunter kopierst du "#define __SUBSURFACE__" ohne "" - dann speichern
4. eine konsole aufmachen und in den blender ordner navigieren und folgendes eingeben: CYCLES_OPENCL_TEST=all ./blender

ist jedenfalls bei linux so bin nicht sicher ob man unter windows die programme auch so startet

5. bei den user preferences sollte dann neben cuda (hast ja kein nvidia ;)) cpu opencl auftauchen ;)

Hobby
2014-09-01, 13:19:47
4. eine konsole aufmachen und in den blender ordner navigieren und folgendes eingeben: CYCLES_OPENCL_TEST=all ./blender

ist jedenfalls bei linux so bin nicht sicher ob man unter windows die programme auch so startet

5. bei den user preferences sollte dann neben cuda opencl auftauchen

thx

Funktioniert mit einer kleinen Anpassung unter WIN 7 64

set CYCLES_OPENCL_TEST=all ./blender

Werde gleich mal testen. Mal sehen, was dabei herauskommt!

----------------

Nachtrag 1:
(!) event has invalid window
Error: Not freed memory blocks: 2

Der Bench startet nicht. Oben stehende Meldungen erscheinen in der Konsole nachdem ich beende.

nutel
2014-09-01, 13:36:15
probier am besten mal mit einer einfache file (standard cube zb - blender neustarten oder strg+n drücken)

aber ich glaube der aufwand lohnt nicht - opencl in verbindung mit amd kannst du total vergessen

edit: der fehler klingt aber nicht nach einem opencl fehler

es muss zuerst ein kernel kompiliert werden 8sieht man im render fenster) daran scheitert amds kompiler oft

Hobby
2014-09-01, 14:18:26
probier am besten mal mit einer einfache file (standard cube zb - blender neustarten oder strg+n drücken)

aber ich glaube der aufwand lohnt nicht - opencl in verbindung mit amd kannst du total vergessen

edit: der fehler klingt aber nicht nach einem opencl fehler

es muss zuerst ein kernel kompiliert werden 8sieht man im render fenster) daran scheitert amds kompiler oft

Danke - ich werde mal weiter "rumfrickeln".:biggrin:

BeetleatWar1977
2014-09-01, 15:20:56
probier am besten mal mit einer einfache file (standard cube zb - blender neustarten oder strg+n drücken)

aber ich glaube der aufwand lohnt nicht - opencl in verbindung mit amd kannst du total vergessen

edit: der fehler klingt aber nicht nach einem opencl fehler

es muss zuerst ein kernel kompiliert werden 8sieht man im render fenster) daran scheitert amds kompiler oft
appropo - Compiler ist bei 95% :freak:
welche Module brauch ich um nicht zu bescheißen? Bullet? Freestyle? oder egal?

Hobby
2014-09-01, 15:37:33
So - fertig "gefrickelt".

Der empfohlene Eintrag in der Datei - "kernel_types.h" - wird auf meinem System nicht benötigt

Es reicht hier über die Konsole in das "dir" von "Blender" zu gehen und dort
set CYCLES_OPENCL_TEST=all ./blender
einzugeben


Läuft einwandfrei durch. Unten das Ergebnis als Bild. Sieht gerendert nur etwas anders aus als bei "nutel" im Eingangspost.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10332599#post10332599

Werte = CPU und GPU -------> 4:48.64 / Habe die Testdatei nur aufgerufen und durchlaufen lassen!
Werte = nur GPU-Pitcaim ----> 9:19.51 / "
Werte = nur CPU ------------> 28:01.00 / "

System:
AMD HIS 7850 - 2 GB / AMD FX 6300 - 4200 Mhz / 16 GB Mem / WIN 7 64 Pro

Wo stellt man die "tile size" ein? Bin am suchen ...

Nachtrag 1:
Lasse den Testbench gerade nur mit der CPU laufen. Wird wohl ein wenig dauern. Was aber schon zu erkennen ist = nur mit der CPU sieht das Bild so aus wie im Eingangspost von "nutel".

Nachtrag 2:
Ich kannte "Blender" bisher nur vom Namen. Interessant finde ich die beiden Bilder. Beide sehen wie Originale aus. Ich denke, dass das Bild von "nutel" das Original ist. Was die "AMD-GPU" daraus "hochglänzend" macht, sieht aber IMO auch nicht schlecht aus.

BeetleatWar1977
2014-09-01, 21:08:13
zur Info: ein eigener 32bit Build mit SSE2 läuft genauso schnell wie die zum Download angebotene - Compile mit SSE4.1 läuft gerade.....

nutel
2014-09-01, 21:09:53
appropo - Compiler ist bei 95% :freak:
welche Module brauch ich um nicht zu bescheißen? Bullet? Freestyle? oder egal?

ist egal kannst alles ausmachen wenn du willst

erstmal glückwunsch das du überhaupt etwas ohne artefakte per opencl rendern konntest :biggrin:

aber..

Der empfohlene Eintrag in der Datei - "kernel_types.h" - wird auf meinem System nicht benötigt

der eintrag ist nicht nötig um per opencl zu rendern das stimmt aber er ist nötig für den benchmark

es ist zu 90% ein SUBSURFACE SCATTERING (http://de.wikipedia.org/wiki/Volumenstreuung) benchmark und ohne #define __SUBSURFACE__ renderst du kein sss (=abkürzung) :wink:

tiles stellt man hier ein

http://picload.org/image/cgcocwi/screenshotfrom2014-09-01211255.png

was meinst du denn mit "originale"?

edit: sse wird automatisch benutzt wenn es die cpu unterstützt - du musst wenn dann andere optis verwenden
es gibt nocht einen (wenns die cpu unterstüzt) avx2 kernel

Hobby
2014-09-01, 21:20:44
@nutel.

Danke - du erleuchtest mich :biggrin:

Jetzt gehe ich die ganze Geschichte mit noch mehr "Fachwissen" an ;)

Stichwort "Originale":

Vielleicht ist das falsch ausgedrückt, da ich ich mich dem "Blender-Programm" nicht auskenne. Anders gefragt:

Was gibt dein Bild im Eingangspost wieder und was gibt das von mir mit GPU-Rendering erstellte Bild wieder? Wodurch kommt der Unterschied im Bild zustande?

nutel
2014-09-01, 21:39:12
achso :) ja meins ist die referenz - wenn ein render anders aussieht zählt er nicht!

deins sieht per gpu anders aus weil opencl in cycles nicht komplett/buggy (amd) ist ;)

BeetleatWar1977
2014-09-02, 07:40:42
*Update

OS: Win7 SP1 32bit
Blender: 2.71.6
Build: Own
Revision: 526ae63

CPU: Q8400S @ 3.8Ghz
Tiles: 16x16
Optimization: /Ox /arch:SSE2
Time: 32:41:44

mal gucken ob ich noch was rauskitzeln kann......

Edit: ups - war sogar nur ein SSE2 - Build......

Wildfoot
2014-09-04, 16:30:00
So, jetzt habe ich es auchnoch geschafft:

OS: Win7 Ultimate 64bit SP1
Blender: 2.71.6
Build: -
Revision: c5a2c08

CPU: 2x Intel Xeon E5-2687W v2 @all Core Turbo mit 3.6GHz
Tiles: 16x16
Optimization: -
Time: 04:10.70

Gruss Wildfoot

Wildfoot
2014-09-04, 16:41:36
Und mit

Tiles: 8x8
Time: 04:07.98

Gruss

nutel
2014-09-04, 16:58:29
danke - hab die 8x8 zeit eingetragen :)

BeetleatWar1977
2014-09-05, 05:48:43
*Update

OS: Win7 SP1 32bit
Blender: 2.71.6
Build: Own
Revision: 526ae63

CPU: Q8400S @ 3.8Ghz
Tiles: 16x16
Optimization: /Ox /arch:SSE2
Time: 32:41:44

mal gucken ob ich noch was rauskitzeln kann......

Edit: ups - war sogar nur ein SSE2 - Build......

New Time: 32:36:60

weniger geht anscheinend nicht.....

hat mal jemand Spaßeshalber 32 gegen 64bit getestet?

hab die Build mal geuppt: https://dl.dropboxusercontent.com/u/5147038/blender-2.71-526ae63-win32-optimised-build-wo-osl.7z

nutel
2014-09-05, 17:39:01
32bit hat wohl kaum noch jemand :freak:

was hast du denn jetzt noch geändert um die 5 sekunden rauszuholen?

werde noch ne zeit von dir nachtragen :)

BeetleatWar1977
2014-09-05, 19:08:20
32bit hat wohl kaum noch jemand :freak:

was hast du denn jetzt noch geändert um die 5 sekunden rauszuholen?

werde noch ne zeit von dir nachtragen :)
nur Kompileroptionen - ich schau mir am WE mal den Quellcode an - vielleicht kann ich noch was für mein System anpassen......


Edit: ist doch unproblematisch unter Win schnell eine 32bit Build zu ziehen und mal durchzubenchen......

nutel
2014-09-05, 19:44:03
nur Kompileroptionen - ich schau mir am WE mal den Quellcode an - vielleicht kann ich noch was für mein System anpassen......

ja welche option - ich liste die mit auf :)

optimierst du nur cycles?
welchen compiler benutzt du denn?
mingw soll am schnellsten sein :)

Edit: ist doch unproblematisch unter Win schnell eine 32bit Build zu ziehen und mal durchzubenchen......

ok da hab ich aber schon anderes gehört ;) leider nutzen nicht mehr viele 32bit - zeit zum updaten beetleat! :D

BeetleatWar1977
2014-09-05, 21:15:21
ja welche option - ich liste die mit auf :)

optimierst du nur cycles?
welchen compiler benutzt du denn?
mingw soll am schnellsten sein :)



ok da hab ich aber schon anderes gehört ;) leider nutzen nicht mehr viele 32bit - zeit zum updaten beetleat! :D
uff - mom..... muss gucken.....

/Ox /arch:SSE2 /Ot /fp:fast /Gy /Qpar /Oi

für alle....

momentan VS 2013 - mingw meckert beim compilieren - da muss ich erst noch durchstöbern......

nutel
2014-09-05, 21:26:20
cycles sollte automatisch sse (usw) benutzen

/fp:fast und /GS- scheinen schon für die normalen build benutzt zu werden - sagt mir meine cmake datei

wenn du optimierst solltest du am ende auch die bilder vergleichen - gibt manchmal schön überraschungen ;)

BeetleatWar1977
2014-09-05, 21:35:24
cycles sollte automatisch sse (usw) benutzen

/fp:fast und /GS- scheinen schon für die normalen build benutzt zu werden - sagt mir meine cmake datei

wenn du optimierst solltest du am ende auch die bilder vergleichen - gibt manchmal schön überraschungen ;)
Bild passt - keine Angst.... und /fp:fast ist nicht für alle Teile gesetzt wenn du einzelnen Projectfiles checkst ;)

momentan bin ich das Intel OpenCL-SDK am einbinden - dann versuch ich mal einen compile mit OpenCL....


btw. ein Problem mit 32bit: ich kann die Cudafiles nicht neu compilieren - braucht über 3GB RAM - bei 3GB schmeisst es ihn dann :D

nutel
2014-09-06, 00:03:14
für das cuda zeug brauchst du mind. 8gb...

und du musst nicht blender optimieren sondern nur cycles :)

BeetleatWar1977
2014-09-06, 12:54:57
für das cuda zeug brauchst du mind. 8gb...

und du musst nicht blender optimieren sondern nur cycles :)
Cuda geht jetzt - alles eine Frage der richtigen Parameter - aber die Performance ist natürlich dieselbe.


Edit: Spiele gerade mit mingw rum - man(n) ist der zickig.......


Edit2: jetzt kompiliert er - seit 14(!) Stunden :freak:

Edit3: 24 Stunden voll - aktueller Stand 42%...... und ja er macht noch weiter.......

Maorga
2014-09-27, 17:53:52
Solange ich das Schlusslicht anführe ist der Benchmark echt gut. Mal schauen wie gut Blender sich dann mit einer 970er schlägt.

nutel
2014-10-02, 13:51:55
du wurdest verdrängt maorga :D:D
interessant wäre nen 8 core haswell benchmark - am besten mit linux und > 4GHZ :smile:

der sollte eine 980er stehen lassen :)

BeetleatWar1977
2014-10-02, 20:31:25
:eek:

*Update

OS: Win10 Preview 64bit
Blender: 2.71.6 - x86
Build: Buildbot
Revision: 526ae63

CPU: Q8400S @ 3.8Ghz
Tiles: 16x16
Optimization: keine
Time: 31:37:22


OS: Win10 Preview 64bit
Blender: 2.71.6 -64bit
Build: Buildbot

CPU: Q8400S @ 3.8Ghz
Tiles: 16x16
Optimization: keine
Time: 29:07:04

nutel
2014-10-03, 09:48:46
beetleat ist jetzt cutting edge und nutzt 64bit =)?

was hast du getan - nur auf win 10 gewechselt?

BeetleatWar1977
2014-10-03, 10:16:44
beetleat ist jetzt cutting edge und nutzt 64bit =)?

was hast du getan - nur auf win 10 gewechselt?
Bei fast 3TB Plattenkapazität findet sich schonmal platz für eine zweite Installation...... :biggrin:

Loeschzwerg
2014-11-19, 19:28:56
OS: Win7 Home Premium 64bit SP1
Blender: 2.72
Build: Official
Revision: 19cc516

CPU: Intel Xeon E5 v3 14 Cores @ 2.2Ghz (ES; Tubro bis 2.9GHz)
Tiles: 16x16
Optimization: keine
Time: 00:06:17.98

50357

nutel
2014-11-20, 13:18:45
danke - habs mal eingetragen

ist ein bisschen oc drin? (ein linux hast du nicht zufällig installiert :)?)

Loeschzwerg
2014-11-20, 16:53:12
Zum OCen bin ich noch nicht gekommen, da geht aber sicher noch was.

Linux... das wird es in Zukunft sicher in Form einer VM geben, ob nativ weiß ich noch nicht. Evtl. ein Debian auf einer zweiten SSD.

Loeschzwerg
2014-11-23, 14:33:12
OS: Win7 Home Premium 64bit SP1
Blender: 2.72
Build: Official
Revision: 19cc516

CPU: VIA Quadcore L4700 1.2GHz
Tiles: 16x16
Optimization: keine
Time: 02:07:52.80

50396

Damit mal etwas exotischeres in der Liste steht :)

Wildfoot
2014-11-23, 19:10:08
Hehe, das bringt mich glatt auf eine Idee. Wollen wir damit doch mal meinen P3 füttern. :D

Gruss Wildfoot

Wildfoot
2014-11-23, 19:30:20
Hier vorweg schonmal die Daten zum P3:

Gruss Wildfoot

Wildfoot
2014-11-23, 19:49:52
Hmm...

Unter XP kommt eine Software Exception (0x000001d) an der Stelle 0x005a0070.

Mal sehen, ob ich es unter Knoppix hinbekomme.

Gruss Wildfoot

Wildfoot
2014-11-23, 20:42:47
Also....

Geht leider nicht. Ich weiss nicht warum, aber ich bring den Blender auf dieser Kiste einfach nicht zum Laufen. Schade.

Gruss Wildfoot

kunibätt
2014-11-23, 21:46:42
@Wildfoot: Das wird auch nichts, da der P3 kein SSE2 haben tut.

@nutel:
Wieso ist der Benchmark eigentlich auf branched Pathtracing gestellt?
Ich kriege seit Monaten kein Rendering unter branched hin, dass schneller wäre als stur die Samples unter unified hochzudrehen. Das war doch mal anders?!? Außerdem sehen die Renderings auch irgendwie anders aus.

Wildfoot
2014-11-24, 00:25:40
Ja so. Schade. Hätte der Blender eben auch mit nur SSE umgehen können müssen. ;)

Gruss Wildfoot

kunibätt
2014-11-24, 01:38:27
Das geht (ging jedenfalls XD ). Nur die Renderengine Cycles braucht ohne Cowboytricks mindestens SSE2.

nutel
2014-11-24, 01:42:11
@Wildfoot: Das wird auch nichts, da der P3 kein SSE2 haben tut.

ich glaube man kann auch ohne sse bauen - mal nachfragen


@nutel:
Wieso ist der Benchmark eigentlich auf branched Pathtracing gestellt?
Ich kriege seit Monaten kein Rendering unter branched hin, dass schneller wäre als stur die Samples unter unified hochzudrehen. Das war doch mal anders?!? Außerdem sehen die Renderings auch irgendwie anders aus.

in dem bench gibt es fast nur sss und dof deshalb branched!

branched sieht etwas anders aus als normales path - das ist leider so... (glaub das fällt nur bei glossy auf?)

hast du eine beispiel scene?

Hübie
2014-11-24, 03:42:56
Mal ne Frage: Ist es normal dass die Zeit so springt? Bei mir springt das z.B. von 00:00 auf 01:00 in ca. 15-20 Sekunden :confused: Alle paar Sekunden werden da mehr Sekunden addiert als reell vergangen sind.

nutel
2014-11-24, 12:29:54
Mal ne Frage: Ist es normal dass die Zeit so springt? Bei mir springt das z.B. von 00:00 auf 01:00 in ca. 15-20 Sekunden :confused: Alle paar Sekunden werden da mehr Sekunden addiert als reell vergangen sind.

welche zeit?

es gibt 2 "time" und "remaining"

Hübie
2014-11-24, 14:06:46
Na die vergangene Zeit halt. Aber nach dem zweiten und dritten Durchgang war die wieder normal (hatte beim zweiten auf CUDA gestellt, dann wieder CPU) :confused: :D

Warum ist das mit zwei Grafikkarten so langsam? Code nicht optimiert oder geht das einfach nicht besser? Sorry, aber ich hab vom rendern soviel Ahnung wie ne Kuh vom Fahrrad fahren =)

nutel
2014-11-24, 14:23:13
du musst die tile size anpassen

performance -> tiles -> x,y

die beste größe kann ich dir nicht sagen...am besten mal mit 256x256 starten

Hübie
2014-11-24, 14:31:39
Bei GPU meinst du? Okay werde das testen :) Gibt es da keinen Zusammenhang aus ALUs pro GPC und optimaler Tilesize?

nutel
2014-11-24, 14:34:36
ja für gpu

große tiles für gpu und kleine tiles (16x16 ist oft ok) für cpu
bei der optimalen größe kann ich dir leider nicht helfen - renderselber nur per cpu

Hübie
2014-11-24, 16:26:39
Hm. Auch mit 256 kackt der Treiber ab. Und die Zeit spinnt wieder. Nach 10 Sekunden sagte der 18 Mintuen :freak: Teste später noch mal. Vielleicht muss SLi aus sein.

kunibätt
2014-11-24, 17:10:36
@ nutel
Das meine ich nicht. Z.B. nehme mal deine Benchdatei (sieht übrigens sau gut aus). Wenn man unified rendert, rendert man in dem Bench 576 Samples (also 576 AA (?), 576 Glossy, 576 Diffuse, 576 Shadow, 576 Emission Planes etc.)
Rendert man branched, ist der höchste Einzelwert pro Pass 576 Samples, andere einzelne Pässe kriegen jedoch weniger- eben der Sinn wieso man branched rendert. Trotzdem ist das Bild viel glatter unter branched (dauert auch ca. 3-4x länger), obwohl man eigentlich insgesamt mit weniger samples rendert. Kann man auch gut erkennen, wenn man einzelne Pässe aktiviert und vergleicht. Also entweder habe ich elementare Verständnisprobleme was unter branched geschieht oder da hat sich irgendein Bug eingeschlichen und es werden unter branched mehr Samples gerendert, als man einstellt.
Anders kann ich mir den eklatanten Unterschied in Qualität und Renderzeit nicht erklären. Sieht man auch gut wenn man sich die einzelnen Pässe ausgeben lässt.

@ SLI-Geplagte

SLI sollte man möglichst ausschalten.

Raff
2014-11-24, 19:56:14
@ SLI-Geplagte

SLI sollte man möglichst ausschalten. tunlichst meiden.

Fixed that for you. :biggrin:

AMD FX-8350 @ 3.701 MHz (16x16 Kacheln): 24:11:75 Minuten :ugly:
GTX Titan @ 1.254/3.600 MHz (250x250 Kacheln): 05:21:84 Minuten :up:

MfG,
Raff

kunibätt
2014-11-25, 00:22:57
@Raff

Windows oder Linux?

Raff
2014-11-25, 10:35:16
Ein aufgeräumtes Windows 7 x64. :)

MfG,
Raff

nutel
2014-11-25, 12:06:06
wenn du jetzt noch blender version/build und revision verrätst kann ich dich eintragen raff ;)

Seth
2014-11-25, 18:58:03
Habe auch nochmal mit meiner GTX 970 gebencht.

OS: Windows 8.1 64Bit
Blender: 2.72.2
Build: Buildbot
Revision: 9311a5b

CPU: i7-4770K 4.4GHZ

GPU: GTX970 4GB 1440/2000MHz (Speicher taktet allerdings auf 1500 wärend des benches?!?), 344.80
Tiles: - 256x256
Time: - 9:52.46

Habe mich über die schlechte Zeit gewundert und die Auslastung mitgeloggt.

http://i.imgur.com/kDDVfxJ.gif

Man sieht das die GPU Auslastung am Anfang eines neuen Tiles immer eine Zeit lang 100% beträgt und dann den Rest zwischen 100% und 0% hin und her springt. Irgend etwas limitiert da. Temperatur und TDP sind es nicht. Temperatur ist bei um die 60°C und TDP 50-60%.

Dann habe ich 128x128 versucht. Da habe ich die ganze Zeit volle Auslastung.
Tiles: - 128x128
Time: - 8:38.67

Auch bei 192x192 volle Auslastung und etwas höhere TDP Auslastung als bei 128x128.
Tiles: - 192x192
Time: - 7:34.19

http://i.imgur.com/7los9ZM.gif

Raff
2014-11-26, 08:48:51
Okay, nochmal vollständig. :)

OS: Windows 7 64 Bit
Blender: 2.72.2
Build: Official
Revision: b9d9df9

CPU: FX-8350 @ 3,7 GHz
Tiles: 16x16
Optimization: -
Time: 24:11:75

GPU: GTX Titan @ 1.254/3.600 MHz
Tiles: 250x250
Optimization: -
Time: 05:21:84 Minuten

MfG,
Raff

holzjunge
2014-12-08, 00:40:04
Da ich grade keine Lust habe es in die Tabelle einzutragen.
Hier meine Ergebnisse:

OS: Win7 Ultimate 64Bit
Blender: 2.72b
Build: ???
Revision: 9e963ae

CPU: i7-4770k 3,9GHz
Zeiten der CPU trag ich nicht ein.
Da die so oder so
länger bräuchte.

GPU: EVGA GTX 670 SLI (2x670)
Tiles: 256x256
Optimization: -
Time: 09:57:33 (MM:SS:MS)

Hoffe es ist so richtig eingetragen :D

BeetleatWar1977
2014-12-08, 16:27:17
Da ich grade keine Lust habe es in die Tabelle einzutragen.
Hier meine Ergebnisse:

OS: Win7 Ultimate 64Bit
Blender: 2.72b
Build: ???
Revision: 9e963ae

CPU: i7-4770k 3,9GHz
Zeiten der CPU trag ich nicht ein.
Da die so oder so
länger bräuchte.

GPU: EVGA GTX 670 SLI (2x670)
Tiles: 256x256
Optimization: -
Time: 09:57:33 (MM:SS:MS)

Hoffe es ist so richtig eingetragen :D
Da lief Cuda wohl nur auf einer Karte.......

HisN
2014-12-09, 18:37:50
OS: Win 8.1 64Bit
Blender: 2.72.2
Build: official
Revision: aa91a36

CPU: i7-5960X 4.4GHZ
Tiles: 16x16
Optimization: -
Time: 06:04.68

nutel
2014-12-09, 22:44:44
Da ich grade keine Lust habe es in die Tabelle einzutragen.
Hier meine Ergebnisse:

OS: Win7 Ultimate 64Bit
Blender: 2.72b
Build: ???
Revision: 9e963ae

CPU: i7-4770k 3,9GHz
Zeiten der CPU trag ich nicht ein.
Da die so oder so
länger bräuchte.

GPU: EVGA GTX 670 SLI (2x670)
Tiles: 256x256
Optimization: -
Time: 09:57:33 (MM:SS:MS)

Hoffe es ist so richtig eingetragen :D

wie beetletwar schon gesagt hat sieht ie zeit nach einer karte aus (und es fehlt die speicherangabe :P)
kannst du nochmal ohne sli benchen?


danke hisn - endlich ein 8 core drin!

ein linux hast du nicht auf der platte :)?

HisN
2014-12-09, 23:06:25
doch hab ich. ein Mint. Gegentest mit Linux gefällig?

nutel
2014-12-09, 23:19:14
jo - sollte etwas schneller sein!

noch schneller wenn du blender selber baust (mit zb -O3 -march=native =))

HisN
2014-12-09, 23:42:37
OS: Linux Mint 14.04 64Bit
Blender: 2.72
Build: Official
Revision: 83cbcef

CPU: i7-5960X 4.4GHZ
Tiles: 16x16
Optimization: -
Time: 05:35.19

Uh, das ist wirklich fix. Ein bisschen kommt noch durch den jetzt auf 4Ghz laufenden Cache. Aber das spielt sich eigentlich eher im 5%-Bereich ab.
Und selbst bauen .... in einer ruhigen Minute^

nutel
2014-12-10, 00:01:46
super! :up:

HisN
2014-12-10, 00:41:18
Sorry, noch ein Update.
Ich wollte es einfach wissen. Selbstbau-Blender

OS: Linux Mint 14.04 64Bit
Blender: 2.71
Build: OwnBuild
Revision: 169c95b

CPU: i7-5960X 4.4GHZ
Tiles: 16x16
Optimization: -
Time: 05:11:42

Ich bin leider zu blöd in Linux-Sachen um die Optimierungen anzugeben (keine Ahnung wo). Ich bin schon froh dass ich überhaupt das eigene Build hinbekommen habe.

nutel
2014-12-10, 00:49:40
../blender/intern/cycles/cmakelists.txt

bei

elseif(CMAKE_COMPILER_IS_GNUCC)

set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -ffast-math")

suchen und hinter -ffast-math einfach eintragen

oh aber 2.71 ist für den bench nicht geeignet - es gab einige updates die erst ab 2.71.6 verfügbar sind

HisN
2014-12-10, 01:04:23
Ha, wäre auch zu schön gewesen^^

nutel
2014-12-10, 01:06:44
wie hast du dir denn den source besorgt?

http://wiki.blender.org/index.php/Dev:Doc/Building_Blender/Linux/Ubuntu/CMake

Wildfoot
2014-12-10, 20:12:28
...endlich ein 8 core drin!

Naja, es gibt ja schon länger einen 14 und einen 16 Kerner in der Liste. Schon vergessen? ;)

Gruss Wildfoot

nutel
2014-12-10, 20:14:22
Naja, es gibt ja schon länger einen 14 und einen 16 Kerner in der Liste. Schon vergessen? ;)

Gruss Wildfoot

natürlich nicht ;)

sind aber eher nicht so die "mainstream" cpus =)

Wildfoot
2014-12-10, 20:17:07
natürlich nicht ;)

sind aber eher nicht so die "mainstream" cpus =)

Als solches würde ich aber eine Extreme Edition auch nicht gerade zählen. :wink:

Gruss Wildfoot

Raff
2014-12-11, 22:54:30
OS: Windows 8.1 64 Bit
Blender: 2.72.3
Build: Official
Revision: 83cbcef

CPU: Core i7-5820K @ 3,0 GHz
Tiles: 16x16
Optimization: -
Time: 11:27.39

Kein Vertipper, die CPU läuft hart unterspannt (~0,85 Volt), bin noch beim Austesten. Für nur 3 GHz verdammt schnell, wie ich finde. :)

MfG,
Raff

nutel
2014-12-12, 12:44:39
4.5 ghz oder linux Raff :biggrin: ?

wildfoot wie siehts bei dir mit linux aus? (könntest vll noch enen platz gut machen :biggrin: )

HisN
2014-12-12, 12:55:28
wie hast du dir denn den source besorgt?

http://wiki.blender.org/index.php/Dev:Doc/Building_Blender/Linux/Ubuntu/CMake


Über einen Git-Hub. Die ganzen Abhängigkeiten haben mich fast erschlagen. Ich schau die Tage nochmal danach in einer ruhigen Minute. Zur Zeit bin ich (auch am WE) fest im Job eingespannt.

Aber ich habe den Rechner noch schneller bekommen, müsste also nochmal zulegen können.

nutel
2014-12-12, 13:04:40
Die ganzen Abhängigkeiten haben mich fast erschlagen.

dafür gibt es ein script - alles automatisch

liegt in blender/build_files/build_environment

-> install_deps.sh

Aber ich habe den Rechner noch schneller bekommen, müsste also nochmal zulegen können.

(y)

Wildfoot
2014-12-12, 16:06:29
4.5 ghz oder linux Raff :biggrin: ?

wildfoot wie siehts bei dir mit linux aus? (könntest vll noch enen platz gut machen :biggrin: )

Kein fixes Linux, aber Live-Versionen habe ich zu Hauf. Mal sehen. :)

Gruss Wildfoot

Wildfoot
2014-12-12, 21:10:18
O.K. ich gebs zu, ich bin zu blöd.

Wie genau bringt man dieses Blender Linux-Package zum Laufen?
Ich habe mir das offizielle 64Bit Linux-Package

blender-2.72-19eb700-linux-glibc211-x86_64.tar.bz2

runtergeladen und dann entpackt. Jetzt steht aber in der Readme unter "Installation" folgendes:

"Linux: Unpack the archive, then run the Blender executable."

Öhm... klingt ja simpel, aber klappen tut es dennoch nicht. Wenn ich im Linux File-Manager nun die Blender Datei ausführen will, passiert bei Knoppix garnichts und in Debian fragt er mich nach einem Programm, womit er das ausführen kann.
Toll, also wie oder womit kann/muss ich diese Blender Datei ausführen? So jedenfalls wird das nichts.

Gruss und merci, Wildfoot

nutel
2014-12-12, 22:05:23
öh ja eigentlich ist es so einfach...

kannst du bitte mal ein terminal in dem ordner öffnen und ./blender eingeben und kopieren was für ein fehler kommt?

Wildfoot
2014-12-12, 22:49:00
öh ja eigentlich ist es so einfach...

kannst du bitte mal ein terminal in dem ordner öffnen und ./blender eingeben und kopieren was für ein fehler kommt?

Wird sofort getestet. :wink:

Gruss Wildfoot

Wildfoot
2014-12-12, 23:26:13
Also...

Unter Knoppix 7.2: bash: ./blender: cannot execute binary file
Dabei spielt es keine Rolle, ob man als normalo oder als Root das eingibt.

Dann unter Debian 7.7 sowie auch Linux Mint: Permission Denied
Hier kann ich aber garkeine Root-Rechte bekommen, da mir das Passwort fehlt.

Und zuletzt noch unter OpenSUSE 13: Permission Denied
Hier kann ich zwar Root-Rechte bekommen, der Error aber bleibt der gleiche.

Und was nun?

Gruss Wildfoot

nutel
2014-12-12, 23:46:23
öh das ist einfach keine ausfühbare datei? - komisch

bei ubuntu gibts dafür ne option - rechtsklick - permission- allow executing file as program

wenns das nicht gibt mal den konsolenbefehl dafür suchen... (wenns daran liegen sollte)

Wildfoot
2014-12-13, 00:04:50
Etwas hat mein Kollege schon rausgefunden: Konppix 7.2 ist nicht 64Bit. Die 32Bit Version laesst sich starten, hat aber dennoch Muehe. Ubuntu koennte ich auchnoch ausprobieren.

Mal sehen. Vielleicht gibt es diese Option auch in Debian.

Gruss Wildofot

Wildfoot
2014-12-13, 00:21:06
Uhps, meine Ubuntu-Version ist auch nur 32Bit, und startet garnicht. Hier scheint es noch andere Probleme zu geben. Also fällt Ubuntu momentan flach.

Aber ob wir diesen Benchmark noch hinkriegen oder nicht, ich jedenfalls habe schon wieder eine Menge über Linux gelernt. ;)

Gruss Wildfoot

Wildfoot
2014-12-13, 21:14:41
Also mit Live-Linux wird das wohl nichts, leider.

Gruss Wildfoot

nutel
2015-03-24, 22:19:11
gute nachrichten für amd (gpu) nutzer :)

https://twitter.com/tonroosendaal/status/580392346572972032

es gibt auch schon einen win build wer testen mag

-> http://temp.dingto.org/amd_patch_win64.zip

edit:


Please note, you need to run this build with an environment variable, as usual with OpenCL testing. CYCLES_OPENCL_TEST=all

Ganon
2015-03-24, 22:46:37
gute nachrichten für amd (gpu) nutzer :)

Das sind wahnsinnig gute Nachrichten für alle Nutzer :)

Die CUDA-Implementierung ist alles andere als toll und furchtbar langsam und skaliert auch nicht sonderlich toll über mehrere Grafikkarten.

nutel
2015-03-24, 22:50:35
in einem anderen forum hat jemand getestet cuda vs cl (nicht den bench hier)

BMW bench
GTX 780
OpenCL (DingTo build): 40 seconds
CUDA (2.74 RC2): 30 seconds

aber mal abwarten ist ja noch alles wip

Ganon
2015-03-24, 22:53:58
in einem anderen forum hat jemand getestet cuda vs cl (nicht den bench hier)

aber mal abwarten ist ja noch alles wip

Ja, NVidia und OpenCL ist immer so eine Sache...

Interessanter wären mal mehrere Grafikkarten. Weil gerade mit mehr als 2 Grafikkarten skaliert Cycles unter CUDA sehr schlecht. 4 x Titan ist zwar immer noch am schnellsten, aber nur mit einem Abstand von ein paar Sekunden zu 2-3 GTX 970. Und das liegt nicht an CUDA, denn z.B. Octane Renderer skaliert quasi linear über die Anzahl der Grafikkarten/CUDA Cores.

nutel
2015-03-24, 23:01:10
naja skalieren hat eher mit der tile size zu tun - in lux render (nutze ihn nicht habs nur gesehen) gabs irgendwie einen fix dafür (finds grad nicht...)

vielleicht wirds auch mal bei cycles verbessert wenn nicht muss man halt die tile size gut anpassen ;)

betrifft mich zum glück alles nicht - render nur per cpu =)

Ganon
2015-03-24, 23:08:46
naja skalieren hat eher mit der tile size zu tun - in lux render (nutze ihn nicht habs nur gesehen) gabs irgendwie einen fix dafür (finds grad nicht...)
vielleicht wirds auch mal bei cycles verbessert wenn nicht muss man halt die tile size gut anpassen ;)

Das klappt halt trotzdem nicht. In einem Thread bei Blenderartist haben sie das relativ gut durchexerziert.

http://blenderartists.org/forum/attachment.php?attachmentid=358966&d=1422613514

Hier auch ein paar Ergebnisse. Es lässt sich halt leicht erkennen, dass es bei 2 Karten noch gut geht, bei 3 oder 4 Karten, bricht halt die Leistung weg. Und da wird schon jede Karte ihren "Tile" bekommen haben. Ich glaube Tile Size war 256x256 und im Thread hatten auch andere Leute andere Tiles getestet.

Ergebnis immer das Gleiche. Ab 3 Karten steigt es nicht mehr linear mit der Kartenanzahl.

betrifft mich zum glück alles nicht - render nur per cpu =)

Ich gerade zwangsweise auch, aber leider ist das ätzend wenn man Animationen macht. Da will man schon, dass man maximal Tage rendert und nicht Monate ;)

nutel
2015-03-24, 23:23:24
Das klappt halt trotzdem nicht. In einem Thread bei Blenderartist haben sie das relativ gut durchexerziert.

http://blenderartists.org/forum/attachment.php?attachmentid=358966&d=1422613514

hm unterschiedliche personen/system besser wäre es wenn einer testet so gibt es immer probleme =) (meine erfahrung)

der sponza bench hat eine auflösung von 800x720 und tile size ist 256... das passt nicht gut für 4 gpus...

ein guter test wäre eine bild 1024*1024 komplett mit einer plane gefüllt - wenn es dort keine fast 100%tige skalierung gibt ist etwas fishy


Ich gerade zwangsweise auch, aber leider ist das ätzend wenn man Animationen macht. Da will man schon, dass man maximal Tage rendert und nicht Monate ;)

privates projekt? tage statt monate klingt etwas übertrieben =)

Ganon
2015-03-24, 23:31:48
privates projekt? tage statt monate klingt etwas übertrieben =)

Naja, momentan braucht meine CPU ca. 6-10min, bei schwierigen auch gerne mal 20-30min, pro Frame. Aber gehen wir mal von 5min pro Frame aus.

Nun gehen wir von 15min Animation aus:

15min * 60 = 900 Sekunden

Bei 30fps sind das 27000 Frames...

Das sind mal eben 3 Monate.

nutel
2015-03-24, 23:41:40
Naja, momentan braucht meine CPU ca. 6-10min, bei schwierigen auch gerne mal 20-30min, pro Frame. Aber gehen wir mal von 5min pro Frame aus.

Nun gehen wir von 15min Animation aus:

15min * 60 = 900 Sekunden

Bei 30fps sind das 27000 Frames...

Das sind mal eben 3 Monate.

hehe klar :) aber womit vergleichst du es?

hab schon öfter komisch konfigurationen gesehen low end cpu + 2 gpus oder so ein blödsinn...

Ganon
2015-03-24, 23:49:22
hehe klar :) aber womit vergleichst du es?

Mit den Werten hier im Thread und den Thread den ich mal auf gemacht habe.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558933

Wenn eine GTX 980 die Szene in der Hälfte der Zeit rendert (oder schneller), dann "sollten" es zwei ja nun noch mal doppelt so schnell rendern. Und dank OpenCL ist eine zusätzliche CPU/iGPU-Unterstützung ebenfalls möglich.

Und somit sind wir dann schon bei "theoretischen" < 1 Monat.

Ganon
2015-03-24, 23:52:29
Ich spiele da übrigens gerade mit dem Gedanken mir ein 6 Kern Xeon 3,5 Ghz und (erst mal) einer GTX 980 zu holen und später dann ggf. eine weitere GPU einzubauen. Jetzt warte ich aber gerade erst mal auf die Ergebnisse von AMD-Karten unter OpenCL. Und natürlich auf den Merge des Patches :D

nutel
2015-03-25, 00:06:32
ok für "diese" art von scenen sind gpus wirklich geeignet und mit dem patch wirds vll noch schneller - aber du kannst nicht davon ausgehen das es bei jeder scene so ist (kenne deine ja nicht :))

also von einem single 6 core xeon würd ich die finger lassen und wenn du wirklich 15 minuten animation render willst eher 2 billige amd systeme (~300-350 stück + linux + selbst bauen) kaufen oder ne renderfarm mieten

es wird auch noch cpu speed ups geben (bin ich sicher - wegen gooseberry)



...gibt es irgendwo einen wip thread zu deinem projekt oder ist es geheim =)?

Ganon
2015-03-25, 00:15:17
also von einem single 6 core xeon würd ich die finger lassen und wenn du wirklich 15 minuten animation render willst eher 2 billige amd systeme (~300-350 stück + linux + selbst bauen) kaufen oder ne renderfarm mieten

Ich muss die Szenen ja auch irgendwo bearbeiten und da kotzt mein Notebook leider auch total ab. Bei 3D Szenen mit 150k Vertices dauert es mehrere Sekunden bis ein Objekt ausgewählt ist. Als reine Renderkiste will ich das natürlich nicht kaufen. Neben Blender stehen da auch noch Zocken und Videobearbeitung an.


...gibt es irgendwo einen wip thread zu deinem projekt oder ist es geheim =)?

Es gibt einfach noch nichts zu zeigen ^^ Ich bin halt momentan durch Technik etwas eingeschränkt, wie gesagt und evaluiere gerade noch die Möglichkeiten. Hatte auch überlegt auf Octane umzuschwenken (das kann übrigens "demnächst" auch OpenCL).

Und das was ich schon gemacht habe, das will ich einfach noch nicht zeigen, da wenig eindrucksvoll.

nutel
2015-03-25, 00:25:28
Ich muss die Szenen ja auch irgendwo bearbeiten und da kotzt mein Notebook leider auch total ab. Bei 3D Szenen mit 150k Vertices dauert es mehrere Sekunden bis ein Objekt ausgewählt ist. Als reine Renderkiste will ich das natürlich nicht kaufen. Neben Blender stehen da auch noch Zocken und Videobearbeitung an.

ah nicht falsch verstehen ich rate nur von dem xeon ab - statt xeon lieber den 5820k + oc :)

wenn du spielst macht eine bessere graka schon sinn :biggrin:

Es gibt einfach noch nichts zu zeigen ^^ Ich bin halt momentan durch Technik etwas eingeschränkt, wie gesagt und evaluiere gerade noch die Möglichkeiten. Hatte auch überlegt auf Octane umzuschwenken (das kann übrigens "demnächst" auch OpenCL).

octane... :ass2:

Und das was ich schon gemacht habe, das will ich einfach noch nicht zeigen, da wenig eindrucksvoll.[/QUOTE]

nicht mal per pm =)?

Ganon
2015-03-25, 00:43:13
ah nicht falsch verstehen ich rate nur von dem xeon ab - statt xeon lieber den 5820k + oc :)

Ich mag ECC-RAM. Und der Unterschied Xeon <> i7 ist dann unterm Strich auch nicht soooo groß. Wenn die ganze Kiste 2000 EUR kostet, kommt es auf die "paar EUR" auch nicht mehr an. Aber noch ist eh nichts gekauft. Bin noch mit anderen Sachen beschäftigt.

nicht mal per pm =)?

Sieht halt nur nach "Jemand spielt mit Blender rum" aus ;) Aber gut... dann zeige ich doch was...


https://42degreesoffreedom.com/~matti/Blender/Nebeltest.png
https://42degreesoffreedom.com/~matti/Blender/Nebeltest2.png


Schreibe aber auch noch an einem World-Generator für/in Blender. Assets mal aus einem nicht näher genannten Spiel entnommen. :ugly:


https://42degreesoffreedom.com/~matti/Blender/MCWorld3.png

Ganon
2015-03-25, 09:13:54
Scheint mit dem OpenCL Kram auch eine reine AMD/NVidia Sache zu sein.

Mit der Intel OpenCL Runtime schmiert Blender beim Render-Versuch ab und mit der iGPU von Intel kommt beim Kernel-Compilieren ein Out-Of-Memory.

Wird Zeit für OpenCL 2.1 xD

Wildfoot
2015-03-25, 21:06:12
Hmm...

Das ist eine Schei.... Version. Auf den CPUs bin ich nun immer langsamer als vorher mit der anderen Version. Jano.
Aber auf meiner AMD Sapphire Toxic Radeon HD7970 GHz Edition 6GB habe ich folgendes bekommen:

OS: Windows 7 Ultimate 64Bit
Blender: 2.74
Build: Buildbot (Own, Buildbot, official, ...)
Revision: 4b88541

GPU: Tahiti XT2 @1200MHz
Tiles: 256x256
Optimization: -
Time: 00:16:78

ABER! Der Kopf sieht nun etwas "schleimig" aus. Muss das so sein? Auf den CPUs war das nicht so. Aber auf den CPUs geht es nun zur alten Version immer etwas länger.

Gruss Wildfoot

Wildfoot
2015-03-25, 21:11:30
@Ganon

1. Bild vom 1. Spoiler würde ich "Kernreaktor" nennen. ;)

Gruss Wildfoot

nutel
2015-03-27, 16:32:34
also wenn du wirklich solche scenen als animation render willst dann ist wirklich eine (oder mehr ;)) gpu besser aber du kannst leicht probleme bekommen wenn die scenen komplexer werden

von dem xeon würde dir (auch wenn das geld "egal" ist) trotzdem abraten!
der 5820k ist für weniger geld (übertaktet) einfach schneller als der xeon die 200 euro die du sparen würdest solltest du lieber in mehr ram oder einen kleinen extra render pc stecken oder was auch immer aber nicht einfach nutzlos ausgeben :P

noch ein benchmark wo man sieht wie wichtig die cpu ist (objekt export wird bald multithreaded)

http://blenderartists.org/forum/showthread.php?363448-Cycles-BVH-benchmark

@ wildfoot

es gibt einen (windows) speed bug - wie viel langsamer ist es?

https://developer.blender.org/T44046

deshalb bist du bestimmt langsamer - teste endlich ein linux! =)))

hast du beim opencl bench das hier gemacht?

Please note, you need to run this build with an environment variable, as usual with OpenCL testing. CYCLES_OPENCL_TEST=all

Wildfoot
2015-03-27, 18:00:07
Also, CPU-Bench braucht jetzt (auch wieder mit 8x8) 04:19:31
Also gut 12s mehr als vorher.

Klar habe ich die Variable gesetzt, sonst hätte der Blender meine Tahiti-XT2 garnicht gefunden. ;)

teste endlich ein linux! ))
Schon gemacht, das Resultat war aber immer ein System-Crash. Live-Linux scheint der Blender wohl nicht gern zu haben.

Und die Sache mit dem Xeon, ich denke nicht, dass ein i7-5820K auch OCed gegen meine Xeons ankommt. :P

Gruss Wildfoot

nutel
2015-03-27, 18:27:12
hm ok dann ist es vll noch buggy... mal abwarten

ich sag dir bescheid wenn der win bug behoben worden ist :)

Und die Sache mit dem Xeon, ich denke nicht, dass ein i7-5820K auch OCed gegen meine Xeons ankommt.

es geht hier aber nicht um deine 2 süßen sondern um einen single 6 core :P

den hier denk ich Intel® Xeon® Prozessor E5-1650 V3 (Boxed, FC-LGA4, "Haswell EP") und da ist der 5820k wohl eindeutig die bessere wahl!

Wildfoot
2015-03-27, 19:40:18
5820k wohl eindeutig die bessere wahl!

Ne, ganz und garnicht!
Also ich würde zwar auch nicht den E5-1XXX kaufen, sondern einer mit E5-2XXX, aber das ist nur ein Detail. Je nach Anwendung ist aber der Xeon definitiv besser:

- Nur schon Stock-Frequenz ist höher (aber gut, den 5820K kann man OCen)
- 40 PCIe Lanes gegenüber nur 28, das ist doch markant
- ECC Support
- Und wenn man mehr als 64GB RAM will, ist der i7 eh nicht zu gebrauchen.
- vPro Technologie fehlt beim i7 gänzlich.

Darum, ich würd nicht von "auf jeden Fall" sprechen. ;)
Aber wenn i7, dann würde ich viel eher zum i7-5930K greifen, wenn das Budget nicht für einen 5960X reicht.

Gruss Wildfoot

Ganon
2015-03-27, 20:08:32
von dem xeon würde dir (auch wenn das geld "egal" ist) trotzdem abraten!

Ist jetzt aber auch nicht so, als wenn der i7 jetzt irgendwie 100% schneller wäre ;)

Wie Wildfoot schon angesprochen hat, hat die Xeon-Plattform noch weit mehr Vorteile und wie gesagt, der PC soll zwar für Rendering angeschafft werden, aber nicht als alleinigen Zweck dienen.

Als anderes Szenario denke ich u.a. auch einfach an ein System mit 2 GPUs und eine der GPUs reiche ich an eine Windows-VM weiter und kann ohne umbooten darin zocken... diese Funktionen sind auf i7 auch gerne mal deaktiviert. In dem Fall weiß ich es nicht, aber einfach nur sagen: "Nicht kaufen, ist langsamer" ist halt auch nicht das Totschlagargument. ;) Und von den <250 EUR Ersparnis bringt mir ein Rendering-PC auch nicht sooo viel. Da krieg ich dann ein System mit Mini-CPU. Auch eine passende Graka lässt sich damit nicht anschaffen.

Klar, ein Dual Sockel System wäre mir auch lieber, aber das sprengt dann doch den Preis. :D

Wie gesagt, noch ist nichts entschieden und auch schon noch gar nicht gekauft. Aber trotzdem schon mal Danke für die Hinweise auf den 5820K ^^

Wildfoot
2015-03-27, 21:18:42
Mein Hauptproblem bei neuen Systemen ist immer, dass ich mir zwar absolut High-End anschaffe, aber dann ein halbes Jahr später wieder komplett neue HW haben will.

Heute würde ich mir wohl

- Z10PE-D8 WS
- 2x E5-2699 v3
- 8x 64GB Kingston LVRDIMM DDR4 RAM

kaufen, aber dafür habe ich im Moment nicht genug Budget.

Gruss Wildfoot

nutel
2015-03-27, 21:21:39
wichtig - ich kann nur für blender/cycles sprechen nicht für den rest ;)

also du kannst dir ausrechnen wie viel schneller er ist einfach die % von den GHZ ausrechnen und fertig - das geht beim rendern

der PC soll zwar für Rendering angeschafft werden

du möchtest deine animation nicht allein auf deinem haupt pc rendern - glaubs mir - irgendwo muss auch der content dafür erstellt werden und wenn nebenbei scenen rendern geht das nicht

und da deine scenen scheinbar eh nicht viel ram benötigen werden sind die kleinen rendermaschinen auch nicht so teuer (~300 je nach ram)
dort könntest du sogar ein linux installieren und blender (optimiert) selber bauen :)

...für diese animation hat meine maschine über 4 tage durchgerendert (eine qual ;))

https://www.youtube.com/watch?v=vzOAw8m3gUc

heute könnte ich den shader/rendereinstellungen besser optimieren aber wenn man sich nicht richtig auskennt steigt die renderzeit eben extrem an ;)

Klar, ein Dual Sockel System wäre mir auch lieber, aber das sprengt dann doch den Preis.

ein dual cpu system lohnt sich nur ab >40ghz und das kostet...

- Nur schon Stock-Frequenz ist höher (aber gut, den 5820K kann man OCen)

man kauft keine K cpu um sie stock zu betreiben?


- 40 PCIe Lanes gegenüber nur 28, das ist doch markant


bringt dir beim blendern nüscht

- ECC Support

das selbe

- Und wenn man mehr als 64GB RAM will, ist der i7 eh nicht zu gebrauchen.

das ist natürlich ein argument - aber ganon möchte wohl gern per gpu rendern und kann dadurch gar keine 20gb ausreizen ;) (in blender)

- vPro Technologie fehlt beim i7 gänzlich.

hm erklärung bitte =)

edit: btw beim rendern zählt jedes mhz - meine erfahrung ;)

Ganon
2015-03-27, 21:37:39
Heute würde ich mir wohl

- Z10PE-D8 WS
- 2x E5-2699 v3
- 8x 64GB Kingston LVRDIMM DDR4 RAM

kaufen, aber dafür habe ich im Moment nicht genug Budget.

Begrenzt bei diesen "Kernmonstern" nicht irgendwann die Bandbreite zum RAM? Ja die CPU hat selbst noch mal ordentlich L3 Cache, aber so 70GB/s / 18 ist doch bestimmt was anderes als 70GB/s / 6...

@nutel

Es geht mir beim nächsten PC nicht um eine Renderfarm in einem System. Es geht um die reine Produktion davon. Preview-Rendering schön und gut, aber man muss ja auch während der Erstellung mal "Final" rendern, Firefly Checks etc. Und das dauert mir dann einfach zu lange. Gerade da es bei Animationen doch schon viele unterschiedliche Szenen gibt.

Und wenn ich mir jetzt für 300 EUR einen Render-PC hinstelle, der dann 10 mal so lange braucht als der neue PC, dann ist es halt auch fragwürdig, ob sich das dann lohnt, oder ob der Content-PC das nicht über Nacht einfach fix aufholt.

Das kommt natürlich auf die Szenen an, klar.

nutel
2015-03-27, 22:30:00
@nutel

Es geht mir beim nächsten PC nicht um eine Renderfarm in einem System. Es geht um die reine Produktion davon. Preview-Rendering schön und gut, aber man muss ja auch während der Erstellung mal "Final" rendern, Firefly Checks etc. Und das dauert mir dann einfach zu lange. Gerade da es bei Animationen doch schon viele unterschiedliche Szenen gibt.

genau deshalb solltest du keinen teureren/langsameren xeon nehmen - außer du brauchst irgendwas von dem zeug was wildfoot aufgezählt hat - fürs rendern mit cycles ist nichts dabei

für previews sind gpus gut geeignet aber für finals ist das gefährlich wenn einmal out of memory kommt musst du deine ganze scene neu optimieren...

gpus haben noch mehr nachteile außer ram: nicht so stable wie cpus, interface freezed, treiber update... slowdown (kommt oft vor), es gibt nicht alle features (texture interpolation, smoke/fire rendering), osl ist cpu only....

außerdem gibt es features wo cpus den gpus wegflitzen :smile:

geht natürlich auch umgedreht aber cornell boxen oder sowas rendert man nicht soo oft :freak:

Und wenn ich mir jetzt für 300 EUR einen Render-PC hinstelle, der dann 10 mal so lange braucht als der neue PC, dann ist es halt auch fragwürdig, ob sich das dann lohnt, oder ob der Content-PC das nicht über Nacht einfach fix aufholt.

die 300-350 euro kiste braucht nicht 10 mal länger!
im sss benchmark ist wildfoot "nur" 4 mal schneller als ein fx8350 und jetzt vergleich einfach mal den preis ;)

Das kommt natürlich auf die Szenen an, klar.

genau und die kennst nur du :) aber ich kann dir jetzt schon sagen das es kein spaß macht subdiv, sss, hair oder volumen (vll sogar in kombination) per gpu zu nutzen :P

Terrarist
2015-03-27, 23:18:55
für previews sind gpus gut geeignet aber für finals ist das gefährlich wenn einmal out of memory kommt musst du deine ganze scene neu optimieren...

Unterstützt Octane nicht "out of core rendering" über den speicher der Graka hinaus?

nutel
2015-03-27, 23:21:01
Unterstützt Octane nicht "out of core rendering" über den speicher der Graka hinaus?

ja steht zumind. in der feature list (für texturen)
ab octane 3 wohl auch für geometry (natürlich unlimited wers glaubt...)

bei cycles ist noch nichts out of core

Terrarist
2015-03-27, 23:47:02
Da gab es mal einen Artikel über einen Cycles Trick und das Rendern von komplexen Archviz Szenen, wenn ich mich recht erinnere. Die Layer einer Szene wurden nacheinander gerendert und zum Schluss zusammengefügt (composed), alles auf GPUs mit wenig VRAM. So dass eben nur jeweils ein Layer der Szene VRAM belegt. Müsste man natürlich alles gut auf die Layer verteilen um es maximal auszunutzen.

Ganon
2015-03-27, 23:55:13
genau deshalb solltest du keinen teureren/langsameren xeon nehmen - außer du brauchst irgendwas von dem zeug was wildfoot aufgezählt hat - fürs rendern mit cycles ist nichts dabei

Ja, schon klar. Aber wie gesagt. Die Kiste ist auch noch für mehr als nur Blender. ;) Aber das hatten wir ja schon.

für previews sind gpus gut geeignet aber für finals ist das gefährlich [...]

Ja, darum ja auch eine 6 Kern+HT CPU und kein 4 Kern i5. ;)

die 300-350 euro kiste braucht nicht 10 mal länger!
im sss benchmark ist wildfoot "nur" 4 mal schneller als ein fx8350 und jetzt vergleich einfach mal den preis ;)

Schon, aber der FX alleine kostet ja schon 150 EUR. Mit Board, Netzteil, RAM und Gehäuse auf 300 EUR kommen.... puh. ;) Von Stromverbrauch, Vernetzung etc., ganz zu schweigen. Das ist ja alles nicht kostenlos. :D

Und dann ist deine Szene ja auch schon ein ziemlicher Extrem-Fall. Ich arbeite hauptsächlich mit Diffus/Glossy/Transparent/Emission Materialien und will auch kaum großartig Realismus erreichen. Da hab ich gar nicht die Zeit zu. xD Und dort zermatscht eine 250 EUR Graka einen 8 Kern i7 ziemlich einfach, bei halbem Stromverbrauch. Klar, mit Limitierungen, aber wenn man eine starke CPU und eine starke GPU hat, ist das ja immer Win-Win.

Und dann kommt die Frage recht schnell auf... kaufe ich mir 3-4 "schwache" Computer zum Final-Rendering, oder stecke ich das Geld in 1-2 starke GPUs und baue sie in einen Rechner ein...

Und da durchforste ich jetzt schon ziemlich lange alle Benchmark-Threads und dort Gewinnen in Preis/Leistung (auch in Hinsicht auf Verwaltung, Kabel, etc.) die GPUs so ziemlich immer. Und das Cycles so relativ eingeschränkt ist in Sachen GPUs ist ja kein Problem der GPUs. Octane zeigt das ziemlich gut. Das sind reine Software-Probleme die von heute auf morgen verschwinden können bei gleicher Hardware.

Da hat man sich dann seine CPU-Farm aufgebaut und dann kommt ein Patch für Cycles (á la Code-Bombe von AMD letztens) und schon kannst du deine ganze Farm gegen eine GPU eintauschen... darum lasse ich das gerade einfach noch mir hier Cluster aufzubauen.

Oder Lux kriegt seinen (http://www.luxrender.net/forum/viewtopic.php?f=34&t=10529) GPU biased Renderer fertig (http://www.luxrender.net/forum/viewtopic.php?f=12&t=11533) und zermatscht Cycles... auch eine Option. Die Fortschritte bei denen in letzter Zeit sind großartig.

Air Force One
2015-03-28, 00:00:14
Hat schon jemand die neue Titan?
Würde mich interessieren wie schnell die mit 11GB VRAM ist.

Wildfoot
2015-03-28, 02:30:58
@nutel

Gerade weil Ganon schon lange und oft gesagt hat, dass er die Kiste nicht nur für den Blender brauchen wird wollen, habe ich die Vorteile eines Xeons aufgezählt.

Was die Speicherbandbreite des RAM's betrifft, bei meinem jetztigen Board (und ich denke, das wird auch beim Z10PE-D8 WS so sein) habe ich nun die doppelte Bandbreite (knapp 109GB/s).
Das weil jede CPU die einzelnen RAM-Module einzeln und unabhängig ansteuert. Klar würde das bei zwei E5-2699 v3 immernoch "nur" 68GB/s per CPU sein, aber dann immerhin bei zwei Stück im Total mehr als 130GB/s.
Ich denke auch nicht, dass die RAM/Cache/Core Interfaces die Flaschenhälse sind, vielmehr wird es so sein, dass die Cores mit dem Rechnen nicht nachkommen werden. Sind doch die Schnittstellen sehr schnell

Gruss Wildfoot

Air Force One
2015-03-28, 10:59:19
Hier ist ein Benchmark (Gooseberry Benchmark 1.0) wo man min. 12GB V/RAM braucht.
Habe ihn nur etwas angepasst damit man nicht beides einzeln saugen und laden muss:
https://www.dropbox.com/s/ib0o2iclu3m6xw5/blender-2.74-rc3-windows64.rar?dl=0

Einfach nur starten, das Infofenster schließen und dann auf Render klicken.
Falls jemand eine schnelle Leitung hat, könnte er es ja irgendwo anders hochladen weil ich es nachher wieder lösche.

nutel
2015-03-28, 11:17:13
ganon wird schon richtig entscheiden wenns soweit ist =)

ein link zum bench wäre nicht schlecht air force 1

http://gooseberry.blender.org/gooseberry-production-benchmark-file/

48.06.72 hier (ubuntu, optimierer master)

Air Force One
2015-03-28, 11:25:59
ganon wird schon richtig entscheiden wenns soweit ist =)

ein link zum bench wäre nicht schlecht air force 1

http://gooseberry.blender.org/gooseberry-production-benchmark-file/

48.06.72 hier (ubuntu, optimierer master)

Danke,
hab ihn nicht mehr auf der offiziellen Seite (über die News) gefunden.
Mit Google jetzt jedoch schon. :redface:

Kannst mir evtl. einen direkten Link zu deinem Bench geben?
Finde es etwas verwirrend.

nutel
2015-03-28, 11:53:16
Kannst mir evtl. einen direkten Link zu deinem Bench geben?
Finde es etwas verwirrend.


huh - du meinst den kopf?

Air Force One
2015-03-28, 12:45:36
huh - du meinst den kopf?

genau, ich komme mit googledrive? nie zurecht.

nutel
2015-03-28, 21:49:25
genau, ich komme mit googledrive? nie zurecht.

hehe deshalb gibt es ja 2 links

google drive und dropbox :)

https://www.dropbox.com/s/b05eofbfk2vd9us/cycles_sss_bench_pre272.blend?dl=0