PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : BarsWF-Benchmark


deekey777
2009-03-04, 19:29:43
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=449097

Hier schnell herunterladen: http://3.14.by/en/md5
Entpacken und von der entsprechenden EXE eine Verknüpfung auf dem Desktop anlegen. Dann mit der rechten Maustaste auf die Verknüpfung gehen -> Eigenschaften -> Ziel und das Ziel um -h 0f4137ed1502b5045d6083aa258b5c42 -c a -min_len 7 ergänzen, damit es dann zB so aussieht: C:\Users\xXx\Downloads\BarsWF_Brook_x32(2)\BarsWF_Brook_x32.exe -h 0f4137ed1502b5045d6083aa258b5c42 -c a -min_len 7

Dann einfach auf die Verknüpfung klicken (Doppelklick!).

Wichtig für die Nutzer von Catalyst 9.2: In der Weisheit der weisesten Weisen des Universums hat ATi die CAL-DLLs umbenannt, sie heißen jetzt nicht zB amdcalcl.dll, sondern aticalcl.dll. Ihr geht in den System32-Ordner und kopiert von dort die aticalxx.dlls in den BarsWF-Ordner und bennent diese um (ati durch amd ersetzen).

Und so sieht dann das Ergebnis aus:
http://www.abload.de/img/md5z8wq.jpg

Das Passwort ist absichtlich so leicht.

System: Win7 x32, X2 4200+ (nur 667), HD3850 (720/830), Cat. 9.2

Kommt ja nicht auf die Idee, während das Programm läuft, das CCC oder RivaTuner oder sonstwas zu starten, denn bei mir friert der ganze Rechner ein!

siegemaster
2009-03-04, 19:37:10
Bei mir siehts so aus:

http://s3b.directupload.net/images/090304/i9azt5qp.jpg

Xeon 3085 & HD 4850

The_Invisible
2009-03-04, 19:38:39
GTX 285 @ default
Q6700 @ 3Ghz

mfg

siegemaster
2009-03-04, 19:42:25
GTX 285 @ default
Q6700 @ 3Ghz

mfg
Hat die x86 Version gar keine Multicore Unterstützung? Bei dir sind 4 CPUs angezeigt und bei mir (und deekey) nur einer :(

The_Invisible
2009-03-04, 19:47:21
hm, bei der cuda x32 version funktionierts zumindest

mfg

Ronny G.
2009-03-04, 20:00:11
Die CPU hat trotz 4 Kerne null chance

System:
Q9550 E0@3,825Ghz@1,288V, Asus P5Q Pro,
4GB DDR2 900Mhz 4-4-4-15,
GTX280@756/1627/1350Mhz FW182.06,
Audigy2zs, Vista64 SP1

GPU-905,18 - CPU 278,52

http://www.abload.de/img/barswfcudan54h.jpg

Pinoccio
2009-03-04, 20:00:51
13 Mhash/sec auf Athlon 64 3000+

mfg

Majestic
2009-03-04, 20:08:23
Celeron 430@~3Ghz
8800GT
http://www.abload.de/img/passwortl8e4.jpg
Die CPU Werte sehen eigendlich gar nicht so schlecht aus für so eine Krücke...:D
E6300@3,1Ghz
HD4870
http://www.abload.de/img/passwort_c2dd5wm.jpg

Jake Dunn
2009-03-04, 20:17:08
http://www.abload.de/img/hflfv.jpg

Xeon 3350@3,2ghz
HD4870 1Gb@850/980
Win XP Sp3



Hat die x86 Version gar keine Multicore Unterstützung? Bei dir sind 4 CPUs angezeigt und bei mir (und deekey) nur einer :(

Bei mir nur Drei ;D

_DrillSarge]I[
2009-03-04, 20:23:00
Phenom 9850BE @stock
Hd4850@stock
Vista64 Sp1

http://666kb.com/i/b6xgmh07yi5pe1m50.gif

ich hab aber einen quadcore :frown:

€: die ergebnisse (gpu) schwanken ganz schön. da sind locker +/- 150mio drin :D

deekey777
2009-03-04, 20:55:57
http://www.abload.de/img/cpuccbd.jpg
Nur die CPU diesmal. Wie man sieht, werden beide Kerne benutzt, es hat etwas über zwei Minuten gebraucht.

_DrillSarge]I[
2009-03-04, 21:02:40
^^ahhh gut, die sse2 version erkennt alle kerne

http://666kb.com/i/b6xhn9l60a6870eop.png

deekey777
2009-03-04, 21:05:42
Es sieht so aus, dass ein Kern für die GPU reserviert wird.

reallord
2009-03-04, 22:17:41
Pentium E2180@3GHz und HD3850 256MB@Default

http://img8.imageshack.us/img8/7626/bars3850.png (http://img8.imageshack.us/my.php?image=bars3850.png)
http://img8.imageshack.us/img8/bars3850.png/1/w677.png (http://g.imageshack.us/img8/bars3850.png/1/)

_DrillSarge]I[
2009-03-05, 06:10:23
mit gpu-core-takt skaliert das ding sehr gut mit

hd4850 @700Mhzcore

http://666kb.com/i/b6xviqnyslxdfkxzo.png

€: jetzt kommt mal die viel zitierte shaderpower des rv770 direkt zum tragen.
ich habe jetzt keinen wirklichen plan, aber wenn sich diese leistung, in etwa, auf andere gpgpu anwendungen "übertragen" lässt,
sollte amd doch mehr dampf in dieser sache machen.

Daredevil
2009-03-05, 07:06:21
Einmal bitte Platz machen für mein Baby ^^#
Win7 x64
e4300@3.23GHz
HD3850@999/1035
http://img3.imagebanana.com/img/uys8rz0a/Zwischenablage02.jpg
3D Settings sind leider nicht so hoch ( 931/1035 ).

Corny
2009-03-05, 08:45:29
Ich habs mal mit einer kleineren Grafikkarte laufen lassen:

Core2Duo E6750 2,66Ghz
Geforce 8500GT

Demogod
2009-03-05, 12:12:54
E6300@2*2,8 & 4850@def _@_Vista 64
http://666kb.com/i/b6y4p54s43qod0dlz.gif

Schrotti
2009-03-05, 12:58:38
Q9450 & GTX 280 (alles default) unter Windows 7 x64.

http://www.abload.de/img/barswf_schrottimpyb.png (http://www.abload.de/image.php?img=barswf_schrottimpyb.png)

Und hier mit 3,6GHz CPU Takt und der GTX 280 auf 660/1420/1200

http://www.abload.de/img/barswf_schrotti_3600mhztj1.png (http://www.abload.de/image.php?img=barswf_schrotti_3600mhztj1.png)

YfOrU
2009-03-05, 13:04:43
Q9300 @ 3.5Ghz

4850 @ 700Mhz Core

Sonyfreak
2009-03-05, 13:26:16
Q6700 @ 3,0Ghz (10x300Mhz)
4x1Gb DDR2-400Mhz 4/4/4/12
Geforce GTX 280 @ 663/1427/1215

929.21MHash/s

http://www.bilderkiste.org/show/original/0fe4eff39060e2291faa74969b819f7e/Zwischenablage-1.png

mfg.

Sonyfreak

Mr. Lolman
2009-03-05, 14:51:52
So wies aussieht, ist eine HD4870 ~50% flotter als ne GTX280 (jew@default). In Anbetracht der tollen GPGPU-Fähigkeiten des GT200 imo eine ziemliche Vernichtung.

Ronny G.
2009-03-05, 14:55:43
So wies aussieht, ist eine HD4870 ~50% flotter als ne GTX280 (jew@default). In Anbetracht der tollen GPGPU-Fähigkeiten des GT200 imo eine ziemliche Vernichtung.
selbst ne HD4850 ist schneller als ne GTX280:rolleyes:

Schrotti
2009-03-05, 15:38:36
Gott sei Dank aber nicht in Games.

-=Popeye=-
2009-03-05, 16:03:17
Q6600@3600MHz(400x9)
4x2GB DDR2 800@400 CL5-4-4-15
GTX285@702/1512/1296 FW 182.06 WHQL(HQ)
Vista64 SP1

GPU: 845,95 MHash/sec - CPU: 263,02 MHash/sec

http://www.abload.de/img/barswf-benchmarkcix1.png

Viper00
2009-03-05, 18:24:20
Athlon 64 X2 5600+ @3.1GHz
GeForce 8800GTS-512 @Default

- Viper00

Ronny145
2009-03-05, 19:31:41
X2 4600+, HD4670 1GB 750/873, Cat 9.2, XP32

http://www.abload.de/img/1lkv4.png

deekey777
2009-03-05, 19:38:27
Irgendwie stimmt das Ergebnis nicht bzw. entspricht nicht meinen Erwartungen. :|
Ich habe gerade mittels RivaTunter den Speicher auf 500 MHz heruntergetaktet und das Programm laufen lassen, das hatte keine Auswirkungen auf das Ergebnis.
Wenn du RivaTuner hast, starte das Hardware-Monitoring, um zu sehen, ob die Karte auch mit vollem Takt läuft (aber vor BarsWF).

Ronny145
2009-03-05, 19:50:49
Ja läuft mit 750 Mhz. Speichertakt 1000 Mhz bringt gar nichts, GPU auf 800 macht knapp 190 Mhash bei der GPU.

_DrillSarge]I[
2009-03-05, 19:51:27
Irgendwie stimmt das Ergebnis nicht bzw. entspricht nicht meinen Erwartungen. :|
Ich habe gerade mittels RivaTunter den Speicher auf 500 MHz heruntergetaktet und das Programm laufen lassen, das hatte keine Auswirkungen auf das Ergebnis.
ist bei mir auch so. skaliert aber 1:1 mit core-takt dafür (siehe oben im thread).

Pinoccio
2009-03-05, 20:14:04
Irgendwie stimmt das Ergebnis nicht bzw. entspricht nicht meinen Erwartungen. :|Schau dir den Code von MD5 (http://de.wikipedia.org/wiki/MD5#Pseudocode) an, das ganze sollte in den Cache passen (wie auch immer der aussieht und funktioniert), der Speicher ist da nebensächlich.

(Ähnliches habe ich bei Crushis Ciphertest ausgetestet, Speichertakt schlägt garnicht an, Cache-Takt ließ sich aber nicht ohne CPU-Takt testen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2634281#post2634281).)

mfg

Frank1974
2009-03-05, 20:30:19
Core 2 Duo E8600@4100MHz[10x410], 2x2048MB@DDR2-820, 5-5-5-12-2T,
NVIDIA GTX295, Vista64 Sp1, FW182.08

Für alle die immer denken man muss alles bis zum Maximum übertakteten

GTX295@576/1476/999MHz SLI aus
http://666kb.com/i/b6yh1xn2zs1cigfd2.png

GTX295@648/1476/1107MHz SLI aus
http://666kb.com/i/b6yh3ztnn83oquoxy.png

Hier zählt nur der Shadertakt, alles andere ist unwichtig, schade das es bei meinen Games nicht so ist, da bringt der Shadertakt am wenigsten, das habe ich an meinen ganzen Tests gesehen, bei meinen Games ist es egal ob der Shader auf 1368 oder 1512MHz läuft, das macht meisten 1-3%, weil bei mir wohl der Speicher zuerst limitiert.

Furmark reagiert auch gut auf Shadertakt, skaliert auch fast 1:1.

Man kann den Shader unbegrenzt anheben ohne den GPU Takt zu ändern, umgekehrt geht das nicht.

mfg
Frank

AnarchX
2009-03-05, 20:42:19
Man kann den Shader unbegrenzt anheben ohne den GPU Takt zu ändern, umgekehrt geht das nicht.

1:2 ist die Grenze, was wohl daran liegen dürfte dass der Thread-Manager(global sheduler) mit halbierten Shadertakt läuft und bei einem Verhältnis geringer 1:2 unter dem generellen Setup-Takt der GPU liegen würde, was wohl nicht funktioniert.

Frank1974
2009-03-05, 20:50:58
1:2 ist die Grenze, was wohl daran liegen dürfte dass der Thread-Manager(global sheduler) mit halbierten Shadertakt läuft und bei einem Verhältnis geringer 1:2 unter dem generellen Setup-Takt der GPU liegen würde, was wohl nicht funktioniert.

Ja, unbegrenzt war etwas übertrieben, aber man hat viel mehr Spielraum als wenn man den GPU Takt erhöht, da ist man stark an den Shader gebunden.

mfg
Frank

-=Popeye=-
2009-03-05, 21:14:39
Frank1974 hat mit seiner Aussage recht, ich hab das mal probiert ...

http://www.abload.de/img/barswf-benchmark2r21u.png

... ein Shadertakt von 1692MHz ist das absolute Limit meiner GTX285 und völlig Praxisfern, aber seht selbst.

deekey777
2009-03-05, 21:34:12
Schau dir den Code von MD5 (http://de.wikipedia.org/wiki/MD5#Pseudocode) an, das ganze sollte in den Cache passen (wie auch immer der aussieht und funktioniert), der Speicher ist da nebensächlich.

(Ähnliches habe ich bei Crushis Ciphertest ausgetestet, Speichertakt schlägt garnicht an, Cache-Takt ließ sich aber nicht ohne CPU-Takt testen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2634281#post2634281).)

mfg
Wie meinst du das? Meine Vermutung war eh nicht gerade wasserdicht (ich weiß nicht, ob GPGU-Anwendungen überhaupt bandbreitenlastig sind, dafür aber latenzempfindlich; mit Brook+ kann man keinen Zugriff auf LDS der HD4000).
So oder so: Die Performance darf einfach nicht niedriger sein als mit meiner HD3850, eher im Gegenteil.

Pinoccio
2009-03-05, 21:55:59
Wie meinst du das? Meine Vermutung war eh nicht gerade wasserdicht (ich weiß nicht, ob GPGU-Anwendungen überhaupt bandbreitenlastig sind, dafür aber latenzempfindlich; mit Brook+ kann man keinen Zugriff auf LDS der HD4000).
So oder so: Die Performance darf einfach nicht niedriger sein als mit meiner HD3850, eher im Gegenteil.Ich hatte evtl. undeutlich gequotet und auch nicht ganz gesehen, daß du dich auf die 4670 von Ronny145 bezogst.
Das mit der 3850 ist in der Tat etwas merkwürdig. Alle 3 (Ronnys, Dardevils und dein) liegen (taktbereinigt) gleichauf, leider keine andere 4670 bislang da.
Von den technischen Daten her könnte es passen, je nach dem, was genau genutzt wird. Die 3850 hat doppelt so viele ROPs, Shadercluster und TMUs (laut Wikipedia) wie die 4670 bei ähnlichem Takt.

Ich bezog ich oben aber vorrangig auf diese, deine AussageIch habe gerade mittels RivaTunter den Speicher auf 500 MHz heruntergetaktet und das Programm laufen lassen, das hatte keine Auswirkungen auf das Ergebnis.welche, wie oben ausgeführt, durchaus in meinen Erwartungen liegt.
Und Bandbreite dürfte zumindest bei einem MD5-Algo keine Rolle spielen. Die eigentliche Rechnung auf einem 512 Bit-Block dürfte sehr deutlich länger dauern (64 Schleifendurchläufe, jeweils mehrere Rechnenoperationen, davon mindestens 3 Schritte, die voneinander abhängen, Minimum also 192 Operationen) als die nächsten Bits aus dem RAM ranzuschaffen. Zumal jene ja synthetisch generiert werden und womöglich auch noch im Cache liegen.

Frank1974 hat mit seiner Aussage recht, ich hab das mal probiert ...
http://www.abload.de/img/barswf-benchmark2r21u.png
... ein Shadertakt von 1692MHz ist das absolute Limit meiner GTX285 und völlig Praxisfern, aber seht selbst.Ein überoptimales Ergebnis ;D, 11,9% schneller getaktet und 12,2% schneller gerechnet.
Kannst du mal schauen, wie weit du mit dem Shadertakt runterkommst?

mfg

deekey777
2009-03-05, 22:41:24
Im Vergleich zum RV670 hat der RV730: 320 SPs auf 8 SIMDs verteilt sowie 32 TMUs, aber nur 8 ROPs und ein 128-bit-SI.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4670/2/#abschnitt_technische_daten

Dazu kommt, dass er eben die fünffache Integer-Bitshift-Leistung hat. Da läuft was falsch.

A.Wesker
2009-03-06, 09:05:54
http://www.abload.de/img/barswfee15.jpg (http://www.abload.de/image.php?img=barswfee15.jpg)


Phenom II @ 3.6GHz, 8800 GTS 512MB @ 900/2300/1250

Undertaker
2009-03-06, 11:01:39
http://www.abload.de/img/unbenanntm6t9.png (http://www.abload.de/image.php?img=unbenanntm6t9.png)

Der CPU-Score ist aber erstaunlich schlecht :confused:

deekey777
2009-03-06, 13:01:00
Die AMD-CPUs liegen ziemlich deutlich hinter Intel-CPUs (egal ob Core 2 oder iCore7). Und ich habe das Gefühl, dass der CAL-Treiber (auf XP) einen zusätzlichen CPU-Overhead verursacht, selbst wenn ein Kern für die GPU reserviert ist.

Ronny145
2009-03-06, 17:21:54
Im Vergleich zum RV670 hat der RV730: 320 SPs auf 8 SIMDs verteilt sowie 32 TMUs, aber nur 8 ROPs und ein 128-bit-SI.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4670/2/#abschnitt_technische_daten

Dazu kommt, dass er eben die fünffache Integer-Bitshift-Leistung hat. Da läuft was falsch.


Was könnte da falsch laufen? Ich könnte einen älteren Treiber probieren, aber wird wohl kaum was bringen. Auf meiner Windows 7 x64 Partition mit Cat 9.2 hat sich der CPU Wert erhöht auf 15,6 statt 12,7 mit XP32. GPU Wert blieb unverändert.

deekey777
2009-03-06, 17:38:49
Was könnte da falsch laufen? Ich könnte einen älteren Treiber probieren, aber wird wohl kaum was bringen. Auf meiner Windows 7 x64 Partition mit Cat 9.2 hat sich der CPU Wert erhöht auf 15,6 statt 12,7 mit XP32. GPU Wert blieb unverändert.
Eine HD4670 hat die gleiche FLOP-Leistung wie meine HD3850, aber auch die fünfache Integer-Bitshift-Performance, die hier zum Tragen kommt/kommen müsste. Milchmädchenrechnung: Dein Ergebnis müsste mindestens die Hälfte einer HD4850 sein.
Ich glaube kaum, dass es an dir liegt, sondern am Programm

Kingbob
2009-03-06, 18:02:11
Da will ich auch mal

AMD Athlon X2 5000+@5400+
4 GB RAM
HD 3870 512 MB

http://www.bilderkiste.org/show/original/62be4e3407fdb6aa4245b31c8e00e99e/bars.PNG

SuperHoschi
2009-03-06, 22:51:57
Core2Duo E8400 default@3000MHz
GF 8800GT @default

Sind die Werte gut?

Undertaker
2009-03-07, 11:35:44
Die AMD-CPUs liegen ziemlich deutlich hinter Intel-CPUs (egal ob Core 2 oder iCore7). Und ich habe das Gefühl, dass der CAL-Treiber (auf XP) einen zusätzlichen CPU-Overhead verursacht, selbst wenn ein Kern für die GPU reserviert ist.

Auch im Vergleich zu A.Wesker passen die Zahlen nicht. Evntl. benötigt die ATI-Beschleunigung selbst mehr CPU-Leistung als die CUDA-Version?

config.sys
2009-03-07, 16:51:24
Hallo allerseits,
hatte Langeweile !


(Athlon X2 5200+ EE, 4gb ddr2 800, win vista x64)
34538


Aha!

34537

PCGH_Carsten
2009-03-08, 10:12:51
Ein sehr interessantes Programm, das die c't da ausgegraben hat.

Da läuft was falsch.
Aber was?

So oder so: Die Performance darf einfach nicht niedriger sein als mit meiner HD3850, eher im Gegenteil.
Ist sie bei meiner HD 4650/GDDR3 aber auch – ebenfalls unter XP32 komme ich mit 700 MHz GPU-Takt auf ca. 167 MHashes/sec. Innerhalb des Taktunterschiedes ist das ein zu erwartendes Ergebnis. Damit können wir auch gleich das Interface als Problem ausschließen: Bei mir läuft das ganze über die Southbridge des PT880 Pro mit schäbigen vier 1.0-Lanes. (Außer natürlich, der Kollege hat einen ähnlichen Krüppelbus auf seinem Gigabyte GA-K8NF-9)

Eine HD4670 hat die gleiche FLOP-Leistung wie meine HD3850, aber auch die fünfache Integer-Bitshift-Performance, die hier zum Tragen kommt/kommen müsste. Milchmädchenrechnung: Dein Ergebnis müsste mindestens die Hälfte einer HD4850 sein.
Theoretisch schon, einige Veränderungen gab es aber doch am RV740 gegenüber dem RV670/770. Eine hast du ja oben bereits genannt: acht 40er-SIMDs anstelle von 4 80er-SIMDs. Brook-Programme laufen mit ihren Wavefronts ja auch innerhalb eines SIMDs ab, oder? Da dürfte man der Lösung des Problems schon einen Schritt näher gekommen sein.

Ich glaube kaum, dass es an dir liegt, sondern am Programm
Was könnte das Programm wohl machen? Oder ist die Brook-Unterstützung für RV730-GPUs noch nicht ausgereift?


--
edit:
Hilfreich könnte auch meine Diskussion mit Jawed im B3D-Forum sein. Sie beginnt hier http://forum.beyond3d.com/showpost.php?p=1233188&postcount=239 und wird hier interessant: http://forum.beyond3d.com/showpost.php?p=1234793&postcount=251. Das ganze bezieht sich auf andere Fälle von unerwartet niedriger RV740-Performance im Vergleich zum RV770, wie zum Beispiel im Perlin-Noise-Test des 3DMark Vantage, wie hier gezeigt: http://www.pcgameshardware.de/aid,664348/Radeon-HD-4830-neue-AMD-Grafikkarte-im-Test/Grafikkarte/Test/?page=12. Oh - und sorry - es ist kein Meßfehler und entspricht nahezu 1:1 den Referenz-Ergebnissen, die AMD in einem Dokument mit Namen "HD4670_BenchmarkPerformance_V1.2_Phenom9950_August27_2008_Final.pdf" veröffentlicht hat.

The Jackal
2009-03-08, 11:30:01
Schade das das CrossFire auf der X2 nicht geht.

Wehre ein guter Stability Test.

config.sys
2009-03-16, 14:24:43
es gibt eine neue Stream-SDK Beta von AMD
(quelle:http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/maerz/neue_stream-version_ati_multi-gpu/)

[...]
So hat AMD nun eine neue Beta-Version vom Stream-SDK (Software Developer Kit) freigegeben, das die Version 1.4 beinhaltet. Als wichtigste Neuerung gibt AMD die Unterstützung von mehreren GPUs in einem Einzelprogramm an. CrossFire funktioniert also auch bei Stream, wobei man zudem explizit die Radeon HD 3870 X2 sowie die Radeon HD 4870 X2 erwähnt
[...]

jetzt können doch hoffentlich auch x2 besitzer wieder lächeln! und vielleicht kann das ja auch jemand überprüfen, ob das auch wirklich so ist?

gruss

Daredevil
2009-03-16, 14:40:02
Schade das das CrossFire auf der X2 nicht geht.

Wehre ein guter Stability Test.
Neee für die Stabilität kannste das nicht gebrauchen, wie gesagt ich hab die Graka auf 999 statt 932 laufen lassen, ein utopischer Wert der nicht mal eine Millisekunde stabil läuft wenn das Ding 3D darstellt.

deekey777
2009-03-16, 15:17:13
@Carsten:
Es ist eigentlich egal, ob eine GPU 4x80er SIMDs oder 8x40er SIMDs hat, die Kernel sind die gleichen, die Execution-Domain ist die gleiche, die Größe der Wavefronts ist von der Hardware abhängig (4x16 vs. 4x8) und wird durch Rasterizing geregelt (über die Hardware).
Denkbar wäre:
http://foldingforum.org/viewtopic.php?f=51&t=8245#p81530
(Execution-Domain zu klein und Kernel zu easy, ach keine Ahnung)

Im AMDs Developer-Forums gab's keine Äußerungen, dass der RV730 so stark beschnitten ist, dass die Performance darüber extrem leidet. Zum RV770 unterscheidet sich der RV730 in erster Linie wegen der fehlenden DP-Fähigkeit (http://forums.amd.com/devforum/messageview.cfm?catid=328&threadid=109783&highlight_key=y&keyword1=hd4650).

Ronny145
2009-03-18, 19:27:56
Hmm irgendwie läuft das nur noch auf der CPU mit Cat 9.3. Die amdcal dlls sind im Ordner.

Pinoccio
2009-03-19, 11:15:48
Hmm irgendwie läuft das nur noch auf der CPU mit Cat 9.3. Die amdcal dlls sind im Ordner.Ja. Ati weiß das auch und weist drauf hin in den Release-Notes für 9.3.
Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7175675#post7175675)

mfg

Daredevil
2009-03-19, 20:39:09
Einmal bitte Platz machen für mein Baby ^^
Win7 x64
e4300@3.23GHz
HD3850@999/1035
http://img3.imagebanana.com/img/uys8rz0a/Zwischenablage02.jpg
3D Settings sind leider nicht so hoch ( 931/1035 ).
Updaaaaaate!
Catalyst 9.3
HD4830@825/960
http://img3.imagebanana.com/img/8yd9ki5u/Zwischenablage02.jpg
Need mehr Takt!

Pinoccio
2010-06-08, 10:56:25
*push*

Eine neue Generation ist (schon lange) da und keiner postet Ergebnsise?

/edit:
http://www.abload.de/img/i3c1pj.gif (http://www.abload.de/image.php?img=i3c1pj.gif)
147 MHash/sec auf einem Intel i3 @ 3,6 GHz
(Die x32 ist ~ 20% langsamer)

mfg

Saugbär
2010-06-15, 23:37:43
295 MHash/sec auf einem Intel i7 @ 3,6 GHz
GTX260 @ 710-1531-1211
Die SSE2 Version zeigt ähnliche Ergebnisse

Pinoccio
2010-06-16, 12:06:53
295 MHash/sec auf einem Intel i7 @ 3,6 GHzWenig berraschend, aber schön, es mal hier zu sehen: Doppelte Kernanzahl - doppelte Leistung.

mfg

Saugbär
2010-06-17, 14:09:03
Nicht kompatibel mit GTX 470/480?
bekomme immer
Cuda-Kernel error: invalid device function

BlackArchon
2010-06-18, 18:20:31
Core 2 Quad Q9550, GeForce GTS 250: 698 MHash/sec

MR2
2010-06-18, 19:42:09
5870 mit 920Mhz, Catalyst 9.5:

Raff
2010-06-18, 21:38:35
http://666kb.com/i/bk6z8fu1ebhz6ut7l.png

Phenom II X6 (Thuban) @ 250x12 = 3.000 MHz, NB-Takt: 2.250 MHz, 2x 2.048 MiB DDR3 @ 833 MHz bei 8-8-7-16-2T, W7ndows x64

Alle Kerne werden laut Taskmanager voll ausgelastet.

MfG,
Raff

Raff
2010-06-19, 12:43:53
Von 3,0 auf 4,0 GHz (+33 %):

http://666kb.com/i/bk7m6566hjawhq01j.png

+33 Prozent mehr Leistung, lineare Skalierung =)

Phenom II X6 (Thuban) @ 286x14 = 4.004 MHz, NB-Takt: 2.574 MHz, 2x 2.048 MiB DDR3 @ 763 MHz bei 8-8-7-16-2T, W7ndows x64

MfG,
Raff

derguru
2010-06-19, 13:05:56
I7@4ghz // 6gb 2000 cl8 // 5850 default // win7 64bit

HT sei dank;)
http://www.abload.de/img/bars61pk.png

Raff
2010-06-19, 13:13:37
Kacke, immer diese i7s. :biggrin:

Könntest du interessehalber mal ohne SMT/HT testen? =)

MfG,
Raff

Vega2002
2010-06-19, 13:14:50
q9650@4.0GHz 445*9 // 2x 2GB DDR2 @ 981 MHz bei 5.5.5.12 // Win7 Ult. 64b

http://s5.directupload.net/images/100619/jba4tn62.png (http://www.directupload.net)

derguru
2010-06-19, 13:22:46
Kacke, immer diese i7s. :biggrin:

Könntest du interessehalber mal ohne SMT/HT testen? =)

MfG,
Raff

http://www.abload.de/img/bars1kd7r.png

Undertaker
2010-06-19, 13:56:36
SMT scheint hier aber erstaunlich wenig zu bringen... Liegt dem Nehalem wohl einfach ganz gut. Btw, auf meinem X4 nutzt er nur 3 Kerne, was ist denn da los? :confused:

Edit: OK, mit der SSE-Version gehts.

Jake Dunn
2010-06-19, 17:19:44
http://www.abload.de/img/unbenanntlj9s.jpg (http://www.abload.de/image.php?img=unbenanntlj9s.jpg)

i7 920@3.2ghz

PCGH_Carsten
2010-06-19, 18:27:06
Nicht kompatibel mit GTX 470/480?
bekomme immer
Cuda-Kernel error: invalid device function
Nein, Compute-2.0-Devices sind nicht binärkompatibel zur Prä-Fermi-Ära, nur Cuda-Programme die den JIT PTX nutzen, laufen direkt.




Im Anhang meine Rechner:

Raffaels Sechskerner ist gegen über meinem Atom Z530 (inkl. Hyperthreading :P) pro Kern und Megahertz nur rund 78% schneller. Das finde ich erstaunlich wenig.

Dass eine rechenstarke Radeon jede handelsübliche CPU (und vermutlich auch jede Geforce) hier weit hinter sich lässt, überrascht dagegen eher weniger.

**Achilles**
2010-10-01, 23:28:30
wie langsam ihr alle seit ^^ , ich komme weit über 2206.90 Mhash/s dank r870 gpu ^^

http://www5.pic-upload.de/01.10.10/tfbp1rhkyvon.jpg

Hier der test, passwort in 2 secunden ausgelesen, ein 16 stelligen schlüssel, schaffe ich auf ca. 7 min. jenach großkleinund digits ^^

ich leg noch ein oben drauf......, hier ein 15 stelliger Key den ich auf ca 17min bruteforce!
3428acea2aa8e5ddf0b72751cb4f6a2a
http://www5.pic-upload.de/02.10.10/55t8lw1z8ob.jpg

derguru
2010-10-02, 00:29:02
I7 970@4ghz // 6gb 1600 cl7 // 460gtx@800/1600/2000 SLI/ Win7 64bit

http://www.abload.de/img/barsin6z.jpg

Sevr90
2011-04-02, 21:19:49
hallo liebe Community ich hab ein Problem mit dem Programm. Zwar hab ich das tutorial versucht, jedoch fährt er mit den Kombinationen drüber ohne es zu finden.

Weiters zeigt er unter dem Rahmen an: Failed to initalize Cal runtime, falling back to CPU

Und außerdem sagt er das ich eine Avg. Speed von über 20 000 MHash/sec habe, was mir sehr seltsam vorkommt

Graka ist Nividia 9600GT und DualCor 3Ghz

ich bitte um HIlfe

deekey777
2011-04-03, 12:23:05
hallo liebe Community ich hab ein Problem mit dem Programm. Zwar hab ich das tutorial versucht, jedoch fährt er mit den Kombinationen drüber ohne es zu finden.

Weiters zeigt er unter dem Rahmen an: Failed to initalize Cal runtime, falling back to CPU

Und außerdem sagt er das ich eine Avg. Speed von über 20 000 MHash/sec habe, was mir sehr seltsam vorkommt

Graka ist Nividia 9600GT und DualCor 3Ghz

ich bitte um HIlfe
Du brauchst die Cuda-Version:
http://3.14.by/en/md5

Majestic
2011-05-13, 17:18:48
Core i3-370M(2,4Ghz) und Gefurz 310M beides @default
und
Core i7-2600k@4,5Ghz und HD6870@default

Saugbär
2011-05-14, 12:53:17
Um die Cuda 32 oder 64 Version 0.B zum laufen zu bekommen, mußte ich 2 Änderungen machen.

1. Batch-Datei anlegen
barswf_cuda_x64.exe
@echo off
pause

2. barswf.cfg ändern
charset=a
hash=0f4137ed1502b5045d6083aa258b5c42

I7 860 HT on @ 3.6Ghz
GTX 470 @ 800-950-1600

Majestic
2011-05-14, 13:09:44
@Saugbär
Kannst du mal einen reinen CPU Test machen? Wäre nur interessehalber :-)

Saugbär
2011-05-14, 13:29:02
Da ändert sich wenig

HarryHirsch
2012-02-19, 11:06:14
3960x @ 4.5

http://www.abload.de/img/2012-02-19_1102079vdf2.gif (http://www.abload.de/image.php?img=2012-02-19_1102079vdf2.gif)

7970 @ default

http://www.abload.de/img/2012-02-19_110006uqd4m.gif (http://www.abload.de/image.php?img=2012-02-19_110006uqd4m.gif)

Spasstiger
2012-02-20, 15:20:11
Core i3-2310M (2,1 GHz, 2C/4T)
8 GiB DDR3-1333 CL9 @ Dualchannel
Radeon HD 6630M (485/800 MHz, 480 SPs, DDR3)
Windows 7 x64

SSE2 x64 (nur CPU):

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42057&stc=1&d=1329747029
CPU*: 85,21 MHash/s
Avg.Total: 83,97 MHash/s
Kein Vorteil von Sandy Bridge gegenüber Nehalem pro Takt und Kern.

Brook x64 (GPU+CPU):

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42058&stc=1&d=1329747218
GPU*: 215,17 MHash/s
CPU*: 59,35 MHash/s
Avg.Total: 274,51 MHash/s
Sind auf der GPU rund 0,074 Hashes pro SIMD-Cluster und Takt. Bei Schlammsaus HarryHirschs Radeon HD 7970 komme ich auf rund 0,071 Hashes pro Compute Unit und Takt.

HarryHirsch
2012-02-20, 16:27:26
seh ick aus wie nen bayer? :usad:

Spasstiger
2012-02-20, 17:24:17
seh ick aus wie nen bayer? :usad:
Sorry, hab euch zwei Wildtiere verwechselt. ;)