Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-8350 (Vishera) - Review-Thread
anddill
2012-11-07, 15:11:20
Ja, der AMD-Turbo ist Müll, daher war die eigentlich von AMD gewünschte Variante sinnlos. Und bei 80% "Restleistung" pro Thread bei voll ausgelastetem Modul müsste der Turbo 25% (oder so, je nachdem wie man rechnet) echte Mehrleistung draufpacken, um das nur zu kompensieren.
Als die ersten Beschreibungen in der Richtung durchs Netz geisterten hat sich doch schon jeder gefragt was die da bei AMD rauchen.
Und mein Sohn kompiliert seinen Kram mit GCC, und damit rennt Software auf AMDs schneller als auf Intel. Liegt aber wohl eher an der nicht so ausgereiften Intel-Optimierung.
INDEX75
2012-11-07, 15:18:55
Hab nix an der Spannung rumgestellt, ist also default VID mit 1,3875V, geht mit Turbo bis knapp über 1,4V, CPU-Z zeigt 1,416 oder 1,452 an.
Kühler ist immer noch mein altgedienter Groß Clockner mit einem Deepcool Lüfter mit max. 1400 rpm.
Die Temp-Anzeigen der Cores sind Müll, Overdrive zeigt da 17°C. Die Asus-Software zeigt nur die gesamt-CPU-Temp an, die liegt jetzt idle bei 32°C, vorhin beim Stabilitätstest gings bis 52°C hoch, beim zocken warens um die 45°C. Was nicht viel sagt, der Lüfter ist ja geregelt und dreht mit meiner Lüfterkurve erst ab 50°C hoch.
Hmm ... Dann bin ich ja mit meinen 1.332V bei 4.4 GHz gar nicht sooo schlecht dran. Mit weniger gibt sich der 8350 bei dem Takt leider nicht zufrieden.
Undertaker
2012-11-07, 15:20:57
Ja, der AMD-Turbo ist Müll, daher war die eigentlich von AMD gewünschte Variante sinnlos. Und bei 80% "Restleistung" pro Thread bei voll ausgelastetem Modul müsste der Turbo 25% (oder so, je nachdem wie man rechnet) echte Mehrleistung draufpacken, um das nur zu kompensieren.
Genau das wollte ich auch schon schreiben. Den höheren Turbo einem freien Modul vorzuziehen macht doch nur Sinn, wenn die CMT-Skalierung nahezu der eines echten Kernes entspricht. Selbst die 80% werden ja nicht immer erreicht, ein 25% höherer Turbo-Boost ist angesichts des Mehrverbrauches utopisch.
Womöglich macht diese Variante wieder Sinn, wenn das Modulkonzept wie mit Steamroller etwas aufgeweicht wird und der Anteil geteilter Ressourcen abnimmt.
Es würde eventuell auch dann Sinn machen, wenn die Threads von der höheren Bandbreite zur Kommunikation untereinander aufgrund des gemeinsamen Caches profitieren würden, anstatt unter der verringerten Größe zu leiden.
Gipsel
2012-11-07, 15:55:40
Es würde eventuell auch dann Sinn machen, wenn die Threads von der höheren Bandbreite zur Kommunikation untereinander aufgrund des gemeinsamen Caches profitieren würden, anstatt unter der verringerten Größe zu leiden.
Nur leider gibt es eben keine einfache Faustregel, wie der Scheduler des OS das einfach feststellen kann.
sklave_gottes
2012-11-07, 16:00:25
Danke für die Aufklärung.
Hatte irgendwie noch im kopf das die Threads am rumspringen waren und der patch das auf einem Modul fixieren sollte. War dann wohl falsch, sorry. Aber macht ja auch wie gesagt keinen sinn. Verstehe halt nur nicht wie die Ingenieure von AMD auf sowas kommen.
Das ist dann die nächste Frage. Macht das Modulkonzept denn überhaupt noch sinn wenn mann es noch weiter aufweicht?! Denn Platzsparrend scheint das Design zur Zeit auch nicht wirklich zu sein. Meiner Meinung nach ist das Modulkonzept sogar die größte schwäche von BD. Stellt euch einfach mal vor ein FX-4170 hätte 20% mehr Leistung durch 4 "echte" Cores.
mfg martin
nVoodoo
2012-11-07, 17:00:11
@y33H@ sag mal habt ihr schon irgendwelche Vergleichstests in der mache in Hinblick auf die NB Takt Skalierung?
Hab bei meinem 8350 jetzt erstma den Turbo aus dafür NB Takt auf 2,4Ghz@1,225v erhöht... wie viel kann/sollte man denn da maximal draufgeben an Voltage?
Thunder99
2012-11-07, 17:55:46
Würde sich da nicht 3DMark 11 eignen und dessen CPU Score? :)
@anddill: Win7 oder Win8?
Macht es dann mehr Sinn doch ein FX83xx zu holen anstatt en FX63xx zwecks der Auslastung und der Performance bei max. 4 genutzten Threads? Oder ist es ein zu geringer Unterschied das da der möglicherweise höhere Takt des FX6 das ausgleichen kann?
Nur leider gibt es eben keine einfache Faustregel, wie der Scheduler des OS das einfach feststellen kann.Der Win8 Scheduler soll das angeblich können, stand mal in nem Reviewguide von AMD, aber frag mich nicht wie das gehen soll ^^
@nVoodoo:
Soviel Du wegkühlen kannst. Ein Freund mit ner dicken WaKü hat 1,31V für fast 3 GHz NB-Takt auf seinem 8150 eingestellt.
Falls Du benchen willst: Laut Gerüchten wärs gut, wenn Hypertransport und NB Takt synchron laufen, und man über den Referenztakt übertaktet. Weiss wirklich nicht, ob das stimmt, aber wenn Du magst, probiers mal aus. Kannst ja mal den Reftakt auf 240-250 einstellen und NB-Multi 10 nehmen, dann läuft die auch mit 2,4-2,5 GHz. RAM Multi musste dann natürlich ebenfalls entsprechend anpassen, bei 240MHz kämst Du mit dem 1333er Multi glatt auf 1600, mit 250 bisschen drüber (1666). Viel Spass beim Testen.
@Thunder99 (http://www.forum-3dcenter.org/vbulletin/member.php?u=13758):
Kommt drauf an, wieoft Du die +2Threads brauchst. Wenns nur für Spiele sein soll, würde ich sagen, dass man gut darauf verzichten kann. Mit dem einen Modul weniger spart man ja auch ein bisschen bei der Kühlung, d.h. man kann vermutlich leichter übertakten.
Einziger Nachteil wäre eventuell ein schlechtes Die, y33h meinte in nem anderen Thread, dass der L3 bei den 6300er nur so bis 2,4-2,5 GHz laufen würde. Falls er da nicht ein schlechtes Board zum NB-OC hat, könnte es am DIE liegen. Wobei ~2,5 GHz ja eigentlich auch nicht so schlecht sind.
Thunder99
2012-11-07, 18:21:43
Der Win8 Scheduler soll das angeblich können, stand mal in nem Reviewguide von AMD, aber frag mich nicht wie das gehen soll ^^
@Thunder99 (http://www.forum-3dcenter.org/vbulletin/member.php?u=13758):
Kommt drauf an, wieoft Du die +2Threads brauchst. Wenns nur für Spiele sein soll, würde ich sagen, dass man gut darauf verzichten kann. Mit dem einen Modul weniger spart man ja auch ein bisschen bei der Kühlung, d.h. man kann vermutlich leichter übertakten.
Einziger Nachteil wäre eventuell ein schlechtes Die, y33h meinte in nem anderen Thread, dass der L3 bei den 6300er nur so bis 2,4-2,5 GHz laufen würde. Falls er da nicht ein schlechtes Board zum NB-OC hat, könnte es am DIE liegen. Wobei ~2,5 GHz ja eigentlich auch nicht so schlecht sind.
Ausschließlich spielen, da Ingenieur :)
Hmm, schlechtes Modell zwecks OC wäre blöd :D Aber 2,5Ghz NB ist schon mal nicht schlecht. Laut den guten Tests von PCGameshardware (http://www.pcgameshardware.de/Core-i3-3240-CPU-255216/Tests/Test-FX-8320-FX-6300-FX-4300-Vishera-1032556/) rentiert sich der FX8320 einfach nicht. Edit: Im November Test von PCGameshardware wird dies bestätigt. Taktziel von mir sind auf allen Kernen 4,4-4,6Ghz :). Mehr darf es gerne werden :D. Der Stromverbrauch sollte nicht so viel höher sein als ein Phenom II C3 @3,7Ghz @ 1,4V
Gipsel
2012-11-07, 18:29:41
Der Win8 Scheduler soll das angeblich können, stand mal in nem Reviewguide von AMD, aber frag mich nicht wie das gehen soll ^^Ich tippe mal ganz stark darauf, daß diese Aussage schlicht Bullshit ist.
Undertaker
2012-11-07, 18:37:42
Es würde eventuell auch dann Sinn machen, wenn die Threads von der höheren Bandbreite zur Kommunikation untereinander aufgrund des gemeinsamen Caches profitieren würden, anstatt unter der verringerten Größe zu leiden.
Auch da kann man nur nochmal auf die Tests von Hardware.fr (http://www.hardware.fr/articles/842-11/tests-3-2-ghz.html) verweisen. 2M/4C war in allen (ausreichend parallelisierten) Messungen klar langsamer als 4M/4C. Ich tippe mal darauf, dass der geteilte Cache da noch das geringste Problem ist.
Auch da kann man nur nochmal auf die Tests von Hardware.fr (http://www.hardware.fr/articles/842-11/tests-3-2-ghz.html) verweisen. 2M/4C war in allen (ausreichend parallelisierten) Messungen klar langsamer als 4M/4C. Ich tippe mal darauf, dass der geteilte Cache da noch das geringste Problem ist.
Da war allerdings auch der Turbo aus und auf 3,2GHz gelockt. Mit Turbo könnten einige Ergebnisse, die dort recht knapp waren kippen.
Undertaker
2012-11-07, 19:13:27
Nun, um das korrekt auswerten zu können, wären auch noch Messungen zur Leistungsaufnahme notwendig.
Mein Gefühl sagt mir allerdings, dass die Energieeffizienz bei 4 Modulen mit je einem Thread und niedrigem Takt höher ist, als bei 2 Modulen mit je zwei Threads und mehr Takt. Und höhere Effizienz bedeutet bei gleichem Verbrauch wiederum mehr Performance.
(All das in Bezug auf die aktuelle CMT-Umsetzung)
Und mein Sohn kompiliert seinen Kram mit GCC, und damit rennt Software auf AMDs schneller als auf Intel. Liegt aber wohl eher an der nicht so ausgereiften Intel-Optimierung.
Das würde mich mehr als verwundern.
Thunder99
2012-11-08, 00:48:01
Soeben den FX6300 bestellt. Mal schauen was der kann wenn er da ist :naughty: :D
StefanV
2012-11-08, 16:20:54
Wie groß ist eigentlich der Unterschied zwischen 8320 und 8350?
y33H@
2012-11-08, 16:38:14
Laut meinen Tests etwa zehn Prozent, Anand kommt auf praktisch die gleiche Differenz. Die gilt für die Leistung wie für den Stromverbrauch unter Voll-Last.
BeeRockxs
2012-11-08, 21:40:02
Soeben den FX6300 bestellt. Mal schauen was der kann wenn er da ist :naughty: :D
Ich hab ihn eben eingebaut, zusammen mit ner neuen 7870. Bisher ein schönes Upgrade von Athlon 64 X2 6400+ und 4870 :)
INDEX75
2012-11-08, 22:08:00
Ich hab ihn eben eingebaut, zusammen mit ner neuen 7870. Bisher ein schönes Upgrade von Athlon 64 X2 6400+ und 4870 :)
Das war ja zu erwarten! :biggrin:
Thunder99
2012-11-08, 22:43:19
Mal schauen wenn er da ist was ich mehr Quäle, den Prozessor oder das Netzteil (425W) :D
anddill
2012-11-09, 11:14:28
Ich hab ja weiter oben meine Leistungsmessungen gepostet. Für mein System würde selbst ein 300W Netzteil reichen.
Hab allerdings keine Spielchen wie OCCT gemacht.
y33H@
2012-11-09, 11:39:56
Die 225W (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9534084&postcount=471) waren doch aber ohne Grafikkarten-Last?
Undertaker
2012-11-09, 11:43:14
Zum Test des realen Spiele-Verbrauches bietet sich z.B. Battlefield 3 an, so zumindest meine Erfahrung. Relativ hohe Auslastung sowohl auf CPU als auch GPU. :)
anddill
2012-11-09, 13:03:07
Ja, und im Spiel mit Teillast plus Grafik war es genauso viel. Primärseitig. Wie gesagt, ich hab die Vollastaufnahme noch nicht getestet. Aber werd ich nachher mal machen.
edit:
Ok, jetzt kommen Zahlen.
Idle sind es 100-110W (Wie gesagt, 3 Platten, Soundkarte und zwei Grafikkarten sind im Rechner)
CPU OCCT:280W
CPU Linpack: 290W
CPU Linp. AVX: 290W
GPU: 280W (Shader auf 5 und Limit auf 300 gesetzt, um aus dem Framelimiter zu kommen)
PSU: 380W
Ok, ein 300W Netzteil könnte da etwas knapp werden ;) Hab derzeit ein BQ Darkpower pro P10 mit knapp 90% Wirkungsgrad, das würde also etwa 340W hinter dem Netzteil bedeuten.
Hab dabei festgestellt, daß das System mit meinem Settings nicht dauerstabil war, CPU OCCT brachte nach erreichen von 60°C CPU-Temp einen Fehler. Ich hab dann die Loadline-Calibration von "Regular" auf "Medium" und die "CPU Current Capability auf 120% gesetzt. Damit ging die Leistungsaufnahme auf ca. 285W hoch und stieg mit der Temperatur nach 3min auf 295W. Da stabilierten sich dann beide Werte.
Bei der Testerei ist mir noch eine andere Sache wieder aufgefallen, die allerdings nichts direkt mit der CPU zu tun hat, mit dem FX8150 hatte ich das auch schon:
Die Leitungsaufnahme des Rechners bei ausgeschalteten Monitoren ist deutlich höher als im Idle. Idle sinds wie oben gesagt um die 100W, wenn ich den Rechner aber in Ruhe lasse bis die Monitore ausgehen steigt die Leistungsaufnahme auf ca. 160-170W. Die prim. Grafikkarte (HD7870) ist dabei zwar kalt, aber der Lüfter läuft weiter, die sekundäre (HD5450) bleibt etwa gleich warm. Die CPU ist allerdings warm, man kann es an den Heatpipes unten am Kühler erfühlen.
Hat irgend jemand Infos, was das sein könnte? Indexer und ähnlicher Kram sollten doch irgendwann mal zu Ruhe kommen, zumindest wenn die Kiste 2 Tage durchgehend rumidelt.
Thunder99
2012-11-11, 12:55:36
Das ist in der Tat sehr komisch. Kann es bei meinem 99X Evo mal vor und nach dem Bulldozer gegen testen. Wäre aber auch sinnvoll die BIOS Einstellungen zu posten :)
Was genau macht den "Loadline-Calibration" ? Hab derzeit alles auf Auto bis auf 2 Werte, diese auf Extrem :freak: (mehr am Montag)
anddill
2012-11-11, 13:10:03
Ich hab jetzt definitiv gesehen, daß ein Core die ganze Zeit ca. 50% ausgelastet ist, sobald die Monitore ausgehen. Hab nur noch nicht rausbekommen, was der macht.
Wie kann man aufzeichnen, welcher Prozess wieviel CPU belegt, ohne dabei selbst wieder zuviel Last zu erzeugen?
Zur Loadline: Das gibt an, wie stark die Spannung der CPU-Speisung nachgibt, wenn der Strom steigt. Wenn Du die auf extreme stellst sinkt die Spannung bei hoher Last nicht mehr, und kann angeblich sogar leicht steigen. Was schlecht ist für die Temperaturen und die Lebensdauer der CPU, aber gut für den maximalen Takt.
Cycles ist dazugekommen
http://www.tomshardware.com/reviews/core-i7-3970x-sandy-bridge-e-benchmark,3348-6.html
sieht gut aus für amd :) der einzig schnellere quad als der fx8350 ist der i7 3770k wenn ich das richtig sehe
y33H@
2012-11-12, 12:41:13
Bei so Sachen sind die FX-8k gut, joa.
mironicus
2012-11-12, 16:40:03
Ich finde von AMD den hier immer noch am besten:
http://geizhals.at/de/547691
Dann noch übertakten per FSB und ihr habt das beste P/L-Verhältnis von allen AMD-Prozessoren und ist vor allem noch stromsparender.
y33H@
2012-11-12, 17:25:50
Nope, ein FX-6300 ist effizienter bei mehr Leistung.
C.D.B.
2012-11-12, 18:06:12
... sieht gut aus für amd :) der einzig schnellere quad als der fx8350 ist der i7 3770k wenn ich das richtig sehe
*räusper* schon vergessen: AMD bezeichnet die "4-Moduler" als 8-Kerner! ;) Du vergleicht denn wohl die falschen CPU's miteinander. :whistle:
StefanV
2012-11-12, 19:18:35
sieht gut aus für amd :) der einzig schnellere quad als der fx8350 ist der i7 3770k wenn ich das richtig sehe
Naja, hier muss man (leider) sagen, dass es für AMD gut aussähe, wenn sie nicht den Fehler gemacht hätten, den 4 Moduler als 8 Kerner zu vermarkten...
Dadurh haben sie sich selbst ein Grab geschaufelt...
Dann noch übertakten per FSB
*autsch* *au*
FSB gibts seit fast 'ner Dekade nicht mehr bei AMD...
Und auch ansonsten kann ich dir nicht so recht zustimmen. Denn gerade im idle sind die Bullis relativ gut...
*räusper* schon vergessen: AMD bezeichnet die "4-Moduler" als 8-Kerner! Du vergleicht denn wohl die falschen CPU's miteinander.
Naja mir ist das herzlichst banane wie der vermarktet wird. für 170 eier kein schlechter prozessor.
y33H@
2012-11-12, 20:00:04
Lastet du ihn denn dauerhaft voll aus?
mironicus
2012-11-12, 21:11:58
Ich habe einen Idle-Verbrauch von ca. 60 Watt mit einem X6-1045T (Radeon 5570, SSD, 3.5 Festplatte) und bei Voll-Auslastung ca. 120-123 Watt beim X264-Enkodieren. Der X6 ist übertaktet auf 3,2 GHz und auch untervoltet (kein Turbo).
y33H@
2012-11-12, 21:16:02
Das unter- bzw überbietet ein FX-6300 mit Undervolting. Im idle dank C6 sowieso und load ebenfalls ... allerdings kostet der auch deutlich mehr als der sich im Abverkauf befindliche 1045T.
Thunder99
2012-11-12, 23:39:50
Ich hab jetzt definitiv gesehen, daß ein Core die ganze Zeit ca. 50% ausgelastet ist, sobald die Monitore ausgehen. Hab nur noch nicht rausbekommen, was der macht.
Wie kann man aufzeichnen, welcher Prozess wieviel CPU belegt, ohne dabei selbst wieder zuviel Last zu erzeugen?
Zur Loadline: Das gibt an, wie stark die Spannung der CPU-Speisung nachgibt, wenn der Strom steigt. Wenn Du die auf extreme stellst sinkt die Spannung bei hoher Last nicht mehr, und kann angeblich sogar leicht steigen. Was schlecht ist für die Temperaturen und die Lebensdauer der CPU, aber gut für den maximalen Takt.
Danke, dann hab ich ja das richtige eingestellt bei meinem X2@X4@3,7Ghz. Diesen Takt konnte das vorherige Board nicht stabil betreiben :)
Btw, er ist da aber noch nicht verbaut, da ich erst heute Abend wieder @home ankam. Morgen wird er verbaut und es gibt die versprochenen Vergleiche im anderen Thread :)
Thunder99
2012-11-13, 14:16:08
Musst du manuell installieren, die haben mit einem Phenom II eh nichts am Hut.
http://blogs.amd.com/play/2012/01/11/early-results-achieved-with-amd-fx-processor-using-windows%C2%AE-7-scheduler-update/
An sich auch ein Fail von AMD das die nicht das Update automatisch über Windows verteilen wenn ein FX verbaut wird :( . Danke für den Link
Edit: Nur einer der beiden Hot-Fixes lässt sich downloaden, der andere nicht. Warum?
KB2646060 lässt sich runterladen bzw zuschicken, KB2645594 nicht
y33H@
2012-11-13, 14:28:16
Ich hab sie noch lokal - die bringen's aber eh nicht(s).
Thunder99
2012-11-13, 14:29:02
Ich hab sie noch lokal - die bringen's aber eh nicht(s).
Ok, Problem gelöst. Muss man auf den englischen Original Artikel gehen :D
Was meinst du, dann eher sein lassen oder installieren?
anddill
2012-11-13, 18:38:23
Da immer mal wieder nach der Leistungsaufnahme bei Teillast gefragt wird hab ich mal noch ein paar Tests gemacht. Als Tool dafür hab ich wegen der Einfachheit den Stbility-Test des Overdrive-Tool von AMD benutzt.
Damit kann man verschiedene Lasten erzeugen, die jeweils an einen Core gekettet werden.
Es gibt einen CPU-Test, der offensichtlich die Register und den Interger-Einheiten belastet (Test integer calculation and stack operation), einen FPU-Test (Test floating point calculation) und noch einen "Calculation Test", bei dem ich nicht den blassesten Schimmer hab was da gerechnet wird.
Nebenbei werden noch Hz-Zahlen ausgegeben, ich schätze mal die geben an, wie oft die entsprechende Berechnung pro Sekunde ausgeführt wurde. Diese Zahlen waren auch recht interessant.
Die Leistungsaufnahme wird vor dem Netzteil, also netzseitig mit einem Leistungsmesser von Belkin gemessen. Den hab ich benutzt, weil der ein abgesetztes Display hat, so daß ich nicht hinter den Rechner zum Ablesen kriechen muss.
Da meine Kiste dank Ausstattung und Vermüllung einen deutlich höheren Leerlaufstromverbrauch hat als die üblichen Testsysteme, poste ich immer die Differenz zum Idle-Wert (mit den derzeitig offenen Programmen ca. 115W). Die Takte sind auf 4,4GHz/4,8GHz Turbo und 2,4GHz Northbridge gesetzt, CPU-Spannung ist @ default.
Leider kann man mit dem Programm zwar gezielt Cores auslasten, aber keine gezielt nicht belasten. Da läuft noch irgendwelcher Overhead mit, der die Gesamtlast um ca. 15-20% erhöht. Der Kram springt dann aber lustig über alle verbleibenden Cores. Was nicht so schlimm ist, so bekommt man ein halbwegs realistisches Szenario, ähnlich wie beim Spielen.
CPU-Test:
1 Core: 65W, Wert 4,23 Hz
1 Modul: 75W, Wert 4,33Hz und 4,35Hz
2 Core/2 Modul: 80W, Wert 4,13Hz und 4,26 Hz
Man sieht hier sehr schön, daß die Integer-Einheiten sich nicht gegenseitig stören, im Gegenteil. Laufen beide Threads auf einem Modul kann die CPU sogar noch etwas zulegen.
FPU-Test:
1 Core: 65W, 3,67Hz
1 Modul: 75W, 3,20 und 3,39Hz
2 Core/2 Modul: 80W, 3,61 und 3,70Hz
Wie erwartet ist 1+1 hier nur 1,8, dh die Leistung der FPU sinkt etwas unter das Optimum, wenn sie von zwei Threads belegt wird. Die Leistungsaufnahme ist wenig überraschend.
Calculation-Test:
1 Core: 85W, 55,9Hz
1 Modul: 90W, 35,6 und 35,4Hz
2 Core/2 Modul: 110W, 53,57 und 53,90Hz
Was immer der Test macht, der Vishera mag es nicht, wenn das auf einem Modul stattfindet. Er mag es nicht mal besonders, wenn es auf verschiedenen Modulen stattfindet. Ich kann hier nur raten, daß das Verhalten irgendwas mit der Speicher- bzw. Cachebandbreite zu tun hat. Außerdem zieht er bei diesem Test ordentlich Saft, das dürften an der CPU so ca. 90W sein.
Noch ein paar Tests mit allen Lasten gleichzeitig, also schön gemischter Kram wie in der Realität:
1 Core: 70W
1 Modul: 80W
2 Core/2 Modul: 85W
4 Core/ 4 Modul: 120W
4 Core/2 Modul: 110W
6 Core/3 Modul: 145W
8 Core: 155W
Will man aus diesen Zahlen auf die reale CPU-Leitungsaufnahme schließen muss man diese Differenz-Werte mit den Wirkungsgraden von Netzteil (ca. 0,9) und CPU-Spannungswandler (wahrscheinlich knapp unter 0,9) multiplizieren, und dann noch die ~10W CPU-Idle Leistungsaufnahme addieren. Das macht dann im Teillastbereich grob geschätzte 100W, bei nur 2 Threads und etwas Kleinkram kommt er auf knappe 80W.
In der Realität ist die Leistungsaufnahme also bei weitem nicht so extrem wie die Tests (mit Vollast) suggerieren.
Twodee
2012-11-13, 19:19:49
Da immer mal wieder nach der Leistungsaufnahme bei Teillast gefragt wird hab ich mal noch ein paar Tests gemacht. Als Tool dafür hab ich wegen der Einfachheit den Stbility-Test des Overdrive-Tool von AMD benutzt.
Damit kann man verschiedene Lasten erzeugen, die jeweils an einen Core gekettet werden.
Es gibt einen CPU-Test, der offensichtlich die Register und den Interger-Einheiten belastet (Test integer calculation and stack operation), einen FPU-Test (Test floating point calculation) und noch einen "Calculation Test", bei dem ich nicht den blassesten Schimmer hab was da gerechnet wird.
Nebenbei werden noch Hz-Zahlen ausgegeben, ich schätze mal die geben an, wie oft die entsprechende Berechnung pro Sekunde ausgeführt wurde. Diese Zahlen waren auch recht interessant.
Die Leistungsaufnahme wird vor dem Netzteil, also netzseitig mit einem Leistungsmesser von Belkin gemessen. Den hab ich benutzt, weil der ein abgesetztes Display hat, so daß ich nicht hinter den Rechner zum Ablesen kriechen muss.
Da meine Kiste dank Ausstattung und Vermüllung einen deutlich höheren Leerlaufstromverbrauch hat als die üblichen Testsysteme, poste ich immer die Differenz zum Idle-Wert (mit den derzeitig offenen Programmen ca. 115W). Die Takte sind auf 4,4GHz/4,8GHz Turbo und 2,4GHz Northbridge gesetzt, CPU-Spannung ist @ default.
Leider kann man mit dem Programm zwar gezielt Cores auslasten, aber keine gezielt nicht belasten. Da läuft noch irgendwelcher Overhead mit, der die Gesamtlast um ca. 15-20% erhöht. Der Kram springt dann aber lustig über alle verbleibenden Cores. Was nicht so schlimm ist, so bekommt man ein halbwegs realistisches Szenario, ähnlich wie beim Spielen.
CPU-Test:
1 Core: 65W, Wert 4,23 Hz
1 Modul: 75W, Wert 4,33Hz und 4,35Hz
2 Core/2 Modul: 80W, Wert 4,13Hz und 4,26 Hz
Man sieht hier sehr schön, daß die Integer-Einheiten sich nicht gegenseitig stören, im Gegenteil. Laufen beide Threads auf einem Modul kann die CPU sogar noch etwas zulegen.
FPU-Test:
1 Core: 65W, 3,67Hz
1 Modul: 75W, 3,20 und 3,39Hz
2 Core/2 Modul: 80W, 3,61 und 3,70Hz
Wie erwartet ist 1+1 hier nur 1,8, dh die Leistung der FPU sinkt etwas unter das Optimum, wenn sie von zwei Threads belegt wird. Die Leistungsaufnahme ist wenig überraschend.
Calculation-Test:
1 Core: 85W, 55,9Hz
1 Modul: 90W, 35,6 und 35,4Hz
2 Core/2 Modul: 110W, 53,57 und 53,90Hz
Was immer der Test macht, der Vishera mag es nicht, wenn das auf einem Modul stattfindet. Er mag es nicht mal besonders, wenn es auf verschiedenen Modulen stattfindet. Ich kann hier nur raten, daß das Verhalten irgendwas mit der Speicher- bzw. Cachebandbreite zu tun hat. Außerdem zieht er bei diesem Test ordentlich Saft, das dürften an der CPU so ca. 90W sein.
Noch ein paar Tests mit allen Lasten gleichzeitig, also schön gemischter Kram wie in der Realität:
1 Core: 70W
1 Modul: 80W
2 Core/2 Modul: 85W
4 Core/ 4 Modul: 120W
4 Core/2 Modul: 110W
6 Core/3 Modul: 145W
8 Core: 155W
Will man aus diesen Zahlen auf die reale CPU-Leitungsaufnahme schließen muss man diese Differenz-Werte mit den Wirkungsgraden von Netzteil (ca. 0,9) und CPU-Spannungswandler (wahrscheinlich knapp unter 0,9) multiplizieren, und dann noch die ~10W CPU-Idle Leistungsaufnahme addieren. Das macht dann im Teillastbereich grob geschätzte 100W, bei nur 2 Threads und etwas Kleinkram kommt er auf knappe 80W.
In der Realität ist die Leistungsaufnahme also bei weitem nicht so extrem wie die Tests (mit Vollast) suggerieren.
Dennoch ist es nicht mehr zeitgemäß. Allein die 100W Teillast finde ich extrem, das verbraucht die Konkurrenz unter Volllast.
y33H@
2012-11-13, 19:55:53
Jupp, absolut wie in Relation zu Intel ist der Stromverbrauch mies, vor allem in Sachen Effizienz. Aber immerhin effizienter als ein Phenom II X4/X6 =)
Ronny145
2012-11-13, 20:00:20
Jupp, absolut wie in Relation zu Intel ist der Stromverbrauch mies, vor allem in Sachen Effizienz. Aber immerhin effizienter als ein Phenom II X4/X6 =)
Naja was heißt immerhin, die sind ja auch in 45nm gefertigt.
Knuddelbearli
2012-11-13, 20:30:37
da sieht man aber auch wie schwachsinnig schwach der turbo ist. 4,5-4,6Ghz wären mit 1 Thread wohl problemlos möglich
anddill
2012-11-13, 21:31:04
Die Diskussion um Thunder99´s Speicherproblem hab ich mal rausgesplittet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=535137
anddill
2012-11-13, 21:32:07
da sieht man aber auch wie schwachsinnig schwach der turbo ist. 4,5-4,6Ghz wären mit 1 Thread wohl problemlos möglich
Der kommt witzigerweise erst ins Spiel, wenn mehr als 4 Threads laufen. Total blödsinnig, gerade bei einem Thread wäre der wichtig.
y33H@
2012-11-15, 13:47:58
Mal die mir bekannten Vishera samt Windows 8 Tests ... kurz, es tut sich kaum was.
http://www.pcgameshardware.de/Bulldozer-Codename-238780/Tests/Test-Windows-8-Bulldozer-Benchmarks-1035723/
http://www.tomshardware.com/reviews/windows-8-bulldozer-performance,3289.html
Mal die mir bekannten Vishera samt Windows 8 Tests ... kurz, es tut sich kaum was.
http://www.pcgameshardware.de/Bulldozer-Codename-238780/Tests/Test-Windows-8-Bulldozer-Benchmarks-1035723/
http://www.tomshardware.com/reviews/windows-8-bulldozer-performance,3289.html
Weiss man doch schon seit dem P3D-Test von vor 3 Wochen. War auch schon "damals" verlinkt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9513608#post9513608
y33H@
2012-11-15, 16:53:03
Ich finde insbesondere Spiele-Benchmarks interessant, da bietet P3D leider nur Crysis im offenbar GPU-Limit (zumindest den 3770K-Werten nach).
fondness
2012-11-15, 18:14:23
Mal die mir bekannten Vishera samt Windows 8 Tests ... kurz, es tut sich kaum was.
http://www.pcgameshardware.de/Bulldozer-Codename-238780/Tests/Test-Windows-8-Bulldozer-Benchmarks-1035723/
http://www.tomshardware.com/reviews/windows-8-bulldozer-performance,3289.html
Naja immerhin, in manchen Spielen gibt es doch nicht unwesentliche Zuwächse.
StefanV
2012-11-15, 18:18:20
Ich finde insbesondere Spiele-Benchmarks interessant, da bietet P3D leider nur Crysis im offenbar GPU-Limit (zumindest den 3770K-Werten nach).
Äh, also ich sehe es anders.
Bei einigen Games gibts 'ne nicht unerhebliche Steigerung - nur durch 'Software Optimierungen'.
Also da würde ich +5% oder +7% nicht als unerheblich abtun wollen, ganz im Gegenteil!
Undertaker
2012-11-15, 18:34:55
Mal die mir bekannten Vishera samt Windows 8 Tests ... kurz, es tut sich kaum was.
http://www.pcgameshardware.de/Bulldozer-Codename-238780/Tests/Test-Windows-8-Bulldozer-Benchmarks-1035723/
http://www.tomshardware.com/reviews/windows-8-bulldozer-performance,3289.html
Irgendwie fehlt mir da noch eine Intel-CPU (ein Phenom II würde es auch tun), um den allgemeinen Performance-Vor-/Nachteil von Windows 8 von den Bulldozer-spezifischen Differenzen trennen zu können.
Ronny145
2012-11-15, 18:35:32
Irgendwie fehlt mir da noch eine Intel-CPU, um den allgemeinen Performance-Vor-/Nachteil von Windows 8 von den Bulldozer-spezifischen Differenzen trennen zu können.
Ich wollte eben das gleiche schreiben.
TobiWahnKenobi
2012-11-15, 19:10:57
ein gutes produkt braucht eigentlich nicht so haarkleine erklärungen, vergleiche und relativierungen über den preis, wie AMDs folien es offerieren; ein gutes produkt verkauft sich ohne viel trara.. AMDs marketing ist unterirdisch schlecht.
unser bestes ist fast so gut wie die mittelklasse des mitbewerbs, aber ihr könnt szenarien kreiren und zurechbasteln, dass ihr sie überholt.. und wenns nur 2 sekunden in irgendeinem transcoding-shice sind.. und: es kostet auch 30€ weniger als das runde produkt des mitbewerbs.
und auf was lässt man sich dabei ein? neben massig in wärme umgewandelter leistungsaufnahme? -> auf AMD und grade die bekleckern sich softwaretechnisch nicht selbst mit lorbeeren.
sorry.. solange die nicht klar was gleichwertiges zum halben preis anbieten bleiben die uninteressant für die massen.
(..)
mfg
tobi
Schaffe89
2012-11-15, 19:33:24
Bei einigen Games gibts 'ne nicht unerhebliche Steigerung - nur durch 'Software Optimierungen'.
Also da würde ich +5% oder +7% nicht als unerheblich abtun wollen, ganz im Gegenteil!
Was willst du erwarten? Der Grundtenor das Artikels ist wieder darauf ausgelegt möglichst negativ zu wirken. Ich kann die News der PCGH langsam nicht mehr lesen. Selektivität wird da von einigen scheinbar ganz groß geschrieben.
Mal davon abgesehen, dass solche Benchmarks ohne gemessene allgemeine Windows 8 windows 7 eistungsdifferenzen gar keinen Sinn ergeben.
Normal sollten Spiele mit Windows 8 etwas langsamer laufen. Keine Ahnung was da jetzt di CPU betrifft und was das Betriebssystem.
ein gutes produkt braucht eigentlich nicht so haarkleine erklärungen, vergleiche und relativierungen über den preis, wie AMDs folien es offerieren; ein gutes produkt verkauft sich ohne viel trara..
Ein Produkt wird vom Hersteller sogut es geht beworben.
Und AMD muss den Leuten solche Erklärungen, Relativierungen etc.. vor die Füße werfen, weil einfach der Grundtenor besteht AMD sei nichts gutes.
aber ihr könnt szenarien kreiren und zurechbasteln, dass ihr sie überholt.. und wenns nur 2 sekunden in irgendeinem transcoding-shice sind.. und: es kostet auch 30€ weniger als das runde produkt des mitbewerbs.
Das was du da schreibst hat eindeutig nichts mit dem Thema zu tun.
So zu tun, als ob es AMD nötig hätte Folien zu liefern wo man 2sec. "in irgend einem Transcoding schice" schneller is, ist abenteuerlich.
Schau dir doch den kumulierten Anwendungsindex hier im 3D Center an und bleib beim Thema.
y33H@
2012-11-15, 23:41:07
Ach Schaffe89, kannst du auch mal was posten, ohne jemanden etwas zu unterstellen oder zu trollen? Offenbar nicht.
Normal sollten Spiele mit Windows 8 etwas langsamer laufen.So ein Unfug. Das trifft meinen Erfahrungen nach weder im GPU- noch im CPU-Limit zu, die üblichen Ausnahmen bestätigen die Regel.
VOODOO-KING
2012-11-16, 09:20:47
Naja immerhin, in manchen Spielen gibt es doch nicht unwesentliche Zuwächse.
für Dirt Showdown scheinen die Bulldozerpatches kontraproduktiv zu sein, jedenfalls geht ne Menge Leistung flöten. Das ist mir schon beim Trinity Review auf xbitlabs.com aufgefallen, wo Llano bedeutend flotter beim erwähnten Titel arbeitet
http://www.xbitlabs.com/articles/cpu/display/amd-a10-5800k_7.html#sect0
http://www.xbitlabs.com/articles/cpu/display/amd-a10-5800k_5.html#sect0
For our tests of the AMD A10-5800K platform we installed KB2645594 and KB2646060 OS patches, which adapt the scheduler operation for Bulldozer and Piledriver microarchitectures.
http://www.tomshardware.com/reviews/windows-8-bulldozer-performance,3289-3.html
Schaffe89
2012-11-17, 18:47:10
So ein Unfug. Das trifft meinen Erfahrungen nach weder im GPU- noch im CPU-Limit zu, die üblichen Ausnahmen bestätigen die Regel.
Ihr habt doch selbst eine Gegenüberstellung gemacht mit dem Fazit dass Windows 8 in Spielen langsamer ist, oder etwa nicht?
Diablo 3 zum Bleistift.
http://www.pcgameshardware.de/Windows-Software-122001/Tests/Windows-8-Test-1018303/
Hier habt ihr deutlich weniger FPS gemessen.
Keine Ahnung wie sich das auf euren Windows 7 zu Windows 8 mit Vishera auswirkt.
Ich denke jedenfalls dass die Werte so nicht ordentlich verwertbar sind.
PS: Wie habt ihr Dirt 3 zum laufen gebracht? Bei mir geht das nicht unter Windows 8.
Ach Schaffe89, kannst du auch mal was posten, ohne jemanden etwas zu unterstellen oder zu trollen? Offenbar nicht.
Sagt der der grundsätzlich in Foren pro Intel ist und sofort kommt und den Verteidiger spielt.
Sagt jemand etwas total unsinniges gegen AMD, berichtigst du rein gar nichts.
Bezeichnend erst letztens dein Vergleich zwischen Intel Teillast und AMD Teillast, wo du durch "Schummeln" den Intel Prozessor wieder ins Rampenlicht stellst.
Den Unsinn verbreitest du dann quer durch die Seiten, sowie bei Comuterbase als auch im Luxx.
http://www.hardwareluxx.de/community/f11/intel-verschiebt-14nm-prozess-wegen-der-wirtschaftkrise-924643-7.html#post19729442
http://www.hardwareluxx.de/community/f11/intel-verschiebt-14nm-prozess-wegen-der-wirtschaftkrise-924643-7.html#post19730115
Der Hartware-Test zeigt, dass die FX im Teillast-Bereich in Relation genauso schlecht abschneiden wie bei Vollast,
Nein, tun sie nicht. Je mehr Kerne belastet sind, desto höher steigt der Stromverbrauch an.
Werden wie in manchen Spielen nur 2 oder 4 Kerne unterstützt, dann legen sich die anderen schlafen und die Differenz ist geringer.
Wenn man wirklich Teillast messen würde und nicht nur 2 oder 4 Kerne von 8 komplett auslasten würde, wäre der Unterschied zwischen AMD und Intel noch kleiner.
Für den nächsten persönlichen Angriff den ich hier entfernen muss gibt's eine Karte. Bitte den Ton etwas mäßigen.
mapel110
2012-11-17, 18:51:44
und der aktuelle PCGH-Test zu Win8 ist ein GPU-Bench und hat mehr mit Grafiktreibern zu tun, als mit der CPU-Performance. Versteh ich nicht, wie man den Performance-Unterschied dort auf die CPU schieben konnte.
Ronny145
2012-11-17, 18:51:57
Ihr habt doch selbst eine Gegenüberstellung gemacht mit dem Fazit dass Windows 8 in Spielen langsamer ist, oder etwa nicht?
Diablo 3 zum Bleistift.
Im GPU Test ja. Das kann in eher CPU limitierten Tests ganz anders aussehen.
N0Thing
2012-11-17, 19:17:14
Nein, tun sie nicht. Je mehr Kerne belastet sind, desto höher steigt der Stromverbrauch an.
Werden wie in manchen Spielen nur 2 oder 4 Kerne unterstützt, dann legen sich die anderen schlafen und die Differenz ist geringer.
Wenn man wirklich Teillast messen würde und nicht nur 2 oder 4 Kerne von 8 komplett auslasten würde, wäre der Unterschied zwischen AMD und Intel noch kleiner.
Also behalte deinen biased Quatsch für dich.
Kannst du den Link zu dem Review posten auf das du dich beziehst? Finde die Thematik bezüglich Teillast auch recht interessant, aber eine Aussage alleine bringt mir nichts. ;)
Schaffe89
2012-11-17, 21:37:04
http://www.hartware.de/review_1544_4.html
Hier bitte.
Pentium M
2012-11-17, 23:43:48
N0Thing : zUM gLÜCK ERZEUGT OFFICE ;dvdfAB;mAINCONCEPT:;KEINE Teillast lächerlich.Sorry der musste sein.
y33H@
2012-11-18, 02:42:45
Auch bei Spielen wie Skyrim verballert ein FX-8350 um die 100 Watt mehr als ein Core i5-3570K (bei weniger Fps), viel anders ist es bei Voll-Last auch nicht.
Sir Integral Wingate Hellsing
2012-11-18, 09:27:28
PS: Wie habt ihr Dirt 3 zum laufen gebracht? Bei mir geht das nicht unter Windows 8.
Hab vorher die neuste Version von "Games for Windows Live" installiert = ging.
Die Version die Steam mitinstalliert funzt nicht bei Win8 ("Wurde Dirt 3 richtig installiert?").
1680x1050 mit 8xAAA/16xAF/alles max Ingame = 60 fps im Durchschnitt, 50 min fps (FX-8320@3,8 GHz + HD 7870).
Twodee
2012-11-18, 11:07:32
http://www.hartware.de/review_1544_4.html
Hier bitte.
das kann ich auch: http://www.xbitlabs.com/articles/cpu/display/amd-fx-8350_8.html#sect0
Der FX verbaucht bei 1-Kern-Belastung fast so viel wie die I5/i7@Volllast.
btw der test von hartware.de ist ziemlicher murks, die testen bei z.b. "2 Kerne" auf dem Intel 2+2 Kerne (4Threads, da HT) und beim AMD nur 2 Int-Kerne (anstelle von 2 Module, 4 Threads).
N0Thing
2012-11-18, 16:56:34
N0Thing : zUM gLÜCK ERZEUGT OFFICE ;dvdfAB;mAINCONCEPT:;KEINE Teillast lächerlich.Sorry der musste sein.
Was willst du mir mit deinem Post sagen?
Schaffe89
2012-11-18, 22:56:13
Auch bei Spielen wie Skyrim verballert ein FX-8350 um die 100 Watt mehr als ein Core i5-3570K (bei weniger Fps), viel anders ist es bei Voll-Last auch nicht.
Ihr habt selbst in einem Artikel geschrieben, dass die Spieleleistungsaufnahme des FX im Verhältnis zur Vollast (Prime 95) deutlich geringer ist.
Man sieht es ja am Hartware Test dass bei weniger Threads der Unterschied geringer ist, aber das ignorierst du gekonnt und lässt den FX immer doppelt soviele Thread ausführen wie den Intel Prozessor, damit deine argumentation stimmig erscheint.
Der FX verbaucht bei 1-Kern-Belastung fast so viel wie die I5/i7@Volllast.
Trotzdem ist die Differenz viel kleiner, als bei Vollast, selbiges bestreit y33H@ ja, ohne Belege.
Siehe auch xbitlabs.
btw der test von hartware.de ist ziemlicher murks, die testen bei z.b. "2 Kerne" auf dem Intel 2+2 Kerne (4Threads, da HT) und beim AMD nur 2 Int-Kerne (anstelle von 2 Module, 4 Threads).
Nein, das was du sagst ist falsch.
Es wird genauso ohne HT getestet.
y33H@
2012-11-18, 23:17:49
Ihr habt selbst in einem Artikel geschrieben, dass die Spieleleistungsaufnahme des FX im Verhältnis zur Vollast (Prime 95) deutlich geringer ist.Steht wo? Die absolute Leistungsaufnahme ist fei geringer, nicht aber die relative. Zudem hat ein i5-3k nun mal vier Threads und ein FX-8k nun mal acht.
Davon ab misst PCGH nicht mit Prime 95 die CPU-Last, sondern mit x264 HD.
Sry lese nur muss aber kurz zwischenfragen: was ist "fei", bzw. wofür steht es?
€: dangö.
http://de.wiktionary.org/wiki/fei :)
Wäre es für die ganze Teillastdiskussion nicht am aufschlussreichsten einfach mal ein GPU-limitiertes Szenario in einem Spiel mit Last auf maximal 4 Kernen gegenüberzustellen?
Sry lese nur muss aber kurz zwischenfragen: was ist "fei", bzw. wofür steht es?
Er benützt's eh falsch ;-)
El_Presidente
2012-11-19, 02:38:52
fei ist fränkisch und heißt eigentlich gar nix ;)
ist nur ein "satzverstärkungswort" ;)
Twodee
2012-11-19, 10:12:16
Nein, das was du sagst ist falsch.
Es wird genauso ohne HT getestet.
hartware.de:
Bei Prozessoren mit Hyper-Threading werden die jeweils zusammengehörigen logischen Kerne mit ausgelastet, d.h. dass statt zwei physischen Kernen vier logische Kerne ausgelastet werden.
Du liegst da eher falsch.
y33H@
2012-11-19, 11:17:38
Der von mir genannte Core i5-3550 hat allerdings kein SMT, das sei der Vollständigkeit halber erwähnt. Was nichts daran ändert, dass ein FX-8350 bei Vollast oder Spielelast gerne mal 100W mehr verballert (bei reinem Singlethread ist's nicht so heftig).
Cyphermaster
2012-11-19, 12:21:54
Ich versteh trotzdem nicht, warum man immer FX8 grade bezüglich Spielen zum Vergleich heranzieht. Die korrespondierenden FX6 schlucken bei praktisch identischer Performance in Spielen auf das Gesamtsystem ~50W weniger, und sind dabei noch billiger - wenn also jemand das Geld für das zusätzliche Modul der FX8 hinlegt, muß er einen anderen Grund als Spiele dafür haben.
Twodee
2012-11-19, 12:25:15
Der von mir genannte Core i5-3550 hat allerdings kein SMT, das sei der Vollständigkeit halber erwähnt. Was nichts daran ändert, dass ein FX-8350 bei Vollast oder Spielelast gerne mal 100W mehr verballert (bei reinem Singlethread ist's nicht so heftig).
Das ist ja auch richtig, und das bestreite ich ja auch nicht. Ich habe nur den Test bzw. Vergleich bei Hartware.de als Murks bezeichnet, eben weil sie "falsch" Vergleichen. Das hat nichts mit "eurem" Vergleich zu tun.
y33H@
2012-11-19, 13:05:13
Ich versteh trotzdem nicht, warum man immer FX8 grade bezüglich Spielen zum Vergleich heranzieht. Die korrespondierenden FX6 schlucken bei praktisch identischer Performance in Spielen auf das Gesamtsystem ~50W weniger, und sind dabei noch billiger - wenn also jemand das Geld für das zusätzliche Modul der FX8 hinlegt, muß er einen anderen Grund als Spiele dafür haben.Jupp, ein FX-6300 ist aus Gaming-Sicht sinnvoller und hier ähnlich flott wie ein (günstigerer + sparsamerer) Core i3-3220.
Das ist ja auch richtig, und das bestreite ich ja auch nicht. Ich habe nur den Test bzw. Vergleich bei Hartware.de als Murks bezeichnet, eben weil sie "falsch" Vergleichen. Das hat nichts mit "eurem" Vergleich zu tun.SMT verfälscht so gesehen, ja. Vor allem weil die i7 immer mehr Last aufgebürdet bekommen als auf den ersten Blick vermutet.
Schaffe89
2012-11-19, 14:07:25
Davon ab misst PCGH nicht mit Prime 95 die CPU-Last, sondern mit x264 HD.
Wäre mal schön, wenn Ihr Messungen der CPU Leistungsaufnahme im GPU Limit oder generell in Spielen messen würdet.
y33H@
2012-11-19, 14:15:58
Im Rahmen von Praxis-Artikeln wird dies gemacht [wie in der kommenden 01/2013], in regulären CPU-Tests aus logischen Gründen nicht.
Twodee
2012-11-19, 14:20:50
Im Rahmen von Praxis-Artikeln wird dies gemacht [wie in der kommenden 01/2013], in regulären CPU-Tests aus logischen Gründen nicht.
Am besten mit einer 350Watt Graka, dann ist es eh wurscht, ob 400 oder 450Watt :freak:
Thunder99
2012-11-19, 14:21:29
Wieviel Spannung musstet ihr für die NB des FX6300 geben damit dieser auf 2,4Ghz NB Takt läuft? Hab da so meine Probleme diesen überhaupt an zu heben :redface:
y33H@
2012-11-19, 14:27:34
Am besten mit einer 350Watt Graka, dann ist es eh wurscht, ob 400 oder 450Watt.Mit einer GTX 680 in Skyrim sind es nur durch die CPU Unterschiede von über 100 Watt ;-)
Wieviel Spannung musstet ihr für die NB des FX6300 geben damit dieser auf 2,4Ghz NB Takt läuft? Hab da so meine Probleme diesen überhaupt an zu heben.Sofern du keinen Krüppel hast sollten 1,2 Volt reichen - zur Not 1,3 Volt.
Thunder99
2012-11-19, 14:32:31
ok, dann ist irgendwas bei mir komisch :(
Wie war es bei euch mit der LoadLine Calibration?
y33H@
2012-11-19, 14:42:20
Bei Asus idR auf High oder Ultra High, aber iirc gilt die LLC nur für die CPU-Vcore und nicht für die CPU-NB.
Thunder99
2012-11-19, 14:59:54
Bei Asus idR auf High oder Ultra High, aber iirc gilt die LLC nur für die CPU-Vcore und nicht für die CPU-NB.
Danke, wird auch von mir bestätigt das unter High keine Drops mehr vorkommen (gemessen durch die AI Suite II).
Dann mal testen :D
y33H@
2012-11-19, 15:02:19
High ist ziemlich stabil (d.h. per Multi zeigt sich, dass die Vcore aus dem UEFI fast 1:1 übernommen wird), bei Ultra High neigt das Board leicht zum overvolten.
Thunder99
2012-11-19, 15:51:43
High ist ziemlich stabil (d.h. per Multi zeigt sich, dass die Vcore aus dem UEFI fast 1:1 übernommen wird), bei Ultra High neigt das Board leicht zum overvolten.
Super, danke für die Info :)
Derzeit 4,4Ghz @ 1,38V am testen sowie NB @ 2,4Ghz (1,2V). LLC ist auf Ultra-High sowie auf High (bei der NB)
y33H@
2012-11-19, 15:55:31
Das sind realistische Wert, mit UH hast du wohl bissi über 1,40 Volt.
Sir Integral Wingate Hellsing
2012-11-19, 18:40:22
Wieviel Spannung musstet ihr für die NB des FX6300 geben damit dieser auf 2,4Ghz NB Takt läuft? Hab da so meine Probleme diesen überhaupt an zu heben :redface:
Das ist der einzige Bock, den sich mein Mobo leistet: Sämtliche Änderungen der NB-Takte werden schlicht ignoriert ;)
Dafür läuft mein FX mit gesenkter Vcore bei 3,8 GHz - immerhin :)
INDEX75
2012-11-19, 22:05:09
Wieviel Spannung musstet ihr für die NB des FX6300 geben damit dieser auf 2,4Ghz NB Takt läuft? Hab da so meine Probleme diesen überhaupt an zu heben :redface:
Zumindest bei meinem 8350 musste ich keinerlei Spannung für 2.4GHz erhöhen.
anddill
2012-11-19, 22:15:43
Ich auch nicht.
horn 12
2012-11-19, 22:25:27
Wie zufrieden seids dann schlussendlich mit dem FX 8350?
y33H@
2012-11-19, 22:48:41
Kauf dir halt einen und probiere es, dann hast du auch gleich dein User-Review aus erster Hand ;-)
Thunder99
2012-11-19, 23:20:51
Das ist der einzige Bock, den sich mein Mobo leistet: Sämtliche Änderungen der NB-Takte werden schlicht ignoriert ;)
Dafür läuft mein FX mit gesenkter Vcore bei 3,8 GHz - immerhin :)
Liegt eher am Board als an der CPU. Das ist meine Schlussfolgerung nachdem ich zwecks Speichertests ja das inoffizielle Beta BIOS 1701 erhalten hatte.
Ph0b0ss
2012-11-20, 01:59:29
Gibt es für die neuen Vishera CPUs eigentlich irgendwo so eine Art Datasheet wie bei Intel, wo die "Absolute maximum ratings" für Vcore, Northbridge usw. aufgelistet sind? Hab da auf der AMD-Webseite irgendwie nichts dazu gefunden.:confused:
y33H@
2012-11-20, 09:58:18
Da wird wohl nach wie vor das hier gelten:
http://support.amd.com/us/Processor_TechDocs/49686_15h_Mod_00h-0Fh_FX-Series_PDS.pdf
INDEX75
2012-11-20, 13:00:43
Wie zufrieden seids dann schlussendlich mit dem FX 8350?
Bisher bin ich zufrieden. Zumindest mehr als noch mit dem 8150. Wenn ich jedoch noch schneller und sparsamer unterwegs sein möchte, dann würde mich der Weg unausweichlich zu Intel führen.
Thunder99
2012-11-20, 14:31:46
Gibt es für die neuen Vishera CPUs eigentlich irgendwo so eine Art Datasheet wie bei Intel, wo die "Absolute maximum ratings" für Vcore, Northbridge usw. aufgelistet sind? Hab da auf der AMD-Webseite irgendwie nichts dazu gefunden.:confused:
Und das hier (http://products.amd.com/en-us/DesktopCPUResult.aspx?f1=AMD+Phenom%E2%84%A2+II+X6+Black+&f2=&f3=&f4=&f5=&f6=&f7=&f8=&f9=&f10=&)gibts nur bis max. Phenom II x6.
@y33H@: Ok du hast es gefunden :up:
y33H@
2012-11-20, 15:18:13
http://products.amd.com/en-us/desktopcpuresult.aspx?f1=AMD+FX+8-Core+Black+Edition&f2=&f3=&f4=1024&f5=AM3%2b&f6=&f7=32nm&f8=125+W&f9=5200&f10=False&f11=False&f12=True [FX-8k]
http://products.amd.com/en-us/desktopcpuresult.aspx?f1=AMD+FX+6-Core+Black+Edition&f2=&f3=&f4=1024&f5=AM3%2b&f6=&f7=32nm&f8=&f9=5200&f10=False&f11=False&f12=True [FX-6k]
http://products.amd.com/en-us/desktopcpuresult.aspx?f1=AMD+FX+4-Core+Black+Edition&f2=&f3=&f4=1024&f5=AM3%2b&f6=&f7=32nm&f8=&f9=&f10=False&f11=False&f12=True [FX-4k]
fettarme
2012-11-24, 01:36:27
Moin Leute
Hat einer von Euch mal probiert euren FX mit 32GB Ram Vollbestückung zu betreiben. Habe es selber versucht, aber diverse Probleme damit bekommen. Einmal das der Ramtakt nicht höher als 1333MHz Datenrate wollte und dazu, dass der Rechner keinen Neustart im Windowsmodus durchführte. Der Monitor blieb durchgehend schwarz. Runterfahren und Hochfahren funktionierte. Rechner lief auch Stabil. Nun mit 16GB Ram läuft er wesentlich schneller und Neustarts macht er auch problemlos. Liegt das am Board oder am FX-8350???
Sys:
FX-8350
ASRock 990FX Fatal1ty Professional Bios/UEFI 1.80
2x 16GB G.Skill Ares DDR3-1866 DIMM CL10 Dual Kit
SSD Samsung 830 256GB
Palit GTX 470
Enermax MODU87+ 600W
mapel110
2012-11-24, 01:44:02
http://www.asrock.com/mb/overview.us.asp?cat=Download&os=BIOS&Model=Fatal1ty%20990FX%20Professional
neues Bios 1,90 probieren.
Und selbst wenn das nicht hilft, würde ich eher das Mainboard, als die CPU verdächtigen.
Vollbestückung ist *immer* ein Problem. Die Ares Chips sind auch eher für Intels spezifiziert, wenn die nicht funktionieren, ist es kein Wunder, dass z.B. nicht mehr als DDR3-1333 gehen ist fast schon normal.
Wer Vollbestückung will, v.a. mit 8GB DIMMs, sollte wirklich nur nach der Kompatibilitätsliste einkaufen. Wenns keine gibt, dann Corsair, Crucuial oder Kingston Module die laufen meistens auch ohne Probleme mit AMD Chips, GSkill dagegen bereitet leider oft Probleme.
Eine Garantie das die dann laufen, hat man aber natürlich auch nicht.
Thunder99
2012-11-27, 19:09:03
Teste gerade ein wenig mit den BIOS Einstellungen bezüglich des OC meines FX6300.
Dabei ist mir aufgefallen, dass der Turbo nur funktioniert, wenn APM eingeschaltet ist. Das wiederum verhindert aber einen konstanten Takt bei Prime95 (aktuelle Version). Dabei war aber ganze Zeit HPC aktiviert.
Hat einer eine Erklärung für dieses Phänomen?
Thunder99
2012-11-30, 13:18:53
IPC improvement nur mit einem neuen Treiber :eek: Thread Optimierung?
http://www.overclockers.com/amd-fx-8350-piledriver-gaming-comparison
RavenTS
2012-11-30, 14:14:20
IPC improvement nur mit einem neuen Treiber :eek: Thread Optimierung?
http://www.overclockers.com/amd-fx-8350-piledriver-gaming-comparison
Na vermutlich eher Thread-Optimierung speziell im Treiber (greift da eigentlich der Bulldozer-Windows-Patch auch direkt oder muss das quasi direkt mit dem Treiber gemacht werden?!).
Wenn ja sollte das dann ja aber auch der INTeL-Seite zugute kommen!
dildo4u
2012-11-30, 14:30:55
Games
Now we get to the gaming suite. You can see all settings in our video card testing procedure article, but long story short: everything is run at 1080P with all eye candy maxed out.
Das sind größtenteils Benches im GPU Limit,logisch das dort der neue Grafiktreiber was bringt.Der Test hat alleine dadurch schon Null Wert als CPU Test,zusätzlich wurde der Intel komischerweise nich mit dem neuen Treiber und ohne OC gebencht das ist einfach Ein AMD Fanboy Test.
da der Intel nich mit dem neuen Treiber und ohne OC gebencht wurdeganz so schlimm ist es nicht:
Intel i7 3770K @ 4.0 GHz
Aber man kann sich gerne fragen, wieso sie nur auf 4 Ghz takteten und es dann auch bei den Diagrammen nicht dazuschrieben.
Schaffe89
2012-11-30, 15:20:30
Der Test ist teils Quatsch.
0 Wert hat er aber auch nicht, man sieht auch Performanceverbesseurngen im CPU Limit.
Interessant wäre mal zu untersuchen, ob Single GPU AMD Karten prinzipiell mit weniger CPU Leistung auskommen als Nvidiakarten.
Früher war das mal so.
Ronny145
2012-11-30, 15:30:16
IPC improvement nur mit einem neuen Treiber :eek: Thread Optimierung?
http://www.overclockers.com/amd-fx-8350-piledriver-gaming-comparison
Das sind GPU Benchmarks.
Liszca
2012-12-01, 00:15:17
...
Interessant wäre mal zu untersuchen, ob Single GPU AMD Karten prinzipiell mit weniger CPU Leistung auskommen als Nvidiakarten.
Früher war das mal so.
Oder eben auch besser mit der bulldozer bauweise klarkommen ...
Oder eben auch besser mit der bulldozer bauweise klarkommen ...Ich glaube nicht, dass Architekturen von GPUs und CPUs mehr oder weniger harmonieren können, wobei die Treiber mit gewissen Anzahl Kernen sinnvoll hantieren können müssen. Es wäre einigermassen klug seitens AMD, ihre Treiber so zu kompilieren, dass sie BDs Features nutzen wo sinnvoll und den Prozessor dadurch weniger belasten. Aber auch das glaube ich eigentlich nicht ;) Sind halt einfach die Performanceverbesserungen durch 12.11, die sich da zeigen.
Schaffe89
2012-12-01, 14:48:10
Es gab mal PCGH Tests die eine bessere Skalierung von AMD Karten mit langsameren CPU´s ( Kein Crossfire) zeigten.
Thunder99
2012-12-01, 17:04:27
Das sind GPU Benchmarks.
Beim Cat Vergleich, aber sonst nicht. Meine Aussage müsste man gegen prüfen und den i7 genau so mit dem Cat 12.11 benchen
Thunder99
2012-12-02, 12:46:36
Habt ja Recht, der Test ist nur bedingt aussagekräftig :redface:
Mit welchem Programm kann ich den Verlauf der Taktrate beobachten wie z.B. beim NVInspector das Monitoring hat?
RavenTS
2012-12-02, 13:54:07
... Es wäre einigermassen klug seitens AMD, ihre Treiber so zu kompilieren, dass sie BDs Features nutzen wo sinnvoll und den Prozessor dadurch weniger belasten. Aber auch das glaube ich eigentlich nicht ;) Sind halt einfach die Performanceverbesserungen durch 12.11, die sich da zeigen.
Beschränkt sinnvoll.
Denn nur wenn diese Optimierung nicht auf Kosten von Optimierungen für die INTeL-Plattform geht, denn genau auf solchen dürften die meisten GPU-Tests durchgeführt werden um eine CPU-Limitierung zu vermeiden.
In diesen Tests dann etwas benachteiligt zu sein dürfte schlimmer sein...
Knuddelbearli
2013-01-11, 12:00:05
was soll man davon halten?
http://www.youtube.com/watch?feature=player_embedded&v=eu8Sekdb-IE#
zB teste der unter 800x600? sonst ist metro ja total gpu limitiert usw
trine test ( wo amd ja scheinbar total abgeht ) ist scheinbar recht einzigartig als cpu test, und dort kann ich es auch glauben da die entwickler eventuell schon die neuen befehle nutzen
da zieht AMD einige male Intel ganz schön ab, mein ENG ist jetzt aber leider nicht sogut um alles genau analysieren zu können was der da quasselt
y33H@
2013-01-11, 12:18:31
Die Gaming-Benches sind teilweise Grafik-limitiert, dennoch sind die Intels hier klar flotter (gerade 720p), kennt man ja.
Mit Xsplit Streaming als zusätzliche Last laufen Black Mesa Source, Metro 2033 und Trine 2 auf dem FX schneller als auf dem 3570K, das ist durchaus realistisch, wenngleich ich die Settings nicht kenne. Lustig ist, dass er von "a lot of bad press" spricht, dabei stellen gute Reviews alles sauber da und Xsplit Streaming ist nun mal ein Spezialfall.
Xsplit Streaming komprimiert das Bild für den Upload, das geht halt voll auf alle Integer-Kerne, je höher die Auflösung desto höher der Rechenaufwand der CPU.
Knuddelbearli
2013-01-11, 12:24:40
hmm ok da haben mir meine eng kentnisse einen streich gespielt habs so verstanden das auch ohne Xsplit in metro amd vorne ist, Bei zB Crysis erwähnt er es ja auch extra das ohne Xsplit intel deutlich vorne ist mit aber AMD
sonst ist metro ja total gpu limitiert
Naja, laut seiner Aussage hat das 8350 System bei Metro:
Metro 2033
1080 - 36.44
1440 - 20.44
Der 3570k:Metro 2033
1080 - 21.200
1440 - 12.800
Der 3770k:
Metro 2033
1080 - 27.480
1440 - 12.960
der 3820:
Metro 2033
1080 - 21.32
Wenn ne andere CPU schneller ist, kanns logischerweise kein GPU-Limit gewesen sein.
Aber trotzdem komisch. Vielleichts liegts am RAM?
16 GB Kingston 2133MHz DDR3Vielleicht profitiert AMD da mehr von 2133?
Wenns allerdings am RAM läge, sollte der 3820 mit QuadChannel 2133 davonziehen :freak:
Wie auch immer, solange da keiner nachprüfen kann, glaub ich erstmal an irgendnen Messfehler ;)
Restlichen Benchzahlen sind hier:
http://teksyndicate.com/videos/amd-fx-8350-vs-intel-3570k-vs-3770k-vs-3820-gaming-and-xsplit-streaming-benchmarks
Edit:
Mit Xsplit Streaming als zusätzliche Last laufen Black Mesa Source, Metro 2033 und Trine 2 auf dem FX schneller als auf dem 3570K
Ach der Rest war auch gestreamt? Dachte nur Crysis wäre gestreamt gewesen. Dann wärs natürlich klar.
y33H@
2013-01-11, 13:05:20
Alles ab 04:40 ist mit Xplit Streaming, blöder Weise steht das aber nur bei Crysis WH dabei.
So gesehen ist seine Aussage "a lot of bad press" erst recht doof, denn Xplit Streaming ist wie Video-Rendering eine der wenigen Disziplinen wo der FX gegenüber dem 3570K sehr gut dasteht, was aber jedes gescheite Review aufzeigt. Bei Spielen oder gemischten workloads sieht's halt anders aus.
da zieht AMD einige male Intel ganz schön ab, mein ENG ist jetzt aber leider nicht sogut um alles genau analysieren zu können was der da quasseltTranskription grob, Kursiv meine Bemerkungen:
* i5 3570K der meist-empfohlene Gaming-Prozessor, gleiche Preisregion wie der FX 8350
* FX 8350 gewinnt 9 von 10 Gaming-Benchmarks gegen diesen - "wir waren alle schockiert" (welche Benchmarks wird nicht gesagt, folgt weiter unten)
* Tests mehrfach wiederholt, Ergebnis bleibt
* Ok, testen wir's in Streaming (was auch immer das heissen mag, folgt weiter unten) - der Intel wird total zersägt
* warum sieht es also in den Tests der meisten andern Websites so dermassen anders aus?
* Intel gewinnt halt in Crysis und BF3 "knapp", aber wir haben eine Menge anderer Spiele gebencht, und das hat mir echt Kopfschmerzen verursacht (Impliziert, der 8350 rul0rt da)
* Ok, dann nehmen wir den i7 3770K. Wird oft geschlagen. Ok, den 3820K.
* Aso, die Ergebnisse, habe es jetzt tagelang wieder und wieder getestet, weil der 8350 sehr unerwartet gut abschneidet. Bin frustriert.
* Alle Benches mit HD 7870 Habe die Kommastellen der fps abgeschnitten, spielt in dem Fall keine Rolle imo - ansonsten Video selber kucken
* Crysis2, 1080p: Intels i5&i7 mit 35-39 avg-fps vs. AMD FX8350 mit 29fps, 1440p: Intels 22, AMD 20
* Warhead, 1080p: FX8350 35fps, i5: 26fps, i7 3770k: 38fps, 3820: 26fps
* Warhead mit XSplit (ne Software die das laufende Game streamt) 1080p: 8350: 26fps, 3570K: 24fps (eingeblendet werden 37fps), 3820: 26fps.
* Warhead mit XSplit auf 1600x900 (weil normalerweise mit niedrigerer Auflösung gestreamt wird): 8350: 39fps, 3570k: 31fps, 3820:36fps
* Alle Grafik-Settings sind Maxed btw
* Warhead mit XSplit auf 720p: 8350: 48fps, 3570k: 37fps, 3820: 42fps
* Fazit hier: Intel schlägt hier AMD solange Crysis-Spiel-only. Aber Extra-Cores werden sehr nützlich mit XSplit
* Wir haben immer die gleiche Spielstelle getestet btw
* Black Mesa 1440p: 3850: 188fps, 3570k: 121fps, 3770k: 111fps
* Black Mesa 1080p: 3850: 262fps, 3570k: 192fps, 3770k: 197fps (eingeblendet werden 111fps), 3820: 196fps
* Metro, da war ich überrascht, extra-oft wiederholt deswegen
* Metro 2033 1440p: 3850: 20fps, 3570K: 12fps, 3770K: 12fps
* Metro 2033 1080p: 3850: 36fps, 3570K: 21fps, 3770K: 27fps, 3820: 21fps
* Trine 2 1440p: 3850: 36fps, 3570K: 23fps, 3770K: 27fps
* Trine 2 1080p: 3850: 58fps, 3570K: 38fps, 3770K: 47fps, 3820: 31fps
* 3820 hat so seine Hochs und Tiefs, ist ein bisschen komisch
* Also: In einigen Benchmarks ist er (der FX 8350) schneller, und Spiele, die ihm besonders liegen wie Metro und Trine killt er die Intels
* FX 8350 für 30-40$ günstiger als der 3570K hat oft bessere Game-Performance, wird noch ein Video für Produktivitäts-Benchmarks geben
* System für den FX 8350: MSI 990FX (BIOS verkrüppelt und konnten nicht wirklich übertakten - wollten auf 5GHz, aber konnten die Spannung nicht genug erhöhen), ADATA DDR3 2133 bei allen Prozessoren, ausser beim 3820 wo Gelid DDR3 2133 eingesetzt wird (CAS-Latency auf 11, beim ADATA auf 10).
* Kann den FX 8350 nicht nicht empfehlen - wer also genug Geld für ein neues System mit i5 3570K hat, warum nicht stattdessen den FX 8350 nehmen? Habe ich vor diesen Benchmarks nie so empfohlen.
* Oft sind die 990er-Mobos mit mehr Features als die Intel-Pendants bis auf PCIe 3
* Habe schlechtes Gewissen, dass ich der vielen schlechten Presse zugestimmt habe, und den FX 8350 nicht empfohlen hätte.
* Jetzt habe ich beide eigenhändig getestet und glaubte es nicht
* Also, seid keine Fanboys und nehmt halt, was am Besten ist
Genaueres System und Zahlen unter http://teksyndicate.com/videos/amd-fx-8350-vs-intel-3570k-vs-3770k-vs-3820-gaming-and-xsplit-streaming-benchmarks
Klingt für mich wie Werbung für AMD. Aber die Website ist nicht wirklich Fanboy-ish Richtung AMD aufgestellt, wie's scheint. Standard-CPU bei GPU-Tests ist z.B. der 3820. Die Leser sind Halbaffen, wenn man die Kommentare unter dem verlinkten Artikel ansieht xD
robbitop
2013-01-11, 13:11:39
Marc,
was mich mal interessieren würde (habe nur euer Online Review gelesen und das war leider nur mit FullHD Werten), wie sich ein Vishera (Singlethread-Spiele-)IPC mäßig ohne jegliche Limitierung (z.B. bei niedrigsten Auflösungen) ggü anderen CPUs verhällt.
Kommt er mittlerweile an die IPC vom Phenom 2, Llano, Core 2 heran?
Alles ab 04:40 ist mit Xplit Streaming, blöder Weise steht das aber nur bei Crysis WH dabei.Nein, siehe Minute 6:10 und folgende: Crysis WH war das einzige mit Streaming: "that's all the streaming tests that we're gonna do, just wanted to show you that the extra-cores come in handy with XSplit so that's pretty cool. Moving on to the next test...". Ausserdem Einleitung ab 0:28 oder so: AMD gewinnt schon so die nicht-Mainstream-Benchmarks in diesem Review (d.h. ausser Crysis), und mit Streaming dann auch die Crysis-Benches.
y33H@
2013-01-11, 14:17:15
Wie sollen in Metro 2033 bitte 12 Fps CPU-seitig ohne Xplit zustande kommen?
* Black Mesa 1440p: 3850: 188fps, 3570k: 121fps, 3770k: 111fps
* Black Mesa 1080p: 3850: 262fps, 3570k: 192fps, 3770k: 197fps (eingeblendet werden 111fps), 3820: 196fps
* Metro 2033 1440p: 3850: 20fps, 3570K: 12fps, 3770K: 12fps
* Metro 2033 1080p: 3850: 36fps, 3570K: 21fps, 3770K: 27fps, 3820: 21fps
* Trine 2 1440p: 3850: 36fps, 3570K: 23fps, 3770K: 27fps
* Trine 2 1080p: 3850: 58fps, 3570K: 38fps, 3770K: 47fps, 3820: 31fpsDas ist alles MIT Xplit Streaming.
Wie sollen in Metro 2033 bitte 12 Fps CPU-seitig ohne Xplit zustande kommen?Ich habe weder Metro noch eine Ivy Bridge, kann das also nicht überprüfen ;) Da Metro so ein Grafikhammer ist, kriegt man da die fps nicht eh so niedrig mit allen Optionen aufgedreht, gerade mit "nur" einer 7870? Dazu noch eine CPU-limitierte Stelle, et voilà, alles am Anschlag und unterirdische fps.
y33H@
2013-01-11, 14:32:29
Nein, alle diese Werte sind mit Xsplit. Schau dir bitte das Video noch mal genau an ... ich kenne CPU-Werte von Metro, Trine 2 und Source-Engine zur Genüge.
-------
Was mich mal interessieren würde (habe nur euer Online Review gelesen und das war leider nur mit FullHD Werten), wie sich ein Vishera (Singlethread-Spiele-)IPC mäßig ohne jegliche Limitierung (z.B. bei niedrigsten Auflösungen) ggü anderen CPUs verhällt. Kommt er mittlerweile an die IPC vom Phenom 2, Llano, Core 2 heran?Die IPC wird zT vom hohen Takt aufgefressen und ist je nach selbst im Vergleich zu Zambezi teils krass höher, man braucht also einen sehr breiten Durchschnitt, der mir derzeit nur teilweise vorliegt. Je nachdem was man mittelt, sehe ich ihn durchaus über einem Yorkfieldm (der wiederum klar über einem Deneb < Husky bzw Llano liegt).
Ich habe es mir genau angesehen, und dir oben auch die zwei Stellen aus dem Video zitiert, die mir sagen, dass es *ohne* XSplit ist, und mehr würde ich beim dritten Durchsehen auch nicht sehen ;)
ich kenne CPU-Werte von Metro, Trine 2 und Source-Engine zur Genüge.Das glaube ich dir berufshalber natürlich und kann nichts dagegen sagen. Ausser dass es halt eine gefühlsmässige Aussage ist, und dass das Gefühl sagt "i5 pwns FX" wissen wir ja :)
Ronny145
2013-01-11, 14:48:48
In Trine 2 ist die CPU völlig nebensächlich. Wenn man dort ohne AA testet, liegen mit einer schnellen GPU (und deaktivierten fps Limit) mehrere hundert fps an. Mit meinem 3570k jedenfalls.
y33H@
2013-01-11, 14:50:11
Alex hatte ja den Link zum Review gepostet: http://teksyndicate.com/videos/amd-fx-8350-vs-intel-3570k-vs-3770k-vs-3820-gaming-and-xsplit-streaming-benchmarks
Da steht in der Tat nur bei Crysis WH explizit Xsplit dabei. Gerade die Werte von Trine 2 sind aber total strange, etwa dass der 8350 in 1080 auf 58 Fps kommt und der 3570K auf 39 und der 3770K dann wieder auf 47 Fps - das Spiel ist nicht nennenswert multithreaded (http://www.pcgameshardware.de/Trine-2-PC-235266/Specials/Trine-2-Exklusives-Technik-Interview-mit-Frozenbyte-Grandioses-Art-Design-trifft-auf-detailverliebte-Engine-866092/) und ich habe da mit meinem 3570K in 720p hohe dreistellige Fps.
Dann die Metro Werte mit 1080p wo der FX 36 Fps machen soll und der 3570K nur 21, der 3770K aber 27 Fps. Und bei Metro in 1440p soll der FX 20 Fps packen, die Intels aber nur 12 Fps? Wie das, die CPU-Last steigt doch nicht durch die Auflösung - also bleibt als Lösung nur, dass Xsplit lief. Das Ganze ist hinten und vorne durch und durch widersprüchlich ...
Ronny145
2013-01-11, 14:54:47
Mehr als 2 Kerne bringen nichts in Trine 2. Ist auch nicht nötig, wie gesagt total nebensächlich. Die fps Werte in dem Test sind viel zu niedrig.
StefanV
2013-01-11, 14:55:13
@Marc
Wie hoch ist eigentlich die Auswirkung von CnQ auf die Performance??
Hab letztens gesehen, dass einige Spiele ruckeln, weil der FX nicht konstant auf dem Boosttakt bleibt sondern auf 2,8GHz runter taktet und der Takt alles außer konstant ist...
<snip> Das Ganze ist hinten und vorne durch und durch widersprüchlich ...Hm, okay, das ist tatsächlich strange und spricht deutlich gegen die Qualität des Reviews.
Thunder99
2013-01-11, 15:12:29
@Marc
Wie hoch ist eigentlich die Auswirkung von CnQ auf die Performance??
Hab letztens gesehen, dass einige Spiele ruckeln, weil der FX nicht konstant auf dem Boosttakt bleibt sondern auf 2,8GHz runter taktet und der Takt alles außer konstant ist...
Laut meinen Messungen und Vergleiche ist nicht CnQ Schuld sondern der APM Modus. Wenn ich mit aktiviertem APM Prime95 laufen lasse schwankt der Takt, mit deaktiviertem Modus nicht (dafür funktioniert der Turbo nicht mehr...)
y33H@
2013-01-11, 15:28:50
Jupp, C&Q interessiert nicht, sondern wenn dann APM.
robbitop
2013-01-11, 16:52:14
Die IPC wird zT vom hohen Takt aufgefressen und ist je nach selbst im Vergleich zu Zambezi teils krass höher, man braucht also einen sehr breiten Durchschnitt, der mir derzeit nur teilweise vorliegt. Je nachdem was man mittelt, sehe ich ihn durchaus über einem Yorkfieldm (der wiederum klar über einem Deneb < Husky bzw Llano liegt).
Also ist Piledriver von der IPC nun endlich oberhalb von Deneb und noch knapp unterhalb von Husky?
Das ist ja schonmal was. :)
Was meinst du eigentlich damit, dass die IPC vom hohen Takt aufgefressen wird? Die Gesamtperformance wird doch dadurch noch begünstigt.
y33H@
2013-01-11, 17:01:08
Der hohe Kerntakt kanibalisiert die IPC indem er durch die NB ausgebremst wird. Taktest du den Kern auf drei GHz so wird die IPC in Relation besser, da die Kerne genügend "Futter" durch die NB erhalten. Der hohe Takt ist somit eine IPC-Bremse und obendrein säuft der Chip u.a. wegen dem Kerntakt soviel Strom.
Undertaker
2013-01-11, 17:21:37
Lässt sich die Northbridge denn prozentual schlechter übertakten als der Kern?
y33H@
2013-01-11, 18:10:09
Puh, die NB geht idR von 2.200 MHz auf so 2.500 MHz (+14 %) und der Kern von 4.100 (all core turbo) auf etwa 4.600 bis 4.700 MHz (+15 %) - beides ohne Spannung zu keulen (Kern kann man teils auf 5+ GHz prügeln). Also würde ich sagen, die NB geht tendenziell kaum schlechter.
anddill
2013-01-11, 19:20:21
Sie ist halt @ Stock schon zu niedrig getaktet.
StefanV
2013-01-11, 20:18:54
Jop, das dürft wohl das Problem sein, dass 200MHz NB Takt ungefähr so viel bringen wie 500MHz Core Takt...
Mit 'nem halbwegs brauchbar taktenden NB würde der FX8300 sicher nicht soo schlecht sein...
grobi
2013-01-11, 21:16:56
Jop, das dürft wohl das Problem sein, dass 200MHz NB Takt ungefähr so viel bringen wie 500MHz Core Takt...
Mit 'nem halbwegs brauchbar taktenden NB würde der FX8300 sicher nicht soo schlecht sein...
Ich wollte es nicht glauben aber ein aufgebohrter Phenom 3 wäre wohl besser gewesen als das Bullidesign.
mfg grobi
anddill
2013-01-11, 21:31:40
Nein. Das Thema ist nun schon 100x durchgekaut worden.
StefanV
2013-01-11, 22:09:46
Ich wollte es nicht glauben aber ein aufgebohrter Phenom 3 wäre wohl besser gewesen als das Bullidesign.
Durch widerholungen werden Unwahrheiten nicht richtiger. Du solltest dich besser informieren, bevor du so einen Stuss weiter verbreitest...
Das Problem ist nicht das Design, das Problem ist, dass es ein paar Bugs gibt. Das ist aber bei einer neuen Architektur völlig normal. Der erste Phenom war auch nicht pralle, der Shrink hat dann aber die Kohlen ausm Feuer geholt...
Und so ist es auch mit den FX8300, das ist nicht mehr als ein gefixter erster Versuch. Im zweiten sehen wir dann, was hierbei möglich wird.
Und ein 10 Jahre altes Design wäre heute nur eines: ziemlicher Mist...
grobi
2013-01-12, 02:57:10
Durch widerholungen werden Unwahrheiten nicht richtiger. Du solltest dich besser informieren, bevor du so einen Stuss weiter verbreitest...
Komm mal klar und werde nicht beleidigend.
Das Problem ist nicht das Design, das Problem ist, dass es ein paar Bugs gibt. Das ist aber bei einer neuen Architektur völlig normal. Der erste Phenom war auch nicht pralle, der Shrink hat dann aber die Kohlen ausm Feuer geholt...
Und so ist es auch mit den FX8300, das ist nicht mehr als ein gefixter erster Versuch. Im zweiten sehen wir dann, was hierbei möglich wird.
Und ein 10 Jahre altes Design wäre heute nur eines: ziemlicher Mist...
Wenn AMD nicht in der Lage ist ein weitestgehend bugfreies Produkt abzuliefern
ist das deren Problem. Es ist genauso Stuss zu behaupten das dass Bullidesign hätte gravierende Bugs. Der Phenom hängt stark an der Bandbreite und man sieht das es Ansätze gibt die man hätte verbessern können. Den Bulli hätte man so nie so erschaffen sollen.
Liszca
2013-01-12, 17:10:11
!?
Steffko
2013-01-28, 12:15:03
Kann mir mal jemand AMDs Namensgebung erklären? Der FX6200 hat 6x3,8ghz und der FX6300 hat 6x3,5ghz. Müsste es nicht andersrum sein? :freak:
y33H@
2013-01-28, 12:18:41
Der 6300 ist der Nachfolger des 6100, nicht des 6200.
Steffko
2013-01-28, 12:55:25
Kurios. Intel macht es ja auch schon konfus, aber da ist zumindest noch ein gewisses System dahinter.
Taktfrequenz ist nicht alles...
Shink
2013-01-28, 15:35:17
Kann mir mal jemand AMDs Namensgebung erklären? Der FX6200 hat 6x3,8ghz und der FX6300 hat 6x3,5ghz. Müsste es nicht andersrum sein? :freak:
Beide haben den gleichen Turbo-Takt, der FX6300 hat eine höhere Leistung pro MHz, braucht weniger Strom und produziert weniger Hitze.
Namensgebung der 2. Stelle:
1 -> alter Bulldozer
3 -> neuer Vishera
2 -> wurde genau einmal vergeben, nämlich für den FX6200. Weiß der Geier, warum der nicht 6170 heißt.
dildo4u
2013-02-12, 20:39:44
Gaming Shoot-Out: 18 CPUs And APUs Under $200, Benchmarked
http://www.tomshardware.com/reviews/gaming-processor-frame-rate-performance,3427.html
Verschiebt sich leicht Richtung AMD neue Games sind Farcry 3 und Dirt Showdown.Scaling ist also im Schnitt besser gut für den i3 schlecht für den Pentium.
Verschiebt sich leicht Richtung AMD neue Games sind Farcry 3 und Dirt Showdown.Scaling ist also im Schnitt besser gut für den i3 schlecht für den Pentium.
Hmm was ist das denn bei FC3:
We didn't expect this; the Intel chips generate the highest consecutive frame latencies in Far Cry 3. With that said, those latencies are pretty low. They're almost irrelevant, in fact, until we get down to the Core i3-2120 and Pentium G860.
Kann sich jemand nen Reim drauf machen:confused:
dildo4u
2013-02-12, 21:00:29
Scheint ne komische Engine zu sein der 5800K hat die besten Latenz Werte,der 8350 die schlechtesten von den AMDs.Also will die Engine kein Takt und kein Cache.
Hm ja vielleicht hängt sie nur an der RAM-Latenz. Komisch ist auch der Pentium. Der ist beim Durchschnitt und 75% besser als die i3/i5. Nur bei 95% ist er dann schlechter. Irgendwie ziemlich mysteriös.
y33H@
2013-02-12, 21:28:01
Warum im Grafik-Limit, warum? ;(
Das ist doch Zeitverschwendung ...
Warum im Grafik-Limit, warum? ;(
Das ist doch Zeitverschwendung ...
Nee. Benchmarks im Grafiklimit sparen extrem viel Zeit – man kann überall den gleichen Wert hinschreiben. Präzision suggeriert man durch alternierende Nachkommawerte.
:ulol: ;)
Im Ernst: Der Schmarrn, CPUs in "praxistauglichen Einstellungen" zu benchen und dann festzustellen, dass die Grafikkarte praktisch untauglich ist, wird wohl nie aussterben.
MfG,
Raff
y33H@
2013-02-12, 22:08:48
Dann testen wir künftig CPUs mit einer HD 5450 DDR2 und Grafikkarten mit einem Atom 230.
StefanV
2013-02-12, 22:15:48
Ey, Leute,
Es ist Tommys Hardware.
Habt ihr ernsthaft was anderes erwartet??
Ronny145
2013-02-12, 22:17:17
Die schreiben auch gute Artikel.
Die schreiben auch gute Artikel.
nur zur Tarnung:freak:
Warum im Grafik-Limit, warum? ;(
Das ist doch Zeitverschwendung ...
Also haben wir da mal wieder nen Beweis, dass AMDs in Grafiklimit die bessere Leistung abliefern ;D
dildo4u
2013-02-12, 23:21:23
Die haben auch noch ein Crossfire Test gemacht,dort sind die Unterschied natürlich massiv in CPU limitieren Games.(Skyrim)
http://www.tomshardware.co.uk/fx-8350-core-i7-3770k-gaming-bottleneck,review-32616-5.html
Undertaker
2013-02-13, 13:37:41
Wenn man sich den 4,4 GHz i7 anschaut, sind wir leider aber noch immer nicht im vollständigen CPU-Limit. Wirklich neue Erkenntnisse bietet der Artikel aber ohnehin nicht.
dildo4u
2013-02-20, 18:28:32
PCGH CPU Benches
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578/
Core Skaling ist sehr gut AMD's liegen verdammt gut.Gebencht mit Titan *g*
Mal sehen ob das ein Trend wird wenn die neuen Konsolen wirklich 6 oder 8 Core AMD CPUs haben.
Bitte nicht, dann kann ich ja später dies Jahr nicht auf einen Haswell-Vierkerner "downgraden". :ugly:
Horst beiseite: Sehr schick, besser skaliert derzeit wohl kein Spiel mit CPU-Threads.
MfG,
Raff
Skysnake
2013-02-20, 18:51:34
Jup.
Jetzt muss Crytek ihre Engine nur noch verkauft bekommen.
Horst beiseite: Sehr schick, besser skaliert derzeit wohl kein Spiel mit CPU-Threads.
Das gilt für AMD. Die SMT-Skalierung bei den Vierkernern sieht hingegen nicht so pralle aus.
DarknessFalls
2013-02-20, 19:17:22
Mag daran liegen, daß SMT ungleich CMT ist. AFAIK haben die i7 halt nur vier Kerne, während die AMDs derer tatsächlich acht haben - wenn auch mit z.T. geteilten Komponenten.
Exxtreme
2013-02-20, 19:52:08
Die haben auch noch ein Crossfire Test gemacht,dort sind die Unterschied natürlich massiv in CPU limitieren Games.(Skyrim)
http://www.tomshardware.co.uk/fx-8350-core-i7-3770k-gaming-bottleneck,review-32616-5.html
Das zeigten auch schon andere Spiele/Programme. Sobald das Spiel/Programm 6+ Kerne nutzen kann ist der FX ziemlich schnell. Bei Crysis 3 wird das bestätigt.
Hmmmm, vielleicht hole ich mir doch nen FX.
wenn auch mit z.T. geteilten Komponenten.Jupp aber genau die - nämlich die FPU - wird bei Crysis nicht benötigt, sieht man am Vergleich zw. FX6300 und dem X6 1100t. Bei Cinebench z.B. ist der X6 deutlich vorne und auf FX8xxx-Niveau.
aufkrawall
2013-02-20, 20:13:11
Freue mich für AMD, dass die Stromsauferei wenigstens zu was Gutem führt.
Duplex
2013-02-20, 20:15:47
Ja die FX skalieren bei Crysis 3 ganz gut :)
Theoretisch könnte Intel im Mainstream Markt auch 6 Kerne/12 Threads anbieten, im Server Markt geht ja demnächst die Anzahl der Cores weit nach oben (15C/30T).
dildo4u
2013-02-20, 20:23:01
Denke Intel wird eher den kleinen Quads HT geben,dieses Jahr sind die Pläne eh fest.
dargo
2013-02-20, 20:23:01
Jup.
Jetzt muss Crytek ihre Engine nur noch verkauft bekommen.
Ich will deine Euphorie nicht unbedingt stören aber wenn ich Coda richtig verstanden habe resultiert das sehr gute Multithreading in Crysis 3 von der Grasdarstellung. Wenn du ein Spiel hast wo dieses Gras nicht benötigt wird kann es schon wieder mit dem perfekten Multithreading ganz anders aussehen.
Undertaker
2013-02-20, 20:37:11
Es wäre mal sehr interessant, einen FX ohne CMT zu sehen - bitte nachholen PCGH. :D Ich könnte mir vorstellen, dass Bulldozer hier generell ganz gut performt, nicht nur dank der hohen Threadzahlen.
Botcruscher
2013-02-20, 20:54:05
Hmmmm, vielleicht hole ich mir doch nen FX.
Zum Spielen? Ein Blick auf die andren Spiele zeigt da schnell heilende Wirkung.
y33H@
2013-02-20, 21:04:16
Es wäre mal sehr interessant, einen FX ohne CMT zu sehen - bitte nachholen PCGH.Eventuell kommende Woche.
Exxtreme
2013-02-20, 21:06:46
Zum Spielen? Ein Blick auf die andren Spiele zeigt da schnell heilende Wirkung.
In anderen Spielen ist das Ding ebenfalls schnell genug. Sobald etwas bequem im flüssigen Bereich ist ist mir das egal ob es dann noch schneller geht.
Auch der aaaaaalte Deneb liegt da wieder ziemlich gut und die immer soooo hochgelobten i3 und Pentium kacken leicht ab - HAHA
Da sieht man mal wieder, wie gut der Phenom 2 wirklich war/ist.
aufkrawall
2013-02-20, 21:32:49
Bequem flüssig ist erst ab min fps >60 und da siehts bei BD im Schnitt nicht unbedingt so dolle aus.
Schaffe89
2013-02-20, 21:38:29
Hätte ich jetzt nicht gedacht.
Schon das dritte Game nach Minecraft und Diablo 3, woe die FX mitalten bzw schneller sind.
Butterfly
2013-02-20, 21:40:30
@aufkrawall
Mit einem Intel System ist es erst ab 60FPS minimum bequem flüssig?
Ich behaupte jetzt mal ab 30FPS (min) sind meine AMD System flüssig genug.
aufkrawall
2013-02-20, 21:42:19
Behaupten kann man viel. ;)
Für ein Spiel, das schnelle Reaktionszeiten benötigt und online noch zusätzlicher Lag hinzu kommt, sind 30fps die Hölle.
Da sei als Beispiel mal das nicht ganz unpopuläre BF3 genannt.
Exxtreme
2013-02-20, 21:45:05
@aufkrawall
Mit einem Intel System ist es erst ab 60FPS minimum bequem flüssig?
Ich behaupte jetzt mal ab 30FPS (min) sind meine AMD System flüssig genug.
30 fps finde ich schon sehr schwammig. 50 - 60 fps empfinde ich als sehr flüssig. Sowas wie 120 fps reizt mich gar nicht da ich das eh' nicht merke.
Butterfly
2013-02-20, 21:46:21
Behaupten kann man viel. ;)
Für ein Spiel, das schnelle Reaktionszeiten benötigt und online noch zusätzlicher Lag hinzu kommt, sind 30fps die Hölle.
Da sei als Beispiel mal das nicht ganz unpopuläre BF3 genannt.
Jo da kann ich mit 2x HD7970 bequem die 60FPS minimum Grenze halten. :biggrin:
Auch der aaaaaalte Deneb liegt da wieder ziemlich gut und die immer soooo hochgelobten i3 und Pentium kacken leicht ab - HAHA
Da sieht man mal wieder, wie gut der Phenom 2 wirklich war/ist.
Nein, man sieht schlicht und ergreifend eine gescheite Engine, die alle Kerne voll ausnutzt. Das ist kein Deneb-Feature. ;)
MfG,
Raff
Ich will deine Euphorie nicht unbedingt stören aber wenn ich Coda richtig verstanden habe resultiert das sehr gute Multithreading in Crysis 3 von der Grasdarstellung. Wenn du ein Spiel hast wo dieses Gras nicht benötigt wird kann es schon wieder mit dem perfekten Multithreading ganz anders aussehen.
Nein, das wurde auch sonst großflächig ausgebaut.
Was ich gerade baue ist auch schön multithreaded und das gilt für alle neue Features.
aufkrawall
2013-02-20, 21:57:52
Jo da kann ich mit 2x HD7970 bequem die 60FPS minimum Grenze halten. :biggrin:
Aber nur im GPU-Limit:
http://www.pcgameshardware.de/Battlefield-3-PC-221396/Specials/Battlefield-3-Multiplayer-Tipps-CPU-Benchmark-1039293/
Nein, das wurde auch sonst großflächig ausgebaut.
Das lässt sich ja relativ einfach prüfen, indem man in jedem Level mal eine Szene frapst. :)
MfG,
Raff
Das Gras lässt sich doch sicher auch deaktivieren oder? e_vegetation irgendwas.
Edit: Probiert mal e_MergedMeshesInstanceDist = 0. Das sollte zumindest die Simulation ausschalten.
Undertaker
2013-02-20, 22:05:25
Hätte ich jetzt nicht gedacht.
Schon das dritte Game nach Minecraft und Diablo 3, woe die FX mitalten bzw schneller sind.
Minecraft habe ich keine Benchmarks zur Hand, aber in D3 (http://www.pcgameshardware.de/Diablo-3-PC-27763/Tests/Diablo-3-im-Test-welche-CPU-braucht-man-883814/) ist ein FX-8150 nur auf Sandy Bridge i3 Niveau (Vishera kann man entsprechend abschätzen).
Ich meine das ist überhaupt der erste Spiele-Benchmark, wo der i7-3770K und der i5-3570K hinter dem FX-8350 liegen? Also schon ein echtes Novum, da es im Mittel eben immer noch so (http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/CPUs-und-Prozessoren-Test-Bestenliste-AMD-und-Intel-675663/) ausschaut.
Wieder zu Crysis 3: Warum skaliert der X6 gegenüber dem X4 eigentlich so schwach? Nur gut 20% Mehrleistung trotz 50% mehr Kernen (OK, 100 MHz weniger Takt). Der FX-6 auf den FX-8 skaliert sogar besser, obwohl nur 33% mehr Kerne (und Gesetz des abnehmenden Ertrags)?
dargo
2013-02-20, 22:09:38
Nein, das wurde auch sonst großflächig ausgebaut.
Was ich gerade baue ist auch schön multithreaded und das gilt für alle neue Features.
Umso besser. :up:
dildo4u
2013-02-20, 22:17:04
Wieder zu Crysis 3: Warum skaliert der X6 gegenüber dem X4 eigentlich so schwach? Nur gut 20% Mehrleistung trotz 50% mehr Kernen (OK, 100 MHz weniger Takt). Der FX-6 auf den FX-8 skaliert sogar besser, obwohl nur 33% mehr Kerne (und Gesetz des abnehmenden Ertrags)?
Vermutlich wie bei Most Wanted zu niedrigen Northbridge Takt.
http://www.pcgameshardware.de/Need-for-Speed-Most-Wanted-2-PC-235018/Tests/Need-for-Speed-Most-Wanted-Prozessor-CPU-Test-Benchmark-1034023/
Vermutlich wie bei Most Wanted zu niedrigen Northbridge Takt.
http://www.pcgameshardware.de/Need-for-Speed-Most-Wanted-2-PC-235018/Tests/Need-for-Speed-Most-Wanted-Prozessor-CPU-Test-Benchmark-1034023/
Jupp, außerdem kann man noch Skalierungsdefizite annehmen. Die Engine ist schätzungsweise stark auf die 8 Threads der Konsolen optimiert.
Daredevil
2013-02-21, 01:51:42
PS4 vorgestellt mit 8 CPU Kernen.
Wird Crysis also in Zukunft nicht das einzige gute Spiel sein, was mit 8 Kernen super skaliert, mh? :)
Hmm .. hyperthreading-Bug der Crysis Engine?:
http://www.abload.de/img/proz20intelvxckq.jpg
http://gamegpu.ru/action-/-fps-/-tps/crysis-3-test-gpu.html
Undertaker
2013-02-21, 08:33:11
Vermutlich wie bei Most Wanted zu niedrigen Northbridge Takt.
http://www.pcgameshardware.de/Need-for-Speed-Most-Wanted-2-PC-235018/Tests/Need-for-Speed-Most-Wanted-Prozessor-CPU-Test-Benchmark-1034023/
Das müsste dann genauso auf Bulldozer zutreffen, tut es aber nicht. ;)
fondness
2013-02-21, 08:57:52
Auch der aaaaaalte Deneb liegt da wieder ziemlich gut und die immer soooo hochgelobten i3 und Pentium kacken leicht ab - HAHA
Da sieht man mal wieder, wie gut der Phenom 2 wirklich war/ist.
Ja ich finde das auch ziemlich genial. Ich überlege jedes Jahr aufs neue meinen X6 auszutauschen, aber irgendwie wird der bei neuen Spielen immer schneller statt langsamer. Und wenn man dann auch noch die Northbridge gut übertaktet gibt es gerade bei Spielen nochmal einen deutlichen Boost. Hätte ich mir damals eine gleich teure Intel-CPU geholt würde ich jetzt deutlich schlechter dastehen, das war ein echter Glücksgriff. Ich kann man nicht erinnern eine andere CPU auch nur annähernd so lange im Einsatz gehabt zu haben.
Knuddelbearli
2013-02-21, 08:59:56
also beim PCGH Test finde ich eher erschreckend das KEINE CPU für durchgehende 60 FPS reicht ...
Thunder99
2013-02-21, 09:04:37
Schön das man auch die gleiche oder minimal bessere IPC des Vishera sieht :)
FX6300 leicht schneller als X6 (3,3GHz), nur ka in wie weit der Turbo da eingreift.
FX8350 vs. i3770k siehts schon deutlicher aus (ok, mehr Takt und 2 4 "Kerne" mehr)
Könnte mir nur vorstellen das Haswell bei so guter Thread Ausnutzung alles bis dahin gezeigte in den Schatten stellt :eek:
Knuddelbearli
2013-02-21, 09:16:19
FX8350 vs. i3770k siehts schon deutlicher aus (ok, mehr Takt und 2 "Kerne" mehr)
2?
entweder sind es gleich viele ( CMT und SMT sind ja im Prinzip verschiedene Ansätze für das gleiche Problem ) oder 4 gegen 8
gnahr
2013-02-21, 09:30:39
smt bedeutet ja 20% mehr hardware (register und co) und cmt eher 70% von nem vollwertigen kern.
er hat den unterschied also scheinbar aus der hardwarebilanz gezogen um auf +2 zu kommen. :)
Knuddelbearli
2013-02-21, 09:50:28
wenn ichs richtig im kopf habe:
SMT bringt bis zu +25% für 5% mehr DIE Fläche
CMT bringt bis zu +80% für 40% mehr DIE Fläche
bei den 40% bin ich mir nicht ganz sicher Bulldozer release ja doch schon gut 2 Jahre her und finde die info per google gerade nicht
Skysnake
2013-02-21, 09:52:37
Nein, das wurde auch sonst großflächig ausgebaut.
Was ich gerade baue ist auch schön multithreaded und das gilt für alle neue Features.
Wunderbar :biggrin:
Da kann man nur hoffen, dass ihr mal an die alten Quake/UE Engines bzgl Vermarktung anknüpft ;)
Btw. Was nutzt du eigentlich zur parallelisierung?
Nur PThreads+AVX/SSE/MMX oder auch Sachen wie OpenMP?
smt bedeutet ja 20% mehr hardware (register und co) und cmt eher 70% von nem vollwertigen kern.
er hat den unterschied also scheinbar aus der hardwarebilanz gezogen um auf +2 zu kommen. :)
Wobei vermutlich Intels HT-Technologie:| vermutlich auch tendenziell in Richtung mehr doppelt vorhandener Einheiten geht, oder? (das ist doch jetzt bestimmt nicht mehr das gleiche HTT, wie beim P4)
Knuddelbearli
2013-02-21, 10:00:01
Wobei vermutlich Intels HT-Technologie:| vermutlich auch tendenziell in Richtung mehr doppelt vorhandener Einheiten geht, oder? (das ist doch jetzt bestimmt nicht mehr das gleiche HTT, wie beim P4)
Bei SMT werden neben paar Kleinigkeiten nur die Register verdoppelt.
Allerdings sind dafür ja auch die Cores fetter als sie vermutlich sonst wären
Haswell bekommt ja auch deutlich fetter Kerne die aber ( Höchstwahrscheinlich ) nur unter HT dann wirklich durchschlagen werden
Shink
2013-02-21, 10:06:36
Ich finde auch die Leistung des FX4300 in Crysis 3 ganz beachtlich. Parallelisierung ist wohl nicht die ganze Wahrheit beim gute Abschneiden der AMDs.
Undertaker
2013-02-21, 10:43:05
Ich finde auch die Leistung des FX4300 in Crysis 3 ganz beachtlich. Parallelisierung ist wohl nicht die ganze Wahrheit beim gute Abschneiden der AMDs.
->
Ich könnte mir vorstellen, dass Bulldozer hier generell ganz gut performt, nicht nur dank der hohen Threadzahlen.
Davon gehe ich auch mal ganz stark aus. Wäre es wirklich vor allem die Parallelisierung, kommt mir der bereits erwähnte PII X6 (in Relation) zu schwach vor.
Wird spannend in wie fern haswell hier performen wird - vor allem durch das verbesserte SMT+txt.
w0mbat
2013-02-21, 14:43:17
Schaut mal hier: http://www.xtremesystems.org/forums/showthread.php?285105-Crysis-3-AMD-FX-CPUs-dominate-INTEL-left-behind&p=5172242&viewfull=1#post5172242
Crysis 3 nutzt Intels HTT überhaupt nicht, daher ist der FX-8350 so "gut". Nach einen Patch sollte Intel wieder weit in Führung liegen.
Twodee
2013-02-21, 14:46:16
Schaut mal hier: http://www.xtremesystems.org/forums/showthread.php?285105-Crysis-3-AMD-FX-CPUs-dominate-INTEL-left-behind&p=5172242&viewfull=1#post5172242
Crysis 3 nutzt Intels HTT überhaupt nicht, daher ist der FX-8350 so "gut". Nach einen Patch sollte Intel wieder weit in Führung liegen.
guten morgen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9663717#post9663717
Ronny145
2013-02-21, 14:55:38
Warum liegt dann der 3770k 12% vor dem 3570k im PCGH Test? 100 Mhz und 2MB L3 könne kaum so viel ausmachen. Oder hängt das von der Testszene ab? Im Test von GameGPU sieht das schon recht strange aus. EA ist ja neuerdings ein AMD Gaming Evolved Arschkriecher, möglicherweise ist das Verhalten gewollt, um Bulldozer zu pushen.
w0mbat
2013-02-21, 14:58:46
guten morgen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9663717#post9663717
Mein Link war besser.
fondness
2013-02-21, 14:59:38
Naja das HT in Spielen öfter mal Leistung kostet ist ja nicht neues mehr. Wird Zeit das Intel das mit Haswell endlich ausbaut.
Twodee
2013-02-21, 15:02:12
Mein Link war besser.
Falsch. Dein Link zeigt auf einen Diskussionsthread, und dieser bezieht sich auf die gleiche Quelle, wie in S940 Post.
w0mbat
2013-02-21, 15:12:51
Falsch. Dein Link zeigt auf einen Diskussionsthread, und dieser bezieht sich auf die gleiche Quelle, wie in S940 Post.
Nicht falsch, sondern richtig! Mein Link ist immer noch besser als dein OT Gelabere.
Twodee
2013-02-21, 15:26:57
Nicht falsch, sondern richtig! Mein Link ist immer noch besser als dein OT Gelabere.
..welches du initiiert hast :rolleyes:
w0mbat
2013-02-21, 16:21:33
:D
dildo4u
2013-02-21, 16:30:27
Warum liegt dann der 3770k 12% vor dem 3570k im PCGH Test? 100 Mhz und 2MB L3 könne kaum so viel ausmachen. Oder hängt das von der Testszene ab? Im Test von GameGPU sieht das schon recht strange aus. EA ist ja neuerdings ein AMD Gaming Evolved Arschkriecher, möglicherweise ist das Verhalten gewollt, um Bulldozer zu pushen.
Einfach ein Folge davon das die Engine für die PS4 taugen muss,die Kerne sind dort recht schwach(Jaguar) und es muss ideal skalieren um Leistung zu bekommen.
Ronny145
2013-02-21, 16:38:05
Einfach ein Folge davon das die Engine für die PS4 taugen muss,die Kerne sind dort recht schwach(Jaguar) und es muss ideal skalieren um Leistung zu bekommen.
Du hast nichts verstanden.
Warum liegt dann der 3770k 12% vor dem 3570k im PCGH Test? 100 Mhz und 2MB L3 könne kaum so viel ausmachen.
Naja, immerhin laufen auf dem i7 ja 2 Threads mehr. Fragt sich jetzt halt nur, wieso es nicht 4 mehr sind...:confused:
Cache wäre auch noch ne Möglichkeit, selbigen hat ein BD und auch ein Intel 6core ja im Übermaß.
RavenTS
2013-02-21, 17:45:38
Jup.
Jetzt muss Crytek ihre Engine nur noch verkauft bekommen.
Tun Sie doch schon. Allein die beiden Online-Games Mechwarrior Online und Hawken bauen auf die Engine auf und laufen selbst mit einem hochgetakteten Core2Duo nur noch eher schlecht als recht...
y33H@
2013-02-21, 17:50:18
Hawken ist UE3, nicht CE3.
Pentium M
2013-02-22, 22:45:03
wenn ichs richtig im kopf habe:
SMT bringt bis zu +25% für 5% mehr DIE Fläche
CMT bringt bis zu +80% für 40% mehr DIE Fläche
bei den 40% bin ich mir nicht ganz sicher Bulldozer release ja doch schon gut 2 Jahre her und finde die info per google gerade nicht
12% mehr Logik-Transistoren laut 3DCenter.Link (http://www.3dcenter.org/artikel/amd-bulldozer-rechenkerne-modul-bauweise)
Undertaker
2013-02-23, 09:22:53
Die 5% bei SMT waren auch auf den P4 bezogen.
Twodee
2013-02-23, 10:32:36
wenn ichs richtig im kopf habe:
SMT bringt bis zu +25% für 5% mehr DIE Fläche
CMT bringt bis zu +80% für 40% mehr DIE Fläche
bei den 40% bin ich mir nicht ganz sicher Bulldozer release ja doch schon gut 2 Jahre her und finde die info per google gerade nicht
Diese bis +25% für SMT stimmt auch nicht so ganz, z.b. bei Luxmark sind es +40%.
Hier gibts einen schönen Vergleich zum Scaling: http://atenra.blog.com/2012/02/01/amd%E2%80%99s-bulldozer-cmt-scaling/
und da sieht man deutlich das CMT von den +80% weit entfernt ist.
Twodee
2013-02-23, 10:43:53
doppelpost
und da sieht man deutlich das CMT von den +80% weit entfernt ist.Ich seh da nichts dergleichen.
StefanV
2013-02-23, 12:36:22
Leute, überlegt doch mal, was SMT macht und was bei CMT passiert!
Dann sollte euch auch einleuchten, dass der Performancegewinn bei SMT gar nicht so groß wie bei CMT sein kann!
ALso, noch einmal im KLartext:
Bei SMT wird das Frontend aufgeblasen, um die Ausführungseinheiten besser auszulasten. Hierbei kann es durchaus sein, dass sich einzelne Dinge gegenseitig kicken und der Performance Gewinn relativ klein ausfällt.
Bei CMT hat man einen Scheduler, aber ein doppeltes Backend.
Klar, dass das in der Praxis besser ist...
Wenn man die Abhängigkeiten/Nachteile von SMT Ausbügeln möchte, landet man zwangsläufig beim CMT Ansatz!
Ronny145
2013-02-23, 12:40:02
Dann sollte euch auch einleuchten, dass der Performancegewinn bei SMT gar nicht so groß wie bei CMT sein kann!
Wahnsinn, wer hätte das gedacht? :freak:
Twodee
2013-02-23, 13:10:34
Ich seh da nichts dergleichen.
Auf den MT-Anwendungsmix vom Link bezogen: (von 4 Threads auf 8 Threads bei 4 Cores/Module)
CMT: von 54,4% bis 74,5%, im Schnitt: ~ 67,8%
SMT: von 24% bis 35,5%, im Schnitt: ~29%
Tja, wer hätte das gedacht? Durch den XBox- und PS4-Deal könnte AMD gleich in mehrfacher Hinsicht profitieren und durch die Anpassung vieler Games an die Architektur performancetechnisch zu Intel aufschließen. Finde ich gut, da so die Preise purzeln sollten ...
gnahr
2013-02-23, 14:06:51
durch die Anpassung vieler Games an die Architektur performancetechnisch zu Intel aufschließen.
an was für ne architektur? an "DIE AMD ARCHITEKTUR"?
klar, amd-prozessoren werden vom band geschnitten. 4kern apu, 8kern bulldozer, einfach 500gramm mehr silizium rauf auf den die bevor die presse zugeht... langsam kann man es aber auch nicht mehr hören wie sehr sie doch dafür provitieren MÜSSEN!
CMT: von 54,4% bis 74,5%, im Schnitt: ~ 67,8%
Und diese ~10% Unterschied nennst Du wirklich "von 80% weit entfernt" ?
Twodee
2013-02-23, 14:21:40
Und diese ~10% Unterschied nennst Du wirklich "von 80% weit entfernt" ?
Wie mans nimmt. 12% sind nicht ohne. Außerdem zeigt dort kein einziger Test die 80%.
Wo sind nun die Anwendungen, so dass man im allgemeinen von +80% bei CMT sprechen kann?
Undertaker
2013-02-23, 14:44:24
Bei CMT hat man einen Scheduler, aber ein doppeltes Backend.
Klar, dass das in der Praxis besser ist...
Wenn man die Abhängigkeiten/Nachteile von SMT Ausbügeln möchte, landet man zwangsläufig beim CMT Ansatz!
CMT ist weder besser noch schlechter als SMT, sondern schlicht ein anderer Ansatz. Genauso wie CMT eine höhere Mehrleistung ermöglicht, kostet es eben auch mehr Fläche auf dem Die. Alternativ kann man natürlich auch "fettere" oder mehr Kerne verbauen.
Knuddelbearli
2013-02-23, 16:32:54
Wie mans nimmt. 12% sind nicht ohne. Außerdem zeigt dort kein einziger Test die 80%.
Wo sind nun die Anwendungen, so dass man im allgemeinen von +80% bei CMT sprechen kann?
HT4u oder 3dnow ( gerade keine zeit zu suchen ) hat es kürzlich getestet
4 threads auf 4 module und 4 threads auf 2 module
2 module war da um ziemlich genau 20% langsamer im Schnitt
Twodee
2013-02-23, 16:50:48
HT4u oder 3dnow ( gerade keine zeit zu suchen ) hat es kürzlich getestet
4 threads auf 4 module und 4 threads auf 2 module
2 module war da um ziemlich genau 20% langsamer im Schnitt
du meinst den hier: http://www.planet3dnow.de/vbulletin/showthread.php?t=410661&garpg=6#content_start
das ist aber nicht das was ich meinte mit CMT-Skalierung.
Wenn dann 2 module, 2 Threads vs. 4 Threads.
Hmm .. hyperthreading-Bug der Crysis Engine?:
http://www.abload.de/img/proz20intelvxckq.jpg
http://gamegpu.ru/action-/-fps-/-tps/crysis-3-test-gpu.html
Vermutlich werden nur so viele Worker-Threads erzeugt wie es logische CPUs gibt und diese dann Fest drauf gepinnt.
Knuddelbearli
2013-02-23, 17:30:56
Abgesehen davon das SMT eh nur gut wirkt wenn der Code ineffzient ist ( deshalb eignet sich SMT besonders für inorder Architekturen ) Die jungs von Crytek haben sicher nen sehr effizienten Code dann bringt HT auch kaum was
Twodee
2013-02-23, 17:36:52
Abgesehen davon das SMT eh nur gut wirkt wenn der Code ineffzient ist ( deshalb eignet sich SMT besonders für inorder Architekturen ) Die jungs von Crytek haben sicher nen sehr effizienten Code dann bringt HT auch kaum was
Das sollte man vom h264-Bench auch meinen, schließlich ist dieser Handoptimiert, und dennoch bringt HT hier bis zu 30%. Es muss nicht immer an ineffizienten Code liegen, es reicht schon aus, wenn Berechnungen zu sehr vom Speicher abhängen, damit HT funktioniert.
Abgesehen davon das SMT eh nur gut wirkt wenn der Code ineffzient ist
Das ist schlicht falsch. Ich habe extrem optimierten Rasterizer-Code geschrieben bei dem SMT >50% Steigerung bringt.
Spasstiger
2013-02-23, 17:52:18
Ist das gute Abschneiden des FX-8350 in Crysis 3 denn als generelle Tendenz für künftige Spiele zu sehen?
Wäre ja gut, wenn sich die durchaus sehenswerte Anwendungsperformance des FX-8350 bald auch auf Spiele ummünzen ließe. Es ist etwas schade, dass man als Zocker derzeit nicht guten Gewissens an Intel vorbei kommt.
P.S.: Von wegen Hyperthreading-Bug, im Benchmark der PCGH platziert sich der i7-3770K um 12% vor dem i5-3570K: http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578/. Das ist doch völlig im Rahmen, näher am i7-3960K dran als am i5-3570K. genau zwischen dem i7-3960K und dem i5-3570K.
Denke schon. Die PS4 und wohl auch die Xbox haben ja 8 schwache Kerne, das heißt man hat gar keine andere Wahl als stark zu multithreaden.
Aber dann verbaut Intel halt auf einmal doch 8 Kerne und alles ist beim Alten ;)
Spasstiger
2013-02-23, 18:05:47
Aber dann verbaut Intel halt auf einmal doch 8 Kerne und alles ist beim Alten ;)
Zumindest Haswell ist für Consumer nur als Quadcore geplant. Das Hauptproblem bei den FX-Prozessoren ist aber nichtmal so sehr die Performance, sondern die abartige Leistungsaufnahme. Bei mehr als 100 Watt Unterschied (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/9/) zu einem i5-3570K unter Volllast kann ich so eine Empfehlung nicht mit meinem Gewissen vereinbaren. :freak:
Vermutlich werden nur so viele Worker-Threads erzeugt wie es logische CPUs gibt und diese dann Fest drauf gepinnt.
Macht die Zuweisung der Threads auf die logischen Kerne nicht eigentlich das Betriebssystem?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.