Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-8350 (Vishera) - Review-Thread
Undertaker
2013-02-23, 18:42:01
Denke schon. Die PS4 und wohl auch die Xbox haben ja 8 schwache Kerne, das heißt man hat gar keine andere Wahl als stark zu multithreaden.
Aber dann verbaut Intel halt auf einmal doch 8 Kerne und alles ist beim Alten ;)
Warum hat man ähnliches nicht eigentlich schon bei der aktuellen Konsolengeneration machen müssen? PS3 und 360 haben doch auch je 7/6 Threads (auch wenn gerade Cell jetzt schon sehr speziell ist) und sollten demzufolge von einer guten Parallelisierung stark profitieren.
Wie mans nimmt. 12% sind nicht ohne. Außerdem zeigt dort kein einziger Test die 80%.
Sei bitte nicht unglaubwürdig. 12% sind 12%, und nicht "weit entfernt". Weit entfernt von München aus wäre Neu Dehlhi (6000km), deswegen wird aus Kunduz aber kein Obermenzig. Kunduz ist mit 4.800 km ebenfalls noch verdammt weit weg, und das obwohl es gar galaktische (ich übertreib jetzt auch mal) 20% näher an München liegt, nicht nur lächerliche 12%.
Wo sind nun die Anwendungen, so dass man im allgemeinen von +80% bei CMT sprechen kann?Es geht nicht um +80%, es geht darum, dass zwei Threads auf einem Modul 80% der Leistung von 2 Threads auf je einem eigenen Modul haben. Du musst also die 4M/4T Werte gegen die 2M/4T Werte vergleichen. Das machen wir mal:
a) 7zip: 10.0xx / 11.3xx = 88%
b) x264: 18,73 / 23,27 = 80,4%
c) Truecrypt: 1600/1800 = 88%
Wie Du siehst alles über 80%, sogar der Cinebenchwert, der ziemlich FPU-lastig ist, und eigentlich (noch) stärker von 2 eigenen FPUs profitieren sollte.
@Coda:
Hast Du mit Deinem Fachwissen eventuell ne Ahnung, wieso sie das machen? Ist der Win-Scheduler so schlecht? Oder ist das Festpinnen eventuell doch ne "Optimierung" auf die Konsolen, da die Konsolen-OSse vielleicht überhaupt keinen Scheduler haben? :freak:
Wobei wir vielleicht eher die Frage stellen sollen, ob überhaupt festgepinnt wird. y33H@ meinte Letztens dass nur allgemein die CPU-Last auf Intels niedriger wäre ...
Frage ist auch, was da seit der Alpha-Version getrieben wurde, damals lag Intel noch weit vorne:
http://www.abload.de/img/crysis20320prozgfq53.png
http://gamegpu.ru/action-/-fps-/-tps/crysis-3-alpha-test-gpu.html
Das waren zwar noch alte BDv1, aber ich glaub jetzt kaum, dass Vishera so Riesenverbesserungen mitbrachte *g*
@Knuddelbearli:
Die jungs von Crytek haben sicher nen sehr effizienten Code dann bringt HT auch kaum was Laut den russischen Benchmarkwerten eher nicht, da dümplen ja 6 Kerne auf nem Bulldozer nur so bei 60% Last herum, nur 2 haben 80. Das sollte SMT eigentlich auch noch schaffen.
Undertaker
2013-02-23, 18:53:36
Es geht nicht um +80%, es geht darum, dass zwei Threads auf einem Modul 80% der Leistung von 2 Threads auf je einem eigenen Modul haben.
Schau doch mal, wie die Diskussion begann - Knuddelbearli sprach von "+80%"; das stimmt als Spitzenwert, aber nicht im Durchschnitt. Da würde ich eher ~60-70% ansetzen, bei SMT ~20% (beides gilt natürlich nur für parallelisierte Szenarien).
Skysnake
2013-02-23, 19:29:30
Sei bitte nicht unglaubwürdig. 12% sind 12%, und nicht "weit entfernt". Weit entfernt von München aus wäre Neu Dehlhi (6000km), deswegen wird aus Kunduz aber kein Obermenzig. Kunduz ist mit 4.800 km ebenfalls noch verdammt weit weg, und das obwohl es gar galaktische (ich übertreib jetzt auch mal) 20% näher an München liegt, nicht nur lächerliche 12%.
Es geht nicht um +80%, es geht darum, dass zwei Threads auf einem Modul 80% der Leistung von 2 Threads auf je einem eigenen Modul haben. Du musst also die 4M/4T Werte gegen die 2M/4T Werte vergleichen. Das machen wir mal:
a) 7zip: 10.0xx / 11.3xx = 88%
b) x264: 18,73 / 23,27 = 80,4%
c) Truecrypt: 1600/1800 = 88%
Wie Du siehst alles über 80%, sogar der Cinebenchwert, der ziemlich FPU-lastig ist, und eigentlich (noch) stärker von 2 eigenen FPUs profitieren sollte.
@Coda:
Hast Du mit Deinem Fachwissen eventuell ne Ahnung, wieso sie das machen? Ist der Win-Scheduler so schlecht? Oder ist das Festpinnen eventuell doch ne "Optimierung" auf die Konsolen, da die Konsolen-OSse vielleicht überhaupt keinen Scheduler haben? :freak:
Wobei wir vielleicht eher die Frage stellen sollen, ob überhaupt festgepinnt wird. y33H@ meinte Letztens dass nur allgemein die CPU-Last auf Intels niedriger wäre ...
Frage ist auch, was da seit der Alpha-Version getrieben wurde, damals lag Intel noch weit vorne:
http://www.abload.de/img/crysis20320prozgfq53.png
http://gamegpu.ru/action-/-fps-/-tps/crysis-3-alpha-test-gpu.html
Das waren zwar noch alte BDv1, aber ich glaub jetzt kaum, dass Vishera so Riesenverbesserungen mitbrachte *g*
@Knuddelbearli:
Laut den russischen Benchmarkwerten eher nicht, da dümplen ja 6 Kerne auf nem Bulldozer nur so bei 60% Last herum, nur 2 haben 80. Das sollte SMT eigentlich auch noch schaffen.
Eventuell reist es der Cache raus. Wenn die Datenlokalität halt schlecht ist, dann bekommste die Kerne einfach nicht ausgelstet
Undertaker
2013-02-23, 19:56:17
Eventuell reist es der Cache raus. Wenn die Datenlokalität halt schlecht ist, dann bekommste die Kerne einfach nicht ausgelstet
Interessanterweise skaliert der i3 zum i7 ja ziemlich nett, an einen zu kleinen L2-Cache (der L3 skaliert ja mit der Kernzahl eh mit) glaube ich darum nicht. Auch abseits der Skalierungsgeschichten scheint die Engine Intels aktuellen Architekturen nicht übermäßig gut zu liegen, siehe z.B. den ungewöhnlich geringen Abstand von FX-4300 und i5 2500K. Edit: Wobei, so extrem klein ist der eigentlich gar nicht.
Botcruscher
2013-02-23, 20:20:40
"Nicht gut liegen" für Intel finde ich irgendwie ironisch. Der FX ist hier nur nicht so schlecht wie bei andren Spielen, trifft es deutlich besser. Intel wird im Kriechgang schön weiter melken.
Twodee
2013-02-23, 20:27:54
Sei bitte nicht unglaubwürdig. 12% sind 12%, und nicht "weit entfernt". Weit entfernt von München aus wäre Neu Dehlhi (6000km), deswegen wird aus Kunduz aber kein Obermenzig. Kunduz ist mit 4.800 km ebenfalls noch verdammt weit weg, und das obwohl es gar galaktische (ich übertreib jetzt auch mal) 20% näher an München liegt, nicht nur lächerliche 12%.
Es geht nicht um +80%, es geht darum, dass zwei Threads auf einem Modul 80% der Leistung von 2 Threads auf je einem eigenen Modul haben. Du musst also die 4M/4T Werte gegen die 2M/4T Werte vergleichen. Das machen wir mal:
a) 7zip: 10.0xx / 11.3xx = 88%
b) x264: 18,73 / 23,27 = 80,4%
c) Truecrypt: 1600/1800 = 88%
Wie Du siehst alles über 80%, sogar der Cinebenchwert, der ziemlich FPU-lastig ist, und eigentlich (noch) stärker von 2 eigenen FPUs profitieren sollte.
.Sehr nett, verdrehen wir einfach die Ausgangsbasis damit es in deinen Kontext passt.
Undertaker hat es korrekt erkannt.
Exxtreme
2013-02-23, 20:36:01
Zumindest Haswell ist für Consumer nur als Quadcore geplant. Das Hauptproblem bei den FX-Prozessoren ist aber nichtmal so sehr die Performance, sondern die abartige Leistungsaufnahme. Bei mehr als 100 Watt Unterschied (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/9/) zu einem i5-3570K unter Volllast kann ich so eine Empfehlung nicht mit meinem Gewissen vereinbaren. :freak:
Interessanter wäre IMHO der Stromverbrauch beim Zocken. Da dürfte der Unterschied bei Weitem nicht so groß sein.
Eventuell reist es der Cache raus. Wenn die Datenlokalität halt schlecht ist, dann bekommste die Kerne einfach nicht ausgelstetAlso bei Intel quasi ne Vorsichtsmaßnahme, da mit SMT der Cache knapp werden würde?
Gut das wäre dann der Fall, dass sich Crytek was dabei gedacht hat. Wollen wir mal nicht ausschließen, soll ja auch gute Programmierer geben :)
Sehr nett, verdrehen wir einfach die Ausgangsbasis damit es in deinen Kontext passt.
Undertaker hat es korrekt erkannt.
Ausgangsbasis der 80% ist das:
http://www.abload.de/img/bulldozer-6nzuf1.jpg
und sonst nix Anderes.
Da steht deutlich 80% der Leistung eines CMP-Ansatzes. Das ist eindeutig. Wenn das jemand falsch verstanden hat, dann sollte es ja jetzt geklärt sein :)
Twodee
2013-02-23, 21:24:07
Ausgangsbasis der 80% ist das:
http://www.abload.de/img/bulldozer-6nzuf1.jpg
und sonst nix Anderes.
Da steht deutlich 80% der Leistung eines CMP-Ansatzes. Das ist eindeutig. Wenn das jemand falsch verstanden hat, dann sollte es ja jetzt geklärt sein :)
Ausgangsbasis der Diskussion war Knuddelbearli Aussage dass CMT +80% bringt. Nun alles klar?
Exxtreme
2013-02-23, 21:28:10
Abgesehen davon das SMT eh nur gut wirkt wenn der Code ineffzient ist ( deshalb eignet sich SMT besonders für inorder Architekturen ) Die jungs von Crytek haben sicher nen sehr effizienten Code dann bringt HT auch kaum was
Nein. Auch effizienter Code kann davon profitieren wenn man es schafft diesen auf die Kerne zu verteilen. Denn ein Umschalten zwischen Threads auf einem Kern kostet Zeit. Man muss den Zustand, den der vorige Thread gelassen hat wegsichern, den neuen Thread reinladen, nach einiger Zeit den Zustand den der jetzige Thread produziert hat wegsichern, den alten Thread wieder reinladen uswusf.
Hat man mehrere Kerne, auch wenn diese kleiner sind dann entfällt dieses permanente sichern/laden-Spiel.
Spasstiger
2013-02-23, 21:32:50
Hm ja vielleicht hängt sie nur an der RAM-Latenz. Komisch ist auch der Pentium. Der ist beim Durchschnitt und 75% besser als die i3/i5. Nur bei 95% ist er dann schlechter. Irgendwie ziemlich mysteriös.
Mir ist der Test bei THG eben erst aufgefallen und ich bin erfreut, dass man sich dort auch die Frametimes bei CPU-Benchmarks anschaut. Aber die gewählte Metrik ist imo nicht so wahnsinnig brauchbar und sollte einen auch nicht über solche Ergebnisse wundern lassen.
THG definiert als "Consecutive Frame Latency" (CFL) die Differenz der Framedauern von aufeinanderfolgenden Frames. Also quasi die Differenz der Differenz der Frametimes.
Die Framedauer-Folge
20 ms, 25 ms, 30 ms, 35 ms, 40 ms, 35 ms, 30 ms, 25 ms, 20 ms
hätte in allen Quantilen eine CFL von 5 ms und entspricht einer durchschnittlichen Framerate von rund 35 fps (9 Frames in 260 ms).
Die Framedauer-Folge
20 ms, 30 ms, 30 ms, 30 ms, 30 ms, 30 ms, 30 ms, 30 ms, 30 ms
dagegen hätte eine 95%-Quantil-CFL von 10 ms bei einer durchschnittlichen Framerate von ebenfalls rund 35 fps (ebenfalls 9 Frames in 260 ms).
Liest man die 95%-Quantile ab, könnte man also meinen, dass die Variante 2 schlechter performt. Dabei ist Variante 2 die deutlich gleichmäßigere Variante!
Außerdem spielt bei den schnelleren CPUs der GPU-Einfluß eine Rolle. Der kann durchaus auch zu stärkeren Schwankungen führen als bei den schwächeren CPUs, was aber eigentlich völlig egal ist, solange sich das durchweg auf höherem Frameratenniveau abspielt.
Ich persönlich würde als Metrik einerseits die Standardabweichung der Framedauern präsentieren und andererseits die längste Framedauer in verschiedenen Quantilen. Evtl. reicht auch die nur die längste Framedauer in verschiedenen Quantilen, das ist auf jeden Fall eine greifbare Größe. In den obigen Beispielen wären das für die 95%-Quantile 40 ms bei Variante 1 und 30 ms bei Variante 2.
Man könnte diese statistische Größe sogar in eine momentante Framerate umrechnen und direkt im Graphen für die Durchschnitts-FPS als weiteres Merkmal unterbringen. Ich verweise hier mal auf Frappo (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=537679). Die beiden fps-Werte für das 95%-Quantil im Reiter CDF sind z.B. Werte, die man im Frameratengraph zusätzlich markieren könnte als eine Art Spannbreite der momentanten Frameraten.
... Das Hauptproblem bei den FX-Prozessoren ist aber nichtmal so sehr die Performance, sondern die abartige Leistungsaufnahme. Bei mehr als 100 Watt Unterschied (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/9/) zu einem i5-3570K unter Volllast kann ich so eine Empfehlung nicht mit meinem Gewissen vereinbaren. :freak:
Das glaubst du doch selbst nicht. *kopfschüttel* Das ist der worst-case, Intel hat einen wahnwitzigen Technologievorteil bei der Fertigung und AMD kann trotzdem noch halbewgs mithalten - das ist eigentlich schon fast zu gut, um wahr zu sein. Die paar Wh, die mit einem FX bei einem normalen Betrieb anfallen, sind imho lockerst zu verschmerzen.
Exxtreme
2013-02-23, 23:13:29
Das glaubst du doch selbst nicht. *kopfschüttel* Das ist der worst-case, Intel hat einen wahnwitzigen Technologievorteil bei der Fertigung und AMD kann trotzdem noch halbewgs mithalten - das ist eigentlich schon fast zu gut, um wahr zu sein. Die paar Wh, die mit einem FX bei einem normalen Betrieb anfallen, sind imho lockerst zu verschmerzen.
Ich gehe davon aus, das ein 8-Kern-IB/SB ähnlich viel Saft ziehen wird wie der FX. Der Vergleich mit Volllast ist eigentlich ziemlich unfair.
Deshalb interessiert mich auch ein Vergleich in echten Spielen und nicht ein Prime-Benchmark. ;)
mapel110
2013-02-23, 23:17:13
Wieso unfair? Die krüppeligen Dinger leisten halt auch nicht mehr als Intels 4Kerner.
Exxtreme
2013-02-23, 23:17:47
Wieso unfair? Die krüppeligen Dinger leisten halt auch nicht mehr als Intels 4Kerner.
In Programmen, die nicht mehr als 4 Kerne nutzen nicht.
mapel110
2013-02-23, 23:20:29
In Programmen, die nicht mehr als 4 Kerne nutzen nicht.
Sie leisten auch in Programmen, die 8 Kerne nutzen, nicht mehr als Intels 4Kerner.
Performance pro Watt ist übel bei AMD, mehr gibts dazu nicht zu sagen.
gnahr
2013-02-23, 23:42:09
Ich gehe davon aus, das ein 8-Kern-IB/SB ähnlich viel Saft ziehen wird wie der FX.
... bei erheblich weniger leistung jeweils, ja.
Exxtreme
2013-02-23, 23:43:22
Sie leisten auch in Programmen, die 8 Kerne nutzen, nicht mehr als Intels 4Kerner.
Performance pro Watt ist übel bei AMD, mehr gibts dazu nicht zu sagen.
Ich glaube nicht, dass das in der Praxis so krass ausfällt wie mit Prime. Leider finde ich auf die Schnelle nichts. In den Tests gibt's nur Idle und Volllast und das sind halt 2 Extreme. Normal bewegt man sich irgendwo dazwischen. Und genau das interessiert mich und es hat mal wieder anscheinend keiner nachgemessen ...
anddill
2013-02-24, 00:55:23
hier in diesem Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9543402#post9543402
leider halt kein sauberes Review-System, sondern meine vollgemüllte und vollgestopfte Kiste.
Hab gerade gezockt, dabei hat der Leistungsmesser incl. Graka 210W angezeigt.
Botcruscher
2013-02-24, 09:09:42
Dann teste doch mal C3. Da sind wir dann bei ordentlicher Auslastung gegen brauchbare Leistung. Teillast ist doch uninteressant da die Architektur bei Singelthread erst recht nicht mithalten kann. Wovon es noch jede menge Spiele gibt, die auch richtig Leistung ziehen.
Knuddelbearli
2013-02-24, 09:13:10
Ausgangsbasis der Diskussion war Knuddelbearli Aussage dass CMT +80% bringt. Nun alles klar?
ja war verkehrt herum gerechnet bringt natürlich bei 2 threads vs 4 +60% da 80+80=160
Knuddelbearli
2013-02-24, 09:16:09
Dann teste doch mal C3. Da sind wir dann bei ordentlicher Auslastung gegen brauchbare Leistung. Teillast ist doch uninteressant da die Architektur bei Singelthread erst recht nicht mithalten kann. Wovon es noch jede menge Spiele gibt, die auch richtig Leistung ziehen.
Nur du vergleichst ja Teillast ( wenigsten/keine spiele nutzen sinnvoll 8 Threads ) dann mit Vollast verbrauch, ist also unsinnig
Botcruscher
2013-02-24, 09:33:31
Nein. Die Behauptung ist ja, dass der hohe Verbrauch nur bei voller Auslastung auftritt und diese bei Spielen kaum eine Rolle spielt. Bei C3 wird aber gut ausgelastet.
Knuddelbearli
2013-02-24, 09:49:43
gut ausgelastet ja sehr wahrscheinlich,
aber so stark wie zB Prime? sicher nicht
y33H@
2013-02-24, 12:04:53
Bei Spiele-Last verbrät ein FX auch 50W bis 100W mehr, leider (etwa 6300 gegen 3220 oder 8350 gegen 3470).
Hmmm war es doch nur das Gras (oder was sonst so im Djungel angezeigt wird ^^)
In andere Szenen gibts die übliche Reihenfolge:
http://www.abload.de/thumb/f1-38fsi6.jpg (http://www.abload.de/image.php?img=f1-38fsi6.jpg) http://www.abload.de/thumb/f2-3n0s1d.jpg (http://www.abload.de/image.php?img=f2-3n0s1d.jpg) http://www.abload.de/thumb/crysis3_cpu_human_1020nsoe.png (http://www.abload.de/image.php?img=crysis3_cpu_human_1020nsoe.png) http://pclab.pl/art52489-9.html
y33H@
2013-02-24, 16:10:02
Durchaus möglich.
Ronny145
2013-02-24, 16:46:52
30 fps für den default FX-8350 ist ja nicht gerade viel. Von durchgängig 60 fps scheint jeder CPU weit entfernt zu liegen. IVB wird in der einen Sequenz auf 40 fps gedrückt.
Spasstiger
2013-02-24, 17:24:20
In andere Szenen gibts die übliche Reihenfolge:
http://www.abload.de/thumb/f1-38fsi6.jpg (http://www.abload.de/image.php?img=f1-38fsi6.jpg) http://www.abload.de/thumb/f2-3n0s1d.jpg (http://www.abload.de/image.php?img=f2-3n0s1d.jpg) http://www.abload.de/thumb/crysis3_cpu_human_1020nsoe.png (http://www.abload.de/image.php?img=crysis3_cpu_human_1020nsoe.png) http://pclab.pl/art52489-9.html
Interessant, PCGH sollte dem auch mal nachgehen. Wenn der FX-8350 szenenweise auf 30 fps einbricht, wo die Intels immer noch über 40 fps halten, kann man den imo doch nicht uneingeschränkt für Crysis 3 empfehlen.
dildo4u
2013-02-24, 17:26:30
Post Human ist das erste Level das hat noch ein Performance bug.
http://maldotex.blogspot.de/2013/02/performance-bug-in-crysis-3-first-level.html
Ronny145
2013-02-24, 17:27:54
Bei roof of all evil sieht es nicht anders aus.
Skysnake
2013-02-24, 17:34:33
können wir uns drauf einigen, das wir allgemein das Game für die nächsten 4+x Wochen mal stecken lassen, bis die gröbsten Performancebugs gefixed sind?
Ronny145
2013-02-24, 17:36:11
Warum sollten wir? Für die ganzen User die das Spiel heute spielen und mit der Leistung leben müssen, sind 4+ Wochen irrelevant.
dildo4u
2013-02-24, 17:39:20
Ich find's erstaunlich das man nich mal mit 300€ CPU's 60fps bekommt,wo es doch 360 und PS3 Versionen gibt.So kacke FPS hab ich sonst nur bei reinen PC Games wie Guild Wars 2 und Planetside 2.
aufkrawall
2013-02-24, 17:40:50
Liegt vielleicht daran, dass 100€ billigere CPUs nicht großartig langsamer sind?
Ronny145
2013-02-24, 17:41:32
Die Objektdichte ist sicherlich viel geringer auf der Konsole. Mit Konsolendetails schätze ich werden das locker 60 fps durchgängig.
Spasstiger
2013-02-24, 17:47:23
Vielleicht hat Crytek das Spiel für 60 fps auf einem i7-3960X getrimmt und alle anderen müssen sehen, wo sie bleiben. ;)
dildo4u
2013-02-24, 17:50:50
Vielleicht hat Crytek das Spiel für 60 fps auf einem i7-3960X getrimmt und alle anderen müssen sehen, wo sie bleiben. ;)
Jo heftig vorallem weil es vermutlich so schnell kein Mainstream 6 Core Intel geben wird.
Botcruscher
2013-02-24, 18:22:54
Was soll denn der Konsolenvergleich. Da liegen im Detailgrad Welten. Vor ein paar Wochen gab es noch die Diskussion wo sich Mittel und Very High Grafik visuell unterscheiden. Nebenbei scheint es eh noch einige Bugs zu geben. Da wird schon noch einiges gefixt.
Liszca
2013-02-25, 07:28:27
Ich finde Crytek übertreibt es mit der Mathematischen korrektheit seiner Darstellung von wirklich unwichtigem, da hätten es auch weniger Performancefressende Optionen getan.
Wobei ich generell begeistert bin wie wenig das Spiel an sich flimmert.
y33H@
2013-02-25, 09:47:45
Welche unwichtigen Optionen?
Welche unwichtigen Optionen?
Ich nehme an er meinte die baumelnden Seile am Bildrand im ersten Level?
y33H@
2013-02-25, 13:23:12
Ich nehme das nicht an, zumal die Seile wohl ein Bug sind.
Liszca
2013-02-25, 15:32:02
Nein es geht mir nicht um einzelne Optionen, sonder nur dass der Rechenaufwand viel zu hoch ist für die erziehlte Qualität.
Ich kenn mich auch nicht aus wie die Sachen im detail funktionieren, wenn ich nur die Grafik anschauen sieht es zunächst super aus - Bis ich die Hardwareanforderungen sehe, dann denke ich nur noch: Das sieht bescheiden aus - selbst auf max. Settings auf der Geforce Titan - der ganze Rechenaufwand wofür? Diese scheiß sterile Welt sagt mir nicht zu, bietet mir keine Spielerischen Neuerungen, ist eher ein Aufguss wie die CoD Serie.
Warum keine zerstörbare Umgebung!?
Match-Maker
2013-02-25, 15:47:39
Hat aber auch mit dem Gesetz des abnehmenden Grenzertrags zu tun. Und wenn man wirklich realistische Grafik haben will, muss man eben auch kleine Dinge berechnen, die man nicht direkt sieht.
Ich kenn mich auch nicht aus wie die Sachen im detail funktionieren
Genau, und an der Stelle kannst du aufhören weiterzuschreiben.
Nicht zu wissen wie es geht, aber wissen wollen, dass es besser geht :mad:
Liszca
2013-02-25, 17:13:00
Und wenn man wirklich realistische Grafik haben will, muss man eben auch kleine Dinge berechnen, die man nicht direkt sieht.
Hmm ja das ist wohl so BF 3 hat für mich im gegensatz zu Crysis auch so einen derben Defekt - der mir nicht greifbar scheint - auf CPU-Seite.
Boris
2013-02-26, 14:13:30
Gibts eigentlich eine Möglichkeit einen FX-8350 auf einem µATX Mainboard zu betreiben? Irgendwie blicke ich bei den AMD-Chipsätzen nicht durch.
y33H@
2013-02-26, 14:24:30
http://geizhals.at/de/?cat=mbam3p&xf=522_%B5ATX#xf_top
Das ginge, aber leider gibts AM3+ µATX Boards nur mit älteren Chipsätzen. Die meisten davon sind Billigboards, wo die Spannungsversorgung doch etwas dünne für die durstigen 8000er sein dürfte, spätestens beim OC.
http://geizhals.at/de/?cat=mbam3p&xf=522_%B5ATX#xf_top
Edit: Das hier würde ich nehmen: http://geizhals.at/de/gigabyte_ga-78lmt-usb3_dual_pc3-10667u_ddr3_a832385.html?v=l
Boris
2013-02-26, 16:11:46
Eigentlich echt schade, mit Intel ist man da deutlich flexibler. Liegt das evtl. an dem erhöhten Platzbedarf auf dem Mainboard (Northbridge)?
Wenn es ein µAtx-Board gäbe das in den Funktionen nicht irgendwie beschnitten ist, wäre ich fast bereit vom i5 umzusteigen. AMD zuliebe + Basteldrang. ;)
y33H@
2013-02-26, 16:13:55
Solange es kein FX mit 3M oder 4M sein muss, wie wäre es mit FM2 und einem Athlon II X4 740X oder einem A10-5700 (samt iGPU)?
dildo4u
2013-02-26, 16:16:51
Er will sein i5 damit ersetzen ergibt aber so oder so kein Sinn.
Boris
2013-02-26, 16:24:22
Wie gesagt, der Sinn steht hier gar nicht zur Debatte. :D
Aber alles und FX-8350 wäre blöd. ;)
Eigentlich echt schade, mit Intel ist man da deutlich flexibler. Liegt das evtl. an dem erhöhten Platzbedarf auf dem Mainboard (Northbridge)?
Wenn es ein µAtx-Board gäbe das in den Funktionen nicht irgendwie beschnitten ist, wäre ich fast bereit vom i5 umzusteigen. AMD zuliebe + Basteldrang. ;)
Vergiss es, einer im Luxx hatte mal ein letztes gutes µATX Board für nen teuren Preis erstanden und dann gabs BIOS Probleme wegen des fehlendem HPC-Modes und noch ein paar Kleinigkeitenärgernisse ... er hat jetzt nen intel.
Dass es da keine guten Boards mehr gibt, liegt daran, dass sich die Hersteller an AMDs Vorgaben halten, es kam halt kein 990GX-Chipsatz mehr raus. Außerdem gab/gibts gleichzeitig FM1 und FM2 parallel ... die Kundschaft die nen Bulldozer lauft ist sowieso schon klein, und der Anteil der µATX-Käufer davon ist dann noch geringer ... also das rentiert sich einfach nicht.
Boris
2013-02-26, 16:36:15
Echt schade. :( In Zukunft will ich mehr mit Videobearbeitung arbeiten, da hätte der Vishera bestimmt gute Dienste geleistet.
Echt schade. :( In Zukunft will ich mehr mit Videobearbeitung arbeiten, da hätte der Vishera bestimmt gute Dienste geleistet.Jo, aber Haswell kommt ja auch bald, dann kannste da basteln, wenn Du magst :)
dildo4u
2013-02-26, 17:48:34
Komisch laut Maldo bringt HT ne Menge in C3 selbst bei Very High Details.
http://maldotex.blogspot.de/2013/02/hyperthreading-and-real-custom-graphics.html
Knuddelbearli
2013-02-26, 17:56:48
kommt halt immer auf die szene an
wie immer
bestes beispiel ist ja skyrim damals
indoor amd vorne autdoor NV extrem vorne
HTB|Bladerunner
2013-03-15, 14:49:43
Vergiss es, einer im Luxx hatte mal ein letztes gutes µATX Board für nen teuren Preis erstanden und dann gabs BIOS Probleme wegen des fehlendem HPC-Modes und noch ein paar Kleinigkeitenärgernisse ... er hat jetzt nen intel.
Dass es da keine guten Boards mehr gibt, liegt daran, dass sich die Hersteller an AMDs Vorgaben halten, es kam halt kein 990GX-Chipsatz mehr raus. Außerdem gab/gibts gleichzeitig FM1 und FM2 parallel ... die Kundschaft die nen Bulldozer lauft ist sowieso schon klein, und der Anteil der µATX-Käufer davon ist dann noch geringer ... also das rentiert sich einfach nicht.
Ja, die Story im Hardwareluxx hatte ich auch verfolgt und auch selbst miterlebt.
Mittlerweile hat Gigabyte ein "neues altes" µATX-Board im Programm was sogar offiziell die dicksten 8Core FX-CPUs unterstützt. Verbaut sind die etwas angestaubten Chipsätze AMD 760G + SB710. Hierbei müsste man allerdings auf SataIII-Unterstützung verzichten, was angesichts des Preises von knappen 60€ sogar verschmerzbar wäre.
Man müsste jetzt nur einen Freiwilligen finden der die OC-Fähigkeiten austestet. :D
GA-78LMT-USB3 (rev. 4.1) -> sogar mit Mosfet-Kühlung
http://www.gigabyte.de/products/product-page.aspx?pid=4305#ov
anddill
2013-03-15, 15:14:40
Gigabyte Board + AMD-CPU = 95% Fail-Chance. Die bringen einfach kein vernünftiges BIOS zustande.
Thunder99
2013-03-15, 15:20:05
Gigabyte Board + AMD-CPU = 95% Fail-Chance. Die bringen einfach kein vernünftiges BIOS zustande.
Kann ich bestätigen, da ich meinen alten Phenom 2 X2 auf einem Gigabyte Board nur auf einen X3 freischalten konnte, auf einem ASUS (egal welches) konnte ich auf X4 freischalten.
Nur wieso ich atm nicht meinen FX6300 vernünftig takten kann (es geht einfach kein OC) da der PC immer beim BIOS initialisieren aus geht verstehe ich noch nicht. Leistungsaufnahme bzw Netzteil ist ansich stark genug :confused: (Enermax Pro 82+ 425W)
Edit: Was in meiner Sig steht hatte ich mal hin bekommen, aber durch OC Versuche geht das derzeit gar nicht mehr
(del676)
2013-03-15, 15:21:19
Gigabyte Board + AMD-CPU = 95% Fail-Chance. Die bringen einfach kein vernünftiges BIOS zustande.
~# uptime
15:19:28 up 16 days, 16:01, 12 users, load average: 0,07, 0,53, 1,08
~# dmidecode | grep Gigabyte -A1
Manufacturer: Gigabyte Technology Co., Ltd.
Product Name: GA-990FXA-UD5
~# cat /proc/cpuinfo |grep "model name" | head -n 1
model name : AMD FX(tm)-8150 Eight-Core Processor
Dann gehoer ich wohl zu den 5%? Der laeuft uebrigens 24/7 und ist mir noch kein einziges Mal abgesemmelt seit ich ihn drin hab, und das sind fast 1,5 Jahre.
anddill
2013-03-15, 15:30:40
Ja, ich hatte auch schon funktionierende AMD-Gigabyte Kombis laufen. Aber auch da hab ich mal ein 3/4 Jahr auf ein BIOS warten müssen bei dem endlich alles funktionierte. Und das bei einem 170€ Board. Welches ich gekauft habe, weil bei dem 140€-Board die Spawas abgeraucht sind, genauso wie ich es mit anderen PCs und 80€-Boards erlebt habe. Dazu Service von dem man die Teile kaputter zurückbekommt als man sie hingeschickt hat, verweigerte Garantie und absichtlich zerstörte Teile incl. Aufkleber "Damaged by User".
Mag sein daß ich durch diese Erfahrungen an selektiver Wahrnehmung leide. Andererseits wenn ich so ins AMD-Forum hier schaue taucht immer wieder Gigabyte auf. Hier, schon wieder einer:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9693794#post9693794
HTB|Bladerunner
2013-03-15, 15:38:55
Gigabyte Board + AMD-CPU = 95% Fail-Chance. Die bringen einfach kein vernünftiges BIOS zustande.
Bzgl. FX-CPUs würde ich dir zustimmen. Vor allem was OC angeht. Ob das immer noch so ist müsste man mit dem Board da oben aber testen.
Für den PhIIx6 gab es meines Erachtens kein besseres µATX-Board wie das GA-880GMA-USB3. Jahrelang lief das Mobo in einem schlecht belüfteten Gehäuse und übertaktet bis zum geht nicht mehr, absolut problemlos. Lediglich der Lack auf der Rückseite der Spawas hat sich über die Jahre Gelb-braun verfärbt. :D
*edit*
@anddill
Das ist natürlich unschön. Dann verstehe ich auch deine Abneigung gegenüber Gigabyte.
y33H@
2013-03-15, 17:12:51
Mein 990FX-UD5 hat's mit dem FX-8150 damals auch zerlegt (die CPU rennt wie gehabt 1A), daher habe ich derzeit den i5 drin :usad:
(del676)
2013-03-15, 17:13:31
Userfehler :P
:)
Also bei mir rennen sowohl ein Gigabyte X38 als auch ein Gigabyte 790FX seit vielen Jahren tadellos – stark übertaktet und übervoltiert.
MfG,
Raff
Schaffe89
2013-03-15, 22:37:57
Welche außer ein zwei Level in Crysis 3?
Wie jetzt doch schon2? ;)
Das hat noch keiner getestet. Wie viele Levels mit viel animiertem Gras gibt's denn? Wäre interessant, ob sich diese Parallelisierung auch auf andere, statische Objekte übertragen lässt.
MfG,
Raff
Die Vegetation ist ein Spezialfall (Und nicht alle Vegetation ist gleich ;)). Die Engine ist aber generell parallelsiert.
Ich denke aber nicht, dass man ohne Vegetation die CPU so voll bekommt, dass die AMDs immer noch diese Leistung zeigen.
Ich denke aber nicht, dass man ohne Vegetation die CPU so voll bekommt, dass die AMDs immer noch diese Leistung zeigen.Na da kann AMD dann ja endlich mit tollem "green computing" werben - trotz des Stromverbrauchs :freak:
TobiWahnKenobi
2013-03-31, 12:34:47
ich habe die letzten tage auch mal so ein dings zusammengesteckt.. vishera 8320 mit asrock 970 extreme4, 16GiB-RAM und geforce gtx titan. das dings ersetzt jetzt meinen alten phenom2 x4 und das schönste an der CPU ist die blechdose.
viel getaktet habe ich noch nicht - bezw. habe ich schon, aber es ging trotz wakü fast immer in die hose. derweil habe ich grad ne runde BF3 auf den ding gespielt. zwei kerne deaktiviert, die restlichen 6 auf 4.2GHz hochgetaktet (1.4V, wenn ich mich nicht irre) und was soll ich sagen.. ?! läuft.. karkand ~60-120fps lt. OSD.
kurzzeitig hatte ich gestern ne GTX690 drin, aber da ich nur mit crysis3 getestet habe und mir die frames zu waklig waren, bekam das teil ne SGPU. kann man wirklich benutzen.. *respekt*
(..)
mfg
tobi
Kannst dann ja mal testen, inwieweit die SGPU-Mikroruckler beim FX auch auftreten.
TobiWahnKenobi
2013-04-02, 09:10:13
vllt. wenn das nächste mal zwei feiertage nacheinander fallen :-)
mein basteltrieb ist erstmal befriedigt.
(..)
mfg
tobi
ich habe die letzten tage auch mal so ein dings zusammengesteckt.. vishera 8320 mit asrock 970 extreme4, 16GiB-RAM und geforce gtx titan. das dings ersetzt jetzt meinen alten phenom2 x4 und das schönste an der CPU ist die blechdose.
viel getaktet habe ich noch nicht - bezw. habe ich schon, aber es ging trotz wakü fast immer in die hose. derweil habe ich grad ne runde BF3 auf den ding gespielt. zwei kerne deaktiviert, die restlichen 6 auf 4.2GHz hochgetaktet (1.4V, wenn ich mich nicht irre) und was soll ich sagen.. ?! läuft.. karkand ~60-120fps lt. OSD.
kurzzeitig hatte ich gestern ne GTX690 drin, aber da ich nur mit crysis3 getestet habe und mir die frames zu waklig waren, bekam das teil ne SGPU. kann man wirklich benutzen.. *respekt*
(..)
mfg
tobi
Okay, gegen einen X4 sieht der Vishera gewiss gut aus. Gegen meinen optimierten X6 hat's der Neue aber wahrlich schwer, obwohl ich mit Mini-Wakü, 5 GHz CPU- und 2,6 GHz NB-Takt schwere Geschütze auffahre. Meine Hoffnungen liegen nun auf dem Speicher-Upgrade: Mit DDR3-2200+ statt ~1700 bei vergleichbaren Timings sollten nochmal 10 Prozent im Mittel herauskommen.
MfG,
Raff
TobiWahnKenobi
2013-04-02, 12:53:21
ich kriege HT und NB nicht hoch auf dem teil. will aber nicht ausschliessen, dass sich das im laufe der zeit noch ändert. bin aus der AMD-takterei ein bissl raus und CPU-NB-spannung.. NB-spannung.. HT-spannung.. überfordert einen anfänger leicht.
btw,
ich hatte kurzzeitig 2133er g.skill drinstecken, aber das war hier nicht zielführend. die machen sich im i7 besser. der AMD hat 1600er (geil, 99924) @1800 (10101030).
das hier ist jetzt "die" einstellung, die sauber funktioniert - so läuft der AMD solid.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9716005&postcount=26
(..)
mfg
tobi
Knuddelbearli
2013-04-02, 16:14:27
10% durch speicher? wo den das bitte?
Nightspider
2013-04-02, 16:16:50
THIS IS OPTIMISMUS !
ich kriege HT und NB nicht hoch auf dem teil. will aber nicht ausschliessen, dass sich das im laufe der zeit noch ändert. bin aus der AMD-takterei ein bissl raus und CPU-NB-spannung.. NB-spannung.. HT-spannung.. überfordert einen anfänger leicht.
Hmm das Extreme4 hat nur eine Phase für die NB, vielleicht geht der die Puste aus?
Eventuell wär das kleine 970er von Asus besser gewesen, das hat immerhin auch schon 2 Phasen für die NB. Aber so genau wirds mans nie wissen. Kannst ja noch weiterprobieren :)
10% durch speicher? wo den das bitte?
THIS IS OPTIMISMUS !
Ja, Optimismus, aber begründeter. Die anderen Flaschenhälse sind mit 5 respektive 2,6 GHz geweitet, daher gehe ich davon aus, dass mehr als 5 Prozent im Mittel herausspringen. :) Engpässe lassen sich verlagern – und mit schnellem Speicher ist die Kiste dann ausgewogen.
MfG,
Raff
=Floi=
2013-04-02, 16:43:09
nur kostet der speicher dann mehr wie der aufpreis zu intel. :rolleyes:
Darum geht's mir aber nicht – das ist ein Fuffi und paar Zerquetschte –, sondern darum, einen schnellen AMD-Rechner zu bauen. Ist schwierig genug. :biggrin:
MfG,
Raff
y33H@
2013-04-02, 17:01:33
ich kriege HT und NB nicht hoch auf dem teil. will aber nicht ausschliessen, dass sich das im laufe der zeit noch ändert. bin aus der AMD-takterei ein bissl raus und CPU-NB-spannung.. NB-spannung.. HT-spannung.. überfordert einen anfänger leicht.Lass die Finger vom HT, den hochzuziehen bringt dir rein gar nichts.
TobiWahnKenobi
2013-04-02, 17:09:30
ich weiss - ich hatte es nur der vollständigkeit zuliebe erwähnt. ich war mir nichtmal sicher, was da jetzt standard ist.. 2000 oder 2200.. *kopfkratz*
(..)
mfg
tobi
Skysnake
2013-04-02, 18:16:17
Lass die Finger vom HT, den hochzuziehen bringt dir rein gar nichts.
Naja, "gar nichts" würde ich jetzt nicht sagen. Kommt halt wie immer drauf an, was man genau macht.
nen höherer HT Takt sollte sich halt auf den ganzen IO-Kram auswirken. Natürlich nur, wenn der limitiert. Da PCI-E 3.0 bei GPUs aber schon einen kleinen Vorteil teils bringt im Vergleich zu 2.0, sollte nen höherer HT Takt auch nicht von Nachteil sein bei Multi-GPU.
y33H@
2013-04-02, 18:28:37
Ich hab niemals irgendwas gemessen und kenne auch keinen Test der zeigt, dass ein übertakteter HT-Link [in Spielen oder bei Consumer-Software] was bringt. AMD selbst spect die FX auf 2,6 GHz HT - die meisten AIBs legen aber nur 2,0 oder 2,2 GHz an.
fondness
2013-04-02, 18:49:41
Naja, "gar nichts" würde ich jetzt nicht sagen. Kommt halt wie immer drauf an, was man genau macht.
nen höherer HT Takt sollte sich halt auf den ganzen IO-Kram auswirken. Natürlich nur, wenn der limitiert. Da PCI-E 3.0 bei GPUs aber schon einen kleinen Vorteil teils bringt im Vergleich zu 2.0, sollte nen höherer HT Takt auch nicht von Nachteil sein bei Multi-GPU.
Never. HT ist bei weitem überdimensioniert solange man nur einen Sockel hat. Der FX ist eigentlich für Multi-Sockel-Server konzipiert.
Never. HT ist bei weitem überdimensioniert solange man nur einen Sockel hat.Für 1xPCIe3 x16 oder 2xPCIe x16 reichts knapp schon nicht mehr. Erst recht nicht für Multi PCIe3.
Ich hab niemals irgendwas gemessen und kenne auch keinen Test der zeigt, dass ein übertakteter HT-Link [in Spielen oder bei Consumer-Software] was bringt. AMD selbst spect die FX auf 2,6 GHz HT - die meisten AIBs legen aber nur 2,0 oder 2,2 GHz an.
Naja, er kann da schon recht haben, PCIe3 ist ja ein paar Prozent schneller als PCIe2. Aber das ist auch doppelt so schnell. Wenn man jetzt HT nur ein paar 100 Mhz übertaktet wird sich meßbar bestimmt was ändern, aber zB. 10% von 5% sind nicht gerade viel ^^
Skysnake
2013-04-02, 20:00:10
10% bestimmt nicht :ugly:
Wenn dann irgendwas zwischen 1 und 5%, wenn überhaupt. Kommt halt wie gesagt komplett darauf an, wieviel I/O man hat, wobei ja PCI-E mit rein zählt.
y33H@ hat aber schon recht, mit "Consumer"-Software und Einsatzfeldern wird man das selten sehen, da man nicht so viel IO zusammen bekommt. Wenn seh ich bei Multi-GPU ne Chance, einen Vorteil draus zu ziehen. Wobei man wohl selbst dann noch gleichzeitig massiv Last auf den HDD/SSDs braucht.
Naja, wenn Du den HT von 2,2 GHz auf ~2,4 GHz oder etwas mehr übertaktest sinds ca. 10% mehr, das meinte ich damit. Und die beziehen sich aus Leistungssicht dann dummerweise nur auf den allgemeinen Speedup von 5%, ergo unterm Strich ca. 0,5% ...
Liszca
2013-04-12, 18:44:29
Lass die Finger vom HT, den hochzuziehen bringt dir rein gar nichts.
Da bin ich mir nicht sicher ob das nicht für SLI/Crossfire Systemen nicht doch spürbar bei dem einen oder anderen Spiel bringen kann.
HT hat schließlich nur ~10,4GByte/s!?
y33H@
2013-04-15, 14:01:15
Alle Tests in dieser Richtung haben bisher nichts dergleichen gezeigt. Für CF/SLI würde ich einen übertakteten i5/i7 nehmen um die Karten nicht auszubremsen.
@ Topic
Mal ein bisschen was zur Energie-Effizienz von Piledriver für FM2 und AM3+
45517 45518
45519 45520
http://www.pcgameshardware.de/Athlon-II-X4-740X-CPU-256664/Tests/Test-Athlon-II-X4-740X-1065028/
M4xw0lf
2013-04-15, 14:19:37
Ihr könntet die Kurven mal noch integrieren und so den Strombedarf pro Aufgabe genau feststellen. So in der Art: 30 Bilder verkleinern -> XX Wh Strombedarf / einmal x264 HD Benchmark -> YY Wh Strombedarf. Die Diagramme geben zwar schon ein gutes Gefühl für die Effizienz, aber mit harten Zahlen könnte man das ganze noch schön zusammenfassen.
y33H@
2013-04-15, 14:32:07
Da müsste ich es zerlegen ... für das erste Diagramm wäre der komplette Flächeninhalt unter der Kurve wie folgt:
62882
70072
43552
77121
Das ist schon sehr deutlich.
M4xw0lf
2013-04-15, 14:39:49
Jo, da kann man dann exzellente Effizienzangaben draus basteln. Die einem AMD-Fan die Tränen in die Augen Treiben... :-/
y33H@
2013-04-15, 14:50:19
Hast Recht, aber ich wollte erst mal so schauen, wie die Diagramme ankommen - Balken kann jeder ;-)
Das hat auch 'nen Grund: Balken versteht jeder. :ugly:
MfG,
Raff
M4xw0lf
2013-04-15, 14:58:57
Ich finde die Diagramme auf jeden Fall sehr gut, das von mir angesprochene wäre halt als Auswertung noch cool.
Btw: witzig, dass wir das hier und nicht im Feedback-Thread auf PCGH diskutieren :freak:
y33H@
2013-04-15, 14:59:44
Die ganze oder Teile der Kurve zu integrieren ist mit Excel ja kein Problem.
Interessant ist das folgenden Diagramm. Irgendwas beschränkt da offensichtlich den Verbrauch des 740X. Ist das PowerNow (oder wie das heute heißt)? Geht der Takt zurück?
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45517&d=1366027240
y33H@
2013-04-15, 19:42:27
Gute Frage, der Takt war konstant.
M4xw0lf
2013-04-15, 19:44:42
Gute Frage. (Marc war etwas schneller mit "Gute Frage" ^^) Über den Verlauf hab ich auch schon gerätselt. Könnte auch der CPU-Kühler sein, der erst mit Verzögerung richtig loslegt und durch die Kühlung den Verbrauch wieder senkt...
Naitsabes
2013-04-15, 21:39:03
Gibt es bei AMDs Turbo auch die Möglichkeit, dass die CPU ihre TDP anfangs überschreiten darf und erst ab einer bestimmten Temperatur in ihren "wahren" TDP-Bereich gedrosselt wird/den "normalen" Turbotakt erreicht?
Gute Frage, der Takt war konstant.
Gibt es bei AMDs Turbo auch die Möglichkeit, dass die CPU ihre TDP anfangs überschreiten darf und erst ab einer bestimmten Temperatur in ihren "wahren" TDP-Bereich gedrosselt wird/den "normalen" Turbotakt erreicht?
Ja, aber y33H@ schrieb ja:
Gute Frage, der Takt war konstant.
Könnte dann vielleicht höchstens ne Art VDroop sein ?
Naitsabes
2013-04-15, 21:52:37
Aber sollte die Leistungsaufnahme durch VDroop nicht konstant bleiben, da die Spannung ja aufgrund des geringeren Widerstandes gesenkt wird?
Der Verlauf ist vor allem wie ein PT1 mit verdammt langer Zeitkonstante, dass muss eigentlich was geregeltes sein.
Transistoren sind ja eigentlich eher Heißleiter, die sollten dann eher einen niedrigeren Verbrauch haben...
Der Q9550 zeigt aber auch einen sichtbaren Drop. Irgendetwas wird im Chip limitieren.
Transistoren sind ja eigentlich eher Heißleiter, die sollten dann eher einen niedrigeren Verbrauch haben...
Das trifft vielleicht auf einzenle Transistoren zu, aber nicht auf moderne ICs. Grund ist, dass der heute dominierende Verbaucher nicht der Leitunswiderstand, sondern die Leckströme sind. Und die steigen mit der Temperatur stark an.
Es gab mal Tests mit einer GTX480, die bei 20K weniger gleich mal 50W weniger verbraucht hat.
y33H@
2013-04-16, 09:56:59
Ich vermute, da der Kühler erst mit der Laufzeit aufdreht, kühlt er erst nach einer gewissen Zeit deutlich besser und dadurch sinkt die Leistungsaufnahme.
M4xw0lf
2013-04-16, 10:04:25
Wie ich auch schon gemutmaßt hab auf der letzten Seite:
Könnte auch der CPU-Kühler sein, der erst mit Verzögerung richtig loslegt und durch die Kühlung den Verbrauch wieder senkt...
Den Temperaturverlauf habt ihr aber nicht zufällig mit aufgezeichnet...? ;)
y33H@
2013-04-16, 10:48:00
Nein, nicht aufgezeichnet, nur Core Temp um eine Überhitzung auszuschließen.
Knuddelbearli
2013-04-16, 11:00:55
jup kenen das verhalten von meiner 480 zugut
ist jetzt zwar unter wakü ( was auch über 100W ersparnis egbracht hat unter OC! )
aber wenn man den Lüfter auf 100% laufen gelasen hat hat man auch ganz gut strom gespart
horn 12
2013-04-30, 00:10:04
FX 6300 / FX 8320 / FX8350 fallen teils massiv im Preis :-)
Unter 100 Euo bis um die 155 Euro (In Germany und auch in Italien schon zu sehen).
PS: Da muss ein etwailiger Nachfolger schon bald losgelassen werden, zwecks Lagerräumung und Platz für die alte Preisploitik !?
Vielleicht ein Umsatzerhöhungsversuch? Die bisher extrem abstinenten OEMs anlocken?
Retailpreise haben nichts mit oem Preisen zu tun.
Endkunden kriegen per Stichtag den gleichen Prozessor für z.B. 15€ weniger als zuvor, und OEMs kriegen an dem Tag keinen Preisnachlass und nehmen das hin? Müssen netter sein, als ich mir die vorstelle :)
Ein oem wird selten/nie den Listenpreis zahlen.
dildo4u
2013-04-30, 13:11:18
6350 3.9Ghz Lieferbar für 120€
https://www.mix-computer.de/html/product/detail.html?articleId=751408
Preis ist schön aggressiv bei Intel wird's dort vermutlich auch mit Haswell nur Dual Core's geben.
Thunder99
2013-04-30, 13:32:10
6350 3.9Ghz Lieferbar für 120€
https://www.mix-computer.de/html/product/detail.html?articleId=751408
Preis ist schön aggressiv bei Intel wird's dort vermutlich auch mit Haswell nur Dual Core's geben.
Interessante CPU
Jetzt müsste man nur rausfinden was so die OC Werte sind :D Mein FX6300 geht ja mit 1,425V auf 4,5GHz
Der wird im Schnitt auch nicht viel höher kommen. Für 5 GHz braucht's idR Spannungen um/über 1,5 Volt.
MfG,
Raff
Thunder99
2013-04-30, 14:12:49
Der wird im Schnitt auch nicht viel höher kommen. Für 5 GHz braucht's idR Spannungen um/über 1,5 Volt.
MfG,
Raff
Da spricht der Experte :D
Mit Luftkühlung denk ich mal ist bei 1,45V Schluss oder?
horn 12
2013-04-30, 20:20:27
Schauen was der doppelte Cache bringen könnte, einige Prozente könnten schon drinnen sein.
Schauen was der doppelte Cache bringen könnte, einige Prozente könnten schon drinnen sein.
Ein Vergleich zu den Vorgängern in der PCGH könnte sehr erhellend sein. Ist da was geplant bzw. schon in der Mache?
y33H@
2013-05-01, 18:02:57
Ist geplant, pro Takt könnte der doppelte L3 rein paar Prozent bringen (je nach workload).
Thunder99
2013-05-02, 11:32:20
Eins hab ich noch nicht ganz verstanden. Wenn man die NB höher taktet muss man unter Umständen ja die Spannung anheben. Ist dafür im BIOS die Einstellmöglichkeit NB oder CPU/NB zuständig? Was hat dann die andere Einstellmöglichkeit für eine Auswirkung?
y33H@
2013-05-02, 12:15:30
CPU/NB normalerweise, NB ist die Northbridge des Chipsatzes (hier die Spannung nicht ändern).
Lord Wotan
2013-05-02, 18:47:14
Sind es eigentlich 8 echte Kerne beim FX-8350 (Vishera) oder nur 4 echte plus 4 gefakte?
Ich frage nur, weil beim Bulldozer die Hälfte der angeblichen Kerne auch nur gefakt waren, wie bei Intel und deren hyper threding CPU.
Ravenhearth
2013-05-02, 19:07:28
Genau, alles nur Fake.
Sind es eigentlich 8 echte Kerne beim FX-8350 (Vishera) oder nur 4 echte plus 4 gefakte?
Ich frage nur, weil beim Bulldozer die Hälfte der angeblichen Kerne auch nur gefakt waren, wie bei Intel und deren hyper threding CPU.
8 echte INT-Kerne und 4 echte FPUs :)
Lord Wotan
2013-05-02, 19:41:10
8 echte INT-Kerne und 4 echte FPUs :)
Dachte ich mir. Also keine 8 Kerne CPU. Also das selbe wie beim Bulldozer.
Intel schreibt wenigstens hyper threding dazu!
Spasstiger
2013-05-02, 19:41:37
Nach den heutigen Preissenkungen seitens AMD ist der FX-6300 auch im Handel unter 100€ gerutscht: http://geizhals.de/?phist=853168.
Dank uneingeschränktem Overclocking schon eine Option für Geeks mit schmalem Geldbeutel.
Dachte ich mir. Also keine 8 Kerne CPU. Also das selbe wie beim Bulldozer.
Intel schreibt wenigstens hyper threding dazu!
Na und?
Nach den heutigen Preissenkungen seitens AMD ist der FX-6300 auch im Handel unter 100€ gerutscht: http://geizhals.de/?phist=853168.
Dank uneingeschränktem Overclocking schon eine Option für Geeks mit schmalem Geldbeutel.
... vor allem für all jene, die ihren Strom von Papi gezahlt bekommen. ;) Das ist gegenüber einem gleichpreisigen Core i3 nämlich der einzige Minuspunkt, mehr Spiele- und Anwendungsleistung um 100 Euro gibt's nirgends. Alternativ undervoltet man die Kiste, an die Sparsamkeit der Intel-Zweikerner ist aber kein Herankommen.
MfG,
Raff
Ronny145
2013-05-02, 20:06:17
Dachte ich mir. Also keine 8 Kerne CPU. Also das selbe wie beim Bulldozer.
Intel schreibt wenigstens hyper threding dazu!
Laut Skysnake sind es 8 echte Kerne: http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/270553-geruecht-piledriver-fx-mit-5-ghz-fuer-800-dollar-kommt-der-centurion-11.html#post5179682
Lord Wotan
2013-05-02, 20:21:17
Laut Skysnake sind es 8 echte Kerne: http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/270553-geruecht-piledriver-fx-mit-5-ghz-fuer-800-dollar-kommt-der-centurion-11.html#post5179682
Integercores und halbe FPUs ist nichts anderes, als hyper threding bei Intel. Meiner Meinung nach!
Eben nur ein Werbe/Verkaufstrick um auf ihren Schachtel 8 Kern CPU drücken zu können.
Mit meiner INTEL Core i7 2600K zeigt mir Windows auch 8 Kerne durch hyper threding an. Eben ein Fake! Viel mehr ist es ja nicht.
SavageX
2013-05-02, 20:31:16
Integercores und halbe FPUs ist nichts anderes, als hyper threding bei Intel. Meiner Meinung nach!
Es ist was anderes. Die Integercores haben eigene Ausführungsressourcen und eigenen Daten-Cache.
Nicht ganz so "echt" wie absolut getrennte Cores, aber sehr viel "echter" als Intels HT.
edit: Zur FPU - wer unbedingt will kann das auch als "ca. zwei" 128-bit FPUs betrachten, die für 256-bit Geschichten zusammengeschaltet werden.
Skysnake
2013-05-02, 21:43:42
Laut Skysnake sind es 8 echte Kerne: http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/270553-geruecht-piledriver-fx-mit-5-ghz-fuer-800-dollar-kommt-der-centurion-11.html#post5179682
Lies mal paar Posts weiter ;)
Ich hab mich revidiert. Hatte den Decoder falsch im Hinterkopf. Der wird ja noch geshared, daher sind es eigentlich nur 4 Cores aktuell. Die Decoder sollen ja aber separiert werden, damit sinds dann eigentlich 8 Cores :ugly:
Soooo genau sollte man es da aber wirklich nicht mehr nehmen. AMD bewegt sich da sehr zwischen der Definition von CPU-Cores. Der Decoder ist halt der Punkt, über den man streiten kann, aber eben auch mit genau der Punkt, bei dem es bei BD teils stark hackt... Also neben der L2 Cachebandbreite.
Integercores und halbe FPUs ist nichts anderes, als hyper threding bei Intel. Meiner Meinung nach!
:facepalm:
Eine FPU gehört apriori gar nicht zu nem CPU-Kern dazu...
Und HyperThreading ist was KOMPLETT! anderes als die Module von AMD... HyperThreading versucht durch mehrfachauslegung der Statusregister usw. die ALUs besser aus zu lasten, da man eben sobald ein Thread in einem Takt keinen Befehl absetzen kann eben einen aus dem zweiten Thread nutzt, der ja seinen gesamten Kontext parat hat, und daher einen Wechsel von Takt zu Takt erlaubt.
Und bitte HT und SMT nicht verwechseln... HT nutzt nur den Vorteil einen sofortigen Kontextwechsels. SMT nutzt dazu noch die Superskalarität der Cores aus, also das man mehrere Befehle gleichzeitig absetzen kann in einem Takt. Man kann also z.B. Thead A ALU1+FPU1+FPU2 belegen, und Thread B ALU2+ALU3.
Man hat also auf einen Pipelinestage Befehle von x Threads. Das ist der Unterschied zu HT, wo das eben NICHT geht. Da sind in einer Pipelinestage immer nur Befehle von einem Thread.
Eben nur ein Werbe/Verkaufstrick um auf ihren Schachtel 8 Kern CPU drücken zu können.
Nein.
Man wollte halt einfach die Auslastung der Decoder steigern, und eben der FPU. Beides Dinge, die einen Großteil des Cores ausmachen.
Man hats nur leider etwas übertrieben, wodurch die ALUs dann teils verhungern...
Mit meiner INTEL Core i7 2600K zeigt mir Windows auch 8 Kerne durch hyper threding an. Eben ein Fake! Viel mehr ist es ja nicht.
Nein ein Core i7-2600k zeigt dir kein HyperThreading an, weil er gar kein HyperThreading kann.... Er kann "nur" SMT... Über das Fake kann man sich da streiten.
... vor allem für all jene, die ihren Strom von Papi gezahlt bekommen. ;) Das ist gegenüber einem gleichpreisigen Core i3 nämlich der einzige Minuspunkt, mehr Spiele- und Anwendungsleistung um 100 Euro gibt's nirgends. Alternativ undervoltet man die Kiste, an die Sparsamkeit der Intel-Zweikerner ist aber kein Herankommen.
MfG,
Raff
Sehe ich auch so. Mit der neuen Preisgestaltung sind sie aus der Dunstwolke der kleinen Quads verschwunden und haben nun einen Kampf den sie gewinnen!
Hätte ich jetzt nicht schon ne CPU, (würde ich jetzt auf wohl auf Haswell warten, aber davon ab) würds wohl (mit dem AMD Bonus) ein 6000er statt nem i5-k werden.
Wobei beim letzten Satz muss man das "herankommen" noch weiter relativieren ..... so in Richtung Io und Triton. :freak: ;D :smile:
Nein ein Core i7-2600k zeigt dir kein HyperThreading an, weil er gar kein HyperThreading kann.... Er kann "nur" SMT...
Das sieht Intel aber anders:
Intel® Hyper-Threading Technology Yes
http://ark.intel.com/products/52214/Intel-Core-i7-2600K-Processor-8M-Cache-up-to-3_80-GHz?q=2600k
Sei mal nicht päpstlicher als der Papst, so genau gehts bei Marketingbegriffen (und nichts anderes ist HTh) nicht zu.
Über das Fake kann man sich da streiten.Du hast die Intention des Autors erfasst :)
Wer 2013 noch bei SMT oder CMT fake ruft kommt entweder stracks aus dem mehrjährigen Winterschlaf oder will nur mal aus Langeweile etwas trollen.
Thunder99
2013-05-03, 00:39:51
CPU/NB normalerweise, NB ist die Northbridge des Chipsatzes (hier die Spannung nicht ändern).
ok, dann läuft die grad die ganze Zeit mit +0,1V :D
Süß. :biggrin: Gib mal Feuer, dann fällt auch die 2,6-GHz-Marke. :naughty:
MfG,
Raff
Skysnake
2013-05-03, 10:21:47
Das sieht Intel aber anders:
http://ark.intel.com/products/52214/Intel-Core-i7-2600K-Processor-8M-Cache-up-to-3_80-GHz?q=2600k
Sei mal nicht päpstlicher als der Papst, so genau gehts bei Marketingbegriffen (und nichts anderes ist HTh) nicht zu.
Wayne interessiert das Marketing blalba :ugly:
Die ganzen Intel CPUs ohne HT melden sich auch mit HT ;D
Das sind teils einfach bugs und/oder Faulheit das wirklich sauber auseinander zu diffidieren...
Wayne interessiert das Marketing blalba :ugly:
Na Dich, Hyperthreading ist von Anfang an Marketing, nichts anderes ;-)
Deswegen wundert mich das echt, dass Du da irgendwie technisch etwas reininterpretieren willst.
Sonst finde ich eindeutige Definitionen auch extrem wichtig, aber bei nem lupenreinem Marketingbegriff ist klar, dass der Markeninhaber den verwendet wie es gerade passt. Ist schließlich kein technisches Fachvokabular. So nen Begriff mit ner Definition festzunageln zu wollen hat Parallelen mit der bekannten Pudding <> Wand <> Nagel-Geschichte ;-)
Die ganzen Intel CPUs ohne HT melden sich auch mit HT ;D
Sogar AMDs melden sich seit dem X2 mit HT :biggrin:
Das sind teils einfach bugs und/oder Faulheit das wirklich sauber auseinander zu diffidieren...Ne, bei den CPU-Flags interessiert die Implementierung im Chip keinen, die sind nur dafür da, dass die Software weiss, was der Chip kann. Wie er das macht interessiert die Software nicht die Bohne. Im Falle des SMT-Flags war die Bedeutung für Software in den Anfangszeiten, als es nur Singlecores gab, schlicht "kann 2 Threads", also hat AMD das Flag beim X2 auch scharf geschalten, schließlich kann ein X2 auch 2 Threads verarbeiten.
Intel hat das dann natürlich auch genauso gehandhabt, als sie ihren C2D rausbrachten. Eventuell wars auch schon bei den PentiumMs/Centrinos aktiv, da bin ich mir jetzt nicht 100% sicher, ist aber auch egal ;-)
Faulheit ist es nicht, das ist in dem Fall schlicht Pragmatik.
dildo4u
2013-05-03, 14:03:51
Crysis 3 erneut getestet SMT Performance gefixt
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-CPU-Test-1068140/
Dürfte mit der größte Gewinn für SMT sein was Games betrifft.
Ronny145
2013-05-03, 14:14:51
Ja das sind 30-35% Zugewinn durch SMT. Das ist schon beachtlich. So einen großen Zugewinn durch SMT habe ich auf SB/IVB noch nicht gesehen. Normalerweise sind 20-25% schon viel.
y33H@
2013-05-03, 14:17:24
Im Luxmark legen die i7 durch SMT sogar 40 bis 50 Prozent zu - kA wieso.
mironicus
2013-05-03, 14:23:11
Jetzt ist der einzige kleine Strohhalm wieder geknickt, an dem sich AMD User bisher festhalten konnten.
robbitop
2013-05-03, 14:53:08
Hat SMT nicht auch schon immer im Core i3 ordentlich was gebracht?
y33H@
2013-05-03, 14:53:55
SMT bringt auch bei den i7 viel, aber idR nicht in Spielen. Die i3 legen hier nahezu immer deutlich durch SMT zu.
Hat SMT nicht auch schon immer im Core i3 ordentlich was gebracht?
Ja, aber bisher gabs kein Spiel, das 8 Threads ausnutzen kann. Deswegen halten ja erstmals die AMDs so gut mit. Ist zwar jetzt schlechter, aber der 8350 ist immer noch schneller als der teurere 3570K. Also schon ok.
Jetzt ist der einzige kleine Strohhalm wieder geknickt, an dem sich AMD User bisher festhalten konnten.
Das ist doch wurscht. Fakt ist: Engines mit brutalem Multithreading, welche jeden zur Verfügung stehenden Thread in Fps ummünzen, kommen uns allen zu Gute – AMD aber tendenziell stärker, weil die CPUs bei wenigen Threads kaum etwas reißen.
MfG,
Raff
horn 12
2013-05-03, 20:03:48
Nun sollte, müsste AMD durch einen Neuen Treiber NEU aufschließen, asnsonsten :-(
Hoffe sie prüfen ob was machbar wäre ?
boxleitnerb
2013-05-03, 20:56:24
Treiber für eine CPU?
][immy
2013-05-03, 21:04:35
Ja, aber bisher gabs kein Spiel, das 8 Threads ausnutzen kann. Deswegen halten ja erstmals die AMDs so gut mit. Ist zwar jetzt schlechter, aber der 8350 ist immer noch schneller als der teurere 3570K. Also schon ok.
interessant ist aber das der 3570k (der ja kein SMT/HT hat) auch gut zulegen konnte, der 8350 jedoch nicht (sogar minimal verloren hat). also was die auch optimiert haben, scheint eine intel-only optimierung zu sein.
Wahrscheinlich kam einfach das Intel-Coder Team und hat die Arbeit des AMD-GPU-Coder-Teams etwas "getunt" .. *G*
Naja der AMD liegt mit 1 AVG Frame fast schon in der Messungenauigkeit und bei beim 3570k finde ich die 8 % jetzt nicht derartig berauschend oder weis gott wie ungewöhnlich.
Wir wissen nicht, ob da vielleicht auch Bugs gefixt wurden. Möglicherweise fehlten teilweise Animationen des Grases oder sie reichen nun weiter? Nur ein Beispiel.
MfG,
Raff
Ronny145
2013-05-04, 12:51:59
AMD CPUler mit OpenCL Verwendung sollten das Intel OpenCL SDK 2013 verwenden. Rechnet schneller.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Open-CL-Intel-Treiber-AMD-Prozessor-1068152/
Das ist irrsinnig wenn man bedenkt, wie AMD in den letzten Jahre OpenCL gepusht hat.
Twodee
2013-05-04, 13:01:31
AMD CPUler mit OpenCL Verwendung sollten das Intel OpenCL SDK 2013 verwenden. Rechnet schneller.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Open-CL-Intel-Treiber-AMD-Prozessor-1068152/
Das ist irrsinnig wenn man bedenkt, wie AMD in den letzten Jahre OpenCL gepusht hat.
Was erwartest du? AMD steckt halt alles in HSA, da bleibt nicht mehr viel übrig für solche Basics...
dildo4u
2013-05-04, 13:03:19
Das läuft doch eh xmal besser auf der GPU wundert mich nicht das AMD dort nicht für CPU optimiert wenn in Zukunft alles APU's werden.Luxmark war doch sogar das wo sie NV gerade zu vernichten mit den GCN GPUs.
Ronny145
2013-05-04, 13:09:14
Das läuft doch eh xmal besser auf der GPU wundert mich nicht das AMD dort nicht für CPU optimiert wenn in Zukunft alles APU's werden.Luxmark war doch sogar das wo sie NV gerade zu vernichten mit den GCN GPUs.
Manche workloads laufen auf der CPU schneller als auf AMD/Intel iGPUs. Luxmark Sala gehört dazu.
dildo4u
2013-05-04, 13:21:56
AMD FX-6350 und FX-4350 im Test: Spannende CPUs für Spieler?
http://www.pcgameshardware.de/FX-6350-CPU-256517/Tests/Test-AMD-FX-6350-FX-4350-1068215/
Erstaunlich wie gut der 4350 in Dirt Showdown und BF3 ist.
Undertaker
2013-05-04, 13:25:23
Viel Cache, viel Takt. Mehr als 4 Kerne bringen eben bisher nur selten wirklich viel Mehrleistung in Spielen. Am interessantesten bleibt aber wohl das mittlere Modell FX-6350.
Thunder99
2013-05-04, 13:52:55
Süß. :biggrin: Gib mal Feuer, dann fällt auch die 2,6-GHz-Marke. :naughty:
MfG,
Raff
Meinst sicher Dampf auf die CPU/NB oder? :D Die läuft im Auto-Modus auf 1,4V :eek:
Zum PCGH Bench:
Viel Takt hilft dem FX viel :D
AMD CPUler mit OpenCL Verwendung sollten das Intel OpenCL SDK 2013 verwenden. Rechnet schneller.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Open-CL-Intel-Treiber-AMD-Prozessor-1068152/
Das ist irrsinnig wenn man bedenkt, wie AMD in den letzten Jahre OpenCL gepusht hat.Was erwartest Du denn? Der Intel-C++-Compiler ist auch erste Sahne, wenn man mal die CPUID-Bremsen entfernt. Nicht anders ist das mit den Intel Libraries, da ist die AMD Version auf den Opterons auch langsamer (wars zumindest mal, weiss nicht wie es aktuell ausschaut).
AMD fehlts definitiv an Coder-Know-How, sieht man ja auch immer bei den Catalyst-Treibern. Wie lange hat nVidia da schon was gegen µRuckler unternommen und AMD versprichts aktuell für den Sommer?
Die Resourcen die AMD hat, haben sie vermutlich in den GPU-Teil gesteckt.
Vergleicht man die Softwareabteilungen von AMD und Intel ist der Unterschied noch viel krasser als wenn man allein die CPUs vergleichen würde.
Palpatin
2013-05-04, 14:23:44
AMD FX-6350 und FX-4350 im Test: Spannende CPUs für Spieler?
http://www.pcgameshardware.de/FX-6350-CPU-256517/Tests/Test-AMD-FX-6350-FX-4350-1068215/
Erstaunlich wie gut der 4350 in Dirt Showdown und BF3 ist.
Danke für den Link. Überlege seit Tagen ob ich meinen alten 4 Kern Phenom 2 im HTPC durch nen I3 oder FX6300 ersetzte. Wird wohl tatsächlich ein Bulldozer, einzig das es keine guten µATX Boards gibt stört mich etwas.
grobi
2013-05-04, 14:38:53
Danke für den Link. Überlege seit Tagen ob ich meinen alten 4 Kern Phenom 2 im HTPC durch nen I3 oder FX6300 ersetzte. Wird wohl tatsächlich ein Bulldozer, einzig das es keine guten µATX Boards gibt stört mich etwas.
Wenn es sparsam sein soll würde ich einen i3 empfehlen. Die µATX Boards sind bei Intel günstiger bei besserer Auswahl.
Der FX-8320 ist bei dem geringen Mehrpreis dem FX-6350 vorzuziehen.
mfg grobi
y33H@
2013-05-04, 14:42:38
Manche workloads laufen auf der CPU schneller als auf AMD/Intel iGPUs. Luxmark Sala gehört dazu.Zumal ja CPU und iGPU rechnen ... was dazu führt, das Intels OCL-Treiber für die CPU plus AMDs APP für die iGPU am Ende das höchste Resultat ausspucken :freak: da ist keine Synergie festzustellen, wenn man nur das APP SDK nutzt.
mironicus
2013-05-04, 15:10:33
Wenn es sparsam sein soll würde ich einen i3 empfehlen. Die µATX Boards sind bei Intel günstiger bei besserer Auswahl
Das teuerste Mikro-ATX Board für AM3+ kostet gerade mal 57 Euro. :D
Und das mit 760G-Chipsatz und Sata 2-Ports!
http://geizhals.de/asus-m5a78l-m-usb3-dual-pc3-10667u-ddr3-90-mibg70-g0eay00z-a644321.html
Damit sollte man sogar noch gut übertakten können, einige günstigere Boards vertragen nur 95 Watt-CPUs aber das hier kann auch 140 Watt-TDP CPUs aufnehmen.
grobi
2013-05-04, 15:16:17
Das teuerste Mikro-ATX Board für AM3+ kostet gerade mal 57 Euro. :D
Und das mit 760G-Chipsatz und Sata 2-Ports!
http://geizhals.de/asus-m5a78l-m-usb3-dual-pc3-10667u-ddr3-90-mibg70-g0eay00z-a644321.html
Damit sollte man sogar noch gut übertakten können, einige günstigere Boards vertragen nur 95 Watt-CPUs aber das hier kann auch 140 Watt-TDP CPUs aufnehmen.
Bei Intel sind die Mobos da noch mal ne Ecke günstiger. Ich wusste ja nicht das du deinen HTPC zum Zocken nimmst.
gruß grobi
Ronny145
2013-05-04, 15:16:23
Was erwartest Du denn? Der Intel-C++-Compiler ist auch erste Sahne, wenn man mal die CPUID-Bremsen entfernt. Nicht anders ist das mit den Intel Libraries, da ist die AMD Version auf den Opterons auch langsamer (wars zumindest mal, weiss nicht wie es aktuell ausschaut).
AMD fehlts definitiv an Coder-Know-How, sieht man ja auch immer bei den Catalyst-Treibern. Wie lange hat nVidia da schon was gegen µRuckler unternommen und AMD versprichts aktuell für den Sommer?
Die Resourcen die AMD hat, haben sie vermutlich in den GPU-Teil gesteckt.
Vergleicht man die Softwareabteilungen von AMD und Intel ist der Unterschied noch viel krasser als wenn man allein die CPUs vergleichen würde.
AMD bietet seit mehreren Jahren OpenCL an und hat das immer stark gepusht. Der Erfahrungsvorsprung müsste immens sein könnte man denken. Intel ist erst im zweiten Jahr mit ihrem OpenCL. Im Gegenteil, Intel wurde vor nicht allzu langer Zeit immer belächelt ob der grottigen OpenCL Implementierung. Der Vorteil macht sich von nun an auch bei der GPU Nutzung bemerkbar solange OpenCL Verwendung findet (siehe semiaccurate Test). Bei GPGPU Programmen ohne OpenCL ist der Vorteil deutlich größer. Bestes Beispiel Musemage. Musemage basiert auf OpenGL, in dem Benchmark ist der Vorteil für AMD riesig. In allen OpenCL Benchmarks die ich kenne nicht.
Auf der GPU mit entsprechenden Workloads sind die AMD-Karten allerdings uneinholbar vorne, für Spielereien a la Luxmark reicht natürlich was Intel abliefert, interessiert aber HPCler nicht.
Ronny145
2013-05-04, 16:39:49
HPCler interessieren sich für A10-4600M mit integrierter Grafik und Co? Die interessieren sich für dedizierte Karten.
Eine APU als Opteron wäre auch nett, aber ja, diskrtet Karten sind interessant und dorthin verschwinden die Resourcen und das ist auch gut so (zumindest für mich und andere sicher auch). OCL auf CPUs ist völlig uninteressant, dort nimmt man eh andere Algorithmen.
Palpatin
2013-05-04, 17:53:47
Wenn es sparsam sein soll würde ich einen i3 empfehlen. Die µATX Boards sind bei Intel günstiger bei besserer Auswahl.
Der FX-8320 ist bei dem geringen Mehrpreis dem FX-6350 vorzuziehen.
mfg grobi
Der htpc ist auch zum zocken allerdings selten. Verbrauch dürft von daher nicht viel ausmachen und dem i3 traue ich bei zukünftigen games nicht allzu viel zu. heiss soll es aber im engen Gehäuse auch nicht werden daher kein 8xxx. Preislich ist 100 Euro schon top.
Skysnake
2013-05-04, 18:06:07
AMD CPUler mit OpenCL Verwendung sollten das Intel OpenCL SDK 2013 verwenden. Rechnet schneller.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Open-CL-Intel-Treiber-AMD-Prozessor-1068152/
Das ist irrsinnig wenn man bedenkt, wie AMD in den letzten Jahre OpenCL gepusht hat.
Also mich freut die Meldung eigentlich sogar SEHR.
Klar, AMD steht dumm da, aber es zeigt eben, wie offen der Standard ist, und das schon allein die Idee einer einzelnen Firma alle nach vorne bringen kann. Leider sieht man bisher viel viel viel zu wenig auf Softwareebene in die Richtig bzgl richtig guter Bibliotheken. Da wären viele sicherlich auch bereit gutes Geld zu bezahlen für wahrlich gute Bibs.
Kann aber auch einfach sein, dass man das einfach recht schlecht mit bekommt.
HPCler interessieren sich für A10-4600M mit integrierter Grafik und Co? Die interessieren sich für dedizierte Karten.
Och, wenn die ECC unterstützen, was demnächst der Fall ist, dann sind die auch für HPC durchaus interessant, so lange Sie auch genug RAM unterstützen. Man kann mit APUs GANZ andere Probleme angehen als mit dedizierten GPUs.
Schaffe89
2013-05-04, 19:22:22
@ Y33H@
Wann gibt es denn eigentlich mal Tests mit Windows 8 und Vishera, bzw wann wird euer Testsystem mal komplett vom OS her umgestellt?
Ich hab erst seit kurzem Windows 8 als OS installiert und sehe in Games einen Performanceboost von ca 5 + Prozent.
Far Cry 3 läuft mit dem Vishera rund 10%, würde ich meinen.
Windows 8 ist eine Totgeburt, die spielende Masse nutzt Windows 7. PCGH wird mit Gewissheit nicht so schnell von Windows 7 abkommen, spezielle Vergleichstests ausgenommen. Wir reden 2014 nochmal. ;)
MfG,
Raff
grobi
2013-05-04, 20:48:33
@ Y33H@
Wann gibt es denn eigentlich mal Tests mit Windows 8 und Vishera, bzw wann wird euer Testsystem mal komplett vom OS her umgestellt?
Ich hab erst seit kurzem Windows 8 als OS installiert und sehe in Games einen Performanceboost von ca 5 + Prozent.
Far Cry 3 läuft mit dem Vishera rund 10%, würde ich meinen.
Meinst du nicht das es eher subjektiv ist? Ich habe auch auf Windows 8 umgestellt und habe nichts weiter bemerkt. Das der Bulli da Leistung gewinnt ist wohl innerhalb der Messtoleranz.
mfg grobi
y33H@
2013-05-04, 22:25:28
Musemage basiert auf OpenGL, in dem Benchmark ist der Vorteil für AMD riesig. In allen OpenCL Benchmarks die ich kenne nicht.Die meisten Filter laufen per OGL, nur wenige per OCL.
Wann gibt es denn eigentlich mal Tests mit Windows 8 und Vishera, bzw wann wird euer Testsystem mal komplett vom OS her umgestellt?http://www.pcgameshardware.de/Bulldozer-Codename-238780/Tests/Test-Windows-8-Bulldozer-Benchmarks-1035723/
Umgestellt wird das vorerst nicht.
Exxtreme
2013-05-04, 22:32:00
@ Y33H@
Wann gibt es denn eigentlich mal Tests mit Windows 8 und Vishera, bzw wann wird euer Testsystem mal komplett vom OS her umgestellt?
Ich hab erst seit kurzem Windows 8 als OS installiert und sehe in Games einen Performanceboost von ca 5 + Prozent.
Far Cry 3 läuft mit dem Vishera rund 10%, würde ich meinen.
5% unterschied sind weit unterhalb der Wahrnehmungsschwelle. IBM hat da mal paar Untersuchungen in die Richtung gemacht. Erst so ab 20% Unterschied wird es spürbar.
Ronny145
2013-05-04, 22:46:05
Die meisten Filter laufen per OGL, nur wenige per OCL.
http://www.pcgameshardware.de/Bulldozer-Codename-238780/Tests/Test-Windows-8-Bulldozer-Benchmarks-1035723/
Der Benchmark läuft komplett in OpenGL. Du kannst den OpenCL Treiber deinstallieren, ändern wird sich am Benchmark nichts.
y33H@
2013-05-04, 22:57:41
Im Falle des Benches kann das sein, wenn OGL/OCL nicht greift, springt die CPU ein.
EDIT
HDR ist OCL.
Ronny145
2013-05-04, 23:03:07
Im Falle des Benches kann das sein, wenn OGL/OCL nicht greift, springt die CPU ein.
EDIT
HDR ist OCL.
HDR Filter, für den Benchmark irrelevant. OCL ist völlig irrelevant für den Benchmark.
AMD bietet seit mehreren Jahren OpenCL an und hat das immer stark gepusht. Der Erfahrungsvorsprung müsste immens sein könnte man denken.
Nö, wie schon geschrieben, Intel hat wahnsinniges Compiler Know-How. AMD dagegen hat nur ein paar OpenSource-Coder. Die GPGPU-Experten Rapidminds hat sich Intel auch schon 2009 einverleibt. *Der* Unterschied ist immens.
Mich überrascht das Ganze überhaupt nicht.
y33H@
2013-05-05, 09:48:39
HDR Filter, für den Benchmark irrelevant. OCL ist völlig irrelevant für den Benchmark.Das ist richtig, ich wollte nur anmerken, dass Musemage durchaus OCL nutzt.
Thunder99
2013-05-06, 18:10:49
Läuft nun der HTT Standard mäßig mit 2,6GHz oder 2,2GHz? Mein Auto-Modus stellt 2,6GHz ein und einmal bei OC-Spielerein 2,2GHz :confused:
y33H@
2013-05-06, 20:02:44
Theoretisch 2,6 - aber viele AIBs stellen nur 2,2 ein. Der HT ist für die Performance ziemlich egal.
Naitsabes
2013-05-06, 21:25:05
Aber war da nicht mal etwas, dass der HT nicht höher takten darf/sollte als die Northbridge (oder anders herum?)?
Ich weiß nur noch den Stand von vor "kA" Jahren. Da hieß es, man solle den HT-Takt möglichst überhaupt nicht erhöhen, also beim Übertakten über Referenztakt immer den HT-Multi senken. Damals war, glaube ich, 1000MHz aktuell. Ob das jetzt noch so ist, weiß ich nicht.
Thunder99
2013-05-07, 01:56:20
Aber war da nicht mal etwas, dass der HT nicht höher takten darf/sollte als die Northbridge (oder anders herum?)?
Beides ist egal, da ich beide Varianten schon ohne Probleme betrieben hab. Mich hat nur gewundert das auf einmal 2,2GHz dastand
Aber war da nicht mal etwas, dass der HT nicht höher takten darf/sollte als die Northbridge (oder anders herum?)?
Das gilt AFAIK ab Bulldozer nicht mehr.
MfG,
Raff
dildo4u
2013-05-09, 17:32:39
Choosing a Gaming CPU: Single + Multi-GPU at 1440p, April 2013
http://www.anandtech.com/show/6934/choosing-a-gaming-cpu-single-multigpu-at-1440p
Das wird sich mit den neuen Konsolen noch weiter Richtung GPU verschieben schlecht für Intel kein Grund was Neues zu kaufen.
Ronny145
2013-05-09, 17:39:00
Abgesehen von Civ 5 sehe ich dort kein Spiel was an der CPU saugt. Und auch das ist offenbar GPU limitiert gewählt.
Our Civilization V testing uses Ryan’s GPU benchmark
Der Spieletest bringt keine neuen Erkenntnisse.
boxleitnerb
2013-05-09, 18:11:00
Sehe ich auch so. Es wird immer Spiele bzw. Szenen in Spielen geben, für die die CPU wichtig ist.
Thunder99
2013-05-15, 13:44:39
Also gefühlt merke ich einen deutlichen Performance Schub meines FX6300@4,5GHz zum Phenom II@3,7Ghz bei den Rundenberechnungen (Civ5)
robbitop
2013-05-15, 14:55:22
Sollte auch der Fall sein. Vishera hat ~Deneb IPC. Sollte also bis zu 21 % schneller sein.
Schaffe89
2013-05-15, 16:41:20
Richland bzw Vishera 2.0 dürfte schon bei Spielen mehr IPC haben als er Phenom
Richland legt gegenüber Trinity schon ca 5% in der IPC zu,teils sind es auch bis zu 8%.
Siehe hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=541613&page=6
Undertaker
2013-05-15, 22:25:10
Setz mal einen funktionierenden Link auf das gewünschte Posting...
Btw: Richland mehr IPC? Woher? Das würde mich zumindest wundern, da keine entsprechenden Änderungen bekannt sind. Vor allem mobil soll der Turbo besser greifen und so die Leistung steigern, das hat aber nichs mit IPC-Wachstum zu tun.
Knuddelbearli
2013-05-16, 02:11:32
naja einige ( zB leonidas ^^ ) nutze IPC auch als Instruction per Core ^^
Knuddelbearli
2013-05-16, 02:15:32
Hat hier noch wer die aktuelle PCGH? finde es interessant um wie wenig der FX.8 einbricht selbst wenn man 4 Kerne mit Videokomprimierung auslastet. überholt dann sogar den i7 4770K in leistungsfordernden spielen wie Crysis mit viel Gras!
Fx-8350 von 43FPS auf 40 fps runter
I7 von 43FPS auf 37 runter
oder Skyrim
Fx-8350 von 66FPS auf 56 fps runter
I7 von 81FPS auf 52 runter
Es ist der 3770K, der 4770K folgt. ;)
MfG,
Raff
robbitop
2013-05-16, 09:34:27
Es ist der 3770K, der 4770K folgt. ;)
MfG,
Raff
Der Haswell wird damit sicherlich entspannter umgehen. Da dürfte sich der zusätzliche ALU Port bei SMT zeigen.
anddill
2013-05-16, 10:09:20
Die Bulldozer sind breit. Aber das wussten wir ja schon lange.
Botcruscher
2013-05-16, 11:34:43
Da bekommt die Anwendung neben dem Spiel eben geringe Priorität und die FPS stimmen beim I7 wieder.
Und werdet das Gegenteil erleben (so trivial ist es eben nicht)!
y33H@
2013-05-16, 13:05:42
Bei Priorität oder bei Haswell?
Twodee
2013-05-16, 13:28:34
Hat hier noch wer die aktuelle PCGH? finde es interessant um wie wenig der FX.8 einbricht selbst wenn man 4 Kerne mit Videokomprimierung auslastet. überholt dann sogar den i7 4770K in leistungsfordernden spielen wie Crysis mit viel Gras!
Fx-8350 von 43FPS auf 40 fps runter
I7 von 43FPS auf 37 runter
oder Skyrim
Fx-8350 von 66FPS auf 56 fps runter
I7 von 81FPS auf 52 runter
Wie sehen die Ergebnisse/FPS beim Videokomprimierung aus?
y33H@
2013-05-16, 14:02:02
Da gibt's keine Messungen zu, da die Spiele-Last sich nicht kontinuierlich über den Verlauf des x264 HD v5.0 aufrecht erhalten lässt.
Bei Priorität oder bei Haswell?
Beidem
Das ist System bedingt, HT kann keine vollwertigen x86er Kerne ersetzen! Wenn die Anforderungen an einem System verstärkter in die Breite gehen, wird es ab bestimmten Punkt seine Grenzen immer eher finden!
y33H@
2013-05-16, 17:15:52
Nun, Bulldozer hat so gesehen auch keine vollwertigen x86er Kerne :uclap:
Bei Haswell wird SMT durch die 4te INT-ALU ziemlich gestärkt, auf den Test bin ich gespannt.
Beidem
Das ist System bedingt, HT kann keine vollwertigen x86er Kerne ersetzen! Wenn die Anforderungen an einem System verstärkter in die Breite gehen, wird es ab bestimmten Punkt seine Grenzen immer eher finden!
Hsw ist vierfach superskalar - hat im Gegensatz zum 2x2 Ansatz bei Bd und seinen Derivaten aber den Vorteil alle Resourcen einem Thread zur Verfügung stellen zu können. Und da heute und in absehbarer Zukunft noch immer der Großteil aller Konsumentensoftware von einem Thread ausgebremst wird ist das der deutlich sinnvollere Ansatz.
Singlethreaded Leistung ist für eine CPU die alles(!) beherrschen soll (und das ist eine x86 CPU) auch 2013 durch nichts zu ersetzen.
Wer seinen PC nur zum Abnudeln von Konsolenports nutzt mag das anders sehen.
Doch hat er, weil eine FPU nicht Bestandteil von x86er und eben drum auch das flexie Design Zukunftsweisend! Denn es macht wenig Sinn weiterhin alle Teile stupide zu Vervielfältigen. Zumal es genug Software gab und weiterhin geben wird die gar keine Verwendung davon macht oder nur Teile benötigt.
Ob es bereits in Technisch Aktuell im Bulli gelungen das semi gut umzusetzen vermag ich nicht zu beurteilen, aber die Richtung ist völlig klar und richtig (Intel wird diese ebenso gehen)!
PS:
@fdk
AMD hat leider nicht die Ressourcen von daher sie mit der Technik von heute schon versuchen/gezwungen Konzepte von Morgen Umzusetzen (besonders die Fertigung ist das Hauptproblem, nicht die Ideen oder Designs als solche).
y33H@
2013-05-16, 17:38:23
Dennoch müssen sich beide INTs das Frontend sharen.
Botcruscher
2013-05-16, 17:44:10
HT soll auch keinen Kern ersetzen(Intel wirbt auch nicht mit 8 Kernen). Es sorgt nur für bessere Auslastung. Die Nachteile sind auch seit dem P4 bekannt. Ein einzelner Thread läuft halt langsamer und wenn der limitiert wird die ganze Anwendung(en) langsamer. Eine höhere Priorität sorgt nun für eine Bevorzugung, besseren Anwendungsgefühl und einer schnelleren Hauptanwendung. Das kennen wir alles aus den seligen Zeiten von hochtakt Singelcore gegen Dualcore(oder HT).
Kurz: BD ist halt breit.
Schön wenn ich 2 Wochen eine Monte Carlo laufen lasse aber für privat halt suboptimal.
Skysnake
2013-05-16, 17:45:27
/Sign
Und genau das ist der Knackpunkt, ob man ein BD Modul als Single oder Dualcore sieht.
Normal sollte der Decoder exklusiv sein, ist er bei BD1.0 aber nicht. Zumindest soweit man das einschätzen kann, was AMD dazu sagt.
Mit nem späteren BD Design lässt sich das relativ leicht aber ändern ;)
Knuddelbearli
2013-05-16, 17:57:15
ups gab natürlich 3770 vertippt ^^
Knuddelbearli
2013-05-16, 18:00:28
die Diskussion mit den Kernen ist doch müßig ...
Gleichgut könnte man argumentieren das Haswell ganze 4 INT-ALUS hat Bulldozer aber nur 2.
Man also bei beiden CPUs 8 Threads mit je 2 ALUs hat
Botcruscher
2013-05-16, 18:08:45
Das ist noch Ivy. Wie sich Haswell entwickelt muss sich noch zeigen.
Es lässt sich aber nicht so einfach in Threads sehen den HT Threads sind viel abhängiger von dem Kern zu welchen sie gehören d.h. unter Last Szenarios sind diese bei weitem nicht mehr so flexibel und die Performance kann erheblich Schwanken. Insbesondere wenn die Hauptlast nicht von einer sondern von mehren Ausgewachsenen Anwendungen kommt, also mit getrennten Workloads.
(manchmal sind die Details dann doch wichtig)
die Diskussion mit den Kernen ist doch müßig ...
Ja, aber wie hatten sie doch erst 99 Mal :)
Undertaker
2013-05-16, 21:23:32
Da gibt's keine Messungen zu, da die Spiele-Last sich nicht kontinuierlich über den Verlauf des x264 HD v5.0 aufrecht erhalten lässt.
Na dann ist aber auch die fps-Messung im Spiel ziemlich unnütz. Mit entsprechenden Prioriäten bekomme ich auch einen Dual-Core-Celeron dazu, eine einzelne Anwendung eines Multitasking-Szenarios schneller als ein 3970X zu bewältigen.
Knuddelbearli
2013-05-16, 21:43:24
ja aber ist ja egal wenn du überall gleich einfreifst
Threads wurden immer auf die echten kerne bzw 1 je modul gelegt
wie das beim FX-6 gemacht wurde weiss ich nicht da es leider nicht steht
Dennoch müssen sich beide INTs das Frontend sharen.
Und holen trotzdem bis 90% Mehrleistung raus bei 2 Threads. Davon kann man bei HTT nur träumen ;).
Da könnte man fast einwenden, dass 90% von nichts noch immer nichts ist.
TobiWahnKenobi
2013-05-17, 09:27:16
ich empfinde den FX8 als "eigentlich gut nutzbar".
musste vergangenes wochenende 8 transportströme mit handbrake transkodieren und weil ich den krempel einfach nur schnell klein und wieder von der platte haben wollte, habe ich beide rechner dafür eingespannt (FX8320@4.5GHz; i7 3770K@4.7GHz). FHD-x264 dauerte auf dem intel ca. 20 minuten pro file. der AMD brauchte 30-40min. da hatte ich schlimmeres erwartet.
im anschluss daran habe ich den firestrike benchmark auf beiden rechnern laufen lassen, jeweils mit GTX690 und auch da war die synthetische spieleleistung fast gleich auf. mit dem FX warf der murks maximal 5.800 punkte aus; der i7 schaffte 6.100..
dafür dass der AMD samt board weniger kostet, als beim intel die nackte CPU schon wirklich gute leistung. dagegen war der alte zweitrechner (955be @4GHz) fast "schneckig".
(..)
mfg
tobi
Es bestreitet ja niemand, dass ein FX-8 ordentlich was durchbläst, sofern alle Rechenwerke/Threads genutzt werden. Das Problem ist die Leistungsaufnahme dabei.
MfG,
Raff
fondness
2013-05-17, 09:44:01
Dennoch müssen sich beide INTs das Frontend sharen.
Welches bei Steamroller enorm aufgeblasen wird.
Twodee
2013-05-17, 10:35:38
Und holen trotzdem bis 90% Mehrleistung raus bei 2 Threads. Davon kann man bei HTT nur träumen ;).
Dafür holt Intel bis zu 99% Leistung ein einem Thread pro Core raus, davon kann AMD mit einem Thread pro Modul nur Träumen ;)
robbitop
2013-05-17, 11:27:41
Welches bei Steamroller enorm aufgeblasen wird.
Ich frage mich, ob das so viel IPC bringen wird. Im Singlethread (bzw nur 1 Thread pro Modul) Auslastungsfall, hat ein Int Core ja immerhin 4 Decoder. Und die volle FPU. Deutlich besser wird's trotzdem nicht...
Das klingt eher danach, dass die CMT Performance dadurch vor allem besser wird.
fondness
2013-05-17, 11:48:08
Ich frage mich, ob das so viel IPC bringen wird. Im Singlethread (bzw nur 1 Thread pro Modul) Auslastungsfall, hat ein Int Core ja immerhin 4 Decoder. Und die volle FPU. Deutlich besser wird's trotzdem nicht...
Das klingt eher danach, dass die CMT Performance dadurch vor allem besser wird.
Natürlich bringt ein breiteres Frontend nur was bei CMT, für einen Thread ist es breit genug. Bei zwei Threads pro Modul bremst hingegen häufig das Front-End eine bessere Skalierung. Ist aber nicht so das nicht auch Optimierungen vorhanden wären, welche die Single-Thread IPC zu gute kommen. Es geht beim Frontend auch nicht nur um den Durchsatz, auch die Latenzen die auftreten um eine Befehl einen Core zuzuweisen sind aktuell zu hoch. Steamroller ändert dies indem er die Decoder wieder teilt:
http://img69.imageshack.us/img69/7394/20120907006.jpg (http://imageshack.us/photo/my-images/69/20120907006.jpg/)
Uploaded with ImageShack.us (http://imageshack.us)
Botcruscher
2013-05-17, 13:02:53
So richtig viel Transistoren wird CMT dann aber auch nicht mehr sparen. HT ist ja quasi umsonst.
Warum? Fetch, BP usw werden auch weiterhin gemeinsam genutzt, die Decoder selbst sind ja eh billig.
Ich frage mich, ob das so viel IPC bringen wird. Im Singlethread (bzw nur 1 Thread pro Modul) Auslastungsfall, hat ein Int Core ja immerhin 4 Decoder. Und die volle FPU. Deutlich besser wird's trotzdem nicht...
Das klingt eher danach, dass die CMT Performance dadurch vor allem besser wird.Jo, aber IPC-Verbesserungen gibts ja auch noch, wenn auch nicht in Reihe 1 ;-)
Größere Caches oder ne bessere Sprungvorhersage sind auch mit nur 1 Thread gut, dazu noch die besseren AGLUs :)
Bisschen was wird schon rumkommen.
So richtig viel Transistoren wird CMT dann aber auch nicht mehr sparen. HT ist ja quasi umsonst.Doch, doch, mit das Wichtigste im Front-End ist die Sprungvorhersage, die braucht einiges an Fläche, dann noch der L1I-Cache, der mit 96kB auch einiges frisst ... ist schon noch ok. BIn mal gespannt ob die L1D-Caches ähnlich asymmetrisch auf vielleicht 24kB vergrößert werden.
ThirdEye
2013-05-17, 20:54:03
also ich hab meinem fx einen ordentlichen luft kühler spendiert, aber jetzt merke ich, dass die zahlen nicht stimmen können: 15 kern und 35 board?! der kern wird wohl zu niedrig ausgegeben oder? board ist etwas zu warm für meinen geschmack aber unter volllast bleibts unter 60 und der kern unter 50
anddill
2013-05-18, 12:34:33
Weiß ja nicht womit Du das anzeigen lässt, aber bei AMD ist es schon seit Ewigkeiten so daß wenn überhaupt irgendwas halbwegs brauchbare Werte anzeigt daß das Tool vom Boardhersteller ist. Alle Universaldinger oder auch AMD Overdrive zeigen nur Müll an.
Hansea7
2013-05-18, 14:00:57
Was ist eigentlich aus Vishera 2.0 geworden? Irgendwie ist mir das zu ruhig, wenn man bedenkt, dass dieser angeblich in Juni vorgestellt werden soll. Es muss doch irgendwas durchdringen.
Wird dieser tendenziell nur das Topmodell darstellen, a la FX-8370/8390, oder gar den 5 GHz "Centurion", oder wird sich der Vishera 2.0 über die ganze Produktpalette erstrecken?
Ronny145
2013-05-18, 14:16:39
Gibt es eine seriöse Quelle oder Roadmap zum Vishera 2.0?
http://content.hwigroup.net/images/news/amd_desktop_roadmap_2013_01.jpg
Auf der steht nichts dergleichen drauf.
y33H@
2013-05-18, 21:54:02
Die Slide ist uralt, bisher kam nichts Neues bzw ist nichts geleakt. AMD pusht derzeit Mobile sowie Richland Desktop.
Pentium M
2013-05-19, 04:04:50
Vishera 2.0 oder die Hoffnung stirb zuletzt.
Gibt es eine seriöse Quelle oder Roadmap zum Vishera 2.0?
Das stand mal hochoffiziell auf ner amd Seite:
“Vishera” will also carry over into 2013 but with some enhancements over the 2012 version.Hatte AnarchX hier mal gepostet, finde es hier aber nicht mehr. Fand es nur noch in ner P3D news. Der AMD-Link von damals geht natürlich nicht mehr:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1328302051
Seitdem ist viel bei AMD passiert ... ob es das Projekt noch gibt kann man schwer sagen.
y33H@
2013-05-19, 12:35:35
http://blogs.amd.com/work/2012/02/02/your-new-amd-decoder-key/
Gibt's aber nicht mehr.
Kommandofrosch
2013-05-19, 12:47:17
Bei dem Kompilieren von Anwendungen merkt man, dass der FX-8350 ordentlich viel Power hat. Ich schaffe es somit 8 Kerne immer voll auszulasten.
Ronny145
2013-05-19, 17:56:27
Der AMD-Link von damals geht natürlich nicht mehr:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1328302051
http://blogs.amd.com/work/2012/02/02/your-new-amd-decoder-key/
Gibt's aber nicht mehr.
Könnte auf eine Streichung oder Verschiebung hindeuten. Die Informationsstille hat mich ja auch verwundert.
Könnte auf eine Streichung oder Verschiebung hindeuten. Die Informationsstille hat mich ja auch verwundert.
Ja, allerdings knausert AMD in letzter Zeit ziemlichst stark mit Infos. Deswegen würde ich noch ne kleine Restwahrscheinlichkeit für ne Rev.D zur Computex einplanen. Wirklich glauben tue ich daran aber auch nicht.
nix neues aber trotzdem immer wieder schön zu sehen wie gut sich der bulldozer in manchen sachen schlägt. :biggrin:
http://www.phoronix.com/scan.php?page=article&item=llvm_clang33_3way&num=1
...die compile time benches ignorieren, die haben imho keinen sinn.
Ronny145
2013-05-28, 20:17:41
Ja, allerdings knausert AMD in letzter Zeit ziemlichst stark mit Infos. Deswegen würde ich noch ne kleine Restwahrscheinlichkeit für ne Rev.D zur Computex einplanen. Wirklich glauben tue ich daran aber auch nicht.
Das hat sich erledigt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9785255#post9785255
Wenn da noch was kommt, dann erst 2014, was ich aber für sinnlos halte. Eher wird AMD was neues auf Steamroller Basis bringen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.