PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-8350 (Vishera) - Review-Thread


Seiten : [1] 2 3 4 5

w0mbat
2012-10-23, 00:26:38
Erste Reviews sind ja ganz nett: http://extrahardware.cnews.cz/recenze/fx-8350-vishera-vrati-osm-jader-piledriveru-na-4-ghz-amd-do-hry

Guter Sprung in Games, aber immer noch keine Konkurrenz für Intel. Was meint ihr?

maximus_hertus
2012-10-23, 00:40:51
Thx für den Link ;)

Im Prinzip wie erwartet. Der Sprung vom Bulli 1 zum Bulli "2" ist etwas größer als bei Sandy zu Ivy. Ergo konnte AMD bei der Leistung ganz leicht aufholen. Lediglich der Stromhunger ist unterirdisch (Prime, x264). Das geht gar nicht (mehr). Aber mal die weiteren Tests abwarten, insbesondere von der PCGH, HT4U und Computerbase.

Superheld
2012-10-23, 01:07:24
^danke fürs suchen:)

http://www.abload.de/img/unbenanntmel76.jpg (http://www.abload.de/image.php?img=unbenanntmel76.jpg)

boxleitnerb
2012-10-23, 07:32:39
Die Resultate beim Verbrauch irritieren. Teilweise wird mehr gemessen, teilweise deutlich weniger.

deLuxX`
2012-10-23, 07:42:33
Immer noch uninteressant. Der Stromverbrauch turnt sowas von ab.
Ne Danke.

Sir Integral Wingate Hellsing
2012-10-23, 07:58:10
http://www.heise.de/newsticker/meldung/AMD-Acht-Kerne-und-4-GHz-kontra-Intels-Core-i-1734298.html

http://ht4u.net/news/26388_amd_schickt_zweite_fx-generation_vishera_angefuehrt_vom_fx-8350_ins_rennen/

boxleitnerb
2012-10-23, 07:59:04
Macht HT4U keine Tests mehr?

Sir Integral Wingate Hellsing
2012-10-23, 08:03:27
Allgemein scheint die Review-Dichte bzgl. Vishera gering zu sein...

y33H@
2012-10-23, 08:04:24
Peter und Fabian waren zeitlich limitiert.

fondness
2012-10-23, 08:04:53
Zumindest die Spieleleistung hat überproportional zugenommen:
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/

Damit scheint es sich doch um Piledriver-Kerne zu handeln und kein reines Takt-Upgrade.
Teils +30% in Spielen ggü. Bulldozer. Damit hat man den Rückstand auf Intel deutlich reduziert, vielleicht wird das ja mit Steamrollen doch noch was.
Jetzt bräuchte es halt noch eine konkurrenzfähigen Fertigungsprozess, mit 22nm würde die Sache natürlich auch noch mal anders aussehen.

PCGH: http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/
Ausführliche Messungen der Leistung pro Takt (IPC, Instructions per Clock), welche Sie in der am 07. November erscheinenden PCGH 12/2012 finden, bescheinigen dem FX-8350 ein Plus von rund zehn Prozent, die er bei gleichem Takt im Mittel gegenüber dem FX-8150 zulegt (je nach Spiel sind es aber weit mehr!).

Ronny145
2012-10-23, 08:07:00
Die Resultate beim Verbrauch irritieren. Teilweise wird mehr gemessen, teilweise deutlich weniger.


Wo irritieren die? Habe bisher nur bei PCGH und CB gesehen, dort liegt er leicht höher als der Vorgänger. Die prozessbedingten Verbesserungen werden direkt vom höheren Takt aufgefressen. Gewisse Messschwankungen können durch Serienstreuungen zurückzuführen sein, die liegen ja recht nah beeinander. Ansonsten fast so wie erwartet, etwa 15% höhere Gesamtleistung welche alleine schon durch den 400 Mhz vergrößerten Basistakt zu erwarten gewesen ist. Die Hälfte davon ist auf IPC Steigerungen zurückzuführen. Beim Preis müsste AMD allerdings noch weiter runter. Wenn man sich das Mittel aus einem Anwendungsmix ansieht, liegt der i5-3450 vor dem FX-8350 und kostet das gleiche beim deutlich kleineren Stromverbrauch.

Shink
2012-10-23, 08:07:49
Immer noch uninteressant. Der Stromverbrauch turnt sowas von ab.
Ne Danke.
Naja. Der Stromverbrauch bei X264 ist am höchsten von allen im Test - da ist er allerdings auch so schnell wie ein i7.
Bei SuperPI und idle braucht er sogar um einiges weniger als ein FX8120 oder FX6100... also die Richtung stimmt schon.

Jetzt müssen sie nur mehr eine Bremse für Prime 95 einbauen. :freak:

Was mich eher abtörnt, ist die Speicherperformance bei Serverbenchmarks.

Ronny145
2012-10-23, 08:12:50
Naja. Der Stromverbrauch bei X264 ist am höchsten von allen im Test - da ist er allerdings auch so schnell wie ein i7.



In dbPoweramp liegt er auch am höchsten und leistet trotzdem 30-40% weniger.

y33H@
2012-10-23, 08:14:47
Also ich war gerade bei den Spiele-Tests ziemlich positiv überrascht, die IPC geht hier stellenweise richtig gut nach oben. Multithread-Apps laufen wie gehabt ziemlich flott ... das Ganze bei zwei Dritteln des Stromverbrauchs und der FX wäre durchaus schick.

M4xw0lf
2012-10-23, 08:23:05
Also ich war gerade bei den Spiele-Tests ziemlich positiv überrascht, die IPC geht hier stellenweise richtig gut nach oben. Multithread-Apps laufen wie gehabt ziemlich flott ... das Ganze bei zwei Dritteln des Stromverbrauchs und der FX wäre durchaus schick.

Hmm... 22nm/32nm=0,6875 (;)) - lassen wir Intel das Teil fertigen und alles wird gut :freak:

Shink
2012-10-23, 08:24:34
das Ganze bei zwei Dritteln des Stromverbrauchs
Oder anders gesagt: In 22nm...

Der böhse Michael Larabel sieht den 8350 als Konkurrenz zum i7-3770K bei Verwendung als Linux-Workstation:
http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2

y33H@
2012-10-23, 08:25:49
Hab ich schon im P3D gesagt, die reine MT-Performance ist durchaus auf 3770K-Level. Aber eine täglich laufende Workstation mit einem FX und dem Stromverbrauch zu befeuern? Nu ja ...

Ronny145
2012-10-23, 08:29:12
Also ich war gerade bei den Spiele-Tests ziemlich positiv überrascht, die IPC geht hier stellenweise richtig gut nach oben. Multithread-Apps laufen wie gehabt ziemlich flott ... das Ganze bei zwei Dritteln des Stromverbrauchs und der FX wäre durchaus schick.


Für ein neues Stepping beachtlich. Da kann man mal sehen, wie verbuggt die erste Version gewesen sein muss. Bulldozer in Form von Vishera hätte so letztes Jahr schon kommen sollen, dann wäre wenigstens der Vorgänger deutlich besiegt gewesen. Ok der Stromverbrauch ist sehr hoch, das ist bei der die Größe und den 8 Bulldozer Kernen aber kaum anders zu erwarten. AMD braucht eben viel mehr Kerne/Fläche, um die IPC Nachteile auszugleichen. Das geht logischerweise auf Kosten des Verbrauchs.

Oder anders gesagt: In 22nm...


Gegen die 32nm Sandy Bridge sieht es kaum anders aus. Stromverbrauch ist sehr hoch, daran gibt es nichts zu rütteln. Im x264 Test verbraucht sogar der i7-3960X weniger.

fondness
2012-10-23, 08:32:32
AnandTech mit einem ausführlichem Review aller vorgestellten Prozessoren:
The Vishera Review: AMD FX-8350, FX-8320, FX-6300 and FX-4300 Tested (http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested)

Bl@de
2012-10-23, 08:38:18
Überraschend gut. Hätte weniger erwartet vom 8350. Wenn er sich bei ca. 170€ Marktpreis einpendelt ist er eine gute Alternative ... bis auf den Stromverbrauch :freak:

boxleitnerb
2012-10-23, 08:41:01
Wo irritieren die? Habe bisher nur bei PCGH und CB gesehen, dort liegt er leicht höher als der Vorgänger. Die prozessbedingten Verbesserungen werden direkt vom höheren Takt aufgefressen. Gewisse Messschwankungen können durch Serienstreuungen zurückzuführen sein, die liegen ja recht nah beeinander. Ansonsten fast so wie erwartet, etwa 15% höhere Gesamtleistung welche alleine schon durch den 400 Mhz vergrößerten Basistakt zu erwarten gewesen ist. Die Hälfte davon ist auf IPC Steigerungen zurückzuführen. Beim Preis müsste AMD allerdings noch weiter runter. Wenn man sich das Mittel aus einem Anwendungsmix ansieht, liegt der i5-3450 vor dem FX-8350 und kostet das gleiche beim deutlich kleineren Stromverbrauch.

Leicht? Die haben 18W mehr gemessen mit Turbo. Das unterscheidet sich schon deutlich von anderen Reviews, die gar 15-20W weniger gemessen haben.

fondness
2012-10-23, 08:50:43
Overclocking ist im übrigen auch nicht schlecht. Die meisten Reviewer erreichen knapp unter oder um 5Ghz, das sind immerhin knapp 25%. Das zeigt das in doppelter Hinsicht die Leistungsaufnahme mehr verhindert. Gleichzeitig wundert es mich das der Turbo dann nicht höher geht.

(del676)
2012-10-23, 08:50:45
Sieht sehr gut aus. Eventuell meinen FX8150 im Linux Server/Workstation gegen einen FX8320 tauschen. So wie es aussieht schlaegt dieser den alten immer.

Hugo78
2012-10-23, 08:55:58
Halbwegs positiv:
Mit 10-11% mehr IPC hat AMD zumindest das untere Ende von dem errreicht, was sie versprochen hatten.

Nur ist man jetzt grad mal wieder so fix wie zu Phenom II Zeiten, in Sachen IPC.
Ein theoretischer 32nm Phenom III X8 auf Basis der "Stars" Kerne vom Llano aber, wäre letztes Jahr schon nochmal 5-7% schneller gewesen.

Dann hätte man wenigstens den Speed es 45nm Core i7-860, ...

y33H@
2012-10-23, 08:56:36
Overclocking ist im übrigen auch nicht schlecht. Die meisten Reviewer erreichen knapp unter oder um 5Ghz, das sind immerhin knapp 25%. Das zeigt das in doppelter Hinsicht die Leistungsaufnahme mehr verhindert. Gleichzeitig wundert es mich das der Turbo dann nicht höher geht.Dafür braucht's halt ne ziemlich fette und idR laute Kühlung. Mein i5 läuft mit OC und UV ultra silent :freak:

(del676)
2012-10-23, 09:04:20
Mit 4 Kernen. Hach wie suess der kleine. :P

Mit 4 Kernen laeuft mein Ivy auch mit 4,9 Ghz. Trotzdem ist mein stock 8150 teilweise noch immer schneller.

;)

Undertaker
2012-10-23, 09:06:53
Overclocking ist im übrigen auch nicht schlecht. Die meisten Reviewer erreichen knapp unter oder um 5Ghz, das sind immerhin knapp 25%. Das zeigt das in doppelter Hinsicht die Leistungsaufnahme mehr verhindert. Gleichzeitig wundert es mich das der Turbo dann nicht höher geht.

Beim OC werden neben dem Verbrauch (bzw. als Folge dessen) wohl auch die Temperaturen zum Problem.

Insgesamt ein etwas größerer IPC-Anstieg als erwartet, die Multithreadleistung kann bezogen auf die Preisklasse voll überzeugen. Im Anwendungsmittel reicht es, wie schon gesagt wurde, allerdings nur für einen ähnlich teuren i5, wobei der nur einen Bruchteil verbraucht.

Auch in Spielen gehts in die richtige Richtung, der Phenom II wird erstmals klar geschlagen. Absolut muss man allerdings relativieren, dass jetzt unterm Strich gerade einmal das Level des i5-760 erreicht wird...

y33H@
2012-10-23, 09:13:37
Mit 4 Kernen laeuft mein Ivy auch mit 4,9 Ghz. Trotzdem ist mein stock 8150 teilweise noch immer schneller.Wo bitte schlägt ein FX-8150 stock einen IVB i5 mit fast fünf GHz im Alltag sichtlich? Beim Stromverbrauch? :ugly:

Shink
2012-10-23, 09:14:21
Deswegen wurde ja der 8150er mit einer geschlossenen Wasserkühlung gebundelt.
Ansonsten bleibt ja immer noch das PC-Klo als Ausweg.

boxleitnerb
2012-10-23, 09:19:07
Woran liegt es eigentlich, dass die Performance in Spielen recht weit gestreut ist? Teilweise nur knapp 10% mehr, dann wieder 20% oder gar mehr.

Twodee
2012-10-23, 09:24:48
Dafür braucht's halt ne ziemlich fette und idR laute Kühlung. Mein i5 läuft mit OC und UV ultra silent :freak:
das tut mein SB-E@4GHz und einem noctua nh-d14@Silent auch :biggrin:

Undertaker
2012-10-23, 09:25:35
Zwei mögliche Faktoren dürften a) die Parallelisierung (ST-Leistung stieg weniger als MT-Leistung) sowie b) die Cache-Abhänigkeit sein (Cache-Performance soll wohl verbessert worden sein?).

Twodee
2012-10-23, 09:26:07
Oder anders gesagt: In 22nm...
Intel 32nm Prozess wäre schon eine mega Verbesserung :rolleyes:.

Psychopat
2012-10-23, 09:26:31
Also der 4300 wird ab 125 Euro gelistet, der 6300 ab 135 Euro. Gib denen mal noch ein, zwei Wochen und dann sinds noch 10 Euro weniger. Beide haben einen freien Multi.

Zusammen mit guten AMD Brettern im unteren Preisbereich ist das doch kein schlechtes Angebot. Mit OC sind beide Prozessoren den Intel-Gegenparts in dem Preisbereich überlegen. Der Stromverbrauch bei den kleineren FX ist auch nicht so derb, das es Luftkühler nicht mehr schaffen das leise zu kühlen.

Jetzt mal so grob überschlagen:
Der 3570K + OC + gutes Brett ist die Messlatte für ein Gamingsystem. Will man deutlich weniger ausgeben (also schon so 100 Euro weniger, sonst lohnt das nicht und man sollte gleich den 3570K nehmen), dann landet man beim 4300/6300 + OC + gutes Brett. Von der Leistung her hat Intel nichts besseres in dem Preisbereich.
Ein Negativpunkt bleibt die Abwärme/Leistungsaufnahme, ist aber meiner Meinung nach bei den kleineren FX noch nicht so exorbitant, das es mit gebräuchlichen Luftkühlern nicht zu handhaben wäre.

Schnitzl
2012-10-23, 09:36:39
Wo bitte schlägt ein FX-8150 stock einen IVB i5 mit fast fünf GHz im Alltag sichtlich? Beim Stromverbrauch? :ugly:
er meinte "teilweise noch immer schneller" ;)

andere Frage: ist im Heft ein Vergleich mit PhenomII bei gleichem Takt?
(evtl. auch Core2Duo/Quad?)

/Edit:
AnandTech mit einem ausführlichem Review aller vorgestellten Prozessoren:
The Vishera Review: AMD FX-8350, FX-8320, FX-6300 and FX-4300 Tested (http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested)
Kann das sein, ALLE Vishera-CPUs schneller als der FX8150 bei Skyrim und Diablo3 ???

Psychopat
2012-10-23, 09:43:43
Da noch nicht verlinkt, hier noch der Test von Planet3DNow:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737#content_start

Und ja: Mit dabei ein Vergleich mit einem Phenom II auf gleichem Takt.

y33H@
2012-10-23, 09:48:27
Ja - IPC mit Deneb, Zambezi, Vishera und IVB 4C.

Schnitzl
2012-10-23, 09:53:32
Ja - IPC mit Deneb, Zambezi, Vishera und IVB 4C.
cool, danke :)

@ Psychopat: da stimmt was nicht, der Zambezi war bei gleichem Takt bisher immer schlechter als der PhenomII (in Spielen)

MadManniMan
2012-10-23, 09:54:03
Hmm... 22nm/32nm=0,6875 (;)) - lassen wir Intel das Teil fertigen und alles wird gut :freak:

Es geht hier um Flächen, nicht um Längen:

(22 nm)² / (32 nm)² = 0,47

Momentan macht mir der Prozessormarkt keinen Spaß. AMD hat tolle Ansätze, die vielleicht auch konkurrenzfähig sind, darf aber nicht im selben Sandkasten spielen, sondern muss in die Kiesgrube. Intel hingegen fährt das eigene Potential lange nicht aus und verkauft über Ewigkeiten ähnliche Leistung für ähnlich viel Geld.

Intel hat einfach an dieser Stelle einen -- realistisch gesehen -- uneinholbaren (Technologie-)Vorsprung. Spannend ist anders.

(del676)
2012-10-23, 09:54:29
Wo bitte schlägt ein FX-8150 stock einen IVB i5 mit fast fünf GHz im Alltag sichtlich? Beim Stromverbrauch? :ugly:

Linux.
Z.b. Kernel kompilieren. Datendurchsatz bei SW Raid6 inkl AES Verschluesselung. Virtualisierung.

Shink
2012-10-23, 10:02:27
Momentan macht mir der Prozessormarkt keinen Spaß. AMD hat tolle Ansätze, die vielleicht auch konkurrenzfähig sind, darf aber nicht im selben Sandkasten spielen, sondern muss in die Kiesgrube. Intel hingegen fährt das eigene Potential lange nicht aus und verkauft über Ewigkeiten ähnliche Leistung für ähnlich viel Geld.

Intel hat einfach an dieser Stelle einen -- realistisch gesehen -- uneinholbaren (Technologie-)Vorsprung. Spannend ist anders.
Klar ist: AMD hat nicht die Resourcen zur Verfügung, Intel durch Materialschlacht zu besiegen.

Das Potential liegt zur Zeit wohl bei der Integration der Grafikkerne: Davon abgesehen, dass immer weniger dedizierte Grafikkarten eingesetzt werden, kann man die GPU für immer mehr Anwendungsfälle ala Winzip nutzen. Und zumindest da hat Intel noch das Nachsehen: Die verbauen Recheneinheiten wie blöd und kommen immer noch nicht an die Leistung der AMD-IGPs ran.

Aber realistisch gesehen hat Intel genug Resourcen, die Lage umzudrehen.

Ravenhearth
2012-10-23, 10:04:06
Ist anands Review wieder weg?:confused:

hansitaub
2012-10-23, 10:11:26
Meiner Ansicht nach relativ Bescheiden, zumal sich einige Webseiten sich diesmal entschlossen haben AMD mal in ein besseres Licht zustellen, ob das die Weltweiten Verkäufe ankurbelt dürfte bezweifelt werden .

Minimale Leistungssteigerung im Vergleich zu einen Bulli 1@4GHz, trüben dann doch das Endergebnis schon sehr, abhängig wie immer von der Testmethodik - Hinzukommt der immer noch gewaltige Stromhunger der Architektur, der mich dann doch Zweifeln lässt wie man teilweise das auch noch in ein positives Licht stellen kann - Wobei man klar festhalten sollte, dass es Weltweit eher nicht mit einfließt ob ein Kunde zu so einer ineffizienten Lösung greift.

Meiner Meinung nach wird auch dieses Modell nicht dazu führen die Bilanzen deutlich zusteigen, hängt zweifelsohne auch an der momentanen Wirtschaftlichen Lage in der sich die Branche derzeitig befindet. Der Boomende Smartphone/Tablet-Markt wird dem Desktop-Markt auch weiterhin Kopfschmerzen bereiten, denn selbst 1-2Jahre alte Leistungsfähige x86 Prozessoren kann ein normalo nicht annähernd Ausreitzen teils bedingt durch die Software und auch einfach fehlendes Interesse oder auch die zeit die dazu investiert werden muss. Hardware-freaks in Foren tragen auch nur ein klitzekleinen Teil zum Umsatz bei, dass war und ist nicht die Latte an der es gilt sich zu Messen, die Branche befindet sich seit einiger zeit im Umbruch, nur schade das es AMD hier wahrscheinlich verschlafen hat, ob die kürzlich vorgetragenen Umstrukturierungen fruchten werden, darf ebenso bezweifelt werden. Aber da hat nicht nur AMD mit zu kämpfen auch Intel muss da gehörig mit Produkten aufschließen. Denn weder Intel noch AMD sind Konkurrenten untereinander sondern eher ARM .


Eine Spannenden Geschichte die da auch uns zukommt, nicht nur für AMD/Intel sondern auch die diversen Foren, die sich ja auch durch die Werbung finanzieren und auch von den Fanboykriegen profitiert haben die sich tagtäglich an die Rübe gegangen sind und die Werbeeinnahmen fließen lassen haben.

Quo vadis ?

dildo4u
2012-10-23, 10:13:23
Computerbase hat den 8350 nur beim 3570k wenn man nur Anwendungen betrachtet.Games sehen natürlich schlechter aus.

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/5/

Games Rund 30% unter 3570k 3770K
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/7/

Godmode
2012-10-23, 10:20:35
Schade für AMD, wieder eine weitere uninteressante CPU. Bis zur nächsten Generation ist Haswell da und dann sind sie wieder weit abgeschlagen... :(

Fairy
2012-10-23, 10:20:43
Wo wird sich der Preis vorerst einpendeln, kann man dazu schon was sagen? Und würde sich ein Aufrüsten von PII 965 BE lohnen? Speziell benötige ich die Leistung für VMs und alltägliches, Spielen nur im geringen Maße.

Twodee
2012-10-23, 10:27:41
Klar ist: AMD hat nicht die Resourcen zur Verfügung, Intel durch Materialschlacht zu besiegen.

Das Potential liegt zur Zeit wohl bei der Integration der Grafikkerne: Davon abgesehen, dass immer weniger dedizierte Grafikkarten eingesetzt werden, kann man die GPU für immer mehr Anwendungsfälle ala Winzip nutzen. Und zumindest da hat Intel noch das Nachsehen: Die verbauen Recheneinheiten wie blöd und kommen immer noch nicht an die Leistung der AMD-IGPs ran.

Aber realistisch gesehen hat Intel genug Resourcen, die Lage umzudrehen.
Dummerweise hat der Fx aber gar keine GPU onboard, der I7 hingegen schon.

MadManniMan
2012-10-23, 10:36:54
(...) Hinzukommt der immer noch gewaltige Stromhunger der Architektur (...)

Immer wieder wichtig, sich in Erinnerung zu rufen: der Stromhunger zweier Architekturen ist meines Erachtens nur dann richtig vergleichbar, wenn beide unter Berücksichtigung der selben Fertigungstechnik designt und gefertig wurden.

Ich kann mir gut vorstellen, dass Vishera einen deutlicheren Effizienzsprung beim Wechsel von 32 nm auf 22 nm machen würde, als Sandy Bridge auf Ivy Bridge vormachte.

][immy
2012-10-23, 10:40:55
Gibt es irgendwo auch einen Test wie der Stromhunger und die Performance mit "nur" 4 vollen kernen ausehen?
Die Lasttest lasten ja alle CPUs aus, wobei der FX ein wenig im nachteil ist, weil er mehr oder minder 8 kerne hat. Der Stromverbrauch beim spielen wäre hier wohl etwas genauer, weil hier wohl kaum alle 8 Kerne genutzt werden.

iFanatiker
2012-10-23, 10:41:20
Jetzt mal ehrlich und ganz objektiv wenn man sich mal die Reviews so anschaut:

Im Schnitt über alle Anwendungen gesehen auf dem Stand eines I5-3450 aber mit dem Verbrauch/Thermik eines kleinen Atommeilers und dann Preislich über den besagten i5?

Straßenpreis in Deutschland unter 130 € und dann wird man vielleicht den einen oder anderen Nicht-AMD Fanatiker überzeugen können. Ansonsten wird es höchstens wieder für Nischen interessant oder AMD Fanbois.

Der UVP ist lächerlich (wie auch der Stromverbrauch).


Das Potential liegt zur Zeit wohl bei der Integration der Grafikkerne: Davon abgesehen, dass immer weniger dedizierte Grafikkarten eingesetzt werden, kann man die GPU für immer mehr Anwendungsfälle ala Winzip nutzen. Und zumindest da hat Intel noch das Nachsehen: Die verbauen Recheneinheiten wie blöd und kommen immer noch nicht an die Leistung der AMD-IGPs ran.

Der Witz ist ja: Der Vishera hat ja eben gar keine IGP. Und lustigerweise geht Intel mit dem System on a Chip Gedanken bei seinen "vollwertigen" CPUs schon jetzt eben weiter als AMD.

y33H@
2012-10-23, 10:43:23
Wieso ist das ein Nachteil? Er kann in Anwendungen ja auch alle acht "Kerne" nutzen ;-)

Akkarin
2012-10-23, 10:45:03
Wo gibts es Benchmarks vom 6300/4300 gegen den i3 gegen 4170/6200? Die meisten Testen ja nur den 8350, bei Anandtech schlagen die FX den i3 in Skyrim und Diablo, aber dann wird plötzlich nicht mehr mit dem i3 weiter getestet (wtf?), was ich vom TechSpot Test halten soll weiß ich nicht, die Spieleauswahl ist viel zu begrenzt, Just Cause 2 ist scheinbar total zufällig (4170>all, i3-3220>SB etc. pp.) und der Abstand zwischen den CPUs ist generell sehr klein.

rudl
2012-10-23, 10:50:03
Unter Linux siehts nicht schlecht aus für Vishera

http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=1

V2.0
2012-10-23, 10:50:59
Leistung ok gegenüber Sandy Bridge, aber die Leistungsaufnahme ist immer noch zu hoch. Imho toll für Linux Anwendungen und sonstige "Nischenanwendungen".

Ich denke ich kaufe mir einen. Intel ist langweilig.

Shink
2012-10-23, 11:19:06
Dummerweise hat der Fx aber gar keine GPU onboard, der I7 hingegen schon.
Weshalb ich auch den Trinity als konkurrenzfähiger/erfolgsträchtiger halte als die FXen. Wie man von NVidia Anno 2003 weiß, ist FX die Bezeichnung für einen verzweifelten Versuch, durch Einsatz von extra Saft ein kaputtes Produkt konkurrenzfähig zu machen.:freak:

Flusher
2012-10-23, 11:21:39
Meiner Ansicht nach relativ Bescheiden, zumal sich einige Webseiten sich diesmal entschlossen haben AMD mal in ein besseres Licht zustellen, ob das die Weltweiten Verkäufe ankurbelt dürfte bezweifelt werden .

Minimale Leistungssteigerung im Vergleich zu einen Bulli 1@4GHz, trüben dann doch das Endergebnis schon sehr, abhängig wie immer von der Testmethodik - Hinzukommt der immer noch gewaltige Stromhunger der Architektur, der mich dann doch Zweifeln lässt wie man teilweise das auch noch in ein positives Licht stellen kann - Wobei man klar festhalten sollte, dass es Weltweit eher nicht mit einfließt ob ein Kunde zu so einer ineffizienten Lösung greift.

Meiner Meinung nach wird auch dieses Modell nicht dazu führen die Bilanzen deutlich zusteigen, hängt zweifelsohne auch an der momentanen Wirtschaftlichen Lage in der sich die Branche derzeitig befindet. Der Boomende Smartphone/Tablet-Markt wird dem Desktop-Markt auch weiterhin Kopfschmerzen bereiten, denn selbst 1-2Jahre alte Leistungsfähige x86 Prozessoren kann ein normalo nicht annähernd Ausreitzen teils bedingt durch die Software und auch einfach fehlendes Interesse oder auch die zeit die dazu investiert werden muss. Hardware-freaks in Foren tragen auch nur ein klitzekleinen Teil zum Umsatz bei, dass war und ist nicht die Latte an der es gilt sich zu Messen, die Branche befindet sich seit einiger zeit im Umbruch, nur schade das es AMD hier wahrscheinlich verschlafen hat, ob die kürzlich vorgetragenen Umstrukturierungen fruchten werden, darf ebenso bezweifelt werden. Aber da hat nicht nur AMD mit zu kämpfen auch Intel muss da gehörig mit Produkten aufschließen. Denn weder Intel noch AMD sind Konkurrenten untereinander sondern eher ARM .


Eine Spannenden Geschichte die da auch uns zukommt, nicht nur für AMD/Intel sondern auch die diversen Foren, die sich ja auch durch die Werbung finanzieren und auch von den Fanboykriegen profitiert haben die sich tagtäglich an die Rübe gegangen sind und die Werbeeinnahmen fließen lassen haben.

Quo vadis ?

Seh ich anders. 7-10% mehr Performance bei gleichem Takt ohne Architektur- oder Fertigungswechsel ist allen Ehren wert. Man sollte auch den Last-Stromverbrauch nicht überbewerten, denn nur selten kommt man im Alltag auf solche Lastspitzen. Imho ist der FX-8350 nun eine echte, günstigere Alternative zu den Intel CPUs.

Gibt es irgendeinen Test in dem der Stromverbrauch bei Spielen gemessen wurde?

boxleitnerb
2012-10-23, 11:26:59
Kommt die Steigerung jetzt eigentlich nur von IPC oder auch vom Mehrtakt? Der 8350 taktet immer mit 4 GHz, der 8150 hat aber mehr Turbospielraum. Es ist daher nicht so ganz ersichtlich, wann was greift. In Spielen scheint nicht nur beides zu greifen, dort gibt es teils überproportionale Gewinne, in Anwendungen sind es eher 10-15%.

][immy
2012-10-23, 11:31:08
Wieso ist das ein Nachteil? Er kann in Anwendungen ja auch alle acht "Kerne" nutzen ;-)
weil kein eine anwendung wirklich alle 8 kerne ausnutzt außer diese welche dazu da sind eine volllast zu verursachen.
Der reale Stromverbrauch wäre hier interessanter. Daher wäre z.B. interessant wie der stromverbrauch steigt mit der anzahl der belasteten kerne.

Kommt die Steigerung jetzt eigentlich nur von IPC oder auch vom Mehrtakt? Der 8350 taktet immer mit 4 GHz, der 8150 hat aber mehr Turbospielraum. Es ist daher nicht so ganz ersichtlich, wann was greift. In Spielen scheint nicht nur beides zu greifen, dort gibt es teils überproportionale Gewinne, in Anwendungen sind es eher 10-15%.
zumindest bei computerbase wurden die taktgleich mit und ohne turbe verglichen. Turbo machte wohl kaum einen unterschied.

dildo4u
2012-10-23, 11:42:42
Kommt die Steigerung jetzt eigentlich nur von IPC oder auch vom Mehrtakt? Der 8350 taktet immer mit 4 GHz, der 8150 hat aber mehr Turbospielraum. Es ist daher nicht so ganz ersichtlich, wann was greift. In Spielen scheint nicht nur beides zu greifen, dort gibt es teils überproportionale Gewinne, in Anwendungen sind es eher 10-15%.
Unten auf der Seite 4Ghz vs 4 Ghz ohne Turbo sind's 8% IPC.Der Takt macht noch mal ca 5% aus.
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/4/

fondness
2012-10-23, 11:43:27
Im Schnitt über alle Anwendungen gesehen auf dem Stand eines I5-3450 aber mit dem Verbrauch/Thermik eines kleinen Atommeilers und dann Preislich über den besagten i5?


Die hohe Leistungsaufnahme hat man aber auch nur wenn man alle 8 Kerne voll auslastet. Anwendungen die das tun laufen dann auch schneller als auf einem i5. Bei Anwendungen welche nur 4 Threads auslasten wird man natürlich sparsamer sein. Idle ist man voll konkurrenzfähig, Teillast-Szenarien wären interessant, leider gibt es dazu keine Tests.

Das ist genau das was ich eh schon länger an Leistungsaufnahmetests kritisiere: Es wird ein Extremszenario gemessen und damit suggeriert das der Prozessor/Grafikkarte überall soviel verbraucht.
Gewinnen tut dann nicht selten der Chip welcher am meisten gedrosselt wird.

boxleitnerb
2012-10-23, 11:49:04
Die Spiele-Ergebnisse bei Computerbase machen aber von vorne bis hinten keinen Sinn.

Beispiel:
Anno 2070, 1024x768

Der 8150@4000 ist angeblich 6% flotter als der 8150@3600+Turbo. Wie soll das bitte gehen, es sei denn der Turbo funktioniert bei Zambezi praktisch gar nicht. Schlimmer noch bei Batman AC, da bekommt man mit 11% mehr Takt (4000/3600) 13% mehr fps, obwohl der Turbo die Differenz durch das manuelle OC eigentlich deutlich drücken sollte.

Ich glaube dort steht der 8350 vorrangig deshalb so gut da in Spielen, weil der Turbo bei Zambezi nicht wirklich funktioniert (hat).

aufkrawall
2012-10-23, 11:51:03
Die hohe Leistungsaufnahme hat man aber auch nur wenn man alle 8 Kerne voll auslastet. Anwendungen die das tun laufen dann auch schneller als auf einem i5.
Ein i5 SNB/IVB mit +4,5 Ghz, wird mit Sicherheit wieder schneller sein als der AMD mit OC.

][immy
2012-10-23, 11:53:58
Die Spiele-Ergebnisse bei Computerbase machen aber von vorne bis hinten keinen Sinn.

Beispiel:
Anno 2070, 1024x768

Der 8150@4000 ist angeblich 6% flotter als der 8150@3600+Turbo. Wie soll das bitte gehen, es sei denn der Turbo funktioniert bei Zambezi praktisch gar nicht. Schlimmer noch bei Batman AC, da bekommt man mit 11% mehr Takt (4000/3600) 13% mehr fps, obwohl der Turbo die Differenz durch das manuelle OC eigentlich deutlich drücken sollte.

Ich glaube dort steht der 8350 vorrangig deshalb so gut da in Spielen, weil der Turbo bei Zambezi nicht wirklich funktioniert (hat).
turbo ist halt nicht immer turbo. wenn die grenze erreicht ist, zündet der turbo halt nicht mehr. kam es bei amd nicht sogar auf die kernbelastung an? anno war so ein spiel welches viele kerne ausnutzte. da würde dann der turbo auch nicht mehr anspringen. eine übertaktung auf 4ghz jedoch schon.

y33H@
2012-10-23, 12:06:29
[immy;9513759']weil kein eine anwendung wirklich alle 8 kerne ausnutzt außer diese welche dazu da sind eine volllast zu verursachen.So ein Unfug, die meisten Video-Konvertierungen etwa lasten acht Kerne (und mehr) voll aus. PCGH misst die Leistungsaufnahme etwa mit dem x264-Wandler.

aufkrawall
2012-10-23, 12:09:03
So ein Unfug, die meisten Video-Konvertierungen etwa lasten acht Kerne (und mehr) voll aus. PCGH misst die Leistungsaufnahme etwa mit dem x264-Wandler.
Hoffentlich mit Build 2200 oder neuer, das hat nämlich multithreaded Lookahead.
Könnte vielleicht bei 8 Modulen/Threads die Auslastung noch etwas erhöhen.

][immy
2012-10-23, 12:12:30
So ein Unfug, die meisten Video-Konvertierungen etwa lasten acht Kerne (und mehr) voll aus. PCGH misst die Leistungsaufnahme etwa mit dem x264-Wandler.

video-konvertierung interessiert mich hier aber nicht, sondern eher "normale" sachen wie spiele und arbeitsanwendungen.

S940
2012-10-23, 12:12:31
@ Psychopat: da stimmt was nicht, der Zambezi war bei gleichem Takt bisher immer schlechter als der PhenomII (in Spielen)Ist er bei den meisten Tests doch auch :confused:
Wo wird sich der Preis vorerst einpendeln, kann man dazu schon was sagen? Und würde sich ein Aufrüsten von PII 965 BE lohnen? Speziell benötige ich die Leistung für VMs und alltägliches, Spielen nur im geringen Maße.
Ich schätze grob 179 Euro nach Verfügbarkeit. Wenn Du keine große Last hast, verbrauchst Du mit dem 8350 auch weniger, da die idle-Werte besser sind. VMs freuen sich außerdem immer über (echte) INT-Kerne. MMn würde das Upgrade Sinn machen.
Die Spiele-Ergebnisse bei Computerbase machen aber von vorne bis hinten keinen Sinn.

Beispiel:
Anno 2070, 1024x768

Der 8150@4000 ist angeblich 6% flotter als der 8150@3600+Turbo. Wie soll das bitte gehen, es sei denn der Turbo funktioniert bei Zambezi praktisch gar nicht. Schlimmer noch bei Batman AC, da bekommt man mit 11% mehr Takt (4000/3600) 13% mehr fps, obwohl der Turbo die Differenz durch das manuelle OC eigentlich deutlich drücken sollte.

Ich glaube dort steht der 8350 vorrangig deshalb so gut da in Spielen, weil der Turbo bei Zambezi nicht wirklich funktioniert (hat).
][immy hats ja schon erwähnt, Anno hat doch ne moderne Engine, die kann auch 8 Threads auslasten. "Kann" ... "muss" aber natürlich nicht, hängt immer von der Szene ab. Bei CB scheints aber gut zu funktionieren, ansonsten wäre der 6core Intel mit weniger Takt nicht deutlich vor dem 3770K. Problem des Turbos ist der Win-Scheduler, bis der Kern hochgetaktet ist, ist der Thread schon wieder woanders. Da verliert man durch das rauf- und runterschalten eher noch etwas Leistung. Bin deswegen mal auf die ersten Linux-Steam-Spiele gespannt, der Linux-Scheduler ist nicht so hektisch, das könnte auch der L2-Lokalität zugute kommen.

StefanV
2012-10-23, 12:14:46
Die Resultate beim Verbrauch irritieren. Teilweise wird mehr gemessen, teilweise deutlich weniger.
Das hängt halt davon ab, wer wie und wo ein gutes Exemplar des Chips hat.

Unterschiede von 30W zwischen zwei vermeintlich gleichen Chips sind hier durchaus nicht unüblich...

Daher kann dann auch die Differenz kommen:
guter 8150 gegen schlechten 8350 und es schaut nicht soo dolle aus. Daher müsste man eigentlich mehrere CPUs gleichen Typus testen...

S940
2012-10-23, 12:27:41
Die hohe Leistungsaufnahme hat man aber auch nur wenn man alle 8 Kerne voll auslastet. Anwendungen die das tun laufen dann auch schneller als auf einem i5. Bei Anwendungen welche nur 4 Threads auslasten wird man natürlich sparsamer sein. Idle ist man voll konkurrenzfähig, Teillast-Szenarien wären interessant, leider gibt es dazu keine Tests. HMm P3D hat nen 3DMark-Test:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=23#content_start
"Nur" 30Watt Unterschied im dem Fall, allerdings lief der Vishera da auch nur mit 3,6 GHz.

Soweit ich mich erinnere lastet 3DMark keine 8 Threads voll aus, oder?

Ferengie
2012-10-23, 12:53:16
Aber wieso ist der A10 so sparsam (idle u. last) und beim Vishera hat es wieder nicht geklappt?
Das kann doch nicht nur am L3 liegen? http://www.technic3d.com/review/cpu-s/1466-amd-fx-8350-vishera/3.htm

][immy
2012-10-23, 13:03:39
Aber wieso ist der A10 so sparsam (idle u. last) und beim Vishera hat es wieder nicht geklappt?
Das kann doch nicht nur am L3 liegen? http://www.technic3d.com/review/cpu-s/1466-amd-fx-8350-vishera/3.htm


nunja, zum einen 2 module vs 4 module, dann noch der l3 cache. dann kommt ja noch das mainboard hinzu. wenn ich mich nicht irre, haben die lianos ja noch nen anderen chipsatz, wo wohl auch noch einige funktionen fehlen die beim großen AM3+ Board vorhanden sind.

Übrigens aus dem Review:

Hierbei wird Prime 95 mit der Einstellung "Large FFT" ausgeführt und der höchste gemessene Wert eingetragen.

heißt das jetzt, wenn der Prozessor mal einen Peak hat (z.B. könnte so was entstehen wenn der takt angehoben wird) dann wird dieser Wert genommen. Müssten solche tests nicht eigentlich so gemacht werden das der Verbrauch mindestens über eine zeitspanne mit Last gemessen wird. Das die CPU mal 0,1s 150W verbrät ist schließlich etwas anderes als das sie eine minute 150W verbrät. So sind solche verbrauchsmessungen ja für die katz.
Peak-Werte kennen wir ja schon ewig von irgendwelchen Boxen.

y33H@
2012-10-23, 13:04:43
Nicht am L3, sondern am Takt und der Spannung.

Twodee
2012-10-23, 13:07:53
Aber wieso ist der A10 so sparsam (idle u. last) und beim Vishera hat es wieder nicht geklappt?
Das kann doch nicht nur am L3 liegen? http://www.technic3d.com/review/cpu-s/1466-amd-fx-8350-vishera/3.htm
A10 und sparsam? der war gut :D - das Teil ist im Verbrauch gleichauf mit einem alten Sandy I7, bei ~50% der Leistung.

S940
2012-10-23, 13:09:31
Aber wieso ist der A10 so sparsam (idle u. last) und beim Vishera hat es wieder nicht geklappt?
Das kann doch nicht nur am L3 liegen? http://www.technic3d.com/review/cpu-s/1466-amd-fx-8350-vishera/3.htm

Idle passt doch, die 10W Unterschied gehen auf die Kappe des 990FX Chipsatzes.

Ansonsten halt die Spannung und das fehlende resonant Clock-Mesh.

Ferengie
2012-10-23, 13:15:54
Nicht am L3, sondern am Takt und der Spannung.
Es waren normierte Werte. z.B.http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/4
Ok da schneidet er besser ab unter Last, wenn der A10 nicht IGP ist.

hansitaub
2012-10-23, 13:35:06
Immer wieder wichtig, sich in Erinnerung zu rufen: der Stromhunger zweier Architekturen ist meines Erachtens nur dann richtig vergleichbar, wenn beide unter Berücksichtigung der selben Fertigungstechnik designt und gefertig wurden.

Ich kann mir gut vorstellen, dass Vishera einen deutlicheren Effizienzsprung beim Wechsel von 32 nm auf 22 nm machen würde, als Sandy Bridge auf Ivy Bridge vormachte.

Ich werf mal den alten i7-870 in den Raum der 2009 kam, alte 45nm effizienter als Bulli in welcher Revision auch immer.

Btw: Steamroller wird wohl nur in 28nm kommen .... einen Riesen Effizienzsprung wird es damit auch nicht geben ;)

Steffko
2012-10-23, 13:38:54
Sehe ich das richtig, dass der FX-6300 für den Durchschnittsuser wieder eher attraktiver wirkt, als die 8000er? In Spielen gibt sich das ganze nicht viel, dazu deutlich niedrigere Verlustleistung.

Wobei es mal interessant wäre, wie die Verlustleistung in realen Szenarios aussieht. Sprich insbesondere: wie nahe kommen die Intel und AMD CPUs in Spielen an die in den Reviews herausgekommenen (maximalen) Verbrauchswerte? Ich würde ja vermuten, dass AMD dann (relativ gesehen) ein gutes Stück besser da stehen müsste.

S940
2012-10-23, 13:44:43
Btw: Steamroller wird wohl nur in 28nm kommen .... einen Riesen Effizienzsprung wird es damit auch nicht geben ;)
Doch, wenn nur die Rechenleistung dank Steamrollerkernen steigt, aber nicht die Verlustleistung, dann steigt die Effizienz auch, selbst wenn der Herstellungsprozess fast keine Vorteile hat oder gar Nachteile mit sich bringt (SOI wird ja abgeschafft).

@Steffko (http://www.forum-3dcenter.org/vbulletin/member.php?u=10026):
Siehe #69 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9513859#post9513859)

Steffko
2012-10-23, 13:49:51
Doch, wenn nur die Rechenleistung dank Steamrollerkernen steigt, aber nicht die Verlustleistung, dann steigt die Effizienz auch, selbst wenn der Herstellungsprozess fast keine Vorteile hat oder gar Nachteile mit sich bringt (SOI wird ja abgeschafft).

@Steffko (http://www.forum-3dcenter.org/vbulletin/member.php?u=10026):
Siehe #69 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9513859#post9513859)


Ah danke. Wobei ich jetzt nicht sicher bin, wie ich das zu deuten habe. Ist das nun besser oder nicht? :freak:

S940
2012-10-23, 13:59:24
Ah danke. Wobei ich jetzt nicht sicher bin, wie ich das zu deuten habe. Ist das nun besser oder nicht? :freak:

Na deutlich besser. Der Stromverbrauch zw. LinX (alle Threads unter Vollast) und dem 3DMArk Setup liegt bei AMD quasi bei 0 (in beiden Fällen so um die 240 W), der Intel legt aber 80W zu.

Dass muss also Teillast sein, ansonsten müßten die AMD Systeme ja auch ~80W zulegen. Dass sie das nicht tun zeigt, dass im Teillast diese 80W bei der CPU eingespart werden können. Nicht schlecht.

Offene Frage ist nur, wie typisch 3DMark ist. Schlimmstenfalls läuft da nur ein einziger Thread, dann wärs wertlos, da aktuelle Spiele mind. 2 Threads haben.

Thunder99
2012-10-23, 14:20:27
Finde Vishera ist durchaus gelungen. Stromverbrauch mal nicht mit ein berechnet gegenüber Intel. Das wird wenn überhaupt erst in 2 Jahren besser werden (Verhältnis)

Die Frage ist halt was für ein Moduler (2/3/4) Spieler nun besser ist die ihren PII mal upgraden wollen sowie ihre Infrastruktur behalten wollen ;) Wohlgemerkt normiert auf sagen wir mal 4,5Ghz (da sollte der Stromverbrauch noch akzeptabel sein :freak: )

iFanatiker
2012-10-23, 14:22:13
Die hohe Leistungsaufnahme hat man aber auch nur wenn man alle 8 Kerne voll auslastet. Anwendungen die das tun laufen dann auch schneller als auf einem i5. Bei Anwendungen welche nur 4 Threads auslasten wird man natürlich sparsamer sein. Idle ist man voll konkurrenzfähig, Teillast-Szenarien wären interessant, leider gibt es dazu keine Tests.


Die volle Auslastung aller Kerne ist doch bzgl. der Performance/Watt doch genau das beste Szenario für den 8350 gegenüber der Intel Konkurrenz. Der absolute Verbauch ist doch ein uninteressanter Wert wenn man ihn nicht im Verhältnis zur geleisteten Arbeit setzt. Klar, schlägt hier wahrscheinlich der abnehmende Grenzertrag voll zu bei der Überzüchtung durch AMD...aber im Verhältnis dürfte sich nicht viel tun.

Der Idle welchen die meisten Webseiten emulieren interessiert doch eben genau keine Sau und auch Joe Sixxpack hat niemals solch ein Idle Verhalten.

Natürlich wäre das Optimum den Verbrauch eben eingeteilt in entsprechend Kategorien (z. B. Surfen mit Browser X und Aktualisierung der Seiten aller x Sekunden, Arbeit mit Textverarbeitung, Arbeit mit Web App ala Google Mail Client, Spiel X für so viele Minuten) zu messen und draus einen Mittelwert zu bilden. Aber das Volllast Szenraio ist bzgl. der Effinzenz Aussage näher dran als der "Desktop Idle" wo es mittlerweile ja gar keine Untschiede gibt weil alle hier stark optimieren.

HMm P3D hat nen 3DMark-Test:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=23#content_start
"Nur" 30Watt Unterschied im dem Fall, allerdings lief der Vishera da auch nur mit 3,6 GHz.


Acha...und welche Performance/Watt in diesem Teillast Bereich und welche absolute Performance wurde dort erreicht? So sind diese Balken doch.....ohne jeglichen Vergleichswert.

S940
2012-10-23, 14:40:45
Acha...und welche Performance/Watt in diesem Teillast Bereich und welche absolute Performance wurde dort erreicht? So sind diese Balken doch.....ohne jeglichen Vergleichswert.Der Artikel hat auch 3Dmark Benchmarks, da wirst Du geholfen ;-)

MadManniMan
2012-10-23, 14:41:28
Ich werf mal den alten i7-870 in den Raum der 2009 kam, alte 45nm effizienter als Bulli in welcher Revision auch immer.

Äh, ja. Meine Theorie von oben bezeichne ich hiermit als ... zurückgezogen :D

Das ist ja furchtbar. Also einerseits, dass ich das übersah, andererseits das Ergebnis selbst.

Schrotti
2012-10-23, 14:49:05
Für mich zählt der Bums bei spielen und da ist die neue Reihe noch immer hinten (selbst hinter einem i7 870 mit nur 2,93GHz und der ist schon 3 Jahre alt).

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/6/

(del676)
2012-10-23, 14:49:53
Fuer Gamer was das Ergebnis doch schon vorher abzusehen oder?

Godmode
2012-10-23, 14:56:50
Fuer Gamer was das Ergebnis doch schon vorher abzusehen oder?

Naja man hofft halt immer auf eine Alternative.

S940
2012-10-23, 15:07:12
Fuer Gamer was das Ergebnis doch schon vorher abzusehen oder?
Ja, wobei ja z.B. PCGH positiv überrascht ist, dass es Ausreißer nach oben gibt.

Der 8320 ist mittlerweile für 160 Euro gelistet (aber erst ab 31.10 lieferbar). Falls ich AM3+ hätte würde ich so einen bestellen und den auf 4 GHz laufen lassen (da braucht man noch nicht soviel Spannung, die Verlustleistung sollte sich in Grenzen halten).

Sollte dann ne runde Sache sein. Alternative - falls man keinen AM3+ Unterbau hat - wäre in dem Preisbereich der i5-2400 /3470.

dildo4u
2012-10-23, 15:12:08
Wann steigt AMD beim Desktop auf 28nm um 2014?Vorher sehe ich keine Wunder bei der Verlustleistung.

Thunder99
2012-10-23, 15:13:04
Ja, wobei ja z.B. PCGH positiv überrascht ist, dass es Ausreißer nach oben gibt.

Der 8320 ist mittlerweile für 160 Euro gelistet (aber erst ab 31.10 lieferbar). Falls ich AM3+ hätte würde ich so einen bestellen und den auf 4 GHz laufen lassen (da braucht man noch nicht soviel Spannung, die Verlustleistung sollte sich in Grenzen halten).

Sollte dann ne runde Sache sein. Alternative - falls man keinen AM3+ Unterbau hat - wäre in dem Preisbereich der i5-2400 /3470.
Da ich ein AM3+ Unterbau habe stellt sich halt (wie schon geschrieben) die Frage ob sich eher ein FX43xx oder 63xx oder 83xx, normiert auf gleichem Takt, vom Preis/Leistungsverhältnis bei Games ohne MP-Shooter a BF3 lohnt. :confused: Werde da aus den Reviews nicht so wirklich schlau

w0mbat
2012-10-23, 15:13:26
Aber für Besitzer eines X6@3,5GHz lohnt sich das leider nicht :(

S940
2012-10-23, 15:15:28
Da ich ein AM3+ Unterbau habe stellt sich halt (wie schon geschrieben) die Frage ob sich eher ein FX43xx oder 63xx oder 83xx, normiert auf gleichem Takt, vom Preis/Leistungsverhältnis bei Games ohne MP-Shooter a BF3 lohnt. :confused: Werde da aus den Reviews nicht so wirklich schlau
Beim aktuellen Preis ist der 8320 die beste Option, der 6300er ist ja nur 15 Euro billiger. BF3 hat meines Wissens nach in Extremsituationen auch ziemlich viele Threads, also wäre das dann auch nicht verkehrt ;-)
Den Reviews kann man da auch nur begrenzt glauben, da man nie weiss, was die gerade für ne Szene benchen ^^

@w0mbat:
Ja, der 45nm Prozess war mit ULK halt schon verdammt gut, und AMD kommt mit den Piledriverkernen jetzt erst so langsam aufs alte Rechenniveau der K10 Kerne.

Thunder99
2012-10-23, 15:17:05
Aber für Besitzer eines X6@3,5GHz lohnt sich das leider nicht :(
Ha doch, da die IPC nahezu gleich ist und du die Prozessoren höher takten kannst.

Sagen wir mal du kannst deinen aktuellen Prozessor "nur" auf 3,7Ghz maximal takten und den FX83xx auf sagen wir mal 4,5Ghz + Turbo bei einer vertretbaren Leistungsaufnahme ist es ein ordentlicher Sprung :)

Psychopat
2012-10-23, 15:19:37
Für mich zählt der Bums bei spielen und da ist die neue Reihe noch immer hinten (selbst hinter einem i7 870 mit nur 2,93GHz und der ist schon 3 Jahre alt).

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/6/

Aber ziemlich knapp dahinter. Aber wie ich bereits in #34 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9513587#post9513587) schrieb, interessant für Spieler sind eigentlich nur der 4300 und der 6300. Zu denen fehlen leider die Reviews. Ausgehend von den Erfahrungen mit dem 4170, wird der 4300 in den Spielen die nicht stark multithreaded sind wohl ähnliche Leistung wie der 8350 bringen.

Es ist zwar schade, das AMD den 45nm i7 870 nicht schlagen kann, aber hilft mir das was als Kunde? Bekomme ich den i7 870 irgendwo so billig her wie den 4300 oder den 6300?

Mein Fazit bleibt: für Gamer PCs die aus Kostengründen keinen 3570K verbaut haben, bekommt man mit dem 4300/6300 + OC die meiste Spieleleistung fürs Geld.

S940
2012-10-23, 15:21:09
Ha doch, da die IPC nahezu gleich ist und du die Prozessoren höher takten kannst.

Sagen wir mal du kannst deinen aktuellen Prozessor "nur" auf 3,7Ghz maximal takten und den FX83xx auf sagen wir mal 4,5Ghz + Turbo bei einer vertretbaren Leistungsaufnahme ist es ein ordentlicher Sprung :)

Naja, wie besagt .. ULK war da schon gut, die X6 haben nicht sooviel verbraucht, selbst mit OC.

Je mehr Zeit vergeht, desto mehr sollte sich eigentlich der Befehlssatzvorteile ausspielen, AES, SSE4.1,2 etc. von AVX gar nicht zu reden, dass hatte ein K10 ja alles nicht. Aber das dauert alles immer noch ...

dildo4u
2012-10-23, 15:22:18
Da ich ein AM3+ Unterbau habe stellt sich halt (wie schon geschrieben) die Frage ob sich eher ein FX43xx oder 63xx oder 83xx, normiert auf gleichem Takt, vom Preis/Leistungsverhältnis bei Games ohne MP-Shooter a BF3 lohnt. :confused: Werde da aus den Reviews nicht so wirklich schlau
Skaliert über 8 Threads aber nicht linear nach dem 4 Core.8120 und 6200 sind gleich langsam,(50fps)langsamer als ein Intel Dual Core(3240)(56fps).Laut den 64 Player Benches im neusten PCGH Heft,die Intel Quad's beginnen bei 80 fps.

Undertaker
2012-10-23, 15:23:22
Ha doch, da die IPC nahezu gleich ist und du die Prozessoren höher takten kannst.

Sagen wir mal du kannst deinen aktuellen Prozessor "nur" auf 3,7Ghz maximal takten und den FX83xx auf sagen wir mal 4,5Ghz + Turbo bei einer vertretbaren Leistungsaufnahme ist es ein ordentlicher Sprung :)

Prozentual ist Vishera nicht besser zu übertakten als Thuban - spätestens ab Basistakt + 20% (jeweils bezogen auf das Topmodell) wird es extrem ineffizient. Klar, der FX ist damit etwa 25% schneller als der X6, zum Aufrüsten wäre mir das allerdings zu wenig. Selbst wenn ich dafür nur die CPU tauschen müsste, was dank AM2+-Basis leider nicht klappt. ;)

Echo419
2012-10-23, 15:30:06
Aber für Besitzer eines X6@3,5GHz lohnt sich das leider nicht :(
da muss ich dir leider recht geben. mein x6 war eigentlich als zwischenupdate gedacht um später auf den fx-zug aufzuspringen. aber wie ich die sache so sehe, hat mein 1090t @3,6ghz+uv noch genug bums um mit dem 8350 mitzuhalten. zumal ich noch luft nach oben hab (mit takt&spannung).

nunja wird halt wohl ein längeres zwischenupdate bis steamroller.

Ronny145
2012-10-23, 15:32:19
Wann steigt AMD beim Desktop auf 28nm um 2014?Vorher sehe ich keine Wunder bei der Verlustleistung.


Visheras Nachfolger erst 2014, beim APU Pendant mit Steamroller Kernen ist/war der Plan für 2013 ausgerichtet, gab allerdings zuletzt Verschiebungsgerüchte für Kaveri/Steamroller.

Thunder99
2012-10-23, 15:55:26
Werden nun inkl. dem FX Patch zuerst die Module ausgelastet sprich bei 4 Threads auf 2 Module anstatt auf 4 Module oder umgekehrt?

y33H@
2012-10-23, 16:05:27
Erst die Module, dann die 2ten INTs.

yahooligan
2012-10-23, 16:25:18
Nachdem ich mir die Reviews auf ComputerBase, TechPowerUp und Anandtech angesehen habe, finde ich, dass mit dem 6300er selbst in Spielen eine Alternative entstanden ist. (Solange man die AMDs nicht aufgrund der höheren Leistungsaufnahme sowieso ausschließt)

Der 3-Moduler ist:

- günstiger als der 8320 und wahrscheinlich Preislich gleichauf mit den Intel 2-Kernern
- in Spielen meist gleichauf mit dem 8320 und vor den Intel 2-Kernern
- verbrauchsärmer als die 4-Moduler
- weit günstiger als der kleinste Intel 4-Kerner und in Spielen nicht weit abgeschlagen

Wie seht ihr das?

y33H@
2012-10-23, 16:47:50
Der FX-6300 zieht im Spiele-Mittel nicht am Core i3-3220 vorbei so wie ich das sehe. Zudem 105 gegen 135 Euro.

ndrs
2012-10-23, 16:48:37
- in Spielen meist gleichauf mit dem 8320 und vor den Intel 2-Kernern
- verbrauchsärmer als die 4-Moduler
Wenn er gleich auf mit dem 4-Moduler ist, wird jener nicht voll ausgelastet, wodurch das Verbrauchsargument nichtmehr zieht.

dildo4u
2012-10-23, 16:52:03
Der FX-6300 zieht im Spiele-Mittel nicht am Core i3-3220 vorbei so wie ich das sehe. Zudem 105 gegen 135 Euro.
Der Takt wurde gegenüber dem 6200 ja auch von 3.8Ghz auf 3.5 gesenkt um auf 95Watt zu kommen,die Performance bewegt sich so natürlich nicht.

Liszca
2012-10-23, 16:54:32
Mir fehlen die worte.:eek:

Das ist ja einfach nur fabrickneuer abfall was dort geliefert wird von AMD bei diesem Stromverbrauch dass noch als 125 watt TDP modell einzuordnen ist einfach nur dreist 140 Watt wären passender.

Ich finde einfach keine verbesserung, schon garnicht bei gleichem takt da ist Zambezi wenigstens genügsamer ...

Liszca
2012-10-23, 17:02:33
Auf Phoronix finde ich dass der 8350 im vergleich zum a10-5800 alt aussieht.

Irgendwie doch ne noch verkorkstere CPU und ich dussel hatte mir voreilig ein am3+ board geholt.

S940
2012-10-23, 17:03:21
Skaliert über 8 Threads aber nicht linear nach dem 4 Core.8120 und 6200 sind gleich langsam,(50fps)langsamer als ein Intel Dual Core(3240)(56fps).Laut den 64 Player Benches im neusten PCGH Heft,die Intel Quad's beginnen bei 80 fps.
Also wenn der 6300 mit 6 Kernen & 3,8GHz und der 8120 mit 8Kernen & 3,1 GHz gleichauf sind, sollte der Vishera mit 8 Kernen und 4 Ghz plus IPC Verbesserungen nicht schlecht abschneiden.

Ich finde einfach keine verbesserung, schon garnicht bei gleichem takt da ist Zambezi wenigstens genügsamer ...
Na na na, so schlimm ists nun auch wieder nicht, und schon gleich gar nicht, wenn Du nur mit dem Zambezi vergleichst. Die paar Watt mehr (wenn überhaupt, variiert ja je nach Test), sind egal, und v.a. in einigen Spielen liegt der Vishera deutlich vorn.
Verglichen mit Intel siehts natürlich anders aus.

@yahooligan (http://www.forum-3dcenter.org/vbulletin/member.php?u=22555):
Kommt drauf an. Aber solange nur 15 Euro zw. 6300 und 8320 sind, würde ich nen 8320 nehmen.

Psychopat
2012-10-23, 17:22:15
Damit der 6300 sein Potential entfalten kann, muss man ihn übertakten. Der sollte ähnlich wie der 8350 auf mindestens 4,5 GHz gehen.

Liszca
2012-10-23, 17:23:37
Also wenn der 6300 mit 6 Kernen & 3,8GHz und der 8120 mit 8Kernen & 3,1 GHz gleichauf sind, sollte der Vishera mit 8 Kernen und 4 Ghz plus IPC Verbesserungen nicht schlecht abschneiden.

Das traurige ist doch dass sie die latenzen vom cache erhöht haben um eben den mehrtakt zu schafen schätze ich.

Hoffentlich kommt da was gescheites wie nach dem P4 bei Intel damals.

y33H@
2012-10-23, 17:39:59
Der Takt wurde gegenüber dem 6200 ja auch von 3.8Ghz auf 3.5 gesenkt um auf 95Watt zu kommen,die Performance bewegt sich so natürlich nicht.Der FX-6300 ist der Nachfolger des FX-6100.

dildo4u
2012-10-23, 17:44:26
Fürn Dau nich der sieht nur die Namensgebung schöner Fail seitens AMD's.

S940
2012-10-23, 17:44:45
Das traurige ist doch dass sie die latenzen vom cache erhöht haben um eben den mehrtakt zu schafen schätze ich.
Wo hast Du denn das gehört? Halte ich für ein falsches Gerücht.

Thunder99
2012-10-23, 17:46:11
Das traurige ist doch dass sie die latenzen vom cache erhöht haben um eben den mehrtakt zu schafen schätze ich.

Hoffentlich kommt da was gescheites wie nach dem P4 bei Intel damals.
Ich wüsste nicht was an dieser These stimmen sollte.

@y33H@: Warum sie eine Taktsteigerung des FX61xx als FX6200 verkauft haben ist mir bis heute schleierhaft. Da hat das Marketing völlig versagt in Bezug auf die nächste Generation

askibo
2012-10-23, 17:47:38
Ein nette Update von AMD, aber wenn ich mir den Stromverbrauch anschaue und mir vorstelle was Intel heute schon anbieten könnte wenn sie nur wollten. ;(
Ein 8-Core "Ivy Bridge-E" mit 3.5 Ghz sollte mit 130W TDP machbar sein und würde mit Vishera leistungssmäßig den Boden wischen.

dildo4u
2012-10-23, 17:48:46
@y33H@: Warum sie eine Taktsteigerung des FX61xx als FX6200 verkauft haben ist mir bis heute schleierhaft. Da hat das Marketing völlig versagt in Bezug auf die nächste Generation
Passt doch der war viel schneller als der 6100,der 6300 dagegen bewegt sich gar nicht vom 6200.Der Fail ist der Name 6300.

S940
2012-10-23, 17:57:57
Passt doch der war viel schneller als der 6100,der 6300 dagegen bewegt sich gar nicht vom 6200.Der Fail ist der Name 6300.
Quark, der 6300er kann FMA3, der Name passt perfekt!

Im Ernst, Namen sind nunmal wirklich das allerletzte, was diskutiert werden muss.

Liszca
2012-10-23, 18:00:04
Wo hast Du denn das gehört? Halte ich für ein falsches Gerücht.

Habe eben nochmal gesucht, war ein bild das aussah als würde es in der CMD entstehen, und dabei war der 8350 gerne mal mit einer höheren latenz versehen, wenn auch nur ein takt.
Ich dachte es wäre bei p3d gewesen, aber keine ahnung wo ich überall war nach dem aufstehen.

Aber interessanterist dies:
Clock-Mesh
Eine andere Neuerung, nämlich das resonant Clock-Mesh, welches bei Trinity eingesetzt wird, ist laut Aussagen von AMD nicht in "Vishera" enthalten. Trotzdem konnte der Basistakt aber um 400 MHz gesteigert werden.

planet3dnow review (http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3#content_start)

Locuza
2012-10-23, 18:09:03
Stichwort Latenzen:
L3-Chache Latenz von 70 auf 72 erhöht:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=2

L2-TLB Zugriffe sind langsamer:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3

S940
2012-10-23, 18:10:11
Habe eben nochmal gesucht, war ein bild das aussah als würde es in der CMD entstehen, und dabei war der 8350 gerne mal mit einer höheren latenz versehen, wenn auch nur ein takt.
Ich dachte es wäre bei p3d gewesen, aber keine ahnung wo ich überall war nach dem aufstehen.
Die L2-TLB Zugriffe sind laut den Messungen etwas langsamer, aber das ist nicht der L2 Cache ;-)
Aber interessanterist dies:
Clock-Mesh
Eine andere Neuerung, nämlich das resonant Clock-Mesh, welches bei Trinity eingesetzt wird, ist laut Aussagen von AMD nicht in "Vishera" enthalten. Trotzdem konnte der Basistakt aber um 400 MHz gesteigert werden.
planet3dnow review (http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3#content_start)
Jupp, das ist interessant hat aber nichts mit Deiner Aussage zu tun ;-)
Im Gegenteil, ohne das sind die +400 MHz im gleichen Herstellungsprozess ein tolles Ergebnis :)

Gipsel
2012-10-23, 18:13:36
Im Gegenteil, ohne das sind die +400 MHz im gleichen Herstellungsprozess ein tolles Ergebnis :)Aber es erklärt auch, warum der Stromverbrauch nicht gesenkt werden konnte. Denn das ist ja der Hauptvorteil: die Senkung der Verlustleistung zur Verteilung eines hochfrequenten Taktsignals.

dildo4u
2012-10-23, 18:14:49
Ebned es sind weniger als 400mhz,da noch mehr Strom gebraucht wird.

Liszca
2012-10-23, 18:27:47
Die L2-TLB Zugriffe sind laut den Messungen etwas langsamer, aber das ist nicht der L2 Cache ;-)

Jupp, das ist interessant hat aber nichts mit Deiner Aussage zu tun ;-)
Im Gegenteil, ohne das sind die +400 MHz im gleichen Herstellungsprozess ein tolles Ergebnis :)

jupp weiss ich dass es nicht mit meiner aussage zu tun hat, die hast du oben schon korrigiert, hatte ich nur bei der suche gefunden ...

Locuza
2012-10-23, 18:30:22
Du hattest ja Recht Liszca, dass war nur auf der zweiten Seite zu finden mit dem L3-Cache.

S940
2012-10-23, 18:39:56
Stichwort Latenzen:
L3-Chache Latenz von 70 auf 72 erhöht:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=2

So genau ist das Programm nicht, da würde ich sagen im Bereich der Meßgenauigkeit. 2 von 70 Takte sind ja weniger als 5%.
Eigentlich ist es aber auch logisch, dass es etwas langsamer wird. Der L3 Takt steigt ja nicht, der Kerntakt steigt aber. Gemessen wird aber in Kerntakten, deshalb wird der immernoch mit 2,2 GHz laufende L3 nur mit mehr Taktzyklen erreicht.
L2-TLB Zugriffe sind langsamer:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3Ja aber das ist wie schon erwähnt der TLB, das ist was anderes. Da verwechselst Du was. Steht auch dort im Text.

Aber es erklärt auch, warum der Stromverbrauch nicht gesenkt werden konnte. Denn das ist ja der Hauptvorteil: die Senkung der Verlustleistung zur Verteilung eines hochfrequenten Taktsignals.Ja natürlich. Eigentlich dachte ich, dass sie Vishera damit ausrüsten würden, da es je ne neue Revision des Orochis ist, da könnten sie die unteren Lagen schon entsprechend anpassen und mit Induktoren versehen, aber war doch nichts. Naja, dann halt mit der Revision D :freak:

es sind weniger als 400mhz,da noch mehr Strom gebraucht wird.Wurst, die paar Watt mehr sind die +400 MHz wert :)
Übertakte mal nen 8150 auf 4 GHz und schau, was der aus der Steckdose zieht :freak:

Locuza
2012-10-23, 18:48:41
Ja aber das ist wie schon erwähnt der TLB, das ist was anderes. Da verwechselst Du was. Steht auch dort im Text.

Wurst, die paar Watt mehr sind die +400 MHz wert :)
Übertakte mal nen 8150 auf 4 GHz und schau, was der aus der Steckdose zieht :freak:
1. Ist der L2-TLB ein kleines Register beim L2 oder muss man sich das anders vorstellen?
2. 4 Ghz Bulli vs. 4 Ghz Pile
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/9/
Also gute 5% auf das gesamte System. Hat sich doch eig. ganz nett verbessert in der Zeit.
3. Ansonsten danke für die Erklärung. :)

Sir Integral Wingate Hellsing
2012-10-23, 18:59:12
http://www.asus.com/Motherboards/AMD_AM3Plus/M5A78LMUSB3/#CPUS

Und Asus hat gleich das BIOS-Update geliefert (760G-Chipsatz) - der FX 8320/8350 ersetzt Anfang November meinen Phenom II - ok, sollte mir noch 1866er RAM holen, aber das ist ja kein Ding ;)

y33H@
2012-10-23, 19:03:22
1866er wenn und das bringt's zudem nicht wirklich.

Sir Integral Wingate Hellsing
2012-10-23, 19:05:51
1866er wenn und das bringt's zudem nicht wirklich.

Korrigiert - Du meinst 1333@1600 (siehe Sig) reicht?

Thunder99
2012-10-23, 19:18:57
Korrigiert - Du meinst 1333@1600 (siehe Sig) reicht?
Durch den L3 Cache sind die FX relativ unabhängig vom DDR3 Speed. Aber es ist immer gut für das gewissen den nativen max. Support des Prozessors zu nutzen :freak: . Evt gibt es auf planet3dNow ein Test dazu

Effe
2012-10-23, 19:32:27
Evt gibt es auf planet3dNow ein Test dazu

Siehe hier: http://www.planet3dnow.de/vbulletin/showthread.php?t=401023&garpg=13#content_start

Sir Integral Wingate Hellsing
2012-10-23, 19:39:31
Ok, dann der FX-8350, da ich mir den Speicher sparen kann - thx 4 info ;)

EDIT: BIOS-Update durchgeführt, das Mainboard ist nun Vishera-ready :)

Gipsel
2012-10-23, 20:55:18
1. Ist der L2-TLB ein kleines Register beim L2 oder muss man sich das anders vorstellen?Die TLBs arbeiten etwas anders als Register oder normale Caches. Oft/meist (?) sind die als sogenannte CAMs (http://en.wikipedia.org/wiki/Content-addressable_memory) gebaut. Im Prinzip ist das ein spezialisierter Cache für die Pagetables des Betriebssystems um die Übersetzung der virtuellen in die physischen Speicheradressen zu beschleunigen.

Schaffe89
2012-10-23, 21:07:22
A10 und sparsam? der war gut - das Teil ist im Verbrauch gleichauf mit einem alten Sandy I7, bei ~50% der Leistung.

Ich kenne keinen i7 der doppelt so schnell ist wie ein 5800K, aber wenn du schon so sicher bist, dann hast du auch gleich eine Quelle parat, oder?


Zur CPU:

Der relativ große Zuwachs bei der Spieleleistung dürfte denen die behaupteten das BUlldozer Design sei nicht Spieletauglich ja etwas den Wind aus den Segeln nehmen.
Scheinbar reichte schon ein einfaches neues Stepping um gewisse Bugs zu beheben.

Resonant Clock Mesh ist nicht integriert und die CPU besitzt immernoch keine Piledriver Kerne.
Mal sehen was Piledriver 2.0 mit resonant clock Mesh und vll dem ein oder anderen % an Mehr IPC noch rausreißen kann.

Steamroller kann man sich ja für das nächste ja scheinbar abschminken.

Liszca
2012-10-23, 21:14:34
Ich kenne keinen i7 der doppelt so schnell ist wie ein 5800K, aber wenn du schon so sicher bist, dann hast du auch gleich eine Quelle parat, oder?


Zur CPU:

Der relativ große Zuwachs bei der Spieleleistung dürfte denen die behaupteten das BUlldozer Design sei nicht Spieletauglich ja etwas den Wind aus den Segeln nehmen.
Scheinbar reichte schon ein einfaches neues Stepping um gewisse Bugs zu beheben.

Resonant Clock Mesh ist nicht integriert und die CPU besitzt immernoch keine Piledriver Kerne.
Mal sehen was Piledriver 2.0 mit resonant clock Mesh und vll dem ein oder anderen % an Mehr IPC noch rausreißen kann.

Steamroller kann man sich ja für das nächste ja scheinbar abschminken.

Ich schätze wir werden das Resonante Clock Mesh einfach nie sehen, wird wohl doch nicht so viel bringen. Oder es ist schlicht doch nicht so einfach und war für den nachfolger geplant wer weiss.

Mir stellt sich nur noch die frage wann kommt der fx 8300 mit 95 watt tdp, sozusagen die letzte hoffnung.

grobi
2012-10-23, 21:15:43
Steamroller kann man sich ja für das nächste ja scheinbar abschminken.


Wieso das denn? Habe ich da was verpasst?

Twodee
2012-10-23, 21:17:45
Ich kenne keinen i7 der doppelt so schnell ist wie ein 5800K, aber wenn du schon so sicher bist, dann hast du auch gleich eine Quelle parat, oder?

Sind zwar nicht exakt 50% (~61%), aber bitte: http://www.computerbase.de/artikel/prozessoren/2012/test-trinity-vs.-ivy-bridge-im-cpu-test/7/

(bei Taktgleicheit wären locker +10%, ohne Zunahme des Verbrauches, möglich)

Undertaker
2012-10-23, 21:20:46
Der relativ große Zuwachs bei der Spieleleistung dürfte denen die behaupteten das BUlldozer Design sei nicht Spieletauglich ja etwas den Wind aus den Segeln nehmen.

Das hat ja so keiner behauptet. Bulldozer liegen Spiele dennoch schlechter als Anwendungen, was sich auch mit Vishera nicht grundlegend ändert: Während der FX-8350 in Spielen nun etwa einem i5-760 entspricht, reicht es in Anwendungen knapp für den - zwei Generationen neueren - i5 3570K (siehe CB).

Bei den kleineren Modellen wandelt sich das etwas, mit nur 2 oder 3 Modulen sinkt die Anwendungsleistung deutlicher als die Spieleleistung.

Schaffe89
2012-10-23, 21:22:13
Bei Spielen und Anwendungen sind es sogar nur 64% ;)

Das hat ja so keiner behauptet. Bulldozer liegen Spiele dennoch schlechter als Anwendungen, was sich auch mit Vishera nicht grundlegend ändert: Während der FX-8350 in Spielen nun etwa einem i5-760 entspricht, reicht es in Anwendungen knapp für den - zwei Generationen neueren - i5 3570K (siehe CB).

Wa sganz darauf ankommt, welche Anwendungen ich fahre. Ein i5 3570k hat bei Multithreaded Anwendungen eigentlch keine Chance gegen den FX-8350 und liegt 10 bis 15% dahinter, ist teils auch ein gutes Stück abgeschlagen, wenn man den Pov Ray, C Ray oder TRuecrypt Benchmarks suchen will.
Wenn man sich die Reviews von Anandtech und Phoronix ansieht, reicht es unter anderem auch mal für nen i7 3770k, und nicht nur in einer Anwendung, sondern in mehreren.

Bei den kleineren Modellen wandelt sich das etwas, mit nur 2 oder 3 Modulen sinkt die Anwendungsleistung deutlicher als die Spieleleistung.

DAs stimmt und deswegen könnte der FX-4300 eine gute Alternative gegenüber Intels i3 werden, da auch auf ~5ghz übertaktbar und Anwendungsseitig dürfte er schneller sein.
Kommt halt jetzt auf den Preis an ne, aber der sieht mit lediglich 122 Dollar recht günstig aus.

Das hat ja so keiner behauptet.

Ich meine ja niemanden bestimmten, eher die Nörgler bei PCGH oder Hardwareluxx, aber hier findet man meistens niemanden derartigen Basher vor. Jedoch sieht man was möglich wäre wenn alles sauber verlaufen wäre.
AMD hat ja sogar was die mögliche Leistung angeht etwas stiefgestapelt, so sollte es eigentlich auch sein, damit man positiv überrascht ist.

y33H@
2012-10-23, 21:25:09
Resonant Clock Mesh ist nicht integriert und die CPU besitzt immernoch keine Piledriver Kerne.RCM fehlt Vishera, aber Piledriver steckt drin.

Mir stellt sich nur noch die frage wann kommt der fx 8300 mit 95 watt tdp, sozusagen die letzte hoffnung.Das ist ein reines OEM-Modell, dürfte schwer werden, da als Endkunde ran zu kommen.

Undertaker
2012-10-23, 21:29:11
Wa sganz darauf ankommt, welche Anwendungen ich fahre. Ein i5 3570k hat bei Multithreaded Anwendungen eigentlch keine Chance gegen den FX-8350 und liegt 10 bis 15% dahinter, ist teils auch ein gutes Stück abgeschlagen, wenn man den Pov Ray, C Ray oder TRuecrypt Benchmarks suchen will.
Wenn man sich die Reviews von Anandtech und Phoronix ansieht, reicht es unter anderem auch mal für nen i7 3770k, und nicht nur in einer Anwendung, sondern in mehreren.

Von Rosinen picken halte ich nichts. Genauso gibt es eben auch eine Reihe von Anwendungen, wo der FX-8350 einem Sandy Bridge i3 unterliegt. Die gewählten Vergleichsmodelle entstammen dem jeweiligen CB-Teilrating und sollten damit einen recht objektiven Gesamtschnitt darstellen.

Die Grundaussage war auch eine ganz andere: Anwendungen liegen den FX-Topmodellen besser als Spiele.

Schaffe89
2012-10-23, 21:31:25
RCM fehlt Vishera, aber Piledriver steckt drin.

Bist du dir da auch ganz sicher?^^

iFanatiker
2012-10-23, 21:32:22
Das hat ja so keiner behauptet. Bulldozer liegen Spiele dennoch schlechter als Anwendungen, was sich auch mit Vishera nicht grundlegend ändert: Während der FX-8350 in Spielen nun etwa einem i5-760 entspricht, reicht es in Anwendungen knapp für den - zwei Generationen neueren - i5 3570K (siehe CB).

Bulldozer liegen auch nur recht spezielle Anwendungen. Dies kann man ja nicht verallgemeinern. "Web Apps" mit sehr viel Javascript und sehr viel DOM Tree Manipulation aus den JS Raum dürften z. B. den AMDs zur Zeit auch kein Stück liegen danke der schlechte Single Thread Performance und in der Realität weiter verbreitet sein als viele der "Anwendungsszenarien" wo AMD gut dabei ist.

Das ist doch genau das Problem von AMD. In bestimmten Anwendungsszenarien hat man ja auch keine schlechte Angebote......das Problem ist, dass eben dies so an 90 % des Marktes vorbeigeht. Dies kann man doch eben nicht nur auf Spiele beziehen bzw. diese sind ja auch im Endeffekt "Anwendungen".

Oder als OEM Entscheider: Mit Intel liege ich im Moment fast immer richtig am Markt solange AMD nicht massiv mit den Preis unter Intel geht. Dazu muss man blöderweise in jeden Fall noch eien dezidierte GPU verbauen.

Exxtreme
2012-10-23, 21:34:08
Unter Linux siehts nicht schlecht aus für Vishera

http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=1
Ja, das ist interessant. Scheint wohl am Scheduler zu liegen. Gut, als Kunde kann man den Scheduler von Windows nicht beeinflussen aber irgendwie scheint es schon so zu sein, dass Windows eher suboptimal für Vishera ist.

Locuza
2012-10-23, 21:40:47
Bist du dir da auch ganz sicher?^^
Hier, auf Herz und Nieren
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3

Beide sind wohl weitgehend identisch, bloß fehlt bei Vishera RCM.

@Gipsel

Thx ;)

y33H@
2012-10-23, 21:42:27
Bist du dir da auch ganz sicher?Ja.
Ja, das ist interessant. Scheint wohl am Scheduler zu liegen. Gut, als Kunde kann man den Scheduler von Windows nicht beeinflussen aber irgendwie scheint es schon so zu sein, dass Windows eher suboptimal für Vishera ist.Der FX-8350 schneidet bei MT unter Win7 auch nicht nennenswert besser ab so wie ich das sehe.

Schaffe89
2012-10-23, 21:58:07
Dazu muss man blöderweise in jeden Fall noch eien dezidierte GPU verbauen.

Oder ein AMD Mainboard mit Onboardgrafik. ;)

Apropos IPC des FX-8350.
Der Trinity 5800k ist in der ITunes AAC Version 7% schneller als ein FX-8350, obwoh beide den gleichen Takt erreichen.

Hier Klicken (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/23/)

Schon ein bisschen ungewöhnlich, or not?

Matrix316
2012-10-23, 22:01:30
Ein trauriges Review für eine traurige CPU http://www.youtube.com/watch?v=u7wFKewAbgs :ugly:

AMD sollte weniger in On Board APU Crap investieren und lieber was für den CPU Speed tun!

Schlammsau
2012-10-23, 22:19:38
Bringt der Windows 7 FX-Patch auch bei Vishera und Trinity was oder wird der gar nimma benötigt?

fdk
2012-10-23, 22:25:43
Oder ein AMD Mainboard mit Onboardgrafik. ;)

Mit 2008er Gedenkfeatures und -Performace. Irgendwie ironisch.

dildo4u
2012-10-23, 22:25:47
Ein trauriges Review für eine traurige CPU http://www.youtube.com/watch?v=u7wFKewAbgs :ugly:

AMD sollte weniger in On Board APU Crap investieren und lieber was für den CPU Speed tun!
Ja weil immer mehr Desktop's verkauft werden. :rolleyes:

aufkrawall
2012-10-23, 22:27:49
Ja weil immer mehr Desktop's verkauft werden. :rolleyes:
Werden denn immer mehr AMD-APUs verkauft?

y33H@
2012-10-23, 22:31:55
Bringt der Windows 7 FX-Patch auch bei Vishera und Trinity was oder wird der gar nimma benötigt?Sollte man installiert haben, bringt aber auch hier nur sehr wenig.

dildo4u
2012-10-23, 22:32:53
Werden denn immer mehr AMD-APUs verkauft?Jo.
http://www.xbitlabs.com/news/cpu/display/20110802175019_Fusion_Helps_AMD_to_Gain_Market_Share_as_Market_Declines_IDC.html

fdk
2012-10-23, 22:34:28
hat ja viel gebracht wie man an den Abschreibungen auf die Lagerbestände eben dieser APUs vor wenigen Tagen sah.

dildo4u
2012-10-23, 22:36:55
Trinity ist da noch nich drinn war zu spät dran,die Auswirkung wird man erst 2013 sehen.

Matrix316
2012-10-23, 22:39:37
Ja weil immer mehr Desktop's verkauft werden. :rolleyes:
Darum gehts nicht. Man braucht unbedingt eine Konkurrenz für Intel im höherpreisigen Segment.

fdk
2012-10-23, 23:19:42
Trinity ist da noch nich drinn war zu spät dran,die Auswirkung wird man erst 2013 sehen.
Schau dir die Verfügbarkeit von Notebooks mit dem im Mai gelaunchten Trinity an, dann weißt du wohin die Reise geht (~35 lieferbare Modelle). Es gibt keinen rationellen Grund warum es besser laufen sollte als mit Llano. Aufgrund der Marktlage ist anzunehmen das es eher noch schleppender läuft. Aber genug OT.

AMD sollte sich dringend ein neues Geschäftsfeld erschließen, bzw. ein merger / joint venture anstreben. Während man versucht Projekt BD aus dem Morast zu ziehen erodiert der Zielmarkt weg, und die Konkurrenz läuft auf anderen Baustellen komplett davon.

Schrotti
2012-10-23, 23:38:36
Damit der 6300 sein Potential entfalten kann, muss man ihn übertakten. Der sollte ähnlich wie der 8350 auf mindestens 4,5 GHz gehen.

Und dann geh ich bei und erhöhe den Multi auf 45 bei ganz wenig mehr V-Core (wenn überhaupt notwendig) und schon wieder hat AMD das nachsehen.

Übertakten ist kein Argument.

Thunder99
2012-10-23, 23:45:30
Oder ein AMD Mainboard mit Onboardgrafik. ;)

Apropos IPC des FX-8350.
Der Trinity 5800k ist in der ITunes AAC Version 7% schneller als ein FX-8350, obwoh beide den gleichen Takt erreichen.

Hier Klicken (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/23/)

Schon ein bisschen ungewöhnlich, or not?
Ein einzelner Benchmark wo man diskutieren könnte ich aber eher nochmal nachprüfen würde um da wirklich eine Aussage zu treffen. So könnte alles in Frage kommen (Bug, Nicht aktiver Turbo, ect)

Thunder99
2012-10-23, 23:48:11
Und dann geh ich bei und erhöhe den Multi auf 45 bei ganz wenig mehr V-Core (wenn überhaupt notwendig) und schon wieder hat AMD das nachsehen.

Übertakten ist kein Argument.
Zumindest für diejenigen die ihre Infrastruktur auffrischen wollen und nicht austauschen wollen :)

So geil auch die Intel CPU im Moment sind, so werde ich nicht meine Infrastruktur ändern

Gipsel
2012-10-24, 00:10:00
Ja, das ist interessant. Scheint wohl am Scheduler zu liegen. Gut, als Kunde kann man den Scheduler von Windows nicht beeinflussen aber irgendwie scheint es schon so zu sein, dass Windows eher suboptimal für Vishera ist.
Ich würde das auch nicht auf den Scheduler schieben. Im Prinzip ist das bei Phoronix doch ein gcc bzw. gfortran Compilertest. Okay, man kann sich auf den Standpunkt stellen, daß gcc halbwegs neutral optimiert und das unter Linux vermutlich mehr Relevanz hat als ein paar mit dem ICC compilierte Paradebenchmarks. Aber ich glaube kaum, daß übermäßig viel Windowssoftware mit GNU Compilern erstellt werden.

S940
2012-10-24, 01:05:27
3. Ansonsten danke für die Erklärung. :)
Gern geschehen. ;-)
Wenn Du zusätzlich zu Gipsels Erklärung noch Infos brauchst, der Wiki-Artikel ist kurz und knapp aber übersichtlich. Sollte auf P3D verlinkt sein, wenn ich mich recht erinnere
RCM fehlt Vishera, aber Piledriver steckt drin.

Hier, auf Herz und Nieren
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3

Beide sind wohl weitgehend identisch, bloß fehlt bei Vishera RCM.
Und der Decoder ist noch nicht angepasst. Also so ca. 95% Piledriver. Allemal besser als der Bulldozer :)
Ich würde das auch nicht auf den Scheduler schieben. Im Prinzip ist das bei Phoronix doch ein gcc bzw. gfortran Compilertest. Okay, man kann sich auf den Standpunkt stellen, daß gcc halbwegs neutral optimiert und das unter Linux vermutlich mehr Relevanz hat als ein paar mit dem ICC compilierte Paradebenchmarks. Aber ich glaube kaum, daß übermäßig viel Windowssoftware mit GNU Compilern erstellt werden.Ja, aber den Umkehrschluss geht auch nicht (doll), also Windowsprogramme auf Linux laufen lassen. Da wos geht (simple Boincprogramme), gibts teilweise Verbesserungen, wenn man die Programme unter Linux laufen lässt. Könnte dann aber auch an den unterschiedlichen Heap-Libraries liegen:
http://www.microquill.com/smartheap/index.html
Ich nehme mal an, dass es Linux zumindest etwas besser macht als Win ;-)

Gipsel
2012-10-24, 01:52:20
Ja, aber den Umkehrschluss geht auch nicht (doll), also Windowsprogramme auf Linux laufen lassen.Also wenn man will, kann man schon gcc bzw. gfortran unter Windows nutzen (cygwin, MinGW). Die Verbreitung tendiert nur außerhalb von einer Handvoll Hobbyleuten vermutlich gegen Null, womit die Performancewerte wenig relevant sind. Was helfen würde, wäre ein gcc-Plugin für VisualStudio. ;)

S940
2012-10-24, 02:21:04
Also wenn man will, kann man schon gcc bzw. gfortran unter Windows nutzen (cygwin, MinGW). Die Verbreitung tendiert nur außerhalb von einer Handvoll Hobbyleuten vermutlich gegen Null, womit die Performancewerte wenig relevant sind. Was helfen würde, wäre ein gcc-Plugin für VisualStudio. ;)

Mißverständnis, mit Umkehrschluss meinte ich eigentlich einen eventuellen Einfluss des vermeintlich besseren Linux-Schedulers zu untersuchen, indem man Win Programme unter Linux laufen lässt. Nur wie soll das ohne Emulationsverlust gehen?

Naja, das Wort "Umkehrschluss" war da wohl nicht ganz passend, sorry ^^

Sir Integral Wingate Hellsing
2012-10-24, 08:00:43
Mit 2008er Gedenkfeatures und -Performace. Irgendwie ironisch.
Tut mir leid, dass man Intel-Systeme nicht so aufrüsten kann wie AMD-Systeme (für wenig Geld "alte" Mainboards mit neuen CPUs) bestücken. Aber es gibt ja immer was zu meckern.

MadManniMan
2012-10-24, 09:02:15
Mal was anderes: kommt noch ein offiziöser 3DCenter-Artikel von Leo? Habe gerade keine Zeit, so viel zu lesen.

HOT
2012-10-24, 09:34:39
Hm, war ja mal von Vishera 2.0 die Rede? Wenn SR sowieso erst in 2014 kommt, stehen die Chancen ganz gut für eine Rev.D mit vollen PD+-Kernen und RCM. Ich könnt mir vorstellen, dass der Zwischenschritt noch drin ist.

Psychopat
2012-10-24, 10:16:19
Und dann geh ich bei und erhöhe den Multi auf 45 bei ganz wenig mehr V-Core (wenn überhaupt notwendig) und schon wieder hat AMD das nachsehen.

Übertakten ist kein Argument.

Übertakten ist sehr wohl ein Argument, weil das mit den Intels in dem Preissegment nicht geht.

robbitop
2012-10-24, 11:25:40
Ich habe beim Bulldozer Design (und deren Nachfolgedesigns) den - zugegeben laienhaften -Eindruck, dass sie versuchen, ein Design stückchenweit zu tunen versuchen, welches aber nie das Ergebnis erzielen wird, welches man sich wünscht. Analog zum Pentium 4.
Damals hat man doch schon gelernt, auf hohen Takt zu setzen, aus Sicht der Fertigungstechnik immer gegen die Wand laufen muss.

Ich hoffe, dass AMD sich nicht allein darauf stützt, diese Architektur Stück für Stück schneller zu machen (und somit nie konkurrenzfähig wird, da Intel auch 10-15 % pro Generation holt) sondern im Hintergrund an einer neuen µ-Arch arbeitet, die eher in Richtung Core läuft.
Viel IPC, ILP, breite Executionunits + SMT. Das scheint ein besserer Weg zu sein als CMT und schmale Executionunits.

Coda
2012-10-24, 11:41:42
Pentium 4 und Bulldozer sind zwei völlig unterschiedliche Microarchitekturen. Der Vergleich hinkt nicht nur, der kann schon gar nicht mehr laufen.

Gipsel
2012-10-24, 11:47:54
Damals hat man doch schon gelernt, auf hohen Takt zu setzen, aus Sicht der Fertigungstechnik immer gegen die Wand laufen muss.So hoch ist der Takt doch gar nicht (Intels CPUs sind doch nicht wirklich viel drunter, erst recht nicht, wenn die auch eine 125W-Version anbieten würden). Vergleiche das mal mit IBMs Power6 (bis 5 GHz in 65nm, okay, das war ein P4-Äquivalent :freak:) oder auch Power7 als ziemlich breites OoO-Design (die stehen afaik bei momentan 4,25GHz mit 45nm, Power7+ in 32nm könnten noch etwas höhere Frequenzen bringen).

robbitop
2012-10-24, 11:53:16
Pentium 4 und Bulldozer sind zwei völlig unterschiedliche Microarchitekturen. Der Vergleich hinkt nicht nur, der kann schon gar nicht mehr laufen.
Das ist mir absolut klar. Deswegen schrieb ich laienhaft. Es wirkt nach außen analog. Sie quetschen jährlich mikrige 10-15 % heraus und werden diese riesen Lücke zu Intel wohl so nicht schließen können. Die Baseline an IPC war einfach super niedrig mit Bulldozer. Und die hohen Taktraten kosten offenbar richtig Leistungsaufnahme.

Das lässt die µ-Arch-Philosophie an sich stark hinterfragen. Für mich stellt sich die Frage, ob man dem Hund noch eine künstliche Hüfte geben sollte oder ihn lieber einschläfert? Ein Rennhund wird er wohl nicht mehr werden. Oder besteht da aus deiner Sicht noch ernsthafte Hoffnung? (Steamroller sieht gut aus - ohne Frage - aber die Lücke zu Intel ist riesen groß)

HOT
2012-10-24, 12:04:03
Eines ist klar. Die K7-Architektur gibt es seit 1998 und BD-Architektur schon seit 2003. AMD hat nichts anderes, weil die nie Geld für parallele Designs hatten. Heute ist das sogar so, dass AMD voll und ganz auf BD und Bobcat setzen muss. Denn eine vollintegrierte Fusion-Architektur ist noch in weiter Ferne. Dass sowas kommt und dass es was Neues sein muss, ist klar, die Frage ist aber wann.

boxleitnerb
2012-10-24, 12:16:48
Jedes Jahr 15% find ich gar nicht so übel. Das wären ca. 30% alle 2 Jahre. Mehr gabs mit Sandy auch nicht wirklich z.B.

NOFX
2012-10-24, 12:29:14
Vielleicht sollte AMD einfach mal den HSA-Gedanken in der CPU umsetzen und einem sehr potenten Kern (aufgebohrter K10) noch drei einfache Module spendieren.

Damit sähe die Welt ganz anders aus, da in Single-Thread-Anwendungen der K10 Kern bestimmt mit >4 GHz laufen könnte und bei Multi-Threading die Module gut mithelfen würden. Das Ganze gepaart mit einem ordentlichen Power-Management, das die Maximal-Leistung einbremst und fertig wäre ein sehr ansehnlicher Prozessor.

S940
2012-10-24, 12:41:24
Ich hoffe, dass AMD sich nicht allein darauf stützt, diese Architektur Stück für Stück schneller zu machen (und somit nie konkurrenzfähig wird, da Intel auch 10-15 % pro Generation holt)
Intel stagniert aber jetzt, das Ende der Fahnenstange scheint erreicht. Indiz ist Haswell mit dem zusätzlichen Port an der ne Branch-Unit und ne simple ALU hängt. Das steigert die singlethread IPC so gut wie gar nicht, das ist für mehr SMT-Wumms eingeplant. Dann werden die Caches noch breiter angebunden. Hauptgrund ist die notwendige Bandbreite für FMA herzubekommen. Alte SSE Anweisungen können da vielleicht auch etwas profitieren, müssen aber nicht.

Wenn Du CMT und SMT vergleichen willst, dann bau mal nen Bulldozer mit Intels Sprungvorhersage, den Loop-Buffer und µCode Cache plus die ganzen restlichen Goodies, erst dann hättest Du nen guten Vergleich zw SMT und CMT. Ansonsten lass sie mal weiterwursteln, die Früchte für AMD hängen noch tief, da noch viel Verbesserungspotential besteht.

Warten mir mal Steamroller ab. Wenn man da bei einem theoretischen Vergleich Intels Herstellungs-Prozessvorteil herausrechnet, sollte es schon besser aussehen.

Apropos Herstellungsprozess: Da wirds wohl erst mit 20nm etwas besser werden, wenn die AMD Chips zusammen mit IBMs Power9 Chips in GFs neuer US-FAB Malta vom Band laufen. Im Moment sind die Orochi Chips eher ein Stiefkind, in der Dresdenfab laufen sonst nur low-power Chips vom Band: ARMs und die APUs. Den Prozess dann extra auch noch auf ein einziges low-volume Hochtaktdesign zu optimieren, bringts nicht wirklich. Das sollte dann in Malta zumindest etwas besser laufen.

Ronny145
2012-10-24, 12:43:29
Intel stagniert aber jetzt, das Ende der Fahnenstange scheint erreicht.


Wären +10% IPC für dich stagnierend?

HOT
2012-10-24, 12:49:01
Vielleicht sollte AMD einfach mal den HSA-Gedanken in der CPU umsetzen und einem sehr potenten Kern (aufgebohrter K10) noch drei einfache Module spendieren.

Damit sähe die Welt ganz anders aus, da in Single-Thread-Anwendungen der K10 Kern bestimmt mit >4 GHz laufen könnte und bei Multi-Threading die Module gut mithelfen würden. Das Ganze gepaart mit einem ordentlichen Power-Management, das die Maximal-Leistung einbremst und fertig wäre ein sehr ansehnlicher Prozessor.


Das klappt nicht. Der K7/8/10 ist einfach am Ende, die Zukunft für AMD liegt in der Thread-Integration. Das ist BD ja nur der allererste Schritt, sozusagen ein "Beta"-Prozessor. Der Steigerung durch diese Kleinigkeiten, ist ja wirklich nur Feintuning im Vishera, ist schon beachtlich und zeigt den frühen Entwicklungsstand der Architektur. Die Modularität und das Computerdesign sorgt ja dafür, dass man jetzt viel einfacher die Module an sich optimieren kann und verkürzt die "Validierungs-" und Designzeiträume wahrscheinlich beachtlich. Die große Unbekannte ist nicht die Architektur - das wird schon - sondern die Fertigung. Hier ist Intel wirklich massiv im Vorteil. Und das ist auch ein Unterschied von P4 zu BD, P4 besaß zu jedem Zeitpunkt eine hervorragende Fertigung (auch die 90nm waren gut, das zeigte Dothan ja eindrucksvoll, nur das Prescott-Design war halt schlecht), PD könnte mit gleichwertiger Fertigung annähernd gleichziehen mMn. Man sieht also, so schlecht kann die Architektur eigentlich garnicht sein.

Wären +10% IPC für dich stagnierend?

Na wenn Intel schon so tief stapelt, dann wirds auch nicht viel. Es werden hier und da Optimierungen durchschlagen, aber die eigentliche Leistungssteigerung gibts nur bei SMT. Intel hat annähernd IPC 2.0, viel mehr wird da nicht gehen. AMD wird diese Werte erst mit Excavator wirklich aufholen. Aber dann ist man evtl. schon im Vorteil, weil man eben keine kompletten Kerne mit sich herumschleppt, während Intel die Kerne immer fetter macht um SMT zu optimieren...

Undertaker
2012-10-24, 13:14:37
Wie lange gibt es diese Diskussion jetzt schon - bereits bei Sandy Bridge wurde gerufen, weitere IPC-Steigerungen seien nicht möglich. Dann hat Ivy Bridge alle Kritiker eines besseren belehrt und auch für Haswell scheint es weitere Zuwächse zu geben - und das sicher nicht nur Multithreaded. Es gibt eine ganze Reihe an Tweaks, die ebenso die Singlethread-IPC betreffen sollten - eine Liste siehe hier:

http://www.anandtech.com/show/6263/intel-haswell-architecture-disclosure-live-blog

Ich kann das auch gerne in den Haswell-Thread splitten, falls weiterer Diskussionsbedarf besteht. :)

Das ist mir absolut klar. Deswegen schrieb ich laienhaft. Es wirkt nach außen analog. Sie quetschen jährlich mikrige 10-15 % heraus und werden diese riesen Lücke zu Intel wohl so nicht schließen können. Die Baseline an IPC war einfach super niedrig mit Bulldozer. Und die hohen Taktraten kosten offenbar richtig Leistungsaufnahme.

Sehe ich ähnlich, allerdings: Wenn man Llano sieht, hat wohl auch der Prozess seine Schuld an der schlechten Energieeffizienz.

in der Dresdenfab laufen sonst nur low-power Chips vom Band: ARMs und die APUs.

Hmm? Welche ARM-Chips sollen in Dresden gefertigt werden? Und als low-Power würde ich die APUs mit bis zu 100W keinesfalls bezeichnen; Bobcat kommt von TSMC und kann kaum gemeint gewesen sein.

mrt
2012-10-24, 13:21:57
Code ist nur begrenzt parallel (ILP ist gemeint) und mit einem Durchsatz von bald 2 Instruktionen ist man für viele Anwendungen relativ nahe am Ende angekommen. Klar geht noch mehr, aber man sollte sich von 20% ST-IPC bei einer neuen Architektur verabschieden.
Ivy brachte nur 3-6% höhere IPC, belehrt wird damit niemand.

Undertaker
2012-10-24, 13:28:32
20% oder mehr hatten wir seit dem Core 2 nicht mehr - das dürfte auch kaum jemand erwarten. Ivy wiederum war nur ein Tick und darum war dort jegliche IPC-Steigerung mehr oder weniger unerwartet. Ich könnte mir allerdings durchaus vorstellen, dass wir noch einige Generationen mit je +5-10% IPC erleben.

Man kann den Spieß auch umdrehen: Welche Taktsteigerungen sind noch zu erwarten, wenn wir wie bei AMD schon Basistaktraten von 4 GHz haben? Auch hier lassen sich nicht mit jeder Generation weitere 20% draufpacken. Um die Singlethreadleistung überhaupt noch weiter verbessern zu können, werden wir wohl bei beiden Herstelleren einen Mix aus Takt- und IPC-Steigerungen sehen. Das die Fokussierung auf nur eine der beiden Größen wenig erfolgversprechend ist, haben wir nun bereits mehrfach gesehen. Auch AMD scheint ja zukünftig die Kerne wieder etwas aufzubohren. ;)

Ronny145
2012-10-24, 13:31:41
Na wenn Intel schon so tief stapelt, dann wirds auch nicht viel.

Wo stapelt Intel tief?


Ivy brachte nur 3-6% höhere IPC, belehrt wird damit niemand.


Der ein oder andere schon. IVB basiert auf der gleichen Architektur, Intel hat trotzdem durch paar mikrigen Tweaks ein paar Prozent rausgeholt. Der ein oder andere hatte das im Vorfeld ausgeschlossen. Wie Undertaker erwähnt hat, jedes Jahr heißt es aufs Neue (meist von AMD Anhängern), Intel wäre am Limit und weitere IPC Steigerungen nicht möglich. Ich dachte, seit der der IDF und den Haswell Details wäre das für ein weiteres Jahr ad acta gelegt. Anscheinend doch nicht.

S940
2012-10-24, 13:53:45
Wären +10% IPC für dich stagnierend?
Wenns sie auf den üblichen, uralten Backrezepten basieren, die da heißen: tiefere Puffer, bessere Sprungvorhersage, tiefere Puffer .. dann ja. Alles Standardkost, nichts Weltbewegendes.

boxleitnerb
2012-10-24, 13:59:50
Wenn die Rezepte so bekannt sind und es so "einfach" ist, warum macht AMD es dann nicht auch? 10% sind 10%, da gibts doch nichts dran zu rütteln.

Ronny145
2012-10-24, 14:03:22
Wenn die Rezepte so bekannt sind und es so "einfach" ist, warum macht AMD es dann nicht auch? 10% sind 10%, da gibts doch nichts dran zu rütteln.


AMD setzt sich nicht mit so einer banalen Standardkost auseinander :freak:

S940
2012-10-24, 17:03:58
Wenn die Rezepte so bekannt sind und es so "einfach" ist, warum macht AMD es dann nicht auch? 10% sind 10%, da gibts doch nichts dran zu rütteln.Gegenfrage: Eine Mercedes S-Klasse ist auch einfach und komfortabel zu fahren, aber wieso fährt nicht jeder S-Klasse?

Boris
2012-10-24, 17:05:45
Gegenfrage: Eine Mercedes S-Klasse ist auch einfach und komfortabel zu fahren, aber wieso fährt nicht jeder S-Klasse?
Der Vergleicht hinkt. ;)

Eine Mercedes S-Klasse ist auch einfach und komfortabel zu fahren, aber wieso baut nicht jeder Hersteller Autos wie die S-Klasse?
Weil das KnowHow und/oder die finanziellen Mittel fehlen. ;)

Undertaker
2012-10-24, 17:11:10
Ich behaupte mal das es ganz und gar nicht trivial ist, z.B. das aktuelle Niveau der Branch Prediction immer weiter zu verbessern.

V2.0
2012-10-24, 18:42:54
Wenn AMD nur langsamer wäre und bei der Leistungsaufnahme auf Augenhöhe, dann würde ich mir Hoffnung machen. Aber Performance / Watt sieht immer noch übel aus.

S940
2012-10-24, 19:12:54
Der Vergleicht hinkt. ;)

Eine Mercedes S-Klasse ist auch einfach und komfortabel zu fahren, aber wieso baut nicht jeder Hersteller Autos wie die S-Klasse?
Weil das KnowHow und/oder die finanziellen Mittel fehlen. ;)

Ne Know-how bezöge sich nur auf kompliziertere Sachen wie den LoopCache oder den µOp Puffer. Simple Puffergrößen zu erhöhen kann dagegen jeder Bachlorabsolvent.

Also mach mal nen zweiten Versuch ;-)
Das mit den finanziellen Mitteln geht prinzipiell schon in die richtige Richtung, triffts aber noch nicht ganz.

Schaffe89
2012-10-24, 19:13:52
Ich denke das Intel langsam am Ende der IPC Geschichte angelangt ist und jetzt mehr über den Takt geht, deswegen steigt wohl auch die TDP von 77 Watt auf 95Watt an.
Und Tiefstapeln? Würde ich mal nicht sagen.

Es sind halt einfach keine so großen Performancesprünge drinnen.
Intel rechnet mit 5 bis 15%, bei AMD erwarte ich für Steamroller ähnliche Steigerungen, wenn nicht sogar deutlich mehr.

Ronny145
2012-10-24, 19:15:32
Intel rechnet mit 5 bis 15%


Wo rechnet Intel damit?

y33H@
2012-10-24, 19:20:50
Ich denke das Intel langsam am Ende der IPC Geschichte angelangt ist und jetzt mehr über den Takt geht, deswegen steigt wohl auch die TDP von 77 Watt auf 95Watt an.Die TDP steigt vor allem wegen der IPC und der iGPU, im mobilen Segment stagniert sie bis auf 2W bei steigender Leistung und im ULT-Bereich sinkt sie bei gleicher Performance.

Reneeeeeee
2012-10-24, 23:05:39
Lohnt sich der Umstieg vom Ph2 955 auf den 8350 ?

Ich übertakte nicht, bei mir läuft alles ganz normal.

Ich habe damals kurz vorm Bulldozer schon auf AM3+ umgestellt mit 1866er Ram und wollte irgendwann mal den passenden Proz dazu haben. :D
Rechner läuft mehr im idle als unter Last außer Abends mal 5 Stunden spielen.

Duplex
2012-10-24, 23:50:58
Lohnt sich nicht, der FX8350 ist z.b nur 17% schneller als ein X4-965 im Durchschnitt

http://www10.pic-upload.de/thumb/24.10.12/zwvoj48anfet.jpg (http://www.pic-upload.de/view-16602651/15.jpg.html)

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/6/

Nur die Sandy/Ivy Bridge CPUs bringen in Games mehr Power.

Wenn man das max. bei moderaten Verbrauch rausholen möchte, dann setzen man einfach auf ein i5 Prozessor @4,5Ghz (gibt genügend gebr. 2500k @4,5Ghz für 150 euros im umlauf)

Fairy
2012-10-25, 00:03:57
+ Board, welches er dann auch noch benötigen würde.

Duplex
2012-10-25, 00:06:39
Na und? Der FX8350 wäre in seinem fall reine Geldverschwendung

Rechner läuft mehr im idle als unter Last außer Abends mal 5 Stunden spielen.

Ein neues Board kostet auch nicht die Welt http://preisvergleich.hardwareluxx.de/?cat=mbp4_1155&xf=544_ASRock&sort=p

S940
2012-10-25, 00:09:57
Lohnt sich nicht, der FX8350 ist z.b nur 17% schneller als ein X4-965 im Durchschnitt
Naja, er hat nur nen 955, also sinds dann ~20% Unterschied im Mittel, in Ausnahmefällen mal mehr mal weniger, sagen wir mal zw. 10 und 30%.
Dafür kann man schon Geld ausgeben. Frage ist, ob sich ~180 Euro dafür rentieren.
Ich denke ich würde erstmal den 955er übertakten. So ca. auf das Niveau des i5-750 sollte man schon kommen.
Wenn man das max. bei moderaten Verbrauch rausholen möchte, dann setzen man einfach auf ein i5 Prozessor @4,5Ghz (gibt genügend gebr. 2500k @4,5Ghz für 150 euros im umlauf)Lol, leider ist der Einbau in ein AM3+ Board aber nicht so "einfach" :freak:
Edit:
Ein neues Board kostet auch nicht die Welt http://preisvergleich.hardwareluxx.de/?cat=mbp4_1155&xf=544_ASRock&sort=p
Auf nem H-Board wirds dann aber nichts mit 4,5 Ghz ... OC geht doch nur mit Z-Brettern, oder nicht?
Das billigste wäre dann das Z68 für knappe 70 Euro

Duplex
2012-10-25, 00:16:17
Ich denke ich würde erstmal den 955er übertakten. So ca. auf das Niveau des i5-750 sollte man schon kommen.
2,6Ghz NB & 3,6Ghz CPU sollte kein ding sein und schon etwas bringen als stock settings ja.

Lol, leider ist der Einbau in ein AM3+ Board aber nicht so "einfach" :freak:logisch, dafür gibts aber neue günstige Boards

Auf nem H-Board wirds dann aber nichts mit 4,5 Ghz ... OC geht doch nur mit Z-Brettern, oder nicht?
Das billigste wäre dann das Z68 für knappe 70 Euro
Sagt wer? Bei den (K) CPUs mit freien Multiplikator ist das doch völlig irrelevant.

Ronny145
2012-10-25, 00:19:39
Sagt wer? Bei den (K) CPUs mit freien Multiplikator ist das doch völlig irrelevant.


P67, Z68, Z75, Z77 braucht es fürs Übertakten über den Multiplikator.

Duplex
2012-10-25, 00:23:16
Mir ist klar das man über den Multi übertakten muss, ist das OC bei den H-Chipsätzen trotz freien Multiplikator nicht möglich? Wenn ja was für eine dumme Einschränkung ist den das?
Naja ich stehe sowieso nicht auf billige Chipsätze, nutze selber ein P67 B3, ging halt nur darum möglichst günstig eine Alternative zu den AMD zu finden...

S940
2012-10-25, 00:24:33
Sagt wer? Bei den (K) CPUs mit freien Multiplikator ist das doch völlig irrelevant.Der hilft Dir auf H-Boards auf alle Fälle nichts, da bin ich mir relativ sicher.

Edit: Danke @Ronny145

Hab mir mal die Benches bei CB angeschaut, bei den "guten" Spielen (die mit vielen Threads), ist der 8350 schon mal +30% bei den Min Frames schneller, das ist schon nicht schlecht. Gegenüber nem 955 wohl eher mehr. Spitzenreiter ist BF3, da bekommt der 8350 ein 141% Rating gegen den 100% 965. Wenn man dann noch den 1866er RAM dazurechnet (der läuft im Moment mit dem PH2 sicherlich nicht mit voller Geschwindigkeit), dann kann man schon aufrüsten, wenn man das Geld über hat ;-)

Edit2: @Duplex (http://www.forum-3dcenter.org/vbulletin/member.php?u=27990)
Wenn ja was für eine dumme Einschränkung ist den das?
Tja Intel halt ...

horn 12
2012-10-25, 02:06:56
Also fürs Aufrüsten von S775:

Mainboard (Windows 8 tauglich)
ASUS oder Gigabyte AM3+ Socket:
ASUS M5A99X EVO R2.0
http://www.alternate.de/html/product/ASUS/M5A99X_EVO_R2.0/1024290/?tk=7&lk=3640

Sniper 16 GB (2x8 Module)
http://www.alternate.de/html/product/G.Skill/DIMM_16_GB_DDR3-1600_Kit/1024549/?event=search

CPU FX 8350

CPU Lüfter
http://www.alternate.de/html/product/Alpenfoehn/Gross_Clockner_rev.B/663420/?tk=7&lk=1693

Kostenpunkt unter 400 Euro!
Altes Board, CPU Q9550 @3,45 Ghz und 4GB Speicher bringen auch gute 100 Euro
somit kostet Update knappe 300 Euro.

S940
2012-10-25, 03:13:41
Wer kein Crossfire braucht, für den tuts auch das 970er Board:
http://www.alternate.de/html/product/ASUS/M5A97_EVO_R2.0/1024293/?

Spart 25 Euro.

Und für 2 Euro mehr gibts auch 1866er:
http://www.alternate.de/html/product/G.Skill/DIMM_16_GB_DDR3-1866_Kit/1024559/?

Hugo78
2012-10-25, 07:32:38
@horn 12

Was soll dein "Aufrüsten von S.775" Offtopic?
Die Frage war nach dem Umstieg PII 955 auf FX 8350 ...
Lohnt sich der Umstieg vom Ph2 955 auf den 8350 ?

Ich übertakte nicht, bei mir läuft alles ganz normal.

... hier lohnt sich der Umstieg nur wenn man mehr als 4 Kerne auslasten kann.
Wenn ja und da hier Mobo und RAM schon vorhanden ist, würe ich mir eher den FX 6300 für 120€ (http://geizhals.at/de/853168) anschauen.

Der 8350 lohnt sich nicht, denn ab nochmal 60€ mehr bekommt man schon ein i5-3450/3470 + B75 Mobo,
was allg. die schnellere, leisere und sparsamere Alterative ist.

(del676)
2012-10-25, 08:07:14
Der Vergleicht hinkt. ;)

Eine Mercedes S-Klasse ist auch einfach und komfortabel zu fahren, aber wieso baut nicht jeder Hersteller Autos wie die S-Klasse?
Weil das KnowHow und/oder die finanziellen Mittel fehlen. ;)

Noe. Sondern weils auch Leute gibt die einen BAGGER, Panzer oder Lieferwagen brauchen.
Warum baut Mercedes keine Dodge Ram Trucks?

Matrix316
2012-10-25, 09:51:19
Noe. Sondern weils auch Leute gibt die einen BAGGER, Panzer oder Lieferwagen brauchen.
Warum baut Mercedes keine Dodge Ram Trucks?
Mercedes kann jederzeit einen Dodge Ram Truck bauen, aber AMD keinen konkurrenzfähigen Chip im Vergleich zu Core i7.

(del676)
2012-10-25, 12:36:33
Brauchen sie auch garnicht. Fuer ihr gewaehltes Einsatzgebiet ist die CPU gleich schnell oder schneller als ein 3770k und dabei guenstiger.
Siehe: http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=10
For many of the Linux computational benchmarks carried out in this article, the AMD FX-8350 proved to be competitive with the Intel Core i7 3770K "Ivy Bridge" processor. Seeing the FX-8350 compete with the i7-3770K at stock speeds in so many benchmarks was rather a surprise since the Windows-focused AMD marketing crew was more expecting this new high-end processor to be head-to-head competition for the Intel Core i7 3570K on Microsoft's operating system.

Warum ueberlaesst Mercedes den Lieferwagenmarkt in Nordamerika dann komplett den US Herstellern?

dildo4u
2012-10-25, 12:42:09
AMD vermarktet die CPU als Gamer CPU von daher stimmt deine Aussage einfach nicht.

"Immerse yourself in the most advanced 3D games."

http://www.amd.com/us/products/desktop/processors/amdfx/Pages/amdfx.aspx

AMD hat kein Interesse an Linux,das steht sogar in dem von dir zitieren Text. ;)

Twodee
2012-10-25, 13:05:25
Brauchen sie auch garnicht. Fuer ihr gewaehltes Einsatzgebiet ist die CPU gleich schnell oder schneller als ein 3770k und dabei guenstiger.
Siehe: http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=10

Überzeugend finde ich das nicht.
Bei den meisten Tests liegt Ivy knapp vor oder knapp hinter dem FX.
Dann sind aber wieder einige Tests dabei, wo selbst der FX mit 4.6GHz keinen Stich gegen die Ivy macht. :cool:

btw. das finde ich recht interessant: http://www.tomshardware.de/fx-8350-vishera-review-Benchmarks-Test,testberichte-241128-16.html

Das motto beim FX-8350 lautet: Viel Takt, viele Kerne und hoher Verbrauch sorgt für den erhoften Anschluß. (Die Preisersparnis kann man dann gleich in eine bessere Kühlung investieren).

(del676)
2012-10-25, 13:05:58
2x Falsch.
Die Ingenieure haben sie fuer den Servermarkt gebaut.
Die Marketing Abteilung (steht auch im Text), versucht sie nur in soviel Nischen reinzupressen um den Gewinn zu erhoehen.

Und ja, Rosinenpicking kann ich auch betreiben.
http://openbenchmarking.org/embed.php?i=1210227-RA-AMDFX835085&sha=293f200&p=2

Da wird der 3770k sogar vom alten FX8150 in den Boden gerammt. So what?
Laut deiner Argumentation, muesste Intel also unfaehig sein schnelle CPUs fuer C-Ray zu entwickeln. Immerhin gilt diese Argumentation im umgekehrten Fall. :rolleyes:

dildo4u
2012-10-25, 13:11:10
2x Falsch.
Die Ingenieure haben sie fuer den Servermarkt gebaut.
Die Marketing Abteilung (steht auch im Text), versucht sie nur in soviel Nischen reinzupressen um den Gewinn zu erhoehen.


Da wurde genau so gefailt wenn sie nur auf dem Level mit dem 4 Core liegen was Multicore Leistung angeht.Die 8 Core Xenos reisen den 16 Core Opterons genau so den Arsch auf.

http://www.tecchannel.de/server/prozessoren/2038942/test_intel_xeon_e5_2600_serie_mit_leistungssprung/

Das sind übrigens noch die alten Sandy Bridge Kerne.

Cyphermaster
2012-10-25, 13:29:41
Ich finde diese Pseudodebatten Intel-AMD-Schwanzvergleich dämlich, die Vergleichbarkeit hinsichtlich der Frage, welches das bessere Prozessorendesign ist, stirbt doch schon bei den Punkten der Fertigungstechnik und der Inhomogenität bezüglich der Software-Optimierung.

Belassen wir's doch bei einer Analyse/Diskussion der Fakten zum Vishera-Bulli, ok?

Ronny145
2012-10-25, 13:56:23
Die Ingenieure haben sie fuer den Servermarkt gebaut.


Witz lass nach. AMD entwickelt keine Architektur von Grund auf nur für den Serverbereich. Bislang sind Architekturen im Server und Desktop immer die gleichen geblieben, unterschieden nur durch Kernzahl, Taktfrequenz, I/O etc. Und im Server sieht es gegen SB-EP nicht besser aus, nächstes Jahr gegen den 12 Kern IVB und das Jahr darauf 14 Kern Haswell eher schlechter als heute. Die Probleme sind ähnlich, nur leicht verlagert. AMD verkauft Bulldozer/Piledriver im consumer Markt und dort muss er sich der Konkurrenz stellen. Wenn sie das nicht brauchen, würde sie dort keine verkaufen. Echt ein blödsinniger Einwurf.

Gipsel
2012-10-25, 14:37:05
Planung und Wirklichkeit klaffen manchmal deutlich auseinander. Itanium, anyone? :rolleyes:

Duplex
2012-10-25, 14:40:06
Derzeit fehlen AMD je nach Code 30-50% IPC damit man im Server wieder attraktiv sein kann, der Abstand zu Intel wird immer größer. Bis 2015 wird Intel die Leistung durch IPC & Takt Updates >50% steigern können

S940
2012-10-25, 15:19:58
Da wird der 3770k sogar vom alten FX8150 in den Boden gerammt. So what?
Laut deiner Argumentation, muesste Intel also unfaehig sein schnelle CPUs fuer C-Ray zu entwickeln. Immerhin gilt diese Argumentation im umgekehrten Fall. :rolleyes:
Naja, ist halt FMA-Code. Dass der dann gut läuft wissen wir, aber wer nützt den schon. Die HPC Leute mit handgetuntem Code sicherlich, aber hier bei uns im Desktopbereich?
Wäre mal interessant zu wissen, wieviel Geld es kosten würde ne bekannte Spiele-Engine mit nem "guten" Compiler mit modernen Befehlssätzen übersetzen zu lassen. Aber ob FMA bei Spielen überhaupt was brächte ... wohl eher nicht und vermutlich gäbs dann auch wieder nen Strauss neuer Bugs, die dann zeitaufwendig, d.h. kostspielig behoben werden müssten.
Witz lass nach. AMD entwickelt keine Architektur von Grund auf nur für den Serverbereich. Bislang sind Architekturen im Server und Desktop immer die gleichen geblieben, unterschieden nur durch Kernzahl, Taktfrequenz, I/O etc. Und im Server sieht es gegen SB-EP nicht besser aus, nächstes Jahr gegen den 12 Kern IVB und das Jahr darauf 14 Kern Haswell eher schlechter als heute. Die Probleme sind ähnlich, nur leicht verlagert. AMD verkauft Bulldozer/Piledriver im consumer Markt und dort muss er sich der Konkurrenz stellen. Wenn sie das nicht brauchen, würde sie dort keine verkaufen. Echt ein blödsinniger Einwurf.
Naja, schauen wir uns das mal in Ruhe an, dann ersetzen wir den Begriff "server" durch "multi threads". Dann kommts gut hin, und das Problem des BDs im Desktopbereich ist dann, dass fast keine Software mehrere Threads benutzt. Ist halt nicht so einfach die Programmierung ... CMT hat deutlich den Schwerpunkt mTh-Performance, während Intels SMT eher auf single-thread + Resteverwertung zielt. Nur der "Rest" interessiert Desktopuser halt herzlich wenig, 4 Kerne reichen und SMT kann man abschalten, CMT aber nicht. Wenn da die singlethread-Leistung nicht topp ist, hat man Pech. Einziger Rettungsanker wäre Takt, aber wenn da der Prozess ebenfalls nicht topp ist -> wieder sch...lecht.

Wie dem auch sei, die BD-Architektur ist nachwievor sehr jung. BDv1 war eher ein früher Testballon, ob alles funktioniert (man darf ja nicht vergessen, dass trotz aller schlechter Leistung für AMD viel Neues ausprobiert wurde. Neben CMT v.a. die FPU mit FMA und allen SSEx Befehlen, die gemeinsamen Scheduler und all die anderen Feinheiten. BDv2 behebt jetzt mal die gröbsten Schwachstellen (sieht man am großen Sprung bei den Spielen), der richtig große Wurf wird dann BDv3. Aber Intel schläft halt nicht, sie haben Topp-FABs und mit Haswell ziehen sie dann auch bei FMA-Code vorbei. Außerdem gibts ja gerade Verlegungsgerüchte von BDv3 auf 2014. Nicht schön, hoffentlich kommt wenigstens die Serverversion mit DDR4 Ende 2013.

Planung und Wirklichkeit klaffen manchmal deutlich auseinander. Itanium, anyone? :rolleyes:Ja, wobei das nicht nur CPU-Architekturen betrifft, sonder auch die Herstellungsprozesse. Das ist da fast schlimmer denke ich.

Twodee
2012-10-25, 15:45:59
....

Naja, schauen wir uns das mal in Ruhe an, dann ersetzen wir den Begriff "server" durch "multi threads". Dann kommts gut hin, und das Problem des BDs im Desktopbereich ist dann, dass fast keine Software mehrere Threads benutzt. Ist halt nicht so einfach die Programmierung ... CMT hat deutlich den Schwerpunkt mTh-Performance, während Intels SMT eher auf single-thread + Resteverwertung zielt. Nur der "Rest" interessiert Desktopuser halt herzlich wenig, 4 Kerne reichen und SMT kann man abschalten, CMT aber nicht. Wenn da die singlethread-Leistung nicht topp ist, hat man Pech. Einziger Rettungsanker wäre Takt, aber wenn da der Prozess ebenfalls nicht topp ist -> wieder sch...lecht.
das stimmt so nicht.
Wenn dann eher so: "...dass fast keine Software mehr als 4 Threads benutzt."
Bei bis 4 Threads hat der I7 den IPC-Vorteil, erst ab 5 schmilzt dieser.

Pirx
2012-10-25, 15:52:23
Ich finde diese Pseudodebatten Intel-AMD-Schwanzvergleich dämlich, die Vergleichbarkeit hinsichtlich der Frage, welches das bessere Prozessorendesign ist, stirbt doch schon bei den Punkten der Fertigungstechnik und der Inhomogenität bezüglich der Software-Optimierung.

Belassen wir's doch bei einer Analyse/Diskussion der Fakten zum Vishera-Bulli, ok?
full ack, eine müßge Diskussion...
AMD hat imo das beste aus ihren Möglichkeiten gemacht. Mehr ist beim derzeitigen Marktgefüge so schnell nicht drin.

S940
2012-10-25, 16:13:34
das stimmt so nicht.
Wenn dann eher so: "...dass fast keine Software mehr als 4 Threads benutzt."
Bei bis 4 Threads hat der I7 den IPC-Vorteil, erst ab 5 schmilzt dieser.
Stimmt auch nicht ganz, es gibt ja auch dual und hexa Cores, nicht nur Quads ;-) Wollte es allgemein halten, gibt schließlich auch BDs mit nur 1,2,3 Modulen.

Undertaker
2012-10-25, 16:33:33
full ack, eine müßge Diskussion...
AMD hat imo das beste aus ihren Möglichkeiten gemacht. Mehr ist beim derzeitigen Marktgefüge so schnell nicht drin.

Wobei es in der jüngeren Vergangenheit auch schon besser für AMD aussah, z.B. mit dem Phenom II X6. Der war (im Mittel) bis auf ~10% an den schnellsten Modellen der damaligen Mainstream-Plattform LGA1156 dran und hat dabei auch nicht Unmengen mehr Leistung aufgenommen. Größter Pluspunkt war wohl der damals konkurrenzfähige 45nm-Prozess, während Intel den 32nm-Wechsel nur darüber (Gulftown) bzw. darunter (Clarkdale) vollzogen hat und Lynnfield noch in 45nm antrat.

Jetzt ist Intel in dieser Klasse 2 Prozessschritte weiter, während AMDs Wechsel auf 32nm nur unwesentliche Fortschritte brachte. Solange die Fertigung so stark hinterherhinkt wird es schwer, den Anschluss zu halten. Und das 28nm die erhoffte Erlösung bringt, scheint wohl auch eher zweifelhaft (nur Half-Node, kein SOI). :(

Schaffe89
2012-10-25, 16:36:58
Derzeit fehlen AMD je nach Code 30-50% IPC damit man im Server wieder attraktiv sein kann, der Abstand zu Intel wird immer größer. Bis 2015 wird Intel die Leistung durch IPC & Takt Updates >50% steigern können


AMD braucht keine 30 bis 50% mehr IPC um wieder atrraktiv zu sein, rede doch nicht immer so einen pauschalen Schwachsinn ohne Substanz und Bezug zu irgendetwas.
HAst du dir eigentlich schonmal angesehen, was der AMD in Multithreaded Applikationen wie 3D MAX, 264HD Benchmark, C Ray usw leistet? Dort ist man sogut wie immer vor einem i5 3570k und nur ganz knapp hinter einem i7 3770k.
Und wo wird der Abstand zu Intel immer größer? Der ist doch aktuell kleiner geworden, da Intel immernoch mit Sandy Bridge im Servermarkt vertreten ist und Ivy E erst 2013 kommt, oder vll noch dieses Jahr? i dont know.
Dir geht es ja immernur darum, ob AMD Topdog schneller ist als Intels Top Dog.
Wenn es um differenzierte Thematiken geht, wie Top Dog vs. 2.te oder 3 schnellste Intel CPU, dann ist man plötzlich unattraktiv.

robbitop
2012-10-25, 16:38:15
Vor allem wird bei Steamroller die µ-Arch ordentlich aufgebohrt. Das sollte schon etwas bringen.

Schaffe89
2012-10-25, 16:47:49
Die doppelten Decoder sollten die FPU und die Integer Kerne besser mit Daten beliefern können, caching wird verbessert und vor allem achBranch Prediction, das ist ja der Punkt an dem es scheinbar am meisten hapert.
Dann haben wir wohl den Bulldozer, so wie er einmal geplant war, leider halt deutlich später.

Wer kann mir denn sagen ob Vishera nun ein Bulldozer C0 Stepping ist, oder ein Piledriver?
Denn eigentlich hat TrinityPiledriiver ja das Clock Mesh aber Vishera nicht.

S940
2012-10-25, 17:06:43
Die doppelten Decoder sollten die FPU und die Integer Kerne besser mit Daten beliefern können, caching wird verbessert und vor allem achBranch Prediction, das ist ja der Punkt an dem es scheinbar am meisten hapert.
Dann haben wir wohl den Bulldozer, so wie er einmal geplant war, leider halt deutlich später.
Die aufgebohrten AGUs wären wohl auch nicht so schlecht. Wenn man sich die Kurve hier anschaut:
http://www.abload.de/img/1_rmma-dekodierbandbr8mb6f.png

.. und mit nem Ivy vergleicht, sieht man, dass ein Ivy max. 8 Byte/Takt dekodiert und rechnet, und im RAM auf 3 Byte abfällt. Da schafft ein Zambezi nur 1 Byte. Liegt sicherlich auch an der schmaleren Anbindung eines Kerns an die XBAR bzw. Intels gutem Ringbus, aber das sind jetzt (auch) die Baustellen.
Wer kann mir denn sagen ob Vishera nun ein Bulldozer C0 Stepping ist, oder ein Piledriver?
Denn eigentlich hat TrinityPiledriiver ja das Clock Mesh aber Vishera nicht.Hatten wir schon vor ein paar Seiten, dazu gibts am Meisten Info bei P3D auf der gleichen Seite, von der obiges Digramm stammte:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408737&garpg=3#content_start

Kurz: Orochi Rev. C Chip mit ~95% Piledriver-Kernen.

Cyphermaster
2012-10-25, 17:25:16
Ja, wobei das nicht nur CPU-Architekturen betrifft, sonder auch die Herstellungsprozesse. Das ist da fast schlimmer denke ich.Das würde ich auch vermuten. Ein Hinterherlaufen in den Fertigungsprozessen wirkt sich gleich vielfach negativ aus: Höhere Kosten, höherer Stromverbrauch, schlechtere Taktraten. Schon ein Ur-Bulli ohne Verbesserungen in Intels 22nm würde wohl ein ganzes Stück anders dastehen, als die in 32nm gefertigten.

Gipsel
2012-10-25, 17:46:24
Die aufgebohrten AGUs wären wohl auch nicht so schlecht. Wenn man sich die Kurve hier anschaut:
http://www.abload.de/img/1_rmma-dekodierbandbr8mb6f.png

.. und mit nem Ivy vergleicht, sieht man, dass ein Ivy max. 8 Byte/Takt dekodiert und rechnetDas hat aber mit den AGUs nichts zu tun. Das ist ein Test der Dekoder und deren Anbindung an den L1-I/L2/L3/Speicher. Die AGUs sind da vollkommen arbeitslos (und auch wenn die AGLUs XOR und ADD ausführen könnten, würde der Wert nicht steigen, weil das Limit durch die Dekoder schon genau da liegt).

black-wizard
2012-10-25, 17:58:03
Vishera bestätigt mal wieder, dass Intel weiterhin die Kaufempfehlung bleibt, alleine schon wegen dem deutlich niedrigeren Stromverbrauch :)

Schlammsau
2012-10-25, 18:13:40
Vishera bestätigt mal wieder, dass Intel weiterhin die Kaufempfehlung bleibt, alleine schon wegen dem deutlich niedrigeren Stromverbrauch :)
Kann man so nicht sagen!

Man hat die Möglichkeit Vishera mit einem "Uraltboard" ohne nennenswerte Performanceeinbußen zu betreiben. Noch dazu kostet er in der Anschaffung weniger. Ein AM3 Board mit Visheraunterstützung bekommste ab 35€. Also alles in allem deutlich günstiger bei der Aufrüstung/Anschaffung. Ein weiterer Punkt ist ob du hauptsächlich zockst oder stark parallellisierte Programme ausführst. Für Games eher einen Intel, für Encoding und Rendering eher AMD.

Fairy
2012-10-25, 18:18:07
Aber dieser hohe Stromverbrauch. :(

S940
2012-10-25, 18:26:26
Das hat aber mit den AGUs nichts zu tun. Das ist ein Test der Dekoder und deren Anbindung an den L1-I/L2/L3/Speicher. Die AGUs sind da vollkommen arbeitslos (und auch wenn die AGLUs XOR und ADD ausführen könnten, würde der Wert nicht steigen, weil das Limit durch die Dekoder schon genau da liegt).
Ne, denn wenns die Dekoder wären, müsste der K10 zurückliegen. Da sind andere Flaschenhälse am Werk. MMn die Exec Units.
Edit Noch ne Info: Laut RMMA ist ein XOR/ADD Test 4 Byte lang. Da sollten wirklich genügend decodiert werden, selbst für den Fall, dass ein 2ter Thread auf dem 2. Cluster liefe.

Schlammsau
2012-10-25, 18:27:20
Aber dieser hohe Stromverbrauch. :(
Der würde mich, bei den deutlich niedrigen Anschaffungskosten, überhaupt nicht mehr interessieren.

S940
2012-10-25, 18:28:33
Aber dieser hohe Stromverbrauch. :(
Nur unter Vollast, eigentlich nur für die Boincianer ein Grund. Ansonsten läuft bei keinem die CPU unter Vollast, auch nicht bei Spielen, die brauchen ja meist nur ~2 Threads (Ausnahmen sind die Frostbite Engine Spiele) aber selbst da läuft nicht viel FP-Code, d.h. sooooo hoch sollte der Verbrauch selbst dann nicht sein.

Gipsel
2012-10-25, 19:03:32
Ne, denn wenns die Dekoder wären, müsste der K10 zurückliegen. Da sind andere Flaschenhälse am Werk. MMn die Exec Units.
Edit Noch ne Info: Laut RMMA ist ein XOR/ADD Test 4 Byte lang. Da sollten wirklich genügend decodiert werden, selbst für den Fall, dass ein 2ter Thread auf dem 2. Cluster liefe.Wo hast Du denn die Info mit den 4 Byte her? Das was ich dazu gefunden habe, sagt 2 Byte (paßt auch zum Regor-Ergebnis, 3 Instruktionen = 6 Byte pro Takt). Also, ein XOR oder ADD in der Version, wie die das benutzen, belegt genau 2 Byte, d.h. die Decoder schaffen exakt zwei Anweisungen pro Takt. BD hat 4 Decoder, die allerdings die beiden Integer-Kerne abwechselnd versorgen, bleiben also 4 Instruktion alle 2 Takte oder 2 Instruktionen jeden Takt * 2 Byte, sind genau die 4 Byte pro Takt. Bulldozer liegt hinter dem K10, wenn es um die Decoder geht. Das ist ja Teil des Problems. ;)

dildo4u
2012-10-25, 19:16:01
Der würde mich, bei den deutlich niedrigen Anschaffungskosten, überhaupt nicht mehr interessieren.
Was Quark ist da du ne teure Kühlung brauchst um wirklich leise zu kühlen und dazu kommt das ein dickeres NT kalkuliert werden muss.Der Preisvorteil frisst sich locker auf.

Schlammsau
2012-10-25, 19:17:10
Was Quark ist da du ne teure Kühlung brauchst um wirklich leise zu kühlen und dazu kommt das ein dickeres NT kalkuliert werden muss.Der Preisvorteil frisst sich locker auf.
Wasn Quark, du brauchst wegen maximal 50W Mehrverbrauch unter Vollast, doch kein überproportional starkes und teures NT, und ne überproportionale Kühlung! So ein Dünsch ... :rolleyes:

Knuddelbearli
2012-10-25, 19:19:28
sorry aber du kannst mir nciht erzählen das in einem normalen pc gehäuse es aufwendig ist ne 125W CPU zu kühlen ...

bei Desktop Gehäuse ists natürlich was anderes

selbes gilt für Netzteile, da kalkuliert man am besten sowieso immer so das man bei normaler last bei ca 60% Auslastung ist da ist genug platz für powerviren vor allem seitdem die gpus abriegeln

HOT
2012-10-25, 19:24:08
Normales Gehäuse, normaler fetter Kühler (Mugen3 oder so) und 400-500W-NT und eine 125W CPU ist doch kein Prob... gabs doch schon haufenweise in der Vergangenheit. Meine Kiste ist auch total leise trotz 130W TDP und da ist kein großer Aufwand hinter. Also der Stromverbrauch schreckt eigentlich dank des recht guten Idle- und Teillast-Verbrauchs so garnicht finde ich. Ich find Ivy langweilig, deshalb wurd es ja auch ein Sandy-E. Mal sehen, ich glaub ich gönn mir mal nen 4GHz-Vishera für meinen 2.Rechner, ist ja recht günstig und ein AM3+-Brett ist eh schon drin :D. Dann hab ich den direkten Vergleich.

Schlammsau
2012-10-25, 19:25:41
Normales Gehäuse, normaler fetter Kühler (Mugen3 oder so) und 400-500W-NT und eine 125W CPU ist doch kein Prob... gabs doch schon haufenweise in der Vergangenheit. Meine Kiste ist auch total leise trotz 130W TDP und da ist kein großer Aufwand hinter.
Mit nem 500W NT kannste 2 Vishera betreiben und hast trotzdem kein Problem.
Der guade Dildo ... er strengt sich aber auch richtig an momentan. ;D

dildo4u
2012-10-25, 19:28:05
Wasn Quark, du brauchst wegen maximal 50W Mehrverbrauch unter Vollast, doch kein überproportional starkes und teures NT und ne überproportionale Kühlung! So ein Dünsch ... :rolleyes:
Es sind über 90Watt mehr die doppelte! Verlustleistung: http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/3/

Ich hab ein X6 und weiss was man verbauen muss,um so eine Heizer leise zu Kühlen.Ich bin halt kein Fan von 50€ 1KG Kühlern,die an meinem Board ziehen.

Twodee
2012-10-25, 19:32:34
Stimmt auch nicht ganz, es gibt ja auch dual und hexa Cores, nicht nur Quads ;-) Wollte es allgemein halten, gibt schließlich auch BDs mit nur 1,2,3 Modulen.
Schon, aber das gejammere, dass sich die I7 nicht von den I3s absetzen können, hält sich deutlicher in Grenzen :rolleyes:

HOT
2012-10-25, 19:32:52
Es sind 90Watt mehr: http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/3/

Ich hab ein X6 und weiss was man verbauen muss,um so eine Heizer leise zu Kühlen.Ich bin halt kein Fan von 50€ 1KG Kühlern,die an meinem Board ziehen.
Also ich hab schon zig fette Kühler verbaut "die am Board ziehen" und überraschend ist noch nie was passiert... Zudem kosten gute Kühler 30-40€, die werden doch sowieso in den großen Klassen verbaut.

Ich könnt ja verstehen, wenn man angepisst ist, weil man die "90W" signifikant auf der Stromrechnung sehen würde, aber der Durchschnittsrechner arbeitet fast nie in 4 bis 8-Thread-Vollast-Betrieb, von daher sucht man nach solchen Signifikanzen dank Cx-Modi und heruntertakten wohl vergeblich...
Und dass man bei 125W zwei leise Gehäuselüfter benötigt sollte auch klar sein. Aber das würd ich beim Betrieb mit einer fetten Grafikkarte eh empfehlen.

Twodee
2012-10-25, 19:34:30
Es sind über 90Watt mehr die doppelte! Verlustleistung: http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/3/

Ich hab ein X6 und weiss was man verbauen muss,um so eine Heizer leise zu Kühlen.Ich bin halt kein Fan von 50€ 1KG Kühlern,die an meinem Board ziehen.
Klar spart man sich im Extremfall 100Watt, was schon mal eine Netzteilklasse ausmachen kann!
Aber hey, das Argument zählt heute nicht mehr, da sich die Vorzeichen geändert haben. Früher, zu P4-Zeiten, war das noch anders.
Da wurden auch die Benchmarks (die mit HT-nicht klarkamen oder nicht nutzten) nicht bemängelt, nein, da war das alles ok :rolleyes: - Der böse P4 :D

Schlammsau
2012-10-25, 19:35:32
Es sind über 90Watt mehr die doppelte! Verlustleistung: http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/3/

Ich hab ein X6 und weiss was man verbauen muss,um so eine Heizer leise zu Kühlen.Ich bin halt kein Fan von 50€ 1KG Kühlern,die an meinem Board ziehen.
Ok dann 90W .... aber ich versichere dir, du musst maximal 30€ löhnen um nen gscheiden Kühler für Vishera zu bekommen. Für nen Intel müsstest du evtl. 20€ hinlegen! :wink:

Aber das Argument des größeren NTs zählt definitv nicht!

Twodee
2012-10-25, 19:36:16
Ok dann 90W .... aber ich versichere dir, du musst maximal 30€ löhnen um nen gscheiden Kühler für Vishera zu bekommen. Für nen Intel müsstest du evtl. 20€ hinlegen! :wink:

Aber das Argument des größeren NTs zählt definitv nicht!
Für nen Intel musst du nix hinlegen, da nimmst du den Boxed und Gut!

Schlammsau
2012-10-25, 19:36:52
Klar spart man sich im Extremfall 100Watt, was schon mal eine Netzteilklasse ausmachen kann!
Aber hey, das Argument zählt heute nicht mehr, da sich die Vorzeichen geändert haben. Früher, zu P4-Zeiten, war das noch anders.
Da wurden auch die Benchmarks (die mit HT-nicht klarkamen oder nicht nutzten) nicht bemängelt, nein, da war das alles ok :rolleyes: - Der böse P4 :D

Quatsch ... es sei den, man hat ein 200W NT und will auf Vishera aufrüsten. Aber wer hat in der Leistungsklasse schon so was?

gnahr
2012-10-25, 19:37:02
bleibt der abwärmevorteil im winter für die amds.
schmelzende polkappen anyone? 90watt SIND ein unterschied, egal ob 40€ 1kg kupferkühler oder nicht. zumal ja der budget-vorteil gespielt werden soll, also wollen wir uns mal den boxed angucken. ich geh also mal die ohrschützer holen, das sind regionen die man mit intel lange nicht mehr mitmachen musste. bei den gulftowns vielleicht bevor sie ab werk towerkühler zugeteilt bekammen...

Schlammsau
2012-10-25, 19:37:37
Für nen Intel musst du nix hinlegen, da nimmst du den Boxed und Gut!
Ach stimmt, ich vergaß .... bei AMD werden ja keine Boxed Lüfter beigelegt. ;D

dildo4u
2012-10-25, 19:38:32
Also ich hab schon zig fette Kühler verbaut "die am Board ziehen" und überraschend ist noch nie was passiert... Zudem kosten gute Kühler 30-40€, die werden doch sowieso in den großen Klassen verbaut.
Die finde die Entwicklung Richtung 130W TDP Absurd und dachte wir sehen sowas nach dem P4 nicht mehr im Mainstream Desktop Bereich.Intel und Nvidia gehen da meiner Meinung nach den richtigen Weg nich das letzte Prozent Leistung zu holen wenn dafür die Verlustleistung überproportional ansteigt.Das kann man dann wenn man's braucht per OC machen.