PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD zieht sich aus dem High-End CPU Segment zurück


GTX999
2012-06-01, 09:28:47
Eines scheint in jedem Fall klar, die Zeiten des Prozessor-Wettstreits zwischen Intel und AMD um die schnellste CPU sind endgültig vorüber, AMD kann und will im Highend-CPU-Markt nicht mehr konkurrieren, sondern sieht seine Chance vielmehr in den darunterliegenden Marktsegmenten und Server-Lösungen für Cloud-Dienste.
http://www.notebookjournal.de/news/neuer-amd-ceo-read-erlautert-unternehmensstrategie-nkjs-4170

-------------
... ich würde als CEO mal alles auf AMD vision setzen; da hat AMD nämlich eine monopolstellung.
wenn es vision auch leistungsstärker geben würde, wäre das schon was feines.
am besten gleich fix verlötet auf einem eigenen amd brett zu einem guten preis.


ps.: intel wird wohl die neuen cpus alle komplett überteuern und sich zurücklehnen.
keine konkurenz heisst kein preisverfall... die können ihre desktop cpus hochpreisig halten bis die kunden schwarz werden. :down:
sowas gabs schon mal und ich glaube das kommt wieder.

Duplex
2012-06-01, 19:39:46
Eines scheint in jedem Fall klar, die Zeiten des Prozessor-Wettstreits zwischen Intel und AMD um die schnellste CPU sind endgültig vorüber, AMD kann und will im Highend-CPU-Markt nicht mehr konkurrieren, sondern sieht seine Chance vielmehr in den darunterliegenden Marktsegmenten und Server-Lösungen für Cloud-Dienste.


Das entwickelte CPU Design ist einfach zu schwach geworden, wenn die CPUs nicht schneller und sparsamer als Intel prozessoren sind kann man im Server Markt keine Marktanteile gewinnen.
Im APU Markt sind die 4 CPU Threads auch etwas zu schwach, mit i5 Leistung & GCN GPU könnte man viel Marktanteil gewinnen.
AMD braucht etwas was Intel nicht bieten kann, erstmal gleichwertige CPU Leistung und danach kann man sagen unsere APUs haben die beste GPU Leistung.

StefanV
2012-06-01, 21:40:20
Tjo, da haben wir wohl mit den Auswirkungen 'von damals', als AMD die besseren Produkte hatte, aber nicht verkaufen 'durfte', zu kämpfen. Das sind die Langzeitfolgen davon...

Ich fürchte, dass AMD aus diesem Loch nicht wieder raus kommen wird. Mit Glück werden sie aber ihren Platz noch finden...

Commander Keen
2012-06-02, 09:10:04
Das AMD nicht mehr konkurrieren will, ist aber eine Folgerung des Redakteurs. Ich würde eher sagen AMD _kann_ nicht mehr konkurrieren und ist deshalb gezwungen eine neue Strategie zu fahren. Wenn man sich den ganzen Artikel durchliest, klingt diese sogar erstmal gar nicht schlecht. Ob AMD die gesteckten Ziele (hauptsächlich mehr Flexibilität, mehr Zuverlässigkeit beim Einhalten der Roadmaps) dann auch umsetzen kann, wird man sehen.

Für Zocker ist das Szenario natürlich scheiße und wir haben wieder eine Situation wie grob bis vor der Jahrtausendwende: Intel setzt die Preise fest und ruht sich erstmal genüsslich aus. Sollte der Bulldozer weiter zurückfallen, ist es auch nicht unwahrscheinlich, dass man demnächst wieder weit über 300€ für eine zocktaugliche CPU von Intel zahlen muß.

AnarchX
2012-06-02, 09:26:43
Intel muss auch ohne wirkliche Konkurrenz seine Preise so festlegen, dass genügend Stückzahlen erzielt werden. Ebenso müssen entsprechende Anreize mit neuen Produkten gegenüber den Vorgängerprodukten gesetzt werden.

Einzig die Leistungsteigerungen zwischen verschiedenen Produktgenerationen könnten wohl unter dem Bereich des Möglichen bleiben, wenn nicht genügend Konkurrenz vorhanden ist.

Aber mit Cloud-Computing und einen massiveren Fokus auf mobile Endgeräte steht wohl in Zukunft ein größerer Umbruch bevor, wo sich für AMD und andere Hersteller vielleicht neue Chancen ergeben.

mironicus
2012-06-02, 11:11:21
So teuer ist Intel eigentlich nicht. Wenn ich sehe was der nur 35 Euro teure Celeron G530 für eine gefühlte Performance hat, kommen da AMD-Prozessoren ab 100 Euro erst daran (mindestens ein Phenom X4 ab 3 GHz).

Matrix316
2012-06-02, 12:01:42
Warum soll ich von einer Firma eine Midrange CPU kaufen, die es nichtmal gebacken kriegt eine High End CPU auf die Beine zu stellen, zumal die Konkurenz auch im mittleren Bereich die Nase vorne hat, was Speed und Stromverbrauch betrifft???

Die müssen einfach verdammt noch mal kräftig in ein neues CPU Design investieren, was mit intel mithalten kann. Kann doch net so schwer sein, zumal man es mit dem Athlon 64 auch schaffte.

Ric
2012-06-02, 12:23:47
Die müssen einfach verdammt noch mal kräftig in ein neues CPU Design investieren

Dann rück mal 50+ Milliarden $ Risikokapital raus, um wenigstens die theoretische Möglichkeit zu schaffen den Entwicklungsrückstand aufzuhohlen.

Kann doch net so schwer sein, zumal man es mit dem Athlon 64 auch schaffte.

Wenn es so einfach wäre, warum haben nicht mal die Chinesen ein leistungsfähiges Design entwickeln können? Fakt ist, es braucht Resourcen und Know-how, dass jemand den Entwicklungsvorsprung von Intel mit 1-2 Jahren, aufholen kann.

Ruht sich Intel nicht aus, oder setzt auf ein falsches Pferd, wird absehbar keiner Intel übertrumpfen.

Matrix316
2012-06-02, 12:27:14
Aber AMD sind doch keine Anfänger. Die haben doch schon seit Core 2 Duo gesehen, dass Intel in der Entwicklung vorne liegt. Und anstatt, dass man versucht besser zu werden, wurde man noch schlechter. Das kann doch eigentlich garnicht sein. Dass das Bulldozer Design scheitern musste, war doch eigentlich klar, oder? Dass da keiner den Abgrund gesehen hat ist mir unbegreiflich, aber ich kann doch keine CPU mehr auf MHz trimmen und nicht auf Effizienz. Was dachte sich AMD blos dabei?

Ric
2012-06-02, 12:37:31
Nein, AMD-Prozessoren wurden nicht schlechter. Der Entwicklungsfokus liegt mit nicht auf Nerds, die sich in einen Forum aufregen, warum Intel nicht überflügelt wird, sondern da wo Geld verdient werden kann: Server mit massiver Parallelität.

Im gleichen Zeitraum hat aber auch Intel seine Prozessoren weiterentwickelt. Es gab eine Entwicklungsschere. Wenn AMD 10 % Steigerung (IPC) geschafft hat, hat Intel vielleicht 15 % gemacht. Mit den Jahren passierte das mehrere Male, so dass der Abstand immer größer wurde.

Vergiss nicht den Fertigungsvorsprung von bis zu 2 Jahren und die massiven finanziellen Mittel von Intel. Das was AMD an Umsatz pro Jahr!!! macht Intel Gewinn. Intel macht 10 mal!! mehr Umsatz als AMD. Daher kommt das Geld um die Entwicklungen und Fertigungstechnologien Erforschen zu können.

Daher nochmal: Dann rück mal 50+ Milliarden $ Risikokapital raus, um wenigstens die theoretische Möglichkeit zu schaffen den Entwicklungsrückstand aufzuhohlen.

Matrix316
2012-06-02, 13:50:19
Ist es so teuer sich die Pläne von Intels CPU anzusehen und die richtigen Schlüsse draus zu ziehen?

Naitsabes
2012-06-02, 13:55:15
@Matrix316

Dir ist aber schon klar, dass BD pro Watt schneller als K10 ist, oder?




edit.

deutlich zu langsam von mir :D

Ric
2012-06-02, 14:01:16
Ist es so teuer sich die Pläne von Intels CPU anzusehen und die richtigen Schlüsse draus zu ziehen?

:facepalm:

downforze
2012-06-02, 14:15:17
Ich habe auch nur noch den PhenomII X4 drin, weil es den damals für 75€ gab und die i5 erst bei 140€ losgingen. Mal ganz rational betrachtet sind die Intel-CPUs energiesparender und deutlichst schneller in fast allen Belangen. Bei einem Strompreis von 25cent/kWh wird es in 2 Jahren sicher kein AMD mehr sein.

Matrix316
2012-06-02, 14:18:33
@Matrix316

Dir ist aber schon klar, dass BD pro Watt schneller als K10 ist, oder?



[...]

Der 8150 verbraucht unter Last mehr und ist langsamer als ein 1100T (zumindest bei Games).

Fortschritt gleich 0.

:facepalm:

:rolleyes: Es kann sich doch jeder die schematischen Pläne der CPUs ansehen. Die Ingenieure von AMD müssen doch auch genau wissen, warum sie langsamer sind. Die haben IMO einfach mit dem Bulldozer das komplett falsche Konzept umgesetzt.

downforze
2012-06-02, 14:27:49
Der Test auf Computerbase ist aus AMD-FX-Sicht einfach nur grausam. Wie will man so Käufer zum Upgrade animieren?
Der Bonus des ersten 6 Kernes beim Phenom ist nun auch vorbei.

Watson007
2012-06-02, 14:30:59
amd ist nicht zu schwach sondern intel zu stark.... schließlich kann auch sonst keiner mit Intel technisch konkurrieren ;)

man sollte intel dazu zwingen die Fertigung abzuspalten....

Matrix316
2012-06-02, 14:32:33
Der Test auf Computerbase ist aus AMD-FX-Sicht einfach nur grausam. Wie will man so Käufer zum Upgrade animieren?
Der Bonus des ersten 6 Kernes beim Phenom ist nun auch vorbei.
Das ist ja der Witz, es lohnt sich im Prinzip garnicht auf den Bulldozer umzusteigen, weil der einfach zu schlecht ist. Selbst für einen Server, wegen des Stromverbrauchs.

Commander Keen
2012-06-02, 15:29:18
Selbst für einen Server, wegen des Stromverbrauchs.

Da irrst du, im Serversegment kann der BD seine Stärken hinsichtlich Stromsparmechanismen voll ausspielen. Auch ein Server läuft nicht 24/7 bei 100% Auslastung, so dass der BD da unterm Strich sogar sehr gut abschneidet und mit mehr Threads aufwarten kann.

RavenTS
2012-06-02, 16:16:38
Faktisch hat sich AMD doch schon seit etlichen Jahren aus dem "Highend-Segmet für CPUs zurückgezogen"..!

Twodee
2012-06-02, 18:14:13
Da irrst du, im Serversegment kann der BD seine Stärken hinsichtlich Stromsparmechanismen voll ausspielen. Auch ein Server läuft nicht 24/7 bei 100% Auslastung, so dass der BD da unterm Strich sogar sehr gut abschneidet und mit mehr Threads aufwarten kann.
Nö du, dieser Vorteil Threads&Verbrauch ist seit dem Erscheinen der Xeon 2600er nicht mehr vorhanden.

Oberst
2012-06-02, 21:21:57
Der 8150 verbraucht unter Last mehr und ist langsamer als ein 1100T (zumindest bei Games).

Hallo,
ich hab mit einen 8120 gekaut, trotz diverser Tests. Und inzwischen frage ich mich ehrlich gesagt, was die da getestet haben...
Mein 8120 läuft übertaktet auf 3,9GHz und ich kann ihn direkt mit einem ebenfalls vorhandenen 1090T vergleichen (auf 3,5GHz getaktet). Laut Test sollte der X6 klar sparsamer und schneller sein, bei BOINC braucht er aber 40W mehr als der FX, hat etwa die selbe Rechenzeit pro WU und dafür aber eben 2 (bzw. bei mir sogar 3) CPU-WUs weniger (da der X6 einen Kern für die GPU freihalten muss, der bei FX auf mehrere Kerne verteil mit läuft; beim X6 bricht sonst die GPU-Rechenleistung extrem ein, beim FX komischerweise nicht).

Insofern kann ich persönlich die Testergebnisse nicht ansatzweise nachvollziehen, weil mein FX klar schneller als mein X6 ist und dabei eben auch noch deutlich sparsamer ist.

Der FX ist vielleicht nicht in allen Situationen überzeugend, aber er ist bei weitem nicht so schlecht, wie er oft gemacht wird.
M.f.G.

Ihm
2012-06-02, 21:30:51
Bis auf die PC-Spieler sollte das eigentlich kaum jemanden jucken, da man im Consumerbereich mittlerweile an einem Punkt angelangt ist, wo sowieso mehr Leistung zur Verfügung steht als man wirklich braucht.
Und selbst im semi-prof. Bereich höre ich seit Einführung der Quad-Core-Prozessoren kaum noch jemanden klagen.

Matrix316
2012-06-02, 21:37:42
Man vergleicht keine übertaktete Hardware und sagt: a) ist besser als b). Das sollte man IMO nur mit der Standardkonfiguration machen. Ein auf 700 PS getuneter Mercedes ist auch schneller als so mancher Ferrari. Aber die normalen Mercedes Autos nicht, weil die bei 250 abgeregelt sind. ;)

Hier bei Metro oder Far Cry 2 führt ein 1100T auch gegenüber dem 8150. http://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/20127-bulldozer-amd-fx-8150.html?start=7

Natürlich hat der 8150 Vorteile, wenn mehr Kerne genutzt werden, aber es sind eben nicht alle Anwendungen und Spiele auf mehr als X Kerne optimiert.


Bis auf die PC-Spieler sollte das eigentlich kaum jemanden jucken, da man im Consumerbereich mittlerweile an einem Punkt angelangt ist, wo sowieso mehr Leistung zur Verfügung steht als man wirklich braucht.
Und selbst im semi-prof. Bereich höre ich seit Einführung der Quad-Core-Prozessoren kaum noch jemanden klagen.

Ja, aber wer ist denn die Zielgruppe von Consumer High End CPUs (und Grafikkarten)? Das sind doch auch vor allem Spieler.

BrOokLyN R!ot ³
2012-06-02, 23:19:27
:facepalm:

Viel zu geil Ric.... viel zu geil.... hab echt lachen müssen.... :biggrin:

Und an alle, nein es ist nicht so leicht einfach mal darüber zu schauen auf ein DIE und zu kopieren. Dafür ist der Herstellungsmechanismus und die Aufgabe die das "Werkstück" vollbringen soll einfach zu komplex.

Was man machen kann ist sich die Ansätze von Intel anschauen, mutmaßen und dann gewisse Rückschlüsse für die eigene Konstruktion machen. Das werden die Jungs bei AMD auch gemacht haben.

Was aber nun einmal auch vorkommt ist das man sich verschätzt (Designs in diesem Bereich lassen sich nicht so schnell ändern, schließlich beruhen ja mehrere Generationen auf einem grundlegenden Design), und je nach dem wie man seine Gewichtung legt kommen auch andere Ergebnisse raus.

Als simples Beispiel, wenn alle Ingenieure einfach das Konzept des VW Lupo 3L kopieren würden könnten bald alle Autos mit nur 3-4 Litern rum fahren... Naja der Gedanke klingt für den Laien vllt nett aber wenn man sich dann mal an den Designtisch setzt und zuhört was alles für Faktoren von den diversen Fachbereichen gefordert wird dann ist man am Ende heil froh wenn die blöde Kiste "nur" 7-8 Liter frisst. Anspruch und Wirklichkeit zu vereinen bzw. so nahe wie möglich an einander heran zu führen ist die große Kunst jeder Entwickelung. Jede Entwickelung strebt einem gewissen Ideal nach.

AMD hat nicht aufgegeben, man sammelt sich nur neu um in 1-2 Generationen (sprich ca. 6-10 Jahren in consumer market years) zurück zu schlagen. Dieses bedarf aber sorgfältiger Planung, neuer (ambitionierter und frischer) Leute (siehe Personalwechsel der letzten Zeit), Kapital, guter Relations auf allen Business Ebenen und schlussendlich Geduld und Zeit.

Intel wird früher oder später auch ausrutschen, denn wenn der Antrieb von hinten im Nacken fehlt neigt man schnell mal zu Fehlern bzw Nachlässigkeit. Wenn man sich ansieht den Vergleich Sandy Bridge zu Ivy Bridge merkt man schon das man nicht mehr mit so einem "furiosen" Drive an die Sache gegangen ist wie wenn AMD einem im Nacken säße.

Die gelbe Eule
2012-06-03, 02:41:29
AMD sollte lieber eher in den Smartphone/Tablet Market gehen und dort eine CPU anbieten, wollen sie aber nicht, weil die ARM-SOCs und Intel vorherrschen. Ziemlich blöd, wenn man doch in dem Gebiet was GPUs angeht Tegra locker überflügeln könnte. Also Low Cost ist damit auch weg. Bleibt Midrange. AMD wird wohl wie VIA, Anbieter für Lösungen zu speziellen Bereichen. Aber auch da wird es immer Konkurrenz geben, die schneller oder günstiger ist. Schon brechen dort die Margen ebenso weg.

Commander Keen
2012-06-03, 10:19:58
AMD sollte lieber eher in den Smartphone/Tablet Market gehen und dort eine CPU anbieten, wollen sie aber nicht, weil die ARM-SOCs und Intel vorherrschen.

Nö, wollen sie nicht, weil die Margen dort zu gering sind.

Odal
2012-06-03, 11:02:50
Auch wenn es nicht zu wünschen war, aber diese Entwicklung zeichnete sich doch schon arg lang ab.

Hat man beim Core2 noch gedacht AMD kann mit einem A64 "Nachfolger" gleich- oder gar vorbeiziehen so kam dann der erste Fail Phenom gefolgt vom epic Fail Phenom II...
Über den Bulli darf man eigentlich gar nimmer sprechen, aber das der eher nix wird zeichnete sich (durch die Design Verwerfung und die immer länger werdende Entwicklungszeit) schon vor langem ab....

So langsam wirds echt ungemütlich in der Hardwareecke.

Mancko
2012-06-03, 11:10:49
AMD sollte lieber eher in den Smartphone/Tablet Market gehen und dort eine CPU anbieten, wollen sie aber nicht, weil die ARM-SOCs und Intel vorherrschen. Ziemlich blöd, wenn man doch in dem Gebiet was GPUs angeht Tegra locker überflügeln könnte. Also Low Cost ist damit auch weg. Bleibt Midrange. AMD wird wohl wie VIA, Anbieter für Lösungen zu speziellen Bereichen. Aber auch da wird es immer Konkurrenz geben, die schneller oder günstiger ist. Schon brechen dort die Margen ebenso weg.

Im CPU Markt ist AMD mittlerweile richtig weit abgeschlagen. Das trifft nicht nur auf das High End Segment zu. Auch das Midrange bis Performance Segment ist eigentlich weg. Der corei5 ist preiswert zu haben und eigentlich aus privater Endverbrauchersicht jedem Bulli vorzuziehen. Darunter wird es eigentlich auch ungemütlich, weil der corei3 ebenfalls nicht schlecht und billig zu haben ist.

In den SoC Markt einzusteigen halte ich für zu spät. Da gibt es für AMD im Augenblick nichts zu gewinnen. Den Zeitunkt haben sie halt verpasst. Das man Tegra in Bezug auf die GPU überflügeln kann ist keine besondere Neuigkeit. Das liegt aber nicht daran das es Nvidia nicht kann sondern das sie es bis einschließlich Tegra 3 nicht so recht priorisiert haben. Würde AMD in den SoC Markt ernsthaft einsteigen, würde auch Nvidia die GPU ganz anders priorisieren und dann wäre für AMD hier auch kein Blumentopf mehr zu gewinnen zumal man m.E. den Zeitpunkt dafür ohnehin bereits verpasst hat. Mit den kommenden SoCs wird Nvidia m.E. die GPU Leistung Serie für Serie massiv steigern. Bisher galt es für die erstmal das CPU Umfeld vorzubereiten für spätere Projekte.

In Summe bleiben m.E. im CPU Sektor für AMD langfristig nur noch Low-End Lösungen (APUs) für Desktop und eben Notebooks. Ein Hauptproblem ist nicht nur die mangelnde CPU Leistung sondern vor allem die schlechten Werte der eigenen Produkte in Punktio Leistungsaufnahme. Bulldozer zieht einfach zu viel aus der Steckdose. Für die Margen ist das natürlich fatal. Der gesamte Low-End Sektor wird über die kommenden Jahre nochmal massiv unter Preisdruck kommen. Die ASPs werden hier nur eine Richtung kennen und zwar nach unten. Intel will seine Position halten und die ARM Armada möchte was vom Kuchen abhaben. Anders als im Mid-Range, Performance und High End Segment hat ARM im Low-End Bereich durchaus Chancen etwas vom Kuchen wegzunehmen. Somit muss auch Intel mit den Preisen runter und das trifft AMD dann enorm, weil sie von beiden seiten in die Mangel genommen werden.

booomups
2012-06-03, 11:28:52
ich mach mir bezueglich den cpus keine grossen sorgen. das meiste was ich neu kaufe hat eine arm cpu drinn und dank windows 8 werden die in ein paar jahren intel auch im leistungsstäerkeren segment konkurenz bieten, wenn auch anfänglich nur beim preis und dem stromverbrauch.

das festplattenduopol sollte eher sorgen machen. momentan freu ich mich aber an der 64gb microsd karte in meinem android telefon.

Commander Keen
2012-06-03, 12:08:29
Hat man beim Core2 noch gedacht AMD kann mit einem A64 "Nachfolger" gleich- oder gar vorbeiziehen so kam dann der erste Fail Phenom gefolgt vom epic Fail Phenom II...

Wo ist der Phenom2 denn epic fail? Klar, er war/ist langsamer als die ix-intels, aber dank des günstigen Preises durchaus für viele eine interessante CPU. Es soll auch genug Menschen geben, denen die Leistung eines Phenoms locker reicht.

Cyphermaster
2012-06-03, 12:30:40
Und an alle, nein es ist nicht so leicht einfach mal darüber zu schauen auf ein DIE und zu kopieren. Dafür ist der Herstellungsmechanismus und die Aufgabe die das "Werkstück" vollbringen soll einfach zu komplex.Zumal auch eine Kopie lediglich maximal gleich gut wie das Original sein kann, und nicht besser. Und da AMD bei der Fertigung in Sachen nm Intel hinterher hinkt, würde sich auch damit ein Rückstand ergeben.

"Einfach so aufholen" ist daher eine Illusion, wie in jeder Branche.

Avalox
2012-06-03, 13:29:14
Der AMD Marktanteil steigt leicht. AMD hat gewisse Erfolge zu verbuchen.


Intel hat doch das große Problem, dass sie erstmal Kauf-Argumente liefern müssten für ihre High-End CPUs. Die gibt es nicht.

Wenn jetzt jemand Videospiele sagt, dann kann man allerdings nur noch einen Ast lachen..

Ich denke 90%, wenn nicht sogar deutlich mehr, aller Videospiele werden sicherlich schon heute nicht mehr und in Zukunft noch weniger auf einer Intel CPU gespielt.


Wir sind heute in einer Zeit, in welcher ARM sich anschickt den Servermarkt aufzurollen, alle Videospiel Konsolen mit PowerPC Architektur arbeiten, der am stärksten wachsende Markt ausschliesslich mit ARM Derivaten bedient wird und China MIPS SoCs zu unglaublich niedrigen Preisen vor der Tür stehen.

Der Kunde hat heute nicht einen PC. Er hat 20 Geräte welche allesamt den PC ablösen. Dort ist es gar nicht möglich, noch überhaupt wichtig überall eine High-End CPU hinein zu stecken.

Wenn AMD etwas auf den Zünder geht und deshalb mit der Axt durch Management gerauscht wurde ist, dass AMD jede Möglichkeit gehabt hätte in der neuen IT mitzuspielen. Aber komplett auf das falsche Pferd gesetzt hat.
Natürlich ist die Integration einer GPU und einer CPU der absolut richtige Weg, aber eben auf einem SoC für Billiggeräte. Das hat den Entscheidern das Genick gebrochen.

Der Run mit Intel ist schon seit Jahren der völlig falsche Weg. AMD wird nicht von High-End Intel CPUs fertig gemacht, sondern von ARM SoCs die 100x langsamer sind als die langsamsten AMD CPUs. Der Weg ist Hightech und nicht Highend.

Odal
2012-06-03, 13:33:19
Wo ist der Phenom2 denn epic fail? Klar, er war/ist langsamer als die ix-intels, aber dank des günstigen Preises durchaus für viele eine interessante CPU. Es soll auch genug Menschen geben, denen die Leistung eines Phenoms locker reicht.


naja der 965BE/955BE war damals ungefähr 20€ günstiger zu haben wie mein i5 Lynnfiield und das hätte man schon so ziemlich an Stromkosten in den fast 3 Jahren wieder raus.

Und wenn ich mir anschaue wo der PII 965/955BE jetzt so leistungsmäßig einzuordnen sind, da kann man eigentlich nur von einem Fail sprechen.

Ich finde das ja auch schlecht aus Verbrauchersicht, daher ist meine aktuelle GPU eine von AMD (hier ist man ja noch halbwegs konkurenzfähig), aber ich würde ja auch nicht mehr mein Gehalt bekommen wenn es jemanden gibt der deutlich besser ist und unterm Strich nicht mehr kostet.

Mancko
2012-06-03, 14:32:19
Ich denke 90%, wenn nicht sogar deutlich mehr, aller Videospiele werden sicherlich schon heute nicht mehr und in Zukunft noch weniger auf einer Intel CPU gespielt.


Da wäre ich vorsichtig. Gerade im Bereich der Games wie auch in dem gesamten Mobile Bereich wird primär aus einem Wachstumsaspekt argumentiert. Wenn ich von einem niedrigen Niveau komme, habe ich selbstverständlich mehr Wachstum als wenn ich von einem annährend gesättigten Niveau komme. Das heißt aber nicht, dass nun der eine Markt den anderen verdrängt oder zusammenschrumpft. Vielmehr ist es ein zusätzlicher Markt.
Der Markt für Browsergames etc. wächst beispielsweise stark. Trotzdem wollen die Leute weiterhin ihre anspruchsvollen Shooter, Autorennen etc. spielen. Bis ein Spiel wie BF3, CoD, XPlane 10 etc. auf einem SoC vernünftig laufen vergehen noch Jahre. Solange der Spielemarkt vom absoluten Fotorealismus noch entfernt ist, solange wird auch weiter Performance und High End Hardware ver- und gekauft und auch die Spiele dafür entwickelt. An Intel sieht man beispielsweise sehr schön, dass sie über die letzten Jahre ein ordentliches Umsatzswachstum hingelegt haben. Das haben sie den sehr guten CPUs zu verdanken. Bei AMD sind die Umsätze im gleichen Segment dagegen geschrumpft und wurden nur durch absolute Billig PCs mit APUs aufgefangen. Geld verdient wird dort aber kaum. Intel dagegen verdient auch weiter prächtig.

Wie Odal schon sagte AMD hat einfach im CPU Segment zu viele Fails geliefert, wenngleich ich den Phenom II noch ok fand.Habe mir damals selber einen 955BE gekauft. Das war wirklich noch vertretbar. Aber Phenom I dagegen war ein Fail und Bulldozer mag ich lieber gar nicht in Worte fassen. Das Teil ist so dermaßen am Bedarf vorbei entwickelt das es nicht mehr feierlich ist. Da bleibt AMD m.E. auch nur der Rückzug. Ab Midrange bis High End lässt Intel eigentlich kaum noch Luft zum atmen. Dank der ARM SoCs die nun aufstreben dürften auch bei Intel die Ängste vor irgendwelchen Kartellmaßnahmen drastisch abnehmen. Im Grunde wird es diesen "quasi" Artenschutz für AMD zukünftig nicht mehr geben. Sollten ARM SoCs in Billig PCs Einzu halten ist AMD den Schutz los und muss selber schauen zu überleben. Die Ausgangssituation ist dann natürlich viel schwieriger als noch vor Jahren. Da gab es "nur" Intel als Gegner und die waren einigermaßen berechenbar und haben immer Luft irgendwo für AMD gelassen. Die ganzen SoC Entwickler und Hersteller könnten dagegen für AMD zum Alptraum werden. Das sind erstens sehr viele Unternehmen und zweitens Unternehmen mit ganz unterschiedlichen Strategien und Motiven. Das wird für AMD sehr schwer zu berechnen sein, wohin dort die Reise geht. Vor allem Nvidia ist für AMD gefährlich, weil die sich anders als Samsung, Qualcomm & Co im PC Geschäft auskennen und auch in der Lage sind dafür astreine Treiber zu basteln.

Avalox
2012-06-03, 15:06:19
Trotzdem wollen die Leute weiterhin ihre anspruchsvollen Shooter, Autorennen etc. spielen. Bis ein Spiel wie BF3, CoD, XPlane 10 etc. auf einem SoC vernünftig laufen vergehen noch Jahre.

Du vergisst die Primärplattform der von dir zitierten Spiele. Es ist die Spielekonsole und auch in dieser steckt keine High-End Intel CPU. Auch die "High-End" Spiele werden zum allergrößten Teil nicht auf Intel CPUs gespielt.
Sie gesagt würde es mich wundern, wenn mehr als ein einstelliger % Satz aller Videospiele heute auf einer Intel High-End CPUs gespielt werden würde. Die allermeisten Spiele sind nicht mal mehr für eine x86 Plattform überhaupt.

Gerade der Trend von Browserspielen dürfte Intel wieder ein paar mehr Spieler bescheren. Dort sind dann aber ganz sicher keine High-End CPUs im Einsatz.

Die High-End CPU ist inzwischen so etwas wie Formel1. Das kann man sich als Hersteller leisten, muss man aber nicht. Es bedient ein paar Freaks und dient primär der Werbung und natürlich einer Entwicklung. Nützen tun diese als Produkt allerdings kaum jemanden tatsächlich, noch interessieren sie jemanden sonderlich. Die Zeiten haben sich schlicht geändert. Es gibt heute nicht mehr die Anwendung dafür.

Das ist ja letztendlich auch der Grund, weshalb ein AMD eben heute eher Marktanteile gewinnt, als verliert.


NVidia ist im ARM Bereich eine Blase. Bisher ein Versager mit großen Worten und ohne Erfolg. Da spielen ganz andere Player weit besser.

schreiber
2012-06-03, 15:13:52
Naja, High End kann man auch anderes interpretieren. Und das macht Intel ja schon. Anstatt Mhz hochzuprügeln, bieten sie Stromsparen als Feature an. Und das zieht noch sehr gut als Argument für "teure" CPUs. Wirklich teure High End CPUs gibts ja im Vergleich zu früher nicht mehr.

Die gelbe Eule
2012-06-03, 15:43:45
ARM wird auch den Low Cost und etwas darüber hinaus abdecken. Die neuen Quadcores in den Smartphones können Full HD ruckelfrei wiedergeben und wären auch für Office mehr als perfomant.
Die Leistung liegt ja zum Teil brach, also warum sollte man sein Smartphone nicht im Büro, in der Logistik oder sonstwo in einen Dock stecken können, wo nur noch Tastatur, Maus und Monitor stehen, Inhalte per WLAN übertragen werden und so Low Cost PCs überflüssig sind? Die Server CPUs die man dann für die Infrastruktur bräuchte, da dominiert Intel genauso und das ist absolutes High End.

fdk
2012-06-03, 15:56:19
viel text
Und worauf werden diese "High End-Spiele" oder Brwosdergames entwickelt? Die Anzeigen, Videos und Social Media Kampagnen um den ganzen Ramsch an Frau, Mann und Kind zu bringen, usw.? - Genau.
Es ist ja nicht so das Intel speziell fürs High-End Segment Unsummen an R&D ausgibt. Im Prinzip sind das ja sidekicks aus dem Serverbereich - wo genau die gleichen Designs laufen.

Exxtreme
2012-06-03, 16:08:37
ARM wird auch den Low Cost und etwas darüber hinaus abdecken. Die neuen Quadcores in den Smartphones können Full HD ruckelfrei wiedergeben und wären auch für Office mehr als perfomant.
Die Leistung liegt ja zum Teil brach, also warum sollte man sein Smartphone nicht im Büro, in der Logistik oder sonstwo in einen Dock stecken können, wo nur noch Tastatur, Maus und Monitor stehen, Inhalte per WLAN übertragen werden und so Low Cost PCs überflüssig sind? Die Server CPUs die man dann für die Infrastruktur bräuchte, da dominiert Intel genauso und das ist absolutes High End.
Das Full HD geht auch nur deshalb weil man genau für diesen Zweck spezielle Hardware hat. Ansonsten ist so eine ARM-CPU vielleicht so schnell wie ein P3/Athlon 1.

Wir haben bei uns auf der Arbeit schon paar Tests gemacht wie gut sich so ein Ipad im Office-Bereich schlägt. Das Fazit am Ende war, dass es als Betrachter für unterwegs nicht schlecht ist.

Avalox
2012-06-03, 16:08:59
Und worauf werden diese "High End-Spiele" oder Brwosdergames entwickelt?

Auf irrelevant wenigen Workstations. Aber selbst im Entwicklungsbereich, in welchem bekanntlich Zeit = Geld ist, wird die tatsächliche CPU Leistung der Workstation immer unwichtiger.
Aber was soll die Diskussion um solche extrem wenigen Spezialanwendungen? Die wird es immer geben.

Früher gab es die Workstation und morgen wird es wieder die Workstation geben. Früher weil niemand den Workstation Preis für einen PC zahlen wollte, morgen weil niemand mehr gewillt ist mit solch einen anachronistischen Gerät zu hantieren, wenn es nicht aus beruflichen Gründen sein muss.


Ansonsten ist so eine ARM-CPU vielleicht so schnell wie ein P3/Athlon 1.

Das glaube ich nicht. Ich denke die heutige ARM CPU ist dort noch viel langsamer.

Schaffe89
2012-06-03, 17:03:41
Es kann sich doch jeder die schematischen Pläne der CPUs ansehen. Die Ingenieure von AMD müssen doch auch genau wissen, warum sie langsamer sind. Die haben IMO einfach mit dem Bulldozer das komplett falsche Konzept umgesetzt.

So einfach funktioniert das nicht.
AMD´s Probleme sind beim Bulldozer Design die Branch Precision, die etwas schlechtere Sprungvorhersage, unstimmigkeiten bei den Caches, sowie der miese Fertigungsprozess.
Es gibt dazu einen lesenwerten Artikel bei Anandtech der versucht auf die wahrscheinlichsten Performance bottlenecks einzugehen.

Ich denke aber, dass AMD mit dem CMT Design und einen vorangekommenen Fertigungsprozess noch etwas auf Intel aufholen wird.
An den Taktraten kann man nämlich immer schrauben und das wird AMD bei Pildriver wohl auch tun.

Und wenn ich mir anschaue wo der PII 965/955BE jetzt so leistungsmäßig einzuordnen sind, da kann man eigentlich nur von einem Fail sprechen.


Wie alt sind die CPu´s 3 Jahre?
Bitte etwas weniger Polemik, danke.
Anhand der Bewertungsweise ist der Q9550 ja auch ein Mega Fail.

Odal
2012-06-03, 17:12:19
Auf irrelevant wenigen Workstations. Aber selbst im Entwicklungsbereich, in welchem bekanntlich Zeit = Geld ist, wird die tatsächliche CPU Leistung der Workstation immer unwichtiger.
Aber was soll die Diskussion um solche extrem wenigen Spezialanwendungen? Die wird es immer geben.


Naja also bei uns sind die Nehalem PCs (i7 9xx und i7 8xx) schon zur Ausmusterung vorgesehen und gefühlt 50% sind i7 2600 und 50% noch Nehalems (bald vermutlich Sandy) da hier jeder min. 1-2 VMs am laufen hat.

Mancko
2012-06-03, 19:44:01
Du vergisst die Primärplattform der von dir zitierten Spiele. Es ist die Spielekonsole und auch in dieser steckt keine High-End Intel CPU. Auch die "High-End" Spiele werden zum allergrößten Teil nicht auf Intel CPUs gespielt.

Auch das ist lediglich ein zusätzlicher Markt. Ich habe selber eine Spielekonsole. Nie im Leben würde ich auf dem Teil einen Shooter im Multiplayer oder Dinge wie XPlane spielen. Dort spielen andere Games - die fürs Wohnzimmer geeigneter sind - eine Rolle.


Sie gesagt würde es mich wundern, wenn mehr als ein einstelliger % Satz aller Videospiele heute auf einer Intel High-End CPUs gespielt werden würde. Die allermeisten Spiele sind nicht mal mehr für eine x86 Plattform überhaupt.


Die allermeisten werden einen i5 haben. Ein i5 ist nicht High End und günstig zu haben und schlägt jede AMD CPU in Games.


Die High-End CPU ist inzwischen so etwas wie Formel1. Das kann man sich als Hersteller leisten, muss man aber nicht. Es bedient ein paar Freaks und dient primär der Werbung und natürlich einer Entwicklung. Nützen tun diese als Produkt allerdings kaum jemanden tatsächlich, noch interessieren sie jemanden sonderlich. Die Zeiten haben sich schlicht geändert. Es gibt heute nicht mehr die Anwendung dafür.

Das ist ja letztendlich auch der Grund, weshalb ein AMD eben heute eher Marktanteile gewinnt, als verliert.

Irgendwie scheinst Du die Realitäten zu verkennen. Ich spiele selber 3 mal die Woche an fixen Tagen Online Multiplayer. Ich kann nicht erkennen das sich dort etwas geändert hat. Die CS, CoD und BF3 Multiplayer Server laufen wie eh und je und Millionen weltweit spielen darauf - und das jeden Tag.


NVidia ist im ARM Bereich eine Blase. Bisher ein Versager mit großen Worten und ohne Erfolg. Da spielen ganz andere Player weit besser.

Ein Unternehmen dass von 0 innerhalb von 2 Jahren ein Geschäftsfeld mit 20% Wachstumsrate aufbaut, dass mittlerweile auch groß genug ist das fehlende Chipsatzgeschäft zu ersetzen ist ehrlich gesagt alles andere als eine Blase. Gibt es erfolgreichere SoC Unternehmen? Na klar. Die sind auch länger am Markt und betreiben das Geschäft schon länger. Es wird also eine Zeit dauern bis man zu denen aufschließen kann. Aber Nvidia arbeitet sehr hart daran das zu erreichen und nach der Icera Übernahme gibt es auch keinen Grund daran zu zweifeln. Sie haben jetzt alle notwendigen Schlüsseltechnologien im Haus um irgendwann alles aus einer Hand bieten zu können.

Odal
2012-06-03, 20:43:45
Wie alt sind die CPu´s 3 Jahre?
Bitte etwas weniger Polemik, danke.
Anhand der Bewertungsweise ist der Q9550 ja auch ein Mega Fail.

Nehalem gibts seit 2008 und die Mainstreamausführung Lynnfield seit Sommer 2009.

Nun ziehen wir das doch mal mit zu Rate; schön das wir verglichen haben :rolleyes:

Oberst
2012-06-03, 22:24:08
Man vergleicht keine übertaktete Hardware und sagt: a) ist besser als b). Das sollte man IMO nur mit der Standardkonfiguration machen. Ein auf 700 PS getuneter Mercedes ist auch schneller als so mancher Ferrari. Aber die normalen Mercedes Autos nicht, weil die bei 250 abgeregelt sind.

Ui, mal wieder ein Auto-Vergleich...der wie immer nicht passt...
Und selbst auf Standard Taktraten braucht der X6 mehr und ist langsamer als der FX in den für mich relevanten Kriterien. Darunter zählen übrigens auch Spiele wie Dirt oder FSX, die trotz ihres Alters alle 8 Kerne nutzen.

Sicher gibt's auch etliche Anwendungen, in denen er nicht so toll abschneidet, aber diese Verallgemeinerung, dass BD total unbrauchbar ist, ist totaler Quatsch.

fdk
2012-06-03, 22:47:06
Unbrauchbar nicht. "Ausreichend" eben - so wie es AMDs Marketing treffend beschreibt. natürlich auch nur wenn die Verlustleistung unter Last keine Rolle spielt.

Undertaker
2012-06-04, 11:11:45
Ui, mal wieder ein Auto-Vergleich...der wie immer nicht passt...
Und selbst auf Standard Taktraten braucht der X6 mehr und ist langsamer als der FX in den für mich relevanten Kriterien. Darunter zählen übrigens auch Spiele wie Dirt oder FSX, die trotz ihres Alters alle 8 Kerne nutzen.

Sicher gibt's auch etliche Anwendungen, in denen er nicht so toll abschneidet, aber diese Verallgemeinerung, dass BD total unbrauchbar ist, ist totaler Quatsch.

Das schwankt allerdings stark von Fall zu Fall. Es gibt ebenso gut parallelisierte Spiele, die auf dem X6 besser laufen, zudem bescheinigen diverse Reviews dem FX-8150 die deutlich höhere Leistungsaufnahme. Das macht Bulldozer zwar nicht gleich völlig unbrauchbar, aber gerade der FX-8150 bietet nicht gerade das beste P/L. Wer übertaktet, holt sich einfach demn X6 1045T für gut 100€, bekommt diesen auf einem ordentlichen Board auf 4,0 GHz und hält mit jedem ebenfalls übertakteten FX-8150 mit.

Avalox
2012-06-04, 11:42:57
Auch das ist lediglich ein zusätzlicher Markt. Ich habe selber eine Spielekonsole. Nie im Leben würde ich auf dem Teil einen Shooter im Multiplayer oder Dinge wie XPlane spielen. Dort spielen andere Games - die fürs Wohnzimmer geeigneter sind - eine Rolle.

Ja du. Da gehörst du allerdings zur Minderheit. Einer Minderheit, deren Anteil zudem weiter fällt.



Die allermeisten werden einen i5 haben. Ein i5 ist nicht High End und günstig zu haben und schlägt jede AMD CPU in Games.


Bei Steam laufen mehr als 50% der Systeme mit Dualcores. Natürlich fällt dort der i5 nicht flach, ob da allerdings wirklich viele mobil i5 rumdümpeln glaube ich eher nicht.

Um mal zum Thema zurück zu kommen
Was kann man denn auf einen i5 spielen, was auf einem aktuellen vergleichbaren AMD System völlig unspielbar ist?




Irgendwie scheinst Du die Realitäten zu verkennen. Ich spiele selber 3 mal die Woche an fixen Tagen Online Multiplayer. Ich kann nicht erkennen das sich dort etwas geändert hat. Die CS, CoD und BF3 Multiplayer Server laufen wie eh und je und Millionen weltweit spielen darauf - und das jeden Tag.


Ich denke eher, dass du dort eine verzerrte Realität wahrnimmt. Wenn jemand in Schallplatten Geschäften unterwegs ist, der nimmt vielleicht auch an, dass die Schallplatte ein breit nachgefragtes Gut ist. Natürlich hat das PC HighEnd Spiel noch eine ordentliche Basis. Aber es ist nicht mehr der Faktor.
Geschweige denn PC Spiele, welche tatsächlich eine HighEnd PC Basis voraussetzen würden. Diese Spiele gibt es schon seit Jahren nicht mehr.


Ein Unternehmen dass von 0 innerhalb von 2 Jahren ein Geschäftsfeld mit 20% Wachstumsrate aufbaut, dass mittlerweile auch groß genug ist das fehlende Chipsatzgeschäft zu ersetzen ist ehrlich gesagt alles andere als eine Blase. Gibt es erfolgreichere SoC Unternehmen? Na klar. Die sind auch länger am Markt und betreiben das Geschäft schon länger. Es wird also eine Zeit dauern bis man zu denen aufschließen kann.

Erstmal ist nVidia nicht erst seit 2 Jahren mit ihrem ARM Bestrebungen unterwegs, sondern fast 4,5 Jahre. Der Marktanteil von nVidia wird irgendwo im unteren einstelligen Prozentbereich liegen. 20% Wachstum wäre wenig, denn das Wachstum des entsprechenden Marktes liegt über 20%, nach deiner Zahl müsste der nVidia Marktanteil sogar noch sinken.

boxleitnerb
2012-06-04, 12:00:09
Warum muss was gleich "völlig unspielbar" sein? Schwarz/weiß denken ahoi. In CPU-limitierten Bereichen sind die fps einfach höher. Wieviel, kommt auf viele Faktoren an.

Matrix316
2012-06-04, 12:51:11
So einfach funktioniert das nicht.
AMD´s Probleme sind beim Bulldozer Design die Branch Precision, die etwas schlechtere Sprungvorhersage, unstimmigkeiten bei den Caches, sowie der miese Fertigungsprozess.
Es gibt dazu einen lesenwerten Artikel bei Anandtech der versucht auf die wahrscheinlichsten Performance bottlenecks einzugehen.

Ich denke aber, dass AMD mit dem CMT Design und einen vorangekommenen Fertigungsprozess noch etwas auf Intel aufholen wird.
An den Taktraten kann man nämlich immer schrauben und das wird AMD bei Pildriver wohl auch tun.[...].
Also IMO ist es einfach nur ein Mega Fail, wenn AMD meint mit Takt bei der CPU aufholen zu wollen. Da stimmt das gesamte Grundkonzept nicht.

Der Athlon 64 damals hat doch gerade mit Effizienz geglänzt und war mit 2 GHz so schnell wie ein 3 GHz Pentium 4.

Und jetzt kommen die mit einer neuen CPU die fast so ineffizient ist wie der P4 damals (relativ gesehen) und hoffen über den Takt an Intel ranzukommen.

Finde ich nicht gut den Ansatz.

Avalox
2012-06-04, 13:42:57
Also IMO ist es einfach nur ein Mega Fail, wenn AMD meint mit Takt bei der CPU aufholen zu wollen. Da stimmt das gesamte Grundkonzept nicht.

Der Athlon 64 damals hat doch gerade mit Effizienz geglänzt und war mit 2 GHz so schnell wie ein 3 GHz Pentium 4.

Und jetzt kommen die mit einer neuen CPU die fast so ineffizient ist wie der P4 damals (relativ gesehen) und hoffen über den Takt an Intel ranzukommen.

Finde ich nicht gut den Ansatz.


Ich glaube bei AMD hat es immer nur funktioniert, wenn sie eine CPU Generation heraus gebracht haben, welche auf Zukäufe von CPU Technik aufbauten.

Nun muss man ja feststellen, dass der letzte große Zukauf eben ATI durchaus visionär war. Nur umsetzen konnte man es dann nicht so richtig. Alles an Wettbewerb wartet inzwischen mit integrierter GPU auf. Nun glänzt AMD dort mit besonders performanter GPU. Aber so richtig interessieren tut das auch niemanden und das ARM Geschäft vermasselte AMD mit beängstiger Zielsicherheit. Es wird ja nicht mal ein ATI Design an Dritthersteller lizenziert. Was das sollte, wissen vermutlich nur diejenigen, welche heute bei AMD nicht mehr unterwegs sind.

roidal
2012-07-21, 07:55:18
Warum soll ich von einer Firma eine Midrange CPU kaufen, die es nichtmal gebacken kriegt eine High End CPU auf die Beine zu stellen [...] ???

:facepalm:

Morale
2012-07-21, 16:57:15
:facepalm:
Also ich kauf mir auch kein Opel, weil die nicht so schnelle Autos wie Porsche bauen.:biggrin:

dllfreak2001
2012-07-21, 17:28:42
Eine High-End-CPU ist wirklich nicht nötig, allerdings sollte Intels I5 eingeholt werden und bitte doch auch mal die eigenen Vorgänger deutlich geschlagen werden.

GTX999
2012-07-31, 01:46:22
AMD sollte mit IBM eine gemeinsame CPU entwickeln sonnst wird intel nichts nachschieben.

mrt
2012-08-01, 23:39:29
AMD hat sich Jim Keller (war für K7 und K8 mitverantwortlich) zurückgeholt, bin gespannt was sich da in Zukunft noch personell ändert. Das aktuelle Topmanagement scheint jedenfalls nicht so zufrieden mit der Ausrichtung der Prozessorsparte zu sein.

Wildfoot
2012-08-02, 00:58:11
AMD sollte mit IBM eine gemeinsame CPU entwickeln sonnst wird intel nichts nachschieben.

Das wäre in der Tat eine spannende Kombi. ;)

Gruss Wildfoot

S940
2012-08-02, 10:26:22
Das aktuelle Topmanagement scheint jedenfalls nicht so zufrieden mit der Ausrichtung der Prozessorsparte zu sein.Nö, für die Ausrichtung sind die Top-Manager zuständig. Wenn - dann sind sie über die Ausführung (= Execution) nicht begeistert, weswegen sie jetzt nen neuen Chef-Architekten geholt haben.

mrt
2012-08-02, 11:02:57
Lass es mich anders formulieren: Das neue Topmanagement ist mit der Ausrichtung des alten Managements nicht zufrieden. Es ist dann auch üblich darunter neue Leute zu holen.
Um nicht ganz vom Thema abzuweichen: Der Threadtitel ist falsch, AMD zieht (bzw wollte) sich vom "Singlethread-Highend" zurück, nicht aber von Highend an sich.

Reneeeeeee
2012-08-10, 10:23:20
Ich muss leider auch wieder auf Intel wechseln weil mir AMD einfach zuviel Strom frisst. Wenn die wenigstens an den Verbrauch der Intel kommen könnten wäre mir die Leistung auch nicht so wichtig denn bis jetzt läuft mit meinem 955er P2 alles bestens.

Coda
2012-08-10, 11:24:33
Der Threadtitel ist falsch, AMD zieht (bzw wollte) sich vom "Singlethread-Highend" zurück, nicht aber von Highend an sich.
Das ist das selbe. Ohne ordentliche Performance/Watt (und nichts anderes ist Singlethread-Leistung heute) kannst du soviel Cores auf nen Chip pappen wie du willst.

boxleitnerb
2012-08-10, 16:32:45
So pauschalisieren kann man das imo nicht. Videoencoding/-bearbeitung, Bildbearbeitung etc. wenn sie gut parallelisiert sind, laufen jetzt nicht so schlecht auf den FXen.

schreiber
2012-08-10, 16:49:48
ja, toll. AMDs 16kerner haben aber schon mit Intels 4kernern zu kämpfen.

dllfreak2001
2012-08-10, 17:31:29
Mir wäre es lieber AMD würde den FX samt Sockel in die Tonne kloppen und einen Neuanfang in Richtung Singelthread-Performance wagen.

grobi
2012-08-10, 17:53:57
Ich muss leider auch wieder auf Intel wechseln weil mir AMD einfach zuviel Strom frisst. Wenn die wenigstens an den Verbrauch der Intel kommen könnten wäre mir die Leistung auch nicht so wichtig denn bis jetzt läuft mit meinem 955er P2 alles bestens.


Ich denke um Strom zu sparen einen teureren Intel zu kaufen macht keinen sin, wenn du mit der Performance zufrieden bist.

Commander Keen
2012-08-10, 21:29:51
Ich denke um Strom zu sparen einen teureren Intel zu kaufen macht keinen sin, wenn du mit der Performance zufrieden bist.

Abgesehen davon kann man mit dem PhenomMSR-Tweaker auch noch einiges an Ersparnis rausholen. Ich hab für meinen 1100T ein komplett eigenes CnQ mit 5 Taktstufen eingestellt, beim 955 gehen immerhin 4 (reicht auch völlig, da eh meistens in der Praxis nur die schwächste und stärkste Stufe relevant sind...).

Alleine wegen des Verbrauchs auf ein neues System zu wechseln, ist sowohl wirtschaftlich als auch aus der Energietechnischen Sicht absoluter wahnsinn :eek: Das Geld bzw. die Energie die dafür drauf geht, kriegst du in 10 Jahren 24/7-Betrieb vllt. mal wieder rein.

Daher gilt immer noch: Aufrüsten, wenn man mehr Leistung will. Alles andere ist zumeist Quark.

Lord Wotan
2012-08-22, 16:46:41
Besteht für Intel nicht jetzt die Gefahr in den VSA oder bei uns durch ein Kartellprozess wie AT&T damals zerschlagen zu werden. Da sie keine Konkurrenz mehr haben.

RavenTS
2012-08-23, 13:16:11
Besteht für Intel nicht jetzt die Gefahr in den VSA oder bei uns durch ein Kartellprozess wie AT&T damals zerschlagen zu werden. Da sie keine Konkurrenz mehr haben.


Wo hat INTeL denn plötzlich keine Konkurrenz mehr?
Ist AMD pleite? ARM aufgekauft? QualComm, nVIDIA, IBM,..?

boxleitnerb
2012-08-23, 13:32:30
OBR behauptet, dass es ab Vishera keine CPUs mehr von AMD gibt, nur noch APUs - die ja mit den entsprechenden Einschränkungen zu kämpfen haben: weniger Kerne und/oder weniger Takt.

Das würde AMD komplett in den Billigbereich drücken. Damit schneidet man sich eh schon ins eigene Fleisch des Lowend-GPU-Geschäfts. Wenn nun gar keine CPUs mehr ab 150 Euro verkauft werden, wo die Marge vielleicht höher liegt als bei den Billigdingern, wäre das nicht gut.

robbitop
2012-08-23, 13:40:33
Intel verkauft im Großteil seiner Märkte doch auch nur noch CPU+GPU Mischungen. Nur die ganz großen Brummer sind ohne CPU. (deaktivierte GPU zählt nicht)
Es ergibt schon Sinn, nicht mehrere Masken anzufertigen. Letzten Endes hat AMD was reine CPUs angeht eh kaum noch Alleinstellungsmerkmale und es geht eh alles in Richtung HSA (?). Sie müssen über die GPU punkten. Und das mittelfristig um die GPU für andere Dinge zu nutzen außer Grafik. Völlig nachvollziehbare Entscheidung, falls das Gerücht stimmen sollte.

boxleitnerb
2012-08-23, 13:47:42
Das Problem ist dabei doch, dass die allermeisten integrierten GPUs gar nicht vom Schlag eines Trinity sein müssen. In vielen Rechnern braucht man die nur für die Bildausgabe und sonst nichts. Wenn ich zu einer 100W CPU noch 10W GPU dazupacke, juckt das nicht. Oder wenn die IPC eh sehr hoch ist oder die CPU sparsam. Wenn ich aber einen fetten GPU-Teil hinzubastle und den Grundtakt massiv senken muss oder die Hälfte der Kerne verliere, das ist dann schon nicht ohne.

Ironischerweise könnte AMD gerade jetzt, wenn die Software langsam mehr Threads ansprechen kann (z.B. Spiele, die ja immer noch ein bedeutendes Zugpferd sind, was Aufrüstungen angeht) ins Hintertreffen geraten, weil man mit einem 2M/4T Trinity gegen einen 4C-Ivy Bridge/Haswell kein Land sieht. Singlethreaded sowieso nicht. Das ist jetzt noch anders, denn momentan gibt es noch "richtige" CPUs ohne Kompromisse, weil man 50W GPU mitschleppt.

Edit:
Was ist "mittelfristig"? 5 Jahre, 10? Wir wissen doch alle, wie träge sich die Softwarelandschaft bewegt.

Coda
2012-08-23, 13:55:09
Intel verkauft im Großteil seiner Märkte doch auch nur noch CPU+GPU Mischungen. Nur die ganz großen Brummer sind ohne CPU. (deaktivierte GPU zählt nicht)
Es ergibt schon Sinn, nicht mehrere Masken anzufertigen. Letzten Endes hat AMD was reine CPUs angeht eh kaum noch Alleinstellungsmerkmale und es geht eh alles in Richtung HSA (?). Sie müssen über die GPU punkten. Und das mittelfristig um die GPU für andere Dinge zu nutzen außer Grafik. Völlig nachvollziehbare Entscheidung, falls das Gerücht stimmen sollte.
Sehe ich auch so, vor allem weil sie ja so auf Heterogenous Computing setzen.

Lord Wotan
2012-08-23, 14:02:26
Wo hat INTeL denn plötzlich keine Konkurrenz mehr?
Ist AMD pleite? ARM aufgekauft? QualComm, nVIDIA, IBM,..?
Außer AMD, gibt es keine ernstzunehmenden High-End CPU Produktenten. ARM ist nicht High-End CPU. Für Telefon ja noch OK, aber für High-End Gamer CPU PC ist ARM ein Witz. Selbst Appel setzt bei ihren Computern( ich meine nicht das Telefonspielzeug) auf Intel.

Und wenn AMD da nun sagt wir ziehen uns aus den High-End CPU Markt raus, hat Intel eben keine ernsthafte Konkurrenz in den Bereich und wäre ein Fall für die Kartellbehörde, weil Intel dann Monopolist wäre. Warum hat Microsoft damals Appel den Arsch gerettet, doch nicht weil Bill so ein Netter Mensch ist, nee die wollten verhindern das die VSA Kartellbehörde Microsoft als Monopolist zerschlägt. Und das gleiche Blüht Intel wenn AMD in den Bereich sich zurückzieht.

Ich höre auch immer, angeblich sei der Power PC, den AMD / Intel PC um Welten überlegen. Komisch Appel hat der Power PC CPU den Mittelfinger gezeigt und baut in ihren Computer 1A Intel CPUs, für Appel Fanboys ist damals die Welt Untergegangen und ich denke das spricht doch Bände. Das Intel in High-End CPU Markt ohne AMD konkurrenzlos ist.

Und bloß weil ARM Handy/Tablet CPUs herstellt, ist sie keine Kongruenz zum High-End PC Markt.
Und allen erstes wir spielt schon mit seinen Händy allen ernstes echte Highend spiele. Außer Tetris kann man das doch vergessen. Und wer Spielt mit einen Tablet und der Fingersteuerung spiele? Ich denke fast keiner, weil die Fingersteuerung eben nicht für Spiele gemacht ist.

CosmiChaos
2012-08-23, 14:07:18
Tagchen,

ich bin einer der ersten, die von einem Intel-C2D-System auf eine AMD-AM3+-Plattform umgesattelt sind. Aus Gründen der Marktverfügbarkeit habe ich sogar noch einen Phenom II, was sich nach Start des BD1 auch im Nachhinein aus Gamer-Sicht als nicht so verkehrt dargestellt hat.

Wie viele bin ich von der Single-Core-Performance des Bulldoser übelst enttäuscht. Das neue 8-Core-duo-modulare Design ist für alles was max. 4 Kerne benötigt tatsächlich viel schlechter zu gebrauchen als ein Quadcore von vor 3 Jahren, darüber täuscht auch ein im Marktvergleich immernoch lahmes Speicher-Controller-Uplifting nicht hinweg.

Ursprünglich wollte AMD wenigstens termingerecht abliefern was ebenfalls gründlich in die Hose ging.

Nun gibt es erste Spekulationen und Vorab-Infos zum Vishera, so soll dieser wohl auch keine bahnbrechende Neuerungen geben, denn diese scheinen auf Piledriver verschoben worden zu sein. Lediglich eine Refenztakt-Erhöhung max. 400 Mhz sollen es sein und selbst wenn man den Turbo-Takt auch nochmal 200Mhz anheben könnte und selbst wenn man aus der Architektur nochmal 5 oder gar utopische 15% zu diesem Zeitpunkt rausholt, dann würde sich ein Achtkerner so ziemlich immernoch an der Pro-Kern/Pro-Mhz-Leistung der Phenom-Architektur die Zähne ausbeissen und Intel rennt immernoch davon.

Für mich wird das aller Wahrscheinlich nach die letzte AMD-Plattform sein, auch wenn der FX in der Anwendungs-Leistung ganz gut überzeugen kann, denn mein Schwerpunkt liegt im High-End-Gaming.

Sollte dann AMD Piledriver nichtmal mehr auf AM3+ rausbringen wollen, sondern wieder einen neuen Sockel pushen, was neuste Gerüchte besagen, dann wars das eh, so ein Drama brauche ich kurzfristig nicht noch einmal.

In der Zukunft brauche ich umso mehr eine CPU die sehr hohe Leistung in den Haupt-Thread der Spiele abliefert und damit hohe minimale Framerate-Raten ermöglichen. Intel liefert ab.

Auch im GPU-Bereich muss ich sagen, dass ich nicht bereue bei Nvidia geblieben zu sein und finde auch hier, dass Nvidia mit der GTX670 hervorragend abgeliefert hat. Die AMD pro-Kern/pro-MHZ-Leistung ist hingegen unterirdisch und was ich von den Treibern bei AMD gehört habe, das spricht eher Bände, aber das mag vielleicht Ansichtssache sein.

Ich persönlich sehe AMD auf einem ziemlich absteigenden Ast im Desktop-Highend-Bereich, was ich sehr schade finde. Es müsste quasi ein Wunder geschehen, was ich sehr begrüßen würde.

S940
2012-08-23, 14:22:31
OBR behauptet, dass es ab Vishera keine CPUs mehr von AMD gibt, nur noch APUs - die ja mit den entsprechenden Einschränkungen zu kämpfen haben: weniger Kerne und/oder weniger Takt.
Falsch, OBR schreibt nur, dass es keine high-perf. Desktop CPUs mehr geben würde. Das sagt nichts über Server, dort sind die "future CPUs" zusammen mit "future APUs" ja erst gerade auf der letzten (Server)Roadmap aufgetaucht.

Problem mit den Teilen könnte der Speicherkontroller sein, DDR4 ist da gesetzt, und falls sich kein DDR3/4-Kombikontroller entwerfen läßt, dann rentiert es sich aufgrund teurer DDR4-Preise erstmal sicherlich nicht, das Teil auch für den Desktop zu bringen.

S940
2012-08-23, 14:27:02
Vorab-Infos zum Vishera, so soll dieser wohl auch keine bahnbrechende Neuerungen geben, denn diese scheinen auf Piledriver verschoben worden zu sein.Ähhh ... Du weisst, dass Vishera Piledriver Kerne bekommt?

Im MOment sind ziemlich viele Müll-Nachrichten/Gerüchte im Umlauf, die Leute kapieren nicht, dass Orochi in der Rev.C == Vishera mit Piledriver ist, sondern meinen, dass das "nur" ein Bulldozeraufguß wäre. Ist es ja sogar, Piledriver wurde nie groß angekündigt, mehr als +5-10% darf man im Mittel nicht erwarten, aber man sollte halt nicht durcheinander kommen ;-)
Siehe auch hier:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1345294802

Ansonsten passt Dein Posting vielleicht eher hier rein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=528347

boxleitnerb
2012-08-23, 14:39:29
Server interessieren hier die wenigsten, das sollte eigentlich klar sein.

mrt
2012-08-23, 14:40:00
Dann sollte man den Threadtitel ändern und "Desktop" einbauen. Warum man aber Serverprozessoren komplett ignorieren sollte ist mir allerdings nicht klar.
Das ist das selbe. Ohne ordentliche Performance/Watt (und nichts anderes ist Singlethread-Leistung heute) kannst du soviel Cores auf nen Chip pappen wie du willst.
Kommt auf den Anwendungsbereich an, am Desktop is das gar nicht so falsch, Server, HPC usw allerdings schon. Ich würd auch nicht sagen, dass Bullis Problem die ST-Leistung ist, eher die Skalierung des zweiten Int-Kerns, der muss ja immer auf volle Takt mitlaufen, egal wie gut oder schlecht die Auslastung aussieht.

Pirx
2012-08-23, 15:59:13
Man darf auch nicht den Einfluss der Compiler vergessen, das wurde mir erst vor kurzem erneut klar. Bei einem fairen Vergleich stünde der Bulli wahrscheinlich besser da.

AnarchX
2012-08-23, 16:06:00
Das sind wohl aber auch Versäumnisse von AMD, wenn man nicht ausreichende Beziehungen zu Entwicklern aufbaut, dass eine entsprechende AMD-Version kompiliert wird.

Aber es könnte wohl durchaus Sinn für AMD machen, die FX-Linie vom Markt zu nehmen. Desktop-PC-Verkäufe sind rückgängig und wenn wird eine OEM wohl eher eine APU-CPU setzen wollen. Die wenigen Enthusiasten, die einen AMD Multi-/Many-Core fordern, kann man wohl mit den entsprechend Ein-Sockel-Workstation-Plattformen bedienen.

GTX999
2012-08-23, 16:41:51
Aber es könnte wohl durchaus Sinn für AMD machen, die FX-Linie vom Markt zu nehmen. Desktop-PC-Verkäufe sind rückgängig und wenn wird eine OEM wohl eher eine APU-CPU setzen wollen. Die wenigen Enthusiasten, die einen AMD Multi-/Many-Core fordern, kann man wohl mit den entsprechend Ein-Sockel-Workstation-Plattformen bedienen.

Nein das stimmt so einfach nicht.
Desktopverkäufe sind nur im unteren Preissegment rückgängig.
Im oberen Preissegment haben sie zugenommen!

Wir haben noch nie so viele 1000€-2000€-3000€+ Destkop-Rechner verkauft wie in der heutigen Zeit.

Mir wäre es lieber AMD würde den FX samt Sockel in die Tonne kloppen und einen Neuanfang in Richtung Singelthread-Performance wagen.

Nur weil die Software aus der Steinzeit ist und Coder anscheinend in der heutigen Zeit keinen grossen Wert auf Optimierung legen?
Es gibt etliche aktuelle AA oder AAA Titel die grottenschlecht auf 3-4-6 Kern CPUs skalieren.

Schau dir doch mal die Fakten an.
Game Patch Nummer 3930 ... Performance Boost +15%
Treiberupdate (GPU) Nummer 8478 ... Performance Boost +10%
etc.

Die Hardware ist nicht schuld - es liegt alles an der Software.

kruemelmonster
2012-08-23, 16:46:54
Man darf auch nicht den Einfluss der Compiler vergessen, das wurde mir erst vor kurzem erneut klar. Bei einem fairen Vergleich stünde der Bulli wahrscheinlich besser da.

Unwahrscheinlich:
http://www.abload.de/thumb/compilervergleich3rrjz.jpg (http://www.abload.de/image.php?img=compilervergleich3rrjz.jpg)
Quelle (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1100/index10.php)

GTX999
2012-08-23, 16:55:32
Unwahrscheinlich:

also MP3 en/decoden ist heutzutage wie JPG Bilder umwandeln .. sowas kann man auf jeder Krücke bewältigen.
Viel interessanter ist HD H264 de/encoding sowie GPU beschleunigte Echtzeitansichten (von Google Earth bis hin zu Crysis 2).
Wart mal ab bis Blue Rays 50GB Filme beinhalten die in 3K Auflösung aufgenommen wurden - sowas zu bearbeiten/erstellen stellt hohe Anforderungen an die Hardware.


Die CPU/GPU wird auch weiterhin eine wichtige Rolle spielen, nur eben ausschliesslich im High End Segment.

mrt
2012-08-23, 17:00:44
Schlechter vergleich, wenn du Compileroptimierungen für Architekturen willst, dann such nach GCC-Vergleichen unter Linux (je aktueller desto besser).

Aber es könnte wohl durchaus Sinn für AMD machen, die FX-Linie vom Markt zu nehmen. Desktop-PC-Verkäufe sind rückgängig und wenn wird eine OEM wohl eher eine APU-CPU setzen wollen. Die wenigen Enthusiasten, die einen AMD Multi-/Many-Core fordern, kann man wohl mit den entsprechend Ein-Sockel-Workstation-Plattformen bedienen.
Ob die FX-Linie ausläuft ist eher fragwürdig, aber mit Sicherheit kommt eine Platformkonsolidierung. Aktuell produziert AMD für FM1, FM2, AM3+, C32, G34 + Bobcatzeugs + Embedded. AM3+ wird wohl im DDR4-Nachfolger von C32 aufgehen, eine Hndvoll günstige Boards und Prozessoren (FX-Brand) wären da nicht so schlecht. Gab ja auch Opterons für die Consumersockel.

CosmiChaos
2012-08-25, 00:58:23
Unwahrscheinlich:
http://www.abload.de/thumb/compilervergleich3rrjz.jpg (http://www.abload.de/image.php?img=compilervergleich3rrjz.jpg)
Quelle (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1100/index10.php)


Ich bitte dich. Das Bild zeigt eine Reihe aktueller Intel i5/i7, das sind aktuelle Prozessoren. Auf AMD-Seite sehe ich jedoch nur End-of-Life-CPUs.

Echt mager um damit ein Statement zu machen, wo ist der FX in dem Vergleich?

Schnäppchenjäger
2012-08-25, 01:25:12
endlich, war nur eine frage der zeit, dass die sich endlich aus dem desktop cpu markt verpissen.

Knuddelbearli
2012-08-25, 03:37:59
ja damit du in zukunft deinem heißgeliebten intel endlich einen I3 für 1.000€ abkaufen kannst! ^^

y33H@
2012-08-25, 11:14:34
Ganz sicher nicht, die Preise müssen im bezahlbaren Rahmen bleiben.

AnarchX
2012-08-25, 11:26:55
Wahrscheinlich steigt die CPU-Leistung nicht mehr so stark, wie auch schon bei IVB.
Trotz allem wird man beim GPU-Teil weiter den Zyklen der Konkurrenz folgen müssen.

Knuddelbearli
2012-08-25, 11:31:41
ja y33 nur ohne AMD wären wir jetzt vermutlich beim Pentium 6 mit 250W verbrauch und 2 kernen mit der ipc eines atoms und Rambus3

und da wäre das spitzenmodell dann langsamer als der I3 ;-) ^^

Einzige Positive wäre das sich BTX durchgesetzt hätte ^^

CosmiChaos
2012-08-25, 15:07:43
Ganz sicher nicht, die Preise müssen im bezahlbaren Rahmen bleiben.

Achso und die Preise werden im bezahlbaren Rahmen bleiben, weil der Herr meint sie müssten das. Interessant. Nenn mir einen Grund warum sie das nicht sollten... und jetzt sag nicht, weil du sie dann nicht mehr kaufst, denn DAS interessiert die dann auch nicht mehr, gibt ja genügend Leute die Geld haben wie andere Staub auf dem Bücherregal..

Ich sehe es so, dass Intel sich mit der aktuellen Architektur die nächsten 10 Jahre schlafen legen kann, wenn AMD aufgibt überhaupt erst Anstrengungen zu unternehmen. Wenn du die Prozessoren willst, die jene Leistung haben, dann kannst du nurnoch zu einem gehen und so lange der den Markt total dominiert, wird der den Teufel tun und mehr Innovation betreiben.

Das hieße in 5 Jahren gibts immernoch HighEnd-CPUs mit hoher Energieeffizienz und hoher Single-Thread-Leistung, aber nurnoch von Intel und die müssen dann auch nicht zwangsweise sonderlich schneller sein als die von heute... nurnoch eins: Teurer! Und ehe du dich versiehst ist das von heute End-of-Life und dann musst du dich entscheiden "Billig"-Hersteller oder Abspeck-Version, es sei denn Geld spielt für dich keine Rolle.

boxleitnerb
2012-08-25, 15:14:01
Er hat aber Recht.

Intel muss Umsatz und Gewinn machen, sonst machen die Aktionäre Ärger. Man muss auch weiterhin millionenfach Produkte verkaufen. Die Verkäufe würden aber einbrechen, wenn

a) die Preise einfach mal um 50-100% erhöht würden
b) man für denselben Preis alle 2 Jahre kaum mehr Leistung bekommt.

Das führt im Endeffekt nur dazu, dass die Leute statt alle 2-3 Jahre z.B. alle 6 Jahre eine neue CPU kaufen, und das wird Intel weh tun. Man könnte sich jetzt überlegen, ob man nicht für ein neues Spiel/Programm eine CPU vom Typ X vorschreiben muss, damit es überhaupt startet. Das würde aber wiederum der Softwareindustrie nicht schmecken, die verkaufen dann nämlich nix mehr.

Du siehst, auch ein Monopolist kann nicht machen, was er will. Bei Sachen, die man auch wirklich braucht (Strom, Wasser) ist das völlig anders. Da ist man auf Gedeih und Verderb ausgeliefert. Bei Luxusgütern haben wir Käufer die Macht in der Hand (großteils jedenfalls).

Knuddelbearli
2012-08-25, 15:26:28
geplante obsolenz? ;-)

Der_Donnervogel
2012-08-25, 15:49:55
Ein Monopolist hat eine viel größere Gestaltungsfreiheit die Preise so zu optimieren dass er maxmalen Profit macht. Die Aktionäre werden also auf jeden Fall mehr Gewinn haben. Grundsätzlich ist es immer so, dass die Preise die Nachfrage mit bestimmen. Wenn man allerdings keine Konkurrenz hat, dann fällt es deutlich leichter den Gewinn zu maximieren. Man kann sich dann praktisch an der Schmerzgrenze der Kunden orientieren, bis zu der sie noch bereit sind zu kaufen. Diese sollte üblicherweise deutlich höher sein als die Kosten fürs Produkt. In einer Konkurrenzsituation würde dann der Konkurrent einfach billiger anbieten und somit auf etwas Marge verzichten um seinen Umsatz zu machen. Falls es keine Konkurrenz gibt, dann kann man einfach den höchsten Preis verlangen, der vom Markt noch akzeptiert wird.

Zudem hat ein Monopolist auch deutlich bessere Gestaltungsmöglichkeiten was die Produktvielfalt betrifft. z.B. wenn es darum geht, was man Aufrüstern erlaubt. Wenn Intel immer mal wieder die Plattform ändert und die alten Highend CPUs nicht im Preis senkt sondern am Ende des Produktzyklus einfach aus dem Markt nimmt, dann hat der Kunde eben Pech gehabt. Entweder er rüstet teuer auf oder kauft gleich die neue Plattform. Ähnliches gilt beim Übertakten. Ohne Konkurrenz liegt es komplett im Ermessen von Intel was dort möglich ist und was nicht und auch zu welchen Preisen. Intel kann dann alles genau so für sich maßschneideren, dass es maximalen Gewinn hat.

S940
2012-08-25, 16:29:20
We [AMD] remain committed to the Performance CPU market.
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1345904711

Ronny145
2012-08-25, 17:03:44
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1345904711


Das hat nichts zu sagen. Also ob AMD ihre langfristige Planung zugeben würde. Das gleich Spiel hatten wir Anfang-Mitte 2011 beim Bulldozer. AMD hat ständig Verschiebungen auf Nachfrage dementiert. Das sind einfach die 0815 Antworten ohne Inhalt.

S940
2012-08-25, 18:49:40
Das hat nichts zu sagen. Also ob AMD ihre langfristige Planung zugeben würde. Das gleich Spiel hatten wir Anfang-Mitte 2011 beim Bulldozer. AMD hat ständig Verschiebungen auf Nachfrage dementiert. Das sind einfach die 0815 Antworten ohne Inhalt.
Das mag ja sein, aber im aktuellen Fall haben wir nur OBR als Quelle.

Außerdem gibts nächstes Jahr neue Serverchips CPUs. Da glaube ich kaum, dass es sich für AMD rentieren würde, die entsprechenden DIEs nur als Opterons zu verkaufen.

Ronny145
2012-08-25, 19:32:34
Das mag ja sein, aber im aktuellen Fall haben wir nur OBR als Quelle.


Es geht mir nicht darum, ob an OBR's Darstellung etwas dran ist. Es geht darum, dass eine kurz angebundene 0815 Presseantwort von AMD total wertlos ist. Da hat man letztes Jahr gemerkt. Dieses Vertrauen gebe ich AMD nicht mehr.

Außerdem gibts nächstes Jahr neue Serverchips CPUs. Da glaube ich kaum, dass es sich für AMD rentieren würde, die entsprechenden DIEs nur als Opterons zu verkaufen.


Diese Möglichkeit hat AMD aber selber widerlegt. Für 2013 steht Piledriver nur auf der Client Roadmap, was genau soll noch kommen bei den CPUs ohne Grafik? Der nächste Umbruch steht wohl 2014 mit PCIe 3 an. Erst dann ist klar, ob es weiterhin Client CPUs ohne Grafik geben wird oder nur noch APUs.

S940
2012-08-25, 21:31:38
Es geht mir nicht darum, ob an OBR's Darstellung etwas dran ist. Es geht darum, dass eine kurz angebundene 0815 Presseantwort von AMD total wertlos ist. Da hat man letztes Jahr gemerkt. Dieses Vertrauen gebe ich AMD nicht mehr.
Das kannst Du pauschal schon so machen, aber wenn man konkret OBR vs AMD aufwiegen muss, würde ich trotzdem noch AMD nehmen. Hat halt was von Pest gegen Cholara :freak:

Diese Möglichkeit hat AMD aber selber widerlegt. Für 2013 steht Piledriver nur auf der Client Roadmap, was genau soll noch kommen bei den CPUs ohne Grafik? Der nächste Umbruch steht wohl 2014 mit PCIe 3 an. Erst dann ist klar, ob es weiterhin Client CPUs ohne Grafik geben wird oder nur noch APUs.Hmm, hast Du das letzte Update mit den noch namenlosen "future server CPUs" verpasst? Die stehen für 2013 an. Ich rechne da mit nem DDR4 fähigem 5Moduler mit Steamroller-Kernen.

http://www.abload.de/img/filen0uyk.jpg
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1339699724

Edit: Die Client-Roadmap wurde offiziell nicht angepasst, das stimmt, aber wie schon oben geschrieben: Bisher gabs noch von jedem Server-Die Reste für die Desktops. Und wenns nur welche mit 140W TDP wären :freak:

Ronny145
2012-08-25, 22:16:17
Das kannst Du pauschal schon so machen, aber wenn man konkret OBR vs AMD aufwiegen muss, würde ich trotzdem noch AMD nehmen. Hat halt was von Pest gegen Cholara :freak:


Keiner wiegt hier etwas auf. Das AMD Statement ist einfach nichts wert.


Hmm, hast Du das letzte Update mit den noch namenlosen "future server CPUs" verpasst? Die stehen für 2013 an. Ich rechne da mit nem DDR4 fähigem 5Moduler mit Steamroller-Kernen.

http://www.abload.de/img/filen0uyk.jpg
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1339699724



Naja das sind Server, ist logisch das dort etwas Neues kommt.



Edit: Die Client-Roadmap wurde offiziell nicht angepasst, das stimmt, aber wie schon oben geschrieben: Bisher gabs noch von jedem Server-Die Reste für die Desktops. Und wenns nur welche mit 140W TDP wären :freak:


Irgendwann ist immer das erste mal. Die CPU Reste wären alleine nicht das Problem. AMD braucht zuerst eine neue Plattform, Server Sockel wird wohl nicht passen. Wenn das AMD nicht als lohnenswert erachtet, bringen die CPU Reste nichts.

S940
2012-08-25, 22:44:59
Keiner wiegt hier etwas auf. Das AMD Statement ist einfach nichts wert. Und das OBR Statment?

Irgendwann ist immer das erste mal. Die CPU Reste wären alleine nicht das Problem. AMD braucht zuerst eine neue Plattform, Server Sockel wird wohl nicht passen. Wenn das AMD nicht als lohnenswert erachtet, bringen die CPU Reste nichts.Wäre natürlich möglich. AUf der einen Seite sind AMDs Server-Stückzahlen noch geringer als die im Desktop, auf der anderen Seite kann man nen Pur-Serverchip eventuell besser auf low-power optimieren. Naja mal schauen.

Duplex
2012-08-25, 23:23:49
Irgendwann ist immer das erste mal. Die CPU Reste wären alleine nicht das Problem. AMD braucht zuerst eine neue Plattform, Server Sockel wird wohl nicht passen. Wenn das AMD nicht als lohnenswert erachtet, bringen die CPU Reste nichts.
Sockel AM4 mit Steamroller, PCIe 3.0 & 28nm Support würde ich nicht ausschließen. Ich denke die Plattform ist für AMD das kleinste Problem.

y33H@
2012-08-26, 03:07:47
[...]Siehe boxleitnerb. Intel muss die Preise so einpendeln, dass Umsatz und Gewinn wie gehabt steigen oder zumindest keine negative Bilanz auftritt, was bei völlig abgehobenen Kosten (1k für den lahmsten Celeron etwa) unmöglich ist. Bei allem Monopol-Geschrei sollte das bedacht werden. Davon ab hat sich Intel, obwohl seit dem Core 2 die Konkurrenz nahezu nicht mehr gegeben ist, die Preis stabil gehalten und pro Segment die Leistung bei geringerem Stromverbrauch drastisch gesteigert - was durchaus um Interesse der Kunden ist. Intel als Unternehmen mit Mondpreisen und Anti-Käufer-Verhalten darzustellen, ist somit aktuell alles, aber nicht gerechtfertigt. Leichen im Keller mal außen vor - wobei so gut wie jedes Unternehmen hat, am Ende des Tages will auch AMD nur eines von uns ... Geld.

G A S T
2012-08-26, 03:42:14
Siehe boxleitnerb. Intel muss die Preise so einpendeln, dass Umsatz und Gewinn wie gehabt steigen oder zumindest keine negative Bilanz auftritt, was bei völlig abgehobenen Kosten (1k für den lahmsten Celeron etwa) unmöglich ist. Bei allem Monopol-Geschrei sollte das bedacht werden. Davon ab hat sich Intel, obwohl seit dem Core 2 die Konkurrenz nahezu nicht mehr gegeben ist, die Preis stabil gehalten und pro Segment die Leistung bei geringerem Stromverbrauch drastisch gesteigert - was durchaus um Interesse der Kunden ist. Intel als Unternehmen mit Mondpreisen und Anti-Käufer-Verhalten darzustellen, ist somit aktuell alles, aber nicht gerechtfertigt. Leichen im Keller mal außen vor - wobei so gut wie jedes Unternehmen hat, am Ende des Tages will auch AMD nur eines von uns ... Geld.

So isses. Das ist absolut hysterisches Geschrei.
Spätestens seit Core 2 ist AMD nicht mehr konkurrenzfähig. Das ist Fakt! Das hat Intel aber nicht dazu bewogen, von seiner Preisstrategie abzurücken.
Natürlich hat Intel ein gewisses "Preismonopol", aber dieses war bislang eher zum nutzen der Kunden.
Seit Jahren wendet Intel das gleiche Preisschema an und ordnet mit jeder Generation (oder auch mal zwischendrinn = die berühmten "Preissenkungsrunden") die einzelnen CPU den Standardpreisen zu.
Grundsätzlich gilt; Je je höher man hinaus will umso mehr muss man (überproportional) blechen.
Bei einer Preissenkung rutscht die betroffene CPU meist im Schema um einen Platz nach unten...

Dank diesem Schema bleiben die CPUs für den Endkunden billig. Nehmen wir mal den neuen "Ivy" Core i5-3570K.
Sind roundabout 200 € etwa zu teuer? Wisst ihr was 'ne ordentliche CPU vor 15 - 20 Jahren im Verhältnis gekostet hat?
Ein altbekanntes Prozedere. Und Intel hat den enormen Vorteil, dass hier eine ordentliche Mischkalkulation unter Einbeziehung der Erfahrungswerte möglich ist.
Besonders pervers - 250 - 500 € geben einige problemlos für 'ne Grafikkarte aus. Die CPU sollte aber maximal 50 € kosten und beim Aldi erhältlich sein...

Intel macht seine Sache - seit einigen Jahren - verdammt gut.
Es gibt überhaupt keinen Grund den Teufel an die Wand zu Malen weil AMD die Puste ausgegangen ist.
Rumheulen könnt ihr gerne, wenn Intel tatsächlich die Preise drastisch anzieht...
Das wird allerdings nicht passieren. Intel ruiniert sich nicht sein eigenes Standig.

Große Preissenkungsrunden werden werden wir allerdings immer weniger erleben. Intel kann nicht noch weiter runter, ansonsten ist AMD platt.
Und das liegt absolut nicht im Interesse von Intel. Intel braucht AMD unbedingt (und sei es nur in seinem Siechtum) als Feigenblatt für die eigenen Aktivitäten war. AMD darf nicht sterben.
Im Zweifel würde Intel lebensrettende Sofortmaßnahmen einleiten. Will sagen, je dreckiger es AMD geht, desto höher müssen auch die Preise tendenziell ausfallen.
Das hat weniger mit Monopolausnutzung zu Lasten des Kunden zu tun, als vielmehr der Aufrechterhaltung von AMD...

Heelix01
2012-08-26, 07:25:27
Dank diesem Schema bleiben die CPUs für den Endkunden billig. Nehmen wir mal den neuen "Ivy" Core i5-3570K.
Sind roundabout 200 € etwa zu teuer?
Definitiv, intel CPU sind aktuell nicht nur etwas zu teuer, 20%-25% müssten da schon die Preise fallen.

Ivy mit HT, freien Multi sollte nicht mehr als 200€ kosten, ohne HT 150€ und solche Preis hätten wir auch wenn AMD den bulli nicht vermurxt hätte.
Natürlich verlangt Intel jetzt keine total abgehobenen Preise, aber wollen sie dafür ein Keks ? Teuer ist es trotzdem.

boxleitnerb
2012-08-26, 09:06:00
Ich finde 200 Euro nicht teuer. Schau mal was die CPUs früher gekostet haben. Oder noch zu Lynnfieldzeiten. Da lag das teuerste Modell bei 500 Dollar! Heute wollen die Leute alles (fast) umsonst. Für ne Grafikkarte 300+ Euro ausgeben aber die CPU ist zu teuer. SSD kaufen, aber die CPU ist zu teuer. Mit dem Auto jeden Tag zum Bäcker fahren, aber die CPU ist zu teuer.

Versteht mich nicht falsch, wenn ich was billiger kriege ist das natürlich toll. Aber man muss es auch immer in Relation sehen.

Ronny145
2012-08-26, 10:49:24
Definitiv, intel CPU sind aktuell nicht nur etwas zu teuer, 20%-25% müssten da schon die Preise fallen.

Selbst dann wäre es immer noch zu teuer für manche. Es kann nie günstig genug sein für den ein oder anderen.


Ivy mit HT, freien Multi sollte nicht mehr als 200€ kosten, ohne HT 150€ und solche Preis hätten wir auch wenn AMD den bulli nicht vermurxt hätte.
Natürlich verlangt Intel jetzt keine total abgehobenen Preise, aber wollen sie dafür ein Keks ? Teuer ist es trotzdem.

Nach dem wünsch dir was Prinzip funktioniert das nicht. Intel hat die Preise unabhängig vom Bulldozer gestaltet. Teuer ist definitiv was anderes. Im Gegensatz zu GPUs hat eine heutige CPU einen viel längeren Mehrwert. Mit einem 4,5 Ghz Sandy Bridge aus dem letzten Jahr kann man sicher noch die nächsten Jahre ohne Neuaufrüstung gut überstehen. Bei den Grafikkarten sieht es anders aus.

Commander Keen
2012-08-26, 11:27:03
Bei den Grafikkarten sieht es anders aus.

Nein, auch hier stagniert der Markt immer mehr. Mal ehrlich: Mit einer GTX 4x0 von 2010 kann man auch heute noch super auskommen.

Ich denke hier kommen zwei Faktoren zusammen: Zum einen wird es immer schwieriger und dementsprechend zeitaufwändiger neue Fertigungsprozesse einzuführen und zweitens sind wir leistungsmäßig auf einem Level angekommen, für das es für die Normalanwender keine Software gibt.

Früher hat auch der DAU von jedem Upgrade was gemerkt, wenn du jedoch heute jemandem, der ein sauber eingerichtetes und laufendes Office-System mit bspw. einem Athlon 64 X2 gegen einen Ivy ersetzt, dann merkt derjenige das doch nicht einmal.

=Floi=
2012-08-26, 11:28:32
es gibt ja noch den sockel 2011 und dort sind die cpus schon teuer.

die preise sind auch deswegen höher, weil der euro zum dollar jetzt schwächer ist. das sollte man nicht vergessen

Twodee
2012-08-26, 11:48:00
Ich finde 200 Euro nicht teuer. Schau mal was die CPUs früher gekostet haben. Oder noch zu Lynnfieldzeiten. Da lag das teuerste Modell bei 500 Dollar! Heute wollen die Leute alles (fast) umsonst. Für ne Grafikkarte 300+ Euro ausgeben aber die CPU ist zu teuer. SSD kaufen, aber die CPU ist zu teuer. Mit dem Auto jeden Tag zum Bäcker fahren, aber die CPU ist zu teuer.

Versteht mich nicht falsch, wenn ich was billiger kriege ist das natürlich toll. Aber man muss es auch immer in Relation sehen.
Als AMD mit dem K8 und K8-X2 am drücker war, kostete ein AMD X2-3800+ knappe 400€! Das Spitzen-FX-Model gabs für 999€ Aber hey das war völlig ok.;D
Und heute wird gejammert wenn eine Spitzen CPU! (das war der X2 3800+ nicht, da kleinster DualCore) ~200€ kostet. :eek:

Ich pers. hab kein Problem damit, 500€ für eine CPU auszugeben. Mit dem I7 3930K bin ich sehr zu frieden und werde auch in Zukunft in dem Bereich bleiben.

Ronny145
2012-08-26, 11:48:28
Nein, auch hier stagniert der Markt immer mehr. Mal ehrlich: Mit einer GTX 4x0 von 2010 kann man auch heute noch super auskommen.



Lange nicht so sehr wie bei CPUs. Mit einer GTX 460 musst du heute viele Abstriche machen müssen. Ist ja auch logisch, Spiele sind nun einmal im Regelfall zuerst GPU limitiert (ansprechende CPU vorausgesetzt).

Commander Keen
2012-08-26, 12:06:08
Lange nicht so sehr wie bei CPUs. Mit einer GTX 460 musst du heute viele Abstriche machen müssen. Ist ja auch logisch, Spiele sind nun einmal im Regelfall zuerst GPU limitiert (ansprechende CPU vorausgesetzt).

Nö? Als Abstriche bezeichne ich jetzt nicht, dass 8xMSAA+8xSGSSAA nicht flüssig läuft oder Downsampling von 7680x4320 oder sowas. Auch mit einer GTX 460 laufen 95% der Spiele mit den out-of-the-box Maximaleinstellung in FullHD immer noch flüssig. Bei den anderen 5% reicht es meistens eine bestimmte Option, wie z.B. die Schatten, von "ultra" auf "high" zu stellen um konstant flüssige FPS ohne einen merklichen Qualitätsverlust zu haben.

btw.: Ich nutze selber eine GTX460. OK, rein leistungsmäßig dürfte die sogar leicht schneller als eine 470 sein (Taktung 850/1100), also nenn mir bitte die vielen konkreten Beispiele, wo ich Abstriche machen muß? Mir sind da nämlich bisher komischerweise noch keine Games untergekommen, wo ich gesagt hätte "das spiel ich erst, wenn ich eine neue Graka habe".

L.ED
2012-08-26, 12:20:40
Und heute wird gejammert wenn eine Spitzen CPU! (das war der X2 3800+ nicht, da kleinster DualCore) ~200€ kostet. :eek:

Das war wohl übers Ziel hinaus .. für um 200Euro bekommt man zumindest bei Intel keine CPU die der Definition Spitze würdig! Was ja auch eben eine Definitionsfrage, aber Funktionsbeschnittene 4kerner mit vielleicht noch HT sind alles, aber eben nicht Spitze.

Ronny145
2012-08-26, 12:33:01
Nö? Als Abstriche bezeichne ich jetzt nicht, dass 8xMSAA+8xSGSSAA nicht flüssig läuft oder Downsampling von 7680x4320 oder sowas. Auch mit einer GTX 460 laufen 95% der Spiele mit den out-of-the-box Maximaleinstellung in FullHD immer noch flüssig. Bei den anderen 5% reicht es meistens eine bestimmte Option, wie z.B. die Schatten, von "ultra" auf "high" zu stellen um konstant flüssige FPS ohne einen merklichen Qualitätsverlust zu haben.



Flüssig heißt dann häufig 30 fps oder weniger. Es gibt unzählige Beispiele an Spielen. Mit Grafikoptionen minimieren fängt es schon an. Ich gehe gar nicht von SGSSAA oder Downsampling aus, 1080p 4xAA reicht vollkommen.

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660-ti/23/
http://www.pcgameshardware.de/aid,867466/Alan-Wake-PC-14-AMD-und-Nvidia-Grafikkarten-im-Benchmark-Test-Test-des-Tages/Action-Spiel/Test/
http://www.pcgameshardware.de/aid,908710/Skyrim-im-Test-mit-Mods/Rollenspiel-Adventure/Test/


Es ist jetzt schon Fakt, dass Sandy Bridge Quadcores (im Prinzip CPUs im Allgemeinen) weitaus länger spielbare FPS in maximalen Einstellungen ermöglichen als GPUs und folglich die CPU Haltbarkeit deutlich länger liegt. Wer sich letztes Jahr einen 2500k für 180€ gekauft hat (und den im Bedarfsfall übertaktet), dürfte über Jahre hinaus problemlos auskommen. Mit GPUs müsste man über die Zeit immer größere Abstriche hinnehmen. Deswegen macht es normal zuerst Sinn, die GPU aufzurüsten anstatt der CPU.

grobi
2012-08-26, 12:48:54
Es ist jetzt schon Fakt, dass Sandy Bridge Quadcores (im Prinzip CPUs im Allgemeinen) weitaus länger spielbare FPS in maximalen Einstellungen ermöglichen als GPUs und folglich die CPU Haltbarkeit deutlich länger liegt. Wer sich letztes Jahr einen 2500k für 180€ gekauft hat (und den im Bedarfsfall übertaktet), dürfte über Jahre hinaus problemlos auskommen. Mit GPUs müsste man über die Zeit immer größere Abstriche hinnehmen. Deswegen macht es normal zuerst Sinn, die GPU aufzurüsten anstatt der CPU.


Das sehe ich auch so. Ich besitze einen Core i7 920 und bin noch lange nicht gewillt diesen zu ersetzen.

mfg grobi

Twodee
2012-08-26, 13:17:54
Das war wohl übers Ziel hinaus .. für um 200Euro bekommt man zumindest bei Intel keine CPU die der Definition Spitze würdig! Was ja auch eben eine Definitionsfrage, aber Funktionsbeschnittene 4kerner mit vielleicht noch HT sind alles, aber eben nicht Spitze.
'Nun du erhälst eine CPU die AMDs Top FX bei halben Verbrauch schlägt. Wenn das nicht Spitze ist, was sind dann AMDs CPUs?

aufkrawall
2012-08-26, 13:37:28
Ich finde 200 Euro nicht teuer.
Wegen der höheren Ausbeute bei 22nm Wafern und der fehlenden Verlötung des Heatspreaders finde ich die 20€ Aufpreis zum 2500k nicht gerechtfertigt.
Müsste eher 20€ billiger sein.

Ronny145
2012-08-26, 13:50:15
Wegen der höheren Ausbeute bei 22nm Wafern und der fehlenden Verlötung des Heatspreaders finde ich die 20€ Aufpreis zum 2500k nicht gerechtfertigt.
Müsste eher 20€ billiger sein.


Die deutlich höheren Entwicklungskosten werden unterschlagen, die steigen immer mehr. Bei den GPUs ist die Auswirkung deutlich spürbarer. Inwiefern WLP günstiger kommt als Verlötung, müsstest Du erstmal belegen.

aufkrawall
2012-08-26, 14:04:19
Die deutlich höheren Entwicklungskosten werden unterschlagen, die steigen immer mehr. Bei den GPUs ist die Auswirkung deutlich spürbarer.

Dieses Argument ist mir in den Diskussionen um GPU-Preise eher nicht so aufgefallen.
Eigentlich war eher der Tenor, dass die 28nm Produktion von TSMC nicht hinterher kommt.
Und Intel haben mit ihrer eigenen 22nm Produktion ja keine Engpässe.
Gibts für deine Behauptung von wegen der Entwicklungskosten Quellen?
Intel nagt btw. auch nicht gerade am Hungertuch und die Entwicklungskosten sollten bei deren Absätzen schnell wieder eingespielt sein.
Außerdem sind die Entwicklungskosten wohl kaum so hoch, als dass sie durch deutlich höhere Ausbeute (durch deutlich kleinere Die-Size) nicht wieder kompensiert werden könnten.
Edit: Ok, alles auf 22nm umzustellen war sicherlich erstmal teuer. Trotzdem würde Intel mit SNB-Preisen sicherlich noch ordentlich Kohle machen.


Inwiefern WLP günstiger kommt als Verlötung, müsstest Du erstmal belegen.
Denk mal nach: Wieso sollte man darauf verzichten, wenn die OC-Eigenschaften damit teilweise schlechter ausfallen als beim Vorgänger?
So wechseln weniger Leute von SNB nach IVB.
Macht das für Intel Sinn? Nein. Zumindest nicht, wenn die Fertigungskosten nicht geringer wären.

Die Diskusion passt aber excellent in diesen Thread:
Nach der Bulldozer-Pleite konnte man nicht einfach die SNBs deutlich teurer machen, sonst hätte bis IVB ja niemand mehr gekauft.
Diese Preiserhöhung hat man halt mit IVB nachgeholt und weil AMD so schlecht sind, konnte Intel auch gleich noch beim Heatspreader sparen.

Commander Keen
2012-08-26, 14:12:12
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660-ti/23/
http://www.pcgameshardware.de/aid,867466/Alan-Wake-PC-14-AMD-und-Nvidia-Grafikkarten-im-Benchmark-Test-Test-des-Tages/Action-Spiel/Test/
http://www.pcgameshardware.de/aid,908710/Skyrim-im-Test-mit-Mods/Rollenspiel-Adventure/Test/

Danke, damit hast du, zumindest in den beiden Games, die ich selbst habe, mich bestätigt.

Risen2: Schatten eine Stufe runter stellen und das Game läuft Sahne, selbst mit AA.

Skyrim: Ja mei, wer mit 8xMSAA spielt, braucht sich über Performance-Einbussen auch nicht zu beschweren. Ich weiß jetzt gar nicht, was ich da für Settings am laufen habe, aber afair ist alles auf max + Texture-Pack und es läuft super.

Ansonsten gebe ich dir Recht, dass die CPU's im Vergleich haltbarer geworden sind. Dennoch tritt der Effekt bei Grafikkarten auch auf, wenn auch natürlich nicht ganz so stark.

L.ED
2012-08-26, 21:08:10
'Nun du erhälst eine CPU die AMDs Top FX bei halben Verbrauch schlägt. Wenn das nicht Spitze ist, was sind dann AMDs CPUs?

Ob besagte das immer und umfänglich tun (einschließlich massiveren Multitasking Szenarios), wurde bisher nie erörtert oder Umfassend belegt!

Es gibt auch Leute die abseits von Spielen noch andere Ansprüche an ein @Home Computer von heute stellen möchten. Manches davon darf dann auch ruhig und gerne gleichzeitig abgespielt werden können! ^^

Twodee
2012-08-26, 21:36:20
Ob besagte das immer und umfänglich tun (einschließlich massiveren Multitasking Szenarios), wurde bisher nie erörtert oder Umfassend belegt!

Es gibt auch Leute die abseits von Spielen noch andere Ansprüche an ein @Home Computer von heute stellen möchten. Manches davon darf dann auch ruhig und gerne gleichzeitig abgespielt werden können! ^^
Auch abseits von Spielen liegt auch schon ein alter I5 im Schnitt (Applikationen (multi-threaded)) vor dem FX.
http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index62.php

L.ED
2012-08-26, 22:03:03
Ja und das bitte noch einmal, Applikationen mit laufenden Spielen gleichzeitig! Muss man das immer echt extra und explizit erwähnen WAS eigentlich gemeint ist? Man hat so das Gefühl das manche (einschließlich insbesondere auch Presse), mit Vorsatz und bewusst gewisses erst gar nicht zur Messlatte hinzu lassen möchten.

Twodee
2012-08-26, 22:10:17
:D - immer das gleiche mit dir. ich war ja schon mal so frei und habe dir multitasking-benchmarks (also mehrere Programme zu gleichen zeit) geliefert, wo der der FX überdeutlich verloren hatte. und jetzt glaubst du, das in games wo der FX eine niete ist, und in programmen, wo der I5 ihm im Schnitt gleichtut, der FX auf einmal mithalten kann? Wie wäre es, wenn DU dir mal die Mühe machst und uns die Benches lieferst?

btw. multitasking-benches zum Ivy I5: http://www.bit-tech.net/hardware/cpus/2012/05/01/intel-core-i5-3570k-cpu-review/5

edit.: Und ganz frisch: Skyrim+h264 encoding: http://techreport.com/articles.x/23246/7

*nein verdammt, jetzt mache ich schon wieder deine arbeit*

L.ED
2012-08-26, 22:45:47
Wenn das die waren an welche mich erinnere (wo nur halbherzig), so hatte das wenig Aussagekraft, wie überhaupt da der Test im speziellen (an dem erinnere). Ist eh schon bezeichnend das man sich nur an einen erinnern kann und das vermutlich nur eben weil er hier gelinkt wurde, da ansonsten nichts in diese Richtung so wirklich seitens Medien.

Zugestanden, diese Szenarios sind schwer aufzubereiten für Aussagekräftige Test (wie das verlinkte deutlich zeigt ^^), aber dennoch sollte man nicht Bräsig in den ,,alles was man nicht richtig Testen kann, existiert auch nicht'', Modus/Glauben verfallen!

Man kann nicht einfach von einem (Einzeltest nebst ideal Bedingungen), Überschlagen auf das andere! Da jeweils schnell und ganz andere Anforderungen an eine Architektur und System dann gestellt.

Und ehrlich gesagt bekommt so was für mich persönlich (noch einmal und auch auf den Link bezogen), erst ernsthafteren Aussagegehalt wenn auch Deutschsprachige Medien (und damit ist nicht Computerbild gemeint ^^), mit solchem dann um die Ecke kämen. Aber die klemmen sich das gleich weil se Wissen wie schwer es eigentlich solches seriös aufzubereiten (mit echten Praxisbezug)! ^^

Ronny145
2012-08-26, 22:57:58
Dieses Argument ist mir in den Diskussionen um GPU-Preise eher nicht so aufgefallen.

Also mir schon. Die immer weiter steigenden Kosten für die Umstellung auf einen kleineren Prozess wurden häufiger genannt.

Eigentlich war eher der Tenor, dass die 28nm Produktion von TSMC nicht hinterher kommt.

Das spielt auch eine Rolle.


Und Intel haben mit ihrer eigenen 22nm Produktion ja keine Engpässe.

Prioritäten wird es trotzdem geben. Ansonsten wären die billigeren CPUs (Desktop i3, Pentium, Celeron) wohl schon erhältlich.


Gibts für deine Behauptung von wegen der Entwicklungskosten Quellen?

Stand in einer Intel pdf.


Denk mal nach: Wieso sollte man darauf verzichten, wenn die OC-Eigenschaften damit teilweise schlechter ausfallen als beim Vorgänger?
So wechseln weniger Leute von SNB nach IVB.

Über Vor und Nachteile müsste man jemand fragen, der davon was versteht. Ein Wechsel von SNB auf IVB macht so oder so nicht wirklich Sinn. Es hat ja auch gezeigt, dass trotz besserer WLP und geringerer Temperatur das Übertaktungspotenzial quasi nicht gestiegen ist.


Diese Preiserhöhung hat man halt mit IVB nachgeholt und weil AMD so schlecht sind, konnte Intel auch gleich noch beim Heatspreader sparen.

Von einer Preiserhöhung möchte ich gar nicht reden. Es gibt zu jeder IVB CPU ein Sandy Bridge Gegenstück zum gleichen Listenpreis. 2700k und 3770k kosten laut Liste das gleiche (würde mich echt mal interessieren, warum es trotzdem derart unterschiedliche Straßenpreise gibt).


Danke, damit hast du, zumindest in den beiden Games, die ich selbst habe, mich bestätigt.

Risen2: Schatten eine Stufe runter stellen und das Game läuft Sahne, selbst mit AA.

Skyrim: Ja mei, wer mit 8xMSAA spielt, braucht sich über Performance-Einbussen auch nicht zu beschweren. Ich weiß jetzt gar nicht, was ich da für Settings am laufen habe, aber afair ist alles auf max + Texture-Pack und es läuft super.

Ansonsten gebe ich dir Recht, dass die CPU's im Vergleich haltbarer geworden sind. Dennoch tritt der Effekt bei Grafikkarten auch auf, wenn auch natürlich nicht ganz so stark.


Ja, es ist alles mit einer GTX460 spielbar. Dem hat keiner widersprochen. Du liegst auch mit den Anpassungen überdeutlich unter dem Potenzial der Sandy Bridge CPU, weil selbst deutlich schneller GPUs im Normalfall zuerst limitieren. Die Abhängigkeit der Grafikkarte ist ab einer bestimmten CPU Leistung zu groß.

Twodee
2012-08-26, 23:15:22
Wenn das die waren an welche mich erinnere (wo nur halbherzig), so hatte das wenig Aussagekraft, wie überhaupt da der Test im speziellen (an dem erinnere). Ist eh schon bezeichnend das man sich nur an einen erinnern kann und das vermutlich nur eben weil er hier gelinkt wurde, da ansonsten nichts in diese Richtung so wirklich seitens Medien.

Zugestanden, diese Szenarios sind schwer aufzubereiten für Aussagekräftige Test (wie das verlinkte deutlich zeigt ^^), aber dennoch sollte man nicht Bräsig in den ,,alles was man nicht richtig Testen kann, existiert auch nicht'', Modus/Glauben verfallen!

Man kann nicht einfach von einem (Einzeltest nebst ideal Bedingungen), Überschlagen auf das andere! Da jeweils schnell und ganz andere Anforderungen an eine Architektur und System dann gestellt.

Und ehrlich gesagt bekommt so was für mich persönlich (noch einmal und auch auf den Link bezogen), erst ernsthafteren Aussagegehalt wenn auch Deutschsprachige Medien (und damit ist nicht Computerbild gemeint ^^), mit solchem dann um die Ecke kämen. Aber die klemmen sich das gleich weil se Wissen wie schwer es eigentlich solches seriös aufzubereiten (mit echten Praxisbezug)! ^^
Ach ja stimmt du kannst kein englisch...

aufkrawall
2012-08-27, 19:15:43
Also mir schon. Die immer weiter steigenden Kosten für die Umstellung auf einen kleineren Prozess wurden häufiger genannt.

Das war doch schon immer so?
Langfristig hilft diese Entscheidung, Gewinn zu erwirtschaften.
Da könnte Intel vorübergehend auch das Gleiche wie für die Vorgänger verlangen.


Das spielt auch eine Rolle.

Stimmt natürlich. Wenn die Konkurrenz bei der Fertigung nicht auf dem gleichen Stand ist, kann Intel sich den Vorsprung vergolden lassen. Zumindest, wenn die Produkte gut genug sind, was ja der Fall ist.


Über Vor und Nachteile müsste man jemand fragen, der davon was versteht. Ein Wechsel von SNB auf IVB macht so oder so nicht wirklich Sinn. Es hat ja auch gezeigt, dass trotz besserer WLP und geringerer Temperatur das Übertaktungspotenzial quasi nicht gestiegen ist.

Diese japanische Seite hatte doch gezeigt, dass die Temperaturen so auf SNB-Niveau gesenkt werden konnten. :confused:
Scheint mir auch irgendwie logisch, dass Metallligierungen besser Wärme leiten als nur metallhaltige Kleber/Pads.


Von einer Preiserhöhung möchte ich gar nicht reden. Es gibt zu jeder IVB CPU ein Sandy Bridge Gegenstück zum gleichen Listenpreis. 2700k und 3770k kosten laut Liste das gleiche (würde mich echt mal interessieren, warum es trotzdem derart unterschiedliche Straßenpreise gibt).

Der i5 3570k kostet defakto 20€ mehr als es der 2500k getan hat.

Ronny145
2012-08-27, 21:08:33
Das war doch schon immer so?


Nicht in dem Ausmaß. Erstens werden die Laufzeiten immer länger und zweitens steigen die Kosten in einem höheren Grad. Die 28nm Fertigung von TSMC ist ein gutes Beispiel. Wir können davon ausgehen, dass die Wafer Preise gestiegen sind und (neben der Ausbeute) zu dem unbefriedigenden 28nm Einstieg geführt haben. Intel kann das natürlich besser abfedern, das sie die Fertigung weltweit am besten im Griff haben und die meisten Gelder in die Hand nehmen können.

Stimmt natürlich. Wenn die Konkurrenz bei der Fertigung nicht auf dem gleichen Stand ist, kann Intel sich den Vorsprung vergolden lassen.

Das hat nur sekundär mit der Fertigung zu tun. Vergolden kann sich derjenige etwas, der in der richtigen Position dafür ist. Nehmen wir AMD und Nvidia, beide sind auf den gleichen 28nm Prozess von TSMC angewiesen und trotzdem kann es sich Nvidia erlauben, ihre Karten vergolden zu lassen. Meist liegts an der Performance (vor allem bei CPUs), in dem Fall wären anderen Faktoren ausschlaggebend. Die Pluspunkte von Nvidia kennst Du, muss ich dir nicht aufzählen.


Diese japanische Seite hatte doch gezeigt, dass die Temperaturen so auf SNB-Niveau gesenkt werden konnten. :confused:

Du meinst die Seite mit den 20 Grad Differenz? Bei denen muss aber auch was schief gegangen sein. Eine 1:1 Vergleich fand auch nicht statt, der unabdingbar gewesen wäre. Bei SB gehts schlecht zum nachstellen.


Der i5 3570k kostet defakto 20€ mehr als es der 2500k getan hat.

Defakto gibt es keine Preiserhöhung seitens Intel. Für das gleich getaktete Gegenstück verlangt Intel den gleichen Preis und bekommst eine iGPU umsonst dazu, im Endeffekt ist der Preis gesunken. Hier müsstest Du differenzieren. Wie gesagt, warum die Straßenpreis so geworden sind, würde mich selber interessieren. Nach der Preisliste müssten 3770k und 2700k das gleiche kosten.