PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD scheint alle echten Weiterentwicklungen der FX-Prozessoren ...


Leonidas
2013-12-27, 17:09:08
Link zur News:
http://www.3dcenter.org/news/amd-scheint-alle-echten-weiterentwicklungen-der-fx-prozessoren-eingestellt-zu-haben

Buchbichler
2013-12-27, 17:47:01
Mir scheint es manchmal so, das AMD die Entwicklung der FX Serie bereits 2010 eingestellt hat, und dann notgedrungen 2011 den unfertigen Bulldozer brachte. Mit Piledriver hat sich die Lage zwar Minimal aufgehellt, aber was sind schon 10 % Wirtschaftswachtum in Simbabwe.
Bei den letzten Restrukturierungen (Entlassungswellen) wurde anscheinend eine Großteil der Entwicklungsabteilung auf die Straße gesetzt, und man zieht sich zum sterben unters Bett zurück.

Man konzentriert sich jetzt auf das uninteressante Billigsegment, wo um jeden Euro gekämpft wird, und nur mit riesen Stückzahlen überhaupt nennenswerter Gewinn abfällt. Die Verträge für die PS4/XBOX bringen zwar viel Marktanteil auf dem Papier, aber viel Gewinn bleibt da sicher nicht übrig. Und im Mainstream PC Segment werden sie in den nächsten paar Jahren von den Tablet APU`s von unten zerquetscht.
Oben auf der Premium-Pyramiede sitzt Intel, und kann bei minimaler weiterentwicklung maximalen Gewinn machen. Im gesamten Perfomance, High-End und Serverbereich ist Intel doch jetzt schon ein Monopolist.

Was der PC Branche fehlt ist ein neuer Spieler auf dem Feld. Ausgestattet mit genug Geld und Know-How, um Hochwertige Produkte zu Entwickeln. Leider gibt es nicht viele Kandidaten auf dem Planeten.

joepesci
2013-12-27, 18:52:04
Das ist enttäuschend. Ein Monopol kommt niemanden zugute, weder dem Kunden noch dem technischen Fortschritt.

Aber was soll man machen? Der Markt wird wohl kaum absichtlich die Produkte des unterlegenen Herstellers kaufen, nur um eine Monopolbildung zu verhindern.

foenfrisur
2013-12-27, 19:13:42
ich behaupte sogar, das es extrem dumm ist.

nicht nur, weil mehrere standbeine vorteile bieten, sondern weil intel mittelfristig in ALLEN cpu-bereichen die oberhand gewinnen wird.
da ist amd auch nur 2te oder gar dritte geige.

dafür ist intel einfach zu groß, kapitalreich und technologisch am fortschrittlichsten.

im mobile-bereich geben sie auch gerade richtig gas und das werden qualcomm etc. auch zu spüren bekommen.

mfg

StefanV
2013-12-27, 19:18:48
Tja, jetzt sieht man halt die Auswirkungen der Bestechung, die Intel zu P4 Zeiten rausgehauen hat sowie der ganzen Intel Fanboys, die trotz das AMD besser war (oder kaum schlechter), jedem 'nen Intel an die Backe geredet haben.

NUR: Jetzt ist es zu spät daran was zu ändern, der Drops ist gelutscht, AMD Kann nur versuchen irgendwie zu überleben...
Nur mit Intel mithalten ist nicht mehr. Entsprechend dürfen wir uns auf eine Situation wie zum guten alten Pentium (P54C) freuen, wo es auch keinen nennenswerten Mitbewerb gab und selbst ein kleinster Prozessor für 'nen Wucherpreis über die Theke ging...

Gast
2013-12-27, 19:22:52
1.) AMD hat schon vor ca. 1,5 Jahren den Performancekampf offiziell als beendet erklärt. Ich sehe auch nicht viel Sinn dahinter einen Krieg gegen Intel zu führen, den AMD nicht gewinnen kann. Die sollen weg gehen vom High Performance Desktop Markt und hin zum Embedded Markt, wo sie noch gut mitmischen können mit günstigen Single Chip Lösungen. Bei der XBox One bzw. PS4 ist in beiden Fällen eine AMD APU verbaut. Im Tabletbereich sehe ich auch einige Chancen, wenn AMD ein gutes Design zusammen bringt. Die ARM only Zeiten von Android werden sowieso bald vorbei sein, wenn doch etwas mehr Leistung benötigt wird. Bei den Extreme Editions sind die Produktionskosten enorm, der Absatz extrem gering und der Erlös pro CPU ist auch eher bescheiden. Mit 200 Euro für einzelne selektierte Topmodelle kommt man nicht weit.

2.) Intel hat schon seit dem Core 2 Duo faktisch das Monopol in der High End Desktop Klasse, spätestens seit Sandy Bridge und ich muss sagen so günstig jetzt hat es noch nie schnelle CPUs gegeben. Für den Büroeinsatz ohne Quad Core Optimierung gibt es hochgetaktete Dual Core CPUs mit SMT um die 100 Euro und 300 Euro bekommt man das Topmodell, wenn man von den Hexa Core Editions absieht, aber 12 virtuelle Kerne kann man sowieso nur mit sehr wenigen Anwendungen wirklich auslasten.

3.) Intel ist sich momentan selbst die größte Konkurrenz, da sie eine Leistungssteigerung zum Vorgängermodell bieten müssen, um die Leute zum Aufrüsten zu bewegen. Ich glaube nicht, dass der Tablet Boom der PC Branche wirklich ernsthaft geschadet hat. Ich glaube es ist eher die mangelnde Leistungssteigerung. Heute kommt man für 0815 Tätigkeiten auch mit 6-7 Jahre alten Rechnern noch ganz gut über die Runden, während früher ein PC schon nach 3 Jahr uralt war. Mit 3 Jahre alter Core i7 2600K ist gerade einmal 20% hinter einem aktuellen Core i7 4770K.

Lokadamus
2013-12-27, 20:46:39
Das größte Problem, was AMD hat, ist die Verkleinerung der Strukturen. AMD bastelt zur Zeit 32nm CPUs und will nächstes Jahr 28nm raushauen. Intel ist momentan bei 22nm und will 14nm raushauen.
Das ist die Hälfte, da kann AMD von der Seite schon nicht mehr mithalten.
Der Stromverbrauch ist einfach zu hoch. AMDs Centurion ist momentan bei 220Watt unter Volllast. Da kauf ich mir lieber eine schwächere CPU und hab so ausreichend Leistung.

Berserkus
2013-12-27, 20:48:16
Ich kann mir nicht vorstellen das AMD so dumm sein wird, ausserdem würde das dem hier auch noch wiedersprechen:
http://www.computerbase.de/news/2013-04/amd-bestaetigt-steamroller-architektur-fuer-dieses-jahr/

samm
2013-12-27, 20:58:26
Verstehe nicht, weshalb sie Steamroller und Excavator nicht mehr in 8+ Cores bringen wollen. Wäre das wirklich ein so grosser Entwicklungsaufwand im Vergleich mit den APUs? Intuitiv würde ich sowas doch sogar als einfacher zu entwickeln einschätzen als die Integration mit den GCN-Kernen... Da sie letzteres schon haben müsste ersteres doch bequem als Nebenprodukt anfallen.

Knuddelbearli
2013-12-27, 21:21:40
nicht nur, weil mehrere standbeine vorteile bieten, sondern weil intel mittelfristig in ALLEN cpu-bereichen die oberhand gewinnen wird.
da ist amd auch nur 2te oder gar dritte geige.

dafür ist intel einfach zu groß, kapitalreich und technologisch am fortschrittlichsten.




genau dieses Argument spricht FÜR!!! den Rückzug.

Anstatt überall ein wenig Kohle zu verbrauchen lieber aus nem Markt zurückziehen um wo anders mehr Investieren zu können.

Wobei ich mir wie Leonidas nicht vorstellen kann das es so teuer ist eine extra FX Aböeger von Kaveri zu machen. Soweit Fortgeschritten sie die GPU Integration ja noch lange nicht.

Raff
2013-12-27, 21:40:46
Das größte Problem, was AMD hat, ist die Verkleinerung der Strukturen. AMD bastelt zur Zeit 32nm CPUs und will nächstes Jahr 28nm raushauen. Intel ist momentan bei 22nm und will 14nm raushauen.
Das ist die Hälfte, da kann AMD von der Seite schon nicht mehr mithalten.
Der Stromverbrauch ist einfach zu hoch. AMDs Centurion ist momentan bei 220Watt unter Volllast. Da kauf ich mir lieber eine schwächere CPU und hab so ausreichend Leistung.

Intels Fertigung wird nicht umsonst ehrfürchtig-spöttisch als "alien (process) technology" bezeichnet. Hört auf Jerry Sanders, welcher als AMD-CEO einst sagte, dass echte Männer Fabriken haben ... AMD braucht nur eine Fertigungslizenz bei Intel, dann können sie wieder aufholen, unterstützen damit aber Goliath und unterm Strich kommt wieder kein Gewinn heraus. :ugly:

MfG,
Raff

Knuddelbearli
2013-12-27, 21:42:05
Intel hat sicher einen Transformer in ihren Forschungslabor!

Käsetoast
2013-12-27, 22:25:44
Das ist extrem bitter. Ich meine es ist gut und schön wenn man sich mit Intel kein Rennen um die Performancekrone mehr liefern will, aber gleich völlig aufgeben? Ich meine es ist doch nicht so, dass man die Entwicklung komplett einmottet - an den CPUs selber wird ja immer noch gearbeitet und deshalb kann ich nicht ganz nachvollziehen, warum AMD keine 4 Modul Prozessoren mehr anbieten will. Normalerweise sollte doch der Kunde Einfluss haben was gebraucht wird und wie richtig dargestellt wurde ist eine Server-CPU mit dicker GPU halt eher Murks - zumindest derzeit. Es sollte doch keine Hexerei sein anstatt zwei nun vier Module zu verbauen - die Entwicklung der neuen Architekturen findet ja sowieso statt...

Warum AMD das nun nicht mehr machen will ist mir ein Rätsel. Sind die Verkäufe da denn wirklich so abgrundtief schlecht das man die Kosten nicht mehr reinholen würde? Falls ja wäre auch AMDs weitere Existenz an sich zweifelhaft, denn der einzige Strohhalm in dem Segment was man nun primär anpeilt ist ja die gute GPU - beim Rest ist man ja nun nicht gerade überragend. Inzwischen ist leider auch Intel auf einem Niveau angekommen wo ihre Grafiklösung ganz passabel ist. Da wird mehr Leistung auch nur punktuell gebraucht werden. Das war früher noch anders wo die iGPUs (auf den Mainboards) lächerlich schwach waren und nichtmal für die Win7 Aero Oberfläche reichten und man vorher in Listen nachsehen musste, ob ein Spiel auf einer Intel GPU überhaupt anläuft. Heute sind Intels Treiber ganz passabel und von der Leistungsfähigkeit her wurden auch passable Sprünge gemacht, auch wenn AMD durch den ATI Kauf und die frühe APU Orientierung hier die Nase vorne hat. Für Standard 0815 Rechner ist Intels Lösung inzwischen aber auch mehr als ausreichend. AMD mag zwar auf ihren Konferenzen zeigen wie toll Battlefield 4 auf ihren Dingern läuft, aber das ist doch überhaupt nicht die Zielgruppe der Dinger - wer BF4 spielen will wird eine eigenständige Grafikkarte haben. Da ist es zwar nett eine APU mit so einer Grafikleistung zu haben, aber ehrlich gesagt hätte ich lieber eine APU mit 2 Modulen mehr anstatt noch weiter gepimpter Grafikleistung...

Lokadamus
2013-12-27, 22:33:46
Ich kann mir nicht vorstellen das AMD so dumm sein wird, ausserdem würde das dem hier auch noch wiedersprechen:
http://www.computerbase.de/news/2013-04/amd-bestaetigt-steamroller-architektur-fuer-dieses-jahr/Kaverie wird in 28nm gefertigt. Kannst sie jetzt kaufen? Ich glaube nicht.Intels Fertigung wird nicht umsonst ehrfürchtig-spöttisch als "alien (process) technology" bezeichnet.Tick, Tock, Tick, Tock ...
http://en.wikipedia.org/wiki/Intel_Tick-Tock
2016 ... 10nm ...
2018 ... 7nm ... <-- das wird sich um min. 1 Jahr verschieben
2020 ... 5nm ... <-- das wird nichts, eher 2023 :|

Momentan gibt es für Intel nur Konkurrenz in Form von ARM und die werden sie durch die Verkleinerung los. Alternativ basteln sie eine neue CPU- Art und machen ARM so platt.

Schrotti
2013-12-27, 22:34:22
Tja, jetzt sieht man halt die Auswirkungen der Bestechung, die Intel zu P4 Zeiten rausgehauen hat sowie der ganzen Intel Fanboys, die trotz das AMD besser war (oder kaum schlechter), jedem 'nen Intel an die Backe geredet haben.

NUR: Jetzt ist es zu spät daran was zu ändern, der Drops ist gelutscht, AMD Kann nur versuchen irgendwie zu überleben...
Nur mit Intel mithalten ist nicht mehr. Entsprechend dürfen wir uns auf eine Situation wie zum guten alten Pentium (P54C) freuen, wo es auch keinen nennenswerten Mitbewerb gab und selbst ein kleinster Prozessor für 'nen Wucherpreis über die Theke ging...

Jetzt kommt das wieder.

AMD hatte mit dem Athlon einen Super Prozessor und Intel mit dem Pentium 4 eine Totgeburt (darum wurde der auch eingestampft).

Warum nicht einfach mal bei 0 anfangen und was neues Designen? Nöööö lieber aufgeben und die CPU Sparte komplett gegen die Wand fahren.

-=Popeye=-
2013-12-27, 23:04:41
Ich kann das geheule einiger hier überhaupt nicht verstehen, ratet mal warum AMD Mantle ins Leben ruft.

Lokadamus
2013-12-27, 23:07:31
Ich kann das geheule einiger hier überhaupt nicht verstehen, ratet mal warum AMD Mantle ins Leben ruft.:| Damit sie ihre Inkompetenz unter Beweis stellen können? Siehe Battlefield 4 - Mantle Thread, kommt nächste Woche, na gut, erst im Februar ...

Gast
2013-12-27, 23:09:27
Intel deckt ja nicht nur high-end ab, sowohl vom Preis als auch Performance geht es von Handy 15Euro CPUs bis Xeon Phi 61 Core 5000Euro CPUs. Vielleicht ist es romantisch wenn AMD eine 10% leistungsgesteigerte CPU bringt, aber wer das kaufen will, der kann auch eine 5Jahre alte Core2Duo Intel cpu zum vergleichbaren Schleuderpreis ersteigern. (Nur macht Intel dabei noch Gewinn, AMD jedes Jahr Verlust).

Tut mir leid, aber wirtschaftlich, ökonomisch und marketingtechnisch macht es absolut Sinn, wenn AMD nur auf APUs-only setzt. Schon der Konsolendeal hat von seitens MS und Sony gesagt, dass es zu AMD keine Alternative gab. Natürlich ist AMD quasi early-adopter was den Heterogenous-Server Markt angeht, aber mit den APUs ist das ein usp was niemand sonst bieten kann.

Und es ist relativ egal, dass NVidia CUDA auf dedizierten Karten und Intel relativ viel CPU power bietet. Es gibt viele Dinge die sehr viel Rechenleistung bei kurzer Latenz verlangen und da sticht AMD beide aus. Und wenn der Markt nur 10% vom ganzen Kuchen ist, noch ist AMD ganz allein und hat dann 100% Abdeckung.


Was die GPU generation angeht, da besteht leider kein Grund eine neue Generation zu verbauen. Nichtmal mehr Rechenleistung lohnt sich (wie an den neuen APUs zu sehen ist), da alles leider Speicherlimitiert ist. Viel mehr als CPU oder GPU Design zu optimieren, muss AMD das Memory Problem lösen. Mit 50% mehr Speichertakt bringen die ersten APUs noch 50% mehr Rechenleistung in Benchmarks. Ein quad-channel Controller, mehr cache, vielleicht EDRam, und die Transistoren sind effizienter investiert als jetzt 50% mehr brachliegende GFlops zu verspachteln.

fdk
2013-12-27, 23:19:02
Um die CPU- Anforderungen zu drücken. Wenn man gleichzeitig die obere Hälfte seines CPU-Portfolios auf Eis legt ist damit natürlich auch nichts gewonnen. Im Endeffekt hat man dann eine Midrange-APU, die mit Mantle "good enough" ist. Beim Großteil der Titel, die weiterhin auf directX setzt hat man eben Pech.

Mal sehen was GloFo nächstes Jahr von AMD fürs Nichtstun bekommt.

-=Popeye=-
2013-12-27, 23:29:42
:| Damit sie ihre Inkompetenz unter Beweis stellen können? Siehe Battlefield 4 - Mantle Thread, kommt nächste Woche, na gut, erst im Februar ...

Nein... eher um ihre eigenen CPUs zu pushen, im GPU Bereich sind sie ja durchaus konkurrenzfähig und stellenweise besser (iGPU).

OBrian
2013-12-27, 23:33:38
Bzgl. der GPU bleibt AMD extra bei der Architektur, weil so die Programmierung dafür einfacher, verläßlicher und damit attraktiver wird. Die HSAIL müßte an eine geänderte Architektur angepaßt werden, das wollen sie sicher nicht alle nasenlang machen. An GCN gibt es ja auch wirklich nichts auszusetzen.

Und die Deutung "performanceorientierte CPUs sollen nicht mehr gebaut werden" muß auch nicht unbedingt stimmen. Klar, 8-Kerner gibt es vielleicht nicht mehr, aber ernsthaft, wer hat denn 8-Kerner bisher auslasten können? Auch Intel verkauft die i7 mit HT nicht in rauhen Massen, erst recht nicht die E-Modelle mit mehr als vier Kernen. Wenn Spieler über einen i5 ohne HT, aber dafür mit ausreichend Takt sehr glücklich sind, wieso sollten die "fehlenden" vier Kerne bei AMD einen Nachteil darstellen? Wichtig ist, daß die ersten paar Kerne ordentliche Leistung haben; aktuell hat AMD 8 Kerne, die alle Mist sind, damit kann kaum ein Spiel was anfangen.

Ich denke, wenn Kaveri eine deutliche Steigerung der Leistung pro Kern mitbringt (ob über Takt oder IPC ist ja letztlich egal), werden die meisten Leute darüber froher sein als sie betrübt über den Verlust von Kern 5-8 sind.

Lokadamus
2013-12-27, 23:43:23
Nein... eher um ihre eigenen CPUs zu pushen, im GPU Bereich sind sie ja durchaus konkurrenzfähig und stellenweise besser (iGPU).Ohh und was ist mit NVidia? Eine Onboard- Graka nehme ich nur mit, wenn sie momentan brauchbar ist. Aber eine dedizierte kaufe ich nur, wenn ich denke, dass sie die nächsten 2 - 3 Jahre Vorteile bringt.
Den Vorteil sehe ich bei AMD nicht.Und die Deutung "performanceorientierte CPUs sollen nicht mehr gebaut werden" muß auch nicht unbedingt stimmen.

Ich denke, wenn Kaveri eine deutliche Steigerung der Leistung pro Kern mitbringt (ob über Takt oder IPC ist ja letztlich egal), werden die meisten Leute darüber froher sein als sie betrübt über den Verlust von Kern 5-8 sind.Scheiß egal, wie viele Kerne, so lange AMD die CPUs nicht kleiner als 28nm bekommt, haben sie verloren. Am Ende entscheidet der Stromverbrauch über den Sinn der CPU.

Die Leistungsteigerung erwarte ich allerdings nicht. So gesehen bedient AMD nur noch das einfache Mittelfeld und AMD wird bei ihren 20% Marktbeherrschung (egal, welche Berechnung), rumdümpeln. So gesehen bin ich froh, dass ich keine Aktien gekauft habe. Es hätte sich vor einiger Zeit gelohnt, aber als einige hier im Forum gesagt haben, dass wir kaufen sollen, wäre es ein großer Fehler gewesen.

Buchbichler
2013-12-27, 23:48:19
Das mag ja alles sein, aber seit dem 220W Centurion für 800,- wundert mich bei AMD gar nichts mehr. Da haben auch alle gemeint, das kann doch nicht deren Ernst sein. Sebst die Fanboys haben eine Spottmeldung von Intel unterstellt, und wurden eines besseren belehrt.
Keine 2 Monate später war der Ladenhüter im Handel, und brach in kürzester Zeit um 500,- im Preis ein. Wer den damals zum Mondpreis gekauft hat, muss sich doch verarscht vorgekommen sein. Wer seine besten Privatkunden so verscheißert, und den Servermarkt abkündigt fährt doch sehenden Auges in den Dreck.

Wenn Firmen auf irgendwas angewiesen sind, ist es Produktsicherheit. Keiner kauft ein totes Pferd, und die werden jetzt ihre Warenkörbe alle auf Intel umstellen. Und nur weil AMD in 1-2 Jahren mit einer Server APU kommt, schwenken die sicher nicht zurück. Sowas wird so schnell nicht vergessen, und AMD wird kaum die Zeit haben ein paar Jahre zu warten, bis sich ihr neues Produkt wieder verkauft.

Schaffe89
2013-12-28, 01:30:33
Ganz schlechter Schritt von AMD, da vergrault AMD die letzten die regelmäßig AMD CPU´s kaufen.
Und sry, niemand kann mir erzählen dass AMD es nicht schaffen würde weiterhin konkurrenzfähige Performance CPU´s auf den Markt zu bringen.

Steamroller bietet dafür eine Basis. 8x4ghz + 10 bis 15% mehr IPC und eine solide Mehrleistung zu Vishera sind locker drinnen, alleine die popeligen Änderungen an Bulldozer brachten 10 bis 15% Mehrperformance.

AMD hat nach wie vor immer dementiert, dass keine Opteron mehr kommen und jetzt sieht es so aus, dass Warsaw lediglich ein Taktupdate ist, vielleicht nichtmal ein neues Stepping.

Marketingtechnisch ein ganz schlechter Zug. Man hätte den FM2+ zu dem neuen High End Sockel machen können, da dieser ja jetzt auch 125 Watt CPU´s unterstützt und zumindest einen FX 6Core entwickeln können, damit man etwas werben kann.

Wenn ich sehe wie wenig sich Richland im Vergleich zu Vishera bei Mindfactory verkauft, dann sehe ich in den kommenden Monaten/Jahren auch die letzte Fangemeinde schwinden, bzw. die Leute die auch ab und zu zu AMD gegriffen haben, ist ja nicht so, dass die FX Prozessoren schlecht sind für das Geld.

Nur wenn Intel dann Broadwell rausbringt und sich bei AMD nichts tut, dann kann AMD die Preise nicht noch weiter denken, der FX-8350 kostet nurnoch 160 Euro, da braucht es zumindest 5 bis 10% Mehrleistung um zumindest das aktuelle Preisniveau zu halten.

Gast
2013-12-28, 01:45:38
Meine Meinung:

Ich fände es weder bedenklich, bedauerlich und bei weitem nicht katastrophal, wenn AMD CPUs komplett aus dem Desktop-PC-Bereich verschwänden. Und das sage ich nicht, weil ich ein intel-Fanboy bin. Im Gegenteil. Derzeit bin ich selbst noch auf AMD unterwegs.
AMD hat sich einfach in die falsche Richtung entwickelt. Alle in dieser Sache wichtigen Entscheidungen wurden im Rückblick falsch getroffen. Für Visionen war und ist kein Raum mehr in einem rückwärtsgewandten Unternehmen wie AMD. Daher wird sich die Geschichte wie schon so oft wiederholen.

Wer von euch hat es ernstlich bedauert, daß sich intel und Microsoft gegen Novell, IBM, Apple, Commodore, Atari und wie sie alle heißen und hießen durchgesetzt hat?

Wer von euch vermißt schon die IBM-Cyrix Prozessoren?

Wer von euch vermißt OS/2 Warp?

Wer von euch vermißt die Firmen Philips, Grundig, Blaupunkt, Loewe,.... und all die anderen, welche allesamt den Einstieg in die LCD/TFT Fertigung verpennt haben und aus reiner Geldgier nach China geflüchtet sind?

Niemand.

AMD ist nicht besser als Chipzilla. In keinerlei Hinsicht. Nichteinmal, wenn man intel die Herstellung seiner Boards unter unmenschlichen Bedingungen bei Foxconn ankreidet.

In October 2008, AMD announced plans to spin off manufacturing operations in the form of a multibillion-dollar joint venture with Advanced Technology Investment Co., an investment company formed by the government of Abu Dhabi. The new venture is called GlobalFoundries Inc.. This partnership will allow AMD to focus solely on chip design.

http://en.wikipedia.org/wiki/Advanced_Micro_Devices

Wem gehören die ehemaligen Chip-Fabriken von AMD heute? - Diesem sympathischen islamischen Herrscher:
http://upload.wikimedia.org/wikipedia/commons/thumb/6/62/Khalifa_Bin_Zayed_Al_Nahyan.jpg/200px-Khalifa_Bin_Zayed_Al_Nahyan.jpg
http://en.wikipedia.org/wiki/Emirate_of_Abu_Dhabi

Wer ist das? - Antwort: Das ist einer der Söhne von diesem sympathischen islamischen Herrscher:

http://upload.wikimedia.org/wikipedia/commons/thumb/4/48/Zayed_bin_Al_Nahayan.jpg/220px-Zayed_bin_Al_Nahayan.jpg

"Seine Ausbildung beschränkte sich – wie in dieser Zeit und Region üblich – auf die islamischen religiösen Prinzipien" (..) Als Folge der immensen Ölexporteinnahmen galt Scheich Zayid als einer der reichsten Männer der Erde. 1991 wurde seine Verwicklung in den Skandal um die Londoner Bank of Credit and Commerce International (BCCI) bekannt. (..) Die Ursache seines Todes wurde nicht bekannt gegeben. (..) Die Radiosender stellten ihr Programm für 20 Tage auf Koranverse (..) um.

Auch die von vielen so oft zitierte Chipfabrik in Dresden gehört nicht mehr AMD, sondern dem Herrscher von Abu Dhabi:
http://www.channelpartner.de/a/amd-trennt-sich-endgueltig-vom-werk-in-dresden,2578406

Was weiß man hierzulande überhaupt aus den Staaten in den Grauzonen am Rande der zivilisierten Welt?

Hier mal ein Zitat aus einem offiziellen Ratgeber für Touristen:
"wer unehelich schwanger wird, kann in keinem Krankenhaus der VAE gebären."
http://www.hallodubai.com/benimmregeln.html

Irgendwie erinnert mich sowas an diese Nachricht:

Eine Klinik in Pforzheim hat eine Schwangere abgewiesen – mit fatalen Folgen. Die Frau war schon acht Tage über dem Geburtstermin und auf der Suche nach ärztlicher Versorgung. Doch das Krankenhaus in Pforzheim wies die 41-Jährige ab. Bei der Geburt ihres Kindes in einer anderen Klinik in Bretten starb die Frau.
http://www.rtl.de/cms/news/rtl-aktuell/pforzheim-schwangere-frau-abgewiesen-tot-bei-geburt-ihres-kindes-in-anderer-klinik-35a50-51ca-18-1743209.html

...


Mein AMD-PC stammt zum Glück noch aus der Zeit, als AMD-CPUs noch von AMD aus den USA/Deutschland waren. Heute kann ich zu dem ganzen Thema nur sagen: Ich bin nicht bereit politische Systeme indirekt zu finanzieren, welche in direktem Widerspruch zu allem was ich für richtig und gut halte stehen. Auch wenn Leute wie StefanV alles dafür tun würden, um die hohle Hülle von AMD weiter am Leben zu halten.

AMD ist (für mich jedenfalls) nicht mehr AMD. - In diesem Unternehmen stimmt (aus meiner Sicht) nichts mehr. Nehmt es mir daher bitte nicht übel, wenn ich hier keine Krokodilstränen vergieße und in das allgemeine Gejammer und oberlehrerhafte intel-Bashing mit einstimme.

Warum hat man sich übrigens seinerzeit von den Fabriken getrennt? - Jetzt kommt's nochmal für diejenigen, denen die Ironie oben entgangen ist:

'This partnership will allow AMD to focus solely on chip design.'

Ohne Worte.

Ich bitte um eine Schweigeminute, um das obige Zitat aus 2008 nochmal zur vollen geschmacklichen Entfaltung kommen zu lassen. Besonders vor dem Hintergrund, den wir heute haben.

. . . . . .

Danke.

Elkinator
2013-12-28, 05:46:22
Warum nicht einfach mal bei 0 anfangen und was neues Designen? Nöööö lieber aufgeben und die CPU Sparte komplett gegen die Wand fahren.
und wieder so ein forenexperte...
du hast nicht die geringste ahnung wie lange es von der entwicklung bis zum fertigen produkt dauert!

und ausserdem können sich roadmaps auch ändern, es kommt da drauf an ob GF bis dahin einen geeigneten prozess liefern kann.
muß ja nicht sein das sie mit jedem prozess diese probleme wie mit 32nm pd-SOI haben werden.

eine APU mit 3 modulen ist schnell nachgeliefert, wenn es dafür einen markt gibt und es sich auszahlen würde.
ob man die dann FX nennt ist mir jedenfalls scheißegal, ein name ändert nix am produkt.

runningduck
2013-12-28, 08:15:43
ich möchte hier auf 'StarSwarm-Techdemo von Oxide Games' (http://www.planet3dnow.de/cms/6716-apu13-video-mantle-techdemo-praesentation-von-oxide-games/) hinweisen. in der presentation werden etliche interessante dinge angesprochen.
zusammengefasst scheint sich die auslastung der gpu/cpu mit mantel stark zu verändern. im video wird gesagt das der fx 8350 auf 2gh runter getaktet werden kann und trotzdem limitiert die grafikkarte.

wie stark wird dadurch das kräfteverhältnis der cpu's, von amd/intel, am ende verändern.
die neuen konsolen werden auf ihre art dazu beitragen.

anwendungssoftware wird sich auch immer stäker in richtung mehrkern nutzung entwickeln cpu/gpu/igpu.(intel scheint das auch so zu sehen. sie stecken viel arbeit und chipfläche in ihre igpu's)

es ist nur eine frage der zeit/anwendung wann die amd apu's die reinen cpu's überflügeln.

Elkinator
2013-12-28, 08:26:55
in zukunft wird wohl CPU udn GPU eh noch mehr verschmelzen.
HSAIL wird zumindest im servermarkt schnell angenommen werden, das ist ja nicht nur eine AMD geschichte, sondern da ist auch ARM dabei.

die leute glauben halt noch immer das eine GPU nur für grafik zuständig ist, in der vergangenheit leben ist doch etwas schönes^^

Hochsprachenunterstützung für GPU-Compute (Java, C++, etc.)
http://www.planet3dnow.de/cms/1291-amd-prasentiert-hsa-details-auf-der-hotchips-25/

da ist intel noch weit hinten nach, wenn erstmal die GPU genutzt wird bringen die schnelleren kerne auch nichts mehr, die können die GPU nicht einholen.

Knuddelbearli
2013-12-28, 08:34:15
ich möchte hier auf 'StarSwarm-Techdemo von Oxide Games' (http://www.planet3dnow.de/cms/6716-apu13-video-mantle-techdemo-praesentation-von-oxide-games/) hinweisen. in der presentation werden etliche interessante dinge angesprochen.
zusammengefasst scheint sich die auslastung der gpu/cpu mit mantel stark zu verändern. im video wird gesagt das der fx 8350 auf 2gh runter getaktet werden kann und trotzdem limitiert die grafikkarte.

wie stark wird dadurch das kräfteverhältnis der cpu's, von amd/intel, am ende verändern.
die neuen konsolen werden auf ihre art dazu beitragen.

anwendungssoftware wird sich auch immer stäker in richtung mehrkern nutzung entwickeln cpu/gpu/igpu.(intel scheint das auch so zu sehen. sie stecken viel arbeit und chipfläche in ihre igpu's)

es ist nur eine frage der zeit/anwendung wann die amd apu's die reinen cpu's überflügeln.


ein Fx-8 mit 2GHz entspricht aber schon einem 4GHz A10

und demnächst gibt es an der GPU Front ja eine Verdoppelung dann würde es schon einen 4GHz FX-8 benötigen ...

Elkinator
2013-12-28, 08:35:31
welche verdoppelung bei der GPU?

Locuza
2013-12-28, 08:51:50
da ist intel noch weit hinten nach, wenn erstmal die GPU genutzt wird bringen die schnelleren kerne auch nichts mehr, die können die GPU nicht einholen.
Ja stimmt, Intel hat ja keine GPUs in ihren Produkten integriert.

Elkinator
2013-12-28, 08:55:05
eine intel GPU ist im vergleich zu den aktuellen GPUs bei AMD primitiv.
da muß intel aber gewaltig aufholen...

Locuza
2013-12-28, 09:05:17
Was Intel wohl die letzten Jahre so macht?

Elkinator
2013-12-28, 09:10:59
bis jetzt merkt man davon noch nicht viel...

Locuza
2013-12-28, 09:30:25
Intel hat mit Sandy-Bridge zuerst eine iGPU in ihren Produkten gehabt, vor AMD.
Und davor noch auf dem selben Package mit Clarkdale.
Mit Ivy-Bridge hat man die Performance und Treiber verbessert, auf DX11 aufgerüstet und der AF-Filter ist nicht mehr die Katastrophe wie damals noch auf Sandy-Bridge, nein er ist sogar der Beste von allen IHVs jetzt.
Haswell bringt einen ZeroCopy Äquivalent, DX11.1, Pixelsync und noch für paar super teure Modelle eDRAM.
Aber schon seit Sandy-Bridge teilt sich die GPU den Last-Level-Cache und ist enger mit der CPU verbunden, als bei AMDs Design, auch wenn die GPU Architektur selber noch primitiver ist.
Intel hat es natürlich auch leicht größere Sprünge zu machen.
Tja, aber wo sind wir letztlich?
Bei Llano war AMD noch 80-90% schneller, jetzt mit Haswell ist Richland "nur" ~60% schneller.
Ich nehme mal das CB Rating, kannst aber gerne jedes weitere nehmen, um zu beweisen das Intel nicht aufholt.

Wir gucken uns ja auch nur den Destkop-Markt an und nicht den mobilen, wo Intel dank ihrer besseren Perf/Watt bei der absoluten Performance viel besser dasteht.

In der Zukunft gibt es Kaveri, wo AMD theoretisch wieder die Möglichkeit hat den Abstand wieder zu vergrößern, wäre da nicht Broadwells Potential dank der 14nm Fertigung dem ganzen wieder Einhalt zu gebieten.
Dann gibt es Toronto irgendwann 2015 und Skylake von Intel.

Elkinator
2013-12-28, 09:34:09
und das ist mir alles egal, das hat nichts mit dem thema zutun...

sicher, die GPU ist bei intel tiefer in das design integriert, so ein schwachsinn tut beim lesen ja direkt weh!

DinosaurusRex
2013-12-28, 09:36:52
Werden die heterogenen Prozessoren wohl kombinierbar sein mit dedizierten GPUs, also zB Kaveri für Compute und dann zusätzlich eine dedizierte Karte fürs Rendering? Falls ja, dann wäre das eine interessante Alternative, vor allem wenn man die hohen Preise von Intel berücksichtigt.

Ich finde dieses ganze hetero-core Zeug generell äusserst vielversprechend und es wird sicher auch einen Grund geben, warum ALLE ihr Geld auf dieses Konzept setzen, also AMD, ARM, Intel, Microsoft, Nvidia und Sony.

Ausserdem hat es was von avantgarde. Freut euch doch, dass sich mal wieder was tut! ;)

Locuza
2013-12-28, 09:40:08
Elkinator, ich wünsche mir die Foren würden dir permanente Bans geben und nicht nur temporäre, da die Auszeit scheinbar nie lang genug ist.

Erst einmal fängst du mit den iGPUs an und dann, ja alles egal, gehört eh nicht zum Thema.
Hier, Artikel lesen und weniger Fanboy spielen.
http://www.realworldtech.com/fusion-llano/2/

Elkinator
2013-12-28, 09:55:19
bei HSA wären sogar ARM und X86 in einem system möglich.

Hier, Artikel lesen und weniger Fanboy spielen.
ich bin kein fanboy, mich kotzt es nur einfach gewaltig an wenn mir "experten" wie du es bist blödsinn hinrotzen...

DinosaurusRex
2013-12-28, 09:58:42
Pro-Tip (an beide): Man kann sowas auch ohne persönliche Angriffe ausdiskutieren.

Meine Frage besteht übrigens weiterhin, falls einer was dazu sagen mag. ;)

Locuza
2013-12-28, 10:03:01
Ladies and Gentleman, David Kanter bei realworldtech schreibt puren Blödsinn.
Elkinator unser nicht Fanboy, der ständig fundierte Argumente zur Welt bringt und deswegen schon in einigen Foren mit Bans *hust* ich meine Auszeichnungen geehrt wurde, sollte umgehend diesen propagierenden Text korrigieren und ins wahre Licht rücken:

In contrast, Sandy Bridge has tigher integration – using the on-die ring interconnect and L3 cache. Data is passed through the ring interconnect, but can be shared either through the cache or memory. The ring interconnect is 32B wide with 6 agents and operates at the core frequency (>3GHz). Data usually coming from either the 4 slices of the L3 cache or the memory controller, which resides in the system agent. The peak bandwidth is over 400GB/s, but the practical bandwidth since many accesses have to go through multiple stops on the ring interconnect. The Sandy Bridge power management is also fully unified for both CPU and GPU, so that when one is idle, the other may ‘borrow’ the thermal headroom.

Und auf Seite 3 schreibt unser Ketzer noch sogar so etwas:
In contrast, Sandy Bridge simplifies the memory controller and relies on the L3 cache for integration. The GPU and each CPU core sit on the 512-bit ring that operates at the core clock speed and connects to the L3 cache and memory controller. A portion of the L3 cache can be allocated to the GPU and accessed with very high bandwidth (and relaxed consistency). For example, the L3 cache is used for spilling register data from threads in the GPU. Generally, the GPU just looks like another coherency agent on the bus fabric – although precise details have not been released since the Sandy Bridge GPU is not fully programmable.

Sandy Bridge GPU accesses to system memory are fairly simple and probe the inclusive L3 cache (or flush any pending uncacheable writes as needed) when they traverse the ring bus, to maintain coherency. However, most GPU requests will bypass the L3 cache altogether (e.g. texture reads) and go straight to the memory controller. The memory controller does not seem to distinguish between CPU and GPU accesses and separately schedule them. While this does leave some performance on the table compared to AMD’s optimizations, it also substantially simplifies the design of the memory controller.

The Sandy Bridge CPU cores can access data and synchronize with the GPU’s portion of the L3 cache. For example, the CPU can write graphics commands into the GPU’s L3 cache, which the GPU then reads. The GPU can also explicitly flush data back to the L3 cache for the CPU to access with very high performance (e.g. for offloading from the GPU to CPU). Passing data between the GPU and CPU through the cache (instead of memory) is one area where Intel’s GPU integration is substantially ahead of AMD. In many respects, the communication model is much more bi-directional rather than the traditional one-way flow in a graphics pipeline.



@ DinosaurusRex

Irgendwann reißt der Faden, wenn du mit Elkinator diskutieren willst, wird gegenteilige Meinung immer als Blödsinn bezeichnet und du wirst als "Experte" abgestempelt.
Fundierte Argumente von seiner Seite aus? Never.

Aber bezüglich deiner Frage. Möglich wäre es natürlich, AMD hatte mal paar Folien dazu und erst neulich mit Mantle kam ja wieder die Idee auf, aber irgendjemand müsste es ja auch programmieren.
Es ist leider wie so oft, Möglichkeiten gibt es viele, aber wer macht sich all die Mühe dafür und wenn, wann genau?

Wichtiger würde ich es finden, wenn zuerst die APUs selber richtig ausgenutzt werden, also hUMA, hQ usw. zum Einsatz kommen.
Da erwarte ich auch erste Berichte und Artikel über Kaveri, was läuft automatisch ab, was Bedarf speziellen Anpassungen?
Thief und Zombies vs. Plants: Modern Warface haben vielleicht solche speziellen Anpassungen, bei Thief war glaube ich die Rede davon APU Optimierungen zu haben und bei PvZ: Garden Warfare hat man es auch noch auf die Folien geschrieben, aber was das konkret bedeutet, weiß die Öffentlichkeit nicht.

Elkinator
2013-12-28, 10:14:41
diskutieren geht eben nur wenn der gesprächspartner auch ahnung vom thema hat, das ist bei dir nicht der fall.
und ab jetzt blocke ich dich, postings von dummschwätzern bringen mir nix!

warum immer die leute mit am wenigsten ahnung auf "experte" machen müßen werd ich wohl nie verstehen.

Elkinator
2013-12-28, 10:18:25
bei HSA ist alles kombinierbar, es wird verwendet was im system vorhanden ist.

Knuddelbearli
2013-12-28, 10:21:42
welche verdoppelung bei der GPU?


28nm auf 20nm und ein Jahr darauf FinFets womit es mehr als verdoppelung sein dürfte

Elkinator
2013-12-28, 10:42:12
das hat damit genau nichts zutun...

aths
2013-12-28, 11:31:33
Jetzt kommt das wieder.

AMD hatte mit dem Athlon einen Super Prozessor und Intel mit dem Pentium 4 eine Totgeburt (darum wurde der auch eingestampft).

Warum nicht einfach mal bei 0 anfangen und was neues Designen? Nöööö lieber aufgeben und die CPU Sparte komplett gegen die Wand fahren.
Der Athlon war die einzige wirklich neue Architektur bis der Bulldozer kam. Intel konnte es sich leisten, in der Zeit diverse neue Architekturen zu entwickeln. Das heißt nicht dass Intel besser ist, ist aber ein Hinweis auf die finanziellen Ressourcen von Intel.

Eine Totgeburt war der P4 natürlich nicht, bei aller Häme die man über die Marketing-MHz-Zahlen zurecht verbreiten kann.

Exxtreme
2013-12-28, 12:02:53
Jetzt kommt das wieder.

AMD hatte mit dem Athlon einen Super Prozessor und Intel mit dem Pentium 4 eine Totgeburt (darum wurde der auch eingestampft).

Warum nicht einfach mal bei 0 anfangen und was neues Designen? Nöööö lieber aufgeben und die CPU Sparte komplett gegen die Wand fahren.
Eine komplett neue Architektur hochzuziehen dauert mindestens 5 Jahre. Zumal der FX an schlechten Fertigungsprozessen leidet und nicht an der Architektur an sich. Ich bin mir sicher, es ist ein Leichtes für AMD den FX nicht verhungern zu lassen. Nur hilft das denen nix wenn die CPU dann 300 W frisst.

Gast
2013-12-28, 12:17:05
Nein... eher um ihre eigenen CPUs zu pushen, im GPU Bereich sind sie ja durchaus konkurrenzfähig und stellenweise besser (iGPU).

Wobei man sich schon fragen kann, was das pushen soll.
Viele Kerne? FX wird ja nichts mehr kommen, es sei denn in einer APU Reinkarnation, aber dvon ist noch nichts zu sehen. Und ob die dann wieder mehr als 2M/4C haben wird?
Schwache CPUs als gut genug? Naja, bin ich mit Intel trotzdem besser dran, die profitieren von Mantle dann genauso und bringen mir auch was bei den Spielen die kein Mantle bieten (was alle alten und auf absehbare Zeit die meisten aktuellen sein dürften).

fondness
2013-12-28, 13:57:57
Das ist ganz einfach ein notwendiger und logischer Schritt, der im Grunde schon lange angekündigt wurde. Der 8P, 4P und selbst der 2P Servermarkt schrumpft seit Jahren. Der 1P Server-Markt und der Microsservermarkt verzeichnet dagegen enorme Wachstumsraten. Es macht keinen Sinn für ein Unternehmen mit begrenzten Ressourcen in einem schrumpfenden Markt mit einem Übermächtigen Gegner hinein zu investieren. Die paar Desktop-Prozessoren sind dabei wohl kaum der Rede wert. AMD hat allerdings ganz klar gesagt dass die FX-Prozessoren nicht aussterben werden, allerdings erwarte ich hier ab 2016 größere APUs und keine reinen CPUs mehr.

Interessant wird es bei AMD ohnehin erst ab 2016. Dann soll die erste Entwicklung kommen vom neuen CEO und dem neuen AMD-Team um Jim Keller. Bis Excavator entspricht alles der Bulldozer-Linie unter der alten Führung. Eine neue CPU-Architektur stampft man nicht mal eben aus dem Boden, selbst Intel hat lange genug benötigt um den K8 zu kontern.

fondness
2013-12-28, 14:12:03
Mal sehen was GloFo nächstes Jahr von AMD fürs Nichtstun bekommt.

Laut CFO gar nichts. Die letzte Strafzahlung an GF in Höhe von $200mio wird im Q1/2014 fällig. Es wurde angedeutet das AMD die Konsolenchips Richtung GF verschiebt.

Elkinator
2013-12-28, 15:03:57
AMD muß aber 2014 bei GF eine gewisse anzahl an wafer abnehmen, wenn man das nicht erreicht gibt es wieder strafzahlungen.

aber beema/mullins sollen laut gerüchten eh von GF kommen, das würde auch erklären warum die chips um einiges sparsamer sein sollen.
sobald GF einen prozess hat mit dem man einen so großen konsolen-SoC fertigen kann iwrd AMD da zu GF wechseln.
diese SoCs sind halt doch sehr groß, das geht nur mit einem prozess der schon etwas eingefahren ist, aber beema/mullins wären dafür eigentlich von der größe her ideal.

ich glaub da noch immer auf fd-SOI in 28nm, anders wird man den verbrauch nicht so senken können wie es AMD vor hat.
20nm ist noch zu früh, da bleibt nur fd-SOI.
wenn der verbrauch sinkt haben sicher auch Sony und MS interesse das man den prozess wechselt, beide konsolen haben ja aktuell ein problem mit der lautstärke.


da GF jetzt auch bulk anbietet könnte AMD auch in zukunft GPUs bei GF bestellen, damit würde man das WSA auch ohne CPUs erfüllen und könnte zb. CPUs bei IBM fertigen lassen ohen strafe zahlen zu müßen.

Geldmann3
2013-12-28, 15:39:39
Oh man, ich hoffe AMD macht weiter, bei Intel kann ich mir eine 16 Kern/Thread CPU 2016 aus dem Kopf schlagen. Die kostet dann bestimmt über 500€.

Elkinator
2013-12-28, 15:42:40
auch bei AMD kannst du dir eine CPU mit 16 kernen aus dem kopf schlagen, wenn die IPC steigt werden sie dir auch nicht einfach so 8 kerne schenken.

sie werden maximal mit intel gleichziehen, aber sicher nicht anfangen intel dann unter druck zu setzen, das rennen können sie nur verlieren.

HOT
2013-12-29, 11:50:08
AMD hat nix eingestellt, warum schreibt ein Newsschreiber einer der wichtigsten deutschen Hardwareseiten eigentlich so eine Scheisse? Es sind auf allen Roadmaps bis Ende 2015 FX-Prozessoren verzeichnet und der bisherige BD Rev.C wird zu 99% durch einen echten PD ersetzt.
So lange AMD keinen FinFET-Prozess hat, gibts natürlich weiterhin 32nm, weil das der einzige Prozess ist, auf den AMD nach dem Ende der IBM-Kooperation Zugriff hat, der solche High-End-Geschosse erlaubt. Kleinere Strukturen machen erst bei 14XM überhaupt Sinn in dem Bereich, also gibts die neuen Prozessoren logischerweise auch erst dann, wenn der Prozess dafür bereit ist. Wir wissen alle, dass das frühestens Ende 2015 soweit ist. Man kann doch nicht vom "Ende" schwadronieren, wenn alle Roadmaps doch genau das Gegenteil aussagen.

samm
2013-12-29, 14:30:51
Ohne auf den Rest einzugehen, würde mich mal Folgendes interessieren:und der bisherige BD Rev.C wird zu 99% durch einen echten PD ersetztWas genau ist damit gemeint? Habe auch in Gerüchte-Threads, soweit von mir verfolgt, keine Abgrenzung PD vs. BD Rev. C gesehen. Featureunterschiede wären spannend.

sloth9
2013-12-30, 20:52:23
und wieder so ein forenexperte...
du hast nicht die geringste ahnung wie lange es von der entwicklung bis zum fertigen produkt dauert!

und ausserdem können sich roadmaps auch ändern, es kommt da drauf an ob GF bis dahin einen geeigneten prozess liefern kann.
muß ja nicht sein das sie mit jedem prozess diese probleme wie mit 32nm pd-SOI haben werden.

eine APU mit 3 modulen ist schnell nachgeliefert, wenn es dafür einen markt gibt und es sich auszahlen würde.
ob man die dann FX nennt ist mir jedenfalls scheißegal, ein name ändert nix am produkt.


War doch klar. Deine Glaskugel ist sowas für den .... (http://www.3dcenter.org/news/neue-amd-roadmap-zeigt-keinerlei-neue-entwicklungen-im-fx-bereich-bis-ins-jahr-2015)

sloth9
2014-01-02, 11:44:44
warum stampfte AMD eigentlich die jaguar-server auch gleich wieder ein? gibt da überhaupt noch so was wie ne langfristige Planung? oder flüchtet man grundsätzlich vor Intel? blöd nur, dass Intel überall ist/reingeht. naja, nach dem AMD-eingeständnis, das Bulldozer ein Reinfall war, kauft eh keiner mehr deren server, ob man da noch neun upgrade bringt o. nicht.

fondness
2014-01-03, 11:40:24
Hm....
Wir wurden von Gregory Rodgers mit der Bitte kontaktiert, das gezeigte Bild der Opteron-Roadmap zu entfernen. Laut Rogers soll das präsentierte Material zudem nicht korrekt sein. Fragwürdig bleibt allerdings, warum auf einer HPC-Konferenz dem Fachpublikum falsche Informationen bezüglich der Produktpläne von AMD gegeben werden. Das YouTube-Video von der Präsentation, aus dem wir das Roadmap-Bild entnommen hatten, wurde inzwischen ebenfalls gelöscht.

http://www.planet3dnow.de/cms/6845-amd-zeigt-opteron-roadmap-bis-2015-auf-der-sc13/

sloth9
2014-01-05, 16:11:15
Hm....


http://www.planet3dnow.de/cms/6845-amd-zeigt-opteron-roadmap-bis-2015-auf-der-sc13/


panikstimmung! schließlich kauft mit solchen roadmaps gar keiner mehr AMD, weder Server noch sonst was.

Leonidas
2014-01-05, 17:26:21
AMD hat nix eingestellt, warum schreibt ein Newsschreiber einer der wichtigsten deutschen Hardwareseiten eigentlich so eine Scheisse? Es sind auf allen Roadmaps bis Ende 2015 FX-Prozessoren verzeichnet und der bisherige BD Rev.C wird zu 99% durch einen echten PD ersetzt.



Ich hab kein Problem damit, mich zu irren, wenn dafür AMD wirklich was neues im HighEnd-Segment bringt. Natürlich haben wir keinerlei wirklich festen Infos, aber ich darf die Anzeichen nicht ignorieren. Und ein bißchen Druck auf AMD, damit man sieht, daß man *so* etwas nicht als Roadmap vorlegen kann, ist auch nicht verkehrt.

sloth9
2014-01-24, 08:56:03
...