Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ausblick auf Bulldozer-Nachfolger: Vishera, Steamroller, Excavator
Im Server-Bereich. Darüber sprach die Präsentation.Glaubst Du AMD würde nur fürs hochmoderne, massenhaft nachgefragte AM3+ Segment noch eine extra Plattform sowie Riesendies entwickeln, debuggen, fertigen?
Wie auf P3D schon geschrieben, ne Ideallösung gibts nicht, man wird immer Kompromisse aus Effizienz und Rechenleistung eines Chips schließen müssen.
Aber wenn mit einer Option (getunter, ausgepresster Jaguar) ggü. der anderen (Jaguar+Bulldozer) ne dreistellige Millionensummer einsparen kann und man gleichzeitig schlecht bei Kasse ist ... liegt die Entscheidung auf der Hand.
Zero-11
2014-01-29, 20:34:27
"Mit hohem CPU-Takt verpufft dies aber."
höhere IPC dort wo die Sonne niemals scheint ja sehr ermutigend
Thunder99
2014-01-30, 01:16:05
D.h. wenn sie es schaffen den Uncore Teil so zu designen das dieser deutlich höher geht wird es endlich eine konkurrenzfähige CPU auch im Consumer Bereich :)
robbitop
2014-01-30, 10:17:11
http://www.golem.de/news/test-amd-kaveri-a8-7600-die-45-watt-wohnzimmer-apu-1401-103846-3.html
Bei Excavator steht greater performance und die FPU wird auf 256-Bit Pipes aufgebohrt.
Mehr ist wohl auch nicht gesichert.
AMD wird wohl seinen Grund haben die Northbridge weniger hoch zu takten.
Ich persönlich würde da keine große Veränderung erwarten.
Wer weiß, was bei der Northbridge limitiert. Ggf. kann man bei einem Redesign auch Flaschenhälse unabhängig vom Takt weiten. IMO klingt diese Limitierung bei BD vom Uncore merkwürdig. Als wenn man irgendwelche Altlasten rumschleppt, die jetzt halt zur Engstelle werden.
"Mit hohem CPU-Takt verpufft dies aber."
höhere IPC dort wo die Sonne niemals scheint ja sehr ermutigend
Eigentlich ist das nicht so schlimm. Am meisten Geld macht man eh bei den Mobilprozessoren. Und diese takten nicht so hoch wie die Desktop CPUs. Dort wird die NB nicht so sehr limieren.
Am meisten Geld macht man eh bei den Mobilprozessoren.
Das gilt für den gesamten Markt bzw. Intel. Aber auch für AMD?
robbitop
2014-01-30, 10:48:53
AMD verdient wenig, weil sie Preisdumping betreiben müssen, weil sie nichts wirklich konkurrenzfähiges haben. Eine gute Marge setzt auch immer ein gutes Produkt voraus. Und genau daran sollten sie arbeiten, statt nur plump die Achseln zu zucken und in ein anderes Segment (was auch nicht weniger umkämpft oder schwierig ist) zu ziehen.
w0mbat
2014-01-30, 12:52:35
Auch als AMD das bessere Produkt hatte (K8) hat es nichts genützt, weil Intel illegale Geschöfte betreibt. Und ohne goßes Geld wird auch nicht so einfach was großes kommen.
Das größere Problem zu K8-Zeiten war, das sie nur eine einzelne 200mm Fab hatten, die nicht mal sonderlich groß war (bis 90nm). Das wurd erst besser als das 2. 300mm Modul fertig war. Intel hat zig Fabs und kann den Markt immer versorgen. AMD konnte das nicht. Das ist übrigens der Hauptgrund für das Abtrennen der Fabs gewesen. Sowas wie zu K8-Zeiten wollte man nicht mehr erleben.
Knuddelbearli
2014-01-30, 13:19:03
und wo ist da jetzt der Vorteil? auch bei ausgelagerten Fabs muss man Kapazitäten Monate bis Jahre im Vorraus ordern
robbitop
2014-01-30, 13:28:25
Auch als AMD das bessere Produkt hatte (K8) hat es nichts genützt, weil Intel illegale Geschöfte betreibt. Und ohne goßes Geld wird auch nicht so einfach was großes kommen.
Nichts genutzt? Nicht so viel genutzt, wie es möglich gewesen wäre vielleicht. Aber "nichts"? AMDs Marktanteile waren damals auf ihrem historischen Hoch und AMD ging es relativ gut.
Intels "Tick-Tock" und AMDs Versagen in der Weiterentwicklung (es gab mind. 2 CPU Designs in der Entwicklung, die allesamt verworfen worden sind - was das an Geld/Zeit kostet...) führten zur aktuellen Dominanz durch Intel.
Das größere Problem zu K8-Zeiten war, das sie nur eine einzelne 200mm Fab hatten, die nicht mal sonderlich groß war (bis 90nm). Das wurd erst besser als das 2. 300mm Modul fertig war. Intel hat zig Fabs und kann den Markt immer versorgen. AMD konnte das nicht. Das ist übrigens der Hauptgrund für das Abtrennen der Fabs gewesen. Sowas wie zu K8-Zeiten wollte man nicht mehr erleben.
Wäre es nach dem K8 so weitergegangen wie vorher (gute Margen auf den K8 und gute Stückzahlen), hätte man mehr Fabs gebaut (New York + Erweiter und die Dresden Erweiterung) und es wäre langsam aber konstant weiter nach vorn gegangen. Dann ist leider Intel aufgewacht und zur gleichen Zeit hat AMD in der Entwicklung lange Mist gebaut.
Am Ende hat man den K8 nochmal aufgebohrt und der K10 war geboren.
Skysnake
2014-01-30, 20:50:20
AMD verdient wenig, weil sie Preisdumping betreiben müssen, weil sie nichts wirklich konkurrenzfähiges haben. Eine gute Marge setzt auch immer ein gutes Produkt voraus. Und genau daran sollten sie arbeiten, statt nur plump die Achseln zu zucken und in ein anderes Segment (was auch nicht weniger umkämpft oder schwierig ist) zu ziehen.
AMD hat zwar gute Preise, aber als Dumping kannste das wirklich nicht bezeichnen.
AMD setzt einfach nur zu wenig ab. Wenn die 10 mal so viel verkaufen würden, könnten die sogar nochmals deutlich mit dem Preis runter und würden trotzdem noch mehr Gewinn machen.
Duplex
2014-02-23, 20:29:41
Merkwürdig das AMD seit längerer Zeit nichts mehr angekündigt hat, wenn im 2. Halbjahr 2014 nichts mehr angekündigt wird, dann wars das vermutlich.
Unicous
2014-02-23, 21:07:58
Da fällt einem wirklich nichts mehr zu ein.
http://www.cpu-world.com/news_2013/images/L_AMD_desktop_roadmap_2014.jpg
Was sollen sie denn deines Erachtens ankündigen?
Willst du Speedbumps oder was? Steamroller oder gar Excavator wird es 2014 eh nicht mehr geben. Du brauchst daher auch nicht enttäuscht und beleidigt sein.
Karma_Zhong
2014-02-24, 00:28:19
Ich sehe die Zukunft für AM3(+) Nachfolger kritisch.
AMD hat sich mit den APUs und maximal 4 Kernen auf einen Bereich im Desktop-Segment verlagert, der die geringste Marge hat. Teure Entwicklungen wird es hier nicht geben.
Im Server-Bereich (aus dem BD für den Desktop entwich) ist kein Land in Sicht.
Das Hauptproblem ist, dass sie keinen Abstand zu Intel erzeugen können. Was Intel nicht unterstützt wird sich nicht durchsetzen oder dermassen verspätet, das es finanziell schon weh tut.
Wo auch immer AMD versuchen wird ein Produkt zu platzieren, Intel wird jede Lücke 3x füllen, ob über den Preis oder die Leistung.
Im Enthusiasten-Bereich, der AM3 Nachfolger aufnehmen könnte, ist der Markt insgesamt zu klein und die Entwicklungskosten zu hoch. Was sollen sie anbieten? Zu welchem Preis?
AMD-Bashing ist "in". Selbst mit 20% Mehrleistung/Takt würden die üblichen Verdächtigen sich die Mäuler zerreissen.
Testurteil:
- zu wenig Leistung (gegenüber Core iX Xtreme 8 core 5 GHZ K-NOX Edition )
- zu hoher Strombedarf (gegenüber Atom)
- zu hohe Temperatur (gegenüber Kühlschrank)
- keine "echten" Kerne (Intel hat 16 dank Hypershit)
- Name schwer zu merken (Intel ist leichter zu merken)
- langsamer DDR3 Speicher (Intel hat schon DDR4-5-6-7)
- veralteter Sockel (kann nie gut sein)
- kein AVX3 (oder 4 oder 5 auch wenn es keine Software dafür gibt)
- Chipsatz ohne Thunderbolt (ganz schlimm)
- zu viele Kerne (die können niemals alle echt sein)
- ineffizient (sowieso und überhaupt)
- zu groß
- passt nicht zu den Schuhen oder zur Bluse
- schwer erhältlich
- komplizierter Einbau
- keine integrierte Grafikeinheit (hat Intel nämlich schon total voll lange immer)
- unsichere Zukunft (ja die Sockelwechsel bei Intel sorgen für Sicherheit)
etc. etc.
Ich hatte vor, dieses Jahr meinen PhenomII 810 in Rente zu schicken. Doch wenn der statt bei 2.6 auf 3.2 GHz läuft hat Piledriver nur wenige Reize.
Die Steamroller hätten wenigsten den fatalen Rückstand gemildert.
Ist jetzt nicht so das ich die Leistung wirklich brauche, von daher könnte ich lässig ein weiteres Jahr warten. Aber worauf?
Ich liebe meinen Rechner. Ehrlich! Wenn ich könnte würde ich Sex mit der Kiste haben. Ich würde auch in teures Spielzeug, wie einen sündigen 8-Kerner oben ohne investieren. Ich will nur keinen Intel ;D
Aber bei 100W ist bei mir die Grenze. Mein Rechner soll so wie bisher lautlos seinen Dienst verrichten. Keine WaKü oder 9 Lüfter pro Seite.
Wird wohl noch ein wenig länger bleiben. Wenn ihr also seht, dass ich den Rechner Gassi führe und Lumpi rufe, hat mich die Senilität durchs Warten endgültig Gaga gemacht.
Hübie
2014-02-24, 01:46:03
Ah ein Objektophiler :freak:
Leider ist dem auch so. Intel ist in den meisten Disziplinen besser als AMDs Pendants und das lassen die sich vergolden.
Ich selber würde viel lieber AMD/AMD kaufen als Intel/nVidia aber die bieten nicht was ich will.
Mit Bulldozer hat man sich (warum auch immer) völlig verrannt und versucht halt auf Krampf die Architektur wie Intels P4 seiner Zeit zu schlachten.
Wenn vom AMD noch was fettes kommt dann erst in 2-3 Jahren. Aber ich denke eher nicht.
Akkarin
2014-02-24, 02:44:17
Sind 2-3 Jahre nicht ziemlich pessimistisch ? Die neue µArch wurde doch auf 2015-2016 spekuliert.
Wären dann 4-5 Jahre seit Read und 3-4 mit Keller. Wenn ich das jetzt so aufschreibe kommt es mir auch nicht viel vor, aber es wurde ja bestimmt vorher schon an was gearbeitet sobald abzusehen war das Bulldozer failt.
Hübie
2014-02-24, 02:51:15
Das mag sein, aber AMD hat, so glaube ich, momentan nicht die Resourcen um da zu investieren. Damit meine ich auch manpower, nicht nur Geld. Das Unternehmen war jetzt in einer Schrumpfphase, was darauf hindeutet erst mal liquide Mittel zu produzieren und dass kannst du nur über mainstream generieren. Ich bin kein Prophet, aber so rechne ich mir das halt raus.
Das aktuelle AM3+ Portfolio ist einfach wenig interessant. Leute die nicht oder weniger anspruchsvoll zocken greifen zu APU und Zocker zu Intel. Ich wüsste jetzt kein Szenario in dem man einen AM3+ empfehlen könnte / müsste.
Ich glaube nicht mal beim encoding oder compiling hat der Bulldozer & Co die Nase vorn, aber da müsste ich jetzt nachschlagen.
Unicous
2014-02-24, 03:07:15
Eine komplett neue Architektur zu designen kann bis zu sechs Jahre brauchen. Mit Bulldozer z.B. soll 2005 begonnen worden sein. Wenn sie 2011-2012 schnell geschaltet haben und nicht von Grund auf neu designen können sie auch einen Schnellschuss wagen, aber auch da würde sicherlich nichts vor 2016 kommen.
Entweder sehen wir im Laufe von 2015 etwas, ein voller Steamroller oder gleich der Schritt zu Excavator, oder sie geben die Linie verloren und konzentrieren sich auf APUs und ARM-Microserver.
So oder so, die Ära der großen CPUs neigt sich langsam dem Ende zu. Intel experimentiert mit Many Cores, AMD geht in Richtung HSA und hat da einige starke Verbündete mit ARM und Co.. Ob da noch große Sprünge in der Zukunft zu erwarten sind, ist meines Erachtens eher fraglich.
Akkarin
2014-02-24, 03:11:54
Wobei AMD doch atm kaum andre recourcen für CPUs ausgibt. Steamroller wurde kaum verbessert gegenüber Bulldozer, Jaguar sieht auch nicht so recourcenfressend aus und unglaublich viele leute für die APU integration wird man auch nicht brauchen, oder ? Kann mir gut vorstellen dass da trotz Schrumpfphase noch einiges an Manpower für die neue µArch da ist.
Ich wüsste jetzt kein Szenario in dem man einen AM3+ empfehlen könnte / müsste.
Der 6300 ist ganz interessant. Geh mal auf reddit, da wirst du gelyncht wenn du einen i3 empfiehlst.
Anonsten ist der FX-8 dank billigem Xeon selbst bei für AMD günstigen Programmen mit guter Multithreadauslastung nicht zu empfehlen.
Wobei das langsam glaub zu OT wird.
Hübie
2014-02-24, 03:12:09
Wieso sollten die erst nach Veröffentlichung von Bulldozer damit begonnen haben? Eigentlich ist es so dass du schon vor dem Ende was anderes anfängst. Intel schickt seine Leute teilweise um die halbe Welt. Wieviele labs AMD hat weiß ich nicht, aber ich kann mir vorstellen dass die ebenfalls einiges an Personal vom coreteam abziehen und an ein neues Projekt ransetzen.
In frühen Phasen hat man ja so 2-3 Architekturansätze die dann simuliert werden. Machst du das erst nach der Markteinführung hast du stets große Lücken die klaffen, da bug hunting gegen Ende hin nicht so intensive manpower benötigt.
Unicous
2014-02-24, 03:37:06
Weil bei Veröffentlichung von Bulldozer die schon längst an Piledriver dran waren der dann 2012 erschienen ist und auch schon eine roadmap für Steamroller und Excavator hatten. AMD hat nicht endlos Ressourcen für zig Teams. So wie es aussieht haben/hatten sie 3 Teams Bulldozer, Bobcat, Husky/Stars. Die dann jeweils die die Nachfolger designt haben. Da jetzt auch noch die ARM APUs hinzugekommen sind, schätze ich dass sie ein Team aufgelösen oder bereits aufgelöst haben.
Das könnte entweder das Jaguar bzw. Puma Team sein, dass die Low Power Chips erstellt, weil diese Chips durch die ARM Chips ersetzt werden. Oder man behält diese Linie und hat die High Performance Chips- Riege aufgelöst. Für mehr reicht das Budget einfach nicht. Zumal sie nicht müde werden zu sagen, dass sie einsparen werden wo sie können.
Wenn sie schon 2010/11 damit angefangen hätten, wäre mE auch schon etwas durchgesickert. Über die anderen Entwicklungen wussten man auch schon ewig Bescheid.
Ich befürchte allerdings, dass es noch ärger ist. Sie haben sowohl die Puma-Nachfolger als auch Steamroller/Excavator eingestellt und konzentrieren sich nur noch auf x86- und ARM-APUs. Was bald als Mullins und Beema herauskommt wird noch eins zwei Jahre weitergeführt und dann wie gesagt von den ARM-APUs kannibalisiert und oben folgt dann gar nichts mehr. Sie überlassen Intel Performance und High End vollständig und gehen auf APUs im Mittelfeld um sich langfristig wieder heranzupirschen, oder dort zu versauern wenn HSA nicht einschlägt.
Duplex
2014-02-24, 12:19:21
Ich befürchte allerdings, dass es noch ärger ist. Sie haben sowohl die Puma-Nachfolger als auch Steamroller/Excavator eingestellt und konzentrieren sich nur noch auf x86- und ARM-APUs. Was bald als Mullins und Beema herauskommt wird noch eins zwei Jahre weitergeführt und dann wie gesagt von den ARM-APUs kannibalisiert und oben folgt dann gar nichts mehr. Sie überlassen Intel Performance und High End vollständig und gehen auf APUs im Mittelfeld um sich langfristig wieder heranzupirschen, oder dort zu versauern wenn HSA nicht einschlägt.
Die neuen APUs haben doch Steamroller Kerne, da wurde nichts eingestellt, in 14xm gibt es 4 Excavator Module mit 1024 Shader & DDR4 !
Mit ARM wird sich AMD langfristig nicht halten können, es ist nur eine Frage der Zeit, dann wird x86 wieder mehr Bedeutung als ARM haben.
http://www.computerbase.de/news/2014-02/intel-veroeffentlicht-merrifield-ausblick-auf-moorefield-und-14-nm/
Intel kann jederzeit ARM pleite machen, die brauchen nur alle OEMs mit Preisen beeindrucken, dann gibt es demnächst selbst in UHD´s x86 SoC von Intel.
Was passiert wenn MS & Sony bei der nächsten Konsolen Generation auf Intel setzen, wie will sich AMD dann noch halten?
Hübie
2014-02-24, 13:04:52
Na ja die Wahrheit liegt irgendwo in der Mitte. Und apropos Mitte: vergesst nicht die ching chang chong Chinesen ;) ;) Da rollt was ran was glaub ich noch nicht viele ahnen, aber eine Chance für AMD sein könnte.
Unicous
2014-02-24, 13:42:42
Die neuen APUs haben doch Steamroller Kerne, da wurde nichts eingestellt, in 14xm gibt es 4 Excavator Module mit 1024 Shader & DDR4 !
Mit ARM wird sich AMD langfristig nicht halten können, es ist nur eine Frage der Zeit, dann wird x86 wieder mehr Bedeutung als ARM haben.
http://www.computerbase.de/news/2014-02/intel-veroeffentlicht-merrifield-ausblick-auf-moorefield-und-14-nm/
Intel kann jederzeit ARM pleite machen, die brauchen nur alle OEMs mit Preisen beeindrucken, dann gibt es demnächst selbst in UHD´s x86 SoC von Intel.
Was passiert wenn MS & Sony bei der nächsten Konsolen Generation auf Intel setzen, wie will sich AMD dann noch halten?
Ich wüsste nicht, dass ich etwas anderes gesagt hätte. Steamroller ist in Kaveri und 2015 kommen Excavator Cores in Carrizo. Der Rest ist natürlich reine Spekulation von dir, daher wäre es nett, wenn du das auch so kennzeichnest. Weder ist die Shaderverdoppelung bisher irgendwo aufgetaucht, nocht gibt es in Hinweise, dass Carrizo bereits DDR4 beherrscht.
Auch zweiteres ist in eine Glaskugel starren die mit Butter beschmiert ist.
Generell erzählst du ganz schön viel Blödsinn. ARM geht auf einmal Pleite weil Intel es kann. Dann wirfst du mit UHD um dich, als ob das irgendetwas Interessantes, Neuartiges wäre.
Du spielst wohl gerne http://de.wikipedia.org/wiki/Buzzword-Bingo ? (Der Alternativtitel gefällt mir mehr)
Hübie
2014-02-24, 13:51:23
Man du pisst den Leuten immer nur ans Bein. Wenn du mal oben guckst siehst du dass wir hier im Spekulationsbereich sind. Da zu sagen dass es Spekulation ist, ist wie LCD-Display und Pin-Nummer. Aber Hauptsache du hast deinen postcounter erhöht :up: :rolleyes:
Ich bin mir ziemlich sicher dass man schon vor dem Bulldozer-Release anfing mit alternativen Architekturansätzen zu hantieren. Das sagt mir meine Erfahrung. Und für dich, unicous: das ist Spekulation ;D cnr
Unicous
2014-02-24, 14:23:13
Die neuen APUs haben doch Steamroller Kerne, da wurde nichts eingestellt, in 14xm gibt es 4 Excavator Module mit 1024 Shader & DDR4 !
Also entschuldige mal Hübie. Das ist eine klare Tatsachenbehauptung garniert mit einem schicken Ausrufezeichen. Höret her, so wird es sich zutragen.
Es gibt hier vier Behauptungen. Es wird Excavator mit 4 Modulen geben, die verdoppelte Shader haben (ich nehme an er meint eine APU), die DDR4 ansprechen kann, die in 14M gefertigt werden.
Laut dieser offiziell von AMD als Fake dargestellten, von einem AMD-Mitarbeiter präsentierten Folie, trifft das Meiste schon mal nicht auf Carrizo/Toronto (Annahme, der gleiche Chip wie auch Kaveri/Berlin) bzw. 2015 zu.
http://cdn5.thinkcomputers.org/wp-content/uploads/2013/12/AMD-Carrizo-APU.jpg
Ja, DDR4 wird es geben, nein es sind wieder nur 4 Kerne! und nicht 4 Module, der Prozess ist nicht klar, aber es deutet vieles auf 28nm hin ( es ist wieder sehr still bei GF wegen 14XM geworden). Und ob die Shader verdoppelt werden steht in den Sternen.
Ja, wir sind hier im Spekulationsteil des Forums. Aber muss man wirklich alles so aus der Luft greifen, kann das Ganze nicht etwas in der Realität gefußt sein? Duplex macht anscheinend öfter solche kühnen Behauptungen.
fondness
2014-02-24, 14:39:01
nocht gibt es in Hinweise, dass Carrizo bereits DDR4 beherrscht.
Carrizo steht mit DDR4 auf der Roadmap, genauso wie der ARM-SoC.
robbitop
2014-02-24, 14:41:56
Sollte Carrizo nicht FM2+ sein? Damit ist doch DDR4 raus.
Alles nach Carrizo ist noch sehr nebulös. Ob man erstmal 20 nm planar nutzt oder gleich 14XM. Welche µ-Arch man nutzt etc. Ich vermute dass nach Carrizo eine neue µ-Arch kommt. Vielleicht probiert man aber vorher erstmal den Prozess mit einem Shrink des alten Designs aus um das Risiko zu minimieren oder setzt einen Zwischenschritt auf 20 nm. Pure Spekulation... Kein Mensch weiß, ob und wie weit AMD mit einer Nachfolge µ-Arch ist. Wer weiß, ob sie x86 langfristig weiterverfolgen wollen...
Unicous
2014-02-24, 14:44:37
Danke mrck. Die Codenamen sind natürlich ein Fluch.
Hier ist eine Desktop roadmap
http://cdn3.wccftech.com/wp-content/uploads/2014/02/Carrizo-APUs-with-Excavator-Cores-28nm-Glofo.png
Und deshalb finde ich Blödsinn, was Duplex hier betreibt. Diese Angaben sind natürlich auch alle ohne Gewähr, aber geradewegs ins Blaue raten macht für mich keinen Sinn. Denn dann könnte ich auch sagen: In zwei Jahren wird AMD Intel aufkaufen. Nächstes Jahr folgt erst einmal Nvidia. Und die FCC hat nichts dagegen.
fondness
2014-02-24, 14:45:57
Danke mrck. Die Codenamen sind natürlich ein Fluch.
Hier ist eine Desktop roadmap
http://cdn3.wccftech.com/wp-content/uploads/2014/02/Carrizo-APUs-with-Excavator-Cores-28nm-Glofo.png
Die Roadmap wurde allerdings als Fake gebrandmarkt von AMD und sieht auch überhaupt nicht so aus wie alle anderen.
Für Opteron ja, für Desktop steht DDR3 in der Roadmap.
Wenn der Chip ein DDR4-Interface hat wird man das auch nützen. Man fertigt für den Server-Bereich mit Sicherheit kein eigenes Die.
Hübie
2014-02-24, 14:49:25
Mal abgesehen von fondness' Ergänzungen macht der Ton die Musik und deine Melodie klingt für jemanden der deine Noten liest scheiße. Probiere es mal mit etwas mehr Freundlichkeit (nicht im arschkriecherischen Sinne) und du eckst dann vielleicht weniger an. Macht das eigene Leben und das der anderen leichter.
Back to topic: Auf der Folie geht's eher ums lineup dass man über seamicro vertreiben kann als um für uns gamer interessante CPUs mit Power. 2014, 15 & 16 auf einer Folie im gleichen Atemzug mit nur vier Kernen zu nennen ist ein Implizit für Desinteresse an "unserem Markt". Einzig von den Server-CPUs kann man sich was herleiten.
Jetzt Frage ich mich gerade ob die 4-16 cores, Module sein sollen oder wirklich die integer-Recheneinheiten gemeint sind (letzteres nehme ich an..).
fondness
2014-02-24, 14:51:13
Sollte Carrizo nicht FM2+ sein? Damit ist doch DDR4 raus.
Bis jetzt hat noch jeder Chip einen leicht veränderten Socket benötigt, auch Kaveri benötigt FM2+, warum sollte das bei Carrizo anders sein? Sieht anhand der Server-Roadmap nach einem DDR3/DDR4-kombi-Interface aus. Für den ARM-SoC wurde das bereits bestätigt, den selben Speichercontroller wird man mit hoher Wahrscheinlichkeit auch bei Carrizo nutzen.
AMD designed a new memory controller for the Opteron A1100 that's capable of supporting both DDR3 or DDR4
http://www.anandtech.com/show/7724/it-begins-amd-announces-its-first-arm-based-server-soc-64bit8core-opteron-a1100
fondness
2014-02-24, 14:56:10
Bestätigt ist gut, die Roadmap gibt es seit ein paar Monaten, seit dem wurde außer Kaveri wo die Specs eh bereits bekannt waren genau gar nichts neues vorgestellt. Ansonsten wurde bereits DDR4-3200 von der JEDEC spezifiziert, das wären immerhin 50% mehr Bandbreite.
Unicous
2014-02-24, 14:56:38
Die Roadmap wurde allerdings als Fake gebrandmarkt von AMD und sieht auch überhaupt nicht so aus wie alle anderen.
Wenn der Chip ein DDR4-Interface hat wird man das auch nützen. Man fertigt für den Server-Bereich mit Sicherheit kein eigenes Die.
Die Server roadmap wurde offiziell als fake "gemeldet".
http://www.planet3dnow.de/cms/6845-amd-zeigt-opteron-roadmap-bis-2015-auf-der-sc13/
Von der Desktop roadmap wüsste ich nichts Derartiges. Und google findet auch nichts.
Und dass AMD ihr Design 2013 verändert haben, sollte auch aufgefallen sein. Es gibt auch mehrere Folien-Künstler.
Selbst wenn die Server roadmap fake ist, würde das noch mehr dafür sprechen, dass Duplex Behauptungen aus der Luft gegriffen sind.
Das ist übrigens Gregory Rodgers der Typ von dem fake server roadmap Foto.
http://www.flaggmgmt.com/hpc/images/GregRodgers.jpg
edit: Und wie gesagt, es gab davon ja auch ein Video. Also muss dass dann auch gefälscht worden sein. Ganz schön krass drauf diese "Fälscher".
robbitop
2014-02-24, 14:57:20
Man muss sich für die IGPs etwas einfallen lassen, was Bandbreite angeht. DDR4 bringt nur einmalig etwas mehr Bandbreite. Da die GPUs aber ständig wachsen, ist das nur ein Tropfen auf den heißen Stein. Entweder kommt da wirklich etwas wie ein breiteres SI oder GDDR5 (oder beides) oder man braucht Speicher auf dem Package (analog zu Intel). Ansonsten kann man aufhören, mehr Einheiten in die APUs zu bauen. Das wäre dann nur Verschwendung von Kernfläche.
fondness
2014-02-24, 14:58:49
Man muss sich für die IGPs etwas einfallen lassen, was Bandbreite angeht. DDR4 bringt nur einmalig etwas mehr Bandbreite. Da die GPUs aber ständig wachsen, ist das nur ein Tropfen auf den heißen Stein. Entweder kommt da wirklich etwas wie ein breiteres SI oder GDDR5 (oder beides) oder man braucht Speicher auf dem Package (analog zu Intel). Ansonsten kann man aufhören, mehr Einheiten in die APUs zu bauen. Das wäre dann nur Verschwendung von Kernfläche.
Das mittelfristig stacked-DRAM kommt ist kein Geheimnis, bis dahin wird man wohl weiter so herum murksen.
edit: Und wie gesagt, es gab davon ja auch ein Video. Also muss dass dann auch gefälscht worden sein. Ganz schön krass drauf diese "Fälscher".
Die Server-Roadmap bestreite ich ja auch nicht.
Unicous
2014-02-24, 15:02:09
@fondness. Ich würde dann aber gerne eine Mitteilung von AMD bezüglich der Desktop roadmap sehen. Ich finde dazu jedenfalls nichts und mein Gedächtnis sagt mir, da kam auch nichts.
Das soll nicht heißen, dass sie nicht fake sein kann, nur bin ich mir relativ sicher, dass AMD dazu nichts gesagt hat.
fondness
2014-02-24, 15:03:48
@fondness. Ich würde dann aber gerne eine Mitteilung von AMD bezüglich der Desktop roadmap sehen. Ich finde dazu jedenfalls nichts und mein Gedächtnis sagt mir, da kam auch nichts.
Das soll nicht heißen, dass sie nicht fake sein kann, nur bin ich mir relativ sicher, dass AMD dazu nichts gesagt hat.
AMD Manager of APU/CPU Product Reviews James Prior was quick to negate the slide's legitimacy: "I've never seen that slide before, I don't know where that came from," he told me in our call, and quickly followed-up by stating that "it's not real. FX is not end-of-life."
http://www.gamersnexus.net/news/1240-future-of-amd-cpus-fx-not-eol
fondness
2014-02-24, 15:08:45
Ist ja auch egal, bringt nichts sich jetzt über die Echtheit einer Roadmap zu streiten. Die Zeit wird zeigen wie es dann kommt.
Unicous
2014-02-24, 15:16:45
Hm. Toll. Das ist ja genauso glaubwürdig wie der Mr. Rodgers über mir.
James Prior, ist zwar keine Witzfigur, aber ein Marketingtyp der in zig Foren unterwegs ist und auch gerne mal FUD spreaded in dem er sagt, stimmt alles nicht, alles ok.
Seine Verteidigung, "ich habe diesen Mann noch nie in meinem Leben gesehen" ist auch nicht gerade plausibel. FX wird anscheinend im Server-Sektor bis 2016 nicht weiterentwickelt, wenn wir der Servermap trauen. Das Gleiche steht auf der Desktop-Roadmap. (Und er spricht ja auch nicht von den anderen Produkten, nur über den FX-Aufreger).
FX ist nich EOL, denn es wird weiterverkauft. Das ist das einzig Richtige an seiner Aussage.
Aber gut, es ist müßig darüber zu streiten ob sie echt oder Fake ist, wir werden es spätestens in 1 1/2 Jahren wissen.
Es wird einen neuen FX geben. Wenn man sieht, dass AMD sich weiterhin für Prozesse interessiert (28nm SHP ist ja auch von AMD) und die Tatsache, dass es einen Carrizo geben wird mit noch mal neuen BD-Modulen spricht stark dafür. Ich wär mir nicht mal so sicher, ob die Roadmaps nicht schon so gemeint sind, wie sie dastehen mit ihrem Vishera bis Ende 2015. Vielleicht wollte man einfach nicht, dass es zu früh bekannt wird, dass man an FXen arbeitet, bis man soweit ist, dass sie funktionieren und auch konkurrenzfähig sind. AMD ist anders als früher sehr vorsichtig geworden mit Ankündigungen und Leaks. Eines ist auch zu beachten, ein FX müsste auf einer Plattform kommen, die es ebenfalls noch nicht gibt. Irgendwann in diesem Jahr wird es eine große Ankündigung für den Server/WS/FX-Markt und dessen Plattform geben, da bin ich sicher. Erst dann wird man die Sachen auch auf die Roadmaps schreiben.
Wenn man es mal so betrachtet:
- AMD hat einen neuen High-End-Prozess (28nm SHP, 14nm SHP folgt, da bin ich sicher)
- AMD hat SR(30h)/EC(40h)-Module
- AMD hat eine neue Uncore-Infrastruktur, mit der man 8 Module/Kerne anbinden kann und L3 besitzt für die ARM64-Server
- AMD braucht eine DDR4-Server/WS-Plattform (die bestimmt wieder 8 Jahre hält und damit kostentechnisch sehr im Rahmen sein dürfte)
- AMD braucht eine neue Uncore-Infrastruktur, die endlich mit vollem Takt laufen kann -> das ist die eigentliche Hürde in der Entwicklung, das ermöglicht die gewissermaßen durch die Hintertür angekündigten 4-8 40h Module auf einem Die.
Und, nicht zu vergessen, der Uncore ist auch der eigentliche Rückstand auf Intel. Kaveri ist hoffentlich die letzte CPU mit 1,6GHz Uncore-Takt.
AMD hat alle Zutaten beisammen, warum sollte man Server/WS/FX links liegen lassen? Das macht einfach keinen Sinn. Es bringt nichts das Ende des FX herbeizureden, das kommt nicht. Totgesagte leben bekanntlich sehr lange :D.
warum sollte man Server/WS/FX links liegen lassen? Das macht einfach keinen Sinn.
Wieso sollte es keinen Sinn machen ein Verlustgeschäft einzustellen?
AMD macht kein Gewinn, im Serverbenchmarks macht man keinen einzigen Stich gegen Intel, insbesondere beim Stromverbrauch, bei dem Intel auch seinen Fertigungsvorteil ausspielen kann. Intel ist z.Zt 2 Generationen vorraus, wenn man die Finfet-Vorteile grob als Shrink rechnet.
Selbst wenn Intel da 5000 Dollar pro Chip mehr wollte, würde sich diese Einmalzahlung mit dem Stromverbrauch über die mehrjährige Einsatzdauer wieder amortisieren.
Wenn die Haswell-E mit 256bit FMA Ende des Jahres auf dem Markt kommen, ist es zappenduster.
Würde mich ja freuen, wenn AMD einen Excavator mit FD-SOI mit 2xCMT+2xSMT aus dem Hut zaubert, aber ich glaub nicht dran.
Und selbst das Teil hätte es gegen Haswell-E schwer. In dem Geschäft wird auf Heller und Pfenning geschaut, dort gilt: Knapp daneben ist auch vorbei. Ein hypothetischer Super-Opteron kann noch so ein Riesenschritt für AMD sein, solange er hinter Haswell-E liegt, wird den keiner kaufen.
Traust Du AMD zu, nen Haswell-E zu überholen?
Ergo ist das Fazit damit klar: FX+BD-Opterons Adieu.
Passend dazu auch die aktuelle heise news:
Große Server verkaufen sich immer schlechter | heise online (http://www.heise.de/newsticker/meldung/Grosse-Server-verkaufen-sich-immer-schlechter-2127318.html).
Bei den x86-Servern geht es dagegen aufwärts, allerdings im Mittel nur leicht. Doch einige Bauformen, vor allem günstige Cloud-Server für hohe Packungsdichte, sowie manche Hersteller schafften sehr hohes Wachstum. In 2-3 Jahren wird man froh sein, dass AMD gerade noch so die Kurve gekratzt hat und sich über ne billige 16core Großkatzen-APU von AMD unter/neben dem Tisch freuen.
Skysnake
2014-03-01, 13:29:37
Das sich die "großen" Server immer schlechter verkaufen ist aber keine Neuigkeit, sondern schon seit Jahren so.
Man braucht einfach keine 8P Server mehr für alle möglichen Anwendungen, sondern nur noch für sehr sehr sehr wenige. Die ganze Softwarelandschaft hat sich halt gewandelt. Vieles läuft heute auch auf Clustern, was mal noch auf SMP Systeme angewiesen war. Auch gerade mit Failover usw hat sich sehr viel getan.
Zudem steigt die Speicheraustattung der Server stärker als die Speicheranforderungen von Software. SSDs haben da auch ihren Packen mit beigetragen.
Was AMD braucht ist "einfach" ein konkurrenzfähiges Produkt in einem der Kernbereiche. Mit den ARM-SOCs hat man das eventuell. Zumindest sind es interessante Produkte. Den Markt kann man da aber nur schwer einschätzen, wie er sich entwickelt. Auch die kleinen APUs sind durchaus interessant, überschneiden sich aber teils mit den ARM-SOCs.
Was AMD z.B. noch bringen könnte, wäre ne CPU mit nem wirklich gescheiten Interconnect on Chip/Package. Würden die "Fibre-to-the-Chip" bringen, könnten die Locker wieder signifikante Marktanteile ergattern, weil Intel wohl nicht von Jetzt auf Gleich solche Anpassungen wird bringen können.
Was halt fehlt ist der Mut so etwas auch zu bringen. AMD ist da echt in ner blöden Situation. An sich müssen Sie etwas wagen, um signifikant Marktanteile gewinnen zu können, auf der anderen Seite kann Sie so ein "etwas wagen" auch richtig tief in die Scheise reiten, wenn es Probleme gibt....
AMD entwickelt sich da auch etwas in die Matrox Linie. Man macht was nötig ist, nistet sich in seine Niesche ein und merkt dabei nicht, wie man langsams absäuft...
Schaffe89
2014-03-01, 20:04:33
Und, nicht zu vergessen, der Uncore ist auch der eigentliche Rückstand auf Intel.
Der Uncore bringt in Anwendungen ca 10 bis 15%., in Spielen wohl ca 20%, wenn der Uncore mit dem Coretakt gesynct wird.
Also das ist etwa nur 1/3 von dem was AMD tun muss.
Wenn sie allerdings nen schmucken Fertigungsprozess hätten, würde das wohl schon reichen, um Intel einzufangen.
Ich warte persönlich immernoch gespannt auf den letzten Ritter, den FX-9990.
5,2ghz Takt, 5,5ghz Turbo, mitte 2014. :D
OBrian
2014-03-02, 04:49:00
Was AMD z.B. noch bringen könnte, wäre ne CPU mit nem wirklich gescheiten Interconnect on Chip/Package. kommt ja. Hast Du Dir die Specs des ARM-Opterons A1100 "Seattle" angesehen? Das ist ein kompromißlos auf Server zugeschnittenes Produkt, was alles bietet, was da gewünscht wird und nichts über hat, was man da nicht braucht.
Und falls sie sowas wie in ihrem Programmierleitfaden erwähnt (http://www.planet3dnow.de/cms/7353-potentieller-fx-nachfolger-amd-zeigt-16-kern-prozessorschema-in-programmierleitfaden/) tatsächlich bauen, wird es wohl auch eine vernünftige Anbindung erhalten.
Also ich würde AMD mal nicht abschreiben, nur weil sie keine mehrjährigen Roadmaps mehr veröffentlichen. Die sind ja immer anfällig dafür, nicht eingehalten werden zu können (vor allem, weil man ja im Zweifel von den Auftragsfertigern abhängig ist), und sie warnen nur unnötigerweise die Konkurrenz vor. Also hält man besser die Schnauze.
Skysnake
2014-03-02, 10:57:56
Das was da bei den ARM-Servern kommt ist nicht schlecht, aber im Prinzip doch wieder nur "Standard"-Kost.
Da fehlt der wirkliche Knaller.
Duplex
2014-03-05, 11:18:22
AMD hat alle Zutaten beisammen, warum sollte man Server/WS/FX links liegen lassen? Das macht einfach keinen Sinn. Es bringt nichts das Ende des FX herbeizureden, das kommt nicht. Totgesagte leben bekanntlich sehr lange :D.
AMD hat noch nichtmal das Niveau von Intels 32nm Prozess erreicht, auch 28nm wird das nicht erreichen können.
Guck mal wie weit der Vorsprung bei 32nm war, AMD hat keine Chancen mehr.
http://abload.de/img/xeone532nmzyu5u.png
------------------------
AMDs letzter guter Wurf gegen Intel war damals der K8 A64, der war aber auch nur konkurrenzfähig wegen Netburst.
Schaffe89
2014-03-06, 03:47:33
AMD fällt von Generation zu Generation weiter zurück. AMD ist am Ende, wird dieses Jahr Pleite gehen und dann an irgendwen verkauft werden.
Auch die Grafiksparte fällt immermehr ins Hintertreffen.
Nvidia hat mit Maxwell einen sehr sparsamen Chip, da wird AMD nicht rankommen.
Und diese negativen Einschätzungen sind wohl eher wahrscheinlich als positive.
grobi
2014-03-06, 05:42:35
AMD fällt von Generation zu Generation weiter zurück. AMD ist am Ende, wird dieses Jahr Pleite gehen und dann an irgendwen verkauft werden.
Auch die Grafiksparte fällt immermehr ins Hintertreffen.
Nvidia hat mit Maxwell einen sehr sparsamen Chip, da wird AMD nicht rankommen.
Und diese negativen Einschätzungen sind wohl eher wahrscheinlich als positive.
Trollalarm!
Du hast es auf meine ignorliste geschafft. :biggrin:
AMD hat noch nichtmal das Niveau von Intels 32nm Prozess erreicht, auch 28nm wird das nicht erreichen können.
Guck mal wie weit der Vorsprung bei 32nm war, AMD hat keine Chancen mehr.
http://abload.de/img/xeone532nmzyu5u.png
------------------------
AMDs letzter guter Wurf gegen Intel war damals der K8 A64, der war aber auch nur konkurrenzfähig wegen Netburst.
Das wage ich zu bezweifeln. Die Effizienz der Sandy-Bridge Architektur hat man nicht erreicht, das stimmt. Das liegt aber vor allem an der investierten Entwicklungszeit. SB wurde seit 2009 in Silizium entwickelt, BD knapp über ein Jahr. Das hat mit dem Fertigungsprozess nicht allzu viel zu tun. Man hat die µArch erst mit Steamroller überarbeitet, aber den dann mit viel zu wenig uncore-Takt gekoppelt, da war der nächste fail. Aber der Prozess (28nm SHP) ist dennoch ziemlich gut. Wenn man das beim Carrizo SoC besser hinkriegt siehts gar nicht schlecht aus.
Immer diese undifferenzierte Betrachtungsweise von dir und von Schaffe. Guckt doch mal auf die Hintergründe bevor die Schwarzseherei anfängt.
robbitop
2014-03-06, 11:11:05
IMO ist die ganze µ-Arch von AMD einfach ein Fehlschlag. Ich hoffe, die nächste wird besser.
Duplex
2014-03-06, 11:49:38
Man hat die µArch erst mit Steamroller überarbeitet, aber den dann mit viel zu wenig uncore-Takt gekoppelt, da war der nächste fail. Aber der Prozess (28nm SHP) ist dennoch ziemlich gut. Wenn man das beim Carrizo SoC besser hinkriegt siehts gar nicht schlecht aus.
Den Uncore Takt wird AMD sowieso nicht übermäßig anheben können, wenn das so einfach wäre, dann hätte man keine neue Architektur entwickelt, dann hätte man z.b. den K10 Uncore Takt mit neuer Fertigung mal eben verdoppelt, so einfach ist das nicht. Ich weiß nicht warum plötzlich der Uncore ins Spiel gebracht wird, der wurde so entwickelt und unterscheidet sich nicht ganz viel vom K10 Uncore.
Wir haben 2014 und AMD hat immer noch keine Architektur die pro Takt 30-50% schneller als K10 ist, AMDs BD Rechnung geht bis heute nicht auf, die Chips sind viel zu groß für die Leistung, bei den niedrigen Preisen kann kaum was übrig bleiben, man verdient nur Geld mit Konsolendeals, starke Produkte die besser sind fehlen im oberen Sektor.
Ein K8 erweitert auf 4 Fach Superskalär Design mit 64 Bit Technik, aktuelle Befehlssätze, 2x 256 Bit FPU, schnelle Caches + SMT wäre bestimmt damals nicht verkehrt gewesen, Bulldozer ist für AMD nicht das richtige, erst recht nicht weil AMD bei der Fertigung auf alte Prozesse setzen muss.
robbitop
2014-03-06, 11:58:07
Ein K8 erweitert auf 4 Fach Superskalär Design mit 64 Bit Technik, aktuelle Befehlssätze, 2x 256 Bit FPU, schnelle Caches + SMT wäre bestimmt damals nicht verkehrt gewesen, Bulldozer ist für AMD nicht das richtige, erst recht nicht weil AMD bei der Fertigung auf alte Prozesse setzen muss.
K8 war am Ende. Das kann man nicht mal eben "erweitern". Zugegebenermaßen war BD ein Schuss in den Ofen. Das sehe ich auch so. Aber sicher nicht wegen der Superskalarität.
Duplex
2014-03-06, 12:00:35
Naja, mit der Entwicklungszeit von Bulldozer (5-6 Jahre?) wäre der K8 bestimmt Leistungsfähiger als BD geworden, mit dem Design hat man im gegensatz zu BD viel mehr Erfahrungen gesammelt, Bulldozer ist bei gleichem Takt deutlich langsamer als die alte Architektur, war damals bei Pentium 3 vs. Netburst nicht viel anders.
Im Server Bereich ist Bulldozer kaum besser als K10, mit harter Entwicklung wäre die alte Architektur locker 30% pro Takt schneller, der K8 Kern wurde doch beim K10 kaum aufgebohrt, primär wurde die FPU auf 2x 128 Bit aufgebohrt, deswegen kann sich BD kaum vom K10 absetzen. Wenn man K8 & K10 im Server Bereich vergleicht, dann gibt es öfter riesen Unterschiede, das zeigt doch das die alte Architektur noch Reserven gehabt hat, ich denke nur das es komplizierter gewesen wäre, auch wegen den Befehlssätzen, aber unmöglich ist es nicht, Intel hat gezeigt was man aus Pentium3 machen kann :)
Cyphermaster
2014-03-06, 12:14:00
Man kann Architekturen nicht unendlich schrittweise weiterentwickeln; manchmal sind Ansätze einfach ausgereizt - auch Glühbirnen kriegst du mit Erfahrung und Entwicklungszeit nicht auf die Effizienz von LEDs.
BD ist nicht wegen mangelnder Erfahrungen damit schlecht (hatte man beim K8 ja auch anfangs nicht), sondern weil einige Annahmen zu Projektbeginn schlicht nicht eingetroffen sind, von den Fertigungsproblemen angefangen bis hin zur Softwarelandschaft. Man sieht ja auch, daß die weiteren Ausbaustufen trotz steigender Erfahrung die inhärenten Probleme des Grundkonzepts nicht beseitigen können, genau wie die Prescott-Kerne zwar besser waren als die Willamette, aber deshalb trotzdem kein großer Wurf.
Loeschzwerg
2014-03-06, 12:22:11
Jim Keller hat halt gefehlt :D
Viele EFT Theoretiker Anwesend, würde man innerhalb des EvE Online Ökosystems Sagen. :wink:
Man müsste nun Fragen wer diese, immer und immer wieder noch schlechter geschriebene und niedergemachte Architektur aus dem Alltag und der Praxis wirklich kennt!?
Denn komme mir vor wie aus ne Art Paralleluniversum gepurzelt, denn kenne sie eigentlich nur als enorm Starke Desktop Plattformen. Welche momentan sogar noch so ziemlich Konkurrenzlos wenn entsprechendes Profil abverlangt! Zudem es wahrscheinlich das wenn Intel 8 Kerner endlich dort auch mal am aufschlagen (zu wie üblich vermutlich Utopia Preisen? :rolleyes: ). Das AMD bis dahin größere FX noch nachschieben können wird, will und oder möchte? Weshalb sich an der eben gemachten Aussage (den Status Quo), auf absehbar wohl nichts ändern wird!?
Vor diesem Hintergrund finde es schon ziemlich daneben das Ding immer so runter zu Putzen. :mad: Denn beim Multitasking geht ein FX8 aktuell noch immer mit jedem anderen Desktop Prozessor spätestens im Finale dann Kegeln (kann man ja auch mal erwähnen)! ^^
robbitop
2014-03-06, 16:02:44
Tja nur leider ist nicht alles beliebig parallelisierbar.
IIRC ist ein FX8 auch bei hoch parallelisierten Anwendungen nicht schneller als ein i7. Verbraucht aber das Doppelte. Auf welche Messwerte beziehst du dich?
Multitasking meint oder bzw. steht in der Regel nicht für parallelisierte Anwendungen, obgleich diese natürlich dem heute oftmals genauso mit inbegriffen sein können.
Gemeint wenn z.b. 3 oder mehr Clienten eines MMO offen, Skype und TeamSpeak, natürlich oftmals auch ein Musikplayer im Hintergrund, nebst einen render clienten am laufen (raytracing). Zuzüglich vielleicht noch die ein oder andere VM, dann haben in dieser Palette sowohl als auch. Und ein gutes Beispiel dafür das es bei ausladenden Multitasken immer unwichtiger ob die Anwendungen jeweils selber gut parallelisiert, um dennoch den Vorteil zugunsten von mehr Kernen zu haben! :smile:
N0Thing
2014-03-06, 16:28:16
Gemeint wenn z.b. 3 oder mehr Clienten eines MMO offen, Skype und TeamSpeak, natürlich oftmals auch ein Musikplayer im Hintergrund, nebst einen render clienten am laufen (raytracing). Zuzüglich vielleicht noch die ein oder andere VM, dann haben in dieser Palette sowohl als auch.
Gibt wohl einfach zu wenig Leute, die Musik hören, dabei gleichzeitig mit unterschiedlichen Programmen mit anderen Leuten telefonieren und daneben auch noch den anderen genannten Kram machen wollen. :(
Das mag schon so sein, wobei ich nicht beurteilen würde wollen wie viele Leute ohne es zu Wissen oder zu Ahnen, sich aufs falsche Pferd haben setzen lassen? Und vielleicht nun nur selber sich einschränken und gewisse Dinge dann halt nicht tun wenn sie x noch machen möchten (es verschieben etc.)?
Wenn man es nicht anders kennt und zu dem noch der allgemeine negative Medien Tenor speziell auch gegenüber den FX8, da kann man schnell den Gedanken erliegen das es ohnehin nicht anders/besser ginge, es der allgemeine Technische IST-Zustand sei.
Wie dem auch sei, ich könnte tendenziell sehr wohl noch mehr Kerne gebrauchen im Desktop und hätte auch Verwendung dafür. Und für mein Profil sind “Mogelpackungen“ wie Hyper-Threading (https://de.wikipedia.org/wiki/Hyper-Threading) tendenziell eher Problematisch denn als gewinnbringend! :wink: Sei vielleicht noch extra vorbeugend angefügt für Leute die es dahingehend nicht so genau auf der Uhr was das eigentlich ist und welche natürlichen Grenzen dieser Geschichte jeweils inne wohnen.
Cyphermaster
2014-03-06, 17:02:28
Denn komme mir vor wie aus ne Art Paralleluniversum gepurzelt, denn kenne sie eigentlich nur als enorm Starke Desktop Plattformen. Welche momentan sogar noch so ziemlich Konkurrenzlos wenn entsprechendes Profil abverlangt!Genau dieses "wenn entsprechendes Profil abverlangt!" ist doch einer der Punkte, wo man mit den Annahmen daneben gelegen hat, die man bei der Entwicklung zugrunde gelegt hat. Aktuell ist offensichtlich immer noch ein anderes Nutzungsprofil als solch exzessives Multitasking vorherrschend - bzw. zumindest ausschlaggebend für die überwiegende Menge der Verkäufe.
Wie viele Leute wohl wegen irgendwas vielleicht für ihren Bedarf unpassend eingekauft haben, ist reiner Spekulatius, genau wie irgendwelche Annahmen, wieviele Leute wohl welchen Bedarf haben. Eine Extrapolation rein aus deinem Einzelfall heraus ist also nicht wirklich eine brauchbare Aussage diesbezüglich.
Was war denn falsch, meint man AMD hätte anders mehr als bissel über die pro MHz Leistung der K10 erreichen können oder gar an jene von Intel? Neben viel Technischen Knoff-hoff war auch etwas Glück dabei seitens Intel (das so doch noch landen zu können)!
Außerdem immer im Hinterkopf behalten was AMDs eigentliches Ziel! So manch einer sah und sieht nach wie vor etwa Entwicklungen wie Bulldozer und Jaguar getrennt, das sind sie aber nicht und waren es auch nie! Mit den Jaguars ist AMD nur schon wesentlich weiter bzw. schneller vorangekommen damit als bei den Großen. Über sie man auch ein seichtes Bild bekommt wohin es eigentlich weiter gehen soll/wird. :deal: Und mit Kaveri nun mehr der erste Spross dessen am Desktop anbelangt, die Großen werden kommen das ist nur noch eine Frage der Zeit. Hier darf man nur weiterhin gespannt sein ob AMD tatsächlich Blank zieht (etwa mit zusätzlich GDDR5 Speicher auf den Boards), oder es doch eher Konservativer beibehält, eins ist klar die Marschrichtung von AMD ist HSA! :wink:
Undertaker
2014-03-06, 20:23:02
Gemeint wenn z.b. 3 oder mehr Clienten eines MMO offen, Skype und TeamSpeak, natürlich oftmals auch ein Musikplayer im Hintergrund, nebst einen render clienten am laufen (raytracing). Zuzüglich vielleicht noch die ein oder andere VM, dann haben in dieser Palette sowohl als auch.
Nach welchen Benchmarks ist ein FX-8 da schneller als ein aktueller i7? Die Verhältnisse werden da kaum anders aussehen aussehen als in anderen, ausreichend parallelisierten Anwendungen. Zum einen hat auch der FX keine 8 vollen Kerne, zum anderen zählt ohnehin nur die resultierende Gesamtleistung. Alles andere ist eine Sache der Priorisierung.
Der Realität, der Praxis, gemeint solches kann man nur unzureichend bis überhaupt nicht vernünftig Benchen (im Sinne von in Balken und Diagrammen verwertbar), sondern nur erfahren!
Die FX Architektur ist schon heute Stärker beim Multitasking, sie wurde auch expliziter danach ausgerichtet von daher wenig überraschend. Anders gesagt es ist eine Philosophie-frage im Chip Design und AMD musste sich dem schon früher annehmen (Intel wird folgen). Da geht es grundlegend darum wie jeweils vorhandenen Ressourcen am effektivsten nutzbar vor zu halten, nicht so viel brach liegen zu lassen und unnötige Abhängigkeiten aufzulösen.
So sieht es zwar auf dem Papier nicht danach aus (auf dem ersten Blick), aber ein FX kann vorhandene Ressourcen schon viel besser ausspielen als z.b. die dem vorhergehenden K10, die hier ja auch immer wieder als dem überlegen stilisiert! :wink:
Im Finale wird es darauf hinauslaufen das es in CPUs der Zukunft Anzahl X an x86er Kernen geben wird welche an einen großen FP Cluster hängen der relativ flexibel. Software die, nennen wir es mal weiter zum besseren Verständnis FPU weniger benötigen. Wird diese Ressourcen dann für andere die es umso mehr nutzen wollen jeweils nicht mehr Blockieren. Bei Konzepten wie dem K10 müssen Programme ggf. nicht nur warten bevor sie wieder an die FPU kommen, sondern das alles schnell mal auch vergleichsweise nicht mehr sonderlich effektiv in Multitasking Szenarios. Wenn dem davor eben zunächst andere Programme und diese vielleicht sogar gerade die FPU überhaupt nicht oder nur kaum benutzen.
Man könnte auch sagen man hat spätestens bei dem K10 X6 seitens AMD diese Flaschenhälse erkennen können bzw. wurde klar das in einer Zukunft die auf immer mehr Kernen hinausläuft (bei mehr und mehr stagnierenden Fertigungsverfahren), es nicht so weitergehen kann alles nur stumpf zu duplizieren. Zudem Skaliert das zunehmend immer schlechter, selbst in gut parallelisierbaren Anwendungen (wie hier auch schon erkannt wurde).
So kann z.b. (als ganz einfaches, flaches), auf einem FX Modul einer der beiden x86er Kerne die gesamten FPU Ressourcen beanspruchen wenn der andere gerade mit etwas befasst was dessen nicht nutzt. Bei 2 K10 Kernen blieben hingegen Ressourcen ungenutzt liegen. Und das sind praktisch nur die ersten Ausläufer dieser effektiveren Zukunft.
FX ist der Grundstein, man hat da noch viel weitreichendes mit vor.
Ich weiß nicht ob das verständlich war?
N0Thing
2014-03-07, 01:18:49
Der Realität, der Praxis, gemeint solches kann man nur unzureichend bis überhaupt nicht vernünftig Benchen (im Sinne von in Balken und Diagrammen verwertbar), sondern nur erfahren!
Ich hatte ja vorher schon den Eindruck, daß da deinerseits ein paar Räucherstäbchen angezündet wurden, aber jetzt driftet es endgültig ins esoterische ab. :freak:
Oder nach Schaffe der nächste übernommene Account??
Nakai
2014-03-07, 02:12:50
BD hat schon einen OoO-Scheduler für die FPU. Aber mehr als 4 Int-Kerne für einen FPU-Kern kann ich mir niemals vorstellen(was auch irgendwie spekuliert wurde, für zukünftige BD-Revisionen). Wie soll das geroutet oder gebaut werden? Wie lang müssten die Leitungen werden? Wie sieht der Stromverbauch aus? Was sind die Latenzen?
Es hat schon seinen Grund, warum jeder Kern einen "nahen" FPU-Teil haben sollte. ;)
Ahja, HSA geht schon in die Richtung...
Das was man heute noch im allgemein darunter versteht wenn FPU geschrieben ist bei AMD intern schon längst Legacy. :eek:
Wenn es nur danach und so ginge würden die zukünftig alles über den internen GCN zukünftiger CPUs Abwickeln wollen. Allerdings wäre es kaum sinnig möglich völlig Transparent in HW um zu Mappen! Deshalb schon aus Kompatibilitätsgründen weiterhin eben jene Classic Pfade anbei bleiben und sobald auch nicht komplett vernachlässigt. Und somit bei den Großen es sicher bei dem 2x ALU + 1x dickere FPU Konzept bis auf weiteres bleiben wird. :wink:
Aber sie oder es wird zunehmend an Bedeutung verlieren und später nur noch von weniger gewichtigen Programmen (ala Video/Musikplayern etc.), weiterhin genutzt da Sinnig (wenn es ohnehin eh noch vorhanden und man so GPGPU Ressourcen frei halten kann für gewichtigeres). Zu diesem späteren Zeitpunkt könnte es hingegen aber durchaus möglich sein das man es weiter ausdünnen wird und u.a. dann doch noch mehr ALU pro Modul zusammenfasst.
Und wenn man sich unter diesen Augen das Ganze nochmal vornimmt erscheint das alles was bis heute dahingehend bereits unternommen, in einem viel konsequenteren Licht und durchaus nachvollziehbar. Das es die Opteron/FX in der Form überhaupt gibt wie u.a. für AM3+, ist der Tatsache geschuldet das man das andere ohne hin noch nicht hätte bauen können (seiner Zeit). Aber trotzdem schon mal ganz allgemein Erfahrung Sammeln musste (allein schon fertigungstechnischer Art), nebenher natürlich ohnehin auch Produkte dort brauchte. So wurden relativ elegant das beste draus gemacht und mit den Baumaschinen als Namensgeber Symbolisch unterstrichen (leider nur die wenigsten es bis heute so erfasst)! :frown:
Und es mag schon sein das AMD vielleicht auch noch eine Auskopplung ohne GCN letztmalig bringt (dafür mit noch mehr Modulen), als letzten Gruß, Boost und Dankeschön an die AM3+ Plattform/Besitzer? :smile: Auf den anderen oder gar neuen Sockeln wird es das natürlich nicht mehr geben (HSA ist das nächste Ding, die Zukunft)!
robbitop
2014-03-07, 08:55:12
Multitasking meint oder bzw. steht in der Regel nicht für parallelisierte Anwendungen, obgleich diese natürlich dem heute oftmals genauso mit inbegriffen sein können.
Gemeint wenn z.b. 3 oder mehr Clienten eines MMO offen, Skype und TeamSpeak, natürlich oftmals auch ein Musikplayer im Hintergrund, nebst einen render clienten am laufen (raytracing). Zuzüglich vielleicht noch die ein oder andere VM, dann haben in dieser Palette sowohl als auch. Und ein gutes Beispiel dafür das es bei ausladenden Multitasken immer unwichtiger ob die Anwendungen jeweils selber gut parallelisiert, um dennoch den Vorteil zugunsten von mehr Kernen zu haben! :smile:
Und das macht natürlich jeder. :|
Das was man heute noch im allgemein darunter versteht wenn FPU geschrieben ist bei AMD intern schon längst Legacy. :eek:
Wenn es nur danach und so ginge würden die zukünftig alles über den internen GCN zukünftiger CPUs Abwickeln wollen. Allerdings wäre es kaum sinnig möglich völlig Transparent in HW um zu Mappen! Deshalb schon aus Kompatibilitätsgründen weiterhin eben jene Classic Pfade anbei bleiben und sobald auch nicht komplett vernachlässigt. Und somit bei den Großen es sicher bei dem 2x ALU + 1x dickere FPU Konzept bis auf weiteres bleiben wird. :wink:
Aber sie oder es wird zunehmend an Bedeutung verlieren und später nur noch von weniger gewichtigen Programmen (ala Video/Musikplayern etc.), weiterhin genutzt da Sinnig (wenn es ohnehin eh noch vorhanden und man so GPGPU Ressourcen frei halten kann für gewichtigeres). Zu diesem späteren Zeitpunkt könnte es hingegen aber durchaus möglich sein das man es weiter ausdünnen wird und u.a. dann doch noch mehr ALU pro Modul zusammenfasst.
Und wenn man sich unter diesen Augen das Ganze nochmal vornimmt erscheint das alles was bis heute dahingehend bereits unternommen, in einem viel konsequenteren Licht und durchaus nachvollziehbar. Das es die Opteron/FX in der Form überhaupt gibt wie u.a. für AM3+, ist der Tatsache geschuldet das man das andere ohne hin noch nicht hätte bauen können (seiner Zeit). Aber trotzdem schon mal ganz allgemein Erfahrung Sammeln musste (allein schon fertigungstechnischer Art), nebenher natürlich ohnehin auch Produkte dort brauchte. So wurden relativ elegant das beste draus gemacht und mit den Baumaschinen als Namensgeber Symbolisch unterstrichen (leider nur die wenigsten es bis heute so erfasst)! :frown:
Und es mag schon sein das AMD vielleicht auch noch eine Auskopplung ohne GCN letztmalig bringt (dafür mit noch mehr Modulen), als letzten Gruß, Boost und Dankeschön an die AM3+ Plattform/Besitzer? :smile: Auf den anderen oder gar neuen Sockeln wird es das natürlich nicht mehr geben (HSA ist das nächste Ding, die Zukunft)!
Die ALUs in einer GPU und in einer CPU sind völlig anders aufgebaut. Die CPU ist besser geeignet für seriellen unsortierten Code. Da ist sie um Größenordnungen besser als die einfache ALU in der GPU. Die GPU hat einfache aber sehr viele ALUs. Sehr gut für einfachen parallelen Code.
Die meisten Anwendungen lassen sich nur begrenzt parallelisieren. Eine schnelle CPU wird es also immer brauchen. Man wird auch die FPU aus diesem Grunde nicht mit einer GPU ersetzen können. Das ist eine urbane Legende, die in Foren nicht tot zu bekommen ist.
Unabhängig davon ist HSA sicherlich ein sehr interessanter Ansatz - hilft aber auch nur in Fällen, wo viel parallelisierbar ist. Einen schnellen CPU Kern wird man trotzdem immer brauchen - und es entledigt einen auch nicht von dieser Aufgabe.
Twodee
2014-03-07, 09:14:46
Und das macht natürlich jeder. :|
Alle paar monate wieder :) - er gibt die Hoffnung nicht auf.
Er konnte bis jetzt noch keinen einzigen Beweis für seine ständig wiederholten Behauptungen liefern. Und wenn man ihm einen seltenen Multitasking-Test zeigt, wo eben jener FX8 nicht den gewünschten Vorsprung zeigt bzw. nur im Mittelfeld landet, dann wird der Test als unseriös oder Unfug abgestempelt, da L.ED kein Englisch kann :rolleyes:
Nakai
2014-03-07, 14:40:12
Das was man heute noch im allgemein darunter versteht wenn FPU geschrieben ist bei AMD intern schon längst Legacy.
Zum Glück muss es Legacy sein, man braucht ja Abwärtskompatibilität.
Wenn es nur danach und so ginge würden die zukünftig alles über den internen GCN zukünftiger CPUs Abwickeln wollen. Allerdings wäre es kaum sinnig möglich völlig Transparent in HW um zu Mappen! Deshalb schon aus Kompatibilitätsgründen weiterhin eben jene Classic Pfade anbei bleiben und sobald auch nicht komplett vernachlässigt. Und somit bei den Großen es sicher bei dem 2x ALU + 1x dickere FPU Konzept bis auf weiteres bleiben wird.
Also das zu mappen wäre ziemlich hart. Ein BD/PD/SR-Kern hat bereits 4 Ports für den INT-Teil(2ALU,2AGU;manche Instruktionen belegen nicht nur einen Port). Das Modulkonzept ist zwar interessant, aber in der derzeitigen Implementierung hat man sich irgendwie verschätzt.
Und wenn man sich unter diesen Augen das Ganze nochmal vornimmt erscheint das alles was bis heute dahingehend bereits unternommen, in einem viel konsequenteren Licht und durchaus nachvollziehbar. Das es die Opteron/FX in der Form überhaupt gibt wie u.a. für AM3+, ist der Tatsache geschuldet das man das andere ohne hin noch nicht hätte bauen können (seiner Zeit). Aber trotzdem schon mal ganz allgemein Erfahrung Sammeln musste (allein schon fertigungstechnischer Art), nebenher natürlich ohnehin auch Produkte dort brauchte. So wurden relativ elegant das beste draus gemacht und mit den Baumaschinen als Namensgeber Symbolisch unterstrichen (leider nur die wenigsten es bis heute so erfasst)
AMDs Codenamen waren schon immer geiler. ;)
Und es mag schon sein das AMD vielleicht auch noch eine Auskopplung ohne GCN letztmalig bringt (dafür mit noch mehr Modulen), als letzten Gruß, Boost und Dankeschön an die AM3+ Plattform/Besitzer? Auf den anderen oder gar neuen Sockeln wird es das natürlich nicht mehr geben (HSA ist das nächste Ding, die Zukunft)!
HSA wird bei Wald- und Wiesencode so schnell niemals eingesetzt werden...wie soll es das auch?!
Weil es im anderen Thread unpassend ist, ziehe ich es hier rüber:
Ich meine, dass 20 % noch untertrieben sind.
Keine Ahnung. Ob wir das jemals erfahren? :frown:
Es wird aber zumindest sehr vermutlich ausreichen um viele Dinge rund um dessen genügend entkoppeln zu können bzw. um eben jene Ressourcen viel effizienter als heute nutzbar zu machen. So das man in dem Bereich Transistoren Einsparen kann ohne wirklich noch negativ behaftete folgen im späteren (aktuell ist es noch nur im Ansatz umgesetzt).
Es ist nun mal so das Aufgaben Bereiche unterschiedliche auslasten oder nur brauchen und die FPU im Zuge dessen ja auch immer umfangreicher wurde und weiterhin wird. Es ist sinnig sich Gedanken darüber zu machen, wie und das einander auch vielleicht ggf. komplett unabhängige/getrennte Aufgaben (Programme/Anwendungen), diese Ressourcen gleichzeitig dennoch nutzen können, weil vieles es eh nur mäßig tut (wenn überhaupt), im Angesicht was da eigentlich heute schon alles drin steckt!
@Twodee
Hatte mich schon mal selbst ernsthafter hingesetzt über dieses Thema (es Benchen und Diagrammen zu können). Und kam zu Erkenntnis das es nicht sinnig möglich, darüber hinaus auch zur Infragestellung des Themas an sich was ins Philosophische nun driften täten.
Was man aber festhalten kann ist das Profil an sich, wer ein solches Anwenderprofil eben nicht besitzt für dem ist das alles Böhmischerwald und da einfach mal meinen um die Ecke kommen zu können und nen vermeintlich Bench zum Thema hinzu kotzen, wo unsereins sich selber nicht im klaren wie das anzustellen!? Ist meiner Meinung nach nur Vermessen, so wirkt das dann auch und natürlich nimmt man solches nicht ernst! :mad: Wenn gleich schon am Aufbau und der Herangehensweise zu sehen das die Leute überhaupt nicht verstanden was beim massiveren Multitasking die relevanten Punkte oder wie man Umgebungen entsprechend zuvor auch anpasst damit es tatsächlich so rund funktioniert (nicht alles ist Out of the box ohne dem vernünftig und somit ohne Praxis bezug). :wink:
Das hat in etwa den Wert als wenn als nicht Indiana Jones Type (gemeint keine Erfahrung/Bezug zum Thema), mit nem City Jeep und nem echten kurzzeitig spontan ins Gelände vor der Stadt und daraufhin freudig die Tauglichkeit auch für den City auf dem Bereich meint festzustellen. Das diese Kisten in Wahrheit beim wirklichen Dschungel-einsatz (gar über mehre Monate), eher wenig zuverlässige Partner wird man darüber nicht Festellen. Ein jeder mit halbwegs Verstand hat das natürlich bei dem Beispiel nun dennoch Präsent.
Aber in der Zivilisation ist das nicht wirklich relevant und in Dschungel zu fahren haben die Meisten eh nicht vor. Von daher es gleich wieder getrost gefälligst weckzublenden und wenn doch, würden man sich halt was anderes zuvor besorgen.
Autobeispiele sind im Regelfall daneben/blöde und so gehe auch nicht von aus das meins es richtig treffen konnte.
OBrian
2014-03-08, 10:00:26
sag mal, übersetzt Du Deine Texte erst per Google Translate ins Chinesische und wieder zurück, bevor Du sie postest?
john carmack
2014-05-15, 22:01:11
Wann kommen eigentlich die großen (FX 8xxx) Steamroller CPU´s?
StefanV
2014-05-15, 22:21:53
Voraussichtlich gar nicht.
Kenny1702
2014-05-15, 22:21:55
Wenn welche kommen sollten, hätte man vermutlich hier schon was gehört, aber so sind die News (http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-5-februar-2014) vom 5. Februar nach wie vor aktuell. Es macht anscheinend kaum Sinn sie zu bringen.
john carmack
2014-05-16, 23:09:47
Und die Excavator FX CPU´s ?
Duplex
2014-05-16, 23:13:52
Dieses Jahr gibt es keine Steamroller oder Excavator FX/Opterons, wenn überhaupt gibt es neue Piledriver in 32nm (evtl. PD 20h Kerne), man sollte bis ende des Jahres nochmal warten, wenn bis dahin keine neue Roadmap kommt, dann wird AMD diese Architektur wahrscheinlich einstampfen.
Edit:
Theroretisch könnte AMD ein FX/Opteron Steamroller in 28nm Halfnode fertigen, aber wegen 10% Leistungsplus gegenüber Piledriver in 32nm lohnt sich das nicht, die Kosten sind für solche Sachen zu hoch, dann besser das Geld sparen und in eine neue Architektur investieren.
32nm dürfte bei GloFo Dresden grad vollständig durch 28nm ersetzt werden. Es wird 100% keine neuen 32nm-CPUs mehr geben.
PD 20h ist genau so tot wie SR und EC-CPUs. Es gibt nur die APUs in 28nm und später (U)LP-APUs in 20nm, alles weitere ist K12 und 14nm, neue Architektur, neuer geeigneter Prozess und neue Plattform. Es machte aus AMDs Sicht einfach keinen Sinn weiteres Geld BD hinterherzuwerfen. Da nutzt man lieber alle verfügbaren Ressourcen für was ganz neues, wirklich konkurrenzfähiges.
occ-kh@Mirko
2014-05-17, 00:30:52
32nm dürfte bei GloFo Dresden grad vollständig durch 28nm ersetzt werden.
Ja, aber auf Bulk-Silicon-Wafern Basis.
Psychopat
2014-05-17, 11:42:59
Nachdem sie mit den APUs ja schon Erfahrung damit haben CPUs in einem Bulk Prozess zu fertigen, kann ich mir eigentlich schon vorstellen das es noch einen viermodul BD in Bulk geben wird. In welcher Form auch immer, evtl. auch als APU. Dafür müsste auch nicht mehr viel entwickelt werden, das Knowhow ist vorhanden was Architektur und Prozess angeht. Bis zum K12 ist es noch lange hin...
Das Design an sich wird nicht das Problem sein. Eher stellt sich die Frage ob sich die Fixkosten für Entwicklung, Validierung und bei der Fertigung durch die zu erwartenden Stückzahlen wieder reinholen lassen, woran ich starke Zweifel hege.
Nachdem sie mit den APUs ja schon Erfahrung damit haben CPUs in einem Bulk Prozess zu fertigen, kann ich mir eigentlich schon vorstellen das es noch einen viermodul BD in Bulk geben wird. In welcher Form auch immer, evtl. auch als APU. Dafür müsste auch nicht mehr viel entwickelt werden, das Knowhow ist vorhanden was Architektur und Prozess angeht. Bis zum K12 ist es noch lange hin...
Auf welcher Plattform? Es gibt nur FM2+ mit maximal 100W. Das lohnt nicht. AM3+ und C32/G34 würden zwar gehen, aber würdest du noch ne Plattform mit PCIe2 kaufen? Ist also auch keine Option. Und viel schneller als ein Vishera wäre er auch nicht, selbst die 220W-CPUs wären mit dem recht frischen Prozess sicherlich auch nicht drin. Von daher produziert man halt Vishis auf Halde und lebt davon bis zum K12, fertig. Großer Absatz von G34 ist eh nicht mehr zu erwarten, Hauptsache wird sein, dass überhaupt noch was da ist.
Ja, aber auf Bulk-Silicon-Wafern Basis.
Korrekt. Wobei sicherlich mit FDSOI auch in Dresden experimentieren wird, aber ob das für AMD ne Option mal irgendwann wird steht in den Sternen. Kann ja durchaus sein, dass K12 gar nicht in 14 FinFET kommt, sondern in 14FDSOI. Ausgeschlossen ist das nicht nur um das noch mal zu erwähnen. Immerhin soll FDSOI deutlich billiger als FinFETs und besser für High-Performance-CPUs geeignet sein als FinFETs. Das sind allerdings alles Spekulationen und wilde Versprechungen. Ich will nur damit sagen, dass für AMD dahingehend alles offen ist.
fondness
2014-05-17, 14:06:20
Einen 32nm SOI Chip wird es von AMD nicht mehr geben. Ein 4 Modul Steamroller macht auf 28nm SHP keinen Sinn, da man die höhere IPC durch die geringeren Taktraten wieder einbüßt (siehe Kaveri). Dazu ist die AM3-Plattform verwaltet und gehört dringend erneuert - das rentiert sich also hinten und vorne nicht mehr. Es wird kein neuen "High-End"-Bulldozer Chip mehr kommen.
Nächstes Jahr kommt der auf Energieeffizienz getrimmte Kaveri-Nachfolger Carrizo mit Excavator-Kernen. Dazu gibt es mit dem Projekt Skybridge noch zwei pinkompatible x86 und AMR-SoSs. 2016 kommt bereits K12 und wohl auch ein entsprechendes x86-Äquivalent. Ob AMD dann auch wieder eine "echte" High-End CPU-only Plattform wagt bleibt abzuwarten.
Skysnake
2014-05-18, 09:05:46
Korrekt. Wobei sicherlich mit FDSOI auch in Dresden experimentieren wird, aber ob das für AMD ne Option mal irgendwann wird steht in den Sternen.
Ja tun Sie. Deswegen gehts ja auch ständig hin und her, hin und her...
FDSOI->Ja->Nein->Vielleicht->Nein doch nicht->Oh ja doch wir machen das usw
Kann ja durchaus sein, dass K12 gar nicht in 14 FinFET kommt, sondern in 14FDSOI. Ausgeschlossen ist das nicht nur um das noch mal zu erwähnen. Immerhin soll FDSOI deutlich billiger als FinFETs und besser für High-Performance-CPUs geeignet sein als FinFETs. Das sind allerdings alles Spekulationen und wilde Versprechungen. Ich will nur damit sagen, dass für AMD dahingehend alles offen ist.
FDSOI ist ganz interessant, weil man kleine Transistorgruppen mit nem eigenen Body-Bias effektiv versehen kann. Ohne halt tripple Wells zu haben. Zudem reduziert sich, soweit ich das verstanden habe auch insegesamt der Substrateffekt. Guard-Rings sollte auch effektiver werden, weil man eben bis zum FOX den Guard-Ring wahrscheinlich runter ziehen wird. Das bedeutet weniger Noise, was wiederum bedeutet, das man die Transistoren mehr auf Kante nähen kann, also Spannungen absenken kann, was sowohl High-Clock als auch Low Power zu Gute kommt.
Die Drain&Source Kapazität sollte auch sinken, wenn ich das richtig im Kopf habe, was natürlich auch wieder allen Designs zugute kommt, genau wie die kleinere Kapazität im Channel, was den Backshot reduzieren sollte.
Kurz um, auch Low Power Designs profitieren davon. Selbst die laufen heute ja mit rund 1GHz oder gar mehr. Bis zu einem gewissen Grad profitieren auch Hochtaktdesigns davon. Halt solange man bei CMOs Logik bleibt und nicht auf CML umschwenkt, wobei die natürlich auch vom niedrigeren Noise profitieren.
Psychopat
2014-05-18, 11:48:02
Auf welcher Plattform? Es gibt nur FM2+ mit maximal 100W. Das lohnt nicht.
Ein FX-6300 hat eine TDP von 95 Watt, wie der A10-7850K. Eine 3-modul APU für FM2+ zu bringen wäre kein Problem. Müsste man halt beim Grafik-Part reduzieren.
Ein FX-6300 hat eine TDP von 95 Watt, wie der A10-7850K. Eine 3-modul APU für FM2+ zu bringen wäre kein Problem. Müsste man halt beim Grafik-Part reduzieren.
Ein FX6300 ist ja noch weniger Konkurrenzfähig... (außer im Preis).
Danke Skysnake für die Aufklärung. Wie gesagt, es ist alles offen, solange es kein offizielles Statement von AMD dazu gibt. Solange muss man wohl einfach von "14nm" sprechen und fertig.
fondness
2014-05-20, 09:58:11
Angeblich soll AMD auf der APU14 bestätigt haben das man an einem neuen High-End-CPU-Design arbeitet:
http://www.computerbase.de/2014-05/amd-apu-14-neue-fx-prozessoren/
Voodoo6000
2014-05-20, 10:01:32
Das wäre wirklich genial. Dennoch habe ich starke Zweifel ob man Intel noch einmal Parole bieten kann. Wenn der kommt wird Intel schon bei 10 nm sein. Es würde aber in den Zeitraum fallen in dem mein 4770k ausgemustert wird, also vielleicht kann ich mir dann endlich wieder eine AMD CPU kaufen:)
Thunder99
2014-05-20, 11:01:11
Jeder wünscht es AMD, selbst die Konkurrenz (wegen Wettbewerbshüter) :freak: aber 2016 ist ein langer Weg wo noch viel passieren kann.
Wie soll AMD die Durststrecke im Server-Geschäft durchhalten?
fondness
2014-05-20, 11:02:31
Wie soll AMD die Durststrecke im Server-Geschäft durchhalten?
Der Marktanteil im Serverbereich liegt eh bereits nahe null, da gibt es nichts mehr zu verlieren.
robbitop
2014-05-20, 11:04:20
Das wäre wünschenswert. Mit einem neuen Design kann AMD es aus den gewonnenen Erfahrungen nur besser machen. Und bis dahin gibt es auch den neuen 14 nm Prozess bei GF. Sicher ist Intel dann schon weiter - aber es wäre eine gute neue Basis.
Duplex
2014-05-20, 11:05:46
Das wird mit großer Wahrscheinlichkeit ein High IPC Design mit SMT, ähnlich wie Intel.
maximus_hertus
2014-05-20, 11:07:46
Yes! Selbst wenn es nicht ganz an Intel heranreicht wäre es ok. Hauptsache man ist einigermaßen in Schlagdistanz (z.B. ähnlich zu xp / p4 northwood).
Aber bis Ende 2016, evtl. sogar 2017 ist noch viel Zeit. Mich wundert jedoch, dass das so beiläufig erzählt wird.
Vielleicht ist damit nur ein nach oben skalierter K12 gemeint?
robbitop
2014-05-20, 11:16:11
Das wird mit großer Wahrscheinlichkeit ein High IPC Design mit SMT, ähnlich wie Intel.
Ist IMO auch der einzig sinnvolle Weg.
Vielleicht ist damit nur ein nach oben skalierter K12 gemeint?
Ich fürchte auch, dass es ein Missverständnis sein könnte. Ich finde kein Zitat von AMD, dass explizit besagt, dass an einer neuen High End µ-Arch gearbeitet wird.
Duplex
2014-05-20, 11:16:24
http://forums.anandtech.com/showthread.php?t=2322469
Vor fast 1 Jahr stand bereits fest das AMD den BD begraben wird, das war damals schon eine Bestätigung.
Unicous
2014-05-20, 11:30:48
@robbitop
Der wccftech-"Artikel" ist mal wieder geklaut, von mydrivers.com.
http://translate.google.com/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fnews.mydrivers.com%2F1%2F305%2F305092.htm
Laut mydrivers (bzw. der Google Übersetzung) hat Bernd Lienhard aber genau das gesagt: High Performance FX Series innerhalb von zwei Jahren.
robbitop
2014-05-20, 11:33:12
Naja bei einer Übersetzung von Mandarin kann auch schnell ein Missverständnis passieren. Auch schon im Verständnis desjenigen, dem das erzählt wurde.
Schön wäre es ja.
Unicous
2014-05-20, 11:43:29
Da hast du völlig recht. Zum Beispiel haben die guten "Journalisten" von wccftech, da gleich einen Artikel daraus gemacht und behaupten, Kaveri wäre ein Excavator/Steamroller Hybrid. In der Übersetzung steht in Klammern bei Steamroller auch Excavator. Aber was das im Zusammenhang bedeuten soll, kann natürlich nur jemand der die chinesische Schriftsprache versteht und ordentlich übersetzen kann.;( Aber nein. So einen Menschen kennen wir hier in Pakistan nicht und das ist uns auch egal, Hauptsache einen neuen Klickartikel fabrizieren.
Dann wäre es ja langsam Zeit für einen eigenen Thread, sonst gibt's hier ein Durcheinander, wenn kurz vor Launch neue Excavator-Gerüchte auftauchen.
Unicous
2014-05-20, 13:17:58
Meinst du so einen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=553190
Skysnake
2014-05-20, 14:53:42
Der Marktanteil im Serverbereich liegt eh bereits nahe null, da gibt es nichts mehr zu verlieren.
Dem muss man wohl leider zustimmen
Das wird mit großer Wahrscheinlichkeit ein High IPC Design mit SMT, ähnlich wie Intel.
Wer sagt das?
Und vor allem, wer sagt, das es eine reine CPU wird, und keine APU?
Wurde ja auch nur rein zufällig auf einer APU-Veranstaltung angeblich erzählt :tongue:
Akkarin
2014-05-20, 15:08:23
APU schließte einne guten CPU teil nicht aus. Intel hat ja auch ne iGPU drin.
Thunder99
2014-05-20, 15:38:33
APU schließte einne guten CPU teil nicht aus. Intel hat ja auch ne iGPU drin.
bei jeglicher Server CPU? Eher nicht. D.h. es Bedarf schon einer extra CPU ohne GPU Anteil
Duplex
2014-05-20, 16:00:12
Wer sagt das?
Mit Hochtakt Designs hat AMD keine Chancen mehr, K10 & BD sind nicht mehr Konkurrenzfähig, diese beide Architekturen haben im vergleich zu Intel zuwenig Leistung pro Takt, eine neue Architektur macht nur sinn wenn es ein High IPC Design ist, alles andere wäre keine gute Wahl, ich glaube nicht das AMD sich nochmal so einen Fehler leisten kann. Man muss nicht immer alles versuchen schözureden.
Und vor allem, wer sagt, das es eine reine CPU wird, und keine APU?
Ob APU oder CPU ist doch egal, ich jedenfalls gucke mir sowieso nur den CPU Part an, die Pro Takt Performance muss stimmen, Befehlssätze oder HSA interessieren mich nicht, das ist nur eine Präsentation auf einem Papier weil man in der Realität sowieso nicht konkurrenzfähig ist, damit wird AMD nicht plötzlich größer, warum hat keiner Interesse an AMD APUs oder CPUs...
Aktuell hat AMD nur noch das Konsolen Geschäft was richtig läuft, alles andere scheint nicht mehr zu laufen.
Skysnake
2014-05-20, 18:15:24
Aha, du entscheidest also, was interessant ist, und was nicht. K alles klar.
Nur mal so als Hint. Was würdest du denn zu nem Kaveri sagen, bei dem die iGPU doppelt oder dreimal so groß ist, dazu nen Quadchannel Interface und nen HT Link?
Also quasi BD auf GPU-Steroiden. Für HPC, also High-Performance wäre das eine sehr sehr coole Sache.
Bitte bitte bitte macht nicht den Fehler, High-Performance mit Single-Thread-Leistung in einen Hut zu schmeisen.
Das eine hat mit dem anderen nämlich erstmal rein gar nichts zu tun.
Schaffe89
2014-05-20, 19:11:43
Die News die da kam ist doch sowieso nur eine Erfindung.
Als ob AMD neben K12 ARM+x86 noch an einer High End Architektur für x86 arbeiten soll, als wenn das finanziell sinnvoll wäre.
Das einzige was ich mir vorstellen kann, ist, dass AMD Excavator für FM3 auflegt, und diese letzte Stufe von Bulldozer noch auspresst wie eine Zitrone um dann auf K12 umzuswitchen.
Aktuell hat AMD nur noch das Konsolen Geschäft was richtig läuft, alles andere scheint nicht mehr zu laufen.
Solche pauschalen Stammtischparolen helfen zwar darin nicht überlegen zu müssen, aber das wars auch schon.
Unicous
2014-05-20, 19:27:34
Bernd Lienhard, Corporate VP und General Manager fürs Client Business hat diese Aussage in einem Interview am Rande der APU 14 in China gegenüber mydrivers.com getätigt.
Es ist also keine Erfindung, du kannst einfach nur nicht lesen. Oder du willst es nicht. Ich tendiere bei dir natürlich zu Letzterem. Lesen bitte mit verstehen substituieren.
Schaffe89
2014-05-20, 20:58:56
Wenn du jetzt die Quelle verlinken würdest, wäre ich dir dankbar.
Unicous
2014-05-20, 21:05:33
Meine Fresse lies den scheiß Thread.
:facepalm::facepalm::facepalm::facepalm::facepalm::facepalm::facepalm::facepalm:
Locuza
2014-05-20, 21:11:50
Wenn du jetzt die Quelle verlinken würdest, wäre ich dir dankbar.
http://translate.google.com/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fnews.mydrivers.com%2F1%2F305%2F305092.htm
Im Grunde steht da nur das, dass FX-Line-Up ein Upgrade in 2 Jahren erhält, nicht das AMD an einer High-Performance-Architecture arbeitet.
Die Frage ist natürlich wie AMD verfahren will. Wir haben ja schon viel (Fantasie-)Stuff.
Angeblich soll es einen Nachfolger von den Katzen Cores geben, dann soll mit dem K12 ARM-Core ja ein ähnlicher x86 Core herauskommen, wo die italienische Seite behauptet hat, dass das ganze sehr modular aufgebaut ist.
Also die SIMD-Engine könnte man wechseln und auch ein L3-Cache stünde wieder zur Verfügung.
Wie viele Linien von Architekturen will AMD in Zukunft führen?
Oder hat man dann nur eine Kern-Architektur für Mainstream/High-Performance und versucht das durch die Anzahl der Kerne, eine andere SIMD-Engine und L3-Cache zu skalieren?
Oder führt man 3 Architekturen, Katzen Cores, K12 x86 und noch eine High-Performance-Architecture?
Stirbt vielleicht alles als konkrete Linie aus und es bleibt nur ein Modulares-Set übrig?
Leider nichts konkretes, aber immerhin so viele Gerüchte und bisher bin ich optimistisch das AMD x86 nicht zu sehr schleifen lässt, sondern wieder in Angriff nimmt.
Schaffe89
2014-05-20, 21:57:44
Meine Fresse lies den scheiß Thread.
Ich bezog mich vorrangig auf die Schwachsinnsnews bei PCGH, Computerbase und Konsorten.
Nirgends steht was von einer neuen Architektur, oder das AMD an etwas arbeitet.
Da steht einfach nur es kommt ein Update, was das auch immer sein soll.
Wahrscheinlich wird das ein Excavator mit angepasster Fertigung sein, oder eben ein Ableger mit deaktivierter GPU.
Der K12 wird in zwei Jahren sicherlich nicht fertig sein, eher 2017/18, ergo wir das weiterhin ein Bulldozer Ableger sein.
Es ist also keine Erfindung, du kannst einfach nur nicht lesen. Oder du willst es nicht. Ich tendiere bei dir natürlich zu Letzterem. Lesen bitte mit verstehen substituieren.
Wenn du was persönliches gegen mich hast, dann nutze die Ignorefunktion ;)
Vor fast 1 Jahr stand bereits fest das AMD den BD begraben wird, das war damals schon eine Bestätigung.
Kann sein dass Bulldozer eine Sackgasse ist, allerdings wird der wohl länger genutzt als das dir lieb ist.
In zwei Jahren soll was kommen, das deutet doch eher wieder auf einen Bulldozer Ableger hin. Excavator kommt wohl mitte 2015.
Leider nichts konkretes, aber immerhin so viele Gerüchte und bisher bin ich optimistisch das AMD x86 nicht zu sehr schleifen lässt, sondern wieder in Angriff nimmt.
Ich bin mit der Neuen Führung um Rory Read sehr zufrieden und hoffe auf sinnvolle Produkte die einem direkten Schwanzvergleich mit Intel aus dem Weg gehen können.
X86 ARM Hybride oder endlich mal ein funktionierendes HSA.
Nakai
2014-05-20, 22:08:25
@Schaffe89:
Ich bezog mich vorrangig auf die Schwachsinnsnews bei PCGH, Computerbase und Konsorten.
Nirgends steht was von einer neuen Architektur, oder das AMD an etwas arbeitet.
Da steht einfach nur es kommt ein Update, was das auch immer sein soll.
Wahrscheinlich wird das ein Excavator mit angepasster Fertigung sein, oder eben ein Ableger mit deaktivierter GPU.
Der K12 wird in zwei Jahren sicherlich nicht fertig sein, eher 2017/18, ergo wir das weiterhin ein Bulldozer Ableger sein.
Also AMD hat auf deren Keynote definitiv von 2016+ gesprochen. Ich erwarte auch eher 2017.
Nächstes Jahr:
Carrizo(28nm)
Nolan(20nm)
AMDs A57 Lowpower (20nm)
Skybridge(ARM und Nolan)
2016:
AMD K12-ARM(FinFet) (Wann X86-64 Ableger kommt wurde nicht gesagt)
Unicous
2014-05-20, 22:09:10
@Schaffe89:
Nein, wird es nicht. Es gab schon aus mehreren Ecken den Hinweis, dass es Excavator nicht mehr in eine (FX-)CPU schaffen wird.
Hingegen gab es von mehreren Seiten die Spekulation, dass es 2016 eine komplett neue Architektur geben wird, u.a. von bitsandchips.it, oder auch Techreport. Geleakte roadmaps zeigen, dass Piledriver auch in 2015 im "High End" aktuell bleiben wird. Nun sagt ein hochrangiger AMD Executive es wird ein Update in den nächsten zwei Jahren geben. Die Wahrscheinlichkeit für Excavator tendiert gegen null.
Und Ignoranz ist natürlich die schlechteste Möglichkeit deinen falschen Aussagen und Polemiken entgegenzusteuern. Das Ignorieren ist eine deutsche Unart und hat schon so manches Unheil ausgelöst.:wink:
Wie wäre es eigentlich, wenn du einfach mal den Thread durchliest, bevor du postest?
Ach Schaffe, jetzt wirst du auch noch konkret. Mitte 2015.
Und deine Quelle offenbahrst du uns sicherlich auch noch, oder?
Locuza
2014-05-20, 22:09:48
Da steht einfach nur es kommt ein Update, was das auch immer sein soll.
Wahrscheinlich wird das ein Excavator mit angepasster Fertigung sein, oder eben ein Ableger mit deaktivierter GPU.
Der K12 wird in zwei Jahren sicherlich nicht fertig sein, eher 2017/18, ergo wir das weiterhin ein Bulldozer Ableger sein.
Das ist jetzt aber eine Spekulation von dir und auch relativ negativ gefasst.
Mit Steamroller hat AMD nichts in Angriff genommen, klar das Ding skaliert nicht nach oben hin.
Excavator wird 256-Bit Pipes haben, aber soll man deswegen jetzt die FX-Reihe wieder in Angriff nehmen und damit Server?
Nein, da oben steht bis Ende 2015 noch Piledriver.
Ich erwarte also das gleiche wie bei Steamroller/Kaveri auch und dann haben wir schon das Jahr 2016, wo K12 (ARM) kommen sollte.
Klar, AMD ist nicht bekannt dafür seine Pläne einzuhalten und es bleibt abzuwarten ob nicht die Foundrys selber dann AMD einen Strich durch die Rechnung machen, aber die Sache liegt offen.
Mit Glück kommt alles wie geplant 2016.
In zwei Jahren soll was kommen, das deutet doch eher wieder auf einen Bulldozer Ableger hin. Excavator kommt wohl mitte 2015.
Wer weiß das schon genau?
Es könnte auch eine direkte und passende Ablöse für die Bulldozer Linie darstellen.
Excavator Endstation, Hallo X-Architecture 2016.
Nakai
2014-05-20, 22:14:16
Eine angepasste APU kann auch relativ schnell zusammengebaut werden. AMD baut mittlerweile sehr viele synthetisierbare Designs mit Standard-Bibliotheken.
Wenn sich ein Produkt verspätet, kann ein "Refresh" relativ zügig bereitgestellt werden. Ob ein Produkt sich verspätet, erfahren wir normalerweise nicht sehr schnell, aber es kündigt sich normalerweise in der Entwicklungspipeline ziemlich zeitig an. Dass AMD den K12 "angekündigt" hat, heißt, dass dessen Entwicklung bereits fortgeschritten ist.
Unicous
2014-05-20, 22:33:01
Die neuen Architekturen sind sicherlich schon seit Ende 2011 in Planung. Seitdem stand man auch schon mit ARM in Verhandlung und kurz vor Verpflichtung von Keller wurde ja schon die zukünftige Implementierung des Trustzone Chip ankekündigt. Zwei Monate nachdem das verlorene Kellerkind (scnr:freak:) wieder zu AMD gestoßen ist verkündet AMD 64bit ARM Chips herstellen zu wollen. Daran hatte Jim Keller meines Erachtens noch keinen direkten Einfluss.
Ich bin ja eigentlich kein Fan von BSN und Theo Valich aber vllt. hatte er bzw. seine Quellen ja doch recht.
According to our sources, we should expect to see a dual-core x86 "Jaguar" with dual-core 64-bit ARM. The codename for this #AMDARM project was "2+2", btw. Naturally, this is not all, as the hybrid ARM/AMD APU will also integrate Freedom Fabric and a integrated GPU (OpenCL).
http://www.brightsideofnews.com/2012/10/29/amd-to-launch-hybrid-64-bit-arm2c-x86-chips-for-servers-in-2014-on-14nm/
Das hört sich eher nach Brainstorming an, denn daraus scheint sich ja Skybridge ergeben zu haben.
Furthermore, we heard rumors that the company decided to kill their high-performance CPU cores and the Opteron line of products, as it would mean finally giving up on competing with Intel in high performance space, and only utilize its FirePro GPU cores to go against Xeon / Xeon Phi.
Auch diese Gerüchte gab es 2012 schon. Zu der Zeit wollte ich das auch nicht glauben, denn Piledriver war ja gerade vor ein paar Jahren gelauncht und es gab eine Architektur roadmap.
Zu der Zeit ging man auch noch davon aus, dass 2014 14XM startet und mit dem Prozess die darauf hergestellen Produkte.
Ich glaube da gibt es eine Korrelation. Ich behaupte, wenn GF schneller mit ihren Prozessen am Start gewesen wäre, hätte AMD auch die entsprechenden Produkte herstellen lassen. Da sich die Prozesse (28nm und jetzt 14XM/nm) so stark verzögert haben, wurden die meisten einfach eingestellt und ein Alternativplan aufgestellt. Man muss ja auch bedenken, dass Kaveri schon 2013 hätte erscheinen sollen. Krishna/Wichita auf 28nm Basis schon 2012.
Zu der Spekuliererei mit den Entwicklungszeiten möchte ich mal das bestätigte (fragt mich nicht wo das war) Vorgehen bei den GPUs als Beispiel nennen. Dort hat man mit GCN angefangen direkt nachdem VLIW5 fertig war. Das heißt die Weiterentwicklung und die Neue Architektur laufen parallel.
Überträgt man das jetzt auf CPUs könnte das bedeuten, dass die K12 entwicklung gestartet hat, als Bobcat so weit war. Für die High-End-Architektur wäre das dann der Bulldozer-Start.
Nur mal so als Denkanstoß.
fondness
2014-05-20, 22:57:04
Ein paar Infos zum K12 von Lisa Su bei einer JPMorgan Konferenz:
And so we will be doing a unique micro architecture in ARM in the 2016 timeframe, we call that core the K12 Core. But I think it gives you an idea of how we think about it. It's really a very strategic move towards ensuring that we are able to bring something to the ARM ecosystem that actually doesn't exist today in terms of the performance levels and the power levels that we think we can get into. In addition to that, we have a whole set of IP that we can integrate together with our CPU cores. And so that IP around graphics, multimedia and system integration gives us a very differentiated position in the high end of the ARM market.
Also wohl ganz klar High-Performance Ausrichtung.
Unicous
2014-05-20, 23:02:48
Nichts für ungut, aber das war schon seit der Präsentation klar.
http://www.amd.com/en-us/press-releases/Pages/ambidextrous-computing-2014may05.aspx
Kriton
2014-05-21, 11:46:34
Ist high end ARM denn auch high performance im Sinne X86?
Unicous
2014-05-21, 12:16:56
Da sie high performance aber low power sind, werden sie garantiert nicht die, ich nenne jetzt mal eine willkürliche TDP-Grenze von 25 Watt überschreiten (bei z.B. 8 ARM-Kernen). Und da die Dinger auf Embedded bzw. Thin Client Server ausgerichtet sind, wird es davon auch eher keine Desktop-Versionen geben, falls du darauf hinaus willst.
Also es kommt 2016 sehr sicher erst der x86 und erst danach die ARM-Variente (x86 Frühjahr und ARM Herbst? + optionale Verschiebung natürlich). Ganz einfach, weil der x86er schon deutlich länger in Entwicklung sein dürfte. Ich bin mir aber mit den FinFETs nicht mehr sicher. Intel hat Probleme, GloFo auch und bei TSMC weiss mans nicht. Sollten die Hersteller erst mal großflächig auf 20nm planar setzen, wird das mit den FinFETs noch dauern. Aufgrund der Thematik neige ich mittlerweile zu 14nm FDSOI für die Chips mit hohem Stromverbrauch. Meiner Ansicht nach ist dieser Prozess eher verfügbar als FinFETs und evtl. einfach besser geeignet. Samsung will das wahrscheinlich aus genau diesem Grunde auch nutzen. Ich fürchte, dass die Foundries was FinFETs angeht wieder mal viel zu optimistisch waren.
reaperrr
2014-05-21, 23:14:29
Also es kommt 2016 sehr sicher erst der x86 und erst danach die ARM-Variente (x86 Frühjahr und ARM Herbst? + optionale Verschiebung natürlich). Ganz einfach, weil der x86er schon deutlich länger in Entwicklung sein dürfte.
Das ist kein Grund.
Erstens haben AMD selbst mal erwähnt, dass die Entwicklung einer völlig neuen x86-Architektur relativ lange dauern würde, länger als bei ARM, zweitens wäre es angesichts von AMD's öffentlichem Fokus auf K12 sehr gut möglich, dass am K12 mehr Ingenieure sitzen.
Im x86-Markt wäre es selbst mit einer deutlich besseren Architektur schwer, gegen Intels Fertigungsvorteil und Marktmacht anzukommen. Im ARM-Server-Markt hat AMD dagegen tatsächlich die Chance Marktführer zu werden, wenn sie es richtig anstellen.
Das ist kein Grund.
Erstens haben AMD selbst mal erwähnt, dass die Entwicklung einer völlig neuen x86-Architektur relativ lange dauern würde, länger als bei ARM, zweitens wäre es angesichts von AMD's öffentlichem Fokus auf K12 sehr gut möglich, dass am K12 mehr Ingenieure sitzen.
Im x86-Markt wäre es selbst mit einer deutlich besseren Architektur schwer, gegen Intels Fertigungsvorteil und Marktmacht anzukommen. Im ARM-Server-Markt hat AMD dagegen tatsächlich die Chance Marktführer zu werden, wenn sie es richtig anstellen.
Das macht keinen Sinn. Natürlich ist das ein Grund. Der ARM ist genauso selbst designt wie der x86er, nur die ISA ist ne andere.
Das macht keinen Sinn. Natürlich ist das ein Grund. Der ARM ist genauso selbst designt wie der x86er, nur die ISA ist ne andere.
Da ist AMD aber anderer Meinung:
19:01 Uhr: AMD K12-Core wird erstmals der ARM. Man wird x86 aber nicht vernachlässigen, wie Papermaster gerade sagt. Details? Fehlanzeige bisher.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Core-Innovation-Update-Livestream-1119874/
Unicous
2014-05-22, 11:29:59
@ndrs
Ich möchte HOT keineswegs beipflichten, aber aus einem grammatikalisch fehlerhaften Satz kann ich leider nichts ableiten. Was wird der K12-Core erstmals? Bunt? Rund?
@HOT
Seit wann der X86 in Entwicklung ist, wissen wir genauso wenig. Wir wissen auch nicht wann K12 von der Planungsphase in die Entwicklungsphase übergetreten ist.
Und ob Intel Probleme mit ihren 14nm Finnen haben, wissen wir auch nicht. Sie sparachen von "defect density issue" also zu vielen Fehlern/Defekten per Wafer, schätze ich. Niemand hat jemals von konkreten Problemen mit FinFETs gesprochen.
robbitop
2014-05-22, 12:07:52
Meint ihr nicht, dass man ein modulares Design entwickelt und das dann jeweils als ARM oder x86 ausrüstet? Würde das eigentlich Sinn ergeben? Kann man damit Entwicklungsressourcen sparen?
Die Frage ist insbesondere an Leute mit etwas CPU Wissen wie BlackbirdSR, Coda, Alphatier, Demirug und Co gestellt. Würde mich wirklich interessieren. :)
Ich tippe mal darauf, dass AMD versucht, so effizient wie möglich mit seinen Entwicklungsressourcen umzugehen. Wenn man am Ende nur noch 1x Design entwickeln muss und es für 2 ISAs bringt (macht dann vielleicht so viel Arbeit wie 1,5x Designs zu haben), hat man schonmal gut Ressourcen gespart, die man in die Erstellung von kundenspezifischen SoCs stecken kann.
Unicous
2014-05-22, 12:32:11
Das wurde doch von AMD schon bestätigt. Zwei verschiedene ISA-Kerne die austauschbar sind. D.h. Sie müssen auch ungefähr gleich groß sein.
Die Frage die sich jetzt nur stellt: Gibt es ein vertikal skalierendes X86 Design, dass Low Power/Low Cost und gleichzeitig High Performance ermöglicht. Oder sind es weiterhin zwei Designs wie bei den Katzen und Bulldozer und zusätzlich ARM.
Ersteres hört sich kosteneffektiver an, letzteres effizienter, weil man auf die jeweiligen Bedüfnisse noch besser eingehen kann. Bei AMDs finanzieller Situation von vor ein paar Jahren ausgehend klingt erstere Variante plausibler.
Nakai
2014-05-22, 12:36:19
Ich denke man muss erstmal etwas investieren, um eine Architektur soweit zu bringen, dass sie X86-64 und ARMv8 kompatibel sind. AMDs Ausführungseinheiten sind so aufgebaut, um ihre MakroOps auszuführen. Inwieweit diese MakroOps mit dem ARM-Befehlssatz kompatibel sind, wird interessant. ARM ist auch gut erweiterbar bezüglich CoProzessorfunktionalitäten. ARMs Speichermodell ist auch schwächer, als das Speichermodell von X86, was Probleme mit sich bringen könnte.
Die Anzahl der General Purpose Register ist auch unterschiedlich, was mit einem effektiven Register Renaming einigermaßen abgefangen werden sollte. ARMv8 hat 31 GPRs, während X86-64 16 GPRs hat.
Ich glaube man kommt nicht dabei rum, so ziemlich alles neu zu konzipieren. Viele Teile können bestimmt übernommen werden, aber im Grunde wird man wohl versuchen, nur das Frontend austauschen und das Backend ein bisschen anpassen zu wollen. Den Ausführungsteil will man eigentlich niemals anfassen...
Skysnake
2014-05-22, 12:49:32
Meint ihr nicht, dass man ein modulares Design entwickelt und das dann jeweils als ARM oder x86 ausrüstet? Würde das eigentlich Sinn ergeben? Kann man damit Entwicklungsressourcen sparen?
Die Frage ist insbesondere an Leute mit etwas CPU Wissen wie BlackbirdSR, Coda, Alphatier, Demirug und Co gestellt. Würde mich wirklich interessieren. :)
Ich tippe mal darauf, dass AMD versucht, so effizient wie möglich mit seinen Entwicklungsressourcen umzugehen. Wenn man am Ende nur noch 1x Design entwickeln muss und es für 2 ISAs bringt (macht dann vielleicht so viel Arbeit wie 1,5x Designs zu haben), hat man schonmal gut Ressourcen gespart, die man in die Erstellung von kundenspezifischen SoCs stecken kann.
Klar kann man Entwicklungsressourcen sparen. Man muss halt vieles nur einmalig entwickeln
Speicherinterface
PCI-E
SATA, USB und alle anderen "low" speed Interfaces
SRAM/Caches
Clockgenerierung
Alles mögliche an onChip Measuring
Wie man ECC an allen möglichen Stellen implementiert
Da lässt sich schon sehr viel wiederverwenden, wenn man auf synthetisierte Designs setzt, bzw eben gescheite Interfaces hat.
Das wurde doch von AMD schon bestätigt. Zwei verschiedene ISA-Kerne die austauschbar sind. D.h. Sie müssen auch ungefähr gleich groß sein.
Man muss erstmal rein gar nichts gleich groß sein. Es gibt mehr als genug Buildingblocks, die man einfach austauschen kann, und AMD hat da schon sehr viel Erfahrung durch ihre x86-Serveraktivitäten über Jahre/Jahrzehnte. Die nötigen IPs sind vorhanden und validiert. Das hat die Konkurrenz nicht zwingend. Gerade der ganze I/O Kram hat für Servergrade doch nochmal andere Anforderungen als für irgend nen Mobilezeug.
Die Frage die sich jetzt nur stellt: Gibt es ein vertikal skalierendes X86 Design, dass Low Power/Low Cost und gleichzeitig High Performance ermöglicht. Oder sind es weiterhin zwei Designs wie bei den Katzen und Bulldozer und zusätzlich ARM.
Ersteres hört sich kosteneffektiver an, letzteres effizienter, weil man auf die jeweiligen Bedüfnisse noch besser eingehen kann. Bei AMDs finanzieller Situation von vor ein paar Jahren ausgehend klingt erstere Variante plausibler.
Von nem 1:1 Replacement zwischen zwei Architekturen würde ich definitiv lieber Abstand nehmen. Das macht einfach gar keinen Sinn.
Nakai
2014-05-22, 12:56:46
Von nem 1:1 Replacement zwischen zwei Architekturen würde ich definitiv lieber Abstand nehmen. Das macht einfach gar keinen Sinn.
Irgendwo wird wohl der Haken sein, bei dem spätestens abgezweigt wird. Es macht auch keinen Sinn, zwei Designs im gleichen Leistungssegment zu bringen, wenn der Markt das nicht wünscht. Ich denke, X86-64-K12 > ARM-K12, einfach, weil ARM im HighPerformance-Bereich noch nicht vertreten ist. Wie es in 2-3 Jahren aussieht, keine Ahnung, aber es gibt Bestrebungen ARM langsam in den oberen Segmenten einzuführen(Vulcan).
@ndrs
Ich möchte HOT keineswegs beipflichten, aber aus einem grammatikalisch fehlerhaften Satz kann ich leider nichts ableiten. Was wird der K12-Core erstmals? Bunt? Rund?
Naja, ich war ehrlich gesagt nur zu faul weiter zu googeln. Ich hab das an mehreren Stellen zur K12/Skybridge-Präsentation gelesen aber konnte auf die schnelle nix besseres finden. Dann streich einfach das Zitat und ersetze es durch "Ich meine mich zu erinnern" :D
Ich tippe mal darauf, dass AMD versucht, so effizient wie möglich mit seinen Entwicklungsressourcen umzugehen. Wenn man am Ende nur noch 1x Design entwickeln muss und es für 2 ISAs bringt (macht dann vielleicht so viel Arbeit wie 1,5x Designs zu haben), hat man schonmal gut Ressourcen gespart, die man in die Erstellung von kundenspezifischen SoCs stecken kann.
Das Thema ist doch faktisch schon beantwortet, es gibt nur 1 CPU-Designteam bei AMD, da wird nicht zw. ARM und x86 unterschieden.
Ergo muss man mit vielen Gemeinsamkeiten rechnen, da wird der Adder sicherlich nicht 2x erfunden ;-)
Interessant wirds wieviel AVX sich AMD im neuen Core gönnen will.
256bit-FMA braucht 512bit pro Takt aus dem L1-Cache, ARM begnügt sich dagegen mit 128bit, ähnlich SSE, bzw. AVX128 in den aktuellen Katzenkernen.
Also wenn sie da AVX256 oder gar FMA in einem Rutsch unterstützen wollten, müssen sie das Cachedesign/Speichersystem ggü. der ARM-Lösung stark ändern.
Bin mir nicht sicher, ob es da Design-Abkürzungen gäbe, z.B. für ARM 32kB L1-Cache mit 3x128bit und für x86 "einfach" auf 64kB mit 3x256bit verdoppeln.
Falls nicht, läge es nahe sich mit AVX128 zu begnügen.
AMD könnte sich für FMA-Power auch auf seine GPU-Anteil bei APUs verweisen. Deckt sicherlich nicht alle Anwendungsfälle ab, aber die meisten und ob sich für die paar Sonderfälle eine dicke FPU mit Zusatzstrom- Flächenverbrauch etc. rentieren würde?
Durch die Konsolen wird AVX128 aus Spielesicht auch mittelfristig das Instruktionset der Wahl sein. Also für nen FX ausreichend (solange die restliche IPC gut genug ist), für nen Opteron ... siehe vorherigen Absatz.
Unicous
2014-05-22, 14:54:06
@ndrs
Na was genau meinst du denn gelesen zu haben? Bzw. was möchtest du uns sagen?:smile:
Bei PCGH gibt es ja ganz unten den Direktlink zur Präsentation dessen Aufzeichnung immer noch verfügbar ist. (Müsste ungefähr ab Minute 45 sein)
Da wird nichts über den Zeitraum gesagt, wann die ARM-Architektur erscheint und wann der x86-Kern. Deswegen frage ich mich woher die Leute das alles haben wollen. Der x86 wird angesprochen, aber es wird niemals etwas annähernd Konkretes dazu gesagt, außer vllt. den Anmerkungen von Keller.
Was wir wissen (jedenfalls mMn) ist, dass man seit min. seit 2011 mit ARM in Verhandlung ist. Nicht nur wegen dem Trustzone-Kern auch wegen ein Lizenz, behaupte ich. Ob sich AMD nach Release von Bulldozer gleich einer komplett neuen Architektur gewidmet hat ist möglich aber genauso möglich ist, dass sie erst einmal noch bis 2012 Steamroller und Excavator (CPU) weiterentwickelt haben, das wurde dann gecancelt beim großen Aufwischen und man hat sich dann mit vllt. auch schon vor Keller einer neuen Architektur gewidmet.
Dass K12 erst für ARM, dann für x86 kommt.
Unicous
2014-05-22, 15:31:06
Du meinst also das dem AMD-Beidhänder ein Arm fehlt (also kein ARM:freak:)?
Kann ich mir nicht vorstellen. Die K12 Cores müssen gleichzeitig released werden, alles andere wäre dämlich. Zwar nicht AMD unähnlich und um noch ein wenig weiterzureimen denke ich, nämlich, dass sie die beiden abgestimmten Cores zuerst releasen und dann den High Performance Core, egal ob der auf dem K12 Projekt basiert oder nicht.
Kann ich mir nicht vorstellen. Die K12 Cores müssen gleichzeitig released werden, alles andere wäre dämlich.
Warum? Beide bilden eigenständig lauffähige Plattformen. Ich sehe keinen Grund, warum unbedingt beide gleichzeitig rauskommen müssen.
Unicous
2014-05-22, 16:49:19
Eigenständig lauffähig und dennoch auf das selbe Grundgerüst bauend.
Ich gehe auch davon aus, nein ich bin davon überzeugt, dass Project Skybridge 2015 gleichzeitig released wird.
Wie gesagt: Warum den einen ARM voranschicken wenn es doch um beide Arme geht? Das würde doch komplett gegen das Konzept laufen, eine austauschfähige ISA-Plattform zu haben, aber verfügbar ist nur die eine Hälfte.
Execution, execution, execution. Keine halbgaren Sachen mehr. Das in etwa dürfte Rory Reads Credo sein, mit dem er versucht AMDs Kurs umzulenken.
Skysnake
2014-05-22, 17:34:52
Kann ich mir nicht vorstellen. Die K12 Cores müssen gleichzeitig released werden, alles andere wäre dämlich. Zwar nicht AMD unähnlich und um noch ein wenig weiterzureimen denke ich, nämlich, dass sie die beiden abgestimmten Cores zuerst releasen und dann den High Performance Core, egal ob der auf dem K12 Projekt basiert oder nicht.
Die Idee an sich ist gar nicht so abwägig, wenn man sich mal anschaut, was AMD eigentlich mit HSA vor hat.
Man könnte auch in Betracht ziehen, das AMD einen x86-ARM bringt :biggrin:
Also eine CPU, die sowohl x86, als auch ARM Code nativ verarbeiten kann. Ist halt die Frage, wie man das löst. Auf die x86 CPU noch paar ARM Kerne schmeisen, oder den Decoder erweitern?
Ich tendiere eher zum Decoder erweitern. Wäre auf jeden Fall sehr lustig, was dabei raus kommen würde, und sowohl für die ganze ARM-Rotte als auch für AMD sehr vorteilhaft. Nur Intel würde da schlecht aussehen, und selbst integrieren werden die sowas nie.
Unicous
2014-05-22, 17:45:21
Schau mal eine Seite zurück,
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10218824#post10218824
Spekulationen und angebliche Insiderqullen dazu gab es schon 2012.
Ich denke aber, dass sowas wenn überhaupt erst 2017+ geschieht.
Nakai
2014-05-22, 23:17:45
Ich befürchte, dass K12, wegen der Kompatibilität für ARM und X86, schonmal etwas komplexer wird und womöglich zusätzliche Pipelinestages beinhaltet. Mich würde es nicht wundern, wenn X86-K12 fürs Decoding mehr Stages hat. Aber mal abwarten. Bulldozer sollte auch wegen CMT teilweise komplexer gewesen sein und sowas kostet indirekt Leistung, da es meistens dann woanders mangelt.
StefanV
2014-05-23, 00:10:56
Ich tendiere eher zum Decoder erweitern. Wäre auf jeden Fall sehr lustig, was dabei raus kommen würde, und sowohl für die ganze ARM-Rotte als auch für AMD sehr vorteilhaft. Nur Intel würde da schlecht aussehen, und selbst integrieren werden die sowas nie.
Ja, auf jeden Fall.
Wie schauts eigentlich mit dem Microcode aus? Kann man damit was machen, um zwischen ARM und x86 'umzuschalten'? Oder muss das ganze 'Hardcoded' sein?
Die Idee des gemeinsamen Decoders steht sicherlich im Raum, aber ich glaube nicht daran in der ersten Generation. Vielleicht im Refresh. µCode ist ja beliebig definierbar. Da wird man schon einen gemeinsamen Nenner finden.
robbitop
2014-05-23, 10:36:18
Schon wieder so exotische Ideen... Mit exotischen Ideen hat man keine guten Erfahrungen gemacht bisher. (ich weiß, dass man das nicht in eine Schublade tun sollte - aber es ist häufig ja so, dass man entweder Jack-of-all-Trades oder Master-of-one)
Skysnake
2014-05-23, 10:52:53
Ja, auf jeden Fall.
Wie schauts eigentlich mit dem Microcode aus? Kann man damit was machen, um zwischen ARM und x86 'umzuschalten'? Oder muss das ganze 'Hardcoded' sein?
Im Prinzip ist das, was der CPU-Core intern macht, völlig losgelöst davon, was der Instructionssatz vorgibt. Klar, hinten muss das richtige raus kommen, und es muss sich das richtige Verhalten zeigen, aber ansonsten ist man da ziemlich frei.
Deswegen gibt es ja auch so "Scherze" wie Registerrenaming, OoO, Branchprediction usw usw.
Die Unterscheidung zwischen RISC und CISC kann man so ja heute auch nicht mehr wirklich klar treffen bei x86 vs ARM. Sowohl RISC als auch CISC haben ihre Vor- als auch Nachteile, und sowohl die x86er als auch ARM haben sich jeweils bei den Vorteilen des anderen Bedient. Die Architekturen nähern sich daher aneinander an, auch wenn natürlich die Instructionssätze nicht kompatibel sind.
Das müsste der Decoder dann halt hinbiegen, was definitiv geht.
Tarkin
2014-08-20, 18:09:20
AMD Readies FX-8370, FX-8370E Microprocessors (http://www.xbitlabs.com/news/cpu/display/20140820095939_AMD_Readies_FX_8370_FX_8370E_Microprocessors.html)
The new FX-series microprocessors from AMD, which are due to be formally introduced on September 1, 2014, are the FX-8370 and the FX-8370E. Both chips feature eight cores, 4.10GHz/4.30GHz clock-rates, 8MB L2 cache, 8MB L3 cache and dual-channel DDR3 memory controllers. The FX-8370 will have thermal design power of 125W, whereas the FX-8370E will feature TDP of 95W. Both microprocessors will be priced at $189 in mass quantities.
Der FX-8370E klingt interessant - 100MHz mehr bei nur 95W (gegenüber FX-8350) - wird auch langsam Zeit!
SavageX
2014-08-20, 19:42:43
Wenn ich nach FX-8370E suche, finde ich auch Zeug wie
AMD FX 8370E 3.3GHZ BLACK SKT AM3+ L2 8MB 95W PIB
in einem französischen Shop
oder
FX 8370E 3.3GHZ BLACK CHIPSKT AM3+ L2 8MB 95W PIB
in einem spanischen. Ohne jetzt den Teufel an die Wand malen zu wollen könnte der FX 8370E vermutlich mit einem sehr laffen Basistakt aufwarten.
Kann natürlich auch sein, dass die Shops selber nicht die richtigen Daten haben.
AnarchX
2014-08-20, 21:10:44
Vielleicht bringt man das mit FX-8300 durcheinander, der erst seit kurzem für Endkunden in Asien verfügbar ist.
y33H@
2014-08-21, 08:13:11
Die Specs des 8370 klingen plausibel, die 95W bei gleichem Takt für den 8370E nicht. Der könnte die Retail-Version des 8300 für Europa/USA werden, der 8320E ist laut Händlern 100 MHz lahmer. Xbitlabs hat aber sogar Preise und Datum, da wäre es komisch, wenn sie die Specs des 8370E falsch aufschreiben *grübel*
Der 8370E hat garantiert 3,3GHz Basistakt und 4,3GHz Turbo. Die CPU ist sicherlich ein Kompromiss für all die AM3+-Bretter da draußen, deren VRM zu schlapp ist. Das wäre ne super Aufrüst-CPU.
y33H@
2014-08-21, 14:19:54
So was wäre eine Idee, ja.
Hübie
2014-08-21, 15:41:44
Preselection für gute ASIC (weniger Spannung) und geringere Package TDP lassen die Taktraten halt nicht so schnell hoch gehen. Man könnte so einer CPU auch 65 Watt als Grenze geben nur wird dann wohl nie der max Turbo erreicht. Bei 95 Watt dürfte dass auch nicht sehr oft auftreten.
Plausibel sind also beide.
Dural
2014-08-21, 16:40:05
Also ich verstehe nicht wie so AMD ihre CPUs links liegen lässt, man hätte schon längst eine überarbeitete Vishera CPU inkl. überarbeiteter Chipsatz für den AM3 Sockel bringen können, das wäre doch sicher auch für AMD Rentabel da ja erst 2016 was richtig neues kommen soll.
Auch wenn man nur 10% mehr Leistung rausholt und einen Chipsatz auf dem neusten Stand bringt, dazu noch PCI-E 3.0 und eventuell noch etwas an der Verlustleistung gedreht hätte, würde die Plattform doch derzeit deutlich besser da stehen. Zudem man ja von den APU das meiste so wie so schon "vorhanden" ist... ich werde AMD nie verstehen.
Duplex
2014-08-21, 16:52:58
Server & AM3 Desktop ist für AMD schon lange Tod, damit verdienen Sie kein Geld mehr.
Es lohnt sich nicht mehr Geld in diese Gebiete zu investieren.
Hübie
2014-08-21, 17:16:16
63% der verkauften Desktop-CPUs haben einen Grafikteil drin. Also bleiben noch 27% für LGA2011 und AM3(+). Was denkst du wieviel davon AMDs Anteile sind? ;)
Hansea7
2014-08-21, 17:24:57
Der Xeon ist teilweise ja auch "ohne VGA", wie wird der gezählt? Ich denke davon werden auch nicht wenige verkauft.
Von AMD wird 2016 keine High-End CPU kommen. Das ist doch jetzt schon Hinhaltetaktik. Wollen wir wetten, dass diese High-End CPU nächstes Jahr abgesagt wird. Ich glaube nicht mehr dran.
Hübie
2014-08-21, 17:31:29
Ich müsste bei JPR ne Anfrage starten, aber wenn ich vermuten müsste würde ich sagen der wird nicht gezählt, da Xeon Serversparte zugeordnet wird. Ich weiß gerade gar nicht ob es abseits des 2550k noch mehr Desktop -CPUs ohne iGPU gibt...
fondness
2014-08-21, 17:39:19
Also ich verstehe nicht wie so AMD ihre CPUs links liegen lässt, man hätte schon längst eine überarbeitete Vishera CPU inkl. überarbeiteter Chipsatz für den AM3 Sockel bringen können, das wäre doch sicher auch für AMD Rentabel da ja erst 2016 was richtig neues kommen soll.
Auch wenn man nur 10% mehr Leistung rausholt und einen Chipsatz auf dem neusten Stand bringt, dazu noch PCI-E 3.0 und eventuell noch etwas an der Verlustleistung gedreht hätte, würde die Plattform doch derzeit deutlich besser da stehen. Zudem man ja von den APU das meiste so wie so schon "vorhanden" ist... ich werde AMD nie verstehen.
Es fehlt aktuell schlicht der Fertigungsprozess, man hat sich gegen 22nm SOI IBM und für einen APU-Prozess entschieden. Ein Steamroller auf 28nm wäre wegen der niedrigeren Taktraten nicht schneller als ein aktueller Vishera.
63% der verkauften Desktop-CPUs haben einen Grafikteil drin. Also bleiben noch 27% für LGA2011 und AM3(+). Was denkst du wieviel davon AMDs Anteile sind? ;)
Also ich habe es so verstanden das 63% auf die iGPU setzen, der Anteil an verkauften Desktop-CPUs mit iGPU dürfte wesentlich höher sein.
Von AMD wird 2016 keine High-End CPU kommen. Das ist doch jetzt schon Hinhaltetaktik. Wollen wir wetten, dass diese High-End CPU nächstes Jahr abgesagt wird. Ich glaube nicht mehr dran.
Wenn man nichts hätte würde eine Hinhaltetaktik keinen Sinn machen und man könnte das ganze gleich begraben.
Hübie
2014-08-21, 18:08:21
Ich verstehe gerade nicht genau was du meinst. 63% nutzen die iGPU?
fondness
2014-08-21, 18:18:27
Ich verstehe gerade nicht genau was du meinst. 63% nutzen die iGPU?
Ja genau. Nur noch 27% der verkauften PCs haben eine dezidierte GPU, so stand es AFAIK auch in Bericht von JPR. Das heißt aber nicht das nur 63% der verkauften CPUs eine iGPU besitzen.
Der Xeon ist teilweise ja auch "ohne VGA", wie wird der gezählt? Ich denke davon werden auch nicht wenige verkauft.
Von AMD wird 2016 keine High-End CPU kommen. Das ist doch jetzt schon Hinhaltetaktik. Wollen wir wetten, dass diese High-End CPU nächstes Jahr abgesagt wird. Ich glaube nicht mehr dran.
Mit der Interposer-Technik ist es doch ein leichtes, CPUs in diesem Bereich anzubieten. Sicher kommt das wieder. Nur kommt da eben erst dann was neues, wenn das auch fertig entwickelt ist.
Dural
2014-08-21, 20:17:23
Ich spreche auch nicht von einem neuen Fertigungsprozess, man kann ja bei 32nm bleiben.
Will AMD das alte zeug etwa noch im 2015/16 verkaufen? Wenn man nicht Investieren möchte sollen sie die Produktion halt einstellen, den im 2015 wird man damit kaum noch was reisen können.
Hübie
2014-08-22, 01:56:18
Ja genau. Nur noch 27% der verkauften PCs haben eine dezidierte GPU, so stand es AFAIK auch in Bericht von JPR. Das heißt aber nicht das nur 63% der verkauften CPUs eine iGPU besitzen.
Wenn ich Zeit habe lese ich mir das Original gründlich durch. Bevor wir beide hier interpretieren sollten wir lieber nochmal genauer lesen (hab mir nur die News durchgelesen).
Ich spreche auch nicht von einem neuen Fertigungsprozess, man kann ja bei 32nm bleiben.
Will AMD das alte zeug etwa noch im 2015/16 verkaufen? Wenn man nicht Investieren möchte sollen sie die Produktion halt einstellen, den im 2015 wird man damit kaum noch was reisen können.
Warum wenn man noch ein paar CPUs unter die Leute bringen kann, verkauft man halt noch ein paar. Sind halt wenig, aber ist doch egal. Den 8370E find ich richtig sinnvoll um beispielsweise ein Asrock Extreme3 aufzurüsten. Das hätte man viel früher machen müssen.
Bis 2016 bleiben die Dinger eben im Programm. Die werden eh größtenteils noch aus Aufrüstoption verkauft, deswegen gibts auch nur neuer 8er.
Jetzt neue SR-CPUs zu verkaufen würde AMD ne Stange Geld kosten und kaum mehr Leistung liefern. Vielleicht wäre es sinnvoll gewesen ein Excavator-Update zu bringen, aber die Plattformen verkaufen sich sowieso nicht mehr gut und eine neue Plattform wird man sich bis 2016 aufheben, da ändert sich ja echt viel.
Askingar
2014-08-22, 10:10:36
Will AMD das alte zeug etwa noch im 2015/16 verkaufen?
Ich denke schon. Und was die TDP angeht, dass ist wohl nach dem Centurion und dessen Wasserkühlung von Haus aus, "guckt mal wir haben was Neues", der nächste Cup. Es gibt keinen gemeinsamen Standard für CPU TDP Vorgaben, was die CPU wirklich an Leistung aufnimmt steht auf einem anderen Blatt Papier. Da kann man auch einfach einen gemittelten Wert angeben der einem gut gefällt. Bißchen Spielerei am Takt und anderen Dingen macht es nicht besser. Ich finde die machen sich mittlerweile lächerlich.
Bei solchen Ansätzen hätte man sich wohl zuvor verkneifen sollen mitzuteilen, dass man vom eigenen Architekturansatz weg, mehr zu Intels SMT Konzept wechselt. Seit dem dürfte der FX tot sein, die Instabilitäten einiger Boardhersteller unter Lastsenarien mal völlig aussen vor.
Da kann man eher einen FX6300 kaufen.
fondness
2014-08-22, 10:34:34
Wenn ich Zeit habe lese ich mir das Original gründlich durch. Bevor wir beide hier interpretieren sollten wir lieber nochmal genauer lesen (hab mir nur die News durchgelesen).
Die Zahlen waren zwar nicht ganz korrekt, aber:
32% of PCs had discrete GPUs, (down 3.6%) which mean 68% of the PCs are using the embedded graphics in the CPU.
http://www.businesswire.com/news/home/20140818006066/en/JPR-Reports-AMD-Jumps-11-GPU-Shipments#.U_cAXmM_pru
Plus:
Ninety nine percent of Intel’s non-server processors have graphics, and over 65% of AMD’s non-server processors contain integrated graphics;
Das bedeutet zwangsläufig das deutlich mehr als 68% der ausgelieferten PCs eine iGPU haben.
Askingar
2014-08-22, 10:56:11
Die Frage ist doch eher wie sich die 68% iGPU Anteil im genannten Geschäft aufschlüsseln. Was wollte man in einem Office PC mit einem FX? Klar werden 68% der PCs mit iGPU ausgeliefert, aber wofür werden sie genutzt?
Ich kenne Firmen die haben nur PCs mit iGPUs.
anddill
2014-08-22, 22:42:34
Die E-CPUs sind doch Taktkrücken:
http://www.planet3dnow.de/cms/11570-amd-fx-8370e-und-fx-8320e-sind-deutlich-taktreduziert/
So ganz kann ich es nicht nachvollziehen warum AMD das macht. Die normalen FX-8320 laufen mit 1,2V und ziehen sowieso schon "nur" rund 100W. Und haben noch OC bzw Undervolting-Reserven. Da hätte man doch bestimmt was aussieben können.
Askingar
2014-08-22, 23:02:20
Die E-CPUs sind doch Taktkrücken.
Sicher sind sie das, warum AMD solche Wege geht, unverständlich.:confused: Manche Produktreihen sollte den Märkten vorbehalten bleiben, für den sie bestimmt sind. :freak:
Liszca
2014-08-22, 23:19:15
[...] die Instabilitäten einiger Boardhersteller unter Lastsenarien mal völlig aussen vor.
[...]
Bin nicht ganz sicher was du genau meinst.
Spielst du damit auf das frühzeitige heruntertakten bei Temperaturen zwischen 60 - 72°C an?
Askingar
2014-08-22, 23:29:57
Bin nicht ganz sicher was du genau meinst.
Spielst du damit auf das frühzeitige heruntertakten bei Temperaturen zwischen 60 - 72°C an?
Nein, auf den instabilen Last-Betrieb bei 8 Core's unter Turboclock und mieser VRM. Da kann AMD sicherlich nichts für, daher ausgenommen.
Liszca
2014-08-23, 00:21:23
Nein, auf den instabilen Last-Betrieb bei 8 Core's unter Turboclock und mieser VRM. Da kann AMD sicherlich nichts für, daher ausgenommen.
Aber der turbo gilt doch immer nur für ein kern pro modul.
y33H@
2014-08-23, 00:54:49
Der maximale Turbo gilt für zwei Module bei den FX-8k.
Die E-CPUs sind doch Taktkrücken:
http://www.planet3dnow.de/cms/11570-amd-fx-8370e-und-fx-8320e-sind-deutlich-taktreduziert/
So ganz kann ich es nicht nachvollziehen warum AMD das macht. Die normalen FX-8320 laufen mit 1,2V und ziehen sowieso schon "nur" rund 100W. Und haben noch OC bzw Undervolting-Reserven. Da hätte man doch bestimmt was aussieben können.
http://www.asrock.com/mb/AMD/970%20Extreme4/?cat=CPU
als Beispiel. 8370E sieht nun mal einfach besser aus als 8300.
maximus_hertus
2014-09-01, 21:07:31
Ist nicht heute der "Launch" für die E-CPUs bzw. der Pricecut? Irgendwie sehe ich bisher nix :/
Unicous
2014-09-01, 21:10:43
Nö, morgen.:tongue:
Die neuen FXe haben anscheinend einen metal respin bekommen.
http://www.xtremesystems.org/forums/showthread.php?289461-A-little-birdie-told-me&p=5237937&viewfull=1#post5237937
Z.T. deutlich weniger Leakage und die Spannung für die einzelnen Power States scheint auch runtergegangen zu sein. Aber gut, das macht Vishera trotzdem nicht zu einem Haswell-Herausforderer ;)
Das sind bestimmt die gleichen Änderungen, die man für Warsaw gemacht hat. Das kommt bestimmt nur erst jetzt im Consumermarkt an, weil die Lagerbestände der alten FX so riesig waren ;).
mboeller
2014-10-07, 12:07:11
http://www.computerbase.de/2014-10/amds-excavator-kerne-mit-carrizo-im-dezember/
wie bitte? Dezember?
OBrian
2014-10-08, 22:36:17
wird wohl bedeuten, in kleinen Dosen für Notebookhersteller, damit die ihre Designs anfangen können. Bis was für Endverbraucher kaufbar wird, gehen wohl noch ein paar Monate mehr ins Land.
Unicous
2014-10-08, 22:58:01
Ich schätze mal, das könnte (wenn überhaupt wahr:wink:) die "obligatorische Antwort auf Broadwell-Y/Core M sein.
Gemunkelt wurde ja schon eine Weile von einem Low Power Carrizo Derivat, es gab ja diese Mobile Platform Folie wo (iirc) z.B. der L2 Cache halbiert ist, da hatte ich ja schon vermutet, dass sie sich damit in den 15 Watt Bereich mogeln wollen. Vllt. geht es ja wie Core M sogar noch weiter runter, auf sagen wir 10-12 Watt?
Nakai
2014-10-09, 00:24:33
Also, dass AMD Beema und Mullins mit Carrizo ablösen will, sehe ich als völlig normal an. Mullins und Beema wollte auch niemand wirklich haben. Carrizo sollte HighDense-Libs verwenden, eventuell wird der Die 20~30% kleiner als Kaveri ausfallen, also um die ~160mm². Mit Delta-Color Compression sollte man ungefähr 30% höhere Performance, bei etwas weniger Stromverbrauch haben. Ich erwarte Verbesserungen im Stromverbrauch, die weiter gehen als Beema/Mullins. Excavator an sich wird wohl ein verbesserter Steamroller sein.
Unicous
2014-10-09, 00:40:38
Mit den ganzen tollen eingekauften, oder selbstentwickelten Technologien mit denen AMD über die Jahre hausieren gegangen ist, wäre ich vorsichtig ob das Gold ist oder nur poliertes Messing.
RCM, HDL und wie sie alle heißen. Natürlich ist es schwierig, diese Technologien einzubauen und die für das in Silizium "gegossene" Produkt die gesetzten Parameter einzuhalten, aber langsam geht mir das bei AMD auf die Nerven.
Ich würde mich wirklich freuen, wenn AMD das wirklich mal einsetzen würde, habe aber irgendwie das Gefühl, dass die Technologien schon wieder von anderen Entwicklungen eingeholt bzw. überholt wurden. Ähnliche Sache mit der beühmten Power Efficiency roadmap. Das klingt alles sehr toll, es muss dann aber auch wirklich flächendeckend in die Produkte implementiert werden.
Wenigstens Delta Color Compression ist ja halbwegs gesetzt, weil erprobt und vor allem: funktionierend.:freak:
Dass Beema niemand haben wollte, kann ich so nicht unterschreiben, es gibt deutlich mehr Produkte mit Beema als Kaveri. Mullins hat(te) es einfach schwer gegen Intels "Atom Push". Die Contra Revenue Sache hat da sicherlich auch nicht gerade geholfen.
Skysnake
2014-10-09, 08:17:14
Also über RCM kann man nicht meckern. Da kannste, wenn es denn mal wirklich funktioniert, praktisch nichts mehr dran verbessern. Das ist schon verdammt revolutionär, was die damit machen. Nur leider sieht man es eben in keinem Endprodukt -.-
M4xw0lf
2014-10-09, 08:26:50
Das ist schon verdammt revolutionär, was die damit machen. Nur leider sieht man es eben in keinem Endprodukt -.-
Kennst du geheime AMD-Prototypen mit RCM? :uponder:
Undertaker
2014-10-09, 09:34:18
Dass Beema niemand haben wollte, kann ich so nicht unterschreiben, es gibt deutlich mehr Produkte mit Beema als Kaveri.
Das war bei den jeweiligen Vorgängern genauso und liegt ganz einfach daran, dass AMD in den niedrigen Preisklassen einen höheren Marktanteil hat. Zudem ist immer wieder zu höheren, dass die mobilen Kaveri (offenbar anders als Beema) nicht entsprechend ihrer Performance gepreist und damit für die Hersteller vergleichsweise unattraktiv sind.
Skysnake
2014-10-09, 11:22:43
Kennst du geheime AMD-Prototypen mit RCM? :uponder:
Gibt genug veröffentlichte Paper usw dazu. Die Einsparpotenziale sind da schon recht massiv. Die Clock-Buffer müssen halt nicht mehr ne Grenzfrequenz von etwa der 5ten Oberwelle haben, was echt heftig Strom kostet, um die entsprechend schnell zu bekommen.
Unicous
2014-10-09, 12:00:42
Ich habe nicht über RCM gemeckert sondern über die fehlende Implementation und der Sorge, dass sich diese Investition nicht auszahlt, weil sie in zukünftigen Architekturen keine Verwendung mehr finden könnte. Einfach weil man einen anderen Weg gefunden hat, eine andere Technologie einsetzt die ähnliche Ergebnisse erreicht, denn offensichtlich scheint RCM ja nicht so einfach zu implementieren zu sein. Vor 2 1/2 Jahren wurde es bei Piledriver gezeigt, ein halbes Jahr später HDL bei Steamroller. Weder ist das eine bei Steamroller implementiert, noch wissen wir ob das andere bei Carrizo kommt, einer stop gap Architektur, bis der Nachfolger (voraussichtlich) 2016 aufschlägt.
Anderseits: Carrizo soll ja bei max. 65 Watt liegen, iirc. Vllt, ja vllt., haben sie ja wenigstens RCM implementiert, der sweet spot war ja glaube ich der 3-4 GHz Bereich. Das könnte dann den 30 Watt Drop erklären. (Oder aber sie deckeln einfach die TDP ab und es gibt einfach keine 95Watt Chips mehr:rolleyes:)
Locuza
2014-10-09, 12:11:53
Vllt, ja vllt., haben sie ja wenigstens RCM implementiert, der sweet spot war ja glaube ich der 3-4 GHz Bereich.
Cyclos hatte mal ein Skalierungspaper, wo ich mich an 3,3 Ghz oder so als besten Punkt erinnere, Gipsel und Skysnake meinten aber, dass man den Arbeitsbereich auch verschieben kann.
Es muss also keinen festen sweet spot geben.
Unicous
2014-10-09, 12:13:30
Das kann durchaus sein. Nur wissen tun wir es nicht, weil AMD es ja nicht implementiert.:P
Locuza
2014-10-09, 12:15:38
War es nicht so, dass es schon implementiert ist, aber nur teilweise oder einfach bisher nicht funktioniert?
Unicous
2014-10-09, 12:23:41
Ich glaube eher, dass haben wir uns alle selbst ausgemalt, als es bei Piledriver nicht implementiert wurde und dann bei Kaveri auch nicht.
Ich glaube ht4u hatte explizit nachgefragt und bestätigt bekommen, dass es nicht implementiert ist.
Ob es im Silizium schlummert und nicht aktiviert ist, kann man ja immer mutmaßen, aber bei HDL müsste es ja ziemlich offensichtlich sein.
Ich schätze auch, es liegt damit zusammen, dass die Bulldozer Reihe auf CPU-Seite nicht fortgeführt wurde. Ich könnte mir vorstellen, dass sie erst bei den CPUs mit RCM experimentiert haben und es dann auf die APUs übertragen wollten. Da es keine in die Freiheit entlassene Experimente gab, (bzw. produktionsfertiges Silizium) konnte man die nicht gemachten Erfahrungen vllt. nicht machen und hat es dabei belassen.
Wer weiß vllt. sehen wir das Ganze doch erst mit K12 und vllt. Skybridge, weil sie mehr Zeit hatten zu experimentieren und die Möglichkeit es von Grund auf zu implementieren.
Nichts Genaues weiß man nicht und AMD hat ja keinen Bock darüber zu sprechen (bzw. die "IT-Experten" schaffen es nicht, mal nachzufragen).
Skysnake
2014-10-09, 17:48:22
Das kann durchaus sein. Nur wissen tun wir es nicht, weil AMD es ja nicht implementiert.:P
AMD hat Implementierungen zumindest in TestChips gezeigt. Man muss sich nur die entsprechenden Paper von AMD und Synopsys bei IEEE anschauen.
Ich hatte selbst auch schon in die Paper zu RCM reingeschaut, weil ich mit Multi-GHz clock arbeiten muss, und es wahrlich nicht feierlich ist, was die an Saft verbraten. Die grundsätzliche Idee, was für eine clock, und vor allem warum man Sie so gern hätte, war jetzt unabhängig von RCM, aber RCM liefert halt genau das, nur noch dazu in schön :wink:
Also von daher, wenn Sie RCM zum laufen bringen in Großserie, dann gibt es absolut keinen Grund mehr, nen H-Tree zu verwenden für die Clock-Distribution, oder auch sonst irgend eine andere Form der Clock-Distribution.
Man implementiert damit, soweit ich das durchdringen konnte, die optimale Lösung für die Verteilung eines Clocks über eine große Distanz. Da kann man sicherlic noch massig tweaken, aber an sich ist der Lösungsansatz recht optimal. Man verwendet halt "einfach" ein Clock-Mesh, das sich in Resonanz befindet. Eine effizientere Übertragung geht nicht.
Unicous
2014-10-09, 18:13:36
Das Konzept an sich verstehe ich (leidlich). Aber wenn es denn so quasi-revolutionär ist, warum nutzt es dann nicht auch Intel, oder vllt. sogar IBM in ihren Server-Chips?
Ich glaube nicht, dass AMD sich bei Cyclos die Exklusivrechte für die Technologie erworben hat und es wurde ja auch schon an ARM Chips demonstriert.
Außerdem behauptete Cyclos ja, es würde schon "kommerziell" bei AMD Chips eingesetzt.
[...] AMD has successfully implemented Cyclos’ low-power semiconductor intellectual property (IP) in the AMD x86 core destined for inclusion in Opteron server processors and client Accelerated Processing Units (APUs).
“We were able to seamlessly integrate the Cyclos IP into our existing clock mesh design process so there was no risk to our development schedule.”, said Samuel Naffziger, Corporate Fellow at AMD. “Silicon results met our power reduction expectations, we incurred no increase in silicon area, and we were able to use our standard manufacturing process, so the investment and risk in adopting resonant clock mesh technology was well worth it as all of our customers are clamoring for more energy efficient processor designs.”
http://www.cyclos-semi.com/news/first_commercial_implementation.html
Ich finde es einfach mysteriös und es klingt für mich nach vapor ware (seitens Cyclos).
Linley Gwennap von der Linley Group, ein sehr (sehr) bekannter IT-Analyst hat ja auch für die PM einen money quote losgelassen:
"High-performance processors have used clock mesh designs for years, but with growing emphasis on power reduction in both servers and mobile PCs, the traditional approach has become too power hungry," said Linley Gwennap, principal analyst of The Linley Group. "This announcement proves that the Cyclos resonant clock mesh technology provides meaningful power savings in real-world products. We expect other processor designers to adopt the Cyclos technology in applications where power reduction is important."
Seitdem ist Totenstille. Keine PM , keine neuen (offiziellen) Implementierungen oder Partnerschaften.
Wenn RCM nicht in den nächsten Produkten (Carrizo, oder vllt. Skybridge Chips, K12/Zen) implementiert wird sehe ich nur ein gescheitertes Experiment an dem sich niemand die Finger verbrennen wollte, obwohl es die dollsten Dinge versprach.
Anstatt dessen gab es dieses Statement bei THG:
Originally, this story contained a page exploring resonant clock mesh technology, from Cyclos Semiconductor, which was expected to surface in AMD's Piledriver-based SoCs. Upon discussing this in greater depth with the company, however, "the timing of the products and the implementation of resonant clock mesh caused [the technology] to not be productized with "Piledriver" based processors." As such, we've removed that page to avoid any confusion.
http://www.tomshardware.com/reviews/fx-8350-vishera-review,3328.html
Na was denn nu, AMD? Ein paar Monate vorher noch behaupten, alles cool RCM konnte nahtlos eingearbeitet werden und so wie es aussieht wurde es dennoch nicht seit fast drei Jahren in ein Produkt gegossen (bzw. kann nicht genutzt werden, falls es schon im Silizium vorhanden ist).
Bei den High Density Libraries sehe ich es nicht so schwarz. Das ist eine logische Schlussfolgerung durch die jahrelangen Erfahrungen mit GPUs und APUs und Produktion selbiger. Ein Designkonzept aus der GPU-"Fertigung" auf den CPU-Part zu übertragen und das mit Hilfe von automatischen Routing-Tools etc. ist keine Magie sondern schnöde Abstraktion.:tongue:
edit: OK, stimmt nicht GF hatte 2013 "irgendetwas ARM" angekündigt (komisch warum Cyclos darauf nicht versessen ist, auf ihre eigene Seite zu schreiben?)
http://www.globalfoundries.com/newsroom/press-releases/2013/12/28/globalfoundries-and-cyclos-semiconductor-partner-to-develop-high-performance-low-power-arm-cortex-a15-processors-using-resonant-clock-mesh-technology
At today’s Common Platform Technology Forum, GLOBALFOUNDRIES and Cyclos Semiconductor, the inventor and only supplier of resonant clock mesh (RCM) technology for commercial IC designs, announced plans to implement Cyclos’ low-power semiconductor intellectual property in ARM® CortexTM-A15 processors using 28nm High-K Metal Gate (HKMG) process technology from GLOBALFOUNDRIES.
Was ich aber daraus lese ist: Ähm irgendwie haben wir (GF) Probleme es in High Performance Chips einzubauen, dann versuchen wir es halt mit ARM Chips.
Hier gibt es sogar ein kleines Interview mit dem Gründer von Cyclos
Lokv-bNUnEA
Triskaine
2014-10-09, 18:23:09
IBM nutzt bei den Power8 Chips bereits RCM, bringt ca. 5% Einsparung beim Gesamtverbrauch. On-Die Spannungswandler pro Core nutzen Sie auch schon.
Zu finden hier (http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=6757355) und hier (http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=6757354).
Skysnake
2014-10-09, 19:24:46
Oder auch einfach mal hier lesen:
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&arnumber=6026650&matchBoolean%3Dtrue%26queryText%3Dresonant+clock+mesh
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&arnumber=5515024&matchBoolean%3Dtrue%26queryText%3Dresonant+clock+mesh
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&arnumber=6917056&matchBoolean%3Dtrue%26queryText%3Dresonant+clock+mesh
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&arnumber=6176709&matchBoolean%3Dtrue%26queryText%3Dresonant+clock+mesh
Ich hab auch sonst noch ein paar Paper bei meiner Recherche gefunden, da müsste ich aber erstmal in meinen Unterlagen nachschauen, was das genau war.
Das Problem ist hier halt, die Sache auch entsprechend robust zu designen, damit es stabil unter PVT-Variationen funktioniert. Und natürlich auch entsprechende Yields dabei hat. Das ist gar nicht so einfach.
Unicous
2014-10-09, 19:36:33
Ist ja toll das ihr diese Papers, für die ich jeweils $31 bezahlen soll, verlinkt, aber wo steht da, dass es genau die gleiche bzw. ähnliche Technologie ist, die von Cyclos entwickelt wurde und dass sie in einem Endprodukt implementiert wurden?
resonant+clock+mesh kann ich auch eingeben (bzw. habe ich:biggrin:) und bekomme tolle Ergebnisse.
Nicht falsch verstehen, wenn ihr dazu Informationen habt, bitte teilt sie hier mit.
Achso und gibt es eine Quelle für die (mageren) 5%?
Nakai
2014-10-09, 20:33:13
Die einfachste Lösung ist doch, dass es eingebaut ist und funktioniert, aber keine signifikante Verbesserungen bringt.
Unicous
2014-10-09, 20:39:02
Die einfachste Lösung ist doch, dass es eingebaut ist und funktioniert, aber keine signifikante Verbesserungen bringt.
Das ist auch eine Möglichkeit...der aber AMD widersprochen hat (also der Implementation). Daher habe ich es ausgeschlossen.:freak:
Allerdings liegt dies nicht an einem besonderen Taktverteilungsnetz, auch Resonant Clock-Mesh genannt, auch wenn dies mancherorts erwähnt wird. Dieses Netz ist bisher nur eine Forschungsstudie und wird noch nicht in finalen Produkten eingesetzt – weder in Trinity, Richland noch in Kaveri, wie uns AMD bestätigte.
http://ht4u.net/reviews/2014/amd_kaveri_apus_im_test/index5.php
Und bei Piledriver hatte ich ja schon THG verlinkt.
Skysnake
2014-10-10, 18:08:13
Ist ja toll das ihr diese Papers, für die ich jeweils $31 bezahlen soll, verlinkt, aber wo steht da, dass es genau die gleiche bzw. ähnliche Technologie ist, die von Cyclos entwickelt wurde und dass sie in einem Endprodukt implementiert wurden?
resonant+clock+mesh kann ich auch eingeben (bzw. habe ich:biggrin:) und bekomme tolle Ergebnisse.
Nicht falsch verstehen, wenn ihr dazu Informationen habt, bitte teilt sie hier mit.
Jetzt ueberleg mal, warum wir das nicht verlinken/teilen. Ich gebe mal einen hint: Urheberrecht
Du kannst gern schauen, ob du die Paper aus anderweitigen quellen bekommst. Das ist durchaus oefters der Fall. Eventuell hast du also Glueck. Ansonsten bleibt wohl nur ne staatliche Bib uebrig.
Achso und gibt es eine Quelle für die (mageren) 5%?
an sich sollten es ~30% der Power vom clock-Tree sein, der etwa ~30% von der Gesamtpower ausmacht. Wobei je hoeher die clock taktet, desto haerter haut Sie auch rein.
Hier mal noch zwei links zu allgemein zugaenglichen Sachen:
http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0CCwQFjAB&url=http%3A%2F%2Fwww.cyclos-semi.com%2Fpdfs%2Ftime_to_change_the_clocks.pdf&ei=_QM4VK22JM6rPOT2gOgB&usg=AFQjCNEqpbnXVGBGr845wTGOqYUp3sLSEw&bvm=bv.77161500,d.ZWU
http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCMQFjAA&url=http%3A%2F%2Fwww.eecs.umich.edu%2Feecs%2Fabout%2Farticles%2F2012%2FISSCC_201 2_Piledriver_final_submission.pdf&ei=UwQ4VNHBMci3OLLfgHA&usg=AFQjCNHw9I9Rm8LwImEBGo5KkM9NEZZpUQ&bvm=bv.77161500,d.ZWU
Unicous
2014-10-10, 18:28:27
:rolleyes:
Wie gesagt, Google "benutzen" kann ich auch, die beiden pdfs sind mir bekannt... seit 2012.
AMD/Cyclos hatten damals angekündigt bei Piledriver die "clock distribution power" im clock tree bzw. dann clock mesh um 24% verringern zu können und dadurch den Gesamt"verbrauch" um bis zu 10% zu verringern (oder bei gleichem Verbrauch den Takt zu erhöhen).
Die vorher verlinkten papers dazu nutzen mir aber nichts, denn sie sind u.U. auch nur Fallstudien und keine Beispiel der Nutzung von RCM in einem konkreten Produkt. (Denn bei Piledriver haben sie auch behauptet es würde kommerziell!!! genutzt...aber Pustekuchen)
Daher frage ich noch einmal, wo ist der Beweis, dass RCM in ein konkretes Produkt (also z.B. Power8) implementiert wurde.
Skysnake
2014-10-10, 19:20:34
Nur weil es scheinbar keinen Nutzen bringt, heist das noch lange nicht, dass die Technik an sich nicht implementiert ist!
Man kann sich verdammt schnell einen clock-Tree zerschießen durch Änderungen am Layout. Damit steht und fällt dann natürlich auch das RCM. Mal ganz abgesehen davon, das man auch Probleme mit dem Powergrid, PLL usw usw usw haben kann, was dann im Endeffekt dafür sorgen kann, das ein Chip gar nicht mehr, oder nicht mehr so effizient arbeitet, wie gewollt.
Unicous
2014-10-10, 19:32:05
Ich kann also daraus schließen, dass es keine Beweise für eine Implementierung gibt. Und zu
Nur weil es scheinbar keinen Nutzen bringt, heist das noch lange nicht, dass die Technik an sich nicht implementiert ist!
kann ich nur sagen: Does not compute. Wenn es keinen Nutzen bringt, implementiere ich es nicht. Punkt oder Ausrufezeichen, wie es dir beliebt.
AMD fand das Ganze auch wahnsinnig toll, nur implementiert haben sie es nicht. Warum auch? Es wird direkt in die Kerne "eingebaut" und verändert die Funktionsweise, mE kann man es nicht einfach "ausschalten" und brach liegen lassen, wie z.B. einen schlummernden ARM Trustzone-Kern.
Dafür gibt es eine Entwicklungsabteilung, die gegebenenfalls Chips in Kleinserie fertigt und den Nutzen von Technologien wie RCM evaluiert.
Skysnake
2014-10-10, 19:37:22
Dann les dir bitte nochmal die Funktionsweise von RCM durch, und mach dir nochmal klar, was Resonanz ist. Natürlich kann es passieren, dass das zwar implementiert ist, aber schlicht nichts bringt. Man muss einfach nur außerhalb der Resonanz liegen. Je nachdem dämpft man dann sogar die clock, statt Sie zu verstärken...
Und falls es oben nicht deutlich genug wurde. Clock-Trees kannste nicht "einfach" übertragen von einem Chip auf den anderen. Das sind jeweils genau für den Chip angepasste Designs. Schon ein anderes Layout kann dazu führen, dass dein clock-skew zu groß wird.
Schau dir einfach mal ein paar Paper zu clock-meshes an. Das ist alles nur nicht trivial!
Unicous
2014-10-10, 19:45:09
Genau das sage ich doch?:eek:
Es ist nicht TRIVIAL.:confused:
Und genau deswegen wird es nicht einfach mal so implementiert ohne einen Nutzen dafür zu haben. Und genau deswegen bettele ich schon wieder seit Tagen, dass du konkrete Beweise dafür lieferst.
Hier ist nochmal das paper von ISSCC '12 (bei Cyclos selbst ist es nicht mehr aufrufbar:rolleyes:)
http://ewh.ieee.org/r5/denver/sscs/References/2012_02_Sathe.pdf
Das Mesh ist integraler Bestandteil des Kerns (bzw. hier Moduls), das kann man nicht einfach "implementieren" und dann inaktiv schalten, wie du es behauptest, weil es "scheinbar" (?) keinen Nutzen bringt.
Es ist doch völlig unlogisch das in die metal layers einzubauen, es inaktiv zu schalten und dann drumherum zu routen.:freak:
edit:
Ich sehe schon wieder du stellst auf stur, weißt alles besser aber rückst nicht mit konkreten Quellen heraus. Um das nicht wieder eskalieren zu lassen, würde ich vorschlagen die Diskussion einfach zu beenden.
Triskaine
2014-10-10, 19:57:17
Ich kann also daraus schließen, dass es keine Beweise für eine Implementierung gibt
Ließt du eigentlich was in den Links steht? Power8 hat eine RCM Implementierung, die aber nichts mit Cyclos zu tun hat, sondern auf IBM eigenen Patenten basiert.
RCM wurde auch bei AMD in einer physikalischen Implementierung auf Piledriver evaluiert.In dem Paper das du verlinkst steht übrigens ziehmlich klar drin das der schwingende Teil abschaltbar ist:
To support testability and robust operation at the wide range
of operating frequencies required of a commercial processor, the clock system
operates in two modes: direct-drive (cclk) and resonant (rclk).
Das übernimmt der MSw Block in Bild 3.7.1 (Transistoren zum umschalten)
Das RCM es dann aber doch nicht ins Endprodukt geschafft hat, kann viele Gründe haben und das Technische ist dabei häufig nichteinmal der Hauptgrund. Vllt. war der Effekt in den Simulation deutlich größer als auf richtigen Chips, vllt. hat sich das Frequenztarget verschoben usw. Den genauen Grund werden wir wenn überhaupt erst Jahre später erfahren.
Da AMD in Zukunft ohnehin weniger stark auf Hoch-Takt Designs setzen wird sind Konzepte wie dieses (http://www.realworldtech.com/steamroller-clocking/) deutlich sinnvoller für den Großteil ihrer Produkte.
Unicous
2014-10-10, 20:08:17
Eigentlich wird in den papers von IBM direkt Bezug genommen auf “Resonant Clock Design for a Power-efficient, High-volume x86-64 Microprocessor", daher schätze ich mal nicht, dass es unabhängig davon entwickelt wurde, aber das ist egal. Ich habe zumindest das hier gefunden
Implemented in 22nm SOI eDRAM technology with 15 levels of metal, the processor has huge off-chip bandwidth, integrated voltage regulation and resonant clocking.
http://www.electronicsweekly.com/news/research/isscc-64bit-arm-v8-power8-2014-02/
Das ist zwar auch nur das Wiederkauen des ISCC '14 press kits aber besser als nichts. Dennoch ist es schwierig daraus zu schließen, ob es auch in das Endprodukt implementiert wurde, denn auch Cyclos behauptet in ihrem '12 paper
This work represents a volume production-enabled implementation of resonant clock technology, and is plan of record for mid-2012 product offerings.
Dass das das Mesh mehrere Modi hat, ist mir übrigens durchaus bewusst, ich hatte es aber so verstanden, dass es den clock tree vollständig ersetzt.
edit:
Und z.B. wegen Adaptive Clocking (dass ich damals hier oder im Kaveri Thread verlinkt habe) frage ich mich eben ob RCM überhaupt noch Sinn macht und implementiert wird.
anddill
2014-10-10, 21:22:36
Yepp, Du brauchst Zeit das Mesh umzutunen, es muss sich erst einschwingen und ich kann mir nicht vorstellen wie die CPU während der Umschaltung ohne Schluckauf weiterarbeiten soll.
In der Zeit ist vielleicht schon wieder ein neuer P-State aktuell.
Skysnake
2014-10-10, 21:27:19
Es ersetzt nicht den Clock tree, es ist ein Betriebsmodus des Clock tree.
Im Normalfall schickt man eine CMOS-clock über den Chip, also rail to rail. Das geht aber nur bis zu gewissen Taktfrequenzen. Dann steigt man auf CML um, also nur noch round about 600mv unten rum und oben halt rail (VDD).
Das verballert aber ziemlich viel STrom, weil man eben immer noch eine Rechteckclock überträgt, und damit es ein Rechteck ist, man minimum die 5te Oberwelle noch braucht, eher noch mehr! Daher gibt es auch ansätze, z.B. ne Dreiecksclock zu übertragen, die braucht maximal die 5te Oberwelle, um gut dargestellt zu werden. Man muss also nicht so hohe Bandbreiten der Buffer haben. Und Resonant clock mesh ist dann quasi nur noch eine einzige Grundwelle, das wars dann, wobei man eben das ganze auch noch in Resonanz betreibt. Das spart am meisten Energie. Das heist aber noch LANGE nicht, dass das die einzige Betriebsart ist.
Da ist man ziemlich frei, und wie gut das RCM funktioniert, hängt halt von der Güte des Resonators ab, und wie genau man die Frequenzen trifft, und genau das ist mit auch ein Problem.
Ich sollte es hier schonmal erwähnt haben, aber PVT-Variationen machen das ziemlich schwierig vernünftig um zu setzen. Kannst ja mal googeln, was das heutzutage bedeutet.
Naitsabes
2014-10-10, 21:49:32
Ich bin jetzt (noch) nicht gaaaanz so tief in der Materie, was die Erzeugung von Signalen und den Schaltungsbau angeht, aber könnte man nicht auch einen sinusförmigen Takt nehmen und "einfach" ab einer gewissen Spannung von einer 1 beim Takt ausgehen (natürlich müssten alle Transistoren darauf ausgelegt sein...)?
Ich gehe da wohl viiieeeeeel zu naiv dran, oder? ;D
Andere, vermutlich verdammt hirnrissige Idee: kann man einen sinusförmigen Takt nicht durch einen Transistoren so weit verstärken, dass man hässliches clipping erhält um dadurch, abgesehen von den Flanken, einen relativ kontstanten Wert 1 bzw 0 zu erzeugen?
ich habe bisher nur im analogen Bereich mit Transistoren zu tun gehabt (und dann auch nur mit kleinen/simplen Schaltplänen mit vielleicht mal 5 Transistoren...), und da dann natürlich immer versucht maximale Dynamik zu erhalten.
Irgendwo werde ich einen ziemlich dämlichen Denkfehler haben, oder?
Unicous
2014-10-10, 21:58:13
@Skysnake
So wie ich das verstanden habe gibt es durchaus Unterschiede zwischen dem normalen clock tree und einem clock mesh. Und RCM ist nicht einfach ein, plump ausgedrückt, addon das man einfach an und auschalten kann(wohl aber die Modi umschalten kann).
Cyclos selbst "unterscheidet" zwischen dem konventionellen clock tree, dem konventionellen clock mesh und ihrem "verbesserten" RCM, das logischerweise auf dem clock mesh aufbaut
https://www.semiwiki.com/forum/content/attachments/2428d1323990982-clock-trees.jpg
https://www.semiwiki.com/forum/content/attachments/2429d1323991035-clock-mesh.jpg
https://www.semiwiki.com/forum/content/attachments/2439d1323993721-comparisons.jpg
http://www.semiwiki.com/forum/content/917-clock-design-socs-lower-power-better-specs.html
Du behauptest aber
Es ersetzt nicht den Clock tree, es ist ein Betriebsmodus des Clock tree.
Jeden Link, jedes paper, dass ich gelesen habe unterscheidet zwischen den beiden Typen und spricht davon, dass man sich jeweils für das entsprechende Design "entscheiden" muss.
http://electronicdesign.com/site-files/electronicdesign.com/files/archive/electronicdesign.com/content/content/73568/73568_fig01.gif
http://electronicdesign.com/products/what-s-difference-between-cts-multisource-cts-and-clock-mesh
Und jetzt erkläre mir bitte, warum es nur ein Betriebsmodus der oben abgebildeten clock tree Variante ist die man mit einem Fingerschnippen ein und ausschalten kann wenn die ganzen papers und Artikel das Gegenteil aussagen?
(edit. Oder ist für dich "clock mesh" synonym für "clock tree" weil es die gleiche Aufgabe erfüllt. Das ist die einzige vernünftige Erklärung die ich habe und vllt. reden wir deswegen aneinander vorbei?)
Edit:
Aus dem Link oben
Mesh Fabric
The mesh fabric is another obvious difference between conventional CTS and the two other methodologies. Clock mesh and multisource CTS both use a mesh fabric, though there is a large difference in the density of the mesh deployed.
Clock mesh uses a dense mesh fabric as the final component of the shared path of the design. This fabric is typically about as dense as the power/ground meshes and consumes significant routing resources. Most implementations place the fabric at the highest routing layers. This minimizes the impact on data signal routing, which usually takes place at lower levels, while concurrently taking advantage of the low resistance of the wider redistribution layer (RDL) or other higher metal layers for high-speed routes.
Wie ich ja anfangs sagte, alleine das routing ist schon schwierig und unterscheidet sich vom konventionellen clock tree.
Skysnake
2014-10-10, 22:17:43
Es gibt so etwas, das nennt sich Metal-Patches. Damit kann man noch sehr sehr viel machen an einem Design.
Ich bin jetzt (noch) nicht gaaaanz so tief in der Materie, was die Erzeugung von Signalen und den Schaltungsbau angeht, aber könnte man nicht auch einen sinusförmigen Takt nehmen und "einfach" ab einer gewissen Spannung von einer 1 beim Takt ausgehen (natürlich müssten alle Transistoren darauf ausgelegt sein...)?
Ich gehe da wohl viiieeeeeel zu naiv dran, oder? ;D
Andere, vermutlich verdammt hirnrissige Idee: kann man einen sinusförmigen Takt nicht durch einen Transistoren so weit verstärken, dass man hässliches clipping erhält um dadurch, abgesehen von den Flanken, einen relativ kontstanten Wert 1 bzw 0 zu erzeugen?
ich habe bisher nur im analogen Bereich mit Transistoren zu tun gehabt (und dann auch nur mit kleinen/simplen Schaltplänen mit vielleicht mal 5 Transistoren...), und da dann natürlich immer versucht maximale Dynamik zu erhalten.
Irgendwo werde ich einen ziemlich dämlichen Denkfehler haben, oder?
So blöd ist die Idee gar nicht ;)
Nakai
2014-11-01, 18:27:30
Wurde noch nicht gepostet?
http://www.sisoftware.eu/rank2011d/show_system.php?q=cea598aa98af9ba391b7d0edc0f1d7a598a88ee7daebcda598ad8bf3ceffd9 bcd9e4d4f281bc84&l=en
Sind zwar irgendwie wertlos, nur der Wert Processor Power Management Efficiency (ALU) ist ganz interessant.
Nakai
2014-11-02, 12:19:42
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdf4d2b3d2efdde5d3e5d7e3c5b78aba9cf99ca191b7c4f9c1&l=en
Carrizo's GPU haut anscheinend rein.
Zum Vergleich:
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdf4d2b3d2efdde4d4e6d2e1c7b588b89efb9ea393b5c6fbc3&l=en
Da scheint die delta color compression zu greifen. Aber trotzdem 50% schneller?! Naja was Sisoft da schon wieder tut...
Unicous
2014-11-03, 15:13:49
Sisoft Sandra ist leider kein guter, weil nicht kohärenter Benchmark.
Andauernd werden Taktraten falsch ausgelesen, Turbo als Basistakt, Basistakt als Turbo...
Von daher ist einzig interessant, dass es ein ES gibt, dass getestet wurde. Im Übrigen wäre es wohl besser im Carrizo-Thread aufgehoben, denn über architekturelle Verbesserungen von EX werden wir durch diese Einträge nicht schlauer.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.