PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bulldozer-Pleite => AMD pleite 2014? Eine vorgezogene Grabrede...


Seiten : 1 2 3 4 [5] 6

Skysnake
2013-02-26, 18:03:16
Weil Sie aufpassen müssen nicht zwischen den Fronten zerrieben zu werden, und ihre klassischen Geschäftsfelder keine Perspektive haben?

Undertaker
2013-02-26, 18:25:24
Nvidia steht hier weitaus besser da als AMD. Gerade im zukunftsträchtigen Mobile-Bereich hat man den Fuß in der Tür – man ist zwar immernoch ein kleines Licht, aber AMD ist da momentan überhaupt nicht präsent – und zudem den Profi-Bereich im GPU-Geschäft als höchst-profitable Cash-Cow. Geschäftsfelder ohne Perspektive? Low-End-GPUs und Chipsätze sind schon seit einiger Zeit weggefallen, da wird sich demnächst nicht mehr viel ändern. Von einem schrumpfenden PC-Markt werden AMD und Intel viel mehr getroffen Nvidia.

Zu den Gewinnen der IT-Branche: Wenn ich bei den genannten Beispielen (Intel, Nvidia, aber auch andere) 2012 Zahlen sehe, die zu den besten der Firmengeschichte zählen (wenngleich etwas unter 2011 liegen, was aber durch Aufsteiger wie Qualcomm teilweise kompensiert wird), kann man das im Groben auch auf den ganzen Markt hochrechnen. Das die Verluste von AMD in dieser Größenordnung keineswegs für die gesamte Branche sprechen, bedarf keines Beleges. Ich sehe AMD, sofern man die Liquidität sichern kann, zwar noch nicht direkt am Abgrund, aber beschönigen darf man die finanzielle Lage ebensowenig.

Skysnake
2013-02-26, 18:38:01
dabei vergisst du aber,das sich nvidia in dem von dir genannten Zukunftsfeld Mobile, gegen den Markt stellt, indem Sie nicht bei HSA mit machen.

Undertaker
2013-02-26, 18:42:14
HSA ist derzeit noch kein Thema und nichts spricht dagegen, dass man dennoch im stillen Kämmerlein schon daran arbeitet, um kurzfristig auf den Zug aufzuspringen. Nicht direkt vergleichbar, aber ein anschauliches Beispiel: Man denke an Intels späte, aber ohne jegliche negative Auswirkungen gebliebene Adaption von x86-64 im CPU-Bereich.

S940
2013-02-26, 18:48:33
dabei vergisst du aber,das sich nvidia in dem von dir genannten Zukunftsfeld Mobile, gegen den Markt stellt, indem Sie nicht bei HSA mit machen.Ich bin mir nicht sicher, aber nachdem nVidia ARM-Kerne nutzt, müssen sie da fast wohl oder übel mitmachen. Klar sie könnten ihr eigenes Ding machen, aber das wäre selten blöd. Hardware ginge vielleicht gerade noch, aber Softwareunterstützung dann ... :freak:

StefanV
2013-02-26, 19:10:21
Waum sollte Nvidia das tun? Was haben sie davon? Gar nichts. Ihnen geht es besser als AMD und das gerade weil sie schon vor Jahren einen erheblichen Teil des Unternehmens in Richtung Software ausgebaut haben. Nvidia hat derzeit über 4Mrd. Dollar Cash auf dem Konto bei so gut wie 0 Verschuldung.
Noch geht es denen gut, aber das wird sich in den nächsten Jahren drastisch ändern!

Wenn nVidia nicht den Hintern hoch bekommt und mal von ihrem Standpunkt verabschiedet, wird es sie in 10 Jahren nicht mehr geben. Aber dazu müsste Jensen erst mal wieder zu Verstand kommen bzw er müste abtreten...

Und, wie du sicher schon bemerkt hat, hat nVidia einige Ausgaben reduziert und aktuell sind die richtig guten Spiele auch eher AMD Gaming Evolved...

y33H@
2013-02-26, 19:18:07
Warum wird sich das ändern? Desktop-GPUs sieht's gut aus, Tegra läuft.

R.I.P.
2013-02-26, 20:15:46
Warum wird sich das ändern? Desktop-GPUs sieht's gut aus, Tegra läuft.

Weil die APUs, respektive von AMD und Intel im low Performance Bereich den Nvidias immer mehr die Daseinsberechtigung stehlen werden. Kein enormer Teil des Umsatzes, aber immerhin. Tegra läuft, bekommt aber auch hier Konkurrenz von AMD (mit scheinbar guten Produkten). Keiner sagt, dass Nvidia in Kürze untergeht, aber sie konzentrieren sich im Moment z.B. auf Android und ihr Shield Projekt :freak: um in Zukunft nicht unterzugehen (nachdem man bei den Konsolen nichts mehr zu suchen hat)

http://www.bloomberg.com/news/2013-02-25/nvidia-hitches-ride-to-future-on-android-games-after-ps3.html

Schaffe89
2013-02-26, 20:30:41
Und zur global guten Wirtschaftslage:

Sry, mich nervt solches Gelaber von ständig wachsendem Märkten einfach nur.
Es muss überhaupt nichts mehr wachsen, von mir aus soll alles stagnieren, damit lebt man besser als man denkt.

Wenn nVidia nicht den Hintern hoch bekommt und mal von ihrem Standpunkt verabschiedet, wird es sie in 10 Jahren nicht mehr geben. Aber dazu müsste Jensen erst mal wieder zu Verstand kommen bzw er müste abtreten...


Der moilmarkt wird auch irgendwann stagnieren und schrumpfen. Und dann?
Irgendwann kauft jeder nurnoch alle 2 oder sogar 3 Jahre ein neues Handy, oder hat darauf einfach keine Lust mehr und sizt sich wieder mehr daheim vor den PC.
Nvidia soll einfach wie zuvor weitermachen. Dann sinkt halt der Markt für dedizierte GPu´s ein bisschen, und? Mit GPGPU und den Gamerkarten, sowie Quadrokarten kann man sicherlic Geld verdienen, außerdem hat man den Fuß in der Tür was den mobilen Markt betrifft.

Ich sehe AMD trotz der aktuellen Bemühungen kurz vor dem Aus.

Undertaker
2013-02-26, 20:41:46
Weil die APUs, respektive von AMD und Intel im low Performance Bereich den Nvidias immer mehr die Daseinsberechtigung stehlen werden. Kein enormer Teil des Umsatzes, aber immerhin. Tegra läuft, bekommt aber auch hier Konkurrenz von AMD (mit scheinbar guten Produkten). Keiner sagt, dass Nvidia in Kürze untergeht, aber sie konzentrieren sich im Moment z.B. auf Android und ihr Shield Projekt :freak: um in Zukunft nicht unterzugehen (nachdem man bei den Konsolen nichts mehr zu suchen hat)

http://www.bloomberg.com/news/2013-02-25/nvidia-hitches-ride-to-future-on-android-games-after-ps3.html

Low-End-GPUs sind doch schon lange bedeutungslos. Nvidias kleinster aktueller Chip ist GK107, der genau dort anfängt, wo AMDs und Intels IGPs leistungsmäßig aufhören. Und daran wird sich zukünftig wohl auch nicht mehr viel ändern, weil die TDPs bei IGPs und GPUs gleichermaßen limitieren -> die Leistungsrelationen bleiben. Hat man davon etwas in den Bilanzen gemerkt, oder auch von dem entfallenen Chipsatzgeschäft? Echte Konkurrenz zu Tegra ist bei AMD noch in weiter Ferne, da ist selbst Intel mit dem wenig erfolgreichen Atom einen Schritt weiter. Project Shield sehe ich zwar allenfalls als nettes Gimmick denn vielversprechenden Umsatzbringer, Lizenzdeals wie bei den Konsolen würde ich aber ebenfalls nicht überbewerten (stabiler Umsatzgarant, aber wohl kaum eine Goldgrube).


Nvidia soll einfach wie zuvor weitermachen. Dann sinkt halt der Markt für dedizierte GPu´s ein bisschen, und? Mit GPGPU und den Gamerkarten, sowie Quadrokarten kann man sicherlic Geld verdienen, außerdem hat man den Fuß in der Tür was den mobilen Markt betrifft.

Passiert selten (:D), aber da muss ich dir zustimmen.

Ich sehe AMD trotz der aktuellen Bemühungen kurz vor dem Aus.

...Da allerdings nicht. Ich sehe da eher eine Art "Gesundschrumpfen". Abschied von teuren High-End-Entwicklungen im CPU- oder GPU-Sektor, dafür stabile Lizenzdeals oder von Intel vernachlässigte Marktnischen wie Bobcat/Kabini.

Mancko
2013-02-26, 21:12:47
Noch geht es denen gut, aber das wird sich in den nächsten Jahren drastisch ändern!


Irre ich mich oder höre ich das nicht schon seit Jahren? Da gibt es so eine nette Hetzseite im Internet die das auch schon seit Jahren behauptet. Bis jetzt ist das nicht eingetreten. Im Gegenteil. Im gleichen Zeitraum hat AMD mehrere Milliarden in der Grube versenkt während Nvidia das Bankkonto gefüllt hat.


Wenn nVidia nicht den Hintern hoch bekommt und mal von ihrem Standpunkt verabschiedet, wird es sie in 10 Jahren nicht mehr geben. Aber dazu müsste Jensen erst mal wieder zu Verstand kommen bzw er müste abtreten...


Das hätte die AMD Fraktion gern. Jensen ist AMDs Alptraum. Er ist quasi Nvidia und erfindet die Firma immer und immer wieder neu. Der ist doch das Beste was Nvidia passieren kann. Firmengründer, Mitinhaber, selber mal in dem Business gearbeitet und ein wahnsinnig vorausschauender Manager und Visionär. Dagegen sind bei AMD in der Chef Etage alles Pflaumen mit Außnahme vom guten alten leider nicht mehr aktivem Jerry Sanders. Schau Dir doch nur mal die aktuelle Witzfigur da bei AMD an. Reiner BWLer sonst nix und bisher nur am rumtönen gewesen. Nicht ein einziges Versprechen hat er eingehalten und ist mit jedem Conference Call kleinlauter geworden.


Und, wie du sicher schon bemerkt hat, hat nVidia einige Ausgaben reduziert und aktuell sind die richtig guten Spiele auch eher AMD Gaming Evolved...
Ziemlich haltlose Aussage. Nvidia's Ausgaben sind auf Rekordhöhe und waren 2012 höher als in 2011. Gerade baut Nvidia einen ziemlich fetten neuen Campus direkt am Headquater um die ganzen neuen und zukünftigen Mitarbeiter besser verteilen zu können - sprich Nvidia stellt weiter fleißig ein.

http://www.pcmag.com/article2/0,2817,2415672,00.asp

AMD dagegen stellt aus und verkauft Liegenschaften. Einen krasseren Gegensatz gibt es überhaupt nicht.

fondness
2013-02-26, 21:44:50
AMD dagegen stellt aus und verkauft Liegenschaften. Einen krasseren Gegensatz gibt es überhaupt nicht.

Weil ich das jetzt von dir schon ein paar mal lesen: Es gibt Unternehmen die machen pro Quartal Milliarden Gewinn und haben ihre Liegenschaften gemietet. Das macht aus verschiedensten Gründen auch Sinn, AMD ist kein Immobilienverwalter, sondern eine Technologiefirma. Keine Frage das es AMD besser gehen könnte, aber das sie ihre Liegenschaften vermieten ist dafür mit Sicherheit kein Gradmesser - sowas nennt man modernes Management. ;)

Schaffe89
2013-02-26, 21:48:41
Ich sehe da eher eine Art "Gesundschrumpfen". Abschied von teuren High-End-Entwicklungen im CPU- oder GPU-Sektor, dafür stabile Lizenzdeals oder von Intel vernachlässigte Marktnischen wie Bobcat/Kabini.

Ja das sehe ich auch, nur dass AMD kurz vor Knapp ist ist schon länger so, heißt ja nicht dass das Aus kommen muss, wenn sie den Karren aus dem Mist ziehen. :)

Unlimited
2013-02-26, 22:00:30
Über 1000 Beiträge schon, doch AMD ist einfach nicht kleinzukriegen...;)
Mal schauen wie viele Beiträge wir noch brauchen!

Felixxz2
2013-02-26, 23:09:59
AMD steht überraschenderweise zz. wieder sehr sehr gut da. Das Line Up ist gut, tolle neue Sachen kommen 2013/2014 und mit den Konsolen hat man gewinnträchtige Deals die auch den PC-GPU Markt unterstützen. Denn so kann AMD prima Features durchdrücken, weil sie auch auf den Konsolen laufen.

Deswegen denke ich musst du den Zeitpunkt noch bisl rausschieben :D

gnahr
2013-02-27, 02:00:21
Das Line Up ist gut, tolle neue Sachen kommen 2013/2014
na du freust dich aber über die kommenden platzhalter und zeitüberbrücker 7790 und 7990.
richtig ist: jede zu kaufende graka ist gut. ob 660ti oder 7950 kann man sicher disskutieren just for fun, aber weder amd noch nvidia haben was im angebot dem man generell abraten müsste weil es technisch gar nix taugt oder der andere das gleiche für die hälfte hätte. (inklusive TITAN der einfach ne sonderstellung hat.)
ist aber kein verdienst der hersteller, sondern die einzige positive seite der extrem langweilig gewordenen softwareentwickler. keine nurbs mehr, alle machen ihren core-shice und packen dann 2 oder 3 kleinigkeiten wie tressfx drüber und verkaufen es als neu...
von der papier-performance der firma amd im sinne der finanziellen eckdaten ist amd einfach irgendwas zwischen maulwurf und lengede (das grubenunglück)-opfer, aber dass sich der statisierte dedizierte grafikmarkt von ihnen entledigt wäre auch mehr zufall in naher zukunft als zwingende konsequenz.

was ist eigentlich aus den thin-books geworden die man gegen die ultrabooks positionieren wollte? nix und letztere kommen langsam richtig ins rollen.
die konsolendeals sind genauso lustig, was da jeder von "amds künftiger überlegenheit" fabuliert... klar, aber nur vielleicht wenn amd aufhört in den nächsten 7 jahren aktuellere karten zu entwickeln und zu gestalten. nehmt euch ruhig alte konsolen und die jeweiligen hardware-pedants für den pc, da ist ein käse rausoptimiert.

Felixxz2
2013-02-27, 02:20:30
Ich glaub du verstehst nicht ganz worauf ich hinauswollte. Klar gibts bei High-End GPUs grad ne Stagnation, aber das ist dem thermischen Budget, der Nicht-Verfügbarkeit von 20nm und der Marktlage geschuldet. Mir ging es eher um Jaguar und Steamroller, die 2013 sehr nette APUs bilden werden und AMD einfach wirtschaftlich weiterbringen. Mit Jaguar werden auch genannte Thin-Books kommen.

Und der Punkt mit den Konsolen ist doch klar: Wenn in beiden 8 Jaguar Cores und ne GCN Karte drin ist (und danach schauts zu 99% aus), dann werden

1. Entwickler massiv auf Multithreaded gehn und das bringt den FX-CPUs am Desktop viel
2. GCN der Industriestandard an Features und Leistung, was es für AMD sehr einfach macht Sachen wie Open Source GPU-Physik oder spezielle Effekte wie TressFX über alle Platformen durchzusetzen
3. Spiele wohl auch am PC GCN optimiert sein
4. Die Konsolen HSA nutzen, was der ganzen Sache einen ordentlichen Schub gibt (-> APUs)

AMDs GPUs werden so zum Standard der Spieleentwicklung und das ist super für AMD. Die können jetzt wie gesagt vor allem mal ganz easy PhysX absägen und durch eine AMD Lösung ersetzen, die dann nach dem Gaming Evolved Prinzip auch für nVidia Karten verfügbar ist. PhysX wird an den neuen Konsolen nie genutzt werden.

Du siehst das zu sehr aus der High-End GPU Warte, die ist aber nur ein winziger Teil. Ob AMD jetzt 2013 nen Titan-Killer bringt oder nicht ist doch völlig wumpe, vor allem da das eh nur 25-30% sind. Und 2014 wirds dann wohl sowieso 20nm geben mit völlig neuem Transistorbudget.

Skysnake
2013-02-27, 02:41:12
was ist eigentlich aus den thin-books geworden die man gegen die ultrabooks positionieren wollte? nix und letztere kommen langsam richtig ins rollen.

Die gibt es glaub inzwischen sogar zu kaufen. War zuletzt bei MM und da standen Ultrabooks von Intel neben Geräten mit AMD-APU, die ich erst durch den Blick auf den roten Sticker, und das Fehlen des Intel Stickers als nicht Ultrabooks ausmachen konnte. Also da tut sich bereits was am Markt ;)

Ob die jetzt schon thin-books heisen oder nicht kann ich dir nicht sagen, aber Produkte sind da.


4. Die Konsolen HSA nutzen, was der ganzen Sache einen ordentlichen Schub gibt (-> APUs)

DAS muss sich erst noch zeigen. Ich glaube eher nicht, dass da wirklich schon HSA implementiert ist. Also nicht in der Form, wie man es später im PC-Bereich nutzen wird.

Da muss man wohl noch ein bischen zu warten. Genau wird man das aber wohl nie wissen, da Konsolen eben geschlossene Systeme sind. :(

Dadurch, das AMD nativ ARM-Apps ausführen kann, wird man aber definitiv einige interessante Konzepte sehen in Zusammenhang mit HSA. AMD hat da ein sehr großes Potenzial bzgl Softwareentwicklung. Halt den kompletten ARM-Bereich, den Sie mit abgrasen können. Da hilft dann HSA auch, weil man eben einen Standard hat, auf den alle aufbauen.

Und genau da seh ich schwarz für nVidia, wenn die nicht direkt bei HSA mit machen, oder sich über ihre ARM-Lizenzen rein schummeln. nVidia hat im ARM-Bereich einfach absolut keine Relevanz. Die müssen da also mitgehen, oder werden unter gehen, und so wies im Moment aussieht, siehts eher so aus, als ob Sie auf "einsamer Kämpfer" machen wollen...

gnahr
2013-02-27, 02:41:36
AMDs GPUs werden so zum Standard der Spieleentwicklung und das ist super für AMD.
"wäre", soll ich dir mal was sagen was du bestimmt nicht hören willst:
die rohleistung heutzutage ist so hoch, das längst nicht mehr jeder auf die hardware dahinter optimiert sondern sich auf die 2 dutzend schlüßeltechnologien verlässt. die hardware ist schließlich nicht wichtig für die entwicklung, sondern die optimierung.
und selbst dann geh ich nicht automatisch mit, dass die software in 2 jahren (manche malen es ja noch eher an die wand) sich zum bsp. in sachen cmt vs. smt arg anders absetzen wird, geschweige denn dass die graka-treiber eines herstellers die vorstufe von obsolet werden.

ach, dieser ganze apu-quatsch. das ist so ne schnappsidee der geschichte die sicher nicht schlecht ist, aber von der umsetzung völlig zur falschen zeit und vom falschen player kam. die wurschteln da mit jaguar und co noch ein bisschen rum und dann steht intel wieder mit der nächsten goldenen vase in der tür, wie den knigths-corner-produkten fürs hpc. von völlig pfui hin zu "kommt-da-vielleicht-was-dickes"-hui innerhalb von quartalen.

@skysnake:
nein, nur weil ne apu drinnen ist, zählt es nicht als thin-book. auch die ultrabooks sind ja nach nem ganz bestimmten muster abgesetzt.

btw.: dass es in den elektro-märkten und deren flyer teilweise schon mehr amd-produkte gibt als von intel oder nvidia ist auch normal geworden auch wenn andere nicht müde werden von events zu fasseln die kurz nach dem millenium statt fanden. dabei verkaufen sich die amd-sachen längst nicht besser laut marktanalysen.

Skysnake
2013-02-27, 02:44:18
Wenn Intel eins nicht kann, dann konkurrenzfähige GPUs bauen.

Die haben da wirklich sehr sehr sehr viel auf zu holen, und zwar in allen Bereichen. Da müssen die noch SEHR viel Lehrgeld zahlen, und GPU>>CPU, und das immer mehr.

HarryHirsch
2013-02-27, 03:08:44
richtig, darum bauen sie ja zum glück cpus die was taugen.

Ailuros
2013-02-27, 07:10:13
Nvidia steht hier weitaus besser da als AMD. Gerade im zukunftsträchtigen Mobile-Bereich hat man den Fuß in der Tür – man ist zwar immernoch ein kleines Licht, aber AMD ist da momentan überhaupt nicht präsent – und zudem den Profi-Bereich im GPU-Geschäft als höchst-profitable Cash-Cow. Geschäftsfelder ohne Perspektive? Low-End-GPUs und Chipsätze sind schon seit einiger Zeit weggefallen, da wird sich demnächst nicht mehr viel ändern. Von einem schrumpfenden PC-Markt werden AMD und Intel viel mehr getroffen Nvidia.

Zu den Gewinnen der IT-Branche: Wenn ich bei den genannten Beispielen (Intel, Nvidia, aber auch andere) 2012 Zahlen sehe, die zu den besten der Firmengeschichte zählen (wenngleich etwas unter 2011 liegen, was aber durch Aufsteiger wie Qualcomm teilweise kompensiert wird), kann man das im Groben auch auf den ganzen Markt hochrechnen. Das die Verluste von AMD in dieser Größenordnung keineswegs für die gesamte Branche sprechen, bedarf keines Beleges. Ich sehe AMD, sofern man die Liquidität sichern kann, zwar noch nicht direkt am Abgrund, aber beschönigen darf man die finanzielle Lage ebensowenig.

Der ~30% Zuwachs fuer Qualcomm zeigt genau in welche Richtung der Markt gehen wird. Fuer NVIDIA und SFF mobile wie ich schon des oefteren sagte: mir soll jemand mal beweisen dass der PC GPU Markt langsamer schrumpft als dass der SFF mobile Markt dazuwaechst. Ja natuerlich geht es NV momentan gut aber auch nur weil sie mit pfiffigen Preisen verkaufen mit verdammt hohen Margen welches zwar mehr Umsatz reinholt aber auch das potentielle Verkaufsvolumen reduziert. Geht es so weiter und sie gewinnen nicht genug mehr SFF Marktanteil dazu koennte es zu einem ueblem gap zwischen den beiden Seiten geben. Und wenn's schon sein muss: NV geht NOCH sparsamer mit resourcen um als je zuvor; glaub bloss nicht dass Jensen nicht weiss was auf ihn zukommen koennte und ja er hat vor kurzem wieder einen moeglichen Verkauf von NV besprochen und die ueblich bekannten Vorraussetzungen gesetzt. Es ist eben nicht so dass sie nein sagen wuerden, sondern eher ja wenn die Bedingungen auch die fuer Jensen persoenlich voll uebereinstimmen.

Was jetzt AMD betrifft, sie haben so viel resourcen reduziert dass es nicht mehr schoen ist. Du liegst uebrigens falsch was Profi-Maerkte und AMD betrifft; schlecht ist fuer diesen AMD's Umsatz nicht gerade und die Tendenz ist steigend. Dass sie auf einem duennen Drahtseil trampeln sollte klar sein.

Ihr GROESSTES Problem dass ich bis jetzt von niemand lesen konnte ist nicht ihre finanzielle Lage sondern die Tatsache dass die Mehrzahl ihrer wirklich groessten engineering Talente ausgewandert sind.

=Floi=
2013-02-27, 07:51:09
Die Sparprogramme und Entlassungen gibt es doch nicht nur zum Spaß.

das schlimme ist ja, dass diese nicht wirklich viel bringen. bisher ist davon nicht viel angekommen und der verlust ist noch immer viel zu hoch.

=Floi=
2013-02-27, 07:54:50
Es hat einen Grund, wieso AMD in allen Konsolen als GPU oder GPU und CPU vorhanden ist. Jaguar und GCN sind derzeit nahezu konkurrenzlos.

hört doch mir dem scheiß auf!
die waren schlicht die günstigsten! die brauchen jeden cent und das war eine weitere möglichkeit geld reinzubekommen. reich werden sie dadurch sicherlich nicht.

fondness
2013-02-27, 08:02:12
hört doch mir dem scheiß auf!
die waren schlicht die günstigsten!

Blödsinn. Nenn mir eine Alternative zu AMD die brauchbare CPUs und GPUs liefern können. Es ist kein Zufall das ausnahmslos alle AMD gewählt haben. Und nein alles andere als ein SoC wäre heute Unsinnig.

Knuddelbearli
2013-02-27, 08:27:27
Die gibt es glaub inzwischen sogar zu kaufen. War zuletzt bei MM und da standen Ultrabooks von Intel neben Geräten mit AMD-APU, die ich erst durch den Blick auf den roten Sticker, und das Fehlen des Intel Stickers als nicht Ultrabooks ausmachen konnte. Also da tut sich bereits was am Markt ;)

Ob die jetzt schon thin-books heisen oder nicht kann ich dir nicht sagen, aber Produkte sind da.




Händler raten einem immer noch davon ab bzw empfehlen nur die mit Intel Sticker :-/ als ob Intel da immer noch zahllen würde :_/

Ailuros
2013-02-27, 08:50:10
hört doch mir dem scheiß auf!
die waren schlicht die günstigsten! die brauchen jeden cent und das war eine weitere möglichkeit geld reinzubekommen. reich werden sie dadurch sicherlich nicht.

Also wenn etwas ein gutes Preis-/Leistungs-Verhaeltnis hat ist es ein "Scheiss"? :freak: Und offensichtlich ist jeglicher "Scheiss" auch ziemlich IHV-bedingt oder?

Natuerlich werden sie nicht reich von den Konsolen-deals denn IP bringt nie Unsummen rein; ab einem Punkt aber stabilen und reinen Gewinn pro Jahr. Frag doch mal NV ob sie ihre ~$5 pro verkaufte PS3 vermissen werden, wenn das letztere in der Zukunft nicht mehr verkauft werden wird.

Aber sicher wenn NV die Chance gehabt haette selber alle 3 Konsolen-deals zu gewinnen haetten sie koeniglich abgelehnt denn solchen "Scheiss" kann ein ernsthafter IHV wie NVIDIA wohl nicht gebrauchen.

Sonst zur Abwechslung auch fuer DICH zum mitlesen: SONY & Microsoft wollten SoCs haben. NV hatte keine relevante SoCs zu dem Zeitpunkt und immer noch nicht (ab Maxwell erst) ergo geht man wohl zu wem genau ueberhaupt wenn man unter Zeitdruck liegt?

y33H@
2013-02-27, 08:51:18
PhysX wird an den neuen Konsolen nie genutzt werden.PhysX wird auch auf der PS4 genutzt und gehört zum IPP der UE4.

Wenn Intel eins nicht kann, dann konkurrenzfähige GPUs bauen. Die haben da wirklich sehr sehr sehr viel auf zu holen, und zwar in allen Bereichen. Da müssen die noch SEHR viel Lehrgeld zahlen, und GPU>>CPU, und das immer mehr.Im ULV-Bereich von 17W liegen sie derzeit gleichauf bzw vorne, mal sehen wie sich das mit Haswell vs. Kabini sowie Atom vs. Temash entwickelt.

Felixxz2
2013-02-27, 09:24:10
Ja aber nur als Physikbibliothek und auf der CPU, nicht GPU beschleunigt. Und Sony hat ja gezeigt dass GPU-Physik ein großes Thema wird.

Skysnake
2013-02-27, 10:29:40
Der ~30% Zuwachs fuer Qualcomm zeigt genau in welche Richtung der Markt gehen wird. Fuer NVIDIA und SFF mobile wie ich schon des oefteren sagte: mir soll jemand mal beweisen dass der PC GPU Markt langsamer schrumpft als dass der SFF mobile Markt dazuwaechst. Ja natuerlich geht es NV momentan gut aber auch nur weil sie mit pfiffigen Preisen verkaufen mit verdammt hohen Margen welches zwar mehr Umsatz reinholt aber auch das potentielle Verkaufsvolumen reduziert. Geht es so weiter und sie gewinnen nicht genug mehr SFF Marktanteil dazu koennte es zu einem ueblem gap zwischen den beiden Seiten geben. Und wenn's schon sein muss: NV geht NOCH sparsamer mit resourcen um als je zuvor; glaub bloss nicht dass Jensen nicht weiss was auf ihn zukommen koennte und ja er hat vor kurzem wieder einen moeglichen Verkauf von NV besprochen und die ueblich bekannten Vorraussetzungen gesetzt. Es ist eben nicht so dass sie nein sagen wuerden, sondern eher ja wenn die Bedingungen auch die fuer Jensen persoenlich voll uebereinstimmen.

Vor allem wird im SFF-Markt auch nochmal mit ganz anderen Bandagen gekämpft, und die Margen sind klein. Ohne Masse geht da gar nichts, und das wissen die anderen auch. Daher werden die nicht so einfach Marktanteile sich abluchsen lassen.


Was jetzt AMD betrifft, sie haben so viel resourcen reduziert dass es nicht mehr schoen ist. Du liegst uebrigens falsch was Profi-Maerkte und AMD betrifft; schlecht ist fuer diesen AMD's Umsatz nicht gerade und die Tendenz ist steigend. Dass sie auf einem duennen Drahtseil trampeln sollte klar sein.

Ihr GROESSTES Problem dass ich bis jetzt von niemand lesen konnte ist nicht ihre finanzielle Lage sondern die Tatsache dass die Mehrzahl ihrer wirklich groessten engineering Talente ausgewandert sind.
Der Part mit dem Drahtseil passt sehr gut. Wenns schief geht, sagt jeder, das er es gewusst hat, aber wenns gut geht, sagt das auch jeder, und Sie stehen dann auch wirklich gut da.

Es ist halt wie so oft mit "Drahtseilen". Man kann viel verlieren, aber auch viel gewinnen ;)

Händler raten einem immer noch davon ab bzw empfehlen nur die mit Intel Sticker :-/ als ob Intel da immer noch zahllen würde :_/
Händler erzählen Kunden auch, dass Sie bei Apple keinen Virenschutz brauchen, und daher jedes Jahr x € sparen, und daher das Ding eigentlich ganz billig ist, und auch die Software, die dabei ist ja bei Windowssystemen was kostet usw...

Da musste ich mal bei MM so was von dazwischengrätschen bei nem Beratungsgespräch, weil das schon fast an Betrug grenzt...

Vor allem der Kommentar vom Verkäufer war der Hammer, wo ich mir echt überlegt habe, mich an die Wettbewerbshüter zu wenden. Der meinte nämlich sinngemäßt

Ich bekomme halt auch von meinem Apple Vertreter halt auch nur gesagt, was ich den Kunden sagen soll, und daran halte ich mich

:mad:

Da bekomme ich SO nen Hals.....

Also ich würde dafür echt nicht mene Hand ins Feuer legen, dass da nicht noch immer beschissen wird noch und nöcher :down:

Matrix316
2013-02-27, 12:07:39
Händler raten einem immer noch davon ab bzw empfehlen nur die mit Intel Sticker :-/ als ob Intel da immer noch zahllen würde :_/
Jetzt mal ehrlich: Ich würde heute eigentlich auch keinen AMD Rechner kaufen. Sei es als Notebook oder normal. Intels sind einfach schneller und gerade bei Notebooks sind sie auch Energiesparender. Und wer eine gescheite Grafik will, soll sich ein Gerät mit separater Grafik kaufen. Dieser APU Quatsch ist doch nix halbes und nix ganzes. Gerade am Desktop. Am Notebook ist die Grafik OK, aber die CPU IMO einfach viel zu langsam.

Ronny145
2013-02-27, 12:09:25
Wenn Intel eins nicht kann, dann konkurrenzfähige GPUs bauen.

Die haben da wirklich sehr sehr sehr viel auf zu holen, und zwar in allen Bereichen. Da müssen die noch SEHR viel Lehrgeld zahlen, und GPU>>CPU, und das immer mehr.


Mit der Aussage wäre ich sehr vorsichtig, weil sie heute schon teils falsch ist. Für Ultrabooks ist sie gänzlich falsch. Für normale Notebooks ist die Aussage mindestens zur Hälfte falsch. Viele lassen sich vom A10-4600M blenden und vergessen die darunter liegenden Modelle. Deutlich überlegen sind sie nur im Desktop, den Intel vernachlässigt. Im GPGPU Bereich sieht es noch ungünstiger aus für AMD, was die wenigsten wissen. Mit Blick in die Zukunft sieht es nicht besser aus. HSW GT3 wird die iGPU Krone in Notebooks übernehmen und Broadwell soll einen größeren GPU Sprung als Haswell hinlegen. AMD braucht so schnell wie möglich GCN im Notebook Segment. Und damit meine ich jetzt nicht Kabini.

S940
2013-02-27, 12:29:29
Im GPGPU Bereich sieht es noch ungünstiger aus für AMD,Was meinst Du da? IvyBridge bekam gerade erst nen OpenCL-Treiber verpasst und die FLOPs Leistung ist nach ersten (wackligen)Boinc-benches irgendwo auf Zacate/Brazos Niveau.

Außerdem passt folgendes nicht zusammen:
Mit der Aussage wäre ich sehr vorsichtig, weil sie heute schon teils falsch ist. Für Ultrabooks ist sie gänzlich falsch. (...) Und damit meine ich jetzt nicht Kabini. Kabini (in Form von Temash) kommt ja v.a. im Ultrabook Segment ... passt dann doch, oder nicht?

Ronny145
2013-02-27, 12:42:51
Was meinst Du da? IvyBridge bekam gerade erst nen OpenCL-Treiber verpasst und die FLOPs Leistung ist nach ersten (wackligen)Boinc-benches irgendwo auf Zacate/Brazos Niveau.


OpenCL Treiber gibt es seit dem launch von Ivy Bridge. Wovon redest du? Es gibt noch nirgends Boinc Tests, die die IVB GPU Leistung tatsächlich misst. Das in BOINC selber ist eine Datenbank Angabe. In Luxxmark, FAHBench oder CLBenchmark ist die HD4000 so schnell wie der schnellste Desktop Trinity. Jetzt kannst du dir ausmalen, wie es im Notebook Vergleich aussehen wird.

Matrix316
2013-02-27, 12:51:03
Wayne interessiert überhaupt Intel Onboard Grafik? Wenn ich eine gescheite brauche, habe ich doch die Wahl beliebige Nvidia oder AMD Chips dazuzupacken.

Twodee
2013-02-27, 12:55:10
Wayne interessiert überhaupt Intel Onboard Grafik? Wenn ich eine gescheite brauche, habe ich doch die Wahl beliebige Nvidia oder AMD Chips dazuzupacken.
Alle die, die keinen Platz bzw. keinen Bock auf eine 2. Wärmequelle haben.

Matrix316
2013-02-27, 12:58:38
Alle die, die keinen Platz bzw. keinen Bock auf eine 2. Wärmequelle haben.
Dafür hast du aber auch Kompromisse was die Geschwindigkeit angeht. Eine APU mit der gleichen Leistung wie eine getrennte CPU und GPU müsste doch auch ungefähr die gleiche Abwärme haben, oder? Und dadurch wird eine CPU auch nicht kühler, wenn noch eine GPU eingebaut ist. Und verbraucht auch nicht weniger Strom. Und ist es nicht eh besser, wenn man die Wärmequellen etwas verteilt als alles an einem Punkt zu haben?

Ronny145
2013-02-27, 13:00:55
Alle die, die keinen Platz bzw. keinen Bock auf eine 2. Wärmequelle haben.


Und nicht so viel Geld ausgeben wollen oder können. Beim Gewicht und Geräuschpegel hat es auch Vorteile.

y33H@
2013-02-27, 13:13:43
Wayne interessiert überhaupt Intel Onboard Grafik? Wenn ich eine gescheite brauche, habe ich doch die Wahl beliebige Nvidia oder AMD Chips dazuzupacken.Die Betonung liegt auf wenn und dieses wenn ist bei sehr sehr vielen Kunden nicht gefragt.

Ja aber nur als Physikbibliothek und auf der CPU, nicht GPU beschleunigt. Und Sony hat ja gezeigt dass GPU-Physik ein großes Thema wird.Das hast du wohl gemeint, aber nicht geschrieben ;-) PhysX erlaubt u.a. Gameplay-Physik via GPU, mal sehen wie sich das entwickelt.

S940
2013-02-27, 15:23:19
Es gibt noch nirgends Boinc Tests, die die IVB GPU Leistung tatsächlich misst. Das in BOINC selber ist eine Datenbank Angabe.Nö, das ist der reale Wert für 350 Mhz:
The only issue now is that Intel reports the minimum speed (350MHz) as the max speed, so the estimated flops is well under the peak potential of the gpu. Server side support is still being added for the new GPU entry. ~Tank>Und selbst dafür sind 45 GFLops nicht gerade viel. Maximal läuft die iIGP mit 1150, also nehmen wir mal den runden Faktor 4, damit käme man auf 180 GFLOps. Laut der Liste (http://boinc.berkeley.edu/wiki/ATI_Radeon) hier ist das grob der Leistungsbereich von 160 VLIW5 Shader (je nach Taktfrequenz).
Wieso dann Deine Benchmarks so toll auf Intel laufen ist natürlich ne gute Frage ... Entweder ne schlechte AMD-OpenCL-Implementierung für VLIW4/5, was nicht soo wundern würde, die Hauptenergie wird/wurde voM AMD sicherlich in GNC gesteckt und/oder die Benches laufen nur auf dem CPU-Teil, oder sonstwas.

Nakai
2013-02-27, 15:56:18
hört doch mir dem scheiß auf!
die waren schlicht die günstigsten! die brauchen jeden cent und das war eine weitere möglichkeit geld reinzubekommen. reich werden sie dadurch sicherlich nicht.

Wieso immer dieser AMD Hass? Wo baut AMD schlechte CPUs? Wo baut AMD schlechte GPUs? Wo ist AMD softwaretechnisch scheisse? Ich will endlich Antworten. ;)

Verdammt nochmal, ja, man ist nicht immer so gut wie die Konkurrenz.
Aber genau das ist ja das Problem. Die Leute sehen immer nur den Ersten Platz auf dem Markt. Wieso bauen solche Leute keine GPUs, CPUs, etc? Weil es verdammt viel KnowHow benötigt.
Wir sehen gerade einen möglichen Wendepunkt in der Geschichte.

Der Part mit dem Drahtseil passt sehr gut. Wenns schief geht, sagt jeder, das er es gewusst hat, aber wenns gut geht, sagt das auch jeder, und Sie stehen dann auch wirklich gut da.

Ich erlebe hald gerade einen Wandel im Profibereich. GCN ist verdammt gut angekommen. AMDs Support wird hier auch immer besser, was auch einem Teil GCN zu verschulden ist. Die Leute befassen sich endlich mit AMD und das ist was wichtig ist. Der Gamermarkt wird in Zukunft nicht mehr so auf AMD schei**en können.

Es sollte jedem interessieren, dass AMD nicht untergeht, sondern wieder auf die Beine kommt. AMDs Untergang würde den Markt völlig verändern.

Ronny145
2013-02-27, 16:12:35
Nö, das ist der reale Wert für 350 Mhz:



Noch einmal, Boinc misst nichts aus. Die GPU last bleibt stets bei 0%. Probiere es selbst aus. Du wirst immer den exakt gleichen Wert angezeigt bekommen. Der Treiber spielt keine Rolle, das interessiert Boinc nicht die Bohne. Der Wert ändert sich auch nicht auf HD4000 GPUs mit 650 Mhz Idle Takt. Somit lässt sich das weder nachstellen noch schauen ob sich durch OpenCL 1.2 Treiber etwas geändert hat, welcher bspw. in Luxmark eine deutliche Steigerung brachte.

Matrix316
2013-02-27, 16:48:59
Wieso immer dieser AMD Hass? Wo baut AMD schlechte CPUs? Wo baut AMD schlechte GPUs? Wo ist AMD softwaretechnisch scheisse? Ich will endlich Antworten. ;)

Verdammt nochmal, ja, man ist nicht immer so gut wie die Konkurrenz.
Aber genau das ist ja das Problem. Die Leute sehen immer nur den Ersten Platz auf dem Markt. Wieso bauen solche Leute keine GPUs, CPUs, etc? Weil es verdammt viel KnowHow benötigt.
Wir sehen gerade einen möglichen Wendepunkt in der Geschichte.



Ich erlebe hald gerade einen Wandel im Profibereich. GCN ist verdammt gut angekommen. AMDs Support wird hier auch immer besser, was auch einem Teil GCN zu verschulden ist. Die Leute befassen sich endlich mit AMD und das ist was wichtig ist. Der Gamermarkt wird in Zukunft nicht mehr so auf AMD schei**en können.

Es sollte jedem interessieren, dass AMD nicht untergeht, sondern wieder auf die Beine kommt. AMDs Untergang würde den Markt völlig verändern.
Sollte es morgen eine AMD Cpu geben die bei allem gleich gut oder besser als ein Core i7-3 ist, würde ich sofort gleich bald direkt umsteigen.

Aber warum soll man auf CPUs setzen die durch die Bank langsamer sind als alles was Intel anbietet?

M4xw0lf
2013-02-27, 17:15:21
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578/
Auf die Last kommts an. Wenn alle Spiele explizit für einen AMD-Prozessor geschrieben werden, wie viel langsamer wird er dann noch sein? ;)

S940
2013-02-27, 17:37:19
Noch einmal, Boinc misst nichts aus. Die GPU last bleibt stets bei 0%. Probiere es selbst aus. Du wirst immer den exakt gleichen Wert angezeigt bekommen. Der Treiber spielt keine Rolle, das interessiert Boinc nicht die Bohne. Der Wert ändert sich auch nicht auf HD4000 GPUs mit 650 Mhz Idle Takt. Somit lässt sich das weder nachstellen noch schauen ob sich durch OpenCL 1.2 Treiber etwas geändert hat, welcher bspw. in Luxmark eine deutliche Steigerung brachte.
Gut hab extra wegen Dir mal noch gegoogelt, ht4u gab die theoretische Max. Leistung auch mal an:

http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index14.php

Es gibt nen Punkt für Dich, sie geben dort 100 GFlops mehr an 284 sollen es nach ihrer Rechenweise sein und da vertraue ich Ihnen auch. Aber das ist immer noch weit von AMDs Bestwerten entfernt. Ja - im Mobilbereich kann Intel noch gut mithalten, da sie im Gegensatz zu AMD die GPU nicht runtertakten, aber genau in dem Bereich wird schon Richland die angekündigten +40% liefern (wahrscheinlich Produktionsverbesserungen bei GF), und dann kommt Kabini mit 128 GNC Shader ...

Also da würde ich mal nicht so pessimistisch sein. Trinity wird entbuggt und Kabini kommt von unten ... wegen der GPU-Leistung muss man sich sicherlich keine Sorgen machen.

Undertaker
2013-02-27, 17:56:01
Ja - im Mobilbereich kann Intel noch gut mithalten, da sie im Gegensatz zu AMD die GPU nicht runtertakten, aber genau in dem Bereich wird schon Richland die angekündigten +40% liefern (wahrscheinlich Produktionsverbesserungen bei GF), und dann kommt Kabini mit 128 GNC Shader

Na, nicht so vorschnell. ;) Die aktuelle 17-Watt-Lösung, die 7500G, ist zwar im 3DMark 11 knapp auf HD-4000-Niveau (ULV) - aber bei gleichzeitiger CPU-Last drosselt das Ding massiv (!). Im Ergebnis ist die HD 4000 im gleichen Verbrauchsbereich rund 20 bis 30 Prozent schneller. Für Richland kenne ich bislang noch keine Benchmarkwerte eines 17W-Modells – der AMD A8-5545M hat ziemlich sicher eine höhere TDP und muss erstmal zeigen, dass er nicht auch kräftig gedrosselt wird. Gegen eine Haswell GT3 wird's aber ziemlich sicher nicht reichen.

Kabini mit 128 GCN-Shadern ist imo wohl nicht schneller als Trinity, zumindest bei gleicher TDP.

Ronny145
2013-02-27, 18:10:37
Gut hab extra wegen Dir mal noch gegoogelt, ht4u gab die theoretische Max. Leistung auch mal an:

http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index14.php

Es gibt nen Punkt für Dich, sie geben dort 100 GFlops mehr an 284 sollen es nach ihrer Rechenweise sein und da vertraue ich Ihnen auch.

Die theoretischen Werte kannte ich, was soll das jetzt aussagen? Dass AMD die Rechenleistung in GPGPU nicht auf die Straße bekommt oder das ihre OpenCL Treiber Nachholbedarf haben? Der Punkt bleibt bestehen. GPGPU sieht für AMD ungünstiger aus (als in games).

Ja - im Mobilbereich kann Intel noch gut mithalten, da sie im Gegensatz zu AMD die GPU nicht runtertakten, aber genau in dem Bereich wird schon Richland die angekündigten +40% liefern

Richland wird 20% auf das schnellste liefern. Die 40% beziehen sich auf Steigerungen innerhalb langsamerer Modelle. Das ist der kleine Trick von AMD. Die Mehrzahl glaubt jetzt, Richland würde 40% auf den 4600M draufsetzen.

Gipsel
2013-02-27, 19:34:53
Na, nicht so vorschnell. ;) Die aktuelle 17-Watt-Lösung, die 7500G, ist zwar im 3DMark 11 knapp auf HD-4000-Niveau (ULV) - aber bei gleichzeitiger CPU-Last drosselt das Ding massiv (!).Und Intel nicht? Die gehen auch nur auf ihren Boost-Takt, wenn die CPU gerade nicht übermäßig viel zu tun hat.

Coda
2013-02-27, 19:51:52
Soweit ich weiß bekommt bei Intel die GPU Priorität vor der CPU.

Gipsel
2013-02-27, 19:55:44
Soweit ich weiß bekommt bei Intel die GPU Priorität vor der CPU.Das sagt AMD von ihren APUs auch.

Coda
2013-02-27, 20:01:30
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578/
Auf die Last kommts an. Wenn alle Spiele explizit für einen AMD-Prozessor geschrieben werden, wie viel langsamer wird er dann noch sein? ;)
Dafür hauen die dabei halt auch 100W mehr weg. Das ist schon ziemlich arg.

y33H@
2013-02-27, 20:01:52
Die APUs drosseln idR die iGPU bei CPU load, Intel kaum bis gar nicht.

M4xw0lf
2013-02-27, 20:07:36
Dafür hauen die dabei halt auch 100W mehr weg. Das ist schon ziemlich arg.

Klar, aber im Normalfall bringen sie die halbe Leistung UND hauen 100W mehr weg - in diesem Beispiel haben sie ihre Effizienz also mal fluffig verdoppelt, von katastrophal auf mies. :biggrin:

Ronny145
2013-02-27, 20:11:22
Und Intel nicht? Die gehen auch nur auf ihren Boost-Takt, wenn die CPU gerade nicht übermäßig viel zu tun hat.


Das ist kein Drosseln. Die dynamische Taktung ist von Grund auf darauf ausgerichtet je nach Last hochzutakten. Drosseln wäre es wenn der Takt unter den Basistakt fällt.

Gipsel
2013-02-27, 20:55:10
Das ist kein Drosseln. Die dynamische Taktung ist von Grund auf darauf ausgerichtet je nach Last hochzutakten. Drosseln wäre es wenn der Takt unter den Basistakt fällt.Das ist reine Definitionsfrage. Genauso kannst Du sagen, daß der idle-Takt des GPU-Teils (160MHz?) der Grundtakt wäre und je nach Last hochgetaktet wird.

Die Frage ist, was passiert mit den Takten, wenn CPU-Burn und Furmark (na besser vielleicht irgendwas etwas weniger GPU-Verbrauch Hervorrufenderes) gleichzeitig laufen? Wird dann eher die CPU oder die GPU mit Takt bedacht?
Bei AMDs APUs ist es ja oft so, daß der CPU-Teil relativ gesehen mehr benötigt als bei Intel (und oder langsamer ist). Wenn man das also bei einem Spiel testet (GPU-Last ist von der CPU-Leistung abhängig!), kann die Intel-CPU für die gleiche Leistung oft niedriger takten, so daß mehr Budget für den GPU-Teil übrig bleibt. Bei AMD dreht dagegen unter Umständen die Grafik Däumchen, weil die CPU nicht hinterherkommt bzw. muß diese höher takten. Was man da also unter Umständen sieht, ist eine Art CPU-Limit bei unterschiedlichen Takten, keine prinzipiell andere Power-Management Strategie. Beide müssen einfach mit unterschiedlichen Anfangsbedingungen klarkommen.

Ronny145
2013-02-27, 21:26:59
Das ist reine Definitionsfrage. Genauso kannst Du sagen, daß der idle-Takt des GPU-Teils (160MHz?) der Grundtakt wäre und je nach Last hochgetaktet wird.


Das sehe ich anders. Einen Idle Takt hat mein 3570k mit der HD4000 auch. Das sind 350 Mhz im Idle. Der offizielle Basistakt beträgt 650 Mhz. Wenn das in irgendeinem Bench unter 650 Mhz fällt, wäre das Drosselung. Beim 7500G sind 327 Mhz der Basistakt. Fällt der Takt unter den Wert ab drosselt die GPU.

Gipsel
2013-02-27, 22:23:05
Beim 7500G sind 327 Mhz der Basistakt. Fällt der Takt unter den Wert ab drosselt die GPU.Passiert das, solange auf der GPU 100% Last anliegen?

Ronny145
2013-02-27, 22:30:00
Passiert das, solange auf der GPU 100% Last anliegen?


Das musst du Undertaker fragen.

Undertaker
2013-02-27, 23:06:24
Passiert das, solange auf der GPU 100% Last anliegen?

Bei einer mittleren Ivy Bridge CPU (ULV), z.B. einem i5 3337U, hast du in einem durchschnittlichen Spiel etwa 1000 MHz GPU-Takt (maximaler Turbo in diesem Fall 1100 MHz) sowie den Basis CPU-Takt (in diesem Fall 1800 MHz) anliegen. Das richtet sich stur nach der TDP, sodass der Verbrauch praktisch festgenagelt bei 17 Watt verharrt (+- einige hundert Milliwatt schwankend). Ganz interessant in dem Zusammenhang: Bei den genannten Taktraten entfallen rund 4-5 Watt auf die CPU-Kerne, rund 7-8 Watt auf die GPU und der Rest auf I/O usw. Je nach Spiel kann es da gewissen Abweichungen geben, aber das mal als Richtwert. Ebenfalls ganz interessant: Taktet die GPU statt 1000 MHz nur mit 750 MHz, halbiert sich der Verbrauch in etwa. D.h. selbst in Worst-Case-Szenarien (Prime/LinX + Furmark) hast du einen garantierten Takt von ~1,8 GHz CPU und ~750 MHz GPU. Weniger geht praktisch nicht (sofern du kein Temperatur-bedingtes Throttling bekommst).

AMD: Ganz exakte Zahlen kann ich hier nicht liefern. Der Turbo scheint hier nicht ganz so feinfühlig zu arbeiten, d.h. die Leistungsaufnahme schwankt stärker in Abhängigkeit von der Last. In Spielen hast du beim A6-4455M (17 Watt) meist den normalen CPU-Takt (keinen Turbo) und 200-327 MHz GPU-Takt (Basis 327 MHz, Turbo 424 MHz, ergo öfters auch Throttling). Der GPU-Turbo ist abseits extremer GPU-Limitierung, d.h. niedriger bei CPU-Last (3DMark 11), praktisch nie aktiv. Durch die dürftige CPU-Leistung des einen Moduls ist selbiges in Spielen logischerweise meist ziemlich gut ausgelastet.

Gipsel
2013-02-27, 23:44:08
Durch die dürftige CPU-Leistung des einen Moduls ist selbiges in Spielen logischerweise meist ziemlich gut ausgelastet.Das war ja in etwa meine These. Die CPU limitiert, so daß die GPU in Spielen oft gar nicht auf 100% Last kommt (oder in unrealistischen Szenarien, in denen das Teil sowieso zu langsam ist). Wenn die bei 70% Auslastung oder so rumdümpelt, geht die etwas mit dem Takt runter, um zumindest etwas mehr CPU-Performance zu ermöglichen. Das ist kein Beweis für eine andere Zielsetzung des Powermanagements. AMD ist halt früher mit der CPU-Leistung am Ende.
Deswegen ja mein Vorschlag, die Taktraten zu checken, wenn CPU und GPU unabhängig voneinander belastet werden. Was bekommt dann den Vorzug, GPU- oder CPU-Teil?

Undertaker
2013-02-27, 23:48:55
Das war ja in etwa meine These. Die CPU limitiert, so daß die GPU in Spielen oft gar nicht auf 100% Last kommt (oder in unrealistischen Szenarien, in denen das Teil sowieso zu langsam ist). Wenn die bei 70% Auslastung oder so rumdümpelt, geht die etwas mit dem Takt runter, um zumindest etwas mehr CPU-Performance zu ermöglichen.

Wäre das so, dann würden die 327 MHz anliegen. Nö, hier limitiert ganz einfach die TDP.

Was bekommt dann den Vorzug, GPU- oder CPU-Teil?

Ganz klar die GPU, sowohl bei AMD als auch Intel. Bei AMD sind nur einfach die TDP-Reserven geringer, sodass der Turbo seltener anspringt.

Gipsel
2013-02-27, 23:52:00
Wäre das so, dann würden die 327 MHz anliegen. Nö, hier limitiert ganz einfach die TDP.

Ganz klar die GPU, sowohl bei AMD als auch Intel.
Wenn der gefettete Satz stimmt, liegen bei 100% GPU-Last die 327MHz an. ;)

Und wieso soll bei nur 70% GPU-Last das Ding auf vollen Takt gehen, wenn die CPU im Limit rumkrebst? Bringt doch sowieso nichts. Höchstens muß die CPU dafür eine Taktstufe runter, was das Problem noch verschlimmert!

Wie gesagt, meine These war, daß bei AMD der CPU-Teil weniger Performance bei höherem Verbrauch bringt. Das Powermanagement muß also mit anderen Rahmenbedingungen klarkommen, um bei gegebener Last den Verbrauch in der TDP zu halten.

Undertaker
2013-02-27, 23:57:47
Wenn der gefettete Satz stimmt, liegen bei 100% GPU-Last die 327MHz an. ;)

Nein, vielleicht aber auch ein Missverständnis. ;) Nochmal ganz genau*:

Als erstes wird versucht, dass sowohl CPU als auch GPU ihren jeweiligen Basistakt erreichen. Ist das sichergestellt und weitere TDP-Reserven vorhanden, zündet der Turbo: Bei anliegender GPU-Last vorzugsweise auch erst auf der GPU, ist diese am Maximum, zusätzlich auf der CPU.

*Warum auch immer, gibt es bei Intel von diesem grundsätzlich gültigen Schema manchmal kleine Abweichungen. Teilweise zündet (trotz GPU-Limit) der CPU-Turbo auch bereits, obwohl die GPU noch 100-200 MHz vom Maximum entfernt ist. Bei mobilen Trinitys habe ich ehrlich gesagt noch keinen zeitgleichen CPU- und GPU-Turbo erlebt (aber auch nicht explizit danach gesucht).

Ronny145
2013-02-27, 23:57:48
Und wieso soll bei nur 70% GPU-Last das Ding auf vollen Takt gehen, wenn die CPU im Limit rumkrebst? Bringt doch sowieso nichts. Höchstens muß die CPU dafür eine Taktstufe runter, was das Problem noch verschlimmert!


Wer sagt das? Es darf nur nicht trotteln.

Gipsel
2013-02-28, 00:04:25
Wer sagt das? Es darf nur nicht trotteln.Bei mir bedeutet Throtteln, daß der Takt trotz 100% Last unter den Nominaltakt sinkt. Bei der CPU macht das Trinity wohl (bei gleichzeitiger hoher GPU-Last), bei der GPU bezweifle ich das, eben weil die GPU Vorrang bekommt.

Undertaker
2013-02-28, 00:05:40
Und wieso soll bei nur 70% GPU-Last das Ding auf vollen Takt gehen, wenn die CPU im Limit rumkrebst? Bringt doch sowieso nichts. Höchstens muß die CPU dafür eine Taktstufe runter, was das Problem noch verschlimmert!

Gute Frage. Ehrlichgesagt weiß ich aus dem Kopf auch gar nicht, was beim A6-4455M oder Trinity (mobil) allgemein der eigentliche Leerlauftakt der GPU wäre.

Bei mir bedeutet Throtteln, daß der Takt trotz 100% Last unter den Nominaltakt sinkt. Bei der CPU macht das Trinity wohl (bei gleichzeitiger hoher GPU-Last), bei der GPU bezweifle ich das, eben weil die GPU Vorrang bekommt.

Siehe oben. Der GPU-Turbo bekommt vorrang vor dem CPU-Turbo, das muss aber nicht beim Throttling gelten. Oder aber Samsung hat beim 535U3C irgendwas merkwürdiges im BIOS konfiguriert.

Gipsel
2013-02-28, 00:12:02
Gute Frage. Ehrlichgesagt weiß ich aus dem Kopf auch gar nicht, was beim A6-4455M oder Trinity (mobil) allgemein der eigentliche Leerlauftakt der GPU wäre.
Die haben ihre üblichen Powerstates und dazwischen kann er mit den paar MHz Granularität die Feinregelung machen.

Oder aber Samsung hat beim 535U3C irgendwas merkwürdiges im BIOS konfiguriert.
Genau das behauptet Notebookcheck (http://www.notebookcheck.net/Review-Samsung-Series-5-535U3C-Notebook.83159.0.html):
CPU-Z and AMD's System Monitor at most displayed the default clock of 2.1 GHz during the tests. Thus, Turbo mode is not enabled and the specified maximum of 2.6 GHz proves to be useless in this model. Since we also observed this behavior in the Intel model, it seems Samsung omits the Turbo mode on purpose in this model range in order to keep the temperatures in the slim case within a limit. Approximately 20% higher results are achieved by Samsung's 14-inch 535U4C (with Turbo) in the CB single-thread tests.Hmm.

Undertaker
2013-02-28, 00:35:33
Hmm. Irgendwie ist besonders bei AMDs ULV-Modellen das Notebookangebot so eingeschränkt, dass es nicht immer ganz einfach ist, Eigenarten des jeweiligen Gerätes vom prinzipiellen Verhalten der APU zu trennen. Was ich aber auf jeden Fall (schon aus Verbrauchsmessungen) sagen kann ist, dass die TDP in diesem Segment bei AMD mit deutlich heißerer Nadel gestrickt ist als bei Intel. Dort sind die Basistaktraten so niedrig angesetzt, dass der Turbo praktisch immer aktiv ist, wenn auch vor allem bei der CPU nicht immer zu 100% (bei kombinierter CPU/GPU-Last).

S940
2013-02-28, 01:38:07
Die 40% beziehen sich auf Steigerungen innerhalb langsamerer Modelle. Um genau die ging es Dir doch, oder was meintest Du sonst mit "darunter liegenden Modellen"?:
Viele lassen sich vom A10-4600M blenden und vergessen die darunter liegenden Modelle.
Die darunterliegenden Modelle bekommen die 40% mehr oder minder je nach Modell und Typ, wies halt immer so ist. Da sind wir uns dann doch einig, oder nicht?

Edit:
Ansonsten zu den Benchmarkwerten. So wies ausschaut läuft da ne Menge auf der CPU und ein Trinity mit 2 BD-Modulen hat da nichts gegen nen i7-3770k mit SMT "anzustinken", da hilft dann oft auch keine GPU.

Siehe z.B. hier bei computerbase:
http://www.computerbase.de/artikel/grafikkarten/2012/test-trinity-vs.-ivy-bridge-im-gpu-test/10/

Die GPU-Werte bei Luxxmark hauen mich nun wirklich nicht vom Hocker, aber 4 moderne Intel Kerne reißen halt was raus.

=Floi=
2013-02-28, 03:50:23
Sonst zur Abwechslung auch fuer DICH zum mitlesen: SONY & Microsoft wollten SoCs haben. NV hatte keine relevante SoCs zu dem Zeitpunkt und immer noch nicht (ab Maxwell erst) ergo geht man wohl zu wem genau ueberhaupt wenn man unter Zeitdruck liegt?

er schrieb:
Es hat einen Grund, wieso AMD in allen Konsolen als GPU oder GPU und CPU vorhanden ist. Jaguar und GCN sind derzeit nahezu konkurrenzlos.

jaguar und CGN sehe ich eben nicht als den heiligen gral an. normale hardware zu einem günstigen preis.
umgedreht steht AMD unter gewinndruck.

=Floi=
2013-02-28, 04:24:58
Wieso immer dieser AMD Hass? Wo baut AMD schlechte CPUs? Wo baut AMD schlechte GPUs? Wo ist AMD softwaretechnisch scheisse? Ich will endlich Antworten. ;)
Mit den 3 punkten fängst du an!

also bei den cpus ist intel einfach zu brutal gut. Bulldozer hat einfach probleme sich von den phenom 2 prozessoren abzusetzen. Bulldozer ist von der DIE-größe und vom energieverbrauch quasi eine kathastrophe. Das andere zeug (E3/4XX und Llano hat noch die alte architektur) Die gedrosselten phenom 2 verkaufen sie immer noch und intel hat selbst bei den celeron schon auf sandy bridge umgestellt.

bei den GPUs sind sie ok. Dort scheitert es am treiber und an den einstellungsmöglichkeinten. was nützen mir "3 Tflop", wenn ich die leistung nicht nützen kann?!
im mobilen bereich kacken sie durch das aufwärmen der alten sachen aber richtig ab. warum soll ich mir sowas kaufen? unübersichtlich, alt und nicht wirklich leistungsfähig. (da ist/war nv aber auch nicht wirklich besser.)


Aber genau das ist ja das Problem. Die Leute sehen immer nur den Ersten Platz auf dem Markt.
weil ich selbst für kleines geld teilweise echt heftig gute hardware bekommen kann. (sandy bridge dualcore mit 2,8ghz für unter 40€)


ihr redet imho nur alles viel zu schön. das ist das problem. wenn amd 2% mehr umsatz macht, dann hört sich das bei euch wie 200% mehr an. AMD hat gute ideen und ansätze, aber gute produkte gehören auch dazu.
keiner wünscht amd das aus, aber an ihrer lage sind sie selbst auch nicht gerade unschuldig. (alleine die strafzahlungen an GF sind ne lachnummer) NV kocht ja auch nur mit wasser, setzt aber neue sachen einfach besser um. AMD hätte gleich piledriver veröffentlichen sollen und müsste manchmal viel schneller und radikaler sein.

HOT
2013-02-28, 08:56:04
So einfach ist das nunmal einfach nicht. GCN ist jedoch gut und BD war ein kompletter Neuanfang und das während Intel nun wirklich an der Spitze liegt technologisch (Design und Fertigung). NV hat irre viel Glück gehabt in der Vergangenheit auf das richtige Pferd gesetzt zu haben.

Ronny145
2013-02-28, 12:34:01
Siehe z.B. hier bei computerbase:
http://www.computerbase.de/artikel/grafikkarten/2012/test-trinity-vs.-ivy-bridge-im-gpu-test/10/

Die GPU-Werte bei Luxxmark hauen mich nun wirklich nicht vom Hocker, aber 4 moderne Intel Kerne reißen halt was raus.


Das ist Geschichte mit den OpenCL 1.2 Treibern. Luxxmark Medium Scene 260 Punkte auf der GPU berechnet. Das ist mehr als der A10-5800K schafft.

S940
2013-02-28, 12:36:45
Das ist Geschichte mit den OpenCL 1.2 Treibern. Luxxmark Medium Scene 260 Punkte auf der GPU berechnet. Das ist mehr als der A10-5800K schafft.
Ah ok, alles irgendwie recht unübersichtlich.
Aber mal ne blöde Frage ... wieso gibts da nur getrette CPU und GPU Scores und keinen combined APU-Score? Ist doch ziemlich essig so, die 2 Teil-Ergebnisse kann man ja sicherlich nicht addieren.
P.S: Wegen "unübersichtlich": Ist es sicher, dass der OpenCL 1.2 Treiber wirklich nur die GPU belegt und nichts auf den CPU-Kernen rechnet? Mich würde langsam gar nichts mehr wundern :freak:

Knuddelbearli
2013-02-28, 14:11:13
Ganz klar die GPU, sowohl bei AMD als auch Intel. Bei AMD sind nur einfach die TDP-Reserven geringer, sodass der Turbo seltener anspringt.


Wenn Fokus auf der GPU läge wieso throttelt dann die GPU während die CPU auf dem basitakt verharrt ?

Ronny145
2013-02-28, 14:15:45
Ah ok, alles irgendwie recht unübersichtlich.
Aber mal ne blöde Frage ... wieso gibts da nur getrette CPU und GPU Scores und keinen combined APU-Score? Ist doch ziemlich essig so, die 2 Teil-Ergebnisse kann man ja sicherlich nicht addieren.
P.S: Wegen "unübersichtlich": Ist es sicher, dass der OpenCL 1.2 Treiber wirklich nur die GPU belegt und nichts auf den CPU-Kernen rechnet? Mich würde langsam gar nichts mehr wundern :freak:


Die CPU dümpelt bei ~5% umher. Hier berechnet nur die GPU.

Nakai
2013-02-28, 14:50:43
jaguar und CGN sehe ich eben nicht als den heiligen gral an. normale hardware zu einem günstigen preis.
umgedreht steht AMD unter gewinndruck.

Richtig, AMD braucht Gewinn, sonst sind sie weg.

Jaguar und GCN sind unschlagbar, weil es sich hierbei um synthetisierbare Designs handelt. Sie liefern eine verdammt hohe Perf/Watt, Perf/mm² und sind modern. AMD hat frühzeitig darauf gesetzt und das war ein richtiger Schachzug.

Wieso immer dieser AMD Hass? Wo baut AMD schlechte CPUs? Wo baut AMD schlechte GPUs? Wo ist AMD softwaretechnisch scheisse? Ich will endlich Antworten.
Mit den 3 punkten fängst du an!

Ich sehe nur zwei Mitbewerber die bessere CPUs als AMD bauen. IBM und Intel. Wenn du Intel als Maßstab für normale CPUs siehst, ja dann ist AMD scheisse. Andersherum ist Intel einfach ziemlich gut.
GCN war mit Tahiti die schnellste SingleGPU. Der Markt war für ~6 Monate von AMD dominiert, dank GCN. Dass die Karten dennoch schlechter als die Konkurrenz verkauft wurden, hat nichts mit schlechte GPUs zu tun. Ich sehe nirgends, wo NV jetzt so dramatisch schlechter ist.

AMD liefert mittlerweile gute Treiber und gute Softwaretools für den GPGPU-Markt. Schonmal Nvidias Parallel Nsight für OpenCL benutzt? Selbst wenn man in einiger Hinsicht nicht an NV rankommt, heißt das nicht, dass sie schlecht sind. Ich hatte auch schon Probleme mit AMD-Treibern, genauso mit NV.
AMDs CodeXL war da viel unproblematischer und hat wirklich gute Ergebnisse geliefert. Es ist sogar in der Lage auf nur einer GPU zu debuggen, auch pre GCN.

Undertaker
2013-02-28, 15:02:37
Wenn Fokus auf der GPU läge wieso throttelt dann die GPU während die CPU auf dem basitakt verharrt ?

Habe ich doch oben schon erklärt. Die Priorisierung der GPU gegenüber der CPU gilt für den Turbo. Wenn gethrottelt werden muss, könnten Einschnitte bei der GPU deshalb sinnvoller sein, weil diese einfach die größere Energie verschlingt. Oder aber hier hat der Notebookhersteller reingepfuscht.

Ich werde das Thema die Tage nochmal bei einem A10-4600M untersuchen.

=Floi=
2013-03-01, 07:23:31
Ah ok, alles irgendwie recht unübersichtlich.
Aber mal ne blöde Frage ... wieso gibts da nur getrette CPU und GPU Scores und keinen combined APU-Score? Ist doch ziemlich essig so, die 2 Teil-Ergebnisse kann man ja sicherlich nicht addieren.
P.S: Wegen "unübersichtlich": Ist es sicher, dass der OpenCL 1.2 Treiber wirklich nur die GPU belegt und nichts auf den CPU-Kernen rechnet? Mich würde langsam gar nichts mehr wundern :freak:

ein hybridbetrieb ist schlicht nicht möglich. entweder gpu oder cpu

Undertaker
2013-03-01, 09:30:09
Luxmark kann man auch zusammen auf CPU + GPU rechnen lassen. Bei einem Optimus Notebook sogar CPU + IGP + extra GPU gleichzeitig. Die Scores addieren sich nicht ganz, aber die Skalierung ist schon recht gut.

S940
2013-03-05, 00:56:21
ein hybridbetrieb ist schlicht nicht möglich. entweder gpu oder cpuKlar, aber ist das ein Software- oder Hardwarelimit?

Undertaker
2013-03-06, 11:10:51
Siehe oben. Der GPU-Turbo bekommt vorrang vor dem CPU-Turbo, das muss aber nicht beim Throttling gelten. Oder aber Samsung hat beim 535U3C irgendwas merkwürdiges im BIOS konfiguriert.

Dazu nochmal eine Ergänzung: Ein vergleichsweise untersuchter A10-4600M zeigt ein deutlich schlüssigeres Turbo-/Throttling-Verhalten. In CPU-limitierten Spielen liegt der CPU-Takt bei 2,3 bis 2,7 GHz, während die GPU gleichzeitig zwischen Leerlauftakt und Basistaktrate (334-496 MHz) schwankt. Limitiert wiederum die GPU, taktet diese mit 496 - 686 MHz (letzteres nur sehr kurzzeitig), während die CPU beim Basistakt oder leicht darunter liegt. Auch hier scheint die TDP aber extrem knapp bemessen: Gleichzeitiger Turbo bei CPU und GPU ist nicht zu beobachten, die maximalen Stufen werden nur für wenige Sekunden erreicht. Die GPU scheint keine Taktabstufungen außer Leerlauf, Basis- und Turbotakt zu kennen. :confused: Bei der CPU gibt es zwar viele Zwischenstufen unterhalb der Basistaktrate, darüber aber nur zwei Turbo-Stufen á 2,7 und 3,2 GHz. Da besteht also noch reichlich Verbesserungspotential.

Gipsel
2013-03-06, 11:48:17
Die GPU scheint keine Taktabstufungen außer Leerlauf, Basis- und Turbotakt zu kennen. :confused:Das könnte auch an einem mangelhaften Monitoring liegen, ähnlich wie bei den GPUs, wo man die 4 MHz-Stufen der Radeons ja auch selten bis gar nicht sieht.

Undertaker
2013-03-06, 12:48:21
Kann ich zumindest nicht ausschließen; allerdings zeigt selbst der AMD-eigene System Monitor genau diese Werte und keinerlei Abweichungen – ich vermute darum, dass auch nur diese Stufen existieren.

Unlimited
2013-03-13, 11:50:14
Es gibt mal wieder Neuigkeiten von der Finanzfront.
AMD hat mit 163Mio USD für den Lone Star Campus weniger erzielt als erhofft.
Der Campus wird zurückgeleased, was meistens auf Dauer betrachtet ein sehr schlechtes Geschäft darstellt.
Zugleich wird der Verkauf eines weiteren Gebäudes geplant.

http://www.computerbase.de/news/2013-03/verkauf-der-geschaeftsstelle-in-austin-bringt-amd-164-mio.-dollar/

Dunkeltier
2013-03-13, 16:06:02
Na, das scheint jetzt wohl AMDs Bailout zu sein. Erst wurde die Produktion verkauft, darauf folgen Firmen-Immobilien und als letzter Schritt werden dann sicher Patente verscherbelt. AMD hat keinen Fuß mehr im Mobile-, CPU- & GPU-Sektor. Über die nächsten 5 Jahre gesehen wird AMD immer bedeutungsloser werden. Schade. Ich mag mir mittlerweile auch gar nicht mehr das Portfolio ansehen, weil ich nicht wüsste wo AMD CPUs sinnvoll einsetzbar wären.

Für Office-PCs brauche ich keine leistungsstarke APU, für HTPCs verbraten diese zuviel Strom (95-125W für ein 2/3-Moduler -> http://www.computerbase.de/news/2013-03/amd-fx-4350-und-fx-6350-kuendigen-sich-an/), in Spielen dreht Intels schnellster Dual-Core Kreise um AMDs Top-CPU und in Anwendungen sind diese auch langsamer. Noch dazu steht Intels aktuelle Haswell-Generation unmittelbar bevor, was die Durststrecke nur länger werden lässt.

Was ist so fucking verdammt schwer daran, sich von unprofitablen Geschäftsfeldern zu trennen?! Entweder AMD macht nur noch GPUs & ARM oder konzentriert sich wieder voll auf CPUs. Aber kein ungesunder Mischmasch, der einen Haufen Geld kostet! Fakt ist, nur die GPU-Sparte lässt bei AMD überhaupt noch was in der Kasse klingeln und die APUs kosten eine Menge DIE-Space (und damit Kohle) aber werden kaum vom Kunden goutiert.

Coda
2013-03-13, 16:07:11
GPUs wird es in Zukunft nicht mehr ohne CPUs geben. Was willst du da trennen?

Dunkeltier
2013-03-13, 16:27:50
GPUs wird es in Zukunft nicht mehr ohne CPUs geben. Was willst du da trennen?


Die Entwicklungskosten dieser komplexen Designs steigen während der Markt für "herkömmliche" PCs am schrumpfen ist. Denkst du nicht, AMD setzt hier aufs falsche Pferd? http://www.heise.de/newsticker/meldung/AMD-steckt-weiter-in-den-roten-Zahlen-1789613.html

http://www.heise.de/imgs/18/9/7/3/3/4/4/Bildschirmfoto_2013-01-22_um_23.00.32.jpg-4b9db6883753c6e4.jpeg http://www.pcgameshardware.de/screenshots/759x427/2013/01/AMD_Q4_2012_neu.png

Vielleicht wäre es sogar sinnvoller, nur noch GPUs zu verkaufen und X86-64 / ARM Designs zum lizenzieren zu entwickeln? Zwar hat man dann noch die Forschungskosten am Bein, aber erspart sich so ein Desaster wie die Abnahme-Anpassung mit GF. -> http://www.computerbase.de/news/2012-12/amd-nimmt-weniger-wafer-von-globalfoundries-ab/ Klappt ja bei anderen Firmen auch, nur nicht bei AMD.

Die Leasing-Story erinnert mich an Nokia, die gelten ja auch als gescheitert.

Coda
2013-03-13, 16:42:16
Wenn sie keine APUs herstellen können sind sie in spätestens 10 Jahren tot.

L.ED
2013-03-13, 16:51:11
Was war daran nicht zu verstehen, (ich glaube aber viele haben das noch immer nicht wirklich verstanden)? Das es in Zukunft (hüben wie drüben), schon bald gar keine CPU's ohne integrierte GPU mehr geben kann und wird?

Es kommt sogar noch besser, mittelfristig mit fest verlöteten Speicher auf den Platinen und längerfristig direkt solches mit in die CPU's! :eek:

Evolutionäre Konsequenz einer Entwicklung, so simpel und da man ansonsten nur mehr schlecht als recht weitere Performance Evolution auf absehbar erwarten könnte (einbegriffen mögliche Leistung vs. Verbrauch)!

fondness
2013-03-13, 16:54:36
Die Leasing-Story erinnert mich an Nokia, die gelten ja auch als gescheitert.

Es gibt Firmen die machen pro Quartal Milliarden Gewinn und haben ihre Gebäude geleast. Das nennt man modernes Management. AMD ist kein Immobilienverwalter und sollte sich deshalb auch nicht mit solchen Dinge beschäftigen.

Unlimited
2013-03-13, 16:56:15
Das es in Zukunft (hüben wie drüben), schon bald gar keine CPU's ohne integrierte GPU mehr geben kann und wird?


Jup, da wirds hingehen, bzw, da sind wir ja schon fast.

Unlimited
2013-03-13, 17:00:06
Es gibt Firmen die machen pro Quartal Milliarden Gewinn und haben ihre Gebäude geleast. Das nennt man modernes Management. AMD ist kein Immobilienverwalter und sollte sich deshalb auch nicht mit solchen Dinge beschäftigen.

Das ist durchaus korrekt.
[Als Immobilienverwalter würde AMD nicht so große Verluste einfahren]
Nur dass die Leasingverträge von denen du sprichst unter anderen Bedingungen zustande kommen.

AMD ist in einer Zwangslage gewesen und hat die Immobilie schon zu einem recht geringen Preis verkauft.
Ich denke, die Zwangslage von AMD hat zu einem schmerzhaft geringeren Erlös geführt, als möglich gewesen wäre, wenn man zeit gehabt hätte mit dem Verkauf.
AMD verschweigt ja die Mietkosten, aber ich würde vermuten aus dem selben Grund werden diese höher sein, als das hätte sein müssen, wenn AMD es sich hätte aussuchen können, ob, wann und wo sie ein Gebäude anmieten möchten.

fdk
2013-03-13, 17:04:48
Llano und Trinity waren eben zu frühe Umsetzungen des APU Konzepts. Davon hatte niemand etwas und entsprechend haben sie sich auch verkauft. Deswegen auch die krassen Abschreibung letztes Jahr auf die Llano Restbestände. AMD hat praktisch seit dem Llano release die space für die überzogene igpu geliefert ohne dafür - aufgrund mangelnder für den Endkunden relevanter Features - einen entsprechend höheren Preis einfordern zu können.

Screemer
2013-03-13, 17:07:34
die ersten gebäude die amd verkaufte und heute noch über leasing nutz, wurden schon 1998 veräußert. halt ich jetzt nicht für faktisch schlecht.

fondness
2013-03-13, 17:28:35
Llano und Trinity waren eben zu frühe Umsetzungen des APU Konzepts.

Zu früh für wen? Für Intel sicher. Und das ist leider das traurige im x86-Markt das Dinge die Intel nicht will keine Chance haben. Auch wenn AMD mit der HSA-Foundation alles versucht um das Thema zu forcieren.

Undertaker
2013-03-13, 17:37:58
Was haben Llano und Trinity mit Intels Wohlwollen (oder eben nicht) gegenüber APUs zu tun? Man kann durchaus argumentieren, dass sich eine starke Grafikeinheit derzeit abseits von Spielen praktisch nicht rentiert. Wenn OpenCL in einigen Jahren stärker eingesetzt werden sollte, würden die entsprechenden Modelle in Benchmarks und damit auch beim Kunden besser dastehen.

Die Frage ist natürlich, was man AMD bis dahin alternativ hätte machen können. Nun, entweder eine kleinere GPU verbauen und damit die Produktionskosten senken (aktuell liegt sowieso viel Potential brach, da nur die A10 die volle Ausbaustufe besitzen), oder aber mehr Transistoren in den CPU-Teil investieren.

fondness
2013-03-13, 17:39:33
Was haben Llano und Trinity mit Intels Wohlwollen (oder eben nicht) gegenüber APUs zu tun?

Weil es ein klassisches Henne-Ei-Problem ist. Solange die Hardwarebasis nicht vorhanden ist macht es für Entwickler keinen Sinn die Vorteile von APUs zu nutzen.

Undertaker
2013-03-13, 17:47:15
Per OpenCL ist es ziemlich egal ob wir eine APU, eine Intel-CPU mit IGP (ab HD 4000) oder eine dedizierte Grafikkarte haben. Auch wenn AMD in aktuellen Modellen eine schächere GPU (bei gleichzeitig stärkerer CPU) verbaut hätte, würde das an der Verbreitung entsprechender Software wohl wenig ändern. Generell ist es aber schon verwunderlich, das OpenCL derzeit (trotz wachsender Hardwarebasis - läuft auf allen neueren GPUs und sogar Intels 2012 IGPs) so spärlich unterstützt wird.

Dunkeltier
2013-03-13, 18:03:46
Wenn sie keine APUs herstellen können sind sie in spätestens 10 Jahren tot.


Schon, aber so haben sie einfach DIE-Space und damit Geld an die Kundschaft verschenkt. Und gleichzeitig den CPU-Part sträflich vernachlässigt oder besser gesagt total am Markt vorbei entwickelt. Intel geht hier viel konservativer aber auch erfolgreicher vor.

Coda
2013-03-13, 18:16:19
Du kannst nicht einfach GPU-Entwickler in die CPU-Sparte setzen und denken, dass das auf einmal alle Probleme löst.

So funktioniert das nicht. Ex-ATI hat immer noch eine andere Firmenkultur und verwendet vermutlich ganz andere Tools.

Knuddelbearli
2013-03-13, 18:51:23
Die deutlich schnellere GPU ist auch gute Werbung für AMD

Unlimited
2013-03-20, 15:01:45
Der Trend, dass ARM-Prozessoren im Low-Cost-Bereich immer mehr die x86er verdrängen scheint doch langsam immer stärker ins Rollen zu kommen:
http://www.notebookcheck.com/Samsung-Exynos-5250-Dual-Cortex-A15-ARM-SoC.86885.0.html

Es ist wohl nur noch eine Frage der Zeit, wann "Netbooks" mit dem Exynos 5 Octa rauskommen, der ja im idle einiges Stromsparpotential bieten würde.

Auch wenn es noch keine Benchmarks gibt, aber vermutlich hat Samsung dem Tegra auch gleich ein schönes Schnippchen geschlagen.
Schneller Quadcore mit zusätzlich gleich 4 Stromsparkernen, das klingt nach einem recht universell einsetzbaren Prozessor.
Die softwareseitige Nutzung ist mit dem 4+4-Prinzip wohl auch erleichtert im Vgl. zum 4+1 des Tegra...

Wenn Samsung so weitermacht, dann sollte Intel sich im Mobile-CPU-Sektor warm anziehen und AMD erst recht, da Ihnen sonst ein weiteres der wenigen verbliebenen Beinchen abfriert.

Unlimited
2013-03-20, 15:20:26
Wie wird eigentlich die Wahrscheinlichkeit eingeschätzt, dass AMD evtl. mal wieder für Apple einen Job macht?
Z.B. Macbook Air Jahresmitte (Jaguar Quad-OctaCore APU)?

Ronny145
2013-03-20, 15:26:52
Der Trend, dass ARM-Prozessoren im Low-Cost-Bereich immer mehr die x86er verdrängen scheint doch langsam immer stärker ins Rollen zu kommen:
http://www.notebookcheck.com/Samsung-Exynos-5250-Dual-Cortex-A15-ARM-SoC.86885.0.html



Der maximale Verbrauch liegt bei etwa 4 bis 8 Watt, sodass der Exynos 5250 nur in großen Tablets eingesetzt werden kann.

Arg viel.

robbitop
2013-03-20, 15:30:31
Wie wird eigentlich die Wahrscheinlichkeit eingeschätzt, dass AMD evtl. mal wieder für Apple einen Job macht?
Z.B. Macbook Air Jahresmitte (Jaguar Quad-OctaCore APU)?
Bei 0. Die Dinger haben aktuell DualCore i7s mit SMT und Turbo bis > 3 GHz. Da die wenigsten Anwendungen stark von Multithread profitieren, wird der mobile i7 den Jaguar zersägen. Auch die IGPs sind mittlerweile so gut, dass zumindest die Jaguar PC Produkte ohne Mühe weggewischt werden.
Die Bulldozerprodukte sind entweder zu stromschluckend oder zu langsam (bei niedrigen TDPs).

2phil4u
2013-03-20, 17:00:57
Könnt ihr euch vorstellen, dass es bald eine APU geben wird, die wie eine Grafikkarte gekühlt wird und auf der CPU, GPU und GDDR6 verbaut sind.
Wäre doch eine prima Idee für AMD, einen 16Kerner mit Verbesserungen und eine GPU mit der Leistung von etwa 3 jetzigen High End Karten hergestellt in 14 nm.
Das Ding könnte ja dann 300 Watt verbrauchen, weil es sich so gut kühlen lässt und das ganze könnte man in einem System auf den Markt bringen, man müsste also weder MAinboard, noch Speicher kaufen, alles wäre in einger grossen Karte vereinigt.

Und die Speicherbandbreite halt sehr hoch mit riesien Caches in der Größenordnung von 500 MB.

Und im 2D-Betrieb könnten die Kerne höhertakten oder sogar durch intelligente Compiler Brechnungen von der GPU ausführen lassen.

Speicher so 16 GB.


Warum keine 16 Kerne in 14nm, wenn es jetzt schon 8 in 32 nm gibt.
Die Chipfläche wäre nicht einmal halb so gross.

Exxtreme
2013-03-20, 17:02:53
Könnt ihr euch vorstellen, dass es bald eine APU geben wird, die wie eine Grafikkarte gekühlt wird und auf der CPU, GPU und GDDR6 verbaut sind.
Wäre doch eine prima Idee für AMD, einen 16Kerner mit Verbesserungen und eine GPU mit der Leistung von etwa 3 jetzigen High End Karten hergestellt in 14 nm.
Das Ding könnte ja dann 300 Watt verbrauchen, weil es sich so gut kühlen lässt und das ganze könnte man in einem System auf den Markt bringen, man müsste also weder MAinboard, noch Speicher kaufen, alles wäre in einger grossen Karte vereinigt.
16-Kerner ist zwar unwahrscheinlich, ausser für Server. Nur kann ich mir gut vorstellen, dass es früher oder später sowas geben wird. Die geringen Latenzen zum RAM wären nämlich schon mal ein Boost.

gnahr
2013-03-20, 17:35:23
Könnt ihr euch vorstellen
nein, weil es totaler quatsch ist.
diese miniaturisierung geht mit einem verlust der kühlfläche einher. man hat ein unflexibleres produkt dass bei einer gleichen thermischen verlustleistung mit wesentlich weniger oberfläche auskommen muss und wenn man sich mal die boxed kühler anguckt auch qualitativ keine bessere lösung zu bieten hat. was ist das ende der geschichte? gleicher verlust, gleich mieser kühler-> lautere kühllösung.
zudem sieht der atx-standard alles andere als ideale bedingungen vor um 300watt auf höhe der cpu abzuführen. selbst grafikkarten mit direkt heat exhaust stoßen an ihre grenzen und dann willst du so ne menge quer durchs case bröseln... viel spaß, nichtmal mit aio-wasserkühlern.

die rechnung der strukturgröße ist auch ne milchmädchengeschichte. wie man spätestens von intels planung weiß kann man verschiedene geometrische größen eines transistors als basis für die strukturgröße heranziehen was ihnen optisch bei den 3d-transistoren sehr zugute kommt.

summa sumarum: das geschriebene wirkt mehr dahingeschrieben als es irgend ne gute oder gar neue idee enthält. die story um amd neigt sich dem ende des kapitels zu, das erscheint auch durch deinen beitrag nicht anders, es bleibt eher beim status "das unabwändbare muss endlich geschehen!"

Skysnake
2013-03-20, 17:51:04
Ja, seine "Zahlen" sind quatsch, aber die Idee dahinter ist absolut richtig. SOCs also SystemOnChip gehört die Zukunft, wobei man hier eigentlich schon von COCs reden kann ClusterOnChip.

Dass der ATX-Standard das nicht her gibt ist richtig, aber diesen gibt es jetzt auch schon sehr sehr lange, un in absehbarer Zeit wird es da auch einen Umbruch geben. "Standards" interessieren bei einem SOC/COC Design auch nicht mehr all zu groß, da man eh nur noch komplette Systeme verkauft. Das finden die OEM-Hersteller btw auch nicht schlecht. Die verdienen dann nämlich auch wieder was, wobei sich die ganzen Hardwarehersteller inzwischen selbst zu OEMs entwickeln... Man wird sehen müssen, wer am Ende am Markt überlebt.

Ohne weitere Integration kommen wir aber nicht mehr arg viel weiter. Nach PCI-E 4.0 ist mit elektrischen Interfaces für STeckkarten schluss. Du kannst die Signale einfach nicht mehr weit genug treiben bei den benötigten Frequenzen. usw usw usw.

Zudem ist der Markt heutzutage "reif" für propritäre PCs. Bei der Konkurrenz zum PC störts auch keine Sau mehr.

Und bei den Servern sind die Nachteile die man sich durch die Modularität erkaufen wird schlicht nicht tragbar. Es ist ja schon heute so, das Firmen wie Google und Facebook ihre eigenen Server designen, einfach weil es sich für Sie rechnet.

gnahr
2013-03-20, 18:32:39
das "proporitär ist cool" muss ich mir mal aufschreiben wenn opencl in deiner gegenwart nochmal zur debatte steht... von wegen "grundlegende moralwerte die überlegen sind" und bessere bauchgefühle bei herstellern. ;)

atx dient aus in absehbarer zeit? hast du auch was getrunken oder alte zeitungen gelesen? die leute fanden auch btx cool bis es auf einmal niemand breit supportet hat.
dass du so gern über das problem des zu langen signalwegs fabulierst... ist doch wurst. die skalierung ist am oberen ende der möglichen durchsatzmengen sowiso ein witz dass man pci-express 3.0 als blanken luxus ansehen kann und du appologierst schon den rein theoretischen nachfolger davon. weißt du wie die evolution von agp zu ende ging? durch nen systematisch anderen nachfolger. :P pata... zack und weg, geboren war sata. passive kühler stießen an ihre grenzen... zack, der aktive kühler wart geboren. immer dieses platte denken "das geht so nicht mehr weiter, das ende ist nah!!!", mit leuten mit solchen einstellungen kann ich nicht meine zukunft fruchtbar bestreiten. :mad:

dass der pc von devices abgelößt wird steht zur debatte. win8 ist nicht die lösung, aber google glases und project shield zum bsp. öffnen unter anderem das tor um mal wieder drüber nachzudenken seine elektronischen geräte stur davorsitzend per desktop und shortcuts zu bedienen. amds apus sind aber ausdrücklich nicht teil der lösung. sie haben kein wirkliches alleinstellungsmerkmal gegenüber der bandbreite an aufkommenden anderen soc-lösungen sondern lassen sich mit x86 stumpf weiter fahren wie die aktuelle pc-desktop-entwicklung. gleichzeitig machen sie wie aufgezeigt unter anderem aufgrund der thermischen geschichte überaus ein kurzfristiges umdenken zwingend notwendig was schon zu oft zu schlechten kompromissen führte, die dann in stein gemeißelt allen am bein kleben. "ihnen gehört die zukunft weil sie optimierten code n-fach besser ausführen können." optimierten code my ass, das hat auch seltener funktioniert als wir alle pferde vor der apotheke würgen sehen haben.
gegen socs oder die von dir ins spiel gebrachten cocks sagt sicher niemand was, aber nur solang wie sie rein als devices benutzt werden. google mit den glases, meinetwegen apple und samsung mit den tablets, phones und hybriden, nvidia mit shield und sogar microsoft irgendwie mit win8 erlauben eine spielerische herangehensweise mit dem problem. keiner der ansätze lässt sich so hirnlos brutal hochskalieren wie die apus mit dem anspruch dann unter bedingung x und y (optimierter code, spezifisch angepasste kühlung, proporität innerhalb der konfiguration,...), sondern zwingen und ermöglichen den leuten sich mal spielerisch mit der lösung der frage "wie sieht unser morgen aus?".

niemand braucht "audio processing units", sie kosten uns alle wertvolle ressourcen und neben der meißelung unserer eigentlichen probleme in stein blockieren sie sogar noch die alternativen. hau, meine wahnvorstellungen vor einer verstellten zukunft durch solche fatalen fehlentscheidungen fangen an sich zu materialisieren.
schonmal was von der "industrie(ellen revolution) 4.0" gehört? dem empowering of your products? egal wo man dazu liest, aktuell äußern sich dazu nur alte säcke die ähnlich wie skysnake im bezug auf die etablierung von amds apus halbgare sachen mit viel wunschdenken kombinieren und sich dann für ihre restlichen 20jahre lebenszeit nen ponyhof vorstellen. anstatt solche probleme mal ergebnisoffen von nahezu punkt null neu anzugehen und die ganzen möglichkeiten symbiotisch neu zu kombinieren. immer wird nach dem nähsten strohalm gegriffen um ja was einfach realisierbares zu haben und schnell absahnen zu können. pfui.

fondness
2013-03-20, 18:53:17
Sales of PlayStation 4, Xbox Next to Hit Around 5 Million in Total in 2013. (http://www.xbitlabs.com/news/multimedia/display/20130319235900_Sales_of_PlayStation_4_Xbox_Next_to_Hit_Around_5_Million_in_Total _in_2013.html)

“Our base assumption (in line with our Japan colleagues) is 2.5 million PlayStation 4 units and 2.3 million Xbox Next “Durango” units [are to be] shipped in Q4 2013,” said Shawn Webster, a analyst with Macquarie Equities Research, in a note to clients, reports Tech Trader Daily blog.

The analysts estimate that AMD will charge on average $60 per system-on-chip for PS4 and Xbox “Durango”, which will bring the company at least $288 million in revenue this year. Previously AMD only received royalties from game console platform owners for using chips with their technologies; starting from next-generation of consoles, AMD will sell chips to its partners. The improved earnings from console business will be shown as a major victory of AMD’s current management.

“We estimate that average selling prices for the company‘s game console business are roughly $60 due to its premium specifications. As a result, we are adding roughly $96 million of Sony/Xbox console chip revenue for AMD in Q3 2013 and $228 million in Q4 2013, and raising our CY13 and CY14 revenue estimates,” said Mr. Webster.

/Edit: Ups, soltle eigentlich in den AMD-Untergang-Thread. Vielleicht kann es ja ein Mod verschieben.

ndrs
2013-03-20, 19:25:31
das "proporitär ist cool" muss ich mir mal aufschreiben wenn opencl in deiner gegenwart nochmal zur debatte steht... von wegen "grundlegende moralwerte die überlegen sind" und bessere bauchgefühle bei herstellern. ;)
Du solltest hier etwas differenzieren. Was Skysnake hier angesprochen hat, ist der Fakt, dass die Consumer mehr und mehr bereit sind, sich fertige geschlossene Systeme andrehen zu lassen. Die Modularität, die den PC auszeichnet ist einfach nicht mehr gefragt.
Das hat aber mit einer Programmierbarkeit über offene Schnittstellen wenig zu tun. Das betrifft eher Entwickler. Und die sollten eigentlich schon aus Eigeninteresse darauf achten, dass ihre Software auf möglichst vielen verschiedenen (aber für den gleichen Standard (hier OpenCL) ausgelegten) Systemen läuft.

atx dient aus in absehbarer zeit? hast du auch was getrunken oder alte zeitungen gelesen? die leute fanden auch btx cool bis es auf einmal niemand breit supportet hat.
Siehe oben. Modularität braucht keiner mehr.

weißt du wie die evolution von agp zu ende ging? durch nen systematisch anderen nachfolger. pata... zack und weg, geboren war sata. passive kühler stießen an ihre grenzen... zack, der aktive kühler wart geboren.
Das waren alles logische Entwicklungen. Die Schnittstellenproblematik kommt aber langsam an tatsächliche physikalische Grenzen. Wenn Leitungslängen einen signifikante Größe im Vergleich zur Wellenlänge annehmen, wirds halt extrem kritisch. Das einzige, was ich mir als nennenswerte Steigerung in Zukunft noch vorstellen kann sind eingebettete LWL, aber die Steckbar zu gestalten ist auch nicht ohne.
Die Probleme lassen sich nunmal nur durch Integration lösen. Damit solltest du dich abfinden.

...

Der Rest ist mir zu pseudophilosophisch geschrieben. Das ist mir zu anstrengend, rauszufinden, was du damit sagen willst. Da sag ich nix zu ;)

StefanV
2013-03-20, 20:00:46
atx dient aus in absehbarer zeit? hast du auch was getrunken oder alte zeitungen gelesen? die leute fanden auch btx cool bis es auf einmal niemand breit supportet hat.
ATX ist von 1997, oder so. Wird echt mal Zeit, dass irgendwer mal um die Ecke kommt und diesen völlig überalterten Müll mal entsorgt und auf moderne Erfordernisse anpasst...

Und auch, wenn man sich mal anschaut, was in letzter Zeit passiert, ist auch davon auszugehen, dass man Slots nur noch für Grafikkarten braucht. Den Rest kann man in mini PCIe Slots tun. Nur ist eben genau DAS nicht bei ATX vorgesehen. Oder eben Steckkarten, die 300W oder so verbraten. Und das ist so langsam echt ein Problem...

y33H@
2013-03-20, 20:03:41
300W lassen sich mit Triple-Slot easy kühlen.

ndrs
2013-03-20, 20:05:27
ATX ist von 1997, oder so. Wird echt mal Zeit, dass irgendwer mal um die Ecke kommt und diesen völlig überalterten Müll mal entsorgt und auf moderne Erfordernisse anpasst...

Und auch, wenn man sich mal anschaut, was in letzter Zeit passiert, ist auch davon auszugehen, dass man Slots nur noch für Grafikkarten braucht. Den Rest kann man in mini PCIe Slots tun. Nur ist eben genau DAS nicht bei ATX vorgesehen. Oder eben Steckkarten, die 300W oder so verbraten. Und das ist so langsam echt ein Problem...
Da gabs doch mal eine Diskussion, wo wir über die Gestaltung eines ATX-Nachfolgers philosophiert haben ... Aber ich glaub der war damals der Integrationszeit zum Opfer gefallen ^^
300W lassen sich mit Triple-Slot easy kühlen.
Nur führt das das ATX-Konzept ad absurdum, wenn für eine Karte die anderen Steckplätze blockiert werden. Aber ich glaub das wird hier zu OT.

StefanV
2013-03-20, 20:09:34
300W lassen sich mit Triple-Slot easy kühlen.
Joa, durchaus, nur hast maximal 7 Slots bei ATX. Sprich max. 2 Karten kannst rein tun...

Also auch wieder unpraktisch...

gnahr
2013-03-20, 20:09:35
300W lassen sich mit Triple-Slot easy kühlen.
asus mars? nein.
asus ares? nein.
hd7990? nein.

gib mal ein bsp., ein ekl alpenföhn peter drauf und 120mm silent wings blue?
trippleslot verstößt aber genauso wie 300watt gegen die specs. ;D
und (ohne es im gedächtnis zu haben) ne 300watt apu mit sicherheit auch.

y33H@
2013-03-20, 20:20:37
Joa, durchaus, nur hast maximal 7 Slots bei ATX. Sprich max. 2 Karten kannst rein tun.idR kommt eine Grafikkarte zum Einsatz, zwei sind schone extreme Minderheit.

asus mars? nein. asus ares? nein. hd7990? nein.Alles crap - eine Asus GTX 580 OC etwa.

trippleslot verstößt aber genauso wie 300watt gegen die specs.Ja, weil nur 6P+8P iirc derzeit gespect sind.

Gipsel
2013-03-20, 20:45:44
Da gabs doch mal eine Diskussion, wo wir über die Gestaltung eines ATX-Nachfolgers philosophiert haben ... Aber ich glaub der war damals der Integrationszeit zum Opfer gefallen ^^
Den gibt es immer noch hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9129182) (von der erwähnten Integrations-"Diskussion" bereinigt).

Skysnake
2013-03-20, 21:34:43
Gnahr, sorry, aber du verstehst rein gar nichts, und siehst auch nicht die Probleme, vor denen wir in der Zukunft stehen. Die ganzen leichten Schritte sind getan. PCI-E ist schon eine Punkt zu Punkt-Verbindung, und kein klassisches BUS-System mehr...

Du kannst eigentlich nur noch die Frequenzen hochjagen, und genau DAS bricht dir das Genick. Und btw. es gibt noch was anderes als GPUs... Raid-Controller, PCI-E SSDs, Netzwerkkarten usw.

Wenn du wirklich richtig reinknallst, dann könntest du bei allem schon heute PCI-E 3.0 16x komplett ausreizen. Man muss halt nur auch die entsprechenden Kunden dafür haben. Schau dir mal Fusion-IO an. Die sind von PCI-E 2.0 16x limitiert. Die Dinger kosten aber >100k€ und nur wenige Firmen können/wollen sich das leisten. Die Clouddienste und Big-Data schreiten aber immer weiter voran, und die Dinger werden mit der Zeit auch immer günstiger. Also steigt der Bedarf...

Kennst du die Memory-Wall? Wenn nicht, dann schau mal nach der Problematik... Wieder ein Punkt, der einem schon länger langsam aber sicher das Genick bricht. Die großen klassischen Vektorrechner sind z.B. dem bereits zum Opfer gefallen. Eventuell kommen Sie wieder, wenn man die Memory-Wall weit nach hinten geschoben hat. GPUs sind ja in gewisser weise bereits eine moderne Art der Vektorrechner ;)

Der Knackpunkt ist aber folgender. Natürlich sind propritäre Lösungen apriori schlecht. Bei den zukünftigen PC/Server-Designs kannst du dir das aber einfach nicht mehr aussuchen. Das wird alles auf genau angepasste Speziallösungen raus laufen, weil alles andere entweder zu Energiehungrig, oder schlicht nicht funktioniert.

Das Problem reduziert sich wie bei Smartphones, Fernsehern usw aber eh von allein. Die Sachen sind so hochintegriert, dass der "Normalo" eh nichts mehr dran machen kann. Gewisse Probleme erfordern eh Lösungen, die "Modularität" killen. Z.B. Fiber to the Chip, und noch mehr Fiber from Chip in Verbindung mit Fiber on Chip. HMC wird auch schwierig bzgl Steckplätzen. Wenn dann als Far-Memory, wo man dann aber wieder nicht DIE mörder Bandbreiten hat usw.

Und auf der anderen Seite eben das Problem der Kühlung, das du richtig angesprochen hast. Hier hat man wirklich das Problem der Wärmeentwicklung. Heute haben wir ja schon Dark-Chips. Wenn wir die Pin-Limitierung mit Fiber from Chip sehr weit nach hinten verschieben, werden wir massiv mehr Strom in die Chips jagen können. Dann wird das Kühlungsproblem aber richtig richtig groß, und mit Luftkühlung nicht mehr zu handhaben. Also wird die (kompakt) Wasserkühlung kommen. Aber selbst die wird nicht ausreichen auf Dauer, weil man eben so viel Strom reinjagen kann, und die Integrationsdichte weiter steigen wird müssen. Also wird man zu so Sachen wie IBMs Direktwasserkühlung umschwenken, wo man DURCH! den Chip geht mit dem Kühlmedium. Spätestens da ist dann die Kühlung wieder kein Problem, sondern wie ich den Chip überhaupt mit genug Energie versorge... Cool, IBM hat schon im Labor die Lösung. Wir nehmen die Kühlflüssigkeit um den Strom IN den Chip zu bringen ;)

Das alles hat aber zur Folge, dass du da nur noch ne zugeschraubte Kiste hast, an der du genau 0 machen kannst, und wenn Sie kaputt ist, dann ist Sie halt kaputt. Das wird auf GENAU das Gleiche wie bei heutigen TFT Displays hinauslaufen. Das sind einfach EIN Verbund, und wenn was kaputt ist, ist es schlicht unmöglich etwas zu reparieren. Die Alternative wäre aber schlicht Stillstand, und das kann sich keiner Leisten. Also wird man den Weg gehen, ob man will (ich fände es anders auch besser, aber die finalen physikalischen Grenzen kann man halt nicht austricksen) oder nicht spielt dabei absolut keine Rolle...

gnahr
2013-03-20, 21:52:44
kühlung per laserbestrahlung, asymetrisch schwingungs-leitende ketten,... nein, da läuft die forschung nicht, wir bleiben bei indirekten kühlmedien dir wir immer näher an die immer kleineren strukturen bringen.
optische leiter wurden erwähnt, dazu passen auch optische schaltungen wenn die quantenverschränkung noch ewig lange auf sich warten lässt. noch so ein schöner ansatz der ohne elektronen-leitung mit all seinen nachteilen auskommt. egal.

all das sind generelle sachen. wie gesagt sind die apus dabei definitv kein schritt in richtung der lösung, sondern nur teil des problems und es wurde noch nix besseres announced.
komm mir nochmal mit den strukturellen problemen von transistoren wie auch in ram-bausteinen. das sind probleme wie man sie bei der planung immer neuer vakuum-röhren-rechnersystemen hatte kurz vor der erfindung des transistors.

Skysnake
2013-03-20, 22:21:05
Du raffst es wirklich nicht.... Wenn du Vakuumröhren mit 18nm Transistoren vergleichst, dann tuts mir leid, dann kann man dir wirklich nicht mehr helfen...

Und bzgl Quantencomputing. Hast du mal darüber nachgedacht, was es erfordert einen Quantenzustand zu preparieren? Oder hast du überhaupt nur den winzigsten Schimmer, was man dafür alles braucht? Ich glaube nicht, sonst würdest du nie im Leben darauf kommen, dass so was in den nächsten Jahrzehnten in einem Privathaushalt zu finden sein wird.

Quantencomputing ist für Mainframes/Cloudcomputing geeignet, aber nicht für den Privatmann...

gnahr
2013-03-20, 22:50:09
das sky im namen steht also für heiße luft, soso. :) mal etwas freundlicher, bitte, fräulein.
an dem populärwissenschaftlichen punkt muss er sich natürlich aufhängen und röhren gegen den aktuellen litho-schritt halten, aber die 3 anderen relevanten topics kamen nicht vor. homogenisierte strahlung zur gezielten schwingungsanregung, ketten die einwegleitend sind und vor allem photonen als datenträger.

direct-touch-wasserkühlungen sind genauso käse wie heatpipes zu vacco-chämber oder wenn die dänen wieder mit ihrem flüssigsalz ankommen. der unsinn soll jeweils ein symptom kurieren und greift nicht am problem an. leute die sich aufplustern und dann sowas als basis ihrer argumentation einbasteln sind unhaltbar für eine fortführende disskusion die sich eben nicht im kreis dreht. wenn die effiziens nicht weiter steigt dreht man eben nicht die kühlung auf 110%, sondern macht sich andere gedanken. strukturen breiter auslegen oder ein morphing vollziehen. einer dieser schönen wunschgedanken ist ... *trommelwirbel* ... das auslagern von arbeit auf mainframes und clouds. bsp. wurden genannt, anwendungsgebite sind elementares element der besprochenen probleme, amd, bezugspunkt dieses themas trägt zu dem ganzen themenfeld nix bei. (lol, da plopt die ciinow-news schon wieder hoch. da ward der zug bei allen anderen schon abgefahren.)

Gipsel
2013-03-20, 23:59:56
@gnahr:
Ich bin mir gerade unschlüssig, ob Du gerade Schlagwort-Bingo spielst und/oder trollst oder Dich nur unverständlich ausdrückst.

Was Du z.B. mit der Laserkühlung willst, erschließt sich mir überhaupt nicht. Sicherlich funktioniert die, aber irgendwo im µK bis nK Temperaturbereich an einzelnen Atomen in einer Falle. Da wäre es erheblich praxisnäher, Chips zur Kühlung in suprafluidem Helium bei 1.8K zu versenken (bester bekannter Wärmeleiter). Das funktioniert wenigstens mit makroskopischen Objekten (so kühlt man ganze Beschleuniger bzw. die Magnete am LHC).
Kurz, was Du da erwähnst ist größtenteils eher Science Fiction oder Utopie. Einzig, daß man Licht zur Anbindung von Chips untereinander benutzen könnte, ist halbwegs greifbar.

OgrEGT
2013-03-21, 06:09:01
@gnahr:
Ich bin mir gerade unschlüssig, ob Du gerade Schlagwort-Bingo spielst und/oder trollst oder Dich nur unverständlich ausdrückst.

Was Du z.B. mit der Laserkühlung willst, erschließt sich mir überhaupt nicht. Sicherlich funktioniert die, aber irgendwo im µK bis nK Temperaturbereich an einzelnen Atomen in einer Falle. Da wäre es erheblich praxisnäher, Chips zur Kühlung in suprafluidem Helium bei 1.8K zu versenken (bester bekannter Wärmeleiter). Das funktioniert wenigstens mit makroskopischen Objekten (so kühlt man ganze Beschleuniger bzw. die Magnete am LHC).
Kurz, was Du da erwähnst ist größtenteils eher Science Fiction oder Utopie. Einzig, daß man Licht zur Anbindung von Chips untereinander benutzen könnte, ist halbwegs greifbar.

Das Thema Supraleitung könnte ich mir auch noch am ehesten vorstellen. Dann kann man aber gleich daran denken die Systeme komplett mit liquid He zu kühlen welches aber zusätzlich noch mit liquid N2 zu isolieren ware... Von der technischen Umsetzung mal abgesehen wäre der Energiebedarf diese Medien herzustellen wahnsinnig hoch dass sich sowas on der Tat nur für 24/7 voll ausgelastete Zentralrechner lohnen würde...

Wenn ich an unser NMR System von damals zurück denke da mussten jede Woche auf ca 50 l N2 und jeden Monat auf ca 50 l He nachgekippt werden...
Keine Ahnung wie hoch der Verbrauch bei einem Großrechner wäre...

Skysnake
2013-03-21, 09:29:11
Und das verdampfende Helium musst du auffangen, und du musst aufpassen, was du machst. Stell dir mal vor, jemand kippt flüssiges Helium in einen nicht mit LN2 vorgekühlen Behälter.... Da besteht explosionsgefahr, weil zu viel He schlagartig verdampft...

2phil4u
2013-03-21, 11:24:43
Ich kann mir gut vorstellen, dass Computer in 10 Jahren teilweise so empfindlich gegen Schmutz sind bzw ihr Kühlsystem es erfodert, dass sie in luftdichte Gehäuse verpackt werden, u.U. braucht man sogar ein Vakuum.

Unlimited
2013-03-21, 13:10:25
Ich kann mir gut vorstellen, dass Computer in 10 Jahren teilweise so empfindlich gegen Schmutz sind bzw ihr Kühlsystem es erfodert, dass sie in luftdichte Gehäuse verpackt werden, u.U. braucht man sogar ein Vakuum.
WTF!?
Meinst du das ernst?

Ich habe gerade eher das Gefühl, die Computertechnik wird derzeit immer robuster, sei es gg. Temperaturschwankungen, Kühlungsausfall, G-Kräfte, etc.

Gipsel
2013-03-21, 13:20:20
Hey, die Geschichte mit dem Helium war nur aufgeführt, um zu sagen, wie abseitig das ist. Denn Flüssighelium-Kühlung wird sicher auch nicht kommen, das ist viel zu teuer, groß und empfindlich.

@Skysnake:
Explosionsgefahr besteht da nicht wirklich, es verdampft nur recht intensiv (ist nicht anders, als wenn man Stickstoff in ein anfangs warmes Gefäß füllt). Eine Art Explosion bekommst Du hin, wenn Du eine tiefkalte Flüssigkeit (wie He oder N2) in ein geschlossenes Gefäß ohne Überdruckventile packst (oder Du die schließt bzw. die vereisen, weil Du Luft ins Gefäß hast kommen lassen) und dann warm machst. Da kann man einen gehörigen Druck aufbauen, so daß es dann irgendwann das Gefäß (im Zweifelsfall ein 100l oder 250l fassenden Dewar) zerreißt. Da will ich dann auch nicht daneben stehen. :freak:
PS: Ich arbeite übrigens öfter mal mit flüssigem Stickstoff oder Helium oder auch mal flüssigem bzw. festem Wasserstoff (das ist sicherheitstechnisch 'ne andere Nummer).

Jetzt aber genug OT!

gnahr
2013-03-21, 13:25:46
Denn Flüssighelium-Kühlung wird sicher auch nicht kommen, das ist viel zu teuer, groß und empfindlich.
falsch, die praktische realisierung über die lausigen isolationsmöglichkeiten die wirtschaftlich angewand werden können, machen so ne sache groß, empfindlich und damit teuer. nicht ursache und wirkung verwechseln.
wenn wir den kreislauf erstmal geschloßen haben und die isolierung ausklammern... kostet der betrieb genau so viel wie mit anderen mediatoren.
(btw.: warum ist He2 besser als liquides Nitrogen? weils kleiner ist. was ist mit Wasserstoff? :P das ist ein schlechter witz. ;))

und editier bitte kein "Genug OT rein", das ist fies.

Gipsel
2013-03-21, 13:39:53
falsch, die praktische realisierung über die lausigen isolationsmöglichkeiten die wirtschaftlich angewand werden können, machen so ne sache groß, empfindlich und damit teuer. nicht ursache und wirkung verwechseln.
wenn wir den kreislauf erstmal geschloßen haben und die isolierung ausklammern... kostet der betrieb genau so viel wie mit anderen mediatoren.
(btw.: warum ist He2 besser als liquides Nitrogen? weils kleiner ist. was ist mit Wasserstoff? :P das ist ein schlechter witz. ;))Ich tendiere langsam immer mehr zum Troll. :rolleyes:
Aber gut, gehe ich nochmal kurz drauf ein:

Welchen Kreislauf willst Du schließen und wie willst Du die Isolierung ausklammern, insbesondere wenn es Dir darum geht, wie groß und aufwändig es am Ende in der Praxis sein wird?
He2 gibt es nicht, zumindest nicht in der Flüssigkeit. :tongue:
Und mit der "Größe" hat das nur sehr mittelbar zu tun (Wasserstoff ist noch kleiner). Es hat viel damit zu tun, daß 4He-Atome Bosonen sind und die Flüssigkeit bei relativ einfach erreichbaren Temperaturen (<2,17K) suprafluid wird. Ich habe ja nicht umsonst erwähnt, daß suprafluides Helium der beste bekannte Wärmeleiter ist (einige Größenordnungen besser als Kohlenstoff-Nanoröhrchen oder Diamant, ganz zu schweigen von Kupfer oder Silber). So eine grobe Richtgröße sind einige hunderttausend W/(m*K) statt nur ein paar hundert (variiert mit den genauen Bedingungen und ist etwas schwierig genau festzupinnen, weil die Wärmeleitung auf einem vollkommen anderen Mechanismus als bei üblichen Stoffen basiert [Wärmenergie wird als Welle abtransportiert]).
und editier bitte kein "Genug OT rein", das ist fies.Das Edit war das PS, nicht die "genug OT" Bemerkung. ;)

Skysnake
2013-03-21, 13:44:06
Gipsel dann solltest du aber wissen, das Helium nur 1/10 der Verdampfungswärme von Stickstoff hat, und die Volumenänderung flüssig->Gasförmig bei Stickstoff bei 1:~645 und bei Helium 1:~748 liegt. Und Helium hat den noch deutlich niedrigeren Siedepunkt, es steht also auch noch mehr Energie zum Verdampfen zur Verfügung :ugly:

Klar, wenn das Ding ganz offen ist, dann macht das nicht viel aus, man muss nur schauen, das man noch Luft zum atmen hat ;D

Wenn man aber ein LEitungssystem hat, und somit nur "kleine" Querschnitte, dann kanns dir die Sachen zerreisen.

Ich hab mal so nen ~50-100l Devar, der mit flüssigen Stickstoff vorgekühlt war GANZ langsam mit Helium gefüllt, und das Ding hat gut gerumpelt. Da willste dir wirklich nicht ausmalen, das da passiert, wenn man das in nen ungekühlten Behälter schnell rein laufen lässt :(

Deswegen sind solche Sachen auch nicht für den Privatmann zu handhaben. Das ist VIEL!!!! zu gefährlich. Die würden sich reihenweise killen mit sowas...

PS:
Mit hat die Colaflasche aus Glas gereicht, die einer verschlossen ins Feuer geworfen hat... Und nen paar Spaßvögel an der Uni, die mal flüssigen Stickstoff in ne Thermoskanne gepackt haben, und zu gemacht haben, wurden fast von der Uni geschmissen...

Gipsel
2013-03-21, 13:50:56
Deswegen sind solche Sachen auch nicht für den Privatmann zu handhaben. Das ist VIEL!!!! zu gefährlich. Die würden sich reihenweise killen mit sowas...
[..]
Und nen paar Spaßvögel an der Uni, die mal flüssigen Stickstoff in ne Thermoskanne gepackt haben, und zu gemacht haben, wurden fast von der Uni geschmissen...
Ach komm', an der Uni haben wir im Sommer immer Eis mit flüssig Stickstoff gemacht (da standen die 100l Kannen halt immer rum und es ist relativ billig), die Profs haben mitgegessen. ;D

gnahr
2013-03-21, 13:52:09
Welchen Kreislauf willst Du schließen und wie willst Du die Isolierung ausklammern, insbesondere wenn es Dir darum geht, wie groß und aufwändig es am Ende in der Praxis sein wird?
wie gesagt, in dem man mittels gedankenkraft die gedankenexperimente die vor über 10jahren zu papier gebracht wurden sich materialisieren lässt. wenn ich jetzt mein supermolekül habe, dass schwingungen in eine richtung massiv dämpft und in die andere normal leitet... wie teuer ist dann wohl eine isolierung daraus zu betreiben?
http://prl.aps.org/abstract/PRL/v88/i9/e094302
welchen kreislauf wohl... wir wollen doch nicht nur die kapazität plus enthalpie rausballern zum kühlen sondern es als moderator fließen lassen und natürlich zurückgewinnen und nicht erst wieder luftzerlegung von null aus betreiben.

ich hab es grad nicht auf dem schirm, wo findet man die beste übersicht zur lastverteilung (und damit dem energiehunger) der einzelnen parts der apu-socs von denen wir mal vor n posts ausgegangen sind? ich würds gern mit etwas taschenspieler-mathematik unterlegen warum der zauberwekstoff ein segen wäre (auch für den perpetuum mobile-sterling-motor...) und trotzdem deren praxisproblem nicht lösen kann.

Gipsel
2013-03-21, 14:18:23
wie gesagt, in dem man mittels gedankenkraft die gedankenexperimente die vor über 10jahren zu papier gebracht wurden sich materialisieren lässt.Und wenn Du es Dir ganz fest wünschst, dann werden Träume war. Alles klar!
wenn ich jetzt mein supermolekül habe, dass schwingungen in eine richtung massiv dämpft und in die andere normal leitet... wie teuer ist dann wohl eine isolierung daraus zu betreiben?
http://prl.aps.org/abstract/PRL/v88/i9/e094302Und was hilft es Dir, wenn sich da ein paar Leute vor 10 Jahren was aus den Fingern gesaugt haben? Und wie soll es helfen, eine Kette von Molekülen (oder meinetwegen auch irgendein Material) von gut wärmeleitend auf schlecht wärmeleitend umschalten zu können? Die Wärmeleitung ist vermutlich immer noch höher als die Null Wärmeleitung der üblichen Vakuumisolierung (da kämpft man gegen Wärmestrahlung) oder auch von anderen wärmeisolierenden Materialien.
welchen kreislauf wohl... wir wollen doch nicht nur die kapazität plus enthalpie rausballern zum kühlen sondern es als moderator fließen lassen und natürlich zurückgewinnen und nicht erst wieder luftzerlegung von null aus betreiben.Als wenn klassische Kühlsysteme (z.B. die erwähnten supraleitenden Beschleuniger, die Magnete am LHC oder auch die sogenannten "closed cycle cryostats" mit den etwa 0,25m³ großen Kisten [da ist ein Kompressor drin], die man für ~30000€ kaufen kann und etwa 1-2W Kühlleistung bei 4 K oder ~80W bei 77K zur Verfügung stellen [und dabei ~4kW Strom ziehen]) nicht auch im geschlossenen Kreislauf betrieben werden, übrigens genau wie Dein Kühlschrank zu Hause oder auch eine simple Wasserkühlung. :rolleyes:
Und der Wirkungsgrad von diesen makroskopischen Wärmekraftmaschinen ist bisher immer noch erheblich besser als jeglicher miniaturisierter Varianten. ;)
ich würds gern mit etwas taschenspieler-mathematik unterlegen warum der zauberwekstoff ein segen wäre (auch für den perpetuum mobile-sterling-motor...) und trotzdem deren praxisproblem nicht lösen kann.Ich würde Dir ernsthaft raten, mit dem Trollen aufzuhören oder das zumindest in eins der OT-Foren zu verlagern. :wink:

gnahr
2013-03-21, 14:30:16
Und wenn Du es Dir ganz fest wünschst, dann werden Träume war. Alles klar!
in der tat, du scheinst blumige formulierungen ein bisschen zu bunt zu sehen. die sind schmuck und keine einladung für fremden spot. was passiert dann beim spotten? man wird von der realität überholt.
http://www.technologyreview.com/view/415672/heat-diode-paves-the-way-for-thermal-computing/

wärmestrahlung bei ner vakuumisolierung versus wärmestrahlung in meiner aktiven zauberlegierung... wir lassen es wirklich lieber. vielen dank, das ist ein lose-lose. :mad:

Gipsel
2013-03-21, 14:38:19
in der tat, du scheinst blumige formulierungen ein bisschen zu bunt zu sehen. die sind schmuck und keine einladung für fremden spot. was passiert dann beim spotten? man wird von der realität überholt.
http://www.technologyreview.com/view/415672/heat-diode-paves-the-way-for-thermal-computing/Daß der Effekt prinzipiell funktioniert, steht ja außer Frage (ich habe durchaus mal in ein paar der Paper geschaut, die den von Dir oben verlinkte PRL-Artikel zitieren), meine Frage war: Was bringt es Dir praktisch, Wärmeleitungfähigkeit eines Materials ändern zu können oder auch bevorzugt in eine Richtung zu haben? Damit kannst Du eine miniaturisierte, zyklisch arbeitende Wärmekraftmaschine ohne bewegliche Teile bauen, allerdings eine mit ziemlich miesem Wirkungsgrad. :rolleyes:

Und bezüglich der Ausdrucksweise, vielleicht solltest Du Dich bemühen, eine klarere zu finden. Dann wird eher klar, ob etwas Substanz hat oder auch nicht. ;)

Unlimited
2013-03-29, 14:05:23
Ach komm', an der Uni haben wir im Sommer immer Eis mit flüssig Stickstoff gemacht (da standen die 100l Kannen halt immer rum und es ist relativ billig), die Profs haben mitgegessen. ;D

Hachja, manchmal vermisst man die Uni schon!
Aber du wirst zugegen, dass eine 100l-Kanne dennoch nun wirklich nichts für den privaten Gebrauch ist.
:rolleyes:

john carmack
2013-04-19, 09:05:59
Computing Solutions gar mit 38 Prozent Umsatzrückgang
AMDs Umsatz bricht um 31 Prozent ein

http://www.computerbase.de/news/2013-04/amds-umsatz-bricht-um-31-prozent-ein/

john carmack
2013-04-19, 10:19:50
Quartalszahlen
AMD will bei Konsolen stark wachsen

http://www.golem.de/news/quartalszahlen-amd-will-bei-konsolen-stark-wachsen-1304-98823.html

HOT
2013-04-19, 10:39:03
Kann man eigentlich froh sein, dass es noch so glimpflich ablief. Die Produktpalette kommt ja im Sommer erst in fahrt. Wenn AMD nächstes Jahr um diese Zeit immer noch große Verluste schreibt, dann ist es wirklich kritisch ;).

Skysnake
2013-04-19, 11:40:46
Die GPU-Sparte ist aber extrem enttäuschend. Da hatte man nach den großen Tönen mehr erwartet....

S940
2013-04-19, 11:53:03
Die GPU-Sparte ist aber extrem enttäuschend. Da hatte man nach den großen Tönen mehr erwartet....
Wieso? Mehr Umsatz im Q1 als im Weihnachts-Q4. Gabs das schon jemals vorher?
Allerdings muss man natürlich anmerken, dass da ne Nintendozahlung mit dabei war, die es so sicherlich nicht jedes Quartal geben wird ^^
Dafür, dass keine neue HD8000-Reihe rauskam und die 7000er-Serie nachwievor die Stellung halten muss, eigentlich nicht schlecht.

P.S: Diskussion auch hier:
AMD steht doch besser da als man denkt? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524312)

Nachdem die Quartalszahlen keine Spekus sind, passt es dort eigentlich besser.

Höhnangst
2013-04-19, 16:45:31
Die Frage mag Einigen dumm vorkommen, aber was passiert eigentlich mit den neuen Konsolen, wenn AMD tatsächlich etwas zustößt?

Haben Microsoft, Nintendo und Sony einen Backup-Plan?
Oder spielt das für die Konsolenproduktion gar keine Rolle?

robbitop
2013-04-19, 17:10:28
Für sowas gibt es Escrow Agreements. In diesem Falle wird beim Notar das Design hinterleg, der dieses freigibt, sofern eine festgelegte Bedingung auftritt.
Im schlimmsten Falle könnte MS/Sony nicht mehr Shrinken. Selbst mit den Designunterlagen wäre es kein Zuckerschlecken, sich dort einzuarbeiten. Wenn die Leute weg sind, ist das vermutlich alles für die Katz.

S940
2013-04-19, 17:25:58
Selbst mit den Designunterlagen wäre es kein Zuckerschlecken, sich dort einzuarbeiten. Wenn die Leute weg sind, ist das vermutlich alles für die Katz.Na die Leute werden doch nicht exikutiert ^^

Sony könnte in dem Fall doch ein paar Leute rekrutieren. Problem wäre dann wohl nur das fehlende x86-Patent, aber das könnte man sicherlich auch noch lösen, sie wollen ja Intel keine Konkurrenz im x86-Markt machen.

Vermutlich würde Intel bei nem AMD-Exitus sogar von der Kartellbehörde dazu verdonnert, Lizenzen zu vergeben.

Mancko
2013-04-21, 00:07:29
Quartalszahlen
AMD will bei Konsolen stark wachsen

http://www.golem.de/news/quartalszahlen-amd-will-bei-konsolen-stark-wachsen-1304-98823.html

Und vermutlich auch weiter nichts verdienen. Das Geschäft taugt allenfalls noch als Umsatzbringer mehr nicht. die 3 großen Player sind einfach zu mächtig und abgezockt und diktieren die Konditionen.

S940
2013-04-21, 01:54:26
Und vermutlich auch weiter nichts verdienen. Das Geschäft taugt allenfalls noch als Umsatzbringer mehr nicht. die 3 großen Player sind einfach zu mächtig und abgezockt und diktieren die Konditionen.
Abzocken geht nur bei (zu)viel Angebot und wenig Nachfrage, z.B. bei den Milchpreisen.

Konsolen SoCs mit guter CPU & topp GPU gibts meines Wissens dagegen nicht an jedem 3. Bauernhof.

LadyWhirlwind
2013-04-21, 02:12:04
Und vermutlich auch weiter nichts verdienen. Das Geschäft taugt allenfalls noch als Umsatzbringer mehr nicht. die 3 großen Player sind einfach zu mächtig und abgezockt und diktieren die Konditionen.

Nope, können sie nicht, nicht wenn sie eine APU wollen, da zur Zeit nur AMD in der Lage ist sowas zu liefern. Das wurde afaik im Konsolenspekulationsthread lange und breit diskutiert.... Alternative wäre gewesen: Intel oder IBM Power PC für die CPU. Nvidia für die GPU, keiner der gennanten hätte seine IP für lau für die Konsolen hergegeben.

Auch wenn AMD nur ein paar Dollar für die Lizenzierung der IP pro Gerät einnimmt, sind das doch einnahnen für Aufwendungen die grösstenteils in der Vergangenheit getätigt wurden. Die APU's wären von AMD ja eh entwickelt worden, die Kosten wird AMD wahrscheinlich grösstenteils den entsprechenden Abteilungen belastet haben. Die laufende Rechnung wird das Konsolengeschäft im Jahr 2014 durchaus entlasten. Bei guten Geschäftsgang könnte das Konsolengeschäft sogar dafür sorgen das imQ1/2014 ein kleiner Gewinn anfällt (abhängig davon wann AMD Geld von Sony und MS kriegt).

Hübie
2013-04-21, 09:07:31
AMD macht dadurch auch Marktpräsenz wett. Mit seamicro wurde ein weiterer strategischer Partner "erworben". Ich denke und hoffe das Read auf dem richtigen Pfad wandelt, nur brauchen Veränderungen seine Zeit und die muss man halt erst mal überbrücken. Wäre doch Jammerschade wenn die Investoren plötzlich das Interesse verlieren würden. Jetzt wo AMD durchs finstere Tal wanderte...

john carmack
2013-04-22, 18:45:17
Rückkehr nach rund vier Jahren bei Apple
Grafikspezialist Raja Koduri kehrt zu AMD zurück

http://www.computerbase.de/news/2013-04/grafikspezialist-raja-koduri-kehrt-zu-amd-zurueck/

BlackBirdSR
2013-04-22, 19:43:48
Nicht nur der...
Keller (CPU , K8) ist auch von Apple zurück zu AMD.


Hat Apple da etwa Konvertierte zu AMD geschickt, um für die zukünftige Übernahme eine passende Produktpalette für die Macs und Ipads sicherzustellen? :tongue:

ndrs
2013-04-22, 19:44:25
Rückkehr nach rund vier Jahren bei Apple
Grafikspezialist Raja Koduri kehrt zu AMD zurück

http://www.computerbase.de/news/2013-04/grafikspezialist-raja-koduri-kehrt-zu-amd-zurueck/
Guten morgen
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9739193#post9739193

S940
2013-04-22, 19:57:29
Guten morgen
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9739193#post9739193
Lol ich wollt gerade schreiben, dass das besser in den "AMD steht besser ... " thread passt, da es ja nicht viel mit BD zu tun hat. Der scheint ja eher der Grafikmensch zu sein.

john carmack
2013-04-22, 21:10:41
Nicht nur der...
Keller (CPU , K8) ist auch von Apple zurück zu AMD.


Hat Apple da etwa Konvertierte zu AMD geschickt, um für die zukünftige Übernahme eine passende Produktpalette für die Macs und Ipads sicherzustellen? :tongue:

Genau... Apple kauft AMD ;)

boxleitnerb
2013-04-22, 21:45:14
Ich würde sagen, der Threadtitel ist nicht mehr ganz akkurat. AMD wird wohl nicht pleite gehen, trotz Bulldozer. Die Produkte, die das Ruder rumreißen (werden), haben entweder eine andere Architektur oder legen den Fokus eher auf die GPU. So gesehen war Bulldozer tatsächlich ein Reinfall.

S940
2013-04-23, 01:50:11
Jupp so kann mans schon sehen.

Fast tragisch wärs, wenn Steamroller jetzt ziemlich gut werden sollten. Aber naja, Wunder kann man sicherlich auch nicht erwarten.

Ansonsten wird der Showdown zw. Kabini und den neuen OoO-Atoms interessant. Vor denen und v.a. dessen 22nm LP-Finfetprozess hab ich Respekt.

Witzig auch da die Parallele zu AMD, kein Firlefanz wie SMT oder CMT weder bei AMD noch bei Intel, stattdessen simple 2issue Kernchen. Willkommen in den 90ern.

Iruwen
2013-04-23, 15:24:11
Wurden die schon gepostet?
http://arstechnica.com/business/2013/04/the-rise-and-fall-of-amd-how-an-underdog-stuck-it-to-intel/
http://arstechnica.com/business/2013/04/amd-on-ropes-from-the-top-of-the-mountain-to-the-deepest-valleys/

S940
2013-04-23, 15:58:14
Steht da irgendwas Neues drin?

Iruwen
2013-04-23, 16:48:11
kA, arstechnica Artikel les ich immer erst nach Feierabend :D

robbitop
2013-04-24, 08:47:40
Es ist nichts "neues" aus technischer Sicht enthalten - aber man liest mal ein bisschen, was hinter den Kulissen ablief. Erinnert mich an die Story (auf Anand?) zum RV770, die im Interview mit Eric Demers entstand. (und ein kleines bisschen an die Biographie von Steve Jobs) Ich liebe diese "Hinter den Kulissen" Storys einfach.

boxleitnerb
2013-05-29, 21:20:19
Andrew Feldman, Corporate Vice President und General Manager des Serverbereichs bei AMD spricht offen über Bulldozer:

Feldman candidly acknowledged that the Bulldozer failure cost AMD some credibility in servers. But the company is looking to rebound with a revamped management team led by CEO Rory Read and a new server roadmap comprising x86 and ARM chips for multiple server categories.

“Bulldozer was without doubt an unmitigated failure. We know it,” Feldman said.

“It cost the CEO his job, it cost most of the management team its job, it cost the vice president of engineering his job. You have a new team. We are crystal clear that that sort of failure is unacceptable,” Feldman said.
AMD bridges road to ARM with new low-power x86 server chips | PCWorld (http://www.pcworld.com/article/2040045/amd-bridges-road-to-arm-with-new-lowpower-x86-server-chips.html)

Hätte ich nicht gedacht, dass man so offen mit dem Thema umgeht, Respekt. Nur wer weiß, dass Fehler gemacht wurden und sie auch erkennt, kann sie in Zukunft vermeiden.

samm
2013-05-29, 21:26:40
Stimmt, Ehrlichkeit ftw!

Andererseits finde ich es für seine Position unangebracht, wie er dafür ehemalige Mitarbeiter öffentlich in den Dreck zieht, die technologisch auch für alles mitverantwortlich waren, das AMD an allgemein als erfolgreich empfundenen Produkten geboten hat (K7,8,10.5, Bobcat). Und fahrlässig geschäftlich gesehen, weil alle jetztigen guten Produkte in Form von Vishera und Trinity auf dem *schrecklichen* Bulldozer basieren, das ist doch Negativwerbung.

Duplex
2013-05-29, 22:17:47
Das ist teilweise auch die Schuld von Andy Glew (Pentium Pro Chef), der hat das Bulldozer Konzept erfunden. Zum Glück hat Intel damals nicht auf so einem Konzept gesetzt, die haben wenigstens aus ihrem "Netburst Desaster" gelernt.

Pentium M
2013-05-29, 22:33:18
Quod erat demonstrandum.Bulldozer ist Schei...!Welche Gegenargumente hat man noch,wenn AMD selbst das Klischee bestätigt.

Schaffe89
2013-05-30, 00:38:35
Naja, ich denke an muss hier differenzieren. Was meint er denn mit scheiße?

Bulldozer V1, Vishera? Die komplette Modulauweise? Kaveri? Steamroller?

Das sind ja alles Entwicklungen die von Bulldozer ausgehen, also meiner Meinung nach hat er sich mit dieser Aussage keinen Gefallen getan.

schreiber
2013-05-30, 00:46:52
Steht doch da, dass er Bulldozer meint...

Sie hatten ja tatsächlich eine höhere IPC als beim Vorgänger angestrebt und sind dabei richtig derbe aus die Schnauze gefallen. Sie hatten wohl keine andere Wahl, als den Müll dann dennoch zur Produktion freizugeben.

Schaffe89
2013-05-30, 01:12:45
Jup, es wurde von nem User in einem anderen Forum falsch übersetzt... da sollte man mal lieber das original lesen..;(

Pentium M
2013-05-30, 01:49:40
PCGH?

Knuddelbearli
2013-05-30, 01:50:20
Alte Produkte werden ja immer schlecht gemacht sobald neue da sind

dildo4u
2013-05-30, 01:53:39
Alte Produkte werden ja immer schlecht gemacht sobald neue da sind
Wenn die Führung deswegen gefeuert wurde wird das Produkt nich schlecht gemacht,sondern es war schlecht was ja nun auch keine Neuigkeit ist.Da spielt es auch nicht so die Rolle,ob sie es nach und nach hin biegen,der Ruf bleibt schlecht so lange es Abwandlungen von Bulldozer sind.

HOT
2013-05-30, 09:48:20
Stimmt, Ehrlichkeit ftw!

Andererseits finde ich es für seine Position unangebracht, wie er dafür ehemalige Mitarbeiter öffentlich in den Dreck zieht, die technologisch auch für alles mitverantwortlich waren, das AMD an allgemein als erfolgreich empfundenen Produkten geboten hat (K7,8,10.5, Bobcat). Und fahrlässig geschäftlich gesehen, weil alle jetztigen guten Produkte in Form von Vishera und Trinity auf dem *schrecklichen* Bulldozer basieren, das ist doch Negativwerbung.
Er zieht niemanden durch den Dreck sondern zählt auf wer alles gehen musste.

Das ist teilweise auch die Schuld von Andy Glew (Pentium Pro Chef), der hat das Bulldozer Konzept erfunden. Zum Glück hat Intel damals nicht auf so einem Konzept gesetzt, die haben wenigstens aus ihrem "Netburst Desaster" gelernt.

Hä? Also die Kurve muss man erst mal kriegen... die CPU ist nicht toll, das sagt aber immer noch wenig über das Konzept aus. Außerdem ist das Konzept schon viele Jahre alt. Der hat also definitiv keine Verantwortung für das Debakel.

Wenn die Führung deswegen gefeuert wurde wird das Produkt nich schlecht gemacht,sondern es war schlecht was ja nun auch keine Neuigkeit ist.Da spielt es auch nicht so die Rolle,ob sie es nach und nach hin biegen,der Ruf bleibt schlecht so lange es Abwandlungen von Bulldozer sind.

Quatsch. Eine Namensänderung und ein gutes Produkt aus der BD-Serie und die Sache ist für immer erledigt. Beim K10 war es ähnlich, da brauchte es nicht mal einen neuen Namen.

robbitop
2013-05-30, 09:58:58
Leider hat AMD ja nichtmal mehr Namen. A-irgendwas, E-irgendwas, FX-irgendwas. :rolleyes: Ich frage mich was das soll. Phenom, Athlon, Sempron. Das waren doch absolut analoge Namen zu Intels Core, Pentium und Celeron.

Ich finde es richtig, die Fehler einzugestehen und die Führung auszutauschen. Das schafft neues Vertrauen in der Öffentlichkeit und vieleicht auch bei den Investoren.
NV tat mit ihrem Fön-Video ähnliches im Nachhinein zur GeforceFX. Nur eben auf eine spaßige Weise.

Insgesamt ist der Ansatz von Intel IMO der bessere. Fette Kerne mit hoher IPC/ILP die durch SMT schön ausgelastet werden. Ich hoffe, dass AMD das bei der nächsten µ-Arch auch so machen wird. Das hätte man aber eigentlich auch schon vorher wissen können und statt Bulldozer etwas eher Core ähnliches bringen können.

Trap
2013-05-30, 10:22:56
Insgesamt ist der Ansatz von Intel IMO der bessere. Fette Kerne mit hoher IPC/ILP die durch SMT schön ausgelastet werden. Ich hoffe, dass AMD das bei der nächsten µ-Arch auch so machen wird.
Mit einfach nur "Intel nachmachen" hat AMD keine Chance den 20 Monate Fertigungsvorteil von Intel auch nur teilweise zu kompensieren. Und Intel hat jetzt 2 Generationen mit jeweils 5% IPC Detailverbesserungen Vorsprung.

Wenn sie das Modul-Konzept tatsächlich mal so wie ursprünglich geplant ausgeführt bekommen (gegenüber Phenom2 bei gleicher Fertigung +25% Takt, gleiche IPC pro Thread bei Vollauslastung, 2x Threads, das ganze bei 30% mehr Fläche), wäre das eine durchaus konkurrenzfähige CPU.

Andererseits wäre auch eine Intel-Clone-CPU Müll, wenn sie mit der gleichen Qualität wie beim Bulldozer vom Konzept zum Produkt umgesetzt wird.

robbitop
2013-05-30, 10:46:42
Mit einfach nur "Intel nachmachen" hat AMD keine Chance den 20 Monate Fertigungsvorteil von Intel auch nur teilweise zu kompensieren. Und Intel hat jetzt 2 Generationen mit jeweils 5% IPC Detailverbesserungen Vorsprung.
Das stimmt - aber sie wären nicht 50% (!!!) hinten in Punkto IPC sondern vieleicht nur 10 %. Das wäre doch was.

Wenn sie das Modul-Konzept tatsächlich mal so wie ursprünglich geplant ausgeführt bekommen (gegenüber Phenom2 bei gleicher Fertigung +25% Takt, gleiche IPC pro Thread bei Vollauslastung, 2x Threads, das ganze bei 30% mehr Fläche), wäre das eine durchaus konkurrenzfähige CPU.
Die Module kosten ca. so viele Transistoren wie aktuelle Intel Kerne. Sind Singlethread massiv langsamer und in Multithread kommen sie einigermaßen ran. K10 IPC ist mit Vishera erreicht. Es fehlen immernoch 50 %...

Ich bezweifle, dass man diesen Ansatz noch dorthin bekommen wird.

Andererseits wäre auch eine Intel-Clone-CPU Müll, wenn sie mit der gleichen Qualität wie beim Bulldozer vom Konzept zum Produkt umgesetzt wird.
Intel hätte noch den Fertigungsvorsprung und würde das Ding etwas konkurrenzfähiger bauen. Aber nicht konkurrenzfähig zum Core i7.

CMT ist ein anderer Ansatz und das ist auch schön. Aber einfach nur "anders" zu sein, bringt nichts, wenn der Ansatz nicht auch besser ist. Dann lieber den gleichen Ansatz nehmen, ihn etwas schlechter umsetzen und dafür ein besseres Resultat als mit dem "anderen" Ansatz erzielen. Zwar immer noch kein Sieger, aber immerhin ein nicht ganz so schlechter Zweiter.

SavageX
2013-05-30, 11:18:10
Meiner Meinung nach ist die effiziente Nutzung von Transistoren die einzige Möglichkeit, einen Fertigungsnachteil auszugleichen. Hierzu gehört ganz eindeutig auch das Teilen von Funktionseinheiten. Bei einem Full Node Unterschied liegt das Transistorbudget bei ähnlichen Kosten halt pi mal Daumen bei der Hälfte.

Viele Leute gucken auf die schlechte ST-Performance von Bulldozer und scheinen zu denken, das läge daran, dass da Einheiten geteilt würden. Ist natürlich so nicht der Fall, schließlich reden wir hier von single-thread performance (wo die geteilten Ressourcen ja einem Thread zur Verfügung stehen), Bulldozer ist also an für die ST-Performance entscheidenenden Stellen zu eng, was aber mit dem Gedanken der Modulbauweise erstmal wenig zu tun hat. Bei der MT-Performance steht Bulldozer aber ganz akzeptabel da, was ja eher dafür spricht, dass das Modulkonzept "an sich" funktioniert.

Anstatt also das Modulkonzept über den Haufen zu werfen, ist es für AMD sicherlich sinnvoller, die Flaschenhälse für die ST-Performance aus dem Weg zu schaffen: Dünnes Frontend, kleine Caches mit geringer Assoziativität, die Anzahl und Verteilung der Ausführungsressourcen. Aber so eine fette Einheit wie die FPU einfach mal zu duplizieren macht aus wirtschaftlicher Sicht einfach keinen Sinn (man gucke sich mal an, wie viel Platz die FPU beim vermeintlichen Steamroller-Dieshot einnimmt).

S940
2013-05-30, 11:51:57
Naja, was man nicht vergessen darf:
IPC war AMD von Anfang an egal. Der Plan war ein schlankes Design (spart Transistoren) mit akzeptabler IPC, den Rest sollte ein höherer Takt erledigen.

Das Einzige, worüber man sich wundern muss, ist der Die-Flächenverbrauch. Zwar ist ein BD-Modul mit 2MB ungefähr gleich groß wie ein Sandy mit 2MB-L3 (30mm²), aber AMD verbaut halt auch noch zusätzlich 8MB L3.

Wenn Steamroller (oder was auch immer das für ein Core ist), so käme wie es im Moment aussähe, wäre ich zufrieden. Die Die-Size stiege nur leicht, das Gros sollte durch den half-node-shrink erledigt werden und mit 4 statt 2 Threads sollte man in der Multithreadleistung eines Intel Quads mit SMT vorbeiziehen. Im single-Thread Fall hat man sicherlich auch noch ein nettes Plus durch die größeren Caches & die Sprungvorhersage, so 10-20% sollten schon drin sein.

Wenn das kein Fake ist ^^

Duplex
2013-05-30, 11:53:35
Immer das gleiche, macht aus wirtschaftlicher Sicht keinen sinn, zu groß usw.
Sandy Bridge 4C/8T inkl. iGPU kommt auf 216mm² (ohne GPU 180mm²) während AMDs 4M/8C auf 315mm² kommt.
AMD mit 50% IPC Nachteil, 100W mehr Verbrauch, das Design ist schwach und ineffizient.
Und dabei hat Bulldozer nur ein Shared Frontend.

YfOrU
2013-05-30, 12:38:35
Viele Leute gucken auf die schlechte ST-Performance von Bulldozer und scheinen zu denken, das läge daran, dass da Einheiten geteilt würden. Ist natürlich so nicht der Fall, schließlich reden wir hier von single-thread performance (wo die geteilten Ressourcen ja einem Thread zur Verfügung stehen), Bulldozer ist also an für die ST-Performance entscheidenenden Stellen zu eng, was aber mit dem Gedanken der Modulbauweise erstmal wenig zu tun hat. Bei der MT-Performance steht Bulldozer aber ganz akzeptabel da, was ja eher dafür spricht, dass das Modulkonzept "an sich" funktioniert.

Das kann man meiner Meinung nach so unterschreiben. Das grundsätzliche Problem ist nicht CMT. Die Entwicklung (BD) hat viel zu viel Zeit in Anspruch genommen und die Produkte mussten am Ende mit der Brechstange auf den Markt gebracht werden. Zusätzlich haben sich die Rahmenbedingungen (Fertigung) anderes entwickelt als erwartet wodurch die angestrebten Taktfrequenzen (Skalierung) in der Praxis nicht realisierbar sind. Hier muss durchaus klar sein das AMD eine Architektur entwickeln musste welche wieder über viele Jahre mit der Fertigung skaliert (->Annahme: weiterhin deutlich steigende Frequenzen). AMD hat nicht die Entwicklungsmöglichkeiten von Intel und dementsprechend muss eine Architektur vergleichsweise lange einsetzbar sein. Aus heutiger Sicht sind bei der Ausrichtung natürlich gravierende Fehleinschätzungen und Entscheidungen getroffen worden und die lassen sich nicht kurzfristig egalisieren. Im Gegensatz dazu hat Intel den Sweet-Spot (Core/Nehalem) nahezu optimal getroffen. Allerdings auch erst im zweiten Anlauf ;)

S940
2013-05-30, 13:54:29
Im Gegensatz dazu hat Intel den Sweet-Spot (Core/Nehalem) nahezu optimal getroffen. Allerdings auch erst im zweiten Anlauf ;)
Jupp, und man kann auch wieder den urigen Vergleich zum P4-Northwood ziehen. Der war auch passabel, die ärgsten Engstellen waren behoben, so gut es ging.
Soll heißen, der zweite Bulldozerwurf könnte ähnlich gut bzw. noch besser werden, denn im Vergleich zum ersten P4 (Williammete) steht der BD noch gut da, so tiefgreifende Designprobleme (kein Instruction-Cache, falsche Portaufteilung, mieße x87-Leistung) wie beim P4 gibts beim BD nicht ;-)

robbitop
2013-05-30, 14:00:53
Es war dumm und naiv zu glauben man könnte über den Takt gehen. Das musste sogar die Fertigungsmacht Intel vor fast 10 Jahren feststellen. Irgendwo ist halt eine Art Mauer - und wenn selbst Intel mit einer Größenordnung mehr Ressourcen und einem Fertigungsvorsprung von einem Fullnode nicht dagegen ankommt.... wie kann man so naiv sein und eine solche Entwicklung schon nach der Konzeptphase freizugeben? Mag zwar jetzt vieleicht simplifiziert sein - aber am Ende ist es dennoch genau so.

S940
2013-05-30, 14:04:52
Es war dumm und naiv zu glauben man könnte über den Takt gehen. Das musste sogar die Fertigungsmacht Intel vor fast 10 Jahren feststellen. Irgendwo ist halt eine Art Mauer - und wenn selbst Intel mit einer Größenordnung mehr Ressourcen und einem Fertigungsvorsprung von einem Fullnode nicht dagegen ankommt.... wie kann man so naiv sein und eine solche Entwicklung schon nach der Konzeptphase freizugeben? Mag zwar jetzt vieleicht simplifiziert sein - aber am Ende ist es dennoch genau so.
Wer weiss was GF für 32nm alles versprochen hatte ... :freak:

mboeller
2013-05-30, 14:25:46
Wieso GF? Damals war das noch AMD!

YfOrU
2013-05-30, 17:14:07
Es war dumm und naiv zu glauben man könnte über den Takt gehen. Das musste sogar die Fertigungsmacht Intel vor fast 10 Jahren feststellen. Irgendwo ist halt eine Art Mauer - und wenn selbst Intel mit einer Größenordnung mehr Ressourcen und einem Fertigungsvorsprung von einem Fullnode nicht dagegen ankommt.... wie kann man so naiv sein und eine solche Entwicklung schon nach der Konzeptphase freizugeben? Mag zwar jetzt vieleicht simplifiziert sein - aber am Ende ist es dennoch genau so.

Netburst war nochmal mindestens eine Kategorie darüber. Trotzdem war man natürlich insgesamt deutlich zu optimistisch aber da kommt (neben dem Zwang zu einer lang einsetzbaren Architektur) noch ein Faktor dazu:

Wieso GF? Damals war das noch AMD!

Die Ausgangslage war eine zumindest halbwegs konkurrenzfähige Fertigung unter eigenen Dach. Im Endeffekt hat man sich bei der Auslegung verspekuliert (Möglichkeiten zukünftiger Prozesse) und zusätzlich haben sich die Rahmenbedingungen deutlich verschlechtert. Kombiniert mit den vielen Verzögerungen ist das Ergebnis sogar eher noch positiv. Problematisch für AMD ist das diese Architektur eine Neuausrichtung und damit praktisch komplette Überarbeitung benötigt. Das kostet nicht nur Kapital sondern vor allen auch Zeit.

2phil4u
2013-05-30, 20:07:12
Eine Chance von AMD ist natürlich das HAL-Konzept auf jegliche Software anzuwenden.
Wenn Software erstmal optimal alle Ressourcen verwendet, auch den Grafikteil, das könnte schon vieles extrem beschleunigen, aber Intel schlaeft da ja auch nicht.
Nicht umsonst werden kaum noch Chips von Intel ohne Grafikeinheit produziert.
Durch die PS4 und X-Box wird diese Art der Programmierung natürlich gefördert und speziell auf AMD optimiert.
Was AMD jetzt braucht ist einen gescheiten Prozess bsp 20nm FDSOI, damit könnten sie dann mit Intel 14nm halbwegs fertigungstechnisch mithalten und durch die oben beschriebenen Vorteile kompensieren.

S940
2013-05-30, 20:40:57
Wieso GF? Damals war das noch AMD!
Egal, dann halt "Die Fertigungsabteilung von AMD". Das macht keinen Unterschied. Die Fab meldet die technischen Rahmenparameter und die CPU-Designer wenden das dann an.
Wenn die Fab-Leute dann ihre Parameter verfehlen ist was Übelriechendes am dampfen ...
Was AMD jetzt braucht ist einen gescheiten Prozess bsp 20nm FDSOI,
Gibts nicht, der nächste SChritt nach 28nm FDSOI ist 14nm FDSOI:

http://www.abload.de/img/neueroadmapwcu74.png

2phil4u
2013-05-30, 20:45:04
28nm FDSOI, gibts da schon Produkte, ich glaube nicht.
Global Foundries verspricht ja viel, bis der Tag lang ist, 10nm FDSOI in 2016, klar von 28nm auf 10 nm in 3 Jahren, sehr wahrscheinlich ;)

S940
2013-05-31, 01:14:04
28nm FDSOI gibts bisher nur in Frankreich. STM hats bisher an 3 Hersteller lizenziert und GF schaut, dass sie es in DD hinbekommen.

robbitop
2013-05-31, 09:15:20
Netburst war nochmal mindestens eine Kategorie darüber.
Gefühlt ja*. Das Grundprinzip ist aber das Gleiche. Leistung über den Takt holen ist, als wenn man einen Fehlschlag im Vorhinein plant.

*Aber die Bulldozersprößlinge liegen von der IPC ziemlich weit hinten. Der Core hat 50 % mehr IPC. Ich meine mich daran zu erinnern, dass Netburst um einen ähnlichen Prozentsatz hinten war bezüglich IPC.

Natürlich war die Netburst µ-Arch noch viel mehr auf hohen Takt getrimmt. Aber am Ende ist es immer blöd, Leistung über hohe Taktraten holen zu müssen.



Die Ausgangslage war eine zumindest halbwegs konkurrenzfähige Fertigung unter eigenen Dach. Im Endeffekt hat man sich bei der Auslegung verspekuliert (Möglichkeiten zukünftiger Prozesse) und zusätzlich haben sich die Rahmenbedingungen deutlich verschlechtert. Kombiniert mit den vielen Verzögerungen ist das Ergebnis sogar eher noch positiv. Problematisch für AMD ist das diese Architektur eine Neuausrichtung und damit praktisch komplette Überarbeitung benötigt. Das kostet nicht nur Kapital sondern vor allen auch Zeit.
Klar haben sich Rahmenbedingungen verschlechtert. Aber wie willst du selbst mit besserer Fertigung eine IPC Differenz von 50% aufholen? Das würde nichtmal ein Bulldozersprößling auf Intels Prozessen schaffen.
Leistung durch Takt = fail. Daraus sollte man gelernt haben.

fondness
2013-05-31, 09:29:50
Gefühlt ja*. Das Grundprinzip ist aber das Gleiche. Leistung über den Takt holen ist, als wenn man einen Fehlschlag im Vorhinein plant.

*Aber die Bulldozersprößlinge liegen von der IPC ziemlich weit hinten. Der Core hat 50 % mehr IPC. Ich meine mich daran zu erinnern, dass Netburst um einen ähnlichen Prozentsatz hinten war bezüglich IPC.

Natürlich war die Netburst µ-Arch noch viel mehr auf hohen Takt getrimmt. Aber am Ende ist es immer blöd, Leistung über hohe Taktraten holen zu müssen.



Klar haben sich Rahmenbedingungen verschlechtert. Aber wie willst du selbst mit besserer Fertigung eine IPC Differenz von 50% aufholen? Das würde nichtmal ein Bulldozersprößling auf Intels Prozessen schaffen.
Leistung durch Takt = fail. Daraus sollte man gelernt haben.

Solche Analysen sind viel zu kurz gegriffen, genau so wie das Problem auf CMT zu schieben. Erstens schließt sich ein hoher Takt und eine hohe IPC nicht aus, und zweitens verwechselst du Ursache und Wirkung. Es ist logisch, dass man jetzt mangels konkurrenzfähig kurzfristig nur mehr den Takt hoch prügeln kann. Aber im Endeffekt ist der Takt nur unwesentlich höher als bei Intel. Die Pipeline von Bulldozer ist deutlich kürzer als bei Netburst und nur unwesentlich länger als bei Intel. Die Probleme liegen ganz wo anders in den tiefen der µArchitektur. AMD hat zB erhebliche Probleme mit Branchlatenzen.

Wenn was naiv war von AMD, dann war es zu glaube das Rad neu erfinden zu müssen. Bulldozer wurde fast von Grund auf neu designt, man musste Probleme lösen die man schon längst im Griff hatte. Man hat wohl die Komplexität eine völlig neuen µArch zu entwickeln und die Probleme die dabei auftreten können gewaltig unterschätzt. Selbst Intel hat schon seit Ewigkeiten keine neue µArch mehr entwickelt, sondern optimiert einfach weiter. Dann kam es natürlich zu erheblichen Verzögerungen, weil nichts fertig war, doch das Ding musste mangels Alternativen auf den Markt - die folgen sind bekannt.

robbitop
2013-05-31, 09:50:56
Solche Analysen sind viel zu kurz gegriffen, genau so wie das Problem auf CMT zu schieben. Erstens schließt sich ein hoher Takt und eine hohe IPC nicht aus, und zweitens verwechselst du Ursache und Wirkung. Es ist logisch, dass man jetzt mangels konkurrenzfähig kurzfristig nur mehr den Takt hoch prügeln kann. Aber im Endeffekt ist der Takt nur unwesentlich höher als bei Intel. Die Pipeline von Bulldozer ist deutlich kürzer als bei Netburst und nur unwesentlich länger als bei Intel. Die Probleme liegen ganz wo anders in den tiefen der µArchitektur. AMD hat zB erhebliche Probleme mit Branchlatenzen.

Ich habe nie behauptet, dass es die gleiche Ursache hat wie bei Netburst. Aber die Wirkungen sind ähnlich. Die µ-Arch hat wenig IPC. Und für den Fall, dass die gewünschte Endleistung im Konzeptstadium wirklich über den Takt geholt werden sollte, halte ich das für eine Fehlplanung.

Wenn was naiv war von AMD, dann war es zu glaube das Rad neu erfinden zu müssen. Bulldozer wurde fast von Grund auf neu designt, man musste Probleme lösen die man schon längst im Griff hatte. Man hat wohl die Komplexität eine völlig neuen µArch zu entwickeln und die Probleme die dabei auftreten können gewaltig unterschätzt. Selbst Intel hat schon seit Ewigkeiten keine neue µArch mehr entwickelt, sondern optimiert einfach weiter. Dann kam es natürlich zu erheblichen Verzögerungen, weil nichts fertig war, doch das Ding musste mangels Alternativen auf den Markt - die folgen sind bekannt.
Da sprichst du mir aus der Seele...

Hätte die K10 µ-Arch (die ja auf der K7 µ-Arch fußt) noch das Potenzial gehabt, durch Evolutionen immer weiter zu leben? Durch AVX hätte bspw. doch sowieso viel geändert werden müssen, oder?

HOT
2013-05-31, 09:55:18
Das Projekt ist uralt. Es ging noch um Nexgen Technik zu K8-Zeiten und genau darauf beruht auch das heutige BD-Design. Naiv war meiner Ansicht nach die ganzen Jahre daran festzuhalten und es immer mal wieder zu probieren und damit zu scheitern. Spätestens beim gescheiterten K9 hätte man sich komplett umorientieren müssen für einen echten Nachfolger des K7, aber nein, man hielt am BD-Konzept fest bis zum bitteren Ende. In 2011 war es einfach zu spät dafür, es gab halt schon ne CPU mit Maximal-IPC bei der Konkurrenz, dumm gelaufen. Heute muss man erkennen, dass das Festhalten über Jahrzehnte an einem einzigen Konzept echt fatal ist.

Der K7 ist ebenfalls outdated. Man kann ihn als Entwicklungsgrundlage für eine echte neue Architektur nehmen, aber noch mehr Derivate würden auch nicht helfen, dafür sind die Teile einfach zu lahm heutzutage. Ich denke mal, als AMD-Intern schon klar war in 2010, dass BD ein Fehlschlag wird und intern schon klar war, dass Köpfe rollen werden, schon an einer komplett neuen Architektur als Nachfolger für den K7 begonnen wurde, das dann in 2015 auf den Markt kommt. Der Zeitraum passt gut und Rory Read hat vor allem das Überleben gesichert und dieses Projekt forciert.
Das Zeitalter der Baumaschinen endet mit SR und es beginnt ein neues Zeitalter mit Katzenarten :D. In 2015 mit 20nm FinFET.

fondness
2013-05-31, 10:04:33
Da sprichst du mir aus der Seele...

Hätte die K10 µ-Arch (die ja auf der K7 µ-Arch fußt) noch das Potenzial gehabt, durch Evolutionen immer weiter zu leben? Durch AVX hätte bspw. doch sowieso viel geändert werden müssen, oder?

Warum nicht? Intel musst genau so einiges ändern als sie AVX einbauten, aber deshalb haben sie nicht die gesamte µArch über den haufen geworfen. Ironischerweise wurde ja gerade auch AMD mit AVX völlig am falschen Fuß erwischt. Vorgesehen für Bulldozer war SSE5, welches weiterhin maximal 128-bit breite Daten verarbeiten könnte. Dementsprechend war die "Flex-FPU" in der heutigen Form eine absolute Notlösung um noch kurzfristig AVX-Support einbauen zu können ohne die FPU-Breite verdoppeln zu müssen.

Skysnake
2013-05-31, 10:27:27
Hätten Sies aber mal lieber gemacht.

robbitop
2013-05-31, 10:34:05
Das Zeitalter der Baumaschinen endet mit SR und es beginnt ein neues Zeitalter mit Katzenarten :D. In 2015 mit 20nm FinFET.
Die Katzen sind zwar nicht sehr hungrig, dafür aber nur mit wenigen Pfötchen (IPC, ILP) und geringer Laufgeschwindigkeit (Takt) unterwegs.
Sollten diese die Baumaschinen wirklich ersetzen? :D

IMO müßte schon eine andere µ-Arch dafür her. Man kann ein Design sinnvoll in etwa für eine Größenordnung an TDP auslegen. Also brauchst du eine µ-Arch für SFF und eine für Notebooks/PCs. Intel macht es ja auch so.

IMO sind die Katzen einen Tucken zu weit nach oben gelegt worden für SFFs* von der TDP Auslegung (dafür aber auch mehr IPC) und die Baumaschinen ... naja darüber brauchen wir nicht reden.

*In Smartphones werden die Dinger nie reinpassen und auch für Tablets muss man schon ziemlich tief runter mit den Frequenzen.
Intels neuer Atom hat offenbar weniger IPC, dafür aber auch eine deutlich geringere IPC.
Die Leistung pro W dürfte da am Ende besser sein. Ist dann für µ-Server bestimmt auch besser geeignet. Aber da dürfte dann die ARM Schiene von AMD eventuell greifen können.

HOT
2013-05-31, 10:34:16
Warum nicht? Intel musst genau so einiges ändern als sie AVX einbauten, aber deshalb haben sie nicht die gesamte µArch über den haufen geworfen. Ironischerweise wurde ja gerade auch AMD mit AVX völlig am falschen Fuß erwischt. Vorgesehen für Bulldozer war SSE5, welches weiterhin maximal 128-bit breite Daten verarbeiten könnte. Dementsprechend war die "Flex-FPU" in der heutigen Form eine absolute Notlösung um noch kurzfristig AVX-Support einbauen zu können ohne die FPU-Breite verdoppeln zu müssen.
Ich glaube nicht dass das geklappt hätte. K7 ist nicht modular wie BD. Und ein kompletter Umbau hätte verdammt viel Zeit gekostet. Dann lieber eine komplett neue Arch mit K7 als Grundlage. Für FMA und AVX musst du ja die gesamte Arch ändern, da reicht die FPU nicht, du musst das gesamte Frontend aufbohren. Eine einfache Verbreiterung der Verbindungen hätte es nicht getan. Du brauchst komplett neue Decoder usw.

Die Katzen sind zwar nicht sehr hungrig, dafür aber nur mit wenigen Pfötchen (IPC, ILP) und geringer Laufgeschwindigkeit (Takt) unterwegs.
Sollten diese die Baumaschinen wirklich ersetzen? :D

IMO müßte schon eine andere µ-Arch dafür her. Man kann ein Design sinnvoll in etwa für eine Größenordnung an TDP auslegen. Also brauchst du eine µ-Arch für SFF und eine für Notebooks/PCs. Intel macht es ja auch so.

IMO sind die Katzen einen Tucken zu weit nach oben gelegt worden für SFFs* von der TDP Auslegung (dafür aber auch mehr IPC) und die Baumaschinen ... naja darüber brauchen wir nicht reden.

*In Smartphones werden die Dinger nie reinpassen und auch für Tablets muss man schon ziemlich tief runter mit den Frequenzen.
Intels neuer Atom hat offenbar weniger IPC, dafür aber auch eine deutlich geringere IPC.
Die Leistung pro W dürfte da am Ende besser sein. Ist dann für µ-Server bestimmt auch besser geeignet. Aber da dürfte dann die ARM Schiene von AMD eventuell greifen können.

Hab mich nicht klar ausgedrückt. Ich glaube, dass einfach die Codenamen ersetzt werden. Das war keine Einschätzung oder Anspielung auf die Jaguar-Arch. Ich meinte das eher so als Zeichen des Paradigmenwechsels :D.

fondness
2013-05-31, 10:35:02
Das Projekt ist uralt. Es ging noch um Nexgen Technik zu K8-Zeiten und genau darauf beruht auch das heutige BD-Design. Naiv war meiner Ansicht nach die ganzen Jahre daran festzuhalten und es immer mal wieder zu probieren und damit zu scheitern. Spätestens beim gescheiterten K9 hätte man sich komplett umorientieren müssen für einen echten Nachfolger des K7, aber nein, man hielt am BD-Konzept fest bis zum bitteren Ende. In 2011 war es einfach zu spät dafür, es gab halt schon ne CPU mit Maximal-IPC bei der Konkurrenz, dumm gelaufen. Heute muss man erkennen, dass das Festhalten über Jahrzehnte an einem einzigen Konzept echt fatal ist.

Der K7 ist ebenfalls outdated. Man kann ihn als Entwicklungsgrundlage für eine echte neue Architektur nehmen, aber noch mehr Derivate würden auch nicht helfen, dafür sind die Teile einfach zu lahm heutzutage. Ich denke mal, als AMD-Intern schon klar war in 2010, dass BD ein Fehlschlag wird und intern schon klar war, dass Köpfe rollen werden, schon an einer komplett neuen Architektur als Nachfolger für den K7 begonnen wurde, das dann in 2015 auf den Markt kommt. Der Zeitraum passt gut und Rory Read hat vor allem das Überleben gesichert und dieses Projekt forciert.
Das Zeitalter der Baumaschinen endet mit SR und es beginnt ein neues Zeitalter mit Katzenarten :D. In 2015 mit 20nm FinFET.

Die Katzenarten sind eine Low-Power und Low-Cost Architektur die nicht wirklich geeignet ist im High-Performnace Bereich Fuß zu fassen. Man wird jetzt nicht wieder den Fehler machen alles weg zu werfen und bei Null anzufangen, das kann man sich auch gar nicht mehr leisten. Damals war man mit dem K8-Erfolg im Rücken wohl auch etwas hochmütig. Man wird die Schwachstellen der Bulldozer-Architektur Schritt für Schritt beseitigen und die Stärken forcieren. Excavator wurde erst kürzlich wieder bestätigt, also nichts mit Katzen in 2015. ;)

HOT
2013-05-31, 10:39:37
Die Katzenarten sind eine Low-Power und Low-Cost Architektur die nicht wirklich geeignet ist im High-Performnace Bereich Fuß zu fassen. Man wird jetzt nicht wieder den Fehler machen alles weg zu werfen und bei Null anzufangen, das kann man sich auch gar nicht mehr leisten. Damals war man mit dem K8-Erfolg im Rücken wohl auch etwas hochmütig. Man wird die Schwachstellen der Bulldozer-Architektur Schritt für Schritt beseitigen und die Stärken forcieren. Excavator wurde erst kürzlich wieder bestätigt, also nichts mit Katzen in 2015. ;)

Und auch hier gilt, ich meinte nicht die Katzen als Arch sondern einen Paradigmenwechsel.
So eine "Bestätigung" heißt genau gar nichts. Ich finde, das Fallenlassen der restlichen SR-Projekte abseits von Kaveri spricht eine deutlichere Sprache als diese "Bestätigung". Roadmaps sind geduldig und werden nach Belieben verändert. Bei AMD hat bisher noch keine Roadmap ihre Vorhersagen für 2 Jahre+ irgendeine Gültigkeit gehabt. Hinzu kommt noch das klare Statement - der hätte das niemals ungestraft so gesagt, wenn da noch was BD-Technisches abseits von Kaveri in Planung wär.

fondness
2013-05-31, 10:44:13
Ich glaube nicht dass das geklappt hätte. K7 ist nicht modular wie BD. Und ein kompletter Umbau hätte verdammt viel Zeit gekostet. Dann lieber eine komplett neue Arch mit K7 als Grundlage. Für FMA und AVX musst du ja die gesamte Arch ändern, da reicht die FPU nicht, du musst das gesamte Frontend aufbohren. Eine einfache Verbreiterung der Verbindungen hätte es nicht getan. Du brauchst komplett neue Decoder usw.


Das ist dann reine Definitionssache was du unter "komplett neu mit K7 als Grundlage verstehst". Und ganz so ist es dann auch nicht, man muss natürlich die Decoder an die neuen Befehle anpassen, das Frontend muss diese mit der entsprechende Geschwindigkeit bereit stellen können. Aber nur wegen AVX oder FMA muss man noch lange keine neue µArch entwickeln. Da wurden schon wesentlich tiefgreifendere Änderungen vorgenommen ohne alles über den Haufen zu werfen.

HOT
2013-05-31, 10:48:27
Das ist dann reine Definitionssache was du unter "komplett neu mit K7 als Grundlage verstehst". Und ganz so ist es dann auch nicht, man muss natürlich die Decoder an die neuen Befehle anpassen, das Frontend muss diese mit der entsprechende Geschwindigkeit bereit stellen können. Aber nur wegen AVX oder FMA muss man noch lange keine neue µArch entwickeln. Da wurden schon wesentlich tiefgreifendere Änderungen vorgenommen ohne alles über den Haufen zu werfen.
Doch ich denke schon, dass man das muss. Dauer/Kosten spielen hier die entscheidende Rolle. Fummelt man sich was zurecht oder fängt man bei solch tiefgreifenden Änderungen nicht doch lieber auf dem Planungstisch an (übertragen gesehen)? K8 war eine neue Arch, K10 dann schon eher wieder gefummelt. Und K10 konnte nicht mal SSE4!
Man muss auch die Fertigung bedenken, die kommt ja auch noch hinzu. Die kleinen Strukturen passen vermutlich nicht mehr zum Design und es gibt kein PDSOI mehr, dafür FinFETs. Nein, vergiss das mit dem K10-Anpassen. Vor allem da K10 ja soweiso verkorkst ist im Prinzip. Als Grundlage taugt eigentlich nur K8 und der ist 10(!!!) Jahre alt. Du machst dir das echt viel zu einfach. Wenn das möglich wär hätte es niemals einen Piledriver gegeben.

fondness
2013-05-31, 10:51:16
Und auch hier gilt, ich meinte nicht die Katzen als Arch sondern einen Paradigmenwechsel.
So eine "Bestätigung" heißt genau gar nichts. Ich finde, das Fallenlassen der restlichen SR-Projekte abseits von Kaveri spricht eine deutlichere Sprache als diese "Bestätigung". Roadmaps sind geduldig und werden nach Belieben verändert. Bei AMD hat bisher noch keine Roadmap ihre Vorhersagen für 2 Jahre+ irgendeine Gültigkeit gehabt. Hinzu kommt noch das klare Statement - der hätte das niemals ungestraft so gesagt, wenn da noch was BD-Technisches abseits von Kaveri in Planung wär.

Es heißt jedenfalls auch nicht das Gegenteil. Das AMD mittelfristig eine APU-only Stategie verfolgt ist nicht wirklich überraschend, deshalb würde ich noch lange nicht darauf schließen das eine komplette Architektur fallen gelassen wird. Jaguar wird schließlich auch nur bei Kabini verbaut. Und der Herr meinte mit seiner Aussage natürlich nicht die "Baummaschienen-Architektur" als ganzen, sondern Bulldozer im speziellen. Man ist doch nicht so blöd und bezeichnet etwas als fail das aktuell noch verkauft wird und auch in zukünftigen Produkten Verwendung findet.

fondness
2013-05-31, 11:06:04
Doch ich denke schon, dass man das muss. Dauer/Kosten spielen hier die entscheidende Rolle. Fummelt man sich was zurecht oder fängt man bei solch tiefgreifenden Änderungen nicht doch lieber auf dem Planungstisch an (übertragen gesehen)? K8 war eine neue Arch, K10 dann schon eher wieder gefummelt. Und K10 konnte nicht mal SSE4!

Warum genau ist K10 "gefummel"? Was willst du damit überhaupt sagen? Ist Haswell auch nur "gefummel"?


Man muss auch die Fertigung bedenken, die kommt ja auch noch hinzu. Die kleinen Strukturen passen vermutlich nicht mehr zum Design und es gibt kein PDSOI mehr, dafür FinFETs. Nein, vergiss das mit dem K10-Anpassen. Vor allem da K10 ja soweiso verkorkst ist im Prinzip.

Das Problem hat man bei BD genau so, auch der ist auf SOI, etc. ausgelegt. Und ansonsten muss man bei jedem neuen Fertigungsprozess das Design darauf auslegen.


Als Grundlage taugt eigentlich nur K8 und der ist 10(!!!) Jahre alt. Du machst dir das echt viel zu einfach. Wenn das möglich wär hätte es niemals einen Piledriver gegeben.

Das es jetzt dafür zu spät ist habe ich schon gesagt. Immerhin wurde das Design jetzt seit Jahren nicht mehr weiter entwickelt, da hätte man schon von Beginn an klüger handeln müssen. Mittlerweile ist man bei BD natürlich auch schon wesentlich weiter als bei K10. Deshalb schrieb ich ja auch bereits das man das BD-Design Schritt für Schritt optimieren wird in Zukunft.

YfOrU
2013-05-31, 11:06:16
Hinzu kommt noch das klare Statement - der hätte das niemals ungestraft so gesagt, wenn da noch was BD-Technisches abseits von Kaveri in Planung wär.

Mit Blick auf die Menge an Projekten fällt es mir schwer zu glauben das AMD in den letzten Jahren die nötigen Ressourcen hatte um eine (neue) Alternative entwickeln zu können.

Viel wahrscheinlicher ist das der Name BD im Zuge einer größeren Überarbeitung der Architektur gestrichen wird denn mit diesem Image wird man kaum weiter am Markt agieren wollen. Alles andere wäre auch vom wirtschaftlichen Standpunkt ziemlicher Unsinn denn man sollte seit Jahren bis ins letzte Detail wissen was schief läuft bzw. gelaufen ist. Darauf aufzubauen ist immer noch erheblich günstiger und mit geringeren Risiken verbunden als das nächste Rad zu erfinden. AMD kann Intel in diesem Segment praktisch nicht einholen aber solide Produkte welche entsprechend am Markt platziert sind wären durchaus ausreichend. Also Richtung SandyBridge. Das halte ich mittelfristig für keine utopische Aufgabe.

HOT
2013-05-31, 12:19:20
Es heißt jedenfalls auch nicht das Gegenteil. Das AMD mittelfristig eine APU-only Stategie verfolgt ist nicht wirklich überraschend, deshalb würde ich noch lange nicht darauf schließen das eine komplette Architektur fallen gelassen wird. Jaguar wird schließlich auch nur bei Kabini verbaut. Und der Herr meinte mit seiner Aussage natürlich nicht die "Baummaschienen-Architektur" als ganzen, sondern Bulldozer im speziellen. Man ist doch nicht so blöd und bezeichnet etwas als fail das aktuell noch verkauft wird und auch in zukünftigen Produkten Verwendung findet.
Nein, er meinte die Baumaschinen als Ganzes. Lies das Statement. Es ist sehr klar formuliert.

Mit Blick auf die Menge an Projekten fällt es mir schwer zu glauben das AMD in den letzten Jahren die nötigen Ressourcen hatte um eine (neue) Alternative entwickeln zu können.

Viel wahrscheinlicher ist das der Name BD im Zuge einer größeren Überarbeitung der Architektur gestrichen wird denn mit diesem Image wird man kaum weiter am Markt agieren wollen. Alles andere wäre auch vom wirtschaftlichen Standpunkt ziemlicher Unsinn denn man sollte seit Jahren bis ins letzte Detail wissen was schief läuft bzw. gelaufen ist. Darauf aufzubauen ist immer noch erheblich günstiger und mit geringeren Risiken verbunden als das nächste Rad zu erfinden. AMD kann Intel in diesem Segment praktisch nicht einholen aber solide Produkte welche entsprechend am Markt platziert sind wären durchaus ausreichend. Also Richtung SandyBridge. Das halte ich mittelfristig für keine utopische Aufgabe.
AFAIK haben sich die Mitarbeiterzahlen kaum verändert, sind nur stark fluktuiert. Es gab Entlassungswellen und viele Neuanstellungen. Die Verluste müssen ja auch irgendwo herkommen. Das Projekt lief mMn die ganze Zeit auf Hochtouren. Es geht auch gar nicht anders, AMD muss am Ball bleiben, sonst können sie direkt die x86er einstampfen. Allein mit LP ergeht es AMDs x86ern irgendwann wie VIAs x86ern, die Technologie um sinnvoll weiterzumachen fehlt irgendwann einfach. Als vernünftiger Verantwortlicher in einem Unternehmen erkennt man das Desaster und steuert sofort gegen. Ich nehme schon an, dass das auch passiert ist. Aber im Gegensatz zum anderen mitdiskutierenden Herrn hier ist es eben nicht so einfach mal eben den K10 zu ändern. Für Fertigung jenseits der 20nm im neuen Verfahren mit neuen Technologien und Transistorarchitekturen, neuen Befehllssätzen, die Änderungen im kompletten Frontend und Backend erzeugen, neuer Cache-Struktur usw. braucht man ein neues Grunddesign und das dauert 4-5 Jahre.

Warum genau ist K10 "gefummel"? Was willst du damit überhaupt sagen? Ist Haswell auch nur "gefummel"?

Haswell ist die Nachfolgearch von Nehalem. Das ist eine komplett neue Arch.

Das Problem hat man bei BD genau so, auch der ist auf SOI, etc. ausgelegt. Und ansonsten muss man bei jedem neuen Fertigungsprozess das Design darauf auslegen.

Das es jetzt dafür zu spät ist habe ich schon gesagt. Immerhin wurde das Design jetzt seit Jahren nicht mehr weiter entwickelt, da hätte man schon von Beginn an klüger handeln müssen. Mittlerweile ist man bei BD natürlich auch schon wesentlich weiter als bei K10. Deshalb schrieb ich ja auch bereits das man das BD-Design Schritt für Schritt optimieren wird in Zukunft.
BD ist modular. Allerdings hilft das nur begrenzt, wenn das Grunddesign zu unflexibel ist. Es geht offenbar tatsächlich nicht mit BD. Ein K8-Kern ist etwas völlig anderes als ein BD-Kern. BD ist viel einfacher zu modifizieren. AMD hat eine echte Modifizierung des K8 nur ein Mal hinbekommen und die ist nicht sonderlich effektiv gewesen sondern war eine einfache Verbreiterung auf 128Bit. Daraus schließe ich, dass es verdammt viel schwerer ist, einen K8 zu verändern als einen BD zu verändern. Beim BD sind Änderungen von vornherein vorgesehen, beim K8 offenbar nicht. Vllt ist die Validierung ein Problem, vllt. auch die Signallatenzen. Keiner weiss es, aber die Fakten sprechen für sich. BD ist 2x mehr oder weniger stark verändert worden, der K8 nur ein Mal beim K10. Die eigentliche Neuerung beim K10 ist uncore. Wenn wie eine neue Arch sehen, dann ist das ganz sicher kein veränderter K10, sondern eine neue Arch auf Basis des K8.

Duplex
2013-05-31, 13:38:19
@HOT
Kannst du dir eine neue Architektur auf Basis von K7/K8 vorstellen?
Das Frontend wurde bei der Architekur immer als Bremse bezeichnet, was könnte man ändern und verbessern? 4 ALU + 4 AGU & 4x 128 Bit / 2x 256 Bit FPU als Grundlage beim Frontend? SMT mit 2 oder 4 Threads? Das Cache System von Jaguar oder ähnlich wie Intel? Was ist mit der Pipelinie, bei K7 hat die 10 Stufen und bei K8 hat die 12 Stufen, Sandy Bridge hat 14 Stufen, Bulldozer laut Optimizion Guide 15, Anandtech erwähnt aber 20 Stufen bei Bulldozer.
Wenn AMD 2010 damit begonnen hat eine neue Architektur zu entwickeln, dann wäre 2015 realistisch, auch weil 20nm dann verfügbar ist. Gehst du von einem Synthetischen Design aus, ähnlich wie Bobcat/Jaguar?
Was ist mit der IPC, kann man von IPC 2 ausgehen? Bulldozer zu begraben macht doch nur sinn wenn man es schaft die IPC um mind. 30% zu erhöhen, ähnlich wie Netburst > Core2 und eine Skalierung auf IPC 2 plant. Wenn das nicht gelingt kann man ja Ressourcen sparen und BD weiterentwickeln, aber BD ist wirklich eine Katastrophe für AMD, gerade im Server Markt wollte man immer Boden gewinnen mit hohe Margen.

HOT
2013-05-31, 14:21:00
Ohje, voll die Glaskugelfragen :D.
Warum nicht das 3-Issue-Design beibehalten und damit versuchen möglichst die IPC2 zu erreichen? Das ist sicherlich ein Wert, der definitiv erreicht werden muss. Dann das Ganze durchgehend auf 256Bit gestalten... Eine Modulbauweise wie bei Jaguar ist sicherlich auch ne coole Idee für das Cache-System... gibt irre viele Möglichkeiten. Die Idee, Ressourcen zu teilen ist eigentlich auch ne Gute Idee, aber BD war da wohl einfach zu eingeschränkt.

YfOrU
2013-05-31, 15:03:17
AFAIK haben sich die Mitarbeiterzahlen kaum verändert, sind nur stark fluktuiert.
...


Ändert nichts daran das deren Ressourcen endlich sind und Projekte welche zeitnahe Kapital in die Kassen spülen mit absoluter Sicherheit Vorrang hatten.
Dementsprechend halte ich eine komplett neue Entwicklung auch für unrealistisch denn das ist sehr zeitintensiv und mit höheren Risiken verbunden. Etwas anderes als BD ist als Ausgangsbasis bei objektiver Betrachtung nicht vorhanden.


Haswell ist die Nachfolgearch von Nehalem. Das ist eine komplett neue Arch.


Nein. Haswell baut auf SB und IB auf und ist damit eine evolutionäre Entwicklung.

HOT
2013-05-31, 15:23:11
Ändert nichts daran das deren Ressourcen endlich sind und Projekte welche zeitnahe Kapital in die Kassen spülen mit absoluter Sicherheit Vorrang hatten.
Dementsprechend halte ich eine komplett neue Entwicklung auch für unrealistisch denn das ist sehr zeitintensiv und mit höheren Risiken verbunden.

Sie werden die Entwicklung dennoch forciert haben. Wer jetzt erst mit der Entwicklung begonnen hätte könnte nicht behaupten, dass er 2015 eine neue Arch vorstellen kann. Das ist ein Ding der Unmöglichkeit. Die Entwicklung begann allerspätestens Anfang 2011, eher früher. Und da es absolut Zukunftsentscheidend für AMD ist, wird man da auch ganz sicher keine Abstriche gemacht haben, egal wie die wirtschaftliche Lage ist.

Nein. Haswell baut auf SB und IB auf und ist damit eine evolutionäre Entwicklung.
Sandy hatte einen Einfluss auf die Entwicklung, da sich die Teams gegenseitig austauschen. Dennoch ist Haswell eine Entwicklung von einem anderen Team als Sandy. Und Ivy ist ein Upgrade+Shrink, das waren wieder andere. Haswell und Ivy sampelten kurz auch nacheinander als 22nm verfügbar war. Ivy hat also mit Haswell schonmal gar nichts am Hut, Sandy bedingt. Haswell selbst ist die Nachfolgearch von Nehalem.

Gipsel
2013-05-31, 15:35:04
Sandy hatte einen Einfluss auf die Entwicklung, da sich die Teams gegenseitig austauschen. Dennoch ist Haswell eine Entwicklung von einem anderen Team als Sandy. Und Ivy ist ein Upgrade+Shrink, das waren wieder andere. Haswell und Ivy sampelten kurz auch nacheinander als 22nm verfügbar war. Ivy hat also mit Haswell schonmal gar nichts am Hut, Sandy bedingt. Haswell selbst ist die Nachfolgearch von Nehalem.Und die Ingenieure arbeiten natürlich in einem Vakuum und haben bei Haswell mit einem weißen Blatt Papier angefangen ohne die Veränderungen bei Ivy zu kennen? Nein.

Coda
2013-05-31, 15:38:42
Sandy hatte einen Einfluss auf die Entwicklung, da sich die Teams gegenseitig austauschen. Dennoch ist Haswell eine Entwicklung von einem anderen Team als Sandy. Und Ivy ist ein Upgrade+Shrink, das waren wieder andere. Haswell und Ivy sampelten kurz auch nacheinander als 22nm verfügbar war. Ivy hat also mit Haswell schonmal gar nichts am Hut, Sandy bedingt. Haswell selbst ist die Nachfolgearch von Nehalem.
Ihr könnt das noch so oft wiederholen wie ihr wollt, es bleibt kompletter Bullshit.

YfOrU
2013-05-31, 15:46:06
Sie werden die Entwicklung dennoch forciert haben. Wer jetzt erst mit der Entwicklung begonnen hätte könnte nicht behaupten, dass er 2015 eine neue Arch vorstellen kann. Das ist ein Ding der Unmöglichkeit. Die Entwicklung begann allerspätestens Anfang 2011, eher früher. Und da es absolut Zukunftsentscheidend für AMD ist, wird man da auch ganz sicher keine Abstriche gemacht haben, egal wie die wirtschaftliche Lage ist.

Eben, Faktor Zeit und mit Blick auf die Roadmaps stellt sich schon die Frage wie das neben dem ganzen Portfolio funktionieren soll. Deshalb bleibe ich dabei das es keine komplett neue Entwicklung geben wird. LP SoCs, Konsolen, in Zukunft noch ARM basierte Lösungen, APUs und BD (in der ursprünglichen Form) konnte auch nicht ganz liegen gelassen werden. Das ganze im Kontext größerer Umstrukturierungen und knapper Kassen. Platz für mehr als "BD done right" wird kaum vorhanden sein.


Sandy hatte einen Einfluss auf die Entwicklung, da sich die Teams gegenseitig austauschen. Dennoch ist Haswell eine Entwicklung von einem anderen Team als Sandy. Und Ivy ist ein Upgrade+Shrink, das waren wieder andere. Haswell und Ivy sampelten kurz auch nacheinander als 22nm verfügbar war. Ivy hat also mit Haswell schonmal gar nichts am Hut, Sandy bedingt. Haswell selbst ist die Nachfolgearch von Nehalem.

Es spielt am Ende kaum eine Rolle welches Team die Entwicklung einzelner Produkte realisiert hat. Die haben die gleiche IP zur Verfügung. Alles andere wäre eine massivste Verschwendung von Ressourcen. Team A hat den Fokus auf X und die Entwicklung wird von Team B direkt übernommen welches den Fokus auf Y hat. Wobei selbst die Aufteilung in Teams heute eher bürokratischer Natur ist. Es lässt sich auch mit mehreren "Teams" in unterschiedlichen Zeitzonen im Schichtbetrieb am gleichen Projekt arbeiten - je nach Bedarf.

robbitop
2013-05-31, 16:24:01
Es ist immer eine Frage, ab wann ist es eine neue Architektur. Bereits Prescott war ggü Northwood von der Umsetzung der Architektur sehr weit entfernt. Die Pfeile im Diagramm haben sich jedoch kaum geändert.

Wenn man jetzt von den Grundpfeilern ausgeht, dann basiert selbst Haswell noch auf Conroe (wenn nicht sogar auf Banias). Es gibt auch sicherlich keine 2 völlig verschiedene µ-Archs bei Intel. Nur eben andere Interpretationen und Iterationen dieser, die eben in jährlicher Kadenz erscheinen.

Duplex
2013-05-31, 16:52:07
Bei Intel sind es immer weiterentwicklungen, nur Netburst war eine Ausnahme.

Man kann das ganze so betrachten

P6 Architektur > Pentium3 > Core2 > Nehalem > Sandy Bridge > Haswell

Die größten Sprünge bzgl. IPC waren Core2 & Nehalem, die haben jeweils +30% IPC gegenüber Vorgänger zugelegt.

robbitop
2013-05-31, 17:16:56
Hm ich bin mir nicht sicher, ob Core 2 noch wirklich viel vom P6 in sich trägt. Die ISA und deren Erweiterungen und Randbedingungen haben sich ja massiv weiterentwickelt. Ich kann mir aber gut vorstellen, dass man eine ähnliche Philosophie verfolgt hat, wie der P6.

S940
2013-05-31, 17:45:49
Hm ich bin mir nicht sicher, ob Core 2 noch wirklich viel vom P6 in sich trägt. Die ISA und deren Erweiterungen und Randbedingungen haben sich ja massiv weiterentwickelt. Ich kann mir aber gut vorstellen, dass man eine ähnliche Philosophie verfolgt hat, wie der P6.
Die waren schon sehr ähnlich. Was Intel da machte war - wie beim Haswell - einen Ausführungsport anzuflanschen und die SSE-Einheit auf 128bit zu erweitern. Ansonsten Feintuning:


MacroOp-Fusion, (MicroOp gabs schon vorher bei nem PentiumM)
bessere DIV-Einheit
und der berühmte Loop-Stream-Puffer/µOp-Cache


Das ist das, was ich so grob in Erinnernung hab. War schon ein starkes Upgrade, aber die Verwandtschaftsgrade waren trotzdem noch deutlich zu erkennen.

john carmack
2013-05-31, 22:21:13
http://www.computerbase.de/news/2013-05/amd-koennte-60-bis-100-dollar-pro-konsolen-soc-einstreichen/


60$ / 100$ / von mir aus auch 200$

letztenendes ist es doch wichtig was ganz hinten Netto bei rauskommt - nach abzug von gehältern, entwicklung, produktion, steuern...

Knuddelbearli
2013-06-01, 00:13:08
was mir jetzt schön länger auf der Leber liegt:

Wäre es möglich das in Zukunft auch PC / Notebook Hersteller Customdesign von AMD nutzt? oder sind dafür die (einmal)Kosten für die Maske usw einfach viel zu teuer?

schreiber
2013-06-01, 00:15:04
Die Dinger sind von Sony und Microsoft lizenziert worden. Ich glaub nicht, das noch jemand anders das Recht auf diese Teile erwerben kann. Außerdem sinnlos, weil Treiber, OS und Devs usw. das Ding auch unterstützen müssten.

Gipsel
2013-06-01, 01:27:00
Natürlich nicht genau die XBOne- oder PS4-Chips. Aber insgesamt dürfte sich das höchstens bei sehr großen angepeilten Stückzahlen lohnen. Allein der Maskensatz kostet ein paar Milliönchen und die Entwicklung natürlich auch. Da muß man sehen, ob das den Mehrpreis gegenüber Standardkomponenten rechtfertigt. Im Normalfall dürfte das nicht so sein, daß irgendein PC- oder Notebookhersteller das -zig Millionen Risiko dafür auf sich nimmt. Apple könnte es vielleicht (wenn sie wollen würden, was sie vermutlich nicht tun), aber danach wird es dann auch sehr schnell sehr dünn. Aber das hängt natürlich auch stark davon ab, wie das Preismodell von AMD dafür genau aussieht und wie einfach es in der Praxis ist, einen SoC nach seinen Vorstellungen basteln zu lassen.

LadyWhirlwind
2013-06-01, 01:51:53
was mir jetzt schön länger auf der Leber liegt:

Wäre es möglich das in Zukunft auch PC / Notebook Hersteller Customdesign von AMD nutzt? oder sind dafür die (einmal)Kosten für die Maske usw einfach viel zu teuer?

Nein. Sehr unwahrscheinlich. AMD wird für alle relevanten Anwendungsbereiche den OEMs vorgefertigte SOCs anbieten, den alles was einem PC Hersteller einen konkurenzvorteil verschaft, verschafft AMD auch einen Gegenüber Intel. Das auf einen Hersteller zu beschränken wäre äusserst dämlich von AMD und ohne exklusiv Vertrag lohnt es sich nicht.

Schaffe89
2013-06-01, 13:51:50
]Nein, er meinte die Baumaschinen als Ganzes. Lies das Statement. Es ist sehr klar formuliert.

Wo kann ich das herauslesen? Ich hab nun das ganze Statement durch und erkenne da beim besten Wilen nichts eindeutiges.
Man will sich wohl lediglich dem Namen Bulldozer entledigen, so sehe ich das zumindest.
Wahrscheinlich wird der Name auf keinen Folien die kommen jemals wieder auftauchen.

S940
2013-06-01, 16:16:43
Natürlich nicht genau die XBOne- oder PS4-Chips. Aber insgesamt dürfte sich das höchstens bei sehr großen angepeilten Stückzahlen lohnen. Allein der Maskensatz kostet ein paar Milliönchen und die Entwicklung natürlich auch. Da muß man sehen, ob das den Mehrpreis gegenüber Standardkomponenten rechtfertigt. Im Normalfall dürfte das nicht so sein, daß irgendein PC- oder Notebookhersteller das -zig Millionen Risiko dafür auf sich nimmt. Apple könnte es vielleicht (wenn sie wollen würden, was sie vermutlich nicht tun), aber danach wird es dann auch sehr schnell sehr dünn. Aber das hängt natürlich auch stark davon ab, wie das Preismodell von AMD dafür genau aussieht und wie einfach es in der Praxis ist, einen SoC nach seinen Vorstellungen basteln zu lassen.
Ein AMDler hat letztens in nem Investorengespräch interessante Finanzdetails veröffentlicht. Der sagte so ein SoC kostete 30 Mio. Dollar in der Entwicklung ne "normale" CPU dagegen 400 Mio. Dabei wäre ein SoC auch noch schneller fertig, dafür wurden 18 Monate genannt, für die CPU dagegen 3,5 Jahre, also 42 Monate.

Schaffe89
2013-06-01, 17:18:58
Naja, bei der relativ schwachen Vorstellung von Haswell ist das eigentlich ein Geschenk für AMD.

Bei der CB Spieleleistung liegt ein FX-8350 gerade einmal 28% hinter einem i7 4770k und das im CPU Limit, da sollte Steamroller eigentlich rankommen können.

Knuddelbearli
2013-06-01, 17:22:29
naja das probhlem ist das es stark je nach spiel abweicht in manchen ist man gleichauf ( auch ohne gpu limit ) in anderen liegt man über 50% hinten

S940
2013-06-01, 17:22:45
Bei der CB Spieleleistung liegt ein FX-8350 gerade einmal 28% hinter einem i7 4770k und das im CPU Limit, da sollte Steamroller eigentlich rankommen können.Ein Steamroller-FX mit L3 Cache ja - aber obs sowas geben wird ... weiss man nicht :(

Undertaker
2013-06-01, 17:27:32
Naja, bei der relativ schwachen Vorstellung von Haswell ist das eigentlich ein Geschenk für AMD.

Bei der CB Spieleleistung liegt ein FX-8350 gerade einmal 28% hinter einem i7 4770k und das im CPU Limit, da sollte Steamroller eigentlich rankommen können.

28% dahinter, also ist der 4770K 38% schneller. Das soll Steamroller aufholen? Selbst 20% Mehrleistung wäre schon ein großer Schritt, aber kaum mehr als Sandy Bridge Niveau. Die letzten Generationssprünge brachten im Mittel gar nur jeweils rund 10%.

Tomahawk
2013-06-01, 17:34:16
Naja, bei der relativ schwachen Vorstellung von Haswell ist das eigentlich ein Geschenk für AMD.

Bitte was? Was spielt es bitte für eine Rolle, ob Intel deutlich schneller oder sehr deutlich schneller ist? An dem Punkt, dass AMD weit abgeschlagen hinterherhinkt ändert sich nichts. Ganz im Gegenteil, Intel greift sogar AMDs letzten Vorteil, die bessere iGPU, an.

Skysnake
2013-06-01, 17:44:35
Das aber nur mit sehr bescheidenem Erfolg.

Sie hinken trotzdem noch massig hinterher, und die neuen APUs von AMD stehen ja in den Startlöchern, der Abstand wird also eher wieder etwas größer.

Vor allem sieht man aber, das Intel doch ziemliche Probleme damit hat CPU und iGPU auf einen DIE zu packen.

Godmode
2013-06-01, 17:57:31
Das aber nur mit sehr bescheidenem Erfolg.

Sie hinken trotzdem noch massig hinterher, und die neuen APUs von AMD stehen ja in den Startlöchern, der Abstand wird also eher wieder etwas größer.

Vor allem sieht man aber, das Intel doch ziemliche Probleme damit hat CPU und iGPU auf einen DIE zu packen.

Die Frage ist ob sie Probleme haben oder ob sie einfach nicht mehr machen, weil es für den Markt reicht. Ich denke eher das zweiteres überwiegt.

mboeller
2013-06-01, 21:28:07
Die letzten Generationssprünge brachten im Mittel gar nur jeweils rund 10%.

Welche Generationssprünge???

Du willst doch wohl nicht wirklich das minor bugfxing für Vishera/Trinity oder jetzt Richland als Generationssprünge bezeichnen?

Undertaker
2013-06-02, 09:56:36
Welche Generationssprünge???

Du willst doch wohl nicht wirklich das minor bugfxing für Vishera/Trinity oder jetzt Richland als Generationssprünge bezeichnen?

Wenn wir Thuban -> Zambezi nehmen, sieht's aber noch schlechter aus. ;) Im Mittel sind wir zuletzt allerdings bei ~10% pro Jahr gewesen. Das die nächste Generation plötzlich 40% draufpackt, ist imo praktisch unmöglich, zumal 28nm zu 32nm wohl nur minimale Fertigungsvorteile bietet.

Loeschzwerg
2013-06-02, 18:55:17
Wie ist denn eure Meinung zu der FX "5GHz" News:
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Geruecht-AMD-FX-9000-5-GHZ-220-Watt-TDP-1072166/

Ich kann mir nicht helfen, aber wie will man denn 220Watt TDP an den Endkunden bringen ohne ständig mit abrauchenden Boards/CPUs konfrontiert zu werden.

Als Prestige Objekt wie damals Quadfather halte ich das auch überzogen und dürfte eher nach hinten losgehen (Effizienz noch weiter in den Keller).

Also Fake News? Aus dem 32nm Verfahren dürfte sich auch nichts mehr rausholen lassen, dafür gab es ja Vishera.

maximus_hertus
2013-06-02, 19:28:00
220W TDP?! WTF? 140W, ja klar, gab es ja schon mehrmals. 150W, ok, gibts auch noch. Aber 220W? Kann ich mir nicht vorstellen. Selbst wenn sowas kommen würde (konjunktiv), wäre es defakto eine neue Plattform, da kein AM3+ Board wohl eine 220W-Versorgung @ Stock hinkriegen würde. Und abgesehen davon, was soll ein FX 4,8 GHz jetzt bringen? Im besten(!) Fall +20%, realtistisch eher 10-15% Mehrperformance (ohne GPU oder sonstige Limits). Das reicht nicht für einen Core i7-4770K @ Stock.

Sagt mal, ist euch auch aufgefallen, dass beim Computerbase Haswell Launch der FX8350 sowohl in Games als auch bei Anwendungen nur noch 3% schneller als der FX8150 sein soll? Da kann doch irgendwas nicht stimmen?

S940
2013-06-02, 19:49:32
Das Ganze ist n schlechter Witz, aber vermutlich handelt AMD nach dem Motto "Ist der Ruf erst ruiniert, verbraucht sich Strom ganz ungeniert."

220W sind dabei nicht das Riesenproblem, OC-Bretter mit 8+2 Phasen schaffen das schon und abrauchen wird auch nichts, da die 220W-Typen sicherlich nur auf sehr wenigen Brettern freigegeben werden.

Und dafür, dass sich nicht irgendein DAU die CPU auf sein 50 Euro Brett mit zweieinhalb Spannungswandler dübelt wird der Preis sorgen, 800 Dollar zahlen nur die dicksten Hardcorefans.

gnahr
2013-06-02, 19:54:09
the return of the backplate-cooler. :D
(weil aio-wasserkühler haben sie ja schon beigelegt.)

//wer erinnert sich noch an die massig abrauchenden bretter vor 5 jahren?
damals waren 125watt bereits serienmäßig zu viel für nen freigegebenen chipsatz.

Ronny145
2013-06-02, 20:03:10
Sagt mal, ist euch auch aufgefallen, dass beim Computerbase Haswell Launch der FX8350 sowohl in Games als auch bei Anwendungen nur noch 3% schneller als der FX8150 sein soll? Da kann doch irgendwas nicht stimmen?


Tatsächlich. CB11.5 und Truecrypt nach zu urteilen hat der FX-8150 zugelegt, folglich die kleinere Differenz.

boxleitnerb
2013-06-02, 20:12:42
Und wie soll das passiert sein? Da liegt offensichtlich ein Fehler vor.

maximus_hertus
2013-06-02, 20:17:24
Wie kann ein Prozessor zulegen? Vor allem war der FX8350 in Games deutlichst(!) vor dem FX8150. Ich meine rund 15-20% Vorsprung? Ich schaue gerade den Vishera Launchartikel und da waren es wirklich +20% zum FX8150.... sehr sehr seltsam.

Ronny145
2013-06-02, 20:21:29
Und wie soll das passiert sein? Da liegt offensichtlich ein Fehler vor.



Entweder Bios (Agesa) mit besserer Performance oder Messfehler.

boxleitnerb
2013-06-02, 20:24:00
Ich tippe auf Letzteres. Bei gleichem Takt sollten es immer noch mindestens 10% sein. Etwaige Performanceschübe sollten dem 8350 doch genauso zugute kommen.

S940
2013-06-02, 20:24:41
Wie kann ein Prozessor zulegen? Vor allem war der FX8350 in Games deutlichst(!) vor dem FX8150. Ich meine rund 15-20% Vorsprung? Ich schaue gerade den Vishera Launchartikel und da waren es wirklich +20% zum FX8150.... sehr sehr seltsam.
Eventuell sind sie bei CB in der Zeile verrutscht? Welche Werte hat der 8320? Der könnte doch so ~3% vor nem 8150 liegen, oder?

Trap
2013-06-02, 20:27:25
Wenn man die Testsysteme vergleicht:
neu: http://www.computerbase.de/artikel/prozessoren/2013/intel-haswell-prozessor-fuer-desktop-pcs-im-test/21/
alt: http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/15/

Kommen eigentlich nur 2 Möglichkeiten für eine echte Ursache in Frage: Bios-Version und Windows 7 vs. Windows 8

maximus_hertus
2013-06-02, 20:27:37
CB hat nur den FX8350 getestet, keinen FX8320. Also weder zum Launch noch naträglich.

Schaffe89
2013-06-02, 21:01:02
Das die nächste Generation plötzlich 40% draufpackt, ist imo praktisch unmöglich, zumal 28nm zu 32nm wohl nur minimale Fertigungsvorteile bietet.

Naja, Vishera hat auf Zambezi bereits 20% mehr Spieleleistung draufgepackt und 40% meine ich ja nicht, sondern eher so ~25 bis 30%, das verstehe ich uter "Herankommen" ich verstehe darunter nicht einholen oder überflügeln.

Und wie soll das passiert sein? Da liegt offensichtlich ein Fehler vor.

Natürlich ist das ein Fehler, der FX-8150 müsste im Cinebench alleine schon deutlich langsamer sein. Windows 8 bringt etwas, aber weder holt es die fehlende IPC auf Vishera auf, noch verrigert sie den Abstand zwischen FX-8350 und FX-8150, an könnte höchstens ein oder 2 Prozent erwarten, aufgrund des besser greifen Turbos, aber das müssten trotzdem in Anwendungen rund 10% differenz sein und in Spielen wohl ca 15% Differenz.

Es gibt ja schon einige Reviews die ich gelesen hab mit Windows 8 und da waren die Abstände genauso wie bei Windows 7 mit Ausnahme von 1 bis 2%.

Kapier nicht wie man das übersehen kann und dann noch mit aller Borniertheit in den Fließtext schreiben, ja die FX holen auf.

Noch ein Wort wollen wir mit Blick auf die Ergebnisse zum neuen Testsystem verlieren. Von unserem neuen Parcours profitieren unter anderem die AMD-Prozessoren auf Basis der „Bulldozer“-Architektur, insbesondere das erste Modell. Beide FX-Modelle verbessern sich dank Windows 8 und weiter auf Parallelisierung ausgelegten Programmen und Spielen doch recht deutlich gegenüber dem alten Testsystem und rangieren nun vor dem alteingesessenen Core i5-2500K.

Spätestens da hätte man vielleicht kurz mal erwähnen können, wie es ein Prozessor schafft IPC hürden und Takthürden zu überflügeln und aus 20% weniger Spieleperformance nurnoch 3% zu machen.

Ronny145
2013-06-02, 21:10:02
Wenn man die Testsysteme vergleicht:
neu: http://www.computerbase.de/artikel/prozessoren/2013/intel-haswell-prozessor-fuer-desktop-pcs-im-test/21/
alt: http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/15/

Kommen eigentlich nur 2 Möglichkeiten für eine echte Ursache in Frage: Bios-Version und Windows 7 vs. Windows 8


Asus Crosshair V Formula (AMD 990FX + SB950) – Sockel AM3+ – Revision 1.02G – BIOS/EFI 1703 vom 17. Oktober 2012

Asus Crosshair V Formula (AMD 990FX + SB950) – Sockel AM3+ – Revision 1.02G – BIOS 1605 vom 26. September 2012

1605= Agesa V1.2.0.4
1703= Agesa V1.5.0.0

Das ist jedenfalls ein major Agesa update. Windows 8 bringt in Tests mit Bulldozer kaum was, zumal doch dann Vishera auch profitieren müsste. Bios oder Messfehler.

Undertaker
2013-06-02, 22:02:18
Naja, Vishera hat auf Zambezi bereits 20% mehr Spieleleistung draufgepackt und 40% meine ich ja nicht, sondern eher so ~25 bis 30%, das verstehe ich uter "Herankommen" ich verstehe darunter nicht einholen oder überflügeln.

Die Mehrleistung von Vishera verbuche ich mal als das, was bei Zambezi gegenüber Thuban gefehlt hat (denn da gab es fast keine Steigerung). Das man jetzt mal eben mit jedem weiteren Schritt in diesem Ausmaß zulegen kann, ist imo kaum möglich - das gab es auch bei Intel eigentlich nie. Große Frage bleibt natürlich, wie sich 28nm ggü. 32nm so verhält.

robbitop
2013-06-03, 14:46:51
Wenn wir Thuban -> Zambezi nehmen, sieht's aber noch schlechter aus. ;) Im Mittel sind wir zuletzt allerdings bei ~10% pro Jahr gewesen. Das die nächste Generation plötzlich 40% draufpackt, ist imo praktisch unmöglich, zumal 28nm zu 32nm wohl nur minimale Fertigungsvorteile bietet.
Naja das jetzige Design hat keine besonders gute IPC und das trotz Integration einiger IPC bringender Features. Da sollte noch einiges an Potenzial im Öffnen von Flaschenhälsen bereitliegen.

sloth9
2013-06-05, 07:49:04
AMD "mag" den Bulldozer ja inzw. auch nicht mehr...

fondness
2013-06-05, 09:12:40
AMD "mag" den Bulldozer ja inzw. auch nicht mehr...

Der Bulldozer wird auch nicht mehr verkauft.