PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bulldozer-Pleite => AMD pleite 2014? Eine vorgezogene Grabrede...


Seiten : 1 2 3 [4] 5 6

S940
2013-01-02, 22:44:15
Das bedeutet dann leider zwangsläufig, dass wir im Desktop und non SFF Mobil Markt ein Monopol bekommen werden...Naja, kommt drauf an. Ich sehe noch ne kleine Chance bei der Kostenreduktion. Wenn sie es sich leisten können selbige auch an den Kunden weiterzugeben, dann könnte es sich schon rentieren doch auf AMD zu setzen.

Zwar ist ein Intel K Modell "zukunftssicherer", aber wenn ich für nur wenig mehr stattdessen 2 brauchbare AMD Chips bekäme (einen aktuellen und dann in 2-3 Jahren nen schnelleren als upgrade), dann wärs ne Option, v.a. wenn AMD das OC auch bei den billigeren Chips nicht limitiert.

Aktuell kann man für preisbewußte Leute, die OC nicht scheuen, doch schon guten Gewissens nen FX-6300 empfehlen. 6 Threads reichen und selbst mit OC wird er nicht soo super heiß wie der 8Core. Blöd nur dass die Plattform am Ende ist, ein Upgrade wirds in dem Fall nicht geben.

Edit:
P.S: AMD hat den übergangs CFO zum Chef-CFO befördert:
http://www.planet3dnow.de/vbulletin/showthread.php?t=410156

Passt hier auch rein, denke ich. Immerhin mal einer der bleibt :freak:

=Floi=
2013-01-02, 23:07:59
Passt hier auch rein, denke ich. Immerhin mal einer der bleibt :freak:

ein bild von der unterzeichnung des neuen vertrages:
http://www.serienoldies.de/images/pippi-papa.jpg

;D :freak:

Skysnake
2013-01-02, 23:41:22
Wann kauft den Laden denn endlich mal jemand? Ist ja kaum mitanzuschauen. Für 2 Mrd. kriegt man da ne komplette GPU und CPU Entwicklung mit viel Know-How und nem exklusiven Fertigungspartner. Da muss doch mal jemand zuschlagen (Apple)!?
Wie ich schon in einem anderen Thread schrieb: die Firma hat fertig. Ist eine Frage der Zeit bis sie Insolvenz anmelden.

AMD hat im letzten (ca) Monat ~30% an Wert hinzugewonnen. Ich beis mir ja in den Arsch nicht doch Aktien gekauft zu haben -.-

Also von daher, wenn da niemand AMD gekauft hat, dann wird er es jetzt schon gleich 10 mal nicht machen. Mal so ~30% mehr hinlegen macht keiner.

Ansonsten sollte man die "Toten" auch nicht zu früh ins Grab schmeisen. Totgesagte leben ja bekanntlich länger :rolleyes:

disap.ed
2013-01-03, 06:10:23
Ich denke auch dass es zu früh ist AMD abzuschreiben.

Kabini scheint ja recht gut zu werden und wird wohl auch für den Notebook-Markt interessant. Am Desktop-Markt wird's wohl dieses Jahr ein bisschen härter, aber ich denke nächstes Jahr wird man sich da auch ein wenig erholen (von echter Konkurrenz zu Intel wird man wohl nicht sprechen können).

Man muss jetzt einfach die Umstruktierung durchziehen und seine Kernmannschaft finden, ARM hat AFAIK noch viel weniger Leute und bringen auch überzeugende Designs zusammen.

Nichts desto trotz denke ich mal, dass früher oder später einer den Laden übernehmen wird, Qualcomm ist ja schon öfters gefallen, wäre IMO nicht der schlechteste Partner.

V2.0
2013-01-03, 07:09:59
AMD muss sich nur den Desktop-CPUs trennen. Da ist sowieso ne sterbende Art und für die typischen Office-Rechner reichen auch APUs die man für den mobilen Einsatz optimiert. Schlimmer war der Verkauf der Mobilsparte an Qualcomm, das wird man böse bereuen.

robbitop
2013-01-03, 09:42:07
Naja die große APU ist sowohl eine Desktop, Server als auch Mobil CPU. Die müsste nur "gut genug" werden. Und genau hier liegt im Moment AMDs größtes Problem. Design und Fertigungsprozess sind beide nicht so doll. Und zumindest der Prozess hat lausige Zukunftsaussichten, wenn man den Jungs bei Planet3DNow glauben darf. Kein echter (S)HP-Prozess für >32 nm bei keiner Foundry. Alle machen hauptsächlich LP. Der Verkaf der Fabriken tut nun doppelt weh.

HOT
2013-01-03, 15:09:48
AMD muss sich von garnichts trennen. Die müssen nur solange überleben, bis die Foundries den Abstand zu Intel etwas verringert haben. Wenn die Gerüchte über den neuen 22nm-Atom stimmen, wird es die ganze Branche schwer haben, nicht nur AMD. Da muss was passieren bei der Fertigung.

mrt
2013-01-03, 15:23:34
Naja die große APU ist sowohl eine Desktop, Server als auch Mobil CPU. Die müsste nur "gut genug" werden. Und genau hier liegt im Moment AMDs größtes Problem. Design und Fertigungsprozess sind beide nicht so doll. Und zumindest der Prozess hat lausige Zukunftsaussichten, wenn man den Jungs bei Planet3DNow glauben darf. Kein echter (S)HP-Prozess für >32 nm bei keiner Foundry. Alle machen hauptsächlich LP. Der Verkaf der Fabriken tut nun doppelt weh.
Man hört nur weniger von den Prozessen, geben tuts die schon nocht, die brauchen mehr Unternehmen als nur AMD. Aber du hast Recht, bei einem Design wie Bulli wären eigene Fabs eigentlich Pflicht.

HOT
2013-01-03, 15:24:14
AMD hätte auch mit der eigenen Fab den Anschluss verloren.

Knuddelbearli
2013-01-03, 15:38:39
weill ihnen das geld ausging unter anderem dank gewissen marktpraktiken von intel ^^

mrt
2013-01-03, 15:39:38
Stimmt zwar, aber die haben auch selbst genun Fehler gemacht zum Beispiel war der Kauf von ATi zu teuer, die abgebrochenen originalen K9 und K10 Projekte und so weiter.
@HOT
Das ist schwer zu sagen, ich denke nicht, dass GloFo den Prozess so anpasst wie es AMD in der Vergangenheit tat. Ein bissl mehr Takt und weniger Leistungsaufnahme wären sicher drinnen.

HOT
2013-01-03, 17:24:42
Ohne den ATI-Kauf wären die schon lange weg vom Fenster.

Unlimited
2013-01-03, 17:45:30
ATI war/ist AMDs letzte Bastion.
GloFo ist auch ein hohes Risiko für jeden potentiellen AMD-Käufer.
Die Verträge sind recht übel gestrickte -mit Strafzahlungen bewehrte- Zwangsabnahmeverpflichtungen.

=Floi=
2013-01-03, 17:56:43
Ohne den ATI-Kauf wären die schon lange weg vom Fenster.

sie hätten 5mrd$ mehr auf dem konto und könnten genau so gpus in ihre cpus integrieren. für amd selbst haben die integrierten gpus NULL vorteile. die teile sind viel zu groß und blähen die dies noch mehr auf. gewürdigt wird es auch nicht und außer unkosten hat amd selbst davon nichts.

zeigt mir ne community, welche die teile einsetzt! entweder ist die cpu zu schwach, oder es ist die gpu egal und man greift wieder zu intel.
für ein paar € bekommt man mit einer richtigen grafikkarte mehr grafikpower.

Coda
2013-01-03, 18:07:36
sie hätten 5mrd$ mehr auf dem konto und könnten genau so gpus in ihre cpus integrieren.
Aha, und die kommen aus der Luft?

für amd selbst haben die integrierten gpus NULL vorteile.
Genau, denn jeder hat noch einen großen Desktop-Rechner zuhause und die Konsolen-Deals kommen auch von allein.

zeigt mir ne community, welche die teile einsetzt!
Die "Community" macht nicht den Umsatz.

=Floi=
2013-01-03, 18:39:46
Aha, und die kommen aus der Luft?


Genau, denn jeder hat noch einen großen Desktop-Rechner zuhause und die Konsolen-Deals kommen auch von allein.


Die "Community" macht nicht den Umsatz.

für ne richtige konsole hat das teil doch auch zu wenig leistung. findest du persönlich das getrennte prinzip (zum start der konsole!) nicht auch besser, weil man so mehr leistung realisieren kann? gerade bei einer konsole zählt aufgrund der langen lebensdauer die leistung am stärksten.


aber nicht mal die freaks und geeks setzen darauf! hier im forum gibt es gefühlt mehr SB-E wie Llano besitzer. :rolleyes:
ich habe zumindest hier noch nicht wirklich viel darüber gelesen.


bevor ich sage, dass man die GPU auch zukaufen könnte zeige ich einfach auf die konkurrenz. Alle bis auf nvidia (gibt es wirklich nicht mehr?) kauf(t)en (intel kaufte lange dazu) die gpu-technik dazu und es funktionierte auch. Wäre es wirklich von nachteil, wenn die lizenzierte gpu nur noch 1/6 so groß wäre und für den destop reichen würde?

mrt
2013-01-03, 18:46:04
Ohne den ATI-Kauf wären die schon lange weg vom Fenster.
Das bestreit ich ja nicht, ich schrieb nur, dass der Kauf zu teuer war. ;)

Black-Scorpion
2013-01-03, 19:09:38
Wer denkt eigentlich das man mal eben eine Firma geschenkt bekommt die selbst überleben konnte? ATI ging es deutlich besser wie AMD jetzt und hätte auch allein weiter überlebt.

@Floi
Glaubst du selbst was du schreibst?

robbitop
2013-01-03, 19:19:46
OEMs und Notebookhersteller würden heute keine Nicht-SoCs mehr in ausreichenden Stückzahlen bestellen. Die Dinger senken die Kosten und den Flächenbedarf. Ohne APUs würden AMDs Verkäufe immer weiter absacken.
AMD kam leider deutlich zu spät mit APUs - Intel hatte genügend Zeit ähnliches vorzubereiten.
Vieleicht wäre es auch gar nicht nötig gewesen einen so großen GPU Teil zu verbauen.

Auch ATI hätte es allein schwer gehabt. NV kann mittelfristig nicht vom sinkenden GPU Absatz überleben. Deshalb bauen sie wie verrückt neue Standbeine: Tesla, Tegra, Quadro und auch zukünftig Denver und Nachfolger.
Als reiner GPU IHV würde man im sich wandelnden Markt nicht lange durchsetzen können.

Coda
2013-01-03, 19:44:28
für ne richtige konsole hat das teil doch auch zu wenig leistung. findest du persönlich das getrennte prinzip (zum start der konsole!) nicht auch besser, weil man so mehr leistung realisieren kann?
Nein. UMA hat entscheidende Vorteile und es wird in Zukunft keine getrennten Chips mehr geben. Das wird schlicht aussterben.

Loeschzwerg
2013-01-03, 19:47:51
Egal wie AMD nun ohne ATi dastehen würde, das aktuelle APU Design passt irgendwie nicht richtig auf den Desktop Markt und genau in dieser Hinsicht gebe ich Floi recht. Zu viel GPU Power die eigentlich keiner benötigt, aber den DIE groß und warm werden lassen.
Für Gamer ist diese Form von APU auch wieder nix, da bekommt man für ähnliches Geld mehr mit einer dedizierten Karte und ebenfalls im ITX Format. Also in welche Nische will AMD mit der FM2 Plattform? Klar haben APUs einen Sinn, aber in dieser Form?

Mit Kaveri kann die Sache natürlich komplett anders aussehen, aber der kommt mit 2014 hoffnunglos zu spät...

Einziger Hoffnungsträger bleibt aus meiner Sicht Kabini.

Auch ATI hätte es allein schwer gehabt. NV kann mittelfristig nicht vom sinkenden GPU Absatz überleben. Deshalb bauen sie wie verrückt neue Standbeine: Tesla, Tegra, Quadro und auch zukünftig Denver und Nachfolger.
Als reiner GPU IHV würde man im sich wandelnden Markt nicht lange durchsetzen können.

Stimmt absolut. NV kombiniert seine Hardware Produkte zudem ideal mit passenden Software Lösungen, sowas findet man bei AMD leider nicht so direkt.

Skysnake
2013-01-03, 19:49:13
Nein. UMA hat entscheidende Vorteile und es wird in Zukunft keine getrennten Chips mehr geben. Das wird schlicht aussterben.
/Sign

Allein schon wenn man sich das ganze drecks hin und her kopiere sparen kann, ist schon viel Wert.

Wenn dann noch irgendwann HSA funktioniert, und die APU selbstständig entscheidet, ob was auf die GPU ausgelagert wird, dann wirds göttlich, dann kann man sich nämlich in vielen Fällen OpenCL/CUDA sparen, und einfach C/C++ benutzen. Das würde wirklich SEHR viele Leute SEHR freuen.

Black-Scorpion
2013-01-03, 19:50:55
Auch ATI hätte es allein schwer gehabt. NV kann mittelfristig nicht vom sinkenden GPU Absatz überleben. Deshalb bauen sie wie verrückt neue Standbeine: Tesla, Tegra, Quadro und auch zukünftig Denver und Nachfolger.
Als reiner GPU IHV würde man im sich wandelnden Markt nicht lange durchsetzen können.
Du weißt aber schon das ATI in Bereichen unterwegs war wo Nvidia nicht mal wusste das es sie gibt? Natürlich überspitzt. Sie haben diese aufgegeben. Jetzt so zu tun als ob sie außer GPUs nichts hatten ist schon reichlich daneben.

y33H@
2013-01-03, 19:55:08
Wo war ATi denn unterwegs?

Loeschzwerg
2013-01-03, 19:55:30
Wenn dann noch irgendwann HSA funktioniert, und die APU selbstständig entscheidet, ob was auf die GPU ausgelagert wird, dann wirds göttlich, dann kann man sich nämlich in vielen Fällen OpenCL/CUDA sparen, und einfach C/C++ benutzen. Das würde wirklich SEHR viele Leute SEHR freuen.

Richtig, bis dahin ist es aber noch ein sehr sehr steiniger und schleppender Weg, gerade für AMD. Leider.

Wo war ATi denn unterwegs?

Hauptsächlich noch Multimedia (u.a. All in Wonder) und Embedded Bereich (Imageon), mehr fällt mir ehrlich gesagt auch nicht ein.

Edit: Und genau Imageon und Co gingen an Qualcomm... Super Entscheidung von AMD.

Windi
2013-01-03, 20:12:14
Der ATI Kauf war doch wirklich viel zu teuer.

Erst bezahlt AMD 5Mrd. für die Übernahme.
Dann braucht es ewig bis die ersten APU auf den Markt kommen.
Und dann verteuert die überdimensionierte Grafikeinheit den Prozessor auch noch massiv.

Ja, das AMD etwas machen musste war klar, aber die Übernahme von ATI war einfach keine gute Entscheidung. Man hätte auch was anderes machen können. Man hätte sich ein Grafikdesign lizenzieren und verbauen können. Oder man hätte sich eine kleinere Grafikchipschmiede gekrallt. S3 (Deltachrome) oder PowerVR (Kyro) hätten keine 5Mrd. gekostet.
Intel selbst zeigt ja gerade, das keine integrierte High-End Grafikleistung nötig ist. Sie muss für Office und Internet ausreichen, für Spiele nicht.

fondness
2013-01-03, 20:21:24
Das Problem war das man ATI zum denkbar ungünstigsten Zeitpunkt gekauft hat. R580 war gerade am Markt, ATI hatte seit R300 fast durchgehend die Performance-Krone und war führend im Desktop- und erst recht im Notebookbereich. Auch Chipsätze, gerade für die Intel-Plattform verkauften sich prächtig. Der Aktienkurs war dementsprechend hoch. Das R600 danach derart floppte und G80 derart einschlug ahnte niemand. Ein halbes Jahr später hätte man ATi wohl locker zum halben Preis bekommen, aber nachher ist man immer schlauer.

Naitsabes
2013-01-03, 20:24:26
S3 gehört zu Via, welches widerum zu Formosa Plastics Group gehört und offensichtlich ist Via deren Hobby, denn ich bezweifel, dass Via wirklich profitabel ist - ob ein Kauf also wirklich möglich wäre? ;)

Black-Scorpion
2013-01-03, 21:12:09
Wo war ATi denn unterwegs?
http://www.ati.com/products/settopwonderxilleon/features.html

Das z.B. hatte ATI noch im Programm. Und das sogar sehr erfolgreich in den Boxen der kanadischen Kabelbetreiber. Leider wurde auch der Bereich verkauft und ging 2008 an Broadcom

y33H@
2013-01-03, 21:19:25
Wenn das so erfolgreich war, warum wurde dann verkauft? Und warum Imageon? Gerade letzteres könnte heute Trumpf sein.

Black-Scorpion
2013-01-03, 21:31:43
Beides wurde von AMD verkauft und nicht von ATI. Hat vielleicht nicht ins eigene Programm gepasst. Bereut hat man sicher schon manches. Nur ist es jetzt halt zu spät. Gerade mein Beispiel zeigt das man es aktuell gut gebrauchen könnte. Boxen und Fernseher (IDTV) sind die Renner.

Dural
2013-01-04, 00:28:03
dementsprechend hoch. Das R600 danach derart floppte und G80 derart einschlug ahnte niemand. Ein halbes Jahr später hätte man ATi wohl locker zum halben Preis bekommen, aber nachher ist man immer schlauer.

das glaube ich hingegen nicht, AMD wusste da ziemlich sicher bescheid, wo hin die grobe richtung von NV und ATi führte.

zudem wurde schon mehrfach bestätigt das AMD ATi eigentlich gar nie wollte sondern eben NV, nur wollte NV dies nur unter bestimmten bedingungen einer fusion, die AMD aber nicht wollte.

heute ist man halt schlauer, eine AMD NV fusion wäre garantiert besser gewesen als der ATi kauf. dafür würde es heute wohl kein ATi mehr geben und wäre früher oder später zu Intel gewandert.



eventuell kauf NV doch noch AMD, diese gerüchte gibt es ja schon seit über 10 jahren...

http://www.hartware.de/news_22616.html

Loeschzwerg
2013-01-04, 07:45:20
Beides wurde von AMD verkauft und nicht von ATI. Hat vielleicht nicht ins eigene Programm gepasst. Bereut hat man sicher schon manches. Nur ist es jetzt halt zu spät. Gerade mein Beispiel zeigt das man es aktuell gut gebrauchen könnte. Boxen und Fernseher (IDTV) sind die Renner.

Mitte 2008 (Xilleon für 190Mio USD) bzw. Ende 2008 (Imageon für 65Mio USD ) war der Trend eigentlich absehbar und wirklich viel Geld hat man durch den Verkauf nicht gemacht... dafür ordentlich an Know How verloren.

Schlichtweg eine fatale Fehlentscheidung! Sämtliche Global Player in der IT Welt kaufen Startups oder kleine Bereiche anderer Unternehmen um Know-How zu erwerben, AMD macht jedoch genau das Gegenteil und baut zudem Entwicklungsressourcen ab...

Klar ist die Neuorganisation bei AMD wichtig, man darf sich dabei nur nicht kaputt sparen und Ressourcen für wichtige Trendentwicklungen kappen.

Außer der x86 Lizenz und einiger Patente dürfte sich für NV der Kauf wohl nicht lohnen :D

Skysnake
2013-01-04, 09:45:28
Naja, man hatte sich wohl von BD einfach mehr erwartet, und gedacht, das es das wieder raus reist.

Loeschzwerg
2013-01-04, 10:03:26
Ich denke für ein Design wie Bulldozer war es einfach zu früh (im Hinblick auf Software), wenn man die Fehler im Detail mal außen vor lässt.
Vielleicht wäre es sinnvoller gewesen für die nächste Generation auf das alte Pferd mit DIE Shrink zu setzen. Die gewonnene Zeit hätte man in Optimierungen von BD verwenden können und/oder direkt zu Steamroller. Irgendwo muss man bei AMD doch den fauligen Braten schon gerochen haben?!
Schlechter als jetzt würde AMD damit sicherlich auch nicht dastehen.

grobi
2013-01-04, 10:15:07
Ich denke für ein Design wie Bulldozer war es einfach zu früh (im Hinblick auf Software), wenn man die Fehler im Detail mal außen vor lässt.
Vielleicht wäre es sinnvoller gewesen für die nächste Generation auf das alte Pferd mit DIE Shrink zu setzen. Die gewonnene Zeit hätte man in Optimierungen von BD verwenden können und/oder direkt zu Steamroller. Irgendwo muss man bei AMD doch den fauligen Braten schon gerochen haben?!
Schlechter als jetzt würde AMD damit sicherlich auch nicht dastehen.

Die frage ist auch ob das Phenom design ohne Probleme hätte aufgebohrt werden können.


Mfg grobi

Skysnake
2013-01-04, 10:17:28
Naja, das Problem bei BD ist halt der Decoder und der wirklich unterirdische Cache Durchsatz.

BD ist ja bzgl Multithread nicht wirklich schlecht, vor allem wenn die "Fehler" ausgebügelt würden, wäre das Design wohl sogar konkurrenzfähig. Ne CPU-Designen ist aber halt nicht wirklich trivial. Vor allem nicht wenn die Kapitaldecke dünn ist. In dem Design steckt meiner Meinung nach wirklich viel Potenzial. Ich würde nur die FPU wieder aufbohren, und bei Single-Thread-Int Code eben einen kleinen Rückstand in Kauf nehmen. Die Flex FPU an und für sich ist auf jeden Fall ne tolle Idee. Vor allem wenn man die noch durch iGPU-ALUs teilweise ersetzen/erweitern würde, könnte man so was XeonPhi mäßiges erhalten. Das würde auch ins HSA Konzept passen.

Also wie gesagt, Potenzial ist da schon verdammt viel vorhanden. Fragt sich eben nur, wie viel davon AMD umgesetzt bekommt, und wie Sie mit Problemen umgehen können. Genau das bricht ja immer wieder ASIC-Herstellern das Genick. Sie haben einen Chip, der eigentlich fucking good ist, aber irgendwo steckt nen kleiner Fehler drin und man bekommt den Chip deswegen einfach nichts ans laufen, das dann Verzögerungen mit sich bringt und Geld kostet, und dann tata hat einen die Konkurrenz doch schon wieder eingeholt und man bekommt den Rest.

Das gleiche Schicksal erleidet doch im Moment auch immer wieder nVidia. Sie haben coole Sachen, brauchen teils aber einfach zu lange um es wirklich auf den Markt zu bringen und sind daher wenns wirklich da ist nicht mehr wirklich sooo besonders.

Exxtreme
2013-01-04, 10:50:54
Naja, das Problem bei BD ist halt der Decoder und der wirklich unterirdische Cache Durchsatz.


Wobei das wohl Absicht ist. Da der BD ansonsten den Hitzetod sterben würde.

Skysnake
2013-01-04, 11:09:53
Dann würde ich aber eher die Performance der anderen Caches stutzen, oder die Taktrate senken. So macht das immo wenig Sinn.

Coda
2013-01-04, 13:12:35
Vor allem wenn man die noch durch iGPU-ALUs teilweise ersetzen/erweitern würde, könnte man so was XeonPhi mäßiges erhalten. Das würde auch ins HSA Konzept passen.
Das wird nicht passieren. GPU-ALUs haben völlig andere Latenz/Durchsatz-Anforderungen.

StefanV
2013-01-04, 14:39:53
Wobei das wohl Absicht ist. Da der BD ansonsten den Hitzetod sterben würde.
Das ist, mit verlaub, Unsinn, was du hier erzählst.

Wenn die Cache Performance besser wäre und somit auch die Leistung selbst, könnte man den Takt niedriger ansetzen und ggF sogar die Spannung senken. Wenn wir jetzt einfach mal 3,5GHz fürs Top Modell annehmen würden und 3,8GHz Boost, würde ich nicht sagen wollen, dass die Leistungsaufnahme deutlich höher wäre. Ganz im Gegenteil, sie wäre vermutlich sogar deutlich geringer als das heute der Fall ist...

sklave_gottes
2013-01-04, 19:29:56
Das ist, mit verlaub, Unsinn, was du hier erzählst.

Wenn die Cache Performance besser wäre und somit auch die Leistung selbst, könnte man den Takt niedriger ansetzen und ggF sogar die Spannung senken. Wenn wir jetzt einfach mal 3,5GHz fürs Top Modell annehmen würden und 3,8GHz Boost, würde ich nicht sagen wollen, dass die Leistungsaufnahme deutlich höher wäre. Ganz im Gegenteil, sie wäre vermutlich sogar deutlich geringer als das heute der Fall ist...

Das hat er auch garnicht gesagt. Du redest an ihm vorbei.
Absicht das sich AMD für diesen Weg entschieden hat.....:wink:

Skysnake
2013-01-04, 19:56:28
Das wird nicht passieren. GPU-ALUs haben völlig andere Latenz/Durchsatz-Anforderungen.
Deswegen rede ich ja auch von "teilweise ersetzen/erweitern" ;)

Wenn man die Flex FPU auf 512/1024 Bit oder gar 2048 Bit Operanten aufbohren würde, könnte man ne CU der iGPU rein frickeln, und direkt den X86 Code darüber laufen lassen. Die FPU muss nicht alle Operationen gleich schnell abarbeiten können. Es reicht vollig aus, wenn man den jetzigen Umfang der Flex FPU oder gar weniger als x85-FPU mit scharfen Latenzen beibehalten würde. Den ganzen SSE/AVX Kram könnte man aber auf die GPU-ALUs mappen. Die höhere Latenz stört da im Allgemeinen eh nicht.

Wenn man das geschickt macht, könnte man eventuell sogar mittels des Instructionwindows schauen, ob man das Ergebnis eventuell demnächst braucht. Wenn nicht, kann man Befehle zusammen packen und in die effizienteren ALUs packen.
Das bedarf dann zwar einiger Logik, sollte aber noch im Rahmen bleiben. Man kanns ja recht einfach machen und entsprechend der letzten Entscheidung für diesen Codeabschnitt fällen. Also praktisch etwas wie ne Branchprediktion, nur eben für FPU-Code.

Ich fände die Sache wirklich spannend, wenn man AVX usw. eben direkt auf eher dafür geeignete Einheiten mappt. Wenn ich so was benutze, dann interessiert mich im Allgemeinen eher der Durchsatz und nicht die Latenz.

Coda
2013-01-04, 20:35:29
Die höhere Latenz stört da im Allgemeinen eh nicht.
Ich muss es beim Namen nennen: Selten so einen Schwachsinn gelesen.

Du willst mir wirklich weismachen, dass es "nicht stört", wenn ich das Ergebnis einer Addition erst nach >10 Takten wieder aus dem Register weiterbenutzen kann und bei jeglichem SIMD-Code der Welt immer genügend unabhängige Instructions im Window sind, dass das egal wäre. Klar.

Exxtreme
2013-01-04, 22:40:13
Das ist, mit verlaub, Unsinn, was du hier erzählst.

Wenn die Cache Performance besser wäre und somit auch die Leistung selbst, könnte man den Takt niedriger ansetzen und ggF sogar die Spannung senken. Wenn wir jetzt einfach mal 3,5GHz fürs Top Modell annehmen würden und 3,8GHz Boost, würde ich nicht sagen wollen, dass die Leistungsaufnahme deutlich höher wäre. Ganz im Gegenteil, sie wäre vermutlich sogar deutlich geringer als das heute der Fall ist...
Vielleicht ... vielleicht auch nicht. Ich glaube, AMD hat schon das Optimum aus dem rausgeholt was ihnen beim BD zur Verfügung stand.

mugger
2013-01-04, 23:40:28
Ich bin seit 30 Jahren hobbymäßig in Sachen PC (C64>Amiga>PC & Konsolen) unterwegs.

Sieht leider nicht gut aus für AMD, vor Jahren waren die noch führend im geringen Idle Stromverbrauch (als quasi letzes Guthaben), aber da ist Intel auch schon besser.

Ich kaufte früher AMD, seit mind. 4 Jahren sehe ich keinen einzigen Grund AMD zu kaufen.

Mein Notebook hat zwar AMD, aber nur weil es das HP625 ist, welches ich für 170€ ergattern konte.

Leider läuft der Lüfter mir zu häufig, nächstes wird einen INTEl haben!

grobi
2013-01-04, 23:50:01
Ich bin seit 30 Jahren hobbymäßig in Sachen PC (C64>Amiga>PC & Konsolen) unterwegs.

Sieht leider nicht gut aus für AMD, vor Jahren waren die noch führend im geringen Idle Stromverbrauch (als quasi letzes Guthaben), aber da ist Intel auch schon besser.

Ich kaufte früher AMD, seit mind. 4 Jahren sehe ich keinen einzigen Grund AMD zu kaufen.

Mein Notebook hat zwar AMD, aber nur weil es das HP625 ist, welches ich für 170€ ergattern konte.

Leider läuft der Lüfter mir zu häufig, nächstes wird einen INTEl haben!


Du solltest dich bitte nochmal belesen und dich fragen was du so da von dir gibst. Im Idle nehmen sich beide nichts und dein Notebook naja lassen wir das.....

S940
2013-01-05, 11:15:12
Ich muss es beim Namen nennen: Selten so einen Schwachsinn gelesen.

Du willst mir wirklich weismachen, dass es "nicht stört", wenn ich das Ergebnis einer Addition erst nach >10 Takten wieder aus dem Register weiterbenutzen kann und bei jeglichem SIMD-Code der Welt immer genügend unabhängige Instructions im Window sind, dass das egal wäre. Klar.
Wir können da ja mal wieder die alte Patentgrafik aufwärmen:
http://www.abload.de/img/fusion_patent6mp3.jpg

Hat sich da mit GNC statt VLIW eventuell was geändert?

Vielleicht ... vielleicht auch nicht. Ich glaube, AMD hat schon das Optimum aus dem rausgeholt was ihnen beim BD zur Verfügung stand.Das auf keinen Fall, BD ist eher ein Prototypen-Schnellschuß kombiniert mit nem anfänglich schlechten Prozess. Vishera ist jetzt schon nen Zacken besser, auch der Herstellungsprozess wurde besser (der 8350 läuft schließlich volle 400 MHz schneller als der 8150, ziemlich beachtlich denke ich).
Bin schon lange auf die Steamroller-Kerne gespannt, bei denen gilts dann ob die BD-Arch. hopp oder topp ist. Sorgen bereitet mir da nur der eventuelle Bulk-Herstellungsprozess. Aber für nen IPC-Vergleich wär es ja egal.

@mugger:
Fürs hp625 gibts nen Lüfterpatch. Siehe hier:
http://www.planet3dnow.de/vbulletin/showthread.php?t=406144

N0Thing
2013-01-05, 13:22:57
Du solltest dich bitte nochmal belesen und dich fragen was du so da von dir gibst. Im Idle nehmen sich beide nichts und dein Notebook naja lassen wir das.....

15W Unterschied sind kein Gleichstand.

http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index23.php

Ronny145
2013-01-05, 13:34:57
15W Unterschied sind kein Gleichstand.

http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index23.php


Der Idle Verbrauch wird in Desktop Tests maßgeblich vom Mainboard bestimmt. Die CPUs bei AMD ab Llano und Bulldozer sind im Idle derzeit ebenbürtig. 1-2W hin oder her spielen da gar keine Rolle.

N0Thing
2013-01-05, 14:01:00
Der Idle Verbrauch wird in Desktop Tests maßgeblich vom Mainboard bestimmt. Die CPUs bei AMD ab Llano und Bulldozer sind im Idle derzeit ebenbürtig. 1-2W hin oder her spielen da gar keine Rolle.

Hätte nicht gedacht, daß es Unterschiede durch das Mainboard von 20W im idle (!) gibt. :eek: Aber bei der PC GAMES Hardware liegen die Prozessoren gleich auf und laut Text wurde für jeden Sockel das sparsamste Mainboard heran gezogen.

http://www.pcgameshardware.de/Core-i7-3970X-CPU-256536/Tests/Intel-Core-i7-3970X-Test-1041294/

Coda
2013-01-05, 14:44:00
Wir können da ja mal wieder die alte Patentgrafik aufwärmen:
http://www.abload.de/img/fusion_patent6mp3.jpg

Hat sich da mit GNC statt VLIW eventuell was geändert?
Was soll sich da geändert haben?

Nur weil man eine Idee als Patent aufschreibt, heißt das noch lange nicht, dass es jemals Verwendung finden würde. Das gilt für einen Großteil von dem was ich von NVIDIA und AMD so durchgesehen hab.

CPU FPUs sind handgemalte, auf Latenz optimierte riesige Circuits, die es tatsächlich schaffen in 4 Takten zu multiplizieren, mit read und write zum register file. Das ist ziemlich beeindruckend bei >3Ghz. Was glaubst du warum eine GPU so eine Space Density haben kann?

Richtig: Mehr Pipeline Stages und der Takt ist viel niedriger. Das kommt ja noch dazu, die ALUs würden den CPU-Takt gar nicht schaffen, das heißt die 10 Takte von mir vorher sind noch viel zu niedrig angesetzt. Das wären eher so >30.

Mal abgesehen davon, dass Zeug auf dem Die rumzuschieben so ziemlich das teuerste ist was es gibt wenn es um den Verbrauch des Chips geht.

mugger
2013-01-05, 23:19:31
Du solltest dich bitte nochmal belesen und dich fragen was du so da von dir gibst. Im Idle nehmen sich beide nichts und dein Notebook naja lassen wir das.....

"Besser" war vielleicht etwas missverständlich.

Ich meinte hier eig. das der (idle)AMD Vorteil weg ist.
Außerdem: in der Stromsparszene sind 2-3 Watt mehr viel.


Egal, muss ich mich heute entscheiden AMD oder Intel (= System)

Leistung: Intel
Stromsparer: Intel

Was nutzt mit ein AMD Vision 8 kerner, wenn die meisten Anwendungen APU nicht nutzen oder nur einen CPU Kern nutzen...

Deshalb, käme für mich AMD z.Zt. nicht in Frage und ich sehe auch keine Besserung... es ginge nur übern Preis und der ist meines Erachtens noch zu hoch um AMD zu kaufen.

Ist hart für AMD - is mir klar, aber so ist nuneinmal das Leben, rennste nicht schnell genug, wirste gefressen!

MR2
2013-01-06, 00:22:42
"Besser" war vielleicht etwas missverständlich.

Ich meinte hier eig. das der (idle)AMD Vorteil weg ist.
Außerdem: in der Stromsparszene sind 2-3 Watt mehr viel.


Egal, muss ich mich heute entscheiden AMD oder Intel (= System)

Leistung: Intel
Stromsparer: Intel

Was nutzt mit ein AMD Vision 8 kerner, wenn die meisten Anwendungen APU nicht nutzen oder nur einen CPU Kern nutzen...

Deshalb, käme für mich AMD z.Zt. nicht in Frage und ich sehe auch keine Besserung... es ginge nur übern Preis und der ist meines Erachtens noch zu hoch um AMD zu kaufen.

Ist hart für AMD - is mir klar, aber so ist nuneinmal das Leben, rennste nicht schnell genug, wirste gefressen!

Interessiert hier aber denke ich niemand....

Wenn ich schon Amiga lese.. aber jetzt Intel kaufen.
Wir waren 68000er Fans, ein Intel WC war die Achse des Bösen. Mit AMD habe ich mich anfreunden können, aber Intel?;D

=Floi=
2013-01-06, 05:14:05
ein goßes problem war auch das völlig übertriebene marketing! mit dem tuban hatten sie auch zu viel konkurrenz im eigenen haus. Ich sehe tuban noch immer als on top an.

Matrix316
2013-01-06, 14:17:34
Interessiert hier aber denke ich niemand....

Wenn ich schon Amiga lese.. aber jetzt Intel kaufen.
Wir waren 68000er Fans, ein Intel WC war die Achse des Bösen. Mit AMD habe ich mich anfreunden können, aber Intel?;D
Und AMD wie Amiga waren die beliebtesten bei den Gamern, aber haben dann den Anschluss an die Konkurrenz verloren...

Allerdings vor dem Duron war ich auf dem PC schon mal im Intel Lager. Ich hab zwar bis Ende 96 dem Amiga die Stange gehalten, aber auf dem PC war P/L ziemlich wichtig und da war AMD Anfangs immer noch eine Billigmarke. Der Athlon war mir dann noch etwas zu teuer. Erst ab Duron bzw. Athlon 64 war AMD IMO die Nummer 1 war Gaming betrifft (P/L).

Felixxz2
2013-01-07, 00:24:36
Deshalb, käme für mich AMD z.Zt. nicht in Frage und ich sehe auch keine Besserung... es ginge nur übern Preis und der ist meines Erachtens noch zu hoch um AMD zu kaufen.


Nö, AMD bietet mit Vishera ein besseres P/L als Intel.

boxleitnerb
2013-01-07, 05:03:06
Das kommt doch wohl darauf an, welchen Bereich man betrachtet. Multithreading ja, Singlethreading nein.

Felixxz2
2013-01-07, 06:54:40
Nö auch das nicht. Um 100€ ist man mit dem 6300 besser beraten als mit dem 3220 und der 8320 ist ebenfalls das bessere Angebot als der 3470, gerade auch deshalb weil man die Intels nicht OCen kann und ein übertakteter 8320 ist sogar in Spielen ähnlich schnell wie der 3470.

P/L ist sehr gut bei AMD IMO nur absolut ist die Leistung für Spiele halt nicht spitze.

Loeschzwerg
2013-01-07, 07:32:17
P/L ist beim 6300 zwar ok, ich investiere aber lieber 20€ mehr in einen i5-2450P mit echten 4 Kernen @ 3.20GHz gepaart mit einem ITX Board.

Für BD/Vishera gibt es nicht mal µATX mit der letzten Chipsatz Generation...

Aktuell habe ich einen 1050T (125Watt) auf einem Asus M4A88T-I Deluxe geschnallt. Ist zwar nicht freigegeben, läuft aber ohne Probleme übertaktet auf 3GHz.

Diese Option hätte ich auch gerne bei Vishera.

V2.0
2013-01-07, 07:35:37
Im Stromverbrauch ist ein OC 8320 und ein 3470 nicht vergleichbar. Folgekosten darf man auch nicht vergessen. Was die AMD CPU billiger ist, kann man gleich wieder für einen Kühler ausgeben.

Felixxz2
2013-01-07, 09:00:12
Zu pauschal. Wer jeden Tag stundenlang Last fährt, bei dem fällt das auf. Solche Leute benutzen meistens dann aber auch Anwendungen und da ist der Vishera viel schneller. Wer spielt denn schon jeden Tag im Jahr mehrere Stunden?

V2.0
2013-01-07, 09:06:32
Und wer nur unregelmäßig spielt soll weswegen OC betreiben, singlethread performance aufgeben und einen dickeren kühler kaufen?

Felixxz2
2013-01-07, 10:01:50
Auch fast kein Hardcoregamee wird im Schnitt jeden Tag stundenlang spielen.
Natürlich sind Intels zum Gamen besser. Aber Vishera ist trotzdem ein gutes Angebot und wer abseits vom Gamen öfter mal Anwendungen nutzt ist mit nem Vishera gut beraten.

Klar ein 3570K ist ein super Teil, aber in Sachen Anschaffung auch deutlich teurer (mit Board ~350€). Ein 6300 ist aber mit Board schon für 200€ zu haben, bietet trotzdem gute Performance und über den Stromverbrauch wirst du die 150€ nicht rausholen.

Noch dazu ist ein Vishera cool für Phenom II Nutzer mit AM3+/kompatiblem AM3 Board. Ein Ivy ist für Gamer natürlich trotzdem das bessere Angebot, sber Vishera ist auf jeden Fall nicht schlecht und hat seine Stärken und kann bedenkenlos gekauft werden. Das war bei BD nicht so.

V2.0
2013-01-07, 10:08:13
6300 ist wohl eher eine alternative zu einem i3 als einem i5k.

y33H@
2013-01-07, 10:11:54
Klar ein 3570K ist ein super Teil, aber in Sachen Anschaffung auch deutlich teurer (mit Board ~350€). Ein Board für 150 Euro? Sorry, aber das ist Bullshit. Ein Z77 Pro3 für unter 80 Euro tut's wunderbar.

boxleitnerb
2013-01-07, 10:15:25
Wird halt gern schöngerechnet. Gleiche Maßstäbe anlegen ist nicht jedermanns Sache. Leider.

y33H@
2013-01-07, 10:23:23
Ich bin ja der Meinung, dass der FX-6300 einem i3-3220 im Mittel vorzuziehen ist (außer man betreibt zu 90 Prozent Gaming und Office samt iNet), aber bei solchen "Kalkulationen" kann ich nur den Kopf schütteln. Für 24/7 OC ist das Mainboard heutzutage ziemlich egal sofern die richtige CPU drin sitzt und der richtige PCH.

V2.0
2013-01-07, 11:01:37
Wobei das ja wieder die gängigsten Nutzungen sind. Und wenn ich mir einen FX6300 mit boxed Kühler beim Renderung vorstelle, dann lieber den i3 + boxed.

HOT
2013-01-07, 12:18:49
Ein Board für 150 Euro? Sorry, aber das ist Bullshit. Ein Z77 Pro3 für unter 80 Euro tut's wunderbar.

Völlig richtig.

Dennoch interessant:

http://geizhals.at/de/783603

vs.

http://geizhals.at/de/754693

sind fast 20 Mücken. Nicht viel insgesamt aber dennoch erstaunlich.


Und einen Intel-Boxed-Lüfter würd ich genausowenig verwenden wie einen AMD-Boxed-Lüfter. Nur wenn es sich nicht verkneifen lässt. Beim I3 und Trinity oder so, wo die Rechner sowieso nur zum surfen benutzt werden, kann man sowas machen. Für einen qualitativ guten Rechner mit I5/I7/Xeon oder BD kommt der Boxed-Kühler eh nicht in Frage find ich. Das Argument zieht also nicht wirklich. Wichtiger ist da, dass man den Rechner auch leise bekommt, selbst unter Last. Das ist bei BD eher etwas schwieriger und erfordert das richtige Gehäuse und qualitativ gute Gehäuselüfter. Ist eine dicke Grafikkarte vorhanden, erübrigt sich dieses Problem aber, da dann eh Gehäuselüfter i.d.R. hermüssen.

In der Gesamtbetrachtung ist Intel zwar in allen Bereichen besser, wenn auch ganz geringfügig teurer, aber die Vorteile egalisieren sich ziemlich im Alltagsbetrieb.

Wobei das ja wieder die gängigsten Nutzungen sind. Und wenn ich mir einen FX6300 mit boxed Kühler beim Renderung vorstelle, dann lieber den i3 + boxed.

Die beiden sind kaum vergleichbar. Beim Standardspiel ist der I3 zwar oft gleichwertig, aber bei Anwendungen sieht das dann oft auch anders aus. Hier sieht man IPC vs. Parallelität am krassesten. In Anwendungen ist der I3 eher Trinity-Niveau.

=Floi=
2013-01-07, 13:03:10
bei mix sind es nur ~15€. der intel chipsatz wird mehr kosten und die amd platform hat keine igpu.
die genauen unterschiede der stromversorgung kennt man leider auch nicht. trotzdem ist die intel platform teurer. ok, das ist nunmal so. die 15€ sehe ich aber nicht wirklich als kritisch an.

Unlimited
2013-01-07, 23:53:11
Völlig richtig.
Dennoch interessant:

http://geizhals.at/de/783603
vs.
http://geizhals.at/de/754693

sind fast 20 Mücken. Nicht viel insgesamt aber dennoch erstaunlich.


Ohjeee, solche Mainboardvergleiche.... sehr gefährlich.
;) .. für den Geldbeutel...
Habe gerade herausgefunden, dass MB mit Displayport & UEFI inzwischen deutlich unter 100 EUR zu haben sind.
Z.B.
http://geizhals.at/de/789272

kunibätt
2013-01-08, 02:51:01
Gabs zu Phenom x6-Zeiten auf 35 €-Boards, btw :freak:

Ronny145
2013-01-08, 02:59:37
Gabs zu Phenom x6-Zeiten auf 35 €-Boards, btw :freak:


Mit Displayport sicher nicht.

Unlimited
2013-01-08, 17:11:20
Mit Displayport sicher nicht.

Kann ich mir auch nicht vorstellen. DP und UEFI.... Verflixt jetzt muss ichs nur noch schaffen, mein Kaufrausch noch ein, zwei Jahre zu bekämpfen.

AMD scheint sich derweil immer weiter von dem klassischen Desktopmarkt zu entfernen und möchte dennoch mit „Kabini“ Intel Ultrabook-Prozessoren Konkurrenz machen.
Wie auch immer das funktionieren mag, ich bin gespannt:

"In einem Renderbenchmark verrichtete die AMD-APU demnach die Arbeit deutlich schneller als ein Core i3-3217U"

Nanana, das glaube ich allerdings auch erst, wenn ich es
1. selber sehe
2. die Rahmenbedingungen kenne.
3. Erkenntnis über den Stromverbauch erlange.

http://www.computerbase.de/news/2013-01/amd-auf-der-ces-grober-fahrplan-fuer-2013/

y33H@
2013-01-08, 17:23:00
Der Render-Benchmark basierte auf Open CL, klar dass hier AMD mit der viel besseren iGPU das Rennen für sich entscheidet. Der gezeigte Kabini soll eine TDP von 15W haben, der 3217U kommt auf 17W.

Unlimited
2013-01-08, 17:27:13
Danke dir für den Hinweis.
15W einfach mal so betrachtet ist schon eine schöne Zahl, das muss man AMD lassen!

Dennoch, wen interessiert denn bitteschön wirklich die Grafikperformance einer CPU der Ultrabook-Klasse?
Hoffentlich entwickelt AMD da nicht einmal mehr an den Bedürfnissen vorbei.
Spätestens im Herbst 2013 wissen wir mehr.

Auch wenn MAD im Desktopbereich schwächelt, die Lücke im Ultrabook-Bereich ist ideal für AMD, da man dort nicht so extrem auf die Performance schielt.
Zumindest vom Stromverbrauch her scheint es zu passen.
Einige richtig günstige Kabini-Ultrabooks wären doch eine feine Sache auf die man sich echt freuen kann.

Ronny145
2013-01-08, 17:57:53
Bei OpenCL Benchmarks kommt es stark auf die OpenCL Implementierung vom Treiber und der Anwendungsoptimierung an. Da kann man sich leicht Rosinen rauspicken. Über die generelle Stärke einer GPU sagt das nichts. Auf der Basis vom Luxmark OpenCL Benchmark könnte man sonst behaupten, Intel hätte die stärkere iGPU. Der OpenCL 1.2 Treiber rechnet dort schneller als Trinity.

y33H@
2013-01-08, 18:01:38
AMD wird schon was genommen, was GCN gut liegt.

Ronny145
2013-01-08, 18:22:03
Natürlich, es sagt leider nichts über die Leistungsfähigkeit im Mittel aus. Mit 128 Shadern liegt Kabini nominell unter dem 17W Trinity mit 256 Shadern und somit auch unterhalb der HD4000 vom i3-3217U. Das kann GCN auch nicht mehr rausreißen.

Knuddelbearli
2013-01-08, 20:25:02
naja intel benutzt zwar imemr die HD4000 aber der hohe turbo takt ist da eher augenwischerei und der basis takt extrem niedrig

y33H@
2013-01-08, 20:48:21
Der Turbo liegt bei iGPU-Last die meiste Zeit an, selbst bei den ULVs.

Ronny145
2013-01-08, 20:52:21
naja intel benutzt zwar imemr die HD4000 aber der hohe turbo takt ist da eher augenwischerei und der basis takt extrem niedrig


Dir ist klar, dass es sich hierbei um eine dynamische Taktung handelt? Dir ist klar, dass die dynamische Frequenz je nach Auslastung der Anwendung unterschiedlich hoch takten kann? Dass die 17W HD4000 deutlich weniger Spielraum zur Verfügung hat, sollte klar sein......dachte ich bis jetzt. AMDs Maximalfrequenz wäre nach deiner Logik Augenwischerei, oder per se jeder Turbo/dynamische Frequenz? Und was hat das jetzt eigentlich mit meinem vorherigen Beitrag zu tun? Sehen wir uns die Bezeichnungen an, man beachte die zweite Ziffer.

HD7500
HD8400

Sie liegt niedriger beim A6 Kabini. Sicherlich nicht ohne Grund. 128 GCN vs 256 VLIW4. So viel höher wird Kabini mit Sicherheit nicht takten, um das auszugleichen.


Der Turbo liegt bei iGPU-Last die meiste Zeit an, selbst bei den ULVs.

Im Anandtech Test lag der im Schnitt bei 1000 Mhz. Es gibt eben nicht nur Basistakt und den maximalen.

Schaffe89
2013-01-08, 20:52:58
Gibt es dazu irgendwelche Beweise?
Ich bezweifel das @ y33H@.

fondness
2013-01-08, 21:01:58
HD7500
HD8400

Sie liegt niedriger beim A6 Kabini. Sicherlich nicht ohne Grund. 128 GCN vs 256 VLIW4. So viel höher wird Kabini mit Sicherheit nicht takten, um das auszugleichen.


GCN-ALUs sind aber schon deutlich effizienter wie die VLIW4-ALUs von Trinity. Allerdings hat Kabini wohl nur ein 64-bit SI, deshalb wird er kaum schneller sein. Dafür ist das gesamte System allerdings auch deutlich stromsparender ohne Chipsatz und mit nur einem Speicherkanal.

y33H@
2013-01-08, 21:04:22
Gibt es dazu irgendwelche Beweise? Ich bezweifel das @ y33H@.

*gähn* du zweifelst so manches an, was Fakt ist - wie üblich kann ich es belegen und in diesem Fall habe ich es auch selbst gemessen. Einmal Anand (http://www.anandtech.com/show/5878/mobile-ivy-bridge-hd-4000-investigation-realtime-igpu-clocks-on-ulv-vs-quadcore) bitte ... der 3427U (http://ark.intel.com/products/64903/Intel-Core-i5-3427U-Processor-3M-Cache-up-to-2_80-GHz) (17W) hat einen maximalen iGPU-Turbo von 1,15 GHz und einen Basistakt von 350 MHz. Die allermeiste Zeit liegt der Takt der iGPU deutlich über 1,0 GHz womit deine Zweifel widerlegt sind und ich Recht habe ...

EDIT
Ich lade dir sogar die Diagramme hoch ...

http://www.abload.de/thumb/batmanac-i5-3427uexl5b.png (http://www.abload.de/image.php?img=batmanac-i5-3427uexl5b.png) http://www.abload.de/thumb/battlefield3-i5-3427umqbd9.png (http://www.abload.de/image.php?img=battlefield3-i5-3427umqbd9.png) http://www.abload.de/thumb/civ5-i5-3427urib21.png (http://www.abload.de/image.php?img=civ5-i5-3427urib21.png) http://www.abload.de/thumb/diablo3-i5-3427u4kl7y.png (http://www.abload.de/image.php?img=diablo3-i5-3427u4kl7y.png) http://www.abload.de/thumb/dirt3-i5-3427u0hx70.png (http://www.abload.de/image.php?img=dirt3-i5-3427u0hx70.png) http://www.abload.de/thumb/tws2-i5-3427urwlwn.png (http://www.abload.de/image.php?img=tws2-i5-3427urwlwn.png)

y33H@
2013-01-09, 13:08:48
"L2 Interface block runs at core clock" ... "L2Ds run at half clock for power, only clocked when required"

http://www.abload.de/thumb/amd-jaguar-hot-chips-40bfw.jpg (http://www.abload.de/image.php?img=amd-jaguar-hot-chips-40bfw.jpg)

Unlimited
2013-01-11, 01:01:31
Interessanter Größenvergleich zwischen Kabini und einem Haswellcore:

http://forums.anandtech.com/showpost.php?p=34463501&postcount=1

Knuddelbearli
2013-01-11, 01:05:38
wo steht da was zum Jaguar?

The amazingly little A7 with FP, Neon and 16kB L1D and L1I caches
is 32 times smaller as a 22 nm Intel Haswell core. Yet it has 75% of
the IPC of an A9. Expect it to sell more as all other cores combined
in 2013 in the form of 28nm quad core high volume smart phone SOC's

Gipsel
2013-01-11, 01:38:49
"L2 Interface block runs at core clock" ... "L2Ds run at half clock for power, only clocked when required"

http://www.abload.de/thumb/amd-jaguar-hot-chips-40bfw.jpg (http://www.abload.de/image.php?img=amd-jaguar-hot-chips-40bfw.jpg)Ist nur eine Umschreibung für das Clockgating des L2. Wird gerade nicht auf eine L2-Bank zugegriffen, wird sie vom Taktsignal getrennt.

Knuddelbearli
2013-01-11, 04:50:43
Nicht minder interessant sind die Zahlen zu der verwendeten Grafikkarte. 52 Prozent nutzen eine VGA-Karte aus dem Hause Nvidia, 34,2 Prozent setzen auf AMD-Karten. 13,2 Prozent nutzen eine integrierte Grafikeinheit von Intel. Am beliebtesten bei der Größe des Grafikspeichers ist aktuell ein GiByte, höhere Speicherkapazitäten erfreuen sich (wenig überraschend) einer immer größer werdenden Beliebtheit.

Ebenso erwähnenswert sind die Zahlen zu den verwendeten Prozessoren: 73,22 Prozent aller Steam-Nutzer verwenden eine Intel-CPU, lediglich 26,78 Prozent greifen zu einem Prozessor von AMD.
http://www.pcgameshardware.de/Steam-Software-69900/News/Hardware-Statistiken-von-Steam-Nutzern-1043223/

Kann mir bitte wer sachlich erklären wie sowas sein kann?
Seit 5 Jahren sind AMD und NV gleichauf, bei den Features abseits der reinen Darstellung ist mal der eine vorne mal der andere. Trotzdem ist am im GPU Markt bei den Spielern kaum besser ( 40% mehr klingt vielleicht nach viel aber bei der Basis ... ) aufgestellt als im CPU Markt ...

StefanV
2013-01-11, 05:13:17
Weil es viel zu viele unbetuchte Leute gibt, die irgendwann mal 'ne ATi Karte hatten, die nicht soo toll war, deren Meinung nach und von den Erlebnissen in 2003-2005 auf 2012/13 schließen...

Davon gibt es nicht wenig...
Da zahlt man dann auch gern den Aufpreis für nVidia, weil Qualität kostet halt...

Hübie
2013-01-11, 05:51:46
Es hat halt nicht jeder Zeit, Lust und Geld beide IHVs zu testen. Ich war vom R300 bis zum RV770 ATi/AMD-Jünger. Da die ihre Software aber nicht so im Griff haben und Kontakt zu denen so gut wie unmöglich scheint bin ich zur dunklen Seite der Macht gewechselt. Und siehe da: die haben Kekse ;D Obwohl ich die Tahiti-Chips schon sexy finde - keine Frage! Auch Pitcairn ist sein Geld wert.

AMD muss sich erst mal wieder beweisen. Damit meine ich nicht bei mir sondern allgemein. Der verschwitzte Produkt-Manager für Bulldozer kam genau so wenig überzeugend rüber wie die Testberichte dieser Architektur.

robbitop
2013-01-11, 08:26:00
Ist nur eine Umschreibung für das Clockgating des L2. Wird gerade nicht auf eine L2-Bank zugegriffen, wird sie vom Taktsignal getrennt.
Also doch kein voller Takt auf dem L2-Cache?

Wozu läuft das L2 Cache Interface dann eigentlich mit vollem Takt?

Skysnake
2013-01-11, 09:02:31
Also so wie ich es verstanden habe, läuft das mit vollem Takt. Aber eben nur, wenns auch wirklich gebraucht wird. Ansonsten nur mit halben Takt oder wird sogar komplett vom Taktsignal getrennt.

Ist ein reines Energiesparfeature.

EDIT:
Man sollte nochmal auf die Folie schaue, bevor man Antwortet... -.-

Hab mich vertan. Die L2-bänke laufen ja maximal mit halben Core-Takt, und werden NUR! angeschaltet, wenn Sie gebraucht werden. Das Interface läuft immer mit vollem Takt.

Gipsel
2013-01-11, 09:27:46
Also doch kein voller Takt auf dem L2-Cache?

Wozu läuft das L2 Cache Interface dann eigentlich mit vollem Takt?Daß nur das Interface mit vollem Takt läuft, war doch schon lange klar (die Folien sind doch bereits etwas älter).
Und das Interface läuft auf vollem Takt, weil da die L2-Tags sitzen und das die Snoops zwischen den Kernen abfängt (um die Caches kohärent zu halten). Da gibt es also in vielen Szenarien erheblich mehr Anfragen, als dann letztendlich an den L2 durchgereicht werden. Außerdem müssen alle Speicher-/Cachezugriffe aller vier Kerne durch das eine Interface (während sich die Zugriffe bei halbem Takt über 4 Bänke verteilen, der L2-Cache arbeitet jetzt zwar für 4 Kerne, hat aber vermutlich auch die vierfache Bandbreite, also im Zweifelsfall erheblich mehr, wenn nicht gerade alle Kerne gleichzeitig zugreifen). Das ist ein Kompromiß aus Geschwindigkeit und Stromverbrauch. Man taktet den stärker belasteten Teil höher, damit er nicht zum Flaschenhals wird. Und wenn man gerade gar keinen L2-Zugriff hat, trennt man den Cache vom Taktsignal (offenbar auch sehr kurzfristig, nicht nur noch längeren Phasen der Inaktivität), um noch etwas Strom zu sparen. Das sind so die Kleinigkeiten, um den idle-Verbrauch ein paar Milliwatt zu drücken, ohne in irgendwelche C-irgendwas Stromsparzustände gehen zu müssen.

y33H@
2013-01-11, 09:34:04
Gute Erklärung =)

Skysnake
2013-01-11, 09:48:43
Gut zusammengefasst Gipsel :up:

Eventuell packt man das Taktsingal und irgendwelche Steuersignale oder what ever mit nem AND zusammen, um den Takt zu generieren für das Interface. für die L2Ds

Ist auf jeden Fall ne nette Idee, das Taktsignal auch kurzfristig kappen zu können. Fragt sich nur, wieviel das im realen Einsatz dann wirklich bringt.

Ich hoffe nur wirklich, das es wie oben beschrieben praktisch taktgenau möglich ist das Taktsignal wieder an zu knipsen. Ausschalten von mir aus nicht mal unbedingt, aber an wäre schon wichtig, ansonsten knallt das halt gleich wieder auf die Latenzen drauf...

Btw. der Zugriff auf den RAM läuft doch wahrscheinlich parallel zum snooping in die Caches ab, und wird notfalls eben abgebrochen oder?

Wenn ja, könnte man ein bis zwei Takte eventuell sogar noch verschmerzen, wenn man dadurch eben den Cache aus energetischer Sicht höher takten kann.

Womit gleich die nächste Frage da ist... Ist das hochtakten auf den vollen Kerntankt des Interfaces powerlimited? Also von anderen Variablen abhängig?

wie gesagt, nochmal lesen hilft...

Das Interface läuft durchweg mit dem vollen Takt, dann hat man auch keine Probleme mit snooping in den meisten Fällen, und auch mit Zugriffen auf den RAM nicht. Das läuft ja alles da durch. Damit kann man auch den Transfer auf den RAM schon anstoßen und bei einem Hit einfach abbrechen/aus der Queue nehmen.

Mit halben Core Takt und eben nur einzelnen L2Ds hat man dann auch nicht so viele Transistoren, die man mit der Clock versorgen muss. wohl 1/4 des L2 Caches, oder eventuell sogar noch weniger. Ich bin da allerdings noch immer skeptisch, ob man das Taktsignal wirklich innerhalb eines Taktes, oder von mir aus auch 2, da man ja nur mit halben Takt läuft, stabil bekommt, um direkt die Werte auslesen zu können, also ohne Taktverlust.

Wenn ja, dann gz, das war sicherlich nicht einfach, sonst würden wir das schon lange überall sehen.

Unlimited
2013-01-11, 09:56:59
wo steht da was zum Jaguar?
Nur im Bild.
Im Text gehts eigentlich um was anderes...

Knuddelbearli
2013-01-11, 10:02:29
hmm gestern war da definitiv kein Bild hatte ihn sogar mehrmals offen naja seis drum ^^

Unlimited
2013-01-11, 10:13:31
wo steht da was zum Jaguar?
Ja merkwürdig.
Bei mir war immer ein Bild.
http://forums.anandtech.com/showpost.php?p=34463501&postcount=1

Interessant ist dass der Kabini-Core wirklich extrem klein ist.
Wenn man dem Bild Glauben schenken darf etwas mehr als die Hälfte eines Atom-Cores.
Also wenn da mal so viel Leistung herausspringen kann, wie behauptet wird.
Das grenzt ja schon fast an Magie und dann ausgerechnet noch vom Ineffizienzguru AMD.

Knuddelbearli
2013-01-11, 10:16:12
nicht auf den link klicken! der nervt schon seit paar tagen ...

ist beim Jaguar der L2 mitgerechnet?

SavageX
2013-01-11, 10:17:24
ist beim Jaguar der L2 mitgerechnet?

Auf dem Bild sind nur die Cores zu sehen, also L1 ja, L2 nein.

S940
2013-01-11, 10:30:28
Interessant ist dass der Kabini-Core wirklich extrem klein ist.
Wenn man dem Bild Glauben schenken darf etwas mehr als die Hälfte eines Atom-Cores.
Also wenn da mal so viel Leistung herausspringen kann, wie behauptet wird.
Das grenzt ja schon fast an Magie
Ich vermute die verwenden bei den kleinen Chips die high-density libraries der GPU-Leute. Die wurden letztens ja auch erst für die Steamroller-FPU demonstiert. Ca. 30% kleiner, das ist ne Größenordnung in der Richtung von nem full-node shrink.

Macht man das Ganze nicht nur für die FPU, sondern für den kompletten Chip springt sicherlich was dabei raus.

und dann ausgerechnet noch vom Ineffizienzguru AMD.Das musst Du differenzierter sehen. Jaguar ist Bobcats Nachfolger, und schon Bobcat war für ne 40nm sehr gut, auch schon besser als Intels 32nm Atom, selbst die L2 Zellen waren kleiner. Hans de Vries hatte das mal verglichen:

http://www.chip-architect.com/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html

Anscheinend ist/war aber auch TSMCs Prozess in dem Fall ziemlich gut (fast auf 32nm Niveau). Vielleicht ist das bei 28nm wieder ähnlich.

robbitop
2013-01-11, 11:22:30
Hm ... also doch nur 1/2 Takt für den L2 Cache. Vieleicht taktet AMD den ja beim nächsten Shrink auf vollen Takt. Das bringt sicherlich auch nochmal gute 10 %.

Ja merkwürdig.
Bei mir war immer ein Bild.
http://forums.anandtech.com/showpost.php?p=34463501&postcount=1

Interessant ist dass der Kabini-Core wirklich extrem klein ist.
Wenn man dem Bild Glauben schenken darf etwas mehr als die Hälfte eines Atom-Cores.
Also wenn da mal so viel Leistung herausspringen kann, wie behauptet wird.
Das grenzt ja schon fast an Magie und dann ausgerechnet noch vom Ineffizienzguru AMD.

Die Cores sind alle one L2 Cache. Außerdem packt TSMC deutlich dichter als Intel. Schau mal auf Chiparchitekt. http://www.chip-architect.com/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html

Logik Faktor 1,78 und SRAM Faktor 1,45. Wenn man das rausrechnet, sind beide Kerne schon vergleichbarer. Atom verbraucht bei vergleichbarem Prozess allerdings auch (insbesondere im Idle) deutlich weniger.

Twodee
2013-01-11, 11:30:28
Hm ... also doch nur 1/2 Takt für den L2 Cache. Vieleicht taktet AMD den ja beim nächsten Shrink auf vollen Takt. Das bringt sicherlich auch nochmal gute 10 %.



Die Cores sind alle one L2 Cache. Außerdem packt TSMC deutlich dichter als Intel. Schau mal auf Chiparchitekt. http://www.chip-architect.com/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html

Logik Faktor 1,78 und SRAM Faktor 1,45. Wenn man das rausrechnet, sind beide Kerne schon vergleichbarer. Atom verbraucht bei vergleichbarem Prozess allerdings auch (insbesondere im Idle) deutlich weniger.
Ist das auch bei Lynfield, Sandy und Ivy der Fall`??? Oder beziehst du dich damit *nur* auf den 45nm Atom? Wie schauts beim 32nm Atom aus?

fondness
2013-01-11, 11:34:29
Die Cores sind alle one L2 Cache. Außerdem packt TSMC deutlich dichter als Intel.

Kabini kommt von Globalfoundries.

robbitop
2013-01-11, 11:36:51
Ist das auch bei Lynfield, Sandy und Ivy der Fall`??? Oder beziehst du dich damit *nur* auf den 45nm Atom? Wie schauts beim 32nm Atom aus?
Das sind Prozessparameter für den 45 nm Prozess von Intel. Mich würde es aber nicht wundern, wenn es generell so ist.
Dichter packen hat aber auch Nachteile. Und zwar in der Taktbarkeit. Platz ist ja nicht das einzige Kriterium. Für die GPU auf dem SoC wäre es für Intel aber auch sinnvoll, soetwas zu tun und das werden sie sicherlich auch tun. Vieleicht schon mit Haswell. (ich habe von Ailuros soetwas gelesen, dass sie ab Haswell den 22 nm Prozess auch für GPU optimieren - das könnte ein entscheidender Teil dessen sein)

Kabini kommt von Globalfoundries.

Bei dem Vergleich ging es um Bobcat und Atom (45 nm). Und was für Schlüsse daraus auch auf nachfolgende Produkte zu ziehen sind.
Offenbar tut GF das auch, denn Jaguar shrinkte trotz Verbesserungen ja annähernd linear mit dem Shrink.

Hübie
2013-01-11, 11:37:11
Voller Takt frisst aber wieder Latenzen und erhöht Energiebedarf. Ist also wieder eine Frage des Spagats den du machen musst.
Reden wir jetzt gerade auschließlich vom L2 des Jaguar-Kerns??

fondness
2013-01-11, 11:38:17
Das sind Prozessparameter für den 45 nm Prozess von Intel. Mich würde es aber nicht wundern, wenn es generell so ist.
Dichter packen hat aber auch Nachteile. Und zwar in der Taktbarkeit. Platz ist ja nicht das einzige Kriterium. Für die GPU auf dem SoC wäre es für Intel aber auch sinnvoll, soetwas zu tun und das werden sie sicherlich auch tun. Vieleicht schon mit Haswell. (ich habe von Ailuros soetwas gelesen, dass sie ab Haswell den 22 nm Prozess auch für GPU optimieren - das könnte ein entscheidender Teil dessen sein)

Da spielt mindestens genau so stark das Design eine Rolle.

robbitop
2013-01-11, 11:47:31
Voller Takt frisst aber wieder Latenzen und erhöht Energiebedarf. Ist also wieder eine Frage des Spagats den du machen musst.
Reden wir jetzt gerade auschließlich vom L2 des Jaguar-Kerns??
Energie frisst es auf jeden Fall. Aber es bringt sicherlich auch Performance. Man muss halt schauen, wo der Sweetspot liegt.
Dem Sandybridge brachte es offenbar schon einiges vollen L3 Cache Takt zu haben. Auch den AMD Phenoms und FX. Beim L2 sollte es nicht anders sein.

Da spielt mindestens genau so stark das Design eine Rolle.
Absolut. Das ist eine philosophie Frage. Intel könnte das sicher genauso tun. Vieleicht werden sie das mit der OoO Generation auch tun. Takt ist bei den LP CPUs vermutlich eh zweitrangig aus energetischen Gründen.

Hübie
2013-01-11, 11:50:41
SB hat aber ein anderes Interface und schöpft da wohl (mit der aktuellen Softwaresituation) mehr aus den Vollen als AMD. Und wie gesagt: dichter packen schränkt auch den Takt ein was vllt. auch Fehlertoleranz übersteigt wenn man nicht wieder mit Latenzen gegensteuert.


Bestes Beispiel sind GDDR5 und die fleißigen Übertakter die sich dann wundern dass nur 3% mehr Performance bei 10% mehr Takt herauskommen. Das im Hintergrund die Fehlerkorrektur sich n Wolf schrubbt bekommt man ja net mit. :freak:

robbitop
2013-01-11, 11:52:53
Es bringt auch bei den Stars und Bulldozern von AMDs etwas. Wenn man jetzt deswegen die Latenzen verdoppeln muss, wäre es natürlich sinnfrei. Aber ist das bei L2 SRAM denn überhaupt nötig?

Skysnake
2013-01-11, 11:55:08
SB usw unterscheiden sich aber auch dramatisch von dem L2 Cache hier. Die haben nen Ringbus, womit du im Schnitt halt mehrere Hops hast. Da macht es natürlich sinn, mit vollem Kerntakt zu laufen. Der L2 hier ist aber im Interface sicherlich mit nem Crossbar gebaut. Da bringt das dann nicht so viel.

Vor allem kannste das Interface wahrscheinlich schon mit zwei parallelen Zugriffen auf unterschiedliche Bereiche auslasten. Kommt halt drauf an, wie AMD die Daten in den Caches ablegt, und wieviel "Glück" man mit seiner Anwendung hat.

Man sollte allerdings auch nicht den "New L2 stream prefetcher per Core" vergessen. Damit kannste dann eventuell auch schon mit nur einem Zugriff das Interface auslasten. Man weiß ja nicht, wie breit die Zugriffe auf die Banks sein können. Wenn da direkt in einem Rutsch ne ganze Cacheline raus kann, dann wird man selbst mit dem reduzierten Takt keine Probleme haben. Oder oder oder. Kommt halt ganz drauf an, wie das am Ende implementiert wurde.

Hübie
2013-01-11, 12:20:25
Klar müssen auch SRAMs sich zwischen den Standby-/Lade-/Schreibzyklen auffrischen. Die Daten verweilen dort ja meist nicht lange.

http://www.abload.de/img/latency0tur3.png (http://www.abload.de/image.php?img=latency0tur3.png)

SandyBridge @1.6 GHz

http://www.abload.de/img/latency_1whbmz.png (http://www.abload.de/image.php?img=latency_1whbmz.png)

SandyBridge @4.5 GHz

robbitop
2013-01-11, 12:58:39
Nur 1x cycle mehr beim L3. Musste bei SB ggü Nehalem die Latenz des L3s deutlich erhöht werden?

S940
2013-01-11, 13:14:40
Nur 1x cycle mehr beim L3.

Das sagt bei der latency exe nichts aus, 1 Takt ist da innerhalb der Messungenauigkeit.

Musste bei SB ggü Nehalem die Latenz des L3s deutlich erhöht werden?Du meinst Latenz im Sinne einer Einstellung wie CL9 beim RAM? Das weiss man nicht.
Was man weiss ist, dass die Zugriffszeit (die Latenz, die Hübie gemessen hat) mit SandyB Dank vollem Takt schneller geworden ist.

Bei meinem Nehalem zeigt latencyexe 4 -11 - 34 Takte an, normal ist glaub ich 4 -11- 38 oder so (hab den L3 übertaktet). Sollte man aber einfacht bei ht4u nachlesen können, die geben die gemessenen Cachelatenzen auch immer mit an.

Gipsel
2013-01-11, 18:56:17
Klar müssen auch SRAMs sich zwischen den Standby-/Lade-/Schreibzyklen auffrischen.Wie meinst Du denn das? Bei SRAM (static RAM) gibt's keinen Refresh wie bei DRAM. Das ist doch gerade der Unterschied.

Gipsel
2013-01-11, 19:02:36
Energie frisst es auf jeden Fall. Aber es bringt sicherlich auch Performance. Man muss halt schauen, wo der Sweetspot liegt.Genau. Und AMD meint fuer den Einsatzbereich der Jaguar-Kerne liegt dieser Sweetspot beim Betrieb des Interfaces und der Tags mit vollem Takt, waehrend die SRAM-Arrays fuer die eigentlichen Daten nur mit halbem Takt angesteuert werden. Dadurch, dass eben die vier Baenke parallel arbeiten koennen, steht bei Last auf weniger als vier Kernen trotzdem mehr Bandbreite als bei Bobcat zur Verfuegung (bei Last auf allen vier Kernen ist es dann abgesehen von Detailverbesserungen praktisch identisch).

Skysnake
2013-01-11, 19:40:13
Kommt drauf an, wie der Prefetcher arbeitet. Wir wissen ja noch nicht, wie breit die Anbindungen sind, und vor allem, wie es aussieht, wenn man eben Streamt. Da kann auch bei Last auf allen 4 Kernen Jaguar schneller sein (muss es aber nicht)

PS: Ich hab auch keine Ahnung, was er mit dem SRAM da sagen will :ugly:

Hübie
2013-01-12, 03:11:17
Wie meinst Du denn das? Bei SRAM (static RAM) gibt's keinen Refresh wie bei DRAM. Das ist doch gerade der Unterschied.

Static steht für den Ladezustand. Wird dieser geändert muss ein Zyklus x abgewartet werden bis er wieder geändert werden kann. Das sind physikalische Gesetze.

Gipsel
2013-01-12, 09:18:25
:confused:
Bei einer SRAM-Zelle gibt es gar keinen Ladezustand. Das sind im Prinzip FlipFlops rein aus Transistoren (nur die speziellen Transistoren für Flash-Speicher mit ihren floating Gates speichern Ladungen, die normalen nicht, da steckt die Information im Schaltzustand der Transistoren [bei Flash im Prinzip auch, aber das funktioniert anders]). DRAM hat einen Kondensator, der öfter mal nachgeladen werden muß (direkt nach dem Auslesen und regelmäßig nach einiger Zeit, das ist der sogenannte Refresh). Eine SRAM-Zelle dagegen behält anders als DRAM seinen Wert beim Auslesen. SRAM behält die gespeicherten Werte, solange Versorgungsspannung anliegt (das bedeutet das "static"), bei DRAM entladen sich die integrierten Kondensatoren beim Lesezugriff und auch ohne Zugriff nach einer Weile (eine Handvoll Millisekunden), weswegen Refreshes nötig sind. Um diesen Unterschied zum statischen RAM klar zu machen, hat man es Dynamic RAM getauft.

Die Zugriffszeiten in einem SRAM-Array werden zum Teil auch dadurch bestimmt, daß man die (manchmal recht langen) Bit-/Wordlines ansteuern muß (mit ein Grund, warum große Caches höhere Latenzen haben als kleine), da man ja schwerlich jedes Bit direkt verdrahten kann. Hier kann man vielleicht davon sprechen, daß die Adress- und Datenleitungen (wegen ihrer parasitären Kapazität) für einen Zugriff "aufgeladen" werden müßten. Das ist aber etwas ganz anderes als das Laden des Speicherkondensators und die Refreshs bei DRAM.

del_4901
2013-01-12, 11:37:13
@Gipsel: ich glaube Hübie redet von 1T SRAM und du von (6T) SRAM.

OgrEGT
2013-01-12, 14:00:23
Kabini kommt von Globalfoundries.

Hier steht was von TSMC 28nm.
http://www.pcper.com/reviews/Shows-and-Expos/AMD-CES-2013-Temash-Kabini-and-Kaveri-side-Sea-Islands

The first product that we will likely see is the Jaguar core based Kabini APUs. These are the next generation, low power APUs which will replace the Brazos 2.0 products that we currently are seeing. These quad core and dual core parts are manufactured by TSMC on their 28 nm process. Kabini will be the first APU to include the new GCN architecture that we currently see in the HD 7700 series and above. AMD will be breaking new ground in offering a true quad core part at price points unseen so far.

Edit:
Bin mal echt gespannt auf die neuen AMD tablets. Damit könnts mal insgesamt wieder ein wenig aufwärts gehen...

mrt
2013-01-12, 14:23:44
@Gipsel: ich glaube Hübie redet von 1T SRAM und du von (6T) SRAM.
1T SRAM ist kein static RAM, die Bezeichnung ist irreführend. Besser wäre 1T PSRAM...

Gipsel
2013-01-12, 15:09:26
1T SRAM ist kein static RAM, die Bezeichnung ist irreführend. Besser wäre 1T PSRAM...Ja. Denn im Grunde ist es eine Art DRAM mit einem anderen Interface (wofür Teile des Controllers beim Speicherarray integriert werden). Bei Einigen läuft deswegen 1T-SRAM auch unter eDRAM.

del_4901
2013-01-12, 15:25:18
1T SRAM ist kein static RAM, die Bezeichnung ist irreführend. Besser wäre 1T PSRAM...
Ja. Denn im Grunde ist es eine Art DRAM mit einem anderen Interface (wofür Teile des Controllers beim Speicherarray integriert werden). Bei Einigen läuft deswegen 1T-SRAM auch unter eDRAM.
richtig.
Ich dachte nur bevor ihr euch noch mehr in Details verliert, dass ich versuche euch erstmal wieder auf einen gemeinsamen Nenner zu bringen.

Gipsel
2013-01-12, 16:15:03
richtig.
Ich dachte nur bevor ihr euch noch mehr in Details verliert, dass ich versuche euch erstmal wieder auf einen gemeinsamen Nenner zu bringen.Okay. Dann koennen wir hier festhalten, dass Jaguar natuerlich auf 6T bzw. vermutlich eher 8T SRAM (hat bessere Eigenschaften fuer LV-Betrieb) und nicht eDRAM oder 1T-SRAM fuer die Caches setzt. Da gibt es also keinen Refresh.

S940
2013-01-12, 16:37:57
Okay. Dann koennen wir hier festhalten, dass Jaguar natuerlich auf 6T bzw. vermutlich eher 8T SRAM (hat bessere Eigenschaften fuer LV-Betrieb) und nicht eDRAM oder 1T-SRAM fuer die Caches setzt. Da gibt es also keinen Refresh.Wobei das aber auch ne interessante Idee wäre. Wenn ich mich recht erinnere, dann ist der Hauptnachteil von eDRAM, dass es nicht so gut hochzutakten ist. Genau das sollte bei nem Niedrigtakt-Jaguar, aber kein Problem sein, erst recht, wenn der L2 sowieso nur mit halben Takt läuft.

Das wär doch mal lustig, ein Kabini-Update mit ~8 MB L2 :freak:

Edit: Apropos, hat man eigentlich jemals mal wieder was von T-RAM gehört? Die Webseite gibts immerhin noch, Stand 2009 X-D

Skysnake
2013-01-12, 18:39:57
@Gipsel: ich glaube Hübie redet von 1T SRAM und du von (6T) SRAM.
Wir reden hier aber über nen L2 Cache, da macht das, vor allem in der Menge einfach gar keinen Sinn, da eDRAM zu verwenden. Vor allem sollte man, wenn man den 1T "S"RAM meint, das auch expliziet dazu sagen, das verwendet in dem Zusammenhang eigentlich kein Mensch.

Okay. Dann koennen wir hier festhalten, dass Jaguar natuerlich auf 6T bzw. vermutlich eher 8T SRAM (hat bessere Eigenschaften fuer LV-Betrieb) und nicht eDRAM oder 1T-SRAM fuer die Caches setzt. Da gibt es also keinen Refresh.
Ich glaub auch, das man da eher sogar 8T oder mehr SRAM-Zellen verwendet.

Wie du schon sagtest. SRAM besteht klassisch aus 6 Transistoren, und sobald man am Eingang ein neues Signal anlegt, UND hält, bis die Transistoren durchgeschaltet haben, bleibt das Signal danach eben bestehen, da es ein in sich selbst Rückgekoppeltes System ist. So lange die Spannung stabil bleibt bleibt der Zustand erhalten auf alle Ewigkeit, und kann auch kontinuirlich ausgelesen werden. (Also quasi mit unendlicher Frequenz, reale Begrenzungen ergeben sich ja nur durch die endlichen Leitungslegen mit ihren entsprechenden Kapazitäten/Induktivitäten und eben der endlichen Lichtgeschwindigkeit.

Wobei das aber auch ne interessante Idee wäre. Wenn ich mich recht erinnere, dann ist der Hauptnachteil von eDRAM, dass es nicht so gut hochzutakten ist. Genau das sollte bei nem Niedrigtakt-Jaguar, aber kein Problem sein, erst recht, wenn der L2 sowieso nur mit halben Takt läuft.

Das wär doch mal lustig, ein Kabini-Update mit ~8 MB L2 :freak:

Edit: Apropos, hat man eigentlich jemals mal wieder was von T-RAM gehört? Die Webseite gibts immerhin noch, Stand 2009 X-D
Du vergisst den zweiten großen Nachteil. Du hast keine deterministische Latenz beim Zugriff auf den "Cache". Dir kann ja immer mal nen Refresh-Zykle reinpfuschen, und das willst du nicht wirklich haben so dicht an der CPU.

Ansonsten hast du eben auch noch den Nachteil, den ich oben angesprochen habe. Wenn du ne so ne RamZelle ausliest, die auf nem Kondensator basiert, ist die danach leer. Du kannst also nicht zweimal nacheinander die selbe Zelle lesen, sondern musst Sie vorher erst mal refreshen. Das könnte dir so nah an den CPU-Register eventuell dann auch noch Probleme bereiten, weil du solche Fälle theoretisch generieren kannst, und dann eben auch abfangen musst durch Logik.

del_4901
2013-01-12, 18:45:19
Wir reden hier aber über nen L2 Cache, da macht das, vor allem in der Menge einfach gar keinen Sinn, da eDRAM zu verwenden. Vor allem sollte man, wenn man den 1T "S"RAM meint, das auch expliziet dazu sagen, das verwendet in dem Zusammenhang eigentlich kein Mensch.
(Falsche/Ungenaue) Voraussetzungen sind die Ursache fuer viele Missversaendnisse. Und letztere bringen eine Diskussion nicht vorwaertz. Deswegen ist es auch nicht schlimm nachzufragen wie Jemand was gemeint hat. "Dumme Fragen" sind mir lieber als gar keine. Ausserdem gibt es gar keine dummen Fragen.

Ansonsten hast du eben auch noch den Nachteil, den ich oben angesprochen habe. Wenn du ne so ne RamZelle ausliest, die auf nem Kondensator basiert, ist die danach leer. Du kannst also nicht zweimal nacheinander die selbe Zelle lesen, sondern musst Sie vorher erst mal refreshen. Das könnte dir so nah an den CPU-Register eventuell dann auch noch Probleme bereiten, weil du solche Fälle theoretisch generieren kannst, und dann eben auch abfangen musst durch Logik. Letzteres macht der pSRAM controller transparent die Logik dafuer ist schon vorhanden.

Skysnake
2013-01-12, 20:52:09
(Falsche/Ungenaue) Voraussetzungen sind die Ursache fuer viele Missversaendnisse. Und letztere bringen eine Diskussion nicht vorwaertz. Deswegen ist es auch nicht schlimm nachzufragen wie Jemand was gemeint hat. "Dumme Fragen" sind mir lieber als gar keine. Ausserdem gibt es gar keine dummen Fragen.

Das stimmt allerdings :up:

In dem Fall hier wars nur schon wirklich bischen sehr Abwägig, aber hat sich ja auch dank dir wohl offenbar geklärt :cool:

Danke dafür :up:


Letzteres macht der pSRAM controller transparent die Logik dafuer ist schon vorhanden.
Das geht aber Zulasten der Latenz, und das willst du beim L2 noch nicht wirklich. Bei nem L3 oder L4, ist das ok, da die Alternative, der RAM, halt wirklich "Arsch" langsam ist, und man halt schon ausgereizt hat, was geht, und das einfach die letzte Alternative ist.

=Floi=
2013-01-12, 21:30:50
*gähn* du zweifelst so manches an, was Fakt ist - wie üblich kann ich es belegen und in diesem Fall habe ich es auch selbst gemessen. Einmal Anand (http://www.anandtech.com/show/5878/mobile-ivy-bridge-hd-4000-investigation-realtime-igpu-clocks-on-ulv-vs-quadcore) bitte ... der 3427U (http://ark.intel.com/products/64903/Intel-Core-i5-3427U-Processor-3M-Cache-up-to-2_80-GHz) (17W) hat einen maximalen iGPU-Turbo von 1,15 GHz und einen Basistakt von 350 MHz. Die allermeiste Zeit liegt der Takt der iGPU deutlich über 1,0 GHz womit deine Zweifel widerlegt sind und ich Recht habe ...

EDIT
Ich lade dir sogar die Diagramme hoch ...

http://www.abload.de/thumb/batmanac-i5-3427uexl5b.png (http://www.abload.de/image.php?img=batmanac-i5-3427uexl5b.png) http://www.abload.de/thumb/battlefield3-i5-3427umqbd9.png (http://www.abload.de/image.php?img=battlefield3-i5-3427umqbd9.png) http://www.abload.de/thumb/civ5-i5-3427urib21.png (http://www.abload.de/image.php?img=civ5-i5-3427urib21.png) http://www.abload.de/thumb/diablo3-i5-3427u4kl7y.png (http://www.abload.de/image.php?img=diablo3-i5-3427u4kl7y.png) http://www.abload.de/thumb/dirt3-i5-3427u0hx70.png (http://www.abload.de/image.php?img=dirt3-i5-3427u0hx70.png) http://www.abload.de/thumb/tws2-i5-3427urwlwn.png (http://www.abload.de/image.php?img=tws2-i5-3427urwlwn.png)


mit welchem programm ist das gemessen?

S940
2013-01-13, 00:37:33
Das geht aber Zulasten der Latenz, und das willst du beim L2 noch nicht wirklich. Bei nem L3 oder L4, ist das ok, da die Alternative, der RAM, halt wirklich "Arsch" langsam ist, und man halt schon ausgereizt hat, was geht, und das einfach die letzte Alternative ist.Naja, der halbe Takt der L2-Zellen bei Kabini ist sicherlich auch nicht gut für die Latenz. Würde ich in dem Fall dann nicht überbewerten. Auf der Habenseite gibts außerdem ja auch noch die ~4x Cachegröße.

Unterm Strich sollte dann doch nen Vorteil geben, oder wie siehst Du das?

Naja, wohl auch wieder softwareabhängig.

Edit: Bobcat steht in der HT4U-Liste mit 24 Takte für den L2 drin:

http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index13.php

Also das sollte eDRAM auch noch schaffen^^

Wie schauts eigentlich mit dem Energiebedarf aus? Spart man da vielleicht auch noch was mit eDRAM, oder kostet der Refresh?

Undertaker
2013-01-13, 00:44:46
mit welchem programm ist das gemessen?

GPU-Takt auslesen geht z.B. mit HWInfo. Je nach Chipgüte sind innerhalb des 17W Budgets ~1,8GHz CPU-Takt und 1,0GHz GPU-Takt bei (synthetischer) Volllast möglich. Der GPU-Turbo wird bei limitierender TDP bevorzugt und liegt damit in Spielen idR fast am Maximum - wie es auch y33h@s Diagramme zeigen.

Coda
2013-01-13, 01:19:32
Also das sollte eDRAM auch noch schaffen^^
Kommt drauf an. Random Access ist DRAM ziemlich lahm und der Takt dürfte auch deutlich geringer sein als vom Prozessor.

Das verbaut man eher für die Bandbreite, weniger für viel bessere Latenz als vom RAM.

=Floi=
2013-01-13, 01:23:21
kann man es damit auch aufzeichnen?

Skysnake
2013-01-13, 03:39:11
Naja, der halbe Takt der L2-Zellen bei Kabini ist sicherlich auch nicht gut für die Latenz. Würde ich in dem Fall dann nicht überbewerten. Auf der Habenseite gibts außerdem ja auch noch die ~4x Cachegröße.

Unterm Strich sollte dann doch nen Vorteil geben, oder wie siehst Du das?

Naja, wohl auch wieder softwareabhängig.

Edit: Bobcat steht in der HT4U-Liste mit 24 Takte für den L2 drin:

http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index13.php

Also das sollte eDRAM auch noch schaffen^^

Wie schauts eigentlich mit dem Energiebedarf aus? Spart man da vielleicht auch noch was mit eDRAM, oder kostet der Refresh?

Du verballerst halt fortwährend Strom. Vor allem halt auch bei jedem Lesevorgang.

Bei SRAM (6T+) fließt eigentlich nur nennenswert Strom, wenn du schreibst. Und du hoffst ja gerade, dass du die Werte öfters liest.

Zudem darfst du nicht den Fehler machen, zu denken, dass die 24 Takte nur das Lesen der SRAM-Zellen ist.

Du musst ja erst mal den look up machen, dann die entsprechende Zelle auswählen, das Auslesen an sich, und dann musst du eventuell auch noch je nachdem die Daten irgendwo hin schieben durch den L1, bevor du es dann in die Register schreiben kannst.

Das ist halt schon bischen mehr.

Und Coda hats ja auch angedeutet, nur weil das Interface von DDR mit X MHz läuft, heist das nicht, dass das die Chips an sich auch tun. Du liest ja gleich ganze Blöcke parallel, so kannst du dann auch das "schnelle" Interface bedienen.

Ich hatte mal nen ganz gutes Paper dazu gelesen, aber ich finds leider nicht mehr... Das hier gibt aber auch nen paar grundlegende Werte zu DRAM vs SRAM her. http://www.cse.psu.edu/~xydong/files/paper/dac2008.pdf

Ist aber halt immer die Frage, unter welchen Vorraussetzungen, das jetzt genau gemacht wurde. Bei DRAM kann man halt auch mit einigen Tricks arbeiten, um die Zugriffszeiten zu reduzieren...

Mich wunder allerdings die hohe Leakage vom SRAM. Eigentlich sollte doch die dynamic Powerconsumption hoch sein, also zumindest beim schreiben... :freak:

Hübie
2013-01-13, 08:16:57
Ja bin wohl in der Tat da wieder mal durcheinander gekommen. SRAM, FRAM, PRAM... mein Hirn ist wie ihr wisst nicht das beste.
Dann werden cycles von der Taktung bestimmt. Ist das gleiche Prinzip wie ein Schalter oder?

Skysnake
2013-01-13, 15:08:21
Jaein.

Im Prinzip werden Sie von der ganzen Ansteuerungslogik bestimmt. Den Wert dann wirklich auslesen ist halt nur das Schalten von einem Transistor und gut ist. Das Signal muss auf dem Via halt stabil werden. Lesen ist aber völlig unproblematisch. Schreiben schon eher, da du eben alle 6/8 Transistoren schalten musst, bis sich eben wieder ein stabiler Zustand ergibt. Beim lesen änderst du den nicht. Die T6+ SRAMs helfen halt dabei schneller einen stabilen Zustand wieder zu erreichen, und damit eben höher takten zu können. Bzgl lesen sollten Sie sich aber gar nichts geben.

Da hängts wirklich "nur" von der ganzen Ansteuerungslogik ab.

Das ist ja auch z.B. ein Grund, warum man bei den größeren Caches keine vollassoziativen Caches macht, sondern nur 4/8/16 fach assoziative. Man würde sonst einfach viel zu Lange für den Lookup brauchen, und eben auch ne viel viel viel zu große Logik, um das ganze Überhaupt zu verwalten und zu speichern.

Ist halt alles nicht so einfach. Wenn du aber mal Lust hast, dich mit den Auswirkungen von Latenzveränderungen und Cachegrößenänderungen zu beschäftigen, dann zieh dir mal Gem5 rein. Ist ein sehr cooler simulator für solche Sachen und eben open source :biggrin:

Du solltest aber VIEL Zeit mitnehmen. Son PARSEC Benchmark dauert bei vernünftiger Simulation für nen Dualcore schnell mal >12h ;D

Ronny145
2013-01-13, 15:34:14
kann man es damit auch aufzeichnen?


Verwendet wurde GPUz, damit lässt sich das aufzeichnen.

Hübie
2013-01-14, 03:08:20
Ist halt alles nicht so einfach. Wenn du aber mal Lust hast, dich mit den Auswirkungen von Latenzveränderungen und Cachegrößenänderungen zu beschäftigen, dann zieh dir mal Gem5 rein. Ist ein sehr cooler simulator für solche Sachen und eben open source :biggrin:

Juhu!

Du solltest aber VIEL Zeit mitnehmen. Son PARSEC Benchmark dauert bei vernünftiger Simulation für nen Dualcore schnell mal >12h ;D

Nein! :freak:

Ich bemerke aber dass sich dort in den letzten Jahren ja doch mehr getan hat als ich dachte. Mein Kenntnisstand war da noch wesentlich älter. Das letzte Mal schlau lesen war halt zur PS3-Zeit.

Skysnake
2013-01-14, 12:46:45
Nicht falsch verstehn, du simulierst dei komplette CPU, welche eben nen PARSEC Benchmark ausfuehrt ;D

Deswegen Dauert das so lange. Real dauert das nen paar Sekunden, wenn uberhaupt :ugly:

Unlimited
2013-01-22, 12:50:19
Wie auch immer sie es geschafft haben, Xbox und PS4 aus AMD-Hardware zu bauen....
Falls das sich bewahrheiten sollte: Das wird wohl vorerst AMD's Rettung werden.

http://www.computerbase.de/news/2013-01/neue-geruechte-zu-hardwarespezifikationen-der-xbox-720/

fdk
2013-01-22, 13:07:44
Wenn ms und Sony die teile selbst fertigen, wovon auszugehen ist, bleibt davon nicht allzuviel übrig. Ein paar Dollar fünfzig Lizenzgebühr pro Chip halt.

y33H@
2013-01-22, 13:13:23
AMD vergibt die Lizenz, aber wie viel verdienen die daran? Ich meine, bisher wurde man als IHV durch Konsolen-Deals nicht reich.

V2.0
2013-01-22, 13:14:08
Da dann aber alle Spiele auf AMD Architektur optimiert sin, dürfte das zumindest im Kampf gegen NV ein absoluter Killer sein.

Dural
2013-01-22, 13:14:17
rettung? das macht vieleicht 5% des umsatztes von AMD aus.

Da dann aber alle Spiele auf AMD Architektur optimiert sin, dürfte das zumindest im Kampf gegen NV ein absoluter Killer sein.

jep, dann wird eine 7970 so schnell sein wie eine GTX780 / GK110 sein, wer jetzt noch NV kauft ist ziemlich dämlich.

fondness
2013-01-22, 13:18:46
Wie auch immer sie es geschafft haben, Xbox und PS4 aus AMD-Hardware zu bauen....
Falls das sich bewahrheiten sollte: Das wird wohl vorerst AMD's Rettung werden.

http://www.computerbase.de/news/2013-01/neue-geruechte-zu-hardwarespezifikationen-der-xbox-720/

So überraschend ist das nicht, AMD sind die einzigen die brauchbare CPUs und GPUs liefern können. Und die Zukunft gehört nun mal den SoCs, das PCIe-Interface ist ein viel zu großer Falschenhals.

MadManniMan
2013-01-22, 13:22:12
jep, dann wird eine 7970 so schnell sein wie eine GTX780 / GK110 sein, wer jetzt noch NV kauft ist ziemlich dämlich.

Könnte das mal jemand mit Ahnung kommentieren?

coda?

N0Thing
2013-01-22, 13:27:52
Könnte das mal jemand mit Ahnung kommentieren?

coda?

Smells like irony.

AMD vergibt die Lizenz, aber wie viel verdienen die daran? Ich meine, bisher wurde man als IHV durch Konsolen-Deals nicht reich.

Hatte nicht jemand hier im Forum angemerkt, daß AMD kein x86 Lizenz vergeben darf und deshalb selber die Chips fertigen lassen muß?

StefanV
2013-01-22, 13:52:21
Hatte nicht jemand hier im Forum angemerkt, daß AMD kein x86 Lizenz vergeben darf und deshalb selber die Chips fertigen lassen muß?
Dasn Grund, aber kein Hindernis...

Wenn man es wollen würde, könnte man das ohne größere Probleme regeln...
Es spricht ja nichts dagegen, dass M$/Sonie selbst Ings zu AMD schicken, die dann sich um das Design kümmern...

Also in diesem Punkt sehe ich nicht unbedingt ein Problem...

MadManniMan
2013-01-22, 14:41:24
Smells like irony.

Schon. Aber dennoch: wenn plötzlich nicht mehr für vier Architekturen (R400, NV40, jeweils aktuelle Radeons und Geforces), sondern nur noch für eine (GCN) optimiert würde, weil der Crossplatform-Progger faul ist, könnte da was bei rum kommen?

StefanV
2013-01-22, 14:52:27
Schon. Aber dennoch: wenn plötzlich nicht mehr für vier Architekturen (R400, NV40, jeweils aktuelle Radeons und Geforces), sondern nur noch für eine (GCN) optimiert würde, weil der Crossplatform-Progger faul ist, könnte da was bei rum kommen?
Warum sollten moderne Programme noch auf den ollen nV40 oder irgendwelche anderen 'Gammelkarten' Rücksicht nehmen?!

MadManniMan
2013-01-22, 14:55:44
Warum sollten moderne Programme noch auf den ollen nV40 oder irgendwelche anderen 'Gammelkarten' Rücksicht nehmen?!

Echt jetzt? (http://de.wikipedia.org/wiki/PlayStation_3#Grafikprozessor)

fondness
2013-01-22, 14:59:35
Echt jetzt? (http://de.wikipedia.org/wiki/PlayStation_3#Grafikprozessor)

In der PS3 steckt ein G71.
Aber natürlich ist es für AMD kein Nachteil in allen aktuellen Konsolen vertreten zu sein, auch nicht was PC-Ports betrifft.
Ob und wie viel und das bringt lässt sich nicht pauschalisieren, sondern hängt vom konkreten Fall ab.

Dural
2013-01-22, 15:02:17
nicht ganz, da nur 128Bit

Coda
2013-01-22, 15:02:49
Könnte das mal jemand mit Ahnung kommentieren?

coda?
Üblicher Fanboy-Bullshit halt. Ignorier es einfach.

fondness
2013-01-22, 15:07:33
Üblicher Fanboy-Bullshit halt. Ignorier es einfach.

So pauschal würde ich das nicht abtun.
Es wird sicher kein Nachteil sein wenn die Entwickler auf GCN spezifische Eigenschaften Rücksicht nehmen müssen (nicht zu viel Geometrielast, hohe Computer-Leistung und Registergrößen, ev. DX11.1 Features, etc.).

Dural
2013-01-22, 15:08:58
ich denke das wird (fast) keine auswirkungen haben, da aktuelle die architekur von NV und AMD doch recht ähnlich und auf die grösse der chips bezogen sogar in der leistung so ziemlich auf selber höhe sind.

und wenn man schaut was in den neuen kosolen angeblich für gurken GPUs drin sind, ist das thema eh erledigt.

spätestens mit maxwell ist das ganze eh vom tisch, also sprich ein jahr nach konsolen start.

dildo4u
2013-01-22, 15:12:47
Fast alle Multigames laufen auf der 360 besser bzw wurden darauf entwickelt und dann portiert,das hat AMD am PC auch nix geholfen jedenfalls ab dem G80 nicht mehr.Gerade die 8800GTX hat sich lange gut gehalten,viele zocken Heute noch mit der langsameren 8800GT weil die für 1080p 30fps reicht.

http://www.pcgameshardware.de/Mass-Effect-3-PC-223629/News/Mass-Effect-3-Demo-Nvidia-veroeffentlicht-Benchmarks-Geforce-8800-GT-reicht-868400/

gnahr
2013-01-22, 17:54:16
nvidia lässt es sich bestimmt nicht nehmen irgendwann nochmal ein paar entwicklerteams so dick mit know how durchzubringen, dass es ein konsolenspiel mit physix-effekten geben wird... der im port dann brutal drauf setzt wie batman, mafia oder borderlands.

y33H@
2013-01-22, 18:25:40
Es heißt PhysX und zusätzliche darauf basierende proprietäre Effekte wirst du auf den Next-Gen-Konsolen sicherlich nicht sehen, da Nvidia in keiner der kommenden Konsolen vertreten ist.

Unlimited
2013-01-22, 18:48:58
AMD vergibt die Lizenz, aber wie viel verdienen die daran? Ich meine, bisher wurde man als IHV durch Konsolen-Deals nicht reich.

OK, das war mir in diesem Ausmaß nicht bewusst.
Ich dachte zumindest in diesem Bereich habe AMD noch gewisse Eigenständigkeit bewahrt.

Hier sind noch einige detailierte Information zu Durango finden:

http://www.pcgameshardware.de/Xbox-720-Konsolen-232351/News/Finale-Spezifikationen-Xbox-720-Durango-CPU-Grafik-von-AMD-1044966/

Zwar leicht OT, aber doch erwähnenswert da ziemlich geil: "Illumi Room"
Ich frage mich nur, wo man nen Beamer mit so einem Weitwinkel herbekommen mag?
http://videos.pcgameshardware.de/hdvideo/13003/IllumiRoom-Microsofts-Erweiterung-des-Fernsehbildes

StefanV
2013-01-22, 18:49:46
GPU PhysX ist eh tot, da es nur von einem 'Hersteller' unterstützt wird. Hierauf zu hoffen, dass noch was kommen wird, ist vergebens. Wenn man PhysX einsetzt, dann sicher nicht den GPU Part...

Das wird dann irgendwann von einer neuen Lib abgelöst, die dann von allen unterstützt wird...

boxleitnerb
2013-01-22, 18:53:06
Und wann ist "irgendwann"? Das ist längst überfällig mMn, ich bin froh, dass es wenigstens etwas gegeben hat in der Zwischenzeit.

MadManniMan
2013-01-22, 19:16:02
GPU PhysX ist eh tot, da es nur von einem 'Hersteller' unterstützt wird. Hierauf zu hoffen, dass noch was kommen wird, ist vergebens. Wenn man PhysX einsetzt, dann sicher nicht den GPU Part...

Das wird dann irgendwann von einer neuen Lib abgelöst, die dann von allen unterstützt wird...

Warum setzt Du den markierten Teil in Anführungszeichen?

HOT
2013-01-22, 19:35:43
AMD vergibt die Lizenz, aber wie viel verdienen die daran? Ich meine, bisher wurde man als IHV durch Konsolen-Deals nicht reich.
AMD darf garkeine Lizenz vergeben, die müssen selber produzieren. Die Lizenz gehört Intel und die werden den Teufel tun grad M$ x86er bauen zu lassen. Von dem alten Konzept, dass M$ und Sony selbst in Lizenz die Prozessoren fertigen lassen kann man sich denke ich einfach verabschieden. Die Chips kommen von AMD über GloFo.

y33H@
2013-01-22, 19:45:41
GloGo und TSMC haben auch keine Lizenz und fertigen x86 - wieso sollen MS und Sony nicht diesem Prinzip folgen, wenn AMD das Design entworfen hat? Wie ist hier die Regelung?

S940
2013-01-22, 19:51:11
GloGo und TSMC haben auch keine Lizenz und fertigen x86 - wieso sollen MS und Sony nicht diesem Prinzip folgen, wenn AMD das Design entworfen hat? Wie ist hier die Regelung?
GloFo hat meines Wissens x86 Lizenzen bei der Abspaltung bekommen. Aber TSMC ist ne gute Frage ...

Ansonsten, AMD stellt ein:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1358879656

Immerhin ganze 2 Leute ^^

Knuddelbearli
2013-01-22, 20:01:25
soweit ich mich erinnere hat damals AMD, als sie unter anderem die 1 Milliarde von Intel wegen der Sache damals bekommen haben, auch das Recht bekommen wo anders zu fertigen. SOnst wäre es noch viel teurer für Intel gewesen.

HOT
2013-01-22, 22:16:25
AMD gehört das Design und die Produkte die hinten rauskommen müssen von AMD verkauft werden. Es sind eben AMD x86 CPUs. Jetzt kann nicht einfach M$ herkommen, von AMD einen x86er lizenzieren und nach GloFo rennen um den zu produzieren. Wenn M$ einen x86er haben will muss dieser von AMD gefertigt sein oder M$ muss nach Intel rennen und nach einer x86-Lizenz betteln. Natürlich darf AMD bei GloFo oder TSMC x86er fertigen lassen, der neu ausgehandelte Vertrag erlaubt AMD ausdrücklich zu fertigen, wo immer AMD will, aber eben nur uns ausschließlich AMD CPUs - das hat mit Lizenzen für die Foundries nichts zu tun und nein, GloFo hat keine x86-Lizenz, es sind nach wie vor immer noch nur wenige im Umlauf, die nicht gehandelt werden dürfen, um Intels Monopol zu sichern.
Im Klartext heißt das, M$ und Sony müssen AMD-CPUs kaufen, anders geht es nicht.

Unlimited
2013-01-22, 23:07:22
Interessant.
Weiß zufällig auch jemand wie lange diese "x86-Lizenz" überhaupt noch gültig ist?

Naitsabes
2013-01-22, 23:20:09
das Problem ist nicht zwingend die x86 Lizenz, sondern vor allem auch die modernen isaerweiterungen, ohne die man heute nicht mehr viel reißen könnte. ;-)

S940
2013-01-22, 23:31:21
Quartalszahlen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1358893629

@HOT (http://www.forum-3dcenter.org/vbulletin/member.php?u=254):
Bin mir relativ sicher, dass es irgendwo mal hieß, dass GF ne Lizenz bekommen hat. Das letzte Abkommen lässt AMD aber die freie Fab-Wahl, das hast DU recht.

StefanV
2013-01-22, 23:39:35
Quartalszahlen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1358893629
Das schaut ja echt übel aus....

HOT
2013-01-22, 23:50:07
[...]

@HOT (http://www.forum-3dcenter.org/vbulletin/member.php?u=254):
Bin mir relativ sicher, dass es irgendwo mal hieß, dass GF ne Lizenz bekommen hat. Das letzte Abkommen lässt AMD aber die freie Fab-Wahl, das hast DU recht.
Glofo hat doch keine eigene CPU-Entwicklung. Selbst wenn die ne Lizenz hätten, würde das niemandem helfen.

mrt
2013-01-22, 23:57:05
Aber die können für Sony und Microsoft fertigen, wenn ich mich richtig erinner, dann hat GloFo Patente/Lizenzen die spezifisch für die x86-Fertigung gebraucht werden, das Design kommt ja eh von AMD. Ich kann jetzt aber auch komplett daneben liegen ;)

=Floi=
2013-01-22, 23:58:35
Das schaut ja echt übel aus....

ach quatsch! Du bist ja nur ein nv/intel fanboy :cool:

Unlimited
2013-01-23, 01:36:30
outch!
"Bezogen auf das Gesamtjahr... Der operative Verlust betrug 1,06 Milliarden US-Dollar.. Dies entspricht 1,50 US-Dollar Verlust pro Aktie."
Bei einem Aktienkurs von derzeit 2,50 USD schon eine Hausnummer...

Und die Intel-Aktie bricht ein, weil sie nur 2,5Mrd USD Gewinn machen...tststs...

Skysnake
2013-01-23, 01:59:51
Aber die können für Sony und Microsoft fertigen, wenn ich mich richtig erinner, dann hat GloFo Patente/Lizenzen die spezifisch für die x86-Fertigung gebraucht werden, das Design kommt ja eh von AMD. Ich kann jetzt aber auch komplett daneben liegen ;)
Der Auftragfertiger braucht gar keine Lizenzen...

Du drückst dem nen Design in die Hand, und er macht dir halt die Chips danach. Alles andere wäre ja auch total behämmert...

mboeller
2013-01-23, 07:50:15
AMD erwartet ja, das Ende 2013 ca. 20% von den Einnahmen durch die Consolen-Deals (embedded APU's) reinkommen. Das würde IMHO dafür sprechen das AMD die APUs im Auftrag von Microsoft und Sony selbst fertigt. Mit Lizenzen verdient man ja nicht soviel.
Im Geschäftsbericht von 2010 od. 2011 stand nur was von 54Mio Dollar für Lizenzen.

Knuddelbearli
2013-01-23, 09:51:45
Quartalsbericht sehe ich nicht sooo übel

300Mio der 470Mio Verlust kommen ja durch GloFo, ok die alten Manager waren wohl unfähig das sie sich so beschissene Deals andrehen haben lassen aber das ist jetzt ja erledigt

mrt
2013-01-23, 12:37:02
Der Auftragfertiger braucht gar keine Lizenzen...

Du drückst dem nen Design in die Hand, und er macht dir halt die Chips danach. Alles andere wäre ja auch total behämmert...
Das hängt von Intels Lizenzbestimmungen ab, übertragbar sind die per se nämlich nicht und genau das müsste in dem Fall passieren (von AMD zu Sony/MS und von da auf GloFo/TSMC/AndererAuftragsfertiger), außer der Auftragsfertiger hat selbst ein Lizenzabkommen.

HOT
2013-01-23, 12:42:25
Der Auftragsfertiger hat mit den Lizenzen nichts am Hut. Wenn du einen x86er bauen willst und hast ne Lizenz zusammen mit der Erlaubnis die wo anders backen lassen zu können, rennst du einfach nach TSMC und lässt sie dort backen. TSMC hat mit der x86-Lizenz in dem Moment rein garnichts am Hut, die machen nur den Chip, entwickeln, fertigen und verkaufen macht AMD. AMD mietet sozusagen die Fertigung für den Chip, TSMC ist also nur Dienstleister für AMD.
Umgekehrt ist es so, wenn der Fertiger eine Lizenz hat, dann kann er damit nur dann was anfangen, wenn er selbst tätig wird und einen x86er entwickelt/entwickeln lässt. Dann läuft das im Auftrag des Fertigers. So oder so, M$ ist aus dem Spiel was x86er angeht, die können nur fertige Chips als Kunde einkaufen, mehr ist nicht drin. Verträge wie bei den alten Konsolen sind schlicht und ergreifend unmöglich. Das wollen die auch garnicht mehr - grad für Sony war die Eigenverantwortung für die Fertigung ja auch nicht billiger. Die sind sicher heilfroh, dass das ein Dienstleister, in diesem Fall AMD, übernimmt und die nurnoch zusammenbauen müssen.

mrt
2013-01-23, 12:45:24
Weil AMD genauso wie VIA so ein Abkommen haben, dass ihnen das erlaubt, aber nicht Sony oder Microsoft. AMD kann eben nicht die Lizenzen durch verkauf/lizensierung von IP übertragen.

Skysnake
2013-01-23, 13:07:27
Sie verkaufen/lizenzieren ja auch nicht die x86 Lizenz, sondern GENAU ein Chipdesign, welches bis auf den letzten Transistor festgelegt ist.

Wo MS/Sony dass dan fertigen lassen und zu welchen Konditionen wird ihr Problem sein. Wobei das schon vorher klar sein muss, da die Designs auf die unterschiedlichen Fertigungsverfahren angepasst werden müssen...

AMD hat damit nichts am Hut, wenn würde man nur sagen: Du sag mal ja, und setz da deinen Servus drunter.

Aber das wars dann auch, die Verantwortung liegt bei MS/Sony für die Produktion, und alles andere bei AMD, und daher gibts auch keine Probleme mit der Fertigung...

AMD könnte bei jedem x beliebigen Hersteller x86 CPUs fertigen lassen, wenn Sie denn wollten, was Sie nicht wollen, da Sie sich an GF gebunden haben (freiwillig).

mrt
2013-01-23, 13:46:30
Da gehts ja auch um Verfahrenspatente ohne die man keinen aktuellen AMD-Prozessor verkaufen kann, zumindest nicht in der westlichen Welt. Also wie sollen denn Sony und Microsoft die APU fertigen und verkaufen (ob in einem Gerät oder nicht spielt keine Rolle) ohne entsprechnde Lizenzen? Einziges Schlupfloch: Der Auftragsfertiger hat entprechnde Lizenzen.

HOT
2013-01-23, 13:54:52
Sie verkaufen/lizenzieren ja auch nicht die x86 Lizenz, sondern GENAU ein Chipdesign, welches bis auf den letzten Transistor festgelegt ist.

Wo MS/Sony dass dan fertigen lassen und zu welchen Konditionen wird ihr Problem sein. Wobei das schon vorher klar sein muss, da die Designs auf die unterschiedlichen Fertigungsverfahren angepasst werden müssen...

AMD hat damit nichts am Hut, wenn würde man nur sagen: Du sag mal ja, und setz da deinen Servus drunter.

Aber das wars dann auch, die Verantwortung liegt bei MS/Sony für die Produktion, und alles andere bei AMD, und daher gibts auch keine Probleme mit der Fertigung...

AMD könnte bei jedem x beliebigen Hersteller x86 CPUs fertigen lassen, wenn Sie denn wollten, was Sie nicht wollen, da Sie sich an GF gebunden haben (freiwillig).
Das stimmt einfach nicht. AMD kann nicht einfach x86-Deisgns weiterlizenzieren, dazu braucht AMD die Erlaubnis von Intel. Es ist völlig unerheblich, ob das jetzt GENAU DAS Chipdesign ist. Es ist und bleibt ein x86er. Und nur AMD und VIA dürfen abseits von Intel x86er mit aktuellen Befehlssätzen bauen, punkt.
Da gehts ja auch um Verfahrenspatente ohne die man keinen aktuellen AMD-Prozessor verkaufen kann, zumindest nicht in der westlichen Welt. Also wie sollen denn Sony und Microsoft die APU fertigen und verkaufen (ob in einem Gerät oder nicht spielt keine Rolle) ohne entsprechnde Lizenzen? Einziges Schlupfloch: Der Auftragsfertiger hat entprechnde Lizenzen.
Das funktioniert nicht, denn dann müsste GloFo der Auftraggeber sein, nicht M$.

Man könnte den Chip allerhöchstens so "verfremden", dass er total inkompatibel zu x86 wird, da läuft man aber Gefahr sich strafbar zu machen und würde eine gewaltige Gerichtsschlacht mit Intel austragen müssen. Das ist alles total unrealistisch. AMD entwickelt und fertigt die Prozessoren für die Konsolen und M$ und Sony kaufen sie, anders funktioniert es nicht.

AMD kann auch nicht einfach M$ den Auftrag geben, x86er zu fertigen, denn dann müsste AMD die fertigen Chips dann trotzdem an M$ verkaufen. Das macht einfach alles keinen Sinn. Aus der Lizenznummer kommt man einfach nicht raus, sonst gäbe es schon Firmen, die das so bei AMD lizenzieren würden.
Kann ja sein, dass Intel es erlaubt, dass ein einziges Design von M$ gefertigt werden darf, weiss ich ja nicht. Ist aber mMn extrem unwahrscheinlich, da Intel den Auftrag gern selbst gehabt hätte. x86 gehört Intel, alle anderen müssen sich danach richten - so siehts aus. Es ist nur so erklärbar, dass beide Konsolenhersteller sich tatsächlich langfristig an AMD binden wollen. [Bei M$ könnte das auch politische Gründe haben, da es M$ nichts bringen würde AMD zu kaufen - die x86-Lizenz würde in diesem Fall verfallen. Also bindet man AMD finanziell stark ans Unternehmen. Erklärte Stategie von M$ war es ja eigene Hardware zu bauen.]

mrt
2013-01-23, 15:18:12
Was die Verfahrenspatente angeht, sollte es reichen wenn die die Foundrie hat. Freilich kann der Auftraggeber geschützte Namen wie SSE oder AVX nicht verwenden, aber das spielt ja bei einer Konsole keine Rolle. Die ISA selbst kann sich ja Intel nicht schützen lassen, nur Verfahren und Implementierung (sowieso geschützt) sowie Markennamen. Beim ARM gehts ja auch um Verfahrenspatente und nicht um die ISA an sich, nur bau mal eine CPU mit ARMv7 ohne ein Patent zu verletzen...

Skysnake
2013-01-23, 16:14:42
Was ihr fürn Aufstand macht wegen den Lizenzen.... Dann ändert man einen Satz in den Verträgen, wonach AMD die Proudziert, MS/Sony aber alle abnehmen müssen, und selbst validieren, und schon ist der Käs gegessen...

Das sind reine Vertragsausgestaltungsturnereien....

YfOrU
2013-01-23, 16:42:45
Was ihr fürn Aufstand macht wegen den Lizenzen.... Dann ändert man einen Satz in den Verträgen, wonach AMD die Proudziert, MS/Sony aber alle abnehmen müssen, und selbst validieren, und schon ist der Käs gegessen...

Das sind reine Vertragsausgestaltungsturnereien....

Wir sprechen hier über essentiellste Bestandteile von Intels IP Portfolio. Kreative Vertragsauslegungen kann ein Unternehmen wie Intel nicht tolerieren denn sowas macht sich schnell negativ im Kerngeschäft bemerkbar. Das steht durch die Transformation zu immer mobileren Produkten sowieso unter Druck und dementsprechend gibt es hier mit Sicherheit absolut keinen Spielraum. Neben AMD würde sonst auch Via munter anfangen x86-64 IP Cores zu verscheppern.

Da AMD selbst angibt das embedded APUs in absehbarer Zukunft bis zu 20% des Umsatzes ausmachen werden geht das wohl so oder so deutlich über lizenzierte Designs hinaus.

HOT
2013-01-23, 20:05:41
Wenn es möglich wäre, das vertraglich zu umgehen, hätte man das schon laaaaange getan. Man kann sehr sicher sein, dass Intel bei seinen Verträgen so vorsichtig ist, dass da kein Hintertürchen offenbleibt, grad bei dieser Geschichte. Die CPUs kommen von AMD und werden von M$ und Sony gekauft, Ende der Geschichte.

StefanV
2013-01-23, 20:12:56
@HOT
Es spricht aber nichts dagegen, dass AMD als Strohmann agiert, oder? ;)
Und so letztendlich M$ und Sonie für weitere 'Verbesserungen' verantwortlich wären...

Kommt halt ganz drauf an, ob AMD das machen möchte...

Duplex
2013-01-23, 20:17:41
Ich würde an AMDs stelle auch keine Lizenzen vergeben, sondern einfach die Chips bei GF oder TSMC produzieren und danach an MS/Sony verkaufen, sonst verdient man zuwenig Geld.
Wenn AMD schlau ist werden Sie MS/Sony genauso wie die OEM Hersteller Dell, HP usw. behandeln, AMD hat nichts zu verschenken.

Undertaker
2013-01-23, 20:18:03
Wir sprechen hier über essentiellste Bestandteile von Intels IP Portfolio. Kreative Vertragsauslegungen kann ein Unternehmen wie Intel nicht tolerieren denn sowas macht sich schnell negativ im Kerngeschäft bemerkbar. Das steht durch die Transformation zu immer mobileren Produkten sowieso unter Druck und dementsprechend gibt es hier mit Sicherheit absolut keinen Spielraum. Neben AMD würde sonst auch Via munter anfangen x86-64 IP Cores zu verscheppern.

Ich denke, dass Skysnake da etwas anderes gemeint hat. Es dürfte durchaus die vertragliche Möglichkeit geben, dass AMD das Fertigungsrisiko (aber auch zukünftige Einsparungen durch Shrinks) indirekt an MS/Sony weiterreicht - wie zum Beispiel die schon angesprochene Variante, dass beide Hersteller ihre jeweiligen Chips zu genau dem Preis abnehmen, den AMD wiederum an GF zahlen muss. Darauf kommt noch ein gewisser Prozentsatz an AMD selbst (= indirekte Lizenzkosten) und fertig. Genau dieser Prozentsatz (oder auch ein Absolutbetrag) wurde entsprechend lange im Vorfeld verhandelt und wird den Ausschlag dafür gegeben haben, dass AMD und nicht eine ganz andere Variante den Zuschlag bekam. Da so ein Konsolendeal eine relativ sichere Einnahmequelle sein dürfte, wird die Gewinnspanne durch die Konkurrenz mit anderen Anbietern wohl relativ klein sein – die Masse macht es.

Skysnake
2013-01-23, 22:02:20
genau das

Unlimited
2013-01-31, 10:13:51
Wusstet ihr das?
http://nerdinsider.com/2012/04/27/why-are-consoles-banned-in-china/

Jedenfalls der Consolenbann wird wohl ein Ende finden, welches zu einer hohen zusätzlichen Konsolennachfrage führen könnte:
http://www.torontosun.com/2012/11/07/will-china-end-game-console-ban

AMD könnte davon profitieren.

gnahr
2013-01-31, 10:43:40
ach bitte, selbst wenn sich der konsolenabsatz global spontan verdoppelt weil "RedRingOfDeath" und co auch amd-hardware in den händen knausriger planer gern befallen, der zugewinn bleibt weiterhin in der größenordnung "Peanuts".

Dural
2013-01-31, 10:50:46
konsolen geschäft läuft nur über lizenzen, wurde doch schon x mal bestätigt.

am anfang sind die lizenz gebühren noch recht "hoch" um die entwicklung der chips zu bezahlen, nach ca. 2 jahren fallen die lizenz kosten so tief das quasi nichts mehr raus springt: einen dollar pro chip vieleicht, später eventuell sogar nur noch cent beträge.

YfOrU
2013-01-31, 12:17:34
Ich denke, dass Skysnake da etwas anderes gemeint hat. Es dürfte durchaus die vertragliche Möglichkeit geben, dass AMD das Fertigungsrisiko (aber auch zukünftige Einsparungen durch Shrinks) indirekt an MS/Sony weiterreicht - wie zum Beispiel die schon angesprochene Variante, dass beide Hersteller ihre jeweiligen Chips zu genau dem Preis abnehmen, den AMD wiederum an GF zahlen muss. Darauf kommt noch ein gewisser Prozentsatz an AMD selbst (= indirekte Lizenzkosten) und fertig. Genau dieser Prozentsatz (oder auch ein Absolutbetrag) wurde entsprechend lange im Vorfeld verhandelt und wird den Ausschlag dafür gegeben haben, dass AMD und nicht eine ganz andere Variante den Zuschlag bekam.

Das die Kosten für die Fertigung ein dynamischer Faktor sind und sich hier sicher direkt auf die Abnehmer auswirken habe ich nie bestritten.


Da so ein Konsolendeal eine relativ sichere Einnahmequelle sein dürfte, wird die Gewinnspanne durch die Konkurrenz mit anderen Anbietern wohl relativ klein sein – die Masse macht es.

Welche Konkurrenz ? Abseits von AMD kann niemand vergleichbare Designs ohne massivst höheren Entwicklungsaufwand und erheblich längerer Vorlaufzeit liefern. Gleichzeitig ermöglicht die geringe Differenz zu AMDs regulären Portfolio eine frühzeitige Entwicklung der Software nahe am finalen Design der Hardware.

Insgesamt ist bei solchen Deals immer von einer recht geringen Marge auszugehen -> Volumen. Aufgrund der Menge an AMD IP wird es aber kaum so günstig sein wie in der Vergangenheit. Auf der anderen Seite stehen dafür geringere Entwicklungskosten und eine schnellere Verfügbarkeit. Hier wird man sich zwangsläufig irgendwo in der Mitte zwischen beiden Extremen getroffen haben.

john carmack
2013-02-16, 08:54:38
3dcenter: "Zudem sieht man sich mit dem "Never Settle Reloaded" Spielebundle bestens für die nächste Zeit aufgestellt und weist auf dadurch vorangetriebene aktuelle Rekordverkäufe an Radeon-Grafikkarten in den USA und Europa hin."


dazu kommt der Nintendo/Sony/Microsoft Deal...
Spiele werden in Zukunft "AMD Optimiert" sein - somit schrumpft auch der vorsprung von Nvidia.


Wobei man immer sagen muss das zb:

Rekordverkäufe nicht gleich RekordUmsatz und schon gar nicht gleich rekord(netto)gewinn bedeutet.

zumal auch noch dazu kommt dasman nicht weiß wie AMD mit Nintendo/Sony/Microsoft gepokert hat.
könnte schon sein das AMD von sich aus die Preise für die chips recht tief ansetzt damit Nintendo/Sony/Microsoft zuschlagen wobei sich der gewinn für AMD auch in grenzen hällt.



Aber so richtig schlecht sieht es für AMD gar nicht aus. Den Desktopmarkt jetzt mal ausgenommen. Wie es sich bei ServerCPUs verhält weiß ich leider auch nicht.

HOT
2013-02-16, 09:13:24
konsolen geschäft läuft nur über lizenzen, wurde doch schon x mal bestätigt.

am anfang sind die lizenz gebühren noch recht "hoch" um die entwicklung der chips zu bezahlen, nach ca. 2 jahren fallen die lizenz kosten so tief das quasi nichts mehr raus springt: einen dollar pro chip vieleicht, später eventuell sogar nur noch cent beträge.
Dieses Mal nicht.

=Floi=
2013-02-16, 09:25:23
hört doch mit eurem "amd optimiert" scheiß auf. eine GF7 ist dankt der PS3 auch nicht besser geworden.

gnahr
2013-02-16, 11:29:19
wenn man das nicht als spekulationsgrundlage annimmt kann man überhaupt keine guten prognosen für amds grafikkartensparte aufstellen sondern nur von gemischten karten (im sinne eines papier-kartenspiels) ausgehen. :P

was ist eigentlich aus der these geworden amd wäre immer vieeel effizienter (entstanden hd5k versus gtx400 weil die leute hd4k schnell verdrängten) und viel eher am markt (entstanden als hd5k zeitig in kleinen mengen auf den markt kam und den eigenen preis hochtrieb... sehr schön jetzt zu rezizieren wo bis q4 nix außer ner voll behindert relabelten fake-hd8k-oem zu buche schlägt)
der aktienkurs stagniert am boden wie ein gerupfter kondor und die leute hier klopfen sich gegenseitig das blaue vom himmel an zukunftsprognosen. entweder es macht sich jeder nen spaß den treppen witz von der konkurrenzfähigkeit amds zu reissen und keiner glaubt drann, oder nur leute die nicht in aktien investieren können/wollen sitzen dem hirngespinnst auf.

Blediator16
2013-02-16, 13:01:21
hört doch mit eurem "amd optimiert" scheiß auf. eine GF7 ist dankt der PS3 auch nicht besser geworden.

Weil in der anderen Konsole eine ATI GPU steckte. Da wird sich keiner die Mühe machen auf GPU X zu optimieren. Diesesmal sind ausnahmslos alle Konsolen damit ausgestattet und wir wissen nicht wie es bei den anderen wie z.b SteamBox aussehen wird.

bla

Was willst du mit dem Post uns ausser "amd ist scheisse" noch sagen?

Coda
2013-02-16, 13:14:23
Ich hab's schon öfters erwähnt, aber meiner Meinung nach wird das keinen signifikanten Einfluss haben.

S940
2013-02-16, 13:24:43
Ich hab's schon öfters erwähnt, aber meiner Meinung nach wird das keinen signifikanten Einfluss haben.
Das würde schon reichen, wenn ein PC-Port eines Konsolenspiels aus dem Stand beim ersten Test schon nen optimierten AMD-Treiber vorfinden und deshalb beim beliebten Balkenvergleich ein paar Millimeter vor der grünen Konkurrenz landen könnte, da die erst noch die Treiber polieren muss.
Nach ein paar solcher Tests würde sich die Meinung herumsprechen, dass AMD die "schnelleren" Karten hätte. Zumindest in den üblichen "Stammtisch-Foren", auf 3DC natürlich nicht ;-)

Coda
2013-02-16, 13:54:38
Das würde schon reichen, wenn ein PC-Port eines Konsolenspiels aus dem Stand beim ersten Test schon nen optimierten AMD-Treiber vorfinden
Wieso sollten sie das?

S940
2013-02-16, 14:00:29
Wieso sollten sie das?Wieso nicht?

Coda
2013-02-16, 14:08:03
Weil die Konsolen-"Treiber" nichts mit dem PC zu tun haben?

Skysnake
2013-02-16, 15:38:21
Weiß AMD aber nicht gezwungener Maßen einiges aus der Konsolen-Treiber-Entwicklung, was Sie für die Desktop-Treiber verwenden könnten?

=Floi=
2013-02-17, 14:05:36
auch das kann man wieder umdrehen. was sollten sie auf den konsolen anders als auf dem pc machen? der pc treiber existiert schon und ich sicherlich gut optimiert.

Undertaker
2013-02-17, 14:20:30
Blöde Frage: Werden die Konsolen-"Treiber" überhaupt kontinuierlich mit den Systemupdates aktualisiert oder bleiben die über die gesamte Lebensdauer unverändert?

AnarchX
2013-02-17, 14:23:56
Wenn dann bringt wohl ein Spiel seinen "Treiber" mit. Und trotz GCN-GPUs ist der Unterschied wahrscheinlich immer noch so groß, durch die Custom-HW (DMEs, ...), dass man ohne optimierte Treiber weiterhin Probleme beim Release auf dem PC erwarten kann.

Nightspider
2013-02-17, 14:28:40
Mal abgesehen davon ob irgendwelche Treiber von PC oder Konsole zum anderen System übernommen werden können oder nicht, ist es zumindest ein Vorteil, das sich die Entwickler die AMD Architekturen besser kennen lernen und diese dann in und auswendig kennen. Von Nachteil ist das sicher auch nicht für die AMD Desktop Hardware.

Skysnake
2013-02-17, 14:53:34
Hmm...

Also nach nem kleinen Hinweis, muss ich meine Meinung wohl etwas revidieren. Der Vorteil/Nutzen für den Desktop könnte wohl kleiner sein, als man denkt, und auch der Portierungsaufwand, zumindest für die PS4 größer sein, als erwartet.

XBox<->Windows könnte aber doch am Ende relativ gut gehen bzgl Portierungen. Wie bisher halt auch.

AMD ist wohl aber nicht so nah dran, wie von mir erwartet wurde. Das kommt dann wohl eher über ihr "Gamer-Programm". Das scheint aber so langsam richtig gut zu laufen.

Schaumer einfach mal. Ich würde die Erwartungen aber doch etwas dämpfen.

Unlimited
2013-02-25, 21:31:37
Nur der Vollständigkeit halber:
Für AMD geht ein -angesichts der positiven globalen wirtschaftlichen Lage- erschreckend desaströses Geschäftsjahr zu Ende.
2012 wurde laut Quartalsbericht vom 23.02.2013 ein Minus von 1,18 Mrd USD "erwirtschaftet".
Der Jahresumsatz ging dabei von 6,57Mrd USD auf 5,42Mrd USD zurück.

http://www.handelsblatt.com/unternehmen/it-medien/chiphersteller-amd-schreibt-erneut-rote-zahlen/7672568.html

Die Aktie stürzt aktuell wohl nur deswegen nicht weiter ab, da sie bereits zu 18%-20% des Gesamtvolumens leerverkauft ist.

BTW, die Aktie ist derzeit an der Börse mit insgesamt ca. 1,8Mrd USD bewertet.
Eine derart verwegene Konstellation habe ich noch nie erlebt. Die Aktie macht ein einem Jahr fast genauso viel Verlust, wie sie an der Börse wert ist.
Bin sehrsehr gespannt wie dieses Schauspiel weitergeht.

Sowas gibts echt nur in den USA.
In Deutschland wäre eine derartig rabenschwarze Firma schon lange Pleite, bevor sie soviel Verlust machen kann...

samm
2013-02-25, 21:38:32
angesichts der positiven globalen wirtschaftlichen LageI lol'd ;)
Die Aktie stürzt aktuell wohl nur deswegen nicht weiter ab, da sie bereits zu 18%-20% des Gesamtvolumens leerverkauft ist.Belege? Und sagst du damit nicht, dass "irgendwer" (der diese Leerverkäufe getätigt hat) nun massiv AMD-Aktien kaufen muss, um seinen Verpflichtungen nachzukommen? Wenn "jemand" 20% aller Aktien aufkaufen muss, würde das den Preis massiv in die Höhe treiben. Was missverstehe ich grade? :confused:
In Deutschland wäre eine derartig rabenschwarze Firma schon lange Pleite, bevor sie soviel Verlust machen kann...Nö, so lange Geld da ist, kann eine Firma fröhlich Verlust machen.

fondness
2013-02-25, 21:53:25
Ich würde es mal so ausdrücken, wenn AMD Pleite gehen würde, hätten mehrere Marktteilnehmer ein Problem, inkl. Sony und MS. Es ist wohl kein Zufall das AMD immer wieder Geldgeber findet...

dildo4u
2013-02-25, 21:57:01
Ich würde es mal so ausdrücken, wenn AMD Pleite gehen würde, hätten mehrere Marktteilnehmer ein Problem, inkl. Sony und MS. Es ist wohl kein Zufall das AMD immer wieder Geldgeber findet...
Die Desgin's sind fertig Sony und MS lassen jetzt nach belieben fertigen erstmal bei TSMC.

Skysnake
2013-02-25, 22:19:12
Nur der Vollständigkeit halber:
Für AMD geht ein -angesichts der positiven globalen wirtschaftlichen Lage- erschreckend desaströses Geschäftsjahr zu Ende.


:facepalm:

Kannst du mir mal sagen, was du rauchst? Scheint ja echt übler Stoff zu sein...

Unlimited
2013-02-25, 22:37:46
:facepalm:

Kannst du mir mal sagen, was du rauchst? Scheint ja echt übler Stoff zu sein...

Sky,
ich weiß nicht genau, ob ich deine Aussage richtig interpretiert habe, aber ich vermute einfach, dass du denkst, die Weltwirtschaft wäre derzeit mächtig am abkacken...
Richtig?

OK, versteh mich bitte nicht falsch, aber welche Belege hättest denn DU dafür, dass es der Weltwirtschaft momentan evtl. so furchtbar schlecht ginge?
Richtige Beweise bitte.

Nichts "Gefühltes" bitte,... Ich sags mal provokant: wie z.B. bloß weil es dir und deinen Bekannten derzeitig womöglich persönlich mutmaßlich aktuell finanziell schlecht geht, musst du daraus nicht gleich global schließen, dass die Weltwirtschaft mies da steht.

Ich liefere dir gerne einen Beweis, falls du danach verlangst...

Undertaker
2013-02-25, 22:39:44
:facepalm:

Kannst du mir mal sagen, was du rauchst? Scheint ja echt übler Stoff zu sein...

Na übertreib mal nicht. Intel, Nvidia, Qualcomm und andere Branchengrößen sind mit ziemlich guten Zahlen aus 2012 gegangen. Die weltweite(!) gesamtwirtschaftliche Lage sollte man vielleicht noch nicht unbedingt "gut" nennen, im IT-Sektor sah es aber insgesamt doch sehr ordentlich aus. Edit: Zu langsam...

Unlimited
2013-02-25, 22:55:40
I lol'd ;)
Belege?
Du verlangst von mir Belege...
Hast du denn welche?


Und sagst du damit nicht, dass "irgendwer" (der diese Leerverkäufe getätigt hat) nun massiv AMD-Aktien kaufen muss, um seinen Verpflichtungen nachzukommen? Wenn "jemand" 20% aller Aktien aufkaufen muss, würde das den Preis massiv in die Höhe treiben. Was missverstehe ich grade? :confused:
Nö, so lange Geld da ist, kann eine Firma fröhlich Verlust machen.

Gerne liefere ich dir einen Beleg:

"Between August 31, 2012, and September 14, 2012, short interest in AMD rose 9.5% to 20.2% of the company's total float."
http://seekingalpha.com/article/899461-3-stocks-with-high-short-interest

Der ist zwar nicht mehr taufrisch, aber wahnsinnig viel wird sich seither nicht getan haben.

Hübie
2013-02-25, 23:26:33
Wie? Fertigt nicht GloFo im Auftrag von AMD die ganzen Konsolen-SoCs?? Haben Sony und MS nur jeweils einmal Lizenzgebühren gezahlt um dann in Eigenregie bei TSMC & ggf. UMC zu fertigen? Wäre ja auch nicht gerade den Zahlen zuträglich... Die gehen wohl echt den Bach runter :(

Gipsel
2013-02-26, 00:22:51
AMD wird vermutlich einmalig (bzw. in mehrere Tranchen gesplittet) für die Entwicklung bezahlt und bekommt dann pro Chip eine Lizenzgebühr.

Hübie
2013-02-26, 00:31:08
Ah, also meinst die verdienen doch an den Stückzahlen? Ich sehe echt aktuell kein Produkt von AMD welches ich kaufen würde. Traurig aber wahr. Das wird sich erst mit der PS4 ändern.

Skysnake
2013-02-26, 09:57:10
Sky,
ich weiß nicht genau, ob ich deine Aussage richtig interpretiert habe, aber ich vermute einfach, dass du denkst, die Weltwirtschaft wäre derzeit mächtig am abkacken...
Richtig?

OK, versteh mich bitte nicht falsch, aber welche Belege hättest denn DU dafür, dass es der Weltwirtschaft momentan evtl. so furchtbar schlecht ginge?
Richtige Beweise bitte.

Nichts "Gefühltes" bitte,... Ich sags mal provokant: wie z.B. bloß weil es dir und deinen Bekannten derzeitig womöglich persönlich mutmaßlich aktuell finanziell schlecht geht, musst du daraus nicht gleich global schließen, dass die Weltwirtschaft mies da steht.

Ich liefere dir gerne einen Beweis, falls du danach verlangst...
Dann verfolge doch einfach die Medien, schau die Aktienkurse an usw. Ich weiß jetzt auch nicht, in wieweit du eine Grundbildung in BWL&VWL hast. Falls nicht, einfach mal jeweils ein grundlegendes Buch drüber lesen hilft auch ungemein.

Der IT Markt in Westeuropa ist stark am Schrumpfen. Der Einzige Hersteller, der mehr Absetzt ist Lenovo. Die haben aber auch wenn ich mich recht erinnere auch jemanden aufgekauft. Das müsste man nochmal nachschauen und auseinandernfriemeln.
http://www.heise.de/resale/meldung/Gartner-PC-Markt-in-Westeuropa-schrumpft-weiter-deutlich-1803799.html

Auf die ganze Welt übertragen, schrumpft er noch immer um 3,2% http://www.zdnet.de/88139136/idc-weltweiter-pc-markt-schrumpft-64-prozent-im-vierten-quartal/

Und selbst ein 0 auf 0 wäre schon nicht gut, sondern ein besorgniserregend, aber noch ok. Der Markt muss wachsen, insbesondere im IT-Bereich... Davon lebt die Branche zu einem guten Teil. Es muss wachstum her, man muss ja mindestens die Inflation ausgleichen... Wir haben hier aber sogar einen Rückgang, und du redest hier von einer "globalen positiven Wirtschaftslage"?

Sorry, aber da ist einfach lächerlich...

So und dann ganz neu von vor 10 Tagen: http://www.gameswelt.de/sonstiges-aus-der-welt-der-hardware/news/absatz-schrumpft-deutlich,176207
Und hier, selbst SmartPhone-Hersteller setzen 2,3 % weniger ab: http://www.tweakpc.de/news/24999/handy-markt-schrumpft-trotz-smartphone-boom/

So und das bezieht sich immer jeweils auf den Gesamtmarkt. Da hängen also alle dran: MB-, CPU-, GPU-, Gehäuse-, Netzteil-, RAM-, Festplatten-, Monitor-Hersteller usw usw

Du machst einfach nur den eklatanten Fehler, die Quartalsberichte mit den Gewinnen/Umsätzen von einigen wenigen Firmen dir an zu schauen, und zu sehen, wie viel Gewinn Sie machen. Ja da gibt es Firmen, die noch immer gut dastehen wie Intel, wenn man aber genau hinschaut, dann sieht man auch, dass Sie eben "nur" ihre Marge erhöht haben, insgesamt aber, wenn ich mich recht erinnere aber weniger Gewinn und vor allem auch Umsatz gemacht haben. Das bedeutet aber nur, das der Hersteller rationalisieren konnte, nicht aber, das es dem "Markt" gut geht.

Und zur global guten Wirtschaftslage:
Amerikanische Wirtschaft schrumpft http://www.aktiencheck.de/analysen/Artikel-Die_Weltwirtschaft_laeuft_nicht_ueberall_rund_EUR_USD_auf_14_Monats_Hoch-4838480
In Gesamteuropa haben wir die Rezession, bzw Sie wird erwartet: http://www.sueddeutsche.de/wirtschaft/abschwung-in-der-euro-zone-neues-jahr-alte-rezession-1.1606897
http://www.ifw-kiel.de/wirtschaftspolitik/konjunkturprognosen/konjunkt/2013/euroframe_report_190213.pdf
Chinas Wirtschaft wächst deutlich langsamer, obwohl der Staat massiv versucht dies zu verhindern, z.B. durch (angeblich illegale) Subventionen in der Solarbranche usw usw http://www.epochtimes.de/chinas-wirtschaftswachstum-auf-13-jahres-tief-1059001.html


Die Weltkonjunktur hat im
Jahr 2012 weiter an
Fahrt verloren. Im Jahresdurchschnitt dürfte
die Weltproduktion nur noch um 3,2 Prozent
gestiegen sein, nachdem schon im Jahr zuvor
mit 3,8 Prozent nur noch
ein recht moderater
Anstieg verzeichnet worden war.
http://www.ifw-kiel.de/wirtschaftspolitik/konjunkturprognosen/konjunkt/2012/Konjunkturprognosen_Welt_12-12.pdf
Das wird wohl gerade Weltweit ausreichen, um die global betrachtete Inflation aus zu gleichen...

So, das waren jetzt nur der grobe schnelle Überblick, den ich mal so in 30 min zusammengestückelt habe... Wenn man noch mehr ins Detail geht, wird man erkennen, das es der IT-Branche, insbesondere den Hardwareherstellern (PC) nochmals deutlich schlechter geht, als der Wirtschaft im Allgemeinen...

So und jetzt kommst du mit deiner "guten Weltwirtschaft" :down: Sorry, aber son Stuss vom Stapel lassen, und sich dann auch noch hinstellen, und nach "Beweisen" verlangen, obwohl man nur die Augen auf machen müsste...


Na übertreib mal nicht. Intel, Nvidia, Qualcomm und andere Branchengrößen sind mit ziemlich guten Zahlen aus 2012 gegangen. Die weltweite(!) gesamtwirtschaftliche Lage sollte man vielleicht noch nicht unbedingt "gut" nennen, im IT-Sektor sah es aber insgesamt doch sehr ordentlich aus. Edit: Zu langsam...
Intel setzt weniger ab, verlangt aber mehr, und zieht seine Vorteile aus den shrinks, bei denen die CPUs nicht mehr schneller, sondern einfach kleiner werden. Damit können Sie vieles ausgleichen. Trotzdem bricht der GEwinn bei Ihnen auch ein: http://www.gamestar.de/hardware/prozessoren/intel-core-i5-3570k/intel_quartalszahlen,489,3008561.html

Und das kannst du bei nahezu jeder Firma machen. Die retten sich so mit Ach und Krach auf ein ganz ordentliches Niveau, das liegt aber auch daran, das es ihnen zuvor recht gut ging. Intel baut z.B. seine Marktmacht noch weiter aus. Kann damit also gewisse Rückgänge im Gesamtmarkt kompensieren.

Nicht ohne Grund gehen die Aktienkurse so ziemlich aller IT(Hardware)-Unternehmen runter. ARM ist da ne Ausnahme, aber auch die haben Dämpfer erhalten.

Sollte China jetzt noch mit MIPS im Weltweiten Markt massiv mitspielen wollen, und ihre Firmen demensprechend (illegal) subventionieren, dann gute Nacht...

So weit muss man aber nicht mal gehen. Die Shrinks werden immer teuerer, und die Zeitspannen immer länger. Allein das verringert schon die Nachfrage, da langsamer neue Produkte kommen. Das wird allen Herstellern noch schwer zu schaffen machen. Die Zeiten der einfachen Wege sind halt endgültig vorbei...

Aktuell ist die gesamte wirtschaftliche Lage ziemlich dünnhäutig, und auch nur scheinbar "sonnig" gestimmt. Wir sitzen auf einem GEWALTIGEN Pulverfass, bzw wenn man es genauer nimmt sogar zwei Pulverfässer, in die fortwährend weiter Pulver reingestopft wird... Da fühle ich mich an die riesen Bomben aus dem WWI erinnert...

Die USA sind völlig überschuldet, und pumpen Unmengen an Geld in den Markt. Das ist verdammt gefährlich, da es immer mehr Geld zum "zocken" gibt, und das wird auch gemacht. Zudem besteht die Gefahr, dass die USA ihren Haushalt massiv zusammenstreichen müssen, weil Sie eben die "Fiskalklippe" runter plumpsen. Und dann kann man sich mal ausrechnen, was mit als erstes zusammengestrichen wird. Los Allamos usw werden dann wohl nicht mehr so schnell neue Rechner bekommen usw usw.

Und als zweites Pulverfass haben wir die EU, wo wir voll in der Rezession sind, und Deutschland als Leuchtturm dasteht... Aber auch nur, weil bei uns extremes Lohndumping betrieben wird, die Leute EXTREM flexibel sein müssen, Leiharbeit zu Hungerlöhnen betrieben wird, und die Leute einfach in sehr vielen Betrieben verheizt werden...
Unseren "Erfolge und Wohlstand" bauen wir aber auf dem Rücken der anderen EU-Länder auf. Wir haben die einfach gegen die Wand gespielt mit unserer Produktivität, und unserem Lohndumping (Reallohnrückgang seid was weiß ich wann... Die Reallöhne sind glaub auf dem Stand von vor 10 Jahren.... Und nein, das such ich jetzt nicht noch extra raus...). Unsere niedrigen Arbeitslosenzahlen erkaufen wir dadurch, das wo anders mehr Leute arbeitslos sind in der EU...
Und bei den anderen sieht es extrem aus. Schaut mal nach SPanien. Was warens 25 oder 50% Jugendarbeitslosigkeit? Griechenland muss man wohl nicht nennen. Und auch Italien sagt wohl jedem mehr als genug.

Dazu dann noch Zypern usw usw. Wenn jetzt auch noch Italien um fällt, oder Spanien voll in die Seile geht, dann gute Nacht... Die Gefahren sind hier einfach IMMENS! Und wenns hier voll vor die Hunde geht, wovon ich eigentlich ausgehe, und viele andere auch, was man an der Flucht in Sachgüter sieht, dann knallts mal so richtig... Dann muss man auch über Krieg in der EU nachdenken, und wenn es "nur" ein Bürgerkrieg ist.

Wir stehen direkt an gleich mehreren Abgründen, und ihr tut so, als ob alles Friede Freude Eierkuchen wäre... Ja, Deutschland geht es vergleichsweise gut, aber auch hier gibt es extreme Probleme (Siehe Armutsbericht, der noch kommen soll, und "bearbeitet" wird).

Problematisch ist vor allem, das "alle" Lösungen, die uns helfen würden, die Wirtschaft wohl abwürgen würden. Zumindest, wenn man es nicht global macht, und selbst dann zu einem gewissen Grad.

Von daher sieht die aktuelle Lage und auch die Zukunft alles andere als "gut" aus. Das ist einfach schon der blanke Hohn so etwas zu behaupten. Es sieht eigentlich verdammt scheise sogar aus, und jeder, der recht gut durch die Krise kommt, hofft nur, dass es nicht den großen Knall gibt, weil er ganz genau weiß, das es das dann gewesen ist, und man sich überhaupt nicht dagegen absichern kann. DAher heist die Dewise in dem Punkt auch "Hoffnung/positives Denken". Man muss den Leuten ja Vertrauen geben, damit Sie konsumieren, und damit die Wirtschaft anfachen. Eventuell bekommt man ja doch noch die Kurve... VWL hat halt auch sehr viel mit Psychologie zu tun...

stav0815
2013-02-26, 11:28:29
Dann verfolge doch einfach die Medien, schau die Aktienkurse an usw. Ich weiß jetzt auch nicht, in wieweit du eine Grundbildung in BWL&VWL hast. Falls nicht, einfach mal jeweils ein grundlegendes Buch drüber lesen hilft auch ungemein.

Der IT Markt in Westeuropa ist stark am Schrumpfen. Der Einzige Hersteller, der mehr Absetzt ist Lenovo. Die haben aber auch wenn ich mich recht erinnere auch jemanden aufgekauft. Das müsste man nochmal nachschauen und auseinandernfriemeln.
http://www.heise.de/resale/meldung/Gartner-PC-Markt-in-Westeuropa-schrumpft-weiter-deutlich-1803799.html

Auf die ganze Welt übertragen, schrumpft er noch immer um 3,2% http://www.zdnet.de/88139136/idc-weltweiter-pc-markt-schrumpft-64-prozent-im-vierten-quartal/

Und selbst ein 0 auf 0 wäre schon nicht gut, sondern ein besorgniserregend, aber noch ok. Der Markt muss wachsen, insbesondere im IT-Bereich... Davon lebt die Branche zu einem guten Teil. Es muss wachstum her, man muss ja mindestens die Inflation ausgleichen... Wir haben hier aber sogar einen Rückgang, und du redest hier von einer "globalen positiven Wirtschaftslage"?

Sorry, aber da ist einfach lächerlich...

So und dann ganz neu von vor 10 Tagen: http://www.gameswelt.de/sonstiges-aus-der-welt-der-hardware/news/absatz-schrumpft-deutlich,176207
Und hier, selbst SmartPhone-Hersteller setzen 2,3 % weniger ab: http://www.tweakpc.de/news/24999/handy-markt-schrumpft-trotz-smartphone-boom/

So und das bezieht sich immer jeweils auf den Gesamtmarkt. Da hängen also alle dran: MB-, CPU-, GPU-, Gehäuse-, Netzteil-, RAM-, Festplatten-, Monitor-Hersteller usw usw

Du machst einfach nur den eklatanten Fehler, die Quartalsberichte mit den Gewinnen/Umsätzen von einigen wenigen Firmen dir an zu schauen, und zu sehen, wie viel Gewinn Sie machen. Ja da gibt es Firmen, die noch immer gut dastehen wie Intel, wenn man aber genau hinschaut, dann sieht man auch, dass Sie eben "nur" ihre Marge erhöht haben, insgesamt aber, wenn ich mich recht erinnere aber weniger Gewinn und vor allem auch Umsatz gemacht haben. Das bedeutet aber nur, das der Hersteller rationalisieren konnte, nicht aber, das es dem "Markt" gut geht.

Und zur global guten Wirtschaftslage:
Amerikanische Wirtschaft schrumpft http://www.aktiencheck.de/analysen/Artikel-Die_Weltwirtschaft_laeuft_nicht_ueberall_rund_EUR_USD_auf_14_Monats_Hoch-4838480
In Gesamteuropa haben wir die Rezession, bzw Sie wird erwartet: http://www.sueddeutsche.de/wirtschaft/abschwung-in-der-euro-zone-neues-jahr-alte-rezession-1.1606897
http://www.ifw-kiel.de/wirtschaftspolitik/konjunkturprognosen/konjunkt/2013/euroframe_report_190213.pdf
Chinas Wirtschaft wächst deutlich langsamer, obwohl der Staat massiv versucht dies zu verhindern, z.B. durch (angeblich illegale) Subventionen in der Solarbranche usw usw http://www.epochtimes.de/chinas-wirtschaftswachstum-auf-13-jahres-tief-1059001.html


http://www.ifw-kiel.de/wirtschaftspolitik/konjunkturprognosen/konjunkt/2012/Konjunkturprognosen_Welt_12-12.pdf
Das wird wohl gerade Weltweit ausreichen, um die global betrachtete Inflation aus zu gleichen...

So, das waren jetzt nur der grobe schnelle Überblick, den ich mal so in 30 min zusammengestückelt habe... Wenn man noch mehr ins Detail geht, wird man erkennen, das es der IT-Branche, insbesondere den Hardwareherstellern (PC) nochmals deutlich schlechter geht, als der Wirtschaft im Allgemeinen...

So und jetzt kommst du mit deiner "guten Weltwirtschaft" :down: Sorry, aber son Stuss vom Stapel lassen, und sich dann auch noch hinstellen, und nach "Beweisen" verlangen, obwohl man nur die Augen auf machen müsste...



Intel setzt weniger ab, verlangt aber mehr, und zieht seine Vorteile aus den shrinks, bei denen die CPUs nicht mehr schneller, sondern einfach kleiner werden. Damit können Sie vieles ausgleichen. Trotzdem bricht der GEwinn bei Ihnen auch ein: http://www.gamestar.de/hardware/prozessoren/intel-core-i5-3570k/intel_quartalszahlen,489,3008561.html

Und das kannst du bei nahezu jeder Firma machen. Die retten sich so mit Ach und Krach auf ein ganz ordentliches Niveau, das liegt aber auch daran, das es ihnen zuvor recht gut ging. Intel baut z.B. seine Marktmacht noch weiter aus. Kann damit also gewisse Rückgänge im Gesamtmarkt kompensieren.

Nicht ohne Grund gehen die Aktienkurse so ziemlich aller IT(Hardware)-Unternehmen runter. ARM ist da ne Ausnahme, aber auch die haben Dämpfer erhalten.

Sollte China jetzt noch mit MIPS im Weltweiten Markt massiv mitspielen wollen, und ihre Firmen demensprechend (illegal) subventionieren, dann gute Nacht...

So weit muss man aber nicht mal gehen. Die Shrinks werden immer teuerer, und die Zeitspannen immer länger. Allein das verringert schon die Nachfrage, da langsamer neue Produkte kommen. Das wird allen Herstellern noch schwer zu schaffen machen. Die Zeiten der einfachen Wege sind halt endgültig vorbei...

Aktuell ist die gesamte wirtschaftliche Lage ziemlich dünnhäutig, und auch nur scheinbar "sonnig" gestimmt. Wir sitzen auf einem GEWALTIGEN Pulverfass, bzw wenn man es genauer nimmt sogar zwei Pulverfässer, in die fortwährend weiter Pulver reingestopft wird... Da fühle ich mich an die riesen Bomben aus dem WWI erinnert...

Die USA sind völlig überschuldet, und pumpen Unmengen an Geld in den Markt. Das ist verdammt gefährlich, da es immer mehr Geld zum "zocken" gibt, und das wird auch gemacht. Zudem besteht die Gefahr, dass die USA ihren Haushalt massiv zusammenstreichen müssen, weil Sie eben die "Fiskalklippe" runter plumpsen. Und dann kann man sich mal ausrechnen, was mit als erstes zusammengestrichen wird. Los Allamos usw werden dann wohl nicht mehr so schnell neue Rechner bekommen usw usw.

Und als zweites Pulverfass haben wir die EU, wo wir voll in der Rezession sind, und Deutschland als Leuchtturm dasteht... Aber auch nur, weil bei uns extremes Lohndumping betrieben wird, die Leute EXTREM flexibel sein müssen, Leiharbeit zu Hungerlöhnen betrieben wird, und die Leute einfach in sehr vielen Betrieben verheizt werden...
Unseren "Erfolge und Wohlstand" bauen wir aber auf dem Rücken der anderen EU-Länder auf. Wir haben die einfach gegen die Wand gespielt mit unserer Produktivität, und unserem Lohndumping (Reallohnrückgang seid was weiß ich wann... Die Reallöhne sind glaub auf dem Stand von vor 10 Jahren.... Und nein, das such ich jetzt nicht noch extra raus...). Unsere niedrigen Arbeitslosenzahlen erkaufen wir dadurch, das wo anders mehr Leute arbeitslos sind in der EU...
Und bei den anderen sieht es extrem aus. Schaut mal nach SPanien. Was warens 25 oder 50% Jugendarbeitslosigkeit? Griechenland muss man wohl nicht nennen. Und auch Italien sagt wohl jedem mehr als genug.

Dazu dann noch Zypern usw usw. Wenn jetzt auch noch Italien um fällt, oder Spanien voll in die Seile geht, dann gute Nacht... Die Gefahren sind hier einfach IMMENS! Und wenns hier voll vor die Hunde geht, wovon ich eigentlich ausgehe, und viele andere auch, was man an der Flucht in Sachgüter sieht, dann knallts mal so richtig... Dann muss man auch über Krieg in der EU nachdenken, und wenn es "nur" ein Bürgerkrieg ist.

Wir stehen direkt an gleich mehreren Abgründen, und ihr tut so, als ob alles Friede Freude Eierkuchen wäre... Ja, Deutschland geht es vergleichsweise gut, aber auch hier gibt es extreme Probleme (Siehe Armutsbericht, der noch kommen soll, und "bearbeitet" wird).

Problematisch ist vor allem, das "alle" Lösungen, die uns helfen würden, die Wirtschaft wohl abwürgen würden. Zumindest, wenn man es nicht global macht, und selbst dann zu einem gewissen Grad.

Von daher sieht die aktuelle Lage und auch die Zukunft alles andere als "gut" aus. Das ist einfach schon der blanke Hohn so etwas zu behaupten. Es sieht eigentlich verdammt scheise sogar aus, und jeder, der recht gut durch die Krise kommt, hofft nur, dass es nicht den großen Knall gibt, weil er ganz genau weiß, das es das dann gewesen ist, und man sich überhaupt nicht dagegen absichern kann. DAher heist die Dewise in dem Punkt auch "Hoffnung/positives Denken". Man muss den Leuten ja Vertrauen geben, damit Sie konsumieren, und damit die Wirtschaft anfachen. Eventuell bekommt man ja doch noch die Kurve... VWL hat halt auch sehr viel mit Psychologie zu tun...
Kurzum:
Die IT-Branche besteht nicht nur aus Desktop-PCs und Smartphones :freak:

Skysnake
2013-02-26, 11:45:57
In den anderen Bereichen siehts auch nicht wirklich besser aus. Du kannst aber natürlich gern die gegenteiligen Belege raus suchen...

Aber selbst wenn du welche findest, wovon ich eher nicht ausgehe, außer im Bereich Tablets, ändert sich dennoch nichts dran, dass die Aussage

Für AMD geht ein -angesichts der positiven globalen wirtschaftlichen Lage- erschreckend desaströses Geschäftsjahr zu Ende.

Blanker Hohn ist...

Undertaker
2013-02-26, 12:31:07
Ich meine Computerbase(?) hatte zuletzt mal eine Übersicht der Top-10 oder Top-20 IT-Unternehmen sowie die Zahlen der gesamten Branche. AMD hat sich zuletzt deutlich schlechter entwickelt als der Gesamtmarkt, dass kannst du doch nicht bestreiten? :confused: Man ist nun einmal aktuell ziemlich am sparen und umstrukturieren, klar das das sowohl Umsatz kostet als auch Kosten verursacht.

Edit: Da haben wir es:

http://www.computerbase.de/news/2012-11/top-20-liste-der-halbleiterhersteller-aktualisiert/

Gesamtmarkt praktisch unverändert, AMD -17%.

Skysnake
2013-02-26, 12:39:57
Dann lies dir bitte nochmal den Artikel durch, und schau auch auf die Tabllen.

Wer da zulegt sind vorzugsweise FABs und eben Qualcomm, welche im Prinzip auch fast auf nen Auftragsfertiger raus laufen. Der Rest hat zu kämpfen, oder geht sogar massiv runter. Unterm Strich bleibt aber auf jeden Fall ein Umsatzrückgang bestehen, und das ist noch nicht inflationsbereinigt... Inflationsbereinigt siehts nochmal schlechter aus..

Der Knackpunkt ist aber, das es eben NUR Umsätze sind. Das sagt aber noch nicht viel aus. Intel hat z.B. den Umsatz fast halten können, aber massiv bei den Gewinnen einstecken müssen...

Ob jetzt AMD besonders schlecht performt ist doch apriori erst mal scheis egal bzgl. der Aussage auf die ich mich bezogen habe....

Die ist nämlich einfach schlicht weg FALSCH! Und dafür hast du gerade eben wieder ein Argument mehr geliefert...

fdk
2013-02-26, 12:45:17
Danke für die textwand auf der letzten Seite. War recht unterhaltsam/amüsant zu lesen. Wer seinem gegenüber allerdings rät mal ein Buch zum Thema VWL zu lesen sollte auf der Argumentationsseite etwas mehr bringen als eine Zusammenfassung des letzten Jahres spon(Startseite) / bzw die miesen Zahlen AMDs mit dem bevorstehenden Untergang des Abendlandes zu rechtfertigen.

Gewinn sagt für sich selbst genommen übrigens Ähnlich wenig aus wie der Umsatz. Wenn ein Unternehmen allerdings in einer ganzen Reihe von Kennzahlen der Branche hinterherschwimmt sollte man sich vielleicht einfach eingestehen das es diesem Unternehmen beschissen geht - oder das man selbst ein unverbesserlichen fanboy ist.

Skysnake
2013-02-26, 12:54:40
Dann solltest auch du nochmal genau lesen, auf was ich mich bezog ;)

Der Einfachheithalber, erneut die Textpassage:

Für AMD geht ein -angesichts der positiven globalen wirtschaftlichen Lage- erschreckend desaströses Geschäftsjahr zu Ende.

Den relevanten Teil habe ich mal "dezent" markiert :ugly:

AMD hat ein schweres Jahr hinter sich, da gibt es auch nichts dran zu rütteln. Anderen geht es aber auch ziemlich beschissen, da wird aber bei weitem nicht so der Aufriss gemacht. Sollen wir uns mal Sony anschauen?

Man muss immer den Kontext sehen, und da sieht es für die Zukunft eher positiv denn noch negativer aus. Eins ist klar, ewig kann AMD in der aktuellen Situation nicht verharren, aber danach sieht es aktuell auch nicht wirklich aus.

Der Markt wird sich die nächsten Jahre weiterhin stark verändern, und da hat AMD mit APUs und HSA eine gute Perspektive. Jetzt müssen Sie nur noch was draus machen. Das kann dir aber kein Analyst heute sagen, ob das passieren wird, oder eben nicht. Das wird erst die Zeit zeigen.

Und bzgl deiner Kritik:
Es ist sicherlich nicht meine Aufgabe, meine Zeit für eine detailierte Analyse zu verschwenden, wenn bereits ein recht schneller Abriss, mehr sollte das auch nicht sein, zeigt, wie schwachsinnig eine Aussage ist.

Undertaker
2013-02-26, 12:57:18
Dann lies dir bitte nochmal den Artikel durch, und schau auch auf die Tabllen.

Wer da zulegt sind vorzugsweise FABs und eben Qualcomm, welche im Prinzip auch fast auf nen Auftragsfertiger raus laufen. Der Rest hat zu kämpfen, oder geht sogar massiv runter. Unterm Strich bleibt aber auf jeden Fall ein Umsatzrückgang bestehen, und das ist noch nicht inflationsbereinigt... Inflationsbereinigt siehts nochmal schlechter aus..

Der Knackpunkt ist aber, das es eben NUR Umsätze sind. Das sagt aber noch nicht viel aus. Intel hat z.B. den Umsatz fast halten können, aber massiv bei den Gewinnen einstecken müssen...

Ob jetzt AMD besonders schlecht performt ist doch apriori erst mal scheis egal bzgl. der Aussage auf die ich mich bezogen habe....

Die ist nämlich einfach schlicht weg FALSCH! Und dafür hast du gerade eben wieder ein Argument mehr geliefert...

Sorry, aber irgendwas verdrehst du da. Wenn der Gesamtmarkt im großen und ganzen stabil läuft – und nein, bei -1% Umsatz und von mir aus auch noch Inflation kannst du nix anderes behaupten - sind -17% nun einmal ziemlich eindeutig und eben auch das Schlusslicht unter den Top-20 IT-Unternehmen. Klar profitiert z.B. Qualcomm vom Smartphone- und Tablet-Boom, den Intel und noch mehr AMD halt einfach verschlafen haben; aber genau darum geht es ja!

Die Grundaussage war - wenn auch etwas überspitzt - das AMD 2012 schlechter als der Gesamtmarkt performt hat. Und genau das ist in allen Punkten, egal ob Umsatz oder Gewinn, der Fall. Die IT-Branche insgesamt stagniert momentan auf hohem Niveau. Weil du z.B. Intel genannt hast: Die haben 2012 den dritthöchsten Gewinn der Firmengeschichte eingefahren. Schlechtes Beispiel. ;)

Skysnake
2013-02-26, 13:01:25
Über gewinne Sagt dein Beispiel aber rein gar nichts aus. Wie btw auch 90% meiner Beiträge nichts zu den Gewinnen aussagt.

Und nein, es ging nicht darum, wie sich AMD relativ zum Rest schlägt...

Dural
2013-02-26, 13:02:41
frage mich echt was es da schön zu reden gibt.

wenn AMD nicht bald was hat das GELD bringt (nein nicht nur Umsatz, sondern Gewinn) wird es diese Firma in naher zukunft so nicht mehr geben.

Wenn ich die aktuellen AMD Produkte anschaue verbinden alle genau das gleiche: sie sind billig! sprich AMD kann nur über den Preis verkaufen und genau das muss sich ändern.

Undertaker
2013-02-26, 13:04:44
@Skysnake: Das müsstest du mal Unlimited fragen. Ich verstehe seine Aussage, aus der ich das "positiv" wie bereits erwähnt zumindest etwas relativieren würde, genau so: Marktumfeld vs. Performance von AMD.

Edit: Wenn du dir die Mühe machen willst, die Gewinne der obigen Top-20 herauszusuchen und zu summieren, verwette ich meinen Hintern, dass wir im Gesamt-IT-Markt 2012 ebenfalls eines der besten 3-5 Jahre aller Zeiten hatten. Ich weiß gar nicht, was man da überhaupt diskutieren muss, dass AMD wirtschaftlich derzeit nicht besonders gut dasteht. Die Sparprogramme und Entlassungen gibt es doch nicht nur zum Spaß.

Nakai
2013-02-26, 13:32:23
Also jeder hier sollte hoffen, dass es für AMD wieder bergauf geht. AMD hat einen unfassbaren Schatz an KnowHow. Sie haben verdammt gute CPUs und verdammt gute GPUs. Es hat einen Grund, wieso AMD in allen Konsolen als GPU oder GPU und CPU vorhanden ist. Jaguar und GCN sind derzeit nahezu konkurrenzlos. Beide liefern bei geringer Fläche eine unfassbare Effizienz(Perf/mm2; Perf/Watt). Und nein kommt nicht mit, dass Intel und Nvidia besser sind in gewissen Bereichen. Das mag stimmen, ändert aber nichts daran, dass AMD gerade eine unglaublich gute Chance für die Zukunft hat. HSA hat eine verdammt breite Unterstützung auf dem Markt(Intel und NV köcheln ihr eigenes Süppchen). Wenn HSA sich durchsetzt, dann wird das einen verdammt Einschlag auf dem Markt geben. Schaut doch mal in die Unterstützerliste von HSA. Da sind wahre Größen des Marktes dabei. Ich warte eigentlich nur noch, dass MS noch dazukommt(dank neuer Xbox könnte das sehr wohl passieren). Falls das passiert, dann ist HSA auf einem Schlag ein Standard.

Und nein ich meine natürlich nicht den Desktopbereich, obwohl dieser im Spielesektor(evtl auch Professionellen), durch Synergieeffekte ziemlich gepusht werden könnte.

Wie sollten aber erstmal abwarten und nicht den Tag vor dem Abend lohnen. AMD wird jedoch in keinster Art und Weise einfach untergehen. Vorher wird man aufgekauft.

Undertaker
2013-02-26, 13:42:23
Potential bzw. Licht am Ende des Tunnels kann man auf jeden Fall erkennen. Imo wird es vor allem entscheidend, ob sich AMD auf die richtigen Märkte konzentriert.

Twodee
2013-02-26, 13:42:33
Also jeder hier sollte hoffen, dass es für AMD wieder bergauf geht. AMD hat einen unfassbaren Schatz an KnowHow. Sie haben verdammt gute CPUs und verdammt gute GPUs. Hätten sie gerne, haben sie aber nicht.

Es hat einen Grund, wieso AMD in allen Konsolen als GPU oder GPU und CPU vorhanden ist.
Ja weil sie Billig sind!

Jaguar und GCN sind derzeit nahezu konkurrenzlos.
und noch nicht auf dem Markt.

Beide liefern bei geringer Fläche eine unfassbare Effizienz(Perf/mm2; Perf/Watt).
unfassbare Perf/Watt? Verglichen mit was?

Und nein kommt nicht mit, dass Intel und Nvidia besser sind in gewissen Bereichen. Das mag stimmen, ändert aber nichts daran, dass AMD gerade eine unglaublich gute Chance für die Zukunft hat. HSA hat eine verdammt breite Unterstützung auf dem Markt(Intel und NV köcheln ihr eigenes Süppchen). Wenn HSA sich durchsetzt, dann wird das einen verdammt Einschlag auf dem Markt geben. Schaut doch mal in die Unterstützerliste von HSA. Da sind wahre Größen des Marktes dabei. Ich warte eigentlich nur noch, dass MS noch dazukommt(dank neuer Xbox könnte das sehr wohl passieren). Falls das passiert, dann ist HSA auf einem Schlag ein Standard.
Standard wird es erst, wenn Intel es auch unterstützt. Und dann interessiert sich wieder mal keine Sau für AMD.

Und nein ich meine natürlich nicht den Desktopbereich, obwohl dieser im Spielesektor(evtl auch Professionellen), durch Synergieeffekte ziemlich gepusht werden könnte.

Wie sollten aber erstmal abwarten und nicht den Tag vor dem Abend lohnen. AMD wird jedoch in keinster Art und Weise einfach untergehen. Vorher wird man aufgekauft.Amen. :rolleyes:

S940
2013-02-26, 13:54:52
Ja weil sie Billig sind!
PowerVRs oder S3-Sachen wären sicherlich billiger :freak:

stav0815
2013-02-26, 14:04:22
In den anderen Bereichen siehts auch nicht wirklich besser aus. Du kannst aber natürlich gern die gegenteiligen Belege raus suchen...

Aber selbst wenn du welche findest, wovon ich eher nicht ausgehe, außer im Bereich Tablets, ändert sich dennoch nichts dran, dass die Aussage


Blanker Hohn ist...
Nur ein kleiner Teil der IT-Branche zielt auf den Consumer Bereich. Schau dir mal die ganzen deutschen IT-Dienstleister und -Systemhäuser an.
Suchen alle Leute ohne Ende...

Skysnake
2013-02-26, 14:35:28
Da sind wahre Größen des Marktes dabei. Ich warte eigentlich nur noch, dass MS noch dazukommt(dank neuer Xbox könnte das sehr wohl passieren). Falls das passiert, dann ist HSA auf einem Schlag ein Standard.

MS wird nicht dazu gehören. Das ist kein Hersteller. Die haben da nichts verloren.

Was fehlt ist eigentlich nVidia. Dann hätte man eine wirklich allumfassende Allianz gegen Intel.

Alternativ eventuell noch Apple, wobei mir nVidia lieber wäre, dazu müssten die aber mal von ihrem hohen propritären Ross runter kommen...



Nur ein kleiner Teil der IT-Branche zielt auf den Consumer Bereich. Schau dir mal die ganzen deutschen IT-Dienstleister und -Systemhäuser an.
Suchen alle Leute ohne Ende...
Und das sagt was genau aus über die globale Entwicklung in der IT-Hardware?

Vor allem reden wir vorzugsweise über Hardware, nicht über Software...

Bei der Softwareentwicklung sieht es deutlich besser aus.

Gerade die professionellen IT(Hardware) Anbieter haben aber zu kämpfen. Schau doch mal auf Dell, HP usw. DAS sind doch "die Proffessionellen". Und genau die haben am schwersten zu Kämpfen.

Die weltweite Wirtschaftskrise sorgt halt für verhaltene Investitionen in Computerhardware. Sowohl am Arbeitsplatzrechner, als auch bei den Server(farmen).

@Undertaker:
Die mühe werde ich mich garantiert nicht machen..

R.I.P.
2013-02-26, 14:49:54
Ihr macht euch alle viel zu viele Sorgen um AMD, manche viel zu viele Hoffnungen, dass AMD untergehen wird. Die entscheidenden Schritte für den Umschwung wurden gesetzt und man steht in bestimmten Märkten so gut da (eigentlich steht man das erste Mal da, mit etwas Vernünftigen), wie noch nie: Microserver (Markt mit enormem Wachstum), Tablets (Temash scheint vielversprechend), low power devices (Tablets, Netbook, etc. mit Kabini). AMD hat im Laufe des 1. Quartal 2013 (immer noch im Gange) so viele Grafikkarten verkauft wie noch nie (laut eigener Aussagen) und die Konsolen Deals sind wirtschaflich sicherlich interessant, aber besser noch fürs Image von ausserordentlicher Bedeutung. Wie oben beschrieben haftet im Moment an AMD das Wort "billig". Wichtig ist, dass dieser Wechsel schnell vollzogen wird. Sprechen wir mal in einem Jahr über AMDs wirtschafliche Lage. :tongue:

Unlimited
2013-02-26, 17:42:41
>W.O.W<

Respekt Skysnake!
Du bist in einem Umfang auf mein Post eingegangen -damit hätte ich wahrlich nicht gerechnet.
Bin geradezu plattgewalzt!

Ich werde auf den Post eingehen, wie es ihm gebührt.
Doch leider habe ich aktuell nicht die verfügbare Zeit dafür.
Hoffe bis zum WE...
Gruß!

Mancko
2013-02-26, 17:51:13
Dann lies dir bitte nochmal den Artikel durch, und schau auch auf die Tabllen.

Wer da zulegt sind vorzugsweise FABs und eben Qualcomm, welche im Prinzip auch fast auf nen Auftragsfertiger raus laufen. Der Rest hat zu kämpfen, oder geht sogar massiv runter. Unterm Strich bleibt aber auf jeden Fall ein Umsatzrückgang bestehen, und das ist noch nicht inflationsbereinigt... Inflationsbereinigt siehts nochmal schlechter aus..

Der Knackpunkt ist aber, das es eben NUR Umsätze sind. Das sagt aber noch nicht viel aus. Intel hat z.B. den Umsatz fast halten können, aber massiv bei den Gewinnen einstecken müssen...

Ob jetzt AMD besonders schlecht performt ist doch apriori erst mal scheis egal bzgl. der Aussage auf die ich mich bezogen habe....

Die ist nämlich einfach schlicht weg FALSCH! Und dafür hast du gerade eben wieder ein Argument mehr geliefert...

Intel hat beim Umsatz gerade mal 1% eingebüßt. Beim Gewinn war es deutlich mehr aber für Intel immer noch Peanuts. Sie kassieren auch weiter kräftig. Nvidia hat den Umsatz sogar gesteigert und den Gewinn vom Vorjahr mehr oder minder halten können. Das sind zwei Unternehmen die direkt mit AMD konkurieren und gegenüber denen sieht AMD leider ganz schlecht aus. Der Umsatz ist um deutlich gesunken und man hat erneut ein tief rotes Jahr abgeliefert. Nebenbei ist man gezwungen weiter Personal abzubauen und man verkauft eigene Liegenschaften nach dem "Sale and Lease Back" Prinzip. Damit ist dann auch das letzte bisschen Eigentum vom AMD bald verkauft. Da bleibt außer Patenten und Personal nichts mehr auf der Habenseite, da die Fabs auch weg sind. Es wird also immens schwierig weiteres Fremdkapital zu einigermaßen verträglichen Konditionen zu bekommen.

Kurzum hat AMD deutlich schlechter als der Markt performt - und der Markt ist hier erstmal primär die direkte Konkurenz.

Skysnake
2013-02-26, 17:52:45
Kein Ding, nimm dir ruhig Zeit ;)

Es ist auch wirklich nicht einfach, durch die ständig anders lautenden Meldungen und "schönfärbereien" ein klares Bild zu bekommen.

Firmen versuchen halt immer das posotive für sich heraus zu stellen. Am kämpfen sind aber alle!

Und das jetzt komplett ohne Berücksichtigung der ganzen wirtschaftlichen Gefahren, die noch kommen können. Wir sind echt sehr nah an einem Abgrund, der uns in eine richtig heftige Weltwirtschaftskrise wie 1928/1930 bescheren kann. Da ist so viel Sprengstoff in den Nationen, das will man sich teilweise gar nicht ausmalen... Wir hier in Deutschland haben echt noch glück.

Mancko
2013-02-26, 17:58:39
MS wird nicht dazu gehören. Das ist kein Hersteller. Die haben da nichts verloren.

Was fehlt ist eigentlich nVidia. Dann hätte man eine wirklich allumfassende Allianz gegen Intel.

Alternativ eventuell noch Apple, wobei mir nVidia lieber wäre, dazu müssten die aber mal von ihrem hohen propritären Ross runter kommen...


Waum sollte Nvidia das tun? Was haben sie davon? Gar nichts. Ihnen geht es besser als AMD und das gerade weil sie schon vor Jahren einen erheblichen Teil des Unternehmens in Richtung Software ausgebaut haben. Nvidia hat derzeit über 4Mrd. Dollar Cash auf dem Konto bei so gut wie 0 Verschuldung. AMD dagegen hat noch 1 Mrd., nach wie vor eine hohe Verschuldung und kaum noch eigene Reserven. Die Fabs sind weg und große Teile von Büro und Forschungsgebäuden ebenfalls. AMD ist m.E. ein ganz klarer Übernahmekandidat aber nicht als Ganzes sondern nur zum Ausschlachten.