PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Carrizo-APU: Excavator-Cores, “next generation” GPU, DDR4, 65/45W - 2015


Seiten : 1 2 3 4 [5] 6

OBrian
2016-02-07, 00:15:20
Was passiert, wenn von AMD nichts kommt, was Intel unter Druck setzt, sieht man ja an der "wahnsinnigen" Anstrengung von Intel, die Leistung zu steigern. Seit Sandy Bridge ist doch nichts nennenswertes passiert, weder in der Spitze noch im unteren Bereich, wo immer noch DualCores mit kaum Cache verkauft werden und freigeschaltetes HT schon einen fetten Aufpreis kostet.

Auch wenn AMD genauso wenig die Heilsarmee ist wie Intel, aber wenn sie gegeneinander kämpfen, hat der Rest der Welt mehr davon als wenn nur einer was anbietet und nicht zu Verbesserungen gezwungen ist. Diese "Bulldozerpause" hat der Menschheit einige Jahre an Weiterentwicklung gekostet, z.B. mit schnelleren Prozessoren wären wissenschaftliche Entdeckungen (Wetterberechnungen, Gentechnik usw.) schneller usw. Macht wahrscheinlich weniger aus als ein Weltkrieg oder der Einfluß der katholischen Kirche, aber hilfreich war es sicher nicht.

Pirx
2016-02-07, 00:17:27
AMD hat nicht das Geld und nicht das KnowHow, für Apple mehr zu bieten, als Intel das kann...
Warum nicht? Bei gleicher Strukturgröße und TDP dürften sie bei der CPU vllt immer noch etwas zurückliegen (iOS ist nicht Windows), bei der GPU voraus sein.

iuno
2016-02-07, 00:21:48
Gut, das ist jetzt etwas sehr abgedriftet, aber um es (hoffentlich) noch abzuschliessen

Dass Carrizo (und auch Bristol Ridge) da nichts verloren hat, wo aktuell i5 oder i7-u zum Einsatz kommen, sollte fuer jeden Normaldenkenden voellig klar sein. Z3ck3 hat ja Zen fuer iMacs/"Power Mac" in den Raum geworfen, worauf du (denke ich) eingestiegen bist. Ich dachte hier also eher an Raven bzw. Summit Ridge (oder Nachfolger). Der Mac Pro wird ja z.B. nicht so oft aktualisiert und setzt etwa aktuell noch auf Ivy und Tahiti. Das waere fuer mich so ein Kandidat (es spricht ja niemand davon, dass gleich die komplette Palette umgestellt werden soll), oder eben, je nach dem was dabei rauskommt, zukuenftige APUs dann auch fuer Macbooks.
Ich wollte mit dem ganzen Kram nur sagen, dass es bei Apple eben nicht nur die reinen specs auf dem Papier eine Rolle spielen. Wenn sie etwa der Meinung sind, HSA koenne sie voran bringen, koennte das z.B. ein starker Faktor werden. Apple haette da auch die Moeglichkeiten, entsprechend die Plattform darauf auszurichten.
Wenn eine Intel CPU natuerlich meinetwegen 30% mehr IPC hat als eine "vergleichbare" APU und samt eDRAM und IGP der Gen. 10 oder was auch immer auch in der Hinsicht mithaelt, wird man natuerlich bei Intel bleiben. Das aber als gesetzt vorauszusehen und eine zukuenftige Kooperation Apple-AMD nur aufgrund der aktuellen Situation gaenzlich auszuschliessen halte ich einfach fuer falsch.

Sunrise
2016-02-07, 00:25:14
Warum nicht? Bei gleicher Strukturgröße und TDP dürften sie bei der CPU vllt immer noch etwas zurückliegen (iOS ist nicht Windows), bei der GPU voraus sein.
Man kommt wohl leider nur in die Nähe (wenn man bei etwa 15-20% von Nähe überhaupt sprechen kann) und von der TDP wird dann auch ein Großteil auf die GPU gehen, während Intel 2018 (vorher erwarte ich keine Zen-APU) schon wieder etliche CPU-Schritte weiter ist. Und wenn man da zurückliegt, wird es schwer, da die Vorteile der GPU zu verkaufen, vor allem da Intel ja ziemlich aktiv bei Display-Support, QuickSync, usw. (evtl. kommt bald auch FreeSync dazu) ist.

Bis 2018 muss AMD sich aber erstmal woanders beweisen, und wo Intel dann steht, kann man in etwa abschätzen.

Wenn eine Intel CPU natuerlich meinetwegen 30% mehr IPC hat als eine "vergleichbare" APU und samt eDRAM und IGP der Gen. 10 oder was auch immer auch in der Hinsicht mithaelt, wird man natuerlich bei Intel bleiben. Das aber als gesetzt vorauszusehen und eine zukuenftige Kooperation Apple-AMD nur aufgrund der aktuellen Situation gaenzlich auszuschliessen halte ich einfach fuer falsch.
Ich schließe es leider fast gänzlich aus, weil die letzten Jahre gezeigt haben, dass man eher immer Intel kauft, und Intel scheinbar auch unter der Hand gute Preise für bestimmte Partner anbieten kann, damit sie ihr Image das Non-Plus-Ultra zu sein, auch überall halten können. Ihre Produkte sind leider mittlerweile auch fast überall präsent, was es ungleich schwieriger macht. Und wenn man dann vergleicht, gibt ihnen die Realität mittlerweile leider auch noch Recht. Selbst dann, obwohl Intel nichtmal Vollgas geben muss, die laufen nur im gleichen Trott seit jetzt etlichen Jahren.

AMD hat auch keine eigene Fertigung mehr, GloFo muss liefern. Die IPC und der Verbrauch muss stimmen, die Leistung muss stimmen, die Preise, das sind soviele Faktoren, die bei Intel einfach laufen, weil sie fast alles aus einer Hand haben, während AMD immer abhängiger geworden ist, eben auch aus Gründen der Geldknappheit.

APUs an die Spitze zu bringen braucht kontinuierlich das Allerbeste was AMD bieten kann, auf immer den neuesten Prozessen, immer sehr früh am Markt. Dieses Tempo was Intel da vorlegt, auch wenn es sich etwas verlangsamt hat, ist nicht zu unterschätzen, weil verdammt teuer, und ohne Geld und die entsprechenden Teams, die Intel seit etlichen Jahren gestärkt hat, funktioniert das nicht.

Undertaker
2016-02-07, 09:26:30
Warum nicht? Bei gleicher Strukturgröße und TDP dürften sie bei der CPU vllt immer noch etwas zurückliegen (iOS ist nicht Windows), bei der GPU voraus sein.

Gegenüber Carrizo liefert Intel mit der GT3e bei 15 Watt eklatant mehr GPU-Performance, neben der 50 - 80 % schnelleren CPU (je nach Parallelisierungsgrad) – da braucht man sich nicht wundern, warum Apple als Premium-Marke keine AMD-Geräte anbietet. Selbst wenn man den Preis einbezieht, der bei Apple nicht an allererster Stelle kommt, müsste man das Carrizo-Topmodell mit einem auch GPU-seitig nicht unterlegenen Core i3 vergleichen. Was kleineres als einen Core i5 verbaut Apple allerdings ohnehin nicht, und zwei verschiedene Designs parallel zu verbauen macht auch wenig Sinn.

Seit der Intel Gen9 bin ich mir nicht mehr sicher, ob AMD selbst bei hypothetisch gleichem Prozess eine schnellere GPU liefern könnte.

Screemer
2016-02-07, 09:48:38
Wenn dem nicht so wäre, sähen wir schon längst ded. Gpus von Intel auf Karten aller möglichen boardpartner.

Undertaker
2016-02-07, 09:58:50
1) Ich sprach von "seit Gen.9"
2) Mit Xeon Phi steht Intel schon in Konkurrenz zu AMD und Nvidia, aber nur in dem Markt, wo die größten Margen erwirtschaftet werden. Bei einem Dreikampf um Consumer-GPUs sehe ich keine so attraktive Situation, als das sich ein Markteintritt lohnen würde.
3) Bei den integrierten GPUs profitiert Intel von der Effizienz des CPU-Parts (auch prozessbereinigt), d.h. von den möglichen 15 Watt kann man bei Bedarf mehr in den GPU-Part stecken. Dadurch hat man bei gleicher Plattform-TDP einen Vorteil, der nicht zwangsläufig nur aus dem GPU-Design resultieren muss.

R.I.P.
2016-02-07, 11:25:35
1) Ich sprach von "seit Gen.9"
2) Mit Xeon Phi steht Intel schon in Konkurrenz zu AMD und Nvidia, aber nur in dem Markt, wo die größten Margen erwirtschaftet werden. Bei einem Dreikampf um Consumer-GPUs sehe ich keine so attraktive Situation, als das sich ein Markteintritt lohnen würde.
3) Bei den integrierten GPUs profitiert Intel von der Effizienz des CPU-Parts (auch prozessbereinigt), d.h. von den möglichen 15 Watt kann man bei Bedarf mehr in den GPU-Part stecken. Dadurch hat man bei gleicher Plattform-TDP einen Vorteil, der nicht zwangsläufig nur aus dem GPU-Design resultieren muss.

Intel profitiert im Moment vor allem von den Vorteilen der Fertigung. Punkt. Was im Moment noch sehr bescheiden ist, sind die Grakatreiber. Reden wir mal darüber, wenn wir fertigungstechnisch Gleichstand haben, obwohl ich zweifle, dass wir je Carrizo in <28nm sehen werden

fondness
2016-02-07, 11:32:43
Warum sollte Apple das machen, wenn nicht wegen dem Preis? Warum sollte Apple den schlechteren SoC einkaufen?

Wer sagt, dass eine Zen-APU der schlechtere SoC ist? Wer merkt 10-20% IPC? Wenn man dafür vielleicht die eklatant bessere GPU bekommt, kann das für Apple mehr Sinn machen.


Wenn Intel und Apple unter der Hand Preise fahren, die AMD selbst mit Dumping nicht fahren kann, wird das niemals passieren. Und genau das ist bei Intel das Problem, gegen das AMD nichts ausrichten kann.

Wir sprechen hier von Intels Kernmarkt, da werden sie anders als bei den mobile-Chips nicht beliebig die Preise senken, weil sie sich damit ihr Geschäft kaputt machen.

Warum sollte Intel das überhaupt machen? Laut dir hat Apple eh keine Alternative zu Intel.

Ravenhearth
2016-02-07, 11:34:24
Eine GT3e bei 15W ist im Bestfall doppelt so schnell wie die GT2 oder Carrizo bei 15W. Mit Raven Ridge in 14nm wird AMD die GPU-Performance wohl maximal verdoppeln können - man hängt ja auch an der Speicherbandbreite. Das reicht gegen Kabylake (Gen 9.5) dann für einen Gleichstand.

fondness
2016-02-07, 11:37:43
Auch wenn AMD genauso wenig die Heilsarmee ist wie Intel, aber wenn sie gegeneinander kämpfen, hat der Rest der Welt mehr davon als wenn nur einer was anbietet und nicht zu Verbesserungen gezwungen ist. Diese "Bulldozerpause" hat der Menschheit einige Jahre an Weiterentwicklung gekostet, z.B. mit schnelleren Prozessoren wären wissenschaftliche Entdeckungen (Wetterberechnungen, Gentechnik usw.) schneller usw. Macht wahrscheinlich weniger aus als ein Weltkrieg oder der Einfluß der katholischen Kirche, aber hilfreich war es sicher nicht.

Das halte ich für einen Fehlschluss. Intel investiert enorme Mengen in RnD und steigert diese über die Jahre auch noch kontinuierlich. Sie liefern faktisch jedes Jahr eine neuen CPU-Architektur, die teils erheblich überarbeitet wurde. Das trotzdem dann oft nur wenig Leistungsgewinn übrig bleibt, liegt einfach daran, dass es immer schwieriger wird die IPC weiter zu steigern. Aber schau dir zB mal an, was sich bei Intel bei der Leistungsaufnahme in den letzten Jahren getan hat, da kommt es fast bei jeder neuen Gen zu beachtlichen Sprüngen. Ich denke also nicht, dass ein konkurrenzfähiges AMD an dieser Situation etwas wesentliches ändern könnte, höchstens die Preise könnten sinken.

Undertaker
2016-02-07, 11:44:02
Intel profitiert im Moment vor allem von den Vorteilen der Fertigung. Punkt. Was im Moment noch sehr bescheiden ist, sind die Grakatreiber. Reden wir mal darüber, wenn wir fertigungstechnisch Gleichstand haben, obwohl ich zweifle, dass wir je Carrizo in <28nm sehen werden

Ebenso steht fest, das die Zeiten eklatant besserer GPU-IP oder GPU-Treiber auf Seiten der AMD-Modelle vorbei sind, Punkt. Einen Carrizo <28 nm sehen wir sicherlich nicht, aber vielleicht gibt es ja eine kurze Überschneidungsphase zwischen Kaby Lake und einer ersten 14nm APU von AMD. Ich wäre mir da absolut nicht sicher, ob AMD bei <=15 Watt auf mehr GPU-Leistung kommt.

Und beim Blick auf Apple reicht es halt nicht aus, nur eine starke (egal ob gleichwertig, etwas besser oder etwas schlechter) GPU abzuliefern. CPU-Leistung (hier müsste ein Sprung von >50 - 80 Prozent herauskommen, um mit Kaby Lake zu konkurrieren) und vor allem Effizienz müssten für ein konkurrenzfähiges Produkt gewaltig nach oben gehen. Ich glaube nicht, dass das angesichts des vielfach kleineren Entwicklungsbudgets gelingt. Ein gutes Produkt allein reicht nicht, für Apple brauchst du das beste.

Eine GT3e bei 15W ist im Bestfall doppelt so schnell wie die GT2 oder Carrizo bei 15W. Mit Raven Ridge in 14nm wird AMD die GPU-Performance wohl maximal verdoppeln können - man hängt ja auch an der Speicherbandbreite. Das reicht gegen Kabylake (Gen 9.5) dann für einen Gleichstand.

Keine unrealistische Prognose imo.

AnarchX
2016-02-07, 11:49:47
Auch wenn AMD genauso wenig die Heilsarmee ist wie Intel, aber wenn sie gegeneinander kämpfen, hat der Rest der Welt mehr davon als wenn nur einer was anbietet und nicht zu Verbesserungen gezwungen ist. Diese "Bulldozerpause" hat der Menschheit einige Jahre an Weiterentwicklung gekostet, z.B. mit schnelleren Prozessoren wären wissenschaftliche Entdeckungen (Wetterberechnungen, Gentechnik usw.) schneller usw. Macht wahrscheinlich weniger aus als ein Weltkrieg oder der Einfluß der katholischen Kirche, aber hilfreich war es sicher nicht.
Im professionellen Bereich liefert Intel bald bis zu 28 Kerne auf einem Die und mit Knights Landing fordert man AMD/NV auch im Bereich der Multi-Core-Beschleuniger. Da hat sich auch ohne AMD viel getan.
Für den Endkunden der kaum noch wachsenden Bedarf an Rechenleistung hat, tut sich halt weniger. Mit einem stärken AMD-Portfolio gäbe es halt HT auch im <100€ Bereich und vielleicht 6/8C in den 200-300€ Consumer-CPUs.

deekey777
2016-02-07, 11:55:00
Wer sagt, dass eine Zen-APU der schlechtere SoC ist? Wer merkt 10-20% IPC? Wenn man dafür vielleicht die eklatant bessere GPU bekommt, kann das für Apple mehr Sinn machen.

In Apple Macs kommen CPUs nur von den Herstellern, die Apple am tiefsten in den Hintern kriechen und zusichern, dass die Produkte auch verfügbar sind, die Apples Ansprüchen gerecht werden.

Und wenn du schon die APUs anspirchst: Für Apple sind die multimedialen Fähigkeiten sehr wichtig, dazu gehört die Videobearbeitung. Und hier hat Intel mit Quicksync so richtig vorgelegt, während AMD und wohl auch Nvidia diesen Bereich aufgegeben haben.

Ravenhearth
2016-02-07, 12:23:02
Keine unrealistische Prognose imo.

AMD könnte jedoch noch Vorteile bei der Verfügbarkeit und den Preisen haben. Eine Skylake GT3e ist in Geräten ja praktisch nicht zu bekommen, aus welchen Gründen auch immer, und dürfte dem Hersteller ein gutes Stück mehr kosten.

z3ck3
2016-02-07, 12:39:48
Videobearbeitung auf dem Mac -> Adobe etc. -> OpenCL. Nicht umsonst hat der Mac Pro bis zu zwei AMD FirePro. Was willst du da mit Quicksync?

Undertaker
2016-02-07, 12:41:09
AMD könnte jedoch noch Vorteile bei der Verfügbarkeit und den Preisen haben. Eine Skylake GT3e ist in Geräten ja praktisch nicht zu bekommen, aus welchen Gründen auch immer, und dürfte dem Hersteller ein gutes Stück mehr kosten.

Die CPUs mit Iris-GPU waren schon immer fast nur auf Apple beschränkt, weil Intel offenbar wie du schon sagtest ziemlich happige Preise dafür verlangt. Mit fehlender Lieferbarkeit dürfte das nichts zu tun haben – ich glaube auch das AMD mehr Carrizo als die Handvoll verfügbarer Geräte liefern könnte, wenn es denn Abnehmer gäbe. ;)

Wie groß die GT3e genau ist, weiß ich zwar nicht (vielleicht irgendwas um 120 mm² + die 64 MB eDRAM), aber wirklich groß ist das nicht. Da sollte bei den Herstellungskosten genug Potential nach unten sein, zumal eine 14 nm APU von AMD nicht kleiner sein muss.

Der erzielbare Verkaufspreis hängt dann letztlich nur von der Qualität des Gesamtpaketes ab, wobei sich AMD da einfach an der Preispolitik Intels orientieren wird als eine Spirale nach unten auszulösen. Die würde Intel vermutlich auch nicht mitgehen, sondern eher das Lineup stärken (höhere Taktraten und/oder mehr Features freigeben).

Gipsel
2016-02-07, 12:43:53
mit Knights Landing fordert man AMD/NV auch im Bereich der Multi-Core-Beschleuniger. Da hat sich auch ohne AMD viel getan.Wie jetzt? Ohne AMD/nV hätte es doch gar nichts zum Fordern dort gegeben? Das Argument funktioniert so nicht.
Und wenn du schon die APUs anspirchst: Für Apple sind die multimedialen Fähigkeiten sehr wichtig, dazu gehört die Videobearbeitung. Und hier hat Intel mit Quicksync so richtig vorgelegt, während AMD und wohl auch Nvidia diesen Bereich aufgegeben haben.Gibt es nicht in so ziemlich jeder neuen Generation von GPUs/APUs auch eine neue Version der VCE bei AMD bzw. nvenc (oder wie die das nennen) bei nV, die z.B. die Encodierung beschleunigen und neue Algorithmen unterstützen? Eine Aufgabe kann ich da irgendwie noch nicht so recht erkennen.

Ravenhearth
2016-02-07, 12:48:29
Der erzielbare Verkaufspreis hängt dann letztlich nur von der Qualität des Gesamtpaketes ab, wobei sich AMD da einfach an der Preispolitik Intels orientieren wird als eine Spirale nach unten auszulösen. Die würde Intel vermutlich auch nicht mitgehen, sondern eher das Lineup stärken (höhere Taktraten und/oder mehr Features freigeben).

Ich glaube aber, dass AMD für seine APUs geringere Preise abrufen wird als Intel, auch bei vergleichbarer Leistung und Effizienz. Wenn die Hersteller schon keine GT3e verbauen, würden sie auch nicht zu AMD zum gleichen Preis greifen, da muss AMD einfach billiger sein.

deekey777
2016-02-07, 12:53:43
Videobearbeitung auf dem Mac -> Adobe etc. -> OpenCL. Nicht umsonst hat der Mac Pro bis zu zwei AMD FirePro. Was willst du da mit Quicksync?
Du willst also sagen, dass alles iMac-User professionelle Software nutzen und nicht iMovie, um ihre Urlaubsvideos zu bearbeiten?


Gibt es nicht in so ziemlich jeder neuen Generation von GPUs/APUs auch eine neue Version der VCE bei AMD bzw. nvenc (oder wie die das nennen) bei nV, die z.B. die Encodierung beschleunigen und neue Algorithmen unterstützen? Eine Aufgabe kann ich da irgendwie noch nicht so recht erkennen.
Intels Quicksync ist aktuel wohl der beste HW-Encoder, der andere Punkt ist:
Schaue dir einfach an, welche Drittsoftware welche HW-Encoder unterstützt. Da ist Quicksync weit vorne, während VCE nur Steam, OBR und paar weitere "Hobby-Projekte" unterstützen (und vielleicht MediaShow von Cyberlink).

Einfaches Beispiel:
Ich habe eine R7 260X mit VCE 2.0, außer Steam und ORB (beides für mich nicht relevant) habe ich keine Umwandlersoftware gefunden, die auf VCE zugreifen kann (StaxRip bietet zwar VCE-Unterstützung an, aber will aber nicht). Dagegen habe ich keine Probleme Software zu finden, die QuickSync (egal oder Z3740 in meinem Tablet, i5-4400 im Desktop-PC oder Core m3 in meinem anderen Tablet) zu finden und zu benutzen.

YfOrU
2016-02-07, 13:51:15
Ich glaube aber, dass AMD für seine APUs geringere Preise abrufen wird als Intel, auch bei vergleichbarer Leistung und Effizienz. Wenn die Hersteller schon keine GT3e verbauen, würden sie auch nicht zu AMD zum gleichen Preis greifen, da muss AMD einfach billiger sein.

Ausschlaggebend für den erzielbaren Verkaufspreis ist bezogen auf die Masse nahezu ausschließlich die CPU Performance im jeweiligen TDP Segment. Eine in Relation zum Durchschnitt überproportional flotte IGP lässt sich bei entsprechenden Aufpreisen nur schwer bzw. in Nischen vermarkten.

Günstige dGPUs wie die NVIDIA GeForce 920M/940M sind dagegen ein ziemlicher Verkaufsschlager denn darüber lässt sich dem potentiellen Kunden welcher eine höher GPU Performance wünscht sehr einfach ein Mehrwert suggerieren. Die Folge ist unter anderen das die Geräte mit wirklich potenter APU meist eine dGPU mitbringen.

Hier hat AMD durchaus ein grundsätzliches Problem im Portfolio. Die flottesten (mobilen) APUs sind gleichzeitig auch die potentesten CPUs und für den eigentlich tollen GPU Part bekommt man in der Regel kein Geld.

Sunrise
2016-02-07, 13:57:40
Wer sagt, dass eine Zen-APU der schlechtere SoC ist? Wer merkt 10-20% IPC? Wenn man dafür vielleicht die eklatant bessere GPU bekommt, kann das für Apple mehr Sinn machen.
Man muss schon sehr viel Phantasie haben, bei extrem niedrigem TDP-Spielraum von "eklatant besserer GPU" ggü. Intel zu sprechen. Bei den Macbooks zählt vor allem CPU-Leistung und die integrierte GPU, mit Ausnahme der 15"-Variante, bei dem AMD dann mit Polaris und einer dGPU punkten könnte. Das ist das Maximum dessen, was man realistisch erwarten kann.

Wir sprechen hier von Intels Kernmarkt, da werden sie anders als bei den mobile-Chips nicht beliebig die Preise senken, weil sie sich damit ihr Geschäft kaputt machen.
Intel macht die fetten Margen im Servermarkt, der Desktop ist ein automatischer Selbstläufer, kaum Aufwand, spottbillige Dies. Aber gerade hier zeigt Intel die geballte Macht an Eigenschaften für eine APU am Stärksten, weil sie permanent die Leistung erhöhen und den Verbrauch senken können. Bevor Intel sich da die Preise kaputt macht, ist AMD Pleite, um das mal weiter zu denken. Das wird aber nicht passieren, da Intel aktuell immer Vorteile haben wird, an die AMD mit den derzeitigen Mitteln nicht annähernd rankommt.

AMD hat 150 Engineers an Synopsys abgeben müssen, als Gegenleistung bekam man IP für 14/16nm und 10nm, und Synopsys erhält Zugriff auf AMD IP, damit man überhaupt eigene Produkte auf aktueller Fertigung bauen kann, während Intel das aus eigener Kasse bezahlt und selbst massiv investiert, das wird alles noch richtig teuer, bei und unter 7nm.

Die Abhängigkeit von GloFo ab 10nm wird auch wieder ausschlaggebend, sollte es wieder Probleme geben, steht bei AMD alles still, denn die IP kommt nicht von Samsung. Und wo Intel 2018 prozesstechnisch stehen wird, sollte bekannt sein. Es geht also nicht nur sturr um IPC, man muss auch permanent Intels Tempo mitgehen können, ansonsten ist man noch weiter hintendran.

Kartenlehrling
2016-02-07, 14:02:35
Die Folge ist das die Geräte mit wirklich potenter APU meist eine dGPU mitbringen.

Weil das Betriebsystem fehlte, ich habe mich schon 7!! Jahre gefragt wieso man die APU + Intel HD nicht für Phsikberechnunge einsetzte.
Die APU und auch die Intel iGPU soll doch mehr als nur x265 Live steamen und oder zweite Monitor bedienen.
Nvidia hat doch schon zusammenarbeit mit Intel DX12 iGPU schon bestätigt und AMD macht es auch.

http://www.extremetech.com/wp-content/uploads/2015/02/GPU-Coprocessor.jpg

z3ck3
2016-02-07, 14:05:39
Du willst also sagen, dass alles iMac-User professionelle Software nutzen und nicht iMovie, um ihre Urlaubsvideos zu bearbeiten?

Wenn der iMac nicht über Quicksync verfügt, dann wird eben die Technologie genommen die alternativ zur Verfügung steht. Spätestrens in der 2. Gen schmeisst Apple dann auch den Quicksync support wieder raus. So läuft das bei Apple. Der Vorteil wenn die Fans spätestens jede 2. Gen kaufen und es nur eine Plattform für alle Geräte gibt (Tablets und Smartphone ausgenommen).

Quicksync ist auf dem Mac Pro z.b. gar nicht verfügbar. Spätestens hier zeigt sich dann auch ein Vorteil wenn man vom Macbook über den iMac bis zum Mac Pro auf AMD setzen würde. Das Featureset ist überall verfügbar, lediglich die Leistungsdaten unterscheiden sich.

fondness
2016-02-07, 14:09:05
Man muss schon sehr viel Phantasie haben, bei extrem niedrigem TDP-Spielraum von "eklatant besserer GPU" ggü. Intel zu sprechen. Auf den Macbooks zählt vor allem CPU-Leistung und die integrierte GPU, mit Ausnahme der 15"-Variante, bei dem AMD dann mit Polaris und einer dGPU punkten könnte. Das ist das Maximum dessen, was man realistisch erwarten kann.

Es ist ohnehin kaum möglich, über etwas zu diskutieren, über das praktisch nichts bekannt ist. Klar ist dafür entscheidend, wie gut Zen wird, bzw. wie energieeffizient.


AMD hat 150 Engineers an Synopsys abgeben müssen, als Gegenleistung bekam man IP für 14/16nm und 10nm, und Synopsys erhält Zugriff auf AMD IP, damit man überhaupt eigene Produkte auf aktueller Fertigung bauen kann, während Intel das aus eigener Kasse bezahlt und selbst massiv investiert, das wird alles noch richtig teuer, bei und unter 7nm.

Das nennt mal sinnvolle Kooperation. AMD arbeitet seit mehr als zehn Jahren mit Synopsys sehr gut zusammen, da ist nur konsequent, diese gut funktionierende Zusammenarbeit zu vertiefen. Warum sollte AMD auch alles selbst entwickeln, das ist nicht effizient. Die 150 Engineers haben dementsprechend bei AMD keine Aufgabe mehr, Synopsys hat diese direkt übernommen weil sie offensichtlich gut gebraucht werden können. Da finde ich das Joint-Venture mit Nantong wesentlich problematischer, denn AMD hatte eine ausgezeichnete Test-Abteilung und diese auch nach den Fab-Spinoff nicht ohne Grund behalten, während viele andere Halbleiterhersteller das längst extern erledigen wie zB Nvidia. Leider kann man diese Abteilung nicht mehr Auslasten und Entlassungen sind dort keine sinnvolle Alternative.


Die Abhängigkeit von GloFo ab 10nm wird auch wieder ausschlaggebend, sollte es wieder Probleme geben, steht bei AMD alles still, denn die IP kommt nicht von Samsung. Und wo Intel 2018 prozesstechnisch stehen wird, sollte bekannt sein.

Diese Abhängigkeit hat auch Intel und jede andere Halbleiterhersteller. Nur weil etwas in-house ist, heißt es nicht, dass es keine Probleme gibt. Der Intel-Fertigungsmotor stottert in den letzten Jahren ja nicht zum ersten mal.

YfOrU
2016-02-07, 14:18:04
Nvidia hat doch schon zusammenarbeit mit Intel DX12 iGPU schon bestätigt und AMD macht es auch.

Ja und das zeigt auch gut das man sich bei AMD nicht nur mit BD sondern auch mit den zugehörigen APUs verrannt hatte. Von den flotten IGPs konnte AMD in der Vergangenheit kaum profitieren.

CF mit kleinen dGPUs ist bis heute eine Katastrophe welche am Massenmarkt nicht zumutbar ist. Auf dem Papier ist die Kombination der GPUs wirklich ein Vorteil gewesen. Ordentlich funktioniert hat das aber nicht mal im Ansatz. Praktisch blieb es bei der Umschaltung und dafür sind dann 512SPs wie bei Carrizo (welche ansonsten meist entweder an der Bandbreite oder am TDP Limit kleben bzw. teil/deaktiviert sind) ganz schön viel.

Sunrise
2016-02-07, 14:33:40
Das nennt mal sinnvolle Kooperation.
Das ist kostentechnisch vielleicht effizient, aber so denken auch nur Führungskräfte oder Firmen, die denken, sie können mit billigen Arbeitsmitteln das erreichen, was andere mit teuren Arbeitsmitteln erreichen. Wohlgemerkt, wir reden hier vom Kern-KnowHow an Technikern, nicht irgendwelchen Managern. Und die Mitarbeiter abzugeben, kommt einer ausweglosen Situation gleich, das kann man gerne nennen wie man will.

Im Endeffekt schlägt sich das auf die Qualität der Produkte nieder und AMD bleibt dann eben billig. Oder denkst du, man könnte dieses Spiel permanent weiterspielen bis AMD keine Mitarbeiter mehr hat? Das ist eine Sackgasse, und Intel verdient weiterhin mit den besten Leuten der Industrie fortwährend Geld, und AMD geht wie du so schön sagst dann wieder "sinnvolle Kooperationen" ein, damit sie überhaupt noch von irgendwo KnowHow bekommen, um eigene Produkte mit aktueller Fertigung zu entwickeln.


Diese Abhängigkeit hat auch Intel und jede andere Halbleiterhersteller. Nur weil etwas in-house ist, heißt es nicht, dass es keine Probleme gibt. Der Intel-Fertigungsmotor stottert in den letzten Jahren ja nicht zum ersten mal.
Nein, diese Abhängigkeit in dieser Form hat Intel nicht, weil AMD erstens keine eigene Fertigung hat und Intel zweitens auch das BEol immer verkleinert, während andere da weiter hintendran sind. Intels Prozesse sind also qualitativ immer die Besten für ihre Zwecke, da hat AMD kaum noch Einfluss, die müssen nehmen, was sie bekommen.

Gleichzeitig ist genau das auch der Grund, warum Intel "Verspätungen" hat, weil die Prozesse viel ambitionierter sind und man damit im Endeffekt auch tatsächlich die Kosten dann drücken kann, was nicht funktioniert, wenn das BEol nicht auch immer weiter stark verkleinert wird. Da hat AMD überhaupt nichts dagegenzusetzen, und GloFo schon zweimal nicht, die sind zwar unter den Top5, aber größtenteils mit Nischenprodukten, während Intel aus allen Rohren feuert und dann auch noch hohe Gewinne damit macht, trotz der enormen Kosten, die immer weiter steigen.

fondness
2016-02-07, 14:41:18
Das ist kostentechnisch vielleicht effizient, aber so denken auch nur Führungskräfte oder Firmen, die denken, sie können mit billigen Arbeitsmitteln das erreichen, was andere mit teuren Arbeitsmitteln erreichen. Wohlgemerkt, wir reden hier vom Kern-KnowHow an Technikern, nicht irgendwelchen Managern. Und die Mitarbeiter abzugeben, kommt einer ausweglosen Situation gleich, das kann man gerne nennen wie man will.

Im Endeffekt schlägt sich das auf die Qualität der Produkte nieder und AMD bleibt dann eben billig. Oder denkst du, man könnte dieses Spiel permanent weiterspielen bis AMD keine Mitarbeiter mehr hat? Das ist eine Sackgasse, und Intel verdient weiterhin mit den besten Leuten der Industrie fortwährend Geld, und AMD geht wie du so schön sagst dann wieder "sinnvolle Kooperationen" ein, damit sie überhaupt noch von irgendwo KnowHow bekommen, um eigene Produkte mit aktueller Fertigung zu entwickeln.

Als ob Synopsys irgendeine Billigbude wäre bzw. nicht in der Lage wäre gute IP zu entwicklen. Wie schon gesagt, das sehe ich relativ unproblematisch, viele führende Hersteller verwenden Synopsys-IP, im übrigen auch Intel. Und nein wir reden hier nicht von "Kern-KnowHow" wie CPU- oder GPU-IP, bzw nur sehr eingeschränkt in Bereichen die man überall benötigt. Klar ist es immer besser, wenn man alles in-house machen könnte, aber unter den gegebenen Umständen halte ich das noch für wesentlich sinnvoller, als einfach pauschal zu kürzen.



Nein, diese Abhängigkeit in dieser Form hat Intel nicht, weil AMD erstens keine eigene Fertigung hat und Intel zweitens auch das BEol immer verkleinert, während andere da weiter hintendran sind. Intels Prozesse sind also qualitativ immer die Besten für ihre Zwecke, da hat AMD kaum noch Einfluss, die müssen nehmen, was sie bekommen. Gleichzeitig ist genau das auch der Grund, warum Intel "Verspätungen" hat, weil die Prozesse viel ambitionierter sind und man damit im Endeffekt auch tatsächlich die Kosten dann drücken kann, was nicht funktioniert, wenn das BEol nicht auch immer weiter stark verkleinert wird. Da hat AMD überhaupt nichts dagegenzusetzen, und GloFo schon zweimal nicht, die sind zwar unter den Top5, aber größtenteils mit Nischenprodukten, während Intel aus allen Rohren feuert und dann auch noch Hohe Gewinne damit macht, trotz der enormen Kosten, die immer weiter steigen.

Selbst riesige Firmen wie Qualcomm oder Apple haben keine eigenen Fertigung. Ich halte das auch nicht für sinnvoll, schon gar nicht für eine Firma mit der Größe von AMD. Ganz im Gegenteil, man ist wesentlich flexibler, wenn man sich den Fertigungspartner aussuchen kann.

Das man nicht mit Intel auf Augenhöhe konkurrieren kann ist ohnehin klar, darüber braucht man auch nicht anfangen zu diskutieren. Deshalb auch der Schritt Richtung GPUs, K12, etc. Man muss halt das beste aus der Situation machen, Zen wird hoffentlich ausreichend um das Geschäft zu stabilisieren. Niemand erwartet den Untergang von Intel, das wäre nicht mal mit deutlich besseren Produkten machbar, siehe K7/K8.

Undertaker
2016-02-07, 16:04:12
Hier hat AMD durchaus ein grundsätzliches Problem im Portfolio. Die flottesten (mobilen) APUs sind gleichzeitig auch die potentesten CPUs und für den eigentlich tollen GPU Part bekommt man in der Regel kein Geld.

Der früher einmal vorhandene Mehrwert ist mittlerweile halt auch verschwunden. Wenn man beispielsweise das Carrizo-Topmodell einem Skylake i3 gegenüberstellt liegen beide GPU-seitig auf einem Niveau. Als Ausgleich für die niedrigere ST-Performance und die schlechtere Effizienz müsste Carrizo obendrei eigentlich auch noch etwas billiger sein. Überlegen ist die GPU eigentlich nur noch in den ganz billigen Klassen, wo Intel nur die HD Graphics mit 12 EUs anbietet.

Sunrise
2016-02-07, 16:17:14
Als ob Synopsys irgendeine Billigbude wäre bzw. nicht in der Lage wäre gute IP zu entwicklen. Wie schon gesagt, das sehe ich relativ unproblematisch, viele führende Hersteller verwenden Synopsys-IP, im übrigen auch Intel. Und nein wir reden hier nicht von "Kern-KnowHow" wie CPU- oder GPU-IP, bzw nur sehr eingeschränkt in Bereichen die man überall benötigt. Klar ist es immer besser, wenn man alles in-house machen könnte, aber unter den gegebenen Umständen halte ich das noch für wesentlich sinnvoller, als einfach pauschal zu kürzen.
Es ging nicht darum, was Synopys ist oder nicht, sondern was AMD unfreiwillig abgeben musste um überhaupt Zugriff auf die nötigen Grundlagen zu haben, um am Ball bleiben zu können. Dieses Spiel kann man nicht endlos weiterspielen, weil AMD sonst keine Mitarbeiter mehr hat. Es muss schnellstmöglich soviel Geld verdient werden, dass man das auch weiterhin finanzieren kann.

Ich halte das auch nicht für sinnvoll, schon gar nicht für eine Firma mit der Größe von AMD.

Das man nicht mit Intel auf Augenhöhe konkurrieren kann ist ohnehin klar, darüber braucht man auch nicht anfangen zu diskutieren.
Dann sollte hoffentlich jetzt klar sein, warum AMD aufgrund der schlechteren Fertigung und den anderen Fakten auf gleicher Augenhöhe bei APUs mit Stand heute immer den Kürzeren ziehen wird. Genau deshalb geht man in Richtung Desktops und Server, weil da für AMD genug Platz ist. Hier gibt es zudem nicht diesen enormen Preisdruck, weil Intel AMD bereits vor Jahren abgehängt hat und das mit einer der Gründe ist, warum Intel diese hohen Gewinne fahren kann.

Wenn also in Zukunft APUs kommen, ist es illusorisch davon auszugehen, dass AMD hier bei der Summe an Merkmalen mithalten kann. Womöglich benötigt man sogar den Sprung auf 10nm, weil 2018 noch mit 14nm anzutanzen, ggü. der viel stärkeren IPC von Intel und der Fertigungsgeneration fast zwei Schritte (weil Intel weiterhin besser als die Konkurrenz bei 14nm ist) hintendran, dann können sie auch gleich auf 14nm bleiben, sich eingestehen, dass es nur wieder über den Preis geht und im Endeffekt haben wir dann wieder die gleiche Situation wie heute, AMD als Hersteller zweiter Klasse.

Damit lässt es sich aber auch gut leben, wenn AMD bei GPUs ebenso am Ball bleibt und aggressiv auftritt, selbst wenn NV effizienter sein sollte, im GPU-Markt gibt es immer Möglichkeiten.

Wäre schön wenn beides weiterhin Bestand hat, aber dafür bin ich zu realistisch eingestellt und suche zwar Chancen, mache mir dabei aber nichts vor, denn die Situation ist wie sie ist.

Sofern wir wieder eine halbwegs gangbare Konkurrenz haben und nicht eine Firma, die sich nur noch die Wunden leckt, wird es auch Käufer geben.

Pirx
2016-02-07, 16:28:01
Der früher einmal vorhandene Mehrwert ist mittlerweile halt auch verschwunden. Wenn man beispielsweise das Carrizo-Topmodell einem Skylake i3 gegenüberstellt liegen beide GPU-seitig auf einem Niveau. ...
Dafür wird dem i7 6700K hier aber ordentlich vom aaalten Kaveri der Hintern versohlt.:lol:

http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/20

YfOrU
2016-02-07, 16:53:00
Das ist halt Desktop mit einer TDP von 65W+. Ist zwar nett aber in dem Format ist eine dGPU auch bezogen auf den Preis wenn es um 3D Performance geht eher selten ein Problem. Anders formuliert: Das Fenster in dem eine flotte APU (A10 mit 512SPs) am Desktop (auch gegenüber einem Athlon X4 mit dGPU) wirklich die bessere Lösung darstellt ist ziemlich klein.

Bei Mobile und SFF macht eine potente IGP deutlich mehr Sinn und da steht beispielsweise Carrizo bei den heute üblichen 15W TDP nicht mehr so gut da (ungefähr GT2 Performance). Wobei ich schon auch davon ausgehe das AMD GT3e Performance mit Raven Ridge (14nm APU, DDR4) erreichen sollte.

r-or
2016-02-07, 17:23:56
Gibts überhaupt irgendwo vernünftige Carrizo-Benchmarks vs. Intels GT2? Also Dual Channel vs. Dual Channel, sinnvolle Taktraten etc? Ich verstehe schon, was anandtech aussagen will, trotzdem würd mich das grundsätzliche Potential interessieren. 28 vs. 14nm, Spiele-Performance.

YfOrU
2016-02-07, 17:29:16
Beispielsweise hier, einzelne Titel anklicken (untere Hälfte des Artikels, sowohl SC als auch DC): http://www.notebookcheck.com/Test-HP-EliteBook-745-G3-Notebook.157955.0.html

r-or
2016-02-07, 17:34:35
Ok, also Single-Channel -> Dual Channel 50% mehr fps Tomb Raider HQ preset. 19fps -> 27fps.

Und exakt auf einem Level wie Intel Core i5-6300U, Intel HD Graphics 520.*

*Spiele-Leistung. CPU-Leistung? ca. 70% davon.

dildo4u
2016-02-07, 17:39:08
Krank 1300€ und nur ein Ram Modul was rauchen die?Dort gilt das Spar Argument ja nicht.

YfOrU
2016-02-07, 18:02:41
CPU-Leistung? ca. 70% davon.

Im Mittel dürften es 10-15% unterhalb des i3-6100U sein (2C/4T, 2,3 GHz). Also vergleichbar mit dem älteren i3-5010U (2C/4T, 2,1 Ghz). Gegenüber den i5 und i7 Modellen mit Turbofrequenzen um 3 Ghz ist die Lücke vor allen bezüglich der ST Performance damit schon eklatant groß. Das macht es für AMD einfach wahnsinnig schwierig Design Wins in Preissegmenten oberhalb von Entry bis Mainstream zu bekommen.

Krank 1300€ und nur ein Ram Modul was rauchen die?Dort gilt das Spar Argument ja nicht.

Ist immer ein zweischneidiges Schwert. Dafür lässt sich der Arbeitsspeicher kostengünstig erweitern (Platz für ein weiteres Modul) und der Hersteller muss keine separaten Modelle mit unterschiedlichen Konfigurationen führen. Ist bei AMD aufgrund der aktuell viel geringeren NB Stückzahlen natürlich auch wieder logisch (->weniger SKUs).

Um aus der Endlosschleife rauszukommen braucht AMD APUs deren CPU Performance zu den i5 Serien konkurrenzfähig sind. Gilt genauso für den Desktop.

deekey777
2016-02-08, 11:13:35
Der früher einmal vorhandene Mehrwert ist mittlerweile halt auch verschwunden. Wenn man beispielsweise das Carrizo-Topmodell einem Skylake i3 gegenüberstellt liegen beide GPU-seitig auf einem Niveau. Als Ausgleich für die niedrigere ST-Performance und die schlechtere Effizienz müsste Carrizo obendrei eigentlich auch noch etwas billiger sein. Überlegen ist die GPU eigentlich nur noch in den ganz billigen Klassen, wo Intel nur die HD Graphics mit 12 EUs anbietet.

Bitte einen Link nachreichen.

Wenn der iMac nicht über Quicksync verfügt, dann wird eben die Technologie genommen die alternativ zur Verfügung steht. Spätestrens in der 2. Gen schmeisst Apple dann auch den Quicksync support wieder raus. So läuft das bei Apple. Der Vorteil wenn die Fans spätestens jede 2. Gen kaufen und es nur eine Plattform für alle Geräte gibt (Tablets und Smartphone ausgenommen).

Quicksync ist auf dem Mac Pro z.b. gar nicht verfügbar. Spätestens hier zeigt sich dann auch ein Vorteil wenn man vom Macbook über den iMac bis zum Mac Pro auf AMD setzen würde. Das Featureset ist überall verfügbar, lediglich die Leistungsdaten unterscheiden sich.
Und jetzt bitte mit mehr Substanz.

DinosaurusRex
2016-02-08, 11:58:44
Das die Intel iGPs so gut mithalten ist doch mit Sicherheit auf die mickrige Bandbreite zurück zu führen, mit der die APUs angebunden sind. Interessant wäre ein Test der beiden Grafiklösungen ohne ein Bandbreitenlimit.

Undertaker
2016-02-08, 12:46:54
Bitte einen Link nachreichen.

Hat YfOrU vor wenigen Postings doch erst gebracht. Carrizos Radeon R7 (d.h. Vollausbau mit 512 ALUs) liegt genau auf dem Level der HD 520. Die GPU taktet beim i3-6100U übrigens exakt genauso hoch wie beim i5-6200U und i5-6300U.

Das die Intel iGPs so gut mithalten ist doch mit Sicherheit auf die mickrige Bandbreite zurück zu führen, mit der die APUs angebunden sind. Interessant wäre ein Test der beiden Grafiklösungen ohne ein Bandbreitenlimit.

Die scheinen ziemlich ähnlich mit der Bandbreite zu skalieren, wenn man sich die Single- und Dualchannel Benches anschaut. Carrizo ist bei 15 Watt halt auch stark verbrauchslimitiert und taktet die GPU extrem niedrig, wo Skylake den Turbo mehr oder weniger voll ausfährt.

mboeller
2016-02-08, 12:55:37
auch wenn es nicht direkt Carrizo ist:

http://dresdenboy.blogspot.de/2016/02/more-amd-bristol-ridge-opns-leaked.html

die Base-Frequenzen schauen doch ziemlich gut aus. Wenn das stimmt dann hat AMD irgendwo mal 30% Leistung gefunden (8800P -> 9800B) beim "Stepping" von Carrizo auf Bristol-Ridge. Bisher dachte man ja es wäre der gleiche Chip mit sehr wenigen Änderungen außer AFAIR Video

Ravenhearth
2016-02-08, 13:02:26
Vortrag auf der ISSCC 2016: "Increasing the Performance of a 28nm x86-64 Microprocessor Through System Power Management"

For its part, AMD engineers showed smart ways of squeezing as much as 15% more performance out of its Carrizo PC processor, simply by applying more aggressive power management to the 28nm design. The Bristol Ridge design was a study in using power management to overcome performance limits tied to heat, voltage and current.

http://www.eetimes.com/author.asp?section_id=36&_mc=RSS_EET_EDT&doc_id=1328845&page_number=2

Leider gibts kein öffentlich zugängliches Material. Aber das gehört eh in den entsprechenden Thread.

DinosaurusRex
2016-02-08, 13:02:39
@ Undertaker: Wie sieht es denn mit der GPGPU Performance aus? Die hab ich grad nicht im Kopf und das ist ja etwas, wo die Bandbreite nicht ganz so wichtig ist wie fürs Rendering.

Undertaker
2016-02-08, 13:03:51
auch wenn es nicht direkt Carrizo ist:

http://dresdenboy.blogspot.de/2016/02/more-amd-bristol-ridge-opns-leaked.html

die Base-Frequenzen schauen doch ziemlich gut aus. Wenn das stimmt dann hat AMD irgendwo mal 30% Leistung gefunden (8800P -> 9800B) beim "Stepping" von Carrizo auf Bristol-Ridge. Bisher dachte man ja es wäre der gleiche Chip mit sehr wenigen Änderungen außer AFAIR Video

Das sieht auf den ersten Blick wirklich gut aus, vor allem gibt es endlich eine Unterteilung der Chips je nach TDP (da hat man zumindest eine grobe Ahnung, welche Leistung einen je nach Modell erwartet).

Aber: In den letzten Generationen gab es viel zu oft ULV-Modelle, die unter Last nicht einmal den Base Clock halten konnten und dem Turbo nicht nah kommen. Konkrete Leistungssteigerungen kann man aus diesen Angaben also noch nicht ablesen.

@DinosaurusRex: Da kenne ich nicht wirklich viele Werte... Luxmark und Computemark bei Notebookcheck nehmen sich nicht viel.

DinosaurusRex
2016-02-08, 13:12:34
@DinosaurusRex: Da kenne ich nicht wirklich viele Werte... Luxmark und Computemark bei Notebookcheck nehmen sich nicht viel.

Laufen die bei Intel auf der CPU oder der iGP?

Ravenhearth
2016-02-08, 13:14:51
Das sieht auf den ersten Blick wirklich gut aus, vor allem gibt es endlich eine Unterteilung der Chips je nach TDP (da hat man zumindest eine grobe Ahnung, welche Leistung einen je nach Modell erwartet).

Aber: In den letzten Generationen gab es viel zu oft ULV-Modelle, die unter Last nicht einmal den Base Clock halten konnten und dem Turbo nicht nah kommen. Konkrete Leistungssteigerungen kann man aus diesen Angaben also noch nicht ablesen.

Bedenken sollte man auch, dass die cTDP von max. 35W auf max. 45W ansteigt. Das macht höhere Taktraten natürlich auch einfacher zu erreichen...

Undertaker
2016-02-08, 13:29:37
Laufen die bei Intel auf der CPU oder der iGP?

GPU, bei beiden.

Bedenken sollte man auch, dass die cTDP von max. 35W auf max. 45W ansteigt. Das macht höhere Taktraten natürlich auch einfacher zu erreichen...

Mal schauen ob die Hersteller auch so hoch gehen, würde sich natürlich anbieten für Geräte die sonst mit Intel-Quads laufen. Bin mir allerdings nicht so sicher, dass der Chip bei >35 Watt noch so gut skaliert...

Ein guter Sweet Spot könnten imo die 25 Watt sein. Sowas bekommt man noch gut in ein flaches 13/14" Gerät und hätte auch den Support für DDR4-2400.

deekey777
2016-02-08, 13:34:02
Hat YfOrU vor wenigen Postings doch erst gebracht. Carrizos Radeon R7 (d.h. Vollausbau mit 512 ALUs) liegt genau auf dem Level der HD 520. Die GPU taktet beim i3-6100U übrigens exakt genauso hoch wie beim i5-6200U und i5-6300U.


Ach, ich bin so ein Depp und bin voll in die Falle getappt. Schließlich wurde hier das Kunststück vollzogen, dass es nur um die mobilen Geräte geht, womit die Carrizos über TDP limitiert werden. Würde man aber Desktop-Skylakes nehmen, dann hätten sie kaum Chancen; der Mehrverbrauch hätte sich über die Preisdifferenz egalisiert. Aber solche Desktop-Carrizos gibt es ja noch nicht, aber Kaveris und Godaveris haben schon gezeigt, in welche Richtung es geht.

Undertaker
2016-02-08, 13:45:47
Im Desktop ist die Skylake GT2 chancenlos, absolut. Wenn schon die ULV-Modelle den Turbo gut ausreizen, gibt es durch die höhere TDP für die Desktop-Modelle kaum noch Vorteile.

Sunrise
2016-02-08, 13:45:54
Vortrag auf der ISSCC 2016: "Increasing the Performance of a 28nm x86-64 Microprocessor Through System Power Management"



http://www.eetimes.com/author.asp?section_id=36&_mc=RSS_EET_EDT&doc_id=1328845&page_number=2

Leider gibts kein öffentlich zugängliches Material. Aber das gehört eh in den entsprechenden Thread.
Liest sich vielversprechend. Das ist auch genau das, was AMD von Anfang an mit Zen starten muss, damit man den TDP-Spielraum so gut wie möglich nutzen kann, inkl. Taktraten, die über Intel liegen, damit man dadurch Nachteile in der IPC wieder ausgleichen kann.

Jim Keller hatte das sicher auch berücksichtigt, nur ist leider immer das Problem, dass etwas "auf Papier" nicht unbedingt auch in der Realität entsprechend umsetzbar ist, was AMD wohl vor allem dieses Jahr mit gereifteren Prozessen lernen wird.

DinosaurusRex
2016-02-08, 14:17:26
Wie sieht das denn eigentlich in Zukunft aus? Werden PC-Prozessoren eher den Weg der Smartphones und Konsolen gehen, also viele kleine Kerne anstelle wenig großer? Oder setzen die weiter auf maximale single-thread Performance?

YfOrU
2016-02-09, 00:33:41
Ach, ich bin so ein Depp und bin voll in die Falle getappt. Schließlich wurde hier das Kunststück vollzogen, dass es nur um die mobilen Geräte geht, womit die Carrizos über TDP limitiert werden.

Das Carrizo hier durch die TDP limitiert wird steht natürlich außer Frage. Ein Kunststück ist es aber nicht denn das Segment bis 15W TDP dürfte inzwischen rund 40% Anteil am Gesamtmarkt aller x86 (Notebook + Desktop) CPUs haben.

Um die 70 % der mit Broadwell und Skylake gelisteten Notebooks (GH) haben eine CPU TDP bis 15W. Bei SFF (Mini PCs) ist das Verhältnis ähnlich. Inkl. Low-Cost LP SoCs wie Braswell und x86 Tablets wird es noch ein Stück mehr. Ausgehend von Ivy Bridge-ULV (19W) hat sich der Markt für Consumer CPUs über die letzten Jahre ziemlich drastisch in niedrigere TDP Bereiche verschoben.

Kartenlehrling
2016-02-09, 00:44:22
Krank 1300€ und nur ein Ram Modul was rauchen die?Dort gilt das Spar Argument ja nicht.


extremetech.com (http://www.extremetech.com/computing/222662-poor-oem-designs-single-channel-ram-sabotage-amds-carrizo)spricht sogar von Sabotage bei den OEM Händler im Bezug auf dem Anandtech Test.

YfOrU
2016-02-09, 10:00:08
Zitat extremetech.com:
When AMD briefed us on Carrizo nearly a year ago, it made it clear that the chip was targeting the $400 to $700 laptop market, with Carrizo-L shipping into the $250 to $400 range. Between $400 and $500, AMD would be competing against the lower-end Core i5-5200U from Intel, as well as various Haswell-era Celerons and lower-end Intel parts.

Vor Broadwell gab es zwischen i3 und i5 eine sehr große Lücke. Mit dem i3-5010U hat Intel die Taktfrequenz gegenüber dem Vorgänger (i3-4010U, Haswell, 1,7 Ghz) um 400 Mhz (auf 2,1 Ghz) angehoben. Das hat AMD bezogen auf die angestrebte Positionierung von Carrizo nach oben den Wind aus den Segeln genommen.

Carrizo ist selbst mit 15W TDP (inkl. FCH) wesentlich besser als Kaveri bei 19W (ohne FCH). Für AMD ein riesiger Sprung der im Kontext der CPU Architektur und Fertigung so nicht zu erwarten war. Wirklich gereicht hat es am Ende aber trotzdem nicht denn Intel hatte noch viel Luft nach oben. Positiv daran ist das es zumindest zeigt das AMD mit 14nm und einer "marktüblichen" CPU Architektur in jedem Fall das Potential hat deutlich weiter oben mitspielen zu können. Intel kann mittelfristig weder die i3 noch die kleineren i5 SKUs deutlich weiter nach oben verschieben ohne das es sich spürbar negativ auf die Marge auswirkt.

z3ck3
2016-02-09, 10:12:25
Und jetzt bitte mit mehr Substanz.


2006 kam der Mac Pro auf C2D Basis und löste den PowerMac ab: Gen 1
2007 und 2008 kamen nochmal Gen 1 Mac Pros: Gen 1 Refresh
2009 kam dann der Mac Pro auf Intel Core Basis: Gen 2

2009 wurde die letzte G5 kompatible Version von OSX (10.5.8) veröffentlicht.

Und dabei ging es um mehr als nur einen kleinen Teil eines Befehlssatzes, dessen Support man auch heimlich entfernen kann.

Und wie gesagt, QuickSync ist auf MAc Pro gar nicht verfügbar. Die Unterstützung ist nicht mal in der gesamten Produktpalette gegeben. Ein leichtest dieses zu ersetzen, vor allem wenn es dann über alle Produkte hinweg vorhanden wäre.

y33H@
2016-02-09, 22:40:13
Carrizo ist bei 15 Watt halt auch stark verbrauchslimitiert und taktet die GPU extrem niedrig, wo Skylake den Turbo mehr oder weniger voll ausfährt.Korrekt (A12 mit 15W im HP 725 G3, Luxmark 3.0 Medium Workload, CPU & GPU):

54736

Mit Single-Channel DDR3L-1600 übrigens klar lahmer als eine HD Graphics 520 :(

Flusher
2016-02-09, 23:32:28
extremetech.com (http://www.extremetech.com/computing/222662-poor-oem-designs-single-channel-ram-sabotage-amds-carrizo)spricht sogar von Sabotage bei den OEM Händler im Bezug auf dem Anandtech Test.

Harter Tobak - scheint als AMD aktiv aus dem Markt gemobbt werden würde. Nicht eine Nische wird denen überlassen.

OBrian
2016-02-10, 05:49:00
Die Notebookhersteller bauen so einen Mist auch mit Intels, nur fällt es da nicht so auf, da man immer auch genug gute Notebooks findet. Wenn nur ein kleiner Teil der Notebooks brauchbar sind und der Rest Müll, dann gibt es bei Geizhals nach Eingabe der Kriterien "1GBit-LAN, mindestens HD-Auflösung, matt, Preis egal" noch eine Menge Intel-Notebooks, bei AMD wird es dann aber schon arg dünn, weil es insgesamt nicht so viele gibt. 1% von 1000 sind 10, 1% von 8 sind gerundet eben Null.

Aber dieses Einschränken der Speicherbandbreite machen die OEMs gerne, und deswegen wird AMD auch enorm gewinnen, wenn sie APUs mit HBM bringen (zuerst nur im oberen Preisbereich natürlich, aber langfristig bestimmt überall), dann ist die Bandbreite einfach da und der OEM kann sie nicht abreißen.

Bloß 100-MBit-Netzwerkchips kann er immer noch verlöten...

Flusher
2016-02-10, 09:26:24
Die Notebookhersteller bauen so einen Mist auch mit Intels, nur fällt es da nicht so auf, da man immer auch genug gute Notebooks findet. Wenn nur ein kleiner Teil der Notebooks brauchbar sind und der Rest Müll, dann gibt es bei Geizhals nach Eingabe der Kriterien "1GBit-LAN, mindestens HD-Auflösung, matt, Preis egal" noch eine Menge Intel-Notebooks, bei AMD wird es dann aber schon arg dünn, weil es insgesamt nicht so viele gibt. 1% von 1000 sind 10, 1% von 8 sind gerundet eben Null.

Aber dieses Einschränken der Speicherbandbreite machen die OEMs gerne, und deswegen wird AMD auch enorm gewinnen, wenn sie APUs mit HBM bringen (zuerst nur im oberen Preisbereich natürlich, aber langfristig bestimmt überall), dann ist die Bandbreite einfach da und der OEM kann sie nicht abreißen.

Bloß 100-MBit-Netzwerkchips kann er immer noch verlöten...

Dass man 1-Gbit überhaupt heute noch speziell filtern muss ist ja schon ein Ärgerniss. Ich hab seit Jahren schon kein Gerät mit nur 100 MBit/s gesehen.

YfOrU
2016-02-10, 12:42:22
Mit Single-Channel DDR3L-1600 übrigens klar lahmer als eine HD Graphics 520 :(

Ja. Mit DC zwar grundsätzlich auf Augenhöhe (GPU) aber dann gibt es halt noch das CPU Limit. In dem sitzt Carrizo bei 15W des öfteren da die eigentlich notwendigen hohen CPU Frequenzen (IPC) bei Last auf der GPU nicht mehr möglich sind. Carrizo landet hier häufig bei ähnlichen und teils auch niedrigeren CPU Frequenzen wie Skylake-U und das führt zu einem ziemlich großen Defizit.

Thunder99
2016-02-10, 14:41:56
Wie sieht das denn eigentlich in Zukunft aus? Werden PC-Prozessoren eher den Weg der Smartphones und Konsolen gehen, also viele kleine Kerne anstelle wenig großer? Oder setzen die weiter auf maximale single-thread Performance?
AMD rudert ja zurück vom CMT Projekt bzw Design zu Kernen hin die dicker sind. Also wird es erstmal so in Zukunft sein. Im Verhältnis zu den Caches sind ja Kerne winzig klein geworden.

OT: Selbst bei Smartphones sind viele Kerne relativ sinnlos solange kein echtes umfassendes Multithread vorhanden ist (inkl. der Applikationen).

dildo4u
2016-02-10, 15:04:27
Zen soll ja SMT können vermutlich verkaufen sie dann auch nur 4 oder 6 Core's für Preise um 200-300€.Der 8 Core vermute ich eher bei 500€.

MikePayne
2016-02-11, 10:36:17
Harter Tobak - scheint als AMD aktiv aus dem Markt gemobbt werden würde. Nicht eine Nische wird denen überlassen.

Nichts neues. Ihr haut Euch ja hier immer die technischen Fakten um die Ohren. Vertriebsmäßig ist Intel das Letzte (meine Meinung, war bei einen der Beiden). Drückermethoden & Filz.
Selbst wenn AMD es schafft ein Kunden zu finden (und da arbeiten echt nette & geskillte Leute, wahrscheinlich zu nett...), springt der meist paar Tage später aus unerfindlichen Gründen ab oder kriegt offensichtlich den Mega-Rabatt von der Gegenseite, den AMD so nicht anbieten kann, da die Margen jetzt schon ein Witz sind. Über Preis verkaufen (also runtergehen ist eh Scheisse, aber da bleibt dem Unternehmen dann auch nicht mehr viel übrig - wenn überhaupt...) ist dann der Notnagel.
BTW: Die Technikfeatures interessieren die Kunden meist eher sekundär. Stromverbrauch, Preis und Garantie sind die Keywords.

deekey777
2016-02-29, 13:28:15
Ist eigentlich was zu Dual Graphics bekannt? Ich bin nicht so sehr auf dem laufenden.

iuno
2016-02-29, 13:51:21
Ich weiss nur dass heise das in einem Test mal nieder gemacht hat, weil es nicht funktioniert hat.
Glaube nicht, dass das aktuell bei AMD eine groessere Prioritaet hat

deekey777
2016-02-29, 14:37:35
Ich weiss nur dass heise das in einem Test mal nieder gemacht hat, weil es nicht funktioniert hat.
Glaube nicht, dass das aktuell bei AMD eine groessere Prioritaet hat
Ich weiß leider nicht, was heise getestet hat. Dual Grafphics hat beim A10-7850K mit einer R7 240 (falsche Wahl, empfohlen wird eine R7 250 (http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/dual-graphics)) funktioniert (halbwegs):
http://www.ixbt.com/cpu/amd-a10-r7x5.shtml


Hier die Daten der R7 240 und der R7 250: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29688-asus-radeon-r7-250-und-r7-240-im-test.html

Loeschzwerg
2016-03-02, 12:35:03
http://www.golem.de/news/hp-elitebook-725-g3-im-test-amds-business-ultrabook-ist-ein-drittel-guenstiger-1603-119072.htm

Ist mir zu teuer :( Es fehlt eindeutig eine billigere Variante (z.B. ohne LTE Modul) die dann in Preisregionen eines z.B. Schenker S306 SLIM vordringt.

dildo4u
2016-03-02, 12:41:32
Wow wie schlecht waren die Notebook APU's vor Carrizo?


http://abload.de/img/apugkrzz.png


Und ja ich hab gesehen das die AMD APU dort ein paar Prozent besser ist rechtfertigt natürlich nicht diesen Abstand bei der Akkulaufzeit.

Grabhopser
2016-03-02, 12:48:55
28nm Bulk vs 14nm FinFet.... unglaublich :eek:

tdon
2016-03-02, 12:54:21
Dadurch verdoppelt sich doch nicht die Laufzeit eines Notebooks.

Undertaker
2016-03-02, 12:55:37
Wow wie schlecht waren die Notebook APU's vor Carrizo?


http://abload.de/img/apugkrzz.png


Und ja ich hab gesehen das die AMD APU dort ein paar Prozent besser ist rechtfertigt natürlich nicht diesen Abstand bei der Akkulaufzeit.

Ist sie nicht einmal, zumindest nicht bei Single-Channel vs. Single-Channel. Das 820 G3 kann man schließlich auch um ein zweites Modul aufrüsten. Die Aussage im Artikel, dass Carrizo mit zwei Modulen GPU-seitig Kreise um Skylake dreht, stimmt für die 15W Modelle einfach nicht. Außer man vergleicht hier wieder gegen das 820 G3 mit nur einem Modul, was natürlich völliger Unfug wäre. Hinweise auf die häufigen CPU-Limits in Spielen fehlen auch vollständig.

Edit: Und noch mehr Ungereimtheiten: Laut Golem wird der Turbo beim 820 G3 voll genutzt, dafür sind die R15 Scores aber viel zu schlecht. Laut Notebookcheck sollte der i7 6500U im Optimalfall rund 130/330 Single/Multi schaffen, bei Golem sind es nur 111/245. Das ist etwa so langsam wie ein uralter Haswell i5 4210U. :ugly:

iuno
2016-03-02, 13:10:57
Truarig finde ich eher, dass in dem power budget Intel inzwischen z.B. auch bei Luxmark mit OpenCL vorne liegt.
Die Grafik von oben ist gut rausgepickt. Der typische use case fuer so ein "Ultrabook" im Akkubetrieb beinhaltet natuerlich Dauerlast... Es gibt mobile Workstations, Steckdosen und andere Alternativen.
Zum Spielen ist das ebenfalls nicht gedacht. Ja, man koennte argumentieren dass in dem Geraet dann auch keine 8 CUs braucht, aber das ist nunmal auch CPU-seitig das Topmodell.

Insgesamt ist es endlich mal ein rundes Produkt und dann auch noch deutlich guenstiger als mit dem (besseren) Intel. Daumen hoch, HP
Einzig, dass kein DDR4 drin steckt, koennte man noch bemaengeln. Da weiss ich aber auch nicht, ob AMD das vorgesehen hat oder erst mit BR haben will. Die Merlin Falcon embedded SoCs (selbe Chips, selbes power budget) haben zumindest offiziell schon DDR4-2400 Support.
Erfreulich ist, dass HP kein langsames RAM verwendet, sondern einen DDR3L-1600-Riegel.

Loeschzwerg
2016-03-02, 14:16:31
Deutlich günstiger halte ich für übertrieben, es gibt durchaus passende Intel Alternativen die entweder billiger sind oder mehr bieten, gerade wenn man 13,3" als Größe einbindet.

Den Einsatz von DDR3 sehe ich nicht als Nachteil, eher die Auswahl an Konfigurationen.

iuno
2016-03-02, 14:33:51
Da ging es mir um die direkte Alternative von HP und die ist laut Artikel 250 € teurer.
Dass so ein Geraet kein Schnaeppchen ist, ist auch klar.

deekey777
2016-03-02, 14:59:26
War es von AMD überhaupt gewollt, dass ein Carrizo in so ein Gerät verbaut wird?

y33H@
2016-03-02, 15:01:31
Ist sie nicht einmal, zumindest nicht bei Single-Channel vs. Single-Channel. Das 820 G3 kann man schließlich auch um ein zweites Modul aufrüsten. Die Aussage im Artikel, dass Carrizo mit zwei Modulen GPU-seitig Kreise um Skylake dreht, stimmt für die 15W Modelle einfach nicht. Außer man vergleicht hier wieder gegen das 820 G3 mit nur einem Modul, was natürlich völliger Unfug wäre. Hinweise auf die häufigen CPU-Limits in Spielen fehlen auch vollständig.

Edit: Und noch mehr Ungereimtheiten: Laut Golem wird der Turbo beim 820 G3 voll genutzt, dafür sind die R15 Scores aber viel zu schlecht. Laut Notebookcheck sollte der i7 6500U im Optimalfall rund 130/330 Single/Multi schaffen, bei Golem sind es nur 111/245. Das ist etwa so langsam wie ein uralter Haswell i5 4210U. :ugly:Es steht drin, dass bei GPU-Last die Kerne oft auf 1,4 GHz runtergehen ... der explizite Hinweis auf ein CPU-Limit fehlt, das das IMHO bei einem Business-Notebook und älteren Spielen nicht allzu tragisch ist bzw 30-40 fps idR stehen. Rein in echten Spielen wie HL2 oder Skyrim ist der A12 mit DC allerdings in der Tat viel flotter. CB15 kann ich aus Oregon nicht mehr gegen checken, daheim schaue ich aber noch mal in die Logs.

iuno
2016-03-02, 15:17:29
War es von AMD überhaupt gewollt, dass ein Carrizo in so ein Gerät verbaut wird?
Wenn nicht haetten sie wohl keine cTDP von 12-35 Watt bereitgestellt

Undertaker
2016-03-02, 15:49:15
Rein in echten Spielen wie HL2 oder Skyrim ist der A12 mit DC allerdings in der Tat viel flotter.

Flotter als Skylake GT2 mit Single-Channel? Das ist nun nicht wirklich überraschend. Das 820 G3 wurde ja offenbar nicht mit zwei Modulen getestet. Andere Artikel zeigen, dass die HD 520 mit Dual Channel ähnlich stark zulegt wie Carrizo. Die R7 hat zwar zweifellos mehr Leistungspotential als die Skylake GT2, wird im 15W Fenster aber letztlich auf das gleiche Level eingebremst.

YfOrU
2016-03-02, 15:59:13
Bezüglich des Reviews:
http://www.golem.de/news/hp-elitebook-725-g3-im-test-amds-business-ultrabook-ist-ein-drittel-guenstiger-1603-119072-3.html


HP benachteiligt AMD übrigens rein von der Anzahl der Speichermodule her nicht: Das Intel-Pendant namens Elitebook 820 G3 wird hierzulande derzeit ebenfalls einzig mit Single-Channel und maximal 8 GByte RAM verkauft. Die darin steckende HD Graphics 520 ist jedoch viel weniger auf eine hohe Bandbreite angewiesen als die AMD-Grafikeinheit.

Die Aussage ist seit Skylake nicht mehr korrekt. Die HD 520 skaliert im Rahmen von 15W TDP mit DC grundsätzlich genauso wie die R7 und landet im Mittel auch bei einer vergleichbaren 3D Performance. Im Gegensatz zu AMD kann Intel die GT2 GPU bei 15W TDP praktisch komplett ausfahren. GT3e knallt bei 15W TDP dann aber natürlich auch gegen die Wand und kann die maximale Frequenz kaum halten.

Truarig finde ich eher, dass in dem power budget Intel inzwischen z.B. auch bei Luxmark mit OpenCL vorne liegt.

Der Abstand bezüglich OpenCL bei 15W TDP ist genaugenommen noch ein ganzes Stück größer da Intel hier auch noch GT3 (48 statt 24 EUs) mit 64MB eDRAM (wie im SP4 mit i7-6650U) im Sortiment hat. Die läuft zwar meist mit deutlich niedrigeren Taktfrequenzen aber um die 50%+ sind es am Ende dann doch noch. Gibt es deshalb auch mit 28W TDP (Iris 550, GT3e) und die sollte in jedem Fall die aktuell schnellste integrierte mobile GPU sein.

iuno
2016-03-02, 17:28:49
Klar, die dicke Iris Pro mit eDRAM kann aber auch schon laenger mithalten.
Die APU leistet mit 35 Watt Limit auch viel mehr, so dass AMD da von der reinen Leistung her inzwischen abgeschlagen ist, ist das ja nun auch nicht.

YfOrU
2016-03-02, 17:46:05
Klar. Intel hat halt Iris (GT3, 15 - 28W TDP) komplett durch GT3e mit 64MB ersetzt. Die Nachfolger der ursprünglichen GT3e SKUs (Iris Pro) stehen noch aus -> GT4e.

deekey777
2016-03-06, 21:02:50
Werden eigentlich nach dem X4 845 weitere ähnliche Desktop-CPUs mit Excavator-Kernen für FM2+ kommen? X4 845 war schon etwas überraschend.

samm
2016-03-06, 21:12:47
Es scheint Anzeichen dafür zu geben, aber leider ein langsameres Modell namens Athlon X4 835:
http://www.planet3dnow.de/cms/22748-athlon-x4-835-hinweis-auf-einen-weiteren-carrizo-athlon/

OBrian
2016-03-07, 03:18:13
Mit der Zeit sicherlich noch einige Modelle mehr, bestimmt auch APUs, also mit freigeschalteter GPU. Dann können sie nämlich die Produktion von Kaveri einstellen und nur noch einen Die fertigen, der dann für Notebooks mit DDR3L im BGA-Package und für Desktop mit FM2+-Package und mit AM4-Package verkauft werden kann. Vereinfacht die Sache. Gerade jetzt in der Umbruchphase auf DDR4 wird sich was mit DDR3 noch elendig lange im Markt halten, ist ja immer so, weil manche OEMs offenbar kubikkilometerweise RAM eingelagert haben.

Aber neue Höchstleistungen würde ich nicht erwarten. Es gab ja diese Folie, wie effizient Carrizo bei niedrigen TDP ist, aber abgeschnitten war die Kurve ab einem gewissen Punkt, wo man sehen konnt, daß es darüber schlechter als Kaveri wird. D.h. ein Carrizo mit 95 W würde wohl nicht sonderlich überzeugend sein. Außerdem ist das eh nur ein Mainstreamsockel, sobald Zen da ist, kauft eh keiner mehr 4-Kern-APUs mit der Maßgabe, dabei besonders viel CPU-Leistung zu bekommen.

Achill
2016-03-07, 06:29:51
Mit der Zeit sicherlich noch einige Modelle mehr, bestimmt auch APUs, also mit freigeschalteter GPU. Dann können sie nämlich die Produktion von Kaveri einstellen und nur noch einen Die fertigen, der dann für Notebooks mit DDR3L im BGA-Package und für Desktop mit FM2+-Package und mit AM4-Package verkauft werden kann. Vereinfacht die Sache. Gerade jetzt in der Umbruchphase auf DDR4 wird sich was mit DDR3 noch elendig lange im Markt halten, ist ja immer so, weil manche OEMs offenbar kubikkilometerweise RAM eingelagert haben.

Aber neue Höchstleistungen würde ich nicht erwarten. Es gab ja diese Folie, wie effizient Carrizo bei niedrigen TDP ist, aber abgeschnitten war die Kurve ab einem gewissen Punkt, wo man sehen konnt, daß es darüber schlechter als Kaveri wird. D.h. ein Carrizo mit 95 W würde wohl nicht sonderlich überzeugend sein. Außerdem ist das eh nur ein Mainstreamsockel, sobald Zen da ist, kauft eh keiner mehr 4-Kern-APUs mit der Maßgabe, dabei besonders viel CPU-Leistung zu bekommen.


Solange Chips anfallen, die von der Qulität nicht den Kriterien für Notebooks entsprechen, könnte die Verwertung auf FM2+ Sinn machen. Carrizo muss nur genügend Abstand zu Zen haben, dann kann man diesen im Portfolio als preislichen Konkurrent zum Pentium/i3 lassen.

YfOrU
2016-03-07, 11:18:14
Vermutlich ist das Resteverwertung da AMD auf FM2+ weder zwingend eine IGP, eine integrierte FCH noch ein enges TDP Limit benötigt (im Gegensatz zu Mobile und Embedded, FP4).

Wenn Bristol Ridge tatsächlich ein leicht überarbeiteter Carrizo ist (gleiches IP Level wie Stoney Ridge) wäre es damit auch nicht notwendig Carrizo auf AM4 zu bringen. Da Carrizo auf FP4 durch Bristol Ridge ersetzt wird sieht es für mich eher so aus als würde AMD hier einen Schnitt vollziehen. Sowohl Kaveri, Carrizo als auch Carrizo-L wären damit EOL. Also nur noch zwei APUs mit gleichem Feature Level und zwei Plattformen (Mobile und Desktop, FP4, AM4).

y33H@
2016-03-08, 13:43:38
Ich bin gespannt ...

55142

deekey777
2016-03-08, 13:47:39
Ich bin gespannt ...

55142
Photoshop!

;D

y33H@
2016-03-08, 14:09:06
Nope, Mark III und Weißtisch :P

deekey777
2016-03-08, 14:12:02
Nope, Mark III und Weißtisch :P
Ist das der 95W-Lüfter?

y33H@
2016-03-08, 15:17:00
Ja, die neue "near silent thermal solution" für die 95W-Chips.

deekey777
2016-03-08, 15:34:12
Ja, die neue "near silent thermal solution" für die 95W-Chips.
Testest du nebenbei mit verschiedenen Speicherbandbreiten?
Das Ding kostet so um die 70 EUR, selbst mit dem Kühler wird's nicht viel teurer, also ideal für günstige Aufrüstung. Wäre interessant zu wissen, wie er auf verschiedene Speicherausstattungen reagiert.

y33H@
2016-03-08, 15:36:50
Gespect ist 2133, vll prüfe ich 1866/1600 noch ... aber das ist ne CPU, zumeist tut sich da wenig.

Unicous
2016-03-08, 15:56:01
Aber nur für ein Modul. Zwei Module@2133 ist OC.:freak:

y33H@
2016-03-08, 16:01:38
Du meinst bei einem DIMM pro Channel? Da soll es laut AMD besagtes DDR3-2133.

Unicous
2016-03-08, 16:21:15
Du meinst bei einem DIMM pro Channel? Da soll es laut AMD besagtes DDR3-2133.

Nope. Laut BKDG wird Dual-Channel nur bis 1866 unterstützt.

http://support.amd.com/TechDocs/50742_15h_Models_60h-6Fh_BKDG.pdf

Seite 85.

deekey777
2016-03-08, 16:26:37
Nope. Laut BKDG wird Dual-Channel nur bis 1866 unterstützt.

http://support.amd.com/TechDocs/50742_15h_Models_60h-6Fh_BKDG.pdf

Seite 85.

DR, nicht Dual-Channel. Oder?

Oder sind die Riegel bereits dual ranked?

iuno
2016-03-08, 16:29:04
Er hat schon recht, "DIMMs populated" ist die interessante Spalte

Da stehen ja auch schon werte fuer DDR4 auf FP4 drin... nennt man das bei den embedded Teilen eigentlich schon auch FP4 oder ist das ein Vorgriff?

Unicous
2016-03-08, 16:31:01
DR, nicht Dual-Channel. Oder?

Oder sind die Riegel bereits dual ranked?

SR Single Rank, DR Dual Rank.


@iuno
Wie meinst du das? Embedded ist auch auf FP4, oder verstehe ich das falsch?

http://images.anandtech.com/doci/10083/New%20AMD%20Embedded%20G-Series%20SoCs_Colin%20Cureton-page-004_575px.jpg


Das mit DDR4 steht übrigens schon ewig drin. Carrizo kann ja schon DDR4. ;)

iuno
2016-03-08, 16:38:04
Ja, eigentlich klar war mir nur nicht sicher, ob das auch "FP4" genannt wird.
Dass CZ DDR4 kann ist auch klar, aber offiziell kann er es halt nicht, sondern nur die Falken und BR.
Mich wuerde auch mal interessieren, ob AMD in einem Paralleluniversum verhindern wuerde, dass ein Notebook-Hersteller CZ mit DDR4 paart ;D

deekey777
2016-03-08, 17:00:49
SR Single Rank, DR Dual Rank.

)
Da steht aber nicht, dass Dual-Channel nur bis 1866 funktioniert.

Genauer gesagt:
Will man mit 2133 Dual-Channel haben, dürfen maximal 2 Speicherriegel eingesetzt werden, dazu noch keine Mischung SR/DR.

y33H@
2016-03-08, 17:05:19
Im Table 15 steht, bei 2 DIMM-Slots und 1 DIMM (pro Channel) populated,wird DDR3-2133 supportet. Erst bei 2 DIMMs (pro Channel) ist's DDR-1866.

Dazu der Quote von AMD:

The max supported memclk is 1866 when there are two DIMMs per channel (meaning four DIMMs in total in most scenarios – applies to both Single Rank and Dual Rank DIMMs). And 2133 for one DIMM per channel config (including Single rank and Dual rank).

iuno
2016-03-08, 17:22:03
"DIMMs populated" ist die interessante Spalte
:facepalm: da haette man auch mal drauf klicken koennen...
The number of DIMMs populated per channel plus rows of Solder-down DRAM devices.
Dachte schon BR muss dann auf DDR4-2400 DC verzichten, aber so ist ja alles gut. 2 DIMMs/Channel wird eh keiner verbauen.
und jetzt will ich sehen wie BR mit DDR4-2400 performt :ugly:

iuno
2016-03-09, 11:50:03
Womöglich bekommt stoney ggü. Fiji/CZ eine neue Version des UVD. Das könnte auch auf BR zutreffen.
https://phoronix.com/scan.php?page=news_item&px=HEVC-Main-10-UVD
Kann allerdings gerade nicht prüfen, ob die info stimmt ;)

Unicous
2016-03-09, 13:32:09
Im Table 15 steht, bei 2 DIMM-Slots und 1 DIMM (pro Channel) populated,wird DDR3-2133 supportet. Erst bei 2 DIMMs (pro Channel) ist's DDR-1866.

Dazu der Quote von AMD:

Tja, dann habe ich wohl Kacka erzählt, sry.:redface:

The Stilt hatte es einmal erwähnt, aber er meinte damit wohl 4 DIMMs.

@iuno

Das mit den Veränderungen bei SR/BR ist schon etwas länger bekannt. Damit wird auch deutlich, dass BR wirklich ein neues Die zu sein scheint. Ich dachte das wurde hier schon erwähnt? The Stilt und Thevenin bei S|A hatten es schon vor ein paar Wochen geschrieben.

iuno
2016-03-09, 13:40:58
Ja, spekuliert wird es, ich dachte aber das ist noch nicht sicher. Ist ja nur eine weitere Info ;)

Unicous
2016-03-09, 13:41:47
Ja, spekuliert wird es, ich dachte aber das ist noch nicht sicher. Ist ja nur eine weitere Info ;)

Das stimmt natürlich. Der Patch hat es jetzt offiziell gemacht.

Locuza
2016-03-09, 13:47:57
Und es ist keine künstliche Software-Sache?
Main10 mit full hardware support?

iuno
2016-03-09, 14:03:17
Ob Carrizo durch software eingeschraenkt wird laesst sich daraus nicht sagen. Ich glaube aber nicht dran. Dass ein neuer UVD kommt ist nicht aussergewoehnlich, die einzelnen Module werden immer unabhaengig voneinander verbaut. Carrizo hat z.B. auch einen neuere DCE (Display Control Engine) als Tonga und Fiji und unterstuetzt daher HDMI 2.0.
Stoney ist ja eh ein eigener Chip (kleiner). Wenn Bristol wirklich auch ein neues die ist, ist es naheliegend, dass er auch den neuen UVD bekommt.

Im source code steht an der Stelle wo unterschieden wird uebrigens noch der Kommentar "Carrizo only supports HEVC Main"

edit: hmm, im Kernel bei den IP Blocks wird die Unterscheidung noch nicht gemacht:
https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/tree/drivers/gpu/drm/amd/amdgpu/vi.c?id=refs/tags/v4.5-rc7#n1368

Da werden bei Stoney einfach die Carrizo Werte gesetzt (z.B. UVD Version 6.0). Vielleicht ist das aber nur vorlaeufig und es aendert sich noch.

mczak
2016-03-09, 19:20:03
Und es ist keine künstliche Software-Sache?
Main10 mit full hardware support?
Das ist nicht künstlich.
Auch die GPU an sich ist übrigens nicht identisch, das weiss man schon eine Weile (es gibt Unterstützung für ETC2-Texturen, ausserdem Aenderungen inbesondere beim shader color export - ist aber immer noch gcn 1.2). Der Chip ist wohl auch für "Nicht-PC" Umgebungen gedacht (ETC2 wird zwingend benötigt für GLES3-Unterstützung).

Nakai
2016-03-09, 23:58:53
Stoney ist eher für embedded Sachen gedacht, so wie es derzeit aussieht. Da verfügt er auch über genügend Leistungskapazitäten.

Unicous
2016-03-10, 00:04:28
Stoney ist eher für embedded Sachen gedacht, so wie es derzeit aussieht. Da verfügt er auch über genügend Leistungskapazitäten.

Nein. Stoney beerbt die Katzen und Low-End Carrizo.


edit:

Thevenin behauptet SR wäre ca. 125mm² groß.

Stoney Ridge is 17% larger than Mullins and 49% smaller than Carrizo and Bristol Ridge.

http://semiaccurate.com/forums/showpost.php?p=257143&postcount=56

mczak
2016-03-10, 00:53:12
Nein. Stoney beerbt die Katzen und Low-End Carrizo.
Das widerspricht dem nicht. Klar die embedded-Teile kriegen einen anderen Sticker drauf, aber ob die jetzt eher als low-end nicht-embedded oder eben embedded verkauft werden ist nicht so klar. AMD kann es sich jedenfalls nicht wie intel in manchen Marktsegmenten leisten die in Geschenkpapier zu packen und noch einen Dollar dazu draufzupacken ;-).

Unicous
2016-03-10, 01:22:01
Embedded ist Embedded. Man braucht den Begriff nicht aufweichen, wenn man etwas anderes meint.

Warum sollte man z.B. ein Notebook oder Mainboard mit integrierter xPU als Embedded System bezeichnen, wenn sie es laut Definition nicht sind?:confused:

Oder ist Carrizo/BR jetzt auch ein Chip für Embedded-Systeme?

OBrian
2016-03-10, 02:38:19
wenn Stoney Ridge embedded sein soll, warum dann nicht Carrizo oder Bristol Rridge auch? Sind ja sockelkompatibel, und auch von der TDP her in passende Regionen zu drücken. Wenn jemand die Dinger haben will, wieso nicht.

diese Roadmapfolie (http://cdn.wccftech.com/wp-content/uploads/2014/09/AMD-Embedded-Solutions-2012-2016-Roadmap.jpg) legt jedenfalls nahe, daß auch ein voller Carrizo oder Bristol Ridge als "R-Series high-performance x86-SoC" kommt, über dem "G-Series low-power x86-SoC", was wohl Stoney sein dürfte.

mczak
2016-03-10, 02:39:29
Embedded ist Embedded. Man braucht den Begriff nicht aufweichen, wenn man etwas anderes meint.

Warum sollte man z.B. ein Notebook oder Mainboard mit integrierter xPU als Embedded System bezeichnen, wenn sie es laut Definition nicht sind?:confused:
So offiziell heisst das dann natürlich nicht embedded.


Oder ist Carrizo/BR jetzt auch ein Chip für Embedded-Systeme?
Was den Treiber angeht aus dem diese Informationen stammen, ja, definitiv, der unterscheidet das nicht.
Das ist nun mal derselbe Chip, derselbe Treiber - auch wenn das Teil (im Falle von Carrizo) dann embedded offiziell halt Merlin Falcon heisst, diese embedded Namen interessieren kein Mensch und schon gar nicht den Treiber.

Es geht ja gerade darum dass der Chip eben auch gut für embedded geeignet ist - bloss weil der dann nicht Stoney Ridge heisst (aber frag mich bloss nicht wie der dann sonst heissen wird...) hat der dann gezwungenerweise trotzdem dasselbe Featureset wie die nicht-embedded Variante (es sei denn man würde das künstlich im Treiber verändern).
Wobei ich denke zumindest der ETC2-Support wird sicher nicht auf diesen Chip beschränkt bleiben bloss weil der brauchbar für embedded ist - war übrigens bei intel genau so, bay trail konnte ETC-Texturkompression vor den grossen Chips.

iuno
2016-03-10, 03:22:13
diese Roadmapfolie (http://cdn.wccftech.com/wp-content/uploads/2014/09/AMD-Embedded-Solutions-2012-2016-Roadmap.jpg) legt jedenfalls nahe, daß auch ein voller Carrizo oder Bristol Ridge als "R-Series high-performance x86-SoC" kommt
Die R-Serie (Merlin Falcon) gibt es schon seit letztem Jahr, darunter auch ein voller Carrizo mit DDR4 support. Die G-Serie gibt es seit ein paar Wochen. Offenbar wollen sie die aber diese Serien dieses Jahr auch nochmal mit BR/SR updaten

Unicous
2016-03-10, 03:25:22
@mczak

So wie ich Nakai verstanden habe, sieht er Stoney Ridge als Embedded-only. Und das verneine ich klar und deutlich. Dabei ist scheiß egal, wie AMD das Embedded-Teil nun nennt.

Stoney ist eher für embedded Sachen gedacht, so wie es derzeit aussieht.

Dass SR für Embedded geeignet ist, habe ich überhaupt nicht in Zweifel gezogen.
Aber nur weil sie Stoney als erstes für Embedded announced haben, muss man doch daraus nicht irgendwelche Schlussfolgerungen ziehen.

Embedded-Produkte haben ihren Vorlauf und werden dementsprechend so früh wie möglich angekündigt.

http://images.anandtech.com/doci/10083/New%20AMD%20Embedded%20G-Series%20SoCs_Colin%20Cureton-page-012.jpg

y33H@
2016-03-14, 14:28:47
In diesem HMD steckt ein Carrizo :ulol:

http://sulon.com/blog/sulon-q-sneak-peak

dildo4u
2016-03-14, 14:32:11
Hoffentlich hat es Zugang zum Samsung Mobile VR Store wobei ich das bezweifle also ein Headset ohne Software?

iuno
2016-03-14, 14:38:45
Das ist wohl verfrueht an den Start gegangen?
On stage in front of more than 650 press and developers at the inaugural AMD Radeon “Capsaicin” event, I took the stage to give the world a glimpse of what we’ve been working on, showing off the forthcoming Sulon Q™ headset, and the intuitive experiences you can expect, including seamlessly transitioning from the real world to virtual worlds.
Das Event soll doch erst um 16 Uhr Ortszeit sein!?

Carrizo voll ausgefahren auf 35 Watt, und das ohne Kabel?
Die werben mit HSA ebenso wie mit DX12. Haben die ueberhaupt irgend eine Vorstellung davon, was das Produkt werden soll?

y33H@
2016-03-14, 14:44:30
Ja, das NDA war eigentlich für später angesetzt. kA was da passiert ist.

iuno
2016-03-14, 14:54:10
Im CMS einfach 16 Uhr ohne Ruecksicht auf die Zeitzone eingestellt, kann es jedenfalls nicht sein bei Kanadiern ;)

Ist halt auch schon auf AMDs Youtube Channel: https://www.youtube.com/watch?v=zPT4-nRP7Bk
edit: okay, bei euch ja auch. Also wurde das NDA nach dem Fruehstart ausgesetzt?

y33H@
2016-03-14, 15:13:01
Was öffentlich ist, ist öffentlich.

EDIT
Zudem kam die PM: http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2148187

Unicous
2016-03-14, 15:16:52
Eine Rose ist eine Rose...


btw. Wurde das voice over in dem Video mit einer Kartoffel aufgenommen?:confused:

y33H@
2016-03-14, 15:20:48
Die haben im Blog-Eintrag eh alles stehen ...

FX-8800P, Win10, M+T, OLED-Panel, 1440p, 90 Hz, 110° FoV, SPU, Augmented/Virtual Reality, Gesten-Tracking, kabellos ...

iuno
2016-03-14, 15:27:56
wirklich alles? ;)
DDR3 oder 4? Frequenz?
Akku (Gewicht, Laufzeit)?

Polaris kommt 6x im Text vor, aber es steht genau nichts drin, schade

y33H@
2016-03-14, 15:32:54
Die 17 Minuten Laufzeit verschweigen sie freilich :P

iuno
2016-03-14, 15:33:38
:lol:
ich bin mal gespannt was sie dazu auf dem Event zu sagen haben, wer das kaufen und was es bringen soll

Unicous
2016-03-14, 15:36:51
Ihr habt keine Fantasie.:rolleyes:


Ich sage nur Farmville VR/AR. (y)

iuno
2016-03-14, 15:49:06
Mit Fantasie koennte das schon zusammenhaengen, evtl. ist das Ding auch nur zum Streaming gedacht - oder eben gar nicht fuer Games mit dem Aspekt auf AR.
AMD bestaetigt ja in der PM erneut, dass es fuer VR mind. Hawaii sein sollte.

deekey777
2016-03-14, 16:45:28
In diesem HMD steckt ein Carrizo :ulol:

http://sulon.com/blog/sulon-q-sneak-peak


Ist das die neue PhysX-Steckkarte?

Ich verstehe dieses Gerät nicht. Können sie nicht wenigstens mit irgendwelchen geheimen Innovationen angeben? Nach dem Motto "Unsere Spatial Processing Unit ist so stark wie 10 i7-6600Ultra mit Quad-SLI"? Ich könnte noch eine Alternative zu Hololens vorstellen.

What is the Spatial Processing Unit? What does it do?
The Sulon Spatial Processing Unit is a set of technologies that includes:
 Proprietary environment mapping and tracking developed by Sulon
 Developer access to real-time, synchronized vision system with highly tuned cameras
 Developer access to camera images directly from high speed memory taking advantage of the APU HSA memory
 A high-definition, beautifully enhanced Augmented Realty imaging system for seamless visual AR and VR experiences
 Developer access to high-speed robust camera pose tracking which uses the environment to map and track oneself
 Inside-out mapping and tracking of the user with minimal setup, and environment-based inside-out tracking
 Dynamic, real-time virtualization which dynamically reconstructs and displays a virtual version of the real world to the user and to applications. This allows us to do anything to the real world that computational physics and rendering enhancements allows. Our goal is to beautify and accessorize the environment where it can seamlessly blend the real world and virtual content together. For example:
o We can change the lighting of the real environment by adding our own lights. Imagine adding a fireplace into your living room, where it actually provides illumination propagating from the virtual fireplace to the virtualized world.
o If had a virtual soccer ball, and you kicked it, the ball will bounce off of items in your environment and even break or shatter real objects represented by virtual versions.
o Imagine when you look at yourself, you are wearing new clothing that is virtual.
 A robust and continually improving gesture library. The “Project Dragon” application supports this feature along with other features of Windows 10 such as Cortana and DirectX 12. Gestures help us to seamlessly interact with virtual objects more intuitively thus enhancing the human experience further.
Our Spatial Processing Unit (SPU) has been built with developer scalability and future applications in mind to ensure not just amazing spatial computing experiences today, but also encourage developer experimentation to help develop significant advances in computer vision, AR and VR tomorrow. The Sulon Q™ headset is a consumption platform, but also a developer platform as well. We want people to create using it.
The SPU receives information from the inertial measurement unit (IMU) which includes an accelerometer, gyroscope, and magnetometer and combines this with revolutionary computer vision and machine vision advancements that follow the user and their environment to augment the user’s visual perspective with virtual content to help make for a more immersive experience.

Das ist aus dem Presse-Kit, da sind noch paar interessante Kleinigkeiten.

Unicous
2016-03-14, 18:44:26
Audio: 3D spatial audio powered by GenAudio’s AstoundSound® technology

Könnte darauf hindeuten, dass zumindest TrueAudio hier genutzt wird. Und alle so: Yay.

OBrian
2016-03-14, 22:16:07
Augenblick mal, wollen die ernsthaft, daß ich mir einen ganzen PC vors Gesicht schnalle? Das Militär ist immer bestrebt, auf möglichst leichtere Nachtsichtgeräte zu setzen, die unter 1 kg wiegen, und die sind schon am Helm befestigt und werden von trainierten, kräftigen Leuten getragen, die bei Nackenschmerzen nur eine Tube Mobilat und ein "Weitermachen" kriegen. Aber eine 35-W-APU braucht Kühlung, einen Akku und bißchen sonstige Hardware soll ja wohl auch noch rein, da sind wir bei den üblichen 2 kg eines Notebooks, die hängen dann am wenig muskulösen Hals eines Durchschnittsamerikaners, der Hersteller auf ziemlich große Summen verklagen kann. Sounds like a good idea. Oder versteh ich hier was ganz falsch?

tm0975
2016-03-14, 22:32:04
Für das testen einer geplanten Küche oder eines Hauses sicherlich ideal. Da schaut man sich das Ergebnis ja keine Stunden lang an.

iuno
2016-03-14, 22:57:29
Das mit dem stundenlangen Tragen ist sicher nicht so sehr das Problem bei einem Akkubetriebenen HMD ;)
Da der Akku hinten haengt ist es vielleicht auch einigermassen ordentlich zu tragen.

y33H@
2016-03-15, 02:11:11
Falls jemandem das Sulon Q bekannt vorkommt --- googlen nach "Sulon Cortex CES 2015" :biggrin:

55237

mboeller
2016-03-15, 09:38:07
Augenblick mal, wollen die ernsthaft, daß ich mir einen ganzen PC vors Gesicht schnalle? Das Militär ist immer bestrebt, auf möglichst leichtere Nachtsichtgeräte zu setzen, die unter 1 kg wiegen, und die sind schon am Helm befestigt und werden von trainierten, kräftigen Leuten getragen, die bei Nackenschmerzen nur eine Tube Mobilat und ein "Weitermachen" kriegen. Aber eine 35-W-APU braucht Kühlung, einen Akku und bißchen sonstige Hardware soll ja wohl auch noch rein, da sind wir bei den üblichen 2 kg eines Notebooks, die hängen dann am wenig muskulösen Hals eines Durchschnittsamerikaners, der Hersteller auf ziemlich große Summen verklagen kann. Sounds like a good idea. Oder versteh ich hier was ganz falsch?

Yep... die interessanteste Info, das Gewicht haben sie bei der Präsentation zumindest auf computerbase einfach ausgeklammert. Ein Schelm wer Böses dabei denkt. :)

y33H@
2016-03-18, 12:39:54
Test des Athlon X4 845:

http://www.golem.de/news/athlon-x4-845-im-test-der-carrizo-im-desktop-gewand-1603-119806.html

iuno
2016-03-18, 12:55:52
Test des Athlon X4 845:

http://www.golem.de/news/athlon-x4-845-im-test-der-carrizo-im-desktop-gewand-1603-119806.html
danke :up:

dildo4u
2016-03-18, 13:08:57
Die Performance in The Division ist erstaunlich niedrig vermute mal wenn alle Cores belastet werden sinkt der Takt stark ab.Sehe da kein sonderlichen Sprung was die Effizienz angeht.

MilesEdgeworth
2016-03-18, 13:14:40
Den Verbrauch im Idle finde ich äußerst bemerkenswert, schließlich ist Skylake hierbei schon äußerst sparsam. Wobei das ja selbst Kaveri schon zu schaffen scheint..

anddill
2016-03-18, 13:21:03
Selbst ein Vishera schafft das wenn das Board mitspielt.

Undertaker
2016-03-18, 13:22:12
Leerlaufverbrauch ist bei aktuellen Desktops eh praktisch unabhängig von der CPU. Ob die bei einem Gesamtverbrauch von >30 Watt nun mit 1W, 2W oder 3W idlet ist ziemlich egal, wo schon ein anderes Mainboard schnell mal +-5W ausmacht.

iuno
2016-03-18, 13:22:12
Ist im idle schon laenger sehr niedrig. Aber da interessiert es auch nicht wirklich, weil die Unterschiede ohnehin marginal sind und auch die Wahl des Mainboards da locker mal denselben Einfluss haben kann.

Wirklich interessant ist der Verbrauch unter Teil(-/Voll)last und da hat Excavator ordentlich zugelegt. Wobei zu Intel natuerlich immer noch ein dickes Stueck fehlt.

dildo4u
2016-03-18, 13:22:54
Der 2 Core Intel läuft auf einem Z170 ATX Board von Asus das dürfte mit nem Mini ATX Board deutlich effizienter gehen.

AMD

http://www.gigabyte.de/products/product-page.aspx?pid=4745#ov

Intel
https://www.asus.com/de/Motherboards/Z170-DELUXE/

Unicous
2016-03-18, 13:57:43
Den Verbrauch im Idle finde ich äußerst bemerkenswert, schließlich ist Skylake hierbei schon äußerst sparsam. Wobei das ja selbst Kaveri schon zu schaffen scheint..

Die Bulldozer Familie hat generell eine vergleichsweise niedrige idle-Leistungsaufnahme. Und das ohne die neueren Stromsparmodi die Intel eingeführt hat und z.T. relativ hungrigen Mainboards, nicht so sparsamer Southbridge und Fertigungsvorteil bei Intel.

Aber. Man muss natürlich auch gucken, was noch an Extra-I/O und sonstigen Features bei den Intel-MBs verbaut ist.

Aber das täuscht natürlich nicht über die große Lücke hinweg die entsteht, wenn die Kerne dann Arbeit verrichten müssen.:wink:

Dahingehend wird es schon spannend, wie die Situation bei Zen aussieht.

MilesEdgeworth
2016-03-18, 14:23:24
Danke für die Aufklärung. :up:

gogetta5
2016-03-18, 20:08:06
Test des Athlon X4 845:

http://www.golem.de/news/athlon-x4-845-im-test-der-carrizo-im-desktop-gewand-1603-119806.html

Auf sowas hab ich schon gewartet. Vielen Dank!

tm0975
2016-03-18, 20:54:11
Auf sowas hab ich schon gewartet. Vielen Dank!

Geht mir genauso. Prima test! Von der cpu bin ich positiv überrascht. Kommt gleich mal in 2 kleine gaming kisten.

tm0975
2016-03-18, 21:07:24
Auf sowas hab ich schon gewartet. Vielen Dank!

Geht mir genauso. Prima test! Von der cpu bin ich positiv überrascht. Kommt gleich mal in 2 kleine gaming kisten.

deekey777
2016-05-19, 19:42:36
Stoney Ridge ist wohl da: http://www.computerbase.de/2016-05/stoney-ridge-notebook-amd-a9-9410-a6-9210-e2-9010/

R5 mit 192 SPs.

fondness
2016-05-22, 10:52:58
Hier wohl die finalen Specs von Stoney Bristol Ridge:

http://s32.postimg.org/63crlafg5/Clipboard01.jpg (http://postimage.org/)

http://wccftech.com/amd-7th-generation-apu-lineup-specifications-leaked-flagship-sku-features-4-x86-excavator-based-cores-8-gcn-30-cus/

http://s32.postimg.org/oli2vt7lh/AMD_Bristol_Ridge_APU_Notebook_IPC.jpg (http://postimg.org/image/5getm1sxd/full/)

http://s32.postimg.org/6se54ywtx/AMD_Bristol_Ridge_APU_Notebook_Performance.jpg (http://postimg.org/image/8k73zvg6p/full/)

S940
2016-05-22, 11:13:09
Hier wohl die finalen Specs von Stoney Ridge:
Ne, die Chips haben eine CU zuviel. Das sollten damit eher stark beschnittene CZ/BRs sein.

deekey777
2016-05-22, 11:37:31
Hier wohl die finalen Specs von Stoney Ridge:

http://s32.postimg.org/63crlafg5/Clipboard01.jpg (http://postimage.org/)


Du meinst Bristol Bridge, oder?

reaperrr
2016-05-22, 11:41:39
Ne, die Chips haben eine CU zuviel. Das sollten damit eher stark beschnittene CZ/BRs sein.
Yep, außerdem sieht es nach Desktop-Modellen aus und für AM4-Kompatibilität brauchst du ein 128bit SI, Stoney hat nativ nur 64bit.

fondness
2016-05-22, 11:46:44
Sorry, natürlich Bristol Ridge, mein Fehler.

iuno
2016-05-22, 12:42:39
Stoney Ridge wird ja offenbar immer noch nicht in den Roadmaps gelistet, sondern laeuft in diesen Slides auch unter "Bristol Ridge".
Schon etwas komisch, andererseits aber auch verstaendlich, weil es schon das selbe Design sein sollte, nur eben mit nur einem Modul und weniger CUs.
Die Linux Entwickler arbeiten jedenfalls noch kontinuierlich an Stoney.
Mit den letzten Slides ist aber auch klar, dass die +40% IPC sich auf Excavator beziehen und nicht auf das letzte Design mit 8 Kernen (wurde ja von einigen noch angezweifelt).

Ich bin auch mal auf die ersten AM4 Boards gespannt.

mboeller
2016-05-22, 13:40:35
Mit den letzten Slides ist aber auch klar, dass die +40% IPC sich auf Excavator beziehen und nicht auf das letzte Design mit 8 Kernen (wurde ja von einigen noch angezweifelt).


ich hoffe du beziehst dich nicht auf den Slide bei Computerbase. Der wurde nämlich IMHO ziemlich unprofessionell manipuliert (Schriftgröße passt nicht). Das Original aus der AMD-Präsi zeigt Orochi.

Einige StoneyRidge Benches findet man übrigens auf semiaccurate im Forum. MT vergleichbar mit den Katzen-Kernen, ST aber massiv schneller.

Isen
2016-05-22, 13:51:48
Nö... kein Fake...

iuno
2016-05-22, 14:23:03
ich hoffe du beziehst dich nicht auf den Slide bei Computerbase. Der wurde nämlich IMHO ziemlich unprofessionell manipuliert (Schriftgröße passt nicht). Das Original aus der AMD-Präsi zeigt Orochi.
Stimmt, das ist bei CB ja voellig falsch aufgeschrieben.
Hatte das nur auf dem Handy gesehen. Die Schrift geht ja noch aber die Linien im Graphen sind :ugly:

mboeller
2016-05-22, 16:09:13
Nö... kein Fake...

doch

Dresdenboy hat den Link zur kompletten Präsentation im Planet3dNow Forum gepostet:

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzM5MzMxfENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635992964179233292

R.I.P.
2016-05-22, 16:45:22
Kann man bei BR also von eine 10% Erhöhung der CPU-Leistung ausgehen, im Vergleich zum Athlon 845 (rein wegen der ca. 10% Erhöhung des Taktes?), oder wurde BR auch an anderen Punkten verbessert?

Isen
2016-05-22, 16:53:52
doch

Dresdenboy hat den Link zur kompletten Präsentation im Planet3dNow Forum gepostet:

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzM5MzMxfENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635992964179233292

Woher solls dann stammen?
Mittels Google finde ich absolut null. Nur CB als Quelle via Google. Wenn es Fake sein soll, muss es CB ja dann selbst gefälscht haben.

Unicous
2016-05-22, 17:27:54
Die Quelle dürfte laut CB das Investor Meeting sein, wahrscheinlich ist das ein screenshot. Was anderes kann ich mir nicht vorstellen.

Das was wie fake aussieht könnten zwei sich überlagernde frames sein, wenn man nämlich genau guckt sieht man, dass die Balken minimal länger sind, nicht auf Linie aufliegen und aussehen als würden sich zwei Balken überlappen.

edit:
Dennoch stellt sich die Frage warum der linke Teil davon nicht betroffen ist.

deekey777
2016-05-22, 17:47:44
Die 40 Prozent finden sich auf der Seite 13, die bei CB Seite 12 ist.

tdon
2016-05-22, 18:02:20
Woher solls dann stammen?
Mittels Google finde ich absolut null. Nur CB als Quelle via Google. Wenn es Fake sein soll, muss es CB ja dann selbst gefälscht haben.


Manches findet sich nicht über google, CB gibt nicht immer die Quelle an.

Isen
2016-05-23, 02:44:28
doch

Dresdenboy hat den Link zur kompletten Präsentation im Planet3dNow Forum gepostet:

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzM5MzMxfENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635992964179233292


Wie ich sagte, doch KEIN Fake. Hier der Beweis:

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzM5NDM5fENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635994397107592147

Seite 11/31

y33H@
2016-05-23, 08:04:03
AMD hat das PDF getauscht, ich habe hier beide Versionen.

iuno
2016-05-23, 14:20:55
CB hat nochmal Kaveri Refreshes getestet, u.A. mit Undervolting: http://www.computerbase.de/2016-05/amd-a10-7860k-7890k-athlon-x4-880k-test/8/

Ergebnis: mal eben 40-50 Watt Ersparnis fuer die 95 W Modelle, die wuerden demnach also auch problemlos in die 65 W Klasse passen.

Gibt es diesbezueglich eigentlich auch Tests mit Carrizo oder dem Excavator-Athlon?
Das ist schon eine abartige Effizienzsteigerung, wenn Carrizo das Problem auch noch hat, koennten sie mit BR demgegenueber tatsaechlich noch etwas reissen - vorausgesetzt, die getesteten Exemplare sind keine absoluten Sonderfaelle. Schwankt die Qualitaet da bei TSMC immer noch so stark, sind die Chips so nicht wirklich stable oder warum sind die Spannungen so hoch?

Unicous
2016-05-23, 14:25:02
Ergebnis: mal eben 40-50 Watt Ersparnis fuer die 95 W Modelle, die wuerden demnach also auch problemlos in die 65 W Klasse passen.


Das hat sich AMD auch gedacht und Carrizo aufgelegt.:wink:

iuno
2016-05-23, 14:27:45
Das ist schon klar, die Frage ist aber, ob es da immer noch diese "erhoehten" Spannungen gibt. Mir faellt es auch schwer das zu beurteilen, im Nachhinein kann man als Laie immer sagen, die Spannungen seien viel zu hoch, vor allem wenn es keine Tests gibt :ugly:
Bei AMDs GPUs sieht da ja recht aehnlich aus, die lassen sich soweit ich das beurteilen kann auch immer recht stark untervolten.

Irgendwo muss es ja noch Potenzial geben, ansonsten koennte man ja fuer BR nicht (auch effektiv) hoehere Basis- und Turbotakte versprechen.

Unicous
2016-05-23, 14:50:18
AMD hat sich ja genau dieser Diskrepanz angenommen, die ihnen die Bilanz seit 32nm verhagelt hat. Dass GF einfach nicht konkurrenzfähige Prozesse abgeliefert hat und man mit einer security margin arbeiten musste die z.T. einfach mal bis zu 30% höhere Leistungsaufnahme bedeutete. Wenn man ein Design hat, dass auf vergleichsweise hohe Takte baut, man für diese Takte aber schon 1,4V+ braucht, während die Konkurrenz nicht einmal mehr die 1,3V ankratzt ist klar wo der Segen schief hängt.

AMD hat bei Carrizo Sparmechanismen eingebaut oder freigeschaltet, die Intel zum Teil schon seit Jahren in der ein oder anderen Form nutzt, aber dennoch täuscht das nicht darüber hinweg, dass sie weiterhin an den Prozessen zu knabbern haben. Letztendlich sieht man aber auch bei den APUs, dass hier auf Sparflamme geforscht und entwickelt wird. Dahingehend erwarte ich mir schon einiges von FinFET. Ich könnte mir durchaus vorstellen, dass man von der Leistungsaufnahme konkurrenzfähig sein wird.

Undertaker
2016-05-23, 15:16:40
Konkurrenzfähige Leistungsaufnahme bei gleicher Perf/Core (Effizienz über mehr Kerne bei weniger Takt zu generieren ist nicht die Herausforderung) wäre eine gigantische Sensation. Wenn das wirklich passiert (angesichts des Entwicklungsbudgets imo unmöglich, wenn Intel nicht gepatzt hat): Hut ab, aber Preiskampf ade.

Unicous
2016-05-23, 15:25:45
Wenn AMD es schafft mit 8Kernen+SMT konkurrenzfähig mit 4Kernen+SMT zu sein und bei annähernd gleicher LA, dann kann man wirklich Hut ab sagen. Aber bei der ST-Leistung wird man sicherlich noch ein paar Schippchen drauflegen müssen und das wird man u.U. nicht in den nächsten Jahren schaffen, davon sollte man sich meines Erachtens verabschieden.

Aber eine echte Mainstream-Konkurrenz wäre zumindest für uns PCler eine gute Entwicklung. Denn darauf kann man aufbauen und zum Glück wird die Welt auch immer parallelisierter.:wink:

iuno
2016-05-23, 15:30:56
Sprecht ihr jetzt von Zen?
Zu BR passt das jedenfalls nicht mehr :confused:

Undertaker
2016-05-23, 15:36:45
Wenn AMD es schafft mit 8Kernen+SMT konkurrenzfähig mit 4Kernen+SMT zu sein und bei annähernd gleicher LA, dann kann man wirklich Hut ab sagen.

Hmm, ich glaube nicht das es da Überschneidungen gibt. Rein von der MT-Performance sind ja schon aktuell 4M/8T nicht so weit hinter 4 Intel-Kernen plus SMT, da wird die neue Architektur mit 8C/16T bei MT also eklatant schneller als ein Skylake 4C/8T sein. Mich interessiert aber der 4C/8T vs. 4C/8T-Vergleich, auch weil die Pro-Thread-Leistung ab 4-8 Threads für Spiele und viele Alltagsanwendungen der entscheidende Faktor ist.

@iuno: Hast Recht, wir sind im falschen Thread. :redface:

deekey777
2016-05-23, 16:08:22
HP-Notebooks mit neuen AMD-Prozessoren (http://www.heise.de/newsticker/meldung/HP-Notebooks-mit-neuen-AMD-Prozessoren-3214581.html)

Die Geräte wurden von AMD schon mal erwähnt.

http://store.hp.com/us/en/pdp/Laptops/hp-pavilion---15z-laptop-%28touch-option-available%29-v0n65av-1

AMD Dual-Core A9-9410 APU (2.9 GHz, up to 3.5 GHz, 1 MB cache) + AMD Radeon(TM) R5 Graphics

AMD Dual-Core A9-9410 APU (2.9 GHz, up to 3.5 GHz, 1 MB cache) + AMD Radeon(TM) R7 M440 Graphics (2GB DDR3 dedicated)

AMD Quad-Core A10-9600P (2.4 GHz, up to 3.3 GHz, 2 MB cache) + AMD Radeon(TM) R5 Graphics

AMD Quad-Core A10-9600P (2.4 GHz, up to 3.3 GHz, 2 MB cache) + AMD Radeon(TM) R7 M440 Graphics (4GB DDR3 dedicated)

AMD Quad-Core A12-9700P (2.5 GHz, up to 3.4 GHz, 2 MB cache) + AMD Radeon(TM) R7 Graphics

iuno
2016-05-23, 16:32:41
Von Acer gibt es auch was: http://www.acer.com/ac/en/AU/content/model/NX.GDLSA.001
Das ist dann die A9-9410 aber mit der M430 (5 CUs, 2 GiB DDR3)

Ernsthaft, "A9"? :usad:

deekey777
2016-05-23, 17:16:02
Von Acer gibt es auch was: http://www.acer.com/ac/en/AU/content/model/NX.GDLSA.001
Das ist dann die A9-9410 aber mit der M430 (5 CUs, 2 GiB DDR3)

Ernsthaft, "A9"? :usad:
Jetzt mal ehrlich: Warum A9? Soll das irgendwas hervorheben? Also kein A8, damit man die neuen nicht mit den Katzen-APUs verwechselt?

Unicous
2016-05-23, 17:18:45
Vllt. irgendeine verquere Rechnung a8+dedizierte Grafik=A9

Irgendetwas hat sich die Marketingabteilung schon ausgedacht, damit es für sie Sinn ergibt.:rolleyes:

deekey777
2016-05-23, 17:24:43
Den A9-6410 gibt es auch ohne dedizierte Grafik, siehe HP.

Korvaun
2016-05-23, 17:26:12
Da Zen&Polaris jeweils auf einem aktuellen, konkurrenzfähigen Prozeß aufsetzten würde mich alles andere als ein (einigermaßen) Gleichziehen mit Intel/NV schwer enttäuschen. Das gilt natürlich umso mehr für die CPUs, denn da hat sich ja in 4-5 Jahren so gut wie gar nichts getan nach dem Bulldozer Launch Debakel (and der Leistungsspitze zumindest)....

iuno
2016-05-23, 19:05:19
Ja, weil absolut klar war, was Sache ist und sie ganz oben nichts nachgelegt haben.
Ansonsten hat sich von Bulldozer bis Excavator schon noch einiges getan, bedingt durch die Basis natuerlich keine Wunder, aber dennoch.

iuno
2016-05-31, 10:49:02
bzgl BR:
All of these improvements are in addition to the upgraded video decoder, faster DDR4 memory support and faster and more GPU cores. This includes support for Google’s VP9 video codec and 4K HEVC

http://www.forbes.com/sites/patrickmoorhead/2016/05/30/amds-7th-generation-apu-brings-many-performance-tweaks-and-the-last-hurrah-before-zen/

Ich kann es mir nie merken, kann Carrizo nicht schon 4k HEVC?! VP9 glaube ich da zumindest noch nicht gehoert zu haben. Denkbar dass sie das zurueckgehalten haben oder wirklich ein neuer UVD? :udevil:

[AMD] implemented a skin temperature aware power management system
Das ist zwar nichts Grosses, aber das haben sie mit Mullins damals beworben. Vielleicht gibt es doch nochmal ein-zwei Tablets mit APU...

Unicous
2016-05-31, 11:29:45
faster and more

Man bedenke, dass der Typ mal für AMD gearbeitet hat. Der Artikel ist übrigens 404, scheint dass er ein NDA gebrochen hat.:wink:

iuno
2016-05-31, 11:53:20
Ist mir vorher gar nicht aufgefallen. Moar CUs? :ulol:
Da bin ich mal gespannt...
Glaube aber nicht, dass handfeste infos (meine jetzt etwa Spezifikationen) im Artikel standen, nur die Bezeichnung für ein HP convertible, das BR bekommen soll, war aber iirc schon bekannt

deekey777
2016-05-31, 11:56:28
Wenn das Teil die GPU-Leistung der Xbox One hätte, wirds interessant, auch wenn die Bandbreite problematisch werden dürfte.

iuno
2016-05-31, 11:59:04
Naja, nicht so problematisch wie bei cz/x1 da ddr4 drin ist.
X1 ist aber nicht drin, imho. Was hat die, 18 CUs? Nee... vielleicht so 12 :confused:

Ravenhearth
2016-05-31, 14:21:59
Die X1 hat doch nur 12 aktiv, 18 hat die PS4.

fondness
2016-05-31, 15:10:24
Da Zen&Polaris jeweils auf einem aktuellen, konkurrenzfähigen Prozeß aufsetzten würde mich alles andere als ein (einigermaßen) Gleichziehen mit Intel/NV schwer enttäuschen. Das gilt natürlich umso mehr für die CPUs, denn da hat sich ja in 4-5 Jahren so gut wie gar nichts getan nach dem Bulldozer Launch Debakel (and der Leistungsspitze zumindest)....

Okay, wenn AMD also mit einem Bruchteil der Ressourcen von Intel oder Nvidia nicht mit beiden gleichzieht, wäre das schwer enttäuschend. :ugly:
Ich sehe das umgekehrt: Wenn AMD trotz deutlich weniger finanziellen Mitteln einigermaßen gleichziehen würde mit Intel/Nvidia, wäre das eine kleine Sensation.

-/\-CruNcher-/\-
2016-05-31, 15:29:16
Das da ein neuer UVD zum Einsatz kommt sollte nun aber wirklich niemanden verwundern das er mit Intel mithalten wird glaube ich allerdings erst wenn ich es selber sehen würde ;)
Intel hat sich lediglich bei Broadwell etwas zurückgehalten da konnte AMD tatsächlich mit Carrizo in Notebooks für eine Kurze Zeit punkten beim Decoding aber das hat sich mit Skylake ja nun wieder schlagartig geändert aber vor allem beim Hardware Encoding bin ich gespannt da schlägt weder AMD noch Nvidia Intel momentan und ich wäre sehr überrascht wenn AMD es mit Zen in diese nähe schaffen würde ich nehme eher mal an sie werden immernoch mit Low latency qualität zu frieden sein wie bei VCE in ihren Discrete Radeon GPUs oder Nvidia mti NVENc in ihrer Tegra APU und Geforce, da hat sich auch absolut nichts wirklich getan seit zig Generationen während Intel immer besser wird und AMD und Nvidia schon lange eingeholt hat,

iuno
2016-05-31, 15:44:42
Die X1 hat doch nur 12 aktiv, 18 hat die PS4.
Ja, hatte das nicht im Kopf. Naja, 12 CUs waeren eine Steigerung um 50%, ich weiss nicht ob das von der Flaeche her ueberhaupt drin ist.
Hiess es nicht auch um die 33% mehr Grafikleistung?
10 CUs waeren +25%, dann noch etwas Takt wuerde hinkommen...
Falls da ueberhaupt was dran ist ;D

ob sie immernoch mit Low latency qualität zu frieden sind
:confused:

deekey777
2016-05-31, 15:54:35
Ja, hatte das nicht im Kopf. Naja, 12 CUs waeren eine Steigerung um 50%, ich weiss nicht ob das von der Flaeche her ueberhaupt drin ist.
Hiess es nicht auch um die 33% mehr Grafikleistung?
10 CUs waeren +25%, dann noch etwas Takt wuerde hinkommen...
Falls da ueberhaupt was dran ist ;D


Mir ist gerade wieder eingefallen, dass mehr als 512 SPs reine Träumerei ist, weil das Ding weiterhin in 28 nm gefertigt wird. Habe ganz vergessen.

Vielleicht hatte ich noch die Nachfolger im Kopf (Generation Zen), die gleich 4096 SPs haben werden, da gab es auch eine Diskussion um die notwendige Bandbreite.

Brainfart von mir. :weg:

reaperrr
2016-05-31, 16:02:43
Ja, hatte das nicht im Kopf. Naja, 12 CUs waeren eine Steigerung um 50%, ich weiss nicht ob das von der Flaeche her ueberhaupt drin ist.
Hiess es nicht auch um die 33% mehr Grafikleistung?
10 CUs waeren +25%, dann noch etwas Takt wuerde hinkommen...
Falls da ueberhaupt was dran ist ;D


:confused:
Die Performance skaliert nicht linear mit zusätzlichen CUs, weil eben andere Dinge - Chiptakt, Frontend, ROPs, Speicherbandbreite - ebenfalls eine Rolle spielen.

33% mehr Leistung würde eher zu 50% mehr CUs bei gleichbleibendem oder leicht gesenktem Takt passen.

deekey777
2016-05-31, 16:13:37
Es ist alles die Frage der Diefläche:
Sofern das Bild echt ist, nimmt die GPU ein Drittel der Diefläche. Dort noch weitere 4 CUs wirtschaftlich unterzubringen, wäre denkbar. http://images.anandtech.com/doci/9319/Slide%203%20-%20Design%20Goals.png?_ga=1.63353898.443467960.1378894044

Weil AMD eh der Gearschte ist, wird so eine APU kaum anzutreffen sein, die A10-7800er waren und sind zwar in einigen Modellen anzutreffen (Lenovo und HP haben welche schon ab 400,00 EUR), aber dann heißt es, dass die CPU Mist ist und eher ein Skylake i3 oder gar i5 besser wäre, denn Spielen kann man damit eh nicht, zumindest nicht in 1080p@Ultra.

iuno
2016-05-31, 16:19:52
33% mehr Leistung würde eher zu 50% mehr CUs bei gleichbleibendem oder leicht gesenktem Takt passen.
Der Takt soll im Schnitt aber angehoben werden, darum ging es doch schon oft.

Dino-Fossil
2016-05-31, 16:28:51
Naja, AMD's APUs sind nunmal leider am (Desktop-)Markt vorbei entwickelt.
Das Konzept ist, zumindest wenn man HSA berücksichtigt, zwar durchaus interessant, aber die praktische Ausführung sitzt in einer undankbaren Nische.

Vermutlich wollte AMD nicht auch noch in der Grafik-Einheit hinterherhinken, aber den APUs hätte mehr CPU-Power mehr geholfen als mehr GPU-Power.
Jeder der ernsthaft spielen möchte brauch nach wie vor eine dGPU und für den Rest ist die iGPU eigentlich schon wieder überdimensioniert.
Anders gesagt: AMD hätte lieber z.B. 3-Modul APUs mit kleineren iGPUs anbieten sollen, die stärker auf die faktisch wichtigere CPU-Performance ausgelegt sind.

Mobile schaut es meiner Meinung nach etwas anders aus, da kann ich APUs mit großer iGPU eher rechtfertigen.

tm0975
2016-05-31, 16:31:55
Naja, AMD's APUs sind nunmal leider am (Desktop-)Markt vorbei entwickelt.

hast du das auf dem papier entschieden oder hast du schon mal eine ausprobiert? ich finde die leistung durchaus beeindruckend. und für viele dinge ist sie zudem völlig ausreichend.

Dino-Fossil
2016-05-31, 16:52:39
hast du das auf dem papier entschieden oder hast du schon mal eine ausprobiert? ich finde die leistung durchaus beeindruckend. und für viele dinge ist sie zudem völlig ausreichend.

Meine Argumentation ist die: Als (Budget-)Gamer fahre ich besser mit einem Athlon (also APU mit deaktivierter iGPU) + dGPU.
Als 0815-User, der eh nix zocken will - oder nur sehr anspruchslose Dinge - reicht mir auch eine kleinere iGPU.
Im aktuellen Portfolio heißt aber kleine iGPU automatisch auch schwächere CPU, was jetzt nicht so super ist, wenn die CPU-Leistung eh ein wenig hinterherhinkt.

y33H@
2016-05-31, 17:06:46
8 CUs sind 8 CUs sind 8 CUs.

Unicous
2016-05-31, 17:17:09
8 CUs sind 8 CUs sind 8 CUs.

btw.

Könntest du mal bei Gelegenheit bei AMD nachfragen, ob Carrizo/Bristol Ridge in Hardware/Software schon in der Lage ist Per CU Power Gating zu nutzen. Bis auf die Hot Chips Präsentation habe ich jedenfalls dazu nichts mehr gelesen und afaik es tauchte auch nicht mehr bei den Reviews auf.

iuno
2016-05-31, 17:19:22
Mich wuerde auch interessieren, ob das unter Windows schon gemacht wird.
Siehe dazu auch hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11051075#post11051075

immer diese Falschinfos :P

y33H@
2016-05-31, 19:40:49
Vorhin übrigens gesehen, ist aber ein Merlin Falcon:

56117

mboeller
2016-06-01, 07:26:19
was hat AMD da angestellt?

der FX 8800P hat einen Base-Clock von 2,1GHz und der neue Bristol-Ridge hat einen Base-Clock von 3,0GHz (35W), selbst die 15W Variante hat einen Base-Clock von 2,7 GHz.

2,7/2,1 = +28,5% ... wow!

http://semiaccurate.com/2016/05/31/amd-launches-7th-generation-mobile-apus/

http://www.notebookcheck.com/AMD-FX-8800P-Carrizo-Spezifikationen-und-Benchmarks.144068.0.html

Bei den Turbo-Frequenzen beträgt der Unterschied nur 300MHz, also nur 8,8%

Die Verbesserungen sind damit IMHO so gut wie bei einem Shrink und Carrizo war ja schon eine massive Verbesserung gegenüber Kaveri. Was AMD aus dem 28nm Prozess rausholt ist wirklich "impressive" (IMHO)

Die Trennung zw. 35W-Variante und 15W Variante bei der Bezeichnung ist auch gut. Damit weiß man wenigstens was man kauft.


I asked AMD for die sizes and transistor counts.

Bristol Ridge: 250mm2 and 3.1 Billion transistors
Stoney Ridge: 124.5mm2 and 1.2 Billion transistors

Both are built on a refined version of GF's 28nm bulk process.


http://semiaccurate.com/forums/showpost.php?p=264264&postcount=180

Unicous
2016-06-01, 07:53:05
AMD hat offenbar die ganzen "tollen" Features die bei Carrizo schon längst in Hardware gegossen sind gar nicht aktiviert und vllt. einen oder mehrere metal spins vorgenommen um die Features für Bristol Ridge ausfahren zu können.


Das ist in der Vergangenheit leider schon viel zu oft passiert.:rolleyes:

iuno
2016-06-01, 08:09:31
Naja, das hatten wir ja schon befuerchtet... eigentlich schon als BR "aufgetaucht" war und z.B. als feststand, dass CZ nicht mit DDR4 gepaart wird. Aber ein bisschen Optimismus war halt trotzdem immer noch dabei :D
Ich denke, sie haben einfach gesehen, dass CZ aus welchem Grund auch immer nicht gut ankommt, wussten aber genau, dass sie sich damit bis Zen noch irgendwie ueber Wasser halten muessen. Was will man machen... womoeglich haben sie jetzt auch noch eine ordentliche Preissenkung vorgenommen, sodass wir dann immerhin ein paar gescheite Geraete mit BR sehen

y33H@
2016-06-01, 08:38:54
Das ist in der Vergangenheit leider schon viel zu oft passiert :rolleyes:Joe Macri hat 17x betont, dass das Absicht war von Anfang an.

iuno
2016-06-01, 08:47:15
Gut, was soll er auch sonst sagen?
Immerhin soll RR "schon" Anfang 2017 kommen

MadPenguin
2016-06-01, 09:00:54
Hmm. Wann werden BR und AM4 in die freie Wildbahn entlassen?

deekey777
2016-06-01, 09:23:58
Kein HEVC-Hardwareencoder? Mutig.

Als AM4 soll BR zusammen mit den Zen-CPUs Ende des Jahres erscheinen:
http://www.heise.de/newsticker/meldung/AMD-Bristol-Ridge-Mehr-Performance-fuer-Mobilprozessoren-3221707.html
Bristol-Ridge-Prozessoren mit der Fassung AM4 für Desktop-Rechner erscheinen erst gegen Ende des Jahres zusammen mit den High-End-Prozessoren Summit Ridge mit Zen-Architektur. Das hat AMD bereits Anfang des Jahres auf der CES bekannt gegeben.

Unicous
2016-06-01, 09:30:28
Joe Macri hat 17x betont, dass das Absicht war von Anfang an.

Gut, was soll er auch sonst sagen?

QFT. :wink:



edit:

@y33h@

Könntest du in den Zusammenhang dann wenn der offizielle Launch mit/ohne Reviews kommt nochmal wegen den ganzen Features fragen, die hinzugekommen sind... wie z.B. Per CU Power Gating. Ob das schon bei CZ exposed ist oder erst BR, oder gar nicht.

MadPenguin
2016-06-01, 09:38:14
Kein HEVC-Hardwareencoder? Mutig.

Als AM4 soll BR zusammen mit den Zen-CPUs Ende des Jahres erscheinen:
http://www.heise.de/newsticker/meldung/AMD-Bristol-Ridge-Mehr-Performance-fuer-Mobilprozessoren-3221707.html

Oha. Danke für die Info. :eek: Hatte gedacht sie würden BR für Desktop schon jetzt veröffentlichen...meh...

S940
2016-06-01, 23:04:18
Joe Macri hat 17x betont, dass das Absicht war von Anfang an.
Das glaub ich ihm aufs Wort, früher hätte auch nie einer im Traum daran gedacht A1-Silizium in den Markt zu entlassen. Da muss man natürlich damit rechnen, dass nicht alle Features funktionieren :freak:

y33H@
2016-06-01, 23:15:51
O-Ton beim Briefing: "desperation breeds innovation" :cool:

mboeller
2016-06-02, 07:51:41
Oha. Danke für die Info. :eek: Hatte gedacht sie würden BR für Desktop schon jetzt veröffentlichen...meh...

IMHO:

für AMD macht das schon Sinn. Der Marktanteil beim Desktop geht gegen Null (etwas übertrieben) und der Aufwand lohnt sich einfach nicht. Erst mit ZEN ist man wieder konkurrenzfähig und damit kann man dann auch CPUs und Mainboards absetzen. Die Mainboards "reifen" dadurch hoffentlich bei den Herstellern und nicht beim Kunden, in den nächsten Monaten bis ZEN (Wunschdenken?).

edit:
http://www.heise.de/newsticker/meldung/AM4-Prozessoren-fuer-Komplett-PC-Hersteller-bereits-verfuegbar-3225096.html

deekey777
2016-06-02, 10:29:52
IMHO:

für AMD macht das schon Sinn. Der Marktanteil beim Desktop geht gegen Null (etwas übertrieben) und der Aufwand lohnt sich einfach nicht. Erst mit ZEN ist man wieder konkurrenzfähig und damit kann man dann auch CPUs und Mainboards absetzen. Die Mainboards "reifen" dadurch hoffentlich bei den Herstellern und nicht beim Kunden, in den nächsten Monaten bis ZEN (Wunschdenken?).

edit:
http://www.heise.de/newsticker/meldung/AM4-Prozessoren-fuer-Komplett-PC-Hersteller-bereits-verfuegbar-3225096.html

Nicht dass es sich herausstellt, dass in den Desktops die BR-APUs stecken, Dell hat letztes Jahr (in den USA) auch mehrere Desktop-PCs mit Carrizo-APUs ausgestattet.

Wenn es doch richtige AM4-Fertig-PCs sind, dann Glückwunsch an AMD.

Dino-Fossil
2016-06-02, 10:41:30
Frag mich, ob die Wartezeit auf AM4-Boards auch ein bisschen was mit dem Bulldozer-Launch zu tun hat, bei dem ja die Mainboards ein halbes Jahr vor den CPUs kamen, wenn ich mich richtig erinnere?

Waren ja so einige enttäuscht, dass sie ein neues Board gekauft haben (mit Platzhalter CPU) und Bulldozer v1 dann so enttäuschend war.

Nicht das ich glaube Zen wird es so gehen, aber vielleicht will AMD verhindern, dass da Erinnerungen hochkommen/Parallelen gezogen werden.

MadPenguin
2016-06-02, 11:52:16
Also ist 2016 beinahe ganz den OEMs gewidmet (mobile und Desktop). Apple, HP und Dell haben heuer den Vortritt, um Geld in die Kasse zu spülen. Für die Firma sicher ok, der Endkunde kann sich bei allen bedanken, die seit immer Nvidia und Intel bevorzugen :)
Jo, danke euch!
Welchen Sinn hat es BR Ende des Jahres zu kaufen, wenn Zen vor der Tür steht. Ich hätte gerne diesen Sommer ein AM4 System mit BR aufgebaut und diesen dann mit Zen getauscht...bin enttäuscht

deekey777
2016-06-02, 14:11:39
Vielleicht gibt es volle Lager mit den Kaveris und Godaveris, die abverkauft werden sollen.

iuno
2016-06-02, 14:49:02
http://www.golem.de/news/bristol-ridge-stoney-ridge-verbesserte-carrizo-chips-fuer-notebooks-1606-121209.html

@y33h@: (hat letztes mal zumindest so geklappt :D) du hast einmal Bridge geschrieben.

Also wird "Stoney Ridge" jetzt auch offiziell so genannt, es gab ja Leute hier, die das noch bezweifelt haben.
Finde es gut, dass die 35 W Modelle jetzt klar namentlich abgegrenzt sind, haette es aber immer noch am schoensten gefunden wenn man als Kunde selber im BIOS einstellen kann, wenigstens bei den 35 W Modellen auch die Option auf 15 W geben, und dort wo die thermale Konstruktion ausreichend ist auch andersherum.

Die gesamte Namenswahl ist aber wieder mal bescheuert. E2, A6, A9, A10, A12, FX :facepalm:

y33H@
2016-06-02, 17:06:45
Ridge, Rich, Bridge, Bitch, whatever. Finde das mit dem "30P" auch sehr sinnvoll, cTDP selbst herabsetzen wäre zudem klasse.

mboeller
2016-06-08, 20:19:39
Dresdenboy hat ein paar Bristol-Ridge infos gepostet:

http://semiaccurate.com/forums/showpost.php?p=265073&postcount=627

A12-9800: 3,8 - 4,2GHz CPU + 1,1GHz GPU und angeblich DDR4-3600!

die Frage ist bloß, wieviele "KW" braucht diese APU? Ich kann mir nicht vorstellen das die A12-9800 APU nur 65W benötigt. Schließlich ist die APU immer noch in 28nm gefertigt.

SavageX
2016-06-08, 20:52:45
Nun, mein 65 Watt A10-6700 taktet von 3,7 bis 4,3 GHz, also sehr ähnlich. Allerdings auf 32nm SOI. Die Frage ist, ob das inzwischen auch 28nm bulk hinkriegt.

iuno
2016-06-08, 20:58:19
Der A10-7860K (Kaveri/Godavari) kommt auch auf 4 GHz mit Turbo bei 65 W TDP. machbar ist das schon, es fraegt sich halt fuer wie lange und bei welcher Last (Grafik und CPU).

y33H@
2016-06-08, 22:34:02
Dresdenboy hat ein paar Bristol-Ridge infos gepostet:

http://semiaccurate.com/forums/showpost.php?p=265073&postcount=627

A12-9800: 3,8 - 4,2GHz CPU + 1,1GHz GPU und angeblich DDR4-3600!
Schmarrn, da steht DDR4-2400 ... was JEDEC-Spec ist.

YfOrU
2016-06-08, 22:42:18
Schmarrn, da steht DDR4-2400 ... was JEDEC-Spec ist.

Dazu auch im BKDG vom 21 Mai 2016: (Seite 86, 105, etc.)
http://support.amd.com/TechDocs/50742_15h_Models_60h-6Fh_BKDG.pdf

DDR4-2400 ist sehr sicher das Maximum bei CZ/BR. Darüber geht es wohl nur noch ein kleines Stück mit Ref Takt OC.

Knuddelbearli
2016-06-09, 04:06:41
Das ist der selbe Chip wie bisher nur mit DDR4 oder? überlege mir dann beide zu kaufen da wohl mal wieder niemand ordentliche Bandbreitentests machen wird.

iuno
2016-06-09, 08:44:14
Ja, ist der selbe Chip.
Carrizo gab es aber nicht gesockelt fuer den Desktop. Fuer so einen Vergleich muesstest du also gleich entsprechende Notebooks kaufen...
Da wird es aber wohl mindestens problematisch auch welche zu finden, die die cTDP gleich (hoch) gesetzt haben.

Wenn du auf den Desktop zielst kann es ja sein, dass es AM4 Boards gibt, die beide Speichertypen unterstuetzen. Dann koenntest du ein BR auch mit DDR3 paaren und auf Carrizo Niveau runtertakten, die Aenderungen am Powermanagement und resultierend hoehere Boosttakte wirst du aber wohl nicht los werden.

MadPenguin
2016-06-09, 09:58:36
Ja, ist der selbe Chip.
Carrizo gab es aber nicht gesockelt fuer den Desktop. Fuer so einen Vergleich muesstest du also gleich entsprechende Notebooks kaufen...
Da wird es aber wohl mindestens problematisch auch welche zu finden, die die cTDP gleich (hoch) gesetzt haben.

Wenn du auf den Desktop zielst kann es ja sein, dass es AM4 Boards gibt, die beide Speichertypen unterstuetzen. Dann koenntest du ein BR auch mit DDR3 paaren und auf Carrizo Niveau runtertakten, die Aenderungen am Powermanagement und resultierend hoehere Boosttakte wirst du aber wohl nicht los werden.

Bist du sicher? Beteits bei der Größe vom Die scheint es Unterschiede zu geben.

iuno
2016-06-09, 10:08:10
Ja.
Woher hast du denn das?

Carrizo:
http://www.notebookinfo.de/artikel/amd-carrizo-notebook-apu-fx-8800p-als-neuer-hoffnungstraeger/6416/bild_0.jpg
http://www.notebookinfo.de/artikel/amd-carrizo-notebook-apu-fx-8800p-als-neuer-hoffnungstraeger/6416/
Bristol Ridge:
http://1.f.ix.de/imgs/18/1/8/2/1/6/3/1/bristolridgechip-e7e4995c9a2b01f7.jpeg
http://www.heise.de/newsticker/meldung/AMD-Bristol-Ridge-Mehr-Performance-fuer-Mobilprozessoren-3221707.html?view=zoom;zoom=2

Ja, das sind bloede Bilder, aber ich habe nichts besseres gefunden.

http://www.notebookcheck.com/fileadmin/_processed_/csm_carrizo_apu_generations_485dda370e.jpg
http://www.pcgameshardware.de/screenshots/original/2016/04/AMD-Bristol-Ridge-Ankuendigung-_2_-pcgh_b2article_artwork.png

Beachte, dass bei dem gezeigten BR Dieshot noch Teile der benachbarten dies zu sehen sind, wenn du die wegdenkst ist es 1:1 Carrizo.

deekey777
2016-06-09, 10:50:19
Dresdenboy hat ein paar Bristol-Ridge infos gepostet:

http://semiaccurate.com/forums/showpost.php?p=265073&postcount=627

A12-9800: 3,8 - 4,2GHz CPU + 1,1GHz GPU und angeblich DDR4-3600!

die Frage ist bloß, wieviele "KW" braucht diese APU? Ich kann mir nicht vorstellen das die A12-9800 APU nur 65W benötigt. Schließlich ist die APU immer noch in 28nm gefertigt.

Also sind die Bezeichnungen der Desktop-BR vom April bestätigt.

Man kann davon ausgehen, dass die Desktop-A12er 8 Grafik-CUs haben (mobile haben nur 6 (http://www.anandtech.com/show/10362/amd-7th-generation-apu-bristol-ridge-stoney-ridge-for-notebooks)), aber was ist mit den A10? Gleiche Anzahl, aber weniger Takt oder nur 6 CUs?

mboeller
2016-06-09, 11:05:17
Schmarrn, da steht DDR4-2400 ... was JEDEC-Spec ist.

Ja schon klar aber auf der IXBT-Seite steht angeblich was von DDR4-3600.. deshalb ja auch das "angeblich DDR4-3600" ; siehe auch die weiteren Kommentare auf der semiaccurate-Seite. Die IXBT-Seite kann ich aber nicht lesen... mein russisch ist nicht so gut. :)

Link: http://forum.ixbt.com/topic.cgi?id=8:25085-3

iuno
2016-06-09, 11:10:50
Ich denke der Desktop A12 entspricht dem mobilen FX und der A10 dem mA12, also auch 6 CUs, 8 exklusiv fuer den groessten Namen.

Zwischen A8 und A6 muss ja eigentlich dann eine weitere starke Beschneidung liegen, also weniger CUs und/oder Module, ansonsten passt das ja nicht zusammen. Die A8 faellt schon etwas seltsam raus, ist auch die einzige die keine "E" hat. A6 haette aber demnach mehr GPU Leistung oder noch weniger als 4 CUs.

So wuerde das fuer mich Sinn ergeben:
Modell|Anzahl Module|CPU Takt (Turbo) (GHz)|Anzahl CUs|GPU Takt (MHz)
A12|2|3,8 (4,2)|8|1108
A10|2|3,5 (3,8)|6|1029
A8|2 1|3,1 (3,4)|4 6|900
A6|1|3,5 (3,8)|4|1029
X4|2|3,5 (3,8)|0|-


Die "E"-Varianten werden wohl die mit weniger TDP sein. Die groesste ohne E dann doch wieder mit 95 W oder eher 65/35?
Wieso heisst das eigentlich "processor power and thermal data sheet" wenn nichtmal die TDPs dranstehen ;p

Immerhin wurde das Namensschema der Pro Serie offenbar der normalen jetzt angeglichen, ausserdem kommen erstmals solche Pro Versionen auf den Desktop.

MadPenguin
2016-06-09, 11:26:25
Ja.
Woher hast du denn das?


Zitat:
"AMD hat Prozessoren mit integrierter Grafikeinheit für Notebooks vorgestellt: Die Bristol Ridge und Stoney Ridge basieren zwar auf dem Carrizo-Design. Sie werden aber in einem überarbeiteten Verfahren gefertigt, beschleunigen mehr Codecs und nutzen neue Tricks.
AMD hat auf der Computex-Pressekonferenz in Taipeh, Taiwan, neue Notebook-Chips vorgestellt. Die als Bristol Ridge und Stoney Ridge bezeichneten Prozessoren mit integrierter Grafikeinheit sollen verglichen mit den bisherigen Carrizo-Modellen die Leistung deutlich steigern. Das Chip-Design von Bristol Ridge ist zwar identisch, durch diverse freigeschaltete Funktionen und einige Verbesserungen handelt es sich aber faktisch um ein eigenständiges Produkt."

http://www.golem.de/news/bristol-ridge-stoney-ridge-verbesserte-carrizo-chips-fuer-notebooks-1606-121209.html
http://www.anandtech.com/show/10362/amd-7th-generation-apu-bristol-ridge-stoney-ridge-for-notebooks

Das mit der Größe vom Die habe ich scheinbar geträumt ... :D

Ich würde trotzdem nicht vom gleichen Chip wie Carizzo sprechen

y33H@
2016-06-09, 11:50:48
Ja schon klar aber auf der IXBT-Seite steht angeblich was von DDR4-3600.Vll als "up to" Overclocking ...

Ich würde trotzdem nicht vom gleichen Chip wie Carizzo sprechenDas ist IMHO Auslegungssache, denn an sich haben wir das schlicht gleiche Design mit verbessertem Prozess und mehr (aktiven) Funktionen.

iuno
2016-06-09, 11:54:40
Ich bin wirklich mal gespannt, wie sich das auf Linux auswirkt. Wie gesagt gibt es da bislang keine Unterscheidung. Vielleicht gibt es neue Firmwares oder die Linux Nutzer profitieren nicht von den Verbesserungen - oder alle (also auch CZ Besitzer)

Knuddelbearli
2016-06-09, 14:33:27
Ja, ist der selbe Chip.
Carrizo gab es aber nicht gesockelt fuer den Desktop. Fuer so einen Vergleich muesstest du also gleich entsprechende Notebooks kaufen...
Da wird es aber wohl mindestens problematisch auch welche zu finden, die die cTDP gleich (hoch) gesetzt haben.

Wenn du auf den Desktop zielst kann es ja sein, dass es AM4 Boards gibt, die beide Speichertypen unterstuetzen. Dann koenntest du ein BR auch mit DDR3 paaren und auf Carrizo Niveau runtertakten, die Aenderungen am Powermanagement und resultierend hoehere Boosttakte wirst du aber wohl nicht los werden.

Das sollte denke ich nicht so das Problem sein. Gegenüber Carrizo gibt es ja quasi 0 IPC Verbesserungen sondern fast alles was neu ist ( oder jetzt mit Bristol Freigeschaltet ) zielt ja auf niedrigeren Verbrauch.

Und der DDR3 Controller bleibt Freigeschaltet? höre davon das 1 mal.

iuno
2016-06-10, 13:22:52
http://store.hp.com/GermanyStore/Merch/Product.aspx?id=N2J67EA&opt=ABD&sel=NTB

Eigentlich sieht es nach einem ordentlichen Geraet aus und dann...
Grafiksubsystem|
Grafik|AMD Radeon™ R7 M440-Grafikkarte (2 GB DDR3 dediziert)

Jetzt gibt es also schon APUs schoen mit dual-channel DDR4, die dann mit Iceland@DDR3 gepaart werden :facepalm: :facepalm:

Mich wuerde ja mal interessieren, was AMD sich dabei denkt. Klar, das Geraet und die Zusammenstellung kommt von HP, aber die bekommen das auch so von AMD angeboten.
Wehrt sich da nicht schon der gesunde Menschenverstand? GPU mit PCIe verbunden und hat wirklich 2 GiB (!) eigenen DDR3 (!) Speicher?! Und dann bekommt man CrossFire in dieser offensichtlichen out-of-balance Konfig vorgesetzt oder schaltet die integrierte GPU gar komplett ab :ugly: ?

Einfach mal 35 W TDP einstellen und den Rest weglassen. Was ist daran bitte so schwer?

deekey777
2016-06-10, 13:46:42
http://store.hp.com/GermanyStore/Merch/Product.aspx?id=N2J67EA&opt=ABD&sel=NTB

Eigentlich sieht es nach einem ordentlichen Geraet aus und dann...


Jetzt gibt es also schon APUs schoen mit dual-channel DDR4, die dann mit Iceland@DDR3 gepaart werden :facepalm: :facepalm:

Mich wuerde ja mal interessieren, was AMD sich dabei denkt. Klar, das Geraet und die Zusammenstellung kommt von HP, aber die bekommen das auch so von AMD angeboten.
Wehrt sich da nicht schon der gesunde Menschenverstand? GPU mit PCIe verbunden und hat wirklich 2 GiB (!) eigenen DDR3 (!) Speicher?! Und dann bekommt man CrossFire in dieser offensichtlichen out-of-balance Konfig vorgesetzt oder schaltet die integrierte GPU gar komplett ab :ugly: ?

Einfach mal 35 W TDP einstellen und den Rest weglassen. Was ist daran bitte so schwer?

Da bleiben sich die Unternehmen weiterhin treu. Vielleicht verlangt auch AMD diesen Unsinn in die Welt zu setzen, um CrossFire zu pushen. :ulol:

Dino-Fossil
2016-06-10, 14:07:36
Ich glaube AMD gibt da einfach keinerlei Vorgaben an die OEMs.
Und die verbauen eben, was sie noch so in der Grabbelkiste finden.

iuno
2016-06-10, 14:51:25
Das kann auch nicht sein, sonst gaebe es nicht jede "Generation" neue Namen fuer diese Chips/Dual Graphics "Loesungen".

Knuddelbearli
2016-06-10, 17:01:40
Vermutlich verlangt der normale DAU eine dGPU und mag es nicht wenn bei den Specs das feld leer ist.

Dino-Fossil
2016-06-10, 18:40:21
Dann dürfte es aber auch keine Intel-Laptops ohne dGPU geben.
Außer eben Intel macht im Gegensatz zu AMD sinnvollere Vorgaben zur Konfiguration (und kann sie auch durchsetzen).

Undertaker
2016-06-10, 18:43:48
Intel verkauft nun einmal keine dedizierten GPUs, AMD schon – und das offenbar im Bundle mit einer APU nahezu für lau. Der OEM steckts dazu und der Dau glaubt, mit einer extra GPU etwas "besseres" zu kaufen.

Es dürfte kein Wunder sein, das Notebooks mit AMD APU und Nvidia GPU nicht existent sind.

Dino-Fossil
2016-06-10, 18:51:22
Das kann natürlich auch sein.
Fragt man sich aber immer noch, warum? Unbedingt in irgendeiner Statistik besser abschneiden?
Das würden sie allerdings auch, wenn der Laptop nur die iGPU hätte. Verdienen sie doch ein paar Cent mehr dabei? Das ist dann wieder schwer vorstellbar.
Unterm Strich sehe ich nur Laptops, die meistens ohne die dGPU sinvoller wären, da der Mehrwert gegen null geht und teils sogar noch eher ein Nachteil besteht (Verbrauch).
Bleibt also wohl wirklich nur die Wirkung auf den unkundigen Kunden.

Undertaker
2016-06-10, 18:52:53
Das weiß der informierte Nutzer, aber die breite Masse offenbar nicht. Auch auf Intel-Seite gibt es Kombinationen wie HD 520 + GeForce 920M, die praktisch keinen Sinn machen. Kann nur daran liegen, dass es sich schlicht besser verkauft.

iuno
2016-06-15, 15:59:28
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=drm-next-4.8-wip&id=feb977d06af44627242c35085f9e642e84d02a16
drm/amdgpu/gfx8: Enable GFX PG on CZ
[...]
/* rev0 hardware doesn't support PG */
Insofern muss ich hiermit meine Aussage zuruecknehmen, der Treiber wuerde nicht zwischen CZ und BR unterscheiden ;)

deekey777
2016-07-05, 14:20:54
http://store.hp.com/GermanyStore/Merch/Product.aspx?id=N2J67EA&opt=ABD&sel=NTB

Eigentlich sieht es nach einem ordentlichen Geraet aus und dann...


Jetzt gibt es also schon APUs schoen mit dual-channel DDR4, die dann mit Iceland@DDR3 gepaart werden :facepalm: :facepalm:

Mich wuerde ja mal interessieren, was AMD sich dabei denkt. Klar, das Geraet und die Zusammenstellung kommt von HP, aber die bekommen das auch so von AMD angeboten.
Wehrt sich da nicht schon der gesunde Menschenverstand? GPU mit PCIe verbunden und hat wirklich 2 GiB (!) eigenen DDR3 (!) Speicher?! Und dann bekommt man CrossFire in dieser offensichtlichen out-of-balance Konfig vorgesetzt oder schaltet die integrierte GPU gar komplett ab :ugly: ?

Einfach mal 35 W TDP einstellen und den Rest weglassen. Was ist daran bitte so schwer?

Bristol Ridge im Test: AMDs A10-9600P gegen die Konkurrenz (http://www.notebookcheck.com/Bristol-Ridge-im-Test-AMDs-A10-9600P-gegen-die-Konkurrenz.168172.0.html)

Als wenig sinnvoll erachten wir die zusätzliche Radeon R7 M440 unseres Testgerätes. Nur selten rechnet diese signifikant schneller als die integrierte Radeon R5 – und wenn doch, so ist dies wohl vor allem auf die Entlastung des begrenzten TDP-Budgets der APU zurückzuführen. Stattdessen hätte HP besser gleich das 35-Watt-Pendant A10-9630P verbauen können, um dadurch sowohl die GPU- als auch die CPU-Performance nach oben zu treiben. Dies gilt umso mehr, als dass der Crossfire-Zusammenschluss von integriertem und dediziertem Grafikchip in keinem einzigen der getesteten Spiele mit nennenswerten Frameraten-Zuwächsen belohnt wird.

iuno
2016-07-06, 13:33:03
Naja, das war klar oder? ;p