PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Kaveri: 28nm, 2-4 Steamroller Kerne, GCN GPU - Ende 2013


Seiten : 1 2 3 [4]

Duplex
2013-12-07, 15:38:10
Bei gleichem Takt ist doch Haswell pro Kern 60-70% schneller als AMDs Kern.

Wenn Skylake pro Takt 15-20% drauflegen kann und in 4,5Ghz Takt Regionen kommt, dann ist man im Client Bereich nochmal >30% schneller als die aktuellen Kerne.

AMD wird Excavator noch in 28nm fertigen, das ist auch nur SR Tuning, danach gibt es nur noch eine Architektur die auf Jaguar aufbauen wird und weiter entwickelt wird, da wird sonst nichts mehr kommen.

Ab 2016 gibt es bereits 10nm APUs von Intel, dagegen kann AMD nichs mehr machen!

Nakai
2013-12-07, 16:07:56
AMDs CPU Architekturen sind eh relativ einfach aufgebaut. Es gibt keinen globalen Scheduler, sondern getrennt für Int und Float. Um die Wilkatzen als Bulldozerersatz zu nehmen, müsste das Design in jeglichem Bereich aufgeblasen werden. Bobcat, Jaguar/Puma sind ziemlich ausgeglichene Architekturen...Bulldozer nicht.

Was Steamroller ziemlich ausbremsen wird, ist die verkleinerte FPU(weniger Ports) und kein L3-Cache. Excavator sollte mehr Parallelism bringen. Das war jedenfalls damals so...ich denke den original Excavator werden wir niemals sehen.

So oder so, die gesamte Bulldozerlinie ist davon geprägt, dass AMD ein Modul als 2 Kerne sieht. IMO sollte ein Modul am ehesten mit einem Kern von Intel verglichen werden.

Bei gleichem Takt ist doch Haswell pro Kern 60-70% schneller als AMDs Kern.

Es ist kein Zufall, dass es so aussieht.

BD-Decoder: 4 Decoder -> je 1-2 MOps : Max 4 MOps
Intel: 4 Decoder -> 1 Complex(4uOps), 3 Simple(1uOps) : Max 4 uOps

Komplexe Instruktionen werden bei AMD in 2 MOps zerlegt, bei Intel in 4uOps.
Grundsätzlich hätte man für 2 Kerne nur maximal 4 MOps, Intel hat pro Kern bis zu 4 uOps(Beide haben natürlich ihre Sonderfälle wie BranchFusion oder MicroOp-Fusion). Intel hat auch hier Vorteile weil eine Unified-Reservation-Station benutzt wird, wo Float, ALU und AGU-Ops vorgehalten werden. AMD hat hier wieder dedizierte Funktionalitäten für Int und Float.
Außerdem hat Intel viel mehr Ausführungsressourcen pro Kern.

Für mich ist es einfach so, dass AMDs CMT-Ansatz eine Konkurrenz zu Intels SMT ist.

AMDs Architekturen sind halt doch etwas simpler, als Intels Dinger...

Akkarin
2013-12-07, 16:23:12
Was Steamroller ziemlich ausbremsen wird, ist die verkleinerte FPU(weniger Ports) und kein L3-Cache. Excavator sollte mehr Parallelism bringen. Das war jedenfalls damals so...ich denke den original Excavator werden wir niemals sehen.

Afaik war Steamroller "mehr Parallelism" und Exavator hatte "mehr Performance". Deswegen wurde der Dieshot auch so ernst genommen, weils super zum Parallelism gepasst hätte.

edit: http://techreport.com/r.x/2013_4_1_AMD_roadmap_confirms_Steamrollerbased_Opterons_this_year/slide.jpg

Nakai
2013-12-07, 17:33:33
Afaik war Steamroller "mehr Parallelism" und Exavator hatte "mehr Performance". Deswegen wurde der Dieshot auch so ernst genommen, weils super zum Parallelism gepasst hätte.

edit: http://techreport.com/r.x/2013_4_1_AMD_roadmap_confirms_Steamrollerbased_Opterons_this_year/slide.jpg

Ja, du hast recht.

Dann muss Excavator mehr Performance bringen. Die Frage ist wie? Ich denke, dass hier die HighDensity-Libraries reinspielen werden. Bei 28nm kann hier, laut AMD, noch 30% Diesize und Stromverbrauch erspart werden.
Wie sich das auf die Taktraten auswirken kann, keine Ahnung. Weniger Stromverbrauch erlaubt mehr Performance durch mehr Takt. Damit würde aber der Vorteil der Libraries ausgemerzt werden und die prophezeite TDP von 65W ist nicht mehr sicher.

Ich denke, Excavator ist wirklich nur ein optimierter Steamroller.

HOT
2013-12-07, 21:54:54
Intel:
- 32nm fertig Ende 2008
- erstes Tapeout Sandy A0 sicher Anfang 2009
- Release Anfang 2011 als Rev.D

AMD:
- 32nm fertig Mitte 2010
- Tapeout BD A0 Frühjahr 2010 auf unfertigem Prozess
- Release BD B2 unfertig geplant Frühjahr 2011, Verzögerung wegen Cache-Problemen und Fertigungseffizienz bis Ende 2011

Nach Fragen? Wer wundert sich noch, dass das CPU-Design nicht optimiert ist? Vishera ist ja nichts anderes als BD Rev.C - der ist fertig, aber auf Energieeffizienz optimiert ist er dennoch nicht. Der IBM SOI-Stromsauf-Prozess machts nicht besser, das bekackte µPGA-Package ist auch schlicht ungeeignet für die CPU. BD ist ne pure Notlösung, weil nix anderes da war und er musste auf veralteten, teils eigentlich wenig geeigneten Plattformen laufen.

Ja, du hast recht.

Dann muss Excavator mehr Performance bringen. Die Frage ist wie? Ich denke, dass hier die HighDensity-Libraries reinspielen werden. Bei 28nm kann hier, laut AMD, noch 30% Diesize und Stromverbrauch erspart werden.
Wie sich das auf die Taktraten auswirken kann, keine Ahnung. Weniger Stromverbrauch erlaubt mehr Performance durch mehr Takt. Damit würde aber der Vorteil der Libraries ausgemerzt werden und die prophezeite TDP von 65W ist nicht mehr sicher.

Ich denke, Excavator ist wirklich nur ein optimierter Steamroller.

High-Performance ist ja eigentlich 20nm SHP gewesen. Das ist Geschichte. Es ist wirklich sehr wahrscheinlich, dass Excavator maximal ne aufgemotzte FPU mitbringt, aber nicht mehr. Man hat so wenig Arbeit wie möglich in die BD-Sachen hineingesteckt. HD-Libs gibts bei EC mit Sicherheit nicht. Die kann man für 14XM-Prozessoren erwarten.

Akkarin
2013-12-07, 22:25:13
das bekackte µPGA-Package ist auch schlicht ungeeignet für die CPU

Was hat das Package genau damit zu tun bzw. warum ist LGA besser ?

StefanV
2013-12-07, 22:29:53
Weniger Sendeleistung -> besser für höhere Frequenzen, bessere Singnalqualität, weniger dämpfung usw.

Wobei optimal wäre wohl ein hybridpackage -> PGA für die (Strom)versorgung und LGA für Signale.

HOT
2013-12-07, 22:53:29
Das größte Problem ist eher der Heatspreader. Der ist so blöd geschliffen, dass die eigentlichen BD-Module, weil sie unter den tiefer gelegenen Ecken liegen und deshalb bei den meisten Kühlern nicht in direkten Kontrakt treten und die Kontaktfläche auch so schlicht viel zu klein ist. Dann sind zusätzlich fast alle Kühler auf Intels LGA-Gehäuse optimiert und konvex geschliffen, das verschlimmert sie Situation dramatisch. So kommt es, dass BDs unter Last einfach anfangen zu throtteln, weil sie schlicht zu hohe Dauertemperaturen fahren und somit die TDP von 125W reißen. Grade bei dem IBM-Prozess ist das recht krass - je höher die Temperatur, desto höher der Verbrauch. Den Effekt kann man sogar auf Prozessen beobachten, die nicht so krass auf Takt ausgelegt sind, beispielsweise auch bei Hawaii im TSMC-Prozes - aber bei Weitem nicht so krass. Man muss sich das Vorstellen: Das Gehäuse hat sich seit 2003 nicht mehr verändert! Damals waren die Bedingungen und Anforderungen ganz andere.

Will man, dass ein 4GHz-Vishi-Hitzkopf, also kein gutmütiger Prozessor, immer auf 4 bis 4,2GHz läuft, wie es eigentlich sein soll, bleibt einem schon fast nichts anderes übrig als den HS zu schleifen und einen Kühler mit planem Kühlerboden zu kaufen, damit geht die Wärme super weg und der Verbrauch runter - die CPU ist kalt und der Kühler warm, so wie es sein soll, hab ich alles schon ausprobiert. So läuft der Vishi eines Freundes, der trotz Scyhte Ninja3 Rev.B (also plan) absolut nicht aufhören wollte zu throtteln, egal was wir versucht haben. Er war immer auf 60-70°C. Es stellte sich heraus, dass das Gehäuse so uneben war, dass er fast keinen Kühlerkontakt hatte. Wir schliffen ihn plan und probierten es erneut - voilá die CPU läuft auf etwas unter 60°C auf 4,5 GHz absolut stabil und das jetzt seit Monaten.
Ich möcht nicht wissen, in wie vielen Fällen dieses drecks Prozessorgehäuse AMD die Reveiw verhagelt hat. In meinen Augen war das echt vermeidbar und grenzenlos dumm.

reaperrr
2013-12-07, 23:26:19
High-Performance ist ja eigentlich 20nm SHP gewesen. Das ist Geschichte. Es ist wirklich sehr wahrscheinlich, dass Excavator maximal ne aufgemotzte FPU mitbringt, aber nicht mehr. Man hat so wenig Arbeit wie möglich in die BD-Sachen hineingesteckt. HD-Libs gibts bei EC mit Sicherheit nicht. Die kann man für 14XM-Prozessoren erwarten.
Dazu passt aber nicht so ganz, dass es von Carrizo für Desktop nur Modelle mit maximal 65W geben soll. Würde nur die FPU verbessert, der Prozess gleich bleiben und weder HDL-Libraries noch andere Verbesserungen zum Einsatz kommen, wäre innerhalb von 65W wahrscheinlich nichtmal die Leistung des Kaveri-A10-7850 drin, dann könnte man XV/Carrizo für Desktop auch gleich ganz lassen. Die niedrigere maximale TDP lässt jedenfalls auf was anderes schließen als ein Trinity->Richland-ähnliches Upgrade, ein bisschen mehr scheint sich da schon zu ändern, was auch immer das dann im Detail sein mag.

Akkarin
2013-12-08, 00:23:20
Ist Trinity->Richland eigentlich auch ne neue rev oder nur bessere Fertigung ?

HOT
2013-12-08, 01:09:57
Nicht vergessen, dass Kaveri auf einem nagelneuen Prozess setzt, bei Carrizo ist der aber voll ausgereift. Vielleicht gibts auch ein paar stromsparende Optimierungen.

Ist Trinity->Richland eigentlich auch ne neue rev oder nur bessere Fertigung ?

Kommt mir wie Trinity in heile vor.

Liszca
2013-12-08, 01:16:27
Kommt mir wie Trinity in heile vor.

Was ist denn dort nennenswert kaputt außer dass er langsam ist?

Akkarin
2013-12-08, 02:13:44
"Trinity in heile" wäre eine neue Revision ? IPC verbesserungen gabs aber nicht, von daher nur ein sprung von e.g. C0 auf C1 ?

Undertaker
2013-12-08, 10:27:35
"Trinity in heile" wäre eine neue Revision ? IPC verbesserungen gabs aber nicht, von daher nur ein sprung von e.g. C0 auf C1 ?

Es gab zumindest einen neuen Mikrocontroller für die Turbo-Steuerung, ansonsten wurde der Chip allerdings nicht groß angetastet.

robbitop
2013-12-08, 12:46:09
wer sagt das TSMCs /GloFos 32nm vergleichbar mit Intels 32nm ist?

Gerade aktuell sind es doch komplett andere Prozesse mit SOI gegen Bulk.
Sollte eigentlich mindsst gleichwertig sein. SOI ist ein Vorteil. Beide Prozesse haben HighK Metal Gates.

Loeschzwerg
2013-12-09, 13:03:41
http://www.gamersnexus.net/news/1240-future-of-amd-cpus-fx-not-eol

Hätte mich auch irgendwo gewundert, AMD wird das Opteron Geschäft sicher nicht komplett schleifen lassen.

AnarchX
2013-12-09, 13:55:46
http://www.cpu-world.com/news_2013/2013120701_Pre-order_prices_of_upcoming_AMD_Kaveri_and_Richland_APUs.html

$190 für den Top-Kaveri?

Dafür kann man ja schon ein X4 Richland System mit Mainboard und HD 7730 (GDDR5) zusammenstellen.

Undertaker
2013-12-09, 14:05:26
An anderer Stelle wurde schon angessprochen, dass der Shop wohl gerade bei Neuvorstellungen immer sehr hohe Preise aufruft. Das wird wohl real noch deutlich weniger werden.

HOT
2013-12-09, 17:32:18
Es gab zumindest einen neuen Mikrocontroller für die Turbo-Steuerung, ansonsten wurde der Chip allerdings nicht groß angetastet.

Der dürfte vorher auch schon da gewesen sein, nur halt kaputt. Genauso sind ja viele noch am hadern ob RCM beim Rev.A Trinity überhaupt aktiv war. Bei Richland geht RCM offensichtlich. RCM ist ja das Mainfeature des Piledriver.

Zambezi -> BD mit viel kaputt
Vishera (=Zambezi in neuer Rev.) -> BD in heile
Trinity -> PD ohne RCM/Turbocontroller
Richland (=Trinity in neuer Rev.) -> PD in heile
Kaveri -> SR völlige Katastrophe
Kaveri SR-B -> SR in heile

ndrs
2013-12-09, 17:46:10
Genauso sind ja viele noch am hadern ob RCM beim Rev.A Trinity überhaupt aktiv war.

Ich glaube kaum, dass man diese Funktion, die fest verdrahtet werden muss, einfach an und abschalten kann. Wenn dann war das RCM in dem Sinne kaputt, dass es nicht den gewünschten Effekt (Energieeinsparung) erzielt hat. Deaktiviert war es dann aber eher nicht.

HOT
2013-12-09, 21:56:47
Ich glaube kaum, dass man diese Funktion, die fest verdrahtet werden muss, einfach an und abschalten kann. Wenn dann war das RCM in dem Sinne kaputt, dass es nicht den gewünschten Effekt (Energieeinsparung) erzielt hat. Deaktiviert war es dann aber eher nicht.
Man kann soweit ich weiss sowohl als auch machen. Das ist an und abschaltbar, weil RCM bei niedrigen Takten kontraproduktiv wirkt. Piledriver können beides.

OBrian
2013-12-10, 04:43:03
Kaveri -> SR völlige Katastrophe
Kaveri SR-B -> SR in heile die These könnte die Verspätung von Kaveri erklären, aber nicht die Benennung "Steamroller-B", das deutet auf architektonische Änderungen ggü. einem ersten Kaveri-Versuch hin, nicht auf ein Bugfix eines eh bisher unveröffentlichten Produktes.

Andererseits wird mit den Codenamen inzwischen genauso ein Schindluder getrieben wie mit den offiziellen Marketingbezeichnungen. Beispiel "Richland", früher hätte man sowas ehrlicherweise als "Trinity Rev. soundso" bezeichnet. Also kann das "B" im Steamroller-B auch nur eine Verwirrungstaktik sein. Mangels eines von der Öffentlichkeit testbaren Steamroller-A-Produktes wird man sowieso nie rausfinden können, welche Vermutung stimmt.

HOT
2013-12-10, 16:37:56
Jo. SR-B ist ausnahmsweise mal korrekt benannt mMn. Da es keinen Kaveri bisher gab, ist der Name ja auch nicht "verbrannt". Mit "B" betont man nur, dass die Verspätung nicht grundlos war.
Trinity mit Piledriver A
Richland = Trinity B mit Piledriver B
Zambezi = Orochi B mit Bulldozer B
Vishera = Orochi C mit Bulldozer C, wird nicht grundlos von etlichen Programmen immernoch als Zembezi erkannt/bezeichnet, Vishera ist mMn ein Roadmap-Codename für einen fiktiven Piledriver, den es dort nicht gibt
Kaveri mit SR A
Kaveri mit SR B

Bei Trinity/Richland/Kaveri sind die Codenamen für Prozessor und Die gleich, bei Zambezi/Vishera (Prozessor) + Orochi (Die) nicht. Kein Wunder, bei den APUs gibts auch nur ein Package. Das ist aber schon richtig aufgeräumt. Zu K10-Zeiten war AMD viel schlimmer mit etlichen Codenamen für alles Mögliche Unterwegs:

Ridgeback (Die) = Deneb (AM2+/3-Prozessor mit L3 und 4 Kernen)
Ridgeback (Die) = Propus (AM2+/3-Prozessor mit deaktiviertem L3 und 4 Kernen)
Ridgeback (Die) = Rana (AM2+/3-Prozessor mit deaktiviertem L3 und 3 von 4 aktiven Kernen)
Ridgeback (Die) = Heka (AM2+/3-Prozessor mit L3 und 3 von 4 aktiven Kernen)
Ridgeback (Die) = Callisto (AM2+/3-Prozessor mit L3 und 2 von 4 aktiven Kernen)
Es gab sogar Ridgeback die zu Propus 512k kastriert wurden, also nur 2 aktive Kerne ohne L3 ;)
+ etliche Serverprozessor und Mobilprozessor-Codenamen
Bloodhound (Die) = Propus, Rana und Regor 512k
Dachshound (Die) = Regor und Regor 512k
Pharao (Die) = Thuban (6 Kerne)
Pharao (Die) = Zosma (4 Kerne)

usw.
AMD hat mit den 1000en Codenamen aufgehört und beschränkt sich jetzt immerhin auf das Die, egal wieviele aktive Module und wie der L3 deaktiviert wurde. Deshalb nenne ich auch alle Zambezi/Vishera einfach Orochi. Gibt es tatsächlich in 2014 einen echten Piledriver auf AM3+, dann wird der zwar evtl. von AMD Vishera 2.0 genannt, er ist dann aber wahrscheinlich kein Orochi mehr sondern Viperfish ;). Genug Chaos angerichtet :D.

Codenamen:
http://www.planet3dnow.de/vbulletin/showthread.php/406090-AMD-Family-15h-Chaos?p=4649263&viewfull=1#post4649263

OBrian
2013-12-10, 20:30:10
Bei Trinity/Richland/Kaveri sind die Codenamen für Prozessor und Die gleich, bei Zambezi/Vishera (Prozessor) + Orochi (Die) nicht. Kein Wunder, bei den APUs gibts auch nur ein Package.Strenggenommen nicht, wir kennen nur den Die-Codenamen nicht. Und Kaveri wird es auch unter dem Namen "Berlin" geben, vielleicht gibt es dann irgendwo auch den Die-Codenamen, um uns weiter zu verwirren ;)

mboeller
2013-12-11, 11:48:27
hübsch, AMD hat doch noch eine Marketing-Abteilung :P

http://www.planet3dnow.de/cms/6547-amd-kaveri-a10-7850k-battlefield-4-bundle/

Das Battlefield-Bundle ist imho ziemlich nett.

Kann eigentlich jemand was mit den Performance-Aussagen anfangen?
Firestrike- und PCMark8-Ergebnisse sind nicht gerade häufig zu finden.

Und so toll scheinen die +40% beim Firestrike auch nicht zu sein:
http://www.muycomputer.com/wp-content/uploads/2013/10/win8.1+competitive+chart+update.jpg (Win 8.1)

Quelle: http://semiaccurate.com/forums/showpost.php?p=202202&postcount=2073

OBrian
2013-12-12, 00:44:03
Das sind ja auch nur alles Aussagen zur GPU, aber mit der hat AMD eh kein Problem. Zur CPU-Performance gibt es bisher gar keine Aussagen, wieder mal ist AMD informationstechnisch absolut versiegelt, und das ein paar Wochen vor Produktlaunch. Es ist nur klar, daß der Takt niedriger sein wird, aber bestimmt werden sie keine neue APU mit weniger Leistung als der Vorgänger bringen (TDP-Klasse bleibt ja etwa dieselbe mit 95W statt 100W, man kann also nicht sagen "zwar nur gleiche Leistung, aber dafür weniger Stromverbrauch"). Muß man wohl einfach abwarten und das beste hoffen.

Duplex
2013-12-16, 14:12:39
A10-7850k @4,9Ghz
http://postimg.org/image/b6fmqohpp/

http://www.planet3dnow.de/vbulletin/showthread.php/402114-Kaveri-der-Trinity-Nachfolger?p=4853894&viewfull=1#post4853894

Nakai
2013-12-17, 01:32:26
Hui, da Cinebench gut mit den Cores skaliert. Taktnormiert auf 4,0 Ghz wären das ~450 Punkte für 2M/4 Cores. Ein A10-5800 erreicht etwa ~320. Ein Core i5-3240(2C/4T) erzielt nur ~300 Punkte, aber bei 3,4 GHz. Ein i5-3330(4C/4T) erzielt ~420 Punkte bei 3,0 GHz.

Starke Steigerung...wenns mit der allgemeinen Performance stimmt, hat Kaveri eine wirklich passable Leistung, nicht so wie die missratenen Vorgängern.

mboeller
2013-12-17, 07:53:18
Das ganze schöne cinebench-Bildchen soll ein billiger fake sein. Wenn man sich das Bild vergrößert anschaut sieht es auch für mich so aus, als ob die "A10-7850" - Beschriftung nicht zum Rest des Bildes passt.

Hängt eure Hoffnungen also nicht zu hoch.

Siehe auch semiaccurate forum diskussion zum kaveri.

M4xw0lf
2013-12-17, 09:16:43
Zu gut um wahr zu sein, höchstwahrscheinlich.

Nakai
2013-12-27, 19:51:46
Kaveri hat anscheinend ein 256Bit SI. Leider macht der Sockel ein Strich durch die Rechnung, welcher nur 128Bit unterstützt.

http://beyond3d.com/showpost.php?p=1817093&postcount=969

Ist interessant für Kaveri-Steckkarten(HSA-Karten) oder direkt auf die Platine fürs Notebook. :eek:

Mal gucken was alles kommt, aber das überrascht mich schon etwas...Quadchannel für Kaveri...nett.

samm
2013-12-27, 20:44:10
Ich traue SiSoft da schlicht und einfach nicht ;)

Nakai
2013-12-27, 20:58:02
Ich traue SiSoft da schlicht und einfach nicht ;)

Ich auch nicht, aber es würde Sinn machen.

SiSoft guckt anscheinend die MemoryController an und zählt die Anzahl. Kaveri hat Support für GDDR5. Evtl gibt es GDDR5 und DDR3 MemoryController(jeweils 2*64; also Summe 4). Wär ne andere Möglichkeit.

StefanV
2013-12-27, 21:04:41
Naja, möglich wäre es durchaus, dass man 4 Speichercontroller implementiert, aber für den Desktop nur zwei nutzt. Schau doch mal wie viele HT Links so ein gewöhnlicher AMD Prozessor mit Hypertransport hat.

In der Regel sind es 3 oder 4, auch bei Desktop Athlons und Phenoms, eben weil es wohl billiger ist, das drin zu lassen als es raus zu optimieren und zwei Dice zu fertigen...

Wie gesagt, für die HSA Steckkarten mit auf dem Board aufgelöteen Speicher wäre das durchaus möglich.

Nakai
2013-12-27, 21:15:10
Mhh, evtl gibt es auch einen Sockel G34-Ableger. Dieser Sockel unterstützt 4 Speicherkanäle für DualDie-Konfigurationen. Ein Kaveri-Die auf einem Sockel.

AMD sprach auch definitiv von neuen Server-Produkten in 2014.

ndrs
2013-12-28, 00:05:23
G34 wohl eher nicht, da jener noch HT nutzt. Ein nachfolger mit entsprechendem PCIe-Chipsatz ist natürlich möglich.

StefanV
2013-12-28, 01:11:19
..aber wohl eher unwahrscheinlich...

Denke, dass man dafür Steckkarten mit BGA Prozessor verwenden muss...

Skysnake
2013-12-28, 12:28:52
Wie kommste denn darauf?

y33H@
2013-12-28, 12:48:24
Karten mit BGA nennt AMD erst für Toronto, noch nicht für Berlin.

Skysnake
2013-12-28, 13:28:58
Meint ihr die Moonshot "Karten" oder was?

Oder praktisch so was wie MIC?

Wenn ja, sollte man das "differenzierter" sehen. Es ist halt nen anderer Formfaktor, hat aber nicht zwigend was mit irgendwelchen unabänderbaren Notwendigkeiten zu tun.

Alles im Bereich von PCI-E 3.0 kann man noch gut ohne BGA ans laufen bringen. Bei allem drüber raus, also insbesondere bei nochmaliger Verdoppelung der Frequenzen lege ich meine Hand aber nicht mehr ins Feuer.

y33H@
2013-12-28, 13:40:38
Module mit aufgelötetem BGA-Chip, die als PCIe-Steckkarte eingebaut werden.

Skysnake
2013-12-28, 16:51:46
Das hat aber nur was mit dem Formfaktor zu tun und hat keine tieferen technischen Gründe, außer Bauhöhe usw.

Nakai
2013-12-28, 18:31:46
Was SiSoft da auch immer ausspuckt, ändert nichts daran, dass Kaveri für den Desktop nicht mehr als 2 Memory-Channels(2*64Bit) bekommt.

Ahja, wie werden denn die derzeitigen APUs in Notebooks verkauft? Die werden doch direkt auf die Platine verlötet, da es keinen MobileSockel von AMD mehr gibt.


mfg

Undertaker
2013-12-28, 20:32:09
Richland gibt es sowohl gesockelt als auch verlötet.

Thunder99
2013-12-30, 14:07:20
A10-7850k @4,9Ghz
http://postimg.org/image/b6fmqohpp/

http://www.planet3dnow.de/vbulletin/showthread.php/402114-Kaveri-der-Trinity-Nachfolger?p=4853894&viewfull=1#post4853894
Mit dem Werten des Users von dem Forum (http://www.planet3dnow.de/vbulletin/showthread.php/402114-Kaveri-der-Trinity-Nachfolger?p=4854924&viewfull=1#post4854924) wäre das ja eine Steigerung um grob ~40%. Zu schön um wahr zu sein :eek: :confused:

mboeller
2013-12-30, 14:40:56
das sollte dich wieder runterbringen:

http://www.computerbase.de/news/2013-12/finale-kaveri-zeigen-sich-kurz-vor-marktstart/

Allerdings zeigt der CPU-Z Screen max. 2GHz an (unter Multiplier: 8.5 - 20) :cool:

Zum Vergleich ein paar Richland-Screens (nach unten scollen):
http://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/26482-test-amd-a10-6800k-und-a10-6700.html?start=1

Nakai
2013-12-30, 15:03:31
Das wollte ich auch grad posten. Es wäre interessant, wie der Cinebench R15 Wert zustandekam. Auch mit max. 2,0 GHz?

Raff
2013-12-30, 15:15:18
Ist mittlerweile halbwegs bekannt, um wie viel ein Steamroller-Modul pro Takt gegenüber Piledriver zulegen kann? Okay, das ist bei Kaveri nur am Rande spannend, aber die GPU ist eben nicht alles. :D

MfG,
Raff

fondness
2013-12-30, 15:17:44
Gibt nur die offiziellen Angaben von AMD, die 10-20% mehr CPU Leistung versprechen. Allerdings sinkt ja der Takt...
So oder so wird das wohl gerade mal so reichen um den fehlenden L3-Cache aufzufangen.

Schaffe89
2013-12-30, 19:44:19
Ich hab grad was recht erstaunliches von meiner dollen Quelle erfahren.
Angeblich soll die Single Thread Performance im Vergleich zu Richland gleich hoch bleiben (9% weniger Takt) und die Multithreaded Performance aber bis zu 30% ansteigen.

Insofern könnte es mit "Greater Parallelism" zu tun haben eine bessere Auslastung von CMT.
Sollte das stimmen hat AMD wohl doch eine ziemlich überzeugende Architektur.

Warum sie das nicht gleich als Steamroller x8 für FM2+ bringen??

Akkarin
2013-12-31, 01:20:41
Kaveri ante portas!
http://geizhals.at/eu/?cmp=1050012&cmp=1050011
Jetz\t wird es spannend, endlich!
Hoffentlich kommen bals Benchmarks/Reviewa :up:--

Raff
2013-12-31, 10:20:59
Insofern könnte es mit "Greater Parallelism" zu tun haben eine bessere Auslastung von CMT.

Hat Piledriver-CMT tatsächlich ein Auslastungsproblem? Wenn ja, wo genau? Legen die INT-Cores infolge einer überlasteten FPU Leerlaufzyklen ein? Taugt das Front-End nichts? Etwas anderes?

MfG,
Raff

sklave_gottes
2013-12-31, 12:36:19
Hallo,

Da gibt es kein großes Problem mit der Auslastung. Die haben einfach dafür gesorgt das noch weniger shared Einheiten auf den Modulen sind. So das man durch massive Auslastung aller cores weniger Leistung verliert. Das mit den Modulen war von Anfang an die größte Schwäche von Bd.

Locuza
2013-12-31, 12:59:32
Hat Piledriver-CMT tatsächlich ein Auslastungsproblem? Wenn ja, wo genau? Legen die INT-Cores infolge einer überlasteten FPU Leerlaufzyklen ein? Taugt das Front-End nichts? Etwas anderes?

Bei der Steamroller Präsentation hat AMD auf den Folien geschrieben, keine Kompromisse bei 2 Threads.
http://www.brightsideofnews.com/Data/2013_3_6/Analysis-AMD-Kaveri-APU-and-Steamroller-x86-64-Architectural-Enhancements-Unveiled/AMD_steamroller_feed_cores.jpg

Agner Fog meinte ein Decoder ist ein großer Engpass. Ein eigener für jeden Integer-Core würde beim Durchsatz sehr helfen und gerade das hat AMD mit Steamroller gemacht.

Mal eine alte P3DNow! News diesbezüglich:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1330775558

Knuddelbearli
2013-12-31, 13:15:31
Hallo,

Da gibt es kein großes Problem mit der Auslastung. Die haben einfach dafür gesorgt das noch weniger shared Einheiten auf den Modulen sind. So das man durch massive Auslastung aller cores weniger Leistung verliert. Das mit den Modulen war von Anfang an die größte Schwäche von Bd.


Wenn das so wäre müsste ein FX8 mit je 1 Int Kern deaktiviert pro Modul ja richtig abgehen. Tut er aber nicht im Gegenteil er gewinnt nur minimal dazu.

reaperrr
2013-12-31, 13:45:13
Wenn das so wäre müsste ein FX8 mit je 1 Int Kern deaktiviert pro Modul ja richtig abgehen. Tut er aber nicht im Gegenteil er gewinnt nur minimal dazu.
Es geht eher um die pro-Kern-Leistung, wenn 2 Threads auf einem Modul laufen. Ich habe einen Test gesehen (frag mich nicht wo, ist schon länger her) wo die Skalierung mit Threads von BD und SB mit aktivem HT/SMT verglichen wurde.

Ergebnis war, dass BD über 4 Threads hinaus zwar besser, aber nicht so viel besser wie man es von CMT erwarten sollte gegenüber HT skaliert hat. Der Einbruch bei der Skalierung ab dem 5. Thread war jedenfalls deutlich.

AMD würde jetzt keinen zweiten, Strom und Platz verbrauchenden Decoder einbauen, wenn sie nicht zu der Erkenntnis gekommen wären, dass das für die Multi-Threading-Leistung doch besser als ein geteilter Monster-Decoder ist. An der ST-Leistung wenn nur ein nennenswerter Thread auf dem Modul läuft wird das aber nicht viel ändern, da bringen andere Sachen (aufgebohrte AGLUs und größerer L1I-Cache, reduzierte L2-Latenz) mehr.

Skysnake
2013-12-31, 15:35:17
/sign.
Ein zweiter Decoder sollte da wohl schon was bringen. Ich hab das auch so immer verstanden, dass der bei maximaler Last von zwei Threads eben limitiert.

Ein großer Decoder für beide Int-Cores wäre zwar sicherlich interessanter, aber wohl nicht machbar für AMD, oder eventuell auch einfach die schlechtere Wahl. Keine Ahnung. AMD wird aber schon wissen, warum Sie auf zwei Decoder wieder gegangen sind.

Was an sich aber gut ist und ja auch bleibt ist die FLEX-FPU. Das Ding ist vom Konzept her schon cool!

Eventuell kommt ja wirklich ne breitere/zweite FPU dazu. Wer weiß. Ich fänd so ne doppelte Flex-FPU auf jeden Fall SEHR geil :biggrin::ucatch:

sklave_gottes
2013-12-31, 16:31:03
Wenn das so wäre müsste ein FX8 mit je 1 Int Kern deaktiviert pro Modul ja richtig abgehen. Tut er aber nicht im Gegenteil er gewinnt nur minimal dazu.

Ein FX 8350 mit nur einem aktiven thread pro kern, ist bis zu 25% schneller wie ein FX 4350 mit dem selben Takt. Deswegen sind die 2 moduler auch so konkurenzlos schlecht.
Es gab gerade auf französisch schöne vergleiche. Leider wird sowas in der deutschen Presse nie getestet.

Knuddelbearli
2013-12-31, 16:37:26
25% sind nicht viel

HT bringt +30%

-25% sind aber +75% für SMT das ist deutlich mehr!

und doch das wurde auch von deutschen Seiten getestet 3dnow zB
HT4U bin ich mir gerade nicht sicher

http://www.planet3dnow.de/cms/366-vishera-reloaded/subpage-performance-mit-vier-threads/

und dort sind es deutlich weniger als deine 25%
In Spielen ist Unterschied nur einstellig

sklave_gottes
2013-12-31, 19:02:35
25% sind nicht viel

HT bringt +30%

-25% sind aber +75% für SMT das ist deutlich mehr!

und doch das wurde auch von deutschen Seiten getestet 3dnow zB
HT4U bin ich mir gerade nicht sicher

http://www.planet3dnow.de/cms/366-vishera-reloaded/subpage-performance-mit-vier-threads/

und dort sind es deutlich weniger als deine 25%
In Spielen ist Unterschied nur einstellig

Ich habe geschrieben bis zu, es gibt auch Spiele die garnichts verlieren weil sie nur 1-2 threads unterstützen. Einfach mal bissel mitdenken. Aber das hilft uns nicht weiter. Das Modul Design verliert erst dann massiv an Leistung wenn das Spiel mindestens 4 threads komplett audlastet. Und das ist selten der Fall. Wenn wir den selben Test mit einem Modul machen haben wir selbst in Spielen die 25% . Und das ist einfach zuviel . Da die ipc sowieso schon so schlecht ist, wird es so nur Noch schlimmer.

Knuddelbearli
2013-12-31, 20:05:46
bis zu Werte sind für einen Vergleich absolut sinnlos ...

Toll wäre es ja wenn AMD in einem Spiel +200% vor Intel wäre nützt nur nix wenns in alle anderen -40% ist ...

marc-05
2014-01-04, 05:33:14
Benchmark Vergleich eines Kaveri´s 7800 vs 6800k beide 3,5GhZ
http://imgur.com/a/OYWL0#20

7800er kommt mit 65W TDP
http://s14.directupload.net/images/140104/ucexhznm.jpg (http://www.directupload.net)

Bei Semiaccurate zeigt man noch vermeindlich Kaveri Bench Folie.
http://juanrga.com/en/AMD-kaveri-benchmark.html

Quellen :overclock forum (http://www.overclock.net/t/1456226/baidu-amd-kaveri-early-review)
semiaccurate forum (http://semiaccurate.com/forums/showthread.php?t=7104&page=258)

Skysnake
2014-01-04, 08:52:39
Weniger Verbrauch bei leicht besserer Leistung. Das sieht doch gut aus. Cinebencht z.B. +10% ist doch ganz ok. :up:

SuperPi ist aber mal heftig schnell :confused: Das wäre schon zu gut um Wahr zu sein.

fondness
2014-01-04, 10:20:08
Die GPU ist völlig Bandbreitenlimitiert, kaum schneller als auf Trinity. Da wäre ein drittes Modul IMO sinnvoller gewesen.

Skysnake
2014-01-04, 11:07:51
Der Speicherduchsatz steigt doch aber? Oder was ist das für ein Bench?

Also der mit 53 vs 64,47 GB/s

disap.ed
2014-01-04, 11:15:59
Ja, ist mir auch aufgefallen. Dürfen gerne die nächste Generation auf 512 Shader Units bleiben, für's ernsthafte Spielen benötigt man ohnedies eine separate GPU. Vielleicht wären dann beim 20nm-Sprung 4 Module mit dieser Grafik drinnen? Kann man das abschätzen?

fondness
2014-01-04, 11:16:00
AFAIK ist der einzige Unterschied das Trinity "offiziell" nur DDR3-2133 unterstützt und Kaveri offiziell auch DDR3-2400. Allerdings konnte man eine Trinity natürlich auch schon lange mit DDR3-2400 oder höher betrieben.

Lowkey
2014-01-04, 11:17:24
Was aber praktisch schwerer war, da der eine oder andere User auf FM2 Plattformen mehr als 1.65v geben mußte, wo bei Intel nur 1.55v nötig waren. Man erinnere sich an das erste Asrock ITX Board, dass durchgebrannt ist.

Pirx
2014-01-04, 11:22:10
Selbst DDR3-2400 hat doch "nur" theoretische 38,4 GB/s im Dualchannel.
Sobald es nicht die allerneuesten Spiele sein müssen, kommt man auch mit Trinity schon gut hin - aber es gibt noch anderes, als Spiele (bzw. Kaveri wird für mehr geeignet sein)

Mit meinem 5600K komme ich nicht über 2133... (was ja auch egal ist;))

SavageX
2014-01-04, 11:30:35
Bitte was die Grafikleistung angeht auch http://semiaccurate.com/forums/showpost.php?p=204187&postcount=2669 beachten.

Kurzum: Engineering Sample, den Testern erscheint es seltsam, dass die Grafikleistung bisweilen unter der Vorgängergeneration liegt.

marc-05
2014-01-04, 15:54:51
Kleiner Hitzkopf ,mit Stock Takt "throttelt" im Cinebench auf 3,24 Pt
3,5GhZ war es 3,33
http://semiaccurate.com/forums/showpost.php?p=204144&postcount=2631

OBrian
2014-01-04, 19:02:00
muß auch ein ES-typisches Problem sein, denn eine APU mit 65 W TDP wird wohl kaum bei Standardtakt schon trotteln. Wäre das ein generelles Problem (d.h. der Betrieb bei dem Takt erzeugt einfach mehr Abwärme), hätte das größte 65-W-Modell gleich einen geringeren Takt bekommen oder wäre als 95-W-Modell eingeordnet worden.

Liszca
2014-01-04, 23:14:20
... hätte das größte 65-W-Modell gleich einen geringeren Takt bekommen oder wäre als 95-W-Modell eingeordnet worden.

Und mit welcher logik?
Weniger takt und noch zusätzlich höhere tdp?
Wenn das wirklich so sein sollte dann hat amd den fail-hattrick.

Undertaker
2014-01-05, 15:06:01
Weniger Verbrauch bei leicht besserer Leistung. Das sieht doch gut aus. Cinebencht z.B. +10% ist doch ganz ok. :up:

SuperPi ist aber mal heftig schnell :confused: Das wäre schon zu gut um Wahr zu sein.

Warum? Man muss halt auch sehen, wie extrem schlecht SuperPi aktuell läuft. Da muss das Programm nur auf irgendeine unbedeutende Änderung extrem reagieren und schon hat man so eine Steigerung. Ich hatte vor einiger Zeit mal eine Primzahlrechner in Java geschrieben, der auf einem Arrandale 3x so schnell wie auf einem Phenom II lief - lag nur an irgendeinem Rechenschritt, der halt sehr oft vorkam und dem AMD nicht schmeckte.

Lowkey
2014-01-05, 20:02:02
Für SuperPi gibt es doch von thestilt den x87 Patch. Der macht SuperPi auf AMD FM2 CPUs deutlich schneller. Ergo "This is Intels World" :D

Bin mal gespannt wieviele Reviews des Kaveri dann mit Windows 7 statt Windows 8.1 Rechnern gemacht werden. Die persönliche Vorliebe des Testers ignoriert gerne den leichten Vorteil.

Ich hoffe doch schwerst auf einen Review eines AMD Fans, denn die Tests zum Richland waren mau bzw. teils sehr einseitig und oberflächig.

AnarchX
2014-01-06, 08:17:38
Kaveri Tech Day Folien:
http://linustechtips.com/main/topic/98295-amd-tech-day-kaveri-mantle-slides/
http://www.overclock.net/t/1456706/purepc-pl-amd-kaveri-tech-day-relacja-na-ywo-z-las-vegas

DinosaurusRex
2014-01-06, 09:21:47
Ich finde es sehr klug von AMDs PR Abteilung, die Leistung der APU jetzt in Compute Cores anzugeben und nicht mehr in CPU Cores und Stream Processors:

http://www.abload.de/img/kdl1quz63.png

AnarchX
2014-01-06, 09:26:20
2,4 Mrd. Transistoren (http://wccftech.com/amd-kaveri-apu-architecture-specifications-prices-revealed-241-billion-transistors-245mm2-die/)?
Hat sich da AMD mal wieder verzählt?

Für eine 512SPs GCN iGPU = <<1,5Mrd. und 2 Module ohne L3-Cache scheint das etwas sehr hoch. Zumal Trinity bei 1,3 Mrd. lag.

Skysnake
2014-01-06, 09:28:03
Ja, PR technisch ist das wahrscheinlich wirklich nicht schlecht.

Im ersten Moment dachte ich: "Nee.... Das ist nicht gut weil..." tja und dann viel mir nichts ein :ugly:

Gut, die Sache wird vermischt, aber so lange die Angabe von CPU&GPU Cores noch vorhanden bleibt, sind eigentlich alle glücklich, und insbesondere der Leie wird sich über die höhere Zahl halt freuen :rolleyes:

fondness
2014-01-06, 10:13:59
Auch interessant zum 28nm SHP Prozess bei GF:

http://wccftech.com/wp-content/uploads/2014/01/AMD-Kaveri-Process1-635x423.jpg

Der Prozess scheint also auf Kosten hoher Taktraten deutlich stärker auf GPUs optimiert, vielleicht kommt auch deshalb keine reine CPU mehr in 28nm.

dildo4u
2014-01-06, 13:07:52
lol AMD Full Details * 1920*1080p Medium.


http://imgur.com/a/oZQ7R#1

Duplex
2014-01-06, 14:00:28
In der Urspünglichen Form von 22nm SOI hätte man gegenüber Trinity/Richland deutlich zulegen können, ich sehe in 28nm noch nichts besonderes gegenüber Richland, von einem Halfnode Prozess sollte man generell keine Wunder erwarten.

AnarchX
2014-01-06, 14:50:58
Sofern AMD sich nicht verzählt hat, ist die Transistordichte gegenüber 32nm um 85% höher.

Gipsel
2014-01-06, 15:00:04
Sofern AMD sich nicht verzählt hat, ist die Transistordichte gegenüber 32nm um 85% höher.Zumindest die SRAM-Dichte der L2-Caches scheint beträchtlich erhöht worden zu sein, falls das Kaveri-Bildchen etwas mit der Wahrheit zu tun hat. Da hatte bisher TSMC ja einen beträchtlichen Vorteil (so grob aus der Hüfte bald Faktor 2) gegenüber den in Llano und Trinity verwendeten SRAM-Macros.

fondness
2014-01-06, 15:02:30
Wird ja auf der verlinkten Folie oben auch erwähnt das der 28nm SPH Prozess deutlich stärker Richtung GPU densitiy optimiert wurde.

MadManniMan
2014-01-06, 15:05:16
lol AMD Full Details * 1920*1080p Medium.


http://imgur.com/a/oZQ7R#1

Hat da der Zensor Marketingmensch gepennt? ;D

Knuddelbearli
2014-01-06, 15:16:11
http://linustechtips.com/main/topic/98295-amd-tech-day-kaveri-mantle-slides/

der 45W geht in 3DMark ja richtig ab, da noch ein bisschen selektieren und damit ein ordentliches Laptop ...

Nur baut ja niemand ordentliche AMD Notebooks ...

Skysnake
2014-01-06, 15:24:15
Oder der typische AMD-Folienfehler, ohne den eh alles nur Fake gewesen wäre ;D

Mit Traditionen bricht man ja teilweise nur sehr schwer ;D

Sorry, das AMD-Bashing musste gerade sein :biggrin:

Fragt sich jetzt nur, ob Sie jetzt sich positiv gefailed haben, also das Full-Details gelogen ist, oder aber "Medium" oder die FPS von Max sind.

So wie ich AMD einschätzen würde, sind die FPS WErte von alles auf MAX ;D

So richtig schön ins eigene Knie dann geschossen.

mboeller
2014-01-06, 15:28:56
Sofern AMD sich nicht verzählt hat, ist die Transistordichte gegenüber 32nm um 85% höher.


...nicht nur gegenüber 32nm:

Haswell 4C / GT2 => 1.4 BT / 177mm² = 7,91 Mio Transistoren pro mm² @ 22mm

Kaveri 4C / 8GCN => 2.4 BT / 245mm² = 9,83 Mio Transistoren pro mm² @ 28nm

...witzig!


Quelle: http://www.anandtech.com/show/7003/the-haswell-review-intel-core-i74770k-i54560k-tested/5

dildo4u
2014-01-06, 15:30:45
http://linustechtips.com/main/topic/98295-amd-tech-day-kaveri-mantle-slides/

der 45W geht in 3DMark ja richtig ab, da noch ein bisschen selektieren und damit ein ordentliches Laptop ...

Nur baut ja niemand ordentliche AMD Notebooks ...
Das sind Desktop APU's,45W sind schon 3 mal Ultrabook Verbauch.Der Markt für dicke Laptop/Desktop Replacement dürfte in Zeiten von MacBook Air immer kleiner werden.

Gipsel
2014-01-06, 15:32:23
...nicht nur gegenüber 32nm:

Haswell 4C / GT2 => 1.4 BT / 177mm² = 7,91 Mio Transistoren pro mm² @ 22mm

Kaveri 4C / 8GCN => 2.4 BT / 245mm² = 9,83 Mio Transistoren pro mm² @ 28nm

...witzig!


Quelle: http://www.anandtech.com/show/7003/the-haswell-review-intel-core-i74770k-i54560k-tested/5
Hawaii: TSMC 28HP, 6,2 Mrd. Transistoren, 438mm² => 14,2 Mio Transistoren pro mm²

AMD sagt doch, daß der 28SHP Prozess von GF mehr auf Dichte getuned ist, um der GPU entgegenzukommen (viele langsame Transistoren eng beeinander statt weniger schnelle, die weiter auseinander liegen). Sieht man auch sehr stark an den SRAMs.

Knuddelbearli
2014-01-06, 15:43:57
Das sind Desktop APU's,45W sind schon 3 mal Ultrabook Verbauch.Der Markt für dicke Laptop/Desktop Replacement dürfte in Zeiten von MacBook Air immer kleiner werden.

Tellerrand und so.
und 45W ist nicht viel dicker als ein Air wenn es ordentlich gemacht wird. Der Core i7-4700HQ wird in einigen recht dünnen Notebooks verbaut. Und man sieht ja eine gute Skalierung nach unten ( immer mehr Gewinn je weniger Watt ) also wieso sollte es bei noch weniger Watt schlechter sein?
Und das sind immerhin 1/3 der Punkte meiner GTX 480 + 4,5GHz 2600K oO
http://www.3dmark.com/3dm/2124904

SOI war halt bisher immer eine IBM Sache und da halt für ihre Server CPUs, also auf hohem Verlustleistung optimiert.

Liszca
2014-01-06, 16:27:31
Tellerrand und so.
und 45W ist nicht viel dicker als ein Air wenn es ordentlich gemacht wird.

Ähm nein eigentlich sind sie dicker und schwerer. Aber zeig doch mal auf welche modelle du dich beziehst.

HOT
2014-01-06, 16:54:45
Sollte die Transistorangabe stimmen sind die nm-Angaben wirklich absolut absurd geworden... man kann sich wohl wirklich nur noch auf den Vergleich der Prozessparameter verlassen. Ein grober Anhaltspunkt bietet die Cache-Dichte, die sagt jedenfalls erheblich mehr aus als die Angabe von "nm" :D.
Interessant werden die Details zu 28 SHP, PDSOI? FDSOI? ULK? Bisher ist das völlig unbekannt.

Jedenfalls wird bei den Prozessparametern völlig klar, warum es keine FXen damit gibt. Für die ist 32nm schlicht und ergreifend immer noch besser geeignet - bis FDSOI oder FinFETs in "20nm" :freak:. Statt xxnm könnte man auch Myxelmynx oder Gozillis schreiben...

Knuddelbearli
2014-01-06, 16:57:08
wie schon geschrieben siehe Modelle mit Core i7-4700HQ oder Ähnlichem.

Das sind Welten entfernt von Desktop Replacments wie die Alienwares und deutlich näher am Air.

Und wie ebenso gesagt Macbook Air ist nicht alles einfach mal Horizont erweitern.

Knuddelbearli
2014-01-06, 16:57:37
@ HOT naja die Intel nm Angaben stimmen doch schon lange nimmer

Akkarin
2014-01-06, 17:44:25
Bei BF scheint wohl wirklich Medium Details gemeint zu sein: http://imgur.com/a/oZQ7R#56


http://imgur.com/a/oZQ7R#59 ist ihmo sher interessant. Ist zwar eindeutig im GPU limit (gibt nur 2 Games wo die CPUs sich überhaupt unterscheiden), aber die avg. fps sind immer >30, teils >60.

Duplex
2014-01-07, 10:37:57
http://www.computerbase.de/news/2014-01/amds-kaveri-mit-12-compute-cores-nun-offiziell/
Die Pressekonferenz hielt noch einige weitere Details bereit. So wollte sich AMD offiziell partout nicht zu einem Erscheinungstermin für die Notebook-Variante von Kaveri äußern. Während erste Vermutungen vom zweiten Quartal ausgingen, heißt es hinter vorgehaltener Hand, dass daraus eher das zweite Halbjahr werden wird. AMD selbst schafft sich mit „irgendwann später im Jahr 2014“ bereits den entsprechend großen Zeitrahmen.

Bei den 20 Prozent, die die „Steamroller“-Kerne gegenüber den Vorgängern „Piledriver“ zulegen sollen, bezieht sich AMD auf den x264 HD Benchmark, normiert auf einen Takt von 3,7 GHz.

Mobile Markt erst im 2. Halbjahr, da muss einiges wieder schief gelaufen sein...

Seit wann ist der x264 Benchmark ein Referenzprogramm um die IPC zu ermitteln?

samm
2014-01-07, 16:31:54
Es wird AMD-Architektur A mit AMD-Architektur B im Programm X bei nachvollziehbarem Workload bei gleichem Takt bei gleicher Kernanzahl verglichen. Programm X kann irgendwas sein, wieso nicht ein x264 HD Benchmark? "Die IPC" gibt es sowieso nicht (instruktionsabhängig, kontextabhängig), insofern macht das AMD/CB schon gut, dass sie das so spezifizieren.

fondness
2014-01-07, 17:42:58
Die GPU-Performance scheint jedenfalls speziell bei niedrigen TDP-Werten deutlich zu steigen und ist nicht weit weg von Iris PRO - und das ganz ohne teurem eDRAM und mit unterlegenen Fertigungsprozess:

http://img543.imageshack.us/img543/1290/3lnq.png (http://imageshack.us/photo/my-images/543/3lnq.png/)

http://img194.imageshack.us/img194/1264/v7hm.png (http://imageshack.us/photo/my-images/194/v7hm.png/)

Allerdings deuten die Werte natürlich auf ein enormen Bandbreitenlimit hin, sonst müssten die großen Modelle wesentlich besser skalieren.

mironicus
2014-01-07, 17:43:08
Wenn das mit den 20% stimmt, wäre der Kaveri schon eine Alternative zum normalen FX-Prozessor. Die erhöhte Integer-Leistung dürfte sich auch auf Spiele positiv auswirken. In nicht optimierten Spielen die maximal 4 Kerne unterstützen sowieso, vielleicht sogar leicht über Sandy Bridge-Nievau.

grobi
2014-01-07, 18:32:08
Wenn das mit den 20% stimmt, wäre der Kaveri schon eine Alternative zum normalen FX-Prozessor. Die erhöhte Integer-Leistung dürfte sich auch auf Spiele positiv auswirken. In nicht optimierten Spielen die maximal 4 Kerne unterstützen sowieso, vielleicht sogar leicht über Sandy Bridge-Nievau.


Ich denke nicht das er Sandy Bridge erreicht. Der wird wohl eher leicht unter der Vorgängergeneration sein(vom Sandy natürlich).

mfg grobi



Edit: habe leicht gestrichen da nicht beabsichtigt

Akkarin
2014-01-07, 18:35:49
Leicht unter Nehalem ? Da ist ja schon Bulldozer v1 :freak:

AnarchX
2014-01-07, 18:41:05
Die GPU-Performance scheint jedenfalls speziell bei niedrigen TDP-Werten deutlich zu steigen und ist nicht weit weg von Iris PRO - und das ganz ohne teurem eDRAM und mit unterlegenen Fertigungsprozess:

Wird interessant ein, ob Intel für GT4-Varianten vielleicht auch einen Prozessvariante verwendet, die der GPU mehr entgegenkommt.

grobi
2014-01-07, 19:10:33
Leicht unter Nehalem ? Da ist ja schon Bulldozer v1 :freak:


Ein Bulli hat nicht die Protaktleistung eines Nehalems, nichtmal leicht. Ich habe es oben korrigiert.

Duplex
2014-01-07, 19:31:48
Leicht unter Nehalem ? Da ist ja schon Bulldozer v1 :freak:
Träum weiter, Bulldozer v1 hat >20% weniger IPC als K10, Nehalem ist pro Takt 30-40% schneller als Bulldozer.

Akkarin
2014-01-07, 19:31:53
Hat ja auch niemand von IPC vergleichen zwischen Intel und AMD gesprochen.

Undertaker
2014-01-07, 19:52:31
Wird interessant ein, ob Intel für GT4-Varianten vielleicht auch einen Prozessvariante verwendet, die der GPU mehr entgegenkommt.

Ich habe eher so das Gefühl, das Intels Gen7 weniger effizient mit der Bandbreite umgeht als aktuelle AMD- und Nvidia-Architekturen. Das sieht man z.B. an der Iris Graphics 5100 ganz gut, die sich von der Rechenleistung nicht vor Kaveri verstecken muss – in der Praxis dann aber irgendwie ziemlich verhungert, gerade im Vergleich zur HD 4400/4600.

mczak
2014-01-08, 05:23:35
Die GPU-Performance scheint jedenfalls speziell bei niedrigen TDP-Werten deutlich zu steigen und ist nicht weit weg von Iris PRO - und das ganz ohne teurem eDRAM und mit unterlegenen Fertigungsprozess:

Ist ja schön und gut bloss besteht für low-wattage Desktop Chips kaum Bedarf. Gut die 65W Versionen sind toll (95W ist schwierig sehr leise und billig zu kühlen in kleineren Gehäusen), aber es ist schon erstaunlich dass auf die Mobilversionen offenbar mehr oder weniger verzichtet wird wenn der grösste Vorteil bei den 45W Versionen ist.

mboeller
2014-01-08, 06:58:28
Ist ja schön und gut bloss besteht für low-wattage Desktop Chips kaum Bedarf. Gut die 65W Versionen sind toll (95W ist schwierig sehr leise und billig zu kühlen in kleineren Gehäusen), aber es ist schon erstaunlich dass auf die Mobilversionen offenbar mehr oder weniger verzichtet wird wenn der grösste Vorteil bei den 45W Versionen ist.

Notebooks = OEM-Markt => große Stückzahlen im Vergleich zum Desktop

Vor Weihnachten ging ja mal die Meldung rum, das AMD/GF erst im Dezember 2013 mit der Serienfertigung für Kaveri angefangen haben. Die Stückzahlen reichen deshalb IMHO momentan einfach noch nicht um die Notebook-OEMs damit ausreichend versorgen zu können.

http://chinese.vr-zone.com/88362/amd-might-announced-kaveri-apu-at-apu-13-but-channel-need-to-wait-until-2014-feb-10272013/

da sieht man schön, das AMD ungewöhnlicherweise erst den "Cannel" beliefern will, also die Privatanwender bevor sie die OEMs beliefern können. Dafür reichen die Stückzahlen einfach noch nicht aus.

Coda
2014-01-08, 09:33:44
Ich habe eher so das Gefühl, das Intels Gen7 weniger effizient mit der Bandbreite umgeht als aktuelle AMD- und Nvidia-Architekturen. Das sieht man z.B. an der Iris Graphics 5100 ganz gut, die sich von der Rechenleistung nicht vor Kaveri verstecken muss – in der Praxis dann aber irgendwie ziemlich verhungert, gerade im Vergleich zur HD 4400/4600.
Wundert mich nicht. AMD und NVidia dürften inzwischen mindestens ihre 10. Generation and Framebuffer-Compression implementieren. Das ist totoptimiert :)

Duplex
2014-01-08, 11:26:57
http://www.pugetsystems.com/labs/articles/AMD-A10-7850K-Performance-Review-529/

http://abload.de/img/kaverid2bj2.jpg
http://abload.de/img/kaveri2d4lo4.jpg
http://abload.de/img/kaveri327xes.jpg

Wenn sich das bewahrheiten sollte, dann wars das entgültig mit der BD Architektur, man sieht gut das die Architektur selbst mit einem 2. Decoder und getunten L1x Cache nicht wirklich nach oben Skalieren kann, da hat selbst der K10 bessere Fortschritte gegenüber den Vorgänger machen können. :(

AMD sollte sich am besten von der ganzen BD Entwicklung trennen und sich auf Konsolenchips & ARM konzentrieren.

Skysnake
2014-01-08, 11:45:22
Langsamer als der direkte Vorgänger bei sehr ähnlicher Architektur?

Also ich weiß nicht.

Liszca
2014-01-08, 11:53:20
Das ist jetzt aber kein wirkliches Review, eher eine Fingerübung für den Author.

Duplex
2014-01-08, 11:53:30
Der A10-6800k hat >4,4Ghz Turbo, Kaveri ist aber nicht schneller, man sollte sich fragen, wozu AMD ein 2. Decoder eingebaut hat wenn das garnicht der Problem war, irgendwas im Design bremst das ganze aus, das ist sehr schlecht.

dildo4u
2014-01-08, 12:07:26
Ohne Angabe zum Verbrauch wertlose Benches.

robbitop
2014-01-08, 12:17:18
Bei FPU lastigem SIMD Code (dort sollten die Decoder nicht limitieren), sollte Steamroller etwas langsamer sein als Piledriver. Die FPU hat ja nun nur noch 3 Ports.

Interessant wären Realworldanwendungen. Die Frage ist, ob der getestete 65-W Kaveri nicht ab und an in's Throtteln gerät und damit die Taktfrequenz absenkt (bzw seinen Turbo nicht ausfahren kann). Interessant wären wirklich Tests, bei denen gleiche Taktraten sichergestellt werden. (oder TDP gleiche Modelle zwischen Richland und Kaveri verglichen werden)

Liszca
2014-01-08, 13:15:43
Ohne Angabe zum Verbrauch wertlose Benches.

Jepp so sehe ich das auch.

HOT
2014-01-08, 13:50:43
Bei FPU lastigem SMT Code (dort sollten die Decoder nicht limitieren), sollte Steamroller etwas langsamer sein als Piledriver. Die FPU hat ja nun nur noch 3 Ports.

Interessant wären Realworldanwendungen. Die Frage ist, ob der getestete 65-W Kaveri nicht ab und an in's Throtteln gerät und damit die Taktfrequenz absenkt (bzw seinen Turbo nicht ausfahren kann). Interessant wären wirklich Tests, bei denen gleiche Taktraten sichergestellt werden. (oder TDP gleiche Modelle zwischen Richland und Kaveri verglichen werden)

Gute Erklärung. Es erklärt auch, warum AMD SR nicht für notwendig erachtet im Serverbereich. Ein echter Piledriver (nicht die pseudo-PD bisher) könnte da einiges mehr bringen. Die Änderungen im Frontend dienen letztendlich ja nur dazu die IPC zu verbessern, also dem Befehlsdurchsatz zu erhöhen um die Int-Cluster besser auszulasten. In Spielen beispielsweise dürfte SR einiges bringen.

AnarchX
2014-01-09, 08:43:59
Wohl doch ein 256-Bit IMC in Kaveri?
http://semiaccurate.com/forums/showpost.php?p=204808&postcount=2925

StefanV
2014-01-09, 09:01:51
Naja, schlecht ists nicht, nutzt uns momentan aber auch nix, da nicht nutzbar.
Auch in Zukunft denke ich nicht, dass wir davon viel sehen werden. Bzw wenn, dann eher in Notebooks mit aufgelöteter CPU und Speicher. Ev. gibts ja auch Desktop Boards - mit aufgelöteter CPU...

mboeller
2014-01-09, 11:16:00
Wohl doch ein 256-Bit IMC in Kaveri?
http://semiaccurate.com/forums/showpost.php?p=204808&postcount=2925

reicht es dann, ein Mainboard mit 4 DIMM zu haben, oder muss die Verdrahtung im Mainboard auch geändert werden um die 256bit nutzen zu können?

fondness
2014-01-09, 11:19:07
Natürlich braucht es eine andere Verdrahtung und vor allem auch eine anderen Sockel.
Wird also nur in Notebooks verwendbar sein. Aber zumindest dort sollte man damit eine Leistung erreichen die auch Iris PRO schlägt und so mache dezidierte NB-Grafik überflüssig macht.

robbitop
2014-01-09, 11:23:01
eDRAM wäre eleganter gewesen. :)

mironicus
2014-01-09, 11:25:09
Vielleicht ist das ja schon ein Speichercontroller für DDR4-Support in einem zukünftigen Sockel.

Oder vielleicht sogar GDDR5? Dann müsste man aber noch Mainboards mit aufgelötetem GDDR5-Speicher haben, um das zu nutzen.

fondness
2014-01-09, 11:27:50
eDRAM wäre eleganter gewesen. :)

Warum? Für Intel ist es vielleicht kostengünstiger weil man ohnehin die Fabs auslasten muss und eine überlegenen Fertigungsprozess hat und deshalb die Fertigung kaum was kostet.
Ansonsten sehe ich an einem dicken eDRAM Modul auf dem Package wenig elegantes.

Knuddelbearli
2014-01-09, 11:58:24
Naja, schlecht ists nicht, nutzt uns momentan aber auch nix, da nicht nutzbar.
Auch in Zukunft denke ich nicht, dass wir davon viel sehen werden. Bzw wenn, dann eher in Notebooks mit aufgelöteter CPU und Speicher. Ev. gibts ja auch Desktop Boards - mit aufgelöteter CPU...

Wo im Mobile Bereich doch heute schon oft aus Kostengründen nur 1 Ram Modul genutzt wird? ...

mboeller
2014-01-09, 12:03:00
eDRAM wäre eleganter gewesen. :)

was wäre an einem Kaveri mit >400mm²(*) Die-Area so elegant?
Und selbst dann wären die 64MB eSRAM nicht wirklich ausreichend.

(*): basierend auf der XBox One
edit: Xbox One eSRAM = ~~80mm² -> Kaveri mit 64MB >160mm²

robbitop
2014-01-09, 13:08:01
Warum? Für Intel ist es vielleicht kostengünstiger weil man ohnehin die Fabs auslasten muss und eine überlegenen Fertigungsprozess hat und deshalb die Fertigung kaum was kostet.
Ansonsten sehe ich an einem dicken eDRAM Modul auf dem Package wenig elegantes.
- eDRAM wird mit jedem Shrink billiger
- eDRAM kann man sehr einfach sehr breit anbinden
- eDRAM verhindert, dass man viele Pins/Balls aus dem Package nach außen führen muss
- eDRAM verhindert, dass man eine breite Anbindung über das PCB machen muss (teuer)
- eDRAM benötigt keinen Sockelwechsel

was wäre an einem Kaveri mit >400mm²(*) Die-Area so elegant?
Und selbst dann wären die 64MB eSRAM nicht wirklich ausreichend.



Wer redeit denn von integriertem eDRAM? Natürlich optional/separat auf dem Träger (für die teuren modelle). Da muss auch gar nicht der komplette Framebuffer reinpassen. Als Cache oder Z-Buffer oder G-Buffer etc würde das schon eine ganze Menge bringen.

Gipsel
2014-01-09, 13:55:09
Besser wäre DRAM (ohne "e") direkt gestackt oder auf Interposer. EDRAM bezeichnet ja DRAM, der in einem Logikprozeß (typischerweise mit Logik zusammen, deswegen "embedded") hergestellt wird. Ein richtiger DRAM-Prozeß ist aber dafür eigentlich nochmal deutlich besser (z.B. höhere Dichte und/oder geringere Refreshzyklen usw.). Klebe ein oder zwei HBM-Dies mit dem Prozessor zusammen und es ist im Prinzip besser als eDRAM. Und unter 512MB (oder gleich einem Gigabyte) würd ich dann auch kaum anfangen (was in einem DRAM-Prozeß auch nicht größer ausfällt, als intels eDRAM-Die)

ndrs
2014-01-09, 14:00:15
Vielleicht ist das ja schon ein Speichercontroller für DDR4-Support in einem zukünftigen Sockel.

Oder vielleicht sogar GDDR5? Dann müsste man aber noch Mainboards mit aufgelötetem GDDR5-Speicher haben, um das zu nutzen.
Dafür bräuchte man aber sicher nicht die komplette Pad-Area doppelt auszulegen, sondern hauptsächlich die Logik.

HOT
2014-01-09, 14:46:55
eDRAM wäre eleganter gewesen. :)
Geht nicht mit hUMA und ist auch nicht eleganter, siehe XB1 vs. PS4. eDRAM ersetzt keinen vernünftigen Speicher. Die Zeiten in denen eDRAM was gebracht hat sind einfach vorbei. Die nächsten Implentationen sind Stacked oder 3D.

MMn ist das nicht 256Bit, sondern zwei Anbindungen, eine für DDR3 und eine für DDR4, die werden ja unterschiedlich verdrahtet. GDDR5 wird über DDR3 verdrahtet. Er wär somit für einen FM3 fähig (DDR4, dafür ist es aber zu früh, Anfang 2015 wär ein guter Zeitpunkt für DDR4-Start) und wird sicherlich auch in ähnliche BGA-Gehäuse wie Beema/Mullins wandern (mit verlötetem GDDR5-Speicher angebunden). Find ich auch nachvollziehbar den direkt richtig zu designen, denn bei Carrizo müssen dann nur noch die CPU-Kerne gewechselt werden, welche sicherlich eher optimierte SR sind und nicht was ganz neues.

Auffällig ist, dass der Uncore-Bereich fast komplett in den unteren Schichten verschwunden ist. Spricht stark für GloFos neue ULK-Implementierung, denn damit "isoliert" man ja vor allem Verbindungen. Der L2-Cache ist jetzt seitlich am Modul angordnet und nicht mehr darüber. Es täuscht, dass dieser besondes geschrumpft wäre, weil er ja jetzt seitlich dran hängt, aber das Flächenverhältnis zum Modul müsste fast identisch zum 32nm-Prozess sein.

Undertaker
2014-01-09, 15:23:00
Geht nicht mit hUMA und ist auch nicht eleganter, siehe XB1 vs. PS4. eDRAM ersetzt keinen vernünftigen Speicher. Die Zeiten in denen eDRAM was gebracht hat sind einfach vorbei. Die nächsten Implentationen sind Stacked oder 3D.

Warum soll das nicht mit hUMA gehen? Der eDRAM hätte optimalerweise natürlich wie bei der Iris Pro als eine Art gemeinsamer LLC für CPU und GPU fungiert. Das skaliert sogar sehr ordentlich, wie die Praxis zeigt, und hätte sogar noch einen Boost für die CPU-Leistung geben können.

robbitop
2014-01-09, 15:27:58
Geht nicht mit hUMA und ist auch nicht eleganter, siehe XB1 vs. PS4. eDRAM ersetzt keinen vernünftigen Speicher.

Als wenn hUMA wirklich relevant wäre.
Außerdem sehe ich nicht, wie ein zusätzlicher Cache, hUMA blockieren sollte. Insbesondere, wenn der komplette SoC drauf zugreifen kann. Und wenn es doch nicht gehen sollte, kann man ja für hUMA Spezialfälle immer noch im RAM arbeiten und den eDRAM weglassen. Für die Mehrzahl der Anwendungen ist hUMA nicht wirklich relevant.
Bei der Xbone kann es auch andere Gründe haben, warum dort hUMA nicht geht. Andere Restriktionen, Transistoren eingespart.

Die Zeiten in denen eDRAM was gebracht hat sind einfach vorbei. Die nächsten Implentationen sind Stacked oder 3D.
eDRAM ist verfügbar und hilft schon eine ganze Menge. Siehe Iris pro. Wenn man ihn breiter anbindet nochmehr. Sogar schon wenige MiB bringen etwas (siehe A7!).

Stacked und 3D sind noch in keinem einzigen Massenprodukt umgesetzt. Selbst von Intel noch nicht. Und wir sprechen hier von AMD, wo solche Neuerungen erst Jahre nach Intel und Co kommen. Da kann man lieber etwas nehmen, was funktioniert und bekannt ist.
Intel war sich mit Iris Pro auch nicht zu schade dafür und plant dies fortzusetzen. Intel ist IMO ein hervorragendes Vorbild (wer sonst?)..

Besser wäre DRAM (ohne "e") direkt gestackt oder auf Interposer. EDRAM bezeichnet ja DRAM, der in einem Logikprozeß (typischerweise mit Logik zusammen, deswegen "embedded") hergestellt wird. Ein richtiger DRAM-Prozeß ist aber dafür eigentlich nochmal deutlich besser (z.B. höhere Dichte und/oder geringere Refreshzyklen usw.). Klebe ein oder zwei HBM-Dies mit dem Prozessor zusammen und es ist im Prinzip besser als eDRAM. Und unter 512MB (oder gleich einem Gigabyte) würd ich dann auch kaum anfangen (was in einem DRAM-Prozeß auch nicht größer ausfällt, als intels eDRAM-Die)

Theoretisch ja. Aber siehe oben. AMD ist nicht Intel. Und solange kein Massenprodukt verfügbar ist, sind Dinge wie Interposer, 3D, Stacking Vaporware. AMD hat kaum Ressourcen. Da wäre es sinnvoller, kleine Schritte zu gehen und zu nehmen, was funktioniert.

Und wenn selbst Intel das erfolgreich tut. Warum nicht? Bereits kleinere Mengen eDRAM helfen. Siehe Iris Pro. Selbst bei A7 bringen deren 4 MiB SRAM schon einiges. Man konnte sich den 2. 64 bit Channel sparen.

Gipsel
2014-01-09, 16:57:33
Theoretisch ja. Aber siehe oben. AMD ist nicht Intel.Und gerade deswegen wird AMD nicht die eDRAM-Route gehen. Das geht nur bei Intel, da intel sonst kaum weiß, wie sie ihre modernen 22nm Fabs mit einem sehr guten Logikprozeß auslasten. Die laufenden Kosten dafür fallen ja sowieso an, Intel kostet der eDRAM also praktisch lediglich die reinen Waferkosten. Für AMD sieht die Rechnung komplett anders aus, für sie wäre der eDRAM erheblich teurer. Deswegen kann für AMD die Interposer+DRAM-Variante (oder für low-power-Anwendungen auch direkt gestackt) kostengünstiger sein (DRAM ist deutlich billiger als eDRAM).
Und solange kein Massenprodukt verfügbar ist, sind Dinge wie Interposer, 3D, Stacking Vaporware. AMD hat kaum Ressourcen. Da wäre es sinnvoller, kleine Schritte zu gehen und zu nehmen, was funktioniert.Aber mit Interposern bzw. Stacking sammelt die Industrie bereits eine Weile Erfahrung. Wie Du richtig sagst, gibt es bisher kein Produkt mit richtig großem Volumen auf dem Markt (sondern eher nur Nischenprodukte wie die großen FPGAs von Xilinx [Interposer, TSVs "2.5D" Stacking]; aber z.B. auch die PSVita nutzt bereits einen HBM-Vorläufer mit face-to-face-Stacking von DRAM zum Logik-Die [also ohne TSVs], Ähnliches ist auch im Smartphone-Markt geplant, intels KnightsLanding kommt mit 8 TSV-gestackten HMC-Cubes zu je 2 GB). Es kann durchaus sein, daß das demnächst auch in Kombination die Schwelle zur Kosteneffizienz für ein Massenprodukt durchbricht. Es gibt genug Sachen für die nähere Zukunft, die zumindest auf Stacking mit TSVs setzen.
Und wenn selbst Intel das erfolgreich tut. Warum nicht? Bereits kleinere Mengen eDRAM helfen. Siehe Iris Pro. Selbst bei A7 bringen deren 4 MiB SRAM schon einiges. Man konnte sich den 2. 64 bit Channel sparen."Selbst Intel" ist wie oben ausgeführt die falsche Wortwahl. Der eDRAM ist nur für intel kosteneffizient, für jeden anderen wäre er es nicht ziemlich sicher nicht. AMD ist fabless und die Auftragsfertiger haben (anders als intel!) volle Fabs für ihre jeweils modernsten Prozesse. Intel überlegt ja sogar (bzw. macht das in kleinem Maßstab schon), ihre Fabs anderen wie ein Auftragsfertiger zur Verfügung zu stellen. Die haben Unmengen an 22nm Kapazitäten (und demnächst 14nm).

fondness
2014-01-09, 17:00:14
- eDRAM wird mit jedem Shrink billiger
- eDRAM kann man sehr einfach sehr breit anbinden
- eDRAM verhindert, dass man viele Pins/Balls aus dem Package nach außen führen muss
- eDRAM verhindert, dass man eine breite Anbindung über das PCB machen muss (teuer)
- eDRAM benötigt keinen Sockelwechsel


DRAM benötigt enorm viel Siliziumfläche, das ist nur für Intel billig.
Auch moderne standalone-GPUs haben kein DRAM-Modul für mehr Performance, sondern setzen auf ein breites SI.

Undertaker
2014-01-09, 17:17:21
DRAM benötigt enorm viel Siliziumfläche, das ist nur für Intel billig.
Auch moderne standalone-GPUs haben kein DRAM-Modul für mehr Performance, sondern setzen auf ein breites SI.

Bei mobilen GPUs findest du erst ab der High-End-Klasse SIs mit mehr als 128 Bit Breite. Ich gehe wie HOT nicht davon aus, dass Kaveri mehr als zwei DDR3-Speicherkanäle mitbringt. Welcher OEM hat schon Lust, ein sündhaft teures 4-Kanal-Board zu verwenden und das dann auch noch mit vier Speichermodulen zu bestücken? Selbst wenn man zwei Kanäle mit fest verlötetem RAM bestückt, wird das ein ziemlich teurer Spaß, um nicht zu sagen zu teuer für Kaveris Preislevel (imo).

Wer will wetten? ;)

fondness
2014-01-09, 17:21:45
Allemal billiger als eine standalone GPU. Und eine 512SP GCN-GPU mit ausreichend Bandbreite ist wohl schneller als ein Großteil der verkauften standalone Notebook-GPUs.

robbitop
2014-01-09, 17:54:03
Und gerade deswegen wird AMD nicht die eDRAM-Route gehen. Das geht nur bei Intel, da intel sonst kaum weiß, wie sie ihre modernen 22nm Fabs mit einem sehr guten Logikprozeß auslasten. Die laufenden Kosten dafür fallen ja sowieso an, Intel kostet der eDRAM also praktisch lediglich die reinen Waferkosten. Für AMD sieht die Rechnung komplett anders aus, für sie wäre der eDRAM erheblich teurer.
AMD hat Verträge mit GF über Mindestabnahmen, die sie regelmäßig nicht erfüllen können. Die Folge sind Strafzahlungen oder Inventar mit massivem Wertverlust. Dann doch lieber eDRAM fertigen für Premiumprodukte.


Deswegen kann für AMD die Interposer+DRAM-Variante (oder für low-power-Anwendungen auch direkt gestackt) kostengünstiger sein (DRAM ist deutlich billiger als eDRAM).
Aber mit Interposern bzw. Stacking sammelt die Industrie bereits eine Weile Erfahrung. Wie Du richtig sagst, gibt es bisher kein Produkt mit richtig großem Volumen auf dem Markt (sondern eher nur Nischenprodukte wie die großen FPGAs von Xilinx [Interposer, TSVs "2.5D" Stacking]; aber z.B. auch die PSVita nutzt bereits einen HBM-Vorläufer mit face-to-face-Stacking von DRAM zum Logik-Die [also ohne TSVs], Ähnliches ist auch im Smartphone-Markt geplant, intels KnightsLanding kommt mit 8 TSV-gestackten HMC-Cubes zu je 2 GB). Es kann durchaus sein, daß das demnächst auch in Kombination die Schwelle zur Kosteneffizienz für ein Massenprodukt durchbricht. Es gibt genug Sachen für die nähere Zukunft, die zumindest auf Stacking mit TSVs setzen.
"Selbst Intel" ist wie oben ausgeführt die falsche Wortwahl. Der eDRAM ist nur für intel kosteneffizient, für jeden anderen wäre er es nicht ziemlich sicher nicht. AMD ist fabless und die Auftragsfertiger haben (anders als intel!) volle Fabs für ihre jeweils modernsten Prozesse. Intel überlegt ja sogar (bzw. macht das in kleinem Maßstab schon), ihre Fabs anderen wie ein Auftragsfertiger zur Verfügung zu stellen. Die haben Unmengen an 22nm Kapazitäten (und demnächst 14nm).

Und du meinst, dieses Know-How bekommt AMD dadurch, dass andere Unternehmen damit Erfahrung sammeln? Global Foundries (ihr Fertigungspartner) müsste diese Erfahrungen sammeln und das ganze marktreif haben. Davon wüßte ich zumindest nichts. Und kostenlos machen die das bestimmt auch nicht.

Es ist halt nicht verfügbar. Bis es verfügbar ist, kann man etwas nehmen, was verfügbar ist.
eDRAM ist natürlich auch nicht kostenlos - lohnt aber, wenn man dafür beim Produkt ein Preispremium (analog zu Iris Pro) vom Kunden verlangen kann...

DRAM benötigt enorm viel Siliziumfläche, das ist nur für Intel billig.
Auch moderne standalone-GPUs haben kein DRAM-Modul für mehr Performance, sondern setzen auf ein breites SI.
Wie gesagt: AMD muss sowieso mehr von GF abnehmen. Das wäre mal eine sinnvolle Weise, die Mindestabnahmen einzufahren, weil man dafür gleich ein Preispremium verlangen kann und damit am Ende mit Gewinn aus der Sache rausgeht. Kosten sind solange OK, solange sie zu Gewinn führen.

dGPUs sind eine ganz andere Region. Die haben massiv mehr Rechenleistung und massiv andere Anforderungen. Außerdem kosten diese deutlich mehr. Also dürfen sie auch auf teure Lösungen zurückgreifen. eDRAM wäre dort ein Tropfen auf den heißen Stein. iGPs sind massiv mehr bandbreitenbeschränkt. Dort hilft es (siehe Iris Pro) sehr.

Allemal billiger als eine standalone GPU. Und eine 512SP GCN-GPU mit ausreichend Bandbreite ist wohl schneller als ein Großteil der verkauften standalone Notebook-GPUs.
Ist IMO (geizhals Recherchen) grenzwertig. Vernünftige APU-Notebooks (A10) sind kaum bis gar nicht billiger als Notebooks mit gleichen oder schnelleren GPUs. Es ist (zumindest für den Endkunden) jetzt nicht der große Renner...

fondness
2014-01-09, 17:56:53
AMD hat Verträge mit GF über Mindestabnahmen, die sie regelmäßig nicht erfüllen können. Die Folge sind Strafzahlungen oder Inventar mit massivem Wertverlust. Dann doch lieber eDRAM fertigen für Premiumprodukte.


Laut CFO ist das im aktuellen Jahr kein Problem mehr. Es wurde zumindest angedeutet das man Konsolenchips Richtung GF verschiebt.

dGPUs sind eine ganz andere Region. Die haben massiv mehr Rechenleistung und massiv andere Anforderungen. Außerdem kosten diese deutlich mehr. Also dürfen sie auch auf teure Lösungen zurückgreifen. eDRAM wäre dort ein Tropfen auf den heißen Stein. iGPs sind massiv mehr bandbreitenbeschränkt. Dort hilft es (siehe Iris Pro) sehr.


Wäre eDRAM die billigere oder effizientere Lösung würde man es auch bei dGPUs einsetzen. Man nimmt ja nicht aus Spaß die teurere und ineffizientere Lösung.


Ist IMO (geizhals Recherchen) grenzwertig. Vernünftige APU-Notebooks (A10) sind kaum bis gar nicht billiger als Notebooks mit gleichen oder schnelleren GPUs. Es ist (zumindest für den Endkunden) jetzt nicht der große Renner...

Eine 512SPs GCN GPU sollte doch annähernd doppelt so schnell sein wie 384 VLIW4 ALUs.

Skysnake
2014-01-09, 20:33:03
Besser wäre DRAM (ohne "e") direkt gestackt oder auf Interposer. EDRAM bezeichnet ja DRAM, der in einem Logikprozeß (typischerweise mit Logik zusammen, deswegen "embedded") hergestellt wird. Ein richtiger DRAM-Prozeß ist aber dafür eigentlich nochmal deutlich besser (z.B. höhere Dichte und/oder geringere Refreshzyklen usw.). Klebe ein oder zwei HBM-Dies mit dem Prozessor zusammen und es ist im Prinzip besser als eDRAM. Und unter 512MB (oder gleich einem Gigabyte) würd ich dann auch kaum anfangen (was in einem DRAM-Prozeß auch nicht größer ausfällt, als intels eDRAM-Die)
Du warst "leider" mal wieder schneller als ich. Also kann ich dir mal wieder einfach nur voll auf zustimmen :tongue:



Und du meinst, dieses Know-How bekommt AMD dadurch, dass andere Unternehmen damit Erfahrung sammeln? Global Foundries (ihr Fertigungspartner) müsste diese Erfahrungen sammeln und das ganze marktreif haben. Davon wüßte ich zumindest nichts. Und kostenlos machen die das bestimmt auch nicht.

GF und TSMC haben schon einiges an Erfahrung gesammelt. Besonders TSMC. Da haste das sogar in der "Massenproduktion" schon drin.

Man sollte sich aber mal Gedanken über die Yealds machen. ;)

Xillinx cerwendet es auf ihren großen FPGAs, das hat Gipsel richtig herausgestellt. Man sollte sich aber auch mal nach der Verfügbarkeit erkundigen, insbesondere am Anfang :rolleyes: Mehr sag ich dazu nicht.

Man sollte sich aber mal überlegen, wie "gesund" viele Unternehmen in der Hardwarebranche aktuell sind, und wie die ganz allgemeine Lage in der Weltwirtschaft aktuell noch immer ist...

Will da wirklich ernsthaft jemand risiken eingehen, und im Zweifelsfall auf ein neues Produkt Monate lang warten?

Die haben doch alle die Hosen gestrichen voll und versuchen nur minimale Risiken ein zu gehen, weil Sie wissen, das ein Fail ihr letzter gewesen sein könnte....

Beamtenmikado. Wer sich zuerst bewegt verliert.

Undertaker
2014-01-09, 20:44:38
Allemal billiger als eine standalone GPU. Und eine 512SP GCN-GPU mit ausreichend Bandbreite ist wohl schneller als ein Großteil der verkauften standalone Notebook-GPUs.

Da wäre ich mir noch so sicher: Die an vielerlei Stellen (Sockel, Board, etwas mehr Die-Size, ...) auftretenden Kosten für das 4-Kanal-Interface schleppst du bei jedem Gerät mit, auch bei den in ungleich größeren Stückzahlen verkauften A4/A6-APUs wo das Ganze brach liegt oder mangels Rechenleistung nix bringt. Dann kommen dazu noch Mehrkosten und Platzbedarf für vier Speichermodule, wo OEMs sonst typischerweise sogar nur ein einziges verbauen.

Gipsel
2014-01-09, 21:05:39
AMD hat Verträge mit GF über Mindestabnahmen, die sie regelmäßig nicht erfüllen können. Die Folge sind Strafzahlungen oder Inventar mit massivem Wertverlust. Dann doch lieber eDRAM fertigen für Premiumprodukte.1. Hat AMD die Verträge mit der hohen Mindestabnahmemenge aufgelöst (weswegen die dafür blechen mußten).
2. Kann GF überhaupt eDRAM in ausreichender Qualität fertigen?
Und du meinst, dieses Know-How bekommt AMD dadurch, dass andere Unternehmen damit Erfahrung sammeln?Ja, weil es entweder die Fabs selber oder 3rd Parties als Service anbieten. Man muß z.B. die Wafer auch nicht selber auseinander sägen, testen und auf irgendein Package auflöten. Das machen auf Wunsch andere, darauf spezialisierte Firmen für einen. Es gibt sehr große Packaging-Fabs in Südostasien, die nichts anderes machen. Und solche Firmen bieten auch Stacking bzw. Interposer-Lösungen an.
Erinnerst Du Dich noch an das Bild eines AMD-Testchips , wo außer dem Logikdie noch zwei DRAM-Cubes per Interposer angebunden waren? Das war auch nicht AMD alleine, sondern eine Kollaboration mit einer dieser Firmen (Amkor (http://www.amkor.com/), ~$800 Millionen Dollar Umsatz pro Quartal) ;). Was das wohl ist? Xilinx bietet über Interposer gekoppelte FPGAs an und fertigt bei TSMC, aber da steht noch eine dritte Firma!

http://img21.myimg.de/XilinxStack1c13c.png
Global Foundries (ihr Fertigungspartner) müsste diese Erfahrungen sammeln und das ganze marktreif haben. Davon wüßte ich zumindest nichts. Und kostenlos machen die das bestimmt auch nicht.Na klar ist das nicht kostenlos, egal ob man Services der Fab oder 3rd Parties nutzt. Die Frage ist, ob es billiger ist, als bei GF oder TSMC eDRAM zu fertigen (die den standardmäßig wohl aus gutem Grund gar nicht anbieten).
Es ist halt nicht verfügbar. Bis es verfügbar ist, kann man etwas nehmen, was verfügbar ist.Na klar ist es das (es wird in kaufbaren Produkten bereits genutzt), die Frage ist nur, was es kostet und ob die Kapazitäten dafür bereits existieren. Es bewegt sich aber erkennbar in diese Richtung.
Wie gesagt: AMD muss sowieso mehr von GF abnehmen.Inzwischen nicht mehr.

Nakai
2014-01-09, 21:46:15
Mhh, was denkt ihr, in welchen Produkten ein Kaveri mit vier MCs vorkommen wird? Derzeitige Sockellösungen sind nicht praktikabel, da nur Support für zwei MCs existiert. Ergo Notebooks bei denen Kaveri direkt verlötet wird oder Serversysteme. Computekarten wären auch toll. Ein 2M/4C Kaveri gibts ja schon mit 65W TDP. Dabei sind auch eine 8CU GCN-GPU. Da könnte man sich schon interessante Serversysteme vorstellen.

reaperrr
2014-01-09, 21:47:06
Eine 512SPs GCN GPU sollte doch annähernd doppelt so schnell sein wie 384 VLIW4 ALUs.
Nein. Selbst wenn nichts anderes bremst, hat GCN "nur" ca. 15-20% (je nach Anwendung) mehr pro-MHz-Leistung bei gleicher ALU-Zahl und Front-/Back-End-Breite. Bei 33% mehr ALUs ist der theoretische Faktor damit etwa 1,33 * 1,15(1,2) = 1,52(1,6).
Aber: Schon bei Trinity/Richland brachten 50% mehr SIMDs (384 statt 256 ALUs) in der Praxis nur 8-15% mehr Leistung pro Takt, weil meist eher Front-End, ROPs oder Speicherbandbreite limitiert haben. Bei Kaveri sollten diese drei Faktoren theoretisch sogar noch mehr limitieren.

Also wenn Kaveri trotz 15% niedrigerem GPU-Takt teilweise 20-30% vorn liegt gegenüber dem 6800K ist das schon eine starke Leistung.

Liszca
2014-01-09, 23:18:46
Da wäre ich mir noch so sicher: Die an vielerlei Stellen (Sockel, Board, etwas mehr Die-Size, ...) auftretenden Kosten für das 4-Kanal-Interface schleppst du bei jedem Gerät mit, auch bei den in ungleich größeren Stückzahlen verkauften A4/A6-APUs wo das Ganze brach liegt oder mangels Rechenleistung nix bringt. Dann kommen dazu noch Mehrkosten und Platzbedarf für vier Speichermodule, wo OEMs sonst typischerweise sogar nur ein einziges verbauen.

Ich würde ein 4-Kanal-Interface nur für die A10-Serie fordern.

Sollte Kaveri (A10) wirklich mit ein 2-Kanal-Interface kommen machen sie sich in meinen Augen lächerlich.

Undertaker
2014-01-09, 23:55:45
Also zwei verschiedene Dies und Sockel? Das rentiert sich doch nochmal weniger.

Also ich kann die 4-Kanal Geschichte noch nicht glauben.

Nakai
2014-01-10, 00:02:39
Evtl sinds doch nur 2 Kanäle, also zwei GDDR5-Controller und zwei DDR3-Controller, aber nur einer kann gleichzeitig genutzt werden. Die PHYs sollten mit eventuellen GDDR5 größer ausfallen, wegen höheren Taktraten, oder etwa nicht?
GDDR5 und DDR3 könnten miteinander kompatibel sein, also es werden die gleichen PHYs genutzt, sonst wärs irgendwie Verschwendung.

Aber ich bin mir nicht sicher...sieht man wirklich 4 PHYs auf dem Dieshot?

Liszca
2014-01-10, 03:52:06
Also zwei verschiedene Dies und Sockel? Das rentiert sich doch nochmal weniger.

Also ich kann die 4-Kanal Geschichte noch nicht glauben.

Verschiedene dice bedeuten doch nicht zwangslaeufig einen anderen sockel. Deshalb ist es ja nicht unmoeglich dass im selben board 4-kanal als auch 2-kanal systeme moeglich sind. Ich halte es bei amd gerade unter gegebenen umstaenden fuer sehr unwahrscheinlich auch wenns absolut notwendig waere fuer die gpu.

Naitsabes
2014-01-10, 08:00:23
Wie sollen die zusätzlichen 128Bit (+ECC und weitere dafür nötige Kontakte?) denn mit FM2(+) nach draußen geführt werden?
Nämlich bedarf es da einen anderen Sockel mit mehr Kontakten.

marc-05
2014-01-10, 08:17:24
Wenn sich Gamesbenches ansieht dann wird GPU mit 384 GCN nicht viel langsamer werden als ne GPU mit 512 Cores GCN.

robbitop
2014-01-10, 09:03:42
Laut CFO ist das im aktuellen Jahr kein Problem mehr. Es wurde zumindest angedeutet das man Konsolenchips Richtung GF verschiebt.
Versprechungen über die Zukunft sind nichts wert. Es bleibt abzuwarten, ob sie diese erfüllen.
Die Konsolenchips zu GF zu shiften, ergibt Sinn. Aber TSMCs und GFs Prozesse weichen stark voneinander ab. Wer weiß, ob AMD das so kurzfristig hinbekommt...

Und selbst wenn es klappen sollte (wovon ich nicht überzeugt bin) - bis dahin hätte man das Fenster nutzen können, statt Geld in Inventar und Strafzahlungen zu verschwenden.



Wäre eDRAM die billigere oder effizientere Lösung würde man es auch bei dGPUs einsetzen. Man nimmt ja nicht aus Spaß die teurere und ineffizientere Lösung.
Apples and Oranges. Auf dGPUs werden ganz andere Auflösungen gefahren. Sie haben fast Faktor 10 mehr Rechenleistung. Das ist eine andere Nummer. eDRAM ist eine Kompromisslösung, die mit wenig Kosten immerhin einiges bringt. Siehe Iris Pro. Bei dGPUs reichen Kompromisslösungen nicht. Dort ist der Bandbreiten und Speicherbedarf einfach zu groß.

Wäre es keine kosteneffiziente Lösung, hätte man es nicht in fast sämtlichen Konsolen so gelöst (PS3 und PS4 ausgeschlossen), wo es um Kostendruck geht.



Eine 512SPs GCN GPU sollte doch annähernd doppelt so schnell sein wie 384 VLIW4 ALUs.
Was die Rechenleistung angeht, ja. Ob diese aber der einzige Flaschenhals ist, ist zu bezweifeln.
dGPUs werden auch mit jeder Generation schneller.

Zumindest seit 2010 sind APUs in Laptops aus P/L Sicht für den Endverbraucher nicht der Knaller. Man sollte es vermuten, dass es so ist. Aber es äußert sich einfach nicht im Preis.

Man sollte sich aber auch mal nach der Verfügbarkeit erkundigen, insbesondere am Anfang :rolleyes: Mehr sag ich dazu nicht.

Man sollte sich aber mal überlegen, wie "gesund" viele Unternehmen in der Hardwarebranche aktuell sind, und wie die ganz allgemeine Lage in der Weltwirtschaft aktuell noch immer ist...

Will da wirklich ernsthaft jemand risiken eingehen, und im Zweifelsfall auf ein neues Produkt Monate lang warten?


Eben. Zu viel auf einmal zu wollen, führt fast immer dazu, dass Produkte sich massiv verspäten, verteuern etc. Dann lieber 1 Zyklus pro Jahr und immer ein absehbares Risiko. Execution / Time-to-market ist wichtiger.
Wenn Interposer, 3D, HMC (und wie der Firlefanz heißt) wirklich ausgereift sind, Ausbeuten hoch sind und das ganze breit verfügbar ist, dann ergibt es Sinn für eine angeschlagene Firma wie AMD auch auf diese zu setzen.

Lieber konstante und stetige kleine Schritte nach vorn als wenige große Sprünge mit vielen Stürzen.

Wenn sich Gamesbenches ansieht dann wird GPU mit 384 GCN nicht viel langsamer werden als ne GPU mit 512 Cores GCN.
Bandbreitenlimitierung.

Na klar ist es das (es wird in kaufbaren Produkten bereits genutzt), die Frage ist nur, was es kostet und ob die Kapazitäten dafür bereits existieren. Es bewegt sich aber erkennbar in diese Richtung.

Wie gesagt - kann man alles machen, wenn diese Dinge so stimmen und gut genug und wirtschaftlich genug sind. Vorher halte ich es für ein unnötiges Risiko.

ndrs
2014-01-10, 10:29:49
Wie sollen die zusätzlichen 128Bit (+ECC und weitere dafür nötige Kontakte?) denn mit FM2(+) nach draußen geführt werden?
Nämlich bedarf es da einen anderen Sockel mit mehr Kontakten.
Ich vermute mal, er meinte einen neuen Sockel der prinzipiell 256bit kann als Basis von der dann nach unten skaliert wird. Ein Boardhersteller kann sich dann überlegen, ob er die letzten Speicherkanäle verdrahtet oder nicht.
Aber da Kaveri für FM2+ kommt ist die überlegung eigentlich hinfällig.

Pirx
2014-01-10, 10:51:33
Kann Kaveri bzw. FM2+ ECC?

Naitsabes
2014-01-10, 11:21:21
Das habe ich mich auch gefragt.
Kaveri wird es wohl mit Sicherheit können, wenn er auch als Opteron-APU eingesetzt werden soll.

Vielleicht ist es bei FM2 so wie bei den AMx Sockeln, bei denen es Mainboardspezifisch ist?

Pirx
2014-01-10, 11:25:39
Genau, afaik konnte Trinity und FM2 kein ECC - aber Kaveri soll ja eben auch als Opteron eingesetzt werden und dafür wäre es unbedingt nötig - aber von FM2 auf FM2+ hat sich nichts weter geändert, tja:conf2:

edit: auf FM2+ gibts also bestimmt kein ECC

robbitop
2014-01-10, 12:12:17
Wer sagt denn, dass Kaveri nur auf FM2+ kommt? Auf anderen Plattformen kann es anders aussehen.

fondness
2014-01-10, 12:31:42
Apples and Oranges. Auf dGPUs werden ganz andere Auflösungen gefahren. Sie haben fast Faktor 10 mehr Rechenleistung. Das ist eine andere Nummer. eDRAM ist eine Kompromisslösung, die mit wenig Kosten immerhin einiges bringt. Siehe Iris Pro. Bei dGPUs reichen Kompromisslösungen nicht. Dort ist der Bandbreiten und Speicherbedarf einfach zu groß.

Eigentlich unterscheiden sich die Auflösungen nicht groß. Faktor 10 ist auch völlig übertrieben im Vergleich zu den 512SPs bei Kaveri.
Zumal das kein Argument ist warum man bei den iGPus unbedingt auf eine "Kompromisslösung" setzen sollte und bei den dGPUs DRAm weniger geeignet sein sollte als bei iGPUs.
Intel ist kein Argument mit ihrer Fertigung, alle anderen machen es ohne DRAm aus guten Gründen, die Siliziumfläche kann man bedeutend besser investieren als in teuren eDRAM.


Wäre es keine kosteneffiziente Lösung, hätte man es nicht in fast sämtlichen Konsolen so gelöst (PS3 und PS4 ausgeschlossen), wo es um Kostendruck geht.


Wie sagtest du so schön: Apples and Oranges. ;)
Zumal es auf den Konsolen völlig anders gelöst wurde, hier muss sich der Entwickler explizit darum kümmern und MS ist damit im Vergleich zur PS4 IMO auch ziemlich auf die Fresse gefallen.

robbitop
2014-01-10, 12:49:53
Eigentlich unterscheiden sich die Auflösungen nicht groß. Faktor 10 ist auch völlig übertrieben im Vergleich zu den 512SPs bei Kaveri.
Ja OK - Faktor 5.


Zumal das kein Argument ist warum man bei den iGPus unbedingt auf eine "Kompromisslösung" setzen sollte und bei den dGPUs DRAm weniger geeignet sein sollte als bei iGPUs.
Warum ist es kein Argument? Weil du es sagst. IMO ist es eines.


Intel ist kein Argument mit ihrer Fertigung, alle anderen machen es ohne DRAm aus guten Gründen, die Siliziumfläche kann man bedeutend besser investieren als in teuren eDRAM.
Wer sind denn "die anderen"? Nur noch AMD.



Wie sagtest du so schön: Apples and Oranges. ;)
Zumal es auf den Konsolen völlig anders gelöst wurde, hier muss sich der Entwickler explizit darum kümmern und MS ist damit im Vergleich zur PS4 IMO auch ziemlich auf die Fresse gefallen.
Das kostet in der BOM dafür auch einiges mehr bei der PS4. Wenn der Entwickler sich darum kümmert, funktioniert es sogar besser als wenn es automatisiert ist. Das Grundprinzip ist das gleiche: man spart viele Zugriffe auf den VRAM.

fondness
2014-01-10, 13:03:20
Warum ist es kein Argument? Weil du es sagst. IMO ist es eines.

Weil es keine Sinn ergibt. Warum verbaut man dann bei den dGPUs mit 512 SPs keinen DRAM wenn es dort laut dir aufgrund der Leistungsklasse sinnvoller wäre.


Wer sind denn "die anderen"? Nur noch AMD.


Es gibt bekanntlich nicht mehr so viele große GPU-Hersteller, aber zumindest Nv wäre noch zu nennen.
Die Bitboys haben das AFAIK sogar mal versucht mit eDRAM und sind damit völlig untergegangen.


Das kostet in der BOM dafür auch einiges mehr bei der PS4. Wenn der Entwickler sich darum kümmert, funktioniert es sogar besser als wenn es automatisiert ist. Das Grundprinzip ist das gleiche: man spart viele Zugriffe auf den VRAM.

Und genau deshalb macht es bei den Konsolen viel eher Sinn.

mczak
2014-01-10, 18:49:56
Genau, afaik konnte Trinity und FM2 kein ECC - aber Kaveri soll ja eben auch als Opteron eingesetzt werden und dafür wäre es unbedingt nötig - aber von FM2 auf FM2+ hat sich nichts weter geändert, tja:conf2:

edit: auf FM2+ gibts also bestimmt kein ECC
Sicher? Ursprünglich sollte es doch auch Trinity-Opterons geben. Habe leider nie ein pinout von FM2 gesehen...

S940
2014-01-10, 22:57:57
Sicher? Ursprünglich sollte es doch auch Trinity-Opterons geben. Habe leider nie ein pinout von FM2 gesehen...
Nennt sich Berlin und das gibts nur verlötet .. wer weiss was AMD da alles an Signalen anlegt. ECC is da locker möglich, Quad Channel auch, allerdings ist Berlin schon nur mit dual angekündigt.

Undertaker
2014-01-11, 09:47:33
Wenn da wirklich ein Quad-Channel-Controller drin sein sollte. Ich würde nicht davon ausgehen. ;)

Liszca
2014-01-12, 20:58:39
Mich würde mal interessieren wieviel VRAM Windows mit boardmitteln bei der A10 Serie anzeigt, hat da jemand informationen?

OBrian
2014-01-13, 07:15:31
Ich schätze mal genausoviel, wie eingestellt sind. Da Software ja (je nach Programmiersprache) direkt auf die Hardware zugreifen können muß und nicht immer abstrahiert werden kann, muß es auch getrennte Speicherbereiche für CPU und GPU geben, d.h. es wird (nehme ich an) weiterhin einen reservierten Speicherbereich für die GPU geben, der vom System-RAM abgezwackt wird. Startet man jetzt eine HSA-Anwendung, dann wird dieser GPU-reservierte Bereich wohl wieder für die CPU freigegeben. Ist ein Schritt vor und wieder einer zurück, aber anders geht es wohl nicht, solange Software in Assembler, C usw. direkt darin herumpfuscht und dann eben bestimmte Bedingungen erwartet.

Wenn die das anders, eleganter hinbekommen haben, Hut ab, aber ich befürchte, so wird's sein.

OBrian
2014-01-13, 07:24:20
Wenn da wirklich ein Quad-Channel-Controller drin sein sollte. Ich würde nicht davon ausgehen. ;)Die Linux-Kernel-Programmierer gehen wohl davon aus, sonst gäbe es keine Notiz, den vierten Kanal als zweiten umzubenennen, weil von Nr. 0, 1, 2 und 3 aktuell nur die beiden äußeren rausgeführt sind:
http://semiaccurate.com/forums/showpost.php?p=204808&postcount=2925

HOT
2014-01-13, 11:12:33
Ein DDR4-Profisockel für Kaveri ist sicherlich denkbar. Vielleicht sogar inklusive Warsaw.
Der hat keinen Quad-Channel oder 256 Bit, das ist einfach Unsinn diese Annahme. Wenn man sich den Speichercontroller ansieht sind die beiden Stages schon sehr unterschiedlich designt. Das macht keinen Sinn da sowas hineinzuinterpretieren. Der kann entweder DDR3(GDDR5) oder DDR4(GDDR6) aber jeweils nur mit 128Bit. Da diese Speichertechnologien sich in wichtigen Punkten unterscheiden wird ein doppelter Controller schlicht einfacher und billiger gewesen sein als ein Kombicontroller.

Skysnake
2014-01-13, 11:15:07
Ich schätze mal genausoviel, wie eingestellt sind. Da Software ja (je nach Programmiersprache) direkt auf die Hardware zugreifen können muß und nicht immer abstrahiert werden kann, muß es auch getrennte Speicherbereiche für CPU und GPU geben, d.h. es wird (nehme ich an) weiterhin einen reservierten Speicherbereich für die GPU geben, der vom System-RAM abgezwackt wird. Startet man jetzt eine HSA-Anwendung, dann wird dieser GPU-reservierte Bereich wohl wieder für die CPU freigegeben. Ist ein Schritt vor und wieder einer zurück, aber anders geht es wohl nicht, solange Software in Assembler, C usw. direkt darin herumpfuscht und dann eben bestimmte Bedingungen erwartet.

Wenn die das anders, eleganter hinbekommen haben, Hut ab, aber ich befürchte, so wird's sein.
Wieso sollte das so sein?

Das ist ja das tolle an HSA usw. Man hat nur noch einen Satz an physikalischen Adressen, auf den alles zugreifen kann.

ndrs
2014-01-13, 11:37:23
Wieso sollte das so sein?

Das ist ja das tolle an HSA usw. Man hat nur noch einen Satz an physikalischen Adressen, auf den alles zugreifen kann.
Abwärtskompatibilität? Muss das OS einer GPU-Anwendung (die kein HSA kann) nicht ihren Adressraum geben? Oder seh ich das falsch.

Der kann entweder DDR3(GDDR5) oder DDR4(GDDR6) aber jeweils nur mit 128Bit. Da diese Speichertechnologien sich in wichtigen Punkten unterscheiden wird ein doppelter Controller schlicht einfacher und billiger gewesen sein als ein Kombicontroller.
Die Protokolle und damit die benötigte Logik mögen sich unterscheiden. Die machen aber nur einen winzigen Teil der Die-Area aus. Der Löwenanteil sind die Pin-Outs, die eigentlich identisch sein könne.

HOT
2014-01-13, 13:21:38
Abwärtskompatibilität? Muss das OS einer GPU-Anwendung (die kein HSA kann) nicht ihren Adressraum geben? Oder seh ich das falsch.

Nur mit HSA-Code kann man auch den gemeinsamen Adressraum nutzen.

Die Protokolle und damit die benötigte Logik mögen sich unterscheiden. Die machen aber nur einen winzigen Teil der Die-Area aus. Der Löwenanteil sind die Pin-Outs, die eigentlich identisch sein könne.
Die Unterschiede sind ziemlich heftig im Detail. Da wird man schon einiges ändern müssen.

mironicus
2014-01-13, 13:31:56
Und? Kann man mit HSA vielleicht Anwendungen wie x264 stark beschleunigen?

robbitop
2014-01-13, 14:10:34
Mich wundert, dass die Benchmarks aus Italien noch gar nicht diskutiert worden sind.
Trinity und Kaveri wurden auf ~4,5 GHz übertaktet und auch Spiele wurden gebencht. Zwischen 8-15 % mehr IPC kommt dabei heraus. Sogar mit Resident Evil ein Ausreißer von > 30 %.

http://foro.noticias3d.com/vbulletin/showthread.php?t=421821

dildo4u
2014-01-13, 14:14:52
Die OC Benches sind für Arsch da 100mhz auseinander.

robbitop
2014-01-13, 14:22:54
Die OC Benches sind für Arsch da 100mhz auseinander.
Für Leute, die Multiplikation und Division beherrschen, sind die Benchmarks (zumindest für erste Einschätzungen) nutzbar.

Der_Korken
2014-01-13, 14:24:48
Dass die CPUs nicht gleich getaktet sind, ist wirklich schade, aber ich finde man sieht hier eine deutliche Steigerung in Spielen seitens Kaveri. Bei 720p legen die neuen Kerne teils ordentlich zu und wenn sie mal nicht schneller sind, dann liegen OC und nonOC so dicht zusammen, dass man ein starkes GPU-Limit haben muss. Für den vorgesehenen Anwendungszweck sicherlich eine nette Steigerung.

robbitop
2014-01-13, 14:36:17
Wirklich gute Benchmarks erhalten wir eh erst zum Launch. Aber die 100 MHz kann man ganz gut herausrechnen. Das sind ~2 %, die man auf das Ergebnis vom 5800 draufrechnen muss.

Mich würde interessieren (mein Italienisch ist etwas eingerostet :D), ob die Spielebenchmarks frei von Limitationen durch die GPU waren (durch die 7970). Falls ja, bewegt sich das im erwarteten Rahmen.

robbitop
2014-01-13, 14:44:56
Ich habe mal die 100 MHz normiert und die 720p Ergebnisse verglichen.

Hier also die taktnormierten IPC Zuwachsraten (Kaveri ggü. Trinity) in den Spielen:

Grid 2: 6,24 %
RE5: 36,32 %
Metro: 5,54 %
Hitman: 30,67 %
Batman: 9,73 %

Durchschnitt: +17,7 % (durch zu starke Abweichungen aber kein brauchbarer Wert)

Diese Benchmarks wurden offenbar mit dGPU gemessen.

Was mich sehr wundert, ist, wie stark unterschiedlich diese ausgeprägt sind. Das ist für mich nicht konkludent.

Entweder wurde Mist (seltsame Bottlenecks, seltsame Testumgebungen etc) gemessen oder die Benchmarks sind nicht echt.

ndrs
2014-01-13, 15:26:51
Die Unterschiede sind ziemlich heftig im Detail. Da wird man schon einiges ändern müssen.
Also ich kann beim besten Willen nichts finden, was eine Änderung notwendig machen würde. Falls ich was übersehen habe, immer her damit. Wenn's zuviel wird, kann ein Mod das auch gern in den DDR4-Thread verschieben. Aber ich sehe wirklich nichts gravierendes.

S940
2014-01-13, 15:31:49
Entweder wurde Mist (seltsame Bottlenecks, seltsame Testumgebungen etc) gemessen oder die Benchmarks sind nicht echt.War RE5 nicht auch ein Spiel, das überproportional vom Win-Schedulerpatch profitierte?

robbitop
2014-01-13, 15:40:45
War RE5 nicht auch ein Spiel, das überproportional vom Win-Schedulerpatch profitierte?
Und damit von den nun getrennten Decodern? ;)

(ich weiß es nicht)

RE5 profitierte damals IIRC sehr von gutem SMP. Beim Core 2 Quad waren die 2x2 Kerne über FSB miteinander verbunden. Erst Nehalem war ein nativer QC. Das brachte bei RE5 IIRC eine ganze Menge.

mczak
2014-01-13, 16:45:10
Wenn da wirklich ein Quad-Channel-Controller drin sein sollte. Ich würde nicht davon ausgehen. ;)
Naja also ich war da zuerst auch skeptisch. Der Die-Shot zusammen mit den Patches wirken aber ziemlich überzeugend. Wobei letzteres nur beweist dass da Logik existiert die iregndwie für 4 Speichercontroller ausgelegt ist - das heisst noch lange nicht dass die dann effektiv physikalisch vorhanden sind. Und bei ersterem habe ich keine Ahnung ob der echt war...
Aber prinzipiell erscheint mir die Idee auch ziemlich hirnrissig.

Skysnake
2014-01-13, 18:00:26
Abwärtskompatibilität? Muss das OS einer GPU-Anwendung (die kein HSA kann) nicht ihren Adressraum geben? Oder seh ich das falsch.

Nö, du musst da nur dafür sorgen, dass die Speicherbereiche getrennt sind. Da die GPU und die CPU aber die gleiche MMU nutzen, ist das gewährleistet.


Die Protokolle und damit die benötigte Logik mögen sich unterscheiden. Die machen aber nur einen winzigen Teil der Die-Area aus. Der Löwenanteil sind die Pin-Outs, die eigentlich identisch sein könne.
Naja. Der Pinout ist schon nicht schlecht, aber die SerDes usw belegen auch viel Platz!

Das Hauptproblem ist aber, dass die elektrische Anbindung eine komplett andere ist.

ndrs
2014-01-13, 18:30:10
Nö, du musst da nur dafür sorgen, dass die Speicherbereiche getrennt sind. Da die GPU und die CPU aber die gleiche MMU nutzen, ist das gewährleistet.
Jetzt mal für dumme (so wie mich :) ): Angenommen ich hab ein Spiel, das nix von HSA weiß. Dem muss ich doch zum Start sagen, wieviel VRAM es bekommt.
Und das ist doch eine Menge, die ich statisch vorher irgendwo festlegen muss, so wie es bisher auch immer bei IGPs war. Oder was raff ich grad nicht?

Naja. Der Pinout ist schon nicht schlecht, aber die SerDes usw belegen auch viel Platz!

Das Hauptproblem ist aber, dass die elektrische Anbindung eine komplett andere ist.
Müssen die SerDes so sehr umdesignt werden gegenüber DDR3? In welchem Bereich steckt eigentlich dieses Latenz-anlernen (genauen Namen hab ich vergessen)

Was genau meinst du mit elektrischer Anbindung? Abgesehen von der veränderten Spannung und dass es ne Punkt-zu-Punkt-Verbindung ist (wofür ja auch nur dieses Lern-Dings gebraucht wird) fällt mir jetzt nichts ein, was eher Sache des Mainboard-Designs denn der CPU ist.

Liszca
2014-01-13, 19:39:06
Jetzt mal für dumme (so wie mich :) ): Angenommen ich hab ein Spiel, das nix von HSA weiß. Dem muss ich doch zum Start sagen, wieviel VRAM es bekommt.
Und das ist doch eine Menge, die ich statisch vorher irgendwo festlegen muss, so wie es bisher auch immer bei IGPs war. Oder was raff ich grad nicht?

Sollte für hUMA kein problem sein einfach speicher für die GPU zu reservieren, vermute sogar dass aus kompatibildätsblabla auch lange so bleibt.


Schade ist eigentlich nur dass sich bandbreitentechnisch nichts bewegt nicht mal ein kanal mehr, noch nicht mal mehr takt.

Skysnake
2014-01-13, 19:39:11
Ähm... JA, ne ist klar, man muss "nur" XY machen, und dann funktionierts schon :ugly:

Das ist nicht mal eben nen Dübel in die Wand hauen um nen Bild dran auf zu hängen... Sowas designste nicht mal eben so, und jedwede Änderung an einer Stelle macht dir an ner anderen Stelle wieder neue Probleme. Das ist absolut nichts, was man "mal eben so" macht.

Was du meinst ist "auto/self training". (Btw. wie ich erst selbst erfahren musste, ist es gar nicht so einfach ne clock zu halten von nem SerDes.)

@VRAM:
Es ist halt RAM. Du hast X GB, und davon nimmt sich jeder so viel er halt sich nimmt.

r-or
2014-01-13, 20:07:38
Naja also ich war da zuerst auch skeptisch. Der Die-Shot zusammen mit den Patches wirken aber ziemlich überzeugend. Wobei letzteres nur beweist dass da Logik existiert die iregndwie für 4 Speichercontroller ausgelegt ist - das heisst noch lange nicht dass die dann effektiv physikalisch vorhanden sind. Und bei ersterem habe ich keine Ahnung ob der echt war...
Aber prinzipiell erscheint mir die Idee auch ziemlich hirnrissig.
Koennte es nicht sein, dass sie fuer hoehere Taktraten mehr Platz benoetigen?

ndrs
2014-01-13, 20:32:35
Ähm... JA, ne ist klar, man muss "nur" XY machen, und dann funktionierts schon :ugly:

Das ist nicht mal eben nen Dübel in die Wand hauen um nen Bild dran auf zu hängen... Sowas designste nicht mal eben so, und jedwede Änderung an einer Stelle macht dir an ner anderen Stelle wieder neue Probleme. Das ist absolut nichts, was man "mal eben so" macht.

Die Belehrung auf Kindergartenart kannste stecken lassen. Ich hab nach konkreten Unterschieden gefragt, weil ich außer den genannten keine kenne.
"auto/self training"
Danke, den Begriff hatte ich gesucht.

@VRAM:
Es ist halt RAM. Du hast X GB, und davon nimmt sich jeder so viel er halt sich nimmt.
Das überzeugt mich jetzt noch nicht so, aber ok ;)

Skysnake
2014-01-13, 21:02:32
Die Belehrung auf Kindergartenart kannste stecken lassen. Ich hab nach konkreten Unterschieden gefragt, weil ich außer den genannten keine kenne.

Soll ich dir jetzt was über Dotierungsprofiele, Bipolar vs CMOS bzw BiCMOS, Stromspiegel, Noise, PLL, Jitter, Induktivitäten, ohmsche und komplexe Widerstände, Kapazitäten usw erzählen?

Das kannste gleich knicken. Wenns dich wirklich interessiert, nimm nen Tool und simuliere die entsprechenden Schaltungen. Alles andere kannste knicken. Die Tücke steckt halt im Detail.

M4xw0lf
2014-01-14, 07:08:24
Moin... wo bleiben die Tests? :freak:

Schaffe89
2014-01-14, 07:18:54
Gibt heute keine Tests so wie es scheint....

Voodoo
2014-01-14, 08:34:16
12:00 EST vllt...

M4xw0lf
2014-01-14, 08:55:09
Wäre ungewöhnlich für AMD, da wird normalerweise um 6.00 gelauncht.

Pirx
2014-01-14, 09:02:22
Wäre sowieso besser für meine Arbeitsleistung, wenn die Tests erst abends kämen.:D

marc-05
2014-01-14, 09:15:50
Um 2 beginnt der Spaß steht jedenfalls auf den Folien, 8 AM EST
http://imgur.com/a/4WiVM

M4xw0lf
2014-01-14, 09:16:17
Um 2 beginnt der Spaß steht jedenfalls auf den Folien, 8 AM EST
http://imgur.com/a/4WiVM
Merci.

Voodoo
2014-01-14, 09:41:41
Wäre ungewöhnlich für AMD, da wird normalerweise um 6.00 gelauncht.

Naja 280X & 290/290X wurden auch um 12:00 EST gelaunched ;) Aber die Zeit auf den Folien wird wohl stimmen...

maximus_hertus
2014-01-14, 10:04:12
Naja 280X & 290/290X wurden auch um 12:00 EST gelaunched ;) Aber die Zeit auf den Folien wird wohl stimmen...

IdR launcht AMD um Mitternacht @ US-Ostlüste = 6 Uhr in Europa. 280X / 290 und Co. sind auch um 6 Uhr (deutscher) Zeit gelauncht worden.

MamaRooster
2014-01-14, 12:33:50
die ersten angebote sind verfügbar:

http://geizhals.de/amd-a10-7850k-ad785kxbjabox-a1050011.html

http://geizhals.de/amd-a10-7700k-ad770kxbjabox-a1050012.html

sollte BF4 nicht bestandteil sein?

fondness
2014-01-14, 13:14:30
Es gibt eine Edition mit BF4 und eine ohne. Womöglich kommt die BF4 Edition auch erst mit Mantle für BF4.

S940
2014-01-14, 23:28:32
Potentieller FX-Nachfolger: AMD zeigt 16-Kern-Prozessorschema in Programmierleitfaden | Planet 3DNow!. (http://www.planet3dnow.de/cms/7353-potentieller-fx-nachfolger-amd-zeigt-16-kern-prozessorschema-in-programmierleitfaden/)

Skysnake
2014-01-15, 00:27:13
hm...

Viel interessanter finde ich allerdings, das man PCI-E3.0 und HT über einen Link laufen lässt ;)

Das würde für ein Update von HT sprechen, was sehr zu begrüßen wäre.

Da AM3(+) und auch G34 usw kein PCI-E3.0 unterstützen, müsste es eigentlich was Neues sein. Ich tippe daher eher auf ne APU, bei der CUs als "Cores" gezählt werden.

hm...

Schaumer mal. Auf jeden Fall sehr interessant :up:
EDIT:
Kann an sich wohl doch keine APU sein. Ich schau mir gerade den GUIDE an. Mit ~400 Seiten ist der sogar vergleichsweise kurz :ugly:

Auf Seite 30 sind die "Key-Features" aufgerzählt. Das wird nichts von ner iGPU erwähnt. Es handelt sich wohl doch um 8 Module mit jeweils zwei (Integer-)Cores, müsste man ja jetzt dann doch als vollwertige Cores sehen, da die Decoder nicht mehr geshared sind.

Von DDR4 ist aber keine Rede! Nur von DDR3. Von nur einem DIE und keinem MCM mehr, seh ich aber nichts.

Ansonsten:
Es bleibt bei ner 2x128Bit FPU :(

S940
2014-01-15, 19:49:12
Von nur einem DIE und keinem MCM mehr, seh ich aber nichts.
Steht doch in der News:
Da im obigen Schema aber alle Kerne an einem System-Request-Interface (SRI) hängen, beschreibt das Schema zweifelsohne ein einziges Die.
Das PCIe/HTr Interface ist auch nicht neu, war bereits so für die C32(G34 Nachfolger geplant, die wurden aber 2011 gestrichen.

Anscheinend geistert die Technik aber AMD-intern weiter herum ... fragt sich nur obs jemals Silizium dafür gibt.
Von DDR4 ist aber keine Rede! Nur von DDR3.
Von DDR4 steht in der Tat nichts drin, aber nachdem es das Teil nochnichtmal in ner Roadmap gibt, wird es kaum noch dieses Jahr erscheinen (wenn überhaupt), ergo muss man von mind. 2015 ausgehen und das ist dann DDR4-Gebiet.

AMD wär auch ziemlich blöde, wenn sie nach 3 Jahren Daumendrehen die damals fast fertige DDR3-Plattform doch noch in dem Moment launchen, wenn gerade ein neuer Speicherstandard rauskommt.

Aber im Moment ist das ganze Ding so oder so ein Ü-Ei.

AnarchX
2014-05-04, 18:05:06
AMD FX-7600P Radeon R7, 12 Compute Cores 4C+8G
AMD A10-7400P Radeon R6, 10 Compute Cores 4C+6G
AMD A8-7200P Radeon R5, 8 Compute Cores 4C+4G
AMD FX-7500 Radeon R7, 10 Compute Cores 4C+6G

AMD A10-7300 Radeon R6, 10 Compute Cores 4C+6G
AMD A8-7100 Radeon R5, 8 Compute Cores 4C+4G

AMD A10-7350B Radeon R6, 10 Compute Cores 4C+6G
AMD A10-7850K Radeon R7, 12 Compute Cores 4C+8G
AMD A10-7800 Radeon R7, 12 Compute Cores 4C+8G
AMD A10-7700K Radeon R7, 10 Compute Cores 4C+6G
AMD A8-7600 Radeon R7, 10 Compute Cores 4C+6G
AMD A6-7400K Radeon R5, 6 Compute Cores 2C+4G
AMD A4-7300 Radeon R5, 5 Compute Cores 2C+3G

Source: FM2+ A88 bios.

http://semiaccurate.com/forums/showthread.php?t=7948

M4xw0lf
2014-05-04, 18:47:12
Das "xyzG" steht für fest verlöteten GDDR5 mit 4/6/8 GB als gemeinsamer Systemspeicher? ^^

Die Nomenklatur mit FX/Axyz sieht aber reichlich chaotisch aus. Genauso mysteriös sind die Suffixe -P, -B, -K (wobei letzteres ja schon von bisherigen CPUs/APUs bekannt ist).

Unicous
2014-05-04, 18:56:11
Zum Brechen ey.

Den FX moniker für eine APU gab es ja schon unlängst für ein OEM-Gerät.

B steht für Business und den Suffix gibt es auch schon ein paar Jahre. Wofür nun P wieder stehen soll, keine Ahnung. Performance, Pen..ultimo? Power?

Die Frage ist auch, ob man die Nomenklatur ändert, oder ob das nur 7x00er Series bedeutet und es dazwischen Modelle gibt.


Wo liegt eigentlich das Problem ordentliche Namen für sein Produkt zu finden?


Na immerhin heißen die Dinger nicht DC3217IYE.;D

Ravenhearth
2014-05-04, 18:56:45
Das xyzG steht für die Menge der Compute Units in der Grafikeinheit. Also 4=256 SPs, 6=384, 8=512 (Vollausbau).

dildo4u
2014-05-04, 19:01:05
AMD A10-7300 2Ghz Basis 3.2Ghz Turbo 19Watt.

http://www.computerbase.de/2014-05/amd-a10-7300-als-notebook-kaveri-bei-hp-aufgetaucht/

M4xw0lf
2014-05-04, 19:01:47
Das xyzG steht für die Menge der Compute Units in der Grafikeinheit. Also 4=256 SPs, 6=384, 8=512 (Vollausbau).
Stimmt. Ok, weniger spannend ;)

Ravenhearth
2014-05-05, 00:59:22
In der HP-Liste zum A10-7300 steht auch noch "SOC" - anders als beim Richland. Ist der FCH vielleicht auf dem Package?

Unicous
2014-05-05, 02:11:04
SOC: Soldered on chip. Aufgelöteter Chip.:biggrin:


Nicht zu verwechseln mit SoC: System on Chip.;D




Weitermachen.

boxleitnerb
2014-05-05, 07:31:44
Stimmt. Ok, weniger spannend ;)

Zählt nochmal nach, das passt nicht, jedenfalls nicht in dieser Zählweise. 4G hätte 8 CUs, 8G aber 16 und nicht 12 wie es in der Liste steht.

M4xw0lf
2014-05-05, 09:10:53
Zählt nochmal nach, das passt nicht, jedenfalls nicht in dieser Zählweise. 4G hätte 8 CUs, 8G aber 16 und nicht 12 wie es in der Liste steht.
CUs und CPU-cores werden addiert, hat mich auch zuerst verwirrt.

ndrs
2014-05-07, 09:55:03
Angebliche Liste der Notebookmodelle:
http://www.computerbase.de/2014-05/amd-kaveri-fuer-notebooks-mit-hoeherer-effizienz/
Das sieht gegenüber Richland ganz ordentlich aus. Falls das Topmodell nicht zu sehr am Boost hängt, könnte man damit vielleicht sogar schon in die Nähe eines Haswell U nebst GK208 (vielleicht sogar 107) kommen.

Unicous
2014-05-07, 10:10:27
Habe ich schon im Review Thread gepostet. Frage mich woher CB das hat. Mal wieder hier geschmult oder bei SA geschaut hat. Die Sekundärquelle wurde jedenfalls wie üblich nicht angegeben und ich kann mir nicht vorstellen, dass CB aktiv baidu.com durchsucht. Das Ganze als "asiatisches Forum" zu bezeichnen finde ich auch sehr putzig. Das chinesische Google nur ein asiatisches Forum?;D

Ich denke auch, dass sich die Taktraten sehen lassen können zusammen mit höherer ST- und dadurch MT-Leistung könnte man da wirklich zu einigen kleineren Haswell Modellen aufschließen. Ich könnte mir auch vorstellen, dass sie sich in Perf./W nicht viel nehmen werden. AMD hat bei Steamroller/Kaveri einiges am Powermanagement verbessert.

Ich habe zwar so gut wie nichts verstanden, aber sie haben höchstwahrscheinlich ein neues Verfahren bei Spannungsdroops (wie heißt das eigentlich auf Deutsch, gibt es da eine Entsprechung? Spannungsabfall wahrscheinlich, oder? edit: wobei das ja eher ein Durchhängen ist ;)) implementiert, dass die Taktraten entsprechend angleicht um diese kurzfristig und kurzzeitig auszugleichen. Dadurch kann man besonders bei höheren Taktraten deutlich an Strom sparen, weil man die Spannungsabfälle eben besser abfangen und dadurch kontollieren kann.


http://www.realworldtech.com/steamroller-clocking/

Dazu gibt es es eine neue Version von PowerExpress alias Enduro. Könnte schick werden.

y33H@
2014-05-07, 10:15:48
Die Modelle sehen von den Specs her gut aus ... jedoch altes Problem: Sie kommen (zu) spät und vermutlich in wenigen Geräten und die sind dann noch ... nun ja, "komisch". zB wird die schnellste APU wohl wieder mit einer dGPU gekoppelt und die ULVs gibt's fast gar nicht.

Wäre freilich schön, wenn es anders wäre.

Duplex
2014-05-07, 11:20:35
Es war abzusehen das AMD mit dem 28nm Kaveri´s gegen Intels 14nm Broadwell´s antreten muss, ich hab es schon öfter gesagt, bis jetzt sind die APUs kaum Verfügbar und es gibt nur 2 Modelle, was soll man dazu noch sagen, Produkte ankündigen und nicht Verfügbar...

Mars81
2014-06-01, 12:10:26
Die Modelle sehen von den Specs her gut aus ... jedoch altes Problem: Sie kommen (zu) spät und vermutlich in wenigen Geräten und die sind dann noch ... nun ja, "komisch". zB wird die schnellste APU wohl wieder mit einer dGPU gekoppelt und die ULVs gibt's fast gar nicht.

Wäre freilich schön, wenn es anders wäre.

Das hier sieht doch schon mal ganz nett aus: http://geizhals.de/acer-aspire-e5-551-t8x3-nx-mldeg-002-a1121581.html
non-glare display
ab ende juni lieferbar
nur die ppi könnten "etwas" mehr sein

Schaffe89
2014-06-01, 12:30:43
Es war abzusehen das AMD mit dem 28nm Kaveri´s gegen Intels 14nm Broadwell´s antreten muss, ich hab es schon öfter gesagt, bis jetzt sind die APUs kaum Verfügbar und es gibt nur 2 Modelle, was soll man dazu noch sagen, Produkte ankündigen und nicht Verfügbar...

AMD ist unter Druck, wenn die was bei CPU´s launchen, dann gilt eigentlich die letzten 5 Jahre die Regel:

Alles zögert sich wie ein Gummi hinaus und gute Produkte werden dann nochmals trotz vorheiger Ankündigung verschoben oder kommen gar nicht.

Siehe A8-7600.

1366x768 Auflösungen sind nicht mehr Zeitgemäß, ich kann nichtmal produktiv 2 Fenster aufmachen. Den schwachsinn kann man vergessen.

fondness
2014-06-01, 12:42:15
Der A8-7600 war schon immer fürs Q2 angekündigt und kommt auch im Q2.

Knuddelbearli
2014-06-04, 06:17:31
http://www.computerbase.de/2014-06/amd-fx-7600p-kaveri-apu-notebook-test/

sieht sehr nett aus. in Spielen kaum langsamer als mit 95W oO

HOT
2014-06-04, 08:43:11
Es war abzusehen das AMD mit dem 28nm Kaveri´s gegen Intels 14nm Broadwell´s antreten muss, ich hab es schon öfter gesagt, bis jetzt sind die APUs kaum Verfügbar und es gibt nur 2 Modelle, was soll man dazu noch sagen, Produkte ankündigen und nicht Verfügbar...
Muss er nicht, höchstens bei den Y-Varianten und das auch recht spät. Carrizo muss gegen Broadwell antreten.

Undertaker
2014-06-04, 09:13:05
Es war abzusehen das AMD mit dem 28nm Kaveri´s gegen Intels 14nm Broadwell´s antreten muss, ich hab es schon öfter gesagt, bis jetzt sind die APUs kaum Verfügbar und es gibt nur 2 Modelle, was soll man dazu noch sagen, Produkte ankündigen und nicht Verfügbar...


Etwa Oktober kommen mit wenigen Wochen Versatz sowohl die Tablet- als auch die normalen ULV-Chips, die zusammen mehr als die Hälfte des mobilen Segmentes sowie das wachsende NUC-Segment abdecken. Da bei Intel idR anders als bei AMD eine nahezu sofortige Verfügbarkeit gegeben ist, bedeutet dass also vielleicht 2-3 Monate Versatz zwischen Broadwell und Kaveri. Die konkurrieren mobil also direkt miteinander, genau wie erwartet.

M4xw0lf
2014-06-04, 21:14:11
Jetzt ist AMDs toller Countdown abgelaufen und der mobile Kaveri, zu dem heute schon eine Tonne Reviews zu lesen waren, wurde enthüllt. Are you kidding me? :|

Schaffe89
2014-06-04, 21:56:46
Ist ja schön, wenn man was in den Himmel schießt, aber mehr als das Video hätte ich mir jetzt schon erwartet.......

M4xw0lf
2014-06-04, 22:00:16
Immerhin gibts offenbar tatsächlich bald schon Geräte damit, und nicht irgendwann, wenn überhaupt. Toshiba, HP, Acer und Lenovo.

fondness
2014-06-04, 22:02:20
Ist bereits lieferbar:
http://geizhals.at/eu/acer-aspire-e5-551g-t7gr-nx-mleeg-004-a1124747.html

M4xw0lf
2014-06-04, 22:11:00
Eins von Lenovo ist zumindest gelistet. http://geizhals.at/eu/lenovo-z50-75-59421169-a1124750.html
Leider allesamt natürlich mit langweiligem Formfaktor und unsexy Ausstattung - 15.5", 768p, nix SSD. Gäähn.

dildo4u
2014-06-04, 22:25:58
Ich frag mich wozu die extra GPU bei der Auflösung,der Vorteil der APU wäre doch lange Laufzeit selbst beim zocken.

anddill
2014-06-05, 00:12:26
Die Hersteller sind einfach zu dämlich. Ich wette da ist dann auch noch Singlechannel DDR3-1333 drin.

dildo4u
2014-06-05, 00:13:28
Die Hersteller sind einfach zu dämlich. Ich wette da ist dann auch noch Singlechannel DDR3-1333 drin.
Wäre egal da sie extra GPU's haben.

OBrian
2014-06-05, 03:42:16
Bei Geizhals sind 7686 Intel-Notebook gelistet, davon 1849 mit einer Auflösung größergleich 1920x1080, das sind 24,1 %. AMD-Notebooks gibt es 724, davon 24 mit mindestens HD-Auflösung, das sind gerade mal 3,3 % - und die allermeisten sind üble Klopper, nur ein einziges ist unter 2 kg.

Und mir kann keiner sagen, daß so ein Notebook mit HD-Auflösung, SSD, viel RAM usw. zu einem Preis von über 1000€ sich deswegen verkauft, weil ein ach so starker Intel mit zwei Kernen und 1,6 GHz drin ist.

Die Hersteller sind einfach zu dämlich. Das ist doch nicht wahr. Wer als Firma ein Notebook entwirft und entwickelt, der weiß doch haargenau und besser als jeder von uns hier, was er für technische Optionen hat. Die wägen genau ab, und ganz offensichtlich gibt es da auch andere als technische Argumente. Von starken Subventionen durch Intel hörte man ja schon. Nur frage ich mich, ob sich gute AMD-Notebooks wirklich gar nicht verkaufen würden, wenn man diese sagen wir 50 € (die eine Intel-CPU den Hersteller billiger kommt als eine von AMD, weil AMD 20€ haben will und Intel ihnen 20€ schenkt und noch einen WLAN-Chip dazu) komplett auf den Käufer abwälzen würde. Bei vierstelligen Notebookpreisen wäre das wohl durchaus möglich. Daß es trotzdem GAR keine Angebote gibt, muß ja zwangsläufig zu Verschwörungstheorien führen.

y33H@
2014-06-05, 03:46:38
Umgekehrt hat es AMD "geschafft" sein eigenes Whitebook mit FX-7600P mit DDR3-1866 mit CL10 statt flottem DDR3-2133 auszustatten :usad:

anddill
2014-06-05, 07:58:22
Bei SO-DIMMS kann es ja durchaus sein dass es die richtig schnellen nicht auf Fingerschnipp gibt. Wobei bei so einem Gerät 16GB aufgelöteter flotter RAM für 99,99% der potentiellen Kunden sicher ok wär und hier wohl die sinnvollste Lösung wäre.

fondness
2014-06-05, 10:18:05
Mien Fehler.

y33H@
2014-06-05, 11:17:30
Bei SO-DIMMS kann es ja durchaus sein dass es die richtig schnellen nicht auf Fingerschnipp gibt.Sorry, aber bei einem Whitebook für ein Event, bei ich Monate vorher Bescheid weiß, wird man ja wohl gescheiten Speicher auftreiben können ...

Kriton
2014-06-05, 12:00:14
Ich frag mich wozu die extra GPU bei der Auflösung,der Vorteil der APU wäre doch lange Laufzeit selbst beim zocken.

Weiß jemand ob die GDDR5 oder DDR3 nutzt?

http://geizhals.at/eu/lenovo-z50-75-59421169-a1124750.html

Duplex
2014-06-14, 00:33:22
AMD ist unter Druck, wenn die was bei CPU´s launchen, dann gilt eigentlich die letzten 5 Jahre die Regel:

Alles zögert sich wie ein Gummi hinaus und gute Produkte werden dann nochmals trotz vorheiger Ankündigung verschoben oder kommen gar nicht.
Genauso ist es!

Duplex
2015-01-26, 16:44:52
Godavari mit Steamroller 40h Kerne?

http://www.computerbase.de/2015-01/kaveri-refresh-als-godavari-im-sommer/

http://www.planet3dnow.de/vbulletin/showthread.php/416738-AMD-verplappert-sich-zu-Family-15h-Models-40h-4Fh-CPUs

Unicous
2015-01-26, 18:57:40
Wie kommst du vom einen aufs andere?

Da wurden nur die Taktraten angezogen.

Aber AMD kann (endlich:freak:) die Sektkorken knallen lassen:

First APU to surpass 1 TFLOP.

AMD A10-8850K

CPU Turbo 4,1 GHz

GPU 856 MHz

:ubeer:

Ravenhearth
2015-01-26, 21:10:39
Das ist aber auch sehr, sehr knapp und nur unter speziellen Bedingungen zu erreichen. Die GPU kommt bei 856 MHz auf 876,5 GFLOPs, die CPU erreicht auf 4,1 GHz nur bei FMA FP32 genau 131,2 GFLOPs, insgesamt also 1007,7 GFLOPs.

Unicous
2015-01-26, 21:28:52
Und?


Die Werte, wenn sie stimmen wurden nicht zufällig gewählt. Kaveri sollte laut einer offiziellen Folie von AMD ursprünglich 1050 GFLOPs erreichen (jedenfalls etwas über 1TFLOP liegen), am Ende waren es 856.

Diese Marke wollten sie aber unbedingt noch knacken. Es ist im Endeffekt auch nur ein Häkchen, das beim Marketing gesetzt werden kann.:freak:

Unicous
2015-01-29, 17:00:31
Dieser Release Schedule ist vermutlich die Quelle von sweclockers' Godavari Leak und vr-zone hat sie vermutlich jetzt erst zugesteckt bekommen:

http://twimages.vr-zone.net/2015/01/godavari.jpg

http://chinese.vr-zone.com/141759/codename-is-godavari-include-a10-apu-and-athlon-cpu-will-released-by-amd-in-first-half-01292015/

Snafu
2015-01-29, 17:57:19
Laut dieser Liste sinkt der CPU-Takt bei den 65W Modellen und der GPU Takt steigt.
Das macht doch absolut keinen Sinn.

Unicous
2015-01-29, 18:13:12
Nicht unbedingt. AMD konnte bei Kaveri und wohl auch bei Carrizo nur unzureichend die Taktraten auf CPU-Seite erhöhen und ich schätze, dass sie zumindest den Flaschenhals beim GPU-Takt erweitern konnten und vllt. sogar den Turbo verbessert haben( der meines Erachtens weiterhin vor allem von der Versorgungsspannung abhängig ist).

Kaveri ließ sich auf GPU-Seite ja anscheinend durchgehend gut übertakten ohne dass die Leistungsaufnahme sich in erschreckende Höhen hochgeschraubt hat.

Sie könnten den Spieß umdrehen und sagen: CPU-Leistung ist noch unwichtiger in diesem Segment wir haben stattdessen den GPU Takt bei einigen Modellen um fast 50% angehoben.

Der Basistakt wurde bei einigen Modellen verringert, dafür der Turbo erhöht. Das könnte schon Sinn ergeben und die SKU sogar effizienter machen.

Es könnte aber genauso gut Quatsch sein. Am Ende des Tages hat man nie vollständige Klarheit bei solchen "Leaks".

Vanilla
2015-01-29, 19:42:07
Außerdem ist mit dem A10-8750 dann eine 65W APU im Programm die 512 Shader hat.

Unicous
2015-01-29, 19:50:55
Sehr gut beobachtet. Der 8350B hat z.B. auch mehr Shader, je nach Quelle sind es 128 (2 CUs) oder 192 Shader (3 CUs).

Die TDPs unterscheiden sich auch. Z.B. 95 Watt vs. 65 Watt 7650K vs. 8650K. edit: Hab mich verguckt. Bzw. mit 8560 ohne K verwechselt.

Man geht also klar auf Effizienz und Grafikleistung. An sich nicht schlecht. Durch die fehlenden Carrizo- Verbesserungen dennoch "meh".

Effe
2015-01-29, 20:25:07
Da sind doch einige Merkwürdigkeiten drin: warum sollte der 870K (3,5/3,7Ghz) weniger Takt haben als der 860K (3,7/4,0Ghz)? Das ist völlig unlogisch.

tm0975
2015-01-30, 09:06:59
Was bedeutet PC, PR, IP in der Grafik von Unicous?

M4xw0lf
2015-01-30, 10:07:00
Ich hab heute mal nach Laptops mit AMD-Innenleben gestöbert, weil ich für ältere Spiele von GoG praktisch nur meinen Laptop nutze, und dessen Intel HD4000 mich mit ihrem Funktionsmangel dezent nervt... aber das (nicht)Angebot an AMD-Geräten ist einfach nur zum Kotzen! :mad:

Unicous
2015-02-02, 17:08:07
Ich hatte irgendwo schon einmal Hinweise auf Godavari->Mullins GPU Codename gefunden und "The Stilt"
hat dazu jetzt einen screenshot veröffentlicht.

http://imagizer.imageshack.us/a/img538/4690/ALZsd2.png

http://www.xtremesystems.org/forums/showthread.php?289027-next-big-core-AMD-late-2015-or-Q1-Q2-2016-info-speculation&p=5245514&viewfull=1#post5245514

Tja... stellt sich die Frage: "utter bullcrap" oder Codenamen-Wiederverwurstung (wäre nicht das erste Mal bie AMD).:confused: