PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ende der FX Prozessoren


Duplex
2013-08-05, 14:53:26
Interestingly the document also made it clears the days of the big core are numbered, leaving the FX-9590 as the final legacy of the FX line.
http://vr-zone.com/articles/hold-for-publication-why-its-a-big-deal-that-amd-is-delaying-kaveri/49389.html#ixzz2b6AKAHts

Leonidas
2013-08-05, 15:23:54
Immer diese vorsätzlichen Fehldeutungen.

Wenn AMD offiziell keinen Bedarf mehr an Enthusiasten-Prozessoren sieht, dann ist das nur Schönfärberei des Punkts, daß man derzeit auf diesem Segment nicht konkurrenzfähig ist. Eine Aussage dazu, daß man diesbezüglich nichts mehr anbieten wird, ist dies nicht. Zudem wird man Steamroller und Excavator logischerweise für Opterons umsetzen - dabei könnten ganz automtisch neue FX-Prozessoren abfallen.

Ronny145
2013-08-05, 15:25:40
Zudem wird man Steamroller und Excavator logischerweise für Opterons umsetzen - dabei könnten ganz automtisch neue FX-Prozessoren abfallen.


Ob sie das machen ist nicht klar. Für 2014 ist nichts verzeichnet.

Spasstiger
2013-08-05, 15:32:25
Steamroller wird sicherlich auch als Opteron mit 8 und 16 Cores kommen, das Geschäft hat AMD noch nicht aufgegeben. Vielleicht hat AMD aber Angst, dass man sich das Opteron-Geschäft mit den billigen FXen kaputt macht und will keine Kapazitäten für Billig-CPUs mehr opfern.
Und eine 8-Kern-APU ist 2014 auch nicht abwegig. Die Xbox One und die PS4 werden mit ihren 8 Cores sicherlich für eine gewisse 8-Kern-Erwartungshaltung am Markt sorgen.

Locuza
2013-08-05, 15:40:18
Und wann soll Steamroller mit mehr als 2 Modulen auf dem Server-Markt auftauchen?
2015?
Für das ganze Jahr wird zuerst einmal nur die reine CPU Warsaw/Piledriver verzeichnet.
Steamroller findet sich nur in Berlin, der Kaveri APU Chip für den Server-Markt.
Natürlich lässt das somit wenig Hoffnung für eine Steamroller FX-Reihe beim Consumer.

HOT
2013-08-05, 17:28:03
Wenn der Warsaw-Opteron kommt werden sicherlich von der CPUs auch FXen abfallen (8500 oder 9500-Serie?). Der 9590 bleibt sicher dennoch das Ende der Fahnenstange, so gesehen der dickste FX den es je geben wird.

SR können wir denke ich haken, da kommt nix. Aber nach Warsaw kommt sicher ne neue Serverplattform mit DDR4 und APU-Tauglichkeit, da kommen dann auch neue dicke Excavator-APUs. Da hat das Doku recht, die heißen bestimmt nicht mehr so, der Name ist verbrannt. Aber AMD hört nicht jetzt plötzlich auf alle Märkte zu bedienen. Dann hätte man sich Warsaw auch schenken können. Die CPU gibts doch nur zur Überbrückung bis zu neuen Plattform, ansonsten macht diese CPU überhaupt keinen erkennbaren Sinn.

Knuddelbearli
2013-08-06, 05:34:59
zOuRLRszIcc

wieso gehts in der Vorschau aber nachm abschicken nicht mehr? ...

disap.ed
2013-08-06, 12:55:10
[...] Da hat das Doku recht, die heißen bestimmt nicht mehr so, der Name ist verbrannt. Aber AMD hört nicht jetzt plötzlich auf alle Märkte zu bedienen.

Sch*** Verlustwärme :)

mironicus
2013-08-06, 15:47:49
Vielleicht kommt ja bald ein Statement von AMD wenn mehr Seiten die News bringen. :D

Matrix316
2013-08-07, 14:44:45
Also ich brauch auch keine dicken FX Prozessoren mit 200W TDP oder so, aber ich hätte gerne einen AMD der ungefähr 20% schneller als ein i7 4770 K ist. Schon würde ich wieder mal auf AMD umsteigen. ;)

Diesen APU Kram können sie sich für Notebooks aufheben, oder für kleine PCs die keinen Platz für eine normale Grafikkarte haben.

L.ED
2013-08-07, 15:32:03
Warum kapiert das der allgemeine Mainstream offenbar nicht? :smile: Die sog. APU's der Zukunft sind der Schlüssel um u.a. in Spielen Zerstörbare Interaktive Welten endlich vernünftig oder in modern realisieren zu können (also weiterführende Physik)!

Und genau aus dem Grund ist es gut so das alles in die Richtung läuft und in naher Zukunft es nichts mehr geben wird was außerhalb dem rangiert (die APU nebst anhänglichem wird zu einem fundamentalen Bestandteil, angefangen von Low bis HighEnd)!

Die Fähigkeit damit Optional auch OnBoard Grafik haben zu können ist nurmehr ein Nebenbeiaspekt, gemeint und nochmals darum geht es überhaupt nicht mehr! :wink:

Matrix316
2013-08-07, 16:11:00
Weil der allgemeine "Mainstream" denkt, dass APUs zur Zeit nur ein fauler Kompromiss sind, wo man nichts halbes und nichts ganzes hat.

Jedenfalls in Zeiten wo High End CPUs noch mit sowas http://geizhals.at/de/noctua-nh-u9dx-i4-a946764.html und GPUs mit sowas http://geizhals.at/de/arctic-cooling-accelero-xtreme-plus-ii-a644242.html gekühlt werden müssen, damit es nicht zu heiß und zu laut wird. :naughty:

Außerdem denkt der "Mainstream", dass er auch in Zukunft CPU und GPU und Mainboard und Speicher getrennt aufrüsten können möchte und nicht wie Spielkonsolen alles auf einmal neu kaufen muss. ;) Weil dann hat man nämlich genau das: Spielkonsolen. Und keine Personal Computer.

L.ED
2013-08-07, 16:46:29
Ja und da hat dann der allgemeine Mainstream ein Denkfehler denn das eine schließt das andere Zukünftig nicht aus im Gegenteil wenn man Grafik wie in Crysis 3 oder gar mehr weiterhin haben möchte (was mit Sicherheit der Fall)! :naughty:

Laienhaft gesagt fügt sich der GFX Kern einer APU (https://de.wikipedia.org/wiki/Accelerated_Processing_Unit) wie eine FPU ins Ganze, das verschmilzt einfach und ist dann kein Fremdkörper mehr.

Weiteres Stichwort wäre hier auch GPGPU das erst ab da an umfangreicher und auch viel allgemeiner genutzt werden kann! Die Voraussetzung ist eine dichte und schnelle Anbindung, derart wie sie über dezidierten GPUs (sprich auf Grafikkarten verbauten), so nicht gegeben. ;)

gnahr
2013-08-07, 19:10:24
viel schlimmer die fachidioten: denken mit apus wäre es getan.
insbesondere die grafikleitstung springt ja fast innerhalb von 2 bis 3 jahren. fail-fusion würde dazu führen, dass man eine super-teure komponente im pc hat, von der auch noch viel leistung abhängen würde. sie ist scheiße schwer zu kühlen (nicht nur bulldozer-verbockt-alike, sondern weil überhaupt nur noch 1 hotspot) und alle paar jubeljahre zu tauschen um das 1 spiel spielen zu können, das extra darauf optimiert wurde.
richtig, es muss ja noch darauf optimiert werden. extra engines für die paar prozent kunden... man lacht sich schlapp. wenn nur halb so gut für herkömmliche grakas entwickelt worden wäre, bräuchte es 2/3 der treiber-bugfixes nicht, aber hier phantasieren manche danach. abenteuerlich wie peter pan -> strumpfhosen storys für leute die der realität entflattern wollen.

Liszca
2013-08-07, 20:23:22
viel schlimmer die fachidioten: denken mit apus wäre es getan.
insbesondere die grafikleitstung springt ja fast innerhalb von 2 bis 3 jahren. fail-fusion würde dazu führen, dass man eine super-teure komponente im pc hat, von der auch noch viel leistung abhängen würde. sie ist scheiße schwer zu kühlen (nicht nur bulldozer-verbockt-alike, sondern weil überhaupt nur noch 1 hotspot) und alle paar jubeljahre zu tauschen um das 1 spiel spielen zu können, das extra darauf optimiert wurde.
richtig, es muss ja noch darauf optimiert werden. extra engines für die paar prozent kunden... man lacht sich schlapp. wenn nur halb so gut für herkömmliche grakas entwickelt worden wäre, bräuchte es 2/3 der treiber-bugfixes nicht, aber hier phantasieren manche danach. abenteuerlich wie peter pan -> strumpfhosen storys für leute die der realität entflattern wollen.

Bei den Hotspots hast du ja recht, aber warum sollte denn die optimierung so aufwendig sein bei hUMA? Ich denke dass es auf lange sicht eher anders herum ist.

Aber um nochmal auf die hotspots zurück zu kommen, gpus können ja gerne mal 90°C heiß werden und funktionieren noch immer tadellos. Heutige CPUs fangen jedoch schon bei ca. 70°C an den takt durchaus spürbar zu senken. Ist das nicht ein erhebliches Problem für eine APU wenn sich die Streamprozessoren noch mehr erhöhen? Sprich die CPU fängt noch häufiger an sich zu "throttlen".

Matrix316
2013-08-08, 18:07:49
Man müsste doch einfach nur die Schnittstellen zwischen den Teilen optimieren und dann könnten auch CPU und GPU den gleichen Speicher verwenden z.B. ohne, dass die GPU jetzt in der CPU eingebaut sein muss.

Schon klar, dass der Optimalfall wäre, wenn CPU, GPU UND Cache/RAM auf einem Chip wären, aber der Optimalfall wäre auch, wenn ALLES auf einem Chip wäre, inkl. USB Adapter und Monitor Anschluss. ;)

Durch ein Mainboard wird es immer Latenzen geben und so schlimm ist es im Moment mit getrennten Einheiten ja auch nicht, oder? Ein Core i7 + Titan Gespann ist immer noch um Welten schneller als jede APU Sache.

mrt
2013-08-08, 18:18:32
Es geht um Dingen die man mittels GPGPU machen kann und nicht um Grafik auf der APU.

Matrix316
2013-08-08, 20:05:26
Dafür brauch ich aber keine CPU, wenn eh alles auf der Grafikkarte berechnet wird.;)

Gipsel
2013-08-08, 20:18:38
Dafür brauch ich aber keine CPU, wenn eh alles auf der Grafikkarte berechnet wird.;)Es geht ja gerade um die Fälle, bei denen CPU und GPU eng verzahnt zusammenarbeiten sollen (was potentiell sogar mehr ist, als heutige GPGPU-Anwendungen). Dafür immer alles mit Treiberoverhead über PCIe zu schieben, ist nicht gerade ideal. Es gibt durchaus Szenarien, in denen ein Kaveri eine Core i5+Titan-Kombination deutlich schlagen wird.

Locuza
2013-08-08, 20:25:31
Dafür immer alles mit Treiberoverhead über PCIe zu schieben, ist nicht gerade ideal. Es gibt durchaus Szenarien, in denen ein Kaveri eine Core i5+Titan-Kombination deutlich schlagen wird.
Könntest du ein Beispiel nennen, egal ob praktisch oder theoretisch, wo der Kommunikationsoverhead einem klassischem System das Genick bricht oder den Großteil der Zeit verschlingt?

mrt
2013-08-08, 20:26:24
Und genau das geht wegen der hohen Latenz bei vielen Sachen nicht. Niemand spricht davon bei Spielen auf eine Grafikkarte zu verzichten. Es geht darum, dass Sachen, die sehr gut parallelisiert werden können, eben gut auf der iGPU aufgehoben wären und das mehr bringt als stur immer mehr CPU-Kerne zu verbauen.

gnahr
2013-08-08, 20:28:08
richtig, effektive anwendungen sind reine hypothese einer zukunft.
es ist keine "die zukunft beginnt heute"-sache, sondern es müssten sich erstmal zahlreiche alltagsanwendungsfälle für die vielen heimanwender da draußen entwickeln. dafür aus konfigurierbaren heimconputer all-in-one-spielzeuge machen? fertigprodukte die man nur als meterware vom hersteller kaufen kann? bitte nicht! dann lieber ne saubere integration in die zusatzkarten. maxwell bekommt nen kleinen arm-kern mit rauf aufs brett, also ab durch die mitte mit den zukunftsanwendungen an die stelle, wo auch direkt die bildausgabe bei schwergewichtsrechnern vorgenommen wird und nicht dieserbudget krempel a la a6 bis a10. wer sowas kauft hat die anwendung von morgen wahrscheinlich eh nicht auf dem schirm sondern einfach nur ein beschränktes anwendungsgebiet, nen zwackenden geldbeutel oder ne vorliebe für kundenunfreunliche, ressourcenfressende und damit umweltverschmutzende querschläge von geistesblitzen. über die coustom-kühler in dem preisbereich muss man wohl nicht streiten...

mrt
2013-08-08, 20:46:33
Genau, weil wegen einer zusätzlichen GPU im Prozessordie definitiv keine Grafikkarte mehr verbaut werden kann, ja mehr noch, deswegen muss der Prozessor, der Arbeitsspeicher und die SSD auf dem Board verlötet werden...:rolleyes:

gnahr
2013-08-08, 21:07:57
es geht um keine "gpu" im prozessor, sondern nur die ausführenden einheiten einer gpu "eigentlich".
das wird aber gern in einen topf gehauen und schon kommt es zu einer umdeutung der abkürzung für AudioProcessingUnit...
und was macht man? weil man die einheiten nicht so integriert bekommt (denn sie wären fast durchgehend nutzloser balas) flappt man ne halbe gpu drauf. toll.

Matrix316
2013-08-09, 11:46:01
Genau, weil wegen einer zusätzlichen GPU im Prozessordie definitiv keine Grafikkarte mehr verbaut werden kann, ja mehr noch, deswegen muss der Prozessor, der Arbeitsspeicher und die SSD auf dem Board verlötet werden...:rolleyes:
Nee, aber das wäre der optimale Optimalfall um alle Latenzen auf den minimalsten Wert zu bringen. Idealerweise hast du nur noch einen Chip in dem CPU, GPU, RAM und SSD komplett vereint ist. Nur so hast du die kürzesten Signalwege. ;)

Selbst wenn du die GPU in die CPU einbaust, ist dein RAM immer noch auf dem Mainboard und die SSDs noch viel weiter weg.

Spike2
2013-08-10, 17:54:42
Ich verstehe echt nicht, warum sich so viele (auch in diesem Thread hier) gegen eine Heterogenous-MultiCore-Architektur für CPUs in der Zukunft sträuben und sich nur die "klassischen" Homogenous-MultiCore-CPUs als sinnvollen Weg vorstellen können?!?


Letztenendes sehe ich das ähnlich, wie seinerzeit bei der FPU: War nett, aber man musste es nicht unbedingt haben. Ein seltenes und teures Extra für seltenere Spezialfälle halt. Dann kam der 486, der in der DX-Version die FPU mitbrachte und man konnte Geld sparen, ohne viel zu verlieren, wenn man zum günstigeren SX ohne FPU griff (eben weil sie kaum bis nie gebraucht wurde). Bis dann der Pentium kann, der standardmäßig eine FPU on-die hatte... Heutzutage ist der ursprüngliche FPU-Commmandset "x87" schon längst wieder obsolet.

Wie oft hatte wohl ein 486DX zu seiner Zeit die Gelegenheit, seine FPU zu nutzen? Wie oft gebrauchte die Geforce256 ihre T&L-Unit, wie oft wurde ein Athlon64-K8 im 64-Bit-Modus betrieben und wie oft nutzen heutige CPUs ihre AVX-Funktion?
Und überhaupt nichts anderes ist das auch hier: Heutzutage kommen vielen Leuten die extra verbauten Streamprozessoren der iGPU wie ein nutzloser Fremdkörper in der CPU vor, der im Prinzip keinerlei Sinn erfüllt (außer, wenn er halt bei günstigen Kisten tatsächlich als GPU genutzt wird) - und in einigen Jahren wird es eine Selbstverständlichkeit, daß die Software regen Gebrauch von der iGPU macht, wenn es denn sinnvoll ist (z.B. Physik-Berechnung in Games oder massen-parallelisierte Aufgaben wie z.B. Video-Encoding). Nur, daß es hier noch den Zusatznutzen gibt und vermutlich auch weiterhin geben wird, daß man diese zusätzlichen Einheiten in der CPU eben auch tatsächlich an Stelle einer diskreten GPU verwenden kann, statt nur zusätzlich zu einer.
Aber wie auch bei den Beispielen, die ich oben schon nannte, ist es auch hier: Es braucht Zeit, bis diese Dinge sinnvoll genutzt werden (können). Und genauso, wie beispielsweise ein Athlon64 zu seiner Zeit nur in den allerseltensten Fällen wirklich im 64Bit-Modus lief, wird auch jetzt die iGPU einer APU wirklich als OnDie-GPGPU-Einheit genutzt werden (stattdessen wohl nur bestenfalls zur Bildausgabe - oder eben auch gar nicht). Erst wenn das Fundament durch eine breitere installierte Basis gelegt wurde, werden die späteren Nachfolge-APUs auch wirklich von ihrer iGPU im beabsichtigten Sinne einer Heterogenous-MultiCore-Architektur profitieren können.

(Und wer weiß, was dann kommt? Breiterer Einsatz von eDRAM on-die? Zusätzliche ARM-Cores on-die, ggf. mit "On-the-fly"-Wechsel (immerhin wurde ja jetzt sogar der NT-Core auf ARM portiert)? Und vor allem: Wird es dann wieder viele "Braucht-man-nicht"-Zweifler geben?)

S940
2013-08-10, 18:06:32
Ich verstehe echt nicht, warum sich so viele (auch in diesem Thread hier) gegen eine Heterogenous-MultiCore-Architektur für CPUs in der Zukunft sträuben und sich nur die "klassischen" Homogenous-MultiCore-CPUs als sinnvollen Weg vorstellen können?!?
Hat im Moment sicherlich damit zu tun, dass man APUs aufgrund Platzmangel für mehr CPU-Cores und L3-Cache nur mit mageren 2 Modulen bekommt.

Ist halt nicht so prickelnd. Aber warten wir mal ab, was 20nm bringt ... da ist dann wieder Platz, ein 3. Modul sollte dann drin sein. Eingerechnet der IPC-Verbesserungen durch größere Cache etc. pp. sollte das dann auch ausreichen.

Aus aktueller Sicht kann ichs also schon verstehen, aber warten wirs mal ab, was für aufgebrezelten APUs die Zukunft bringt :)

gnahr
2013-08-10, 18:10:10
und in einigen Jahren wird es eine Selbstverständlichkeit, daß die Software regen Gebrauch von der iGPU macht, wenn es denn sinnvoll ist (z.B. Physik-Berechnung in Games oder massen-parallelisierte Aufgaben wie z.B. Video-Encoding).
alles was wir gegenwärtig sehen ist viel zu schwach und eh was halbwegs brauchbares dann nach nochmal 8 jahren den markt durchsetzt hat, damit die anwendungsentwickler drauf setzen können... ach screw it, die leute die es nötig haben saufen sich solch problematisches rumgewurschtel hilfloser hersteller immer schön. :frown:

Nakai
2013-08-10, 18:28:05
Ich verstehe echt nicht, warum sich so viele (auch in diesem Thread hier) gegen eine Heterogenous-MultiCore-Architektur für CPUs in der Zukunft sträuben und sich nur die "klassischen" Homogenous-MultiCore-CPUs als sinnvollen Weg vorstellen können?!?


HSA ist ja ganz nett, dennoch unterscheiden sich CPUs und GPUs von der Ausführung schon dramatisch.
Platzmangel ist die eine Sache, weil Platz = Kosten.

Milchmädchen(gleiche Diesize = Gleiche Kosten):
50%CPU+50%GPU => 50% Leistung im CPU Bereich und nur 50% Leistung im GPU Bereich
100%CPU => 100% Leistung im CPU Bereich
100%GPU => 100% Leistung im GPU Bereich

Synergieeffekte mal außenvorgelassen, obwohl die bei Heterogenen Systemen entscheidend sind.

OBrian
2013-08-11, 00:38:11
Was aber limitiert, ist nicht die Diefläche, sondern die Leistungsaufnahme bzw. Abwärme. Dabei ist die GPU überhaupt kein Ballast, weil die nicht genutzten Einheiten einfach stromlos gemacht werden können. Bulldozer kann ja durchaus mit 6 oder mehr GHz betrieben werden und hätte dann auch ordentlich Performance, um einen Verkaufspreis zu rechtfertigen, der die größeren Dies locker wieder rausholt, selbst wenn die GPU mal überflüssigerweise verbaut sein sollte (so wie bei den Intels ja auch). Aber weil die Abwärme nur an gewisse Grenzen stoßen darf, damit das Ding noch verkaufbar ist, muß der Takt so niedrig gehalten werden, daß die Performance nicht konkurrenzfähig ist, womit dann der erzielbare Verkaufspreis auch wieder sinkt.

Ronny145
2013-08-11, 00:48:57
Bulldozer kann ja durchaus mit 6 oder mehr GHz betrieben werden


Keinesfalls. In Masse sind allerhöchstens 4,5 Ghz denkbar.

S940
2013-08-11, 02:27:42
Keinesfalls. In Masse sind allerhöchstens 4,5 Ghz denkbar.Ja, weil die Abwärme/Verlustleistung limitiert, genau das schreibt er doch. Die 6 Ghz hat er sicherlich so gemeint, dass die Architektur das schaffen könnte .. aber leider ist das nur die Theorie und in der Praxis ... naja vielleicht wirds dann ja was bei 14nm :freak:

StefanV
2013-08-11, 03:36:30
Naja, für die 5GHz Prozessoren muss die Versorgungsspannung schon stark angehoben werden. Da würd ich nicht sagen wollen, dass die 6GHz auch möglich sind, wenn man die Abwärme ausblendet...

PS: nebenbei limitiert auch der I/O Bereich (L3 Cache) nicht soo wenig...
Bei den Server Prozessoren geht es noch, bei den Consumer Prozessoren schauts aber so aus als ob die Kerne mal eben doppelt so hoch getaktet sind wie der I/O Bereich.

Knuddelbearli
2013-08-11, 09:11:27
was sich überraschenderweise aber kaum auswirkt, vermutlich dank rießigem L2.

Hat maan ja bei den Centuriontests gesehen selbst in Spielen skaliert er beinahe linear mit höherer Kernfrequenz bei selben L3 Takt. Hat mich selbst sehr überrascht!

OBrian
2013-08-11, 13:02:10
PS: nebenbei limitiert auch der I/O Bereich (L3 Cache) nicht soo wenig...das fällt dann in den Bereich der Optimierungsmöglichkeiten, mit denen AMD die IPC verbessern kann und damit wahrscheinlich auch die Energieeffizienz. Immerhin gibt es diese Möglichkeiten zuhauf, d.h. es ist nicht Hopfen und Malz verloren, AMD muß es nur auch machen. Erstmal Steamroller abwarten, ist ja auf dem Papier schon ein größerer Eingriff als Vishera, der auch schon einiges gebracht hat ggü. der ersten BD-Version (mehr IPC-Gewinn als bei Intel in den letzten Generationen).

Wenn man das mal durchrechnet: Centurion mit ca. 10% mehr Takt als die noch mit brauchbarer TDP verkauften Modell ist schon gar nicht mehr so weit von den Intel-Modellen entfernt. Wenn jetzt Steamroller mit 10% mehr IPC käme und dazu noch mit durch neue Fertigung etwas verringerter Abwärme, die etwas mehr Takt erlaubt (ohne die üblichen TDP-Grenzen zu sprengen), dann sieht es auf einmal doch viel besser aus als jetzt.

Um mal wieder den Bogen zum eigentlichen Thema zu kriegen: Eine Art Kaveri mit 4 Modulen wäre ja ein voller Ersatz für die AM3+-Plattform, egal ob die dann als "FX" oder sonstwas vermarktet werden. Es ist auch durchaus möglich, daß sowas kommt (möglicherweise auch erst auf Excavator-Basis), wenn die 28-nm-Produktion etwas gereift ist; Kaveri ist ja der erste Chip darin, den wollte man sicher nicht gleich zu groß machen, das Barcelona-Debakel wirkt da noch nach.

Für den Gamer wird aber ein Kaveri mit nur 2 Modulen unter Umständen sogar sinnvoller als ein 4-Moduler, weil 8 Kerne eh zuviel für die meisten Spiele sind (die vermutete 8-Kern-Ausrichtung durch die Konsolen wird erst in einiger Zeit greifen) und man die Steamrollerkerne wohl auch als "vollwertiger" (als bei BD bisher) bezeichnen kann. Und Videoencoding und ähnliche Dinge kann man auch gut über die GPU laufen lassen. Viel mehr an leistungsfressenden Anwendungen gibt es im privaten Bereich ja kaum. Insofern besteht eigentlich kaum ein Bedarf/Markt für 4-Moduler auf dem Desktop; und den Serverbereich kann man auch mit Kaveri-Blades über das Seamicro-Fabric bestreiten, möglicherweise sogar besser als mit einem fetten Riesen-Die oder einem MCM wie im aktuellen G34. Den Workstation-Bereich kann man eben aktuell nicht beackern. AMD muß sich aktuell einfach auf das konzentrieren, wo sie auch was reißen können, aber in ein paar Jahren kann das wieder völlig anders aussehen.

mrt
2013-08-11, 13:09:07
Ja, AMD sollte es besser bei zwei Modulesn belassen und sich auf IPC-Verbesserungen konzentrieren, alleine ein flotter L3 würde schon was helfen. Das HSA-Konzept braucht ein paar starke Kerne, den Rest lagert man dann auf die iGPU aus (im Optimalfall natürlich).

sklave_gottes
2013-08-11, 20:21:15
Es sollte aber nicht vergessen werden das bei einer reinen 4 Kern Anwendung/Spiel trotzdem immer 4Module >> 2Module gilt. Da der 2Moduler Einheiten teilen muss und der 4Moduler nicht.
Test haben gezeigt das bei Spielen bis zu 15% leistund verloren geht. Bei Programmen sogar bis zu
30%. Mit anderen Worten kann der IPC vorteil von Kaveri komplet durch die verluste des Moduldesigns aufgefressen werden.

Deswegen ist Liano auch so stark gegenüber Trinity bei stark Paralesierten Anwendungen wie Cinebench.

mrt
2013-08-11, 20:49:44
Mit dem exklusiven Decodern ab Steamroller sollte die Skalierung eigentlich ganz ordentlich sein, nur 32Byte Fetch hin oder her.

CosmiChaos
2013-08-12, 07:32:58
Edit: achtung extremer schlafmangel, wer nicht auf rechtschreibfehler und viele vertipper klarkommt, bitte wegsehen. es sind zu viele zum korrigieren.

Ich sehe nur verzweifelte Versuche, die gravierenden Folgen jahrelangen Mismanagements zu rechtfertigen, die letztendlich nur dazu führen dass AMD sich langfristig als ein "Rohrkrepierer"-Unternehmen etabliert. Sie hatten Ihre Sternstunden, waren mal innovativ und ja sie hatten auch mal gute Produkte.

Mal ernsthaft, was soll ich mir jetzt hier und heute einen APU von AMD kaufen, nur weil irgendwelche neumodische Physik-Sch*** da vielleicht irgendwann mal von profitieren wird... da hab ich dann tolle Haaranimation, aber trotzdem miese Framerate, weil der CPU-Part nichtmal den Hauptthread anständig bedienen kann... ganz großen Kino AMD.. oder soltle ich besser sagen Daumenkino?

Wenn das dann irgendwan so sein wird, dann bekommt man doch viel leistungsfähigeren Kram für weniger Geld hinterhergeworfen, warum sollte man denn dann jetzt schon einen Preis bezahlen, der gemessen an der Konkurrezenz weder an der Leistungsfähigkeit des Rechenwerks noch am Energieverbrauch gerechtfertigt ist. Ist ja auch nicht so, dass wir hier von Peanuts sprechen. Der Performance-Abstand von Intel ist schon gewaltig, berücksichtig man dann noch die Leistungsaufnahme/abgabe wird einem nurnoch schlecht.

Jetzt interessiert mich Gesamtperformance und Energieverbrauch... und öhhhh, sry => ich seh nur massenmarkttaugliche Rohrkrepierer... bisher wenigstens preislich realistisch angepasst, und gut vielleicht gibt es auch Spezialfälle wo es ganz vorteilhaft wäre nen FX zu haben.

Ich hab mir ein AM3+ zugelegt als es neu war. Mit dem was die für diese Plattform anbieten hab ich jeglichen Respekt vor diesem Unternehmen verloren. Es ist jetzt nicht so, dass ich Intel irgendwie mehr respektiere. Im Gegenteil, ich würde gerne lieber Produkte von AMD kaufen auch wenn sie nicht 100%ig auf der höhe von Top-Intel-Prozessoren lägen, aber meiner Meinung nach haben die sich damit den Untergang geschaufelt. Es lohnt sich für mich immernoch nicht den Phenom II rauszunehmen und deutlich höhere nahezu verdoppelte Preise gegenüber dessen Anschaffungswert zu bezahlen um dann mit etwas dazustehen, dass in Teilbereichen sogar dem hinterherhinkt und in der Gesamtbetrachtung nur ein Bruchteil an Mehrwert liefert. Wer zu viel Geld übrig hat soll sich keinen Zwang antun es für sich zu behalten, aber ich für mich seh da keinen SInn drin, und dass fidne ich schade von AMD, die bemühen sich ja nichtmal.

Es juckt mich da herzlich wenig, wenn die und irgendein zusammen-gewürfeltes Konsortium mir und dem Rest nun die "Zukunft des Computing/Gaming" aufzwängen wollen. Und die Argumentation, dass irgendwas parrallelisierbares aufm APU besser läuft als auf ner GPU ist ja wohl Hahnbüchen, denn ein paar tausend Stream-Prozessoren kann man auch irgendwie auf bessere Genauigkeit bringen, dafür muss ich die Parallelisierung nich auf dem CPU neu-erfinden. Oder warum nicht gleich PCIexpress Karten mit APUs, hauptsache es gibt endlich wieder VERNÜNFTIGE zentrale Haupt-Recheneinheiten... kann doch nicht zu viel verlangt sein, so an einen Prozessorhersteller. Ganz einfach.

Die Variante Aufgaben von CPU-Einheiten über ARM-Cores auf GPUs auszulagern erscheint mir schon allein im Bezug zum Thema Leistungsaufnahme und Energieeffizienz als eine weitaus gangbareres Szenario. Alles was den Markt hält ist Intels Monopol, dass sämtliche Konsumenten-Weichware auf x86 läuft. Also quasi lediglich das Etablisment. Ich gönne Nvidia so dermaßen, dass die endlich irgendwann ein x86-unabhängiges Konzept hingebrezelt bekommen und der Markt es zumindest für Sparten wie "Gaming" aktzeptiert.

Wenigstens versuchen die es nicht mit der Brechstange und vernachlässiges bei allen ANstrengungen dass was sie groß gemacht hat.
Stellt euch doch nur mal vor, Nvidia zwackt nun einen teil des DIE ab und packt noch nen ARM mit aufs Board und fängt an von wegen "die Zukunft des Simple COmputing", dann nimsmte einfach denn Celeron oder den 286er, was auch immer gerade griffbereit ist um als Kunde in den Genuss des Besitzes einer X86-Lizenz zu kommen... und die eigentliche Berechnung macht dann nurnoch die Grafikkarte.

Natürlich würde mich das extremst ankotzen... weil cih dann aufgrund AMDs gleichsamer Schwäche im GPU-Markt von Nvidia hingehalten werde... da nun ein Teil der Leistung fest verplant ist nur um den Konkurrenten vom Markt zu drängen... fänd doch niemand schicklich, wenn sich jeder nurnoch auf Fake-Konkurrenz beruft die nichts mehr zu potte bringt und selber seine Innovation zurückhält, denn eigentlich spricht man da von Monopolen die zerschlagen werden müssten, zum Wohle des Fortschritts. Diese Dreeickskiste AMD/Intel/Nvidia ist einfach unerträglich.... keiner kümmert isch noch darum wirklich innovativ zu sein, oder auch einfach nur Geld in die Hand zu nehmen um durch puren Erfolg die anderen auszuschlagen.... Intel und Nvidia können jederzeit darauf verzichten ihre Produkte zu innovieren, da AMD ja wie soll ichs sagen, fantasien hinterherjagt und in der realität nciht aus dem a* kommt. Ich seh das wirklich pragmatischer... man braucht AMD um vor den Kartellämtern ein Argument zu haben... sonst hätte man nämlich garkeins!

Die Chance ist durch den Smartphone/Tablet Martkt und die Verbreitung und explodierenden Verkaufszahlen von Qualcomm wirklich gestiegen.
Wenn die genügend Spieleentwickler auf ihre Seite bekämen und ein gutes SDK und eine leistungsfähige Plattform schaffen, dann käme sogar Intel in Existenznöte, zwar nicht margenmäßig bzw. anfänglich finanziell, aber marktpsychologisch und dass im Gegenzug ist die einzige Möglichkeit für AMD Fuss zu fassen also überzeugende erstklassige CPU und APU-Karten. Warum zur Hölle muss man es unbedingt in den Prozessor pressen der bei dieser FIrma eh schon viel zu heiß ist... eine unfassbare Entscheidung. CPU-Enthusiasten fallen gelassen wie eine heiße Kartoffel. Ich persöhnlich denke dass man den Enthusiastenmarkt wegen seiner geringen Aussicht auf operativen Gewinn auf keinen Fall unterschätzen sollte. Aber das, also die Überzeugungsarbeit, haben sie in den vergangenen Jahren gehörig vergeigt, leider wenn man bedenkt, dass es die Notwendigkeit gibt dauerhaft zu überzeugen und Fehler schwer verziehen werden.

Der Punkt ist, mich interessiert es schon garnicht mehr ob und wann und welche Ausbaustufen vielleicht oder vielelicht nicht mehr kommen werden, denn selbst wenn die kämen wären dessen objektive Bewertung sowieso wieder desaströß sein, wie shcon zuvor..., die Hoffnung habe ich quasi aufgegeben, und damit ist der Drops gelutscht, für Millionen-ADMD-"Freunde" ist es leider udn das möchte ich immer betonen, LEIDER, nicht anders, wieviele von uns haben sich denn schon eingeredet: ab Piledriver wird alles besser... ... naja ab Steamroller wird alles besser, wers glaubt wird seelig, der Image-Totalschaden ist in jedem Fall jetzt perfekt. "Das sind halt die vorm-blauen Riesen-Kuscher, die einfach nur kneiffen, die die nichts brauchbares oder konkurrenzfähiges Zustandebringen, die die sich lieber ein rettendes Nieschchen suchen, anstatt sich seiner Stärken bewusst zu sein und den Kampf anzusagen"... na raten mal: Das freut den blauen Riesen natürlich sehr, das soltle man auch nicht verschweigen. Gut die sind ja jetzt auch nicht ganz so unbeteiligt, dass sich die finanzielle Lage überhaupt für AMD so gravierend entfalten konnte,

Und nun... wir kennen doch alle die Deals mit Globalfoundris und können abschätzen was AMD hier mit "Steamroller" als BD-Ausbaustufe erwartet.... es ist kein Geld da. Und auch nicht genügend Erlöß um zukünftig mehr Geld zu haben. Ob die es nun offiziell totheißen oder nich... die Kapitulation ist einfach OFFENSICHTLICH! Sie tun es nicht, weil wenn sie dass erklären würden, käme das eines kompletten wirtschaftlichen Selbstmordes gleich. Das ist doch kein Unternehmen welchen Prozessoren herstellt, sondern nurnoch ein Unternehmen, dass krampfhaft versucht wirtschaftlich zu bleiben... nur eins verlernt hat: Gute Prozessoren zu bauen. Natürlich wird das dementiert und APU-Zukunft und haste nich gesehen. Der Konsument muss weiterhin empfänglich gehalten werden für Überraschungen... " sie könnten es ja doch noch schaffen, die hoffnung stirbt zu letzt"... DAS ist alles was sie derzeit noch auf der Weltbühne hält, sich nich irgendein Investor den Laden schnappt die APUs einstampfen und mit nur mit GPUs oder nur mit CPUs auf entweder Intel oder Nvidia mobil macht und eben der jeweils andere ncih arge Kartellprobleme bekäme. Man könnt fast sagen, ohja die letzten Zuckungen sind das, vielleicht sogar ein Seitenhieb um noch ein paar mehr Intel-Konkurrenten mitzureißen. Ich hielt es nichtmal für ausgeschlossen dass NVIDIA oder Intel irgendwie ne Scheinfirma auftreiben um den Laden irgendwie auf Pump am laufen zu halten... schließlich wäre die Zerschlagung deutlich teurer für die Kohlescheffelei... vielleicht ist das ja sogar shcon längst so und vielleicht teilen sich Intel/Nvidia AMD längst brüderlich... mir schient es jedenfalls so. Nur meine Meinungen. Und ich spinne bewusst grade etwas. Stellt euch doch mal eine Welt ohne AMD vor.... immer die gleichen teuren Intel-CPUs .... nvidia, die ohne x86 nach wie vor nich wie eben Intel mit den iGPUs zeigen können "schaut mal, wir sind nehmen uns bald auch euren markt und ihr kommt garnicht an unser wasser". Die ganze Szenerie ist erbärmlich. Egal welchen Chipherstelle rman sich auch ansieht, Intel hat bisher alle kleinbekommen und in ihre Nischen gedrängt, weder Technologisch noch Finanziell kann denen je einer das Wasser reichen. Das sowas immer weitergeht, solange ein neuer Konkurrent irgendwo irgendwie massiv in die Bresche springt (aktuell dann wohl nurnoch Qualcomm). Schade ist halt, dass es nicht an Intels Innovation liegt, denn sie könnten weitaus mehr wenn sie müssten, sondern nur am absichtlichem/unabsichtlichem Versagen der Scheinkonkurrenz. So Schluss jetzt!:D

PS: Verzeiht die Rechtschreibfehler es sind zu viele udn ich zu müd, lebt damit :D
Achja ich musst eherzlich Lachen als jemand schrieb AudioProcessingUnit, lolwut? vielleicht doch accelerated oder vielleicht advanced? aber audio!? rofl weniger lack saufen, dann tuts auch nicht so weh zwischen den beiden audiorezeptoren an deiner APU. :D

V2.0
2013-08-12, 07:37:59
Unter 150 Euro Ladenpreis beitet AMD die besten CPUs an. Die APUs sind konkurrenzlos.

Liszca
2013-08-12, 09:35:57
Unter 150 Euro Ladenpreis beitet AMD die besten CPUs an. Die APUs sind konkurrenzlos.

Die Bulldozer verwandten CPUs bleiben trotzdem energetische Drecksschleudern.

Lowkey
2013-08-12, 10:14:52
Gäbe es Prozessoren von AMD mit halben Energieverbrauch, dann wären auf einmal Intel CPUs die energetischen Dreckschleudern ;)

Momentan verbraucht das A10 System 22 Watt im IDLE und der Haswell Hauptrechner kommt auf 50 Watt im IDLE. Unter Last sieht es anders aus.

gnahr
2013-08-12, 10:22:50
lol, die leute disskutieren über "prozessoren ohne abwärme" um sich gegenseitig zu behumpsen wie toll sie doch sein könnten...
(disclaimer: abwärme ist die folge von reibung. ne welt ohne reibung für vergleiche zu konstruieren... müsst ihr sonst noch irgendwelche naturgesetze ausknocken um aufs gewünschte ergebniss zu kommen?)
und du fängst jetzt auch noch an mit "na, wenn schweine fliegen könnten, wären sie marktführer im bereich des nutz-geflügels vom volumen her."
man verdoppelt nciht einfach so die effizienz.

ein haswell mit 50watt idle... darauf getrimmte desktop-systeme liegen bei nem viertel und darunter. was für ne grafikkarte hast du denn bitte drinnen die mit 30watt mehr verschleudert als die aio-a10-vergleichsbüchse?

Liszca
2013-08-12, 11:41:44
Gäbe es Prozessoren von AMD mit halben Energieverbrauch, dann wären auf einmal Intel CPUs die energetischen Dreckschleudern ;)

Momentan verbraucht das A10 System 22 Watt im IDLE und der Haswell Hauptrechner kommt auf 50 Watt im IDLE. Unter Last sieht es anders aus.

welchen A10 hast du denn da? Meiner braucht ca. 40 watt.

Lowkey
2013-08-12, 12:05:23
Einen A10-5800k auf dem Gigabyte ITX bzw. Asrock ITX an einem 83+ 300 Watt Netzteil. Theoretisch müßte der Stromverbrauch sichtbar fallen, wenn man den Monitor noch ausschaltet. Die 40 Watt hatte ich auch mit dem alten Meßgerät. Das neuere Meßgerät zeigt mir auch die 1 Watt Verbrauch im Standby an (Rechner bekommt Strom, aber ist nicht eingeschaltet).


Mein haswell Mainboard scheint den Strom zu fressen.


Sowohl haswell als auch a10 scheinen an Leistung zu verlieren, wenn man Windows auf "Energiesparen" stellt.

Twodee
2013-08-12, 13:45:49
Einen A10-5800k auf dem Gigabyte ITX bzw. Asrock ITX an einem 83+ 300 Watt Netzteil. Theoretisch müßte der Stromverbrauch sichtbar fallen, wenn man den Monitor noch ausschaltet. Die 40 Watt hatte ich auch mit dem alten Meßgerät. Das neuere Meßgerät zeigt mir auch die 1 Watt Verbrauch im Standby an (Rechner bekommt Strom, aber ist nicht eingeschaltet).


Mein haswell Mainboard scheint den Strom zu fressen.


Sowohl haswell als auch a10 scheinen an Leistung zu verlieren, wenn man Windows auf "Energiesparen" stellt.
Die Geforce 660ti bei deinem HW-System zieht aber auch Strom. :rolleyes:

Spike2
2013-08-12, 17:09:39
alles was wir gegenwärtig sehen ist viel zu schwach und eh was halbwegs brauchbares dann nach nochmal 8 jahren den markt durchsetzt hat, damit die anwendungsentwickler drauf setzen können... ach screw it, die leute die es nötig haben saufen sich solch problematisches rumgewurschtel hilfloser hersteller immer schön. :frown:
Intel ist alles andere als hilflos. Denn: Wenn man die Trinitys (und auch schon die Llanos) als APU sieht, dann sind es die Intel-CPUs ebenso. Und auch hier kann die iGPU schon für andere Aufgaben als die reine Bilddarstellung genutzt werden - siehe intel QuickSync.

Mal ernsthaft, was soll ich mir jetzt hier und heute einen APU von AMD kaufen, nur weil irgendwelche neumodische Physik-Sch*** da vielleicht irgendwann mal von profitieren wird...
Dann kaufst Du halt einen intel mit iGPU und nutzt QuickSync, wenn Du Deine Urlaubsvideos von der HD-Cam codierst.

ich für mich seh da keinen SInn drin, und dass fidne ich schade von AMD, die bemühen sich ja nichtmal.
Doch, das tun sie. Als sie technologisch ganz vorne mit dabei waren, zu seligen K7- und frühen K8-Zeiten konnten sie kaum davon profitieren, da intel den Markt mit unlauteren Methoden unter Kontrolle hielt. So ist AMD nie an die finanziellen Mittel gekommen, die sie eigentlich in dieser Zeit hätten verdienen können und die fehlten dann eben bei dem Neu-Design der K10.5-Nachfolge-Architektur. Dennoch haben sie es probiert ("sich bemüht"), aber natürlich konnte bei begrenzteren Mitteln das Ergebnis nicht so gut ausfallen, wie es sonst gewesen wäre - und damit hatten die/wir dann den Salat in Form der untauglichen Bulldozer-Hochtaktarchitektur, die doch stark an intels Netburst-Sackgasse erinnert. Ich für meinen Teil schlage drei Kreuze, wenn nach Excavator dieser unselige technologische Irrweg wieder von der Bildfläche verschwindet.

Intel und Nvidia können jederzeit darauf verzichten ihre Produkte zu innovieren, da AMD ja wie soll ichs sagen, fantasien hinterherjagt und in der realität nciht aus dem a* kommt.
Das AMD im CPU-Bereich derzeit alles andere als konkurrenzfähig ist, ist wohl offensichtlich, aber wieso auch gegenüber nVidia? Du kannst doch nicht ernsthaft behaupten, daß der Unterschied AMD-GPU zu nVidia-GPU so gewaltig ist, wie der Unterschied von AMD-CPU zu intel-CPU? Ganz im Gegenteil - die Radeons sind doch erstaunlich stark und können mit den Geforces sehr gut mithalten, wie man ja auch daran sieht, das es in den letzten Jahren immer wieder relativ knappe Kämpfe um die GPU-Performancekrone gab. Und auch derzeit finde ich die Radeons alles andere als nicht konkurrenzfähig - selbst im HighEnd-Bereich ist z.B. eine HD7970GHz eine gangbare Lösung.

und dass im Gegenzug ist die einzige Möglichkeit für AMD Fuss zu fassen also überzeugende erstklassige CPU und APU-Karten.
Erst einmal bräuchte AMD ein besseres... nein, überhaupt eine Marketing-Abteilung!
Was AMD da veranstalt ist so etwas von saublöd, die pissen sich ja ständig selbst ans Bein und jeder normale Mensch mit einem IQ über Raumtemperatur fragt sich doch, warum diese "Marketing-Abteilung" (ohne "" mag ich das gar nicht schreiben) nicht schon lange vor die Tür zum Stempeln geschickt wurde! Alleine das Abschaffen "griffiger" und z.T. auch etablierter Markennamen wie z.B. "Athlon" zugunsten irgendwelcher kryptischer Buchstaben-Zahlen-Kombinationen á la FX8350 oder A10-5800K war rotzdoof. intel dagegen: "Pentium", "Core iX" - fast jedem ein Begriff, geht gut von der Zunge, lässt sich vermarkten - so geht das mit einem "griffigen" Markennamen!

CPU-Enthusiasten fallen gelassen wie eine heiße Kartoffel.
Sehe ich nicht so. Sie können den Enthusiasten halt nix Konkurrenzfähiges präsentieren, aber immerhin probieren sie es (siehe ungelockte FX-CPUs oder die Pläne für die FX-9000er-Reihe mit bis zu 5GHz).

dass es die Notwendigkeit gibt dauerhaft zu überzeugen und Fehler schwer verziehen werden.
(...)
Der Punkt ist, mich interessiert es schon garnicht mehr ob und wann und welche Ausbaustufen vielleicht oder vielelicht nicht mehr kommen werden, denn selbst wenn die kämen wären dessen objektive Bewertung sowieso wieder desaströß sein, wie shcon zuvor..., die Hoffnung habe ich quasi aufgegeben, und damit ist der Drops gelutscht,
Auch wenn das jetzt sehr nach zu starker AMD-Bias klingen mag, aber: Fehler werden schwer verziehen? Jetzt mehr so wie der B2-SATA-Bug, der P1-Bug und die Netburst-Episode oder eher so wie der Phenom1-TLB-Bug? Messen mit zweierlei Maß seitens der öffentlichen Wahrnehmung?
Ob ein Fehler verziehen wird oder nicht, scheint also auch ganz offensichtlich damit zusammenzuhängen, wer den Fehler begangen hat. Das sinnlose Hoffen auf "DEN Durchbruch" bei weiteren Ausbaustufen einer zutiefst ineffizienten Architektur, so wie jetzt bei AMD mit der Bulldozer-Geschichte, kann ich nach sehr gut erinnern - der gleiche Ablauf war auch damals bei intels Netburst zu beobachten.


Achja ich musst eherzlich Lachen als jemand schrieb AudioProcessingUnit, lolwut? vielleicht doch accelerated oder vielleicht advanced? aber audio!? rofl weniger lack saufen, dann tuts auch nicht so weh zwischen den beiden audiorezeptoren an deiner APU. :D
Der Gag mit der AudioProcessingUnit = APU war absolut berechtigt, denn immerhin gab es das schon einmal. nVidia bezeichnete damals die "Soundstorm"-getaufte Audio-Lösung einer nForce-Southbridges so, also als APU im Sinne von "Audio-PU".


//Spike2

gnahr
2013-08-12, 18:31:15
und damit hatten die/wir dann den Salat in Form der untauglichen Bulldozer-Hochtaktarchitektur, die doch stark an intels Netburst-Sackgasse erinnert.wo kommt das märchen eigentlich immer her? das folgende zitat beweißt doch, dass du halbwegs nen plan beziehungsweise ein gesundes erinnerungsvermögen hast, aber das judgement über p4 ist auf dem öffentlichen level von 2007 oder so hängen geblieben. das ding war seiner zeit einfach nur vorraus, nicht umsonst kamen so viele µarchitectur-merkmale ja mit sandy bridge überaus erfolgreich zurück und das sandy ein erfolg war als den leuten bei über 4ghz mit dem stockkühler die münder runterklappten nach den core2quad und nehalem die wesentlich wärmer wurden.
deshalb hatte der glaube an die ach so große wende mit bulldozer ne gewisse berechtigung die erst kippte mit den vielen verzögerungen und jetzt leider genauso als failed-architecture gelten muss für ihre zeit.

Der Gag mit der AudioProcessingUnit = APU war absolut berechtigt, denn immerhin gab es das schon einmal.jow, lack gesoffen hat da wer. aber ob nun nvidia, amd oder der witze-autor bleibt jedem selbst überlassen zu entscheiden.

Matrix316
2013-08-12, 20:27:22
Nur weil der SB von Netburst irgendwie profitiert hat, macht den P4 aber nicht besser. Das Ding war langsam, heiß, hatte viel MHz und brauchte viel Strom. Kommt mir heute irgendwie bekannt vor, wenn ich auf AMD schaue.

Wenn ein Bulldozer Kern weniger Speed hat als ein Phenom II Kern... dann stimmt was net.

L.ED
2013-08-14, 07:32:19
Diese Architektur (an sich) ist alles andere als Ineffizient, im Gegenteil (sie musste nur einiges vor ihrer Zeit bereits am Markt aufschlagen)!

Und als Nachsatz noch, wer da glaubt mit der sei es nach Excavator vorbei hat schlicht keine Ahnung worum es eigentlich geht. :wink: Nicht Böse gemeint :smile: sondern eben das Indiz der heutigen Zeit, wo Medien kaum mehr wirklich was Erklären oder Aufschlüsseln.

Mit Excavator Plant AMD lediglich den ersten Meilenstein abgeschlossen zu haben und der ist nichts minder geringes als die erste vollumfängliche HSA Plattform (https://de.wikipedia.org/wiki/Heterogeneous_System_Architecture) (früher Fusion), für Desktop als auch Server!

Twodee
2013-08-14, 09:28:01
Diese Architektur (an sich) ist alles andere als Ineffizient, im Gegenteil (sie musste nur einiges vor ihrer Zeit bereits am Markt aufschlagen)! Die Architektur an sich mag nicht Ineffizient sein, aber der verwendete Prozess und die architekturbedingten nötigen hohen Taktfrequenzen lassen sie äußerst Ineffizient erscheinen. Das trifft auch besonders auf die APUs zu (~10% mehr CPU-MT-Leistung bei 2-2,5 fachen Verbrauch)

L.ED
2013-08-14, 11:11:59
Man sollte ihnen auf dieser Grundlage aber nicht immer wieder eins rein würgen! Mit den Ressourcen von Intel wäre AMD bis Excavator wohl auch Zwei oder gar Dreigleisig gefahren und hätte K10 noch etwas verwurstet bis das andere Ding reif und oder auch allgemein die Zeit dafür!?

Auf der anderen muss man auch sehen, ohne jemanden der vorlegt lässt sich schlecht Innovationen und Zukunft anstoßen. Entwickler brauchen Hardware (greifbares), um sich nicht nur ernsthafter damit befassen zu können sondern es eben auch zu wollen! Was das angeht fährt AMD eigentlich ne recht gute Strategie (die möchte nur kaum jemand sehen?). Die PlayStation 4 ist ja nun im Grunde schon HSA im kleinen und kommt zu einem guten Zeitpunkt. Mit Ihr haben jetzt schon mal eine Plattform auf der sich dahingehend sehr gut Experimentieren und Probieren lässt. Und natürlich wird es im späteren in jeden auch Spiele geben wo mehr und mehr davon Gebrauch gemacht (den neuen Möglichkeiten).

So das wenn später Excavator reif (nebst Intels eigene Bestrebungen), es umso wahrscheinlicher das bereits greifbarere Sachen gibt die nicht mehr nur am Horizont sondern vielleicht sogar schon breiter vorhanden (betreffs Softwareunterstützung)!?