Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - A-Series - Trinity Desktop - Review-Thread
AnarchX
2012-06-14, 13:58:43
THG: A10, A8, A6 im Test (http://www.tomshardware.com/reviews/a10-5800k-a8-5600k-a6-5400k,3224.html)
Undertaker
2012-06-14, 14:08:34
Falls z.B. Diablo 3 im niedrigsten Settings CPU-limitiert sein sollte, wäre das ein erstaunlich deutlicher Leistungssprung der CPU-Leistung in Spielen - den hätte ich so nicht erwartet. Wahnsinn ist der Bandbreitenhunger der IGP:
http://www.tomshardware.com/reviews/a10-5800k-a8-5600k-a6-5400k,3224-5.html
Kein Wunder, dass dann Notebooks mit nur einem Speichermodul wegbrechen ohne Ende. Da kann man nur hoffen, dass das auch die Hersteller endlich mal lernen.
Ronny145
2012-06-14, 14:08:41
Ein leichtes Update über den A8-3870k und +25% schnellere Grafik erwartungsgemäß.
Bei der Leistungsaufnahme hätte ich mir mehr Fortschritt erwartet. Schade. Falls das nicht auch bei Trinity so extrem möglich sein sollte, hat er wohl bei der Effizienz keine Chance gegen einen undervolteten Llano.
mboeller
2012-06-14, 16:00:35
die core voltage hast du aber schon gesehen?
AMD geht anscheinend wieder mal auf Nummer Sicher
Ah, ok. Dann hab ich nichts gesagt. Hab die CPUz-Screens überblättert :)
Skysnake
2012-06-19, 21:00:31
Btw. bei CB: http://www.computerbase.de/news/2012-06/erste-desktop-pcs-mit-amds-trinity-zeigen-sich-im-handel/
Die Desktop Trinitys scheinen wohl doch früher zu kommen, wie es scheint.
Aber noch was ganz anderes. Mich wunderts, das es gleich von 3 Herstellern Desktops gibt. War das in letzter Zeit auch aus? Den OEM Markt hab ich leider überhaupt nicht im Blick.
Knuddelbearli
2012-06-19, 21:04:58
naja Desktop wie du sie meinst und oems sind paar schuhe :-/
außerdem biste im falschen thread ^^
Undertaker
2012-06-19, 21:09:36
Btw. bei CB: http://www.computerbase.de/news/2012-06/erste-desktop-pcs-mit-amds-trinity-zeigen-sich-im-handel/
Die Desktop Trinitys scheinen wohl doch früher zu kommen, wie es scheint.
Aber noch was ganz anderes. Mich wunderts, das es gleich von 3 Herstellern Desktops gibt. War das in letzter Zeit auch aus? Den OEM Markt hab ich leider überhaupt nicht im Blick.
http://geizhals.at/de/?cat=sysdiv&xf=443_AMD+A-Series+A4~443_AMD+A-Series+A6~443_AMD+A-Series+A8#xf_top
Die großen Hersteller hatten zumindest eine Handvoll Llano-Desktops im Angebot, die meisten sind allerdings nur von Acer und HP.
Was mich wundert, ist das Trinity noch immer kaum im Notebookmarkt angekommen ist:
http://geizhals.at/de/?cat=nb&xf=29_AMD+A10-4~29_AMD+A4-4~29_AMD+A6-4~29_AMD+A8-4#xf_top
Gerade einmal 4 lieferbare Modelle ist über einen Monat nach dem Launch nicht wirklich gut - wo bleiben die versprochenen Design-Wins?
War bei Llano das gleiche. Der ist in den Preisvergleichen auch ewig (etliche Monate) bei weniger als 10 Modellen herumgekrebst.
Ronny145
2012-06-20, 00:25:42
Btw. bei CB: http://www.computerbase.de/news/2012-06/erste-desktop-pcs-mit-amds-trinity-zeigen-sich-im-handel/
Die Desktop Trinitys scheinen wohl doch früher zu kommen, wie es scheint.
Aber noch was ganz anderes. Mich wunderts, das es gleich von 3 Herstellern Desktops gibt. War das in letzter Zeit auch aus? Den OEM Markt hab ich leider überhaupt nicht im Blick.
Naja ist doch bekannt. In Kompettrechnern kann es die geben. Im Retail Markt verzögert sich Trinity nur.
http://geizhals.at/de/?cat=sysdiv&xf=443_AMD+A-Series+A4~443_AMD+A-Series+A6~443_AMD+A-Series+A8#xf_top
Die großen Hersteller hatten zumindest eine Handvoll Llano-Desktops im Angebot, die meisten sind allerdings nur von Acer und HP.
Was mich wundert, ist das Trinity noch immer kaum im Notebookmarkt angekommen ist:
http://geizhals.at/de/?cat=nb&xf=29_AMD+A10-4~29_AMD+A4-4~29_AMD+A6-4~29_AMD+A8-4#xf_top
Gerade einmal 4 lieferbare Modelle ist über einen Monat nach dem Launch nicht wirklich gut - wo bleiben die versprochenen Design-Wins?
War absehbar. Im Vorfeld zu Llano wure auch immer von wahnsinnigen Design wins gesprochen. Die Verfügbarkeit sieht immerhin besser aus als bei Llano wenn ich mich richtig erinnere. Wenn ich mir die geizhals Auflistung ansehe fällt mir negativ auf, nur 2 Modelle mit dem stärksten Modell.
mboeller
2012-06-20, 08:00:12
Wenn ich mir die geizhals Auflistung ansehe fällt mir negativ auf, nur 2 Modelle mit dem stärksten Modell.
Immer noch viel besser als bei Llano. Soweit ich mich erinnern kann hat es da ewig gedauert, bis die "Highend" Notebook APU's wirklich lieferbar waren.
Ronny145
2012-07-28, 17:42:07
Im PCGH Heft gibt es einen Test des Medion Akoya P4210 mit A8-5500. Ich wollte gerade zu dem IPC Vergleich mit Zambezi was schreiben, muss jetzt lesen, dass Zambezi mit DDR3-1866 getestet wurde. Wenn das Medion Board nicht mehr als DDR3-1333 erlaubt, warum zum Geier lässt man für einen IPC Vergleich Zambezi dann nicht auch mit DDR3-1333 laufen? Naja so ist das zu ungenau, ich schreibe nichts weiter zu dem IPC Vergleich.
y33H@
2012-07-28, 18:20:52
Abseits von 7-Zip ändert sich beim FX durch DDR3-1333 nichts, daher hatte ich es so belassen und darauf hingewiesen.
Schaffe89
2012-07-29, 08:57:30
Hm... habs auch grade angesehen.
Das sieht nach nicht viel mehr Leistung aus.. inwiefern limiiert da der L3 Cache?
Undertaker
2012-07-29, 09:50:52
Sollte sich Trinity hier ähnlich wie der K10.5 verhalten, hat der L3 wohl fast nur bei Spielen nennenswerte Auswirkungen. In Anwendungen im Schnitt sicherlich deutlich unter 5, vielleicht sogar unter 3% Differenz.
y33H@
2012-07-29, 12:45:39
AMD selbst spricht von 10 bis 15 Prozent - durch Takt und IPC. Letztere dürfte im Mittel weniger als fünf Prozent steigen, ich habe so meine Zweifel, ob bei THW alles sauber ablief ... vll hat das Board mit reingespielt.
Skysnake
2012-07-29, 12:57:42
Kann mir mal jemand das hier erklären?
Das macht doch absolut keinen Sinn...
Höher getaktete CPU und dennoch gleiche Float-Performance. Da stimmt doch was nicht :freak:
EDIT:
Man sollte auch auf die Zahlen nach dem Komma achten..
Trotzdem ist der Abstand mit 2% viel zu klein. Allein vom Taktunterschied sollten es eigentlich 5% sein. Haut hier schon wieder das Speicherinterface durch? :ugly:
Und wenn ja, was wäre denn so realistisch gesehen für AMD drin, wenn man ein Tripple-Channel SI oder so verbauen würde? (Insbesondere im Vergleich zu Intel.)
Ist AMD einfach unfähig eine gescheite Cache/SI Architektur hin zu stellen, oder wie schafft es Intel mit seinem SI aus zu kommen und AMD nicht, oder nippelt IB auch so am SI?
Ist doch kalter Kaffee. Die geringe FPU-Mehrleistung beruht schlicht und ergreifend darauf, dass Trinity nur 2 FPUs hat und Llano deren 4. Das kennen wir auch schon vom Cinebench.
Für 2 gegen 4 FPUs ist das Ergebnis ziemlich gut, v.a. kommt ja auch noch kein FMAC-Code zum Einsatz.
Skysnake
2012-07-29, 14:29:10
lesen bitte...
trinity vs trinity nicht llano vs trinity...
lesen bitte...
trinity vs trinity nicht llano vs trinity...
Na das stand aber leider nirgends :freak:
Ok, also dann 5800k gegen 5600k, Taktunterschied 5.5%, Leistungsunterschied ~2,6%.
Naja, dann halt die übliche turbo-core Verfälschung, das war aktiv:
Turbo Core enabled,
Undertaker
2012-07-29, 18:42:37
Ist AMD einfach unfähig eine gescheite Cache/SI Architektur hin zu stellen, oder wie schafft es Intel mit seinem SI aus zu kommen und AMD nicht, oder nippelt IB auch so am SI?
Der IMC von SB/IB scheint ein wenig effizienter zu sein, allerdings auch nicht mit riesigem Abstand:
http://www.computerbase.de/artikel/prozessoren/2012/test-intel-ivy-bridge/32/
Falls man den Werten glauben mag, hat Intel mit DDR3-1600 sogar etwas mehr Durchsatz als AMD mit DDR3-1866. Allerdings, wie gesagt: Keine wirklich große Differenz.
Bei Trinity dürfte wohl auch der fehlende L3-Cache zur Bandbreitenabhängigkeit beitragen.
Skysnake
2012-07-29, 19:17:28
Wird wohl so sein wie S940 es sagt. Der Turbo wird reinhauen. Alles andere wäre auch mehr als traurig...
Undertaker
2012-07-29, 19:27:53
Wäre in diesem Fall möglich, ja. Allerdings bin ich bei Differenzen <5% eh immer sehr skeptisch... Ich weiß nicht, wie stark die Ergebnisse in diesem Bench ohnehin schwanken.
Ronny145
2012-08-13, 11:45:36
Fünf AMD-„Trinity“-Desktop-APUs ab 1. Oktober? (http://www.computerbase.de/news/2012-08/fuenf-amd-trinity-desktop-apus-ab-1.-oktober/)
y33H@
2012-08-13, 12:40:52
Mit Zeitverschiebung hierzulande ein Dienstag, was üblich für AMD ist - passt.
Fünf AMD-„Trinity“-Desktop-APUs ab 1. Oktober? (http://www.computerbase.de/news/2012-08/fuenf-amd-trinity-desktop-apus-ab-1.-oktober/)Da haben die CB Jungs schlampig abgeschrieben, da ist nichts bestätigt, die japanische Seite spricht auch nur selbst von "Gerüchten". Vermutlich haben sie auch die gleichen gelesen, die CB jetzt durch die Japaner bestätigt sieht :freak:
Aber immerhin haben sie noch ein Fragezeichen in der Überschrift.
So oder so sollte Trinity aber mal langsam wirklich in die Pötte kommen. Das Datum könnte also schon richtig sein, bestätigt ist aber nachwievor nichts.
Das Stepping ist übrigens noch A1:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1344777543
Ronny145
2012-08-13, 13:16:43
CB sieht es doch nicht als bestätigt. Da steht ein Fragezeichen in der Überschrift und im Artikel werden "soll" und "würden" eingesetzt. Wäre zu Hoffen, dass es beim 1.10 bleibt und sich nicht weiter verschiebt, wird langsam Zeit. Also bleibt es beim A1, ein neues Stepping hätte ja durchaus Sinn machen können und würde teils die Verschiebung erklären.
y33H@
2012-08-13, 13:24:02
Das Stepping ist übrigens noch A1.Ist der A8-5500 hier auch gewesen, ich gehe auch nicht davon aus, dass da je was anderes kommt - wie schon bei Llano.
Also bleibt es beim A1, ein neues Stepping hätte ja durchaus Sinn machen können und würde teils die Verschiebung erklären.
Dachte ich auch, aber das wird anscheinend jetzt erst als "Trinity 2.0" kommen. Was bliebe dann als Begründung übrig?
Mir fällt spontan ein:
- Sockeländerungen (da gabs irgendwo ja mal nen Hinweise)
- zu wenig Stückzahlen
- Extra Zeit für den Llanoabverkauf
Weitere Ideen?
@y33H@ (http://www.forum-3dcenter.org/vbulletin/member.php?u=23862):
Ich hoff noch auf ne Rev. B. Bei ner Rev.A gibts noch viele Feinschliffs-Optimierungspotentiale und es gab ja das Trinity 2.0 Gerücht von SemiAcc. Für 100 MHz mehr Takt fände ich das übertrieben. Bisher gabs das 2.0 nur bei Brazos 2.0, da gabs nur 50MHz mehr Takt für die API, aber Brazos war der Sammelbegriff für die Plattform und in der hatten sie auch die SB/FCH geändert, der bei der 2.0er Version dann USB/SATA3 mitbrachte. Also da ist ne extra Nummer dann gerechtfertigt. Trinity dagegen bezeichnet nur die APU, deswegen erwarte ich da mehr.
Aber warten wirs mal ab ob das überhaupt stimmt.
Ronny145
2012-08-13, 15:33:36
Dachte ich auch, aber das wird anscheinend jetzt erst als "Trinity 2.0" kommen. Was bliebe dann als Begründung übrig?
Mir fällt spontan ein:
- Sockeländerungen (da gabs irgendwo ja mal nen Hinweise)
- zu wenig Stückzahlen
- Extra Zeit für den Llanoabverkauf
Zu wenig Stückzahlen tippe ich, was wiederum verschiedene Gründe haben kann. Beim Shader Vollausbau fällt es sehr stark auf. Es gibt nach 3 Monaten erst 2 lieferbare A10 Notebooks und OEM Desktop Systeme gibt es noch gar keins mit A10. Dabei ist das HP Pavilion g7-2051sg nur bei sehr wenigen Shops lagernd verfügbar, mehr gibt es nicht in Deutschland. Beim HP scheint sich die erste Charge dem Ende hin zu neigen, nur warum kommt nichts nach? Bei computeruniverse ist nur noch 1 Stück verfügbar.
Ja da muss es irgendwie sein. Wobei es bei OEM Sicht nicht nur die Produktion bei AMD/GF sein muss sondern eventuell auch nur eine zu geringe Bestellmenge aufgrund schlechter Prognosen.
Aber naja, wenigstens 1 Hersteller müsste dann was haben, außer alle haben sich wegen der WiKrise zurückgehalten. Aber das AMD auf nen Berg Trinitys sitzt kann ich irgendwie auch nicht glauben. Mal schauen, wie die Versorgung am Anfang ist. Einige unken in den Foren schon, dass das schöne 65W 5700er Modell wahrscheinlich nicht viel Volumen haben wird.
y33H@
2012-08-13, 23:57:02
Bei Llano waren die A8 mit 65W ja auch Mangelware, zumindest retail. Selbst Komplettrechne (http://geizhals.at/de/?cat=sysdiv&asd=on&asuch=a8-3820)r bekommt und bekam man hierzulande kaum. Der 32-nm-Prozess ist zwar fortgeschritten, aber eine drastisch gestiegene Ausbeute bezweifle ich einfach mal.
Bei Llano waren die A8 mit 65W ja auch Mangelware, zumindest retail. Selbst Komplettrechne (http://geizhals.at/de/?cat=sysdiv&asd=on&asuch=a8-3820)r bekommt und bekam man hierzulande kaum. Der 32-nm-Prozess ist zwar fortgeschritten, aber eine drastisch gestiegene Ausbeute bezweifle ich einfach mal.
Naja, der Prozess ist ja nur die halbe Miete, kommt ja auch noch auf den Chip an. Da gibts mit dem Umstieg auf Bulldozerkerne verbunden mit dem Clock-Mesh schon einige Faktoren. Aber warten wirs mal ab.
boxleitnerb
2012-09-27, 07:12:28
Reviews der iGPU:
http://www.anandtech.com/show/6332/amd-trinity-a10-5800k-a8-5600k-review-part-1
http://www.legitreviews.com/article/2043/1/
http://www.pcper.com/reviews/Processors/AMD-A10-5800K-Performance-Preview-Trinity-Desktop
http://www.tomshardware.com/reviews/trinity-gaming-performance,3304.html
Knapp 20% schneller als Llano, verbraucht aber auch mehr.
mboeller
2012-09-27, 08:00:41
Reviews der iGPU:
Knapp 20% schneller als Llano, verbraucht aber auch mehr.
Hier (http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_6.html) sieht man aber IMHO sehr schön, das die GPU im Trinity wesentlich schneller ist als die GPU im Llano, leider aber durch das begrenzende Speicherinterface "verhungert".
Ich interpretiere die ca. 45% höheren Vantage und 3DMark11 Ergebnisse im Vergleich zum A8-3870K zumindest so.
Der "A8-3750K" aus den Diagrammen ist in Wirklichkeit ein "A8-3870K" steht zumindest auf Seite 5 des Reviews so drin. Einen A8-3750K gibt es, soweit ich gesucht habe auch gar nicht.
___
Die xbitlabs-Leute haben auch schon einen Sysmark 2012 Testlauf durchgeführt (siehe Seite 5 (http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_5.html)vom Review). Da liegt ein A10-5800K zw. einem FX4170 und einem FX6200, und dabei eher näher am FX6200. Auch nicht so schlecht. Die i3 sind zwar noch schneller, aber das war ja zu erwarten.
SavageX
2012-09-27, 08:57:46
Knapp 20% schneller als Llano, verbraucht aber auch mehr.
Und hier gehen die Reviews mal wieder auseinander, hier http://www.legitreviews.com/article/2043/10/ sieht es ja so aus, als wäre der A10 in den getesteten Situationen um einiges sparsamer.
edit: "In games the AMD A10-5800K did use a tad more power than the A8-3870K processor though." Ich dachte Sleeping Dogs ist ein "game"?
boxleitnerb
2012-09-27, 14:32:19
95W vs 93W, passt doch. Wobei das nur ein Anhaltspunkt ist.
xbitlabs hat Sysmark 2012 druntergemogelt :D
http://www.abload.de/img/sysmarkncb6v.png (http://www.abload.de/image.php?img=sysmarkncb6v.png)
fondness
2012-09-27, 14:47:54
95W vs 93W, passt doch. Wobei das nur ein Anhaltspunkt ist.
xbitlabs hat Sysmark 2012 druntergemogelt :D
http://www.abload.de/img/sysmarkncb6v.png (http://www.abload.de/image.php?img=sysmarkncb6v.png)
Hm, immerhin bei gleicher Modul-Anzahl und trotz weniger Takt schneller als der FX-4170.
Trotzdem ist es nach wie vor peinlich wie man hier von den Intel Dual-Cores vernascht wird.
Hm, immerhin bei gleicher Modul-Anzahl und trotz weniger Takt schneller als der FX-4170.
Trotzdem ist es nach wie vor peinlich wie man hier von den Intel Dual-Cores vernascht wird.
Naja, AMD war doch aus der Bapco ausgetreten, wahrscheinlich nicht ohne Grund...
Schaffe89
2012-09-27, 16:02:46
Wenn man sich die BF3 CPU Performance ansieht, ist man getestet mir ner HD 7870 gleichauf mit dem schnellsten Intel Ivy i3, das kann sich meiner Meinung nach schon sehen lassen.
In Spielen dürfte die CPu Leistung im Mittel dann wohl wieder so ~20% hinter der der Intel i3 hiterherhinken in Anwendungen siehts besser aus.
Die Integrierte GPU ist jedenfalls der von Intel meilenweit überlegen, wenn man sich die teils extremen Einbrüche der Intel IGP bei Anandtech in Shogun 2 und Minecraft reinzieht.
AMD´s IGP ist da im Mittel 70 bis 90% schneller.
Mal sehen wie die CPU bei Computerbase abschneidet.
Gibts irgendwo ein Review mit höheren Ramtakraten? Scheinbar gibts da nen etwas größeren Flaschenhals bei der iGP.
StefanV
2012-09-27, 16:05:09
Trotzdem ist es nach wie vor peinlich wie man hier von den Intel Dual-Cores vernascht wird.
Das doofe bei solchen Sachen, ohne den Code der Anwendung zu kennen, ist die Frage, ob das an der CPU liegt oder am Compiler, der einige 'GenueneIntel' Abfraen (oder ähnliches) nutzt und bei AMD dann auf einen 'Allgemeinen Fallback Pfad' ausweicht.
Ich weiß nicht, ob du dich an die Geschichte mit dem PC Mark 2005 (http://arstechnica.com/gadgets/2008/07/atom-nano-review/6/) erinnerst, wo ein VIA Nano mal eben um die 50% zulegt, durch CPUID Tuning. Sprich die CPU meldet sich als GenuineIntel statt VIA....
dildo4u
2012-09-27, 16:06:52
Wenn man sich die BF3 CPU Performance ansieht, ist man getestet mir ner HD 7870 gleichauf mit dem schnellsten Intel Ivy i3, das kann sich meiner Meinung nach schon sehen lassen.
Singleplayer hat Null mit 64 Servern zu tun.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9462981&postcount=1027
Ein Yorkfield mit 4 Kernen dürfte ca mit dem 5800k vergleichbar sein.
Ferengie
2012-09-27, 21:39:07
Lagernd und lieferbar in D (http://geizhals.de/?cat=cpuamdfm2)...fehlt irgendwie nur noch die Mainboards...diesmal irgendwie anders rum, sonst sind die Mainboard eigentlich eher da. Kann man das als positive CPU Verfügbarkeit werten?
Undertaker
2012-09-28, 08:55:51
Nun, mobil gibt es den Chip ja schon lange. ;) Das die Mainboards so stark hinterherhängen, ist aber in der Tat verwunderlich.
Wann werden die Athlon II kommen?
Echo419
2012-09-28, 09:54:55
...Gibts irgendwo ein Review mit höheren Ramtakraten? Scheinbar gibts da nen etwas größeren Flaschenhals bei der iGP.
hier (http://extreme.pcgameshardware.de/prozessoren/238762-amd-a10-5800k-pretest-der-grafikeinheit.html) hat einer den a10 5800k schon testen können und schon vorab igpu-ergebnisse gepostet. man sieht hier sehr gut wie die 7660d mit dem ramtakt skaliert.
den rest des tests(cpu-performance, etc.) darf er aufgrund nda erst ab. 2.okt. veröffentlichen.
mfg echo
AnarchX
2012-09-28, 16:42:26
Nun, mobil gibt es den Chip ja schon lange. ;) Das die Mainboards so stark hinterherhängen, ist aber in der Tat verwunderlich.
Nachbesserungen für den versprochenen Kaveri/Trinity 2 Support?
Schaffe89
2012-09-29, 11:18:05
Singleplayer hat Null mit 64 Servern zu tun.
Hä? Wo ist der Zusammenhang mit meinem Posting? Wie willst du denn die Performance auf nem Server vergleichen können?
Er meint, dass BF3 mit 64 Spielern auch im Client wohl wesentlich mehr von der CPU limitiert wird.
Ferengie
2012-09-29, 11:43:18
Er meint, dass BF3 mit 64 Spielern auch im Client wohl wesentlich mehr von der CPU limitiert wird.
BF3 Multiplayerbenchmark: Phenom II X4 VS X6 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524536), aber in fullHD wird sich der Effekt meiner Meinung immer weiter angleichen, weil BF3 besonders GPU lastig ist meiner Erfahrung nach.
Die meisten Benches i7 vs. AMD X6 haben gezeigt, dass i7 super für 800x600 ist, aber bei 1900x1200 war teilweise der x6 schneller oder mit den alten i7 meist gleich auf.
Im Zweifelsfall muss ich erst ne Trinity kaufen und selber mit 1920x testen wie stark er bei min fps einbricht, denn den ganzen Seiten sind mir zu einseitig mit ihren Benches.
Liszca
2012-09-29, 16:04:29
Gibt es schon Tests wie hoch sich der Arbeitsspeicher takten lässt?
Momentan bin ich ein wenig skeptisch ob es sich überhaupt lohnt Speicher schneller als PC3-17066U (DDR3-2133) zu wählen, da schliesslich der ursprünglich angedachte support für jenen entfallen ist.
Weil Preislich ist PC3-19200U (DDR-2400) durchaus erschwinglich, die Frage ist ob ich mit einem Trinity daraus partizipieren kann.
marc-05
2012-09-29, 18:18:35
Von Xbitlabs (http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0) gibts Speichertest von 1333er-2400er Ram
Ferengie
2012-09-29, 18:33:44
Das Prob wird eher der Speicher sein, habe mehrere Kits 2133 gehabt und nur Muskin hat überhaupt die Timings und Takt wie angegeben geschafft. Das andere waren umgelabelte 1866 oder weniger...
Schaffe89
2012-09-30, 12:46:47
Er meint, dass BF3 mit 64 Spielern auch im Client wohl wesentlich mehr von der CPU limitiert wird.
Kommt halt drauf an, ob im MP mehr Kerne besser sind als weniger Kerne.
Dass der 5800k im Singleplayer am schnellsten ivy i3 drannklebt, ist für mich jedenfalls schon etwas überraschend, denn normalerweise skalieren in Spielen die Kerne oder halt Threads eher mau, selbst wenns angeblich multicore optimiert ist.
Undertaker
2012-09-30, 13:28:05
Gegenüber bisherigen Tests finde ich das nicht unbedingt überraschend. Siehe z.B. hier (http://www.pcgameshardware.de/FX-4100-CPU-238777/Tests/Alle-Bulldozer-CPUs-im-Test-Inklusive-FX-8150-FX-8120-FX-6200-FX-6100-FX-4170-und-FX-4100-870241/) bei der PCGH. Da liegt ein Sandy Bridge i3 zwischen dem FX-4100 und 4170.
Erklären lässt sich das auch ziemlich leicht. Battlefield 3 (bzw. diese Szene) scheint ziemlich gut auf bis zu 4 Threads zu skalieren, darüber nimmt der Leistungsgewinn allerdings stark ab (siehe den nur wenig schnelleren FX-8150). Obwohl Core i3 und FX-4xxx/A10-5800K jeweils 4 Threads haben, ist AMD durch die 4 Int-Einheiten und natürlich den viel höheren Takt im Vorteil; nur durch die höhere IPC des i3 hält dieser mit.
Kommt halt drauf an, ob im MP mehr Kerne besser sind als weniger Kerne.
Dass der 5800k im Singleplayer am schnellsten ivy i3 drannklebt, ist für mich jedenfalls schon etwas überraschend, denn normalerweise skalieren in Spielen die Kerne oder halt Threads eher mau, selbst wenns angeblich multicore optimiert ist.
Frostbite 2 ist da ne Ausnahme.
http://www.computerbase.de/artikel/grafikkarten/2012/test-trinity-vs.-ivy-bridge-im-gpu-test/
http://www.computerbase.de/artikel/prozessoren/2012/test-trinity-vs.-ivy-bridge-im-cpu-test/
http://www.pcgameshardware.de/Trinity-Codename-255654/Tests/Test-AMD-Trinity-Desktop-1024192/
Parallel dazu haben die Preise mal schnell um 17% angezogen :)
MadManniMan
2012-10-02, 09:43:07
Puh ... prinzipiell durchaus entzückend, aber wie sehr ich diesen Auftritt auch mögen möchte: die Leistungsaufnahme ist eeecht sowas von 2003 ;(
Leonidas
2012-10-02, 09:44:38
weitere Testberichte:
http://www.hartware.de/review_1534.html
http://www.technic3d.com/review/cpu-s/1458-amd-a10-5800k-apu/1.htm
http://www.anandtech.com/show/6347/amd-a10-5800k-a8-5600k-review-trinity-on-the-desktop-part-2
http://www.guru3d.com/articles_pages/amd_a10_5800k_review_apu,1.html
http://www.hardwareheaven.com/reviews/1583/pg1/amd-a10-5800k-apu-performance-review-introduction.html
http://hothardware.com/Reviews/AMD-A10-and-A8-Trinity-APU-Virgo-CPU-Performance/
http://www.legitreviews.com/article/2047/1/
http://www.overclockers.com/amd-trinity-a10-5800k-apu-review
http://www.pcper.com/reviews/Processors/AMD-Trinity-Review-A10-5800K-and-A8-5600K-Break-Cover
http://www.tomshardware.com/reviews/a10-5800k-trinity-efficiency,3315.html
http://www.xbitlabs.com/articles/cpu/display/amd-a10-5800k.html
dildo4u
2012-10-02, 10:00:36
33 gegen 105 Watt beim Computerbase CPU Test,AMD ist nicht nur eine Generation hinten sondern zwei.
Kein Wunder beim Fertigungsunterschied. Die IGP ist aber hübsch.
MfG,
Raff
SavageX
2012-10-02, 10:34:40
33 gegen 105 Watt beim Computerbase CPU Test,AMD ist nicht nur eine Generation hinten sondern zwei.
Und hier http://www.xbitlabs.com/articles/cpu/display/amd-a10-5800k_9.html#sect0 sind es 14 zu 47 Watt. Wäre dort der i3 3220 im idle so sparsam wie der A10, so wären es schon 22 zu 47 Watt. Zeigt zwar, dass der Effizienzhammer in Sachen CPU weiter bei Intel hängt, aber dass diese Art zu rechen a) ziemlich plattformabhängig ist und b) die nackte Differenz natürlich effiziente Energiesparmechanismen schlecht aussehen lässt.
dildo4u
2012-10-02, 10:50:08
Die Werte von CB bleiben besser da sie im idle fast gleich sind.Xbit wird einfach ein verschwenderiches Intel Board genutzt haben,das kann man nicht der CPU anhängen.Die FM 2 Boards sind ja von Hause aus auf low Power ausgelegt.
fondness
2012-10-02, 11:02:07
Letztendlich sollte man nicht vergessen das Trinity im selben Fertigungsprozess und mit der selben TDP wie Llano daher kommt. Die Verbesserungen sind also ausschließlich auf das Design zurück zu führen. Dafür ist der Chip nach nur einem Jahr nicht schlecht. Zudem ist man im wichtigen idle-Wert locker konkurrenzfähig. Der Chipsatz ist mit seinen 8 SATA 3Gb-Ports auch nett, Intel spart hier leider nach wie vor.
Das man Intel mit ihrem 22nm Prozess nicht schlagen kann ist klar. Niemand kann eine vollen Full-Node Vorsprung mit dem Design wett machen, auch AMD kann nicht zaubern. Ein Trinity wäre mit Intels 22nm Tri-State Prozess auch nicht größer als vielleicht 130-150mm² und würde wohl auch nur die Hälfte an Strom verbrauchen. Hätte, wäre, wenn hilft aber nichts.
SavageX
2012-10-02, 11:16:11
Die Werte von CB bleiben besser da sie im idle fast gleich sind.Xbit wird einfach ein verschwenderiches Intel Board genutzt haben,das kann man nicht der CPU anhängen.Die FM 2 Boards sind ja von Hause aus auf low Power ausgelegt.
Na ja, "verschwenderische" Boards mit viel sonstigem Krempel und hohem Grundverbrauch sollten ja nicht zwangsläufig ineffiziente Wandler haben (der Grundverbrauch wird ja durch die Differenzbildung halbwegs wieder rausgerechnet). Schlechtere Wandler würde ich eher bei günstigeren Platinen erwarten, die aber dank Magerausstattung trotzdem einen niedrigen Grundverbrauch haben.
So oder so ist diese Art zu rechnen nicht der Weisheit letzter Schluss, damit testet man eh nur aus, ob der Turbo auch hübsch die TDP ausreizt. Dass da unterschiedliche Werte für eine 55 Watt CPU rauskommen als für eine 100 Watt CPU überflutet jetzt mich nicht mit Überraschung.
dildo4u
2012-10-02, 11:16:28
Letztendlich sollte man nicht vergessen das Trinity im selben Fertigungsprozess und mit der selben TDP wie Llano daher kommt. Die Verbesserungen sind also ausschließlich auf das Design zurück zu führen. Dafür ist der Chip nach nur einem Jahr nicht schlecht. Zudem ist man im wichtigen idle-Wert locker konkurrenzfähig. Der Chipsatz ist mit seinen 8 SATA 3Gb-Ports auch nett, Intel spart hier leider nach wie vor.
Das man Intel mit ihrem 22nm Prozess nicht schlagen kann ist klar. Niemand kann eine vollen Full-Node Vorsprung mit dem Design wett machen, auch AMD kann nicht zaubern. Ein Trinity wäre mit Intels 22nm Tri-State Prozess auch nicht größer als vielleicht 130-150mm² und würde wohl auch nur die Hälfte an Strom verbrauchen. Hätte, wäre, wenn hilft aber nichts.
Naja Penryn und Nehalem waren beide 45nm und der Sprung war wesentlich größer als hier.Beides ist gut vergleichbar da AMD hier wie Intel damals,die Architektur komplett umgebaut hat.
Gerade bei den Games kommt gar nix bei rum 3%.
http://www.computerbase.de/artikel/prozessoren/2012/test-trinity-vs.-ivy-bridge-im-cpu-test/9/
Der Idle-Verbrauch ist jedenfalls wieder super und das ist auch das Wichtigste, wenn die CPU die TDP halbwegs einhält.
Twodee
2012-10-02, 11:37:18
Und hier http://www.xbitlabs.com/articles/cpu/display/amd-a10-5800k_9.html#sect0 sind es 14 zu 47 Watt. Wäre dort der i3 3220 im idle so sparsam wie der A10, so wären es schon 22 zu 47 Watt. Zeigt zwar, dass der Effizienzhammer in Sachen CPU weiter bei Intel hängt, aber dass diese Art zu rechen a) ziemlich plattformabhängig ist und b) die nackte Differenz natürlich effiziente Energiesparmechanismen schlecht aussehen lässt.
Ja bei einem Thread-Load. Schau mal bei 100% Load (28 zu 83 Watt).
SavageX
2012-10-02, 11:42:21
Ja bei einem Thread-Load. Schau mal bei 100% Load (28 zu 83 Watt).
Hui, ich nehme alles zurück und behaupte das Gegenteil!
Undertaker
2012-10-02, 12:07:16
Der Idle-Verbrauch ist jedenfalls wieder super und das ist auch das Wichtigste, wenn die CPU die TDP halbwegs einhält.
Im reinen Leerlauf gibt es seit Jahren kaum noch Verbesserungen, da ist vor allem das Board entscheidend. Interessanter ist imo ohnehin Teillast, wie man Sie im Alltag meist hat - testet nur leider kaum jemand.
StefanV
2012-10-02, 12:29:19
Puh ... prinzipiell durchaus entzückend, aber wie sehr ich diesen Auftritt auch mögen möchte: die Leistungsaufnahme ist eeecht sowas von 2003 ;(
Das ist doch das Problem!
Hätte Intel 2003 die ganzen Firmen bestochen und Erpresst, sähe es jetzt vielleicht etwas besser aus und die Leistungsaufnahme der AMD CPUs wäre deutlich besser...
Ronny145
2012-10-02, 13:19:12
CPU Lastverbrauch liegt ein gutes Stück über Llano mit der gleichen TDP, die TDP muss ziemlich knapp ausgereizt werden. Sehr ungewöhnlich ist die Verfügbarkeit von FM2 Boards. Es gibt nur ein überteuertes für 183€, also quasi derzeit nicht verfügbar. Normalerweise sind die Boards immer früher als die CPUs dran und die Verfügbarkeit zum launch ist kein Problem. Der Verdacht liegt nah, dass wie spekuliert Änderungen an FM2 durchgeführt wurden.
Shink
2012-10-02, 13:37:52
Der Verdacht liegt nah, dass wie spekuliert Änderungen an FM2 durchgeführt wurden.
Davon gehe ich auch aus: Die Boards waren doch im Frühsommer schon zum Launch der Notebook-Trinitys fertig, oder?
Dass FM2 und FM2+ zusammengelegt wurden, ist ja nicht wirklich schlecht...
M4xw0lf
2012-10-02, 18:38:21
33 gegen 105 Watt beim Computerbase CPU Test,AMD ist nicht nur eine Generation hinten sondern zwei.
Deine Werte da sind die Idle-Volllast Differenz. Die absoluten Leistungsaufnahmen bei Volllast sind 89 vs 160 W.
http://www.computerbase.de/artikel/prozessoren/2012/test-trinity-vs.-ivy-bridge-im-cpu-test/11/
dildo4u
2012-10-02, 18:51:08
Deine Werte da sind die Idle-Volllast Differenz. Die absoluten Leistungsaufnahmen bei Volllast sind 89 vs 160 W.
http://www.computerbase.de/artikel/prozessoren/2012/test-trinity-vs.-ivy-bridge-im-cpu-test/11/
Der Wert 33 vs 105 nur für den CPU Verbrauch ist genau,steht ja auch im Text die CPU braucht 3 mal so viel Strom für ne leicht schlechtere Gesamtleistung.Der Rest interresiert nicht da man vergleichbar sparsame Boards auch für Intel kaufen kann.
Knuddelbearli
2012-10-02, 19:16:35
denke worauf m4xw0lf hinauswollte. wie willst die die cpu ohne Mainboard und co betreiben?
33 vs 105 interessiert nur für die Theoretiker die die Architektur selber vergleichen wollen.
und zumindest bei CB sind beides absolut vergleichbare MBs , eher ist es so das bei AMD MBs deutlich billigere und ineffizientere Teile genutzt werden. Zumindest ist das im OEM Markt gang und gäbe.
Da ist der 5800K sogar kaum besser als der Phenom2 X4-965 mit vorsintflutlichen 45nm... Mann Mann, AMD hat aber auch gar nichts dazugelernt (alles andere interessiert nicht):rolleyes:
Ronny145
2012-10-02, 19:32:20
und zumindest bei CB sind beides absolut vergleichbare MBs , eher ist es so das bei AMD MBs deutlich billigere und ineffizientere Teile genutzt werden. Zumindest ist das im OEM Markt gang und gäbe.
Billiger heißt nicht gleich ineffizienter/mehr Verbrauch und teurer effizienter/niedriger Verbrauch. Bei Intel Tests werden häufig Asus Boards eingesetzt, die im Vergleich zu anderen Boards (besonders MSI) sehr schluckhaft zu Werke gehen. Teilweise liegt es auch an den Bios Einstellungen. Bei CB mit Asus auf beiden Herstellern scheint es sich auszugleichen dem Idle Wert zu urteilen. Bei einigen anderen reviews nicht.
Da ist der 5800K sogar kaum besser als der Phenom2 X4-965 mit vorsintflutlichen 45nm...
Da gibt es keine großen Unterschiede zwischen 32nm und 45nm. Außerdem keine zwischen Thuban, Llano und Piledriver.
Letztendlich sollte man nicht vergessen das Trinity im selben Fertigungsprozess und mit der selben TDP wie Llano daher kommt. Die Verbesserungen sind also ausschließlich auf das Design zurück zu führen. Dafür ist der Chip nach nur einem Jahr nicht schlecht. Zudem ist man im wichtigen idle-Wert locker konkurrenzfähig. Der Chipsatz ist mit seinen 8 SATA 3Gb-Ports auch nett, Intel spart hier leider nach wie vor.
Das man Intel mit ihrem 22nm Prozess nicht schlagen kann ist klar. Niemand kann eine vollen Full-Node Vorsprung mit dem Design wett machen, auch AMD kann nicht zaubern. Ein Trinity wäre mit Intels 22nm Tri-State Prozess auch nicht größer als vielleicht 130-150mm² und würde wohl auch nur die Hälfte an Strom verbrauchen. Hätte, wäre, wenn hilft aber nichts.
Genau meine Meinung!
marc-05
2012-10-02, 23:07:55
Hartware.fr Trinity Test (http://www.hardware.fr/articles/878-1/amd-a10-5800k-a8-5600k-apu-desktop-deuxieme.html) die 7660D-GPU erreicht ziemlich die Geschwindigkeit einer HD 6670 mit DDR3 Speicher.
Dual Graphics mit HD 7660D und HD 6670 ist langsamer als eine einzelne HD 6670 DDR3.
Gipsel
2012-10-03, 04:38:42
Dual Graphics mit HD 7660D und HD 6670 ist langsamer als eine einzelne HD 6670 DDR3.
Wie kommst Du da drauf?
http://www.abload.de/img/img0038939u4kwj.png
Undertaker
2012-10-03, 10:37:51
Die 14 Prozent Performancegewinn werden nicht ausreichen, die Mikroruckler aufzuwiegen und das Performanceempfinden damit eher verschlechtern. Wers schonmal getestet hat, wird mir da zustimmen. ;) Zudem hat man in einigen Spielen auch in der Tat fps-Einbrüche und nicht etwa Gewinne durch Dual Graphics. Derzeit eine absolut nicht empfehlenswerte Lösung.
Herr Doktor Klöbner
2012-10-03, 10:49:21
Find ich als Paket absolut nicht überzeugend, der Stromhunger ist nicht akzeptabel. Überhaupt kann ich den Trend zu immer stärkeren integrierten Grafikeinheiten nicht nachvollziehn. Entweder man spielt nicht am PC und das gilt für das Gros der User, dann reicht eine Schmalspurlösung aus, oder aber man spielt, dann hat man eine Grafikkarte, diese Dinger sind weder Fisch noch Fleisch.
Ronny145
2012-10-03, 11:46:14
Für ein absolutes Budget System kann es Sinn machen. Also Leute, die sich nur eine Grafikkarte für max 50€ leisten können oder wollen, könnten gleich zum A10-5800K mit vergleichbarer GPU Leistung greifen. Im Notebook machen die integrierten natürlich weitaus mehr Sinn.
marc-05
2012-10-03, 13:55:00
Wie kommst Du da drauf?
Genau genommen sinds 4 von 6 Games ;D wo DG (Dual Graphics) mit 6670 DDR3 langsamer ist als eine einzelne.
http://s1.directupload.net/images/121003/j5h3b9yk.jpg (http://www.directupload.net)
Eisenoxid
2012-10-04, 11:33:19
Find ich als Paket absolut nicht überzeugend, der Stromhunger ist nicht akzeptabel. Überhaupt kann ich den Trend zu immer stärkeren integrierten Grafikeinheiten nicht nachvollziehn. Entweder man spielt nicht am PC und das gilt für das Gros der User, dann reicht eine Schmalspurlösung aus, oder aber man spielt, dann hat man eine Grafikkarte, diese Dinger sind weder Fisch noch Fleisch.
Dem muss ich mich (leider) anschließen. Ich kann den wirklichen Sinn dahinter nicht erkennen.
Wenn ich eine günstige Gaminglösung suche, wäre eine (in etwa gleich teure) Kombination aus z.B. Pentium G630 + HD6670 einfach die deutlich bessere Wahl.
AnarchX
2012-10-04, 12:43:18
Dafür hat der 5800K ein umfangreicheres Feature-Packet mit HW-AES, deutlich mehr Anwendungsleistung und Video-Encoding via VCE.
Für die S.1155 Plattform spricht natürlich die bessere Aufrüstbarkeit.
Im Endeffekt könnte AMD mit weiteren Preissenkungen hier wohl mehr Attraktivität erzielen.
Gipsel
2012-10-04, 14:16:15
Genau genommen sinds 4 von 6 Games ;D wo DG (Dual Graphics) mit 6670 DDR3 langsamer ist als eine einzelne.
http://s1.directupload.net/images/121003/j5h3b9yk.jpg (http://www.directupload.net)
Und in einem davon (F1) ist angeblich eine 6670 GDDR5 langsamer als eine 6670 DDR3. Die GDDR5-Version wird mit DualGraphics auch schneller, die DDR3-Version (die anfangs angeblich schneller ist) aber langsamer. Haben die vielleicht einfach nur die Werte dort vertauscht? :rolleyes:
Dieses umgekehrte Verhalten von DDR3- und GDDR5-Version mit DG tritt bei Civ5 übrigens auch nochmal auf.
Hat schonmal jemand einen Test des 5700er mit Stromverbrauchsmessungen gesehen? Mich würde interessieren inwiefern sich die geringere TDP im realen Betrieb auswirkt. Für ne PicoPSU scheint mir der 5800k zu gierig und eh ich mit undervolting anfange ...
Morpog
2012-10-06, 11:55:38
Sobald es das ASRock miniITX Board zu kaufen gibt, kann ich dir Werte eines 5700er liefern an nem 200W SFX Netzteil.
Klingt gut. Auf die ITX-Boards warte ich auch noch.
Irgendwie warte ich überhaupt auf ein Board. Es gibt ja so gut wie keine zu kaufen. Bei alternate steht bei den Asus Boards noch "Liefertermin unbestimmt":mad:
Liszca
2012-10-06, 22:26:53
der a10 5800k geht ganz gut in BF 3 mit der igp ben überrascht.
Aber übertakten ist nicht viel drinne.
apu kriege nur auf 900 mhz
speicher geht nur auf 2133mhz, habe abernicht mit den timings rumprobiert, dachte das würde weniger aufwendig sein.
Die CPU scheint auch nicht allzu weit zu kommen, irgendwie wohl ein ganz misserables modell erwischt(?).
Was ich im Bios an speichertimings einstellen kann stimmt überhaupt nicht mit dem überein was ich im AMD OverDrive an einstellungen vorfinde.
Knuddelbearli
2012-10-06, 22:33:55
hmm komisch oc tests die ich gesehen habee waren eigentlich alle rund um 1,1Ghz auf der GPU
Naja, die Tests waren ja wohl in der Regel mit Samples von AMD. Die waren 100pro selektiert.
Die CPU scheint auch nicht allzu weit zu kommen, irgendwie wohl ein ganz misserables modell erwischt(?).
Na das hängt auch vom Mainboard ab. Wenn Du das gleiche hast, wie die, die die Redaktionen zum Test hatte, dann liegts natürlich an der CPU.
@MR2:
Naja 5 Bretter gibts aktuell (wenn auch nicht bei alternate):
http://geizhals.at/de/?cat=mbfm2&sort=artikel&bpmax=&asuch=&v=l&plz=&dist=&xf=
Ist doch schon ok, nächste Woche gibts dann sicherlich die allermeisten Modelle ebenfalls und alternates Schiffchen wird sicherlich auch mal im Hafen anlanden ;-)
...
Die CPU scheint auch nicht allzu weit zu kommen, irgendwie wohl ein ganz misserables modell erwischt(?)....
und wie weit ist das (ohne GPU-OC)?
Botcruscher
2012-10-07, 13:35:33
Für Notebooks passt das schon mit der integrierten Grafik. Da kommt dann aber gleich wieder der hohe Verbrauch dazu.
Lowkey
2012-10-07, 14:06:21
Irgendwie gibt es für den Trinity keine Nische wo er perfekt reinpaßt. Eventuell braucht es noch eine Preissenkung.
Morpog
2012-10-07, 14:09:52
Woot? Die Dinger sind perfekt für HTPCs!
Liszca
2012-10-07, 14:26:35
Als Board habe ich das gigabyte f2a85x-up4. Momentan habe ich aber ein viel gravierenderes problem, Origin startet nicht, es scheint mit den ram timings zusammen zu hängen.
also wenn AoD überhaupt irgendwas richtig macht, dann wundert es mich wie oft der arbeitsspeicher seinen takt ändert
innerhalb von 5 sekunden auf 12xx auf 88x wieder auf 10xx mhz was ist denn das für ein verhalten während ich fernseh schaue.
Liszca
2012-10-07, 14:46:33
Kann jemand dieses bild sicher deuten:
Ich vermute dass die ohne kernel zeiten gerade "schlafen".
Lowkey
2012-10-07, 15:12:25
Woot? Die Dinger sind perfekt für HTPCs!
Hatte ich auch gedacht, aber dann braucht das komplette System wieder zuviel Strom für ein Pico Netzteil. Richtig perfekt ist es dann auch nicht.
=> ITX Mb + günstige 50 Euro CPU + Pico PSU => idealer HTPC
Dann warte ich noch die 3 Monate bis zum Nachfolger... und bis ITX Mainboards zu haben sein werden.
Was kann der Trinity HTPC was der Llano HTPC nicht kann?
y33H@
2012-10-07, 15:43:48
Diverse ISAs, was aber für einen HTPC ziemlich egal ist.
Morpog
2012-10-07, 15:51:09
UVD 3.0 und ein zukunftsfähiger Sockel.
Ronny145
2012-10-07, 16:00:21
UVD 3.0 und ein zukunftsfähiger Sockel.
Vom Standpunkt der Leistung betrachtet ist FM2 weniger zukunftsfähig. Wer sich jetzt ein Pentium oder i3 Dualcore kauft, der hat theoretisch die Option auf die doppelte Leistung. Das schafft Kaveri mit 2 Modulen im Leben nicht.
Liszca
2012-10-07, 16:08:51
Hatte ich auch gedacht, aber dann braucht das komplette System wieder zuviel Strom für ein Pico Netzteil. Richtig perfekt ist es dann auch nicht.
=> ITX Mb + günstige 50 Euro CPU + Pico PSU => idealer HTPC
Dann warte ich noch die 3 Monate bis zum Nachfolger... und bis ITX Mainboards zu haben sein werden.
Was kann der Trinity HTPC was der Llano HTPC nicht kann?
Mit 150 watt sehe ich da kein problem, gibt ja pico psus bis 200 watt ...
Wer sich jetzt ein Pentium oder i3 Dualcore kauft, der hat theoretisch die Option auf die doppelte Leistung. Das schafft Kaveri mit 2 Modulen im Leben nicht.
Toller Vergleich. Wer sich jetzt einen A4 oder A6 kauft, hat auch die Option auf doppelte Leistung. Und nun?
Zukunftsfähig heißt eher, dass man aktuelle und zukünftige Generationen verwenden kann.
Mit 150 watt sehe ich da kein problem, gibt ja pico psus bis 200 watt ...
Das sind dann aber nur Peak-Werte. Bei der Dauerleistung ist bei 160 Schluss. Oder meinst diesen Chinakram? http://www.ebay.de/itm/200W-Pico-ATX-12v-DC-DC-power-supply-mini-ITX-CARPUTER-/400321331273?pt=PCA_UPS&hash=item5d3502c049
Außerdem wär ich vorsichtig, die Dinger länger stark zu belasten. Soweit ich weiß, sollte man die Picos bei dauerhafter Last über 50% aktiv kühlen.
Ne Alternative ist natürlich, dass man die 12V-Leitung des Netzteils (zB Dell DA2 mit 250W) an der PICO-PSU vorbeiführt und damit den ATX-12V-Anschluss betreibt.
Ronny145
2012-10-07, 16:28:23
Toller Vergleich. Wer sich jetzt einen A4 oder A6 kauft, hat auch die Option auf doppelte Leistung. Und nun?
Zukunftsfähig heißt eher, dass man aktuelle und zukünftige Generationen verwenden kann.
Auch dann ist es nicht zukunftsfähiger, weil der Ausgangswert viel schlechter wäre bei AMD. Nimm die absolute Leistung wenn dir das besser gefällt. Ich kann für S1155 heute CPUs kaufen, die ein Kaveri mit 2 Modulen und vielleicht 15% gesteigerter CPU Leistung mit Abstand verfehlt.
Knuddelbearli
2012-10-07, 16:43:26
und bei der gpu wird es ein Schuh draus ...
Ronny145
2012-10-07, 17:06:27
und bei der gpu wird es ein Schuh draus ...
Integrierte GPU und zukunftssicher? Soll das jetzt ein Spiele oder HTPC System werden? Für HTPC braucht es nicht mehr als Trinity heute und die iGPU ist zu schwach um zukunftsfähig in den Mund zu nehmen.
Lowkey
2012-10-07, 17:08:05
Das Problem ist nach wie vor den Trinity, also CPU+Grafik einzuordnen, sowohl im Preis als auch im Anwendungsbereich. Intel bietet zwar keine vergleichbare Onboardgrafik an und genau deswegen wird Trinity als interessant angesehen. Bloss haben wir hier quasi ein Produkt, dass eine Lösung darstellt, für die es schon Lösungen gibt oder gar bessere Lösungen für denselben Preis.
Trinity ist derzeit nur für ganz spezielle Sonderfälle interessant: 7x Sata3.0 gibt es bei Intel nicht Onboard.
Undertaker
2012-10-07, 17:15:29
Was Trinity darüber hinaus noch interessant macht: AES selbst bei den kleinsten Modellen, das bietet Intel erst ab dem Core i5. Für die Masse dürfte das allerdings kein besonders wichtiges Feature sein, zumindest weniger als die gute IGP (falls denn eine rudimentäre Spieletauglichkeit erforderlich ist).
Lowkey
2012-10-07, 17:27:36
Board + CPU + Grafik kostet eben bei Intel auch nicht mehr, nur dass die Grafikkarte in den PCI-E gesteckt wird und nicht integriert ist.
Wenn die CPU Preise sich in 4 Wochen eingependelt haben, dann kann man sich das wieder anschauen.
Morpog
2012-10-07, 20:56:25
Bei meinem mini-itx htpc steckt da aber eben schon die dvb_s2 Karte.
Eisenoxid
2012-10-07, 22:39:22
Bei meinem mini-itx htpc steckt da aber eben schon die dvb_s2 Karte.
Das ist tatsächlich ein Spezialfall, wo Trinity Sinn macht bzw. eine sehr attraktive Alternative darstellt.
Loeschzwerg
2012-10-08, 12:59:02
Kommt darauf wie das ITX Angebot zukünftig für den FM2 aussieht. Bis jetzt kenne ich eine Ankündigung von AsRock und MSI, erhältlich ist allerdings noch nichts. Für den FM1 gibt es auch nur ganze 3 ITX-Boards (Geizhals)...
Dafür gibt es viele fullsize ATX Boards... aber wozu? Gerade bei kleinen Systemen würde eine APU vom Schlag Trinity Sinn machen.
MadManniMan
2012-10-08, 13:07:15
Gibt es eigentlich Effizienzvergleiche zwischen den größten Trinitys mit GPU-losen Prozessoren + Extra-GPU?
dildo4u
2012-10-12, 17:33:03
AMD Piledriver vs. Bulldozer 5800K vs FX 4170
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-piledriver-vs.-bulldozer-teil-1/2/
Liszca
2012-10-13, 22:21:11
Kennt jemand von euch den vcore vom a10-5700?
Hübie
2012-10-13, 22:29:38
AMD Piledriver vs. Bulldozer 5800K vs FX 4170
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-piledriver-vs.-bulldozer-teil-1/2/
Sag mal bin ich blind/doof oder ist Piledriver taktnormiert langsamer als Llano (A8-3870K):confused:
Langsam fehlen mir Gründe für so eine APU in Kaufberatungen. Angesichts der powertargets wirds halt schwieriger das zu rechtfertigen. Die Softwareindustrie kommt hoffentlich schnell mit neuen Lösungen die APUs effizient nutzen können.
Aber AMD gräbt sich langsam aus der Grube heraus in der ich sie gerade sehe. Sicherer Mobil- und Cloud-Einstieg sind alles andere als etabliert.
Knuddelbearli
2012-10-13, 22:56:50
ja ist sie aber ist doch egal insgesamt ist Trinity ja 10% schneller bei selben verbrauch
Hübie
2012-10-13, 23:17:23
Ja das schon. Aber so betrachet ist es verschenktes Potenzial. Man stelle sich vor, was herauskäme wenn er bei 3 GHz 10% schneller wäre ;D
Mir is aber auch eben eingefallen das der 3870k eher ein Athlon als Bulli ist. Na ja dennoch wenig überraschendes oder überragendes.
Kaveri bricht dann wohl erst das Eis.
Knuddelbearli
2012-10-14, 00:04:07
nur dann wären zB die pipes kürzer und es geht nimer soviel takt
das schwirige ist immer das optimum zu finden
wenn eine neue cpu 10ghz bei 100W hätte aber nur 50% der IPC eines Llano wäre das doch auch egal
Liszca
2012-10-14, 14:01:18
Ich werde mein system wohl wieder zurückschicken, overclocking potiential garnicht vorhanden.
Das problem ist eher dass ich die cpu untertakten muss damit sie zuverlässig proteine faltet.
Davon abgesehen aber ein feines system wenn es funktioniert leider aber auch kein potential für undervolting selbst der kleinste schritt im bios für zu vermehrten abstürtzen.
Knuddelbearli
2012-10-14, 15:31:22
zurückschicken weill oc bzw uc nicht funktioniert ? ...
Undertaker
2012-10-14, 16:28:12
So wie ich das Posting verstehe, gibt es sogar bei Standardtakt unter Volllast Stabilitätsprobleme? Selbst wenn es kein besonders hochwertiges Board mit leichten Spannungsschwankungen wäre, sollte das doch eigentlich nicht passieren... Da würde ich auch zurückschicken/tauschen.
Liszca
2012-10-14, 17:16:02
So wie ich das Posting verstehe, gibt es sogar bei Standardtakt unter Volllast Stabilitätsprobleme? Selbst wenn es kein besonders hochwertiges Board mit leichten Spannungsschwankungen wäre, sollte das doch eigentlich nicht passieren... Da würde ich auch zurückschicken/tauschen.
ja werde ich auch machen, ein wenig schade, weil das system fühlte sich richtig schön rund an. Und der Ubuntu desktop war endlich vernünftig schnell ohne handarbeit.
Nebenbei ist mir beim rumspielen aufgefallen dass der stromverbrauch durch blosse takt verringerung sich im vergleich zu einem phenom II 955 recht schnell reduziert.
Schaffe89
2012-10-14, 19:26:17
Sag mal bin ich blind/doof oder ist Piledriver taktnormiert langsamer als Llano (A8-3870K)
Langsam fehlen mir Gründe für so eine APU in Kaufberatungen.
Niedrigere Leistung bei sinnloser Taktnormierung sind für Endnutzer natürlich extrem relevant.
Ich zweifel grad an deiner Glaubwürdigkeit.
Simon
2012-10-15, 22:55:57
Gibt es einen Termin, wann FM2 ITX Boards endlich lieferbar sind? Sonst kauf ich mir doch einen Pentium ;(
Hübie
2012-10-16, 08:19:01
Niedrigere Leistung bei sinnloser Taktnormierung sind für Endnutzer natürlich extrem relevant.
Ich zweifel grad an deiner Glaubwürdigkeit.
Was bitte? Das dient zur Gegenüberstellung von Architekturen. Beziehe ich die Verlustleistung mit ein steht Trinity natürlich besser da als seine Vorgänger. Was hat das denn nun mit Glaubwürdigkeit zu tun? Würfelst du deine Worte? :rolleyes:
mironicus
2012-10-16, 09:31:32
Erste ITX-Boards (Asrock, MSI) sollen noch im Oktober erscheinen.
eXe222
2012-10-17, 11:50:20
Gibt es irgendwo schon tests zu passenden Boards? (uATX / ATX)
Vor allem die Lüfterregelung und der Stromverbrauch wäre interessant - der Rest ist dank identischem Chipsatz ja mehr oder weniger identisch.
john carmack
2012-10-19, 09:06:38
Läuft XCOM auf FullHD uns Max Details auf
Trinity (Desktop) Radeon HD 7660D?
M4xw0lf
2012-10-19, 09:33:37
Läuft XCOM auf FullHD uns Max Details auf
Trinity (Desktop) Radeon HD 7660D?
Das wird eng, würde ich sagen.
Schaffe89
2012-10-19, 23:01:03
Was bitte? Das dient zur Gegenüberstellung von Architekturen
Inwiefern ist die Taktnormiertheit für Enduser relevant? In den Kaufberatungen ist es doch völlig egal wie man die Architektur gegenüber stellt.
Man holt ~15% mehr Leistung in Anwendungen beim gleichen Sromverbrauch heraus.
Würdest du die Fragestellung beantworten, dann könnten wir den Zusammenhang klären.
Hübie
2012-10-20, 09:17:49
Hast die Lage vercheckt. Die Taktnormierung an sich ist in Kaufberatungen irrelevant, aber für jmd. der unter- bzw. übertakten will sind die Indizien eindeutig. Habe nun auch schon einige Berichte von Nutzern gelesen welche weder beim undervolting noch beim overclocking sonderlich erfolgreich waren.
Im Zusammenhang mit dem Verbrauch wirds halt schwierig das zu rechtfertigen. Jmd. der Minecraft zockt, mit dem Rechner arbeitet und vllt. mal ein wenig Videoencoding macht für den ist so eine APU nicht verkehrt.
Aber alles darunter (kann HD4000) oder darüber (wird zu anspruchsvoll) wird schon absurd. Zum Zeitpunkt meiner Aussage war der Preis obendrein auch noch bei 130. Mittlerweile sind wir bei 110 Euro. Das ist akzeptabel. Man sollte im Hinterkopf haben, dass man auch ein neues Board benötigt.
Wenn ich in deinen Augen an Glaubwürdigkeit verloren habe, dann nehme meine Kaufberatungen einfach nicht ernst. Letztlich ist es jedem seine Entscheidung. Jedoch hat sich noch niemand über PCs welche ich gefertigt habe beschwert (habs auch mal beruflich gemacht).
Schaffe89
2012-10-20, 21:54:43
Die Taktnormierung an sich ist in Kaufberatungen irrelevant, aber für jmd. der unter- bzw. übertakten will sind die Indizien eindeutig. Habe nun auch schon einige Berichte von Nutzern gelesen welche weder beim undervolting noch beim overclocking sonderlich erfolgreich waren.
Llano konnte nur bis 3,5ghz übertaktet werden, Trinity geht bis 4,7, das ist vom Standardtakt gerechnet in etwa genausoviel.
Wie gesagt, die ursprünglichde Aussage kapier nicht, aber wayhne.
Hübie
2012-10-20, 22:44:19
Ich habe auch nicht gesagt dass Llano das besser kann. Den konnte ich bisher auch nur ein paar Mal empfehlen, da er ins Einsatzgebiet und Budget passte.
Unterm Strich bleibt nicht viel. Das kann sich natürlich mit der Zeit ändern, da hoffentlich mehr und mehr Software CPU sowie GPU parallel nutzen (hetherogenes berechnen). Man stelle sich ja mal ein Packprogramm vor welches per GPU komprimiert und de komprimiert. Natürlich auch nur sinnig wenn ne SSD eingesetzt wird.
Video-encoding per GPU macht auch immer schnellere und größere Schritte. Mit den richtigen Einstellungen kommt man bei gleicher Kompression schon auf 80-90% der Qualität wie mit konventionellen CPU-basierten Programmen. Habs in Selbstversuchen belegt.
Edit: Mein Aussage zielte auf den geringen Fortschritt ab. Der 3870k ist schon ein Jahr alt basiert auf einer mehrere Jahre alten CPU-Architektur und ist nicht gerade sparsam. Der 5800k stellt sich nicht deutlich genug heraus. Trotz neuer Architektur und 32nm-Fertigung. Setzt man dann auch noch den Takt gleich verbraucht der Trinity zwar weniger, leistet aber auch entsprechend weniger. Mit anderen Worten: Der alte hätte einfach nur übertaktet werden müssen um die Leistung zu erbringen.
Ich kenne übrigens niemanden der 4,7 GHz für den Alltag nutzt. Das ist sicher nicht sehr gesund.
Schlammsau
2012-10-21, 09:41:20
Trinity gefällt, für meinen HTPC genau das richtige Futter. Zocke eh nur noch selten und wenn dann nur in 720p aufm Projector. Der HTPC läuft im Prinzip aber die komplette zeit im Idle bzw. maximal unter Teillast, somit stört mich der maximale Stromverbrauch auch nicht wirklich. Zumal ja auch keine dedizierte Grafikkarte verbaut wird. Also 40W im Idle sind scho eine Hausnummer.
mMn ist Trinity die ideale HTPC-CPU wenn man auch ab und an mal was zockt und auf sein Geld achten muss. Niedriger Idle-Verbrauch und Grafikleistung auf HD6670 Niveau, bei nem unschlagbar günstigem Neuanschaffungspreis.
Hübie
2012-10-21, 12:33:12
Genau darauf setzt diese APU auch. Nur ist es jetzt schon ein Nachteil nicht aufrüsten zu können wenn denn doch mal mehr gefordert wird. Spiele wie bspw. Dishonored passen perfekt ins Wohnzimmer und fordern auch entsprechende Leistung die Intel out of the box nicht liefern könnte.
Schlammsau
2012-10-21, 12:35:50
Genau darauf setzt diese APU auch. Nur ist es jetzt schon ein Nachteil nicht aufrüsten zu können wenn denn doch mal mehr gefordert wird. Spiele wie bspw. Dishonored passen perfekt ins Wohnzimmer und fordern auch entsprechende Leistung die Intel out of the box nicht liefern könnte.
Was meinst du mit nicht aufrüsten können? Eine dedizierte Graka könnte man immer nachrüsten, wenn man den wollte oder müsste. Oder meinst du, dass für den FM2 Sockel nichts mehr schnelleres als der 5800K kommt? Das bin ich stark am bezweifeln!
Hübie
2012-10-21, 12:39:37
oh sorry. meinte für fm1-besitzer. :)
Schlammsau
2012-10-21, 18:28:23
Jupp, FM1 ist leider tot!
y33H@
2012-10-21, 18:58:57
40W im idle sind recht viel, seit Clarkale packt man mit normaler Hardware bissi über 30W.
Knuddelbearli
2012-10-21, 19:51:10
naja da muss man aber schon optimieren und genau aufs MB usw aufpassen
idle nimmt sich intel und amd ja nichts kommt vor allem aufs MB an
y33H@
2012-10-21, 20:22:35
Nein, da musst du nichts optimieren - du darfst einzig kein Stromfresser Board nehmen. Seit A-Serie und FX ist AMD im idle gleichauf, ja.
Simon
2012-11-01, 20:59:40
Nein, da musst du nichts optimieren - du darfst einzig kein Stromfresser Board nehmen. Seit A-Serie und FX ist AMD im idle gleichauf, ja.
Argh, was ist denn dann die bessere Loesung:
AMD A6/A8, ASRock FM2A75M-ITX
Intel Pentium G2120 oder i3-3220, ITX-Board dazu, eventuell eine dedizierte Grafikkarte
Aufgaben: NAS, Router, DLNA-Server, Download-Rechner, Bastelkiste.
Stromkosten sind mir bei $15-20 im Monat halbwegs egal. Wenn ich dann von Stabilitaetsproblemen der AMD APUs lesen, dann will ich doch keine ;(
Ich denke mal, mit dem Pentium würdest du am stromsparendsten fahren, aber da Stromkosten halbwegs egal und für das Einsatzgebiet schlicht alle Prozessoren der Auswahl schnell genug sind: Wenn viel geroutet werden muss und gleichzeitig heruntergeladen und gestreamt wird, würde ich (biased wie ich bin bestimmt wirke^^) zur AMD-Lösung mit A8 greifen, wegen der Menge SATA3-Ports ohne irgendwelches Marvell-Gedöns. Bloss ein FM2-Mainboard zur Auswahl ist aber ein wenig... wenig, zumal ich der Aktualität und Anschlüsse wegen ein A85-er bevorzugen würde.
Worauf spielst du mit den Stabilitätsproblemen an?
Simon
2012-11-01, 22:04:40
Ich denke mal, mit dem Pentium würdest du am stromsparendsten fahren, aber da Stromkosten halbwegs egal und für das Einsatzgebiet schlicht alle Prozessoren der Auswahl schnell genug sind: Wenn viel geroutet werden muss und gleichzeitig heruntergeladen und gestreamt wird, würde ich (biased wie ich bin bestimmt wirke^^) zur AMD-Lösung mit A8 greifen, wegen der Menge SATA3-Ports ohne irgendwelches Marvell-Gedöns.
Die SATA3-Ports sind mir ziemlich egal, da kommen 2.5" Laptopfestplatten als Storage rein. Im Moment tendiere ich auch eher zu einer APU. Oder ich nehm den i3-2120 aus meinem Spiele-PC fuer die Kiste und kauf fuer den einen 3570K :freak: Ist dann allerdings die teuerste Loesung.
Bloss ein FM2-Mainboard zur Auswahl ist aber ein wenig... wenig, zumal ich der Aktualität und Anschlüsse wegen ein A85-er bevorzugen würde.
Soweit ich das sehe sind keinerlei ITX-Boards mit A85 angekuendigt. Und was groesseres als ITX will ich nicht. Das MSI A85IA-E53 heisst zwar so, hat aber den A75. Das MSI-Board ist angekuendigt, aber noch nicht erhaeltlich. Gigabyte-Boards fallen fuer mich eh raus. Asus hat nix im Angebot.
Worauf spielst du mit den Stabilitätsproblemen an?
Von #127 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9501555#post9501555):
Das problem ist eher dass ich die cpu untertakten muss damit sie zuverlässig proteine faltet.
Knuddelbearli
2012-11-01, 22:35:28
nana wegen einem post gleich von stabillitätsprobleme reden ...
imemr das selbe bei intel oder NV sind das angeblich Einzelfälle bei AMD hat dann gleich die ganze Generation Stabilitätsprobleme ...
selbe wie der TLB Bug den sowohl AMD als auch kurz danach Intel hatte natürlich wurde er nur bei AMD so gepusht ...
Morpog
2012-11-01, 23:42:07
Hat schonmal jemand einen Test des 5700er mit Stromverbrauchsmessungen gesehen? Mich würde interessieren inwiefern sich die geringere TDP im realen Betrieb auswirkt. Für ne PicoPSU scheint mir der 5800k zu gierig und eh ich mit undervolting anfange ...
Sobald es das ASRock miniITX Board zu kaufen gibt, kann ich dir Werte eines 5700er liefern an nem 200W SFX Netzteil.
Mit ein bisschen Glück kommt morgen mein 5700er + das ASRock ITX bei mir an.
Simon
2012-11-01, 23:50:06
Mit ein bisschen Glück kommt morgen mein 5700er + das ASRock ITX bei mir an.
Dann warte ich noch ein paar Tage auf deinen Erfahrungsbericht :biggrin:
Mit ein bisschen Glück kommt morgen mein 5700er + das ASRock ITX bei mir an.
Das hat mich dran erinnert mal wieder Google zu dem Thema zu befragen und siehe da:
http://hexus.net/tech/reviews/cpu/47257-amd-a10-5700/
Gefällt mir.
askibo
2012-11-02, 00:48:12
Thx. War mir gar nicht aufgefallen das der nur 65W TDP hat. Nette HTPC-CPU.
Morpog
2012-11-02, 16:06:02
Sodele, hier mal der Vergleich zum alten Intel System:
Wird versorgt durch ein Xilence 200W SFX Netzteil (SPS-XP200.SFX).
http://www.abload.de/img/unbenanntu5od5.jpg
Knuddelbearli
2012-11-02, 16:09:57
der turbo wird immer noch nicht wirklich gut umgesetzt :-(
im idealfall sollte der verbrauch bei prime furemark und prime + furemark ja immer gleich hoch sein
Morpog
2012-11-02, 17:14:06
Das sind max Werte, der Verbrauch sinkt z.B. bei prime+fur sogar auf 100W nach einiger Zeit, ist vermutlich die CPU Thermal Throttle Funktions als Schutz gegen Temperaturüberlastung. Ist nur der grausame Boxed Kühler bis jetzt, daher schalte ich das auch erst mal nicht ab. :freak:
Knuddelbearli
2012-11-02, 17:16:06
bäh max sagt also gar nix aus ok danke
Undertaker
2012-11-02, 17:21:01
Sodele, hier mal der Vergleich zum alten Intel System:
Wird versorgt durch ein Xilence 200W SFX Netzteil (SPS-XP200.SFX).
http://www.abload.de/img/unbenanntu5od5.jpg
Interessante Messwerte, danke!
Was mich allerdings wundert: Ist/war Sandy Bridge wirklich so "ineffizient" bei der BD-Wiedergabe? Computerbase hast für einen 3770K (also Ivy Bridge) beispielsweise nur 13 Watt Mehrverbrauch gegenüber idle gemessen, hier sind es 23 Watt bei einem popeligen i3 Dualcore - erstaunlich viel, sodass der i3 dort sogar hinter Trinity fällt.
Edit: Sogar bei Furmark war der Verbrauch ja niedriger... Scheint fast so, als ob da die Videobeschleunigung nicht ordnungsgemäß gearbeitet hat.
Wie er oben schon schrieb, sind es Maximalwerte. Kurze Peaks würde ich keine Relevanz zugestehen.
Knuddelbearli
2012-11-03, 12:36:18
naja CB misst ja auch peaks ebenso PCGH ....
y33H@
2012-11-03, 12:46:43
Bei einer Blu-ray hast du keine Peaks, das pendelt sich 30 sec nachdem der Film gestartet ist bei einem festen Wert ein. SNB benötigt bei einer Blu-ray allen meinen Erfahrungen nach deutlich weniger Strom als ein Llano oder Trinity - bei den AMDs rechnen die Shader halt mit, muss man abschalten.
Bei einer Blu-ray hast du keine Peaks, das pendelt sich 30 sec nachdem der Film gestartet ist bei einem festen Wert ein. SNB benötigt bei einer Blu-ray allen meinen Erfahrungen nach deutlich weniger Strom als ein Llano oder Trinity - bei den AMDs rechnen die Shader halt mit, muss man abschalten.Hm also laut der Messung auf der letzten Seite braucht der 2100 aber 2W mehr. Ist beim Ivy vielleicht nur der Fertigungsvorsprung. Die Shader dürften bei AMD auch nicht rechnen, für die Codecs gibts doch die UVD Engine.
y33H@
2012-11-03, 13:51:44
Für die Codecs, ja. AMD hat aber per default diverse Videoverbesserungen laufen die via Shader berechnet werden - dadurch steigt der Energiehunger. Vll hat "Morpog" die ja deaktiviert, so sieht's denn Watt nach nämlich aus.
Undertaker
2012-11-03, 14:23:43
Ich habe bei CB in älteren Tests auch noch Sandy Bridge Werte gefunden, hier (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/11/) z.B. 15W Differenz für einen 2600K.
Wie vermutet könnte das bei obigem i3 entweder für eine mangelhafte Videobeschleunigung (und damit höhere CPU-Last und Verbrauch) sprechen, oder aber ein Festplattenzugriff o.ä. hat für einen leichten Ausreißer gesorgt.
@y33H@: Gibt es diese Shaderberechnungen also auch noch bei Trinity oder nur Llano? Entfallen diese bei Intel/Nvidia oder werden dort von dedizierten Einheiten übernommen?
y33H@
2012-11-03, 14:27:09
Bei allen Radeons, egal ob iGPU oder dediziert. Intel und Nvidia haben einfach weniger von Haus aus aktive Verbesserungen drin.
mironicus
2012-11-03, 15:21:27
Ich habe in meinem HTPC eine 7970. Ich habe die Hardwarebeschleunigung komplett deaktiviert und alles läuft nur noch mit Software. Die GPU läuft dann immer mit 150/300.
Das merkt man deutlich im Stromverbrauch. Mit Hardwarebeschleunigung verbraucht die 7970 schon mal locker mehr als 50 Watt - mehr als die IVY CPU unter Volllast.
Wenn ich jetzt idle sagen wir mal 60 Watt habe, verbraucht der Rechner beim Filmabspielen jetzt nur 65-75 Watt mit Softwarerendering (höchste Auslastung nur bei 1080P-Videos). Mit Hardwarebeschleunigung ca. 120 Watt. Da ich ohnehin keine Filter zur Bildverbesserung verwende habe ich von der Bildqualität keine Nachteile. Einige Hardwarefeatures wie Deinterlacing, Farbverbesserung, Kontrastanhebung können auch im Idle-Modus der GPU benutzt werden.
y33H@
2012-11-03, 15:36:31
Jupp, ich habe die HW-Beschleunigung meiner GTX 580 auch deaktiviert, meine Ivy erledigt Blu-rays sparsamer.
Für die Codecs, ja. AMD hat aber per default diverse Videoverbesserungen laufen die via Shader berechnet werden - dadurch steigt der Energiehunger. Vll hat "Morpog" die ja deaktiviert, so sieht's denn Watt nach nämlich aus.Ahhh danke, sagt mir was, das war das TrueImagesIrgendwas Zeugs, oder was da das Marketingwort war, ok dann ist es zu erklären ;)
Und irgendwie kontraproduktiv, die UVD Einheit sollte doch den Stromverbrauch senken. Den dann durch Aufhübschen wieder nach oben zu treiben ist irgendwie blöd.
Aber naja, haben sie halt wieder n tolles Wort fürs Werbe-PDF ^^
y33H@
2012-11-04, 02:47:45
AMD verpackt dies unter dem schönen Begriff "HD Media Accelerator" sowie "Perfect Picture HD". Darunter fallen Color Vibrancy, Dynamic Contrast, De-Interlacing, Noise Reduction, Edge Enhancement, Quickstream und Steady Video - fast alles davon macht nicht der UVD, sondern die Shader. Sieht gut aus und ist werbewirksam, kostet aber Strom ;-)
Wird auf soetwas bei Reviews eingegangen? Da werden die AMDs ja immer gern runtergemacht. Wie sieht die Leistungsaufnahme ohne die Verbesserungen aus?
Morpog
2012-11-04, 10:44:17
Bis auf Vektor Adaptives deinterlacing sind alle anderen "Qualitätsverbesserungen" von mir abgeschaltet gewesen. Beim Intel übrigens auch (noise reduction und edge enhancement, etc.). Alles Tests fanden mit eingeschalteter DXVA Beschleunigung im Win8 Media Center statt.
mironicus
2012-11-04, 11:31:03
Nur bei Aktivierung der vier Bildverbesserungs-Optionen mit den Regelschaltern wird die GPU hochgetaktet.
Kantenanhebung
Entrauschen
Mosquito-Rauschunterdrückung
Deblocking
Alle anderen Optionen können auch im Idle-Zustand der GPU genutzt werden, auch bei Softwarerendering.
Die Farbverbesserung "Lebendigkeit der Farbe" und "Hauttonkorrektur" benutze ich immer. Auch die Kontrastanhebung kann ganz gut aussehen.
y33H@
2012-11-04, 13:55:36
Das erklärt dann auch die Werte mit der Leistungsaufnahme =)
Wird auf soetwas bei Reviews eingegangen? Da werden die AMDs ja immer gern runtergemacht. Wie sieht die Leistungsaufnahme ohne die Verbesserungen aus?Ich schreibe es idR dazu, ja. Carsten und Raff benennen es zumeist ebenfalls. Umgekehrt kommuniziert AMD dies nicht aktiv, d.h. es liegt an den Reviewern selbst herauszufinden, was so viel Strom frisst ... ich sehe hier AMD in der Pflicht, ansonsten dürfen sie sich eigentlich nicht beschweren.
Knuddelbearli
2012-11-04, 13:56:09
wäre es nicht sinnvoller und fairer wenn du es deaktivierst ?
y33H@
2012-11-04, 14:04:36
Nun, AMD ist der Ansicht, es sollte per default aktiv sein - zu Testzwecken und als Vergleich kann man's natürlich abschalten.
Im Prinzip ist es ähnlich wie die AF Problematik. Da wurde ja bei AMD meist auf HQ umgestellt, damit die Qualität einigermaßen ausgeglichen wird. Dann sollte man auch bei Intel und nVidia die Bildverbesserungen zuschalten.
Ronny145
2012-11-04, 16:45:53
Im Prinzip ist es ähnlich wie die AF Problematik. Da wurde ja bei AMD meist auf HQ umgestellt, damit die Qualität einigermaßen ausgeglichen wird. Dann sollte man auch bei Intel und nVidia die Bildverbesserungen zuschalten.
Verschlimmbesserungen am Video sollte der user entscheiden, ob er ihm das gefällt oder nicht. Das ist mit dem AF nicht vergleichbar. Von meist HQ kann bei AMD nicht die Rede sein, das war die Minderheit.
fondness
2012-11-04, 17:09:22
Den höchsten Score und damit die beste Bildqualität im HQV-Benchmark erreicht man eben nicht umsonst. Allerdings finde ich die aktuelle Praxis der Reviewer auch sehr seltsam, den Stromverbrauch zu kritisieren und dabei nicht mal auf vergleichbare Testbedingungen zu achten. Würde man so etwas in anderen Bereichen machen gäbe er längst einen Aufschrie, hier wird das einfach hingenommen, meist wird es nicht mal angemerkt warum der Stromverbrauch eben höher ist. Die Bildqualität wird erst gar nicht untersucht.
y33H@
2012-11-04, 17:23:02
Wer sich damit beschäftigt, schreibt, dass die BQ und daher auch der Stromverbrauch höher sind - aber wie gesagt, AMD macht sich nicht die Mühe, dies in den Guides zu benennen. Dabei sollten die ihr Produkt am besten kennen ;-) ist genau das Gleiche wie bei den Samples: Aus (europäischer) Endkundensicht ist der FX-6300 das spannendste Modelle, aber den samplet AMD nicht aktiv.
Undertaker
2012-11-04, 17:36:58
Den höchsten Score und damit die beste Bildqualität im HQV-Benchmark erreicht man eben nicht umsonst.
Werte dedizierter Karten konnte ich zwar auf die Schnelle nicht finden, aber bei den IGPs gibt es praktisch keine Differenz zwischen AMD und Intel. Lediglich Llano fällt bei HQV 2.0 nennenswert zurück:
http://www.anandtech.com/show/6335/amds-trinity-an-htpc-perspective/3
Der Mehrverbrauch ist dagegen (http://www.anandtech.com/show/6335/amds-trinity-an-htpc-perspective/7) signifikant (http://www.anandtech.com/show/5773/intels-ivy-bridge-an-htpc-perspective/8). Obwohl der 3770K und nicht ein preislich passenderer Core i3 gewählt wurde, zieht das Trinity-System bei identischem Leerlaufverbrauch unter HTPC-Workloads 8 bis 36 Watt mehr aus der Dose. Insbesondere der Blu-ray-Verbrauch ist enorm (Bug?).
Wer sich damit beschäftigt, schreibt, dass die BQ und daher auch der Stromverbrauch höher sind - aber wie gesagt, AMD macht sich nicht die Mühe, dies in den Guides zu benennen. Dabei sollten die ihr Produkt am besten kennen ;-) ist genau das Gleiche wie bei den Samples: Aus (europäischer) Endkundensicht ist der FX-6300 das spannendste Modelle, aber den samplet AMD nicht aktiv.Jo, AMD und das Marketing lebten schon immer in zwei kaum verbundenen Welten - hat sich offenbar bisher nicht geändert, obwohl sie es (gerade jetzt, wo auch R&D abgebaut wird) nötiger denn je hätten...
Schlammsau
2012-11-08, 17:28:02
AMDs Trinity im HTPC (http://www.computerbase.de/artikel/komplettsysteme/2012/test-arctic-mc101/)
Insgesamt ist das MC101 eine höchst interessante Lösung für die heimische Media-Zentrale, gerade dank der Trinity-APU. Diese verbindet eine für die meisten Anwendungsbereiche ausreichende Prozessorleistung mit einer potenten Grafikeinheit, was den edlen Silberkasten zu einem richtigen Allround-Künstler macht – speziell bei älteren Spielen wie Portal 2 bleibt genug Leistung, um keine oder nur wenig Abstriche bei der Grafikqualität machen zu müssen. Gleichzeitig sorgt der Mix aus CPU- und GPU-Power auch bei anderen Anwendungen für einen spürbaren Boost. Zwar fällt die Leistungsaufnahme abseits der guten Werte im Leerlauf und bei der Medienwiedergabe unter Last zwar relativ hoch aus, kann sich aber beim Einsatz der gesamten APU aufgrund des dann deutlichen Leistungsplus über eine höhere Effizienz rechtfertigen.
Twodee
2012-11-08, 18:11:36
Dieser Trinity im Test würde mir als HTPC gut gefallen... wenn ich nicht für diesen Zweck schon einen A8 3870K hätte :rolleyes:
y33H@
2012-11-08, 18:12:41
Der A10–4600M ist eigentlich ein Mobile-Chip, rein der Vollständigkeit halber.
Undertaker
2012-11-08, 18:37:32
Da wäre bei der Leistungsaufnahme aber eigentlich noch mehr drin gewesen, 11,6W idle sind für mobile Hardware nicht gerade wenig - zumal ja auch das Display entfällt. Bei dem Preis würde ich ehrlichgesagt eher gleich zu einem Notebook greifen.
Grundsätzlich aber keine schlechte Idee in dieser Zusammenstellung, nur die Umsetzung könnte besser sein.
Liszca
2012-11-08, 19:55:26
Trinty im HTPC rockt.
Schlammsau
2012-11-11, 15:02:55
Bringt eigentlich eine Northbridge Übertaktung bei Trinity was?
Knuddelbearli
2012-11-11, 15:28:54
da Trinity keinen L3 hat ziemlich sicher nicht
blackbox
2012-11-14, 14:24:45
Ich stelle aktuell ein Officesystem zusammen.
Musste mich zwischen einem A6-3500 oder einem Intelsystem entscheiden.
Letztendlich werde ich zum Intelsystem greifen, auch wenn der Celeron G550 einen Kern weniger hat. Das sollte im Officebetrieb keine Rolle spielen.
Der größte Vorteil des Intelsystems: es ist sehr gut aufrüstbar. Das kann mir AMD aktuell nicht bieten. Vom Preis her tut sich nämlich gar nichts, bzw. ist das Intelsystem sogar günstiger.
Knuddelbearli
2012-11-14, 14:48:13
ähm und wieso solltest in einem office system einen i7 3770k einbauen wollen ? ^^
und mehr wird dort auch nimmer kommen während bei amd noch die nächsten 2 Generationen darauf laufen werden
blackbox
2012-11-14, 14:51:37
Der FM1 Sockel ist schon wieder tot.
Der 1155 Sockel wird noch einige Zeit verfügbar sein, zumal auch die IB darauf laufen.
Und wer sagt, dass es bei einer Aufrüstung gleich ein I7 sein muss?
Warum vergleichst du mit der FM1-Plattform statt mit FM2? Das ist worauf sich Knuddelbearli bezogen hat.
blackbox
2012-11-14, 15:05:15
:rolleyes:
A6-3500.
Knuddelbearli
2012-11-14, 15:05:22
trinity ist aktuell!
du postet im trinity thread!
ob i7 oder i5 ist immer das gleich wozu brauchst du sowas in nem office pc?
trinity Konkurriert mit I3
blackbox
2012-11-14, 15:10:09
Sorry, mein Fehler, dachte immer ein A6 wäre immer Trinity.
Achherrje..... selbst ich als ITler komme da durcheinander. :freak:
Knuddelbearli
2012-11-14, 15:15:55
3= llano 4= trinity
genau wie bei intel
2= sandy 3= ivy
mboeller
2013-01-07, 13:13:26
da will jemand den Trinity ein "wenig" übertaktet haben. Vor allem die 1118MHz für die iGPU erscheinen mir ein wenig hoch. Link: http://semiaccurate.com/forums/showthread.php?t=6855
Knuddelbearli
2013-01-07, 13:17:34
je nach kühllösung sollte das bei einer guten APU schon drin sein
y33H@
2013-01-28, 12:06:01
A6 und A4 sind echt gut =)
http://www.pcgameshardware.de/Trinity-Codename-255654/Tests/A6-5400K-A4-5300-Trinity-Test-1045762/
Ronny145
2013-01-28, 12:18:59
A6 und A4 sind echt gut =)
http://www.pcgameshardware.de/Trinity-Codename-255654/Tests/A6-5400K-A4-5300-Trinity-Test-1045762/
Auch wenn es nicht den wahnsinnigen Unterschied macht, dort hätten Ivy Bridge Pentiums hingehört. Idle Verbrauchstests sind auch ein Witz. Wenn ihr bei AMD ein MSI verwendet, müsst ihr das auch bei Intel. MSI Boards sind am sparsamsten, sollte dir keine Neuheit sein. Und was haben dort 5600k und 5700k zu suchen? Kosten die unter 60€? Wenn ihr das so nehmt, hätte auch ein i3 dazugehört.
y33H@
2013-01-28, 12:27:20
Kommt im Heft.
Loeschzwerg
2013-01-28, 12:46:33
Wird im Heft auf die ITX Thematik eingegangen? µATX kommt als HTPC Plattform eigentlich nicht in Frage (zumindest aus meiner Sicht) und im ITX Umfeld sieht es beim FM2 nicht gerade rosig aus :(
Mit den APUs hat man gerade ein Zugpferd für Kleinstrechner im Stall, hier muss AMD unbedingt mehr bieten bzw. entsprechend Druck machen.
Sonst machen die kleinen APUs einen guten Eindruck.
y33H@
2013-01-28, 12:49:19
Das Asrock und das Zotac waren als Test in der 02/2013 drin, das MSI war "dead on arrival". Mehr als diese drei gibt's offenbar nicht:
http://geizhals.at/de/?cat=mb1ppga_ddr&xf=644_Sockel-FM2#xf_top
Loeschzwerg
2013-01-29, 11:49:12
Ein viertes Board ist angekündigt und endlich mit dem aktuellen Chipsatz :)
http://www.fudzilla.com/home/item/30283-asrock-rolls-out-a85x-itx-board
Im Vergleich zu Intel ITX Boards ist die Auswahl trotzdem viel zu gering.
Ein AM3+ ITX Board mit 95/125Watt Support ist ebenfalls möglich und würde sicherlich ein paar Freunde finden, mich könnte man damit zumindest ködern :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.