PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Wieviel Watt dürfte Regor ungefähr verbrauchen? Regor = bald bester Stromsparrechner?


Gast
2009-02-22, 03:44:11
sobald er 2009 herauskommt?

Sind da schon Angaben oder ungefähre Schätzungen bekannt?

http://www.hardware-infos.com/bild.php?bild_datei=img/startseite/amd_45nm_2008_1.png&bild_name=AMD%3A+Deneb%2C+Propus%2C+Heka+und+Regor


Der Regor würde mich nämlich sehr als Stromsparrechner interessieren.
Immerhin ist er in 45 nm Technologie gefertigt und nur ein 2 Core Prozessor,
womit er auch deutlich weniger Strom als die 3 oder 4 Core Pendants benötigen dürfte.


Weiß jemand, wann genau Regor rauskommt?
Die Grafik gibt dafür leider nichts her?


Um zum Punkt zu kommen, ich brauche einen PC, der einen Gesamtstromverbrauch von weniger als 28 W hat.
Das schaft bis heute keiner, auch kein Atom, zumal der Atom wieder zu langsam zum Video enkodieren wäre.

Locutus2002
2009-02-22, 11:46:03
Da AMD nur native QuadCores fertigt, wird der Regor physikalisch ein QuadCore sein, bei dem 2 Kerne deaktiviert sind. Allerdings ziehen diese beiden deaktivierten Kerne immer auch ein wenig Strom, weswegen man davon ausgehen kann, dass selbst der kleinste Regor kaum weniger, wenn nicht gar mehr als die von Dir geforderten 28W unter Last verbraucht. Vom Rest des Systems mal ganz abgesehen.

Zur Zeit erreicht AMD mit den Phenom II real nahezu die TDP. Ein nativer Dual wird daher möglicherweise ca eine 65W-TDP haben, eventuell auch 45W. Das ist deutlich mehr als die geforderten 28W.

w0mbat
2009-02-22, 11:56:12
Nein, AMD wird einen nativen Dual-core fertigen, sogar mit 1MB L2-Cache je Kern.

Locutus2002
2009-02-22, 12:03:12
Nein, AMD wird einen nativen Dual-core fertigen, sogar mit 1MB L2-Cache je Kern.

Oh, das wusste ich noch nicht. Dann nehm ich alles zurück!

Gast
2009-02-22, 12:05:38
Das glaube ich erst, wenn ich es sehe.

Gast
2009-02-22, 12:06:42
Oh, das wusste ich noch nicht.

Das weiss derzeit auch niemand. w0mbat hat nur eine Behauptung aufgestellt.

Locutus2002
2009-02-22, 12:20:39
Dann lasst uns doch mal rein theoretisch denken:

Phenom II 940, 3.0 GHz kommt seiner TDP von 125W im Realverbrauch recht nahe.

Ein nativer Dual käme dann ca. auf 65W, eventuell sogar 45W bei kleineren Modellen. Diesen Wert erreicht aber schon ein Athlon64 X2 5050e und der wird noch in 65nm gefertigt. Also ist es unwahrscheinlich, dass ein Regor auf unter 28W kommt.

KonKorT
2009-02-22, 12:37:53
Das weiss derzeit auch niemand. w0mbat hat nur eine Behauptung aufgestellt.

Nein. Das ist offiziell. Wird unter Athlon X2 später vermarktet. Geplant sind folgende Modellvarianten:
- X2 240 - 2x 2,8 GHz
- X2 235 - 2x 2,7 GHz

Die TDP wird bei diesen bei 65 Watt liegen. Spätere e-Versionen mit 45 Watt TDP sind allerdings denkbar.

Die Athlon X2-Reihe wird auf einen L3-Cache vollkommen verzichten. Möglich ist, dass darüber hinaus noch Dual-Cores mit L3-Cache auf den Markt kommen. Dies sind dann kerndeaktivierte Denebs und die werden garantiert keine TDP kleiner 65 Watt haben.

w0mbat
2009-02-22, 20:06:04
Das weiss derzeit auch niemand. w0mbat hat nur eine Behauptung aufgestellt.

Nein mein lieber Gast, ich habe nur die offizielle AMD Roadmap wiedergegeben.

Gast
2009-02-22, 20:12:14
Aus den Roadmaps ist doch nicht ersichtlich, ob das ein nativer 2-Kerner ist?
Beim Kuma wurde das ja lange Zeit auch behauptet.

KonKorT
2009-02-22, 20:23:54
Weil der Chip mit doppelt so großem L2-Cache pro Kern ausgestattet ist und vollkommen auf den L3-Cache verzichtet, führt dieses Mal kein Weg an einem nativen Zweikerner vorbei.

HOT
2009-02-22, 20:50:11
Aus den Roadmaps ist doch nicht ersichtlich, ob das ein nativer 2-Kerner ist?
Beim Kuma wurde das ja lange Zeit auch behauptet.
Dort ist aber ersichtlich, dass er 1MB L2 pro Kern hat. Da das auf absehbare Zeit kein Quad haben wird, ist Regor wohl nativ ;).

Gast
2009-02-22, 21:34:41
Dort ist aber ersichtlich, dass er 1MB L2 pro Kern hat. Da das auf absehbare Zeit kein Quad haben wird, ist Regor wohl nativ ;).

Bei halber Core-Zahl wäre es immer noch möglich, je zwei 512K Caches der Quads zusammenzuschalten.

Sorkalm
2009-02-22, 21:35:43
Bei halber Core-Zahl wäre es immer noch möglich, je zwei 512K Caches der Quads zusammenzuschalten.

Äh, wie soll das denn gehen?

Abgesehen davon braucht man noch einen Mobil-Core, von dem leitet sich Regor wohl ab.

Locutus2002
2009-02-22, 21:41:35
Bei halber Core-Zahl wäre es immer noch möglich, je zwei 512K Caches der Quads zusammenzuschalten.

Eher nicht, der L2-Cache ist bei Phenoms dediziert pro Kern. Ergo Kern abgeschaltet = L2-Cache des Kerns ebenfall deaktiviert. Hätte AMD die Caches "zusammenschaltbar" designt, dann hätten sie es auch als Shared-Cache implementiert, denn deshalb würde man das ja so designen.

GeneralHanno
2009-02-22, 21:47:11
der L2 cache ist relativ eng mit der logig des cores verknüfpt. da kann man garantiert "nix zusammenschalten" ;)

ein nativer dualcore @45nm mit 2*1MiB-L2 könnte vor allem für den notebooksektor interessant sein.

Undertaker
2009-02-22, 22:07:49
Wenn der Preis keine Rolle spielt, ist so etwas durchaus machbar:

http://geizhals.at/deutschland/a404687.html

Und dazu ein schicker Core 2 Mobile, z.B:

http://geizhals.at/deutschland/a334333.html


Leistungsmäßig ist diese Kombination absolut top, das geht sogar bis zu einem P9500 noch mit absolut niedrigem Verbrauch. Kombiniert mit einem Ram-Modul, einer SSD und Pico-PSU vielleicht unter 15-20W idle. Genial :D

Gast
2009-02-23, 02:47:22
Wenn der Preis keine Rolle spielt, ist so etwas durchaus machbar:

http://geizhals.at/deutschland/a404687.html

Und dazu ein schicker Core 2 Mobile, z.B:

http://geizhals.at/deutschland/a334333.html


Leistungsmäßig ist diese Kombination absolut top, das geht sogar bis zu einem P9500 noch mit absolut niedrigem Verbrauch. Kombiniert mit einem Ram-Modul, einer SSD und Pico-PSU vielleicht unter 15-20W idle. Genial :D

Ja, aber ich will mit dem Rechner noch Videodaten in Echtzeit umkodieren und weil ich das nicht in Software mit der CPU machen will brauche ich einen Onboard Chipsatz der dafür geeignet ist und momentan können das nur die Chipsätze von AMD.

NVidia Chipsätze könnten es theoretisch zwar auch, aber die scheiden aus, weil es dafür dann für die Video Dekodier & Enkodiereinheiten keine Open Source Treiber gibt.

Und die Intel Chipsätze können das nicht.
Zumindest kein MPEG2 nach MPEG4 inkl. transformation und deinterlacing.

Undertaker
2009-02-23, 08:10:34
Meinst du, eine HD3300 IGP (im 790GX) kann hier auch nur annähernd mit einer CPU konkurrieren? Eine 4870 ist da laut CB Faktor 6 schneller als ein QX9770, bei allerdings erheblich schlechterer Qualität. Eine HD3300 (40 Shader) liegt jetzt etwa Faktor 30 hinter einer HD4870... Ich denke nicht, dass das eine sinnvolle Lösung ist.

reunion
2009-02-23, 08:30:01
Die GPUs haben einen Videoprozessor und müssen nichts über die ALUs berechnen, damit sollten alle Chips gleich schnell sein.

Undertaker
2009-02-23, 08:31:48
Das sieht bei CB nicht so aus. Wäre auch sehr verwunderlich, wenn der Videoprozessor - angedacht wohl eher zum decodieren - so "overpowered" wäre.

HOT
2009-02-23, 11:03:39
Man sollte sich bei Regor aber nicht vertun, das ist ein reiner Billigheimer. Für solche Zwecke wird ein energiespar-Propus sicherlich deutlich besser geeignet sein. Und da hörts dann auch mit den Core2 auf :D. Zumal ja wie schon erwähnt die Chipsatzproblematik besteht. Regor wandert in den Embedded-Bereich ab, Propus in den Mobilbereich ab.

Gast
2009-02-23, 11:35:38
Die GPUs haben einen Videoprozessor und müssen nichts über die ALUs berechnen, damit sollten alle Chips gleich schnell sein.

der videoprozessor kümmert sich nur um die dekodierung, die sollte tatsächlich bei allen GPUs gleich schnell sein (möglicherweise vom takt abhängig, zumindest bei nvidia gibt es allerdings eine eigene taktdomain für den VP, somit sollte diese auch bei allen GPUs gleich sein)

das postprocessing wir allerdings mit den ALUs gemacht, und da gibt es natürlich unterschiede.

auch die speicherbandbreite ist entscheidend, besonders bei CPUs mit integriertem speichercontroller ist das kritisch, da dieser ja nun nicht mehr im IGP sitzt.

Undertaker
2009-02-23, 12:01:11
Man sollte sich bei Regor aber nicht vertun, das ist ein reiner Billigheimer. Für solche Zwecke wird ein energiespar-Propus sicherlich deutlich besser geeignet sein. Und da hörts dann auch mit den Core2 auf :D. Zumal ja wie schon erwähnt die Chipsatzproblematik besteht. Regor wandert in den Embedded-Bereich ab, Propus in den Mobilbereich ab.

Den Verbrauch eines Propus-Systems, je nach dem wie nahe der an seiner TDP liegen wird, kannst du mit aktuellen Yorkfields, z.B. einem Q9400, auch jetzt schon erzielen oder gar unterbieten:

http://www.meisterkuehler.de/forum/vorstellung-von-stromspar-pcs/23455-stromspar-quad-q9400-unter-50w.html

Für noch extremere Verbrauchseinsparungen, gerade bei Last, ist aber auch weiterhin ein Dualcore ratsam.

HOT
2009-02-23, 18:30:41
[...]
auch die speicherbandbreite ist entscheidend, besonders bei CPUs mit integriertem speichercontroller ist das kritisch, da dieser ja nun nicht mehr im IGP sitzt.
Dank HT3 ist das komplett irrelevant. Zudem haben einige Bretter den Sideport-Memory mit AMD780G/790GX. Erschwerend kommt hinzu, dass nur NV einen konkurrenzfähigen IGP für Intel bieten kann, die Bretter sind aber wahnsinnig teuer, 120€ aufwärts.
Bei AMD läuft die GPU in einer einzigen Domäne, der Takt der GPU lässt sich per BIOS oftmals einstellen.

Gast
2009-02-23, 19:30:42
[QUOTE=HOT;7125165]Dank HT3 ist das komplett irrelevant. /QUOTE]

nur haben nicht alle CPUs HT3.

=Floi=
2009-02-23, 20:41:26
wie bekommt intel diese cpus so sparsam? Bei einem adu notebook betreibt intel so einen prozessor mit 1,3 volt!

Undertaker
2009-02-23, 21:53:43
Dank HT3 ist das komplett irrelevant. Zudem haben einige Bretter den Sideport-Memory mit AMD780G/790GX. Erschwerend kommt hinzu, dass nur NV einen konkurrenzfähigen IGP für Intel bieten kann, die Bretter sind aber wahnsinnig teuer, 120€ aufwärts.

Och bitte, nicht auch jetzt noch hier diese einseitigen und falschen Parolen :rolleyes: Ein Geforce 9300 Board beginnt mit Preisen ab 93€ 17€ über einem 790GX Board ab 76€.
Zudem würde ich auch erwähnen, dass die wenigsten Besitzer von Onboard-IGPs ein Interesse für Spieleperformance besitzen oder BR-Filme am PC schauen... Für übliche 1080p Trailer reicht auch ein 50€ Geforce 7100 Brett mit Dualcore-Celeron, sollen es doch HD-Discs sein eben ein E7200/E7300 und aufwärts.

Gast
2009-02-24, 13:49:36
Meinst du, eine HD3300 IGP (im 790GX) kann hier auch nur annähernd mit einer CPU konkurrieren? Eine 4870 ist da laut CB Faktor 6 schneller als ein QX9770, bei allerdings erheblich schlechterer Qualität. Eine HD3300 (40 Shader) liegt jetzt etwa Faktor 30 hinter einer HD4870... Ich denke nicht, dass das eine sinnvolle Lösung ist.


Natürlich ist ein 790GX beim Video umkodieren viel schneller als die CPU, denn der Videoprozessor macht das alles in Hardware quasi ohne nennenswerten Zeitverlust.
Der Schieb das Ding vorne rein und hinten kommt es umgewandelt raus, ohne Lag.

Die CPU macht das alles in Software und dabei auch noch in mehreren Schritten.


Merke: Dedizierte Hardware ist IMMER schneller als eine Allround CPU wenn die dedizierte Hardware für den entsprechenden Einsatzzweck gemacht wurde.


Die ALUs und Shader kommen nur bei Effekten zum Einsatz.
Deinterlacing und Trancoding wird aber noch vom Videoprozessor gemacht.


Der Stromverbrauch ist dabei nicht spürbar höher als im IDLE.
Wenn das die CPU in Software machen muß, dann sieht das GANZ anders aus.


Deswegen ist der AMD Chipsatz ja so ein geiles Eisen, fehlen nur noch Open Source Treiber.

[fu]121Ah
2009-02-24, 14:48:48
Dann lasst uns doch mal rein theoretisch denken:

Phenom II 940, 3.0 GHz kommt seiner TDP von 125W im Realverbrauch recht nahe.

Ein nativer Dual käme dann ca. auf 65W, eventuell sogar 45W bei kleineren Modellen. Diesen Wert erreicht aber schon ein Athlon64 X2 5050e und der wird noch in 65nm gefertigt. Also ist es unwahrscheinlich, dass ein Regor auf unter 28W kommt.
häh? mein phenom 2 940 mit 3,8ghz bringt mein gesamtsystem auf 138w idle verbrauch, siehe strombenchthread.

mein htpc mit einem sempron verbraucht 27w mit 1x 2,5hd und 1x 3,5hd.

HOT
2009-02-24, 15:28:32
nur haben nicht alle CPUs HT3.
Die, die kein HT3 haben sterben grade aus... in diesem Thread geht es ausschließlich um HT3-fähige CPUs.

PCGH_Carsten
2009-02-24, 16:42:10
Natürlich ist ein 790GX beim Video umkodieren viel schneller als die CPU, denn der Videoprozessor macht das alles in Hardware quasi ohne nennenswerten Zeitverlust.
Der Schieb das Ding vorne rein und hinten kommt es umgewandelt raus, ohne Lag.

Die CPU macht das alles in Software und dabei auch noch in mehreren Schritten.


Merke: Dedizierte Hardware ist IMMER schneller als eine Allround CPU wenn die dedizierte Hardware für den entsprechenden Einsatzzweck gemacht wurde.


Die ALUs und Shader kommen nur bei Effekten zum Einsatz.
Deinterlacing und Trancoding wird aber noch vom Videoprozessor gemacht.
Transcoding eher nicht: Decoding größtenteils schon, Encoding machen die Shader - aber die sind natürlich im 780/90 auch vorhanden.

Gast
2009-02-24, 19:43:49
Transcoding eher nicht: Decoding größtenteils schon, Encoding machen die Shader - aber die sind natürlich im 780/90 auch vorhanden.

Quelle?

Ich habe irgendwo gelesen das der AMD Chipsatz sowohl das Decoding als auch das Encoding über den Videochip macht.
Und das Transcoding, damit meine ich hauptsächlich eine Veränderung der Größe, ebenfalls.


Bist du dir sicher, daß du das also nicht mit dem Videoeinheit von NVidia Chipsets verwechselst?
Bei denen ist es nämlich in der Tat so, daß von denen nur ein kleiner Teil der ganzen Arbeitsschritte wirklich von der Videoeinheit berechnet werden, während für den Rest die Shader zuständig sind.

Gast
2009-02-25, 10:51:40
121Ah;7126947']häh? mein phenom 2 940 mit 3,8ghz bringt mein gesamtsystem auf 138w idle verbrauch, siehe strombenchthread.


Tja, du hast ein zu großes Netzteil gewählt und jetzt arbeitet es außerhalb des maximalen Wirkungsgrades.

Selber schuld wenn man diese 600 W und 1000 W Netzteile kauft.

Mit einem passenden 350 W oder 400 W Netzteil wäre das nicht passiert.

[fu]121Ah
2009-02-25, 11:11:07
Tja, du hast ein zu großes Netzteil gewählt und jetzt arbeitet es außerhalb des maximalen Wirkungsgrades.

Selber schuld wenn man diese 600 W und 1000 W Netzteile kauft.

Mit einem passenden 350 W oder 400 W Netzteil wäre das nicht passiert.
höh? erstens rennt mein foxconn a79a-s nur mit nem 650+ watt NT, ausnahme bildet mein silentmaxx 400w (460w peak) passivnetzteil - das geht auch. einschaltstrom ist irgendwas um die 500w, deshalb dürfte es mit nem 350er schon sehr knapp werden.

zweitens, der wirkungsgrad ist super, du hast evnt. überlesen dass ich schrieb, 138w fürs gesamtsystem. das ist WENIG, angesichts der tatsache, dass ich ein RAID0 aus zwei disks, ne 4870, 4GB RAM und n stark übertakteten Phenom2 ohne CnQ und C1E habe.

ich wollte eigentlich mehr zum ausdruck bringen, dass der phenom2 je nach test nahe an der TDP ist - oder eben nicht. Also ich hab das gefühl dass die 95w TDP auch möglich wären - dann wäre jedoch eine härtere selektion der chips notwendig und das will amd nicht.

@topic

regor wird hoffentlich ein würdiger X2 nachfolger - ich kann mir nicht vorstellen dass dem nicht so wäre.

Undertaker
2009-02-25, 15:34:22
Natürlich ist ein 790GX beim Video umkodieren viel schneller als die CPU, denn der Videoprozessor macht das alles in Hardware quasi ohne nennenswerten Zeitverlust.
Der Schieb das Ding vorne rein und hinten kommt es umgewandelt raus, ohne Lag.

Die CPU macht das alles in Software und dabei auch noch in mehreren Schritten.


Merke: Dedizierte Hardware ist IMMER schneller als eine Allround CPU wenn die dedizierte Hardware für den entsprechenden Einsatzzweck gemacht wurde.



Tzzz... Die "dezidierte" Hardware ist dafür eingebaut, in Echtzeit ein Video decodieren (transcodieren also weitaus langsamer) zu können. Eine gute CPU schafft je nach File ein mehrfaches davon, bei immernoch besserer Qualität. Atm ist die Transkodierfunktion, die im übrigen nochmals erwähnt über die Shader läuft und nicht über die Videoprozessor, ganz speziell für eine IGP absolut sinnlos.

[fu]121Ah
2009-02-25, 15:56:30
Tzzz... Die "dezidierte" Hardware ist dafür eingebaut, in Echtzeit ein Video decodieren (transcodieren also weitaus langsamer) zu können. Eine gute CPU schafft je nach File ein mehrfaches davon, bei immernoch besserer Qualität. Atm ist die Transkodierfunktion, die im übrigen nochmals erwähnt über die Shader läuft und nicht über die Videoprozessor, ganz speziell für eine IGP absolut sinnlos.
wieso? weil sie zu langsam ist? sprich zuwenig shader? oder wieso meinste?

Gast
2009-02-25, 16:33:58
Die, die kein HT3 haben sterben grade aus... in diesem Thread geht es ausschließlich um HT3-fähige CPUs.

gerade für HTPCs sind die alten A64-prozessoren wesentlich interessanter als die stromfressenden phenoms, und diese haben eben kein HT3.

Gast
2009-02-25, 16:43:49
Merke: Dedizierte Hardware ist IMMER schneller als eine Allround CPU wenn die dedizierte Hardware für den entsprechenden Einsatzzweck gemacht wurde.

so, eine Voodoo1 ist in der grafikberechnung also schneller als ein moderner Core i7?


Die ALUs und Shader kommen nur bei Effekten zum Einsatz.
Deinterlacing und Trancoding wird aber noch vom Videoprozessor gemacht.

Deinterlacing gehört zu den PP-effekten und wird von den Shader-ALUs durchgeführt. der videoprozessor macht lediglich CABAC/CAVLC, IT, MC und deblocking, alles ander wird von den ALUs gemacht.

encoding wird erst recht von den ALUs gemacht, da es dafür garkeine eigene hardware gibt.


Der Stromverbrauch ist dabei nicht spürbar höher als im IDLE.
Wenn das die CPU in Software machen muß, dann sieht das GANZ anders aus.

nicht spürbar höher gilt zumindest für HD-videos nicht, allerdings in den meisten fällen deutlich sparsamer als die CPU alleine, das ist klar.

Gast
2009-02-25, 17:49:59
so, eine Voodoo1 ist in der grafikberechnung also schneller als ein moderner Core i7?So über den Daumen gepeilt würde ich das gar nicht mal völlig ausschließen, solange man sich auf Dinge beschränkt, die der alte Voodoo Graphics gut kann, also für die er gebaut wurde.

Coda
2009-02-25, 22:02:24
so, eine Voodoo1 ist in der grafikberechnung also schneller als ein moderner Core i7?
Ich denke es ist klar, dass damit natürlich die jeweils neuste Technologie zu vergleichen ist.

So über den Daumen gepeilt würde ich das gar nicht mal völlig ausschließen, solange man sich auf Dinge beschränkt, die der alte Voodoo Graphics gut kann, also für die er gebaut wurde.
Selbst dann ist ein Core i7 inzwischen schneller.

_DrillSarge]I[
2009-02-25, 22:24:52
^^nicht nur dass solch ein vergleich reichlich sinnlos ist, zwischen beiden technologien liegen fast 13 (!!!) jahre.

€: da war jemand (deutlich) schneller :biggrin:

Undertaker
2009-02-26, 01:25:09
121Ah;7129479']wieso? weil sie zu langsam ist? sprich zuwenig shader? oder wieso meinste?

Auf einer ordentlichen GPU a'la 4870 stimmt wenigstens der Speed, bei CB 6x schneller als ein 3,2GHz Yorkfield. Die Qualität soll allerdings schlecht sein, was die CPU-Zeit schon einmal deutlich aufwertet. Wenn jetzt auch noch der Zeitvorteil durch die geringe Leistungsfähigkeit der IGP wegfällt, sehe ich wirklich keinen Sinn mehr darin...

- gleich schnell oder langsamer als die CPU
- schlechtere Qualität
- Bindung an ein einziges Tool mit wenig Optionen

Gast
2009-02-26, 19:49:54
Auf einer ordentlichen GPU a'la 4870 stimmt wenigstens der Speed, bei CB 6x schneller als ein 3,2GHz Yorkfield. Die Qualität soll allerdings schlecht sein, was die CPU-Zeit schon einmal deutlich aufwertet. Wenn jetzt auch noch der Zeitvorteil durch die geringe Leistungsfähigkeit der IGP wegfällt, sehe ich wirklich keinen Sinn mehr darin...

- gleich schnell oder langsamer als die CPU
- schlechtere Qualität
- Bindung an ein einziges Tool mit wenig Optionen


Die GPU ist sparsamer im Stromverbrauch als die CPU.

Gast
2009-02-26, 19:50:51
- Bindung an ein einziges Tool mit wenig Optionen

Außerdem ist gibt es dafür eine API und nicht nur ein einziges Tool.


Daher gibt es weiterhin Vielfalt bei den Tools die dann diese eine API nutzen können.

Undertaker
2009-02-26, 19:56:48
Die GPU ist sparsamer im Stromverbrauch als die CPU.

Wenn die Rechenzeit, gerade bei vergleichbarer Qualität, spürbar länger ausfällt? Bezogen auf einen Stromverbrauch in Wh wäre ich mir da gar nicht mal so sicher.

Außerdem ist gibt es dafür eine API und nicht nur ein einziges Tool.

Daher gibt es weiterhin Vielfalt bei den Tools die dann diese eine API nutzen können.

Wieviele Tools kennst du denn, mit denen du in Transcoding auf einer ATI-GPU in Hardware betreiben kannst? Ich kenne nur den ATI Video Konverter, der konnte bei Tests z.B. bei Computerbase nicht überzeugen.

Leonidas
2009-02-28, 12:16:03
Der Regor würde mich nämlich sehr als Stromsparrechner interessieren.
Immerhin ist er in 45 nm Technologie gefertigt und nur ein 2 Core Prozessor,
womit er auch deutlich weniger Strom als die 3 oder 4 Core Pendants benötigen dürfte.



Bisher hat AMD solche Prozessoren immer über Deaktivierung von Cores gelöst, der extra Codename ist kein Hinweis auf einen wirklich separat gefertigten Prozessor.

GeneralHanno
2009-02-28, 12:24:46
für den notebookmarkt würde sich aber ein nativer dualcore @45nm anbieten ...

AffenJack
2009-02-28, 12:36:58
Es wird aber von ausgegangen das regor 2mb l2 cache hat, dann muss es ein eigenes design sein. Höchstwahrscheinlich ist dann Regor und Caspian das gleiche, da der auch 2mb l2 haben soll, laufen allerdings auf verschiedenen Sockeln. Denn das amd 2 verschiedene Dual-Cores in 45nm produziert ist eher unwahrscheinlich.

GeneralHanno
2009-02-28, 15:03:19
AMD will atom mit kleinen günstigen OoO-CPUs kontern:
http://www.hartware.net/news_46459.html

mittelfristig werden wir also so oder so einen nativen dualcore sehen ... die frage ist nur wann?

Leonidas
2009-02-28, 15:29:44
Schauen wir mal. Sobald man davon echte Stückzahlen absetzt, lohnt es sich wohl. Aber beim 65nm K10 war die DualCore-Geschichte ja arg begrenzt, dort würde sich eine extra Produktion kaum lohnen.

Gast
2009-03-09, 06:57:52
so, eine Voodoo1 ist in der grafikberechnung also schneller als ein moderner Core i7?


Eine moderne Geforce GTX 280 ist es auf jedenfall, also was willst du mir sagen?




Deinterlacing gehört zu den PP-effekten und wird von den Shader-ALUs durchgeführt. der videoprozessor macht lediglich CABAC/CAVLC, IT, MC und deblocking, alles ander wird von den ALUs gemacht.


Bei einer NVidia Lösung ist das vielleicht so, aber nicht bei AMD:


UVD also contains an advanced video post-processing block. Post-processing includes denoising, de-interlacing, and scaling/resizing.

http://en.wikipedia.org/wiki/Unified_Video_Decoder#UVD.2FUVD.2B

D.h. das macht nicht die Shader ALU, sondern eine extra Recheneinheit und bei Deinterlacing oder Rescaling ist so etwas Hardwaretechnisch auch kein großer Aufwand.




encoding wird erst recht von den ALUs gemacht, da es dafür garkeine eigene hardware gibt.

Wie schon mehrfacht erwähnt, bei AMD macht genau das auch die Hardware.
Nur bei NVidia ist es so wie du es sagst.

Siehe hier, Beweis:
http://www.hexus.net/content/item.php?item=1622&page=3

Gast
2009-03-09, 07:01:37
Wenn die Rechenzeit, gerade bei vergleichbarer Qualität, spürbar länger ausfällt? Bezogen auf einen Stromverbrauch in Wh wäre ich mir da gar nicht mal so sicher.

Das setzt vorraus das du das Video schon komplett auf der Platte hast.

Wenn du es aber erst langwierig Streamen mußt und die Videoquelle das Problem ist, z.b. die TV Karte, dann sieht das anders aus.




Wieviele Tools kennst du denn, mit denen du in Transcoding auf einer ATI-GPU in Hardware betreiben kannst?

Ich kenne zumindest die API von AMD als auch für die NVidia Karten entsprechend die API von NVidia und zu denen kann jeder
sein eigenes Programm schreiben.

Da die Technik aber noch relativ neu ist, kommt die Unterstützung nach und nach.

Unter Linux ist man zumindest schon am Arbeiten diese Technik in mplayer und Co zu integrieren, einiges geht schon, einiges geht noch nicht.
Es braucht halt alles seine Zeit.