PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5450: (P)Review-Thread


AnarchX
2010-02-04, 07:56:46
http://img200.imageshack.us/img200/4761/5450specificationsn.jpg

Testberichte:

http://ht4u.net/news/21596_amd_radeon_hd_5450_-_abloese_im_low-budget-bereich_stellt_sich_vor/
http://www.pcgameshardware.de/aid,704245/Test-Radeon-HD-5450-Cedar-Die-ideale-HTPC-Grafikkarte-mit-DirectX-11/Grafikkarte/Test/
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_sapphire_radeon_hd_5450/

http://www.anandtech.com/video/showdoc.aspx?i=3734
http://www.guru3d.com/article/radeon-5450-review/1
http://techgage.com/article/atis_radeon_hd_5450_-_the_perfect_htpc_card/
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/28559-sapphire-radeon-hd-5450-512mb-ddr3-review.html
http://hothardware.com/Articles/ATI-Radeon-HD-5450-DX11-On-The-Cheap/
http://www.hexus.net/content/item.php?item=22120
http://www.neoseeker.com/Articles/Hardware/Reviews/hd5450/
http://www.overclockersclub.com/reviews/sapphire_radeon_hd5450_512mb/

Gast
2010-02-04, 08:23:15
"Auf dem Papier glänzt die Radeon HD 5450 außerdem mit DirectX-11-Funktionen. In der Spielepraxis ziehen Käufer jedoch keinen Nutzen aus diesem Feature, da dem Grafikchip die Leistung zur Ausführung fehlt."

http://www.pcgameshardware.de/aid,704245/Test-Radeon-HD-5450-Cedar-Die-ideale-HTPC-Grafikkarte-mit-DirectX-11/Grafikkarte/Test/?page=7

Bäh, immer wieder der gleiche Bullshit.

"Der Furmark wird seit dem Catalyst 9.7 jedoch dauerhaft per Catalyst-Treiber gedrosselt, AMDs HD-Radeons arbeiten ergo nicht unter Volllast. "

http://www.pcgameshardware.de/aid,704245/Test-Radeon-HD-5450-Cedar-Die-ideale-HTPC-Grafikkarte-mit-DirectX-11/Grafikkarte/Test/

Auch traurig das es bei PCGH immer noch nicht angekommen ist das NV den Furmark ebenso ausbremst.

Raff
2010-02-04, 10:18:06
Deiner Meinung nach reichen 80 ALUs und 8 TMUs an 64 Bit also, um DX11 in Spielen zu nutzen? :ulol: Die Karte kann alles darstellen und eignet sich damit vorzüglich zum Präsentieren einer Slideshow, yep. Die Verbrauchswerte machen aber alles wett. =)

MfG,
Raff

Gast
2010-02-04, 10:19:23
Deiner Meinung nach reichen 80 ALUs und 8 TMUs an 64 Bit also, um DX11 in Spielen zu nutzen? :ulol:

MfG,
Raff

Im schlimmsten Fall wird ein Spiel durch DX11 nicht schneller.

AnarchX
2010-02-04, 10:23:39
Relativ gesehen, schlägt sich Cedar im Unigine-Benchmark für die vorhanden Rohleistung nicht schlecht. :D

Ronny145
2010-02-04, 10:27:51
Im schlimmsten Fall wird ein Spiel durch DX11 nicht schneller.

Also in Dirt 2 nicht. Da gehts mit DX11 Pfad deutlich nach unten. Selbst wenn du Tessellation abschaltest ist der DX9 Pfad weitaus schneller.

Gast
2010-02-04, 10:28:10
Deiner Meinung nach reichen 80 ALUs und 8 TMUs an 64 Bit also, um DX11 in Spielen zu nutzen? :ulol: Die Karte kann alles darstellen und eignet sich damit vorzüglich zum Präsentieren einer Slideshow, yep. Die Verbrauchswerte machen aber alles wett. =)

MfG,
Raff

Ich hätte von einem PCGH-Redakteur wirklich mehr Niveau erwartet. DX11 kann nur Vorteile bringen, mit DX11 kann man viele Dinge schneller ausführen. Wenn man natürlich Äpfel mit Birnen vergleicht und bei DX11 alles auf Anschlag dreht und dann sagt Karte xy ist zu langsam für DX11 trägt das schön zum aktuellen "Bild-Niveau" unserer Gesellschaft bei. Die Diskussion gibt es seit SM3 vs. SM2 bei NV40/R420 und noch immer ist das selbst bei den meisten Redakteuren offensichtlich nicht angekommen.

Gast
2010-02-04, 10:30:57
Also in Dirt 2 nicht. Da gehts mit DX11 Pfad deutlich nach unten. Selbst wenn du Tessellation abschaltest ist der DX9 Pfad weitaus schneller.

Bei Dirt2 wird in Dx11 auch weit mehr gemacht als nur Tesslation. Bei gleichen Detailgrad kann eine modernere API nicht langsamer sein sofern die Entwickler nicht einfach etwas verhunzt haben. Häufig kann man durch die besseren Features allerdings nicht unwesentlich Leistung gewinnen oder zusätzliche Effekte darstellen bei gleicher Leistung.

Raff
2010-02-04, 10:37:41
Ich hätte von einem PCGH-Redakteur wirklich mehr Niveau erwartet.

Dann solltest du dafür nicht meinen Privat-Account heranziehen.

DX11 kann nur Vorteile bringen, mit DX11 kann man viele Dinge schneller ausführen. Wenn man natürlich Äpfel mit Birnen vergleicht und bei DX11 alles auf Anschlag dreht und dann sagt Karte xy ist zu langsam für DX11 trägt das schön zum aktuellen "Bild-Niveau" unserer Gesellschaft bei. Die Diskussion gibt es seit SM3 vs. SM2 bei NV40/R420 und noch immer ist das selbst bei den meisten Redakteuren offensichtlich nicht angekommen.

Die Aussage ist auf die gängige Praxis bezogen. Diese sieht nun mal so aus, dass die Entwickler zusätzliche Effekte einbauen, die idR Leistung kosten – meist deutlich. Was theoretisch möglich ist, aber noch keiner macht, spielt da nur eine kleine Rolle. Die Aussage "Die Karte ist zu langsam, um aktuelle Spiele mit DX11-Grafik zu spielen" ist völlig korrekt.

MfG,
Raff

Gast
2010-02-04, 10:42:53
Die Aussage ist auf die gängige Praxis bezogen. Diese sieht nun mal so aus, dass die Entwickler zusätzliche Effekte einbauen, die idR Leistung kosten – meist deutlich. Was theoretisch möglich ist, aber noch keiner macht, spielt da nur eine kleine Rolle. Die Aussage "Die Karte ist zu langsam, um aktuelle Spiele mit DX11-Grafik zu spielen" ist völlig korrekt.

MfG,
Raff

Niemand wird gezwungen die zusätzlichen DX11 Features auch zu aktivieren nur weil man die DX11-API verwendet. Wie schon gesagt, im schlimmsten Fall erzielt man daraus keine Vorteile. Zwei von aktuell drei DX11 Spiele werden dadurch deutlich beschleunigt. Die Aussage... "In der Spielepraxis ziehen Käufer jedoch keinen Nutzen aus diesem Feature, da dem Grafikchip die Leistung zur Ausführung fehlt." ... ist schlicht Blödsinn, sorry.

Ronny145
2010-02-04, 10:43:16
Bei Dirt2 wird in Dx11 auch weit mehr gemacht als nur Tesslation. Bei gleichen Detailgrad kann eine modernere API nicht langsamer sein sofern die Entwickler nicht einfach etwas verhunzt haben. Häufig kann man durch die besseren Features allerdings nicht unwesentlich Leistung gewinnen oder zusätzliche Effekte darstellen bei gleicher Leistung.

Das ist mir klar, darum geht es aber nicht. Deine Aussage ("im schlimmsten Fall nicht schneller") ist nicht zutreffend, da der DX11 Modus in Dirt 2 langsamer läuft, egal was du in den Optionen einstellst. Der DX9 Modus wird immer der schnellere bleiben.

Gorkon
2010-02-04, 10:44:39
Geht es hier um DX11 und DIRT2 oder um den RV810? Aufwachen Mädels...;)

OT: Schickes Kärtchen für einen HTPC, auch wenn schon eine RV6xx / 780G für sowas locker reicht. Trotzdem schön, dass AMD jetzt auch die HD-Tonformate durch den HDMI per Bitstream schicken kann. Wer darauf angewiesen ist, wird damit sicherlich glücklich werden...

Gast
2010-02-04, 10:46:01
Niemand wird gezwungen die zusätzlichen DX11 Features auch zu aktivieren nur weil man die DX11-API verwendet. Wie schon gesagt, im schlimmsten Fall erzielt man daraus keine Vorteile. Zwei von aktuell drei DX11 Spiele werden dadurch deutlich beschleunigt. Die Aussage... "In der Spielepraxis ziehen Käufer jedoch keinen Nutzen aus diesem Feature, da dem Grafikchip die Leistung zur Ausführung fehlt." ... ist schlicht Blödsinn, sorry.

Edit: Gerade da der Grafikchip so langsam ist, ist eine moderne API wichtig um Dinge effizient ausführen zu können.

Gast
2010-02-04, 10:48:24
Das ist mir klar, darum geht es aber nicht. Deine Aussage ("im schlimmsten Fall nicht schneller") ist nicht zutreffend, da der DX11 Modus in Dirt 2 langsamer läuft, egal was du in den Optionen einstellst. Der DX9 Modus wird immer der schnellere bleiben.

Bei exakt den selben Detaileinstellungen und exakt derselben Darstellungsqualität ist der Dx11-Pfad langsamer? Dann wurde hier von den Entwicklern einiges verhunzt.

NochEinGast
2010-02-04, 10:49:11
Wie wahrscheinlich ist es, dass man die Karte irgendwann dank OpenCL als Physik-Beschleuniger nutzen kann?

Gast
2010-02-04, 10:49:36
Das ist mir klar, darum geht es aber nicht. Deine Aussage ("im schlimmsten Fall nicht schneller") ist nicht zutreffend, da der DX11 Modus in Dirt 2 langsamer läuft, egal was du in den Optionen einstellst. Der DX9 Modus wird immer der schnellere bleiben.

Und?
Bei anderen Spielen ist Das nicht so.
Dadurch entstehen nur der Glaube, dass die aktuelle Schnittstelle langsamer ist.
Das ist einfach Käse und wird wie üblich mit "Praxisrelevanz" gerechtfertigt.

Ronny145
2010-02-04, 10:52:11
Niemand wird gezwungen die zusätzlichen DX11 Features auch zu aktivieren nur weil man die DX11-API verwendet.

In Dirt 2 ist nicht viel mit aktivieren. Das läuft automatisch im DX11 Modus bei einer DX11 Karte. Man muss dann in der ini dx9 forcieren.

Bei exakt den selben Detaileinstellungen und exakt derselben Darstellungsqualität ist der Dx11-Pfad langsamer? Dann wurde hier von den Entwicklern einiges verhunzt.

Deutlich langsamer. Der DX11 Pfad lässt sich nur in ini deaktivieren nicht in den Grafikoptionen. Dafür sieht DX11 bei gleichen Grafikeinstellungen immer besser (schärfer) aus.

Gast
2010-02-04, 10:56:14
[QUOTE=Ronny145;7823345 Dafür sieht DX11 bei gleichen Grafikeinstellungen immer besser (schärfer) aus.[/QUOTE]

In Dirt2.
Was hat das jetzt mit der Tatsache zu tun dass die Aussage "Zu langsam für DX11" Schwachsinn ist?

Gast
2010-02-04, 10:56:20
In Dirt 2 ist nicht viel mit aktivieren. Das läuft automatisch im DX11 Modus bei einer DX11 Karte. Man muss dann in der ini dx9 forcieren.



Deutlich langsamer. Der DX11 Pfad lässt sich nur in ini deaktivieren nicht in den Grafikoptionen. Dafür sieht DX11 bei gleichen Grafikeinstellungen immer besser (schärfer) aus.

Achso, das dacht ich mir schon. Dann ist der Dx11-Pfad natürlich nicht langsamer sondern das Spiel erlaubt offensichtlich nur in DX11 nicht dieselbe Darstellungsqualität wie in DX9. Einige DX11 exklusive Features lassen sich also offensichtlich nicht deaktivieren. Das ist was ganz was anders.

Pirx
2010-02-04, 12:08:00
Schlägt die Karte eigentlich eine 9800Pro in der Leistung?:D

Gast
2010-02-04, 12:14:09
Schlägt die Karte eigentlich eine 9800Pro in der Leistung?:D
Solang das 64-Bit SI nicht limitiert, ist die Leistung der GPU deutlich höher als bei einer 9800 Pro.

5.2GTex/s vs 3GTex/s
104GFLOPs vs ~30 GFLOPs

yahooligan
2010-02-04, 13:23:23
Glaube nicht dass Spiele da von Interesse sind. Allerdings hätte sie, wenn ich das richtig sehe gegenüber den guten AMD onboard Lösungen, die ja ebenfalls für HD Videos ideal sind, den Vorteil, dass sich 3 Bildschirme gleichzeitig anteuern lassen.

Spasstiger
2010-02-04, 14:11:06
Schlägt die Karte eigentlich eine 9800Pro in der Leistung?:D
Ja, das schafft sogar schon eine Radeon HD 3300 + Sideport-Memory (onboard), wie ich bei eigenen Messungen festgestellt habe. Bei neueren Spielen ist der Vorteil der onboard-Lösung sogar massiv groß (selbst die GeForce 6800 128 MB wird teils deutlich geschlagen), man kann auch Spiele mit neuerem Featureset als SM2.0 ordentlich nutzen. Als älteres Spiel hab ich mal Counterstrike Source getestet, da kommt man in Verbindung mit Antialiasing noch auf 9800-Pro-Niveau.
Eine Radeon HD 5450 sollte gegenüber allen Karten bis zur GeForce 6800 Ultra auch aus Performancesicht ein lohnenswertes Upgrade darstellen.

Air Force One
2010-02-04, 14:23:50
Ich denke das Einsatzgebiet der HD 5450 ist klar, verstehe nicht warum jetzt hier einiege vom Gaming reden? :confused:
Der Stromverbrauch ist meiner Meinung nach auch sehr gut.
Sicher, DX11 ist fraglich bei der Leistung...
Aber für schöne Bilder (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=457698&page=127) sollte es reichen :freak:

Viel interessanter hingegen finde ich das OpenCL dabei ist.

Spasstiger
2010-02-04, 14:28:13
Ich denke das Einsatzgebiet der HD 5450 ist klar, verstehe nicht warum jetzt hier einiege vom Gaming reden? :confused:
Gibt ja auch Leute mit älteren PCs, die sie für ältere Onlinespiele nutzen, und denen die Grafikkarte abraucht. Da stellt die HD 5450 schon ein guter Ersatz dar.

Air Force One
2010-02-04, 14:30:32
ältere Spiele nutzen aber kein DX11... nicht mal DX10

Spasstiger
2010-02-04, 14:34:52
Die HD 5450 kann auch SM2.0 und SM3.0. Und das bei geringem Verbrauch und im Vergleich zu älteren Karten (z.B. GeForce 6600 GT) guter Performance. Warum sollte man eine ältere PCIe-Karte, die das Zeitliche segnet, nicht mit einer sparsameren und schnelleren DX11-Karte ersetzen?

Raff
2010-02-04, 14:37:20
Die HD 5450 kann auch SM2.0 und SM3.0. Und das bei geringem Verbrauch und im Vergleich zu älteren Karten (z.B. GeForce 6600 GT) guter Performance. Warum sollte man eine ältere PCIe-Karte, die das Zeitliche segnet, nicht mit einer sparsameren und schnelleren DX11-Karte ersetzen?

Zum Beispiel, weil man fürs gleiche Geld eine schnellere DX10.x-Karte bekommt. Ich würde auch die DX11-Karte nehmen, aber das ist Geschmackssache. :)

MfG,
Raff

Benedikt
2010-02-04, 14:40:26
Eine Sache, die mich schon länger interessiert: Ich würde gerne mal eine Auflistung sehen (Benchmarks), wie sich die neuen lowend-Karten 54xx oder 56xx gegenüber Vorgängergenerationen (1xxx, HD 2xxx oder HD 3xxx) schlagen. Wo finde ich so etwas?

Jake Dunn
2010-02-04, 14:47:57
Eine Sache, die mich schon länger interessiert: Ich würde gerne mal eine Auflistung sehen (Benchmarks), wie sich die neuen lowend-Karten 54xx oder 56xx gegenüber Vorgängergenerationen (1xxx, HD 2xxx oder HD 3xxx) schlagen. Wo finde ich so etwas?

Hier sind auch alte Karten mit getestet worden

http://www.pcgameshardware.de/aid,704245/Test-Radeon-HD-5450-Cedar-Die-ideale-HTPC-Grafikkarte-mit-DirectX-11/Grafikkarte/Test/

Sorkalm
2010-02-04, 21:38:50
So, Computerbase hat jetzt auch ein Test:
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_sapphire_radeon_hd_5450/

Das Fazit sagt eigentlich das wichtigste über diese Karte aus. :)

Ferengie
2010-02-04, 21:56:13
Kein Test über 1080i VA...dafür Spiele Tests noch und nöcher...welche Leute machen diese Tests eigentlich?

davidzo
2010-02-05, 01:05:37
ich zocke auf auf ner nvs140m (gf 8400m ), die performance ist sogar ganz passabel. cod4&5 sowie coh, assasins creed und einige ältere spiele laufen da ohne probleme. das moderne zeug spiel ich sowieso erst wenns älter und bugfrei geworden ist.
Die 5450 ist für solche spiele sicher ideal, da kann man dann von minimalen details vielleicht sogar auf medium wechseln - mehr leistung als ne 8400m hat sie definitiv, sollte eher so in richtung 8600m GT (DDR2) gehen, die shadingleistung ist fast gleich und die bandbreite auch...

hatte neulich einen saturnrechner vor mir, der laut besitzer trotz q6600 quad sehr langsam sein sollte. - steckte ne 8600GS drin. G84 auf 400mhz DDR2 und nur 16sp - das haben die bis vor kurzem im saturn als highendgrafik verkauft, die 5450 ist sicher nicht langsamer. - Ich hab ihm angeboten meine ausrangierte x1900xt512 zu benutzen, die müsste mal zwei bis dreimal so schnell sein.

Ein 200sp RVrv810 wäre sicher die bessere desktopkarte geworden, 100mio transistoren mehr hätten den kohl nicht fett gemacht, dann hätte es höchstens an speicherbandbreite gemangelt aber die entscheidung bei 80sp zu bleiben ist wohl auf das mobilesegment zurückzuführen indem diese chips sehr populär sein werden, auf desktopkarten kommt lediglich ausschussware, was die vergleichsweise hohen idlespannungen erklärt.

imo hätten sie aber auch drei simds mit 120sp machen können, dann wäre der schritt von der 4550 wenigstens deutlich gewesen. Die rops limitieren afaik nicht, aber 10 TMU+TAUs wären auch nett gewesen.

diedl
2010-02-05, 03:44:42
Da wird wohl meine HD4550 650/930 noch mindestens eine Generation weiter
im Rechner verbleiben.
Nicht einmal die Verlustleistung ist besser. :cool:
DX11 ist in dieser Leistungsklasse wohl eher als Gimmig zu sehen.
Schade, hatte auf eine ähnliche Steigerung wie von der 3450 zur 4550 gehofft.
Die 4550 skaliert auch bei über 900 MHz Speichertakt oft noch sehr gut mit,
wird bei der 5450 dann wohl nicht anders sein, aber selbst hier wurde gespart.
Bin jedenfalls froh mich für ein 900 MHz Modell entschieden zu haben.
Da 95% meiner Spiele aus Computerzeitschriften sind wird Sie diese Zeit wohl
auch noch überstehen.
Mit größeren Karten konnte ich mich, warum auch immer, nie wirklich anfreunden.
Ich weis 3DM ist kein Spiel, trotzdem zeigt es das so eine kleine Karte
bei älteren Spielen durchaus ihren Mann steht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7811350&postcount=466

mfg diedl

MadManniMan
2010-02-05, 06:43:44
Warum ist die 5450 durchgängig langsamer als die 4550? Letztere hat knapp 10 % weniger Rohleistung!

AnarchX
2010-02-05, 07:49:37
Vielleicht die Attributinterpolation, die von Cedar in den ALUs berechnet werden muss, wo es bei RV710 noch FF-Einheiten gab.
Aber das scheint nicht in jedem Szenario aufzutreten.

MadManniMan
2010-02-05, 10:11:55
Was tut diese Attributinterpolation?

Jedenfalls kann man sagen: bei gleicher Rohleistung sind RV7xx den RV8xx überlegen. Nich?

Gast
2010-02-05, 11:37:16
Kein Test über 1080i VA...dafür Spiele Tests noch und nöcher...welche Leute machen diese Tests eigentlich?

Doch auf Anandtech mit dem Slicies Testviedo (Endlich mal jemand der sich das ansieht und in einem Preview mit Bildern berücksichtigt, DANKE Anandetch)
und die 80 Stream'er reichen nicht wirklich für VA bei 1080i, was ich eigentlich
schon lange vermutet habe, auch schon bei der HD4550.
Wenn auch oft genug gegenteiliges behauptet wurde.
Meine HD4670 liegt dabei ohne weiteres Bildprocessing(EE/NR/Dyn.Kont. usw)
schon bei 25-30% GPU last mit gelegentlichen spitzen noch drüber....
Der Treiber geht eigentlich wie auch schon früher automatisch in einen
Fallback(BOB/MA) damit die leistung sicher reicht, es sei denn man erzwingt VA,
bei den aktuelleren treibern muss dabei "Smooth Video Playback blabla" aus sein.
Das wird dann bei den 80 Streamer so eng das spätestens bei weiteren Processing ende gelände ist und auch so wirds schon mehr als knapp genug

greetz

Ferengie
2010-02-05, 12:03:30
Wieder keine HTPC Karte..grml.

Gast
2010-02-05, 12:53:01
Zum Beispiel, weil man fürs gleiche Geld eine schnellere DX10.x-Karte bekommt. Ich würde auch die DX11-Karte nehmen, aber das ist Geschmackssache. :)

MfG,
Raff
Mann wenn du Nvidia meinst schreib auch Nvidia und nich DX10.x !
Verdien dir deine Werbekohle wenigstens EHRLICH !

Corny
2010-02-05, 12:57:06
Damit ist die Karte leider knapp am Ziel vorbei geschossen :( Vielleicht tut uns ATI einen gefallen und baut eine 5550 oder ähnliches, mit mehr Shader Power.
Ich für meinen Teil bleib damit erst einmal bei meiner 4350, die Vorteile sind mir zu wenig

Dago
2010-02-05, 13:03:58
Ach schade, ich war schon drauf und dran die Karte zu holen.
Aber eine Graka vom Schlage einer 5670 oder 4670 ist auch schon wieder in einer ganz anderen Liga des Stromverbrauchs, die Hersteller machen es einem aber auch nicht leicht...

Spasstiger
2010-02-05, 13:09:11
Mann wenn du Nvidia meinst schreib auch Nvidia und nich DX10.x !
Verdien dir deine Werbekohle wenigstens EHRLICH !
Ich glaube, du hast da was komplett in den falschen Hals bekommen. Mit DX10.1-Karten meinte er vor allem die Radeon HD 4550, da diese im gleichen Preissegment wie die HD 5450 liegt. Die GeForce G 210 wird er wohl eher nicht gemeint habe.

Raff
2010-02-05, 13:14:39
Exakt. Abgesehen davon wüsste ich gerne, welche Werbekohle er meint. Bekäme ich für jeden Bestechungsvorwurf auch nur einen €uro überwiesen, wäre ich bereits Millionär und würde feige Flamer wie den da oben mit zerknüllten 500-Euro-Scheinen bewerfen, bis sie heulen.

MfG,
Raff

davidzo
2010-02-05, 13:18:05
also die 5450 ist wirklich nur ramsch. wird sicher n guten gewinn bei den oems und in diversen computerläden machen, wegen dx11. ist ja auch nur 8€ teurer als die 4550, das geht noch.

die 5570 dagegen sieht interessant aus. die 5670 war ja vom verbrauch her eine enttäuschung (insbesondere idle), das sieht bei der 5570 viel besser aus. Leistungsmäßig erwarte ich viel von der 5570, schließlich hat die 5670 im vergleich zum vorgänger (4670) massiven bandbreitenüberschuss und das ist dann auch das einzige was man bei der 5570 gekürzt hat. sieht für mich irgendwie gar nicht so lowcost aus. vor zwei jahren waren 320 shader noch highend, jetzt gibts schon 400 bei der zweitkleinsten SKU, omg.

My Guess
30-40€ 5450 - reine 2D Bürokarte bzw. OEMliebling wegen dem featureset + preis
40-50€ 5570 - Einstiegsgamerkarte - die bandbreite wird die Auflösung limitieren aber mit der shaderpower sollten immerhin alle aktuellen spiele einigermaßen bei mittleren settings laufen.

Also was die 5450 angeht - weitergehen, hier gibt es nichts zu sehen.

Leonidas
2010-02-05, 15:26:50
Die Aussage ist auf die gängige Praxis bezogen. Diese sieht nun mal so aus, dass die Entwickler zusätzliche Effekte einbauen, die idR Leistung kosten – meist deutlich. Was theoretisch möglich ist, aber noch keiner macht, spielt da nur eine kleine Rolle. Die Aussage "Die Karte ist zu langsam, um aktuelle Spiele mit DX11-Grafik zu spielen" ist völlig korrekt.


Sehe das ähnlich. DX10 wurde von den Entwicklern mehrheitlich als Speedup benutzt, manchmal auch in Kombination von Speedup und neuen Effekten. Aber selten war eine DX10-Version deutlich langsamer als eine DX11-Version.

DX11 wird hingegen von den Entwicklern jetzt schon primär als Möglichkeit zu neuen Effekten gesehen und auch dahingehend genutzt - mit dem Effekt, daß die DX11-Versionen zumeist langsamer sind als die DX9-Versionen. Die Idee der Entwickler ist dabei so einfach wie nachvollziehbar: Wenn einer eine DX11-Grafikkarte hat, so ist diese zumeist leistungsstark, womit man auch mehr Grafikeffekte bieten kann, ohne daß es unspielbar wird. Ergo wird DX11 dazu benutzt, um diese Rohperformance auch auszunutzen.

Womit es am Ende darauf hinausläuft, das DX11 bei sehr leistungsschwachen Grafikkarten eher hinderlich ist. Bei denen wäre das DX9-Featureset oftmals am besten, damit das Spiel nicht von einer nicht vorhandenen Rohleistung ausgeht.

AnarchX
2010-02-05, 17:23:57
Was tut diese Attributinterpolation?

AFAIK werden damit die Koordinaten für den Zugriff auf die Texturen ermittelt, je nach Situation kann die Berechnung in den ALUs von Vorteil sein, wenn hier die FF-Einheiten limitieren (z.B. RV730 16 Interpolatoren und 32 TMUs oder RV770 32 Interpolatoren/40TMUs vs Redwood/Juniper mit ALU-Interpolation). Wenn RV710 schon 8 Interpolatoren hatte ist Cedar natürlich hier stets im Nachteil.

Die HD 5450 kann auch SM2.0 und SM3.0. Und das bei geringem Verbrauch und im Vergleich zu älteren Karten (z.B. GeForce 6600 GT) guter Performance. Warum sollte man eine ältere PCIe-Karte, die das Zeitliche segnet, nicht mit einer sparsameren und schnelleren DX11-Karte ersetzen?
Wobei man bei der 5450 wieder aufpassen muss, nicht eine 667MHz DDR3 oder 400MHz DDR2 Version zu erwischen, die unter dem gleichen Namen verkauft werden.
Bei 4550 DDR3 und 4350 DDR2 war die Abgrenzung noch klarer.

Interessant wäre gewesen, wie sich Cedar mit GDDR5 schlagen würde, aber selbst die Mobility HD 5470 wird wohl momentan mit DDR3 ausgeliefert.

diedl
2010-02-05, 22:52:14
ist zwar nur die 4550 und 3DM 2001...
Speicherskalierung
bei Auflösung 1680x1050 32bit 4xMSAA

GPU-Takt 650 MHz
Speichertakt
700, 800, 900 und 950 MHz

Gruß diedl

Hl2 Lost Coast
1680x1050 kein AA
high-high-high
reflect word-high-enebled
full hdr trilinear
950-91,07 fps
900-88,16 fps
800-82,14 fps
700-76,56 fps

Spasstiger
2010-02-06, 09:22:51
Danke für die Benchmarks, diedl. Die HD 4550 hängt also ganz schön stark am Speichertakt, rein rechnerisch stärker als am Chiptakt. Hätte ich bei nur 80 SPs und DDR3-Speicher nicht gedacht.

diedl
2010-02-06, 11:13:06
Danke für die Benchmarks, diedl. Die HD 4550 hängt also ganz schön stark am Speichertakt, rein rechnerisch stärker als am Chiptakt. Hätte ich bei nur 80 SPs und DDR3-Speicher nicht gedacht.
Ist natürlich nicht bei jedem Spiel bzw. Einstellung so stark der Fall.
Da ich die Werte gerade habe (sorry wieder 3DM 2001)
Standardtest.
Wie man sieht macht sich hier der Speichertakt trotz gleichem Bench nur gering bemerkbar.
Vielleicht begrenzt hier aber auch ein wenig die CPU (3,4 GHz Q8400)
Da ich meinen PC gerade neu aufsetze, habe ich leider noch nicht groß benchbares zu bieten.
(Möchte den PC nicht unbedingt gleich wieder "zumüllen").
Gruß diedl

Far Cry hätte ich noch
FCBenchmark 1.3.1
hocsteam Demo
maximum Details

650 MHz GPU / 950, 825 und 700 MHz Speicher
Hier ist die Skalierung zwichen 700 und 825 MHz noch gut, darüber nimmt Sie langsam ab, ist aber
immer noch ordentlich.
Der jeweils zweite Durchlauf dürfte der Realistischere sein, im ersten Durchlauf bremst wohl meine WD green 5400 U/min noch etwas.
Far Cry

The benchmark started at 06.02.2010 13:00:43
650-950
--------------------------------------------------------------------------------

Resolution: 1024×768
Maximum quality option, Direct3D renderer
Level: Steam, demo: hocsteam.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×

Score = 89,22 FPS (Run 1)
Score = 93,61 FPS (Run 2)
Average score = 91,41 FPS


--------------------------------------------------------------------------------

Resolution: 1280×1024
Maximum quality option, Direct3D renderer
Level: Steam, demo: hocsteam.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×

Score = 61,56 FPS (Run 1)
Score = 63,57 FPS (Run 2)
Average score = 62,56 FPS




The benchmark started at 06.02.2010 13:19:00
650-825
--------------------------------------------------------------------------------

Resolution: 1024×768
Maximum quality option, Direct3D renderer
Level: Steam, demo: hocsteam.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×

Score = 85,25 FPS (Run 1)
Score = 88,75 FPS (Run 2)
Average score = 87 FPS


--------------------------------------------------------------------------------

Resolution: 1280×1024
Maximum quality option, Direct3D renderer
Level: Steam, demo: hocsteam.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×

Score = 58,25 FPS (Run 1)
Score = 59,89 FPS (Run 2)
Average score = 59,06 FPS

The benchmark started at 06.02.2010 13:10:58
650-700
--------------------------------------------------------------------------------

Resolution: 1024×768
Maximum quality option, Direct3D renderer
Level: Steam, demo: hocsteam.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×

Score = 77,96 FPS (Run 1)
Score = 80,83 FPS (Run 2)
Average score = 79,39 FPS


--------------------------------------------------------------------------------

Resolution: 1280×1024
Maximum quality option, Direct3D renderer
Level: Steam, demo: hocsteam.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×

Score = 52,53 FPS (Run 1)
Score = 54,15 FPS (Run 2)
Average score = 53,34 FPS

3 DMark 2001se Standard

Gast
2010-03-06, 19:23:32
Ich für meinen Teil bleib damit erst einmal bei meiner 4350, die Vorteile sind mir zu wenig
Der unterschied von der Radeon HD 4350 zur Radeon HD 5450 ist doch praktisch nur das 7.1 statt 5.1 Tonformat über HDMI
und dieses neue weiter endwirkelte DX 11 oder ?

AnarchX
2010-12-15, 13:30:45
Da will sich wohl jemand seine x1 Karte vergolden lassen:
Die HIS HD 5450 Silence ist ab sofort im Handel zu einem empfohlenen Kaufpreis von 119,90 Euro inklusive Mehrwertsteuer erhältlich.
http://ht4u.net/news/23091_his_stellt_hd_5450_fuer_den_pcie-x1-slot_vor/

Ferengie
2010-12-31, 18:21:03
Für PCIe unverständlich der Preis.

Für die PCI Version eher verständlich, trotzdem zu dreist für den Preis.
DirectX-11-Grafikkarte für PCI-Steckplatz (http://www.heise.de/newsticker/meldung/DirectX-11-Grafikkarte-fuer-PCI-Steckplatz-1158832.html)