PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13

LovesuckZ
2009-09-26, 20:12:10
Welche theoretischen Anwendungen sollen denn zeigen, dass Leistung zurückgehalten werde?

Der_Korken
2009-09-26, 21:00:49
Welche theoretischen Anwendungen sollen denn zeigen, dass Leistung zurückgehalten werde?

Es geht um den Umstand, dass eine HD5850 gegenüber der 5870 nur um so viel langsamer ist, wie sie Takt weniger hat. Die fehlenden 2 SIMDs wirken sich in der Leistung quasi nicht aus. Deswegen wirkt es so, als sei der RV870 extrem Setup-Limitiert. Vor allem auch weil man doppelt so viele SIMDs wie der Vorgänger hat, aber nicht annähernd eine Leistungsverdopplung erreicht. Einen richtigen Test darüber gibt es noch nicht, aber falls sich SIMDs softwareseitig abschalten ließen, wäre ein "SIMD-Skalierungstest" sicher sehr aufschlussreich.

cipoint
2009-09-26, 21:58:22
Weiß jemand, wann ein Artikel zur HD5870 auf 3DCenter kommt?

=Floi=
2009-09-26, 22:35:04
kann mal jemand perlin noise aus dem 3d mark posten?
wie sieht es mit furmark aus? kann die karte hier richtig punkten? sie sollte ja grob 2,5x schneller sein als eine 285er

][immy
2009-09-26, 22:43:39
Es geht um den Umstand, dass eine HD5850 gegenüber der 5870 nur um so viel langsamer ist, wie sie Takt weniger hat. Die fehlenden 2 SIMDs wirken sich in der Leistung quasi nicht aus. Deswegen wirkt es so, als sei der RV870 extrem Setup-Limitiert. Vor allem auch weil man doppelt so viele SIMDs wie der Vorgänger hat, aber nicht annähernd eine Leistungsverdopplung erreicht. Einen richtigen Test darüber gibt es noch nicht, aber falls sich SIMDs softwareseitig abschalten ließen, wäre ein "SIMD-Skalierungstest" sicher sehr aufschlussreich.

nun, ich schätze mal das die speicherbandbreite trotz der hardwareverdopplung dann doch noch stark limitiert. man denke mal an die 4850 die um einiges schneller ist, sobald man den speicher höher taktet (bzw wenn man eine 4870 auf 4850 niveau heruntertaktet und den speichertakt aber so lässt).

ich schätze aber mal, das man diese bremse absichtlich noch nicht gelöst hat. zum einen kann man so später relativ einfach eine refresh generation rausbringen mit höher getaktetem speicher, wo die performance dann entsprechend ansteigen würde (z.B. um schnell auf die GT300 reagieren zu können) zum anderen spart man so derzeit einfach produktionskosten weil man den etwas günstigeren speicher nehmen kann, der wohl auch in größeren mengen zur verfügung steht.

dann gibt es auch noch den umstand das eine neue grafikkartengeneration nach einigen treiberupdates nochmal an geschwindigkeit zulegen kann. immerhin hat man jetzt (bzw. bald) ein neues windows, ein neues directx und eine neuer chip-generation. alles dinge die erstmal in ruhe im treiber untergebracht werden müssen.

dann gäbe es sogar noch die möglichkeit das ati noch ne bremse im treiber absichtlich drin hat da sie grad von nvidia nicht unter druck gesetzt werden. So könnte sich nvidia noch in falscher sicherheit wiegen und zum erscheinen des GT300 erscheint dann ein treiber ohne bremse. wäre zumindest ein kluger schachzug.
ist natürlich nur spekulation. aber dafür das die hardware ja wirklich verdoppelt wurde (bis auf das speicherinterface) ist der performancezuwachs doch ziemlich gering (auch wenn jetzt das AF eine höhere quali hat).

Gast
2009-09-26, 22:50:41
So würd ich es auch sehen, ATI hat sich schließlich noch einige Nummern freigelassen bei der HD5 Serie. Da kommt sicher Nachschub. ;)

Ich könnte mir sogar nen 384/512 bit Speicherinterface vorstellen für spätere releases. Die jetzigen Karten sind so gebaut, das sie auch im Preiskampf bestehen können, gängiges 256 bit Interface & normaler GDDR5.
Hätte man von allem das teuerste genommen, so wäre es weitaus schwieriger gewesen, auf Karten im Performancesegment zu reagieren.
Mit der 2900 XT lässt sich das kaum noch vergleichen, wir haben jetzt die x-fache Rechenleistung und wenn ne weitere Karte mit z.B. noch mehr Shadereinheiten kommt, würde ich da schon die Vollen gehen.

Der_Korken
2009-09-26, 23:13:13
Absichtlich Leistung zurückhalten würde aber den Verkauf der 5870 stark schädigen, da die Leute dann lieber zur unwesentlich langsameren, aber deutlich günstigeren 5850 greifen. Wenn es wirklich am Treiber liegt, dann wohl eher, weil er noch zu unausgereift ist.

Ob die Karte am Speicher hängt ist schwer zu sagen. Dafür schlägt sie sich bei 8xMSAA etwas zu gut imho. Ausschließen kann man es natürlich nicht. In diesem Fall könnte ATI mit einem RV890 @320/384bit SI wirklich sehr gut nachlegen.

Aquaschaf
2009-09-26, 23:23:23
[immy;7558313']dann gäbe es sogar noch die möglichkeit das ati noch ne bremse im treiber absichtlich drin hat da sie grad von nvidia nicht unter druck gesetzt werden.

Wie sollte das denn überhaupt gehen? Soll der Shadercompiler absichtlich überflüssige Instruktionen einfügen? Gibt es Indizien dafür dass so etwas jemals passiert ist? Nach dieser Logik würde es z.B. nicht vorkommen dass neue Karten die vorherige Generation extrem überflügeln. Und was ist sieht besser aus: bestmögliche Performance direkt zu haben, oder beim Release der Konkurrenz auf einmal Treiber herauszubringen die die Performance wettbewerbsfähig machen?

Dass jemand absichtliche Bremsen in Treiber einbaut halte ich für ziemlichen Blödsinn, bis jemand ernsthafte Belege für das Gegenteil erbringen kann.

Gast
2009-09-27, 00:00:20
[immy;7558313']nun, ich schätze mal das die speicherbandbreite trotz der hardwareverdopplung dann doch noch stark limitiert. man denke mal an die 4850 die um einiges schneller ist, sobald man den speicher höher taktet (bzw wenn man eine 4870 auf 4850 niveau heruntertaktet und den speichertakt aber so lässt).
Eben, RV770 war erst mit jenseits der 100 GB/s glücklich.
RV870 ist in praktisch allen Belangen doppelt so fett, bekommt aber fast kaum Mehrbandbreite.

Mir scheint das die 5870 mindestens 2 Limitierungen hat, einmal das Setup, andererseits die Bandbreite.

Gast
2009-09-27, 00:06:13
[immy;7558313']
ich schätze aber mal, das man diese bremse absichtlich noch nicht gelöst hat. zum einen kann man so später relativ einfach eine refresh generation rausbringen mit höher getaktetem speicher, wo die performance dann entsprechend ansteigen würde (z.B. um schnell auf die GT300 reagieren zu können) zum anderen spart man so derzeit einfach produktionskosten weil man den etwas günstigeren speicher nehmen kann, der wohl auch in größeren mengen zur verfügung steht.

Später wirds noch Karten geben das ist klar. Ich tippe auf eine 5890 mit 1/2GiB und 15% mehr Bandbreite.

Ebenfalls wird es bald die 5870 X2 geben, wir werden sehen wie sie schnell sie ist, wer weiß, vielleicht läuft das Setup ähnlich schnell, nur das drumherum wird beschnitten.
Beschnitten wirds, aus thermischen Gründen.

Leistung per Treiber aufzuheben ist unsinnig. Jetzt war der Launch, jetzt wurden Tests gemacht. Jetzt gilt es die Leute zu beeindrucken.
Zum GT300 muss mit neuen Mitteln gelockt werden.

Chris2CB
2009-09-27, 00:24:27
Absichtlich Leistung zurückhalten würde aber den Verkauf der 5870 stark schädigen, da die Leute dann lieber zur unwesentlich langsameren, aber deutlich günstigeren 5850 greifen. Wenn es wirklich am Treiber liegt, dann wohl eher, weil er noch zu unausgereift ist.

Ob die Karte am Speicher hängt ist schwer zu sagen. Dafür schlägt sie sich bei 8xMSAA etwas zu gut imho. Ausschließen kann man es natürlich nicht. In diesem Fall könnte ATI mit einem RV890 @320/384bit SI wirklich sehr gut nachlegen.


RV870 mit 153gb/s entspricht dem Verhältnis RV670 mit 128bit SI@875MHz, sicher wurde optimiert...aber irgendwo ist auch Schluss.

][immy
2009-09-27, 00:41:07
Leistung per Treiber aufzuheben ist unsinnig. Jetzt war der Launch, jetzt wurden Tests gemacht. Jetzt gilt es die Leute zu beeindrucken.
Zum GT300 muss mit neuen Mitteln gelockt werden.

der GT300 wird vermutlich so ausgelegt sein, das er die 5870 mühelos überholt. darauf werden die taktkarten etc ausgerichtet sein. da sich ati/amd der probleme die nvidia mit dem gt300 hat bewusst sind (ich meine jetzt die fertigung) wissen sie, das die taktraten also entsprechen "niedrig" angesetzt werden müssen, damit die ausbeute auch akzeptabel ist.
so gesehen wird das maß für die GT300 die 5870 sein. wenn man nun hingeht und kurz vor dem launch des GT300 einen neuen treiber veröffentlicht, mit dem die 5870 nochmal ordentlich zulegen könnte, würde man dem GT300 launch einiges an wind aus den segeln nehmen können.

die derzeitigen verkäufe würde eine solche "bremse" (z.B. in form von nicht implementierten optimierungen) nicht beeinflussen, da die karten so oder so schneller sind alls alle bisher erschienenen single-chip karten.

gerade ein launch treiber ist bei weitem nicht ausgereift. es ist nur die frage ob der jetzige treiber schon auf alles mögliche optimiert wurde, oder ob eine optimierte schnellere fassung zwar schon entwickelt, aber vielleicht erst zum gt300 launch herausgebracht wird.

SGT.Hawk
2009-09-27, 01:21:32
hm, aber in einige Reviews, z.B http://www.hartware.net/review_995.html ist doch knapp doppelt so schnell, damit ist doch bewiesen, daß keine zurückgehaltene Performancebremse existiert!(wenn man von der 4870 ausgeht)

y33H@
2009-09-27, 01:25:48
RV870 ist in praktisch allen Belangen doppelt so fett, bekommt aber fast kaum Mehrbandbreite.Nur die Taktrate und das SI ergeben ja nicht zwingend die Bandbreite. Komprimierungsoptimierungen, Caches usw. sind ja auch beteiligt. Und ganz offenbar ist die (rechnerische) Bandbreite nicht sooo limitierend, sonst wären mit sehr hohen Qualitätssettings nicht über 80% mehr Fps gegenüber einer HD4890 möglich.

Coda
2009-09-27, 02:03:13
Nicht unbedingt. Mit AF braucht man relativ gesehen weniger Bandbreite.

y33H@
2009-09-27, 02:41:25
Für AF weniger Bandbreite als eine HD4890?

CompuJoe
2009-09-27, 02:53:15
Auf der Platine scheint auch noch Platz für mehr Wandler zu sein wenn ich das richtig sehe.
Ich denke da kommt noch nen refresh mit mehr Power.

y33H@
2009-09-27, 03:12:57
1x GPU, ja. Vll für die H4890 *g*

Coda
2009-09-27, 03:14:27
Für AF weniger Bandbreite als eine HD4890?
Anders. Wenn man viel AF einsetzt ist die Bandbreitenlimitierung nicht so stark, daher ist auch der Vorteil von RV870 ggü. RV770 größer als sonst. Der Bottleneck ist dann eben woanders.

y33H@
2009-09-27, 03:15:27
Ach so meinst du das. OK =)

reunion
2009-09-27, 09:31:56
Bei Pixmania ist eine Sapphire 5870 sofort lieferbar, allerdings um gesalzene 389,99€:
http://www.pixmania.com/de/de/3722406/art/sapphire-technology/radeon-hd-5870-1-gb-gddr5.html?srcid=47&Partenaire=geizhals&CodePromo=oui

Gunslinger
2009-09-27, 10:29:20
Bei Pixmania ist eine Sapphire 5870 sofort lieferbar, allerdings um gesalzene 389,99€:
http://www.pixmania.com/de/de/3722406/art/sapphire-technology/radeon-hd-5870-1-gb-gddr5.html?srcid=47&Partenaire=geizhals&CodePromo=oui

Wer bei dem Preis kauft ist selber Schuld. Ich hoffe ich kann meine um 312,-- Euro vorbestellte Sapphire nächste Woche in Linz abholen. Zumindest Risen möchte ich ab release mit der 5870 spielen.

Gast
2009-09-27, 10:35:55
[immy;7558464']da sich ati/amd der probleme die nvidia mit dem gt300 hat bewusst sind (ich meine jetzt die fertigung) wissen sie, das die taktraten also entsprechen "niedrig" angesetzt werden müssen, damit die ausbeute auch akzeptabel ist.
Was für Fertigungsprobleme?
Nvidia nutzt den selben 40nm Prozess bei TSMC.

[immy;7558464']
so gesehen wird das maß für die GT300 die 5870 sein. wenn man nun hingeht und kurz vor dem launch des GT300 einen neuen treiber veröffentlicht, mit dem die 5870 nochmal ordentlich zulegen könnte, würde man dem GT300 launch einiges an wind aus den segeln nehmen können.
Halte ich für Unfug.
Zum GT300 Launch wird AMD bereits Hemlock gelauncht haben, ein CF Paket aus 2 niedrig getakteten 5870.
Der GT300 Launch kann gar nicht so senstationell werden, allerhöchstens für ein paar Querdenker, die meinen AFR sei nicht so toll wie angepriesen. Für die Querdenker hat AMD eine 5890.

Per Treiber zurückgehaltene Performance ist ein zu heißes Spiel mit dem Feuer.
Kann nach hinten losgehen, wenn die Tests die alten Testergebnisse einfach übernehmen oder den Wundertreiber nicht mehr rechtzeitig bekommen.

Bevor hier solche Wahnwitzigen Theorien aufgestellt werden möchte ich mal Beweise sehen, wann es den letzten Wundertreiber gab.
Mit der 7800 GTX? Mit 9700 Pro? 8800 GTX?

Advanced
2009-09-27, 10:36:57
Bei Pixmania ist eine Sapphire 5870 sofort lieferbar, allerdings um gesalzene 389,99€:
http://www.pixmania.com/de/de/3722406/art/sapphire-technology/radeon-hd-5870-1-gb-gddr5.html?srcid=47&Partenaire=geizhals&CodePromo=oui
Dann schau dir mal die Bewertungen bei Geizhals an... Nicht besonders gut.
Und am Schlechtesten wurden sie bei Verfügbarkeit und Lagerbestand bewertet.

Für den Preis würd ich nie und nimmer bei denen bestellen, die haben wahrscheinlich nichtmal Karten -.-

HarryHirsch
2009-09-27, 10:48:14
noch ca. 2 wochen dann wird es schön kühl

http://www.ekwaterblocks.com/uploads/images/5870_block.jpg

http://www.ekwaterblocks.com/uploads/images/5870_copper.jpg

mboeller
2009-09-27, 10:55:27
Ich verstehe richtig, daß ATI absichtlich Performance zurückhält, um später gegen GT300 die Performance freizuschalten?


Absichtlich bestimmt nicht, aber vielleicht handelt es sich um eine Beschränkung der hotfix 58x0-Treiber.

Gast
2009-09-27, 11:02:53
Vielleicht holt AMD noch 10%, mehr ist Blödsinn.

Es müssen ein paar mal mit dem Gedanken klar kommen, das auch bei AMD nicht immer alles bestens läuft.
Vielleicht haben sie sich verkalkuliert oder es ging etwas schief.
Im Endeffekt haben sie sich entschieden RV870 in dieser Form loszulassen. Die Fans werden sich am RV890 festklammern, der diesen Fehler bereinigt.

Nvidia hat mit GT200 auch nicht das theoretisch mögliche erreicht, dennoch haben sie sich entschieden ihn loszulassen, nicht weiter auf GT200b zu warten.
Also kommt mal klar Jungs, es gibt keine versteckte Performance die freigeschaltet wird. Es gibt auch kein Powerplay bei der HD4, das nachträglich freigeschaltet wurde.

Gast
2009-09-27, 11:09:18
Was für Fertigungsprobleme?
Nvidia nutzt den selben 40nm Prozess bei TSMC.


und was hat das zu sagen, nüx!? nv hat aber nicht die gleiche gpu

Gast
2009-09-27, 12:04:48
und was hat das zu sagen, nüx!? nv hat aber nicht die gleiche gpu
Und weils Nvidia ist, läuft alles beschissen?

Merkst was, ich habe gefragt "was für Fertigungsprobleme".

Gast
2009-09-27, 12:21:30
Und weils Nvidia ist, läuft alles beschissen?

Merkst was, ich habe gefragt "was für Fertigungsprobleme".

yield der nvs ist mies, das solltest eigentlich wissen ;)

Grestorn
2009-09-27, 12:32:59
...so wird aus einem Gerücht, das letztlich auf einem Missverständnis beruht, eine Tatsache...

Jaja, das Internet.

Gast
2009-09-27, 12:40:47
yield der nvs ist mies, das solltest eigentlich wissen ;)
Sagt wer außer Charlie. :rolleyes:

Charlie der nicht mal weiß wann der Tape-out war, obwohl er es behauptet.
Charlie weiß sogar vorm Tape-out die Yield und tut so als ob es irgend eine Bewandnis hätte, für den Launch im Winter.

HD-Ronny
2009-09-27, 12:44:31
Ich finde die 5850 viel interessanter wenn ich mir die preisdifferenz zur 5870 ansehe. Bei computerbase sieht die simulierte 5850 auch gar nicht schlecht aus, mit etwas oc ist man locker auf 5870 Niveau. Werde mir mal eine bestellen.

reunion
2009-09-27, 12:46:36
Ich finde die 5850 viel interessanter wenn ich mir die preisdifferenz zur 5870 ansehe. Bei computerbase sieht die simulierte 5850 auch gar nicht schlecht aus, mit etwas oc ist man locker auf 5870 Niveau. Werde mir mal eine bestellen.

Die 5850 ist sogar gut 10% schneller als die simulierte bei CB.

Gast
2009-09-27, 12:52:12
Die 5850 ist sogar gut 10% schneller als die simulierte bei CB.
Im besten Fall sind 10%, im schlechtesten 0%.
Schon klar das du das "gut" und nicht "maximal" nennst.

S940
2009-09-27, 13:16:48
Ich finde die 5850 viel interessanter wenn ich mir die preisdifferenz zur 5870 ansehe. Bei computerbase sieht die simulierte 5850 auch gar nicht schlecht aus, mit etwas oc ist man locker auf 5870 Niveau. Werde mir mal eine bestellen.
So siehts aus, der Witz ist dann noch, dass die 5850er ja viel schlechter getaktet ist. Bin mir nicht sicher, ob das wirklich schlechtere Dies sind, ich mutmaße, dass das Übertaktungspotential in jedem Fall nicht schlecht sein sollte.

Asus liefert auch gleich ne OC Version und gibt 3DMark Werte an:
Unter Testbedingungen ist es ASUS zumindest gelungen eindrucksvolle Ergebnisse zu erreichen: 9.252 gegenüber den Standardmäßigen 8.087 Punkte im 3DMark Vantage Extreme-Preset der Radeon HD 5870 stehen 8.987 statt 6.501 Punkte der Radeon HD 5850 gegenüber.
http://www.radeon3d.org/index/ati_grafikkarten/september_2009/asus_hd_5850_und_5870_mit_voltage_tweak_technology/
Sicherlich Laborbedingungen, aber wahrscheinlich wird der Zuwachs schon größer für die 50er ausfallen.

ciao

Alex

reunion
2009-09-27, 13:27:11
So siehts aus, der Witz ist dann noch, dass die 5850er ja viel schlechter getaktet ist. Bin mir nicht sicher, ob das wirklich schlechtere Dies sind, ich mutmaße, dass das Übertaktungspotential in jedem Fall nicht schlecht sein sollte.

Asus liefert auch gleich ne OC Version und gibt 3DMark Werte an:

http://www.radeon3d.org/index/ati_grafikkarten/september_2009/asus_hd_5850_und_5870_mit_voltage_tweak_technology/
Sicherlich Laborbedingungen, aber wahrscheinlich wird der Zuwachs schon größer für die 50er ausfallen.

ciao

Alex

Ja, weil bei RV870 offensichtlich das Setup limitiert und damit der Chiptakt das entscheidende ist. Die zwei weniger Cluster bei der 5850 scheinen sich kaum auszuwirken.

Gast
2009-09-27, 13:28:55
die 5850 wird ja verramscht, wenn die nur um 200 kommt, da sind 100 aufpreis zur 5870 ja induskutabel

250 wäre für amd anfangs besser gewesen, zumal die karte in der herstellung exakt das gleiche kostet, wie die 5870, grad wenn man die 285er dagegen stellt

=Floi=
2009-09-27, 13:30:33
die karte geht dann so übertaktet nach einem monat ein... vergesst solche zahlen einfach. das kann man garnicht mehr richtig kühlen.

Gast
2009-09-27, 13:35:07
die karte geht dann so übertaktet nach einem monat ein... vergesst solche zahlen einfach. das kann man garnicht mehr richtig kühlen.


auf jeden bei der spannungserhöhung fliest da mal locker der doppelte strom :o
rma-abteilung ahoi

Cpl. Dwayne Hicks
2009-09-27, 13:36:04
Wieso limitiert das setup eigentlich so im RV870? Die SP und TMUs wurden verdoppelt und die rasterizer dementsprechend auch, wo genau steckt da das Problem? (Das ist jetzt uebrigens keine rhetorische Frage)

S940
2009-09-27, 13:44:46
die karte geht dann so übertaktet nach einem monat ein... vergesst solche zahlen einfach. das kann man garnicht mehr richtig kühlen.
Lol, ja klar, aber z.B. auf 5870er Werten sollte man ja keine Probleme haben, solange der 50er Kühler nicht schlechter ist.

cipoint
2009-09-27, 13:58:37
Wird die HD5850 auch vier Spannungswandler haben?

reunion
2009-09-27, 14:28:01
AMD: Mit HD 5000 noch Asse im Ärmel
http://www.hardware-infos.com/news.php?news=3221

ShadowXX
2009-09-27, 14:37:53
AMD: Mit HD 5000 noch Asse im Ärmel
http://www.hardware-infos.com/news.php?news=3221
Naja.

Bessere Treiber

Das ist normal, kein "Ass"....aber wie schon erwähnt: ob ich 20 oder 23 FPS habe macht den Kohl nicht fett.

DirectX 11-Titel

Auch die nV Karte wir davon profitieren.

Höhere Taktraten

Aber eben nur wenn man sich dann die dementsprechende Karte kauft.

Insgesamt etwas mager für "Asse im Ärmel". Und auch irgendwie alle nicht besonders HD5000 spezifisch...

LovesuckZ
2009-09-27, 14:40:22
Den Artikel kann jeder selbst schreiben - selbst ohne "Insider-Informationen".
Lustig ist der letzte Punkt. Man ist jetzt bei angegebenen 188 Watt. Und da wollen sie Karten mit höhrerer Spannung und Taktraten rausbringen? Wozu dann noch x2 Karten...

AnarchX
2009-09-27, 14:45:40
Ich frage mich wirklich warum so ein Trash verlinkt wird, gerade der letzte Absatz im Bezug auf die Asus Voltage Tweak Karten zeigt wie mangelhaft die Recherche geführt wurde.

Von 1.15V auf 1.35V sind alles andere als problemlos und die Übertaktung wird von Asus ganz klar mit "up to" bezeichnet.

Gast
2009-09-27, 14:51:13
Ab wann gibt es denn die 5850 in Stückzahlen?

tombman
2009-09-27, 14:58:01
Von 1.15V auf 1.35V sind alles andere als problemlos und die Übertaktung wird von Asus ganz klar mit "up to" bezeichnet.
Grakas reagieren sogar stärker auf vcore Erhöhung als Cpu, weil die Chips so groß sind. Werden einfach sauheiß...

BvB123
2009-09-27, 15:11:27
Nein.

tombman
2009-09-27, 15:21:56
Falls du meinst, daß die physikalischen Gesetze bei CPU und GPU gleich sind, hast du Recht, aber Cpus sind einfach kleiner und werden nicht so heiß...bei ner heutigen HighEnd GPU den Vcore um 0.2v anheben ist einfach schwer zu kühlen.

Gast
2009-09-27, 15:35:34
Naja, so groß ist der unterscheid jetz auch nicht. Außerdem sind große Chips ja wie bekannt einfachher zu kühlen ;)

cipoint
2009-09-27, 20:39:35
Naja, so groß ist der unterscheid jetz auch nicht. Außerdem sind große Chips ja wie bekannt einfachher zu kühlen ;)

Nicht, wenn sie durch eben diese Größe mehr Strom ziehen ... Es hängt nicht von der Größe des Chips ab, wie groß der Kühler und wie schnell der Lüfter sein soll, sondern alleine von der Verlustleistung des Chips.

Ich habe mal die Annahme gemacht, dass der elektrische Widerstand der GPU unter Last unabhängig von der Spannung ist (sprich Ohmscher Widerstand). Durch die Steigerung von vGPU auf 1.35Volt und dem Takt auf 1GHz bekomme ich etwa 325Watt raus, wobei ich von 200Watt für HD5870@stock ausgehe. Das ist für Single-GPU mit nichts zu rechtfertigen. Jedoch bin ich mir nicht sicher, wie sich so hochgetaktete Halbleiter verhalten. Ich könnte mir vorstellen, dass der Widerstand von der Spannung abhängt. Zudem muss ATI den RV870 ja nicht unbedingt auf 1,Volt jagen, vielleicht reichen auch 1,3 oder gar 1,25Volt aus.

btw: Durch den RV870 fließen unter Furmark um die 170Ampere, krass ... ! :eek:

Gast
2009-09-27, 21:06:24
Furmark um die 170Ampere, krass ... ! :eek:
Nene, das gilt für die ganze Karte.
Gibt noch VRAM und am Anfang die Spannungsversorgung.

GPUz liest z.b. bei einigen Karten den GPU Strom aus.
Nicht das 90 Ampere weniger beeindruckend sind. ;)

cipoint
2009-09-27, 22:01:03
Nene, das gilt für die ganze Karte.
Gibt noch VRAM und am Anfang die Spannungsversorgung.

GPUz liest z.b. bei einigen Karten den GPU Strom aus.
Nicht das 90 Ampere weniger beeindruckend sind. ;)

Dann muss ich auch meine Schätzung ändern ... die bezieht sich ja auf den Verbrauch der ganzen Karte. Hätte nicht gedacht, dass die GPU nur ca. 50% ausmacht. Woher hast du die 90 Ampere? Wäre mir neu, dass auf Grafikkarten Strommesser sind. Könnte aber sein, dass die digitalen Spannungswandler sich auslesen lassen. Bei denen muss der Strom ja prinzipbedingt ständig gemessen werden.

Wenn der RV870 90 Ampere zieht, hat er eine Leistung von etwa 100 Watt, was wiederum bedeutet, dass die restlichen 100 Watt vom VRAM, den Spannungswandlern und dem Rest kommen. Dann steigt die Leistung bei einem RV870@1GHz/1,35V um "gerade einmal" 40 Watt. Der Speicher wird aber sicher auch höher getaktet. Also kommt man auf etwa 250 Watt. Das ist doch noch gut kühlbar ... :freak:

Gast
2009-09-27, 23:16:58
Die 90 oder 80? Ampere habe ich aus meiner übertakteten GTX 280.

Deine Theorie mit den 40W bei höherer Spannung und höherem GPU Takt haut nicht ganz hin, du hast die Spawas vergessen.
Außerdem zeigt die Erfahrung, das mit höherer Spannung die Leistung vervierfacht wird.
Z.B. hier: http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index9.php

Chris2CB
2009-09-27, 23:24:03
Hier im Forum, bei der Vorstellung von den Spec. wurden bis 110A angegeben für RV870.

Gast
2009-09-27, 23:31:07
Macht bei 1,15V 127W. Das ist Hausnummern unter der Gesamtleistung. Interessant das soviel in den Rest fliesst.

Mich würde mal der Wirkungsgrad der Spannungsversorgung interessieren.
Analoge VRMs sollen besser als digitale VRMs sein, wie gut sind die einzelnen jetzt konkret?

Noebbie
2009-09-28, 00:03:59
Ist es realistisch, dass die Karten diese Woche mal in "Stückzahlen" verfügbar sind? Oder wird das wirklich erst was gegen ende nächster Woche? :(

dildo4u
2009-09-28, 00:12:56
Risen im Grafikkarten-Benchmark-Test - Radeon HD 5870 vorne

http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne/Rollenspiel-Adventure/Test/

SGT.Hawk
2009-09-28, 00:21:18
Na, das sieht ja mal richtig gut aus für die neue ATI.:up:

AnarchX
2009-09-28, 00:22:53
Risen im Grafikkarten-Benchmark-Test - Radeon HD 5870 vorne

http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne/Rollenspiel-Adventure/Test/

Die Leistungsunterschiede 3870 -> 4870 -> 5870 sehen hier aber etwas sonderbar aus? :|

PulsarS
2009-09-28, 00:24:21
Risen im Grafikkarten-Benchmark-Test - Radeon HD 5870 vorne

http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne/Rollenspiel-Adventure/Test/
Sehr beeindruckend.
Risen scheint ja extrem ALU-limitiert zu sein.
Aber kein Wunder, wenn man bedenkt, dass Risen über 2000 Shader einsetzt.

mapel110
2009-09-28, 00:28:06
Die Leistungsunterschiede 3870 -> 4870 -> 5870 sehen hier aber etwas sonderbar aus? :|
Eben, auch bei nvidia sieht das nicht gerade homogen aus mit der alten Generation. Da kommt sicher noch was mit neuen Treibern.

Sorkalm
2009-09-28, 00:54:44
Oder das hat was mit den internen Überarbeitungen der Einheiten zu tun...

Gast
2009-09-28, 01:15:15
Ohne AA...bei Nvidia soll AA ja funktionieren laut der letzten PCGH

Gast
2009-09-28, 02:03:17
Reicht ein Enermax Liberty 400W Netzteil eigentlich für eine 5870?

CPU C2D E8600@4GHz, 2 HDD, 1 DVD, Soundkarte

mapel110
2009-09-28, 02:38:42
Reicht ein Enermax Liberty 400W Netzteil eigentlich für eine 5870?

CPU C2D E8600@4GHz, 2 HDD, 1 DVD, Soundkarte
Kann imo etwas eng werden mit einer stark übertakteten CPU, aber sollte reichen.

=Floi=
2009-09-28, 03:29:22
risen ist nicht alu limitiert, da sonst die 4890er auch besser abschneiden müsste im vergleich zu den karten von nv. bei der 5870er wäre es dann ganz aus, weil diese dann 2,5X schneller als die 285er wäre.

gibt es nun benchmarks, wo die shaderleistung wirklich zum tragen kommt?

|-Sh0r7y-|
2009-09-28, 06:40:14
Was mich an der neuen Radeon am meisten Stört ist der nur 1GB große Speicher...
Ich will min. 1,8GB Speicher für extrem Hohe Auflösung, AA und GTA 4 @ Max Settings ohne Config Tricks.

tombman
2009-09-28, 06:47:17
Jo, 1Gb für HD5870 ist Schwachsinn pur...

MR2
2009-09-28, 09:44:43
http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne/Rollenspiel-Adventure/Test/

Welche Karte ist die richtige für Risen? Ganz klar die brandneue Radeon HD 5870. Die Vorgängerin HD 4890 wird durchgehend um stolze 76 Prozent geschlagen, Nvidias schnellste Single-GPU-Karte GTX 285 lässt die DX11-Radeon um satte 56-58 Prozent hinter sich.


Schade das die DualKarten nicht dabei sind.

PCGH_Raffael
2009-09-28, 09:58:06
Aber kein Wunder, wenn man bedenkt, dass Risen über 2000 Shader einsetzt.

... und dass kein (bandbreitenfressendes) MSAA aktiv ist. ;) Die reine GPU-Leistung ist eben Faktor 2 ggü. RV7x0.

Ohne AA...bei Nvidia soll AA ja funktionieren laut der letzten PCGH

Jo, aber Vergleichsbenchmarks sind nur ohne AA fair.

MfG,
Raff

AnarchX
2009-09-28, 10:03:35
... und dass kein (bandbreitenfressendes) MSAA aktiv ist. ;) Die reine GPU-Leistung ist eben Faktor 2 ggü. RV7x0.

Und wo bleibt der Faktor 2(+) bei 3870 zu 4870 und bei 9600 GT zur GTX 285?
Die Skalierung von 1280x1024 zu 1920x1200 ist auch etwas sonderbar, sodass die Karten bis auf die 5870 stärker cpu-limitiert wirken.

Habt ihr vielleicht nur die 5870 mit Windows 7 getestet? ;)

PCGH_BenchMarc
2009-09-28, 10:25:04
Die Skalierung von 1280x1024 zu 1920x1200 ist auch etwas sonderbar, sodass die Karten bis auf die 5870 stärker cpu-limitiert wirken.Die Werte sehen tatsächlich etwas merkwürdig aus, sind aber mehrfach geprüft, an denen ändert sich nichts. Mein Kollege hat auf einem anderen System im Rahmen der Messungenauigkeit identische Werte mit einer schwächeren CPU (QX6850) erzielt, der Bench ist ziemlich GPU-lastig. Eine CPU-Limitierung einer GTX285 etwa schließe ich aus. Ich stelle das Save gerne zur Verfügung, dann gibts zum Release einen Bench-Thread =)

cipoint
2009-09-28, 10:33:29
Macht bei 1,15V 127W. Das ist Hausnummern unter der Gesamtleistung. Interessant das soviel in den Rest fliesst.

Mich würde mal der Wirkungsgrad der Spannungsversorgung interessieren.
Analoge VRMs sollen besser als digitale VRMs sein, wie gut sind die einzelnen jetzt konkret?

Um die 85% unte Last, +-5% ...

Chris2CB
2009-09-28, 10:34:12
Die Werte sehen tatsächlich etwas merkwürdig aus, sind aber mehrfach geprüft, an denen ändert sich nichts. Mein Kollege hat auf einem anderen System im Rahmen der Messungenauigkeit identische Werte mit einer schwächeren CPU (QX6850) erzielt, der Bench ist ziemlich GPU-lastig. Eine CPU-Limitierung einer GTX285 etwa schließe ich aus. Ich stelle das Save gerne zur Verfügung, dann gibts zum Release einen Bench-Thread =)


Euch muss doch aber selbst auffallen das hier etwas nicht stimmen kann, 3870 - 4870= +7fps, 4870 - 4890= +4fps, aber von 4870 - 5870 +30fps.

Ansich sieht das alles halbwegs schlüssig aus, bis auf den Punkt das 3870 und 9600gt zu schnell sind.

PCGH_Raffael
2009-09-28, 10:36:27
Natürlich ist uns das aufgefallen, aber das Spiel performt nun mal zum jetzigen Zeitpunkt so schräg. Es scheint ja mittlerweile in Mode zu sein, dass Spiele nicht nur buggy as hell sind, sondern auch die Grafiktreiber zum Start eigenartige Dinge fabrizieren (siehe NFS Shift).

MfG,
Raff

Gast
2009-09-28, 10:47:48
Euch muss doch aber selbst auffallen das hier etwas nicht stimmen kann, 3870 - 4870= +7fps, 4870 - 4890= +4fps, aber von 4870 - 5870 +30fps.

Ansich sieht das alles halbwegs schlüssig aus, bis auf den Punkt das 3870 und 9600gt zu schnell sind.

Raster-Limit?

LolekDeluxe
2009-09-28, 13:54:28
Wann kommen nun echte Preview's der HD 5850.
Ich will endlich wissen wie nah die 5850 mit 850 Mhz Gpu takt an die 5870 kommt?:biggrin:

35007
2009-09-28, 14:04:21
Wann kommen nun echte Preview's der HD 5850.
Ich will endlich wissen wie nah die 5850 mit 850 Mhz Gpu takt an die 5870 kommt?:biggrin:

vorsicht, diese Aussage war falsch und wurde weiter unten korrigiert
Wird auf jeden fall spannender als bei den vorherigen xx50 Launches. Die Faktisch höheren Taktraten der x50 gegenüber der x70 lassen mich gespannt warten.

Außerdem interessiert mich der Stromverbrauch gegenüber seinem größeren Pendant, da für mich unklar ist, ob die höheren Taktraten durch das abschalten vorhandener Einheiten die energiebilanz kompensieren.

Grüße
35007

PCGH_BenchMarc
2009-09-28, 14:05:31
Die Faktisch höheren Taktraten der x50 gegenüber der x70 lassen auf mich persönlich gespannt warten.Wie meinst du das?

Raff
2009-09-28, 14:07:20
Wann kommen nun echte Preview's Reviews der HD 5850.

Es kann sich nur noch um wenige Tage handeln. ;)

MfG,
Raff

35007
2009-09-28, 14:08:51
Wie meinst du das?

Maybe bringe ich hier etwas durcheinander, aber ich erinnere mich gehört zu haben, dass die x50 deaktivierte Einheiten hat, jedoch einen höheren GPU Takt besitzt.

Lass mich nochmal schnell googlen oder kläre mich auf!

LolekDeluxe
2009-09-28, 14:11:46
Maybe bringe ich hier etwas durcheinander, aber ich erinnere mich gehört zu haben, dass die x50 deaktivierte Einheiten hat, jedoch einen höheren GPU Takt besitzt.

Lass mich nochmal schnell googlen oder kläre mich auf!
Ja da hast Du was durcheinander gebracht.

5850 - 1440 x 725Mhz
5870 - 1600 x 850Mhz

35007
2009-09-28, 14:18:04
Ja da hast Du was durcheinander gebracht.

5850 - 1440 x 725Mhz
5870 - 1600 x 850Mhz

Danke für die Information! Bevor ich hier falsche Angaben spreade markiere ich den Post als fehlerhaft.

Grüße
35007

Noebbie
2009-09-28, 15:40:27
Nochmal kurz für mich:

Die 5850 ist eine "defekte" bzw. eine teils deaktivierte 5870, oder?

PulsarS
2009-09-28, 15:43:49
Jo, 1Gb für HD5870 ist Schwachsinn pur...
Sehe ich auch so.
Selbst der 5850 sollte man 2 Gb verpassen.

grobi
2009-09-28, 15:49:59
Sehe ich auch so.
Selbst der 5850 sollte man 2 Gb verpassen.


Dann sag doch mal aus welchem Grund genau 1Gb Vram nicht reichen. :rolleyes:

mfg grobi

LolekDeluxe
2009-09-28, 16:01:13
Sehe ich auch so.
Selbst der 5850 sollte man 2 Gb verpassen.
Für den Preis sind 1 GB bei der 5850 voll Inordung.
Bei der 5870 finde ich würden 2 GB bei dem saftigen Aufpreis besser Passen.

35007
2009-09-28, 16:05:11
Langsam kommen wir in GPU-Speicherausbau Regionen, in denen ein x64 Betriebssystem dringend vonnöten wird.

Spätestens wenn jede Graka 1GB Speicher besitzt, denke ich werden die OEM Hersteller gezwungen sein, x64 Systeme per Default einzusetzen.

Grüße
35007

deekey777
2009-09-28, 16:18:50
...
http://www.pcper.com/article.php?aid=783&type=expert&pid=7
Batman scheint den Radeons überhaupt nicht zu liegen.



http://blogs.amd.com/play/2009/09/11/ati-catalyst-99-driver-everything-you-want-to-know-and-why-you-should-care/#comment-1630

Batman: Arkham Asylum
In this game, Nvidia has an in-game option for AA, whereas, gamers using ATI Graphics Cards are required to force AA on in the Catalyst Control Center.

The advantage of in-game AA is that the engine can run AA selectively on scenes whereas Forced AA in CCC is required to use brute force to apply AA on every scene and object, requiring much more work.

Additionally, the in-game AA option was removed when ATI cards are detected. We were able to confirm this by changing the ids of ATI graphics cards in the Batman demo. By tricking the application, we were able to get in-game AA option where our performance was significantly enhanced. This option is not available for the retail game as there is a secure rom.

To fairly benchmark this application, please turn off all AA to assess the performance of the respective graphics cards. Also, we should point out that even at 2560×1600 with 4x AA and 8x AF we are still in the highly playable territory …
Hm...

reunion
2009-09-28, 16:22:16
http://blogs.amd.com/play/2009/09/11/ati-catalyst-99-driver-everything-you-want-to-know-and-why-you-should-care/#comment-1630


Hm...

Tja, NV bezahlt eben für eine Benachteiligung der AMD-Kunden. Ist ja nichts neues mehr, PhysX erfüllt denselben Zweck.

LovesuckZ
2009-09-28, 16:26:34
Was hat PhysX mit diesem AA Gebähren zu tun? Immerhin hat nVidia hier Geld bezahlt, um PhysX überhaupt aufkaufen zu können. Aber als AMD User mit einer AMD Grafikkarte denkt man wohl, dass man alles haben müsste.

desert
2009-09-28, 16:28:20
Langsam kommen wir in GPU-Speicherausbau Regionen, in denen ein x64 Betriebssystem dringend vonnöten wird.

Spätestens wenn jede Graka 1GB Speicher besitzt, denke ich werden die OEM Hersteller gezwungen sein, x64 Systeme per Default einzusetzen.

Grüße
35007

Wieso? Das ist ein ganz anderer Adressbereich. ich kann z.b. trotz 1gb grafikarte irgendwas um die 3,5 gb nutzen. Daran ändert eine 2 gb oder auch 4gb karte nichts.

35007
2009-09-28, 16:42:37
Wieso? Das ist ein ganz anderer Adressbereich. ich kann z.b. trotz 1gb grafikarte irgendwas um die 3,5 gb nutzen. Daran ändert eine 2 gb oder auch 4gb karte nichts.

Ok, gut zu wissen. Fail 2.0 in diesem Thread. Könnt Ihr mir noch Links zu genau diesem Issue geben, damit ich mich etwas spezifischer informieren kann?

Grüße
35007

cipoint
2009-09-28, 16:43:21
Wieso? Das ist ein ganz anderer Adressbereich. ich kann z.b. trotz 1gb grafikarte irgendwas um die 3,5 gb nutzen. Daran ändert eine 2 gb oder auch 4gb karte nichts.

Ich wundere mich auch immer wieder, wie manche den VRAM mit der Addressierung der CPU in einen Zusammenhang bringen. :freak:

reunion
2009-09-28, 16:44:52
Was hat PhysX mit diesem AA Gebähren zu tun? Immerhin hat nVidia hier Geld bezahlt, um PhysX überhaupt aufkaufen zu können. Aber als AMD User mit einer AMD Grafikkarte denkt man wohl, dass man alles haben müsste.

Ich habe geschrieben "erfüllt denselben Zweck", nicht "hat etwas damit zu tun". Auch bei GPU-PhysX ist die CPU-Alternative einfach grottenschlecht umgesetzt um AMD zu benachteiligen. Ich werfe ihnen nicht vor das sie etwas investiert haben, ich werfe ihnen vor das sie ihre Ziele nicht durch tolle Technik, sondern durch Benachteiligungen der Konkurrenz erreichen. Soweit sollte es nicht kommen dürfen. Und nein ich bin kein AMD-User und habe keine AMD-Grafikkarte.

LovesuckZ
2009-09-28, 16:51:46
Ich habe geschrieben "erfüllt denselben Zweck", nicht "hat etwas damit zu tun". Auch bei GPU-PhysX ist die CPU-Alternative einfach grottenschlecht umgesetzt um AMD zu benachteiligen.

Und das hat genau was mit nVidia zu tun? :confused:
Sollen sich doch AMD und Intel darum kümmern, dass die Programmierer Unterstützung für ihre CPUs erhalten.


Ich werfe ihnen nicht vor das sie etwas investiert haben, ich werfe ihnen vor das sie ihre Ziele nicht durch tolle Technik, sondern durch Benachteiligungen der Konkurrenz erreichen.

GPU-PhysX ist Zielerreichung durch "tolle Technik".
Vielleicht sollte man einfach als AMD-Liebhaber anfangen die Firma zu kritisieren, die man so gern hat. Denn nVidia benachteiligt mit GPU-PhysX bestimmt nicht AMD, wenn AMD überhaupt nichts in die Richtung unternimmt. :rolleyes:

S940
2009-09-28, 16:53:36
Was hat PhysX mit diesem AA Gebähren zu tun? Immerhin hat nVidia hier Geld bezahlt, um PhysX überhaupt aufkaufen zu können.
Ja und für das ingame AA zahlen sie nun auch Geld :cool:

reunion
2009-09-28, 16:56:52
Vielleicht sollte man einfach als AMD-Liebhaber anfangen die Firma zu kritisieren, die man so gern hat.

Zumindest sollte man selbst als noch so verblendeter NV-"Liebhaber" derlei Praxis wie hier mit dem AA aufs schärfste kritisieren. Aber bei dir ist ohnehin Hopfen und Schmalz verloren.

LovesuckZ
2009-09-28, 17:01:50
Ja und für das ingame AA zahlen sie nun auch Geld :cool:

Das war wohl eher ein Freundschaftsbeweis von dem Entwickler. :biggrin:

Gast
2009-09-28, 17:14:37
Tja, NV bezahlt eben für eine Benachteiligung der AMD-Kunden. Ist ja nichts neues mehr, PhysX erfüllt denselben Zweck.
"The advantage of in-game AA is that the engine can run AA selectively on scenes"
CAN. Nicht "does". :-)
Großer Unterschied.

Gast
2009-09-28, 17:15:57
Den Artikel kann jeder selbst schreiben - selbst ohne "Insider-Informationen".
Lustig ist der letzte Punkt. Man ist jetzt bei angegebenen 188 Watt. Und da wollen sie Karten mit höhrerer Spannung und Taktraten rausbringen? Wozu dann noch x2 Karten...

wer will den microruckler?


Nein.

doch, tomb hat recht, da wesentlich mehr transistoren ;)

Nicht, wenn sie durch eben diese Größe mehr Strom ziehen ... Es hängt nicht von der Größe des Chips ab, wie groß der Kühler und wie schnell der Lüfter sein soll, sondern alleine von der Verlustleistung des Chips.

Ich habe mal die Annahme gemacht, dass der elektrische Widerstand der GPU unter Last unabhängig von der Spannung ist (sprich Ohmscher Widerstand). Durch die Steigerung von vGPU auf 1.35Volt und dem Takt auf 1GHz bekomme ich etwa 325Watt raus, wobei ich von 200Watt für HD5870@stock ausgehe. Das ist für Single-GPU mit nichts zu rechtfertigen. Jedoch bin ich mir nicht sicher, wie sich so hochgetaktete Halbleiter verhalten. Ich könnte mir vorstellen, dass der Widerstand von der Spannung abhängt. Zudem muss ATI den RV870 ja nicht unbedingt auf 1,Volt jagen, vielleicht reichen auch 1,3 oder gar 1,25Volt aus.

btw: Durch den RV870 fließen unter Furmark um die 170Ampere, krass ... ! :eek:

mit ohmschem gesetz kommts du da nicht weit, schau dir mal ne diodenkennlinie an, exponentiell nicht linear

Jo, 1Gb für HD5870 ist Schwachsinn pur...

den vram-bug hat doch nvidia, von daher ist das doch nich so schlimm

Gast
2009-09-28, 17:26:04
doch, tomb hat recht, da wesentlich mehr transistoren ;)



Und? Der verbrauch steigt trotzdem quadratisch zur spannung..

S940
2009-09-28, 17:44:58
Das war wohl eher ein Freundschaftsbeweis von dem Entwickler. :biggrin:
Klar, wenn ich Geld bekäme wäre ich dem edlen Spender auch freundlich gesonnen :freak:

KonKorT
2009-09-28, 17:53:53
Ich frage mich wirklich warum so ein Trash verlinkt wird, gerade der letzte Absatz im Bezug auf die Asus Voltage Tweak Karten zeigt wie mangelhaft die Recherche geführt wurde.
AMD hat im Gespräch mitgeteilt, dass mit mehr Spannung 1 GHz und mehr kein Problem seien. Soweit so gut.
Der letzte Satz untermauert dies einfach nur noch mal an den angekündigten Asus-Karten, die eben mit erhöhter Spannung und über 1 GHz Chiptakt laufen. Wie stark die Erhöhung der Versorgungsspannung bei den Asus-Karten genau ausfällt, ist für diesen Artikel irrelevant, weil AMD ja auch keine genauen Angaben hinterlassen hat, und zeugt meiner Meinung nach nicht von schlechter Recherche.

sklave_gottes
2009-09-28, 18:07:37
Jo, 1Gb für HD5870 ist Schwachsinn pur...


Die 896 MB einer GTX 295 noch 3 mal mehr :-)

Finde der HD5850 stehen die 1GB Speicher sehr gut. Bei der HD5870 sollte/wird es zum glück auch eine 2GB Variante geben.

mfg martin

Gast
2009-09-28, 18:36:51
Wie ist dann eigentlich mit Bandbreiten/-Verbrauch/und dem Mehrspeicher.

Kann mann das dann noch überhaupt vernünftig füttern?

Prof. Karten haben zwar eine Bandbreite die in der Regel zum Speicherausbau auch gering ausfällt aber das ist was andres als bei Gamerkarten. Und da sehen die ATI JETZT schon nicht sehr üppig aus, da vollbringt auch ein Speicher +100-150 Mhz keine Wunder.

Zumal _hätten_ die Karten ein Breiteres Interface würde bei gleich schnellerem Speicher absolut mehr Bandbreite dazukommen ........ hmm......384 bit SI 4890 m. 1,5/3GB?

Gast
2009-09-28, 18:41:42
Und? Der verbrauch steigt trotzdem quadratisch zur spannung..

falsch, da mit steigender anzahl an transitoren 1. temp-abhängigkeit zunimmt 2. mehr parasitäre effekte 3. mehr kapazitäten 4. grössere beeinflussung der bauteile und schaltungen untereinander

tombman
2009-09-28, 18:42:14
Die 896 MB einer GTX 295 noch 3 mal mehr :-)

Wie lang ist die 295er auf dem Markt? ;)

JETZT würde ich kein highend unter 2GB nutzbar mehr kaufen ;)

darkcrawler
2009-09-28, 18:43:59
Wie lang ist die 295er auf dem Markt? ;)

JETZT würde ich kein highend unter 2GB nutzbar mehr kaufen ;)

sag doch gleich, du würdest nie ati kaufen ;)

tombman
2009-09-28, 19:18:09
sag doch gleich, du würdest nie ati kaufen ;)
Ich hatte schon ATI, auch im CF- solltest du laut deinem Reg-Datum aber wissen ;)

darkcrawler
2009-09-28, 19:21:55
Ich hatte schon ATI, auch im CF- solltest du laut deinem Reg-Datum aber wissen ;)

da warste noch jung und brauchtest das geld :freak: ;D

Gast
2009-09-28, 19:24:01
Langsam kommen wir in GPU-Speicherausbau Regionen, in denen ein x64 Betriebssystem dringend vonnöten wird.

Spätestens wenn jede Graka 1GB Speicher besitzt, denke ich werden die OEM Hersteller gezwungen sein, x64 Systeme per Default einzusetzen.

Grüße
35007Eigentlich ist es genau andersrum:
Wenn der GPU der VRAM ausgeht, muss sie ins SystemRAM auslagern. Also braucht man ein 64bit-OS dringender, wenn der GPU vergleichsweise wenig VRAM zur Verfügung steht, denn für die aus dem VRAM ausgelagerten Daten brauchts sowohl CPU-Addressraum als auch SystemRAM. Mit viel VRAM lässt sich daher der Umstieg auf 64bit-OS eher herauszögern als dass er forciert würde.

SGT.Hawk
2009-09-28, 20:25:16
Das ist doch irrelevant, für den Fall, daß es auftritt, ist es egal. ob 32 bit oder 64. Flüssig wirds auf beiden nicht laufen.

samm
2009-09-28, 20:38:03
http://blogs.amd.com/play/2009/09/11/ati-catalyst-99-driver-everything-you-want-to-know-and-why-you-should-care/#comment-1630

Hm...Darf man das? Ein theoretisch vorhandenes und problemlos unterstütztes Feature per Hersteller-Erkennung einfach weglassen? Klingt für mich völlig daneben :mad: Das Game interessiert mich nicht, aber solches Vorgehen gehört bestraft.

Gast
2009-09-28, 20:43:08
Das ist doch irrelevant, für den Fall, daß es auftritt, ist es egal. ob 32 bit oder 64. Flüssig wirds auf beiden nicht laufen.Kommt drauf an, wie übel der VRAM-Mangel ist und wie die Architektur generell bei Auslagerung reagiert. Solange nur Texturen ausgelagert werden die nur gelegentlich gebraucht werden kann eine Menge ausgelagert werden bevor die Framerate ins Bodenlose stürzt. Gehts hingegen an Framebuffer oder Zbuffer ist klar, dass nichts Spielbares übrigbleiben kann.

ShadowXX
2009-09-28, 21:35:54
AMD hat im Gespräch mitgeteilt, dass mit mehr Spannung 1 GHz und mehr kein Problem seien. Soweit so gut.
Der letzte Satz untermauert dies einfach nur noch mal an den angekündigten Asus-Karten, die eben mit erhöhter Spannung und über 1 GHz Chiptakt laufen. Wie stark die Erhöhung der Versorgungsspannung bei den Asus-Karten genau ausfällt, ist für diesen Artikel irrelevant, weil AMD ja auch keine genauen Angaben hinterlassen hat, und zeugt meiner Meinung nach nicht von schlechter Recherche.
Das mit mehr Spannung 1 GHz drinne ist mag sein....die Frage ist doch nun ob das der Chip über längere Zeit aushält und wie hoch der Verbrauch dabei getrieben wird.

Meinst du nicht auch das ATI die Karten höher getaktet auf den Markt geschmissen hätte, wenn alles daran wirklich so "unproblematisch" ist.

AnarchX
2009-09-28, 21:42:43
Gerade die 4890 hat ja gezeigt, was für Aufwand für 13% mehr GPU-Takt getrieben werde musste.

Und wie schon erwähnt, hat Asus keine >1GHz HD 5800 angekündigt, sondern die Unterstützung von Voltage Tweak für HD 5800, womit man "bis zu" ~1GHz erreichen kann, bei laut Asus wohl eher weniger alltagstauglichen Spannungen.

SGT.Hawk
2009-09-28, 21:50:48
Falls sich herausstellt, daß die ATI bandbreitenlimitiert ist, sollte sie lieber an der Taktschraube des RAM arbeiten, als beim Chip, so gewinnt man den Eindruck als gäbe es ja gar kein Problem damit.

cipoint
2009-09-28, 22:48:47
Lässt sich vRAM auf aktuellen ATI-Karten auch erhöhen? Am besten natürlich ohne Lötkolben ...

san.salvador
2009-09-28, 22:50:39
Lässt sich vRAM auf aktuellen ATI-Karten auch erhöhen? Am besten natürlich ohne Lötkolben ...
Klar, einfach ein paar EDO-Rams mit Tixo drauf und passt. :)

Gast
2009-09-28, 23:45:36
Es gab doch früher mal diese eine Karte mit nem Notobook-Ram Slotauf dem PCB - war zwar, glaub ich, noch Edo aber man KONNTE lässig den VRam wechseln und vergrößern, auf die Art. :D

ShadowXX
2009-09-28, 23:53:32
Hmmm...bis auf Atelco/Hardwareversand (sind ja ein und dieselben) hat scheinbar sonst keiner einen guten Draht in bezug auf die Karte.

Viele die 01.10. gelistet hatten sind inzwischen auf den 02.10. oder sogar 08.10. gegangen, manche sogar auf Ende Oktober.
Die meisten trauen sich aber gar nicht einen Termin anzugeben.

Und bei Atelco/Hardwareversand gehen die 5 Karten die Sie jeweils bekommen immer gleich raus durch die Vorbestellungen.

PatkIllA
2009-09-28, 23:54:15
Was ist denn schon zu alternativen Kühlern bekannt?
Suche da noch was waküfreundliches.

y33H@
2009-09-29, 00:09:52
Alles was auf die GPU einer HD4890 passt, sollte idR auch auf die HD5k passen (da gleiche Lochdiagonale). Bleiben die SpaWas und der VRAM.

PatkIllA
2009-09-29, 00:17:45
Bleiben die SpaWas und der VRAM.Zumindest um erstere mache ich mir doch einige Sorgen.

y33H@
2009-09-29, 00:31:51
Abbrennen wird die Karte nicht, nur elendig langsam.

Nazar
2009-09-29, 01:18:53
Was hat PhysX mit diesem AA Gebähren zu tun? Immerhin hat nVidia hier Geld bezahlt, um PhysX überhaupt aufkaufen zu können. Aber als AMD User mit einer AMD Grafikkarte denkt man wohl, dass man alles haben müsste.

http://www.guru3d.com/news/nvidia-disables-physx-when-ati-card-is-present/

PhysX wird auf 2 Arten dazu genutzt AMD Kunden auszusparen.
Was NV da zur Zeit abzieht, geht schon in den Bereich Betrug!

Gast
2009-09-29, 01:21:20
http://www.guru3d.com/news/nvidia-disables-physx-when-ati-card-is-present/

PhysX wird auf 2 Arten dazu genutzt AMD Kunden auszusparen.
Was NV da zur Zeit abzieht, geht schon in den Bereich Betrug!


Gäääähn immer diese Jammerlappen. Beschwer dich bei Ati...

mapel110
2009-09-29, 01:32:17
Was NV da zur Zeit abzieht, geht schon in den Bereich Betrug!
Nö, sie können mir ihren Produkten tun und lassen was sie wollen. Schlimm find ich die AA-Geschichte bei Batman. Aber nun gut, wenn die Entwickler des Games sich auf solche Spielchen einlassen für ein paar Kröten mehr, würd ich denen sogar die größere Schuld zukommen lassen.

/edit
930/1350 erreicht beim OC-Test
http://www.firingsquad.com/hardware/ati_radeon_5870_overclocking/
Auch getrennte Erhöhung Chip/Ram getestet.

GPU-Takterhöhung bringt fast immer mehr, einzige Ausnahme Batman.

reunion
2009-09-29, 06:59:03
Hier ist eine PowerColor HD5870 um 359€ lieferbar:
http://www.acom-pc.de/product_info.php?mcode=1205&info=p40311_PowerColor-HD5870-1GB-GDDR5-PCIE--HD5870-1GB-GDDR5-PCIE--Game-Edition----Grafikadapter---Radeon-HD5870---PCI-.html

tombman
2009-09-29, 07:13:27
da warste noch jung und brauchtest das geld :freak: ;D
Nö :) Ich war nur weniger geduldig und habe alles in den Rechner gestopft was nur irgendwie fps bringen KÖNNTE.
Damals gabs auch die Konsolenseuche noch nicht, und die hardware war noch schwach im Vergleich zur software.
Heutzutage kannst praktisch 90% aller games auf max. quality mit ner 100€ Graka spielen :ugly:

@reunion: jo, es sind immer Sachen lagernd, wenn man bereit ist 50€ Deppensteuer zu zahlen.
Gilt auch für Nvidia ....

tb
2009-09-29, 07:16:49
http://www.guru3d.com/news/nvidia-disables-physx-when-ati-card-is-present/

PhysX wird auf 2 Arten dazu genutzt AMD Kunden auszusparen.
Was NV da zur Zeit abzieht, geht schon in den Bereich Betrug!

Die meisten Entwickler gehen - oder sind es schon - zu Cross-Platform (PS3/XBOX/PC/MAC/Mobile) Physiklösungen über, welche gute Leistungen auf allen Platformen erzielen, somit wird "PhysX als Effektehascherei" immer uninteressanter, wenn NVIDIA nicht ordentlich Geld dafür locker macht. Das Resultat sieht man ja, schaut Euch mal die Spiele an, mit "tollen" PhysX Effekten - sind nicht gerade AAA Titel und die PhysX-Effekte sind oft nicht mehr als ein paar kleine grafische Zugaben.

Thomas

tb
2009-09-29, 07:19:29
Nö :) Ich war nur weniger geduldig und habe alles in den Rechner gestopft was nur irgendwie fps bringen KÖNNTE.
Damals gabs auch die Konsolenseuche noch nicht, und die hardware war noch schwach im Vergleich zur software.
Heutzutage kannst praktisch 90% aller games auf max. quality mit ner 100€ Graka spielen :ugly:

@reunion: jo, es sind immer Sachen lagernd, wenn man bereit ist 50€ Deppensteuer zu zahlen.
Gilt auch für Nvidia ....

Braucht jemand ne XFX 5870 - OVP, 370€ ? Ist aus ner Mehrfachbestellung? (liegt noch auf der Post)

Iceman346
2009-09-29, 08:23:19
Braucht jemand ne XFX 5870 - OVP, 370€ ? Ist aus ner Mehrfachbestellung? (liegt noch auf der Post)

Wirklich brauchen nein, haben wollen schon, aber garantiert nicht für den Preis ;)

cipoint
2009-09-29, 10:27:24
Alles was auf die GPU einer HD4890 passt, sollte idR auch auf die HD5k passen (da gleiche Lochdiagonale). Bleiben die SpaWas und der VRAM.

Naja, wer den VRAM kühlt, der fährt auch einen zugespoilerten Polo ... ;D

PatkIllA
2009-09-29, 10:29:45
Wieviel W müssen denn so schätzungsweise bei den Spannungswandlern abgeführt werden?

Ph0b0ss
2009-09-29, 11:20:46
Wieviel W müssen denn so schätzungsweise bei den Spannungswandlern abgeführt werden?

Bei 206W (Furmark) und ~85% Wirkungsgrad der Wandler werden das wohl so um ~30W maximal sein.

cipoint
2009-09-29, 12:09:17
Ich habe eine günstige Möglichkeiten gefunden, Grafikkarten mit Wasser zu kühlen. Dazu braucht man eine etwa 3 mm starke Kupferplatte, ein 8-mm-Kupferrohr und ein paar 90°-Fittinge. Die Kupferplatte wird dann in passende Form gesägt und gebohrt. Dann werden ein paar Kupferrohre draufgelötet, die mit Fittingen verbunden werden, fertig ist der Kühler. :D Meine zukünftige HD58x0 tut mir jetzt schon leid. :freak:

Nazar
2009-09-29, 14:42:00
Die meisten Entwickler gehen - oder sind es schon - zu Cross-Platform (PS3/XBOX/PC/MAC/Mobile) Physiklösungen über, welche gute Leistungen auf allen Platformen erzielen, somit wird "PhysX als Effektehascherei" immer uninteressanter, wenn NVIDIA nicht ordentlich Geld dafür locker macht. Das Resultat sieht man ja, schaut Euch mal die Spiele an, mit "tollen" PhysX Effekten - sind nicht gerade AAA Titel und die PhysX-Effekte sind oft nicht mehr als ein paar kleine grafische Zugaben.

Thomas

Mir geht es eher darum, dass man sich ein NV Produkt kauft und man per Treiber und Überprüfung durch NV untersagt bekommt, das Produkt uneingeschränkt zu nutzen, wenn man ausser der NV Hardware noch ein AMD/ATI Produkt nutzt.
Das ist meiner Meinung nach nicht rechtens, da nirgends beim Kauf darauf hingewiesen wird, dass das Produkt nicht mit AMD Produkten zusammen genutzt werden darf.

Dass das, im Zusammenhang mit dem AA "Trick" im Batman Spiel, dann geradezu runtergespielt wird, finde ich schon sehr seltsam. Gerade weil hier vorher auf so hohem "Niveau" über die Flimmerproblematik "diskutiert" wurde, verstehe ich nicht so ganz, weshalb das nun ein Kavaliersdelikt sein soll :confused:

In Zukunft sollten Spiele, welche von NV oder ATI eine besondere "Unterstützung" erfahren, nicht mehr für Benchmarks zugelassen werden. Denn wer weiß schon, ob das in Batman nicht nur die Spitze des Eisbergs ist :mad:

Der_Korken
2009-09-29, 14:54:19
930/1350 erreicht beim OC-Test
http://www.firingsquad.com/hardware/ati_radeon_5870_overclocking/
Auch getrennte Erhöhung Chip/Ram getestet.

GPU-Takterhöhung bringt fast immer mehr, einzige Ausnahme Batman.

Interessant. Auch wenn die Erhöhungen jetzt nicht sehr hoch ausgefallen sind, sieht man doch, dass die Karte nicht an der Speicherbandbreite verhungert, wie viele gemutmaßt haben.

Cyphermaster
2009-09-29, 15:19:04
Mir geht es eher darum, dass man sich ein NV Produkt kauft und man per Treiber und Überprüfung durch NV untersagt bekommt, das Produkt uneingeschränkt zu nutzen, wenn man ausser der NV Hardware noch ein AMD/ATI Produkt nutzt.
Das ist meiner Meinung nach nicht rechtens, da nirgends beim Kauf darauf hingewiesen wird, dass das Produkt nicht mit AMD Produkten zusammen genutzt werden darf.nVidia HAT veröffentlicht, daß das vom Treiber nicht unterstützt werden wird. Willst du ein Warnschild?
Dass das, im Zusammenhang mit dem AA "Trick" im Batman Spiel, dann geradezu runtergespielt wird, finde ich schon sehr seltsam. Gerade weil hier vorher auf so hohem "Niveau" über die Flimmerproblematik "diskutiert" wurde, verstehe ich nicht so ganz, weshalb das nun ein Kavaliersdelikt sein soll :confused:Darum geht es in diesem Thread auch gar nicht. Hier geht es um die HD5...
In Zukunft sollten Spiele, welche von NV oder ATI eine besondere "Unterstützung" erfahren, nicht mehr für Benchmarks zugelassen werden. Denn wer weiß schon, ob das in Batman nicht nur die Spitze des Eisbergs ist :mad:Davon gehe ich aus. Leider bemerkt man solche Tricks nicht immer, befürchte ich...

y33H@
2009-09-29, 15:19:50
In Zukunft sollten Spiele, welche von NV oder ATI eine besondere "Unterstützung" erfahren, nicht mehr für Benchmarks zugelassen werden.Das Spiel steht aber so im Handel. Was also machen? Der Kunde zockt es ja so bzw. will wissen, wie es performt.

Cyphermaster
2009-09-29, 15:23:56
Einfach außer der Reihe testen, und mindestens 3x pro Seite in rot blinkender Schrift darauf hinweisen, daß beschissen wird... :freak:

S940
2009-09-29, 15:28:27
Einfach außer der Reihe testen, und mindestens 3x pro Seite in rot blinkender Schrift darauf hinweisen, daß beschissen wird... :freak:
So, oder AMD nach dem Hack fragen, um die Abfrage zu umgehen ;-)
Nach ein paar Tests mit der Methode werden die Hersteller sicherlich selbst einlenken, da die Publicity zu schlecht wird ;)

ciao

Alex

Undertaker
2009-09-29, 15:34:00
Das Spiel steht aber so im Handel. Was also machen? Der Kunde zockt es ja so bzw. will wissen, wie es performt.

Das ist die (bittere) Wahrheit. Bestes Beispiel ist NfS Shift, wenn da auch nur die Hälfte stimmt, wovon so getuschelt wird, ist das eine echte Sauerrei die da hinter den Kulissen läuft - nur was habe ich als Käufer davon? Ich kann auf Top-Hardware nicht einmal in 800x600 Min-fps von 20 erreichen - das darf in einem Test nicht verschleiert werden.

Schlammsau
2009-09-29, 16:27:58
Hat jetzt eigentlich schon irgendwer eine 5000?

reunion
2009-09-29, 16:29:15
Hat jetzt eigentlich schon irgendwer eine 5000?

Ja:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7564093&postcount=19

darkvader
2009-09-29, 16:33:39
Hat jetzt eigentlich schon irgendwer eine 5000?

Ich ab Sonntag. Hatte Sie letzten Samstag schon in der hand mußte Sie aber für ein Event nochmal abgeben :-).

Schlammsau
2009-09-29, 16:36:44
Das ist aber (noch) nicht wirklich viel.

Wie siehts denn mit der 5850 aus? Heute wurde meine Vorbestellung bei Amazon storniert! :(

Iceman346
2009-09-29, 16:46:37
Das ist aber (noch) nicht wirklich viel.

Bei der momentan nicht vorhandenen Verfügbarkeit kein Wunder. Scheinen ja nur bei einigen wenigen Händlern in homöopathischen Dosen einzutreffen.

Bin ja selbst an einer 5870 interessiert, aber mehr als ~320€ wollt ich eigentlich nicht zahlen. Mal schauen ob sich diese Woche noch was ändert an der Verfügbarkeit...

grobi
2009-09-29, 16:53:19
Das ist die (bittere) Wahrheit. Bestes Beispiel ist NfS Shift, wenn da auch nur die Hälfte stimmt, wovon so getuschelt wird, ist das eine echte Sauerrei die da hinter den Kulissen läuft - nur was habe ich als Käufer davon? Ich kann auf Top-Hardware nicht einmal in 800x600 Min-fps von 20 erreichen - das darf in einem Test nicht verschleiert werden.


Du kannst NfS Shift nicht mit mehr als 20fps spielen in 800x600??? :freak:


Ich wollte mir eine 5850 gönnen. Das Problem wird sein das mein Netzteil vielleicht nicht ausreicht. Ich haber dieses http://geizhals.at/deutschland/a312977.html

mfg grobi

Raff
2009-09-29, 16:56:13
Das ist aber (noch) nicht wirklich viel.

Wie siehts denn mit der 5850 aus? Heute wurde meine Vorbestellung bei Amazon storniert! :(

Dir ist hoffentlich klar, dass die HD 5850 im Wesentlichen nur ein BQ-Update im Vergleich zur HD 4890 (OC) ist. BQ plus bestenfalls 20 Prozent mehr Fps.

MfG,
Raff

Undertaker
2009-09-29, 17:01:33
Du kannst NfS Shift nicht mit mehr als 20fps spielen in 800x600??? :freak:


Ich wollte mir eine 5850 gönnen. Das Problem wird sein das mein Netzteil vielleicht nicht ausreicht. Ich haber dieses http://geizhals.at/deutschland/a312977.html

mfg grobi

Will das hier nicht zu weit ins OT führen, schau mal in den Shift Thread oder dorthin:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=465308

Armaq
2009-09-29, 17:04:08
Dir ist hoffentlich klar, dass die HD 5850 im Wesentlichen nur ein BQ-Update im Vergleich zur HD 4890 (OC) ist. BQ plus bestenfalls 20 Prozent mehr Fps.

MfG,
Raff
Wie soll das gehen?!

Eine 4890 ist 15% schneller als eine 4870. Die 5870 ist doppelt so schnell wie eine 4870. Die 5850 ist 20% langsamer als eine 5870. Was genau stimmt denn nun nicht an diesen Aussagen?

Iceman346
2009-09-29, 17:18:29
Wie soll das gehen?!

Eine 4890 ist 15% schneller als eine 4870. Die 5870 ist doppelt so schnell wie eine 4870. Die 5850 ist 20% langsamer als eine 5870. Was genau stimmt denn nun nicht an diesen Aussagen?

Das fette ;) wobei man über die 15% mehr der 4890 auch streiten kann.

Die 5870 dürfte etwa 60-80% Mehrleistung als die 4870 bieten. 100% nur im absoluten Ausnahmefall.

35007
2009-09-29, 17:19:55
Wie soll das gehen?!

Eine 4890 ist 15% schneller als eine 4870. Die 5870 ist doppelt so schnell wie eine 4870. Die 5850 ist 20% langsamer als eine 5870. Was genau stimmt denn nun nicht an diesen Aussagen?

Dass die 5870 100% Mehrleistung bringt, denn es sind ""nur"" 1.6x 4870.

Schlammsau
2009-09-29, 17:27:42
Dir ist hoffentlich klar, dass die HD 5850 im Wesentlichen nur ein BQ-Update im Vergleich zur HD 4890 (OC) ist. BQ plus bestenfalls 20 Prozent mehr Fps.

MfG,
Raff
Also ich gehe von 10-20% mehr Leistung aus. Das ist aber nicht der Hauptgrund.....viel wichtiger ist mir die Leistungsaufnahme unter 2D (ohne Untertaktung wie bei der 4000 Serie) und im 3D!
Noch zwei mir sehr wichtige Punkte sind, die Lautstärke unter Last und das die warme Luft wieder nach draussen befördert wird.

Alles Punkte die ich an meiner 4890 zu kritisieren habe, und von der 5000 Serie deutlich verbessert wurden. Das sind mir 50-60€ Aufpreis Wert!

Botcruscher
2009-09-29, 17:30:19
Das Spiel steht aber so im Handel. Was also machen? Der Kunde zockt es ja so bzw. will wissen, wie es performt.

Gar nicht, Boykott. So was läuft zum Nachteil aller Kunden und schädigt den PC allgemein. Sandkasten und Kindergarten sind noch eine nett gemeinte Umschreibung.

Gast
2009-09-29, 21:04:42
Hier ist eine PowerColor HD5870 um 359€ lieferbar:
http://www.acom-pc.de/product_info.php?mcode=1205&info=p40311_PowerColor-HD5870-1GB-GDDR5-PCIE--HD5870-1GB-GDDR5-PCIE--Game-Edition----Grafikadapter---Radeon-HD5870---PCI-.html
Die habe ich abgegriffen ;)

Nummer Bezeichnung Menge Preis EUR Gesamt EUR Pos.
2025318 PowerColor HD5870 1GB GDDR5 PCIE HD5870
1GB GDDR5 PCIE (Game Edition) | Grafikadapter |
Radeon HD5870 | PCI-
1 359,00 359,00 1 St

DHL :)

Datum/Uhrzeit Status Beschreibung
29.09.09 00:00 Elektronische Sendungsdaten liegen vor Elektronische Sendungsdaten liegen vor
29.09.09 19:24 Einlieferungs-Paketzentrum Die Sendung wurde im Einlieferungs-Paketzentrum bearbeitet.

ich freu mich wie zu meiner 4870 auch Powercolor PCS+

MR2
2009-09-29, 21:41:14
Die Powercolor HD5870 ist auch bei Alternate auf grün. 349 Euro

Gast
2009-09-29, 21:42:38
Viel zu teuer normal dürfte die nicht teurer als 299€uro sein nach aktuellem Kurs.

y33H@
2009-09-29, 21:42:55
Noch zwei mir sehr wichtige Punkte sind, die Lautstärke unter Last und das die warme Luft wieder nach draussen befördert wird. Alles Punkte die ich an meiner 4890 zu kritisieren habe, und von der 5000 Serie deutlich verbessert wurden.Täusch dich in Sachen Lautheit bei der HD5850 mal nicht ;)

@ ArmaqWas genau stimmt denn nun nicht an diesen Aussagen?Das hier:
Die 5870 ist doppelt so schnell wie eine 4870.Nur in den seltensten Fällen bis nie.

Zatoichi
2009-09-29, 21:49:16
Täusch dich in Sachen Lautheit bei der HD5850 mal nicht ;)
.

Wie laut ist eine 5850er? Lauter als zB eine standart 285?

Armaq
2009-09-29, 21:50:14
Dann habe ich das falsch mitbekommen. Ich ging von 4870 x 2 aus.

y33H@
2009-09-29, 21:51:28
Lauter als zB eine standart 285? 2D nein, 3D ja. iirc.

Gast
2009-09-29, 21:52:37
Täusch dich in Sachen Lautheit bei der HD5850 mal nicht ;)

@ ArmaqDas hier:
Nur in den seltensten Fällen bis nie.

schau mal im Luxx...das Ding raucht stock nen 280er SLI in der Pfeife

Zatoichi
2009-09-29, 21:53:53
2D nein, 3D ja. iirc.

Hmm, ich dachte die neuen währen leise. Sorry wenn ich so doof frage ist das gravierend unter Last oder verschmerzbar?

y33H@
2009-09-29, 21:55:00
@ Gast

Eine HD5850 schlägt 2x GTX280? ;D Ich werf mich weg. Die knackt 1x GTX280, ja. Aber nicht 2x :rolleyes: Aber klar, wenn das im Luxx einer sagt, dann ist das freilich so. Bullshit.

Gast
2009-09-29, 21:55:02
http://www.hardwareluxx.de/community/showthread.php?t=648128

Iceman346
2009-09-29, 21:57:54
2D nein, 3D ja. iirc.

Laut den CB Benches ist nichtmal die 5870 lauter als die GTX285, ist der Lüfter der 5850 so viel lauter?

PatkIllA
2009-09-29, 21:58:25
Laut den CB Benches ist nichtmal die 5870 lauter als die GTX285, ist der Lüfter der 5850 so viel lauter?
Ich dachte die hätten die gleiche Kühlkonstruktion?!?

y33H@
2009-09-29, 21:59:40
@ Gast

Ich seh da kein Spiel, in dem eine stock-HD5850 2x GTX280 deutlich schlägt. Zeig mal die Shots =) Und nein, keine crappy Timedemo.Ich dachte die hätten die gleiche Kühlkonstruktion?!?Nö. Geiz ist halt geil.

FragenderGast
2009-09-29, 21:59:52
2D nein, 3D ja. iirc.
äh, woher willst du das wissen? Es gibt doch noch keine Tests der 5850...

PatkIllA
2009-09-29, 22:02:21
Nö. Geiz ist halt geil.Haste mal nen Link. Auf den Bildern sahen die Karten gleich aus.

MR2
2009-09-29, 22:02:43
http://www.hardwareluxx.de/community...&postcount=861

Neben eigenen Werten schreibt er folgendes:


Also ich hab ein paar Level in 1920.1200 mit 4AA angespielt. Man merkt schon den unterschied zur GTX275 deutlich finde ich.
Die Karte springt da je nach Spielszene gerne 20-50fps ...Kann nur sagen die Karte ist wirklich leise. Also auf keinen fall lauter als meine GTX275

Ich find Crysis flüssig auf der 5870 1GB:-)

http://www.youtube.com/watch?v=DDGMjPlhqfQ
http://www.youtube.com/watch?v=FaGaqtjkdKI
http://www.youtube.com/watch?v=UuWAKSo74Zc&feature=related


Interessant aber schon älter:

http://www.brightsideofnews.com/news/2009/9/16/pixelux-of-lucasfilm-fame-team-up-with-amd-on-opencl.aspx

y33H@
2009-09-29, 22:02:46
schau mal im Luxx...das Ding raucht stock nen 280er SLI in der Pfeife Klar, wenn die HD5870 nicht mal eine GTX295 knackt, dann packt die 50er zwei GTX280 ...
Auf den Bildern sahen die Karten gleich aus. Außen ja ;)Kann nur sagen die Karte ist wirklich leise. Also auf keinen fall lauter als meine GTX275Was für eine GTX275? Restliches System? gescheite Ohren? Ich zweifel an solchen Aussagen gerne - ich glaub (fast) nur meinen Ohren *g*

Noebbie
2009-09-29, 22:03:38
Immerhin war heute mal ein Tag wo man die 5870 in einigen Shops für kurze Zeit auf Status grün hatte. Die XFX bei Alternate ist sogar gerade auf rot! :freak:

Lässt auf morgen und laufende Woche hoffen! :redface:

PatkIllA
2009-09-29, 22:04:36
Außen ja ;)Und innen? Jetzt macht es doch nicht so spannend.

Zatoichi
2009-09-29, 22:05:58
Das ist Mist, wollte ich eigentlich zum Testen eine 5850er. Aber lauter Lüfter ist noGo für mich. Die Frage ist wie laut die Karte unter Last ist. Die 4er Serie fand ich unerträglich.

FragenderGast
2009-09-29, 22:10:19
Und innen? Jetzt macht es doch nicht so spannend.
die 5850 ist kürzer

Matrix316
2009-09-29, 22:12:57
Immerhin war heute mal ein Tag wo man die 5870 in einigen Shops für kurze Zeit auf Status grün hatte. Die XFX bei Alternate ist sogar gerade auf rot! :freak:

Lässt auf morgen und laufende Woche hoffen! :redface:
Hä? Powercolor auf grün: http://www.alternate.de/html/product/details.html?artno=JCXOV1&

Iceman346
2009-09-29, 22:13:46
Ist der Dirt 2 Coupon eigentlich bei jedem Hersteller bei? Weiß bisher nur das er bei XFX und Sapphire wohl beiliegen soll.

Edit: Ah, von Powercolor gibts ne extra Dirt 2 Edition. Ist also wohl nicht allgemein dabei.

MR2
2009-09-29, 22:17:09
Powercolor waren wohl 22 Uhr noch über 30St. vorrätig.

"(XFX) Übrigens ist jetzt ausverkauft, nächste Woche kommt erst die neue Lieferung, es sei denn man wählt ne PowerColor, da sind noch 33 Stück da!!!"

http://www.hardwareluxx.de/community/showpost.php?p=12979409&postcount=178

reunion
2009-09-29, 22:20:28
Ja, bei Alternate gibt es auch noch Powercolor-Karten:
http://www.alternate.de/html/product/details.html?artno=JCXOV1&

Sieht wohl nicht so schlecht aus.

Daredevil
2009-09-29, 22:22:07
Mit 50 Euro Deppenaufschlag wohlgemerkt. :D

AntwortenderGast
2009-09-29, 22:24:35
5850:
http://www.hisdigital.com/UserFiles/product/H585F1GD-1600-1.jpg
(http://www.hisdigital.com/UserFiles/product/H585F1GD-1600-7.jpg)

5870:
http://www.hisdigital.com/UserFiles/product/H587F1GB-1600-4.jpg
(http://www.hisdigital.com/UserFiles/product/H587F1GB-1600-3.jpg)

y33H@
2009-09-29, 22:25:27
@ Gast

Wie gesagt, eine HD5870 schlägt in Crysis keine GTX295. Eine HD5850 schlägt keine 2x GTX280 in Crysis. Oder sprichst du vom Schwanzmark? Da auch nicht. Nicht mal in Risen oder Clear Sky. 4get it. Luxx hin oder her.

Und das Schwätzer lass mal schön stecken - ich habe mehr eigene Benches der HD5850 als du im Web bisher gesehen hast :rolleyes:

reunion
2009-09-29, 22:29:28
Mit 50 Euro Deppenaufschlag wohlgemerkt. :D

Naja, die Powercolor-Karte ist nicht unter 328€ gelistet und Alternate war noch nie besonders billig, aber klar das der Preis noch etwas zurück geht wenn ausreichend Karten zur Verfügung stehen. So schlecht wie ursprünglich gedacht sieht es mit den Karten jedenfalls nicht aus. Scheint jeden Tag besser zu werden. Hier gibt es noch XFX-Karten:

http://www.onetime.de/%28S%28jj54vyan0u4lxjzmujnaxyyx%29%29/default.aspx?TY=item&ST=1&IT=104532&CT=9021
http://www.hoh.de/default.aspx?CF=preisvergleiche&CFID=geizhals&TY=item&ST=1&IT=104513&CT=9021

Gast
2009-09-29, 22:35:44
Naja, die Powercolor-Karte ist nicht unter 328€ gelistet und Alternate war noch nie besonders billig, aber klar das der Preis noch etwas zurück geht wenn ausreichend Karten zur Verfügung stehen. So schlecht wie ursprünglich gedacht sieht es mit den Karten jedenfalls nicht aus. Scheint jeden Tag besser zu werden. Hier gibt es noch XFX-Karten:


Trotzdem war es ein Paperlaunch. Da nutzt es auch nichts wenn jetzt nach einer Woche ein paar Karten verfügbar sind (zu überteuerten Preisen)

y33H@
2009-09-29, 22:36:14
@ Gast

Die Bildchen lassen nicht vergleichen (System und so). Zudem: Du willst doch was zeigen, ergo verlinke die Bilder direkt, statt mich blättern zu lassen :rolleyes: Ansonsten - siehe restliche Posts.

Schlammsau
2009-09-29, 22:47:08
Täusch dich in Sachen Lautheit bei der HD5850 mal nicht ;)

Ist die 5850 lauter als die 5870?

xiao didi *
2009-09-29, 22:47:42
Ob dem Gast klar ist, dass du PCGH-Redakteur bist, somit eine 5850 zum benchen zur Verfügung hast und das zudem beruflich machst, y33H@? :uponder:

y33H@
2009-09-29, 22:53:22
@ xiao didi *

Mir egal, der möge sich in einem vernünftigen Ton ausdrücken. Maulende Gäste, die ins Luxx auf einen Thread linken und man sich dort sein Zeug sammeln muss, kotzen mich an.

B2T.

cipoint
2009-09-29, 23:03:54
Ob dem Gast klar ist, dass du PCGH-Redakteur bist, somit eine 5850 zum benchen zur Verfügung hast und das zudem beruflich machst, y33H@? :uponder:

Ob y33H@ kalr ist, dass der Gast hier nur trollen will?

y33H@
2009-09-29, 23:05:35
Natürlich ... aber ich hasse so Leute ;(

cipoint
2009-09-29, 23:10:52
Natürlich ... aber ich hasse so Leute ;(

Ich dachte, du hast Mod-Rechte. Dann muss halt jemand anderes aufräumen.

MR2
2009-09-29, 23:19:05
http://www.hardware.fr/articles/770-13/dossier-amd-radeon-hd-5870.html

ARMA2 Benches, hab ich so noch nicht gesehen.

y33H@
2009-09-29, 23:26:35
+50% auf eine GTX285 ist sauber =)

MR2
2009-09-29, 23:31:54
Das sieht auch ganz gut aus:-)

http://www.abload.de/image.php?img=ati3tzwc.png



Mal noch paar Treiber und die 2GB Version abwarten.

Gast
2009-09-29, 23:50:00
Spielst du 3DMark?

mapel110
2009-09-30, 01:23:26
http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=2
Mobochipsatz-Vergleich P55 vs X58, Bloomfield vs Lynnfield

Gast2
2009-09-30, 02:01:30
Wie gesagt, eine HD5870 schlägt in Crysis keine GTX295. Eine HD5850 schlägt keine 2x GTX280 in Crysis. Oder sprichst du vom Schwanzmark? Da auch nicht. Nicht mal in Risen oder Clear Sky. 4get it. Luxx hin oder her.

Also bei den xbitlabs schlägt die 5870 die genannte Kombination. Bei der CB nicht, was mich jedoch nicht wundert, wenn du mal deren "CPU" Tests ansiehst (kaum Unterschiede zwischen vielen Modellen).

Guckst du: http://www.xbitlabs.com/articles/video/display/radeon-hd5870_9.html#sect2
Und das Schwätzer lass mal schön stecken - ich habe mehr eigene Benches der HD5850 als du im Web bisher gesehen hast :rolleyes:[/QUOTE]

Gast2
2009-09-30, 02:05:27
Beitrag war noch nicht fertig und der letzte Satz gehört da nicht mehr rein. ;)
Jedenfalls ist das Problem bei den Cb Tests immer, das manche Ergebnisse weitaus anders ausfallen als bei den englischen Seiten, die ich immer lese und die lagen bisher näher an der Realität (vorallem bei CPUs).

reunion
2009-09-30, 06:54:58
Trotzdem war es ein Paperlaunch. Da nutzt es auch nichts wenn jetzt nach einer Woche ein paar Karten verfügbar sind (zu überteuerten Preisen)

Besser so als es kommen zum Launch eine handvoll Karten und dann einige Wochen nichts mehr, wie es auch schon öfter war. Es sieht so aus als ob die lieferbarkeit jeden Tag zunimmt.

Schlammsau
2009-09-30, 07:18:04
Ist die 5850 lauter als die 5870?

y33H@ schau mal nach oben.

Schnitzl
2009-09-30, 07:24:58
Der erst RICHTIGE 5850-Test:
http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=1

Und schon kommt mir das kotzen:
Größter Unterschied zur HD 5870: Statt vier verbinden nur zwei Heatpipes die kupferne Bodenplatte

Somit scheiden für mich beide Karten aus :mad:

@ Schlammsau: die 5850 ist lauter...sogar lauter als die 285.
Im Leerlauf sind die Karten mit 0,8 Sone zwar sehr leise, aber etwas lauter als ihre große Schwester HD 5870. Jegliche Geforce GTX 200 im Referenzdesign sind jedoch klar lauter. Im Spielebetrieb (Race Driver: Grid) rauscht die Radeon HD 5850 mit bis zu 4,0 Sone. Auch dieser Wert liegt über dem der HD 5870 - und auch über dem der Geforce GTX 285 (3,6 Sone)
HASS

reunion
2009-09-30, 07:41:36
Naja, auf alternative Kühler warten wenn das zu laut ist. Bei der geringen Leistungsaufnahme sollte es kein Problem sein das Ding leise zu kühlen. Ich stelle mir auch die Frage warum die DVI Anschlüsse nicht auf der anderen Seite der Karte liegen. So muss man den Luftstrom schon erheblich umleiten. Alles andere als optimal.

mictasm
2009-09-30, 07:57:33
Bei der geringen Leistungsaufnahme sollte es kein Problem sein das Ding leise zu kühlen.
Und warum machen die das dann nicht? Wegen eines Euros beim Material? Das ist doch echt Müll, dass da die Chance zur Lautlosigkeit vertan wird. Kennen die ihre Retail-Kunden nicht?

AnarchX
2009-09-30, 08:35:53
Und auch bei PCGH liegt wieder die Leistung näher, als es die Rohleistungsdaten vermuten lassen.

reunion
2009-09-30, 08:39:32
Wobei bei PCGH alles sehr nah beisammen liegt. Die GTX295 kann sich auch kaum absetzen. Interessant wäre der Vergleich bei gleichem Takt.

AnarchX
2009-09-30, 08:42:19
Anand misst auch 10-15% weniger Leistung bei der 5850: http://www.anandtech.com/video/showdoc.aspx?i=3650

Gast
2009-09-30, 08:56:44
Das ist Mist, wollte ich eigentlich zum Testen eine 5850er. Aber lauter Lüfter ist noGo für mich. Die Frage ist wie laut die Karte unter Last ist. Die 4er Serie fand ich unerträglich.


laut c't erreicht die 5870 im Leerlauf (2D) 0,6 sone und bei Spielen 1,2 Sone. Nur beim geliebten Furmark-"Spiel" haben sie 3,2 sone gemessen

y33H@
2009-09-30, 08:57:38
Und auch bei PCGH liegt wieder die Leistung näher, als es die Rohleistungsdaten vermuten lassen.Weil idR die Rohleistung nicht zu 100% limitiert. Die HD5850 ist schon eine Wucht, einzig die (Referenz-)Kühlung finde ich enttäuschend ;(

@ Gast

Er meinte die 50er ;)

Noebbie
2009-09-30, 09:01:01
Allgemein kann man doch eigentlich sagen, dass die Rohleistung der 5850 und 5870 überdimensioniert ist. Wie damals bei der 8800gt.

Könnte die Aussage stimmen?

Azubi
2009-09-30, 09:32:02
Mir gefällt die HD5850 ausgesprochen gut. Ist sie doch eine gute Alternative für Spieler, die von ihrer HD4850 weg wollen zu mehr Spielepower ohne sich großartige Gedanken über ein leistungsstärkeres Netzteil machen zu müssen.

HD4850 und HD5850 tuen sich in der Leistungsaufnahme unter Last nicht sehr unterscheiden. Im Idle ist die HD5850 natürlich klar die bessere Karte. Ich denke mal das ATI da einen großen Wurf mit der HD5850 gelandet hat. Ich tippe mal auf viele HD4850-Umsteiger bei den kommenden Käufern.

Ich persönlich hoffe bei der HD5850 aber auf eine "Special Edition" mit leiserem Kühlkonzept und etwas Übertaktung von Werk aus.

Vielleicht mal wieder eine gute Option für viele PC-Seiten eine neue "Edition" auf den Markt zu werfen? Jedenfalls schaue ich schon bei sapphire mit einem Auge hin ob schon was von einer Toxic zu hören ist.

... hab ich doch fast vergessen - in Risen gehen die HD58x0en wie sau lt. pc games hardware. :freak:

Raff
2009-09-30, 09:46:33
Wobei bei PCGH alles sehr nah beisammen liegt. Die GTX295 kann sich auch kaum absetzen.

Die GTX 295 kann sich wunderbar absetzen, wenn ihr nicht der VRAM ausgeht. Das passiert aber immer häufiger.

MfG,
Raff

w0mbat
2009-09-30, 09:46:46
Die HD5850 ist kürzer, verbraucht unter Last deutlich weniger Strom und ist deutlich leiser als die HD5870. Dazu noch der günstige Preis und wir haben die aktuell ausgewogenste Karte.

At load, the 5850 is just below the middle of the pack. Thankfully it’s not nearly as loud as the 5870, shaving off 8dB compared to its big brother and bring a Cypress-based card in to more reasonable territory.
http://www.anandtech.com/video/showdoc.aspx?i=3650&p=13

Armaq
2009-09-30, 09:56:17
Diese Lautstärke-Reviews unterscheiden sich wie Tag und Nacht. Ich hoffe auf die Nvidia-Karte für die Preise und auf ne VaporX. :)

Gast
2009-09-30, 09:59:22
Der erst RICHTIGE 5850-Test:
http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=1

Und schon kommt mir das kotzen:


Somit scheiden für mich beide Karten aus :mad:

@ Schlammsau: die 5850 ist lauter...sogar lauter als die 285.

HASS

Naja die paar sone wirst du wohl nicht hören.Im idle ist sie dazu leise das reicht.

Henroldus
2009-09-30, 10:02:58
der THG-Test (mit dem etwas reisserischen Titel) ist hier noch nicht verlinkt:
Radeon HD 5850: In CrossFire der GTX-295-Killer (http://www.tomshardware.com/de/radeon-hd-5850,testberichte-240414.html)
5850 fast immer vor der GTX285 welche Preis/Leistungstechnisch damit hinten runter fällt
schlägt oft auch die 4870X2 mit ihren bekannten Nachteilen
Stromverbrauch last/idle immer unter 4870 1GB, somit entfällt eine eventuelle Netzteilneuanschaffung vgl zu 5870 !
nur 24cm Baulänge (plus Stromstecker :freak:)

für künftige(bei Verfügbarkeit) 199€ sicherlich die interessantere Neuvorstellung von ATI zumal die Leistung nicht allzuweit hinter 5870 liegt

just my 2 cents

cipoint
2009-09-30, 10:04:09
PCGH zur HD5850: "Ein VT1165MF - zuständig für Software-Vmods - fehlt."

Damit ist die Karte gleich uninteressant geworden. :( Schade, eigentlich wäre sie für mich die bessere Wahl.

AnarchX
2009-09-30, 10:15:22
Da müsste die Asus 5850 mit Voltage Tweak ein anderes Layout haben, was ich eher nicht glaube.

cipoint
2009-09-30, 10:20:56
Da müsste die Asus 5850 mit Voltage Tweak ein anderes Layout haben, was ich eher nicht glaube.

Willst du darauf hinaus, dass sich die GPU-Spannung bei der HD5850 doch einstellen lässt?

Warum ist die HD5850 in Stalker CS ab 1920x1200 4xAA eigentlich exakt gleich schnell wie die HD5870? http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=13
Finde ich sehr interessant.

grobi
2009-09-30, 10:33:32
Mir gefällt die HD5850 ausgesprochen gut. Ist sie doch eine gute Alternative für Spieler, die von ihrer HD4850 weg wollen zu mehr Spielepower ohne sich großartige Gedanken über ein leistungsstärkeres Netzteil machen zu müssen.

HD4850 und HD5850 tuen sich in der Leistungsaufnahme unter Last nicht sehr unterscheiden. Im Idle ist die HD5850 natürlich klar die bessere Karte. Ich denke mal das ATI da einen großen Wurf mit der HD5850 gelandet hat. Ich tippe mal auf viele HD4850-Umsteiger bei den kommenden Käufern.

Ich persönlich hoffe bei der HD5850 aber auf eine "Special Edition" mit leiserem Kühlkonzept und etwas Übertaktung von Werk aus.

Vielleicht mal wieder eine gute Option für viele PC-Seiten eine neue "Edition" auf den Markt zu werfen? Jedenfalls schaue ich schon bei sapphire mit einem Auge hin ob schon was von einer Toxic zu hören ist.

... hab ich doch fast vergessen - in Risen gehen die HD58x0en wie sau lt. pc games hardware. :freak:

Die 5850 hat nicht umsonst einen zusätzlichen 6-Pin-Stecker gegenüber der 4850. Ich denke mein NT könnte für die 5850 zu schwach sein.

mfg grobi

AnarchX
2009-09-30, 10:44:37
Willst du darauf hinaus, dass sich die GPU-Spannung bei der HD5850 doch einstellen lässt?

Bei der Asus lässt sich dies offenbar und bisher war der Unterschied zwischen ASUS Voltage Tweak Karten und Referenz eigentlich nur ein BIOS.

Palpatin
2009-09-30, 10:46:50
Die 5850 ist Perfekt für meinen HTPC brauch nur noch eine Version die man im Idle nicht hört sowas wie die 260er Matrix.

Hübie
2009-09-30, 11:11:17
Sagt mal gibts eigentlich ein Review mit einem PhenomII als Grundlage? Ich find irgendwie nix :(

Edit: Auch bezüglich des Verzögerungproblems (oft fälschlicherweise als Mikroruckler bekannt) seitens MGPU findet man nix...

Gast
2009-09-30, 11:12:08
Naja, die GTX285 ist eh momentan kaum verfügbar, ich denke nV bereitet gerade deutliche Preissenkungen vor und die Shops wollen die Lager kurz davor nicht mit zum alten teuren Preis eingekauften Karten füllen...

PCGH_Raffael
2009-09-30, 11:39:47
Edit: Auch bezüglich des Verzögerungproblems (oft fälschlicherweise als Mikroruckler bekannt) seitens MGPU findet man nix...

Wir bereiten gerade (vermutlich bis übermorgen) einen Test mit jeweils zwei HD 5870 respektive HD 5850 vor. Die ersten Eindrücke sind so wie einst bei der HD 4870 X2: sauschnell, aber drückt man so ein Duo dann doch mal auf unter 40 Fps, ist klares Mikroruckeln spürbar; dito Inputlag.

MfG,
Raff

Iceman346
2009-09-30, 11:40:38
Es sieht so aus als ob die lieferbarkeit jeden Tag zunimmt.

Momentan nicht wirklich :ugly:

Nachdem die Powercolor Karten von Alternate gestern ausverkauft waren gibts mittlerweile garnix mehr. Atelco erwartet angeblich für Heute noch MSI Karten, aber das wars dann auch.

Toll ist der Launch auf jeden Fall nicht. Mir wär da nen ehrlicher Paperlaunch (mit Aussage "Verfügbarkeit ab XY") lieber gewesen.

S940
2009-09-30, 11:42:41
Sagt mal gibts eigentlich ein Review mit einem PhenomII als Grundlage? Ich find irgendwie nix :(
Ärgert mich auch ein bisschen, bisher kenne ich nur den schwedisch:
http://mikrodatorn.idg.se/2.1030/1.253738/sa-bra-ar-radeon-hd-5870---vart-test-ger-dig-svaret

Ein Nachtest von ner anderen Seite wär schon nett, die HAWX Werte sehen lustig aus.

Beim Battleforgetest haben sie die 295 und 5870 vertauscht, der beste Balken ist die 5870, nicht die 295.

ciao

Alex

PCGH_Raffael
2009-09-30, 11:47:24
Was erwartet ihr eigentlich davon, wenn ein Phenom II zum Einsatz kommt? Stets dieselben Fps-Werte, weil die CPU deutlich schneller limitiert als z. B. unser i7-920 @ 3,5 GHz? Genau das tritt nämlich ein. Gerade Crossfire-Tests auf einem unübertakteten Phenom II sind völlig witzlos, sofern man nicht die Supersample-Keule schwingt.

MfG,
Raff

Iceman346
2009-09-30, 11:51:41
Gerade Crossfire-Tests auf einem unübertakteten Phenom II sind völlig witzlos, sofern man nicht die Supersample-Keule schwingt.

Need Supersample Keule!

Ernsthaft: Macht mal bitte mehr Supersampling Benchmarks. Anhand der Computerbase Skalierungsbenches hab ich mir ausgerechnet, dass die 5870 mit 4x Supersampling etwas schneller sein sollte als meine 4870 mit 4xEDAA. Richtige Benchmarks wären aber viel toller!

SSAA bei spielbaren FPS in vielen Titeln wär für mich der Hauptgrund die Karte zu kaufen.

Mr. Lolman
2009-09-30, 12:03:07
Skalierungsbenches hab ich mir ausgerechnet, dass die 5870 mit 4x Supersampling etwas schneller sein sollte als meine 4870 mit 4xEDAA. Richtige Benchmarks wären aber viel toller!


http://www.anandtech.com/video/showdoc.aspx?i=3643&p=15

Iceman346
2009-09-30, 12:05:27
Das ist auch nur ein Test in einem Spiel. Da hat Computerbase ja mehr.

Einmal nen kompletter Benchparcours mit SSAA bitte Herr Ober ;)

MR2
2009-09-30, 12:30:07
Wir bereiten gerade (vermutlich bis übermorgen) einen Test mit jeweils zwei HD 5870 respektive HD 5850 vor. Die ersten Eindrücke sind so wie einst bei der HD 4870 X2: sauschnell, aber drückt man so ein Duo dann doch mal auf unter 40 Fps, ist klares Mikroruckeln spürbar; dito Inputlag.

MfG,
Raff


Um beim Testen der Karte die höchstmöglichen FPS rauszukitzeln ist ein I7 natürlich ein Muss, aber viele nutzen eben Phenom II CPUs. Wäre auch schön solche Benches zu sehen.

Noebbie
2009-09-30, 12:35:04
Ein Bench auf einem aktuellen Phenom II würde mich sehr interessieren!

MR2
2009-09-30, 12:36:51
http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne-Update-mit-Radeon-HD-5850/Rollenspiel-Adventure/Test/

Risen mit der 5850. Nicht schlecht!

y33H@
2009-09-30, 12:38:02
@ Noebbie / MR2

Im GPU-Limit hast du die gleichen Fps, ansonsten weniger. Spannend :freak:

Aber eine CPU-Skalierung mit der HD5870 an sich ist schon nett ...

S940
2009-09-30, 12:42:05
Was erwartet ihr eigentlich davon, wenn ein Phenom II zum Einsatz kommt? Stets dieselben Fps-Werte, weil die CPU deutlich schneller limitiert als z. B. unser i7-920 @ 3,5 GHz? Genau das tritt nämlich ein. Gerade Crossfire-Tests auf einem unübertakteten Phenom II sind völlig witzlos, sofern man nicht die Supersample-Keule schwingt.
Schau Dir mal die schwedischen Ergebnisse erst mal an, bevor Du antwortest. Denn das hast Du anscheinend nicht gemacht ... sonst würdest Du nicht so was erzählen ;-)

Natürlich ist der i7 oft vorne, aber eben nicht immer ... und ohne Tests und mit Deiner Einstellung, wird man solche Ausreißer nie erkennen können. Bei FarCry2 ist es ja eh schon längst bekannt, dass das besser auf Phenom2 läuft, das steht sogar in Eurer PCGH PC Werbung:
http://www.pcgameshardware.de/aid,695118/Neuer-PCGH-Premium-PC-II-Intel-Core-i5-750-Geforce-GTX-275-Anzeige/Komplett-PC/News/bildergalerie/bildergalerie/?iid=943168&vollbild

:freak:

Aber z.B. HAWX ist zumindest mir neu ...

Bug, komisches Testszenario oder echter Vorteil ist da die Frage ... und die stellt sich mit jedem neuen Spiel.
Ausserdem sollte man nicht vergessen, dass ATi Grafikkarten und AMD CPUs von der gleichen Firma kommen, Treiberoptimierungen z.B 512kB L2 oder SSE4A) würde ich da deswegen auch nicht ausschließen.

ciao

Alex

Iceman346
2009-09-30, 12:47:54
Nur ist das eigentlich ne Sache für CPU Tests, nicht für Grafikkartentests ;)

S940
2009-09-30, 12:56:35
Nur ist das eigentlich ne Sache für CPU Tests, nicht für Grafikkartentests ;)
Jein, ohne CPU Kannst Du eine Grafikkarte höchstens auf mechanische Stabilität testen ;D

Natürlich klar was Du meinst, aber wann gabs den letzten großangelegten CPU Test mit allem möglichen (aktuellen) Spielen ?

Ist doch so, dass heutzutage jeder nur mit Intel testet. Mag ja oft die schnellere Lösung sein, aber ich finde es langweilig, zig i7+5870 Tests und ein einziger mit nem P2 und das noch auf schwedisch ...

Edit:
Bei CPU Tests gibts dann wieder die nur witzigen 1024er Auflösungen. Prinzipiell sinnvoll, aber vor dem Hintergrund das der i7 ab und an bei höheren Auflösungen stockt, fände ich persönlich es interessant, wenn man noch z.B. HD mittesten würde.

Ist aber natürlich ne Heidenarbeit, und ich muss nicht testen ;-)

ciao

Alex

Schnitzl
2009-09-30, 13:02:25
Die HD5850 ist kürzer, verbraucht unter Last deutlich weniger Strom und ist deutlich leiser als die HD5870. Dazu noch der günstige Preis und wir haben die aktuell ausgewogenste Karte.
Ich glaube Anantech gar nix mehr, zumal die Werte von PCGH logischer sind bei kleinerer Karte, kleinerem Kühlkörper und weniger Heatpipes.

Naja die paar sone wirst du wohl nicht hören.Im idle ist sie dazu leise das reicht.
Ich hab nen extrem-silent-PC. Da hör ich sogar ne 4850 IceQ unter Last...

S940
2009-09-30, 13:07:45
Ich hab nen extrem-silent-PC. Da hör ich sogar ne 4850 IceQ unter Last...
Unter Last hörst Du jede - nicht passive- Grafikkarte, ich denke das wollte er damit sagen, dass leise @idle ausreicht.

ciao

Alex

PCGH_Raffael
2009-09-30, 13:08:00
Ich glaube Anantech gar nix mehr, zumal die Werte von PCGH logischer sind bei kleinerer Karte, kleinerem Kühlkörper und weniger Heatpipes.

Wir haben von AMD übrigens zwei HD-5850-Muster (für Crossfire-Tests) bekommen. Beide verhalten sich auf 0,1 Sone identisch: 21 Prozent Lüfterdrehzahl im Leerlauf und 30 unter Spielelast. Die Drehzahl hat echt enorme Auswirkungen auf die Lautheit, IIRC hat das Teil mit 100 Prozent weit über 15 Sone rausgeblasen ...

MfG,
Raff

Schnitzl
2009-09-30, 13:13:51
Unter Last hörst Du jede - nicht passive- Grafikkarte, ich denke das wollte er damit sagen, dass leise @idle ausreicht.
Auch hier nein ;)
Das Gehäuse ist recht gut gedämmt. Hm, btw, wenn ich an die Radeon8500, G400MAX usw denke, die hat man trotz Lüfter nicht gehört, auch nicht in nem ungedämmten Gehäuse

Wir haben von AMD übrigens zwei HD-5850-Muster (für Crossfire-Tests) bekommen. Beide verhalten sich auf 0,1 Sone identisch: 21 Prozent Lüfterdrehzahl im Leerlauf und 30 unter Spielelast. Die Drehzahl hat echt enorme Auswirkungen auf die Lautheit, IIRC hat das Teil mit 100 Prozent weit über 15 Sone rausgeblasen ...

MfG,
Raff
wow, 30% unter Last und dann schon so laut :eek:
Wisst ihr schon was über leisere Versionen (HIS, MSI, VaporX...)? :D

cipoint
2009-09-30, 13:18:21
Wir haben von AMD übrigens zwei HD-5850-Muster (für Crossfire-Tests) bekommen. Beide verhalten sich auf 0,1 Sone identisch: 21 Prozent Lüfterdrehzahl im Leerlauf und 30 unter Spielelast. Die Drehzahl hat echt enorme Auswirkungen auf die Lautheit, IIRC hat das Teil mit 100 Prozent weit über 15 Sone rausgeblasen ...

MfG,
Raff

Wie laut ist ein Staubsauger?