PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13

Gast
2009-11-14, 22:24:17
http://www.xbitlabs.com/articles/video/display/radeon-hd5770-hd5750_7.html#sect0

Da fällt halt ziemlich stark auf, das die Karte einbüßt je höher die Auflösung geschraubt wird. Woran könnte das denn liegen, wenn beide ähnliche rechenleistungen und einheiten mitbringen (im vergleich zur 4870 oder 4890 als Beispiel)?

Deinorius
2009-11-14, 22:39:10
Immer wieder erstaunlich, was man bei x-bit labs für Stromverbrauchsmessungen erhält. :rolleyes:

Dr. Cox
2009-11-14, 22:58:18
Ich frage mich gerade, ob es sich lohnt meine GTX280 gegen eine HD5870 einzutauschen?

Bisher war ich mir eigentlich sicher, dass es keinen Sinn machen würde, da die HD5870 nicht wirklich schneller als meine GTX280 ist und zudem in Sachen AF der GTX280 immer noch qualitativ unterlegen ist. Allerdings verwundert es mich, das solche Bildqualitätsfetischisten wie Carsten Spille und Raffael Vötter sich eine HD5870 kaufen/kaufen wollen.....

Nun bin ich mir nicht ganz sicher, ob es sich für mich lohnen würde, oder ob ich besser auf den GT300 warten sollte?

Das Pfeifen meiner GTX280 geht mir nämlich in einigen Spielen gehörig auf die Nerven und genau diese Probleme sollte die HD5870 laut PCGH ja nicht mehr haben, zumindest nicht in dem Umfang.

Wie sieht es denn eigentlich mit der subjektiven Lautstärke der HD5870 aus, ist diese denn leiser als eine GTX260/275?

Raff
2009-11-14, 23:10:04
Du kannst dir ja eine günstige HD 5750 für den Zweitrechner kaufen und damit die BQ in Augenschein nehmen. Stell dir das ganze dann mit 2,5x höheren Fps vor (HD 5870 OC) und du weißt, dass Atis neueste Karte im Gegensatz zu den Vorgängern einfach fett herrscht. V5-6000-Effekt ahoi. =) Insofern lohnt sich das, ja. Aus Geschwindigkeitssicht kannst du ein Plus von etwa 30 Prozent erwarten, in Sachen Lautstärke ein Sidegrade mit weniger ausgeprägtem Schpulenphiepen.

MfG,
Raff

PS: Der Spillemann hat bereits zugeschlagen. ;) Ich hingegen möchte entweder eine "normale" HD 5870 um 300 €uro ... oder aber eine Vapor-X/2G für 400€.

=Floi=
2009-11-14, 23:33:11
warum und für was?

Dr. Cox
2009-11-14, 23:33:47
Du kannst dir ja eine günstige HD 5750 für den Zweitrechner kaufen und damit die BQ in Augenschein nehmen. Stell dir das ganze dann mit 2,5x höheren Fps vor (HD 5870 OC) und du weißt, dass Atis neueste Karte im Gegensatz zu den Vorgängern einfach fett herrscht. V5-6000-Effekt ahoi. =) Insofern lohnt sich das, ja. Aus Geschwindigkeitssicht kannst du ein Plus von etwa 30 Prozent erwarten, in Sachen Lautstärke ein Sidegrade mit weniger ausgeprägtem Schpulenphiepen.

MfG,
Raff

PS: Der Spillemann hat bereits zugeschlagen. ;) Ich hingegen möchte entweder eine "normale" HD 5870 um 300 €uro ... oder aber eine Vapor-X/2G für 400€.



Hmhm...

Und wie sieht das mit dem flimmern der Texturen aus? Dies sollte doch angeblich nur minimal besser geworden sein, oder nicht?

Oder ist es möglich die AF-Qualität mit SGSSAA auf das Niveau von Nvidias HQ anzuheben?

Funktioniert SGSSAA reibungsloser/problemloser als SSAA und die kombinierten Modi bei Nvidia?

Da du ja auch eine gemodete GTX280 (mit Undervolting) hast/hattest, würde ich gerne mal wissen, ob die HD5870 tatsächlich etwas leiser als eine GTX280@1,06 Volt ist?

Da ich an der "Quelle" sitze, hätte ich die Möglichkeit eine HD5870 unter 300€ zu bekommen, also zum Einkaufspreis ;)

PS: Das Carsten bereits eine HD5870 hat und du dir gerne eine kaufen möchtest habe ich in der aktuellen PCGH gelesen ;)

Eigentlich seit ihr beiden daran schuld, dass ich jetzt schon wieder eine neue Grafikkarte will... :freak: :D

Raff
2009-11-14, 23:42:23
warum und für was?

:confused:

Hmhm...

Und wie sieht das mit dem flimmern der Texturen aus? Dies sollte doch angeblich nur minimal besser geworden sein, oder nicht?

Oder ist es möglich die AF-Qualität mit SGSSAA auf das Niveau von Nvidias HQ anzuheben?

Das Flimmern der Texturen ist Q-Niveau. Wenn du die Radeon aber eh wegen des SSAAs kaufst und damit spielst, kann dir das jedoch egal sein: 2x SGSS macht aus dem Ati-AF in den meisten Fällen NV-HQ.

Funktioniert SGSSAA reibungsloser/problemloser als SSAA und die kombinierten Modi bei Nvidia?

Das ist erfreulich kompatibel – IMO sogar besser als die Hybriden. Call of Duty 4/5 beispielsweise werden mit SGSSAA nicht so unscharf wie mit einem Hybriden von Nvidia. Das liegt vermutlich an der anderen Implementierung, die nicht so mit Post Processing kollidiert.

Da du ja auch eine gemodete GTX280 (mit Undervolting) hast/hattest, würde ich gerne mal wissen, ob die HD5870 tatsächlich etwas leiser als eine GTX280@1,06 Volt ist?

Kann ich nur schwer sagen, da auf meiner GTX 280 mittlerweile ein flüsterleiser Accelero sitzt. Das Fiepen einer HD 5870 ist definitiv weniger ausgeprägt, beim Rest dürften sich die Karten nicht viel nehmen. Eine Standard-GTX-280 mit üblen 1,19 Volt ist jedenfalls deutlich lauter als das AMD-Design.

Da ich an der "Quelle" sitze, hätte ich die Möglichkeit eine HD5870 unter 300€ zu bekommen, also zum Einkaufspreis ;)

Schlag zu (und bring mir eine mit ;))!

PS: Das Carsten bereits eine HD5870 hat und du dir gerne eine kaufen möchtest habe ich in der aktuellen PCGH gelesen ;)

Eigentlich seit ihr beiden daran schuld, dass ich jetzt schon wieder eine neue Grafikkarte will... :freak: :D

HAHA! ;)

MfG,
Raff

Dr. Cox
2009-11-14, 23:57:36
Das Flimmern der Texturen ist Q-Niveau. Wenn du die Radeon aber eh wegen des SSAAs kaufst und damit spielst, kann dir das jedoch egal sein: 2x SGSS macht aus dem Ati-AF in den meisten Fällen NV-HQ.

Könnte nur problematische bei Spielen werden, bei denen 2x SGSS nicht funktioniert oder wegen zu wenig Frames (Crysis, Stalker, Risen) nicht möglich ist...

Was kostet 2x SGSS im Durchschnitt an Leistung?


Das ist erfreulich kompatibel – IMO sogar besser als die Hybriden. Call of Duty 4/5 beispielsweise werden mit SGSSAA nicht so unscharf wie mit einem Hybriden von Nvidia. Das liegt vermutlich an der anderen Implementierung, die nicht so mit Post Processing kollidiert.

Mhmhm, ich hoffe du hast recht, meine letzten Erfahrungen mit ATI (HD4870) was die Treiber und vor alem den Support von älteren Spielen anging waren weniger positiv....


Kann ich nur schwer sagen, da auf meiner GTX 280 mittlerweile ein flüsterleiser Accelero sitzt. Das Fiepen einer HD 5870 ist definitiv weniger ausgeprägt, beim Rest dürften sich die Karten nicht viel nehmen. Eine Standard-GTX-280 mit üblen 1,19 Volt ist jedenfalls deutlich lauter als das AMD-Design.

Ich glaube da ist fast jede Karte leiser als die GTX280 mit 1,18 Volt....:freak:


Schlag zu (und bring mir eine mit ;))!

Wenn ich euch dann mal im Verlag besuchen kommen kann.... :D


HAHA! ;)


:freak: :biggrin:


PS: Was sagst du eigentlich als Redakteur zu diesen Problemen mit der HD5870:

http://www.hardwareluxx.de/community/showthread.php?t=657204

http://www.hardwareluxx.de/community/showpost.php?p=13168623&postcount=927


Könnten diese ominösen Abstürze - welche ich im Übrigen mit der HD4870 auch hatte, bevor sie nach weniger als einem Monat verreckt ist - mit dem mainboard zu tun haben? Denn beide beteiligten haben ein Asus-Mainboard, so wie auch ich damals ein Asus-Board hatte....

=Floi=
2009-11-15, 00:07:49
warum wollt ihr beide eine ati karte? nur wegen dem SGSSAA? bei welches spielen wollt ihr die karte einsetzen? durch die eingeschränkten treiberfunktionen sehe ich die karte ja eher im nachteil. vor allem TSAA ist für mich ein absolute ko kriterium.

derguru
2009-11-15, 00:15:02
tsaa ist sowas von wurscht wenn man sgssaa haben kann.

@Dr. Cox

so,so die 280 pfeift dir einen,merkt man erst spät mit dem tinnitus,wah. :lol:

Dr. Cox
2009-11-15, 00:16:20
warum wollt ihr beide eine ati karte? nur wegen dem SGSSAA? bei welches spielen wollt ihr die karte einsetzen? durch die eingeschränkten treiberfunktionen sehe ich die karte ja eher im nachteil. vor allem TSAA ist für mich ein absolute ko kriterium.

Nach den Problemen mit der HD5870 welche einige User auf hardwareluxx.de haben, werde ich mir das mit der HD5870 wohl echt noch einmal gründlich überlegen müssen!

Iceman346
2009-11-15, 00:26:42
Könnte nur problematische bei Spielen werden, bei denen 2x SGSS nicht funktioniert oder wegen zu wenig Frames (Crysis, Stalker, Risen) nicht möglich ist...

Was kostet 2x SGSS im Durchschnitt an Leistung?

Laut dem Computerbase Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/7/#abschnitt_skalierungstests) etwa 30%.
Ich weiß nicht in welcher Auflösung du spielst, aber selbst in 1920x1200 bei mir ist 2xSSAA in eigentlich jedem Spiel von der Leistung her drin, sofern es funktioniert bzw. nicht mit Postprocessing kollidiert. Allerdings hab ich hier weder Crysis noch Stalker noch Risen ;)

PS: Was sagst du eigentlich als Redakteur zu diesen Problemen mit der HD5870:

http://www.hardwareluxx.de/community/showthread.php?t=657204

http://www.hardwareluxx.de/community/showpost.php?p=13168623&postcount=927


Könnten diese ominösen Abstürze - welche ich im Übrigen mit der HD4870 auch hatte, bevor sie nach weniger als einem Monat verreckt ist - mit dem mainboard zu tun haben? Denn beide beteiligten haben ein Asus-Mainboard, so wie auch ich damals ein Asus-Board hatte....

Kann nur sagen, dass sich die Karte bei mir so verhält wie sie soll und das Problem scheint ja arg begrenzt zu sein. Hier im Forum ist noch keiner damit aufgetaucht.

Edit: Achja: Auf GPU-Z in Verbindung mit der 5870 würd ich mich nicht verlassen. Das Programm macht einige seltsame Dinge mit der Karte wie ich selbst feststellen musste. Wenn ich GPU-Z starte und gleichzeitig beispielsweise Opera 10 laufen habe wird die Karte dauernd zwischen vollem Takt und niedrigem Takt hin und her getaktet. Das liegt aber rein an GPU-Z. Der MSI Afterburner zeigt, dass die Karte normal runtertaktet sobald ich GPU-Z wieder beende, da ist auf jeden Fall was buggy.

Dr. Cox
2009-11-15, 00:35:07
Laut dem Computerbase Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/7/#abschnitt_skalierungstests) etwa 30%.
Ich weiß nicht in welcher Auflösung du spielst, aber selbst in 1920x1200 bei mir ist 2xSSAA in eigentlich jedem Spiel von der Leistung her drin, sofern es funktioniert bzw. nicht mit Postprocessing kollidiert. Allerdings hab ich hier weder Crysis noch Stalker noch Risen ;)

Ich spiele mit 1920x1080 ;)

Könntest du denn eventuell mal die Demo von Risen ausprobieren und mal ein Fazit bezüglich SGSSAA in Risen abgeben?

http://www.4players.de/4players.php/download_info/Downloads/Download/53268/Risen/Demo.html

Gerade in Risen ist die HD5870 ja extrem schnell gegenüber meiner GTX280, wäre echt gut, wenn die leistung sogar noch für SGSSAA ausreichen würde :)


Kann nur sagen, dass sich die Karte bei mir so verhält wie sie soll und das Problem scheint ja arg begrenzt zu sein. Hier im Forum ist noch keiner damit aufgetaucht.

Hmhmhm, vielleicht hat es auch damit etwas zu tun, dass hardwareluxx das Forum der ganzen OC-Kiddis ist, die sich mit ihren Schwanzmarkwerten profilieren wollen, obwohl es mit Grafikkarten-OC in Spielen so gut wie kein spürbares Leistungsplus gibt. Allerdings wurde meine HD4870 auch niemals übertaktet und ist trotzdem mit den bereits beschriebenen Fehlern grundlos abgeraucht....

Gunslinger
2009-11-15, 08:53:35
In Risen bekommen ich mit 2xSSAA einen schwarzen Bildschirm. 4x klappt zwar, ist mir in 1900x1200 aber doch zu ruckelig. Vielleicht wird es mit dem 9.12 Treiber noch besser.

kein AA
http://666kb.com/i/be4ixf80xe9cgx8kt.jpg

4xMSAA
http://666kb.com/i/be4iyfr1cqgw9qffx.jpg

4xSSAA
http://666kb.com/i/be4iyzk9w8344ijzh.jpg

Dragon Age spiele ich aktuell mit 4xSSAA. Zu Beginn in Ostagar merkt man schon, dass die Leistung etwas runtergeht, aber in den kleineren Levelgebieten läuft es problemlos flüssig.

Iceman346
2009-11-15, 13:09:02
Die Risen Demo hab ich damals mit 4xSSAA getestet, das ging halbwegs, mehr weiß ich nicht mehr, ist wegen Nichtgefallen recht flott runtergeflogen.

Bei Dragon Age muss man für SSAA die Framebuffereffekte abschalten (sonst blurrts), dann läufts bei mir mit 4xSSAA auch problemlos. Leider sieht das Spiel ohne die Effekte deutlich anders aus (deutlich dunkler und "unfreundlicher"), darum spiele ich lieber ohne SSAA.

Matrix316
2009-11-15, 14:08:51
[...]

Bisher war ich mir eigentlich sicher, dass es keinen Sinn machen würde, da die HD5870 nicht wirklich schneller als meine GTX280 ist und zudem in Sachen AF der GTX280 immer noch qualitativ unterlegen ist. Allerdings verwundert es mich, das solche Bildqualitätsfetischisten wie Carsten Spille und Raffael Vötter sich eine HD5870 kaufen/kaufen wollen.....
[...]

"Nicht wirklich schneller" würde ich nicht sagen...
http://www.computerbase.de/artikel/software/2009/test_stalker_call_pripyat/3/

81% bei den MinFrames in 1920x1200 4xAA/16xAF bei Stalker im Vergleich zu einer GTX 275 ist schon was...

Mr. Lolman
2009-11-15, 14:21:12
Oder bei Crysis mit 4xSGSSAA noch minimal flotter als ne GTX280 mit 4xMSAA: http://images.anandtech.com/reviews/video/ati/5870/AA.jpg

Raff
2009-11-15, 14:54:38
Hehe, das ist ein schöner Vergleich. SSAA anstatt MSAA bei gleichen Fps sehe ich schon als Kaufgrund an. :D

MfG,
Raff

mapel110
2009-11-15, 15:01:16
Würd nur gern wissen, wie Anand da auf 53 fps kommt. CB schafft mit nem 4 Ghz Quadcore gerade mal 39 fps bei 1680x1050er Auflösung ohne AA/AF.

derguru
2009-11-15, 15:02:58
ist doch gamer settings und nur shader auf enthusiast.

Jake Dunn
2009-11-15, 15:04:53
Und DX9 sowie ein Core i7 und wohl eine andere Szene

Raff
2009-11-15, 15:07:23
Yep, DX9 läuft deutlich besser (zwischen 10 und 20 Prozent) als DX10. DX9 braucht's, um SSAA zu aktivieren.

MfG,
Raff

Nightspider
2009-11-15, 15:11:50
Schonmal jemand Crysis mit 24" @ 3840*2100 probiert ?

mapel110
2009-11-15, 15:13:19
DX9 braucht's, um SSAA zu aktivieren.

MfG,
Raff
Klar, daran hab ich nicht mehr gedacht.

Raff
2009-11-15, 15:17:47
Schonmal jemand Crysis mit 24" @ 3840*2100 probiert ?

Das läuft so wie 1.920 x 1.080 mit 4x SSAA, also grenzwertig spielbar (unter DX9). Abhängig von der Szene 20 bis 30 Fps.

MfG,
Raff

Dr. Cox
2009-11-15, 15:30:44
Das läuft so wie 1.920 x 1.080 mit 4x SSAA, also grenzwertig spielbar (unter DX9). Abhängig von der Szene 20 bis 30 Fps.

MfG,
Raff

Und wie sieht das mit 1920 x 1080 alles nur high und 4xSGSAA aus?

Bleibt auch noch die Frage offen, ob 1GB für die leistung der HD5870 ausreichend sind, oder ob es nicht doch besser 2GB sein sollten?

Raff
2009-11-15, 15:53:11
Und wie sieht das mit 1920 x 1080 alles nur high und 4xSGSAA aus?

Etwas flüssiger. ;) KA, so spiele ich nicht.

Bleibt auch noch die Frage offen, ob 1GB für die leistung der HD5870 ausreichend sind, oder ob es nicht doch besser 2GB sein sollten?

Ich sag's mal so: Generell würde eine HD 5870 natürlich von 2 GiB profitieren wie kaum eine andere Karte zuvor. Das gilt jedoch nur für Einstellungen oberhalb von 1.920 x 1.200. In 2.560 x 1.600 inklusive mindestens 4x AA ist der VRAM oft dicht und die Leistung sinkt, obwohl der Rest der Karte schnell genug wäre.

Bis hinunter zu der genannten 24-Zoll-Auflösung gibt's jedoch kaum Probleme mit dem VRAM, es sei denn, du spielst mit Texturmods. Und sofern du eh immer SSAA an hast, stellen sich spätestens in 1.920 x 1.200 mit 8 Supersamples andere Probleme ein als VRAM-Mangel. Da limitiert nämlich die Rechenleistung.

MfG,
Raff

Dr. Cox
2009-11-15, 16:19:58
Etwas flüssiger. ;) KA, so spiele ich nicht.

Mir ist es viel wichtiger, das in Crysis dieses extrem nervige Geflimmer der Vegetation verschwindet, als dass ich vielleicht zwei drei Lichtstrahlen mehr habe, die mir während des Spielens allerdings nicht so stark auffallen wie das nervige Geflimmer ;)


Ich sag's mal so: Generell würde eine HD 5870 natürlich von 2 GiB profitieren wie kaum eine andere Karte zuvor. Das gilt jedoch nur für Einstellungen oberhalb von 1.920 x 1.200. In 2.560 x 1.600 inklusive mindestens 4x AA ist der VRAM oft dicht und die Leistung sinkt, obwohl der Rest der Karte schnell genug wäre.

Bis hinunter zu der genannten 24-Zoll-Auflösung gibt's jedoch kaum Probleme mit dem VRAM, es sei denn, du spielst mit Texturmods. Und sofern du eh immer SSAA an hast, stellen sich spätestens in 1.920 x 1.200 mit 8 Supersamples andere Probleme ein als VRAM-Mangel. Da limitiert nämlich die Rechenleistung.

MfG,
Raff


Also im Prinzip das Gleiche wie bei der GTX285, welche von der Leistung her auch zu schwach ist, als dass sie mit SSAA von 2GB wirklich im spielbaren Bereich profitieren könnte. Somit könnte man also bedenkenlos zu einer HD5870 mit 1Gb Vram greifen. Bei der HD4870 war es jedoch seinerzeit ein großer Fehler zu einer HD4870 mit 512MB zu greifen, wer dies damals getan hat musste sehr schnell zur Erkenntnis kommen dass 512MB tatsächlich nicht mehr zeitgemäß waren, auch wenn es damals viele FanATIker nicht glauben wollten ;)

Nightspider
2009-11-15, 16:34:52
Hätte ich eine HD5870 mit GiB VRAM würde ich nurnoch mit 4*SSAA bzw. 3840*2400 spielen (vllt in Verbindung mit 2*AA).

Meine zwei GTX 280 Karten schwanken ja extrem bei 3840*2400 zwischen 5 und 20 FPS...da ist der VRAM auch total am Überlaufen...

...aber die Bildqualität inst Wahnsinn...

derguru
2009-11-15, 16:44:55
eine 5870 reicht aber nicht aus,jedenfalls nicht für warhead.erst mit 2 karten läufts gut aber klar viele andere spiele sind mit einer spielbar bei 4xsgssa.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7579775&postcount=172

LovesuckZ
2009-11-15, 16:57:17
1GB und Crossfire? Das ist ein ziemliches understatement. Wenn man schon CF fahren will, dann sollten es in dieser Leistungsklasse auch mindesten 2GB sein.

Nightspider
2009-11-15, 17:06:27
eine 5870 reicht aber nicht aus,jedenfalls nicht für warhead.erst mit 2 karten läufts gut aber klar viele andere spiele sind mit einer spielbar bei 4xsgssa.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7579775&postcount=172

DirectX 9.0c ENTHUSIAST 3X @ Map: ambush @ 0 1920 x 1200 AA 4x
==> Framerate [ Min: 13.67 Max: 53.62 Avg: 35.25 ]

Hast du mit 4*SSAA getestet ? Avg. 35 FPS sind doch okay...ich würd was für geben so Crysis in 3840*2400 spielen zu können...

Hast du nen Tool zum Videos aufzeichnen ?

Kannst du nen kurzes Video von Crysis @ 3840*2400 oder eben 4*SSAA drehen ? :D (Videoformat 1920*1200?)

MR2
2009-11-15, 17:11:48
Guru hat glaub nur noch eine Karte.

Gast
2009-11-15, 20:07:32
Guru hat glaub nur noch eine Karte.

Was ist eigentlich aus Blaire geworden? Hat der nicht drei 5870er gekauft?

Mr. Lolman
2009-11-15, 20:58:43
...ich würd was für geben so Crysis in 3840*2400 spielen zu können...


1920x1200 mit 4xSGSSAA + LOD-Anpassung sieht sogar deutlich besser aus, als 3840x2400 downgesampelt.

Schlammsau
2009-11-15, 21:05:06
DirectX 9.0c ENTHUSIAST 3X @ Map: ambush @ 0 1920 x 1200 AA 4x
==> Framerate [ Min: 13.67 Max: 53.62 Avg: 35.25 ]

Hast du mit 4*SSAA getestet ? Avg. 35 FPS sind doch okay...ich würd was für geben so Crysis in 3840*2400 spielen zu können...

Hast du nen Tool zum Videos aufzeichnen ?

Kannst du nen kurzes Video von Crysis @ 3840*2400 oder eben 4*SSAA drehen ? :D (Videoformat 1920*1200?)


Mit Sicherheit nicht, hier mal meine Ergebnisse mit 2x und 4x SSAA in Warhead mit einer übertakteten 5850:
DirectX 9.0c ENTHUSIAST 3X @ Map: ambush @ 0 1680 x 1050 SGSSAA 2x AF 16x
==> Framerate [ Min: 18.90 Max: 40.17 Avg: 30.98 ]

DirectX 9.0c ENTHUSIAST 3X @ Map: ambush @ 0 1680 x 1050 SGSSAA 4x AF 16x
==> Framerate [ Min: 11.85 Max: 31.48 Avg: 22.70 ]
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7612366#post7612366

Mit nur 4xAA siehts so aus:
DirectX 9.0c ENTHUSIAST 3X @ Map: ambush @ 0 1680 x 1050 AA 4x AF 16x
==> Framerate [ Min: 23.80 Max: 43.07 Avg: 34.87 ]

Gast
2009-11-15, 22:28:51
Was ist eigentlich aus Blaire geworden? Hat der nicht drei 5870er gekauft?

Vielleicht hatte sein Board nur 2 PCie Stecklätze???

Nightspider
2009-11-15, 22:50:37
1920x1200 mit 4xSGSSAA + LOD-Anpassung sieht sogar deutlich besser aus, als 3840x2400 downgesampelt.

Ja? Kann man 4*SGSSAA mit einer bestimnmten Auflösung vergleichen ?

Gast
2009-11-15, 23:38:50
Mit Sicherheit nicht, hier mal meine Ergebnisse mit 2x und 4x SSAA in Warhead mit einer übertakteten 5850:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7612366#post7612366

Mit nur 4xAA siehts so aus:

das prob bei dem Bench ist, das er im 1. Durchlauf fast steht ganz am Anfang und genau die Stelle ergeben deine minifps, im 2. und 3. stehen da ganz andere....das sind locker 5-10 FPS mehr.....

Raff
2009-11-17, 21:30:13
1920x1200 mit 4xSGSSAA + LOD-Anpassung sieht sogar deutlich besser aus, als 3840x2400 downgesampelt.

Nö, nicht deutlich (IMO). So viel macht das SG gegenüber dem OG auf diesem Niveau (IMO ;)) nicht aus. Da man das SG jedoch kostenlos kriegt, ist das natürlich vorzuziehen.

1GB und Crossfire? Das ist ein ziemliches understatement. Wenn man schon CF fahren will, dann sollten es in dieser Leistungsklasse auch mindesten 2GB sein.

Nunja, man kann auch mit "nur" einem GiB viel Spaß haben – mit 4x SSAA limitiert die GPU viel, viel öfter als die Speichermenge. Crossfire ist aber immer noch Grütze³ (Mikroruckeln plus Lag ahoi).

MfG,
Raff

derguru
2009-11-17, 21:46:48
naja was heißt nicht deutlich,4x sgsaa kann man mit 16xS vergleichen.:wink:

Gast
2009-11-17, 22:16:43
naja was heißt nicht deutlich,4x sgsaa kann man mit 16xS vergleichen.:wink:4x4 EER soll vergleichbar mit 8x8 EER sein? Mal davon abgesehen, dass die EER nicht so wichtig ist wie oft behauptet, stehen immer noch 16 Z-Samples und 4 C-Samples gegen 4 Z-Samples und 4 C-Samples...
Also wenn schon Birnen mit Äpfeln vergleichen, dann 8xSGSSAA mit 16xS (8x8 EER vs 8x8 EER). Was auch nicht wirklich hinhaut, aber wenigstens weitaus besser als dein Vorschlag.
Oder 4xSGSSAA mit 8xSq, was halbwegs stimmig wäre (da nicht nur 4x4 EER vs 4x4 EER, sondern auch gleich viele SSAA-Samples).
Oder CF-16xSGSSAA mit 32xS, auch wenn das weniger ein Vergleich unterschiedlicher Fruchtsorten als der zwischen Fisch und Fleisch wäre :uhippie:

Mr. Lolman
2009-11-17, 22:30:04
Nö, nicht deutlich (IMO). So viel macht das SG gegenüber dem OG auf diesem Niveau (IMO ;)) nicht aus. Da man das SG jedoch kostenlos kriegt, ist das natürlich vorzuziehen.

Dann versteh ich nicht, warum du so ein Verfechter von Voodoo5 4xSGSSAA bist, wenn du eh der Meinung bist, dass das nicht soviel ggü GF2 4xOGSSAA ausmacht. (und jetzt komm mir nicht mit der Auflösung - ja die ist mit 1920x1200 auf 24" höher, aber deswegen sitzt man ja nicht weiter vom Monitor entfernt als damals, bei 1024x768 auf 17" CRT. Das Bild ist einfach größer).

4x4 EER soll vergleichbar mit 8x8 EER sein? Mal davon abgesehen, dass die EER nicht so wichtig ist wie oft behauptet, stehen immer noch 16 Z-Samples und 4 C-Samples gegen 4 Z-Samples und 4 C-Samples...
Dafür hast du bei 4xSGSSAA ein 4x4 EER auch auf Alphatests, im Ggs zum 2x2 EER beim 16xS.

Oder 4xSGSSAA mit 8xSq, was halbwegs stimmig wäre (da nicht nur 4x4 EER vs 4x4 EER, sondern auch gleich viele SSAA-Samples).
Oder CF-16xSGSSAA mit 32xS, auch wenn das weniger ein Vergleich unterschiedlicher Fruchtsorten als der zwischen Fisch und Fleisch wäre :uhippie:
8xSq mit TRSSAA vs 4xSGSSAA würd eher hinkommen.

Ja? Kann man 4*SGSSAA mit einer bestimnmten Auflösung vergleichen ?

Ja, wenn du beim Downsampling noch 2xMSAA dazunimmst ist die BQ ungefähr gleich.

Gast
2009-11-17, 22:59:39
Dafür hast du bei 4xSGSSAA ein 4x4 EER auch auf Alphatests, im Ggs zum 2x2 EER beim 16xS.
8xSq mit TRSSAA vs 4xSGSSAA würd eher hinkommen.Zum TAA bietet sich bei den Hybriden doch deutlich eher die MSAA-Variante an, weil sie erstens so gut wie nix kostet und zweitens ihre Schwächen vom SSAA-Anteil kompensiert werden. Und gegen andere Okularkarzinogene wirken OGSSAA und SGSSAA annähernd gleich gut, OG manchmal sogar besser.
Aber lassen wir das, denn spätestens mit den besseren Downfiltern geht die Vergleichbarkeit manisch kichernd über Bord :usweet:

Mr. Lolman
2009-11-17, 23:02:44
Zum TAA bietet sich bei den Hybriden doch deutlich eher die MSAA-Variante an, weil sie erstens so gut wie nix kostet und zweitens ihre Schwächen vom SSAA-Anteil kompensiert werden. Und gegen andere Okularkarzinogene wirken OGSSAA und SGSSAA annähernd gleich gut, OG manchmal sogar besser.
Aber lassen wir das, denn spätestens mit den besseren Downfiltern geht die Vergleichbarkeit manisch kichernd über Bord :usweet:

Solang TRMSAA Dithering (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=470259) produziert, wohl eher nicht, ansonsten aber ACK.

Gast
2009-11-17, 23:12:35
Solang TRMSAA Dithering (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=470259) produziert, wohl eher nichtMacht sich das wirklich auch mit den Hybriden irgendwo bemerkbar? Unter reinem MSAA klar, keine Frage, reines MSAA ist aber wohl kaum als Gegner für SGSSAA geeignet.

Dr. Cox
2009-11-18, 20:31:53
So, HD5870 ist bestellt. Bin mal gespannt wann sie denn eintreffen wird....

Gast
2009-11-18, 20:35:17
So, HD5870 ist bestellt. Bin mal gespannt wann sie denn eintreffen wird....

Bestell lieber gleich in 3 verschiedenen Shops. Hat bei mir auch zu Ziel geführt.

Raff
2009-11-18, 21:01:14
Dann versteh ich nicht, warum du so ein Verfechter von Voodoo5 4xSGSSAA bist, wenn du eh der Meinung bist, dass das nicht soviel ggü GF2 4xOGSSAA ausmacht. (und jetzt komm mir nicht mit der Auflösung - ja die ist mit 1920x1200 auf 24" höher, aber deswegen sitzt man ja nicht weiter vom Monitor entfernt als damals, bei 1024x768 auf 17" CRT. Das Bild ist einfach größer).

Doch genau, wegen der Auflösung. ;) Klar ist SG besser, aber sooo extrem fällt das auf diesem Niveau nicht auf ... es sei denn, man nutzt einen 27-Zöller mit 1.920 x 1.080 Pixeln, resultierend in SOO Blöcken. Aber Hauptsache SSAA. :D

So, HD5870 ist bestellt. Bin mal gespannt wann sie denn eintreffen wird....

Hrhr, das ging ja schnell. Weniger als 300 €uro? ;)

MfG,
Raff

Dr. Cox
2009-11-18, 21:14:20
Bestell lieber gleich in 3 verschiedenen Shops. Hat bei mir auch zu Ziel geführt.

Brauche ich nicht, ich sitze direkt an der Quelle ;)



Hrhr, das ging ja schnell. Weniger als 300 €uro? ;)



Jep :)

Ich hoffe nur, das war keine Fehlentscheidung, immerhin gehen mir die Probleme die ich mit der HD4870 hatte immer noch stark auf die Nieren, gerade auch mit älteren Spielen, die entweder gar nicht liefen, oder nur sehr langsam...

Läuft denn Gothic 2 auf einer HD 5870 flüssig?

Mr. Lolman
2009-11-18, 21:19:26
Doch genau, wegen der Auflösung. ;) Klar ist SG besser, aber sooo extrem fällt das auf diesem Niveau nicht auf ... es sei denn, man nutzt einen 27-Zöller mit 1.920 x 1.080 Pixeln, resultierend in SOO Blöcken.

Najo. Ein durchschnittlicher 17"CRT @1024x768 hat ~82 dpi. Ein 24" TFT hat ~94. Soooviel mehr ist das garnicht.

reunion
2009-11-18, 21:20:34
Läuft denn Gothic 2 auf einer HD 5870 flüssig?

:)
Eher nicht.

Schlammsau
2009-11-18, 21:21:17
Ich hoffe nur, das war keine Fehlentscheidung, immerhin gehen mir die Probleme die ich mit der HD4870 hatte immer noch stark auf die Nieren, gerade auch mit älteren Spielen, die entweder gar nicht liefen, oder nur sehr langsam...

Bestell sie wieder ab und überlass die Karte einem wirklich interessierten, du wirst mit der Karte nicht glücklich werden. :cool:

Dr. Cox
2009-11-18, 21:24:43
:)
Eher nicht.

Ohne Spaß, auf meiner HD 4870 lief Gothic 2 schlechter als auf meiner Geforce 7900GTX.


Bestell sie wieder ab und überlass die Karte einem wirklich interessierten, du wirst mit der Karte nicht glücklich werden. :cool:

Wieso? :uconf:

derguru
2009-11-18, 21:25:29
Bestell sie wieder ab und überlass die Karte einem wirklich interessierten, du wirst mit der Karte nicht glücklich werden. :cool:
klassischer flamer oder warum meinst du fragt er ob gothic2 läuft obwohl bekannt ist das ati karten bei der gothic reihe sucken.

cox nimm tnt2 für gothic2.:rolleyes:

Dr. Cox
2009-11-18, 21:27:38
cox nimm tnt2 für gothic2.:rolleyes:

Wahrscheinlich war selbst die schneller als meine damalige HD 4870 :freak:

Glaubst du etwas ich frage hier nur so zum Spaß, ob Gothic 2 auf der HD 5870 flüssig läuft?

Meinst du nicht, ich will diesen alten Klassiker mit SGSSAA mal wieder in neuem Glanz genießen?

Paranoia ist schon etwas schönes, nicht wahr? jeder ist ein potenzieller Flammer/Fanboy, der etwas negatives über ATI sagt, nicht wahr?:freak:

Raff
2009-11-18, 21:28:49
Wahrscheinlich war selbst die schneller als meine damalige HD 4870 :freak:

Eher nicht, da kein T&L. Eine GeForce 4 könnte aber schon schneller sein. :ulol:

MfG,
Raff

Dr. Cox
2009-11-18, 21:31:14
Eher nicht, da kein T&L. Eine GeForce 4 könnte aber schon schneller sein. :ulol:


Hmhmh, wirklich?

Weshalb läuft das denn dann mit meiner GTX280 flüssig, oder hat die noch T&L?

Hätte nicht gedacht, das ATI dies nicht mehr hat....

Ich dachte immer, dass T&L ein eher sinnloses Feature ist, welches wenn überhaupt erst so spät genutzt wurde, dass es eh keinen Vorteil mehr erbrachte, so kann man sich wohl irren.

reunion
2009-11-18, 21:31:15
Seit irgend einem 2006er Treiber IIRC hängt G2 auf ATi-Karten am CPU-Limit, warum auch immer. Ich glaube nicht das sich mit dem HD5-Treiber da was geändert hat.

dutchislav
2009-11-18, 21:33:16
Wurden die Grafikfehler im Spiel "The Witcher" mit dem letzten Treiber eigentlich beseitigt?

Raff
2009-11-18, 21:36:50
Seit irgend einem 2006er Treiber IIRC hängt G2 auf ATi-Karten am CPU-Limit, warum auch immer. Ich glaube nicht das sich mit dem HD5-Treiber da was geändert hat.

Ich mach mal schnell den Test mit dem Khorinis-Killersave (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=194819).

€dit: Ich werd' verrückt. Ich hab 29 Fps beim Killersave! :eek: Mit 2,7 GHz (Kentsfield) und einer HD 5870. Ob Windows 7 das Heilmittel ist?

MfG,
Raff

Dr. Cox
2009-11-18, 21:42:02
Seit irgend einem 2006er Treiber IIRC hängt G2 auf ATi-Karten am CPU-Limit, warum auch immer. Ich glaube nicht das sich mit dem HD5-Treiber da was geändert hat.

Gibt es denn da nicht irgend eine Möglichkeit etwas am Treiber herum zu basteln?

Damit die Erweiterungen von Medall of Honor überhaupt mit meiner HD 4870 starteten musste ich von einem ganz alten Treiber eine Datei ins Spiel/Treiberordner packen/ersetzen und dann lief es endlich. Geht das eventuell bei Gothic 2 auch, ist da jemandem etwas bekannt?

derguru
2009-11-18, 21:52:51
Wurden die Grafikfehler im Spiel "The Witcher" mit dem letzten Treiber eigentlich beseitigt?
nein,wieso sollten sie.

reunion
2009-11-18, 21:54:12
€dit: Ich werd' verrückt. Ich hab 29 Fps beim Killersave! :eek: Mit 2,7 GHz (Kentsfield) und einer HD 5870. Ob Windows 7 das Heilmittel ist?


Ne, kann ich mir kaum vorstellen das es an Windows liegt, war bis jetzt völlig Plattformunabhängig. Der HD5-Treiber wurde von Grund auf neu geschrieben, deshalb sind auch neue Bugs hinzu gekommen und andere Geschichte.

Dr. Cox
2009-11-18, 21:59:46
€dit: Ich werd' verrückt. Ich hab 29 Fps beim Killersave! :eek: Mit 2,7 GHz (Kentsfield) und einer HD 5870. Ob Windows 7 das Heilmittel ist?


Da habe ich aber mit meiner GTX280 weitaus mehr Frames und das mit 16xS.

reunion
2009-11-18, 22:00:31
Da habe ich aber mit meiner GTX280 weitaus mehr Frames und das mit 16xS.

Bei dem Save mit einer ähnlich starken CPU? Glaube ich nicht. :)

frix
2009-11-18, 22:00:43
wie lang istn eigentllich die 5870?

Dr. Cox
2009-11-18, 22:09:38
Bei dem Save mit einer ähnlich starken CPU? Glaube ich nicht. :)
Mit der HD 4870 kam ich an der Stelle nicht über 20 Frames. Mit der GTX 280 hingegen hatte ich über 50 Frames. Und das obwohl die GTX 280 eigentlich nicht so viel schneller als eine HD 4870 ist.

Gast
2009-11-18, 22:12:04
Ohne Spaß, auf meiner HD 4870 lief Gothic 2 schlechter als auf meiner Geforce 7900GTX.




Wieso? :uconf:

Weil deine Haltung schon jetzt regelrecht nach Negativpunkten giert. Ich gehe jede Wette ein, dass Du nur am Jammern sein wirst (sofern Du wirklich eine bestellt hast; unter 300€ glaube ich ehrlich gesagt niemandem).

Schlammsau
2009-11-18, 22:13:44
Mit der HD 4870 kam ich an der Stelle nicht über 20 Frames. Mit der GTX 280 hingegen hatte ich über 50 Frames. Und das obwohl die GTX 280 eigentlich nicht so viel schneller als eine HD 4870 ist.

Ich warte schon auf deinen Userbericht.....:|

Mr. Lolman
2009-11-18, 22:15:48
Da habe ich aber mit meiner GTX280 weitaus mehr Frames und das mit 16xS.

Sicher nicht beim Killersave: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7047113&postcount=260

Coda
2009-11-18, 22:16:13
Hmhmh, wirklich?

Weshalb läuft das denn dann mit meiner GTX280 flüssig, oder hat die noch T&L?

Hätte nicht gedacht, das ATI dies nicht mehr hat....

Ich dachte immer, dass T&L ein eher sinnloses Feature ist, welches wenn überhaupt erst so spät genutzt wurde, dass es eh keinen Vorteil mehr erbrachte, so kann man sich wohl irren.
*facepalm*

T&L ist *kein* nutzloses Feature geworden, es wird nur inzwischen vollständig durch die Vertex-Shader ersetzt.

Dr. Cox
2009-11-18, 22:19:50
Weil deine Haltung schon jetzt regelrecht nach Negativpunkten giert. Ich gehe jede Wette ein, dass Du nur am Jammern sein wirst (sofern Du wirklich eine bestellt hast; unter 300€ glaube ich ehrlich gesagt niemandem).

Nun, ich bin eben ein kritischer Mensch, oder glaubst du etwa das Pfeifen meiner GTX 280 unter Last geht mir nicht auf den Sack?

Was passiert wenn man immer nur alles schön und toll redet, das konnte man bereits vor Jahren im Geschichtsunterricht der 5.-10. Klasse lernen ;)


Ich warte schon auf deinen Userbericht.....:|

Setzt du mich dann auch demonstrativ auf deine "Ignoreliste" :freak: ;D


*facepalm*

T&L ist *kein* nutzloses Feature geworden, es wird nur inzwischen vollständig durch die Vertex-Shader ersetzt.

Schade dass die Vertex-Shader nicht der Berechnung von T&L in Gothic 2 übernehmen können....

Ronny145
2009-11-18, 22:22:01
Wurden die Grafikfehler im Spiel "The Witcher" mit dem letzten Treiber eigentlich beseitigt?


Nein, wurden leider nicht beseitigt. Vermutlich dann mit dem nächsten Treiber.

Schlammsau
2009-11-18, 22:26:25
Setzt du mich dann auch demonstrativ auf deine "Ignoreliste" :freak: ;D

Wenn du es drauf anlegst schon. ;)

Mr. Lolman
2009-11-18, 22:32:43
Schade dass die Vertex-Shader nicht der Berechnung von T&L in Gothic 2 übernehmen können....

Hä? Tun sie ja offensichtlich. Außerdem gabs beim Killersave noch nie 29fps. Sieh dir mein voriges Post an.

reunion
2009-11-18, 22:33:12
Mit der HD 4870 kam ich an der Stelle nicht über 20 Frames. Mit der GTX 280 hingegen hatte ich über 50 Frames. Und das obwohl die GTX 280 eigentlich nicht so viel schneller als eine HD 4870 ist.

Ich denke du hast schon verstanden was ich gesagt habe. Der Save ist praktisch vollständig CPU-limitiert. Wenn der Wert von Raff korrekt ist ist der Bug mit den HD5-Treibern jedenfalls Geschichte. Mit einer ähnlich starken CPU hättest du da auch mit deiner GTX280 nicht mehr fps.

Dr. Cox
2009-11-18, 22:43:04
Ich habe das Savegame mal geladen und habe tatsächlich nur 30 Frames, egal ob ich es mit 800x600 ohne AA, oder mit 1920x1080 mit 4x4 geladen habe. Überall sonst ist Gothic 2 gut spielbar und ich habe mehr als doppelt so viele Frames wie zuvor mit einer HD4870 ;)

http://www2.pic-upload.de/18.11.09/3sfq7bd2whck.jpg

Slipknot79
2009-11-19, 02:40:47
*facepalm*

T&L ist *kein* nutzloses Feature geworden, es wird nur inzwischen vollständig durch die Vertex-Shader ersetzt.


Alte Spiele mit T&L funktionieren also ned? :confused:

mapel110
2009-11-19, 03:03:21
Alte Spiele mit T&L funktionieren also ned? :confused:
Doch, es sei denn der Treiber hat Probleme irgendwelche T&L-Hacks von damals zu interpretieren. Ich würde also eher die Schuld beim Spielermache suchen. ATI und nvidia traue ich ansonsten schon zu, T&L wie spezifiziert auf die neuen VS abzubilden via Treiber.

Coda
2009-11-19, 03:26:26
Doch, es sei denn der Treiber hat Probleme irgendwelche T&L-Hacks von damals zu interpretieren.
Was denn für T&L Hacks X-D

Man setzt die Matrix für die Transformation und die GPU macht die Multiplikation mit den Vertices für dich. Na da kann man natürlich viel pfuschen.

Schade dass die Vertex-Shader nicht der Berechnung von T&L in Gothic 2 übernehmen können....
Natürlich können sie das.

Der Hund warum Gothic auf den Radeons so beschissen läuft liegt woanders vergraben.

=Floi=
2009-11-19, 04:08:30
zitat
Der Hund warum Gothic auf den Radeons so beschissen läuft liegt woanders vergraben.

woran liegt es denn deiner meinung nach? mit deinem fachwissen hässtest du auch gleich darauf eine antwort/vermutung geben können.

Coda
2009-11-19, 05:02:44
woran liegt es denn deiner meinung nach?
Vermutlich geht Gothic nicht gerade intelligent mit der API um und AMD hat die Workarounds inzwischen eben entfernt.

Raff
2009-11-19, 09:02:19
Wenn du es drauf anlegst schon. ;)

Ich hab' mich wohl nocht nicht genug angestrengt. :D

Ich denke du hast schon verstanden was ich gesagt habe. Der Save ist praktisch vollständig CPU-limitiert. Wenn der Wert von Raff korrekt ist ist der Bug mit den HD5-Treibern jedenfalls Geschichte. Mit einer ähnlich starken CPU hättest du da auch mit deiner GTX280 nicht mehr fps.

Ist korrekt. HD 5870, 2,7 GHz, Catalyst 8.663.1, W7n x64, 300 Prozent Sichtweite.

MfG,
Raff

S940
2009-11-19, 10:46:42
Da es auf der Newsseite gerade um SGEMM und die Larabeeleistung von 1 TFLOP geht, aber in den Newsthreads eh nie viel los ist, cross poste ich mal hier:
Auf B3D gibts nen Thread mit einem neuen Berechnungs-Algo, der ~900 GFLOPs auf einer 4870 schafft:
http://forum.beyond3d.com/showthread.php?t=54842

Hauptproblem (bei dem Gipsel sicherlich auch zustimmen dürfte):
The major difficulty is to trick ATi's horrible compiler (which reflects the current quality of their `GPU computing' software stack well) into producing decent machine code. ^^

Damit es nicht OT wird: Mit Cypress hält er 2 TFlops für wahrscheinlich:
Well, unless there's a regression in architecture, this implementation could easily achieve over 2000 Gflop/s on RV870 if we believe the rumored specs (20 execution units). However, I don't plan to buy any new ATI card this year.

ciao

Alex

Mr. Lolman
2009-11-19, 12:18:42
Ich habe das Savegame mal geladen und habe tatsächlich nur 30 Frames, egal ob ich es mit 800x600 ohne AA, oder mit 1920x1080 mit 4x4 geladen habe. Überall sonst ist Gothic 2 gut spielbar und ich habe mehr als doppelt so viele Frames wie zuvor mit einer HD4870 ;)

http://www2.pic-upload.de/18.11.09/3sfq7bd2whck.jpg

Es ist aber nicht das Savegame, sondern das Killersave, was die 29fps produziert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4854929&postcount=238

Hier was zum Performanceunterschied zw. normalen Savegame und Killersave :eek:: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6152457#post6152457

Eggcake
2009-11-19, 14:08:13
Die GTX280 (übertaktet) kommt in diesem Post:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6869888&postcount=259

Auf 14FPS - mit einem auf 4300Mhz getakteten C2D. Bei dem Save, bei dem Cox seine 30FPS hat kommt er dort auf 43FPS... ;)
Edit: 20FPS unter XP sehe ich grad - Vista mag das Spiel wohl nicht so.

Dr. Cox
2009-11-19, 20:12:38
Mein Core i7 läuft aber auch nur mit 2,66GHz. Anscheinend profitiert Gothic 2 nur von CPU-Takt...

Mr. Lolman
2009-11-19, 20:21:31
Mein Core i7 läuft aber auch nur mit 2,66GHz. Anscheinend profitiert Gothic 2 nur von CPU-Takt...

Anscheinend. Außerdem hast du das falsche Savegame gebencht.

Deinorius
2009-11-19, 20:23:29
Es ist doch schon lange bekannt, dass Gothic 2 CPU-limitiert ist, warum wundern sich jetzt alle? :confused: (Unabhängig vom Killer-Save)
Ich kann Gothic 2 sogar ganz gut auf einem Laptop mit GMA X3100 spielen. (mit fast allem auf Maximum bei 1280x800)

Dr. Cox
2009-11-19, 20:54:19
Anscheinend. Außerdem hast du das falsche Savegame gebencht.

Wird wohl beim anderem Savegame nicht anders aussehen ;)

Mr. Lolman
2009-11-19, 21:34:29
Wird wohl beim anderem Savegame nicht anders aussehen ;)

Das CPU-Limit nicht, die fps schon: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7047113&postcount=260

HarryHirsch
2009-12-05, 11:22:00
ATi Radeon HD 5000: Weitere Details - Auf den zweiten Blick (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/)

Ronny145
2009-12-05, 12:28:34
Uff der Effizienztest ist ja mal Quark wenn die 4890 mit Cat 9.5 gebencht wurde.

Gast
2009-12-05, 19:00:44
Der ganze Test ist für den Arsch, wenn sie jeweils unterschiedliche Treiber genutzt haben! Die lernen einfach nicht dazu!!

Nvidia GeForce 191.07
ATi Catalyst 9.5
ATi 8.66_RC6 (HD 5870, HD 5850)
ATi 8.66.6 (HD 5770, HD 5750)

Außerdem würd ich an deren Stelle mal den Prozessor austauschen, in einigen Fällen scheint der Core i7 um die 30% schneller zu sein, das würd ich gern mal bei denen sehen.

Ronny145
2009-12-05, 19:25:35
Und die ganzen Lemminge im CB Thread loben den Test noch. Das muss man sich mal geben. Der Aufwand hält sich in Grenzen wenn alles immer nur recycelt wird.

=Floi=
2009-12-06, 07:32:51
Außerdem würd ich an deren Stelle mal den Prozessor austauschen, in einigen Fällen scheint der Core i7 um die 30% schneller zu sein, das würd ich gern mal bei denen sehen.

das haben sie doch auch mitgetestet!
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/20/#abschnitt_radeon_hd_5970_auf_intel_core_i7
so richtig kann er sich hier nicht absetzen. ansonsten die dieser test schon gelungen und man hat sich auch gedanken gemacht.

das generelle problem an der sache ist die teils krasse skalierung. bioshock (leider ohne aa bei ati) skaliert mit CF schon auf 180 fps, während andere spiele quasi unspielbar sind. scheinbar bräuchte man für bestimmte games cpus die 5-6ghz schnell sind um konstante 60 fps zu fahren. das kränkt mich ein wenig mehr. teils ist auch die cf-skalierung miserabel. auch mit der nächsten generation wird man viele spiele nicht so spielen können wie man gerne möchte.

boxleitnerb
2009-12-06, 09:04:28
Weiß jemand eigentlich, wie CB inzwischen bencht? Timedemos oder Savegames? Würde mich mal interessieren.

Schlammsau
2009-12-06, 12:17:57
Der ganze Test ist für den Arsch, wenn sie jeweils unterschiedliche Treiber genutzt haben! Die lernen einfach nicht dazu!!

Ich denke das das alles nicht so tragisch ist. Weil wenn man sich die einzelnen Catalysts anschaut, sieht man das sich die Performance im letzten halben Jahr, bei der HD4000 und darunter, kaum bis gar nicht verändert hat.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_910/10/#abschnitt_performancerating

Also regt euch nicht künstlich auf.

y33H@
2009-12-06, 16:00:24
@ boxleitnerb

Bei vielen Titeln mittlerweile per Savegame bzw. "real play" (Stalker oder Crysis etwa). Timedemos bzw. integrierte Benches kommen nur selten zum Einsatz, etwa in Battleforge oder HAWX.

@ Schlammsau

Trotzdem kein 1:1-Vergleich und da sollte man eben aufpassen.

@ =Floi=

Im CB-Test werden eher GPU-limitierte Szenen genutzt, in CPU-limitierten Szenen rockt ein i7 sehr oft. Kommt halt auf die Szene und das Spiel an.

Schlammsau
2009-12-06, 16:11:39
@ Schlammsau

Trotzdem kein 1:1-Vergleich und da sollte man eben aufpassen.


Ganz ignorieren darf man es natürlich nicht, aber wegen rund 1% Leistungssteigerung innerhalb eines halben Jahres rumzuscheissen, und den Test als totalen Schwachsinn deswegen abzutun, halte ich für hirnrissig.

Ist übrigens bei nVidia nicht anderes.

y33H@
2009-12-06, 16:21:39
Sagen wir mal so: Wenn es um eine "grobe" Einordnung geht, ists ja ok. Wenn man aber einen 1:1-Vergleich, also "apples to apples" macht, dann doch bitte unter identischen Voraussetzungen, ergo gleiche Treiber-Version.

Ronny145
2009-12-06, 16:27:11
Ganz ignorieren darf man es natürlich nicht, aber wegen rund 1% Leistungssteigerung innerhalb eines halben Jahres rumzuscheissen, und den Test als totalen Schwachsinn deswegen abzutun, halte ich für hirnrissig.


Effizienzmessungen müssen einfach mit dem gleichen Treiber ausgeführt werden. Ich finde das aber auch eine Unart von CB mit den recyceln.

y33H@
2009-12-06, 16:54:43
Wolle ist eben eine 1-Man-Show. Das sollte man nicht vergessen.

Gast
2009-12-06, 18:27:17
Wolle ist eben eine 1-Man-Show. Das sollte man nicht vergessen.

Computerbase ist insgesamt nur eine one-Man-Show?

WOW! Dafür ist die Seite aber sehr gut!!

Schlammsau
2009-12-06, 18:30:37
Computerbase ist insgesamt nur eine one-Man-Show?

WOW! Dafür ist die Seite aber sehr gut!!

Er meint wohl eher die Grafikkartentestabteilung ist eine One Man Show.

Gast
2009-12-06, 18:41:04
Ganz ignorieren darf man es natürlich nicht, aber wegen rund 1% Leistungssteigerung innerhalb eines halben Jahres rumzuscheissen, und den Test als totalen Schwachsinn deswegen abzutun, halte ich für hirnrissig.

Da machst schon den nächsten Fehler, das Performancerating taugt mal gar nichts (wenn ich mir mal deren anderen Tests angucke, so machts z.B. kaum nen Unterschied welche CPU ich wähle ;D ).

Du vergisst hier eines: Treiber sind nicht nur für Performancesteigerungen verantwortlich, auch für Bugfixing. Es gibt diverse Fälle, da konnte Ati die Leistung über 10% hier und da steigern. Presst du das alles in ein Rating, so bleiben am Ende vielleicht 1,x % übrig. Aber trotzdem sind es dann 10% in genau dieser Anwendung... von Crossfire ganz zu schweigen.

Wie will man die Effizienz messen, wenn etwas nicht mal im Ansatz vergleichbar ist? Manchmal kommen sogar Fehler dazu, die ein richtiges benchmarken überhaupt nicht erlauben... ich hatte auch schonmal Grafikfehler mit diversen Treibern, da wäre es mir völlig egal, welcher Wert dabei herauskommt, denn das wäre eh unspielbar.

AnarchX
2009-12-16, 12:34:31
MSI arbeitet wohl an einer HD 5870 Lightning:
http://www.caseandcooling.fr/carte-graphique/news/838-msi-prepare-une-hd5870-lightning-pour-le-ces
Neben dem auf >1GHz GPU-Takt getrimmten PCB vielleicht auch 2GiB Speicher.

Nightspider
2009-12-16, 13:25:05
MSI arbeitet wohl an einer HD 5870 Lightning:
http://www.caseandcooling.fr/carte-graphique/news/838-msi-prepare-une-hd5870-lightning-pour-le-ces
Neben dem auf >1GHz GPU-Takt getrimmten PCB vielleicht auch 2GiB Speicher.

Nett. Der Chip hat ja auf jeden Fall das Potential für höhere Taktraten.

Man müsste vllt nur einen noch minimal besseren Kühler verbauen...

derguru
2009-12-16, 13:30:35
das wäre mit dem Lightning Kühler vorhanden.
frag mich bloß was dann eine 5890 für eine rolle spielt wenn es demnächst 1ghz oc versionen von der 5870 gibt.

Raff
2009-12-16, 14:41:51
Die 5870 Lightning wird vermutlich ein anderes, noch besser betuchtes Klientel ansprechen als eine "konventionelle" HD 5890. Das PCB sieht nach vielem aus, nur nicht nach einem geringen Preisaufschlag. Wenn die Karte auch noch 2 GiByte hat, startet das Teil bestimmt bei weit über 400 €uro. Das ist sie auch wert, wenn sie das exzellente Niveau der Geforce GTX 275 Lightning (http://www.pcgameshardware.de/aid,693420/MSI-Geforce-GTX-275-Lightning-mit-1792-MiByte-im-Test/Grafikkarte/Test/) erreicht.

MfG,
Raff

derguru
2009-12-16, 14:50:00
auf so eine karte warte ich,hoffentlich hat das preis hochtreiben der händler bald ein ende sonst kostet so eine karte mit 2gb locker 500 euro und mehr.
naja solang es deppen gibt die extrem überteuert kaufen kann man den händlern nichts vorwerfen.

Eggcake
2009-12-16, 14:58:01
Hmmmmmm.

Als erstes mal Vantage laufen lassen. Die Karte hat ziemlich gerattert bei gewissen Lüfterdrehzahlen. Nachm Vantage hat sie kurz ziemlich aufgedreht, jetzt ist es weg. Ich hoffe mal es bleibt dabei.
Lüfterdrehzahl 100% ist absolut krank :ugly:

Punkte noch ziemlich niedrig (~11000 Performance?!), hoffe mal das ist ein Treiberproblem das ich grad habe :/

Nightspider
2009-12-16, 15:05:56
Welches Stepping haben die aktuellen Karten?

Ne HD5890 wird mit Sicherheit ein anderes Stepping haben und mehr Takt bei gleicher Voltzahl ermöglichen.

MSI kann genausogut auch eine HD5890 Lightning rausbringen, die dann noch höher taktet als eine OC-5890...

dildo4u
2009-12-16, 15:12:33
...

dildo4u
2009-12-16, 15:13:32
Hmmmmmm.

Als erstes mal Vantage laufen lassen. Die Karte hat ziemlich gerattert bei gewissen Lüfterdrehzahlen. Nachm Vantage hat sie kurz ziemlich aufgedreht, jetzt ist es weg. Ich hoffe mal es bleibt dabei.
Lüfterdrehzahl 100% ist absolut krank :ugly:

Punkte noch ziemlich niedrig (~11000 Performance?!), hoffe mal das ist ein Treiberproblem das ich grad habe :/
Vantage Performance ist schon ziehmlich CPU limitiert mit der Karte,für 13000+ braucht man schon um die 3.8Ghz mit nem Q9550 wenn man die Karte nicht OC will.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413653&page=30

Eggcake
2009-12-16, 15:34:40
Habe 3.75 Ghz :usad:

Aber:
http://www.hardwareluxx.de/community/showpost.php?p=13550860&postcount=931

Die Lüftersteuerung der Karte scheint nicht korrekt zu funktionieren. Sie erreicht im Crysisbench 94°C (in den Tests wird diese Temperatur nichtmal in Furmark erreicht) und taktet sogar runter! Wenn ich den Lüfter manuell auf 50% reguliere werden gerademal 54°C erreicht.
Probiere Vantage nochmals mit manueller Lüftersteuerung.

Edit: Yup. Wohl auch in 3DMark runtergetaktet. Mit manueller Lüftersteuerung erreiche ich P13195. GPU-Score ist 99 Punkte tiefer als im von dir verlinkten Beispiel, Rest sind wohl die rund 100Mhz CPU-Takt.

Eggcake
2009-12-16, 16:58:12
Also hab's jetzt mal beobachtet. Der Lüfter hat schlicht ne Ecke ab. Sobalds "rattert" geht die RPM auf <700 runter, obwohl Duty Cycle nach oben geht. Wird wohl umgetauscht...

DrFreaK666
2009-12-16, 17:30:27
Also hab's jetzt mal beobachtet. Der Lüfter hat schlicht ne Ecke ab. Sobalds "rattert" geht die RPM auf <700 runter, obwohl Duty Cycle nach oben geht. Wird wohl umgetauscht...

Ohje, da hab ich dir wohl einige Benchmark-werte erstmal umsonst per pm geschickt.

Eggcake
2009-12-16, 19:03:47
Also von der Leistung her stimmt's wohl schon, so wie ich das mit deinen vergleichen konnte. Schadeschade.

Eigentlich läuft sie ganz gut - Lüfter macht nicht wirklich Probleme wenn ich's manuell einstelle. Ich behalte sie mal bis nächste Woche...

DrFreaK666
2009-12-16, 19:05:07
Also von der Leistung her stimmt's wohl schon, so wie ich das mit deinen vergleichen konnte. Schadeschade.

Eigentlich läuft sie ganz gut - Lüfter macht nicht wirklich Probleme wenn ich's manuell einstelle. Ich behalte sie mal bis nächste Woche...

Wenn du sie zurückgibst dann hast erstmal keine 5850 mehr für ne Weile.
Andererseits scheint sie nicht richtig zu funktionieren.
Welchen Treiber hast installiert?

Eggcake
2009-12-16, 19:40:16
Das ist das Problem. Ich habe bereits Antwort erhalten. Sie haben mir gesagt, sie würden die Karte sofort austauschen, jedoch hätten sie eben keine an Lager...ich rufe morgen mal an, ob sie mir auch eine Karte eines anderen Herstellers geben könnten - denn momentan (zumindest vor 90min) sind einige Sapphire erhältlich (für denselben Preis). Das wäre natürlich optimal. Ich werde sie wohl sicherlich über's Wochenende behalten - laufen tut sie ja schon, wenn ich dem Lüfter selbst etwas Beine mache.

Treiber habe ich den neuesten von der AMD-Seite (vor einigen h heruntergeladen).

Gast
2009-12-16, 20:06:56
Ich weiß, dass du dann die Garantie verlierst, aber ich würde anstelle deiner (in Anbetracht der Liefersituation) mir nach einem alternativen Kühler umschauen. Der Scythe welcher bei HT4U getestet worden ist, macht imo einen guten Eindruck.

Gast
2009-12-16, 21:23:05
Also von der Leistung her stimmt's wohl schon, so wie ich das mit deinen vergleichen konnte. Schadeschade.

Eigentlich läuft sie ganz gut - Lüfter macht nicht wirklich Probleme wenn ich's manuell einstelle. Ich behalte sie mal bis nächste Woche...
Dann würde ich die Karte behalten wenn alles in ordnung ist.Manuell stellt doch eh jeder sein lüfter ein oder?Automatische lüftereinstellung ist doch mumpitz...

Eggcake
2009-12-16, 21:56:32
Wäre natürlich auch eine Möglichkeit. Nur ehrlichgesagt finde ich den Lüfter eigentlich ganz gut - das Problem ist auch der Platz im Case...afaik wäre z.B. der Setsugen zu breit. Also die 5850 passt relativ knapp noch rein. 3Slot-Kühlung will ich auch nicht, weil's dann wirklich total zugepfercht ist.


Ich musste leider jetzt auch feststellen, dass auch die manuelle Lüftersteuerung nichts bringt. Ich weiss nicht genau wann und warum es passiert, aber irgendwie kommt er immerwieder in dieses "Rattern" hinein. Dann kann ich z.T. auch manuell die Geschwindigkeit nicht mehr erhöhen.

Seht selbst:

http://s7.directupload.net/images/091216/x8yf7vbp.png (http://www.directupload.net)

FanDutyCycle ist auf 65% - RPM liegen jedoch bei gerademal 500. Erst nachdem ich das Game (das war Dirt2) beendet habe und mehrmals probiert habe auf 100% zu stellen hats irgendwann geklappt (das sind dann knappe 5000RPM :ugly: ).

Wirklich unbrauchbar so. Rufe morgen an und hoffe sie können mir auch eine Sapphire geben, die hätten sie nämlich grad noch an Lager - wohl auch nicht für lange.

DrFreaK666
2009-12-17, 05:53:19
Wäre natürlich auch eine Möglichkeit. Nur ehrlichgesagt finde ich den Lüfter eigentlich ganz gut - das Problem ist auch der Platz im Case...afaik wäre z.B. der Setsugen zu breit. Also die 5850 passt relativ knapp noch rein. 3Slot-Kühlung will ich auch nicht, weil's dann wirklich total zugepfercht ist.


Ich musste leider jetzt auch feststellen, dass auch die manuelle Lüftersteuerung nichts bringt. Ich weiss nicht genau wann und warum es passiert, aber irgendwie kommt er immerwieder in dieses "Rattern" hinein. Dann kann ich z.T. auch manuell die Geschwindigkeit nicht mehr erhöhen.

Seht selbst:

http://s7.directupload.net/images/091216/x8yf7vbp.png (http://www.directupload.net)

FanDutyCycle ist auf 65% - RPM liegen jedoch bei gerademal 500. Erst nachdem ich das Game (das war Dirt2) beendet habe und mehrmals probiert habe auf 100% zu stellen hats irgendwann geklappt (das sind dann knappe 5000RPM :ugly: ).

Wirklich unbrauchbar so. Rufe morgen an und hoffe sie können mir auch eine Sapphire geben, die hätten sie nämlich grad noch an Lager - wohl auch nicht für lange.

Also wo ist denn genau das problem?
Dass der Lüfter kurz zwischendrin hochdreht?

tombman
2009-12-17, 06:07:46
MSI arbeitet wohl an einer HD 5870 Lightning:
http://www.caseandcooling.fr/carte-graphique/news/838-msi-prepare-une-hd5870-lightning-pour-le-ces
Neben dem auf >1GHz GPU-Takt getrimmten PCB vielleicht auch 2GiB Speicher.
Lol, 2x 8pin Strom und ein breiteres PCB für ne single-chip (!) Karte- da braucht wohl jemand dringend was gegen Fermi :ugly:

DrFreaK666
2009-12-17, 06:09:02
Lol, 2x 8pin Strom und ein breiteres PCB für ne single-chip (!) Karte- da braucht wohl jemand dringend was gegen Fermi :ugly:

Ach was. ATI macht doch keine High-End-Karten :D

reunion
2009-12-17, 07:22:01
Lol, 2x 8pin Strom und ein breiteres PCB für ne single-chip (!) Karte- da braucht wohl jemand dringend was gegen Fermi :ugly:

MSI bietet sicher auch Fermi an, an dem kann es also nicht liegen. Die Frage ist nur wann bzw. wie gut Fermi kommt/wird. ;)

Eggcake
2009-12-17, 08:36:07
Also wo ist denn genau das problem?
Dass der Lüfter kurz zwischendrin hochdreht?

Nein, der Lüfter dreht nicht hoch, sondern bleibt bei 500rpm und rattert dabei herum...

Eggcake
2009-12-18, 15:35:00
So, neue Karte von Sapphire ist drin - tönt schon anders...

Mal einige Stresstests durchführen. Bin aber zuversichtlich, dass die flüppt

Edit: Juhu, alles in Butter. Grafikkarte unter Last nicht hörbar, Temp. bleibt unter Vantage/Crysis bei 70°C und im Vergleich zur vorherigen Karte habe ich nun P14679 Punkte in Vantage (vorhin ca. P13100)! Astrein :)

Edit: Wobei jetzt der 9.12 Hotfix drauf ist, vorhin 9.11 - liegt sicherlich auch daran, das habe ich vergessen. Auf jeden Fall Temps und Lüfter in Ordnung.

DrFreaK666
2009-12-18, 17:04:56
So, neue Karte von Sapphire ist drin - tönt schon anders...

Mal einige Stresstests durchführen. Bin aber zuversichtlich, dass die flüppt

Edit: Juhu, alles in Butter. Grafikkarte unter Last nicht hörbar, Temp. bleibt unter Vantage/Crysis bei 70°C und im Vergleich zur vorherigen Karte habe ich nun P14679 Punkte in Vantage (vorhin ca. P13100)! Astrein :)

Edit: Wobei jetzt der 9.12 Hotfix drauf ist, vorhin 9.11 - liegt sicherlich auch daran, das habe ich vergessen. Auf jeden Fall Temps und Lüfter in Ordnung.

Freut mich :-)
Ich hoffe du füllst den Screenshot-Thread mit einen paar netten Shots mit SGSSAA :wink:

AnarchX
2010-01-03, 11:09:28
Auf der Siggraph Asia gab es nochmal einen etwas detaillierteren Blick auf Cypress:
http://img23.imageshack.us/img23/4171/cypressdetail.jpg (http://img23.imageshack.us/i/cypressdetail.jpg/)

http://sa09.idav.ucdavis.edu/docs/SA09_AMD_IHV.pdf

reunion
2010-01-03, 20:40:10
Interessant daran vorallem der 8 Channel MC, bisher ging ich von 4x64 bit aus.

Gast
2010-01-03, 21:12:29
Es war doch von Anfang an bekannt, daß es 8x 32Bit Kanäle sind.

Coda
2010-01-03, 22:23:20
Liegt wohl daran, dass sie die ROPs verdoppelt haben.

reunion
2010-01-03, 22:27:09
Liegt wohl daran, dass sie die ROPs verdoppelt haben.

Warum? Da steckt eh noch eine Crossbar dazwischen.

deekey777
2010-01-03, 22:37:34
Es war doch von Anfang an bekannt, daß es 8x 32Bit Kanäle sind.
War es das wirklich?
http://www.rage3d.com/previews/video/ati_hd5870_performance_preview/index.php?p=6
http://www.beyond3d.com/content/reviews/53/5

Coda
2010-01-03, 22:39:43
Ich hatte im Hinterkopf, dass ATI das auch geändert hat. Aber nun gut.

Was mich gerade irritiert ist dieses Schaubild:
http://img.inpai.com.cn/article/2009/9/21/e39ac390-39b3-4a4c-802a-4dc9a7036f73.jpg

Kann gut sein, dass sie mit Channel auch nur die RAM-Kanäle nach außen meinen. GDDR5 hat ja immer eine Datenbreite von 32 bit.

AnarchX
2010-01-05, 19:54:21
Powercolor HD 5850 PCS+ (http://www.techpowerup.com/reviews/Powercolor/HD_5850_PCS_Plus/1.html)

Niedrigerer Lautstärke, dafür aber herausragende Heatpipes, höherer Verbrauch und ein günstigerer Spannungsregler, welcher wohl keinen Software-Zugriff erlaubt.

derguru
2010-01-05, 20:00:28
hört sich gut an.

apropo,
von wegen 950 takt reicht um mit der 5870 gleich zuziehen,die 5870 ist immer noch ein bissel schneller.

Gast
2010-01-05, 20:13:27
3 FPS sind eher Messungenauigkeit ;)

Aber Karte sieht sehr cool aus...........

reunion
2010-01-07, 17:31:24
Hier Produktbilder:

http://img130.imageshack.us/img130/558/powercolorpcshd58701176.jpg

http://img3.imageshack.us/img3/2973/powercolorpcshd58501176.jpg

"The PCS+ HD 5870 is working at 875MHz for the core and 1225MHz for 1GB of GDDR5 memory, while the PCS+ 5850 works at 760MHz for the core and 1050MHz for 1GB of GDDR5 memory."

http://www.fudzilla.com/content/view/17116/1/

derguru
2010-01-07, 18:09:21
ich find das oc getue auch lächerlich vorallem ist das kaum messbar bei so geringen oc-takt.
aber der kühler scheint richtig gut zu sein wenn man sich die fan-noise werte bei tech power anschaut.

Nightspider
2010-01-07, 18:46:39
Erstes Foto der MSI R5870 Lightning zeigt sich

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14016-erstes-foto-der-msi-r5870-lightning-zeigt-sich.html

Lecker :)

AnarchX
2010-01-09, 13:52:41
Auch nur 1 GiB für die Lightning:
http://img697.imageshack.us/img697/5229/img0052hl.jpg
http://thegoateater.com/?p=109

Raff
2010-01-09, 14:20:05
Bäh. Naja, dann wird sie vielleicht doch erschwinglich.

MfG,
Raff

AnarchX
2010-01-09, 14:23:03
In Anbetracht, dass man mit einer 5750 für 100€ auch schon 1GiB 0.4ns GDDR5 bekommt, ist die Entscheidung gegen die 2GiB bei der Lightning doch schon etwas sonderbar. Aber vielleicht hatte AMD hier etwas mitzureden.

Raff
2010-01-09, 14:24:47
Eventuell ja. Vielleicht weil man für die "HD 5890" standardmäßig 2 GiB verbasteln will? :naughty:

MfG,
Raff

AnarchX
2010-01-09, 15:28:46
So sieht wohl die finale Karte aus:
http://img52.imageshack.us/img52/3866/msir5870lightning.jpg
Fudzilla behauptet, dass sie mit 1GHz GPU-Takt kommt:
http://www.fudzilla.com/content/view/17166/1/

Video und mehr Bilder: http://www.pcstats.com/NewsView.cfm?NewsID=81182

Dural
2010-01-09, 19:40:23
ja und wann ist sie lieferbar? wenn Fermi da ist will das teil doch keiner mehr...

jetzt würde ich sie mir noch holen! aber so wie ich das kenne dauert das noch eine ewigkeit...

aber an der karte sieht man gut das 40nm "problem" die Chips würden locker mehr mit machen, der stromverbrauch geht aber ganz schnell in einen bereich der nicht mehr so recht vertragbar für standard modelle ist... das wird beim Fermi auch nicht anders sein...

Hübie
2010-01-10, 01:57:01
Also nach so vielen Monaten kapier ich es nicht, warum noch keine einzige 2GB-Karte auf dem Markt ist.
Es gibt mittlerweile einige Gelegenheiten 2GB zu nutzen.
Da ist was faul, ich sags euch :facepalm: Vielleicht um gegen Fermi zu kontern:confused:

DrFreaK666
2010-01-10, 16:32:35
Also nach so vielen Monaten kapier ich es nicht, warum noch keine einzige 2GB-Karte auf dem Markt ist.
Es gibt mittlerweile einige Gelegenheiten 2GB zu nutzen.
Da ist was faul, ich sags euch :facepalm: Vielleicht um gegen Fermi zu kontern:confused:

Macht doch keinen Sinn.
Wenn Karten mit 2GB schneller sein sollten dann kann man doch nvidia schön Wind aus den Segeln nehmen.
Wieso erst auf den Markt bringen wenn Fermi erscheint?
Wenn die 2GB-Version dann gleich schnell sein sollte dann springen viele trotzdem zu nv

Gast
2010-01-10, 17:00:14
Macht doch keinen Sinn.
Wenn Karten mit 2GB schneller sein sollten dann kann man doch nvidia schön Wind aus den Segeln nehmen.
Wieso erst auf den Markt bringen wenn Fermi erscheint?
Wenn die 2GB-Version dann gleich schnell sein sollte dann springen viele trotzdem zu nv

Das kann schon sinnvoll sein.
Denn solange Fermi nicht erscheint, kann man auch die 5870 zum Highendpreis verkaufen.
Wenn Fermi erscheint wird man die Preise senken und die 5890 inder jetzigen 5870-Preisregion platzieren.
Abgesehen Davon ist es immer medienwirksam eine "Antwort" präsentieren zu können.

DrFreaK666
2010-01-10, 17:05:01
Das kann schon sinnvoll sein.
Denn solange Fermi nicht erscheint, kann man auch die 5870 zum Highendpreis verkaufen.
Wenn Fermi erscheint wird man die Preise senken und die 5890 inder jetzigen 5870-Preisregion platzieren.
Abgesehen Davon ist es immer medienwirksam eine "Antwort" präsentieren zu können.

Man kann aber auch sagen: Wir sind schon seid Monaten so schnell...

Naja, egal.
Werde eh nicht von der 5850 aufrüsten.
Die Karte muss erstmal einige Monate halten. Am Besten bis nächstes Jahr im Sommer

Schlammsau
2010-01-10, 17:08:47
Ich denke ATi, wird gleichzeitig mit Fermi eine 5890 mit mit 2GB VRAM releasen.
Die 2GB 5870 werden deswegen noch zurückgehalten!

grobi
2010-01-10, 17:20:04
ja und wann ist sie lieferbar? wenn Fermi da ist will das teil doch keiner mehr...

jetzt würde ich sie mir noch holen! aber so wie ich das kenne dauert das noch eine ewigkeit...

aber an der karte sieht man gut das 40nm "problem" die Chips würden locker mehr mit machen, der stromverbrauch geht aber ganz schnell in einen bereich der nicht mehr so recht vertragbar für standard modelle ist... das wird beim Fermi auch nicht anders sein...

Keine ahnung haben ob der Fermi überhaupt was taugt. Aber ja ATI-Grakas kauft man nicht mehr wenn Nvidia ne neue Karte raus bringt. ;D

reunion
2010-01-10, 18:12:34
In Anbetracht, dass man mit einer 5750 für 100€ auch schon 1GiB 0.4ns GDDR5 bekommt, ist die Entscheidung gegen die 2GiB bei der Lightning doch schon etwas sonderbar. Aber vielleicht hatte AMD hier etwas mitzureden.

AMD erlaubt definitiv noch keine 2GB-Karten, sonst hätte die längst wer gebracht.

Blaire
2010-01-10, 18:33:55
Was sollten die 2GB auch großartig bringen...

reunion
2010-01-10, 18:37:04
Was sollten die 2GB auch großartig bringen...

Mehr als bei jeder anderen 2GB Karte allemal.

Blaire
2010-01-10, 19:19:44
Mehr als bei jeder anderen 2GB Karte allemal.

Wieso sollte es? Wegen Eyefinity?

reunion
2010-01-10, 19:20:57
Wieso sollte es? Wegen Eyefinity?

Umso schneller eine Karte umso mehr profitiert sie von mehr Speicher.

Blaire
2010-01-10, 19:55:09
Umso schneller eine Karte umso mehr profitiert sie von mehr Speicher.

In der Theorie.
In den meisten Fällen macht die GPU vorher zu bzw. die Leistung reicht dann schon nicht mehr aus. Ich sage nicht das es nichts bringt, aber in den meisten Fällen ist der Unterschied äußerst gering.

reunion
2010-01-10, 20:07:24
Du sagst es ja selbst: Umso schneller eine Karte umso eher profitiert sie von mehr Speicher. Das es nichts nützt wenn die GPU zu langsam ist sollte klar sein. Wieviel es bei der 5870 nützt müssen Tests zeigen.

Coda
2010-01-10, 20:31:47
Jede Karte profitiert genau dann von mehr Speicher, wenn er überläuft. Völlig egal wie schnell sie ist.

reunion
2010-01-10, 20:38:21
Natürlich. Dann eben ob es noch im spielbaren Bereich was nützt.

Raff
2010-01-10, 20:39:11
Klar, Coda, allerdings ist's deswegen nicht sinnvoll, eine 100-Euro-Grafikkarte mit 2 GiB zu bestücken, weil sie dann in 2.560 x 1.600 bei 8x MSAA satte 3,7 anstatt 1,6 Fps erreicht. Bei einer HD 5870 1G vs 2G würde das Verhältnis wohl 37 anstatt 16 Fps betragen.

MfG,
Raff

Dural
2010-01-10, 20:51:17
die 2GB kommen dann mit der 5890 RV870 @ 1000MHz, keine sorgen ;)

Botcruscher
2010-01-10, 23:40:11
Als Antwort auf Fermi? Firmenpolitik ohne Druck nervt.

Hübie
2010-01-10, 23:55:10
Und woher weißt du das lieber Dural???
Ich wette auch das sie kommt aber ausgerechnet mir 1000+ Mhz GPU?
Klar als konter wäre es logisch das zu schlußfolgern aber dein Satz klingt so als ob du mehr weißt :|

@Blaire: Denk mal an MGPU. Da bringt RAM definitiv was, da man sowieso mit höheren Einstellungen fährt als mit SGPU. Solltest gerade du wissen/merken.
Ich bemerke bei meinen beiden immer mehr wie denen die Luft zugeschnürt wird (512MB). Mit 1GB-Karten ists auch teilweise heute schon so (nachgewiesen im VRAM-Verbrauchsthread).

bye Hübie

Gast
2010-01-11, 02:06:38
Der weiss garnix, es wird bald 58X0 Karten geben mit 2Gb VRAM, so wie die 4870 am Anfang mit 512 MB und dann später mit 1GB.

Hübie
2010-01-11, 02:13:30
Öh. War es nicht umgekehrt? Anfangs gab es nur HD 4870 mit 1024MB und später erst mit 512MB - wenn mein Hirn mich nicht täuscht. Bei den HD 4850 war es so wie du geschrieben hast.

bye Hübie
...der sich auch denkt, das Dural nicht mehr weiß als wir ;)

Iceman346
2010-01-11, 08:06:02
Nö, dass ist schon richtig was der Gast sagt, die ersten 4870er kamen mit 512 MB Speicher, die 1GB Varianten kamen später.

_DrillSarge]I[
2010-01-11, 15:18:22
warte auch nur drauf, dass ne 58x0 2GB (muss nicht mal eine "5890" sein) Vapor-X erscheint :D. sollt bis dahin fermi nicht aufschlagen, wird blind gekauft.

zur zeit hat ati eben keine dx11-konkurrenz im nacken ,so dass man noch was im high-end bereich bringen müsste. :(

RoNsOn Xs
2010-01-11, 16:37:29
und du meinst mit 2gb hat man demnächst eher vorteile? für mich wird das alles etwas überschätzt.
wo sich in reviews "mehrspeichige modelle" gegenüber ihrer referenz durchsetzen, krebst man eh längst fernab spielbarer fps.
und die zukunft schaut nicht rosiger mit konsolen-portierungen aus.

derguru
2010-01-11, 16:52:01
2gb wird schon sinnvoll sein bei,

*spiele wie z.b. gta4
*cf systeme
*hohe auflösungen durch Eyefinity
*dx11 spiele werden mehr ram brauchen durch tess(wie z.b. schon zu merken beim Unigine D3D11 - Heaven Benchmark)

Raff
2010-01-11, 17:15:31
(wie z.b. schon zu merken beim Unigine D3D11 - Heaven Benchmark)

Wo merkt man das da? Ich habe 1 GiB erst in 2.560 x 1.600 zum Überlaufen gebracht. Aber erst mit 8x anstatt 4x MSAA. Erkennbar daran, dass aus zwei- arg einstellige Fps mit Diashow-Charakter wurden.

MfG,
Raff

Blaire
2010-01-11, 17:18:28
Selbst für 8xSGSSAA reicht bei Crysis der VRAM von 1GB noch aus, die GPU macht aber bereits bei 1680x1050 dicht, da würde auch 2GB nichts mehr rausreißen und so ist es oft.
2GB bei der GTX285 hat auch nicht viel gebracht, ausgenommen mal Texturmods oder Downsampling (3360x2100 z.b. aber selbst dort war aus Performancegründen dann oft garkein AA mehr drin (bei immerhin 3xGTX285!)

derguru
2010-01-11, 17:19:40
Wo merkt man das da? Ich habe 1 GiB erst in 2.560 x 1.600 zum Überlaufen gebracht. Aber erst mit 8x anstatt 4x MSAA. Erkennbar daran, dass aus zwei- arg einstellige Fps mit Diashow-Charakter wurden.

MfG,
Raff

ich habe z.b. bei 1920*1200 mit 8AA über dx10 keine nachladeruckler im gegensatz zu dx11.
mit 4aa läuft es ohne nachladeruckler auch unter dx11.

Selbst für 8xSGSSAA reicht bei Crysis der VRAM von 1GB noch aus, die GPU macht aber bereits bei 1680x1050 dicht, da würde auch 2GB nichts mehr rausreißen und so ist es oft.

reicht aber mit 2gb wird es schneller,hier z.b. bei einer 4890 bei 1920*1200
http://www.pcgameshardware.de/aid,690857/Sapphire-Radeon-HD-4890-Vapor-X-mit-2GB-im-Test/Grafikkarte/Test/

grobi
2010-01-11, 17:26:15
ich habe z.b. bei 1920*1200 mit 8AA über dx10 keine nachladeruckler im gegensatz zu dx11.
mit 4aa läuft es ohne nachladeruckler.

Das hat vielleicht den Grund weil die graka unter DX11 und Tesslation genug zu tun hat und nicht das der Vram voll ist.

mfg grobi

Blaire
2010-01-11, 17:27:04
reicht aber mit 2gb wird es schneller,hier z.b. bei einer 4890 bei 1920*1200
http://www.pcgameshardware.de/aid,690857/Sapphire-Radeon-HD-4890-Vapor-X-mit-2GB-im-Test/Grafikkarte/Test/

Wo siehst du dort, das da was schneller ist? Die Unterschiede sind doch gering, zudem ist die 2GB leicht höher getaktet?

derguru
2010-01-11, 17:29:26
Das hat vielleicht den Grund weil die graka unter DX11 und Tesslation genug zu tun hat und nicht das der Vram voll ist.

mfg grobi

nein daran liegt es nicht.
Wo siehst du dort, das da was schneller ist? Die Unterschiede sind doch gering, zudem ist die 2GB leicht höher getaktet?
höher getaktet als die 1gb vapor-x?

und schneller ist die karte auch(15,7 zu 11,7fps.) und das ist "nur" eine 4890.

Blaire
2010-01-11, 17:32:55
höher getaktet als die 1gb vapor-x?

Oben in der Tabelle steht zumindest die Vapor 4890 leicht höher getaktet gegenüber der normalen 4890 hmm...

derguru
2010-01-11, 17:35:22
und was hat die normale dort zusuchen wenn die 1gb variante auch eine vapor x ist,nichts.

Dural
2010-01-11, 17:36:22
1GB reichen bei einer Single 5870 aus.... erst mit CFX wären 2GB vieleicht sinnvoll, halt je nach einstellungen und was die MR so sagen... ;)

In der Praxis aber ein ganz klares nein!

Blaire
2010-01-11, 17:37:31
und schneller ist die karte auch(15,7 zu 11,7fps.) und das ist "nur" eine 4890.

Da braucht nur mal die Festplatte kurz nachladen schon sind 11 statt 15fps...gerade bei Crysis kenn ich das nur zu gut. Kann auch Messungenauigkeit sein.

derguru
2010-01-11, 17:38:04
1GB reichen bei einer Single 5870 aus.... erst mit CFX wären 2GB vieleicht sinnvoll, halt je nach einstellungen und was die MR so sagen... ;)

In der Praxis aber ein ganz klares nein!
oral dich hat keiner gefragt abgesehen davon spreche ich auf cf bezogen aber macht ja nichts.

lieber 3*15,7 als 3*11,7fps

Dural
2010-01-11, 17:40:40
hat dich einer gefragt?

und eben, wer meint er bräuchte 2GB Speicher mit einem CFX System dem wünsch ich viel spass mit den MR... alles unspielbar in den Einstellungen wo dir 2GB was bringen...

derguru
2010-01-11, 17:45:41
Da braucht nur mal die Festplatte kurz nachladen schon sind 11 statt 15fps...gerade bei Crysis kenn ich das nur zu gut. Kann auch Messungenauigkeit sein.
ich gib nur das wieder was da steht.
hat dich einer gefragt?

und eben, wer meint er bräuchte 2GB Speicher mit einem CFX System dem wünsch ich viel spass mit den MR... alles unspielbar in den Einstellungen wo dir 2GB was bringen...

und auch um mr geht es nicht,also kusch dich.:mad:

Dural
2010-01-11, 18:03:41
aha dann willst du nur 2GB fürs angeben?

y33H@
2010-01-11, 19:53:42
Ob 1G ausreicht, zeigt sich erst, wenn man eine 2G gegen bencht.

_DrillSarge]I[
2010-01-11, 19:59:32
Ob 1G ausreicht, zeigt sich erst, wenn man eine 2G gegen bencht.
das alles wird amd eh noch bis fermi release in der hinterhand halten, gerade sowas wie ne 59x0 mit 2G.
nv soll sich mal beeilen verdammt! :D

RoNsOn Xs
2010-01-12, 01:34:44
und schneller ist die karte auch(15,7 zu 11,7fps.) und das ist "nur" eine 4890.
schrieb ich das nicht auf der voherigen seite? unspielbare fps?
wie dein verlinkter test beweißt: nix bringen die 2gb.

derguru
2010-01-12, 13:14:36
schrieb ich das nicht auf der voherigen seite? unspielbare fps?
wie dein verlinkter test beweißt: nix bringen die 2gb.
den zusammenhang hast du anscheinend trotzdem nicht verstanden.

1.ist das eine 4890 und keine leistungstärkere 5870,also verlagert sich der fps wert in höhere gefilde mit einer 5870.
2.spreche ich die ganze zeit von 2gb karten im cf wo es sinn macht und nicht von einer karte.(z.b. 2*15,7fps zu 2*11,7fps oder *3 oder 4 karten)

James Ryan
2010-01-12, 13:54:49
Konnte das hier schon jemand nachvollziehen?
http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html
Laut THG sollen die aktuellen HD5000er Karten massive Probleme mit der 2D-Beschleunigung haben!

MfG :cool:

grobi
2010-01-12, 15:48:15
Konnte das hier schon jemand nachvollziehen?
http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html
Laut THG sollen die aktuellen HD5000er Karten massive Probleme mit der 2D-Beschleunigung haben!

MfG :cool:

Es gibt einen eigenen Thread dafür.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474680

AnarchX
2010-01-14, 08:02:34
Gigabyte mit einer 1GHz 5870 und vorerst keine 2GiB Karten:
the Radeon HD 5870 Super Overclock will be clocked at 1000 MHz (GPU) and 1300 MHz (GDDR5)
[...]
Lastly, note that Gigabyte has told us not to expect 2GB Radeon HD 5800 models in the immediate future.

http://www.behardware.com/news/10667/ces-1ghz-hd-5870-from-gigabyte.html

mapel110
2010-01-14, 08:05:45
2 GB würde ich auch erst mit dem echten Refresh-Chip im Juni/Juli erwarten.

deekey777
2010-01-20, 17:04:14
http://ixbtlabs.com/articles3/video/cypress-p9.html

Wie man sieht, liefert die HD5870 sehr seltsame Ergebnisse in den Geo-Tests. Kann das jemand entgegentesten?
Rightmark 2.0 findet man hier: http://ixbtlabs.com/articles3/video/cypress-p7.html
Übrigens: Interessant wäre, was eine HD5870 in D3D RM 1050 leistet, insbesondere in den Geometrie-Tests. (http://3d.rightmark.org/download.shtml)

darkvader
2010-01-20, 18:54:09
http://ixbtlabs.com/articles3/video/cypress-p9.html

Wie man sieht, liefert die HD5870 sehr seltsame Ergebnisse in den Geo-Tests. Kann das jemand entgegentesten?



Hast du auch die Einstellungen in denen ich testen soll? Also Auflösung, AA und so? Da find ich im Artikel nix....

deekey777
2010-01-20, 18:58:35
Hast du auch die Einstellungen in denen ich testen soll? Also Auflösung, AA und so? Da find ich im Artikel nix....
Einfach drauf los. Du musst bei den Geometry-Tests nur die unterschiedlichen Stufen bei den Polys sowie Heavy oder Balanced wählen.
Die Auflösung kann bei 640x480 und windowed bleiben.

darkvader
2010-01-20, 19:09:42
Okay, 640x480 windowed:

Geometry Shader Galaxy, Low, balanced: 264.1 fps
Geometry Shader Galaxy, Medium, balanced: 135.6 fps
Geometry Shader Galaxy, High, balanced: 68.6 fps
Geometry Shader Galaxy, Low, heavy: 266.5 fps
Geometry Shader Galaxy, Medium, heavy: 136.1 fps
Geometry Shader Galaxy, High, heavy: 69 fps

Geometry Shader Hyper, Low, balanced: 615.9 fps
Geometry Shader Hyper, Medium, balanced: 346.6 fps
Geometry Shader Hyper, High, balanced: 182.8 fps
Geometry Shader Hyper, Low, heavy: 842.8.5 fps
Geometry Shader Hyper, Medium, heavy: 451.1 fps
Geometry Shader Hyper, High, heavy: 232.5 fps

Pixel Shader 4.0 mineral arithmetic: 3671 fps
Pixel Shader 4.0 mineral arithmetic: 2460,8 fps

Jeweils ein Durchgang - hilft dir das? :-)

deekey777
2010-01-20, 19:28:42
Okay, 640x480 windowed:

Geometry Shader Galaxy, Low, balanced: 264.1 fps
Geometry Shader Galaxy, Medium, balanced: 135.6 fps
Geometry Shader Galaxy, High, balanced: 68.6 fps
Geometry Shader Galaxy, Low, heavy: 266.5 fps
Geometry Shader Galaxy, Medium, heavy: 136.1 fps
Geometry Shader Galaxy, High, heavy: 69 fps
...
Jeweils ein Durchgang - hilft dir das? :-)
Meine HD4850 kommt in Galaxy@High+Heavy auf 56 fps (700 MHz).
Irgendwas stimmt da (immernoch) nicht. Aber was?

darkvader
2010-01-20, 19:39:09
Und hier dann der d3d 1050 Test als html file

deekey777
2010-01-20, 19:55:54
Ich bin mal so frei und sage: Das zweite Tri-Setup bringt dem Evergreen nüschts.
Mal sehen, wie es beim GF100 aussieht.

Raff
2010-01-28, 16:36:48
Sapphire Radeon HD 5870 Vapor-X: Neue Version der Spitzenkarte exklusiv im PCGH-Testlabor (http://www.pcgameshardware.de/aid,703968/Sapphire-Radeon-HD-5870-Vapor-X-Neue-Version-der-Spitzenkarte-exklusiv-im-PCGH-Testlabor/Grafikkarte/News/)

http://www.pcgameshardware.de/screenshots/medium/2010/01/Radeon_HD_5870_Vapor-X_v1.1_011.jpg

Die Schlingel! :biggrin: Eine verbilligte, aber leisere Version der Top-Karte.

MfG,
Raff

derguru
2010-01-28, 16:45:15
lieber leiser als overvolten,wer weiß vielleicht geht die auch so gut hoch.

SGT.Hawk
2010-01-28, 19:28:56
Leider viel zu teuer. Da würde ich eher stock und selber einen Kühler nehmen. Kommt viel kühler und leiser her.

PCGH_Raffael
2010-01-29, 12:45:44
So, nun haben wir auch den Test online, offenbar weltexklusiv – Dank der Macht des Zufalls. =)

Sapphire Radeon HD 5870 Vapor-X Revision 2 im Test (http://www.pcgameshardware.de/aid,703988/Sapphire-Radeon-HD-5870-Vapor-X-Revision-2-im-Test/Grafikkarte/Test/)

Lauter im Leerlauf, leiser unter Last.

MfG,
Raff

=Floi=
2010-01-29, 12:52:47
und wohl noch immer nur 4 phasen...

Gast
2010-01-29, 12:55:58
und wohl noch immer nur 4 phasen...

Für was genau braucht man denn mehr außer um den Stromverbrauch in die Höhe zu treiben?

derguru
2010-01-29, 13:01:08
mir gefällt die alte mehr,die müsste unter last bissel gedrosselt werden da sie ja von den temps deutlich kühler ist abgesehen davon ist im idle zustand die lautstärke wichtiger als unter last.
naja besser als referenz aber nicht besser als rev1.

Raff
2010-01-29, 13:03:50
Für was genau braucht man denn mehr außer um den Stromverbrauch in die Höhe zu treiben?

Die Anzahl der Phasen ist eigentlich nur von Relevanz, wenn man eine Karte mit einer möglichst großen Spannungskeule prügeln will, da bei mehr Phasen logischerweise die Last auf jeder einzelnen abnimmt und die Spannung so stabiler ist. Da sich der neuer "Gallier" Vaporix anscheinend nicht mehr umspannen lässt, ist das aber ziemlich wayne – weil sie stabil arbeitet.

MfG,
Raff

=Floi=
2010-01-29, 14:45:00
sag mal. ist es dir nicht zu dumm, wenn du dich nach einem post mit deinem anderen account anmeldest? Das ist ja mal echt hart.

die 5. phase die eigentlich nur nicht bestückt ist würde auch unter normalen gegebenheiten die anderen entlasten und dadurch die spawa kühler halten. So lange die karte noch im furmark gedrosselt wird, ist das für mich nicht gut gelöst.

Gast
2010-01-29, 15:21:58
Sprich mehr Phasen braucht man, wenn man der Kühlung der Einzelnen keine besonders große Beachtung schenkt.

Gast
2010-01-29, 16:04:13
Mehr Phasen sorgen automatisch für zusätzliche Stromverbrauch.
Die Gesamtabwärme steigt also weiter an.
Einzig wenn man die Karte als "hyper 1337 OC" verkaufen will braucht man zusätzliche Phasen, damit die Abwärme ,durch Spannungserhöhungen, der einzelnen Phasen beherrschbar bleibt.

Mehr Phasen sind im Normalfall nicht notwendig und auch keineswegs positiv in Hinsicht der Leistungsaufnahme.

AnarchX
2010-02-09, 16:55:53
ASUS ROG Matrix 5870 2GiB:
http://vga.zol.com.cn/166/1665447.html

HD-Ronny
2010-02-09, 17:07:22
Sieht ja lecker aus. Besonders nett die Messpunkte und der resetbutton,aber die wird auch sicher an die 500euro hierzulande kratzen.

Spasstiger
2010-02-09, 17:08:21
Lange hats gedauert. Eine 2-GiB-Variante ist imo schon seit Langem überfällig. Bei den aktuellen Preisen hätten wohl die meisten Käufer auch gleich zu einer 2-GiB-Variante gegriffen.
Aber diese Spannungsmessungs-Abgriffe machen auf mich nicht den Eindruck, dass die in Serie gehen. Sieht doch stark nach Entwicklerboard aus.

derguru
2010-02-09, 17:09:20
na also ,es geht voran.schick schick.

aber 1,5V für 1080mhz?omg und ich mach mir schon bei 1,25V in die hose die aber locker ausreichen für 1ghz.;)

Schlammsau
2010-02-09, 17:17:10
ASUS ROG Matrix 5870 2GiB:
http://vga.zol.com.cn/166/1665447.html

2x 8polige Stecker? :eek:

AnarchX
2010-02-09, 17:17:41
Aber diese Spannungsmessungs-Abgriffe machen auf mich nicht den Eindruck, dass die in Serie gehen. Sieht doch stark nach Entwicklerboard aus.
Dann würde es aber wohl nicht auf einer Folie auftauchen, AFAIR hatte MSI auch schon Messpunkte auf den Lightning-Karten.
Diese Karte richtet sich eben auch wieder klar an Enhusiasten mit OC-Ambitionen, wie man auch an den 2x 8-Pin sieht.

Ein Gespann von zwei solchen Karten @ 1GHz+ zusammen mit ein Gulftown mit WaKü komplett dürfte sich wohl nicht so schlecht machen.
Ausser an dem Refresh mit mehr SPs, noch im H1, ist mehr dran.

Gast
2010-02-09, 23:47:29
na also ,es geht voran.schick schick.

aber 1,5V für 1080mhz?omg und ich mach mir schon bei 1,25V in die hose die aber locker ausreichen für 1ghz.;)

vollkommener Schwachsinn mit 1.5! Und vorallem mit Luft....
Unter Stickstoff verbraten die Jungen soviel, die Karte wird nie kommen.

derguru
2010-02-10, 02:48:26
Powercolor HD 5870 PCS+ Review (http://www.techpowerup.com/reviews/Powercolor/HD_5870_PCS_Plus/)

echt gute karte,günstig,leise,sehr kühl und dann noch so ein oc potenzial vorallem speicher auf 1370. :up:

Schlammsau
2010-02-10, 16:08:29
Asus bringt Radeon HD 5850 mit neuem Kühler (http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/februar/asus_radeon_hd_5850_kuehler/)

http://pics.computerbase.de/2/8/4/0/1/1_m.jpg

HD-Ronny
2010-02-10, 22:15:14
Also mir gefallen die Karten mit Kühler die warme Luft ins Gehäuse blasen überhaupt nicht. Da finde ich das Konzept des Serienlüfter viel besser.

Starfox
2010-02-11, 05:38:29
Powercolor HD 5870 PCS+ Review

Hab die 5850 PCS+ von der Serie seid ein par Tagen und ich bin rundum zufrieden.

Idle höre ich sie garnet, bzw. der ganze Rechner ist zu ruhig das ich oft denke "Ist der überhaupt an?" :freak:

Bei Games dreht sie dann aber auch nur ganz dezent auf, noch alles im Rahmen des erträglichem :biggrin:

//Starfox

derguru
2010-02-11, 14:48:19
von asus kommt auch noch eine 5870 TOP,
http://www.abload.de/img/asus_radeon_hd_5870_to6rwy.jpg
Quelle (http://www.donanimhaber.com/Asus_Radeon_HD_5870_TOP_Edition_gun_isigina_cikti-18065.htm)

Jake Dunn
2010-02-11, 15:18:42
von asus kommt auch noch eine 5870 TOP,
http://www.abload.de/img/asus_radeon_hd_5870_to6rwy.jpg
Quelle (http://www.donanimhaber.com/Asus_Radeon_HD_5870_TOP_Edition_gun_isigina_cikti-18065.htm)

Mit 2Gb wäre die ganz nett :)

derguru
2010-02-11, 15:36:50
dafür gibts die matrix.:D

ZÜNDELholz
2010-02-11, 19:56:49
Wenn Nvidia nicht aus dem Arsch kommt, werd ich mit der Matrix und ARES 'nen Triple bauen.
Schnauze voll , mit meiner Offize-Karte 4350 :P

derguru
2010-02-11, 20:17:56
achja bis solche karten wie die Matrix oder ARES den markt erreichen gibt es schon die refreshkarten oder kurz davor und dann interessiert das auch niemand mehr,immer die selbe wurst.:frown:

Jake Dunn
2010-02-11, 20:22:43
dafür gibts die matrix.:D

Single-GPU reicht mir ^^

ZÜNDELholz
2010-02-11, 20:28:16
achja bis solche karten wie die Matrix oder ARES den markt erreichen gibt es schon die refreshkarten oder kurz davor und dann interessiert das auch niemand mehr,immer die selbe wurst.:frown:

Wenn die refreshs wieder nur mit 1Gb Vram ausgestattet sind-Crap.
Mein 30"er will gefüttert werden.

derguru
2010-02-11, 20:37:42
Single-GPU reicht mir ^^
die matrix ist doch eine single gpu.
Wenn die refreshs wieder nur mit 1Gb Vram ausgestattet sind-Crap.
Mein 30"er will gefüttert werden.
ich hoffe nicht oder wenigstens gleich zum launch beide versionen.

derguru
2010-02-12, 10:43:25
Sapphire Radeon HD 5850 Toxic
http://www.abload.de/img/sapphireradeonhd5850tobyj9.jpg
Quelle (http://www.donanimhaber.com/Sapphire_Radeon_HD_5850_Toxic_gun_isigina_cikti-18126.htm)

Raff
2010-02-12, 11:28:48
Das wird wohl die neue Herrscherkarte zum erschwinglichen Preis. Die blaue Platine riecht aber nach "kein Overvolting".

MfG.
Raff

Gast
2010-02-12, 13:14:52
die Dinger haben alle analoge Spawa...von daher, für die Katz :-)

Gast
2010-02-12, 14:28:25
die Dinger haben alle analoge Spawa...von daher, für die Katz :-)
Und wieso?

Gast
2010-02-12, 14:40:38
Und wieso?

Man kann die Spannung nicht per Software verändern.
Bei der 5850, die mit Spannungserhöhung es oft auf die selben Taktraten wie ebenfalls übertacktete 5870er bringen, wäre das für mich ein KO-Kriterium.

Gast
2010-02-12, 14:53:46
Man kann die Spannung nicht per Software verändern.
Bei der 5850, die mit Spannungserhöhung es oft auf die selben Taktraten wie ebenfalls übertacktete 5870er bringen, wäre das für mich ein KO-Kriterium.
Danke für die Info.
Nun ja... für 200 Euro kann man eben nicht alles haben. :)
Die meisten Käufer würden davon eh kein Gebrauch machen.

derguru
2010-02-12, 14:57:05
Club 3D HD5870 & 5850 Overclocked Edition(5850 ist schon lieferbar)
http://www.abload.de/img/cgax-58724dpou1bn.jpghttp://www.abload.de/img/cgax-58524dpo5346.jpg
Quelle (http://www.club3d.nl/products/product_graphics_1.cfm)

Raff
2010-02-12, 15:06:13
= Powercolor HD 5870/5850 PCS+ (http://www.pcgameshardware.de/preisvergleich/a506461.html)

MfG,
Raff

Schlammsau
2010-02-16, 14:54:31
HD 5870-GPU bei 1.404 MHz – 3DMark-Rekord (http://www.nordichardware.com/en/component/content/article/79-overclocking/250-hipro5-presents-msi-r5870-lightning-1404mhz-gpu-clock.html)

http://www.nordichardware.com/images/labenglish/newsarticles/Graphics/Hipro5%20MSI%20R5870%20Lightning/fullimages/Hipro5%20MSI%20R5870%20Lightning1.jpg

reallord
2010-02-16, 15:41:14
Zwar (noch) völlig überteuert, aber immerhin (endlich) schon mal gelistet:
Sapphire 5850 Vapor-X (http://www.schottenland.de/preisvergleich/preise/proid_20082775/SAPPHIRE-Radeon-HD-5850-Vapor-X-11162-03-xxR)

und

HIS Radeon HD 5850 iCooler V (http://geizhals.at/deutschland/?cat=gra16_512&asuch=5850%20icooler)


Hat AMD den AIBs nun Customdesigns erlaubt? Gab doch bisher keine oder?

Schlammsau
2010-02-19, 15:20:34
Kurztest: 2 x ATi Radeon HD 5850 (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/kurztest_2_ati_radeon_hd_5850/#abschnitt_einleitung)

http://pics.computerbase.de/2/8/4/6/3/14_m.jpg

derguru
2010-02-19, 21:24:03
PowerColor PCS+ HD5870 - die beste Radeon HD 5870? (http://ht4u.net/reviews/2010/powercolor_pcs_plus_hd5870/)

Sapphire Radeon HD 5850 TOXIC (http://www.hardwareheaven.com/reviews.php?reviewid=933&pageid=1)

mapel110
2010-02-22, 14:47:31
http://www.beyond3d.com/content/reviews/54
ATI Cypress Gaming Performance Analysis


Cypress is pretty fast versus it's predecessor (+50-60% is not too shabby, in our humble opinion), although it only manages to achieve the 2x performance mark only when DX11 is leveraged in such a way as to improve performance (hey, we warned you back in the architecture piece that there are some points which may limit the upscaling, did we not?)
It's primarily bound by its engine clock, so we'd expect any future high-end SKU to try to bump that as much as possible
Heavy tessellation isn't cheap, and explaining it solely by "you're setup limited, silly" is a heavy over-simplification
We're not really fond of how the Crossfire profiling mechanism ended up being implemented - dear ATI, there's already a solution out there that's well liked by the community, and there have been no reports of users performing ritual seppuku when having to mess with a few extra settings, so please, go and implement something similar rather than reinventing the wheel (yes, we're aware that it was your competitor that came up with it, and yes, we're painfully aware of just how unpleasant it is to program UIs but still, you'd get far far more benefits from doing that)



We're also going to be publishing a Q/A with ATI's driver guys soon (where they'll get the chance to falcon punch us for ragging on their profile updating tool, and we'll get the chance to ask about the driver re-architecture going on, if we survive the punch).

deekey777
2010-02-23, 14:34:00
http://www.beyond3d.com/content/reviews/54
ATI Cypress Gaming Performance Analysis

...
We're also going to be publishing a Q/A with ATI's driver guys soon (where they'll get the chance to falcon punch us for ragging on their profile updating tool, and we'll get the chance to ask about the driver re-architecture going on, if we survive the punch).
Die Drachenszene (http://www.beyond3d.com/content/reviews/54/9) gibt mir keine Ruhe.
Zuerst: Anders als von einem User behauptet (irgendwas mit großem B am Anfang und kleinem W am Ende), limitiert hier nicht die Tessellation. Weder die Shader noch die FF.
Die Beurteillung der Ergebnisse ist die, dass hier das Tri-Setup sowie das Rasterizing limitieren. Das Tri-Setup mit 1 tri/clock* sei hier mit den vielen kleinen vielen Dreiecken, die durch die Tessellation entstehen, überfordert. Der Rasterizer an sich sei nicht der Flaschenhals ("we're pretty sure the rasteriser itself isn't the one causing the stalls, given pixel/triangle ratios").

Welche Schlüsse soll man daraus ziehen? Am Besten gar keine.

*Leider wurde nicht getestet, wie sich die Performance ändert, wenn man den Takt erhöht.

LovesuckZ
2010-02-23, 15:20:16
Die Drachenszene (http://www.beyond3d.com/content/reviews/54/9) gibt mir keine Ruhe.
Zuerst: Anders als von einem User behauptet (irgendwas mit großem B am Anfang und kleinem W am Ende), limitiert hier nicht die Tessellation. Weder die Shader noch die FF.
Die Beurteillung der Ergebnisse ist die, dass hier das Tri-Setup sowie das Rasterizing limitieren. Das Tri-Setup mit 1 tri/clock* sei hier mit den vielen kleinen vielen Dreiecken, die durch die Tessellation entstehen, überfordert. Der Rasterizer an sich sei nicht der Flaschenhals ("we're pretty sure the rasteriser itself isn't the one causing the stalls, given pixel/triangle ratios").

Welche Schlüsse soll man daraus ziehen? Am Besten gar keine.

*Leider wurde nicht getestet, wie sich die Performance ändert, wenn man den Takt erhöht.

Wo soll das Verständnisproblem liegen? Tessellation erzeugt am Ende eben viele, kleine Dreiecke. AMD kann nur ein Dreieck pro takt erzeugen und die Rasterizer arbeiten mit Dreiecken kleiner als 16x16 Pixel weniger optimal.
AMD hat genug Rechenleistung, dass Hull- und Domainshader nicht limitierenden sollten. Und ob eine FF Unit limitiert, wird die Zukunft zeigen.