PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13

HarryHirsch
2009-10-08, 23:04:08
wie siehts denn in bewegung aus? lod?

Undertaker
2009-10-08, 23:26:31
Ist das schon bekannt?

http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index4.php

Totalversagen der Stromsparmodi, sobald man mehr als ein Ausgabegerät anschließt. Na klasse, ich hatte mich schon darauf gefreut, Rivatuner nach einem Upgrade womöglich nicht mehr zu benötigen, aber so ist der RV870 ja keinen Deut besser, als die aktuellen Mainstream-Karten :mad:

y33H@
2009-10-08, 23:30:28
@ Gast

Ini ;)

iPresentIntervall = 0

y33H@
2009-10-08, 23:38:48
My Games\Fallout3\FALLOUT3.ini

iirc :D

Gast
2009-10-08, 23:40:02
yes well :D

y33H@
2009-10-08, 23:52:45
Von Vorteil ist das btw aber nicht, also das Abschalten. Hast du nun über 60 Fps, läuft das Spiel schneller als üblich, hast du unter 60 Fps läuft es langsamer. Und zudem die ganze Zeit eine Art µRuckler. Also lieber anlassen. VSync ist das nämlich nicht, nur eine Fps-Bremse (aus gutem Grund). Sorry, dass mir das erst jetzt einfiel - hatte nur 60 Fps = VSync im Kopf ;D

reunion
2009-10-09, 06:51:27
Ist das schon bekannt?

http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index4.php

Totalversagen der Stromsparmodi, sobald man mehr als ein Ausgabegerät anschließt. Na klasse, ich hatte mich schon darauf gefreut, Rivatuner nach einem Upgrade womöglich nicht mehr zu benötigen, aber so ist der RV870 ja keinen Deut besser, als die aktuellen Mainstream-Karten :mad:


Totalversagen = noch immer deutlich besser als eine leistungsmäßig unterlegene GTX275. Genau diese Karten wurden vor kurzem noch für ihren geringen idel-Wert gelobt. Nur weil der Stromverbrauch mit einem Monitor exorbitant niedrig ist ist es mit mehreren Monitoren noch lange kein Totalversagen.

Menace
2009-10-09, 07:14:18
Totalversagen = noch immer deutlich besser als eine leistungsmäßig unterlegene GTX275. Genau diese Karten wurden vor kurzem noch für ihren geringen idel-Wert gelobt. Nur weil der Stromverbrauch mit einem Monitor exorbitant niedrig ist ist es mit mehreren Monitoren noch lange kein Totalversagen.

Doch, doch. Es ist allein dadurch Totalversagen, da die Buchstaben ATI irgendwo stehen. ;D Bei der GTX275 ist ja der prozentuale Anstieg geringer und dadurch überhaupt kein Versagen. Was sich hier manche Leute zurechtrechnen... ;)

Schlammsau
2009-10-09, 07:25:21
Ich würde es nicht Totalversagen nennen, aber dennoch bin ich ein wenig entäuscht. Genau das habe ich auch schon bei der GTX275 bemängelt und werde es jetzt auch bei der HD5870 tun!
Mal sehen, ob HT4U den Test auch mit einer HD5850 machen.

Armaq
2009-10-09, 08:37:27
Existieren dafür vielleicht Notwendigkeiten?

Schlammsau
2009-10-09, 08:39:50
Existieren dafür vielleicht Notwendigkeiten?
Wie meinen?

Undertaker
2009-10-09, 08:50:50
Totalversagen = noch immer deutlich besser als eine leistungsmäßig unterlegene GTX275. Genau diese Karten wurden vor kurzem noch für ihren geringen idel-Wert gelobt. Nur weil der Stromverbrauch mit einem Monitor exorbitant niedrig ist ist es mit mehreren Monitoren noch lange kein Totalversagen.

Der Speichertakt wird nicht gesenkt = Totalversagen des Stromsparmodus. Eindeutig. Was hat das mit ATI oder Nvidia zu tun? Ich schrieb auch, dass das Ergebnis genauso mies ist, wie dass der aktuellen Karten, herstellerunabhängig(!).

Btw: 8% weniger als die GTX275 nennst du deutlich besser? Das ist nicht nur völlig unerheblich, sondern dürfte wohl auch von der GTX285 unterboten werden, die sich im Single-Monitor Betrieb deutlich sparsamer als die GTX275 gezeigt hat (http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index6.php). Also alles genauso gut bzw. vielmehr schlecht wie bisher.

AnarchX
2009-10-09, 08:55:14
Der Speichertakt wird nicht gesenkt = Totalversagen des Stromsparmodus. Eindeutig. Was hat das mit ATI oder Nvidia zu tun? Ich schrieb auch, dass das Ergebnis genauso mies ist, wie dass der aktuellen Karten, herstellerunabhängig(!).

Das Problem ist leider nicht so trivial: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7585360#post7585360

Der Anstieg bei Nvidia ist nicht so hoch, da die Differenz zwischen den Taktstufen beim GDDR3 nicht so hoch ist und wohl auch der Speicherkontroller nicht soviel Strom verbraucht. Bei den kommenden GDDR5-Karten könnte das anders aussehen.

Undertaker
2009-10-09, 09:01:01
Es ist klar, dass Nvidia genauso gescholten gehört, wenn sie das nicht in den Griff bekommen. Die Kenntnis der Ursache hilft den betroffenen Nutzern da leider auch nicht weiter, für die vielen Multi-Monitor Betreiber gibt es nach wie vor keine schnelle Grafikkarte mit befriedigenden Stromspar-Modi am Markt, also weiterhin den Zwang zum Rivatuner-Gefrickel.

lilgefo~
2009-10-09, 10:17:34
Hmm anno 1404 funktioniert ja nicht richtig mit den neuen Radeons. Zumindest hab ich mit meiner 5850 da so schwarze Flächen im Bild. :S
Kann das mal noch jemand testen?

oh crap ich wollte im erfahrungsberichte thread schreiben kann das ein mod mal verschieben plx?

reunion
2009-10-09, 10:19:12
Hmm anno 1404 funktioniert ja nicht richtig mit den neuen Radeons. Zumindest hab ich mit meienr 5850 da so schwarze Flächen im Bild. :S
Kann das ma noch jemand testen?

Patch 1.1?

Schlammsau
2009-10-09, 10:19:50
Hmm anno 1404 funktioniert ja nicht richtig mit den neuen Radeons. Zumindest hab ich mit meienr 5850 da so schwarze Flächen im Bild. :S
Kann das ma noch jemand testen?

Nicht nur mit den neuen, alle DX10 und 11 Karten haben momentan den Bug!
Musst das Game auf DX9 stellen oder auf den neuen Treiber warten.

Undertaker
2009-10-09, 10:24:08
Nicht nur mit den neuen, alle DX10 und 11 Karten haben momentan den Bug!
Musst das Game auf DX9 stellen oder auf den neuen Treiber warten.

Mit der HD4870 keinerlei Probleme... :confused:

Gast
2009-10-09, 10:30:20
Nicht nur mit den neuen, alle DX10 und 11 Karten haben momentan den Bug!
Musst das Game auf DX9 stellen oder auf den neuen Treiber warten.

nee nee Patch 1.1 installieren reicht

lilgefo~
2009-10-09, 10:33:18
nee nee Patch 1.1 installieren reicht

ahh sehr gut..werd ich das mal tun mein pc ist nur net am inet angeschlossen :S

btw das alle dx 10 und 11 karten da ein rpoblem haben kann aber wirklich nicht stimmen, da meine 8800gts auch keine bildfehler produziert hat

Peter - HT4U
2009-10-09, 10:34:20
Der Fehler bei Anno1404 hat sich seit dem 9.8er Treiber eingeschlichen und ist mit sämtlichen Hotfixes bislang bishin zu allen Pressetreibern auch für die 5870/5850/5770 erhalten geblieben. AMD Deutschland noch einmal auf diesen Fehler aufmerksam gemacht, da es aber ein deutscher Titel ist, könnte es lange dauern, bis die den Fehler fixen ^^

Gruß Peter

y33H@
2009-10-09, 10:34:58
Nicht nur mit den neuen, alle DX10 und 11 Karten haben momentan den Bug!Ja nee, ist klar :rolleyes: Auf Geforces gabs den Bug nicht, nur auf Radeons!Patch 1.1 installieren reicht Richtig.

Peter - HT4U
2009-10-09, 10:35:49
P.S.: Der Patch nützt nichts, wir haben den bei unseren Tests installiert. Darum sind in unseren Benchmarks die Ergebnisse der 5000er Karten nicht eingeblendet. Jene der 4000er Karten wurden mit Cat. 9.7 gemacht.

Gruß Peter

y33H@
2009-10-09, 10:39:05
v8.66 RC samt Patch 1.1 produziert keine Fehler auf einer HD5k.

HarryHirsch
2009-10-09, 10:39:31
P.S.: Der Patch nützt nichts, wir haben den bei unseren Tests installiert. Darum sind in unseren Benchmarks die Ergebnisse der 5000er Karten nicht eingeblendet. Jene der 4000er Karten wurden mit Cat. 9.7 gemacht.

Gruß Peter

nee nee mit Patch funzt dat 100pro

Gast
2009-10-09, 10:46:32
http://bit.ly/14QxqV

ein howto für batman + AA auf ati. interessant dürfte ausserdem sein, dass die AA quali nicht besser ist bei NV

Schlammsau
2009-10-09, 10:53:02
Ja nee, ist klar :rolleyes: Auf Geforces gabs den Bug nicht, nur auf Radeons!Richtig.

Auf allen Radeons! ;)

Peter - HT4U
2009-10-09, 11:00:37
Sorry, ziehe alles zurück und behaupte das Gegenteil. Wir hatten den Pacht doch nicht installiert, der ist ja erst gestern erschienen. Ich hatte nach der Aufnahme von Anno 1404 und den Fehlern nach einem Patch gesucht. Daher meine irrige Annahme. *duckundweg*

Gruß Peter

y33H@
2009-10-09, 12:39:54
Das ist die eine Art TMSAA, je höher der Wert, desto "fülliger" werden die Alpha-Tests.

Tarkin
2009-10-09, 13:54:16
XFX Radeon HD 5850 1GB GDDR5 Review (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/24095-xfx-radeon-hd-5850-1gb-gddr5-review.html) @hardwarecanucks.com

Banshee18
2009-10-09, 14:48:59
Hier treibt wieder ein gesperrter User sein Unwesen.

Gast
2009-10-09, 15:28:05
Totalversagen = noch immer deutlich besser als eine leistungsmäßig unterlegene GTX275. Genau diese Karten wurden vor kurzem noch für ihren geringen idel-Wert gelobt. Nur weil der Stromverbrauch mit einem Monitor exorbitant niedrig ist ist es mit mehreren Monitoren noch lange kein Totalversagen.Im Idle interessiert die Rechenleistung viele Anwender überhaupt nicht im enferntesten und kann somit kein Argument sein.

Die 58xx haben scheinbar das selbe Problem wie die GF200 im Idle mit mehreren Monitoren, nur schlimmer.
Da sich nie jemand ernsthaft mit dem Pfeifen auseinandergesetzt hat, sondern pauschal alle Geforces bemängelt und alle Radeons gelobt wurden, wäre es nur fair, wenn hier einzig AMD kritisiert werden würde, sogar ungeachtet von Eyefinity.

Hatte eine Radeon HD3 bereits ein solches Problem? Diese Karten wurden wegen der Idleleistung erheblich gelobt.
Die HD4 haben im Idle nicht geglänzt, egal wie viele Monitore. Hat keinen mehr gestört, du hättest auch gleich die 4890 mit der 5870 vergleichen können, statt mit der GTX 275.

reunion
2009-10-09, 16:16:27
Im Idle interessiert die Rechenleistung viele Anwender überhaupt nicht im enferntesten und kann somit kein Argument sein.


Es ist ein Argument, da die Leistung einhergeht mit dem Stromverbrauch. Niemand kann verlangen das eine Highend-Karte weniger Strom im idle benötigt als eine Lowend-Karte. Und das Verhältnis Stromverbrauch zu Leistung auch im idle ist bei der HD5800 noch immer am besten von allen Karten. Selbst mit mehreren Monitoren. Der Vergleich mit der GTX275 war als reine Referenz zu werten, bisher hatten die GT200b-Chips das besten Verhältnis Verbrauch/Leistung.

y33H@
2009-10-09, 16:24:42
Niemand kann verlangen das eine Highend-Karte weniger Strom im idle benötigt als eine Lowend-Karte.Dann wäre sie wirklich Highend ;)

reunion
2009-10-09, 16:26:30
Dann wäre sie wirklich Highend ;)

Das ist aber aus technischer Sicht völlig unrealistisch.

Gast
2009-10-09, 16:33:10
Niemand kann verlangen das eine Highend-Karte weniger Strom im idle benötigt als eine Lowend-Karte.
Warum nicht? Selbst schnöde Verbrennungsmotoren beherrschen inzwischen die Teil-Abschaltung.

Gast
2009-10-09, 16:40:13
Es ist ein Argument, da die Leistung einhergeht mit dem Stromverbrauch.
Unter Last unterscheiden sich die Leistungen, im Idle nicht.

Niemand kann verlangen das eine Highend-Karte weniger Strom im idle benötigt als eine Lowend-Karte.
Erklärung bitte.

Und das Verhältnis Stromverbrauch zu Leistung auch im idle ist bei der HD5800 noch immer am besten von allen Karten. Selbst mit mehreren Monitoren.Hä?
Sie braucht beim Däumchen drehen mehr als eine HD3, leistet aber nicht mehr.

Der Vergleich mit der GTX275 war als reine Referenz zu werten, bisher hatten die GT200b-Chips das besten Verhältnis Verbrauch/Leistung.Unter Volllast.
Im Idle waren sie nur besser als die Konkurrenz, jedoch schlechter als die Vorgänger der konkurrenz.

Gast
2009-10-09, 16:50:58
Unter Last unterscheiden sich die Leistungen, im Idle nicht.


Erklärung bitte.

Hä?
Sie braucht beim Däumchen drehen mehr als eine HD3, leistet aber nicht mehr.

Du musst die allgemeine Leistungsfähigkeit einbeziehen.
Ein V8 4.0l Motor verbraucht im Stand auch mehr als ein 1.4l Motor, obwohl er in diesem Zustand nicht mehr leistet.

Unter Volllast.
Im Idle waren sie nur besser als die Konkurrenz, jedoch schlechter als die Vorgänger der konkurrenz.
Falsch.

Gast
2009-10-09, 17:24:22
Du musst die allgemeine Leistungsfähigkeit einbeziehen.
Ein V8 4.0l Motor verbraucht im Stand auch mehr als ein 1.4l Motor, obwohl er in diesem Zustand nicht mehr leistet.
Im Rollzustand mit eingelegten Gang verbrauchen beide dank Schubabschaltung 0 Liter.

Falsch.
Welcher Punkt?

Armaq
2009-10-09, 18:33:53
Wie meinen?
Das beide Hersteller es so machen und es dafür gute Gründe gibt, so oft wie das bereits durchgekaut wurde.

Es ist unlogisch zu vermuten, dass die Verantwortlichen diesen Fehler immer wieder begehen.

Schnitzl
2009-10-09, 19:49:28
Im Rollzustand mit eingelegten Gang verbrauchen beide dank Schubabschaltung 0 Liter.
ist zwar leicht OT, aber : NEIN
Null Liter gibts nicht, ebenso benötigt ein V8 in etwa das doppelte wie ein R4 im Leerlauf.
(Motor muss sich am laufen halten, man kann nicht immer nur den Berg runterfahren^^)
Es sei denn er schaltet eine Reihe ab, aber selbst dann verbraucht er noch mehr.

N0Thing
2009-10-09, 19:49:50
Mich überrascht es doch recht arg, daß inzwischen sowohl die HD5870, als auch die HD5850 bei vielen Händlern auf Lager ist. Hätte ihr ehrlich gesagt gar nicht erwartet.
Somit paßt auch die Ankündigung, daß es bis zum Release von Windows 7 genug Karten im Handel geben wird.

Gast
2009-10-09, 20:21:41
ist zwar leicht OT, aber : NEIN
Null Liter gibts nicht, ebenso benötigt ein V8 in etwa das doppelte wie ein R4 im Leerlauf.
(Motor muss sich am laufen halten, man kann nicht immer nur den Berg runterfahren^^)
Es sei denn er schaltet eine Reihe ab, aber selbst dann verbraucht er noch mehr.
Es ging ums nichts tun, also bergab. ;)
Beim in der Ebene fahren kann man nicht mehr vom nichts tun reden. Das ist Teillast, wobei es der kleine Motor genausogut kann.

Gast
2009-10-09, 20:25:57
Mich überrascht es doch recht arg, daß inzwischen sowohl die HD5870, als auch die HD5850 bei vielen Händlern auf Lager ist. Hätte ihr ehrlich gesagt gar nicht erwartet.
Somit paßt auch die Ankündigung, daß es bis zum Release von Windows 7 genug Karten im Handel geben wird.
In der dritten Woche nach der Vorstellung wird es auch langsam Zeit. Auswahl an Marken(quasi nur Powercolor) ist aber immer noch dürftig und der Preis noch inkl. "Deppensteuer".

Gast
2009-10-09, 20:45:51
wieso? ca. 330.- Euro finde ich im Angesicht der Leistung derzeit völlig OK.

Gast
2009-10-09, 20:52:21
Wäre die Karte verfügbarer gäbs Wettbewerb, macht gleich mal 50€ aus.

Jetzt ist sie scheinverfügbar. Alle Welt wartet auf die bereits gelisteten 290€ und weniger Preise, kein Wunder das die paar teuren verfügbar sind,

Tarkin
2009-10-09, 21:38:10
HIS Radeon HD 5850 Review @Techspot.com (http://www.techspot.com/review/206-his-radeon-hd-5850/)

mboeller
2009-10-10, 08:26:49
auf Beyond3D erklärt Dave Baumann warum der idle-Verbrauch bei mehr als 1 Monitor ansteigt.

Es geht anscheinend darum das dann 1 Monitor (von mehreren) anfangen könnte zu flackern.

Link zum Thread: http://forum.beyond3d.com/showthread.php?t=55239&page=15


This is the case irrespective of the RAM and has always been the case. MCLK switching is timed to be done within a VBLANK of the LCD; more than one LCD you can have different timing between them so you end up with one of them flashing whenever an MCLK switch occurs.

Selbst wenn alle Monitore eigentlich mit 60Hz laufen funktioniert es nicht, da...

They are still timed slightly differently in terms of their VBLANK rates and various other things. You basically have to have matched panels running at the same resolutions.

Also bei genau gleich laufenden Monitoren würde es funktionieren, anders aber nicht.

Ergo, kann AMD nichts dagegen machen weil es nicht an der GPU liegt sondern an den Monitoren.

Gast
2009-10-10, 09:36:38
ziemlich PRIMA ;) http://www.tweakpc.de/hardware/tests/grafikkarten/ati_radeon_hd_5870_x2_crossfire/s01.php

Undertaker
2009-10-10, 11:10:02
auf Beyond3D erklärt Dave Baumann warum der idle-Verbrauch bei mehr als 1 Monitor ansteigt.

Es geht anscheinend darum das dann 1 Monitor (von mehreren) anfangen könnte zu flackern.

Link zum Thread: http://forum.beyond3d.com/showthread.php?t=55239&page=15



Selbst wenn alle Monitore eigentlich mit 60Hz laufen funktioniert es nicht, da...


Also bei genau gleich laufenden Monitoren würde es funktionieren, anders aber nicht.

Ergo, kann AMD nichts dagegen machen weil es nicht an der GPU liegt sondern an den Monitoren.

Man könnte es doch aber zumindest optional im Treiber anbieten... Das kurze Flackern ist im Vergleich zum fast 40W höheren Stromverbrauch doch nur ein optischer Makel :(

AnarchX
2009-10-10, 11:13:21
Das kurze Flackern ist im Vergleich zum fast 40W höheren Stromverbrauch doch nur ein optischer Makel :(
Nur kann daraus wohl auch schnell mal ein Dauerflackern werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7587094#post7587094

Solang es bei einem Speicher für Bildausgabe und Berechnungen bleibt, ist hier wohl keine Lösung sichtbar.

Undertaker
2009-10-10, 11:17:07
Das wäre dann natürlich schon nervig... Die Analyse für eine Taktänderung müsste dahingehend auch modifiziert werden, z.B. über den Auslastungsgrad der GPU. Im normalen Windowsbetrieb und abseits von BR-Videobeschleunigung reichen bei meiner HD4870 150/200MHz völlig aus, ein Flackern würde somit nur beim Spielstart auftreten.

reunion
2009-10-10, 11:20:19
Über den Auslastungsgrad der GPU kostet es aber Leistung, das würde niemand machen. Man kann nur möglichst viele Taktstufen einbauen, was AMD eh schon gemacht hat. Damit er zumindest nicht jedes mal auf den vollen Takt springt.

Iceman346
2009-10-10, 11:21:23
Jo, die 5870 taktet, sobald man Flash im Browser sieht, alle 1/2 Sekunden hin und her. Das wär bei mehreren Monitoren dann nen Dauerflackern. Auch je nachdem was man in Windows macht taktet sie gern mal hoch, beim vergrößern von Fenstern beispielsweise, oder wenn man Flip 3D benutzt.

Allgemein frag ich mich, ob bei solchen Fällen in Windows der volle Takt notwendig ist, vielleicht optimieren sie da ja noch was an der Erkennung. Grade wenn er in diese ständigen Schwankungen geht steigt die Temperatur des Chips schon deutlich an (völliges Idle bei mir etwa 40°C bei 20-21% Lüftergeschwindigkeit, wenn er hin und her schaltet geht er auf 55-60°C hoch und der Lüfter dreht dann mit um die 25%).

Über den Auslastungsgrad der GPU kostet es aber Leistung, das würde niemand machen. Man kann nur möglichst viele Taktstufen einbauen, was AMD eh schon gemacht hat. Damit er zumindest nicht jedes mal auf den vollen Takt springt.

Genutzt werden die Zwischenstufen leider nicht richtig. Die Karte taktet zwar "auf dem Weg" zum Volltakt gern mal dahin, aber bleibt nicht dort sondern geht bis 850/2000 weiter.

Undertaker
2009-10-10, 11:24:30
Über den Auslastungsgrad der GPU kostet es aber Leistung, das würde niemand machen.

Inwiefern sollte das sonderlich Leistung kosten? :confused: Mit Rivatuner kann man sich soetwas auch jetzt schon basteln, ein Leistungsverlust ist mir dabei nicht aufgefallen.

Gast
2009-10-10, 11:49:10
auf Beyond3D erklärt Dave Baumann warum der idle-Verbrauch bei mehr als 1 Monitor ansteigt.

Es geht anscheinend darum das dann 1 Monitor (von mehreren) anfangen könnte zu flackern.


Und was soll das mit dem Stromverbrauch zu tun haben?

Link zum Thread: http://forum.beyond3d.com/showthread.php?t=55239&page=15




Ergo, kann AMD nichts dagegen machen weil es nicht an der GPU liegt sondern an den Monitoren.

Typische Bullshit-Ausrede. Es liegt daran, daß die VBlanks nicht synchron laufen können, weil zumindest im Clone-Modus nicht mehr als ein Ausgabechip (für HDMI, DVI etc) gleichzeitig auf denselben Speicherbereich zugreifen kann.
Die VBlanks gibt übrigens die Grafikkarte vor, der Monitore ist ein reinpassives Gerät. Das Problem existiert also auch ohne angeschlossen Monitore.

Armaq
2009-10-10, 13:06:26
Wie schon mehrfach gesagt: Es gibt einen sehr gut funktionierenden Modus für einen Monitor. Mehr als ein Monitor macht Probleme, ansonsten hätte man es implementiert.

Fazit: Die Hersteller wissen besser bescheid als Pseudo-Gäste und Wannabes. Daher sollten sich auch die Redakteure erst einmal echtes Wissen dazu aneignen und dann ihre Artikel schreiben. Komplexität ist keine Ausrede.

mapel110
2009-10-10, 13:43:06
http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/

PCGH_BenchMarc
2009-10-10, 13:43:41
Radeon HD 5870 im Test: CPU-Skalierung (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/)

• 6 CPUs
• 3 Settings
• 5 Spiele (WoW, Risen, Anno 1404, FC2, Crysis Warhead

EDIT
N Tick zu spät ;D

horn 12
2009-10-10, 13:56:54
Jedoch ein E8400 @ 3,6 Ghz
mit Gigabyte EX38 DS4
4GB DDR2 800 Mhz
sollte doch noch gut reichen für die HD5870 1GB.

Sicher ein I7/I5 System wäre vielleicht nochmals 15-20% schneller, wenn überhaupt (stark spieleabhängig).

y33H@
2009-10-10, 14:11:07
Bei teils über +50% die ein QC gegenüber einem gleichgetakteten DC in einigen Spielen bringt? Sicher ein I7/I5 System wäre vielleicht nochmals 15-20% schneller (als ein E8400 @ 3,6 GHZ)3,0 auf 3,6 sind nur +20%, zudem fehlt der Architektur-Vorteil des i5/i7. Das sind zB in Anno mehr als 15-20%.

Rechenbeispiel: Anno 1404 skaliert linear mit dem Takt, der größere L2 des E8400 gegenüber dem E6600 bringt 5%. 2,4 auf 3,6 GHz sind +50%, dazu 5% drauf macht +55%. In Anno 1404 macht der E6600 ~20 Fps, der rechnerische 3,6-GHz-E8400 ergo 31 Fps. Selbst der i7-750 ohne OC macht schon über 40 Fps, ein i7 würde durch SMT gar noch mal 10% drauflegen. Jedoch ein E8400 @ 3,6 Ghz [...] sollte doch noch gut reichen für die HD5870 1GB.In Sachen Fps und Spielbarkeit auf jeden Fall - Ausnahmen wie GTA4 bestätigen die Regel ;)

mboeller
2009-10-10, 17:45:07
Radeon HD 5870 im Test: CPU-Skalierung (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/)

• 6 CPUs
• 3 Settings
• 5 Spiele (WoW, Risen, Anno 1404, FC2, Crysis Warhead

EDIT
N Tick zu spät ;D

Skalierung? Welche Skalierung?
Mit Ausnahme von Anno1404 sieht man nur in der kleinsten getesteten Auflösung 1280x1024 und ohne AF und AA einen Unterschied zwischen den ganzen Quad-Core CPUs egal ob Core2Quad, Phenom, oder eben i7. Max. 20% sind ansonsten drin, wenn ich mir das so ansehe. Naja..

PCGH_BenchMarc
2009-10-10, 17:48:42
Dann schau mal genauer hin ;)

Gast
2009-10-10, 17:53:46
Da skaliert aber wenig, 4xAA wohl zuviel für die Graka schon bei den Spielen ;) Anno und Wow hängen an der CPU, beim Rest bringts nicht viel, ein Spiel wie Dirt wäre dazu gut gewesen, damit man sieht, was der Quad bringt. Der E6600 ist ja Lowend mittlerweile, aber die die noch Dualcores haben dürften über der 3GHz Marke fahren (eben Leute die das Magazin Lesen und nicht der average Joe).

PCGH_BenchMarc
2009-10-10, 18:07:17
Ein E8x00 @ 3,6 GHz kommt evtl. noch =)

Gast
2009-10-10, 18:56:41
Dann schau mal genauer hin ;)

toller Kommentar, was soll denn schließlich sonst zu sehen sein? ich seh auch nur, dass es ausser bei Anno egal ist, welche CPU man reinsteckt...

PCGH_BenchMarc
2009-10-10, 19:42:03
Mit Ausnahme von Anno1404 sieht man nur in der kleinsten getesteten Auflösung 1280x1024 und ohne AF und AA einen Unterschied zwischen den ganzen Quad-Core CPUsDas stimmt nicht, deswegen "Dann schau mal genauer hin". Denn auch mit 4x MSAA/16:1 AF in 1.280 legt die Radeon durch i5/i7 noch zu

JaDz
2009-10-10, 20:14:18
Denn auch mit 4x MSAA/16:1 AF in 1.280 legt die Radeon durch i5/i7 noch zu
Damit meinst du aber nicht den Miniknick bei Risen, oder? Denn ansonsten hat er schon recht.

PCGH_BenchMarc
2009-10-10, 20:29:32
zB auch Crysis.

Gast
2009-10-10, 20:48:24
Bei der 5850 kann man jetzt auch die vcore verändern.Das Ergebniss ist brachial fast jede Karte geht über 1000 mhz gpu takt hier.

http://www.hardwareluxx.de/community/showthread.php?t=649717&page=12

JaDz
2009-10-10, 23:52:09
zB auch Crysis.
Der rapide Anstieg von 40 auf 42 fps? ;(

xiao didi *
2009-10-11, 00:20:51
Das Ergebniss ist brachial fast jede Karte geht über 1000 mhz gpu takt hier.
Mit dem Lüfter auf 100% und 100Watt mehr Verbrauch. ;D

Gast
2009-10-11, 00:27:31
Naja:
- nur Crysis getestet
- Luxx typisch ideale Bedingungen, heißt sehr saubere Kühler + kühle Zimmer + gut belüftete Umgebung
- Aussagen zur Temperatur fehlen
- Luxx typisch geht man nicht auf die Karten ein die die 1000Mhz nicht packen. Selbst so sind 1,3V der Vorschlaghammer. Ich bin gespant wie lange die Karten das durchhalten, obwohl im Luxx hört man in ein paar Monaten eh nichts davon und wenn muss die RMA herhalten, heimlich ohne viel Wind im Forum

Crazy_Chris
2009-10-11, 23:44:25
Was hat es eigentlich mit dem "Tessellation" auf sich? Irgendwie hört sich das alles nach TruForm an was mit der Radeon 8500 eingeführt wurde. :freak:

Melbourne, FL
2009-10-12, 11:58:26
Was hat es eigentlich mit dem "Tessellation" auf sich? Irgendwie hört sich das alles nach TruForm an was mit der Radeon 8500 eingeführt wurde. :freak:

Soweit ich das verstehe ist es das auch...nur eben diesmal nicht von einem Hersteller sondern per DirectX und damit viel kompatibler.

Alexander

Rocko_the_Devil
2009-10-12, 20:24:12
Hat schon jemand eine 5850 und damit Anno1404 gespielt? Ich würde gerne wissen ob es mit der Karte wirklich Grafikfehler gibt, wie viele behaupten

lilgefo~
2009-10-12, 20:26:57
Hat schon jemand eine 5850 und damit Anno1404 gespielt? Ich würde gerne wissen ob es mit der Karte wirklich Grafikfehler gibt, wie viele behaupten

Ja ich tu das die ganze Zeit. Grafikfehler gibt es nur wenn du PAtch 1.1 nicht installiert hast.

Rocko_the_Devil
2009-10-12, 21:50:17
Okay danke

Coda
2009-10-13, 04:03:05
Was hat es eigentlich mit dem "Tessellation" auf sich? Irgendwie hört sich das alles nach TruForm an was mit der Radeon 8500 eingeführt wurde. :freak:
Truform ist nur ein kleiner Bruchteil dessen was mit D3D11 an programmierbarer Tesselation eingeführt wurde.

Schnitzl
2009-10-13, 16:41:19
Radeon HD 5870 im Test: CPU-Skalierung (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/)

• 6 CPUs
• 3 Settings
• 5 Spiele (WoW, Risen, Anno 1404, FC2, Crysis Warhead

EDIT
N Tick zu spät ;D
Schade dass ihr Sacred2 nicht getestet habt - laut dem Forum dort soll das ja anspruchvoller an die HW sein als Crysis :D

MR2
2009-10-13, 23:00:13
"Spielen Sie ohne Kantenglättung und anisotrope Filterung sowie in einer niedrigen Auflösung mit einer Radeon HD 5870, ist nur ein übertakteter Nehalem-Prozessor in der Lage, die DX11-Karte in den meisten Fällen auszureizen"

Naja? Wenn ich also ohne AA und AF und in 1280x1024 spiele reichen andere CPUs wie ein Phenom II x3 oder X4 ja sowieso, egal ob die 5870 da "gebremst" wird. In hohen Auflösungen sehe ich das eher ein, da braucht man Alles um die FPS nach oben zu treiben, aber so...

Trotzdem wird es Zeit für den Bulldozer! Das AMD wieder Benchmarks mit den eigenen CPUs erstellen kann und nicht groß Intel auf den Folien stehen muß:-)

PCGH_BenchMarc
2009-10-13, 23:13:43
@ MR2

Ausreizen meint nur, der Karte mehr Fps zu entlocken - die Spielbarkeit ist in 1.280 ohne AA/AF ja selbst in Crysis gegeben.

@ Schnitzl

Sacred 2 schlaucht schon, idR aber mit PhysX richtig heftig. ArmA2 wäre noch spannend, eine englische Seite hatte iirc ein paar Benches.

Schnitzl
2009-10-14, 11:55:56
@ MR2

Ausreizen meint nur, der Karte mehr Fps zu entlocken - die Spielbarkeit ist in 1.280 ohne AA/AF ja selbst in Crysis gegeben.

@ Schnitzl

Sacred 2 schlaucht schon, idR aber mit PhysX richtig heftig. ArmA2 wäre noch spannend, eine englische Seite hatte iirc ein paar Benches.
Also das würde sich doch dann anbieten zu testen :)
Aber ob PhysX bei nem CPU-Skalierbarkeits-Test einer ATI Sinn macht? ;)

Hübie
2009-10-14, 12:24:40
Man sieht aber auch, dass sich z.b. der Core i5 750 nicht wirklich vom PII 720 BE absetzen kann - ab eine Auflösung von 1680x1050 (gängigste Zockerauflösung). Der kostet 1/3 weniger und der Verbrauch ist ebenfalls geringer. Also kommts doch net so auf die CPU an (wenn wir mal Preis und Leistung als Grundlage nehmen;)).

bye Hübie

robbitop
2009-10-17, 15:27:44
Wann kommt eigentlich die 2 GiB Variante? 1 GiB ist IMO für eine Neuanschaffung zu wenig.

tombman
2009-10-17, 16:25:55
Wann kommt eigentlich die 2 GiB Variante? 1 GiB ist IMO für eine Neuanschaffung zu wenig.
Das frage ich mich auch...wahrscheinich müssen erst genug 1Gb Käufer "gemelkt" werden ;)

mapel110
2009-10-17, 16:28:55
Hemlock(2x1GB) dann gehen billigeres CF aus 2x 2GB 5870 --> da würde sich ATI selbst ins Bein schießen. Die 2GB-Version dürfte noch lange auf sich warten lassen.

tombman
2009-10-17, 16:52:50
Wieso billiger? Hemlock wird weniger als 2x 1GB 5870 kosten, dann wird doch 2x 2Gb 5870 erst recht teurer...

mapel110
2009-10-17, 16:59:56
Wieso billiger? Hemlock wird weniger als 2x 1GB 5870 kosten, dann wird doch 2x 2Gb 5870 erst recht teurer...
Ehm, falsch ausgedrückt, meinte Quad-CF mit Hemlock dürfte dann sinnlos werden gegenüber 2x2GB-CF

redpanther
2009-10-17, 17:11:10
Radeon HD 5870 im Test: CPU-Skalierung (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/)

• 6 CPUs
• 3 Settings
• 5 Spiele (WoW, Risen, Anno 1404, FC2, Crysis Warhead

EDIT
N Tick zu spät ;D

Interessanter test. Aber warum gibts nicht zusätzlich einen Graphen für die min-fps? Wird nur einmal bei Crysis im text erwähnt, ist das sonst nicht relevant? Ohne Messwerte leider nicht zu beurteilen.

Bei FC2 soll der Action bench mehr die CPu belasten als dieser Ranch run, da dort die KI auch mitberechnet wird, wenn ich mich richtig and den 3Dcenter Artikel erinnere.

Hübie
2009-10-18, 10:01:08
Das hängt einfach nur davon ab ob ein Boardpartner sich erbarmt und 2GB auf n Brett lötet. Da hat AMD nix mehr mit am Hut.
Kann RV870 net sogar 4GB adressieren? Habs irgendwo mal gelesen.

bye Hübie

Deinorius
2009-10-21, 11:56:06
Kennt jemand Stromverbrauchsmessungen eines NICHT übertakteten Lynnfield-Systems mit irgendeiner Radeon 5000 Karte?
Die meisten Reviews bieten zwar Vergleichswerte, aber es wäre interessant zu wissen, wie sich ein realistisches System (gerade für diejenigen, die nicht gleich übertakten) verhalten würde.

reunion
2009-10-21, 12:17:45
Das hängt einfach nur davon ab ob ein Boardpartner sich erbarmt und 2GB auf n Brett lötet. Da hat AMD nix mehr mit am Hut.
Kann RV870 net sogar 4GB adressieren? Habs irgendwo mal gelesen.

bye Hübie

Nicht wirklich. AMD hat da sehr strenge Bestimmungen. Momentan sind weder höher getaktete Versionen, noch alternative Kühler, noch mehr VRAM oder sonst was erlaubt. AMD wird das dann wohl in den nächsten Wochen und Monaten Stück für Stück lockern.

Undertaker
2009-10-21, 12:27:35
Wo hast du denn das gelesen? :confused: Jegliche Abweichungen vom Referenzdesign kosten Entwicklungs- und Validierungaufwand und sind schon dadurch zwangsläufig erst mit zeitlichem Versatz zu erwarten.

reunion
2009-10-21, 12:48:40
Wo hast du denn das gelesen? :confused: Jegliche Abweichungen vom Referenzdesign kosten Entwicklungs- und Validierungaufwand und sind schon dadurch zwangsläufig erst mit zeitlichem Versatz zu erwarten.

Das war der Grund warum Gainward keine AMD-Karten mehr bauen will. Oder glaubst du es ist ein Zufall das immer exakt zur gleichen Zeit alle Boardpartner mit einem neuen Design, mehr VRAM, mehr Takt, etc. auf den Markt kommen? Das wird von AMD ganz genau festgelegt was wann und wie erlaubt wird und was nicht. Die 2GB Version kommt dann wann sie AMD frei gibt und ich denke das wird erst sein wenn man mal alle Kunden mit den 1GB Karten ausreichend versorgen kann um nachher mit dem 2GB Modell einen zweiten Verkaufsschub zu generieren. Damit ist man schon bei der 4870 gut gefahren.

Undertaker
2009-10-21, 13:09:21
Nicht Zufall, sondern schlicht vergleichbare Entwicklungszeiträume für die Eigenkreationen. ;) Gainward ist wohl ausgestiegen, weil man die abweichenden Designs schneller fertig hatte als die "großen" Partner von AMD, die darüber wohl nicht besonders glücklich waren:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/warum_gainward_ati-karten/

"So wolle AMD ihre wichtigsten Partner bei Laune halten und verbietet es somit, zeitlich vor den Herstellern Grafikkarten mit einem eigenen Design auszuliefern, solange man nicht zu den „Ausgewählten“ gehört."

Das klingt nicht so, als ob es auch für Sapphire, ASUS und co. zeitliche Beschränkungen diesbzgl. gibt.

reunion
2009-10-21, 13:17:05
Natürlich. Und um statt 1GB 2GB draufzuschnallen brauchen auch alle Monate. Und das Gainward das so darstellt verwundert auch wenig, schon klar Gainward ist zu schnell. Sapphire zeigte im übrigen schon zum Launch der 5870 eine entsprechende Vapor-X Version, die bis heute nicht vorgestellt wurde.

robbitop
2009-10-22, 08:05:24
ATI will sich für GT300 offenbar ein paar Asse im Ärmel vorbehalten. Das Angebot an RV870 ist eh begrenzt und gekauft werden sie sowieso wie warme Semmeln zur Zeit.

Stormscud
2009-10-22, 10:18:00
Wenn der GT300 so dick daher kommt wie bisher bekannt, dann brauchen sie das auch, um nicht allzu weit abzufallen. Ich warte sowieso noch bis der raus ist und hoffe auf eine Gegreaktion von ATI jeglicher Art.

Henroldus
2009-10-22, 10:56:56
Wenn der GT300 so dick daher kommt wie bisher bekannt, dann brauchen sie das auch, um nicht allzu weit abzufallen. Ich warte sowieso noch bis der raus ist und hoffe auf eine Gegenreaktion von ATI jeglicher Art.
nun ist erstmal Nvidia mit reagieren dran und dann sehen wir weiter.
ATI kann sich momentan zurücklehnen und hoffen, das TSMC mal aus den Pötten kommt und die Ausbeuten erhöht

Gast
2009-10-22, 11:06:15
Was heißt denn brauchen, Ati braucht erstmal gar nichts. Zum einen kann es noch ne Weile dauern bis die Konkurrenz was brauchbares bringt, zum anderen gehe ich davon aus, das die beiden in unterschiedlichen Preissegmenten spielen werden... und da kanns denen eigentlich egal sein, wenn der 300+€ chip schneller ist.
Konkurrenz gibts nur bei gleichen Preisen. Ansonsten ists auch kein Problem sich monatelang mit der Marktführerschaft im performance segment abzufinden. =)
Hinzu kommt und das dürfen wir nicht vergessen, jede Woche die verstreicht ist Zeit, die Ati nutzen kann um weiterzuentwickeln. Wer glaubt, das die nur herumsitzen, der irrt gewaltig.

Eine X2 liegt schonmal im Bereich des machbaren und dann kommt auch irgendwann sowas wie ein Refresh, fragt sich wer da wo mithalten muss..

Hübie
2009-10-22, 13:50:47
Aber du glaubst doch selber nicht, wenn Sapphire eine 2GB-Variante bringt, dass die den Verkauf stoppen:confused: :rolleyes: Das wäre mit das dämlichste was man machen kann ;)

bye Hübie

Schlammsau
2009-10-23, 16:53:12
Noch ein deutsches HD5850 Review, diesmal von HT4u....
http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/

AnarchX
2009-10-27, 18:21:31
http://img291.imageshack.us/img291/554/2539117473919375.jpg (http://img291.imageshack.us/i/2539117473919375.jpg/)

http://www.hardwarecanucks.com/news/video/sapphire-reveals-hd-5870-vaporx/

10% mehr Leistung bei +2,3% GPU- und +4,2% Speicher-Takt? :|
Ob da eine Referenz 5870 wohl schon thermische Probleme hat?

reunion
2009-10-27, 18:25:18
Wenn ich mir die Werte so ansehe tippe ich eher auf Messungenauigkeit. :)

MR2
2009-10-27, 23:31:31
:freak: Jo, denk ich auch...

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/oktober/hd_5870_vapor-x_hoeherer_takt_kuehlung/
inklusive Battleforge + Dirt2 Gutschein

Wird Zeit das die kommt. Dann kann ich endlich sagen:

Ja, ich will!

derguru
2009-10-28, 00:05:45
mein gott immer dieses absichtliche hinausverzögern.erst referenzdesign dann 6 wochen warten auf hersteller kühllösungen und dann noch mal 6 wochen später 2gb varianten. :uup:

tombman
2009-10-28, 00:08:11
Die sieht wenigstens nicht nach altem Batmobil aus :up:

Schade, daß 2Gb von AMD derzeit scheinbar noch verboten wird...
2GB mit Vapor-X wäre doch mal ne Ansage :)

Edit: lol, derguru, selbe Idee ;D

MR2
2009-10-28, 00:22:35
Jo, kotzt mich auch an....

Wenn sie schon fürs Referenzsystem keine Chips haben, ich seh schwarz, wann die verfügbar sein soll...


http://www.hardwarecanucks.com/wp-content/uploads/42.png



Geile Grafik;D

Gast
2009-10-28, 00:26:49
krasse steigerung vorallem der balken in der mitte wow!

35007
2009-10-28, 07:12:26
Solche Deppendiagramme gehören verboten, auch wenn jedem Kind in der 5. Klasse beigebracht wird, erstmal auf die Skalierung zu gucken..
Das ist so, als ob man ein 5 cm Lineal an den Pimmel hält und der Freundin sagt: "Guck ma, dobblt so groß wie das Lineal, was willste mehr????"

nagus
2009-10-28, 20:48:24
Radeon 5850, das OC Wunder (http://www.lostcircuits.com/mambo//index.php?option=com_content&task=view&id=67&Itemid=1)

http://www.lostcircuits.com/graphics/asus_eah5850_oc/184.jpg

Daredevil
2009-10-28, 21:05:40
Ich finde den Leistungssprung beim OC so wenig, gehts keinem anderen so?

Core: 725MHz OC: 1032Mhz +42,34%
Memory: 1000MHz OC: 1150Mhz +15%

3DMark Vantage: +28.33%
Jane Nash: +29.17%
Calico: +27.47%

Da geht irgendwie Leistung flöten.

Edit: Danke Ronny ^^

Ronny145
2009-10-28, 21:14:59
Speicher steht doch da. Im Bild 4600 sind das, wären also 2.300 Mhz.

Raff
2009-10-28, 21:18:17
Speicher steht doch da. Im Bild 4600 sind das, wären also 2.300 Mhz.

Das ist ziemlich wenig. Die mir bekannten HD-5850-Karten schaffen locker mindestens 2.500 MHz. Tja, die Spannung des Speichers kann man noch nicht erhöhen, während eigentlich jede HD 5800 mit 1,35 VGPU die 1.000 MHz knackt.

MfG,
Raff

INDEX75
2009-10-28, 21:24:21
... Die mir bekannten HD-5850-Karten schaffen locker mindestens 2.500 MHz. ...
Meine 5870 hat bereits bei 2500MHz ihre Probleme. Der Bildschirm flackert und ab und an kommt auch ein Schwarz/Brauner Screen der nur durch einen Reset zu beheben ist. Die GPU hingegen läuft ohne Schwierigkeiten mit 980MHz.

AnarchX
2009-10-28, 21:25:18
Tja, die Spannung des Speichers kann man noch nicht erhöhen, während eigentlich jede HD 5800 mit 1,35 VGPU die 1.000 MHz knackt.

Interessanter wäre hier noch die Erhöhung des Verbrauchs und das daraus resultierende Lüfterverhalten.
Oder habt ihr da schon etwas in Planung?


Da geht irgendwie Leistung flöten.

Vielleicht ist das Maximum der Stromversorgung erreicht und die Karte drosselt sich schon selbst.

Daredevil
2009-10-28, 21:26:53
Interessant wäre auch noch die Frage, wieviel +Performance bekommt man bei erhöhung des GPU und RAM Taktes, also ist die Karte sehr Bandbreitenlimitiert wie früher spekuliert wurde?

Gast
2009-10-28, 21:28:01
Hmm.

Zitat PCGH: Sollten Sie beim Übertakten Ihrer HD5800 festellen, dass sie nach der Erhöhung des Speichertaktes langsamer wird, haben Sie das Limit überschritten. Der Speichercontroller von Cypress verfügt über eine neuartige Fehlerkorrektur. Sie erhalten ergo keine Bildfehler durch Speicher-OC, jedoch kostget die Korrektur Rechenzyklen.


Das stell ich mir die zwei Fragen

1. Ist das Limit bei jeder Karte gleich?

2. Muss man bei jeder Takterhöhung erstmal benchen um das Maximum herauszufinde?

reunion
2009-10-28, 21:32:29
Vielleicht ist das Maximum der Stromversorgung erreicht und die Karte drosselt sich schon selbst.

Vielleicht limitiert auch ganz einfach die Bandbreite wenn man den Chiptakt um 42% erhöht und den Speichertakt nur um 15%?

derguru
2009-10-29, 12:44:37
Powercolor präsentiert wassergekühlte LCS Radeon HD 5870 (http://www.pcgameshardware.de/aid,698399/Powercolor-praesentiert-wassergekuehlte-LCS-Radeon-HD-5870/Grafikkarte/News/)
http://www.abload.de/img/powercolor-lcs-hd5870-oj3l.jpg

Botcruscher
2009-10-29, 12:49:10
Ich sehe da doch Aluminium?! X-((no)

derguru
2009-10-29, 13:01:41
ich sehe da nickel:wink:

_DrillSarge]I[
2009-10-29, 19:11:08
mein gott immer dieses absichtliche hinausverzögern.erst referenzdesign dann 6 wochen warten auf hersteller kühllösungen und dann noch mal 6 wochen später 2gb varianten. :uup:
das ist so besch...eiden. wäre es vaporx + 2gib = gekauft, aber so nicht. :(

gibts eigentlich konkrete termine für 2gib-versionen? oder muss man auf die 59xx-reihe warten?

derguru
2009-10-29, 21:32:07
leider gibt es keine termine für die 2gb variante aber was erfreulich ist das die vapor-x varianten nur 10-15 euro mehr kosten sollen als der referenzdesign.

Gast
2009-10-29, 21:44:28
Man braucht doch gar kein großen V-Ram mehr seit Win7

boxleitnerb
2009-10-29, 21:49:16
Äh wat? Quark :)

mapel110
2009-10-29, 22:31:39
Äh wat? Quark :)
Nee, kein Quark. Win7-Treibermodell bringt bessere Kompression für GPUs.

Gast
2009-10-29, 22:38:46
Mal zum OC thema noch:
Radeon3d hat ebenfalls schon vor längerer zeit einen kleinen OC test veranstaltet, dabei erreichen sie 1000/1250 MHz mit nur 1,237 V.
http://www.radeon3d.org/artikel/grafikkarten/xfx_radeon_hd_5850/overclocking/

Und dank des Speichers skaliert das ganze auch meiner meinung nach ganz gut.

Gast
2009-10-29, 22:39:16
Könnte ja mal einer mit GTA4 testen ;)

Kosh
2009-10-30, 05:19:45
Könnte ja mal einer mit GTA4 testen ;)

Wurde dort und GT4 lässt sich davon nicht beeindrucken.

Aber denke das wolltest du mit dem Smilie eh so aussagen :D

Gast
2009-10-30, 09:25:30
http://www.wikio.de/produkt/xfx-radeon-hd-5870-2-gb-237146.html

http://www.idealo.de/suchen/16073-grafikkarten-radeon-hd-5870-2gb.html

Da kommen auch schon die 2GB Karten

Raff
2009-10-30, 09:52:16
http://www.wikio.de/produkt/xfx-radeon-hd-5870-2-gb-237146.html

http://www.idealo.de/suchen/16073-grafikkarten-radeon-hd-5870-2gb.html

Da kommen auch schon die 2GB Karten

Letztere ist eine HD 4870 X2. Und die ist alles andere als eine 2-GiB-Karte.

Apropos: Erinnert sich noch jemand an den HD-4800-Launch? Zum Start gab's nur 512-MiB-Modelle. Dann folgte die X2 mit zweimal 1 GiB und schon gab's auch 1-GiB-Solokarten. So wird's wohl auch jetzt laufen. Ergo: HD 5800 mit 2 GiB im November.

MfG,
Raff

MartinRiggs
2009-10-30, 09:54:08
Letztere ist eine HD 4870 X2. Und die ist alles andere als eine 2-GiB-Karte.

Apropos: Erinnert sich noch jemand an den HD-4800-Launch? Zum Start gab's nur 512-MiB-Modelle. Dann folgte die X2 mit zweimal 1 GiB und schon gab's auch 1-GiB-Solokarten. So wird's wohl auch jetzt laufen. Ergo: HD 5800 mit 2 GiB im November.

MfG,
Raff

Glaubst du da wirklich dran?
Es gibt ja nichtmal verfügbar 1GB-Modelle, wo sollen da 2 GB-karten herkommen?

Raff
2009-10-30, 09:54:47
An der Verfügbarkeit des Speichers liegt das aber nicht.

MfG,
Raff

AnarchX
2009-10-30, 10:36:03
Immerhin werden ja die 1024MBit 0.4ns Speicherchips, die man für eine 2GiB 5800 benötigen würde, auf den 5700er verbaut.

Im Endeffekt wird es wohl AMD sein, die momentan noch 2GiB Versionen verbieten, laut Gerüchten könnte die 5870 mit 2GiB und 6x Mini-DP wohl als 5950 an den Start gehen.

DrMabuse1963
2009-10-30, 10:48:42
Wie hoch ist Eigentlich die Vcore bei der 5870 (Standard ) , und welche ~Temps hat sie da ? MfG

Raff
2009-10-30, 10:54:01
Die VGPU schwankt je nach Karte zwischen 1,125 und 1,1625 Volt.

MfG,
Raff

skampi
2009-10-30, 11:05:56
Die VGPU schwankt je nach Karte zwischen 1,125 und 1,1625 Volt.

MfG,
Raff


Gibts auch entsprechende Angaben zu der 5850?

Danke und Gruß

Raff
2009-10-30, 11:12:06
Da sind mir nur Karten mit (ausgelesenen) 1,0875 Volt bekannt. Jede HD 5800 lässt sich aber via MSI Afterburner auch zum Betrieb mit 1,35 Volt überreden ... ;)

MfG,
Raff

Gast
2009-10-30, 11:15:25
http://www.computerbase.de/news/hardware/grafikkarten/2009/oktober/yields_tsmcs_40-nm-fertigung/

Das kann ja heiter werden...

DrMabuse1963
2009-10-30, 11:41:25
Hier mal ein Bench zur 5970 . MfG

http://en.inpai.com.cn/doc/enshowcont.asp?id=7261

Gast
2009-10-30, 12:11:17
Hier mal ein Bench zur 5970 . MfG

http://en.inpai.com.cn/doc/enshowcont.asp?id=7261

Also naja, noch nich so das wahre. Mal sehen was am Ende rauskommt.

DrMabuse1963
2009-10-30, 12:28:15
Von der Leistung her sind 2x5870 zu bevorzugen , wenn der Preis aber bei ~450€ liegen sollte ist es ok. , denke aber eher das sie mit 500€ auf'm Markt kommen . MfG

Hübie
2009-10-30, 16:01:10
Wieso? XFX hat doch schon ne 2GB-Karte. Jetzt müsste man die nur noch kaufen können ;D

http://www.wikio.de/produkt/xfx-radeon-hd-5870-2-gb-237146.html

mapel110
2009-11-01, 03:39:47
http://www.xbitlabs.com/articles/video/display/radeon-hd5850.html
umfangreiches Review der 5850.

35007
2009-11-01, 10:51:58
Da sind mir nur Karten mit (ausgelesenen) 1,0875 Volt bekannt. Jede HD 5800 lässt sich aber via MSI Afterburner auch zum Betrieb mit 1,35 Volt überreden ... ;)

MfG,
Raff

Wie sieht es mit dem Undervolting aus? Ist dies ohne weiteres möglich?

Raff
2009-11-01, 11:32:28
Wie sieht es mit dem Undervolting aus? Ist dies ohne weiteres möglich?

Yep, mit dem MSI Afterburner. Weniger als 1,05 Volt ist aber kaum zu machen, da spart man höchstens 10 Watt unter Last ein.

MfG,
Raff

Deinorius
2009-11-01, 17:37:51
Weil weniger als 1,05 V vom Board nicht machbar sind, oder weil die Chips weniger nicht verkraften?
Im Idle kanns man Undervolting also erst recht vergessen?

Iceman346
2009-11-01, 17:49:54
Die Spannung auf dem Chip wird doch im Idle schon reduziert. Meine geht auf 0,95 V runter.

Keine Ahnung ob da noch mehr möglich ist, aber im allgemeinen sind die Karten im Idle ja schon sehr sparsam.

Gast
2009-11-01, 17:50:55
Yep, mit dem MSI Afterburner. Weniger als 1,05 Volt ist aber kaum zu machen, da spart man höchstens 10 Watt unter Last ein.

MfG,
Raff


jo und ab und an hat man damit auf 1.6v.. :lol: auch ganz automatisch :D... die Bastler sollten sich erstmal ne HD 5000 zulegen ehe sie so einen Müll auf die Menschheit loslassen!
Trifft auch auf Everest im Autostart und den ATTS zu....

derguru
2009-11-01, 18:22:39
im idle verbraucht die 5870 doch schon nur 21W,wozu dann undervolting?

Stormscud
2009-11-01, 18:41:39
Also wenn die paar fehlenden Shadereinheiten bei gleichem Takt kaum was ausmachen, dann braucht man die 5870 echt nicht zu kaufen. Ich glaub da werd ich mir dann später die 5850 holen. Dank MSI Afterburner ist ja auch noch mehr drin. Das gesparte Geld kann man dann gut in einen alternativen Kühler und nen nettes Spiel investieren ;)

Deinorius
2009-11-01, 21:03:49
im idle verbraucht die 5870 doch schon nur 21W,wozu dann undervolting?


Schadet es denn, es einfach zu probieren? Wenns nicht klappt, ist auch gut.

Gast
2009-11-01, 22:36:55
das tool schrottet die Karten rafft ihr das nicht?

sklave_gottes
2009-11-02, 00:11:58
das tool schrottet die Karten rafft ihr das nicht?


Und wenn man den lüfter auf 100% stelt, kann der rechner fliegen.

sag mal, gehts ein bischen ausführlicher....

vieleicht auch mit link von betroffenen, wenns doch so offensichtlich ist.

Gast
2009-11-02, 01:23:53
das tool schrottet die Karten rafft ihr das nicht?
LOL.
Kann man dazu auch irgendwo was nachlesen, oder einfach nur ein Gast, der Langeweile hat?....und ein wenig FUD verbreiten will...

Tomahawk
2009-11-02, 21:46:29
Was mich wundert:
Wieso gibt es so wenige Unkenrufe wegen dieses Paperlaunchs?

Aus Vertriebssicht ist es vielleicht sinnvoll, Produkte vorzeitig zu bewerben. Andererseits dürfte die Nachfrage nach den alten Modellen so auch geringer geworden sein. Aber falsche Verfügbarkeitsangaben sind dann wirklich etwas unfeines.

Gast
2009-11-02, 22:22:32
Was mich wundert:
Wieso gibt es so wenige Unkenrufe wegen dieses Paperlaunchs?


Weil sowas nur bei Nvidia böse ist, Ati hat nen Waffenschein.

Gast
2009-11-02, 22:45:24
also soll ATI die Chips erst mal sammeln und dann ein halbes Jahr später verkaufen, nur weil TSMC Probleme bei der Fertigung hat?! immer diese grünen Fanboys....

Becks
2009-11-03, 07:19:51
Hier noch ein Review zur Radeon HD 5870 Vapor-X (http://www.radeon3d.org/artikel/grafikkarten/sapphire_radeon_hd_5870_vapor-x/einleitung/) von Radeon3D.org

Kann man ja in den ersten Post ergänzen. ;)

Raff
2009-11-03, 11:17:50
Dito hier:
http://www.pcgameshardware.de/aid,698645/Sapphire-Radeon-HD-5870-Vapor-X-im-Test/Grafikkarte/Test/

Und hier:
http://www.hitechlegion.com/reviews/video-cards/1628

Erneut Spitzenware von Sapphire. Die 5870 ist jedoch etwas zu "laut", wenn man die Temperatur in Relation setzt. 70 Grad GPU-Temp bei 1,x Sone sollten mit einem Folge-BIOS möglich sein.

MfG,
Raff

reunion
2009-11-03, 12:43:42
Ja sehe ich auch so. Solange die Temperatur nicht im kritischen Bereich ist ist mir das Wurschsalat. Da hätte man die Lüftersteuerung deutlich besser einstellen könne. Der Kühler selbst ist natürlich wie erwartet eine Wucht. Mit entsprechender modifizierung sollte man da problemlos eine fast lautlose 5870 realisieren können.

_DrillSarge]I[
2009-11-06, 14:39:37
5870 eyefinity edition
2GiB + 6x Mini-DP

The biggest difference in the graphics on the back, 6DP version of the back also integrates a memory 8, so that both sides of a total of 16 composed of 2GB memory capacity, more than twice as many regular edition. Want to play games in the ultra-high resolution, then memory consumption will naturally be doubled, HD5870 6DP redesigned version of the PCB to integrate so much memory is indeed very thoughtful consideration.
http://translate.google.de/translate?prev=hp&hl=de&js=y&u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F458%2F458240.shtml&sl=auto&tl=en&history_state0=

Undertaker
2009-11-06, 14:59:25
Wird es die 2GB Karte nur als Eyefinity geben? 99% der User wollen doch die 2GB, aber nur 1-2 normale DVI/HDMI Monitore anschließen, da mit Adaptern rumzufrickeln ist etwas nervig... :(

Blacksoul
2009-11-06, 15:01:09
Wird es die 2GB Karte nur als Eyefinity geben? 99% der User wollen doch die 2GB, aber nur 1-2 normale DVI/HDMI Monitore anschließen, da mit Adaptern rumzufrickeln ist etwas nervig... :(

Mir würde auch eine normale Version mit 2GB reichen. Für drei Monitore braucht man ja nicht die Eyefinity-Version.


t.b.d

J0ph33
2009-11-07, 19:20:46
schon bekannt, wann die 2GB-Version kommen soll?

Gast
2009-11-07, 19:39:56
Ich habe die Frage bereits in einem anderen Thread erstellt, trotzdem nochmals hier: Warum bringen die zusätzlichen Einheiten derzeit so wenig bei der 5870 im Vgl. zur 5850 (s. z.B. hier: http://www.radeon3d.org/artikel/grafikkarten/sapphire_radeon_hd_5870_vapor-x/overclocking/)?

Wenn doch taktbereinigt nur zwischen 0% und 3% rauskommen, dann hätte man sich doch den Cypress XT imo gleich sparen voll können...

Gast
2009-11-07, 19:41:20
ups: http://www.radeon3d.org/artikel/grafikkarten/sapphire_radeon_hd_5870_vapor-x/overclocking/

AnarchX
2009-11-07, 22:13:45
Bei entsprechend hoher Auslastung (SSAA) kann eine 5870 schon ihr Potential zeigen.

Warum es davor teilweise nicht klappt lässt sich nicht so einfach sagen, entweder limitieren bestimmte Teile im Chip, deren Leistung nur mit dem Takt skaliert oder AMD hat hier im Treiber noch Optimierungspotential, vielleicht auch gewollt. ;)

Gast
2009-11-08, 01:56:34
Vielleicht hängt man in den meisten Fällen (avg Benchmarks) auch nur im CPU Limit fest.
Je mehr Leistung die Karte hat, desto schwieriger wirds sie mit ausreichend Daten zu füttern. Die CPUs sind in der gleichen Zeit weitaus langsamer gewachsen als die Grafikleistung. Mehr-Kern zählt leider nicht doppelt oder vierfach, so lang nicht alle Anwendungen davon gebrauch machen.

derguru
2009-11-08, 15:05:17
Radeon HD 5800-Serie-Leistung steigt mit optimiertem Treiber (http://www.radeon3d.org/index/ati_allgemein/november_2009/radeon_hd_5800-serie-leistung_steigt_mit_optimiertem_treiber/)

Raff
2009-11-08, 15:20:08
Bei entsprechend hoher Auslastung (SSAA) kann eine 5870 schon ihr Potential zeigen.

Und das ist es doch, worauf es ankommt. :) Es gibt keine bessere Karte für BQ-Fetischisten. Ja, trotz des Fehlens von HQ. Denn in 99,9 Prozent der Spiele geht SSAA; schon 2x SGSS macht aus dem Spar-AF "HQ".

MfG,
Raff

horn 12
2009-11-08, 15:40:39
Nun, dann soll auch die Leisung der HD5850-er Karte steigen.
Meint Ihr die Karte ist für 2x SSAA dann generell zu schwach.

Mit 850/ 1000 sollte man einer Standard HD5870 doch SCHON SEHR SEHR NAHE sein, auch wenn diese letztere Karte wieder OC werden kann.
Meine Sapphire HD5850 muss sich noch auf den Einbau gedulden, bis das Neue NT am Montag, Dienstag kommt...

Raff
2009-11-09, 10:51:09
Nun, dann soll auch die Leisung der HD5850-er Karte steigen.
Meint Ihr die Karte ist für 2x SSAA dann generell zu schwach.

Eine HD 5850 packt 2x SSAA locker in aktuellen Spielen, idR ist auch 4x drin (in 1.680 x 1.050).

Mit 850/ 1000 sollte man einer Standard HD5870 doch SCHON SEHR SEHR NAHE sein, auch wenn diese letztere Karte wieder OC werden kann.

Bei absoluter GPU-Limitierung (=> 4x+ SSAA) ist eine HD 5850 erst mit ~950 MHz so schnell wie eine HD 5870 @ 850 MHz. Jede HD 5850 schafft 900+ MHz, wenn sie mehr Spannung bekommt.

MfG,
Raff

AYAlf_2
2009-11-09, 11:06:59
finde unter geizhals.at/de keine 5870 mehr? und nur noch eine 5850? was ist los?

Gast
2009-11-09, 11:14:37
finde unter geizhals.at/de keine 5870 mehr? und nur noch eine 5850? was ist los?
http://geizhals.at/deutschland/?cat=gra16_512&xf=891_Radeon+HD+5870

Ferengie
2009-11-09, 11:22:20
keine 5850/5870...nur der insolvente Avitos hat noch HD5850 lagernd...

AYAlf_2
2009-11-09, 12:05:20
http://geizhals.at/deutschland/?cat=gra16_512&xf=891_Radeon+HD+5870
aber nicht lagernd! :wink:

Kornflakes
2009-11-09, 13:11:17
Avitos ist nicht mehr insolvent

reunion
2009-11-09, 17:10:30
Die lieferbaren Karten werden immer billiger: :D
http://shop.vv-computer.de/shop/article/503242?referer=geizhals.at

/Edit: Oh ich sehe gerade das ist eine WaKü-Edition, naja dann geht es noch so halbwegs.

Alexander
2009-11-09, 18:01:00
Avitos ist nicht mehr insolvent
Und wieso habe ich mein Windoof noch nicht zugeschickt bekommen?

S940
2009-11-09, 18:03:49
Und wieso habe ich mein Windoof noch nicht zugeschickt bekommen?Das war wahrscheinlich die alte Avitos, jetzt gibts Avitos NT 2.0 :freak:

][immy
2009-11-09, 23:05:04
Und das ist es doch, worauf es ankommt. :) Es gibt keine bessere Karte für BQ-Fetischisten. Ja, trotz des Fehlens von HQ. Denn in 99,9 Prozent der Spiele geht SSAA; schon 2x SGSS macht aus dem Spar-AF "HQ".

MfG,
Raff

Ich nehme eure Voodoo 5 6000er karten dann gerne zur verwertung an :)


ganz nebenbei, wie sieht's eigentlich mit der SSAA Quali im vergleich zur V5 aus? gibt es "glättungsunterschiede"?


gibt es irgendwo tests mit 8x SSAA mit 5870 und 5850 im vergleich? neue spiele interessieren mich da eher nicht, sondern eher ältere (crysis ist jetzt für mich kein älteres spiel)

Deinorius
2009-11-09, 23:18:56
@][immy
Auch wenn das schon interessant wäre, aber der Praxisnutzen /-wissen davon ist gleich null.

robbitop
2009-11-10, 08:37:39
Und das ist es doch, worauf es ankommt. :) Es gibt keine bessere Karte für BQ-Fetischisten. Ja, trotz des Fehlens von HQ. Denn in 99,9 Prozent der Spiele geht SSAA; schon 2x SGSS macht aus dem Spar-AF "HQ".

MfG,
Raff
Leider nicht in Gothic 3 :(

Raff
2009-11-10, 09:41:00
[immy;7650248']Ich nehme eure Voodoo 5 6000er karten dann gerne zur verwertung an :)

ganz nebenbei, wie sieht's eigentlich mit der SSAA Quali im vergleich zur V5 aus? gibt es "glättungsunterschiede"?

Das habe ich noch nicht getestet, es steht aber ganz oben auf der "Wenn Zeit ist"-Agenda (um Weihnachten abzuarbeiten ;)). Solange sind acht effizient verteilte Supersamples erstmal acht effizient verteilte Supersamples. Etwaige Unterschiede sind winkelabhängig und mit der Lupe zu suchen. Hinzu kommen fallabhängig kleinere Vorteile der HD 5000 durch die Gammelkorrekur.

Und die Göttin bleibt die Göttin, auch wenn es neun Jahre später Karten gibt, die dasselbe geile AA bieten. :tongue:

Leider nicht in Gothic 3 :(

Tja, Atis Treiberpfusch (bei der gesamten Gothic-Serie) bleibt. Da kann die Hardware noch so gut sein.

MfG,
Raff

robbitop
2009-11-10, 13:05:30
Selbst wenn die Streifen in Gothic 3 mal weggehen, funktioniert bei ATI selbst mit dem Bioshock AA-Bit kein AA sobald Tiefenunschärfe aktiv ist (und die ist ab einem High Detail LOD von 25.000 sogar sehr sehr schön ist!). Lediglich NV Karten können mit dem Stalker Bit fehlerfreies MSAA + TSAA (TMAA greift nicht) realisieren. Allerdings nicht bei HDR (Pixelfehler) sondern nur bei Bloom.
HDR kam glaube ich mit CP 1.7x dazu. (letzterer Patch bringt übrigens Einiges - genieße G3 derzeit enorm - brauche aber dringend ne Fermi X-D)

Raff
2009-11-10, 13:08:53
Fermi? Eine übertaktete GTX 285 liefert dir doch schon Faktor 2,x.

MfG,
Raff

robbitop
2009-11-10, 13:27:51
Fermi? Eine übertaktete GTX 285 liefert dir doch schon Faktor 2,x.

MfG,
Raff
Mit ner GTX285 ist aber ein voll getweaktes Gothic @1680x1050 bei 4xTSAA noch zäh. Und außerdem ist das P/L-Verhältnis (knapp 300 Tacken lieferbar!) in Relation zur RV870 wirklich schlecht. Und im Hinterkopf bleibt, bereits veraltete HW zu kaufen.

nagus
2009-11-10, 20:32:44
Radeon HD 5800-Serie-Leistung steigt mit optimiertem Treiber (http://www.radeon3d.org/index/ati_allgemein/november_2009/radeon_hd_5800-serie-leistung_steigt_mit_optimiertem_treiber/)

hier gibts ein kleines preview zum 9.12er "helmlock" beta launchtreiber:

Need for Speed SHIFT Gameplay Performance and IQ (http://hardocp.com/article/2009/11/10/need_for_speed_shift_gameplay_performance_iq/1)

"And we were right. Between Catalyst 9.10 WHQL and Catalyst 8.663.1, which is the beta driver of Catalyst 9.12, we saw an average framerate increase of 10.9 FPS, which was an increase of about 21%"

_DrillSarge]I[
2009-11-10, 21:38:23
hier auch:

http://www.legitreviews.com/images/reviews/1130/shift_chart.jpg

http://www.legitreviews.com/article/1130/1/

ich will diesen treiber haben! :usad: :D

frix
2009-11-10, 21:43:33
Und ich hätte gern, dass die karten lieferbar sind :frown:

LovesuckZ
2009-11-10, 21:44:48
ich will diesen treiber haben! :usad: :D

Bezweifel ich:
http://www.legitreviews.com/images/reviews/1130/shift_smoke_issue.jpg

Außer du stehst auf diesen Nebel. ;)

_DrillSarge]I[
2009-11-10, 21:45:41
Außer du stehst auf diesen Nebel. ;)
shift ist mir egal. :D

€:

das ist nicht der treiber, sondern der alpha-patch

We did notice that the new game patch created a couple of image quality issues on the Radeon HD 5800 series that were not present on previous versions of Need For Speed: Shift, though. As you can see above, with the latest patch both CATALYST 9.10 and 8.663.1 beta 4 drivers had issues rendering smoke.

LovesuckZ
2009-11-10, 21:49:49
I[;7652298']shift ist mir egal. :D

Da die Leute zwar unter NDA stehen, aber Shift testen, tippe ich mal ins blaue und sage: Der Rest ist unspektakulärer.

Iceman346
2009-11-11, 08:47:59
Bezweifel ich:
http://www.legitreviews.com/images/reviews/1130/shift_smoke_issue.jpg

Außer du stehst auf diesen Nebel. ;)

Mmmh, dass sieht quasi genauso aus wie die Grafikfehler die ich auf der 5870 in Champions Online habe wenn ich AA einschalte. Ist jetzt die Frage ob die mit dem Betatreiber in Shift auch weg wären wenn man AA abschaltet.

Na jo, vielleicht fixen sie das ja und machen nebenbei auch CO heile bis der Treiber erscheint ;)

nagus
2009-11-11, 11:22:11
Bezweifel ich:
http://www.legitreviews.com/images/reviews/1130/shift_smoke_issue.jpg

Außer du stehst auf diesen Nebel. ;)

und wo hast du das jetzt "ausgegraben"? wäre nett wenn du auch eine quelle angeben könntest. hier (http://hardocp.com/article/2009/11/10/need_for_speed_shift_gameplay_performance_iq/8) ist nämlich nichts von solchen grafikfehlern zu sehen

Iceman346
2009-11-11, 11:39:23
Das ist aus dem verlinkten Legitreviews Artikel. Hätte man auch anhand der URL selbst drauf kommen können :rolleyes:

nagus
2009-11-11, 13:10:41
Das ist aus dem verlinkten Legitreviews Artikel. Hätte man auch anhand der URL selbst drauf kommen können :rolleyes:

ok dann sollte man aber auch dazusagen, dass das NICHT an den catalyst treibern liegt sondern am PATCH: " As you can see above, with the latest patch both CATALYST 9.10 and 8.663.1 beta 4 drivers had issues rendering smoke. "

wer lesen kann... usw.

Grestorn
2009-11-11, 13:12:31
ok dann sollte man aber auch dazusagen, dass das NICHT an den catalyst treibern liegt sondern am PATCH: " As you can see above, with the latest patch both CATALYST 9.10 and 8.663.1 beta 4 drivers had issues rendering smoke. "

wer lesen kann... usw.

Woraus liest Du bitte anhand dieses Satzes, dass der Fehler nicht im Treiber liegt?

Es ist vollkommen unklar ob hier Treiber oder Code "Schuld" sind. Es ist nur offenbar, dass die Tester des Patches nicht mit 9.10 getestet haben (oder den Fehler übersehen haben).

Hübie
2009-11-11, 13:22:02
Öh. Überleg doch mal. Shift ohne Patch scheint ja zu laufen. Auch mit Beta-Catalyst. Sonst würden sich ja etliche Menschen beschweren und die hätte das dazugeschrieben, dass es nur mit dem Alpha-Patch und Beta-Treiber auftritt.
Sobald aber der Patch drauf ist ("with the latest patch both... blah") gibts Probleme mit beiden Treiberversionen? Klar soweit? Okay.

bye Hübie

Grestorn
2009-11-11, 13:26:49
Öh. Überleg doch mal. Shift ohne Patch scheint ja zu laufen. Auch mit Beta-Catalyst. Sonst würden sich ja etliche Menschen beschweren und die hätte das dazugeschrieben, dass es nur mit dem Alpha-Patch und Beta-Treiber auftritt.
Sobald aber der Patch drauf ist ("with the latest patch both... blah") gibts Probleme mit beiden Treiberversionen? Klar soweit? Okay.

Nichts ist klar, es sei denn der Fehler tritt mit ALLEN Treibern auf ALLEN Grafikkarten auf.

Es kann auch eine Performance-Optimierung sein, die mit Cat 9.9 und nV einwandfrei läuft (und auch legal ist, sprich den Spezifikationen entspricht), aber mit 9.10 nicht mehr läuft, weil im Cat ein Fehler ist. Auch das ist nur eine Spekulation und in keiner Weise gesichert. Ich will nur darauf hinweisen, dass man sich vor schnellen Schlüssen hüten soll.

Viele machen es sich in der IT viel zu einfach, den schwarzen Peter irgendjemandem in die Schuhe zu schieben, ohne die Fakten zu prüfen. Gerade in Diskussionsforen.

Hübie
2009-11-11, 13:37:10
Aber es gibt Spekulationen die wahrscheinlicher sind und welche die unwahrscheinlicher sind. Deine ist letzteres. Im Screenshot-Thread sind etliche Bilder von den unterschiedlichsten Nutzern. Keiner weist diesen Fehler auf.
So nun kombiniere.
Mir persönlich ist Shift übrigens sowas von scheißegal, dass kannst du dir nicht vorstellen ;D

Grestorn
2009-11-11, 13:43:12
Aber es gibt Spekulationen die wahrscheinlicher sind und welche die unwahrscheinlicher sind. Deine ist letzteres.

Ist sie das? Wenn das Spiel mit allen anderen Treibern läuft? Das bezweifle ich allerdings. Deine Aussage ("keiner weißt diesen Fehler auf") bestätigt mich ja auch noch.

Und selbst wenn sie tatsächlich unwahrscheinlich wäre: Sicher ist nur, dass es nicht sicher ist. Und deswegen soll man sich einfach von 100% Aussagen hüten, wie nagus und Du sie gemacht haben.

Iceman346
2009-11-11, 13:43:35
Wie gesagt, den optisch gleichen Fehler gibts in Champions Online beim Aktivieren von AA. Egal ob mit dem Cat 9.10 oder einem der älteren Treiber.

Auch da keine Ahnung obs am Treiber oder am Spiel liegt, aber auf der 4870 die ich vorher drin hatte ging das AA noch problemlos.

_DrillSarge]I[
2009-11-11, 15:24:56
das bei shift ist ein unveröffentlichter alpha-patch. also :rolleyes:

nagus
2009-11-11, 18:41:48
Woraus liest Du bitte anhand dieses Satzes, dass der Fehler nicht im Treiber liegt?

Es ist vollkommen unklar ob hier Treiber oder Code "Schuld" sind. Es ist nur offenbar, dass die Tester des Patches nicht mit 9.10 getestet haben (oder den Fehler übersehen haben).

meien güte. es is völlig EGAL weil der fehler bei beiden treibern auftritt, der neue treiber aber schneller ist. performancetechnisch wäre die situation gleich wenn es keinen fehler geben würde.

Gast
2009-11-11, 19:18:54
Aber es gibt Spekulationen die wahrscheinlicher sind und welche die unwahrscheinlicher sind. Deine ist letzteres.Eben nicht. Es ist in der Tat nicht so einfach, hier irgendwem ohne aufwändige Tests die Schuld zuzuschieben. Wenn die Need-for-Speed-Leute mit dem Patch eine andere Methode für irgendwas nutzen, um z.B. die Performance zu verbessern oder was auch immer der Sinn dieses Patches ist, die zwar von D3D vorgeschrieben ist, in den ATI-Treibern aber nicht fehlerfrei funktioniert, kann das Problem auch bei den Treibern liegen. Nach deiner Logik würden ja sämtliche Probleme, die es mit nagelneu erschienen Spielen gibt, bei dei den Devs dieser Spiele zu suchen sein, weil alle bisherigen Spiele ja auch prima liefen. Ein Blick in die Releasenotes der ATI- und Nvidia-Treiber sagt mir aber was anderes.

Wenn ein Fehler nur dann auftritt, wenn eine Anwendung AKW-Rendering in Kombination mit 4x Antihyperbumping benutzt, wirst du ihn auch erst dann bemerken, wenn ein Spiel anfängt diese beiden Techniken (;)) in Kombination zu nutzen. Was lässt dich ausschließen, dass sowas in der Art hier bei NFS der Fall sein kann?

dutchislav
2009-11-12, 00:44:40
In naher zukunft soll ja die 5870 mit 2GB speicher erscheinen ... ich hab mich noch nie damit befasst, aber bringt das bei aktuellen games (ausser GTA4) irgendwas? Oder ist man mit so einer karte für die zukunft besser gerüstet?

Gast
2009-11-12, 00:47:21
In naher zukunft soll ja die 5870 mit 2GB speicher erscheinen ... ich hab mich noch nie damit befasst, aber bringt das bei aktuellen games (ausser GTA4) irgendwas? Oder ist man mit so einer karte für die zukunft besser gerüstet?

Keine Karte ist jemals für die Zukunft gerüstet, dafür dreht sich die Hardwarespirale zu schnell.

dutchislav
2009-11-12, 00:51:29
das war wohl schlecht formuliert

sagen wir so, lohnt sich zurzeit so eine anschaffung, gesehen auf eine Laufzeit von ca einem jahr?

gnar ... man sieht, dass ich gar keinen plan habe >_<

Gast
2009-11-12, 00:54:30
Ich denke schon. Aber auch eine 1GB reicht auch in einem Jahr noch.

DrFreaK666
2009-11-12, 07:55:14
das war wohl schlecht formuliert

sagen wir so, lohnt sich zurzeit so eine anschaffung, gesehen auf eine Laufzeit von ca einem jahr?

gnar ... man sieht, dass ich gar keinen plan habe >_<

Weisst du was SSAA und Textur-Mods sind?
Wenn nicht dann reichen 1GB

robbitop
2009-11-12, 08:52:18
Ob MSAA oder SSAA ist für die Speichermenge egal.

Armaq
2009-11-12, 11:28:14
Ob MSAA oder SSAA ist für die Speichermenge egal.
Komplett egal? Ich dachte SSAA hat auch hier Nachteile.

Psychopat
2009-11-12, 12:57:19
Die 2GB bringen vor allem was wenn du mehrere Monitore betreibst. Je höher die Auflösung, desto mehr Speicher wird gebraucht.

Milchmädchenrechnung:
3 Monitore = 3x soviel Speicherverbrauch wie bei nur einem Monitor

Da bei der 5870 ja mit Eyefinity geworben wird, brauchts den Speicher schon wenn man wirklich 6 Monitore anschließen will.

robbitop
2009-11-12, 13:10:00
Komplett egal? Ich dachte SSAA hat auch hier Nachteile.
Du musst für jedes Pixel jedes Sample einzeln speichern. Das macht keinen Unterschied ob SSAA oder MSAA.

Hübie
2009-11-12, 13:45:48
Hängt das nicht auch von der gewählten Stufe ab? 8xMSAA (boxed) verbraucht sicher weniger als 8xOGSSAA oder irre ich da nun? Erstens hat SSAA mehr samples und zweitens skaliert es doch höher oder?

bye Hübie

dutchislav
2009-11-12, 14:15:34
Weisst du was SSAA und Textur-Mods sind?
Wenn nicht dann reichen 1GB

klar weiß ich was das is. also profitieren nur games mit texturpaketen von dem extra speicher?

hab nicht vor, mehr als einen Monitor zu betreiben

robbitop
2009-11-12, 17:00:01
Hängt das nicht auch von der gewählten Stufe ab? 8xMSAA (boxed) verbraucht sicher weniger als 8xOGSSAA oder irre ich da nun? Erstens hat SSAA mehr samples und zweitens skaliert es doch höher oder?

bye Hübie
8xMSAA verbraucht exakt das gleiche wie 8xSSAA. Nämlich den 8x Framebuffer. ;) (also Color und Z)
Egal ob Box, Tent, Gauss und egal welches Sampleraster.

MR2
2009-11-12, 22:48:43
http://www.computerbase.de/artikel/software/2009/test_stalker_call_pripyat/3/

"Mit den beiden qualitätssteigernden Features können sich die Radeon-HD-5000-Produkte gar noch weiter von der Konkurrenz absetzen. Die Radeon HD 5850 rendert um 36 Prozent flotter als die GeForce GTX 285, die Radeon HD 5870 gar um 61 Prozent."...

"In 1920x1200 ermöglicht einzig die Radeon HD 5870 und zu einem Großteil noch die Radeon HD 5850 flüssige FPS-Werte, solange der DirectX-11-Modus angeschaltet ist. Die ältere Radeon-HD-4000- sowie die GeForce-GTX-200-Garde ist in dem Fall durchweg zu langsam, um auch nur annähernd an die 30-FPS-Grenze zu kommen."

Auch schön der Unterschied zwischen der 5850 und der 5870.

Gast
2009-11-12, 23:27:14
8xMSAA verbraucht exakt das gleiche wie 8xSSAA. Nämlich den 8x Framebuffer. ;) (also Color und Z)
Egal ob Box, Tent, Gauss und egal welches Sampleraster.Stimmt nicht ganz, bei SSAA spart man sich den für die Bandbreitenkompression des MSAAs nötigen zusätzlichen Speicher, sprich SSAA braucht nicht nur nicht mehr Speicher als MSAA, sondern sogar weniger.
Dürfte allerdings nur ein Tropfen auf den heißen Stein sein, 1 Bit pro Pixel oder Quad vielleicht, wird wahrscheinlich im Regelfall auch auf dem Chip bleiben und erst gar nicht im VRAM landen :uponder:

Gast
2009-11-13, 01:43:21
Bei der 5800-Serie halte ich 2GB für durchaus sinnvoll. Nicht sofort, aber das ist das gar nicht das Ziel. Zum einen haben die Karten wieder mehr Power, was höhere Auflösungen oder höhere Qualität ermöglicht, zum anderen sind sie gerade erst erschienen und begleiten uns sicher noch durchs Jahr 2010, bei einigen Usern gar noch länger.
Was jetzt nur eine geringe Bedeutung hat, kann sich schlagartig ändern. Wer weiß schon, welche Titel es im nächstes Jahr in den Markt schaffen? Crysis war nur eines von vielen, plötzlich kam es und schon war die teure GraKa nur noch low performance. :)
So lang der Aufpreis nicht zu hoch ist, wird das eine Überlegung wert sein.

Schlammsau
2009-11-14, 15:57:28
Stimmt es eigentlich wirklich, dass auf der 5850 die gleichen bis 1250Mhz zertifizierten Speicherbausteine, wie auf der 5870 verbaut sind?

AnarchX
2009-11-14, 16:01:46
Stimmt es eigentlich wirklich, dass auf der 5850 die gleichen bis 1250Mhz zertifizierten Speicherbausteine, wie auf der 5870 verbaut sind?
Ja, alle HD 5000 verwenden momentan 0.4ns Speicher, da wohl nur dieser die neuen Stromsparmechanismen unterstützt.

Schlammsau
2009-11-14, 16:03:53
Ja, alle HD 5000 verwenden momentan 0.4ns Speicher, da wohl nur dieser die neuen Stromsparmechanismen unterstützt.
Wow...deswegen geht der Speicher bei mir auch ohne Probleme über 1200Mhz. :biggrin:
Ist das nicht teuer für ATi?

LovesuckZ
2009-11-14, 16:37:36
http://www.computerbase.de/artikel/software/2009/test_stalker_call_pripyat/3/

"Mit den beiden qualitätssteigernden Features können sich die Radeon-HD-5000-Produkte gar noch weiter von der Konkurrenz absetzen. Die Radeon HD 5850 rendert um 36 Prozent flotter als die GeForce GTX 285, die Radeon HD 5870 gar um 61 Prozent."...

"In 1920x1200 ermöglicht einzig die Radeon HD 5870 und zu einem Großteil noch die Radeon HD 5850 flüssige FPS-Werte, solange der DirectX-11-Modus angeschaltet ist. Die ältere Radeon-HD-4000- sowie die GeForce-GTX-200-Garde ist in dem Fall durchweg zu langsam, um auch nur annähernd an die 30-FPS-Grenze zu kommen."

Auch schön der Unterschied zwischen der 5850 und der 5870.

Enttäuschend sind die Werte mit D3D10. Da fragt man sich, wo die ganze Rechenleistung hingeht. Interessant ist dagegen, dass beim D3D11+Tessellation und AA+AF es zu einem anderen Engpass kommt als ohne AA+AF.

Gast
2009-11-14, 16:53:15
DirectX11 würd ich mir jetzt erstmal aus dem Kopf schlagen, selten wars der Fall, das die ersten Karten genug Power hatten um dauerhaft flüssige frameraten zu liefern (also bei kommenden Titeln).

Wenn ich mich da an DirectX10 zurückerinnere, war das kein Stück besser, 2900XT/3870 waren vielleicht ein Anfang, aber wirklich Spaß hats eigentlich erst mit der 4000er Serie gemacht, bei 3-4facher Rechenleistung. Was nützt mir die beste Bildqualität, wenn das Spielerlebniss nicht flüssig genug ist, ich finde allein eine veränderte Steuerung wegen niedriger frameraten schon nerviger als alles andere was mit Bildquali zu tun hat. :)
Mit 30-40fps mag ich eigentlich auch nicht leben, besser wärs, wenn 30-40fps nur im schwächsten Moment auftreten und ansonsten über 60 herrschen.

Schlammsau
2009-11-14, 16:56:08
DirectX11 würd ich mir jetzt erstmal aus dem Kopf schlagen, selten wars der Fall, das die ersten Karten genug Power hatten um dauerhaft flüssige frameraten zu liefern (also bei kommenden Titeln).


Ich denke, dass dieser Fehler mit DX11 nicht noch einmal gemacht wird.

Gast
2009-11-14, 17:02:14
Ich denke, dass dieser Fehler mit DX11 nicht noch einmal gemacht wird.

Wieso Fehler? Das liegt in der Natur der Sache. Wird auch diesmal der Fall sein, Tesselation kostet schon enorm Leistung und braucht meist schon 2 Karten...Stalker und Unigine zeigen das schon ganz gut.

][immy
2009-11-14, 17:10:31
DirectX11 würd ich mir jetzt erstmal aus dem Kopf schlagen, selten wars der Fall, das die ersten Karten genug Power hatten um dauerhaft flüssige frameraten zu liefern (also bei kommenden Titeln).

Wenn ich mich da an DirectX10 zurückerinnere, war das kein Stück besser, 2900XT/3870 waren vielleicht ein Anfang, aber wirklich Spaß hats eigentlich erst mit der 4000er Serie gemacht, bei 3-4facher Rechenleistung. Was nützt mir die beste Bildqualität, wenn das Spielerlebniss nicht flüssig genug ist, ich finde allein eine veränderte Steuerung wegen niedriger frameraten schon nerviger als alles andere was mit Bildquali zu tun hat. :)
Mit 30-40fps mag ich eigentlich auch nicht leben, besser wärs, wenn 30-40fps nur im schwächsten Moment auftreten und ansonsten über 60 herrschen.

das hatte aber andere gründe. damals war der chip auch seitens Ati langsamer als erwartet (nicht nur in DX10). aber das man mit den heutigen karten keine richtigen dx11 titel mehr spielen kann (in höchsten details) die in 2-3 Jahren erscheinen dürfte hier wohl jedem klar sein. es wäre ja schon schön wenn der markt endlich wirklich auf dx10 umsteigen würde, was aber natürlich nicht geht solange die verbreitung von windows xp noch so groß ist. zudem bremsen die konsolen immer auf directx9 runter, so das dx10/11 wohl auch in zukunft nur genutzt wird um einige dinge bei der portierung zu vereinfachen. PC exklusive titel gibt es schließlich immer weniger

ich warte derzeit eigentlich noch darauf das eine 2 GB variante verfügbar wird, denn selbst wenn ati mit dem speicher schonender umgeht als nvidia, könnte ich mir dennoch vorstellen, das ein größerer speicher bei den jetzigen karten noch einiges bewegen könnte (gerade was AA angeht)

Raff
2009-11-14, 17:14:30
Ich denke, dass dieser Fehler mit DX11 nicht noch einmal gemacht wird.

Dieser "Fehler" wird bei jedem neuen Feature gemacht. Siehe T&L, siehe SM3, siehe D3D10, siehe ...

MfG,
Raff

Nakai
2009-11-14, 17:26:01
Dieser "Fehler" wird bei jedem neuen Feature gemacht. Siehe T&L, siehe SM3, siehe D3D10, siehe ...

MfG,
Raff

Ich denke, das richtige DX11 sehen wir erst bei der nächsten Konsolengeneration. Jetzt muss man noch auf diese Bremsklötze Rücksicht nehmen...

mfg

frix
2009-11-14, 17:38:08
bis richtige dx11 titel kommen,
hat man doch eh schon wieder die nächste graka generation im
rechner.

lilgefo~
2009-11-14, 17:45:15
Dieser "Fehler" wird bei jedem neuen Feature gemacht. Siehe T&L, siehe SM3, siehe D3D10, siehe ...

MfG,
Raff

Gut, dass du SM 2.0 nicht gelistet hast. ;) Bei SM3 könnte man sich auch noch streiten.


bis richtige dx11 titel kommen,
hat man doch eh schon wieder die nächste graka generation im
rechner.

Was meinst du mit 'richtig'? Wieviele DX11 Features muss ein Spiel benutzen um ein 'richtiges' DX11 Spiel zu sein? Oder wovon hängt das ab. Bzw frage mal so was ist für dich der erste 'richtige' DX10 od. DX9 Titel?
Also was sind da die konkreten Merkmale eines 'richtigen' DXxyz Titels?

frix
2009-11-14, 17:49:45
mit richtig meinte ich. Ein spiel das zwingend dx11 benötigt.

reunion
2009-11-14, 17:58:12
mit richtig meinte ich. Ein spiel das zwingend dx11 benötigt.

Dieses Argument ist ohnehin nur vorgeschoben. Auch aktuelle Titel profitieren von DX11. "Richtige" DX11-Titel in >5 Jahren werden natürlich keine große Rücksicht mehr nehmen auf die erste DX11-Generation, das müssen sie auch nicht. Derweilen kann man sich als DX11-Kartenbesitzer auf die >20 Titel mit DX11 Unterstützung freuen welche aktuell in Entwicklung sind und dadurch in irgend einer Form einen Mehrwert bieten werden.

Gast
2009-11-14, 18:02:59
>20 Titel mit DX11 Unterstützung freuen welche aktuell in Entwicklung sind und dadurch in irgend einer Form einen Mehrwert bieten werden.

Ehe die meisten davon auf dem Markt sind, gibts schon die nächste Generation. Daher ist es unsinnig zu behaupten das DX11 jetzt schon wichtig wäre.

Raff
2009-11-14, 18:03:29
Dieses Argument ist ohnehin nur vorgeschoben. Auch aktuelle Titel profitieren von DX11. "Richtige" DX11-Titel in >5 Jahren werden natürlich keine große Rücksicht mehr nehmen auf die erste DX11-Generation, das müssen sie auch nicht. Derweilen kann man sich als DX11-Kartenbesitzer auf die >20 Titel mit DX11 Unterstützung freuen welche aktuell in Entwicklung sind und dadurch in irgend einer Form einen Mehrwert bieten werden.

Auf den DX11-Transistoren kannst du dir aktuell höchstens ein Eis backen. Mitte 2010 hast du dann etwa 10 Spiele, die irgendwie daraus Nutzen ziehen (nicht aus dem Eis). Bis dahin ist eine HD 5800 jedoch eine sauschnelle DX9/10-Karte, von daher ist's doch egal, ob DX11 schon fruchtet oder nicht. Ich würde jetzt auch eine Karte mit DX10 kaufen, wenn sie mir den Leistungsfaktor 2+ gegenüber einer HD 5870 böte.

MfG,
Raff

lilgefo~
2009-11-14, 18:04:57
mit richtig meinte ich. Ein spiel das zwingend dx11 benötigt.

Dann solltest du das auch so schreiben denn sonst ist es ziemlicher Blödsinn da Abwärtskompabilität bei SPielen immer gegeben sein muss sonst macht es wirtscahftlich 0 Sinn.


Daher ist es unsinnig zu behaupten das DX11 jetzt schon wichtig wäre.

Ob das wichtig ist oder nicht entscheidet aber jeder für sich selber..jemand der Battleforge in DX11 spielen will braucht eien dx11 Karte für den ist das wichtig. Abgesehen davon schrieb Reunion in dem Post auch nur, dass DX11-Karten in den kommenden DX11 Titeln einen Mehrwert bieten.

Gast
2009-11-14, 18:05:57
Ich würde jetzt auch eine Karte mit DX10 kaufen, wenn sie mir den Leistungsfaktor 2+ gegenüber einer HD 5870 böte.


Richtig, seh ich ganz genauso.

reunion
2009-11-14, 18:12:50
Auf den DX11-Transistoren kannst du dir aktuell höchstens ein Eis backen. Mitte 2010 hast du dann etwa 10 Spiele, die irgendwie daraus Nutzen ziehen (nicht aus dem Eis). Bis dahin ist eine HD 5800 jedoch eine sauschnelle DX9/10-Karte, von daher ist's doch egal, ob DX11 schon fruchtet oder nicht. Ich würde jetzt auch eine Karte mit DX10 kaufen, wenn sie mir den Leistungsfaktor 2+ gegenüber einer HD 5870 böte.

MfG,
Raff

Aktuell hast du mit Battleforg und Stalker zumindest schon mehr als ein Eis, bis zum Ende des Jahres sollen es 4-5 (Korrektur: mittlerweile nur noch 3) Spiele sein. Beide Spiele bieten mehr Leistung plus mehr Bildqualität (um keine Missverständnisse aufkommen zu lassen: nicht unbedingt beides kombiniert). Ich würde mir heute keine DX10-Karte mehr kaufen, wenn ich nicht ohnehin alle paar Monate meine Karte wechsle. Eine solche hypothetische Karte mit Leistungsfaktor 2+ gegenüber einer HD 5870 hätte dann über kurz oder lang das Problem genug Leistung zu haben aber trotzdem viele Features nicht darstellen zu können. Das wäre für mich kein tragbarer Kompromiss, gerade da ich meine Karte normalerweise so lange behalte bis sie zu langsam ist.

Gast
2009-11-14, 18:20:15
DirectX11 kann eh erst in Fahrt kommen, wenn genügend Karten im Umlauf sind. Ansonsten rentiert sich das auch aus Entwicklersicht nicht für einen kleinen Kundenkreis Zeit zu investieren. Nvidia ist in dieser Hinsicht also gar nicht so unwichtig, denn erst wenn alle großen Produkte im Markt haben, wird es zu einer breiteren Verfügbarkeit kommen können.
Das sowohl Vista als auch Win7 davon profitieren ist schonmal ein Fortschritt gegenüber der damaligen Situation, zumal Win7 auch zum genau passenden Zeitpunkt erschienen ist (jetzt sind die Verkaufszahlen noch am höchsten).

Mitte 2010 hast du dann etwa 10 Spiele, die irgendwie daraus Nutzen ziehen (nicht aus dem Eis).

Ich frage mich ob der Nutzen den Aufwand rechtfertigt. Wenn der "Nutzen" darin besteht, etwas bessere Bildquali zu haben, aber mit 20fps zocken zu müssen, dann ist der "Nutzen" eigentlich ein "Nachteil". Denn das frustet weitaus mehr als der andere crap drum herum. So eine Technologiedemo wie der 3DMark zeigt es jedes mal, die Grafik ist nett, aber so lang ruckelig, bringt uns das rein gar nichts.
Erstaunlicher finde ich da, das es immer mal wieder Entwicklungen gibt, die man kaum erwartet hätte. Ein Oblivion sah damals extrem gut aus für die Verhältnisse und selbst heute gefällt es mir noch, dennoch rannte es schon auf Karten die für jedermann erschwinglich waren. Dann gibts noch die andere Sorte der Hardwarekiller, die aber keinen langfristigen Spielspaß erzeugen.. irgendwas scheinen die meisten da falsch zu machen, ist ja schon krass gewesen, das die Welt bei Oblivion quasi frei begehbar gewesen ist.

Deinorius
2009-11-14, 20:03:05
Wow...deswegen geht der Speicher bei mir auch ohne Probleme über 1200Mhz. :biggrin:
Ist das nicht teuer für ATi?


Dürfte billiger kommen, als das SI zu vergrößern. Obwohl gerade die 5770 192 bit vertragen könnte. Die 5870 könnte mehr als 256 bit auch gebrauchen.

Aquaschaf
2009-11-14, 20:20:58
Die 5870 könnte mehr als 256 bit auch gebrauchen.

Wieso? Es gab doch bereits Versuche in der Richtung mit dem Resultat dass die Speicherbandbreite kein Flaschenhals ist bei der Karte.

Deinorius
2009-11-14, 21:58:36
Wo war das? Würde ich gern nachlesen.

Gast
2009-11-14, 21:59:27
Dürfte billiger kommen, als das SI zu vergrößern. Obwohl gerade die 5770 192 bit vertragen könnte. Die 5870 könnte mehr als 256 bit auch gebrauchen.

Die 5770 könnte das wirklich gebrauchen, als ich mir die Tests angesehen habe, fiel mir gleich auf, das die Leistung mit steigender Auflösung einbricht. Also gut ist die Karte nur für Leute, die wissen, das sie nicht mehr brauchen werden.
Reserven haben alle Karten noch. Also der Stromverbrauch ist deutlich gesunken.
Könnte mir vorstellen, das dann irgendwann eine Version mit mehr Streamprozessoren kommt und vielleicht ein leicht aufgebohrtes Interface zusammen mit höheren Taktraten und schon hat man wieder eine Karte, die deutlich schneller ist (und wo man vielleicht noch ne Dual Karte raus bauen könnte ;D).
Würd mich wundern, wenn ATi diese Chance nicht nutzen würde.

Deinorius
2009-11-14, 22:11:14
Klar, sie sind jetzt eh schnell genug. Und wenn nvidia nachzieht, was ja noch dauert, könnte ATI was Neues rausbringen. Bis jetzt limitiert ja nur TSMC.

Edit: Naja muss revidieren, ein noch größerer Chip zahlt sich für ATI nicht wirklich aus.

Ronny145
2009-11-14, 22:11:52
Die 5770 könnte das wirklich gebrauchen, als ich mir die Tests angesehen habe, fiel mir gleich auf, das die Leistung mit steigender Auflösung einbricht.


Also in den paar Spielen wo ich mal testweise Chip und Speicher übertaktet habe, hat die Chip Übtertakung mehr gebracht. Man könnte ja auf dem Papier meinen das zuerst die Bandbreite Schuld wäre. Hat das überhaupt jemand schon in größerem Umfang getestet?