PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4890: (P)Review-Thread


Seiten : [1] 2 3 4 5

mapel110
2009-03-25, 20:02:53
http://img517.imageshack.us/img517/6523/maxboardpower3092521.jpg (http://img517.imageshack.us/my.php?image=maxboardpower3092521.jpg)

http://blog.pconline.com.cn/article/239516.html
Geht schon bissl arg früh los, aber nun ja...

Test zur HD4890 + Crossfire und GTX275 - http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/

Test bei PCGH - http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/

Test bei HT4u: http://ht4u.net/reviews/2009/amd_radeon_hd_4890/

Mainstream GPU Shootout: GeForce GTX 275 vs Radeon 4890: http://www.firingsquad.com/hardware/ati_radeon_4890_nvidia_geforce_gtx_275/

Sapphire Radeon HD 4890 XT and XFX Radeon HD 4890 OC vs NVIDIA GeForce GTX 275: http://www.hexus.net/content/item.php?item=17863


http://img9.imageshack.us/img9/9140/4890power2608382.png (http://img9.imageshack.us/my.php?image=4890power2608382.png)
http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0
Messung bei HT4u: http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index11.php
PCGH: 4890 60W Idle, 4870 55W (http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3)

dildo4u
2009-03-25, 20:09:25
Der Idle Verbrauch. :rolleyes: Fix kommt sicherlich mit nem Treiber. ;D :(

Spasstiger
2009-03-25, 20:10:25
Computerbase ist leicht angepisst, weil sie sich selbst an das NDA halten müssen:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/maerz/erster_test_radeon_hd_4890/

An dieser Stelle erscheint es uns leider einmal mehr fraglich, warum es ein NDA seitens eines Herstellers gibt, wenn die Karten anscheinend schon vor dessen Ablauf großflächig verfügbar werden. Jeder Käufer dürfte demnach einen Artikel schreiben, nur die Seiten, die ein NDA unterschrieben haben, müssen sich an die Schweigepflicht halten.

Tjo, vielleicht sollte Computerbase in Zukunft auf NDAs verzichten und einfach Retail-Karten kaufen. ;)

reunion
2009-03-25, 20:20:34
Der Idle Verbrauch. :rolleyes: Fix kommt sicherlich mit nem Treiber. ;D :(

Was ist mit dem idle Verbrauch? Der Verbrauch generell ist trotz der höheren Spannung/Taktrate kaum gestiegen, das dürfte deutlich niedrigere Werte für RV790 basierende 4870/4850-Karten bedeuten.

AnarchX
2009-03-25, 20:23:01
das dürfte deutlich niedrigere Werte für RV790 basierende 4870/4850-Karten bedeuten.
Sofern es so etwas überhaupt geben wird, für eine <150€ GraKa könnte der RV790 mit seinen getrennten Spannungsversorgungen wohl etwas teuer sein, sodass die Partner hier eher der den RV770 weiter verbauen wollen.

reunion
2009-03-25, 20:23:26
Alles was man sonst noch wissen sollte:

http://www.abload.de/img/4890gr00.jpg

http://www.awardfabrik.de/forum/showpost.php?p=261973&postcount=707

Launch ist am 2. April wenn sich nichts mehr ändert, Die-Size wohl minimal gestiegen, Transistorenanzahl unverändert.

dildo4u
2009-03-25, 20:23:29
Was ist mit dem idle Verbrauch?
Es gibt wieder kein richtigen 2D Modus ist das so schwer das ins Bios/Treiber zu packen?Wenn man das sogar mit Tools per Hand hinbekommt die Spannung und den Takt zu senken?

reunion
2009-03-25, 20:25:08
Sofern es so etwas überhaupt geben wird, für eine <150€ GraKa könnte der RV790 mit seinen getrennten Spannungsversorgungen wohl etwas teuer sein, sodass die Partner hier eher der den RV770 weiter verbauen wollen.

Man wird sicher nicht RV770 und RV790 parallel produzieren und hier für zwei praktisch identische Chips zwei Produktionsstraßen bezahlen. Die getrennte Spannungsversorgung ist eine reine 4890 Geschichte und muss noch lange nicht auch bei den 4870/4850-Karten übernommen werden.

derguru
2009-03-25, 20:27:44
Es gibt wieder kein richtigen 2D Modus ist das so schwer das ins Bios/Treiber zu packen?Wenn man das sogar mit Tools per Hand hinbekommt die Spannung und den Takt zu senken?

das flackern für 1 sek. ist anscheinend nicht zumutbar beim wechsel.:biggrin:

Jake Dunn
2009-03-25, 20:27:55
Computerbase ist leicht angepisst, weil sie sich selbst an das NDA halten müssen:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/maerz/erster_test_radeon_hd_4890/



Die sollen die Zeit nutzen und die Vergleichskarten von NV und ATI mit Aktuellen Treibern durchbenchen ;D

AnarchX
2009-03-25, 20:28:43
Sapphire wohl auch mit einer VaporX Version:
http://i43.tinypic.com/5aexxi.jpg
http://www.xtremesystems.org/forums/showpost.php?p=3740912&postcount=754

Sieht ganz so aus, als wolle man seine Stimmung über den RV790 mit der Verpackung ausdrücken.:D

Spasstiger
2009-03-25, 20:28:55
Die sollen die Zeit nutzen und die Vergleichskarten von NV und ATI mit Aktuellen Treibern durchbenchen ;D
Naja, für die HD 4870 werden sie den neuesten Treiber - den Cat. 9.3 - verwenden. Der Beta-Treiber geht ausschließlich mit der HD 4890.

reunion
2009-03-25, 20:31:02
Es gibt wieder kein richtigen 2D Modus ist das so schwer das ins Bios/Treiber zu packen?Wenn man das sogar mit Tools per Hand hinbekommt die Spannung und den Takt zu senken?

Es ist ein richtiger, in Hardware gegossener "2D-Modus", kein "falscher" wie bei NV. Es ist ein lastbasierender Stromsparmodus der unabhängig vom Treiber wirklich nur dann stufenweise hoch taktet wenn die Karte die zusätzliche Leistung auch braucht. Nicht einer der schon bei manchen Winamp-Skins, dem Mediaplayer, in Spielemenüs, in Spielen bei CPU-Limitierung, bei ungünstigen Bannern im Internet, etc. hochtaktet und die Spannung erhöhen oder bei manchen Treibern gar nicht funktioniert. Wer weniger Verbrauch will kann ja problemlos selbst Hand anlegen, AMD wird schon seine Gründe haben nicht weiter herunter zu gehen (falls sich die Werte bestätigen).

y33H@
2009-03-25, 22:19:10
kein "falscher" wie bei NVWas ist daran "falsch"? Eine GTX200 senkt in 2D von alleine die Spannung und alle Clocks.der unabhängig vom TreiberNope, ohne Treiber ist der Verbrauch einer HD4870 höher als mit Treiber.in Spielen bei CPU-LimitierungTolles Bsp. ... das ist trotzdem ne 3D-App ...AMD wird schon seine Gründe haben nicht weiter herunter zu gehen Der MC des GDDR5 ist wohl das Problem, der kratzt früher oder später ab.

Gast
2009-03-25, 22:34:17
Es ist ein richtiger, in Hardware gegossener "2D-Modus", kein "falscher" wie bei NV. Es ist ein lastbasierender Stromsparmodus der unabhängig vom Treiber wirklich nur dann stufenweise hoch taktet wenn die Karte die zusätzliche Leistung auch braucht. Nicht einer der schon bei manchen Winamp-Skins, dem Mediaplayer, in Spielemenüs, in Spielen bei CPU-Limitierung, bei ungünstigen Bannern im Internet, etc. hochtaktet und die Spannung erhöhen oder bei manchen Treibern gar nicht funktioniert. Wer weniger Verbrauch will kann ja problemlos selbst Hand anlegen, AMD wird schon seine Gründe haben nicht weiter herunter zu gehen (falls sich die Werte bestätigen).
LOL - schonmal ins BIOS der HD 4870 geschaut? Was sind da wohl die Boot-Up-Clocks, die sich erst ändern wenn der Treiber geladen ist? Und stufenweise ist da gar nichts. An und Aus sind die beiden Zustände, für den GDDR5-RAM gibts bei der Single-HD 4870 gar keine Stufe nur Volldampf.

Sorry, aber so gut der HD 4870 ist, so lächerlich sind manche Versuche hier Dinge schönzureden, die noch verbesserungswürdig sind.

LovesuckZ
2009-03-25, 22:52:42
Es ist ein richtiger, in Hardware gegossener "2D-Modus", kein "falscher" wie bei NV. Es ist ein lastbasierender Stromsparmodus der unabhängig vom Treiber wirklich nur dann stufenweise hoch taktet wenn die Karte die zusätzliche Leistung auch braucht. Nicht einer der schon bei manchen Winamp-Skins, dem Mediaplayer, in Spielemenüs, in Spielen bei CPU-Limitierung, bei ungünstigen Bannern im Internet, etc. hochtaktet und die Spannung erhöhen oder bei manchen Treibern gar nicht funktioniert. Wer weniger Verbrauch will kann ja problemlos selbst Hand anlegen, AMD wird schon seine Gründe haben nicht weiter herunter zu gehen (falls sich die Werte bestätigen).

Das ist das geilste Posting, was ich hier wirklich seit langem gelesen habe: Du kritisierst wirklich nVidia's "Fake 2D Modus", der Nachweißlich eine eindeutige Verringerung bringt und stellst ihn als deutlich schlechter dar als AMD's "richtigen 2D Modus" der nichtmal annährend an den "Fake 2D Modus von nVidia und der vorigen Generation" heranreicht.
Prächtig, wirklich prächtig.
Aber wir wollen ja nicht so sein: Immerhin verbraucht die nVidiakarte ohne "fake 2D Modus" ja genauso viel wie die Konkurrenz mit "richtigem 2D Modus". Das muss man AMD lassen: Sie wissen, wie man "green" definiert. ;D

Gast
2009-03-25, 22:58:38
Der Idle Verbrauch. :rolleyes: Fix kommt sicherlich mit nem Treiber. ;D :(
Immerhin brauchen die 4870 Käufer vom Mai 2008 nicht enttäuscht sein, das versprochene Powerplay kann weiterhin mit jedem Catalyst auf wundersame Weise auftauchen.

BlackBirdSR
2009-03-25, 23:07:57
Immerhin brauchen die 4870 Käufer vom Mai 2008 nicht enttäuscht sein, das versprochene Powerplay kann weiterhin mit jedem Catalyst auf wundersame Weise auftauchen.

Das ist halt nunmal eine Sache des Designs und der Fertigungsparameter. Der Treiber kann sowas nur unterbinden, aktiviert lassen, Taktraten/Spannung senken und ggf. die Leistung begrenzen. Der effizienteste 2D-Modus ist ein effizientes Abschalten aller unnötigen Bereiche des Chips, alles andere sind Notfallpläne und Kundenfang.

Wenn es allerdings grundlegende Probleme (Leckströme, Signalprobleme etc.) gibt, dann hilft kein Wundertreiber der Welt. Ich glaube also nicht daran, dass der noch kommen wird.

Gast
2009-03-25, 23:14:21
Tjo, vielleicht sollte Computerbase in Zukunft auf NDAs verzichten und einfach Retail-Karten kaufen. ;)Dann müsste man Reviews aber selbst verfassen und könnte sich nicht mehr an die Empfehlungen und Vorlagen der IHVs halten. *scnr*

LovesuckZ
2009-03-25, 23:21:12
Der effizienteste 2D-Modus ist ein effizientes Abschalten aller unnötigen Bereiche des Chips, alles andere sind Notfallpläne und Kundenfang.


Der effiziensteste Weg war Hybrid-Power - das komplette Abschalten der diskreten Karte. Denn was nicht aktiv ist, kann auch keine Probleme mit einem "richtigen" bzw. "falschen 2D Modus" haben.

BlackBirdSR
2009-03-25, 23:26:07
Der effiziensteste Weg war Hybrid-Power - das komplette Abschalten der diskreten Karte. Denn was nicht aktiv ist, kann auch keine Probleme mit einem "richtigen" bzw. "falschen 2D Modus" haben.

Wird in ein paar Jahren sowieso Standard und auf allen Systemen möglich sein. Der CPU sei Dank.

Warum ist AMD eigentlich nicht in der Lage, den Verkauf der Karten zu kontrollieren?

grobi
2009-03-25, 23:36:01
Laut dem verlinkten Screenshot ist die Chipgröße angewachsen. Wurde die Packdichte veringert um die Leckströme zu minimieren? Weiss da jemand mehr?

mfg grobi

dargo
2009-03-25, 23:48:56
Wird in ein paar Jahren sowieso Standard und auf allen Systemen möglich sein. Der CPU sei Dank.

Meinst du durch Integration einer "kleinen" GPU in die CPU? Das würde ich sehr begrüßen. :)

Coda
2009-03-26, 00:07:40
Warum ist AMD eigentlich nicht in der Lage, den Verkauf der Karten zu kontrollieren?
Bei AMD ist seit einer Weile die Devise: Alles möglichst schnell auf den Markt bringen, damit Kohle fließt. Ich denke das ist das Problem.

ROXY
2009-03-26, 05:12:12
im 2D betreib will ich volle power ;D

http://img242.imageshack.us/img242/2893/humorkb5oc6.jpg

Mr.Magic
2009-03-26, 06:41:01
im 2D betreib will ich volle power ;D

http://img242.imageshack.us/img242/2893/humorkb5oc6.jpg

Witziges Bild.
Die Karte ist länger als der Karton. Wird die gefaltet angeliefert? ;D

reunion
2009-03-26, 07:55:03
Was ist daran "falsch"? Eine GTX200 senkt in 2D von alleine die Spannung und alle Clocks.


Ja, solange nicht einer der von mir beschriebenen Szenarien eintritt.


Nope, ohne Treiber ist der Verbrauch einer HD4870 höher als mit Treiber.

Okay, vielleicht braucht es den Treiber doch noch um in irgend einer Form Feedback zu geben. Tatsache ist es funktioniert mit jedem Treiber, während man sich bei NV immer wieder anhören muss das dieser und jener Treiber nicht heruntertaktet.

Und stufenweise ist da gar nichts. An und Aus sind die beiden Zustände, für den GDDR5-RAM gibts bei der Single-HD 4870 gar keine Stufe nur Volldampf.

Laut AMD sitzt ein Microcontroller im Chip der ständig je nach Auslastung der einzelnen Chipteile diese mittels clock gatering, Takt-/Spannungsabsenkung in ihrer Leistungsaufnahme optimiert. Wäre mal interessant die Leistungsaufnahme bei mittlerer Belastung zu vergleichen.

Das ist das geilste Posting, was ich hier wirklich seit langem gelesen habe: Du kritisierst wirklich nVidia's "Fake 2D Modus", der Nachweißlich eine eindeutige Verringerung bringt und stellst ihn als deutlich schlechter dar als AMD's "richtigen 2D Modus" der nichtmal annährend an den "Fake 2D Modus von nVidia und der vorigen Generation" heranreicht.
Prächtig, wirklich prächtig.


Summa summarum gehe ich jeder Wette ein das ich mit einer vergleichbaren NV-Karte auch nicht sparsamer bin, da die Karte sich wegen jedem Dreck hochtaktet, während es bei AMD wirklich nicht dann der Fall ist wenn die Leistung auch gebraucht wird. Und händisch die Taktraten zu senken und so die Leistungsaufnahme bei AMD nochmal erheblich zu verringern ist das wenigste. Aber die Diskussion hat mit dir ohnehin keinen Sinn. Das war einen reine Reaktion meiner Seits auf Dildos Kritik am fehlenden "richtigen 2D Modus".

MartinRiggs
2009-03-26, 08:06:10
Finde es immer wieder lustig das sich die Fraktionen an die Hälse gehen, die Lösungen sind sowohl bei NV wie auch bei AMD absolut scheisse.
Bei AMD ist die Karte im idle schön leise wird aber sauheiss dadurch das sie nicht weit genug heruntertaktet -> Müll
Bei Nvidia ist es vom Treiberglück abhängig ob die Karte mal hier mal dort einfach so hochtaktet, dazu ist der 2D-Lüfterspeed ne Frechheit und absolut nichts für nen Silent-PC -> auch Müll

Also hat man wie immer die Wahl zwischen Pest und Cholera und ja ich weiss das man beide "Probleme" mit Rivatuner und Co in den Griff bekommt, aber auf sowas hab ich ehrlich gesagt gar keinen Bock und finde es Kundenverarsche.

Die HD4890 ist nur ein absoluter lauer Aufguss den kaum einer braucht und die GTX275 wird nichts anderes sein:frown:

reunion
2009-03-26, 08:12:57
Warum ist AMD eigentlich nicht in der Lage, den Verkauf der Karten zu kontrollieren?

Es wird kontrolliert, sonst wären die Karten schon bei allen möglichen Händler lieferbar oder zumindest gelistet, und nicht nur bei ein paar weltweit, welche sich offensichtlich nicht an das NDA halten. Aber das da die Versuchung von Seiten der Händler groß ist doch einige Karten in den Handel zu bringen und sich so ein goldenes Näschen zu verdienen sollte auch klar sein. Das die Händler selbst oder Leute mit Beziehungen dorthin natürlich schon Zugriff darauf haben liegt auch auf der Hand. Die Frage sollte eher sein warum der Launch so spät ist wenn die Karten offensichtlich schon überall auf Halde liegen.

robbitop@work
2009-03-26, 08:22:11
Wird in ein paar Jahren sowieso Standard und auf allen Systemen möglich sein. Der CPU sei Dank.

Warum ist AMD eigentlich nicht in der Lage, den Verkauf der Karten zu kontrollieren?
Vermutlich wird es das nicht. M$ hat da den IHVs von der OS Seite her genügend Steine in den Weg gelegt, dass beide diese Projekte sterben lassen. Eigentlich schade, wenn man bedenkt, welches Potenzial dahinter steckt.

LovesuckZ
2009-03-26, 08:38:41
Summa summarum gehe ich jeder Wette ein das ich mit einer vergleichbaren NV-Karte auch nicht sparsamer bin, da die Karte sich wegen jedem Dreck hochtaktet, während es bei AMD wirklich nicht dann der Fall ist wenn die Leistung auch gebraucht wird.

Stimmt, die Leistung von mindesten 70 Watt werden immer und überall benötigt. Sei es beim Popeln während dem Idlen, beim Pokern oder beim Spielen.


Und händisch die Taktraten zu senken und so die Leistungsaufnahme bei AMD nochmal erheblich zu verringern ist das wenigste. Aber die Diskussion hat mit dir ohnehin keinen Sinn. Das war einen reine Reaktion meiner Seits auf Dildos Kritik am fehlenden "richtigen 2D Modus".

Genau, man unterstützt den "richtigem 2D Modus" mit einem "fake 2D Modus", der du so gerne kritisierst. Hat du eigentlich noch mehr Unsinn auf Lager, um das das Verschwenden von Strom beim nichtstun zu rechtfertigen? :rolleyes:

Schlammsau
2009-03-26, 12:12:17
Also wenn sich die RV790 so gut übertakten lassen.....1000/1150Mhz sind beeindruckende Werte, warum haben sie dann nicht gleich die Karte mit Taktraten von 900/1050Mhz releast? Das wäre meiner Meinung nach, eine "echte" 4890 und die könnte der GTX280 evtl auch GTX285 paroli bieten.

Aber nein, nur 100Mhz mehr GPU-Takt und 75Mhz mehr Speicher-Takt und die Option auf OC Versionen....ich weiss nicht, dass gefällt mir nicht so.

y33H@
2009-03-26, 12:38:20
Tatsache ist es funktioniert mit jedem Treiber, während man sich bei NV immer wieder anhören muss das dieser und jener Treiber nicht heruntertaktet.Ist mir noch nie untergekommen :confused: Genauso wie das angebliche 2D-Fiepen der 55nm-GTX200er. Und ich hab massig Karten, Treiber und OSe in der Hand/im Rechner. Vieles sind Halbwahrheiten die krankhaft gepusht werden (u.a. von Fanboys).

Armaq
2009-03-26, 13:28:50
Beide Lösungen sind nicht ausgereift. Der 2D-Modus hat Schwächen. Wenn ihr euch aufregt, dann kollektiv. :)

@ y33h@ - viele dieser angeblichen Bugs kann ich auch nie nachvollziehen.

robbitop@work
2009-03-26, 13:29:41
Also wenn sich die RV790 so gut übertakten lassen.....1000/1150Mhz sind beeindruckende Werte, warum haben sie dann nicht gleich die Karte mit Taktraten von 900/1050Mhz releast? Das wäre meiner Meinung nach, eine "echte" 4890 und die könnte der GTX280 evtl auch GTX285 paroli bieten.

Aber nein, nur 100Mhz mehr GPU-Takt und 75Mhz mehr Speicher-Takt und die Option auf OC Versionen....ich weiss nicht, dass gefällt mir nicht so.
Das ist eine Frage der Yields und der TDP. Man müsste mehr in Stromversorgung, PCB und Kühlung stecken. Ab einem bestimmten Punkt wird der Aufwand dafür einfach zu groß, wenn man den gewonnenen Nutzen gegenüberstellt.

Ich weiß jetzt auch nicht, was an 17 - 18 % OC so beeindruckend sein soll. Der Chip läuft im Gegensatz zu RV770 halt nicht am Limit. Alle anderen GPUs ließen sich immer um 15-20 % minimum übertakten.

Ph0b0ss
2009-03-26, 13:41:39
Also wenn sich die RV790 so gut übertakten lassen.....1000/1150Mhz sind beeindruckende Werte, warum haben sie dann nicht gleich die Karte mit Taktraten von 900/1050Mhz releast? Das wäre meiner Meinung nach, eine "echte" 4890 und die könnte der GTX280 evtl auch GTX285 paroli bieten.

Aber nein, nur 100Mhz mehr GPU-Takt und 75Mhz mehr Speicher-Takt und die Option auf OC Versionen....ich weiss nicht, dass gefällt mir nicht so.

Warscheinlich werden wohl einige Chips unter schlechten Bedingungen nur ~900-950Mhz stabil mitmachen. Da wäre 900Mhz Standardtakt einfach zu wenig Sicherheitsreserve! Beim Speicher hätte es ruhig etwas mehr sein können, so 1050-1100Mhz. Aber das hätte wohl wieder teureren Speicher bedeutet.

GeneralHanno
2009-03-26, 15:28:23
zwischenfrage: was hat es mit der "gesplitteten" stomversorgung auf sich?

y33H@
2009-03-26, 15:58:27
Drei Phasen GPU allgemein, die vierte angeblich explizit für den GDDR5-MC im RV790.

Spasstiger
2009-03-26, 16:07:20
zwischenfrage: was hat es mit der "gesplitteten" stomversorgung auf sich?
Der Speichercontroller kann offenbar mit einer anderen Spannung versorgt werden als das restliche Die. Somit klappt das dynamische Untertakten und Senken der Spannung wohl besser. Vermutlich konnte man bislang die Core-Spannung nicht allzusehr senken, weil sonst der deutlich höher taktende Speichercontroller ausgestiegen wäre.

reunion
2009-03-26, 16:09:26
Radeon HD 4890 is more power efficient: Better idle numbers
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12832&Itemid=1

y33H@
2009-03-26, 16:28:20
Fud erzählt viel wenn das Gras nicht ausgeht ;)

Tzunamik
2009-03-26, 16:42:21
Naja, Powercolor hat es doch bei der HD4850Play! sehr gut hinbekommen.....

1,05V @ Idle und 160/250.....

Unter Load bzw. 3D taktet meine nach eigenem Eingriff mit 700/1020@ 1,12Vgpu...
Standard waren 635/993...
Lüfter unter Idle fast unhörbar, unter Load bzw. 3D würde man es hören wenn man die Boxen ausstellt :)

Ich bin sehr zufrieden mit der Karte.

Daher frage ich mich echt, wieso es mit den HD4870 oder HD4890 net klappt.

BlackBirdSR
2009-03-26, 20:32:15
Vermutlich wird es das nicht. M$ hat da den IHVs von der OS Seite her genügend Steine in den Weg gelegt, dass beide diese Projekte sterben lassen. Eigentlich schade, wenn man bedenkt, welches Potenzial dahinter steckt.

OT: aber wenn erstmal jede CPU einen Grafikkern auf dem PCB hat, ist das doch kein Problem mehr.

(del)
2009-03-26, 23:38:29
Naja, Powercolor hat es doch bei der HD4850Play! sehr gut hinbekommen.....

1,05V @ Idle und 160/250.....

Unter Load bzw. 3D taktet meine nach eigenem Eingriff mit 700/1020@ 1,12Vgpu...
Standard waren 635/993...
Lüfter unter Idle fast unhörbar, unter Load bzw. 3D würde man es hören wenn man die Boxen ausstellt :)

Ich bin sehr zufrieden mit der Karte.

Daher frage ich mich echt, wieso es mit den HD4870 oder HD4890 net klappt.
Ich glaube das häng mit dem GDDR5 Speicher zusammen, selbst bei der neuen 4890 taktet nur die GPU herunter.

robbitop
2009-03-26, 23:44:24
OT: aber wenn erstmal jede CPU einen Grafikkern auf dem PCB hat, ist das doch kein Problem mehr.
Das ändert nichts. Das ist eine Treibergeschichte. Ob die sparsame GPU nun im gleichen Silizium steckt, wie die CPU, auf dem gleichen Package oder sonstwo macht auf logischer Ebene keinen Unterschied. MS gibt solche Geschichten nicht frei. Aus dem Grund haben beide IHVs die Projekte in dem Bereich offenbar eingestellt.

AnarchX
2009-03-27, 09:24:58
RV790 und alle anderen RV7x0-GPUs bis auf RV770 unterstützen laut R700-ISA-Guide "Burst Memory Reads" (7.3) (http://developer.amd.com/gpu_assets/R700-Family_Instruction_Set_Architecture.pdf).
Also doch ein paar funktionelle Änderungen, bleibt die Frage inwiefern relevant für Spiele.

N0Thing
2009-03-27, 11:28:40
Die Frage sollte eher sein warum der Launch so spät ist wenn die Karten offensichtlich schon überall auf Halde liegen.

Vielleicht ist der finale Treiber noch nicht fertig, oder ATI wartet noch auf die WHQL Freigabe, damit man den Käufern keinen Betatreiber anbieten muß.

reunion
2009-03-27, 13:26:16
Hier gibt es eine Sapphire 4890 sofort lieferbar: [http://www.csv-direct.de/artinfo.php?artnr=A0620283

Gast
2009-03-30, 14:52:54
http://www.matbe.com/actualites/63381/amd-ati-radeon-hd-4890/

Dre Lüfter läuft mit 5000rpm unter Last, scheint ein ziemlicher Hitzkopf zu werden.
Verbrauch im Idle leicht besser, unter Lst ca 16w mehr im Vergleich zur 70er.

reunion
2009-03-30, 14:59:15
5000rpm nur mit ihrer "spezielle Software", sonst um die 3000rpm wenn ich das richtig sehe. Aber der Link wäre wohl besser im Review-Thread aufgehoben. Immerhin 12W weniger unter idle trotz vollen Speichertakt.

deekey777
2009-03-30, 16:46:30
http://www.matbe.com/actualites/63411/powercolor-ati-radeon-hd4890/
Alternative Kühllösung

reunion
2009-03-30, 17:13:29
Catalyst 9.5 mit neuen RV790?
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/360-catalyst-95-mit-neuen-rv790

Spasstiger
2009-03-30, 17:30:36
Catalyst 9.5 mit neuen RV790?
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/360-catalyst-95-mit-neuen-rv790
Die Vermutungen Mobility Radeon oder HD 4890 X2 halte ich aber für abwegig.
Eine HD 4890 X2 sei sowieso nicht geplant (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12874&Itemid=1) und im mobilen Bereich ist man mit dem RV740 ja schon super aufgestellt. Einen Energiefresser wie den RV790 will sicher keiner im Notebook.

Ich denke eher, dass AMD einige Desktop-HD-48xx-Karten einstellen und das Performance-Segment mit RV740- und RV790-Varianten auffüllen wird. Vielleicht kommt ja noch eine günstige Radeon HD 4860 auf RV790-Basis mit GDDR3-Speicher.

Vielleicht sieht das Portfolio bis zum Q3 so aus:
Radeon HD 4750
Radeon HD 4770
Radeon HD 4860
Radeon HD 4890
Radeon HD 4870 X2
Die HD 4830, die HD 4850 und die HD 4870 würden dann rausfallen.

reunion
2009-03-30, 17:44:06
Ich stelle mir ohnehin die Frage wie gesichert das HD47XX für den RV740 ist nachdem die Notebookchips HD48XX genannt wurden. Könnte mir durchaus vorstellen das die Desktopableger auch in die HD48XX-Serie eingegliedert werden. Beim zusätzlichen RV790 gibt es natürlich sehr viele Möglichkeiten, am wahrscheinlichsten ist IMO einfach eine 4870 auf RV790-Basis nachdem RV770 wohl auslaufen wird.

Spasstiger
2009-03-30, 17:46:05
Beim zusätzlichen RV790 gibt es natürlich sehr viele Möglichkeiten, am wahrscheinlichsten ist IMO einfach eine 4870 auf RV790-Basis nachdem RV770 wohl auslaufen wird.
Das könnte natürlich auch sein. AMD ersetzt einfach stillschweigend alle RV770 durch RV790. Die HD 4870 X2 hat dann vielleicht auch den RV790 drauf. Und dass die HD 4830 ausläuft, halte ich für so sicher wie das Amen in der Kirche.

Gast
2009-03-30, 19:59:17
Ich glaube nicht, daß RV770 auslaufen wird, weil der RV790 zu teuer (neues PCB) für die 4850 und 4870 ist.

sklave_gottes
2009-03-30, 20:27:33
Ich glaube nicht, daß RV770 auslaufen wird, weil der RV790 zu teuer (neues PCB) für die 4850 und 4870 ist.

Durch den RV740(?HD4840?) wird meiner meinung 4830 sowie auch 4850 überflüssig. Denn ein RV740 mit 750mhz gpu und 800mhz GDDR5 ram ist vom Speed her fast auf HD4850 nivau. Da bleibt kein Platz mehr zum überleben.
Die HD4870 wird vieleicht durch einen RV790@725mhz und GDDR3(1000mhz) ersetzt.(?HD4860?)

Meiner meinung nach, wird RV770 kommplet auslaufen. Sollange restbestückung für die X² Karten.

Sorkalm
2009-03-30, 20:34:46
Wenn man noch ein Zwischenprodukt schaffen will, sollte man wohl rund RV770XT-GPU-Takt und schnelleren GDDR3-Speicher (1100 MHz+) nehmen, das kann man dann 4860 labeln - dann hätte man aber auch RV740XT als HD 4840 bezeichnen können, da glaub ich also nicht dran. ;)

sklave_gottes
2009-03-30, 20:51:27
Wenn man noch ein Zwischenprodukt schaffen will, sollte man wohl rund RV770XT-GPU-Takt und schnelleren GDDR3-Speicher (1100 MHz+) nehmen, das kann man dann 4860 labeln - dann hätte man aber auch RV740XT als HD 4840 bezeichnen können, da glaub ich also nicht dran. ;)

Es steht doch noch garnicht fest wie RV740XT genannt wird. Der Chip wird laut letzten news auch erst im Mai kommen. Ist also noch genug Zeit. Und ob GDDR3 Speicher@1100mhz soviel günstiger ist wie der langsammste GDDR5, bin ich mir auch nicht sicher. Gerade bei den grossen modulen für 1GB Karten. Ausserdem darf die Karte auch bissel langsamer sein als HD4870, wenn sie HD4860 heist.

mfg martin

Sorkalm
2009-03-30, 21:23:26
Es steht doch noch garnicht fest wie RV740XT genannt wird.

Klar, Namen sind Schall und Rauch, aber AMD hat schon ganz schön viele Infos über eine 4700er-Serie versendet. ;)

mFuSE
2009-03-31, 13:27:29
Okay, vielleicht braucht es den Treiber doch noch um in irgend einer Form Feedback zu geben. Tatsache ist es funktioniert mit jedem Treiber, während man sich bei NV immer wieder anhören muss das dieser und jener Treiber nicht heruntertaktet.

Ach ... tatsächlich?
Dann zeig mir mal bitte eine HD4870 bei der das klappt?

drollig .. wirklich drollig :p


Ansonsten ... unverständlich warum ATI zumindest bei der HD4890 nicht die Zeit genutzt hat um einen brauchbaren 2D Modus hinzukriegen (Ob dieser Hardware oder Software ist, ist mir sowas von egal - solange dieser funktioniert und unter Win und Linux zur Verfügung steht).
Das sowas nicht per Treiber nachgeliefert wird ist dagegen verständlich, macht nVidia bei ihren alten Modellen ja auch nicht.


Naja ... das es irgendwie gehen kann, zeigt mir meine HD3650 die im 2D wunderbar sparsam ist und trotzdem ausreichend für das ein oder andere Spielchen ist ...

reunion
2009-03-31, 13:36:42
Ach ... tatsächlich?
Dann zeig mir mal bitte eine HD4870 bei der das klappt?

drollig .. wirklich drollig :p


Bei jeder. Oder kennst du eine 4870 welche nicht heruntertaktet? Dein drollig kannst du dir sparen wenn du keine Ahnung hast.


Ansonsten ... unverständlich warum ATI zumindest bei der HD4890 nicht die Zeit genutzt hat um einen brauchbaren 2D Modus hinzukriegen (Ob dieser Hardware oder Software ist, ist mir sowas von egal - solange dieser funktioniert und unter Win und Linux zur Verfügung steht).
Das sowas nicht per Treiber nachgeliefert wird ist dagegen verständlich, macht nVidia bei ihren alten Modellen ja auch nicht.


Die 4890 wird weniger idle-Verbrauch wie die 4870 haben.

Undertaker
2009-03-31, 13:45:46
Welcher sinnfreier Streit... Was ist am Heruntertakten so toll, wenn die Karte dennoch einen enormen Verbrauch weit über dem Niveau der Konkurrenz hat? Ohne Rivatuner o.ä. ist eine HD4870 imho unbenutzbar. Nach einer großen Verbesserung sieht es bei der HD4890 leider auch nicht aus. Auf jeden Fall ein dicker Minuspunkt.

reunion
2009-03-31, 13:49:01
Welcher sinnfreier Streit... Was ist am Heruntertakten so toll, wenn die Karte dennoch einen enormen Verbrauch weit über dem Niveau der Konkurrenz hat?


Es funktioniert Lastbasierend und taktet sich damit nur bei Bedarf hoch. Der Modus der Konkurrenz taktet sich öfters mal hoch wenn man das nicht will. Auch das sollte man beachten.


Ohne Rivatuner o.ä. ist eine HD4870 imho unbenutzbar. Nach einer großen Verbesserung sieht es bei der HD4890 leider auch nicht aus. Auf jeden Fall ein dicker Minuspunkt.

Heruntertakten mittels Rivatuner od. dgl. sollte das wenigste sein.

Undertaker
2009-03-31, 13:54:20
Es funktioniert Lastbasierend und taktet sich nur bei Bedarf hoch. Der Modus der Konkurrenz taktet sich öfters mal hoch wenn man das nicht will.

Heruntertakten mittels Rivertuner od. dgl. sollte das wenigste sein.

Da muss ich dich enttäuschen. Da Rivatuner auf Grund der Verbrauchsproblematik Pflicht ist, steht man dort vor genau dem gleichen Problem: Mit welchem Parameter soll man die automatische Umschaltung vornehmen lassen? An Hand der FPS geht nicht, wegen z.B. Videos. Hardwarebeschleunigung springt ebenfalls bei verschiedenen anderen Programmen an. Letztlich bin ich jetzt bei einer Umschaltung per Hand bei jedem Spielstart. Eine sehr enttäuschende Lösung.

reunion
2009-03-31, 13:57:34
Da muss ich dich enttäuschen. Da Rivatuner auf Grund der Verbrauchsproblematik Pflicht ist, steht man dort vor genau dem gleichen Problem: Mit welchem Parameter soll man die automatische Umschaltung vornehmen lassen? An Hand der FPS geht nicht, wegen z.B. Videos. Hardwarebeschleunigung springt ebenfalls bei verschiedenen anderen Programmen an. Letztlich bin ich jetzt bei einer Umschaltung per Hand bei jedem Spielstart. Eine sehr enttäuschende Lösung.

Tja, das ist bei nV ohnehin Standard, da beschwert sich ja auch niemand das sobald die Hardwarebeschleunigung aktiv ist die vollen Taktraten/Spannung anliegen. Ansonsten was ist damit? http://www.forum-3dcenter.org/vbulletin/showthread.php?t=446733&highlight=sparsam

Aber ein BIOS-Update wäre wohl am komfortabelsten.

LovesuckZ
2009-03-31, 14:01:43
Das ist ein Fake 2d Modus, der nach deiner Meinung falsch ist und nicht als Argument gilt. :rolleyes:

Undertaker
2009-03-31, 14:03:50
Die Tray Tools hatten in der von mir zuletzt getesteten Version keine Treibersignatur für Vista 64, entfallen für mich damit. Am BIOS rumwerkeln ist ebenfalls keine Option, lass die Karte abrauchen und in der RMA das modifizierte BIOS bemerkt werden - nein danke.

reunion
2009-03-31, 14:05:40
Das ist ein Fake 2d Modus, der nach deiner Meinung falsch ist und nicht als Argument gilt. :rolleyes:

Nein ist es nicht. Da hast du nur mal wieder wie üblich etwas aus dem Kontext gerissen und hängst dich daran jetzt auf wie im Kindergarten.

Iceman346
2009-03-31, 14:07:18
Die Tray Tools hatten in der von mir zuletzt getesteten Version keine Treibersignatur für Vista 64, entfallen für mich damit.

Wirds auch nicht geben, da die Signierung Geld kostet. Die neuen Betaversionen haben aber nen Loader mit drin, so dass das Programm trotzdem unter Vista 64 läuft.

Undertaker
2009-03-31, 14:11:03
Zusammenfassend ist das doch alles unzufriedenstellendes Gefrickel. Am bestens machts wohl noch der GT200B (55nm) durch sein ohnehin geringeres Verbrauchsniveau, letztlich braucht es zukünftig aber deutlich bessere Lösungen in Hard- wie Software. Nachdem was bisher zu hören war, fällt die HD4890 mit äußerst minimalen Einsparungen verglichen zur HD4870 schoneinmal nicht in diese Kategorie...

AnarchX
2009-03-31, 14:11:10
http://img16.imageshack.us/img16/2993/radeon4890931934313.jpg (http://img16.imageshack.us/my.php?image=radeon4890931934313.jpg)
http://www.tomshardware.com/de/fotostrecken/radeon-hd-4890,0201--6048----jpg-.html

Ab Seite 2 geht es mit Benchmarks los.

http://img256.imageshack.us/img256/9721/image028.png (http://img256.imageshack.us/my.php?image=image028.png)http://img257.imageshack.us/img257/4269/image032.png (http://img257.imageshack.us/my.php?image=image032.png)

LovesuckZ
2009-03-31, 14:14:23
Nein ist es nicht. Da hast du nur mal wieder wie üblich etwas aus dem Kontext gerissen und hängst dich daran jetzt auf wie im Kindergarten.

Nein. Das hat du gesagt: Die Bezeichnung "fake 2d Modus" steht für eine deutlich schlechtere Lösung als ein "richtiger 2D Modus". Damit ist jede lastunabhängige Untertaktung - also per Treiber, Tools - laut dir schlecht. Es wäre viel einfacher, wenn du einfach bei einer Meinung bleibst. Aber da du eben nur pro AMD argumentierst und immer so deine Meinung anpasst, musst du damit leben, dass andere eben nur eine Meinung von dir akzeptieren.

reunion
2009-03-31, 14:14:53
Die Tray Tools hatten in der von mir zuletzt getesteten Version keine Treibersignatur für Vista 64, entfallen für mich damit. Am BIOS rumwerkeln ist ebenfalls keine Option, lass die Karte abrauchen und in der RMA das modifizierte BIOS bemerkt werden - nein danke.

Dann kannst du es noch immer Hardwarebeschleunigt machen und hast damit den selben Modus wie bei nV womit dein "dicker Minuspunkt" ausgeräumt wäre.

reunion
2009-03-31, 14:20:33
Nein. Das hat du gesagt: Die Bezeichnung "fake 2d Modus" steht für eine deutlich schlechtere Lösung als ein "richtiger 2D Modus". Damit ist jede lastunabhängige Untertaktung - also per Treiber, Tools - laut dir schlecht. Es wäre viel einfacher, wenn du einfach bei einer Meinung bleibst. Aber da du eben nur pro AMD argumentierst und immer so deine Meinung anpasst, musst du damit leben, dass andere eben nur eine Meinung von dir akzeptieren.

Du bist wirklich unglaublich. Das waren meine Worte: "Es ist ein richtiger, in Hardware gegossener "2D-Modus", kein "falscher" wie bei NV." Das falscher habe ich bewusst unter Anführungszeichen gesetzt. Und das ein lastbasierender Modus am sinnvollsten ist sollte auf der Hand liegen. Das war auch schon meine letzte Reaktion auf dich, du bist doch völlig vernab jeder Realität.

Undertaker
2009-03-31, 14:23:29
Dann kannst du es noch immer Hardwarebeschleunigt machen und hast damit den selben Modus wie bei nV womit dein "dicker Minuspunkt" ausgeräumt wäre.

Nein, da der RV770 nach wie vor mehr verbraucht, ich auf externe Tools angewiesen bin und flackernde Umschaltungen der Taktraten habe. Da gefällt mir die NVidia-Lösung aktuell immernoch deutlich besser, leider machen die Treiber mit meinem LCD Probleme, so dass ich auf ATI angewiesen bin.

http://img257.imageshack.us/img257/4269/image032.png[/URL]

Und noch weiter gestiegener idle-Verbrauch...

reunion
2009-03-31, 14:26:42
Und noch weiter gestiegener idle-Verbrauch...

Und die 4870/512 schlägt alle beide. Unter Last immer noch die 4870/1024 deutlich. Xbitlabs abwarten, alles andere ist nutzlos. Matbe hatte bsw. schon 12W niedrigere Werte gemessen.

Undertaker
2009-03-31, 14:29:07
Und weiter? :confused: Es geht darum, dass es offensichtlich immernoch keinen 2D-Modus gibt, der die Nutzung externer Tools überflüssig macht. Aber gut, warten wir weitere Reviews ab, Probleme kann es immer mal geben.

reunion
2009-03-31, 14:35:45
Und weiter? :confused: Es geht darum, dass es offensichtlich immernoch keinen 2D-Modus gibt, der die Nutzung externer Tools überflüssig macht.


Mit externen Tools wird man immer und mit jeder Karte noch mehr heraus holen können. Das Verhältnis idle/Last ist hier bsw. deutlich besser als bei einer GTX260 und nur wenig schlechter wie bei einer GTX285.

reunion
2009-03-31, 14:40:08
http://img16.imageshack.us/img16/2993/radeon4890931934313.jpg (http://img16.imageshack.us/my.php?image=radeon4890931934313.jpg)
http://www.tomshardware.com/de/fotostrecken/radeon-hd-4890,0201--6048----jpg-.html

Ab Seite 2 geht es mit Benchmarks los.

http://img256.imageshack.us/img256/9721/image028.png (http://img256.imageshack.us/my.php?image=image028.png)http://img257.imageshack.us/img257/4269/image032.png (http://img257.imageshack.us/my.php?image=image032.png)

Vielleicht noch ergänzend das Performancerating:

http://img300.imageshack.us/img300/7373/image031.png

Gast
2009-03-31, 14:55:16
Heftig das ATI immer noch keinen 2D-Modus besitzt. Das was die idled ist in der Nähe meiner 260@1,03 unter Last. Einfach heftiger Stromverbrauch der 4890. Somit für mich (Der nicht mehr bei Mutti wohnt) absolut epic fail

Undertaker
2009-03-31, 14:56:18
Mit externen Tools wird man immer und mit jeder Karte noch mehr heraus holen können. Das Verhältnis idle/Last ist hier bsw. deutlich besser als bei einer GTX260 und nur wenig schlechter wie bei einer GTX285.

Sry, deine Argumentation hier verstehe ich langsam nicht mehr... Eine GTX260 (216, 55nm) verbraucht idle erheblich weniger. Die HD4870 lässt sich nur mit externen Tools, die bei einer GTX260 überflüssig sind (da keine weiteren nennenswerten Einsparungen möglich), weiter absenken, verbraucht dabei aber immernoch mehr als die GTX260 @def. Probleme mit der Aktivierung des 3D-Modus durch bestimmte Programme haben dann wohl beide, die HD4870 aber zusätzlich zu den ganzen Problemen einer Extrasoftware noch ein Flackern bei der Umschaltung der Taktraten. Der 2D-Modus der Karte, da brauche ich mir auch als Besitzer absolut nichts vormachen, ist schlecht. Die Konkurrenz machts besser, wenn auch natürlich nicht perfekt. Und das bestreitet doch auch kein neutraler Nutzer hier.

reunion
2009-03-31, 15:08:33
Sry, deine Argumentation hier verstehe ich langsam nicht mehr...

Was ich damit sagen wollte war das es einfach Grenzen gibt. Man kann von einer 190W-Karte nicht erwarten das sie unter idle 10W benötigt. Aber offensichtlich hat AMD auch noch irgendwelche Probleme mit dem MC, ansonsten würde man auch mit dem Speichertakt herunter gehen.


Eine GTX260 (216, 55nm) verbraucht idle erheblich weniger. Die HD4870 lässt sich nur mit externen Tools, die bei einer GTX260 überflüssig sind (da keine weiteren nennenswerten Einsparungen möglich), weiter absenken, verbraucht dabei aber immernoch mehr als die GTX260 @def.

Hast du das auch verifiziert? Da hier von bis zu 50W berichtet wird, welche man bei einer 4870 durch heruntertakten einsparen kann, sollte man eigentlich nicht schlechter liegen wie eine GTX260.


Probleme mit der Aktivierung des 3D-Modus durch bestimmte Programme haben dann wohl beide, die HD4870 aber zusätzlich zu den ganzen Problemen einer Extrasoftware noch ein Flackern bei der Umschaltung der Taktraten.

Nur wenn man es über RivaTuner macht. Das Flackern ist wohl das Problem warum AMD nicht selber mit den Taktraten herunter geht.


Der 2D-Modus der Karte, da brauche ich mir auch als Besitzer absolut nichts vormachen, ist schlecht. Die Konkurrenz machts besser, wenn auch natürlich nicht perfekt. Und das bestreitet doch auch kein neutraler Nutzer hier.

Die Konkurrenzprodukte sind ganz einfach stromsparender, was sich natürlich auch auf idle auswirkt. Den 2D-Modus halte ich wie schon erwähnt nicht für besser. Aber das führt zu nichts.

Mr. Lolman
2009-03-31, 15:15:57
1. Das einmalige Flackern ist doch wurscht, und fällt meistens ohnehin nicht auf, da ja der Bildschirm ohnehin erstmal schwarz ist, bis der Startscreen geladen ist.

2. Eine untertaktete 4870 braucht ~20W im Idle. Glaub kaum dass eine GTX260 noch weniger braucht.

3. Das Umschalten in den 3D-Modus geht ohne Probleme. Ich wüsste kein Spiel, wo das nicht klappt. Notfalls, kann man sich trotzdem ganz easy mittels Hotkey die Taktraten auch manuell anpassen.

4. Die ATT sind nicht nur zum Herumtakten sehr praktisch, sondern haben auch eine wunderbare Profilfunktion, sind sehr schlank, schnell geladen und brauchen nicht viel Speicher, also quasi eine wunderbare Alternative fürs CCC

5. Dass NV das besser macht bestreitet auch keiner. Allerdings weiss auch jeder, wie NV ihre GTX260 anfangs preislich platziert hatte und die GTX260 - Karten mittlerweile in der 3. Neuauflage verkauft, damit mittels günstigeren Produktionsmethoden doch noch die Margen halbwegs stimmen. Der Kunde freut sich zwar darüber, NV macht das aber langfristig kaputt - wenn sie nix an ihren GraKas verdienen.
ATi hat halt das gesamte R&D in einen kleinen, flotten, günstigen Chip gesteckt und dabei halt andere mehr oder weniger wichtige Dinge, wie den Idle-Verbrauch bewusst ausser Acht gelassen (dass sies deutlich besser können, zeigen ja ihre anderen Chips).

Letztenendes bekommt man das, wofür man bezahlt. Dadurch, dass NV mit den Preisen schön nachgezogen hat, spricht bis auf ein paar performancetechnische Ausreißer, (wo der RV770 auf GTX285 Niveau ist), eigentlich alles mehr für die GTX260, da sie doch das rundere Gesamtpaket bietet. Insgesamt bleibts halt einmal mehr Geschmackssache und ich kann auch jeden verstehen, der sich für den RV770 entscheidet, weil die Leistung bei halber Diefläche doch so einen schönen Nachgeschmack von Effizienz auf der Zunge hinterlässt. ;)

Raff
2009-03-31, 15:23:54
[...] und ich kann auch jeden verstehen, der sich für den RV770 entscheidet, weil die Leistung bei halber Diefläche doch so einen schönen Nachgeschmack von Effizienz auf der Zunge hinterlässt. ;)

... von dem du dir auch kein Eis backen kannst, wenn zum "Ausgleich" das AF flimmert und der Treiber den Nutzer bevormundet. Ich will zur guten Hardware passende Treiber (= gute), sonst ist das Gesamtpaket eben nicht gut.

MfG,
Raff

LovesuckZ
2009-03-31, 15:29:47
Du bist wirklich unglaublich. Das waren meine Worte: "Es ist ein richtiger, in Hardware gegossener "2D-Modus", kein "falscher" wie bei NV." Das falscher habe ich bewusst unter Anführungszeichen gesetzt. Und das ein lastbasierender Modus am sinnvollsten ist sollte auf der Hand liegen. Das war auch schon meine letzte Reaktion auf dich, du bist doch völlig vernab jeder Realität.

Wo ist der Unterschied zwichen "falsch" und "richtig"? Das erste impliziert, dass es kein richtiger Modus ist. Fakt ist, nVidia bieten einen Modus an, der nie schlechtert ist. Und das ganz ohne zusätzliche Tools.
Und es ist sehr lustig, dass ich ab fern der Realität wäre, aber du unsinniges Zeug erzählst, um deine Lieblingsfirma zu verteidigen. Klar, AMD's "richtiger 2D Modus" ist natürlich dem von nVidia überlegen, weil er zu jederzeit unsinnig viel Strom benötigt.
Wirklich, fernab der Realität bist nur du - und das komplett.

Gast
2009-03-31, 15:31:11
@Raff

Und für mich ist auch PhysX ein Kaufargmument was man anführen sollte. Denn wenn man schon die Wahl zwischen 2 gleichwertigen Produkten hat kann sowas den Ausschlag geben.

Mr. Lolman
2009-03-31, 15:34:04
... von dem du dir auch kein Eis backen kannst, wenn zum "Ausgleich" das AF flimmert und der Treiber den Nutzer bevormundet. Ich will zur guten Hardware passende Treiber (= gute), sonst ist das Gesamtpaket eben nicht gut.

MfG,
Raff

Es flimmert ja nicht immer und überall, sondern ist bloß gerade so schlecht, dass böse Texturen nicht mehr ausreichend schön gefiltert werden. Darüber seh ich aber hinweg, weil ich performancegeil bin, eine der ersten in Ö verfügbaren HD4870 überhaupt gekauft hab (damals waren die GTX260 noch deutlichst teurer) und AF ohnehin als erstes runterschraub (bis min 4x), wenn ich Leistung brauch.

Außerdem gesteh ich ja aktuell ohnehin NV das rundere Gesamtpaket zu. War wohl ein kleiner freudscher Verleser von dir ;)


@Raff

Und für mich ist auch PhysX ein Kaufargmument was man anführen sollte. Denn wenn man schon die Wahl zwischen 2 gleichwertigen Produkten hat kann sowas den Ausschlag geben.

Grad PhysX ist imo kein Kaufargument. Ich will, dass meine Grafik-HW Grafik berechnet, und nicht auf reduzierter Grafikqualität zurückgreifen müssen, nur damit die GraKa PHysX Effekte (zB in Form von kleinen Glassplittern) berechnen darf, während sich 3 Cores meines Quads langweilen und ich durch sterile Gänge lauf* - und mich über Effekte freu, die andere Engines mit der CPU bewerkstelligen.

*OK bei ME ein schönes Stilmittel, aber die PhysX Effekte waren trotzdem eher Selbstzweck. (alles rennt super, nur die Fenster müssen gerade zu so viel Scherben zerspringen, dass es selbst ein Quad mit 3.6GHz nur mehr mit <10fps darstellen kann).



Die Leistung die man für PhysX braucht, fehlt dann klarerweise für die Grafik. Ich würd bei einem Crysis nie div. schöne Shader gegen ein paar zusätzliche Partikeleffekte eintauschen wollen. Besser sollte man die immernoch häufig brachliegenden Quads endlich ordentlich ausnutzen, anstatt die überschüssige Grafikleistung (die es m.E. ohnehin nicht gibt - alles nur eine Frage der Settings ;)) für Partikeleffekte zu nutzen.

Undertaker
2009-03-31, 15:37:26
Nur wenn man es über RivaTuner macht. Das Flackern ist wohl das Problem warum AMD nicht selber mit den Taktraten herunter geht.

Am Programm liegt es nicht, auch in Overdrive flackert das Bild wenn ich den Speichertakt ändere.

1. Das einmalige Flackern ist doch wurscht, und fällt meistens ohnehin nicht auf, da ja der Bildschirm ohnehin erstmal schwarz ist, bis der Startscreen geladen ist.

Fällt sehr auf, da die automatische Umschaltung des Rivatuners ja auch bei diversen Programmen anspringt. Man könnte damit leben, aber nerven tut es definitiv.

2. Eine untertaktete 4870 braucht ~20W im Idle. Glaub kaum dass eine GTX260 noch weniger braucht.

Wenn ich hier von Einsparungen um 40W im Gesammtsystem lese glaube ich das nicht. Wer hat diesen Wert gemessen? Zu einer 260GTX 55nm fehlen laut Reviews etwa 50W, ohne das man da auch nur einen Finger rühren muss:

http://www.bit-tech.net/hardware/graphics/2009/02/23/sapphire-ati-radeon-hd-4870-1gb-toxic/13

3. Das Umschalten in den 3D-Modus geht ohne Probleme. Ich wüsste kein Spiel, wo das nicht klappt. Notfalls, kann man sich trotzdem ganz easy mittels Hotkey die Taktraten auch manuell anpassen.

Dummerweise klappen Hotkeys nicht in allen Programmen, in Fallout 3 muss ich z.B. zum Desktop switchen, Strg + Alt + F3 drücken, um mein entsprechendes Profil zu laden.

4. Die ATT sind nicht nur zum Herumtakten sehr praktisch, sondern haben auch eine wunderbare Profilfunktion, sind sehr schlank, schnell geladen und brauchen nicht viel Speicher, also quasi eine wunderbare Alternative fürs CCC

Das klingt wirklich nett, aber wie gesagt: Vista 64 wird nur mit dem Rivatuner brauchbar abgedeckt.

5. Dass NV das besser macht bestreitet auch keiner. Allerdings weiss auch jeder, wie NV ihre GTX260 anfangs preislich platziert hatte und die GTX260 - Karten mittlerweile in der 3. Neuauflage verkauft, damit mittels günstigeren Produktionsmethoden doch noch die Margen halbwegs stimmen. Der Kunde freut sich zwar darüber, NV macht das aber langfristig kaputt - wenn sie nix an ihren GraKas verdienen.
ATi hat halt das gesamte R&D in einen kleinen, flotten, günstigen Chip gesteckt und dabei halt andere mehr oder weniger wichtige Dinge, wie den Idle-Verbrauch bewusst ausser Acht gelassen (dass sies deutlich besser können, zeigen ja ihre anderen Chips).

Jegliche Diskussion bezieht sich bei mir auf 2 Dinge, a) auf meine Sicht als Kunde und b) auf das hier und jetzt. Das der Preis früher weniger attraktiv war oder wie die Margen aussehen, spielt dabei keine Rolle - ich gebe Geld aus und möchte dafür das bestmögliche Produkt :)

Letztenendes bekommt man das, wofür man bezahlt. Dadurch, dass NV mit den Preisen schön nachgezogen hat, spricht bis auf ein paar performancetechnische Ausreißer, (wo der RV770 auf GTX285 Niveau ist), eigentlich alles mehr für die GTX260, da sie doch das rundere Gesamtpaket bietet. Insgesamt bleibts halt einmal mehr Geschmackssache und ich kann auch jeden verstehen, der sich für den RV770 entscheidet, weil die Leistung bei halber Diefläche doch so einen schönen Nachgeschmack von Effizienz auf der Zunge hinterlässt. ;)

Was ich als Kunde davon praktisch haben soll, leuchtet mir nicht ganz ein, aber gut. Bei gleichem Preis spricht zumindest momentan alles für die GTX260 (vs. HD4870 1GB) bzw. für die GTX275 (vs. HD4890 1GB), wenn wir für letztere mal Leistung und Verbrauch an Hand der 260 und 285 interpolieren.

reunion
2009-03-31, 15:38:48
Beschwerde von CB und PCGH:
http://www.computerbase.de/news/allgemein/computerbase/2009/maerz/amds_launch-politik_nachteile_webseiten/

Gast
2009-03-31, 15:44:09
Bei gleichem Preis spricht zumindest momentan alles für die GTX260 (vs. HD4870 1GB) bzw. für die GTX275 (vs. HD4890 1GB), wenn wir für letztere mal Leistung und Verbrauch an Hand der 260 und 285 interpolieren.

Naja, manche bevorzugen hohe MSAA-Stufen vor AF usw. - für die ist die HD 48x0 sicherlich interessant. Dann ist da noch die Sache mit den Technik-Freaks, die sich die ganzen "AMD-Firsts" (DX10.1, GDDR5, perf/mm², GFLOPS/mm² usw.) gern was kosten lassen.

reunion
2009-03-31, 15:44:11
Am Programm liegt es nicht, auch in Overdrive flackert das Bild wenn ich den Speichertakt ändere.


Das bezog sich auf den ersten Teil des Satzes:
"Probleme mit der Aktivierung des 3D-Modus durch bestimmte Programme haben dann wohl beide"



Wenn ich hier von Einsparungen um 40W im Gesammtsystem lese glaube ich das nicht. Wer hat diesen Wert gemessen? Zu einer 260GTX 55nm fehlen laut Reviews etwa 50W, ohne das man da auch nur einen Finger rühren muss:

http://www.bit-tech.net/hardware/graphics/2009/02/23/sapphire-ati-radeon-hd-4870-1gb-toxic/13


Das wurde von vielen Seiten getestet, mal sehen ob ich noch was finde.

Hier zB: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/

Gast
2009-03-31, 15:50:21
@Lolman

Hat man ne potente Geforce (260,280 aufwärts) schaltet man PhysX dazu. Und warum sollte der Prozzi Physx erledigen? Ich verweise auf Gamestarvideo Sacred 2 letzter Abschnitt. Da isses am Ruckeln wie Muttis bester Freund weil eben PhysX auf dem Prozzi berechnet wird:) Und nebenbei sind Grafikkarten für solche Dinge eben geschaffen, sprich kein Prozzi kann diese Leistung erbringen. Ich wäre dafür das der Prozzi die KI aufwendiger berechnet und Dinge berechnet wofür er geschaffen ist.

Raff
2009-03-31, 15:55:13
Es flimmert ja nicht immer und überall, sondern ist bloß gerade so schlecht, dass böse Texturen nicht mehr ausreichend schön gefiltert werden. Darüber seh ich aber hinweg, weil ich performancegeil bin, eine der ersten in Ö verfügbaren HD4870 überhaupt gekauft hab (damals waren die GTX260 noch deutlichst teurer) und AF ohnehin als erstes runterschraub (bis min 4x), wenn ich Leistung brauch.

Außerdem gesteh ich ja aktuell ohnehin NV das rundere Gesamtpaket zu. War wohl ein kleiner freudscher Verleser von dir ;)

Das war nicht verlesen, ich wollt's nur nochmal sagen, dass die Effizienz, von der der Nutzer 'nen Scheiß hat, Probleme nach sich zieht, die der Nutzer sehr wohl bemerkt. ;)

MfG,
Raff

Mr. Lolman
2009-03-31, 16:01:31
Fällt sehr auf, da die automatische Umschaltung des Rivatuners ja auch bei diversen Programmen anspringt. Man könnte damit leben, aber nerven tut es definitiv.

Zumindest bei den ATT kann man auch ne Ausschlussliste definieren. Und ungefragt anspringen, tun die eigentlich nur, wenn ich einen DivX-Videostream, oder die TV-App starte.



Wenn ich hier von Einsparungen um 40W im Gesammtsystem lese glaube ich das nicht. Wer hat diesen Wert gemessen? Zu einer 260GTX 55nm fehlen laut Reviews etwa 50W, ohne das man da auch nur einen Finger rühren muss:

http://www.bit-tech.net/hardware/graphics/2009/02/23/sapphire-ati-radeon-hd-4870-1gb-toxic/13

xbitlabs kommt auf ganz andere Werte: http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx285ssc_5.html#sect0


Die 40 Watt wurden aber eh schon mehrfach gemessen und bestätigt. U.a. auch von CB: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/


Dummerweise klappen Hotkeys nicht in allen Programmen, in Fallout 3 muss ich z.B. zum Desktop switchen, Strg + Alt + F3 drücken, um mein entsprechendes Profil zu laden.

Bei den ATT?


Das klingt wirklich nett, aber wie gesagt: Vista 64 wird nur mit dem Rivatuner brauchbar abgedeckt.

Mittlerweile gibts doch einen Loader, sodass ATT auch kein Problem mehr sein sollten, oder?



Jegliche Diskussion bezieht sich bei mir auf 2 Dinge, a) auf meine Sicht als Kunde und b) auf das hier und jetzt. Das der Preis früher weniger attraktiv war oder wie die Margen aussehen, spielt dabei keine Rolle - ich gebe Geld aus und möchte dafür das bestmögliche Produkt :)

Was ich als Kunde davon praktisch haben soll, leuchtet mir nicht ganz ein, aber gut. Bei gleichem Preis spricht zumindest momentan alles für die GTX260 (vs. HD4870 1GB) bzw. für die GTX275 (vs. HD4890 1GB), wenn wir für letztere mal Leistung und Verbrauch an Hand der 260 und 285 interpolieren.

Als ob der Kunde nur vernünftig kaufen würde. Warum haben sich den FX5800 ganz gut verkauft? Oder die 6800, wo ne X850 heut tw. doppelt so schnell ist (sicher nicht, damit man SM30 Spiele in 640x480 und min.Details spielen kann). Oder die 7900GTX, wo ATI mit der X1900XTX eigentlich alle Trümpfe in der Hand hatte..

Natürlich zählt bei den meisten in erster Linie mal das P/L-Verhältnis. Aber dann spielen ja auch oft persönliche Vorlieben mit. :biggrin:

Manche macht es zB verrückt, dass NV andauernd irgendwelche Betatreiber raushaut, wo einer besser ist als der andere, aber keiner was perfekt kann, und man bei Beschwerden entweder ans Salzamt, oder an den letzten 'langsameren' WHQL verwiesen wird.

Andere hingegen freuen sich wie ein Schaukelpferd, wenn sie pro Woche mehrere Treiber durchtesten können. Letztenendes bleibts, wie gesagt, ne Geschmackssache und so richtige Geheimtipps gibts ohnehin schon länger nicht mehr. (ich glaub zwar, dass sich der RV770 mit der Zeit und neuen Spielen noch weiter an die GTX285 annähern können wird, aber so großartig wie früher, werden sich die Performanceverhältnisse auch nicht mehr verschieben).

y33H@
2009-03-31, 16:18:39
@ Mr. Lolman

Die HD 4870 startete einst bei rund 250€. Und du willst ernsthaft behaupten, dass AMD bei einem 250€-Produkt bewusst auf einen 2D-Modus (des MC) verzichtet?! Die Leistungsaufnahme der GPU ging seit dem Launchtreiber (wie angekündigt) stetig leicht runter, das bringt aber wenig, wenn der (offenbar) derbest frisierte MC des GDDR5 dem ganzen einen richtig fetten Strich durch die Rechnung macht. Leider.Naja, manche bevorzugen hohe MSAA-Stufen vor AF usw.Wer 8x MSAA samt flimmerndem, sagen wir mal 4:1 AF gegenüber 4x MSAA und flimmerfreiem 16:1 AF vorzieht, hat imo was an den Augen ... echt ;(Grad PhysX ist imo kein Kaufargument [...] Ich will, dass meine Grafik-HW Grafik berechnet, und nicht auf reduzierter Grafikqualität zurückgreifen müssen, nur damit die GraKa PHysX Effekte (zB in Form von kleinen Glassplittern) berechnen darf, während sich 3 Cores meines Quads langweilen und ich durch sterile Gänge lauPhysX ist optional ... Natürlich wäre es besser, wenn zB der vierte Kern eines Quads einzig und alleine die Physik berechnet, die GPU ist eh immer am Limit (und falls sie es nicht ist, knüppelt man halt 24x ED-HQ-AAA oder 16xS-TSSAA drauf) ... aber davon sind wir halt noch weit weg. Man kann ja froh sein, denn Duals gescheit unterstützt werden ... Konsolen-sei-Dank (das ich so was mal sage ;D) wird sich das aber hoffentlich ändern.

Undertaker
2009-03-31, 16:22:43
Als ob der Kunde nur vernünftig kaufen würde. Warum haben sich den FX5800 ganz gut verkauft? Oder die 6800, wo ne X850 heut tw. doppelt so schnell ist (sicher nicht, damit man SM30 Spiele in 640x480 und min.Details spielen kann). Oder die 7900GTX, wo ATI mit der X1900XTX eigentlich alle Trümpfe in der Hand hatte..

Alle diese Karten hatten bei ihrem Erscheinen eine durchaus konkurrenzfähige Leistung (die FX zumindest ohne AA), und als High-End Käufer behält man so eine Karte auch nicht wirklich länger. Zum anderen zeigen letzthin auch ATI-Karten wie die HD3870 heute ihre Schwächen, damals fast auf 8800GT Höhe, heute der 9800GT (die von Takt und Leistung identisch ist) deutlich unterlegen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7179895&postcount=93).

Natürlich zählt bei den meisten in erster Linie mal das P/L-Verhältnis. Aber dann spielen ja auch oft persönliche Vorlieben mit. :biggrin:

Manche macht es zB verrückt, dass NV andauernd irgendwelche Betatreiber raushaut, wo einer besser ist als der andere, aber keiner was perfekt kann, und man bei Beschwerden entweder ans Salzamt, oder an den letzten 'langsameren' WHQL verwiesen wird.

Andere hingegen freuen sich wie ein Schaukelpferd, wenn sie pro Woche mehrere Treiber durchtesten können. Letztenendes bleibts, wie gesagt, ne Geschmackssache und so richtige Geheimtipps gibts ohnehin schon länger nicht mehr. (ich glaub zwar, dass sich der RV770 mit der Zeit und neuen Spielen noch weiter an die GTX285 annähern können wird, aber so großartig wie früher, werden sich die Performanceverhältnisse auch nicht mehr verschieben).

Was ist an zusätzlich verfügbaren Betatreibern das Problem? Zu den Catalysts entsprechend gibt es die offiziellen WHQLs, alles andere ist Bonus obendrauf.
Bzgl. der Performanceentwicklung wäre ich schon zufrieden wenn alles bleibt wie es ist, siehe den architektonisch eng verwandten RV670 und dessen schlechte Performance bei aktuellen Spielen.

Gast
2009-03-31, 16:39:29
[...]Konsolen-sei-Dank (das ich so was mal sage ;D) wird sich das aber hoffentlich ändern.

so lange physx keine multicore unterstützung hat kannste das aber vergessen

Coda
2009-03-31, 16:57:20
Doch hat es, allerdings erzeugt es nur zwei Worker-Threads und davon wird nur einer voll ausgelastet. Habe gerade extra mit dem Intel Thread Profiler nachgeschaut beim "SampleBoxes" aus dem PhysX-SDK.

Das ist angesichts dessen wie stark sie auf der GPU parallelisieren müssen natürlich echt erbärmlich.

Edit: Allerdings liegt das wohl nur an der Demo-App, denn die Dokumentation sagt auch:
The SDK provides an option to split the simulation processing over a number of worker threads (on some platforms). For example, all the shape pairs which need contact point generation can be divvied up by the SDK and have multiple threads generating contact points at the same time.

By default, fine grained division of the simulation is not enabled. To enable fine grained threading, the user must specify the NX_SF_ENABLE_MULTITHREAD flag in NxSceneDesc.

Coda
2009-03-31, 17:00:44
Ich werd jetzt mal versuchen die App neu zu kompilieren mit dem Flag und dann nochmal nachzuschauen.

Coda
2009-03-31, 17:13:13
Er erzeugt tatsächlich 4 Worker-Threads wenn ich es so einstelle, allerdings ist die Performance in dem Beispiel dadurch nicht besser.

Es kann aber sein, dass ich da noch was anderes verändern müsste. Das PhysX grundsätzlich kein Multi-Threading unterstützt ist aber offensichtlich falsch.

Gast
2009-03-31, 17:23:00
Ja das geht. Nur was willst du mit 4 Kernen wenn Nvidia 200 Kerne (Unified Shader)hat. Was ich sagen will ist, PhysX auf CPU ist Murks. Aber hier gehts ja um die 4890:)

Coda
2009-03-31, 17:34:20
Ja das geht. Nur was willst du mit 4 Kernen wenn Nvidia 200 Kerne (Unified Shader)hat.
Absolut unsinniger Vergleich. Die Zahlen haben nichts miteinander zu tun.

Mr. Lolman
2009-03-31, 17:49:34
Das war nicht verlesen, ich wollt's nur nochmal sagen, dass die Effizienz, von der der Nutzer 'nen Scheiß hat, Probleme nach sich zieht, die der Nutzer sehr wohl bemerkt. ;)

MfG,
Raff

Der Nutzer, von dem du sprichst, bistz in dem Fall du. Nicht jeder merkts. Nicht jedem, ders merkt, störts. Die dies andauernd und immer wieder stört haben wohl eh schon ihre Konsequenzen daraus gezogen.

Ja, ich will auch die Option zu besserer AF-Qualität haben. Und ja, ich würd die Option wohl nur äußerst selten nutzen. Warum? Weil ich kaum Spiele spiel, wo ich Performance in solchem Überfluss hab und gleichzeitig derartig flimmernde Texturen, dass ich mir wünschen würde, dass die überschüssige Leistung in AF-Qualität umgewandelt werden könnte.

Kein IHV machts 100% richtig. Kein IHV 100% falsch. Ich kann mir genausogut vorstellen, dass sich mancher NV-Nutzer auch die tw. schönere DX10.1 Kantenglättung wünscht. So ist halt für jeden das mehr oder weniger richtige dabei.


@ Mr. Lolman

Die HD 4870 startete einst bei rund 250€. Und du willst ernsthaft behaupten, dass AMD bei einem 250€-Produkt bewusst auf einen 2D-Modus (des MC) verzichtet?!

Meine HD4870 der 1. Stunde hat mich damals 216€ gekostet. Und ja, man hat imo deswegen bewusst darauf verzichtet, weil der Stromverbrauch beim R&D offensichtlich keine besonders hohe Priorität gehabt hat.


Wer 8x MSAA samt flimmerndem, sagen wir mal 4:1 AF gegenüber 4x MSAA und flimmerfreiem 16:1 AF vorzieht, hat imo was an den Augen ... echt.

So spielt ja niemand. 4xMSAA ist für mich genauso Minimum, wie 4xAF (wobei mir 8xAF deutlich lieber ist, 16xAF hingegen brauch ich kaum).




Alle diese Karten hatten bei ihrem Erscheinen eine durchaus konkurrenzfähige Leistung (die FX zumindest ohne AA), und als High-End Käufer behält man so eine Karte auch nicht wirklich länger. Zum anderen zeigen letzthin auch ATI-Karten wie die HD3870 heute ihre Schwächen, damals fast auf 8800GT Höhe, heute der 9800GT (die von Takt und Leistung identisch ist) deutlich unterlegen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7179895&postcount=93).

Bei deinem Link seh ich leider keine entsprechenden Ratings. Bei CB muss man außerdem auch aufpassen, dass man keinen Treibermischmasch vergleicht. Jedenfalls war die HD3870 eigentlich nur die günstige Stromsparende Version der 2900XT, und die war auf 8800GTS (G80) Niveau und konnte auch keine 4xAA Samples/Takt wie der RV770, was u.a. dazu führt, dass sowohl der R600 als auch der RV670 mit 2xAA deutlich weniger Federn lassen muss, wie mit 4xAA...



Was ist an zusätzlich verfügbaren Betatreibern das Problem? Zu den Catalysts entsprechend gibt es die offiziellen WHQLs, alles andere ist Bonus obendrauf.


Das Problem ist, dass man ggf. in Versuchung kommt, stundenlang irgendwelche Treiber zu probieren, ohne dass man nachher auch 100% zufrieden ist. Außerdem dauerts tw. ewig, bis mal wieder ein offizieller WHQL kommt und alle Seiten testen auch brav mit den Betas. Zumindest in der Vergangenheit was nicht nur einmal so, dass man sich entweder für den stabilen langsameren WHQL oder den flotten Beta Treiber (der dann wiederum andere Probleme verursachte) entscheiden konnte/musste.

Aber damit will ich jetzt garkeine weitere Diskussion anstossen. Akzeptier einfach, dass es nicht jedem gefällt, dass andauernd irgendwelche neuen Treiber für die Graka erscheinen.


Bzgl. der Performanceentwicklung wäre ich schon zufrieden wenn alles bleibt wie es ist, siehe den architektonisch eng verwandten RV670 und dessen schlechte Performance bei aktuellen Spielen.

Naja, 4 AA-Samples/Takt und insgesamt 2,5 höhere Rohleistung vgl zum RV670, sollten reichen, dass man die GTX260 dauerhaft auf Distanz halten kann. (die zwar auch ne >2x höhere Shaderleistung als die 8800GTS hat, aber nur ~1,6x Texelfüllrate)

Gast
2009-03-31, 17:59:38
Tja, das ist bei nV ohnehin Standard, da beschwert sich ja auch niemand das sobald die Hardwarebeschleunigung aktiv ist die vollen Taktraten/Spannung anliegen.

Auch bei 2 Monitoren läuft das Ding auf vollen 3D Takt bei NV


Das was die idled ist in der Nähe meiner 260@1,03 unter Last.

Klar :rolleyes: unter Last soll die 50-60W brauch ;D

y33H@
2009-03-31, 18:04:25
Und ja, man hat imo deswegen bewusst darauf verzichtet, weil der Stromverbrauch beim R&D offensichtlich keine besonders hohe Priorität gehabt hat.Schade ... gerade nachdem die RV670-Boards ja gerade wegen der idle-Leistungsaufnahme bis heute gelobt werden. Und DAS Negativargument neben der BQ und den VRMs gegen die HD4870 ist für viele eben die im Vergleich zu den RV70ern und auch den GT200ern die idle-Leistungsaufnahme.

Undertaker
2009-04-01, 08:51:05
Naja, 4 AA-Samples/Takt und insgesamt 2,5 höhere Rohleistung vgl zum RV670, sollten reichen, dass man die GTX260 dauerhaft auf Distanz halten kann. (die zwar auch ne >2x höhere Shaderleistung als die 8800GTS hat, aber nur ~1,6x Texelfüllrate)

Auch der RV670 hatte eine höhere Rohleistung, genützt hat ihm das wenig - hier nocheinmal die Links zur Entwicklung:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet

Aus 8% Rückstand in 1600x1200/4x/16x wurden 40% in 1680x1050/4x/16x. Das kann man nicht auf den Cat. 8.11 schieben. Zudem zeigen auch andere zuletzt erschienene Spiele keinen verringerten Abstand der HD4870 zur GTX260, dass sich der RV770 oder RV790 hier langfristig noch im Verhältnis zu dieser verbessern kann vermute ich nicht.

derguru
2009-04-01, 08:59:16
stimmt da verringert sich nichts;)
http://www.pcgameshardware.de/aid,680043/Battleforge-DX101-Spiel-mit-10-Grafikkarten-im-Test/Strategiespiel/Test/
http://www.pcgameshardware.de/aid,677780/Riddick-Assault-on-Dark-Athena-9-Grafikkarten-im-Benchmark-Test/Action-Spiel/Test/
ach stormrise müsste ja auch bald dazu gehören.

AnarchX
2009-04-01, 09:01:00
Auch der RV670 hatte eine höhere Rohleistung, genützt hat ihm das wenig - hier nocheinmal die Links zur Entwicklung:

Die höhere MADD-Leistung kann er aber nicht ausspielen, wegen der Vektorarchitektur.
So können laut AMD meist nur 3 bis maximal 4 Slots von 5 ausgelastet werden, also 60-80% von den 496GFLOPs.

G92GT kann hingegen durch den skalaren Aufbau der ALUs nahezu immer seine Leistung umsetzen und das sind dann schon 384GFLOPs MADD, MULs kommen hinzu für Interpolationen, wo RV670 auch seine 496GFLOPs anzapfen muss.

Bei den TMUs und ROPs war G92 dazu noch deutlich überlegen:
33.6 GTex/s vs 12.4 GTex/s und 76.8 GZix/s vs 24GZix/s.

Da hat Lolman schon recht, dass RV770(XT) deutlich näher an GT200 liegt:
-1200GFLOPs (720GFLOPs bei 60%) @4870 vs 536GFLOPs MADD @ GTX 260-216
- 30 GTex/s @4870 vs 41.4 GTex/s @GTX 260-216
- 48 GZix/s @4870 vs 129 GZix/s @GTX 260-216
- Bandbreite ist etwa gleich

Und gerade bei der arithmetischen Leistung hat AMD bei RV770 doch auch einen praktischen Vorteil und nicht nur auf dem Papier.

LovesuckZ
2009-04-01, 09:01:35
Grad PhysX ist imo kein Kaufargument. Ich will, dass meine Grafik-HW Grafik berechnet, und nicht auf reduzierter Grafikqualität zurückgreifen müssen, nur damit die GraKa PHysX Effekte (zB in Form von kleinen Glassplittern) berechnen darf, während sich 3 Cores meines Quads langweilen und ich durch sterile Gänge lauf* - und mich über Effekte freu, die andere Engines mit der CPU bewerkstelligen. Ωass es selbst ein Quad mit 3.6GHz nur mehr mit <10fps darstellen kann).

Die Leistung die man für PhysX braucht, fehlt dann klarerweise für die Grafik. Ich würd bei einem Crysis nie div. schöne Shader gegen ein paar zusätzliche Partikeleffekte eintauschen wollen. Besser sollte man die immernoch häufig brachliegenden Quads endlich ordentlich ausnutzen, anstatt die überschüssige Grafikleistung (die es m.E. ohnehin nicht gibt - alles nur eine Frage der Settings ;)) für Partikeleffekte zu nutzen.

Zur Zeit gibt es bei Physx nur "Effekt-Physik" - also das, was deine Grafikkarte sonst auch macht.
Du willst also nicht, dass deine Grafikkarte weitere Effekte berechnet, die den grafischen Gesamteindruck verbessern, aber gleichzeitig willst du andere grafische Effekte haben, die den grafischen Gesamteindruck verbessern...
Ich sehe bei PhysX keinen Unterschied zu anderen (Stil-)Mitteln. Und wenn man sich die Videos zu Mirrors Edge und Sarcred 2 anschaut, dann wird der Gesamteindruck durch den Einsatz deutlich gesteigert.

reunion
2009-04-01, 09:14:12
Auch der RV670 hatte eine höhere Rohleistung, genützt hat ihm das wenig

Hatte er nicht in der Praxis. Eine 4870 hingegen ist selbst einer GTX285 in der Praxis rein von der arithmetischen Leistung mehr als gewachsen.


Aus 8% Rückstand in 1600x1200/4x/16x wurden 40% in 1680x1050/4x/16x. Das kann man nicht auf den Cat. 8.11 schieben. Zudem zeigen auch andere zuletzt erschienene Spiele keinen verringerten Abstand der HD4870 zur GTX260, dass sich der RV770 oder RV790 hier langfristig noch im Verhältnis zu dieser verbessern kann vermute ich nicht.

Da neuere Spiele zwangsläufig immer mehr Rechenleistung brauchen werden wette ich dagegen. Wobei man natürlich auch sagen muss das Entwickler auch auf das optimieren was sich gut verkauft. nV hat hier sicher den Vorteil das viele neuen Spiele mit einer G80-Architektur entwickelt wurden.

Undertaker
2009-04-01, 09:36:50
Hatte er nicht in der Praxis. Eine 4870 hingegen ist selbst einer GTX285 in der Praxis rein von der arithmetischen Leistung mehr als gewachsen.

Dafür deutlich unterlegen in der Füllrate, dazu ist der GT200 wohl ein gutes Stück effizienter. Beide Generationen sind nun seit etwa 9 Monaten auf dem Markt und bisher gibt es keinen, aber auch wirklich keinen Anhaltspunkt dafür, dass der RV770 (und damit auch der RV790) mit neueren Spielen besser skaliert, ganz im Gegenteil.

Launch-Vergleich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

1600x1200/4x/16x: HD4870 +1% zur 260GTX, -18% zur 280GTX

Letzter Vergleich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet

1680x1050/4x/16x: HD4870 1GB -2% zur 260GTX, -24% zur 280GTX

Trotz verdoppeltem Speicher, um das mal auszuschließen, hat die HD4870 sogar etwas an Boden verloren. Rechnet man die 1GB heraus, die auch damals schon ein wenig Leistung gebracht haben werden, sogar recht deutlich.

Gast
2009-04-01, 09:46:51
Ich denke mal Reunion hat Recht das Nvidia besser mit den Herstellern zusammenarbeitet und die Spiele besser auf Nvidia zugeschnitten werden. Aber man muss mal sehen das ATI verdammt viel Boden auf Nvidia aufgeholt hat (Denke ich an 2900XT oder 3870). Das waren noch Abstände!

AnarchX
2009-04-01, 09:48:38
Jedenfalls wird die 4870 gegenüber GTX 260 wohl nicht so stark wegbrechen wie die 3870 gegenüber 8800 GT.

Vielleicht kommen ja in 2009 noch ein paar Titel mit SSAO und D3D10.1, durch das Gather-4 von letzerem soll ersteres wohl um einiges beschleunigt werden können.:D

Gegen die GTX 275 könnte die HD4890, um welche es hier ja eigentlich geht wohl einen etwas schwereren Stand haben, da bei der 275 die Rohleistung der GPU teilweise um ~25% gestiegen ist.

derguru
2009-04-01, 09:48:56
der test ist für ati total unglücklich ausgefallen vom timing weil dort die nv karten den performancesprung des 180er treibers mit bekommen haben und ati noch mit dem 8.11 getestet wurden.

nimm mal die werte von dort,
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_gainward_geforce_gtx_260_gs_glh/3/#abschnitt_benchmarks

und vergleiche die spiele mal mit dem 9.3 treiber,(das kann man machen weil das sys identisch ist)
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_93/

AnarchX
2009-04-01, 09:53:24
der test ist für ati total unglücklich ausgefallen vom timing weil dort die nv karten den performancesprung des 180er treibers mit bekommen haben und ati noch mit dem 8.11 getestet wurden.

Dann rechnet man halt bei 1680x1050 4xAA/16xAF die 10% bei ATi und die 5% bei NV hinzu, welche CB im gleichen Parkour mit den neuesten Treibern ermittelt hat.

reunion
2009-04-01, 09:59:12
Dafür deutlich unterlegen in der Füllrate, dazu ist der GT200 wohl ein gutes Stück effizienter.

Ich sprach von der Praxis. GT200 erreicht eine bessere Auslastung klar (mit Effizienz hat das nichts zu tun), aber eben nicht genug um einen RV770 Paroli bieten zu können. Das wird in Zukunft mit Sicherheit nicht weniger Gewicht bekommen.


Beide Generationen sind nun seit etwa 9 Monaten auf dem Markt und bisher gibt es keinen, aber auch wirklich keinen Anhaltspunkt dafür, dass der RV770 (und damit auch der RV790) mit neueren Spielen besser skaliert, ganz im Gegenteil.

Launch-Vergleich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

1600x1200/4x/16x: HD4870 +1% zur 260GTX, -18% zur 280GTX

Letzter Vergleich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet

1680x1050/4x/16x: HD4870 1GB -2% zur 260GTX, -24% zur 280GTX

Trotz verdoppeltem Speicher, um das mal auszuschließen, hat die HD4870 sogar etwas an Boden verloren. Rechnet man die 1GB heraus, die auch damals schon ein wenig Leistung gebracht haben werden, sogar recht deutlich.

Mit einem aktuellen Treiber zieht die 4870 an der GTX260 vorbei. Beim CB-Rating macht alleine das 10% über alle Spiele aus: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_93/10/#abschnitt_performancerating

Dann rechnet man halt bei 1680x1050 4xAA/16xAF die 10% bei ATi und die 5% bei NV hinzu, welche CB im gleichen Parkour mit den neuesten Treibern ermittelt hat.

Und schon hat die 4870 sogar minimal aufgeholt. Aber das ist Erbsenzählerei. Es hat sich praktisch nichts geändert.

AnarchX
2009-04-01, 10:13:27
Und schon hat die 4870 sogar minimal aufgeholt. Aber das ist Erbsenzählerei. Es hat sich praktisch nichts geändert.
Bis auf das man eine GTX 260 jetzt ab 143€ bekommt, während eine 1GiB 4870 160€ kostet. Bei Launch der 4870 stand es noch 260€ zu 210€(512MiB).
Dazu ist mittlerweile noch CUDA durch PhysX und Consumer-GPGPU etwas attraktiver geworden.

Mehr als den D3D10.1 Faktor bietet die 4870/90 leider nicht. Und hier muss sich zeigen ob man noch wirklich davon groß profitieren wird.

LovesuckZ
2009-04-01, 10:13:49
Ja, die Karte ist grandiose 3% schneller als die GTX260-192. Das muss man AMD lassen, sie konnten sich locker absetzen. :rolleyes:

Undertaker
2009-04-01, 10:17:31
Der 182.05 ist 5% schneller. Auf das letzte Rating die 10%-5% draufgerechnet, liegt die 4870 1GB 3% vor der 260GTX. Beim Launch war es 1% mit der 4870 512MB. Die 260GTX 216 liegt in jedem Fall vorn. Nein, der Treiber ändert daran nicht viel, seit dem Launch hat die 260GTX mehr Performance gewonnen als die HD4870, wenn auch nicht wahnsinnig viel. Das Gegenteil ist zumindest ganz klar nicht der Fall.

reunion
2009-04-01, 10:19:59
Bis auf das man eine GTX 260 jetzt ab 143€ bekommt, während eine 1GiB 4870 160€ kostet. Bei Launch der 4870 stand es noch 260€ zu 210€(512MiB).
Dazu ist mittlerweile noch CUDA durch PhysX und Consumer-GPGPU etwas attraktiver geworden.

Mehr als den D3D10.1 Faktor bietet die 4870/90 leider nicht. Und hier muss sich zeigen ob man noch wirklich davon groß profitieren wird.

Das bezog sich natürlich auf die Leistung. Klar hat nV die Karte durch ihre starken Preissenkungen deutlich attraktiver gemacht. Zudem konnte man durch den Shrink deutlich Strom sparen. PhysX ist ganz nett wenn es mal in einer beachtenswerten Anzahl von Spielen zum Einsatz kommt, es ist aber IMHO nur noch eine Frage der Zeit bis ein OpenGL-Port kommt.

Gast
2009-04-01, 10:21:16
Also ne 260 192 für 145 oder ne 4870 für 20 Euro mehr. Nvidia macht Druck...und ich sehe es nicht so das sich die ATI absetzt.

reunion
2009-04-01, 10:22:18
Der 182.05 ist 5% schneller. Auf das letzte Rating die 10%-5% draufgerechnet, liegt die 4870 1GB 3% vor der 260GTX. Beim Launch war es 1% mit der 4870 512MB.

Zum Launch gab es praktisch noch keine Spiele die von mehr als 512MB bei ATi profitierten. Zumindest nicht in der von dir gewählten Auflösung. Es gab ja eh viele Vergleiche zum Launch der 4870/1024 wo man außer in Extremeinstellungen kaum Unterschiede feststellen konnte. Solche Spiele kamen erst später.

Undertaker
2009-04-01, 10:28:45
Zum Launch gab es praktisch noch keine Spiele die von mehr als 512MB bei ATi profitierten. Zumindest nicht in der von dir gewählten Auflösung. Es gab ja eh viele Vergleiche zum Launch der 4870/1024 wo man außer in Extremeinstellungen kaum Unterschiede feststellen konnte. Solche Spiele kamen erst später.

Assaassins Creed: +3%
World in Conflict: +3%
Crysis Warhed: +19% (Achtung, beim Launchtest nur Crysis)
Lost Planet Colonies: +6% (Achtung, ebenfalls Addon)
Jericho: +2%
Stalker: +7% (Achtung, ebenfalls Addon + DX10)

Leider lassen sich nicht alle Spiele vergleichen, aber 1GB hat auch damals definitiv schon Vorteile gebracht - wenn auch weniger als aktuell. Zumindest nocheinmal, es ist definitiv nicht zu erkennen, dass sich der RV770 und damit auch der RV790 zukünftig im Vergleich zum GT200(B) und damit der 260GTX/275GTX besser schlagen sollte als aktuell.

reunion
2009-04-01, 10:32:57
Naja, du kannst nicht Nachfolger, Addons, oder DX10-Pfade mit den alten Spielen vergleichen nur weil der Name ähnlich ist. Da werden tw. deutlich andere Shader und bessere Texturen verwendet, und natürlich wurde auch auf die zunehmende Anzahl an 1GB-Karten reagiert. Ich schließe nicht aus das es nicht hin und wieder den ein oder anderen Prozentpunkt gebracht haben könnte, aber die großen Unterschiede kamen erst deutlich später.

Undertaker
2009-04-01, 10:36:35
Deswegen schreibe ich es dazu. Andere lassen sich aber wunderbar vergleichen, habe zudem noch einen besseren Test gefunden:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_powercolor_radeon_hd_4870_pcs_1024_mb/18/#abschnitt_crysis

Crysis beispielsweise hat somit auch beim Launch schon 10% aus den 1GB gezogen bzw: Hätte ziehen können. Lost Planet 4%. Company of Heroes 3%. Das egalisiert somit also z.B. schoneinmal die von dir kritisierte Treiberproblematik mit dem Cat. 8.11 praktisch vollständig.

reunion
2009-04-01, 10:37:34
Zumindest nocheinmal, es ist definitiv nicht zu erkennen, dass sich der RV770 und damit auch der RV790 zukünftig im Vergleich zum GT200(B) und damit der 260GTX/275GTX besser schlagen sollte als aktuell.

Aber auch das Gegenteil kann man aktuell sicher nicht behaupten. Es ist praktisch gleich geblieben. Wie es in Zukunft aussehen wird kann niemand sagen, aber jetzt wo RV770 schon ganz gut verbreitet ist und auch nV wohl bald neue Karten mit einem deutlich höheren ALU/TEX-Verhältnis bringen wird (GT21X) stehen die Chance sicherlich nicht schlecht das RV770 davon profitiert. Zumal die ALU-Last ja schon seit jeher immer weiter ansteigt.

Undertaker
2009-04-01, 11:48:38
Der Minimale Vorteil zu Gunsten des GT200 bzgl. der Entwicklung der letzten Monate sollte auch nur meine Aussage untermauern, ohne gleich zu behaupten das der RV770 in Zukunft deutlich zurückfallen wird. Beim Vorteil der theoretischen ALU-Übermacht des RV770 auch immer die Effizienz beachten, real bleibt davon wohl wenig übrig. Letztlich würde ich mich am ehesten diesem Teil anschließen:

Wie es in Zukunft aussehen wird kann niemand sagen

reunion
2009-04-01, 12:00:19
Der minimale Vorteil ist rein auf die von CB getroffene Spiele- und Treiberauswahl zurückzuführen. Auch wenn man die von dir angegebenen Vorteile für die 1024MB-Version berücksichtigt reicht das nicht ganz um den Treibernachteil auszugleichen. Zumal man nur ein Spiel tauschen muss und sich alles auf den Kopf stellen kann. Von einer generellen Entwicklung in die eine oder andere Richtung kann man momentan jedenfalls nicht sprechen. Die ALU-Leistung ist bei RV770 definitiv auch in der Praxis höher, wie stark sich das in Zukunft auswirkt wird man sehen.

derguru
2009-04-01, 12:17:38
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1955014/test_radeon_hd_4890.html

Gast
2009-04-01, 12:29:44
http://www.abload.de/img/449xce1x.jpg (http://www.abload.de/image.php?img=449xce1x.jpg)

http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1955014/test_radeon_hd_4890_p3.html#EL_12385759601986345854588

dargo
2009-04-01, 12:37:29
Ich rieche schon eine Preissenkung bei der GTX285 1GB in Richtung 230-250€. ;)

derguru
2009-04-01, 12:48:21
ob es am treiber liegt mit der guten performance in hohen auflösungen oder wirklich am burst memory reads,wird man dann wohl spätestens wenn der 9.4 treiber da ist wissen;)

Mr. Lolman
2009-04-01, 13:02:19
http://www.abload.de/img/449xce1x.jpg (http://www.abload.de/image.php?img=449xce1x.jpg)

http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1955014/test_radeon_hd_4890_p3.html#EL_12385759601986345854588

Mit OC@1GHz in 2560 um ~50% flotter als ne HD4870 :eek:


EDIT: In UT3 sinds sogar fast 75% :eek: :eek:

AnarchX
2009-04-01, 13:06:23
Mit OC@1GHz in 2560 um ~50% flotter als ne HD4870 :eek:

38% sind noch keine ~50%. ;)
Aber das passt durchaus zu den Gerüchte von 35% für die 950MHz OC-Karten.

Aber das hat eben auch seinen Preis:
Der Lüfter der Radeon HD 4890 entspricht dem der HD 4870. Unter Windows bleibt er stets leise, unter Volllast im 3D-Betrieb dreht er allerdings in den hörbaren Bereich auf und wird teils deutlich lauter als die HD 4870. Das dürfte an den hohen Taktfrequenzen liegen – um die Karte auf 1,0 GHz zu übertakten (siehe unten), mussten wir die Drehzahlen des Rotors noch weiter steigern.

Morgen gibt es dann hoffentlich bessere Infos, wo nun die Effizienz noch gesteigert wurde, neben den Memory Burst Reads.
Bei PCGH gibt es dann wohl ein korrekteres Bild, wenn man auch die 4870 mit dem Launch-Treiber testet.

Stormscud
2009-04-01, 13:08:44
Bin mal gespannt was die anderen Seiten zum gesunkenen Idle Verbrauch schreiben, laut Gamestar von 90 auf 60W gesunken.

Mr. Lolman
2009-04-01, 13:09:19
38% sind noch keine ~50%. ;)

Ich hab mich auf das Gesamtrating bezogen ;)

AnarchX
2009-04-01, 13:10:52
Bin mal gespannt was die anderen Seiten zum gesunkenen Idle Verbrauch schreiben, laut Gamestar von 90 auf 60W gesunken.

Das sind die Werte aus den AMD-Folien. PConline und THG haben bisher gleiche Werte wie auf einer 4870 1GiB ermittelt, die minimal sparsamer ist als die 4870 512MiB aus dem Juli 08.

Ich hab mich auf das Gesamtrating bezogen ;)
OK... Aber das sieht doch eher danach aus, also ob hier der 9.4er Treiber für die 4890 auch eine Rolle spielt. PCGH gibt hier hoffentlich einen Einblick.

Vielleicht ist der Autor ja ein Nvdia-Fanboy und das ist nur ein Aprilscherz... :D

AnarchX
2009-04-01, 13:28:07
Hier noch ein Chinesisches HD 4890 Review, von vorgestern:
http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=zh-CN&tl=de&u=http://diy.yesky.com/vga/76/8773576.shtml&usg=ALkJrhiLffM4cOK7KqxutQfdBJ_ZwzkXmA
... wieder Idle auf 4870 (hier Vapor-X) Niveau .

Tarkin
2009-04-01, 13:29:03
38% sind noch keine ~50%. ;)
Aber das passt durchaus zu den Gerüchte von 35% für die 950MHz OC-Karten.

Aber das hat eben auch seinen Preis:


Morgen gibt es dann hoffentlich bessere Infos, wo nun die Effizienz noch gesteigert wurde, neben den Memory Burst Reads.
Bei PCGH gibt es dann wohl ein korrekteres Bild, wenn man auch die 4870 mit dem Launch-Treiber testet.

Da es zum Launch vermutlich viele OC Karten mit nicht-Referenz-Kühler geben wird, ist das ziemlich "Titte" finde ich ;-)

I WANT VAPOR-X for 4890!!!

http://www.fudzilla.com/index.php?option=com_content&task=view&id=12889&Itemid=1&limit=1&limitstart=1

"Vapor-X cooling is really a gem, as our overclocking and not even setting the fan to run at maximum rpm couldn’t pierce the low noise levels this baby produces. Idle mode results in the card being completely inaudible, and we could almost say the same for 3D."

PCGH_Raffael
2009-04-01, 13:33:56
Bin mal gespannt was die anderen Seiten zum gesunkenen Idle Verbrauch schreiben, laut Gamestar von 90 auf 60W gesunken.

Das haben sie aus einer AMD-Präsentation abgeschrieben.

OK... Aber das sieht doch eher danach aus, also ob hier der 9.4er Treiber für die 4890 auch eine Rolle spielt. PCGH gibt hier hoffentlich einen Einblick.

Wir testen alle Karten mit dem Catalyst 8.592, yep. :)

MfG,
Raff

Spasstiger
2009-04-01, 13:39:19
Auf das Gesamtranking von Gamestar würde ich nix geben. Die 50% Vorteil der HD 4890 OC gegenüber der HD 4870 kommen nur deshalb zu Stande, weil die Gamestar-Redakteure offenbar keine Ahnung von Statistik habe und die Mittelwerte ohne Normierung der Einzelbenchmarks berechnen. Dadurch fließt der UT3-Benchmark mit seinen sehr hohen Frameraten unverhältnismäßig stark ins Rating ein. Und ausgerechnet in UT3 ist die HD 4890 exorbitant schneller als die HD 4870, was imo für Treiberoptimierungen spricht. Die minimale Verbesserung (zusätzlich zu den 8er-Bursts auch 16er-Bursts möglich) am Speicherinterface sollte nicht für derartige Sprünge sorgen, da dadurch ja nur die effektive Speicherbandbreite in manchen Fällen steigt. Und eine leichte Steigerung der Speicherbandbreite führt nicht zu dramatischen Performanceverbesserungen des Gesamtpakets.

Um noch das Ranking bei Gamestar mathematisch korrekt zu halten:
HD 4890 default vs. HD 4870 @ 2560x1600 4xAA
Crysis: Faktor 1,227
Far Cry 2: Faktor 1,323
CoD 4: Faktor 1,170
HAWX: Faktor 1,091
UT 3: Faktor 1,510
Geometrisches Mittel: (1,227*1,323*1,170*1,091*1,510)^0,2=1,26
Das Gamestar-Ranking gibt dagegen einen Faktor 1,32 an, weil man die Einzelbenchmarks nicht gleich gewichtet hat.

AnarchX
2009-04-01, 13:43:35
Trotzdem misst man bei UT3 ja 50%/75%(OC) mehr Frames als bei der 4870.
Für einen Treiber wären 25% Zugewinn trotzdem noch eine ganze Menge, aber hier muss man eben mehr Reviews abwarten, vor allem die qualitativen, die so etwas analysieren. ;)

Spasstiger
2009-04-01, 13:50:17
Für einen Treiber wären 25% Zugewinn trotzdem noch eine ganze Menge
Sowas gabs doch auch letztes Jahr bei sehr hohen Auflösungen mit AA, wenn ich mich recht erinnere. Aber vielleicht verarscht uns die Gamestar auch nur.

pest
2009-04-01, 14:24:29
Geometrisches Mittel: (1,227*1,323*1,170*1,091*1,510)^0,2=1,26
Das Gamestar-Ranking gibt dagegen einen Faktor 1,32 an, weil man die Einzelbenchmarks nicht gleich gewichtet hat.

warum nimmst du das geometrische Mittel?

Spasstiger
2009-04-01, 14:35:26
warum nimmst du das geometrische Mittel?
Weil man dadurch den Abstand zum Ursprung in einem kartesischen Koordinatensystem erhält (in diesem Fall wäre es ein 5-dimensionales Koordinatensystem).
Das geometrische Mittel sollte man immer anwenden, wenn man Verhältnisse mitteln möchte. Genau das liegt hier ja vor.

Ein sauberes Vorgehen, um Rankings von Benchmarks aufzustellen, ist imo folgendes:
---
1. Alle Benchmarkergebnisse normalisieren vom Wertebereich 0 fps bis max. fps im jeweiligen Benchmark auf den Wertebereich 0-1.
Bsp.:
Benchmark 1 liefert 50 fps (Karte A), 70 fps (Karte B) und 100 fps (Karte C) => 50/100=0,5 (Karte A), 60/100=0,7 (Karte B), 100/100=1 (Karte C)
Benchmark 2 liefert 5 fps (Karte A), 20 fps (Karte B) und 25 fps (Karte C) => 5/25=0,2 (Karte A), 20/25=0,8 (Karte B), 25/25=1 (Karte C)
Benchmark 3 liefert 20 fps (Karte A), 40 fps (Karte B) und 50 fps (Karte C) => 20/50=0,4 (Karte A), 40/50=0,8 (Karte B), 50/50=1 (Karte 1)

2. Das geometrische Mittel der normalisierten Benchmarkergebnisse für jede Grafikkarte bilden:
Bsp.:
Karte A: (0,5*0,2*0,4)^(1/3)=0,342
Karte B: (0,7*0,8*0,8)^(1/3)=0,765
Karte C: (1*1*1)^(1/3)=1

3. Auf gewünschte Vergleichskarte normieren, angemessen runden und Resultate in Prozent angeben.
Bsp: Normierung auf Karte A
Karte A: 100%
Karte B: 224%
Karte C: 292%

So würde ich mein Skript zur Berechnung eines Rankings anlegen, wenn ich Hardwareredakteur wäre.

Wenn ich statt dem geometrischen Mittel das arithmetische Mittel nehme, ist das Endresultat folgendes:
Karte A: 100%
Karte B: 209%
Karte C: 273%
Ginge natürlich auch und wäre für die meisten User wohl nachvollziehbarer. Beim geometrischen Mittel werden unterdurchschnittliche Ausreißer halt mehr bestraft, weshalb man darauf achten sollte, nur Benchmarks einfließen zu lassen, bei denen auch wenigstens eine Karte spielbare Ergebnisse liefert. 1 fps vs. 9 fps mögen zwar der einen Karte einen enormen Vorteil bescheinigen, aber davon hat jemand, der eine Echtzeitdarstellung wünscht, letztendlich nichts.

pest
2009-04-01, 15:32:39
Weil man dadurch den Abstand zum Ursprung in einem kartesischen Koordinatensystem erhält (in diesem Fall wäre es ein 5-dimensionales Koordinatensystem).


Der Abstand wenn du die 5 Werte als Punkt-Koord. des 5-dim Raumes betrachtest? sicherlich nicht, oder ich verstehe dich nicht richtig

Das geometrische Mittel berechnet die Seitenlänge eines n-dimensionalen Hyperwürfels für einen "Hyper"quader mit den entsprechenden Seitenlängen (der das selbe Volumen hat)



Das geometrische Mittel sollte man immer anwenden, wenn man Verhältnisse mitteln möchte. Genau das liegt hier ja vor.


dachte ich mir, wollt bloß fragen ob es einen bestimmten grund dafür gibt

Spasstiger
2009-04-01, 15:47:19
Der Abstand wenn du die 5 Werte als Punkt-Koord. des 5-dim Raumes betrachtest? sicherlich nicht, oder ich verstehe dich nicht richtig
Hast natürlich recht, das war Blödsinn. Nicht weit genug gedacht.

Nach meiner Erfahrung sind geometrische Mittelwerte bei der Mittelung von Verhältnissen meist realistischer/näher an der Wahrnehmung.
Was natürlich vollkommener Käse ist, ist das Vorgehen von Gamestar, einfach die Frameraten direkt arithmetisch zu mitteln. Dann werden hohe Frameraten stärker gewichtet als niedrige Frameraten, was der Wahrnehmung natürlich komplett widerspricht. THG macht den gleichen Blödsinn (bei dennen ist das Rating = "sum of framerates").

horn 12
2009-04-01, 18:25:07
@PCGH_Raffael

Habt IHR den Treiber bereits und zu welchem Datum datiert jener?
Ist dies schon der Lauchtreiber der HD4890-er oder kommt da noch was daher... Gut möglich dass dieser HEUTE spätabends daherkommt!

reunion
2009-04-01, 18:46:55
Mittlerweile ab 217€ lieferbar:
http://geizhals.at/eu/a414190.html

dargo
2009-04-01, 18:51:40
Mittlerweile ab 217€ lieferbar:
http://geizhals.at/eu/a414190.html
Link beim ersten Shop tot? Wie dem auch sei, die Karte dürfte sich eh bei guter Verfügbarkeit irgendwo im Bereich von 200€ bewegen. Ich bin echt gespannt wie NV mit der GTX275/285 darauf reagiert. :)

AnarchX
2009-04-01, 18:55:39
AMD Mitarbeiter @ B3D:
Just a quick update. RV790 does *not* support burst memory reads, we had an error in our documentation that will be fixed and updated shortly, sorry about that. Y'all are just too quick scanning through things and finding nuggets like that. ;-) There are some tweaks in RV790, but burst reads is not one of them.

Frank1974
2009-04-02, 06:19:41
Test zur HD4890 + Crossfire und GTX275 - http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/

Test bei PCGH - http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/

edit
Also das die GTX275 schneller sein soll als eine GTX280 glaube ich nicht, wenn ich SLI abschalte und so takte wie die GTX275, dann bin ich immer noch langsamer als eine Standard GTX280, also kann es nur am Treiber liegen, der nur für die GTX275 benutzt wird.

edit2
Bei Crysis Warhead liegt sie sogar ein ganzes Stück vor der GTX285, also ein extra Treiber für die GTX275, die anderen NV Karten sollten auch davon profitieren, wann hören endlich diese Tests auf, wo immer mit unterschiedlichen Treibern gebencht wird(Computerbase), dadurch wird alles nur verschleiert und die neue Karte steht besser da als sie ist, im Vergleich zu den anderen NV Karten.

edit3
Sorry hier geht es ja um die HD 4890:smile:, also auch dazu ein Wort, ein ganz gutes Ergebnis, bei 8xAA wie immer am besten und als Crossfire schneidet es sehr gut ab.

mfg
Frank

reunion
2009-04-02, 07:44:27
Wenigstens wurde die 4870 1GB auch mit dem Cat. 9.3 nachgetestet, womit sie jetzt immer vor der GTX260-216 liegt, welche auch mit einem aktuellen Treiber getestet wurde. Die 4890 liegt wie erwartet noch 11-12% darüber fast exakt auf GTX280-Niveau mit 4AA, welche allerdings mit einer älteren Treiber getestet wurde. Mit 8AA zieht die Radeon selbst an der GTX285 vorbei. Die GTX275 liegt nur minimal hinter der GTX285, wodurch der Preis dieser arg fragwürdig erscheint. Eine 4890 X2 würde die GTX295 schlagen.

Ein Mod könnte mal die Links im Startposting einfügen.

derguru
2009-04-02, 07:55:17
die 4890 sind etwas empfindlicher was die temps angeht(oder vorsichtsmaßnahme),bei last sind die 20°C kühler als noch die 4870 aber leider auf kosten der lautstärke.sonst allles beim alten und keine überraschungen,burst memory reads war wohl ein satz mit X;)

AnarchX
2009-04-02, 08:11:22
http://img9.imageshack.us/img9/9140/4890power2608382.png (http://img9.imageshack.us/my.php?image=4890power2608382.png)

http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0

Das sieht doch schon besser aus.

Hier hingegen nicht:
http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index11.php
... auch direkt gemessen.

Spasstiger
2009-04-02, 08:19:28
Die Gamestar-Benchmarks der HD 4890 scheinen tatsächlich ein Aprilscherz gewesen zu sein. Oder die Gamestar hat einfach nur ein weiteres Mal ihre Inkompetenz in Sachen Hardwarereviews unter Beweis gestellt.

Und wegen GTX 275 schneller als GTX 280 bei Computerbase: Bei denen war auch schon eine GTX 260 OC schneller als eine GTX 280, obwohl bei der GTX 280 OC kein einziges Leistungsmerkmal oberhalb der GTX 280 lag. Dass solche Unstimmigkeiten nicht überprüft werden, finde ich ziemlich schwach von CB.
Generell schlägt sich die HD 4890 gegenüber der GTX 275 besser als erwartet. Mit 8xMSAA und in 2560x1600 mit 4xMSAA schneller als die GTX 275. Einen Vergleich von 16xQ-AA bei NV und 8xMSAA+Edge Detect ("24xAA") hätte ich noch gerne gesehen. Und für Benchmarks mit adaptivem AA bzw. Transparenz-AA bin ich sowieso generell, schließe nutze ich das immer, wenn möglich.

/EDIT: Bei der PCGH gibts ja sogar Benches mit den Custom-Filter-Modi. Und Tests mit einer auf HD-4890-Niveau übertakteten HD 4870 (und nicht umgekehrt mit einer HD 4890 @ HD 4870). :)
Und beim Vergleich der HD 4870 @ HD 4890 vs. HD 4890 kann ich keinen signifikanten Leistungsunterschied sehen. Mal ist die RV770-Karte vorne, mal die RV790-Karte. Die angeblichen Leistungstweaks des RV790 bewegen sich also höchstens im Promillebereich. So wie ich es erwartet hatte.
/EDIT: Beim Wide-Tent-AA und beim adaptiven AA gibts eine leichte Tendenz zu Gunsten des RV790.

Das Fazit aus Leistungssicht ist imo:
8xMSAA (oder höher) oder 2560x1600 mit AA und Toleranz von Frameraten im 20-fps-Bereich => Radeon HD 4890
Bis 1920x1200 mit 4xAA und keine Toleranz für Frameraten im 20-fps-Bereich => GeForce GTX 275

reunion
2009-04-02, 08:20:51
http://img9.imageshack.us/img9/9140/4890power2608382.png (http://img9.imageshack.us/my.php?image=4890power2608382.png)

http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0

Das sieht doch schon besser aus.



Das liegt wohl schlicht daran das die hier getestete 4870 noch ein Modell von ganz am Anfang war. Da gab es inzwischen doch einige Optimierungen auch bei den RV770-Karten.

V2.0
2009-04-02, 08:27:25
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/26/#abschnitt_leistungsaufnahme

Bei CB sieht es auch eher schlecht aus.

Spasstiger
2009-04-02, 08:36:55
Was man in allen Reviews erfreulicherweise feststellen kann:
Die Temperatur ist gegenüber der HD 4870 deutlich gesunken.
Somit sollte auch mehr Spielraum bei der Lüfterregelung bestehen.

V2.0
2009-04-02, 08:46:47
Dafür ist der Lüfter im 3D-Mode auch noch lauter.

Iceman346
2009-04-02, 08:52:34
Jo, während ATi bei den 4870ern mit der Lüftergeschwindigkeit vorsichtig war und Schelte für die Hitze bekommen hat haben sie es nu in die andere Richtung übertrieben. Der Chip bleibt zwar extrem kühl, dafür scheint die Karte extrem laut zu sein.

Mal schauen, kann heute meine Sapphire 4890 von der Post holen, wenn das Teil wirklich so extrem laut ist schick ich sie aber wohl wieder zurück.

Spasstiger
2009-04-02, 09:07:23
Probier aber vor dem Zurückschauen aus, ob man den Lüfter auch manuell regeln kann mit ATI Tool und Co. Wenn der Lüfter auch mit 2000 U/min die Karte in Furmark am Leben hält, kann man zufrieden sein.

http://img9.imageshack.us/img9/9140/4890power2608382.png (http://img9.imageshack.us/my.php?image=4890power2608382.png)

http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0

Das sieht doch schon besser aus.

Hier hingegen nicht:
http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index11.php
... auch direkt gemessen.
Xbitlabs testet mit 3DMark06, ht4u dagegen mit Furmark.

AnarchX
2009-04-02, 09:39:28
Xbitlabs testet mit 3DMark06, ht4u dagegen mit Furmark.
Ich bezog mich auf die Idle-Werte. Bei PCGH hat man auch 60W 4890 und 55W 4870 gemessen.

btw.

Das Geheimnis des größeren Dies:
http://img15.imageshack.us/img15/1648/077894646.png (http://img15.imageshack.us/my.php?image=077894646.png)
http://firingsquad.com/media/hirez.asp?file=/hardware/ati_radeon_4890_nvidia_geforce_gtx_275/images/07.png

Gast
2009-04-02, 10:41:14
Jo, während ATi bei den 4870ern mit der Lüftergeschwindigkeit vorsichtig war und Schelte für die Hitze bekommen hat haben sie es nu in die andere Richtung übertrieben. Der Chip bleibt zwar extrem kühl, dafür scheint die Karte extrem laut zu sein.

Es geht auch schon seit einiger Zeit nicht mehr darum, die GPU auf Temperatur zu halten, das Gebläse arbeitet für die SpaWas.

deekey777
2009-04-02, 11:14:23
Ich bezog mich auf die Idle-Werte. Bei PCGH hat man auch 60W 4890 und 55W 4870 gemessen.

btw.

Das Geheimnis des größeren Dies:
http://img15.imageshack.us/img15/1648/077894646.png (http://img15.imageshack.us/my.php?image=077894646.png)
http://firingsquad.com/media/hirez.asp?file=/hardware/ati_radeon_4890_nvidia_geforce_gtx_275/images/07.png
War es nicht so, dass die ersten HD4870 512 im Idle-Modus auf 500/500 900 MHz heruntergingen, dagegen nur kurze Zeit später auf 160/500 MHz?

PCGH_Raffael
2009-04-02, 11:24:14
War es nicht so, dass die ersten HD4870 512 im Idle-Modus auf 500/500 900 MHz heruntergingen, dagegen nur kurze Zeit später auf 160/500 MHz?

Wir führen ja regelmäßig Marktübersichten durch. Alle aktuellen HD4870-Karten von Sapphire, MSI und Konsorten takten im Leerlauf mit 500 MHz GPU-Takt. 160 MHz finden sich nur bei den HD4850-Boards.

MfG,
Raff

reunion
2009-04-02, 11:25:44
Wie zu erwarten war sind die 4890-Karten sehr gut lieferbar:
http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=4890&v=e&pixonoff=off&bl1_id=100&xf=

Eine Club3D 4890 bekommt man bereits für 96€ X-D.

Ailuros
2009-04-02, 11:37:39
btw.

Das Geheimnis des größeren Dies:

Ich hoffe dass es endlich beantwortet was sie ueber die letzten 9 Monate genau angestellt haben, wieso der die leicht groesser ist und warum der Stromverbrauch trotz 850MHz ein klein bisschen unter der 4870/1GB liegt. Ebenso jeglichen Unsinn der behauptete dass RV790 lediglich eine uebertaktete 770 ist (wobei xbit und INQ ziemlich gute Beispiele dafuer waren).

dargo
2009-04-02, 11:39:51
Wie zu erwarten was sind die 4890-Karten sehr gut lieferbar:
http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=4890&v=e&pixonoff=off&bl1_id=100&xf=

Eine Club3D 4890 bekommt man bereits für 96€ X-D.
Das nenne ich ein Schnäppchen. :biggrin:

Ailuros
2009-04-02, 11:43:13
Wie zu erwarten war sind die 4890-Karten sehr gut lieferbar:
http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=4890&v=e&pixonoff=off&bl1_id=100&xf=

Eine Club3D 4890 bekommt man bereits für 96€ X-D.

Wenn ich so sehe wie die Preise in etwa rangieren bei anderen Haendlern, wuerde es mich kein bisschen wundern wenn jemand hier eine "1" vorne vergessen hat. Was genau verkauft denn dieser "Bestseller Computer" mit 96.00 Euros? Nur den Speicher? :biggrin:

Daredevil
2009-04-02, 12:10:04
Wir führen ja regelmäßig Marktübersichten durch. Alle aktuellen HD4870-Karten von Sapphire, MSI und Konsorten takten im Leerlauf mit 500 MHz GPU-Takt. 160 MHz finden sich nur bei den HD4850-Boards.

MfG,
Raff
Manche 4830er takten auch soweit runter, meine Sapphire z.B. auf 160/250.

Raff
2009-04-02, 12:44:13
Jau, HD 4850 und die 4830, nicht aber die 4870/90.

MfG,
Raff

Gast
2009-04-02, 12:48:15
AMD Radeon HD 4890 CrossFire
http://www.techpowerup.com/reviews/ATI/HD_4890_CrossFire/ :up:

DrFreaK666
2009-04-02, 12:51:52
Da würde sich doch eine X2 4890 anbieten.
Dann könnte man damit werben die schnellste Grafikkarte auf dem markt zu haben

GeneralHanno
2009-04-02, 12:55:07
jo, 4890X2 @furmark :rolleyes:

Gast
2009-04-02, 13:08:39
...leiser Kühler drauf und fertig!
http://www.akasa.co.uk/akasa_english/spec_page/vga_cooler/spec_ak_vc03_bluv.htm

Daredevil
2009-04-02, 13:21:11
...leiser Kühler drauf und fertig...
... ist der Spannungswandler Tod ;)

Gast
2009-04-02, 13:26:42
Wirklich leisere Kühler-Lösungen wären momentan interessanter als das Bissel mehr Leistung ;)

derguru
2009-04-02, 13:36:23
kommt ja auch,sapphire vapor -x soll in ca. 2 wochen kommen und andere werden folgen.

Daredevil
2009-04-02, 13:39:46
Ich frag mich wieso die Hersteller soviel Angst davor haben z.B. nen Accelero zu verbauen, die Elitegroup 8800gt mit Accelero + Turbo Modul war eine spitzen Karte.
Man muss nur ne Kühlplatte für die Spawas+Ram basteln, is doch kein Problem.

knallebumm
2009-04-02, 13:50:28
Einfach die FPS zusammenzuzählen und daraus ein Rating zu basteln ist natürlich eine Frechheit. (habs nicht überprüft)

Sollte man beim Zehnkampf in der Leichtathletik auch so einführen. :ugly:

Bsp. mit 3 Disziplinen: Hochsprung, Weitsprung, Speerwurf

Athlet A: 2,00m 8,00m 60m

Athlet B: 1,30m ;) 4,50m 65m

macht zusammen A: 70m, B: 70,80m .Klar, daß Athlet B den Gesamtsieg verdient :biggrin:

Gast
2009-04-02, 14:36:07
Kann man die Spannungswandler bei den HD4870/HD4890 ohne Kühlung lassen? Bei der X1950 pro geht das noch, obwohl die auch einiges an Strom zieht und weniger Phasen hat.
Ich habe auf einigen Fotos gesehen, dass auf dem Ref.-Design der HD4890 über und unter den Spannungswandlern zwei Montagelöcher sind. Echt praktisch, da habe die an mich gedacht. :D

Daredevil
2009-04-02, 14:41:14
Zumindest bei der 4870 muss man die Spannungswandler aktiv kühlen.

AnarchX
2009-04-02, 15:24:57
The official guide to overclocking the Radeon HD 4890 suggests to set the fan speed slider at 100% in Catalyst Control Center.

Well, this guide must be intended for deaf computer enthusiasts because if you follow the advice, the card sets the record of producing the highest noise we’ve ever heard in our tests. Over 64dBA at a distance of 1 meter from the system case is too much to be near the computer for a long time unless you wear protective earpieces.
http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0
;D

Iceman346
2009-04-02, 15:52:15
http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0
;D

Da kann ich nur ACK zu sagen, bereits bei 40% ist der Lüfter deutlich über mein, nicht unbedingt leises, System zu hören (ungefähr auf dem Level wie wenn mein DVD Laufwerk voll hochdreht), bei 100% gehts garnicht mehr.

Mal schauen wie laut die Karte im normalen Spielbetrieb so wird, bei Furmark geht der Lüfter so knapp auf 40%.

Gast
2009-04-02, 16:03:16
Da kann ich nur ACK zu sagen, bereits bei 40% ist der Lüfter deutlich über mein, nicht unbedingt leises, System zu hören (ungefähr auf dem Level wie wenn mein DVD Laufwerk voll hochdreht), bei 100% gehts garnicht mehr.

Mal schauen wie laut die Karte im normalen Spielbetrieb so wird, bei Furmark geht der Lüfter so knapp auf 40%.

Furmark solltest du auf aktuellen Ati Karten garnicht zum testen nehmen.;)

Das war nicht negativ gemeint.

Iceman346
2009-04-02, 16:13:02
Na ja, bei Spielen ist sie deutlich leiser. Bei Fallout 3 in 1920x1200 mit 8xAA/16xAF (knapp unter Spielbarkeit leider, 4xAA muss wohl doch reichen) und maximalen Details ist die Karte zwar aus meinem System raushörbar, aber nicht wirklich lauter als die Gehäuselüfter.
Beim älteren Vampire Bloodlines hör ich sie garnicht über das System.

Mal nen bisschen weitertesten.

BlackBirdSR
2009-04-02, 17:00:55
So nebenbei, falls das noch keiner bemängelt hat:

Ist jemand aufgefallen, dass viele Seiten CUDA und PhysX in den ATi/NV Vergleich mit einbezogen haben? Ist das eine Vorgabe?

LovesuckZ
2009-04-02, 17:07:45
So nebenbei, falls das noch keiner bemängelt hat:

Ist jemand aufgefallen, dass viele Seiten CUDA und PhysX in den ATi/NV Vergleich mit einbezogen haben? Ist das eine Vorgabe?

Vorschlag. ;)
Laut Anandtech.com sind ca. 3/5 aller Folien über Cuda/PhysX...

http://www.anandtech.com/video/showdoc.aspx?i=3539&p=7

BlackBirdSR
2009-04-02, 17:20:44
Vorschlag. ;)
Laut Anandtech.com sind ca. 3/5 aller Folien über Cuda/PhysX...

http://www.anandtech.com/video/showdoc.aspx?i=3539&p=7
Danke;
Die Seite muss ich überlesen haben. Das ist schon ein starkes Stück Marketing :)
Aber warum auch nicht... über die GPU selbst gibt es ja nicht viel neues zu erzählen.

AnarchX
2009-04-02, 17:22:59
Aber warum auch nicht... über die GPU selbst gibt es ja nicht viel neues zu erzählen.
... bzw. bestimmte Fakten verschweigt man besser:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7211535#post7211535
;)

Ailuros
2009-04-02, 18:31:29
Danke;
Die Seite muss ich überlesen haben. Das ist schon ein starkes Stück Marketing :)
Aber warum auch nicht... über die GPU selbst gibt es ja nicht viel neues zu erzählen.

Hat irgend jemand die slides die D3D11 betreffen?

Spasstiger
2009-04-02, 18:50:49
http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0
;D
Kann ich nachvollziehen. Meine HD 2900 Pro kann ich mit max. 4610 U/min drehen lassen. Und das gleicht schon einem startendem Flugzeug. Bei min. Drehzahl (1500 U/min) ist die Karte dagegen so leise, dass sogar meine Festplatten (zwei Seagate 7200.10 320 GB) im idle die Grafikkarte übertönen.

HD-Ronny
2009-04-02, 19:26:07
Furmark solltest du auf aktuellen Ati Karten garnicht zum testen nehmen.;)

Das war nicht negativ gemeint.

Blödsinn. Hab in furmark gerade mal 76° GPU (mit umbenannter exe ). Die Spannungswandler werden halt zusätzlich von einen Lüfter angepustet und gut is.

http://www.abload.de/thumb/furmark_000026iipv.jpg (http://www.abload.de/image.php?img=furmark_000026iipv.jpg)

Gast
2009-04-02, 20:35:39
Blödsinn. Hab in furmark gerade mal 76° GPU (mit umbenannter exe ). Die Spannungswandler werden halt zusätzlich von einen Lüfter angepustet und gut is.

http://www.abload.de/thumb/furmark_000026iipv.jpg (http://www.abload.de/image.php?img=furmark_000026iipv.jpg)
Kann ja sein das der furmark auch läuft.Bei Spielen ist aber oft eine höhere übertaktung möglich.Deswegen sollte man den furmark meiden bei aktuellen ati Karten.;)

Gast
2009-04-02, 21:29:14
Meine HD2600pro@800/550 hängt sich so übertaktet in Furmark auf (Temps um 35°C), trotzdem laufen alle Spiele absolut stabil und ich spiele so schon seit Monaten ...

Gast
2009-04-02, 21:39:50
Hat irgend jemand die slides die D3D11 betreffen?

Since ATI had some claims about DX10.1 performance in Hawx, we decided to put them to the test. Lo and behold, the change over to DX10.1 gave us all the bangs and whistles of the DX10 yet provided a huge boost in performance for the HD 4890. As you can see by the charts, normally ATI’s new card would be trailing the GTX 275 but with DX10.1 enabled performance shoots through the roof. Hopefully, more developers will begin implementing DX10.1 into their games if it means this kind of performance boost.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/16365-sapphire-radeon-hd-4890-1gb-review-20.html
Gr. :up:

Gast
2009-04-02, 21:42:41
http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index7.php

Die HD4890 scheint wohl auch Probleme mit zu heißen Spannungswandlern zu haben.

Spasstiger
2009-04-02, 22:44:12
Kann ja sein das der furmark auch läuft.Bei Spielen ist aber oft eine höhere übertaktung möglich.Deswegen sollte man den furmark meiden bei aktuellen ati Karten.;)
Das wäre mir zu vage. Meine Grafikkarte sollte jede Direct3D- und OpenGL-Applikation ohne Stabilitätsprobleme meistern. 99% stabil heißt nämlich, dass die Kiste doch irgendwann mal abschmiert, wenn man es gerade nicht gebrauchen kann.

Undertaker
2009-04-02, 22:52:40
Wenigstens wurde die 4870 1GB auch mit dem Cat. 9.3 nachgetestet, womit sie jetzt immer vor der GTX260-216 liegt, welche auch mit einem aktuellen Treiber getestet wurde.

Die Vorteile des Treibers der 275GTX in Zahlen:

http://www.pcgameshardware.de/aid,680537/Geforce-18563-Beta-Nvidia-Grafikkartentreiber-im-Test/Grafikkarte/Test/

Der 1% Rückstand (1680x1050 4x/16x) zur 4870 1GB dürfte sich mit diesem in einen Rückstand von ~3-5% wandeln - einer der größten Treibersprünge der letzten Zeit, gerade in Warhead. Mal schauen, wann die WHQL Version kommt.

Spasstiger
2009-04-02, 22:58:04
Ich finds immer wieder erstaunlich, wie die IHVs beim Erscheinen von neuen Varianten aus dem eigenen Haus oder bei der Konkurrenz immer wieder derartige Leistungssteigerungen per Treiber aus dem Ärmel schütteln. Wer weiß, was da ständig in den Laboren zurückgehalten wird, nur damit man bei den entscheidenden Releasebenchmarks gut da steht.

y33H@
2009-04-02, 22:58:06
Bisher lag die HD4870/1G n Tick vor der GTX 260-216, der 185er dreht das Verhältnis.

crux2005
2009-04-02, 22:59:41
Hat irgend jemand die slides die D3D11 betreffen?

ja, kann dir PM schicken, wenn du willst ;)

... bzw. bestimmte Fakten verschweigt man besser:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7211535#post7211535
;)

hm, so sieht es leider aus, btw wurden ~180W TDP fuer die GTX 275 genannt

PulsarS
2009-04-02, 23:02:17
http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index7.php

Die HD4890 scheint wohl auch Probleme mit zu heißen Spannungswandlern zu haben.
Dir ist aber schon aufgefallen, dass sie erwähnen, dass sie ein defektes Muster erwischt haben?

Wobei mich als Endkunde die heißen Spannungswandler der 4890er weniger kümmern würden (da Garantie), als das Spulenfiepen der GTX275, welches seit der 55nm Generation nerven kann:
http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3

außerdem ist die die Vermutung der PCGH, dass weniger gute GT200-GPUs für die GTX275 mit mehr Spannung eingesetzt werden auch nicht so der Bringer :(

Vorschlag. ;)
Laut Anandtech.com sind ca. 3/5 aller Folien über Cuda/PhysX...

http://www.anandtech.com/video/showdoc.aspx?i=3539&p=7
Wenn man weiß, dass man sonst nicht viel punkten kann... :D
Die meisten Gamer interessiert es ja nicht wirklich, aber als Randnotiz ganz interessant. :)

Ich habe mir einige Tests durchgelesen und muss sagen, dass die 4890er recht ordentlich ist.
Spricht mich persönlich mehr an als die GTX275. :)

edit:
Das wäre mir zu vage. Meine Grafikkarte sollte jede Direct3D- und OpenGL-Applikation ohne Stabilitätsprobleme meistern. 99% stabil heißt nämlich, dass die Kiste doch irgendwann mal abschmiert, wenn man es gerade nicht gebrauchen kann.
Naja, wenn mit 99% alle Spiele gemeint sind, dann reicht mir das.
Der Furmark ist leider totall praxisfremd.
Der Lüfter meiner 9600GSO dreht beim Furmark in sehr kurzer Zeit extrem hoch und die Temp schnellt innerhalb weniger Sekunden in die Höhe.
Das konnte ich bislang bei keinem einzigen Spiel - zuletzt Bioshock getestet - auch nur annähernd beobachten (Monitoring über Rivatuner).
Deswegen lassen mich auch die Werte der Verlustleistung beim Furmark ziemlich kalt, denn ich spiele kein Furmark :tongue:

y33H@
2009-04-02, 23:06:03
Wobei mich als Endkunde die heißen Spannungswandler der 4890er weniger kümmern würdenAngeblich regelt sich der Lüfter nach den VRM-Temps und nicht mehr nach den GPU-Werten. Trotz einer Phase mehr und mehr Oberfläche der Grundplatte wirds "dank" 850 MHz recht hitzig, wenn man den Lüfter drosselt.als das Spulenfiepen der GTX275, welches seit der 55nm Generation nerven kannZockst du Crysis-Hauptmenü? Ich nicht. Und bei CSS und Co wird SSAA drauf gedrückt. Die Fieperei wird maßlos überbewertet. Zumal schon eine 88GTX oder HD3850 fiepte - wenngleich leiser.

Gast
2009-04-03, 00:12:38
Zockst du Crysis-Hauptmenü?
Genau damit heizt du die Fiep Diskussion weiter an.

Setze weiter vorne an, bei Crysis fiept praktisch alles. Durch deine Aussagen ensteht der Eindruck, es würde sich auf GTX 2x5 oder gar alle GTX 2xx beschränken.

Gast
2009-04-03, 00:14:01
Naja, wenn mit 99% alle Spiele gemeint sind, dann reicht mir das.
Der Furmark ist leider totall praxisfremd.
Manch einer spielt auch mal 1% der Spiele.

Was ist deiner Meinung nach praxisnah?

PulsarS
2009-04-03, 00:23:54
Manch einer spielt auch mal 1% der Spiele.
Du hast nicht verstanden, was ich sagen wollte... :wink:

Wenn ALLE Spiele in die 99% der 3D-Anwendungen fallen, dann ist es für mich ok.

Was ist deiner Meinung nach praxisnah?
Spiele und Anwendungen (HDTV-Decoding usw...).
Synthetische Benchmarks zähle ich nicht dazu.

Gast
2009-04-03, 00:28:53
Wenn ALLE Spiele in die 99% der 3D-Anwendungen fallen, dann ist es für mich ok.
Was nun nicht der Fall ist.
Spiele können sehr hohe Auslastungen hervorrufen.

Spiele und Anwendungen (HDTV-Decoding usw...).Ich will konkrete Beispiele.
Auch um diese kritisieren zu können.

y33H@
2009-04-03, 00:30:07
Durch deine Aussagen ensteht der Eindruck, es würde sich auf GTX 2x5 oder gar alle GTX 2xx beschränken.Äh ... nein:Zumal schon eine 88GTX oder HD3850 fiepteIm Menü bei Crysis fiept wie du sagst alles rum ...

Gast
2009-04-03, 00:34:10
Äh ... nein:Im Menü bei Crysis fiept wie du sagst alles rum ...
Ok, 2 Sätze später hast du 2 Beispiele genannt. :)

Wenn auch der Eindruck entsteht, eine GTX 2xx würde auf jeden Fall schlimmer als alle anderen Karten fiepen.


Hat PCGH nicht mal Interesse einen netten Fiep Round-Up zu starten? ;)

y33H@
2009-04-03, 00:38:52
Wenn auch der Eindruck entsteht, eine GTX 2xx würde auf jeden Fall schlimmer als alle anderen Karten fiepen.Hast du mal eine bis ans Limit getaktete EVGA GTX 285 FTW gehört? Das Teil klingt, als ob es gleich platzt. Nervig ists bei allen Karten, "mehr nervig" gibts nicht. Entweder es suckt (fiept) oder halt nicht. So empfinden das zumindest meine Ohren.Hat PCGH nicht mal Interesse einen netten Fiep Round-Up zu starten? Ich wollt mal versuchen, das Fiepen so zu beeinflussen, dass ich ne Melodie spielen kann - und wenns nur "We'll rock U" ist ;D

Gast
2009-04-03, 09:54:18
Hey Leute! Hat jemand von euch ne Wasserkühlung auf den Mosfets der HD4870/HD4890 drauf? Wo bekomme ich die? Nen GPU-only-Kühler habe ich schon, brauch nur noch einen für die Spannungswandler.

Gast
2009-04-03, 09:56:42
Äh ... nein:Im Menü bei Crysis fiept wie du sagst alles rum ...

Meine HD 4850 fiept nicht. Auch im Crysis Menu nicht. Von daher kann ich deine Aussage nicht einfach kommentarlos stehen lassen.

GeneralHanno
2009-04-03, 10:03:09
Angeblich regelt sich der Lüfter nach den VRM-Temps und nicht mehr nach den GPU-Werten. Trotz einer Phase mehr und mehr Oberfläche der Grundplatte wirds "dank" 850 MHz recht hitzig, wenn man den Lüfter drosselt.Zockst du Crysis-Hauptmenü? Ich nicht. Und bei CSS und Co wird SSAA drauf gedrückt. Die Fieperei wird maßlos überbewertet. Zumal schon eine 88GTX oder HD3850 fiepte - wenngleich leiser.

WENN die 4890 lüftersteuerung nach der VRM temp geregelt würde, dann hieße es, dass es dort auch einen sensor zum auslesen geben muss (was z.zt. leider noch KEIN programm kann). ergo: 4890 hat temp-sensoren an den VRMs ?!?

bei den referenzlüftern geht das fiepen in den hohen drehzahlen unter, aber wenn man z.b. einen alternativen kühler montiert, dann kann das schon nerven.

y33H@
2009-04-03, 10:17:02
Meine HD 4850 fiept nicht.Was für eine genau? Mal das Ohr direkt an die VRMs gehalten?4890 hat temp-sensoren an den VRMs?!Wie gesagt - angeblich. Das würde auch die unter 80° GPU-Temp im Furmark und die üble Lautstärke erklären.

Iceman346
2009-04-03, 10:23:16
Von unter 80°C GPU Temperatur in Furmark kann ich nicht berichten. Allgemein ist die 4890 die ich hab deutlich heißer als die Computerbase Werte.

Hab nen LianLi PC7-II welches ja eigentlich nicht so schlecht durchlüftet ist und in Furmark geht die GPU Temperatur auf ~85°C und der Lüfter auf brüllend laute 45%. Bei Spielen bleibt die Temperatur normalerweise im tiefen 70er Bereich und der Lüfter dreht so bei 35% was raushörbar aber nicht extrem laut ist.

Gast
2009-04-03, 10:39:10
Von unter 80°C GPU Temperatur in Furmark kann ich nicht berichten. Allgemein ist die 4890 die ich hab deutlich heißer als die Computerbase Werte.

Computerbase hat bestimmt einen vollklimatisierten Testraum. Das kann gar nicht anders sein, sonst würden die Absolutwerte bei Kühlerreviews dort keinerlei Sinn machen und sie müssten wie andere Redaktionen die Differenzen zur Umgebungstemperatur angeben.

Gast
2009-04-03, 10:56:15
Computerbase hat bestimmt einen vollklimatisierten Testraum.
Das ist das Tolle.
-voll klimatisiert auf eine angehme Temperatur
-sehr gut belüftetes System
-vollkommen sauberes System und Kühler
-das nicht extrem fordernde Crysis verwendet

Unterm Strich sind die Werte höchstens schön zum vergleichen, aber wertlos für allgemeine thermische Schlüsse.

Gast
2009-04-03, 12:47:40
Unterm Strich sind die Werte höchstens schön zum vergleichen, aber wertlos für allgemeine thermische Schlüsse.
Diese Tests werden ja gerade dafür gemacht, um die Temps zu vergleichen. Sollte doch jedem klar sein, dass die Werte zuhause anders ausfallen werden. Aber nur bei einer konstanten Umgebung ist es möglich, die Temperaturen verschiedener Karten direkt zu vergleichen. Was erwartest du?

Iceman346
2009-04-03, 12:54:34
Das die Werte anders ausfallen ist klar, auf den ersten Blick ist die Differenz halt riesig, wobei Furmark zu Crysis durchaus nochmals nen gute Unterschied sein dürfte.
Beim normalen Spielen komm ich ja auch kaum über 70°C, liege dann also nur minimal über den Computerbase Werten.

Fragschön
2009-04-03, 13:39:59
Aber nur bei einer konstanten Umgebung ist es möglich, die Temperaturen verschiedener Karten direkt zu vergleichen. Was erwartest du?
Und? Haben sie jetzt bei CB diesen klimatisierten Testraum mit garantiert konstanter Temperatur über alle Tests?

:confused:

ftw
2009-04-03, 15:41:39
Wann darf man denn etwa mit leiseren 2-Lüfter-Versionen der 4890 rechnen?

http://salzburg.com.geizhals.at/img/pix/365732.jpg

Gast
2009-04-03, 15:53:23
Das die Werte anders ausfallen ist klar, auf den ersten Blick ist die Differenz halt riesig, wobei Furmark zu Crysis durchaus nochmals nen gute Unterschied sein dürfte.
Beim normalen Spielen komm ich ja auch kaum über 70°C, liege dann also nur minimal über den Computerbase Werten.
Warum startest du dann furmark wenn die SPiele laufen?Du könntest vielleicht noch einbisschen mehr aus deiner Karte rauskitzeln wenn du denn furmark meidest.Auf aktuellen Ati Karten ist furmark nicht empfehlenswert.

Das war nicht negativ gemeint-

Gast
2009-04-03, 15:57:04
Warum startest du dann furmark wenn die SPiele laufen?Du könntest vielleicht noch einbisschen mehr aus deiner Karte rauskitzeln wenn du denn furmark meidest.Auf aktuellen Ati Karten ist furmark nicht empfehlenswert.

Das war nicht negativ gemeint-
Vorallem vernichtet der furmark auf aktuellen Karten das taktpotenzial.

ZB:Bei Spielen läuft die Karte mit 950 mhz.Bei furmark gibt es schon ein freeze bei 920 mhz.Deswegen ist ganz wichtig nicht den furmark zu nehmen wenn man übertakten will.

y33H@
2009-04-03, 16:06:32
Wenn die Karte mit OC im Fur wegknickt, ist der Takt halt nicht stable ...

Gast
2009-04-03, 16:10:38
Ist halt wie Prime, nicht jeder legt wert auf ein stabiles System.

Ich kanns nicht nachvollziehen, aber was solls.

Gast
2009-04-03, 19:02:02
Wenn die Karte mit OC im Fur wegknickt, ist der Takt halt nicht stable ...
Wenn Spiele aber mit den takt laufen ist es doch egal ob die Karte beim furmark abstürzt oder nicht.;)

Gast
2009-04-03, 19:17:42
Wenn Spiele aber mit den takt laufen ist es doch egal ob die Karte beim furmark abstürzt oder nicht.;)
Du kannst nicht beurteilen ob sie fehlerfrei laufen.

pXe
2009-04-03, 19:49:30
Wenn Spiele aber mit den takt laufen ist es doch egal ob die Karte beim furmark abstürzt oder nicht.;)

Spiele? Na ja, wenn man sich unbedingt die Mühe machen will JEDES Spiel in JEDER möglichen Szene durchzuspielen (denn nur dann kann man sagen das ist stabil zum spielen)...
Entweder läuft die Karte stabil oder nicht stabil, ein bißchen Schwanger gibs auch net.


pXe

horn 12
2009-04-03, 20:06:45
Komischer Test, HIER kann man die Unterschied sofort sehen von einer Graka zur anderen in %

http://www.hwupgrade.it/articoli/skvideo/2176/geforce-gtx-275-e-radeon-hd-4890-nuovo-testa-a-testa_index.html

Gast
2009-04-03, 22:11:54
Spiele? Na ja, wenn man sich unbedingt die Mühe machen will JEDES Spiel in JEDER möglichen Szene durchzuspielen (denn nur dann kann man sagen das ist stabil zum spielen)...
Entweder läuft die Karte stabil oder nicht stabil, ein bißchen Schwanger gibs auch net.


pXe
Alle spiele laufen mit dem takt.;)Nur beim Furmark gibts abstürze.Am besten selbts testen.

pXe
2009-04-03, 22:25:36
Alle spiele laufen mit dem takt.;)Nur beim Furmark gibts abstürze.Am besten selbts testen.

Nochmal: Hast du ALLE(!!!) Spiele GANZ(!!!) ausprobiert?
Ich glaube eher nicht...


pXe

y33H@
2009-04-03, 22:30:28
Wenn Spiele aber mit den takt laufen ist es doch egal ob die Karte beim furmark abstürzt oder nichtWenn die Karte in einer Applikation aufgrund zu hoher Clocks abstürzt, sind diese zu hoch. Ich würde die Karte so nicht betreiben - rockstable FTW. Ok, benchstable für Tests ist ok, aber nicht für den Zocker-Einsatz im Privat-Rechner.

Daredevil
2009-04-03, 22:44:00
Wenn die Karte in einer Applikation aufgrund zu hoher Clocks abstürzt, sind diese zu hoch. Ich würde die Karte so nicht betreiben - rockstable FTW. Ok, benchstable für Tests ist ok, aber nicht für den Zocker-Einsatz im Privat-Rechner.
Du testest deinen PC hier und es läuft, du nimmst ihn mit in die Wüste und er überhitzt, ist dein PC dann rockstable?

Dann wirst du nun sagen "Wüste ist ja auch total was anderes und total irrelevant", richtig, ist der FurMark auch! ;)
Denn er belastet ein System so stark wie es kein Spiel belastet, wie die Hitze in der Wüste.

PulsarS
2009-04-03, 22:49:39
Alle spiele laufen mit dem takt.;)Nur beim Furmark gibts abstürze.Am besten selbts testen.
Meine Rede.
Nur wollen es hier einige wohl nicht kapieren, dass es zur Zeit kein einziges Spiel gibt, welches auch nur annähernd die Grafikkarte so ausreizt wie der Furmark. Falls es doch eins geben sollte, dann her damit, damit es auch alle nachtesten und nachvollziehen können.
Ich zumindest habe bis jetzt keins gefunden.
Ich wette es gibt kein einziges. :tongue:
Lasse mich aber gern eines Besseren belehren. :)

Du kannst nicht beurteilen ob sie fehlerfrei laufen.
Klar kann man das.
Wenn es keine Bildfehler gibt und/oder die Kiste nicht abschmiert, dann läuft das Spiel stabil.
Mit dem Wort fehlerfrei wäre ich an deiner Stelle vorsichtig, denn fehlerfrei ist nicht gleich stabil. Durch mathematische Rundung kann es zu minimalen Fehlern kommen, die aber niemand bemerkt, da sie weder sichtbar sind (also die Bildqualität nicht beeinflussen), noch dadurch das System instabil wird.
Rundungsfehler nimmt man manchmal bei der Programmierung auch in Kauf, wenn sie das gewünschte (hier visuelle) Ergebnis nicht beeinflussen, man sich dadurch aber Rechenarbeit sparen kann.
Nichts ungewöhnliches. :)

Iceman346
2009-04-03, 22:54:31
Ich hab mich nu entschieden: Die 4890 geht wieder zurück.

Bis 30% ist der Lüfter nicht wirklich über mein System hörbar, darüber gibts aber sofort nen deutlich bemerkbares Brummen, welches einfach nervig ist und sobald man in Spielen AA/AF aktiviert hat pendelt die Karte normalerweise so um 32-35% Lüftergeschwindigkeit bei entsprechender Lautstärke.

Hab nun das gemacht was ich von Anfang an hätte machen sollen: Mir ne Sapphire 4870 Toxic bestellt.

y33H@
2009-04-03, 22:56:50
Denn er belastet ein System so stark wie es kein Spiel belastet, wie die Hitze in der Wüste.Schlechter, nein gar kein Vergleich. Btw ist meine Kühlung stark genug um auch bei 30° noch zu funzen ;)

Gast
2009-04-03, 23:08:45
Nochmal: Hast du ALLE(!!!) Spiele GANZ(!!!) ausprobiert?
Ich glaube eher nicht...


pXe

Meine Karte läuft schon seit über 8 Monaten mit dem takt bei Spielen.Furmark läuft damit nicht.....

Gast
2009-04-03, 23:10:02
Nur wollen es hier einige wohl nicht kapieren, dass es zur Zeit kein einziges Spiel gibt, welches auch nur annähernd die Grafikkarte so ausreizt wie der Furmark.

Denn er belastet ein System so stark wie es kein Spiel belastet, wie die Hitze in der Wüste.
Zu 95% falsch.


Ich zumindest habe bis jetzt keins gefunden.
Ich wette es gibt kein einziges.
Guck dich mal um, surf als erstes mal ht4u an.


Klar kann man das.
Wenn es keine Bildfehler gibt und/oder die Kiste nicht abschmiert, dann läuft das Spiel stabil.Problem an der Sache ist, das du (wie oben schon angesprochen wurde) jedes Spiel in jeder Position testen musst, um diese Aussage zu treffen.

Gast
2009-04-03, 23:11:10
Meine Karte läuft schon seit über 8 Monaten mit dem takt bei Spielen.Furmark läuft damit nicht.....
Deswegen verzichte ich auch schon seid 9 moaten auf den furmark.Warum zur hölle soll ich angst haben wenn der takt bei jeden spiel läuft.Ich werd doch keine weichen knie bekommen nur weil mir so ein tool was anderes sagt.

Der Furmark ist für aktuelle ati karten nich geeignet...

y33H@
2009-04-03, 23:16:53
Der Furmark ist für aktuelle ati karten nich geeignetUmgekehrt ;D

Gast
2009-04-03, 23:21:14
Warum zur hölle soll ich angst haben wenn der takt bei jeden spiel läuft.
Jedes Spiel in jeder Einstellung in jeder Stellung getestet?
Respekt.
Besonders die Spiele die erst morgen erscheinen haben Spass gemacht, gell?

Daredevil
2009-04-03, 23:21:34
Bei meiner HD4830 isses sogar so das FurMark keinerlei Probleme macht ( Max 65°C ), aber Crysis regelmäßig mit dem Takt abschmiert, FurMark belastet einfach nur Abnormal Thermisch, einen Artefakt Scanner o.ä. ersetzt das ding nicht.

@y33H@
Dann betreibst du deine Hardware halt nicht am Maximum, aber du weißt ganz genau was ich damit sagen wollte.
Zudem hat keine ATI Karte ein generelles Problem mit dem FurMark, nur wenn man selbst Hand anlegt mit einem neuen Kühler oder den Takt erhöht gehen die SpaWas in den Kritischen Bereich.

Gast
2009-04-03, 23:26:59
Zudem hat keine ATI Karte ein generelles Problem mit dem FurMark
Weil ATI aus dem Markt ausgeschieden ist?
Zumindest AMDs Partner haben einige Radeon Karten am Markt, die Furmark oder Spieleuntauglich sind.

Daredevil
2009-04-03, 23:31:32
Ist das ein problem von ATI?
Wenn die sich nicht an die Kühlnotwendigtkeit des Referenz Designs halten is das deren pech.
Es gibt auch Übertaktete Karten, sei es von ATI oder Nvidia die instabil laufen weil ein Partner ne tolle OC Version rausbringen musste, wo der OC Takt aber garnicht stabil läuft.

Gast
2009-04-03, 23:36:33
Stimmt, das Referenzdesign ist problemlos.
Unter Laborbedingungen:
-klimatisierter Raum
-staubfreier Raum
-offenes Testsystem
werden die VRMs im Furmark nur exakt so warm, wie es die Spezifikation erlaubt.
Kein Grund zur Sorge.

Außerdem ist es scheissegal, wer schuld ist, es gibt diese Herstellereigene Versionen am Markt.
Sie laufen unter dem Namen Radeon.

PulsarS
2009-04-03, 23:41:06
Zu 95% falsch.
Nur eine Behauptung von dir, die du nicht belegen kannst. :tongue:

Guck dich mal um, surf als erstes mal ht4u an.
Falls du Bioshock meinst, dann bist du auf dem Holzweg.
Furmark erzeugt bei mir innerhalb von weniger als einer Minute höhere Temps als Bioshock nach stundenlangem Zocken.
Und den Zusammenhang Temperatur/Verlustleistung muss ich dir wohl nicht noch extra erklären...:D

Problem an der Sache ist, das du (wie oben schon angesprochen wurde) jedes Spiel in jeder Position testen musst, um diese Aussage zu treffen.
An dieser Aussage merkt man, dass du keine Ahnung hast, was eine Grafikkarte wirklich belastet.
Ein kurzer Peak in einem Spiel ist nicht weiter tragisch.
Schlimm für die Grafikkarte ist eine konstante und extrem hohe Belastung wie es eben zur Zeit nur der Furmark zustande bringt.
Ich behaupte einfach, dass KEIN einziges Spiel das so in der Art schafft.

Aber wie gesagt ich bin für konkrete Beispiele von Spielen offen, damit ich es selber nachtesten kann. :)
Nur glaube ich nicht, dass mir irgendjemand so ein Beispiel liefern kann, da ich es schlicht für unmöglich halte, dass ein Spiel über einen längeren Zeitraum eine konstante und extrem hohe Belastung für die Grafikkarte darstellt, da ein Spiel eben nicht nur aus Grafik besteht. :wink:

Gast
2009-04-03, 23:50:00
Jedes Spiel in jeder Einstellung in jeder Stellung getestet?
Respekt.
Besonders die Spiele die erst morgen erscheinen haben Spass gemacht, gell?
Alle Spiele laufen auf meiner 4870 schon seid 9 monaten problemlos mit übertaktung.Beim furmark bekomme ich schon nach 2 Minuten ein vpu recover...Warum sollte ich dann furmark vertrauen wenn bei mir jedes spiel läuft=?Der Furmark ist für aktuelle Ati Karten einfach nicht geeignet wegen den spannungswandlernproblemen.