PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4890: (P)Review-Thread


Seiten : 1 [2] 3 4 5

Gast
2009-04-03, 23:54:17
Alle Spiele laufen auf meiner 4870 schon seid 9 monaten problemlos mit übertaktung.Beim furmark bekomme ich schon nach 2 Minuten ein vpu recover...Warum sollte ich dann furmark vertrauen wenn bei mir jedes spiel läuft=?Der Furmark ist für aktuelle Ati Karten einfach nicht geeignet wegen den spannungswandlernproblemen.
Beim frmark werden die spawas werte gleich nach einer minute über 125 c warm.Dann gibt es ein vpu recover.Bei Spielen werden die vdcc werte aber nur höchstens 110 C warm.Warum sollte ich dann den furmark als messtoleranz nehmen=?Meine 4870 läuft bei jeden spiel ja mit 850 mhz..Ich werde die Karte jetzt bestimmt nicht untertakten weil furmarkn schon bei 800 mhz abkrazt.;)

Gast
2009-04-03, 23:58:41
Alle Spiele laufen auf meiner 4870 schon seid 9 monaten problemlos mit übertaktung.Beim furmark bekomme ich schon nach 2 Minuten ein vpu recover...Warum sollte ich dann furmark vertrauen wenn bei mir jedes spiel läuft=?Der Furmark ist für aktuelle Ati Karten einfach nicht geeignet wegen den spannungswandlernproblemen.
Ersetze wenigstens "alle Spiele" mit "von mir getesteten Spieleszenen"


Falls du Bioshock meinst, dann bist du auf dem Holzweg.
Nicht jede Bioshock Szene ist gleich.

An dieser Aussage merkt man, dass du keine Ahnung hast, was eine Grafikkarte wirklich belastet.
Ein kurzer Peak in einem Spiel ist nicht weiter tragisch.
Schlimm für die Grafikkarte ist eine konstante und extrem hohe Belastung wie es eben zur Zeit nur der Furmark zustande bringt.
Ich behaupte einfach, dass KEIN einziges Spiel das so in der Art schafft.
Man merkt das du meinen Beitrag nicht gelesen hast.
Natürlich kann Furmark stabil laufen, während andere Anwendungen schon längst im Strahl kotzen.

Das Wort belasten hat viele Bedeutungen, nicht nur die der maximalen GPU/GPU-VRM Temperatur.

HD-Ronny
2009-04-04, 00:08:57
Umgekehrt ;D

Dito. Entweder die Karte packt den Furmark, wenn nicht dann isses fürn popo. Wenn sie Furmark packt hat man mit ruhigen gewissen im Alltag noch ein dickes Polster.Allerdings seh ich auch 30min burnin als ausreichend an.

Daredevil
2009-04-04, 00:17:53
Stimmt, das Referenzdesign ist problemlos.
Unter Laborbedingungen:
-klimatisierter Raum
-staubfreier Raum
-offenes Testsystem
werden die VRMs im Furmark nur exakt so warm, wie es die Spezifikation erlaubt.
Kein Grund zur Sorge.
.

Ht4u misst bei der HD4890 ~80°C nach 30 sek im Furmark, sie haben allerdings eine defekte Karte erwischt, würd mich mal interessieren wie die so länger aushält.
Aber trotzdem, du übertreibst Maßlos.
125°C erlaubt die Spezifikation, mit Referenzkühlung und normaler Taktung erreicht man sowas nie, die SpaWas von nem Freund wurden bei geschlossenem Gehäuse max. 105°C heiß mit Referenzkühlung, nun habe ich dort den Arctic TwinTurbo verbaut und habe die rote Backplate draufgelassen und die Temperatur ist um 5°C unter Last gesunken + die Karte ist deutlich leiser, allerdings muss man nun den Kühler höher drehen lassen, auch wenn die GPU Temp nicht im Kritischen Bereich ist, ich sag ja nicht das das SpaWa Problem nicht da ist, nur es wird endlos übertrieben wie z.B. von dir und manche beschweren sich dann warum ihre tollen Accelero Kühl Konstrukionen mit winzigem SpaWa Kühler nicht funktionieren und über den Jordan gehen.

@ HD-Ronny
Meine HD4830 ist FurMark stable und Crysis stürzt trotzdem ab, erklär mir das. :)

Gast
2009-04-04, 00:33:56
125°C erlaubt die Spezifikation, mit Referenzkühlung und normaler Taktung erreicht man sowas nie,
ht4u erreicht es bereits unter den angesprochenen Labobedingungen. http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index8.php


Ht4u misst bei der HD4890 ~80°C nach 30 sek im Furmark
Nicht ganz:
"In diesem Fall schnellten die Temperaturen sofort in Regionen knapp unter 100°C.
...
Wir dürfen hier auf unseren letzten Test verweisen, bei welchem wir feststellten, dass zwischen den ermittelten Werten auf der Rückseite des Grafikboards und den tatsächlichen Kerntemperaturen der Wandler ein Unterschied von ca. 20 °C lag."

-> Nach 30 sekunden bereits 120°C, so schnell ist selten das Maximum erreicht.


Meine HD4830 ist FurMark stable und Crysis stürzt trotzdem ab, erklär mir das. ganz einfach.

Furmark erzeugt maximale GPU-VRM und GPU Temperatur.
Schluss daraus: Funktionierts, so werden diese Bauteile nicht aus thermischen Gründen versagen. Ob andere Bauteile aus thermischen Gründen versagen bleibt ungeklärt.

Läuft die Kiste stabil durch Furmark, so lässt sich sagen: Sie ist Furmark stable. Ob sie in anderen Anwendungen stabil läuft, lässt sich nicht sagen.
Läuft die Kiste nicht stabil durch Furmark, so lässt sich sagen: Sie ist instabil. Ob es dennoch Anwendungen gibt, die stabil laufen ändert nichts daran.

Gast
2009-04-04, 00:37:12
Läuft die Kiste stabil durch Furmark, so lässt sich sagen: Sie ist Furmark stable. Ob sie in anderen Anwendungen stabil läuft, lässt sich nicht sagen.
Läuft die Kiste nicht stabil durch Furmark, so lässt sich sagen: Sie ist instabil. Ob es dennoch Anwendungen gibt, die stabil laufen ändert nichts daran.


Wenn eine 4870 zb bei spiele sich mit 870 mhz gpu takt bewegt und beim furmark bei 820 mhz abschmiert...Dann sollte man den furmark trotzdem zum taktraten testen nehmen?


Warum sollte man.;)

pXe
2009-04-04, 00:46:43
Wenn eine 4870 zb bei spiele sich mit 870 mhz gpu takt bewegt und beim furmark bei 820 mhz abschmiert...Dann sollte man den furmark trotzdem zum taktraten testen nehmen?


Warum sollte man.;)

Wenn Du 10 Spiele testet, bei einem läuft die Grakka noch mit 900MHZ, bei 5 mit 880, bei 3 mit 860, bei einem gibs aber schon ab 850MHZ Fehler.
Wieviel MHZ nimmt man dann für ein stabiles System?

Ziel beim übertakten sollte immer sein, dass das System noch genauso Stabil (unter allen Umständen) läuft wie mit serienmässigen
Takt, alles andere ist imho sinnfrei (da kommen dann nämlich im Sommer so Postings wie "Hilfe, meine übertaktete CPU stürzt
immer ab (weil zu heiss)" oder bei neuen Grakkalastigen Spielen Aussagen wie "ui, da muss ich sogar meine Grakka runtertakten
sonst gibs Grafikfehler, hatte ich sonst noch nie").
Und wenn die übertaktete Grakka immer abschmiert wenn man nackt nachts vor dem PC im Kreis tanzt, sie das aber unübertaktet nicht
macht, dann takte ich die runter.

pXe

Gast
2009-04-04, 01:05:27
Wenn eine 4870 zb bei spiele sich mit 870 mhz gpu takt bewegt und beim furmark bei 820 mhz abschmiert...Dann sollte man den furmark trotzdem zum taktraten testen nehmen?


Warum sollte man.;)
Man wirft Furmark an, um zu sehen ob GPU oder GPU-VRM zu heiß werden.
Wenn es in den 20min zum Absturz kommt, ist es mir herzlich egal warum. ;)

Daredevil
2009-04-04, 02:03:34
ht4u erreicht es bereits unter den angesprochenen Labobedingungen. http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index8.php

Anhand dieser Zahlen lässt sich ableiten, dass die geschilderte Problematik – anders als in der Furmark-Warnmeldung angegeben – lediglich auf die Radeon-HD-4000-Serie zuzutreffen scheint. Darunter mit der Radeon HD 4870 genau jenes Modell, welches uns in Puncto Temperatur der Wandler schon jeher ein unwohles Gefühl in der Magengegend bereitete.
Haben die nun das Referenz Design getestet oder das Modell welches sie schon "früher" für bedenklich hielten.
Denn die einzige Karte die sie einzeln getestet haben war die Sapphire HD4870 Toxic und die hat eine mangelhafte SpaWa Kühlung.
http://ht4u.net/images/reviews/2009/sapphire_radeon_hd4870_toxic//power.jpg
Süß! In dem Test (http://ht4u.net/reviews/2009/sapphire_radeon_hd4870_toxic/index8.php) werden die SpaWas 116°C heiß mit dem winzig süßen Toxic Kühlkörper.
Die Referenz bietet eine deutlich bessere Wärmeabgabe durch die Rote Backplate.


ganz einfach.

Furmark erzeugt maximale GPU-VRM und GPU Temperatur.
Schluss daraus: Funktionierts, so werden diese Bauteile nicht aus thermischen Gründen versagen. Ob andere Bauteile aus thermischen Gründen versagen bleibt ungeklärt.

Also kann ich meinen PC auch einfach neben die Heizung stellen, sie auf 5 drehen und sagen sie is Heizung Stable?
Was bringt mir also eine künstlich simulierte Hitze wenn sie eh nicht unter realen Bedingungen auftritt?

y33H@
2009-04-04, 02:24:05
Der Furmark ist real. So real wie Vantage oder der 06er.

Gast
2009-04-04, 08:34:46
Der Furmark ist real. So real wie Vantage oder der 06er.

So sehe ich das nicht. Wenn eine Anwendung vorallem darauf optimiert ist, höchste Auslastung zu erzeugen, ist sie nicht umbedingt real.

Bei CPUs wurde hier mit prime argumentiert, da stimme ich allerdings nicht zu. Prime ist keine Testanwendung, sondern ein normales Programm das ein paar Zahlen berechnet (dafür wurde es schließlich entwickelt, die Testfunktion ist nur Beiwerk). Die Auslastung ist hoch, aber nicht maximal (Intels TAT erreichte höhere temps).
Fakt ist aber, das die erreichten Temps nur selten in der Praxis erreicht werden, nur bei BOINC/Seti@home hatte ich ähnlich Temps, sogesehen war der Test optimal um die Praxis auf Stabilität zu testen.

Bei Grafikkarten ist es das gleiche. Ich würde nur ein Testprogramm nehmen, welches dem Alltag entspricht. Wenn 99% meiner Games nicht über Temps von 80 Grad hinaus kommen und das Testprogramm plötzlich 25 Grad mehr erzeugt, ist es dann noch praxisrelevant?
Wenn diese Temps nichtmal im worstcase auftreten, was bringen diese Testwerte dann?
Es mag diskussionswürdig sein, aber so lange nicht echte, praxisrelevante Programme auf diese Werte kommen, ist der "Test" fürn Arsch. :)

Natürlich sollte eine Grafikkarte jede Anwendung ausführen können, ohne dabei instabil zu werden, aber wenn so eine kaum praxisnahe Anwendung sogar die Entwickler zwingt, eine Bremse einzubauen, dann zeigt das schon, in welche Richtung es geht.
Ich frage mich, welchen Sinn es macht, wenn irgendein Nutzer diese Sperre umgeht. Habt ihr irgendeinen Vorteil wenn ihr das tut!?

Daredevil
2009-04-04, 08:37:53
Der Furmark ist real. So real wie Vantage oder der 06er.
Als Auslastungstest den 06er 3DMark?
vllt. für die CPU ;D

reunion
2009-04-04, 09:25:31
Albatron Drops Nvidia Exclusivity, Unveils First ATI Graphics Card.
http://www.xbitlabs.com/news/video/display/20090403125820_Albatron_Drops_Nvidia_Exclusivity_Unveils_First_ATI_Graphics_Card .html

Gast
2009-04-04, 09:46:57
Haben die nun das Referenz Design getestet oder das Modell welches sie schon "früher" für bedenklich hielten.
Referenzdesign.
Ist hier ganz oben verlinkt: http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index8.php
-> http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index5.php

Also kann ich meinen PC auch einfach neben die Heizung stellen, sie auf 5 drehen und sagen sie is Heizung Stable?
Was bringt mir also eine künstlich simulierte Hitze wenn sie eh nicht unter realen Bedingungen auftritt? Damit könntest du im Winter sommerliche Bedingungen simulieren.
Durchaus sinnvoll.

Fehlt nur noch etwas Staub, zumindest wenn du im Alltag keinen Reinstraum benutzt.


Wenn 99% meiner Games nicht über Temps von 80 Grad hinaus kommen und das Testprogramm plötzlich 25 Grad mehr erzeugt, ist es dann noch praxisrelevant?
Was ist mit den restlichen 1%?
Entweder es ist stabil oder nicht, ganz einfach.
Ich kann damit leben, wenn du zugibst, das die Stabilität dir reicht, aber ich kann nicht damit leben, das du behauptest es wäre stabil.


Natürlich sollte eine Grafikkarte jede Anwendung ausführen können, ohne dabei instabil zu werden, aber wenn so eine kaum praxisnahe Anwendung sogar die Entwickler zwingt, eine Bremse einzubauen, dann zeigt das schon, in welche Richtung es geht.
Ich überlege lieber warum die Sperre drin ist.
Womöglich aus dem selben Grund, das gewiese Karten die PCIe Spezifikationen deutlich sprengen?

Ich frage mich, welchen Sinn es macht, wenn irgendein Nutzer diese Sperre umgeht.Von welcher Sperre redest du?
Zum HD48xx Release gabs keine Sperre.
Heute rechnet Furmark automatisch mit 100%.

Gast
2009-04-04, 09:49:20
Als Auslastungstest den 06er 3DMark?
vllt. für die CPU ;DGewiese Tester machen das.

Und der allgemeine Trend geht eh dahin, wer weiß ob Bioschock praxisnah ist, gerade Bioshock ist wohl das 1% Spiel. :rolleyes:

Daredevil
2009-04-04, 10:09:36
Referenzdesign.
Ist hier ganz oben verlinkt: http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index8.php
-> http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index5.php
Das ist ja wieder ein ganz anderer Test, dort wurde die SpaWa Temp getestet während ein Zalman Kühler verbaut war, siehe Hier (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index12.php).
Und dort schreiben die:
Doch wie sieht es nun mit der Original-Kühlung aus. Leider, auf Grund der Bauart des Kühlers, war es uns nicht möglich einen internen Sensor korrekt zu platzieren, um das Temperaturverhalten zu überwachen. Jedoch konnten wir auf der unmittelbaren Gegenseite des PCBs über unseren Sensor Temperaturen im Bereich von ca. 91°C ermitteln. Wir können nur vermuten, dass der Wandler im Dauerbetrieb permanenten Temperaturen von 100°C ausgesetzt sein dürfte.

Das ist sicherlich noch im „grünen Bereich“ und dazu ist der Wandler ausgelegt, doch stellt sich natürlich die Frage, wie sich dieses bei massiven Übertaktungen verhält. Von extremen Spielereien wie beispielsweise Voltage-Mods sollte man absolut absehen. Und der Einsatz von externen Kühllösungen sollte hier dann doch deutlich überdacht werden, bzw. der Umstand der Wandlertemperaturen berücksichtigt werden.

reunion
2009-04-04, 10:41:50
Asus Radeon HD 4890 mit „Voltage Tweak“

http://img14.imageshack.us/img14/5770/1m4485828.gif (http://img14.imageshack.us/my.php?image=1m4485828.gif)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/asus_radeon_hd_4890_voltage_tweak/

Vorallem der Speichertakt ist mit 1150Mhz beachtlich, ob da wohl schon 5Gbps-Chips zum Einsatz kommen?

AnarchX
2009-04-04, 13:30:07
Mit etwas Selektion sollte man das auch mit 0.5ns Chips schaffen, zumal man mit 0.4ns Chips wohl einen noch höheren Speichertakt bewerben könnte.

Aber die Verbrauchswerte der Karten mit Voltage Tweak dürften sicherlich interessant sein. :D

Der_Korken
2009-04-04, 14:14:45
1,4V ist aber heftig. Die 4870 hatte 1,26V und meine GTX260 hat gerade mal 1,12V. Ich ahne schlimmes beim Verbrauch ...

AnarchX
2009-04-04, 14:20:48
Wenn man genau hinschaut, dann erlaubt ASUS den Voltage Tweak wohl auch bei der normalen 4890 mit nur 2x 6-Pin:
http://www.asus.com/product.aspx?P_ID=2bgXQ8xJkV4odiKM

Das ist aber schon ziemlich mutig bei Standardverbrauchswerten von 160-226W (http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3).:|

y33H@
2009-04-04, 14:55:03
Wenn eine Anwendung vorallem darauf optimiert ist, höchste Auslastung zu erzeugenDer Furmark war und ist in erster Linie ein Benchmark. Die Aussage "vorallem darauf optimiert ist, höchste Auslastung zu erzeugen" passt hier nicht wirklich. Die Auslastung ist eine Begleiterscheinung, die gerne genutzt wird.

Gast
2009-04-04, 15:12:41
Vor allem gibt's den Furmark bedeutend länger als die HD 4800 Reihe.

AnarchX
2009-04-04, 18:37:32
Das Voltage Tool bei ASUS erlaubt offenbar sogar bis 1.45V:
http://img223.imageshack.us/img223/1072/smartdoctor22958848.png (http://img223.imageshack.us/my.php?image=smartdoctor22958848.png)

Damit konnte PClab.pl dann 1020/1200MHz auf der 2x 6-Pin Karte erreichen:
http://translate.google.ch/translate?u=http%3A%2F%2Fpclab.pl%2Fart36063-18.html&sl=pl&tl=de&hl=de&ie=UTF-8

Gast
2009-04-04, 18:45:35
1,4V ist aber heftig. Die 4870 hatte 1,26V und meine GTX260 hat gerade mal 1,12V. Ich ahne schlimmes beim Verbrauch ...

Äpfel-Birnen Vergleich :rolleyes:

http://www.abload.de/img/vbgx7n.jpg (http://www.abload.de/image.php?img=vbgx7n.jpg)
http://www.hardware.fr/articles/755-4/dossier-radeon-hd-4890-vs-geforce-gtx-275.html

dargo
2009-04-04, 19:21:47
Äpfel-Birnen Vergleich :rolleyes:

http://www.abload.de/img/vbgx7n.jpg (http://www.abload.de/image.php?img=vbgx7n.jpg)
http://www.hardware.fr/articles/755-4/dossier-radeon-hd-4890-vs-geforce-gtx-275.html
Tjo, dann nehmen wir zur Abwechslung ein anders Bild. ;)
http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index10.php
http://ht4u.net/reviews/2009/amd_radeon_hd_4890/index11.php

reunion
2009-04-04, 19:42:06
Furmark ist vollkommen unrealistisch, es schafft es vor allem AMD-Karten enorm auszulasten. Kommt ja nicht von ungefähr das im Furmark ein RV770 jede nV karte um Längen zertrümmert.

Gast
2009-04-04, 19:49:55
Wenn gpgpu-Anwendungen eine ähnliche (flop-)Auslastung erreichen würde wie das amd-marketing auf den Folien anpreist wäre der Verbrauch ähnlich wie im Furmark.

Gast
2009-04-04, 20:00:48
Furmark ist vollkommen unrealistisch, es schafft es vor allem AMD-Karten enorm auszulasten. Kommt ja nicht von ungefähr das im Furmark ein RV770 jede nV karte um Längen zertrümmert.
So siehts aus, aber die FB merken nicht das der RV7x0 um Welten schneller im FUR ist als JEDE Karte von NV :(

reunion
2009-04-04, 20:01:59
Wenn gpgpu-Anwendungen eine ähnliche (flop-)Auslastung erreichen würde wie das amd-marketing auf den Folien anpreist wäre der Verbrauch ähnlich wie im Furmark.

Wenn es regnen würde, wäre es nass. Auch GPGPU-Anwendungen erreichen in der Praxis nicht wirklich höhere Auslastungen als typische Spielshader. Und da finde ich es etwas fehl am Platz wenn man hier zur Messung der Leistungsaufnahme ein solches Tool verwendet welches vollkommen unrealistische Werte vor allem auf AMD-Karten generiert. In der Spielepraxis haben die RV770/790-Karten eine absolut konkurrenzfähige Leistungsaufnahme unter Last.

y33H@
2009-04-04, 22:07:14
Kommt ja nicht von ungefähr das im Furmark ein RV770 jede nV karte um Längen zertrümmert.Jepp, eine HD4890 nietet eine GTX295 ;D

Der Fur giert eben nach FLOPS und im Falle der HDs ist das eine der wenigen Apps die die 5-Vecs offenbar verdammt gut auslasten. Allerdings werden Radeons wie Geforces ungeachtet der Punkte ans thermische Limit getrieben. Die Aussage "die hat mehr Punkte, die darf wärmer werden" ist daher freilich Bullshit³ und es gilt nach wie vor: Es gibt zuviele HD4870, die am Limit laufen. Bei der HD4890 hat AMD dazu gelernt, vor allem die Spannungsversorgung ist viel viel fetter (http://www.pcgameshardware.de/aid,680795/Ati-Radeon-HD-4890-gegen-HD-4870-Kuehlung-und-Platine-im-Detail/Grafikkarte/News/).

reunion
2009-04-04, 22:38:46
Jepp, eine HD4890 nietet eine GTX295 ;D

Der Fur giert eben nach FLOPS und im Falle der HDs ist das eine der wenigen Apps die die 5-Vecs offenbar verdammt gut auslasten. Allerdings werden Radeons wie Geforces ungeachtet der Punkte ans thermische Limit getrieben. Die Aussage "die hat mehr Punkte, die darf wärmer werden" ist daher freilich Bullshit³ und es gilt nach wie vor: Es gibt zuviele HD4870, die am Limit laufen. Bei der HD4890 hat AMD dazu gelernt, vor allem die Spannungsversorgung ist viel viel fetter (http://www.pcgameshardware.de/aid,680795/Ati-Radeon-HD-4890-gegen-HD-4870-Kuehlung-und-Platine-im-Detail/Grafikkarte/News/).

Es geht darum das die Werte nicht auf den Spielealltag übertragbar sind. Und das scheinen viele nicht zu verstehen wenn ich mir hier dargo ansehe der mit seinen Furmark-Werten herumwedelt.

AnarchX
2009-04-04, 22:43:41
Furmark ist vollkommen unrealistisch, es schafft es vor allem AMD-Karten enorm auszulasten. Kommt ja nicht von ungefähr das im Furmark ein RV770 jede nV karte um Längen zertrümmert.

Wenn Gather4 irgendwann einmal noch mehr Anwendung findet und somit die TMUs bei den RV770-GPUs entlastet werden, könnte auch in D3D10.1-Titeln wohl eine deutlich höhere Shaderlast erzeugt werden. Was sich dann natürlich auch in der Performance wiederspiegelt. ;)

Gast
2009-04-04, 22:43:49
Es geht darum das die Werte nicht auf den Spielealltag übertragbar sind. Und das scheinen viele nicht zu verstehen wenn ich mir hier dargo ansehe der mit seinen Furmark-Werten herumwedelt.
Welche Werte willst du stattdessen nehmen?

y33H@
2009-04-04, 22:44:43
Es geht darum das die Werte nicht auf den Spielealltag übertragbar sind. Mir ist kein Spiel bekannt, das so knallt wie der Furmark - ist auch ziemlich unwahrscheinlich, dass ein solches erscheint.

reunion
2009-04-04, 22:47:53
Welche Werte willst du stattdessen nehmen?

Na von echten Spielen. Das ist dann wenigstens Praxisnah. Man muss ja nicht immer mit roher Gewalt möglichst hohe Werte fabrizieren.

LovesuckZ
2009-04-04, 22:53:55
Seit wann geht es um praxisrelevante Settings? Furmark lastet beide IHVs sehr gut aus. Es ist also legitim damit den Stromverbrauch zu messen.

Gast
2009-04-04, 22:56:30
Na von echten Spielen. Das ist dann wenigstens Praxisnah. Man muss ja nicht immer mit roher Gewalt möglichst hohe Werte fabrizieren.
Nenn mal Beispiele.
Damit man dir sagen kann wie praxisfern diese sind.

Wer weiß, vielleicht sind wir in ein paar Wochen durch und haben die betreffende Spielesituation gefunden.

KonKorT
2009-04-05, 10:27:27
Ich habe den Thread jetzt nicht durchgelesen. Ist denn bereits die Chipfläche des RV790 bekannt? Ich weiß nur, dass er etwas größer als RV770 ist, aber stimmen die 282 sqmm aus GPU-Z?

Gast
2009-04-05, 12:24:54
Nenn mal Beispiele.
Ich warte noch, reunion.

Du kannst doch nicht ständig behaupten Furmark ist scheisse und keinerlei Alternativen anbieten.

horn 12
2009-04-05, 20:42:06
HD4890 Karten mit über 1 Ghz GPU Takt, Jawohl!:eek::eek::smile::cool:

http://www.dailytech.com/Update+ATI+Launches+Radeon+HD+4890+Over+50000+Already+Shipped/article14743.htm

y33H@
2009-04-05, 21:24:02
Soviel Power und dann immer noch eine im Vergleich miese BQ :usad:

pest
2009-04-05, 21:33:49
es wird keine 1GHz OC-Varianten geben, genauso wie das gerücht das es die a12 des rv670 doch noch irgendwann geben wird verpufft ist.

damit macht man halt die leute heiss

GeneralHanno
2009-04-05, 21:52:57
vll wir der exclusivpartner sapphire ja eine 4890 mit wakü und vmod @1GHz für 500$ das stück rausbringen ...:biggrin:

N0Thing
2009-04-05, 21:53:35
Seit wann geht es um praxisrelevante Settings? Furmark lastet beide IHVs sehr gut aus. Es ist also legitim damit den Stromverbrauch zu messen.

Klar sind die Furmarkwerte von theoretischem Interesse. Wenn ich wissen will, welche Grafikkarte mehr Strom unter Last verbraucht, würde ich dafür aber eine Anwendung benutzen, die auch im Alltag eingesetzt wird.
Da bietet sich bei Grafikkarten ein aktuelles Spiel an und davon hat man als Anwender auch mehr, als wenn ich nur wüßte, daß meine 8800GT im Furmark 200W verbraucht.

grobi
2009-04-05, 21:53:40
Soviel Power und dann immer noch eine im Vergleich miese BQ :usad:


Man könnte ja für die OC-Grakas Treiber für besseres AF bereit stellen. ;D

mfg grobi

Philipus II
2009-04-05, 22:49:01
Eine andere Verbrauchsmessung wäre auch mal interessant:
Eine Berechnung von 1000 Bildern einer Anwendung, d.h. Grafikkarte a braucht länger als b, es wird aber nicht die aufgenommene Leistung, sondern die dafür benötigte Energie gemessen.
Oder eine Effizienzmessung mit Framelimit =40 FPS...

Gast
2009-04-05, 23:46:24
;)

http://www.abload.de/img/10746_large_10742_largt8as.jpg

derguru
2009-04-05, 23:56:41
oho gta läuft mit aa und warum bloß haben die nicht far cry2 mit aa verglichen;)
haben die doch gar nicht nötig rum zufuddeln,die kann sich doch locker mit der 275gtx messen,naja.

xiao didi *
2009-04-06, 00:18:22
;)

http://www.abload.de/img/10746_large_10742_largt8as.jpg
GTA IV mit AA :ujump:

pXe
2009-04-06, 01:25:54
Mal wieder so eine interessante Skalierung der Balken, und ohne genaue FPS Angaben (spielbar werden die wohl alle net sein).

pXe

nagus
2009-04-06, 07:46:26
Mal wieder so eine interessante Skalierung der Balken, und ohne genaue FPS Angaben (spielbar werden die wohl alle net sein).

pXe

außer crysis dürfte da alles spielbar sein. l4d, devil may cry, far cry 2 laufen jedenfalls auf meiner 1GB 4870er in diesen einstellungen sehr gut spielbar!

Ailuros
2009-04-06, 08:24:03
Mal wieder so eine interessante Skalierung der Balken, und ohne genaue FPS Angaben (spielbar werden die wohl alle net sein).

pXe

Wenn den slide mit dem relevantem slide aus der NV 275 Praesentation vergleicht (danke crux ;) ), sehen beide gleich laecherlich aus. Wenn man nicht unbedingt eine rote oder gruene Brille traegt koennte man kinderleicht behaupten dass beide etwa auf dem gleichen Nivaeu liegen. NV verliert hier aber schon in den Startloechern dank beschissener Verfuegbarkeit momentan.

_DrillSarge]I[
2009-04-06, 19:33:43
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/erstes_bild_powercolor_radeon_hd_4890_pcs/

^^wenn ich das richtig sehe, null pcb kühlung (vrm etc.). man scheint doch in der beziehung deutlich aufgerüstet zu haben oder ist sehr, sehr optimistisch :D.

derguru
2009-04-06, 19:45:12
wasserkühlung ist auch schon möglich,
The Koolance VID-487 is fully compatible with the new ATI Radeon HD 4890. All that is required is a new set of thermal pads, which will be available soon. The VID-487 product description will be updated to include the HD 4890 once these pads are included. (Pads will also be available for separate purchase.)
http://www.koolance.com/water-cooling/product_info.php?product_id=706

Daredevil
2009-04-07, 00:11:10
I[;7219449']http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/erstes_bild_powercolor_radeon_hd_4890_pcs/

^^wenn ich das richtig sehe, null pcb kühlung (vrm etc.). man scheint doch in der beziehung deutlich aufgerüstet zu haben oder ist sehr, sehr optimistisch :D.
Diese grauen dinger sind doch die analogen Spannungswandler oder nicht?
Die sollen ja so oder so viel kühler bleiben als die digitalen, evtl. werden die dann einfach nur durch den Luftstrom gekühlt ( Die Karte wird mit Sicherheit bei so nem Kühlkörper aufdrehen ).

Gast
2009-04-07, 11:22:07
NV verliert hier aber schon in den Startloechern dank beschissener Verfuegbarkeit momentan.
AMD pegs HD 4890 sales 30:1 over GTX 275 sales

http://www.neoseeker.com/news/10357-amd-pegs-hd-4890-sales-30-1-over-gtx-275-sales-/

AnarchX
2009-04-07, 13:17:29
Da werden wohl bald schon Cost-Down-Versionen kommen mit nur 8-Layer-PCB und veränderter Stromversorgung:
http://img217.imageshack.us/img217/9674/09033111572761b95d26357.jpg (http://img217.imageshack.us/my.php?image=09033111572761b95d26357.jpg)
http://bbs.chiphell.com/viewthread.php?tid=42712&extra=page%3D1

derguru
2009-04-07, 14:06:12
noch ein review,
http://techreport.com/articles.x/16681

Tarkin
2009-04-07, 19:33:46
http://www.bjorn3d.com/read.php?cID=1538&pageID=6657

PulsarS
2009-04-07, 22:59:06
Seit wann geht es um praxisrelevante Settings? Furmark lastet beide IHVs sehr gut aus. Es ist also legitim damit den Stromverbrauch zu messen.
Nur interessiert der Furmark weder meine Stromrechnung, noch die Umwelt, deswegen totall praxisfremd.

Die (Tester) sollten lieber ein paar moderne (von mir aus shaderlastige) Spiele beim Stromverbrauch testen und davon das wählen, welches die höchste Last erzeugt.
Würde man wirklich praxisnah messen wollen, müsste man von den getesteten Spielen einen Mittelwert bilden. DAS ist praxisnah, wobei es mir durchaus einleuchtet, dass dies zu aufwändig wäre.

Den Furmark für Verlustleistungsmessungen zu nehmen ist meiner Meinung nach Bullshit. :D
Für Stabilitätstests dagegen vollkommen ok :)

Gast
2009-04-08, 10:11:26
Der Furmark ist die einzige Anwendung, die man zum Messen des Stromverbrauchs nehmen sollte, weil er alle Chiparchitekturen gleichermassen gut auslastet.

Mr. Lolman
2009-04-08, 10:13:33
Der Furmark ist die einzige Anwendung, die man zum Messen des Stromverbrauchs nehmen sollte, weil er alle Chiparchitekturen gleichermassen gut auslastet.

Nö. Die hohe Mehrperformance der Radeons im Furmark lässt sich nämlich nicht auf die Spieleleistung übertragen. (wer mehr leistet, darf imo auch mehr verbrauchen ;))

Gast
2009-04-08, 10:22:19
Welche Anwendung schlägst du stattdessen vor? Eine, in der ATI schlecht performt und dadurch weniger verbraucht als Nvidia? Oder umgekehrt?

Mr. Lolman
2009-04-08, 12:09:56
Welche Anwendung schlägst du stattdessen vor? Eine, in der ATI schlecht performt und dadurch weniger verbraucht als Nvidia? Oder umgekehrt?

Nö. Irgendeine grakalastige Szene eines grakalastigen Spiels würd schon reichen...

Gast
2009-04-08, 12:15:21
Nö. Irgendeine grakalastige Szene eines grakalastigen Spiels würd schon reichen...
Crysis (Warhead) bietet dafür wunderschöne Szenen, mangels SuperSampling bei ATI müsste man halt eine aberwitzige Auflösung fahren, dann klappt es auch mit der Leistungsaufnahme. :)

Auch wenn mir gerade der Link abgeht, ht4u.net hat es doch auch bereits mit einem Spiel geschafft, die Grafikkarten jenseits ihrer TDP-Grenzen zu stressen und das ist wahrscheinlich wirklich fairer, als ATI mit der theoretischen Shaderleistung zu plagen, die sie jenseits von Furmark so nicht aufs Parkett kriegen.

Gast
2009-04-08, 12:31:41
Bin ich der einzige dem es so geht? Ich finde die bisherigen Produkte relativ enttäuschend, alles sind Standardkarten oder Mini-OC-Karten gegen aufpreis (850>900, 975>1000), das lohnt doch überhaupt nicht.

Wo bleiben denn Karten wie sie von PC angekündigt wurden? 920-950MHz + ~1100 Speicher?
Das würd sich wenigstens mal lohnen, die 4890 scheint sehr von OC zu profitieren wie der Artikel der xbitlabs zeigt:
http://www.xbitlabs.com/articles/video/display/radeon-hd4890_7.html#sect0

Es heißt also weiter warten, auf mein nicht vorhandes Glück beim OC kann ich mich leider nicht verlassen. :D

Gast
2009-04-08, 14:00:49
Nö. Irgendeine grakalastige Szene eines grakalastigen Spiels würd schon reichen...


Irgendeine Szene reicht sicher nicht, weil der gemessene Wert nur für diese Szene gilt und somit keine Aussagekraft hat.
Der Furmark gibt hingegen so etwas wie ein oberes Limit des Verbrauchs an, weil er die Shadereinheiten sehr gut auslastet und genau das ist ja auch das Ziel der Spiele-Entwickler: möglichst hohe Auslastung der Hardware.

Coda
2009-04-08, 14:29:50
Das Problem ist, dass volle Last auf ALU und TMU in der Praxis nicht vorkommt, weil man automatisch immer mal Passagen hat die durch das eine oder andere limitiert werden.

Frank1974
2009-04-09, 00:32:36
Ich finde Furmark für den Verbrauch genau richtig, jeder soll sehen wie hoch der Verbrauch sein kann, bei maximaler Auslastung und die Karte muss auch sowas aushalten, wenn man irgend ein Game nimmt, spricht das immer nur für das eine Spiel, bei mir hat jedes Game und jeder Benchmark einen anderen Verbrauch.
Man könnte ja 3Dmark oder ein Game als Zusatz nehmen und darauf hinweisen das Furmark das absolute Maximum ist(vielleicht ginge es sogar noch höher wenn einer das darauf programmiert), und den anderen Wert gibt man für den normalen Verbrauch an.

mfg
Frank

Mr. Lolman
2009-04-09, 08:26:03
Ich finde Furmark für den Verbrauch genau richtig, jeder soll sehen wie hoch der Verbrauch sein kann, bei maximaler Auslastung und die Karte muss auch sowas aushalten, wenn man irgend ein Game nimmt, spricht das immer nur für das eine Spiel, bei mir hat jedes Game und jeder Benchmark einen anderen Verbrauch.
Man könnte ja 3Dmark oder ein Game als Zusatz nehmen und darauf hinweisen das Furmark das absolute Maximum ist(vielleicht ginge es sogar noch höher wenn einer das darauf programmiert), und den anderen Wert gibt man für den normalen Verbrauch an.

mfg
Frank

Meinetwegen soll man halt ruhig den Furmark nehmen, aber dann bitte normiert auf Performance/Watt.

V2.0
2009-04-09, 09:56:52
Furmark kann ken Bench sein, er zeigt aber die maximale Belastung für Kühlung und Netzteil. Hilft dem Käufer nichts, wenn die Karte weniger W/FPS nutzt, sie aber trotzdem überhitzt, unerträglich laut wird oder das eigene Netzteil nicht ausreicht.

AnarchX
2009-04-09, 10:06:32
Die Messungen bei PCGH sind doch in diese Richtung gut: Idle, GRID(mehr Last als Crysis laut PCGH) und FurMark. (http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3)

Damit gibt man einen guten Überblick über das Verbrauchsprofil, leider hat man GRID für die Verbrauchsmessungen mit 4xAA getestet und in den Benchmarks mit 8xAA, sodass man die Pro-Watt-Leistung hier nicht wirklich ermitteln kann.

Johnny Rico
2009-04-09, 20:00:42
Gibts dazu auch Karten mit Kühleralternativen, die auch LEISE sind?
Oder welche verfügbaren Kühler(+Spawa) kann man dort bedenkenlos montieren.
Ich würde mich für die Karte entscheiden, will mir aber keinesfalls einen Schreihals ins Haus holen.

Gast
2009-04-09, 20:07:23
Damit gibt man einen guten Überblick über das Verbrauchsprofil, leider hat man GRID für die Verbrauchsmessungen mit 4xAA getestet und in den Benchmarks mit 8xAA, sodass man die Pro-Watt-Leistung hier nicht wirklich ermitteln kann.
Nein, das ist ein Typo. Ist beides 8xAA.


Carsten

Roi Danton
2009-04-10, 09:19:59
Gibts dazu auch Karten mit Kühleralternativen, die auch LEISE sind? Meine 4890 von Sapphire (http://geizhals.at/deutschland/a414196.html) mit Standardlüfter bleibt angenehm leise. Selbst im Furmark wird sie nicht störend laut, geschweige denn bei Spielen (FSX). Lediglich beim Anschalten des Rechners dreht der Lüfter für etwa eine Sekunde gehörig auf, diese Lautstärke wurde aber bei 3D/GPGPU - Anwendungen (Runge Kutta Verfahren - lastet Shader gut aus) bei weitem noch nicht erreicht.

Gast
2009-04-10, 11:58:21
Nein, das ist ein Typo. Ist beides 8xAA.

Schade, dann kann man so auch nicht die Performance/Watt ermitteln.

Iceman346
2009-04-10, 12:41:18
Meine 4890 von Sapphire (http://geizhals.at/deutschland/a414196.html) mit Standardlüfter bleibt angenehm leise. Selbst im Furmark wird sie nicht störend laut, geschweige denn bei Spielen (FSX). Lediglich beim Anschalten des Rechners dreht der Lüfter für etwa eine Sekunde gehörig auf, diese Lautstärke wurde aber bei 3D/GPGPU - Anwendungen (Runge Kutta Verfahren - lastet Shader gut aus) bei weitem noch nicht erreicht.

Auf wieviel Prozent läuft der Lüfter denn beim Furmark? Ich hatte auch die Sapphire, bei mir ging die Karte auf über 40% und war dann nahezu unerträglich laut.

Roi Danton
2009-04-10, 19:37:18
Auf wieviel Prozent läuft der Lüfter denn beim Furmark? Ich hatte auch die Sapphire, bei mir ging die Karte auf über 40% und war dann nahezu unerträglich laut.
Bei 560s Laufzeit des Furmarks folgende Messwerte:
Grafiklüfter (Everest) = 2400rpm
T(max,Furmark) = 76°C
T(Diode DispIO,Everest) = 76°C
T(Diode MemIO,Everest) = 82°C
T(Diode Shader,Everest) = 79°CGut belüftetes Gehäuse, Raumtemperatur 24°C.
Bei dieser Umdrehungszahl ist der Lüfter hörbar, aber als unerträglich empfinde ich es bei weitem nicht (Gehäuse unter Glastisch, etwa 1m Abstand).

reunion
2009-04-11, 10:16:48
Nette OC Versuche mit einer 4890:
http://vr-zone.com/articles/increasing-voltages--extreme-oc-hd-4890-using-rivatuner/6880.html?doc=6880

Johnny Rico
2009-04-11, 10:57:05
Geile Sache ;), fehlt nur noch ein Kühler.
Frag mich, wenn die normale 4890 schon so "easy" die 1Ghz macht, wieso wird die OC Version dann mit so "tollen" Komponenten versehen. Sollte doch auch bald rauskommen? *hoff*

dildo4u
2009-04-11, 11:10:04
Geile Sache ;), fehlt nur noch ein Kühler.
Frag mich, wenn die normale 4890 schon so "easy" die 1Ghz macht, wieso wird die OC Version dann mit so "tollen" Komponenten versehen. Sollte doch auch bald rauskommen? *hoff*
Es gibt auch Chips die nicht mal die 950 packen selbst mt Wakü.Easy kommt da gar nix es sei denn man hat wirklich Glück mit dem Chip.

"Trotz niedriger Temperaturen durch die verwendete Wasserkühlung blieb unser Testmuster der HD 4890 LCS nur bis zu einer Erhöhung des GPU-Taktes um 3,8% auf 935 MHz stabil - danach traten Bildfehler auf. Beim GDDR5-RAM hatten wir mehr Glück: stabile 1.150 MHz bedeuten eine Steigerung von 15% gegenüber dem Werkstakt. Im Benchmark mit Race Driver Grid erreichte die OC-Taktkombination eine Steigerung von knapp 5% gegenüber den Standard-Taktraten der HD 4890 LCS. Bitte beachten Sie, dass es sich beim Übertakten immer ein wenig um ein Glücksspiel handelt und jedes Einzelexemplar unterschiedlich reagiert."

http://www.pcgameshardware.de/aid,681276/Test-der-Grafikkarte-Radeon-HD-4890-LCS-von-Powercolor/Grafikkarte/Test/

Gast
2009-04-11, 11:12:50
Bei 560s Laufzeit des Furmarks folgende Messwerte:
Grafiklüfter (Everest) = 2400rpm
T(max,Furmark) = 76°C
T(Diode DispIO,Everest) = 76°C
T(Diode MemIO,Everest) = 82°C
T(Diode Shader,Everest) = 79°CGut belüftetes Gehäuse, Raumtemperatur 24°C.
Bei dieser Umdrehungszahl ist der Lüfter hörbar, aber als unerträglich empfinde ich es bei weitem nicht (Gehäuse unter Glastisch, etwa 1m Abstand).
Furmark.exe oder die Desktopverknüpfung? LEtztere ist nämlich die ungebremste Vollast

Gast
2009-04-11, 11:15:35
Geile Sache ;), fehlt nur noch ein Kühler.
Frag mich, wenn die normale 4890 schon so "easy" die 1Ghz macht, wieso wird die OC Version dann mit so "tollen" Komponenten versehen. Sollte doch auch bald rauskommen? *hoff*

[ ] ich habe gelesen und verstanden dass da Dice-Kühlung mit Temps von -40C genutzt wurde.

dargo
2009-04-11, 11:16:11
Geile Sache ;), fehlt nur noch ein Kühler.

Ich frage mich gerade was an nur ~18% OC so geil sein soll? :confused:

reunion
2009-04-11, 11:23:52
1130 Mhz entsprechen einer Taktsteigerung von >30%. 18% mit Originalkühler ist auch nicht so schlecht für ein Topmodell.

dargo
2009-04-11, 11:30:12
1130 Mhz entsprechen einer Taktsteigerung von >30%.
Wen interessieren OC-Versuche mit -40°C? Oder willst du jetzt ernsthaft das als alltagstauglich nennen?

Gast
2009-04-11, 11:30:54
[ ] ich habe gelesen und verstanden dass da Dice-Kühlung mit Temps von -40C genutzt wurde.
Dazu kommt:

[ ] Ich kenne den Unterschied zwischen Übertakten Referenztakt.

Ich frage mich gerade was an nur ~18% OC so geil sein soll? :confused:
1000 Mhz sieht schön aus. ;)

Ohne Spass, 18% mit einer deftigen Spannungserhöhung, mit einer tiefgefrorenen Karte ist keine so "geile Sache". :rolleyes:

Gast
2009-04-11, 11:32:08
Wen interessieren OC-Versuche mit -40°C? Oder willst du jetzt ernsthaft das als alltagstauglich nennen?
Na klar, alltagstauglicher als abbrenende VRMs der Referenzkarten.

reunion
2009-04-11, 11:34:38
Wen interessieren OC-Versuche mit -40°C?

Mich und anscheinend auch noch andere. Wenn es dich nicht interessiert braucht du ja keinen Kommentar abzulassen.


Oder willst du jetzt ernsthaft das als alltagstauglich nennen?

Habe ich das behauptet?

dargo
2009-04-11, 11:37:56
1000 Mhz sieht schön aus. ;)

Ich weiß. ;)
Ich muss da gleich an die C2D/Qs denken - er muss unbedingt 4Ghz schaffen. 111elf

PCGH_Raffael
2009-04-11, 11:43:27
Ihr wisst aber schon, dass der Lüfter der HD 4890 ein völlig krankes, extrem starkes Exemplar ist, oder? ;) Ich habe erst am Donnerstag eine Asus EAH4890 mit dem beliegenden Tool (Smart Doctor war's, glaube ich) auf 1.050 MHz übertaktet (1.150 MHz RAM). Warhead-stable, 1,45 Volt auf der GPU mit Luftkühlung – mit ohrentötenden 100 Prozent Lüfterleistung. Laut Rivatuner wurden 65 Grad Celsius nur knapp überschritten ...

Schon bei Standardtakt, jedoch 1,45 Volt, fliegt der Furmark sofort ab. Beim Test mit 1,4 Volt – stabil im Furmark – wird klar, warum: Die Leistungsaufnahme ist "way out of spec". Die gesamte Kiste saugt mit 1,4 Volt 420 Watt aus der Dose, bei 1,31 Volt (Standard) sind's noch ~360 Watt.

MfG,
Raff

Gast
2009-04-11, 11:48:57
Ihr wisst aber schon, dass der Lüfter der HD 4890 ein völlig krankes, extrem starkes Exemplar ist, oder? ;)
Wie laut den? ;)

Ich finde es schade, das diese Thematik völlig unter geht.
Früher wurde noch über Staubsauger wie der 5800 Ultra rumgehackt, heute sind die Dinger lauter und es wird nur nebenbei erwähnt.

Achja, gut zu wissen, was es bedeutet die Spezifikationen deutlich zu überschreiten. :)

dargo
2009-04-11, 11:50:16
Wie laut den? ;)

Wenn mich nicht alles täuscht krankhafte 6,2 Sone. :crazy:

PCGH_Raffael
2009-04-11, 11:52:49
Die 5800 Ultra produziert im Vergleich mit einer HD 4890 (und HD 4870 X2) @ 100 Prozent ein lächerliches Säuseln. ;) Der feine Unterschied ist jedoch, dass die Radeon niemals selbstständig 100 Prozent einstellt, während die FX unter Last immer stur Vollgas gibt.

Wenn mich nicht alles täuscht krankhafte 6,2 Sone.

Und im Furmark gipfelte die lauteste HD 4890 bei über 10 Sone. Nagelt mich nicht darauf fest, aber 100 Prozent resultieren in 15 Sone, wenn ich das richtig im Kopf habe.

MfG,
Raff

Gast
2009-04-11, 11:53:12
Hier schreibt PCGH etwas von bis 10,4 sone, ist das schon bei 100% Schub, oder geht da noch was? :D
http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3

reunion
2009-04-11, 11:54:13
Ihr wisst aber schon, dass der Lüfter der HD 4890 ein völlig krankes, extrem starkes Exemplar ist, oder? ;) Ich habe erst am Donnerstag eine Asus EAH4890 mit dem beliegenden Tool (Smart Doctor war's, glaube ich) auf 1.050 MHz übertaktet (1.150 MHz RAM). Warhead-stable, 1,45 Volt auf der GPU mit Luftkühlung – mit ohrentötenden 100 Prozent Lüfterleistung. Laut Rivatuner wurden 65 Grad Celsius nur knapp überschritten ...

Schon bei Standardtakt, jedoch 1,45 Volt, fliegt der Furmark sofort ab. Beim Test mit 1,4 Volt – stabil im Furmark – wird klar, warum: Die Leistungsaufnahme ist "way out of spec". Die gesamte Kiste saugt mit 1,4 Volt 420 Watt aus der Dose, bei 1,31 Volt (Standard) sind's noch ~360 Watt.

MfG,
Raff

Der Furmark ist ja auch ein "völlig krankes" Teil. Wenn das Ding Warhead-stable war wo liegt dann das Problem?

reunion
2009-04-11, 11:55:50
Wie laut den? ;)

Ich finde es schade, das diese Thematik völlig unter geht.
Früher wurde noch über Staubsauger wie der 5800 Ultra rumgehackt, heute sind die Dinger lauter und es wird nur nebenbei erwähnt.

Achja, gut zu wissen, was es bedeutet die Spezifikationen deutlich zu überschreiten. :)

Der Lüfter dreht bei Spielen wenn man ein durchschnittliches Modell erwischt hat vielleicht mit 30%. Reserven haben noch niemanden geschadet.

dargo
2009-04-11, 11:59:26
Und im Furmark gipfelte die lauteste HD 4890 bei über 10 Sone. Nagelt mich nicht darauf fest, aber 100 Prozent resultieren in 15 Sone, wenn ich das richtig im Kopf habe.

Die haben echt einen an der Waffel. Wer kauft sich so einen Schrott überhaupt? Nur Schwerhörige?
Ich finde die 3,6 Sone der GTX275 schon bedenklich...

Raff
2009-04-11, 12:13:00
Der Furmark ist ja auch ein "völlig krankes" Teil. Wenn das Ding Warhead-stable war wo liegt dann das Problem?

Theoretische Tests. AMD ist gut beraten, wenn Sie Karten, die mehr als 225 Watt saugen, mit einem 8-Pin-Stromstecker bestücken. Eine HD 4890 @ 1,45 Volt und 1.050/1.150 MHz dürfte mehr als 300 Watt saugen (nur die Karte!), ausgehend von knapp 220 Watt bei Standardwerten.

MfG,
Raff

Gast
2009-04-11, 12:15:24
Der Furmark ist ja auch ein "völlig krankes" Teil. Wenn das Ding Warhead-stable war wo liegt dann das Problem?
Das es Spiele/Anwendungen gibt die Mehrauslastung als Warhead erzeugen.

dargo
2009-04-11, 12:18:36
Das es Spiele/Anwendungen gibt die Mehrauslastung als Warhead erzeugen.
In der Tat. Nur weil Warhead stabil läuft heißt es noch lange nicht, dass alle Games stabil laufen. Es reicht nur, das Game XY eine höhere Shaderlast erzeugt und schon hat man Bildfehler. Ich durfte das letztens selbst mit meiner GTX260 feststellen. Warhead war stabil, GRID flackerte hier und da aufgrund vom zu hohen Shadertakt.

reunion
2009-04-11, 12:21:42
Theoretische Tests. AMD ist gut beraten, wenn Sie Karten, die mehr als 225 Watt saugen, mit einem 8-Pin-Stromstecker bestücken. Eine HD 4890 @ 1,45 Volt und 1.050/1.150 MHz dürfte mehr als 300 Watt saugen (nur die Karte!), ausgehend von knapp 220 Watt bei Standardwerten.

MfG,
Raff

Na klar. Eine HD 4890 @ 1,45 Volt und 1.050/1.150 MHz entspricht ja auch in jeden Hinsicht den Referenzvorgaben. Ich kann jede Karte mit massiven Takt-/Spannungserhöhungen außerhalb der Spezifikationen betreiben. Das Platinenlayout der 4890 erlaubt ja auch bereits eine 8-Pin Stecker und größere OC-Versionen werden davon sicherlich auch Gebrauch machen.

MartinRiggs
2009-04-11, 12:27:10
Habe auch selten so einen Müll gelesen von Raff:rolleyes:
Mein Q9550 mit erhöhter Spannung säuft auch ne ganze Menge mehr Strom wie default, böse Intel-Purschen.
Die Grakas von heute sind schon default teilweise am Limit da sollte man einfach die pfoten davon lassen.
Ne GTX285 mit stark erhöhter Spannung würde auch einen übelsten Verbrauch haben, von der Lüfterlautstärke ganz zu schweigen.

Raff
2009-04-11, 12:29:59
Lest ihr jetzt alle nur noch das, was ihr wollt? Ich rede von diesen sagenumwobenen "OC-Versionen", die garaniert mehr als 225 Watt benötigen. Der 8-Pin-Steckerplatz auf dem PCB ist ja schon da, wie reunion auch sagte.

Aber was rede ich, ich habe ja eh schon den Ruf als Ati-Hasser und werde von einigen Spezialisten nicht mehr ernst genommen. Dabei spreche ich nur Mängel an, die früher oder später den Nutzer stören. Ich geh wieder in die Sonne, ist ja nicht auszuhalten. ;)

MfG,
Raff

reunion
2009-04-11, 12:30:43
Ne GTX285 mit stark erhöhter Spannung würde auch einen übelsten Verbrauch haben, von der Lüfterlautstärke ganz zu schweigen.

Die Karte würde wohl ganz einfach abbrennen oder zumindest abschalten, da der Lüfter schon bei Standardwerten nahe am Limit läuft.

Gast
2009-04-11, 12:40:25
Die haben echt einen an der Waffel. Wer kauft sich so einen Schrott überhaupt? Nur Schwerhörige?
Ich finde die 3,6 Sone der GTX275 schon bedenklich...

Die 5800 Ultra hatte 13 Sone.

MartinRiggs
2009-04-11, 12:41:02
Du hast von einer normalen HD4890 von Asus geredet die du mittels Tool auf absolut beknackte Werte gedroschen hast.
Wenn Asus so einen Müll mitliefert weiss ich nicht was ATI dafür kann....
Auf default läuft die Karte ja so wie sie soll, ich sehe da keinen Mangel

_DrillSarge]I[
2009-04-11, 12:43:08
Und im Furmark gipfelte die lauteste HD 4890 bei über 10 Sone. Nagelt mich nicht darauf fest, aber 100 Prozent resultieren in 15 Sone, wenn ich das richtig im Kopf habe.

MfG,
Raff
:eek:. das ist doch krank, auch wenns "nur" furmark ist. imo kann man heute bei jeder schnelleren karte gleich 40€ für nen anderen kühler einplanen.

Gast
2009-04-11, 12:48:20
Die 5800 Ultra hatte 13 Sone.
Dann ist die FX tatsächlich vergleichsweise "leise".

Nagelt mich nicht darauf fest, aber 100 Prozent resultieren in 15 Sone, wenn ich das richtig im Kopf habe.
Also knapp unter 4870 X2 Niveau, die ~ 16,x Sone erreicht.

Roi Danton
2009-04-11, 13:02:17
Furmark.exe oder die Desktopverknüpfung? LEtztere ist nämlich die ungebremste VollastWas bitte? :confused: Der Furmark hat doch nen GUI für die Optionen.

Ihr wisst aber schon, dass der Lüfter der HD 4890 ein völlig krankes, extrem starkes Exemplar ist, oder? ;)"Scheint" so, als hättest Du noch keine 2900XT in der Hand gehabt. :tongue:

Und apropos Lautstärke - einfach mal ein paar Minuten mit Gartengeräten (bei dem tollen Wetter), Staubsauger oder in Hallen mit technischen Anlagen arbeiten, schon ist die Lautstärke der Grafikkarte nur noch Nebensache. ;D

Gast
2009-04-11, 13:07:07
Der Furmark ist ja auch ein "völlig krankes" Teil. Wenn das Ding Warhead-stable war wo liegt dann das Problem?
Ungefähr bei der A-Klasse und dem Audi TT - wenn du verstehst.

reunion
2009-04-11, 13:15:21
Dann ist die FX tatsächlich vergleichsweise "leise".


Nein, denn die FX hatte die 13 Sone in der Praxis.


Also knapp unter 4870 X2 Niveau, die ~ 16,x Sone erreicht.

100% Lüfter wirst du selbst im Furmark nicht mal annähernd erreichen.

Gast
2009-04-11, 13:24:32
Nein, denn die FX hatte die 13 Sone in der Praxis.

Es war auch eine irre teure High-End Karte.
Die 4890 ist eine Mittelklassekarte.

Welche Karte ist bei 13 sone angenehmer, die FX oder die 4890?


100% Lüfter wirst du selbst im Furmark nicht mal annähernd erreichen.
Sondern, wie viel in einem klimatisierten staubfreien Reinstraum?

Gast
2009-04-11, 13:25:36
Es war auch eine irre teure High-End Karte.
Die 4890 ist eine Mittelklassekarte.
Wenn dann muss die FX mit der 4870 X2 verglichen werden.

Wie siehts aus, wer bietet mehr?

_DrillSarge]I[
2009-04-11, 13:27:01
vollkommen unerheblich wer nun lauter ist oder war. jedenfalls prädikat "zu laut".
das ist halt das problem bei solch einem preisdruck. da ist halt kein geld über für 30€ extra kühlung :(.

V2.0
2009-04-11, 13:37:50
Das ist der Punkt. Für einen Mehrzweck-PC ist alles über 3 Sone schon zu laut. Während der Idleverbrauch ja bei NV (mehr) und ATI (weniger) ok ist, so ist doch bei beiden die Lautstärke unter Last zu hoch bis viel zu hoch.

Johnny Rico
2009-04-11, 15:17:16
Um mal klein Gast und Dargo zu beruhigen. Ich bezog mich auf die Integration des Voltera Plugins in RT.

Gast
2009-04-11, 16:22:43
Aber was rede ich, ich habe ja eh schon den Ruf als Ati-Hasser und werde von einigen Spezialisten nicht mehr ernst genommen.

Richtig, und das völlig zurecht. Genau wie die PCGH ohnehin auch. Ich denke gerade an das alte Wertungssystem bei den Grafikkarten, welches selbst heute noch (der Fairness halber: meine letzte Ausgabe war 12/08) abgedruckt wird. Dort, wo die 8800GT vor sämtlichen 4870 liegt.

Raff
2009-04-11, 16:34:16
Erstens bist du da auf dem falschen Dampfer. Zweitens: Es gibt nun mal Menschen mit Anspruch, gegensätzlich zu jenen, welche Flimmer-AF, Bevormundung und üble Lautstärke tolerieren – obwohl sie dafür Geld bezahlen. Wir leben in einer Welt, wo die Kritik an Missständen zu Kritik an den Kritikern führt. Das ist grotesk.

MfG,
Raff

_DrillSarge]I[
2009-04-11, 16:36:49
Es gibt nun mal Menschen mit Anspruch, gegensätzlich zu jenen, welche Flimmer-AF, Bevormundung und üble Lautstärke tolerieren – obwohl sie dafür Geld bezahlen. Wir leben in einer Welt, wo die Kritik an Missständen zu Kritik an den Kritkern führt. Das ist grotesk.

MfG,
Raff
ey alder, du nvidia-fanboy-n00b. GTFO! X-D

mal ehrlich: vor ner weile hat man pcgh ati-hörigkeit vorgeworfen. jetzt nvidia. :rolleyes:.
naja, diese diskussion ist im pcgh-forum o.ä. besser aufgehoben.

Gast
2009-04-11, 16:50:26
Erstens bist du da auf dem falschen Dampfer. Zweitens: Es gibt nun mal Menschen mit Anspruch, gegensätzlich zu jenen, welche Flimmer-AF, Bevormundung und üble Lautstärke tolerieren – obwohl sie dafür Geld bezahlen. Wir leben in einer Welt, wo die Kritik an Missständen zu Kritik an den Kritikern führt. Das ist grotesk.

MfG,
Raff

Einseitige Scheuklappen-Kritik ist durchaus kritikwürdig. Und die gibt es bei der PCGH bezüglich ATI noch und noch. Dass Du mir gleich Anspruchslosigkeit anheftest, spricht für sich selbst. Wenn NV zum 3.Mal denselben Chip als Neuheit präsentiert, ist das seltsamerweise kaum der Rede wert. Das dazugehörige Namenschaos wird ebenfalls kaum moniert, dabei ist die Verwirrung pure Absicht der Kalifornier. Das ist wennschon grotesk.

Ihr seid beim Testen von ATIs so objektiv wie die Autobild beim Bewerten japanischer Autos. Und das ist ein bisschen einfältig.

Raff
2009-04-11, 16:52:33
Und du bist im falschen Forum, um deine zuckersüße Kritik vorzutragen.

Mods, waltet eures Amtes. Hier sollte es weitergehen: http://extreme.pcgameshardware.de/

MfG,
Raff

The_Invisible
2009-04-11, 17:21:29
Die Karte würde wohl ganz einfach abbrennen oder zumindest abschalten, da der Lüfter schon bei Standardwerten nahe am Limit läuft.

am limit?

meine schaltet bei aktuell 26° C Raumtemp vielleicht auf so 60%, jedoch mäßig übertaktet auf 702/1566/1300.

mfg

deekey777
2009-04-11, 17:52:47
Und du bist im falschen Forum, um deine zuckersüße Kritik vorzutragen.

Mods, waltet eures Amtes. Hier sollte es weitergehen: http://extreme.pcgameshardware.de/

MfG,
Raff
Irgendwas daran unklar?

Gast
2009-04-12, 14:31:21
Es war auch eine irre teure High-End Karte.
Die 4890 ist eine Mittelklassekarte.

Welche Karte ist bei 13 sone angenehmer, die FX oder die 4890?


Sondern, wie viel in einem klimatisierten staubfreien Reinstraum?


Der Vergleich mit der FX hinkt und nervt gewaltig! Zum einen drehte der Fön beim gamen immer auf 100% (beim scrollen im I.E. übrigens auch, AFAIK) auf und zum anderen war die 5800 Ultra performancetechnisch generell einer 9700 oder 9800 gnadenlos unterlegen und reichte bei DX9-Games vielleicht an eine 9500pro heran.

Objektivität scheint diesbezüglich nicht die Stärke mancher Experten zu sein, wenn man es für nötig empfindet, eine gute Grafikkarte mit einem Mist aka 5800Ultra zu vergleichen.

Meine GTX280 würde ich trotzdem nicht gegen die ATI tauschen wollen, gegen die GTX285 wegen angeblichen Spulenpfeifens übrigens auch nicht! Ausdrücken will ich damit, daß Glaubenskrieg in dieser Angelegenheit imo weniger angebracht ist und uns ein konkurenzfähiges Produkt des anderen IHVs eigentlich freuen sollte, da dann die Preise sich auf einem erträglichen Format einpendeln und auch die Treiber ständig aktuell sind.

Gast
2009-04-12, 14:56:13
zum anderen war die 5800 Ultra performancetechnisch generell einer 9700 oder 9800 gnadenlos unterlegen und reichte bei DX9-Games vielleicht an eine 9500pro heran.
Nö, zum Releasezeitpunkt ist die Krone an die 5800 Ultra überreicht worden.
Später hatte die FX Architektur große Schwierigkeiten das stimmt.

Es wurde bereits erleutert, die FX war das Topmodell, die 4890 ist es nicht!
Die 4870 X2 ist AMDs momentane Topdmodell.

Der Vergleich 4890 vs 4870 X2 ist in etwa so, wie wenn ich die FX mit einer 9500 Pro vergleiche, zum Releasezeitpunkt.

Raff
2009-04-12, 15:54:52
Es ist mal wieder nicht so einfach. Die FX 5800 Ultra konnte bei damals "älteren" Spielen, also DX8-Titeln, gut mithalten und die 9700 Pro auch mal hübsch überholen – Füllrate sei Dank. Ging es aber an 4x MSAA/8:1 AF, wischte die Radeon mit der FX meist den Boden. Meist, nicht immer. Warum? Weil die 9700 über mehr Bandbreite und weniger aufwendiges AF als die FX verfügt.

Bei den ersten SM2.0-Titeln gab's erst recht Vernichtung. Das ist heute noch viel krasser zu beobachten: Läuft so manches neues Spiel noch mit einer R3x0-Karte, ist selbst auf einem NV38 sowas von gar nichts zu holen, egal wie extrem man ihn taktet.

MfG,
Raff

y33H@
2009-04-12, 18:30:59
Und bei der GF6/7 bzw. NV40 und G70 setzt sich das fort. Für SM3-Spiele kann man die in die Tonne kloppen. Eine X1950Pro (RV570) sägt eine 79GTX ab und die X1950XTX (R580) lächelt nur müde über eine 7950GX2. Ziemlich heftig. Erst mit GF8 (G80) und der HD-Series (R600) kam AMD [bis heute] ins Hintertreffen. Der RV770 hat zwar fett Power, aber eben viel mehr FLOPS als Füllrate und der Treiber hilft, letzteres zu kompensieren (wenns richtig an die Füllrate geht, geht die HD 4870 in die Knie, bei FLOPS-lastigen Titeln wie dem Furmark rennt sie dafür wie blöde - und außerhalb der Specs *g*).

Wie anno der FX 5800 Ultra und 9700 Pro - nur umgekehrt ...

Gast
2009-04-12, 19:40:24
Und bei der GF6/7 bzw. NV40 und G70 setzt sich das fort. Für SM3-Spiele kann man die in die Tonne kloppen. Eine X1950Pro (RV570) sägt eine 79GTX ab und die X1950XTX (R580) lächelt nur müde über eine 7950GX2.


Ganz und gar nicht. Die Geforces können problemlos mit den Radeons mithalten, wenn man gleiche Bildqualität vergleicht.

y33H@
2009-04-12, 19:47:08
HQ-AF ohne Optis gegen winkelunabhängiges Area-AF? Btw siehts mit 1x MSAA und trilinearer Filterung auch nicht sooo viel anders aus. Die Geforces sind aber näher dran.

Gast
2009-04-13, 11:43:50
Weiß jemand wann die Vapor X Karten kommen?

Gast
2009-04-13, 16:22:13
muahaha

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati-partner_radeon_hd_4890_x2/

HarryHirsch
2009-04-13, 16:26:41
Ein Partner von ATi will mit den so bereitgestellten 375 Watt zwei GPUs vom Typ RV790 sogar mit 1.000 MHz betreiben und die Karte mit bis zu 4.096 MByte GDDR5 ausstatten.Wakü only oder wie?

Raff
2009-04-13, 16:28:46
Oh Gott ... eine weitere Mikroruckel-Karte, die die Welt nicht braucht.

Die sollten lieber mal eine "Green"-Version der HD 4890 bringen, welche mit der crème de la crème der RV790-GPUs bestückt wird: Nur 1,0 Volt unter 3D, dafür jedoch mit 1.000 MHz GPU-Takt und einem gescheiten 2D-Modus.

MfG,
Raff

Gast
2009-04-13, 16:28:48
Das war nicht weiter verwunderlich, die Newsseiten lassen sich so leicht täuschen, das die einfach nur mal irgendein Gerücht in die Welt setzen müssen und schon glaubt es jeder.

Im Endeffekt macht es schon Sinn, so können sie die anderen Karten auslaufen lassen und mit der anderen Nvidia attackieren.

Sollte dies eintreten:
Ein Partner von ATi will mit den so bereitgestellten 375 Watt zwei GPUs vom Typ RV790 sogar mit 1.000 MHz betreiben und die Karte mit bis zu 4.096 MByte GDDR5 ausstatten.

Dann ist das abgesehen von den bekannten Problemen sicher keine schlechte Karte. Zwei 1 GHz Chips und volle 2GB VRAM.

IC3M@N FX
2009-04-13, 16:56:02
Das ist nur gebabbel soll erstmal die Karte rauskommen und im Verkauf stehen dann sehen wir weiter, es wird sehr schwierig bei der Verlustleistung die Karte rauszubringen.
Ob die Karte sinn macht bezweifel ich die HD4870 X2 ist eigentlich ausreichend bis zur nächste Generation. Die sollen mal für die ATI besitzer gescheite Treiber rausbringen damit das Mikroruckler problem und Powerplay Bug bei X2 Karten lösen, und nicht Teufel komm raus eine neue X2 rausholen aber mit den selben Krankheiten wie den Vorgänger.

Gast
2009-04-13, 17:48:48
Oh Gott ... eine weitere Mikroruckel-Karte, die die Welt nicht braucht.
Ich würde schon gern wissen, wie die karte im CF so durch Furmark rennt.

Auf auf, forder Testmuster an. X-D

Sefegiru
2009-04-13, 20:06:54
Warum sollte eigentlich CF mehr Mikroruckler-Probleme haben als SLI? Hat darauf jemand eine sinnvolle und nachvollziehbare Erklärung oder ist das nur Newsgeschreibsel?

anddill
2009-04-13, 20:10:10
Man kann im Treiber Maßnahmen ergreifen, um das Ruckeln zu verringern. Anscheinend hat nVidia das gemacht, und ATI nicht.

Sefegiru
2009-04-13, 20:22:10
Gut das bißchen was ich da bisher an Verbesserungen gesehen hab würde für mich persönlich aber keine Tendenz ausmachen. Ich mein AFR bleibt AFR.

Gast
2009-04-13, 20:27:03
Weltbewegend ist der Unterschied nicht, aber verglichen zur x2 kann man bei der GTX295 schon 10% gemessene FPS draufrechnen, um die effektiven FPS zu erhalten.

_DrillSarge]I[
2009-04-14, 03:19:00
muahaha

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati-partner_radeon_hd_4890_x2/
imo eine "sinnlose" karte. extrem heiss und stromhungrig.

Während eine Radeon HD 4870 X2 maximal 286 Watt aufnimmt und demnach noch mit einem 6-Pin- und einem 8-Pin-Anschluss auskommt, wird eine Radeon HD 4890 X2 zwei 8-Pin-Anschlüsse benötigen.
<snip>
Vier 8-Pin-Anschlüsse für ein CrossFire-System bestehend aus zwei Radeon HD 4890 X2 werden jedoch längst nicht mehr alle Netzteile bedienen können, da selbst High-End-Netzteile oft nur drei 6-Pin- sowie drei 8-Pin-Stecker für Nvidias 3-Way-SLI bieten.
EPIC :eek:
...dann noch quad-cf ;D

Gast
2009-04-14, 04:19:26
I[;7233941']imo eine "sinnlose" karte. extrem heiss und stromhungrig.


yo! macht aber nix sie hat die längsten balken ! :)

=Floi=
2009-04-14, 04:36:11
warum hat man eigentlich jetzt den RV790 entwickelt? Ein refresh sieht für mich anders aus und so wirklich viel schneller die diese karte auch nicht und ati bräuchte sie eigentlich nicht. ATI musste für 1 neue karte einen ganzen refresh auflegen und hat hier wertvolles geld verbrannt.

L.ED
2009-04-14, 07:26:34
Mittlerweile bin ich da auch recht Verärgert und ungehalten, es wäre nun an der Zeit gewesen die HD4 noch einmal in einer Form aufzulegen wo auch in anderen Belangen wenigstens der Stand erreicht wo man mit HD3 schon einmal gewesen!

HD4870 mit dem Idle verbrauch einer HD3870, DAS hätte ich jetzt hier sehen wollen! Wobei und eigentlich wenn ATI sich noch ins Gesicht schauen würde wollen(?), sollte der gar noch etwas niedriger liegen (Stichwort ,,Powerplay 2.0'', und so ;) ).

Das was anstelle dessen nun noch einmal auf die Menschheit losgelassen ist besserer Werksschrott in Auflage 2. :mad: Tut mir Leid aber diese Art an Weiterentwicklung ist für mich keine, gerade auch mit Blick für eine Zukunft!

Wo bleibt sie also, die wirkliche und in allen Belangen würdige Nachfolge zu HD3!? (das war wirklich mal ein guter Ansatz)

Daredevil
2009-04-14, 09:13:10
Die HD4890 hat viel OC Potential, sollte man auch nicht außer acht lassen.
Die OC Versionen gibts schon ab 217€ mit Chiptakt: 900MHz, Speichertakt: 1000MHz.
Die gleiche Sapphire 4870 mit Chiptakt: 750MHz, Speichertakt: 900MHz kostet 165€, des sind also 31% mehr die man investiert und raus bekommt man ~20%.

Ati hat ja auch im Interview gesagt das sie fest davon ausgehen das die Partner OC Versionen auf den Markt bringen.

ATTA
2009-04-14, 10:17:51
http://www.pcstats.com/articleview.cfm?articleid=2387&page=4
1000mhz gpu bei 1,380v und 4800mhz ram ^^

bei der karte kann man softwareseitig die gpu spannung bis zu 1,45v anheben ;) also sollte bei guter kühlung noch einiges mehr gehen !

pest
2009-04-14, 10:37:22
die GPU-Spannung kann man bei jeder Referenzkarte mit Rivatuner anheben
da brauch man keine Asus-Karte dazu

Raff
2009-04-14, 10:43:54
Zumal das Asus-Tool "nur" 1,45 Volt als Maximum anbietet. Mit dem Rivatuner sind auch 1,5+ Volt möglich. :naughty:

MfG,
Raff

Gast
2009-04-14, 10:48:38
I[;7233941']
EPIC :eek:
...dann noch quad-cf ;D
Wenn Quad CF überhaupt läuft. ;)
Ok, der 20 sone ;D Lüfter machts möglich. :D

Die Leistungsaufnahme pro "Karte" liegt dann so bei ~450W, nicht schlecht, das Netzeil muss wie gewohnt weit mehr als 100% Leistung auf den Leitungen bringen. :)

Die HD4890 hat viel OC Potential, sollte man auch nicht außer acht lassen.
Die OC Versionen gibts schon ab 217€ mit Chiptakt: 900MHz, Speichertakt: 1000MHz.
Übertreib mal nicht. Das sind 6/3% Mehrtakt. ;)

Gast
2009-04-14, 10:50:39
Zumal das Asus-Tool "nur" 1,45 Volt als Maximum anbietet. Mit dem Rivatuner sind auch 1,5+ Volt möglich. :naughty:

Muhaha, 1,5V für 2 4890 X2, das muss wahrlich Feuer geben. :devil:

_DrillSarge]I[
2009-04-14, 21:30:34
:ugly:

Inwieweit es AMD den Herstellern tatsächlich freistellt, eine Radeon HD 4890 X2 anzubieten, ist jedoch noch offen. Im Gespräch mit c't wies ein Boardpartner darauf hin, dass AMD beim geplanten Dual-GPU-Modell massiv mit der Hitzeentwicklung zu kämpfen habe und es deshalb noch nicht klar sei, ob eine X2-Version der Radeon HD 4890 überhaupt jemals über die Ladentische wandere. AMD reagierte zurückhaltend auf unsere Anfrage und wollte sich nicht zur möglichen Veröffentlichung einer Radeon HD 4890 X2 äußern.
http://www.heise.de/newsticker/Grafik-Geruechte-Stirbt-Radeon-HD-4890-X2-den-Hitzetod--/meldung/136166

Raff
2009-04-14, 21:53:30
Das ist IMO Bullshit. Etwas Selektion bei der Wahl der GPUs – immerhin reden wir hier von einer teuren High-End-Karte – sollte das locker möglich machen. Warum sollte ein RV790 bei 13 Prozent mehr Takt gleich unabführbare Mengen an zusätzlicher Abwärme produzieren? Sicher, schon die HD 4870 X2 ist heiß, abartig laut/stromhungrig und zudem ein Mikroruckelmonster ... aber zwei GPUs à 1,2 Volt und das Ding flutscht.

MfG,
Raff

_DrillSarge]I[
2009-04-14, 22:11:08
Das ist IMO Bullshit. Etwas Selektion bei der Wahl der GPUs – immerhin reden wir hier von einer teuren High-End-Karte – sollte das locker möglich machen. Warum sollte ein RV790 bei 13 Prozent mehr Takt gleich unabführbare Mengen an zusätzlicher Abwärme produzieren? Sicher, schon die HD 4870 X2 ist heiß, abartig laut/stromhungrig und zudem ein Mikroruckelmonster ... aber zwei GPUs à 1,2 Volt und das Ding flutscht.

MfG,
Raff
sicher ist es möglich, zum einen eine bessere kühlung zu nehmen (sieht man ja an den ganzen 3rd-party teilen; wäre auch für ne x2 drin) und zum anderen die gpus zu selektieren. nur macht das alles wieder teuer.

Tarkin
2009-04-15, 10:06:28
http://www.nordichardware.com/news,9076.html

"First look" der speziellen Asus 4890...

Nakai
2009-04-15, 11:01:59
Was für ne Heatpipekonstruktion...:eek:

Ob das wirklich effektiv ist, auf jedenfall siehts verdammt heiß aus.;)


mfg Nakai

Gast
2009-04-20, 18:53:00
Wie schon die Überschrift andeutet, ist die HD 4890 X2 technisch möglich, ... Eventuelle Hitzeprobleme ließen sich durch den Einsatz von sehr leistungsfähigen, aber auch teuren und lauten Kühllösungen lösen, die die HD 4890 X2 aber unattraktiv machen würden. Auch der angesprochene Stromverbrauch ist kritisch, aber nicht unlösbar versicherte man uns (denn die nächste High-End Generation kommt bestimmt).... Vielmehr ist es die nicht vorhandene Nachfrage nach einem so teuren High-End-Produkt (der Preis dürfte bei über 400 Euro liegen), die die Boardpartner von einem solchen Schritt abhält. Denn in Zeiten, in denen bereits Karten für unter 200 Euro alle gängigen Auflösungen bedienen können, ist der Markt für teure Karten sehr klein geworden und wird zur Zeit noch vollständig durch die 4870 X2 abgedeckt. ... Doch auszuschließen ist es nicht, dass entweder AMD oder einer der Boardpartner den prestigeträchtigen Schritt wagthttp://www.radeon3d.org/index/ati_grafikkarten/april_2009/hd_4890_x2_technisch_moeglich_-_kein_bedarf/

So ganz kann ich mir das nicht vorstellen. Wenn es so einfach machbar ist, warum sollte man es dann nicht machen, schließlich gilt es doch die GTX 295 zu schlagen, oder nicht?

Gast
2009-04-20, 20:33:12
Es wird nicht reichen um die GTX295 zu schlagen, also lässt man es gleich sein.

Jake Dunn
2009-04-20, 20:55:44
Es wird nicht reichen um die GTX295 zu schlagen, also lässt man es gleich sein.
Ja nee is klar, zwei HD4890 reichen doch auch :D

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet

Gast
2009-04-20, 20:57:35
Ja nee is klar, zwei HD4890 reichen doch auch :D

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet

Treiber... und außerdem hat Ati noch nix gegen die Mikroruckler im Sortiment

Gast
2009-04-21, 06:39:39
Die aber selbst die meisten Käufer einer HD 487/90 X2 nicht mal kennen... Und ATIs Plattform zielt ja klar auf weitere X2 Karten.

IC3M@N FX
2009-04-21, 09:20:49
Unwahrscheinlich das die Karte rauskommt war eher viel luft um nix ATI nächste Generation steht vor der Tür. Ich glaube das weder die Boardpartner noch ATI selber das rausholen werden aber hauptsache Wind drum gemacht!

reunion
2009-04-23, 19:48:27
Powercolor mit den ersten Custom-Designs, Taktraten sollen bei 950/1100 liegen:

http://img21.imageshack.us/img21/4025/powercolorpcsplushd4890.jpg
http://img21.imageshack.us/img21/6082/powercolorpcsplushd4890z.jpg

http://www.fudzilla.com/index.php?option=com_content&task=view&id=13339&Itemid=1

Gast
2009-04-23, 19:57:26
Na dann bin ich mal gespannt wie heiss die Spawas bei der Konstruktion werden. Sieht auf dem Bild nach "hot" aus.

derguru
2009-04-23, 20:05:50
die spawas werden das schon verkraften,mich wundert nur das powercolor die karten mit wakü nur mit 900/1000 auf den markt bringt obwohl weitaus mehr gehen würde siehe hier..

m.sch
2009-04-23, 20:23:53
Verbaut PC auch diesen Fujitsu Kondensator wie Asus es macht,wenn nicht könnte es daran liegen.Die Stromanschlüsse kann man auch nicht erkennen.

Die Ultra Asus hat 1x6 1x8

http://img5.pcpop.com/ProductImages/640x480/1/1189/001189374.jpg http://img5.pcpop.com/ArticleImages/500x375/1/1037/001037199.jpg

reunion
2009-04-23, 20:25:38
die spawas werden das schon verkraften,mich wundert nur das powercolor die karten mit wakü nur mit 900/1000 auf den markt bringt obwohl weitaus mehr gehen würde siehe hier..

Naja, man weiß ja nicht welche Wakü der Kunde dann hat.

derguru
2009-04-24, 13:32:38
Ultimate Heavy-Weight Fight: Radeon HD 4890 CrossFireX vs. GeForce GTX 285 SLI (http://xbitlabs.com/articles/video/display/gtx285sli-hd4890cf.html)

Schlammsau
2009-04-24, 15:45:52
http://xbitlabs.com/images/video/gtx285sli-hd4890cf/mgpu_power.png

Actual numbers may be slightly different from the ones mentioned above, because even in 2D mode the power consumption of the secondary card never gets down to 0. Nevertheless, it will give you an idea of the power consumption levels in contemporary multi-GPU systems.

Woooos?

Palpatin
2009-04-24, 16:02:56
4890 CF schein ja richtig gut abzughen, da komme ich noch Glatt in Versuchung mein GTX 280 gegen 2x 4890 zu tauschen, oder doch die 295 GTX oder lieber noch paar Monate durchhalten :).

Gast
2009-04-24, 16:21:07
http://xbitlabs.com/images/video/gtx285sli-hd4890cf/mgpu_power.png



Woooos?

Ich denke die Messung sollte man komplett vergessen. im 2D ist eine karte quasi Tod und im 3D verdoppeln sich die werte um genau 100% ! Wers glaubt

Schlammsau
2009-04-24, 16:22:23
Ich denke die Messung sollte man komplett vergessen. im 2D ist eine karte quasi Tod und im 3D verdoppeln sich die werte um genau 100% ! Wers glaubt

xbit traue ich aber schon zu, dass sie messen können.

Coda
2009-04-24, 16:39:15
Da ist aber wirklich eindeutig etwas falsch gelaufen. Die dritte Karte wird definitiv nicht abgeschaltet.

=Floi=
2009-04-24, 17:55:17
Eigentlich nicht, denn irgendwo passen die zahlen schon zusammen. Intel könnte beim x58 (!) den slot der anderen karten abschalten. So würden dann diese zahlen zustande kommen. Die platform war gleich und der "fehler" tritt bei ati wie bei nv gleichermaßen auf. Im lastbereich passt aber alles!

Gast
2009-04-24, 19:49:59
Das sind definitv keine Messungen bei SLI und CF, sondern errechnete Werte (Einzelkarte x 2).
Exakt der doppelte Lastverbrauch könnte nur bei 100% Skalierung von SLI/CF auftreten.

vinacis_vivids
2009-04-24, 19:57:08
Ultimate Heavy-Weight Fight: Radeon HD 4890 CrossFireX vs. GeForce GTX 285 SLI (http://xbitlabs.com/articles/video/display/gtx285sli-hd4890cf.html)

Die Skalierung der HD4890 unter Grafiklastigen Bedingungen ist ja extrem gut :eek:

Raff
2009-04-24, 20:20:51
Die Zahl an Benchmarks ist zwar nett anzusehen, jedoch nutzen sie den "alten" GeForce 182.50, überflüssigerweise noch mit High Quality gegen den Catalyst 9.4 mit A.I. Standard. Das ist unfair in Sachen BQ/Rechenaufwand. Ok, dafür ist die GTX 285 eben teurer – die 275 ist der "echte" Gegner.

MfG,
Raff

reunion
2009-04-24, 20:24:20
Die Zahl an Benchmarks ist zwar nett anzusehen, jedoch nutzen sie den "alten" GeForce 182.50,

Wenn man einen älteren Treiber bei AMD anmerkt wird das von dir immer vom Tisch gewischt. Zumal der 182.50 der aktuellste Treiber ist den ich von der nV-Homepage bekomme AFAIK.


überflüssigerweise noch mit High Quality gegen den Catalyst 9.4 mit A.I. Standard.

Das ist natürlich nicht nett.

Gast
2009-04-24, 20:24:40
GeForce 182.50, überflüssigerweise noch mit High Quality gegen den Catalyst 9.4 mit A.I. Standard. Das ist unfair in Sachen BQ/Rechenaufwand.

Gibst du mal kurz über den Daumen eine Hausnummer, wie viel HQ zu Quality prozentual etwa ausmacht?! Ist man mit Quality gleichwertig zu A.I. Standard? :)

Raff
2009-04-24, 20:26:27
Wenn man was wegen eines älteren Treibers bei AMD anmerkt wird das von dir immer vom Tisch gewischt. Zumal der 182.50 der aktuellste Treiber ist den ich von der nV-Homepage bekomme AFAIK.

Ich hätte nichts gesagt, wenn es der 185.65 gewesen wäre. ;) Der 185er-Branch brachte eben teils fett Mehrleistung, ohne dass jemand bisher BQ-Defizite feststellen konnte.

Gibst du mal kurz über den Daumen eine Hausnummer, wie viel HQ zu Quality prozentual etwa ausmacht?! Ist man mit Quality gleichwertig zu A.I. Standard? :)

Fünf bis maximal zehn Prozent. Quality sieht in 90% der Fälle immer noch 'nen Ticken besser (flimmerärmer) aus als A.I. Standard.

MfG,
Raff

Gast
2009-04-24, 20:32:49
Fünf bis maximal zehn Prozent. Quality sieht in 90% der Fälle immer noch 'nen Ticken besser (flimmerärmer) aus als A.I. Standard.

Vielen Dank, dann wird es langsam Zeit, dass Nvidia in Sachen Leistungsoptimierung zu ATI aufschließt, da lässt sich bestimmt noch was rauskitzeln wenn qualitaiv noch ein wenig Luft ist und Quality ist ja ein geeigneter Modus dafür. Man könnte ja sogar ein wenig mehr sparen als ATI mit A.I. Standard und sie insofern überflügeln. Die HD4890 ist einfach ein FPS-technisch bärenstarker Konkurrent für die GTX275, das zeigen ja alle Reviews und da muss man ATI gratulieren.

mapel110
2009-04-24, 20:39:15
Quality sieht in 90% der Fälle immer noch 'nen Ticken besser (flimmerärmer) aus als A.I. Standard.

aha, also wenn ATI bis zu 40 % Leistung beim Filter ercheatet, dann tut das nvidia also offenbar auch schon in großem Maß. Sonst würde es ja deutliche Qualitätsunterschiede geben zu Gunsten von nvidia und nicht nur "nen Ticken".

derguru
2009-04-24, 20:40:58
Die Skalierung der HD4890 unter Grafiklastigen Bedingungen ist ja extrem gut :eek:

die skalierung war schon immer sehr gut,aber das die sogut mithalten kann mit der 285gtx hätte ich so nicht gedacht,egal ob jetzt HQ oder nicht.

Raff
2009-04-24, 20:41:43
Vielen Dank, dann wird es langsam Zeit, dass Nvidia in Sachen Leistungsoptimierung zu ATI aufschließt, da lässt sich bestimmt noch was rauskitzeln wenn qualitaiv noch ein wenig Luft ist und Quality ist ja ein geeigneter Modus dafür. Man könnte ja sogar ein wenig mehr sparen als ATI mit A.I. Standard und sie insofern überflügeln. Die HD4890 ist einfach ein FPS-technisch bärenstarker Konkurrent für die GTX275, das zeigen ja alle Reviews und da muss man ATI gratulieren.

Am Arsch – Nvidia kann sich auf höllenheiße Flames einstellen, wenn sie die BQ dauerhaft herabsetzen. Ati soll gefälligst in mehr TMUs investieren und die BQ endlich dem Jahr 2009 anpassen.

aha, also wenn ATI bis zu 40 % Leistung beim Filter ercheatet, dann tut das nvidia also offenbar auch schon in großem Maß. Sonst würde es ja deutliche Qualitätsunterschiede geben zu Gunsten von nvidia und nicht nur "nen Ticken".

Die Unterschiede sind immer dann deutlich, wenn es drauf ankommt: bei "fiesem" Content. Da ist Q besser als A.I. und HQ eine ganz andere Dimension. Und wehe, nun kommt wieder einer mit "Aber wenn kein MIP-Mapping ..." ;)

MfG,
Raff

Gast
2009-04-24, 20:42:21
Zumal der 182.50 der aktuellste Treiber ist den ich von der nV-Homepage bekomme AFAIK.
Nö.

Nvidia bietet an:
GeForce 185.68 April 8, 2009
GeForce 185.66 April 3, 2009
GeForce 182.50 April 2, 2009

reunion
2009-04-24, 20:42:54
Ich hätte nichts gesagt, wenn es der 185.65 gewesen wäre. ;) Der 185er-Branch brachte eben teils fett Mehrleistung, ohne dass jemand bisher BQ-Defizite feststellen konnte.


Ich zitiere dich mal:

Hehe, immer dieser Dünnpfiff wegen "alter" Treiber. Jeder Test ist eine Momentaufnahme. Komisch, dass bei diesen meist Nvidia die Nase vorn hat. Dann schiebt Ati einen Treiber nach, der soo viel besser sein soll als der alte. Das bedeutet anders formuliert nur, dass der andere Treiber Mist bzw. die Treiberabteilung zu langsam war. Nvidia hat übrigens auch schon einen neueren Treiber auf dem Strich, ergo passt der Test so, wie er ist.


Der 185er Treiber ist eben noch nicht offiziell, zumal es auch oft genug Tests gab wo bei AMD ältere Treiber verwendet wurden, welche du immer nach oberen Muster weggewischt hast. :)

vinacis_vivids
2009-04-24, 20:43:17
Ich hätte nichts gesagt, wenn es der 185.65 gewesen wäre. ;) Der 185er-Branch brachte eben teils fett Mehrleistung, ohne dass jemand bisher BQ-Defizite feststellen konnte.

MfG,
Raff

Man kann sicher auch für Nvidia übertreiben:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_nvidia_geforce_18566_beta/8/#abschnitt_performancerating

Akkumuliert sind es 2% Steigerung unter 4AA/16 AF.

reunion
2009-04-24, 20:44:16
aha, also wenn ATI bis zu 40 % Leistung beim Filter ercheatet, dann tut das nvidia also offenbar auch schon in großem Maß. Sonst würde es ja deutliche Qualitätsunterschiede geben zu Gunsten von nvidia und nicht nur "nen Ticken".

Na klar spart nV bei Quality auch deutlich, was hast du erwartet?

vinacis_vivids
2009-04-24, 20:45:07
die skalierung war schon immer sehr gut,aber das die sogut mithalten kann mit der 285gtx hätte ich so nicht gedacht,egal ob jetzt HQ oder nicht.

Was auch bedeutet, dass die Nvidia unter SLI eher schlechter skaliert als ATI mit Crossfire.

Gast
2009-04-24, 20:46:31
Ati soll gefälligst in mehr TMUs investieren und die BQ endlich dem Jahr 2009 anpassen.
Haben sie schon, schnelles 8xMSAA, für ein paar Freaks auch die draufsetzbaren Blurmodi.
Kombiniert mit einem Schein 16xAF Modus und alle Welt ist Glücklich.

Nvidia kann sich auf höllenheiße Flames einstellen, wenn sie die BQ dauerhaft herabsetzen. Zumindest aus dem Lager, die dies bei AMD gutheißen.
Am besten Nvidia koppelt erstmal allerlei Shaderreplacements oder Anwendungsspezifische Optimierungen an "Q", erst dann haben sie eine Chance mit dem Cheaten durchzukommen.

Gast
2009-04-24, 20:46:38
Am Arsch – Nvidia kann sich auf höllenheiße Flames einstellen, wenn sie die BQ dauerhaft herabsetzen.
So lang sie HQ unangetastet lassen, wäre es doch egal und ATI kann bei der HD4870/90 mit einem viel günstigeren Chip eben ordentlich punkten, da wäre es doch legitim, wenn Nvidia nicht auch noch bessere Qualität abliefern würde, dankt ihnen doch eh keiner. :eek:

Gast
2009-04-24, 20:48:11
Der 185er Treiber ist eben noch nicht offiziell
Blödsinn.
Er ist seit 2,3 Wochen höchstoffiziell bei Nvidia erwerbbar.

Offizieller als Offiziell geht kaum

vinacis_vivids
2009-04-24, 20:49:04
Warum sehe ich in letzter Zeit häufiger "Gäste" die latent und implizit ATI schlecht reden?

reunion
2009-04-24, 20:49:09
Blödsinn.
Er ist seit 2,3 Wochen höchstoffiziell bei Nvidia erwerbbar.

Offizieller als Offiziell geht kaum

Ich habe es gerade probiert und den 182.50 zum Download angeboten bekommen. Was habe ich falsch gemacht?
Aber du kannst ja gerne dein Glück versuchen: http://www.nvidia.com/Download/index.aspx?lang=en-us

Gast
2009-04-24, 20:49:09
Was auch bedeutet, dass die Nvidia unter SLI eher schlechter skaliert als ATI mit Crossfire.

Nein tut es nicht.

Raff
2009-04-24, 20:49:20
Ich zitiere dich mal:

Der 185er Treiber ist eben noch nicht offiziell, zumal es auch oft genug Tests gab wo bei AMD ältere Treiber verwendet wurden, welche du immer wie oben weggewischt hast. :)

Ich weiß, was ich von mir gebe, aber danke. ;) Fakt ist, dass ein relevantes Treiberupdate genutzt werden sollte, um fair zu benchen. Das gilt natürlich genauso für Ati – völlig klar. Der Catalyst 9.4 ist z. B. in Fallout 3 rund 5 Prozent schneller als der 9.3. So aber wirkt der Test zu Gunsten Atis manipuliert. Die hatten genug Zeit, was der 182.50 signalisiert (der ist nicht neuer als der erste 185-er).

MfG,
Raff

Schlammsau
2009-04-24, 20:50:41
Blödsinn.
Er ist seit 2,3 Wochen höchstoffiziell bei Nvidia erwerbbar.

Offizieller als Offiziell geht kaum

offiziell unter den Beta Releasen. ;D

vinacis_vivids
2009-04-24, 20:50:47
Nein tut es nicht.

Aba Sicha ;)
Und das ist nicht mal eine neue Erkenntnis. Dass aber die HD4890 in CF öfters SLI285 GTX überholt hat mich indes trotzdem überrascht.

derguru
2009-04-24, 20:51:32
Was auch bedeutet, dass die Nvidia unter SLI eher schlechter skaliert als ATI mit Crossfire.

nichts neues außer bei paar speziell gesponsorten titeln.;)

Gast
2009-04-24, 20:52:50
Die Warhead Werte sind auch putzig ein GTX285 SLI vs. GTX280 SLI 22fps vs. 9fps...das ist theoretisch garnicht möglich ein sehr schlechter Test

Gast
2009-04-24, 20:53:15
Ich habe es gerade probiert und den 182.50 zum Download angeboten bekommen. Was habe ich falsch gemacht?
Aber du kannst ja gerne dein Glück versuchen: http://www.nvidia.com/Download/index.aspx?lang=en-us
Schon echt schwer.
http://www.nvidia.com/object/winxp64_185.68_beta.html

Da brauche ich bei AMD 20mal so viele Klicks, um andere Treiber als 9.4 oder gar Hotfixes zu bekommen.

Wie xmal geschrieben, Nvidia bietet sie an (185.66 und 185.65) damit sind sie offiziell.
Egal wie blöd du dich wieder stellst.

Gast
2009-04-24, 20:53:34
Aba Sicha ;)
Und das ist nicht mal eine neue Erkenntnis. Dass aber die HD4890 in CF öfters SLI285 GTX überholt hat mich indes trotzdem überrascht.

Belege es doch mal...aber bitte keine Balken sondern warum das so ist? Ich höre?

Gast
2009-04-24, 20:53:44
offiziell unter den Beta Releasen. ;D
Ändert das etwas an der Offiziellität?

mapel110
2009-04-24, 20:54:41
Na klar spart nV bei Quality auch deutlich, was hast du erwartet?
Dies hier lässt anderes vermuten.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7244748&postcount=52
Es kommt zu wenig bei rum, wenn sie offensichtlich sparen beim Filtern.

Gast
2009-04-24, 20:54:58
Aba Sicha ;)
Und das ist nicht mal eine neue Erkenntnis. Dass aber die HD4890 in CF öfters SLI285 GTX überholt hat mich indes trotzdem überrascht.

Aber dafür weniger Mikroruckler :-)

reunion
2009-04-24, 20:55:50
Schon echt schwer.
http://www.nvidia.com/object/winxp64_185.68_beta.html

Da brauche ich bei AMD 20mal so viele Klicks, um andere Treiber als 9.4 oder gar Hotfixes zu bekommen.

Wie xmal geschrieben, Nvidia bietet sie an (185.66 und 185.65) damit sind sie offiziell.
Egal wie blöd du dich wieder stellst.

Genial, und wie komme ich da hin ohne Direktlink? Nicht jeder kennt die NV-Seite in und auswendig. :rolleyes:

Ich bin ganz normal über "download drivers" gegangen und habe meine Karte ausgewählt.

Gast
2009-04-24, 20:56:07
nichts neues außer bei paar speziell gesponsorten titeln.;)

AFR ist bei Ati/NV gleich daher ist die Aussage Blödsinn.

vinacis_vivids
2009-04-24, 20:56:25
Die Warhead Werte sind auch putzig ein GTX285 SLI vs. GTX280 SLI 22fps vs. 9fps...das ist theoretisch garnicht möglich ein sehr schlechter Test

Du musst mal Lesen lernen. Dann lösen sich auch deine Probleme.
http://xbitlabs.com/images/video/gtx285sli-hd4890cf/crysiswh.png

Da steht:
GTX285 SLI = 15,5
GTX280 SLI = 14,7
GTX285 = 9,1
HD4890 = 11,2
CF HD4890 = 19,6

Gast
2009-04-24, 20:56:43
Du musst mal Lesen lernen. Dann lösen sich auch deine Probleme.
http://xbitlabs.com/images/video/gtx285sli-hd4890cf/crysiswh.png

Da steht:
GTX285 SLI = 15,5
GTX280 SLI = 14,7
GTX285 = 9,1
HD4890 = 11,2
CF HD4890 = 19,6

Minimumfps...

Raff
2009-04-24, 20:56:44
Aber dafür weniger Mikroruckler :-)

Haha. Das juckt leider keine Sau, nicht mal hier. Alle sehen Balken, kriegen selbst einen und wollen eine Radeon. Zum Hoylen.

Klar, die HD 4890 ist sauschnell für 200 €uro. Übertaktet sogar GTX-285-Niveau. Aber was zum Teufel hilft mir das, wenn ich beim Zocken Schmerzen bekomme? Letztens sagte jemand "Ati ist für die Masse (schnell und günstig), Nvidia für qualitätsbewusste Spieler" – word!

MfG,
Raff

vinacis_vivids
2009-04-24, 20:57:31
AFR ist bei Ati/NV gleich daher ist die Aussage Blödsinn.

Das ändert doch nichts an der Tatsache, dass Nvidia die Technik vielleicht schlechter umsetzt und damit auch schlechter skaliert.

reunion
2009-04-24, 20:57:47
Dies hier lässt anderes vermuten.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7244748&postcount=52
Es kommt zu wenig bei rum, wenn sie offensichtlich sparen beim Filtern.

TEX-Ops lassen sich sehr gut hinten der ALU-Berechnungen verstecken. Zumal nV ohnehin viel TEX-Power hat. Wenn du messen willst wie viel sie Einsparen brauchst du einen Füllratentest wie UT2003.

Gast
2009-04-24, 20:58:08
Haha. Das juckt leider keine Sau, nicht mal hier. Alle sehen Balken, kriegen selbst einen und wollen eine Radeon. Zum Hoylen.


Traurig nöch? Aber was willste machen...

vinacis_vivids
2009-04-24, 20:58:49
Minimumfps...

280GTX = kein PCIe 2.0 ;)

Gast
2009-04-24, 20:59:26
Das ändert doch nichts an der Tatsache, dass Nvidia die Technik vielleicht schlechter umsetzt und damit auch schlechter skaliert.

Schlechter umsetzt? LOL ... sag mal überlegst du auch mal bevor du so etwas behauptest?

Gast
2009-04-24, 20:59:52
Genial, und wie komme ich da hin ohne Direktlink?

Per 3 Mausklick von der Hauptseite aus, inklusive der Suche? :rolleyes:

Nicht jeder kennt die NV-Seite in und auswendig.
Willst du über nvidias Seite diskutieren oder den Umstand das dieser Treiber somit offiziell ist?
Bei ersteres kannst du erstmal schön erklären, wie viele Klicks ich brauche um Catalyst 9.3 auf amd.com zu finden.

Raff
2009-04-24, 21:00:11
280GTX = kein PCIe 2.0 ;)

Was? Natürlich kann die das.

MfG,
Raff

Gast
2009-04-24, 21:00:27
280GTX = kein PCIe 2.0 ;)
Unfug.

Gast
2009-04-24, 21:00:40
280GTX = kein PCIe 2.0 ;)

Wie bitte? Na du hast ne Ahnung *lach*

derguru
2009-04-24, 21:01:24
AFR ist bei Ati/NV gleich daher ist die Aussage Blödsinn.

schon seltsam warum nicht dann die skalierungen prozentual gleich sind.:wink:

MartinRiggs
2009-04-24, 21:01:36
280GTX = kein PCIe 2.0 ;)

Sorry, aber ich glaube nicht das du weisst wovon du redest:rolleyes:
SLI skaliert schlechter weil NV es nicht drauf hat, die 280GTX kann kein PCIe 2.0, vermute es kommt als nächstes das unnütze DX10.1;D

Gast
2009-04-24, 21:02:23
schon seltsam warum nicht dann die skalierungen prozentual gleich sind.:wink:

Warum wohl? Profile sind unterschiedlich...mal ist das ein mal das andere besser. Pauschalisieren lässt sich sowas nicht.

MartinRiggs
2009-04-24, 21:03:32
Warum wohl? Profile sind unterschiedlich...mal ist das ein mal das andere besser. Pauschalisieren lässt sich sowas nicht.

Genau so ist es, ich hab schon genug Game-Tests gelesen wo die HD4870X2 irgendwie kaum oder gar nicht vor meiner Karte war......

vinacis_vivids
2009-04-24, 21:04:14
Schlechter umsetzt? LOL ... sag mal überlegst du auch mal bevor du so etwas behauptest?

Ja, schlechter umsetzen. Richtig. Das sieht man an prozentual schlechteren SLI-Skalierung gegenüber Crossfire.

Gast
2009-04-24, 21:04:50
Ja, schlechter umsetzen. Richtig. Das sieht man an prozentual schlechteren SLI-Skalierung gegenüber Crossfire.

Ist schon ok mein Freund ;)

reunion
2009-04-24, 21:05:01
Per 3 Mausklick von der Hauptseite aus, inklusive der Suche? :rolleyes:

Willst du über nvidias Seite diskutieren oder den Umstand das dieser Treiber somit offiziell ist?
Bei ersteres kannst du erstmal schön erklären, wie viele Klicks ich brauche um Catalyst 9.3 auf amd.com zu finden.

Okay, du bist offensichtlich ohnehin nur zum stänkern da. Ich habe ihn nicht gefunden. Schön das er irgendwo versteckt offensichtlich von nV angeboten wird. Wenn man den normalen Weg geht bekommt man davon jedenfalls nichts mit. Da als beta deklariert allerdings ohne Support. Ich finde es nicht verwerflich darauf bei einem Test zu verzichten.

vinacis_vivids
2009-04-24, 21:05:22
Sorry, aber ich glaube nicht das du weisst wovon du redest:rolleyes:
SLI skaliert schlechter weil NV es nicht drauf hat, die 280GTX kann kein PCIe 2.0, vermute es kommt als nächstes das unnütze DX10.1;D

die 280GTX hab ich gerade mit der 8800GTX verwechselt. Und SLI skaliert schlechter. Das hat nichts mit Ahnung zu tun.

vinacis_vivids
2009-04-24, 21:06:02
Ist schon ok mein Freund ;)

Danke für die Zustimmung. Ich werds nachher mal ausrechnen für den geposteten Test.

Raff
2009-04-24, 21:08:23
Okay, du bist offensichtlich ohnehin nur zum stänkern da. Ich habe ihn nicht gefunden. Schön das er irgendwo versteckt offensichtlich von nV angeboten wird. Wenn man den normalen Weg geht bekommt man davon jedenfalls nichts mit. Da als beta deklariert allerdings ohne Support. Ich finde es nicht verwerflich darauf bei einem Test zu verzichten.

Hrhr, wenn ich fies wäre, würde ich jetzt von meinen täglichen Erlebnissen erzählen, bei denen neue "WHQL"-Catalysts immer wieder herumzicken, während die Nvidia-Betas meist handzahm sind. Aber ich bin nicht fies, sondern sage nur: Namen sind ebenso Schall und Rauch wie Qualitätsstandards. ;)

MfG,
Raff

Gast
2009-04-24, 21:10:19
Danke für die Zustimmung. Ich werds nachher mal ausrechnen für den geposteten Test.

Du hast keinen Plan...typischer Noob

Gast
2009-04-24, 21:11:00
Okay, du bist offensichtlich ohnehin nur zum stänkern da. Ich habe ihn nicht gefunden. Schön das er irgendwo versteckt offensichtlich von nV angeboten wird. Wenn man den normalen Weg geht bekommt man davon jedenfalls nichts mit. Da als beta deklariert allerdings ohne Support. Ich finde es nicht verwerflich darauf bei einem Test zu verzichten.Scheinbar hast du die 3 Klicks statt 2 Klicks doch geschafft.

Du sollst lernen:

Offizielle Treiber:
Alles was Nvidia anbietet.
-Beta, WHQL Beta, Alpha, ...

Inoffizielle Treiber:
Alles, was sich Nvidia nicht anbietet:
-Beta, WhQL Beta, Alpha, Modded, ...


Jetzt denk über deine Aussage nach.
Hättest du gleich Beta geschrieben, wärs deutlich klarer, dann hätten wir gleich darüber diskutieren können, warum einmal Betas erlaubt sind, einmal nicht und was überhaupt an Betas dran ist.

Gast
2009-04-24, 21:11:57
die 280GTX hab ich gerade mit der 8800GTX verwechselt. Und SLI skaliert schlechter. Das hat nichts mit Ahnung zu tun.
Du bist auch sicher, das die Rechenleistung zu 100% limitiert hat?

reunion
2009-04-24, 21:13:51
Hrhr, wenn ich fies wäre, würde ich jetzt von meinen täglichen Erlebnissen erzählen, bei denen neue "WHQL"-Catalysts immer wieder herumzicken, während die Nvidia-Betas meist handzahm sind. Aber ich bin nicht fies, sondern sage nur: Namen sind ebenso Schall und Rauch wie Qualitätsstandards. ;)

MfG,
Raff

Tja, ich habe auch genug Beta-Treiber erlebt die besser liefen als so manche offizielle, das ändert aber nichts daran das nV den Treiber aus welchen Gründen auch immer noch als Beta deklariert und den 182.50 anbietet wenn man über die Homepage einen neuen Treiber downloaden will.

Gast
2009-04-24, 21:18:35
Tja, ich habe auch genug Beta-Treiber erlebt die besser liefen als so manche offizielle, das ändert aber nichts daran das nV den Treiber aus welchen Gründen auch immer noch als Beta deklariert und den 182.50 anbietet wenn man über die Homepage einen neuen Treiber downloaden will.
Und das ändert nichts an seiner Offizialität.

vinacis_vivids
2009-04-24, 21:20:42
Die Skalierung der HD4890 unter Grafiklastigen Bedingungen ist ja extrem gut :eek:

Hier sieht man es deutlicher.

http://www.abload.de/img/skalierung2560gs5t.png

Du bist auch sicher, das die Rechenleistung zu 100% limitiert hat?

Wenn es so wäre, dann gilt für CF4890 und SLI285 die gleichen Bedingungen, da sie ja mit nahezu gleichen Systemen getestet worden sind.

reunion
2009-04-24, 21:21:03
Scheinbar hast du die 3 Klicks statt 2 Klicks doch geschafft.

Ja, ich habe es mittlerweile nach längeren durchstöbern der Seite gefunden. Ist ja nicht gerade deutlich hervor gehoben. Aber zum Glück bekam ich ja von dir schon vorher einen Direktlink.


Du sollst lernen:

Offizielle Treiber:
Alles was Nvidia anbietet.
-Beta, WHQL Beta, Alpha, ...

Inoffizielle Treiber:
Alles, was sich Nvidia nicht anbietet:
-Beta, WhQL Beta, Alpha, Modded, ...


Jetzt denk über deine Aussage nach.
Hättest du gleich Beta geschrieben, wärs deutlich klarer, dann hätten wir gleich darüber diskutieren können, warum einmal Betas erlaubt sind, einmal nicht und was überhaupt an Betas dran ist.

Schön. Er ist offiziell, offiziell beta - zweifelsfrei. Aber es ist müssig darüber zu diskutieren.

y33H@
2009-04-24, 21:22:16
Man bencht mit dem letzten offiziellen Treiber - egal ob sich das Beta, Hotfix oder WHQL schimpft. Und wenn AMD halt nur alle vier Wochen was releast und nV halt alle zwei Wochen, dann ist das deren Sache. Zumal die Catalysts oft auch als WHQLs mehr spacken als nVidias Betas. Leider.

Gast
2009-04-24, 21:25:02
Hier sieht man es deutlicher.

http://www.abload.de/img/skalierung2560gs5t.png

Was ist daran deutlicher? Soll ich auch mal die Suche gehn ich finde auch Ergebnisse wo es genau umgedreht ist... Es liegt an Profilen oder CPU Limits wenn es Unterschiede gibt. Crossfire krankt an viel entscheidenderen Nachteilen wie fehlende Profilbearbeitungsmöglichkeiten, schlechtere Gamesunterstützung und stärkeren Mikrorucklern.

reunion
2009-04-24, 21:28:26
Man bencht mit dem letzten offiziellen Treiber - egal ob sich das Beta, Hotfix oder WHQL schimpft. Und wenn AMD halt nur alle vier Wochen was releast und nV halt alle zwei Wochen, dann ist das deren Sache. Zumal die Catalysts oft auch als WHQLs mehr spacken als nVidias Betas. Leider.

Vielleicht kam der Treiber auch ganz einfach zu spät, soll ja auch vorkommen. Vielleicht sind sie auch einfach auf die Homepage gegangen und haben den vermeidlich neusten Treiber herunter geladen, wer weiß. Vielleicht wollten sie auch nur mit offiziell supporteten Treibern benchen. So oder so ist NV selbst Schuld wenn sie den Treiber auf der Homepage verstecken und als Beta deklarieren oder es sich von Releasetermin nicht mehr ausgegangen ist.

vinacis_vivids
2009-04-24, 21:29:00
Was ist daran deutlicher? Soll ich auch mal die Suche gehn ich finde auch Ergebnisse wo es genau umgedreht ist... Es liegt an Profilen oder CPU Limits wenn es Unterschiede gibt. Crossfire krankt an viel entscheidenderen Nachteilen wie fehlende Profilbearbeitungsmöglichkeiten, schlechtere Gamesunterstützung und stärkeren Mikrorucklern.

Die Spiele die oben getestet wurden, sind aktuell und werden häufig gespielt.
Dazu kommt noch das Kriterium, dass MultiGPU in diesen Spielen bei beiden Firmen funktionieren.
Es macht ja kaum sinn, Leistung in Bezug auf MultiGPU skalierung zu vergleichen wenn das Spiel kein MGPU unterstützt.

y33H@
2009-04-24, 21:31:15
Vielleicht kam der Treiber auch ganz einfach zu spät, soll ja auch vorkommen.Möglich, klar. Allerdings steht bei den Xbitlabs 9.4 - und die 185er gabs schon zuvor. Es sei denn, sie meinen den 9.4 Launchtreiber.

vinacis_vivids
2009-04-24, 21:31:18
Was ist daran deutlicher? Soll ich auch mal die Suche gehn ich finde auch Ergebnisse wo es genau umgedreht ist... Es liegt an Profilen oder CPU Limits wenn es Unterschiede gibt.

Stichwort CPU Limits:
Guck dir die Werte von Warhead und Clearsky an:
http://www.abload.de/img/skalierung2560gs5t.png

Gast
2009-04-24, 21:32:51
Die Spiele die oben getestet wurden, sind aktuell und werden häufig gespielt.
Dazu kommt noch das Kriterium, dass MultiGPU in diesen Spielen bei beiden Firmen funktionieren.
Es macht ja kaum sinn, Leistung in Bezug auf MultiGPU skalierung zu vergleichen wenn das Spiel kein MGPU unterstützt.

Du hast nicht verstanden worum es geht. Alleine die Aussage "Wenn es so wäre, dann gilt für CF4890 und SLI285 die gleichen Bedingungen, da sie ja mit nahezu gleichen Systemen getestet worden sind." zeigt das du nicht weisst wovon du da schreibst.

Gast
2009-04-24, 21:34:02
Stichwort CPU Limits:
Guck dir die Werte von Warhead und Clearsky an:
http://www.abload.de/img/skalierung2560gs5t.png

Vieleicht mal lesen bei Stalker das dort DX10.1 getestet wurde. Bei Warhead liegts am Profil, die 185.68 bringen dort einen ordentlichen Boost.

Daredevil
2009-04-24, 21:34:29
Das Ati karten unter den übelsten Settings rocken ist ja bekannt. ( Ob das wohl immer noch was damit zutun hat das ATI das bessere Speichermanagement hat? )
Das Crossfire in diesem Test besser skaliert ist auch toll, aber Nvidia hat bekannter Maßen weniger µRuckler, ist nur die Frage ob diese Verbesserung auf die Performance geht, denn 80% Performance mit wenig Ruckler > 100% Performance mit viel Ruckler.

y33H@
2009-04-24, 21:37:02
Ob das wohl immer noch was damit zutun hat das ATI das bessere Speichermanagement hat?Wenn der VRAM überläuft, ja. Ansonsten ists der leichte 8x MSAA-Vorteil, das wars dann auch schon.

vinacis_vivids
2009-04-24, 21:40:14
Du hast nicht verstanden worum es geht. Alleine die Aussage "Wenn es so wäre, dann gilt für CF4890 und SLI285 die gleichen Bedingungen, da sie ja mit nahezu gleichen Systemen getestet worden sind." zeigt das du nicht weisst wovon du da schreibst.

Du hast mich nicht verstanden und du verstehst nicht was skalierung bedeutet. Sklalierung bedeutet für mich in diesem Sinne der prozentuale Leitungsgewinn durch eine zweite Grafikkarte, sei es ATI oder NV.

Vielleicht sieht man es hier besser: (Auflösung 2560)
http://www.abload.de/img/skalierung-vergleich25cpgx.png

vinacis_vivids
2009-04-24, 21:43:50
Vieleicht mal lesen bei Stalker das dort DX10.1 getestet wurde. Bei Warhead liegts am Profil, die 185.68 bringen dort einen ordentlichen Boost.

Und was ist an Stalker 10.1 auszusetzen?
Bei Warhead kann der Treiber einen boost bringen, was aber noch lange nicht beudeutet, dass Nvidia da autmatisch besser skaliert.

Gast
2009-04-24, 21:44:12
Du hast mich nicht verstanden und du verstehst nicht was skalierung bedeutet. Sklalierung bedeutet für mich in diesem Sinne der prozentuale Leitungsgewinn durch eine zweite Grafikkarte, sei es ATI oder NV.

Vielleicht sieht man es hier besser: (Auflösung 2560)
http://www.abload.de/img/skalierung-vergleich25cpgx.png

Ohje...wie oft denn noch? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7256248&postcount=488
Gehts jetzt endlich mal rein?

derguru
2009-04-24, 21:45:48
Das Crossfire in diesem Test besser skaliert ist auch toll, aber Nvidia hat bekannter Maßen weniger µRuckler, ist nur die Frage ob diese Verbesserung auf die Performance geht, denn 80% Performance mit wenig Ruckler > 100% Performance mit viel Ruckler.

jo stimmt in ein oder 2 spielen die besonders viel in benchmarkseiten auftauchen,das ist eh das lächerlichste von allen vorurteilen vorallem dann die aussagen wie "es fühlt sich smoother an",rofl, ja in der hose.:wink:

dann will ich auch beweise dazu mit frameverläufe von einigen spielen und nicht dieses gefühlsdusel zeug.