PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4890: (P)Review-Thread


Seiten : 1 2 [3] 4 5

Gast
2009-04-24, 21:47:45
Und was ist an Stalker 10.1 auszusetzen?
Bei Warhead kann der Treiber einen boost bringen, was aber noch lange nicht beudeutet, dass Nvidia da autmatisch besser skaliert.

NICHT vergleichbar! Kappische?

vinacis_vivids
2009-04-24, 21:49:33
Ohje...wie oft denn noch? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7256248&postcount=488
Gehts jetzt endlich mal rein?

Hä? Was willst du denn von mir?
Unter den gestesteden SPielen sind:
* Call of Duty: World at War
* Crysis Warhead
* Enemy Territory: Quake Wars
* Far Cry 2
* F.E.A.R 2: Project Origin
* Left 4 Dead
* S.T.A.L.K.E.R.: Clear Sky

Das deckt für mich das neueste und u.a. anspruchsvollste an Spielen ab. Ich denke du machst dich mal auf der Suche nach dem Gegenbeweis. Der muss natürlich einigermaßen aktuell sein.

vinacis_vivids
2009-04-24, 21:52:32
NICHT vergleichbar! Kappische?

Nee, es lautet:
- bei Stalker Clear Sky skaliert Crossfire besser, sogar ziemlich deutlich
- CF 4890 ist in diesem fall auch noch schneller als SLI 285
- auch unter dem Aspekt, dass DX10.1 da noch ne ganze schippe besser aussieht

Gast
2009-04-24, 21:55:43
Das deckt für mich das neueste und u.a. anspruchsvollste an Spielen ab. Ich denke du machst dich mal auf der Suche nach dem Gegenbeweis. Der muss natürlich einigermaßen aktuell sein.

Ich muss garnix beweisen jeder Normaldenkende hat verstanden worum es geht. Du vergleichst hier Äpfel mit Birnen ohne zu kapieren warum die Ergebnisse so sind wie sie sind. Einfach mal verstehn das Profile erheblichen Einfluss auf die Skalierung haben können, ebenso VRAM Limits auftreten sowie CPU Limits die erheblichen Einfluss auf die Ergebnisse haben können. Hast du es jetzt verstanden oder soll ich es noch 1000mal wiederholen?

Gast
2009-04-24, 21:56:38
Nee, es lautet:
- bei Stalker Clear Sky skaliert Crossfire besser, sogar ziemlich deutlich
- CF 4890 ist in diesem fall auch noch schneller als SLI 285
- auch unter dem Aspekt, dass DX10.1 da noch ne ganze schippe besser aussieht

*seufz*

y33H@
2009-04-24, 21:56:56
Mich würde mal die Version von Clear Sky interessieren. Ab der v1.5.08 siehts für die Geforces deutlich besser aus.

Gast
2009-04-24, 23:06:22
unfassbar , dass man schon die mausklicks zählt bis man den treiber downloaden kann . weil man auf der amd-hp 2mal öfter klicken muss als bei nvidia bis man im downloadbereich ist , wird wohl keiner mehr ati-karten kaufen . die last , die durch 2 weitere klicks verursacht wird , könnte ja schließlich für ne falte im zeigefinger sorgen und die lebensdauer der maus würde sich schlagartig verringern .
das erinnert mich an die arme frau aus den staaten , die nach nem unfall eine autofirma verklagt hat , weil diese im benutzerhandbuch nicht vermerkt hatten wie man sich anschnallt
ich weiss garnicht, wieso ati kein supersampling anbietet . wenn eine mit standardtakt laufende 4890 bei 8xaa schon schneller ist als ne gtx 285 , wie würde das dann wohl mit SSAA aussehen
bissl off topic aber nur aus interesse : wurde der vram bug auf den g80 karten damals so dreist kritisiert wie atis schlechtere af-qualie von den gleichen leuten hier ? wenn ja , kramt bitte paar comments raus oder hört auf zu erzählen ihr seid neutral . neutral - my ass neutral seid ihr :D
viel spass weiterhin beim ati bashen wünscht euch der stille gast , gesponsert von news.ati-forum.de

mapel110
2009-04-24, 23:14:58
Mich würde mal die Version von Clear Sky interessieren. Ab der v1.5.08 siehts für die Geforces deutlich besser aus.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_5_spiele_direct3d_101_test/6/#abschnitt_stalker_clear_sky
Da gibts gerade frisch erschienene aktuelle Zahlen. 185.68 und Cat 9,4 im Test.

_DrillSarge]I[
2009-04-24, 23:16:24
Ja, schlechter umsetzen. Richtig. Das sieht man an prozentual schlechteren SLI-Skalierung gegenüber Crossfire.
nimm andere spiele, bekommste ein anderes verhältnis. die technik ist bei beiden dieselbe. es hängt nur am treiber.
bei mainstreamgames kann man auch keine allgemein gültige aussage über mgpu treffen, da gerade dort optimiert wird. abseits von rucklern etc. ist wichtig, dass der treiber es schafft mgpu möglichst überall ordentlich umsetzen zu können. da sowas kaum jemand testet, kann man nur kaufen und hoffen :D.

y33H@
2009-04-24, 23:19:58
Da gibts gerade frisch erschienene aktuelle Zahlen. 185.68 und Cat 9,4 im Test.Und wo steht da, dass man mit der v1.5.08 gebencht hat?! Die normalen Benches werden mit der alten v1.5.06 gemacht ...

EDIT
An dieser Stelle noch einmal der Hinweis: AMD ist vor einiger Zeit auf uns zugekommen und hat nach unserem Interesse nach einem Test verschiedenster Direct3D-10.1-Spiele gefragt. Da wir so etwas schon länger selber im Sinn gehabt hatten, haben wir zugesagt. Drei der fünf heute zu testenden Spiele haben wir daraufhin von AMD erhalten, die anderen zwei waren bereits in der Redaktion. Sämtliche Tests und Testeinstellungen haben wir in Eigenregie gewählt, die im Folgenden dargelegten Schlussfolgerungen und Meinungen sind unsere – und nur unsere!
Was ist hier anders als bei dem viel gescholtenen Geforce 180.47-Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_geforce_18047_spielen/)?!

mapel110
2009-04-24, 23:25:12
Steht im Fazit, was anders ist.

An dieser Stelle noch einmal der Hinweis: AMD ist vor einiger Zeit auf uns zugekommen und hat nach unserem Interesse nach einem Test verschiedenster Direct3D-10.1-Spiele gefragt. Da wir so etwas schon länger selber im Sinn gehabt hatten, haben wir zugesagt. Drei der fünf heute zu testenden Spiele haben wir daraufhin von AMD erhalten, die anderen zwei waren bereits in der Redaktion. Sämtliche Tests und Testeinstellungen haben wir in Eigenregie gewählt, die im Folgenden dargelegten Schlussfolgerungen und Meinungen sind unsere – und nur unsere!
immerhin ein kleiner Fortschritt.

y33H@
2009-04-24, 23:28:31
Sämtliche Tests und Testeinstellungen haben wir in Eigenregie gewähltDas war beim 180.47 ebenfalls so. Das ist genau das Gleiche, nur von AMD statt von nV :rolleyes:

Gast
2009-04-24, 23:34:20
Das war beim 180.47 ebenfalls so. Das ist genau das Gleiche, nur von AMD statt von nV :rolleyes:

Hehe ganz genau, nur wo bleibt der große Aufschrei der damaligen Kritiker ? :D

y33H@
2009-04-24, 23:36:38
AMD sind die Lieben, die dürfen das. Aber wehe, das pöhse pöshe nV ;D

Gast
2009-04-24, 23:37:14
Ahja, na so etwas.
Ich spar mir erstmal meinen Kommentar, ist eh sinnfrei, AMD sind die Guten, da ist es ok.

Mal sehen ob es bis Seite 5 einer anmerkt, ich bezweifel es.

mapel110
2009-04-24, 23:37:49
Das war beim 180.47 ebenfalls so. Das ist genau das Gleiche, nur von AMD statt von nV :rolleyes:
Nee, beim Test von nvidia wurden Auflösung und AA-Stufe vorgegeben.
/edit
Okay, wohl doch nicht, aber da war noch irgendwas, was abgesprochen war. Zumindest gibts glaube keine 8xAA-Benchmarks in den 180.47-Tests

y33H@
2009-04-24, 23:40:42
Nee, beim Test von nvidia wurden Auflösung und AA-Stufe vorgegeben [...] Zumindest gibts glaube keine 8xAA-Benchmarks in den 180.47-TestsNein, das ist falsch :rolleyes: PCGH (http://www.pcgameshardware.de/aid,667999/Test-der-OC-Grafikkarten-Evga-GTX-260-216-SSC-vs-Gainward-HD-4870-GS/Grafikkarte/Test/)hat mit 8x MSAA gebencht ... oder meinst du, nV gibt 8x statt 4x vor? ;DOkay, wohl doch nicht, aber da war noch irgendwas, was abgesprochen war. Nö, außer (teils) bestimmten Spielen plus 180.47 nichts.

Gast
2009-04-25, 00:01:16
Nein, das ist falsch :rolleyes: PCGH (http://www.pcgameshardware.de/aid,667999/Test-der-OC-Grafikkarten-Evga-GTX-260-216-SSC-vs-Gainward-HD-4870-GS/Grafikkarte/Test/)hat mit 8x MSAA gebencht ... oder meinst du, nV gibt 8x statt 4x vor? ;DNö, außer (teils) bestimmten Spielen plus 180.47 nichts.


haha fanboy!
wenn du keinen unterschied zwischen 4xAA und 8xAA siehst ist das dein problem

MfG

y33H@
2009-04-25, 00:02:52
Hä? Ich seh freilich nen Unterschied. Aber nV liegt 8x in der Regel nicht, trotzdem "durfte" beim 180.47 damit gebencht werden ... auch wenns das Setting der Konkurrenz ist.

Gast
2009-04-25, 00:07:29
Hä? Ich seh freilich nen Unterschied. Aber nV liegt 8x in der Regel nicht, trotzdem "durfte" beim 180.47 damit gebencht werden ... auch wenns das Setting der Konkurrenz ist.

ach und darum ist das alles kacke?
jetzt mal ab vom reinen AF wer bietet das bessere AA?

y33H@
2009-04-25, 00:11:33
jetzt mal ab vom reinen AF wer bietet das bessere AA?Das MSAA ist praktisch gleich, 24xD glättet die Geometrie am besten und die xS-Modi und SSAA bieten auf das gesamte Bild gesehen die beste Optik. Zudem hast du bei nV die Wahl ob beim TAA mit MS oder SS gerendert wird - bei AMD entscheidet das je nach Spiel und Laune der Treiber.ach und darum ist das alles kacke?Äh - ich sage, das AF ist schlechter. Das Wort "kacke" habe ich nicht in den Mund genommen.

Gast
2009-04-25, 00:14:43
Und du siehst den Unterschied zwischen TMAA und SSAA?

y33H@
2009-04-25, 00:17:54
Zwischen TMSAA und TSSAA? Klar ... zwischen SSAA und TMSAA sowieso. Du etwa nicht?

Gast
2009-04-25, 00:23:29
Zwischen TMSAA und TSSAA? Klar ... zwischen SSAA und TMSAA sowieso. Du etwa nicht?

Wie schön das sie auch die stufe erwähnen.

y33H@
2009-04-25, 00:27:21
Was zur Hölle willst du eigentlich? Der TAA-Anteil richtet sich nach der Anzahl der MSAA-Samples, sprich bei 4x MSAA sind 4x TSSAA.

Gast
2009-04-25, 00:34:52
Was zur Hölle willst du eigentlich? Der TAA-Anteil richtet sich nach der Anzahl der MSAA-Samples, sprich bei 4x MSAA sind 4x TSSAA.

Ich der Teufel frag dich wie DU diese Sachen vergleichen willst!
Es flimmert nicht immer und ueberall!

y33H@
2009-04-25, 00:37:22
Es flimmert nicht immer und ueberall!Das habe ich auch nicht gesagt. Dass AI-def mehr flimmert als Q ist eine Tatsache und dass AI-def eher zum Flimmern neigt, ebenfalls. Und da AMD kein SSAA beherrscht, flimmern die Texturen und Shader immer - bei nV kannst du was dagegen machen.frag dich wie DU diese Sachen vergleichen willst!Mit meinen Augen und mit Screenshots, hmmm?

HarryHirsch
2009-04-25, 00:42:24
Das habe ich auch nicht gesagt. Dass AI-def mehr flimmert als Q ist eine Tatsache und dass AI-def eher zum Flimmern neigt, ebenfalls. Und da AMD kein SSAA beherrscht, flimmern die Texturen und Shader immer - bei nV kannst du was dagegen machen.Mit meinen Augen und mit Screenshots, hmmm?
kein MAC OS?

y33H@
2009-04-25, 00:56:20
:D

Nein, ich nutze nur Windows, da ich hier die meisten Titel zocken kann.

HarryHirsch
2009-04-25, 01:20:26
Und da AMD kein SSAA beherrscht, flimmern die Texturen und Shader immer - bei nV kannst du was dagegen machen.Mit meinen Augen und mit Screenshots, hmmm?

aha
Augenmerk auf immer!
Fanboy! Mehr fällt mir dazu nicht ein!

Gast
2009-04-25, 01:26:16
aha
Augenmerk auf immer!
Fanboy! Mehr fällt mir dazu nicht ein!

Da wo es zutrifft klar.

HarryHirsch
2009-04-25, 01:30:12
Da wo es zutrifft klar.

Beispiele? Außer schatten und so.

uweskw
2009-04-25, 08:28:26
Find ich schon beachtlich, ATI CF oftmals vor der deutlich teureren NV SLI Lösung.
Was mir aber nicht klar ist: mit solchen Karten spielt man doch zumeist mit max. möglichen Settings. Warum hier nur 4AA getestet wurde ist mir schleierhaft. Das ist wie nen Porsche im Stadtverkehr zu testen.

Greetz
U.S

Gast
2009-04-25, 08:45:32
Was mir aber nicht klar ist: mit solchen Karten spielt man doch zumeist mit max. möglichen Settings. Warum hier nur 4AA getestet wurde ist mir schleierhaft. Das ist wie nen Porsche im Stadtverkehr zu testen.

Bei ATI gibt es grundsätzlich keine "max. möglichen Settings", der Anisotropische Filter liefert sowieso nur Low-Quality. Dein Porsche ist ein Lada mit Spoiler und Rallystreifen. ;D

Aber sagen wr mal, man könnte versuchen das Beste an Bildqualität rauszuholen, das in ATI-Karten steckt, auch so ein Review wäre durchaus sinnvoll. Dann wäre nach 4xAA und 16xAF eigentlich der nächste logische Schritt, AAA zu aktivieren und Leistungsreserven zur Glättung der Transparenzen zu verwenden. Das wird mangels "Vergleichbarkeit" und wegen Inkompatibilitäten allerdings meist ignoriert. Die Reviewer machen es sich hier sträflich leicht und kleben selbst wie versteinert an ihren roten und grünen Balken, dabei könnte man auch einfach an dieser Stelle mit Quervergleichen aufhören und ausmessen, bis zu welchem Setting in den jeweiligen Spielen spielbare Frameraten geliefert werden. Viele Leser der großen Hardwareseiten wissen oftmals gar nicht, was für Möglichkeiten es gäbe und spielen dann tatsächlich in "hirnlosen" Settings wie 8xAA, 16xAF und dafür ohne AAA. :ugly:

reunion
2009-04-25, 08:47:42
Xbitlabs hatte Quality-AAA aktiviert, und bei nV TMSAA. Deshalb wohl auch der Vorsprung der AMD-Karten, das AAA ist einfach noch immer besser bei AMD.

AnarchX
2009-04-25, 09:04:46
Xbitlabs hatte Quality-AAA aktiviert, und bei nV TMSAA. Deshalb wohl auch der Vorsprung der AMD-Karten, das AAA ist einfach noch immer besser bei AMD.
Besser ist wohl die falsche Bezeichnung, eher verändert es das Bild, was manchem subjektiv gefallen mag, während NVs TMSAA eher versucht sich an TSSAA zu orientieren.

Nebenbei testet Xbit-Labs auch immer mit HQ.

y33H@
2009-04-25, 11:15:10
Augenmerk auf immer! Fanboy! Mehr fällt mir dazu nicht ein!;D

Kannst mir ja gerne zeigen, wie du unter Windows mit einer Radeons die Shader und die Texturen mitglättest. Dafür brauchts SSAA - und das gibts nur auf großen Umwegen und es produziert gerne mal Artefakte.

deekey777
2009-04-25, 11:17:37
;D

Kannst mir ja gerne zeigen, wie du unter Windows mit einer Radeons die Shader und die Texturen mitglättest. Dafür brauchts SSAA - und das gibts nur auf großen Umwegen und es produziert gerne mal Artefakte.
Bitte nicht den Bogen überspannen. Irgendwann nervt diese Diskussion nur.

vinacis_vivids
2009-04-25, 15:11:55
I[;7256524']nimm andere spiele, bekommste ein anderes verhältnis. die technik ist bei beiden dieselbe. es hängt nur am treiber.
bei mainstreamgames kann man auch keine allgemein gültige aussage über mgpu treffen, da gerade dort optimiert wird. abseits von rucklern etc. ist wichtig, dass der treiber es schafft mgpu möglichst überall ordentlich umsetzen zu können. da sowas kaum jemand testet, kann man nur kaufen und hoffen :D.

Ich sags nochmal:
Die Spiele die getestet wurden sind aktuell, technisch anspruchsvoll und einigermaßen repräsentativ für den Markt.

* Call of Duty: World at War
* Crysis Warhead
* Enemy Territory: Quake Wars
* Far Cry 2
* F.E.A.R 2: Project Origin
* Left 4 Dead
* S.T.A.L.K.E.R.: Clear Sky

Natürlich kann ich jetzt nur Nvidia spiele raussuchen wo Nvida vielleicht nicht mal besser skaliert und dann SLI begründen. Aber dann habe ich keinen Anspruch auf aktualität, neutralität und respräsentativität.

Gast
2009-04-25, 15:29:56
Ich sags nochmal:
Les erst mal die anderen Posts durch und belege ob die Rechenleistung zu 100% limitiert.

A: Kein CPU Limit
B: Kein RAM Limit
C: Kein VRAM Limit
D: Kein Zufall
E: Kein PCIe Limit
...

Raff
2009-04-25, 15:39:35
Xbitlabs hatte Quality-AAA aktiviert, und bei nV TMSAA. Deshalb wohl auch der Vorsprung der AMD-Karten, das AAA ist einfach noch immer besser bei AMD.

Dazu möchte ich einwerfen, dass TAA-Benchmarks generell ziemlich für den Anus sind – zumindest unter der Prämisse, dass man vergleichbare BQ gegenüberstellt. "AAA" kann bei Ati Transparenz-Super- oder Multisampling sein. Was zum Einsatz kommt, entscheidet der Treiber. Bei Nvidia ist es klar; wenn TMSAA gewählt wurde, wird auch TMSAA genutzt. Die BQ im Vergleich MS-AAA gegen TMSAA ist aber nicht identisch. Ati hat hier subjektiv meist leichte Vorteile (weniger Dithering), verfälscht jedoch den Content – erfasste Texturen werden breit und matschig, ein filigranes Geäst ist plötzlich ein dicker Teppich.

Auch erfasst mal TMSAA und mal AAA mehr Objekte. Es ist klar, was dann passiert: Rechenaufwand und BQ sind nicht gleich, der Benchmark ist im Grunde sinnlos. Für TAA-Benchmarks müsste man bei jedem Spiel erst genaue BQ-Vergleiche anstellen, um vergleichbare Szenarien zu kreieren.

MfG,
Raff

Gast
2009-04-25, 15:57:03
Xbitlabs hatte Quality-AAA aktiviert, und bei nV TMSAA. Deshalb wohl auch der Vorsprung der AMD-Karten, das AAA ist einfach noch immer besser bei AMD.

LOL ernsthaft? Na das sind ja Amateure...

y33H@
2009-04-25, 16:13:47
Es ist klar, was dann passiert: Rechenaufwand und BQ sind nicht gleich, der Benchmark ist im Grunde sinnlos. Für TAA-Benchmarks müsste man bei jedem Spiel erst genaue BQ-Vergleiche anstellen, um vergleichbare Szenarien zu kreieren.Und was lernen wir daraus? Die Modi, die in der Praxis spannend sind, lassen sich nicht 1:1 gegenüber stellen, sondern nur IHV-intern. Und was kann man maximale (hinsichtlich der BQ) vergleichen? 8x MSAA, was imo keine Sau interessiert (außer die Fanboys, die sich an praxisfernen Settings aufgeilen). Zumal Q besser ist als AI-def, AMD also immer einen kleinen Fps-Vorteil bedingt durch die dezent schlechte AF-Quali hat.

Schon iwie blöd :(

vinacis_vivids
2009-04-25, 18:11:06
Les erst mal die anderen Posts durch und belege ob die Rechenleistung zu 100% limitiert.

A: Kein CPU Limit
B: Kein RAM Limit
C: Kein VRAM Limit
D: Kein Zufall
E: Kein PCIe Limit
...

Du vestehst immer noch nicht was ich unter MGPU Skalierung verstehe.
MGPU-Skalierung ist für mich der prozentuale Leistungsgewinn mit einer zweiten Karte. Und die ist bei Nvidia einfach schlechter als bei ATI.

Und da du die Limitierung ansprichst - Bei Spiele-Benchmarks limitert nahezu alles! Unter extrembedingungen - die Grafikkarte(n) stärker als andere Komponenten. Und 2560x1600 mit AA/AF ist für mich eine Extrembedingung. Und da schneidet Nvidia schlecht ab was der Leistungsgewinn mit einer zweiten Karte angeht. Auch Skalierung genannt.

_DrillSarge]I[
2009-04-25, 18:16:41
[...], verfälscht jedoch den Content – erfasste Texturen werden breit und matschig, ein filigranes Geäst ist plötzlich ein dicker Teppich.
das stimmt nicht ganz. das vermatschen tritt manchmal auf, wenn der treiber msaa als glättungsverfahren auswählt (alpha2coverage dingsda).

y33H@
2009-04-25, 18:22:44
Das sagte Raff doch bereits:Die BQ im Vergleich MS-AAA gegen TMSAA ist aber nicht identisch. Ati hat hier subjektiv meist leichte Vorteile (weniger Dithering), verfälscht jedoch den Content – erfasste Texturen werden breit und matschig, ein filigranes Geäst ist plötzlich ein dicker Teppich.Wenn der Treiber meint, AAA auf SS-Basis zu rendern, sieht das sehr gut aus - haut aber viel übler rein als bei einer Geforce. Siehe WoW (http://www.pcgameshardware.de/aid,682350/World-of-Warcraft-31-Neuer-WoW-Ultra-Video-Modus-im-Benchmark-Test/Rollenspiel-Adventure/Test/?page=2&cboxrenderarticle=base).

_DrillSarge]I[
2009-04-25, 18:30:15
Das sagte Raff doch bereits:
me haz überlesen (y)
:cool:

dann stimmt alles.

nagus
2009-04-26, 10:57:29
netter vergleich diverser FSAA modi

http://www.pcgameshardware.de/aid,682525/Counter-Strike-Source-Grafikkarten-Test-mit-maximaler-Bildqualitaet/Action-Spiel/Test/

Mr. Lolman
2009-04-27, 19:19:52
verfälscht jedoch den Content – erfasste Texturen werden breit und matschig, ein filigranes Geäst ist plötzlich ein dicker Teppich.


Matschig? Hast vll. nen Screenshot?

Raff
2009-04-27, 19:36:40
Du weißt gewiss, was ich meine. ;) Wobei, vielleicht fällt es dir mangels eines SS-AAA-Vergleichs nicht mehr auf. Ich glaube, dass das Geländer bei deinen Ferrari-Shots letztens ebenfalls "plattgematscht" wurde. Jedenfalls werden die Strukturen auf einer Radeon deutlich breiter dargestellt als auf GeForce-Karten. Check das Spiel am besten nochmal (AAA vs. kein AAA), ein anderes aktuelles fällt mir gerade nicht ein. Kann ich aber überprüfen. :)

MfG,
Raff

Gast
2009-04-27, 19:58:56
Wobei das "Gematsche" von MS-AAA in aller Regel gar nicht schlecht aussieht, auf jeden Fall tausendmal besser als die Unruhe im Bild ohne AAA und hübsch performant. Bei Vegetation gefällt es mir oft sogar besser, weil Bäume und Sträucher dadurch voluminöser wirken.

Mr. Lolman
2009-04-27, 20:28:14
Du weißt gewiss, was ich meine. ;) Wobei, vielleicht fällt es dir mangels eines SS-AAA-Vergleichs nicht mehr auf. Ich glaube, dass das Geländer bei deinen Ferrari-Shots letztens ebenfalls "plattgematscht" wurde. Jedenfalls werden die Strukturen auf einer Radeon deutlich breiter dargestellt als auf GeForce-Karten. Check das Spiel am besten nochmal (AAA vs. kein AAA), ein anderes aktuelles fällt mir gerade nicht ein. Kann ich aber überprüfen. :)

MfG,
Raff


Ich weiss, was du mit 'breiter' meinst. Aber 'matschiger' (im Sinne von Unschärfer) ists imo, zumindest bei Minification, nicht. Im Gegenteil - wegen fehlender LOD-Anpassung wirkt eher das SGSSAAA hinundwieder ein bisschen unscharf (zumindest bei den Atis. Bei NV hab ichs mir noch nicht so genau angesehen). Jedenfalls wirken Crysis mit LOD-1 und AAA (idF afaik SS) die Alphatests wiedermal deutlich besser.

y33H@
2009-04-27, 22:42:44
AAA ist meist MS, allerdings ist MS-basiertes AAA nicht mit nVidia 's TMSAA vergleichbar. In WoW-WotLK aber ist AAA SS-basiert und sieht dem TSSAA von nVidia verdammt ähnlich. Dafür droppt eine HD4890 mit SS-basiertem AAA in WoW-WotLK prozentual deutlich weiter runter als eine GTX200 - Füllraten-fail eben.

vinacis_vivids
2009-04-28, 08:59:00
AAA ist meist MS, allerdings ist MS-basiertes AAA nicht mit nVidia 's TMSAA vergleichbar.

Das TMSAA von Nvidia ist deiner Ansicht nach ganz bestimmt besser wa?

y33H@
2009-04-28, 09:07:12
Was soll die Frage? Ich sagte "nicht vergleichbar". Allerdings schreibt CB wie Raff, dass es den Content mehr verfälscht als TMSAA. Der Baum im Hintergrund wird voller dargestellt, was jedoch nicht schlechter aussieht. [...] TMSAA wirkt dagegen etwas anders als AAA in Oblivion. Die Alpha-Test-Texturen werden zwar ebenfalls geglättet, wobei man nicht ganz das Niveau der ATi-Fraktion erreicht. Dafür wirkt der Baum im Hintergrund aber eher so, wie der Entwickler es wollte.

Im Übrigen nutze ich ohnehin kein TMSAA, sondern nur die xS-Modi oder TSSAA. Mir ists ergo egal.

Mr. Lolman
2009-04-28, 11:15:56
Was soll die Frage? Ich sagte "nicht vergleichbar". Allerdings schreibt CB wie Raff, dass es den Content mehr verfälscht als TMSAA.

Im Übrigen nutze ich ohnehin kein TMSAA, sondern nur die xS-Modi oder TSSAA. Mir ists ergo egal.

Ich kann mir nicht vorstellen, dass der Entwickler will, dass Blätter in der Luft schweben (was nämlich aufgrund der vgl. zur Basemap geringeren Auflösung der Mipmaps abundan passiert). Bei TRMSAA wird das Problem ein bisschen abgeschwächt.



Bspw. Crysis: Da kann man die Alphatests entweder treiberseitig glätten oder mit Edge-AA 1 oder 2. Sieht alles sehr unterschiedlich aus. Wie wollte es der Entwickler da?


Oder hier bei Ferrari Virtual Race. Wollte der Entwickler solche Unscharfe Bäume bei LOD 0? Wohl kaum. Aber er hat keine andere Wahl gehabt. Und genau das ist das nächste Problem hat man mit den Alphatests und deren Mipmaps hat. Nämlich dass zwischen 2 Mimaps interpoliert wird, was gerade zu dem häufig bei orthogonal zu Z ausgerichteten Flächen, sichtbarem Problem führt, dass einerseits Amplitude der Mipmaps im Schnitt zwangsläufig geringer ist, als die der Basemap und dass man andererseits ohne perfektem Texturfilter (dens nicht gibt, denn der würde eine Texturqualität an den Schirm bringen, der von SSAA nicht mehr unterscheidbar ist) nicht den maximal möglichen Informationsgehalt im Bild hat. (Deswegen spiel ich manche Spiele gern mit negativem LOD)

http://www.abload.de/thumb/scrshot_130409_163501bae4.png (http://www.abload.de/image.php?img=scrshot_130409_163501bae4.png) http://www.abload.de/thumb/scrshot_130409_1635171m0u.png (http://www.abload.de/image.php?img=scrshot_130409_1635171m0u.png)

Zurück zum TRMSAA/MSAAA-Problem. Meinst du, wollte der Entwickler wirklich, dass man den Zaun erst mit 16xS-AA halbwegs erahnen kann - bzw. dass man 16xOGSSAA aktivieren muss, damit die BQ desselbigen halbwegs passt? Vgl. auch 16xOGSSAA mit 8xAAA, LOD-1. Der Zaun ist bei 8xAAA vgl zu 16-fachem Oversampling nicht matschiger, sondern einfach heller, und nicht ganz so gut geglättet. Trotzdem ists doch zugegebenermaßen ein bisschen freakig 94% der verfügbaren Füllrate der GraKa allein für ein paar glattere Pixel draufgehen zu lassen, oder?

16xSAA; 16xOGSSAA (8800GTX@17/20% OC)
http://www.abload.de/thumb/ferrarivr_16xs4da9.png (http://www.abload.de/image.php?img=ferrarivr_16xs4da9.png) http://www.abload.de/thumb/ferrarivr_16xogssaangbe.png (http://www.abload.de/image.php?img=ferrarivr_16xogssaangbe.png)

8xMSAAA; 8xMSAAA,LOD-1 (HD4870@10/27% OC)
http://www.abload.de/thumb/scrshot_130409_1617148518.png (http://www.abload.de/image.php?img=scrshot_130409_1617148518.png) http://www.abload.de/thumb/scrshot_130409_1622491159.png (http://www.abload.de/image.php?img=scrshot_130409_1622491159.png)

Gast
2009-04-28, 12:25:31
Offenbar hat ATI immer noch ein Problem mit der Subpixelpräzision, wie man an den vielen hellen Punkten in der Tribünenüberdachung sieht.

Mr. Lolman
2009-04-28, 13:21:16
Offenbar hat ATI immer noch ein Problem mit der Subpixelpräzision, wie man an den vielen hellen Punkten in der Tribünenüberdachung sieht.

Han man ohne SSAA (in etwas geringerem Ausmaß) bei NV-Karten auch. http://www.abload.de/image.php?img=ferrarivr_8xqtssaaye7q.png (8xQ/16xAF)

Gast
2009-04-28, 15:02:05
Der Unterschied ist aber schon deutlich. Z.B. auf der Dachfläche unterhalb des "Damage" HUD sehe ich keine hellen Punkte bei Nvidia.

Gast
2009-04-28, 17:41:34
Han man ohne SSAA (in etwas geringerem Ausmaß) bei NV-Karten auch. http://www.abload.de/image.php?img=ferrarivr_8xqtssaaye7q.png (8xQ/16xAF)

Also liefert Ati auch da die schlechtere Bildqualität interessant.

Mr. Lolman
2009-04-28, 17:59:24
Also liefert Ati auch da die schlechtere Bildqualität interessant.

Wo? Wegen der paar Pixel? Bei vergleichbaren fps-Zahlen ist die Ati-BQ wegen überlegenem AAA-Algorithmus insgesamt deutlich besser.

Coda
2009-04-28, 18:01:40
NVIDIA hat schon eine ganze Weile (mindestens seit der GeForce 3) 12 bit Subpixel-Präzision, ATI ist dort inzwischen bei 8 bit angekommen (vor der D3D10-Generation sogar nur 4 bit).

Gast
2009-04-28, 18:11:04
Wo? Wegen der paar Pixel? Bei vergleichbaren fps-Zahlen ist die Ati-BQ wegen überlegenem AAA-Algorithmus insgesamt deutlich besser.

Ob vergleichbare FPS oder nicht, an die Bildqualität mit SSAA oder Hybrid Modis kommt kein Ati AA Modus auch nur ansatzweise heran, spätestens im Rennen trennt sich die Spreu vom Weizen.

y33H@
2009-04-28, 18:22:07
Sehe es gerade bei CoD4 wieder. Q-AAA basiert auf MS und "bauscht" die Alpha-Tests auf, verfälscht ergo den Content. TMSAA glättet, bläht aber nicht auf; TSSAA glättet ohne zu verfälschen.

Mr. Lolman
2009-04-28, 18:29:27
spätestens im Rennen trennt sich die Spreu vom Weizen.

Stimmt. Mit 15-23fps ist wohl kein Stockerlplatz drinnen ;)

Sehe es gerade bei CoD4 wieder. Q-AAA basiert auf MS und "bauscht" die Alpha-Tests auf, verfälscht ergo den Content. TMSAA glättet, bläht aber nicht auf; TSSAA glättet ohne zu verfälschen.

Zum verfälschten Content hab ich imo schon genug geschrieben. Wenns wirklich so schlimm ist, dann mach bitte ein paar Screenshots - und stell zwecks Vergleichbarkeit am Besten auch gleich ein Savegame online.

Gast
2009-04-28, 18:41:57
Stimmt. Mit 15-23fps ist wohl kein Stockerlplatz drinnen ;)

Hmm? 15-23fps mit welchem Setting und welcher Grafikkarte? Wenn dann sollte man doch eine GTX260 einer 4870 gegenüberstellen. :)

y33H@
2009-04-28, 19:13:04
@ Mr. Lolman

Kommt die Woche - mit Shots freilich. Die MP-Demo zum Benchen kommt auf mit dazu.

nagus
2009-04-29, 08:11:12
wow, nicht übel: Overclocking Extravaganza: Radeon HD 4890 To The Max (http://www.anandtech.com/video/showdoc.aspx?i=3555&p=1)

Tarkin
2009-04-29, 19:10:44
http://www.hexus.net/content/item.php?item=18244&page=2

Sapphire Radeon HD 4890 TOXIC

1GHz Core und 4.2Ghz Speicher - DEFAULT!! :eek: :biggrin:

Der Preis für die schnellste Single GPU Karte dürfte dann wohl an Sapphire bzw. ATi gehen

coming next week ...

deekey777
2009-04-29, 20:17:31
Wieso schreibst du "TOXIC", wenn es Atomic ist?

Was mich interessiert, ist, ob sie sich diesmal mehr Mühe bei der Kühlung der wahren Hitzköpfe gemacht haben.

HarryHirsch
2009-04-29, 20:22:19
http://www.hexus.net/content/item.php?item=18244&page=2

Sapphire Radeon HD 4890 TOXIC

1GHz Core und 4.2Ghz Speicher - DEFAULT!! :eek: :biggrin:

Der Preis für die schnellste Single GPU Karte dürfte dann wohl an Sapphire bzw. ATi gehen

coming next week ...

Schnellste unterfilternde Single GPU Karte trifft es wohl besser.

Schlammsau
2009-04-29, 20:44:17
Was mich interessiert, ist, ob sie sich diesmal mehr Mühe bei der Kühlung der wahren Hitzköpfe gemacht haben.

Mit dem Kühler wird sie mit Sicherheit abartig laut sein.

reunion
2009-04-29, 20:46:22
Ich würde da keine voreiligen Schlüsse ziehen, die Vapor-X Dinger sind ziemlich gut.

Schlammsau
2009-04-29, 20:48:44
Ich würde da keine voreiligen Schlüsse ziehen, die Vapor-X Dinger sind ziemlich gut.

Das schon aber nur mit einem Lüfter? :|
Ich denke die Karte wird 2 neue Rekorde aufstellen. Die schnellste und lauteste (unter Last) Single GPU Karte.

horn 12
2009-04-29, 22:04:38
Was wird die Karte kosten in etwa, 250-270 Euro
Falls der Lüfter doch Leise sein sollte im Idle und vor allem unter Last !! (wie meine derzeitige HD4870 Sapphire 1GB mit selbem schwarzem Lüfter)
sollte sich diese Vapor-X Toxic Karte echt gut verkaufen können...:cool:

deekey777
2009-04-29, 22:28:08
Mit dem Kühler wird sie mit Sicherheit abartig laut sein.
Ich würde da keine voreiligen Schlüsse ziehen, die Vapor-X Dinger sind ziemlich gut.
Das Problem bei der HD4870 sind bzw. waren die Wandler, die Sapphire nicht vernünftig kühlen wollte (http://ht4u.net/reviews/2009/sapphire_radeon_hd4870_toxic/index3.php) (und nicht nur Sapphire). Wenn Sapphire auch diesmal "nachlässig" ist und sich nur auf die GPU konzentriert, dann haben wir wieder das Problem, dass die GPU kühl ist, aber der Lüfter dröhnt, weil er die Wandler kühlen muss.

Iceman346
2009-04-29, 22:39:17
Das Problem bei der HD4870 sind bzw. waren die Wandler, die Sapphire nicht vernünftig kühlen wollte (http://ht4u.net/reviews/2009/sapphire_radeon_hd4870_toxic/index3.php) (und nicht nur Sapphire). Wenn Sapphire auch diesmal "nachlässig" ist und sich nur auf die GPU konzentriert, dann haben wir wieder das Problem, dass die GPU kühl ist, aber der Lüfter dröhnt, weil er die Wandler kühlen muss.

Der test bezieht sich auf die alte Toxic Version der 4870, die neuen Versionen der Karte haben analoge Spannungswandler und bleiben deutlich kühler. Meine Toxic dreht bei Spielen um die 1100-1500 Umdrehungen pro Minute und ist dabei nicht aus meinem System raushörbar.
Falls Sapphire bei der 4890 die SpaWas sofort austauscht steht einer leisen Karte eigentlich nichts im Wege.

Gast
2009-04-29, 22:46:05
http://www.hexus.net/content/item.php?item=18244&page=2

Sapphire Radeon HD 4890 TOXIC

1GHz Core und 4.2Ghz Speicher - DEFAULT!! :eek: :biggrin:

Der Preis für die schnellste Single GPU Karte dürfte dann wohl an Sapphire bzw. ATi gehen

coming next week ...
Nö, eine werksübertaktete GTX 285 ist immer noch schneller.

Schlammsau
2009-04-29, 22:48:05
Nö, eine werksübertaktete GTX 285 ist immer noch schneller.

Dass muss sich noch herrausstellen. ;)

Gast
2009-04-29, 22:58:48
Dass muss sich noch herrausstellen. ;)
Eine um 17% übertaktete 4890 reisst keine Bäume aus, im Vergleich zu einer XX% übertakteten GTX 285, die im unübertakteten Zustand bereits XX% schneller ist.

Gast
2009-04-30, 08:56:25
@Gast über mir: den Test gesehen?: http://www.anandtech.com/video/showdoc.aspx?i=3555&p=1

Tarkin
2009-04-30, 09:29:30
Danke, das wollte ich auch gerade posten.

Ich denke nicht, dass selbst die schnellsten GTX 285 hier herankommen.

vom Preis her ganz zu schweigen...

http://geizhals.at/eu/a401157.html

http://geizhals.at/eu/a406861.html

Die Sapphire Atomic 4890 wird wahrscheinlich 100 bis 150 Euro günstiger sein!

Gast
2009-04-30, 09:40:48
@Gast über mir: den Test gesehen?: http://www.anandtech.com/video/showdoc.aspx?i=3555&p=1
das ist aber HD@OC vs. GF@STOCK.... :)

Raff
2009-04-30, 09:52:46
Das wird ganz gewiss eine sehr geile Karte. Die aktuelle Toxic und die Vapor-X-Karten sind angenehm leise (maximal 1,5 Sone aus 50 Zentimetern Entfernung). Sapphire hat aus den früheren Radaulüfter-BIOSen gelernt. Hinzu kommt dicke Übertaktung. Wenn's die Karte um 250 €uro gibt, wird sie herrschen. Bin gespannt, ob das Asus-Mördergerät da herankommt. Dann fehlt nur noch ein HQ-AF-Modus. :naughty:

MfG,
Raff

robbitop@work
2009-04-30, 10:07:16
Wie hoch ist denn die Quote der Karten, die auf 1 GHz Core kommen? Für 200 EUR bekommt man ja eine Standard-4890. Das käme ja deutlich billiger.

reunion
2009-04-30, 10:10:52
Wie hoch ist denn die Quote der Karten, die auf 1 GHz Core kommen? Für 200 EUR bekommt man ja eine Standard-4890. Das käme ja deutlich billiger.

Mit Vcore Erhöhung (die wohl auch bei der Atomic verwendet wird) schaffen das die meisten, allerdings wird man wohl Probleme mit der Kühlung bekommen wenn man den Lüfter nicht in abartige Regionen stellen will. Außerdem kommt die Atomic natürlich wie üblich in einem Alukoffer mit jedermenge Zubehör, hat einen 8Pin Anschluss für mehr Saft und kann ja auch noch übertaktet werden.

robbitop@work
2009-04-30, 10:18:46
und kann ja auch noch übertaktet werden.
Mit 1 GHz dürfte die ja schon ziemlich am Limit laufen. Ist die VCore-Erhöhung per Software oder BIOS möglich?

y33H@
2009-04-30, 10:29:55
Per Software (Rivatuner). Dann gehen teils auch 1,0 GHz. Mit dem RefDesign ist Kühlung dann aber am Limit oder (noch) sacklaut(er).

Raff
2009-04-30, 10:30:05
Das geht per Rivatuner/VT1165-Plugin mit allen HD4890-ern im Referenzdesign. Ob die Atomic das ebenfalls zulässt muss sich noch herausstellen.

Mit dem RefDesign ist Kühlung dann aber am Limit oder (noch) sacklaut(er).

Der abartige Referenzlüfter ist nie am Limit. ;D Mit 100% Drehzahl kriegst du auch 1,4 Volt noch unter 60 Grad gekühlt (bei 15 Sone, IIRC).

MfG,
Raff

HarryHirsch
2009-04-30, 10:32:05
Mit Vcore Erhöhung (die wohl auch bei der Atomic verwendet wird) schaffen das die meisten, allerdings wird man wohl Probleme mit der Kühlung bekommen wenn man den Lüfter nicht in abartige Regionen stellen will. Außerdem kommt die Atomic natürlich wie üblich in einem Alukoffer mit jedermenge Zubehör, hat einen 8Pin Anschluss für mehr Saft und kann ja auch noch übertaktet werden.

Hat die auch bessere/mehr Spannungswandler? Oder ist das nicht nötig?

reunion
2009-04-30, 10:44:41
@Gast über mir: den Test gesehen?: http://www.anandtech.com/video/showdoc.aspx?i=3555&p=1

Sogar mit 1GHz Core und 4.8Ghz Speicher verbraucht das Ding nicht mehr wie eine GTX285. Erstaunlich.

robbitop@work
2009-04-30, 11:27:27
Hrn bei Anand herrscht das Teil ja ziemlich. Allerdings scheint dort durchgängig die Default 4890 die GTX285 im Griff zu haben. Das hatte ich eher umgekehrt im Hinterkopf...

Iceman346
2009-04-30, 12:28:37
Ist halt stark von der Benchmarkauswahl abhängig, die von Anandtech ist eher mit ATi-freundlichen Spielen besetzt während das bei CB eher anders herum ist.

Gast
2009-04-30, 13:06:20
Ist halt stark von der Benchmarkauswahl abhängig, die von Anandtech ist eher mit ATi-freundlichen Spielen besetzt während das bei CB eher anders herum ist.
Wie sind eigentlich die Treibereinstellungen und welche Treiberversion wurde benutzt, ich kann dazu irgendwie nichts finden?

robbitop@work
2009-04-30, 13:24:37
Ist halt stark von der Benchmarkauswahl abhängig, die von Anandtech ist eher mit ATi-freundlichen Spielen besetzt während das bei CB eher anders herum ist.
CB testet mir zu oft mit recycelten Werten. Demnach ist die Vergleichbarkeit oftmals dahin. Leider. Denn ansonsten sind die Reviews ja sehr gut und auch das Performancerating halte ich für nicht so schlecht (obwohl man mMn lieber das geometrische Mittel nehmen sollte).

Gast
2009-04-30, 13:39:56
Ack!

Eigentlich lese ich Reviews auf CB sehr gerne, allerdings verwendet CB ne HD4870 512MB für nen Treibertest, um dann in den Grafikkartentests die Performance des cat 8.11 zu nehmen - finde ich leider............ etwas peinlich :)

Gast
2009-04-30, 14:22:20
Wie sind eigentlich die Treibereinstellungen und welche Treiberversion wurde benutzt, ich kann dazu irgendwie nichts finden?

Damit kann man diesen Test komplett vergessen.

nagus
2009-05-01, 13:37:29
das ist aber HD@OC vs. GF@STOCK.... :)

na und???? die HD@OC ist trotzdem noch BILLIGER wie die GF@STOCK

Gast
2009-05-01, 14:06:26
na und???? die HD@OC ist trotzdem noch BILLIGER wie die GF@STOCK
Es gibt keine 4890 mit den Taktfrequenzen zu kaufen.

Ein sinnvoller Vergleich ist:

4870@WerksOC/Default
4890@WerksOC/Default
GTX 260@WerksOC/Default
GTX 275@WerksOC/Default
GTX 285@WerksOC/Default

Unterm Strich wird die GTX 260 bzw die Werksübertaktete GX 260 alle anderen Karten deutlich in Sachen Preis/Leistung schlagen.
GTX 275/4890 @ WerksOC werden gleichermaßen günstiger als eine GTX 285 Default dastehen.


Dein Fehler ist, das du mal wieder alles drum herum weglässt, so das am Ende eine Geforce gegen eine Radeon gestellt wird, so das die Radeon gewinnt.
Das naheliegende, eine GTX 275 zu nehmen, das vermeidest du. Ebenso andere Karten wie 4870 oder GTX 260 werden weggekehrt.

gentoo
2009-05-01, 15:34:19
Es gibt keine 4890 mit den Taktfrequenzen zu kaufen.

Ein sinnvoller Vergleich ist:

4870@WerksOC/Default
4890@WerksOC/Default
GTX 260@WerksOC/Default
GTX 275@WerksOC/Default
GTX 285@WerksOC/Default

Unterm Strich wird die GTX 260 bzw die Werksübertaktete GX 260 alle anderen Karten deutlich in Sachen Preis/Leistung schlagen.
GTX 275/4890 @ WerksOC werden gleichermaßen günstiger als eine GTX 285 Default dastehen.


Dein Fehler ist, das du mal wieder alles drum herum weglässt, so das am Ende eine Geforce gegen eine Radeon gestellt wird, so das die Radeon gewinnt.
Das naheliegende, eine GTX 275 zu nehmen, das vermeidest du. Ebenso andere Karten wie 4870 oder GTX 260 werden weggekehrt.

Ich glaub er meinte für ca. 250€ bekommt man eine geocede Karte
die von der Leistung einer teureren GTX 285 entspricht oder sogar überlegen ist. Natürlich kann man die GTX285 auch noch ocen.

Gast
2009-05-01, 15:50:16
Ich glaub er meinte für ca. 250€ bekommt man eine geocede Karte
die von der Leistung einer teureren GTX 285 entspricht oder sogar überlegen ist. Natürlich kann man die GTX285 auch noch ocen.
Nö, eine um 6% (so arg sind die verkauften Werksübertakteten 4890 übertaktet) schlägt keine Default GTX 285.

Eine solche 4890 kostet 217€: http://geizhals.at/deutschland/a420439.html

Eine übertaktete GTX 260, die teils ein paar % schneller als eine Default GTX 275 / 4890 ist gibts für 187€: http://geizhals.at/deutschland/a374208.html

Eine um 5% übertaktete GTX 275 kostet 238€: http://geizhals.at/deutschland/a420351.html?v=l


So jetzt fehlt immer noch die Erklärung, warum er eine 217€ Karte mit einer schnelleren 282€ Karte vergleicht und gleichzeitig alle anderen Karten dazwischen und auch unter dem Preisbereich ausblendet.

Gast
2009-05-01, 16:04:13
Versuch mal mit einer um 5% übertakteten gtx275 eine hd4890 @1Ghz zu schlagen!

Gast
2009-05-01, 16:22:00
Versuch mal mit einer um 5% übertakteten gtx275 eine hd4890 @1Ghz zu schlagen!
Versuch mal eine 4890 @ 1Ghz zu kaufen.
Wenn du das tatsächlich schaffst, dann versuche es zum Preis der um 5% übertakteten GTX 275.

Gast
2009-05-01, 16:25:38
Ja ist klar, dass es noch keine 4890 @1Ghz gibt. Aber wenn es sie mal gibt ist es doch völlig klar, dass diese mehr kosten wird als eine übertaktete gtx275, da diese eben auch schneller sein wird. Wo ist das Problem?

horn 12
2009-05-01, 16:28:53
Sapphire HD4890 1Ghz soll angeblich "nur" 250-260 Euro kosten, Hoff dies stimt dann auch.

Gast
2009-05-01, 16:33:02
Und noch bischen Kleingeld für den Strom den das Ding @ 1ghz zieht ne.

Gast
2009-05-01, 16:41:51
nämlich weniger als eine gtx285?!

Gast
2009-05-01, 16:46:17
Ja ist klar, dass es noch keine 4890 @1Ghz gibt. Aber wenn es sie mal gibt ist es doch völlig klar, dass diese mehr kosten wird als eine übertaktete gtx275, da diese eben auch schneller sein wird. Wo ist das Problem?Eine GTX 285 ist schneller und teurer als eine um 6% übertaktete 4890 oder eine um 5% übertaktete GTX 275.

Wo ist das Problem, außer das die GTX 275 verschwiegen wird?


Wenn, wenn. Wie viel die 117% 4890 tatsächlich günstiger als die GTX 285 ist, ist nicht bekannt.
Ebensowenig ist der Preis einer 111% GTX 275 bekannt.
Noch weniger ist der zuküntige Preis der GTX 285, zum Erscheinungszeitpunkt vorheriger Karten bekannt.

Gast
2009-05-01, 16:48:04
nämlich weniger als eine gtx285?!
Im Idle zieht die 1Ghz 4890 deutlich mehr, unter Vollast auch ein ordentliches Stück, wie viel genau liegt auch an der Spannung.

Gast
2009-05-01, 17:07:32
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=1

habe diesen Test hier überhaupt einige Personen hier gelesen?

Demnach verbraucht eine hd4890 @1Ghz bei Last weniger als eine gtx285!

Weiterhin braucht eine hd4890 @1Ghz nicht billiger sein als eine gtx285 @stock! Da diese schneller ist! Wenn sie 290 Euro kosten würde, wäre der Preis nicht überzogen!

Weiter:

1. eine theoretische hd4890 @1Ghz ist rein rechnerisch ca. 25-30% schneller als eine hd4870 1GB!
2. Die am höchsten getaktet gtx285 ist ca. 12% schneller als eine gtx285 @stock!
Wenn ich diese Prozente einfach mal beim Computerbaserating addiere, komme ich zum Ergebnis, dass eine hd4890 @1Ghz selbst mit einer gtx285@Oc gut mithalten kann bzw. auf Augenhöhe ist.

Eine gtx265 oder gtx275 ist schlicht nicht die Konkurenz zur hd4890 @1Ghz.

Dazu muss ich allerdings noch sagen, dass ich es noch nicht ganz glauben kann, dass eine solche Karte wirklich kommen wird. Allerdings würde ich mich dann über einen Test mit folgenden Karten freuen:

hd4890@1Ghz ?
gtx265/216 @680Mhz 270Euro(die sollte man zu dem Preis wohl nicht kauen!)
gtx275@700Mhz 240Euro
gtx285@720Mhz 406Euro

Das sind jeweils die am höchsten getaktet Modelle, die man so kaufen kann, die ich gefunden habe.....

Aber man sollte schon eingestehen, dass eine hd4890 @1Ghz wohl nicht mehr viel Spielraum für Übertaktungen bieten wird.

AnarchX
2009-05-01, 17:51:56
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=1

habe diesen Test hier überhaupt einige Personen hier gelesen?

Demnach verbraucht eine hd4890 @1Ghz bei Last weniger als eine gtx285!

Die laut Anandtech mehr verbrauchen soll als eine GTX 280, was aber laut diverser anderer (direkter) Messungen nicht der Fall sein sollte.

Dazu bleibt fraglich, ob die von Anand verwendete Spannung auch den Qualitätsstandards einer Werks-OC-Version gerecht werden würde.

Die FPS-Leistung ist durch den 1GHz GPU-Takt und die 1.2GHz GDDR5-Takt natürlich auf einem ziemlich hohen Niveau, daran lässt sich nichts bestreiten.

Gast
2009-05-01, 18:07:53
Demnach verbraucht eine hd4890 @1Ghz bei Last weniger als eine gtx285!

Werks OC und OC zu hause sind ganz verschiedene Dinge, null Ähnlichkeit.
Das Anandtech auch mal andere Dinge als der Rest der Welt misst ist ebenso bekannt.

Frag doch CB, PCGH, Xbitlabs, HT4u.

Alle werden dir einen höheren Idleverbrauch und einen ähnliche Lastverbrauch zeigen.
Jetzt rechne noch die Übertaktung und die Spannungserhöhung der 4890 rein.


1. eine theoretische hd4890 @1Ghz ist rein rechnerisch ca. 25-30% schneller als eine hd4870 1GB!
2. Die am höchsten getaktet gtx285 ist ca. 12% schneller als eine gtx285 @stock!
Wenn ich diese Prozente einfach mal beim Computerbaserating addiere, komme ich zum Ergebnis, dass eine hd4890 @1Ghz selbst mit einer gtx285@Oc gut mithalten kann bzw. auf Augenhöhe ist.

Falsch.
Bei CB ist skaliert keine Karte auch nur annähernd 1zu1 mit der Mehrleistung, demnach ist deine Rechnung so nicht auf diese Daten stützbar.

AnarchX
2009-05-01, 19:11:36
http://img12.imageshack.us/img12/6305/189567631439.png (http://img12.imageshack.us/my.php?image=189567631439.png)
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=11

Hier scheint doch RV790 in den meisten Situationen mit den 17.6% mehr GPU-Takt gut zu skalieren, zum Teil limitiert offenbar hier auch die Speicherbandbreite, sodass die Anhebung dieser um 23% auch Resultate hat.

AnarchX
2009-05-04, 21:28:39
1GHz - Sapphire HD 4890 Atomic Edition Review (http://www.overclockersclub.com/reviews/sapphire_hd4890_atomic/)

OCing bis 1050/1255MHz(4890 Atomic OC in den Benchmarks) und die Kühlung soll wohl laut sein, aber auf einem angenehmeren Niveau als die Referenz-4890.

reunion
2009-05-04, 21:39:36
Wo steht das der Kühler laut sein soll? Ich lese nur lauter als die andere (sehr leise) Vapor-X 4870 Karte und deutlich leiser als das Referenzdesign bei sehr kühlen 59°C unter Last. Angesichts der wohl alles andere als geringen Leistungsaufnahme bei den Taktraten ist der Kühler IMO sensationell gut.

dildo4u
2009-05-04, 21:49:06
Leider wieder keine Preisangabe aber das Ding wär schon ein gutes Update sogar von meiner 4850 mit 512mb.

Tarkin
2009-05-04, 21:58:42
laut Hexus soll das Ding etwa 50% teurer sein als eine herkömmliche 4890er... also um die €300.

Da die Karte ca. so flott wie eine 285er Geforce ist (die kosten ebenfalls so um die €300) könnte das ungefähr hinkommen.

Ich persönlich glaube aber, die karte wird sich bei etwa €270 einpendeln.

horn 12
2009-05-04, 22:25:02
Ist schneller, gleich schnell wie eine OC GTX 285, und diese kosten >=350 Euro und wenn sich die OC 4890 Sapphire Vapor X bei ca. 250-270 Euro einpendeln sollte, echt guter Wurf von AMD Sapphire.
Werde aber dennoch auf die im Juli erscheinende HD5870 warten, da das Verlustgeschäft von HD4870 1GB 810/900 auf Sapphire Vapor-X 1050/1200 einfach zu gross ist!:mad:

Daredevil
2009-05-04, 22:38:51
Wayne GTX285? GTX275 is for teh pwn für 210€

Gast
2009-05-04, 22:46:10
Wayne GTX285? GTX275 is for teh pwn für 210€
Eine GTX 275 im Vergleich zur 4890 schlecht zu machen ist schwer.
Logische Konsequenz ist, man nimmt stattdessen eine GTX 285.

Daredevil
2009-05-04, 22:49:54
100% > GTX275 > 210€
107% > GTX285 > 290€
Aufpreis = 38%

Kapische?
Es geht nicht darum ne Karte schlecht zu machen es geht darum das man sie nicht mit einer viel zu teuren GTX285 vergleichen sollte.

dildo4u
2009-05-04, 22:50:05
Eine GTX275 mit 700mhz Core dürfte mithalten und innerhalb von 5% liegen.
Ca 250€ zur Zeit.(Alternate) Dürfte sich bei 240€ einpendeln.

http://geizhals.at/deutschland/a419678.html

Wenn die ATI über 270€ kostet ist sie in meinen Augen zu teuer was aber normal ist,weil solche OC Versionen immer ein schlechteres P/L Verhältniss haben.

The_Invisible
2009-05-04, 22:55:06
Wo steht das der Kühler laut sein soll? Ich lese nur lauter als die andere (sehr leise) Vapor-X 4870 Karte und deutlich leiser als das Referenzdesign bei sehr kühlen 59°C unter Last. Angesichts der wohl alles andere als geringen Leistungsaufnahme bei den Taktraten ist der Kühler IMO sensationell gut.

lüfter erinnert irgendwie an den 7900gtx kühler :D

mfg

Iceman346
2009-05-04, 22:57:54
Wobei der andere Kühler der Karte hier imo nen wichtiger Punkt ist, die Stock Kühlung der 4890 ist ja quasi unerträglich ;)

Und auch wenn der Kühler lauter als der der Vapor-X 4870 sein soll dürfte er immer noch deutlich angenehmer sein. Die Vapor-X ist ja sowieso eine der leisesten 4870er Karten überhaupt.

Gast
2009-05-04, 23:34:38
Es geht nicht darum ne Karte schlecht zu machen es geht darum das man sie nicht mit einer viel zu teuren GTX285 vergleichen sollte.
Es macht zumindest den Eindruck, es wird durch die Bank eine günstige Radeon mit einer möglichst teuren Geforce verglichen, zumindest wenns um Preis/Leistung geht.

Da wird mal eben die GTX 275 komplett unter den Teppich gekehrt.
Mit ganz viel Glück darf auch mal die deutlich billigere 4870 verglichen werden, wenns extrem freundlich läuft auch die GTX 260.

100% > GTX275 > 210€
107% > GTX285 > 290€
Aufpreis = 38%Richtig, ein Aufpreis, der die Mehrleistung übersteigt.
Siehe 4770 -> 4870 -> 4890 -> 4870 X2
Siehe GTX 260 -> GTX 275

ROXY
2009-05-04, 23:38:58
also die vapor x 4850 ist "bald" auf konstanten 100€ und somit meiner ansicht nach preis/leistungs-sieger in der gesamtwertung.

Daredevil
2009-05-04, 23:46:09
Richtig, ein Aufpreis, der die Mehrleistung übersteigt.
Siehe GTX 260 -> GTX 275
Wenn man von der GTX260² & GTX275 ausgeht bietet sie 20-25% mehr Leistung bei einem Mehrpreis von 30% ( 210€ statt 160€ ).
Das ist alles noch um Humanen Rahmen, aber 7% mehr Leistung bei 38% Preis? Das ist nicht logisch das ist Müll.

Gast
2009-05-04, 23:53:42
aber 7% mehr Leistung bei 38% Preis?
6% mehr GFLOPs.
Dafür 17% mehr Füllrate, 25% mehr Bandbreite, 128MiB mehr VRAM und die unbezahlbare Gewissheit einen vollwertigen GT200b zu bekommen. ;)

Daredevil
2009-05-05, 00:07:40
Theorie mag toll klingen, Praxis ist aber relevant.
Zudem ist die leiser.
http://img3.imagebanana.com/img/6txd03a/Zwischenablage02.jpg

Edit: Ahhhhhh das ia ja der Radeon Thread :| Naja im entferntesten hatte es ja was damit zutun, genug OT für mich, Sorry!

Gast
2009-05-05, 00:35:26
Gibt es auch eine Quelle zu dem Diagramm, bei Computerbase schau ich gern nochmal auf die Treiberversion.

Gast
2009-05-05, 00:35:30
Vergesst doch endlich mal diese CB - Ratings: GTX 285 wurd mit 181.22, GTX 275 mit 185.63 gebencht.
7-8% mehr Leistung geht sich in etwa schon hin. Mal zum vergleich Phenom II 940 vs Core I7 965, 555% Aufpreis für 20% mehr leistung :).

Daredevil
2009-05-05, 00:54:20
Vergesst doch endlich mal diese CB - Ratings: GTX 285 wurd mit 181.22, GTX 275 mit 185.63 gebencht.
Mir ist schon klar das die 275er mit einer neuen besseren Treiber gebencht wurde. ( Hier ist der Link Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet). )
Dann sind es halt 10% mehr, nur ändert das nichts daran das die GTX285 für ihren Preis beschissen ist und nicht mit der HD4890 verglichen werden sollte sondern die GTX275.

AnarchX
2009-05-05, 17:51:16
Powercolor will Sapphires 1.0/1.02GHz Atomic wohl mit einer 1.0/1.1GHz 4890 überbieten:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13503&Itemid=1

Da könnte wohl die finale Atomic auch noch etwas mehr Speichertakt bieten und durch die Konkurrenz die Preise auf ein angenehmeres Niveau gebracht werden. :up:

Raff
2009-05-05, 17:53:30
Asus macht das MHz-Rennen anscheinend nicht mit ("nur" 900/1.000 MHz), obgleich die TOP einen pornösen Kühler hat: http://www.pcgameshardware.de/aid,683322/Asus-HD-4890-TOP-neu-im-Testlabor/Grafikkarte/News/

MfG,
Raff

reunion
2009-05-05, 17:54:33
Da scheinen also doch mehrer Hersteller die 1Ghz knacken zu wollen, denn die Asus wird wohl auch dafür gebaut sein.

AnarchX
2009-05-05, 17:58:47
Asus macht das MHz-Rennen anscheinend nicht mit ("nur" 900/1.000 MHz), obgleich die TOP einen pornösen Kühler hat: http://www.pcgameshardware.de/aid,683322/Asus-HD-4890-TOP-neu-im-Testlabor/Grafikkarte/News/


Über TOP gibt es ja bei ASUS eigentlich noch Ultimate, da wird man wohl auch bald noch eine solchen (wenigstens auf dem Papier) vorstellen.

Gipsel
2009-05-05, 20:12:46
Asus macht das MHz-Rennen anscheinend nicht mit ("nur" 900/1.000 MHz), obgleich die TOP einen pornösen Kühler hat: http://www.pcgameshardware.de/aid,683322/Asus-HD-4890-TOP-neu-im-Testlabor/Grafikkarte/News/
OMG, lugen da 6 Heatpipes raus?

y33H@
2009-05-05, 23:16:21
Jupp, ziemlich krankes Gerät :eek:

http://www.abload.de/thumb/asus_radeon_hd_4890_cu2f4f.jpg (http://www.abload.de/image.php?img=asus_radeon_hd_4890_cu2f4f.jpg)

m.sch
2009-05-05, 23:16:56
Asus macht das MHz-Rennen anscheinend nicht mit ("nur" 900/1.000 MHz), obgleich die TOP einen pornösen Kühler hat: http://www.pcgameshardware.de/aid,683322/Asus-HD-4890-TOP-neu-im-Testlabor/Grafikkarte/News/

MfG,
Raff
Wäre doch nicht schlimm wenn sie Stock mit 900/1000 daher kommt,wer mehr braucht darf Gas geben :D Mal sehen was dieser Cap so alles rausholt,das teil soll auch die Lebenszeit der GPU erhöhen ( OC ).

dildo4u
2009-05-06, 23:23:04
Review: ASUS EAH4890 TOP w/ Super ML Capacitor

http://www.techpowerup.com/reviews/ASUS/EAH4890_TOP_SuperML/

horn 12
2009-05-07, 00:24:46
Da bleibt wohl das Sapphire Model mit 1,0 Ghz GPU Takt und dennoch recht leisem IDLE Lüfter und immer noch recht angenehmen Lastwert Pegel das Idealste Produkt der HD4890-er Serie, nach Powercolor, nun auch MSI und am Schlusslicht wohl ASUS, da der Lüfter nicht reglebar ist und 39-41 bda wohl zuviel des Guten sind ! Eindeutig!!:mad::mad:

m.sch
2009-05-07, 18:18:44
Da bleibt wohl das Sapphire Model mit 1,0 Ghz GPU Takt und dennoch recht leisem IDLE Lüfter und immer noch recht angenehmen Lastwert Pegel das Idealste Produkt der HD4890-er Serie, nach Powercolor, nun auch MSI und am Schlusslicht wohl ASUS, da der Lüfter nicht reglebar ist und 39-41 bda wohl zuviel des Guten sind ! Eindeutig!!:mad::mad:
Habe auch mehr erwartet,die Lautstärke nervt,OC nur dünnes :D
wofür braucht die 1x8 & 1x6 :|

Edit: Lese gerade,das sie weniger Spannung benötigt ( im vergleich zur Powercolor ).Bleibt nur noch die Lautstärke als
ärgernis übrig.Also,wenn die deutlich leiser wäre könnte ich schwach werden :rolleyes:

Lange keine ATI mehr gehabt.

reunion
2009-05-08, 19:27:03
Auch XFX kommt mit 1GHZ 4890:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13574&Itemid=1

horn 12
2009-05-12, 19:32:11
Jupp, die HD4890 gehen auf die 180 Euro langsam zu, die OC HD4890 mit 900/975-1000 auf die 195-200 Euro, also werden die HD4890 1Ghz/1100 Mhz nicht mehr als 230-240 Euro kosten... Da lohnt sich gar ein Aufrüsten falls der GT300 und RV870 dieses Jahre zum Ende hin erst kommen sollten...

reunion
2009-05-12, 19:51:37
Hier noch ein Bild die 4890 Atomic:

http://img9.imageshack.us/img9/8169/sapphirehd4890atomic106.jpg (http://img9.imageshack.us/my.php?image=sapphirehd4890atomic106.jpg)

AnarchX
2009-05-13, 17:16:48
Jetzt beginnt wohl der Kampf um jedes MHz:
Powercolor mit 1.01/1.10GHz (http://www.powercolor.com/Global/NewsInfo.asp?id=585)

reunion
2009-05-13, 19:36:45
ATI Partners Unveiling 1GHz Radeon HD 4890 Cards:
http://vr-zone.com/articles/ati-partners-unveiling-1ghz-radeon-hd-4890-cards/7042.html?doc=7042

R.I.P.
2009-05-14, 12:09:36
Im Moment scheint die Saphhire Atomic mit Vapor-x auch in der 4890iger Reihe das Mass aller Dinge zu sein, was das Verhältnis Kühlleistung/Lautstärke betrifft (siehe Test auf der NewsSeite vom 3dcenter

reunion
2009-05-14, 12:22:51
Ja, die Atomic ist wirklich genial. Sapphire hat offensichtlich nicht mal die Spannung erhöht bei nur 9W mehr als bei default-Taktraten. Die Temperaturen sind auch sensationell niedrig: http://www.hexus.net/content/item.php?item=18359&page=9

Undertaker
2009-05-14, 13:07:03
Von der Lautstärke steht da soweit ich sehe aber nichts? Die ist natürlich für die Bewertung jeglicher Temperaturwerte von essentieller Bedeutung.

INDEX75
2009-05-14, 13:10:10
Hmm... Aber ob man diese 1GHz 4890er auch noch zusätzlich wird OCen können? :uponder:

dildo4u
2009-05-14, 13:26:00
Hmm... Aber ob man diese 1GHz 4890er auch noch zusätzlich wird OCen können? :uponder:
Vom Chip laufen die schon ziehmlich am Limit bis jetzt in 2 Test's 50 bzw 20mhz mher dann war Schicht.

R.I.P.
2009-05-14, 13:58:14
Von der Lautstärke steht da soweit ich sehe aber nichts? Die ist natürlich für die Bewertung jeglicher Temperaturwerte von essentieller Bedeutung.

"the fan is eerily quiet in 2D and innocuous in 3D"
Stimmt; es stehen keine Sone oder dB Angaben dabei und obige Aussage ist stark subjektiv, aber bis jetzt stand Vapor-X doch immer für geringe Lautstärke, so bin ich guter Hoffnung :biggrin:

Jake Dunn
2009-05-14, 16:13:31
Hmm... Aber ob man diese 1GHz 4890er auch noch zusätzlich wird OCen können? :uponder:
Mit Spannungserhöhung sicherlich (ka was da Default anliegt) bis 1.38v kann man machen ;)

deekey777
2009-05-15, 00:10:06
AMDs PR-News zu den 1-GHz-HD4890:
AMD Delivers the World's First 1 GHz Graphics Processor (http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543_15944~131192,00.html)
Building on the success of the recently launched ATI Radeon™ HD 4890 graphics card -- driven by the world’s most powerful graphics processor1 -- AMD (NYSE: AMD) today announced availability of a factory overclocked graphics processor that is the first to break the 1 Gigahertz (GHz) barrier using standard air-cooling solutions.

horn 12
2009-05-15, 00:29:33
Hätte man die HD4890 mit solch (vielleicht mal gar angepeilten) Taktraten gebracht, hätte man die HD4870 1024 durch die Bank wohl mit knappe 30% geschlagen ... Und dies wäre einem Refresh viel viel näher gekommen!

So wie es ausssieht war man aber noch nicht bereit und brauchte was für den Markt... Nach gut einem Monat kommen nun die Blockbuster daher.:cool:

AnarchX
2009-05-15, 07:06:08
Vom Chip laufen die schon ziehmlich am Limit bis jetzt in 2 Test's 50 bzw 20mhz mher dann war Schicht.

Beim Speicher gibt es jedoch noch einiges Potential in Richtung 1.2GHz+, was dann eben auch noch ein paar Prozent an Leistung freisetzen kann, siehe dieses Review:
http://www.overclockersclub.com/reviews/sapphire_hd4890_atomic/
(die Atomic OC in den Benchmarks ist die Atomic@1050/1255MHz)

Ja, die Atomic ist wirklich genial. Sapphire hat offensichtlich nicht mal die Spannung erhöht bei nur 9W mehr als bei default-Taktraten. Die Temperaturen sind auch sensationell niedrig: http://www.hexus.net/content/item.php?item=18359&page=9
Da wird man wohl auch entsprechend gut selektierte Chips setzen und es stellt sich die Frage, was da vielleicht noch mit einer vorsichtigeren Spannungserhöhung erreichbar ist.

reunion
2009-05-15, 09:14:45
AMDs PR-News zu den 1-GHz-HD4890:
AMD Delivers the World's First 1 GHz Graphics Processor (http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543_15944~131192,00.html)

Also zumindest von vier Partner gibt es schon mal sicher eine 1Ghz Version:

"Achieving air-cooled clock speeds of 1 GHz with our Vapor-X cooler immediately puts the new Sapphire HD 4890 Atomic Edition graphics card in an overclocking class of its own,” said Adrian Thomson, vice president, Marketing, Sapphire. “At 150 MHz above stock speeds, this card will unlock new levels of performance and allow gamers to push the latest DirectX 10.1 titles to new highs in image quality and frame rates.”

“XFX is renowned for its ability to design and deliver high-performance graphics products, expertly overclocked to maximize every aspect of the GPU,” said Eddie Memon, senior vice president, Marketing, XFX. “The XFX team was excited to see just how far we could push the 1 GHz ATI Radeon HD 4890. I know our customers are going to love the performance of XFX’s ATI Radeon™ HD 4890 Black Edition. Hitting 1GHz is an amazing feat, even more so when done in production-level volumes and with overclocking headroom to spare.”

“ASUS has always prided itself on delivering leading technology, and the ASUS EAH4890 Formula Series packs all of the great features and performance gamers crave,” said Kent Chien, associate vice president of graphics and multimedia business, ASUS. “In addition, we are equipping the ASUS EAH4890 Formula Series with Voltage Tweak technology and Super ML Cap, giving gamers the flexibility to boost GPU voltage and achieve as much as an 18 percent performance improvement over factory settings. The ASUS EAH4890 Formula Series and Voltage Tweak is a potent combination.”

“With the PowerColor PCS++ HD4890, we built a truly performant graphics card around the exceptional ATI Radeon HD 4890 graphics processor and added our own ZEROtherm cooling system,” said Ted Chen, CEO of TUL Corporation. “The mix of ATI Radeon HD graphics technology and PowerColor design gives our customers enthusiast-level game performance at an affordable price.”

R.I.P.
2009-05-20, 20:14:48
Hier steht was von 4890 Vapor-X für nächste Woche

http://www.pcgameshardware.de/aid,684986/Sapphire-HD-4890-Vapor-X-abgelichtet/Grafikkarte/News/

Gast
2009-05-21, 20:17:55
Große Worte, nichts dahinter! Wie die Pest!

Wo bleiben diese verdammten Karten?? Ich guck jetzt schon seit Wochen, seit der ersten News, bei Geizhals vorbei und bis heute ist keine einzige Karte bei Geizhals in der Übersicht zu finden, die über 950 MHz GPU hinaus kommt. Was ist da los??
Wenn die nicht mal in die Hufen kommen, können sie die verdammten Karten behalten, dann ist die nächste Generation da!!
Wie lang ist die erste Ankündingung jetzt schon alt? Paar Wochen oder doch schon Monate?

R.I.P.
2009-05-22, 13:52:45
Ich will ein Keks @Gast ober mir:

MIX und ALTERNATE haben die XFX 4890 Black edition mit 1Ghz Core lagernd :tongue:

Swp2000
2009-05-22, 13:58:02
Was ist an der Vapor-X Version anders?

R.I.P.
2009-05-22, 16:39:05
Die Vapor-X besitzt keinen Referenzkühler wie die Xfx BE z.B., sondern einen speziellen Kühler der mit Verdampftechnik unter Vakuum arbeitet und so eigentlich die gleiche Kühlung bei geringerer Lautstärke, bzw. die bessere Kühlung bei gleicher Lautstärke bietet ;D (eigentlich die bessere Kühlung bei geringerer Lautstärke, jedoch habe ich schon Freunde gesehen welche den Referenzkühler auf 100% manuell eingestellt haben und die Karte war dann wirklich kühl, muss ich gestehen :|)

Gast
2009-05-22, 17:24:45
Und was kosten solche Vaporware-Editions mit "Vapor-X-Kühler"? Dieses Alleinstellungsmerkmal lassen die sich mit Sicherheit teuer bezahlen. Ob es sinnvoll ist, ist da völlig nebensächlich.

Imho spielt das in der gleichen Kategorie wie die (ebenfalls von Sapphire übrigens) vor Ewigkeiten mal angekündigte Flüssigmetallkühlung oder aber man ist einen Schritt weiter und spielt in einer Klasse mit Wasserkühlern für DRAM-Module.

So ein Unfug aber auch. Die Referenzkühler werden von den IHVs schon ausreichend ausgelegt. Wem das vom Geräuschniveau nicht leise genug ist, kauft halt einen Alternativkühler oder baut sich von mir aus auch eine Wasserkühlung.

Ist doch immer das gleiche mit diesen exotischen Kühllösungen. Wenn sie denn überhaupt mal auf den Markt kommen, sind die entsprechenden Karten unverhältnismäßig teuer und die Vorteile gegenüber Standardmodellen eher gering.

reunion
2009-05-22, 17:43:10
Die Vapor-X Kühler von Sapphire haben sich schon bewährt, und sind mit die leisesten und leistungsstärksten am Markt.

R.I.P.
2009-05-22, 17:46:04
@Gast
Stimme dir teilweise zu; für solche, denen die Standardkühlung zu laut ist, bietet sich sehr wohl ein Umbau zu einer Alternativ-Lüftkühlung, bzw. zu einer WaKü an; nicht jeder jedoch ist dazu handwerklich veranlagt und für diese Personen ist die Vapor-X Technik eine sehr gute Alternative, da sie sehr gute Kühlung mit akzeptabler Lautstärke verbindet. Sie ist dabei teuerer als Referenzlösungen, aber jeder soll sich dann selbst überlegen, ob es ihm wert ist, für eine leisere Umgebung mehr auszugeben (was im Falle eines Alternativ-Kühlers, bzw. WaKü ja auch der Fall ist, da man sich andere Kühler dazukaufen muss)

PCGH_Raffael
2009-05-22, 21:18:46
Die leiseste HD 4850, die wir bisher getestet haben, kommt von Sapphire (HD 4850/512 Vapor-X: exzellente 0,3/0,5 Sone 2D/3D). Die leisteste HD 4870, die bei uns jemals im Testlabor war, stammt aus dem gleichen Hause: HD 4870/2G Vapor-X, 0,3/1,2 Sone im 2D/3D. Die HD 4890 Vapor-X haben wir nun ebenfalls da, ein Test ist in der Mache. Bisher sieht es so aus, dass die Karte den sehr guten Ruf der Vapor-X-Kühler fortführt. Mehr dazu nächste Woche.

MfG,
Raff

R.I.P.
2009-05-22, 21:39:43
@PCGH_Raffael
Sorry dass ich diesen Thread hier missbrauche, aber ich finde eure Zeitschrift sehr gut :biggrin:

BTT
Das einzige das mich an dem Sapphire Vapor-X Layout nervt sind die Speicherchips auf der Rückseite der Karte, welche nur durch Passiv-Kühler gekühlt werden

Daredevil
2009-05-22, 21:49:31
Wieso nervt dich das?
Soooooo heißt wird RAM nun auch nicht das er eine Aktive Belüftung brauch, doof wirds nur falls ein CPU Kühler in den Weg kommt.
Ansonsten macht RAM auf der Rückseite mehr Sinn als vorne, denn so wird der GPU Kühler weniger mit Wärme belastet und bleibt so Kühler/Leiser. :)

R.I.P.
2009-05-22, 22:01:32
Nun ja, ich verbrenne mir die Finger wenn ich die passiven Kühler hinten angreife und mein Gehäuse ist alles andere als schlecht durchlüftet; mit einem leichten Luftstrom auf der Vorderseite durch GPU-Kühler eindeutig besser gekühlt meiner Meinung nach; ausserdem lässt sich bei den Vapor-X der RAM sehr schlecht übertakten (vielleicht ein Zeichen dafür dass meine These stimmt??)

Daredevil
2009-05-23, 11:06:38
Ab wieviel °C verbrennt man sich die Finger? 50-60°C ?
An meiner HD3850@vMod habe ich mit am PCB die Finger verbrannt wenn ich immer mit dem Bleistift nachmalen wollte.
Ich weiß ja nicht wie heißt der spezifiziert ist, aber solang sich das im Rahmen bewegt, und RAM übertakten bringt auch nicht sooooooo viel, da würd ich mich lieber um ein paar MHz GPU Takt freuen.

Cpl. Dwayne Hicks
2009-05-23, 15:39:02
Ja so bei 60°C fängt das wohl an. :smile:

Schlammsau
2009-05-25, 22:27:12
Kurztest: PowerColor Radeon HD 4890 PCS+ (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_powercolor_radeon_hd_4890_pcs/)

http://pics.computerbase.de/2/5/6/6/9/2_m.jpg

AnarchX
2009-05-26, 07:16:46
50W mehr unter Last und 20W mehr unter Idle, da scheint wohl Powercolor nicht mit der Spannung zu geizen. Wenn auch man das bei vernünftiger Lautstärke kühlt.

Da kann man wohl gespannt auf ihre 1GHz Karte sein. ;)

reunion
2009-05-26, 07:44:50
Vorallem der höhere idle-Verbrauch ist vollkommen überflüssig und unverständlich. Taktet die Karte nicht runter oder wie ist das möglich?

Raff
2009-05-26, 17:12:04
Die Sapphire Radeon HD 4890 Vapor-X schluckt ebenfalls deutlich mehr Saft als "normale" HD-4890-er:

http://www.pcgameshardware.de/aid,685181/Test-der-Grafikkarte-Radeon-HD-4890-Vapor-X-von-Sapphire/Grafikkarte/Test/

Aber "leise" ist sie im Vergleich mit dem Referenzdesign. :)

Vorallem der höhere idle-Verbrauch ist vollkommen überflüssig und unverständlich. Taktet die Karte nicht runter oder wie ist das möglich?

Der VRAM arbeitet auch auf dem Desktop mit 3D-Takt. Und da sind 1.050 eben mehr (Watt) als 975 MHz.

MfG,
Raff

Mr. Lolman
2009-05-26, 17:15:16
Und bei gleichem RAM-Takt ist der Verbrauch auch gleich?

Schlammsau
2009-05-26, 17:27:39
Die Sapphire Radeon HD 4890 Vapor-X schluckt ebenfalls deutlich mehr Saft als "normale" HD-4890-er:

http://www.pcgameshardware.de/aid,685181/Test-der-Grafikkarte-Radeon-HD-4890-Vapor-X-von-Sapphire/Grafikkarte/Test/

Aber "leise" ist sie im Vergleich mit dem Referenzdesign. :)



Der VRAM arbeitet auch auf dem Desktop mit 3D-Takt. Und da sind 1.050 eben mehr (Watt) als 975 MHz.

MfG,
Raff

nettes Kärtchen, bis auf den Stromverbrauch.

deekey777
2009-05-26, 17:32:39
PCGH_Raffael, ihr seid doch eines der größten F@H-Teams, wieso testet ihr nicht neben bei den Verbrauch mit dem GPU2-Client (selbst wenn die Ergebnisse aufgrund verschiedenen Projekte nicht ganz vergleichbar sind)?

AnarchX
2009-05-26, 17:38:10
Die Sapphire Radeon HD 4890 Vapor-X schluckt ebenfalls deutlich mehr Saft als "normale" HD-4890-er:

http://www.pcgameshardware.de/aid,685181/Test-der-Grafikkarte-Radeon-HD-4890-Vapor-X-von-Sapphire/Grafikkarte/Test/


Für gerade mal +20/75MHz auch eine erhebliche Verbrauchssteigerung.

Da könnte die Verwendung von eigenen PCBs, mit wohl nicht so qualitativer Stromversorgung wie bei der Referenz, auch ihre Auswirkung haben.

Jake Dunn
2009-05-26, 21:54:22
Und bei gleichem RAM-Takt ist der Verbrauch auch gleich?

Ich denke nicht, denn die Spannungen sind sicher erhöht (GPU, evt. auch Mem) ;)

horn 12
2009-05-26, 22:06:29
Die Sapphire HD4890 Atomic mit 1020/1100 Mhz ist ja mal ein richtiges Top Modell und gar nicht mehr Verbrauch unter IDLE/ Last.
NUR 5 /12 Watt mehr, da muss man was umgestellt haben am Design, Stromzufuhr der Karte, oder was weiss ich..
Jedoch!! wenn sie nicht bald kommt können die "ihr Prachtstück" behalten, da ist es zum RV870 nimmer weit.

Gast
2009-05-26, 22:18:03
Ja, bestimmt. Sapphire entwickelt für Low-Volume-Karten gleich zwei eigene PCBs und verkauft das "schlechtere" dann als Vapor-X. Wie naiv muss man sein...?

Banshee18
2009-05-27, 03:43:27
Mit Bildqualitätsdiskussionen jeglicher Art bitte hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455055) fortfahren.

reunion
2009-05-27, 09:49:27
Kurztest: Sapphire Radeon HD 4890/4870 Vapor-X:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_sapphire_radeon_hd_4890_4870_vapor-x/

reunion
2009-05-27, 12:08:33
Die PowerColor Radeon HD 4890 PCS+ ist mittlerweile lieferbar:
http://geizhals.at/eu/a435687.html

Die Sapphire Atomic Radeon HD 4890 ist mittlerweile gelistet:
http://geizhals.at/eu/a435726.html

Ebenso wie die XFX Radeon HD 4890 1000M Black Edition:
http://geizhals.at/eu/a435800.html

Jake Dunn
2009-05-27, 16:08:45
Ebenso wie die XFX Radeon HD 4890 1000M Black Edition:
http://geizhals.at/eu/a435800.html

Die Karte wird laut Bios mit 1.4375V im 3D versorgt :cop:


http://www.hardwareluxx.de/community/showpost.php?p=12103715&postcount=2379

Schlammsau
2009-05-27, 16:31:04
Mit dem Standardkühler? :confused:
Möchte nicht wissen, wie laut die werden kann. :|

Jake Dunn
2009-05-27, 16:36:34
Mit dem Standardkühler? :confused:
Möchte nicht wissen, wie laut die werden kann. :|

Ja mit Standardkühler :D

Schlammsau
2009-05-27, 16:37:11
Die Spinnen doch! :uhammer:

reunion
2009-05-27, 16:37:47
Also Reserven hat der Lüfter jedenfalls genug. :D

Gast
2009-05-27, 17:39:49
Ist die 4890 mit 1Ghz Chiptakt schneller als eine GTX285, bzw fast dran?

Jake Dunn
2009-05-27, 17:47:03
Ist die 4890 mit 1Ghz Chiptakt schneller als eine GTX285, bzw fast dran?

Leicht schneller wenn man nach dem CB Test geht und das OC mit dazu rechnet ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet

LovesuckZ
2009-05-27, 18:24:53
Warum sollte jemand eine GTX285 mit einem Treiber betreiben, der 5 monate alt ist?

Jake Dunn
2009-05-27, 18:36:41
Warum sollte jemand eine GTX285 mit einem Treiber betreiben, der 5 monate alt ist?

Weil die 2-3% den Kohl auch nicht Fett machen :P


@Gast: Aber es gibt immer Games die den einen IHV etwas besser liegen, daher kann man das Pauschal nicht festmachen :)

Raff
2009-05-27, 19:07:43
Weil die 2-3% den Kohl auch nicht Fett machen :P

Crysis (Warhead) legt unter D3D10 mit einem 185-er zwischen 20 und 25 Prozent zu. Viele andere Spiele bewegen sich im 5-Prozent-Rahmen.

MfG,
Raff

Schlammsau
2009-05-27, 19:10:27
Mein Gott.....aber sie werden sich auf einem ähnlichen Niveau bewegen.

Raff
2009-05-27, 19:11:30
Das ja. Mal führt die eine, mal die andere. Aber preislich nehmen die sich auch nicht mehr viel.

MfG,
Raff

Schlammsau
2009-05-27, 19:14:50
Rund 25€ liegen noch zwischen den beiden. Und das obwohl die Black Edition erst seit einem Tag lieferbar ist. Mal sehen wie es in 2 Wochen aussieht.

Raff
2009-05-27, 19:18:45
Es ist schön, dass es mal wieder richtig schnelle Single-GPU-Karten von AMD gibt. Dies wird jedoch mit dem Holzhammer erreicht: Die 1-GHz-Karten mit dem Referenzkühler röhren wohl mit 7-8 Sone (hallo!?) ... und überleben vermutlich keine drei Minuten im Furmark. Hinzu kommt ein völlig abartiger Energiekonsum. Komisch, bei der GeForce FX war das noch ein Todschlagargument. ;) In den Foren höre ich jedoch nur die "Ati herrscht"-Chöre gröhlen.

MfG,
Raff

y33H@
2009-05-27, 19:21:49
Die schlechtere BQ, die Leistungsaufnahme und die Lautstärke werden freilich unter den Tisch gekehrt - hat AMD den längeren oder gleichlangen Balken ist das alles egal.

Daredevil
2009-05-27, 19:30:06
Ist diese Lautstärke denn wirklich nötig?
Also laut Computerbase und ich beziehe mich nun auf die Auslastung:

Lautstärke:
Nvidia GeForce GTX 275: 49.5dB
ATi Radeon HD 4870 1GB: 49.5dB
XFX Radeon HD 4890: 59.5dB

Temperatur Last:
Nvidia GeForce GTX 275: 88°C
ATi Radeon HD 4870 1GB: 85°C
XFX Radeon HD 4890: 69°C

Muss die 4890 wirklich so kühl bleiben?
~70°C sind doch nichts, man könnte doch auch locker auf 90°C hoch gehen wie bei der HD4870.
Es wurd mal geschrieben das sich die Lüftersteuerung nun abhängig von der SpaWa Temp regelt, ist das der Fall? Das könnte erklären wieso die Karte so unnötig hoch dreht.
Was passiert wenn man sie so regelt das sie unter Last 90°C heiß wird?
Wie heiß werden denn die Karten unter Last mit den Modifizierten Kühlern?

Edit:
Das gleiche ist nämlich bei der Vapor-X der Fall.

Sapphire HD 4890 Vapor-X: 55dB
PowerColor HD 4890 PCS+: 57.5dB
ATi Radeon HD 4890: 63db

ATi Radeon HD 4890: 62°C
PowerColor HD 4890 PCS+: 71°C
Sapphire HD 4890 Vapor-X: 78°C

Die Karten mit den eigen Bau Kühlern werden deutlich heißer bei Beanspruchung und deswegen bleiben sie eben leiser, der Schlüssel zum Erfolg?
Was passiert denn wenn man die Lüfter Steuerung bei der Referenz Kühlung so einstellt das sie erst ab ~70°C so langsam los dreht, mögen das die SpaWas nicht?

reunion
2009-05-27, 19:38:28
Tja, AMD wurde eben bei den 4870/4850-Karten von vielen für zu hohe Temperaturen kritisiert, deshalb drehen die Karten jetzt wohl ab 70°C hoch. Aber kann sich ja jeder selbst sein Profil zusammenstellen. Für den Chip selbst sind 90°C und mehr sicher unbedenklich.

Jake Dunn
2009-05-27, 19:40:38
... und überleben vermutlich keine drei Minuten im Furmark.
In den Foren höre ich jedoch nur die "Ati herrscht"-Chöre gröhlen.

MfG,
Raff

Beides BS :rolleyes:
Ist diese Lautstärke denn wirklich nötig?
Also laut Computerbase und ich beziehe mich nun auf die Auslastung:

Lautstärke:
Nvidia GeForce GTX 275: 49.5dB
ATi Radeon HD 4870 1GB: 49.5dB
XFX Radeon HD 4890: 59.5dB

Temperatur Last:
Nvidia GeForce GTX 275: 88°C
ATi Radeon HD 4870 1GB: 85°C
XFX Radeon HD 4890: 69°C

Muss die 4890 wirklich so kühl bleiben?
~70°C sind doch nichts, man könnte doch auch locker auf 90°C hoch gehen wie bei der HD4870.
Es wurd mal geschrieben das sich die Lüftersteuerung nun abhängig von der SpaWa Temp regelt, ist das der Fall? Das könnte erklären wieso die Karte so unnötig hoch dreht.
Was passiert wenn man sie so regelt das sie unter Last 90°C heiß wird?
Wie heiß werden denn die Karten unter Last mit den Modifizierten Kühlern?



CB hat keine XFX BE getestet ;)

y33H@
2009-05-27, 19:41:06
Es wurd mal geschrieben das sich die Lüftersteuerung nun abhängig von der SpaWa Temp regelt, ist das der Fall? Das könnte erklären wieso die Karte so unnötig hoch dreht. Was passiert wenn man sie so regelt das sie unter Last 90°C heiß wird?Die Aussage stammt von mir. Setzt man 90°-GPU im Spielebetrieb als Limit gibts teils Bildfehler oder Freezes, setzt man 90°-GPU im Furmark wars das - zumindest bei dem Modell welches ich genutzt habe.

Daredevil
2009-05-27, 19:41:59
Ja aber man kann sich bei den HD48xx nicht nur nach der GPU richten.
Mein Kollege hatn Accelero drauf ( Mit Roter Referenz Kühlplatte ) und kann den flüster leise einstellen auch während des 3D Modes. Das bringt ihm allerdings nichts wenn sich die SpaWas bei 100°C+ befinden.

Die Lösung wie manche schon angeschnitten haben waren doch Analoge Spannungswandler, zumindest sollten die ja kühler bleiben.

@ Jake Dunn
Ich weiß, es ging mir nur um den Vergleich Referenz gegen selfmade Kühlung.

reunion
2009-05-27, 22:49:11
Noch ein paar neue Listungen:
http://geizhals.at/eu/a435924.html
http://geizhals.at/eu/a435923.html

Schlammsau
2009-05-30, 14:46:54
Hab jetzt eine MSI HD4890 OC (http://geizhals.at/deutschland/a418931.html) bei mir verbaut.
Bis jetzt kann ich sagen, sie ist deutlich schneller als meine "alte" 4870/512MB aber kaum lauter.
Versteh momentan noch nicht die Kritik an der hohen Lautstärke. Die MSI zumindest scheint dahingehend wohl echt ein Glücksgriff zu sein. :)

MartinRiggs
2009-05-30, 15:25:48
Hab jetzt eine MSI HD4890 OC (http://geizhals.at/deutschland/a418931.html) bei mir verbaut.
Bis jetzt kann ich sagen, sie ist deutlich schneller als meine "alte" 4870/512MB aber kaum lauter.
Versteh momentan noch nicht die Kritik an der hohen Lautstärke. Die MSI zumindest scheint dahingehend wohl echt ein Glücksgriff zu sein. :)

Ich hab die Erfahrung gemacht das ich die Grakas selbst testen muss um zu sehen wie die Lautstärke ist.
Die Gainward/Palit-Karten mit den 2 Lüftern wurde als recht leise z.b. auch von PCGH deklariert.
Als ich die Gainward GTX260 probiert hab bin ich fast wahnsinnig geworden, sie war zwar ansich leiser aber der Brummton der beiden Lüfter hat mich fast zum Wahnsinn getrieben -> Ergo FAG
Die HD4870 rauscht zwar lauter aber das Geräusch geht sehr gut im Spielesound unter.

Schlammsau
2009-05-30, 23:26:00
Hab jetzt eine MSI HD4890 OC (http://geizhals.at/deutschland/a418931.html) bei mir verbaut.
Bis jetzt kann ich sagen, sie ist deutlich schneller als meine "alte" 4870/512MB aber kaum lauter.
Versteh momentan noch nicht die Kritik an der hohen Lautstärke. Die MSI zumindest scheint dahingehend wohl echt ein Glücksgriff zu sein. :)

Also Übertaktungsmässig hab ich wohl ein extrem schlechtes Model erwischt.
Standardtakt ist 880/999Mhz.....und übertakten kann ich auf 890/1060Mhz.
Der VRAM geht ja noch, aber die GPU? :confused:

Das ist echt mager! :mad:

IC3M@N FX
2009-05-31, 02:46:26
Also Übertaktungsmässig hab ich wohl ein extrem schlechtes Model erwischt.
Standardtakt ist 880/999Mhz.....und übertakten kann ich auf 890/1060Mhz.
Der VRAM geht ja noch, aber die GPU? :confused:

Das ist echt mager! :mad:


Naja scheinst hast wohl ein schwarzes Schaf erwischt zu haben schade.
Ich glaub es können eh nur wenige Chip´s die 1000er Schallmauer durchbrechen die werden glaub ich selektiert. Ist aber trotzdem bescheiden normalerweise sollte 920-950 drin sein.

Gast
2009-05-31, 03:42:14
http://www.gamestar.de/hardware/praxis/1956393/sapphire_radeon_hd_4890_toxic_gamestar_edition.html

y33H@
2009-05-31, 03:51:03
Das ist echt mager!Tjoa, da bist du Opfer des Hypes geworden :(

horn 12
2009-05-31, 09:17:43
Ja, hast echt ein schlechtes Exemplar erwischt.
Hättest besser auf die 4890 Toxic, Atomic gewartet, für ca. 225-240 Euro sollte diese zu haben sein bei breiter Verfügbarkeit!

INDEX75
2009-05-31, 10:13:51
Also Übertaktungsmässig hab ich wohl ein extrem schlechtes Model erwischt.
Standardtakt ist 880/999Mhz.....und übertakten kann ich auf 890/1060Mhz.
Der VRAM geht ja noch, aber die GPU? :confused:

Das ist echt mager! :mad:Das nennt man wohl Glücksgriff. X-D

Von so einem üblen Modell habe ich bisher noch nicht gehört.:eek: Selbst meine 4890 (die günstigste Variante) lässt sich ohne Probleme auf bis zu 960MHz prügeln.

Gast
2009-05-31, 10:52:02
Das ist echt mager! :mad:
Das hast du davon, das du extra 18€ mehr für eine baugleiche werksübertaktete Karte ausgibst.

Schlammsau
2009-05-31, 10:52:32
Nöö...ab 895Mhz GPU Takt bekomme ich innerhalb kürzester Zeit, massig Artefakte im ATITool Fellwürfel.
Hab gestern dann mal testweise die Vcore per RBE von 1,3125V auf 1,32V erhöht, und der Takt ging dann auf 930Mhz schon deutlich höher.

Schlammsau
2009-05-31, 12:13:44
Tjoa, da bist du Opfer des Hypes geworden :(

Welchen Hype?
Hab mir die Karte nicht wegen ihrer OC Eigenschaften geholt.

Raff
2009-05-31, 12:16:45
Die OC-Eigenschaften wirst du aber brauchen, um dich signifikant vor eine übertaktete HD 4870/512 zu setzen. Läuft der VRAM nicht voll, ist eine HD 4870 @ 850/975 MHz genauso schnell wie eine HD 4890. :)

MfG,
Raff

Gast
2009-05-31, 12:18:26
Nöö...ab 895Mhz GPU Takt bekomme ich innerhalb kürzester Zeit, massig Artefakte im ATITool Fellwürfel.
Hab gestern dann mal testweise die Vcore per RBE von 1,3125V auf 1,32V erhöht, und der Takt ging dann auf 930Mhz schon deutlich höher.
ICh hoffe du hast auch Spiele getestet.Bei vielen 48** gibts ohne grund grafikfehler beim atitool.

Schlammsau
2009-05-31, 12:21:55
ICh hoffe du hast auch Spiele getestet.Bei vielen 48** gibts ohne grund grafikfehler beim atitool.
Interessant.....hab bis jetzt nur den ATITool Fellwürfel und das ATT Raumschiff ausprobiert.

Die OC-Eigenschaften wirst du aber brauchen, um dich signifikant vor eine übertaktete HD 4870/512 zu setzen. Läuft der VRAM nicht voll, ist eine HD 4870 @ 850/975 MHz genauso schnell wie eine HD 4890. :)

MfG,
Raff
In erster Linie ging es mir nur um die 1GB VRAM. Und die 512MB mehr als meine 4870 hatte merkt man schon.
Unter Crysis Warhead@Enthusiast und 4xAA ist die Leistung schon deutlich höher. :)
http://ht4u.net/reviews/2009/amd_radeon_hd4890_reloaded/index12.php?dummy=&prod[]=AMD+Radeon+HD4870+%28512+MB%29&prod[]=AMD+Radeon+HD+4890&filter[0][]=1280&filter[0][]=1680&filter[0][]=1920&filter[2][]=0&filter[2][]=4&filter[2][]=8&filter[3][]=0&filter[3][]=16

Jake Dunn
2009-05-31, 12:42:36
Die 512mb mehr Vram spürt man schon, besonders wenn man Texturmods noch nutzt z.b. Rygel bei Warhead :)

Raff
2009-05-31, 12:46:25
Mir sagt ihr da gewiss nix Neues, aber bis 1.680 x 1.050 muss man momentan schon mit mehr als 4x MSAA und Mods anrücken, um deutliche Unterschiede zu provozieren. In 1.920 x 1.200 und darüber schaut das schon anders aus. Da sackt eine 512-MiB-Karte mit 8x MSAA gnadenlos ab. Wohlgemerkt bei gleichem Takt. Eine HD 4890 ist einer HD 4870/512 natürlich stets überlegen ... aber ob das 190 €uro wert ist? Schlammsau, du hattest gerade die Chance, eine GeForce zu kaufen, um dich von der BQ zu überzeugen ...

MfG,
Raff

Schlammsau
2009-05-31, 13:03:15
Mir sagt ihr da gewiss nix Neues, aber bis 1.680 x 1.050 muss man momentan schon mit mehr als 4x MSAA und Mods anrücken, um deutliche Unterschiede zu provozieren. In 1.920 x 1.200 und darüber schaut das schon anders aus. Da sackt eine 512-MiB-Karte mit 8x MSAA gnadenlos ab. Wohlgemerkt bei gleichem Takt. Eine HD 4890 ist einer HD 4870/512 natürlich stets überlegen ... aber ob das 190 €uro wert ist? Schlammsau, du hattest gerade die Chance, eine GeForce zu kaufen, um dich von der BQ zu überzeugen ...

MfG,
Raff

Wenn man die alte für 120€ loswerden konnte dann schon. :)
Hab sogar mit dem Gedanken gespielt, aber dann war mir dann doch die Gefahr zu gross, eine mit Spulenfiepen zu erwischen.

Raff
2009-05-31, 13:11:04
Die günstigen Palit-Karten im Custom Design fiepen weniger als die Nvidia-Referenz und bleiben dabei kühler: Palit GeForce GTX 275 (http://www.pcgameshardware.de/m,preisvergleich/a418882.html)

MfG,
Raff

Gast
2009-05-31, 13:41:49
Interessant.....hab bis jetzt nur den ATITool Fellwürfel und das ATT Raumschiff ausprobiert.


I]
Bei allen 4870 Karten mit dem PCS design gibts schon beim standard takt grafikfehler beim Atitool.Teste deine Karte lieber mit kleinen techdemos.

MartinRiggs
2009-05-31, 13:57:34
Die günstigen Palit-Karten im Custom Design fiepen weniger als die Nvidia-Referenz und bleiben dabei kühler: Palit GeForce GTX 275 (http://www.pcgameshardware.de/m,preisvergleich/a418882.html)

MfG,
Raff

und die karte ist leider sehr nervig von der Geräuschkulisse.
Zumindest mein Modell hat Lüftermäßig gebrummt ohne Ende, dafür war das fiepen wirklich sehr gering:uroll:

Raff
2009-05-31, 14:12:07
Die Dinger haben BIOS-Probleme, zumindest die erste Ladung. Wenn die Karte subjektiv zu laut ist und sich außerdem im 2D nicht heruntertaktet, hilft eine E-Mail an den Hersteller. Ordnungsgemäß geflasht sind die Teile leise.

MfG,
Raff

MartinRiggs
2009-05-31, 14:37:12
runtergetaktet hat sich die Gainward tatsächlich nicht, allerdings hatte ich sie per Rivatuner auf 20 oder 25% im idle runtergestellt und wenn sie dann langsam hochgedreht hat beim zocken wurde es immer nerviger weil der lüfter halt gebrummt hat.
war ein sehr merkwürdiges verhalten:confused:

Jake Dunn
2009-05-31, 16:39:37
Schlammsau, du hattest gerade die Chance, eine GeForce zu kaufen, um dich von der BQ zu überzeugen ...

MfG,
Raff

Ist nicht alles Gold was glänzt :ucatch:

Bei der Filmwiedergabe schonmal nicht (auch im 2D)

http://www.hardwareluxx.de/community/showthread.php?t=616024

LovesuckZ
2009-05-31, 17:08:26
Ohne CPU gerendertes Bild: Warum sollen verwaschene Bilder besser aussehen?

Schlammsau
2009-05-31, 17:14:56
Hab jetzt mal mit dem FUR getestet.....ab 885Mhz kommen Artefakte. :(

=Floi=
2009-05-31, 17:26:26
was passt dir denn daran nicht? wenn du mehr willst, dann musst du der karte auch mehr saft geben, aber es wird sich sowieso nicht lohnen. 880mhz chiptakt in games sind ja eh eine schöne nummer und sollten überall hin reichen für normale sachen.

ich verstehe den sinn solcher upgrades eh nicht, da sich unter 100% schneller sich das ganze nicht wirklich lohnt.

Jake Dunn
2009-05-31, 17:32:32
ich verstehe den sinn solcher upgrades eh nicht, da sich unter 100% schneller sich das ganze nicht wirklich lohnt.

Völliger Blodsinn selbst bei 30% Mehrperformance entscheidet es sich schon zwischen 1xAA oder 4xAA ;)

y33H@
2009-05-31, 17:41:57
@ Schlammsau

Nimm mal was gescheites. ATTs, ATi-Tool und Fur taugen nicht um OC zu checken. Zock ne Stunde Crysis ...

Schlammsau
2009-05-31, 17:51:43
was passt dir denn daran nicht? wenn du mehr willst, dann musst du der karte auch mehr saft geben, aber es wird sich sowieso nicht lohnen. 880mhz chiptakt in games sind ja eh eine schöne nummer und sollten überall hin reichen für normale sachen.

ich verstehe den sinn solcher upgrades eh nicht, da sich unter 100% schneller sich das ganze nicht wirklich lohnt.
Ich habe nur irgendwie bedenken, weil die GPU schon von Haus aus am Limit läuft. 880Mhz sind Standardtakt und bei rund 885Mhz gibt es schon Artefakte in theoretischen Tests. Find ich nicht so prickelnd.

@ Schlammsau

Nimm mal was gescheites. ATTs, ATi-Tool und Fur taugen nicht um OC zu checken. Zock ne Stunde Crysis ...
Hab der GPU jetzt 0,075V mehr gegeben. Damit bin ich denke auf der sicheren Seite.

Dr. Cox
2009-05-31, 17:51:46
Hab jetzt mal mit dem FUR getestet.....ab 885Mhz kommen Artefakte. :(

Das sind ja gerade mal 5MHz mehr :eek:

Wie warm wird die Karten denn?

Da hast du aber entweder echt übelst Pech gehabt, oder das OC-Potential der HD4890 ist doch nicht ganz so hoch wie überall in den Foren gehypt wird.

Botcruscher
2009-05-31, 17:53:09
Bei 5MHz würde ich eher auf einen Softwarelock im Bios tipen.

Dr. Cox
2009-05-31, 17:54:31
So dass die ganzen OC-Kiddis ihre Grafikkarten nicht schrotten oder wie?

Botcruscher
2009-05-31, 18:01:16
So wie bei den X1950GT Karten.

Kann ja sein das einige Hersteller da auf Nummer sicher gehen wollen.

Schlammsau
2009-05-31, 18:01:16
Das sind ja gerade mal 5MHz mehr :eek:

Wie warm wird die Karten denn?

Da hast du aber entweder echt übelst Pech gehabt, oder das OC-Potential der HD4890 ist doch nicht ganz so hoch wie überall in den Foren gehypt wird.
maximal 65°.
Mit 0,0125V mehr, hab ich die 900Mhz Marke artefaktfrei geschafft. Hab eine echt "schlechte" GPU erwischt.


Bei 5MHz würde ich eher auf einen Softwarelock im Bios tipen.

Mit mehr Volt schaff ich auch höhere Taktraten, also kein Softwarelock.

Botcruscher
2009-05-31, 18:03:55
Dann freu dich aber das Kärtchen und lass die paar Prozent sausen. Unschön wenn einem das die Karte kostet.

PS: WTF?!? Mal fehlt der Post von Schlamsau und mal ist er da? Hat die Datenbank probleme bei Sekundengenauen Posts?

Jake Dunn
2009-05-31, 18:04:25
Bei 5MHz würde ich eher auf einen Softwarelock im Bios tipen.

Richtig kam mir auch schon in den Sinn ;)

XFX BE Bios -> http://www.loaditup.de/362940.html

Schlammsau
2009-05-31, 18:05:22
Richtig kam mir auch schon in den Sinn ;)

XFX BE Bios -> http://www.loaditup.de/362940.html
Denke ich nicht, siehe oben!

Ist das das BIOS mit 1,43V?

Dr. Cox
2009-05-31, 18:05:30
Mit mehr Volt schaff ich auch höhere Taktraten, also kein Softwarelock.

Davon würde ich dir aber lieber abraten ;)

Jake Dunn
2009-05-31, 18:06:21
Ist das das mit 1,43V?

Jep :cool:

Kannst ja mal mit RBE anschaun :wink:

Schlammsau
2009-05-31, 18:06:38
Davon würde ich dir aber lieber abraten ;)
Warum?

Jep :cool:

Kannst ja mal mit RBE anschaun :wink:
Das werd ich meinem Kärtchen aber nicht antun! :)

y33H@
2009-05-31, 18:08:06
Hab der GPU jetzt 0,075V mehr gegeben. Damit bin ich denke auf der sicheren Seite.Jo, immer druff mit dem Holzhammer. 0,075V mehr für nutzlose 50 MHz ...

Schlammsau
2009-05-31, 18:12:45
Jo, immer druff mit dem Holzhammer. 0,075V mehr für nutzlose 50 MHz ...
Sorry hatte nen Rechenfehler drinne....es sind 0,0125V mehr. :tongue:

Jake Dunn
2009-05-31, 18:14:10
Das werd ich meinem Kärtchen aber nicht antun! :)

Ja XFX hat es viel zu "gut" gemeint ;D

Die Karte kann man auch untervolten -> http://www.hardwareluxx.de/community/showpost.php?p=12124772&postcount=122


Ich würde mir bis 1.35V aber kein Kopf machen :D