PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 7970: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12

TobiWahnKenobi
2012-01-10, 15:14:04
MGPU ist ohnehin seit AFR genutzt wird nicht zu empfehlen, die Probleme und Ärgernisse überwiegen. Ich "frickle" seit bestimmt zehn Jahren und bisher bin ich es nicht Leid. Kann ein Spiel - etwa GTA 4 oder Dead Space - beim Release kein AA oder meine Highend-Karte ist zu lahm, dann warte ich ein halbes Jahr bis es klappt oder lasse das Spiel im Regal. Ganz einfach.

Natürlich nur "wann immer es geht", aber schön, dass du mir prinzipiell zustimmst: Features sind immer gut, auch wenn man sie zB aufgrund der Geschwindigkeit nicht immer nutzen kann/will.

10 jahre geht noch - ich muss mal rechnen.. ich hab mit 8 angefangen.. bin heute 36.. *yes* ist knapp mehr als 10 jahre.. aber solange man es nicht sieht.. la la la /OT

ähm.. das mit dem spiel ins regal erinnert mich ein wenig an farcry anno knips.. und dem HDRr.. AFAIR war das auf der gemoddeten FX59 unerträglich und brachte mich etwas später mit 2x NV40 zu meinem ersten SLi-system; ist das echt schon 6 jahre her!?



(..)

mfg
tobi

y33H@
2012-01-10, 15:15:33
Du hast mit 8 Jahren aber sicherlich keine Ini-Dateien gemoddet und High-End-Grafikkarten per AA-Bit-Gefummel zu SSAA überredet :biggrin:

TobiWahnKenobi
2012-01-10, 15:18:53
..
X3 ist von 2006, aufgepeppt bis zuletzt Dezember mit Addons. X Rebirth kommt vermutlich 2012.

danke für info :-)

@y33H@
nein, da habe ich auf einen VC20 rumgehackt.. gespielt habe ich ab C64 etwas später und mit meinem ersten XT 1987 (da war ich elf) habe ich dann angefangen config-sys und autoexec-bat -dateien zu schreiben, damit meine 8bit soundblaster musik macht.. könnte aber auch schon der 286 gewesen sein.. ist ewig her und ich hatte irgendwie schon immer zuviel gleichzeitig.. ich weiss noch, dass ich meine Amiga immer parallel hatte.. bis zum ersten K5. grafik am PC hat mich erst wirklich interessiert, als ich die erste voodoo neben der matrox steckte.



(..)

mfg
tobi

Skysnake
2012-01-10, 15:20:47
Das kenn ich :D

Oh man die alten config.sys und autoexec.bat spielchen, wie nerftötend die waren, und Zei gefressen haben teilweise, bis endlich das vermalledeite Spiel funktioniert hat ;D

Danach war man aber glücklich wie noch was :biggrin:

Knuddelbearli
2012-01-10, 15:21:10
ja x rebirth kommt 2012 ( ursprünglich 2011 )

und für 2006 ist die grafik noch hammer habe seit neujahr 80 std X2 gezockt

TobiWahnKenobi
2012-01-10, 15:25:47
Das kenn ich :D

Oh man die alten config.sys und autoexec.bat spielchen, wie nerftötend die waren, und Zei gefressen haben teilweise, bis endlich das vermalledeite Spiel funktioniert hat ;D

Danach war man aber glücklich wie noch was :biggrin:

*grins* himem.sys und co... maustreiber.. soundtreiber.. scheisse.. 2k zu groß, um noch wingcommander spielen zu können.

für dieses vermaledeite spiel hat mir mein opa (+) ein upgrade spendiert.. mainboard, 4MiB RAM und ne 386/33MHz CPU -> 2.400 MARK!!! mit dieser rechnung fängt meine karriere als rechnungssammler an.. oh man.. ich war mal vobis kunde (highscreen notebook mit P2/333-> 4.999 MARK).. HAMMER!!!

damit es irgendwie den bogen zum kontext des threads bekommt -> schon damals war spielen am PC richtig teuer.. ;-)


(..)

mfg
tobi

aufkrawall
2012-01-10, 15:40:09
Wenn du SOOOOO auf BQ wert legst, das AMD dir nicht in Frage kommt, weil kein Downsamling etc. Wie kannst du dann auf so nem Monitor noch zocken=:confused:

Ich hab nen Eizo und ich glaub eher nicht, dass der ein schlechteres Bild macht als das, was du rumstehen hast. ;)

Cyphermaster
2012-01-10, 15:48:33
Natürlich nur "wann immer es geht", aber schön, dass du mir prinzipiell zustimmst: Features sind immer gut, auch wenn man sie zB aufgrund der Geschwindigkeit nicht immer nutzen kann/will.Nicht ganz. Ich würde eher sagen: Features schaden nicht, genau wie Leistung.
Wirklich "gut" sind sie nur, wenn man sie auch in der Realität nutzen kann, das ist aber eben nur eingeschränkt (wenn ein Spiel kein PhysX erlaubt, kannst du es ruhig wollen und deine Karte können, dann schaust du trotzdem in die Röhre!) möglich.

Ich sehe es daher nicht unbedingt als besonderen Nachteil an, daß die HD7xxx allgemein keine SSAA-Optionen bieten - aber speziell für die HD79xx und deren Marketing schon, weil in diesem Preissegment die Leute viel Wert auf das "Ich könnte, wenn ich wollte"-Gefühl legen, auch wenn es oft nur rein hypothetisch ist. Das ist wie bei einem Autofahrer, der zwar in der Innenstadt von Berlin wohnt, aber trotzdem unbedingt einen Sportwagen haben will, weil der ja >300 gehen würde. Wenn, ja wenn er denn irgendwann doch mal zufällig auf irgendeiner Autobahn unterwegs wäre, und die zugleich nicht sehr befahren und ohne Tempolimits wäre; und natürlich gutes Wetter... Aber diese "wenns" sind so jemandem einfach ziemlich egal.

Iceman346
2012-01-10, 15:53:24
Ich sehe es daher nicht unbedingt als besonderen Nachteil an, daß die HD7xxx allgemein keine SSAA-Optionen bieten - aber speziell für die HD79xx und deren Marketing schon, weil in diesem Preissegment die Leute viel Wert auf das "Ich könnte, wenn ich wollte"-Gefühl legen, auch wenn es oft nur rein hypothetisch ist.

SSAA unter DX9 oder weniger ist natürlich weiterhin möglich. Und auch wenn die DX11 Titel langsam mehr werden betrifft dies immer noch den Großteil der Spiele.

y33H@
2012-01-10, 15:54:40
Wenn du SOOOOO auf BQ wert legst, das AMD dir nicht in Frage kommt, weil kein Downsamling etc. Wie kannst du dann auf so nem Monitor noch zocken?Was hat BQ mit mehreren Monitoren zu tun? idR sinkt hier die BQ oder die Spielbarkeit, da eine Karte das gar nicht stemmen kann - und mehrere machen Probleme und beeinträchtigen das Spielgefühl.

robbitop
2012-01-10, 16:08:57
Geht das SGSSAA von NV und ATI eigentlich bestätigterweise mit > = DX8 Titeln (z.B. Mafia 1)?

mapel110
2012-01-10, 16:10:53
Geht das SGSSAA von NV und ATI eigentlich bestätigterweise mit > = DX8 Titeln (z.B. Mafia 1)?
Ja.

Iruwen
2012-01-10, 16:20:20
War <= gemeint?

y33H@
2012-01-10, 16:34:17
Geht das SGSSAA von NV und ATI eigentlich bestätigterweise mit > = DX8 Titeln (z.B. Mafia 1)?Ja - ich nutze es u.a. in Max Payne (2), Freelancer, Mafia oder auch UT 2k4.

Skysnake
2012-01-10, 16:49:14
Was hat BQ mit mehreren Monitoren zu tun? idR sinkt hier die BQ oder die Spielbarkeit, da eine Karte das gar nicht stemmen kann - und mehrere machen Probleme und beeinträchtigen das Spielgefühl.
Ich hab mit keinem Wort von mehreren Monitoren geredet, aber bei nem 1024er erwarte ich 15 maximal 17" und halt kein 16:9 (wenn ich mich nicht ganz täusche) In den heutigen Games wird da dann schon einiges an den Rändern an Sichtfeld wegfallen. Würde mich inzwischen wirklich stören. Von Multimonitor halte ich gar nichts. Da stören mich einfach die Ränder viel zu sehr, aber son 24"er passt eigentlich ganz gut. Mehr aber auf keinen Fall mit 1080. Danach auf jeden Fall 2560er Auflösung.

Ich hab nen Eizo und ich glaub eher nicht, dass der ein schlechteres Bild macht als das, was du rumstehen hast. ;)
Klar macht nen Eizo kein schlechtes Bild, wobei da die Entwicklung auch nicht stehen geblieben ist. Wird ja wohl auch nicht das neuste Modell sein, und für mich wäre ein Rückschritt auf so einen Monitor nicht denkbar, da mögen die Farben noch so brilliant sein, wie Sie wollen. Da würde irgendwie das Feeling (Immersion) flöten gehen. Jetzt meine ganz rein subjektive Sichtweise. Da würde ich wohl lieber mal auf was anderes verzichten, und mir einen neuen Monitor zulegen.

Ja - ich nutze es u.a. in Max Payne (2), Freelancer, Mafia oder auch UT 2k4.
Was muss ich da eigentlich einstellen, um das bei Max Payne nutzen zu können?

y33H@
2012-01-10, 16:52:05
@ Skysnake

Sorry, ich habe da immer MonitorE gelesen :usad: Wegen MP2 muss ich daheim schauen, ich meine ich habe das MSAA einfach zu SG-SSAA erweitert.

Skysnake
2012-01-10, 16:56:49
Kein Ding :comfort:

Da kann man sich schnell mal verlesen. Wichtig ist doch nur keinen Zickenkrieg wegen so was an zu fangen :up:

Wäre nett, wenn du mal nachschauen könntest. Ich hab echt keine Zeit, um mich vor den Rechner zu sitzen, da erst groß rum zu probieren, und dann auch noch zu schauen, obs jetzt besser aussieht oder nicht. Daher Regler nach rechts, schauen obs geht, wenn ja freuen und zocken. Traurig eigentlich, aber wenn man keine Zeit hat... :frown:

M4xw0lf
2012-01-10, 17:04:27
Naja wenn ich Skyrim zocke gammelt die CPU bei 45-55% Auslastung rum (aktive Kerne), ohne Mods bei 70-80%.
Da bremst die 5870 wohl schon etwas.

Und da ich oft 5760x1200 zocke ... ^^

Welcher Treiber ist der aktuellste z.zt.?

Wenn mich nicht alles täuscht wird das wohl der mitgelieferte sein.

Raff
2012-01-10, 17:09:29
Wegen MP2 muss ich daheim schauen, ich meine ich habe das MSAA einfach zu SG-SSAA erweitert.

Genau so geht das auch.

MfG,
Raff

CompuJoe
2012-01-10, 17:14:37
Wenn mich nicht alles täuscht wird das wohl der mitgelieferte sein.

Gibt 3 Treiber z.zt.

Finde aber gerade keine Downloadlinks

dargo
2012-01-10, 17:19:56
Seit wann werden Neuerscheinungen die die Konkurrenz auch noch eintüten billig unters Volk geworfen?
Du hast mich wohl nicht verstanden. Die HD7970 orientiert sich am Preis der GTX580. Die GTX580 Leistung habe ich bereits seit mehreren Monaten mit meiner GTX480 AMP! die mich 219€ gekostet hat. Die Preisgestaltung der GTX580 und HD7970 sind Wucher!

Wer nutzt denn noch so niedrige Auflösungen? :freak:

Jemand der hohen Wert auf Bildqualität legt und nicht gleich heulen muss, dass die Graka mit DS abkackt.


Also ich hab auch noch sehr lange 1024 genutzt, einfach weil mir ein neuer Monitor zu teuer war. War son Büroteil, das ausgemustert wurde, davor wars noch ne Röhre. Aber selbst ich als geiziger Schwabe hab jetzt seit gut 2-3 Jahren schon auf nen 24 Zöller mit 1080 umgerüstet.

Wenn du SOOOOO auf BQ wert legst, das AMD dir nicht in Frage kommt, weil kein Downsamling etc. Wie kannst du dann auf so nem Monitor noch zocken=:confused:

Nicht falsch verstehen, das ist wirklich! eine ernst gemeinte Frage.
Der Witz daran ist, dass die Spiele bei ihm mit DS @4xOGSSAA besser aussehen als bei dir in nativ 1080p. ;)

LovesuckZ
2012-01-10, 17:23:13
Das ist jetzt absurd. Du hast eine Karte aus dem Abverkauf erworben. Stellst du dich am Anfang des Sommers auch im Klamottenladen hin und sagst: Eure heutigen Preise sind Wucher, weil ich die Sachen in 6 Monate beim Ausverkauf deutlich billiger erhalte? :|

Hübie
2012-01-10, 17:34:22
Und obendrein hat die nicht die Leistung einer 580. Komm jetzt bloß nicht mit "ja aber..." :P

aufkrawall
2012-01-10, 17:36:30
Ich hab mit keinem Wort von mehreren Monitoren geredet, aber bei nem 1024er erwarte ich 15 maximal 17" und halt kein 16:9 (wenn ich mich nicht ganz täusche)
Du meinst aber schon 1280*1024 und nicht 1024*768?
1280 ist 19".

CompuJoe
2012-01-10, 17:36:49
http://www4.hardwareversand.de/articledetail.jsp?aid=54219&agid=1942&pvid=9lxg03c73_gx918940&ref=27&lb

dargo
2012-01-10, 17:37:12
Das ist jetzt absurd. Du hast eine Karte aus dem Abverkauf erworben.
Abverkauf hin oder her. Wenn die IHVs es nicht auf die Reihe bekommen mit dem Nachfolger eine wesentlich schnellere GPU (GTX580 vs. GTX480) zu liefern dann ist das deren Problem und nicht meins als Kunde. Zudem sind über 200€ für die GTX480 Leistung ~1,5 Jahre nach Veröffentlichung ein völlig legitimer Preis. Wie ich schon sagte... die GTX580 mit ihrer mickrigen Mehrleistung ist und war nie ihr Geld wert.

Und obendrein hat die nicht die Leistung einer 580. Komm jetzt bloß nicht mit "ja aber..." :P
Oja... die fehlenden ~6% der GTX480 AMP! auf eine GTX580 reißen es raus. :ulol:

LovesuckZ
2012-01-10, 17:41:09
Die 447€ sehen wie ein Preisfehler aus. Aber man sollte schnell zuschlagen und per PayPal bezahlen.

Abverkauf hin oder her. Wenn die IHVs es nicht auf die Reihe bekommen mit dem Nachfolger eine wesentlich schnellere GPU (GTX580 vs. GTX480) zu liefern dann ist das deren Problem und nicht meins als Kunde. Zudem sind über 200€ für die GTX480 Leistung ~1,5 Jahre nach Veröffentlichung ein völlig legitimer Preis. Wie ich schon sagte... die GTX580 mit ihrer mickrigen Mehrleistung ist und war nie ihr Geld wert.


Du weißt, was ein Ab- bzw. Ausverkauf ist? :confused:
Du konntest deswegen die Karte so billig erhalten, weil neue, anscheinend attraktivere Karten in den Markt kamen. Ursache und Wirkung.

dargo
2012-01-10, 17:44:08
http://www4.hardwareversand.de/articledetail.jsp?aid=54219&agid=1942&pvid=9lxg03c73_gx918940&ref=27&lb
So langsam wird der Preis akzeptabel, 399€ fände ich passend was wohl nicht allzulange dauern wird. Bitte bedenken, dass ich mich an der völlig überteuerten GTX580 nicht orientiere.

Megamember
2012-01-10, 17:44:55
*edit* Zu spät

dargo
2012-01-10, 17:45:11
Du konntest deswegen die Karte so billig erhalten, weil neue, anscheinend attraktivere Karten in den Markt kamen. Ursache und Wirkung.
Attraktiv in was? Abzocke? ;D

Locuza
2012-01-10, 17:50:14
Ich hab mit keinem Wort von mehreren Monitoren geredet, aber bei nem 1024er erwarte ich 15 maximal 17" und halt kein 16:9 (wenn ich mich nicht ganz täusche) In den heutigen Games wird da dann schon einiges an den Rändern an Sichtfeld wegfallen. Würde mich inzwischen wirklich stören. [...]

Wie immer ein Abwägen der Vor- und Nachteile gepaart mit einer Prise Gewohnheit.

Ich "cruise" ebenfalls noch mit 1280x1024, um eben auch bei den meisten Titel die bestmögliche BQ zu erreichen und flüssige Framesrates zu Gesicht zu bekommen.
Gleichzeitig muss ich natürlich auf ein größeres Sichtfeld verzichten und damit auch gewiss, auf eine Immersion die wirklich beeindruckend wirken kann, im Vergleich zur einer so niedrigen Auflösung.

Nun gibt es aber auch die subjektive Wahrnehmung und die persönlichen Präferenzen. Ich gehöre zu dem Typ, der in seinem Bildausschnitt das feinste, flimmerfreiste und "ordentlichste" Bild haben will. Ich bin empfindlich gegenüber Kanten, Flimmern vieler Arten, usw.
Eine HD-Auflösung wirkt zuerst natürlich deutlich besser und "wooohaa" mehr als 500 Pixel in der Breite, aber dann zieht es dich bei Flimmern, Kanten etc. aus dem Spielekonsum raus.

Anderen Menschen ist so etwas völlig egal und hauen einfach 4xMSAA/16AF mit ihrem Cayman auf HD drauf und die Welt ist gut.
Leider bin ich nicht so ein Typ und beneide auch wirklich die Menschen, die so etwas nicht so stark wahrnehmen, als das es sie beeinflussen würde.

Bei mir stellt AMD allerdings solange eine "schlechte" Alternative da. ( Und die Investitionsbereitschaft in einen guten HD-Monitor wird klein gehalten)

Lyka
2012-01-10, 17:50:59
eben... aber mit Grafikkarten ists so, wie mit Nintendo-Spielsystemen... die bleiben "wertbeständig"...

wäre natürlich faszinierend, wenn die 5870 auf 150 Euro fällt, aber das wird Sie natürlich nicht -.-

Hübie
2012-01-10, 17:51:32
Oja... die fehlenden ~6% der GTX480 AMP! auf eine GTX580 reißen es raus. :ulol:

Öh. Die lässt sich aber so wie die AMP auch übertakten :rolleyes: Dann sind wieder 15-20%... Taktnormiert sind es 6% (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index2.php) Aber in einem Punkt hast du Recht: Die Karte ist ihr Geld nicht wert. Dennoch habe ich eine und viele andere auch :freak:

dargo
2012-01-10, 18:01:27
Öh. Die lässt sich aber so wie die AMP auch übertakten :rolleyes: Dann sind wieder 15-20%...
Was hast du hierbei nicht verstanden?
Die GTX580 Leistung habe ich bereits seit mehreren Monaten mit meiner GTX480 AMP!
Habe ich irgendwas vom OC gesagt? Der Vergleich bezieht sich selbstverständlich auf den Auslieferungszustand GTX480 AMP! und Referenz GTX580. Ich rede von der GTX580 Leistung und nicht GTX580 OC-Leistung.


wäre natürlich faszinierend, wenn die 5870 auf 150 Euro fällt, aber das wird Sie natürlich nicht -.-
So tief passiert eigentlich kaum. Eher erscheint eine Performance-Karte mit => HD5870 Leistung.

AnarchX
2012-01-10, 18:04:57
Dass es keinen Sinn macht den Preis von Abverkaufsschnäppchen mit limitierten 28nm GraKas wenige Tage nach dem Launch zu vergleichen, sollte doch einleuchten. ;)
Deshalb bitte zurück zum Thema: Radeon HD 7970: (P)Review-Thread

Knuddelbearli
2012-01-10, 18:09:40
http://www4.hardwareversand.de/articledetail.jsp?aid=54219&agid=1942&pvid=9lxg03c73_gx918940&ref=27&lb


dreck die liefern nicht nach Aut ...

würd sie sonst zumindest antesten

MartinRiggs
2012-01-10, 18:09:49
Du vergisst aber auch ständig das du extremes Glück hattest.
Die GTX480 hatte von Anfang an einen schlechten Ruf, saulaut und eine Stromschleuder und war daher auch kein Verkaufsrenner, selbst die sehr gute AMP ging nicht so gut weg und daher haben sie dann später die GTX480 verramscht.

ATI hatte ja vorher schon mit der HD4870 die Preise erfolgreich kaputtgemacht, gut für uns, schlecht für NV bzw. beide IHV.

ATI hat das beste Produkt am Markt und hat daher verdammt nochmal das Recht dafür auch entsprechendes Geld zu nehmen, keiner zwingt dich eine HD7970 zu kaufen und ich vermute/befürchte das du auch keinen Kepler mit sehr hoher Leistung in der 220€ Klasse bekommst.

Die Preise waren kaputt, aber die Hersteller haben gelernt und arrangieren sich nun anders. Entweder du zahlst das nächste mal mehr oder du sitzt ewig auf deinem Schnäppchen.:rolleyes:

dargo
2012-01-10, 18:10:23
Dass es keinen Sinn macht den Preis von Abverkaufsschnäppchen mit limitierten 28nm GraKas wenige Tage nach dem Launch zu vergleichen, sollte doch einleuchten. ;)
Deshalb bitte zurück zum Thema: Radeon HD 7970: (P)Review-Thread
Darüber lässt sich sicherlich streiten. ;)

Aus Sicht der IHVs sicherlich. Aber aus Sicht der Kunden? Was interessiert den Kunden der frische Fertigungsprozess? Gar nichts. Für den Kunden gilt immer noch überwiegend wieviel Mehrleistung bietet mir die Neue? Und da sehe ich selbst eine HD7970 @399€ für Kunden mit GTX480/570/580 nicht attraktiv genug. Einfach zu wenig Bums. Für User mit GTX460/560 sicherlich eine gute Option.

ATI hat das beste Produkt am Markt und hat daher verdammt nochmal das Recht dafür auch entsprechendes Geld zu nehmen, keiner zwingt dich eine HD5970 zu kaufen und ich vermute/befürchte das du auch keinen Kepler mit sehr hoher Leistung in der 220€ Klasse bekommst.

Wie kommst du darauf, dass ich den Kepler für 220€ gleich bei Veröffentlichung erwarte? :confused: Wenn der Kepler in etwa Faktor 2 meiner Karte erreicht dann darf er auch ruhig ~400€ kosten. Wird der deutlich teurer wird halt gewartet. Das werde ich eh tun sollte die Referenzkühlung zu laut sein.

derguru
2012-01-10, 18:30:55
wird aber beides nicht eintreten,vermutlich keine performance-verdopplung und mit sicherheit deutlich teurer.

MartinRiggs
2012-01-10, 18:32:33
Du vergleichst doch auch den Preis einer Karte aus dem (R)Ausverkauf mit dem Preis einer Karte die grade mal einen Tag im Verkauf und vermutlich eine ganze Zeit nur in kleinen Mengen lieferbar ist.
Nur um dann zu dem Schluß zu kommen das eine High-End-Karte bei Marktstart überteuert ist:freak:

wird aber beides nicht eintreten,vermutlich keine performance-verdopplung und mit sicherheit deutlich teurer.

Genau das wird passieren, die GTX480 war da einfach eine Ausnahme.

dargo
2012-01-10, 18:34:24
wird aber beides nicht eintreten,vermutlich keine performance-verdopplung und mit sicherheit deutlich teurer.
Tja... dann bekommt der IHV halt später ~300€, so einfach ist das. Ist ja auch nicht so, dass ich dringend was neues brauche wenn ich auf DS/SSAA verzichten kann.

derguru
2012-01-10, 18:38:42
kannst ja wieder bis zum abverkauf warten,vielleicht klappt es dann mit der ~200€.:wink:

Langenscheiss
2012-01-10, 18:40:29
dreck die liefern nicht nach Aut ...

würd sie sonst zumindest antesten

Imo ist HW-Versand bei neuen limitierten Karten auch nur bedingt für den Preisvergleich tauglich. Ich mein, im Grunde macht das ja jedes Versandhaus so, aber wie lange die mich haben zappeln lassen, bis ich meine Hd5850 bekommen habe, weil ich sie zu einem deutlich günstigeren Preis eingekauft habe, als sie zum Zeitpunkt der Verfügbarkeit wert war, war echt nicht mehr feierlich.

Hübie
2012-01-10, 18:40:34
Habe ich irgendwas vom OC gesagt? Der Vergleich bezieht sich selbstverständlich auf den Auslieferungszustand GTX480 AMP! und Referenz GTX580. Ich rede von der GTX580 Leistung und nicht GTX580 OC-Leistung.


:hammer::facepalm: Werks-OC Karte mit Ref-Karte vergleichen ... :freak:

btt:
Ist der Preis bei hw-Versand ein Fehler :| Meine Finger kribbeln :frown: Ich denke aber das der Zeitpunkt denkbar schlecht wäre eine zu holen.

dargo
2012-01-10, 18:40:59
Du vergleichst doch auch den Preis einer Karte aus dem (R)Ausverkauf mit dem Preis einer Karte die grade mal einen Tag im Verkauf und vermutlich eine ganze Zeit nur in kleinen Mengen lieferbar ist.

Nochmal... den Kunden interessiert es einen feuchten Furz welche Mengen ein IHV liefern kann. Der IHV will seine Karten loswerden. Kann er eh nur sehr geringe Mengen liefern wird er sie sicherlich bei den paar "Freaks" loswerden. Das juckt mich aber absolut nicht. Ich entscheide selbst wann ein Produkt für mich attraktiv ist.

Lyka
2012-01-10, 18:43:11
kannst ja wieder bis zum abverkauf warten,vielleicht klappt es dann mit der ~200€.:wink:

naaa... selbst für die 58er zahlst du noch nen Haufen Schotter:frown:
Grafikkarten sind recht wertstabil

CompuJoe
2012-01-10, 18:43:53
Die XFX BE für 490€
http://www2.hardwareversand.de/articledetail.jsp?aid=54313&agid=1942&pvid=9lxj40x8r_gx918940&ref=27&lb

XFX Core für 471€
http://www2.hardwareversand.de/articledetail.jsp?aid=54312&agid=1942&pvid=9lxj2u0kf_gx918940&ref=27&lb

dargo
2012-01-10, 18:46:52
:hammer::facepalm: Werks-OC Karte mit Ref-Karte vergleichen ... :freak:

Und weiter? Schließlich kostete die Werks-OC GTX480 219€. Eine Referenz GTX480 (die für mich wegen der lauten Kühlung und folglich heißer GPU nicht in Frage kam) war noch billiger. Was willst du mir also mit den Smileys ausdrücken? Eine Werks-OC GTX580 mit leiser Kühlung ist ja noch teurer, solche GTX580 steht also noch schlechter da.

Superheld
2012-01-10, 18:47:51
Die XFX BE für 490€
http://www2.hardwareversand.de/articledetail.jsp?aid=54313&agid=1942&pvid=9lxj40x8r_gx918940&ref=27&lb

XFX Core für 471€
http://www2.hardwareversand.de/articledetail.jsp?aid=54312&agid=1942&pvid=9lxj2u0kf_gx918940&ref=27&lb

werden die anderen bald nachziehen oder ?

derguru
2012-01-10, 18:49:18
naaa... selbst für die 58er zahlst du noch nen Haufen Schotter:frown:
Grafikkarten sind recht wertstabil
das ist erst seit letztem jahr so und bei der 580 sind wir noch lange nicht beim abverkauf angekommen.
ausnahmsweise sind grafikkarten wertstabil,das ist nicht der normalzustand.

dargo
2012-01-10, 18:49:28
naaa... selbst für die 58er zahlst du noch nen Haufen Schotter:frown:
Grafikkarten sind recht wertstabil
Nicht unbedingt, siehe GTX480 vor wenigen Monaten. Tendenziell hast du aber recht. Durch die länger werdenden Generationszyklen bleiben die Preise lange relativ stabil.

Zergra
2012-01-10, 18:50:21
werden die anderen bald nachziehen oder ?
naja solange die nicht lagernd sind ? seh ich da keinen Grund :D aber das ist der Falsche Thread...
HIER GEHTS ZU DEM THEMA WEITER (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519914)

mironicus
2012-01-10, 19:19:31
Stimmt! Damals bei den 5870-Vorbestellungen hat Hardwareversand nicht geliefert, bis man selbst storniert hat... :(

Popeljoe
2012-01-10, 19:45:54
also was mich angeht, waren testsamples immer testsamples.. die blieben in der redaktion oder mussten zumindest immer wieder dahin zurück.. das ist was anderes, als ne karte selbst zu besitzen..

tjo.. und schenkenlassen darf man sie sich ja nicht.. zumindest nicht von herstellern.. ;-)

meine schmerzgrenze für dieses stückgut liegt bei 600€ und die habe ich genau um 6.95 (porto) überschritten.. aber ich mache mal ne ausnahme.. hauptsache das kommt bald mal.. alternate meinte versandtfertig in 1-3 tagen..


(..)

mfg
tobi
Sollte eigentlich eher eine Art interner Witz sein, da ja immer wieder gemutmast wurde, dass die Mods hier regelmässig von dem einen oder anderen Hersteller "gesponsort" seien... ;) :freak:

Dural
2012-01-10, 20:58:41
was für eine schrott karte, bei 1300MHz Core schon bildfehler :freak:


leistung ist aber brutal mit diesem takt, endlich mal wieder eine AMD karte die man brauchen kann und spass macht :D

Skysnake
2012-01-10, 20:59:47
Du meinst aber schon 1280*1024 und nicht 1024*768?
1280 ist 19".
Ah ok, hatte 1024er noch im 4:3 Format im Hinterkopf. Mein 1024er war das zumindest noch :ugly: Dann gehts eigentlich auch schon wieder deutlich besser, weil man das richtige Seitenverhältnis hat. Für 19" ist das dann aber jetzt auch nicht die mörder auflösung. Da haste, wenn ich nicht gerade verrechnet habe, aufm 24 FullHD eine höhere Pixeldichte habe. Sollten um genau zu sein 97,79 vs 86,27 PPI sein.

Wie immer ein Abwägen der Vor- und Nachteile gepaart mit einer Prise Gewohnheit.

Ich "cruise" ebenfalls noch mit 1280x1024, um eben auch bei den meisten Titel die bestmögliche BQ zu erreichen und flüssige Framesrates zu Gesicht zu bekommen.
Gleichzeitig muss ich natürlich auf ein größeres Sichtfeld verzichten und damit auch gewiss, auf eine Immersion die wirklich beeindruckend wirken kann, im Vergleich zur einer so niedrigen Auflösung.

Nun gibt es aber auch die subjektive Wahrnehmung und die persönlichen Präferenzen. Ich gehöre zu dem Typ, der in seinem Bildausschnitt das feinste, flimmerfreiste und "ordentlichste" Bild haben will. Ich bin empfindlich gegenüber Kanten, Flimmern vieler Arten, usw.
Eine HD-Auflösung wirkt zuerst natürlich deutlich besser und "wooohaa" mehr als 500 Pixel in der Breite, aber dann zieht es dich bei Flimmern, Kanten etc. aus dem Spielekonsum raus.

Anderen Menschen ist so etwas völlig egal und hauen einfach 4xMSAA/16AF mit ihrem Cayman auf HD drauf und die Welt ist gut.
Leider bin ich nicht so ein Typ und beneide auch wirklich die Menschen, die so etwas nicht so stark wahrnehmen, als das es sie beeinflussen würde.

Bei mir stellt AMD allerdings solange eine "schlechte" Alternative da. ( Und die Investitionsbereitschaft in einen guten HD-Monitor wird klein gehalten)

Ja das stimmt allerdings. Ich bin gott sei dank nicht so empfindlich was flimmern angeht. Ich bins einfach irgendwo gewöhnt von den ganzen asbach uralt spielen. Also wirklich richtig alt, Marke Commodore und später dann TombRider mit lustigen Grafikfehlern etc. etc. Für mich gehören manche Sachen einfach selbstverständlich dazu, wo andere das große Kotzen bekommen.

Dafür kann ich mir keinen kleinen Monitor mehr vorstellen :biggrin:

Dural
2012-01-10, 21:03:46
http://www.techpowerup.com/gpuz/kcgmr/

http://3dmark.com/3dm11/2520494


ich bin für heute weg :)

dargo
2012-01-10, 21:06:46
was für eine schrott karte, bei 1300MHz Core schon bildfehler :freak:

Dieser Coretakt als Referenz und die Karte wäre wirklich interessant. ;)

derguru
2012-01-10, 21:07:44
was für eine schrott karte, bei 1300MHz Core schon bildfehler :freak:


leistung ist aber brutal mit diesem takt, endlich mal wieder eine AMD karte die man brauchen kann und spass macht :D
so ein mist aber auch,nur 40% über normaltakt.:freak:

horn 12
2012-01-10, 21:22:39
Rechne zum Kepler Release kommt schon mind. 1200-1250 Mhz und vielleicht gar noch Treiberseitig +10% dazu!

CompuJoe
2012-01-10, 22:25:58
Das glaub ich auch, da kommt sicher noch ne größere, wenn man sieht erreichen viele ohne Probleme 1300Mhz und mehr.

PS. Eben 2 Stunden Skyrim gezockt, mit SSAO High ENB und zich HD Mods endlich smooth ^^

Lüfter ging nie über 33% und Temp nie über 78°c (1125Mhz/3150Mhz)
Um einiges leiser als die 5870!!!

Dural
2012-01-10, 22:57:44
die karte lief übrigens mit 1300mhz bei 1.3000 volt eingestellt, der text stimmt nicht! bin nicht mehr zuhause und ich konnte nur zwei mal 3dmark heute starten, einmal mit 1250mhz ohne bildfehler und eben die 1300mhz mit fehler

Ph0b0ss
2012-01-10, 23:05:27
Um einiges leiser als die 5870!!!

Du hast doch eine PowerColor HD 7970 mit Referenzdesign, oder? Die ist doch viel lauter als eine HD 5870 (~6dB mehr unter Last)!

siehe:
http://www.computerbase.de/artikel/grafikkarten/2012/test-powercolor-hd-7970-crossfire/8/#abschnitt_kuehlung

aufkrawall
2012-01-10, 23:08:42
Ah ok, hatte 1024er noch im 4:3 Format im Hinterkopf.
Ist 5:4. ;)
Pixeldichte geht noch. Ist klar, dass neuere Monitore teilweise besser sind.
Ich behalt den aber, bis er schrott ist. Ist schon Feuchtigkeit reingezogen, was Fehler hervorrief. Hat sich aber wieder weitestgehend von selbst gegeben, das Ding könnte noch mal fünf Jahre halten.
Ich tu den bestimmt nicht weg für irgendne größere, billige Gurke, wenn er noch gut funktioniert.
In ein paar Jahren darfs dann ein netter 3d-Monitor sein. Vielleicht wieder ein Eizo für zehn Jahre, sogesehen sind die Dinger nicht teuer. :D

Megamember
2012-01-10, 23:37:40
Lassen sich anscheinend auch super undervolten. Im HWluxx schreibt jemand das sie mit 0,93V (statt 1,15V) noch stabil ist. Mich würde der Verbrauch dann mal interessieren.

CompuJoe
2012-01-10, 23:45:00
Du hast doch eine PowerColor HD 7970 mit Referenzdesign, oder? Die ist doch viel lauter als eine HD 5870 (~6dB mehr unter Last)!

siehe:
http://www.computerbase.de/artikel/grafikkarten/2012/test-powercolor-hd-7970-crossfire/8/#abschnitt_kuehlung

Nur dreht meine karte den Lüfter nicht über 33% und bleibt schön ruhig.
Werde noch nen bissel BF3 zocken, ma kucken wie es da aussieht.

ChaosTM
2012-01-10, 23:57:30
Du hast doch eine PowerColor HD 7970 mit Referenzdesign, oder? Die ist doch viel lauter als eine HD 5870 (~6dB mehr unter Last)!

siehe:
http://www.computerbase.de/artikel/grafikkarten/2012/test-powercolor-hd-7970-crossfire/8/#abschnitt_kuehlung

Falsch eingestellte Lüftersteuerung wahrscheinlich. Das Problem hatten einige Reviewer mit den ersten Karten.
Lt. div. Praxisberichte ist das beim Auslieferungsmodell behoben.
edit.: zumindest die extreme Lautstärke, die zb. CB gemeldet hat..

Iruwen
2012-01-11, 00:02:46
Ich hab vorhin ein Review der Asus 7970 Serienkarte gelesen, die war immer noch laut. Vielleicht nicht so laut, aber zu laut.

derguru
2012-01-11, 00:38:13
auch wenn ich das im luxx noch nicht ganz für voll nehme aber da hat ja fast jeder die 1300 erreicht. :|
~40% mehr an takt/performance ist heftig.

CompuJoe
2012-01-11, 01:24:55
So, 2 Stunden BF3, und nix mit Lärm, schön leise

Superheld
2012-01-11, 05:46:56
CB sagt aber die Powercolor ist laut, was denn nun ?:cool:
http://www.computerbase.de/artikel/grafikkarten/2012/test-powercolor-hd-7970-crossfire/8/#abschnitt_kuehlung

horn 12
2012-01-11, 06:55:43
Die Neue Powercolor soll ja eben auch 3-4 Grad kühler und auch leiser sein.
Jene Karte am 22. Dezember hate ja die falsche Wärmeleitpaste drauf!
Kann gut sein,- dass die "Neuen" Karten gar nicht mal sooo laut werden.
PS: Welche Marke hast Du denn genommen?

Soul
2012-01-11, 07:22:02
Ich warte auf die Custom Designs der Hersteller. Denke die werden noch kühler und leiser als die Referenzkarte. Aber die 1300MHz von Dural@Referenz ist schon ein wow ;)

Lard
2012-01-11, 07:35:06
Ich habe mir auch eine bestellt, obwohl ich nur Fallout3/New Vegas spiele. :freak:
Aber mit UHQ-Texturen und höheren Grids und Cellbuffers, wird es noch besser aussehen.
In PCGHW gelesen:
Im Gegensatz zu AMDs früheren Architekturen werden komprimierte Texturen jedoch erst entpackt, wenn sie ausgelesen, sprich von einem ALU-Block abgerufen werden - das spart wertvollen Platz.

M4xw0lf
2012-01-11, 09:31:10
die karte lief übrigens mit 1300mhz bei 1.3000 volt eingestellt, der text stimmt nicht! bin nicht mehr zuhause und ich konnte nur zwei mal 3dmark heute starten, einmal mit 1250mhz ohne bildfehler und eben die 1300mhz mit fehler

Puh, ist das nicht ganz schön brutal, 1.3 Volt?

Raff
2012-01-11, 09:32:46
Naja. Standard ist 1,17. Das ist zwar viel, wird die Karte aber nicht sofort grillen.

MfG,
Raff

M4xw0lf
2012-01-11, 10:10:04
Naja. Standard ist 1,17. Das ist zwar viel, wird die Karte aber nicht sofort grillen.

MfG,
Raff

Würdest du das für 24/7 noch für tauglich halten, vor allem mit dem Referenzkühler?

Raff
2012-01-11, 10:16:25
Weder noch. ;) Der Referenzkühler ist schon ohne OC zu laut. Dauerhaft über 1,25 Volt würde ich aber auch mit einem fetten Nachrüstgerät nicht gehen.

MfG,
Raff

N0Thing
2012-01-11, 10:27:58
Wie weit kann man die Karten im Schnitt ohne Spannungsanhebung übertakten?

Dural
2012-01-11, 11:26:09
das geile ist ja nicht mal der Takt für sich, sondern die Karte skaliert bei diesem hohen Takt fast immer noch perfekt und das habe ich bei AMD so schon sehr lange nicht mehr gesehen!


Ich vermute das es unteranderem auch an der krass hohen Bandbreite liegt, 350GB/s :biggrin: :biggrin: :biggrin:

AnarchX
2012-01-11, 11:28:33
Man sollte sich wohl nicht so sehr von den hohen Speichertakten blenden lassen, da hier wohl ab einem bestimmten Level die Fehlerkorrektur anspringt und die Bandbreite nicht weiter steigt.

Dural
2012-01-11, 11:33:29
ich werde es testen :wink:

wie gesagt habe bis jetzt nur 2x 3DMark laufen lassen, da war die Karte schon gefühlt 80% schneller als die 6970 die vor der 7970 im system war :)


Edit:
haben die Desktop Karten den überhaupt ECC?

M4xw0lf
2012-01-11, 11:38:04
ich werde es testen :wink:

wie gesagt habe bis jetzt nur 2x 3DMark laufen lassen, da war die Karte schon gefühlt 80% schneller als die 6970 die vor der 7970 im system war :)


Edit:
haben die Desktop Karten den überhaupt ECC?

Ja, Shamino hat davon berichtet dass bei zu hohem Ramtakt die Leistung wegen ECC einbricht.

Megamember
2012-01-11, 11:55:31
Hab gelesen das die Spawas mal eben fast 120 grad warm werden bei 1,3V.

uweskw
2012-01-11, 12:35:54
ich werde es testen :wink:

wie gesagt habe bis jetzt nur 2x 3DMark laufen lassen, da war die Karte schon gefühlt 80% schneller als die 6970 die vor der 7970 im system war :)


Edit:
haben die Desktop Karten den überhaupt ECC?

Mich würde deine Meinung zur aktuellen Bildqualität interresieren.
Schon Zeit zum zocken gehabt?

greetz

U.S.

TobiWahnKenobi
2012-01-11, 13:15:54
also mein ziel ist klar 1300MHz auf der GPU.. alles darunter wird nicht systemresistent bei mir.
das soll ja wenigstens die gleichen schnullermarks auswerfen, wie mein SLi.

eigens zu diesem zwecke habe ich mich für die angeblich selektierte XFX mit doppellüfter entschieden.. die immernoch nicht da ist..



(..)

mfg
tobi

Raff
2012-01-11, 13:18:54
Die Karte ist mit der gleichen Schnulli-Zahl in Spielen viel fluffiger als ein Dual-GPU-Gespann. Das weißt du. Mit 1.200 MHz kloppt die Kiste schon eine HD 6990, gefühlt sowieso.

MfG,
Raff

Gipsel
2012-01-11, 13:23:05
Ja, Shamino hat davon berichtet dass bei zu hohem Ramtakt die Leistung wegen ECC einbricht.
Das ist nicht ECC, sondern EDC, welches auch schon ab der HD5000er-Serie an Board ist. Für jeden Transfer wird ein CRC-Wert (http://de.wikipedia.org/wiki/Zyklische_Redundanzpr%C3%BCfung) ausgerechnet und mitgeschickt. Stimmt der nicht (sprich, die GPU rechnet den auch aus und vergleicht), wird der Transfer erneut angefordert. Damit kann man Übertragungsfehler bei den hohen Taktraten erkennen, aber keine Flips von Bits im DRAM selber wie mit ECC. Wenn man an den Grenzen eines Interface arbeitet (indem man es kräftig übertaktet), werden die Übertragungsfehler häufiger und die Performance kann durch das ständige Auftreten der wiederholten Anfragen zurückgehen (bevor dann irgendwann gar nichts mehr geht).

Iruwen
2012-01-11, 13:25:42
Hab gelesen das die Spawas mal eben fast 120 grad warm werden bei 1,3V.
Bei welcher Auslastung? 120°C war die zumutbare Grenze bei Volterra Reglern, würde ich auf Dauer aber schon nicht riskieren. Was verbaut AMD bei der 7970?

Dural
2012-01-11, 13:38:36
also die 7970 @ 1300/1800MHz ist ca. so schnell wie mein GTX560 Ti @ 1000/1250MHz SLi System.

Die 7970 ersetzt somit zwei Mainstream Karten oder eben die GTX590 + 6990aus der alten Generation.

für GTX580 SLI reicht es auch mit 1300MHz nicht.

die GF114 haben zusammen 3,90 Milliarden und Tahiti hat 4,30 Milliarden Transistoren was OK ist, ein leichter rückgang der Tran./Leistung Verhältnis aber das ist normal.

M4xw0lf
2012-01-11, 13:44:00
also die 7970 @ 1300/1800MHz ist ca. so schnell wie mein GTX560 Ti @ 1000/1250MHz SLi System.

Die 7970 ersetzt somit zwei Mainstream Karten oder eben die GTX590 + 6990aus der alten Generation.

für GTX580 SLI reicht es auch mit 1300MHz nicht.


Dafür dürfte der Stromverbrauch immer noch deutlich besser sein, und es gibt keine Multi-GPU Probleme. Das ist doch ein respektables Ergebnis ^^

derguru
2012-01-11, 13:47:51
also die 7970 @ 1300/1800MHz ist ca. so schnell wie mein GTX560 Ti @ 1000/1250MHz SLi System.

Die 7970 ersetzt somit zwei Mainstream Karten oder eben die GTX590 + 6990aus der alten Generation.

für GTX580 SLI reicht es auch mit 1300MHz nicht.

die GF114 haben zusammen 3,90 Milliarden und Tahiti hat 4,30 Milliarden Transistoren was OK ist, ein leichter rückgang der Tran./Leistung Verhältnis aber das ist normal.
deine übertakteten 560ti sind mindestens so schnell wie 2x gtx570,also viel würde auch auf ein default gtx580 sli nicht mehr viel fehlen.

TobiWahnKenobi
2012-01-11, 13:56:46
Die Karte ist mit der gleichen Schnulli-Zahl in Spielen viel fluffiger als ein Dual-GPU-Gespann. Das weißt du. Mit 1.200 MHz kloppt die Kiste schon eine HD 6990, gefühlt sowieso.

MfG,
Raff

ja, klar weiss ich das..

was ich noch nicht so genau weiss ist, warum das mistding nirgends verfügbar ist.. habs bei alternate mit VISA gekauft.. *rumwartet*
ich würde sowas von gern mein skyrim mit HD-texture-pack und 8xSGSSAA sehen..

@dural
darum will ich ja auch die 1300MHz. dann krieg ich meine 10 kilopunkte und bin glücklich. dass das SGPU-kärtchen gefühlt und bezogen auf die schwuppdizität mehr rockt als zwei popelige TIs @SLi müssen wir ja nicht diskutieren..



(..)

mfg
tobi

Botcruscher
2012-01-11, 13:58:39
Dank weniger Buffer und konstanter Framezeit ist das ganze auch so "schneller" als die angezeigten Schnullipups-FPS von mGPU.

Palpatin
2012-01-11, 14:10:28
deine übertakteten 560ti sind mindestens so schnell wie 2x gtx570,also viel würde auch auf ein default gtx580 sli nicht mehr viel fehlen.
Zummindest dürften zwei 7970 auf 1300 getaktete im CF die 580 im Quad SLI bangen.

kunibätt
2012-01-11, 14:52:56
Frage an Dural:

Reicht die Karte mit der Übertaktung für ca. 60 fps in Cryisis (Warhead) @ höchste Einstellung @ 2560x1440? Ausgehend davon, dass meine GTX@ 625MHZ dort für 25-30 fps ist, könnte das sogar passen?

Und bevor du sagst du kannst kein 2560x1440:
Doch kannste ;)
Im Spiel ^ drücken, dann con_restricted 0 eingeben und enter drücken, dann r_width 2560 enter, r_height 1440 enter.

Raff
2012-01-11, 15:01:30
Kommt hin. Du kannst 40 (Action) bis 60 Fps (Pampa) erwarten. Crysis kommt mit der Karte richtig gut.

MfG,
Raff

kunibätt
2012-01-11, 15:03:07
Lassen sich anscheinend auch super undervolten. Im HWluxx schreibt jemand das sie mit 0,93V (statt 1,15V) noch stabil ist. Mich würde der Verbrauch dann mal interessieren.

Hast du mal nen Link? Tippe auf 100 Watt.

kunibätt
2012-01-11, 15:05:56
Aber ich wollte doch keine ATIs mehr kaufen :(
Wieso stellen die immer so geile Karten vor, wo dann in den hälften meiner Spiele kein SGSSAA geht :mad: Aufruf an ATI: Klaut NVs SGSSA-Support (und die Bits gleich mit) ;)

Raff
2012-01-11, 16:21:46
Herstellerkarten der Radeon HD 7970: Tendenziell etwas lauter als das Referenzdesign (http://www.pcgameshardware.de/aid,863457/Herstellerkarten-der-Radeon-HD-7970-Tendenziell-etwas-lauter-als-das-Referenzdesign/Grafikkarte/Test/)

Ein Schelm, ... ;)

MfG,
Raff

mapel110
2012-01-11, 16:22:40
Wie haben sie denn das hinbekommen? :ugly:

Raff
2012-01-11, 16:24:18
Bei der HD 5870 war's nicht anders. Die Retailmodelle sind da ebenfalls lauter und auch stromhungriger. Natürlich unterliegt das alles einer Serienstreuung, aber die Tendenz ist damit klar.

MfG,
Raff

M4xw0lf
2012-01-11, 16:29:42
Bei der HD 5870 war's nicht anders. Die Retailmodelle sind da ebenfalls lauter und auch stromhungriger. Natürlich unterliegt das alles einer Serienstreuung, aber die Tendenz ist damit klar.

MfG,
Raff

Auch die Testmodelle sind ja schon so laut, dass man den Kühler definitiv wechseln möchte. Wenn die Testkarten jetzt leise gewesen wären und die Retailmodelle auf einmal mit 5 Sone losbrüllen, dann wärs was anderes :wink:

Ronny145
2012-01-11, 16:31:04
Unter Last noch lauter als die ohnehin nicht gerade leise Referenzkarte? :| Warum muss das so laut sein? Die HD6970 mit ähnlichem Lastverbrauch kann das besser...

Raff
2012-01-11, 16:31:54
Auch die Testmodelle sind ja schon so laut, dass man den Kühler definitiv wechseln möchte. Wenn die Testkarten jetzt leise gewesen wären und die Retailmodelle auf einmal mit 5 Sone losbrüllen, dann wärs was anderes :wink:

Ja, die Grundaussage "zu laut" ändert sich nicht. Wobei Undervolting die Beschwerden brauchbar lindert, so erreicht man wenigstens das AMD-Referenzniveau. ;)

Unter Last noch lauter als die ohnehin nicht gerade leise Referenzkarte? :| Warum muss das so laut sein? Die HD6970 mit ähnlichem Lastverbrauch kann das besser...

Ich sehe da eher Augenhöhe (http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=2), genau wie beim Verbrauch.

MfG,
Raff

Ronny145
2012-01-11, 16:37:27
Ich sehe da eher Augenhöhe (http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=2), genau wie beim Verbrauch.

MfG,
Raff


Habt ihr eine leisere Referenzkarte erwischt? CB (http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/14/#abschnitt_sonstige_tests) und ht4u (http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index21.php) messen ein anderes Ergebnis, hier ist die Karte lauter als HD6970.

Gipsel
2012-01-11, 16:41:24
Man nehme GPU-Z, lese das GraKa-Bios aus, lade das z.B. in den RBE und vergleiche die Lüfterkennlinien. Zusammen mit Stromverbrauchs- und Temperaturmessungen könnte man so ein konsistentes Bild entwickeln. ;)

Raff
2012-01-11, 16:41:54
Der Gag ist: Oft hängt es an 2-3 Grad Celsius, resultierend in einer um 2 Prozent abweichenden Lüfterstärke. Die Dinger sind derart mächtig, dass 5 Prozent mehr als 1 Sone sind. Ist die Paste einen Hauch unregelmäßig verteilt, kann das schon die Unterschiede erzeugen.

MfG,
Raff

zeus96
2012-01-11, 16:44:52
Habt ihr eine leisere Referenzkarte erwischt? CB (http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/14/#abschnitt_sonstige_tests) und ht4u (http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index21.php) messen ein anderes Ergebnis, hier ist die Karte lauter als HD6970.

ach gott wenns bei der club3d so ist (ht4u) muss sie doppelt so laut sein wie meine bis heute 5850er :D morgen/übermorgen testen (newPC zusammen schrauben)

MartinRiggs
2012-01-11, 16:47:51
Der Gag ist: Oft hängt es an 2-3 Grad Celsius, resultierend in einer um 2 Prozent abweichenden Lüfterstärke. Die Dinger sind derart mächtig, dass 5 Prozent mehr als 1 Sone sind. Ist die Paste einen Hauch unregelmäßig verteilt, kann das schon die Unterschiede erzeugen.

MfG,
Raff

Meiner Erfahrung nach ist die Paste von Herstellerkarten fast immer saumäßig verteilt.
Ich habe bisher jedesmal einen Schrecken bekommen als ich meine Karten umgebaut habe, egal ob AMD oder NV.
Entweder ersäuft die Karte oder es ist total ungleichmäßig verteilt, die bröckelige Konsistenz ist da nur das I-Tüpfelchen:rolleyes:

M4xw0lf
2012-01-11, 16:50:41
Meiner Erfahrung nach ist die Paste von Herstellerkarten fast immer saumäßig verteilt.
Ich habe bisher jedesmal einen Schrecken bekommen als ich meine Karten umgebaut habe, egal ob AMD oder NV.
Entweder ersäuft die Karte oder es ist total ungleichmäßig verteilt, die bröckelige Konsistenz ist da nur das I-Tüpfelchen:rolleyes:

Jo das Zeug ließe sich immer besser mit nem Meisel entfernen als mit nem Tuch und Lösungsmittel ;D

kunibätt
2012-01-11, 17:42:13
Könnte einer der glücklichen HD7970 Besitzer mal diesen Bench starten:
http://blenderartists.org/forum/showthread.php?239480-2.61-Cycles-render-benchmark ? Das wäre sehr interessant. Wenn jemand ein Luxx-Account hat, könnte er die Anfrage vll. auch dorthin posten?

Screemer
2012-01-11, 18:27:08
anfrage im luxx gestellt.

kunibätt
2012-01-11, 18:28:43
Top! Dank dir.

ChaosTM
2012-01-11, 18:39:53
Jo das Zeug ließe sich immer besser mit nem Meisel entfernen als mit nem Tuch und Lösungsmittel ;D

Stimmt :) aber es lohnt sich.
Bei der 6850 stieg der max. Overclock dadurch auf 980 (statt 940)mhz und sie blieb deutlich kühler und dadurch auch leiser
Bei der Twin Frozor 560 448 ging es sogar von 900 auf 980Mhz!

derguru
2012-01-11, 21:19:49
Sapphire Radeon 7970 Quad-CrossFire First Look Performance (http://www.hardwareheaven.com/reviews/1376/pg1/sapphire-radeon-7970-quad-crossfire-first-look-performance-quad-graphics-cards.html):freak:

boxleitnerb
2012-01-11, 21:27:00
So ein Setup und dann ohne AA testen...oh mann. Wie soll man von denen dann überhaupt was ernst nehmen? Die Ergebnisse sind sowieso total komisch, Verdopplung der max fps von 2 auf 3 Karten, aber min sinkt? Da vertraue ich eher auf HardOCP, die machen das wenigstens vernünftig.

futzi
2012-01-11, 21:55:30
Hat die Karte einer von euch schon?

TobiWahnKenobi
2012-01-11, 22:29:23
tests hin oder her.. es ändert doch nix dran, dass man nüchtern betrachtet mit max. zwei GPUs noch brauchbar spielen kann und alles was darüber geht, ist toll um den längsten schnullermarkbalken zu haben.. *kopfkratz*

..wenn es schon spiele gibt, die einem mit zwei GPUs auf die nerven gehen.


(..)

mfg
tobi

AnarchX
2012-01-11, 22:29:41
Bitte dort weiter miko-ruckeln:http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9120250#post9120250

Dural
2012-01-12, 00:08:30
1200/1400MHz
Graphics Score 9207
http://3dmark.com/3dm11/2527953


1200/1600MHz
Graphics Score 9486
http://3dmark.com/3dm11/2527912


1200/1800MHz
Graphics Score 9684
http://3dmark.com/3dm11/2527869


1200/1850MHz
Graphics Score 9702
http://3dmark.com/3dm11/2528257


wusste ichs doch ;)

boxleitnerb
2012-01-12, 00:12:15
+32% Bandbreite und +5% Performance. Speicher-OC ist also nicht wirklich wichtig?

dildo4u
2012-01-12, 00:17:07
Dan dürfte NV auch mit 384bit auskommen.

Dural
2012-01-12, 00:18:56
es ging darum das man ab einem bestimmten speicher takt weniger leistung hat, dies kann ich aber nicht bestätigen!

mit 1900MHz hatte ich bildfehler / absturz und bis und mit 1850MHz immer mehr Leistung.


die karte profitiert von ihrer hohen bandbreit erheblich und lässt dadurch auch sehr hohes GPU OC zu / beziehungsweisse die leistung kommt wegen der hohen bandbreite auch an. :) es gibt zig karten die bei sehr hohem GPU takt die leistung verpufft, weil die bandbreite nicht mehr ausreicht. G92 ist da ein gutes beispiel...

boxleitnerb
2012-01-12, 00:21:17
Meinste? +5% ist jetzt nicht "ankommen" bei mir. Kann sein, dass ab einem gewissen Punkt dann Sättigung bzgl. der Bandbreite auftritt und nicht mehr gebraucht wird. Wieviel ist Standardtakt beim Speicher?

seaFs
2012-01-12, 00:28:26
1375MHz, wie auch bei der HD6970.

AnarchX
2012-01-12, 00:31:15
Dan dürfte NV auch mit 384bit auskommen.
Ohne 1750MHz (7Gbps) Speicher könnte es wohl knapp werden. ;)

Interessant aber, dass der Speicher 23% mehr Takt über der Referenz mitmacht und dabei noch entsprechend Leistung liefert.

Eine direktere Messung wäre aber auch interessant, soetwas wie z.B. die Single-Texture-Füllrate aus 3DMark2001SE. ;)

ChaosTM
2012-01-12, 00:48:27
Die Powercolor 7970 Vortex schaut auch vielversprechend aus. (http://www.fudzilla.com/graphics/item/25523-powercolor-radeon-hd-7970-vortex-getting-ready)
Dank 2 8-poliger Stromanschlüsse sollte da einiges möglich sein, wenn die Kühlleistung halbwegs passt.

derguru
2012-01-12, 00:56:00
1200/1400MHz
Graphics Score 9207
http://3dmark.com/3dm11/2527953


1200/1600MHz
Graphics Score 9486
http://3dmark.com/3dm11/2527912


1200/1800MHz
Graphics Score 9684
http://3dmark.com/3dm11/2527869


1200/1850MHz
Graphics Score 9702
http://3dmark.com/3dm11/2528257


wusste ichs doch ;)

was würdest du denn als 100% stabil bezeichnen(speicher)?
klappt das auch unter extreme?

Dural
2012-01-12, 11:38:40
ich denke um die 1800MHz, schon die 1850MHz gingen ohne bildfehler.

Meine Einstellung derzeit:

1200MHz mit 1,250Volt
1800MHz
Lüfter Auto


Läuft so ohne Probleme, bis jetzt. jedoch habe ich bis jetzt auch noch keine Spiele auf dem System ;)

Gipsel
2012-01-12, 14:18:09
Dan dürfte NV auch mit 384bit auskommen.Ohne 1750MHz (7Gbps) Speicher könnte es wohl knapp werden. ;)
Genau. GK110 sollte ja schneller werden als Tahiti, je nach Gerücht sogar recht deutlich. Selbst wenn die eine etwas bessere Bandbreitennutzung als Tahiti hinbekommen sollten, dann geht es nur entweder über hohen RAM-Takt oder ein breites Interface. Also da müßte nV den GDDR5-Takt gegenüber Fermi schon um ~50% steigern, damit sie eine Chance haben (der höchste Default RAM-Takt bei nV beträgt momentan lediglich 1025 MHz). Da gibt es momentan schon eine beträchtliche Lücke. Selbst mit einem 512Bit-Interface benötigt man 1031 MHz, um auf Tahitis Default-Speicherbandbreite zu kommen. Kommt noch eine HD7980 oder so mit 1,5 GHz Speichertakt (was für Tahiti offensichtlich kein wesentliches Problem darstellt und dafür sind die Speicherchips auch offiziell freigegeben), benötigt man auch mit 512Bit bereits 1,125 GHz für die gleiche Bandbreite, um sich etwas abzusetzen (was ja wohl das Ziel von GK110 sein dürfte) wohl eher 1,2+GHz.

Fazit:
Wenn nV sich nicht was ganz Tolles hat einfallen lassen (XDR2, anyone? :rolleyes:), wird es mit einem 384Bit-Interface eng, sich in bandbreitenlimitierten Situationen entscheidend abzusetzen. Bestenfalls kann man einen Gleichstand erwarten, weshalb die Vermutung eines 512Bit-Interface für GK110 nicht völlig aus der Luft gegriffen erscheint.

boxleitnerb
2012-01-12, 14:21:23
Ist denn XDR2 für eine der nächsten Kartengenerationen denkbar oder gibts da Hinternisse (Patente, Inkompatibilitäten, ...)? Weil irgendwo muss man die Bandbreite herkriegen und das Interface immer größer machen geht aus Kostengründen ja auch nicht.
Mehr Bandbreite, weniger Energie, weniger Kosten...bei so vielen Vorteilen frag ich mich, wieso man das nicht schon längst gemacht hat.

dargo
2012-01-12, 14:47:23
Ist denn XDR2 für eine der nächsten Kartengenerationen denkbar oder gibts da Hinternisse (Patente, Inkompatibilitäten, ...)? Weil irgendwo muss man die Bandbreite herkriegen und das Interface immer größer machen geht aus Kostengründen ja auch nicht.
Mehr Bandbreite, weniger Energie, weniger Kosten...bei so vielen Vorteilen frag ich mich, wieso man das nicht schon längst gemacht hat.
Demnächst müsste GDDR6 kommen, von daher...

Mal eine Frage zum GK110 - wäre nicht auch ein SI von 448Bit denkbar oder macht das aus Kostengründen keinen Sinn und man geht gleich auf 512Bit? Sind also 448Bit SI bei einer "nicht kastrierten Karte" denkbar?

Soul
2012-01-12, 15:07:46
Soweit ich gelesen habe, hat AMD eine Lizenz bei Rambus und könnte XDR2 einsetzen. Das GDDR5 Interface ist ja glaubs ähnlich wie das vom XDR2 und könnte leicht portiert werden.

Zergra
2012-01-12, 15:51:26
Erste Bilder von P´C eigener HD 7970 (http://www.computerbase.de/news/2012-01/erste-bilder-von-powercolors-eigener-hd-7970/)

Gipsel
2012-01-12, 16:19:42
1200/1400MHz
Graphics Score 9207

1200/1600MHz
Graphics Score 9486

1200/1800MHz
Graphics Score 9684

1200/1850MHz
Graphics Score 9702
Die Steigerung für die letzten 50 MHz sehen aber etwas zu klein aus (selbst wenn man den "sinkenden Grenzertrag" im Kopf behält).

Habe mal spaßenshalber ein kleines Modell (sehr einfach, hat wohl eher Spielzeugcharakter) an die Daten angepaßt (hatte gerade nichts besseres zu tun :rolleyes:):

http://www.abload.de/img/tahiti_mem_scalingmbk3r.png

Die blaue Kurve berücksichtigt alle Datenpunkte, bei der roten Kurve wurde der letzte Wert (1850 MHz Speichertakt) beim Fit nicht berücksichtigt. Die Anpassung mit der blauen Kurve sieht erstmal etwas schlechter aus (bis auf den letzten Punkt natürlich). Aber um das sicher festzustellen, bräuchte man wohl einen Wert mit nur 1000 MHz Speichertakt oder sogar noch niedriger. Aber dann würde man wahrscheinlich auch schon sehen, daß das von mir gewählte Performancemodell nicht wirklich paßt. :freak:

PS:
Das Limit der blauen Kurve liegt übrigens bei so etwa 11700 Punkten (für unendliche Speicherbandbreite), die 10000 Punkte würde man bei ~2220 MHz erreichen, da werden weitere Zuwächse dann sehr zäh. Aber wie gesagt stimmt das sehr einfache Modell über einen so großen Bereich wahrscheinlich sowieso nicht.

M4xw0lf
2012-01-12, 19:03:33
Die Steigerung für die letzten 50 MHz sehen aber etwas zu klein aus (selbst wenn man den "sinkenden Grenzertrag" im Kopf behält).

Habe mal spaßenshalber ein kleines Modell (sehr einfach, hat wohl eher Spielzeugcharakter) an die Daten angepaßt (hatte gerade nichts besseres zu tun :rolleyes:):


Die blaue Kurve berücksichtigt alle Datenpunkte, bei der roten Kurve wurde der letzte Wert (1850 MHz Speichertakt) beim Fit nicht berücksichtigt. Die Anpassung mit der blauen Kurve sieht erstmal etwas schlechter aus (bis auf den letzten Punkt natürlich). Aber um das sicher festzustellen, bräuchte man wohl einen Wert mit nur 1000 MHz Speichertakt oder sogar noch niedriger. Aber dann würde man wahrscheinlich auch schon sehen, daß das von mir gewählte Performancemodell nicht wirklich paßt. :freak:

PS:
Das Limit der blauen Kurve liegt übrigens bei so etwa 11700 Punkten (für unendliche Speicherbandbreite), die 10000 Punkte würde man bei ~2220 MHz erreichen, da werden weitere Zuwächse dann sehr zäh. Aber wie gesagt stimmt das sehr einfache Modell über einen so großen Bereich wahrscheinlich sowieso nicht.

Sollte das ganze nach unten nicht eher linear skalieren, wenn die Leistung direkt von der Bandbreite limitiert wird?

Gipsel
2012-01-12, 19:25:21
Sollte das ganze nach unten nicht eher linear skalieren, wenn die Leistung direkt von der Bandbreite limitiert wird?
Tut es irgendwann auch. Nur muß man dafür weit unter 1 GHz RAM-Takt gehen. 3DMark11 im P-Setting ist eben längst nicht vollständig bandbreitenlimitiert. ;)
Und ob das Modell überhaupt halbwegs stimmt, ist wie gesagt auch sehr zweifelhaft. Um das zu überprüfen, bräuchte man Werte mit sehr geringem (also unter 1 GHz) Speichertakt.
Edit:
Habe das ganze nochmal mit einem härter limitierendem Modell gefittet (da benötigt man nicht ganz so tiefe Speicherfrequenzen, um in einen linearen Bereich zu kommen und die Punktzahl bei unendlicher Speicherbandbreite wäre nur noch 10180). Da paßt auf die ersten 3 Punkte deutlich besser (zumindest wenn die Punkte so genau reproduzierbar sind und das nicht reiner Zufall ist). Da sieht man mal, wie shaky die ganze Geschichte ist, ohne mehr Meßdaten kann man da nichts Genaues vorhersagen. Die rote Kurve ist übrigens die gleiche wie oben.

http://www.abload.de/img/tahiti_mem_scaling_bhkb1x.png

PS: Falls sich das jemand fragt, alle Kurven gehen auch immer durch den Ursprung (0 MHz = 0 Punkte), den Wert kennt man ja sicher ;).

Dural
2012-01-13, 10:32:26
hatte gestern bei 1200/1850MHz was um die 9720 GPU Punkte.


zudem sind die treiber bis jetzt nett ausgedrückt "nicht so der hammer"

hatte schon diverse probleme, zb. ein Bild flakern im Desktop was nerft, oder plötzlich wird ein teil des linken bildes auf der rechten seite angezeigt (!!!)
Die Karte ist im grenzbereich auch extrem zickig, manchmal läufts manchmal nicht, da laufen die NV im grenzbereich deutlich stabiler.

da ich bis jetzt noch kein Spiel auf dem system habe kann ich dazu nicht mehr viel sagen, jedoch lisst man in den foren das es bei den Spielen nicht besser wird, zb. "gestern lief das spiel mit 1200MHz, heute sind nur noch 1100MHz stabil"

Raff
2012-01-13, 10:37:11
Der Bildhälften-Salat kommt von zu heftigem Speicher-OC. Du solltest dich bei der abartigen Übertaktung nicht wundern, wenn mal etwas flackert. ;) Und ich glaube immer noch nicht, dass 1.200 MHz dauerhaft stabil drin ist, ohne den Lüfter auf Orkan-Niveau zu kloppen.

MfG,
Raff

robbitop
2012-01-13, 11:01:19
Da übertaktet jemand um ~30 % und beschwert sich bei den Treibern, dass es zicken gibt.
:D
Dann sind 1200 Mhz bei der Spannung halt nicht stabil. Welche NV Karte ist denn ohne VCore Anhebung bei 30 % OC unzickig?

ChaosTM
2012-01-13, 11:05:38
Der Bildhälften-Salat kommt von zu heftigem Speicher-OC. Du solltest dich bei der abartigen Übertaktung nicht wundern, wenn mal etwas flackert. ;) Und ich glaube immer noch nicht, dass 1.200 MHz dauerhaft stabil drin ist, ohne den Lüfter auf Orkan-Niveau zu kloppen.

MfG,
Raff

Mit einem gut durchlüfteten Gehäuse und einer intelligent eingestellten Lüftersteuerung ist das sicher möglich.
Ich schaffe es auch relativ problemlos, meine MSI Twin Frozor 560/448er @ 980mhz laufen zu lassen, ohne dass es ungut laut wird. Und die saugt mit dieser Einstellung ca. soviel aus der Steckdose, wie eine 580er!

Raff
2012-01-13, 11:07:41
Der 7970-Referenzkühler steht und fällt aber mit der (mächtigen) Belüftung.

MfG,
Raff

Sascha1971
2012-01-13, 11:08:22
Da übertaktet jemand um ~30 % und beschwert sich bei den Treibern, dass es zicken gibt.
:D
Dann sind 1200 Mhz bei der Spannung halt nicht stabil. Welche NV Karte ist denn ohne VCore Anhebung bei 30 % OC unzickig?

Damals hatte meine GTX440 das geschafft. :biggrin: :freak:

Edit:
Hat eigentlich schon irgend eine Zeitschrift oder bekannte Page die XFX HD7970 925M
oder die Gigabyte KArte mit den 3 Lüftern getestet ? Ich würde gerne mal wissen wie leise die sind. Denn dafür würde cih gerne 50 Euro mehr bezahlen.

ChaosTM
2012-01-13, 11:13:50
Die Zieltemperatur der Belüftung ist per default auf ca. 70 Grad eingestellt. Wenn man diese auf (vertretbare?) 80Grad anhebt, geht der Lüfter ang. kaum über 50%.

Wem das zu gefährlich ist, gibt eben einen alternativen Kühler drauf.
Ist bei diesen Preisen auch schon egal...

edit.:Und neue, hochwertige Kühlpaste auftragen. Hat bei meiner 560er Wunder gewirkt!

Sascha1971
2012-01-13, 11:14:48
Ah ich habe ein Test gefunden:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/20978-test-xfx-radeon-hd-7970-double-dissipation-edition.html

mboeller
2012-01-13, 11:15:31
gibt es dazu eigentlich schon Erfahrungen:

http://www.hwupgrade.it/forum/showpost.php?p=36720480&postcount=1509

Laut einem posting auf Beyond3d [http://forum.beyond3d.com/showpost.php?p=1611943&postcount=2413] erreicht der neue Treiber 8.921.2 dedicated to 7900 series, compiled 4-01-2012 bei Unigine/Heaven 19% mehr Leistung gegenüber dem treiber Catalyst 8.94 compiled 3-01-2012

M4xw0lf
2012-01-13, 13:10:37
hatte schon diverse probleme, zb. ein Bild flakern im Desktop was nerft, oder plötzlich wird ein teil des linken bildes auf der rechten seite angezeigt (!!!)
Die Karte ist im grenzbereich auch extrem zickig, manchmal läufts manchmal nicht, da laufen die NV im grenzbereich deutlich stabiler.


Dieses Bild-Verschieben wird ziemlich sicher durch zu hohen VRam-Takt ausgelöst, hatte ich schon mehrfach mit meiner HD6970 (vor allem bei The Witcher 2). Ich konnte es oft durch kurzes Standby und wieder aufwecken beseitigen :wink:

Ah, ich hatte nicht gesehen dass Raff schon das gleiche geschrieben hat. Dann hast dus jetzt eben nochmal bestätigt ;-)

Der Bildhälften-Salat kommt von zu heftigem Speicher-OC. Du solltest dich bei der abartigen Übertaktung nicht wundern, wenn mal etwas flackert. ;) Und ich glaube immer noch nicht, dass 1.200 MHz dauerhaft stabil drin ist, ohne den Lüfter auf Orkan-Niveau zu kloppen.

MfG,
Raff

Darlie
2012-01-13, 15:13:39
Meine Club3D HD7970 ist heute gekommen und macht erste Testläufe. Ich bin angenehm überrascht was die Lautstärke angeht, bisher habe ich zwar nur den Call of Pripyat Bench und Heavenbench durch aber die Karte ist nicht "laut". Ganz im Gegensatz zu dem was ich hier ständig von Raff und anderen lese, gibt es etwa solch krasse Serienstreuungen? Idle hör ich gar nix von dem Teil.
Sicher ist die Karte hörbar und alles andere als silent, ich empfinde das aber nicht als übermässig laut, ist halt ne Lukü und die macht Geräusche. Ein bei Vollast lauteres Rauschen halt, gut hörbar aber erträglich?! Kein Pfeiffen, Sirren o.ä.Und mein Sys ist derzeit offen, bei geschlossenen Gehäuse und guter Belüftung sollte das doch auch in Griff zu kriegen sein.
http://www.abload.de/thumb/sysaufbaujskfr.jpg (http://www.abload.de/image.php?img=sysaufbaujskfr.jpg)

M4xw0lf
2012-01-13, 15:28:26
Meine Club3D HD7970 ist heute gekommen und macht erste Testläufe. Ich bin angenehm überrascht was die Lautstärke angeht, bisher habe ich zwar nur den Call of Pripyat Bench und Heavenbench durch aber die Karte ist nicht "laut". Ganz im Gegensatz zu dem was ich hier ständig von Raff und anderen lese, gibt es etwa solch krasse Serienstreuungen? Idle hör ich gar nix von dem Teil.
Sicher ist die Karte hörbar und alles andere als silent, ich empfinde das aber nicht als übermässig laut, ist halt ne Lukü und die macht Geräusche. Ein bei Vollast lauteres Rauschen halt, gut hörbar aber erträglich?! Kein Pfeiffen, Sirren o.ä.Und mein Sys ist derzeit offen, bei geschlossenen Gehäuse und guter Belüftung sollte das doch auch in Griff zu kriegen sein.
http://www.abload.de/thumb/sysaufbaujskfr.jpg (http://www.abload.de/image.php?img=sysaufbaujskfr.jpg)


Hast du auch schon das OC-Potential angetestet?
btw, sehr schick wie deine alte Karte da noch an ihren Schläuchen rumhängt ^^

Raff
2012-01-13, 15:39:32
Du musst das Ding halt mal länger als 3 Minuten voll auslasten. ;) Die störende Geräuschkulisse tritt erst nach einiger Zeit auf, wenn die Kiste ordentlich aufgeheizt ist. Es bleibt aber ein recht tiefes Rauschen, was besser überhörbar ist als fieses Surren so mancher Axiallüfterdesigns.

MfG,
Raff

ChaosTM
2012-01-13, 15:45:04
Eine halbwegs gut durchlüftete Kiste heizt sich nicht über ein bestimmtes Maß auf. ;)

M4xw0lf
2012-01-13, 15:46:27
Eine halbwegs gut durchlüftete Kiste heizt sich nicht über ein bestimmtes Maß auf. ;)

Der Chip und der Kühler der Karte brauchen trotzdem ihre Zeit bis sie ihre Endtemperatur erreicht haben.

ChaosTM
2012-01-13, 16:03:19
Ja, aber das dauert erfahrungsgemäß nicht länger als 15-20min. Bei mir pendelt sich die Temperatur dann bei ca. 38/49/84 (MB/CPU/GPU) ein und ändert sich kaum mehr. Der Gesamtverbrauch liegt bei ~ 460 Watt. (Phenom X6@3.8 und MSI 560/448@980)
Wirklich leise ist das System dann natürlich nicht, aber das ist bei solcher Hardware nur mit Wasser oder sehr vielen, langsam drehenden Lüftern, erreichbar.
Ein echtes Silent System geht da sowieso nicht.

3dmark ne halbe Stunde im Loop laufen lassen, sollte reichen.

Raff
2012-01-13, 16:04:46
Hey, ihr könnt euch die Lautstärke gern schönreden, ich warne nur. ;) Bei der GTX 480/470 haben viele auch nicht darauf gehört, was die Tests sagen, und sich dann gewundert, dass die Dinger tatsächlich störend laut sind.

MfG,
Raff

ChaosTM
2012-01-13, 16:19:14
Es geht hier nicht ums schönreden, sondern um eine halbwegs objektive (fanboi-freie) Perspektive.
Leider schaffen das auch viele Namhafte Review Seiten nicht -> traurig.
Und echte Silent Freunde werden sich sowieso nie ne Karte mit Referenz-Design kaufen.

Raff
2012-01-13, 16:25:43
Es ist "fanboyig", wenn man laute Kühler als laut betitelt? Huh? Ich hoffe du meinst jetzt nicht auch mich, denn mir ist die Farbe des Herstellers extrem wayne (sonst würde ich, mit einer GTX 580 im Rechner, gewiss nicht mit einer 7970 liebäugeln :D). Die HD 7970 ist aber mehr als nur klar hörbar – die Frage ist, wie das den Einzelnen im Eifer des Gefechts (wo Sound läuft) stört. Leiser ist immer besser.

MfG,
Raff

Cyphermaster
2012-01-13, 16:34:41
Es geht hier nicht ums schönreden, sondern um eine halbwegs objektive (fanboi-freie) Perspektive.
Leider schaffen das auch viele Namhafte Review Seiten nicht -> traurig.
Und echte Silent Freunde werden sich sowieso nie ne Karte mit Referenz-Design kaufen.Objektiv betrachtet sind die Karten bei Vollgas mit ~200W auf zwei Slots auch ungefähr so laut wie andere Karten mit ~200W und zwei Slots; ähnliche Kühler-Grundkonstruktion und keine besonderen Fails wie schlechte Lüfterlagerung oder sowas natürlich vorausgesetzt. Thermodynamik ist Hersteller-unabhängig.

Iruwen
2012-01-13, 16:42:26
Hyperaktive Lüftersteuerungen die versuchen die GPU auf Teufel komm raus unnötig kühl zu halten sind nicht herstellerunabhängig.

Gipsel
2012-01-13, 16:52:10
Hyperaktive Lüftersteuerungen die versuchen die GPU auf Teufel komm raus unnötig kühl zu halten sind nicht herstellerunabhängig.
Die Kennlinien der Lüftersteuerung kann man sich aber auch selber relativ einfach zurechtbiegen. Also wenn es nur darum geht, sollte das kaum einen hier im Forum vor unüberwindbare Hindernisse stellen. Daß Alternativkühler natürlich meist immer noch (z.T. deutlich) leiser sind, bleibt davon ja unbenommen.

Iruwen
2012-01-13, 17:09:38
Man kann alles mögliche, auch untervolten usw., Reviewer müssen aber nunmal davon ausgehen was der Durchschnittskunde vorgesetzt bekommt und nutzt.

Gipsel
2012-01-13, 17:18:18
Man kann alles mögliche, auch untervolten usw., Reviewer müssen aber nunmal davon ausgehen was der Durchschnittskunde vorgesetzt bekommt und nutzt.
Ich denke, Cypher bezog sich nicht spezifisch auf Reviews oder irgendeinen Fall im Besonderen sondern machte eine sehr allgemeine Aussage. In diese Richtung ging auch mein Kommentar.

Szudri
2012-01-13, 17:47:26
Ah ich habe ein Test gefunden:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/20978-test-xfx-radeon-hd-7970-double-dissipation-edition.html

Wenn man den Messungen trauen kann, ist der Unterschied mit den Dual-Lüfter zur Referenz ja sehr dünn mit -1,3db bei Last. Und den Temperaturunteschied bei Last kann man sich imho auch schenken. Kann man der kleinen Differenz überhaupt einen Unterschied hören? Das einzige was ich mir vorstellen kann, wäre die Tonlage des Lüfters, aber dazu wird nichts geschrieben soweit ich das gesehen habe.

Ich zuck schon immer mit dem Finger beim Kauf, kann mich aber immer noch soeben zurückhalten um auf bessere Alternativkühlungen zu warten wegen der Lautstärke, weil ich grundsätzlich ohne Kopfhörer spiele.

Edit: Wie haben die überhaupt gemssen, die Idle Lautstärke ist auch bei 50b??

eratte
2012-01-13, 17:50:17
Meine gestern auf die Schnelle verbaute Club3D HD7970 ist zwar bei ersten Spieletest heute morgen leiser als die Powercolor HD6970 vorher (beide Refkühler) aber leise ist sie nicht.

Wie schon vorher genannt deutiches rauschen, ich kann damit leben da ich immer mit Hesdset/Kopfhöhrer spiele und auch keiner weiter da im Raum sitzt. Für andere dürfte es ggf aber zu laut sein.

PS. idle höhrt man von der Karte mit installiertem Treiber absolut NICHTS.
Schaltet sich auch ab wenn das TfT in Ruhezustand geht.

Darlie
2012-01-13, 21:36:25
Also silent@load ist die Karte auf keinen Fall, echt schade das für eine so teure Karte kein leiserer Kühler drin war. Prinzipbedingt sind diese Kühlerkonstruktionen anscheinend nicht leise zu bekommen, sieht man ja auch bei nvidia.Die Dinger sind halt auf Luftdurchsatz und Kühlleistung getrimmt. Werde mir auf jeden Fall einen Wakü oder den Arctic draufbauen wenn ich die Karte behalte.
Nach ~2 Stunden Skyrim ist Lautstärke für mich immer noch erträglich (Gehäuse liegt offen auf dem Boden)und fernab von einen Staubsaugergeheule. Da habe ich schon sehr viel schlimmeres im Case gehabt. Ist halt ein deutlich hörbares, aber für mich, nicht nerviges Rauschen.

Peter Gräber
2012-01-14, 10:19:06
Es geht hier nicht ums schönreden, sondern um eine halbwegs objektive (fanboi-freie) Perspektive.
Leider schaffen das auch viele Namhafte Review Seiten nicht -> traurig.
Und echte Silent Freunde werden sich sowieso nie ne Karte mit Referenz-Design kaufen.

Nun, es ist leider so, dass Geräusch leider etwas sehr subjektives ist und darum könnte man ja auch trefflich darüber streiten. Das Verhalten zu beurteilen geht eben nur über die Abnahme von vernünftigen Einzelwerten und der Vergleich dieser mit Referenzwerten. Daran kann man versuchen einen objektive Vergleich aufzubauen. Aber der Kommentar des Autors wird immer subjektive Zeilen enthalten, da er auch seine Wahrnehmung mit wiedergeben wird.

Da hilft dann leider auch sone nicht wirklich weiter. Als man die Testpersonen, welche seinerzeit zur Festlegung der sone-kriterien vor zirka 2 Jahren noch einmal lud, wurden die gleichen Geräusche plötzlich komplett konträr bewertet - sone Mist ;). Gründe dafür dürften hauptsächlich dauerhafte Umwelteinflüsse und das Altern der Menschen (und deren Gehör) sein.

Subjektiv muss ich Raff hier aber absolut Recht geben. Der Radial-Lüfter hat halt eben ein ganz eigenes Geräusch, dass vom Gros der Menschen als störend empfunden wird, insbesondere wenn dann gewisse Geräuschregionen erreicht werden. Dann steigert sich dieses Geräuschverhalten und wirkt störend oder gar nervig.

Ein weiteres darfst du ebenfalls nicht vergessen: Wir erleben diese Karten auch auf dem offenen Teststand. Im geschlossenen Gehäuse und je nach Gehäuse und Position verändert sich ein solches Geräusch durchaus auch wenn die grundsätzliche Tonlage bleibt.

Dural
2012-01-14, 11:41:54
gerade gestern festgestellt, mit tahiti kommen wieder die R300 zeiten "insider"

...der HS muss weg für einen guten kühler kontakt :rolleyes:

Gipsel
2012-01-14, 11:47:33
Tahiti hat doch gar keinen Heat Spreader. :rolleyes:

Dural
2012-01-14, 11:48:51
wie nennst du den das metallplätchen auf der GPU? ;)


der referenz kühler hat deswegen bei der Die auch eine erhöhung, hatte gestern ein "universal kühler" drauf, die karte lief nicht mal mehr mit 1100MHz stabil :freak:

wer einen kühler ohne erhöhung montier sollte auf jeden fall genug wärmeleitpaste drauf schmieren, nicht ideal aber immer noch besser als wenn teile der Die gar keinen kontakt zum kühler haben.

M4xw0lf
2012-01-14, 12:11:50
wie nennst du den das metallplätchen auf der GPU? ;)


der referenz kühler hat deswegen bei der Die auch eine erhöhung, hatte gestern ein "universal kühler" drauf, die karte lief nicht mal mehr mit 1100MHz stabil :freak:

wer einen kühler ohne erhöhung montier sollte auf jeden fall genug wärmeleitpaste drauf schmieren, nicht ideal aber immer noch besser als wenn teile der Die gar keinen kontakt zum kühler haben.

Ein Heatspreader wäre es nur dann, wenn wie bei praktisch allen aktuellen CPUs und Nvidia-GPUs das Die unter einer Metallabdeckung liegt. Das bei Tahiti ist eher ein Spacer. Und es braucht tatsächlich neue Grundplatten für die VGA-Kühler, nämlich mit einer 45° gedrehten Kühlfläche, so wie Arctic sie mit dem neuen Xtreme 7970 bringen wird:
http://www.arctic.ac/p/images/articles/a3e6c0cd4fe1c0bb86985adb596688c7_0.png

Gipsel
2012-01-14, 12:34:51
wie nennst du den das metallplätchen auf der GPU? ;)Auf der GPU ist kein Plättchen. Das was Du wahrscheinlich meinst, ist der Stabilisierungsrahmen am Rand des Package um das Die herum. Das Die liegt aber frei, deswegen kann das gar kein Heat Spreader sein, weil der die Abwärme gar nicht verteilt. Der Rahmen dient dazu, das Package zu stabilisieren, damit sich das nicht zu sehr verbiegt oder verwindet, was langfristig die Lötverbindungen des Die zum Package beeinträchtigen könnte.

Dural
2012-01-14, 13:12:57
es war glaub klar was und wie ich es gmeind habe... :rolleyes:

manchmal frag ich mich echt was hier für theoretiker unterwegs sind, gerade wenn das stichwort R300 fällt sollte jeden klar sein um was es geht.


habe es gerade noch mal probiert, es bringt alles nichts, man bringt kein guter kontakt hin.

er muss weg :rolleyes:

Pirx
2012-01-14, 13:36:46
http://www.googlefight.com/index.php?lang=en_GB&word1=r300+spacer&word2=r300+heatspreader

M4xw0lf
2012-01-14, 13:57:09
es war glaub klar was und wie ich es gmeind habe... :rolleyes:

manchmal frag ich mich echt was hier für theoretiker unterwegs sind, gerade wenn das stichwort R300 fällt sollte jeden klar sein um was es geht.


habe es gerade noch mal probiert, es bringt alles nichts, man bringt kein guter kontakt hin.

er muss weg :rolleyes:

Ich würde ja lieber versuchen, den Kühler zu modifizieren als den Spacer da irgendwie abzupfriemeln...

Megamember
2012-01-14, 14:28:31
Lautstärke der 7970 ;)

http://www.youtube.com/watch?v=PtL2Qr6XoLg

derguru
2012-01-14, 14:32:10
lautstärke bei der karte ist grauenhaft,ich brauche dringend eine andere kühllösung,erinnert mich an die gtx480.

bis 51% hatte ich bei spielen schon,unerträglich.;(

Gipsel
2012-01-14, 14:34:55
manchmal frag ich mich echt was hier für theoretiker unterwegs sind, gerade wenn das stichwort R300 fällt sollte jeden klar sein um was es geht.Auch in der Praxis wird aus einer Einfassung keine Abdeckung, egal wie Du es nennst. :rolleyes:
Btw., auch die R300 Chips hatten keinen Heatspreader (das ist auch nur die Art von Rahmen, die ATI schon ewig benutzt; bei Tahiti hat sich nur das Design mit ein paar zusätzlichen Verstrebungen zur Erhöhung der Stabilität geändert).
Das Ding ist kein Heatspreader, weil es (auch in der Praxis ;)) nicht die Funktion erfüllt, die Abwärme zu verteilen. So einfach ist das.

dargo
2012-01-14, 14:43:05
Lautstärke der 7970 ;)

http://www.youtube.com/watch?v=PtL2Qr6XoLg
Ach du Schreck. :eek: Erinnert mich irgendwie an meine damalige GTX470 @Referenz. :D

Gipsel
2012-01-14, 14:43:09
Lautstärke der 7970 ;)

http://www.youtube.com/watch?v=PtL2Qr6XoLg
;D

Kommt man in Spielen im Auto-Betrieb jemals auch nur über 40%? Das war meiner Erahrung nach so etwa das Maximum bei den 5800ern. Daß die auf voller Drehzahl (oder auch schon bei 50-60%) einen Heidenlärm machen, ist doch klar.

derguru
2012-01-14, 14:46:00
ich hatte gestern bis 51% schon gehabt,nicht schön.(ok,mit oc und minimaler spannungserhöhung)

einen 4er loop von warhead inkl. 8xsgssaa gemacht ohne oc und spannungserhöhung,hat sich bei 43% eingependelt.

y33H@
2012-01-14, 14:54:49
Nach ~2 Stunden Skyrim ist Lautstärke für mich immer noch erträglich (Gehäuse liegt offen auf dem Boden) und fernab von einen Staubsaugergeheule.Skyrim ist idR CPU-limitiert, mein Asus GTX 580 DCII geht dreht trotz SSAA und 4,5-GHZ-FX mit idle-Drehzahl :biggrin:

Hübie
2012-01-14, 15:24:35
Ich weiß nicht ob das hier rein gehört aber is mir gerade Wurst:

Welche Einstellungen werden eigentlich bzgl. Tesselation im Treiber verwendet? Konnte man beim heaven benchmark nicht auch wireframe sowie Polycount anzeigen lassen? Da würde es mich schon interessieren ob da weniger berechnet wird wenn im Treiber "AMD optimized" aktiviert ist.
Ich bin mir natürlich darüber im klaren, das der visuelle Unterschied - wenn überhaupt - marginal bis nicht wahrnehmbar ist ;)

Die Frage stellte ich mir halt nur als ich im entsprechendem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=503954) die durchaus beeindruckenden Ergebnisse sah.

Eggcake
2012-01-14, 15:33:23
Joa, der Lautstärkevergleich ist für die Katz'. Wenn er wenigsten sagen würde wie sie sich bei einem Lasttest o.ä. verhält. Wie bereits erwähnt: eine 5850 macht bei 40-100% auch einen Höllenlärm, nur dreht die niemals auf dieser Stufe...

mapel110
2012-01-14, 15:34:46
Bislang gibts wohl noch keine AMD-Optimierung für Tessellation. Also bedeutet derzeit "AMD optimized" so wie die Anwendung es will.
Aber das kann sich in Zukunft halt ändern.

ChaosTM
2012-01-14, 15:35:03
Nun, es ist leider so, dass Geräusch leider etwas sehr subjektives ist und darum könnte man ja auch trefflich darüber streiten. Das Verhalten zu beurteilen geht eben nur über die Abnahme von vernünftigen Einzelwerten und der Vergleich dieser mit Referenzwerten. Daran kann man versuchen einen objektive Vergleich aufzubauen. Aber der Kommentar des Autors wird immer subjektive Zeilen enthalten, da er auch seine Wahrnehmung mit wiedergeben wird.

Da hilft dann leider auch sone nicht wirklich weiter. Als man die Testpersonen, welche seinerzeit zur Festlegung der sone-kriterien vor zirka 2 Jahren noch einmal lud, wurden die gleichen Geräusche plötzlich komplett konträr bewertet - sone Mist ;). Gründe dafür dürften hauptsächlich dauerhafte Umwelteinflüsse und das Altern der Menschen (und deren Gehör) sein.

Subjektiv muss ich Raff hier aber absolut Recht geben. Der Radial-Lüfter hat halt eben ein ganz eigenes Geräusch, dass vom Gros der Menschen als störend empfunden wird, insbesondere wenn dann gewisse Geräuschregionen erreicht werden. Dann steigert sich dieses Geräuschverhalten und wirkt störend oder gar nervig.

Ein weiteres darfst du ebenfalls nicht vergessen: Wir erleben diese Karten auch auf dem offenen Teststand. Im geschlossenen Gehäuse und je nach Gehäuse und Position verändert sich ein solches Geräusch durchaus auch wenn die grundsätzliche Tonlage bleibt.

Ich durfte die Karte heute bei einem Freund "probehören" und ich muss euch recht geben.
Ab ca. 50% wird es laut und ab 60% richtig ungut. Das erreicht man mit OC (seine karte läuft mit 1270/1600 @ 1,25V) recht schnell und da hilft dann eine ausgewogene Lüftersteuerung auch nicht mehr weiter.

Einen Arctic Accelero sollte man also gleich mit bestellen, will man die Karte halbwegs ausreizen und im Zuge dessen nicht taub werden. :)

edit.: @ Stock oder undervoltet haben wir dummerweise nicht getestet -- waren zu sehr auf gute OC-Ergebnisse aus..

fondness
2012-01-14, 15:50:46
Ich durfte die Karte heute bei einem Freund "probehören" und ich muss euch recht geben.
Ab ca. 50% wird es laut und ab 60% richtig ungut. Das erreicht man mit OC (seine karte läuft mit 1270/1600 @ 1,25V) recht schnell und da hilft dann eine ausgewogene Lüftersteuerung auch nicht mehr weiter.

Einen Arctic Accelero sollte man also gleich mit bestellen, will man die Karte halbwegs ausreizen und im Zuge dessen nicht taub werden. :)

edit.: @ Stock oder undervoltet haben wir dummerweise nicht getestet -- waren zu sehr auf gute OC-Ergebnisse aus..

Naja wenn man eine Karte um fast 40% übertaktet und die Spannung erhöht dann sollte man sich nicht wundern das es laut. Es gibt auch bereits Berichte das sich die Karte bei Standardtakt recht gut undervolten lässt, sodass man durchaus auch ein leises Betriebgeräusch erreichen kann.

Darlie
2012-01-14, 18:57:33
Skyrim ist idR CPU-limitiert, mein Asus GTX 580 DCII geht dreht trotz SSAA und 4,5-GHZ-FX mit idle-Drehzahl :biggrin:

Hm, stimmt wohl. Aber selbst bei Heavenbench und Pripyat und Futuremarks dreht die Karte nicht voll auf. Werde gleich mal Crysis 1 installieren und benchen.

Mit dem MSI Afterburner beta 10 kann man die Karte vernünftig auslesen, wenn ich die Lüftersteuerung manuell reguliere ist die Radeon ab 40% unerträglich laut !

Welches Game die karte jetzt so stresst das der Lüfter 40% und mehr aufdrehen muss werde ich ausprobieren müssen, normalerweise treten doch nur Lastspitzen auf die die Lüftersteurung zum aufdrehen fordert.

Wo stell ich denn den Powertune ein? Bzw. wo finde ich das, war 1Jahr grün....

M4xw0lf
2012-01-14, 19:00:35
Einen Arctic Accelero sollte man also gleich mit bestellen, will man die Karte halbwegs ausreizen und im Zuge dessen nicht taub werden. :)


Blöderweise muss man halt wirklich den ~75 Euro teuren neuen Xtreme 7970 nehmen (der noch dazu frühestens Ende Januar zu Kaufen ist), dank des Spacers um das GPU-Die. Die bisherigen Kühlkörper haben nicht die benötigte Erhöhung um Kontakt zum Die herzustellen.

Hm, stimmt wohl. Aber selbst bei Heavenbench und Pripyat und Futuremarks dreht die Karte nicht voll auf. Werde gleich mal Crysis 1 installieren und benchen.

Mit dem MSI Afterburner beta 10 kann man die Karte vernünftig auslesen, wenn ich die Lüftersteuerung manuell reguliere ist die Radeon ab 40% unerträglich laut !

Welches Game die karte jetzt so stresst das der Lüfter 40% und mehr aufdrehen muss werde ich ausprobieren müssen, normalerweise treten doch nur Lastspitzen auf die die Lüftersteurung zum aufdrehen fordert.

Wo stell ich denn den Powertune ein? Bzw. wo finde ich das, war 1Jahr grün....

Powertune befindet sich unter Performance/GPU Overdrive.

derguru
2012-01-14, 19:00:51
Hm, stimmt wohl. Aber selbst bei Heavenbench und Pripyat und Futuremarks dreht die Karte nicht voll auf. Werde gleich mal Crysis 1 installieren und benchen.

Mit dem MSI Afterburner beta 10 kann man die Karte vernünftig auslesen, wenn ich die Lüftersteuerung manuell reguliere ist die Radeon ab 40% unerträglich laut !

Welches Game die karte jetzt so stresst das der Lüfter 40% und mehr aufdrehen muss werde ich ausprobieren müssen, normalerweise treten doch nur Lastspitzen auf die die Lüftersteurung zum aufdrehen fordert.

Wo stell ich denn den Powertune ein? Bzw. wo finde ich das, war 1Jahr grün....

jedes spiel das ich bisher am laufen hatte,dauert nur halt ein bissel;)

Darlie
2012-01-14, 19:32:47
Also ich habe jetzt mit Heavenbench die Karte 10min aufgewärmt und dann gebencht. Sie dreht nicht höher auf als 39% ! Lustig, denn genau da kommen schon mal heulenden Töne, ab 40% geht der Krach los. Super Lüftersteuerung, Kompliment ! GPU Temp max 74 bei 1030mhz. Powertune habe ich noch immer nicht gefunden.
Auslastung ist kontinuierlich bei 99%. Welches Spiel soll das denn bringen, kontinuierlich? Ich bitte um Beispiele wo die Radeon ständig über 40% dreht.
http://www.abload.de/thumb/uniginebenchreports8qqv.jpg (http://www.abload.de/image.php?img=uniginebenchreports8qqv.jpg)

HarryHirsch
2012-01-14, 19:40:42
Also ich habe jetzt mit Heavenbench die Karte 10min aufgewärmt und dann gebencht. Sie dreht nicht höher auf als 39% ! Lustig, denn genau da kommen schon mal heulenden Töne, ab 40% geht der Krach los. Super Lüftersteuerung, Kompliment ! GPU Temp max 74 bei 1030mhz. Powertune habe ich noch immer nicht gefunden.
Auslastung ist kontinuierlich bei 99%. Welches Spiel soll das denn bringen, kontinuierlich? Ich bitte um Beispiele wo die Radeon ständig über 40% dreht.
[/URL][URL]http://www.abload.de/thumb/uniginebenchreports8qqv.jpg (http://www.abload.de/image.php?img=uniginebenchreports8qqv.jpg)

avp z.b. oder stalker cop, so einen radau hab ich ja schon ewig nicht gehört.

derguru
2012-01-14, 19:41:04
Also ich habe jetzt mit Heavenbench die Karte 10min aufgewärmt und dann gebencht. Sie dreht nicht höher auf als 39% ! Lustig, denn genau da kommen schon mal heulenden Töne, ab 40% geht der Krach los. Super Lüftersteuerung, Kompliment ! GPU Temp max 74 bei 1030mhz. Powertune habe ich noch immer nicht gefunden.
Auslastung ist kontinuierlich bei 99%. Welches Spiel soll das denn bringen, kontinuierlich? Ich bitte um Beispiele wo die Radeon ständig über 40% dreht.
http://www.abload.de/thumb/uniginebenchreports8qqv.jpg (http://www.abload.de/image.php?img=uniginebenchreports8qqv.jpg)

auslastung von 99% bedeutet nicht zwingend das die karte dann am wärmsten wird.ich muss aber zugeben das ich gleich beim erstenmal starten mit der neuen karte auf 1125/1575 gegangen bin. aber zu testzwecken habe ich mal auf default crysis warhead mit paar loops laufen gelassen und die karte war realtive zügig bei 43% siehe post #1181.

HarryHirsch
2012-01-14, 20:38:34
Blöderweise muss man halt wirklich den ~75 Euro teuren neuen Xtreme 7970 nehmen (der noch dazu frühestens Ende Januar zu Kaufen ist), dank des Spacers um das GPU-Die. Die bisherigen Kühlkörper haben nicht die benötigte Erhöhung um Kontakt zum Die herzustellen.



Powertune befindet sich unter Performance/GPU Overdrive.

ist das für oc zwingend erforderlich? hab mein max oc ohne erreicht und gerade festgestellt das es sich bei der 2. karte nicht aktivieren lässt.

uweskw
2012-01-14, 23:16:40
auslastung von 99% bedeutet nicht zwingend das die karte dann am wärmsten wird.ich muss aber zugeben das ich gleich beim erstenmal starten mit der neuen karte auf 1125/1575 gegangen bin. aber zu testzwecken habe ich mal auf default crysis warhead mit paar loops laufen gelassen und die karte war realtive zügig bei 43% siehe post #1181.

Prüfe doch mal nach ob der Kühler richtig sitzt, WLP gleichäßig verteilt ect. Normalerweise dreht sie nicht so hoch.

gedi
2012-01-15, 00:19:18
ist das für oc zwingend erforderlich? hab mein max oc ohne erreicht und gerade festgestellt das es sich bei der 2. karte nicht aktivieren lässt.

ULPS in der Registration deaktivieren, dann könnte es funktionieren. Was mich wundert ist die Tatsache, dass im CF-Betrieb das Abschalten der 2. Karte als neues Feature beschrieben wird - das ist doch schon seit gefühlten Ewiglkeiten so?!

M4xw0lf
2012-01-15, 00:39:10
ULPS in der Registration deaktivieren, dann könnte es funktionieren. Was mich wundert ist die Tatsache, dass im CF-Betrieb das Abschalten der 2. Karte als neues Feature beschrieben wird - das ist doch schon seit gefühlten Ewiglkeiten so?!

...not. Die weiteren Grafikkarten waren bisher immer im ganz normalen idle-Modus (mit ensprechendem Verbrauch). Deswegen ist ZCP schon eine deutliche Verbesserung demgegenüber.

boxleitnerb
2012-01-15, 09:47:56
Mag sich mal jemand an einer Erklärung versuchen, warum die Leistungsaufnahme einer übertakteten 7970 geringer steigt als der Takt?

Gipsel
2012-01-15, 10:15:54
Mag sich mal jemand an einer Erklärung versuchen, warum die Leistungsaufnahme einer übertakteten 7970 geringer steigt als der Takt?
P_total = P_static + P_dynamic

P_static ist nur von der Spannung abhängig, P_dynamic bei konstanter Spannung nur vom Takt.

Das war im Prinzip schon immer so, nur war eben die Leakage (P_static) früher nicht so hoch. Aber das ist spätestens seit der 40nm Generation recht deutlich. Edit: P_static bei einer GF100 beträgt an die 100W (deswegen senkt man im idle die Spannungen).

Skysnake
2012-01-15, 10:28:28
Jup, deswegen wird Powergating auch sehr wichtig werden in Zukunft, und da sehe ich AMD ganz klar im Vorteil wegen ihren Erfahrungen diesbezüglich aus dem CPU Bereich, und da sollte es wohl sogar noch deutlich schwieriger sein PowerGating einzusetzen. nVidia muss da wohl einiges mehr an Entwicklungsarbeit leisten.

Oder was meinste Gipsel?

Knuddelbearli
2012-01-15, 10:30:03
naja Nvidia hat da auch bei tegra schon erfahrung gesammelt

HarryHirsch
2012-01-15, 10:36:53
ULPS in der Registration deaktivieren, dann könnte es funktionieren.

läuft inzwischen. was mich wundert ist folgendes:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9123833&postcount=76

liegt das am runterregeln und die laufen mit pt @ 0% gar nicht mit vollem takt oder was ist da los?

Gipsel
2012-01-15, 10:44:16
Jup, deswegen wird Powergating auch sehr wichtig werden in Zukunft, und da sehe ich AMD ganz klar im Vorteil wegen ihren Erfahrungen diesbezüglich aus dem CPU Bereich, und da sollte es wohl sogar noch deutlich schwieriger sein PowerGating einzusetzen. nVidia muss da wohl einiges mehr an Entwicklungsarbeit leisten.

Oder was meinste Gipsel?
Keine Ahnung. Warum sollte nV da mehr Probleme haben? Okay, die sind nicht so ganz dafür bekannt, immer die bleeding edge bei solchen Sachen zu bilden. Aber seit GF100 haben die doch angeblich mehr Ingenieure für die Anpassung and den jeweiligen Prozeß. Und Powergating ist eine Sache, die mehr vom Prozeß bzw. der Foundry abhängig ist (mit einigen Prozessen geht es sehr schwierig, für andere bietet die Foundry extra Powergate-Transistoren an). Bestimmte Blöcke bei Inaktivität abzuschalten stelle ich mir vom Design her jetzt nicht ganz so schwierig vor.

Skysnake
2012-01-15, 11:16:31
Darum gehts mir auch gar nicht, bzgl dem physikalischen Abschalten, sondern mir gings um die ganze Logik, die du ja dahinter packen musst, die die Sachen handhabt, in welchem Zustand sich ein Bereich befinden muss, bevor er abgeschaltet werden kann, und wie sieht es aus, wenn ich ihn wieder an knipse, und wie Prüf ich das alles schnell, und wann macht es überhaupt sinn den aus zu machen, und was mach ich mit den Daten die da noch rumgewandert sind, etc.

Das ist ja alles nicht ganz trivial, wenn man auch Performance haben will.

OgrEGT
2012-01-15, 11:30:29
Darum gehts mir auch gar nicht, bzgl dem physikalischen Abschalten, sondern mir gings um die ganze Logik, die du ja dahinter packen musst, die die Sachen handhabt, in welchem Zustand sich ein Bereich befinden muss, bevor er abgeschaltet werden kann, und wie sieht es aus, wenn ich ihn wieder an knipse, und wie Prüf ich das alles schnell, und wann macht es überhaupt sinn den aus zu machen, und was mach ich mit den Daten die da noch rumgewandert sind, etc.

Das ist ja alles nicht ganz trivial, wenn man auch Performance haben will.

Es ist ja nicht so, als dass es das nicht schon gibt, bei CPUs z.B. mit den gleichen Fragestellungen. Wenn man es dort lösen konnte, sehe ich nicht, warum das bei GPUs nicht möglich sein sollte.

Skysnake
2012-01-15, 11:38:58
Sagt ja auch keiner, aber sichere Fahrgastzellen sind für viele Hersteller auch kein Thema mehr, trotzdem ist es für manch Chinesischen Hersteller ein unlösbares Problem zu den Kosten.

Was ich sagen will ist, nur weil AMD das geöst hat, ist es das für nVidia nicht auch.

Mir wäre jetzt keine GPU bekannt, die Powergating einsetzt. AMD hat das zumindest wo anders schon mal gemacht. Ergo wird es ihnen wohl etwas leichter Fallen, die Sachen zu implementieren, auch wenn man keine 1:1 Adaption machen kann.

Darauf kann nVidia nicht zurückgreifen, und sooo trivial ist es jetzt auch nicht. Oder warum haben erst heutige Prozessoren Powergating in dem jetzigen Umfang? Da hat sich die letzten paar Jahre ja einiges getan. Und wenn Powergating, dann bitte gleich in dem Umfang wie es heute bei CPUs vorhanden ist!

Hübie
2012-01-15, 12:04:55
Mag mir keiner Antworten?

Ich weiß nicht ob das hier rein gehört aber is mir gerade Wurst:

Welche Einstellungen werden eigentlich bzgl. Tesselation im Treiber verwendet? Konnte man beim heaven benchmark nicht auch wireframe sowie Polycount anzeigen lassen? Da würde es mich schon interessieren ob da weniger berechnet wird wenn im Treiber "AMD optimized" aktiviert ist.
Ich bin mir natürlich darüber im klaren, das der visuelle Unterschied - wenn überhaupt - marginal bis nicht wahrnehmbar ist ;)

Die Frage stellte ich mir halt nur als ich im entsprechendem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=503954) die durchaus beeindruckenden Ergebnisse sah.

Blediator16
2012-01-15, 12:17:26
Mag mir keiner Antworten?

Bislang gibts wohl noch keine AMD-Optimierung für Tessellation. Also bedeutet derzeit "AMD optimized" so wie die Anwendung es will.
Aber das kann sich in Zukunft halt ändern.


Bislang ist AMD Opt. auch das, was die Anwendung haben will.

Gipsel
2012-01-15, 12:18:39
Mag mir keiner Antworten?
Keine Ahnung, ob in den normalen Heaven-Versionen Optionen zum Anzeigen der Wireframes oder des Polycounts existieren.
Aber wenn Du das auf der Standardeinstellung stehen hast, wird alles tesselliert und gerendert. Du kannst ja auch spaßenshalber auf anwendungsgesteuert oder manuell das Limit auf 64 (also kein Limit) setzen und vergleichen, falls Du der Standardeinstellung nicht vertraust.

OgrEGT
2012-01-15, 12:23:21
Sagt ja auch keiner, aber sichere Fahrgastzellen sind für viele Hersteller auch kein Thema mehr, trotzdem ist es für manch Chinesischen Hersteller ein unlösbares Problem zu den Kosten.

Was ich sagen will ist, nur weil AMD das geöst hat, ist es das für nVidia nicht auch.

Mir wäre jetzt keine GPU bekannt, die Powergating einsetzt. AMD hat das zumindest wo anders schon mal gemacht. Ergo wird es ihnen wohl etwas leichter Fallen, die Sachen zu implementieren, auch wenn man keine 1:1 Adaption machen kann.

Darauf kann nVidia nicht zurückgreifen, und sooo trivial ist es jetzt auch nicht. Oder warum haben erst heutige Prozessoren Powergating in dem jetzigen Umfang? Da hat sich die letzten paar Jahre ja einiges getan. Und wenn Powergating, dann bitte gleich in dem Umfang wie es heute bei CPUs vorhanden ist!

Die Frage ist, bei welchen Anwendungsgebieten ist das sinnvoll? D.h. in welchen Szenarien können sinnvoll Lastzustände beschrieben werden, die ein Powergating sinnvoll unterstützen kann?

z.B.:

- 3D Grafik - spielen=Volllast / nicht spielen=idle / Multimedia=idle / Monitor aus=GPU aus; Datenbestand im Speicher wichtig bei GPU=aus? Nein (Edit: Speicherabbild aus RAM wiederherstellen, dauert ein paar ms aber egal).

Skysnake
2012-01-15, 12:29:31
Na doch!

Gerade bei Games gibt es ja extreme Streuungen. Beim einen Spiel rennste mit 100 FPS+ rum, beim anderen mit 10 FPS bei entsprechenden Einstellungen. Wenn man da ein entsprechendes FPS-Limit wählen könnte und dann die GPU sich teilweise abschaltet könnte man sicherlich einiges an Strom sparen.

Insgesamt aber wohl eher für iGPUs wichtig, damit man mehr Powerbudget für die CPU parat steht.

Für alle GPUs wäre es aber nett, wenn man Probleme hätte, die die GPU eben nicht voll auslasten, und man immer wieder warten muss, bis die Daten da sind, was ja so ziemlich der Standard ist. Da wird jetzt halt geidelt. Wenn man da die clock allein nur runter nehmen könnte, oder gar ganz abschalten und nur der Datentransfer in/aus den Caches läuft, dann liese sich da sicherlich viel Energie sparen. Halt wenn man Global-Membandwidth limited ist. Das sind ja dann sehr viele Takte, die man warten muss.

Darlie
2012-01-15, 12:39:56
~4h Crysis 1 auf ultra mit Rygels texturen, 19x12,4AA/16AF : 40% Lüfterdrehzahl, 75Grad. Mein Kühler sitz wohl richtig gut auf der GPU :biggrin:
Spiel im Dez. 2007 gekauft heute endlich richtig gut spielbar, VRAM liegt zwischen 1600-1900MB. Ich lach mich schlapp, die Karte ist jeden cent wert,kriegt meinen persönlichen hothardware Award. :smile:
http://www.abload.de/thumb/crysisbenchradeon797062bh8.jpg (http://www.abload.de/image.php?img=crysisbenchradeon797062bh8.jpg)
http://www.abload.de/thumb/2crysisbenchradeon797qrbzj.jpg (http://www.abload.de/image.php?img=2crysisbenchradeon797qrbzj.jpg)

Gipsel
2012-01-15, 12:46:30
Ich lach mich schlapp, die Karte ist jeden cent wert,kriegt meinen persönlichen hot cool hardware Award. :smile:
Fixed. Das paßt in diesem Zusammenhang besser. ;)

Megamember
2012-01-15, 12:48:24
Im Hwlux meinen sie alle das die 7970 ne bessere BQ als die GTX 5XX hat, vor allem mit AA. Ist das alles Fanboy Einbildung oder Fakt? Ich denk Nvidia ist der BQ Primus?
Als ich letztens noch einen Direktvergleich zwischen meiner 570 und einer 6950 in BF3 neben mir sah musste ich noch schmunzeln, das sah wirklich arm aus.

HarryHirsch
2012-01-15, 12:54:39
gibt es ne möglichkeit die alten custom modi wieder ins ccc zu integrieren?
gibt ja nur noch edge detect. :confused:

boxleitnerb
2012-01-15, 13:00:11
Im Hwlux meinen sie alle das die 7970 ne bessere BQ als die GTX 5XX hat, vor allem mit AA. Ist das alles Fanboy Einbildung oder Fakt? Ich denk Nvidia ist der BQ Primus.
Als ich letztens noch einen Direktvergleich zwischen meiner 570 und einer 6950 in BF3 neben mir sah musste ich noch schmunzeln, das sah wirklich arm aus.

Das wird wohl Einbildung sein. Die können es ja nichtmal konkretisieren. Behaupten kann man viel, wenn der Tag lang ist.

Skysnake
2012-01-15, 13:08:44
Man sollte das Thema BQ bzgl AA etc. wohl einfach beerdigen. Da gibt es nichts relevantes mehr zu diskutieren.

Wenn bitte auf DS SSAA konzentrieren, das sind noch Sachen, wo man meckern/differenzieren kann.

y33H@
2012-01-15, 13:09:50
Abseits von einigen DX9-SSAA-Sachen liegt NV bei AA in Front, das HQ-AF ist ja endlich praktisch identisch.

aufkrawall
2012-01-15, 13:42:10
Abseits von einigen DX9-SSAA-Sachen liegt NV bei AA in Front
Was ist denn mit einigen DX9-SSAA-Sachen? :)

boxleitnerb
2012-01-15, 13:50:04
Ich traute mich nicht zu fragen :D
Werden vielleicht die Custom-Filter sein?

TobiWahnKenobi
2012-01-15, 13:52:16
kurzer subjektiv eindruck meinerseit: ich bin POSITIV überrascht..

hab die karte gestern eingebaut.. WLP ist gewechselt und der "krach" ist absolut erträglich.. ~70°C nach ner stunde BF3.

http://www.abload.de/thumb/dscn02279236q.jpg (http://www.abload.de/image.php?img=dscn02279236q.jpg)http://www.abload.de/thumb/dscn02327mky0.jpg (http://www.abload.de/image.php?img=dscn02327mky0.jpg)http://www.abload.de/thumb/dscn022869koq.jpg (http://www.abload.de/image.php?img=dscn022869koq.jpg)





(..)

mfg
tobi

y33H@
2012-01-15, 13:56:03
Was ist denn mit einigen DX9-SSAA-Sachen?
Ich traute mich nicht zu fragen. Werden vielleicht die Custom-Filter sein?
AMDs DX9-SSAA ist oft (nicht immer, da AA-Bits!) kompatibler und verschiebt automatisch das LoD, zudem ist ED-AA zuschaltbar - schöner geht's kaum.

boxleitnerb
2012-01-15, 13:59:32
Das höre ich immer wieder, aber gesehen hab ich davon noch nix.

aufkrawall
2012-01-15, 17:25:08
Das höre ich immer wieder, aber gesehen hab ich davon noch nix.
Hab ja gerade gezwungenerweise ne Radeon drin - habs auch noch nicht gemerkt. :D
Die Nvidia-Bits glätten aggressiver und funktionieren mit mehr Anwendungen. Punkt.

Und was immer an der manuellen LOD-Verschiebung rumgemeckert wird. :rolleyes:
1. Ist es gar nicht schlimm, wenn man die nicht macht, das Resultat kann man sogar besser finden.
2. Ist das ja wohl ein ganz einfacher, immer gleicher Handgriff.
3. Wenigstens kann man bei Nvidia mit dem Inspector den LOD vernünftig manuell festlegen: Mit den schrottigen Tray Tools oder dem veralteten RadeonPro ist das keine Freude.
4. Bei OGSSAA gibt es ne automatische LOD-Verschiebung. Die Hybrid-Modi davon können durchaus Sinn machen, wenn SGSSAA nicht geht, etwa weil es blurt (Left 4 Dead 2). Was kann man bei AMD dann machen? Nüschts.

Und was sollen jetzt also die bei AMD besseren DX9 SSAA-Optionen sein?

TobiWahnKenobi
2012-01-15, 17:37:30
oft sind unterschiede eher subjektiv als theoretischer natur. als ich nach dem einbau mal testweise TES V gestartet habe, war ich schon von der darstellung beeindruckt.. immerhin hatte ich nur die regler im treiber bemüht und das hat "scheinbar" gereicht, um mir eine von der gewohnten NV-darstellung abweichende hübsch-optik zu zeigen..

ich traue mich leider (meinem netzteil zuliebe) nicht, eine NV neben der ATI stecken zu lassen.. machbar wäre das, aber das ist wattöööös echt zu hart an der grenze..


(..)

mfg
tobi

M4xw0lf
2012-01-15, 17:50:19
oft sind unterschiede eher subjektiv als theoretischer natur. als ich nach dem einbau mal testweise TES V gestartet habe, war ich schon von der darstellung beeindruckt.. immerhin hatte ich nur die regler im treiber bemüht und das hat "scheinbar" gereicht, um mir eine von der gewohnten NV-darstellung abweichende hübsch-optik zu zeigen..

Ja, Skyrim hat mit Treiber-SGSSAA so ziemlich das glatteste Bild das ich bisher in einem Spiel gesehen habe (bis auf die niedrig aufgelösten Schatten, die flimmern durch ihre Grobkörnigkeit). :)

Ronny145
2012-01-15, 17:55:51
3. Wenigstens kann man bei Nvidia mit dem Inspector den LOD vernünftig manuell festlegen: Mit den schrottigen Tray Tools oder dem veralteten RadeonPro ist das keine Freude.



Es braucht bei AMD kein Tool zur LoD Justierung. Das ist in Sekundenschnelle in der registry eingestellt.

Die fehlenden BQ Features (AA-Bits, DX10/11/OpenGL SGSSAA, Downsampling) ist der Grund, weswegen ich beim nächsten mal keine AMD Karte kaufen werde.

*es gibt zwar AMD AA-Bits, aber die kann man an einer Hand abzählen. Es sind exakt 5 Stück. Möglichkeiten zur Kombinierung gibt es auch keine.

boxleitnerb
2012-01-15, 18:00:10
Registry? Jetzt nicht im Ernst? Global oder auf Profilbasis?

Ronny145
2012-01-15, 18:11:27
Registry? Jetzt nicht im Ernst? Global oder auf Profilbasis?


Ich wüsste nicht wo das Problem für einen Enthusiasten liegt 5 Sekunden zu investieren. Zumal das automatisch eingestellte LoD meistens keine Änderung benötigt. Ansonsten kommen wir schnell in Bereiche, wo wir alle Einstellungen, die über das offizielle Control Panel hinausgehen, per se kritisieren müssten. Bei Nvidia mag das anders ein wenn man eh immer das LoD anpassen muss. Wenn es die Möglichkeit gibt ohne ExtraTool eine Einstellung der Grafikkarte in Sekundenschnelle vorzunehmen, ziehe ich diese Option dem ExtraTool vor, gar keine Frage.

boxleitnerb
2012-01-15, 18:14:03
In der Registry rumzumachen finde ich nicht mehr zeitgemäß, vor allem umständlich. Man muss sich den Ort merken, suchen, darf sich nicht verklicken sonst zerschießt man was. Das ist für mich genau so ein Pfusch wie das exe-Renaming. Gegen extra Tools hab ich nix, die sind (meist) komfortabel und umfangreich.

Langenscheiss
2012-01-15, 18:17:29
Und was sollen jetzt also die bei AMD besseren DX9 SSAA-Optionen sein?

Keine Ahnung, vielleicht, dass hell ausgeleuchtete (und damit besonders auffällige) Kanten auf AMD Karten teilweise gar nicht geglättet werden ;D (woran auch immer das jetzt genau liegen mag, soll ja irgendwas mit der Gamma-Korrektur sein???)

Klar gibt es Ausnahmen und subjektive Wahrnehmung, aber insgesamt ist aber auch wirklich nichts an dem idR unterlegenem AA von AMD schönzureden, und DS unter Dx9 ohne WinXP (wer will das schon noch) kann man ja auch knicken.

Ronny145
2012-01-15, 18:24:59
In der Registry rumzumachen finde ich nicht mehr zeitgemäß, vor allem umständlich. Man muss sich den Ort merken, suchen, darf sich nicht verklicken sonst zerschießt man was. Das ist für mich genau so ein Pfusch wie das exe-Renaming. Gegen extra Tools hab ich nix, die sind (meist) komfortabel und umfangreich.


Einmal die string location aufzurufen, ist es beim nächsten mal nicht mehr erforderlich. Ort merken und suchen fällt raus. Zerschießen kann man sich auch nichts in der AMD reg location. Reden wir hier von Windows Noobs oder BQ Enthusiasten? Auf LodAdj klicken und den Wert zu ändern, sollte jeder noch hinbekommen. Die Anpassung in der registry ist sicherer und sauberer als ein Tool zu nehmen, bei dem man nicht sicher sein kann, ob es korrekt angepasst wird. Das Tool macht nämlich auch nichts anderes als den registry Wert zu ändern.

aufkrawall
2012-01-15, 18:30:39
Das Tool macht nämlich auch nichts anderes als den registry Wert zu ändern.
Das Doofe bei den Tools für AMD ist aber, dass die ständig im Hintergrund laufen müssen und inkompatibel zu bestimmten Anwendungen sind.
Der Nvidia Inspector stellt einfach nur die Werte in den Treiber-Profilen ein und fertig.
Die einfache Clamp-Option ist auch ganz nett.

boxleitnerb
2012-01-15, 18:31:01
Nochmal die Frage: Global oder profilbasiert? Enthusiast hin oder her, irgendwo hörts auch auf mit der Umständlichkeit.

Ronny145
2012-01-15, 18:41:30
Das Doofe bei den Tools für AMD ist aber, dass die ständig im Hintergrund laufen müssen und inkompatibel zu bestimmten Anwendungen sind.
Der Nvidia Inspector stellt einfach nur die Werte in den Treiber-Profilen ein und fertig.
Die einfache Clamp-Option ist auch ganz nett.


Deswegen verzichte ich auf Tools weitestgehend. Bei AMD gibt es weniger Möglichkeiten, mir fällt jetzt nichts weltbewegendes ein was ich ohne ein Extratool nicht einstellen kann. Tent Filter lassen sich in der registry nachträglich aktivieren oder in der Treiber inf vorm installieren, LoD wie gesagt in der registry spielend leicht und bequem einstellbar, aber sonst? Das ist ja der Hauptkritikpunkt an AMD GPUs wenn man so will. Bei AMD gibt es keine anderweitigen Möglichkeiten zur BQ Verbesserung/Anpassung, die über das Control Panel hinausgehen.

HarryHirsch
2012-01-15, 18:41:31
Es braucht bei AMD kein Tool zur LoD Justierung. Das ist in Sekundenschnelle in der registry eingestellt.

Die fehlenden BQ Features (AA-Bits, DX10/11/OpenGL SGSSAA, Downsampling) ist der Grund, weswegen ich beim nächsten mal keine AMD Karte kaufen werde.

*es gibt zwar AMD AA-Bits, aber die kann man an einer Hand abzählen. Es sind exakt 5 Stück. Möglichkeiten zur Kombinierung gibt es auch keine.

seit wann muss man das von hand ändern? ich dachte das macht das ccc automatisch :confused:

Keine Ahnung, vielleicht, dass hell ausgeleuchtete (und damit besonders auffällige) Kanten auf AMD Karten teilweise gar nicht geglättet werden ;D (woran auch immer das jetzt genau liegen mag, soll ja irgendwas mit der Gamma-Korrektur sein???)

Klar gibt es Ausnahmen und subjektive Wahrnehmung, aber insgesamt ist aber auch wirklich nichts an dem idR unterlegenem AA von AMD schönzureden, und DS unter Dx9 ohne WinXP (wer will das schon noch) kann man ja auch knicken.

dafür gibt es ja sgssaa

Langenscheiss
2012-01-15, 19:47:51
dafür gibt es ja sgssaa

Der Kommentar bezog sich gerade auf SGSSAA, welches ebenfalls diese Probleme hat. Da gabs letztens hier im Forum Screenshots mit NV-ATI-Vergleich (aus UT3 glaub ich, weiß aber auch nicht mehr genau) und selbst hab ich das auch schon häufig gesehen wie z.B. teilweise in source games (Portal), in UT3, TrackMania, MirrorsEdge und vermutlich noch weiteren Spielen, die mir jetzt nicht einfallen. Soweit ich weiß, gibt es diese Probleme schon seit Einführung von HDR-rendering, und das insbesondere auf ATI/AMD-Karten.

HarryHirsch
2012-01-15, 19:52:15
sorry hatte vergessen es hervorzuheben, ich bezog mich darauf:

Keine Ahnung, vielleicht, dass hell ausgeleuchtete (und damit besonders auffällige) Kanten auf AMD Karten teilweise gar nicht geglättet werden ;D (woran auch immer das jetzt genau liegen mag, soll ja irgendwas mit der Gamma-Korrektur sein???)

Klar gibt es Ausnahmen und subjektive Wahrnehmung, aber insgesamt ist aber auch wirklich nichts an dem idR unterlegenem AA von AMD schönzureden, und DS unter Dx9 ohne WinXP (wer will das schon noch) kann man ja auch knicken.

boxleitnerb
2012-01-15, 19:53:27
Es gibt genug Spiele, die du auf einer AMD gar nicht zu AA überreden kannst. Deshalb ist Downsampling ja so sinnvoll.

HarryHirsch
2012-01-15, 21:25:15
Es gibt genug Spiele, die du auf einer AMD gar nicht zu AA überreden kannst. Deshalb ist Downsampling ja so sinnvoll.

:confused: falsche wortwahl. ich bin raus.

boxleitnerb
2012-01-15, 21:27:49
Was meinst du? Falsche Wortwahl, was?

gedi
2012-01-15, 22:41:21
Bsple gefällig meinte er wohl. Zudem sieht SGSSAA mit Tend-Filtern natürlich besser aus, als NVs SSAA! Was definitiv gegen AMD spricht, dass dies nur=<DX9 funktioniert.
Wirklich schade imo, hier verpasst AMD wirklich eine Chance.

aufkrawall
2012-01-16, 02:06:32
Bsple gefällig meinte er wohl. Zudem sieht SGSSAA mit Tend-Filtern natürlich besser aus, als NVs SSAA!

Ist da wirklich ein positiver Unterschied zu Box SG?
Wenn ja, bitte Screenshots/Videos. :)

Tesseract
2012-01-16, 02:57:50
Ist da wirklich ein positiver Unterschied zu Box SG?
jein. das problem ist, dass tents erst mit höheren samplezahlen (d.h. >= 8x) wirklich gut funktionieren. mit niedrigen samplezahlen - vor allem rotated grids - ist es eher nur ein verblurren mit nachbarpixeln á la quincunx.
außerem fehlen den kleinen SGSSAA-modi bei AMD einfach die mischmodi mit denen man ein gutes EER zustande bekommt.

also ja, sobald man genug samples hat ist ein tent einem boxfilter in vielen fällen definitiv überlegen aber in der praxis nur mit vorbehalt. wichtiger wären da eher flexible mischmodi oder eine abschaltbare gamma-korrektur.

Sascha1971
2012-01-16, 11:15:03
Wenn man den Messungen trauen kann, ist der Unterschied mit den Dual-Lüfter zur Referenz ja sehr dünn mit -1,3db bei Last. Und den Temperaturunteschied bei Last kann man sich imho auch schenken. Kann man der kleinen Differenz überhaupt einen Unterschied hören? Das einzige was ich mir vorstellen kann, wäre die Tonlage des Lüfters, aber dazu wird nichts geschrieben soweit ich das gesehen habe.

Ich zuck schon immer mit dem Finger beim Kauf, kann mich aber immer noch soeben zurückhalten um auf bessere Alternativkühlungen zu warten wegen der Lautstärke, weil ich grundsätzlich ohne Kopfhörer spiele.

Edit: Wie haben die überhaupt gemssen, die Idle Lautstärke ist auch bei 50b??

Die wäre evtl. auch noch intressant:
http://www.pcgameshardware.de/aid,863216/Radeon-HD-7970-Uebertaktete-Variante-von-Gigabyte-mit-Windforce-Kuehler-kommt-Referenzableger-im-Handel-erhaeltlich/Grafikkarte/News/

Cyphermaster
2012-01-16, 11:43:59
Um bei ähnlichen Kühlerkonstrukten gleiche Abwärme wegzubringen, braucht man auch ähnlich viel Luft (= Lüfterdrehzahl). Das bedeutet, wenn die Referenzkühlung nicht massiv fehldimensioniert ist, dann werden sämtliche bau-ähnlichen Modelle der Karten sich bei Volllast ähnlich mit ihrer Lautstärke positionieren. Steuerungskurven, auf die der Hersteller Einfluß nehmen kann, sind nur bei Teillast/Idle Lärm-relevant, oder wenn die Kühler-Lösung noch große Drehzahlreserven hätte, die man für bessere Temperaturen ausnutzen könnte.
Für wirklich wesentliche Unterschiede braucht es deswegen fast immer andere Kühlungs-Lösungen, oder herstellerseitig abgesenkte Spannungen = weniger Abwärme.

Daß -wie Szudri andeutet- 1,3dB weniger nicht viel wären, ist übrigens nicht richtig. Da es sich um eine logarithmische Skala handelt, entsprechen 3dB einer Lautstärkeverdoppelung/-halbierung. Ob es (neben der Frage, ob die 1,3dB auch valide gemessen sind) aber reicht, um subjektiv in den "leisen" Bereich zu kommen, ist eine andere Frage. Je nach Lautstärkespektrum kann auch eine objektiv "leise" Karte ziemlich nerven - eine Stechmücke im Schlafzimmer ist schließlich auch nicht laut.

Raff
2012-01-16, 11:51:21
Je nach Lautstärkespektrum kann auch eine objektiv "leise" Karte ziemlich nerven - eine Stechmücke im Schlafzimmer ist schließlich auch nicht laut.

Wenn sie direkt am Ohr vorbeifliegt, schon. :D Es kommt eben darauf an, wo der Rechner steht, wie das Gehäuse beschaffen ist und welches Sound-Equipment den Spieler beschallt. Ich erinnere mich an höchst amüsante Aussagen hier im Forum, wonach die GTX 480 "doch gar nicht so laut sei" – im Nebensatz stand, dass im Hintergrund ein Ventilator lief, während Kopfhörer zum Einsatz kamen. Ist klar! :ulol:

MfG,
Raff

Cyphermaster
2012-01-16, 11:58:01
Genau das meine ich. Genau wie das bekannte "Spulenfiepen", das mancher gar nicht erst hört... auch 1000 Reviews werden da keine wirklich vergleichbaren Werte liefern können, sondern nur ein "ungefähr".

eratte
2012-01-16, 12:39:03
Man muss beim Refkühler auch mal die Kirche im Dorf lassen.

Ich denke hier ist auch die Vorgabe seitens AMD das die Karten so in möglichst vielen PCs/Gehäusen laufen und das ggf auch in Crossfireverbund.

Länge und Stromverbrauch sind ggf schon ein Problem, Kühler die 3 oder mehr Slots brauchen oder höher als die Kartenslots sind würden noch mehr Probleme verursachen.
Zu dem befördert der Refkühler einen grossen Teil der Abwärme direckt aus dem Gehäuse.

Unter den Gesichtspunkten fnde ich für mich machen die Refkühler seid der 4870 einen guten Job. Wer mehr will muss nachrüsten.

Wenn ich z.B. noch an meine 1. Sapphire 4870/512 mit Refkühler denke im Vergleich zur 2. Sapphire 4870/1GB mit Sapphirekühler muss ich sagen das die 2. zwar deutlich leiser war aber der Kühler die Luft/Wärme zu beiden Seiten befördert hat und damit die eine Seite gegen den Luftsrom im Gehäuse. Dadruch dieses ordentlich mit aufgeheizt hat.
Weiter haben die über die Karte stehenden Heatpipes z.B. Einbau in ein V350 Gehäuse verhindert.

Den Job Alternativen anzubieten überlassen die beiden Hersteller halt ihren Partnern.

aufkrawall
2012-01-16, 12:43:16
jein. das problem ist, dass tents erst mit höheren samplezahlen (d.h. >= 8x) wirklich gut funktionieren. mit niedrigen samplezahlen - vor allem rotated grids - ist es eher nur ein verblurren mit nachbarpixeln á la quincunx.

So hatte ich das auch in Erinnerung. :)


außerem fehlen den kleinen SGSSAA-modi bei AMD einfach die mischmodi mit denen man ein gutes EER zustande bekommt.

Man kann aber wohl EQAA dazu schalten, zumindest kostet das FPS.
Ob es damit wirklich besser aussieht, weiß ich nicht.
Bei Nvidia sieht es mit zusätzlichem CSAA jedenfalls nicht wirklich besser aus, außer vielleicht wenn nicht alle Color-Samples fürs SSAA genutzt werden.


also ja, sobald man genug samples hat ist ein tent einem boxfilter in vielen fällen definitiv überlegen aber in der praxis nur mit vorbehalt.

Ich find diese ganzen zusätzlichen Filter bei AMD ehrlich gesagt sinnfrei.
4xSGSSAA per Bits mit Box-Filter ist schon extrem ruhig, auch bei nicht so hoher Pixeldichte. Etwas anderes braucht man einfach nicht.


wichtiger wären da eher flexible mischmodi oder eine abschaltbare gamma-korrektur.
Schon ulkig, dass gerade das ausgerechnet bei AMD trotz der verschiedenen Filter nicht geht.

Raff
2012-01-16, 12:48:25
8x SGSSAA sieht mit Narrow-Tent-CF idR supergeil aus, alternativ bietet Edge-Detect (nicht immer) eine ähnlich "perfekte" Glättung ohne die leichte Unschärfe.

MfG,
Raff