PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Cayman - HD 6950/6970 - November 2010


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20

dildo4u
2010-12-13, 20:44:36
Meint ihr, der 570 geht der RAM aus? Wenn nicht, warum sollte das Cherrypicked sein? Hier wird doch mit Nvidias gern gedownsampled, da sind hohe Auflösungen doch auch willkommen.
Das sind genau die Games von der AMD Folie dann noch Heaven Tess nur auf normal und bei Metro aus whol nich ohne Grund.Und jo bei 2500 geht ihr öfter der Ram aus.

boxleitnerb
2010-12-13, 20:45:42
Könnte NV mal ne 3GB Version nachschieben :cool:

Tarkin
2010-12-13, 20:47:40
Muss man halt alles über 1900*1200 rausrechnen.

äh... und wieso bitteschön? :freak: Ah, sorry... ich vergaß :rolleyes:

Am besten nur in 1680 mit max 2xaa benchen

Botcruscher
2010-12-13, 20:47:57
Könnte NV mal ne 3GB Version nachschieben :cool:

Da sind dann unter Fur locker 350W drin.

Die Werte sind mal wieder übelst ausgewählt.

Schlammsau
2010-12-13, 20:48:17
Wenn's nicht so offensichtlich, extreme "cherrypicked" settings wären, würde ich dir ja zustimmen. Aber offensichtlicher geht nun wirklich nicht mehr...deshalb bleibe ich dabei: bisl über 570...in Einzelfällen kommt sie knapp an die 580 ran.

Ich denke, dass hier keiner mehr mehr erwartet oder?

fondness
2010-12-13, 20:48:43
Mit DS oder SSAA zittert die GTX 580.

Ist ja auch nicht ganz irrelevant, denn dafür verwende ich eine High-End-Karte. Nicht für MSAA in niedrigen Auflösungen.

Menace
2010-12-13, 20:49:04
Zielgruppenbeschränkung bei pcgh und MM-Betrieb:


Aber dass PCGAMES Hardware sich vorwiegend auf Games konzentrieren dürfte (nicht beschränken) dürfte jedem einleuchten. Dass MM-Betrieb nicht einfach unter den Tisch gekehrt werden darf stimmt auch, aber trotzdem hat es für Gamer nunmal einen geringeren Einfluss als die Bildqualität. Willst du das etwa bestreiten?

Erst einmal danke für die Blumen.

Ich wollte hier überhaupt keinen Glaubenskrieg über die jeweiligen Vorzüge aussprechen, sondern dass wir im AMD Thread sind, und y33h nicht unbedingt jede Seite auf die Vorzüge der nvidia-Karte kommen muss (die jeder aufmerksame Leser auswendig rückwärts aufsagen kann). Ebenso wenig möchte ich auf den Multimonitorbetrieb beharren. Es MM-Betrieb mag ja für die Leute, die nicht mit ihrem PC arbeiten unnötig sein, allerdings gibt es durchaus Leute, die beides mit ihrem PC machen. Dass es für Dich nicht vorstellbar ist,.... geschenkt. Allein, dass ich damit auch arbeite gehöre ich ja nach Deiner Definition nicht zu den "Gamern"? ;D

@y33h: Welche Samsung Monitore hast Du denn?

dildo4u
2010-12-13, 20:49:08
äh... und wieso bitteschön? :freak: Ah, sorry... ich vergaß :rolleyes:

Am besten nur in 1680 mit max 2xaa benchen
Nö wer so zockt kann sich auch ne 480 mit 1.5GB kaufen ist zur Zeit sogar billiger als die 570.

derguru
2010-12-13, 20:49:41
Ist ja auch nicht ganz irrelevant, denn dafür verwende ich eine High-End-Karte. Nicht für MSAA.
ja wenn es für alle APIs laufen würde aber nur für dx9 beschränkt es leider.

Kalmar
2010-12-13, 20:50:05
nun hab einfach mal eben alle 2xxx auflösungen rausgerechnet

von 1604 - 635 = 969 fps für die 6970
von 1303 - 496 = 807 fps für die 570

sind immer noch :

6970 = 100%, 570 = 83%
6970 = 120%, 570 = 100%

hmm *grübel* naja mit tess off usw. als bleibt nur abwarten ^^

boxleitnerb
2010-12-13, 20:51:10
Da sind dann unter Fur locker 350W drin.

Die Werte sind mal wieder übelst ausgewählt.

Naja, der Vergleich ist schon etwas unfair, wenn der VRAM ausgeht, richtig. Aber sieh es mal so: Die Karten treten in der Konfiguration eben gegeneinander an. Warum sollte man das nicht auch vergleichen dürfen? Es gibt eben keine Nvidias mit mehr als 1,28 bzw. 1,5 GB. Ist ja nicht AMDs Schuld.
Hätten die 570/580 1GB und gäbe es noch eine 2GB Version, wäre das eine andere Sache. Dann müsste man entsprechend vergleichen. So geht es aber nicht anders.

Blaire
2010-12-13, 20:51:15
Ich denke, dass hier keiner mehr mehr erwartet oder?

Erstmal abwarten, mit viel Tesselation wird sie das sicher nicht schaffen.

Eggcake
2010-12-13, 20:53:03
Schon wieder ein Hinweis zu Downsampling? Wenn das AMD wirklich anbieten würde, direkt im Treiber oder kleinem Tool wär's natürlich nice.

@Schlamm
Sagte ja, nix neues. Nur weil Kalmar meinte sie kommt an die GTX580 ran im Schnitt.

Schlammsau
2010-12-13, 20:53:27
Erstmal abwarten, mit viel Tesselation wird sie das sicher nicht schaffen.

Synthetische Benchmarks interessieren nicht!
Und Heaven, Stone Giant und Tessmark sind nunmal welche.

Auf das willst du doch schon wieder hinaus oder!? ;)

fondness
2010-12-13, 20:54:13
Naja, der Vergleich ist schon etwas unfair, wenn der VRAM ausgeht, richtig.

Die bessere Leistung bei hohen Auflösungen bzw. SSAA lässt sich aber sicher nicht (nur) durch den VRAM erklären, denn diesen Phänomen zeigte auch schon die 5870 mit nur einen GB.

Schlammsau
2010-12-13, 20:55:51
@Schlamm
Sagte ja, nix neues. Nur weil Kalmar meinte sie kommt an die GTX580 ran im Schnitt.

Wird sie definitv nicht.....evtl in Ausnahmefällen wie beim DS und SSAA.

boxleitnerb
2010-12-13, 20:57:14
Die bessere Leistung bei hohen Auflösungen bzw. SSAA lässt sich aber sicher nicht (nur) durch den VRAM erklären, denn diesen Phänomen zeigte auch schon die 5870 mit nur einen GB.

Stimmt. Wie auch immer - man kann nicht einfach bestimmte Szenarien unter den Teppich kehren, weil sie einem nicht passen. Die Radeons müssen sich ja auch bei Tess vernichten lassen. Da ist es nur fair, dass sie auch ihre Stärken ausspielen dürfen ohne dass man das wegrationalisiert.

Eggcake
2010-12-13, 20:57:26
MEINE ICH JA! :D:D ;)

Schlammsau
2010-12-13, 20:58:17
MEINE ICH JA! :D:D ;)

OK.... :biggrin:

maximus_hertus
2010-12-13, 20:58:54
Interessant, einige 6970 sind um 30€ "gefallen". Zumindest waren sie bzw. hätten sie ca. 30€ teurer sein sollen...... Ich rede jedoch NICHT von AMD-Preisen, sondern von Preisen bei Händlern.

dildo4u
2010-12-13, 20:59:49
Stimmt. Wie auch immer - man kann nicht einfach bestimmte Szenarien unter den Teppich kehren, weil sie einem nicht passen. Die Radeons müssen sich ja auch bei Tess vernichten lassen. Da ist es nur fair, dass sie auch ihre Stärken ausspielen dürfen ohne dass man das wegrationalisiert.
Klar nur wird jemand der so viel Kohle für ein TFT mit 2500 Auflösung ausgegeben hat eher zur 580 greifen,für 1900*1200 sollte die 1.3GB der 570 in 95% der Fälle reichen.Dafür kann NV die Karte bald unter 300€ anbieten.

Blaire
2010-12-13, 21:00:45
Synthetische Benchmarks interessieren nicht!
Und Heaven, Stone Giant und Tessmark sind nunmal welche.

Auf das willst du doch schon wieder hinaus oder!? ;)

Egal ob synthetisch oder nicht, es wird in Reviews verglichen und höhere Tesselationsleistung kann für zukünftige Games (Crysis2) sicher nicht schaden. ;)

fondness
2010-12-13, 21:02:02
Klar nur wird jemand der so viel Kohle für eine TFT mit 2500 Auflösung ausgegeben hat eher zur 580 greifen,


Aja, warum?


für 1900*1200 sollte die 1.3GB der 570 in 95% der Fälle reichen.

Auch in 1900*1200 will ich mit SSAA oder DS spielen, und da ist die 570 offensichtlich langsamer.

Egal ob synthetisch oder nicht, es wird in Reviews verglichen und höhere Tesselationsleistung kann für zukünftige Games (Crysis2) sicher nicht schaden. ;)

Spiele sind klar, aber solange es nur bei synthetischen Tests zu Nachteilen führt ist das wayne.

LovesuckZ
2010-12-13, 21:03:11
Stimmt. Wie auch immer - man kann nicht einfach bestimmte Szenarien unter den Teppich kehren, weil sie einem nicht passen. Die Radeons müssen sich ja auch bei Tess vernichten lassen. Da ist es nur fair, dass sie auch ihre Stärken ausspielen dürfen ohne dass man das wegrationalisiert.

Nur - wer kauft sich solch einen Monitor?
SSAA bringt mir nichts, wenn das Spiel kein AA von sich aus anbietet. 4xSGSSAA kann außerdem BQ-mäßig auch noch zu wenig sein, 8xSGSSAA jedoch unspielbar. Dann kein Downsampling - Ganz schlecht.

Ihr guckt auf die 2560x1600 Ergebnisse und merkt garnicht, dass kaum jemand solch einen Monitor besitzt.

Und ja: Kein SSAA ab DX10? Irgendwie doof "für bestimmte Szenarien".


Auch in 1900*1200 will ich mit SSAA oder DS spielen, und da ist die 570 offensichtlich langsamer.


Der kauft zZ sowieso eine nVidia-Karte.

Eggcake
2010-12-13, 21:03:15
Egal ob synthetisch oder nicht, es wird in Reviews verglichen und höhere Tesselationsleistung kann für zukünftige Games (Crysis2) sicher nicht schaden. ;)

Hohe Auflösungen bzw. mehr RAM aber auch nicht.

dildo4u
2010-12-13, 21:04:39
Aja, warum?

High-End User kaufen High-End Hardware den sind 100€ mehr nicht soo wichtig wenn sie dafür das beste bekommen in dem Fall eine 580.

fetthund
2010-12-13, 21:07:18
Hohe Auflösungen bzw. mehr RAM aber auch nicht.

Das sehe ich genauso. Ständig dieses Rosinenpicken auf beiden Seiten....
Jeder Nutzer sollte doch selbst entscheiden, welche Karte für seine Belange am besten ist.

Und der unbedarfte Käufer landet sowieso nicht oberhalb von 150€...

Eggcake
2010-12-13, 21:08:43
Ich finde beides momentan ziemlich unnötig, aber man kann nicht auf der einen Seite die "zukunftstauglichkeit" der NV-Karten aufgrund hoher Tess-Leistung anpreisen, gleichzeitig aber sagen, dass momentan eh kein Schwein auf hohen Auflösungen spielt. Entweder oder, meine lieben ;)

Grade bei der 570 ist der RAM imho eher etwas an der unteren Grenze für so einen Knüller - das ist durchaus auch zu beachten.

Blaire
2010-12-13, 21:09:29
Hohe Auflösungen bzw. mehr RAM aber auch nicht.

Was willst du mir damit sagen? Hohe Auflösungen und Tesselation schließen sich ja nicht aus. :confused:

dildo4u
2010-12-13, 21:10:31
Ich finde beides momentan ziemlich unnötig, aber man kann nicht auf der einen Seite die "zukunftstauglichkeit" der NV-Karten aufgrund hoher Tess-Leistung anpreisen, gleichzeitig aber sagen, dass momentan eh kein Schwein auf hohen Auflösungen spielt. Entweder oder, meine lieben ;)
Klar spielen welche in dieser Auflösung aber die haben ja noch ne Alternative über der 570.

boxleitnerb
2010-12-13, 21:11:10
Nur - wer kauft sich solch einen Monitor?
SSAA bringt mir nichts, wenn das Spiel kein AA von sich aus anbietet. 4xSGSSAA kann außerdem BQ-mäßig auch noch zu wenig sein, 8xSGSSAA jedoch unspielbar. Dann kein Downsampling - Ganz schlecht.

Ihr guckt auf die 2560x1600 Ergebnisse und merkt garnicht, dass kaum jemand solch einen Monitor besitzt.

Und ja: Kein SSAA ab DX10? Irgendwie doof "für bestimmte Szenarien".


Da könnte man genauso gut Fälle herausstreichen, in denen Overkilltess Nvidia nach vorne katapultiert - obwohl es auf die Menge aller momentan erscheinenden Spiele bezogen praktisch irrelevant ist.

Jeder IHV hat seine Stärken und Schwächen, und wir wollen doch jetzt nicht kindischerweise anfangen sie nach Belieben wegzudiskutieren - nur weil die Masse der Spiele ohne 5 Mrd Dreiecke auskommt oder die Masse der Monitore eben nur 1080p ist. Es wird DX9/10/11 gebencht und es werden Auflösungen von 1600 bis 2500 gebencht, also ist für jeden was dabei. Dass Leute mit 24" nicht auf die 2500er Ergebnisse schauen, ist eigentlich selbsterklärend.

Eggcake
2010-12-13, 21:11:30
@Blaire
Stimmt, sorry, hatte da irgendwie ein anderes Zitat im Kopf.

@dildo
Es geht nicht darum wer jetzt in dieser Auflösung spielt und jetzt eine Karte mit viel RAM für hohe Auflösungen braucht. Ich kaufe mir auch keine NV Karte weil ich Spiele mit viel Tesselation spiele, sondern ich bin froh, dass ich die Leistung, welche ich eventuell in der Zukunft benötige habe.

LovesuckZ
2010-12-13, 21:13:23
Ich finde beides momentan ziemlich unnötig, aber man kann nicht auf der einen Seite die "zukunftstauglichkeit" der NV-Karten aufgrund hoher Tess-Leistung anpreisen, gleichzeitig aber sagen, dass momentan eh kein Schwein auf hohen Auflösungen spielt. Entweder oder, meine lieben ;)

Grade bei der 570 ist der RAM imho eher etwas an der unteren Grenze für so einen Knüller - das ist durchaus auch zu beachten.

Hä? Beides hat miteinander überhaupt nichts zu tun.
Ich kann mein lebenlang in 1080p zocken, aber gleichzeitig Lost Planet2 und HAWX2 heute spielen wollen. Das Problem an diesen Auflösungen ist doch: Ich muss nativ spielen, oder mich mit einem umranderten Bild zufrieden geben. SSAA? In der Auflösung meisten nur bei älteren Spielen möglich. Und dann habe ich wiederum auch kein VRAM Problem bei der GTX570.

Ist ja schön und gut, dass einige hier hohe Auflösungen + SSAA propagieren. Aber man sollte die Kirche auch irgendwie im Doof lassen.

Da könnte man genauso gut Fälle herausstreichen, in denen Overkilltess Nvidia nach vorne katapultiert - obwohl es auf die Menge aller momentan erscheinenden Spiele bezogen praktisch irrelevant ist.

Jeder IHV hat seine Stärken und Schwächen, und wir wollen doch jetzt nicht kindischerweise anfangen sie nach Belieben wegzudiskutieren. Es wird DX9/10/11 gebencht und es werden Auflösungen von 1600 bis 2500 gebencht, also ist für jeden was dabei. Dass Leute mit 24" nicht auf die 2500er Ergebnisse schauen, ist eigentlich selbsterklärend.

Und schenkst du jeden solch einen Monitor? Der billigste 2560er Monitor kostet zZ 660€ (http://geizhals.at/deutschland/?cat=monlcd19wide&xf=98_2560x1440~99_22~98_2560x1600&sort=p). Wieviele werden also neben ihrer 380€ 6970 auch in solch einen Monitor investieren? Da kommt es bald ja billiger sich zwei GTX570 Karten + 1080p Monitor zu kaufen und Downsampling zu betreiben, dass bei AMD nur eingeschränkt per Tool ab DX10 oder unter XP funktioniert.

uweskw
2010-12-13, 21:14:47
das sind absichtlich katastrophen-settings für die 570,ich wette der geht oft die puste aus bei den settings.obwohl sind ja nicht alle unter 2560*1600 gemacht worden.

yo und PCGH testet mit katastrohen-auswahl für die 6970 :biggrin:

Black-Scorpion
2010-12-13, 21:16:03
Vielleicht sollte man AMD mal den Vorschlag machen gefälligst dafür zu sorgen das für ihre Karten auch nur die Nvidia Benchvorgaben verwendet werden. Wäre spannend was einige dann noch zum meckern finden.

Kalmar
2010-12-13, 21:16:24
Schon wieder ein Hinweis zu Downsampling? Wenn das AMD wirklich anbieten würde, direkt im Treiber oder kleinem Tool wär's natürlich nice.

@Schlamm
Sagte ja, nix neues. Nur weil Kalmar meinte sie kommt an die GTX580 ran im Schnitt.

ich meinte des nur weil wenn sie 20% vor der 570 liegt das war aber auf die geleakten werte aus dem franz forum bezogen. wollte damit mich skeptisch zu den werten äußen weil ja viele quellen berichten 570 < 6970 < 580 .. deswegen

y33H@
2010-12-13, 21:16:48
yo und PCGH testet mit katastrohen-auswahl für die 6970 :biggrin:Stimmt, Crysis ist ja bekanntlich voll die Fermi-Domäne ;(

fetthund
2010-12-13, 21:17:00
Vielleicht sollte man AMD mal den Vorschlag machen gefälligst dafür zu sorgen das für ihre Karten auch nur die Nvidia Benchvorgaben verwendet werden. Wäre spannend was einige dann noch zum meckern finden.


oder umgekehrt!

Eggcake
2010-12-13, 21:18:21
@LovesuckZ
Es hat sehr viel miteinander zu tun. Ich kaufe eine Karte, welche ich für 1-3 Jahre benutzen will. Und RAM ist diesbezüglich ein entscheidendes Kriterium, ebenso wie Tesselationsleistung.


Edit: Aber jeder wie er meint, das ist hier eher offtopic...

boxleitnerb
2010-12-13, 21:19:38
Weiß gar nicht wo das Problem sein soll. Es wird ja nicht nur in extrem hohen Auflösungen gebencht. Geht zu CB, da gibts getrennte Ratings für alles. Selbstbedienung ftw. Sinnlose Diskussion, echt jetzt! :mad:

fondness
2010-12-13, 21:19:41
SSAA? In der Auflösung meisten nur bei älteren Spielen möglich. Und dann habe ich wiederum auch kein VRAM Problem bei der GTX570.


Auf einer Geforce vielleicht. :)
Selbst auf einer 5870 spiele ich praktisch alles mit zumindest 4xSGSAA.

w0mbat
2010-12-13, 21:19:46
ne, die kirche sollte bei tess im dorf bleiben. bis auf einige ausnahmen wird das nämlich noch die nächsten jahre die ausnahme sein.

aber ich kann & will vielleicht jetzt in 25x16 spielen.

LovesuckZ
2010-12-13, 21:24:49
Weiß gar nicht wo das Problem sein soll. Es wird ja nicht nur in extrem hohen Auflösungen gebencht. Geht zu CB, da gibts getrennte Ratings für alles. Selbstbedienung ftw. Sinnlose Diskussion, echt jetzt! :mad:

Und hast du solch einen Monitor? Willst du in absehbarer Zeit in solch einen Monitor investieren?
Man sollte bei diesem Gerede auch immer die Konsequenz beachten.


aber ich kann & will vielleicht jetzt in 25x16 spielen.

Ich spiel mit einer nVidia-Karte heute auch alles in >nativer Auflösung ohne dass ich solch einen Monitor besitze, wenn ich will. Tomb Raider:Underworld in 2880x1080 mit 16xCSAA+4xSGSAA. Und habe trotzdem die Tessellationleistung für Lost Planet 2, um in nativer Auflösung noch 2xSGSSAA dazuschalten zu können.

w0mbat
2010-12-13, 21:28:14
achso, ohne dass du den monitor besitzt... klaro. wie wenn der dann plötzlich mehr pixel hat nur wegen ds.

Eggcake
2010-12-13, 21:34:56
Ist ja schön und gut, dass einige hier hohe Auflösungen + SSAA propagieren. Aber man sollte die Kirche auch irgendwie im Doof lassen.

Tomb Raider:Underworld in 2880x1080 mit 16xCSAA+4xSGSAA. Und habe trotzdem die Tessellationleistung für Lost Planet 2, um in nativer Auflösung noch 2xSGSSAA dazuschalten zu können.

hm!

IMHO haben hohe Auflösungen und SGSSAA heute mehr Relevanz als Tesselation - und es wird garantiert auch nicht "unwichtiger".

boxleitnerb
2010-12-13, 21:38:15
Und hast du solch einen Monitor? Willst du in absehbarer Zeit in solch einen Monitor investieren?
Man sollte bei diesem Gerede auch immer die Konsequenz beachten.


Was hat das mit mir zu tun, bitte? Gar nix. Es gibt Leute, die so einen Monitor haben. Du entscheidest nicht, welche Settings für wen relevant sind. Soll alles, was du persönlich nicht für sinnvoll erachtest, aus den Tests gestrichen werden?
Ich sage ja: Es wird ALLES gebencht, z.B. bei Computerbase. Dort kann sich dann jeder das für ihn/sie Relevante und Interessante rauspicken. Wir hätten diese Diskussion nicht, wenn die Nvidias stärker wären in hohen Auflösungen...

Iruwen
2010-12-13, 21:38:57
Solange ihr euch gegenseitig ankackt endet die Diskussion nicht, war doch so schön vor ein paar Seiten ;(

boxleitnerb
2010-12-13, 21:41:33
Solange ihr euch gegenseitig ankackt endet die Diskussion nicht, war doch so schön vor ein paar Seiten ;(

Dann beschwer dich bei denen, die "Cherrypicking" gejammert haben ;)

davidzo
2010-12-13, 21:44:50
Warum ist CB dann so groß?
Wieso ist die Bildzeitung so groß? die schreiben auch außerdordentlich schlecht und beinahe nur halbwahrheiten und klatsch. Die Deppen sterben nie...

Schnitzl
2010-12-13, 21:48:20
Du holst dir also eine aktuelle Karte um dann DX10/11 nicht zu verwenden weil du unbedingt mit XP64 vorlieb nehmen willst?
Nächstes Jahr. Im Moment fahr ich noch recht gut mit E8600 + HD5850 und XP64.
Jan/Feb gibts dann nen neuen Zock-Rechner mit SB und - je nachdem wie sich Cayman am Mi präsentiert - 6950 oder 560... und Win7

Ich hätte eben gerne das neue CCC auch auf dem "alten" Rechner gehabt...

Auf jeden Fall bleibt es spannend bis Mittwoch, ob und in wiefern Cayman eine bessere Bildqualität bietet als Barts :)

wosch666
2010-12-13, 21:57:03
Irgendwie habe ich das gefühl, dass das NDA schon heute nacht fällt.

uweskw
2010-12-13, 22:00:47
Vom neliz auf tweakers.net (laut franzen, habe keinen Link) :

[/URL][URL]http://www.abload.de/img/f68d8814-35ad-4930-b64empz.jpg (http://www.abload.de/image.php?img=f68d8814-35ad-4930-b64empz.jpg)
Fast nur 8xAA getestet :ugly:

Aber wie auch immer: auch keine wirklich neuen Ergebnisse. Bisl über 570, bisl unter 580.

neliz: everybody seems to forget that these are the 190W benchmarks and that pushing the slider up to 20% higher TDP allows for different results.
__________________

Oder war das auf die 950Mhz Ergebnisse aus Frankreich bezogen??

http://74.200.65.90/showthread.php?t=55313&page=255

AwesomeSauce
2010-12-13, 22:03:46
News des Tages: mit OC werden die Karten schneller:eek:

;D

http://img683.imageshack.us/img683/366/v46ipy.gif (http://img683.imageshack.us/img683/366/v46ipy.gif)

PulsarS
2010-12-13, 22:05:41
hm!

IMHO haben hohe Auflösungen und SGSSAA heute mehr Relevanz als Tesselation - und es wird garantiert auch nicht "unwichtiger".
Das sehe ich auch so.
Wenn ich wählen müsste, dann ganz klar höhere Auflösungen und SGSSAA.
Das bringt eigentlich bei JEDEM Spiel eine bessere Optik.
Die überlegene Tess-Leistung wird eine GF1x0 nicht so oft ausspielen können.
Wenn man Tesselation mit Bedacht einsetzt, dann dürften das nur ganz krasse Ausnahmen werden, die zwischen spielbar (Nvisia) und unspielbar (AMD) entscheiden.

Bin aber auch dafür, dass viele Möglichkeiten durchgebencht werden.
Dann kann ja jeder für sich entscheiden, was davon ihn persönlich anspricht.

Menace
2010-12-13, 22:05:51
http://i54.tinypic.com/1zqaurt.jpg

Aus dem gleichem Link.
http://74.200.65.90/showthread.php?t=55313&page=255

Eggcake
2010-12-13, 22:06:43
Edit: Grml, böser Menace! :D

Ist es denn möglich, dass dieser Regler im derzeitigen Treiber noch gar nicht aktiviert ist bzw. auf der Standardeinstellung festsitzt? Das müsste man ja sehr einfach mit GPU-Z oderso überprüfen können (ob sich der Takt ändert). Ich habe noch kein Bild zu dem Slider gesehen, oder habe ich was verpasst?

AwesomeSauce
2010-12-13, 22:09:42
neliz leakt? Dürfte wohl auch eine Premiere sein...

horn 12
2010-12-13, 22:10:41
Nur mehr eine Frage von Stunden bis alles fällt...

Seht:
http://www.rage3d.com/articles/catalyst_2011_image_quality_investigation/index.php?p=9

Menace
2010-12-13, 22:11:05
Edit: Grml, böser Menace! :D


Mein Nick ist mit Bedacht gewählt. :D

wosch666
2010-12-13, 22:13:48
http://i54.tinypic.com/1zqaurt.jpg

Aus dem gleichem Link.
http://74.200.65.90/showthread.php?t=55313&page=255

Ha! Gestern fiel doch gleich bei den benches aus dem Luxx der enorm schlechte Perlin-Noise Wert auf.

http://3dmark.com/3dmv/2791306
http://3dmark.com/3dmv/2791228

Kann man sich jetzt ja seine eigenen Gedanken machen :-)

deekey777
2010-12-13, 22:15:08
http://forum.beyond3d.com/showpost.php?p=1503033&postcount=6367
Kann jemand mir diese Folie erklären?

hq-hq
2010-12-13, 22:15:13
@ hq-hq

Hier im AMD-Thread? Ich hoffe, er stichelt in Nvidias Threads entsprechend auch über die mangelnde Multimonitor-Unterstützung bzw. den massiven Mehrverbrauch bei unterschiedlichen Monitoren. :rolleyes:

Ich erkenne langsam eher eine andere Tendenz, ich warte aber noch das Fazit von pcgh ab. :biggrin:

ja richtig, da gehört auch ordentlich tief reingebohrt, wenn ich den beamer, ober der jetzt läuft oder net, mit dran hab kann ich es beim surfen nämlich "hören" :freak:

noch zwei tage... *spannung*

@deekey "Kann jemand mir diese Folie erklären?" - da drosselt was den power-boost ;) - muss wohl das tolle teils steuerbare feature sein ;)

davidzo
2010-12-13, 22:15:20
qDildo4u: Vorhin höhntest du noch rum die benches seien ja alle ohne AA und mit würde die 570 dem cayman ganz klar zeigen wo es langgeht. Der Spieß scheint sich umgedreht zu haben. Ohne AA vor der 570, mit AA wird sie einer 580 mächtig gefährlich.
Dein Hinweis auf AA war eine ziemlich peinliche Fehlleistung. Ich an deiner Stelle würde jetzt erstmal die Klappe halten, sonst leistest du dir gleich die nächste Peinlichkeit...

http://www.abload.de/img/f68d8814-35ad-4930-b64empz.jpg (http://www.abload.de/image.php?img=f68d8814-35ad-4930-b64empz.jpg)

Dort wird so gebencht das der V-Ram der 570 überläuft deshalb ist es nicht mit einer 480/580 Vergleichbar.

Das war bei der 5870 auch kein Argument. Passiert übrigens äußerst selten dass der 5870 der VRAm ausgeht, es scheint also sehr unwahrscheinlich dass dies bei der 570 nun plötzlich durchgängig der Fall sein solte. Die schiere regelmäßigkeit sieht mir alles andere aus als nach zu wneig VRAM, dann würde sie viel mehr einbrechen.

Was die Auflösungen angeht: Es wird gebencht was die karten hergeben. Frameziel 30FPS, was nützen mir 80FPS die ich nicht in Bildqualität umsetzen kann weil mir dann der VRAM ausgeht?

Muss man halt alles über 1900*1200 rausrechnen.
es heißt 1920*1200 bzw. besser FullHD bzw. 1080i denn die meisten neuen monitore sind 16:9 nicht 16:10!

Nö wer so zockt kann sich auch ne 480 mit 1.5GB kaufen ist zur Zeit sogar billiger als die 570.
und die 256Mb machens dann aus? Glaubst du doch nicht selber...


Klar nur wird jemand der so viel Kohle für ein TFT mit 2500 Auflösung ausgegeben hat eher zur 580 greifen,für 1900*1200 sollte die 1.3GB der 570 in 95% der Fälle reichen.Dafür kann NV die Karte bald unter 300€ anbieten.

FullHD ist entrylevel. guck mal, selbst die billigen 150€ monitore haben fast ausschließlich FullHD, selbst ein 170€ syncmaster hat schon 2048*1152. Wenn ich 400€ für ne Grafikkarte und 300€ ne potente CPU ausgebe damits auch gut aussieht, dann sind 600€ für das Gerät was ich dann die ganze Zeit anstarre doch peanuts.
Ich kauf mir bestimmt keine neue 400€ Grafikkarte um damit dann auf einer Monitorgurke von Gestern zu zocken.

Nur - wer kauft sich solch einen Monitor?
Das kann Dildo ganz gut beantworten:
High-End User kaufen High-End Hardware den sind 100€ mehr nicht soo wichtig wenn sie dafür das beste bekommen[...]
Gilt auch (erst recht) für Monitore.

Bucklew
2010-12-13, 22:17:27
es heißt 1920*1200 bzw. besser FullHD bzw. 1080i denn die meisten neuen monitore sind 16:9 nicht 16:10!
Wenn schon 1080p, interleaved wird heute schon lange kein Monitor mehr angesteuert.

derguru
2010-12-13, 22:18:07
wenn man nur die 1920*1200 4aa/8aa auflösung nimmt und die 2560*1600 4aa wo der ram nicht limitieren sollte bei der 570 wird die schon gut geknüppelt.

schlecht schneidet die jedenfalls nicht ab.

LovesuckZ
2010-12-13, 22:18:22
Was hat das mit mir zu tun, bitte? Gar nix. Es gibt Leute, die so einen Monitor haben. Du entscheidest nicht, welche Settings für wen relevant sind. Soll alles, was du persönlich nicht für sinnvoll erachtest, aus den Tests gestrichen werden?


Vielleicht mal richtig lesen lernen.
Ich sage klipp und klar: 2560x ist nur dann ein Vorteil, wenn man mindesten gleichwertig wie bei nVidia eine Funktion zum Downsamplen hat oder aber in genauso vielen APIs SSAA erzwingen kann. Ansonsten ist eine Randauflösung für diejenigen, die bereit sind soviel Geld in einen Monitor zu investieren. Und die entscheiden sich dann auch nach der entsprechend schnelleren Grafikkarte.
Ich kann hier mit einer nVidia Karte in zich hunderten Spielen downsamplen. Was macht der AMD-User, der keine 660€ für einen neuen Monitor ausgeben will? Jedesmal XP laden? Oder besser gleich auf XP bleiben?

Menace
2010-12-13, 22:18:47
Naja, der max. Wert der 6850 ist nicht viel besser.

Was mich wundert ist dieser komische schlangeförmige Verlauf des GPU-Clock. Ich dachte das wird eher in Stufen geschaltet.

y33H@
2010-12-13, 22:22:04
http://forum.beyond3d.com/showpost.php?p=1503033&postcount=6367
Kann jemand mir diese Folie erklären?Pööhse App > mehr Saft per PT geben > TDP overrulen > voller Takt > volle Leistung

fondness
2010-12-13, 22:22:43
Ich sage klipp und klar: 2560x ist nur dann ein Vorteil, wenn man mindesten gleichwertig wie bei nVidia eine Funktion zum Downsamplen hat oder aber in genauso vielen APIs SSAA erzwingen kann.

Das soll "klipp und klar" sein?
Dann sage ich "klipp und klar" die Vorteile von NV wären nur dann ein Vorteil wenn man bei den Settings nicht so stark einbrechen würde. :ugly:

Eggcake
2010-12-13, 22:23:23
@Menace
Der Verbrauch wohl schon. Es kann ja sein, dass gewisse Szenen mehr verbrauchen/mehr Last verursachen o.ä. und deshalb wird heruntergetaktet. Ob das wirklich so fliessend geht? Sieht mir schon etwas komisch aus.
Wenn man die FPS betrachtet sind das immerhin ~15%...

Aber auf jeden Fall wurde es gerade etwas spannender :ugly:
Nochmals: der Regler ist bei den derzeitigen Testern im Luxx (bzw. Franzen) noch nicht vorhanden?! Gäbe es denn bereits eine Möglichkeit zu testen, ob da was drosselt oder nicht?
Das wäre jetzt natürlich der Hammer, aber richtig glauben kann ich's nicht bzw. es dürfte höchstens die merkwürdigen Ergebnisse im Luxx erklären - an 570 < 6970 < 580 ändert sich nichts. IMHO ;)

fondness
2010-12-13, 22:24:50
Pööhse App > mehr Saft per PT geben > TDP overrulen > voller Takt > volle Leistung

Hm, keine schlechte Lösung. So kann jeder selbst wählen wieviel Saft er zulassen will, oder ob er auf eine Drosselung verzichtet.

y33H@
2010-12-13, 22:25:31
Den Regler gibt's, nur findet ihn wohl keiner :uclap:

@ fondness

Full ack. Besser als bei HD4k, HD5k oder GTX 5x0.

AwesomeSauce
2010-12-13, 22:25:37
Solange die Taktfrequenz stabil bei 880MHz bleibt, ist die Karte im "1337-P0W3R-Mode". Dürfte ja leicht überprüfbar sein...

Eggcake
2010-12-13, 22:26:02
Den Regler gibt's, nur findet ihn wohl keiner :uclap:

:facepalm: Oh mann

Edit: Aber gut so, bleibt spannend :D

davidzo
2010-12-13, 22:27:05
http://forum.beyond3d.com/showpost.php?p=1503033&postcount=6367
Kann jemand mir diese Folie erklären?

sieht so aus als hätte man intels next gen turbo aus dem sandybridge auf gpus adaptiert.
Man nutzt ein akkumuliertes energiebudget um blitzschnell on the fly den Takt zu verändern.
Das ganze geschieht wie bei Intel nach Bedarf. das heißt insbesondere wenn die szene sehr fordernd ist, also die minFPS Bereiche. Ist der Zustand nicht so kritisch, wird auch nicht übertaktet. Ähnlich wie bei intel dient das wohl zur entlastung der thermischen und elektrischen Lösungen, die da deutlich Träger reagieren und damit so ein "akkumuliertes" Budget zulassen.

Insgesamt erhält man einen homogeneren Frameverlauf. Im Idealfall liegen die minimalen FPS näher an den Average FPS.


wenn man nur die 1920*1200 4aa/8aa auflösung nimmt und die 2560*1600 4aa wo der ram nicht limitieren sollte bei der 570 wird die schon gut geknüppelt.

schlecht schneidet die jedenfalls nicht ab.

Klar, also gleich immer settings mit über 60 FPS, dann hat man ja viel mehr davon!

Karten werden nunmal am Limit gebencht, alles andere macht keinen Sinn. Und wenn das nun meistens eher an 8xAA als an 4xAA liegt, dann wird eben auch mit 8xAA gebencht. Auch wenn ich persönlich einen gesunden mix aus msaa, tssaa und fssaa schön fände, gibt nur wenige seiten die das berücksichtigen.

Spasstiger
2010-12-13, 22:27:49
Irgendwo affig, den 3D-Takt gemäß Spezifikation als Tuningmaßnahme zu bezeichnen, wenn er stabil anliegt.

LovesuckZ
2010-12-13, 22:27:59
Das soll "klipp und klar" sein?
Dann sage ich "klipp und klar" die Vorteile von NV wären nur dann ein Vorteil wenn man bei den Settings nicht so stark einbrechen würde. :ugly:

Ich überlege gerade: Ist SSAA in Lost Planet 2 mit DX11 nutzbar? Ja. Also ein Vorteil. Kann ich Call of Duty:Modern Warfare in 2560x960 mit 16xCSAA und 4xSGSSAA voll flüssig spielen? Ja, also ein Vorteil.

Wieviele Spiele kann ich nativ in 2560x spielen? Null.

Besser ein stärkerer Einbruch als keine Funktion.

Schlammsau
2010-12-13, 22:28:51
Also gehe ich mal stark davon aus, dass 99% der bisher geleakten Benchmarks für den Anus sind. :freak:

:facepalm:

Eggcake
2010-12-13, 22:28:52
Aber das ist wohl auch nur der Fall, wenn man eine Übertaktung zulässt. 800MHz ist ja der Standardtakt der Karte...

@Schlamm
Also das hätte ich dir auch schon vor der Folie sagen können - nur wird dem ganzen noch eins draufgesetzt :ugly:

Raff
2010-12-13, 22:31:06
Also gehe ich mal stark davon aus, dass 99% der bisher geleakten Benchmarks für den Anus sind. :freak:

:facepalm:

Schön wär's, gell? Unwahrscheinlich. ;)

MfG,
Raff

y33H@
2010-12-13, 22:31:20
Solange die Taktfrequenz stabil bei 880MHz bleibt, ist die Karte im "1337-P0W3R-Mode". Dürfte ja leicht überprüfbar sein...Solange ist das Stichwort.
Das ganze geschieht wie bei Intel nach Bedarf. das heißt insbesondere wenn die szene sehr fordernd ist, also die minFPS Bereiche. Ist der Zustand nicht so kritisch, wird auch nicht übertaktet.Es wird nicht über- sondern untertaktet ... sieht man ja auf dem Slide.

Schlammsau
2010-12-13, 22:32:03
Aber das ist wohl auch nur der Fall, wenn man eine Übertaktung zulässt. 800MHz ist ja der Standardtakt der Karte...

@Schlamm
Also das hätte ich dir auch schon vor der Folie sagen können - nur wird dem ganzen noch eins draufgesetzt :ugly:


Und die angezeigten 880Mhz in GPUZ sind dann nur das Maximum!?
Das heisst dann aber wohl noch lange nicht, dass die Karte mit den Taktraten läuft. Ich hau mich wech...... ;D

LovesuckZ
2010-12-13, 22:32:17
Na, das sieht eher nach einem "Überlast-Erkennungsmechanismus" aus. Sobald der Treiber erkennt, dass die TDP überschritten wird, regelt er ab. Ansonsten müsste er in jeder Anwendung sich runterregeln.

fondness
2010-12-13, 22:32:31
Also gehe ich mal stark davon aus, dass 99% der bisher geleakten Benchmarks für den Anus sind. :freak:

:facepalm:

Würde ich nicht sagen. In der Regel dürfte man die TDP schließlich nicht überschreiten, sondern nur bei "bösen Apps".

Schlammsau
2010-12-13, 22:33:16
Schön wär's, gell? Unwahrscheinlich. ;)

MfG,
Raff

Dann sinds halt "nur" 90%, die man in die Tonne kloppen kann. :smile:

Menace
2010-12-13, 22:33:27
Ich bin etwas verwirrt. Die pcgh-Jungs sagten doch (sofern ich mich richtig erinnere), dass der Schieberegler für das Übertakten notwendig ist. Wenn ich den Verlauf der Folie betrachtet ändert er eher die Auswahl des Untertaktens (0 es wird viel untertaktet --> +20% Standardtakt). Soweit richtig?

Und wenn die schon den Schalter nicht finden, was machen dann die 08/15 Käufer? ;D

Edit: Danke, wurde ja jetzt erklärt.

Spasstiger
2010-12-13, 22:34:44
Und die angezeigten 880Mhz in GPUZ sind dann nur das Maximum!?
Exakt. Der Chiptakt gemäß Spezifikation liegt auch in 3D-Anwendungen nur sporadisch und nicht dauerhaft an. Aber wahrscheinlich läuft es wie bei NV, so dass man nicht den Takt senkt, sondern NOP-Zyklen reinschiebt. Alles andere führt zu erheblichen Timing-Problemen.

Schlammsau
2010-12-13, 22:35:32
Exakt. Der Chiptakt gemäß Spezifikation liegt auch in 3D-Anwendungen nur sporadisch und nicht dauerhaft an.
:hammer:

LovesuckZ
2010-12-13, 22:36:06
Exakt. Der Chiptakt gemäß Spezifikation liegt auch in 3D-Anwendungen nur sporadisch und nicht dauerhaft an.

Natürlich liegt der Chiptakt dauernd an. Das wäre ansonsten eine Veräpplung am Kunden.

Eggcake
2010-12-13, 22:36:17
@Menace

Er limitiert den Verbrauch. Bei Benches (in Spielen wohl unwahrscheinlich) welche einen extrem hohen Verbrauch verursachen (über dem Limit), wird heruntergetaktet. Dieses Limit kann man halt anheben, sodass auch in diesen Anwendungen die normalen Taktraten anliegen.
PCGH hat in diesem Fall ja auch Recht: beim Übertakten dürfte der Verbrauch schneller/auch bei Spielen erreicht werden, wodurch ein Anheben des Limits ziemlich sicher notwendig wird.

Jetzt ist die Frage, ob die 6970 auch in Games mehr als 190W zieht (die 190W ist ja die "TGP", wohl das Defaultlimit bei der 6970). Wenn nicht ändert auch der olle Schieber nix am Resultat. Bei den synth. Benches könnte es aber durchaus was ausmachen - die interessieren aber weniger ^^

Spasstiger
2010-12-13, 22:36:54
Natürlich liegt der Chiptakt dauernd an. Das wäre ansonsten eine Veräpplung am Kunden.
Ja, er liegt eigentlich schon dauerhaft an, aber es wird nicht jeder mögliche Zyklus mit einer Operation gefüllt, solange man nicht Powertune auf +10% Power stellt.

/EDIT: Da man die Einheiten für den NOP-Zeitraum aber sicher per Clock-Gating von der Taktversorgung trennt (eben um den Stromverbrauch zu senken), liegt der Takt doch nicht dauerhaft an.

derguru
2010-12-13, 22:37:07
Klar, also gleich immer settings mit über 60 FPS, dann hat man ja viel mehr davon!

Karten werden nunmal am Limit gebencht, alles andere macht keinen Sinn. Und wenn das nun meistens eher an 8xAA als an 4xAA liegt, dann wird eben auch mit 8xAA gebencht. Auch wenn ich persönlich einen gesunden mix aus msaa, tssaa und fssaa schön fände, gibt nur wenige seiten die das berücksichtigen.
wenn es mal so wäre,das macht doch fast keiner.

dildo4u
2010-12-13, 22:37:37
Der Perli Noise teste wird von der Karte wie Furmark behandelt unregelt ab es gibt aber so gut wie keine Games die an die Auslastung rankommen.

Schlammsau
2010-12-13, 22:38:15
Dildo erklärt uns die Welt..... :uclap:

dildo4u
2010-12-13, 22:39:39
Dildo erklärt uns die Welt..... :uclap:
Genau das passiert deshalb ist genau der Test langsamer als bei der 5870.Die Karte wird langsamer(Wenn die Auslastung zu hoch ist) aber nicht schneller durch das Powertune Limit.

mapel110
2010-12-13, 22:39:49
Es wird nicht über- sondern untertaktet ... sieht man ja auf dem Slide.
Es geht also bequem noch langsamer. Sehr schön. :ugly:

PCGH_Redaktion PC Games Hardware
Catalyst ahoi! Auf allen drei Testsystemen geht das CCC nicht mehr ...

Hat ATI wieder ganze Arbeit geleistet.

btw www.pcgameshardware.de fucked up?!

AwesomeSauce
2010-12-13, 22:40:04
Der Thread ist echt besser als jede manche Sitcoms;D Ich amüsier mich köstlich hier:D

LovesuckZ
2010-12-13, 22:40:11
Jetzt ist die Frage, ob die 6970 auch in Games mehr als 190W zieht (die 190W ist ja die "TGP", wohl das Defaultlimit bei der 6970). Wenn nicht ändert auch der olle Schieber nix am Resultat.

Nein, das Default-Limit ist 250 Watt. Das TPG ist der durchschnittliche Verbrauch. Ansonsten würde AMD die 6970 auch mit 2xPin Anschlüssen ausliefern.

davidzo
2010-12-13, 22:40:32
Na, das sieht eher nach einem "Überlast-Erkennungsmechanismus" aus. Sobald der Treiber erkennt, dass die TDP überschritten wird, regelt er ab. Ansonsten müsste er in jeder Anwendung sich runterregeln.

das klingt ja wie bei der 580.
ich hoffe dass es nicht so ist. Die Karte gerade wenn sie mit mehr Last arbeitet (niedrige FPS, anspruchsvolle Szene) zu untertakten wäre äußerst schlecht für die minFPS.

Ziel ist es doch möglichst homogen hohe Frameraten zu schaffen, nicht die bestehende starke Fluktuation noch zu verstärken. So verzweifelt sehe ich AMD was die TDP angeht eigentlich noch nicht, ich hoffe eher, dass man eben in den überflüssigen Bereichen, wo sowieso genug Leistung vorhanden ist die Power sparen möchte. Schließlich gibt es methoden die Leistung zu akkumulieren und dann abzurufen, also ein bidget auszunutzen. Der zeitfaktor ermöglicht da ganz neue power features.

Da der Schalter nur zwei Stellungen hat, es für den Turbo aber drei settings gibt denke ich das es ein ein- und ausschalter ist. Damit kann man den überwachungschip einfach ausstellen, d.h. dem untertakten nach bedarf ein Ende bereiten.


btw www.pcgameshardware.de fucked up?!
tatsache, die Seite scheint völlig zerhäckselt zu sein und css fehlt wohl, der font ist bei mir times uärgh.
scheint was mit den großen Anzeigen von Saturn da links zu sein, die dürften bei mir wegen adblock gar nicht erscheinen. was solls, mich wunderts nicht, 90% von neuen javascript+ajax features und die ganzen bandbreitenverbesserungen unserer Leitungen sind doch sowieso nur für neue noch nervigere Werbung.

deekey777
2010-12-13, 22:40:50
Pööhse App > mehr Saft per PT geben > TDP overrulen > voller Takt > volle Leistung
Ich kriege also mit der Standardeinstellung keinen vollen Takt?
http://www.geeks3d.com/20101212/amd-radeon-hd-6970-and-hd-6950-complete-specs-and-3dmark11-scores/
Oder ist PN ein Powervirus?

uweskw
2010-12-13, 22:40:51
neliz:
Quote:
Originally Posted by hurrdurr http://www.xtremesystems.org/forums/images_black/buttons/viewpost.gif (http://www.xtremesystems.org/forums/showthread.php?p=4665329#post4665329)
I guess you are mistaken in assuming that with the 250W mode enabled, it automatically ups the clocks; whereas SKYMTL has said that it merely ups the TDP limit (that didn't exist until this point, anyway) and allows for more overclocking.
neliz answer:
No, I don't say it automatically ups the clocks, it has a default clock and the tdp limit is there to make sure it doesn't go over it, hence the redline at 800 MHz, while at default TDP the card will fluctuate between 650 and 800 (more 650 than 800) and thus limit performance.
http://www.xtremesystems.org/forums/images_black/statusicon/user_online.gif http://www.xtremesystems.org/forums/images_black/buttons/quote.gif (http://www.xtremesystems.org/forums/newreply.php?do=newreply&p=4665336)http://www.xtremesystems.org/forums/showthread.php?t=261195&page=127

Wird ja doch nochmal spannend. Wenn sich noch was mit der BQ getan hat..

fondness
2010-12-13, 22:40:53
Der Perli Noise teste wird von der Karte wie Furmark behandelt unregelt ab es gibt aber so gut wie keine Games die an die Auslastung rankommen.

Jede Anwendung wird gleich behandelt, entscheidend ist einzig und alleine der Stromverbrauch beim jeweiligen Frame, und wann gedrosselt wird lässt sich individuell regeln. Das ist der Unterschied zu NV die per Treiber willkürlich drosseln müssen.

Spasstiger
2010-12-13, 22:41:43
Eigentlich sollte das Feature nicht Powertune, sondern Power-Throttle heißen.

Gestrandet
2010-12-13, 22:42:19
Wenn schon 1080p, interleaved wird heute schon lange kein Monitor mehr angesteuert.
Das heißt interlaced, Amiganer wissen das! (OMG seit frühester Jugend taumele ich von einer radikalen Sekte zur nächsten :biggrin: )
Mit interleaved liegst du aber auch nicht ganz falsch (auch wenn das wahrscheinlich Zufall ist ^^)

AwesomeSauce
2010-12-13, 22:42:49
@Spasstiger
Das klassische "Honig vs. Bienensabber"-Problem:D

Langenscheiss
2010-12-13, 22:44:38
Exakt. Der Chiptakt gemäß Spezifikation liegt auch in 3D-Anwendungen nur sporadisch und nicht dauerhaft an. Aber wahrscheinlich läuft es wie bei NV, so dass man nicht den Takt senkt, sondern NOP-Zyklen reinschiebt. Alles andere führt zu erheblichen Timing-Problemen.

Geh ich auch von aus. Ich konnte diese NOP-Zyklen durch Zufall bei meinem Cypress beobachten (zumindest glaube ich das), denn irgendwie gabs n etwas schlechten Kontakt bei der Stromversorgung. Aber anstatt eine Warnung rauszugeben waren plötzlich alle 3D-Anwendungen deutlich langsamer (Crysis langsamer als auf ner 8800GTX!), ohne das sich dabei der Last-Takt abgesenkt hatte. Hab einmal das Stromkabel der Graka entfernt und wieder angeschlossenen, und tada, es lief tadelos. Ich gehe jetzt mal davon aus, dass da sowas ähnliches am Werk war/ist, kann aber auch noch ein zusätzlicher Mechanismus sein, der die Karte ausbremst.

fetthund
2010-12-13, 22:48:03
Eigentlich sollte das Feature nicht Powertune, sondern Power-Throttle heißen.
;D

Eggcake
2010-12-13, 22:48:43
Mh aber bei der ollen Grafik steht ja eindeutig Clock...

dildo4u
2010-12-13, 22:49:29
Jede Anwendung wird gleich behandelt, entscheidend ist einzig und alleine der Stromverbrauch beim jeweiligen Frame, und wann gedrosselt wird lässt sich individuell regeln. Das ist der Unterschied zu NV die per Treiber willkürlich drosseln müssen.
Und das musste eingebaut werden weil AMD endlich den richtigen R600 Nachfolger gebaut hat Fermi ist ein Dreck dagegen ohne Limit gibt's bei Computeanwedungen bestimmt neue Verbrauchsrekorde.

Eggcake
2010-12-13, 22:50:05
Nein, das Default-Limit ist 250 Watt. Das TPG ist der durchschnittliche Verbrauch. Ansonsten würde AMD die 6970 auch mit 2xPin Anschlüssen ausliefern.

All the benchmarks you see are for the 190W TDP limited card, you can still adjust the card to 250W TDP (closer to the 580), what do you think it would do with the performance numbers?
http://www.xtremesystems.org/forums/showthread.php?p=4665277#post4665277

LovesuckZ
2010-12-13, 22:51:53
das klingt ja wie bei der 580.
so funktioniert das aber glaube ich nicht. Die Karte gerade wenn sie mit mehr Last arbeitet (niedrige FPS, anspruchsvolle Szene) zu untertakten wäre äußerst schlecht für die minFPS.

Ziel ist es doch möglichst homogen hohe Frameraten zu schaffen, nicht die bestehende starke Fluktuation noch zu verstärken. So verzweifelt sehe ich AMD was die TDP angeht nun nicht, ich glaube eher, dass man eben in den überflüssigen Bereichen, wo sowieso genug Leistung vorhanden ist die Power sparen möchte.

Da der Schalter nur zwei Stellungen hat, es für den Turbo aber drei settings gibt denke ich das es ein ein- und ausschalter ist. Damit kann man den überwachungschip einfach ausstellen, d.h. dem untertakten nach bedarf ein Ende bereiten.


Dann soll AMD einen FPS Limiter einbauen. Mit einer festen FPS Anzahl, bleibt alles homogen - bis auf die Taktung...
Es ist einfach nur ein Mechanismus, um sicherzustellen, dass bestimmte Anwendungen nicht über das voreingestellte Limit gehen. Doofe PR und so.

Schlammsau
2010-12-13, 22:52:31
http://www.xtremesystems.org/forums/showthread.php?p=4665277#post4665277

Einfach nur Mega:lol:

fondness
2010-12-13, 22:52:47
Und das musste eingebaut werden weil AMD endlich den richtigen R600 Nachfolger gebaut hat Fermi ist ein Dreck dagegen ohne Limit gibt's bei Computeanwedungen bestimmt neue Verbrauchsrekorde.

Ich glaube du verwechselst da was. :ugly:
Die GTX580 sprengt locker die 300W ohne Limit im Furmark.

Schlammsau
2010-12-13, 22:53:46
Ich glaube du verwechselst da was. :ugly:
Die GTX580 sprengt jedenfalls locker die 300W ohne Limit im Furmark.

Das ist die selektive Wahrnehmung von Dildo und er merkt das noch nicht einmal!

Irgendwo gibts doch ne Grafik, die zeigt wie hoch der Stromverbrauch einer 580 ohne Limiter sein kann.

Eggcake
2010-12-13, 22:54:07
Wie dem auch sei, ein Poster aus dem XS-Forum trifft's auf den Punkt:
i will wait for the 15th so that we can figure out exactly what this whole power tune AM/FM radio switch power saving maybe turbo boost stuff is.

So will I :ugly:

Wohl nich :S

Gestrandet
2010-12-13, 22:54:13
Was ist denn an dem Powertune so schwer zu verstehen? neliz hat es doch super erklärt. Und es heißt ja auch Powertune und nicht Clocktune ... man kann damit nicht den Maximaltakt nach oben schrauben, aber das Integral der Taktfrequenz über dem Zockzeitraum vergrößern. Das ist jetzt wirklich keine Raketenwissenschaft. Aber immer über die Luxxer herziehen ...

Spasstiger
2010-12-13, 22:54:31
Mh aber bei der ollen Grafik steht ja eindeutig Clock...
Wenn man 8 µs lang 800 MHz anlegt und 2 µs lang 0 MHz (Clock-Gating), dann hat man in 10 µs 640 Zyklen, was "makroskopisch" wie 640 MHz aussieht.
Wenn AMD den Takt regeln würde, hätte man Sprünge in der Kurve, weil sich der Chiptakt immer aus einem Referenztakt (Quarz) und einem Multiplikator ergibt.

LovesuckZ
2010-12-13, 22:56:38
http://www.xtremesystems.org/forums/showthread.php?p=4665277#post4665277

Glaubt hier jemand ernsthaft, dass AMD einen Switch einbaut, der sie erstmal langsamer macht, nur dann die Empfehlung an die Reviewer rauszugeben, diesen bitte umzulegen?
Die verkaufen die 6970 mit einem 1x8Pin und 1x6Pin Anschluss. Das sagt doch schon, dass die 250 Watt eben das default-Limit darstellen.

/edit: Der Typ mit einer 6970 im Luxx-Forum hat einen verbrauch gemessen, der sehr gut zu den 190 Watt passt.

davidzo
2010-12-13, 22:56:42
Und das musste eingebaut werden weil AMD endlich den richtigen R600 Nachfolger gebaut hat Fermi ist ein Dreck dagegen ohne Limit gibt's bei Computeanwedungen bestimmt neue Verbrauchsrekorde.

du schon wieder mit so einem bildzeitungsspruch.

Klar würdest du das gerne so hinstellen als wenn nvidia ohne es zu wollen gegen eine Wand gelaufen ist die AMD nun auch bevorsteht, nvidia kann also gar nichts dafür und bald sehen alle mitbewerberkarten so aus wie Thermi.
ich mag dich mal erinnern, dass die GTX580 (244W TDP immernoch mehr verbraucht als ne 5970(294W) TDP. Vielleicht existieren in den Firmen (nv und AMD) einfach unterschiedliche ansichten und prioritäten was das Thema energieverbrauch angeht.

Ich kann mir nicht vorstellen, dass AMD das so angeht wie nvidia und einfach ein anderes Lineal nimmt, wenn das alte eine zu hohe TDP anzeigt. Gerade power ntune zeigt, dass man sich ernsthafter mit Verbrauchsszenarien auseinandersetzt als das bei nvidia derzeit der Fall ist.

y33H@
2010-12-13, 22:57:00
Ich kriege also mit der Standardeinstellung keinen vollen Takt?
http://www.geeks3d.com/20101212/amd-radeon-hd-6970-and-hd-6950-complete-specs-and-3dmark11-scores/
Oder ist PN ein Powervirus?In diesem Fall - ja.

horn 12
2010-12-13, 22:57:23
Wie lange ist die HD6970, und die HD6950 exakt gleich lang wie der große Bruder ?

Schlammsau
2010-12-13, 22:57:56
Ich gehe davon aus, dass Defaultmässig ne TDP von 190W eingestellt ist.

derguru
2010-12-13, 22:58:13
http://www.xtremesystems.org/forums/showthread.php?p=4665277#post4665277
hmm ,dann ist also noch mehr drin als schon auf letzten benchfolie.

Wie lange ist die HD6970, und die HD6950 exakt gleich lang wie der große Bruder ?
27cm die große,die kleine k.a.

LovesuckZ
2010-12-13, 22:59:01
In diesem Fall - ja.

Komisch, Furmark zieht ca. 80 Watt mehr mit einer GTX580...

fondness
2010-12-13, 22:59:42
Ich gehe davon aus, dass Defaultmässig ne TDP von 190W eingestellt ist.

Ich nicht, dazu passen die Aussagen der PCGH-Leute über den Stromverbrauch nämlich nicht.

y33H@
2010-12-13, 23:00:10
Someone from MSI did benchmarks? I surely hope not because releasing those numbers would be a breach of NDA and have serious impact on the allocation. here's some food for thought. All the benchmarks you see are for the 190W TDP limited card, you can still adjust the card to 250W TDP (closer to the 580), what do you think it would do with the performance numbers? Bricht er kein NDA, wenn er Dinge wie Powertune, BIOS usw. erläutert und Slides zeigt? Und naja, die letzte Frage gießt unnötigerweise Öl ins Feuer ...

Nakai
2010-12-13, 23:00:35
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8439305&postcount=2903

Was wird denn alles durch dieses Tool beeinflusst? Nur der Takt oder auch mehr? Einheitenzahl?

250W wären 31% mehr als 190W.
Das wäre in etwa 15% mehr Takt, also 15% Mehrperformance.;)


mfg

Soviel wäre wohl maximal drin.;)


mfg

Spasstiger
2010-12-13, 23:01:01
Würde Powertune @ default für Verbrauch = max. TDP stehen, dann wäre es ein komischer Zufall, dass man zeitgleich mit Powertune die Angabe "TGP" (Typical Gaming Power) einführt.
Powertune @ default steht imo für Verbrauch = TGP.

/EDIT: Neliz hats ja auch nochmal genauso erläutert.

y33H@
2010-12-13, 23:01:14
Spasstiger, du bist mein Held :love3:

Spirou
2010-12-13, 23:01:34
Stimmt, Crysis ist ja bekanntlich voll die Fermi-Domäne ;(Schreib die Jungs doch mal an, daß da ein Bug drin ist. Der String: "It's meant to be played on ATI graphic cards" ist irgendwie abgeschnitten, und die möchten das doch bitte endlich mal in Ordnung patchen, damit man die freundliche Empfehlung von Nvidia besser lesen kann :D

Eggcake
2010-12-13, 23:01:45
Wenn man 8 µs lang 800 MHz anlegt und 2 µs lang 0 MHz (Clock-Gating), dann hat man in 10 µs 640 Zyklen, was "makroskopisch" wie 640 MHz aussieht.


Ok, hast wohl Recht!


@LovesuckZ
Hast du einen Link zur Messung parat?

@Spasstiger
Meine ich auch (das wären dann die 190W wenn ich dich richtig verstanden habe).

Nakai
2010-12-13, 23:03:32
Ach, egal...löschen bitte!^^ ;)

LovesuckZ
2010-12-13, 23:04:09
@LovesuckZ
Hast du einen Link zur Messung parat?

Ich kann auf meinen Rechner "verlinken". ;)
Ansonsten: Übersetzt euch doch mal "Typical Gaming Power". Stünde dies für "Maximale Spieleaufnahme", würde AMD es auch anders bezeichnen.

Gestrandet
2010-12-13, 23:04:51
@LS: es ist doch _wirklich_ nicht so schwer zu verstehen ...
190W: Cayman führt die Perf./Watt-Tabelle deutlicher an als der BVB die Bundesliga.
250W: Cayman hätte die absolute Performancekrone (Perf./W nat. auch immer noch, aber weniger deutlich), wenn, ja wenn die GTX580 nicht inzwischen rausgekommen wäre.
Ob und wenn ja in welchen Fällen er sie vielleicht doch noch schnappen kann, das lest ihr am besten demnächst bei PCGH, dem freundlichen Hardwaretestmagazin eures Vertrauens, nach! :)
</werbung>

Vebrauch steigt doch quadratisch mit dem Taktanstieg, oder etwa nicht?
Nein!! Linear zum Takt, quadratisch zur Spannung (die nat. oft mit hoch muss, wenn der Takt hoch geht -> die Spannungserhöhung ist das, was weh tut).

Was mich doch etwas wundert: Auf der Folie, die neliz gepostet hat, ist der Leistungsanstieg überproportional zum Anstieg des Power Budgets ... kann eigentlich nicht sein, oder?!?
Vermutung: Die Folie ist falsch, das muss dort +10% und +20% heißen statt +5% und +10%.

y33H@
2010-12-13, 23:05:06
sqrt(31) ~ 15

Vebrauch steigt doch quadratisch mit dem Taktanstieg, oder etwa nicht? :confused:Nö, das ist ein sich seit ewigen Zeiten haltender Irrtum. Exponentiell, ja - aber nicht quadratisch :freak:

Lassen wir das ...

Spasstiger
2010-12-13, 23:06:58
Vebrauch steigt doch quadratisch mit dem Taktanstieg, oder etwa nicht? :confused:
Nur, wenn man mit dem Takt auch die Spannung ändert (und man sich im linearen Arbeitsbereich der Transistoren befindet) ... und dann ist der Zusammenhang kubisch (P ~ f*U² ~ f³).
Das ist hier aber imo nicht der Fall, da man entweder Clock Gating (0 MHz, 0 Volt) oder vollen Takt mit voller Spannung hat. D.h. der Verbrauch der Einheiten, die vom Clock Gating betroffen sind, hängt linear vom "makroskopischen" Takt ab.

/EDIT: Evtl. gibt es auch verschiedene Takt- und Spannungsstufen, die geregelt umgeschaltet werden können (spricht im Rahmen eines Protokolls). Das geht aber natürlich nicht dynamisch mit jedem Takt, sondern erfordert eine gewisse Zeitspanne, in der eine Taktstufe konstant anliegt, und eine gewisse Anzahl von Leerzyklen für den Umschaltvorgang. Diese Methode ist etwas komplexer zu realisieren, hat aber den Vorteil, dass die Performance pro Watt deutlich ansteigt.

In jedem Fall wird man unter Garantie eine digitale Methode haben, die nur makroskopisch so wertekontinuierlich wie in der AMD-Grafik aussieht.

fondness
2010-12-13, 23:09:08
190W: Cayman führt die Perf./Watt-Tabelle deutlicher an als der BVB die Bundesliga.
250W: Cayman hätte die absolute Performancekrone

Das lässt sich sicher nicht verallgemeinern, denn der Verbrauch wird ja nur gedrosselt wenn der Wert überschritten werden würde. Dh auf die Perf./Watt hat das nur einen Einfluss wenn die 190W nicht reichen.

y33H@
2010-12-13, 23:11:34
Ich hatte Perf/Watt bereits erläutert. Cayman >= GF110

Quaker
2010-12-13, 23:12:10
Vielleicht werden am Mittwoch erst die finalen Firmwares an die Tester gesendet die dann gewisse Limitirungen und Features der Karte freischaltet.
Das wär doch mal cool, darum sind sie jetzt auch so erpicht darauf das keine verfrühten Benches ins Netz kommen. :)

y33H@
2010-12-13, 23:12:47
Und wie sollen die Tester dann noch testen? 4get !t.

Gestrandet
2010-12-13, 23:13:19
Nö, das ist ein sich seit ewigen Zeiten haltender Irrtum. Exponentiell, ja - aber nicht quadratisch
Was willst du denn damit sagen?

Nakai
2010-12-13, 23:19:27
Nur, wenn man mit dem Takt auch die Spannung ändert (und man sich im linearen Arbeitsbereich der Transistoren befindet) ... und dann ist der Zusammenhang kubisch (P ~ f*U² ~ f³).
Das ist hier aber imo nicht der Fall, da man entweder Clock Gating (0 MHz, 0 Volt) oder vollen Takt mit voller Spannung hat. D.h. der Verbrauch der Einheiten, die vom Clock Gating betroffen sind, hängt linear vom "makroskopischen" Takt ab.

/EDIT: Evtl. gibt es auch verschiedene Takt- und Spannungsstufen, die geregelt umgeschaltet werden können (spricht im Rahmen eines Protokolls). Das geht aber natürlich nicht dynamisch mit jedem Takt, sondern erfordert eine gewisse Zeitspanne, in der eine Taktstufe konstant anliegt. Diese Methode ist etwas komplexer zu realisieren, hat aber den Vorteil, dass die Performance pro Watt deutlich ansteigt.

Danke für die ausführliche Erläuterung.

Das wirft natürlich ein etwas andres Licht auf die Leaks bis jetzt.

uweskw
2010-12-13, 23:23:14
Rage 3D mit einem Artikel zur Bild-Qualität und dem neuen CCC

http://www.rage3d.com/articles/catalyst_2011_image_quality_investigation/

Erwähnt aber leider kein Tool das SSAA bei AMD auch unter CX 10/11 ermöglichen würde.

Langenscheiss
2010-12-13, 23:23:39
@Gestrandet, y33h
Was denn nu, linear oder exponentiell? Ich mein quadratisch zur Spannung ist schon klar...

wosch666
2010-12-13, 23:27:24
Langsam wird es eng mit Features und Benchmarks die am Mi noch kommen sollen.
Wenn sogar neliz frei aus dem Nähkästchen plaudert und y33@ alles so bereitwillig erklärt, dann macht das NDA ja noch total den Sinn.

Kommt um 0 Uhr vielleicht doch schon was/alles?
Wie soll das sonst morgen weiter gehen?

y33H@
2010-12-13, 23:28:06
Das geht weiter, wobei ich nun still bin =)

Spasstiger
2010-12-13, 23:29:57
Wenn Takt und Spannung völlig kontinuierlich geregelt werden und die erforderliche Spannung linear vom Takt abhängt (was nur näherungsweise in einem begrenzten Arbeitsbereich gilt!), ist der Zusammenhang zwischen Leistungsaufnahme und Takt weder quadratisch, noch exponentiell, sondern kubisch.

Wenn man aber dynamisch zwischen z.B. 400 MHz @ 0,8 Volt und 800 MHz @ 1,1 Volt umschaltet, dann ist der Zusammenhang natürlich nicht kubisch (und auch nicht expontiell oder quadratisch).

Rechenbeispiel: Der Zieltakt soll bei 640 MHz liegen. Dann kann man z.B. jeweils 5 µs die 800-MHz-Stufe und 6 µs lang die 400-MHz-Stufe anlegen. Der Verbrauch der entsprechend angesteuerten Einheiten ist dann x*(5*800*1,1^2+6*400*0,8^2)=x*6376.
Bei dauerhaft 800 MHz/1,1 Volt ist der Verbrauch x*(5+6)*800*1,1^2=x*10648.
D.h. effektiv 25% mehr Takt und 67% mehr Verbrauch bei den entsprechend angesteuerten Einheiten.
Mit den Stufen Clockgating und 800 MHz läge der Verbrauch bei x*640/800*(5+6)*800*1,1^2=x*8518
Demgegenüber bedeuten die vollen 800 MHz also "nur" 25% mehr Verbrauch (linearer Zusammenhang). Der Ansatz mit den verschiedenen Takt-/Spannungsstufen ist - wie weiter oben bereits von mir erwähnt - effizienter als der Clock-Gating-Ansatz.

/EDIT: Beispielrechnung korrigiert.

Superheld
2010-12-13, 23:33:47
also pcgh hat auch mit Powertune getestet ?

LovesuckZ
2010-12-13, 23:34:33
also pcgh hat auch mit Powertune getestet ?

Natürlich. Ist auch richtig so. Wäre es unproblematisch, würde AMD so etwas ja nicht einbauen, oder?

Superheld
2010-12-13, 23:36:27
jop aber woher solln das manche Kunden wissen das es sowas gibt..

AwesomeSauce
2010-12-13, 23:38:03
SKYMTL zu neliz
I thought you were an editor with cards, yes?What I see is an intent to mislead readers of this thread with a complete assumption. You are taking a graph far out of context. I will say no more.
http://www.xtremesystems.org/forums/showpost.php?p=4665320&postcount=3155

Die Erhöhung der TDP führt nicht zu automatisch höheren Taktraten, sondern ermöglicht lediglich weiteres (wohl manuelles) OC.

I guess you are mistaken in assuming that with the 250W mode enabled, it automatically ups the clocks; whereas SKYMTL has said that it merely ups the TDP limit (that didn't exist until this point, anyway) and allows for more overclocking.
http://www.xtremesystems.org/forums/showpost.php?p=4665329&postcount=3156

wosch666
2010-12-13, 23:38:42
jop aber woher solln das manche Kunden wissen das es sowas gibt..

Ich behaupte mal, dass Kunden, die das nicht wissen auch nicht merken, dass es sowas gibt :-)

sklave_gottes
2010-12-13, 23:39:18
Natürlich. Ist auch richtig so. Wäre es unproblematisch, würde AMD so etwas ja nicht einbauen, oder?

Ich denke eher die haben meistens mit beiden Einstellungen getestet.

Also einmal mit und einmal ohne. Da ja beides dem Kunden zu verfügung steht.

mfg martin

fondness
2010-12-13, 23:42:28
Ich denke eher die haben meistens mit beiden Einstellungen getestet.

Also einmal mit und einmal ohne. Da ja beides dem Kunden zu verfügung steht.

mfg martin

Das dürfte dann gleichzeitig auch der Grund gewesen sein warum AMD den Testern so viel Zeit zum testen gab. ;)

Natürlich. Ist auch richtig so. Wäre es unproblematisch, würde AMD so etwas ja nicht einbauen, oder?

Das Argument würde bei NV ziehen, aber nicht bei AMD. Denn die lassen den User die Wahl ob er die Drossel will. ;)

w0mbat
2010-12-13, 23:45:27
Natürlich. Ist auch richtig so. Wäre es unproblematisch, würde AMD so etwas ja nicht einbauen, oder?

amd baut das ein, damit die karte weniger strom verbraucht. währe wohl unproblematisch für die karte selber wenn sie immer @250W laufen würde, aber nicht für das grüne image dass sich amd aufbauen will.

und wenn es um die reine performance geht sollte man natürlich mit 250W testen.

Fetter Fettsack
2010-12-13, 23:47:18
CB sind auch schwache journalisten. die haben ja keine ahnung was sie dürfen und was nicht. die meisten teile eines solchen ndas sind hierzulande ungültig. cb kuscht da aber einfach, andere schreiben ne nette mail wie sie das rechtlich sehen an AMD zurück und kommen auch nicht gleich auf die rote Liste - nur wenn man bekannt ist immer zu kuschen wenns drauf ankommt wird das auch eingefordert
...CBschwachköpfe...

Findest du nicht, dass du da wohl ein wenig gar zu pauschal etwas doch recht derbes behauptest?
Zumal ich gerne wüsste, warum die Leute bei CB Schwachköpfe sein sollen, weil sie so handeln.

Solche verpflichtungen gelten nur für die von AMD zu verfügung gestellten Informationen, nicht wenn man einen dritten zitiert. wo kämen wir denn dahin wenn die presse nicht mehr zitieren dürfte...

Das wäre ja so als wenn man die Times verklagen dürfte weil sie Wikileaks veröffentlicheungen in ihren Artikeln verarbeiten nur weil sie Amerikaner sind. Wenn man kein US Amerikaner ist gibt es rechtlich auch keinerlei Bestimmungen gegen die man mit so einer Veröffentlichung verstößt, darin sind sich die Juristen ja gegenüber Assange und Wikileaks einig. Selbst als US-Bürger dürfte man einen Großteil der Sachen veröffentlichen, weil das Leck selber, also der Hochverrat ja nur beim Militär+Regierung selber stattfinden kann wo die Dokumente zugänglich sind, der Privatmann tritt ja mit der veröffentlichung erst in Aktion wenn sie draußen sind.

Und dein rechtliches Wissen darüber beziehst du woher?

EDIT: Ok, da war ich zu voreilig, Armaq hat das ohnedies schon erörtert.

wosch666
2010-12-13, 23:48:06
Denke aber auch, dass mit der ungebremsten Einstellung die Karte nicht mehr so ganz sparsam ist und der Verbrauch dann schon SO hoch ist, dass man das lieber nicht als Standard genommen hat.

Wegen ein paar Watt verzichten die nicht auf Balkenlänge.

Das feature ansich finde ich aber wirklich gelungen, weil man keinen Kompromiss mehr eingehen muss beim festlegen der Taktraten und Spannungen.

Jeder soll sich das nehmen was er braucht/haben will.

Spasstiger
2010-12-13, 23:52:06
Das Argument würde bei NV ziehen, aber nicht bei AMD. Denn die lassen den User die Wahl ob er die Drossel will. ;)
Nö, lassen sie nicht. Ab Erreichen der TDP wird auch mit der höchsten Powertune-Stufe gedrosselt - so wie es bei NV per default ist und das auch nur in ausgewählten Anwendungen.

LovesuckZ
2010-12-13, 23:58:22
Das Argument würde bei NV ziehen, aber nicht bei AMD. Denn die lassen den User die Wahl ob er die Drossel will. ;)

Macht null sinn. Es ist eine Sicherheitsvorkehrung. Die sollte nicht deaktiviert werden - außer für Tests, umzusehen, was passiert.
Wenn AMD meint, dass soetwas notwendig ist, um eine reibungslose Funktionsweise zu garantieren, dann sollte dies akzeptiert werden. Genauso wie bei nVidia. Ob man sie mag oder nicht, steht derweil garnicht zur debatte.

Gestrandet
2010-12-13, 23:58:28
Exakt. Man muss das so sehen: ich kauf mir heute eine Karte und kann entspannt mit der Standardeinstellung und optimaler Perf/Watt-Ratio gamen. Und in nem Jahr, wenn es mit der Leistung bei dem einen oder anderen Titel vielleicht schonmal eng wird, muss ich die Karte eben _nicht_ in der Bucht versenken, sondern erkauf mir mit 20% Mehrverbrauch noch ein halbes Jahr Nutzdauer. Wichtig dabei: ich hbe den Mehrverbrauch erst, wenn er wirklich nötig wird! Ich muss mir also nicht vorn vornherein etwas überdimensioniertes zulegen, um es lange nutzen zu können - stattdessen erwerbe ich ein Produkt, dass mit meinen Ansprüchen mitwachsen kann (bis zu einem gewissen Grad natürlich, irgendwann ist halt Schluss).
Ebenso einfach wie genial. Ich muss sagen, bei AMD hat man sich diesmal echt Gedanken gemacht. Nvidia wird es ganz schön schwer haben, da zu kontern. Es könnte sein, dass meine nächste Grafikkarte tatsächlich von AMD kommt.

fondness
2010-12-13, 23:58:59
Nö, lassen sie nicht. Ab Erreichen der TDP wird auch mit der höchsten Powertune-Stufe gedrosselt - so wie es bei NV per default ist und das auch nur in ausgewählten Anwendungen.

Ja, natürlich. Die Frage war aber denke ich so gestellt ob mit PowerTune default getestet wurde oder eben mit max.

fondness
2010-12-14, 00:01:25
Macht null sinn. Es ist eine Sicherheitsvorkehrung. Die sollte nicht deaktiviert werden - außer für Tests, umzusehen, was passiert.
Wenn AMD meint, dass soetwas notwendig ist, um eine reibungslose Funktionsweise zu garantieren, dann sollte dies akzeptiert werden. Genauso wie bei nVidia. Ob man sie mag oder nicht, steht derweil garnicht zur debatte.

Natürlich macht es Sinn. Es ist eine Sicherheitsvorkehrung, aber erst für >250W. Solange man den Wert im Treiber frei wählen kann, kann es per Definition gar keine Sicherheitsvorkehrung sein. Bei NV sieht das natürlich anders aus, hier ist keine Änderung vorgesehen.

Eggcake
2010-12-14, 00:01:30
Naja, den Sinn dahinter verstehe ich immer noch nicht ganz. Es stand ja auch bisher jedem frei seine Karte zu untertakten. Wirklich Sinn macht das jedoch nicht :ugly:
Natürlich cool wenn man's einstellen kann, aber naja. :>

dildo4u
2010-12-14, 00:01:32
Exakt. Man muss das so sehen: ich kauf mir heute eine Karte und kann entspannt mit der Standardeinstellung und optimaler Perf/Watt-Ratio gamen. Und in nem Jahr, wenn es mit der Leistung bei dem einen oder anderen Titel vielleicht schonmal eng wird, muss ich die Karte eben _nicht_ in der Bucht versenken, sondern erkauf mir mit 20% Mehrverbrauch noch ein halbes Jahr Nutzdauer. Wichtig dabei: ich hbe den Mehrverbrauch erst, wenn er wirklich nötig wird! Ich muss mir also nicht vorn vornherein etwas überdimensioniertes zulegen, um es lange nutzen zu können - stattdessen erwerbe ich ein Produkt, dass mit meinen Ansprüchen mitwachsen kann (bis zu einem gewissen Grad natürlich, irgendwann ist halt Schluss).
Ebenso einfach wie genial. Ich muss sagen, bei AMD hat man sich diesmal echt Gedanken gemacht. Nvidia wird es ganz schön schwer haben, da zu kontern. Es könnte sein, dass meine nächste Grafikkarte tatsächlich von AMD kommt.
Bis du unfähig den Takt und die Spannung bei deiner Karte per Hand anzupassen?Die 570 ist wie die 6970 auf max 250TDP beschränkt ergo hast du alle Möglichkeiten zum OC und untertakten auch bei NV Spannung absenken/erhöhen inklusive.

Spasstiger
2010-12-14, 00:01:52
Es gibt auch die Leute, die gerne an die physikalische Grenze ihres erworbenen Stücks Silizium gehen. Und die werden sich mit der Drossel nicht anfreunden können. Es gibt gute Gründe, warum man dem Nutzer die Wahl lassen sollte, ob mehr als TDP geht oder nicht. Evtl. gibts ja auch eine Möglichkeit, Powertune gänzlich zu umgehen.

LovesuckZ
2010-12-14, 00:03:46
Natürlich macht es Sinn. Es ist eine Sicherheitsvorkehrung, aber erst für >250W. Solange man den Wert im Treiber frei wählen kann, kann es per Definition gar keine Sicherheitsvorkehrung sein. Bei NV sieht das natürlich anders aus, hier halt NV keine Änderung vorgesehen.

Natürlich ist es eine Sicherheitsvorkehrung. Sonst wäre sie überhaupt nicht aktiviert bzw. vorhanden.
Okay, ein Gurt im Auto ist natürlich auch keine Sicherheitsvorkehrung - steht ja jedem selbst frei, ihn anzulegen oder nicht. :freak:

Naja, den Sinn dahinter verstehe ich immer noch nicht ganz. Es stand ja auch bisher jedem frei seine Karte zu untertakten. Wirklich Sinn macht das jedoch nicht :ugly:
Natürlich cool wenn man's einstellen kann, aber naja. :>

Die ganzen Drosseln sind perse sinnfrei, wenn man bei den Angaben nicht lügen müsste bzw. Hardware bauen würde, die den Angaben entsprechen. Warum sollte ich meine Karte drosseln wollen, wenn ich doch Leistung will? Ein FPS Limiter wäre die effektivste Drossel von allen...

Gestrandet
2010-12-14, 00:04:33
Bis du unfähig den Takt und die Spannung bei deiner Karte per Hand anzupassen?Die 570 ist wie die 6970 auf max 250TDP beschränkt ergo hast du alle Möglichkeiten zum OC und untertakten auch bei NV Spannung absenken/erhöhen inklusive.
Es scheint doch schwerer zu verstehen zu sein, als ich dachte ...

Mein Gott, natürlich macht eine Begrenzung Sinn ... mehr Leistung zu erlauben, als man an Abwärme abführen kann (selbstgebastelte Kühllösungen lass ich mal außen vor) oder als die SpaWas verkraften wäre kein Dienst am Kunden, das wäre grob fahrlässig! Egal bei welchem Produkt, egal bei welche Hersteller.
Wenn der Motor meines Autos (Vorsicht, Autovergleich!) ein Drehmoment von x Nm bringt, es bei y < x Nm aber schon das Getriebe zerreißt - na dann würd ich mich beim Hersteller aber herzlich bedanken, wenn er da nicht drosselt.

fondness
2010-12-14, 00:06:41
Natürlich ist es eine Sicherheitsvorkehrung. Sonst wäre sie überhaupt nicht aktiviert bzw. vorhanden.
Okay, ein Gurt im Auto ist natürlich auch keine Sicherheitsvorkehrung - steht ja jedem selbst frei, ihn anzulegen oder nicht. :freak:

Danke das du dich wie immer dumm stellt wenn dir was nicht passt. Die Intention dahinter ist offensichtlich, nämlich "green-it" - ich kann sagen wieviel verbraucht werden darf. Wenn man böse ist könnte man sagen AMD will ihre Drossel als Feature verkaufen. ;)

Ab 250W Drossel. 190W-250W PTP. ;)

dildo4u
2010-12-14, 00:06:41
Es scheint doch schwerer zu verstehen zu sein, als ich dachte ...
Es ist für Leute die kein Plan haben ganz nett keine Frage ansonsten hast du wenn du über das Wissen verfügst die Selben Möglichkeiten mit NV.TDP muss man ja auch im Menü verändern genau so schnell kann man ein OC/Underclocking Profil bei NV laden.

fizzo
2010-12-14, 00:06:44
amd baut das ein, damit die karte weniger strom verbraucht. währe wohl unproblematisch für die karte selber wenn sie immer @250W laufen würde, aber nicht für das grüne image dass sich amd aufbauen will.

und wenn es um die reine performance geht sollte man natürlich mit 250W testen.

klingt sinnig, so bleibt es auch weiter spannend =)

LovesuckZ
2010-12-14, 00:09:46
Danke das du dich wie immer dumm stellt wenn dir was nicht passt. Die Intention dahinter ist offensichtlich, nämlich "green-it" - ich kann sagen wieviel verbraucht werden darf. Wenn man böse ist könnte man sagen AMD will ihre Drossel als Feature verkaufen. ;)

Ab 250W Drossel. 190W-250W PTP. ;)

Wow. Und was machst du, wenn du mehr Verbrauch benötigst, weil deine "green-it" Karte nicht genug Frames liefert? Auf Qualität verzichten? Nein warte: Auf SSAA verzichten? :freak:

Superheld
2010-12-14, 00:10:24
man kanns bestimmt ausstellen ;)

Spasstiger
2010-12-14, 00:10:26
Powertune wurde imo eingeführt, um die 300-Watt-Grenze von PCIe 2.x/3.0 besser auslasten zu können (wird bei der HD 6990 relevant). Man verzichtet ja eigentlich auf Effizienz, um die Lücke zwischen TGP und realer Leistungsaufnahme zu verringern.
Dauerhaft 640 MHz und 0,95 Volt wären effizienter als abschnittsweise 400 MHz 0,8 Volt und 800 MHz 1,1 Volt (Werte sind rein fiktiv).

Ich kann mir vorstellen, dass wir bei irgendwann den Fall TGP = TDP sehen werden und damit die Powertune-Stufen faktisch wegfallen.

Spirou
2010-12-14, 00:11:03
Es gilt die Formel: Faktor Spannung = Wurzel aus Faktor Takt, weil die Schaltzeit als Kehrwert aus der Taktfrequenz umgekehrt proportional dem Takt ist, weswegen die gleiche Schaltleistung in verkürzter Schaltzeit zu erbringen ist und die elektrische Leistung das Produkt aus Spannung und Strom.

Folglich wäre bei gleichbleibendem ohmschen Widerstand und gleichbleibendem Wirkungsgrad die Verlustleistung proportional dem Takt. Nun sind Halbleiter aber Heissleiter. Ihr ohmscher Widerstand sinkt bei steigender Temperatur, weswegen sich das Verhältnis zwischen Spannung und Strom ändert. Höhere Taktfrequenzen sind energiereicher, und haben ein anderes Oberwellenspektrum, weswegen die Blindlasten und Leckströme linear mit dem Takt steigen, und der Wirkungsgrad sinkt. Deswegen steigt die Verlustleistung überproportional, was eine Temperaturerhöhung und damit eine weitere Verschlechterung des Wirkungsgrades zur Folge hat.

Den linearen Zusammenhang sieht man nicht, weil die Spannungen ab Werk je nach Chip zw. 10% und 20% über dem notwendigen Wert eingestellt werden, weswegen man die meisten Chips ohne Spannungserhöhung übertakten kann.

Ansonsten stellt man die Spannung um die Wurzel aus dem gewünschten Übertaktungsfaktor ein, und kümmert sich nicht weiter drum. Das mach ich seit über 20 Jahren so, und hab noch nie einen Chip erlebt, der dabei aus der Reihe tanzte.

Gestrandet
2010-12-14, 00:14:02
Es ist für Leute die kein Plan haben ganz nett keine Frage ansonsten hast du wenn du über das Wissen verfügst die Selben Möglichkeiten mit NV.TDP muss man ja auch im Menü verändern genau so schnell kann man ein OC/Underclocking Profil bei NV laden.
Du kennst dich da aus? Das ist super, dann kannst du mir bestimmt mal schnell den Zusammenhang zwischen Verbrauch, Takt und Watt erklären - ich hab das eben nämlich nicht richtig verstanden, wie y33h@ das vorhin mit seinem Expodingens gemeint hat.

LovesuckZ
2010-12-14, 00:14:07
Powertune wurde imo eingeführt, um die 300-Watt-Grenze von PCIe 2.x/3.0 besser auslasten zu können (wird bei der HD 6990 relevant). Man verzichtet ja eigentlich auf Effizienz, um die Lücke zwischen TDP/TGP und realer Leistungsaufnahme zu verringern.
Dauerhaft 640 MHz und 0,95 Volt wären effizienter als abschnittsweise 400 MHz 0,8 Volt und 800 MHz 1,1 Volt (Werte sind rein fiktiv).

Nein, man will nicht über 300 Watt kommen, das selbe macht doch auch nVidia - auch wenn sie bei 310 am Ende liegen.
Die 250 Watt sind nur da, um zu sagen: Du kannst jetzt nochmal +5%, +10%, +whateverprozent dazugeben. Vollkommen sinnlos. Bleibt man unter 250 Watt bei der 6970 hat man nichts davon. Denn man will Leistung haben. Und die erhält man nur bei entsprechender Stromaufnahme. Simples Prinzip, leider aufgrund von PR durch diese Art von Drossel ad absurdum geführt.

fizzo
2010-12-14, 00:16:01
PR:

http://img100.imageshack.us/img100/928/fot023.jpg

Spasstiger
2010-12-14, 00:16:12
Nein, man will nicht über 300 Watt kommen, das selbe macht doch auch nVidia - auch wenn sie bei 310 am Ende liegen.
Du hast mich nicht richtig verstanden. Man will unter 300 Watt bleiben. Aber nicht in der Form, dass man 50% der Zeit unter 250 Watt bleibt, sondern in der Form, dass man 99% der Zeit zwischen 290 Watt und 300 Watt bleibt. Und genau das erreicht man mit diesen Throtteling-Maßnahmen. Cayman besitzt diese Technik, weil sie bei der Radeon HD 6990 relevant wird.
Das hat nix mit dem Green-IT-Gedanken zu tun, sondern ist ein raffiniertes Nutzen der Spezifikation, um die Leistungsaufnahme und die Performance effektiv doch anheben zu können.

Iruwen
2010-12-14, 00:16:21
Könnte NV so ein "Feature" :freak: nicht einfach auch nachschieben wenn sie ihren Limiter per Monitoringchip und Treiber steuern?

dildo4u
2010-12-14, 00:17:19
Es scheint doch schwerer zu verstehen zu sein, als ich dachte ...

Mein Gott, natürlich macht eine Begrenzung Sinn ... mehr Leistung zu erlauben, als man an Abwärme abführen kann (selbstgebastelte Kühllösungen lass ich mal außen vor) oder als die SpaWas verkraften wäre kein Dienst am Kunden, das wäre grob fahrlässig! Egal bei welchem Produkt, egal bei welche Hersteller.
Wenn der Motor meines Autos (Vorsicht, Autovergleich!) ein Drehmoment von x Nm bringt, es bei y < x Nm aber schon das Getriebe zerreißt - na dann würd ich mich beim Hersteller aber herzlich bedanken, wenn er da nicht drosselt.
Und deshalb ist die Karte für jemanden der ein Plan von GK hat besser?Ich gehe hier von der Sicht des Wissenden aus.

Gestrandet
2010-12-14, 00:17:37
Nein, man will nicht über 300 Watt kommen, das selbe macht doch auch nVidia - auch wenn sie bei 310 am Ende liegen.
OMG sie schaffen es nichtmal, sich unterhalb der selbstgesteckten Verbrauchsgrenze einzudrosseln - EPIC FAIL!!!11 ;)
*SCNR*

LovesuckZ
2010-12-14, 00:18:02
Du hast mich nicht richtig verstanden. Man will unter 300 Watt bleiben. Aber nicht in der Form, dass man 50% der Zeit unter 250 Watt bleibt, sondern in der Form, dass man 99% der Zeit zwischen 290 Watt und 300 Watt bleibt. Und genau das erreicht man mit diesen Throtteling-Maßnahmen. Cayman besitzt diese Technik, weil sie bei der Radeon HD 6990 relevant wird.

Es gibt nur einen Max-Wert. Es gibt keine Begrenzung. Das TGP hat mit dem Drosseln nichts zu tun, sondern entspricht nur einem repräsentativen Wert aus mehreren Erfassungen. Die 250 Watt sind nur PR-Marketing festgesetzt. Eigentlich könnte man bei 300 Watt dicht machen aufgrund der Spezifikation.

Gestrandet
2010-12-14, 00:20:50
Cool, LS ist Entwicklungsingenieur bei AMD! :D
Wieder was gelernt ...

wosch666
2010-12-14, 00:23:03
Cool, LS ist Entwicklungsingenieur bei AMD! :D
Wieder was gelernt ...

Dann könnte ich verstehen warum er von den AMD-Karten so wenig hällt :-)

Spirou
2010-12-14, 00:23:33
Die Folie ist doch ein ganz billiger Fake. Clamps TDP LOL

Thermal Design Power ist das elektrische Äquivalent der Wärmemenge für die der Kühler und das Case von Ausstattern ausgelegt werden. D. h. das geben die Entwickler vor, um die Betriebstemperatur und die Grenzen der Umgebungstemperatur festzulegen, an die sich andere empfehlungshalber halten sollen. Dabei geht es um Gewährleistungen in Bezug auf Betriebsbedingungen. Die TDP kann man nicht clampen. Genausowenig wie die Anzahl der Personen, die laut Datenblatt im Fahrstuhl mitfahren dürfen.

Clampen kann man die total power consumption. Die gibt aber keiner an, weil sie ohnehin unter der TDP liegt. Wer mehr total power consumption durchjagen möchte, zum Beispiel für Übertaktungszwecke, verantwortet das selbst, und muß seine Kühlung dementsprechend auslegen. So steht es in den PDFs der diversen Hersteller.

Spasstiger
2010-12-14, 00:24:14
Es gibt nur einen Max-Wert. Es gibt keine Begrenzung. Das TGP hat mit dem Drosseln nichts zu tun, sondern entspricht nur einem repräsentativen Wert aus mehreren Erfassungen. Die 250 Watt sind nur PR-Marketing festgesetzt. Eigentlich könnte man bei 300 Watt dicht machen aufgrund der Spezifikation.
Du verstehst nicht, auf was ich hinaus will. Ich denke gerade etwas weiter als Radeon HD 6950/6970. Der Grund für die Einführung des Drosseln ist für mich offensichtlich und hängt mit der PCIe-Begrenzung auf 300 Watt zusammen. Bei der HD 6950/6970 kann man das noch praktischerweise mit einer "Tuning"-Funktion kombinieren, aber das ist in meinen Augen nur ein Nebenprodukt.
Der Green-IT-Gedanke, den Gestrandet rausliest, ist imo nicht gegeben, ganz im Gegenteil. Die Strategie, die mit dem Drosseln verfolgt wird, geht genau in die andere Richtung als Green-IT. Man bekommt jetzt in 300 Watt TDP das unter, wofür kürzlich noch 350 Watt TDP benötigt worden wären. Die durchschnittliche Leistungsaufnahme steigt bei gleichbleibender TDP.
Wenn AMD das, was sie als Nebenprodukt des Drosselns unter dem Namen Powertune vermarkten, hart "eincodieren" würden in Form einer konstant niedrigeren Taktfrequenz und Spannung, wäre man effizienter dran.

P.S.: Aus Ingenieurssicht finde ich das schon spannend, was sich da gerade in Sachen Drosseln tut. Aus Konsumentensicht sehe ich es aber kritisch, weil das Marketing die wahren Motive verschleiert.

Gestrandet
2010-12-14, 00:25:41
hehe ... das war jetzt aber böse! :)
ich bin weg ... und morgen wache ich auf mit der schönen gewissheit, dass es schon wieder ein tag weniger ist, bis die GTX580 verprügelt wird ;)

wosch666
2010-12-14, 00:31:06
Spasstiger hat schon Recht. Erst mit der 6990 wird dieses Feature richtig spassig.
ich begrenze den Verbraucht auf 300W und lege die Karte aber viel grösser aus.
Das Ergebnis ist, dass ich fast immer genau 300W verbrauche und das absolut maximalste aus der Spezifikation raus hole.

Ohne dieses Feature müsste ich die Karte /theoretisch) so auslegen, dass sie auf keinen Fall mehr verbraucht, was meistens dazu führen würde, dass die Karte nicht ganz ausgereizt wird.

dildo4u
2010-12-14, 00:33:29
Spasstiger hat schon Recht. Erst mit der 6990 wird dieses Feature richtig spassig.
ich begrenze den Verbraucht auf 300W und lege die Karte aber viel grösser aus.
Das Ergebnis ist, dass ich fast immer genau 300W verbrauche und das absolut maximalste aus der Spezifikation raus hole.

Ohne dieses Feature müsste ich die Karte /theoretisch) so auslegen, dass sie auf keinen Fall mehr verbraucht, was meistens dazu führen würde, dass die Karte nicht ganz ausgereizt wird.
Games reizen die Karten eh nicht aus das ist eher ne Reaktion auf Computeanwendungen und diverse Lastprogramme.

Labberlippe
2010-12-14, 00:34:27
Mal eine Frage an die Community:

AMD bitte um die Herunternahme des Cayman-Artikels von 3DC. Ich halte das für zwecklos, zudem widerspricht es unserer Aufgabe als journalistisches Angebot, Informationen zurückzuhalten (3DC ist nicht unter NDA). Aber natürlich kann man es sich mit AMD verderben und zumindest die AMD-Folien sind rechtlich eventuell angreifbar. Frage: Herunternehmen der Folien (ganzen Artikel werde ich definitiv nicht herunternehmen) oder stur bleiben?

Hi

Ganz ehrlich.
Hat AMD euch nicht quasi die Samples verweigert, weil die Angst hatten das der Artikel nicht positiv genug wird.?

Ich persönlich würde es nicht machen.
Vorallem wenn ich unter keinen NDA stehe und meine Meinung mit den zusammen getragen Infos kundtue.
Betteln dürfen Sie ja.
Du kannst ja sagen das Du das gerne den Artikel b.z.w Folien Off nimmst, aber im Gegenzug dafür gerne in Zukunft mehr Informationen bekommst.

Sozusagen als guten Willen.

Gruss Labberlippe

wosch666
2010-12-14, 00:36:18
Games reizen die Karten eh nicht aus das ist eher ne Reaktion auf Computeanwendungen und diverse Lastprogramme.

Ich rede ja von Antilles und der Vorgabe, dass man offiziell bei der 300W Spezifikation bleiben will

Spasstiger
2010-12-14, 00:37:05
Vielleicht gabs ja von der PCI-SIG für die HD 4870 X2 auf den Deckel, die hat bis zu 370 Watt geschluckt (Furmark).

dildo4u
2010-12-14, 00:39:10
Ich rede ja von Antilles und der Vorgabe, dass man offiziell bei der 300W Spezifikation bleiben will
Auch die Karte nutzt den selben Chip der unter Games nicht mal ansatzweise ausgelastet wird.Der Begrenzer ist ne Reaktion darauf wie massiv der Unterschied in der Auslastung von Games zu Computeanwendungen ist.

wosch666
2010-12-14, 00:41:44
Auch die Karte nutzt den selben Chip der unter Games nicht mal ansatzweise ausgelastet wird.Der Begrenzer ist ne Reaktion darauf wie massiv der Unterschied in der Auslastung von Games zu Computeanwendungen ist.

Du hast nicht verstanden was spasstiger meint.
Ich gebe den Referenztakt so an, dass die Karte im Max vielleicht nicht 300W, sondern 380W verbrauchen würde, was z.B. bei Computeranwendungen passieren würde.
Durch Powertune erreiche ich nun aber, dass die Computeranwendung eben trotzdem nur 300W zieht, das Spiel aber, eben durch die geringere Auslastung, die eigentlich viel zu hohe Taktrate nutzen kann.

Spasstiger
2010-12-14, 00:55:23
Wir könnten die kuriose Situation erleben, dass eine HD 6990 mit zwei Caymans ausgeliefert wird, die jeweils fast HD-6970-Spezifikation haben, aber trotzdem bedeutend langsamer ist als zwei einzelne HD 6970 im CF.

wosch666
2010-12-14, 00:57:27
Wir könnten die kuriose Situation erleben, dass eine HD 6990 mit zwei Caymans ausgeliefert wird, die jeweils fast HD-6970-Spezifikation haben, aber trotzdem bedeutend langsamer ist als zwei einzelne HD 6970 im CF.

Es sei denn man erlaubt den Regler/Schalter so zu stellen, dass die Begrenzung aufgehoben wird :-)

maximus_hertus
2010-12-14, 01:13:14
Nett gedacht, aber das wird wohl nicht passieren. Zumindest nicht von offizieller Seite, dass macht auch keinen Sinn.

MeisterFranz
2010-12-14, 01:18:07
Wir könnten die kuriose Situation erleben, dass eine HD 6990 mit zwei Caymans ausgeliefert wird, die jeweils fast HD-6970-Spezifikation haben, aber trotzdem bedeutend langsamer ist als zwei einzelne HD 6970 im CF.

Nicht umsonst gilt ab jetzt die Regel ein AP pro Woche.
Da kann sich nv aber hinten anstellen.

wosch666
2010-12-14, 01:25:41
Was ich dann aber sehr schade finde ist, dass AMD da nur so einen minichip bringt.
Man stelle sich das mal mit nem Monsterchip vor, der dann alleine auf einer karte ständig am Limit hantiert.

MeisterFranz
2010-12-14, 01:29:42
Was ich dann aber sehr schade finde ist, dass AMD da nur so einen minichip bringt.
Man stelle sich das mal mit nem Monsterchip vor, der dann alleine auf einer karte ständig am Limit hantiert.

Da kommt mir nur eins in den Sinn. Armes nV.

Iruwen
2010-12-14, 01:39:32
ich glaub ihr macht gerade einen oder mehrere Denkfehler was Chipgröße, Spannung, Takt und Verbrauch angeht. Man kann die Parameter nicht einfach beliebig hochprügeln und dann einen Limiter davorsetzen der alles gut macht.

MeisterFranz
2010-12-14, 01:42:47
ich glaub ihr macht gerade einen oder mehrere Denkfehler was Chipgröße, Spannung, Takt und Verbrauch angeht. Man kann die Parameter nicht einfach beliebig hochprügeln und dann einen Limiter davorsetzen der alles gut macht.


Man kann sich aber ausmalen was bei ATI mit der ganzen Kohle raus kommen würde.

wosch666
2010-12-14, 01:55:58
ich glaub ihr macht gerade einen oder mehrere Denkfehler was Chipgröße, Spannung, Takt und Verbrauch angeht. Man kann die Parameter nicht einfach beliebig hochprügeln und dann einen Limiter davorsetzen der alles gut macht.

Nein, weil es ja klar ist, dass sowas nur in gewissen Grenzen geht, aber nehmen wir mal als Beispiel den GTX480.
ich denke, dass es auch damals genug "volle" Chips hätte geben können aber der verbrauch alle möglichen grenzen gesprengt hätte.
Genau da hätte man sowas gebrauchen können.

airbag
2010-12-14, 02:17:25
Hi

Ganz ehrlich.
Hat AMD euch nicht quasi die Samples verweigert, weil die Angst hatten das der Artikel nicht positiv genug wird.?


Gruss Labberlippe
Das war vor 4-5Jahren?
Seit dem scheinbar kein Sample mehr.Und extern zu organisieren, lohnt sich wahrscheinlich nicht, weil man es nicht pünktlich zum Launch bekommt´.

uweskw
2010-12-14, 02:25:14
Power-Tune.
Wie ist das eigentlich?
Verhältnis: Verbrauch zu min. FPS im Spiel?
Der Verbrauch einer GraKa während eines Spiels ist nicht gleichmäßig.
Aber wann ist der Verbrauch höher? bei max. FPS Szenen oder wenn die Gra-Ka limitiert? also eher bei min. FPS? Wenn bei min. FPS der Chip nicht gut ausgelastet wird, wenig verbraucht und desswegen limitiert, dann gibt das ganze Sinn.
Den Energie Verbrauch bei hohen FPS beschränken damit bei kritischen Szenen mehr Leistung zur Verfügung steht. Gute Idee!
Wenn der Verbrauch bei min. FPS allerdings höher sein sollte, dann ist das ganze nur ein "Balken-Verlängerungsmittel" das nur für Benchmarks dient.

Greetz
U.S.

airbag
2010-12-14, 02:32:22
Ab hier lesen
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8446660#post8446660
Spasstiger (E-techniker ist er glaube ich ) erklärt es recht gut.

uweskw
2010-12-14, 02:40:30
@airbag
als Erklärung auf meine Frage taugt das nicht wirklich.
Wenn ich den max. Verbrauch künstlich begrenze, beschneide ich dann min. oder max. FPS?

mapel110
2010-12-14, 02:49:41
@airbag
als Erklärung auf meine Frage taugt das nicht wirklich.
Wenn ich den max. Verbrauch künstlich begrenze, beschneide ich dann min. oder max. FPS?
In den meisten Fällen keins von beidem. Spiele lasten den Chip nicht so gut aus, wie es synthetische, spezialisierte Tests können.

uweskw
2010-12-14, 02:59:29
@mapel
salomonische Antwort. Bringt mich genau 0 weiter in meinen Überlegungen.
Es gibt eine Tendenz. Künstliche Limitierung des Verbrauch bedeutet:
a.) weniger min. FPS ODER
b.) weniger max. FPS

http://img522.imageshack.us/i/fot006.jpg/

wenn diese Folie echt ist und ursprünglich 300W max. Verbrauch für die 6970 geplant waren und man nun ohne Zwang auf 250W herunter gegangen ist, dann heisst das: Angepasst an das neue Nvidia Line-Up(GTX580/570) können wir unsere Leistung um 16,66% zurückschrauben.(300W auf 250W max.)

mapel110
2010-12-14, 03:06:40
@mapel
salomonische Antwort. Bringt mich genau 0 weiter in meinen Überlegungen.
Es gibt eine Tendenz. Künstliche Limitierung des Verbrauch bedeutet:
a.) weniger min. FPS ODER
b.) weniger max. FPS
Das kann man so nicht beantworten. Der Chip kann theoretisch bei jedem Frame am Maximum der Leistungsaufnahme arbeiten, egal wie viele davon pro Sekunde nun rausspringen.

uweskw
2010-12-14, 03:27:02
Das kann man so nicht beantworten. Der Chip kann theoretisch bei jedem Frame am Maximum der Leistungsaufnahme arbeiten, egal wie viele davon pro Sekunde nun rausspringen.

Denke das war klar: Theoretisch mögliche Auslastung interessiert nicht wirklich. Wie sieht es bei Spielen aus die wirklich anspruchsvoll sind? Also Metro, Crysis usw. . Betrifft die künstliche Limitierung des max. Verbrauchs die min. oder die max. FPS?

boxleitnerb
2010-12-14, 06:22:48
Also dieses Powertune ist schon eine interessante Sache, allerdings sehe ich hier 2 zu bedenkende Punkte:

1.
Mit aktiviertem Powertune ist keine vergleichbare Performancemessung mehr möglich, denn auch die Temperatur bestimmt den Verbrauch. Und die kann von Aufbau zu Aufbau variieren (vor allem Wakü). Auch würde der Lüfter wohl lautstärkemäßig in GTX480 Regionen vorstoßen. Selbst in die Regelung eingreifen wie es heute gerne gemacht wird, um die Karten leiser zu bekommen, dürfte bei Powertune grob fahrlässig sein und die Performance außerdem auch beeinflussen. Was ist mit Sommer vs. Winter?

2.
Die Karte muss die Takte, die sie bei 250W Verbrauch fahren darf, auch fahren können. Was, wenn die GPU mit Wakü auf 50°C unter Last gekühlt wird und sich auf stock+20% takten ließe, bevor die 250W gesprengt werden, stabil aber nur 15% schafft?

Immerhin hat der Nutzer die Kontrolle über dieses Feature und das ist auch gut so. Aber zum Benchen würde ich es bestimmt nicht einsetzen, höchstens als Bonus, wenn man dazu sagt, dass das erreichte Ergebnis nicht repräsentativ ist.

V2.0
2010-12-14, 07:33:25
Natürlich muss man mit Powertune @ max Benchen.

boxleitnerb
2010-12-14, 07:39:18
Man kann, sicherlich. Allerdings läuft dieses Ergebnis dann in derselben Kategorie wie OC aus oben genannten Gründen.

fondness
2010-12-14, 07:44:17
Vollkommen sinnlos.

Alles was AMD kann und NV nicht ist für dich vollkommen sinnlos, das wissen wir schon lange. Bei der besseren SSAA Leistung kam ja ungefähr dasselbe Argument. Leider ist deine Argumentation vollkommen haltlos.

boxleitnerb
2010-12-14, 07:54:43
Alles was AMD kann und NV nicht ist für dich vollkommen sinnlos, das wissen wir schon lange. Bei der besseren SSAA Leistung kam ja ungefähr dasselbe Argument. Leider ist deine Argumentation vollkommen haltlos.

Er sieht es halt nur aus seiner begrenzten Sicht. Der Prozentsatz der Leute, die Downsampling benutzen z.B. ist wohl noch geringer als der Prozentsatz der 30"-Besitzer. Beides hat seine Berechtigung und beides darf als Vorteil herangezogen werden. Man muss nicht überall einen Wettkampf sehen - jedem das seine.
Die Pixelzahl wird immer steigen, diese Entwicklung ist nur logisch und auch belegbar. Ob Downsampling jemals oberhalb von 1080p möglich sein wird, ist hingegen nicht sicher. Klar, ich wünsche es mir, aber schon jetzt gehen ja nichtmal 60 Hz bei 3840x2160. Abgesehen davon frisst DS VRAM ohne Ende. Das nur am Rande.

Können wir jetzt zum Thema zurückkommen, bitte?

C.D.B.
2010-12-14, 07:55:12
@LZ: Wenn PT hält was es bis jetzt verspricht, wird es schon auf der nächsten NVidia zu finden sein. :tongue:

@all: So allmählich müßtet ihr doch wissen, das Diskussionen mit NVidia-Evangelisten sinnlos sind. Also laßt das. Und bohrt lieber an den Karten-Internas. ;)

Botcruscher
2010-12-14, 08:06:46
Ich sehe mit PT eher ganz andere Probleme. Wenn das Ding ständig hin und her taktet gibt das bestimmt wieder böse Stottern und Mikroruckler. Wenn die Karte mit Grundeinstellungen ständig am Begrenzer hängt läuft irgendwie auch was falsch.

Eggcake
2010-12-14, 08:25:28
Wie jetzt...7 Stunden geschlafen und nix neues wenn ich aufwache?! Gibt's doch nicht!

@Power-Tune
Also in Bezug auf die 6990 sehe ich den Sinn/Nutzen durchaus, wenn es um die 300W Obergrenze geht. Das Limit auf 190W wiederum eher weniger.
Auf der anderen Seite ist es ja ein einfacher Schieber, also kann jeder einstellen wie er möchte. Von daher kann man's auch nicht wirklich als Kritikpunkt betrachten: es ist ein Feature, welches eventuell einige zu nutzen wissen, andere weniger.

C.D.B.
2010-12-14, 08:26:09
Ich sehe mit PT eher ganz andere Probleme. Wenn das Ding ständig hin und her taktet gibt das bestimmt wieder böse Stottern und Mikroruckler.

Im "normalen" Gaming-Betrieb würde die Karte konstant mit max. Takt laufen. Also nix MR/Stotterer.

Wenn die Karte mit Grundeinstellungen ständig am Begrenzer hängt läuft irgendwie auch was falsch.

Wohl nur bei synthetischen/GPGPU-Sachen. Und da dürften MR/Stotterer wohl nur wenig stören oder gar auffallen.

S940
2010-12-14, 08:27:40
Wie jetzt...7 Stunden geschlafen und nix neues wenn ich aufwache?! Gibt's doch nicht!
Dafür hättest Du noch 22 Stunden mehr schlafen müssen ;-)

Botcruscher
2010-12-14, 08:28:37
Im "normalen" Gaming-Betrieb würde die Karte konstant mit max. Takt laufen. Also nix MR/Stotterer.

Wenn das so einfach wäre, dann dürfte man aber auch nicht über die Tests im Luxx maulen.

Screemer
2010-12-14, 09:11:21
Wie jetzt...7 Stunden geschlafen und nix neues wenn ich aufwache?! Gibt's doch nicht!

geht mir genau so. so wie es gestern abend hier rund ging, hatte ich mir für heute eigentlich einiges an lesestoff erwartet ;)

Wenn das so einfach wäre, dann dürfte man aber auch nicht über die Tests im Luxx maulen.
dann müssten die burschen aber powertune erst mal auf max stellen. scheint ja noch nicht passiertei zu sein.

Dural
2010-12-14, 09:18:11
Ich rede ja von Antilles und der Vorgabe, dass man offiziell bei der 300W Spezifikation bleiben will


wo sagt das AMD offiziell???

igg
2010-12-14, 09:32:28
Natürlich muss man mit Powertune @ max Benchen.
Natürlich muss man alle Grafikkarten mit allen Taktreglern ganz oben dämmen...

LovesuckZ
2010-12-14, 09:43:11
Er sieht es halt nur aus seiner begrenzten Sicht. Der Prozentsatz der Leute, die Downsampling benutzen z.B. ist wohl noch geringer als der Prozentsatz der 30"-Besitzer. Beides hat seine Berechtigung und beides darf als Vorteil herangezogen werden. Man muss nicht überall einen Wettkampf sehen - jedem das seine.
Die Pixelzahl wird immer steigen, diese Entwicklung ist nur logisch und auch belegbar. Ob Downsampling jemals oberhalb von 1080p möglich sein wird, ist hingegen nicht sicher. Klar, ich wünsche es mir, aber schon jetzt gehen ja nichtmal 60 Hz bei 3840x2160. Abgesehen davon frisst DS VRAM ohne Ende. Das nur am Rande.


Downsampling ist nichts anderes wie eine höhrere Auflösung. Und oh Gott, die propagierst du hier. Und es würden natürlich mehr Leute Downsampling betreiben, wenn sie davon wüssten. Denn nur zum Arbeiten wird kein Spieler 400€+ zusätzlich für einen Monitor ausgeben. Nicht zu vergessen diejenige, die ihren Monitor über Grafikkartengenerationen behalten.

Es ist eben immer einfach im Internet nonsens zu schreiben, ohne die Konsequenzen zu betrachten. Zwei GTX570 Karten + vernünftiger 200€ Montior ist billiger als ein 2560x Monitor + 6970 Karte. Kann sich jeder selbst denken, welche Kombination für einen Spieler am Ende mehr sinn ergibt.

mironicus
2010-12-14, 09:43:23
Gibt es schon Preise? Eigentlich "sollte" die 6970 nicht teurer als die 570 sein (<350 Euro). Und die 6950 nicht teurer als die 5870 (<250 Euro).

boxleitnerb
2010-12-14, 10:09:12
Downsampling ist nichts anderes wie eine höhrere Auflösung. Und oh Gott, die propagierst du hier. Und es würden natürlich mehr Leute Downsampling betreiben, wenn sie davon wüssten. Denn nur zum Arbeiten wird kein Spieler 400€+ zusätzlich für einen Monitor ausgeben. Nicht zu vergessen diejenige, die ihren Monitor über Grafikkartengenerationen behalten.

Es ist eben immer einfach im Internet nonsens zu schreiben, ohne die Konsequenzen zu betrachten. Zwei GTX570 Karten + vernünftiger 200€ Montior ist billiger als ein 2560x Monitor + 6970 Karte. Kann sich jeder selbst denken, welche Kombination für einen Spieler am Ende mehr sinn ergibt.

Du vergisst leider, dass Downsampling (momentan) ein ziemliches Gefrickel ist bzw. sein kann. Einen größeren Monitor stellt man sich hin und fertig. Soll auch Leute geben, die die zusätzliche Fläche zum Arbeiten brauchen und trotzdem auf dem Ding zocken wollen.

Warum musst du immer so pingelig sein und kannst nicht einsehen, dass es auch Leute mit anderen Anwendungsfällen als deinem gibt? Und ich sage es nun schon zum dritten Mal: In den guten Tests werden so viele Einstellungen gebencht, dass für jeden was dabei ist. Da muss man nicht einzelne Stärken schlechtreden, sondern beachtet sie persönlich eben nicht, wenn sie nicht in den eigenen Einsatzbereich fallen. Und weil diese Diskussion wieder mal völlig für den Popo ist, bin ich hier raus.

fizzo
2010-12-14, 10:11:11
Gibt es schon Preise? Eigentlich "sollte" die 6970 nicht teurer als die 570 sein (<350 Euro). Und die 6950 nicht teurer als die 5870 (<250 Euro).

NVIDIA's & ATI's Latest Pricing as of end of this week
GTX 460 768MB = £105 - £115
5830 1024MB = £115-£130 **EOL** ***Practically 5850 performance - BARGAIN***
6850 1024MB = £130-£140
GTX 460 1024MB = £140-£160
5850 1024MB = £130-£150 **EOL** ***Stock None Existent***
6870 1024MB = £170-£190
5870 1024MB = £180-£200 **EOL** ***Nothing sub £200 beats this***
GTX 470 1280MB = £190-£220 **EOL**
6950 2048MB = £220-£230 ***Expect £10 price increase in January***
GTX 480 1536MB = £250-£270 **EOL**
GTX 570 1280MB = £250-£290
6970 2048MB = £285 - £320 ***Expect £20 price increase in January***
GTX 580 1536MB = £350-£450 **Supply & Demand will keep this high**
6990 4096MB = £450-£500

link (http://www.xtremesystems.org/forums/showpost.php?p=4665479&postcount=3193)

Fetza
2010-12-14, 10:15:21
link (http://www.xtremesystems.org/forums/showpost.php?p=4665479&postcount=3193)

Die 6950 mit 2gb wäre zu dem preis attraktiv!

Botcruscher
2010-12-14, 10:39:46
dann müssten die burschen aber powertune erst mal auf max stellen. scheint ja noch nicht passiertei zu sein.

Wenn die Limitierung bei normal-betrieb nicht greift eben genau nicht. Dann dürften eigentlich nur FUR und CO gedrosselt werden. Die Frage ist eben wirklich wie aggressiv die Steuerung eingreift. Die ursprüngliche These war ja Stottern und Mikroruckler durch Drosselung der GPU. Auf solchen Mist hab ich echt keinen Bock und ich hoffe, dass die Tester das ordentlich zerpflücken.

Die 6950 mit 2gb wäre zu dem preis attraktiv!
Aber so was von.

Screemer
2010-12-14, 11:02:34
wurde von spasstiger ja schon ausführlich erklärt, dass das throtling keinen einfluss auf die frametimes haben dürfte. die karte wird mit nop-cycles (hießen die so?), also mit cyclen bei denen keine spannung und kein takt anliegt, "gedrosselt". ob dem dann auch so ist, da bin ich schon sehr gespannt.

Kalmar
2010-12-14, 11:04:28
ich glaube ihr vergesst das die pcgh leute meinte sie sind zu frieden und balkenlänge ist nicht alles ...

ich denke das die fps etwas geglättet werden und dadruch der subjektive spieleindruck etwas besser ist [und vermutlich die schlechtere bq ausgleichen kann]

AnarchX
2010-12-14, 11:05:19
Interessant ist jedenfalls dass laut der AMD-Folie die 200W TDP nicht ausreichen um bei Perlin-Noise die volle Leistung der HD 6950 abzurufen.

Ob PowerTune im BIOS hinterlegt ist? Wenn dann gibt es wohl OC-Versionen nicht mehr mit mehr Takt, sondern einfach einem höheren PT-Wert. ;D

deekey777
2010-12-14, 11:10:34
Interessant ist jedenfalls dass laut der AMD-Folie die 200W TDP nicht ausreichen um bei Perlin-Noise die volle Leistung der HD 6950 abzurufen.

Ob PowerTune im BIOS hinterlegt ist? Wenn dann gibt es wohl OC-Versionen nicht mehr mit mehr Takt, sondern einfach einem höheren PT-Wert. ;D
Sie würde der HD6970 zu nahe treten. Ich meine, 800 MHz vs. 880 MHz und nur zwei SIMDs weniger sind nicht gerade ein Riesenunterschied. Also wird woandes beschränkt.

=Floi=
2010-12-14, 11:40:19
umgedreht wird aber auch ein schuh draus. da hätte nv die 480er auch einfach auf 100 watt drosseln können und bei "bedarf" kann die karte dann bis ans echte maximum gehen. so etwas ist doch eine augenwischerei.

die normale leistung geht gegen die oc leistung unter und bei der lüfterregelung muß man dann wohl auch auf eine leise karte verzichten. :rolleyes:
bei nv geht es auch ohne und mit voller taktrate UND leise!

Duke Nukem
2010-12-14, 11:49:05
@=Floi=
NV 480 leise na klar muahahahaha

Die 480 braucht mehr saft als die 6970 mit 2 powerswitchen lach.

airbag
2010-12-14, 12:17:38
Hat das hier jemand schon gepostet ?;D
http://www.semiaccurate.com/2010/12/13/secret-amd-6900s-second-switch/

Iruwen
2010-12-14, 12:36:50
Hätte er das Bild und den letzten Absatz weggelassen würdens einige glauben.

svenw
2010-12-14, 12:37:43
umgedreht wird aber auch ein schuh draus. da hätte nv die 480er auch einfach auf 100 watt drosseln können und bei "bedarf" kann die karte dann bis ans echte maximum gehen. so etwas ist doch eine augenwischerei.

die normale leistung geht gegen die oc leistung unter und bei der lüfterregelung muß man dann wohl auch auf eine leise karte verzichten. :rolleyes:
bei nv geht es auch ohne und mit voller taktrate UND leise!
Man kann es auch anders sehen: Warum sollte die Kart mit voller Leistung (und Lautstärke) laufen wenn man z.B. CS spielt? Auch Spiele ala WOW (ohne Cataklysm) brauchen schlichtweg die volle Leistung so einer Karte nicht.

mboeller
2010-12-14, 12:38:23
Hat das hier jemand schon gepostet ?;D
http://www.semiaccurate.com/2010/12/13/secret-amd-6900s-second-switch/

Verdammt...

Wollte ich gerade posten und dazu noch einen tollen Kommentar schreiben (ala HD6970 rulez...) ;D

Botcruscher
2010-12-14, 12:39:48
Man kann es auch anders sehen: Warum sollte die Kart mit voller Leistung (und Lautstärke) laufen wenn man z.B. CS spielt? Auch Spiele ala WOW (ohne Cataklysm) brauchen schlichtweg die volle Leistung so einer Karte nicht.

Dann sollte man aber nach FPS drosseln und nicht nach Verbrauch. Ein paar Stellen mit Framedrop finden sich in jedem Spiel.

Raff
2010-12-14, 12:44:15
Man kann es auch anders sehen: Warum sollte die Kart mit voller Leistung (und Lautstärke) laufen wenn man z.B. CS spielt? Auch Spiele ala WOW (ohne Cataklysm) brauchen schlichtweg die volle Leistung so einer Karte nicht.

WoW ist mittlerweile vieles, aber gewiss nicht anspruchslos (http://www.pcgameshardware.de/aid,803254/WoW-Cataclysm-im-Test-12-AMD-und-Nvidia-Grafikkarten-mit-DirectX-9-und-DirectX-11/Rollenspiel-Adventure/Test/). Zumal das Spiel stark von Supersampling profitiert und dann sehr heizt.

MfG,
Raff

Mayk-Freak
2010-12-14, 12:47:01
Wann kommen den nun die echten Cayman Review von bekannten Seiten, heute nacht ab 24 Uhr oder morgen im laufe des Tages?

fondness
2010-12-14, 12:48:52
Wann kommen den nun die echten Cayman Review von bekannten Seiten, heute nacht ab 24 Uhr oder morgen im laufe des Tages?

Wohl morgen um 06:00Uhr.

derguru
2010-12-14, 12:49:28
von china heute nacht der rest dann morgen 15uhr.

Wohl morgen um 06:00Uhr.

wirklich?

AnarchX
2010-12-14, 12:51:37
15:00 Uhr MEZ waren meist nur die NV NDAs.

LovesuckZ
2010-12-14, 12:51:43
Man kann es auch anders sehen: Warum sollte die Kart mit voller Leistung (und Lautstärke) laufen wenn man z.B. CS spielt? Auch Spiele ala WOW (ohne Cataklysm) brauchen schlichtweg die volle Leistung so einer Karte nicht.

Das wäre auch eine tolle Eigenschaft - nur wird sie leider nicht unterstützt. Es ist ein Verbrauchslimiter und kein Frameslimiter.

NDA fällt um 5 Uhr GMT. Stand auf irgendeiner Folie. Erste Leaks sollten 6h früher eintreffen.

airbag
2010-12-14, 12:52:00
Ist 15:00 nicht Nvidiazeit ?

wosch666
2010-12-14, 12:53:15
von china heute nacht der rest dann morgen 15uhr.


War das nicht nur bei nv so?

Die AMD/ATI-Test waren immer schon vorher da.