PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Antilles - Dual-Cayman - HD 6990 - Q1 2011


Seiten : 1 [2]

davidzo
2011-02-28, 23:05:56
2x gf100B verbrauchen mehr als 2x CaymanXT. demnach liegt der schluss nahe dass die dualkarte aus ersteren auch mehr verbraucht. allerdings könnte amd diesen vorsprung beim verbrauch auch ausreizen indem man die taktraten nur minimal reduziert während nvidia da kräftig nachlassen muss um im rahmen zu bleiben.

beide 375watt
das könnte leistungsmäßig verdammt knapp werden. wenn AMD sich traut auch beim spieleverbrauch nah an die 375watt ranzukommen, dann wären 2x caymanXT mit vollen 6970 taktraten gut möglich. nvidia indessen wird wohl kaum mehr als gtx570 SLI leistung bieten können, weil beim gf110 der verbrauch eher limitiert.

y33H@
2011-02-28, 23:12:58
nvidia indessen wird wohl kaum mehr als gtx570 SLI leistung bieten können, weil beim gf110 der verbrauch eher limitiert. 2x GTX 570 reicht, um bei gleichem TDP-Budget mit 2x HD 6970 gleichauf zu liegen. NV aber hat bei GF110 die Option auf mehr Takt und Shader, AMD bei Cayman XT nicht - außer vll mit Gewalt um/über 900 MHz. In Sachen Stromverbrauch auf dem Papiert, ich zitiere mich mal:
Tja, die 6P+8P-Option ist nun wohl Geschichte (http://www.pcgameshardware.de/aid,813891/Cebit-2011-Gigabyte-Radeon-HD-6990-doppelter-Cayman-mit-zwei-8-Pin-Anschluessen-Update/Grafikkarte/News/).

Bleibt die Frage, ob und wo "Powertune" blockt - bei 300W, bei 375W (2x 8P, was die Karte bietet) oder noch mehr via "Powertune" @ 20% wie bei den anderen HD 69x0. Das wären fette 450W "out of guarantee and specs". Und zugleich kann bei NV keiner schreien, wenn NV ebenfalls mit 375W anrückt. Wobei bei diesem Budget NV die fettere Karte bieten würde, da GF110 dem Cayman XT (bei mehr Verbrauch sowie von der absoluten bisher gezeigten Leistung) über ist.

C.D.B.
2011-03-01, 06:46:17
Bin dann ja mal auf die offiziellen Netzteil-Empfehlungen gespannt. Schon bei meiner (vergleichsweise) putzigen HD6870 empfiejlt AMD ja nen 500W-Netzteil. :D

AnarchX
2011-03-01, 09:21:47
Press Deck: http://www.donanimhaber.com/ekran-karti/haberleri/AMDden-dunyanin-en-hizli-ekran-karti-Tum-detaylariyla-Radeon-HD-6990.htm

830/1250MHz @ <375W

Das Design soll auf 450W ausgelegt sein, die dann wohl ein entsprechend brauchbares Netzteil über 2x 8-Pin liefern soll.

http://img534.imageshack.us/img534/4840/amdradeonhd6990offdetai.jpg (http://img534.imageshack.us/i/amdradeonhd6990offdetai.jpg/)

boxleitnerb
2011-03-01, 09:28:41
Die Folie unten mit "OC raises the bar even higher"...4% :freak:

AnarchX
2011-03-01, 09:30:07
Mit dem 450W Setting knackt man vielleicht die 15 Sone unter Last? Da wäre wohl ein WaKü als Standardlieferumfang sinnvoll.

boxleitnerb
2011-03-01, 09:41:21
Wer will damit Crossfire-X hören? Da wird man sicher taub von.
Deshalb finde ich zwei separate Karten immer besser. Zwei Lüfter, mehr Kühlfläche, zwei Luftauslässe. Generell sollten die IHVs statt an solchen Nischenlösungen zu basteln ihre "normalen" MultiGPU-Produkte aufpeppen mit gescheiten SLI/CF-SSAA und einer weitere Bekämpfung der Mikroruckler, insbesondere AMD.

Black-Scorpion
2011-03-01, 09:52:44
Wie man Anhand der 450W für die das Design ausgelegt wurde auf die Lautstärke der Karte kommt weiß der Künstler wohl selber nicht. Bei manchen Aussagen kann man echt nur mit dem Kopf schütteln.

Raff
2011-03-01, 09:54:00
300-Watt-Karten sind laut. Wie laut ist dann wohl eine 450-Watt-Karte? Herrje ...

MfG,
Raff

AffenJack
2011-03-01, 09:58:41
Wie man Anhand der 450W für die das Design ausgelegt wurde auf die Lautstärke der Karte kommt weiß der Künstler wohl selber nicht. Bei manchen Aussagen kann man echt nur mit dem Kopf schütteln.

ja bei deiner zum Beispiel, mit ein bisschen denken kriegt man das nämlich hin darauf zu schließen, aber das ist für dich wohl zuviel verlangt.

Dural
2011-03-01, 12:34:38
typisch dural
als es aussah als ob das NV bringt fand er es noch klasse


kannst du lesen oder nicht??? es steht mit keinem Wort etwas darin das ich die 375Watt gut finde... Ganz im Gegenteil ICH kritisiere JEDE Dual Karte :P
Und das von dir zitierte war eine sachliche und neutrale Einschätzung zu GTX590 mit den bekannten Daten... (die mal wohl wider voll ins schwarze getroffen hat) ;)


Es sind immer dieselben die einem JEDES Wort im Mund verdrehen wie es IHNEN passt, was ist schon mal die Definition von Fanboy?!? ;)


Ich könnte mich jede selber zitieren, mach es aber nicht...


Wo sprengen die was?

Die erste Referenz Karte mit 375Watt, eigentlich erstaunlich gilt doch AMD als "grün" obwohl sie in der Vergangenheit regelmässig neue Grenzen als erstes überschritten haben, sei es mit der 9700PRO (erste reguläre Karte mit Strom Stecker), 2900XT (erste reguläre Karte mit >300Watt), 4870X2 (Erste Karte die deutlich über 300Watt Real verbraucht) und jetzt die 6990 mit ihren 375Watt... Bei NV fallen mir nur 2 Karten in den Sinn: 8800GTX und GTX480




Bevor man mal wieder die "grüne" AMD Welt predigt sollte man sich mal schlau machen da es schlicht einfach eine lüge ist wie man jetzt wider mal sehr schön sieht, danke.


Und AMD hatte wohl auch keine andere Wahl, Cayman ist zu langsam und verbraucht zu viel, wenn sie eine halbwegs vernünftige Dual Karte (6970 + min. 40%) bringen wollen müssen sie über die Leitungs-Aufnahme gehen und da die genannte Karte schon ihre 250Watt hat...

Raff
2011-03-01, 13:00:12
AFAIR war die Voodoo5 5500 die erste Referenzkarte mit einer Strombuchse (Molex).

MfG,
Raff

redfirediablo
2011-03-01, 13:06:03
dafür bescheißt nvidia bei den TDP Angaben wo es nur geht....

Insgesamt coole Aktion von AMD erst 6+8 Pin 300 Watt anzutäuschen und damit Nvidia auf die falsche Fährte zu locken und dann doch voll 375 bzw. 450 Watt zu gehen. Cool so den Bios switch zu nutzen.

Noch besser ist es jetzt kurz vor Nvidia zu launchen, den Ruhm mitnehmen erster zu sein und Nvidia die Schmach langsamer bzw. kaum schneller zu sein.

Ich tippe ja fast darauf das Nvidia zurückzieht und nochmal das Design ändert, denn eine Woche später zu kommen und langsamer zu sein können die echt nicht bringen....

Warum wird AMD diese runde gewinnen?

Design bis ans maximum ausgelegt mit besserem power containment.

Besser bzw. gleichwertige Effizienz

Bessere skalierung bei hohen Auflösungen und Grafiklast

Mittlerweile skaliert auch CF besser als SLI

-> Titel der schnellsten Graka der Welt geht an AMD (Halo)

Ob das ganze vom Stromverbrauch und der Lautstärke sinnvoll ist? Mr gibts ja auch noch. Nun, für mich definitv nicht. Ich bleib bei undervolted 6950 mit accelero xtreme ;-)

fondness
2011-03-01, 13:18:18
9700PRO (erste reguläre Karte mit Strom Stecker),


Falsch.


2900XT (erste reguläre Karte mit >300Watt)

Falsch.


4870X2 (Erste Karte die deutlich über 300Watt Real verbraucht)

Auch falsch, außer Furmark mit unbenannter .exe ist für dich real.

Raff
2011-03-01, 13:35:41
Bitte nicht einfach beneinen, sondern korrigieren. So hilft das ähnlich wenig wie die in den Raum geworfenen Aussagen.

MfG,
Raff

Hugo78
2011-03-01, 14:29:06
dafür bescheißt nvidia bei den TDP Angaben wo es nur geht....

*hust*
AMD Radeon HD 4870 X2 TDP
= 286W
Maximalverbrauch
= 373W (http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index28.php)

Kognitive Dissonanz
= unbezahlbar

:tongue: :naughty:

redfirediablo
2011-03-01, 14:42:41
aber nur @ furmark und umbenannter exe

Nvidia schafft es ja sogar bei Spielen über die TDP zu kommen aber mach mal weiter mit cherry picking

Pirx
2011-03-01, 14:47:09
Es gab doch letztens so einen Test mit vielen Grafikkarten, der sehr schön aufzeigte, daß die AMD Karten seit längerem in der Regel um einiges weniger stromhungrig sind, als die nV-Karten.

fondness
2011-03-01, 15:19:49
Bitte nicht einfach beneinen, sondern korrigieren. So hilft das ähnlich wenig wie die in den Raum geworfenen Aussagen.

MfG,
Raff

Es zeigt das es Blödsinn ist, wovon man bei Durals Aussagen wohl ohnehin großzügig ausgehen kann. Ich denke nichts davon ist ein Geheimnis. Voodoo5 wurde schon genannt, 2900XT hatte eine TDP von 215W, meist lag sie deutlich darunter, und die 4870 X2 wurde auch schon genannt.

seaFs
2011-03-01, 15:45:34
300-Watt-Karten sind laut. Wie laut ist dann wohl eine 450-Watt-Karte? Herrje ...

MfG,
Raff
Es wird einfach Zeit für Tripleslotkühlung im Referenzdesign.
Die PCI-E Slots gibt es ja mittlerweile acuh wie Sand am Meer auf den Mainboards, 2 Slots Abstand sind da möglich.

Knuddelbearli
2011-03-01, 19:54:24
http://www.3dcenter.org/news/2011-02-28

im !durchschnitt! ist die 580 bei spielen über der tdp

ist zwar ( gott sei dank ) eine ausnahme aber trotzdem

Black-Scorpion
2011-03-01, 20:20:17
300-Watt-Karten sind laut. Wie laut ist dann wohl eine 450-Watt-Karte? Herrje ...

MfG,
Raff
Ach du weißt das es eine 450W Karte ist?
Oder ist nur das Design für 450W ausgelegt. Bei den vorherigen Modellen über die Spannungsversorgung aufregen weil sie nicht hoch genug ausgelegt war und jetzt wieder meckern weil es einem gerade passt?

Raff
2011-03-01, 20:32:39
Oh Mann. Es tut mir leid, dass ich mich wieder nicht zurückhalten konnte, deine ... ähm, einseitige Sichtweise zu kommentieren. Kommt nicht wieder vor. Heute. :D

MfG,
Raff

Black-Scorpion
2011-03-01, 20:57:03
Jetzt bin ich aber gespannt was daran einseitig sein soll. Und komm nicht mit dem Argument das die Karte laut sein muss. Das weiß ich selbst das die nicht leise ist. Mein erster Beitrag dazu bezog sich nämlich auf die in den Raum geworfenen 15 sone. Und das ist Quatsch.

airbag
2011-03-01, 20:58:57
aber nur @ furmark und umbenannter exe

Nvidia schafft es ja sogar bei Spielen über die TDP zu kommen aber mach mal weiter mit cherry picking


Schwachsinn. Da ist keine exe im HT4U-Test umbenannt. Lediglich ist es nur kein Schummeltreiber. Die kamen nämlich erst mit 9.5/6

Mein erster Beitrag dazu bezog sich nämlich auf die in den Raum geworfenen 15 sone.

Sagen wir 10 Sone auf dem Niveau einer Asus Mars oder einer Ares mit alten BIos.

deekey777
2011-03-01, 21:21:23
Radeon HD 6990: Mit zwei GPUs gegen Nvidia (http://www.heise.de/newsticker/meldung/Radeon-HD-6990-Mit-zwei-GPUs-gegen-Nvidia-1200359.html)
Wir konnten bereits einen Blick in den Catalyst-Grafikkartentreiber werfen, der offenbarte, dass die zwei Cayman-Grafikchips mit jeweils 800 MHz Taktfrequenz laufen. Die GPUs dürften denen der Radeon HD 6950 entsprechen, also jeweils 1408 Shader-Rechenkerne und 88 Textureinheiten beherbergen – gesichert ist die Zahl der Funktionseinheiten jedoch nicht.
Interessant, nicht wahr?

boxleitnerb
2011-03-01, 21:37:14
Nein, weil offenbar falsch. Die AMD-Folien sprechen von 3072 Shadereinheiten, also Cayman XT.

deekey777
2011-03-01, 21:44:07
Nein, weil offenbar falsch. Die AMD-Folien sprechen von 3072 Shadereinheiten, also Cayman XT.
Ich habe doch extra den Takt gefettet. Welche AMD-Folien? Schonmal daran gedacht, dass sie gefaket sein könnten (*hust*Cayman*hust*).

Screemer
2011-03-01, 22:29:03
und was spricht gegen 6970 chips mit niedrigerem takt? problem? nein. meine 6950 hat auch 1536 shader, 0,1v weniger vcore und eben 800MHz. was spricht also dagegen? die 5-10% leistungsdiffernez lassen sich wohl verschmerzen oder mit höherem ramtakt fast ausbügeln.

sklave_gottes
2011-03-01, 23:52:57
Das die 6950 chips nehmen macht auch überhaupt keinen sin. Jeder der auch nur ein bischen den Markt der letzten Jahre verfolgt hat, kann auch ohne viel wissen sehen, daß nur 6970 chips in frage kommen.

Also hört bitte auf mit dem scheiss.

Ausserdem finde ich es gut wenn die Karten bis an die 375Watt grenze gehen. Weil alles andere die ohne hin schon sehr sehr kleine "da sein berechtigung" gegen Null laufen läst. Wer will schon eine Dual Karte mit all ihren nachteilen die kaum schneller ist als eine GTX580.

airbag
2011-03-02, 01:22:30
Nein, weil offenbar falsch. Die AMD-Folien sprechen von 3072 Shadereinheiten, also Cayman XT.

Mhh das muss wohl dann SuperCroc sein. ;D

Ailuros
2011-03-02, 10:50:05
Ausserdem finde ich es gut wenn die Karten bis an die 375Watt grenze gehen. Weil alles andere die ohne hin schon sehr sehr kleine "da sein berechtigung" gegen Null laufen läst. Wer will schon eine Dual Karte mit all ihren nachteilen die kaum schneller ist als eine GTX580.

Es ist zwar kein Wunder dass Stromverbrauch keine besondere Rolle spielt fuer den Kaeufer einer solchen mGPU; nichtdestominder fuer diejenigen fuer die es doch mehr oder weniger eine virtuelle Stromverbrauchs- und Preis-Grenze gibt, ist eine solche Investition wenn man den Stromverbrauch und Preis gegen den Leistungszusatz vergleicht nach wie vor fraglich.

Sowohl die 6990 als auch die 590 erscheinen heutzutage (dank 40nm Begrenzungen) laecherlicher als je zuvor.

aylano
2011-03-02, 13:11:49
Es ist zwar kein Wunder dass Stromverbrauch keine besondere Rolle spielt fuer den Kaeufer einer solchen mGPU; nichtdestominder fuer diejenigen fuer die es doch mehr oder weniger eine virtuelle Stromverbrauchs- und Preis-Grenze gibt, ist eine solche Investition wenn man den Stromverbrauch und Preis gegen den Leistungszusatz vergleicht nach wie vor fraglich.

Sowohl die 6990 als auch die 590 erscheinen heutzutage (dank 40nm Begrenzungen) laecherlicher als je zuvor.
Man sollte bedenken, wenn die HD 6990 wirklich 2x830 Mhz kommt, dann würde das ca. 50 mhz mehr als sein, sich ich es geschätzt (abgleitet von 725/850Mhz @ HD 5970) hätte.
Mehr Takt kann eben auch mehr Spannung als erwartet bedeuten.

Das ist momentan das, was mich am meisten überrascht. Und gerade AMD weiß genau wie gut sich die HD 5970 mit 300W-TDP verkauft hat.
(siehe Steam)
Ich dachte auch mit 300W-TDP ist die absolut ober Grenze. Entweder hatte ich es falsch eingeschätzt oder AMD "testet" momentan aus, wie weit sie bei guten Verkaufszahlen mit der TDP gehen können, indem sie mal ein 375W-TDP (oder höher @ OC) bringen.

Damit mich keiner Falsch versteht. Das Ausarten des Eniergie-Verbrauchs ist bei Extremem Gamer nicht so ein Problem, da einige ja selber übertakten bzw. Teile höher Übertakten.
Bei Massen-Produkten (Von Low-end bis eventuell High-End--Standart-single-GPU), auf dem sich die Spieler & Software-Entwickler orientieren, ist ein ausarten des Energie-Verbrauch sehrwohl problematisch und da wir uns schon auf einem recht hohem Level befinden, sind zusätzliche Steigerungen schon (sehr) kritisch zu betrachten.
Aber nicht bei einer Randgruppe (Extremen Gamer).

Weiters ist wichtig, dass bie MGPU-Lösungen keine Nachteile für single-GPUs-Lösungen bringen, weil für MGPU-Lösungen extra viele Transistoren eingebaut werden müssen, die zu höheren Stromverbrauch und einer Die-Größe bei Single-GPU-Lösungen bringen.

Daher sehe ich diese MGPU-Entwicklung entspannd und ich hoffe, das ändert sich nicht.
Und wenn sich die MGPU von Generation und Generation immer mehr zum Positiven Entwickelt (Lautstärke, Ruckeln, & Co) entwickelt, gibts ja nicht so viel einzuwenden, wenn damit ein kleiner Markt abgedeckt werden kann.

Die HD 5970 war vernünftig mit 300W-TDP ausgelegt und hatte sich in Sachen Stromverbrauch (zufällig oder nicht) ziemlich genau auf 480/580GTX orientiert.
Ob das der Vernünftigere Weg war & (effizientere Auslegung und etwas weniger Takt) oder vielleicht mit HD 6990 (mehr wert auf Performance und Energie-Effizienz weniger wichtig) wird sich hoffentlich zeigen.

Ailuros
2011-03-02, 13:16:41
Sowohl 6990 als auch 590 sehen nach 2*8pin aus; ergo wohl doch nichts mit der oberen 300W Grenze die die meisten von uns erwarteten.

aylano
2011-03-02, 13:26:23
Und wo widerspricht das meinem Text?

Ailuros
2011-03-02, 13:42:10
Und wo widerspricht das meinem Text?

Man stattet eine SKU nicht mit 2*8pin um es am Ende bei =/<300W laufen zu lassen.

aylano
2011-03-02, 15:13:08
Und wo schrieb ich von einer HD 6990 mit <300W-TDP??
Ich schrieb ja von 375 (bzw. höher @ OC) bei HD 6990

<300W-TDP hatte HD 5970, aber das ist bald Vergangenheit. Ob das die besser oder gleichgut ankommt, wird AMD dann sehen.
Aber wie schon oben erwähnt. Mir scheint es, als ob AMD bewusst auf höhere Performance & höhere Energie-Verbrauch geht, da mir die 830 Mhz eben um ca. 50Mhz höher vorkommt, als wenn man mit der HD 5970-Auslegung (=weniger Takt (& Spannung?)) gehen würde.

IMO war die Kombination HD 5870 mit 160W-Spiele & 210W-TDP und HD 5970 mit 220W-Spiele und 300W-TDP bisher die optimalste Abstimmung zwischen Performance/"High-End-GPU" und ausblananzierte MGP (mit deutlicher Spannungsabsenkung)

Aber das Problem ist beim HD 6970 eben der höhere Energie-Verbrauch von 200W @ Spiele (oder so) und 250W-TDP, sodass sie wahrscheinlich keine ausbalanzierter MGPU mit <300W-TDP ausgeht.
Und wenn man (wahrscheinlich) schon mal zu viel Stromverbrauch hat, dann ist es Taktisch vielleicht nicht schlecht, wenn man es mal mit 375W-TDP probriert.

Kurz gesagt: wenn man eine Vernünftige MGPU hat, muss die Einzel-GPU eben auch demenstrechend ausgelegt alias wahrscheinlich so 160(-180W) @ Spiele sein.

Je näher die Einzel-GPU einen Spiele-Verbrauch von 300W bzw. 300W-TDP ist, desto unsinniger wird eine MGPU mit 300W-TDP.
Diese Regel galt damals schon, wie die 480GTX kam und sich nun bestätigte, und gilt eben heute auch, sodass sich mit HD 6990 eben nicht mehr 300W-TDP ausgeht.

Deshalb bin ich schon sehr gespannt, WIE (Aufwand, neuen Techniken/Lösungen; WIE nicht zu verwechseln mit OB !!!) Nvidia die 590GTX mit 2x580GTX-Dies schafft.

Ach ja, wichtig sind bei beiden auch die Stückzahlen & Preis. Performance & Energie-Verbrauch (wie hoch auch immer) mag schön sein, aber wenn der Aufwand so hoch bzw. der Grenzganz so knapp ist, dass nur wenige Stückzahlen möglich sind, dann ist das Produkt in der Theorie & Benchmark zwar nett, aber praktisch dann auch mäßig interessant.

davidzo
2011-03-02, 18:35:19
Und der einzige Vorwurf den man NVidia hier machen kann ist,
dass sie solche Deppen waren und nicht auch bei der Einführung der GTX 400 Reihe diese Art Drossel verbauten. Bei der 500er ist das ja jetzt der Fall.


Das ist immer noch nicht vergleichbar. Nvidias Architektur ist auf hohe Auslastung ausgelegt und verbraucht daher auch in Spielen nahe an der theoretischen maximallast. AMDs Architektur dagegen hat eine wesentlich höhere theoretische Rohleistung die nur synthetisch abgerufen wird (furmark). Die Dissonanz zwischen theroetischem und tatsächlichem Verbrauch ist bei AMD also größer und der Furmarkvergleich beider Architekturen ist einfach nur unfair.
Das ist so ähnlich als wenn ich Brazos mit nem Atom in 3D Anwendungen vergleiche. Klar braucht Brazos da mehr Energie, weil die meisten Anwendungen dieser Art auf der Atom Plattform gar nicht erst starten. Trotzdem ist Brazos effizienter weil der Job schneller erledigt wird.

Wo mehr Leistung ist (in fourmark), da darf auch mehr verbraucht werden.
Dass es in Spielen umgekehrt ist, also dass sowohl die Auslastung der Atikarte so gering ist dass sie langsamer ist als die nvidia (6970vs580), aber auch der Stromverbrauch so deutlich zurückgeht dass die 580 sich absetzt, zeigt mal wieder wie bescheuert diese furmarkvergleiche eigentlich sind.


Denn ausser Furmark, was du hier nicht für die 4870 X2 gelten lassen möchtest, gibt es kein Spiel in dem die 480 ihre TDP so extrem weit übersteigt.
Furmark ist ein extrem theoretischer Wert der nichts über den tatsächlichen Stromverbrauch aussagt. Viel wichtiger sind doch die Alltagswerte, also was aus der Steckdose gezogen wird bzw. was nachher auf der Stromrechnung steht.

5-10% war man sicherlich in Crysis @max drüber, aber allgemein gesehen ist die Angabe mit 250W schon ein passender Wert.
nicht wirklich, normalerweise liegen die Karten 10-30% unter der maximalleistungsgrenze (TDP). Das ist schon sehr ungewöhnlich und gefährlich von nvidia.



Aber wenns von Nvidia kommt, ist es grundsätzlich böse und überhaupt AMD hat jetzt schon ne Wolke gleich neben Mutter Theresa sicher,
fehlt nur noch die Seeligsprechung zu Lebzeiten, ich weiß ... :devil:

Offensichtlich kannst du Kritik an deiner Lieblingsmarke nicht vertragen.
Es wurde hier mehrfach gesagt, dass nvidia durch den niedrigen Idle Verbrauch in vielen Szenarios sogar die Nase vorn hat, etwa bei der GTX460 768 vs Radeon 6850 wenn man über 60% idle annimmt (ich komme auf mindestens 90%).
Aber das alles nimmst du ja nicht war, solange es nicht gebashe von AMDkarten ist.
Um zu bashen zitierst du auch völlig außerhalb des Kontexts. Zwei Jahre alte Highendkarten wie die 4870x2 sind nun dafür verantwortlich dass die 580 großartig ist und die 6990 ja gar nichts mehr werden kann...

Hugo78
2011-03-02, 20:23:31
Aber das alles nimmst du ja nicht war, solange es nicht gebashe von AMDkarten ist.
Um zu bashen zitierst du auch völlig außerhalb des Kontexts. Zwei Jahre alte Highendkarten wie die 4870x2 sind nun dafür verantwortlich dass die 580 großartig ist und die 6990 ja gar nichts mehr werden kann...

Aha ich "bashe" also wenn ich auf sowas reagiere...

dafür bescheißt nvidia bei den TDP Angaben wo es nur geht....

.. und aufzeige das ebend nicht nur Nvidia mal über die TDP geht.

Deine Gedankengänge zum Furmark sind erstmal ganz nett, aber als Entschuldigung für die zuniedrige TDP Angabe der 4870 X2, überzeugt mich das nicht.

Bei der Masse der Leute steht TDP ebend nicht für irgendeinen, temorär, praktischen Mittelwert (a la ACP), sondern für die maximale Verlustleistung und hier ist es egal,
aus welchen praktischen Überlegungen heraus, AMD hier nur 286W angesetzt hatte, denn morgen kommt eine Anwendung die nicht nur 3,7 sondern im Mittel 4,8 der 5 Vec auslastet und schon ist die TDP jenseits der 350W.

Und btw, die HD4k Reihe wird noch von vielen benutzt, genauso wie ich immernoch meine GTX 200er benutze.
Und 5Vec wird auch noch in der Masse (80% oder?!) der aktuellen HD6k verwendet, ausser Cayman.

Der Bezug ist also nicht auf eine 2 jahre alte Karte, sondern der auf eine immernoch aktuell im Laden kaufbare Architektur.

Lass doch mal morgen einen Open CL Progger Gott, den ultimativen Code schreiben, ein Videorender zb... ohne Limiter geht dann auch die 6870 durch die Decke,
genau wie sie es in Furmark gehen würde (wenns nicht den Limiter geben würde).

Hier Furmark als unfair oder "für Radeons nochmal unfairererererer" darzustellen ist doch recht mutig.

Ailuros
2011-03-02, 20:31:35
Und wo schrieb ich von einer HD 6990 mit <300W-TDP??
Ich schrieb ja von 375 (bzw. höher @ OC) bei HD 6990

<300W-TDP hatte HD 5970, aber das ist bald Vergangenheit. Ob das die besser oder gleichgut ankommt, wird AMD dann sehen.
Aber wie schon oben erwähnt. Mir scheint es, als ob AMD bewusst auf höhere Performance & höhere Energie-Verbrauch geht, da mir die 830 Mhz eben um ca. 50Mhz höher vorkommt, als wenn man mit der HD 5970-Auslegung (=weniger Takt (& Spannung?)) gehen würde.

IMO war die Kombination HD 5870 mit 160W-Spiele & 210W-TDP und HD 5970 mit 220W-Spiele und 300W-TDP bisher die optimalste Abstimmung zwischen Performance/"High-End-GPU" und ausblananzierte MGP (mit deutlicher Spannungsabsenkung)

Aber das Problem ist beim HD 6970 eben der höhere Energie-Verbrauch von 200W @ Spiele (oder so) und 250W-TDP, sodass sie wahrscheinlich keine ausbalanzierter MGPU mit <300W-TDP ausgeht.
Und wenn man (wahrscheinlich) schon mal zu viel Stromverbrauch hat, dann ist es Taktisch vielleicht nicht schlecht, wenn man es mal mit 375W-TDP probriert.

Kurz gesagt: wenn man eine Vernünftige MGPU hat, muss die Einzel-GPU eben auch demenstrechend ausgelegt alias wahrscheinlich so 160(-180W) @ Spiele sein.

Je näher die Einzel-GPU einen Spiele-Verbrauch von 300W bzw. 300W-TDP ist, desto unsinniger wird eine MGPU mit 300W-TDP.
Diese Regel galt damals schon, wie die 480GTX kam und sich nun bestätigte, und gilt eben heute auch, sodass sich mit HD 6990 eben nicht mehr 300W-TDP ausgeht.

Deshalb bin ich schon sehr gespannt, WIE (Aufwand, neuen Techniken/Lösungen; WIE nicht zu verwechseln mit OB !!!) Nvidia die 590GTX mit 2x580GTX-Dies schafft.

Ach ja, wichtig sind bei beiden auch die Stückzahlen & Preis. Performance & Energie-Verbrauch (wie hoch auch immer) mag schön sein, aber wenn der Aufwand so hoch bzw. der Grenzganz so knapp ist, dass nur wenige Stückzahlen möglich sind, dann ist das Produkt in der Theorie & Benchmark zwar nett, aber praktisch dann auch mäßig interessant.

Dir faellt es nach wie vor schwer die einfachsten Sachen zu verstehen und tobst wohl eher Deine Schreibfreudigkeit aus. Der hohe Stromverbrauch fuer 6990/590 ist so oder so auf 40G-only zurueck zu leiten.

Wenn ein IHV fuer 2*8pin auslegt (in diesem Fall beide) ist es ein layout fuer >300W. Huston request for landing....

davidzo
2011-03-02, 22:40:28
Bei der Masse der Leute steht TDP ebend nicht für irgendeinen, temorär, praktischen Mittelwert (a la ACP), sondern für die maximale Verlustleistung und hier ist es egal,
aus welchen praktischen Überlegungen heraus, AMD hier nur 286W angesetzt hatte, denn morgen kommt eine Anwendung die nicht nur 3,7 sondern im Mittel 4,8 der 5 Vec auslastet und schon ist die TDP jenseits der 350W.

TDP ist schlicht ein Wert für Boardpartner und die Industrie um Kühlung, Stromversorgung und Abluft sicher zu stellen. Nicht mehr und nicht weniger.
Wenn eine Bremse eingebaut wird, dann heißt das die TDP wird eingehalten, fertig aus! Nur weil eine Grafikkarte nunmehr kein ohmscher Verbraucher mehr ist muss man doch nicht gleich so heulen, eine simple LED braucht schießlich auch einen Vorwiderstand oder eine Konstanstromschaltung. Stell dir die neuen Grafikkarten eben als Diode vor, die irgendwie begrenzt werden muss. Am besten natürlich in Hardware, da Software ja sehr unzuverlässig ist, wie man ja an dem furmark exe renaming mit der 4870x2 sieht. Solche Überraschungen sollten gar nicht erst Möglich sein, wozu gibts schließlich Spezifikationen?

Unter den Umständen kann man sich streiten was praxisrelevanter ist, da leichte überschreiten der TDP durch die GT480 und 580 bereits in Spielen oder das überschreiten der TDP in theorietests wenn man eine sicherheits-sperre umgeht. Für mich ist die Antwort eindeutig.


Und btw, die HD4k Reihe wird noch von vielen benutzt, genauso wie ich immernoch meine GTX 200er benutze.

trotzdem hat sie nichts mehr in einem thread zu antilles zu suchen.


Und 5Vec wird auch noch in der Masse (80% oder?!) der aktuellen HD6k verwendet, ausser Cayman.

Eben und bei der masse gibts absolut keine Probleme. Nur weil eine einzelne 2Jahre Karte die noch dazu nur marginal verkauft wurde in einer gehackten Anwendung mal die TDP übersteigt muss man noch lange nicht hier alles damit zuspammen
Alle aktuellen ATIkarten und jene der letzten Generation liegen in der Praxis deutlich unter ihrer TDP - was man vin nvidia nicht gerade behaupten kann, dort siehts durch die Bank viel knapper aus.

Der Bezug ist also nicht auf eine 2 jahre alte Karte, sondern der auf eine immernoch aktuell im Laden kaufbare Architektur.
nope, das Problem wurde gefixt, das hast du ja bereits selber geschrieben.

Lass doch mal morgen einen Open CL Progger Gott, den ultimativen Code schreiben, ein Videorender zb... ohne Limiter geht dann auch die 6870 durch die Decke,
genau wie sie es in Furmark gehen würde (wenns nicht den Limiter geben würde).
Ist doch ein Kompliment für AMD wenn sie in Spezialszenarios, wenn man ihre Karten hackt noch deutlich mehr Rechenleistung bieten als die Konkurrenz das mit ihrer seriellen Architektur kann.
Den Limiter umgehen, ein openCL programm schreiben dass künstliche last erzeugt, das klingt mir alles zu sehr nach burnins und voltmods. Kann dich da immer noch nicht ernstnehmen.


Hier Furmark als unfair oder "für Radeons nochmal unfairererererer" darzustellen ist doch recht mutig.
ja performancemäßig ist es auch unfair gegenüber nvidia. aber sowas setzt ja nie jemand in ein verhältnis.

Nur mal so eine idee, statt zum hundertsten mal Furmakrverbrauchswerte zu betonen, wie wärs mal mit einem praxisparcours durch diverse reale Spiele? Ich meine Furmark ist der Versuch den Verbrauch einschätzen zu können, wieso also nicht den Praxisverbrauch gleich selber messen?

aylano
2011-03-03, 12:11:15
Dir faellt es nach wie vor schwer die einfachsten Sachen zu verstehen und tobst wohl eher Deine Schreibfreudigkeit aus.
Ich muss es leider genau sagen, weil es sonst viele falsch verstehen und es entstehen oft Diskussionen über eine Aussage, die falsch verstanden wurden. Solche sinnlosen Diskussionen will ich eben vermeiden, was mit ausführlichen Texten inkl. Rahmbebingungen besser klappt.

Auch bei dir antwortete ich zuerst mit einem Satz bzw. Frage und da reichte der eine Satz nicht aus, um zu zeigen, dass ich nicht von HD 6990 mit 300W-TDP schrieb.

Der hohe Stromverbrauch fuer 6990/590 ist so oder so auf 40G-only zurueck zu leiten.

Das verstehe ich nicht.
Damit behauptest du, dass der Takt & Spannung quasi egal ist.
Und das bezweifel ich.


Wenn ein IHV fuer 2*8pin auslegt (in diesem Fall beide) ist es ein layout fuer >300W. Huston request for landing....
Kannst du das endlich genau sagen, was du meinst.
Zum dritten Mal, ich weiß, dass HD 6990 für >300W ausgelegt ist und ich schätz ein Layout für kleiner 300W-TDP ist anders (Stromverschwendeter wegen mehr Performance?) ausgelegt als 375W-TDP (=größer 300W-TDP).

Ailuros
2011-03-03, 12:35:01
Das verstehe ich nicht.
Damit behauptest du, dass der Takt & Spannung quasi egal ist.
Und das bezweifel ich.

Mit "40G-only" meinte ich dass beide IHVs leider keinen kleineren Herstellungsprozess momentan zur Verfuegung haben. Und 40G mag zwar heutzutage ausgezeichnete yields haben, aber mir wird wohl keiner glauben wollen dass alles ideal ist mit 40G und Leckstroemen generell.

Kannst du das endlich genau sagen, was du meinst.
Zum dritten Mal, ich weiß, dass HD 6990 für >300W ausgelegt ist und ich schätz ein Layout für kleiner 300W-TDP ist anders (Stromverschwendeter wegen mehr Performance?) ausgelegt als 375W-TDP (=größer 300W-TDP).

Es ist das erste Mal dass wir 2*8pin auf GPUs sehen. Ich will hoffen dass sich solche Trends in der Zukunft nicht etablieren.

aylano
2011-03-03, 14:10:04
Und 40G mag zwar heutzutage ausgezeichnete yields haben, aber mir wird wohl keiner glauben wollen dass alles ideal ist mit 40G und Leckstroemen generell.
Aber warum die HD 6990 im Vergleich zur HD 6970 "viel" mehr Mhz hat als HD 5870 zu HD 5970 erklärt das trotzdem nicht.
Und das ist, was mich etwas zum nachdenken bringt.. (Ich nehme mal an, die Fertigung bzw. Leckströme sind heute besser als damals bei der HD 5870-Einführung.


Es ist das erste Mal dass wir 2*8pin auf GPUs sehen. Ich will hoffen dass sich solche Trends in der Zukunft nicht etablieren.
Überraschen tut mich dieser Momentane Situation nicht.
Ich sagte schon vor Jahren, wenn AMD & Nvidia die Chance sehen, die Performance-Krone zu erreichen, dann werden sie es versuchen, indem sie ans Limit gehen.

Und so sieht es IMO aus, weil AMD beim HD 6990 zuerst <300W-TDP zeigte und jetzt 3 Monate (nach einer Überarbeitung?) später aufeinmal mit <375W-TDP daherkommen.

Ob wir in Zukunft immer wieder bzw. immer mehr <375W-TDP-Produkte sehen werden, hängt IMO stark von der Qualität (Lautstärke, Micro-Ruckeln, Preis, Performance, Performance-pro-Watt (Kartenlänge, Kartengewicht)) ab bzw. wie sich das Gesamt-MGPU-Produkt im Vergleich zum Single-GPU verhält.

Da wir uns jetzt im Stromverbrauchslimit (sagen wir mal 300W-TDP) werden wir gerade in der zweiten Hälfte der 2-Jähres-Perioden, wo dann meistens die Refresh-GPUs kommen wahrscheinlich Grafikkarten sehen, die übers Limit gehen.
HD 4870 X2 war die zweite 55nm-GPU-Generation (>300W-TDP)
HD 5970 war quasi die erste 40nm-GPU-Genation (<300W-TDP)
GTX295 war nach G90-Serie die zweite 65/55nm-GPU-Generation und hatte laut Ht4U unter Furmark etwas über (>300W-TDP)

Vielleicht geht es so weiter. Im ersten Jahr des 2-Jährigen Fertigungsperiode haben MGPU <300W-TDP und im 2. jahr mit Refresh-karten, die eben mehr Performance bringen müssen, werden MGPU-Karten die 300W-TDP sprengen und sich dann hoffentlich sich nur auf 375W-TDP orientieren.

Solange die Basis-Produkte & Single-GPU von Low-End bis Performance/High-End-GPUs im Vernünftigen Strombereich liegt, ist es mir egal ob in einer Nischen sich der Stromverbrauch ausartet.

Sorry, für den langen Text.

Ailuros
2011-03-03, 15:00:45
Aber warum die HD 6990 im Vergleich zur HD 6970 "viel" mehr Mhz hat als HD 5870 zu HD 5970 erklärt das trotzdem nicht.
Und das ist, was mich etwas zum nachdenken bringt.. (Ich nehme mal an, die Fertigung bzw. Leckströme sind heute besser als damals bei der HD 5870-Einführung.

Was heisst warum? Der Unterschied zwischen einer 5970 und einer 6990 was den Stromverbrauch betrifft ist alles andere als klein.



Und so sieht es IMO aus, weil AMD beim HD 6990 zuerst <300W-TDP zeigte und jetzt 3 Monate (nach einer Überarbeitung?) später aufeinmal mit <375W-TDP daherkommen.

Gibt es einen Link dass AMD zuerst eine 300W TDP 6990 zeigte?

Ob wir in Zukunft immer wieder bzw. immer mehr <375W-TDP-Produkte sehen werden, hängt IMO stark von der Qualität (Lautstärke, Micro-Ruckeln, Preis, Performance, Performance-pro-Watt (Kartenlänge, Kartengewicht)) ab bzw. wie sich das Gesamt-MGPU-Produkt im Vergleich zum Single-GPU verhält.

Haengt wohl eher von den zukuenftigen Herstellungs-prozessen ab.

Da wir uns jetzt im Stromverbrauchslimit (sagen wir mal 300W-TDP) werden wir gerade in der zweiten Hälfte der 2-Jähres-Perioden, wo dann meistens die Refresh-GPUs kommen wahrscheinlich Grafikkarten sehen, die übers Limit gehen.
HD 4870 X2 war die zweite 55nm-GPU-Generation (>300W-TDP)
HD 5970 war quasi die erste 40nm-GPU-Genation (<300W-TDP)
GTX295 war nach G90-Serie die zweite 65/55nm-GPU-Generation und hatte laut Ht4U unter Furmark etwas über (>300W-TDP)

Wenn die Daten stimmen und 6990 tatsaechlich auf 830MHz laeuft mit einem 350W gaming TDP, dann wuerde es micht nicht wundern wenn eine 6990 ohne Treiber-throttling sogar die 375W Grenze ueberschreitet in Furfart(tm). Bei OC dann eben ueber der 450W Grenze.


Solange die Basis-Produkte & Single-GPU von Low-End bis Performance/High-End-GPUs im Vernünftigen Strombereich liegt, ist es mir egal ob in einer Nischen sich der Stromverbrauch ausartet.

Sorry, für den langen Text.

Kann sein dass Dir die GTX580 bzw. HD6970 TDPs als "normal" klingen; mir auf jeden Fall nicht. Speziell beim GF110 hat NV lediglich (dank Zeitdruck) die highest leakage Transistoren ersetzt, oder anders und einfacher nicht jeden Transistoren neu angelegt.

aylano
2011-03-03, 16:43:49
Gibt es einen Link dass AMD zuerst eine 300W TDP 6990 zeigte?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494463&page=10

Was heisst warum? Der Unterschied zwischen einer 5970 und einer 6990 was den Stromverbrauch betrifft ist alles andere als klein.

Der Stromverbrauch ist die Auswirkung/Symptom der Auslegung und nicht das Konzept dahinter.
Wenn man ein Effizientes MGPU mit <300W-TDP machen will, verwendet man auch sparsame Komponenten, aber dann kann man nicht mehr so hohes OC betreiben.
Wenn man mit der Auslegung auf volle Performance gehtum die Krone zu gewinnen, dann werden Komponenten verwendet, die höhere Stabile Takte zulassen, aber nicht gerade effizienz sind.
Bin gespannt, was dann wirklich dahinter steckt.

Haengt wohl eher von den zukuenftigen Herstellungs-prozessen ab.
Wie soll man das verstehen.??
Auch mit einer schlechten Fertigung hat AMD per HD 5970 die <300TDP eingehalten.
Abweichende Fertigungsvorgaben müssen etwas berücksichtigt werden.

Wenn die Daten stimmen und 6990 tatsaechlich auf 830MHz laeuft mit einem 350W gaming TDP, dann wuerde es micht nicht wundern wenn eine 6990 ohne Treiber-throttling sogar die 375W Grenze ueberschreitet in Furfart(tm). Bei OC dann eben ueber der 450W Grenze.
Das Throttling sollte man als Technik aktzeptieren, wenn es real nicht gebraucht wird bzw. nur in Furmark.
Keine Ahnung was schon wieder Furfart(tm) ist.


Kann sein dass Dir die GTX580 bzw. HD6970 TDPs als "normal" klingen; mir auf jeden Fall nicht.
Nein, bei mir kommen nur Grafikkarten mit Passiv-Kühler ins Gehäuse, die dann neben einem 25cm Seiten-Ventilator "gekühlt" werden.
Generell versuch ich die Bedürfnisse des Marktes zu erfassen um möglichst wenig von der "Wahrheit" abzuweichen.

Ailuros
2011-03-04, 07:47:10
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494463&page=10

Zu was soll mich das Bildchen genau ueberzeugen, da es ohnehin Platz fuer 2*8pin gibt?

Der Stromverbrauch ist die Auswirkung/Symptom der Auslegung und nicht das Konzept dahinter.
Wenn man ein Effizientes MGPU mit <300W-TDP machen will, verwendet man auch sparsame Komponenten, aber dann kann man nicht mehr so hohes OC betreiben.
Wenn man mit der Auslegung auf volle Performance gehtum die Krone zu gewinnen, dann werden Komponenten verwendet, die höhere Stabile Takte zulassen, aber nicht gerade effizienz sind.
Bin gespannt, was dann wirklich dahinter steckt.

Du hast selber gefragt warum der Frequenzunterschied zwischen 6990 und 6970 gegen 5990 vs. 5970 kleiner ist. Der hohere Stromverbrauch ist ein Resultat von den hoeheren Frequenzen. Was sonst ist neu?

Wie soll man das verstehen.??
Auch mit einer schlechten Fertigung hat AMD per HD 5970 die <300TDP eingehalten.
Abweichende Fertigungsvorgaben müssen etwas berücksichtigt werden.

Man sollte darunter verstehen dass die Qualitaet von 28HP und den folgenden Prozessen immer noch unbekannt ist. Nochmal 40G ist weder komplett problemfrei und TSMC hat 32nm storniert. Bis zu 28nm haben beide IHVs keine andere Wahl als 40G zu benutzen. Wenn sich aehnliches in der Zukunft wiederholt, dann ist es natuerlich moeglich dass wir aehnliche Trends auch in der Zukunft sehen werden.

davidzo
2011-03-04, 19:28:06
wieso diskutieren wir schon wieder über furmark, über die sinnlosigkeit hatten wir doch schon in allen anderen releasthreads der letzten zwei jahre diskutiert.

Kann ein Mod das mal bitte splitten (@Gipsel)? ich gucke hier rein weil ich news zur 6990 sehen will, nicht um eine Furmark Endlosdiskussion zu sehen!

Gipsel
2011-03-04, 20:33:11
wieso diskutieren wir schon wieder über furmark, über die sinnlosigkeit hatten wir doch schon in allen anderen releasthreads der letzten zwei jahre diskutiert.

Kann ein Mod das mal bitte splitten (@Gipsel)? ich gucke hier rein weil ich news zur 6990 sehen will, nicht um eine Furmark Endlosdiskussion zu sehen!
Habe ich mal gemacht.

Mit dem Kram zu Furmark und Throttling dabei geht es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8602550#post8602550) weiter.

Duplex
2011-03-07, 23:32:18
6990 Test Online
http://www.inpai.com.cn/doc/hard/144777_12.htm

ca. 30% mehr Power als 5970
http://www.abload.de/img/b9b85356-4420-4959-8abtzop.png
http://www.abload.de/img/f5d865e3-7826-4f19-bd1vyaz.png

mit Crysis sieht die 6990 auch gut aus
37% schneller als 5970 :)
http://www.abload.de/img/crysisaahq.png
und nochmal 35% schneller als 5970
http://www.abload.de/img/crysis2lx04.png

BC2
25% schneller als 5970
http://www.abload.de/img/bc23ab7.png

35% schneller als 5970
http://www.abload.de/img/bc22ul8a.png

boxleitnerb
2011-03-07, 23:47:39
Seh ich das richtig, dass die 6990 im non-Turbo Modus nur 320W schluckt? :eek:

y33H@
2011-03-07, 23:50:48
Das Ding hat nicht umsonst 2x 8P mit je 3x 12V.

Duplex
2011-03-07, 23:53:00
es ist ja die 2. 40nm Generation, 4D Shader brauchen auch mehr Energie als früher mit 5D, die AMD GPUs brauchen mehr Saft für mehr Lesitung ;)

sicher war die 5970 in Sachen Stromverbrauch besser weil die auch sparsamer als eine GTX480 war.

y33H@
2011-03-07, 23:56:16
VLIW4 mehr Saft als VLIW5? Das kann ich jetzt nicht ganz nachvollziehen. Wenn (!) du eine VLIW5-Einheit auslastest, schalten mehr Transistoren. Und HD 5970 gegen GTX 480 ... wir wissen alle, dass GF100 eine Ausnahme war und Cypress genauso. Epic fail gegen running fine, wenn man so will.

boxleitnerb
2011-03-07, 23:56:32
Ich meinte eigentlich, dass 320W verdammt wenig ist! Aber sie sagen ja selbst, dass das Ergebnis seltsam ist und mit Vorsicht zu genießen ist.

Duplex
2011-03-07, 23:59:25
@y33H@
dann übertakte mal eine 5870 von 850 auf 1000 GPU, in Games zieht die mit OC keine 15W mehr, ich hab das bei Crysis mal getestet, die VLIW4 ziehen bestimmt mehr Saft.

y33H@
2011-03-08, 00:04:50
@ boxleitnerb

Ich kenne ehrlich gesagt unsere Messwerte nicht, aber eine HD 6950 macht full load rund 160W, eine HD 6970 um die 220W. Da die HD 6990 mit 830 MHz und vermutlich zahmen Spannungen aufläuft, finde ich das nicht wirklich überraschend (zumal Powertune reinpfuscht). 569W mit OC-BIOS dagegen sind assi :biggrin:

@ Duplex

Was hat OC mit VLIW4/5 zu tun? Wenn du eine VLIW5-Einheit voll auslastest, muss diese mehr Saft ziehen, sofern sie mit dem gleichen Takt und Spannung arbeitet. Das ist einfach nur logisch. VLIV4 zieht wenn dann mehr, wenn VLIW5 stallt etc.

Duplex
2011-03-08, 00:08:54
die werden sowieso nicht voll ausgelastet, VLIW4 kann aber einfacher etwas höher ausgelastet werden, deshalb braucht VLIW4 auch mehr Saft, bei VLIW5 kannst du mehr Einheiten verbauen die nicht gleich mehr als VLIW4 verbrauchen müssen.

y33H@
2011-03-08, 00:11:34
Ich sagte ja, sofern VLIW5 stallt etc. Wird VLIW4 wie auch VLIW5 ausgelastet, zieht letzteres freilich mehr Saft. Daher (u.a.) nutzt AMD nun VLIW4.

Gipsel
2011-03-08, 00:13:07
Ich meinte eigentlich, dass 320W verdammt wenig ist! Aber sie sagen ja selbst, dass das Ergebnis seltsam ist und mit Vorsicht zu genießen ist.Laut Text offenbar stark von Powertune eingebremst, da sie den Wert nicht angehoben haben. Mit BIOS-Switch in OC-Position hat Powertune offensichtlich deutlich höhere Grenzen und regelt wirklich erst bei 450W ab, wenn es eng für die Spannungswandler wird.

@y33h@:
Die 319W sind offensichtlich für's Gesamtsystem, nicht nur für die Karte allein. Vielleicht lief da auch nur eine GPU.

y33H@
2011-03-08, 00:15:58
Die 319W sind offensichtlich für's Gesamtsystem, nicht nur für die Karte allein.Na dann ;(

Für Furmark aber arg wenig, selbst mit Powertune, die Karte alleine wäre dann ja unter 300W.

LovesuckZ
2011-03-08, 00:23:23
die werden sowieso nicht voll ausgelastet, VLIW4 kann aber einfacher etwas höher ausgelastet werden, deshalb braucht VLIW4 auch mehr Saft, bei VLIW5 kannst du mehr Einheiten verbauen die nicht gleich mehr als VLIW4 verbrauchen müssen.

Nur so nebenbei: Das macht null Sinn.

talentfrei
2011-03-08, 00:26:15
Ich meinte eigentlich, dass 320W verdammt wenig ist! Aber sie sagen ja selbst, dass das Ergebnis seltsam ist und mit Vorsicht zu genießen ist.

Niemals. Die Karte zieht locker 400.

Duplex
2011-03-08, 00:27:55
320W für das Gesamt System sind doch zuwenig?

Die 5970 als vergleich

Bei CB verbraucht das Gesamtsystem mit einer 5970 417 Watt (Letzterer wird durch Verwendung von Crysis Warhead unter der Auflösung 1920x1200 simuliert.)
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/25/#abschnitt_leistungsaufnahme

Die 6990 wird bei CB mit dem Gesamten System bestimmt 470-500W fressen

Duplex
2011-03-08, 00:32:09
Nur so nebenbei: Das macht null Sinn.
durch VLIW4 wird auf den Treiber auch weniger wert gelegt ;)

y33H@
2011-03-08, 00:37:28
Jetzt hör doch auf im Kreis zu rudern ...

Coda
2011-03-08, 00:49:13
Nur so nebenbei: Das macht null Sinn.
Jain. Solche Dinge haben schon eine Auswirkung auf den Stromverbrauch, aber es ist schlicht gar nicht einzuschätzen ob die Chips dadurch jetzt für ein Programm X mehr oder weniger verbrauchen.

Beispielsweise kann VLIW4 pro Instruction weniger ausführen, was zu größeren Programmen und daher auch mehr Verwaltungsaufwand führt.

Spasstiger
2011-03-08, 01:36:11
320W für das Gesamt System sind doch zuwenig?
Eine GTX 580 schluckt aber auch keine 453 Watt. Das ist schon die Angabe fürs Gesamtsystem.
Das Ergebniss der HD 6990 wird imo durch Powertune verzerrt. Mit HD-6970-Taktraten (Bios 2) sieht der Verbrauch ja nicht mehr so lustig aus, 116 Watt mehr als bei der GTX 580. Was aber angesichts des Performanceplus gegenüber der GTX 580 trotzdem in einem angemessenen Verhältnis steht.

y33H@
2011-03-08, 02:09:04
Bei dem Plus kann man aber gleich noch ein paar Prozente wegen dem AF und den µRucklern sowie dem Inputlag abziehen. Letzteres beides gilt freilich ebenso für die GTX 590 und wenn man es so (also realistisch) betrachtet, steht MGPU auf verlorenem Posten. Wie bisher auch.

Ailuros
2011-03-08, 08:59:50
Laut Text offenbar stark von Powertune eingebremst, da sie den Wert nicht angehoben haben. Mit BIOS-Switch in OC-Position hat Powertune offensichtlich deutlich höhere Grenzen und regelt wirklich erst bei 450W ab, wenn es eng für die Spannungswandler wird.

@y33h@:
Die 319W sind offensichtlich für's Gesamtsystem, nicht nur für die Karte allein. Vielleicht lief da auch nur eine GPU.

Das bloedeste an der Sache ist dass der BIOS switch und beim umschalten in den OC Modus der Leistungszusatz zu gering ist ueberhaupt im Vergleich zum Stromverbrauchs-zusatz: http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/29/#abschnitt_ausum_ocbios

Generell erwaehnen die meisten reviews die ich gelesen habe eine zu hohe Lautstaerke fuer 6990 und das schon bei default und ueberhaupt unter Last. Fuer mich gehoert die 6990 und die kommende 590 in die gleiche Schnapps-idee Kategorie fuer beide IHVs.

Lowkey
2011-03-08, 10:01:33
Das System bei Computerbase mit X58 Chipsatz und "nur" 85%+ Netzteil verbraucht gut 100 Watt mehr als eine Sandybridge.

Mit interessiert der Vergleich zur 4870 X2 oder zu Einzelkarten im Crossfire Verbund.

y33H@
2011-03-08, 14:29:59
CF nimmste die Einzelkarte +90%, fertig. Eine 4870 X2 ist idR auf Höhe der HD 5870.