PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 6970 und 6950 (P)Review-Thread


Seiten : 1 2 [3] 4

deekey777
2010-12-17, 12:34:54
Das war so ziemlich das erste, was ich mit der 6970 gemacht habe. Skalar 330, Vector 320. Die Präzision hat sich durch die Umstellung auf kleiner LUTs geändert.
Wie ist die Performance "Instruction Issue" im Vergleich zur HD5870?

Hier ist was, aber ich wil mehr:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcinlife.com%2Farticle%2Fgraphics%2F2010-12-15%2F1292360339d866_8.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

DrumDub
2010-12-17, 12:37:00
Richtig. Und der eine Cayman hat übertaktetes RAM. und wie passt das zu den werten von borderlands? da kann tesselation ja nicht der grund sein, warum die übertaktete 6950 gleichschnell bzw. minimal schneller ist. ergo kanns nur die speicherbandbreite sein.

http://www.xbitlabs.com/images/video/radeon-hd6970-hd6950/charts/09_bdland.png

Dural
2010-12-17, 12:40:09
Auf jeden Fall! Und beschreibe dabei, wie du diesen Fehler auf deiner HD6900 festgestellt hast.

in dem ich die karte aus der verpackung genommen und die PCI-E Stecker von aussen begutachtet habe... :rolleyes:

man sieht es ganz klar und eindeutig.

Iruwen
2010-12-17, 12:40:24
Eonige Erbnisse aus den Benchmarks zeigen deutlich, dass diese Serie Potential hat, es aber nicht ausspielt.

Und was ist daran bitter für Nvidia-Fans? Bitter ist das nur für AMD.

Armaq
2010-12-17, 12:43:29
Ach so ... tja, das ist natürlich übel, wenn die Verzögerung daher kommt :usad:

Armaqs Schreibe wirkt heute leider etwas besoffen, "geteilt" statt "gefeilt" hat halt eine komplett andere Bedeutung.
Sorry, Smartphone.

puntarenas
2010-12-17, 12:45:40
in dem ich die karte aus der verpackung genommen und die PCI-E Stecker von aussen begutachtet habe... :rolleyes:

Was sagt denn eigentlich Ilse Aigner zu der Geschichte. Mal im Ernst, wenn an der Isolierung der Stromanschlüsse herumgefeilt wurde, dann wird der ursprüngliche Zulieferer nicht mehr gerade stehen und AMD wird bestimmt nicht jedes handwerkliche Einzelstück auf Sicherheit validiert haben.

:confused:

G 80
2010-12-17, 12:53:27
Dieses Kantengate könnte aber wirklich noch zu Problemen führen, wenn solche Karten wirklich auch ausgeliefert werden (für die paar Reviews wars ja nicht so schlimm ... nur die Schande ^^).

Stellt euch mal den Gesichtsausdruck vom Kunden vor wenn er seine defekte Karte aus der RMA zurückbekommt - nicht repariert - mit dem Hinweis zerstört durch den Kunden. ;D
Versuch das denen mal klar zu machen: das war schon so bei der Auslieferung = :ucrazy3:

Natürlich wirds nur die erste Charge haben; aber umsoschwieriger das glaubhaft, inem Jahr oder so, zu machen.

Villichts hilfs ja auch bei Kantenfras: http://www.youtube.com/watch?v=HUl6YVYex58 :ubash2:

Von außen ist es ja nicht sichtbar oder? Immerhin sollten dan die Webshops als erste Barriere wegfallen und FALLS ATI und die Herrsteller Hirn besitzen und eine Richtlinie herausgaben wirds möglicherweise kein Problem.


Aber trotzdem merke:Holzschrauben sind übel, bei Powertune erlischt deine Garantie, die Mhz Angabe auf der Packung ist ein Maximalwert der villeicht im Program X auch anliegt, aber mal eben rumfeilen ist kein Problem. *SCNR*

Armaq
2010-12-17, 13:07:06
Ich habe kein I-Phone, aber Raff hat schon recht, mit einem Smartphone ist es irgendwie anders. -.-

Die Sache mit der gefeilten Kante ist einfach ein Unding. Lustigerweise wäre es nicht einmal möglich die Karte zurück zu schicken, denn das ist ja so gewollt und die Karte läuft auch. Gibt es eigentlich einen Hinweis auf der Verpackung, dass Powertune "installiert" ist und dementsprechend die Werte nur "bis zu" gelten? Insgesamt ist die Generation reichlich unausgegoren und AMD hätte lieber auf einen guten Start im neuen Jahr gebaut. Edit2: Ich gehe sogar soweit zu behaupten, AMD hätte vor Nvidia draußen sein können und Nvidia war selber etwas überrascht.

Edit: Bitter im Sinne von: Ohne die verzerrte Wahrnehmung hätte man gemerkt, dass bei den roten Balken irgendwas nicht stimmt. So sieht man nur den langen grünen und den kurzen roten Balken. ;)

DrumDub
2010-12-17, 13:15:42
Ich gehe sogar soweit zu behaupten, AMD hätte vor Nvidia draußen sein können und Nvidia war selber etwas überrascht.
ergibt sinn, denn die gpu hier (http://www.xbitlabs.com/picture/?src=/images/video/radeon-hd6970-hd6950/31_695_gpu_big.jpg) ist aus kw 34 (23.-29.08.10).
quelle: xbitlabs (http://www.xbitlabs.com/articles/video/display/radeon-hd6970-hd6950_4.html#sect0)

Dural
2010-12-17, 13:32:00
naja die ersten GF110 sind auch aus der KW 3x und das sind nicht mal ES GPUs wie oben beim Cayman

Armaq
2010-12-17, 13:35:06
Es ist eine klassische Stärke von ATI die Dinger schnell in den Markt zu bekommen, was nichts heißen muss, aber es kann.

V2.0
2010-12-17, 14:00:07
Nein, nur war die Execution bei NV in letzter Zeit bescheiden. Man darf aber nicht glauben, dass NV immer daneben greift.

Armaq
2010-12-17, 14:04:50
Auf ein starken 69xx muss man dennoch hoffen, sonst ist für 12 Monate Langeweile und Preishochstand angesagt.

V2.0
2010-12-17, 14:16:17
Nur im absoluten High-End. Der wahre Kampf wird Cayman Pro vs. 560/GF114 sein. Und ehrlich gesat davor sollte AMD mehr Angst haben, als sich um den Abstand von Cayman XT zur GF110 zu sorgen.

Rahl
2010-12-17, 14:31:40
Hi wie lange dauert es in der Regel bis die Anbieter mit ihren eigenen Kühllösungen daher kommen, will mir ne 6950 kaufen habe aber etwas angst das sie mir zu laut ist. Bei den 6850ern gings ja schlagartig bei den 6870ern dauerte es dagegen schon ne weile. vielleicht weiß da ja wer was ?

Schlammsau
2010-12-17, 14:32:02
Nur im absoluten High-End. Der wahre Kampf wird Cayman Pro vs. 560/GF114 sein. Und ehrlich gesat davor sollte AMD mehr Angst haben, als sich um den Abstand von Cayman XT zur GF110 zu sorgen.


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8453211#post8453211
Ich bezweifle, dass sie aus einem leicht modifiziertem GF104, der wohl endlich voll ausgebaut sein wird und höher getaktet ist, ~30-50% (lt. Computerbase) mehr Leistung rauskitzeln können, um die 6950 Leitsungstechnisch zu schlagen.
Vom Stromverbauch her halte ich es gänzlich für unmöglich, da die 460 (nicht übertaktet) jetzt schon fast soviel verbraucht wie eine 6950! Zusätzlich würde eine 570 ja auch 2GB VRAM benötigen.

mMn schafft man das mit der GPU nicht....

V2.0
2010-12-17, 14:36:00
Danke für Deine Meinung.

Schlammsau
2010-12-17, 14:51:46
Gern geschehen.

Schlammsau
2010-12-17, 15:06:32
@ Schlammsau

Kommt auch auf die Spiele an. Eine HD 5870 konnte sich anno September 2009 auch nicht weit von der GTX 285 absetzen und die HD 5850 oft erst recht nicht. Mittlerweile klatscht selbst die allseits verpönte HD 5830 im Mittel eine GTX 285, selbst ohne DX11-SpeedUp. Wozu Cayman in der Lage ist, zeigt zB in Metro 2033: Da schlägt eine HD 6970 eine HD 6870 mal so um gepflegte +50 bis +60% - ohne Tessellation (da hast du btw 1:1 mehr Leistung bei steigender Die-Size)! Es ging halt sicherlich viel Platz für das doppelte Front-End drauf, was derzeit ebenso wenig oft durchschlägt wie die verbesserten ROPs. Gib der Karte mal ein paar Neuerscheinungen und von mir aus auch Treiber und sie wird ihren Weg gehen. Und wie Carsten sagte, Platz für GGPU musste auch sein.
Also gibts doch "Wundertreiber"?

Cayman wird zulegen, evtl auch im 2 stelligen Bereich im Schnitt. Wie lange das dauern wird.....keine Ahnung.

Ich denke schon, dass momentan noch mehr aus Cayman, als aus GF110 oder GF114 zu holen ist. Just my 2 cents......

Was sich alleine beim Cypress innerhalb eines halben Jahres getan hat, ist auch beachtlich. Und das sind auch nur die Durchschnittschwerte.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ati-catalyst-10.4/11/#abschnitt_performancerating

Armaq
2010-12-17, 15:17:33
Sich selbst zu zitieren ist irgendwie merkwürdig. Der Glaube wird es nicht richten.

derguru
2010-12-17, 15:20:57
performance für den preis ist doch so oder so ok,die sollen mal lieber was fürs auge tun als 5% am balken.
das wäre für mich ein wundertreiber.:biggrin:

Vento
2010-12-17, 15:28:48
Also gibts doch "Wundertreiber"?

Cayman wird zulegen, evtl auch im 2 stelligen Bereich im Schnitt. Wie lange das dauern wird.....keine Ahnung.

Ich denke schon, dass momentan noch mehr aus Cayman, als aus GF110 oder GF114 zu holen ist. Just my 2 cents......

Was sich alleine beim Cypress innerhalb eines halben Jahres getan hat, ist auch beachtlich. Und das sind auch nur die Durchschnittschwerte.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ati-catalyst-10.4/11/#abschnitt_performancerating


Ist bei NV aber auch nicht sehr viel anders und darum ging es ja in erster Linie, bei beiden IHV's gibt es über einen längeren Zeitraum noch ein paar Prozentpunkte.

http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/12/#abschnitt_fazit


Von Cat. 10.4 bis 10.8 hat sich dann auch kaum noch etwas getan.

http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ati-catalyst-10.8/10/#abschnitt_fazit

Eggcake
2010-12-17, 15:33:07
Also quasi "sofort"?

Schlammsau
2010-12-17, 15:35:46
Ist bei NV aber auch nicht sehr viel anders und darum ging es ja in erster Linie, bei beiden IHV's gibt es über einen längeren Zeitraum noch ein paar Prozentpunkte.
Der Zeitraum vom 197.75 zum 260.52 ist dabei auch noch circa 6 Monate geringer als beim Catalyst 9.11 bis zum 10.4

http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/12/#abschnitt_fazit

Hab auch nie was anderes behauptet.

Aber ich denke, eben weil Cayman ne einigermassen neue Architektur ist und die GF100 nicht mehr, dass der Cayman durchschnittlich mehr zulegen kann, als zB der GF110.

y33H@
2010-12-17, 15:50:27
Die VLIW4 sind in der Spiele-Praxis kaum anders anzusprechen als die VLIW5, so wie ich das bisher sehe. Einzig (seltene) SFUs könnten da was ändern.

=Floi=
2010-12-17, 15:53:57
VORSICHT!

entweder du redest von alten spielen und deren treiberoptimierungen, oder du redest von neuen games und von den vorteilen der neuen architekturen!


---
ich frage mich aber noch immer, wofür ati die 2,7gflop denn braucht?! gerade shaderleistung wäre im überfluss vorhanden und DAS kann doch die karte nicht ausbremsen. objektiv betrachtet ist man bei der shaderleistung mit der 5870 und der 6970 schon auf einem sehr hohem niveau und man kann es sich einfach leisten hier nicht weiter aufzurüsten.

y33H@
2010-12-17, 16:04:39
Daher stagniert AMD ja auch in Sachen theoretische FLOPS, dafür lässt sich die immense Arithmetik-Leistung dank VLIW4 in der Praxis nun besser abrufen. Die größten Änderungen betreffen ja der verdoppelte Front-End, die massiv aufgemotzen ROPs und einige kleinere Tweaks. Ail liegt mit seiner Aussage, Cayman sei ein Cypress-Refresh gar nicht mal so falsch.

V2.0
2010-12-17, 16:09:18
Daher stagniert AMD ja auch in Sachen theoretische FLOPS, dafür lässt sich die immense Arithmetik-Leistung dank VLIW4 in der Praxis nun besser abrufen. Die größten Änderungen betreffen ja der verdoppelte Front-End, die massiv aufgemotzen ROPs und einige kleinere Tweaks. Ail liegt mit seiner Aussage, Cayman sei ein Cypress-Refresh gar nicht mal so falsch.

Wobei man sich halt da fragen muss wie effektiv Cypress mit seinen FLOPS so umgehen könnte. Die 5. Unit hat ja eben auch Spezialfunktionen abarbeiten können, die jetzt von den verbleibenden 4 erledigt werden müssen. Man könnte Cypress als auch 4+1 beschreiben.

deekey777
2010-12-17, 16:23:55
Wobei man sich halt da fragen muss wie effektiv Cypress mit seinen FLOPS so umgehen könnte. Die 5. Unit hat ja eben auch Spezialfunktionen abarbeiten können, die jetzt von den verbleibenden 4 erledigt werden müssen. Man könnte Cypress als auch 4+1 beschreiben.
Könnte man nicht.

V2.0
2010-12-17, 17:02:36
Könnte man nicht.

Natürlich, wenn man Cypress mit Cayman vergleicht, denn in der absoluten Rechenleistung tut sich eine VLIW5 nichts zu einer VLIW4. Die T-Unit hat aber Specialfunctions abarbeiten können während die anderen 4 an anderen Aufgaben arbeiteten. Heute belegt eine Specialfunction 3 Units, vorher nur die T-Unit.

Bei einer (laut AMD) durchschnittlichen Auslastung von 3,6-3,8 dürfte es von der Häufigkeit der Specialfunction abhängen welches System am Ende mehr effektive Leistung ergibt.

y33H@
2010-12-17, 17:18:27
Wo hast du du die 3,6 bis 3,8 laut AMD her? Link? =)

Captain Future
2010-12-17, 17:19:46
Könnte man nicht.
4 FMA + T(ranscendental).

V2.0
2010-12-17, 17:26:28
Wo hast du du die 3,6 bis 3,8 laut AMD her? Link? =)

Von Computerbase (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/3/#abschnitt_technik_1__die_neuerungen).

3.5 wird für Cypress genannt, Cayman soll besser sein.

y33H@
2010-12-17, 17:30:09
Ach so, dachte schon. Die 3,5 hat AMD mal kommuniziert, dein Post impliziert, die 3,6 bis 3,8 wären ebenfalls von hat AMD kommuniziert worden - was iirc aber nicht der Fall ist, sondern deine Vermutung?

AffenJack
2010-12-17, 17:35:32
Von Computerbase (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/3/#abschnitt_technik_1__die_neuerungen).

3.5 wird für Cypress genannt, Cayman soll besser sein.

Du verstehst das aber falsch, die Auslastung prozentual ist besser geworden. Bei 3.5 von 5 hast du 70% Auslastung, Gipsel hat schon öfter erläutert, dass bei "4D" die Auslastung auf vll 80% ansteigen könnte, das sind dann aber trotzdem nur 3.2.

deekey777
2010-12-17, 17:50:45
Natürlich, wenn man Cypress mit Cayman vergleicht, denn in der absoluten Rechenleistung tut sich eine VLIW5 nichts zu einer VLIW4. Die T-Unit hat aber Specialfunctions abarbeiten können während die anderen 4 an anderen Aufgaben arbeiteten. Heute belegt eine Specialfunction 3 Units, vorher nur die T-Unit.

Bei einer (laut AMD) durchschnittlichen Auslastung von 3,6-3,8 dürfte es von der Häufigkeit der Specialfunction abhängen welches System am Ende mehr effektive Leistung ergibt.
Nicht hin und her springen:
4+1 ist eine Instruction für 4 Komponenten und eine skalare. Cypress kann dagegen fünf.

V2.0
2010-12-17, 18:05:51
Nicht hin und her springen:
4+1 ist eine Instruction für 4 Komponenten und eine skalare. Cypress kann dagegen fünf.
Mir ging es um den Verlust der T-Unit. Gehen wir von den 3.5 Auslastungswert aus, dann würde man annehmen können, dass der "Verlust" wenig relevant sein sollte. Allerdings muss man eben sehen, dass die T-Unit von Cypress bei Specialfunctions 3 normale Units von Cayman ersetzt.

Es ging nicht um eine Funktionsbeschreibung, sondern um den Vergleich, dass Cypress zu Cayman auch als 4:4+1 gesehen werden kann. Wobei die T-Unit eben sogar erweiterte Funktionalität hat. 4:5 beschreibt es imho auch nicht richtig.

Janni555
2010-12-17, 22:19:18
oh mann, da freut man sich auf die neue Karte und dann das....
nachdem die 5870 vapor für Freezes sorgte hatte ich ja all meine Hoffnung auf die 6970 gesetzt und jetzt sind die Dinger laut und auch sonst nicht so prickelnd...
also doch auf ne leisere 570er warten:confused:

Spasstiger
2010-12-17, 23:15:33
Die HD 6950 ist dank dem großem Vapor-Chamber-Kühler, der auch auf der HD 6970 zum Einsatz kommt, temperaturmäßig noch nicht ausgereizt (10°C kühler als die HD 6970) und sollte mit Tools/Bios-Mods lautstärkentechnisch erträglich gemacht werden können. Von der Performance her kann sie einer HD 5870 Vapor-X auf jeden Fall Paroli bieten und hat hier und da dank den 2 GiB VRAM und der verdoppelten Geometrieleistung auch mal recht deutliche Performancevorteile. Gegenüber der HD 6970/GTX 570 ist die HD 6950 nur unwesentlich langsamer (7-13% bei hoher GPU-Last je nach Spiel und Setting).

Die gelbe Eule
2010-12-18, 00:10:56
Die Verfügbarkeit ist superbeschissen. Da viele LKWs im Stau standen oder Fahrverbot hatten, siehts auch für Montag nicht gut aus. Gibt vielleicht um die 400 Karten in Deutschland.

HTB|Bladerunner
2010-12-18, 00:43:14
Meine HD6970 von Sapphire reagiert ganz schön empfindlich beim Zwei-Monitor-Betrieb. Ist das normal?

1 Monitor
http://www.abload.de/img/1monitor8gl7.jpg

2 Monitore
http://www.abload.de/img/2monitorelgn7.jpg

uweskw
2010-12-18, 00:45:55
Die Verfügbarkeit ist superbeschissen. Da viele LKWs im Stau standen oder Fahrverbot hatten, siehts auch für Montag nicht gut aus. Gibt vielleicht um die 400 Karten in Deutschland.

Die haben die Schei*** doch gepachtet. Pechvögel, bei AMD geht wirklich alles schief was schief gehen kann.

airbag
2010-12-18, 00:47:09
Meine HD6970 von Sapphire reagiert ganz schön empfindlich beim Zwei-Monitor-Betrieb. Ist das normal?

1 Monitor
http://www.abload.de/img/1monitor8gl7.jpg

2 Monitore
http://www.abload.de/img/2monitorelgn7.jpg

Ja. Ist doch seit Jahren auch bei AMDkarten und nicht nur NV, wie manche behaupten so.

Die haben die Schei*** doch gepachtet. Pechvögel, bei AMD geht wirklich alles schief was schief gehen kann.
Wenn die AMDkarten im Stau stehen oder unterm Schnee begraben sind, sind es auch die NVkarten. ;)
Hat also für beide einen Nachteil.

Marty98
2010-12-18, 00:47:47
Laut Geizhals gibt es Shops wo die 6970 als lieferbar angezeigt wird und zwar für 319 EUR, der gleiche Preis wie die GTX 570.

Die gelbe Eule
2010-12-18, 00:55:18
Ja. Ist doch seit Jahren auch bei AMDkarten und nicht nur NV, wie manche behaupten so.


Wenn die AMDkarten im Stau stehen oder unterm Schnee begraben sind, sind es auch die NVkarten. ;)
Hat also für beide einen Nachteil.

570 GTX kannste aber kaufen und das nicht zu knapp. Wir sind voll im Weihnachtsgeschäft, nun kannste drei mal raten was man sich dann holt anstatt einer 6970.

derguru
2010-12-18, 00:57:16
macht man das nicht sowieso.:confused::biggrin:

airbag
2010-12-18, 00:59:00
570 GTX kannste aber kaufen und das nicht zu knapp. Wir sind voll im Weihnachtsgeschäft, nun kannste drei mal raten was man sich dann holt anstatt einer 6970.
Und wenn das Lager dann leer ist und ein halber Meter Schnee mehr liegt?;D

Die gelbe Eule
2010-12-18, 01:10:58
Das ist noch ein anderes Problem. Weil wir keine Ware bekommen haben, konnte auch nicht jede pünktlich rausgehen. Bin schon auf den Mittwoch gespannt was da abgeht.

airbag
2010-12-18, 01:12:26
Ja das ist natürlich auch blöd.
z.B. Hat Amazon schon vor 1,5Wochen eine Warnung auf deren Seite gestaltet, dass die Lieferungen sich deutlich verzögern könnten.

Iruwen
2010-12-18, 01:16:10
Haben sie wenigstens mehr Zeit zu feilen :freak:

Meine HD6970 von Sapphire reagiert ganz schön empfindlich beim Zwei-Monitor-Betrieb. Ist das normal?

1 Monitor
http://www.abload.de/img/1monitor8gl7.jpg

2 Monitore
http://www.abload.de/img/2monitorelgn7.jpg

4% Fanspeed sind 300RPM?

airbag
2010-12-18, 01:17:53
Dann muss das Ding ja mit mehr als 6000U/min drehen :freak:
Kein Wunder dass es 11Sone sind.

PCGH_Carsten
2010-12-18, 01:25:44
Jetzt verstehe ich deine Argumentation jetzt besser. Danke für die Erläuterung.

Pardon, 7%, aber das ist ja auch gar nicht der Knackpunkt.

1920*1080, 0AA, ich nehm die 570 mal heraus, um es hervorzuheben:

a) 6970 = 103 bei 1536*880=1351680 / 5500
b) 6950 = 103 bei 1408*870=1224960 / 5880
c) 6950 = 096 bei 1408*800=1126400 / 5000
d) 6870 = 090 bei 1120*900=1008000 / 4200

1) b erreicht mit 13% weniger Shaderleistung a, ergo ist die Shaderleistung keine Determinante, die Bandbreite aber auch nicht, denn die liegt bei b 7% höher als bei a.

2) c liegt 7% unter a und b, die Bandbreite von c liegt 10% unter a und 17% unter b, die Shaderleistung 25% unter a und 10% unter b.

3) d liegt 7% unter c hat weitere 17% weniger Bandbreite, und 12% weniger Shaderleistung als c.

Du schreibst:
1) b erreicht mit 13% weniger Shaderleistung a, ergo ist die Shaderleistung keine Determinante, die Bandbreite aber auch nicht, denn die liegt bei b 7% höher als bei a.

Dieser Schlussfolgerung kann ich mich nicht anschließen. Da die Benchmarkszene nicht statisch ist, können wir nicht einfach so tun, als würde Shaderleistung und Bandbreite in immer gleichem Maße benötigt. Ich würde vielmehr aus diesem Datensatz folgern, dass in dieser Konstellation 6,9% mehr Bandbreite für b die 9,4% niedrigere Shaderleistung ausgleichen können. Die Bandbreite hat hier offenbar einen größeren Einfluss als die Shaderleistung.

Du schreibst:
2) c liegt 7% unter a und b, die Bandbreite von c liegt 10% unter a und 17% unter b, die Shaderleistung 25% unter a und 10% unter b.

Die Bandbreite von c liegt 9,1% unter der von a, nämilich bei ~0,909a und 15% unter der von b, nämlich bei ~0,85b. Die Shaderleistung bei ~0,919b (-8,1%) und ~0,833a (-16,7%). c erreicht 93,2% der Fps von a und b.

Du schreibst:
3) d liegt 7% unter c hat weitere 17% weniger Bandbreite, und 12% weniger Shaderleistung als c.
-6,3%, -16%, -10,6%.


Und nun 2560*1600, 0AA, wiederum ohne die 570:

a) 6970 = 77 bei 5500
b) 6950 = 82 bei 5880
c) 6950 = 71 bei 5000
d) 6870 = 59 bei 4200

1) d liegt exakt bei 71/5000*4200=59
2) c liegt etwa bei 82/5880*5000=70
3) b liegt etwa bei 77/5500*5880=82

D. h. in der höheren Auflösung determiniert die Bandbreite zu 99% die Leistung bei verschiedenen Architekturen mit verschiedenen Tesselatoren und unterschiedlichster Shaderleistung.
Richtig! Betrachten wir uns doch mal das Setting mit Kantenglättung.

1) d liegt bei 42 (von 43,7 bei 99,9% Bandbreitenlimitierung)
2) c liegt bei 52 (von 51 bei 99,9% Bandbreitenlimitierung)
3) b liegt bei 60 (von 59,9 bei 99,9% Bandbreitenlimitierung)

Multisampling sollte eigentlich den Effekt von Bandbreitenlimitierung eigentlich noch verstärken. Tut's aber nur in 1.920x.1080.

Derselbe dafür verantwortliche Effekt bügelt sowohl die Anzahl ALUs als auch deren Takt als auch die Unterschiede im Frontend zu 100% glatt. Gäbe es ihn real, dürfte der Gleichstand zw. 5500 und 5880 GBit/s in der niedrigeren Auflösung nicht zustandekommen. Was geht da vor?
Verschiebung von Flaschenhälsen? Falls ich mich recht erinnere, nutzt Hawx2 screen-space adaptive Tessellation. Das würde eine höhere Polygonlast für 2.560 bedeuten und – wenn meine Annahme richtig ist – auch die Bandbreitenabhängigkeit verstärken.

Zumal der Vorsprung der 6970 auf die 6950 von 1920 auf 2560 auch größer wird.


Rund 289/4=72 FPS bei 2560*1600 (4096000) zu 392/4=96 FPS bei 1920*1080 (2073600) bedeutet 288:192 also im Mittel 3/2 und damit 50% mehr Schreibvorgänge in den Ausgabepuffer. Alle anderen Speicherzugriffe laufen weiterhin proportional der Anzahl Frames pro Sekunde ab. D. h. es kann keine proportionale Abhängigkeit von der Bandbreite geben, solange nicht der Umfang der Schreibzugriffe auf den Ausgabepuffer auflösungsbedingt so groß wird, daß er die sinkende Bildwiederholrate ausgleicht. Sonst überwiegt der Einfluss der GPU auf das Leistungsbild.
Um ein Pixel zu berechnen braucht's etwas mehr, als nur das Ergebnis in den Ausgabepuffer zu schreiben. In der Regel sinkt die Bandbreitenabhängigkeit in hohen Auflösungen, sofern nicht der Videospeicher oder ein interner Puffer (HSR o.ä.) überläuft, da die Recheneinheiten besser ausgelastet werden können.

Zu 100% von der Bandbreite determinierte Bildraten schliessen den Einfluss der Tesselation m. E. ohnehin aus, es sei denn, alle Speicherzugriffe wären Off-Chip-Buffering, und die GPU würde praktisch nichts anderes mehr machen. Dann wäre sie aber auch bei der kleineren Auflösung schon reichlich damit beschäftigt, und würde auf die 7% zwischen a und b skalieren. Tut sie aber nicht.
S.o., was die kleinere Auflösung anbelangt. Und wenn Hawx2 aufgrund einer Besonderheit im Design so enorm bandbreitenlastig wäre, dann dürfte die GTX 570 mit einem Rückstand von bis zu 19,3% weniger Bandbreite ggü. der HD6950 OC kaum die 130 Fps erreichen, die sie erreicht.

Zusammengefasst:
• Das Rendering im Spiel ist für GF und Radeon gleich (sonst hätte sich Herr Huddy sicher längst gemeldet)
• Radeon-Karten hängen hier stark an der Bandbreite, die GTX 570 agiert ganz offenbar weit unabhängiger davon
• Die Geforce skaliert wie folgt mit der Auflösung: bei ~50% der Pixel gibt's ~43% mehr Fps.
• Bei der Radeon HD6950 OC gibts für ~50% weniger Pixel rund 26% mehr Fps, bei der HD6970 sogar 33,7% und bei der 6950 stock sogar 35%.

Daraus schließe ich, dass abseits der pro Pixel anfallenden Arbeit bei den Radeon-Karten etwas limitiert - und zwar stärker als es bei der Geforce der Fall ist. Tessellation ist angesichts der vorhandenen Informationen für mich naheliegender als ein „unerklärbarer Effekt”.

Natürlich dürfen wir auch nicht komplett ausschließen, dass jemand Mist gemessen hat und/oder dass die Treiber noch nicht ausgereift sind für solche Rechenspielchen.

In jedem Falle wären weitere Daten wünschenswert.

Schrotti
2010-12-18, 01:32:49
Was für ein Reinfall für AMD.

Na egal, Hauptsache nv wird günstiger.

PS: Ich erspare mir das Aufrüsten denn meine 480 läuft mit 820/1900 und das dürfte eine GTX 570 sein.

http://www.abload.de/img/standard2m2x.png (http://www.abload.de/image.php?img=standard2m2x.png)

horn 12
2010-12-18, 08:10:15
HD6970 und 6950 wird von Tag zu Tag günstiger.
Denke die 310/ 240 Euro sind diese Tage schon drinnen...

Raff
2010-12-18, 09:00:56
Meine HD6970 von Sapphire reagiert ganz schön empfindlich beim Zwei-Monitor-Betrieb. Ist das normal?

1 Monitor
http://www.abload.de/img/1monitor8gl7.jpg

2 Monitore
http://www.abload.de/img/2monitorelgn7.jpg

Ja, das ist leider normal. Voller Speichertakt und eine etwas höhere GPU-Spannung und -Taktung.

MfG,
Raff

HTB|Bladerunner
2010-12-18, 09:29:12
Die 300 zusätzlichen Umdrehungen des Lüfters nach Aktivierung des zweiten Monitors haben es aber in sich. Von "flüsterleise" wird daraus "deutlich hörbar".

Dabei wird die Karte nahezu direkt von einem 140mm Lüfter mit Frischluft versorgt bei einer Zimmertemperatur von gerademal ~20°C.
Da kommt wohl ein lauter Sommer 2011 auf mich zu. :(

Die HD6970 ist damit im idle lauter als meine alte HD3870 x2.

Übrigens 1% Fanspeed scheinen 50 umd/min zu entsprechen.

AnarchX
2010-12-18, 09:36:21
Wenn du noch eine x16 Slot frei hast, kannst du ein günstige HD 4350 oder HD 5450 verbauen, an welche du den zweiten Monitor anschließen kannst. Damit bleibt die HD 6900 im niedrigeren Idle-Modus.

HTB|Bladerunner
2010-12-18, 09:39:13
Ahh, danke sehr gute Idee. :up:
Habe ja noch die Onboard-Grafikkarte vom 890GX Chipsatz übrig. Ich hoffe nur die Treiber kommen sich nicht in die Quere.

*edit*

Das klappt ja prima und stromsparender ist die Aktion auch noch.
Idle-Verbrauch ist von 162W auf 116W gefallen. :eek:

john carmack
2010-12-18, 10:49:25
http://www.3dcenter.org
News des 15. Dezember 2010

Eine potentielle Antwort darauf könnte sich aus dem Performance-Verhältnis zwischen Radeon HD 6950 & 6970 ergeben, welches auffallend konstant bei ca. 10 Prozent Differenz liegt – und damit exakt dem Unterschied in der ROP-Leistung sowie der Speicherbandbreite entspricht (während Rechen- und Texturierleistung um ca. 20 Prozent zwischen beiden Karten differieren). Es läßt sich hieran die These aufstellen, daß Radeon HD 6950 & 6970 eventuell komplett an ihrer ROP-Leistung oder Speicherbandbreite hängen (letzteres ist wahrscheinlicher) und daß daher die Verbesserungen an der Architektur gar nicht zum tragen kommen, so lange man ROP-Leistung oder Speicherbandbreite nicht erhöht.


http://www.3dcenter.org
News des 16./17. Dezember 2010

Irgendetwas anderes scheint noch dazuhinterzustecken, daß das RV970/Cayman-Design bei ca. 10 Prozent mehr Rohleistung gegenüber dem RV870/Cypress-Design nur auf ca. 15 Prozent Mehrperformance kommt und damit die ganzen Cayman-Effizienzverbesserungen nur eher lächerliche 5 Prozent einbringen sollen. In unserem Forum gibt es ja die interessante These, wonach das RV970/Cayman-Design ursprünglich für viel mehr Hardware-Einheiten innerhalb der 32nm-Fertigung ausgelegt wurde und daß alles dies durch die geringere Einheiten-Anzahl unter der 40nm-Fertigung ein wenig durcheinander geraten sei. Gut möglich, daß die Radeon HD 6950 & 6970 Karten durch künftige Treiber noch deutlich zulegen können – genauso gut möglich, daß wir die großen Vorteile des Cayman-Ansatzes erst bei der nachfolgenden Generation in 28nm sehen werden.


Gibt es denn kein offizielles Statement seitens AMD?
Wüde mich mal wirklich interessieren was da los ist.:confused:

Dural
2010-12-18, 11:16:11
kauft euch eine GTX570... ich finde die 6970 sogar schlechter als damals die 2900XT!!!

Säuft wie die sau strom und lässt sich nicht übertakten...

Ist ganz klar lauter als zb. GTX570/580

Meine läuft gerade mal mit 925MHz NICHT stabil!!! Bildfehler und nach einer weile absturz, stabil ist die Karte bei wahnsinnigen 900MHz (!!!!!!!!!!!) 3 Stunden lang getestet...

ich habe sogar ernsthafte zweifel ob die Karte mit ihren Default Takt OHNE powertune bei voller belastung stabil laufen würde!!!

Bench Takt ist 950/1500MHz jedoch mit sofortigen Bildfehler, das meiste läuft aber 1x durch... übringens bei diesem Takt komischerweisse null mehr Leistung in 3D Mark 11 als mit weniger takt, da greift wohl schon powertune durch.........


Benchmarks lass ich jetzt sein, aber es sieht richtig leid aus für die 6970 gegen eine GTX580 @ 950MHz, zwischen den karten liegen welten...

Metro konnte ich noch nicht testen, da über steam noch nicht runter geladen

AnarchX
2010-12-18, 11:19:12
Wenn du die Karte da hast, teste doch wenigstens mal HAWX 2 oder einen anderen Tess-Benchmark mit:
440/1350MHz
440/675MHz

Damit könnte man vielleicht sehen, ob AMD zu sparsam bei SI war.

Dural
2010-12-18, 11:21:39
hab ich schon geteste, nur übernimmt er bei mir keinen speicher takt (laut GPUZ) der weniger als 1375MHz ist

Armaq
2010-12-18, 11:23:17
Die Karten sind im Idle laut? Das widerspricht allen Tests. Bitte nehmt eine handelsübliche Metalfeile ... :D

Raff
2010-12-18, 11:24:16
hab ich schon geteste, nur übernimmt er bei mir keinen speicher takt (laut GPUZ) der weniger als 1375MHz ist

Mit was übertackerst du? Check die neueste Beta-Version des Anusbrenners: http://www.guru3d.com/news/afterburner-210-beta-5/

Die Karten sind im Idle laut? Das widerspricht allen Tests. Bitte nehmt eine handelsübliche Metalfeile ... :D

Mit einem Monitor unter 1 Sone. Mit zwei Monitoren zwischen 1,5 und 2 Sone, AFAIR.

MfG,
Raff

Dural
2010-12-18, 11:24:21
Trixx



Idle ist OK, last hört man sie aber klar aus dem system heraus


GTX580 @ 950/1150MHz @ 1,100Volt @ 85% Lüfter
http://3dmark.com/3dm11/208293


6970 @ 950/1500MHz @ 1,200Volt @ 100% Lüfter (ohne mehr Leistung zu 900MHz)
http://3dmark.com/3dm11/208851

Raff
2010-12-18, 11:28:39
Deine CPU ist zu langsam, scheint mir. Ich krieg ja schon mit meiner hochgknüppelten HD 5870/1G mehr als 5k im P-reset hin:

http://666kb.com/i/bpc4d7ayxapko9s9s.png

Ok, die Einzelscores für die GPU sind bei dir höher.

MfG,
Raff

OgrEGT
2010-12-18, 11:29:10
Twixx



Idle ist OK, last hört man sie aber klar aus dem system heraus


GTX580 @ 950/1150MHz @ 1,100Volt
http://3dmark.com/3dm11/208293


6970 @ 950/1500MHz @ 1,200Volt (ohne mehr Leistung zu 900MHz)
http://3dmark.com/3dm11/208851

Welche von beiden Karten ist bei diesen Einstellungen lauter? Rein subjektiv...
Edit: Wobei mir Referenzdesigns schon immer zu laut waren. Ich würde so doer so auf Custom Designs bei AMD/NV warten wollen.

OgrEGT
2010-12-18, 11:34:07
Was mich auch interessieren würde, wäre die Ausgabe von HD Video und HD Audio über HDMI der HD69xx im Vergleich zu GTX580 / GTX 570.

Ist das qualitativ vergleichbar?

Dural
2010-12-18, 11:41:36
ganz klar die 6970, ohne wenn und aber, der Lüfter der GTX580 ist da sogar recht leise.


Guck auf den GPU Score:

GTX580 6900
6970 5200

System ist sonst identisch! betreffent vergleich

Dural
2010-12-18, 11:51:19
toll wollte gerade zum vergleich eine 5870 2GB einbauen, der Lüfter dreht aber nicht und im Win bekamm ich nicht mal eine fehlermeldung, ich habe es so eben nur per zufall gemerkt als Furmark sofort zu machte :freak:

OgrEGT
2010-12-18, 12:17:10
Deine CPU ist zu langsam, scheint mir. Ich krieg ja schon mit meiner hochgknüppelten HD 5870/1G mehr als 5k im P-reset hin:

http://666kb.com/i/bpc4d7ayxapko9s9s.png

Ok, die Einzelscores für die GPU sind bei dir höher.

MfG,
Raff

Dural's CPU langsam? Er hat laut Sig doch auch nen X6 :confused:
Edit: Ah OK, habs gesehen, er hat nen C2D zum Benchen genommen.
@Dural: Kannst Du das nochmal mit dem Turban :) wiederholen?

OgrEGT
2010-12-18, 12:19:55
Was mich auch interessieren würde, wäre die Ausgabe von HD Video und HD Audio über HDMI der HD69xx im Vergleich zu GTX580 / GTX 570.

Ist das qualitativ vergleichbar?
@Raff & Co: Könnt ihr das testen?

OgrEGT
2010-12-18, 12:25:19
ganz klar die 6970, ohne wenn und aber, der Lüfter der GTX580 ist da sogar recht leise.


Guck auf den GPU Score:

GTX580 6900
6970 5200

System ist sonst identisch! betreffent vergleich

Na offenbar ist dann wohl der Stock Cooler/Stock Lüftersteuerung bei NV besser / besser eingestellt. Interessant wäre zu sehen, wenn man beide Lüftersteuerungen so einstellt, dass beide Karten unter Last gleich warm / heiss werden, und dann die Lautstärke nochmals vergleicht (falls das nicht schon der Fall war). Dann wüsste man, welcher Stock Cooler besser ist.

Anyway... für mich sind so oder so die Customkühllösungen interessanter.

Dural
2010-12-18, 12:47:05
da die 5870 2GB leider defekt ist hier noch schnell ein 3DMark 11 durchlauf mit einer

6870 @ 1050/1250MHz @ 1,300Volt @ 100% Lüfter

http://3dmark.com/3dm11/215027

Graphics Score 4179



zusammen gefasst:

GTX580 Graphics Score 6900
6970 Graphics Score 5200
6870 Graphics Score 4100



@Raff

habt ihr mit der 6970 in Heaven 2.1 auch Bildfehler?!?

Ich habe immer an den selben stellen die gleichen bildfehler, einmal beim drachen und einmal im dunkeln wo es über die lange brücke geht unten links im rassen, übrigens auch mal mit 800/1200MHz getestet am takt/hardware liegt es somit sehr wahrscheinlich nicht nicht, zu dem die bildfehler mit der 6870 nicht vorhanden sind!

komisch...

airbag
2010-12-18, 12:55:43
Wenn du die Karte da hast, teste doch wenigstens mal HAWX 2 oder einen anderen Tess-Benchmark mit:
440/1350MHz
440/675MHz

Damit könnte man vielleicht sehen, ob AMD zu sparsam bei SI war.

Man kann es doch andersherum machen und den Speicher hochziehen.

HTB|Bladerunner
2010-12-18, 13:43:46
....
@Raff

habt ihr mit der 6970 in Heaven 2.1 auch Bildfehler?!?

Ich habe immer an den selben stellen die gleichen bildfehler, einmal beim drachen und einmal im dunkeln wo es über die lange brücke geht unten links im rassen, übrigens auch mal mit 800/1200MHz getestet am takt/hardware liegt es somit sehr wahrscheinlich nicht nicht, zu dem die bildfehler mit der 6870 nicht vorhanden sind!

komisch...

Nenne mir mal deine Settings für Heaven 2.1. Vielleicht kann ich hier auch helfen. Wie sehen die Bildfehler aus?

Dural
2010-12-18, 13:46:55
Wenn du die Karte da hast, teste doch wenigstens mal HAWX 2 oder einen anderen Tess-Benchmark mit:
440/1350MHz
440/675MHz

Damit könnte man vielleicht sehen, ob AMD zu sparsam bei SI war.


Heaven Benchmark v2.1
-DX11
-1680x1050
-4AA
-16AF
-Tessellation extreme


6970 @ 500/700MHz
-AVG FPS: 17.0
-Min FPS: 7.0
-Max FPS: 44.4

6970 @ 500/1400MHz
-AVG FPS: 18.1
-Min FPS: 7.2
-Max FPS: 47.1

6970 @ 950/1400MHz
-AVG FPS: 31.8
-Min FPS: 11.8
-Max FPS: 82.7

6970 @ 950/800MHz
-AVG FPS: 27.9
-Min FPS: 11.2
-Max FPS: 70.8

-------------------------

6870 @ 1050/1250MHz
-AVG FPS: 22.7
-Min FPS: 9.9
-Max FPS: 52.7

-------------------------

GTX580 @ 950/1150MHz
-AVG FPS: 46.9
-Min FPS: 16.9
-Max FPS: 113.2

Marty98
2010-12-18, 13:48:54
Was mich auch interessieren würde, wäre die Ausgabe von HD Video und HD Audio über HDMI der HD69xx im Vergleich zu GTX580 / GTX 570.

Ist das qualitativ vergleichbar?

Wieso sollte es da Unterschiede geben? Will man höchste Quali dann setzt man entweder Reclock ein oder den MadVR Renderer und dann schaut das Bild bei AMD/Nvidia fast identisch aus (bis auf Kontrast, Helligkeit etc). Hab zur Zeit eine 4670 im Video-PC, aber da war schon eine 9600GT und konnte keine Unterschiede feststellen. Die AMD Karte blieb nur drin weil sie weniger Strom schluckt.

Dural
2010-12-18, 15:46:20
Strom Verbrauch gesamtes System


E8600 @ (4000MHz @ 1,3Volt)

6970 @ (950/1450MHz @ 1,2Volt) @ 100% Lüfter @ +20% Power Control

(die werten in (...) gelten natürlich nicht für Idle)


Idle 130Watt

Heaven 300Watt

Furmark 365Watt


GPU Temp Furmark 67°C / GPU Rückseite 60°C / Luftauslass Kühler 37°C / bei Lüfter @ 100% ca. 5900RPM


Bei Power Control auf Default taktet sich die karte runter, zb. Furmark auf bis zu 5xxMHz runter! Alles über 950/1450MHz (max Overdrive) läuft so gut wie gar nicht, ständig irgend welche ruckler egal welche Anwendung. Da greift wohl der Treiber ein... :rolleyes:

Dural
2010-12-18, 16:01:51
Heaven Benchmark v2.1
-DX11
-1680x1050
-4AA
-16AF
-Tessellation extreme


6970 @ 500/700MHz
-AVG FPS: 17.0
-Min FPS: 7.0
-Max FPS: 44.4

6970 @ 500/1400MHz
-AVG FPS: 18.1
-Min FPS: 7.2
-Max FPS: 47.1

6970 @ 950/1400MHz
-AVG FPS: 31.8
-Min FPS: 11.8
-Max FPS: 82.7

6970 @ 950/800MHz
-AVG FPS: 27.9
-Min FPS: 11.2
-Max FPS: 70.8

-------------------------

6870 @ 1050/1250MHz
-AVG FPS: 22.7
-Min FPS: 9.9
-Max FPS: 52.7

-------------------------

GTX580 @ 950/1150MHz
-AVG FPS: 46.9
-Min FPS: 16.9
-Max FPS: 113.2


Hier noch das selbe aber mit

-Tessellation normal


6970 @ 500/700MHz
-AVG FPS: 27.5
-Min FPS: 13.3
-Max FPS: 50.5

6970 @ 500/1400MHz
-AVG FPS: 28.7
-Min FPS: 13.8
-Max FPS: 52.7

6970 @ 950/1400MHz
-AVG FPS: 50.6
-Min FPS: 20.0
-Max FPS: 96.9

6970 @ 950/800MHz
-AVG FPS: 43.0
-Min FPS: 17.6
-Max FPS: 81.6

----------------------

GPU Infos

6970
http://www.techpowerup.com/gpuz/5cyy5/

6870
http://www.techpowerup.com/gpuz/meakp/

GTX580
http://www.techpowerup.com/gpuz/g54pn/

Spirou
2010-12-18, 17:36:05
Noch ein mal: es geht nicht um die Größe der Faktoren, sondern um deren Vorzeichen.
(Deswegen sprach ich von Logik, nicht von Prozentrechnung)

H.A.W.X.2 bei 1920*1080, ohne Antialiasing, laut xbitlabs:

a) 6970 = 103 FPS bei 1536*880 (=1351680) *5500=7433899000 /103=72173777
b) 6950 = 103 FPS bei 1408*870 (=1224960) *5880=7202764800 /103=69929755
c) 6950 = 096 FPS bei 1408*800 (=1126400) *5000=5632000000 /096=58666667
d) 6870 = 090 FPS bei 1120*900 (=1008000) *4200=4233600000 /090=47040000

1) b erreicht mit 90,625% Shaderleistung 100% der FPS von a, ergo ist die Shaderleistung keine Determinante, die Bandbreite aber auch nicht, denn die beträgt 106,9% von a. Beides sind offenbar (wie erwartet) Faktoren. Es gilt näherungsweise: (Shaderleistung * Gewichtung) * (Bandbreite * Gewichtung), wobei die Gewichtung keine Konstante sein kann, sondern eine Funktion sein muß.

2) c erreicht mit 83,333% Shaderleistung 93,2% der FPS von a, gleicht also offenbar die fehlende Shaderleistung durch geringere Bandbreite (90,90%) aus. Einer der Faktoren wirkt hier offenbar mit seinem Kehrwert.

3) c erreicht mit 91,954% Shaderleistung 93,2% der FPS von b, gleicht also offenbar die fehlende Shaderleistung durch geringere Bandbreite (85,03%) aus.

4) Gerundete 8% Shaderleistungsdifferenz von c zu b stehen 15% Bandbreitendifferenz gegenüber, gerundeten 16% hingegen 10% zu a. Demnach besteht ein Optimum im Bereich der Mittelwerte, und Abweichungen wirken sich sowohl bei der Bandbreite als auch bei der Shaderleistung überproportional aus. Bandbreite und Shaderleistung sind austauschbare Faktoren. Das ist nichts neues.

5) d erreicht mit 74,57% der Shaderleistung und 76,36% der Bandbreite von a 87,38% der FPS von a. Wir hatten gerade festgestellt, Shaderleistung und Bandbreite sind Faktoren, und sehen nun 87% der Leistung von a mit 57% der Mittel von a verwirklicht. Ein Hoch auf die Wunderkarte!

PCGH-Redakteure erklären die wundersame Leistung von d als bandbreitenbedingte (Neuer Slogan: Jetzt noch mehr Leistung durch erhöhte Bandbreitenreduzierung!) Supereffizienz des einsamen Wundertesselators, der gleich zwei seiner modernisierten Gegenstücke mühelos überrundet.

Laut diverser Heaven-Benches tesseliert eine 6970 in 1920*1200 etwa doppelt so schnell wie eine 6870 und auf Schlagweite zu einer GTX 570.

H.A.W.X.2 bei 2560*1600, ohne Antialiasing, laut xbitlabs:

a) 6970 erreicht mit 1538/880/5500 77 FPS
b) 6950 erreicht mit 1408/870/5880 82 FPS (77/5500*5880=82)
c) 6950 erreicht mit 1408/800/5000 71 FPS (82/5880*5000=70)
d) 6870 erreicht mit 1120/900/4200 59 FPS (71/5000*4200=59)

Abstände der Karten untereinander in FPS = Abstände der Karten untereinander in Prozent der Bandbreite? (Böser Gedanke: Da war wohl kein passender Monitor zur Hand und der Praktikant zu faul, sich 'ne glaubwürdigere Formel auszudenken) Wo die Bandbreite zu 99% die Leistung verschiedener Architekturen mit verschiedenen Tesselatoren und unterschiedlichster Shaderleistung determiniert, ist was faul. Was hier an 100% fehlt, liegt im Bereich des Rundens und noch unterhalb erreichbarer Benchtoleranzen.

Derselbe dafür verantwortliche Effekt bügelt sowohl die Anzahl ALUs als auch deren Takt als auch die Unterschiede im Frontend zu 100% glatt. Gäbe es ihn wirklich, dürfte der Gleichstand zw. a (5500 GBit/s) und b (5880 GBit/s) in der niedrigeren Auflösung nicht zustandekommen. Was geht da vor?

Rund 289/4=72 FPS bei 2560*1600 (4096000) zu 392/4=96 FPS bei 1920*1080 (2073600) bedeutet 288:192 also im Mittel 3/2 und damit 50% mehr Schreibvorgänge in den Ausgabepuffer. Alle anderen Speicherzugriffe laufen weiterhin proportional der Anzahl Frames pro Sekunde ab. D. h. es kann keine proportionale (d.h. lineare) Abhängigkeit von der Bandbreite geben, solange nicht der Umfang der Schreibzugriffe auf den Ausgabepuffer auflösungsbedingt so groß wird, daß er die sinkende Bildwiederholrate ausgleicht.

Allein von der Bandbreite determinierte Bildraten können nur dann durch Off-Chip-Buffering erklärt werden, wenn damit nahezu die gesamte Bandbreite ausgelastet würde. Dann aber müssten die Bandbreitenunterschiede auch in der niedrigeren Auflösung deutlicher skalieren.

PCGH-Redakteure sehen Bandbreitenabhängigkeiten, die sich mit zusätzlichem Antialiasing verringern, auflösungsabhängige Tesselation, die bei höherer Auflösung im Verhältnis der AMD-Ergebnisse zueinander nicht mehr als Faktor zum Tragen kommt, und so ganz nebenbei auch gleich den Abstand zu Nvidia verringert?

Ich sehe vor allem einen Benchlaboranten, dem all das nicht auffiel, und der nicht das geringste Interesse an den Tag legte, dermassen auffällige Abweichungen vom Erwartbaren durch Tests mit verschiedenen Taktkombinationen abzuklären. Da werden offenbar höchst gelangweilt und zufrieden Karten in ein vorgegebenes Schema sortiert. Zur Kontrolle Borderlands.

Borderlands bei 1920*1080, ohne Antialiasing, laut xbitlabs:

a) 6970 = 77 FPS bei 1536*880 (=1351680) *5500=7433899000 /77=96544143
b) 6950 = 77 FPS bei 1408*870 (=1224960) *5880=7202764800 /77=93542400
c) 6950 = 69 FPS bei 1408*800 (=1126400) *5000=5632000000 /69=81623188
d) 6870 = 63 FPS bei 1120*900 (=1008000) *4200=4233600000 /63=67200000

Borderlands bei 2560*1600, ohne Antialiasing, laut xbitlabs:

a) 6970 erreicht mit 1538/880/5500 50 FPS (7433899000/50=148677980)
b) 6950 erreicht mit 1408/870/5880 51 FPS (7202764800/51=141230682)(50/5500*5880=53)
c) 6950 erreicht mit 1408/800/5000 45 FPS (5632000000/45=125155556)(51/5880*5000=43)
d) 6870 erreicht mit 1120/900/4200 40 FPS (4233600000/40=105840000)(45/5000*4200=38)

Das ist entweder ein unerklärlicher Effizienznachteil der 6900er gegenüber der 6800er Serie oder ein gewaltiges Potential im Treiber von etwa 20%.

y33H@
2010-12-18, 18:30:34
Neuer HD-6900-Treiber steigert Tessellationsleistung um bis zu 75 Prozent (http://www.pcgameshardware.de/aid,804732/Neuer-HD-6900-Treiber-steigert-Tessellationsleistung-um-bis-zu-75-Prozent/Grafikkarte/News/)

Da habt ihr euren "Wundertreiber" :ulol:

derguru
2010-12-18, 18:33:44
wo stieg denn die tessleistung bis zu 75% an?

y33H@
2010-12-18, 18:35:10
So wie ich das lese im "SubD11-Sample" des SDKs bei einem bestimmten Tessellationsfaktor. Benches folgen wohl ...

derguru
2010-12-18, 18:40:08
so ne wurst das keiner hier den cayman hat,stone giant wäre perfekt.
einer muss sich doch im forum test halber ein cayman kaufen.:biggrin:

PCGH_Carsten
2010-12-18, 18:56:32
[Zuviel Ausführlichkeit für meine Zeit]
Bei deinen Logikspielereien vergisst du leider völlig, dass ein Tessellator durchaus in der Lage ist, den Rest der Pipeline ziemlich aufzuhalten, wenn er den Flaschenhals darstellt. Und wenn er sogar mit Off-Chip-Buffering, welches an der Bandbreite hängt, noch immer der bestimmende Flaschenhals ist, spielen die anderen Faktoren nur untergeordnete Rollen.

Die GTX 570 skaliert lediglich gemäß den Erwartungen, sprich, wird in niedrigen Auflösungen und ohne Kantenglättung nicht (so bestimmend) von Dingen wie der Tessellation gebremst. Dadurch fällt der Fps-Verlust bei höherem Pixel-Count oder Anti-Aliasing naturgemäß größer aus.

Aber wenn es dich beruhigt: Rein innerhalb der Radeons sehen deine Betrachtungen durchaus schlüssig aus. Nur fällt das Kartenhaus eben zusammen, wenn man die Geforce mit einbezieht.

@ y33h@, derguru:
Benches sind doch längst verlinkt.

y33H@
2010-12-18, 18:59:27
Oh, cool =)

Ronny145
2010-12-18, 23:58:27
@ y33h@, derguru:
Benches sind doch längst verlinkt.


Wo genau? Ich sehe nur SDK Werte. Interessanter würde ich es finden wie es sich in Spielen mit Tessellation auszahlt.

Dural
2010-12-19, 02:21:50
Strom Verbrauch gesamtes System

E8600 @ (4000MHz @ 1,3Volt)

6970 @ (950/1450MHz @ 1,2Volt) @ 100% Lüfter @ +20% Power Control

(die werten in (...) gelten natürlich nicht für Idle)


Idle 130Watt

Heaven 300Watt

Furmark 365Watt


GPU Temp Furmark 67°C / GPU Rückseite 60°C / Luftauslass Kühler 37°C / bei Lüfter @ 100% ca. 5900RPM




nur schnell als vergleich mit der

GTX580 @ 850/1100MHz @ 1,050Volt @ 85% Lüfter


Idle 130Watt

Heaven 340Watt

Furmark 330Watt


GPU Temp Furmark 63°C bei Lüfter @ 85% ca. 4000RPM


mit 950/1150MHz / 1,100Volt geht es auf die 400Watt zu...

uweskw
2010-12-19, 02:31:53
Kann mir jemand erklären was "Tessellations Factor" bedeuted?
Bzw. wie wirkt sich 5, 15, oder 25 aus?

AnarchX
2010-12-19, 10:53:26
Die Zahl der Unterteilung des Ursprungs-Polygons.

uweskw
2010-12-19, 13:00:19
Die Zahl der Unterteilung des Ursprungs-Polygons.
Thanks!

Tess-factor 32 bedeuted dann also dass ein Polygon in 32 Teile aufgeteilt wird?
Wie gross ist ein Polygon in einem aktuellen Spiel? Bis zu welchem Tess-Factor machen solche Unterteilungen einen sichtbaren Unterschied?

Aquaschaf
2010-12-19, 13:30:44
Wie gross ist ein Polygon in einem aktuellen Spiel? Bis zu welchem Tess-Factor machen solche Unterteilungen einen sichtbaren Unterschied?

Das kann sehr unterschiedlich sein.

uweskw
2010-12-19, 13:36:34
Und wovon hängt das ab?
Gibts nen link wo man sich auch als Einsteiger informieren kann?
Google gibt nicht wirklich viel her...

ENKORE
2010-12-19, 13:37:23
Das kann sehr unterschiedlich sein.
Grob: Je bullshittiger das Originalspiel, je eher sieht man Tesselation. Ich würde z.B. mal bezweifeln, dass Tesselation > 2 bei z.B. Crysis Warhead überhaupt noch wahrnehmbar ist. Bei... na sagen wir mal Half-Life 2 dürfte das aber noch eher sichtbar sien...

uweskw
2010-12-19, 13:53:01
Grob: Je bullshittiger das Originalspiel, je eher sieht man Tesselation. Ich würde z.B. mal bezweifeln, dass Tesselation > 2 bei z.B. Crysis Warhead überhaupt noch wahrnehmbar ist. Bei... na sagen wir mal Half-Life 2 dürfte das aber noch eher sichtbar sien...

wieso Tesselation > 2 nicht mehr wahrnehmbar?

Armaq
2010-12-19, 13:59:35
Weil er der Meinung ist, dass Crysis genug Polygone hat.

Botcruscher
2010-12-19, 14:39:41
Und wovon hängt das ab?
Gibts nen link wo man sich auch als Einsteiger informieren kann?
Google gibt nicht wirklich viel her...

Je grober und um so mehr Pixel. Spätestens irgendwo bei 3 Pixel pro Polygon ist das Ende der Fahnenstange erreicht. Je bullshittiger das Original kommt voll hin. Bleibt noch das Texturproblem.

deekey777
2010-12-19, 15:01:05
Es wäre schon interessant, wenn man in Crysis das POM durch Displacement Mapping ersetzen würde

uweskw
2010-12-19, 15:56:45
Also:
Ein Polygon mit 3 Pixeln ist schon fast zu grob?
Das heist Tess-Factor 9 hätte selbst bei groben Polygonen immer noch 3 unterteilungen pro Pixel?
Sieht man dann im Spiel einen Unterschied zw. Tessfactor 9 ung z.B. 29?

davidzo
2010-12-19, 16:10:54
Ich sehe vor allem einen Benchlaboranten, dem all das nicht auffiel, und der nicht das geringste Interesse an den Tag legte, dermassen auffällige Abweichungen vom Erwartbaren durch Tests mit verschiedenen Taktkombinationen abzuklären. Da werden offenbar höchst gelangweilt und zufrieden Karten in ein vorgegebenes Schema sortiert. Zur Kontrolle Borderlands.

Borderlands bei 1920*1080, ohne Antialiasing, laut xbitlabs:

a) 6970 = 77 FPS bei 1536*880 (=1351680) *5500=7433899000 /77=96544143
b) 6950 = 77 FPS bei 1408*870 (=1224960) *5880=7202764800 /77=93542400
c) 6950 = 69 FPS bei 1408*800 (=1126400) *5000=5632000000 /69=81623188
d) 6870 = 63 FPS bei 1120*900 (=1008000) *4200=4233600000 /63=67200000

Borderlands bei 2560*1600, ohne Antialiasing, laut xbitlabs:

a) 6970 erreicht mit 1538/880/5500 50 FPS (7433899000/50=148677980)
b) 6950 erreicht mit 1408/870/5880 51 FPS (7202764800/51=141230682)(50/5500*5880=53)
c) 6950 erreicht mit 1408/800/5000 45 FPS (5632000000/45=125155556)(51/5880*5000=43)
d) 6870 erreicht mit 1120/900/4200 40 FPS (4233600000/40=105840000)(45/5000*4200=38)


Vielen Dank ersteinmal für deine ausführlichen Beobachtungen.

Hier neuer unbekannter Faktor, die das ganze noch ein wenig komplizierter machen:
- Speichertimings. Vermutlich hat die 6950 wesentlich schärfere timings, die zum Vorteil auch bei der übertaktung beitragen.

Außerdem sollte man folgendes ebenfalls berücksichtigen:
- ROPlimitierung. Die 6870 hat 32 rops bei 900mhz, damit im idealfall mehr ropleistung als die Caymankarten. Bei Barts limitiert allerdings der rest, so dass diese ropleistung nicht immer durchschlägt. Die ropverbesserungen in spezialbereichen machen sich bei cayman im normalfall nicht bemerkbar.
- Frontend, Caches. 900mhz Chiptakt sind schon was. Möglicherweise kann der Triber die Parallelität des Frontends von Cayman noch nicht voll ausnutzen, weshalb barts mit bewährten cypress frontend hier noch vorteile hat.


Das ist entweder ein unerklärlicher Effizienznachteil der 6900er gegenüber der 6800er Serie oder ein gewaltiges Potential im Treiber von etwa 20%.
ja, daran habe ich auch schon gedacht. ich halte einen performancetreiber anfang 2011 durchaus für möglich. die versögerung aufgrund von bauteilebeschaffung halte ich außerdem für eine Lüge.
Wenn es gerade nicht gut für einen läuft, dann teilt man aus um die Schwäche zu überdecken. Ich glaube also die PR-Schlammschlacht des catalystteams kam nicht von ungefähr genau jetzt. Glaube AMD hat einfach noch auf brauchbare treiber gewartet und nun gelauncht obwohl speedmäßig immer noch nicht überzeugend (launchdates und shipping stand aber fest, man konnte also nicht noch länger warten).

Spasstiger
2010-12-19, 16:13:22
Es wäre schon interessant, wenn man in Crysis das POM durch Displacement Mapping ersetzen würde
Es wäre auch interessant, wenn man von dem ganzen Kleinkram (Flaschen, Computer, Aschenbecher, Früchte, etc.) die High-Poly-Varianten anbieten würde, die sicherlich irgendwo bei Crytek vor sich hin verrotten.
Adaptive Tessellation wäre dafür prädestiniert.
Die müssten bloß mal einen Praktikanten einstellen, der Crysis auf die Cryengine 3 portiert und die High-Poly-Objekte tessellationstauglich einpflegt. ;)

Botcruscher
2010-12-19, 16:13:29
Also:
Ein Polygon mit 3 Pixeln ist schon fast zu grob?
Das heist Tess-Factor 9 hätte selbst bei groben Polygonen immer noch 3 unterteilungen pro Pixel?
Sieht man dann im Spiel einen Unterschied zw. Tessfactor 9 ung z.B. 29?


Nein. 3 Pixel pro Polygon ist optisch irgendwie als Dreieck zu zu erkennen. Ab 1 Pixel oder darunter wird es erst recht sinnfrei. Einfachstes Beispiel sei ein Kreis als Optimum. Nun versuche diesen Kreis mit Dreiecken zu füllen um eben den Außenkreis bilden zu können. Nach wenigen zusätzlichen Dreiecken wirst du keinen Unterschied mehr sehen können. Jetzt packst du da noch gedanklich ein Raster für die Auflösung drüber.
Bei so einem Gedankenexperiment wird einem schnell deutlich wie gehypt Tesselation wird, gerade wenn man Crysis betrachtet. Heutige Spiele haben ironischer weise schon zu viele Dreiecke. Es lohnt sich also wenn die Modelle gelinde gesagt Mist sind. Diese popt man dann mit Tes. etwas auf. Größtes Problem dabei ist die Textur. Diese kennt keine Koordinaten. Das ist so als würdest du eine Karte über ein 3D Modell ziehen. Je mehr Erhebungen da drin sind um so bescheidener wird es.

Spasstiger
2010-12-19, 18:36:33
Für die Darstellung eines Kreises mit ~100 Pixeln Umfang reichen schon 16 Eckpunkte aus, damit der Kreis völlig rund aussieht. Hab da was gebastelt:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=38254&stc=1&d=1292780186

Bei 164 Pixeln Umfang ist der Kreis noch eckig, bei 82 Pixeln Umfang nicht mehr.

=Floi=
2010-12-19, 23:08:35
was hat der umfang des kreises damit zu tun? du müsstest doch die anzahl der dreiecke angeben.
aktuell hättest du ja nur 16 polygone.

Spasstiger
2010-12-19, 23:58:29
Um ein regelmäßiges 16-Eck wie hier darzustellen, brauchst du 14 Dreiecke. Und was der Umfang damit zu tun hat? Die minimale Kantenlänge der Dreiecke ist Umfang/16.

uweskw
2010-12-20, 00:02:41
hab ich also was falsch verstanden?
Ist anscheinend so: die kleinsten Polygone haben 3 Pixel.
Kann man sagen wie groß die Polygone in einem modernem Spiel so im Durchschnitt sind?

samm
2010-12-20, 01:51:45
hab ich also was falsch verstanden?
Ist anscheinend so: die kleinsten Polygone haben 3 Pixel.
Kann man sagen wie groß die Polygone in einem modernem Spiel so im Durchschnitt sind?Ja.
Nein.
Nein.

Ein Polygon ist im schlimmsten noch sichtbaren Fall durch 1 Pixel "approximiert". Du kannst nicht in Pixeln messen, wie gross ein Polygon ist. Stell dir halt mal ein Dreieck vor, das auf nem Bildschirm dargestellt wird, und das im Moment 100 Pixel Seitenlänge hat (kann man eigentlich so schon nicht wirklich sagen). Dann entfernt sich die Kamera, und das Polygon nimmt weniger Pixel ein, irgendwann nur noch 1 und dann gar keins mehr.
(Den Effekt von AA jetzt mal weggelassen, der z.B. zwischen 1 und 0 Pixeln noch ein Verschwinden der Farbe bewirken würde^^)
So, und jetzt mal, wenn du so viele so kleine Polygone auf dem Bild hast, das eins z.B. der Spielfigur im normalen Kameraabstand noch 3 Pixel einnimmt - was willst du da noch tesselieren? Die 3 Pixel waren nur als Beispiel gewählt, weil das das letzte noch als "Dreieck" vorstellbare gerasterte Polygon ist.

So, und wenn das ein Profi noch eingängiger Beschreiben kann (oder korrekter^^), nur zu ;)

mapel110
2010-12-20, 19:41:05
http://www.semiaccurate.com/2010/12/20/what-happened-amds-northern-islands/
Charlie über Cayman

Long Story short:
-TSMC war schuld
-TSMC war schuld
und ehhh ... TSMC war schuld :ugly:

Things went from feeling really bad to feeling really confused. Really really confused. It took a few minutes to realize what had happened, and by then I was obliged to shut up about the chips until launch. To say that it sucked is a severe understatement.
Gibt er hier zu, von AMD gekauft zu sein? O_o

y33H@
2010-12-20, 20:12:47
Wer zwingt den armen Charlie denn wohl? :comfort:

airbag
2010-12-20, 20:16:21
Nein, klingt eher danach, dass es wirklich glaubt, was er schreibt. ;D

Wenn er einfach nur gekauft wäre, wäre es ihm egal solange er das Geld bekommt.

Btw
Nach der Hälfte habe ich aufgehört zu lesen. Das kann man sich doch nicht wirklihc antun.

Botcruscher
2010-12-20, 20:44:45
AMD hätte nichts davon ihn direkt zu bezahlen. Mit ihm zu spielen und ein paar Infos in die Richtung leaken ist doch viel besser. Sonst müsste man ja wirklich darauf achten was für Müll er schreibt. Von daher: Er glaubt das.

Langenscheiss
2010-12-20, 20:52:19
Ich finds nur geil, wie sich einige Leute hier immer noch über den amüsieren können ;) Und dann immer diese genialen Zitate auf anderen Websites, die den Müll von dem Typen unkommentiert abschreiben.

Bucklew
2010-12-20, 23:29:59
http://www.semiaccurate.com/2010/12/20/what-happened-amds-northern-islands/
Charlie über Cayman
Boah wie peinlich ist das denn? Dagegen ist die News mit dem zweiten Switch für die 1920 ALUs ja fast noch Journalismus :facepalm:

Also wer jetzt noch Charlie glaubt und nicht mehr WEISS, dass er gekauft ist, ist einfach blind - oder will einfach blind sein.

AMD hätte nichts davon ihn direkt zu bezahlen. Mit ihm zu spielen und ein paar Infos in die Richtung leaken ist doch viel besser. Sonst müsste man ja wirklich darauf achten was für Müll er schreibt. Von daher: Er glaubt das.
Sowas kannst du ohne Zuwendungen (finanzieller oder natureller Form) nicht mehr glauben. Schon die ewigen "TSMC ist schuld"-Gebete bei Cypresse war offensichtlich.

N0Thing
2010-12-21, 00:21:09
Gibt er hier zu, von AMD gekauft zu sein? O_o

Ja, vermutlich genauso wie alle anderen, die ein NDA unterzeichnen mußten. :wink:

Schnäppchenjäger
2010-12-21, 16:32:27
was meint ihr wie viel leuft ist bei der hd 6900 serie nach oben??
der beta treiber den amd nachgereicht hat ist ja in sachen tesselation schonmal deutlich besser als vorher

Spasstiger
2010-12-21, 16:35:57
Luft nach oben sind imo 5-10%. Aber bis AMD das rausgeholt hat, hat auch schon NV mit Treiberverbesserungen nachgezogen. ;)

y33H@
2010-12-21, 16:43:34
der beta treiber den amd nachgereicht hat ist ja in sachen tesselation schonmal deutlich besser als vorherDas war aber ein Bug-Fix-Treiber, mehr nicht. Also etwas, die Standardleistung abruft, was vorher durch ein Fuckup nicht möglich war.

ENKORE
2010-12-21, 17:14:31
Das war aber ein Bug-Fix-Treiber, mehr nicht. Also etwas, die Standardleistung abruft, was vorher durch ein Fuckup nicht möglich war.
Dadurch das aber in der Releaseversion es upgefuckt war, kann man die Statistik doch super so hinrechnen, dass mal dann wieder bessere Tesselation hat, und zwar nur durch den Treiber :rolleyes:

Mancko
2010-12-21, 19:41:12
Dadurch das aber in der Releaseversion es upgefuckt war, kann man die Statistik doch super so hinrechnen, dass mal dann wieder bessere Tesselation hat, und zwar nur durch den Treiber :rolleyes:
Reicht in Summe dennoch nicht.

Die GTX570 ist definitiv die bessere Wahl und die 580 unerreicht. Die HD6950 ist sehr interessant allerdings wird das Thema im Januar wohl nochmal diskutiert werden :)

Die gelbe Eule
2010-12-21, 22:19:41
Weihnachten geht an Nvidia. 6950 erst ab heute in geringer Stückzahl verfügbar, 6970 unter 30. 580er und 570er hingegen gibt es in Stückzahl 100+.
Übrigens gibt es die erste 6970 Twin Frozr.

Weselchak-U
2010-12-22, 00:43:40
Ich verstehe es nicht.
Manche Leute reden beständig von der schlechten Verfügbarkeit der Karten. Das kann ich überhaupt nicht nachvollziehen.

Die Verfügbarkeit ist von Anfang an schon zu jeweiligen Niedrigpreisen gegeben.

Lebe ich jetzt in einem Paralleluniversum oder was ?!
Auch wenn es statt 30 nur 5 Karten sind. Offenbar kauft sie keiner, so dass die Verfügbarkeit der Karten von Anfang an als sehr gut betrachtet werden kann.

x-dragon
2010-12-22, 01:23:42
Kann ich auch nicht ganz nachvollziehen, hab meine 6950 heute bekommen und wenn man bspw. bei Geizhals (http://gh.de/?cat=gra16_512&bpmax=&asuch=&v=l&plz=&dist=&xf=1440_HD+6970~1440_HD+6950&sort=eintr) vorbeischaut sind beide Karten bei gut 20 Händler verfügbar, was will man mehr?

Schnäppchenjäger
2010-12-22, 01:33:13
Kann ich auch nicht ganz nachvollziehen, hab meine 6950 heute bekommen und wenn man bspw. bei Geizhals (http://gh.de/?cat=gra16_512&bpmax=&asuch=&v=l&plz=&dist=&xf=1440_HD+6970~1440_HD+6950&sort=eintr) vorbeischaut sind beide Karten bei gut 20 Händler verfügbar, was will man mehr?

geht mir genauso, auch heute bekommen

fondness
2010-12-22, 09:29:22
Weihnachten geht an Nvidia. 6950 erst ab heute in geringer Stückzahl verfügbar, 6970 unter 30. 580er und 570er hingegen gibt es in Stückzahl 100+.
Übrigens gibt es die erste 6970 Twin Frozr.

Sorry, aber in anderen Shops sind die Karten massenweise zu bekommen. Ich würde eher mal meine Kontakte kontrollieren. ;)

Duke Nukem
2010-12-22, 09:33:30
Wenn die verfügbarkeit bei den 5 er ATIs so gut gewesen wäre wie jetzt bei den 6 ern wären die Preise nicht solange so hoch gewesen. Denke NV hat zur zeit mit den 570 ern mehr probleme zu liefern.

Schlammsau
2010-12-22, 09:34:37
Jupp...die 6950 zB ist massenhaft als sofort lieferbar gekennzeichnet.
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&asd=on&v=l&plz=&dist=&xf=1440_HD+6950%7E135_HDMI%7E132_2048
Oder auch die 6970 ist gut verfügbar.
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&asd=on&v=l&plz=&dist=&xf=135_HDMI%7E1440_HD+6970#xf_top

Wahrscheinlich ist hier nur einer sauer, weil "sein" Shop nur wenige abbekommen hat. :)

RoughNeck
2010-12-22, 13:46:06
Weihnachten geht an Nvidia. 6950 erst ab heute in geringer Stückzahl verfügbar, 6970 unter 30. 580er und 570er hingegen gibt es in Stückzahl 100+.
Übrigens gibt es die erste 6970 Twin Frozr.


Das ist vollkommener Blödsinn.
Beim Wave Computer z.B. (sehr großer deutscher Distri) gehen die neuen 6000er AMD Karten weg wie warme Semmeln. Die 5er Nvidia Karten dagegen schleppend.

Iruwen
2010-12-22, 14:05:07
Ich vermute das trifft, wenn überhaupt, nur auf die 6950 zu weil sie einfach mal grob ein Drittel (320€ vs 220€) günstiger ist.

Die gelbe Eule
2010-12-22, 21:55:20
Ich möchte nur anmerken das ich die Karten jeden Tag selbst im Wareneingang sehe, dies sauge ich mir nicht aus den Fingern. Zeigt mir mal Shops die wirklich echte Bestände zeigen. Wenn ich genau eine Karte auf Lager habe, ist die natürlich verfügbar. Mein LCD TV war auch 570-fach auf Lager, trotzdem kam er erst nach 4 Wochen. Soviel zu "exakten" Beständen.

N0Thing
2010-12-23, 02:23:52
Man sollte bei der aktuellen Verfügbarkeitsdiskussion auch im Hinterkopf behalten, daß aufgrund der Wetterbedingungen eventuell nicht alle Regionen gleichermaßen mit Waren versorgt werden können, oder zumindest manche Lieferung erst später als erwartet eintrifft.

fondness
2010-12-23, 09:35:53
Ich möchte nur anmerken das ich die Karten jeden Tag selbst im Wareneingang sehe, dies sauge ich mir nicht aus den Fingern. Zeigt mir mal Shops die wirklich echte Bestände zeigen. Wenn ich genau eine Karte auf Lager habe, ist die natürlich verfügbar. Mein LCD TV war auch 570-fach auf Lager, trotzdem kam er erst nach 4 Wochen. Soviel zu "exakten" Beständen.

Zum Beispiel:
http://www.ditech.at/artikel/GPH2G09/Grafikkarte_PCI-E_2.1_SAPPHIRE_Radeon_HD_6950_Full_retail_2048MB.html?from=geizhals

Und wenn man die Bestände etwas verfolgt gehen da täglich locker 30Stück dieser Karte über die Ladentheke.

Iruwen
2010-12-23, 10:57:38
Bei IM sind 177 x 6950, 39 x 6970, 89 x 570 und 4 x 580 (:freak:) lieferbar.

HD-Ronny
2010-12-23, 12:06:52
IM ? Informeller Mitarbeiter?
Also ich kann mir gut vorstellen das die Karten nicht wie warme Semmeln weggehen weil doch mehr erwartet wurde. Einzig die 5950 ist interessant für Upgrader. Ansonsten lohnt es sich noch bis zur GTX560 zu warten und sich anzuschaun wie die sich Preise sortieren.

Die gelbe Eule
2010-12-23, 12:37:09
Man sollte bei der aktuellen Verfügbarkeitsdiskussion auch im Hinterkopf behalten, daß aufgrund der Wetterbedingungen eventuell nicht alle Regionen gleichermaßen mit Waren versorgt werden können, oder zumindest manche Lieferung erst später als erwartet eintrifft.

Was ich bereits kommuniziert hatte. Die Verfügbarkeit zum Launch ging deutlich an Nvidia. Schließlich hat AMD 4 Karten released, NV nur 2. Die 6800er gibt es hingegen in Massen und so werden sie auch verkauft.
Hat aber schon ein Distri wie DiTech nur 30 Karten, dann gibt es für den Endkunden in einem Shop vielleicht 1-2.

Ich weiß was verkauft wird, was an welche Filialen geht und was auch reinkommt. So bescheuert und 300-400€ für ein Sidegrade auszugeben ist eben nicht jeder. Z.B. wurde bei uns in einem Auftrags PC bisher noch keine 69xx verbaut, da ich auch gerne gesehen hätte ob die Retail am 6-Pin angesägt sind.

Quaker
2010-12-23, 12:56:04
Also bei uns in der Schweiz sind die 69xx auch problemlos erhältlich.

Cra$h
2010-12-23, 13:00:44
IM ?

Denke, dass es sich dabei eher um Ingram Micro handelt:
http://www.ingrammicro.de/
Ist ein Distributor.

Weselchak-U
2010-12-23, 13:05:57
Ich betrachte die Worte zur Verfügbarkeit von der gelben Eule als Quatsch mit Souce.

Ich habe noch keinen einzigen Beitrag in den Foren gelesen, dass jemand seine Karte bestellt und nicht erhalten hätte.
Ich lese dagegen ständig meine Karte ist eingetroffen..... bla...bla...

Auch mein eigenes Beispiel spricht dagegen : ich habe mich gestern Nacht dazu hinreissen lassen eine 6950 bedingt durch den Preis bei Mindfactory von 233,91 Euro versandkostenfrei wohlgemerkt zu bestellen.

Und Mindfactory ist seit Jahren dafür bekannt bei schlecht verfügbaren Artikeln es nicht so genau mit dem Lagerstand zu nehmen.

Sprich, die weisen etwas aus als "auf Lager", aber wenn man es bestellt, können sie es nicht liefern.
Das ist mir schon mehrfach passiert.

Ein Mitarbeiter von Mindfactory wollte mir allen Ernstes telefonisch mitteilen, dass so eine Operation "x-1", wobei x- für den Lagerbestand einer Ware steht in Zeiten von Computern und Internet bei Mindfactory über eine Stunde in Anspruch nimmt.

Wie auch immer, gestern Nacht eine 6950 bestellt und das Paket ist jetzt schon unterwegs zu mir.

Den Foren nach zu urteilen sind schon auch noch ein paar andere meinem Beispiel gefolgt und die Karten sind nach dieser Nacht immer noch bei Mindfactory zu haben.
Eine ähnliche Aktion gabs gestern am Tage noch von Alternate, auch da haben Menschen fleissig bestellt.

Die ähnlichen Preise gelten immer noch bei Mix-Computer (Das ist auch Alternate) und die haben Karten noch auf Lager sowie vv-computer- auch bei denen noch Karten auf Lager.

Wie gesagt- die Karten sind offenbar massig verfügbar.

DrumDub
2010-12-23, 13:27:10
33 eur preisabstand zur 6870 (200 eur) sind aber irgendwie strange. damit lohnt sich die 6870 ja gar nicht mehr.

AnarchX
2010-12-23, 13:41:41
Fehlt wohl noch die Preissenkung der 6870, bei Newegg gibt es eine PowerColor für $199 (~180€).

btw.
Gibt es schon mehr Tests zum 10.12a Hotfix?

Benchmark_GPU

10.11 from driver CD

!TimeDemo Run 3 Finished.
Play Time: 53.60s, Average FPS: 37.32
Min FPS: 25.88 at frame 140, Max FPS: 47.56 at frame 1004
Average Tri/Sec: -29429798, Tri/Frame: -788670
Recorded/Played Tris ratio: -1.16


10.12a

!TimeDemo Run 3 Finished.
Play Time: 42.92s, Average FPS: 46.60
Min FPS: 27.54 at frame 164, Max FPS: 64.87 at frame 1659
Average Tri/Sec: -36789168, Tri/Frame: -789525
Recorded/Played Tris ratio: -1.16

http://forum.beyond3d.com/showpost.php?p=1506483&postcount=6905

Raff
2010-12-23, 13:56:14
33 eur preisabstand zur 6870 (200 eur) sind aber irgendwie strange. damit lohnt sich die 6870 ja gar nicht mehr.

Die hat sich angesichts leiser OC-Modelle der HD 5850 noch nie gelohnt. Die Karte sollte schleunigst auf 170-180 Euro fallen, um attraktiv zu sein. Andererseits erscheinen nun die ersten leisen Custom-Designs inkl. Kosmetik-OC, bei denen 200 €uro schon eher passen.

btw.
Gibt es schon mehr Tests zum 10.12a Hotfix?

http://forum.beyond3d.com/showpost.php?p=1506483&postcount=6905

25 Prozent mehr Leistung in Crysis, das Radeon-Karten schon seit Ewigkeiten gut liegt? Eher nicht. Da hat der Tester wohl eher vergessen, AA und/oder AF anzumachen.

MfG,
Raff

Die gelbe Eule
2010-12-23, 15:14:58
Ich betrachte die Worte zur Verfügbarkeit von der gelben Eule als Quatsch mit Souce.

Ich habe noch keinen einzigen Beitrag in den Foren gelesen, dass jemand seine Karte bestellt und nicht erhalten hätte.
Ich lese dagegen ständig meine Karte ist eingetroffen..... bla...bla...

Wie gesagt- die Karten sind offenbar massig verfügbar.

Kannste ja gerne, nur arbeite ich an einer Quelle die noch größer als Mindfactory ist. Bevor Du die Karte bestellst, habe ich sie in der Hand. Soll ich also lügen, obwohl ich es täglich sehe was physisch im Bestand ist?
Einige Karten liegen auch wie Steine im Regal, warum sollte doch klar sein. Und das man hier nicht auf Halde bestellt wenn die Nachfrage "gering" ist, sollte jedes gut organisierte Unternehmen abschätzen können.

Weselchak-U
2010-12-23, 17:20:31
an Eule

Ich weiss nicht, von welchen Zahlen du sprichst.

Vielleicht interpretiert deine "Zahlen" nur falsch, möglicherweise willst du nur trollen oder bist geistig umnachtet.
Die Realität sieht nun mal anders aus, als von dir behauptet. Die HD 69xx-Serie war von Anfang an sehr gut lieferbar, und ist es immer noch, obwohl die Preise am Sinken sind.

Menace
2010-12-23, 19:51:37
Hat aber schon ein Distri wie DiTech nur 30 Karten, dann gibt es für den Endkunden in einem Shop vielleicht 1-2.


DiTechs 6950er von Sapphire (!!, es gibt ja auch noch andere) hat mind. 20 Karten. Kaum fällt es darunter hat er kurze Zeit später wieder 85+. Nach 2-3 Tagen sind die dann wieder auf 20-30 gefallen (Vorweihnachtszeit halt). Die 6850 von Sapphire verkauft sich noch besser. Was da Karten durchfließen ist unglaublich (ich verfolge das fast täglich).

Bei welchem Händler sitzt Du, das habe ich nicht mitbekommen.

Täusche ich mich oder bietet alternate die ATI/AMD Karten relativ teuer im Vergleich zu nvidia-Karten an (so zumindest mein Eindruck bei geizhals.at Vergleichen)?

Iruwen
2010-12-23, 20:15:27
Ich glaube nicht dass man aus Einzelwerten Rückschlüsse auf die Situation am Gesamtmarkt ziehen kann. Und Distributoren kann man nicht mit Einzelhändlern vergleichen. Steam wird ja demnächst zeigen was sich besser verkauft.

horn 12
2010-12-25, 15:58:56
Die Lastlautstärke der 6950 gegenüber meiner HD5850 im AMD Referenz Design (damals zum HD58x0 Launch) würde mich aber sehr interessieren, auch der dirketr Vergleich im IDLE ?

y33H@
2010-12-25, 17:32:56
PCGH, HT4U? Kannst du nicht einfach bei den üblichen "Verdächtigen" schauen?

Schnitzl
2010-12-25, 21:55:04
PCGH, HT4U? Kannst du nicht einfach bei den üblichen "Verdächtigen" schauen?
Tja, ihr habt hier (http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=2) die 5850 weggelassen, warum?

y33H@
2010-12-25, 22:08:42
Die Werte stehen in älteren Reviews drin, aber ja - könnte man hinzufügen.

Schnitzl
2010-12-25, 22:14:02
In älteren Reviews wurde Race Drive Grid gemessen, nun Battlefield.
Auch nicht so ganz optimal.

y33H@
2010-12-25, 22:15:37
Oh, mea culpa. Du hast Recht.

Fetter Fettsack
2010-12-27, 09:57:35
http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/dezember/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/

6950 auf 6970 flashbar. Scheint bis jetzt immer zu funktionieren.^^

mironicus
2010-12-27, 10:10:30
Habe mir jetzt mal eine 6950 von Powercolor bestellt. Der Preis ist heiß! Besonders in Anbetracht der 2 GB Speicher (eine 5870 mit 2 GB kostet wesentlich mehr).

svenw
2010-12-27, 10:18:59
Wo sind eigentlich die ganzen Spezialisten geblieben? Irgendwie scheint sich immer noch keiner einen Reim auf die komische Leitungskurve der 69er Karten machen zu können.

Cyv
2010-12-27, 10:47:03
In Anbetracht der Flashmöglichkeiten habe ich auch eine Powercolor geordert:biggrin:

airbag
2010-12-27, 11:01:30
http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/dezember/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/

6950 auf 6970 flashbar. Scheint bis jetzt immer zu funktionieren.^^
Wird wahrscheinlich nur mit der ersten Charge funktionieren. Würde mich arg wundern, wenn sie es dann nicht unterbinden. Vorallem weil es publik geworden ist. Aber kann auch sein, dass manche Boardpartner es auch zum Werbezweck verwenden werden .

M3NSCH
2010-12-27, 11:21:41
http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/dezember/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/

6950 auf 6970 flashbar. Scheint bis jetzt immer zu funktionieren.^^

joa, klingt interessant, mal schauen wie sich die testergebnisse (http://www.techpowerup.com/articles/overclocking/vidcard/159) entwickeln aber es scheint ja risikofrei zu sein

Hugo78
2010-12-27, 12:05:31
Oh das wird ein schönes Frühjahr werden. :biggrin:

Die nächste Runde im Preiskampf ist eingeleutet. Und mal schauen wo 560 jetzt startet und wohin die 570 noch fallen wird.

Die 6870 war ja schon überflüssig, mit ihren 200€ zu 233€ gegenüber der 6950, und jetzt ist auch die 6970 dran.

Wobei ... wenn man bedenkt, dass angeblich fehlende Bauteile der 6970 für die Verschiebung des Caymanstarts verantwortlich waren und jetzt sich die Karte als überflüssig rausstellt... ähm naja ... gutes Timing schaut anderes aus.

mironicus
2010-12-27, 12:13:56
Die Preise werden nach Ausverkauf der ersten Charge bestimmt um 10-15% wieder steigen.

horn 12
2010-12-27, 12:22:29
Rechne ich auch sehr stark!!
Zudem wird die HD6950 nochmals weiter stabil bleiben, bzw. im Preis steigen wenn es für längere Zeit funktionieren sollte, ausser AMD macht den Hahn entgültig zu.

Werde wohl heute meine Sapphire HD6950 bestellen, obwohl von HD5850 @850/1200 daherkomme.
Die 2GB Ram sind schon was Feines, dagegen aber das Miesere AF als bei der 58xx-er Serie.

DrumDub
2010-12-27, 14:49:46
Die 2GB Ram sind schon was Feines, dagegen aber das Miesere AF als bei der 58xx-er Serie. ähhh.. nein.

y33H@
2010-12-27, 14:55:15
Mehr Flimmern, weniger Banding. Ein Schritt vor, einer zurück. Die Schrittlänge ist subjektiv.

Raff
2010-12-27, 14:59:40
HD-5000-Banding: Etwa 10 gelistete Spiele, wo es arg auffällt
HD-6000-Flimmern: Potenziell jedes Spiel jenseits der Jahrtausendwende

Was wiegt mehr? ;)

Der Unterschied ist, dass man das HD-6000-Flimmern mit SGSSAA wegkeulen kann, das Banding nicht. Insofern bietet eine HD 6000 insgesamt das bessere Bild.

MfG,
Raff

Langenscheiss
2010-12-27, 15:07:59
Was ist jetzt eigentlich mit dem fix? Soll der im 11.01 enthalten sein?

Raff
2010-12-27, 15:08:54
Das hat AMD nie gesagt. So "schnell" wird das IMO auch nicht gehen – es gibt noch nicht mal den 2. Fixtreiber für die Tester, ergo auch kein Feedback.

MfG,
Raff

Langenscheiss
2010-12-27, 15:25:44
Das hat AMD nie gesagt. So "schnell" wird das IMO auch nicht gehen – es gibt noch nicht mal den 2. Fixtreiber für die Tester, ergo auch kein Feedback.

MfG,
Raff

Hört sich nach deiner Einschätzung dann doch nach viel heiße Luft an. Wenn die wirklich die Möglichkeiten hätten, das ganze über den Treiber noch mehr zu verbessern, als es bereits im ersten fix geschehen ist, und das denen wirklich so wichtig sei, wie sie behaupten, dann würden die damit nicht lange hinterm Berg halten. Das kann für deren Treiber-Team eigentlich ja nicht solch eine Monsteraufgabe sein.

redfirediablo
2010-12-27, 15:28:35
Naja, so einfach scheint das mit den Treibern nicht zu sein. Angeblich arbeiten bei ATI ähh AMD genauso viele Leute an der Treiberentwicklung wie an der Hardwareentwicklung -> über 100

y33H@
2010-12-27, 15:29:29
Terry ist ja nicht mehr "Catalyst Maker", sondern im Fusion-Team. Ob das den Treibern gut tut? :ulol:

Langenscheiss
2010-12-27, 15:34:34
Naja, so einfach scheint das mit den Treibern nicht zu sein. Angeblich arbeiten bei ATI ähh AMD genauso viele Leute an der Treiberentwicklung wie an der Hardwareentwicklung -> über 100

Ich vermute, dass die meiste manpower ins Testen und Analysieren von Spielen und Verfügbarem Programm-Code gesteckt wird. Auch AMD wird mit den Spiele-Entwicklern zusammenarbeiten, und da kommt halt das Treiber-Team ins Spiel. Das schlechte AF ist aber unabhängig von der Applikation, weil dies nichts mit den Shadern oder dem Engine-Code (also die Verwendung der API) zu tun hat. Dafür braucht man keine Armee, die analysiert, berät und notfalls reagiert, sondern wohl nur n paar Leute, die sich mit den Texturfiltern der Karte und deren "Bedienung" via Treiber gut auskennen.

mironicus
2010-12-27, 17:42:45
Die Powercolor 6950 ist jetzt auf Platz 1 im Preisvergleich (GPUs) gerutscht. :D

gedi
2010-12-27, 17:49:14
Ich habe seit 2 Tagen eine Sapphire 6970 verbaut und finde sie eigentlich sehr OK. Im Schnitt ist sie etwas schneller als eine 480 und wen das Af bei der 5xxx-Serie nicht gestört hat, wird auch dieses für ausreichend befinden. Meine Sapphire bleibt auch erstaunlich leise ( max. Ca 75 Grad bei 35% Lüftergeschwindigkeit). Mit Tridefs 3 D-Software funktioniert gar stereo-3D auf meinem Philips 46"-LCD TV einwandfrei.
Übertakten läßt sich die Grafikkarte per Overdrive problemlos bis 950x1450 MHz.

Alleine schon wegen der deutlich leiseren Geräuschkulisse, habe ich den Tausch gegen eine 480 nicht bereut.

Cyv
2010-12-27, 19:08:08
hab ich das richtig verstanden, dass die Karten ab nem gewissen energieverbrauch abregeln?
Also bin ich mit dem Overclocking eingeschränkt, oder gibt es eine möglichkeit das ganze zu umgehen?

Meine 6950 würd ich dann schon gerne etwas übertakten:frown:

Schnitzl
2010-12-27, 19:24:14
HD-5000-Banding: Etwa 10 gelistete Spiele, wo es arg auffällt
HD-6000-Flimmern: Potenziell jedes Spiel jenseits der Jahrtausendwende

Was wiegt mehr? ;)

Der Unterschied ist, dass man das HD-6000-Flimmern mit SGSSAA wegkeulen kann, das Banding nicht. Insofern bietet eine HD 6000 insgesamt das bessere Bild.

MfG,
Raff
ja, aber eben nur unter DX9 ... :(
Oder wie ist das eigentlich? Kann man, wenn das Spiel Kantenglättung anbietet, Supersampling hinzuschalten bei DX10/11?

MfG

P.S.: das sinnlos-Video auf PCGHW ist ja nur noch geil ;D

DrFreaK666
2010-12-27, 19:31:09
... Kann man, wenn das Spiel Kantenglättung anbietet, Supersampling hinzuschalten bei DX10/11?
...

Leider nicht.
Uns sind die Hände gebunden

y33H@
2010-12-29, 14:27:44
MSI HD 6970 Lightning

- 2x 8-Pin
- 18 Phasen
- Twin-Frozr III
- Dual-BIOS und ansprechbare VRMs
- Vorstellung auf der CES

http://www.abload.de/thumb/r6970_lightning_1m9hn.jpg (http://www.abload.de/image.php?img=r6970_lightning_1m9hn.jpg) http://www.abload.de/thumb/r6970_lightning_2qblk.jpg (http://www.abload.de/image.php?img=r6970_lightning_2qblk.jpg)

http://www.semiaccurate.com/2010/12/28/msis-r6970-lightning-and-n580gtx-lightning-sneak-peek/

Dant3
2010-12-29, 15:02:32
Eine HD6950 Twin Frozr II gibt es auch schon, bzw. wird bald verfuegbar sein.
Offenbar ist das PCB nur so lang wie bei einer HD6870.

http://forums.hardwarezone.com.sg/showthread.php?t=3045147

y33H@
2010-12-29, 15:12:39
Da wird horn 12 aber einer abgehen ;D

Botcruscher
2010-12-29, 15:30:05
Aber nur wenn man flashen kann. ;)

Dant3
2010-12-29, 15:57:50
Ist ja offensichtlich kein referenz PCB, also wahrscheinlich ehr weniger.

mironicus
2010-12-29, 16:20:20
Hat die einen DualBios-Schalter?

y33H@
2010-12-29, 16:22:30
Laut SA schon, ja.

Raff
2010-12-29, 16:26:05
MSI HD 6970 Lightning

- 2x 8-Pin
- 18 Phasen
- Twin-Frozr III
- Dual-BIOS und ansprechbare VRMs
- Vorstellung auf der CES

http://www.abload.de/thumb/r6970_lightning_1m9hn.jpg (http://www.abload.de/image.php?img=r6970_lightning_1m9hn.jpg) http://www.abload.de/thumb/r6970_lightning_2qblk.jpg (http://www.abload.de/image.php?img=r6970_lightning_2qblk.jpg)

http://www.semiaccurate.com/2010/12/28/msis-r6970-lightning-and-n580gtx-lightning-sneak-peek/

Die schaut richtig geil aus. Hoffentlich ist diesmal der Lüfter nicht so aggressiv eingestellt wie bei der N480GTX Lightning.

MfG,
Raff

Iruwen
2010-12-29, 16:44:48
Kann man bei der dann PowerTune abschalten? Sonst macht das ganze 2x8 Pin, mehr Phasen usw. Gedöns ja keinen Sinn.

mironicus
2010-12-29, 18:43:02
Was meint ihr kann AMD noch treibermäßig bei Cayman so alles herausholen?

AwesomeSauce
2010-12-29, 19:53:18
Exakt 8.387293443% :rolleyes:

Orientier dich einfach an den älteren Generationen - wieso sollte Cayman eine Ausnahme sein?

Raff
2010-12-29, 19:55:58
Was meint ihr kann AMD noch treibermäßig bei Cayman so alles herausholen?

Nichts, das irgendwie von Relevanz ist – es sei denn, sie fixen das Spar-AF via Treiber zur Perfektion zusammen. Oder sind für dich 10 Prozent nach 6 Monaten kaufentscheidend? ;) Das sind alles Strohhalme.

MfG,
Raff

Langenscheiss
2010-12-29, 20:09:44
Was meint ihr kann AMD noch treibermäßig bei Cayman so alles herausholen?
Ich glaube, dass man allgemeine Leistungssprünge nur erwarten kann, wenn man komplett neue HW-Architekturen liefert. Cayman ist ja quasi Cypress 2.0, und ich denke, dass die da vom Treiber her schon ziemlich vertraut mit sind, zumal der teilweise überarbeitete Barts ja auch schon n bissl länger draußen ist.
Für neue Spiele kann immer was kommen, wenn die Performance außergewöhnlich schlecht ist. Zur Not passt man dann einfach mal wieder das AF-Verhalten an, wie sie es bei Crysis ja auch schon gemacht haben.

Schlammsau
2010-12-29, 21:34:36
Ich glaube schon, dass AMD mehr aus Cayman als aus Barts, Cypress und Co rausholen kann.
Eben weil es eine in weiten Teilen "neue" Architektur ist. Die erste seit dem R600....

Durchschnittlich ~10% in den nächsten 3 Monaten sollten schon drin sein mMn.

Ronny145
2010-12-29, 21:48:34
Durchschnittlich auf keinen Fall. Die Wundertreiber werden immer herbeigeschworen. Hier ist mehr Wunschdenken im Spiel. Es wird die üblichen Optimierungen für aktuellere und neue Spiele geben. In der Summe wird sich hier nichts verschieben, da Nvidia nicht untätig bleiben wird.

mapel110
2010-12-30, 00:12:35
http://ht4u.net/reviews/2010/amd_powertune_technology/
PowerTune-Artikel

mironicus
2010-12-30, 03:37:27
Hier mal ein kurzes Posting, wieviel Strom die 6950 (Standard) verbraucht.

Ich habe mit einer 6950 und einem Phenom X4-B50 (3,1 GHz freigeschalteter X2-550) idle 95 Watt und unter Last (GTA IV) 235-240 Watt Stromverbrauch gemessen. Das ist wie gesagt das gesamte System. Ich habe extra GTA IV (1920x1080) genommen, weil das Programm einen 4 Kerner gut ausnutzt. Das ist nicht viel mehr als mit meiner 5770! (15-20 Watt Differenz bei GTA IV). Ich habe mir erst Sorgen gemacht, weil ich nur ein 400 Watt-Netzteil habe, aber bei dem Ergebnis kann man wirklich beruhigt sein. :)

AMD hätte die 6950 ruhig etwas kürzer machen können, bei der geringen Abwärme hätte man die locker auf ein 22 cm-PCB stecken können (wenn man nicht übertakten will).

Raff
2010-12-30, 03:54:37
Custom-Designs werden das Längenproblem schon stutzen.

MfG,
Raff

Darlie
2010-12-30, 08:56:12
Ist ja auch eine Preisfrage, warum sollte AMD extra ein PCB für die 6950 herstellen, das können doch die Boardpartner übernehmen. Die können anscheinend auch bessere Kühler designen die ohne abschleifen von Stromsteckern funktionieren.;D

Screemer
2010-12-30, 10:28:24
welchen tollen effekt das ganze für die kunden hat, sieht man ja jetzt. 6950 = 6970 ohne 8pin und mit "schlechterem" speicher.

Bucklew
2010-12-30, 11:24:47
Durchschnittlich auf keinen Fall. Die Wundertreiber werden immer herbeigeschworen. Hier ist mehr Wunschdenken im Spiel.
Lass den kleinen doch ihren letzten Strohhalm, an den sie sich festklammern können ;)

Raff
2010-12-30, 12:30:18
Die 10 Prozent können alle jetzt schon haben: einfach auf High-Performance-AF ("LQ") gehen. :ulol:

Das sind genau die paar Prozente, welche fehlen, um die GTX 570 im Schnitt klar zu schlagen, daher klammern sich einige daran. Dabei ist das sooo wayne (es sei denn, man ist auf einen Hersteller fixiert).

Im Laufe der nächsten Wochen und Monate werden zig Custom-Desings erscheinen, die hoffentlich in der Lage sind, beide 6900-er um 1 Sone unter Last zu kühlen. Viele dieser Karten werden leicht übertaktet sein. Niedrigere Temperaturen bedeuten auch weniger Leistungsaufnahme und daher mehr OC-Potenzial, selbst bei aktiver Power-Bremse. Das wird (IMO) interessant.

MfG,
Raff

airbag
2010-12-30, 12:42:16
Die Defaulteinstellung von Powertune klamm heimlich zu verändern, wäre auch eine Möglichkeit die 10% herbeizuführen.

y33H@
2010-12-30, 12:49:12
Nein, da Powertune zu 99,713 % nicht bremst.

airbag
2010-12-30, 13:10:25
Die 0.287% können auch schon reichen, dass der Begriff Wundertreiber fällt.;D

deekey777
2010-12-30, 13:13:21
Hier haben sich aber viele Treiberexperten versammelt. Schickt doch schnell eure Bewerbungen an verschiedene Treiberteams, vielleicht brauchen die euch.

horn 12
2010-12-30, 13:15:41
Gerade HD6950 2GB bestellt inkl. dem Game:
Stalker: Call of Pripyat

http://www.wepc.it/index.php?main_page=product_info&products_id=744

Raff
2010-12-30, 13:41:12
Hier haben sich aber viele Treiberexperten versammelt. Schickt doch schnell eure Bewerbungen an verschiedene Treiberteams, vielleicht brauchen die euch.

Du bist also anderer Meinung. Sagst du uns auch, was dich dazu führt? Oder wolltest du nur mal etwas böse sein? ;)

MfG,
Raff

deekey777
2010-12-30, 13:48:41
Du bist also anderer Meinung. Sagst du uns auch, was dich dazu führt? Oder wolltest du nur mal etwas böse sein? ;)

MfG,
Raff
Ich habe Bock weder auf deine Überheblichkeit noch von jemandem anderen. Dieses "oh, Wundertreiberwunschdenken kleiner dummer Leute" ist zum Kotzen.
Sachliche Diskussion? Fehlanzeige.

Es ist alles andere als Wunschdenken, dass Verbesserungen auf der Shaderebene zu erwarten sind. Dass die "VLIW5-Compiler" ausgereizt sind, ist wenig verwunderlich, schließlich hat man VLIW5-Architektur seit Mai 2007. Der VLIW4-Compiler versteckt sich so seit Juni 2010.

Raff
2010-12-30, 13:56:01
Das war jetzt ziemlich offensiv und angesichts aller früheren Entwicklungen auch nicht angebracht. Meinst du nicht auch?

Es bestreitet niemand, dass die Karten im Laufe der Zeit schneller werden. Einige Spiele werden sogar extrem viel schneller, wenn man das aufs Jahr hochrechnet. Im Schnitt sind das trotzdem nur Fürze und nie etwas im Bereich "10 Prozent auf alles" (außer Trollnahrung). Vor allem in kurzer Zeit. Hier hoffen viele darauf, dass die Karten mal eben um 10 Prozent zulegen, weil's ihr Liebling ist. Nur hat das nichts mit der Realität zu tun.

MfG,
Raff

Ronny145
2010-12-30, 14:11:07
Um im Durchschnitt auf 10% zu kommen reicht es nicht aus in 4-5 bekannten Benchmark Spielen auf 10-20% Mehrleistung zu kommen. Wenn nicht gerade ein Bug vorliegt, wovon ich nicht ausgehe, wird es keine 10% geben. Cypress legte ~5% im CB Benchmarkparcour zu, was aber noch lange nicht der Durchschnitt darstellt. Der Durschschnitt aus einer deutlich größeren Anzahl an Spielen wäre hier viel geringer. In weniger bekannten Spielen oder nicht Benchmark Titeln tat sich absolut gar nichts (AF Absenkung außen vorgelassen). Ich glaube hier muss man kein Prophet sein, um diese 10% für völlig abwegig zu halten. Die typischen Optimierungen für kommende Neuspiele wird es geben, hier wären natürlich 10% oder in Einzelfällen gar mehr drin, was auch schon viel wäre. Mit dem Durchschnitt hat es nichts zu tun. Hier sind meine Vorstellungen an einen Wundertreiber eine ganz andere.

Schlammsau
2010-12-30, 14:34:05
Um im Durchschnitt auf 10% zu kommen reicht es nicht aus in 4-5 bekannten Benchmark Spielen auf 10-20% Mehrleistung zu kommen. Wenn nicht gerade ein Bug vorliegt, wovon ich nicht ausgehe, wird es keine 10% geben. Cypress legte ~5% im CB Benchmarkparcour zu, was aber noch lange nicht der Durchschnitt darstellt. Der Durschschnitt aus einer deutlich größeren Anzahl an Spielen wäre hier viel geringer. In weniger bekannten Spielen oder nicht Benchmark Titeln tat sich absolut gar nichts (AF Absenkung außen vorgelassen). Ich glaube hier muss man kein Prophet sein, um diese 10% für völlig abwegig zu halten. Die typischen Optimierungen für kommende Neuspiele wird es geben, hier wären natürlich 10% oder in Einzelfällen gar mehr drin, was auch schon viel wäre. Mit dem Durchschnitt hat es nichts zu tun. Hier sind meine Vorstellungen an einen Wundertreiber eine ganz andere.
Der Unterschied ist einfach, dass Cypress von der Architektur nicht neu war, Cayman hingegen schon.

Es nur meine Erwartung/Hoffnung, natürlich kann ich auch ziemlich daneben liegen.....

AwesomeSauce
2010-12-30, 14:50:02
@Schlammsau

Und jetzt möchte ich von dir eine technisch fundierte Erklärung, warum VLIW4 schwieriger auszulasten sein soll als VLIW5.

Armaq
2010-12-30, 15:00:53
Das war jetzt ziemlich offensiv und angesichts aller früheren Entwicklungen auch nicht angebracht. Meinst du nicht auch?

Es bestreitet niemand, dass die Karten im Laufe der Zeit schneller werden. Einige Spiele werden sogar extrem viel schneller, wenn man das aufs Jahr hochrechnet. Im Schnitt sind das trotzdem nur Fürze und nie etwas im Bereich "10 Prozent auf alles" (außer Trollnahrung). Vor allem in kurzer Zeit. Hier hoffen viele darauf, dass die Karten mal eben um 10 Prozent zulegen, weil's ihr Liebling ist. Nur hat das nichts mit der Realität zu tun.

MfG,
Raff
Ob es sich immer gleich um Wunschdenken handelt, ist zu bezweifeln.

Iruwen
2010-12-30, 15:17:47
Das zeigt doch die Vergangenheit. Aber diesmal wird natürlich alles anders.

Schlammsau
2010-12-30, 15:18:51
Das zeigt doch die Vergangenheit. Aber diesmal wird natürlich alles anders.
Wie wars den beim R600 (HD2900XT) Launch bzw. 3-6 Monate später?

desert
2010-12-30, 15:25:40
Der Unterschied ist einfach, dass Cypress von der Architektur nicht neu war, Cayman hingegen schon.

Es nur meine Erwartung/Hoffnung, natürlich kann ich auch ziemlich daneben liegen.....

du wirst daneben liegen, so wie alle anderen vor dir auch. Jedes mal wieder bei einer neuen architektur kommen die wundertreiber ins spiel die erst das volle potenzial der karte freischalten. Das ist und bleibt quatsch mit soße.

Weder ati oder nvidia haben es geschafft. Ein spiel legt mal zu, ja. Das aber nur, weil ein bug behoben worden ist oder shaderreplacement betrieben wird. die meisten verbesserungen liegen im bereich der messtoleranz. Ob nun 30 fps oder 31 fps ist völlig unerheblich.

Würde man heute einen test mit der hd2900 machen und den testparcour von damals, man würde im durchschnitt keine grosse steigerung feststellen, einige games ja. Mehr aber nicht. Bei manchen spielen sinkt sogar die Perfomance.

der wundertreiber ist und bleibt mythos. Wenn eine architektur bei erscheinen nicht schnell ist, dann werden die treiber auch nichts mehr richten.

mironicus
2010-12-30, 15:35:56
Hier warten manche wie Wölfe darauf, ein unschuldiges Schaf reißen zu können, habe ich manchmal den Eindruck. Hier kommt ja kaum eine lockere Unterhaltung zustunde, ohne das irgendein Fanboy gleich wieder mit den flamen anfängt. Da freut man sich über das Freischalten der 6950 und schon kommen irgendwelche Leute und versuchen das einem madig zu reden, oder kommen bei Fragen nach höherer Geschwindigkeit gleich wieder mit AF-Filter und so einem Müll.

Schlammsau
2010-12-30, 15:39:15
ATi hats beim Cypress auch geschafft durchschnittlich 6% (Cat 9.10 - 10.3) innerhalb eines halben Jahres rauszuholen.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ati-catalyst-10.4/11/#abschnitt_performancerating

Natürlich wurden nur 10 Games getestet, aber trotzdem eine beachtliche Leistung......

V2.0
2010-12-30, 15:48:03
Ich habe Bock weder auf deine Überheblichkeit noch von jemandem anderen. Dieses "oh, Wundertreiberwunschdenken kleiner dummer Leute" ist zum Kotzen.
Sachliche Diskussion? Fehlanzeige.

Es ist alles andere als Wunschdenken, dass Verbesserungen auf der Shaderebene zu erwarten sind. Dass die "VLIW5-Compiler" ausgereizt sind, ist wenig verwunderlich, schließlich hat man VLIW5-Architektur seit Mai 2007. Der VLIW4-Compiler versteckt sich so seit Juni 2010.

Das Problem ist nur, dass es schwerer ist den Treiber dazu zu bekommen VLIW5 Einheiten optimal zu nutzen, als VLIW4. Da sich die Maximalleistung nicht verbessert hat und der Ausnutzungsgrad schon durch die Änderung von VLIW5 zu VLIW4 verbessert wurde, würde ich keine Treiberwunder erwarten.

Ronny145
2010-12-30, 15:53:37
ATi hats beim Cypress auch geschafft durchschnittlich 6% (Cat 9.10 - 10.3) innerhalb eines halben Jahres rauszuholen.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ati-catalyst-10.4/11/#abschnitt_performancerating

Natürlich wurden nur 10 Games getestet, aber trotzdem eine beachtliche Leistung......


Ganz und gar nicht. Schau dir doch mal die Resultate im Einzelnen an. Risen, Batman CoD, Riddick etc. nichts. Messungenauigkeit oder sogar schneller mit älteren Treibern. Den Löwenanteil macht hier Anno 1404 und Dirt 2. Diese Optimierungen wird es immer geben. Bei Anno vermute ich außerdem einen Bug, der vorher die HD5 ausbremste.

Schlammsau
2010-12-30, 16:20:10
:|

zB
Battleforge 6-7%
Crysis ~5%
Red Faction 3-4%
WiC 4-6%

Ronny145
2010-12-30, 16:26:16
:|

zB
Battleforge 6-7%
Crysis ~5%
Red Faction 3-4%
WiC 4-6%


Ist doch nichts weltbewegendes. Das sind ausgewählte Benchmarktitel die ein paar Prozent zulegen. Völlig normal.

desert
2010-12-30, 16:29:54
:|

zB
Battleforge 6-7%
Crysis ~5%
Red Faction 3-4%
WiC 4-6%

Crysis von 32.3 fps auf 34 fps und du weisst nicht was dort betrieben worden ist, ich gehe von shadererplacment aus. Bei der weit überwiegenden mehrheit hat sich überhaupt nichts getan.

Und auch die anderen ergebnisse sprechen eher dafür das beim af oder aa gedreht worden ist. Denn eigentlich ist fast immer nur dort eine steigerung messbar. Also wohl schummelcode als besseres ausnutzen der architektur.
Und CMR2 läuft ohne aa/af sogar langsamer. Die bugbeseitigung bei anno und co verfälscht das ergebnis.

Wie kann man nur so selektiv sein und alle ergebnisse die einem nicht passen einfach ausblenden und immer wieder cherry picking betreiben. die überwältigende mehrheit der spiele gewinnt nichts durch neue treiber, nur sogenannte Benchspiele und werden leicht beschleunigt. Das spricht eher für af und shader cheaterei als besseres ausnutzen der architektur, den sonst müssten alle anderen spiele auch gewinnen und wenn es wenigstens 0.2 fps wären, tun sie aber oft nicht.

VooDoo7mx
2010-12-30, 16:30:50
Ja bei Anno 1404 hatte massive Probleme mit ATi Karten. Also kann man das schon mal rausnehmen. Bei Need For Speed Shift war das auch ähnlich.

Gerade bei ATi gibt es viele neue Spiele wo die Karten wegen irgendwelcher vermurksten Treiber nur mit angezogener Handbremse laufen. Wenn das dann gefixt wurde, hat dies nichts mit optimierten schnelleren Treibern zu tun, auch wenn es in die Statistik gerne mit rein genommen wird.

Und selbst wenn die neuen ATi Produkte mit einer Optimierung hier und da noch ein paar Prozente zulegen, so werden es die Konkurrenzprodukte auch tun.

Bucklew
2010-12-30, 16:55:34
ATi hats beim Cypress auch geschafft durchschnittlich 6% (Cat 9.10 - 10.3) innerhalb eines halben Jahres rauszuholen.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ati-catalyst-10.4/11/#abschnitt_performancerating
Na zum Glück hat Nvidia in dieser Zeit mit neuen Treiber null Performance herausgeholt :rolleyes:

Bandit3644
2010-12-30, 17:37:28
Na zum Glück hat Nvidia in dieser Zeit mit neuen Treiber null Performance herausgeholt :rolleyes:

Da hat auch keiner das Gegenteil behauptet. Und was Nvidia macht juckt in diesem Thread auch keinen. Wenn du trollen willst geh doch bitte sonst wo hin.

Langenscheiss
2010-12-30, 17:51:45
Ich habe Bock weder auf deine Überheblichkeit noch von jemandem anderen. Dieses "oh, Wundertreiberwunschdenken kleiner dummer Leute" ist zum Kotzen.
Sachliche Diskussion? Fehlanzeige.

Es ist alles andere als Wunschdenken, dass Verbesserungen auf der Shaderebene zu erwarten sind. Dass die "VLIW5-Compiler" ausgereizt sind, ist wenig verwunderlich, schließlich hat man VLIW5-Architektur seit Mai 2007. Der VLIW4-Compiler versteckt sich so seit Juni 2010.
Nur weil etwas in Hardware noch nicht vorhanden ist, muss das nicht unbedingt bedeuten, dass man sich damit in gewisser Hinsicht noch nicht auskennt. Extrem-Beispiel: Quantencomputing. Hardware liegt in ferner Zukunft, Theorie-Vorlesungen dazu gibts jetzt schon. Die Entwicklung rund um die VLIW4-Architektur ist sicherlich nicht neu, und wie V2.0 bereits sagte, kann man auf VLIW4 einfacher optimieren.
Mag wohl sein, dass man durch die Praxis-Erfahrung mit dem compiler noch n paar Prozent rausholen wird, aber Wunder sind da mMn auch nicht zu erwarten.

horn 12
2010-12-30, 18:19:56
Sapphire HD6950 mit Stalker Call of Pripyat wurde soeben versendet, nach nicht mal 5 Stunden ab der Bestellung. Und dies bei uns in Italien.:biggrin:

RoNsOn Xs
2010-12-30, 18:32:11
Da hat auch keiner das Gegenteil behauptet. Und was Nvidia macht juckt in diesem Thread auch keinen. Wenn du trollen willst geh doch bitte sonst wo hin.
danke! war mal notwendig

Bucklew
2010-12-30, 18:39:46
Da hat auch keiner das Gegenteil behauptet. Und was Nvidia macht juckt in diesem Thread auch keinen. Wenn du trollen willst geh doch bitte sonst wo hin.
Natürlich interessiert es, was im Vergleich dazu die Konkurrenz macht. Die im Grunde lächerlichen 6% innerhalb eines Jahres machen doch nur dann Sinn, wenn man damit den Vorsprung/Rückstand der Konkurrenz reduzieren/erweitern könnte.

6% isoliert bringen einen doch überhaupt nicht weiter. Bei 30fps wären das weniger als 2fps "mehr". Wer soll das merken?

Bandit3644
2010-12-30, 19:47:38
Natürlich interessiert es, was im Vergleich dazu die Konkurrenz macht. Die im Grunde lächerlichen 6% innerhalb eines Jahres machen doch nur dann Sinn, wenn man damit den Vorsprung/Rückstand der Konkurrenz reduzieren/erweitern könnte.

6% isoliert bringen einen doch überhaupt nicht weiter. Bei 30fps wären das weniger als 2fps "mehr". Wer soll das merken?

auch das will keiner wissen!!!! wenn ich mich über nvidia informieren will dann schau ich selber nach, wird denn meisten hier auch so gehen. ich brauch dich nicht als nvidias sprachrohr

Bucklew
2010-12-30, 19:52:50
auch das will keiner wissen!!!! wenn ich mich über nvidia informieren will dann schau ich selber nach, wird denn meisten hier auch so gehen. ich brauch dich nicht als nvidias sprachrohr
Dann lies es nicht und hör auf den Thread hier mit Schwachsinn vollzuspammen, ohne auf das einzugehen, was ich schreibe. DAS ist trollen.

Langenscheiss
2010-12-30, 20:06:21
Da hat auch keiner das Gegenteil behauptet. Und was Nvidia macht juckt in diesem Thread auch keinen.
Wieso? Bei Reviews gehts genauso um den Vergleich zur Konkurrenz wie um das Produkt an sich. Wenn hier von Performance-Gewinn durch Treiber die Rede ist, ist es schon interessant, zu wissen, ob man sich dadurch einen Vorteil gegenüber der Konkurrenz verschaffen hat, oder nicht. Das interessiert auch in einem AMD-Thread. Wie man den Perfomancegewinn nun allerdings wertet, bleibt jedem selbst überlassen. Die einen sagen "bringt nix, NV/AMD hat genauso viel gewonnen", die anderen sagen "ich hab nun mal ne AMD/NV Karte, und wenn die schneller wird, isses super, egal ob NV/AMD jetzt nachzieht oder nicht".

horn 12
2010-12-30, 20:43:41
AMD schiebt den Riegel vor !!
Mit der Neuen HD6950/6970 Revision und den nun wohl voll verkauften HD6950 wird das Freischalten auf HD6970 wohl passe sein.
Dann wurden die Karten gut verkauft, durch diesen "Fehler" weitaus besser als erwartet.
Nun will man aber wohl auch etwas verdienen und daher schiebt man sofort die Neue Revisions Karten nach:

http://vr-zone.com/articles/rumour-amd-preparing-revision-for-hd-6950-6970-/10569.html

Langenscheiss
2010-12-30, 20:47:35
AMD schiebt den Riegel vor !!
Mit der Neuen HD6950/6970 Revision und den nun wohl voll verkauften HD6950 wird das Freischalten auf HD6970 wohl passe sein.
Dann wurden die Karten gut verkauft, durch diesen "Fehler" weitaus besser als erwartet.
Nun will man aber wohl auch etwas verdienen und daher schiebt man sofort die Neue Revisions Karten nach:

http://vr-zone.com/articles/rumour-amd-preparing-revision-for-hd-6950-6970-/10569.html

Also für mich gibt die Quellenangabe deine Schlussfolgerung zwar noch nicht her, aber die Möglichkeit für einen Riegel ist durchaus gegeben. Bin mal gespannt!

Mancko
2010-12-30, 21:42:25
Also für mich gibt die Quellenangabe deine Schlussfolgerung zwar noch nicht her, aber die Möglichkeit für einen Riegel ist durchaus gegeben. Bin mal gespannt!

Die wären ja auch schön blöd das so zu lassen. Dann kauft sich ja gar kein Schwein die 6970. Die ist ja ohnehin schon mehr oder minder ein Fail und hat einen schweren Stand, da die GTX570 die selbe Performance mit den diversen Nvidia Vorteilen aufweist. Wenn man dann die 6950 noch schnell zur 6970 modden kann, ist die Karte noch uninteressanter.

Bin mal gespannt wo die GTX 560 sich einordnet und ob es noch eventuell eine GTX565 gibt. Auf jeden Fall ist AMDs Situation derzeit nicht gerade prickelnd.

airbag
2010-12-30, 21:48:25
Also für mich gibt die Quellenangabe deine Schlussfolgerung zwar noch nicht her, aber die Möglichkeit für einen Riegel ist durchaus gegeben. Bin mal gespannt!

Es ist aber zu erwarten gewesen, weil es nicht das erste Mal ist, dass sie einen Riegel davor schieben. Auch wenn es im CPU-Bereich war.

y33H@
2010-12-30, 21:55:35
Bei den ersten Chargen hat man aufgrund von time to market wohl auf den Lasercut verzichtet. AMD lässt GPUs und CPUs nicht zugunsten des Kunden "freischaltbar", sondern wohl eher, weil es Zeit und/oder Geld spart.

=Floi=
2010-12-30, 22:17:13
vielleicht hat die neue revision auch nur das pcb der 6970er :ugly:


trotzdem ist es erstaunlich, dass hier ALLE chips funktionieren. nv vertauscht ja extra sogar die ram chips und deaktiviert jeden chip nach dessen "defekt" und hier die stückzahlen hoch zu halten und amd verbaut einfach nur gute chips.
einfach anhand der masse und des preisdruckes müssten auch schlechte karte dabei sein.

Mancko
2010-12-31, 11:33:08
vielleicht hat die neue revision auch nur das pcb der 6970er :ugly:


trotzdem ist es erstaunlich, dass hier ALLE chips funktionieren. nv vertauscht ja extra sogar die ram chips und deaktiviert jeden chip nach dessen "defekt" und hier die stückzahlen hoch zu halten und amd verbaut einfach nur gute chips.
einfach anhand der masse und des preisdruckes müssten auch schlechte karte dabei sein.

Ein Indiz mehr dafür, dass bei der Vorbereitung zum Cayman Launch einiges suboptimal gelaufen ist. AMD war sehr wahrscheinlich unter immensem Zeitdruck. Die sind von der 580 und 570 sehr überrascht gewesen. In Sachen Performance sicherlich nicht bei der 580 aber dafür über den Launchtermin. Bei der 570 denke ich, dass sie dort auch von der Performance überrascht wurden. Die ist eigentlich für Nvidia Verhältnisse zu nah an der 580 drann. Eindeutig ein Zeichen dafür, dass Nvidia Wind von der 6970 Performance bekommmen hat und die Gunst der Stunde genutzt hat die zweitschnellste Karte aus ihrem Portfolio direkt auf dem selben Performance Level zu plazieren, was natürlich dazu führt, dass AMD bei der 6970 keine besonders gute Figur macht.

Insofern denke ich musste die 6950 schnellsten mit raus, damit der Launch nicht komplett in die Hose geht. Kostet im ersten Moment erstmal ein wenig Geld aber immer noch besser als komplett gebasht zu werden. Die große Masse wird auch nicht modden denke ich. Jetzt dürfte AMD großes Augenmerk darauf legen, die Produktionskosten für die 6950 zu senken. Damit hat sich dann auch das Modden erledigt.

Armaq
2010-12-31, 12:11:08
Bei den ersten Chargen hat man aufgrund von time to market wohl auf den Lasercut verzichtet. AMD lässt GPUs und CPUs nicht zugunsten des Kunden "freischaltbar", sondern wohl eher, weil es Zeit und/oder Geld spart.
Während man feilt sollte eigentlich Zeit dafür sein. ;)

Undergroundking
2010-12-31, 19:09:36
ich denke nicht, dass amd das freischalten unterbinden wird. ati ist halt nun amd und da hat es ja schon fast tradition, dass man ganze kerne freischalten kann.

und besser zwei 6950 verkaufen als eine 6950 und eine 570 ;)

es spricht sich rum, amd ist mal wieder bei den "bastelfreaks" beliebt, die empfehlen dann ihren freunden auch ne amd usw.

auch mit ner 6950 wird man noch geld verdienen und dank erstarkter nvidiakonkurrenz in sachen marktanteil wird man eben diesen höher bewerten als eventuell entgangene gewinne, weil manche anstatt ner 6970 ne 6950 bestellen.

diesen entgangenen gewinn kompensiert man eben durch mehrverkäufe der 6950, sie sonst zu nvidia gegriffen hätten. die yield dürfte sehr gut sein und es sind genug karten im handel die eben unters volk müssen.

vermutlich wirds ne zusätzliche 6950 mit 1GB vram geben die kein dualbios haben wird.
dann zum sehr günstigen preis eben als preis-leistungskracher. so würd ichs machen. wir werden sehen

horn 12
2010-12-31, 19:42:10
Als Antwort für die GTX 560 (HD6950 1GB für knappe 200 Euro)

svenw
2011-01-01, 15:43:28
Ich weiß ehrlich nicht, was es an der Leistung der 69er Karten auszusetzen gibt. Wenn die Karten mit (für diese Karten) vernünftigen aka hohen Settings gefahren werden, ist die Leistung für den Preis doch super.

Darlie
2011-01-01, 15:53:10
Als Antwort für die GTX 560 (HD6950 1GB für knappe 200 Euro)

Das wäre in der Tat ein Klopper, jedoch nur für unter 200 Euro. Die Barts Serie kann AMD eigentlich jetzt schon auslaufen lassen, ein vollkommen sinnbefreites Produkt, es sei denn die drücken Barts jetzt in den Mainstream unter 150€ .

Raff
2011-01-01, 16:59:05
Das wäre in der Tat ein Klopper, jedoch nur für unter 200 Euro. Die Barts Serie kann AMD eigentlich jetzt schon auslaufen lassen, ein vollkommen sinnbefreites Produkt, es sei denn die drücken Barts jetzt in den Mainstream unter 150€ .

Nun, nicht jeder braucht High-End. Barts hat mehrere Probleme:

a) Die noch erhältlichen 5800er-Karten sind nicht schlechter
b) Das Referenzdesign ist laut
c) Die Preise sind zu hoch

a) und b) sind hinfällig, da es mittlerweile leise 6850er wie 6870er gibt. Etwas zu teuer sind sie trotzdem noch. Vor allem attraktive 5850er um 170 Euro machen den Neuen zu schaffen, auch GTX-460-er (1 GiB) um 130 Euro bieten mehr fürs Geld.

MfG,
Raff

fondness
2011-01-01, 17:08:12
auch GTX-460-er (1 GiB) um 130 Euro bieten mehr fürs Geld.

MfG,
Raff

130EUR wo?

airbag
2011-01-01, 17:13:26
Das wäre in der Tat ein Klopper, jedoch nur für unter 200 Euro. Die Barts Serie kann AMD eigentlich jetzt schon auslaufen lassen, ein vollkommen sinnbefreites Produkt, es sei denn die drücken Barts jetzt in den Mainstream unter 150€ .

Für nur die Hälfte des VRAMs gleich mehr als 55Euro weniger. Das glaube ich ehrlich gesagt nicht, wenn sie noch irgendeinen Gewinn einfahren wollen.

fondness
2011-01-01, 17:15:40
Für nur die Hälfte des VRAMs gleich mehr als 55Euro weniger. Das glaube ich ehrlich gesagt nicht, wenn sie noch irgendeinen Gewinn einfahren wollen.

Solange NV einen ähnlich großen Chip auf der GTX460 für deutlich weniger verkaufen kann würde ich mir darüber keine Sorgen machen. ;)

airbag
2011-01-01, 17:19:48
Solange NV einen ähnlich großen Chip auf der GTX460 für deutlich weniger verkaufen kann würde ich mir darüber keine Sorgen machen. ;)

Chipkosten sind nicht die einzige Baustelle;)
Caymankarten haben z.B. ein signifikant größeres PCB. Außerdem errinnere ich mich noch an News, dass Ende letzen Jahres die Rohstoffpreise der Materialien für die PCBs um 40% angestiegen sind.
Zudem kommen noch andere Kosten hinzu, die nicht zu unterstätzen sind.

Raff
2011-01-01, 17:21:39
130EUR wo?

Gabs in den vergangenen Wochen immer wieder. Aktuell sind's 140 Euro; um 130 gibt's gerade SE-Karten.

MfG,
Raff

fondness
2011-01-01, 17:37:16
Chipkosten sind nicht die einzige Baustelle;)


Nein, aber definitiv die bedeutendste.


Caymankarten haben z.B. ein signifikant größeres PCB.

Viel entscheidender sind die Layer, und da sollte sich durch das 256-bit SI bei beiden nicht viel unterscheiden.


Außerdem errinnere ich mich noch an News, dass Ende letzen Jahres die Rohstoffpreise der Materialien für die PCBs um 40% angestiegen sind.
Zudem kommen noch andere Kosten hinzu, die nicht zu unterstätzen sind.

Das betrifft beide.

Iruwen
2011-01-01, 17:40:10
Da hier keiner die Verträge zwischen AMD, Nvidia und TSMC kennt ist die Diskussion müßig.

fondness
2011-01-01, 17:40:19
Gabs in den vergangenen Wochen immer wieder. Aktuell sind's 140 Euro; um 130 gibt's gerade SE-Karten.

MfG,
Raff

Aktuell sind es laut Geizhals Minimum 143,99EUR für eine GTX460 1GiB im Ref-Design, das ist kaum preiswerter wie die sehr gute Sapphire 6850 um 147,76EUR.

airbag
2011-01-01, 17:45:31
Nein, aber definitiv die bedeutendste.

Achja und wie bedeutend? Immerhin lächerlich zu Entwicklungs und Werbekosten. Von daher kann man durchaus PCBkosten anführen, die auch nich allzu wenig sind. Vor allem wenn man das Feilen per Hand noch dazurechnet ;)


Viel entscheidender sind die Layer, und da sollte sich durch das 256-bit SI bei beiden nicht viel unterscheiden.

Achja und wie groß ist das SI einer 460?
Außerdem gehe ich mal davon aus, dass eine Perfomancekarte nicht unbedingt mehr Layer aufweist als eine untere HighEndkarte/Highendkarte, weil das PCB von Cayman XT so ziemlich das Gleiche ist.


Das betrifft beide.
Sicherlich. Wiegt bei einem größeren PCB dann aber mehr