PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Zum Launch von Radeon HD 6950 & 6970


Leonidas
2010-12-15, 12:50:08
Link zum Artikel:
http://www.3dcenter.org/artikel/zum-launch-von-radeon-hd-6950-6970

Oberst
2010-12-15, 14:00:47
Hallo,
wäre es vielleicht möglich, in eurer sicherlich kommenden Review auch einen Blick auf ArmA2 zu werfen (Bittech hat das leider noch nicht getestet)? Das Spiel bietet ja umfangreiche Einstellmöglichkeiten bis hin zu Downsampling und dürfte auch den dicksten Karten noch merklich zu schaffen machen. Wäre daher interessant, wie sich da GTX580/570 und HD6970/6950 schlagen.
M.f.G.

MadManniMan
2010-12-15, 14:04:24
Errm, warum gehst Du nicht auf die Kühllösungen ein?

Noebbie
2010-12-15, 14:06:30
Hallo,
wäre es vielleicht möglich, in eurer sicherlich kommenden Review auch einen Blick auf ArmA2 zu werfen (Bittech hat das leider noch nicht getestet)? Das Spiel bietet ja umfangreiche Einstellmöglichkeiten bis hin zu Downsampling und dürfte auch den dicksten Karten noch merklich zu schaffen machen. Wäre daher interessant, wie sich da GTX580/570 und HD6970/6950 schlagen.
M.f.G.

Ich bekunde auch mein Interesse! Bitte! :smile:

kahlchen
2010-12-15, 14:42:57
Wenn die neuen Radeons unter hohen Settings so gut sind, sind sie dann nicht in z.B. einem Jahr unter normalen Settings gleich auf mit GTX 570/580?
Oder sehe ich das falsch?

Gast
2010-12-15, 15:43:07
Schöne Einschätzung! Danke für die differenzierte Betrachtung

Gast
2010-12-15, 16:07:57
Der Artikel ist erstklassig und vor allem sehr objektiv bewertet. Kompliment!

Knuddelbearli
2010-12-15, 16:23:06
hmm eigentlich sollte Powertune die min fps sogut wie garnicht tangieren oder ?
also kommt die niedrigere Performance zum grossteils durch die niedrigeren max fps was dann nochmal mehr egal ist.

finde es schade das ht4u da kein verlaufsdiagramm hat

MadManniMan
2010-12-15, 16:31:22
Knuddelbaerli,

man kann keine Pauschalaussage treffen, die jetzt geringen oder hohen FPS die Powertune-Problematik anhängen würde - was letztlich zählt, ist, ob die jeweilige Situation sehr "stromintensiv" ist. Ob das jetzt bei 12 oder bei 120 FPS geschieht, kann man pauschal nicht feststellen.

Knuddelbearli
2010-12-15, 17:11:54
naja gibt doch häufig diese bugs mit dem menübildschirm da die so einfach zu rechnen sind das da ohne vsynch auch mal die grafikkarte abrauchen kanna ( zB starcraft 2 und NV )

und auch in wow und Eve online wird meine grafikkarte im menü deutlich lauter ( also wird sie heisser also säuft sie mehr strom ) natürlich war meine aussage bisl zu allgemein es sind sicher nicht nur solche fälle. eine szene kann auch so aufwendig sein das die grafikkarte aus dem letzten loch pfeift was aber eher selten ist da bei solchen szenen meistens nur ein bestimmter teil der architektur am limit läuft.

Schimi1983
2010-12-15, 17:13:56
der multi Monitor IDlE verbrauch ist ja leider immer noch nicht auf "Singel Monitor Niveau"....

schade....

OBrian
2010-12-15, 18:21:38
Wenn die neuen Radeons unter hohen Settings so gut sind, sind sie dann nicht in z.B. einem Jahr unter normalen Settings gleich auf mit GTX 570/580?
Oder sehe ich das falsch?Wenn in einem Jahr die gleichen Settings, die jetzt als "hoch" gelten, dann als "normal" eingestuft werden, dann ja.

Allerdings wird in einem Jahr erstens an den Treibern noch eine Menge gemacht worden sein (immerhin seit HD2900XT erstmals wieder eine deutlich geänderte Architektur, d.h entsprechendes Optimierungspotential), und andererseits gibt es in einem Jahr sowieso wieder eine neue Kartengeneration, dann interessiert das sowieso nicht mehr.

kahlchen
2010-12-15, 19:15:52
Wenn in einem Jahr die gleichen Settings, die jetzt als "hoch" gelten, dann als "normal" eingestuft werden, dann ja.

Allerdings wird in einem Jahr erstens an den Treibern noch eine Menge gemacht worden sein (immerhin seit HD2900XT erstmals wieder eine deutlich geänderte Architektur, d.h entsprechendes Optimierungspotential), und andererseits gibt es in einem Jahr sowieso wieder eine neue Kartengeneration, dann interessiert das sowieso nicht mehr.

Danke für die Antwort. In einem Jahr interessiert es vielleicht nicht mehr so sehr, aber doch jetzt, mit dem Blick auf die Zukunftssicherheit der Karte, oder?

Knuddelbearli
2010-12-15, 20:09:06
also ich kaufe normalerweise auf 2 jahre ( ca jede 2te generation wird gewechselt ausnahme so extrem gute wie 8800 ) da ist sowas für mich schon ein + punkt der physics locker aufwiegt

kahlchen
2010-12-15, 21:01:48
also ich kaufe normalerweise auf 2 jahre ( ca jede 2te generation wird gewechselt ausnahme so extrem gute wie 8800 ) da ist sowas für mich schon ein + punkt der physics locker aufwiegt

Ja genau. So etwas sollte bei Reviews dann doch aber auch mit berücksichtigt werden.
Schlagt mich für diesen Satz, aber ist es nicht wirklich so, dass die Radeon Karten über die Zeit gesehen an Stärke zu ihrem nVidia Gegenpart gewinnen (z.B. x1900)?

Schnitzl
2010-12-15, 21:42:46
hm, könnte man - rein theoretisch - mit Powertune die Karte leiser bekommen?
(wenn man es auf -10% oder -20% stellt)
Bei HT4U gehen die "Watt" ja deutlich runter...

Knuddelbearli
2010-12-15, 22:03:47
klar kann man das

C.D.B.
2010-12-16, 00:34:33
Seite 3 - Performanceanalyse:

Dies macht die Radeon HD 6970 nun nicht übermäßig schneller, erst unter 2560x1600 mit 8x Anti-Aliasing erreicht sie wirklich erstklassige Performancewerte nahe der GeForce GTX 580 – aber es mildert das generelle Fazit dahingehend ab, daß man die Radeon HD 6970 als in etwa gleichschnell zur GeForce GTX 570 einschätzen kann. Dies ist sicherlich noch nicht daß, was AMD mit der Radeon HD 6970 wollte ...

daß müßte doch das lauten? oder?

... Mehr Performancewerte unter 8x Anti-Aliasing und vor allem unter dem neuen 8x Enhanced Quality Anti-Aliasing (welches mit nVidias CSAA vergleichbar ist) würden eventuell ein anderes Bild ergeben – und die Radeon HD 6970 sowie die nVidia-Kontrahenten haben nun sicherlich die Voraussetzungen, solche Settings mit vernünftigen Frameraten gehen zu können. ...

Ähm, war da nich was, daß NVidias CSAA nur ein paar Farbsamples beisteuern kann? Ist AMD's EQAA diesbezüglich komplett - auch in Kombination mit AAA?

Gast
2010-12-17, 12:54:28
4-D VLIW anstatt 5-D VLIW Shader-Einheiten


Ein Shader-Cluster von RV970/Cayman besteht nunmehr aus nur noch 64 Shader-Einheiten, die als 16 Shader-Prozessoren mit jeweils der Fähigkeit, 4 Befehle pro Takt zu bearbeiten, angeordnet sind. Bisher hatte AMD 5-D VLIW Shader-Einheiten verbaut (16 Shader-Prozessoren à 5 Befehle), was jedoch in gewissem Sinne uneffektiv war: Diese 5-D Einheiten konnten nicht immer gut ausgelastet werden, mit den 4-D Einheiten steigt nun die Auslastung der Shader-Einheiten. Im allerbesten Fall erreicht AMD mittels dieser Maßnahme bei gleicher Anzahl an insgesamten Shader-Einheiten 25 Prozent mehr Rechenleistung, in einem typischen Fall sollen es ca. 15 Prozent mehr Rechenleistung durch die Umstellung auf 4-D VLIW Shader-Einheiten sein.

Auch wenn die Schlussfolgerung vielleicht stimmt, kann ich diese ehrlich gesagt nicht anhand des Textes nachvollziehen. Sagen wir, die Formulöierung ist etwas unglücklich.

Die 25% basieren wohl aus dem rechnerischen Verhältnis (5x16=80) / (4x16=64) und der Annahme, dass die gleiche Anzahl von Shadereinheiten vorhanden sind. Allerdings hat AMD nicht 1600 Shader auf 4D-Einheiten verteilt, sondern nur 1536. Damit erhalten wir ein Verhältnis von (1600/5=320) zu (1536 /4=384), also nur noch von 20% Steigerung.
Diese 20% Steigerung wären allerdings auch nur dann zu realisieren, wenn die fünfte Einheit eines Shaders nie genutzt worden wäre, wahrscheinlich so aber nicht zutrifft (und im Artikel auch erwähnt wird). Deshalb zeigt sich nur eine reale Steigerung von 15%.

Mein Fazit nach dem Lesen dieses Artikels:
Noch eine Graphikkartengeneration, die ich nicht zu kaufen brauche. Bisher habe ich keine Spiele, die unbedingt DX10/DX11 brauchen und bei 1920x1200 tut's derzeit auch noch meine 4870 1GB. Meine persönliche Hemmschwelle ich allerdings auch deshalb größer, weil ich eine wassergekühlte Lösung nicht mehr missen möchte und die immer gleich 80€ Aufpreis für den Kühler bedeutet.

Leonidas
2010-12-25, 10:05:00
Errm, warum gehst Du nicht auf die Kühllösungen ein?


Sry, ich hab es dann in den News nachgeholt. Für den Artikel wollte ich dann irgendwann mal fertigwerden nach stundenlangem Studium und Verrechnen von Benchmarks.




A
Die 25% basieren wohl aus dem rechnerischen Verhältnis (5x16=80) / (4x16=64) und der Annahme, dass die gleiche Anzahl von Shadereinheiten vorhanden sind. Allerdings hat AMD nicht 1600 Shader auf 4D-Einheiten verteilt, sondern nur 1536. Damit erhalten wir ein Verhältnis von (1600/5=320) zu (1536 /4=384), also nur noch von 20% Steigerung.



Ich meinte in der Tat "normiert auf die Einheitenanzahl". Steht eigentlich auch so da: "bei gleicher Anzahl an insgesamten Shader-Einheiten".

RavenTS
2011-01-02, 14:52:20
hm, könnte man - rein theoretisch - mit Powertune die Karte leiser bekommen?
(wenn man es auf -10% oder -20% stellt)
Bei HT4U gehen die "Watt" ja deutlich runter...

Ist dann die Frage ob die Lüftersteuerung entsprechend darauf reagiert. Gabs da vielleicht zwischenzeitlich noch Tests dazu?

Knuddelbearli
2011-01-03, 00:41:05
naja weniger verbrauch = weniger Temperatur Entwicklung = Lüftersteuerung dreht runter frage ist nur ob das soviel bringt aber etwas sicher

RavenTS
2011-01-03, 22:11:16
naja weniger verbrauch = weniger Temperatur Entwicklung = Lüftersteuerung dreht runter frage ist nur ob das soviel bringt aber etwas sicher

Naja das hängt ja aber auch von den eingestellten bzw. physikalisch möglichen minimalen Umdrehungsgeschwindigkeiten des Lüfters ab. Gerade bei den Radialventilatoren ist im unteren Drehzahlbereich nicht viel Druck möglich und damit der Kühlungsabfall besonders massiv...