PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Cayman - HD 6950/6970 - November 2010


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20]

Schlammsau
2010-12-14, 21:34:12
Ich bleibe bei meiner Theorie von im Schnitt ~10% mehr Leistung der 6970 gegenüber der GTX570.

Äh, wo haben wir das gesagt? Die Interpretation unserer vielseitig auslegbaren Postings entsteht in euren Köpfen. ;) Die "Wahrheit" gibt's in einigen Stunden.

MfG,
Raff
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8448567#post8448567
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8448699#post8448699
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8448711#post8448711

Raff
2010-12-14, 21:35:12
Ich bleibe bei meiner Theorie von im Schnitt ~10% mehr Leistung der 6970 gegenüber der GTX570.

Gestützt durch was? Weil es schön wäre? Was, wenn das nicht stimmt? Ist das nicht im Grunde scheißegal, solange endlich wieder die Preise schnellere, neue Karten fallen?

MfG,
Raff

Eggcake
2010-12-14, 21:36:03
Muss hier Raff recht geben - in den letzten Seiten war der Inhalt ihrer Aussagen (jetzt nur auf die "Hinweise" bezogen) gleich Null - ihr denkt nur, überall steckt irgend eine versteckte Botschaft drin :ugly:
Aber echt jetzt: nicht mehr lange und wir haben's geschafft ;)

dildo4u
2010-12-14, 21:36:16
Ich bleibe bei meiner Theorie von im Schnitt ~10% mehr Leistung der 6970 gegenüber der GTX570.


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8448567#post8448567
AMD geht über den Preis damit ist alles gesagt und selbst du solltest es einsehen.

derguru
2010-12-14, 21:36:40
das kann man schon als virales marketing bezeichnen und belustigung.:biggrin:

Kalmar
2010-12-14, 21:37:16
nachdem hier : *klick* (http://www.pcgameshardware.de/aid,803978/Nvidia-Geforce-GTX-560-Technische-Daten-und-Release-Termin-aufgetaucht/Grafikkarte/News/)

wird sie schon net schlecht werden aber wohl ziemlich hungrig und bis da customkühler drauf gepapt sind wird es wohl bis mitte feb dauern würde ich mal tippen .. und ob der preis dann noch so günstig wird steht auch auf nem anderen blatt

tante edit meint die beiden posten hier einfach nur rum und schau was wir so Orakeln und belustigen sich bestimmt köstlich darüber :weg:

Raff
2010-12-14, 21:37:16
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8448567#post8448567

Das war eine simple Frage, weil hier einige Leute anscheinend Blindkäufe tätigen wollen und mir das nur Kopfschütteln entlockt. ;)

MfG,
Raff

y33H@
2010-12-14, 21:39:02
Für mich steht Preis/Leistung/Taktbarkeit in Vordergrund!Da muss ich allerdings eher auf die GTX 460 zeigen :usad: Wobei stock halt lahmer als Cayman ...

Schlammsau
2010-12-14, 21:39:11
Das war eine simple Frage, weil hier einige Leute anscheinend Blindkäufe tätigen wollen und mir das nur Kopfschütteln entlockt. ;)

MfG,
Raff

Das sind aber sehr doppeldeutige "Fragen" bzw "Andeutungen"!

Ailuros
2010-12-14, 21:39:19
Gestützt durch was? Weil es schön wäre? Was, wenn das nicht stimmt? Ist das nicht im Grunde scheißegal, solange endlich wieder die Preise schnellere, neue Karten fallen?

MfG,
Raff

Versuch bloss nicht dass fettgedruckte in irgendwelche Schaedel zu haemmern. Du schlagst damit lediglich den Hammer kaputt :P

Schlammsau
2010-12-14, 21:41:17
Gestützt durch was? Weil es schön wäre? Was, wenn das nicht stimmt? Ist das nicht im Grunde scheißegal, solange endlich wieder die Preise schnellere, neue Karten fallen?

MfG,
Raff

Wenn es nicht stimmt, hab ich mich halt verspekuliert. Ich seh das nicht so tragisch, diese Einschätzung basiert nur auf den bisher geleakten Specs und Benchmarks.

y33H@
2010-12-14, 21:41:58
Das sind aber sehr doppeldeutige "Fragen" bzw "Andeutungen"!Und genau deswegen sind es keine NDA-Brüche. Ein NDA-Bruch wäre "Karte X taktet mit Y MHz und verbraucht dabei V Watt in Spiel W". Oder Specs, Slides, Preise leaken. PHK bricht das NDA, hat aber keines.

Tarkin
2010-12-14, 21:42:28
Öhm, 384 anstatt 336 Rechenwerken entspricht schon 14 Prozent. Plus mehr Takt, in diesem Fall 820 (= +21 Prozent) wird ein 20-Prozent-Plus ziemlich einfach. Aber mal sehen, wie die Realität aussieht ... Die GTX 560 wird in Relation zur HD 6870 garantiert kein Stromsparwunder ... um es mal nett zu formulieren.



Größtenteils. ;)

MfG,
Raff

Ja genau das meine ich ja... Vielleicht wird man irgendwo bei 5% schneller als Barts landen. WEIT davon entfernt eine 6950 zu "versenken" .... (sorry für OT)

derguru
2010-12-14, 21:43:10
Wenn es nicht stimmt, hab ich mich halt verspekuliert.
biste aber nicht der einzige,99% haben mit mehr gerechnet gehabt.

Raff
2010-12-14, 21:44:27
Ja genau das meine ich ja... Vielleicht wird man 5% bis 10% schneller als Barts - bestenfalls. WEIT davon entfernt eine 6950 zu "versenken" .... (sorry für OT)

Jo. Versenkt da da bestimmt nichts, aber Nvidia wird bestimmt so rechnen, dass die HD 6950 attackiert wird. Und das wird IMO ohne Tweaks nicht gehen, ohne dass die "GTX 560" um 200 Watt saugt.

MfG,
Raff

fizzo
2010-12-14, 21:44:41
Da muss ich allerdings eher auf die GTX 460 zeigen :usad: Wobei stock halt lahmer als Cayman ...

Da habe ich schon was Schnelleres (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8434418&postcount=411) im Rechner. Da dieser jedoch Anfag Jan. komplett verkauft wird, bliebe mir die HD 6950 für das neue System (Sandy ahoi) "über" ;)

Schlammsau
2010-12-14, 21:45:39
biste aber nicht der einzige,99% haben mit mehr gerechnet gehabt.

Ich habe ursprünglich auf GTX580 Niveau spekuliert, was man aber mit Sicherheit negieren kann. Von den 10% über GTX570 Niveau lass ich mich aber (noch) nicht abbringen.

Duplex
2010-12-14, 21:45:41
Ja genau das meine ich ja... Vielleicht wird man irgendwo bei 5% schneller als Barts landen. WEIT davon entfernt eine 6950 zu "versenken" .... (sorry für OT)
5% mehr Leistung als Barts bei 135mm² mehr Fläche kommt nicht hin, dann kann man Barts gleich 10% höher takten und spart sich die höheren Herstellungkosten, Cayman Pro muss bis zu 20% gegenüber Barts zulegen

dildo4u
2010-12-14, 21:47:02
Da habe ich schon was Schnelleres (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8434418&postcount=411) im Rechner. Da dieser jedoch Anfag Jan. komplett verkauft wird, bliebe mir die HD 6950 für das neue System (Sandy ahoi) "über" ;)
Davon lohnt sich die 6950 in jedem Fall nicht Tesslation ist ja immer noch mehr als dürftig.

Raff
2010-12-14, 21:47:12
5% mehr Leistung als Barts bei 135mm² mehr Fläche kommt nicht hin, dann kann man Barts gleich 10% höher takten und spart sich die höheren Herstellungkosten

Barts XT braucht für 1.000 MHz idR 1,3 Volt. Da ist einfach nix zu holen. Bei Barts Pro schon (aber nur prozentual, nicht absolut).

MfG,
Raff

derguru
2010-12-14, 21:47:13
Ich habe ursprünglich auf GTX580 Niveau spekuliert, was man aber mit Sicherheit negieren kann. Von den 10% über GTX570 Niveau lass ich mich aber (noch) nicht abbringen.
würde ich aber machen,noch ist zeit. :lol:

LovesuckZ
2010-12-14, 21:48:35
:lol:, 10% über GTX570 ist annährend auf GTX580 Niveau. Die 580 wäre dann ganze 4,5% schneller...

Schlammsau
2010-12-14, 21:49:32
würde ich aber machen,noch ist zeit. :lol:

Warum sollte ich? Wenn Cayman mit der riesigen Die (für AMD-Verhältnisse) von ~380mm², nicht mindestens die 570 knackt, hat AMD gehörig was falsch gemacht. Ein epic FAIL sozusagen.....

Duplex
2010-12-14, 21:50:17
:lol:, 10% über GTX570 ist annährend auf GTX580 Niveau. Die 580 wäre dann ganze 4,5% schneller...
:hammer::uban::hammer:

Pirx
2010-12-14, 21:51:26
paar Stunden noch:rolleyes:

fizzo
2010-12-14, 21:51:27
biste aber nicht der einzige,99% haben mit mehr gerechnet gehabt.

Das zukünftige Caymanportfolio stelle ich mir wie folgt vor:

HD 6950 1GB - 250€
Leistung ~ GTX 480

HD 6970 2GB - 350€
Leistung knapp unter einer GTX 580

HD 6990 2GB - 500€
Leistung ~ 20% über einer GTX 580

Die Preislücke dazwischen wird mit einer HD 6950 2GB geschlossen oder auch eine HD 6970 mit 1GB halte ich nicht für ausgeschlossen.

Meine Einschätzung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8375853&postcount=702) Anfang Nov. =)

edit: [QUOTE=dildo4u;8448828]Davon lohnt sich die 6950 in jedem Fall nicht Tesslation ist ja immer noch mehr als dürftig.

Mal schaun was die Test so zeigen.

derguru
2010-12-14, 21:52:41
Warum sollte ich? Wenn Cayman mit der riesigen Die von ~380mm² (für AMD-Verhältnisse) nicht mindestens die 570 knackt, hat AMD gehörig was falsch gemacht. Ein epic FAIL sozusagen.....

ich denk das wird ein kopf an kopf rennen in normali modi,ist mir auch fast egal solang der preis stimmt und bq-mäßig ein bissel was gemacht wurde.

Mayk-Freak
2010-12-14, 21:53:03
HD6970@980MHz VS. GTX580@980MHz

http://www.abload.de/thumb/hd6970vs980mhzxlri.jpg (http://www.abload.de/image.php?img=hd6970vs980mhzxlri.jpg)

AwesomeSauce
2010-12-14, 21:53:22
Unleash the "Super Croc"! :biggrin:

http://www.abload.de/thumb/6990wgoe.png (http://www.abload.de/image.php?img=6990wgoe.png)
Du hast das falsche Bild hochgeladen:
http://www.abload.de/img/es_hd69903ggusnud.jpg (http://www.abload.de/image.php?img=es_hd69903ggusnud.jpg)

Iruwen
2010-12-14, 21:53:35
5% mehr Leistung als Barts bei 135mm² mehr Fläche kommt nicht hin, dann kann man Barts gleich 10% höher takten und spart sich die höheren Herstellungkosten, Cayman Pro muss bis zu 20% gegenüber Barts zulegen
Er redet von der GTX 560 (unschwer daran zu erkennen dass er die 6950 im gleichen Satz erwähnt).

y33H@
2010-12-14, 21:54:38
Normal Tess *gähn* Und die 580 dennoch +25%.

Kalmar
2010-12-14, 21:55:32
orakel befrag :

Da muss ich allerdings eher auf die GTX 460 zeigen :usad: Wobei stock halt lahmer als Cayman ...
+
Jo. Versenkt da da bestimmt nichts, aber Nvidia wird bestimmt so rechnen, dass die HD 6950 attackiert wird. Und das wird IMO ohne Tweaks nicht gehen, ohne dass die "GTX 560" um 200 Watt saugt.

MfG,
Raff

da stimmt was net, die erste aussage würde ich so deuten das eine oc460 nen krok erreicht aber des wäre net weit weg vom barts xt
während die zweite aussage ich ehr als größeren Abstand interpretiere
:ucrazy3:

Raff
2010-12-14, 21:55:45
Du hast das falsche Bild hochgeladen:
http://www.abload.de/img/es_hd69903ggusnud.jpg (http://www.abload.de/image.php?img=es_hd69903ggusnud.jpg)

Und du hast die Füllraten nicht korrekt in die "Datenbank" eingetragen. :D Aber der GPU-Kotname regelt. :ulol:

MfG,
Raff

Schlammsau
2010-12-14, 21:55:52
ich denk das wird ein kopf an kopf rennen in normali modi,ist mir auch fast egal solang der preis stimmt und bq-mäßig ein bissel was gemacht wurde.

Hallo?

Der Die ist 50% grösser als Barts (255mm² vs 380mm²), auch die Speicherbandbreite wurde um 30% erhöht (1050Mhz vs 1350Mhz), und der VRAM verdoppelt (1024MB vs 2048MB).
Wie kommst du zu der Annahme, Cayman XT wird im Schnitt nur ~20% schneller als Barts? Barts ist nämlich nur ~20% langsamer als die GTX570!

Laut der Rechnung würde Cayman Pro kaum schneller als Barts XT werden. :hammer:

AwesomeSauce
2010-12-14, 21:57:03
Und du hast die Füllraten nicht korrekt in die "Datenbank" eingetragen. :D Aber der GPU-Kotname regelt. :ulol:

MfG,
Raff
Das ist wegen dem DX12.0-Support - da wird alles ganz anders berechnet:D

derguru
2010-12-14, 21:57:38
Hallo?

Der Die ist 50% grösser als Barts, auch die Speicherbandbreite wurde um 30% erhöht, und der VRAM verdoppelt.
Wie kommst du auf die Annahme, Cayman XT wird im Schnitt nur ~20% schneller als Barts? Barts ist nämlich nur ~20% langsamer als die GTX570!

:hammer:

in deinen träumen ist die 570 nur 20% schneller.die 5870 ist schon ~10% schneller als der mruks bart.

Raff
2010-12-14, 21:57:45
Ist die doppelt so fette GTX 480 immer doppelt so schnell wie eine HD 6870? Eine GPU ist komplex.

MfG,
Raff

Menace
2010-12-14, 21:59:26
y33H: Oh my goodness... nvidia ist besser. Jede Seite lese ich das von Dir auf's neue. Du hast kein Vertrauen in die Merkfähigkeit von Menschen, oder? Dass Buckelow von seinem Arbeitgeber so sprechen und Werbung machen muss, kann man ja noch verstehen, wenn auch nicht entschuldigen. LZ ist einer eigenen Mission und nicht wirklich von dieser Welt, aber was treibt Dich dazu? Ich tippe einfach mal auf Geld, alles andere wäre beunruhigend. :freak: ;)

LovesuckZ
2010-12-14, 22:00:04
in deinen träumen ist die 570 nur 20% schneller.

Vorsicht: 20 langsamer != 20% schneller.
Dazu kommt: Barts XT ist 30% langsamer (5850 Niveau), wenn man von AMD's AF Cheaterei absieht und berücksichtig, dass nVidia ab DX10 immer HQ-ähnlich filtert.

Kalmar
2010-12-14, 22:00:24
Ist die doppelt so fette GTX 480 immer doppelt so schnell wie eine HD 6870? Eine GPU ist komplex.

MfG,
Raff

quatsch wenn ich ne trabi von 25 ps auf 50 ps tune ist der doch auch mindesten doppelt so schnell :uclap:

Schlammsau
2010-12-14, 22:03:26
Ist die doppelt so fette GTX 480 immer doppelt so schnell wie eine HD 6870? Eine GPU ist komplex.

MfG,
Raff
Lass es....wenn die 6970 es nicht schafft, die GTX570 im Schnitt zu schlagen, hat AMD scheisse gebaut.

Aber noch glaube ich nicht daran, morgen um 6 Uhr aber, weiss ich die Wahrheit!

davidzo
2010-12-14, 22:04:21
Davon lohnt sich die 6950 in jedem Fall nicht Tesslation ist ja immer noch mehr als dürftig.
Ich glaube kaum.
wenn ich dazu mal die 6970 zitieren darf, mit neuem treiber:
http://i954.photobucket.com/albums/ae22/PrimalAir/6970.png

580:
http://img691.imageshack.us/img691/3232/gtx580stock.jpg


Sieht nicht mehr nach einem Rückstand aus bei Catalyst 8.851 (bisherige tests sind alle mit 8.790

dildo4u
2010-12-14, 22:06:24
Da er mich vermutlich auf ignore hat sagt schlammi mal das er aufhören soll die CB Benches als Grundlage zu nutzen,daher kommt seine Spinnerei die 570 wär nur 20% schneller als den Murks den er im Rechner hat.Nur dumm das alle 6870 Ergebnisse immer noch mit Cheat AF sind selbst im 570 Test.

"Aus Zeitgründen haben wir die Radeon HD 6870 und Radeon HD 6850 bis jetzt aber nur mit Quality getestet."

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/4/#abschnitt_testsystem

dildo4u
2010-12-14, 22:06:54
wenn ich dazu mal die 6870 zitieren darf, mit neuem

Sieht nicht mehr nach einem Rückstand aus bei Catalyst 8.851 (bisherige tests sind alle mit 8.790
Fake.

derguru
2010-12-14, 22:07:20
Lass es....wenn die 6970 es nicht schafft, die GTX570 zu schlagen, hat AMD scheisse gebaut.

Aber noch glaube ich nicht daran, morgen um 6 Uhr aber, weiss ich die Wahrheit!

naja allein der heut spekulierte preis spricht schon bände und die paar luxx werte passen gut dazu.

deekey777
2010-12-14, 22:07:36
wenn ich dazu mal die 6870 zitieren darf, mit neuem treiber:
http://i954.photobucket.com/albums/ae22/PrimalAir/6970.png

selbes testsystem mit 580:
http://img691.imageshack.us/img691/3232/gtx580stock.jpg


Sieht nicht mehr nach einem Rückstand aus bei Catalyst 8.851 (bisherige tests sind alle mit 8.790
Was für ein neuerer TReiber? Aus der Zukunft?
Ihr lasst euch wirklich andrehen.

Duplex
2010-12-14, 22:07:58
@davidzo
nicht schlecht wie die 6970 mit neuem Treiber enorm zulegen kann
aber wie die anderen sagen ein Fake ;)

Schlammsau
2010-12-14, 22:08:26
naja allein der heut spekulierte preis spricht schon bände und die paar luxx werte passen gut dazu.

Ich warte auf den Test von HT4u!

Es kann in meinen Augen nicht passen......

C.D.B.
2010-12-14, 22:08:34
... selbes testsystem mit 580: ...
Sieht nicht mehr nach einem Rückstand aus bei Catalyst 8.851 (bisherige tests sind alle mit 8.790

Zwei verschiedene CPU's, zwei verschiedene Auflösungen = selbes testsystem? :lol:

Erst Lesen, dann posten! ;)

y33H@
2010-12-14, 22:09:03
Du hast kein Vertrauen in die Merkfähigkeit von Menschen, oder?Nur bedingt, leider. Habe aber in dem Fall nur auf die beiden Bilder geschaut und eine Rechnung aufgestellt ;)

derguru
2010-12-14, 22:10:13
Ich warte auf den Test von HT4u!
ohoh da ist einer sauer,nicht pcgh?;D

Schlammsau
2010-12-14, 22:12:34
ohoh da ist einer sauer.;D

Nö, ich war und werde nie ein Fan von PCGH.

HT4u ist mMn die beste Review-Seite,.....

Menace
2010-12-14, 22:13:11
Nur bedingt, leider. Habe aber in dem Fall nur auf die beiden Bilder geschaut und eine Rechnung aufgestellt ;)

Aber Deine Aussage hat keine wirkliche neue Erkenntnis gebracht. Nvidia wird auch morgen noch die beste Tessellation-Karte anbieten und auch sonst mit der 580 vorne liege. Und das wissen in der Zwischenzeit alle hier. Erkläre mir lieber, warum dieser missionarische Eifer, dieses hier repetitiv zu schreiben? Die möglichen Käufer von Karten werden auch einschätzen können, welche Tes.-Leistung sie für sich benötigen und welche nicht.

y33H@
2010-12-14, 22:13:24
HT4U hat bezüglich Cayman XT wohl auch in der Pipe, was Schlammsau nicht passen dürfte.
Aber Deine Aussage hat keine wirkliche neue Erkenntnis gebracht. Nvidia wird auch morgen noch die beste Tessellation-Karte anbieten und auch sonst mit der 580 vorne liege. Und das wissen in der Zwischenzeit alle hier. Erkläre mir lieber, warum dieser missionarische Eifer, dieses hier repetitiv zu schreiben? Die möglichen Käufer von Karten werden auch einschätzen können, welche Tes.-Leistung sie für sich benötigen und welche nicht.Gut, ich bin still ... bin halt Zocker, der Zocker-Features und BQ mag. Und da sehe ich seit meiner X1950 XTX bis heute NV vorne. Ausnahme: SGGSSAA mit auto-LoD auf HD5k/HD6k.

derguru
2010-12-14, 22:13:37
Nö, ich war und werde nie ein Fan von PCGH.

HT4u ist mMn die beste Review-Seite,.....
ich schau mir fast alle an aber genug ot.:biggrin:

Menace
2010-12-14, 22:14:32
HT4U hat bezüglich Cayman XT wohl auch in der Pipe, was Schlammsau nicht passen dürfte.

Solange es nicht die Cayman Pro betrifft. :biggrin:

Umsonst wird die Karte nicht billig verkauft.

LovesuckZ
2010-12-14, 22:15:07
ich schau mir fast alle an aber genug ot.:biggrin:

Jap - PCGH.de, Computerbase.de und HT4U.de sind pflicht. Dazu ein paar ausländische ala Hardware.fr, anandtech.com, hexus.net. Und ansonsten guck ich meisten die meisten halbherzig nach interessanten, nicht so oft verwendeten Spielen durch.

Schlammsau
2010-12-14, 22:16:13
HT4U hat bezüglich Cayman XT wohl auch in der Pipe, was Schlammsau nicht passen dürfte.

Das ist mir doch sch*** egal, wenn Cayman XT wirklich so suckt, dann ist es halt so. Ich würde mir eh keine Karte kaufen, deren TDP höher als 200W ist, dass hab ich schon vor Monaten gesagt.

Mir geht es nur um meine persönliche Einschätzung, die ich natürlich bestätigt haben möchte. Und wenn ich falsch liege, dann ist das halt so.

Captain Future
2010-12-14, 22:19:51
Laut der Rechnung würde Cayman Pro kaum schneller als Barts XT werden. :hammer:
Die HD2900PRO war auch kaum schneller als die X1950XTX. :hammer:

airbag
2010-12-14, 22:20:27
Die HD2900PRO war auch kaum schneller als die X1950XTX. :hammer:
Die sind aber auch nicht innerhalb einer Reihe. ;)

Schlammsau
2010-12-14, 22:20:58
Die HD2900PRO war auch kaum schneller als die X1950XTX. :hammer:

Das der R600 ein Epic Fail war, wissen hier alle.

Aber Cayman ist keine neue Architektur. ;)

y33H@
2010-12-14, 22:22:05
An Cayman ist verdammt viel neu ;) Und wenn 200W TDP dein Limit sind - dann keine XT.

Iruwen
2010-12-14, 22:22:46
Jap - PCGH.de, Computerbase.de und HT4U.de sind pflicht. Dazu ein paar ausländische ala Hardware.fr, anandtech.com, hexus.net. Und ansonsten guck ich meisten die meisten halbherzig nach interessanten, nicht so oft verwendeten Spielen durch.
Ganz genau das.

fondness
2010-12-14, 22:25:13
Reicht für die 6950 dicke damit versenkt man mal ebend den "High-End" Chip von AMD mit na Midrange Karte.

Den abgespeckten und heruntergetakteten "High-End" 389mm² Chip mit einer 367mm² "Midragekarte" am Limit. Sehr überzeugend. :ugly:

dildo4u
2010-12-14, 22:25:26
An Cayman ist verdammt viel neu ;) Und wenn 200W TDP dein Limit sind - dann keine XT.
Hmm kein Plan wie dann Cayman XT besser als die GTX570 bei Performance per Watt sein soll wie du behauptet hast.

dildo4u
2010-12-14, 22:30:32
6970 hier für 280 Pfund jetzt gelistet (Inklusive Steuern)

http://www.overclockers.co.uk/showproduct.php?prodid=GX-026-HS&groupid=701&catid=56&subcat=1752

6950 220 Pfund
http://www.overclockers.co.uk/showproduct.php?prodid=GX-027-HS&groupid=701&catid=56&subcat=1752

Schlammsau
2010-12-14, 22:31:44
An Cayman ist verdammt viel neu ;) Und wenn 200W TDP dein Limit sind - dann keine XT.

Wenn ich mir eine andere Karte besorge, dann würde es entweder eine 5870/2GB oder eine 6950/2GB werden. Je nach dem welche halt interessanter ist.

Menace
2010-12-14, 22:31:49
Gut, ich bin still ... bin halt Zocker, der Zocker-Features und BQ mag. Und da sehe ich seit meiner X1950 XTX bis heute NV vorne. Ausnahme: SGGSSAA mit auto-LoD auf HD5k/HD6k.

Das ist auch völlig ok so und ich kann das auch nachvollziehen (wenn es mir auch anders geht). Dafür darfst Du dann auch Deine Nvidias gerne kaufen. ;)
Und morgen diskutieren wir (wenn wir auch mehr wissen) ob die 69XX irgendeine Daseinsberechtigung (und wenn es nur Schnelligkeit bei günstigem Preis ist) besitzt.

y33H@
2010-12-14, 22:32:21
Hmm kein Plan wie dann Cayman XT besser als die GTX570 bei Performance per Watt sein soll wie du behauptet hast.Wo habe ich das? :redface:

Captain Future
2010-12-14, 22:32:43
Das der R600 ein Epic Fail war, wissen hier alle.

Aber Cayman ist keine neue Architektur. ;)
Front-End, Shader, ROPS oder sind alle geleakten slides fake?

VinD
2010-12-14, 22:33:25
Paint bitte ;D Und hey, die Anspielung habe ich gesehen :tongue:

"Die Screens von ner 1920 Shader Karte und Release 2011 sind entweder Photoshopped oder es wäre die eigentliche HD6970 gewesen, welche in 32nm aufschlagen hätte sollen."

http://www.hardwareluxx.de/community/15885822-post1906.html

Weltklasse ;D

dildo4u
2010-12-14, 22:33:58
Wo habe ich das? :redface:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8446729&postcount=4388

Menace
2010-12-14, 22:34:09
Für die 6950?

Maximum Power Consumption: 250W (Typical 190W)
- 2x 6pin PCI-E power connectors required?

Bitte lass es ein Tippfehler sein.

Schlammsau
2010-12-14, 22:34:47
Front-End, Shader, ROPS oder sind alle geleakten slides fake?
Hä, er basiert doch immernoch auf dem R600, ergo kein "neues" Design, oder nicht!?

dildo4u
2010-12-14, 22:34:54
Für die 6950?

Maximum Power Consumption: 250W (Typical 190W)
- 2x 6pin PCI-E power connectors required?

Bitte lass es ein Tippfehler sein.
Muss das ist wohl einfach von der 6970 übernommen worden.

y33H@
2010-12-14, 22:36:05
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8446729&postcount=4388Du hast die Aussage verdreht verstanden, mea culpa.

Menace
2010-12-14, 22:36:10
Muss das ist wohl einfach von der 6970 übernommen worden.

Bin mir nicht sicher:
6970:
- Maximum Power Consumption: 250W (Typical 190W)
- 1x 8pin and 1x 6pin PCI-E power connectors required

6950:
- Maximum Power Consumption: 250W (Typical 190W)
- 2x 6pin PCI-E power connectors required

Einen reinen copy + paste Fehler schließe ich damit aus.

Spasstiger
2010-12-14, 22:37:58
Hä, er basiert doch immernoch auf dem R600, ergo kein "neues" Design, oder nicht!?
Es ist die erste GPU von AMD/ATI seit dem R600 (eigentlich sogar seit dem R400/R500/Xenos), die nicht mehr auf VLIW5 setzt. Und es ist auch die erste GPU von AMD mit mehr als einer Render-Engine.

Eggcake
2010-12-14, 22:39:20
Erscheint logisch, dass die nicht gleich viel verbrauchen können, schon gar nicht mit 2x 6Pin...

y33H@
2010-12-14, 22:41:31
2x 6P decken keine 250W ab, die TDP des Cayman Pro wurde doch eh schon geleakt - warum also diese Panikmache?

deekey777
2010-12-14, 22:42:08
Bin mir nicht sicher:
6970:
- Maximum Power Consumption: 250W (Typical 190W)
- 1x 8pin and 1x 6pin PCI-E power connectors required

6950:
- Maximum Power Consumption: 250W (Typical 190W)
- 2x 6pin PCI-E power connectors required

Einen reinen copy + paste Fehler schließe ich damit aus.
http://www.geeks3d.com/20101212/amd-radeon-hd-6970-and-hd-6950-complete-specs-and-3dmark11-scores/
Gleich die erste Folie (ohne Gewähr).

Menace
2010-12-14, 22:42:40
Weil ich diesen Leaks nur bedingt traue.
@deekey777: Danke.

y33H@
2010-12-14, 22:43:56
Ich traue PHK mehr als allen anderen Shops und Leaks. Der Junge ist ein (verhasstes) Phänomen.

airbag
2010-12-14, 22:43:56
Weil ich diesen Leaks nur bedingt traue.
@deekey777: Danke.
Das ist doch die Folie, die AMD entfernt haben wollte.

Captain Future
2010-12-14, 22:45:10
Es ist die erste GPU von AMD/ATI seit dem R600 (eigentlich sogar seit dem R400/R500/Xenos), die nicht mehr auf VLIW5 setzt. Und es ist auch die erste GPU von AMD mit mehr als einer Render-Engine.
So sehe ich das auch.

AwesomeSauce
2010-12-14, 23:07:08
SuperCroc is real!
http://www.abload.de/img/sc_6990_esdu3x.jpg (http://www.abload.de/image.php?img=sc_6990_esdu3x.jpg)
:love2:

Armaq
2010-12-14, 23:10:05
Vor allem mit DX11.1! :D
Edit: Jemand hat vergessen CUDA UND PhysX anzuklicken.

mapel110
2010-12-14, 23:10:47
[X] Gefällt mir.

Paint.net scheint echt leistungsfähig zu sein.

horn 12
2010-12-14, 23:11:42
http://www.overclockers.co.uk/productlist.php?groupid=701&catid=56&subid=1752

Da kommen Unmengen an Karten an uns zu!
Der Hardlaunch ist um Meilen besser als bei GTX 580 ...

AwesomeSauce
2010-12-14, 23:13:51
Paint.net scheint echt leistungsfähig zu sein.
Select, copy, paste und vielleicht mal das Pen-Tool (auf y33h@'s Bild ist nirgendwo eine "3":mad:) is all you need;)

airbag
2010-12-14, 23:15:21
Paint.net scheint echt leistungsfähig zu sein.

VRAM, SI, SP und GPU-Clock mit PS. Ansonsten ist ja nichts mehr von y33H@ paint-fail übrig. (die schlecht gesetzte 1 bei 1920 ist übrigens auch weg );D

y33H@
2010-12-14, 23:15:28
[X] Gefällt mir.

Paint.net scheint echt leistungsfähig zu sein.Normales Win7-Paint :eek:

AwesomeSauce
2010-12-14, 23:16:39
.NET hier. Ich habs mir nicht so schwierig gemacht wie Marc:D

mapel110
2010-12-14, 23:16:49
Wo bleiben die Reviews aus Fernost?! Die umgekippten Reissäcke können doch warten...

airbag
2010-12-14, 23:22:18
Vor allem mit DX11.1! :D
Edit: Jemand hat vergessen CUDA UND PhysX anzuklicken.
Fixed inkl Pcie 2.1 :)

http://www.abload.de/img/es_hd6990l5kf.jpg

Langenscheiss
2010-12-14, 23:22:28
Vor allem mit DX11.1! :D
Edit: Jemand hat vergessen CUDA UND PhysX anzuklicken.

Häää, ich dachte der Deal mit Nvidia sei schon längst in trockenen Tüchern!!???
http://www.abload.de/img/sc_6990_esfn7zy5r5.jpg (http://www.abload.de/image.php?img=sc_6990_esfn7zy5r5.jpg)

Der shot von airbag ist eindeutig fake... (siehe codename und pci-standard)

Steffko
2010-12-14, 23:22:56
Weiß jemand, wann die NDA abläuft? Sprich: lohnt es sich aufzubleiben oder ist das erst irgendwann mittags?

Iruwen
2010-12-14, 23:22:59
Um 6 Uhr offenbar. Aber kommt eh wieder früher was.

http://www.overclockers.co.uk/productlist.php?groupid=701&catid=56&subid=1752

Da kommen Unmengen an Karten an uns zu!
Der Hardlaunch ist um Meilen besser als bei GTX 580 ...

Die haben 'nen Stapel HIS Karten und sonst nüscht :rolleyes:

airbag
2010-12-14, 23:23:59
Weiß jemand, wann die NDA abläuft? Sprich: lohnt es sich aufzubleiben oder ist das erst irgendwann mittags?
6Uhr.
Lohnt sich also nicht auf zubleiben. Dafür aber Wecker stellen .

deekey777
2010-12-14, 23:25:00
Lasst den Scheiß: http://forum.beyond3d.com/showpost.php?p=1503441&postcount=6482

AwesomeSauce
2010-12-14, 23:25:50
Wie geil! Schon ein Wasserzeichen ist drauf;D

Langenscheiss
2010-12-14, 23:27:38
Lasst den Scheiß: http://forum.beyond3d.com/showpost.php?p=1503441&postcount=6482

Selbst schuld, wenn man stumpf aus anderen Foren abschreibt, aber mal ehrlich, dieser Thread ist nicht erst seit Seite 243 entgleist.

Eggcake
2010-12-14, 23:30:13
Epic xD
(Also das Wasserzeichen :> )

Ronny145
2010-12-14, 23:32:38
Wie geil! Schon ein Wasserzeichen ist drauf;D

Und das nicht zum ersten mal. Kommt scheinbar öfter vor das Fakes von hier woanders recycelt werden.

deekey777
2010-12-14, 23:35:51
http://www.ixbt.com/video3/cayman-part1.shtml
http://www.ixbt.com/video3/cayman-part2.shtml#p1

http://www.ixbt.com/video3/cayman-part3.shtml

y33H@
2010-12-14, 23:37:00
Alleine drei von mir in den letzten Jahren. Und Carsten amüsiert sich im B3D auch noch drüber ;D

EDIT
Elende Leaker *knirsch*

fondness
2010-12-14, 23:39:00
http://www.ixbt.com/video3/cayman-part2.shtml#p1

Nice. Danke für den Link.

deekey777
2010-12-14, 23:39:55
Alleine drei von mir in den letzten Jahren. Und Carsten amüsiert sich im B3D auch noch drüber ;D

EDIT
Elende Leaker *knirsch*
Das sind keine Leaker! :P

y33H@
2010-12-14, 23:39:58
Perlin noise ... fail.
Das sind keine Leaker! :PSondern?

AwesomeSauce
2010-12-14, 23:40:19
http://www.abload.de/img/tess26rz.png (http://www.abload.de/image.php?img=tess26rz.png)
Mit doppeltem Frontend langsamer als HD5870 - Respekt:D

fondness
2010-12-14, 23:41:24
Zumindest weiß ich jetzt schon warum der Stromverbrauch so hoch ist, der Lüfter dreht viel zu spät auf, bis zu 92°C. Würde man hier ab 80°C aufdrehen bzw. eine entsprechend bessere Kühlung verbauen wären da deutliche Einsparungen drinnen.

DrFreaK666
2010-12-14, 23:44:19
Schade. Hab mehr von den Karten erhofft.
Hab aber eh kein Geld dafür :smile:

Kalmar
2010-12-14, 23:45:47
hehe amd schneller bei nv watertesseltechdemochen ^^

hmm ok also 580 > 6970 = 570 > 6950 > 470 wenn ich das so richtig sehe beim überfliegen ...

Superheld
2010-12-14, 23:45:52
Perlin noise ... fail.
Sondern?

190W eingestellt wieder ?

derguru
2010-12-14, 23:47:01
in den spielen schneiden die ganz gut ab,hab jetzt für meine einstellung geschaut von 1920*1200 4aa/16af.

Iruwen
2010-12-14, 23:47:23
Zumindest weiß ich jetzt schon warum der Stromverbrauch so hoch ist, der Lüfter dreht viel zu spät auf, bis zu 92°C. Würde man hier ab 80°C aufdrehen bzw. eine entsprechend bessere Kühlung verbauen wären da deutliche Einsparungen drinnen.
Das spart imo kaum "deutlich" was ein, wird nur schneller laut... warum ist die 6950 da über 50% schneller als die 470 aber nur 5% schneller als die 570 (Crysis Warhead Cargo, 1920 mit AA/AF)?

Godmode
2010-12-14, 23:48:09
hehe amd schneller bei nv watertesseltechdemochen ^^


Ich denke du ließt das Diagramm falsch!

Der lange Balken ist mit LOD 1 = No Tess
und bei LOD > 1 sind die grünen dann immer in Führung...

fondness
2010-12-14, 23:49:25
Das spart imo kaum "deutlich" was ein, wird nur schneller laut...

Hat man ja schon bei NV gesehen das man so deutlich einsparen kann.

Eggcake
2010-12-14, 23:51:00
Mh na gut, stell' ich den Wecker wieder auf die normale Zeit :ugly:
Interessanter ist eh der Text darum, die Balken waren irgendwie mehr oder weniger klar.

Superheld
2010-12-14, 23:51:24
http://www.abload.de/img/15e2n.jpg (http://www.abload.de/image.php?img=15e2n.jpg)

:biggrin:

Iruwen
2010-12-14, 23:51:39
Hat man ja schon bei NV gesehen das man so deutlich einsparen kann.
Kann man nicht vergleichen.

Godmode
2010-12-14, 23:51:45
Insgesamt ist die Karte nicht schlecht, und wird sicher billig zu haben sein. Der Preiskampf wird angefeuert was will man den mehr. Und wer gutes AF will kauft sich halt eine grüne Karte.

Friede, Freude, Eierkuchen ;D

davidzo
2010-12-14, 23:52:27
HT4u ist mMn die beste Review-Seite,.....

bei mir auch so, HT4U sind einfach sehr gewissenhaft und bieten die beste vergleichsdatenbank und das beste Interface! (Anandtech aber neuerdings auch)

Jap - PCGH.de, Computerbase.de und HT4U.de sind pflicht. Dazu ein paar ausländische ala Hardware.fr, anandtech.com, hexus.net. Und ansonsten guck ich meisten die meisten halbherzig nach interessanten, nicht so oft verwendeten Spielen durch.

das ist auch meine auswahl, wobei ich bei hexus und firingsquad etwa auf den Text verzichten kann, der ist sowieso schlecht. Die Statistiken guck ich mir aber eigentlich auch nur an, weil mehr Stichproben den Mittelwert verbessern.
wie war nochmal die Seite die früher als proATI verschrien war, seit zwei drei jahren aber nv in psotivem Licht zeigt. Schwarzer hintergrund, genaue min/max Frameverläufe und die testen eigenartigerweise die Karten in unterschiedlichen Auflösungen und Filterstufen. Ziel ist es eine spieltaugliche Framerate bei maximaler BQ zu bekommen, die BQvorteile sind dann die Bewertung. habe leider den namen vergessen und finde sie nicht mehr...
das konzept ist zwar eigenartig, aber eigentlich logisch und grundsympathisch.

dildo4u
2010-12-14, 23:53:12
http://www.abload.de/img/15e2n.jpg (http://www.abload.de/image.php?img=15e2n.jpg)

:biggrin:
Mit HQAF-5% nich so dolle jedenfalls der Zuwachs zur 5870.

fondness
2010-12-14, 23:53:14
Kann man nicht vergleichen.

Doch, auch AMD kann sich der Physik nicht entziehen. :)

J0ph33
2010-12-14, 23:53:46
in meiner relevanten Auflösung von 1920*1200 mit 4AA/16AF schlagen sich die neuen ATi-Karten tlw. recht ordentlich, aber summa summarum steht der Leistungsgewinn ggü. einer 5870 bei jeder kaufbaren Karten in keinem Verhältnis zum nötigen finanziellen Aufwand.

Für mich käme wegen 3+ Monitoren ja eh nur ATi in Frage...blöd, dass nV hier nicht nachzieht.

Kalmar
2010-12-14, 23:55:09
mit dem dualbios ist echt ne nette sache und mit dem power control hat es auch was für sich ...

stimmt irgendwie sind die amd karten nur bei den ersten stufen besser als die nv *grübel* was bringt nun in spielen mehr ^^

Ronny145
2010-12-14, 23:55:50
wie war nochmal die Seite die früher als proATI verschrien war, seit zwei drei jahren aber nv in psotivem Licht zeigt. Schwarzer hintergrund, genaue min/max Frameverläufe und die testen eigenartigerweise die Karten in unterschiedlichen Auflösungen und Filterstufen. Ziel ist es eine spieltaugliche Framerate bei maximaler BQ zu bekommen, die BQvorteile sind dann die Bewertung. habe leider den namen vergessen und finde sie nicht mehr...
das konzept ist zwar eigenartig, aber eigentlich logisch und grundsympathisch.

hardcop?

Ergebnisse sind recht unkonstant, mal abwarten.

y33H@
2010-12-14, 23:56:04
wie war nochmal die Seite die früher als proATI verschrien war, seit zwei drei jahren aber nv in psotivem Licht zeigt. Schwarzer hintergrund, genaue min/max Frameverläufe und die testen eigenartigerweise die Karten in unterschiedlichen Auflösungen und Filterstufen. Ziel ist es eine spieltaugliche Framerate bei maximaler BQ zu bekommen, die BQvorteile sind dann die Bewertung. habe leider den namen vergessen und finde sie nicht mehr...
das konzept ist zwar eigenartig, aber eigentlich logisch und grundsympathisch.
HardOP.

airbag
2010-12-14, 23:57:23
Ansich sieht der russische Test recht ernüchternd aus.
Nur signifikante Leistungssteigerungen gegenüber einer HD5870 in Crisis, AVP und Metro. Ansonsten rund 5-10% mti AA und AF
Bei Crisis und Metro könnte der VRAMvorteil sicherlich genutzt werden.

Blaire
2010-12-14, 23:59:04
Testen die Russen nicht NV HQ vs. AI Standard? Dann sind die Vergleiche eh nutzlos.

Iruwen
2010-12-14, 23:59:27
Doch, auch AMD kann sich der Physik nicht entziehen. :)
Der Effekt wird bei Cayman sicher längst nicht so extrem sein wie beim GF100. Eher hiermit vergleichbar:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php
+/-10°C sind da relativ egal.

Ronny145
2010-12-14, 23:59:31
Ansich sieht der russische Test recht ernüchternd aus.
Nur signifikante Leistungssteigerungen gegenüber einer HD5870 in Crisis, AVP und Metro. Ansonsten rund 5-10% mti AA und AF
Bei Crisis und Metro könnte der VRAMvorteil sicherlich genutzt werden.


Ja eine schöne Downsampling/SSAA Karte wäre es.

fondness
2010-12-14, 23:59:45
Perlin noise ... fail.


Mit Drossel getestet?

Iruwen
2010-12-15, 00:00:46
Ja eine schöne Downsampling/SSAA Karte wäre es.
Ich freu mich auch auf die PCGH SSAA Benchmarks.

fondness
2010-12-15, 00:01:18
Der Effekt wird bei Cayman sicher längst nicht so extrem sein wie beim GF100. Eher hiermit vergleichbar:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php
+/-10°C sind da relativ egal.

Interessant was du nicht alles sicher zu wissen glaubst. Umso höher der Verbrauch, umso mehr spart man absolut durch eine niedrige Temperatur.

dildo4u
2010-12-15, 00:01:34
Mit Drossel getestet?
Jup aber wenn geht die Karte an die 300Watt ohne Drossel,weil die in dem test schon auf 250-260 geht.

Kalmar
2010-12-15, 00:01:47
im fazit steht was von treiberproblemen und das da wohl nach gebessert werden muss ...

die lautstärke soll wohl nicht störend sein steht im fazit, finde aber nix an messung dazu :freak:
hmm wenn ich das richtig deute testen sie bei den refernzkarten die lautstärke net weil es eh net relevant ist

Blaire
2010-12-15, 00:01:54
Ich freu mich auch auf die PCGH SSAA Benchmarks.

Und Computerbase :)

airbag
2010-12-15, 00:02:02
Testen die Russen nicht NV HQ vs. AI Standard? Dann sind die Vergleiche eh nutzlos.
Dann würde Cayman gegenüber Cypress wahrscheinlich noch schlechter da stehen .

Superheld
2010-12-15, 00:02:43
Mit Drossel getestet?

die 6950 müsste eigentlich 162fps erreichern oder ? -hat nur 140 wie hier

http://www.abload.de/img/1zqaurt9esa.png (http://www.abload.de/image.php?img=1zqaurt9esa.png)

Iruwen
2010-12-15, 00:03:40
Interessant was du nicht alles sicher zu wissen glaubst. Umso höher der Verbrauch, umso mehr spart man absolut durch eine niedrige Temperatur.
Kannst es ja bald ausprobieren, dann sehen wir's.

/e: das Statement ist natürlich nicht angreifbar. Trotzdem ist GF100 ein schlechter Vergleich. Der hatte noch ganz andere Probleme.

deekey777
2010-12-15, 00:04:02
Perlin noise ... fail.
Sondern?
Ich glaub, du nimmst dich und deinen Arbeitgeber etwas zu wichtig.
Es ist iXBT und die haben so etwas nicht nötig, es ist ein Versehen, der Artikel ist nirgendwo auf deren Homepage verlinkt, sondern über das Schema, wie sie ihre Artikel verlinken, gefunden worden. Der Autor des Artikels, der dafür nichts kann, regt selbst an, den Artikel runterzunehmen.

Mit Drossel getestet?
Sie testen nie abseits der Default-Einstellungen. Nie.

airbag
2010-12-15, 00:05:31
Ja eine schöne Downsampling/SSAA Karte wäre es.
Wenn AMD es treiberseitig ein bisschen mehr pusht, dann sicherlich :)

fizzo
2010-12-15, 00:06:47
Jup aber wenn geht die Karte an die 300Watt ohne Drossel,weil die in dem test schon auf 250-260 geht.

http://www.abload.de/img/power3ymnz.png

System Power?!

Godmode
2010-12-15, 00:08:02
http://www.ixbt.com/video3/images/cayman/power3.png]http://www.ixbt.com/video3/images/cayman/power3.png

System Power?!

Epic Fail Skalierung bei System Power

Kalmar
2010-12-15, 00:08:26
da steht sie testen mit standart parametern die karten jeweils [denke das bezieht sich auf die treiber]

derguru
2010-12-15, 00:08:51
ist mir nicht wichtig eigentlich aber wieso kann die 6970 sich überhaupt nicht von der 5870 in water tess absetzen,die tessleistung wurde doch bearbeitet aber trotzdem kommt nichts zu potte.

Eggcake
2010-12-15, 00:09:28
Ich verstehe schlicht nicht, wieso AMD defaultmässig die Drossel (und damit meine ich die 190W-Drossel im Falle der 6970) drin hat. Wie kann man sowas bei einer High End Karte machen?! Als ob sie Leistung im Überfluss hätten.

*Weckerwiedernachhintenstell* :usad:
Six fuckin' hours...nacht -.-

Kalmar
2010-12-15, 00:12:27
ist mir nicht wichtig eigentlich aber wieso kann die 6970 sich überhaupt nicht von der 5870 in water tess absetzen,die tessleistung wurde doch bearbeitet aber trotzdem kommt nichts zu potte.

sie schreibenw as von treiber, vielleicht die 4VLIW, wahrscheinlichd as neue powermanagement .. irgendwie stochern sie da auch im nebel

y33H@
2010-12-15, 00:12:30
Es ist iXBT und die haben so etwas nicht nötig, es ist ein Versehen, der Artikel ist nirgendwo auf deren Homepage verlinkt, sondern über das Schema, wie sie ihre Artikel verlinken, gefunden worden. Der Autor des Artikels, der dafür nichts kann, regt selbst an, den Artikel runterzunehmen.Dann sorry ... wie bei TPU halt - man findet den Artikel eben. Das sollte es nicht geben ;(

Kalmar
2010-12-15, 00:17:05
Dann sorry ... wie bei TPU halt - man findet den Artikel eben. Das sollte es nicht geben ;(

naja so schlimm ist es ja nicht da russisch ja nun net die geläufigste sprache ist und die übersetzungen alles andere als vernüftig sind ... aber wenigsten ist der schalter erklärt und das power management .. :-) und was bisher geleakt wurde stimmt ja so ziemlich mit dem bild überein das die 580 die singelkrone hat nun warten wir morgen noch den raigen der anderen tests ab und dann schaut es vermutlich so aus die pcgh 580 > 570 > 6970 > 470 > 6950 sieht und die andern eher 580 > 6970 >= 570 > 6950 > 470 nunja da kann man beruhigt schlafen

lautstärke ist noch das was mich interessiert ..

deekey777
2010-12-15, 00:18:22
naja so schlimm ist es ja nicht da russisch ja nun net die geläufigste sprache ist und die übersetzungen alles andere als vernüftig sind ...
Und trotzdem ist es zZ das beste Review.

dildo4u
2010-12-15, 00:18:43
Ich verstehe schlicht nicht, wieso AMD defaultmässig die Drossel (und damit meine ich die 190W-Drossel im Falle der 6970) drin hat. Wie kann man sowas bei einer High End Karte machen?! Als ob sie Leistung im Überfluss hätten.

*Weckerwiedernachhintenstell* :usad:
Six fuckin' hours...nacht -.-
Die Drossel kommt auf default erst bei 250Watt siehe Test die haben über 250Watt gemessen ohne Drossel geht's noch viel höher.

derguru
2010-12-15, 00:19:27
Und trotzdem ist es zZ das beste Review.
der war gut;D

davidzo
2010-12-15, 00:20:34
http://www.ixbt.com/video3/cayman-part1.shtml
http://www.ixbt.com/video3/cayman-part2.shtml#p1

http://www.ixbt.com/video3/cayman-part3.shtml

thx. hab mal schnell die zehn gametests zusammengerechnet.

Bei 1920*1200 4xAA 16xAF liegt die 6970 2,52% vor der GTX570.
Bei 2560*1600 4xAA 16XAF sinds schom 7,91 % für die 6970. In dieser Auflösung kommt sie auf 91,67% der Leistung der GTX580.

Unter 8xAA oder Supersampling wird sie einer 580 gefährlich, soviel steht fest.

Und dass die Auflösungen und settings oberhalb von 1920*1200@4xAA für eine highendkarte am praxisrelevantesten sind sollte klar sein. Eigentlich kann man sich die 1280er und 1680er Auflösung in diesem preisbereich komplett schenken. Ich hab einen Asus FullHD TFT für unter 150€ und bin mit einer GTx260 zufrieden, wenn ich eine 570/6970 kaufen würde wäre mehr Auflösung sicherlich angemessen.

hardcop?

Ergebnisse sind recht unkonstant, mal abwarten.
HardOP.
stimmt, jetzt fällts mir wie schuppen von den haaren. danke euch beiden!

fondness
2010-12-15, 00:20:50
Die Drossel kommt auf default erst bei 250Watt siehe Test die haben über 250Watt gemessen ohne Drossel geht's noch viel höher.

Fürs gesamte System, willst oder kannst du das nicht verstehen?

Kalmar
2010-12-15, 00:22:38
Und trotzdem ist es zZ das beste Review.

wette bei amd glühen momentan die nda telefone

fizzo
2010-12-15, 00:23:07
Die Drossel kommt auf default erst bei 250Watt siehe Test die haben über 250Watt gemessen ohne Drossel geht's noch viel höher.

hm,

http://www.abload.de/img/power14mgh.png

kann den dazugehörenden Text aber leider nicht lesen....

dildo4u
2010-12-15, 00:23:28
Fürs gesamte System, willst oder kannst du das nicht verstehen?
Nur die Karte so ein System ist locker bei 400Watt mit dieser CPU.

dildo4u
2010-12-15, 00:24:02
hm,

http://www.abload.de/img/power14mgh.png

kann den dazugehörenden Text aber leider nicht lesen....
6950 max 205Watt steht im Text.

Duplex
2010-12-15, 00:24:27
Ich schätze das der Nvidia Kepler 960-1024 1D Shader @28nm hat, AMD muss 2011 also mehr als nur 768-4D Einheiten haben um mithalten zu können, hoffentlich wird AMD seine Pläne ändern!

AwesomeSauce
2010-12-15, 00:25:42
@Duplex
Und ich hoffe, dass Nvidia endlich auch VLIW-Einheiten einführt.;)

fizzo
2010-12-15, 00:28:54
Nur die Karte so ein System ist locker bei 400Watt mit dieser CPU.

Sehe ich nicht so: test (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/24/#abschnitt_leistungsaufnahme)

Aber bald haben wir eh Gewissheit. IMHO zieht die HD 6950 mit Standardeinstellung so viel Strom wie eine HD 5850.

dildo4u
2010-12-15, 00:30:19
Sehe ich nicht so: test (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/24/#abschnitt_leistungsaufnahme)

Aber bald haben wir eh Gewissheit. IMHO zieht die HD 6950 mit Standardeinstellung so viel Strom wie eine HD 5850.
Mir geht um die 6970 siehe weiter oben ich wollte nur hinweisen die Grafik ist für die 6950.

Kalmar
2010-12-15, 00:33:43
also die meinen das spiele wohl die grenzen nicht sprengen aber synthetische sachen dann viel einfordern können ...

fizzo
2010-12-15, 00:34:08
Mir geht um die 6970 siehe weiter oben ich wollte nur hinweisen die Grafik ist für die 6950.

aha, und die HD 6970 soll in den Standardeinstellungen 150W mehr ziehen als die HD 6950 :idea:

dildo4u
2010-12-15, 00:37:16
aha, und die HD 6970 soll in den Standardeinstellungen 150W mehr ziehen als die HD 6850 :idea:
Kein Plan wie du bei CB sieht ist eine Karte der Klasse(GTX570/6970) mit dieser CPU und bei 390Watt deshalb ist die Messung im Russen Test 250W die im Text steht nur für die Karte gemeint in dem Fall 6970.Natürlich ist das die Maxlast deshalb glaube ich nicht das die Drossel groß die Benches der normalen Games behindert.

aus dem Russentext übersetzt.
"Maximale Leistungsaufnahme unter Last Karten - 250-260 Watt für 6970 und knapp über 205 Watt für 6950. Wir weisen ausdrücklich gab keine Listen der Verbrauch - um nicht die Lektüre erschweren."

davidzo
2010-12-15, 00:38:43
Ich schätze das der Nvidia Kepler 960-1024 1D Shader @28nm hat, AMD muss 2011 also mehr als nur 768-4D Einheiten haben um mithalten zu können, hoffentlich wird AMD seine Pläne ändern!

nvidia will die effizienz pro dp g/flops 2x-3x verbessern. d.h. wenn kepler eine ähnliche Architektur nur doppelt soviele einheiten hat wie fermi müsste er trotzdem weniger verbrauchen als fermi derzeit.

Das ist nahezu unmöglich.

Ein Fullnode wie von 40nm nach 28nm gibt überlicherweise Leistungsverbesserungen von biszu 35% mehr Takt und 30-50% weniger Energieverbrauch. Wohlgemerkt bei gleicher Komplexität, den Mehrtakt setzt man meistens nicht um, weil man lieber die Komplexität erhöht, was sonst den verbrauch nach oben schießen lassen würde. Bei doppelter Einheitenzahl würde der Verbrauch aber immerhin 150% von Fermi betragen, also weit jenseits der 300Wattgrenze. das wäre lediglich 3dp g/flops pro Watt, versprochen hat man aber 4-6.

Selbst wenn man 768 oder gar 960 sp shader verbaut und versucht den 35% taktbonus auszuspielen um 2x bis 3x leistung Keplers gegenüber fermi zu erreichen kommt man nicht unter die TDP von Fermi, also lange nicht an 2x bis 3fache effizienz.

Es ist also glasklar dass Kepler eine andere Architektur bei den SPs verfolgen wird. Das Echelon projekt deutet sowieso in die Richtung, dass man sich von der bisherigen 1D Architektur verabschiedet hat und mit einem VLIW Design liebäugelt, wenn auch Echelon sicherlich in keinem direkten Zusammenhang mit kepler und Maxwell steht.

4D Shader machen einfach Sinn und ich bin sicher dass nvidia bezüglich des alu konzepts bei der nächsten generation dem Cayman was VLIW angeht nachziehen wird.

derguru
2010-12-15, 00:43:22
für sgssaa,eqaa und af müssen wir wohl auf andere reviews warten.

Ronny145
2010-12-15, 00:47:52
für sgssaa,eqaa und af müssen wir wohl auf andere reviews warten.


Das wäre sowieso ratsam. Xbitlabs ist nicht gerade bekannt für ihre BQ Kompetenz.

fizzo
2010-12-15, 00:47:55
Kein Plan wie du bei CB sieht ist eine Karte der Klasse(GTX570/6970) mit dieser CPU und bei 390Watt deshalb ist die Messung im Russen Test 250W die im Text steht nur für die Karte gemeint in dem Fall 6970.Natürlich ist das die Maxlast deshalb glaube ich nicht das die Drossel groß die Benches der normalen Games behindert.

aus dem Russentext übersetzt.
"Maximale Leistungsaufnahme unter Last Karten - 250-260 Watt für 6970 und knapp über 205 Watt für 6950. Wir weisen ausdrücklich gab keine Listen der Verbrauch - um nicht die Lektüre erschweren."

Werden wir ja bald sehen...mir ist es jetzt zu spät/müssig alles aufzuschlüsseln. Weiteres habe ich folgende Aussage im Hinterkopf:

amd baut das ein, damit die karte weniger strom verbraucht. währe wohl unproblematisch für die karte selber wenn sie immer @250W laufen würde, aber nicht für das grüne image dass sich amd aufbauen will.

und wenn es um die reine performance geht sollte man natürlich mit 250W testen.

deekey777
2010-12-15, 00:49:01
Jup aber wenn geht die Karte an die 300Watt ohne Drossel, weil die in dem test schon auf 250-260 geht.
Wo steht das im Test?

dildo4u
2010-12-15, 00:51:15
Wo steht das im Test?
Die 250Watt stehen unter den ganzen Rivatuner Grafiken,da ich schätze das die nix im Treiber verändert haben,geht sie wenn die Drossel verstellt wird noch höher.

Langenscheiss
2010-12-15, 00:53:24
Ist natürlich auch n schöne Taktik von den Russen, sowas einfach irgendwo aufm Server zu bunkern. Die wissen ja, dass einige Leute sich zurzeit nicht mehr halten können und wie wild nach reviews suchen. Da dauerts dann bestimmt nicht lang, bis irgendjemand mehr oder weniger durch Zufall auf diese reviews stößt, damit sie wie hier verlinkt werden und klicks bekommen.
Dann kann man einerseits behaupten, nicht absichtlich gegen das NDA verstoßen zu haben und andererseits dem Website-Sponsor die eigentlich unberechtigten Klicks nachher unter die Nase reiben.
Für mich dennoch uninteressant, weil ich von dem Text absolut nichts verstehe (können hier eigentlich soviele russisch, oder hilft eine maschinelle Übersetzung?).

deekey777
2010-12-15, 00:56:02
Die 250Watt stehen unter den ganzen Rivatuner Grafiken da ich schätze das die nix im Treiber verändert haben geht sie wenn man die Drossel verstellt noch höher.
Blablabla...
Hast du den Text gelesen?
Nein?
Es gibt dann zwei Möglichkeiten:
Lerne Russisch oder lass das lieber.
Максимальное энергопотребление карт под нагрузкой — 250—260 Вт для 6970 и чуть выше 205 Вт для 6950. ...
Da steht:
Max. Energieverbrauch unter Last - 250-260 W für die 6970 und etwas mehr als 205 W für die 6950.
Ist natürlich auch n schöne Taktik von den Russen, sowas einfach irgendwo aufm Server zu bunkern. Die wissen ja, dass einige Leute sich zurzeit nicht mehr halten können und wie wild nach reviews suchen. Da dauerts dann bestimmt nicht lang, bis irgendjemand mehr oder weniger durch Zufall auf diese reviews stößt, damit sie wie hier verlinkt werden und klicks bekommen.
Dann kann man einerseits behaupten, nicht absichtlich gegen das NDA verstoßen zu haben und andererseits dem Website-Sponsor die eigentlich unberechtigten Klicks nachher unter die Nase reiben.
Für mich dennoch uninteressant, weil ich von dem Text absolut nichts verstehe (können hier eigentlich soviele russisch, oder hilft eine maschinelle Übersetzung?).
Ich sag's nur ungern: Aber es ist iXBT, sie haben so etwas nicht nötig.

fizzo
2010-12-15, 00:58:09
Die 250Watt stehen unter den ganzen Rivatuner Grafiken da ich schätze das die nix im Treiber verändert haben geht sie wenn man die Drossel verstellt wird noch höher.

PTMP: 250W (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494330)

Eingestellt war:

http://www.abload.de/img/ccc2lmu9.png

IMHO daher auf max ~ 210W limitiert!

edit: hm, nur bei Spiele?

dildo4u
2010-12-15, 00:58:43
Blablabla...
Hast du den Text gelesen?
Nein?
Es gibt dann zwei Möglichkeiten:
Lerne Russisch oder lass das lieber.

Da steht:
Max. Energieverbrauch unter Last - 250-260 W für die 6970 und etwas mehr als 205 W für die 6950.
Ja und wo steht jetzt ob sie Powertune vestellt haben du hast ja selbe gesagt die verstellen normal nix am Treiber.

dildo4u
2010-12-15, 01:00:52
PTM max: 250W

Eingestellt war:

http://www.abload.de/img/ccc2lmu9.png

IMHO daher auf max ~ 210W limitiert!
OK danke aber bleibt dabei die Karte macht 250Watt ohne OC es wurde ja nur das Powerlimit erhöt aber noch nicht übertaktet.

derguru
2010-12-15, 01:03:49
haben eventuell die 6970 und 6950 den selben speicher,steht da was zu?

edit:habs gefunden,beide haben den selben.also läuft der 6950 speicher unter wert,für ocler ein gefundenes fressen.:biggrin:

apropo die preise stimmen überein mit den fudo spekulationen.

6950=299$
6970=369$

Cpl. Dwayne Hicks
2010-12-15, 01:42:26
Ich will in-game videos! ;D

Ob der Cayman noch das schwabbel AF vom Barts hat?

Vento
2010-12-15, 01:44:28
Ich will in-game videos! ;D

Ob der Cayman noch das schwabbel AF vom Barts hat?

Ein Barts im Wolfspelz, oder besser gesagt in Krokolederverkleidung.;D
Kann ich nicht so ganz glauben und wäre auch ein Armutszeugnis und offenes Bekenntnis das man bei AMD kein Wert auf Enthusiast-BQ legt.

Gipsel
2010-12-15, 01:50:18
haben eventuell die 6970 und 6950 den selben speicher,steht da was zu?

edit:habs gefunden,beide haben den selben.also läuft der 6950 speicher unter wert,für ocler ein gefundenes fressen.:biggrin:
Nö. Soweit ich weiß, haben alle Karten Hynix-RAM. Schau auf die drei Buchstaben in der zweiten Zeile auf den Chips, die geben den Takt an. Die 6970 hat R0C (6GBps), die HD6950 T2C (5GBps) Speicher. Bei der 1 GB-Version könnte man (neben Samsung-RAM) auch das Kürzel T3C finden, das steht für 5,5GBps, den gibt es allerdings nur bei den 1 GBit-Chips.

derguru
2010-12-15, 02:04:02
ich habs deshalb vermutet gehabt.
http://www.abload.de/img/ram6mw6.jpg

Langenscheiss
2010-12-15, 02:10:18
Ein Barts im Wolfspelz, oder besser gesagt in Krokolederverkleidung.;D
Kann ich nicht so ganz glauben und wäre auch ein Armutszeugnis und offenes Bekenntnis das man bei AMD kein Wert auf Enthusiast-BQ legt.

Macht nichts, ich glaub für dich mit.
K.A. wann genau die deadline für die Entwicklung der TMUs war, aber imo zu einer Zeit, als AMD noch in einer Blase lebte, die im Wesentlichen dadurch stabil gehalten wurde, dass man sich zum Teil bedingt durch das Cypress banding, welches unfreiwillig dem Flimmern entgegenwirkte, noch gar nicht richtig über die Flimmerproblematik des Barts im klaren war (ich habs selbst lange Zeit nicht geglaubt, aber von dem was ich hier teils in den Threads, teils anonym per PN erfahren habe, wusste AMD tatsächlich lange Zeit nichts über das BQ Problem).
Naja, 100% sicher kann ich mir natürlich auch nicht sein, aber ich kann mir nicht vorstellen, dass besseres AF als Verbesserung für Cayman gegenüber Barts geplant war. Hätten die was im Petto, so gäbs da bestimmt auch ne Folie zu, die ja dann bei den Russen aufgetaucht wäre.

derguru
2010-12-15, 02:14:13
Macht nichts, ich glaub für dich mit.
K.A. wann genau die deadline für die Entwicklung der TMUs war, aber imo zu einer Zeit, als AMD noch in einer Blase lebte, die im Wesentlichen dadurch stabil gehalten wurde, dass man sich bedingt durch das Cypress banding, welches unfreiwillig dem Flimmern entgegenwirkte, noch gar nicht richtig über die Flimmerproblematik des Barts im klaren war.
Naja, 100% sicher kann ich mir natürlich auch nicht sein, aber ich kann mir nicht vorstellen, dass besseres AF als Verbesserung für Cayman gegenüber Barts geplant war. Hätten die was im Petto, so gäbs da bestimmt auch ne Folie zu.
nicht zwingend,somit würden sie eingestehen das sie murks fabriziert haben,aber das es für den cayman zuspät war glaub ich auch.

davidzo
2010-12-15, 02:16:09
Ich will in-game videos! ;D

Ob der Cayman noch das schwabbel AF vom Barts hat?

nix schwabbel AF. GF110 hat Schwabbel AF (Winkelabhängigkeit) wenn man nicht gerade HQ wählt.
http://www.rage3d.com/articles/catalyst_2011_image_quality_investigation//pics/gf110angledep2.jpg

AMD verwendet einen agressiveren AF Mechanismus bzw. stark negativen LOD-bias der Schärfe über Flimmern präferiert.
Der Lod-bias wird positiv und das Flimmern geringer wenn man die mipmap Qualität im CCC verringert. Früher bei HD5K war das mit Banding verbunden, das ist aber seit barts gefixt. Wenn man also nahezu flimmerfreies AF möchte einfach den mipmap detail Regler nach links auf performance schieben - schon hat man nvidia niveau, nicht jedoch was die winkel angeht, der filter bleibt winkelunabhängig.

Langenscheiss
2010-12-15, 02:16:33
nicht zwingend,somit würden sie eingestehen das sie murks fabriziert haben,aber das es für den cayman zuspät war glaub ich auch.
Wieso, beim Barts konnten die ihren EPIC-AF-Fail Cypress doch auch gut in eine "wir haben was neues gutes für euch"-Folie ummünzen, sogar mit Erfolg, wie die vielen Reviews zeigten ;)

@davidzo:
Was soll denn das mit dem LODBias jetzt wieder? Schaue dazu doch noch mal in den HD6800 AF-Thread bzw. in den AF-Vergleichs-Thread. Ich weiß, dass die lang und übersichtlich sind, aber dort wurde das lang und breit diskutiert.
EDIT: Oh, ich sehe, du hast es korrigiert, das mit dem LOD kannste glaub ich komplett streichen.

davidzo
2010-12-15, 02:20:24
Wieso, beim Barts konnten die ihren EPIC-AF-Fail Cypress doch auch gut in eine "wir haben was neues gutes für euch"-Folie ummünzen, sogar mit Erfolg, wie die vielen Reviews zeigten ;)

ist es ja vielleicht theoretisch sogar. vielleicht ist es mathematisch gutes AF mit hiher genauigkeit. nur die texturen flimmern eben dabei und das ist ggf. unangenehm.
stell dir vor die würden jetzt den 8x Aniso modus in 16x umbenennen. dann wäre das Flimmern sicher geringer, ein paar details gehen drauf, aber das würde doch sowieso kaum ein tester merken...

Kalmar
2010-12-15, 02:21:47
nix schwabbel AF. GF110 hat Schwabbel AF (Winkelabhängigkeit) wenn man nicht gerade HQ wählt.
http://www.rage3d.com/articles/catalyst_2011_image_quality_investigation//pics/gf110angledep2.jpg

AMD verwendet einen agressiveren AF Mechanismus bzw. stark negativen LOD-bias der Schärfe über Flimmern präferiert.
Der Lod-bias wird positiv und das Flimmern geringer wenn man die mipmap Qualität im CCC verringert. Früher bei HD5K war das mit Banding verbunden, das ist aber seit barts gefixt. Wenn man also nahezu flimmerfreies AF möchte einfach den mipmap detail Regler nach links auf performance schieben - schon hat man nvidia niveau, nicht jedoch was die winkel angeht, der filter bleibt winkelunabhängig.

genial :up:
bin mal gespannt was die bq fetischisten dazu sagen ... jetzt weiss ich warum das bei mir kaum flimmer hab den Regler immer ziemlich weit links ^^

derguru
2010-12-15, 02:23:08
Wieso, beim Barts konnten die ihren EPIC-AF-Fail Cypress doch auch gut in eine "wir haben was neues gutes für euch"-Folie ummünzen, sogar mit Erfolg, wie die vielen Reviews zeigten ;)
ich glaub die blinde zeit ist vorbei(in germany vor allem).:biggrin:

dildo4u
2010-12-15, 02:24:54
ich glaub die blinde zeit ist vorbei.:biggrin:
In DE vieleicht US Reviewer scheinen noch nicht drauf gekommen zu sein.

Langenscheiss
2010-12-15, 02:25:39
ist es ja vielleicht theoretisch sogar. vielleicht ist es mathematisch gutes AF mit hiher genauigkeit. nur die texturen flimmern eben dabei und das ist ggf. unangenehm.
stell dir vor die würden jetzt den 8x Aniso modus in 16x umbenennen. dann wäre das Flimmern sicher geringer, ein paar details gehen drauf, aber das würde doch sowieso kaum ein tester merken...

Ich glaube in der Tat, dass AMDs AF ausgeklügelter ist, als NVs (Stichtwort: HighPrecision LOD usw.), aber das macht es nicht unbedingt Nyquist-konform und flimmerfrei (was nicht äquivalent sein muss, warum weiß ich auch nicht genau). Dabei muss das nicht unbedingt am realem undersampling liegen, sondern könnte rein theoretisch noch ein weiterer Bug sein. Dass sie das mit den Bugs können, hat Cypress ja gezeigt.

derguru
2010-12-15, 02:29:22
Wenn man also nahezu flimmerfreies AF möchte einfach den mipmap detail Regler nach links auf performance schieben - schon hat man nvidia niveau, nicht jedoch was die winkel angeht, der filter bleibt winkelunabhängig.

hat einer mal davidzo´s idee getestet?

mapel110
2010-12-15, 02:37:17
hat einer mal davidzo´s idee getestet?
Was soll das bringen, außer Matschgrafik?! Es wird ja nur das Mipmapping geregelt. Wenn die Texturen keine Details mehr hergeben, kann auch nichts mehr flimmern.

Blaire
2010-12-15, 02:37:18
hat einer mal davidzo´s idee getestet?

Das dreht dann auch nur am LOD und das Bild wird unscharf, das ist also keine Lösung.

Langenscheiss
2010-12-15, 02:38:21
hat einer mal davidzo´s idee getestet?
Also bei MipMap Performance werden, soweit ich mich an meine Tests erinnern kann, einfach niedriger aufgelöste Mipmaps gewählt, also ein positives LODBias, und das deutlich stärker, als diese kleinen Verschiebungen, die durch den A.I. Regler geschehen. Seit wann ist das denn das Mittel der Wahl, um Flimmern loszuwerden. Da kann man dann auch gleich wieder zurück auf trilinear gehen.
EDIT: Naja, bin jetzt der dritte, der das sagt, aber das geht hier aber auch rasend ;)

davidzo
2010-12-15, 02:46:42
die theorie geht davon aus, dass bei amd um ein schärferes bild zu bekommen (also sich einen unfairen vorteil was den detailgrad angeht zu verschaffen) generell ein negatives lod-bias verwendet wird, wie das auch rage3d berichtet. die verschiebung ins positive wäre also lediglich eine anpassung an die überfilterung, also eventuell null und nicht generell ein stark positives lod-bias.

eine andere theorie die ich auch in der praxis getestet habe ist dass 8xAF bei AMD ein beinahe gleichwertiges aber flimmerärmeres Bild erzeugt als 16xAF.

derguru
2010-12-15, 02:49:48
die theorie geht davon aus, dass bei amd um ein schärferes bild zu bekommen (also sich einen unfairen vorteil was den detailgrad angeht zu verschaffen) generell ein negatives lod-bias verwendet wird, wie das auch rage3d berichtet. die verschiebung ins positive wäre also lediglich eine anpassung an die überfilterung, also eventuell null und nicht generell ein stark positives lod-bias.
vielleicht auch deswegen bei amd immer ein schärferes bild.

kannst du kein video dazu machen davidzo?

Blaire
2010-12-15, 02:52:52
vielleicht auch deswegen bei amd immer ein schärferes bild.

Barts ist leicht schärfer, aber das alleine ist nicht für das Flimmern verantwortlich. Diesen Mythos vom schärferen Ati Bild geisterte schon beim Vorgänger herum, was sich aber als falsch herausstellte. Ronny145 hat hier im Forum irgendwo Bilder gepostet die dies auch belegen.

Langenscheiss
2010-12-15, 02:57:38
die theorie geht davon aus, dass bei amd um ein schärferes bild zu bekommen (also sich einen unfairen vorteil was den detailgrad angeht zu verschaffen) generell ein negatives lod-bias verwendet wird, wie das auch rage3d berichtet. die verschiebung ins positive wäre also lediglich eine anpassung an die überfilterung, also eventuell null und nicht generell ein stark positives lod-bias.

eine andere theorie die ich auch in der praxis getestet habe ist dass 8xAF bei AMD ein beinahe gleichwertiges aber flimmerärmeres Bild erzeugt als 16xAF.

Die 1. Theorie kann ich nach meinen Tests absolut nicht bestätigen. Das LODBias ist im D3DAFTester DEFINITIV nicht angepasst, zumindest unter HQ. Wie es bei Spielen ist, kann ich logischerweise nicht 100%ig sagen, aber ich gehe nicht davon aus, dass es da groß anders ist. Der D3DAFTester gibt normal das wieder, was die Hardware maximal kann, NV behauptet sogar, AMD würde sich hier sogar noch mehr BQ ercheaten. Wenn deren Philosophie tatsächlich so wäre, wie du behauptest, dann gäb es in diesem Programm auf jeden Fall negatives LODBias, was nicht der Fall ist!

Die 2. Theorie lässt sich damit erklären, dass AMD den Großteil des Bildes mit 8xAF nicht groß anders behandelt, was das reine AF angeht, wie mit 16xAF (hängt natürlich von der Geometrie der Szene und der daraus resultierenden Texturverzerrung ab). Weniger Flimmern könnte in vereinzelten Situationen durch das veränderte LOD kombiniert mit weniger Optimierungsspielraum erklärt werden.

Und nochmal zur Schärfe: Der Irrglaube, der bei vielen hier wohl noch herrscht, ist, dass schärfe allein durch das LOD und Mipmapping beeinflussbar ist.
Die Qualitätssteigerung bei AF wird dadurch erzielt, dass man anstatt durch Mipmapping durch "intelligentes" Filtern dafür sorgt, dass der Content Nyquist konform bleibt. Dadurch erreicht man es, dass bei (im Vergleich zu trilinear) negativem LOD, also höherer Schärfe, das Bild trotzdem flimmerfrei bleibt, weil Mipmapping (also nicht aktives Filtern, sondern eine vorberechnete Reduzierung der Informationsdichte) allein auch mit Interpolation viel zu aggressiv ist (bei entsprechendem LOD), wodurch Unschärfe entsteht.Das Problem besteht hier einfach darin, dass man nur begrenzte viele Texturauflösungen zur Verfügung hat. D.h. Bei Bilinear muss man die Mips so verteilen, dass man stufenweise von leichtem Unterfiltern zu Überfiltern kommt (bilinear banding), was bei Trilinear dann teils in deutliches Überfiltern übergeht, was unschärfe bewirkt, aber dafür das bilineare banding beseitigt. (Als Zwischenlösung gibt es noch das Mipmap-Dithering, aber sowas kommt wohl nur für integrierte Lösungen in Frage)
Deswegen nennt man es ja anisotropes Filtern, weil das Problem des benötigten Filtergrades ein höchst anisotropes Problem darstellt (anisotrop = bestimmte Raumrichtungen sind gegenüber anderen ausgezeichnet). Die maximale Schärfe wird durch das LOD (abhängig von der Größe des pixel footprints im Vergleich zur originalen Textur) bzw. durch die Mipmap vorgegeben, diese wird dann auf die konforme Schärfe aktiv mit AF runtergefiltert (wir reden hier immer vom Minification-Fall). D.h. AMD ist in der Tat schärfer, aber nur deshalb, weil diese Schärfe direkt verbunden ist mit einer EFFEKTIVEN Unterfilterung (was ich bewusst abgrenze von realer Unterfilterung), also Flimmern. Ich weiß jetzt nicht, welche Videos vom Ronny ihr meint, aber die Videos, die ich von ihm gesehen habe, zeigen alle genau das.

uweskw
2010-12-15, 03:05:16
Das dreht dann auch nur am LOD und das Bild wird unscharf, das ist also keine Lösung.

Also wie bei NV?

Ich bin von einer HD4850 auf eine GTX460 umgestiegen. Am Anfang war ich fast soweit wieder auf die 4850 zurück zu gehen. Masseffect 2, Gothic, Just Cause sowie Two Worlds2 haben für mich in defaut Einstellungen (mit AA/SSAA) erstmal nur matschig und blass gewirkt. Mit vielen Tips aus dem Forum hab ichs dann soweit hinbekommen oder mich daran gewöhnt.
Die NV hat schon ihre Vorteile, ein schöneres Bild bei defaut Einstellung gehört aber nicht unbedingt dazu. Und wo es vorher stark geflimmert hat (Shader) flimmert es jetzt genauso.
Aber das hier ist kein NV Thread also lassen wir das Thema.


Kann mir nochmal jemand den Sinn von PowerTune erklären?
Unterm Strich wird die Karte auf defaut doch unter ihren Möglichkeiten betrieben um Strom zu sparen. So kann ich auch eine GTX580 von Leistung und Verbrauch her aufs Niveau einer 570 runterziehen. arketintechnik doch ausgemachter Schwachsinn. Oder verstehe ich da etwas falsch?

derguru
2010-12-15, 03:05:52
Barts ist leicht schärfer, aber das alleine ist nicht für das Flimmern verantwortlich. Diesen Mythos vom schärferen Ati Bild geisterte schon beim Vorgänger herum, was sich aber als falsch herausstellte. Ronny145 hat hier im Forum irgendwo Bilder gepostet die dies auch belegen.
das ist klar,sonst hätte es amd ruck zuck beseitigt aber vielleicht kann man dadurch ein wenig nachhelfen,justieren.werde ich die tage mal probieren,was da geht oder auch nicht.

Kalmar
2010-12-15, 03:20:05
Also wie bei NV?

Ich bin von einer HD4850 auf eine GTX460 umgestiegen. Am Anfang war ich fast soweit wieder auf die 4850 zurück zu gehen. Masseffect 2, Gothic, Just Cause sowie Two Worlds2 haben für mich in defaut Einstellungen (mit AA/SSAA) erstmal nur matschig und blass gewirkt. Mit vielen Tips aus dem Forum hab ichs dann soweit hinbekommen oder mich daran gewöhnt.
Die NV hat schon ihre Vorteile, ein schöneres Bild bei defaut Einstellung gehört aber nicht unbedingt dazu. Und wo es vorher stark geflimmert hat (Shader) flimmert es jetzt genauso.
Aber das hier ist kein NV Thread also lassen wir das Thema.


Kann mir nochmal jemand den Sinn von PowerTune erklären?
Unterm Strich wird die Karte auf defaut doch unter ihren Möglichkeiten betrieben um Strom zu sparen. So kann ich auch eine GTX580 von Leistung und Verbrauch her aufs Niveau einer 570 runterziehen. arketintechnik doch ausgemachter Schwachsinn. Oder verstehe ich da etwas falsch?

nein wenn du z.b. eh schon 100 fps hast kannst du dadurch etwas sparen und sagen wir mit 70 fps ne ganze ecke weniger watt verbrauchen, was sich dann wohl auch auf die temperatur und möglicherweise auf die lautstärke auswirkt ...

ps. den eindruck hab ich auch bei nv karten ..

Langenscheiss
2010-12-15, 03:21:12
Also wie bei NV?

Ich bin von einer HD4850 auf eine GTX460 umgestiegen. Am Anfang war ich fast soweit wieder auf die 4850 zurück zu gehen. Masseffect 2, Gothic, Just Cause sowie Two Worlds2 haben für mich in defaut Einstellungen (mit AA/SSAA) erstmal nur matschig und blass gewirkt. Mit vielen Tips aus dem Forum hab ichs dann soweit hinbekommen oder mich daran gewöhnt.
Die NV hat schon ihre Vorteile, ein schöneres Bild bei defaut Einstellung gehört aber nicht unbedingt dazu. Und wo es vorher stark geflimmert hat (Shader) flimmert es jetzt genauso.
Aber das hier ist kein NV Thread also lassen wir das Thema.


Ich GLAUBE (also nagel mich auf das folgende nicht fest), dass AMD genau das ursprünglich mit ihrem AF-Ansatz erreichen wollte, nämlich einen geradezu idealen Kompromiss zwischen Schärfe und Flimmeranfälligkeit. Dabei ist entweder was schief gegangen (Bug), oder sie haben das Flimmern schlicht unterschätzt. NV hingegen gehen den "sicheren" Weg, der nicht flimmert, aber manchmal halt auch n bissl überfiltert. Dass dir NV matschig vorkam, glaube ich, ist aber n Gewöhnungssache. Ist ja auch klar, bei dem scharfen ATI Bild.

derguru
2010-12-15, 03:24:59
den idealen kompromiss zwischen schärfe und flimmeranfälligkeit hatten sie beim r520 gehabt.(da ist es sogar noch schärfer gegenüber dem bart aber trotzdem so gut wie flimmerfrei)
nach dem ich die videos von ronny dazu gesehen hatte gefällt mir die selbst besser als nv´s hq.

Kalmar
2010-12-15, 03:30:44
[...] Dass dir NV matschig vorkam, glaube ich, ist aber n Gewöhnungssache. Ist ja auch klar, bei dem scharfen ATI Bild.

danke dachte schon ich bilde mir das ein so wie hier manchmal nv als super qualität angepriesen wird ^^

so 3 stunden und ein paar mins ich denke den start der 69x0 kann man ganz beruhigt verschlafen den netten russischen freunden sei dank *gg*

Coda
2010-12-15, 04:10:28
Ich GLAUBE (also nagel mich auf das folgende nicht fest), dass AMD genau das ursprünglich mit ihrem AF-Ansatz erreichen wollte, nämlich einen geradezu idealen Kompromiss zwischen Schärfe und Flimmeranfälligkeit. Dabei ist entweder was schief gegangen (Bug), oder sie haben das Flimmern schlicht unterschätzt. NV hingegen gehen den "sicheren" Weg, der nicht flimmert, aber manchmal halt auch n bissl überfiltert. Dass dir NV matschig vorkam, glaube ich, ist aber n Gewöhnungssache. Ist ja auch klar, bei dem scharfen ATI Bild.
Überfilterung führt nicht zu Matsch.

Die wahrgenommene Schärfe wird wenn man an oder über der Nyquist-Frequenz filtert nur von der LOD-Kalkulation bestimmt. Man kann immer 16 Samples Brute-Force filtern, auch wenn der Footprint nicht verzerrt ist und das Bild sieht gleich aus.

AMD ist sehr sehr penibel was diese Rechnungen angeht. Ich habe im Filter-Tester für NVIDIA schon einen Workaround implementieren müssen, weil sie teilweise bei einer LOD-Eingabe die falsche Mip samplen. Das sagt mir, dass sie da weniger Präzision einsetzen.

Meine Theorie ist, dass das in manchen Fällen dazu führt, dass die ausgewählte Mip unschärfer ist. Oder das ganze doch nur ein Wahrnehmungsproblem ist, weil AMD (übrigens bestätigt) unterfiltert und NVIDIA nicht. Oder eine Mischung aus beidem.

horn 12
2010-12-15, 04:13:24
Wo bleiben die anderen Test´s ?
Bitte Angaben zu Lautstärke, AF Qualität und AA-Modi

Punktet dort Cayman ist er dennoch mein, ansonsten schafft die HD6950 nicht mal die HD5870.

misterh
2010-12-15, 05:00:54
http://www.hardocp.com/article/2010/12/14/ amd_radeon_hd_6970_6950_video_card_review

aber inhalt leer.

Langenscheiss
2010-12-15, 05:18:22
@Coda:
Haben sie jetzt tatsächlich ihr Unterfiltern zugegeben?

Das mit dem Matsch war etwas blöd formuliert, weil ich direkt vom NV Überfiltern (also aktives, über AF) zum Matsch kam, was zugegeben einen direkten Zusammenhang suggeriert. Damit wollte ich eigentlich nur verdeutlichen, dass NV deshalb matschig aussieht, weil AMD soviel schärfer aussieht, also ein Wahrnehmungsproblem. Darüber hinaus kann man den Begriff "Überfiltern" auch allgemein betrachten, d.h. nicht nur auf das aktive AF beziehen, sondern eben auch auf die Wahl der Mip, auch wenn das ja im strengen Sinne kein Filtern mehr ist, sondern eine vorherige Verringerung der Informationsdichte.

BeeRockxs
2010-12-15, 05:19:52
Da verrät der HTML Quellcode ein wenig:
<meta name='description' content="AMD is launching its new Radeon HD 6970 and HD 6950. These two GPUs round out AMD&amp;rsquo;s high-end Radeon HD 6000 family of single-GPU video cards. Priced surprisingly low for the performance, these two cards are ready to to deliver solid value in the high end market place. Spending your holiday cash wisely, just got easy.">

Coda
2010-12-15, 05:33:10
Haben sie jetzt tatsächlich ihr Unterfiltern zugegeben?
Jain. Es kommt auf's gleiche raus.

BeeRockxs
2010-12-15, 05:36:00
http://www.megaupload.com/?d=Q14992KY hat alle Folien (http://forum.beyond3d.com/showpost.php?p=1503577&postcount=6539)

Popopinsel
2010-12-15, 05:36:21
Benchmarkreviews.com: AMD Radeon 6970 Review (http://benchmarkreviews.com/index.php?option=com_content&task=view&id=606&Itemid=72)

Spirou
2010-12-15, 05:44:51
Katze aus dem Sack. 6970 demnächst ab 300,- Euro, errechnet aus dem Verhältnis des US-Preis gegenüber Barts. Naja.

Eggcake
2010-12-15, 06:29:35
PCGH und CB Test durch. Naja, v.a. bei PCGH deutlich unter den Erwartungen. ELF SONE?! :ugly:
Verbrauch bis auf 1W gleich wie bei einer GTX570 :D

Wieso hier dauernd von Effizienz "ungeschlagen" geredet wurde verstehe ich dann aber auch nicht.

Locuza
2010-12-15, 06:43:21
Fazit: FAIL!

Da hat Ati wirklich scheiße abgeschnitten. Anders kann man es wohl nicht sagen. Die HD 6950 auf 5870 Level die 6970 um die 20% was hier und da ungefähr 570GTX level entspricht.

Es spricht echt alles gegen die 6970 und fast alles für die 570 GTX. Performance ist gleich. Features haben die Geforces, wie seit ewigkeiten gewohnt, um ein paar mehr. Und kein Flimmer AF.
Vorallem Stromverbrauch, die Paradediziplin hat AMD super aufgegeben.

Preis ungefähr 20€ niedriger als die 570GTX.
Die 20€ lohnen sich aber mal richtig als Aufpreis.

Sehr eigenartig, dass die neue Serie es wirklich nicht schafft sich von der 480/570 GTX abzusetzten. Die hätten wahrscheinlich immer darauf rumgeritten mit 2560x1600 viel besser zu sein.

Naja das ist wieder eher R600 like , als R300.
Aber Gott sei dank niemals so schlimm wie der R600.

Naja es gibt ja noch das 28nm Duell ;)

Marty98
2010-12-15, 06:44:23
Die Leistungsaufnahme ist wirklich enttäuschend. Kein Deut besser als NVidia.

Superheld
2010-12-15, 06:50:16
gut gemacht AMD !:P

Marty98
2010-12-15, 06:50:55
doppelpost.

4Fighting
2010-12-15, 06:52:35
Hier kann man schön die GTX570 gegen die 6970 vergleichen

http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index39.php

und da muss man sagen das die Ausschläge in der Performance eher zu Gunsten der 570 ausfallen imo(leider)

ChaosTM
2010-12-15, 06:55:17
Die Leistungsaufnahme ist wirklich enttäuschend. Kein Deut besser als NVidia.

Die 6950 braucht 80 Watt weniger als die 570er.
Laut hardocp und anandtech liegt die 6970 auch fast 30 Watt unter der 570er.

Die 6950 schaut insgesamt sehr nett aus was Preis/Leistung betrifft.

Atma
2010-12-15, 06:58:47
Da kann ich ja entspannt bei meiner HD 5870 bleiben. Ich hatte mir ehrlich gesagt viel von der HD 6970 versprochen, nur nicht dass sie so oft mit der HD 5870 zu kämpfen hat :frown:.

*Wartet auf die 28nm Gen*