PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Cayman - HD 6950/6970 - November 2010


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

dildo4u
2010-11-09, 02:04:50
ich seh das erst jetzt,seit wann ist denn die 5870 in dirt 2 schneller als die 480gtx:confused:
Die Review ist nur ein Anhaltspunkt PCGH wird die Krönung schon vornehmen.In Dirt 2 schlägt sogar eine GTX 470 die 5870.

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-460/15/#abschnitt_colin_mcrae_dirt_2

Jake Dunn
2010-11-09, 02:06:29
ich seh das erst jetzt,seit wann ist denn die 5870 in dirt 2 schneller als die 480gtx:confused:

Naja schneller ^^

Ist doch fast gleich, kommt auch auf die Strecke bzw. Benchmark an ;)

derguru
2010-11-09, 02:09:23
hab die 480gtx eigentlich immer ein gutes stück vor der 5870 in erinnerung,deshalb hat mich das jetzt hier so gewundert,anscheinend kommt es wohl echt auf die teststrecke an.

dildo4u
2010-11-09, 02:09:31
Naja schneller ^^

Ist doch fast gleich, kommt auch auf die Strecke bzw. Benchmark an ;)
Laut den CB Benches würde die GTX 580 über der 5970 liegen.GTX 480+15% reichen schon.

LovesuckZ
2010-11-09, 02:12:37
hab die 480gtx eigentlich immer ein gutes stück vor der 5870 in erinnerung,deshalb hat mich das jetzt hier so gewundert,anscheinend kommt es wohl echt auf die teststrecke an.

Schau mal bei HT4U.de vorbei. Auf deren Strecke sind die AMD Karten deutlich besser.

Jake Dunn
2010-11-09, 02:13:49
Sicher kommt es auf die Teststrecke an ;) der Default Bench ist imho Marokko (nicht so fordernd) ka ob TPU den genommen hat.
Malaysia ist etwas fordernder, aber ab der GTX460 rennt das sowieso in FullHD mit AA/AF...so what.

F1 2010 Benches wären besser...

y33H@
2010-11-09, 02:17:40
F1 2010 ist CPU-limitiert, gerade am Start mit 24 Fahrzeugen.

LovesuckZ
2010-11-09, 02:21:14
Kennt ihr noch die Werte? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8349354&postcount=53

Das sind Werte einer angeblichen GTX580 in Unigine: http://forum.coolaler.com/showthread.php?t=253168

GTX580: 49,2 FPS
"6970" : 36,6 FPS

Ich sollte die Nacht wirklich zum Schlafen benutzen. Die 49,2 FPS sind ja ohne AA. Dafür erreicht die GTX580 fast 36 FPS mt 8xMSAA...

derguru
2010-11-09, 02:25:26
machte eine 480gtx nicht irgendwas von 30 fps bei den settings?falls ja kann das nur mit oc sein oder der neue treiber gibt nochmal zündstoff,tendiere aber eher zu oc:biggrin:

LovesuckZ
2010-11-09, 02:27:45
machte eine 480gtx nicht irgendwas von 30 fps bei den settings?falls ja kann das nur mit oc sein oder der neue treiber gibt nochmal zündstoff,tendiere aber eher zu oc:biggrin:

Der Text - übersetzt per google - gibt nichts wieder. Wir werden es ja in 12h sehen. Wäre aber doch sehr überraschend, wenn GF110 nochmal ein Stückchen auf die Geometrieleistung packen würde.

svenw
2010-11-09, 08:27:57
Um ehrlich zu sein: mir ist es völlig Wumpe wer 5% schneller oder langsamer ist! Beide Karten reichen für alles was man ihnen vorsetzt! Was mcih wesentlich mehr interessiert ist die Lautstärke und da scheint NV nach dem Fermi-Staubsauger wirklich dazugelernt zu haben. Gibt es Infos wie es da bei der 6970 aussieht? Denn 200+ Watt sind mit den 08/15-Luftkühlungen nun mal kaum leise in den Griff zu bekommen.

Ailuros
2010-11-09, 10:09:02
Von mir aus kann jedermann seine feuchten Traeume mit den Interpretationen von diversen Diagrammen so kombinieren dass Cayman sogar 3x Mal schneller ist als Cypress am Ende.

Realitaet wird schon zeigen dass es sich lediglich um einen refresh handelt und so war es auch stets von AMD gemeint.

F1 2010 ist CPU-limitiert, gerade am Start mit 24 Fahrzeugen.

Ich lass mich gerne eines besseren belehren, aber war es nicht schon immer so mit F1 Spielen?

y33H@
2010-11-09, 10:15:17
Ich lass mich gerne eines besseren belehren, aber war es nicht schon immer so mit F1 Spielen? Im Zweifel schon ... das letzte ist aber iirc 7 Jahre alt, da habe ich keine Benchmarks vorliegen *g*

Schlammsau
2010-11-09, 16:24:08
Ich würde sagen, der GT110 ist im Schnitt ~35% schneller als als Cypress, wie ich bereits vor Wochen schon vermutet hatte. :smile:
Ausreisser nach oben unten bestätigen die Regel.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index30.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870&prod[]=NVIDIA+GeForce+GTX+580&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16

Also was meint ihr, packt das Cayman oder wird er unterlegen sein?
Wird mMn auf jeden Fall, ne knappe Geschichte!

dildo4u
2010-11-09, 16:25:11
Es wird genau so aussehen wie bei der 5870 und GTX 480 nur das die ATI vom Stromverbrauch dichter an die 580 rückt.

Schlammsau
2010-11-09, 16:26:50
Also 15% Unterschied im Schnitt pro GT110? Ergo Cayman XT wird gerade mal so, die 480 schlagen?

Das glaube ich definitiv nicht!

[MK2]Mythos
2010-11-09, 16:39:20
Ich denke es wird ein Kopf an Kopf Rennen werden, die GTX580 ist schon ein feines Kärtchen geworden und ich bin echt gespannt, ob AMD den Vorsprung aufholt :-)
Wie auch immer, falls Cayman gleich schnell oder sogar schneller wird, weiß ich jetzt schon, was die Nvida Fraktion diesbezüglich wieder verkünden wird. AMD hat schließlich genug Zeit gehabt, sich dem Leistungsniveau der GTX580 anzupassen... :D

S940
2010-11-09, 16:44:14
Das glaube ich definitiv nicht!

Solange man nichts weiss darf jeder glauben was er will ^^

Ich spekulier ja auch gerne, aber jetzt da genau nachfragen zu wollen bringt doch nichts.
Entweder Cayman hat 1920 Shader oder 1536. Das ist alles was man weis, und davon plus dem veränderten Front-End hängt dann die Leistung ab.

Einordnen kann man damit gar nichts, da man eben nichts weiss.

Wenn man einigermaßen sinnvoll spekulieren will, dann höchstens mit Fallunterscheidung z.b:

Fall 1920:



Reicht locker um die 580 zu schlagen
Reicht so knapp
Reicht nicht

Fall 1536:


Reicht locker um die 580 zu schlagen
Reicht so knapp
Reicht nicht

Aber das ganze ist dann wie schon erwähnt noch von den ganzen anderen Änderungen abhängig. Nachdem Cayman da sehr, sehr viel ändern wird, kann man das reine Leistungsmessen aufgrund der Shaderanzahl damit auch vergessen, da es ein Äpfel-Birnen Vergleich ist.

Einzigstes, sinnvollstes Fazit:

Man weiss nix und benötigt mehr Input.

airbag
2010-11-09, 16:46:00
Ich lass mich gerne eines besseren belehren, aber war es nicht schon immer so mit F1 Spielen?


Ja, zumindestens bei Rennspielen öfters der Fall, wie NFS Shift am Start.

Ich würde sagen, der GT110 ist im Schnitt ~35% schneller als als Cypress, wie ich bereits vor Wochen schon vermutet hatte.

Nicht böse gemeint, aber die Aussage klingt, so wie "Charlie hats ja gesagt" nach dem GTX480 Launch;D

Schlammsau
2010-11-09, 16:50:15
Solange man nichts weiss darf jeder glaube was er will ^^

Ich spekulier ja auch gerne, aber jetzt da genau nachfragen zu wollen bringt doch nichts.
Entweder Cayman hat 1920 Shader oder 1536. Das ist alles was man weis, und davon plus dem veränderten Front-End hängt dann die Leistung ab.

Einordnen kann man damit gar nichts, da man eben nichts weiss.

Wenn man einigermaßen sinnvoll spekulieren will, dann höchstens mit Fallunterscheidung z.b:

Fall 1920:



Reicht locker um die 580 zu schlagen
Reicht so knapp
Reicht nicht

Fall 1536:


Reicht locker um die 580 zu schlagen
Reicht so knapp
Reicht nicht

Aber das ganze ist dann wie schon erwähnt noch von den ganzen anderen Änderungen abhängig. Nachdem Cayman da sehr, sehr viel ändern wird, kann man das reine Leistungsmessen aufgrund der Shaderanzahl damit auch vergessen, da es ein Äpfel-Birnen Vergleich ist.

Einzigstes, sinnvollstes Fazit:

Man weiss nix und benötigt mehr Input.
Ich richte mich nach der Folie wo steht, Cayman XT wird ne TDP von unter 300W haben.
Ich gehe von um die 250W aus (eher mehr), Cypress hat ne TDP von 188W.
Noch dazu gibt es sehr hartnäckige Gerüchte von einer sehr grossen GPU.

Also wenn AMD das Ding nicht vollends verkackt hat, gehe ich von durchschnittlich mindestens 40% mehr Leistung zu Cypress aus. Wegen Effiziensverbesserungen usw.....
Sie hatten immerhin über ein Jahr Zeit, an dem Ding zu feilen.

Ergo sollte es in meinen Augen, für mindestens einen Gleichstand mit der GTX580 reichen.

dildo4u
2010-11-09, 17:02:07
Also 15% Unterschied im Schnitt pro GT110? Ergo Cayman XT wird gerade mal so, die 480 schlagen?

Das glaube ich definitiv nicht!
Ja mit HQ AF laut PCGH kostet das 5-10% Leistung.

Schlammsau
2010-11-09, 17:07:41
Und du weisst wie sich Cayman mit HQ schlägt?

Cayman wird eine neue Architektur. ;)

PS: Laut CB sinds bei 4xAA/16xAF im Schnitt nur 5% Leistungsverlust bei Q vs HQ (Barts)
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/#abschnitt_performancerating

dildo4u
2010-11-09, 17:11:36
PS: Laut CB sinds bei 4xAA/16xAF im Schnitt nur 5% Leistungsverlust bei Q vs HQ (Barts)
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/#abschnitt_performancerating
Steht in der neuen PCGH Print Anno 1404 9.8%,Modern Warfare 2 7.9%,Metro 10%,Crysis 8.2%.

Schlammsau
2010-11-09, 17:19:56
Interessiert mich nicht die Bohne was PCGH printed.....solange andere Seiten nicht ganz so hohe Verluste bescheinigen, zählt wie immer, die Wahrheit liegt irgendwo in der Mitte.

Aber um nochmal auf Cayman zurückzukommen....woher weisst du, wie der sich bei Q vs HQ verhält? Wie gesagt, is ne neue Architektur. ;)

Und jetzt sag nicht, du hast es im Urin...du lagst schon desöfteren deutlich daneben mit deinen Einschätzungen. Ist ja auch kein Wunder, die sind ja immer pro nVidia.

igg
2010-11-09, 17:44:45
Es besteht auch die Möglichkeit, dass AMD den Cayman verk*ckt und er bei gleicher Einheitenzahl und Takt langsamer als Barts ist...

Savay
2010-11-09, 18:03:09
Es besteht auch die Möglichkeit, dass AMD den Cayman verk*ckt und er bei gleicher Einheitenzahl und Takt langsamer als Barts ist...

nunja es besteht demzufolge natürlich auch die möglichkeit das cayman garnicht läuft, sie über mafiose kanäle NV gpus kaufen und mit nem ATI AMD bapperl versehen müssen um überhaupt chips ausliefern zu können... :freak:

Raff
2010-11-09, 18:09:43
Steht in der neuen PCGH Print Anno 1404 9.8%,Modern Warfare 2 7.9%,Metro 10%,Crysis 8.2%.

Interessiert mich nicht die Bohne was PCGH printed.....solange andere Seiten nicht ganz so hohe Verluste bescheinigen, zählt wie immer, die Wahrheit liegt irgendwo in der Mitte.

Heieieiei. Die haben beide Recht. Laut PCGH hat HQ vs. Q eine Auswirkungsbandbreite von -2 bis -15 (!) Prozent, im Schnitt liegt's eben zwischen 5 und 10. Sagen wir 7,1337 Prozent.

MfG,
Raff

y33H@
2010-11-09, 18:12:35
@ Schlammsau

CB mindert durch 4x MSAA und hohe Auflösung aber auch den Einfluss der TMUs. D.h. der reale Verlust ist größer, wird aber "kaschiert".

V2.0
2010-11-09, 18:12:49
Ich würde sagen, der GT110 ist im Schnitt ~35% schneller als als Cypress, wie ich bereits vor Wochen schon vermutet hatte. :smile:
Ausreisser nach oben unten bestätigen die Regel.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index30.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870&prod[]=NVIDIA+GeForce+GTX+580&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16

Also was meint ihr, packt das Cayman oder wird er unterlegen sein?
Wird mMn auf jeden Fall, ne knappe Geschichte!

Cayman macht die 580 platt.

derguru
2010-11-09, 18:19:35
genau,MASSAKER.http://bbs.expreview.com/images/smilies/funnyguy/25.gif

AwesomeSauce
2010-11-09, 18:24:38
Cayman macht die 580 platt.
Deine Argumente sind erdrückend...

[MK2]Mythos
2010-11-09, 18:25:24
Das glaube ich eher weniger, AMD setzt den Cayman laut den Folien ja unterhalb von HD5970 an, da die GTX580 die HD 5970 in vielen Benchmarks ja schon ein bzw überholt, wird es eher auf einen Gleichstand oder einen geringen Vorsprung für Cayman (durch jetzige Taktanpassung?) hinaus laufen.

Vento
2010-11-09, 18:38:00
Mythos;8378260'].... (durch jetzige Taktanpassung?) hinaus laufen.

Zur Not dreht man halt noch etwas im Bereich Bildqualitäts-"Optimierungen".;D

Dural
2010-11-09, 18:44:20
Zur Not dreht man halt noch etwas im Bereich Bildqualitäts-"Optimierungen".;D

rolft ;D




GTX580 ist da wo bleiben die Cayman leaks???

Eggcake
2010-11-09, 18:48:24
AMD/ATTI hat von Marketing irgendwie noch nie besonders viel verstanden.

y33H@
2010-11-09, 18:48:39
Gegenfrage: Wo bleibt Cayman? *SCNR*

derguru
2010-11-09, 18:51:16
am 22. isser dahttp://bbs.expreview.com/images/smilies/funnyguy/12.gif

deekey777
2010-11-09, 18:57:26
rolft ;D




GTX580 ist da wo bleiben die Cayman leaks???
Warum sollen jetzt irgendwelche Cayman-Leaks kommen? Hat das AMD nötig? Nein. Die ganzen GF110-"Leaks" zeigen eher, wer das nötig hat.

OgrEGT
2010-11-09, 19:48:51
Ich würde sagen, der GT110 ist im Schnitt ~35% schneller als als Cypress, wie ich bereits vor Wochen schon vermutet hatte. :smile:
Ausreisser nach oben unten bestätigen die Regel.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index30.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870&prod[]=NVIDIA+GeForce+GTX+580&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16

Also was meint ihr, packt das Cayman oder wird er unterlegen sein?
Wird mMn auf jeden Fall, ne knappe Geschichte!

Also bei Ht4u steht zum Performance Rating:

Gesamt:
HD5870 100%
GTX580 124%

Mit AA+AF:
HD5870 100%
GTX580 126%

Ohne AA+AF:
HD5870 100%
GTX580 119%

Edit: Oder meintest Du HD6870 vs GTX580?

Edit2:
Also wenn Cayman ähnlich viel Leistung aus den Recheneinheiten holt wie Barts, dann spekuliere ich schon darauf, dass Cayman ebenfalls ca. 35% schneller sein wird.

Schlammsau
2010-11-09, 20:07:07
Also bei Ht4u steht zum Performance Rating:

Gesamt:
HD5870 100%
GTX580 124%

Mit AA+AF:
HD5870 100%
GTX580 126%

Ohne AA+AF:
HD5870 100%
GTX580 119%

Edit: Oder meintest Du HD6870 vs GTX580?

Nee ich meinte schon 5870 vs GTX580.
Sinds doch nur so wenig? Hab das Rating nur überflogen und grob geschätzt.

Hmmm, da sieht die Sache doch schon viel besser aus, für den Cayman. :biggrin:
Ich bleibe dabei, der Cayman XT wird wird der direkte Pendant zur 580, und der Cayman Pro wird sich mit der 480 bzw. 570 rumschlagen. :)
Barts XT liegt ja schon auf 470 Niveau.

LovesuckZ
2010-11-09, 20:11:22
Jaja, immer nur mit einem Augen sehen, gell?
Es gibt bei HT4U auch noch die "erweiterten DX11 Benchmarks". Ich hab zwar kein Plan, wo sich Spiele wie Dirt:2, Battleforge und Stalker da unterscheiden, aber bei den 7 Spielen führt die GTX580 mit 42,7%: http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index16.php

y33H@
2010-11-09, 20:11:23
Lässt man den Fermi-Killer Call of Pripyat DX10 weg, schießt der Wert btw in die Höhe. Mit Metro 2033 oder GTA IV sowie so. Aber wie so oft liegt die "Wahrheit" dazwischen.

Schlammsau
2010-11-09, 20:13:28
lol....und wenn ich mir die Auflösung so ansehe, denke ich das in den allermeisten Fällen der VRAM der 5870 ein klein wenig limitiert.
1920 x 1200 [4xAA / 16xAF]

y33H@
2010-11-09, 20:14:54
In 19x12 limitiert der VRAM? 4get it.

derguru
2010-11-09, 20:15:19
lol....und wenn ich mir die Auflösung so ansehe, denke ich das in den allermeisten Fällen der VRAM der 5870 ein klein wenig limitiert.
quak,wenn überhhaupt in metro ein bissel.

fondness
2010-11-09, 20:16:15
Lässt man den Fermi-Killer Call of Pripyat DX10 weg, schießt der Wert btw in die Höhe. Mit Metro 2033 oder GTA IV sowie so. Aber wie so oft liegt die "Wahrheit" dazwischen.

Cherry-Picking. Eine solche Aussage kann man immer bringen, auch bei euch.

Schlammsau
2010-11-09, 20:16:28
In 19x12 limitiert der VRAM? 4get it.
quak,wenn überhhaupt in metro ein bissel.
Nicht durchgehend, aber das eine oder aandere Frame verliert die 5870 dadurch mit Sicherheit!

mboeller
2010-11-09, 20:18:10
Lässt man den Fermi-Killer Call of Pripyat DX10 weg, schießt der Wert btw in die Höhe. Mit Metro 2033 oder GTA IV sowie so. Aber wie so oft liegt die "Wahrheit" dazwischen.


Und beim Cayman Performancerating lassen wir dann Metro2033 und GTA IV weg, oder? :freak:

Schlammsau
2010-11-09, 20:19:17
Und beim Cayman Performancerating lassen wir dann Metro2033 und GTAIV weg, oder? :freak:

Und Far Cry 2! ;D

y33H@
2010-11-09, 20:20:48
Und WoW nicht vergessen. Und am besten keine Tessellation-Benchmarks und nicht auf's AF schauen und ... ach ihr wisst schon ;)

Bioshock
2010-11-09, 20:24:07
Und WoW nicht vergessen. Und am besten keine Tessellation-Benchmarks und nicht auf's AF schauen und ... ach ihr wisst schon ;)

Also am besten nix benchen :) der Cayman wird genauso ein flop!

Mfg

Jake Dunn
2010-11-09, 20:24:44
Wenn Cayman mit nur 1536sp kommt wird es eng, meiner Meinung nach ^^


Und Far Cry 2! ;D

Ich frage mich echt wozu FC2 immer noch gebencht wird :confused: der Singleplayer ist Müll und der MP davon ist auch nicht relevant.

Schlammsau
2010-11-09, 20:25:31
Nichtsdestotrotz hat nVidia mit der 580 gut vorgelegt, es gibt bis auf die hohe Verlustleistung unter Last und dem fehlenden Multimonitorsupport (mehr als 2 Bildschirme) nichts zu meckern.

Hoffentlich hat AMD sich da was einfallen lassen....mMn hat Cayman die GTX580 leistungstechnisch im Sack. Aber schafft sie auch eine ähnlich Geräuschkulisse bzw AF-mässig wenigsten aufzuschliesen.

Fragen über Fragen. :freak:

LovesuckZ
2010-11-09, 20:25:53
Nimmt man Farcry 2 raus, kann man auch gleich Crysis rausnehmen.

y33H@
2010-11-09, 20:26:24
AF und Tessellation kannst du imo knicken. Rohperformance wird irgendwo leicht drüber oder drunter liegen.

Jake Dunn
2010-11-09, 20:31:09
Und WoW nicht vergessen. Und am besten keine Tessellation-Benchmarks und nicht auf's AF schauen und ... ach ihr wisst schon ;)

WoW läuft doch ganz o.k. auf den Cypressen...hatte ich anders in Erinnerung

1920x1200, 4xSGSSAA, 16xAF
http://www.abload.de/img/unbenanntllhn.jpg (http://www.abload.de/image.php?img=unbenanntllhn.jpg)


Nimmt man Farcry 2 raus, kann man auch gleich Crysis rausnehmen.

Klar ;D

Wer CRYSIS mit FC2 auf eine Stufe stellt zockt auch Lost Planet2 ^^

fondness
2010-11-09, 20:40:24
AF und Tessellation kannst du imo knicken. Rohperformance wird irgendwo leicht drüber oder drunter liegen.

Tesslation kannst du nicht knicken, außer in synthetischen Extremfällen. Doppelte Dreiecksleistung sollte hier ausreichend sein. AF kann man aber IMO knicken, denn ansonsten würde die 6800 anders aussehen.

WoW läuft doch ganz o.k. auf den Cypressen...hatte ich anders in Erinnerung

1920x1200, 4xSGSSAA, 16xAF
http://www.abload.de/img/unbenanntllhn.jpg (http://www.abload.de/image.php?img=unbenanntllhn.jpg)


Das ist eben ein Setting das auch praxisrelevant ist.

Iruwen
2010-11-09, 20:46:07
Wer CRYSIS mit FC2 auf eine Stufe stellt zockt auch Lost Planet2 ^^

Geschmackssache. Es meinten auch viele Metro 2033 sei scheiße, ich hab mich bei Crysis aber nur schnell durchgecheatet um alles mal gesehen zu haben und es dann nie wieder angefasst, Metro hingegen fand ich super. Ok, über FC2 muss man vielleicht wirklich nicht länger diskutieren, das hab ich nichtmal durchgespielt :D

Menace
2010-11-09, 21:18:20
Und WoW nicht vergessen. Und am besten keine Tessellation-Benchmarks und nicht auf's AF schauen und ... ach ihr wisst schon ;)

Bei nvidia dann am besten nicht auf Multimonitorbetrieb (mehr als Dual) und dessen Energieverbrauch beim "Multimonitorbetrieb" schauen.... die Beiträge sind immer so vorhersehbar.

In Tesselation lege ich meine Hoffnung für wirklich beeindruckende Grafiken in beeindruckenden (!) Spielen (!). Bis jetzt kann ich aber so etwas auch mit viel Wohlwollen nicht erkennen. Ich hoffe, dass sich das bald ändert, damit diese Diskussion auch endlich mal Sinn macht.

y33H@
2010-11-09, 21:25:40
WoW läuft doch ganz o.k. auf den Cypressen.Mit SGSSAA ja, ohne nein.
Bei nvidia dann am besten nicht auf Multimonitorbetrieb (mehr als Dual) und dessen Energieverbrauch beim "Multimonitorbetrieb" schauen.Für mich als Spieler nicht relevant, zumal ich zwei identische TFTs nutze, da taktet die Karte nicht hoch :P

Dural
2010-11-09, 21:34:34
die roten tuen ja fast immer so als es bei NV nicht möglichwäre mit mehreren monitoren zu zocken...

ich habe gerade vor kurzem mein 3x 24" system von 5870 2GB auf GTX470 SLI umgestellt und bald sicher GTX580 SLI

eine GPU reicht nie aus um vernünftig mit sochen auflösungen zu zocken und wer es für office verwendet kann sich den 3 oder 4 TFT über eine zweite VGA zb. GT430 oder IGP laufen lassen.... das liegt ja wohl noch drin wenn man auch 400.- für eine Grafikkarte ausgibt, oder nicht?

und übrigens, zocken mit 3x Monitoren wird von den meisten komplett überbewertet... das ist jetzt wirklich NICHTS was man vermissen müsste und ich muss es ja schlisslich wissen... die balken und inkompatibilitäten stören ungemein!

Menace
2010-11-09, 21:36:17
Für mich als Spieler nicht relevant, zumal ich zwei identische TFTs nutze, da taktet die Karte nicht hoch :P

Für mich als jemand, der mit seinem PC arbeitet sehr wohl (mit 4 völlig unterschiedliche Monitor (vom NEC 1690 WUXi² bis zum SynMaster Billigheimer)). Geh einfach mal von der Vorstellung aus, dass unterschiedliche Menschen unterschiedliche Anwendungsprofile haben. Für die einen ist ein flimmerfreies Tesselationmonster wichtig (nvidia) und ich brauche viele Monitor im halbwegs günstigen Idle-Modus (AMD). Ein etwas weiterer Blick der Dinge schadet nie.

Edit: @Dural: Wenn nvidia das anbieten würde, so vermute ich, würdest Du es bestimmt auch schätzen. ;)

y33H@
2010-11-09, 21:37:38
Dein Problem ist: Du ignorierst meinen ;)-Smiley. Ich blicke weit genug, du siehst selbst den naheliegenden Smiley nicht.

Raff
2010-11-09, 21:38:39
Das ist eben ein Setting das auch praxisrelevant ist.

Für (uns) Enthusiasten vielleicht. Die überragende Supersampling-Leistung ist es, die mich gerade davon abhält, meine HD 5870 rauszuwerfen und gegen eine GTX 580 zu ersetzen. Letztere ist verführerisch, aber mit SGSSAA knüppelt eine OC-5870 noch heftig (vor allem, wenn sie wie meine mit mehr als einem Gigahertz rennen kann). Cayman wird gewiss eine große Nummer auf diesem Gebiet. Natürlich helfen ihm (und der HD 5000/6000) die Sparfilter.

MfG,
Raff

AnarchX
2010-11-09, 21:41:43
Würde AMD Crossfire-SGSSAA bei mehr als 16x anbieten, könnte man sich ja zwei 5970 für ~800€ holen und dann 8xSGSSAA @ HD 5850-70-Leistung@2xSGSSAA spielen. :D

Menace
2010-11-09, 21:42:47
Dein Problem ist: Du ignorierst meinen ;)-Smiley. Ich blicke weit genug, du siehst selbst den naheliegenden Smiley nicht.

Och, den sehe ich schon und wäge das mit den repetitiven Aussagen ab. Und da verblasst dann etwas das naheliegende Smiley. ;)

Ich hoffe einfach mal, dass eine 560 Multimonitorbetrieb bekommt oder AMD den Stromverbrauch senkt und weitere Spielchen unterlässt.

Dural
2010-11-09, 21:43:00
Edit: @Dural: Wenn nvidia das anbieten würde, so vermute ich, würdest Du es bestimmt auch schätzen. ;)

nö, vermisse es bei nv überhaupt nicht mit einer gpu nicht mehr als zwei monitoren anzusteuern, wie so sollte ich auch?

es gibt genügend möglichkeiten um dieses "problem" aus dem "weg" zu gehen

zum zocken taugen 3x24" eh nicht, zum arbeiten sind 3x monitore genial, ist so! aber das kann sich jeder zusammen bauen auch ohne only single ATI GPU...

Fetza
2010-11-09, 21:44:27
und übrigens, zocken mit 3x Monitoren wird von den meisten komplett überbewertet... das ist jetzt wirklich NICHTS was man vermissen müsste und ich muss es ja schlisslich wissen... die balken und inkompatibilitäten stören ungemein!

Eben, ein vernünftig großer monitor (ab 26" aufwärts) ist viel sinnvoller.

fondness
2010-11-09, 21:48:53
Für (uns) Enthusiasten vielleicht.

Spätestens seit AMD SSAA offiziell im Treiber anbietet gilt das bestimmt nicht nur für Enthusiasten. Viele werden wenn sie genug Leistung haben mal eben den Qualitätsschalter eins nach rechts schieben.

Und wer SSAA einmal gesehen hat gibt es nur mehr ungern her. :)


Cayman wird gewiss eine große Nummer auf diesem Gebiet.

Sei dir da mal nicht so sicher. Cypress ist nur so stark mit SSAA weil er ohne SSAA (zu) schwach ist, also Frontend-Limitiert. Sollte Cayman diesen Umstand beheben wird zwar die Leistung ohne SSAA stark steigen, aber die Leistung mit SSAA nur so stark wie auch mehr Rohleistung vorhanden ist.


Natürlich helfen ihm (und der HD 5000/6000) die Sparfilter.


Auch nicht mehr als ohne SSAA. SSAA berechnet schließlich auch nur einzelnen Samples mehrfach.

Raff
2010-11-09, 21:49:06
und übrigens, zocken mit 3x Monitoren wird von den meisten komplett überbewertet... das ist jetzt wirklich NICHTS was man vermissen müsste und ich muss es ja schlisslich wissen... die balken und inkompatibilitäten stören ungemein!

Natürlich wird das überbewertet, diverse Umfragen belegen, dass kaum jemand mehr als 2 Monitore nutzt. Nehmen wir mal die hier (http://extreme.pcgameshardware.de/quickpolls/89370-wie-viele-monitore-benutzt-ihr.html), damit keiner "Quääääälle!" schreit. Aber auf Pro-Kontra-Listen braucht man eben ein paar Punkte und Fanboys argumentieren eben auch gern mit unverzichtbaren Randgruppen-Funktionen. ;)

MfG,
Raff

fondness
2010-11-09, 21:53:35
Natürlich wird das überbewertet, diverse Umfragen belegen, dass kaum jemand mehr als 2 Monitore nutzt. Nehmen wir mal die hier (http://extreme.pcgameshardware.de/quickpolls/89370-wie-viele-monitore-benutzt-ihr.html), damit keiner "Quääääälle!" schreit. Aber auf Pro-Kontra-Listen braucht man eben ein paar Punkte und Fanboys argumentieren eben auch gern mit unverzichtbaren Randgruppen-Funktionen. ;)

MfG,
Raff

Auch wenn ich dir recht geben ist das ist allerdings auch ein klassisches Henne-Ei-Problem.

Eggcake
2010-11-09, 21:53:35
Aber ehrlich, ich verstehe nicht wieso AMD nicht mit ein paar Leaks oder Folien antwortet. Dass er "stinkt" glaube ich nicht - sie sind irgendwie wirklich unfähig dazu bzw. sehen nicht wie wichtig das ist. Das macht NV einfach geschickter.

LovesuckZ
2010-11-09, 21:54:51
AMD will ihre alten Karten verkaufen. Deswegen leakt man nichts. Hat nVidia doch genauso getan.

DeadMeat
2010-11-09, 21:55:25
Naja ich glaub nicht das normale Anwender SSAA im CCC kennen und finden ebensowenig wie HQ AF bei den NVs :) also schon eher was für wenige kenner.

Raff
2010-11-09, 21:55:34
Spätestens seit AMD SSAA offiziell im Treiber anbietet gilt das bestimmt nicht nur für Enthusiasten. Viele werden wenn sie genug Leistung haben mal eben den Qualitätsschalter eins nach rechts schieben.

Und wer SSAA einmal gesehen hat gibt es nur mehr ungern her. :)

Unter- (bzw. über-)schätze niemals das Auge eines Normalo-Spielers. Der wird sich zuerst über die geringe Bildrate echauffieren. ;D Ich hingegen stimme deinem letzten Satz natürlich voll zu! =)

Sei dir da mal nicht so sicher. Cypress ist nur so stark mit SSAA weil er ohne SSAA (zu) schwach ist, also Frontend-Limitiert. Sollte Cayman diesen Umstand beheben wird zwar die Leistung ohne SSAA stark steigen, aber die Leistung mit SSAA nur so stark wie auch mehr Rohleistung vorhanden ist.

Das mag sein, aber da Cayman XT einen Cypress XT (OC) gewiss wegballert, wird die HD 6970 die schnellste Karte für Supersampling.

Auch nicht mehr als ohne SSAA. SSAA berechnet schließlich auch nur einzelnen Samples mehrfach.

Ich sehe da durchaus Unterschiede. Sobald MSAA ins Spiel kommt, beginnen andere Teile der Grafikkarte zu limitieren (ROPs, Speicherbandbreite). Mit Supersampling steigt die Last für alle Komponenten gleichermaßen, sodass die Rechenkraft wieder maßgeblich ist. Anders formuliert: Mit SGSSAA werden nicht nur die TMUs besser ausgelastet als mit MSAA.

MfG,
Raff

Menace
2010-11-09, 21:56:41
Aber auf Pro-Kontra-Listen braucht man eben ein paar Punkte und Fanboys argumentieren eben auch gern mit unverzichtbaren Randgruppen-Funktionen. ;)


Ach die Fanboy-Keule. ;D Na bei derartig fundierten Recherchen wie einer Foren-Community. Ich bin froh, dass AMD zumindest an die Randgruppen-Minderheit denkt. Bleibt immer noch der Mehrverbrauch bei 2 ungleichen Monitoren. Gibt bestimmt auch eine Poll dazu, dass die meisten, die 2 Monitore nutzen, zwei identische Monitore besitzen.

Ich schreibe ja niemanden vor, mehr als einen Monitor zu benutzen, allerdings erwarte ich auch nicht von pcgh, dass sie meine Nutzung von mehre Monitoren als Fanboy-Getue abtut.

deekey777
2010-11-09, 21:56:53
Aber ehrlich, ich verstehe nicht wieso AMD nicht mit ein paar Leaks oder Folien antwortet. Dass er "stinkt" glaube ich nicht - sie sind irgendwie wirklich unfähig dazu bzw. sehen nicht wie wichtig das ist. Das macht NV einfach geschickter.
Aus welchem Grund soll AMD irgendwas veröffentlichen? Nur weil alter Wein aus Napa Valley neuen Namen bekam?
Sie haben so gar Folien editiert und die Info über Caymans Tessellator entfernt.

horn 12
2010-11-09, 21:58:10
@Eggcake
Da haste vollkommen Recht, NV ist da einen großen Schritt voraus!

LovesuckZ
2010-11-09, 22:00:06
Wer auf SSAA steht, kauft heutzutage nVidia. Wer SSAA nur für Propaganda missbraucht, der wird weiterhin bei AMD bleiben.
Fehlendes SSAA bei DX1x Anwendungen und Spielen? Ein Nogo.

airbag
2010-11-09, 22:04:12
Alternativ gibt es ja noch Downsampling per PCGH Tool.

Schlammsau
2010-11-09, 22:09:14
Wo AMD auch besser performt.

Raff
2010-11-09, 22:09:15
Ich schreibe ja niemanden vor, mehr als einen Monitor zu benutzen, allerdings erwarte ich auch nicht von pcgh, dass sie meine Nutzung von mehre Monitoren als Fanboy-Getue abtut.

Das war gar nicht gegen dich gerichtet. Du bist aber ein Teil der kleinen Randgruppe. :D

Wer auf SSAA steht, kauft heutzutage nVidia. Wer SSAA nur für Propaganda missbraucht, der wird weiterhin bei AMD bleiben.
Fehlendes SSAA bei DX1x Anwendungen und Spielen? Ein Nogo.

Solange es nur 5 gescheite DX11-Spiele gibt (die auch einen DX9-Pfad bieten) und eine Radeon mehr Bums hat, kann man vortrefflich darüber streiten. Ich (= "SGSSAA-Fanboy" seit dem Jahr 2000 => Voodoo 5) bleibe vorerst bei der HD 5870. Und nun, wer hat "Recht"? GTX 580 + Nachrüstkühler @ 900+ MHz ... hmja, das könnte gefallen. :biggrin:

Wo AMD auch besser performt.

Aus exakt dem gleichen Grund. ;)

MfG,
Raff

Eggcake
2010-11-09, 22:18:33
Aus welchem Grund soll AMD irgendwas veröffentlichen? Nur weil alter Wein aus Napa Valley neuen Namen bekam?
Sie haben so gar Folien editiert und die Info über Caymans Tessellator entfernt.

Weil ich's wissen will! :biggrin:
Naja, das Echo ist bei der 580er schon nicht sonderlich gross, einfach weil's 0 Überraschungen gab. Trotzdem hätte ich zumindest eine kleine Reaktion erwartet, welche der GTX580 den Wind aus den Segeln nehmen würde.

Naja, weiter warten.

horn 12
2010-11-09, 22:27:20
Rechne dennoch dass was kommen wird, nicht Heute aber die nächsten Tage.
HD6870 bei uns in Italien bereits für 179 Euro lieferbar.
Mich juckt es gewaltig in den Fingern, obwohl HD5850 Sapphire besitze @850/1200 aber derzeit nie OC hatte.

Fetza
2010-11-09, 22:36:55
Rechne dennoch dass was kommen wird, nicht Heute aber die nächsten Tage.
HD6870 bei uns in Italien bereits für 179 Euro lieferbar.
Mich juckt es gewaltig in den Fingern, obwohl HD5850 Sapphire besitze @850/1200 aber derzeit nie OC hatte.

Warte leiber auf cayman, alles andere wäre sinnlos für dich, imo.

horn 12
2010-11-09, 23:17:32
AMD cancelt Antilles für dieses Jahr

---> bringt diese Dual GPU Lösung nun erst 2011

Würde aus dem Stehgreif behaupten ein Schlechtes Zeichen für CAYMAN Pro und Cayman XT
oder dennoch positiv zu bewerten, und wäre somit eine HD6970 um einiges schneller als die Heute vorgestellte GTX 580?
----> Rechne aber nicht.:mad::confused:

Gestrandet
2010-11-09, 23:21:16
Das ist natürlich ein gutes Zeichen. Es reicht ihnen doch völlig, wenn sie die schnellste Karte haben. Was sollen sie mit den zwei schnellsten? ;)

VinD
2010-11-09, 23:22:04
AMD cancelt Antilles für dieses Jahr

---> bringt diese Dual GPU Lösung nun erst 2011

Würde aus dem Stehgreif behaupten ein Schlechtes Zeichen für CAYMAN Pro und Cayman XT
oder dennoch positiv zu bewerten, und wäre somit eine HD6970 um einiges schneller als die Heute vorgestellte GTX 580?
----> Rechne aber nicht.:mad::confused:

entweder AMD ist sich sicher das die 6970 dieses Jahr noch reicht, oder sie haben wirklich Probleme. Aber hey das betrifft nur die Dual-Karte :cool:
hoffe für meinen Geldbeutel die bringen was ordentliches raus... ich will meine beiden 4850 in Rente schicken und ohne Preiskampf wird das nichts.

No.3
2010-11-09, 23:22:39
AMD cancelt Antilles für dieses Jahr

---> bringt diese Dual GPU Lösung nun erst 2011

Würde aus dem Stehgreif behaupten ein Schlechtes Zeichen für CAYMAN Pro und Cayman XT
oder dennoch positiv zu bewerten, und wäre somit eine HD6970 um einiges schneller als die Heute vorgestellte GTX 580?
----> Rechne aber nicht.:mad::confused:

wenn Du schon wieder wild am hirnrissigen Rumspekulieren bist:

Cayman XT ist für GTX 580 schnell genug, so dass Antilles noch warten kann

Wünsche Dir eine schlaflose Nacht :rolleyes:

Fetza
2010-11-09, 23:27:35
wenn Du schon wieder wild am hirnrissigen Rumspekulieren bist:

Cayman XT ist für GTX 580 schnell genug, so dass Antilles noch warten kann

Wünsche Dir eine schlaflose Nacht :rolleyes:

Das geht auch netter. :rolleyes:

MaxMax
2010-11-10, 00:38:27
bezüglich SSAA-performance: also cayman XT soll ja so um die >=96 TMU`s und 32 ROPs mit 128 Z-Tests können, das klingt in meinen Augen schon nach mehr leistung als Cypress (80 TMU´s und nur 80 stencil tests oder?) -> daher geh ich davon aus, dass die SSAA leistung bei einer cayman XT GPU steigen anstelle von gleichbleiben wird (sofern der cayman xt takt auch 850mhz sein wird)
desweiteren wird hier von einigen immer noch von den 5D-barts xt-shadern philosophiert und "hochgerechnet", die wohl aber gar nix mit den 4D-VLIW shadern des cayman zu tun haben...ist das nicht unfug?

und der nächste unfug aus meiner sicht: wer braucht SSAA in DX1x spielen für powerpointige slideshow performance? wenn man(n)s widererwarten unbedingt braucht: dann bitte eine NV 580 kaufen -> spätestens nachm 2 slideshow-game vergeht einem dieses "must have feature" IMHO

und AMD hat heute eh auf die gtx 580 geantwortet -> die hd5970 gibts schon ab 389euro...

Ronny145
2010-11-10, 00:52:48
und der nächste unfug aus meiner sicht: wer braucht SSAA in DX1x spielen für powerpointige slideshow performance? wenn man(n)s widererwarten unbedingt braucht: dann bitte eine NV 580 kaufen -> spätestens nachm 2 slideshow-game vergeht einem dieses "must have feature" IMHO


Halte ich für Unsinn. Kommt aufs Spiel und die Auflösung an. Das kann man so pauschal nicht sagen. Wichtig ist die Option zu haben, entscheiden muss letzlich der user.

mboeller
2010-11-10, 07:44:39
desweiteren wird hier von einigen immer noch von den 5D-barts xt-shadern philosophiert und "hochgerechnet", die wohl aber gar nix mit den 4D-VLIW shadern des cayman zu tun haben...ist das nicht unfug?


Hochrechnen kannst du schon, aber ob es was bringt ist eine andere Frage.

zB.:

1120 x 3,5/5 x 900MHz = 705600

1536 x 3,2/4 x 850MHz (geschätzt) = 1044480

=> Cayman hat eine um 48% höhere Shaderleistung als Barts
=> Die HD6870 ist meistens so 5-10% langsamer als eine HD5870 => Die HD6970 wird um ca. 35%-40% schneller sein als die HD5870

Wie gesagt, ob solche Spielchen was bringen ist eine andere Frage. Cayman hat eine neue Architektur! Der Übergang von VLIW5 auf VLIW4 ist bestimmt nicht ohne. Und IMHO das ist nicht die einzige Änderung beim Cayman. "Andere Leute" glauben zwar, das es sich nur um einen simplen Refresh handelt aber damit liegen die aus meiner Sicht völlig falsch. Auf Beyond3D gibt es nicht umsonst schon erste Kommentare zu den "guten" Cayman-Treibern.

Superheld
2010-11-10, 08:32:20
http://www.abload.de/img/1k6gg.png (http://www.abload.de/image.php?img=1k6gg.png)

alt
http://img834.imageshack.us/img834/2281/1287676020vd2xgydp4f14l.gif

Dural
2010-11-10, 09:22:16
jetzt ist es ja schon halb offiziell, wenn die 5970 trotz 6970 und bis zur 6990 weiter geführt wird sagt das schon alles aus!

GTX580 bestellen ;)

Superheld
2010-11-10, 09:27:33
würd schwer sein an die 580 ranzukommen ;)

Botcruscher
2010-11-10, 09:37:28
Das die X2 später kommt war ja eh klar. Jetzt wird es eben endgültig nächstes Jahr. Und natürlich wird die 5970, trotz 6970, bis zur 6990 weitergeführt. Das ist schlicht eine Produktübersicht und keine andere X2 Karte bis dahin verfügbar. Ob die Karte sinnfrei wird hat damit nichts zu tun. Kein Marketingheini würde für einen Monat das Slide ändern und die Karte offiziell streichen. Sagt alles aus bedeutet daher sagt absolut nichts aus.

deekey777
2010-11-10, 09:48:13
jetzt ist es ja schon halb offiziell, wenn die 5970 trotz 6970 und bis zur 6990 weiter geführt wird sagt das schon alles aus!

GTX580 bestellen ;)
Was genau sagt das aus?

tombman
2010-11-10, 10:00:19
http://www.abload.de/img/1k6gg.png (http://www.abload.de/image.php?img=1k6gg.png)

alt
http://img834.imageshack.us/img834/2281/1287676020vd2xgydp4f14l.gif
Hmm, also auch in der neuen Map die 6970 klar unter der 5970- damit dürfte NV mit der 580er schon wieder gewonnen haben, denn die hat praktisch 5970 Niveau...

Reaping_Ant
2010-11-10, 10:00:51
und der nächste unfug aus meiner sicht: wer braucht SSAA in DX1x spielen für powerpointige slideshow performance? wenn man(n)s widererwarten unbedingt braucht: dann bitte eine NV 580 kaufen -> spätestens nachm 2 slideshow-game vergeht einem dieses "must have feature" IMHO

Wie Ronny145 schon sagte, kommt das auch auf die Auflösung an. Ich zocke z.B. gerne auf meinem Beamer, der nur 720p kann. Da ist SGSSAA dann auch bei DX10 und 11 Spielen eine durchaus sinnvolle (gerade wegen der niedrigen Auflösung) Ergänzung. Und 4x SGSSAA bei 720p ist mit einer aktuellen High-End Karte locker drin.

Dural
2010-11-10, 10:05:36
Was genau sagt das aus?

Hmm, also auch in der neuen Map die 6970 klar unter der 5970- damit dürfte NV mit der 580er schon wieder gewonnen haben, denn die hat praktisch 5970 Niveau...

+ die 5970 bleibt im Verkauf = 6970 kommt nicht an die 5970 ran

so schwer zu verstehen ist das ja nicht, oder?

GTX580 ist praktisch = 5970...

zudem hat AMD mit der verschiebung ja schon fast bestätigt das es probleme mit dem Cayman gibt, nicht vergessen die 6990 sollte ursprünglich gleich hinter 6970 kommen... zu wenig gute Chips für eine Dual Karte?! ;)

tombman
2010-11-10, 10:09:35
Selbst wenn die rankommt-> damit bleiben Fermi und Cayman innerhalb von 10% Schlagdistanz von einander -> was NV wieder zum Sieger macht
(durch die bekannten Punkte wie HQAF, SLI, Phys-X/Cuda, Dev-Rel ;))

Dural
2010-11-10, 10:13:02
übrignens schon aufgefallen das der abstand von 5970 zur 6970 grösser wurde, aber der abstand von 6970 zur 6990 kleiner als noch in der ersten "version" ??? liegt ja vielleicht an zu wenig platz auf dem papier, wer weis schon ;)

Neocroth
2010-11-10, 10:25:25
bleibt die Frage ob AMD mit 100% CF Skalierung rechnet oder nicht

derguru
2010-11-10, 10:41:12
für folien 100% ,wieso sollte der abstand zwischen 5770 und 5870 sonst kleiner sein als von 5870 zur 5970.

mrt
2010-11-10, 10:44:31
Was ihr alles auch Marketingfolien rauslesen wollt... Die Einteilung geschieht wohl nach Makrsegmenten und das eine 6970 nicht im gleichen Segment wie die HD5970 ist, überrascht mich ja nicht sonderlich.

igg
2010-11-10, 10:54:54
Die Einteilung geschieht wohl nach Makrsegmenten und das eine 6970 nicht im gleichen Segment wie die HD5970 ist, überrascht mich ja nicht sonderlich.
Naja, die y-Achse ist relativ eindeutig mit "Performance" betitelt.

Gestrandet
2010-11-10, 11:11:52
Aber ohne Skaleneinteilung.

Lowkey
2010-11-10, 11:12:18
Auf der Folie ist aber nach oben hin kein Platz mehr und muss ja die Symetrie zu den alten Karten bewahren. Ergo abwarten....

deekey777
2010-11-10, 11:17:44
+ die 5970 bleibt im Verkauf = 6970 kommt nicht an die 5970 ran

so schwer zu verstehen ist das ja nicht, oder?

GTX580 ist praktisch = 5970...

zudem hat AMD mit der verschiebung ja schon fast bestätigt das es probleme mit dem Cayman gibt, nicht vergessen die 6990 sollte ursprünglich gleich hinter 6970 kommen... zu wenig gute Chips für eine Dual Karte?! ;)
Ich habe dich was gefragt und nicht tombman (der übrigens nach mir gepostet hat).
Nochmal: Was sagt diese Folie so alles?

Von welcher Verschiebung und welchen Problemen laberst du da?

Auf der Folie ist aber nach oben hin kein Platz mehr und muss ja die Symetrie zu den alten Karten bewahren. Ergo abwarten....
+ Man wollte keine schrägen Pfeile.

Aber es ist schon ziemlich interessant zu sehen, wie sich gewisse Leute hier aufgeilen. Insbesondere die, die gern anderen unterstellen, sie hätten von nix 'ne Ahnung. Nur paar Seiten zurück gibt es mehrere Postings, die sagen, dass Cayman nicht viel schneller als Cypress sein wird, insbesondere nach dem Screenshot mit 24 Cores. Wie zum Geier kommen dann einige Leute auf die Idee, Cayman soll den Hemlock schlagen?

Menace
2010-11-10, 12:48:21
Naja, die Folie ist eindeutige Wissenschaft, deshalb findet man auch nirgendwo ein Wort von "Schätzungen". :freak:

svenw
2010-11-10, 12:57:50
+ die 5970 bleibt im Verkauf = 6970 kommt nicht an die 5970 ran

so schwer zu verstehen ist das ja nicht, oder?

GTX580 ist praktisch = 5970...
Selbst wenn es so kommt (was ich damit nicht sage), ist die große Frage was die wirtschaftlich bessere Entscheidung ist. Eine 6970 10-15% unter 580 aber im Preisbereich von ca. 350-380€ könnte sich wirtschaftlich mehr lohnen als eine 580 bei 480€. Bei der Effizienz der AMD Karten wäre dann auch eine 6990 möglich ohne das die Verlustleistung durch die Decke geht. Damit würde man den Schwan..... ehhh :biggrin:Balkenvergleich verlieren aber mehr verkaufen und am Ende mehr Knete machen. Denn zwischen den ca. 200€ von 6870/460 und den 480 der 580€ ist ein riesen (Finanz-)Loch.

mironicus
2010-11-10, 13:22:38
Preislich dürften die 6900er auch nicht so weit über den 6800er liegen weil sonst ein zu großer Abstand entstehen würde, und dann kommt NVidia wieder und füllt die Lücke. :D

Wenn die 6950 nur mit 1 GB kommt aber schon 10-15 % schneller als die 5870 ist wäre ein Preis von ca. 250-270 Euro in Ordnung. Die 6970 mit 2 GB dann für 330-350 Euro. Der Preis der GTX 580 fällt dann auch wohl locker um 100 Euro innerhalb der nächsten 3-4 Wochen. :D

Natürlich alles reine Spekulation.

AnarchX
2010-11-10, 13:55:52
Wie zum Geier kommen dann einige Leute auf die Idee, Cayman soll den Hemlock schlagen?

1x 480 ALUs @ 900MHz 100%
2x 320 ALUs @ 725MHz 107%

I am happy porter, turn the ZGC
Cayman has 1920SP, 30 个 SIMD Core, and will not be postponed for sale. The official conference for this week
http://www.chiphell.com/thread-137198-1-1.html

Botcruscher
2010-11-10, 14:11:47
Bei 1920SP kann man sich die ganze Folienspeku sparen. Die 15XX kommen dann für eine Abspeckversion ala 5830.

AnarchX
2010-11-10, 14:13:51
Bei 1920SP kann man sich die ganze Folienspeku sparen. Die 15XX kommen dann für eine Abspeckversion ala 5830.
Wie gesagt, waren das nur ES.

Wobei auch Cayman Pro 1536SPs haben könnte, wenn der Kerntakt ~95% von Cayman XT beträgt. So könnte man das gleiche Verhältnis wie bei 5850 und 5870 erreichen.

mboeller
2010-11-10, 15:01:20
1x 480 ALUs @ 900MHz 100%
2x 320 ALUs @ 725MHz 107%


http://www.chiphell.com/thread-137198-1-1.html

IMHO eine seltsame Rechnung

Crossfire erreicht nie eine 100% Skalierung. Meistens sind es (aus dem Gedächtnis, ohne Gewähr) so 70-80% (also im Mittel +75%) und manchmal auch 0%


Also wenn schon rechnen, dann so:

480 x 4 x 3,2/4 x 900MHz = 1382400

320 x 5 x 3,5/5 x 725MHz x 1,75 CF-Skalierung = 1421000

Cayman @ 900MHz hat also 2,5% weniger Leistung als eine HD5970

Das ganze stimmt aber so IMHO auch wieder nicht, weil ja schon Barts (ohne die ganzen Probleme der HD5870) mit nur 74% der ALU-Leistung 90%-95% der Performance der HD5870 erreicht.

mironicus
2010-11-10, 15:04:43
Cayman @ 900MHz hat also ~20% mehr Leistung als eine HD5970

Bloß nicht! Dann wird die teurer als die GTX 580! :D

Gipsel
2010-11-10, 15:04:59
Also wenn schon rechnen, dann so:

480 x 3,2/4 x 900MHz = 345600

320 x 3,5/5 x 725MHz x 1,75 CF-Skalierung = 284200

Cayman @ 900MHz hat also ~20% mehr Leistung als eine HD5970
Arithmetische Leistung. Wenn man die ROPs, TMUs, Speicherbandbreite usw. mit einbezieht, sieht es schon wieder ganz anders aus.

Außerdem mußt Du wenn schon dann so rechnen:

480 x 3,2/4 x 900MHz = 345600 1382400

320 x 3,5/5 x 725MHz x 1,75 CF-Skalierung = 284200 1421000

Dann liegt Cayman also auch bei der effektiv verfügbaren arithmetischen Leistung knapp hinten.

mboeller
2010-11-10, 15:10:56
Arithmetische Leistung. Wenn man die ROPs, TMUs, Speicherbandbreite usw. mit einbezieht, sieht es schon wieder ganz anders aus.

Außerdem mußt Du wenn schon dann so rechnen:

480 x 3,2/4 x 900MHz = 345600 1382400

320 x 3,5/5 x 725MHz x 1,75 CF-Skalierung = 284200 1421000

Dann liegt Cayman also auch bei der effektiv verfügbaren arithmetischen Leistung knapp hinten.

Habs schon bemerkt und geändert. Waren wir beide wohl fast gleichzeitig dran

mironicus
2010-11-10, 15:29:43
Laut neuestem Gerücht kommt Cayman am 29. November.
http://www.fudzilla.com/graphics/item/20812-cayman-hd-6970-to-launch-november-29th

john carmack
2010-11-10, 15:35:23
IMHO eine seltsame Rechnung

Crossfire erreicht nie eine 100% Skalierung. Meistens sind es (aus dem Gedächtnis, ohne Gewähr) so 70-80% (also im Mittel +75%) und manchmal auch 0%


Also wenn schon rechnen, dann so:

480 x 4 x 3,2/4 x 900MHz = 1382400

320 x 5 x 3,5/5 x 725MHz x 1,75 CF-Skalierung = 1421000

Cayman @ 900MHz hat also 2,5% weniger Leistung als eine HD5970

Das ganze stimmt aber so IMHO auch wieder nicht, weil ja schon Barts (ohne die ganzen Probleme der HD5870) mit nur 74% der ALU-Leistung 90%-95% der Performance der HD5870 erreicht.



Hat die 5870 nicht auch in etwa die Leistung einer 4870 X2 ?

OgrEGT
2010-11-10, 16:29:46
Hmm, also auch in der neuen Map die 6970 klar unter der 5970- damit dürfte NV mit der 580er schon wieder gewonnen haben, denn die hat praktisch 5970 Niveau...

Das praktische GTX580=HD5970 Niveau heißt laut Ht4u Performancerating:
(Zitat: Der HT4U.net Performance-Index repräsentiert in einer einfachen Übersicht den kompletten Benchmark-Parcours des vorangehenden Artikels. (...))

Performance gesamt:
GTX580 = 100%
HD5970 = 106%

Performance AA+AF:
GTX580 = 100%
HD5970 = 109%

Performance ohne AA+AF:
GTX580 = 100%
HD5970 = 109%

Somit ist auch eine HD5970 insgesamt noch immer signifikant leistungsmäßig vor der GTX580. Es ist nicht unbedingt das Top Ziel für Cayman, die HD5970 zu schlagen, sondern im Bezug auf Perf/mm2 und Perf/W bei ähnlicher Perf wie GTX580, wobei ich ebenfalls spekuliere, dass Cayman XT (mit 1920 4D VLIWs) leicht schneller sein wird als die GTX580, und vielleicht gerade so schnell wie die HD5970 (best case).

Annahme: zumindest vergleichbare Effizienz bzgl der Ausnutzung der vorhandenen Shadereinheiten bzgl. Perf von Cayman = Barts (wobei diese tendentiell noch besser sein könnte auf Grundlage weiterer Architekturverbesserungen) und 80%-iger Skalierung (Verhältnis Cypress XT 1600 zu Juniper 800 84.5%) durch weitere Shadereinheiten (höherer Verwaltungsaufwand)

HD6870 = 100%
HD5970 = 145% (gem Ht4u)
Cayman XT (1920) = 1920/1120 * 0.8 * 100% = 137% (tendentiell max 5% besser)
GTX 580 = 133% (gem Ht4u)
GTX 480 = 118% (gem Ht4u)
Cayman Pro (1536) = 110% (tendentiell max 5% besser)

Iruwen
2010-11-10, 16:47:24
Signifikant, naja. 10% sind bei gerade noch spielbaren 30FPS 3FPS, und bei MGPU kann man nicht die reine Balkenlänge vergleichen, gerade in den relevanten niedrigen FPS-Bereichen stören die Mikroruckler.

OgrEGT
2010-11-10, 16:54:31
Signifikant, naja. 10% sind bei gerade noch spielbaren 30FPS 3FPS, und bei MGPU kann man nicht die reine Balkenlänge vergleichen, gerade in den relevanten niedrigen FPS-Bereichen stören die Mikroruckler.

Vollkommen d'accord.

Edit:
Ob 10% statistisch signifikant sind in diesem Fall weiß ich nicht, würde es aber vermuten.

Edit2:
Zumindest aber ähnlich signifikant wie GTX480-GTX580 mit +13%.

dildo4u
2010-11-10, 17:10:12
In dieser Leistungsklasse läuft eh alles unter DX9 flüssig,DX11 Leistung ist wichtiger und dort ist GTX 580=5970.

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/21/#abschnitt_performancerating_nach_api

OgrEGT
2010-11-10, 17:18:14
In dieser Leistungsklasse läuft eh alles unter DX9 flüssig,DX11 Leistung ist wichtiger und dort ist GTX 580=5970.

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/21/#abschnitt_performancerating_nach_api

OK. Bei Ht4u ist diese Tendenz auch festzustellen. Wobei aber DX11 only Geschmacksache ist. Korrekter finde ich den gesamten Querschnitt zu vergleichen. Je nachdem welche Spiele man gerne spielt, ist für den Einzelnen DX9/DX10 wichtiger als DX11 only.

Nakai
2010-11-10, 17:23:14
Dann sind wohl die 24 SIMDs für Cayman PRO vorgesehen.

Naja AMD wird Cayman wohl direkt gegen die GTX580 setzen, wenns so kommt. Damit wäre man wieder bei der Situation wie beim G71 vs. R580. Nur dass wohl vieles nun umgedreht ist. Cayman könnte weniger verbrauchen und hat wohl ne schlechtere Texturqualität.

Für BQ-Fetischisten sind ja die neuesten Entwicklungen von AMD/ATI ja ein Graus. Selbst der treueste ATI-Anhänger wird da wohl ziemlich enttäuscht und sauer auf AMD sein...siehe auch die neuesten Kommentare von Magazinen dazu.
Da hat man den Bogen maßlos überspannt...

Letzten Hoffnung ist da eher noch Cayman.


mfg

S940
2010-11-10, 17:54:54
Für BQ-Fetischisten sind ja die neuesten Entwicklungen von AMD/ATI ja ein Graus. Selbst der treueste ATI-Anhänger wird da wohl ziemlich enttäuscht und sauer auf AMD sein...siehe auch die neuesten Kommentare von Magazinen dazu.
Hmm, was genau meinst DU ? Die Treibergeschichte ? Unschön, aber solange man es noch auf die höchste Stufe einstellen kann, und die (besseren) Magazine das auch so Benchen, hab ich kein Problem damit. Da gibts/gabs schon weit Schlimmeres.

Ronny145
2010-11-10, 18:15:52
Hmm, was genau meinst DU ? Die Treibergeschichte ? Unschön, aber solange man es noch auf die höchste Stufe einstellen kann, und die (besseren) Magazine das auch so Benchen, hab ich kein Problem damit. Da gibts/gabs schon weit Schlimmeres.


Wohl die Filterqualität im Allgemeinen und die fehlenden Features zu Nvidia.

OgrEGT
2010-11-10, 18:25:48
Wohl die Filterqualität im Allgemeinen und die fehlenden Features zu Nvidia.

Bei der Filterqualität bin ich mal optimistisch und hoffe, dass durch die überarbeiteten TMUs zu NV aufgeschlossen werden kann.

PhysX könnte man auch mit einer kleinen NV Karte separat realisieren.
Für Spielerzwecke allein ist CUDA mMn sonst nicht wirklich relevant.

Ronny145
2010-11-10, 18:38:46
Bei der Filterqualität bin ich mal optimistisch und hoffe, dass durch die überarbeiteten TMUs zu NV aufgeschlossen werden kann.

PhysX könnte man auch mit einer kleinen NV Karte separat realisieren.
Für Spielerzwecke allein ist CUDA mMn sonst nicht wirklich relevant.

Mit SSAA unter DX1x wirds schwer. Win 7 Downsampling womöglich auch. Durchaus Features die für ambitionierte gamer und BQ-Fetischisten interessant wären. Erst recht für Karten dieses Kalibers.

Vento
2010-11-10, 18:52:40
Das praktische GTX580=HD5970 Niveau heißt laut Ht4u Performancerating:
(Zitat: Der HT4U.net Performance-Index repräsentiert in einer einfachen Übersicht den kompletten Benchmark-Parcours des vorangehenden Artikels. (...))

Performance gesamt:
GTX580 = 100%
HD5970 = 106%

Performance AA+AF:
GTX580 = 100%
HD5970 = 109%

Performance ohne AA+AF:
GTX580 = 100%
HD5970 = 109%

Somit ist auch eine HD5970 insgesamt noch immer signifikant leistungsmäßig vor der GTX580.


Der "Performance-Index – Gesamt" bei ht4u ist letztendlich wenig repräsentativ für Karten dieses Kalibers.
Dort fließen Auflösungen und Settings mit ein die niemand nutzen wird der sich derartige Karten kauft.
Ich nutze selber eine 480er AMP @ 850/1700/1980, also in etwa im Performancebereich einer 580er Stock und die Regel sind bei mir 2560x1600 8xAA/8xQ/16AF, wenn möglich auch SGSSAA und noch häufiger Downsampling, in Ausnahmefällen auch nur 4xAA/16AF und dort sieht das schon ganz anders aus.
Ich bezweifle das Käufer einer GTX580 unterhalb von 1920x1200 agieren, Quality Filtering wird ebenfalls rein geklatscht so weit es die Anwendung zulässt, SGSSAA und ganz besonders Downsampling gehören da ebenfalls zum guten Ton, 16HQ AF sind Standard und nicht die Ausnahme wie beim ht4u Performance Index.
Das sind letztendlich die Auflösungen und Settings die relevant sind und nicht ein Mix aus 1280x1024, 1680x1050, 1920x1200 AA-Modi: 0xAA, 4xAA, 8xAA AF-Modi: 0xAF, 16xAF wie beim ht4u Performance-Index.

http://s3.directupload.net/images/101110/guw4wvdv.jpg (http://www.directupload.net)

http://s5.directupload.net/images/101110/9j7renjw.jpg (http://www.directupload.net)

Spasstiger
2010-11-10, 19:01:58
@Vento: Die von dir aufgeführten Ratings werden von zwei Einzelbenchmarks verzerrt, in denen die HD 5970 aufgrund von VRAM-Mangel auf 2 fps einbricht. Die HD 5970 gibts auch mit 2*2 GiB. Die wäre in den Ratings schneller als die GTX 580, auch mit den normalen Taktraten einer HD 5970.

Vento
2010-11-10, 19:05:29
Ja, das ist gut möglich, kostet aber auch ein Vielfaches mit 2*2 GiB.
Dann frage ich mich allerdings warum man eine Karte die man vor allem in sehr hohen Auflösungen einsetzt überhaupt mit so wenig VRAM anbietet.
Wofür eine Dual GPU Monster Karte wenn ihr in einzelnen Anwendungen schon bei 2560x1600 4xAA die Puste ausgeht.
Das sind letztendlich Auflösungen und auch höher via Downsampling die Relevanz besitzen für potentielle GTX580 Klientel und nicht praxisfremde Auflösungen und Settings wie 1280x1024, 1680x1050 und 1xAA/0xAF die bei ht4u das Rating maßgeblich mitbestimmen.

dildo4u
2010-11-10, 19:06:53
@Vento: Die von dir aufgeführten Ratings werden von zwei Einzelbenchmarks verzerrt, in denen die HD 5970 aufgrund von VRAM-Mangel auf 2 fps einbricht. Die HD 5970 gibts auch mit 2*2 GiB. Die wäre in den Ratings schneller als die GTX 580, auch mit den normalen Taktraten einer HD 5970.
Eine 5970 mit 4GB liegt aber bei 800€ dafür gibt fast zwei GTX580.

http://geizhals.at/deutschland/?cat=gra16_512&xf=132_2048~1440_HD+5970

Spasstiger
2010-11-10, 19:23:32
Das sind letztendlich Auflösungen und auch höher via Downsampling die Relevanz besitzen
Ob 19 fps auf einer GTX 580 so relevant für den High-End-Käufer sind, ist die andere Frage: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/11/#abschnitt_crysis_warhead.

Eine 5970 mit 4GB liegt aber bei 800€ dafür gibt fast zwei GTX580.

http://geizhals.at/deutschland/?cat=gra16_512&xf=132_2048~1440_HD+5970
Das sind Sondereditionen mit modifizierter Kühlung und stark angehobenen Taktraten. Aber ok, da es keine anderen Varianten mit 2*2 GiB gibt, muss man die halt ranziehen.

Solange der VRAM ausreicht, liefert die HD 5970 bei hohen Auflösungen/Downsampling/SSAA höhere Durchschnittsframeraten als die GTX 580. Aber alles in allem würde ich auch die GTX 580 vorziehen. Die HD 5970 ist eher für Computing interessant, weil sie vor allem im Integer-Bereich ungeschlagen ist.

Vento
2010-11-10, 19:27:59
Ob 19 fps auf einer GTX 580 so relevant für den High-End-Käufer sind, ist die andere Frage: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/11/#abschnitt_crysis_warhead.


Jo, gibt ja auch in heutiger Zeit, wo fast alles Multiplattform ist, nur Spiele mit dem Hardwarebedarf eines Crysis oder Metro..:facepalm:
Mit deiner Begründung ist es also ein Griff ins Klo wenn man sich eine HD6850 für ein 22 Zoll Monitor kauft, hat ja nur 25FPS in 1680x1050 4xAA/16AF bei Crysis.

airbag
2010-11-10, 19:29:49
@Spasstiger

Die HD5970 bricht schon bei kleiner 8*MSAA ein, wenn man sich die Werte ansieht. Vor allem weil es Durchschnittswerte sind, kann man davon ausgehen, dass es leicht verzerrt wird.

Spasstiger
2010-11-10, 19:34:54
Jo, gibt ja auch in heutiger Zeit, wo fast alles Multiplattform ist, nur Spiele mit dem Hardwarebedarf eines Crysis oder Metro..:facepalm:
Den Facepalm geb ich zurück, denn es geht ja um Titel, wo 1 GiB VRAM nicht ausreichend sind und nicht um Titel, in denen eine HD 5970 in allen Auflösungen Kreise um die GTX 580 zieht. :D

Dural
2010-11-10, 19:40:41
ach lasst doch den ganzen DX9 kram sein, interessiert doch kein mensch, erst recht nicht ein high-end user der 450.- Euro plus für eine Karte ausgibt...

Mir soll hier keiner weismachen das er sich so eine Karte für mehrheitliches DX9 zocken kauft...

der will auch high-end zocken, also DX11 und da ist die 580 sogar leicht schneller als 5970 und das erst noch ohne Microruckler.

und das sich das in zukunft dank mächtiger Geometrie und Tesselations Power bei der 580 sehr wahrscheinlich sogar noch etwas ausbauen wird, dürfte auch klar sein.

airbag
2010-11-10, 19:41:06
In 2560*1600 mit 2*MSAA und mehr gibt es einige Titel(10 oder etwas mehr ohne Mods) bei denen es nicht reicht.

Vento
2010-11-10, 19:41:47
Den Facepalm geb ich zurück, denn es geht ja um Titel, wo 1 GiB VRAM nicht ausreichend sind und nicht um Titel, in denen eine HD 5970 in allen Auflösungen Kreise um die GTX 580 zieht. :D

Bei 2560x1600 8xAA/16AF gibt es aber auch durchaus Fälle wo es bei einer 480er/580er locker reicht und bei einer HD5970 vorne und hinten nicht mehr ausreicht, siehe Splinter Cell: Conviction und selbst bei 2560x1600 4xAA/16AF verliert die HD5970 schon überdurchschnittlich an Boden, für 22 Zoll wird man sich so eine Karte wohl kaum kaufen.
Speziell bei DX9 Titeln die kein AA anbieten wird auch immer mal wieder mit Downsampling gearbeitet, auch da hat man dann theoretisch das VRAM Handicap, wobei Downsampling @ DX9 + aktuelles Betriebsystem gibts ja eh nicht bei einer HD5970.:)
Mir ging es auch nicht ums VRAM Handicap einer HD5970, sondern darum das für Grafikkarten der Kategorie einer GTX580/HD5970 Settings wie 1280x1024, 1680x1050 ohne AF und AA völlig praxisfremd sind.
Dort zählen in der Breite aller Anwendungen vor allem die hohen Auflösungen und hohen Quality Filtering Settings.
Interessant wäre da also ein Benchmarkparcourt in Auflösungen von 1920x1080 bis 2560x1600 mit je nach Anwendung so hohen Quality Filtering Settings (bei Nvidia @ DX9 in manchen Spielen auch sehr hohen Downsampling Auflösungen) das es noch durchweg flüssig bleibt, dass entspricht dann der Praxis solcher Karten.

Mal ganz davon abgesehen kann man in meinen Augen eine Single GPU auch nicht mit einer Multi-GPU vergleichen, ich hatte selber vor meiner 480er AMP ein 8800GTX SLI und der Unterschied in der gefühlten Smoothness im FPS Grenzbereich ist signifikant, man benötigt für Multi-GPU und das ist auch bei einer HD5970 dank Alternate Frame Rendering nicht anders einen FPS Puffer, das Spielen mit einer Single GPU fühlt sich im erweiterten Grenzbereich < 40fps noch vollkommen flüssig an wo es bei Multi-GPU häufig schon merklich unrund wird.
Die Multi-GPU Nachteile, die ja nicht nur aus Mikrorucklern bestehen, nimmt man nur in Kauf wenn man seine Leitung gegenüber einer Single GPU deutlich erhöhen kann, aber nicht wenn man eine vergleichbar leistungsstarke Single GPU bekommt.
Alleine schon von daher ist die Rechnung, die OgrEGT auf Basis der für derartig leistungsstarke Grafikkarten praxisfremden ht4u Ratings aufmacht, eine Milchmädchenrechnungen.

R.I.P.
2010-11-10, 20:01:23
Die Gerüchteküche brodelt weiter: 6970 scheinbar erst Ende der Woche mit finalen Taktraten; man wird diese erst dann den Boardpartnern übermitteln. Damit hat man bis jetzt nach dem Launch der 580iger gewartet, um scheinbar darauf reagieren zu können und um vielleicht diese zu übertrumpfen??

Lauch scheinbar eine weitere Woche verzögert: 29 November; wir werden sehen....:biggrin:

Botcruscher
2010-11-10, 20:11:15
Mir soll hier keiner weismachen das er sich so eine Karte für mehrheitliches DX9 zocken kauft...

Das nennt sich dann Konsolenumsetzung womit wir die Mehrheit hätten. Fallout 3 NV dürfte der neuste Kandidat sein. DX9 wird uns noch lange begleiten.

Superheld
2010-11-10, 20:17:15
6970 scheinbar erst Ende der Woche mit finalen Taktraten..bla blub

50mhz mehr wie bei der 6870 ?:eek:

PulsarS
2010-11-10, 20:29:50
ach lasst doch den ganzen DX9 kram sein, interessiert doch kein mensch, erst recht nicht ein high-end user der 450.- Euro plus für eine Karte ausgibt...

Mir soll hier keiner weismachen das er sich so eine Karte für mehrheitliches DX9 zocken kauft...

der will auch high-end zocken, also DX11

Realitätsverlust?
Was bringt dir dein Wollen, wenn die meisten Spiele, die auf den Markt kommen noch immer DX9 sind?
DX1x ist eher die Ausnahme!
So tot wie du es gerne haben würdest, ist DX9 noch lange nicht. :tongue:
Konsolen sei dank. ;)
Und das wird auch noch eine Weile so bleiben.

Undertaker
2010-11-10, 20:33:56
Ich vermute mal es geht eher um die Performance, die in DX9 Spielen auf einer Karte der Leistungfähigkeit von Cayman wohl außerhalb kritischer Bereiche liegen sollte. Da ist im Regelfall sogar locker SSAA drin. ;)

dildo4u
2010-11-10, 20:33:59
Realitätsverlust?
Was bringt dir dein Wollen, wenn die meisten Spiele, die auf den Markt kommen noch immer DX9 sind?
DX1x ist eher die Ausnahme!
So tot wie du es gerne haben würdest, ist DX9 noch lange nicht. :tongue:
Konsolen sei dank. ;)
Und das wird auch noch eine Weile so bleiben.
Dafür braucht man keine GTX 580 oder 6970 das ist der Punkt.

PulsarS
2010-11-10, 20:36:06
Dafür braucht man keine GTX 580 oder 6970 das ist der Punkt.
Ist aber an der Realität (was der Markt hergibt) vorbei. Punkt.
Oder willst du nur DX1x Spiele zocken, auch wenn es bessere DX9-Spiele gibt? :rolleyes:
Dann dürftest du jede Menge gute Spiel verpassen. :tongue:

Botcruscher
2010-11-10, 20:39:20
Dafür braucht man keine GTX 580 oder 6970 das ist der Punkt.

Mit Texturmods und ordentlich AA schon.

Vento
2010-11-10, 20:41:58
Dafür braucht man keine GTX 580 oder 6970 das ist der Punkt.


Die kauft man sich ja auch nicht für DX9 oder DX10 oder DX11, sondern für die Gesamtheit aller Spiele, um diese dann in sehr hohen Auflösungen mit möglichst hohen Quality Filtering Settings zu spielen.
Ich hab mir meine 480er AMP auch nicht explizit für DX11 Spiele gekauft, sondern um möglichst viele Spiele in sehr hohen Auflösungen möglichst hochwertig filtern zu können, DX11 ist da nur ein Teilaspekt und nur deshalb, b.z.w. nur weil eine Karte besonders performant in DX11 ist kauft man sich so eine Karte sicherlich nicht.
Der Anteil an DX11 Titeln ist dafür viel zu gering.
Das ist vielleicht kaufentscheidend wenn zwei vergleichbare Karten zur Auswahl stehen und Karte A hat mehr DX11 Potential als Karte B, aber die Hauptintention bei solchen Karten ist das man die Leistung für sehr hohe Auflösungen und Filter Settings benötigt.

Schlammsau
2010-11-10, 21:05:28
Leute Leute, noch heute werden mehr DX9 Games releeased als DX10 und DX11 zusammen.
Und da wird sich bis die neue Konsolengeneration erscheint, auch leider nicht viel ändern.

Superheld
2010-11-10, 21:09:00
und das heißt ?

meine 8800gt reicht :tongue:

Schlammsau
2010-11-10, 21:12:04
Naja, ne 8800GT ist mittlerweile doch recht ...... angestaubt.

Superheld
2010-11-10, 21:22:44
für Crysis2 würds vllt Zeit aufzurüsten wenn Tesselation eingesetzt würd usw .. will ja alles sehen :)

Coda
2010-11-10, 21:38:57
Crysis 2 wird möglicherweise eh nur D3D9 unterstützen

deekey777
2010-11-10, 21:45:30
Crysis 2 wird möglicherweise eh nur D3D9 unterstützen
Auch wenn ich den Artikel, dass C2 für GTX580 re-designed wird, für Blabla halte, so glaube ich kaum, dass kein IHV C2 für sein Marketing nutzen wird und Geld in das Spiel pumpt, so dass wenigstens angepflanztes DX11 dabei sein wird (mit runden Schreibmaschinen und so).

PulsarS
2010-11-10, 21:51:40
Mit Texturmods und ordentlich AA schon.
Dafür braucht man nicht unbedingt Texturmods.
Die kosten kaum Performance, sondern "nur" V-RAM.
Es gibt aber genügend Beispiele bei D3D9-Games (DX9 wäre mir lieber, auch wenn es nicht korrekt ist), dass selbst D3D9 reicht, um eine GTX580 oder eine 5970 zu plätten.
Auf die Schnelle fällt mir Risen ein.
Bei 30"-Auflösung (2560x1600) und (SG)SSAA wird selbst eine GTX580 auf dem Zahnfleisch kriechen.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-460/9/#abschnitt_risen

@ Coda
das wäre aber erbärmlich.
Von Crytek erwarte ich einfach mehr.
Die werden schon noch was mit D3D11 nachschieben. ;)

horn 12
2010-11-10, 22:02:39
Chipshell bestätigt nun:
HD6970 1920 Steamproc.
HD6950 1536 Steamproc.

Chris2CB
2010-11-10, 22:09:24
Chipshell bestätigt nun:
HD6970 1920 Steamproc.
HD6950 1536 Steamproc.


Was sich per google translate auf Chiphell so liest: neue Komponenten aus der Patsche seit 6900 vertagt bis zum Ende Radeon HD :freak:

Superheld
2010-11-10, 22:17:55
naja erstmal Benchmarks abwarten :cool:

_flx
2010-11-10, 22:30:08
wat? ;D

Superheld
2010-11-10, 22:34:38
die Dinger mit den Zahlen ;)

airbag
2010-11-10, 22:37:40
Du meinst Balken. ----------> :D

C.D.B.
2010-11-10, 22:37:51
Chipshell bestätigt nun:
HD6970 1920 Steamproc.
HD6950 1536 Steamproc.

Na also! Es geht doch! Nach so vielen langen Jahren erklimmt ATI AMD nach dem R580 endlich wieder die Performence-Krone. (Dual-GPU-zeugs zählt nicht wirklich)

Hatte schon befürchtet, das AMD den Cayman-XT zu sehr auf "Green" schustert. Ist zum Glück wohl nicht der Fall. Das R600-Jammertal ist endlich überwunden. =)

AwesomeSauce
2010-11-10, 22:51:53
Bisschen verfrüht, deine Reaktion, meinst du nicht? Zumal das Gerücht von Chiphell nur eines von vielen ist...

_flx
2010-11-10, 22:53:11
Oder man stürzt gerade wieder rein - noch ist der Chip nicht veröffentlicht. Man erinnere sich an Dezember 2006 - da sollte der ALLMIGHTY-R600 auch alles was nV zu bieten hat an die Wand fahren ;)

airbag
2010-11-10, 22:55:44
Oder man stürzt gerade wieder rein - noch ist der Chip nicht veröffentlicht. Man erinnere sich an Dezember 2006 - da sollte der ALLMIGHTY-R600 auch alles was nV zu bieten hat an die Wand fahren ;)
Kann man nicht vegleichen. Immerhin kann man davon ausgehen, dass Cayman GF110 schlagen könnte, aber nicht signifikant.

Superheld
2010-11-11, 00:01:23
und würdet ihr zu Caymen greifen auch wenn alles so bleibt wie bei Bart(s)Simpson (außer schneller)?

C.D.B.
2010-11-11, 00:09:14
und würdet ihr zu Caymen greifen auch wenn alles so bleibt wie bei Bart(s)Simpson (außer schneller)?

Hinge entscheidend vom Preis ab! ;)

Mancko
2010-11-11, 00:27:55
Realitätsverlust?
Was bringt dir dein Wollen, wenn die meisten Spiele, die auf den Markt kommen noch immer DX9 sind?
DX1x ist eher die Ausnahme!
So tot wie du es gerne haben würdest, ist DX9 noch lange nicht. :tongue:
Konsolen sei dank. ;)
Und das wird auch noch eine Weile so bleiben.

Trotzdem mehr oder minder nicht wirklich relevant da eigentlich jede der High End Karten dafür heute schnell genug ist. Wer sich ne 580 kauft, dann weil er bei kommenden Spielen voll oben dabei ist. Bei DX11 trennt sich derzeit die Spreu vom Weizen ganz massiv. Hier muss AMD deutlich nachbessern. Bei BQ im Bereich der Filterung sowieso. Wenn das AF nicht besser geworden ist, muss man saftig in die Kerbe hauen. Das geht bei Produkten in dem Preisbereich einfach nicht und ist vollkommen inakzeptabel.

uweskw
2010-11-11, 00:28:50
und würdet ihr zu Caymen greifen auch wenn alles so bleibt wie bei Bart(s)Simpson (außer schneller)?

Bin eigentlich immer SEHR pro ATI gewesen.
Aber mit der Namensgebung (6850/6870 weniger Performance als 5850/70) und unnötigen Filtertricks ham die ihren Bonus bei mir verspielt.
Auch wenn beit NV in Sachen BQ nicht alles sooo toll ist, geben die mir im Augenblick einfach das bessere Gefühl. Drum ist es bei mir eine GTX 460 und keine 6850 geworden.

Also müsste Cayman schon DEUTLICH schneller sein!

horn 12
2010-11-11, 00:32:24
Von meinem ital. Forumkollegen:

In caso rimuovono il link:

2010/11/29

Cayman XT
circa 900Mhz
1920SP
4D
30 SIMD
2Gb 6GHz GDDR5
3.5 Tflops

Cayman Pro
circa 800Mhz
1536SP
4D
24 SIMD
2Gb 5GHz GDDR5
2.5 Tflops


Falls dies stimmen sollte, wohl HD6950 knapp über GTX 480,
HD6970 ca. 10-15% über dem Topmodell GTX 580

Gluckstaler
2010-11-11, 00:36:02
Chipshell bestätigt nun:
HD6970 1920 Steamproc.
HD6950 1536 Steamproc.


Wenn der 6970er 1920 sp hätte, dann würden beim 6950er 6 SIMDs deaktiviert, was höchst unwahrscheinlich ist.

Den 6970er bei 1536 anzusetzen, wie das hier schon und bei FUD vermutet wurde, ist insofern unwahrscheinlich, weil der Otto-Normalverbraucher es AMD nie verzeihen würde mit einer neuen Generation UND einem '900er im Namen die Stream-Prozessorenzahl gegenüber der 5800er zu SENKEN. Effizienz hin oder her.

Wenn ne Frau gross ankündigt zum Schönheitschirurg zu gehen, dann kommt sie nachher auch nicht mit einer Brustverkleinerung zurück.

Wenn wir davon ausgehen, dass der DIE des 6970er 10-20% grösser ist, und dass ein SP in der 4-D Ausführung ein bisschen grösser ist als ein SP in 5-D (Quelle: z.Bsp Charlie), dann könnte man folgendes spekulieren:

6950er: 1536 SP
6970er: 1664 oder 1792 SP.

Persönlich bin ich von ATI's 6000er Serie enttäuscht, beim 6970er wäre performance-mässig definitiv mehr drin gelegen.

Gestrandet
2010-11-11, 00:43:30
Persönlich bin ich von ATI's 6000er Serie enttäuscht, beim 6970er wäre performance-mässig definitiv mehr drin gelegen.
Wie geil ... die Karte ist noch garnicht draußen, es sind nichtmal die Specs bekannt, und trotzdem schafft sie es schon die Menschen zu enttäuschen! Komm, ich tröst dich mal ein bisschen :comfort: :)
Da muss man ja eine ganz schön niedrige Frustrationsschwelle haben, wenn man so schnell enttäuscht ist :biggrin:

Superheld
2010-11-11, 00:45:43
weil der Otto-Normalverbraucher es AMD nie verzeihen würde mit einer neuen Generation UND einem
'900er im Namen die Stream-Prozessorenzahl gegenüber der 5800er zu SENKEN. Effizienz hin oder her.
Wenn ne Frau...:naughty:


die klotzen doch nur nach den FPS und Preis..

sklave_gottes
2010-11-11, 01:27:12
Mein Tipp:
Egal ob die HD6970 mit 1920SP oder 1536SP kommt, ob 4D(zu 90%) oder 5D, wenn sie wirklich "nur" 32ROPs hat funktionel wie Barts, wird sie vorallem mit 4aa niemals an der GTX580 vorbeiziehen.

Dafür würden sie zu sehr limitieren. Das ist auch der Hauptgrund meiner meinung nach wieso Barts so nahe an den 58xx Karten ist.(alle 32ROPs)

Und wieso die 5830 soweit hinterherhinkt.(nur 16ROPs)

mfg martin

davidzo
2010-11-11, 01:35:27
Mein Tipp:
Egal ob die HD6970 mit 1920SP oder 1536SP kommt, ob 4D(zu 90%) oder 5D, wenn sie wirklich "nur" 32ROPs hat funktionel wie Barts, wird sie vorallem mit 4aa niemals an der GTX580 vorbeiziehen.

Dafür würden sie zu sehr limitieren. Das ist auch der Hauptgrund meiner meinung nach wieso Barts so nahe an den 58xx Karten ist.(alle 32ROPs)

Und wieso die 5830 soweit hinterherhinkt.(nur 16ROPs)

mfg martin

wer braucht schon multisampling?

Im highend nutzt man sowieso supersampling und da limitieren die rops eher nicht. stattdessen werden dann aber die zusätzlichen tmus ganz gut was nützen.

also bei barts hat MSAA ja seine berechtigung, aber für mainstream sind 32rops a 900mhz ja auch nicht übel.

Superheld
2010-11-11, 02:19:30
Mein Tipp:
Egal ob die HD6970 mit 1920SP oder 1536SP kommt, ob 4D(zu 90%) oder 5D, wenn sie wirklich "nur" 32ROPs hat funktionel wie Barts, wird sie vorallem mit 4aa niemals an der GTX580 vorbeiziehen.


kann mögich sein, ohne Grund würd Nvidia keine 48 verbauen (hat da jemand mehr Ahnung davon ?):weg:

Gluckstaler
2010-11-11, 05:44:10
Wie geil ... die Karte ist noch garnicht draußen, es sind nichtmal die Specs bekannt, und trotzdem schafft sie es schon die Menschen zu enttäuschen! Komm, ich tröst dich mal ein bisschen :comfort: :)
Da muss man ja eine ganz schön niedrige Frustrationsschwelle haben, wenn man so schnell enttäuscht ist :biggrin:

Laut AMD ist Cayman leistungsmässig unter der 5970er. Und die 580er zieht gemäss den in dieser Woche publizierten Reviews mit der 5970er gleich. Ergo Cayman ist tendenziell schwächer als der 580er.

Entäuschung hat etwas mit dem Erfüllen von Erwartungen zu tun. Beim Nvidia GF100er erwartete ich beim Launch einen Full-Metal-Respin vor Weihnachten (mit 20% höheren Werten). Dies wurde eingehalten.

Bei AMD ist die Messlatte höher, sicher auch durch die Artikel des 3DCenters, doch vor allem weil AMD von der DIE-Fläche her einen grösseren Gestaltungsraum hat(te).

Und wenn man dann im overclocking artikel von Anand zur 6850er liest, dass Barts Bandbreiten-limitiert ist, weil man hier den billigsten Memory-Controller verbaut hat, dann fängt man sich an fragen zu stellen.

Das ist die technische Seite. Wenn man dann sieht, dass die 460er die meistverkaufteste Graphikkarte im retail-sektor ist (weil bestes Preis-Leistungsverhältnis) und man weiss, dass aufgrund AMDs besserer Kostenstruktur, AMD in diesem Bereich eigentlich vorne liegen sollte, dann stellt man sich weitere fragen.

Und wenn man dann bzgl. Cayman alle Spekulationen zusammen trägt und wägt, dann fängt man an sich zu fragen was bei AMD los ist.

Superheld
2010-11-11, 06:39:53
wenn Cayman langsamer ist , als 580^^ dann hat er verkackt (bei dir jedenfalls:)).

horn 12
2010-11-11, 06:55:01
Oh Gott:

Stimmt dies nun, hat AMD voll und komplett vergackt.
Schaffen es somit kaum mehr fürs Weihnachtsgeschäft.

Und groß die HD6xx0 Serie für Oktober ankündigen und schlussendlich läuft die Konkurrenz davon!:mad::P

http://australia.tweaktown.com/news/17512/amd_radeon_6900_series_something_to_bite_into_after_13th_of_december/index.html

V2.0
2010-11-11, 07:22:01
Wieso verkackt? Man schlägt die 580 und gut ist. NV kann auch nur weniger 580 leifern.

boxleitnerb
2010-11-11, 07:28:24
Aus dem XS Forum:

The chiphell admin basically created a very gutsy thread titled
"No more 6970 performance predictions allowed!", and left this nugget of insight:


"Yeah yeah it's faster than the 580 alright, no speculation on how much faster!"

If I were one of those pathetic fanboys pretending to care about consumers I'd be oooooh disappointed now.

Edit:
Karte evtl. doch noch im November? Supply an TI-Chips Schuld an Verzögerung, Produktion ok?
http://vr-zone.com/articles/amd-radeon-hd-6970-delay-due-to-component-shortage-launch-date-to-be-re-confirmed/10276.html

horn 12
2010-11-11, 07:45:12
Und dies heisst auf DEUTSCH ?

mboeller
2010-11-11, 10:05:15
Und dies heisst auf DEUTSCH ?

Das du wieder mal umsonst gejammert hast. :)

Darlie
2010-11-11, 10:10:30
Wieso verkackt? Man schlägt die 580 und gut ist. NV kann auch nur weniger 580 leifern.
Amen ;D

Kalmar
2010-11-11, 10:34:34
Laut AMD ist Cayman leistungsmässig unter der 5970er. Und die 580er zieht gemäss den in dieser Woche publizierten Reviews mit der 5970er gleich. Ergo Cayman ist tendenziell schwächer als der 580er.


quelle pls und komm nicht mit dieser verkacken marktetingfolie wo nicht mal die ZEITACHSE vernüftig zutrifft ...

Eggcake
2010-11-11, 10:56:37
Was sonst ausser Marketingfolie, wenn AMD die Quelle ist? ;)

Ailuros
2010-11-11, 11:12:08
wer braucht schon multisampling?

Jeder der in den hoechsten Aufloesungen spielen will.

Im highend nutzt man sowieso supersampling und da limitieren die rops eher nicht. stattdessen werden dann aber die zusätzlichen tmus ganz gut was nützen.

Inwiefern Supersampling und hohe Aufloesungen bzw. >DX9 in den gleichen Satz passen ueberlasse ich jedermans Phantasie. Supersampling ist nach wie vor eher Material fuer wo immer man durch die Aufloesung oder die CPU als Beispiele begrenzt ist; anders man hat Fuellrate im Ueberschuss. Und ja natuerlich ist es z.B. bei 1280 noch der Fall aber bei =/>1920 wohl doch nicht mehr und von "high end" sehe ich im ersten Fall nicht besonders viel uebrig.

also bei barts hat MSAA ja seine berechtigung, aber für mainstream sind 32rops a 900mhz ja auch nicht übel.

Wer erzaehlt Euch ueberhaupt dass Barts und Cayman die gleichen ROPs haben? Ach ja rein zufaellig haben beide 32 ja und?

davidzo
2010-11-11, 11:22:35
Jeder der in den hoechsten Aufloesungen spielen will.

Un was die skalierung in jene angeht steht AMD trotz niedriger Speicherbandbreite immer sehr gut da.


Inwiefern Supersampling und hohe Aufloesungen bzw. >DX9 in den gleichen Satz passen ueberlasse ich jedermans Phantasie.

Ist downsampling etwa kein supersampling? Woher weißt du dass bei AMD außerdem was FSAA angeht bei Cayman alles gleich bleibt? Könnte mir vorstellen, dass man als goodie die DX10/11 Supersamplingmodi dann auch per treiber anbietet.

airbag
2010-11-11, 11:29:44
DS kann als eine Art OGSSAA bezeichnen. Ansonsten glaube ich nicht, das sich bezüglich der Treiberoptionen was änder wird. Selbst Nvdia hat sich nicht gewagt SGSSAA offiziell im CP für alle APIs anzubieten. Immerhin Modi für an denen nur wenige interessiert sind.

Ailuros
2010-11-11, 11:41:36
Un was die skalierung in jene angeht steht AMD trotz niedriger Speicherbandbreite immer sehr gut da.

Es aendert sich kein bisschen etwas daran dass Supersampling eine Unmenge an Fuellrate schluckt und eben nicht fuer sehe hohe Aufloesungen geeignet ist bei neuen Spielen.


Ist downsampling etwa kein supersampling? Woher weißt du dass bei AMD außerdem was FSAA angeht bei Cayman alles gleich bleibt? Könnte mir vorstellen, dass man als goodie die DX10/11 Supersamplingmodi dann auch per treiber anbietet.

Es reicht wenn man sich die Leistung selbst einer 5970 in 1920 bzw. 2560 mit 4xAA in den neuesten Spielen ansieht. Dahingegen kann man eben NICHT so einfach 4xSSAA einlegen ohne einen fetten Batzen an Leistung zu verbussen.

Einfaches downsampling ergibt wie oben erwaehnt OGSS. Der Vorteil fuer shader aliasing bleibt zwar, aber die insgesamte Effizienz von 4xOGSS liegt ein gutes Stueck unter 4xRGMS fuer polygon edge und intersections.

LovesuckZ
2010-11-11, 12:53:12
Aus dem XS Forum:

The chiphell admin basically created a very gutsy thread titled
"No more 6970 performance predictions allowed!", and left this nugget of insight:


"Yeah yeah it's faster than the 580 alright, no speculation on how much faster!"

If I were one of those pathetic fanboys pretending to care about consumers I'd be oooooh disappointed now.

Edit:
Karte evtl. doch noch im November? Supply an TI-Chips Schuld an Verzögerung, Produktion ok?
http://vr-zone.com/articles/amd-radeon-hd-6970-delay-due-to-component-shortage-launch-date-to-be-re-confirmed/10276.html

Laut Sampsa soll der Launch auf Mitte Dezember verschoben wurden sein:


We have just a moment ago to the official information directly from AMD, the Cayman-based graphics under the Radeon HD 6950 - and 6970 graphics cards of late from the original date of publication, which was 22 November. New video drivers on the official release will happen in week 50 of 13 - 19 December.

AMD did not tell the reason of delay, but yesterday reported a box of cereal VR-Zone-site consultation with rumors that the reason for the power supply should be used for the Texas Instruments driver-MOSFET circuit (pictured), lack of access. Antilles, also codenamed two Cayman-based graphics under the Radeon HD 6990 is delayed from the original release schedule and will be launched on the market next year's first quarter.

Box of cereal will be published in an article AMD Radeon HD 6950 - and 6970-graphics cards, and the Cayman GPU on new properties as soon as the date of publication. Debate and speculation about the new Radeon HD 6900 graphics cards, a box of cereal sales remain brisk MuroBBS-forum.

http://plaza.fi/muropaketti/muropaketti-vahvisti-amdlta-radeon-hd-6950-ja-6970-naytonohjaimet-julkaistaan-viikolla-50

fnnor
2010-11-11, 12:55:38
mein gott, da hab ich schon soviel gedult... seit fast 2 monaten ohne
richtige graka (only HD3300 IGP) weil ich auf Cayman warte, nun sollte
so endlich der licht am ende des tunnels erscheinen und die waterei ein
ende haben, aber jetzt dauerts noch einen monat........................... :(

da würd ich am eigentlich nun zur GTX580 greifen, hab aber auch keine lust mich nächsten monat
dann zu ärgern, weil vieleicht cayman die bessere karte ist und ich für die GTX580
auch noch zu viel geld aufn tisch gelegt hab...

Eggcake
2010-11-11, 13:01:46
Steht übrigens auch auf golem.de:
http://www.golem.de/1011/79315.html

john carmack
2010-11-11, 13:13:12
mein gott, da hab ich schon soviel gedult... seit fast 2 monaten ohne
richtige graka (only HD3300 IGP) weil ich auf Cayman warte, nun sollte
so endlich der licht am ende des tunnels erscheinen und die waterei ein
ende haben, aber jetzt dauerts noch einen monat........................... :(

da würd ich am eigentlich nun zur GTX580 greifen, hab aber auch keine lust mich nächsten monat
dann zu ärgern, weil vieleicht cayman die bessere karte ist und ich für die GTX580
auch noch zu viel geld aufn tisch gelegt hab...


Selbst wenn diese am 29 Nov. erscheint und du sie gleich bestellst wird es wohl trtzdem 2-3 Wochen dauern bis du eine bekommst. Es sei denn du bist wirklich der aller erste der bestellt :D

fnnor
2010-11-11, 13:23:03
Selbst wenn diese am 29 Nov. erscheint und du sie gleich bestellst wird es wohl trtzdem 2-3 Wochen dauern bis du eine bekommst. Es sei denn du bist wirklich der aller erste der bestellt :D

das haben damals auch viele bei der HD5870 behauptet und ich hab eine bekommen innerhalb von 2 tagen (einfach mal vorher bei alternate anrufen und eine reservieren lassen),
mich scheuts auch nich dann 50€ mehr dafür aufn tisch zu legen.
Ausserdem denke ich das genügend Karten erstmal vorhanden sein werden.
Ist ja ne Highend karte die eh nicht so viele abnehmer hat wie zbs die HD68XX, GTX460, etc....

john carmack
2010-11-11, 13:34:41
Ja, genau... reservieren hört sich gut an. Dann bekommst du 100% eine :D

LovesuckZ
2010-11-11, 13:39:54
Ich finde es interessant, dass sie liebers den Launch um 3 Wochen verschieben als nur die Verfügbarkeit der Karten nach hinten zu schieben. So wie es nVidia mit GF100 tat. Dieser "Hard Launch" Quatsch ist nonsens, da der Markt so klein ist, dass die Leute sowieso warten, wenn die Karte sich lohnen sollte.

ShadowXX
2010-11-11, 14:11:01
Ja, genau... reservieren hört sich gut an. Dann bekommst du 100% eine :D
Wieso sollte das nicht gehen.
3 Kumpel von mir haben sich am 580GTX Launchtag eine von Alternate bestellt und alle 3 haben Ihre Karte auch bekommen (2 schon gestern, Alternate ist wirklich fix und einer heute (hat er mir vorhin in der Mittagspause gemailt)).

Warum sollte das bei AMD also nicht gehen. Ich hab meine 5870 auch 2 Tage nach Launch gehabt (ohne Vorbestellen zu müssen).

LovesuckZ
2010-11-11, 14:13:44
Wenn man als erster bestellt, dann gibt es meistens keine Probleme. Schwierig kann es werden, wenn man erst nach 2,3,4 Tagen bestellt. Da könnte die erste Lieferung ausverkauft sein - siehe auch Cypress. Interessant wird meisten erst ab der 2. Woche, wo der erste Andrang vorbei ist. Da sollte sich der Markt stabilisiert haben und UVP erreicht bzw. unterschritten sein.

Iruwen
2010-11-11, 14:19:11
Wieso sollte das nicht gehen.
3 Kumpel von mir haben sich am 580GTX Launchtag eine von Alternate bestellt und alle 3 haben Ihre Karte auch bekommen

Am Launchtag bestellen != vorher Reservieren

Kalmar
2010-11-11, 14:48:54
hmm die Verschiebung ist ja unschön, entweder haben sie wirklich nen Problem mit der Fertigung oder sie sind net schnell genug oder sie sind so schnell das sie noch am Produkt Pfeilen können ...

aber normal sollte man ja nv nicht des feld soooo lange überlassen wenn es keinen wirklich heftigen grund gibt .. :uponder:

ShadowXX
2010-11-11, 14:55:12
Am Launchtag bestellen != vorher Reservieren
Mein Kommentar bezog sich mehr auf sein:

Selbst wenn diese am 29 Nov. erscheint und du sie gleich bestellst wird es wohl trtzdem 2-3 Wochen dauern bis du eine bekommst. Es sei denn du bist wirklich der aller erste der bestellt

Da bezweifelt er ja das man eine sofort bekommen würde wenn man am Launchtag bestellt.

Dural
2010-11-11, 15:05:21
warten lohnt sich nie... erst recht nicht im PC bereich...

AMD wurde wohl von der GTX580 etwas überrascht, geben wir ihnen noch einen monat optimierungs-zeit :)

Edit:
NV spricht bei der GTX580 übrigens von unbesiegbar, hmm mal schauen

Mancko
2010-11-11, 15:11:11
Wenn der neue Launchtermin stimmt, hat man as Weihnachtsgeschäft auf jeden Fall weitestgehend verpasst.

igg
2010-11-11, 15:16:39
NV spricht bei der GTX580 übrigens von unbesiegbar, hmm mal schauen
Notfalls produziert AMD größtenteils 6950er und nimmt nur diejenigen 6970er als solche, die sehr günstige Spannungs- und Takteigenschaften haben; die anderen 6970er werden 6950.

kunibätt
2010-11-11, 15:33:38
Natürlich lohnt es sich jetzt zu warten. Im Moment kann niemand abschätzen, wie schnell Cayman wirklich ist. Wer jetzt High-End kauft schmeißt unter Garantie 100€ aus dem Fenster, als wenn er noch den Cayman-Start abwarten würde.
Wenn man sich jetzt eine GTX580 kauft und in 3 Wochen eventuell einen schnelleren Chip für weniger Geld bekommt, muss man echt ein dickes Budget haben.

Schnitzl
2010-11-11, 17:18:27
Naja, wer High-End kauft schmeisst immer Geld aus dem Fenster ;)
Und ob der Cayman nun 5% schneller oder langsamer ist als GTX580 - wär mir jetzt egal.
Wichtiger wären für mich folgende Fragen:
- Filterung noch weiter "optimiert"?
- Kantenglättung/Supersampling unter DX10/11
Da das alles noch unbeantwortet ist ist die Versuchung groß zu nVidia zu greifen...

S940
2010-11-11, 17:20:16
NV spricht bei der GTX580 übrigens von unbesiegbar, hmm mal schauen
Na dann .. Holzschraube, sei wachsam :freak:

LovesuckZ
2010-11-11, 17:39:22
Offizielles Statement von AMD - kann man auch auf deutsch in ähnlicher Form bei Golem.de nachlesen:


”Please find an announcement from AMD below regarding the change of Cayman NDA:

Demand for the ATI Radeon HD 5800 series continues to be very strong, the ATI Radeon HD 5970 remains the fastest graphics card in the world and the newest members of the AMD graphics family, the AMD Radeon HD 6850 and HD 6870, have set new standards for performance at their respective price points, and are available in volume.

With that in mind, we are going to take a bit more time before shipping the AMD Radeon HD 6900 series. As of today, the NDA lift for information relating to the AMD Radeon HD 6950 and HD 6970 will be week 50. We will be providing additional information on these products, including the exact date and time of the NDA lift, in the weeks prior to launch.”
http://plaza.fi/muropaketti/muropaketti-vahvisti-amdlta-radeon-hd-6950-ja-6970-naytonohjaimet-julkaistaan-viikolla-50

Naja, das klingt nicht irgendwie toll. Kompletter Launch wird 11 Tage vor dem ursprünglich angesetzten einfach so verschoben? Da scheint man wohl doch Probleme mit dem Chips/Karten zu haben.

fondness
2010-11-11, 17:50:12
Offizielles Statement von AMD - kann man auch auf deutsch in ähnlicher Form bei Golem.de nachlesen:


http://plaza.fi/muropaketti/muropaketti-vahvisti-amdlta-radeon-hd-6950-ja-6970-naytonohjaimet-julkaistaan-viikolla-50

Naja, das klingt nicht irgendwie toll. Kompletter Launch wird 11 Tage vor dem ursprünglich angesetzten einfach so verschoben? Da scheint man wohl doch Probleme mit dem Chips/Karten zu haben.

Das kann höchstens ein Lieferengpass irgend eines Zulieferers sein wie schon von VR-Zone angedeutet. Probleme mit dem Chip erfährt man nicht 11 Tage vor dem Launch. Zumal man in den paar Wochen daran natürlich absolut nichts mehr ändern kann, außer vielleicht das Bios.

Darlie
2010-11-11, 17:59:04
Edit:
NV spricht bei der GTX580 übrigens von unbesiegbar, hmm mal schauen

Quelle? Die Titanic war auch unsinkbar. Falls die das tatsächlich vor dem Launch des Cayman wissen dann hat NV die besseren Informanten bei AMD eingeschleust als umgekehrt.

Chris2CB
2010-11-11, 18:00:53
warten lohnt sich nie... erst recht nicht im PC bereich...

AMD wurde wohl von der GTX580 etwas überrascht, geben wir ihnen noch einen monat optimierungs-zeit :)

Edit:
NV spricht bei der GTX580 übrigens von unbesiegbar, hmm mal schauen


Ja das muss ein harter Schlag ins Gesicht sein......total deprimierend das nVidia eine Karte an den Kunden bringen möchte die (festhalten) unglaubliche 15% schneller ist als deren Vorgänger.......Heftig....

Und wie wir alles wissen, Produkte die als unbesiegbar, unkaputtbar oder noch besser als unsinkbar deklariert werden sind dies auch!!!.....Eine Zeit lang :freak:


Wenns nur ein paar Tage nach hinten verschoben wird, ist es eher nichts ernsthaftes, irgend eine Kleinigkeit kann immer schief gehen. Da muss man nicht von ausgehen das bei Cayman große Probleme gibt.

aylano
2010-11-11, 18:10:06
Ja das muss ein harter Schlag ins Gesicht sein......total deprimierend das nVidia eine Karte an den Kunden bringen möchte die (festhalten) unglaubliche 15% schneller ist als deren Vorgänger.......Heftig....

Nicht wie der Vorgänger, sondern die unbugged bzw. non-deaktivierte Version, wie sie eigentlich immer bzw. vor einem Jahr kommen sollte.

Die Überraschung am GF110 ist eher, dass es quasi nur ein GF100 ist und dafür brauchten sie eben 6 Monate.
Vielleicht hat AMD sogar mit mehr gerechnet und die Stromversorgung für höhere Takte auf bis zu <300W bzw. AFAIK 8Phasen ausgelegt um die Performance-Krone zu erhalten.

Witzig ist, dass die Effizienz-Steigerung (Performance-pro-Watt) beim GTX580 genauso groß war, wie beim GTX280 --> GTX285 umstieg. Da hätte ich mit mehr gerechnet, weil die 40nm-Problematisch war und 65nm damals nicht.

LovesuckZ
2010-11-11, 18:13:42
Die Überraschung war nicht GF110 oder irgendwas am Chip - die Überraschung war, dass sie ihre Architektur auf Tessellation bzw. Geometrieleistung im allgemeinen ausgelegt haben.
GF110 ist nur ein typischer Refresh. Und ironischerweise konnte nVidia diesen eher auf den Markt bringen als AMD ihren Refresh von Cypress.

derguru
2010-11-11, 18:16:22
GF110 ist nur ein typischer Refresh. Und ironischerweise konnte nVidia diesen eher auf den Markt bringen als AMD ihren Refresh von Cypress.
tja das liegt wohl daran das der cayman kein typischer refresh wird.:freak:

Bucklew
2010-11-11, 18:17:03
Die Überraschung am GF110 ist eher, dass es quasi nur ein GF100 ist und dafür brauchten sie eben 6 Monate.
Und selbst damit war Nvidia schneller als ATI mit ihrer ersten "richtigen" DX11-Karte in diesem Performancebereich.

Dafür, dass es vor 6 Monaten noch hieß, dass Nvidia jetzt für die nächsten Jahr ATI hinterher hinkt und gar nichts mehr auf die Kette kriegt, schaut die Situation jetzt urplötzlich gnaz anders aus.

derguru
2010-11-11, 18:20:41
im grunde genommen hinken sie immer noch hinterher,eine 5970 ist schneller,das ist fakt.(mikroruckler ect. interessiert da wenig wenn es um die performancekrone geht)
es hat sich selbst nach einem jahr nichts an der ausgangssituation geändert.

DeadMeat
2010-11-11, 18:21:00
Die Überraschung war nicht GF110 oder irgendwas am Chip - die Überraschung war, dass sie ihre Architektur auf Tessellation bzw. Geometrieleistung im allgemeinen ausgelegt haben.
GF110 ist nur ein typischer Refresh. Und ironischerweise konnte nVidia diesen eher auf den Markt bringen als AMD ihren Refresh von Cypress.

Wenig überraschend, der 110 dürfte sich weniger vom 100 unterscheiden als Cayman vom Cypress, dauert aber auch länger.

LovesuckZ
2010-11-11, 18:22:42
tja das liegt wohl daran das der cayman kein typischer refresh wird.:freak:

Trotzdem ist nVidia mit Refresh und neuer Arcitektur vor AMD mit Refresh und neuer Architektur auf dem Markt. Lustigerweise scheint AMD's vorgehen nur Cayman runzuerneuern nicht aufzugehen, da durch die Migration von Fermi in alle Segmente nVidia vorallem im "Sweet Spot" einen mehr als konkurrenzfähigen GF104 Chip besitzt, der aufgrund der neuen Architektur Barts ziemlich einheißt.
Schon eine sehr interessante Situation, die so nur schwerlich vor 7 Monaten vorhersehbar war.

Wenig überraschend, der 110 dürfte sich weniger vom 100 unterscheiden als Cayman vom Cypress, dauert aber auch länger.

Spielt keine Rolle, da Cypress sehr stark auf rv770 aufbaut, wohingegen nVidia gleich im ersten Anlauf ihre neue Architektur präsentierte.

Black-Scorpion
2010-11-11, 18:24:57
580er und neue Architektur? Das ist ein frisierter GT100 und sonst nichts. Von neuer Architektur kann da mit Sicherheit keine Rede sein.

Bucklew
2010-11-11, 18:25:07
im grunde genommen hinken sie immer noch hinterher,eine 5970 ist schneller,das ist fakt.(mikroruckler ect. interessiert da wenig wenn es um die performancekrone geht)
Für einen desinteressierten Laien vielleicht, jeder andere mit ein wenig Ahnung vergleicht nunmal ähnliche Karte. Wer sich eine GTX580 oder 6970 kauft, kauft noch lange keine 5970.

580er und neue Architektur? Das ist ein frisierter GT100 und sonst nichts. Von neuer Architektur kann da mit Sicherheit keine Rede sein.
Was ist ein GT100? Kenn ich nicht.

aylano
2010-11-11, 18:31:35
Und selbst damit war Nvidia schneller als ATI mit ihrer ersten "richtigen" DX11-Karte in diesem Performancebereich.
Text richtig lesen & verstehen;)


Dafür, dass es vor 6 Monaten noch hieß, dass Nvidia jetzt für die nächsten Jahr ATI hinterher hinkt und gar nichts mehr auf die Kette kriegt, schaut die Situation jetzt urplötzlich gnaz anders aus.
Übrigends, nächstes Jahr ist erst in 1,5 Monaten;)

Wenn man die Dual-Grafikkarten ignoriert, dann sieht die Welt für NV immer besser aus.

Laut Steam ist der Marktanteil der GTX480 nichteinmal doppelt so groß wie der von HD5900er.

Bucklew
2010-11-11, 18:40:04
Übrigends, nächstes Jahr ist erst in 1,5 Monaten;)
Auch für dich gilt: Text lesen und verstehen ;)

(auch wenn ich gestehen muss, dass ich als Tippfehler das Jahre vergessen hab, aber sollte schon ersichtlich sein).

Wenn man die Dual-Grafikkarten ignoriert, dann sieht die Welt für NV immer besser aus.
Eigentlich nur für die letzte Generation, davor sah das anders aus. So vergesslich? ;)

S940
2010-11-11, 18:43:11
Und ironischerweise konnte nVidia diesen eher auf den Markt bringen als AMD ihren Refresh von Cypress.
Refresh ? Was verstehst Du unter "Refresh" ?
Wenn Cayman ein Cypress Refresh wäre, dann wäre die GF110 auch nur ein G92 Refresh :freak:

Was ist ein GT100? Kenn ich nicht.
Ok, ich helf mal aus: *Trommelwirbel* Er meint ne GF100. War auch sehr schwer zu erkennen ^^

LovesuckZ
2010-11-11, 18:48:20
Refresh ? Was verstehst Du unter "Refresh" ?
Wenn Cayman ein Cypress Refresh wäre, dann wäre die GF110 auch nur ein G92 Refresh :freak:



Es ist ein Refresh einer Architektur, die sich verdammt deutlich vom GT200 unterscheidet. Deswegen war nVidia auch so spät dran und hatte wesentliche Probleme, weil man mehr tat als GT200 leicht aufzubohren, DX11-fähig zu machen und zum Großteill zu verbreitern. Trotzdem sind sie in der Lage nun mit A1 des GF110 vor AMD auf dem Markt zu sein, weil man nur die gröbsten Probleme fixen musste. Hingegen muss AMD deutliche Veränderungen vornehmen, die sich problematischer auswirken könnten.

Black-Scorpion
2010-11-11, 18:49:35
Refresh ? Was verstehst Du unter "Refresh" ?
Wenn Cayman ein Cypress Refresh wäre, dann wäre die GF110 auch nur ein G92 Refresh :freak:


Ok, ich helf mal aus: *Trommelwirbel* Er meint ne GF100. War auch sehr schwer zu erkennen ^^
Habe mit Absicht nicht darauf reagiert. Wenn er sich dumm stellt wegen einem Tippfehler ist das sein Problem.

Bucklew
2010-11-11, 18:52:31
Habe mit Absicht nicht darauf reagiert. Wenn er sich dumm stellt wegen einem Tippfehler ist das sein Problem.
Ich stell mich halt auch dumm, nachdem du das mit der Aussage von Lovesuckz gemacht hat. Denn die ist absolut richtig, Nvidia ist mit Refresh und neuer Architektur schneller dran als ATI. Die sind (insgesamt) einen Monat später dran.

Gipsel
2010-11-11, 18:54:52
durch die Migration von Fermi in alle Segmente nVidia vorallem im "Sweet Spot" einen mehr als konkurrenzfähigen GF104 Chip besitzt, der aufgrund der neuen Architektur Barts ziemlich einheißt.
Ja, GF104 ist konkurrenzfähig zu Barts bei *nur* ~40% mehr Diefläche als dieser. Ist echt eine Superleistung! Aber das weißt Du ja alles. ;)

derguru
2010-11-11, 18:55:39
Für einen desinteressierten Laien vielleicht, jeder andere mit ein wenig Ahnung vergleicht nunmal ähnliche Karte. Wer sich eine GTX580 oder 6970 kauft, kauft noch lange keine 5970.
der desinteressierte laie ist der käufer und nicht der nerd der nur darüber redet aber darum gings auch gar nicht sondern um die performancekrone und da wird es an der karte gezählt und nicht wieviele kerne sie hat.wie gerne hätte nv eine dualkarte auf dem markt gehabt,irgendwann mal klappts wieder:wink:
Ich stell mich halt auch dumm, nachdem du das mit der Aussage von Lovesuckz gemacht hat. Denn die ist absolut richtig, Nvidia ist mit Refresh und neuer Architektur schneller dran als ATI. Die sind (insgesamt) einen Monat später dran.
hilfe der eine monat ist entscheidend,gerade im highendsektor.;D

aylano
2010-11-11, 18:56:19
Auch für dich gilt: Text lesen und verstehen ;)
Ja, und was habe ich gesagt;)

Ja genau, dass Nvidia schwierigkeiten hatte, wenn sie ihre Architektur in eine neue kleinere Fertigung bringen oder eine neue Architektur einführen.

Ich hatte nie gesagt, dass Nvidia probleme haben wird, ihren GF100B-Fermi weiterhin deaktivieren & Verspätet einführen zu müssen.

Mit GF100B hätte ich eigentlich um 1-2 Monate früher erwartet.

[QUOTE=Bucklew;8382755]
Eigentlich nur für die letzte Generation, davor sah das anders aus. So vergesslich? ;)
Ja, wenn es aktuell bzw. die Zukunft schlecht aussieht, dann lebt man gern in der Vergangenheit bzw. denke gerne an früher.

Vergessen habe ich es nicht, nur sprachen wir gerade über Jetzt & die Zukunft. Ich bezweifel, dass AMD in ihren zukünftigen GPUs an früheren schlechten Zeiten orientiert bzw. auf damals schlechten Produkten aufbaut.

wie gerne hätte nv eine dualkarte auf dem markt gehabt,irgendwann mal klappts wieder:wink:
Ja ja, ein GTX490 mit 2-Fermi hätte laut einigen damals locker gehen sollen.
Und erst recht mit GTX104.

uweskw
2010-11-11, 18:59:27
Das kann höchstens ein Lieferengpass irgend eines Zulieferers sein wie schon von VR-Zone angedeutet. Probleme mit dem Chip erfährt man nicht 11 Tage vor dem Launch. Zumal man in den paar Wochen daran natürlich absolut nichts mehr ändern kann, außer vielleicht das Bios.

Ich denke die Terminverschiebung von Cayman haben wir der überraschend schwachen 580er zu verdanken. AMD fühlt sich noch gut aufgestellt und verkauft in Ruhe die Cypressen ab. Mit viiiiiiiiiiiiiieeeel Glück nutzen die die Zeit um im Treiber die AF-Qualität zu verbessern. Bin halt Optimist.

Gab es übrigens auch aus anderen Ländern Kritik an AF und reduzierter defaut Qualität oder nur aus dem deutsch sprachigen Bereich?

Greetz
U.S.

S940
2010-11-11, 19:03:36
Es ist ein Refresh einer Architektur, die sich verdammt deutlich vom GT200 unterscheidet.Deswegen war nVidia auch so spät dran und hatte wesentliche Probleme, weil man mehr tat als GT200 leicht aufzubohren, DX11-fähig zu machen und zum Großteill zu verbreitern. Trotzdem sind sie in der Lage nun mit A1 des GF110 vor AMD auf dem Markt zu sein, weil man nur die gröbsten Probleme fixen musste. Hingegen muss AMD deutliche Veränderungen vornehmen, die sich problematischer auswirken könnten.
Und was verstehst Du nun unter Refresh ?

Ich spiel mal gerne etwas mit Dir und besetze die absolute Gegenposition:

GF110 A1 ist kein Refresh, sowas hätte man früher GF100 B1 genannt. Du schreibst ja selbst, dass man "nur die gröbsten Probleme fixen musste".
Bugfix Release also == Refresh ?


Cayman dagegen ist auch kein Refresh, da komplett neu. Da darf sich AMD auch gerne Zeit lassen, bei Nvidia hats bei der letzten neuen Generation ja auch etwas gedauert. Solange keiner kurz vor Weihnachten ne Holzschraube hochhält in jedem Fall besser ^^

Also ich sehe da weder von ATi noch nV Seite einen Grund über "Refresh" zu reden. Aber vielleicht hast Du ja ne andere Definition von Refresh ... deswegen hab ich nachgefragt, aber keine Antwort bekommen...

Bucklew
2010-11-11, 19:11:46
der desinteressierte laie ist der käufer und nicht der nerd der nur darüber redet aber darum gings auch gar nicht sondern um die performancekrone und da wird es an der karte gezählt und nicht wieviele kerne sie hat.wie gerne hätte nv eine dualkarte auf dem markt gehabt,irgendwann mal klappts wieder:wink:
Genau, alles nur desinterssierte Laien, die sich >500€ Karten kaufen ;D Haben gar keine Ahnung, aber geben 500€ für etwas aus, von dem sie keine Ahnung haben ;D

Hach, herrlich so eine dermaßen bescheuerte Weltsicht. Solltest Politiker werden ;)

Aber um zum Thema zurück zu kehren: Ja, Nvidia hätte gerne ne Dualkarte gehabt. Ging halt nicht, so ist das Leben. Jetzt gibt es bald wieder eine und zwar früher als von ATI ;)

hilfe der eine monat ist entscheidend,gerade im highendsektor.;D
Ach lass doch das billige Flamen. Was würdest du hier durchs Forum spammen, wenn es Cayman schon zu kaufen gäbe und GTX580 noch nicht :rolleyes:

Ja genau, dass Nvidia schwierigkeiten hatte, wenn sie ihre Architektur in eine neue kleinere Fertigung bringen oder eine neue Architektur einführen.
Neue Architekturen machen IMMER Probleme. Sieht man jetzt ja auch auf einmal bei ATI. Nachdem die doch NVidia nach der Meinung einiger hier demnächst komplett überholen werden und Nvidia gar keine Schnitte mehr haben wird....Naja, feuchte Fanboyträume sind halt vorallem feucht ;)

Mit GF100B hätte ich eigentlich um 1-2 Monate früher erwartet.
Es ist ja auch kein 100B ;)

Ja, wenn es aktuell bzw. die Zukunft schlecht aussieht, dann lebt man gern in der Vergangenheit bzw. denke gerne an früher.

Vergessen habe ich es nicht, nur sprachen wir gerade über Jetzt & die Zukunft.
Nun, du hattest "immer" geschrieben. Wenn du nächstes Mal über heute schreiben will, dann schreib halt "aktuell". Aber wäre wohl zu einfach :)

Ich bezweifel, dass AMD in ihren zukünftigen GPUs an früheren schlechten Zeiten orientiert bzw. auf damals schlechten Produkten aufbaut.
Auf R600 haben sie auch aufgebaut.

Langenscheiss
2010-11-11, 19:29:10
Gab es übrigens auch aus anderen Ländern Kritik an AF und reduzierter defaut Qualität oder nur aus dem deutsch sprachigen Bereich?

Greetz
U.S.

Hab jetzt nicht alle Reviews im Kopf, aber so konsequent wie bei PCGH, HT4U und CB wurde die BQ glaub ich eher selten getestet, kann mich allerdings auch irren. Man schaue sich z.B. Beyond3D an.
Naja, man muss halt auch sehen, dass der PC in Deutschland relativ gesehen eine immer noch überdurchschnittlich wichtige Rolle im Spiele-Sektor hat, vielerorts haben sich die Konsolen wohl schon deutlich mehr durchgesetzt.

Hoffe allerdings auch, dass zumindest Cayman besseres AF als Cypress/Barts liefert. Also an manchen Stellen fragt man sich echt, ob der Stand der Technik 1999 oder 2010 ist, wobei damals war die BQ ja gar nicht sooo schlecht, im Vergleich gesehen.

LovesuckZ
2010-11-11, 19:29:59
Und was verstehst Du nun unter Refresh ?

Ich spiel mal gerne etwas mit Dir und besetze die absolute Gegenposition:

GF110 A1 ist kein Refresh, sowas hätte man früher GF100 B1 genannt. Du schreibst ja selbst, dass man "nur die gröbsten Probleme fixen musste".
Bugfix Release also == Refresh ?

"Früher"? Ich errinnere mich jetzt nur an zwei Fälle, wo nVidia ein "b" an den Codenamen gesetzt hat: g92b und GT200b. Beides waren Shrinks auf 55nm ohne Verbesserungen an der Architektur.


Cayman dagegen ist auch kein Refresh, da komplett neu. Da darf sich AMD auch gerne Zeit lassen, bei Nvidia hats bei der letzten neuen Generation ja auch etwas gedauert. Solange keiner kurz vor Weihnachten ne Holzschraube hochhält in jedem Fall besser ^^

Hä? Das macht null Sinn. AMD's Refresh war Cypress und ihre angeblich neue Architektur soll Cayman sein. Bei nVidia war es genau umgedreht.
Oder seh es so: nVidia hat den "Cypress" Chip ausgelassen und ist gleich zu "Cayman" gegangen.


Also ich sehe da weder von ATi noch nV Seite einen Grund über "Refresh" zu reden. Aber vielleicht hast Du ja ne andere Definition von Refresh ... deswegen hab ich nachgefragt, aber keine Antwort bekommen...

"refresh" bedeutet "erneuern". GF110 ist ein erneuerter GF100. Also ein Refresh.

Mancko
2010-11-11, 19:39:56
Ja, GF104 ist konkurrenzfähig zu Barts bei *nur* ~40% mehr Diefläche als dieser. Ist echt eine Superleistung! Aber das weißt Du ja alles. ;)
Ist dem Kunden scheiss egal Gipsel und nur das zählt. Nvidia verdient Kohle in anderen Segmenten in denen AMD eine 0 Nummer ist. DIE Gößen Vergleiche sind für den Popo, wenn das Geschäftsmodell nicht gleich ist. Zumal es Nvidia momentan herzlich egal sein dürfte, ob sie nun Geld verdienen oder nicht. Die haben 10 Jahre lang Geld verdient. Die werden alles tun um Marktanteile zurückzubekommen und das Geld verdienen auf die Zeit danach legen. Für den Kunden ist das sehr gut. Der bekommt dort einfach derzeit die besten Gaming Karten. Warum soll er dann AMD kaufen? Weil der DIE so toll klein ist? Da kauf ich lieber den größeren DIE zum gleichen Preis, weil da einfach mehr Technologie enthalten ist.

Wir werden es ja bald sehen. Ich sage mal voraus, dass die 560 für die Barts Produkte im Retail ein "KO" werden und der Chip sich dann in ganz anderen Preisregionen wiederfinden muss. Die 560 wird zwar größer sein aber das ist Nvidia momentan scheiss egal. Die werden das Ding knallhart preislich gegen AMD's Barts Chips positionieren und das dürfte AMD's GPU Abteilung in 2011 in die roten Zahlen bringen und zu Marktanteilsverlusten führen.

Die Barts Produkte haben zwar für AMD aktuell eine Lücke gefüllt aber der Launch war verglichen mit den bereits verfügbaren Konkurenzprodukten sehr schwach. Die Preisanpassung von Nvidia hat dann ihr übriges getan. Eine richtig schöne Steilvorlage für die 560 und die kommt sehr bald.

derguru
2010-11-11, 19:40:17
Genau, alles nur desinterssierte Laien, die sich >500€ Karten kaufen ;D Haben gar keine Ahnung, aber geben 500€ für etwas aus, von dem sie keine Ahnung haben ;D

Hach, herrlich so eine dermaßen bescheuerte Weltsicht. Solltest Politiker werden ;)
und genauso ist das,ein kid schaut sich die balken an und kauft danach oder lässt es sich von papi zu weihnachten schenken und das thema mikroruckler ect. ist hautsächlich ein thema in deutschland und selbst da meist nur in nerdforen.

Aber um zum Thema zurück zu kehren: Ja, Nvidia hätte gerne ne Dualkarte gehabt. Ging halt nicht, so ist das Leben. Jetzt gibt es bald wieder eine und zwar früher als von ATI ;)
mit was?2*460iger:confused: :lol:

Ach lass doch das billige Flamen. Was würdest du hier durchs Forum spammen, wenn es Cayman schon zu kaufen gäbe und GTX580 noch nicht :rolleyes:
das billige flamen ist dein metier wie man wieder deutlich sieht.;)

Gipsel
2010-11-11, 19:43:25
Ist dem Kunden scheiss egal Gipsel und nur das zählt.LS hat aber nicht von Kunden geredet, sondern das auf die Architektur zurückgeführt. Deswegen habe ich mich auch auf dies bezogen, da es LS ja offensichtlich nicht scheißegal und bei einer Diskussion der Architektur durchaus von Interesse ist. ;)

Gipsel
2010-11-11, 19:46:09
Die 560 wird zwar größer sein aber das ist Nvidia momentan scheiss egal. Die werden das Ding knallhart preislich gegen AMD's Barts Chips positionieren und das dürfte AMD's GPU Abteilung in 2011 in die roten Zahlen bringen und zu Marktanteilsverlusten führen.Letzteres kann sehr gut stimmen. Aber wie kommst Du darauf, daß nv sich so einen "Preiskrieg" bei größerer Die-Fläche einfach mal leisten wird? Die haben auch ein Schmerzgrenze.

Chris2CB
2010-11-11, 19:48:36
........... DIE Gößen Vergleiche sind für den Popo, ...............

..........Die Preisanpassung von Nvidia hat dann ihr übriges getan........

GF100 bzw 110 sind für den Pro Sektor gedacht mit entsprechender Auslegung der Einheiten, da braucht man keine GF104, von daher hat Gipsel absolut recht.

LovesuckZ
2010-11-11, 19:49:05
LS hat aber nicht von Kunden geredet, sondern das auf die Architektur zurückgeführt. Deswegen habe ich mich auch auf dies bezogen, da es LS ja offensichtlich nicht scheißegal und bei einer Diskussion der Architektur durchaus von Interesse ist. ;)

Aha, Die-Size ist also interessant? nVidia kann einen 367mm^2 Die 3 Monate vor AMD im "Sweet Spot" platzieren. nVidia muss keine Transistoren im Bereich DX11 Implementierung, BQ und für die Erhöhung der Ausbeute einsparen. nVidia muss nur 7/8 des Chips aktivieren, um einem hochgezüchteten Barts Chip mithalten zu können.
Wem interessiert die Größe des Chips, wenn ein Großteil des Unterschiedes durch wichtige, fehlende Transistoren zu stande kommt? Richtig, garnicht. AMD kann noch nichtmal die BQ mitgehen. Und wenn sie es würden, wäre der Die-Size Vorsprung auch nicht mehr der Rede wert.
Am Ende zählt nur das Produkt im "Sweet Spot". Und da war nVidia diesmal 3 Monate früher auf dem Markt und bietet selbst nach Barts das attraktivere Produkt. Und das ist für den Kunden am wichtigsten. Und nicht dein marketingtechnischer Die-Size Schachzug.

Botcruscher
2010-11-11, 19:49:49
Leute lasst es doch gut sein. Heute morgen konnte man aus einem PR Slide noch die genaue Geschwindigkeit ablesen und jetzt ist die 580 eine neue Generation und Cayman ein Refresh. Gratis dazu gibt es noch Schenkelklopfer wie "richtiges" DX11 (dildo hat das übrigens als erster in den Mund genommen)... Wer da noch Antwortet verschwendet seine Zeit.

Mancko
2010-11-11, 19:51:14
Letzteres kann sehr gut stimmen. Aber wie kommst Du darauf, daß nv sich so einen "Preiskrieg" bei größerer Die-Fläche einfach mal leisten wird? Die haben auch ein Schmerzgrenze.
Habe ich oben noch reineditiert. Ist mir erst danach aufgefallen das ich den Teil vergessen hatte.

Der Grund ist einfach -> Die Verspätung mit Fermi hat weh getan. Also wird jetzt seitens Nvidia alles unternommen um Marktanteile bei Gamern zurückzuholen egal wieviel es kostet. Es kostet ja defakto auch nicht die Welt, da das Professional Business am wachsen ist. Da muss AMD m.E. aufpassen. Sollte das professional Business weiter so sorglos für Nvidia wachsen, werden die immer mal zur Quersubvention neigen. Hat Intel auch immer wieder gemacht wenn es brenzlich wurde. Bei AMD ist es bisher so, dass die weder im CPU noch im GPU Business irgendwo über einen längeren Zeitraum einen Markt hatten, indem sie ungeniert abkassieren konnten.
Die müssen sowohl bei CPUs wie bei GPU's mehr im hochpreisigen Geschäftsumfeld agieren. Da sind die mir zu halbherzig unterwegs. Da ist vielmehr möglich.

PulsarS
2010-11-11, 19:54:36
Ich stell mich halt auch dumm, nachdem du das mit der Aussage von Lovesuckz gemacht hat. Denn die ist absolut richtig, Nvidia ist mit Refresh und neuer Architektur schneller dran als ATI. Die sind (insgesamt) einen Monat später dran.
So gesehen hast du durchaus recht, wobei das bei AMD von RV770 zu RV870 ein eindeutig umfangreicherer Refresh war, als bei NV von GF100 zu GF110.
Abgesehen davon ist die Marktsituation eine andere.
Damals als die Cypressen rauskamen, hatte NV über lange Zeit keine DX11-Karte, also war NV unter extremen Druck.
Heute sieht das anders aus, da AMD ebenso DX11-Karten auf dem Markt hat, also noch durchaus up to date ist und sogar alle Marktsegmente mit DX11-Karten abdeckt, was NV bis heute nicht gelungen ist.
AMD hat einfach den Druck nicht, also lassen sie erstmal die **** baumeln.
Ob das jetzt gut ist oder schlecht (Vorzeichen), darf jeder für sich entscheiden. ;)
Wenn der Cayman noch vor Weihnachten kommt, dann wird es AMD wohl wenig schmerzen.

Black-Scorpion
2010-11-11, 19:54:53
Irgendwann ist auch bei Nvidia Schluss mit Quersubventionieren.

Langenscheiss
2010-11-11, 19:57:11
Wem interessiert die Größe des Chips, wenn ein Großteil des Unterschiedes durch wichtige, fehlende Transistoren zu stande kommt?


Klar spart AMD irgendwo Transistoren, aber sicher nicht bei der BQ. Wurde doch z.B. von Coda schon oft genug dargelegt, dass schlechtes AF noch lange keine Einsparung von Transistoren bringt, da diese ganzen Optimierungen und Kontroll-Möglichkeiten zusätzliche Logik erfordern.