Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11

AnarchX
2011-12-06, 11:09:09
Vielleicht ein riesiger Chip mit niedrigen Taktraten und vielleicht auch deshalb die Gerüchte über eine TDP <200W und den hohen Preis.
Aber >600mm² sind für 28nm mehr als fragwüdig, im Endeffekt hat man da vielleicht nur falsch gedeutet und der Chip ist logischerweise größer als GK104.
Und man geht den G80-Weg: 40nm. ;D

boxleitnerb
2011-12-06, 11:11:31
Hm, so ganz klar ist es nicht, weder die deutsche noch die englische Übersetzung.

Aber hey, wenn Kepler gemeint wäre, dann wären die ganzen Gerüchte von 4Gamers hinfällig, weil warum über einen gecancellten Chip spekulieren?

LovesuckZ
2011-12-06, 11:12:35
GF110 ist 520mm^2 groß und es gibt x2 Karten.

Ich verstehe hier auch nicht die Aufregung. Die Größe spielt doch keine Rolle, wenn die Architektur entsprechend schnell und modular aufgebaut ist. Man sollte sich endlich davon lösen.

Dural
2011-12-06, 11:16:10
du hälst eine 2x 600mm2 AMD karte für möglich? :freak:

Ich glaube ich würde AMD derzeit nicht mal zutrauen überhaupt eine 600mm2 GPU herzustellen ;)

boxleitnerb
2011-12-06, 11:16:45
Groß heißt aber auch viele Transistoren, und je nach Takt kann das einen sehr hohen Stromverbrauch bedeuten.

Coda
2011-12-06, 11:17:18
600+ ??? Großer Gott, so groß war bisher kein Grafikchip. Wenn da mal nicht die TDP ordentlich in die Höhe geht...
Das wäre wohl über dem Masken-Limit von TSMC. Unwahrscheinlich.

LovesuckZ
2011-12-06, 11:18:09
Man wird's sehen. Ich sehe nur keine Probleme in einem großen Die. Man hat doch gesehen, dass AMD mit ihrem dichtpacken von Transistoren ebenfalls keine Vorteile hat, wenn die Fertigung mies ist.

Gipsel
2011-12-06, 11:59:34
Das wäre wohl über dem Masken-Limit von TSMC. Unwahrscheinlich.
Das hängt vom benutzten Belichter ab. Typischerweise (meistens) ist das Limit für die Masken 104 x 132 mm², was bei der Belichtung im 1:4 Maßstab auf den Wafer verkleinert wird (http://forum.beyond3d.com/showthread.php?p=1592955#post1592955), was dann in 26 x 33 mm² auf dem Wafer resultiert. Eine Art effektives Limit für das fertige Die ist 1" x 1", also ~650mm² für ein mehr oder weniger quadratisches Die.

Edit:
Intels Tukwila ist rechteckig und mißt angeblich 21.5×32.5 = 698.75 mm². Aber das ist eben auch intel.

Hugo
2011-12-06, 12:02:30
großes DIE heißt auch nicht unbedingt die meißten Transistoren. Sie Bulldozer und Sandy Bridge

Hugo78
2011-12-06, 12:13:07
großes DIE heißt auch nicht unbedingt die meißten Transistoren. Sie Bulldozer und Sandy Bridge

Wobei es hier auch um höheren Takt geht, SI sagt man ja nach weiterhin mit unter 1GHz zukommen.

Aber eventuell plant man von vorn herein mit schlechter Yield um früh starten zukönnen und baut gleich redundantes Zeug mit ein um später,
ähnlich GF100 -> GF110, mit einem Upgrade zukommen, sobald die Fertigung sich bessert.

Hugo
2011-12-06, 12:24:34
ich finde knapp 1GHz doch sehr gut egal ob 28nm oder 40nm

S940
2011-12-06, 12:36:37
Und man geht den G80-Weg: 40nm. ;D
Das wär der einzige Fall, den ich halbwegs glauben würde ;-)
Einen mehr oder minder kleine Mittelklassechips in 28nm plus nen Dickschiffchip@40nm, Shrink dann in nem Jahr.

AnarchX
2011-12-06, 12:53:02
OBR: AMD Radeon HD 7000 fiasco as Bulldozer - likely Yes
http://www.obr-hardware.com/2011/12/amd-radeon-hd-7000-fiasco-as-bulldozer.html

Raff
2011-12-06, 12:54:35
So ein Unfug. Die können den Chip IMO gar nicht so verkacken, dass er trotz 28 nm langsam und stromfressend ist. Mal ab davon kann man Cayman vieles vorwerfen, aber nicht das Attribut "shitty-slow".

MfG,
Raff

Coda
2011-12-06, 12:54:35
...the current shitty-slow cards with Cayman...
Yeah right. Shitty-slow.

boxleitnerb
2011-12-06, 12:58:56
Er versucht halt darauf aufzubauen, dass er bei BD Recht hatte. Einfach nicht beachten.

robbitop
2011-12-06, 12:59:46
Naja - ein Risiko bleibt: GCN ist eine neue Architektur und die kann auch mal daneben gehen. Siehe NV30 und R600...

AnarchX
2011-12-06, 13:01:07
Man könnte vielleicht herauslesen, dass oberlächlich betrachtet, die Leistung nicht so extrem steigt, wie man es für 28nm und eine neu Architektur, erwarten hätte können.

samm
2011-12-06, 13:02:43
shitty-slow... CaymanJa richtig, man erreicht ja nur die GTX 570, elendig langsam... echt mal, hat der OBR-Clown finanzielles Interesse am schlechtmachen? Paar AMD-Puts? oO...

Was hat der eigentlich von G80 (G92 mal aussen vor) auf GT200 so rausgelassen?... Schade, wenn die Leistung nicht 100% steigt zu den vorherigen Produkten bei gleichzeitig 50% weniger Verbrauch xD

Spasstiger
2011-12-06, 13:03:33
Riesige Dies an der Grenze zur Machbarkeit sind nur sinnvoll, wenn man diese zumindest teilweise zu hohen Preisen verkaufen kann. So wie es NV bei den Teslas und Quadros macht.
Durch den neuen Fertigungsprozess sind anfangs niedrige Yieldraten zu erwarten, so dass man bei so einem riesigen Die den Großteil der GPUs beschneiden müsste. Das wiederum bedeutet, dass man im Consumer-Segment für einen Großteil der teuren GPUs keinen High-End-Preis verlangen kann. Außer man bringt generell keinen Vollausbau wie NV beim GF100, was aber nur aufgeht, wenn man trotz Beschneidung schneller als der Konkurrent ist.

AMD könnte große GPU-Dies höchstens über andere Geschäftsbereiche quersubventionieren (CPU, Fusion), das würde aber einer von den Aktionären geforderten Gewinnoptimierung entgegen laufen.

LovesuckZ
2011-12-06, 13:04:45
Also bei Bulldozer lag er ein halbes Jahr vorher schon richtig. Also daher...

Aber dann können wir uns jetzt jedenfalls wieder auf das selbe Spiel freuen, wo sich AMD Leute erstmal auf ihm einschießen. :D

fnnor
2011-12-06, 13:07:48
das obr AMD hater ist sollte ja jedem bewusst sein und er zeigt auch deutlich wieder damit die caymans als "shitty-slow" zu bezeichnen...

eigentlich sollte man diesem typ trotzdem keine beachtung mehr schenken, nur weil er einmal recht hatte mit BD...

ich denke die 7970 wird sich so im bereich der 6990 ansiedeln oder knapp darunter und das sollte auch völlig ausreichen... ich glaube nicht dran das AMD AMD eine marginal langsamere KArte als aktuelle rausbringt bei so einem massiven shrink

dildo4u
2011-12-06, 13:08:04
Man könnte vielleicht herauslesen, dass oberlächlich betrachtet, die Leistung nicht so extrem steigt, wie man es für 28nm und eine neu Architektur, erwarten hätte können.
Gerade weil man Beides gleichzeitig ändert würde ich eher Probleme als ein Riesen Sprung erwarten.

samm
2011-12-06, 13:09:15
Er hat auch BD sehr verzerrt dargestellt, die Formulierungen waren ein Witz und die DH-Verarsche macht ihn auch nicht zitierenswürdiger. Auch wenn BD unerwartet langsam herauskam ;) Auch nVidia-Leute sollten auf sein gebrabble nicht mehr geben als auf das von Char-lie, der ja auch hin und wieder recht hatte... weil richtig liegen alleine halt nicht das Kriterium ist.

Coda
2011-12-06, 13:10:08
Naja - ein Risiko bleibt: GCN ist eine neue Architektur und die kann auch mal daneben gehen. Siehe NV30 und R600...
R600 und NV30 hatten beide neben Prozess-Probleme auch grobe Architektur-Schwächen.

Das sehe ich bisher bei GCN nicht kommen. Allerdings hast du natürlich recht. Ein Restrisiko bleibt.

boxleitnerb
2011-12-06, 13:11:11
Schade, wenn die Leistung nicht 100% steigt zu den vorherigen Produkten bei gleichzeitig 50% weniger Verbrauch xD

Das gabs noch nie.

samm
2011-12-06, 13:14:13
Habe ich auch nie behauptet (und würde ich auch nie erwarten oder auch nur erhoffen), sondern sollte die Erwartungen illustrieren, welche Formulierungen wie die von OBR rechtfertigen könnten ;)

Dural
2011-12-06, 13:14:48
ganz nüchtern betrachtet würde es mich kein stück wundern wenn GCN ein "Flop" wird, ganz im gegenteil es würde mich umso mehr überraschen wenn GNC es locker mit Kepler aufnehmen kann:


-AMDs "erster" Grafik Chip
-Komplett neue Generation seit 2006/2007
-Neue unbekannte Fertigung 28nm
-Kein vernüftiges Buget, seit jahren muss AMD sparen


das alles spricht ganz klar gegen einen mega erfolg, wir werden es ja sehen. ich würde es AMD wünschen einen echten knaller in der Hand zu haben, den sonst wird es 2012 wohl richtig düster mit BD zusammen.

boxleitnerb
2011-12-06, 13:17:50
Der erste Punkt ist doch Unsinn. Als ob die Erfahrung von ATI nicht mehr zählt, nur weil AMD draufsteht.

LovesuckZ
2011-12-06, 13:26:35
Er hat auch BD sehr verzerrt dargestellt, die Formulierungen waren ein Witz und die DH-Verarsche macht ihn auch nicht zitierenswürdiger. Auch wenn BD unerwartet langsam herauskam ;) Auch nVidia-Leute sollten auf sein gebrabble nicht mehr geben als auf das von Char-lie, der ja auch hin und wieder recht hatte... weil richtig liegen alleine halt nicht das Kriterium ist.

Also seine Aussagen über Bulldozer waren vielleicht drastisch, aber fast zu 100% richtig...

Ich nehme es nicht wirklich ernst und lasse mich überraschend, aber man sollte hier sofort mit "dat kann nicht sein", "er ist ein AMD Hater" etc. kommen, wenn seine Aussagen über Bulldozer im Inhalt so treffend waren.

Duplex
2011-12-06, 14:02:05
Naja - ein Risiko bleibt: GCN ist eine neue Architektur und die kann auch mal daneben gehen. Siehe NV30 und R600...
Falls GCN flopt hat man aber noch die Cayman Architektur als Joker (Ersatz)

Wenn GCN zu groß, zu langsam & zuviel Energie benötigt kann AMD mit verschiebung (6 Monate?) den Cayman in 28nm verdoppeln (768 VLIW4*3072SPs) und den VLIW4 Compiler optimieren.

LovesuckZ
2011-12-06, 14:04:17
Falls GCN flopt hat man aber noch die Cayman Architektur als Joker (Ersatz)

Wenn GCN zu groß, zu langsam & zuviel Energie benötigt kann AMD mit verschiebung (6 Monate?) den Cayman in 28nm verdoppeln (768 VLIW4*3072SPs) und den VLIW4 Compiler optimieren.

Das wird bestimmt nicht passieren. Wenn GCN floppen sollte, dann gibt es keinen Backup-Plan. AMD hätte hierfür GCN v1 schon vor Jahren auf Eis legen und einen "r420" entwickeln müssen.

Gipsel
2011-12-06, 14:09:25
Selbst wenn GCN v1 floppen sollte, geht die Architektur-Entwicklung in die richtige Richtung. Schau Dir doch einfach mal R600 an, als RV670 und dann RV770 hat sich doch gezeigt, daß das Prinzip an sich schon gar nicht schlecht für die Zeit war. Das Gleiche würde auch bei GCN passieren. Mit GCN v2 würde man dann im Zweifelsfall die Schwächen ausbügeln, falls die erste Version zu groß/zu stromhungrig/zu langsam sein sollte.

Aber warten wir doch erstmal ab! ;)

PS:
Mal so über den Daumen gepeilt ein Vergleich der arithmetischen Leistung von Larrabee und GCN:
Worst Case für GCN/Best Case für Larrabee: 1 CU = 1 Core (Vektorlängenlimitierung)
Best Case für GCN/Worst Case für Larrabee: 1 CU = 4 Cores

Dazu kommt, daß GCN besser beim Verstecken der Speicherlatenzen sein dürfte (mehr gleichzeitig laufende Hardware-Threads, größere Registerfiles) und sozusagen FMA4 kann, Larrabee nur FMA3. Wie die Abwägung von Permute-Einheit vs. lokalen Speicher ausgeht, wage ich nicht zu beurteilen, kumulativ hat Larrabee wohl 33% mehr Bandbreite pro Flop als GCN (wenn man rein die L1-Bandbreite nimmt, sogar deutlich mehr, weil ein Larrabee-Kern eben deutlich weniger Flops macht), ist aber bei Gather-Zugriffen (also nicht linearen, jeder Vektorslot adressiert unabhängig in den Speicher) langsamer (Nur Zugriff auf eine einzige Cache-Line pro Takt möglich! GPUs dürften da "etwas" flexibler sein).

Motörhead_for_ever
2011-12-06, 14:09:48
Scheinbar wirst du mindestens bis Jänner warten müssen, um eine 7970 zu bestellen.
Zweitens verstehe ich nicht, warum du eine dualchip-Karte wie die 5970 mit einer single-chip Karte vergleichen willst/mußt. Hatte mit einer einzelnen Karte noch nie irgendwelche Treiberunstabilitäten, mit CF hingegen, manchmal, die üblichen Probleme. Was hat Treiberstabilität mit klackernden Lüfter zu tun? :confused:

Das waren halt meine damaligen Erfahrungen mit den Ati Karten.

Raff
2011-12-06, 14:14:01
Müllti-GPU macht nun mal mehr Probleme als eine einzelne. Daher sollte man nicht einen neuen Kern verfluchen, weil das X2-Konstrukt zuvor Probleme machte. :)

MfG,
Raff

Duplex
2011-12-06, 14:15:18
@LovesuckZ
Ja aber einen 600mm² GPU Chip wird AMD niemals bauen, aktuell hat Cayman in 40nm "390mm² DIE Space", das wäre fast 55% Unterschied, bei 3 Fertigungsgen. > 40 > 32 > 28nm riecht das nach dumme spekulation hoch 5.
Nicht vergessen 32nm wird übersprungen, 28nm wird bzgl. Fläche & Energie inkl. HKMG viele Vorteile bieten können.

Wieso gibt es keine native 16 Kern CPUs von AMD für den Server Markt? AMD verwendet im Server Markt 2x DIEs in einem Package, sieht ihr hier traut sich AMD auch nicht große native 16 Kern DIEs zu fertigen, ich kann mir nicht vorstellen das man eine neue Architektur gleich mit 600mm² bei TSMC in bulk fertigen will.

Motörhead_for_ever
2011-12-06, 14:35:42
Müllti-GPU macht nun mal mehr Probleme als eine einzelne. Daher sollte man nicht einen neuen Kern verfluchen, weil das X2-Konstrukt zuvor Probleme machte. :)

MfG,
Raff

Genau..aber ich werde in Zukunft auf jeden Fall die Finger von Multi GPU lassen, bestes beispiel hat man ja gesehen. Ich hoff die 7970 wird gut wie Sau, auch von der Stabiliät der Treiber.

ndrs
2011-12-06, 14:50:06
Nicht vergessen 32nm wird übersprungen
Genau wie zuvor 45nm und in Zukunft 22nm. Das is also nix besonderes.

Spasstiger
2011-12-06, 15:12:21
Beim Wechsel von 55 nm auf 40 nm hat AMD die Diesize aber nur um 20% angehoben (RV790 -> Cypress) und die Integrationsdichte genau in dem Maß erhöht wie es der Fertigungswechsel erwarten ließ. Ein Anstieg der Diesize um 50% bei einer potentiellen Verdopplung der Integrationsdichte wäre sehr ungewöhnlich für AMD.

Duplex
2011-12-06, 15:14:33
Beim Wechsel von 55 nm auf 40 nm hat AMD die Diesize aber nur um 20% angehobenUnd den Chip noch mit DX11 erweitert.

Skysnake
2011-12-06, 16:15:29
GF110 ist 520mm^2 groß und es gibt x2 Karten.

Ich verstehe hier auch nicht die Aufregung. Die Größe spielt doch keine Rolle, wenn die Architektur entsprechend schnell und modular aufgebaut ist. Man sollte sich endlich davon lösen.
Das wäre wohl über dem Masken-Limit von TSMC. Unwahrscheinlich.
Das hängt vom benutzten Belichter ab. Typischerweise (meistens) ist das Limit für die Masken 104 x 132 mm², was bei der Belichtung im 1:4 Maßstab auf den Wafer verkleinert wird (http://forum.beyond3d.com/showthread.php?p=1592955#post1592955), was dann in 26 x 33 mm² auf dem Wafer resultiert. Eine Art effektives Limit für das fertige Die ist 1" x 1", also ~650mm² für ein mehr oder weniger quadratisches Die.

Edit:
Intels Tukwila ist rechteckig und mißt angeblich 21.5×32.5 = 698.75 mm². Aber das ist eben auch intel.

Lovesuckz ich schließe mich meinen Vorredner an. Das ist mehr als unrealistisch.

@Gospel:
Soweit ich das mitbekommen habe ist nvidia mit dem GF100 an die Grenze oder sogar ganz leichter über das gegangen, was TSMC selbst als maximale Fertigungsgröße angeben. Ist wohl auch extrem schwer überhaupt Masken dafür zu bekommen. Als wirklich sehr unrealistisch. 400-500 ist ok, aber nicht mehr.

AnarchX
2011-12-06, 16:19:29
Vielleicht verwendet AMD nun auch einen Heatspreader...

Gipsel
2011-12-06, 16:38:19
@Gispel:
Soweit ich das mitbekommen habe ist nvidia mit dem GF100 an die Grenze oder sogar ganz leichter über das gegangen, was TSMC selbst als maximale Fertigungsgröße angeben. Ist wohl auch extrem schwer überhaupt Masken dafür zu bekommen. Als wirklich sehr unrealistisch. 400-500 ist ok, aber nicht mehr.
Masken bekommst Du schon noch, daß Problem ist eher die Abbildungsqualität der Belichter in den Randbereichen (bei schlechter Qualität sinkt der yield bzw. es hat große Auswirkungen auf die Taktbarkeit). Wie man sieht, hat selbst Intel die eine Dimension nicht ausgenutzt. Die kürzere Kantenlänge der Maske ist ja die kritische, da über die lange gescannt wird. Belichtet wird also maximal ein 26mm langer und ein paar Millimeter breiter Streifen und während der Belichtung werden die Maske und der Wafer synchronisiert über die maximal 33mm geschoben. An den Rändern dieses 26mm langen Streifens sinkt aber wie gesagt die Abbildungsqualität, weswegen Intel wohl offensichtlich lieber nur 21,5mm davon genutzt hat, dafür dann aber praktisch die volle maximale Länge der Maske von ~33mm. GF100/110 ist dagegen beinahe quadratisch hat also in einer (der kritischen) Dimension eine größere Abmessung als Intels ~700mm² Tukwila Monster. Vielleicht empfiehlt auch TSMC mit der einen Kantenlänge nicht über 21-22mm zu gehen und nVidia hat da eben noch einen Millimeter auf eigenes Risiko draufgeschlagen, weil es nicht ganz so einfach wahr, das Layout etwas rechteckig zu bekommen. Aber das ist Spekulation.

Dural
2011-12-06, 16:52:09
Vielleicht verwendet AMD nun auch einen Heatspreader...


der wäre mit 600mm2 etwas klein :)

Skysnake
2011-12-06, 16:58:44
wie gesagt, das ist mir halt zu Ohren gekommen. Deine Ausführung klingt auch logisch und kann so gewesen sein. Wie das genau mit nVidia war konnte mir derjenige auch nicht sagen, nur das Sie eben etwas über die eigentliche maximale von TSMC geplante größe drüber raus sind.

Es soll aber wohl wirklich auch nicht ganz trivial sein derart große Masken her zu stellen, bzw eben jemanden zu finden, der einem eine herstellt, einfach weil es über die normalen maße drüber raus geht.

sei's jetzt auch drum. Der 600mm² Chip ist auf jeden Fall sehr unwahrscheinlich.

AnarchX
2011-12-06, 16:59:28
Win an upcoming monster & weekly HD6870X2 giveaway!
Vote the best of 2011 and win back a coming new monster of 2012! Not only that, PowerColor will giveaway HD6870X2 each week!
Ready to win awesome prizes? Simple! All you need to do is to tell us your most favorite graphics of 2011, you’ll have big chance to win back the weekly HD6870X2 giveaway; moreover, no matter you are the weekly winner or not, you’re qualified to enter the final lucky draw and might be the very FIRST to experience the mighty power of upcoming card !
[...]
The next generation graphics winner will be announced on Dec. 30th, 10:00 am (GMT+8)
http://www.powercolor.com/event/2011best/

Fragt sich nur, wann man die Karte bekommt.

Ailuros
2011-12-06, 17:33:05
Auf jeden Fall wuerde ich lieben gerne eine GPU sehen mit einem 600mm2/28nm die, fast 6990 Leistung und einem <225W TDP ;D

Gipsel
2011-12-06, 18:47:47
Auf jeden Fall wuerde ich lieben gerne eine GPU sehen mit einem 600mm2/28nm die, fast 6990 Leistung und einem <225W TDP ;D
Mensch, ist doch ganz einfach. Tahiti hat ~350mm², <225W TDP und fast HD6990-Leistung. Für New Zealand aka HD7990 packen die zwei Tahitis auf einem Silicon Interposer zusammen. Das Konstrukt hat dann >600mm² Fläche und verhält sich aber wie eine einzige GPU.
:weg:

Botcruscher
2011-12-06, 18:55:04
Das "Gerücht" um diese Methode gibt es seit R600. Nie war etwas dran.

Gipsel
2011-12-06, 18:57:13
Das "Gerücht" um diese Methode gibt es seit R600. Nie war etwas dran.
Deswegen der Wegrenn-Smiley. ;)

boxleitnerb
2011-12-06, 21:05:08
According to sources close to AMD have achieved, but also to offer DirectX 11.1 support 3GB memory version of the HD 7970 model, $ 499, $ 399 at HD 7950'nin pricing model with 3GB of memory sunulacaklar. Of course, these prices are valid for foreign taxes due to higher prices for Turkey would be mentioned in the note düşelim. So at what level of performance will be AMD's next-generation graphics cards. After several discussions of different manufacturers can be said to be emerging as the current tablounun; Radeon HD 6990> GTX 590> Radeon HD 7970> GeForce GTX 580> Radeon HD 7950> GeForce GTX 570> Radeon HD 6970.

http://translate.google.de/translate?hl=de&sl=tr&tl=en&u=http%3A%2F%2Fwww.donanimhaber.com%2Fekran-karti%2Fhaberleri%2FAMD-Radeon-HD-7000-serisi-icin-fiyat-bilgileri.htm

Gehen die da immer von bester Skalierung aus? Eine GTX590 ist aufgrund der Rohleistung maximal 57% flotter als eine GTX580. Dann wären 50% zur GTX580 und ca. 65% zur HD6970 zu erwarten.

y33H@
2011-12-06, 21:09:54
Das ist im Rahmen der Erwartungen, eine verdoppelte HD 6970 wäre irgendwie kränk.

Spasstiger
2011-12-06, 21:10:17
Klingt nach einer Verwurstung verschiedener Gerüchte.
7950 hinter der GTX 580 wäre jedenfalls eine Enttäuschung.

boxleitnerb
2011-12-06, 21:12:37
Schaut euch mal an, was eine 6970 verbraucht. Will man mit der TDP nicht höher gehen, ist keine Verdopplung drin. Das haben in den letzten 5 Jahren weder AMD noch Nvidia geschafft. Wenn man nachschauen würde, wahrscheinlich nie (im Schnitt natürlich).

Ailuros
2011-12-06, 21:15:46
Klingt nach einer Verwurstung verschiedener Gerüchte.
7950 hinter der GTX 580 wäre jedenfalls eine Enttäuschung.

Bei einem hypothetischen $399 MSRP schon. Eine 570 kostet heute um die $320-340 je nach Fall in US.

AnarchX
2011-12-06, 21:17:52
Eine HD 7670 für $179. :|

Spasstiger
2011-12-06, 21:20:20
Bei einem hypothetischen $399 MSRP schon. Eine 570 kostet heute um die $320-340 je nach Fall in US.
Es wäre bei jedem Preis eine Enttäuschung, wenn Tahiti Pro trotz 28-nm-Vorteil nur auf GF110-Niveau landet. Ich erwarte von Tahiti, dass er sowohl in der XT- als auch in der Pro-Variante den GF110 klar schlägt.

boxleitnerb
2011-12-06, 21:20:41
Eine HD 7670 für $179. :|

Die 6670 hatte glaub einen MSRP von ca. 100$.

Ailuros
2011-12-06, 21:23:49
Es wäre bei jedem Preis eine Enttäuschung, wenn Tahiti Pro trotz 28-nm-Vorteil nur auf GF110-Niveau landet. Ich erwarte von Tahiti, dass er sowohl in der XT- als auch in der Pro-Variante den GF110 klar schlägt.

Wenn man davon ausgeht dass die TahitiXT/7970 einen Schnitt unter der 6990 Leistung liegt wuerde man solches nicht erwarten? Um wieviel schneller ist denn im Durchschnitt eine 6990 als eine 6970 und eine GTX580?

Botcruscher
2011-12-06, 21:23:49
Das ist im Rahmen der Erwartungen, eine verdoppelte HD 6970 wäre irgendwie kränk.
Bei einem normalen Sprung ja aber nicht bei quasi zwei Fertigungsgrößen. Langweilig wäre unter trieben.

boxleitnerb
2011-12-06, 21:27:05
Wenn man davon ausgeht dass die TahitiXT/7970 einen Schnitt unter der 6990 Leistung liegt wuerde man solches nicht erwarten? Um wieviel schneller ist denn im Durchschnitt eine 6990 als eine 6970 und eine GTX580?

Nach den Rohdaten wenn man von perfekter Skalierung und keiner Bandbreitenlimitierung ausgeht, 88%.

Raff
2011-12-06, 21:27:53
Wenn man davon ausgeht dass die TahitiXT/7970 einen Schnitt unter der 6990 Leistung liegt wuerde man solches nicht erwarten? Um wieviel schneller ist denn im Durchschnitt eine 6990 als eine 6970 und eine GTX580?

+80 und +60 Prozent. Etwa.

MfG,
Raff

w0mbat
2011-12-06, 21:31:03
jetzt lasst es doch mal auf euch zukommen bevor man von eine enttäuschung redet. es gibt neben der performance noch ander bereiche in denen eine gpu punkten kann.

Dural
2011-12-06, 21:32:30
eine 5870 war auch nur 25% schneller als eine GTX285, jedoch wäre die 7950 unter GTX580 schon etwas enttäuschend, da dies ja bedeuten würde das die 7970 ca. 20% über der GTX580 ist.

Raff
2011-12-06, 21:32:47
jetzt lasst es doch mal auf euch zukommen bevor man von eine enttäuschung redet. es gibt neben der performance noch ander bereiche in denen eine gpu punkten kann.

Na das wollen wir doch schwer hoffen. Könnte bitte einer die BQ-Verbesserungen spoilen? Thx. :biggrin: Der/die/das AF-Fix gilt ja als gesichert ...

MfG,
Raff

Ailuros
2011-12-06, 21:35:01
+80 und +60 Prozent. Etwa.

MfG,
Raff

Man kann je nach Aufloesung und Applikations-Kombinationen auch andere Zahlen erreichen, aber das ist eher nebenwichtig. Wenn die 7970 rein hypothetisch 6970+70% und 7950= 6970+50% wird, liegt man wo genau im Vergleich zu einer GTX580 bei der letzten?

boxleitnerb
2011-12-06, 21:36:38
eine 5870 war auch nur 25% schneller als eine GTX285, jedoch wäre die 7950 unter GTX580 schon etwas enttäuschend, da dies ja bedeuten würde das die 7970 ca. 20% über der GTX580 ist.

Stimmt, die 50er und 70er liegen wohl nicht mehr als 20% auseinander, sonst hätte man ein zusätzliches Modell reingeschoben. Das wäre wirklich nicht gut - es sei denn, man ändert wieder das Namensschema und das sind nur Performancechips!

Gabs nicht ein Gerücht, dass die neuen Karten ganz anders heißen werden?

AnarchX
2011-12-06, 21:36:55
eine 5870 war auch nur 25% schneller als eine GTX285, jedoch wäre die 7950 unter GTX580 schon etwas enttäuschend, da dies ja bedeuten würde das die 7970 ca. 20% über der GTX580 ist.
Was ~50% mehr Leistung als bei einer 6970 wäre, in D3D11-Worstcases vielleicht auch mehr.
Wenn die TDP wirklich um einiges unter 200W liegen sollte, wäre das nicht so schlecht. Einzig die $499 würden etwas stören.

Ailuros
2011-12-06, 21:45:51
Was ~50% mehr Leistung als bei einer 6970 wäre, in D3D11-Worstcases vielleicht auch mehr.
Wenn die TDP wirklich um einiges unter 200W liegen sollte, wäre das nicht so schlecht. Einzig die $499 würden etwas stören.

499/399 waere die Mitte von den Geruechten die momentan zwischen 449/349 und 549/449 schwanken. Mir riecht es eher nach 449 um ehrlich zu sein und obwohl es weniger stoeren wuerde als 549, stoert es mich immer noch (bitte nicht hauen...).

Raff
2011-12-06, 21:48:34
Wenn AMD ein Stromsparwunder bastelt, wären viele Enthusiasten gewiss gelangweilt. Ich wünsche mir auch eher einen 250-Watt-Klopper, denn zum Stromsparen braucht's keine sauteure High-End-Grafikkarte. Aber: Wenn der Chip wirklich ein Sparkaliber vom Schlage HD 5870 wird, dann hoffentlich mit fettem OC-Potenzial. :naughty:

MfG,
Raff

Dural
2011-12-06, 21:53:26
Was ~50% mehr Leistung als bei einer 6970 wäre, in D3D11-Worstcases vielleicht auch mehr.
Wenn die TDP wirklich um einiges unter 200W liegen sollte, wäre das nicht so schlecht. Einzig die $499 würden etwas stören.


ja da hast du auch wider recht :)

fondness
2011-12-06, 23:23:44
Wenn die TDP wirklich um einiges unter 200W liegen sollte, wäre das nicht so schlecht. Einzig die $499 würden etwas stören.

Wenn die TDP deutlich unter 200W liegen sollte, dann hält AMD schlicht noch Leistung zurück. Die maximale Performance wird doch heute längst von der Leistungsaufnahme begrenzt. Außer es handelt sich um einen sehr kleinen Chip.

Gipsel
2011-12-07, 01:41:25
http://translate.google.de/translate?hl=de&sl=tr&tl=en&u=http%3A%2F%2Fwww.donanimhaber.com%2Fekran-karti%2Fhaberleri%2FAMD-Radeon-HD-7000-serisi-icin-fiyat-bilgileri.htmKlingt nach einer Verwurstung verschiedener Gerüchte.
Ganz genau. Wer jetzt noch schreibt, nur Tahiti wird GCN und Pitcairn sowie CapeVerde wären VLIW4, der kann kaum echte Informationen haben. :rolleyes:

Neon3D
2011-12-07, 03:14:25
ganz nüchtern betrachtet würde es mich kein stück wundern wenn GCN ein "Flop" wird, ganz im gegenteil es würde mich umso mehr überraschen wenn GNC es locker mit Kepler aufnehmen kann:


-AMDs "erster" Grafik Chip
-Komplett neue Generation seit 2006/2007
-Neue unbekannte Fertigung 28nm
-Kein vernüftiges Buget, seit jahren muss AMD sparen


das alles spricht ganz klar gegen einen mega erfolg, wir werden es ja sehen. ich würde es AMD wünschen einen echten knaller in der Hand zu haben, den sonst wird es 2012 wohl richtig düster mit BD zusammen.

ich denke wie dural, das gcn floppen wird. zwar nicht so extrem wie der bulli, aber momentan läuft es bei amd leider gar nicht. die diesize wird wie (fast) immer steigen und der stromverbrauch damit auch. was die architektur wirklich kann ist auch wieder kaum vorherzusagen, wenn man sich das bd-fiasko mal ansieht. ging man von den verbesserungen der architektur des bd aus hätter er rein logisch gesehen einschlagen müssen wie eine granate. heraus kam nen scherzartikel.

auch wenn jetzt manche sagen, das man bulli mit ner gpu nicht vergleichen kann. fakt ist, das amd eine reihe von problemen mit ihren neuen produkten hat und das das unter anderem an fehlern im oberen management liegen. wäre ati noch unabhängig würde ich gcn anders einschätzen, aber amd trifft nun für ati die wichtigen entscheidungen. deswegen sind die vergleiche mit früheren rv-versionen viel weniger aussagekräftig, weil die nun mal ohne dem einfluß von amd herausgebracht wurden.
-> gcn wird zumindest etwas mehr performance bringen, aber sicherlich mit einem schlechten beigeschmack.

Hugo
2011-12-07, 05:51:50
According to sources close to AMD have achieved, but also to offer DirectX 11.1 support 3GB memory version of the HD 7970 model, $ 499, $ 399 at HD 7950'nin pricing model with 3GB of memory sunulacaklar. Of course, these prices are valid for foreign taxes due to higher prices for Turkey would be mentioned in the note düşelim. So at what level of performance will be AMD's next-generation graphics cards. After several discussions of different manufacturers can be said to be emerging as the current tablounun; Radeon HD 6990> GTX 590> Radeon HD 7970> GeForce GTX 580> Radeon HD 7950> GeForce GTX 570> Radeon HD 6970.
http://translate.google.de/translate...-bilgileri.htm

Ail schrieb im Kepler-Thread GK104 2TFlops zu. Dadurch erwarte ich GK104 schon vor der GTX580.
Da ist wohl eher der GK104 der Gegner von Tahiti?

V2.0
2011-12-07, 07:04:06
Wo ist das Problem 580+ Leistung für unter 200W TDP; das wäre eine Bombenkarte. Die auch deutlich teurer sein sollte als eine 580, gerade wenn NV evtl. Monate später am Markt sein dürfte. Addiert man dazu dass es wohl eine 3GB Karte ist, sieht es nach einem sehr runden Produkt aus.

horn 12
2011-12-07, 07:25:42
Nun gut, falls es so zutreffen sollte, gar net mal sooo schlecht:

Gefixtes AF (Endlich)
3GB Ram (Zukunftssicher)
Neue Antialiasing- Modi
HD7950 sicherlich schneller als GTX 580, wenn auch nur um 5-10%
HD7970 gute 20% über GTX 580.

Preislich wohl eher 300 bzw. 400 Euro!

boxleitnerb
2011-12-07, 07:29:00
Nun gut, falls es so zutreffen sollte, gar net mal sooo schlecht:

Gefixtes AF (Endlich)
3GB Ram (Zukunftssicher)
Neue Antialiasing- Modi
HD7950 sicherlich schneller als GTX 580, wenn auch nur um 5-10%
HD7970 gute 20% über GTX 580.

Preislich wohl eher 300 bzw. 400 Euro!

Selbstgebackener Spekulatius oder hast ne Quelle?
400 Euro wäre deutlich zuviel.

Btw HD7400M-7600M noch in 40nm, alte Technik, kaum schneller:
http://techreport.com/discussions.x/22120

uweskw
2011-12-07, 10:21:22
....
Gefixtes AF (Endlich)
....



Hab ich nun schon mehrfach gelesen. Wie kommt ihr darauf?
Was mir aber wichtiger wäre ist SSGA unter DX1o und DX11.

greetz
U.S.

Palpatin
2011-12-07, 10:32:15
400 Euro wäre deutlich zuviel.
[/url]
Die günstigste 3gb 580er liegt imo bei 450€. Ein Preis zwischen 300 und 400 ist da durchaus drinnen, vorallem zu Beginn wenn die Dinger noch knapp sind und es von NV noch nix gibt.

boxleitnerb
2011-12-07, 10:39:11
Da muss NV nur den Preis der 580er senken und schon steht man nicht so schlecht da. Bei einer neuen Generation erwarte ich anders als bei den CPUs keine Melkpreise bzw. einen entsprechenden Gegenwert dazu. Und das sind - in meinen Augen - die kolpotierten 20-25% nicht.

Duplex
2011-12-07, 11:03:23
Was ist den hier los? höre ich GTX580 Leistung? Was nur 20% schneller? Will da jemand falsche informationen im Netz verbreiten :rolleyes:

Wenn die 7970 durch 28nm keine 50-60% schneller als eine 6970 wird, dann hat AMD gegen Kepler keine Chancen!

AMD wird bestimmt kein Rückschritt von VLIW > non VLIW machen, das Design ist doch nicht komplett neu...

http://www.abload.de/img/phpx5l6vn0058hxa5.jpg

Schnitzl
2011-12-07, 11:10:08
Hab ich nun schon mehrfach gelesen. Wie kommt ihr darauf?
Was mir aber wichtiger wäre ist SSGA unter DX1o und DX11.

greetz
U.S.
völlig richtig
was bringts wenn das Ding 100mal so schnell ist wie ne GTX580 aber obiges nicht bietet.
das wird diesmal ein fast klarer Feature-Kauf, und das schnellste bis <200W

MfG

Duplex
2011-12-07, 11:17:23
Das Non VLIW Design von GCN bietet mehrere Vorteile gegenüber VLIW an, wenn AMD viele Shader Einheiten verbaut sehe ich kein Problem, 50-80% mehr Leistung gegenüber den Vorgänger halte ich in 28nm für möglich.

Spasstiger
2011-12-07, 11:20:48
Hab ich nun schon mehrfach gelesen. Wie kommt ihr darauf?
Die Information wurde einem User aus diesem Forum zugetragen, der AMD beim Bugfixing unterstützt hat.
Nach Bugfixing sollte AMDs AF-Qualität wieder vor Nvidia liegen, außer Nvidia bestimmt bei Kepler die Gradienten auch über die Halbachsen einer Ellipse.

Raff
2011-12-07, 11:25:18
Nach Bugfixing sollte AMDs AF-Qualität wieder vor Nvidia liegen, außer Nvidia bestimmt bei Kepler die Gradienten auch über die Halbachsen einer Ellipse.

Im Gegensatz zu Undersampling (Flimmern) ist minimale Winkelabhängigkeit reine Kosmetik, die man nur mit sehr viel gutem Willen erkennen kann.

MfG,
Raff

boxleitnerb
2011-12-07, 11:27:11
Gibts beim AF überhaupt noch was zu verbessern, was man auch sieht? In Skyrim grieseln auch mit HQ-AF bestimmte Detailtexturen noch, würde man das wegbekommen? Die Winkelabhängigkeit ist ja auch fast komplett weg bzw. (für mich) nicht mehr sichtbar.

Ronny145
2011-12-07, 11:29:46
Im Gegensatz zu Undersampling (Flimmern) ist minimale Winkelabhängigkeit reine Kosmetik, die man nur mit sehr viel gutem Willen erkennen kann.

MfG,
Raff


Ist das überhaupt irgendwo sichtbar (abgesehen von AF Tools)? Ist mir bisher noch nie aufgefallen in AF Vergleichen. Zwischen meiner X1800XT und HD6850 konnte ich in Spielen eigentlich keine Unterschiede entdecken, obwohl es laut AF Blume einen deutlichen Unterschied geben müsste.

Gipsel
2011-12-07, 11:59:56
AMD wird bestimmt kein Rückschritt von VLIW > non VLIW machen, das Design ist doch nicht komplett neu...

http://www.abload.de/img/phpx5l6vn0058hxa5.jpg
Spricht's und verlinkt eine Folie, die die ganzen neuerungen, aber kaum gemeinsamkeiten aufzählt. :rolleyes:
Glaube mir, GCN ist sehr anders als die VLIW-Architekturen und auch deutlich anders als Fermi. Das geht vom Konzept her eher so in die Richtung von einem Blend zwischen Larrabee (minus x86 plus mehr Vektor-Einheiten pro Kern) und ein paar guten und bewährten Ideen aus dem (AMD/ATI-)GPU-Bau.
Im Gegensatz zu Undersampling (Flimmern) ist minimale Winkelabhängigkeit reine Kosmetik, die man nur mit sehr viel gutem Willen erkennen kann.Das Problem war bei AMD wohl nicht, daß sie zu wenig Samples genommen haben (anscheinend sogar eher mehr als nVidia), sondern schlicht die falschen (edit: oder falsch zusammengerechnet). Mit der Winkelabhängigkeit hat das tatsächlich nichts zu tun.

deekey777
2011-12-07, 12:02:51
Greifen die einzelnen SIMDs einer CU auf gemeinsamen LDS-Speicher?

Gipsel
2011-12-07, 12:03:51
Greifen die einzelnen SIMDs einer CU auf gemeinsamen LDS-Speicher [zu]?
Ja. Nur die Registerfiles sind getrennt.

deekey777
2011-12-07, 12:29:02
Ja. Nur die Registerfiles sind getrennt.
Also eine Art GDS per CU?

Dural
2011-12-07, 12:33:10
Die echten neuen Grafiklösungen für Notebooks werden später folgen, wenn die 28-nm-Fertigung bei TSMC soweit ist und entsprechende Volumina für Desktop- und Notebook-Lösungen bereitstellen kann. Dort sind bei AMD erst einmal die High-End-Chips für Desktop an der Reihe, da man sich dort wohl einige Wochen wenn nicht gar Monate vor dem großen Konkurrenten Nvidia platzieren kann.

http://www.computerbase.de/news/2011-12/auch-amd-mit-ersten-drei-radeon-hd-7000m-grafikloesungen/

Gipsel
2011-12-07, 13:31:58
Also eine Art GDS per CU?
Na der lokale Speicher (aka LDS/shared memory) ist doch gerade dazu da, daß mehrere Threads (also Wavefronts/Warps im GPU-Sprech) Informationen austauschen bzw. diesen Speicherbereich gemeinsam nutzen können. Das ändert sich nicht und funktioniert bei nVidia ganz genau so.
Wenn jede der vier Vektor-ALUs bei GCN einen eigenen LDS hätte, wären es vier CUs und nicht mehr nur eine. ;)

Coda
2011-12-07, 13:34:55
Ist das überhaupt irgendwo sichtbar
Ich behaupte nein.

Gibts beim AF überhaupt noch was zu verbessern, was man auch sieht?
Ja, der bilineare Filterkernel ist nicht optimal. Auch ist es nicht optimal, dass bei trilinear eine minimal flimmernde und eine minimal geblurrte Mip zusammengerechnet werden und man davon ausgeht, dass es dann schon so passt. Da sind Approximationen am Werk, die wirklich sehr gut funktionieren. Aber das Bild könnte durchaus noch sauberer sein.

Der Aufwand für bessere Verahren lohnt sich aber meiner Meinung nach nicht, da Shader etc. auch ihren Beitrag zu einer Bildunruhe liefern. Da ist es wohl tatsächlich sinnvoller am Ende doch 4x Supersampling zu fahren.

Am ehesten hätte ich noch gerne einen bikubischen Filter für die Magnification.

uweskw
2011-12-07, 13:47:08
.....
Der Aufwand für bessere Verahren lohnt sich aber meiner Meinung nach nicht, da Shader etc. auch ihren Beitrag zu einer Bildunruhe liefern. ....

Warum flimmern diese Shader eigentlich so grauenhaft. Kann der GraKa Hersteller das irgendwie verbessern? - Abgesehen von SSAA.

Gipsel
2011-12-07, 13:51:06
Warum flimmern diese Shader eigentlich so grauenhaft.Mathematisch ausgedrückt samplen sie (im Shader berechnete) Funktionen mit starken Gradienten (oder gar unstetige). Also kleine Änderungen der Eingangswerte führen zu starken Änderungen des Ausgangswertes, wobei räumliche Frequenzen oberhalb des Nyquist-Limits auftreten können (weil jeder Pixel individuell berechnet wird und die benachbarten nicht mit einbezieht).
Kann der GraKa Hersteller das irgendwie verbessern? - Abgesehen von SSAA.Das können höchstens die Programmierer verbessern, indem sie (deutlich) mehr Grips in die Shader stecken.

boxleitnerb
2011-12-07, 14:03:07
Das können höchstens die Programmierer verbessern, indem sie (deutlich) mehr Grips in die Shader stecken.

Gibt (gab) es eigentlich eine Bestrebung, sowas in der DX Spec irgendwie zu regeln? Sei es nun, die Option auf (ordentliches, also überall greifendes) MSAA vorzuschreiben oder flimmerfreie Shader oder eben "Lehrbuch"-AF.

Coda
2011-12-07, 14:04:58
Wie willst du jemanden in einer Spec vorschreiben, wie er zu programmieren hat?

boxleitnerb
2011-12-07, 14:07:57
Es werden doch auch andere Sachen vorgeschrieben (?), warum nicht sowas? Ich meine, viele Spieleentwickler produzieren seit Jahren teilweise Grütze, was Aliasing und Flimmern angeht - anstatt da mit dem Dampfhammer SSAA oder mit Pseudo-AA draufzuhauen, könnte man das Problem doch einfach an der Wurzel angehen.
So nach dem Motto - willst du, dass was gescheit gemacht wird, mach es selbst (oder stelle eben verbindliche Regeln auf).

Du bist ja Profi im Bereich 3D-Grafik, wie ist denn deine Prognose, wie das weitergehen soll? Nur die wenigsten Entwickler machen sich über sowas wirklich Gedanken, da sehe ich schwarz für die Zukunft, wenn die keiner zwingt.

Gipsel
2011-12-07, 14:08:24
Gibt (gab) es eigentlich eine Bestrebung, sowas in der DX Spec irgendwie zu regeln? Sei es nun, die Option auf (ordentliches, also überall greifendes) MSAA vorzuschreiben oder flimmerfreie Shader oder eben "Lehrbuch"-AF.
Shaderflimmern kannst Du prinzipiell nicht mit MSAA oder einer DX-Spec-Änderung wegbekommen (nur SSAA hilft). Und das Shaderflimmern über geeignete Programmierung zu minimieren, liegt eben in der Verantwortung des Programmieres, ist allerdings auch nicht ganz trivial. Du kannst ja nicht in den DX-Specs festschreiben, was ein Shader wie machen muß.

boxleitnerb
2011-12-07, 14:15:32
Hm...mit dem MSAA gings mir darum, dass man das mit Nvidias Hack auf SGSSAA erweitern kann. Aber halt auch nur dort, wo überhaupt gesampled wird. Es gibt (leider) genug Beispiele, wo erst mit AA-Bits ein wirklich schön glattes Bild erreicht wird. Ohne ist es oft nicht optimal. Von Fällen, wo gar kein MSAA geht, mal ganz abgesehen. Es wäre schon ein Riesenfortschritt, wenn man in wirklich jedem Spiel und jeder API MSAA zuschalten könnte.

Coda
2011-12-07, 14:29:18
Braucht man halt D3D10.1/D3D11 für. Mit D3D9 gibt's da technische Limitierungen.

Die Diskussion hatten wir aber auch jetzt schon einige Male.

uweskw
2011-12-07, 14:59:00
Ich dachte genau anders herum. D3D10.1/D3D11 erlauben keinerlei weitere Manipulation. Deswegen sei auch SSAA mit AMD nicht unter D3D10.1/D3D11 erwingbar.:confused:

Coda
2011-12-07, 15:01:03
Ich rede davon, dass mit D3D9 MSAA oft nicht machbar ist. SSAA ist nochmal eine andere Baustelle und mit D3D10.1/11 prinzipiell auch von der Applikation anforderbar.

davidzo
2011-12-07, 17:00:25
ahem, ich möchte hier sinnlose spekulationen über tahiti&co sehen, keine fachdiskussionen über MSAA und Shaderflimmern! Vielleicht nochmal das eine oder andere Leak (wobei es dann ja in "Grafikchips" weitergeht, nicht in Spekulatius)

Ich habe keine Lust mir ernsthafte Technikdiskussionen anzuhören, sndenr bin für Spekulatius hier und warte auf entscheidende Leaks. Unfair dass ich da soviel ernsthaftes mitlesen muss das mich kein Stück interessiert!

Also back to topic plz!

ist das hier eigentlich schon von anderer Seite bestätigt?

http://www.fudzilla.com/graphics/item/25130-radeon-hd-7000-is-384-bit

We have learned that high end Southern Islands parts will feature a 384-bit memory interface. We‘ve already told you in that the memory of choice is GDDR5.

Käsetoast
2011-12-07, 17:04:30
ist das hier eigentlich schon von anderer Seite bestätigt?

http://www.fudzilla.com/graphics/item/25130-radeon-hd-7000-is-384-bit
Zumindest reden alle davon - offiziell ist's aber wohl nicht, wobei es aus meiner Sicht sinnvoll klingt...

http://translate.google.de/translate?hl=de&ie=UTF8&prev=_t&sl=tr&tl=en&u=http://www.donanimhaber.com/ekran-karti/haberleri/AMD-Radeon-HD-7000-serisi-icin-fiyat-bilgileri.htm

Ailuros
2011-12-07, 17:14:55
ahem, ich möchte hier sinnlose spekulationen über tahiti&co sehen, keine fachdiskussionen über MSAA und Shaderflimmern! Vielleicht nochmal das eine oder andere Leak (wobei es dann ja in "Grafikchips" weitergeht, nicht in Spekulatius)

Ich habe keine Lust mir ernsthafte Technikdiskussionen anzuhören, sndenr bin für Spekulatius hier und warte auf entscheidende Leaks. Unfair dass ich da soviel ernsthaftes mitlesen muss das mich kein Stück interessiert!

Also back to topic plz!

ist das hier eigentlich schon von anderer Seite bestätigt?

http://www.fudzilla.com/graphics/item/25130-radeon-hd-7000-is-384-bit

Wurde schon vor einigen Seiten gepostet. Wenn mehr Informationen zum Vorschein kommen wird der Thread hier dementsprechend informiert. Sonst ist es normal dass Diskussionen dank fehlendem anderem Material stellenweise abschweichen, aber nichtdestominder wir Mods sind nicht zur Dekoration da.

john carmack
2011-12-07, 18:25:08
http://www.computerbase.de/news/2011-12/weitere-geruechte-zur-neuen-radeon-grafikkartenserie/

"Laut den bei AMD-Hardware sehr gut informierten türkischen Kollegen von Donanimhaber soll die HD 7970 Nvidias GeForce GTX 580 schlagen, während die HD 7950 die GTX 570 packt, aber weiterhin unterhalb der GTX 580 rangieren soll. "

Hoffe das ist nur ein Witz... Wenn sich das bewarheiten sollte dann kann man davon ausgehen das es tatsächlich vorbei ist mit den großen Performance Sprüngen. Da hilft dann wohl nur noch eine von Grund auf neue Technologie um wieder 80%+ und mehr Performance Sprünge zu sehen.

Was war eigentlich mit dem NDA und dem Pressebriefing von 5.12 - 8.12 gemeint?
Fällt heute Nacht das NDA? Zumindest für die Karten die unter den 7900er liegen?

CompuJoe
2011-12-07, 18:27:21
Hm, dann währe die ja kaum schneller als die aktuellen Karten, da labert glaube jemand blödsinn.

Ravenhearth
2011-12-07, 18:27:51
Was war eigentlich mit dem NDA und dem Pressebriefing von 5.12 - 8.12 gemeint?
Fällt heute Nacht das NDA? Zumindest für die Karten die unter den 7900er liegen?


Damit waren wohl eher die umbenannten Mobil-Grafikkarten (http://www.pcgameshardware.de/aid,858293/AMD-stellt-Radeon-HD-7400M-HD-7500M-und-HD-7600M-vor-Rebranding-der-HD-6000M/Grafikkarte/News/) gemeint.

Raff
2011-12-07, 19:01:50
http://www.computerbase.de/news/2011-12/weitere-geruechte-zur-neuen-radeon-grafikkartenserie/

"Laut den bei AMD-Hardware sehr gut informierten türkischen Kollegen von Donanimhaber soll die HD 7970 Nvidias GeForce GTX 580 schlagen, während die HD 7950 die GTX 570 packt, aber weiterhin unterhalb der GTX 580 rangieren soll.

Irgendwie riecht das derzeit krass nach 2009-2010: HD 5870 erscheint, kloppt die GTX 285 und verbraucht relativ wenig Strom, HD 5850 bietet der 285 immerhin die Stirn; 3 Monate später kommt die GTX 480 und kloppt die AMD-Karte. Laaangweilig, wenn das wieder so wäre ... aber es wird immer wahrscheinlicher. :|

MfG,
Raff

Black-Scorpion
2011-12-07, 19:19:36
Bei einigen fragt man sich wo die ihre Glaskugel haben.
Da wird nach allen Regeln der Kunst die Karte niedergemacht und gleichzeitig Kepler in den Himmel gelobt. Und das wo Kepler noch länger ein unbekanntes Wesen bleibt.

Raff
2011-12-07, 19:32:23
Bei einigen fragt man sich, warum sie immer dann ihr Lurkertum beenden, wenn die heilige Kuh gerade nicht über den grünen Klee gelobt wird. Hier wird nichts niedergemacht, sondern Bedenken und eine mögliche Enttäuschung geäußert. Es wäre jammerschade, wenn AMD/Ati einen auf Ökofirma macht, denn dafür braucht's kein High-End. ;(

MfG,
Raff

y33H@
2011-12-07, 19:39:56
Sorry, wenn meine Glaskugel besser ist oder gar richtig funktioniert ... aber ich sehe im Falle der HD 7970 eine TDP unter der GTX 580 und ein Drittel mehr Performance im Mittel [was immerhin +50 % auf die HD 6970 sind!]. Wo da nach "allen Regeln der Kunst die Karte niedergemacht" wird, kann ich nicht sehen. Das hier ist ein Speku-Thread und ergo kann jeder spekulieren, Teesatz lesen oder Glaskugeln reiben.

Manch einer trollt aber lieber ... und gibt BS von sich wie "Kepler in den Himmel gelobt". Muss das sein?! :rolleyes:

Ailuros
2011-12-07, 19:44:06
Meine Glaskugel zeigt mir gerade dass es zurueck zum eigentlichen Thema kommt. Es gibt auch Leute die meckern, gerade weil sie keinen eigentlichen Grund zum meckern haben.

Dural
2011-12-08, 10:45:27
Bei einigen fragt man sich wo die ihre Glaskugel haben.
Da wird nach allen Regeln der Kunst die Karte niedergemacht und gleichzeitig Kepler in den Himmel gelobt. Und das wo Kepler noch länger ein unbekanntes Wesen bleibt.


Das hat nichts mit Glaskugel zutun, AMD wäre gewaltig doff wenn sie einen grossen Chip (600mm2 lol!) mit einer komplett neue Architektur in einem komplett neuen Herstellungs Prozess Entwickeln würden.

Übrigens, gab es das schon mal?!? Die wenigen Beispiele die es gibt gingen alle in die Hose zb. R600 (obwohl ich den R600 mag, hammer guter OC Chip!)

Es ist einfach naiv zu glauben das AMD im Januar mit einem 450-600mm2 28nm Chip auftaucht.


Ich denke das AMDs Leistungs-Ziel gut ein +50% von der 6970 sein könnte, den das hört sich für die oben beschribenen Umstände Vernünftig an. Man kann dann im verlauf des Jahres gut einen grösseren Chip nachliefern, so fern alles gut Läuft... Somit wäre man eben 20-30% vor einer GTX580.

Ailuros
2011-12-08, 11:02:39
Ich denke das AMDs Leistungs-Ziel gut ein +50% von der 6970 sein könnte, den das hört sich für die oben beschribenen Umstände Vernünftig an. Man kann dann im verlauf des Jahres gut einen grösseren Chip nachliefern, so fern alles gut Läuft... Somit wäre man eben 20-30% vor einer GTX580.

Warum nicht gleich nur 10% oder sogar Gleichstand, eben weil es gerade so passen wuerde? Die 7970 liegt nach allen Indizien einen Schnitt unter der 6990, ergo ist das Minimum das high end Kepler schneller sein sollte 6990+10% damit sich die heutigen Verhaetnisse wiederholen.

GK104 war vor kurzer Zeit mit unreifen Treibern im Atembereich der GTX580 Leistung, aber das eigentliche Ziel ist zumindest 580+30%. Mit was wird wohl GK104 konkurrieren? Mit einer 7970 sicher nicht das es 104 an Bandbreite dafuer fehlt.

Hugo
2011-12-08, 11:09:42
GK104 soll bestimmt der Gegenspieler zur 7950 werden oder?
GTX580+30% hört sich für GK104 schon mal sehr gut an

Ailuros
2011-12-08, 11:26:07
GK104 soll bestimmt der Gegenspieler zur 7950 werden oder?
GTX580+30% hört sich für GK104 schon mal sehr gut an

</= fuer mehr sieht es momentan nicht aus. Ist aber verdammt viel wenn man erstmal den Stromverbrauch (egal ob GK104 oder 7950) mit einer GTX580 vergleicht.

AnarchX
2011-12-08, 11:32:14
Ein Tahiti ES?

http://tof.canardpc.com/preview2/c210a64d-84cc-4157-a5be-6f75467c168b.jpg
HD 7970 > GTX 580, 210W TDP (maxi 300W), end NDA 6-7 january
http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures&p=5011119&viewfull=1#post5011119

Speichermodule an 3 Seiten der GPU? Bei den bisherigen 256-Bit GPUs war es ja meist eine L-Form mit zwei Seiten.

LovesuckZ
2011-12-08, 11:42:21
Es wäre auch lächerlich, wenn die 28nm Grafikkarten nicht schneller wären. Selbst eine 6970 ist nur knapp 13% langsamer im Schnitt.

fondness
2011-12-08, 11:54:16
Es kommt drauf an was Tahiti überhaupt wird. Wird er tatsächlich ein großer High-End-Chip mit ~500mm² dann muss er natürlich neue Maßstäbe setzen. Wird er hingegen wieder nur ein relativ kleiner Performace-Chip, mit vielleicht ~300mm² dann würde mich auch eine Leistung nur relativ kanpp über der GTX580 nicht wundern. Ein GF110-Shrink wäre wohl auch im Bereich von 300mm². Und diesmal liefert man auch im Bereich GPGPU neue Maßstäbe, dh die bessere Perf/mm² kann schnell Geschichte sein, denn diese Features gibt es nicht umsonst.

boxleitnerb
2011-12-08, 11:55:47
Was ist das mit den "maxi 300W"? Powertune 2.0?
Hoffentlich ist man mit der TDP hier nicht so unehrlich wie Nvidia.

V2.0
2011-12-08, 12:07:13
</= fuer mehr sieht es momentan nicht aus. Ist aber verdammt viel wenn man erstmal den Stromverbrauch (egal ob GK104 oder 7950) mit einer GTX580 vergleicht.

Und es würde für beide IHVs Sinn machen.

AMD hat einen relativ sparsamen Chip und für eine gewisse Zeit die schnellste Karte, NV hat einen Performance-Chip der mithalten kann und Zeit für den dicken Brummer.

Falls 7970>GK104<=7950

AnarchX
2011-12-08, 12:10:43
Wenn der Tahiti Refresh im Zeitplan liegt, sollte dieser ja im Q3-Q4 2012 kommen, nachdem sich Tahiti wohl etwas verzögert hat.

Dural
2011-12-08, 12:23:00
Speichermodule an 3 Seiten der GPU? Bei den bisherigen 256-Bit GPUs war es ja meist eine L-Form mit zwei Seiten.


das sieht mir nach 256Bit aus, hinten kann ich nichts erkenne das nach Speicher auf der Vorderseite aussieht / beziehungsweiss sieht man die linke Seite auf dem Foto leider nicht.


Es wäre auch lächerlich, wenn die 28nm Grafikkarten nicht schneller wären. Selbst eine 6970 ist nur knapp 13% langsamer im Schnitt.

dazu sag ich nur: RV790 vs RV870 oder 55nm vs 40nm

Dural
2011-12-08, 12:53:06
paint power :freak:

so könnte 384Bit aussehen:
http://img11.imageshack.us/img11/5944/65378156.th.png (http://imageshack.us/photo/my-images/11/65378156.png/)


Die selbe anordnung gab es aber schon mal in 256Bit, R580 und co lässt grüssen:
http://img210.imageshack.us/img210/96/atix1950proboth.th.jpg (http://imageshack.us/photo/my-images/210/atix1950proboth.jpg/)

john carmack
2011-12-08, 13:41:23
das sieht mir nach 256Bit aus, hinten kann ich nichts erkenne das nach Speicher auf der Vorderseite aussieht / beziehungsweiss sieht man die linke Seite auf dem Foto leider nicht.




dazu sag ich nur: RV790 vs RV870 oder 55nm vs 40nm


Wie war denn der Stromverbrauch der Karten zwischen 55nm vs 40nm?

Knuddelbearli
2011-12-08, 13:45:02
ganz verschieden ATI ging minimal runter NV extrem rauf.

Gipsel
2011-12-08, 13:48:52
dazu sag ich nur: RV790 vs RV870 oder 55nm vs 40nmOder R600 (80nm) vs. RV770/RV790 (55nm)? Da war der Stromverbrauch sogar in etwa vergleichbar.

Hugo
2011-12-08, 14:09:08
</= fuer mehr sieht es momentan nicht aus. Ist aber verdammt viel wenn man erstmal den Stromverbrauch (egal ob GK104 oder 7950) mit einer GTX580 vergleicht.

wie meinst das zu mehr wird es nicht reichen? Weil GK104 so gut ist?
Beim Stromverbrauch erwarte ich deutlich weniger im vergleich zur GTX580 für Tahiti/GK104

boxleitnerb
2011-12-08, 14:19:41
Neue Bilder:

http://www.abload.de/thumb/d29280c4-4f99-4653-bdzdj1f.jpg (http://www.abload.de/image.php?img=d29280c4-4f99-4653-bdzdj1f.jpg) http://www.abload.de/thumb/584ace56-d2ab-4657-a8sdkhj.jpg (http://www.abload.de/image.php?img=584ace56-d2ab-4657-a8sdkhj.jpg)

http://forum.hardware.fr/hfr/Hardware/2D-3D/unique-southern-islands-sujet_877763_117.htm#t8143200

6+8pin verbunden, aber es sind 2x8pin verlötet.

12 Speicherchips: 2 links, 4 unten, 1 unten rechts, 3 rechts, 1 oben rechts, 1 oben zwischen GPU und PCIe.

12x32=384
12x21.33=256

Also ein 384bit Interface.

y33H@
2011-12-08, 15:06:52
6+8P bei 210W? Dann gibt's da sicherlich wieder einen AUSUM-Mode, das passt zu den 300W weiter oben [ich spekuliere!]

boxleitnerb
2011-12-08, 15:15:22
Kann es sein, dass AMD nicht weiß, wie schnell Kepler wird und sich 165W TDP freihält, um mit dem Schalter drauf zu reagieren? Okay, der Kunde muss ihn umlegen, aber das ist ja nun nicht schwer.

Ailuros
2011-12-08, 15:33:02
Kann es sein, dass AMD nicht weiß, wie schnell Kepler wird und sich 165W TDP freihält, um mit dem Schalter drauf zu reagieren? Okay, der Kunde muss ihn umlegen, aber das ist ja nun nicht schwer.

Oder diverse "Quellen" haben mal wieder Mist zusammengereimt. Weder das PCB noch der die selber erscheinen mir als "klein".

Dural
2011-12-08, 15:33:27
@boxleitnerb

wie kommst du auf 12???

ich sehe nur 10 Chips, also 320Bit

vielleicht nur eine 6950?!?


das unten sind wohl keine Speicher Chips, die Position wäre wegen den PCI-E Leitungen ja auch nicht gerade schlau :rolleyes:

boxleitnerb
2011-12-08, 15:38:46
Ich hab doch aufgezählt wo die sind. Wenn du den einen Chip zwischen GPU und PCIe ignorierst, kommst du auf 11. Das wäre etwas komisch oder? Dann hättest du ein 352-bit Interface. Obwohl...448bit ist auch krumm und das gabs.

@Ailuros: Was meinst du zu der 210W TDP? Plausibel oder zu tief gestapelt?

Ailuros
2011-12-08, 15:53:03
@Ailuros: Was meinst du zu der 210W TDP? Plausibel oder zu tief gestapelt?

Eine durchaus logische These waere ein 2*6pin analoger TDP (default) und einer Art "turbo modus" (mit Schalter wie Du sagtest) der dann auf um einiges hoehere Frequenzen schaltet mit 6pin+8pin analogem TDP. Die Frage ist aber dann ob die 7970 knapp 6990 Leistung mit dem ersten oder mit dem zweiten erreicht. Im zweiten Fall = *gaehn*.

Um ehrlich zu sein klingt es mir eher nach 6pin+8pin und jemand hat einfach mit Absicht wieder Mist erzaehlt.


--------------------------------------------------------------------
@alle:

Wie dem auch sei: von der Rueckseite kann man schlecht etwas einschaetzen, aber ist es nur ein Bauchgefuehl oder ist der die zumindest 400mm2 gross?

Gipsel
2011-12-08, 16:05:15
Um ehrlich zu sein klingt es mir eher nach 6pin+8pin und jemand hat einfach mit Absicht wieder Mist erzaehlt.
Das ein ES mit 6+8 Pin läuft, heißt nicht, daß die finalen Karten das auch haben werden. Ich könnte mir aber sehr gut vorstellen, daß die HD7950 mit 6+6Pin kommt, die 7970 aber trotz TDP <225W mit 6+8Pin für bessere Übertaktbarkeit usw., wenn es in die Nähe eines Enthusiast-Modells gehen soll.

Wie dem auch sei: von der Rueckseite kann man schlecht etwas einschaetzen, aber ist es nur ein Bauchgefuehl oder ist der die zumindest 400mm2 gross?
Das kann man wirklich sehr schwer einschätzen (da sieht man ja nur das Pinout vom Package, nicht das vom Die selber), aber ehrlich gesagt erwarte ich auch nichts wesentlich Kleineres als Cayman.

S940
2011-12-08, 16:15:33
PCGH hat auch ein paar (ähnliche) Bildchen:
http://www.pcgameshardware.de/aid,858669/Radeon-HD-7970-Erste-Bilder-210-Watt-TDP-und-Release-Anfang-Januar/Grafikkarte/News/

Aber immerhin kann man auf einem Asic-Type: "Tahiti" erkennen.

Edit: Ach auch nix Neues, entspricht AnarchX' Posting.

CompuJoe
2011-12-08, 16:17:26
Hier ich habe die Chips mal markiert:

http://www8.pic-upload.de/thumb/08.12.11/r5jl8knpsq6k.jpg (http://www.pic-upload.de/view-12237458/584ace56-d2ab-4657-a8sdkhj.jpg.html)

Ailuros
2011-12-08, 16:31:39
Das ein ES mit 6+8 Pin läuft, heißt nicht, daß die finalen Karten das auch haben werden. Ich könnte mir aber sehr gut vorstellen, daß die HD7950 mit 6+6Pin kommt, die 7970 aber trotz TDP <225W mit 6+8Pin für bessere Übertaktbarkeit usw., wenn es in die Nähe eines Enthusiast-Modells gehen soll.

Stimmt aber dafuer ist der PCB auch nicht gerade klein, aber stets mit Vorbehalte da solche Bilder leicht irre fuehren koennen.

LovesuckZ
2011-12-08, 16:35:59
Wir haben doch mit Fermi gelernt, dass ein normaler Respin keine wirklichen Auswirkungen auf den Stromverbrauch hat. Das erste Bild, dass nVidia veröffentlicht hat, war auch 1x6PIN und 1x8PIN. Und so blieb es 2 Respins später auch.

Die Wahrscheinlichkeit, dass der Vollausbau diese Konfiguration benötigt, ist wesentlich höher als andersrum.

y33H@
2011-12-08, 16:39:27
Die ersten HD 5870 ES hatten auch 6P+8P und selbst die finalen Karten haben zwar 6P+6P, aber Lötstellen für einen 8P.

Spasstiger
2011-12-08, 16:48:25
Dann hättest du ein 352-bit Interface. Obwohl...448bit ist auch krumm und das gabs.
Die Speicherkanäle der GPU sind immer 64 Bit breit. Die Interface-Breite muss einem ganzzahligen Vielfachen von 64 Bit entsprechen.
448 Bit = 7*64 Bit -> passt.
320 Bit = 5*64 Bit -> passt.
Aber 352 Bit = 5,5*64 Bit geht nicht.

Für mich siehts auch nach 384 Bit aus.

Sunrise
2011-12-08, 16:49:06
Stimmt aber dafuer ist der PCB auch nicht gerade klein, aber stets mit Vorbehalte da solche Bilder leicht irre fuehren koennen.
Das Referenz PCB, hinsichtlich der Maße, entspricht dem der Referenz R6970.

V2.0
2011-12-08, 17:02:19
Das Ding wird sicher schneller als 580+30%.

aylano
2011-12-08, 19:11:19
Es wäre bei jedem Preis eine Enttäuschung, wenn Tahiti Pro trotz 28-nm-Vorteil nur auf GF110-Niveau landet.
28nm ist nicht gleich 28nm und die kleinere Struktur bringt nicht automatisch den Vorteil.

Ich finde es überraschend, wie einige Annehmen, dass AMD mit einem 28HP-300mm²+-<225W-TDP-GPU mit kaum Mehr-Problemen als die jetzigen 60mm²-28nm-28LP daherkommen soll.

Nachdem es einige 28HPL-GPU-Spekulationen gibt, sollte man eigentlich berücksichtigen, dass 28nm nicht gleich 28nm ist.
Technologien sind in Fertigungen sehr wichtig.

Gerade AMD zeigte schon, wie wenig 65nm-G1 (non-SiGe) gegenüber 90nm-F3 (SiGe) brachte.
Und ähnliches Spiel sahen wir jetzt bei Llano mit 32nm (non-ULK) vs 45nm (mit ULK).

28nm hätte ja schon vor einem Jahr kommen sollen. Bzw. 32nm vor 1,5 Jahren. Und in 1 bis 1,5 Jahren kann man eine GPU auf einer neuen Maske zusammenstellen.

Wenn HPL für Low-End & Mainstream spekuliert wird, warum nicht auch für eine Performance-GPU mit 200-350mm², die dann kaum (10-30%) schneller ist als die 40nm-High-End?!!

HPL ist AFAIK ohne SiGe (siehe AMD früher), wodurch eine Doppelte Effizienz bzw. Performance gegenüber dem Vorgänger (Architektur-bereinigt) (bei weitem) nicht möglich sein kann.

Nvidia hatte trotz 40nm-Problemen (schlechte Yield = höhere Kosten) mit GT116 & GT118 seinen Gewinn & Marktanteile ausbauen können, obwohl Nvidia merh als 1 Jahr brauchten bis sie mit GF104 einen 350mm²-Chip problemlos am Markt brachten.

Wenn das wieder so passiert, müssten problemlose High-End von AMD/Nvidia erst 1 Jahr später möglich sein.
Und wenn man früher schon mit einer Problematischen Klein-GPU Geld machen konnte, dann gibt es kaum einen Grund es diesesmal es nicht zu machen.
Die 28LP & 28HP-Verschiebungen "vor kurzem" und die Rebrandings von AMD 7000er & Nvidia 600er ist ja auch ein starkes Indiz für eine schwaches GPU-Ramp zu Ive-Bridge und somit einer ähnlich schlechten Fertigung wie es 40nm war.

Die alten Zeiten sind vorbei, wo jede neue High-End-GPU mehr und mehr Strom verbrauchen konnten.
Dazu dürften die Zeiten vorbei sein (wegen Konkurrenz & Fertigungs-Komplexität), wo alle 2 Jahren eine ausgereifte kleinere Struktur kommt.

Daher wäre es nicht überraschend, wenn AMD/Nvidia im ersten Jaher der neuen Feritugng mit "+50% Prozent-Punkte" und im zweiten Jahr mit den restlichen "+50% Prozent-Punkte" daherkommt.
IMO wäre das wirtschaftlich sinnvoller.

Wobei in Prozent wären das 40% Steigerung zum Vorgänger a la 100*1,4*1,4 = 196%
Aufgrund der Fertigungs-Problemen einer jungen Fertigung, wäre es vielleicht dann sinnvoller, einen Sichere Fertigung (=HPL non-SiGe) oder kleinere Feritugng (15% kleinere) oder 10(-15%) höhere Spannung zu nehmen, um möglichst früh auf die kleinere Struktur wecheln zu können, wenn die Watt*mm²*Waferkosten der kleineren Struktur billiger sind als der größeren Vorgänger.

Dann würde das 100*(1,40-0,15)*(1,40+0,15) = 100*1,25*1,55 = 1,94 "bedeuten" bzw. IMO viel Sinn ergeben.

Das würde IMO auch mehr (wirtschaftliche) Kontinuität bei gleichen TDP-Bereichen bringen.

Kurz gesagt:
Thaiti muss 580GTX nicht klar schlagen, um ein gutes Produkt zu sein.
Es ist das gleiche Spiel wie HD 5870.
Wichtig ist auch die Verfügbarkeit & Kosten sowie die Effizienz & Verfügbarkeit & Kosten & Erscheinungstermin im Vergleich zu konkurrenz ab.

Dass AMD in Januar "problemlos" mit 28nm-350bis500mm²-GPU fast gleichzeitig zu 28LP-60mm²-Chips daherkommt, würde mich viel mehr überraschen, als wenn AMD doch eine Performance-200-350mm²-GPU in 350mm²-28HPL (((oder 200-250mm²-28HP))) bringen würde.

Zwar ist Thaiti mit GCN vorallem in Server-Bereich ein Prestige-Produkt, was ein 28HP (mit etwas schlechteren Yield) eher vermuten lässt, aber andererseits hat AMD im Server-Bereich wegen ECC noch keine Konkurrenzfähigen Produkte, wodurch deshalb eine schnelle & sichere Einführung auch dort Sinn ergeben würde.

Knuddelbearli
2011-12-08, 19:21:54
Gerade AMD zeigte schon, wie wenig 65nm-G1 (non-SiGe) gegenüber 90nm-F3 (SiGe) brachte.
Und ähnliches Spiel sahen wir jetzt bei Llano mit 32nm (non-ULK) vs 45nm (mit ULK).


Athlon in 45nm ist doch auch ohne ULK, nur der X6 ist ULK.

aylano
2011-12-08, 20:36:43
Nur der X6 hat die neuere 45nm-Entwicklung bekommen.

Transitoren werden zumindestens bei AMD schrittweise entwickelt.
http://www.anandtech.com/show/2018
Und wenn man zu wenig Erfahrung mit einer neuen Technologie hat, dann wird parallel Entwickelt siehe 90nm-SiGe und 65nm-non-SiGe oder 32nm-non-ULK und 45nm-ULK.
Wobei ULK eigentlich auch für 32nm angekündigt war.
Übrigends, HKMG war auch als Option für 45nm gedacht und kam bei AMD dann doch erst mit 32nm.

Bei TSMC wird es wahrscheinlich nicht anders sein, wo LP ja normalerweise früher als HP kommt.
Es sieht so aus, als ob sich paar Technologien nicht ganz so vertragen, weswegen eben noch HPM & HPL kommt.

Bei Intel sieht man nicht solche Entwicklungen, weil sie einen Entsprechenden Vorsprung & R&D-Ressourcen habben.

Skysnake
2011-12-08, 23:47:01
Oder diverse "Quellen" haben mal wieder Mist zusammengereimt. Weder das PCB noch der die selber erscheinen mir als "klein".

Jup, klein sieht anders aus, auch wenn es natürlich keine direkten Rücklschlüsse auf die DIE-Size gibt. Man nutzt aber normal kein riesen großes Package für nen Popelchip

EDIT:

Was mir noch aufgefallen ist, ist, dass Sie scheinbar die RAM-Chips um 90° gedreht haben, wenn man sich die Lötpunkte innerhalb der Chips anschaut. Ich seh darin aber keinen Sinn

Hier mal als Vergleich eine 6970, ich finde man sieht die gedrehten Chips recht gut.

http://images.ht4u.net/reviews/2011/powercolor_radeon_hd_6970_pcs_plus_test//board_back_big.jpg

Oder die verwenden andere Chips für die 7000er. Das kann auch sein.

Ist XDR2 eventuell doch nicht aus dem Rennen???

Finds halt komisch, dass die Chips jetzt anders aussehen auf der Rückseite. Gibt dafür ja eigentlich keinen Grund oder?

Raff
2011-12-09, 00:37:14
Woher kam der XDR2-Blödsinn eigentlich ursprünglich?

MfG,
Raff

Skysnake
2011-12-09, 00:48:20
Keine Ahnung.

Vielleicht aus dem Wunsch heraus, das man den RAM-Flaschenhals beseitigt/kleiner macht mit Hintergedanken an HPC.

john carmack
2011-12-09, 00:54:47
das ist das früheste XDR2 Gerücht das ich kenne: http://video.golem.de/pc-hardware/5745/rambus-v42.html

Gipsel
2011-12-09, 02:05:03
@aylano (der lange post):
Ja, sehr gute Überlegungen.
Da möchte ich nur hinzufügen, daß ursprünglich die Verfügbarkeit von 28HPL (ohne SiGe) ein Quartal vor 28HP (mit SiGe) gesehen wurde. Zudem ist die Leakage (static power) im HPL Prozeß deutlich niedriger als mit 28HP (dynamic Power aber dafür etwas höher). Zusammen mit dem vermutlich etwas niedrigerem Preis/höherem Yield mit HPL hätte es vielleicht Sinn gemacht, eine etwas größere aber dafür minimal niedriger getaktete GPU in HPL statt HP rauszubringen.

Dural
2011-12-09, 10:16:23
Ich tippe auf 320Bit, gerade der "12" Speicher Chip ist an einer Stelle den ich bei einer Grafikkarte noch nie in meinem Leben gesehen habe, zudem ist der Punkt zwischen PCI-E und der GPU sicher nicht gerade Ideal, in Anbetracht das rechts neben der GPU mehr Platz vorhanden sein sollte (wie es auf dem PCB auch danach ausschaut) fragt man sich über den Sinn dieser Standort Wahl.

Hatte schon was mit ECC im Kopf...

boxleitnerb
2011-12-09, 10:28:27
Dann gibts aber 11 Speicherchips und das ist wie Spasstiger erläutert hat, nicht machbar.

Skysnake
2011-12-09, 10:29:26
Also 320 Bit wäre mehr als dämlich...

Zudem wäre der Platz zwischen PCI-E und GPU auch gar nicht sooo blöd, wenn man den Kohärenten Speicher haben will.

Da könnte man eventuell den chip direkt vom PCI-E Bus aus ansprechbar machen.

AnarchX
2011-12-09, 10:35:17
Dann gibts aber 11 Speicherchips und das ist wie Spasstiger erläutert hat, nicht machbar.
Wenn man die Granularität des IMCs auf 32-Bit senkt, wäre das durchaus machbar.

Wohl möglich, muss AMD die Anordnung so seltsam gestalten, um die Länge der Signalwege auf gleichem Niveau zu halten. Was wohl notwendig sein könnte bei 5-6Gbps GDDR5. Nvidia konnte da wohl mit ~4Gbps noch etwas flexibler sein.

Raff
2011-12-09, 10:37:22
Warum sollte Ati das machen, anstatt direkt auf 384 Bit zu gehen? 384 Bit, also genau 50 Prozent mehr als 256, ist IMO deutlich logischer und einfacher.

MfG,
Raff

Dural
2011-12-09, 10:45:31
ja klar ist 384Bit logischer, aber schau dir mal das PCB an, findest du das logisch? ;)


Es ist ja auch nur eine ES Karte...


Übrigens wären 384Bit bei den Aktuellen Takt die AMD fährt doch recht viel mit rund 280GB/s also gut 100GB/s mehr als 6970 :)

horn 12
2011-12-09, 10:49:12
AMD könnte schon vor Weihnachten Karten liefern, will aber bis zum Launch am 07. Jänner 2012 genügend Karten für Alle Insider und darpber hinaus parat haben.
Ist ja nur mehr ein Monat hin,- deshalb sollten sich unsere liebe Forumskollegen schon mal die Finger warm halten.

N0Thing
2011-12-09, 10:49:56
Übrigens wären 384Bit bei den Aktuellen Takt die AMD fährt doch recht viel mit rund 280GB/s

Warum sollten sie weiterhin den schnellsten und teuersten Speicher verbauen, wenn es durch ein breiteres SI nicht mehr notwendig ist?

Raff
2011-12-09, 10:52:31
50 Prozent mehr Bandbreite für eine 50 Prozent schnellere GPU (gegenüber HD 6970)? Würde passen. :naughty:

MfG,
Raff

AnarchX
2011-12-09, 10:55:21
Die Rohleistung ist im Verhältnis zur Bandbreite in der Vergangenheit eher stärker gestiegen. ;)

Gegen ein ~600mm² Single-GPU-Monster mit ~270GB/s Bandbreite und vielleicht 3840SPs mit 240(120@komplexe Formate)TMUs, mit bis zu 375W Leistungsaufnahme, wäre nicht einzuwenden. ;D

Raff
2011-12-09, 11:03:42
Wir reden hier von AMD. Die werden nach dem R600-Failix (leider) sicher nicht über "Performance"-Die-Größen hinauswandern. ;)

MfG,
Raff

boxleitnerb
2011-12-09, 11:03:56
Super-TMUs? Gabs das jemals? :)

AnarchX
2011-12-09, 11:06:22
Super-TMUs? Gabs das jemals? :)
http://worldwide.espacenet.com/publicationDetails/biblio?CC=US&NR=2009289949A1&KC=A1&FT=D&date=20091126&DB=EPODOC&locale=en_gb
-> http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8327780#post8327780
Figure 4 in the second document shows two Bilinear Interpolators A and B which can work either independently or ganged (for floating point texture filtering).

My first thought is that this would lead to two SIMDs sharing a single texture unit that consists of two of these bilinear interpolators. For normal 8-bit texturing the two SIMDs would have dedicated access to a single bilinear interpolator. But for high-precision floating point the two SIMDs would take it in turns.

An advantage of this layout is a reduction in the count of L1 caches. In my view one of the key problems is the count of L1s all trying to access the set of L2s. Any way to reduce the count of L1s should be seen as a win.

Wir reden hier von AMD. Die werden nach dem R600-Failix (leider) sicher nicht über "Performance"-Die-Größen hinauswandern. ;)

Viel mehr als ~400mm² ist wohl wirklich nicht denkbar...
PHK hat seine >600mm² wohl auch mittlerweile auf "größer als eine bestimmte Kepler-GPU" revidiert, was wohl GK104 sein könnte.

Ronny145
2011-12-09, 11:24:30
50 Prozent mehr Bandbreite für eine 50 Prozent schnellere GPU (gegenüber HD 6970)? Würde passen. :naughty:

MfG,
Raff


50% schneller als AMDs aktuelle Gen wäre unter meiner Erwartung nach der langen Zeit zwischen Cayman und SI... eine Verdopplung wäre wiederum etwas utopisch, glaube es eher nicht. Mit +50% zur GTX580 könnte ich mich anfreunden.


Interessant wird das AF und ob AMD etwas Neues in Sachen BQ Option bietet. In Sachen Downsampling ist es ruhig geworden, rechne damit kaum noch.

boxleitnerb
2011-12-09, 11:37:48
Ich hab mir mal diesen Test auf Computerbase durchgelesen:
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/#abschnitt_einleitung

Auch in neueren Spielen hat man keinen Faktor 2 erreicht mit 6970 vs. 4890. Dabei ist erstere deutlich größer und verbraucht mehr Strom, rein rechnerisch war der Schritt gleichwertig (55nm auf 40nm und jetzt 40nm auf 28nm). Ich glaube nicht an mehr als 50% ggü. der 6970 - es sei denn, der Chip wird größer und hungriger.

Ronny145
2011-12-09, 11:47:46
Ich hab mir mal diesen Test auf Computerbase durchgelesen:
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/#abschnitt_einleitung

Auch in neueren Spielen hat man keinen Faktor 2 erreicht mit 6970 vs. 4890. Dabei ist erstere deutlich größer und verbraucht mehr Strom, rein rechnerisch war der Schritt gleichwertig (55nm auf 40nm und jetzt 40nm auf 28nm). Ich glaube nicht an mehr als 50% ggü. der 6970 - es sei denn, der Chip wird größer und hungriger.


In HD Auflösung wäre der Unterschied bestimmt größer. Bei ht4u (http://ht4u.net/reviews/2011/grafikkarten-vergleich_amd_nvidia_benchmarks_test/index24.php) ist es fast das Doppelte. Trotzdem klingt Faktor 2 klingt für mich auch nach Utopie.

boxleitnerb
2011-12-09, 11:52:12
Liegt vielleicht am Parcour. Die CPU von CB ist deutlich stärker (+60%), das sollte eigentlich die niedrigere Auflösung wieder wettmachen.

Duplex
2011-12-09, 11:56:06
Warum gehen einige überhaupt von Faktor 2 aus? Ist das nicht zu optimistisch...ich würde eher zwischen Faktor 1.5-1.7 tippen.
Außerdem war die 4890 beim RV770 Start nicht sofort das Single Top Modell, sondern die 4870 war es. (übringens 4890 hieß RV790)

boxleitnerb
2011-12-09, 12:01:48
Die 4870 gabs auch nicht in dem Computerbase Test. Ohne "Nebenwirkungen" (mehr Verbrauch, größeres Die) lässt sich die Durchschnittsperformance (keine CPU- oder VRAM-Limitierung) nicht wirklich verdoppeln, wenn man sich die Vergangenheit anschaut. Es sei denn, die vorherige Architektur ist auf die Nase gefallen.

Auch wenn du die 4870 und die 5870 vergleichst, sind da nicht 100% drin. Verbrauch gleich aber Die size 27% größer (sicher auch durch DX11).

Spasstiger
2011-12-09, 12:09:33
Bei ht4u (http://ht4u.net/reviews/2011/grafikkarten-vergleich_amd_nvidia_benchmarks_test/index24.php) ist es fast das Doppelte.
Hier die direkte Gegenüberstellung: Link (http://ht4u.net/reviews/2011/grafikkarten-vergleich_amd_nvidia_benchmarks_test/index26.php?dummy=&advancedFilter=false&prod%5B%5D=AMD+Radeon+HD+4890&prod%5B%5D=AMD+Radeon+HD+6970&filter%5B0%5D%5B%5D=1680&filter%5B0%5D%5B%5D=1920&filter%5B0%5D%5B%5D=2560&filter%5B2%5D%5B%5D=1&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B2%5D%5B%5D=MLAA&filter%5B2%5D%5B%5D=SSAA+%282x2%29&filter%5B3%5D%5B%5D=1&filter%5B3%5D%5B%5D=4&filter%5B3%5D%5B%5D=16&aa=all).
Wenn man die Benchmarks ausblendet, in denen eine HD 4890 auch schon über 60 fps produziert und der Core i7-975 limitierend wirken könnte, dann hat die HD 6970 im Schnitt durchaus einen Faktor 2 Vorteil gegenüber der HD 4890. Ok, teilweise spielt DX11 mit rein (Battleforge), dort ist die HD 6970 aber dann sogar fast dreimal so schnell.

Für die HD 7970 muss es imo auch kein Faktor 2 gegenüber der HD 6970 sein, aber 60% schneller bei hohen Qualitätssettings wäre schon schick. Dann könnte man auch die HD 7950 vor der GTX 580 platzieren. Nach den bisherigen Gerüchten ist die HD 7950 ja nur geringfügig schneller als die HD 6970 und das fände ich wie gesagt enttäuschend. Wäre ja dann kaum anders als beim Wechsel von HD 5870 zu HD 6950, obwohl von Cypress zu Cayman kein Prozesswechsel erfolgte.

P.S.: Nicht vergessen, dass von 40 nm auf 28 nm ein größerer Schritt ist als von 55 nm auf 40 nm.

Schnitzl
2011-12-09, 12:17:18
50% schneller als AMDs aktuelle Gen wäre unter meiner Erwartung nach der langen Zeit zwischen Cayman und SI... eine Verdopplung wäre wiederum etwas utopisch, glaube es eher nicht. Mit +50% zur GTX580 könnte ich mich anfreunden.


Interessant wird das AF und ob AMD etwas Neues in Sachen BQ Option bietet. In Sachen Downsampling ist es ruhig geworden, rechne damit kaum noch.
Mach mir keine Angst!
Es wäre eine Katastrophe, wenn da nix für DX10/11 kommt. Ob down- super- oder sonstwas-sampling .... aber irgendwas muss kommen!!!

seaFs
2011-12-09, 12:36:21
Mach mir keine Angst!
Es wäre eine Katastrophe, wenn da nix für DX10/11 kommt. Ob down- super- oder sonstwas-sampling .... aber irgendwas muss kommen!!!
Wieso? AMD hält sich an die Spezifikationen von Microsoft: Die Anwendung bestimmt alles. Dass nVidia dies umgeht, hat damit nichts zu tun. Genauso wenig wird doch erwartet, dass nVidia 5 Bildausgänge auf eine Karte setzt, so wie es AMD mit EyeFinity macht. Es ist zwar schön und wünschensweret, dass es das gibt, aber keine Verpflichtung.

LovesuckZ
2011-12-09, 12:40:46
Wieso? AMD hält sich an die Spezifikationen von Microsoft: Die Anwendung bestimmt alles. Dass nVidia dies umgeht, hat damit nichts zu tun. Genauso wenig wird doch erwartet, dass nVidia 5 Bildausgänge auf eine Karte setzt, so wie es AMD mit EyeFinity macht. Es ist zwar schön und wünschensweret, dass es das gibt, aber keine Verpflichtung.

Ähm, dir ist schon bewusst, dass es auch keine Verpflichtung für AA, AF und CO <DX10 gibt? Und das im Grunde erst 10.1 wirklich etwas in Bezug auf AA vorschreibt, aber nichts verbietet?

Raff
2011-12-09, 12:45:10
P.S.: Nicht vergessen, dass von 40 nm auf 28 nm ein größerer Schritt ist als von 55 nm auf 40 nm.

Ati hat jedoch einen Architekturwechsel vor, bei dem nicht nur zusätzliche (Scheduler-)Logik nötig ist, sondern in die wohl auch "sinnloser" HPC-Kram hineinkommt. Bedeutet: Nicht alles von den rechnerisch gigantischen Möglichkeiten durch den Shrink lässt sich 1:1 von VLIW auf GCN übertragen. Immerhin können wir darauf hoffen, dass die HD 7900 pro Takt/Einheit/CU/whatever deutlich mehr Bums hat als ein Kaiman oder die Zypresse.

MfG,
Raff

john carmack
2011-12-09, 12:50:49
Sicher scheint jedoch das man sich eine 7000´er oder eine Kepler Karte zulegen sollte.

Der nächst Shrink mit hoher Leistungssteigerrung steht dann wohl erst ende 2013 - anfang 2014 an.

Spasstiger
2011-12-09, 12:52:44
Performance pro Recheneinheit ist langweilig, die Messlatte für GPUs ist immer noch Performance pro Fertigungskosten. Daran sollten sich Ingenieure messen.
Der Performanceindex, den ich mir zumindest erhoffe:
HD 6990: 145%
HD 7970: 140%
HD 7950: 110%
GTX 580: 100%
HD 6970: 85%
HD 6950: 75%

Die HD 7970 wäre dann 65% schneller als die HD 6970 und die HD 7950 immer noch um 30%. So gäbe es auch einen Anreiz für Besitzer einer HD 6950/6970, auf die neue Generation aufzurüsten.

john carmack
2011-12-09, 13:06:07
Das bedeutet das du eigentlich mehr Leistung erwartest?
Ganz unrecht hast du ja nicht.

habs nicht mehr ganz im Kopf.
Wo liegt be deiner Rechnung eigentlich die 6990?

seaFs
2011-12-09, 13:07:50
Ähm, dir ist schon bewusst, dass es auch keine Verpflichtung für AA, AF und CO <DX10 gibt? Und das im Grunde erst 10.1 wirklich etwas in Bezug auf AA vorschreibt, aber nichts verbietet?
Wasw ändert das jetzt an meiner Aussage, dass sich AMD an die Vorgaben von Microsoft hält? Soweit ich das mitbekommen habe, umgeht nVidia diese Vorgaben im Treiber, es ist also nicht ein einfaches Zusatzfeature...

Raff
2011-12-09, 13:12:02
Ja, SSAA bei Geförcern ist hochinoffiziell, d.h. nur für Leute, die von dessen Existenz und den Aktivierungsmöglichkeiten wissen. Diesen Leuten ist klar, dass alles "auf eigene Gefahr" stattfindet und sind glücklich. Nvidia ist glücklich, dass sie die Funktion nicht vor Microsoft rechtfertigen und auch keine Support-Calls leisten müssen. So könnte es AMD auch machen, mehr verlangt niemand. Was Offizielles im Panel stresst nur die Support-Abteilungen. ;)

MfG,
Raff

Spasstiger
2011-12-09, 13:14:07
Wo liegt be deiner Rechnung eigentlich die 6990?
Noch knapp über der HD 7970, bei ca. 145%. Ich füge sie mal ein.

AnarchX
2011-12-09, 13:14:25
Nachdem Nvidia FXAA im Panel anbieten wird, könnte man wohl ähnliches bei AMD erwarten bzw. weitere Post-AA-Modi.

Ronny145
2011-12-09, 13:20:15
Nachdem Nvidia FXAA im Panel anbieten wird, könnte man wohl ähnliches bei AMD erwarten bzw. weitere Post-AA-Modi.


Einen verbesserten vielleicht. Das schmierige, leistungsfressende MLAA könnte ein Upgrade gebrauchen. Nur wäre das für Tahiti ein Witz das als neues BQ Feature anzupreisen.

AnarchX
2011-12-09, 13:22:56
CSAA/EQAA könnte man wohl auch noch aufbohren: 32xCSAA inkl. TRMSAA.

Blaire
2011-12-09, 13:40:36
Ja, SSAA bei Geförcern ist hochinoffiziell, d.h. nur für Leute, die von dessen Existenz und den Aktivierungsmöglichkeiten wissen. Diesen Leuten ist klar, dass alles "auf eigene Gefahr" stattfindet und sind glücklich. Nvidia ist glücklich, dass sie die Funktion nicht vor Microsoft rechtfertigen und auch keine Support-Calls leisten müssen. So könnte es AMD auch machen, mehr verlangt niemand. Was Offizielles im Panel stresst nur die Support-Abteilungen. ;)


Nein ist es nicht, sonst würden sie wohl kaum Behavior-Flags dafür anbieten, wenn es denen egal wäre. ;) Transparency SSAA ist im CP ebenfalls offiziell verfügbar, obwohl es nicht funktionieren dürfte. Ich glaube eher die supporten es nicht per Control-Panel weil es zu wenige Interessenten dafür gibt. ;(

N0Thing
2011-12-09, 13:45:45
Egal und (in)offiziell sind aber zwei paar Schuhe. ;)
TSSAA mag nicht regelkonform sein, wird aber im offiziellen Treiber für jeden zugänglich gemacht. SGSSAA ist ja quasi ein Bug der zum Feature wurde und netterweise von Nvidia beibehalten wurde. Den kundigen Anwender freut es, auch wenn passende AA-Bits oft von fleißigen Anwendern erarbeitet werden müssen.

Ronny145
2011-12-09, 13:47:24
SGSSAA ist ja quasi ein Bug der zum Feature wurde und netterweise von Nvidia beibehalten wurde.


Ein Bug der mir ausnahmsweise sehr gefallen würde. Würde reichen wenn AMD das nur über die registry anbietet.

Blaire
2011-12-09, 13:53:00
Egal und (in)offiziell sind aber zwei paar Schuhe. ;)
TSSAA mag nicht regelkonform sein, wird aber im offiziellen Treiber für jeden zugänglich gemacht. SGSSAA ist ja quasi ein Bug der zum Feature wurde und netterweise von Nvidia beibehalten wurde. Den kundigen Anwender freut es, auch wenn passende AA-Bits oft von fleißigen Anwendern erarbeitet werden müssen.

Der Bug war nur, das sich TRSSAA DX9 und SGSSAA DX10 kreuzten. Der Rest sicher kein Zufall. Aber das ist jetzt offtopic hier. :)

AnarchX
2011-12-09, 16:46:04
Pitcairn Ende Februar: http://www.fudzilla.com/graphics/item/25170-amds-barts-replacement-pitcairn-comes-in-february

Für $299 sollte eine HD 7870 doch schon auf HD 6970 Niveau liegen. Eine kaum langsamere OC 6950 gibt es heute schon für ~$270.


AMD Tahiti needs 8-pin and 6-pin power connectors - For both HD 7950 and HD 7970: http://www.fudzilla.com/graphics/item/25171-amd-tahiti-needs-8-pin-and-6-pin-power-connectors
Aber:
According to what we know so far, AMD advises a ~500W PSU for the Radeon HD 7970 and that is 100W less than what Nvidia asks for the GTX 580 and somewhere around the GTX 560 Ti. This can be cosidered a great improvement if the rumoured performance turns out to be true.
Wohl möglich der Ursprung der Gerüchte um eine TDP auf GTX 560 Niveau?
Bei den spekulierten Enthusiasten-Preisen >$400 will man OCern vielleicht keine Steine in den Weg legen?

Ailuros
2011-12-09, 16:58:54
CSAA/EQAA könnte man wohl auch noch aufbohren: 32xCSAA inkl. TRMSAA.

32xCSAA + 32xTMAA ist theoretisch sogar auf Fermi moeglich; nur hat das Treiberteam es nie eingeschaltet.

Zockerfrettchen
2011-12-09, 17:08:17
Ich verstehe nicht, warum man die Netzteilvorraussetzung mit der von Nvidia vergleicht? AMD empfiehlt für die 6970 eine 550 Watt Netzteil, das ist doch viel aussagekräftiger. Eine 7970 dürfte also weniger verbrauchen als eine 6970, wenn die vermutete Leistug stimmt wäre das doch super.
Mfg Zockerfrettchen

Hugo78
2011-12-09, 17:09:41
Aber:

Ist doch Kaffeesatzleserei oder?!
NV hat mal 600W empfohlen, wobei das die DAU Angabe ist, letztlich zählen die Ampere der 12V Schiene.

Und wenn man eine verbindliche Empfehlung abgibt, dann muss man auch von Chinaböllern a la LC Power, statt Seasonic ausgehen.

Gäbe es heute überall 80+ Platin Netzteile, könnte man auch für eine GTX 580 ein 400W empfehlen.

AnarchX
2011-12-09, 17:19:17
Der Quervergleich zu NV ist in der Tat etwas gewagt. :D

6970 - 550W: http://www.amd.com/us/products/desktop/graphics/amd-radeon-hd-6000/hd-6970/Pages/amd-radeon-hd-6970-overview.aspx#3
6950 - 500W: http://www.amd.com/US/PRODUCTS/DESKTOP/GRAPHICS/AMD-RADEON-HD-6000/HD-6950/Pages/amd-radeon-hd-6950-overview.aspx#3
Die 500W Empfehlung geht bis zur 6790(150W TDP), erst die 6770 hat 450W.

Spasstiger
2011-12-09, 17:23:41
Eine Netzteilempfehlung von 500 Watt für die HD 7970 wäre schick, damit würde die max. Leistungsaufnahme im High End erstmal seit vielen Jahren sinken. Für die HD 6950, die HD 5870, die HD 4890 und die HD 4890 wird ebenfalls je ein 500-Watt-NT empfohlen, für die HD 6970 dagegen schon eines mit 550 Watt.

Eine gesunkene Leistungsaufnahme spricht auch für die Gerüchte einer eher moderaten Performancesteigerung. Die 500$ passen dazu weniger. Wobei es letztlich davon abhängt, was Nvidia macht. Wenn NV tatsächlich nur einen GK104 als schnellste GPU in Q1/2012 veröffentlichen kann, könnte AMD es sich sogar erlauben, Tahiti mit nur 40-50% Performancesteigerung gegenüber Cayman für 500$ am Markt zu platzieren.

/EDIT: 4 min zu spät.

Gäbe es heute überall 80+ Platin Netzteile, könnte man auch für eine GTX 580 ein 400W empfehlen.
Die Effizienz hat nix mit der Belastbarkeit eines Netzteils zu tun. Ein 500-Watt-NT ist dafür spezifiziert, sekundärseitig mit 500 Watt belastet zu werden. Die Effizienz sagt etwas darüber aus, welche elektrische Leistung es dem Stromnetz primärseitig entnimmt.

boxleitnerb
2011-12-09, 17:26:07
Eine gesunkene Leistungsaufnahme spricht auch für die Gerüchte einer eher moderaten Performancesteigerung. Die 500$ passen dazu weniger. Wobei es letztlich davon abhängt, was Nvidia macht. Wenn NV tatsächlich nur einen GK104 als schnellste GPU in Q1/2012 veröffentlichen kann, könnte AMD es sich sogar erlauben, Tahiti mit nur 40-50% Performancesteigerung gegenüber Cayman für 500$ am Markt zu platzieren.

Wieso? Die Situation wäre ähnlich wie beim HD5000 Launch. Und da waren die Karten deutlich günstiger.

Ailuros
2011-12-09, 17:26:09
Der Quervergleich zu NV ist in der Tat etwas gewagt. :D

6970 - 550W: http://www.amd.com/us/products/desktop/graphics/amd-radeon-hd-6000/hd-6970/Pages/amd-radeon-hd-6970-overview.aspx#3
6950 - 500W: http://www.amd.com/US/PRODUCTS/DESKTOP/GRAPHICS/AMD-RADEON-HD-6000/HD-6950/Pages/amd-radeon-hd-6950-overview.aspx#3
Die 500W Empfehlung geht bis zur 6790(150W TDP), erst die 6770 hat 450W.

Och es ist doch lediglich nur ein Geruecht. Falls die 7950 tatsaechlich nur mit einem 500W Netzteil auskommen sollte, stimmt es immer noch.

Hugo78
2011-12-09, 17:32:42
@Spasstiger
1. Warum erlauben?!
Bei der bisher überall kommunizierten 28nm Yield, ist eher müssen der realistische Ausdruck.

Selbst 28LP Minichips wie Tegra 3 sind immernoch nicht erhältlich.
Da wird all das 28HP Zeug in den nächsten 3-4 Monaten nur mit entsprechendem Aufpreis, Gewinn abwerfen.
Und AMD sind die letzten die sich erlauben können die Early Adapter nicht zur Kasse zubitten.

2. Die ganzen Gold und Platin Netzteile die ich bisher gesehen haben, haben teils bis zu 30% Reserve.
Grad die "kleinen" unter 700W, weil die 1:1 die selbe Technik wie die Großen haben.
Ausgehend davon, könnte man ein SB + GTX 580 auch mit 400W 80+ Gold/ Platin betreiben.

AnarchX
2011-12-09, 17:33:56
Tahiti says hello:
http://assets.vr-zone.net/14193/msi-7970.jpg
http://vr-zone.com/articles/more-amd-tahiti-hd-7900-pictures/14193.html

:D

Böses MSI...

Hugo78
2011-12-09, 17:36:52
Schaut kleiner als Cayman aus...

Spasstiger
2011-12-09, 17:39:18
Wieso? Die Situation wäre ähnlich wie beim HD5000 Launch. Und da waren die Karten deutlich günstiger.
Naja, zum Launch der HD 5000 war die Verfügbarkeit monatelang so bescheiden, dass man auch knapp 400€ für eine HD 5870 hinlegen musste. Hab selbst mehrere Karten zu diesem Preispunkt in einem PC-Shop verkauft. Gemessen am Goldpreis sind 500$ exkl. Steuer heute sogar günstiger als 400€ inkl. Steuer damals.

Tahiti says hello:
http://assets.vr-zone.net/14193/msi-7970.jpg
http://vr-zone.com/articles/more-amd-tahiti-hd-7900-pictures/14193.html
Also doch ein Speicherchip zwischen GPU und PCIe. Bei genügend Lagen sehe ich hier auch kein Problem, zur Abschirmung kann man eine Ground-Lage einfügen. GDDR5 hat durch das Training mit leichtem Übersprechen eh kein großes Problem.

fondness
2011-12-09, 17:40:47
Nur 2x 6 Pin Power Connector...

fondness
2011-12-09, 17:45:42
Schaut kleiner als Cayman aus...

Ja, sieht nach ~300mm² aus. Damit dürfte der Chip kaum mehr Transistoren haben als ein GF110. Dann wundern mich auch die Leistungsspekus nicht.

Ailuros
2011-12-09, 17:47:20
Nur 2x 6 Pin Power Connector...

Vorsicht: nichtmal vrzone weiss ob es sich um eine 7950 oder 7970 handelt.

uweskw
2011-12-09, 17:51:06
2x 6pin? Kleiner Chip? Eher Cape Verde, nicht Tahiti.

boxleitnerb
2011-12-09, 17:51:14
Hm, aber fudzilla spricht von 8+6 für beide.

2x 6pin? Kleiner Chip? Eher Cape Verde, nicht Tahiti.

Mit 384bit? Unwahrscheinlich. 192bit wären wieder zu wenig.

AnarchX
2011-12-09, 17:54:43
Mit 384bit? Unwahrscheinlich. 192bit wären wieder zu wenig.
Für Pitcairn wäre der Chip schon wieder zu groß und das Layout für 192-Bit zu komplex, wenn dann verwendet man hier 2x 6 Chips auf beiden PCB-Seiten verteilt.

Würde den Die aber auf eine ähnliche Größe wie Cayman ~390mm² schätzen, wenn man das Bild etwas auf einem 6970 PCB transformiert.

Raff
2011-12-09, 17:56:49
Dual-BIOS reloaded. :)

MfG,
Raff

seaFs
2011-12-09, 18:03:24
GDDR5 durch das Training mit leichtem Übersprechen eh kein großes Problem.
Könntest du darauf mal näher eingehen? Wenn's hier fehl am Platzeist nötig auch per PN.

LovesuckZ
2011-12-09, 18:07:11
Wasw ändert das jetzt an meiner Aussage, dass sich AMD an die Vorgaben von Microsoft hält? Soweit ich das mitbekommen habe, umgeht nVidia diese Vorgaben im Treiber, es ist also nicht ein einfaches Zusatzfeature...

Dann zeige dochmal die Vorgabe von Microsoft...

Es wurde die Möglichkeit unterbunden außerhalb der Anwendung AA zu forcieren. Es wurde jedoch nicht von Microsoft untersagt, dass der angeforderte AA-Aufruf verändert bzw. erweitert werden dürfte.

Spasstiger
2011-12-09, 18:09:13
Die Perspektive in dem Bild täuscht. Ich habs mal entzerrt und komme auf rund 350-420 mm² für das GPU-Die gemessen an den Speicherchips (Package Size 12x14 mm).

AnarchX
2011-12-09, 18:27:10
Vorsicht: nichtmal vrzone weiss ob es sich um eine 7950 oder 7970 handelt.
Das Bild nennt sich "msi-7970.jpg".

y33H@
2011-12-09, 18:33:21
Sowas ist böse ... die armen MSI'ler ;(

Ravenhearth
2011-12-09, 18:42:00
Wie viele Transistoren könnte der Tahiti haben?

Ronny145
2011-12-09, 18:42:10
Unseriös von vr-zone cn ist das. Sollte doch wohl logisch sein den Bildnamen neutral zu halten.

M4xw0lf
2011-12-09, 18:42:52
Auf der Karte selbst weißt doch gar nichts auf MSI hin... Außer AMD steht kein Markenname drauf.

Gipsel
2011-12-09, 18:43:31
Wie viele Transistoren könnte der Tahiti haben?
Wenn die ~400mm² stimmen sollten, dann sind je nach Integrationsdichte so grob 4 bis knapp über 5 Milliarden angesagt.

w0mbat
2011-12-09, 19:02:59
Sowas ist böse ... die armen MSI'ler ;(

soweit ich weiß sind alle bisherigen leaks von MSI. es wurde durch MSI auch ein beta treiber geleaked.

das ist nicht wirklich ein "tight grip" ;D

Ronny145
2011-12-09, 19:43:06
es wurde durch MSI auch ein beta treiber geleaked.



Welcher Beta Treiber, wo gibt es den?

Botcruscher
2011-12-09, 21:21:22
Dual-BIOS reloaded. :)
MfG,
Raff

Der geheimnisvolle Schalter ist wieder da. Na hoffentlich bringt er dieses mal die Leistung die sich bei der 69XX noch immer unauffindbar versteckt.:freak:

Knuddelbearli
2011-12-09, 21:34:05
war doch sinnvoll, sicher kein Überflieger aber sinnvoll

john carmack
2011-12-09, 21:41:19
war doch sinnvoll, sicher kein Überflieger aber sinnvoll


sinnvoller fände ich einen Software Schalter...

CompuJoe
2011-12-09, 21:51:56
Nö, wenn die Software hinüber ist bringt dir das dann ja nix mehr ^^

Knuddelbearli
2011-12-09, 21:52:38
naja da wird doch ein bisschen mehr verändert als das was man mit Software ändern kann denk nur an die 6950 von Sapphire zB

Dural
2011-12-09, 22:13:08
Mini Die :eek: :eek: :eek:
max 350mm2 mehr wird das nicht sein

wenn das ding wirklich 50% plus erreicht muss die Architektur schon mal gut sein :rolleyes: :freak:

5 Phasen, vorbereitet für 6 Phasen, sieht nach viel Takt aus :)


und mit 384Bit, echt komische speicher anordnung :)

Gipsel
2011-12-09, 22:18:18
Mini Die :eek: :eek: :eek: :eek:

wenn das ding wirklich 50% plus erreicht muss die Architektur schon mal gut sein :rolleyes: :freak:
Das täuscht vielleicht ein wenig, da das Package größer geworden ist (384 bit statt 256bit Speicherinterface ;)).

Die momentanen Schätzungen sagen etwa Cayman-Größe. Das würde ich jetzt nicht als Mini-Die bezeichnen, auch wenn natürlich da noch Luft nach oben ist (für Central Islands).

Dural
2011-12-09, 22:25:11
das täuscht nicht, bei AMD / ATi sind die Package seit weis nicht wie lange immer etwa gleich gross, und für mich sieht das wie bei ATi üblich einfach normal gross aus.


http://img585.imageshack.us/img585/2294/dsc031331.th.jpg (http://imageshack.us/photo/my-images/585/dsc031331.jpg/)

davidzo
2011-12-09, 23:36:16
ja bisher hatten wir auch immer 256bit packages.

das speicherinterface braucht mehr pins und bei gesteigerter energieaufnahme braucht man auch mehr stromversorgung.
sollte mich nicht wundern wenn das package 50% mehr pins hat als cayman, mit pins geht man ja durchaus verschwenderisch um bei einer neuen architektur.

Spasstiger
2011-12-09, 23:51:18
Hier mein nicht optimal perspektivisch entzerrtes Bild und das Originalbild mit Hilfslinien:

http://www.abload.de/img/hd7970_entzerrtiwpag.jpg
http://www.abload.de/thumb/hd7970_mithilfslinienyaj7e.jpg (http://www.abload.de/image.php?img=hd7970_mithilfslinienyaj7e.jpg)

Die Hilfslinien stehen im Idealfall alle exakt im 90°-Winkel oder parallel zueinander. Die Seitenverhältnisse sind noch verzerrt, aber ich vergleiche eh über Flächen, da spielen die Seitenverhältnisse keine Rolle.
Ich kann aus meiner entzerrten Grafik durch Markieren der Flächen - Paint.net zeigt die Pixelzahl einer markierten Flächen an - grob ermitteln, dass das GPU-Die ca. die 2-fache bis 2,5-fache Grundfläche eines GDDR5-Package einnimmt. Und ein FBGA-170-Ball-Package wie es Samsung und Hynix verwenden misst 12 mm * 14 mm = 168 mm².
Das heißt also, dass das Tahiti-Die irgendwo zwischen 2*168 mm² = 336 mm² und 2,5*168 mm² = 420 mm² liegt. In der gleichen Größenordnung wie Cayman.

Gipsel
2011-12-09, 23:51:36
Trotzdem hat Dural recht, daß im Vergleich mit dem von ihm verlinkten Foto das Tahiti-Package nicht wesentlich größer aussieht. Ich hatte mich da auf die Aussage eines anderen verlassen. Also vielleicht doch etwas unter Cayman-Größe mehr in Richtung Cypress?

Wie bräuchten ein ordentliches Foto im rechten Winkel von oben und ohne Logo über dem Die :rolleyes:

mapel110
2011-12-09, 23:59:49
Und was soll das bringen, wenn man die Packdichte nicht kennt?!

Raff
2011-12-10, 00:01:47
Ob schon alle Events durch sind? ;) Interessant, dass die Bilder jetzt erst kommen.

MfG,
Raff

OgrEGT
2011-12-10, 07:53:00
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9071786&postcount=1231

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9071847&postcount=1233

Auf den beiden Bildern sieht das Package aber etwas unterschiedlich aus.

Captain Future
2011-12-10, 08:39:04
Das erste ist auch ein R600.

Captain Future
2011-12-10, 08:40:07
Hier mein nicht optimal perspektivisch entzerrtes Bild und das Originalbild mit Hilfslinien:

http://www.abload.de/img/hd7970_entzerrtiwpag.jpg
[/URL][URL]http://www.abload.de/thumb/hd7970_mithilfslinienyaj7e.jpg (http://www.abload.de/image.php?img=hd7970_mithilfslinienyaj7e.jpg)

Die Hilfslinien stehen im Idealfall alle exakt im 90°-Winkel oder parallel zueinander. Die Seitenverhältnisse sind noch verzerrt, aber ich vergleiche eh über Flächen, da spielen die Seitenverhältnisse keine Rolle.
Ich kann aus meiner entzerrten Grafik durch Markieren der Flächen - Paint.net zeigt die Pixelzahl einer markierten Flächen an - grob ermitteln, dass das GPU-Die ca. die 2-fache bis 2,5-fache Grundfläche eines GDDR5-Package einnimmt. Und ein FBGA-170-Ball-Package wie es Samsung und Hynix verwenden misst 12 mm * 14 mm = 168 mm².
Das heißt also, dass das Tahiti-Die irgendwo zwischen 2*168 mm² = 336 mm² und 2,5*168 mm² = 420 mm² liegt. In der gleichen Größenordnung wie Cayman.

Das ist aber ziemlich vage. Dafür hätte man sich nicht soviel Mühe machen brauchen.s

OgrEGT
2011-12-10, 09:19:06
Das erste ist auch ein R600.

Ah, OK. War so nicht gleich ersichtlich...

Spasstiger
2011-12-10, 09:32:27
Das ist aber ziemlich vage. Dafür hätte man sich nicht soviel Mühe machen brauchen.s
Für mich ist es recht deutlich, dass es über 300 mm² sind. Darum gings doch.
Und ich finde auch, dass die entzerrte Ansicht deutlich zeigt, wie die Perspektive täuscht. Vergleiche einfach mal die GPU-Die-Fläche mit der Fläche eines GDDDR5-Package auf beiden Bildern.
Mir erscheint übrigens auch das GPU-Package von Tahiti größer als das von Cayman. Ich bastle mal einen Vergleich.

/EDIT: Ok, mit der Bastelei wirds kompliziert, aber zum Vergleich mal eine Radeon HD 6970 im Referenzdesign:
http://www.abload.de/thumb/amd-hd6900-pcb-v1_x80j8041.jpg (http://www.abload.de/image.php?img=amd-hd6900-pcb-v1_x80j8041.jpg)
Und nochmal die Radeon HD 7970:
http://www.abload.de/thumb/hd7970_mithilfslinienyaj7e.jpg (http://www.abload.de/image.php?img=hd7970_mithilfslinienyaj7e.jpg)

Angenommen, die Bohrungen für den GPU-Kühler haben bei beiden Karten den gleichen Abstand, dann scheint mir der Spacer des Tahiti-Package etwas größer zu sein und weiter an die Bohrungen ranzureichen als der Spacer des Cayman-Package. Tahiti wirkt relativ zum Spacer etwas kleiner als Cayman, aber wenn der Cayman-Spacer kleiner ist als der Tahiti-Spacer, könnten die GPU-Dies letztlich gleich groß sein.
Man vergleiche auch beide GPU-Dies jeweils mit den Speicherpackages, die bei beiden Karten gleich groß sind.

Ich bleibe bei meiner Schätzung 336-420 mm² für Tahiti. Wenn ich es genauer spezifizieren müsste, würde ich sagen 375+/-10 mm², aber diese Genauigkeit gibt das Originalbild gar nicht her.

Screemer
2011-12-10, 10:41:50
das größere package ist wohl dem pinout für das breitere speicherinterface geschuldet. der chip ansich bewegt nach meiner groben photoshoperei im bereich von spasstigers messungen.

Captain Future
2011-12-10, 10:46:34
Für mich ist es recht deutlich, dass es über 300 mm² sind. Darum gings doch.


Ja, und ich meine, dass man sich nur für ">300" den Aufwand hätte sparen können. Das der Die nicht kleiner wird war doch eh klar, oder?

Spasstiger
2011-12-10, 10:50:05
Hier im Thread wurden Stimmen laut, das Die sei winzig, um 300 mm² (also auch kleiner). Ich sehe es aber ebenfalls in der Größenordnung von Cayman und größer als Cypress. Das hatten andere vehement ausgeschlossen. Ich schließe dagegen aus, dass das Tahiti-Die kleiner ist als Cypress.

uweskw
2011-12-10, 11:11:06
Ja, und ich meine, dass man sich nur für ">300" den Aufwand hätte sparen können. Das der Die nicht kleiner wird war doch eh klar, oder?

gehts noch ein bisschen dummdreister??
ST ist der einzige der zumindest versucht vorhandene Fakts abzugleichen und zu analysieren

Nakai
2011-12-10, 11:41:49
Hier im Thread wurden Stimmen laut, das Die sei winzig, um 300 mm² (also auch kleiner). Ich sehe es aber ebenfalls in der Größenordnung von Cayman und größer als Cypress. Das hatten andere vehement ausgeschlossen. Ich schließe dagegen aus, dass das Tahiti-Die kleiner ist als Cypress.


Mhh, ich hab selbst Messungen durchgeführt und kam auf ein gegenteiliges Ergebnis. Ich habe den Die im Verhältnis zum Package gemessen. Dabei kam ich drauf, dass Tahiti etwa 0,2 mal so groß ist wie sein Package, Cayman dagegen sogar etwa 0,25 mal so groß wie sein Package.

Falls die Packages gleich groß sind, ist Tahiti nur 80% so groß wie sein Vorgänger. Genauere Angaben konnte ich bisweilen nicht machen.

Ich schätze Tahiti eher leicht über 300mm² ein. Aber wie gesagt, das hängt von der Größe des Packages und der Verzerrung des Bildes ab. Ergo keine genaue Aussage.

uweskw
2011-12-10, 12:01:06
Wenn die 4 Montagelöcher um das Package herum den gleichen Abstand zueinander haben so ist das Package von Tahiti doch sichtbar grösser.

Captain Future
2011-12-10, 12:05:18
Hier im Thread wurden Stimmen laut, das Die sei winzig, um 300 mm² (also auch kleiner). Ich sehe es aber ebenfalls in der Größenordnung von Cayman und größer als Cypress. Das hatten andere vehement ausgeschlossen. Ich schließe dagegen aus, dass das Tahiti-Die kleiner ist als Cypress.
Wie gesagt, dein Engagement in allen Ehren, aber manch abstruse Behauptung kann man einfach stehen lassen, ohne sie zu widerlegen. :) Wer an Tahiti unter 300mm² glaubt, ist bestimmt auch noch von XDR2 in der 7900 überzeugt...


gehts noch ein bisschen dummdreister??

Ich könnte mir ja ein Beispiel an dir nehmen... :eek::freak:

mrt
2011-12-10, 12:12:23
Wenn die 4 Montagelöcher um das Package herum den gleichen Abstand zueinander haben so ist das Package von Tahiti doch sichtbar grösser.
Auf die Löcher würd ich mich nicht verlassen, besser man nimmt die Speicherchips. Viel größer ist der Träger nicht, aber Spasstigers Einschätzung sollte hinkommen.
Ich schätz um die 360mm².

Screemer
2011-12-10, 12:48:47
Falls die Packages gleich groß sind, ist Tahiti nur 80% so groß wie sein Vorgänger. Genauere Angaben konnte ich bisweilen nicht machen.

was ziemlich ausgeschlossen sein dürfte. wie schon gesagt braucht man für das pinout des breiteren speicherinterfaces mehr platz. daraus folgt auch, dass das package größer werden wird.