PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Cayman - HD 6950/6970 - November 2010


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20

RoNsOn Xs
2010-11-14, 15:12:22
Dafür ist die Leistung von 2900xtx auf HD3870 stagniert. Also kein Wunder das der Leistungsunterschied so hoch ist.
gibt es nicht

Cpl. Dwayne Hicks
2010-11-14, 15:27:13
gibt es nicht


War das nicht die 1GB version des R600? Die es nur ganz kurz gab und kaum zu kaufen war, und dann wieder eingestellt wurde?

Irgendwie ist mir so, kann aber gut sein dass ich mich irre.

y33H@
2010-11-14, 15:29:14
Die XTX ist die GDDR4-Version mit mehr Chiptakt.

http://www.abload.de/thumb/radeonhd2900xtgddr4uc7n.jpg (http://www.abload.de/image.php?img=radeonhd2900xtgddr4uc7n.jpg)

[Bild: Meine Karte]

deekey777
2010-11-14, 15:39:24
Es gab keine XTX, es gab eine HD2900XT mit 1 GB GDDR4, aber sie hat sich nicht von der normalen Version unterschieden.

y33H@
2010-11-14, 15:39:48
Meine hat mehr Chiptakt :ugly:

deekey777
2010-11-14, 15:41:27
Meine hat mehr Chiptakt :ugly:
Das ist auch keine offizielle HD2900, eine XTX gab es nie.

y33H@
2010-11-14, 15:44:30
Was heißt nicht offiziell? Das war iirc die OEM-Version als XTX für damalige Alienware- oder Dell-Maschinen.

deekey777
2010-11-14, 15:49:18
Was heißt nicht offiziell? Das war iirc die OEM-Version als XTX für damalige Alienware- oder Dell-Maschinen.
Die ist genau so offiziell wie die 9600TX.

y33H@
2010-11-14, 15:56:35
TX? Meinst du vll die X700 XT? *SCNR*

airbag
2010-11-14, 16:13:24
gibt es nicht
Schreibfehler :usad:
Grundaussage bleibt aber erhalten.

Die XTX ist die GDDR4-Version mit mehr Chiptakt.

http://www.abload.de/thumb/radeonhd2900xtgddr4uc7n.jpg (http://www.abload.de/image.php?img=radeonhd2900xtgddr4uc7n.jpg)

[Bild: Meine Karte]

Ist das ganz rechts an Haltegriff oder was ist das?

y33H@
2010-11-14, 16:27:09
oO

Das ist eine Arretierungsschiene um die Karte im Gehäuse zu fixieren.

deekey777
2010-11-14, 16:28:23
TX? Meinst du vll die X700 XT? *SCNR*
Also wenn du die 9600TX nicht kennst, dann ist alles klar. ;D

airbag
2010-11-14, 16:32:34
oO

Das ist eine Arretierungsschiene um die Karte im Gehäuse zu fixieren.

Achso. Kannte das bisher noch nicht. Dachte halt, dass es ein Griff wäre um mit der Karte spazieren zu gehen. :D


Also wenn du die 9600TX nicht kennst, dann ist alles klar. ;D

Aldi PCkarte ?

y33H@
2010-11-14, 16:33:37
@ deekey777

Ach das Aldi-Teil ... da gab's weitaus kurioseres ...

Ailuros
2010-11-14, 17:12:24
Das habe ich nie gesagt. Muss denn eine "neue Architektur" Deiner Meinung nach gleich ein neues DX Level mitbringen?

Ein kleinerer Herstellungsprozess der einen GROSSEN Transistoren-Zusatz und ergo auch mehr Moeglichkeiten fuer viel mehr Leistung liefern duerfte wuerde mir auch ausreichen.

Der Umbau der 5D VLIWs in 4D VLIWs + Frontend + TMUs (sofern die Spekus recht behalten) rechtfertigt mMn schon von einer neuen Architektur zu sprechen. Vielleicht nicht gleich neue Philosophie, aber das hat auch niemand behauptet.

Gut dann ist fuer mich ab heute der GF104 auch eine neue Generation im Vergleich zu GF100.

Cayman mangelt es eben genau an einer "neuen" Philosophie und ist wie man es auch verdrehen vermag ein Refresh.

Ich weiß nicht ob Du mit dem falschen Fuß aufgestanden bist, jedenfalls würde mich interessieren, was Du genau als neue Architektur bezeichnen würdest?

Ich mach es Dir einfacher: wir besprechen das Ganze nochmal nach dem launch ja? Dann werden wir genau sehen was "eine neue Generation" sein koennte, was ein "refresh" ist und wieso Cayman eben nicht das ist was viele von Euch erwartet. Gegen GF110 ist das Ding so oder so so gut positioniert dass AMD weiterhin perf/mm2 NVIDIA blamiert, aber das zu verstehen braucht wohl noch ein bisschen mehr Muehe.

Ravenhearth
2010-11-14, 17:18:22
Ich denke, dass die HD 6950 irgendwo zwischen GTX 470 und GTX 480 und die HD 6970 irgendwo zwischen GTX 480 und GTX 580 liegen wird. Im Vergleich mit der HD 5870 glaube ich an durchschnittlich ~10% Mehrperformance für die HD 6950 und ~30% für die HD 6970. (Meine Vermutungen!)

Ailuros
2010-11-14, 17:20:28
Ich wollte das mal kurz richtigstellen:
Der Lag und liegt bei fast 100% :
http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-4770/19/#abschnitt_performancerating_qualitaet


Du hast natuerlich recht; 60% waren es ohne AA und fast 100% mehr mit MSAA.

OgrEGT
2010-11-14, 17:28:16
Ein kleinerer Herstellungsprozess der einen GROSSEN Transistoren-Zusatz und ergo auch mehr Moeglichkeiten fuer viel mehr Leistung liefern duerfte wuerde mir auch ausreichen.

Gut dann ist fuer mich ab heute der GF104 auch eine neue Generation im Vergleich zu GF100.

Cayman mangelt es eben genau an einer "neuen" Philosophie und ist wie man es auch verdrehen vermag ein Refresh.


OK, das ist Geschmacksache.


Ich mach es Dir einfacher: wir besprechen das Ganze nochmal nach dem launch ja? Dann werden wir genau sehen was "eine neue Generation" sein koennte, was ein "refresh" ist und wieso Cayman eben nicht das ist was viele von Euch erwartet.



Gegen GF110 ist das Ding so oder so so gut positioniert dass AMD weiterhin perf/mm2 NVIDIA blamiert, aber das zu verstehen braucht wohl noch ein bisschen mehr Muehe.

Nichts anderes erwarte ich auch.
Siehe Diskussion vorher.
Kein Grund so agressiv zu sein.

HarryHirsch
2010-11-14, 20:03:40
Gegen GF110 ist das Ding so oder so so gut positioniert dass AMD weiterhin perf/mm2 NVIDIA blamiert, aber das zu verstehen braucht wohl noch ein bisschen mehr Muehe.

Die Frage ist ja ob sie sie so weit blamieren das sie sogar schneller sind.
Ich bin gerade voll im Kaufrausch und frage mich ob ein warten auf Cayman lohnt.

Blediator16
2010-11-14, 20:42:37
Die Frage ist ja ob sie sie so weit blamieren das sie sogar schneller sind.
Ich bin gerade voll im Kaufrausch und frage mich ob ein warten auf Cayman lohnt.

Ich schätze, dass wir diese Woche entweder Infos bekommen oder neue tolle Gerüchte^^

Kalmar
2010-11-14, 20:48:27
Ich schätze, dass wir diese Woche entweder Infos bekommen oder neue tolle Gerüchte^^

hoffen wir es ... momentan ist es mir zu ruhig dafür das nv den 580 schon ne weile am markt hat, wenn amd schneller ist sollten doch leaks aka wir sind viel viel schneller kommen oder nicht ?

y33H@
2010-11-14, 20:50:59
Wie soll man leaken, wenn nichts da ist? Es gibt diverse Gerüchte, warum sich Cayman verzögert ...

Gestrandet
2010-11-14, 20:59:38
Dann klär uns mal auf. Ach nee, du willst ja nur trollen ... sorry, ich vergaß.

Schlammsau
2010-11-14, 21:04:52
Wie soll man leaken, wenn nichts da ist? Es gibt diverse Gerüchte, warum sich Cayman verzögert ...
Cayman verzögert sich doch nur um 2 Wochen!?
Es muss also schon funktionierende Karten rumschwirren.

y33H@
2010-11-14, 21:10:11
Wandler-Bauteile fehlen angeblich. Und es sind mehr als zwei Wochen ...

@ Gestrandet

Troll :P

Schlammsau
2010-11-14, 21:13:24
Wandler-Bauteile fehlen angeblich. Und es sind mehr als zwei Wochen ...
Und auf wann genau? Release Termin war doch der 22.11.

Auch wenn die Wandler für die Massenproduktion fehlen, muss es doch trotzdem funktionierende Samples geben.
Anzunehemen dass es keine funktionierenden Karten gibt halte ich für absurd!

y33H@
2010-11-14, 21:17:02
Beim Launch der HD 5870 wurde die HD 5850 ebenfalls gelauncht und es gab noch nicht mal Presse-Samples. Natürlich gibt's lauffähige Cayman XT, aber eben nur bei den Leuten, die nichts leaken, d.h. Developer usw. Vom 22.11 bis 13.12 sind es mehr als zwei Wochen und ob der 13te fix ist, weiß auch nur AMD. Und vll selbst das nicht.

Dural
2010-11-14, 21:57:52
laut gerüchten gibt es ja noch nicht mal finale taktraten, das sagt eigentlich schon alles aus...

HarryHirsch
2010-11-14, 21:59:22
laut gerüchten gibt es ja noch nicht mal finale taktraten, das sagt eigentlich schon alles aus...

Alles? Was ist "alles" bei dir?

Dural
2010-11-14, 22:00:13
das es noch keine finalen karten gibt, logisch oder nicht? ;)

HarryHirsch
2010-11-14, 22:01:54
Hier im Specu ist nichts logisch. Zumindest kommt es so rüber. Darum die frage.

Dural
2010-11-14, 22:03:32
deswegen kann auch keiner sagen wie schnell das ding am ende ist...

30-50% von 6870 aus gilt als wahrscheinlich, sagt ja sogar ein AMD partner... und wenn nicht mal der eine genaue angabe machen kann... liegt es bestimmt nicht an irgend welchen bescheurten bauteile die fehlen ;)

Bucklew
2010-11-14, 22:07:12
deswegen kann auch keiner sagen wie schnell das ding am ende ist...
Wenn die Yields wirklich so schlecht sein sollen, wie es mal hieß (einstellige %-Zahl), dann weiß das ja nichtmal AMD. Dann wird selbst das Binning zum Problem bei so wenig Chips.

Dural
2010-11-14, 22:09:00
an die Yield theorie glaub ich nicht so recht...

mal schauen, es bleibt spannend!

OgrEGT
2010-11-14, 22:45:03
Noch eine Theorie bzgl. der Launch Verzögerung auf B3D...

http://forum.beyond3d.com/showpost.php?p=1493952&postcount=5028

LovesuckZ
2010-11-14, 22:53:56
Klar, macht Sinn. Vielleicht sollte das auch jemand eVGA sagen. Denn die "verschenken" mit jedem GTX580 Kauf einen Key für den 3DMark 11...

Gestrandet
2010-11-14, 22:59:58
Wandler-Bauteile fehlen angeblich.
*lach* Und da sind die "diversen Gerüchte" auch schon wieder zusammengeschrumpft auf eines :D
Aber Hauptsache man hat schön FUD gestreut.
Manchmal denk ich fast, an dem Fachkräftemangel könnte doch was dran sein.

y33H@
2010-11-14, 23:02:00
Schon mal was von NDA gehört? Mehr als das, was schon geleakt ist, spreche ich nicht aus =)

Also Finger still halten!

EDIT
Und der Seitenhieb ist sinnlos ... wenn du nicht mehr auf dem Kasten hast ... ich sollte Leute wie dich schlicht ignorieren ...

mrt
2010-11-14, 23:15:14
Wandler-Bauteile fehlen angeblich.
Da ist die Liefersituation wirklich schwierig. Der wirkliche Grund ist aber eher, dass man sich die aktuell guten Verkaufzahlen von Cypress nicht mit einem mittelprächtig verfügbaren (wegen den Chips von TI) Cayman kaputtmachen will.
Kaum zu glauben, aber AMD ist nunmal ein gewinnorientiertes Unternehmen. :freak:

y33H@
2010-11-14, 23:20:25
Der TI sitzt iirc aber auch auf den Barts-Karten, daher kann es an dem nicht sooo sehr mangeln. Aber mit Barts macht AMD wohl mehr Kohle und mit Cypress ebenfalls, daher ist deine Grund nicht abwegig - im Gegenteil.

Kalmar
2010-11-14, 23:32:42
Der TI sitzt iirc aber auch auf den Barts-Karten, daher kann es an dem nicht sooo sehr mangeln. Aber mit Barts macht AMD wohl mehr Kohle und mit Cypress ebenfalls, daher ist deine Grund nicht abwegig - im Gegenteil.


die frage ist ob man das Weihnachtsgeschäft gegenrechnen kann .. oder zur Überraschung sind dann die 69xx Karten in ausreichender masse verfügbar, kurzfristig nach der Vorstellung

Gestrandet
2010-11-14, 23:32:54
Schon mal was von NDA gehört? Mehr als das, was schon geleakt ist, spreche ich nicht aus =)
Aha ... und wieso sprichst du es dann an, das unaussprechliche? Bisschen sinnlos, oder?

Gluckstaler
2010-11-15, 05:09:55
Ein kleinerer Herstellungsprozess der einen GROSSEN Transistoren-Zusatz und ergo auch mehr Moeglichkeiten fuer viel mehr Leistung liefern duerfte wuerde mir auch ausreichen.



Gut dann ist fuer mich ab heute der GF104 auch eine neue Generation im Vergleich zu GF100.

Cayman mangelt es eben genau an einer "neuen" Philosophie und ist wie man es auch verdrehen vermag ein Refresh.



Ich mach es Dir einfacher: wir besprechen das Ganze nochmal nach dem launch ja? Dann werden wir genau sehen was "eine neue Generation" sein koennte, was ein "refresh" ist und wieso Cayman eben nicht das ist was viele von Euch erwartet. Gegen GF110 ist das Ding so oder so so gut positioniert dass AMD weiterhin perf/mm2 NVIDIA blamiert, aber das zu verstehen braucht wohl noch ein bisschen mehr Muehe.


Ailuros, jetzt outest du dich als Fanboy und eigentlich stehst du doch über solchen Dingen.

Vielleicht haben wir ja unterschiedliche Definitionen von 'Architektur', aber IMHO kann man

1. nicht von einer neuen Architektur sprechen, wenn man diese an die neueste Version von DX anpasst.

2. Mehr-Perfomance kann und darf nicht das Kriterium sein um von einer neuen Architektur zu sprechen.

Nehmen wir das Beispiel der Intel-Prozessoren:

Von der Architektur sind zur Zeit alle Pentium Pros. Netburst war eine andere Architektur, Itanium ist eine andere Architektur. Als beide Architekturen nicht die gewünschte Performance lieferten ging Intel zur letzten Architektur-Generation zurück und hat sie iterativ verbessert.

Innerhalb der Pentium-Pro-Architektur wurden iterativ grössere Architektur-Revisionen vorgenommen.

Die Architektur-Unterschiede zwischen Pentium Pro zu Pentium II und III sind minim und ich würde die mit 'Refresh' bezeichnen, weil hier nur ein API angepasst wurde.

Aber zwischen Pentium Pro und Core2 gibt es einen bedeutenden Unterschied.

Nehmen wir das Beispiel Software und MacOsX:

OsX ist eine neue Architektur (gegenüber Os9), alles was dazwischen abgelaufen ist, sind Architektur-Revisionen. Der Architektur-Unterschied zwischen Leopard und Snowleopard ist gewaltig, obwohl an Features nichts gross verändert wurde. Wer aber hier von einem OS-Refresh zu redet, der versteht nicht was eine Architektur ist.

Die ATI 2000er Serie war eine neue Architektur. IMHO Cayman ist die erste grössere Architektur-Revision. Dazwischen gab es API-Anpassungen.

Der Architektur-Unterschied bei Cayman liegt im Aufbau eines Stream-Processors.

horn 12
2010-11-15, 05:35:20
Die Verschiebung dient wohl einzig und allein dem Ausverkauf der dennoch kaum gesenkten Preise der HD5850 und 5870 ,- und bis 3-4 Wochen sollten die Lager doch recht leergeräumt sein,- und man würde die komplett HD6950 + 6970 Massenhaft anbieten können im Gegensatz zur immer schlimmeren Verfügbarkeit der GTX580, AUCH wenn das Weihnachtsgeschäft von AMD somit fast dahinschwindet.

Gluckstaler
2010-11-15, 07:43:26
Die Verschiebung dient wohl einzig und allein dem Ausverkauf der dennoch kaum gesenkten Preise der HD5850 und 5870 ,- und bis 3-4 Wochen sollten die Lager doch recht leergeräumt sein,- und man würde die komplett HD6950 + 6970 Massenhaft anbieten können im Gegensatz zur immer schlimmeren Verfügbarkeit der GTX580, AUCH wenn das Weihnachtsgeschäft von AMD somit fast dahinschwindet.

Woher hast du die Information, dass die die 5800er ausverkaufen? Die produzieren nach wie vor 5800er.

svenw
2010-11-15, 08:34:55
Die Verschiebung dient wohl einzig und allein dem Ausverkauf der dennoch kaum gesenkten Preise der HD5850 und 5870 ,- und bis 3-4 Wochen sollten die Lager doch recht leergeräumt sein,- und man würde die komplett HD6950 + 6970 Massenhaft anbieten können im Gegensatz zur immer schlimmeren Verfügbarkeit der GTX580, AUCH wenn das Weihnachtsgeschäft von AMD somit fast dahinschwindet.
Wieso das Weihnachtsgeschäft? Das aktuelle Weihnachtsgeschäft findet bei den OEM Partnern statt, für die der Caymann schlichtweg zu teuer ist. Auch für Oma und Opa ist der zu teuer, die schenken lieber GEld, denn der Enkel weiß besser was er will: Ergo DAS Retail Geschäft wird nach Weihnachten gemacht und dann sollte es ja die 6970 geben.
An ein Ausbeuteproblem glaube ich nicht so recht, da machen 3 Wochen den Kohl auch nicht fett wie NV sicher bestätigen kann.:freak:
Zu wenig Leistung gegenüber der 580 halte ich auch eher für unwahrscheinlich, denn mehr als vielleicht 5% mehr Leistung durch Takt ist da kaum drin.
Das die Effizienz des NV Kühler ATI überrascht hat könnte sein, aber auch dafür halte ich 3 Wochen Verschiebung für arg kurz.
Eine Kombination von fehlenden Teilen und der Möglichkeit noch etwas mehr aus dem 6970 rauszuquetschen wenn man nur minimal hinter dem 580er liegt halte ich für die wahrscheinlichste Möglichkeit.

Botcruscher
2010-11-15, 08:39:33
Eine Kombi aus Abverkauf und Teilemangel wird es schon sein. Derweil wird notgedrungen die Zeit genutzt und noch etwas optimiert. Mal sehen was es dann wirklich war.

Mancko
2010-11-15, 09:35:49
Ich mach es Dir einfacher: wir besprechen das Ganze nochmal nach dem launch ja? Dann werden wir genau sehen was "eine neue Generation" sein koennte, was ein "refresh" ist und wieso Cayman eben nicht das ist was viele von Euch erwartet. Gegen GF110 ist das Ding so oder so so gut positioniert dass AMD weiterhin perf/mm2 NVIDIA blamiert, aber das zu verstehen braucht wohl noch ein bisschen mehr Muehe.

Was nützt das aber, wenn die Konkurenz ihre Produkte zu den gleichen Preisen anbietet mit den gewohnten Vorteilen in Features, Bildqualität und allgemeinem Softwaresuport bzw. Gamecompatibility?
Dem Endkunden ist DIE Size scheiss egal und unterm Strich hat Nvidia bereits damit begonnen Geld zu verdienen. Bei AMD muss man das abwarten. Die 1 Mio im abgelaufenen Quartal waren ja nun alles andere als berauschend.

Mancko
2010-11-15, 09:39:18
Da ist die Liefersituation wirklich schwierig. Der wirkliche Grund ist aber eher, dass man sich die aktuell guten Verkaufzahlen von Cypress nicht mit einem mittelprächtig verfügbaren (wegen den Chips von TI) Cayman kaputtmachen will.
Kaum zu glauben, aber AMD ist nunmal ein gewinnorientiertes Unternehmen. :freak:

Dann wirds Zeit, dass AMD das auch mal in die Tat umsetzt. Bis jetzz haben sie auf der Front ja nun wirklich nicht geglänzt. Das kann die Konkurenz um einiges besser.

Ailuros
2010-11-15, 10:07:53
Ailuros, jetzt outest du dich als Fanboy und eigentlich stehst du doch über solchen Dingen.

Unterhalt Dich von solchen Bezeichnungen. Es gibt nach wie vor Regeln in diesem wie in allen Foren und ich werde zwar persoenlich nicht eingreifen fuer mich selber, aber wenn Du jemand anders so bezeichnen wuerdest wuerde ich oder jegliche andere Mod darauf eingreifen.

Zurueck zum Thema ich selber war derjenige der engstirnig vor dem Evergreen launch behauptete dass Evergreen EBEN NICHT ein DX10.1 Design mit zugeschnalltem DX11 ist.

Vielleicht haben wir ja unterschiedliche Definitionen von 'Architektur', aber IMHO kann man

1. nicht von einer neuen Architektur sprechen, wenn man diese an die neueste Version von DX anpasst.

2. Mehr-Perfomance kann und darf nicht das Kriterium sein um von einer neuen Architektur zu sprechen.

Wie gesagt unter diesen Kriterien ist auch GF104 eine neue Generation. Versuche es einfach als Gegenbeispiel technisch in Kombination mit Deiner Cayman Logik zu kontern. Du faellst eben damit glatt auf die Nase deshalb vermeidest Du auch eine halbwegs logische Erklaerung.

Nehmen wir das Beispiel der Intel-Prozessoren:

Spar Dir die Bandbreite. CPUs haben nichts mit GPUs zu tun.

Nehmen wir das Beispiel Software und MacOsX:

Gilt hier genauso wie oben. Eine sw Platform hat nichts mit einer GPU zu tun.

Die ATI 2000er Serie war eine neue Architektur. IMHO Cayman ist die erste grössere Architektur-Revision. Dazwischen gab es API-Anpassungen.

Wenn man mir R600, RV770 und RV870 als neue Generationen betitelt hab ich nichts dagegen.

Der Architektur-Unterschied bei Cayman liegt im Aufbau eines Stream-Processors.

Gott es ist ein VLiW4 vs. VLiW5. So und jetzt erklaer mir einfachen Worten wieso dieses eine neue Generation gerechtfertigt wenn GF100 pro SM 2*16 SIMDs hat, waehrend GF104 pro SM 3*16 SIMDs plus angeblich superskalarem Zeug.

Wenn es Dir nicht in den Kopf passen sollte dass Aenderungen solcher Art durchaus moeglich sind innerhalb einer Architektur-Familie und dass diese keine fundementalen Einfluss generell haben kann ich wirklich nicht weiterhelfen. Es wird wohl bis zu AMD's 28nm Generation dauern muessen bis einige schnallen wie eine neue Generation wirklich aussieht.

Was nützt das aber, wenn die Konkurenz ihre Produkte zu den gleichen Preisen anbietet mit den gewohnten Vorteilen in Features, Bildqualität und allgemeinem Softwaresuport bzw. Gamecompatibility?

AMD ist auf einem sehr guten Weg generell.

1. AMD hat es geschafft den fettesten Batzen im mobilen Markt zu erhalten und diesen sogar zu erhoehen. Stromverbrauch ist hier uebermaessig wichtig.

2. Sobald NV mit AMD im Preiskrieg liegt klingeln sofort fuer NV die hoeheren Herstellungskosten.

Dem Endkunden ist DIE Size scheiss egal und unterm Strich hat Nvidia bereits damit begonnen Geld zu verdienen. Bei AMD muss man das abwarten. Die 1 Mio im abgelaufenen Quartal waren ja nun alles andere als berauschend.

Dem Endkunden ja, den IHVs selber aber nicht. Klar kann NV einen gesunden Anteil der Herstellungskosten im Profi-Markt absolvieren und auch durch andere Turnereien aber im Endeffekt ist das Ganze doch nicht umsonst.

AMD kann man insgesamt eben nicht mit NVIDIA finanziell vergleichen. AMD's Kerngeschaeft ist nach wie vor CPUs und NV hat nichts damit zu tun. Koennte man AMD's GDP abschachteln generiert dieses garantiert keine rote Zahlen. Dafuer gibt AMD generell viel zu wenig fuer R&D und Unterstuetzung insgesamt aus. Dieses hat natuerlich so wohl Vor- als auch Nachteile genauso eben wie im Gegensatz bei NVIDIA.

Lange Geschichte kurz: NV's GTX580 ist das was die GTX480 von Anfang an haette sein sollen. Wenn ich heute eine 580 gegen eine 5970 vergleiche, erscheint mir die letztere absurder als Investition. Und genau das will ich von einer single chip high end GPU sehen: ein Paket dass mir beweisst dass mGPU eben nicht die eleganteste Loesung ist.

Wenn CaymanXT im schlimmsten Fall wieder ca. 10-15% langsamer sein sollte als eine 580, dann hat AMD wieder nichts verloren, sondern eher bewiesen dass fast das gleiche mit um einiges weniger moeglich ist.

mrt
2010-11-15, 10:31:15
Der TI sitzt iirc aber auch auf den Barts-Karten, daher kann es an dem nicht sooo sehr mangeln. Aber mit Barts macht AMD wohl mehr Kohle und mit Cypress ebenfalls, daher ist deine Grund nicht abwegig - im Gegenteil.
Schwierige Liefersituation bedeutet, dass man nicht so viele Chips bekommt als man brauchen könnte, ich wollte damit nicht andeuten, dass es keine gibt. ;)
Dann wirds Zeit, dass AMD das auch mal in die Tat umsetzt. Bis jetzz haben sie auf der Front ja nun wirklich nicht geglänzt. Das kann die Konkurenz um einiges besser.
Willst du trollen? AMD vernachlässigt das Workstationgeschäft, was soll da also groß rausschaun? Mehr als ein paar Millionen Gewinn gibts im Consumer-Grafikgeschäft nicht, Nvidia verdient mit Quadro/Tesla, weniger mit Geforce.

Bucklew
2010-11-15, 10:36:09
2. Sobald NV mit AMD im Preiskrieg liegt klingeln sofort fuer NV die hoeheren Herstellungskosten.
Nur doof das das nie den weg in die Quartalszahlen findet...

deekey777
2010-11-15, 10:59:32
Schwierige Liefersituation bedeutet, dass man nicht so viele Chips bekommt als man brauchen könnte, ich wollte damit nicht andeuten, dass es keine gibt. ;)

Willst du trollen? AMD vernachlässigt das Workstationgeschäft, was soll da also groß rausschaun? Mehr als ein paar Millionen Gewinn gibts im Consumer-Grafikgeschäft nicht, Nvidia verdient mit Quadro/Tesla, weniger mit Geforce.
Wo vernachlässigt AMD jetzt das Workstationgeshäft (FirePros)?
Es ist igendwie immer das Gleiche: DAAMIT und Workstationprodukte sind wie Teufel und Weihwasser, aber wo bleiben aktuelle Beispiele? AMD hat in den letzten 24 Monaten mehrere Produkte auf den Markt gebracht, die wirklich konkurrenzfähig sind. Hinzu kommen alle paar Monate neue/erneuerte Plug-Ins. Es gibt Software, die gleich mit einer FirePro ausgeliefert wird.

Gipsel
2010-11-15, 11:53:27
Gott es ist ein VLiW4 vs. VLiW5. So und jetzt erklaer mir einfachen Worten wieso dieses eine neue Generation gerechtfertigt wenn GF100 pro SM 2*16 SIMDs hat, waehrend GF104 pro SM 3*16 SIMDs plus angeblich superskalarem Zeug.

Wenn es Dir nicht in den Kopf passen sollte dass Aenderungen solcher Art durchaus moeglich sind innerhalb einer Architektur-Familie und dass diese keine fundementalen Einfluss generell haben kann ich wirklich nicht weiterhelfen. Es wird wohl bis zu AMD's 28nm Generation dauern muessen bis einige schnallen wie eine neue Generation wirklich aussieht.
Um mal Ailuros ein wenig in seiner Sichtweise zu unterstützen, vor ungefähr einer Woche (und 32 Seiten des Threads) schrieb ich das hier:
Jawed bei B3D hat mir sogar extra mal einen Shader, der reich an transzendenten Operationen ist (aber natürlich wie in real world shadern auch noch eine Menge normaler Instruktionen beherbergt), gegeben. Für den Fall erreicht eine VLIW4-Einheit 84% des Durchsatzes einer VLIW5-Einheit. Soviel müßte also mit der Einheitenzahl kompensiert werden (also 18-19% mehr VLIW-Einheiten hätten wieder den gleichen Durchsatz). Interessanterweise entspricht das ungefähr der gerade im Umlauf befindlichen Zahl mit 384 zu 320 VLIW-Einheiten. Damit könnte man also wahrscheinlich bis auf speziell konstruierte Fälle praktisch immer mindestens den gleichen arithmetischen Durchsatz wie Cypress erreichen (und im Schnitt ein wenig mehr). Und daß man selbst mit der Hälfte der theoretischen Peakleistung eine sehr ansehnliche Spieleleistung generieren kann, zeigt uns ja der GF100 ;). Will sagen, die Performance gegenüber Cypress wird vom Rest der Architektur mehr bestimmt werden als von der Änderung 5 Slots => 4 Slots. Das wird unter dem Strich nur 10% oder so an Shaderleistung ausmachen, was dann Real-World vielleicht noch 5% Unterschied in der Spieleleistung sind. Sinn macht es, wenn damit eine insgesamt höhere Effizienz pro Transistor und pro Watt verbunden ist.
Sicher stellt eine Umstellung von VLIW5->VLIW4 schon eine Änderung am Kernbereich der GPU dar (im Prinzip auch fundamentaler als GF100->GF104, denn da sind die Einheiten praktisch unverändert und "nur" die Scheduler getauscht). Allerdings sind die Auswirkungen doch überschaubar. Ich sage ja schon länger, daß die Verwaltung der Einheiten, sprich das Scheduling und die Datenversorgung eine enorm wichtige Rolle spielen. Insofern ist es wahrscheinlich sogar einfacher, VLIW5 gegen VLIW4 zu tauschen, als den ganzen Kram drumherum zu ändern. Allerdings wird dieser Wechsel alleine wie gesagt nicht so viel bringen, vielleicht 5-10% oder so.
Deswegen wird es entscheidend sein, ob, wann und wie genau AMD den Aufbau und Organisation der SIMDs umstellt.

Die letzte größere Änderung in dem Bereich kam mit RV770 (der sich doch deutlich von RV670 unterscheidet!). Auch mit VLIW4 wird sich am Prinzip des Clause-basierten Schedulings nichts ändern, womit man ein recht einfaches und platzsparendes System beibehält. Allerdings gibt es viele Möglichkeiten, das auf die Hardware abzubilden. Und hier hat AMD durchaus noch Reserven. R600/RV670 war vom Layout der SIMDs/TMUs (die waren da noch getrennt) prinzipiell besser was das Load-Balancing und die Auslastung angeht als RV770 und Folgende. Allerdings war das für die damalige Zeit nicht optimal, da zu aufwendig und bei den üblichen Anforderungen im Endeffekt langsamer als das eher "streamlined" Design von RV770 und Cypress. Vielleicht sehen wir jetzt oder in Zukunft ja einen Mittelweg? Nur mal so als Denkanstoß.

Darüber hinaus ist es für die Gesamtperformance sehr wichtig, wie das globale Scheduling arbeitet (also nicht das "fine grained" in den einzelnen SIMDs) und das Frontend sollte man natürlich auch nicht vergessen. Ich würde fast vermuten, daß Cayman hier nur eine moderate Überholung spendiert bekommt und man in kleinen Schritten vorwärts geht und keine Revolution versucht. Aber wie ich schon vorher schrieb, Faktor 2 in diesem Bereich reicht für Cayman vollkommen aus, wenn man nicht wirklich in jedem synthetischen Bench die Nase vorn haben will und stellt sicherlich eine sinnvolle Lösung für den Moment dar.

Ailuros
2010-11-15, 12:04:08
Nur doof das das nie den weg in die Quartalszahlen findet...

Ebenso doof dass ich leider nicht beweisen kann dass AMD's GDP in letzter Zeit gewinnreicher ist proportional gegenueber NV. Wie viel gibt NV insgesamt fuer R&D und support gegenueber AMD genau aus? Allein fuer die gesamte Fermi Familie hiess es dass es glatt eine Milliarde $ in R&D sind. Beweiss mir jetzt dass AMD genauso viel ausgegeben hat fuer Evergreen und co.

Und darum geht es ja auch gar nicht. Mir geht es lediglich darum die Erwartungen fuer Cayman etwas zu bremsen, damit manche nicht zu stark enttauescht werden am Ende.

deekey777
2010-11-15, 12:11:12
Also die FPS-Balken werden eher kaum enttäuschen, aber wie sieht's mit der Filterung aus? Beim BartS hat's man wohl vergeigt.

Mancko
2010-11-15, 12:20:21
AMD ist auf einem sehr guten Weg generell.

1. AMD hat es geschafft den fettesten Batzen im mobilen Markt zu erhalten und diesen sogar zu erhoehen. Stromverbrauch ist hier uebermaessig wichtig.


Das ist richtig. Aber viel Geld wird hier leider nicht verdient, da die Durchschnittpreise gerade bei Notebooks fett unter Druck kommen. Das dürfte sogar noch zunehmen, je mehr sich die Hersteller mit Netbooks und Tablets diesen Markt kaputt machen.


2. Sobald NV mit AMD im Preiskrieg liegt klingeln sofort fuer NV die hoeheren Herstellungskosten.


Ist mir zu einseitig betrachtet. Im Preiskrieg befindet sich NV schon seit dem GTX/GTS 4xx Launch und trozdem steigen Margen und Gewinne. Das selbe gabs auch schonmal eine Generation zuvor. Herstellungskosten hängen viel zu sehr mit anderen Faktoren zusammen. Nvidia ist Weltmeister, wenn es darum geht Produkte zu recyclen oder die Ausbeute auf den Wafern durch heruntergetaktete oder deaktivierte DIEs zu erhöhen und den Markt mit einer schieren Menge an unterschiedlichen Versionen zu überfluten. Desweiteren bin ich fest davon überzeugt, dass Nvidia seine Partner nicht nur am Erfolg sondern auch am Mißerfolg mit beteiligt. Sprich die werden die Preise drücken oder einige Kosten auf die AIB's und den Großhandel abwälzen.


Lange Geschichte kurz: NV's GTX580 ist das was die GTX480 von Anfang an haette sein sollen. Wenn ich heute eine 580 gegen eine 5970 vergleiche, erscheint mir die letztere absurder als Investition. Und genau das will ich von einer single chip high end GPU sehen: ein Paket dass mir beweisst dass mGPU eben nicht die eleganteste Loesung ist.


Stimme ich Dir zu. Im Halbleitersegment läuft nunmal nicht alles nach Plan. Das ist eben High End Technologie aber ich denke Nvidia ist mit einem blauen Auge davon gekommen. Ab jetzt dürfte es wieder ordentlich aufwärts gehen, da sie absolut konkurenzfähig sind und weitere Produkte folgen.
Von MultiGPU halte ich wegen der damit verbundenen Probleme sowieso nichts. Das kommt in den Reviews nur leider zu selten rüber. Da können sich 20 fps mehr bei einer MGPU Karte im Vergleich zu einer Single GPU Karte auch mal im real Gaming nach weniger anfühlen. Die GTX580 rockt und es hätte sicher nicht geschadet, wenn die schon 9 Monate vorher erschienen wäre. Zum Glück für AMD ist sie das aber nicht. Viel interessanter wird aber m.E. hier die GTX560. Augenblicklich denke ich, dass sie die größten Spuren bei AMD hinterlassen wird meiner Meinung nach. Ich gehe fest davon aus, dass nvidia das Teil knallhart gegen Barts stellt. Die haben doch gesehen, dass AMD dort Leistungstechnisch, Bildqualitätstechnisch und auch bei der Lautstärke und dem OC Verhalten schwächelt.


Wenn CaymanXT im schlimmsten Fall wieder ca. 10-15% langsamer sein sollte als eine 580, dann hat AMD wieder nichts verloren, sondern eher bewiesen dass fast das gleiche mit um einiges weniger moeglich ist.

Sagen wir mal so sie haben nichts groß verloren aber geglänzt eben auch nicht. Es wird dann zwangsläufig dazu führen, dass sie wieder Marktanteile abgeben müssen über die nächsten 2 bis 3 Quartale. Dass das annähernd gleiche mit weniger möglich ist, kommt halt auf die Perspektive an. Wenn ich mir nur den Gaming Markt anschaue gebe ich Dir Recht. Wenn ich mir 3D als Ganzes ansehe inklusive Profisegment, dann nicht. Das weniger führt eben auch dazu, dass AMD in hoch profitablen Märkten keine Rolle spielt.

LovesuckZ
2010-11-15, 12:20:34
Ebenso doof dass ich leider nicht beweisen kann dass AMD's GDP in letzter Zeit gewinnreicher ist proportional gegenueber NV. Wie viel gibt NV insgesamt fuer R&D und support gegenueber AMD genau aus? Allein fuer die gesamte Fermi Familie hiess es dass es glatt eine Milliarde $ in R&D sind. Beweiss mir jetzt dass AMD genauso viel ausgegeben hat fuer Evergreen und co.


Was sind schon $1 Milliarde, wenn man seine dominierende Position im Workstation-Markt deutlich festigen und den Vorsprung im HPC Bereich weiter ausbauen kann. Dafür investiert man, um in Zukunft ernten zu können.
AMD's nichts tun mit Evergreen war nur kurzfristig von Erfolg - nämlich solange nVidia noch nicht am Markt war. Jetzt mit Konkurrenz fällt AMD's Ergebnis erheblich schlechter aus und eine Erholung ist nicht in Sicht, da nVidia nun vollständig in Fahrt ist und dein "Execution"-Momentum gerade bei nVidia ist. Es wird für AMD nicht besser werden, da Barts enttäuscht hat und Cayman sich gegen GF110 und GF114 stellen muss.
Wer nicht investiert, wird am Ende verlieren.

Dural
2010-11-15, 12:26:15
auch wenn cayman gleich schnell wie GF110 sein sollte, ist NV immer noch mit ihrer ganzen Software im Vorteil plus natürlich der Pro Bereich, zudem kauft man bei gleicher Leistung eher eine NV Karte, das ist eine Tatsache und ist wie bei AMD / Intel dasselbe... zudem kommen noch die „spinner“ die gerade in dieser Preisklasse eine Bedeutung spielen und die kaufen wohl zu 90% immer NV (wegen den ganzen Vorteilen / SLI usw.)

und ob jetzt eine DIE 400 oder 500mm2 gross ist spielt glaub in dieser Leistung klasse kaum eine rolle, erst recht wenn man schaut was NV an mengen mit diesem Chip im Pro Bereich absetzt wo eine Karte/GPU 1000-3000 US Doller kostet.

Mancko
2010-11-15, 12:29:27
Also die FPS-Balken werden eher kaum enttäuschen, aber wie sieht's mit der Filterung aus? Beim BartS hat's man wohl vergeigt.

Ich denke die Chancen, dass sie dort massiv nachgebessert haben liegen bei allenfalls 20%. Bisher haben noch zu wenige angelsächsische Reviewseiten das kritisiert.

Allerdings erfolgt hier schon so langsam ein Umdenken dank der deutschen Vorarbeit! Lob an PCGH, Computerbase und auch 3DCenter von meiner Seite dafür. Die Deutschen liefern m.E. immer noch die besten Reviews ab, auch wenn es manchmal beim Launchreview nicht klappt (siehe CB). Allerdings war dafür auch zu wenig Zeit.
In den Foren auf den englisch sprachigen Seiten wird das Thema jedenfalls bereits heiss diskutiert. Ich denke dem können sich die Reviewer dann schlußendlich auch nicht verschließen.

Insofern finde ich den Schritt von PCGH und CB super, dass Q vs HQ gebencht wird. Ein Wettbewerb um die besten Tricksereien auf Kosten der Bildqualität kann für die Gaming Community nicht von Interesse sein, zumal die Produkte für aktuelle Spiele mehr als genug Performance aufweisen. Ich hoffe das AMD hier umdenkt, und das Nvidia seinen Kurs beibehält und nicht an der Qualität im negativen Sinne schraubt. Wenn man sich die Reviews ansieht, wäre die Versuchung dafür ja durchaus dagewesen.

mrt
2010-11-15, 12:32:03
Wo vernachlässigt AMD jetzt das Workstationgeshäft (FirePros)?
Es ist igendwie immer das Gleiche: DAAMIT und Workstationprodukte sind wie Teufel und Weihwasser, aber wo bleiben aktuelle Beispiele? AMD hat in den letzten 24 Monaten mehrere Produkte auf den Markt gebracht, die wirklich konkurrenzfähig sind. Hinzu kommen alle paar Monate neue/erneuerte Plug-Ins. Es gibt Software, die gleich mit einer FirePro ausgeliefert wird.
Ist zwar OT, aber was hilft gute Hardware und mehr Software wenn man den OpenGL-Treiber vernachlässigt? Gibt noch genug Software die OpenGL (unter Mac(!) und Linux die einzige API) verwenden. Besser ist es geworden, aber von den Quadros ist man noch ein gutes Stück entfernt. Das sie es besser könnten, zeigt ja schon die OpenCL-Implementierung, die ist auf AMD besser.

@ Mancko
Ich glaub die 20%ige Wahrscheinlichkeit ist noch viel zu optimistisch.

Exxtreme
2010-11-15, 12:33:12
Ich denke die Chancen, dass sie dort massiv nachgebessert haben liegen bei allenfalls 20%. Bisher haben noch zu wenige angelsächsische Reviewseiten das kritisiert.

20% halte ich für zu hoch. :freak:

Ich würde eher 1% sagen. Ja, man sollte nicht davon ausgehen, dass das Flimmer-AF abgestellt wurde.

S940
2010-11-15, 12:51:13
Um mal Ailuros ein wenig in seiner Sichtweise zu
unterstützen, vor ungefähr einer Woche (und 32 Seiten des Threads) schrieb ich das hier:

Sicher stellt eine Umstellung von VLIW5->VLIW4 schon eine Änderung am Kernbereich der GPU dar (im Prinzip auch fundamentaler als GF100->GF104, denn da sind die Einheiten praktisch unverändert und "nur" die Scheduler getauscht). Allerdings sind die Auswirkungen doch überschaubar. Ich sage ja schon länger, daß die Verwaltung der Einheiten, sprich das Scheduling und die Datenversorgung eine enorm wichtige Rolle spielen. Insofern ist es wahrscheinlich sogar einfacher, VLIW5 gegen VLIW4 zu tauschen, als den ganzen Kram drumherum zu ändern.
Hmm, wie genau meinst Du das mit der "wichtigen Rolle" :
Wichtig im Sinne von "Performace" oder wichtig im Sinne von Neue Architektur <> Refresh ?
Ich würde sagen, das ist ein wichtiges Performance Argument, aber keines für die Architektur <> Refresh Diskussion. Aber vielleicht Geschmacksfrage, auf alle Fälle sollte man das enger definieren, damit das geklärt ist.

Wir wärs wenn man dazu die DX11 Render Pipeline hernimmt:

http://4.bp.blogspot.com/_2YU3pmPHKN4/S1KhDSPmotI/AAAAAAAAAcw/d38b4oA_DxM/s1600/DX11.JPG
http://4.bp.blogspot.com/_2YU3pmPHKN4/S1KhDSPmotI/AAAAAAAAAcw/d38b4oA_DxM/s1600-h/DX11.JPG

Und sagt für nen Refresh muss eine (oder mehrere) der Stufen komplett neu in hardware implementiert sein, und für ne neue Architektur mindestens die Stufen x,y,z ... ?

Gute Idee / schlechte Idee ?

Irgendwo sollte man ne Grenze ziehen finde ich.

ciao

Alex

mboeller
2010-11-15, 13:00:28
Darüber hinaus ist es für die Gesamtperformance sehr wichtig, wie das globale Scheduling arbeitet (also nicht das "fine grained" in den einzelnen SIMDs) und das Frontend sollte man natürlich auch nicht vergessen. Ich würde fast vermuten, daß Cayman hier nur eine moderate Überholung spendiert bekommt und man in kleinen Schritten vorwärts geht und keine Revolution versucht. Aber wie ich schon vorher schrieb, Faktor 2 in diesem Bereich reicht für Cayman vollkommen aus, wenn man nicht wirklich in jedem synthetischen Bench die Nase vorn haben will und stellt sicherlich eine sinnvolle Lösung für den Moment dar.

Mal eine NOOB-Frage:

Würde es was bringen, den TMU-Flaschenhals bei Tessellation zu verbreitern; also die Effizienz der TMUs beim massiven Tessellation-Einsatz von ca. 6,25% auf sagen wir mal 25% zu steigern?

Oder hängen die fps bei Tesselation einzig und alleine am Frontend?

Bucklew
2010-11-15, 13:22:56
Ebenso doof dass ich leider nicht beweisen kann dass AMD's GDP in letzter Zeit gewinnreicher ist proportional gegenueber NV. Wie viel gibt NV insgesamt fuer R&D und support gegenueber AMD genau aus? Allein fuer die gesamte Fermi Familie hiess es dass es glatt eine Milliarde $ in R&D sind. Beweiss mir jetzt dass AMD genauso viel ausgegeben hat fuer Evergreen und co.
Angesichts dessen, dass die Grafiksparte letztes Jahr insgesamt 1 Million bei AMD verdient hat, während Nvidia wieder bei ~ 100 Millionen liegt, müsste ATI schon 0$ R&D ausgeben, um da ne vernünftige Statistik zu haben ;)

Schlammsau
2010-11-15, 13:32:49
Angesichts dessen, dass die Grafiksparte letztes Jahr insgesamt 1 Million bei AMD verdient hat, während Nvidia wieder bei ~ 100 Millionen liegt, müsste ATI schon 0$ R&D ausgeben, um da ne vernünftige Statistik zu haben ;)
Interessant wäre/ist eine Auflistung mit welchen Segmenten nVidia diesen Gewinn gemacht hat. Ich denke nicht, dass das Desktop Segment da masgeblich dran beteiligt war.

Wie soll das auch gehen.....nVidia hat momentan nur eine kaufbare Grafikkarte am Markt, die GTX460! Noch dazu nur 18% Marktanteil im DX11 Gamermarkt (STEAM).
Noch dazu kaum Notebookpräsenz. Nahezu keine aktuellen und konkurrenzfähigen Budgetkarten.

Wo zur Hölle macht nVidia nur diesen extrem guten Gewinn?
nVidia verdient nur im Businesssegment, und da gewaltig! Deswegen die guten Zahlen.

Raff
2010-11-15, 13:35:29
Wie soll das auch gehen.....nVidia hat momentan nur eine kaufbare Grafikkarte am Markt, die GTX460!
Noch dazu kaum Notebookpräsenz.

Hä? Nur weil die Referenzdesigns der GTX 470/480 scheiße (laut) sind, sind das nicht gleich "unkaufbare" Karten. Zumal die Partner beide Karten in leiser Form feilbieten (Gigabyte SOC, Zotac AMP, etc.). Und nicht jeder Käufer guckt auf "Randgedöns" wie die Emission => je mehr Fps, desto besser. Leider.

MfG,
Raff

Gipsel
2010-11-15, 13:36:51
Hmm, wie genau meinst Du das mit der "wichtigen Rolle" :
Wichtig im Sinne von "Performace" oder wichtig im Sinne von Neue Architektur <> Refresh ?
Ich würde sagen, das ist ein wichtiges Performance Argument, aber keines für die Architektur <> Refresh Diskussion. Aber vielleicht Geschmacksfrage, auf alle Fälle sollte man das enger definieren, damit das geklärt ist.
Erstmal war das auf die Performance bezogen gemeint. Allerdings wäre es eine sehr tiefgreifende Änderung an der Architektur, wenn man da etwas komplett umschmeißt und nicht "nur" Tuning betreibt. ;)
Mal eine NOOB-Frage:

Würde es was bringen, den TMU-Flaschenhals bei Tessellation zu verbreitern; also die Effizienz der TMUs beim massiven Tessellation-Einsatz von ca. 6,25% auf sagen wir mal 25% zu steigern?

Oder hängen die fps bei Tesselation einzig und alleine am Frontend?
???
Was haben denn jetzt die TMUs mit Tessellation zu tun?
Das wird an dem Punkt ineffizient, wenn die Dreiecke kleiner als ~8 Pixel werden (egal ob mit Tess oder nicht), da in den Pixelshadern immer ganze Quads durchlaufen. Aber das betrifft alle quadbasierten Renderer (und nicht nur die TMUs, sondern die komplette Shaderengine). Nicht umsonst empfiehlt auch nvidia eine Deiecksgröße von 8 Pixeln ;)

Coda
2010-11-15, 13:40:24
Wenn man mir R600, RV770 und RV870 als neue Generationen betitelt hab ich nichts dagegen.
Das ist nicht dein ernst? Du meinst das sind neue Generationen, aber wenn man die elementare Baugruppe komplett überarbeitet ist es keine?

Ich will auch was von dem Zeug.

Schlammsau
2010-11-15, 13:43:31
Hä? Nur weil die Referenzdesigns der GTX 470/480 scheiße (laut) sind, sind das nicht gleich "unkaufbare" Karten. Zumal die Partner beide Karten in leiser Form feilbieten (Gigabyte SOC, Zotac AMP, etc.). Und nicht jeder Käufer guckt auf "Randgedöns" wie die Emission => je mehr Fps, desto besser. Leider.

MfG,
Raff
Sicherlich sind die GTX470 und 480 für manche interessant, aber ein Blick in die Survey verät mir, dass es ein wirklich kleiner Teil der Gamerriege ist, die sich solche Karten kaufen.
0,54% in der Survey (all Video Cards (http://store.steampowered.com/hwsurvey/videocard/)), in 7 Monaten, zeugt nicht von einer grossen Käuferschicht.
Zum Vergleich, die 5800 Serie hat "stolze" 4%. :freak:

Die allermeisten Gamer, kaufen sich eine Karte bis maximal 200€.....und da ist nur die GTX460 und seit kurzem auch die GTX470 interessant.
Die GTS450 und darunter werden noch nichtmal aufgeführt, so wenige haben die Karten.

Cayman wird ein ähnliches Schicksal ereilen, egal wie gut oder schlecht die Karte ist.

Also nochmal, wo macht nVidia den Gewinn?

Ailuros
2010-11-15, 13:52:35
Was sind schon $1 Milliarde, wenn man seine dominierende Position im Workstation-Markt deutlich festigen und den Vorsprung im HPC Bereich weiter ausbauen kann. Dafür investiert man, um in Zukunft ernten zu können.
AMD's nichts tun mit Evergreen war nur kurzfristig von Erfolg - nämlich solange nVidia noch nicht am Markt war. Jetzt mit Konkurrenz fällt AMD's Ergebnis erheblich schlechter aus und eine Erholung ist nicht in Sicht, da nVidia nun vollständig in Fahrt ist und dein "Execution"-Momentum gerade bei nVidia ist. Es wird für AMD nicht besser werden, da Barts enttäuscht hat und Cayman sich gegen GF110 und GF114 stellen muss.
Wer nicht investiert, wird am Ende verlieren.

Oder man erntet analog zu dem was man investiert wenn man es etwas realistischer vereinfachen will.

Wo genau liegt denn das tolle "execution momentum"
bei NVIDIA wenn GF110 lediglich das ist was GF100 von Anfang an haette sein sollen?

Beide IHVs holen mit dem zweiten 40G so viel nach wie ihnen die kurze Zwischenzeit und die Limitierungen des Herstellungs-prozesses erlauben. AMD hat nach wie vor den perf/mm2 Vorteil wobei NV mit ca. 1 Jahr Verspaetung etwas im Bereich perf/W zurueckgewonnen hat.

AMD sagt von ihrer Seite dass GF110 lediglich ein voller GF100 ist mit leicht hoeheren Frequenzen und NVIDIA von ihrer Seite dass Cayman quasi nur ein leicht umgemoebelter Cypress mit mehr clusters ist. Neben der typischen marketing Untermauerung beider Seiten liegt schon bis zu einem Punkt wahres dran.

Es faellt eben viel zu vielen das Verstaendnis dass bei so kurzer Zwischenzeit und dem gleichen oeden 40G fuer beide Seiten einfach nicht mehr moeglich ist und das ist der eigentliche Punkt. GF110 ist in diesem Sinn kein Kepler genausowenig wie Cayman etwas mit AMD's 28nm Generation zu tun hat.

mboeller
2010-11-15, 13:57:26
E???
Was haben denn jetzt die TMUs mit Tessellation zu tun?
Das wird an dem Punkt ineffizient, wenn die Dreiecke kleiner als ~8 Pixel werden (egal ob mit Tess oder nicht), da in den Pixelshadern immer ganze Quads durchlaufen. Aber das betrifft alle quadbasierten Renderer (und nicht nur die TMUs, sondern die komplette Shaderengine). Nicht umsonst empfiehlt auch nvidia eine Deiecksgröße von 8 Pixeln ;)

Das hatte ich gemeint, aber sehr unscharf formuliert. :)

Heutzutage sind die TMUs ja, soweit ich weiß, so organisiert, das immer ein Tile mit 4x4 Pixel abgearbeitet wird. Wenn jetzt Polygone mit einer Größe von 1Pixel durch die Pipeline geschickt werden, liegen 15/16'tel der Leistung brach.

Würde es bei der Tesselation-Leistung insgesamt helfen, wenn jetzt ein Tile nur noch 2x2 Pixel groß wäre und damit der Verschnitt max. 75% betragen würde?

Oder würde die Pipeline insgesamt zu ineffizient werden? Bzw. würde man es überhaupt merken, da vielleicht ja das Frontend (Tessellation) limitert?

Ailuros
2010-11-15, 14:02:34
Das ist richtig. Aber viel Geld wird hier leider nicht verdient, da die Durchschnittpreise gerade bei Notebooks fett unter Druck kommen. Das dürfte sogar noch zunehmen, je mehr sich die Hersteller mit Netbooks und Tablets diesen Markt kaputt machen.

Der mainstream computing Markt wird aber zunehmend mobiler insgesamt; genau aus dem Grund plant AMD SoCs fuer die Zukunft um auch diese mit einem Schlag bedienen zu koennen. Hier konkurrieren sie eher gegen Intel, aber man kann in einer Debatte ueber Markt-tendenzen und Grafik leider Intel nicht weglassen.

NV verdient auch nicht gerade Uebermengen in Profi-Maerkten da die Volumen hier ziemlich begrenzt sind.


Ist mir zu einseitig betrachtet. Im Preiskrieg befindet sich NV schon seit dem GTX/GTS 4xx Launch und trozdem steigen Margen und Gewinne. Das selbe gabs auch schonmal eine Generation zuvor. Herstellungskosten hängen viel zu sehr mit anderen Faktoren zusammen. Nvidia ist Weltmeister, wenn es darum geht Produkte zu recyclen oder die Ausbeute auf den Wafern durch heruntergetaktete oder deaktivierte DIEs zu erhöhen und den Markt mit einer schieren Menge an unterschiedlichen Versionen zu überfluten. Desweiteren bin ich fest davon überzeugt, dass Nvidia seine Partner nicht nur am Erfolg sondern auch am Mißerfolg mit beteiligt. Sprich die werden die Preise drücken oder einige Kosten auf die AIB's und den Großhandel abwälzen.

Dabei frage ich mich wo AMD die Barts und Juniper-Masche und die dementsprechende Namensgebung (6xxx) genau abgeschielt hat gell? ;)




Sagen wir mal so sie haben nichts groß verloren aber geglänzt eben auch nicht. Es wird dann zwangsläufig dazu führen, dass sie wieder Marktanteile abgeben müssen über die nächsten 2 bis 3 Quartale. Dass das annähernd gleiche mit weniger möglich ist, kommt halt auf die Perspektive an. Wenn ich mir nur den Gaming Markt anschaue gebe ich Dir Recht. Wenn ich mir 3D als Ganzes ansehe inklusive Profisegment, dann nicht. Das weniger führt eben auch dazu, dass AMD in hoch profitablen Märkten keine Rolle spielt.

Macht Intel mehr Gewinn mit integrierter Grafik oder NVIDIA mehr im Profi-Bereich? Wenn ich bei AMD eine Stimme haette wuerde ich mich auch eher auf das erste konzentrieren, eben weil sie dazu zum konkurrieren besser ausgeruestet sind und es ihnen auch viel mehr weniger am Ende kostet. Gegen Intel mit Grafik zu konkurrieren ist nicht besonders schwer aus verstaendlichen Gruenden.

Gipsel
2010-11-15, 14:10:53
Das ist nicht dein ernst? Du meinst das sind neue Generationen, aber wenn man die elementare Baugruppe komplett überarbeitet ist es keine?Ailuros schrieb (zumindest interpretiere ich das so), daß man Cayman als neue Generation bezeichnen kann, wenn man das mit RV770 und Cypress auch tut ;)
Das hatte ich gemeint, aber sehr unscharf formuliert. :)

Heutzutage sind die TMUs ja, soweit ich weiß, so organisiert, das immer ein Tile mit 4x4 Pixel abgearbeitet wird. Wenn jetzt Polygone mit einer Größe von 1Pixel durch die Pipeline geschickt werden, liegen 15/16'tel der Leistung brach.

Würde es bei der Tesselation-Leistung insgesamt helfen, wenn jetzt ein Tile nur noch 2x2 Pixel groß wäre und damit der Verschnitt max. 75% betragen würde?Ein Quad heißt Quad, weil es aus 4 Pixeln (2x2) besteht. ;)
Und es ist wie gesagt kein isoliertes Problem der TMUs, sondern die kompletten Pixelshader werden so abgearbeitet (jedes Quad, was ein Dreieck berührt, wird komplett durchgeschleift, d.h. ein 4 Pixel Dreieck belegt immer mindestens 2 Quads).
Aber ich habe auch schon mal geschrieben, daß ich den Verdacht hege, daß nv auf "Duads" geht.

Und wie schon gesagt hat das mit Tessellation eigentlich nichts zu tun. Das Problem tritt allgemein bei kleinen Dreiecken auf, ob mit oder ohne Tess ist vollkommen egal.

Mancko
2010-11-15, 14:11:36
Macht Intel mehr Gewinn mit integrierter Grafik oder NVIDIA mehr im Profi-Bereich? Wenn ich bei AMD eine Stimme haette wuerde ich mich auch eher auf das erste konzentrieren, eben weil sie dazu zum konkurrieren besser ausgeruestet sind und es ihnen auch viel mehr weniger am Ende kostet. Gegen Intel mit Grafik zu konkurrieren ist nicht besonders schwer aus verstaendlichen Gruenden.


Intel macht im PC Sektor mit integrierter Grafik gar keinen Gewinn. Das war jahrelang ein give away um AMD auf Distanz zu halten. Zum Leidwesen von AMD werden die das auch weiterhin so machen. Intels integrierte Grafik ist klassische Quersubvention. Da müssen dann Kunden für Intels IGP's genauso viel bezahlen wie für deren Chipsätze ohne integrierte Grafik. Analog im Bereich der Netbooks. Dort kostet dann ein single Atom genauso viel wie ein Atom mit Grafikeinheit. Das war schon seit jeher so und wurde sowohl von AMD wie auch Nvidia in der Vergangenheit beklagt in diversen Conference Calls. So ist das halt, wenn man 10 Mrd. Dollar Umsatz macht. Da kann man sich solche Spielerein halt leisten. Aber bitte hier nicht die Story von den hochprofitablen Intel IGP's bringen. Das waren die Teile noch nie und das war und ist auch nicht Intels Ziel mit denen.

Ailuros
2010-11-15, 14:52:05
Intel macht im PC Sektor mit integrierter Grafik gar keinen Gewinn. Das war jahrelang ein give away um AMD auf Distanz zu halten. Zum Leidwesen von AMD werden die das auch weiterhin so machen. Intels integrierte Grafik ist klassische Quersubvention. Da müssen dann Kunden für Intels IGP's genauso viel bezahlen wie für deren Chipsätze ohne integrierte Grafik. Analog im Bereich der Netbooks. Dort kostet dann ein single Atom genauso viel wie ein Atom mit Grafikeinheit. Das war schon seit jeher so und wurde sowohl von AMD wie auch Nvidia in der Vergangenheit beklagt in diversen Conference Calls. So ist das halt, wenn man 10 Mrd. Dollar Umsatz macht. Da kann man sich solche Spielerein halt leisten. Aber bitte hier nicht die Story von den hochprofitablen Intel IGP's bringen. Das waren die Teile noch nie und das war und ist auch nicht Intels Ziel mit denen.

Es kann und darf aber nicht in Zukunft so bleiben. Jegliche Einheit sollte nach ihrem wahren Wert verkauft werden und nicht weil IHV X oder Y dahintersteckt und es sich leisten kann mit diversen fraglichen Methoden dass zu erreichen was ihnen gerade so passt.

Ailuros schrieb (zumindest interpretiere ich das so), daß man Cayman als neue Generation bezeichnen kann, wenn man das mit RV770 und Cypress auch tut ;)

Es ist nicht besonders leicht alles auf Anhieb deutlich zu erklaeren wenn man von etlichen Seiten ueberfallen wird :)

Mancko
2010-11-15, 14:52:51
die zahlen werden bei NV dank 500 serie so wie so wider steigen, da wette ich schon jetzt :)
Die Wette gehe ich mit. Sprich ich bin Deiner Meinung. Ökonomisch gesehen geht das auch gar nicht anders, da sie keinen Rückstand mehr haben. Insofern ist beispielsweise die Zahl des DX11 Marktanteils total Jacke wie Hose. Wichtig ist, wie sich die Produkte dort Quartal für Quartal im Vergleich zur Konkurenz machen. Das Nvidia 9 Monate später dran war, weiß jeder. Deswegen werden die auch niemals die Zahlen aufholen können. Müssen sie auch nicht. Das Thema ist längst abgehakt.

Mancko
2010-11-15, 14:55:42
Es kann und darf aber nicht in Zukunft so bleiben. Jegliche Einheit sollte nach ihrem wahren Wert verkauft werden und nicht weil IHV X oder Y dahintersteckt und es sich leisten kann mit diversen fraglichen Methoden dass zu erreichen was ihnen gerade so passt.

Sag das Intel und nicht mir :) Ich kann Dir aber versichern, das die sich einen Scheiss darum kümmern. Die werden diese Tour weiterfahren, weil es ihnen niemand verbieten kann. Rein theoretisch könnte man das schon, da sie eine Monopolstellung haben aber du weisst ja wie die Amerikaner wirtschaftlich global agieren. Monopole oder subventionierte Produkte sind erst dann ein Problem, wenn sie nicht aus den USA kommen und dafür z.B. aus China.

Das Glück für AMD und Nvidia ist, dass das zwei US Unternehmen sind. Insofern schaut die FTC wenigstens ein bisschen hin. Wären das Asiatische oder Europäische Unternehmen, hätte es nicht mal die 1Mrd. Dollar für AMD gegeben und die EU ist einfach zu verhalten was das angeht. Auf Intels CPU Produkte hätte ich schon längst von Staats wegen Preisaufschläge drauf gehauen wegen Monopolstellung.

Aber die Europäer haben für sowas keinen Arsch in der Hose und wir Deutschen schon gleich gar nicht. Bei uns gibts beispielsweise sofort nen Aufschrei, wenn der Bundespräsident oder der Verteidigungsminister sich hinstellen und sagen, dass die BW Auslandseinsätze unter anderem auch zur Sicherung der Handelswege sprich Wirtschaftsinteressen Deutschlands dienen. Ja wozu denn sonst? Bitte alle mal schnell aufwachen. In den USA weiß das jeder und kein Hahn regt sich darüber auf. Globalisierung ist auch ein Machtspiel.

Ailuros
2010-11-15, 15:01:36
Die Wette gehe ich mit. Sprich ich bin Deiner Meinung. Ökonomisch gesehen geht das auch gar nicht anders, da sie keinen Rückstand mehr haben. Insofern ist beispielsweise die Zahl des DX11 Marktanteils total Jacke wie Hose. Wichtig ist, wie sich die Produkte dort Quartal für Quartal im Vergleich zur Konkurenz machen. Das Nvidia 9 Monate später dran war, weiß jeder. Deswegen werden die auch niemals die Zahlen aufholen können. Müssen sie auch nicht. Das Thema ist längst abgehakt.

Nebenbei hab ich nie persoenlich vorgeschlagen dass NV ihre heutige Strategie komplett aendert bezueglich chip-Entwicklung. Ich hab lediglich vorgeschlagen dass NV vielleicht daran denken koennte chips wie GF100 und GF104 parallel zu entwickeln. Wenn dann der top dog dank Entwicklungsfehlern, dank beschissenem Herstellungsprozess oder weiss der Geier aus welchem Grund sich verspaeten sollte man nicht komplett nackt gegen die Konkurrenz steht.

Es haette NV alles andere als geschadet wenn sie eine GTX460 schon seit Ende Herbst 2009 auf Regalen gehabt haetten. Und nein es ist fuer mich persoenlich keine Schande fuer einen jeglichen IHV wenn der Konkurrenz eine neue erfolgreiche Masche einfuehrt diese dann auf seine eigene Strategie auch anzupassen wenn dieses moeglich ist.

Ich hab auch nichts gegen die Umbennenung von Juniper und der Barts Entwicklung von der Gegenseite.

NV's Problem ist nicht was in 2009 passiert ist, sondern was sie genau beim naechsten groesseren Schub anrichten koennen ohne die gleichen Fehler wie beim GF100 zu wiederholen.

LovesuckZ
2010-11-15, 15:08:10
Es haette NV alles andere als geschadet wenn sie eine GTX460 schon seit Ende Herbst 2009 auf Regalen gehabt haetten. Und nein es ist fuer mich persoenlich keine Schande fuer einen jeglichen IHV wenn der Konkurrenz eine neue erfolgreiche Masche einfuehrt diese dann auf seine eigene Strategie auch anzupassen wenn dieses moeglich ist.


Und wie soll das gehen, wenn Fermi nicht fertig war? Fermi ist eine so deutlich überarbeiterte Architektur, dass ein AMD Vorgehen nicht möglich war. Man sieht ja an AMD, dass starke Veränderungen zu Verzögerungen führen können. Immerhin liegt zwischen Cayman und Barts mindesten knapp 2 Monate. Und wer weiß, ob das schon das Ende der Verschiebungen ist. Wäre AMD so überzeugt von ihren Fähigkeiten, wäre Barts auch nicht nur ein Juniper bzw. Cypress Abklatsch, sondern hätte auch schon die neuen Recheneinheiten und ein deutlich verbessertes Front-End.

Exxtreme
2010-11-15, 19:14:26
Zurück zum Thema bitte!

DrumDub
2010-11-16, 13:33:35
Rumor: AMD facing overall Radeon HD 6000 Series shortage? (http://vr-zone.com/articles/rumor-amd-facing-overall-radeon-hd-6000-series-shortage-/10319.html)

tombman
2010-11-16, 13:47:24
Das wäre ja ein Witz, wenn der Riesenchip GF100b in Massen verfügbar wäre und die AMD P/L-Meister nicht :D

deekey777
2010-11-16, 13:50:07
Das wäre ja ein Witz, wenn der Riesenchip GF100b in Massen verfügbar wäre und die AMD P/L-Meister nicht :D
Die News gelesen? Verstanden? Nein?

SamLombardo
2010-11-16, 15:09:19
Die News gelesen? Verstanden? Nein?
Link geht irgendwie nicht mehr... Was stand denn da?

tombman
2010-11-16, 15:10:43
Die News gelesen? Verstanden? Nein?
Tombman gelesen? Verstanden? Nein?

mironicus
2010-11-16, 15:17:04
Top-Strategie von AMD! Sie verringern die Verfügbarkeit ihrer GPUs, die Händler erhöhen darauf automatisch ihre Preise. So hat jeder was davon. Bei einem Überangebot würden sich die Preise zu sehr verringern (siehe NVidia). AMD und die Händler können damit letzten Endes einen höheren Profit erwirtschaften. So hat es AMD letztes Jahr auch mit der 5800er-Reihe gemacht. :D

Alles Absicht! :D :D

Mancko
2010-11-16, 15:25:25
Top-Strategie von AMD! Sie verringern die Verfügbarkeit ihrer GPUs, die Händler erhöhen darauf automatisch ihre Preise. So hat jeder was davon. Bei einem Überangebot würden sich die Preise zu sehr verringern (siehe NVidia). AMD und die Händler können damit letzten Endes einen höheren Profit erwirtschaften. So hat es AMD letztes Jahr auch mit der 5800er-Reihe gemacht. :D

Alles Absicht! :D :D

Dann müssten die Quartalszahlen des 4. Quatals in der GPU Abteilung gerade zu positiv ausfallen. Wir werden das sehen. Mitte Januar gibts die Zahlen.

igg
2010-11-16, 15:26:56
Mitte Januar gibts die Zahlen.
Ich denke mironicus meinte das ironisch.

Dural
2010-11-16, 15:50:40
;D

mal schauen ;)

aber das die verschiebung nicht mit irgend welchen bescheuerten Mosfets oder "die 5800 serie läuft noch super, für was was neues" (obwohl die 5970 wie blei in den regalen liegt...) zu tun hat war ja von anfang an klar...

Ailuros
2010-11-16, 17:18:42
Und wie soll das gehen, wenn Fermi nicht fertig war? Fermi ist eine so deutlich überarbeiterte Architektur, dass ein AMD Vorgehen nicht möglich war.

Wenn man es von Anfang an nicht plant geht es natuerlich nicht. Was soll so unmoeglich sein von Anfang an einen GF100 und GF104 gleichzeitig zu entwickeln? So wie es mit Fermi vorging musste natuerlich Fermi zuerst zur Tuer raus und dann der Rest.

Man sieht ja an AMD, dass starke Veränderungen zu Verzögerungen führen können. Immerhin liegt zwischen Cayman und Barts mindesten knapp 2 Monate. Und wer weiß, ob das schon das Ende der Verschiebungen ist. Wäre AMD so überzeugt von ihren Fähigkeiten, wäre Barts auch nicht nur ein Juniper bzw. Cypress Abklatsch, sondern hätte auch schon die neuen Recheneinheiten und ein deutlich verbessertes Front-End.

Wer sagte dass Cayman und Barts so parallel entwickelt wurden wie Juniper und Cypress? Hat Jensen versprochen dass bei zukuenftigen Generationen die kleineren Varianten innerhalb sehr kurzer Zeit ankommen werden oder nicht? Rate mal mit was er genau damit meinen koennte und wie das Ganze vorgehen koennte. Ich hab erstmal einen ziemlich passenden hint der mich vielleicht in die richtige Spekulations-Richtung treibt.

Aber wenn wir schon von "starken Veraenderungen" reden, wieso kommt denn GTX560 erst in Q1 2011 trotz schwachen Veraenderungen?

Rumor: AMD facing overall Radeon HD 6000 Series shortage? (http://vr-zone.com/articles/rumor-amd-facing-overall-radeon-hd-6000-series-shortage-/10319.html)

Ich darf im Hintergrund kichern oder? :P

LovesuckZ
2010-11-16, 18:04:06
Wenn man es von Anfang an nicht plant geht es natuerlich nicht. Was soll so unmoeglich sein von Anfang an einen GF100 und GF104 gleichzeitig zu entwickeln? So wie es mit Fermi vorging musste natuerlich Fermi zuerst zur Tuer raus und dann der Rest.

Weil es nicht sinnvoll ist bei einer neuen Architektur. Die Wahrscheinlichkeit eines Problems ist deutlich höher, wenn man umfassende Änderungen vornimmt als wenn man nur ein bestehendes Design leicht anpasst. Deswegen musste man auch warten, bis GF100 einigermaßen gefixt wurde, um nicht die selben Probleme mit GF104 zu haben.


Wer sagte dass Cayman und Barts so parallel entwickelt wurden wie Juniper und Cypress? Hat Jensen versprochen dass bei zukuenftigen Generationen die kleineren Varianten innerhalb sehr kurzer Zeit ankommen werden oder nicht? Rate mal mit was er genau damit meinen koennte und wie das Ganze vorgehen koennte. Ich hab erstmal einen ziemlich passenden hint der mich vielleicht in die richtige Spekulations-Richtung treibt.

Barts ist ein Evergreen-Chip. Logisch, dass man den parallel entwickeln konnte, da man auf eine vollständig vorhandene Architektur zugreifen konnte, von der man wusste, wie sie zu designen ist. Cayman hat einige Änderungen, die eben doch eine hohe Ungewissheit mitbringen. Und da man sich nicht erlauben kann mit einem neuen Mid-Range Chip sich zu verspäten, verlässt man sich eben auf altbewährtes. Nur hat es diesmal nicht geklappt - sowie mit Juniper und Cypress.
Ansonsten kann sich Huang's Meinung genauso schnell ändern wie die von AMD. Nichts neues im Grafikkartenland.


Aber wenn wir schon von "starken Veraenderungen" reden, wieso kommt denn GTX560 erst in Q1 2011 trotz schwachen Veraenderungen?


Weil nVidia die Lager mit GF104 und GF100 Chips leerräumen lassen muss. Außerdem benötigt man für's Mid-Range wesentlich mehr Chips, um keine Barts-Probleme zu erhalten. Die kann man jetzt vorproduzieren.

Ailuros
2010-11-16, 18:25:58
Weil es nicht sinnvoll ist bei einer neuen Architektur.

Sagt wer?

Die Wahrscheinlichkeit eines Problems ist deutlich höher, wenn man umfassende Änderungen vornimmt als wenn man nur ein bestehendes Design leicht anpasst. Deswegen musste man auch warten, bis GF100 einigermaßen gefixt wurde, um nicht die selben Probleme mit GF104 zu haben.

Ergo wusste danach NV von vornherein dass sie Mist gebaut haben und haben sicherheitshalber alles andere auf Eis gelegt oder? Ja es ist NV's bisherige Masche dass zuerst der top dog erscheint und danach erst die Ableger ankommen, aber es spricht absolut NICHTS gegen jegliche parallele Entwicklung.

Und wenn es schon sein muss GF100's groesstes Problem war die zu hohe CHIPKOMPLEXITAET welche offensichtlich nicht besonders viel mit einem mainstream chip zu tun hat. Ergo da es nach Dir....errr sorry NVIDIA so sein "muss", jedesmal wenn ein Prozess abfurzt, ein paar engineers mal wieder geschlampt haben oder Jensen in die falche Richtung gefurzt hat dann wird jeglicher Kepler, Maxwell, Borgo Sphinxter unter genau dem gleichen Problem leiden wie Fermi. Es kann so nicht weitergehen und ebenso wie sie mit NV30 etwas dazugelernt haben, sollten sie jetzt auch mit Fermi einen Schritt weiter sein. Und nein die Loesung ist eben NICHT den kleinstmoeglichen Herstellungsprozess in Zukunft zu vermeiden. Guten Appetit beim Versuch Kepler auf 40G zu quetschen.

Barts ist ein Evergreen-Chip.

Ich meinte mit parallele Entwicklung wie bei Juniper und Cypress. Das hat UEBERHAUPT NICHTS mit Barts zu tun. Capiche?

Logisch, dass man den parallel entwickeln konnte, da man auf eine vollständig vorhandene Architektur zugreifen konnte, von der man wusste, wie sie zu designen ist. Cayman hat einige Änderungen, die eben doch eine hohe Ungewissheit mitbringen. Und da man sich nicht erlauben kann mit einem neuen Mid-Range Chip sich zu verspäten, verlässt man sich eben auf altbewährtes. Nur hat es diesmal nicht geklappt - sowie mit Juniper und Cypress.

Rede doch keinen endlosen Scheiss zusammen wenn Du nicht die blasseste Ahnung hast wie deren road-map VOR der 32nm Stornierung aussah.

Ansonsten kann sich Huang's Meinung genauso schnell ändern wie die von AMD. Nichts neues im Grafikkartenland.

Jensen sollte in Rente gehen und neuem Blut Platz machen aber wem genau erzaehle ich das?

Weil nVidia die Lager mit GF104 und GF100 Chips leerräumen lassen muss. Außerdem benötigt man für's Mid-Range wesentlich mehr Chips, um keine Barts-Probleme zu erhalten. Die kann man jetzt vorproduzieren.

LOL ;D

Coda
2010-11-16, 18:30:29
Gegen eine parallele Entwicklung spricht natürlich, dass Bugs sofort mehrere Chips betreffen. Das ist schon riskanter.

Ailuros
2010-11-16, 18:42:22
Gegen eine parallele Entwicklung spricht natürlich, dass Bugs sofort mehrere Chips betreffen. Das ist schon riskanter.

NV hatte so oder so ein getrenntes Design-team fuer GF104 und GF100. So oder so musste das erste auf das zweite warten. Waere beim GF100 alles nach Plan gelaufen waere GF104 schon im Februar/Maerz 2010 zur Produktion geschickt worden.

It wasn’t an impossible feat. ATI does have concurrent design teams and a lot of engineering resources in India/China. By working on Juniper in tandem with Cypress, assuming there were no show stopping bugs, ATI could exploit efficiencies in two teams effectively working on the same hardware (Juniper was just half a Cypress).

The idea of taking such a huge risk made Carrell uncomfortable. Running two GPU designs in parallel, for the same family of chips, is risky. If everything works out perfectly, you get two chips out at the same time. If it doesn’t, you’ve just tied up two design teams on one product generation. A slip here would give ATI its own Fermi.

Und im Fall wo es NV gemacht haette waere im schlimmsten Fall GF104 spaeter als im Juni 2010 ankommen? Will ich ernsthaft bezweifeln.

http://www.anandtech.com/show/2937/6

aylano
2010-11-16, 19:00:30
It wasn’t an impossible feat. ATI does have concurrent design teams and a lot of engineering resources in India/China.
In Indien sitzt auch ein großes AMD-CPU-Design-Team, die AFAIK Deneb bzw. K10 in Schwung brachten.
Ich glaube, dort sitzen mehr Ingenieure als im US-Team, da dort die Arbeitskosten so (extrem) niedrig sind.

Wurde dort dann auch ein GPU-Team aufgebaut oder hat ATI schon früher ein eigenes GPU-Team woanders aufgebaut?

LovesuckZ
2010-11-16, 19:16:59
Sagt wer?

Risikomanagement.


Ergo wusste danach NV von vornherein dass sie Mist gebaut haben und haben sicherheitshalber alles andere auf Eis gelegt oder? Ja es ist NV's bisherige Masche dass zuerst der top dog erscheint und danach erst die Ableger ankommen, aber es spricht absolut NICHTS gegen jegliche parallele Entwicklung.

Nochmal: Mit Fermi hat nVidia weitreichende Änderungen am Design vorgenommen, die für sie neu waren. Wie man sah, konnten selbst die Simulationen auf Basis der vorhandenen Daten nicht die Wirklichkeit annährend wiedergeben. Es ist logisch, dass bei solch einem Vorgehen man eher konservativ an die Sache geht als an einem "Refresh", wo man weiß, wie er sich zu 95% verhalten wird nach dem Tape-Out.
Außerdem zeigt die Vergangenheit, dass nVidia bei Refreshes immer sehr schnell mit den kleineren GPUs auf dem Markt war. G71/G74 kamen zeitgleich, zwischen G94 und G92 lagen 3 Monate, GT215/GT216/GT218 wurden zeitnah zum Tape-Out gebracht und in den Markt. GF106 und GF108 wurden gleichzeitig für den mobilen Bereich zur Verfügung gestellt.


Und wenn es schon sein muss GF100's groesstes Problem war die zu hohe CHIPKOMPLEXITAET welche offensichtlich nicht besonders viel mit einem mainstream chip zu tun hat. Ergo da es nach Dir....errr sorry NVIDIA so sein "muss", jedesmal wenn ein Prozess abfurzt, ein paar engineers mal wieder geschlampt haben oder Jensen in die falche Richtung gefurzt hat dann wird jeglicher Kepler, Maxwell, Borgo Sphinxter unter genau dem gleichen Problem leiden wie Fermi. Es kann so nicht weitergehen und ebenso wie sie mit NV30 etwas dazugelernt haben, sollten sie jetzt auch mit Fermi einen Schritt weiter sein. Und nein die Loesung ist eben NICHT den kleinstmoeglichen Herstellungsprozess in Zukunft zu vermeiden. Guten Appetit beim Versuch Kepler auf 40G zu quetschen.

GF100's Problem war nicht die Komplexitität des Design mit seinen 3 Milliarden Transistoren. Sondern die weitreichenden Änderungen an jenem. Denn wie man sieht, kann nVidia GF110 mit der selben Anzahl problemlos produzieren und hat dabei noch eine mindesten 17% bessere Perf/Watt erreicht.


Ich meinte mit parallele Entwicklung wie bei Juniper und Cypress. Das hat UEBERHAUPT NICHTS mit Barts zu tun. Capiche?

Wo ist der Unterschied zu Barts und Cayman* Wieso gibt es diesmal zwischen Barts und Cayman einen so deutlichen Unterschied? Wieso wird Barts nach der heutigen Faktenlage mehr Evergreen als Cayman ähneln? Vor ein paar Monaten hat Dave Baumann (http://forum.beyond3d.com/showpost.php?p=1411054&postcount=4391) im Beyond3d.com Forum noch gefaselt, dass es besser wäre, wenn annährend die komplette Familie über die selbe Geometrieleistung verfüge. Und nun spekulieren wir, dass Cayman bzgl. Geometrieleistung knapp doppelt so schnell sein könnte.
AMD wusste, dass die Änderungen an Cayman so weitreichend sind, dass Probleme nicht in denmaßen ausgeschlossen werden konnten wie bei Evergreen in Form von Juniper und Cypress. Deswegen ist Barts auch eine Evergreen-GPU, weil man hier mehr Daten zur Verfügung hatte und wusste, dass man das Zeitfenster einhalten werde.

*Verbessert, weil AMD Promotionsteam wieder mal absichtlich das Haar in der Suppe suchte.

Gipsel
2010-11-16, 20:19:48
GF100's Problem war nicht die Komplexitität des Design mit seinen 3 Milliarden Transistoren. Sondern die weitreichenden Änderungen an jenem.Offiziell war das Problem eher, daß man sich bei der Verdrahtung der SMs (also dem Verteilen der Daten über den Chip) komplett verplant hatte. Und zwar so stark, daß man das nicht mit Metallayer-Spins hinbiegen konnte. Die Transistoren an sich bzw. die Komplexität dort waren laut Huang kein Problem. Man hat es "lediglich" versäumt, mal ordentlich über das "Fabric", also die ganzen Datenverbindungen bzw. deren elektrische Auslegung nachzudenken.

Gipsel
2010-11-16, 20:24:01
Ich meinte mit parallele Entwicklung wie bei Juniper und Cypress. Das hat UEBERHAUPT NICHTS mit Barts zu tun. Capiche?
Wo ist der Unterschied zu Barts und Cayman? Wieso wird Barts nach der heutigen Faktenlage mehr Evergreen als Cayman ähneln?Da hast Du Deinen Unterschied und den Grund, warum das ÜBERHAUPT NICHTS in dieser Argumentation zu suchen hat ;D

LovesuckZ
2010-11-16, 20:32:00
Da hast Du Deinen Unterschied und den Grund, warum das ÜBERHAUPT NICHTS in dieser Argumentation zu suchen hat ;D

Und da gipselt es schon wieder.
Es ging klar und eindeutig, um das parallele zum Tape-Out bringen von mindesten zwei verschiedenen Chips, wenn man eine neue Architektur in den Markt bringen will. Es ging nicht um das parallele Entwickeln im allgemeinen. Denn das tat nVidia mit GT200 und g92b auch. :rolleyes:

horn 12
2010-11-16, 21:51:25
Es ist verdammt ruhig um Cayman geworden, kommt einfach Keine Reaktion von den Roten,- und Infos bleiben sowie aus!!
Wird wohl nix schlimmes heissen ?

y33H@
2010-11-16, 21:54:52
Man, wart's doch einfach ab :rolleyes: Wenn was leakt, wird's hier schon auftauchen.

Gipsel
2010-11-16, 21:56:22
Es ist verdammt ruhig um Cayman geworden, kommt einfach Keine Reaktion von den Roten,- und Infos bleiben sowie aus!!
Wird wohl nix schlimmes heissen ?
Beim Barts-Launch gab es 2 Tage vorher keine 100% sicheren Informationen. Was erwartest Du? Ein Überkochen der Gerüchteküche hilft ja auch keinem, wenn man darin dann die echten Informationen nicht wiederfindet. Könnte aber fast wetten, daß irgendwer dann schon mit Fakes anrückt :rolleyes:

Dural
2010-11-16, 22:08:24
Die neuesten „Erkenntnisse“ besagen, dass AMD auf die (unerwartet) hohe Leistung der neuen GTX 580 reagieren wolle und somit noch hier und da an der Taktschraube drehen müsse, ehe man ein finales BIOS für die Partner bereit habe.


http://www.computerbase.de/news/hardware/grafikkarten/2010/november/gtx-570-vs.-radeon-hd-6900-showdown-im-dezember/

derguru
2010-11-16, 22:11:28
http://www.computerbase.de/news/hardware/grafikkarten/2010/november/gtx-570-vs.-radeon-hd-6900-showdown-im-dezember/

die aussage ist sowas von lächerlich,lol unerwarte hohe leistung der gtx 580,man hat also nicht mit 15-20% gerechnet gehabt.:freak: X-D

Gipsel
2010-11-16, 22:17:50
@ Gipsel

Soll ich mich angesprochen fühlen? ;( Ich kennzeichne meine als solche ...Natürlich nicht. Weiß gar nicht, wie Du darauf kommst :rolleyes:

Aber es gab ja schon vor Monaten irgendwelche ominösen Benchmarks von Cayman (wahlweise als 6800er oder 6900er). Meinst Du nicht, daß das nochmal aufleben wird, bevor dann die echten Werte kommen?

Dural
2010-11-16, 22:18:18
die aussage ist sowas von lächerlich,lol unerwarte hohe leistung der gtx 580,man hat also nicht mit 15-20% gerechnet gehabt.:freak: X-D

naja du selber hast zb. nur mit 10% gerechnet ;D


man wird es ja sehen...

y33H@
2010-11-16, 22:21:10
Meinst Du nicht, daß das nochmal aufleben wird, bevor dann die echten Werte kommen? Vermutlich schon, Balken/Werte faken ist ja das simpelste, was es gibt.

Duplex
2010-11-16, 22:23:33
ich glaube nicht das AMD nur die Taktraten wegen der GTX580 anpassen wird, wenn die 6970 schneller sein soll muss AMD bei den Ausführungseinheiten auch die hand anlegen.

y33H@
2010-11-16, 22:24:32
1920 ALUs bei 900 MHz sollten imo knapp reichen. Außer mit extremer Tessellation, aber das gibt's ingame derzeit eh nicht.

derguru
2010-11-16, 22:27:55
naja du selber hast zb. nur mit 10% gerechnet ;D


man wird es ja sehen...
na sicher doch,wodurch kommen eigentlich deine haluzinationen,durch zuwenig sauerstoff oder wie machste das?:biggrin:

][immy
2010-11-16, 22:31:44
GF100's Problem war nicht die Komplexitität des Design mit seinen 3 Milliarden Transistoren. Sondern die weitreichenden Änderungen an jenem. Denn wie man sieht, kann nVidia GF110 mit der selben Anzahl problemlos produzieren und hat dabei noch eine mindesten 17% bessere Perf/Watt erreicht.


ähm, ich will ja eigentlich nichts dagegen sagen, aber diese 17% Perf/Watt, ähm das bekommst du auch im laufe der zeit raus. bei dem verbrauch ist es wirklich keine kunst den verbrauch runter zu bekommen. die 17% mehr performance kommen wohl größtenteils von dem was zu GF100 noch freigeschaltet wurde. mitgelaufen sind die vorher sicherlich schon. das was sie mit GF110 gemacht haben, könnten ebensogut selektierte GF100 Chips sein, die zuvor als komplett fehlerfrei durch die tests gekommen sind und anschließend ins lager gelegt wurden um ~3/4 jahr zu sammeln und dann als GF110 zu verkaufen. denn zum zeitpunkt des erscheinens des GF100 brauchte man nicht mehr. also zumindest wirkt der GF110 so auf mich (besonders da man die GPUs offensichtlich früher launchen konnte ... wann lag ein hersteller schonmal vor plan ;) )

aber über kurz oder lang kann nvidia die transistoren nicht mehr so stark in die höhe schnellen lassen. immerhin werden kleinere fertigungsgrößen immer schwieriger zu bewerkstelligen sein und in nicht all zu ferner zukunft ist mit dem silizium schluss, da geht es nicht mehr wirklich kleiner. und die nvidia chips wuchsen in den letzten jahren um einiges schneller als die von ati/amd obwohl sie von der performance zumindest auf relativ gleicher höhe sind befinden.

ganz nebenbei gefragt, wie sieht es eigentlich mit der effizienz von 4D shadern vs 3D vs 2D aus?
5D war ja schon schwer auszulasten. Ist 4D da wirklich so viel besser?

fondness
2010-11-16, 22:31:59
ich glaube nicht das AMD nur die Taktraten wegen der GTX580 anpassen wird, wenn die 6970 schneller sein soll muss AMD bei den Ausführungseinheiten auch die hand anlegen.

Es ergibt absolut keinen Sinn das AMD wegen der GTX580 jetzt irgendwas anpasst. Ein voller GF100 mit mehr Takt war ja wohl derart berechenbar, davon konnte man schon vor sechs Monaten ausgehen.

fondness
2010-11-16, 22:33:35
[immy;8393709']ganz nebenbei gefragt, wie sieht es eigentlich mit der effizienz von 4D shadern vs 3D vs 2D aus?
5D war ja schon schwer auszulasten. Ist 4D da wirklich so viel besser?

Ähm, nein. Nur ein bisschen. Aber Auslastung ist auch kein Qualitätskriterium.

Duplex
2010-11-16, 22:35:15
ich habe ja geschrieben, ""wenn die 6970 schneller sein soll"
vielleicht wird Sie das aber nicht, Taktraten anheben könnte vielleicht nicht ausreichen.

MR2
2010-11-16, 22:45:09
Es ergibt absolut keinen Sinn das AMD wegen der GTX580 jetzt irgendwas anpasst. Ein voller GF100 mit mehr Takt war ja wohl derart berechenbar, davon konnte man schon vor sechs Monaten ausgehen.

Genau! Vielleicht macht man am Treiber was. AAModi, AF verbessern. Karten für den Marktstart häufen, aber mehr ist da nicht möglich.

Duplex
2010-11-16, 22:51:15
bessere Bildqualität ist möglich, aber die balken sind dann kleiner ;)

MR2
2010-11-16, 23:02:29
Vielleicht muß man auch erst die Folien "The worlds fastest GPU" ändern :-)

dildo4u
2010-11-17, 16:04:39
die aussage ist sowas von lächerlich,lol unerwarte hohe leistung der gtx 580,man hat also nicht mit 15-20% gerechnet gehabt.:freak: X-D
Kein Plan was da so lustig sein soll AMD fährt gerade den Takt runter um ein auf Grün IT zu machen wirste sehen 300Watt Möglich 210 werden genutzt.Die 6970 wird man auf die GTX 570 ausrichten die wird der wirkliche Killer GTX 480 Leistung bei 200 TDP.Die Karte kann NV noch dazu aggressiv gegen die ATI Preisen da nur 1.2Gb statt 2GBVram.

Exxtreme
2010-11-17, 16:18:42
So Leute, da mein Posting von Vorgestern anscheinend schon wieder vergessen wurde ist dies die letzte Ermahnung! Wenn hier noch einer spammt oder gegen andere stichelt, der bekommt eine längere Sperre und die dazugehörigen Punkte verpasst, die niemals ablaufen!

Schlammsau
2010-11-17, 16:29:10
Kein Plan was da so lustig sein soll AMD fährt gerade den Takt runter um ein auf Grün IT zu machen wirste sehen 300Watt Möglich 210 werden genutzt.Die 6970 wird man auf die GTX 570 ausrichten die wird der wirkliche Killer GTX 480 Leistung bei 200 TDP.Die Karte kann NV noch dazu aggressiv gegen die ATI Preisen da nur 1.2Gb statt 2GBVram.
Ich weiss nicht wie du immer auf diesen Schlonz kommst, aber eine 6870 ist ungefähr auf 470er Niveau. Ich nehme an, dass die GTX570 ungefähr auf auf dem GTX480 Niveau landen wird. Was eigentlich nur ~20% über der 470 ist.

Also wie kommst du darauf, dass Cayman XT nur 20-30% schneller als Barts XT sein wird? Das ist doch total hirnrissig...... :rolleyes:

Meine Prognose lautet immernoch, 6950 vs GTX570 und 6970 vs. GTX580!
Wer dieser beiden Konkurrenten aber das Rennen machen wird, steht in den Sternen. Sie werden aber mMn sehr nah beieinander liegen.

LovesuckZ
2010-11-17, 16:35:20
Eine 6870 ist bei Computerbase.de 5% langsamer, in den DX11 Spielen ganze 15,3% und das ohne Lost Planet 2 und HAWX2. Eine 6950 müsste also in diesem Fall ca. 41% schneller sein als die 6870 mit HQ, um in den DX11 Spielen auf dem selben Niveau wie die GTX480/GTX570 zu landen.

Schlammsau
2010-11-17, 16:40:13
Hör mit der Rosinenpickerei auf und nimm Durchnittswerte!

Sonst komm ich mit CoP und BF BC2!
Beides DX11 Games und in beiden Games ist eine 6870 schneller als die 470! :P

LovesuckZ
2010-11-17, 16:51:54
Ich habe die Durchschnittswerte aller DX11 Spiele bei Computerbase.de zusammengerechnet. Den Markt decken sie wesentlich besser ab als den DX9 und DX10 Markt mit den 6 Spielen.
AMD muss also mit Cayman gegenüber Barts genau hier deutlich an Leistung zulegen.

uweskw
2010-11-17, 18:24:50
Kein wirklich gutes Zeichen dass AMD so garnichts raus lässt.
So überlassen die doch die ganze Show Nvidia. Glaube nicht dass die das so machen würden wenn die was gescheites im Köcher hätten.
Sieht nicht gut aus...

Gipsel
2010-11-17, 18:42:57
Dann kommen wir doch mal wieder auf das Kernthema des Threads zurück.

Momentan ist ja wohl die allgemeine Meinung, daß Cayman so grob im Frequenzbereich von Cypress/Barts ankommen wird. Falls es doch ein deutlich größeres Die geben sollte eventuell auch etwas darunter, um den Stromverbrauch in Grenzen zu halten.

Allerdings ist zu vermuten, daß die Shadereinheiten für die meisten Operationen noch Luft zu höheren Takten haben. Dies kann man z.B. daran erkennen, daß schon Cypress zumindest für einige Operationen prinzipiell die Möglichkeit mitbringt, abhängige Operationen in eine Instruktion zu packen (Kombination von jeweils 2 Multiplikationen, Additionen oder auch MADs und SADs). Dies zeigt, daß diese Operationen eigentlich schon nach der Hälfte der verfügbaren Zeit fertig sind. Mit der Auflösung des t-Slots und damit einer Vereinfachung der VLIW-Einheiten (insbesondere auch des Operand-Fetchings aus dem Register-File), steht zu vermuten, daß dieser Spielraum noch etwas weiter anwächst.

Die Frage, die sich mir stellt, ist, ob man diesen Umstand irgendwie ausnutzen könnte. Die wahrscheinlich simpelste Möglichkeit wäre natürlich, langsamere und damit stromsparende Transistoren zu verbauen und damit die Energieffizienz der Shader bei gleichbleibendem Takt etwas zu steigern (laaangweilig ;)). Der größere Schritt wäre allerdings, die anderen Teile des Chips für höhere Frequenzen zu "tunen". Dies wäre tendenziell schlecht für die Performance/W, zumindest wenn nicht nur ein kleiner Teil der GPU momentan die erreichbaren Frequenzen limitiert (dann muß man nur den Teil überarbeiten und kann gegebenenfalls sogar mehr Perf/W erreichen, halte ich aber für zweifelhaft; oder es gibt sowieso ein gründlich generalüberholtes Design), allerdings gut für die Performance/mm².

Leider gibt es nicht wirklich viel zu dem Thema, wie leicht man z.B. TMUs und ROPs auf höhere Frequenzen trimmen kann und wie viel Transistoren/Fläche Stromverbrauch das im Einzelnen kosten würde.

Gibt es Meinungen dazu, in welche Richtung sich Cayman da tendenziell bewegen wird? Eher <850MHz oder 900+ MHz?

Ailuros
2010-11-17, 18:47:09
Risikomanagement.

Risiko-management sollte Dir sagen dass es unakzeptabel ist dass man die Konkurrenz etliche Monate mit DX11 GPUs den Markt ueberschwemmen laesst.

Nochmal: Mit Fermi hat nVidia weitreichende Änderungen am Design vorgenommen, die für sie neu waren. Wie man sah, konnten selbst die Simulationen auf Basis der vorhandenen Daten nicht die Wirklichkeit annährend wiedergeben. Es ist logisch, dass bei solch einem Vorgehen man eher konservativ an die Sache geht als an einem "Refresh", wo man weiß, wie er sich zu 95% verhalten wird nach dem Tape-Out.

Auch G80 hatte weitreichende Aenderungen im Vergleich zum Vorgaenger, aber ich sah damit keine solchen Probleme. Ergo muss wohl doch etwas anderes schief gelaufen sein.

GF100's Problem war nicht die Komplexitität des Design mit seinen 3 Milliarden Transistoren. Sondern die weitreichenden Änderungen an jenem. Denn wie man sieht, kann nVidia GF110 mit der selben Anzahl problemlos produzieren und hat dabei noch eine mindesten 17% bessere Perf/Watt erreicht.

Ich bin ein kleines Stueck weiter als ein PR Papagei der jeglichen Scheiss blindlings schluckt und diesen gedankenlos endlos wiederspielt.

Und nochmal Gipsel's Beitrag der auch der Realitaet entspricht:

Offiziell war das Problem eher, daß man sich bei der Verdrahtung der SMs (also dem Verteilen der Daten über den Chip) komplett verplant hatte. Und zwar so stark, daß man das nicht mit Metallayer-Spins hinbiegen konnte. Die Transistoren an sich bzw. die Komplexität dort waren laut Huang kein Problem. Man hat es "lediglich" versäumt, mal ordentlich über das "Fabric", also die ganzen Datenverbindungen bzw. deren elektrische Auslegung nachzudenken.


Es ging klar und eindeutig, um das parallele zum Tape-Out bringen von mindesten zwei verschiedenen Chips, wenn man eine neue Architektur in den Markt bringen will. Es ging nicht um das parallele Entwickeln im allgemeinen. Denn das tat nVidia mit GT200 und g92b auch.

Ich sagte nie dass ich jegliches Risiko dass mit paralleler Entwicklung kommt nicht verstehen kann. Aber schlimmer als es am Ende war kann es trotz allem nicht werden. Wuerde ich einfach sagen dass NV Mist gebaut hat, dann liegt es im Bereich von steriler Kritik. Da ich aber eher mir den Kopf zerbreche wie sie zukuenftige Probleme vermeiden koennte koennte eventuell heissen dass ich mich ueber NVIDIA mehr sorge am Ende als alle andere. Und genau unter dieser Logik lag auch meine jegliche Kritik an ATI in der Vergangenheit.

Uebrigens am Rand ist es eine reine Frechheit zu behaupten dass das B3D Forum von AMD gesponsort ist. Dass Rys seit einige Jahren am B3D Lenkrad hockt ist wohl einigen von Euch entgangen. Und da ich ein paar mehr Einzelheiten zu solchem Kindergarten-Material wissen kann, flogst Du fast zeitgleich mit Charlie zur Tuer raus. Den Grund kann sich jeder vorstellen. Ich kann aber so viel sagen dass Leute wie Du oder Charlie nichts in einem Forum wie B3D verloren habt.

Dann kommen wir doch mal wieder auf das Kernthema des Threads zurück.

Momentan ist ja wohl die allgemeine Meinung, daß Cayman so grob im Frequenzbereich von Cypress/Barts ankommen wird. Falls es doch ein deutlich größeres Die geben sollte eventuell auch etwas darunter, um den Stromverbrauch in Grenzen zu halten.

Allerdings ist zu vermuten, daß die Shadereinheiten für die meisten Operationen noch Luft zu höheren Takten haben. Dies kann man z.B. daran erkennen, daß schon Cypress zumindest für einige Operationen prinzipiell die Möglichkeit mitbringt, abhängige Operationen in eine Instruktion zu packen (Kombination von jeweils 2 Multiplikationen, Additionen oder auch MADs und SADs). Dies zeigt, daß diese Operationen eigentlich schon nach der Hälfte der verfügbaren Zeit fertig sind. Mit der Auflösung des t-Slots und damit im einer Vereinfachung der VLIW-Einheiten (insbesondere auch des Operand-Fetchings aus dem Register-File), steht zu vermuten, daß dieser Spielraum noch etwas weiter anwächst.

Die Frage, die sich mir stellt, ist, ob man diesen Umstand irgendwie ausnutzen könnte. Die wahrscheinlich simpelste Möglichkeit wäre natürlich, langsamere und damit stromsparende Transistoren zu verbauen und damit die Energieffizienz der Shader bei gleichbleibendem Takt etwas zu steigern (laaangweilig ;)). Der größere Schritt wäre allerdings, die anderen Teile des Chips für höhere Frequenzen zu "tunen". Dies wäre tendenziell schlecht für die Performance/W, zumindest wenn nicht nur ein kleiner Teil der GPU momentan die erreichbaren Frequenzen limitiert (dann muß man nur den Teil überarbeiten und kann gegebenenfalls sogar mehr Perf/W erreichen, halte ich aber für zweifelhaft; oder es gibt sowieso ein gründlich generalüberholtes Design), allerdings gut für die Performance/mm².

Leider gibt es nicht wirklich viel zu dem Thema, wie leicht man z.B. TMUs und ROPs auf höhere Frequenzen trimmen kann und wie viel Transistoren/Fläche Stromverbrauch das im Einzelnen kosten würde.

Gibt es Meinungen dazu, in welche Richtung sich Cayman da tendenziell bewegen wird? Eher <850MHz oder 900+ MHz?


Ohne dass ich 100% sicher sein kann (bin ich ja auch nie) war clock target bei ~875MHz. Da GTX580 einen clock target von ~800MHz und IHVs generell immer ein klein bisschen zu optimistisch sind mit Frequenzen wuerde mich eine 850MHz Frequenz fuer Cayman kein bisschen ueberraschen

Gipsel
2010-11-17, 18:53:41
Ohne dass ich 100% sicher sein kann (bin ich ja auch nie) war clock target bei ~875MHz. Da GTX580 einen clock target von ~800MHz und IHVs generell immer ein klein bisschen zu optimistisch sind mit Frequenzen wuerde mich eine 850MHz Frequenz fuer Cayman kein bisschen ueberraschen
Hmm, das wäre also eher die langweilige Lösung. Aber die liegt ja auch wie gesagt am nächsten.
Ohne das man da tieferen Einblick hat, steht auch nur zu vermuten, daß es momentan die sinnvollste Lösung darstellt.

Ailuros
2010-11-17, 19:03:20
Hmm, das wäre also eher die langweilige Lösung. Aber die liegt ja auch wie gesagt am nächsten.
Ohne das man da tieferen Einblick hat, steht auch nur zu vermuten, daß es momentan die sinnvollste Lösung darstellt.

Ich hab schonmal erwaehnt dass nach einem AMD Angestellten man sich weniger Frequenz-Aenderungen fuer die Zukunft erhoffen sollte und viel mehr Aenderungen die die "Breite" betrifft.

Ich hab aber zugegeben seither (ist schon einige Zeit her) nicht mehr mit ihm geplaudert.

***edit: Du weisst besser als ich dass finale Frequenzen immer eine Wette quasi der letzten Minute sind. Es gibt auessert selten grosse Abstaende am Ende von der Ziel-frequenz zur finalen, aber eine +/-50MHz Schwankung ist schon moeglich. Wenn es fuer Cayman nun doch 900MHz sein sollten, dann ist es wohl eher ein "best case scenario" fuer den TDP den sie als Ziel haben.

Ailuros
2010-11-17, 19:22:39
Wenn Ihr diese Mod-Warnung weiterhin verachten wollt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8395000&postcount=1370 hab ich auch kein Problem dem einem nach dem anderen 5 Punkte zu verpassen.

R.I.P.
2010-11-17, 21:24:45
BTT:
http://www.tweakpc.de/news/19956/radeon-hd-6900-werden-30-bis-50-prozent-schneller/

http://www.gamestar.de/hardware/news/grafikkarten/2319373/amd_radeon_hd_6900.html

6970 30-50% schneller als die 6800er Serie (anscheinend laut Powercolor)

derguru
2010-11-17, 21:26:42
wie alle die infos von der powercolor frau aufsaugen.;D

Ailuros
2010-11-17, 21:35:03
wie alle die infos von der powercolor frau aufsaugen.;D

Das ganze klingt auch durchaus realistisch.

HarryHirsch
2010-11-17, 21:37:18
Wann erscheinen die Karten denn nun? Ist der 22. immer noch fix?

fondness
2010-11-17, 21:42:23
Wann erscheinen die Karten denn nun? Ist der 22. immer noch fix?

Nope, KW50 laut AMD.

derguru
2010-11-17, 21:44:53
Das ganze klingt auch durchaus realistisch.
ist doch genau das ergebnis was hier die ganze zeit spekuliert wurde.die xt ca.25-45% schneller als eine 5870,passt doch.
Wann erscheinen die Karten denn nun? Ist der 22. immer noch fix?
man geht jetzt vom 13.dezember aus,hui das ist doch kein freitag oder:confused::tongue:

Ailuros
2010-11-17, 21:51:11
ist doch genau das ergebnis was hier die ganze zeit spekuliert wurde.die xt ca.25-45% schneller als eine 5870,passt doch.

Musst Du mir nicht sagen, aber der Horde die mich ueber einige Seiten ueberfallen hat als ich warnte dass sie zu viel von den Dingern erwarten.

man geht jetzt vom 13.dezember aus,hui das ist doch kein freitag oder:confused::tongue:

...tell me why I don't like Mondays....

K4mPFwUr$t
2010-11-17, 21:52:53
die 6950/6970 sollte schon ein stück schneller sein, wäre ja noch peinlicher als die 6800 die langsamer ist als die alte generation.

ich bin mal gespannt wie die 6970 sich gegenüber der neuen nV schlägt.
und schauen wer das rennen gewinnt und in meinem rechner reinwandert :ugly:

derguru
2010-11-17, 21:55:49
...tell me why I don't like Mondays....
jaja:tongue:
die 6950/6970 sollte schon ein stück schneller sein, wäre ja noch peinlicher als die 6800 die langsamer ist als die alte generation.

ich bin mal gespannt wie die 6970 sich gegenüber der neuen nV schlägt.
und schauen wer das rennen gewinnt und in meinem rechner reinwandert :ugly:
wenn das mit diesen 30-50% stimmt dann sollte sich die 6970 genau zwischen 480 und 580 aufhalten,ich hoffe nur mit besserer af qualtität und nicht dem gemurkse wie bei den barts.

Exxtreme
2010-11-17, 22:06:05
wenn das mit diesen 30-50% stimmt dann sollte sich die 6970 genau zwischen 480 und 580 aufhalten,ich hoffe nur mit besserer af qualtität und nicht dem gemurkse wie bei den barts.
Ich gehe stark davon aus, dass es beim Gemurkse bleibt. Wobei Irrtum nicht ausgeschlossen ist.

davidzo
2010-11-17, 22:22:07
jaja:tongue:

wenn das mit diesen 30-50% stimmt dann sollte sich die 6970 genau zwischen 480 und 580 aufhalten,ich hoffe nur mit besserer af qualtität und nicht dem gemurkse wie bei den barts.

ich sehe die radeon 6870 in 30%-50% der Schlagweite einer GTX580. sollte sich herausstellen dass Cayman eben diese 30-50% schneller ist wäre das durchaus ein ernstzunehmender Konkurrent für die 580.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/20/#abschnitt_performancerating_ohne_aaaf

1920*1080 4x MSAA /16x AF
Nvidia GeForce GTX 580 100,0
Nvidia GeForce GTX 480 86,5
ATi Radeon HD 5870 71,2
Nvidia GeForce GTX 470 68,0
AMD Radeon HD 6870 67,0

y33H@
2010-11-17, 22:25:40
Mit Basis HD 6870 sind's bei CB in 19x12 mit 4x/16:1 immerhin +45% für die GTX 580 - da noch mal 5-10% dazu wegen Q statt HQ bei AMD. Bei 30-50% der HD 6970 auf HD 6870 wird das eher GTX 480 Level.

aylano
2010-11-17, 22:26:27
Gibt es Meinungen dazu, in welche Richtung sich Cayman da tendenziell bewegen wird? Eher <850MHz oder 900+ MHz?
Ich glaube , es hängt davon ab, wie AMD Caymann gegen GTX580 positioniert, wenn man annimmt, dass AMD auf GTX580 reagieren kann.

Entweder auf Energie-Effizienz (800-825-)850 Mhz @ 1,15 Volt oder auf Performance-Krone 900(-925-950)Mhz @ 1,20 Volt.

(((( Denn es ist interessant, dass GTX580 & HD 6870 jeweils um 0,05 Volt gesteigert wurden (wahrscheinlich um die Yield zu steigern) )))

Und da wir nicht wissen, wo AMD sich Positioniert, "muss" man beide Varianten abschätzen bzw. über beide Varianten diskutieren.


Radeon HD 6900 mehr als 30 oder 50 Prozent besser sein wird als die der Radeon HD 6800-Serie zum jetzigen Zeitpunkt.
Zum jetzigen Zeitpunkt?!!
Das hört sich doch nach performanteren Treiber für die HD6800er-Serie bzw. HD 6xx0-Serie an.

In Benchmark-Tests sollen die neuen Modelle zwischen 30 und 50 Prozent schneller sein.
Interessant, wie unterschiedlich die beiden über die selbe Info schreiben.

Außer, Gamestar bezieht sich auf den Geschwindigkeitszuwachs nach dem neuen schnelleren Treiber. Denn dann sind die Aussagen wieder identisch, wenn der neue Treiber zu "mehr als" führt.

30 oder 50 Prozent besser sein
"30 oder 50%" ist ja auch interessant.
Damit 50% können die Games gemeint sein, wo Tesselation eine hohe Priorität bzw. Limitiert hat und 30% wo eine geringe/keine Tesselation-Last gefordert wird.

Oder die 30 könnten für HD 6950 und die 50 für HD 6970.

Also, irgendwie gibt es noch zu viele Möglichkeiten, sodass diese Aussage wieder keine nützliche Info ist, vorallem weil sie eh im erwarteten/spekulierten Bereich liegt.

Eggcake
2010-11-17, 23:10:09
Schaut euch das Interview einfach an. Sie sagt, wenn ich mich recht erinnere "More than 30% to 50%" (was zwar nicht wahnsinnig Sinn macht, aber egal).

Aber ja - nützlich ist die Aussage nicht wirklich. Von dem gehen wir ja aus - schon lange. Nur sind's nun 30% oder 50%? ;)

Hugo78
2010-11-17, 23:32:06
Im Worst Case, beziehen sich die 30% auf die allgemeine Performance und die 50% auf die Tess-Perf.

V2.0
2010-11-18, 07:10:31
Bei typischen High-End-Settings (8XMSAA/16xAF, Treiber default) sollte die 6970 damit vor der 580 liegen. Sehr gut.

Fetza
2010-11-18, 07:16:22
Bei typischen High-End-Settings (8XMSAA/16xAF, Treiber default) sollte die 6970 damit vor der 580 liegen. Sehr gut.

Ähm, nein?

boxleitnerb
2010-11-18, 07:24:14
Wer will sich schon den Treiberdefault antun? Diese fps-Geilheit für die letzten paar (ermogelten) Prozent ist ja nicht auszuhalten. Da sollte mal ein generelles Umdenken stattfinden. Hauptsache die Karten liegen in etwa beieinander, dann gibts Preiskampf, weil es eh einen Haufen Stammkäufer in beiden Lagern gibt.

Ailuros
2010-11-18, 08:17:28
Im Worst Case, beziehen sich die 30% auf die allgemeine Performance und die 50% auf die Tess-Perf.

:biggrin:

Bei typischen High-End-Settings (8XMSAA/16xAF, Treiber default) sollte die 6970 damit vor der 580 liegen. Sehr gut.

Ihr macht alle denselben Fehler. Eine GTX580 ist heute ab 1920/4xAA bis zu 2560/8xAA um =/>50% schneller als eine GTX470 welche irgendwo den Pegel von NV's zukuenftigen Performance GPUs darstellt. Aber auch den hint wird wohl keiner so schnell verstehen koennen.

Cayman wird ein ausgezeichnetes Preis-/Leistungs-Verhaeltnis haben. Mit dem realistischen Leistungs-Unterschied im Vergleich zur GTX580 ist die letzte nach wie vor zu teuer.

Dural
2010-11-18, 08:46:32
6970 wird 5% schneller ;)

Ailuros
2010-11-18, 08:53:27
6970 wird 5% schneller ;)

Ist es nicht relativ wurscht ob es 5 oder 10% sein sollten, sobald eine 6970 ein gutes Stueck billiger sein wird? Am Ende kann Dir jederman eine Benchmark-Selektion so hindrehen dass man Resultate genau so hinbiegen kann wie es gerade passt wenn die Unterschiede relativ klein sind.

Diejenigen die mir nichts dir nichts einen um Bums Prozente schnellere 6970 wuenschen haben wohl den Anteil Preis-/Leistungs-Relation immer noch nicht kapiert.

Dural
2010-11-18, 08:55:27
mir ist es so wie so wurst, den ich habe weder AMD noch NV Aktien... übrigens auch keine Intel ;)



Die Preise dürften aber gehörig unter druck kommen, was wir so in dem Preis Bereich schon jahre nicht mehr hatten!!!

Quaker
2010-11-18, 09:34:14
Wer will sich schon den Treiberdefault antun? Diese fps-Geilheit für die letzten paar (ermogelten) Prozent ist ja nicht auszuhalten. Da sollte mal ein generelles Umdenken stattfinden. Hauptsache die Karten liegen in etwa beieinander, dann gibts Preiskampf, weil es eh einen Haufen Stammkäufer in beiden Lagern gibt.
Naja, eigentlich sollte möglichst Praxis nah getestet werden, wie es sicher um die 90% der User machen.
Karte rein - Treiber drauf und los. :)

Mancko
2010-11-18, 09:58:24
Ist es nicht relativ wurscht ob es 5 oder 10% sein sollten, sobald eine 6970 ein gutes Stueck billiger sein wird? Am Ende kann Dir jederman eine Benchmark-Selektion so hindrehen dass man Resultate genau so hinbiegen kann wie es gerade passt wenn die Unterschiede relativ klein sind.

Diejenigen die mir nichts dir nichts einen um Bums Prozente schnellere 6970 wuenschen haben wohl den Anteil Preis-/Leistungs-Relation immer noch nicht kapiert.

Wenn Sie billiger wird. Was als MSRP draufsteht ist mir ziemlich wurscht. Am Ende muss sich im Retail zeigen ob und um wieviel sie billiger wird. Wenn ich mir da Barts ansehe muss ich sagen, dass man sich besser eine GTX460 oder 470 kauft.

mironicus
2010-11-18, 10:23:03
Wie soll denn die 6970 mit 2 GB RAM billiger werden als die GTX 580? Wird bei der 6970 nicht auch ziemlich teures und schnelles RAM verwendet?

INDEX75
2010-11-18, 10:31:39
...

Die Preise dürften aber gehörig unter druck kommen, was wir so in dem Preis Bereich schon jahre nicht mehr hatten!!!
Das kann uns doch nur recht sein. Endlich HighEnd zu Mainstream-Preisen. *träum* :rolleyes:

Gipsel
2010-11-18, 10:42:22
Wie soll denn die 6970 mit 2 GB RAM billiger werden als die GTX 580? Wird bei der 6970 nicht auch ziemlich teures und schnelles RAM verwendet?
33% mehr (und 20% schnellerer) VRAM aber mit 33% weniger Speicherchips kann am Ende durchaus auf einen sehr ähnlichen Preis hinauslaufen (langfristig sowieso). PCB und die Komponenten darauf werden etwas günstiger, das Die wohl auch. Also ich sehe kein Problem damit, daß die HD6970 die GTX580 beim Preis unterbieten kann.

V2.0
2010-11-18, 10:49:38
Und wenn sie dazu noch etwas schneller wäre, dann wäre es perfekt.

Dural
2010-11-18, 10:50:58
Die kosten in der Herstellung haben nur sehr selten einen direkten einfluss im End-User Preis. Der Preis wird in der regel vom Markt getätigt, beziehungsweisse was hat unser Produkt im Markt Wert, erst wenn das Produkt nicht mehr rentabel für sich selber wird (und das ist nicht mal nur durch die kosten/unkosten gegeben) lässt man es "fallen"

Wenn man muss, wird man die Preise der eigenen Produkte anpassen ohne rücksicht auf die kosten und es somit auf die eigene Marge nehmen.
Das dient auch als Marketing und Markt Gewinnung.

Iruwen
2010-11-18, 11:40:43
Naja, eigentlich sollte möglichst Praxis nah getestet werden, wie es sicher um die 90% der User machen.
Karte rein - Treiber drauf und los. :)
Dann würde man meist auch ohne AA/AF testen und alles läuft mit 200FPS+, wohl wenig sinnvoll.

_flx
2010-11-18, 11:55:41
Also momentan erwarte ich irgendwie ein Leistungsverhältnis wie "damals" bei RV770 zu GT200 bzw RV790/GT200b.

Das Problem ist diesmal nur das A/A erstens nicht ganz so günstig sein wird und zweitens nV diesmal schneller auf dem Markt war.
Oder bilde ich mir das nur ein? :confused:

deekey777
2010-11-18, 11:55:57
Die kosten in der Herstellung haben nur sehr selten einen direkten einfluss im End-User Preis. Der Preis wird in der regel vom Markt getätigt, beziehungsweisse was hat unser Produkt im Markt Wert, erst wenn das Produkt nicht mehr rentabel für sich selber wird (und das ist nicht mal nur durch die kosten/unkosten gegeben) lässt man es "fallen"

Wenn man muss, wird man die Preise der eigenen Produkte anpassen ohne rücksicht auf die kosten und es somit auf die eigene Marge nehmen.
Das dient auch als Marketing und Markt Gewinnung.
Also der Markt will die Grafikkarten umsonst. Leider werden Grafikkarten weiterhin nicht kostenlos angeboten.

Natürlich haben die Herstellungskosten Einfluss auf den Preis, genau wie alle anderen Kosten sowie der Gewinn, den der Hersteller erzielen möchte.

AnarchX
2010-11-18, 12:02:47
Cayman XT 初步规格:1536SP,890MHz,2GBGDDR5 5.5GHz。

6990 580
6970 570
6950 560
http://bbs.expreview.com/thread-37856-1-1.html

Da hätte die 6970 nur 14 GFLOPs mehr als die 5870. :D

Bucklew
2010-11-18, 12:16:31
Da hätte die 6970 nur 14 GFLOPs mehr als die 5870. :D
Theoretisch, praktisch sollten davon immerhin deutlich mehr auf den Boden ankommen.

boxleitnerb
2010-11-18, 12:20:11
6990 ist Dual-GPU? Wenn ja, schade, da hab ich mehr erwartet.

derguru
2010-11-18, 12:35:56
so kann amd nur über den preis was machen,ich finds ehrlich gesagt erbärmlich das eine 6970 nicht mal an der 480gtx vorbei ziehen kann(ich vermute das eine 570 noch ein zacken langsamer ist) und das "wahrscheinlich" mit dem murks af.

ich glaub noch nicht ganz daran,die geschätze 30-50% von powercolor würde auch nicht stimmen.

immer noch abwarten und tee trinken.

frag mich wieviel shader dann die pro hat?

deekey777
2010-11-18, 12:40:50
Theoretisch, praktisch sollten davon immerhin deutlich mehr auf den Boden ankommen.
Maximal 14 GFLOPS.

AnarchX
2010-11-18, 12:42:08
Solang Cayman nicht deutlich größer als 400mm² wird, wäre er mit etwas über GTX 480 Leistung doch nicht schlecht positioniert.

derguru
2010-11-18, 12:44:26
Solang Cayman nicht deutlich größer als 400mm² wird, wäre er mit etwas über GTX 480 Leistung doch nicht schlecht positioniert.
dann ist die gegenüberstellung von PHK bs. eine 580gtx ist um die 15% schneller als eine 480gtx und wenn der cayman schneller als die 480gtx sein soll dann positioniert die sich automatisch zur 580gtx,viel spielraum bleibt da ja nicht mehr übrig.

y33H@
2010-11-18, 12:45:32
Die Specs und Clocks passen aber rechnerisch zu HD 6970 ~ GTX 570/480.

deekey777
2010-11-18, 12:52:46
Die Specs und Clocks passen aber rechnerisch zu HD 6970 ~ GTX 570/480.
Also rechnerisch passen die Specs bis auf Pixelfüllrate eine Nvidia-Karte, die es nicht gibt.

Setzt man die HD6970 ins Verhältnis zur HD5870 und vergleicht sie dann mit den GTX580, dann magst du Recht haben.

y33H@
2010-11-18, 12:58:05
Das meinte ich: 320 vs. 384 (+20%) und +5% mehr Takt auf HD 5870 drauf, wäre real wohl ~ GTX 480 Level. Die GTX 570 performt ähnlich.

fondness
2010-11-18, 13:00:15
http://bbs.expreview.com/thread-37856-1-1.html

Da hätte die 6970 nur 14 GFLOPs mehr als die 5870. :D

Ich habe es schonmal gesagt als das Bild der Cayman-Karten geleaket wurde. An den Verdrahtungen hinten kann man in der Regel die Die-Größe sehr gut abschätzen und da komme ich auf deutlich <400mm². Ich würde also keine Wunder erwarten. Der Chip soll wohl weiterhin nur das Performancesegment sichern.

Wobei die Angabe eigentlich den AMD Folien mit der Leistungsangabe widerspricht. Vielleicht soll das auch nur die preisliche Einordnung sein.

Bucklew
2010-11-18, 13:02:31
Maximal 14 GFLOPS.
In spielen wird wohl deutlich mehr ankommen als diese 0,5%

derguru
2010-11-18, 13:04:03
die abstände zwischen highend und performance wird immer kleiner,wenn 570=480 sein soll so ist es ja nur noch bei 15%.der aufpreis lohnt sich kaum noch für highend ,zwischen 470 und 480 lag es immerhin bei 30%.

fondness
2010-11-18, 13:06:23
die abstände zwischen highend und performance wird immer kleiner,wenn 570=480 sein soll so ist es ja nur noch bei 15%.der aufpreis lohnt sich kaum noch für highend ,zwischen 470 und 480 lag es immerhin bei 30%.

Naja, das liegt eher daran das sich NV schon schwer tut die Performancechips von AMD zu schlagen. High-End wird ja bei AMD durch Dual-Chip definiert. Aber durch die 300W Grenze sind hier natürlich schon gewisse Schranken vorhanden.

deekey777
2010-11-18, 13:08:30
In spielen wird wohl deutlich mehr ankommen als diese 0,5%
Die Leistung in Spielen wird aber nicht in FLOPS bewertet, oder?

derguru
2010-11-18, 13:11:33
Naja, das liegt eher daran das sich NV schon schwer tut die Performancechips von AMD zu schlagen. High-End wird ja bei AMD durch Dual-Chip definiert.

ja komm nicht zurück rudern,bis jetzt hat doch fast jeder hier beim cayman mit highend gerechnet gehabt allein wegen dem angeblichen verbrauch.

fondness
2010-11-18, 13:15:32
ja komm nicht zurück rudern,bis jetzt hat doch fast jeder hier beim cayman mit highend gerechnet gehabt allein wegen dem angeblichen verbrauch.

Wo rudere ich denn zurück? Definiere High-End wie du willst. Auch der Verbrauch ist alles andere als fix. Ich sagte nur das ich an kein >400mm² Die glaube.

y33H@
2010-11-18, 13:19:53
Zwei zusammen gepappte Performance-Chips sind kein Highend, sondern - sorry - µRuckelnder Müll. Egal ob AMD oder NV draufsteht ... Notlösung halt.

derguru
2010-11-18, 13:30:42
Wo rudere ich denn zurück? Definiere High-End wie du willst. Auch der Verbrauch ist alles andere als fix.
in dem du jetzt den cayman in die performance kategorie stellst und vor paar wochen noch von 580gtx schlagbar spekuliert hast wie viele andere auch.(ich auch)
Ich sagte nur das ich an kein >400mm² Die glaube.
seit wann glaubst du das,jetzt nach den angeblichen daten?:rolleyes: :uclap:

grundsätzlich würde ich eine ~10% langsamer als eine highend nicht als performance-karte bezeichnen,dafür ist der abstand viel zu gering.(ich würds als gescheiterte highend-karte bezeichnen,passt besser):wink:

V2.0
2010-11-18, 13:36:51
Zwei zusammen gepappte Performance-Chips sind kein Highend, sondern - sorry - µRuckelnder Müll. Egal ob AMD oder NV draufsteht ... Notlösung halt.

Performancechips die schon alleine in der Lage sind den Heizlüfter der Konkurrenz überflüssig zu machen.

fondness
2010-11-18, 13:40:37
seit wann glaubst du das,jetzt nach den angeblichen daten?:rolleyes: :uclap:


Nein, lese was ich geschrieben habe. Das mit den <400mm² sage ich auch am 06.11.:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8371421&postcount=582

dildo4u
2010-11-18, 15:06:42
Wie ich schon mal geschrieben hab gegen die 400 Serie sähe die ATI sehr gut aus gegen eine 570 mit 200TDP eher nicht mehr.

Gestrandet
2010-11-18, 15:11:50
grundsätzlich würde ich eine ~10% langsamer als eine highend nicht als performance-karte bezeichnen,dafür ist der abstand viel zu gering.(ich würds als gescheiterte highend-karte bezeichnen,passt besser):wink:
hmmm ... ist dann nicht eher die high-end-karte gescheitert, die sich nicht von der performance-konkurrenz absetzen kann??? :wink:

Dural
2010-11-18, 15:27:23
ich hoffe ja mal nicht das AMD mit einem 400mm2 + DIE daher kommt für schlappe 384 4D ALUs

Wenn man es jetzt genau nimmt könnte NV min. für die 6950 sogar ein GF104 @ 384SP @ 750MHz dagegenstellen, dürfte reichen...

dildo4u
2010-11-18, 15:31:34
ich hoffe ja mal nicht das AMD mit einem 400mm2 + DIE daher kommt für schlappe 384 4D ALUs

Wenn man es jetzt genau nimmt könnte NV min. für die 6950 sogar ein GF104 @ 384SP @ 750MHz dagegenstellen, dürfte reichen...
Da passt eh noch was nicht weil das wäre 6870 Level da erwarten ich die 560(Full GF104) 6950 und 6870 werden ja nich gleich schnell sein.

LovesuckZ
2010-11-18, 15:36:58
http://bbs.expreview.com/thread-37856-1-1.html

Da hätte die 6970 nur 14 GFLOPs mehr als die 5870. :D

Hat der Typ nicht vor kurzem noch gesagt, dass Cayman XT mit 1920sp kommt?

derguru
2010-11-18, 15:37:35
Nein, lese was ich geschrieben habe. Das mit den <400mm² sage ich auch am 06.11.:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8371421&postcount=582

glück gehabt.:biggrin:
hmmm ... ist dann nicht eher die high-end-karte gescheitert, die sich nicht von der performance-konkurrenz absetzen kann??? :wink:
das kannste drehen wie du willst;)am ende liegt es am preis wo was hingehört.

R.I.P.
2010-11-18, 15:39:43
Hmmm, wie paßt jetzt alles zusammen? 6970 30-50% schneller als 5870 laut Powercolor Dame und laut phk mit seinen 1536 ALUs und Taktraten wäre die 6970 kaum schneller als eine 5870 (max 25% ???)...

Ich blick wieder einmal nicht durch :tongue:

dildo4u
2010-11-18, 15:43:55
Hmmm, wie paßt jetzt alles zusammen? 6970 30-50% schneller als 5870 laut Powercolor Dame und laut phk mit seinen 1536 ALUs und Taktraten wäre die 6970 kaum schneller als eine 5870 (max 25% ???)...

Ich blick wieder einmal nicht durch :tongue:
30% bei normalen Games 50% mit Tesslation.

derguru
2010-11-18, 15:45:14
30% bei normalen Games 50% mit Tesslation.
das passt nicht,so wäre eine 6970 immer schneller als eine gtx 580.(in spielen)

Nakai
2010-11-18, 15:46:43
das passt nicht,so wäre eine 6970 immer schneller als eine gtx 580.(in spielen)

Mhh, und? Cypress war ja verdammt ineffizient, siehe Barts.


mfg

Bucklew
2010-11-18, 15:47:42
Die Leistung in Spielen wird aber nicht in FLOPS bewertet, oder?
Die Leistung der Shader währenddessen könnte man darin durchaus messen.

derguru
2010-11-18, 15:49:21
Mhh, und? Cypress war ja verdammt ineffizient, siehe Barts.


mfg
passt nicht zu der gegenüberstellung von PHK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8396773&postcount=1413),das war gemeint:wink:
und teilweise wurde die effizients durch noch schlechteres af erkauft,sooo effizient ist der bart auch nicht.

dildo4u
2010-11-18, 15:55:38
das passt nicht,so wäre eine 6970 immer schneller als eine gtx 580.(in spielen)
Wenn man als Basis DX11 Games nimmt liegt die GTX 580 43-46% vor der 5870 ohne Heaven Stone Giant also extreme Tessbenches.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/21/#abschnitt_performancerating_nach_api

Ihr müsst mal langsam anfangen euch nich mehr selber zu bescheissen und den DX9 Rotzt rauslassen.Fast jedes DX9 Game läuft in CPU Limit's wenn man nicht grad SSAA bencht.

R.I.P.
2010-11-18, 15:56:34
Zitat aus pcgh :" Mit 1.536 VLIW4-Einheiten (384) würde sie bei gleichen Takt auf nominell nur 20 Prozent mehr ALUs nutzen als die Radeon HD 5870 mit 1.600 VLIW5-Einheiten (320), dank 890 statt 850 MHz kommen hier rechnerisch noch einmal 5 Prozent obendrauf. In der Praxis lassen sich diese 25 Prozent durch die absolut gestiegene, relativ aber gesunkene Auslastung der ALUs nicht erzielen"

DrFreaK666
2010-11-18, 15:59:24
Zitat aus pcgh :" Mit 1.536 VLIW4-Einheiten (384) würde sie bei gleichen Takt auf nominell nur 20 Prozent mehr ALUs nutzen als die Radeon HD 5870 mit 1.600 VLIW5-Einheiten (320), dank 890 statt 850 MHz kommen hier rechnerisch noch einmal 5 Prozent obendrauf. In der Praxis lassen sich diese 25 Prozent durch die absolut gestiegene, relativ aber gesunkene Auslastung der ALUs nicht erzielen"

... "Im Mittel sollte die Radeon HD 6970 daher die Leistung einer Geforce GTX 480 erreichen respektive die der kommenden Geforce GTX 570 - auch das sagt phk voraus"

R.I.P.
2010-11-18, 16:01:10
... "Im Mittel sollte die Radeon HD 6970 daher die Leistung einer Geforce GTX 480 erreichen respektive die der kommenden Geforce GTX 570 - auch das sagt phk voraus"

Das wollte ich nicht vergleichen! phks Aussage stimmt nicht mit der der Powercolor Dame überein, das wollte ich sagen.

derguru
2010-11-18, 16:03:37
Wenn man als Basis DX11 Games nimmt liegt die GTX 580 43-46% vor der 5870 ohne Heaven Stone Giant also extreme Tessbenches.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/21/#abschnitt_performancerating_nach_api

Ihr müsst mal langsam anfangen euch nich mehr selber zu bescheissen und den DX9 Rotzt rauslassen.Fast jedes DX9 Game läuft in CPU Limit's wenn man nicht grad SSAA bencht.

du solltest langsam erstmal anfangen zu denken und dann schreiben oder war das vor paar minuten von jemand anderem geschrieben?sind das nicht deine worte?30% bei normalen games sind dx9 und 10 und bei dx11 bis zu 50%,genau das hast du geschrieben.;)
`30% bei normalen Games 50% mit Tesslation.
das passt nicht,so wäre eine 6970 immer schneller als eine gtx 580.(in spielen)

Gipsel
2010-11-18, 16:03:54
ich hoffe ja mal nicht das AMD mit einem 400mm2 + DIE daher kommt für schlappe 384 4D ALUs
Es sind vielleicht 384 VLIW4-Einheiten mit insgesamt 1536 1D ALUs ;)
Und wie wenig das alleine aussagt, siehst Du ja schon daran, daß nv für 512 1D-ALUs 520-550 mm² benötigt und für 384 1D-ALUs auch schon ~350 mm² (365mm² gemessen).
Ich habe schon mehrfach gesagt, daß die am Ende in Spielen ankommende Leistungsfähigkeit mehr von dem ganzen Kram um die ALUs herum abhängt, als von den Einheiten selber. Sollte Cayman also wirklich "nur" 384 VLIW4-Einheiten aber auf über 400 mm² besitzen (aber denke mal an Barts, da hatte mit einem mal auch die Pro-Variante so viele Einheiten wie noch wenige Tage vor dem Launch für die XT geleakt wurden), so kann man wohl davon ausgehen, daß am Rest der GPU ordentlich gefeilt wurde, so daß sich die Shaderanzahlen für Performanceabschätzungen nicht 1:1 vergleichen lassen (wie auch bei AMD <=> nvidia der Fall).

Aber machen wir mal ein paar Milchmädchenrechnungen zur groben Einordnung anhand der ALUs bei Annahme eines Evergreen-ähnlichen Layouts (was natürlich nicht zutreffen muß):
Barts: 224 VLIW5, 1120 ALUs
Cayman: 384 VLIW4, 1536 ALUs

384/224 * 0,9 (geringerer Durchsatz pro Einheit) = +54% durchschnittlich verfügbare Shaderleistung

1536/1120 * 1,1 (höhere Auslastung der ALUs) = +51% durchschnittlich verfügbare Shaderleistung

24 SIMDs * 4 TMUs / (14 SIMDs * 4 TMUs) = +71% Texturierleistung

Die ROP-Leistung nehmen wir mal als identisch an, die Speicherbandbreite geht vermutlich (1375/1050 MHz) um mindestens 31% hoch (die Blendingleistung mit Formaten >32Bit pro Pixel wird bei AMD durch die Speicherbandbreite begrenzt, nicht durch die ROPs an sich).

Dann rechne mal noch doppelte Geometrieleistung dazu (was immer das konkret bedeutet).

Wo landest Du dann?
Wenn man es jetzt genau nimmt könnte NV min. für die 6950 sogar ein GF104 @ 384SP @ 750MHz dagegenstellen, dürfte reichen...Deiner Meinung nach hat also eine 6950, das Salvage-Modell des (laut Dir) 400+mm² großen Topmodells, nur grob die Leistungsfähigkeit (maximal +10%) einer 255 mm² HD6870? Interessant!

Bucklew
2010-11-18, 16:04:02
Wenn man als Basis DX11 Games nimmt liegt die GTX 580 43-46% vor der 5870 ohne Heaven Stone Giant also extreme Tessbenches.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/21/#abschnitt_performancerating_nach_api

Ihr müsst mal langsam anfangen euch nich mehr selber zu bescheissen und den DX9 Rotzt rauslassen.Fast jedes DX9 Game läuft in CPU Limit's wenn man nicht grad SSAA bencht.
Es sind auch schnell mal 50%, wenns die richtig fordernden Settings sind.

Gipsel
2010-11-18, 16:09:42
Hat der Typ nicht vor kurzem noch gesagt, dass Cayman XT mit 1920sp kommt?
Nun, das kann auch einfach ein Problem mit den Tools sein, die die Anzahl der Einheiten auslesen. AMD liefert (über die mir bekannten Schnittstellen) nämlich nur die Anzahl der SIMDs und die Wavefrontgröße zurück, woraus sich dann allgemein nur

Anzahl VLIW-Einheiten = Anzahl SIMDs * WF-Größe/4

berechnen läßt (zumindest solange sich nichts daran ändert, daß ein Quad von einer Einheit über 4 Takte verteilt abgearbeitet wird). Um auf die ALU-Anzahl zu kommen, muß man das Wissen über die Anzahl der ALUs pro VLIW-Einheit explizit reinstecken. Da wird vermutlich oft hartcodiert eine 5 stehen, womit die Tools dann allesamt 25% zu große Zahlen ausspucken könnten.

Gipsel
2010-11-18, 16:15:04
Die Leistung der Shader währenddessen könnte man darin durchaus messen.
Wie?
Über die komplette Framezeit gemittelt? Getrennt nach verschiedenen Shadertypen? Wie handhabst Du es, daß verschiedene Shadertypen gleichzeitig auf der GPU in verschiedenen SIMDs/SMs (oder sogar in den gleichen) laufen? Rechnest Du hoch, wie die Leistung wäre, wenn man z.B. einen Vertexshader nicht nur in 2 SIMDs laufen hat (wie es z.B. real vorkommt) statt auf allen gleichzeitig? Oder nimmst Du nur den Pixelshaderteil (welchen der vielen Shader?) im Peak wenn es voll läuft (das ist halbwegs wahrscheinlich, daß das zumindest mal wirklich vorkommt)?

Nakai
2010-11-18, 16:24:14
Und wie wenig das alleine aussagt, siehst Du ja schon daran, daß nv für 512 1D-ALUs 520-550 mm² benötigt und für 384 1D-ALUs auch schon ~350 mm² (365mm² gemessen).
Ich habe schon mehrfach gesagt, daß die am Ende in Spielen ankommende Leistungsfähigkeit mehr von dem ganzen Kram um die ALUs herum abhängt, als von den Einheiten selber. Sollte Cayman also wirklich "nur" 384 VLIW4-Einheiten aber auf über 400 mm² besitzen (aber denke mal an Barts, da hatte mit einem mal auch die Pro-Variante so viele Einheiten wie noch wenige Tage vor dem Launch für die XT geleakt wurden), so kann man wohl davon ausgehen, daß am Rest der GPU ordentlich gefeilt wurde, so daß sich die Shaderanzahlen für Performanceabschätzungen nicht 1:1 vergleichen lassen (wie auch bei AMD <=> nvidia der Fall).


Jup.
Das vergessen die meisten hier wohl.
Schon Cypress war gegenüber Juniper verdammt ineffizient.
Barts XT hat in etwa nur 70% der theoretischen Rechenleistung von Cypress XT, kommt aber auf etwa 95% der realen Rechenleistung. Barts ist somit um etwa 30% effizienter als Cypress(wenn man nun stumpf rumrechnet).

(Bzgl der Effizienz muss man Frontend und auch das Backend betrachten. Eigentlich sollte Cypress effizienter mit der Rechenleistung umgehn, wenn man den Vergleich mit dem RV790/770 macht, aber da haben wohl viele andere Sachen limitiert. Barts ist da deutlich ausgewogener. Mehr Bandbreite, mehr ROPs, bessere Raster und Tessleistung. Das spielt alles irgendwie mit.)

Wenn Cayman hier und da ähnliche Verbesserungen bringt, wie zu Barts, dann sollte ohne weiteres etwas mehr Performance drin sein. Die zusätzlichen Einheiten machen dann den Rest. Die Frage ist hald um wieviel der Rest des Chips verändert wurde.


mfg

Bucklew
2010-11-18, 16:29:37
Wie?
Über die komplette Framezeit gemittelt? Getrennt nach verschiedenen Shadertypen? Wie handhabst Du es, daß verschiedene Shadertypen gleichzeitig auf der GPU in verschiedenen SIMDs/SMs (oder sogar in den gleichen) laufen? Rechnest Du hoch, wie die Leistung wäre, wenn man z.B. einen Vertexshader nicht nur in 2 SIMDs laufen hat (wie es z.B. real vorkommt) statt auf allen gleichzeitig? Oder nimmst Du nur den Pixelshaderteil (welchen der vielen Shader?) im Peak wenn es voll läuft (das ist halbwegs wahrscheinlich, daß das zumindest mal wirklich vorkommt)?
Na klar, wenn ich mir die Performance einer Grafikkarte in Spielen anschaue, dann rechne ich natürlich hoch was sie theoretisch maximal machen könnte und messe nicht wieviele Frames sie schafft ;D

Abgesehen davon, dass es praktisch fast unmöglich ist die genaue Auslastung der verschiedenen Chipteile 100%ig zu bestimmen, würde die Rechenleistung der Shader auch bei Spielen natürlich in Flops angegeben werden (wodrin sonst?).

Ändert nunmal nichts an meiner Grundaussage, dass bei (aktuell) spekulierten nur 0,5% mehr theoretischer Shaderleistung im Cayman, wir eine in Spielen deutlich höhere Shaderleistung sehen werden.

Gipsel
2010-11-18, 16:40:53
Du hast es offensichtlich nicht verstanden.

Also nochmal etwas einfacher. Wie willst Du die in Spielen erbrachte Shaderleistung quantifizieren, wenn die Shader z.B. nur 30% der zum Rendern des Frames benötigten Zeit limitieren und in der restlichen Zeit die Shader zum Teil gar nicht auf dem vollen Chip laufen? Ist das in der Form überhaupt sinnvoll?

Bucklew
2010-11-18, 16:44:34
Du hast es offensichtlich nicht verstanden.

Also nochmal etwas einfacher. Wie willst Du die in Spielen erbrachte Shaderleistung quantifizieren, wenn die Shader z.B. nur 30% der zum Rendern des Frames benötigten Zeit limitieren und in der restlichen Zeit die Shader zum Teil gar nicht auf dem vollen Chip laufen? Ist das in der Form überhaupt sinnvoll?
Warum sollte man das nicht in Flops messen? Ein Grafikchip zeichnet sich doch auch dadurch aus, dass er möglich keine brach liegenden Einheiten hat. Ein Chip, der es nur schafft 30% seiner Einheiten zu nutzen und der Rest liegt brach ist kein guter Chip.

deekey777
2010-11-18, 16:46:44
Die Leistung der Shader währenddessen könnte man darin durchaus messen.
Blabla...
Was du sagen wolltest, war, dass man bei der HD6970 von ihrer reinen Shaderleistung relativ mehr sehen wird als bei der HD5870, wenn man davon ausgehen kann, dass Flaschenhälse entfernt wurden, die die Shaderübermacht eines Cypress bisher nicht voll zur Geltung kommen ließen.

Nur musstest du unbedingt was von GFLOPs schreiben, was den Blick in Richtung GPGPU zieht. Und dort kommt Cypress schon seinem Maximum nah.

Bucklew
2010-11-18, 16:48:57
Nur musstest du unbedingt was von GFLOPs schreiben, was den Blick in Richtung GPGPU zieht. Und dort kommt Cypress schon seinem Maximum nah.
Warum nicht? Kann ich doch nichts dafür, dass du nicht abstrahieren kannst :rolleyes:

Gipsel
2010-11-18, 16:55:04
Warum sollte man das nicht in Flops messen?Weil man die Spieleleistung in fps mißt und nicht in flops, wie deekey schon sagte.
Ein Grafikchip zeichnet sich doch auch dadurch aus, dass er möglich keine brach liegenden Einheiten hat. Ein Chip, der es nur schafft 30% seiner Einheiten zu nutzen und der Rest liegt brach ist kein guter Chip.Dann sind alle Grafikchips schlechte Chips.
Für die Spieleleistung ist die arithmetische Leistung und ihre Nutzbarkeit nur eine von vielen Komponenten. Die müssen natürlich immer alle gegeneinander abgewogen werden.
Wenn man die arithmetische Leistung auf das Doppelte steigern kann, dabei 20% Mehraufwand im Silizium benötigt und dies zu 30% Mehrperformance in Spielen führt, ist das in meinem Buch eine gute Wahl und eine Verbesserung der Leistung/Fläche, auch wenn die verfügbare arithmetische Leistung nur noch 65% so "gut" also deutlich "schlechter" ausgenutzt wird wie beim Ursprungsdesign.

Edit:
Oder Du baust natürlich einen kompletten General Purpose Chip aka eine CPU. Da kannst Du dann ja mal sehen, wie Du mit konstant 100% Auslastung der Einheiten (da komplett ohne fixed function) jeglichen Rekord in Ineffizienz brichst ;)

Bucklew
2010-11-18, 16:58:18
Weil man die Spieleleistung in fps mißt und nicht in flops, wie deekey schon sagte.
Die Shaderleistung misst man aber nunmal darin. Und genau darauf basierte auch meine Aussage :rolleyes:

Nur weil deekey unfähig ist zu lesen und das "in spielen" überliest und dann irgendwas über GPGPU daherfasselt, kann ich da nichts für.

OgrEGT
2010-11-18, 19:07:21
Damit diese erkennen, daß sie keine Ahnung/etwas falsch verstanden/ein nicht schlüssiges Argument benutzt haben und lieber nochmal drüber nachdenken, was sie so schreiben. Wenn ich mir nicht halbwegs sicher über irgendetwas bin, dann sage ich das entweder oder schreibe einfach nichts dazu. :rolleyes:
Konkret hier hätte man eigentlich schon nach meinem ersten Post zu diesem Thema (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8397254#post8397254) (der Frage, wie genau die Shaderleistung in Spielen zu messen sei) auf den Trichter kommen müssen, daß das irgendwie nicht viel Sinn macht oder ein ziemlich komplexes Problem wird (die ursprüngliche Aussage von Bucklew ging ja durchaus in eine richtige Richtung, allerdings hätte es gutgetan die Aussage klarzustellen/zu präzisieren als das Argument in die Sinnlosigkeit zu entwickeln).

Im Übrigen und ganz allgemein ist fehlendes Wissen ja keine Schande, niemand weiß *wirklich* viel. Aber ein (offensichtlich unterschätztes) Problem ist häufig mangelndes logisches Denkvermögen. :|

Könnte man nicht eine Art Modell-Shader-Code (bei bekannter Anzahl an jeweiligen Operationen) erstellen, welcher dem von typischen DX 9/10/11 Spielen nahe kommt, und die Ausführungsgeschwindigkeit messen?

Gipsel
2010-11-18, 19:16:10
Könnte man nicht eine Art Modell-Shader-Code (bei bekannter Anzahl an jeweiligen Operationen) erstellen, welcher dem von typischen DX 9/10/11 Spielen nahe kommt, und die Ausführungsgeschwindigkeit messen?
Dann nimm die Scores von 3DMarkxxxx und Du bist da. Ansonsten nein (aus den geschilderten Gründen).

Alternativ kann man natürlich einen hochsynthetischen Shadertest basteln, der allerhöchstens noch die TMUs/Caches/Speicherinterface belastet, aber welche Aussage das dann noch für die Spieleleistung haben soll, darfst Du mich nicht fragen.

OgrEGT
2010-11-18, 19:20:44
Dann nimm die Scores von 3DMarkxxxx und Du bist da. Ansonsten nein (aus den geschilderten Gründen).

Alternativ kann man natürlich einen hochsynthetischen Shadertest basteln, der allerhöchstens noch die TMUs/Caches/Speicherinterface belastet, aber welche Aussage das dann noch für die Spieleleistung haben soll, darfst Du mich nicht fragen.

Immerhin könnte man dann verschiedene GPUs vollkommen transparent vergleichen. Wäre aber dann in der Tat ein weiterer 3DMurks wenn auch Marke Eigenbau... :eek::freak:;D

Exxtreme
2010-11-18, 19:53:47
Zurück zum Thema bitte!

Spasstiger
2010-11-18, 23:00:02
Wenn es bei 384 4D-ALUs und 96 TMUs @ 890 MHz sowie einem 256-Bit-SI @ 5,5 Gbps bei der Radeon HD 6970 bleibt, würde ich nur von 20% Leistungssteigerung gegenüber der Radeon HD 5870 ausgehen. D.h. man landet knapp über der GTX 480, aber unter der GTX 580. An über 400 mm² Diesize glaube ich dann auch nicht mehr, das würde eher auf 370-390 mm² rauslaufen, also etwas mehr als bei Nvidias GF104.

Jup.
Das vergessen die meisten hier wohl.
Schon Cypress war gegenüber Juniper verdammt ineffizient.
Barts XT hat in etwa nur 70% der theoretischen Rechenleistung von Cypress XT, kommt aber auf etwa 95% der realen Rechenleistung. Barts ist somit um etwa 30% effizienter als Cypress(wenn man nun stumpf rumrechnet).
Die Recheneffizienz ist abseits von Tessellation um vielleicht 5% gestiegen. Barts XT macht gegen den Cypress XT keinen Stich, wenn man nicht gerade einen synthetischen Tessellationstest heranzieht. Bei vergleichbarer AF-Qualität liegt die Radeon HD 6870 nur knapp über der Radeon HD 5850. Und das ist bei 1120 SPs @ 900 MHz gegenüber 1440 SPs @ 725 MHz auch nicht weiter verwunderlich. Der Barts XT zieht seine scheinbar gute Performance in Relation zur Anzahl an Recheneinheiten hauptsächlich aus dem hohen Chiptakt gegenüber dem Vorgänger (Cypress Pro).

davidzo
2010-11-18, 23:27:44
dann wäre der status quo jedenfalls wieder hergestellt.

Nvidia hat die schnellste singleGPU aber ATIs multichippendant bietet die höchste leistung pro Karte. - Atis SingleGPU liegt in 10-15% Reichweite von nvidias singleGPU, bietet aber im grunde nur mainstreamleistung. Thermisch und energietechnisch hat natürlich die Lösung die von Anfang an als mainstream geplant wurde die Nase vorn.

ändert sich ja nichts. wie langweilig...

_flx
2010-11-19, 00:19:59
dann wäre der status quo jedenfalls wieder hergestellt.

Nvidia hat die schnellste singleGPU aber ATIs multichippendant bietet die höchste leistung pro Karte. - Atis SingleGPU liegt in 10-15% Reichweite von nvidias singleGPU, bietet aber im grunde nur mainstreamleistung. Thermisch und energietechnisch hat natürlich die Lösung die von Anfang an als mainstream geplant wurde die Nase vorn.

ändert sich ja nichts. wie langweilig...



Also momentan erwarte ich irgendwie ein Leistungsverhältnis wie "damals" bei RV770 zu GT200 bzw RV790/GT200b.

Das Problem ist diesmal nur das A/A erstens nicht ganz so günstig sein wird und zweitens nV diesmal schneller auf dem Markt war.
Oder bilde ich mir das nur ein? :confused:


:tongue:

Nakai
2010-11-19, 00:28:20
Die Recheneffizienz ist abseits von Tessellation um vielleicht 5% gestiegen. Barts XT macht gegen den Cypress XT keinen Stich, wenn man nicht gerade einen synthetischen Tessellationstest heranzieht. Bei vergleichbarer AF-Qualität liegt die Radeon HD 6870 nur knapp über der Radeon HD 5850. Und das ist bei 1120 SPs @ 900 MHz gegenüber 1440 SPs @ 725 MHz auch nicht weiter verwunderlich. Der Barts XT zieht seine scheinbar gute Performance in Relation zur Anzahl an Recheneinheiten hauptsächlich aus dem hohen Chiptakt gegenüber dem Vorgänger (Cypress Pro).

Die Recheneffizienz ist deutlich gestiegen.
32ROPs(256Bit SI), 2Rasterizer, leicht verbesserter Tesselator und 2 HierachZ-Einheiten sind ja nicht zum Spaß drin. Ergo FrontEnd und BackEnd gleich von Cypress.

Barts = CypressLight bzw Barts kann nur so gut auftrumpfen, weil Cypress sowieso schon an allen Ecken und Kanten hängt. Cypress kann nie seine volle Rechenleistung ausspielen.


Wenn Cayman eine optimierte Architektur hat, dann sind 1920SPs und 120 TMUs(also 480 Vec4-Einheiten) völlig unwahrscheinlich.

Cayman braucht erstmal einen deutlich verbesserten Tesselator und deutlich effizientere Rasterizer. Ebenso wären deutlich bessere ROPs und ein deutlich effizienteres SI von Nöten.

Mancko
2010-11-19, 00:50:38
dann wäre der status quo jedenfalls wieder hergestellt.

Nvidia hat die schnellste singleGPU aber ATIs multichippendant bietet die höchste leistung pro Karte. - Atis SingleGPU liegt in 10-15% Reichweite von nvidias singleGPU, bietet aber im grunde nur mainstreamleistung. Thermisch und energietechnisch hat natürlich die Lösung die von Anfang an als mainstream geplant wurde die Nase vorn.

ändert sich ja nichts. wie langweilig...

Nur mal so... NV bringt auch eine Dual Chip Karte. Glaube kaum das die das so aus Spass machen. Generell halte ich von den Dual Chip Karten aber nichts und Gott sei Dank wird in so gut wie allen Reviews auf die Nachteile hingewiesen.
Der Maßstab bleiben die Single GPU Karten und wenn Cayman XT die 580 nicht packt wäre das eine klare Enttäuschung.

Wobei ich glaube, dass das größte Problem dann für AMD sowieso nicht die 580 sondern die 570 und 560 ist. In jedem Fall würde Nvidia dann Marktanteile und Image zurückgewinnen. Von den 9 Monaten Vorsprung wäre dann auf einmal nichts mehr da.

horn 12
2010-11-19, 01:00:07
Hoffe auf eine Ente seitens AMD oder falls nicht kann man wohl von Preisen zu etwa 350 Euro bei HD6970 und ca. 270 Euro bei HD6950 ausgehen.

Auch nicht schlecht in dieser Hinsicht, obwohl mehr Leistung wäre sicherlich angebrachter.
Oder AMD bringt gar ein einwandfreies AF, Neue AA Modi und verschiedene Gimnick´s mit sich und dann würde sich die Leistung dennoch nicht verstecken brauchen ---->>>> Noch ist nicht Aller Tage abend.

Hoffen wir das Beste!

Dural
2010-11-19, 09:01:27
Deiner Meinung nach hat also eine 6950, das Salvage-Modell des (laut Dir) 400+mm² großen Topmodells, nur grob die Leistungsfähigkeit (maximal +10%) einer 255 mm² HD6870? Interessant!

erstens ist es nicht meine meinung sondern die letzte aktuelle News und zweitens hast du anscheinend doch nicht wirklich viel erfahrung, den ich könnte einige Chips aufzählen wo das der fall war. Neustes beispiel ist ja die GTX460 (und der GF104 ist da nicht mal voll aktiv) gegen die 470 (jaja die soll einen GF100 haben) zudem hat Barts null DP was aber sogar GF104 noch bietet, was in diese richtung mit Cayman ist weis man noch gar nicht, dazu gab es bis heute keine Infos.

Wir werden Garantiert keinen so grossen vorsprung zwischen 6870 und der 6950 sehen, laut den akutellen gerüchten ist das auch gar nicht möglich!

Gipsel Gipsel Gipsel da hast du dich ziemlich ins aus gehauen :rolleyes:

Gipsel
2010-11-19, 10:26:21
hast du anscheinend doch nicht wirklich viel erfahrung, den ich könnte einige Chips aufzählen wo das der fall war. Neustes beispiel ist ja die GTX460 (und der GF104 ist da nicht mal voll aktiv) gegen die 470 (jaja die soll einen GF100 haben)
Und eine Standard-GTX460 1GB hat mehr als 90% der Leistung einer Standard-GTX470. Ich glaube kaum ;)
zudem hat Barts null DP was aber sogar GF104 noch bietet,1. extrem abgespeckt also fast umsonst
2. Was hat das jetzt damit zu tun?
was in diese richtung mit Cayman ist weis man noch gar nicht, dazu gab es bis heute keine Infos.Dann bist Du blind. Natürlich ist bekannt, daß Cayman DP kann (mit 1:4 Rate).
Wir werden Garantiert keinen so grossen vorsprung zwischen 6870 und der 6950 sehen, laut den akutellen gerüchten ist das auch gar nicht möglich!Na dann rück' mal mit Deiner Erläuterung raus, warum das nicht möglich sein soll!
Gipsel Gipsel Gipsel da hast du dich ziemlich ins aus gehauen :rolleyes:;D :lol: ;D

Superheld
2010-11-19, 10:46:43
na vor Weihnachten die Vorstellung auch nicht schlecht, kann man die Oma nochmal los schicken und ne ander Graka besorgen lassen(vllt;)).

VinD
2010-11-19, 16:35:11
also wenn 6900 30-50% schneller sein sollen als 6800 dann sind die doch gleichauf mit 570 und 580. Ich versteh die aussage so das 6950 30-50% schneller als 6850 und 6970 30-50% schneller als 6870 sein sollen.
Dann also 6950 bisschen schneller als 5870 und 6970 zwischen 480 und 580.

Gipsel
2010-11-19, 17:38:16
also wenn 6900 30-50% schneller sein sollen als 6800 dann sind die doch gleichauf mit 570 und 580. Ich versteh die aussage so das 6950 30-50% schneller als 6850 und 6970 30-50% schneller als 6870 sein sollen.
Dann also 6950 bisschen schneller als 5870 und 6970 zwischen 480 und 580.
Ja, das ist eine nachvollziehbare Erwartung und paßt auch passabel mit typischen Abständen zwischen den verschiedenen Modellen. Aber ein paar Prozent Abweichung gibt es natürlich immer ;)

aylano
2010-11-19, 17:50:40
Es bleibt doch die Frage, ob mit 24 Shader die 6950 gemeint war oder auch die HD 6970.

Schließlich wurden Wochen vor der Barts-Einführung ja auch 960 Shader für HD 6870 genannt.

24 Shader-Cluster würde IMO gut ins Schema passen.

Da Caymann 4-D statt 5D hat, sinkt etwas die absolute Performance pro SIMD. Und dieses Etwas könnte vielleicht mit mehr Shader-Cluter kompensiert werden. Also, statt 2x7 (Barts) könnte Cayman eines mehr bekommen alias 3x8

Gipsel
2010-11-19, 18:05:35
Da Caymann 4-D statt 5D hat, sinkt etwas die absolute Performance pro SIMD. Und dieses Etwas könnte vielleicht mit mehr Shader-Cluter kompensiert werden. Also, statt 2x7 (Barts) könnte Cayman eines mehr bekommen alias 3x8
Die Folie mit der verdoppelten Geometrie-Performance spricht eher für 2x12, es sei denn das Frontend mitsamt Rasterizer ist jetzt unabhängig von den Graphics-Engines (den SIMD-Blöcken), wogegen allerdings dieses unscharfe Foto mit der Neuauslegung der Graphics-Engine spricht (1 Rasterizer pro Engine), oder man geht gar auf 4x6 (mit halbierter Geschwindigkeit des Setups, dafür aber eben 4 mal), was ich aber nicht für sehr wahrscheinlich halte. Dann vielleicht doch eher 3x8 oder 3x10 oder was auch immer und auf der Marketingfolie war man überraschend ehrlich, was die Effizienz dieses Ansatzes angeht, so daß man nicht Faktor 3 hingeschrieben hat :freak:

Nakai
2010-11-19, 18:57:29
Die Folie mit der verdoppelten Geometrie-Performance spricht eher für 2x12, es sei denn das Frontend mitsamt Rasterizer ist jetzt unabhängig von den Graphics-Engines (den SIMD-Blöcken), wogegen allerdings dieses unscharfe Foto mit der Neuauslegung der Graphics-Engine spricht (1 Rasterizer pro Engine), oder man geht gar auf 4x6 (mit halbierter Geschwindigkeit des Setups, dafür aber eben 4 mal), was ich aber nicht für sehr wahrscheinlich halte. Dann vielleicht doch eher 3x8 oder 3x10 oder was auch immer und auf der Marketingfolie war man überraschend ehrlich, was die Effizienz dieses Ansatzes angeht, so daß man nicht Faktor 3 hingeschrieben hat

Ein Rasterizer in Cypress und Barts kann ja max 16 Pixel pro Takt rastern.
Cayman hat wieder 32 ROPs, ergo ist es naheliegend, dass man wieder um die 32 Pixel pro Takt maximal durchpresst.

So im Bezug auf Barts(2x7) wären bei Cayman entweder 4x6 oder 3x8 am wahrscheinlichsten.
3x8 eher nicht, siehe Anzahl ROPs und Rastrizer.
IMO waren die Module auf Cypress(also immer 10 SIMDs pro Rasterizer) einfach zu groß und zu ineffizient. Barts zeigt das auch ziemlich gut.
Ergo 2x12 oder 4x6(8 Pix pro Rasteriser; siehe Gipsel).

Btw, es gab doch mal ein (verpixeltes) Foto von der Graphics Engine von Cayman. Hat da jemand nochn Link dazu?


mfg

aylano
2010-11-19, 19:13:50
IMO waren die Module auf Cypress(also immer 10 SIMDs pro Rasterizer) einfach zu groß und zu ineffizient. Barts zeigt das auch ziemlich gut.
Ergo 2x12 oder 4x6(8 Pix pro Rasteriser; siehe Gipsel).

Aber wenn 10 SIMD pro Rasterizer schon laut dir ineffizient sind, dann 2x12 erst recht?

4x6 wäre deshalb komisch, weil sich AMD in den letzten Jahren von 4 (R600/RV670 auf 10 Shader-Cluster pro Rasterizer hochgearbeitet hat.

3x8 könnte der Weg sein, wo man vielleicht den Effizientensten Punkt zwischen Rasterizer & Shader gefunden hätte und geht somit den Bart-Weg weiter.

Gipsel
2010-11-19, 19:19:37
Ein Rasterizer in Cypress und Barts kann ja max 16 Pixel pro Takt rastern.
Cayman hat wieder 32 ROPs, ergo ist es naheliegend, dass man wieder um die 32 Pixel pro Takt maximal durchpresst.Sie GF1xx-Reihe. Da gibt es sogar Modelle mit 6 Pixel/Takt und 24 ROPs :freak:

Will sagen, daß muß nicht unbedingt zusammenpassen. Sowohl mehr ROPs als Rasterizer (GF1xx) bringen ein wenig was, als auch andersrum. Es schadet also nichts z.B. maximal 48 Pixel/Takt durch die Rasterizer zu bekommen, dann aber nur 32ROPs zu haben. Bei kleinen Dreiecken dürften mehr Rasterizer sogar tendenziell mehr bringen, weil man ja z.B. auf 3 Dreiecke/Takt festgelegt ist, die also im Minimalfall auch nur 3 Quads, also nominell 12 Pixel erzeugen (wovon aber natürlich ein recht großer Teil wieder verworfen wird).
IMO waren die Module auf Cypress(also immer 10 SIMDs pro Rasterizer) einfach zu groß und zu ineffizient. Barts zeigt das auch ziemlich gut.Das liegt aber zum Teil auch an den UTDPs bzw. deren mangelnden Flexibilität, die Arbeit immer ordentlich zu schedulen.
Btw, es gab doch mal ein (verpixeltes) Foto von der Graphics Engine von Cayman. Hat da jemand nochn Link dazu?Darauf bezog ich mich eben. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8366063#post8366063)

Nakai
2010-11-19, 19:31:54
Will sagen, daß muß nicht unbedingt zusammenpassen. Sowohl mehr ROPs als Rasterizer (GF1xx) bringen ein wenig was, als auch andersrum. Es schadet also nichts z.B. maximal 48 Pixel/Takt durch die Rasterizer zu bekommen, dann aber nur 32ROPs zu haben. Bei kleinen Dreiecken dürften mehr Rasterizer sogar tendenziell mehr bringen, weil man ja z.B. auf 3 Dreiecke/Takt festgelegt ist, die also im Minimalfall auch nur 3 Quads, also nominell 12 Pixel erzeugen (wovon aber natürlich ein recht großer Teil wieder verworfen wird).

Ja ich stimme dir auch zu. Nur haben wir den Fall erst seit Neuesten mit DX11.
Es sollten aber niemals mehr Pixel als ROPs gleichzeitig anfallen. Naja mit DX11...


Darauf bezog ich mich eben. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8366063#post8366063)

Genau das hab ich gesucht.
Werde aber erst später dazu etwas sagen können...


mfg

HarryHirsch
2010-11-19, 21:14:58
Weiß man eigentlich schon was ATI an den 58xx geändert hat das sie so viel besser mit SGSSAA umgehen können als die 48xx?
Und kann das auch mit den "neuen" wieder passieren?

horn 12
2010-11-19, 21:21:54
3DMark 11 wird von AMD gesponsert und speziell darauf optimiert.
Somit würde ich einen Zeitgleichen Launch Ende November (30.ten November)
gar für möglich halten.

Vielleicht verkürzt AMD den Launchtermin (ital. Forum, welche die HD6870 als erste in der Hand hielten)

HarryHirsch
2010-11-19, 21:23:34
3DMark 11 wird von AMD gesponsert und speziell darauf optimiert.
Somit würde ich einen Zeitgleichen Launch Ende November (30.ten November)
gar für möglich halten.

Vielleicht verkürzt AMD den Launchtermin (ital. Forum, welche die HD6870 als erste in der Hand hielten)

War im letzten Video nicht MSI Werbung oder so am Start?

horn 12
2010-11-19, 21:29:32
Ja, genau
Auch im Video sieht man das MSI Logo
ATI wird, Sorry AMD wird 3D Mark 2011 promoten, und sich diese Chance nicht nehmen lassen.

Superheld
2010-11-19, 21:32:04
hehe. hoffentlich sehen wir keine Ruckelorgie "bei beiden" Grakas :tongue:

der Schwanzmark ist doch nur gebaut, um zu sehen wie schlecht der eigende Rechner ist...

HarryHirsch
2010-11-19, 21:36:07
hehe. hoffentlich sehen wir keine Ruckelorgie "bei beiden" Grakas :tongue:

der Schwanzmark ist doch nur gebaut, um zu sehen wie schlecht der eigende Rechner ist...

Das wird man wohl erst wissen wenn man weiß wo die meiste last ist...
Und wenn die Typen vom 3DMark den Patch von ATI angenommen haben sollte die Sache klar sein.

Superheld
2010-11-19, 21:38:51
aber das gibts doch nur das eine Bild mit Msi und AMD auf der Verpackung oder nich ?

vllt Fake ?

horn 12
2010-11-19, 21:54:09
7 Dezember.... ?


http://img266.imageshack.us/img266/3747/118viy.jpg

aylano
2010-11-19, 22:10:32
Die Folie mit der verdoppelten Geometrie-Performance spricht eher für 2x12, es sei denn das Frontend mitsamt Rasterizer ist jetzt unabhängig von den Graphics-Engines (den SIMD-Blöcken), wogegen allerdings dieses unscharfe Foto mit der Neuauslegung der Graphics-Engine spricht (1 Rasterizer pro Engine), oder man geht gar auf 4x6 (mit halbierter Geschwindigkeit des Setups, dafür aber eben 4 mal), was ich aber nicht für sehr wahrscheinlich halte. Dann vielleicht doch eher 3x8 oder 3x10 oder was auch immer und auf der Marketingfolie war man überraschend ehrlich, was die Effizienz dieses Ansatzes angeht, so daß man nicht Faktor 3 hingeschrieben hat :freak:
Inwiefern ist das Frontend mitsamt Rasterizer mit den SIMD-Blöcken ("Grafics-Engine") abhängig???

(Bist du sicher mit deinen Ausdruck Grafik-Engine??? AMD nennt Grafik-Engine
http://adweb.desy.de/~gipsel/Barts_bd.png
ja die Gruppe aus Raterizer & Tesselator & Vertex- & Geometry-Assembler & Hierarchical-Z-Einheit.)

Übrigends, ich hatte einen Gedankenfehler.
Mit 3x8 glaubte ich an 3x(Rasterizer & Tesselator & Co).
Nachdem ich das mit RV870 überprüfte, sieht es ganz klar nach 2 aus. (Ich dachte, es bestand die Möglichkeit, dass es 3 geben kann.

Somit ist jetzt die 3x8-Variante nicht mehr ganz so mein Favorit.

Ich weiß jetzt nicht, wie die Grafik-Engine (Rasterizer & Tesselator & Co) mit den UTDP genau verbunden ist.

Ich frage mich überhaupt, wie "einfach" man SIMD-Blöck am UTDP angehängt werden kann.

Früher (RV670/RV770) hing am UTDP ein SIMD-Block.
Mit RV870 dann 2 SIMD-Blöcke.

Die Frage ist, ob jetzt dann "vielleicht" 4 SIMD-Blöck an 2 (mittelgroßen) UTDPs hängen oder an einem großem UTDP.

Wobei wenn an einem großen UTDP auch 4 SIMD-Blöcke hängen können, können auch 3 SIMD-Blöcke hängen. (Ich denke, deshalb kannst du 3 nicht ausschließen)

Aber wie gesagt, da bin ich etwas im Dunkel, da ich nicht weiß, wie ein UTDP mit den Grafik-Engine und nachher mit den SIMD-Blöcken zusammenhängt.

Schließlich gibts ja diesesmal 2 Grafik-Engine und es könnte sein, dass je an einem Grafig-Engine, dann eine UTDP mit 2 SIMD-Blöcken hängt.

Superheld
2010-11-19, 22:19:23
na wenn die 6970 die Performance erreicht von der 480 ist doch OK =)
aber bitte ~50W weniger und gescheites AF +(Treiber, Tech-Demos, show-girls :freak:).

Gipsel
2010-11-19, 22:53:46
Inwiefern ist das Frontend mitsamt Rasterizer mit den SIMD-Blöcken ("Grafics-Engine") abhängig???
Nun jeder Rasterizer befeuert einen UTDP mitsamt zugehörigem SIMD-Block (egal ob zwei Rasterizer in einer Graphics Engine sitzen oder es zwei Engines gibt).
(Bist du sicher mit deinen Ausdruck Grafik-Engine??? AMD nennt Grafik-Engine
http://adweb.desy.de/~gipsel/Barts_bd.png
ja die Gruppe aus Raterizer & Tesselator & Vertex- & Geometry-Assembler & Hierarchical-Z-Einheit.)
Genau, siehe auch hier im Vergleich zu dem unscharfen Foto von der (mutmaßlichen) Cayman-Folie (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8366063#post8366063). Im Vergleich zu Cypress und Barts bekommt bei Cayman also jeder Rasterizer vermutlich seine eigenen Vertex- und Geometry-Assembler, sprich eine komplette "Graphics Engine". Vorher waren in einer einzigen Graphics-Engine eben nur Rasterizer und Hierarchical Z doppelt vorhanden. Trotzdem hat jeder Rasterizer einen anderen UTDP/SIMD-Block bedient.
Übrigends, ich hatte einen Gedankenfehler.
Mit 3x8 glaubte ich an 3x(Rasterizer & Tesselator & Co).
Nachdem ich das mit RV870 überprüfte, sieht es ganz klar nach 2 aus. (Ich dachte, es bestand die Möglichkeit, dass es 3 geben kann.Tut es auch, wenn es 3 Graphics Engines und damit 3 SIMD-Blöcke geben sollte. Die ROPs sind ja unabhängig, da sitzt nochmal eine Crossbar dazwischen, die werden nicht einzelnen Blöcken zugeteilt.
Ich weiß jetzt nicht, wie die Grafik-Engine (Rasterizer & Tesselator & Co) mit den UTDP genau verbunden ist.

Ich frage mich überhaupt, wie "einfach" man SIMD-Blöck am UTDP angehängt werden kann.

Früher (RV670/RV770) hing am UTDP ein SIMD-Block.
Mit RV870 dann 2 SIMD-Blöcke.Jeder SIMD-Block hat einen eigenen UTDP, die ersten Cypress-Folien waren da nur ungenau, spätere zeigen das genau wie bei Barts korrekt. Da gab es bei B3D mal eine Klarstellung von Dave Baumann.
Aber wie gesagt, da bin ich etwas im Dunkel, da ich nicht weiß, wie ein UTDP mit den Grafik-Engine und nachher mit den SIMD-Blöcken zusammenhängt.Wie gesagt pro Rasterizer gibt es einen UTDP und einen SIMD-Block. Im Prinzip wie bei Fermi (ersetze Graphics Engine durch GPC). Bei Cypress und Barts ist das insofern vereinfacht, als das man zwei Rasterizer in eine einzige Graphics Engine gesetzt hat (weswegen man im Prinzip auch auf 1 Dreieck/Takt trotz zweier Rasterizer limitiert ist).
Schließlich gibts ja diesesmal 2 Grafik-Engine und es könnte sein, dass je an einem Grafig-Engine, dann eine UTDP mit 2 SIMD-Blöcken hängt.Dann wären wohl wieder 2 Rasterizer in einer Engine. Das hat man bei Cypress/Barts ja im Prinzip nur gemacht, weil man nicht 20 SIMDs mit einem UTDP managen kann (bzw. das ineffizienter wird) und auch zwei parallele 16 Pixel Rasterizer ein wenig effizienter als ein einziger 32 Pixel-Rasterizer ist.

SamLombardo
2010-11-20, 09:19:10
Und wenn die Typen vom 3DMark den Patch von ATI angenommen haben sollte die Sache klar sein.
Was denn für ein Patch von AMD? Hab ich was verpasst?:wink:

Dural
2010-11-20, 14:11:16
bleibt zu hoffen das die 4D wenigstens etwas am Takt gebracht haben, scheint mit 890MHz default takt aber wohl auch nur eine hoffnung zu bleiben...

barts ist da schon mal echt übel, da geht eigentlich vernünftig rein gar nichts, das ding läuft schon sehr nahe am limit was die ganzen "oc" karten auch beweisen.

Iruwen
2010-11-20, 15:02:38
AMD hat die Standardspannung halt niedrig angesetzt, mit mehr Saft gehen die Karten doch auch höher.

LovesuckZ
2010-11-20, 15:16:21
Das Problem ist, dass ab einer bestimmten Taktung es einfach nur noch durch massive Spannungserhöhung weitergeht. Bei GF104 - GF110 ist es ca. 840Mhz, bei AMD wohl ca. 950Mhz. Je näher man sich dieser "Wall" mit der Default-Taktung nähert, umso schlechter wird das Übertaktungsergebnis ausfallen.

Schlammsau
2010-11-20, 16:32:32
AMD hat die Standardspannung halt niedrig angesetzt, mit mehr Saft gehen die Karten doch auch höher.
Hmmm......Barts XT ist so ziemlich am Ende. Schaffe mit der Standardspannung (1,174V) nur 940Mhz stabil, um die 1Ghz Schallmauer zu durchbrechen brauch ich über 1,3V!
Komischerweise aber steigt der Verbrauch auch mit massiver Spannungserhöhung (>0,13V) nur wenig an. Auch die Temps bleiben erstaunlich niedrig. Evtl. hat AMD da einen Schutz eingebaut.

Raff
2010-11-20, 16:36:20
Hmmm......Barts XT ist so ziemlich am Ende. Schaffe mit der Standardspannung (1,174V) nur 940Mhz stabil, um die 1Ghz Schallmauer zu durchbrechen brauch ich über 1,3V!
Komischerweise aber steigt der Verbrauch auch mit massiver Spannungserhöhung (>0,13V) nur wenig an. Auch die Temps bleiben erstaunlich niedrig. Evtl. hat AMD da einen Schutz eingebaut.

HD-6850-Karten benötigen übrigens auch idR 1,3 Volt, um ein knappes Gigahertz zu stemmen.

MfG,
Raff