PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

Schlammsau
2008-05-23, 13:49:24
neueste Gerüchte.....

Hier ATIs Antwort auf Nvidias HighEnd Chip:

23.05.2008, 13:27 | Quelle: VR-Zone
ATI RV870 mit 1000 Shadern?
Neue High-End Architektur Ende 2008, Fertigung in 45nm oder 40nm

Momentan sieht es so aus, als wenn AMD und Nvidia im nächsten Monat keine konkurrienden Grafikkarten auf den Markt bringen werden. ATI Radeon HD 4850 und 4870 auf Basis des RV770 Grafikchips liegen unterhalb von 300 Euro, während GeForce GTX 260 und 280 auf Basis des GT200 Chips 400 Euro und mehr kosten dürften. Was hält AMD im High-End Bereich dagegen? Nach ersten Gerüchten soll der RV870 Grafikchip gegen Ende dieses Jahres kommen.
Anzeige

Aus Asien kommen die ersten Informationen. Demnach besitzt der RV870 eine komplett neue Architektur, während der RV770 wie auch der RV670 (Radeon HD 3800) noch auf dem R600 (Radeon HD 2900) basiert. Beim RV870 wird von 1000 Shader Einheiten bzw. Stream Prozessoren gesprochen. Aktuell besitzt der RV670 320 Shader Einheiten, der RV770 soll auf 480 kommen.
Auch die Dual-Chip Variante mit zwei RV870 sei in Planung, Veröffentlichung wohl in der ersten Hälfte des nächsten Jahres. Mit einer solchen Lösung kommt man auf 2000 Shader Einheiten!
Voraussichtlich verwendet AMD für den RV870 das Fertigungsverfahren mit 45 Nanometer Strukturbreite. Sogar 40nm ist im Gespräch. Der taiwanesische Chipfertiger TSMC hat bereits angekündigt, auch in 40nm produzieren zu können.
Den neuen Produktionsprozess wird AMD wohl zunächst noch für Mainstream-Grafikchips einsetzen. Es heißt, der RV740 (Radeon HD 4600 oder 4700?) soll in 45nm oder 40nm gefertigt werden und im vierten Quartal dieses Jahres erscheinen.

Quelle: http://bbs.chiphell.com/viewthread.php?tid=22781&extra=page%3D1

AnarchX
2008-05-23, 13:57:54
R8xx im Q4 2008
;D

Wenn es gut kommt ist im Q4 2008 vielleicht die Dual-RV770-Karte (aka R700XT) ausreichend verfügbar.

Und in deinem Quote steht doch auch H1 2009, was der Termin ist wenn 40nm dann problemlos läuft.

Das ist übrigens die genaueste Übersetzung von dem Post @ Chiphell:
http://www.pczilla.net/en/post/16.html
... der mittlerweile auch verschwunden ist.

Ailuros
2008-05-23, 14:01:05
Q4 2008? Ich behalt mal den Link um naechstes Jahr drueber lachen zu koennen. 40nm ja ;)

deekey777
2008-05-23, 14:08:40
Richtig lesen sollte man können.

VR-Zone: http://forums.vr-zone.com/showthread.php?t=279223

RV870 will be on a whole new architecture and the latest insider info revealed that it will have 1000 SP. RV740 is 45nm version of RV730 and will appear by end of the year.
http://www.pczilla.net/en/post/16.html
We heard from chiphell forum that TSMC now tries 40nm process to produce ATI RV740 graphics chip in the labs. It’s said that RV740 would be the vanguard of 40 nm graphics chips.

We heard 40nm RV740 would be announced at the end of this year. Also at the first half of 2009, ATI would introduce R870, the last graphics chip based on R600 architecture. R870 would be 40nm chip with 2000 sp inside.

ChipHell
http://translate.google.de/translate?u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D22781%26extra %3Dpage%253D1&hl=de&ie=UTF8&sl=zh-CN&tl=en

Psychopat
2008-05-23, 14:09:40
Ist das jetzt die neue Architektur des ursprünglich geplanten R700?

Diese 1000 Shader... sind das wieder Vec5 oder was anderes? Nachdem das auch als X2 kommen soll, kann man ja den Chip nicht zu groß machen. Wenns allerdings eine neue Architektur ist, sollten es ja eigentlich keine Vec5 Shader sein.

Edit: Was denn nun? RV870 neue Architektur, R870 der letzte Chip auf Basis der R600 Architektur???

Ailuros
2008-05-23, 14:16:33
Der originale R700 basierte auch auf der gleichen Basis-Architektur wie R600. RV8x0 ist was der originale R700 gewesen waere nur eben auf 40nm. Wieso 40nm?

http://www.beyond3d.com/content/news/636

Uebrigens ist selbst Anfang 2009 verdammt optimistisch.

***edit: auf der alten roadmap war R800 der damals geplante D3D11 chip. Fuer 2009 wird wohl keiner der beiden IHVs solche Komplianz noetig haben und eigentlich Transistoren-Verschwendung.

Psychopat
2008-05-23, 14:23:50
Naja... nachdem RV770 ja nicht wirklich viel R&D gebraucht hat, hatten sie vielleicht genug Resourcen frei um gleichzeitig am RV8XX zu basteln?

HOT
2008-05-23, 14:27:57
Kein Wunder, dass AMD die günstigen CPUs bei TSMC produzieren will.. da lohnt ja keine eigene Fertigung mehr, wenn TSMC wirklich die 40nm Prozesse so früh hinbekommt, woran ich aber mal ein grosses Fragezeichen setze. Wenn alles optimal läuft, gibts die ersten kaufbaren 45/40nm Produkte von TSMC frühestens 2Q 2009. Q2/3 2009 wäre dann eh ein neuer ATI-Chip fällig. Von den Eckdaten her kann sowas durchaus hinhauen, aber Q4 2008 ist allerhöchstens Tapeout-Datum.

Ailuros
2008-05-23, 14:30:42
Naja... nachdem RV770 ja nicht wirklich viel R&D gebraucht hat, hatten sie vielleicht genug Resourcen frei um gleichzeitig am RV8XX zu basteln?

Dieses RV8xx Dingsbums ist doch nichts anderes als der originale R700 mit dem MCM Zeug. Mit dem chip in X2 Format wird es erstmal interessant werden, da sie das Speicher-Redundanz-Problem bei dual-chip configs erstmal loswerden.

Viel Entwicklung steckte in dem Zeug auch nicht drin; sie sahen aber ein dass das Resultat unter 55nm zu gross gewesen waere. Zuerst hiess es dass sie auf 45nm warten wollen; nur sieht 40nm im Vergleich um einiges interessanter aus.

HOT
2008-05-23, 14:32:54
Nicht viel R&D, aber viel Feintuning. Auch die Software wird bei solchen Entwicklungen immer wichtiger, das braucht auch seine Zeit.

Ailuros
2008-05-23, 14:35:59
Nicht viel R&D, aber viel Feintuning. Auch die Software wird bei solchen Entwicklungen immer wichtiger, das braucht auch seine Zeit.

Den Schmarren hoerte ich von manchen hier auch vor dem R600 Launch. Dabei wurden die Treiber erst nach dem Launch eigentlich ausgereift. Was fuer "finetuning" auf SW-Basis wuerde denn ein RV8x0 vor seinem Launch genau brauchen?

Bokill
2008-05-23, 14:55:02
... wenn TSMC wirklich die 40nm Prozesse so früh hinbekommt, woran ich aber mal ein grosses Fragezeichen setze ... AMD ist nicht der einzige Kunde, der 45 nm (und etwas zeitverzögert den Zwischenschritt 40 nm) für hochwertige Chips bekommen wird.

Altera hat die letzten Tage verkündet, dass TSMC "demnächst" ihre neuesten Stratix FPGAs in 45 nm fertigen wird.

Zur Zeit geht die Fachpresse im Halbleiterbereich davon aus, dass mit Doppelbelichtungslithographie (Intels derzeitige aktuelle Technik für 45 nm) und Nasslithographie (AMD, IBM & vielen andere Halbleiterfirmen) auch der Schritt für 32 nm machbar sind.

45 nm sind in der Speicherchipindustrie sogar bis Ende 2008 als breit eingeführte Technik vorgesehen.

MFG Bobo(2008 )

Gast
2008-05-23, 15:56:41
Nicht viel R&D, aber viel Feintuning. Auch die Software wird bei solchen Entwicklungen immer wichtiger, das braucht auch seine Zeit.

Oh unsere 500 Ingenieure die eigentlich am Chipdesign werkeln haben gerade nix zu tun, lassen wir die mal Treiber schreiben...? Ich meine wie stellt ihr euch das eigentlich vor *sigh* scnr

Gmax
2008-05-23, 16:25:42
RV870 will be on a whole new architecture and....

ATI would introduce R870, the last graphics chip based on R600 architecture.

Was denn nun? Neue Architektur oder nicht?

GeneralHanno
2008-05-23, 16:29:51
das weis doch zum jetzigen zeitpunkt keiner, in wie weit sich die architektur ändert ...

und IMO sind die ganzen spekus hier sowieso zum jetzigen zeitpunkt extrem sinnlos ...

Hvoralek
2008-05-23, 16:53:53
Da der Titel dieses Threads wohl auf einen Kommentar von mir zurückgeht, möchte ich dazu zwei Dinge anmerken:
Ich habe mit gutem Grund in den "Vorschlag" ein Fragezeichen aufgenommen. Dass 45 nm bei TSMC dieses Jahr wohl noch nicht nutzbar sein wird, ist seit längerem absehbar. Jetzt klingt es im Titel so, als sei das Gegenteil gesicherte Tatsache. Nein, ich verkneife mir jetzt einen Kommentar dazu, dass ausgerechnet Schlammsau etwas für AMD Positives so... missverständlich formuliert hat
Ich distanziere mich vom Ausdruck "multicore" im Zusammenhang mit GPUs. Das sollte eine Anspielung auf den ziemlich misslungenen Titel des R700- Threads sein, weil mich die Meldung doch deutlich an die ersten Meldungen zum Ur- R700 erinnerte.

Zum Inhalt: Nur die Angabe "1000 SPs" ist reichlich dünn, ohne irgendwelche Dinge dazu, wie diese 1000 ALU- Kanäle nun aussehen sollen, oder gar zum Rest des Chips. Jedenfalls würde ein feinerer Fertigungsprozess einiges an Raum für Umbauten und Erweiterungen schaffen, zumal die ca. 250 mm² von RV770 noch nicht das Ende des Machbaren sein dürften, auch bei Doppelchipkarten. Ich würde also schon einen gesunden Leistungssprung gegenüber RV770 erwarten; wäre nur zu begrüßen, wenn AMD endlich mal wieder im High- End- Bereich wirklich mithalten könnte. Wenn man allerdings von den Multi- GPU- Problemen wirklich nur die Speicherredundanz behoben hat und Nvidia bei dicken Einzelchips bleibt, müsste man dafür auf dem Papier wohl schon deutlich schneller sein als was auch immer Nvidias High- End in etwa einem Jahr sein wird.

Und auch hier nochmal: Bitte einen Link zur Quelle mit angeben. Soweit ich das sehe, stammen die Angaben ursprünglich von http://bbs.chiphell.com/viewthread.php?tid=22781&extra=page%3D1

Gast
2008-05-23, 23:32:47
ohmann die rv770 sind nicht raus aber schon über den nächsten spekulieren.

Snoopy1978
2008-05-24, 22:56:06
Immerhin hatte Fudzilla (ja ich weis der hört das Gras wachsen) mal darüber berichtet das sich bei Ati schon die R9XX und die R1K Reihe in der Entwicklung befinden.Ausserdem hat Ati ja seine Neuankündigungsintervalle straffer (also verkürzter ) organisiert.

K4mPFwUr$t
2008-05-24, 22:59:15
wäre ja auch ziemlich dumm wenn man nicht schon an der über über über nächsten generation planen und entwickeln würde. ein beispiel, der G80 wurde über 5 jahre entwickelt.

für sollche sachen braucht man kein fud, sondern nur etwas die grauen zellen zu nutzen.

Hvoralek
2008-05-24, 23:02:12
Immerhin hatte Fudzilla (ja ich weis der hört das Gras wachsen) mal darüber berichtet das sich bei Ati schon die R9XX und die R1K Reihe in der Entwicklung befinden.Ausserdem hat Ati ja seine Neuankündigungsintervalle straffer (also verkürzter ) organisiert.Naja, Namen sind Schall und Rauch (sieht man ja an "RV870", der vor kurzem wohl noch R700 hieß, und dem jetzigen "R700" :D). In 1 1/2 - 2 Jahren braucht AMD D3D11- Chips; gut möglich, dass das wieder ein grundlegender Architekturwechsel wird. In dem Fall hoffe ich dringend, dass daran schon seit einiger Zeit gearbeitet wird. Dazu dann noch ein Refresh mit einer toll klingenden Bezeichnung (also z.B. "R9xx" als R8xx- Neuauflage und R1xxx als D3D11- Architektur) und schon hat man das.

Gast
2008-05-24, 23:31:24
Immerhin hatte Fudzilla (ja ich weis der hört das Gras wachsen) mal darüber berichtet das sich bei Ati schon die R9XX und die R1K Reihe in der Entwicklung befinden.


das hätte ich dir auch sagen können, und nein ich hab keine kontakte zu ATI ;)

Gast
2008-05-25, 11:20:38
Uebrigens ist selbst Anfang 2009 verdammt optimistisch.

***edit: auf der alten roadmap war R800 der damals geplante D3D11 chip. Fuer 2009 wird wohl keiner der beiden IHVs solche Komplianz noetig haben und eigentlich Transistoren-Verschwendung.[/QUOTE]

Da D3D11 in den Sternen steht bekommen wir sicher noch mehr zwischen GPUs bis die echten D3D11 Chips kommen. Ich sehe für 2009 eine komplett neue Architektur plus deren Refresh, und dann, sollte Microsoft soweit sein, wird es 2010/Q2 die ersten D3D11 GPUs geben.

R8xx wird viel R&D verschlungen haben, schließlich wird er 2Jahre das Highend stellen müssen, in der Crossfire X2 Variante. Hier ist es nötig, das die Framebuffer Probleme usw. ausgemerzt werden, ob allerdings 1GB RAM da ausreichen, muss man sehen. Man könnte auch mit GDDR5 ein 384Bit SI schaffen und 1,5GB RAM verbauen, das eventuell doppelt Texturen vorhält. Ich denke nicht, dass man es in einem Zuge schafft, 2GPUs an ein und dem selben Speicher arbeiten zu lassen.

w0mbat
2008-06-24, 19:59:47
Wie mir aus sicherer Quelle zugetragen wurde, wird der R800 wieder eine Dual-GPU und damit liegt es nahe das RV870 ein erweiterter/verbesserter RV770 wird.

Meine Vermutung:

RV870 -> RV770 basiert
40nm TSMC
1000+ Unified Stream Processors (vielleicht dieses mal mit einer SD?)
mehr TMUs/ROPs
256-bit @ 5Gbps GDDR5
800-1000MHz core clk (?)

Release ~H1 2009

Zockerfrettchen
2008-06-24, 20:27:42
Ich denke R800 und co. werden nicht mehr auf RV770 basieren, sondern etwas neues sein, was genau kann ich leider nicht sagen^^

Schlammsau
2008-06-24, 20:39:45
gibbet schon.....
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416524

2B-Maverick
2008-06-24, 20:39:52
Ich denke mal es werden hauptsächlich Änderungen bzgl. der Multi-Chip Tauglichkeit einfliessen in R800.

Die anderen Punkte die bisher an R600 (RV670) gestört hatten sind ja nun anscheinend DOCH angegangen worden mit dem RV770 (mehr dazu wird man ja leider erst morgen erfahren). RV770 hat ja wohl doch einige Architekturänderungen erfahren.
Vor allem gespannt bin wohl nicht nur ich auf den R700 bzw. dessen Chip-Chip Verbindung.

CU
Markus

w0mbat
2008-06-24, 20:47:13
Oh sry, habe ich ganz übersehen das es sowas schon gibt.

Kriton
2008-06-25, 14:10:02
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8117&Itemid=1

Vice Presidents at AMD, Matt Skynner, the Vice President of Graphics Marketing, and John Byrne the Vice President of Worldwide GPU Sales, have confirmed to Fudzilla that the next generation high-end graphics card will again be dual chip.

We're not talking about R700, as this card is almost at our door step, we are talking about the R8x0 card that should show up at some point next year.

ATI has decided that performance per watt is very important and it wants to continue to make very fast mainstream / performance chips and use two of them for the high-end card. This is the way the company wants to go, as this makes more financial sense.

At this time we don’t know many details and we can only suspect that R800 is the current codename, but at least we know the direction where ATI wants to go. Nvidia at the same time still believes big bulky chips are the answer to the highest performance part question.

w0mbat
2008-06-25, 16:22:05
Wie mir aus sicherer Quelle zugetragen wurde, wird der R800 wieder eine Dual-GPU und damit liegt es nahe das RV870 ein erweiterter/verbesserter RV770 wird.

Was habe ich gesagt... :D

Ailuros
2008-06-25, 16:29:36
Wie mir aus sicherer Quelle zugetragen wurde, wird der R800 wieder eine Dual-GPU und damit liegt es nahe das RV870 ein erweiterter/verbesserter RV770 wird.

Meine Vermutung:

RV870 -> RV770 basiert
40nm TSMC
1000+ Unified Stream Processors (vielleicht dieses mal mit einer SD?)
mehr TMUs/ROPs
256-bit @ 5Gbps GDDR5
800-1000MHz core clk (?)

Release ~H1 2009

Schoen konservativ mit der Taktrate bleiben (siehe RV770) und erstmal in Richtung anderer hoeheren Frequenzen denken.

Merci ;)

AnarchX
2008-06-25, 16:32:40
Schoen konservativ mit der Taktrate bleiben (siehe RV770) und erstmal in Richtung anderer hoeheren Frequenzen denken.

Warum soll sich ATi mit einer hohen Shaderdomain herumärgern, wenn man so billige ALUs hat.
Wenn dann muss der Interconnect für das Shared-Memory sehr hoch takten um die Breite zu reduzieren.

GeneralHanno
2008-06-25, 16:34:26
Schoen konservativ mit der Taktrate bleiben (siehe RV770) und erstmal in Richtung anderer hoeheren Frequenzen denken.

Merci ;)

du meinst, Ati könnte mit der R8xx serie einen shaderclock einführen? ganz abwägig wäre das nicht ...

aber eins muss man ATi lassen: ihre RVx70 produkte (RV570, RV670, RV770) waren bisher immer echte knaller :biggrin:


Warum soll sich ATi mit einer hohen Shaderdomain herumärgern, wenn man so billige ALUs hat.
da ist auch was dran ;) in 45/40nm sollten, 2000SP locker machbar sein!

Ailuros
2008-06-25, 16:38:54
Warum soll sich ATi mit einer hohen Shaderdomain herumärgern, wenn man so billige ALUs hat.

Weil rein theoretisch 200 ALUs bei hoeherer Frequenz wirklich aufkehren wuerden vielleicht? Und ja sie sind billig und 25% mehr dieser von 55nm auf 40nm machen auch keinen besonderen Unterschied.

Ob was daraus wird keine Ahnung. Jedoch hat Fudo mal wieder den falschen Pfaden geschnappt; es gab keine Forschung fuer das Zeug auf dem heutigen RV770 sondern auf dem originalen RV7x0.

w0mbat
2008-06-25, 16:48:56
@Ail: Also ich habe noch nicht so viel zum RV870 (?) erfahren, eben nur dass der R800 wieder Dual-GPU wird und dass AMD wohl mit 40nm liebäugelt (je nach dem wann er kommen soll). Außerdem wollen sie wohl "big on shaders" werden.

AnarchX
2008-06-25, 16:51:27
Außerdem wollen sie wohl "big on shaders" werden.
Also wohl doch eine deutlich höhere SD?
Da plant man wohl mit der HD5800 die 2 TFLOPs-Single-GPU zu durchbrechen?
Jedenfalls muss sich ja auch AMD gegen Larrabee positionieren.

GeneralHanno
2008-06-25, 16:51:57
wurde der "orginal" R700 (skalierbare multi-die low-end mit 1er die und high-end mit 4-6x die) nur nach hinten geschoben oder komplett gecancelt?

w0mbat
2008-06-25, 16:56:00
Aber "big on shaders" könnten auch 2000SPs @ 700MHz sein.

Kriton
2008-06-25, 16:57:36
du meinst, Ati könnte mit der R8xx serie einen shaderclock einführen? ganz abwägig wäre das nicht ...


Heute erst irgendwo gelesen, dass sie das schon bei R7xx überlegt hatten, aber nicht realisieren konnten.

AnarchX
2008-06-25, 17:01:07
Aber "big on shaders" könnten auch 2000SPs @ 700MHz sein.
Wäre wohl auch mit einem Die etwa unter 300mm²@40nm möglich.
Quad-R800 mit 16.000 SPs. X-D

w0mbat
2008-06-25, 17:05:09
@Kriton: Soweit ich weiß war eine SD bim RV770 nie geplant.

Kriton
2008-06-25, 17:17:44
Hierauf bezog ich mich:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8113&Itemid=1

ATI executives have told Fudzilla that ATI was looking into whether it's possible and beneficial to clock the Shaders at higher clock speeds than the GPU clock, and the engineers have decided that they cannot make it work on RV770 chips.

They will be investigating if this pays off, as ATI and Nvidia do Shaders completely differently; and if it pays off there might be a chance that ATI will clock its Shaders faster than the GPU clock. This is, of course, as of next generation, let's call it RV870.

This is currently the only big advantage that Nvidia has over ATI design, but at the same time ATI has more Shaders clocked at the GPU speed while Nvidia has less Shaders, but they work at much higher speeds than the GPU clock. One thing is sure, with its RV770 marchitecture ATI is certainly catching up, if not even winning, against the G92 concept

GeneralHanno
2008-06-25, 17:23:53
@kriton und wombat:

ich widersprecht euch doch gar nicht ;)
natürlich hat ATi GEPRÜFT, ob ein shaderclock 1. machbar und 2. sinnvoll ist, aber man hat sich dann (früh) entschlossen KEINEN shader clock einzuführen ;)

ich denke auch beim designed des R8xx wird man sich mit der frage einer SD auseinandersetzen. wie die design-entscheidung ausfällt, weis wahrscheinlich noch nicht einmal sir erik ;D

w0mbat
2008-06-25, 17:49:00
Der RV8xx ist schon länger in Planung, sollten also schon wissen ob mit oder ohne SD.

Gast
2008-06-27, 02:44:46
wurde der "orginal" R700 (skalierbare multi-die low-end mit 1er die und high-end mit 4-6x die) nur nach hinten geschoben oder komplett gecancelt?
Gute Frage.Gab ja Gerüchte,daß es Gpus mit bis zu 8 Kernen und Edram geben sollte.
http://www.pcgameshardware.de/?article_id=617895&page=1

Gast
2008-06-27, 03:10:27
Den Schmarren hoerte ich von manchen hier auch vor dem R600 Launch. Dabei wurden die Treiber erst nach dem Launch eigentlich ausgereift. Was fuer "finetuning" auf SW-Basis wuerde denn ein RV8x0 vor seinem Launch genau brauchen?
Nein, aber ein Treiberdebakel wie zur 9700er will man sicher nicht nochmal erleben.

PS: Ich freu mich jetzt erstmal auf meine 4870, R8xx muss erstmal warten:D

seahawk
2008-06-27, 07:23:39
Der RV8xx ist schon länger in Planung, sollten also schon wissen ob mit oder ohne SD.

Ich denke man kann das als Bestätigung sehen. Ich erwarte mehr SP, die duetlich höher takten, imho zeigt sich das Chipdesign von ATI zunhemend dem von NV meilenweit überlegen.

Adam D.
2008-06-27, 10:04:52
Ich denke man kann das als Bestätigung sehen. Ich erwarte mehr SP, die duetlich höher takten, imho zeigt sich das Chipdesign von ATI zunhemend dem von NV meilenweit überlegen.
Aha, soso. Deshalb ham sie in den letzten Jahren auch hinterher gehinkt. Was hat das mit zunehmend zu tun? Zur Zeit stehen sie toll da, aber da kannst du ja wohl kaum eine Prognose für die Zukunft stellen.

seahawk
2008-06-27, 10:18:19
ATI war mit dem R300 und den Nachfolgern vorne, aber den R600-Fehler hat man imho schneller gedreht als NV vom NV-30 Flopp wegkam.

Adam D.
2008-06-27, 10:23:04
Sie waren gleichauf ... Das Chip-Design mag immer gut gewesen sein, aber zum Erfolg gehört halt immer etwas mehr dazu. ATi hat sich mit dem R600 verzettelt, Nvidia mit dem G200. IMO waren die Schwächen des R600 relativ gut zu begründen, was Nvidia dieses Mal so massiv verbockt hat, ist glaub ich noch nicht ganz klar.

pest
2008-06-27, 10:31:08
was Nvidia dieses Mal so massiv verbockt hat, ist glaub ich noch nicht ganz klar.

die haben nix verbockt, die konzentrieren sich eben auf andere Geschäftsfelder, was AMD/ATI nicht machen muss

Adam D.
2008-06-27, 10:39:29
die haben nix verbockt, die konzentrieren sich eben auf andere Geschäftsfelder, was AMD/ATI nicht machen muss
Ich glaub, das ist nur die halbe Wahrheit. Wieso sollte Nvidia mit diesem Tier ihre hervorragende Marktsituation dermaßen gefährenden? Ja, ich weiß - man braucht das GPGPU-Zugpferd. Aber wenn ein 260mm²-Die von ATi leistungstechnisch beinahe gleich ziehen kann, dann hat Nvidia einfach was falsch gemacht.

PHuV
2008-06-27, 10:47:28
Ich glaub, das ist nur die halbe Wahrheit. Wieso sollte Nvidia mit diesem Tier ihre hervorragende Marktsituation dermaßen gefährenden? Ja, ich weiß - man braucht das GPGPU-Zugpferd. Aber wenn ein 260mm²-Die von ATi leistungstechnisch beinahe gleich ziehen kann, dann hat Nvidia einfach was falsch gemacht.

Bisher weiß noch keiner genau, was noch alles an Reserven in dieser Die drinsteckt. Erst mal abwarten.

Adam D.
2008-06-27, 11:14:54
Bisher weiß noch keiner genau, was noch alles an Reserven in dieser Die drinsteckt. Erst mal abwarten.
Naja, in der Vergangenheit sind Nvidia-Karten auch nicht großartig nach dem Release schneller geworden - im Vergleich zu ATi sind sie sogar noch weiter zurück gefallen. Ich weiß nicht, wieso sich das jetzt ändern sollte. Entweder die Änderungen an der Architektur (besonders bezogen auf die Shader) zahlen sich erst später aus - oder eben nie.

Eggcake
2008-06-27, 11:28:05
Naja, in der Vergangenheit sind Nvidia-Karten auch nicht großartig nach dem Release schneller geworden - im Vergleich zu ATi sind sie sogar noch weiter zurück gefallen. Ich weiß nicht, wieso sich das jetzt ändern sollte. Entweder die Änderungen an der Architektur (besonders bezogen auf die Shader) zahlen sich erst später aus - oder eben nie.

Mh naja der G80 wurde ja erst mit späteren Treibern richtig schnell.
Ich würde jetzt auch nicht ausschliessen, dass im G200 noch etwas drinsteckt. Aber man wird sehen.

AnarchX
2008-06-27, 11:29:50
Wenn RV770 schon vom Pad limitiert wird, dann wird wohl auch RV870 min. 256mm² groß sein müssen.

Macht dann wohl min. 1.7 Mrd. Transitoren unter 40nm.

Wo man wiederrum wohl locker 10-12 zusätzliche SIMDs samt TMUs hineinbekommt, vielleicht also doch 2000SPs, mit einem etwas höheren ALU:Tex-Verhältnis

w0mbat
2008-06-27, 12:58:47
RV870 - 40nm - ca. 1,6 mrd. Transistoren
25 SIMDs (16 5D ALUs & 2 TMUs)
-> 400 5D ALUs (2000 SPs), 50 TMUs
-> 20 ROPs (8z/clk) & 256bit @ 5Gbps GDDR5
-> ca. 800MHz coreclk / +400MHz shaderclk

4,8 TeraFLOPS, 40 GTexels, 16 GPixels

Wäre das möglich, und wenn ja bei welcher Die-Größe und welchem TDP?

Gast
2008-06-27, 13:02:20
RV870 - 40nm - ca. 1,6 mrd. Transistoren
25 SIMDs (16 5D ALUs & 2 TMUs)
-> 400 5D ALUs (2000 SPs), 50 TMUs
-> 20 ROPs (8z/clk) & 256bit @ 5Gbps GDDR5
-> ca. 800MHz coreclk / +400MHz shaderclk

4,8 TeraFLOPS, 40 GTexels, 16 GPixels

Wäre das möglich, und wenn ja bei welcher Die-Größe und welchem TDP?


also das mit den 2000sps hab ich schon mal irgendwo gelesen

Gast
2008-06-27, 13:05:23
die haben nix verbockt, die konzentrieren sich eben auf andere Geschäftsfelder, was AMD/ATI nicht machen muss

Aber zu R600-Zeiten machen musste. (nur so als Ergänzung)

reunion
2008-06-27, 13:06:33
RV870 - 40nm - ca. 1,6 mrd. Transistoren
25 SIMDs (16 5D ALUs & 2 TMUs)
-> 400 5D ALUs (2000 SPs), 50 TMUs
-> 20 ROPs (8z/clk) & 256bit @ 5Gbps GDDR5
-> ca. 800MHz coreclk / +400MHz shaderclk

4,8 TeraFLOPS, 40 GTexels, 16 GPixels

Wäre das möglich, und wenn ja bei welcher Die-Größe und welchem TDP?

Es wäre möglich, aber IMHO nicht sinnvoll. 2.5x ALU-Anzahl plus 400Mhz Shaderclock macht 4x ALU-Leistung im Vergleich zu RV770 und dann nur 25% mehr TMUs? 20ROPs macht für mich auch keinen Sinn. 16Pixel/clock sind genug, 8z pro ROP ist natürlich sinnvoll und möglich.

Spasstiger
2008-06-27, 13:07:04
RV870 - 40nm - ca. 1,6 mrd. Transistoren
25 SIMDs (16 5D ALUs & 2 TMUs)
-> 400 5D ALUs (2000 SPs), 50 TMUs
-> 20 ROPs (8z/clk) & 256bit @ 5Gbps GDDR5
-> ca. 800MHz coreclk / +400MHz shaderclk

4,8 TeraFLOPS, 40 GTexels, 16 GPixels

Wäre das möglich, und wenn ja bei welcher Die-Größe und welchem TDP?
Das Die wäre mit 1,6 Mrd. Transistoren in 40 nm nicht größer als beim RV770.

w0mbat
2008-06-27, 13:10:28
Also bei 25 SIMDs wären es, wenn es bei 4 TMUs/SIMD bleibt, ganze 100 TMUs was für mich "ein wenig" Overkill ist. Ich dachte deshalb an nur 2 TMUs/SIMD, aber wären zB auch 3 TMUs/SIMD möglich (75 TMUs)?

Oder man hat einfach keine Shaderclk und damit "nur" 3,2 TeraFLOPs.

reunion
2008-06-27, 13:12:55
Also bei 25 SIMDs wären es, wenn es bei 4 TMUs/SIMD bleibt, ganze 100 TMUs was für mich "ein wenig" Overkill ist. Ich dachte deshalb an nur 2 TMUs/SIMD, aber wären zB auch 3 TMUs/SIMD möglich (75 TMUs)?

Oder man hat einfach keine Shaderclk und damit "nur" 3,2 TeraFLOPs.

Bei 25 SMIDs sind 100TMUs sicher kein Overkill. Das wäre schon ohne Shaderclock dasselbe Verhältnis wie bei RV770 und dem mangelt es ganz sicher nicht an Shaderleistung. Und TMUs werden heutzutage natürlich nur quadweise verbaut. Wenn du das ALU/TEX-Verhältnis weiter steigern willst brauchst du also fettere SIMDs.

w0mbat
2008-06-27, 13:27:45
Also zB so (?):
RV870 - 40nm - ca. 1,6 mrd. Transistoren
25 SIMDs (16 5D ALUs & 4 TMUs)
-> 400 5D ALUs (2000 SPs), 100 TMUs
-> 20 ROPs (8z/clk) & 256bit @ 5Gbps GDDR5
-> ca. 800MHz coreclk

3,2 TeraFLOPS, 80 GTexels, 16 GPixels, 160 GB/s

Sorkalm
2008-06-27, 13:37:55
Wann soll das Ding denn erscheinen? Q4/2008 wie im Titel steht sicher nicht, aber auch Anfang 2009 muss man erstmal schauen, ob der 45 nm Prozess läuft...

Ailuros
2008-06-28, 01:43:50
Ich denke man kann das als Bestätigung sehen. Ich erwarte mehr SP, die duetlich höher takten, imho zeigt sich das Chipdesign von ATI zunhemend dem von NV meilenweit überlegen.

Das hohe Shader-domain ist genau der Grund weil ab G8x NV konstant mit weniger SPs pro Design wegkommt. Momentan liegt das Verhaeltnis der in etwa vergleichbaren Leistung je nach Fall und Frequenzen bei 800:128, 800:196 oder sogar 800:240, obwohl man im letzten Fall trotz dem grossen theoretischen FLOP Unterschied nicht von einem Vorsprung reden kann.

Eine deutlich hoehere ALU Frequenz bzw. shader domain ist genau das was NV schon seit ueber 2 Jahren eingefuehrt hat.

Gerade weil es so "meilenweit ueberlegen" ist kommt es bei RV870 wohl eher insgesamt zu Effizienz-Steigerungen fuer die man beim RV770 keinen Platz und Zeit mehr hatte.

Wenn NV beim naechsten Schub wieder kein 10.1 bringt, dann haben sie nun wirklich einen Vogel. Wenn sie dafuer jetzt die TMUs umkrepeln muessen dann sollten sie es auch endlich machen. Sonst brauchen sie am existierenden Design nichts uebermaessiges aendern, nur eben mehr Einheiten dazustecken.

reunion
2008-06-28, 08:35:40
Das hohe Shader-domain ist genau der Grund weil ab G8x NV konstant mit weniger SPs pro Design wegkommt.


LOL.
GT200 240SPs = 153mm² @65nm
RV770 800SPs = 72mm² @55nm ~ 89mm²@65nm


Momentan liegt das Verhaeltnis der in etwa vergleichbaren Leistung je nach Fall und Frequenzen bei 800:128, 800:196 oder sogar 800:240, obwohl man im letzten Fall trotz dem grossen theoretischen FLOP Unterschied nicht von einem Vorsprung reden kann.


Nächstes LOL. Die 128 SPs @1.688Ghz habe da selbst gegen die 4850 in keinem Test eine Chance:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/xbitmark.gif

http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_17.html#sect0

Ailuros
2008-06-28, 10:22:06
LOL.
GT200 240SPs = 153mm² @65nm
RV770 800SPs = 72mm² @55nm ~ 89mm²@65nm

Und die Anzahl der SPs bzw. die-Flaeche auf einem theoretischen RV770 mit hohem shader domain wuerde wie genau aussehen?

Da man die obrige Rechnung wohl schwer weitertragen kann zu einem hypothetischen single-chip der die GT200 auch endgueltig in die Ecke zwingen wuerde, muss man wohl dann wohl doch eher an die kommende "R700" denken.


Nächstes LOL. Die 128 SPs @1.688Ghz habe da selbst gegen die 4850 in keinem Test eine Chance:

Das Bild aendert sich auch nicht dramatisch mit einer 9800GTX+ fuer NV in dem Test aber wenn wir ueber dynamisches branching reden, dann gibt es auch andere Faelle wie z.B. hier:

http://www.hardware.fr/medias/photos_news/00/23/IMG0023626.gif

http://www.hardware.fr/articles/725-7/dossier-amd-radeon-hd-4870-4850.html

Beide Architekturen haben ihre Vor- und Nachteile. Komischerweise korrigiert AMD mit jeder R6x0 Revision das genau was etliche Male in der Vergangenheit erwaehnt wurde und R600 bzw. RV670 waren wohl doch nicht so "effizient" wie Du spezifisch in der Vergangenheit hinstellen wolltest.

Mein "Instinkt" sagt mir dass sich AMD beim naechsten Schub viel mehr auf die Effizienz der Grund-Architektur konzentrieren wird, eben genau weil es nicht Zeit fuer relevante Steigerungen beim RV770 gab. Das Resultat ist nach wie vor beindruckend, aber RV770 limitiert sich leider selber an noch zu vielen Stellen. Waere es anders gewesen koennte NV heute tatsaechlich einpacken.

Der ganze Firlefanz ist sowieso fuer die Muelltonne; NV's groesstes Problem ist dass AMD einen Weg gefunden hat einen enormen Druck was die Veroeffentlichungen betrifft auszuueben. ATI groesstes Problem der letzten Jahre waren ihre Verspaetungen; RV6x0/7x0 und wohl auch 8x0 kamen/kommen genau zur rechten Zeit.

robbitop
2008-06-28, 10:49:42
Effizienter zu werden, wird dann aber deutlich teurer. Branchgranularität scheint sich nach den HW-Fr Tests im RV770 doch nicht gebessert zu haben. Wäre auch verwunderlich, weil das sehr teuer ist.
Die ALU-Effizienz würde steigen, wenn man die SIMDs verkleinert, ihre Anzahl erhöht und die Taktrate der ALUs erhöht. Auf die gleiche SP-Effizienz wie NV kommt man damit mit der Architektur aber nicht.
Mir stellt sich aber die Frage, was Effizienzsteigerungen pro SP bringen sollen, wenn sie mehr Transistoren kosten, als sie Leistung bringen. Es erscheint tatsächlich billiger zu sein, die SIMD-Anzahl zu skalieren.
Dass RV770 nicht an GT200 ganz heranreicht, liegt jedenfalls nicht am aritmetischen Output. Spiele mit höherem ALU:TEX Verhältnis sollten mehr aus dem RV770 herausholen.
Fakt ist, dass NVIDIA nicht grundlos eine höhere TEX Leistung (gut, die ist vor allem auch für anständige Texturfilterqualität vorgesehen), Z/Stencil-Leistung besitzt, als ATI.
ATI täte gut daran, auch im RV870 die SIMDs hochzuskalieren, dabei aber die Z/Stencilleistung und TEX Leistung zu erhöhen. Und dann könnte man auch gleich ein anständigen Texturfilter anbieten.
Man hat bei gleicher DIE-Fläche auf 40 nm rund ein doppelt so hohes Transistorbudget.
Wenn man wieder zurück auf wirtschaftliche 200 mm^2 will, nur noch ein 1,5x so hohes Transistorbudget.
1,5 - 2 Mrd Transistoren wären also vertretbar.

Gast
2008-06-28, 10:59:37
Welchen Grund hätte den AMD, mehr Transistoren zu Opfer für bessere Filterung? Die Balkenlänge ist doch heute wieder wichtiger denn je, aktueller Release bestätigt das, was seit einiger Zeit von manchen vorrausgesagt wurde. Es wird sich nicht ändern...

Für was brauch nV eigentlich die viel höhere Z-Leistung? Die TEX Leistung wird klar fürs WU Filtern benötigt, deswegen sind die TMUs nicht gerade klein und billig. Aber irgendwie kommt man mit dem hochgezüchteten SPs nicht richtig auf der Autobahn voran.

AnarchX
2008-06-28, 11:01:58
Wenn man wieder zurück auf wirtschaftliche 200 mm^2 will, nur noch ein 1,5x so hohes Transistorbudget.

Aber die ~250mm² scheinen doch die Untergrenze für ein 256-Bit GDDR5-Interface zu sein und bei RV870 benötigt man sicherlich nochmal einige Pins mehr für die schnelle MGPU-Kommunikation.

reunion
2008-06-28, 11:08:03
Und die Anzahl der SPs bzw. die-Flaeche auf einem theoretischen RV770 mit hohem shader domain wuerde wie genau aussehen?

Da man die obrige Rechnung wohl schwer weitertragen kann zu einem hypothetischen single-chip der die GT200 auch endgueltig in die Ecke zwingen wuerde, muss man wohl dann wohl doch eher an die kommende "R700" denken.


NV erkauft die bessere Auslastung der ALUs mit enormen Aufwand an Transistoren und Takt (Handarbeit). Ich sehe darin keinen Vorteil, sondern höchstens einen Nachteil. AMD erreicht in der Praxis eine wesentlich höhere Performance/mm² mit ihrem ALU-Design.



Das Bild aendert sich auch nicht dramatisch mit einer 9800GTX+ fuer NV in dem Test aber wenn wir ueber dynamisches branching reden, dann gibt es auch andere Faelle wie z.B. hier:

http://www.hardware.fr/medias/photos_news/00/23/IMG0023626.gif

http://www.hardware.fr/articles/725-7/dossier-amd-radeon-hd-4870-4850.html

Das ist aber nur die Granularität. Das nützt nV in der Praxis genau gar nichts wenn AMD das mit "brute-Force" mehr als ausgleichen kann. Siehe den Test von xbitlabs.

Gast
2008-06-28, 11:15:38
AMD erreicht in der Praxis eine wesentlich höhere Performance/mm² mit ihren ALU-Design.


Und die Performance/Transistor ist wesentlich schlechter.

reunion
2008-06-28, 11:17:48
Und die Performance/Transistor ist wesentlich schlechter.

Stimmt nicht. Und selbst wenn, das kostet nichts, das Die ist entscheidend.

robbitop
2008-06-28, 11:22:40
Aber die ~250mm² scheinen doch die Untergrenze für ein 256-Bit GDDR5-Interface zu sein und bei RV870 benötigt man sicherlich nochmal einige Pins mehr für die schnelle MGPU-Kommunikation.
Das kann ich mir nicht vorstellen. 19x mm^2 hatte G71 und RV670 und die hatten auch ein 256 bit SI. Hollywood im Wii hat sogar nur 16 mm^2. Ok der hat vieleicht auch nur ein 64 bit SI. Aber dennoch liegt mehr als Faktor 10 dazwischen.

AnarchX
2008-06-28, 11:26:33
Das kann ich mir nicht vorstellen. 19x mm^2 hatte G71 und RV670 und die hatten auch ein 256 bit SI. Hollywood im Wii hat sogar nur 16 mm^2. Ok der hat vieleicht auch nur ein 64 bit SI. Aber dennoch liegt mehr als Faktor 10 dazwischen.
Schon so vergesslich? :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6616683#post6616683

edit:
Starting point was the cost target. The initial specification was 150% over R600, however the engineering focus was area optimization, so once they got underway the efficiency gains mean we could be 8 SIMD's (200% R600); a little while later, due to further gains, GDDR5 and a couple of other things, we were pad limited at 8 again, so the additional 2 SIMD's were lobbed in. And I'm not complaining about that!

2B-Maverick
2008-06-28, 11:29:55
Und die Performance/Transistor ist wesentlich schlechter.

:confused:

1 Mrd Transis 80% Leistung HD4870
1,4 Mrd 100% GTX280

Wer ist hier besser pro Transistor?

robbitop
2008-06-28, 11:31:09
Schon so vergesslich? :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6616683#post6616683

edit:
Nicht vergesslich. Ich glaube ihm einfach nur nicht. Bzw nur bedingt. Unter den RV770 gegebenen Umständen schon. Aber ich halte es nicht für allgemein geltend. Das wäre mit Sicherheit nicht technisch unmöglich. GDDR5 nutzt m.W. doch nicht mehr Daten und Steuerleitungen als GDDR3. Die haben beim RV770 sich beim Layouting wohl vertan. Dann war es vieleicht schneller und billiger etwas höher zu skalieren, als komplett zu layouten. Das Ding ist immerhin in unter einem Jahr zusammengeschustert worden.

AnarchX
2008-06-28, 11:37:51
Das kann natürlich auch sein und dann stimmen vielleicht doch die 1000SPs eher, im Zusammenhang mit einem <200mm² Die.

reunion
2008-06-28, 11:42:59
Nicht vergesslich. Ich glaube ihm einfach nur nicht. Bzw nur bedingt. Unter den RV770 gegebenen Umständen schon. Aber ich halte es nicht für allgemein geltend. Das wäre mit Sicherheit nicht technisch unmöglich. GDDR5 nutzt m.W. doch nicht mehr Daten und Steuerleitungen als GDDR3. Die haben beim RV770 sich beim Layouting wohl vertan. Dann war es vieleicht schneller und billiger etwas höher zu skalieren, als komplett zu layouten. Das Ding ist immerhin in unter einem Jahr zusammengeschustert worden.

Natürlich ist es nicht allgemeingültig. Man darf ja auch nicht den Stromverbrauch vergessen, der bei RV770 für die Die-Größe relativ hoch ist, was natürlich mehr Pads bedeutet. Man darf auch nicht den neuen CF-Interconnector vergessen. Und GDDR5 verwendet AFAIk sehr wohl zusätzliche Steuerleitungen für Fehlerkorrektur. Bei etwas so primitivem wie dem Layoutig hat man sich wohl kaum vertan. Und RV770 wurde ein ganzes Jahr auf Effizienz optimiert, die Entwicklung begann von 2.5 Jahren.

Das kann natürlich auch sein und dann stimmen vielleicht doch die 1000SPs eher, im Zusammenhang mit einem <200mm² Die.

Die Vergangenheit hat gezeigt die Dies werden nicht kleiner. Vorallem da man auch RV870 im Performancesegment von 200-300$ verwenden will, wo das Die von RV770 eigentlich eh schon sehr klein ist. Der 40nm Prozess bietet hier natürlich enormes Potential, aber das ja für beide.

robbitop
2008-06-28, 12:39:54
Die hohe Packdichte des RV770 liegt wohl am architekturbedingten großen Anteil an SRAM. Immerhin in Summe 5 MiB.
Die hohe Leistungsaufnahme kommt m.E. durch die Versorgungsspannung und den Takt.

Jedenfalls erscheint mir der Bereich 200-250 mm^2 wahrscheinlich für den RV870. Da ist schon eine Leistungsverdopplung drin. Und hoffentlich ein anständiger Texturfilter.

DrumDub
2008-06-28, 12:45:23
Die hohe Leistungsaufnahme kommt m.E. durch die Versorgungsspannung und den Takt.
wohl in erster linie die spannung. 1,24v sind bei rv700 mit 55nm schon ne menge, wenn man das mit dem g92 vergleicht, der bei 65nm mit 1,1v auskommt.

reunion
2008-06-28, 12:47:58
wohl in erster linie die spannung. 1,24v sind bei 55nm schon ne menge, wenn man das mit dem g92 vergleicht, der bei 65nm mit 1,1v auskommt.

Hoher Takt kostet eben doppelt. Die 4850 läuft mit 1.086V.

Jedenfalls erscheint mir der Bereich 200-250 mm^2 wahrscheinlich für den RV870.

Selbst >300mm² würden mich nicht überraschen. Immerhin hatte schon ein G92 324mm².

DrumDub
2008-06-28, 12:58:32
Hoher Takt kostet eben doppelt. Die 4850 läuft mit 1.086V. ah, ok. ich kannte bisher nur den wert der 4870.

robbitop
2008-06-28, 13:04:07
Selbst >300mm² würden mich nicht überraschen. Immerhin hatte schon ein G92 324mm².
ATI will wirtschaftliche skalierbare Cores entwickeln. G92 war alles andere als wirtschaftlich. Bzw in einem anderen Preissegment. Sie täten gut daran, bei ihrer jetzigen Strategie zu bleiben.

reunion
2008-06-28, 13:08:27
ATI will wirtschaftliche skalierbare Cores entwickeln. G92 war alles andere als wirtschaftlich. Bzw in einem anderen Preissegment. Sie täten gut daran, bei ihrer jetzigen Strategie zu bleiben.


Wirtschaftlichkeit nützt nichts, wenn man nicht konkurrenzfähig ist. Siehe RV670. Und G92 war in keinem anderen Preissegment. Es gab nie einen G92 der über 299$ kostete. Mittlerweile bekommt man eine 8800GT für um die 100€.

robbitop
2008-06-28, 13:14:10
Wirtschaftlichkeit nützt nichts, wenn man nicht konkurrenzfähig ist. Siehe RV670. Und G92 war in keinem anderen Preissegment. Es gab nie einen G92 der über 299$ kostete. Mittlerweile bekommt man eine 8800GT für um die 100€.
Und du meinst, dass beim G92 bei der Größe die Margen noch stimmen? Die 8800GT war sicher ziemlich bitter für NVIDIA. Ob sie daran überhaupt noch was verdient haben, frage ich mich mittlerweile.

Wenn man vom Singlechip weg will, sollten die einzelnen GPUs nicht allzu groß werden.

AffenJack
2008-06-28, 13:50:37
>300mm² bei 40nm?
das wird amd niemals machen, denn wozu soll man dann noch auf mgpu setzen.
außerdem muss 40nm auch für anderthalb-2jahre herhalten und wenn man dann schon bei 300mm² anfangen würde, wirds schwer da ohne ziemliche vergrößerungen erhebliche mehrperformance zu erzeugen. Wozu sollte man sich die margen verhageln, wenn man eh nur ins 200-300$ segment will? würde auch 200-25mm² erwarten

GeneralHanno
2008-06-28, 13:52:34
aber der R800 soll als topmodell weiterhin "nur" auf 2 kerne (genauer: dies/dice) setzen ...

und das R600-design scheint recht hohe kosten für die verwaltung zu haben, die eigentlich ALUs sind aber recht billig ;)

spricht beides für ein die über 200mm² ...

Gast
2008-06-28, 14:42:51
Und du meinst, dass beim G92 bei der Größe die Margen noch stimmen? Die 8800GT war sicher ziemlich bitter für NVIDIA. Ob sie daran überhaupt noch was verdient haben, frage ich mich mittlerweile.



natürlich verdienen sie daran, vielleicht nicht so viel wie sie gerne würden, aber immer noch genug.

Gast
2008-06-28, 16:01:51
natürlich verdienen sie daran, vielleicht nicht so viel wie sie gerne würden, aber immer noch genug.

Naja, der G92 (ohne b) sollte wohl so 40 Dollar kosten wenn man mal 70% yield ansetzt und die Anzahl der GPUs vom RV770 runterskaliert: (5000 / (260/324 x 224))/0,7 = ~40 Dollar/G92.

Bei 100 Euro pro Karte ist die Marge wahrscheinlich nicht mehr rosig. Nvidia hat sich mit dem G92b nicht umsonst so beeilt.

Gast
2008-06-28, 17:06:30
:confused:

1 Mrd Transis 80% Leistung HD4870
1,4 Mrd 100% GTX280

Wer ist hier besser pro Transistor?

1 Mrd Transis 100% Leistung HD4850
0,75 Mrd 100% 9800GTX+

Nvidia ist hier klar besser.

reunion
2008-06-28, 17:08:43
1 Mrd Transis 100% Leistung HD4850
0,75 Mrd 100% 9800GTX+

Nvidia ist hier klar besser.

Wie verblendet muss man eigentlich sein? Wenn schon 9800GTX+ dann bitte auch mit der 4870 vergleichen. Sonst könnte man genauso die 8800GT nehmen. Und wie schon gesagt ist das völlig gleichgültig, AMD hat das kleinere Die und ist schneller.

Nakai
2008-06-28, 17:09:27
1 Mrd Transis 100% Leistung HD4850
0,75 Mrd 100% 9800GTX+

Nvidia ist hier klar besser.

Joa, aber nicht wenn man Chips miteinander vergleicht.


mfg Nakai

Gast
2008-06-28, 17:28:22
Joa, aber nicht wenn man Chips miteinander vergleicht.


mfg Nakai


Wie meinst du das?

Gast
2008-06-28, 17:33:04
1 Mrd Transis 100% Leistung HD4850
0,75 Mrd 100% 9800GTX+

Nvidia ist hier klar besser.
LOL
9800GTX+ mit HD4870 vergleichen, immer die höchsten Ausbaustufen.
0,75 vs 0.95 oder beide aufrunden ;)
So und jetzt rechne noch mal...

Nakai
2008-06-28, 17:39:36
Wie meinst du das?

(Ich hoffe du bist der gleiche Gast)
Du vergleichst Karten, indem du die GPUs auf den Karten vergleichst.
Nur ist die HD4850 nicht das Ende der RV770-Karten.


mfg Nakai

Gast
2008-06-28, 18:15:06
(Ich hoffe du bist der gleiche Gast)
Du vergleichst Karten, indem du die GPUs auf den Karten vergleichst.
Nur ist die HD4850 nicht das Ende der RV770-Karten.


mfg Nakai


Geht doch auch so nen Käse gar nicht ein. Das Spielchen läßt sich doch immer weiter treiben... G92 hat weniger Massepins -> ist also klar besser... :ulol:

robbitop
2008-06-28, 18:38:42
Wenn das ALU:TEX Verhältnis in Spielen höher wäre, würde RV770 und GT200 den G92/80 im Staub zurücklassen.

Gast
2008-06-28, 19:05:31
Wenn das ALU:TEX Verhältnis in Spielen höher wäre, würde RV770 und GT200 den G92/80 im Staub zurücklassen.


wenn der RV770 ordentlich filtern würde könnte er wahrscheinlich immer noch nicht mit der 2,5 jahre alten 8800GTX mithalten. (mich würden mal AI-off-tests interessieren, selbst das ist ja noch deutlich schlechter als NVs HQ, damit hätte die 4850 wohl nicht die geringste chance gegen die 9800)

sollen wir jetzt in spielen auf texturen verzichten nur damit ati gut dasteht?

Gast
2008-06-28, 19:07:58
Naja, der G92 (ohne b) sollte wohl so 40 Dollar kosten wenn man mal 70% yield ansetzt und die Anzahl der GPUs vom RV770 runterskaliert: (5000 / (260/324 x 224))/0,7 = ~40 Dollar/G92.

1. haben wir 0 ahnung über die verträge von NV/ATI mit TSMC. großabnehmer wie die beiden bekommen bestimmt deutlich bessere preise.

2. wie kommst du darauf, dass der yield lediglich bei 70% liegt? vor allem da NV auch beschädigte DIEs noch als 8800GT verkaufen können sollte dieser locker auf 90% kommen.

Aquaschaf
2008-06-28, 19:08:47
(mich würden mal AI-off-tests interessieren, selbst das ist ja noch deutlich schlechter als NVs HQ, damit hätte die 4850 wohl nicht die geringste chance gegen die 9800)

Mit AI-off ändert sich an der Qualität der Texturfilterung nichts mehr. Zumindest sieht es für mich so aus.

reunion
2008-06-28, 19:11:21
Wenn das ALU:TEX Verhältnis in Spielen höher wäre, würde RV770 und GT200 den G92/80 im Staub zurücklassen.

Von den Verbesserungen abgesehen hat ein GT200 nur gut 35% mehr Shaderleistung wie eine 9800GTX+. Die anvisierten Taktraten wurden wohl deutlich verfehlt, so Rechenleistungsstark ist ein GT200 also beileibe nicht.

wenn der RV770 ordentlich filtern würde könnte er wahrscheinlich immer noch nicht mit der 2,5 jahre alten 8800GTX mithalten. (mich würden mal AI-off-tests interessieren, selbst das ist ja noch deutlich schlechter als NVs HQ, damit hätte die 4850 wohl nicht die geringste chance gegen die 9800)

sollen wir jetzt in spielen auf texturen verzichten nur damit ati gut dasteht?

Q vs. AI_low ist vergleichbar, und das wird auch von nahezu allen Reviews verwendet. Schön das nV noch höherwertigere Modi anbietet, aber hier so zu tun als ob RV770 nur wegen der Filterung vorne liegt ist quatsch. Vorallem hat ein RV770 auch 40TMUs @ 750Mhz, das ist kaum weniger TEX-Füllrate als ein G80, also bleib mal am Teppich.

Mit AI-off ändert sich an der Qualität der Texturfilterung nichts mehr. Zumindest sieht es für mich so aus.

Es wird tri statt bri gefiltert AFAIK. Die Sampleoptimierungen bleiben allerdings.

Ronin2k
2008-06-28, 19:15:14
aua das tut ja schon weh, so ein müll zu reden...als wenn du da ein unterschied siehst, naja man kann auch das sehen was man sehen will nech :|



wenn der RV770 ordentlich filtern würde könnte er wahrscheinlich immer noch nicht mit der 2,5 jahre alten 8800GTX mithalten. (mich würden mal AI-off-tests interessieren, selbst das ist ja noch deutlich schlechter als NVs HQ, damit hätte die 4850 wohl nicht die geringste chance gegen die 9800)

sollen wir jetzt in spielen auf texturen verzichten nur damit ati gut dasteht?

Gast
2008-06-28, 21:55:38
aua das tut ja schon weh, so ein müll zu reden...als wenn du da ein unterschied siehst, naja man kann auch das sehen was man sehen will nech :|

du tust mir sehr leid wenn du keinen unterschied siehst, ein besuch beim augenarzt wäre vielleicht angebracht.

Ailuros
2008-06-29, 09:14:13
NV erkauft die bessere Auslastung der ALUs mit enormen Aufwand an Transistoren und Takt (Handarbeit). Ich sehe darin keinen Vorteil, sondern höchstens einen Nachteil. AMD erreicht in der Praxis eine wesentlich höhere Performance/mm² mit ihrem ALU-Design.

reunion es geht hier nicht ueber RV770 sondern ueber den naechsten Schub. Ich wiederhole nochmal dass ich mir bis jetzt ueber gar nichts sicher bin. Man kann auf einer Architektur auch nicht unendlich Einheiten dazukleben ohne an die Effizienz zu denken.


Das ist aber nur die Granularität. Das nützt nV in der Praxis genau gar nichts wenn AMD das mit "brute-Force" mehr als ausgleichen kann. Siehe den Test von xbitlabs.

Damien benutzt einen selbst entwickelten Test den er so "praxis-nah" wie moeglich entwickelt hat. In Damien's Test scheint sich nichts besonderes zwischen G80 und GT200 und ebenso zwischen RV670 vs. RV770 geaendert zu haben.

Vorallem hat ein RV770 auch 40TMUs @ 750Mhz, das ist kaum weniger TEX-Füllrate als ein G80, also bleib mal am Teppich.

Sind es wirklich 40 unter allen Bedingungen?

Es wird tri statt bri gefiltert AFAIK. Die Sampleoptimierungen bleiben allerdings.

AFAIK ist das brilineare Zeug sowieso dynamich im Algorithmus angelegt.

Schön das nV noch höherwertigere Modi anbietet, aber hier so zu tun als ob RV770 nur wegen der Filterung vorne liegt ist quatsch.

Gibt es irgendwelchen Beweiss bis jetzt der dafuer oder dagegen spricht? Ich moechte erstmal ueberzeugt werden von unabhaengigen Tests dass RV770 nur minimal einbricht wenn man zumindest die Mehrzahl der AF Optimierungen abschaltete, bevor ich jegliches als "Quatsch" abstemple.

Und damit wir mal das Ganze auf eine andere Basis legen: wuerde ich heute aufruesten waere ich schoen bloed wenn ich zu einer GTX280 und nicht einer 4870 greifen wuerde. Bei dem Preisunterschied druecke ich aeusserst gerne das eine Auge zu.

Gast
2008-06-29, 10:42:26
Q vs. AI_low ist vergleichbar, und das wird auch von nahezu allen Reviews verwendet. Schön das nV noch höherwertigere Modi anbietet, aber hier so zu tun als ob RV770 nur wegen der Filterung vorne liegt ist quatsch.

Nur, dass Q bei Nvdia keine zusätzliche Leistung bringt. Ohne die Filtertricksereien wäre der RV770 gut 20% langsamer als er jetzt zu sein scheint.

Gast
2008-06-29, 10:45:21
Nur, dass Q bei Nvdia keine zusätzliche Leistung bringt. Ohne die Filtertricksereien wäre der RV770 gut 20% langsamer als er jetzt zu sein scheint.

Aber mit Sicherheit bringt "Q" auf den Nvidia Karten mehr Leistung als die Einstellung "HQ". Sonst wäre sie auch gar nicht da.

Gast
2008-06-29, 10:53:04
Nur, dass Q bei Nvdia keine zusätzliche Leistung bringt. Ohne die Filtertricksereien wäre der RV770 gut 20% langsamer als er jetzt zu sein scheint.


Überhaupt ist das eine lächerliche Argumentation.

Die Frage ist doch, was nimmt man als Basis für die Leistungsmessung heran. Du sagst, BQ müsste auf Höchst-Niveau sein und dort verglichen werden. Dann sag ich, es sind nur Vergleiche mit 8xAA zulässig um die Leistungsfähigkeit einzuschätzen.
Jede Architektur hat ihre Stärken und Schwächen. Die Testbedingung könnten immer so gewählt werden, dass die eigene Architektur ihre Stärken ausspielen kann.

Gast
2008-06-29, 10:54:29
Aber mit Sicherheit bringt "Q" auf den Nvidia Karten mehr Leistung als die Einstellung "HQ". Sonst wäre sie auch gar nicht da.

Nein, diese Einstellung ist nur ein Überbleibsel aus den FX, NV4x und G7x Generationen. Dort bringt sie entsprechend Mehrleistung, auf den G8x/9x nicht mehr.

Ailuros
2008-06-29, 17:27:26
Überhaupt ist das eine lächerliche Argumentation.

Die Frage ist doch, was nimmt man als Basis für die Leistungsmessung heran. Du sagst, BQ müsste auf Höchst-Niveau sein und dort verglichen werden. Dann sag ich, es sind nur Vergleiche mit 8xAA zulässig um die Leistungsfähigkeit einzuschätzen.

Wenn man 8x sparse gegen 8x sparse MSAA vergleicht dann wird es auch keinen Einwand geben oder geben duerfen. Vergleiche ich aber 8x sparse gegen 16xCSAA ist dann jeglicher Einwand gerechtfertigt.

Wenn's sein muss hab ich kein einziges Problem wenn jemand AF Optimierungen aus mit 8x sparse MSAA auf beiden vergleichen wuerde. Nur hab ich eben das Gefuehl dass es in solch einem Fall den Radeons nicht besonders gut schmecken wuerde.

Jede Architektur hat ihre Stärken und Schwächen. Die Testbedingung könnten immer so gewählt werden, dass die eigene Architektur ihre Stärken ausspielen kann.

Stimmt grundsaetzlich schon. Aber jegliche Vergleiche muessen trotz allem so nahe wie moeglich aneinander liegen, sonst kann ich auch wie oben erwaehnt Bananen mit Birnen problemlos vergleichen.

Pfeif darauf wer am Ende von den beiden gewinnt oder verliert; meine einzige Unruhe an der ganzen Affaere ist ein weiterer Rueckschritt in der Zukunft was die Filterungsqualitaet betrifft.

Black-Scorpion
2008-06-29, 18:31:42
Warum sollte es den Radeon nicht schmecken? Die nV Karten verschlucken sich doch auch am 8x MSAA.
Und ich glaube nicht das der Einbruch beim AF auf einmal so viel größer wird wie der Einbruch bei nV mit 8x MSAA.

Ailuros
2008-06-30, 13:22:16
Warum sollte es den Radeon nicht schmecken?

Weil sie es mit echtem trilinear etwas schwerer haben werden.

Die nV Karten verschlucken sich doch auch am 8x MSAA.

Hat auch keiner bestritten.


Und ich glaube nicht das der Einbruch beim AF auf einmal so viel größer wird wie der Einbruch bei nV mit 8x MSAA.

Groesser nicht; nur wird der Unterschied mit 8xMSAA kleiner.

ein Noob
2008-07-01, 10:48:56
mal ne Noob-Frage: wenn der R870 ein Dual-Chip wird, arbeiten die beiden Cores dann wie einer, oder eher wie ein Crossfire bzw SLI - System?

Sorkalm
2008-07-01, 10:51:40
mal ne Noob-Frage: wenn der R870 ein Dual-Chip wird, arbeiten die beiden Cores dann wie einer, oder eher wie ein Crossfire bzw SLI - System?

Erstmal abwarten, wie das R700-Board arbeitet, bevor wir deine Frage angehen können. ;)
Die Entwicklung in der Zukunft wird wohl darauf hinauslaufen, dass irgendwann 2 GPUs als eine auftreten sollen - die Frage ist aber, wie schnell dieser Prozess verläuft.

HOT
2008-07-01, 11:03:36
Ist echt lustig, wie man sich über so ungelegte Filter-Eier streiten kann :D.
Wird zeit, dass sich mal jemand mit den neuen Chips auseinandersetzt. Aber ich denke, überraschend werden die Unterschiede doch eher gering ausfallen :D. Das ist eher wieder auf Aufhänger für Trolle...

Gast
2008-07-01, 13:40:14
mal ne Noob-Frage: wenn der R870 ein Dual-Chip wird, arbeiten die beiden Cores dann wie einer, oder eher wie ein Crossfire bzw SLI - System?

crossfire und SLI arbeiten mehr oder weniger identisch, die frage ist wird es wieder wie CF/SLI oder was neues.

Ailuros
2008-07-02, 23:06:55
Erstmal abwarten, wie das R700-Board arbeitet, bevor wir deine Frage angehen können. ;)
Die Entwicklung in der Zukunft wird wohl darauf hinauslaufen, dass irgendwann 2 GPUs als eine auftreten sollen - die Frage ist aber, wie schnell dieser Prozess verläuft.

R700 ist (wie auch geo auf B3D schon sagte) keine Revolution sondern eher eine (moderate) Evolution.

Was jetzt das zweite betrifft, ich bezweifle als Laie dass dieses ueberhaupt moeglich ist, lass mich aber gerne eines besseren belehren.

deekey777
2008-07-15, 11:33:29
Ich bin ein böser Crossposter:

AMD to launch 40/45nm GPUs in early 2009, RV870 is one of them (http://www.nordichardware.com/news,7946.html)
... Q1 2009. Somewhere around there, AMD will be giving the the final touches to its next "high-end" GPU RV870, using the same node. So far, the only thing we know about it is based on a lose rumor that says it will have 2000 shader processors. Considering the mere size of ATI's shaders, it's not unfeasible, but it's still too early too say anything really.

igg
2008-07-15, 11:43:41
Ich bin ein böser Crossposter:

AMD to launch 40/45nm GPUs in early 2009, RV870 is one of them (http://www.nordichardware.com/news,7946.html)
Wenn man das so liest geht es wohl nächstes Jahr richtig rund mit den GPUs. Wobei ich etwas überrascht bin, dass nach RV770 und GT200 (b) nochmal eine GPU-Generation vor den DX11 Chips kommt.

Gast
2008-07-15, 12:41:45
Ich bin ein böser Crossposter:

AMD to launch 40/45nm GPUs in early 2009, RV870 is one of them (http://www.nordichardware.com/news,7946.html)


Ich erwarte eigentlich keine 2000 SP's / RV870 sondern "nur" 1920 SP's + 96 TMU's bei einem Chip mit 280-290 mm² (wenn man einen fast perfekten Shrink annimmt).

<grins>

Diese hypothetischen Werte ergeben sich wenn man die vorhandenen Die-Größen mit den vorhandenen SP's und TMU's für RV630, RV670 und RV770 als Anhaltspunkt für den RV870 benutzt. Mal sehen ob es so kommt.

Achja, der RV730 hätte bei dieser Rechnung ca. 130 mm³ wäre also nur unwesentlich größer als der RV630 aber trotzdem um einiges schneller wie der RV670 (vor allem mit AA).

AffenJack
2008-07-15, 14:55:50
Wenn man das so liest geht es wohl nächstes Jahr richtig rund mit den GPUs. Wobei ich etwas überrascht bin, dass nach RV770 und GT200 (b) nochmal eine GPU-Generation vor den DX11 Chips kommt.

Naja bis dx11 dauerts ja auch noch etwas, wenn das jetzt präsentiert wird.
Dauerte es bei dx10 nicht etwa anderthalb jahre von der Präsentation bis es da war? Wenns so wieder anderthalb jahre werden würden, dann würde da erst anfang 2010 dx11 kommen und das immerhin nochn jahr unterschied zu den karten.Fudzilla meinte ja ende 2009, aber selbst das wären noch 6monate in den man dem konkurrenten wenn er was rausbringt, das feld überlassen würde

AnarchX
2008-07-19, 09:58:03
RV870:
- 960SPs
- ~140mm²
http://en.hardspell.com/doc/showcont.asp?news_id=3768

Wenn man zwei (oder mehr) Dies auf einen Träger bringen will vielleich gar nicht so verkehrt.
Zudem dürfte 40nm doch auch um einiges höhere Taktraten erlauben (~900MHz für XT?).

reunion
2008-07-19, 10:08:01
Wenn man auf AFR und geteilten VRAM verzichten kann wäre das natürlich Wahnsinn mit einem solchen Die alle Segmenten bedienen zu können. Irgendwo bei 140mm² dürfte auch das Optimum für einen Siliziumchip liegen was die Fertigung betrifft. Alles andere ergibt kaum einen Sinn, denn 140mm² ist in 2009 ja schon Lowend, bestenfalls unteres Midrage, als Performancechip wäre das mit Sicherheit viel zu wenig.

AnarchX
2008-07-19, 10:56:11
Bleibt die Frage, was NV dem entgegensetzen wird.

Mit 48TMUs/960SPs@900MHz und >2GHz GDDR5 könnte man nochmal gut 30% im Single-GPU-Bereich drauf setzen und wenn dann das neue MGPU-Konzept auch noch gut funktioniert und vielleicht im Berreich von 80% skaliert, wären das gute 50% gegenüber der HD4870X2 und ca. 2x GTX280-Leistung.

Eigentlich keine schlechte Leistung, wenn man einen Start im Q1 2009 schaffen würde.

Und man könnte sich auf D3D11 für Ende 2009 konzentrieren, was wohl dann wieder allein für das Featureset massig Transitoren verbrauch wird.

aylano
2008-07-19, 12:37:46
Wenn man auf AFR und geteilten VRAM verzichten kann wäre das natürlich Wahnsinn mit einem solchen Die alle Segmenten bedienen zu können. Irgendwo bei 140mm² dürfte auch das Optimum für einen Siliziumchip liegen was die Fertigung betrifft. Alles andere ergibt kaum einen Sinn, denn 140mm² ist in 2009 ja schon Lowend, bestenfalls unteres Midrage, als Performancechip wäre das mit Sicherheit viel zu wenig.
Warum sollte das mit Sicherheit zu wenig sein?
Die 55nm-Version ist jetzt (schon fast) High-End, wenn man vom den Dual-Karten absieht.

Es kommt mir irgendwie wenig vor, eine GPU neu zu designen (anstatt nur Shrink) und dann nur 20% schneller zu sein.
>Denn AMD/ATI hat nur begrenztes R&D<

Eher könnte ich mir sowas vorstellen wie reunion es erwähnt hat.
Irgendeine neue Verbindungs-Technologie der ersten Generation für Multi-GPU und die zweite Generation = Erfahrungen für weitere Optimierungen und "Entfernen der Kinderkrankheiten" wird dann in den neuen DX11-GPUs eingebaut.

Und wenn man dann schon deswegen einen neuen Chip entwirft, dann hat ATI gleich 20% mehr TMU & SP draufgeklatscht, damit sie vielleicht sogar schneller als Nvidia High-End-Single-GPU ist.
(Aber dafür müssten sie Nvidia-Roadmap schon länger gewusst haben?!)

Der Vorteil.
Das rechtfertigt viel eher eine R800-Serie bzw. HD 5000er-Serie als nur ein Shrink mit Mogel-Umbennenung, da sie etwas schneller & Technologisch fortschrittlicher wäre.

R600 ... R600-Design-Einführung mit DX10
R670 ... 55nm-Shrink + DX10.1 Vollendung
R770 ... R600-Transistor & Die-Flächen-Optimierung
R870 ... 45nm-Shrink + Mulit-GPU (neue Verbindungs-Technologie)
R9?? ... DX11-Design-Einführung

Aufgeteilt auf mehreren Schritten hat bei AMD ja auch immer besser funktioniert als die großen a la R600 & K10(-Quad)

Ailuros
2008-07-19, 16:13:19
RV8x0 (also das groesste single-chip Dingsbums) hat afaik einen 256-bit Bus und nicht 128-bit. Was den Rest betrifft ob das Ding nur um 25-30% schneller sein wird als RV770? Natuerlich nicht. Man waere ja schoen bloed wenn dem so waere; bei 40nm braucht man den RV770 einfach nur hoch genug takten und man hat ausgesorgt.

Gast
2008-07-19, 16:33:15
Hardware-Infos hat die Specs von Hardwarespell mal durchleuchtet und ist zum schlüssigen Ergebnis gekommen, dass die GT300-Infos definitiv ein Fake sind und dass die RV870-Infos stimmen können, aber nicht müssen:

http://www.hardware.kilu.de/?id=62

igg
2008-07-19, 17:05:44
RV8x0 (also das groesste single-chip Dingsbums) hat afaik einen 256-bit Bus und nicht 128-bit. Was den Rest betrifft ob das Ding nur um 25-30% schneller sein wird als RV770? Natuerlich nicht. Man waere ja schoen bloed wenn dem so waere; bei 40nm braucht man den RV770 einfach nur hoch genug takten und man hat ausgesorgt.
Wow... das wäre dann wirklich beeindruckend. Eigentlich nicht mal so dumm von ATI: Eine skalierbare Architektur entwerfen, stetig schrumpfen (mehr Platz für Shader und höhere Taktraten). Damit kann man auch bei geringem R&D Aufwand gute Resultate erzielen.

deekey777
2008-07-31, 16:29:49
ATI working on a DirectX 11 card (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8696&Itemid=1)

Dass ATi an einem D3D11-Chip arbeitet, ist klar, aber dass es gleich der Nachfolger ist?

Coda
2008-07-31, 16:42:20
Naja jetzt haben sie 3 Generationen mit dem gleichen Techlevel gelebt (R600 kann wahrscheinlich auch 10.1 wird aber durch die Treiber beschränkt, oder verfehlt es nur knapp).

Da finde ich das jetzt nicht so ungewöhnlich.

Gast
2008-07-31, 16:55:11
Da kommt aber doch noch eine Generation dazwischen oder will AMD/ATI allen Ernstens ein Jahr lang (eher ein zwei Monate mehr) mit absolut identischem LineUp fahren?

AnarchX
2008-07-31, 17:12:10
Vielleicht shrinkt man RV770 auf 40nm, was dann für Q1 bis Q2 09 sinnvoll wäre?

Jedoch klingt RV870 und D3D11 doch etwas seltsam, da es sich hier doch laut älteren Infos eher um den echten R700 mit seinen Multi-GPU-Konzept handeln sollte, der mit 4x nm entsprechend verschoben wurde und eben noch eine D3D10.1 GPU ist.

Zudem hätte ich für D3D11 von ATi und sowohl Nvidia neue Architekturen erwartet und nicht das man die alte Architektur nochmal aufbohrt und ein wohl nicht ganz günstiges Featureset "anflanscht", was dann Monate lang brach liegt.

Nakai
2008-07-31, 17:17:05
Vielleicht shrinkt man RV770 auf 40nm, was dann für Q1 bis Q2 09 sinnvoll wäre?


Würde zum 960SPs-Gerücht passen. RV770 auf 40nm + 2 SIMDs. An irgendwas muss man den 40Nm-Bereich auch testen.
Könnte als RV780 und als R780 kommen.


mfg Nakai

S940
2008-07-31, 17:27:45
Dass ATi an einem D3D11-Chip arbeitet, ist klar, aber dass es gleich der Nachfolger ist?
Naja komm ... das ist Fuad, der zugibt, dass er nix weiß:
We still don’t know the codename, but let's assume that the next generation performance / mainstream chip is codenamed RV870. This chip will likely have DirectX 11 support; at least this is what our sources believe at this time.

Wenn Fuad sagt, er wisse was, ists Spekulation, wenn Fuad sagt er weiß nichts dann ists ...

Wurden die beiden Entwicklerteams bei ATi nach der Fusion mit AMD aufgelöst ? Falls nicht hat er halt was vom Team der übernächsten Generation aufgeschnappt.

ciao

Alex

Gast
2008-07-31, 17:37:18
Die Entwicklung in der Zukunft wird wohl darauf hinauslaufen, dass irgendwann 2 GPUs als eine auftreten sollen - die Frage ist aber, wie schnell dieser Prozess verläuft.Wenn ich da bei dem thread (http://forum.beyond3d.com/showthread.php?t=48201) nicht was in den falschen Hals bekommen habe siehts wohl eher danach aus, dass MultiGPU in Zukunft der gleiche Krampf wird, der momentan die Ausnutzung von mehreren CPUs zu unerfreulicher Fleißarbeit mit bescheidenem Gewinn macht.
Aber gut, wäre immer noch besser als AFR. Nur was wäre das nicht?

Philipus II
2008-07-31, 18:22:05
Der Vorteil bei Multi GPU ist, dass der Treiber grundsätzlich die Kommandos gibt und die Grafikkarte diese ausführt.
Gibt der Treiber nun perfekte Anweisungen, bringt dies sehr viel.
CPU-Aufträge werden ja (ungefähr) direkt wie gestellt verarbeitet, da ist kein Treiber dazwischen der übersetzt.

Aquaschaf
2008-07-31, 18:27:37
Wurden die beiden Entwicklerteams bei ATi nach der Fusion mit AMD aufgelöst?

Die Geschichte dass es bei ATI/AMD 2 getrennte Teams gibt welche abwechselnd eine Generation beisteuern hat sich doch schon lange erledigt.

Zauberer
2008-07-31, 18:58:25
Vielleicht shrinkt man RV770 auf 40nm, was dann für Q1 bis Q2 09 sinnvoll wäre?

Jedoch klingt RV870 und D3D11 doch etwas seltsam, da es sich hier doch laut älteren Infos eher um den echten R700 mit seinen Multi-GPU-Konzept handeln sollte, der mit 4x nm entsprechend verschoben wurde und eben noch eine D3D10.1 GPU ist.

Zudem hätte ich für D3D11 von ATi und sowohl Nvidia neue Architekturen erwartet und nicht das man die alte Architektur nochmal aufbohrt und ein wohl nicht ganz günstiges Featureset "anflanscht", was dann Monate lang brach liegt.
Die Frage wäre, was ist wenn Anfang 2009 schon die genauen Spezifikationen von DX11 festliegen?
Das halte ich nicht für unrealistisch, dann könnte man noch auch für Anfang 2009 so einen Chip raus bringen, auch wenn es noch nicht einsetzbar wäre.

Die Frage ist, ob Intel auch einen DX11 Chip hat, falls nicht, wäre es doch Super von ATi, zu sagen wenn Intel in den Markt eintritt: "wir haben schon seit 9-12 Monaten DX11 Karten verkauft, jetzt wo DX11 da ist, unterstützt Intel nur DX10!"
Das wäre das Todesurteil im Grafikkartenmarkt gegen Intel.
Vielleicht denkt so ATi?

Wenn aber ATi wartet bis DX11 da ist, und innerhalb von 12 Monaten kommen die ersten Produkte auf dem Markt, dann hat auch Intel genug Zeit die Features "anzuflashen".

Besser ist schon ab Anfang 2009 voll auf DX11 und VISTA zu setzten, und mit M$ gemeinsame Sache zu machen.
Damit DX11 und die ATi Karten eine möglichst gute Verbreitung finden.
Dann könnte der Intel Larrabee eine Totgeburt sein, weil dann jeder Tester sich über die mangelnde DX11 Unterstützung beschweren wird.
Falls DX11 dann schon auf dem Markt ist.

Das ist so wie mit der Matrox Parhelia, die keine volle DX9 Unterstützung hatte und Jahre lang wurde die Szene von der ATi 9700 überschattet.
Das "könnte" ATi wieder gelingen.

Coda
2008-07-31, 19:00:54
Larrabee ist ziemlich sicher auch D3D11 fähig.

Gast
2008-07-31, 19:17:05
Der Vorteil bei Multi GPU ist, dass der Treiber grundsätzlich die Kommandos gibt und die Grafikkarte diese ausführt.
Gibt der Treiber nun perfekte Anweisungen, bringt dies sehr viel.So weit die (idealisierte) Theorie. Dass es in der Praxis ein wenig :naughty: komplizierter ist zeigt schon, dass ausgerechnet eine suboptimale Sackgasse wie AFR der normalerweise (eher fast ausschließlich) genutzte Modus ist. Bei der Volari Duo oder Multichrome kann ichs ja noch verstehen. Die brauchten MultiGPU bei minimaler Investition in SW und ohne jede Änderung an der HW, also nahmen sie die Billigmethode AFR. Aber NV und ATI sollten doch eigentlich besseres leisten können - nur schätze ich mal, effizientes SFR dürfte von den HW-Kosten in etwa dem Aufwand entsprechen, der bei CPUs für die OOOE betrieben wird. Also verlagert man das Problem (wie auch bei den CPUs durch Multicore) wieder zurück in die SW wenn ich den Thread auf b3d richtig verstehe. Alles IMHLO, selbstverständlich.

SavageX
2008-07-31, 19:18:16
Ohne mich wirklich mit der Materie beschäftigt zu haben (Achtung, unter dieser Prämisse kommen einfach die besten Aussagen zustande): Der Sprung von DX10 zu DX11 könnte hardwaremäßig ein eher verhaltener Hopser sein. DX10-Hardware ist ja weitgehend "einfach nur" ein Streamprozessorgedöns mit Sonderlocken für Rasterzeug (Verallgemeinerung, dass es wehtut). Meine Fantasie ist derzeit beschränkt genug, um zu vermuten, dass sich die Neuerungen darauf zu beschränken, etwas erweitert verbindindlich vorzuschreiben, was die derzeitige Hardware sowieso im Ansatz schon kann.

Coda
2008-07-31, 20:20:22
Was genau D3D11 vorschreibt ist noch nicht bekannt gegeben worden.

Und nein, zumindest die Tesselation kann zumindest NVIDIA-Hardware garantiert nicht.

SavageX
2008-07-31, 20:48:37
Und nein, zumindest die Tesselation kann zumindest NVIDIA-Hardware garantiert nicht.

Schon klar, aber wenn ATI den bisherigen Tesselator derzeit aus Spass an der Freude dazugibt, dann wird das Teil mit überschaubarem Aufwand realisierbar sein (auch wenn die DX11-Version vielleicht mächtiger ist).

Blacksoul
2008-07-31, 20:50:25
Schon klar, aber wenn ATI den bisherigen Tesselator derzeit aus Spass an der Freude dazugibt, dann wird das Teil mit überschaubarem Aufwand realisierbar sein (auch wenn die DX11-Version vielleicht mächtiger ist).

Die Einheit wird afaik schon seit dem R400 mitgeschleppt.


t.b.d

Ailuros
2008-08-01, 13:42:04
Kann mir jemand gefaelligst zeigen wo zum Henker in "R400"/Xenos/R600 und co. die angebliche "Tesselations-Einheit" in einem einfachen Diagramm stecken soll? Es handelt sich lediglich um zusaetzliche Faehigkeiten in den ALUs afaik und nein in so einem Fall laesst man das Zeug bleiben anstatt die ALUs von vorne wieder zu entwickeln.

Waere es eine tatsaechlich eine getrennte Einheit (was uebrigens IMHO als kompletter Schwachsinn ist in einem USC) dann waere ATI schoen bloed gewesen die nutzlose Schwerlast ueber so viele chips mitzuschleppen.

Gast
2008-08-01, 13:54:27
Es handelt sich lediglich um zusaetzliche Faehigkeiten in den ALUs afaik und nein in so einem Fall laesst man das Zeug bleiben anstatt die ALUs von vorne wieder zu entwickeln.
Kannst du das etwas ausführen? Insbesondere, warum Nvidia das dann nicht in ihrem USC ebenso handhaben kann, würde mich interessieren. So wie es jetzt dasteht, klingt das nach einem reinen Treiberfeature, oder braucht es eben doch zusätzlicher Transistoren in den einzelnen ALUs, so dass wieder von "mitschleppen" geredet werden kann?

V2.0
2008-08-01, 14:44:15
Er meint, dass ATI diese Fall die Fähigkeit im Ursprungsdesign 8R600) in die ALUs implementierte, sich allerdings, auf Grund es Aufwandes, dafür entschied diese (unnütze) Fähigkeit nicht mehr aus den ALUs zu entfernen, weil das neudesign zu weitreichend wäre.

Ailuros
2008-08-01, 14:56:29
Kannst du das etwas ausführen? Insbesondere, warum Nvidia das dann nicht in ihrem USC ebenso handhaben kann, würde mich interessieren. So wie es jetzt dasteht, klingt das nach einem reinen Treiberfeature, oder braucht es eben doch zusätzlicher Transistoren in den einzelnen ALUs, so dass wieder von "mitschleppen" geredet werden kann?

Wenn Du einen USC ALU bauen kannst die ueber VS/PS als Beispiel faehig ist, dann kannst Du auch anderen entwickeln die ueber VS/PS/GS oder sogar VS/PS/GS/Tesselation faehig sind.

Anders es handelt sich nicht um Treiberfeatures; nebenbei wenn ich mich nicht irre wenn man beim Xenos die Tesselations-Faehigkeiten uebersieht dann ist das Ding nichtmal voll D3D10 kompliant.

Die Frage ist immer noch ob das Tesselations-Zeug ab Xenos auch wirklich programmierbar ist; ich hab ein bisschen herumgefragt und Demirug ist nicht der einzige der an der Programmierbarkeit zweifelt. Nur beweisen kann es keiner. Auf jeden Fall waren Wavey's Behauptungen dass man nichts fuer D3D11 aendern muss bullshit.

Coda
2008-08-01, 15:03:50
Wenn es nicht programmierbar ist geht es aber auch wohl nicht durch die ALUs.

Ailuros
2008-08-02, 08:57:27
Wenn es nicht programmierbar ist geht es aber auch wohl nicht durch die ALUs.

Stimmt; nur ist es dann doch IMHO Bloedsinn zu behaupten dass es mehr gekostet haette das Zeug zu entfernen als es stehen zu lassen. In keinem ihrer Diagramme (ab Xenos und ja nun gut diese Diagramme sind auch meistens verdammt vereinfacht) steht irgendwas von dieser "Tesselations-Einheit" drin. Ich weiss zwar nicht ob es Sinn macht, aber ich werde den Verdacht nicht los dass das Zeug womoeglich zu dicht mit den jeweiligen shader arrays verstrickt ist.

crux2005
2008-08-02, 11:01:32
RV670:

http://s7.directupload.net/images/080802/lw4p3g5o.png

RV770:

http://s8.directupload.net/images/080802/sdsu9hft.png

laut AMD/ATi also ein Programmable Tessellator
was jetzt die realität ist wissen nur ATi Mitarbeiter

oder hast du nur die Xenos Block-Diagramme gemeint?

Ailuros
2008-08-02, 12:25:26
Die zwei hatte ich tatsaechlich uebersehen *grunz*

Mehr dazu: http://forum.beyond3d.com/showpost.php?p=1198532&postcount=92

Dumme OT Frage: wieso braucht man eigentlich auf einer GPU sowohl einen Geometry als auch einen Vertex Assembler? Schematisch sieht der Datenfluss im RV770 etwas umstaendlich aus. Was verpasse ich gerade?

Gast
2008-08-02, 14:38:55
zu dem RV870 und allen neuen GPU's CPU's etc gibt es in den aktuellen VDI-Nachrichten einen interessanten Artikel:


Silizium erreicht die Grenzen der Verkleinerung

Mit der 60-nm-Cmos-Generation erreichten die Chipbauer eine intrinsische Laufzeitverzögerung von 1,5 ps. Doch die Ingenieure ahnten schon, dass sie damit ausgereizt hatten, was physikalisch möglich ist. In der Tat zeigten Extrapolationen auf 40 nm und darunter für Cmos-Schaltungen keine Reduktion der Laufzeitverzögerungen mehr. Anders gesagt: Die Schaltungen können vielleicht noch kleiner werden, aber nicht mehr schneller. Und dann hätte das weitere Shrinken kaum mehr technische Vorteile.


Link: http://www.vdi-nachrichten.com/vdi-nachrichten/aktuelle_ausgabe/akt_ausg_detail.asp?cat=2&id=39630&source=aktuelle_ausgabe


Ergo; allzuviel sollte man sich von zukünfigen Chips was die Geschwindigkeit betrifft nicht erwarten.

Botcruscher
2008-08-02, 15:07:23
Bitte wie? Mit kleineren Bauteilen werden die Signallaufzeiten automatisch kürzer weil sich der Weg zwischen den Bauteilen verringert.

deekey777
2008-08-02, 19:34:29
RV870 codenamed "Lil Dragon", 40nm (http://www.nordichardware.com/news,7999.html)

The overall performance has been suggested to be somewhere around 20% better than RV770 with a significant drop in power consumption. This points to 960 shaders (192x5), 48 texture units, 40 ROPs and so forth.

Hm, 40 ROPs?

Gast
2008-08-02, 19:52:16
Juhu - endlich ein 640Bit-SI :ugly:

Gast
2008-08-02, 19:55:52
RV870 codenamed "Lil Dragon", 40nm (http://www.nordichardware.com/news,7999.html)



Hm, 40 ROPs?

Erst schreiben sie "a performance per watt ratio twice that of RV770". Also doppelter Leistung bei gleichem Stromverbrauch.
Dann schreiben sie was von 20% mehr Leistung.
Dann die Specs: +20% ALU, +50%TMUs, +150%ROPs.
Und dann eine TDP von 150 Watt.

Irgendwie passt hier nichts wirklich zusammen.

Gast
2008-08-02, 20:19:09
Bei den letzten Punkten magst du recht haben, lieber Gast, aber das hier schliesst sich nicht aus:Erst schreiben sie "a performance per watt ratio twice that of RV770". Also doppelter Leistung bei gleichem Stromverbrauch.Dann schreiben sie was von 20% mehr Leistung."Ratio" ist ein Verhältnis, auch angedeutet durch "perf. PER w". Wenn er also 20% mehr leistung hat, "verbraucht" er halt nur 60% des Stroms eines RV770 :)

Hvoralek
2008-08-02, 21:29:03
Erst schreiben sie "a performance per watt ratio twice that of RV770". Also doppelter Leistung bei gleichem Stromverbrauch.
Dann schreiben sie was von 20% mehr Leistung.
Dann die Specs: +20% ALU, +50%TMUs, +150%ROPs.
Und dann eine TDP von 150 Watt.

Irgendwie passt hier nichts wirklich zusammen.Es sind 20% mehr TMUs. Die ROPs liefern vll. wieder nur 2z, dann wäre die z- Füllrate auch nur 25% höher. Zudem sind die Taktraten unbekannt.

Wenn die 150W wieder eine richtige TDP- Angabe sind, dürfte das etwa 110W real unter Volllast bedeuten. Dann noch etwas höhere Taktraten oder/ und Architekturverbesserungen und man kommt auf die doppelte Pro- Takt- Leistung von RV770.

crux2005
2008-08-02, 22:52:39
40 ROPs sind imho Bloedsinn und ich kann mir beim besten Willen nicht vorstellen, das sie so einen Rückschritt bei den ROPs machen würden (4z/clock -> 2z/clock), auch wenn sie 40 Dinger hätten ...

Juhu - endlich ein 640Bit-SI :ugly:

nein, nicht unbedingt

Gast
2008-08-02, 23:09:24
Bei den letzten Punkten magst du recht haben, lieber Gast, aber das hier schliesst sich nicht aus:"Ratio" ist ein Verhältnis, auch angedeutet durch "perf. PER w". Wenn er also 20% mehr leistung hat, "verbraucht" er halt nur 60% des Stroms eines RV770 :)
Richtig.

Andererseits schreiben sie was von:
+20% performance
twice the performance per Watt ratio
150 Watt TDP at todays clocks


Zusammengerechnet passt das alles trotzdem nicht. HD4870-TDP ist 160 Watt. 150 Watt sind 93,75% davon, für "twice the perf/w ratio" müsste die RV870 dann aber 197,5% der RV770-Leistung bringen - soll aber 20 Prozent schneller sein???

Gast
2008-08-03, 00:13:47
http://www.hardware-infos.com/news.php?news=2266

Hier haben die das wunderbar erklärt. Doppelte Performance pro Watt-Verhältnis, heißt, ausgehend von 157 W (HD 4870) durch zwei teilen. Dann ist man bei 78,5 W. Nun dieses Ergebnis noch mit 1,2 multiplizieren, da ja die Leistungssteigerungen in dieser Höhe ausfallen sollen, dann kommt man auf 94,2 ~ 95 W.
Vermutlich sind also die geschätzten 150 W einfach nur ein Schätzfehler von "Nordichardware".

w0mbat
2008-08-03, 05:35:45
NH ht sich korrigiert, sie reden jetzt von 24 ROPs und die 150W sind mMn einfach nur geschaetzt. Aber es wuerde sehr gut passen: Sehr kleines Die, niedriges TDP und etwas mehr performance als der RV770, damit haette man das passende fuer eine multi-gpu architektur.

nVoodoo
2008-08-08, 13:00:18
http://www.tgdaily.com/content/view/38764/140/

It is apparent that many companies are bringing GPGPU-accelerated products to market, but AMD’s is going a somewhat different way as the company’s stream products will be aligned with DirectX 11 and OpenCL.
Koduri noted that a first product showcasing this strategy will be available in the first quarter of next year.

RV870 1Q09 mit D3D11 ?!

Gast
2008-08-08, 13:32:22
Jo, steht auch schon auf Hardware-Infos und Hardspell.

http://www.hardware-infos.com/news.php?news=2287

http://www.hardspell.com/doc/hard/79753.htm

Dann könnte Fuad mit seiner Prognose ja doch gar nicht so unrecht gehabt haben. ;)

Sorkalm
2008-08-08, 14:21:02
Moment: Bezieht der AMD-Mitarbeiter sich dort nicht auf die generelle Unterstützung freier Software und könnte nicht erstmal ein einfaches Produkt (z. B. OpenCL-Support) Anfang 2009 angeboten werden?

Cpl. Dwayne Hicks
2008-08-09, 06:06:24
RV870 codenamed "Lil Dragon", 40nm (http://www.nordichardware.com/news,7999.html)



Hm, 40 ROPs?


Wenn das alles stimmt wird der RV870 ein Flop.... also bs. :rolleyes:

Ailuros
2008-08-09, 08:20:24
Wenn das alles stimmt wird der RV870 ein Flop.... also bs. :rolleyes:

Falls es aber stimmen sollte dass RV870 zweimal so hohe Leistung pro Watt bietet im Vergleich zu RV770, dann schnallen sie einfach 2 cores fuer mainstream zusammen und dann eben 4 fuer high end. Wo Du jetzt irgendwelche Indizien von einem FLOP siehst ist eine andere Geschichte. Anders was hat NVIDIA im Aermel dazu als Antwort?

Gast
2008-08-09, 12:24:53
Mit den vier Cores habe ich mir auch schon gedacht, aber das wäre eventuell zu viel. Denke, wir nähern uns eher einer Drei-Kern-Lösung oder spricht dagegen etwas aus Software-Sicht?

Dass AMD auf dem RV870 mehr als zwei Kerne verbaut, drängt sich ja gerade zu auf. Man hätte locker auch 1280 SPs und 64 TMUs auf unter 200 mm^2 bringen können...

HOT
2008-08-09, 12:59:08
Damit wäre dann auch 1.) klar, dass der RV870 DX11 und OpenCL unterstützt und 2.) dass der RV870 im 1. Quartal erscheint:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/august/ati_cal_dx11/
Offizielle Aussage des CTO. DX11 ist also auch nicht mehr fern und das Ganze dürfte NV auch erheblich ins Schleudern bringen.

Gast
2008-08-09, 13:02:35
Damit wäre dann auch 1.) klar, dass der RV870 DX11 und OpenCL unterstützt und 2.) dass der RV870 im 1. Quartal erscheint:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/august/ati_cal_dx11/
Offizielle Aussage des CTO.
Noch weiß keiner, welche Hardware für welchen Techlevel von D3D11 notwendig ist. Ich halte es nicht für extrem unwahrscheinlich, dass D3D10/D3D10.1 Karten ausreichend für Compute Shader sind.

deekey777
2008-08-09, 13:26:09
Damit wäre dann auch 1.) klar, dass der RV870 DX11 und OpenCL unterstützt und 2.) dass der RV870 im 1. Quartal erscheint:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/august/ati_cal_dx11/
Offizielle Aussage des CTO. DX11 ist also auch nicht mehr fern und das Ganze dürfte NV auch erheblich ins Schleudern bringen.
Was man (von TGDaily) alles so hineininterpretieren kann...

http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543_15434~127451,00.html

AMD Drives Adoption of Industry Standards in GPGPU Software Development

− Plans full support of Microsoft DirectX® 11 and OpenCL to enable increased C/C++ cross-platform programming efficiency—

Sunnyvale, Calif. -- August 6, 2008 --AMD (NYSE: AMD) today announced efforts to help further increase the ease and efficiency of software development using AMD Stream™ processing with an extensive set of upgrades planned for future versions of the Stream Software Development Kit (SDK).


The improvements are designed to reduce the time and effort needed to produce GPU accelerated applications that run on multiple platforms, by expanding support for industry standard application programming interfaces (APIs) and providing enhanced support for C/C++.

Through a series of updates to the SDK scheduled over the course of the next 18 months, AMD plans to add full support for DirectX 11, the next-generation suite of advanced APIs from Microsoft.

DirectX 11 is expected to build upon the already outstanding performance of DirectX® 10.1 for 3-D graphics rendering and gaming control. It is also being designed to introduce a host of new technologies aimed at making it easier for programmers to create general purpose graphics processing (GPGPU) accelerated applications that can run on any Windows Vista® powered platform.

“Just as it ushered in the era of advanced 3-D gaming for the masses, DirectX is poised to be at the vanguard of the GPGPU revolution,” said Anantha Kancherla, manager of Windows desktop and graphics technologies, Microsoft. “DirectX 11 gives developers the power to more easily harness the astonishing capabilities of AMD GPUs for general purpose computation, and gives consumers an effortless way to experience all that AMD Stream has to offer, on the hundreds of millions of Microsoft Windows powered systems worldwide.”

As previously announced AMD is also supporting efforts to develop OpenCL as an open standard and plans to evolve the Stream SDK to be OpenCL compliant. Through equal support for both DirectX 11 and OpenCL, and by continuing to give developers the option of creating and using their own programming languages and high level tools, AMD is executing on a strategy designed to give programmers maximum choice and flexibility.

“Industry standards are essential to unlocking the compute potential of GPUs and driving broad adoption of this capability in mainstream applications,” said Rick Bergman, senior vice president and general manager, Graphics Product Group, AMD. “GPGPU is now moving past the era of closed and fully proprietary development chains. With the advent of DirectX 11 and OpenCL, C/C++ programmers worldwide will have standardized and easier ways of leveraging the GPU’s computational capabilities.”

AMD will also continue to enhance and support the Brook+ programming language, providing programmers a stable, high-performance platform for accelerating their applications.

Die Meldung von TGDaily:
In his speech GPG CTO Technology Day held in Iceland’s capital, Raja Koduri, CTO of AMD GPG (ex-ATI), announced that AMD believes that the time for proprietary software solutions such as AMD's own Close-to-Metal and Nvidia's CUDA has passed.
Vom "Ditchen" von CAL kann keine Rede sein. Denn Brook+ wird weiterentwickelt.
Koduri noted that a first product showcasing this strategy will be available in the first quarter of next year. Also, AMD is working on APU (Accelerated Processing Unit) at full speed, which is scheduled for debut in first half of next year.
CB:
Im gleichen Atemzug hat Raja Koduri angekündigt, dass ein entsprechendes Produkt (sprich eine Direct3D-11-Grafikkarte) bereits im ersten Quartal 2009 erhältlich sein wird, was wohl ohne Zweifel eher als gedacht ist. Gleichzeitig kann man dann davon ausgehen, dass der RV870, der Nachfolger zum Direct3D-10.1-Chip RV770, tatsächlich schon Direct3D-11-kompatibel sein wird. Darüber hinaus arbeitet AMD an einer APU (Accelerated Processing Unit), die im ersten Halbjahr 2009 fertig werden soll.

Aha...

Gast
2008-08-09, 18:37:35
Anders was hat NVIDIA im Aermel dazu als Antwort?

Ich denke mal zunächst einen gedoppelten Performance-Chip mit 192 SPs, 64 TMUs, 256 Bit @ GDDR5 in 55 nm und zu Beginn des dritten Quartals dann den GT300.

AnarchX
2008-08-18, 08:39:02
40nm RV870 is expected to release next year, are likely to be RV770 released after almost a year after release, that is, July and August of next year.
http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhard%2F79861.htm&hl=en&ie=UTF8&sl=zh-CN&tl=en

Das würde natürlich dafür sprechen, dass RV870 schon die D3D11-GPU ist und ATi für das Q1 noch einen RV7xx @4xnm vorbereitet, immerhin hat man es sich ja zum Ziel gesetzt, im 6-Monate-Zyklus im High-End eine neue GPU vorzustellen.

HPVD
2008-08-18, 09:25:09
http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhard%2F79861.htm&hl=en&ie=UTF8&sl=zh-CN&tl=en

Das würde natürlich dafür sprechen, dass RV870 schon die D3D11-GPU ist und ATi für das Q1 noch einen RV7xx @4xnm vorbereitet, immerhin hat man es sich ja zum Ziel gesetzt, im 6-Monate-Zyklus im High-End eine neue GPU vorzustellen.


das klingt doch sehr gut :-)

AnarchX
2008-08-18, 09:43:37
Zumal es die für RV870 spekulierten 140mm² auch erklären würde, die sich wohl eher auf RV780 beziehen, der einen RV770 mit eventuell 12 SIMDs in 4x nm darstellt, während RV870 wohl eher wieder in Richtung >200mm² geht, D3D11 wird wohl auch einige Transitoren benötigen und vielleicht tut man auch mal endlich einen größeren Schritt an der Architektur.

Sorkalm
2008-08-18, 10:49:51
140 mm² dürften bei einem RV780 wohl trotzdem zu wenig sein, wie will man denn da ein 256 Bit Interface und den Sideport anbringen?

reunion@work
2008-08-18, 10:58:39
Zumal es die für RV870 spekulierten 140mm² auch erklären würde, die sich wohl eher auf RV780 beziehen, der einen RV770 mit eventuell 12 SIMDs in 4x nm darstellt, während RV870 wohl eher wieder in Richtung >200mm² geht, D3D11 wird wohl auch einige Transitoren benötigen und vielleicht tut man auch mal endlich einen größeren Schritt an der Architektur.

RV8xx wird nach heutigem Kentnisstand eine Multi-Core-Architektur mit shared Memory und MCM-Bauweise. Da sind die 140mm² durchaus logisch. Im High-End nimmt man dann eben vier Cores. Zudem ist schon RV770 Pad limitiert, den kann man nicht einfach derart verkleinern.

Coda
2008-08-18, 13:01:47
Falls es aber stimmen sollte dass RV870 zweimal so hohe Leistung pro Watt bietet im Vergleich zu RV770, dann schnallen sie einfach 2 cores fuer mainstream zusammen und dann eben 4 fuer high end. Wo Du jetzt irgendwelche Indizien von einem FLOP siehst ist eine andere Geschichte. Anders was hat NVIDIA im Aermel dazu als Antwort?
"Einfach so" 4-way-AFR. Mach dich nicht lächerlich.

deekey777
2008-08-18, 14:01:25
"Einfach so" 4-way-AFR. Mach dich nicht lächerlich.
Warum muss es überhaupt AFR sein?

Gast
2008-08-18, 14:13:04
Weil andere Verfahren schon theoretisch nicht zu 100% skalieren können.

Adam D.
2008-08-18, 14:38:12
Weil andere Verfahren schon theoretisch nicht zu 100% skalieren können.
Was denn, wenn die 4 Kerne gar nicht zu 100% skalieren müssen. Vielleicht werden Verfahren entwickelt, die nicht wie jetzt bei AFR mit zunehmender Anzahl an Kernen schlechter skalieren, sondern von Kern zu Kern konstant 50-80% mehr Leistung bringen. Wie immer fehlt mir der technische Background, aber AFR ist für eine Multi-Die-Architektur doch völliger Blödsinn.

AnarchX
2008-08-18, 14:54:55
RV8xx wird nach heutigem Kentnisstand eine Multi-Core-Architektur mit shared Memory und MCM-Bauweise. Da sind die 140mm² durchaus logisch. Im High-End nimmt man dann eben vier Cores. Zudem ist schon RV770 Pad limitiert, den kann man nicht einfach derart verkleinern.
Für 4x nm würde man ohnehin nicht um ein Redesign kommen, was wohlmöglich die momentane Padlimitierung, sofern sie überhaupt stimmt, umgehen könnte.

Oder meinst du, dass der 140mm² RV8"7"0 nur ein 128-Bit SI hat?

"Einfach so" 4-way-AFR. Mach dich nicht lächerlich.
Momentan sieht es wohl eher nach zwei MCMs in 2-way-AFR aus.

reunion@work
2008-08-18, 14:57:01
"Einfach so" 4-way-AFR. Mach dich nicht lächerlich.

Wenn man schon den Speicher shared und damit ohnehin schnelle Verbindungen zwischen den Dice benötigt ist es naheliegend auch gleich etwas am AFR-Problem zu ändern und sich damit die Skalierungsprobleme und Treiberarbeit zu ersparen. Was spricht eigentlich gegen normales Supertiling bei shared Memory? Soweit ich weiß ist der Hauptgrund für die schlechte Skalierung Render-to-Texture und so Späße, die auf den Speicher der anderen GPU angewiesen sind. Wenn man dann ohnehin nur noch einen Speicher hat wäre das ja kein Problem mehr oder?

reunion@work
2008-08-18, 15:01:43
Oder meinst du, dass der 140mm² RV8"7"0 nur ein 128-Bit SI hat?

Warum nicht? Selbst ein 64-bit SI wäre denkbar. Es kommt nur darauf an wieviele Cores man zusammen schnallen will und ob man noch auf AFR angewiesen ist oder nicht. Wenn die Chips sich nach außen autonom verhalten könnte man so mit nur einem einzige Die sämtliche Marktsegmente abdecken.

aylano
2008-08-18, 16:25:48
Oder meinst du, dass der 140mm² RV8"7"0 nur ein 128-Bit SI hat?
Momentan sieht es wohl eher nach zwei MCMs in 2-way-AFR aus.
Für mich hat es am meisten Sinn, so wie ich es schon früh erwähnte, wenn der RV770-Shrink (mainstream) eine neue Verbindungs-Technologie für Multi-Core bekommt und damit aus zwei eine Performance-GPU (und sogar mit viel Core zu einem High-End-GPU) zusammenflickt wird und so agiert, wie wenn es ein Monolitische GPU wäre.

Je nachdem, wie die neue Verbindungs-Technologie funktioniert. Und wenn es nicht gscheit funktioniert, so wie das Sideport beim jetzigen RV770, so wird es eben abgeschaltet.
Dann kann man den RV770-Shrink in Frühjahr, je nach Preis, als Performance-GPU mit geringen Stromverbrauch (wie HD 38x0 und früher AFAIK die GTO-Serie) oder gleich als mainstream-GPU vermarkten.

Zwar hätte der RV770 dann nur eine 128-Bit-SI, aber bis dahin könnte es schon schnellere GDDR5-Chips geben, die dann trotz der 128-BIT-SI Schwäche, dann gegenüber der jetzigen High-End "Konkurrenz" dann doch nichts so extrem stark zurückfällt.

Und später (2Quartale) kommt dann eine DX11-GPU, die dann auch deutlich größer ist a la wieder ca. 250+mm²

Na ja, es klingt für mich irgendwie unlogisch, wenn die neue High-Tech (Performance-)GPU nur 140mm² hat und Multi-Core auf einmal perfekt funktioniert a la 4-Core-for-High-End.

Nvidia kocht ja auch nur mit Wasser und je nach Höhe liegt der Siedepunkt von Wasser eben woanders.
Gleichzeitig mit einem RV770-Shrink kann Nvidia nur den G92-Shrink rausbringen, aber weil die 40nm-Fertigung recht neu ist, können wahrscheinlich die Takte (vorallem Shader) nicht so extrem hoch geschaltet werden.
Und je größer die Die in 40nm, desto später (denk ich) kommt die dann am Markt und je kleiner wird dann der Abstand zur DX11-GPU.

Zu mindestens wirds spannend

dargo
2008-08-18, 18:05:27
Oder meinst du, dass der 140mm² RV8"7"0 nur ein 128-Bit SI hat?

Wenn diese Zusammenstellung:

Mainstream = 2x RV870
High-End = 3-4x RV870

stimmen sollte warum nicht? :)
Ich denke selbst in 2009 dürften 128-160GB/s (2-2,5Ghz GDDR5) Speicherbandbreite für Mainstream reichen. ;)

Ailuros
2008-09-01, 19:50:06
"Einfach so" 4-way-AFR. Mach dich nicht lächerlich.

Anarch hat womoeglich den richtigen Faden geschnappt.

reunion,

Was spricht eigentlich gegen normales Supertiling bei shared Memory?

Was den geteilten Speicher betrifft gar nichts; wo skaliert aber Geometrie besser bei AFR oder Supertiling und warum?

Total vereinfacht ist supertiling in etwa eine Kombination von macro- und micro-tiling; ob Du die macro-tiles jetzt so nennen willst oder "viewports" ist mir persoenlich egal. Im Prinzip wird aber am Ende so "gekachelt" wie auf jedem IMR.

Sorkalm
2008-09-06, 01:46:39
Ist eigentlich diese Folie bzgl. GDDR5 noch niemanden aufgefallen?

http://s3.directupload.net/images/080906/5rwdgwb8.jpg

Scheint so als würde wirklich 40nm direkt nach 55nm kommen.

Ailuros
2008-09-06, 08:17:51
Scheint so als würde wirklich 40nm direkt nach 55nm kommen.

01/05/08
http://www.beyond3d.com/content/news/636

Ich bin mir seither sicher dass AMD nichts anderes als 40nm fuer R8x0 verwenden wird. Bei der Konkurrenz sieht es hoechstwahrscheinlich auch nicht anders aus, obwohl ich trotzdem schaetze dass NV etwas spaeter damit ankommt da es sich um die neue Generation handelt.

AnarchX
2008-09-06, 13:04:15
Was soll denn das "No Dram solution" bedeuten? :|

Hakkerstiwwel
2008-09-15, 14:47:48
Was soll denn das "No Dram solution" bedeuten? :|
Dram ist eine Masseinheit.
Big is Bad vs No Dram, "No Dram" solution steht imo fuer schlank, lean, easy, kann aber auch heissen No "Dram Solution", ergo keine leichte Aufgabe.

Gast
2008-09-15, 15:57:34
evnt. auch dass es nicht von den normalen DRAMs kommt sondern eine eigenentwicklung ist ;)

Hakkerstiwwel
2008-09-15, 16:07:22
evnt. auch dass es nicht von den normalen DRAMs kommt sondern eine eigenentwicklung ist ;)
Glaube ich eher nicht. Da es sich um eine off. Folie hangelt stuende in dem Falle DRAM und nicht Dram.

Coda
2008-09-15, 16:33:46
GDDR5 ist aber praktisch eine ATI-Entwicklung. Evtl. heißt es auch, dass keine bisherige Lösung zu gebrauchen war. Aber ich versteh's auch nicht eindeutig.

Gast
2008-09-15, 17:06:39
Q4 2008? Ich behalt mal den Link um naechstes Jahr drueber lachen zu koennen. 40nm ja ;)

01/05/08
http://www.beyond3d.com/content/news/636

Ich bin mir seither sicher dass AMD nichts anderes als 40nm fuer R8x0 verwenden wird. Bei der Konkurrenz sieht es hoechstwahrscheinlich auch nicht anders aus, obwohl ich trotzdem schaetze dass NV etwas spaeter damit ankommt da es sich um die neue Generation handelt.

:)

igg
2008-09-15, 17:20:55
Q4 2008? Ich behalt mal den Link um naechstes Jahr drueber lachen zu koennen. 40nm ja
:)
Ich nehme an das bezog sich darauf, dass die Karten angeblich Q4 08 erscheinen.

Hakkerstiwwel
2008-09-15, 17:49:24
GDDR5 ist aber praktisch eine ATI-Entwicklung. Evtl. heißt es auch, dass keine bisherige Lösung zu gebrauchen war. Aber ich versteh's auch nicht eindeutig.
GDDR5 ist aber DRAM.
Der Sinn der Folie kann nur sein:
-wir wollten {no "Dram solution} = keine komplizierte, schwere Loesung mit 512 Bit
- wir wollten eine {"no Dram" solution} = eine einfache, leicht zu implimentierende.
Im Endeffekt kommt es auf das selbe hinaus.
Weniger glaubhaft fuer mich ist, dass zum Zeitpunkt der Entwicklung noch keine DRAM Loesung (no DRAM solution) verfuegbar war.

Gast
2008-09-15, 19:34:58
GDDR5 ist aber praktisch eine ATI-Entwicklung. Evtl. heißt es auch, dass keine bisherige Lösung zu gebrauchen war. Aber ich versteh's auch nicht eindeutig.


Verwechselst du da nicht GDDR4 und GDDR5? GDDR4 war ein ATi Eigengewächse. GDDR5 ist soweit ich weiß aber standardisiert.

no DRAM solution heißt aus meiner Sicht das noch keiner eine (vernünftige) Lösung dafür hat wie man einen kleinen 40nm Chip, der ja noch mehr functional units haben soll wie der RV770 (siehe Slide) vernünftig mit ausreichend Bandbreite versorgen kann.

Bei 40nm und damit vielleicht 150mm² bleibt aus heutiger Sicht ja nur ein 128bit Speicherinterface übrig. >100GB/sec bei 128bit sind wahrscheinlich wirklich ein Problem.

GeneralHanno
2008-10-03, 10:42:02
Rv8xx:
40 nm, DX11 und mehr GDDR5 bei ATI in 2009 (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/oktober/40_dx11_gddr5_ati_2009/)

http://pics.computerbase.de/2/3/0/3/2/1.jpg

Gast
2008-10-03, 13:28:23
Soweit nichts neues. Interessanter scheint hier der Hinweis auf DirectX 11 und Windows 7. So kann man sich eigentlich schon zusammenreihen, dass AMDs RV8xx-Generation DirectX 11-kompatibel sein wird.

Coda
2008-10-05, 14:41:26
Verwechselst du da nicht GDDR4 und GDDR5?
Nein. Die Hauptentwicklung von GDDR5 lag bei ATI. Es ist aber in der Tat standardisiert.

Ailuros
2008-10-05, 20:23:52
Soweit nichts neues. Interessanter scheint hier der Hinweis auf DirectX 11 und Windows 7. So kann man sich eigentlich schon zusammenreihen, dass AMDs RV8xx-Generation DirectX 11-kompatibel sein wird.

What to expect in 2009; es stets nirgends im slide was fuer H1 oder H2 genau erwartet wird.

nagus
2008-10-06, 08:22:11
AMD promises DirextX 11 and better PowerPlay with RV870, sources say (http://www.nordichardware.com/news,8196.html)

Ailuros
2008-10-06, 09:49:13
AMD promises DirextX 11 and better PowerPlay with RV870, sources say (http://www.nordichardware.com/news,8196.html)

Schoen....

Lil' Dragon, or RV870, is under much speculation right now. Facts are thin and whether we're looking at another spawn of R600 or if it is a whole new chip is being debated, but it looks like we're heading for another tweaked chip based on the R600 core, found beneath the massive cooler used by Radeon HD 2900 XT.

AMD's promise of DirectX 11 support points to that that the tesselation engine that has been more or less dormant inside R600, will now be activated, and that RV870 will sport Shader Model 5.0.

Nochmal das Tesselations-Dingsbums in R6x0/7x0 ist nicht genug fuer D3D11 Komplianz da es in 11 noch zwei zusaetzliche stages gibt fuer Tesselation was fuer alle IHVs zurueck zu den Kreide-tafeln vor einiger Zeit hiess und natuerlich alle anderen zusaetzlichen Aenderungen fuer D3D11 Komplianz. Der PPP in IMG's SGX ist programmierbarer als das Zeug und dennoch sehe ich auf deren roadmap Serie6 fuer's zweite Halbjahr 2009. Noch weiter werden hoechstwahrscheinlich alle IHVs einen kleineren Herstellungsprozess als 40nm benutzen (Intel LRB inklusive) und ich will ernsthaft bezweifeln dass RV8x0 irgend etwas damit zu tun hat.

Falls sie's schaffen Hut ab, aber ihr scheint alle zu vergessen dass RV870 eigentlich der originale "R700" ist und dass der originale D3D11/R800 um einiges verschoben wurde.

deekey777
2008-10-06, 13:19:30
Andererseits kann die "Tessellationseinheit" der R600-Generation über DX11 standardmäßig angesprochen (zumindest habe ich das so verstanden).

Ich tippe mal, dass der RV870 für GPGPU hinentwickelt wird/wurde, denn der RV770 hat ja schon einige Änderungen mit sich gebracht (CAL Compute Shaders).

Coda
2008-10-06, 13:26:33
Andererseits kann die "Tesselationseinheit" der R600-Generation über DX11 standardmäßig angesprochen (zumindest habe ich das so verstanden).
Nö. Man müsste alle D3D11-Features anbieten können damit das überhaupt funktionieren könnte. Und das können R6xx/R7xx sicher nicht.

AnarchX
2008-10-06, 14:39:22
Laut MS untersützt der Tesselator in Xenos(bzw. wohl auch R6xx/R7xx) einen Teil der D3D11-Features:
http://img134.imageshack.us/img134/9882/20080808750a72ea2a0e5fene0.jpg

reunion
2008-10-06, 14:44:35
Und der Tesslator wurde mit R7xx (und womöglich auch mit R6xx) nochmal überarbeitet.

Gast
2008-10-06, 14:51:17
Laut MS untersützt der Tesselator in Xenos(bzw. wohl auch R6xx/R7xx) einen Teil der D3D11-Features:



Seit D3D10 gibt es nur noch "ganz oder gar nicht".
Nur ein Teil der Features zu unterstützen nützt also nichts.

Siehe auch G8x und folgende, die einen Teil der D3D10.1 Features unterstützen.

Coda
2008-10-06, 15:16:05
Laut MS untersützt der Tesselator in Xenos(bzw. wohl auch R6xx/R7xx) einen Teil der D3D11-Features:
http://img134.imageshack.us/img134/9882/20080808750a72ea2a0e5fene0.jpg
Es gibt kein "teilweise" in D3D10 und 11. Entweder alles oder nichts.

deekey777
2008-10-06, 15:49:44
Es ging (mir) nicht um die Compliance, sondern darum, dass die TU der R600 jetzt über DX11 direkt benutzt werden kann.

Coda
2008-10-06, 15:51:35
Nein, kann sie nicht.

Gaestle
2008-10-06, 20:25:01
Und wie komplex wären die Änderungen, um das Ding DX11 konform zu kriegen? Kann ATi das schon für R8xx geschafft haben? Oder verbauen Sie zum vierten Mal Transistoren für ein Element, dass Ihnen nix nützt?

Coda
2008-10-06, 20:26:39
Halte ich für möglich, will mich aber nicht aus dem Fenster lehnen damit.

Ailuros
2008-10-06, 20:29:50
Es ging (mir) nicht um die Compliance, sondern darum, dass die TU der R600 jetzt über DX11 direkt benutzt werden kann.

Selbst wenn es so waere, welcher Entwickler wuerde sich ernsthaft hinsetzen und zwei paths schreiben, einen fuer ein ziemlich unflexibles subset und einen fuer eine um einiges programmierbarere Tesselations-Einheit?

Gast
2008-10-07, 18:42:58
AMD promises DirextX 11 and better PowerPlay with RV870, sources say (http://www.nordichardware.com/news,8196.html)

Wenn ich diese Spekulation danach beurteile wie gut bzw. schlecht die Spekulationen von Nordichardware beim RV770 waren würde ich mal sagen; kannst komplett in die Tonne treten. Beim RV770 lagen sie meilenweit daneben; warum sollten ihre "Quellen" wenn sie überhaupt welche haben jetzt besser sein.

w0mbat
2008-10-07, 18:55:14
@Gast: Ähm, NH waren die einzigen die die Daten des RV770 richtig hatten, alle anderen lagen daneben. Da musst du was verwechselt haben.

Dural
2008-10-07, 20:06:41
Nein. Die Hauptentwicklung von GDDR5 lag bei ATI. Es ist aber in der Tat standardisiert.

Glaub ich nicht, Quelle? Bei GDDR4 war das der fall, aber bei GDDR5 :rolleyes:

Gerade NV war die einzige Firma die von GDDR4 nichts hören wollte und immer gesagt hat das sie gleich auf GDDR5 wechseln werden wenn es soweit ist und ATI hat sich damals aber auf GDDR4 konsentriert, also macht deine Aussage nicht wirklich viel Sinn.

Hier in der News wird ja auch immer behauptet das GDDR4 auf DDR3 Basiert, das ist aber Falsch, da es wie GDDR3 auf DDR2 Basiert.

Schlammsau
2008-10-08, 09:23:50
Glaub ich nicht, Quelle? Bei GDDR4 war das der fall, aber bei GDDR5 :rolleyes:

Gerade NV war die einzige Firma die von GDDR4 nichts hören wollte und immer gesagt hat das sie gleich auf GDDR5 wechseln werden wenn es soweit ist und ATI hat sich damals aber auf GDDR4 konsentriert, also macht deine Aussage nicht wirklich viel Sinn.

Hier in der News wird ja auch immer behauptet das GDDR4 auf DDR3 Basiert, das ist aber Falsch, da es wie GDDR3 auf DDR2 Basiert.
War GDDR4 nicht eine komplette Eigenentwicklung seitens ATi?
Wenn ja, durfte nVidia höchstwahrscheinlich keinen GDDR4 verwenden.

Chris2CB
2008-10-08, 09:39:47
War GDDR4 nicht eine komplette Eigenentwicklung seitens ATi?
Wenn ja, durfte nVidia höchstwahrscheinlich keinen GDDR4 verwenden.



Aber sicher doch, ATI hat die Teile Sogar in ihrer eigenen Fabrik hergestellt........:rolleyes:

Nvidia wird das wohl zu teuer gewesen sein und mit GDDR3 sind diese ja auch gut gefahren.

AnarchX
2008-10-08, 09:49:03
GDDR4 war eine Gemeinschaftstentwicklung von Samsung und ATi, aber die ja bekanntlich weniger erfolgreich war, wenn man sich die ausgelieferten Taktraten, den Stromverbrauch und die Leistung im Vergleich zu GDDR3 anschaut.

Auch bei GDDR5 war AMD federführend:
AMD's graphics division is at it again now with GDDR5. Working together with the JEDEC standards body, AMD expects this new memory type to become quite popular and eventually all but replace GDDR3. Though AMD plans to be the first with graphics cards using GDDR5, the planned production by Hynix, Qimonda, and Samsung speak to the sort of volumes that only come with industry-wide adoption. Let's take a look at the new memory standard and what sets it apart from GDDR3 and GDDR4.
http://www.extremetech.com/article2/0,2845,2309870,00.asp

Schlammsau
2008-10-08, 10:26:11
GDDR4 war eine Gemeinschaftstentwicklung von Samsung und ATi, aber die ja bekanntlich weniger erfolgreich war, wenn man sich die ausgelieferten Taktraten, den Stromverbrauch und die Leistung im Vergleich zu GDDR3 anschaut.

Auch bei GDDR5 war AMD federführend:

http://www.extremetech.com/article2/0,2845,2309870,00.asp

Darf dann nVidia so ohne weiteres auf GDDR5 zugreifen?

Gast
2008-10-08, 10:53:08
Natürlich dürfen die das, es ist ein offener Standard.

Sorkalm
2008-10-08, 16:12:56
Auch bei GDDR3 war ATI schon federführend bei der Entwicklung dabei ... also das ist nichts wirklichh neues.

Gast
2008-10-10, 20:20:42
@Gast: Ähm, NH waren die einzigen die die Daten des RV770 richtig hatten, alle anderen lagen daneben. Da musst du was verwechselt haben.

So, jetzt hatte ich mal Zeit die alten News über den RV770 auf Nordichardware durchzusuchen. Anbei eine Auswahl an URL's die zeigen das Nordichardware bis Mai noch ziemlich ahnungslos waren (zumindest aus meiner Sicht):

6. Juni 2008: http://www.nordichardware.com/index.php?news=1&action=more&id=7840 [AA <-> AF]
19. Mai 2008: http://www.nordichardware.com/index.php?news=1&action=more&id=7755 [Performance + 480 Shader]
1. April 2008: http://www.nordichardware.com/index.php?news=1&action=more&id=7585 [480 Shader; 830 Mio Transistors; 32TMUs]
28. März 2008: http://www.nordichardware.com/index.php?news=1&action=more&id=7575 [480 Shader; AA schlecht ...]

Nur die wichtigsten News seit Ende März. Die News die ich ausgelassen habe waren die über die >1GHz GPU Geschwindigkeit und die akurate News über die Lüfter (übrigens IMHO die einzige richtige News über den RV770). Wenn du es mir nicht glauben willst such selbst auf Nordichardware nach "RV770".

Ergo hat für mich Nordichardware nicht besonders gute Verbindungen zu ATI/AMD bzw. Leuten die was über die Sachen wissen.

Tytator
2008-10-12, 15:19:31
Aber sicher doch, ATI hat die Teile Sogar in ihrer eigenen Fabrik hergestellt........:rolleyes:

Nvidia wird das wohl zu teuer gewesen sein und mit GDDR3 sind diese ja auch gut gefahren.

ATI besitzt keine Fabrik, sondern ist ein fabrikloses Forschungsunternehmen, dass seine Produkte von anderen Firmen zusammenbasteln lässt. Für eine kanadische Firma wie ATI wäre es auch zu teuer in der Heimat zu produzieren.

w0mbat
2008-10-12, 18:46:32
@Gast: Du hast die News anscheinend nicht gelesen. zB bei der News am 1.4. geht es darum dass der RV770 vielleicht nicht wie angenommen 480SPs sonder 800SPs hat. Du schreibst in deiner Auflistung dahinter die News würde 480SPs sagen.

Außerdem wird das meiste als Apeku gekennzeichnet.

Black-Scorpion
2008-10-12, 18:51:19
ATI besitzt keine Fabrik, sondern ist ein fabrikloses Forschungsunternehmen, dass seine Produkte von anderen Firmen zusammenbasteln lässt. Für eine kanadische Firma wie ATI wäre es auch zu teuer in der Heimat zu produzieren.
Den Smiley hast du aber gesehen?
Er weiß sicher das ATI keine Fab besitzt.
Die andere Firma ist übrigens Sapphire. ;)

Gast
2008-10-13, 13:09:24
@Gast: Du hast die News anscheinend nicht gelesen. zB bei der News am 1.4. geht es darum dass der RV770 vielleicht nicht wie angenommen 480SPs sonder 800SPs hat. Du schreibst in deiner Auflistung dahinter die News würde 480SPs sagen.

Außerdem wird das meiste als Apeku gekennzeichnet.


Doch, die News habe ich schon gelesen. Aber anscheinend unterschiedlich zu dir interpretiert.

Für mich hört sich diese News so an als ob sie sagen wollen "die Chinesen sagen es sind 800 Shader aber eigentlich glauben wir das nicht"
Ich mache das an folgender Passage auf:

"We've reported on more than one occasion that the number of unified shaders would be bumped to 480 shader processors, whereas our Eastern friends are elaborating that they will instead increase by 480. This means that the RV770 would actually feature 800 unified shaders. This may sound like a bizarre increase, but I will try to walk you through their reasoning."

Für mich sagt diese Passage klar aus, "wir glauben den Chinesen eigentlich nicht aber wir schreiben mal drüber". ;)

AnarchX
2008-10-24, 15:21:24
"Infos" zu RV870 (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/83-rv870-neue-details?lang=de):
- 205mm²
- 1000SPs
- eine SKU mit 1.5TFLOPs

Sorkalm
2008-10-24, 15:31:04
- 1000SPs
- eine SKU mit 1.5GFLOPs

Das sind ja wieder 750 MHz Takt...

205 mm² erscheinen mir dafür in 40 nm aber relativ groß. Da dürfte doch noch etwas geändert wurden sein.
Aber erstaunlich das AMD eine so kleine Die-Größe gewählt hat...

reunion
2008-10-24, 15:40:24
Ob das gut oder schlecht wäre hängt u.a. davon ab ob DX11-Support an Board ist wie hier angegeben.

Sorkalm
2008-10-24, 15:52:56
Ob das gut oder schlecht wäre hängt u.a. davon ab ob DX11-Support an Board ist wie hier angegeben.

Hmm, aber bringt das mehr Leistung? ;)
Ein Checklistenfeature bringt ja nicht soviel...

deekey777
2008-10-24, 15:53:57
Vermutung:
Wegen DX11 und der programmierbare(re)n Tessellation sind bestimmt einige Transistoren hinzugekommen, dann wäre es möglich, dass der RV870 (noch) mehr "CUDA-like" sein wird (dieses Shared-Memory-Teufelszeug).

1,5 TFLOPs? Ich tippe mal, dass man bei "16-way"-SIMDs bleibt. Bei 750 MHz bräuchte man 12-13 solcher SIMDs.

Gast
2008-10-24, 17:02:44
In der News ist noch von Multi-GPU die Rede. Also auf dem RV870 sitzen gleich zwei dieser Chips?

Man schreibt dort auch noch von Quad-GPUs...

Sorkalm
2008-10-24, 19:11:08
In der News ist noch von Multi-GPU die Rede. Also auf dem RV870 sitzen gleich zwei dieser Chips?

Ne, nach der News sollen zwei der RV870s auf einem MCM (Multi-Chip-Module) zusammengefasst werden, also zwei Dice wie beim Intel Core 2 Quad in einen äußerlichen Chip gebracht werden.

Die Frage wäre dann noch, wie man diese beiden sich naheliegenden Dice miteinander verbindet, muss ja irgendwas mit einer verdammt hohen Bandbreite sein - deutlich höher als Intels FSB beim C2Q.

Gast
2008-10-24, 20:02:20
Vielleicht sitzt da einfach noch ein PCIe-Switch mit drauf. Was anderes als CF-on-Chip erwarte ich da nicht.

w0mbat
2008-10-24, 20:12:10
die infos zum rv870 sind zZt noch etwas aus der luft gegriffen, ähnlich wie´s beim rv770 war. wartet noch etwas ab.

Gast
2008-10-24, 20:31:58
"Infos" zu RV870 (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/83-rv870-neue-details?lang=de):
- 205mm²
- 1000SPs
- eine SKU mit 1.5TFLOPs

an der news ist nichts neu. die infos gab es schon vor monaten.

Sorkalm
2008-10-24, 21:23:17
an der news ist nichts neu. die infos gab es schon vor monaten.

Sollte das nen Trollversuch sein? So konkrete Infos, insbesondere die Die-Size wollte noch keiner zu glauben wissen.

Ailuros
2008-10-25, 09:07:14
die infos zum rv870 sind zZt noch etwas aus der luft gegriffen, ähnlich wie´s beim rv770 war. wartet noch etwas ab.

Es schwirren von Anfang an zwei Thesen herum; eine spricht von doppelt so viel ALUs als RV770 und einer "universalen Frequenz" und eine mit nur 20% mehr ALUs als RV770 und um einiges hoeherer Frequenz fuer die ALUs.

Die These in Anarch's Link spricht wohl eher fuer den zweiten Fall und natuerlich wenn dem so sein sollte kostet es etwas mehr an Transistoren bzw. die space. IMHLO liegen in solch einem Fall die 205 Quadratmillimeter nicht ausserhalb des moeglichen.

So oder so angenommen 205mm^2 und 1.5TFLOPs sollten stimmen, will ich ernsthaft bezweifeln dass NV so viel TFLOPs mit nur 205mm^2@40nm erreichen koennte.

Und nein ich glaube keinesfalls dass RV870 nur um ca. 25% schneller sein wird als RV770. Sie spielen intern schon ueber 2 refreshes mit den Frequenzen herum und falls sie das Zeug tatsaechlich benutzen, erwarte ich um einiges mehr Zusatz.

***edit: egal welche These von den beiden obrigen, nehme ich AMD den Hut ab falls sie gleichzeitig X mehr Leistung und D3D11 Komplianz in die hypothetischen 205mm^2 gequetscht haben.

Mal anders interpretiert: sollten es 1000SPs mit =/>RV770 Frequenz und D3D11 sein, dann haben sie zwar um ein Halbjahr den Vorsprung der Komplianz fuer den Kartonkleber, verschenken aber um einiges an Leistung zur Konkurrenz. Und ich bin mir um 99,999999999999999999999% sicher dass GT3x/D3D11 nicht vor ~Q4 2009 erscheinen wird.

aylano
2008-10-25, 12:21:14
Es schwirren von Anfang an zwei Thesen herum; eine spricht von doppelt so viel ALUs als RV770 und einer "universalen Frequenz" und eine mit nur 20% mehr ALUs als RV770 und um einiges hoeherer Frequenz fuer die ALUs.
...
Und ich bin mir um 99,999999999999999999999% sicher dass GT3x/D3D11 nicht vor ~Q4 2009 erscheinen wird.
Generell:
Ich bin immer noch der Meinung, ATI bringt eben beide Grafikkarten-Gerüchte heraus.
Ersteres ein RV770-Shrink (+20% mehr Shader a la schnelle Platzauffüllung?), mit den Versuch einer neuen Verbindungstechnologie a la Two-Die-in-one-Gehäuse, die bei Fehlschlag dann nicht benutzt wird ala Side-Port.
Zweiteres später den RV870 mit DX11 & doppelt so vielen Shaders wie die RV770 und mit vielleicht schon funktionierender Verbindungstechnologie.

Ersteres 200mm²-(128 oder) 256Bit-SI, zweiteres 260mm² mit 256BitSI

Wenn RV870 erst recht spät kommt a la 3 oder 4 Quartal 2009, dann macht es Sinn, schon früher Erfahrungen in 40nm zu machen a la 2Q.
Vielleicht auch schon im Performance-Bereich, wo man nur dort die neue Verbindungstechnologie auch gleich in der Praxis ausprobiert.
Sonst wird 40nm höchstwahrscheinlich in Low-End und mainstream-Bereich eingeführt, da die DX11-Versionen höchstwahrscheinlich wieder mindestens 3 Monate später am Markt kommen. Schließlich sind in diesem Marktsegment kleinere Dies (höhere Performacen/Watt) und billigere Produktionskosten sowieso viel wichtiger als die neuste DX-Technologie.

IMO ist es ein viel zu großer Schritt, wenn AMD DX11 in 40nm sowie eine neue Verbindungstechnologie gleichzeitig eingeführt wird. Das hört sich ja fast nach K10-Quad an.
Zwar hat AMD in letzter Zeit schon oft große Schritte gemacht, aber sie sind auch schon oft gegen die Wand gefahren.
Und wenn dann per RV770-Shrink ein Zwischenschritt gemacht wird, dann "muss" die neue DX11-GPU mit ca. 50% deutlich schneller sein, als der 40nm-Vorgänger.

AMD hat wegen dem kleinen Die viele Trümpfe in der Hand, deren Vorteile sie jetzt ausnützen können a la frühe Einführung von 40nm und somit können sie vielleicht im Gegensatz zu Nvidia noch einen Zwischen-Schritt einführen, da der Abstand zwischen GT300 und 40nm-GT200-40nm-Shrink für Nvidia dann schon sehr knapp wird.

Quad-GPU an einer Karte halte ich für Unrealistisch.
HD 4xx0-X2 bzw. CrossfireX funktioniert auch nicht so gut a la Effizient & Micro-Ruckler und das nach wie vielen Jahren???
Und jetzt soll AMD/ATI eine Verbindungs-Technologie zaubern, die vielleicht zu 100% und ohne Micro-Ruckler funktioniert und aus 2 Die virtuell wie eine Die arbeitet???
Und AMD soll das schaffen, nachdem SidePort nicht funktionierte.
(Am Einfachsten wäre gleich, diese Technologie mit 40nm und DX11 einzuführen).

Die Realität (=Vergangenheit) zeigte, es ist nicht einfach neue Technologien einzuführen. Vor allem bei AMD siehe SB700 & integrierter Taktgenerator oder "Hybrid-Power" oder K10 oder Sideport.
Das Braucht halt Zeit.
Crossfire wurde auch weiterentwickelt und später kam CrossfireX (=ohne Kabel, sowie Tripple & Quad & Hybrid-Grafiks)
Ich kann man noch gut an die ersten HD 2xx0 X2-Karten (erste Versuche mit AFAIK HD2600-X2 Karten) erinnern, die am Anfang schön belächelt wurden und heute ist so ein X2-Ding die "Stärkste Karte".

Man darf einfach nicht zu viel erwarten.

Ailuros
2008-10-25, 20:48:35
Wer sagt dass AMD fuer D3D11 40nm benutzen wird? (ehrliche Frage).

Wie dem auch sei RV870 ist afaik fuer Anfang Q2 projeziert.

AMD hat wegen dem kleinen Die viele Trümpfe in der Hand, deren Vorteile sie jetzt ausnützen können a la frühe Einführung von 40nm und somit können sie vielleicht im Gegensatz zu Nvidia noch einen Zwischen-Schritt einführen, da der Abstand zwischen GT300 und 40nm-GT200-40nm-Shrink für Nvidia dann schon sehr knapp wird.

Der ganze Spass soll mit nur hypothetischen 60 Quadratmillimeter mehr gegenueber RV870 sowohl D3D11 Komplianz als auch eine gesunde Leistungssteigerung garantieren?

Von dem abgesehen scheint die Mehrzahl hier und anderswo zu vergessen dass fuer D3D11 auch Intel mitmischen wird. Larabee@40nm? Errrr...... :|

Hvoralek
2008-10-25, 21:56:15
Es schwirren von Anfang an zwei Thesen herum; eine spricht von doppelt so viel ALUs als RV770 und einer "universalen Frequenz" und eine mit nur 20% mehr ALUs als RV770 und um einiges hoeherer Frequenz fuer die ALUs.Sollte die Top- SKU dann nicht deutlich über 1,5 TFLOPS liegen? Das ist 1/4 mehr als eine 4870. Wenn RV870 doppelt so viele Vec5- MADD- ALUs hat, dürften die nur mit ~450 MHz laufen. Wenn es nur 20% mehr sind, wären es etwa 800 MHz für die ALUs und deutlich weniger für den übrigen Chip :|

Wer sagt dass AMD fuer D3D11 40nm benutzen wird? (ehrliche Frage).AMD plant D3D11 offenbar für irgendwann im Jahr 2009 ein. Ist in der Zeit bei TSMC schon mit noch kleineren Strukturen für GPUs zu rechnen?

aylano
2008-10-25, 23:25:32
Wer sagt, dass AMD für D3D11 40nm benutzen wird? (ehrliche Frage)???
Keine Ahnung.
Meinst du RV870 könnte in 55nm kommen??? a la R600 (80nm) RV610 (65nm) RV630 (65nm)

Ailuros
2008-10-26, 09:23:11
Sollte die Top- SKU dann nicht deutlich über 1,5 TFLOPS liegen? Das ist 1/4 mehr als eine 4870. Wenn RV870 doppelt so viele Vec5- MADD- ALUs hat, dürften die nur mit ~450 MHz laufen. Wenn es nur 20% mehr sind, wären es etwa 800 MHz für die ALUs und deutlich weniger für den übrigen Chip :|

Wie gesagt diese zwei Thesen gab es bis jetzt. Zusaetzlich gibt es ja dann noch die These von bis zu 4 chips fuer high end. Waeren in solch einem Fall 3.0TFLOPs fuer mainstream eine gesunde Steigerung gegenueber RV770?

AMD plant D3D11 offenbar für irgendwann im Jahr 2009 ein. Ist in der Zeit bei TSMC schon mit noch kleineren Strukturen für GPUs zu rechnen?

http://www.xbitlabs.com/news/other/display/20080930205529_TSMC_Unveils_32nm_28nm_Process_Technologies_Roadmap.html

Keine Ahnung.
Meinst du RV870 könnte in 55nm kommen??? a la R600 (80nm) RV610 (65nm) RV630 (65nm)

Ich weiss schon gar nicht mehr wie lange es her ist als ich sagte dass RV8x0 auf 40nm kommen wird.

2009 hat zwei Halbjahre; wie waere es mit der Idee dass RV870 rein zufaellig immer noch D3D10.1 sein koennte?

Natuerlich gibt es stets den Fall wo D3D11 Komplianz erreicht wird aber mit nur sehr moderater Leistungsteigerung im Vergleich zu Vorgaengern. In solch einem Fall koennen sich beide IHVs dann ihre 11 Komplianz an den Hut stecken.

aylano
2008-10-26, 11:25:49
2009 hat zwei Halbjahre; wie waere es mit der Idee dass RV870 rein zufaellig immer noch D3D10.1 sein koennte?
Das halte ich auch für möglich ala 770Shrink +20%Shader sowie die neue Vertigungstechnologie und der neue RV780 oh ich meine "RV870-DX10.1" ist fertig.

Nemen wir mal an, RV870 ist mit DX11 mit +20% Shadern und in 40nm Takt und der kommt recht früh ala 2Q2009.
Blöd sieht es aus, wenn der Takt der dann nicht so hoch geht und die neue GPU mit DX11 wäre kaum schneller als sein Vorgänger und dieser ist dann auch nicht gerade super Lieferbar.

Siehe RV670, die kam Mitte Nov mit 775 Mhz raus, was gerade 35Mhz mehr waren als der R600 (hatte ja Taktproblem) 6 Monate zuvor.
Aber die RV670 war am Anfang kaum Lieferbar. Ende Januar 2008 war die dann sehr gut verfügbar und die HD3870-X2 sowie neue HD3870er kamen dann mit 825Mhz (+50Mhz in fast 2 Monaten) raus.
Der Unterschied der 55nm-Einführung zur 40nm-Einführung ist, bei der 55nm-Einführung hatte ATI schon 6 Monate Erfahrung in der 65nm-Fertigung, während die 40nm-Einführung gleich und vielleicht auch zuerst mit einem recht großen Die angesteuert wird.
Ob da die Taktraten, Yieldrate bzw. Verfügbarkeit gleich so gut läufen werden???

Wenn nicht, wäre das ein kleiner Image-Schaden und ein schlechter Start für ATIs-DX11-Serie. Ist es nötig, so ein Risiko einzugehen? So wichtig ist DX11 nicht, ob die jetzt im 2Q 3Q oder 4Q rauskommt.

Dazu hat ATI angekündig statt High-End-GPUs nur mehr Performance-GPUs um das Risiko zu minimieren. Warum jetzt so ein Risiko eingehen?

Also, ist für mich ein aufgepeppelter 770-Shrink mit Extras (+20% Shadern & Verbindungstechnologie) viel wahrscheinlicher a la geringerer Verbrauch & Kosten oder AMD könnte auf Nvidia GT206/212 reagieren.

Da ist sicher ein Sicherer Weg sinnvoller, da Verschiebungen nicht auszuschließen sind, wenn man (deutlich) RV770 schlagen will a la GT200b kommt anscheinend insgeamt (Yield, Takt, ...) nicht (klar) an GT200 vorbei.
Und falls der RV770-Shrink dann auch nicht mit den Takt so gut Funktioniert, dann kann man ja immer noch eine sehr recht günstige HD 4870 EE ("Energie-Effizient") mit geringen Stromverbrauch aufgrund des niedrigen Taktes machen.

Außer die neue Verbindungsetechnologie ist Side-Port, welches in der RV770 noch nicht ganz Funktioniert und deaktiviert wurde.

Der ganze Spass soll mit nur hypothetischen 60 Quadratmillimeter mehr gegenueber RV870 sowohl D3D11 Komplianz als auch eine gesunde Leistungssteigerung garantieren?
Exponentialer Shader-Wachstum
siehe R6x0&R7x0-Familie (Low-End --> mainstream --> Performance)
Annahme, der RV870 ist DX11 mit 1000 Shader, dann könnten vielleicht 60mm² für weitere 600Shader ausgehen. Na ja, vielleicht eher doch 75-100mm² a la 300mm².

Nun ja, einen RV770 mit 1600 Shader würde ich auf 400mm² "rechnen". Und mit AFAIK 2,35 Paktdichte (55-->40) kommt man dann schon auf 170mm². Nun ja, da ist dann bis 205/250/300 viel Platz für ein DX11-Update.

Natürlich alles Spekulation und einfach mehr auf irgendwelchen Logiken als auf irgendwelchen Gerüchten aufgebaut.

Ich weiss schon gar nicht mehr wie lange es her ist als ich sagte dass RV8x0 auf 40nm kommen wird.
Ich versehe nicht, warum du mich dann fragst bzw. auf was du hinauswillst?

Hvoralek
2008-10-26, 15:56:21
Wie gesagt diese zwei Thesen gab es bis jetzt. Zusaetzlich gibt es ja dann noch die These von bis zu 4 chips fuer high end. Waeren in solch einem Fall 3.0TFLOPs fuer mainstream eine gesunde Steigerung gegenueber RV770?2x 1,5 TFLOPS würden zumindest zur ersten These passen, wenn man die nicht auf den Chip, sondern auf die Platine bezieht. Dann hätte RV870 dennoch entweder ähnlich viele ALUs wie RV770 bei ähnlichem Takt oder etwa 40% weniger ALUs mit einer eigenen Taktdomäne. Für zwei Chips käme man dann auf doppelt so viele ALUs bzw. 20% mehr.

http://www.xbitlabs.com/news/other/display/20080930205529_TSMC_Unveils_32nm_28nm_Process_Technologies_Roadmap.htmlDie sind diesmal ja anscheinend wirklich früh dran. D3D11@32nm in Q4/09 wäre also möglich. Wenn man 40nm wirklich nur für D3D10.1- Chips nutzt, dürfte da ein ziemlicher Leistungssprung machbar sein. Dafür muss man dann die Transistoren für D3D11- Features allein aus dem halben Prozessschritt von 40 auf 32nm holen. Große Leistungszuwächse wären dabei wohl schwer. Man würde auch riskieren, mit D3D11- Chips ins Jahr 2010 zu rutschen, wenn es bei TSMC Probleme gibt.

Ailuros
2008-11-01, 07:54:29
Nemen wir mal an, RV870 ist mit DX11 mit +20% Shadern und in 40nm Takt und der kommt recht früh ala 2Q2009.
Blöd sieht es aus, wenn der Takt der dann nicht so hoch geht und die neue GPU mit DX11 wäre kaum schneller als sein Vorgänger und dieser ist dann auch nicht gerade super Lieferbar.

Hat hier irgend jemand bis jetzt eine spekulative Rechnung zusammegekritzelt was 11 in zusaetzlichen Transistoren kosten koennte im Vergleich zu D3D10.1/RV770? Was ich hier stets lese klingt eher danach als ob manche erwarten dass 11 fast "kostenlos" in diesem Bereich kosten wird. Wenn ich als Laie nach den paar 11-er slides gehe, sieht es eher nach einer gesunden Steigerung des Transistoren-budgets aus. Ich komm nochmal darauf zurueck....

Siehe RV670, die kam Mitte Nov mit 775 Mhz raus, was gerade 35Mhz mehr waren als der R600 (hatte ja Taktproblem) 6 Monate zuvor.
Aber die RV670 war am Anfang kaum Lieferbar. Ende Januar 2008 war die dann sehr gut verfügbar und die HD3870-X2 sowie neue HD3870er kamen dann mit 825Mhz (+50Mhz in fast 2 Monaten) raus.
Der Unterschied der 55nm-Einführung zur 40nm-Einführung ist, bei der 55nm-Einführung hatte ATI schon 6 Monate Erfahrung in der 65nm-Fertigung, während die 40nm-Einführung gleich und vielleicht auch zuerst mit einem recht großen Die angesteuert wird.
Ob da die Taktraten, Yieldrate bzw. Verfügbarkeit gleich so gut läufen werden???

RV770 war ein 55nm "Zwischenschieber" als es AMD klar wurde dass man den originalen "R700" (heute RV870) unter 40nm nicht zu den original projezierten Zeiten liefern werden kann. Die 40nm Verspaetung geht alleine an TSMC und AMD fummelt mit dem Zeug garantiert etwas laenger rum als sich manche vorstellen.

Wenn nicht, wäre das ein kleiner Image-Schaden und ein schlechter Start für ATIs-DX11-Serie. Ist es nötig, so ein Risiko einzugehen? So wichtig ist DX11 nicht, ob die jetzt im 2Q 3Q oder 4Q rauskommt.

Es geht gar nicht um die Wichtigkeit von D3D11, sondern eher dass es in den bis jetzt verfuegbaren Herstellungsprozessen keinen Platz fuer gleichzeitige 11 Komplianz und einer gesunden Leistungssteigerung gibt (oder besser es sieht mir nicht danach aus). Ausserdem will ich bezweifeln dass sich NV mit einem Halbjahr Unterschied mit einer neuen Technologie-Generation schlagen laesst. Jegliches Geruecht dass ueber GT21x und D3D11 spricht, ist IMHLO absoluter Unsinn.

Außer die neue Verbindungsetechnologie ist Side-Port, welches in der RV770 noch nicht ganz Funktioniert und deaktiviert wurde.

Das Ganze braucht etwas mehr HW-Liebe das es leider nur in "R700" sprich RV870 finden wird.


Nun ja, da ist dann bis 205/250/300 viel Platz für ein DX11-Update.

So und jetzt zurueck zum ersten Paragraph oben. D3D11 ist kein "update" sondern eine neue Technologie-Generation. Es waere weiser IMHLO wenn beide IHVs zu groesseren Aenderungen in der gesamten Pipeline ihrer Architekturen kommen wuerden als nur irgendwie zu versuchen etwas auf die existierende Basis zu klatschen. Sicher keine so grosse Aenderungen wie von D3D9.0 zu D3D10, aber auch kein so laecherlicher wahrer update wie D3D10.1 im Vergleich zu 10.0.

Aber wenn ich spiele mal in der Theorie mit dem obrigen mit: was Du vorschlaegst klingt eher danach als ob man NV die Leistungskrone verschenkt, den kleineren die Vorteil ebenso und nur noch mit hoeherem Stromverbrauch und Papierfranzen ala D3D11 vorzeitig auf dem Karton. So bloed ist AMD IMO nicht.

Ich versehe nicht, warum du mich dann fragst bzw. auf was du hinauswillst?

Dass eben die alten roadmaps beider IHVs seit einer geraumen Zeit bekannt waren. Auf der alten stand natuerlich drauf dass "R700" sogar D3D11 sein wird. Bis zu etwa einem Jahr zurueck dachte selbst "Wavey" dass deren Tesselator fuer 11 genueg sein wird. Bis eben die Bombe seitens M$ platzte dass noch zwei stages in den D3D11 Tesselator dazukamen. Plus natuerlich alle andere zusaetzlichen Vorraussetzungen fuer 11, die AMD nicht zu 100% klar waren als sie die alte roadmap geplant hatten.