PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

][immy
2009-07-28, 23:01:08
1. RV870 abgelichtet? (http://www.chiphell.com/2009/0728/89.html)

http://www.chiphell.com/uploadfile/2009/0728/20090728094608914.png

"The first DX11 graphic card --- AMD-ATI RV870 is about to come,let's waiting with anticipation. enjoy it! 2 6pin power connectors,and PCB is a little bit longer than 2900XT."
mh.. also das könnte so ziemliches jede karte sein. denke aber eher, das es ein fake ist.

AnarchX
2009-07-28, 23:51:28
Nur sollte man bedenken, dass Chiphell seit RV670 zuverlässige Daten/Bilder veröffentlicht hat.

KonKorT
2009-07-29, 03:16:10
wenn das stimmt mit den 2*6pin ist das schonmal wirklich nice,jetzt muss man nur was über die performance erfahren(hoffe auf ca.4870x² niveau).:biggrin:
muß ja wirklich recht sparsam sein wenn schon 2*6pin genügen.
Ehm, wenn ihr Performance-Chip > 225 Watt verbraucht hätte, wie sollte dann ihre Dual-GPU-Lösung aussehen? Dass es bei der HD 5870 2*6 Pin sind, ist kein bisschen überraschend. Achja, die HD 5850 soll auch mit 1*6 Pin auskommen, zumindest war dies der Stand von vor zwei Wochen.

horn 12
2009-07-29, 06:49:58
Voher nimmst du deine Hinweise zur HD5850 und kannst du schon näheres zur HD5870-er Serie sagen. Also doch MEHR als nur eine GPU diesmal und Performance auf mindestens HD4870 X² bei der HD5870-er Karte ?
Lass uns doch nicht im Regen stehen.

AnarchX
2009-07-29, 09:33:26
http://bbs.chiphell.com/viewthread.php?tid=50400&extra=page%3D1&page=5

Feststellung eines Users @Chiphell:
毕竟两个核心啊。。。 - After all two cores. . .
Antwort darauf von Napoleon (Chiphell Admin/Moderator) und Veröffentlicher des Bildes:
1个核心啊.... - 1 core….
Weitere Frage darauf:
不是单芯双核么? - Single-core dual-core is not it?
Antwort von Napoleon:
单芯双核是没错,但你如果拆开散热器看的话,就是一个核心,字面上大家还是要说清楚点好,免得误会. - Single-core dual-core is right, but if you open the radiator to see if that is a core, literally everyone is a good point to make it clear to avoid misunderstanding.

Also wohl doch nur ein Die auf diesem fast 10.5" langen PCB.:|
Da beschreibt Single-Die-Dual-Core vielleicht eher den internen Aufbau, mit dem man ein Chip >10 Cluster effizienter betreiben kann.

Oder man sägt aus diesem Wafer mit den 180mm^2 Chips einfach zwei nebeneinander liegende Dies zusammen aus, was dann dem RV870 entspricht.
Für RV830/840 sägt man dann aus einem anderen Wafer die einzelnen Chips aus. Immerhin könnte man so eine Maske sparen.
Die Länge dieses Doppel-Chips von ~27mm würde auch ein entsprechend großes Package erklären und ein 10.5" PCB für RV870.
Und da beide GPUs direkt verbunden sind, ist eine ausreichend schnelle Inter-GPU-Kommunikation auch kein Problem.

V2.0
2009-07-29, 09:40:18
Naja, das hörst sich wie ein Chip mit 2 Dies unter einem gemeinsamen Heatspreader an.

MartinRiggs
2009-07-29, 09:58:47
150 Watt sind nicht sparsam - egal wie schnell die Karte ist. Bezahlen musst du sie bei der GTX280 oder der rv870.
Und man sollte dabei nicht vergessen, dass 150 Watt+ auch abgeführt werden müssen.

Joh, für nen gescheiten DX11-Performance-Chip mit fast doppelter HD4890-Leistung(meine Schätzung) ist 2x6Pin doch i.O.
Performance bzw. angehende High-End-Karten haben immer ganz gut Strom vernichtet.

Was sagst du denn wenn der GT300 mit 2x8Pin kommt? Macht ja nix, ist ja von Nvidia;D
Als Argument bringst du dann das Nvidia endlich mal den Netzteilmarkt so richtig anschiebt weil bisher kaum jemand ein 2x8 Pin-Netzteil hat.

reunion
2009-07-29, 10:02:46
Es limitiert schon lange die Leistungsaufnahme. Eine 5870 wird wohl fast exakt das gleiche verbrauchen wie eine 4870. Ganz einfach weil man für eine X2 nicht über die 300W gehen kann.

LovesuckZ
2009-07-29, 10:07:17
Joh, für nen gescheiten DX11-Performance-Chip mit fast doppelter HD4890-Leistung(meine Schätzung) ist 2x6Pin doch i.O.
Performance bzw. angehende High-End-Karten haben immer ganz gut Strom vernichtet.

Stimmt, sparsam ist es, bei hohem Verbrauch einfach mehr Leistung zu bieten. ;D
Wirklich drollig - ihr AMD User.


Was sagst du denn wenn der GT300 mit 2x8Pin kommt? Macht ja nix, ist ja von Nvidia;D
Als Argument bringst du dann das Nvidia endlich mal den Netzteilmarkt so richtig anschiebt weil bisher kaum jemand ein 2x8 Pin-Netzteil hat.

Im Gegensatz zu dir muss ich mir meine Meinung nicht von meiner Lieblingsfirma aufdiktieren lassen. ;)

KonKorT
2009-07-29, 10:41:09
Voher nimmst du deine Hinweise zur HD5850 und kannst du schon näheres zur HD5870-er Serie sagen. Also doch MEHR als nur eine GPU diesmal und Performance auf mindestens HD4870 X² bei der HD5870-er Karte ?
Lass uns doch nicht im Regen stehen.
Dass die HD 5850 deutlich unter 150 Watt TDP angesiedelt ist, hat mir, wie gesagt, vor einigen Wochen eine AMD-nahe Quelle verraten.
Über die Performance möchte ich öffentlich vorab keine Aussage treffen, lass das die machen, die AMD am 10. September nach USA einlädt.
[...] Was sagst du denn wenn der GT300 mit 2x8Pin kommt? Macht ja nix, ist ja von Nvidia [...]
Zumindest die A1-Samples kamen mit 2x 6 Pin (http://www.hardware-infos.com/news.php?news=2997) aus und es gibt eigentlich keinen Grund, warum dies mit A2/A3 nicht mehr so sein sollte.

Nakai
2009-07-29, 11:36:13
Stimmt, sparsam ist es, bei hohem Verbrauch einfach mehr Leistung zu bieten.
Wirklich drollig - ihr AMD User.

Mhh, du kannst aussagen über einen Verbrauch treffen indem du die Stromstecker siehst bzw. nicht mal das? Das will ich auch können. Am liebsten würde ich die Energieversorgung und den Kühler sehen.

Dass die HD 5850 deutlich unter 150 Watt TDP angesiedelt ist, hat mir, wie gesagt, vor einigen Wochen eine AMD-nahe Quelle verraten.
Über die Performance möchte ich öffentlich vorab keine Aussage treffen, lass das die machen, die AMD am 10. September nach USA einlädt.

Mhh, deutlich unter 150 Watt, heißt dann in etwa 120Watt-Verbrauch. Das liegt unter HD4870-Niveau. Schau ma mal wie es Performancemäßig aussieht.

Um $299-329 zu rechtfertigen sollte da wirkllich ~2x HD4870 herauskommen.

Da CF-Lösungen meistens etwa 50%-Mehrperformance bringen muss die Karte auf jeden Fall mehr als die HD4870X2 leisten.


mfg Nakai

derguru
2009-07-29, 13:49:24
Es limitiert schon lange die Leistungsaufnahme. Eine 5870 wird wohl fast exakt das gleiche verbrauchen wie eine 4870. Ganz einfach weil man für eine X2 nicht über die 300W gehen kann.
was ja auch i.o ist.

Da CF-Lösungen meistens etwa 50%-Mehrperformance bringen muss die Karte auf jeden Fall mehr als die HD4870X2 leisten.
mfg Nakai
es sind wohl eher 70% und aufwärts und AnarchX hatte ja auch geschrieben gehabt ~2x HD4870 und nicht 4870x².

Nakai
2009-07-29, 14:34:38
es sind wohl eher 70% und aufwärts und AnarchX hatte ja auch geschrieben gehabt ~2x HD4870 und nicht 4870x².

Je nach Bench ist das natürlich unterschiedlich. Man muss mindesten eine 80%ige Leistungssteigerung gegenüber der HD4870 hinlegen...eher mehr.


mfg Nakai

Gouvernator
2009-07-29, 15:09:38
Naja, das hörst sich wie ein Chip mit 2 Dies unter einem gemeinsamen Heatspreader an.
ATI/AMD macht keine Headspreader drauf wie Nvidia. Zumindest bis jetzt noch nicht.

V2.0
2009-07-29, 15:10:15
Ein Blick in die Vergangeheit. (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/#abschnitt_einleitung)

Oder irgendwie in die Zukunft?

MartinRiggs
2009-07-29, 15:20:24
Stimmt, sparsam ist es, bei hohem Verbrauch einfach mehr Leistung zu bieten. ;D
Wirklich drollig - ihr AMD User.

Was willst du mir da eigentlich reindrücken?
Es war klar das die neuen Karten nicht weniger verbrauchen wie die bisherigen!
Die IHV holen immer(oder fast immer) das maximale aus dem Chip raus und gehen lieber mit den Taktraten hoch anstatt weniger strom wie die Vorgänger-Generation zu verbrauchen.


Im Gegensatz zu dir muss ich mir meine Meinung nicht von meiner Lieblingsfirma aufdiktieren lassen. ;)

Ich habe keine Lieblingsfirma:rolleyes:, ganz im Gegensatz zu dir(wie auch jeder hier weiss:lol:)
Ich hatte von beiden IHVs Grafikkarten und es ist mir kackegal ob NV, AMD, Intel oder 3DKlo draufsteht, hauptsache die Spiele laufen gescheit und der Treiber zickt nicht und ich bekomme mit der nächsten Karte noch mehr Leistung für GTA4.:biggrin:

AnarchX
2009-07-29, 15:44:26
Wäre es möglich über das Thema R8xx ohne persönliche Angriffe zu diskutieren?

Nakai
2009-07-29, 16:08:34
Um nochmal auf das einzugehen.

Feststellung eines Users @Chiphell:
毕竟两个核心啊。。。 - After all two cores. . .
Antwort darauf von Napoleon (Chiphell Admin/Moderator) und Veröffentlicher des Bildes:
1个核心啊.... - 1 core….
Weitere Frage darauf:
不是单芯双核么? - Single-core dual-core is not it?
Antwort von Napoleon:
单芯双核是没错,但你如果拆开散热器看的话,就是一个核心,字面上大家还是要说清楚点好,免得误会. - Single-core dual-core is right, but if you open the radiator to see if that is a core, literally everyone is a good point to make it clear to avoid misunderstanding.

Okay, er hat ausdrücklich gesagt, dass es ein SingleCore-Dualcore ist.
Es macht Sinn, denn somit könnte der Geometrieteil und der Rasterizer wohl ohne große Latenzen verbunden werden. IMO ist das ja das Hauptproblem von SLI und CF.
Ebenso hat man da wohl sehr viel Entwicklungsaufwand gespart, sonst hätte man das nicht getan.


mfg Nakai

reunion
2009-07-29, 16:12:12
Hm, wenn ich das richtig verstehe meint ihr zwei Cores welche aber in einem Die vereint sind. Man kann also für High-End dieses eine Die mit den zwei Cores nehmen und für Midrage das Ding auseinanderschneiden und hat zwei eigenständige Dice. Sollte irgendwo ein Defekt auftreten muss man nur eines der zwei wegwerfen und kann das andere noch immer im Midrage nehmen. Gleichzeitig kann man so natürlich problemlos ausreichend Bandbreite zwischen den zwei Core herstellen. Die Frage ist ob das überhaupt machbar ist.

igg
2009-07-29, 16:16:58
Solle irgendwo ein Defekt auftreten muss man nur eines der zwei wegwerfen und kann das andere noch immer im Midrage nehmen.
Wieso überhaupt? Deaktivieren und so rausbringen. Irgendwo glaube ich mal gelesen zu haben, dass AMD so die Triple Cores machen wollte.

reunion
2009-07-29, 16:21:39
Wieso überhaupt? Deaktivieren und so rausbringen. Irgendwo glaube ich mal gelesen zu haben, dass AMD so die Triple Cores machen wollte.

Deaktivieren kann man nur wenn der Defekt im richtigen Bereich auftritt.

AnarchX
2009-07-29, 16:23:11
Für den Laser sollte es wohl kein Problem sein einmal Doppelchips und dann bei einem anderen Wafer Einzelchips auszuschneiden.
Aber ob man bei einem Teildefekt bei einem solchen Doppelchip den defekten Teil im Nachhinein noch abschneiden kann mag ich bezweifeln bzw. dürfte das wohl die Kosten zu sehr erhöhen.
Ein Vorteil wäre auf jeden Fall, dass man wirklich nur eine Maske für unteres Perfomance bis High-End benötigt.

LovesuckZ
2009-07-29, 16:41:38
Und weiter? Wie kommunizieren die Chips mit dem Speicher? Ich sehe immer noch keinen Sinn in solchen Konstrukturen, solange wie solche Sachen nicht geklärt sind.

Hugo
2009-07-29, 16:42:49
aber prinzipiell ist es doch das selbe, ob ich Einheiten deaktiviere oder den einen defekten Chip absäge.
Die Fehlerquote ist vielleicht geringer wenn man 2 gleiche Chips nebeneinander hat, als einen großen.
Macht Intel bei seinen Quadcores, auf Core-Basis, es nicht ähnlich mit 2 aneinandergrenzenden DIE's?

@AnarchX
Chips werden gesägt nicht gelasert. Nur im Chip wird gelasert um Teile zu deaktivieren.

reunion
2009-07-29, 16:51:48
Und weiter? Wie kommunizieren die Chips mit dem Speicher? Ich sehe immer noch keinen Sinn in solchen Konstrukturen, solange wie solche Sachen nicht geklärt sind.

Jeder der beiden Cores müsste natürlich eigene Speichercontroller mit bsw. 2x 64-bit haben. Über die Verbindung der beiden Cores müsste man diese dann zusammen verwenden können. Da ein Speichercontroller auch heute schon mehrfach unterteilt ist sollte das nicht das Problem sein.

AnarchX
2009-07-29, 16:55:58
Vielleicht kehrt ja auch der Ringbus von R6xx zurück.

Nakai
2009-07-29, 17:08:13
Vielleicht kehrt ja auch der Ringbus von R6xx zurück.

Sei still!!!^^;)

Davon will ich nichts hören...:frown:

Zwei Chips auf einem Die. Da könnte ich mir sehr gut vorstellen, dass einige dumme Nachteile von MGPU ausgemerzt werden.
Die Kommunikation der Chips wäre dadurch sehr gut. Evtl kommt gemeinsamer Speicher, die Chips arbeiten zusammen beim Rasterizing.
Aber klar, so effektiv wie ein großer Chip wird das nicht...zudem bestünde die Annahme, dass dieser Interconnect der Chips auch nicht wenig kostet.

Da macht ein extra 1200SP-Chip wieder mehr Sinn(naja...), welcher bei etwa 220mm² liegen könnte.
Aber was ist dann an den Gerüchten eines 150mm²-Chips dran?


mfg Nakai


€: Das Lineup bestünde dann aus einem RV830, RV840 und den RV870. Später kommt dann der RV810 dazu.
Einen Refresh könnte ich mir dann in dem Sinne vorstellen, dass ein RV845 erscheint, mit welchem dann ein RV880 (Zwei RV845), welcher dann zu einem R850 kombinierbar wäre.

Hugo
2009-07-29, 17:10:34
Jeder der beiden Cores müsste natürlich eigene Speichercontroller mit bsw. jeweils 2x 64-bit haben. Über die Verbindung der beiden Cores müsste man diese dann zusammen verwenden können. Da ein Speichercontroller auch heute schon mehrfach unterteilt ist sollte das nicht das Problem sein.


Das ist schon ein Problem weil die Mem-Controller ja in verschiedenen Cores sitzen würden und dadurch die Latenzen zu groß wären.

Warum müssen eigentlich immer 2 gleiche Die's zusammen verstrickt werden?
Wenn ich mich an den Rampage von 3Dfx erinner sollte er doch eine auselagerte Geometrieeinheit Namens Sage besitzen.

Könnte AMD nicht ihren RV8xx aus verschiedenen Teilen zusammensetzen?
AMD entwickelt zB 3 chips. (nur mal so spekuliert)
Einen Chip mit Shadereinheiten einen mit ROP's u. MEM-Controller und einen mit Video-Fkt.
Dann nehmen sie von jedem was und fertig is der Chip
Im Grunde sowas wie LEGO :biggrin:
Ein rotes Steinchen und 2 blaue und noch nen gelbes. Fertig is der Chip :cool:

Ailuros
2009-07-29, 17:24:20
Das ist schon ein Problem weil die Mem-Controller ja in verschiedenen Cores sitzen würden und dadurch die Latenzen zu groß wären.

Was sie genau angestellt haben bleibt abzuwarten; und dann werden wir erst sehen ob es hier Probleme geben koennte oder nicht.

Warum müssen eigentlich immer 2 gleiche Die's zusammen verstrickt werden?
Wenn ich mich an den Rampage von 3Dfx erinner sollte er doch eine auselagerte Geometrieeinheit Namens Sage besitzen.

SAGE diente nicht nur als Geometrie-einheit sondern auch als Bruecke zwischen den zwei cores. Heutzutage eine getrennte Geometrie-Einheit mit all den quasi Geometrie relevanten Shadern (vertex shader, geometry shader, hull shader, domain shader) zu haben halte ich fuer Schwachsinn.

Könnte AMD nicht ihren RV8xx aus verschiedenen Teilen zusammensetzen?
AMD entwickelt zB 3 chips. (nur mal so spekuliert)
Einen Chip mit Shadereinheiten einen mit ROP's u. MEM-Controller und einen mit Video-Fkt.
Dann nehmen sie von jedem was und fertig is der Chip
Im Grunde sowas wie LEGO :biggrin:

Man umgeht somit eigentlich jegliche Redundanz (ie man braucht nicht alles duplizieren). Wenn ATI ihre Hausaufgaben richtig gemacht haben koennte diese Redundanz nicht mehr als ca. 20% betragen.

Ein guter Grund fuer die single package- dual core Loesung koennte gewesen sein dass ATI erkannte dass (wie die Entwickler schon seit einiger Zeit betonen) die Effizienz beim rasterizing haette radikal steigen sollen. Hiermit hat man eine ziemlich billige Loesung ohne sich zu stark den Kopf zu zerbrechen ob und welchen Umstaenden man die rasterizing Effizienz erhoehen koennte auf einem einzelnen core. Wenn sie jetzt ihre Hausaufgaben richtig gemacht haben, hat auch jeglicher dieser chips einen eingebauten hw scheduler der ohne besonderen sw overhead jeweils die Aufgaben richtig plant und verteilt.

Gast
2009-07-29, 17:26:44
Ich hatte von beiden IHVs Grafikkarten und es ist mir kackegal ob NV, AMD, Intel oder 3DKlo draufsteht
Also falls wirklich mal ein Hersteller namens 3DKlo was auf den Markt bringen sollte, hätten NVidia und ATI bei mir keine Chance mehr :D
Denn seien wir doch mal ehrlich - die meisten neuen Spiele sind eh Kacke ... "3DKlo - The Way it's meant to be flushed" *SCNR*

Hugo
2009-07-29, 17:29:42
SAGE diente nicht nur als Geometrie-einheit sondern auch als Bruecke zwischen den zwei cores. Heutzutage eine getrennte Geometrie-Einheit mit all den quasi Geometrie relevanten Shadern (vertex shader, geometry shader, hull shader, domain shader) zu haben halte ich fuer Schwachsinn.


Ich meine nicht als Geometrieeinheit. Das war nur mein Gedanke, dass man mit 2 spezialisierten Chips auch einen "Dual-Core" hätte.

ich meinte es eher so. Einen Shaderchip einen ROP/MEM-Controllerchip und einen Videochip. Oder was man sonst noch braucht :wink:

Ailuros
2009-07-29, 17:32:33
Ich meine nicht als Geometrieeinheit. Das war nur mein Gedanke, dass man mit 2 speziallisierten Chips auch einen "Dual-Core" hätte.

ich meinte es eher so. Einen Shaderchip einen ROP/MEM-Controllerchip und einen Videochip. Oder was man sonst noch braucht :wink:

Ich hab Dich schon verstanden nur will ich bezweifleln dass R&D hier billiger sein koennte und wie schon gesagt unter normalen Umstaenden wuerde ich schaetzen dass man somit vielleicht um die 20% weniger die area gewinnt.

Hugo
2009-07-29, 17:35:38
Ich hab Dich schon verstanden nur will ich bezweifleln dass R&D hier billiger sein koennte und wie schon gesagt unter normalen Umstaenden wuerde ich schaetzen dass man somit vielleicht um die 20% weniger die area gewinnt.

naja 20% sind 20% ;-)
R&D sind bestimmt höher.
Was daran gut wäre man könnte mit dem Baukasten perfekt alle Märkte bedienen.
Und wenn man nen Refresh braucht muß man ja nicht zwangläufig alles neu designen.
MEM und Video bleibt gleich nur nen neuer Shaderchip und fertig is die neue Graka :smile:

Gast
2009-07-29, 17:45:18
Sei still!!!^^;)

Davon [=Ringbus] will ich nichts hören...:frown:
Natürlich kommt der Ringbus zurück. Die Bugs sind längst ausgemerzt, und in der Zwischenzeit wurde der sowas von aufgepäppelt, der reißt Bäume aus. Selbst die größten Sequoien können seiner unbändigen Kraft nicht standhalten.

Ailuros
2009-07-29, 17:48:19
naja 20% sind 20% ;-)

Wenn's 20% sein sollten, dann ist es im Vergleich zur die area die die Konkurrenz normalerweise verpufft nichts besonderes. In den Bereich Intel LRB wollen wir wohl lieber nicht gleich gehen ?


Was daran gut wäre man könnte mit dem Baukasten perfekt alle Märkte bedienen.
Und wenn man nen Refresh braucht muß man ja nicht zwangläufig alles neu designen.
MEM und Video bleibt gleich nur nen neuer Shaderchip und fertig is die neue Graka :smile:

Ja und nein. Es kann sein dass meine Thesen total fuer die Muelltonne sind aber wenn etwas an dem rasterizing Zeug liegen sollte, hat man diesen Vorteil unterhalb Performance dann nicht mehr.

Ailuros
2009-07-29, 17:49:16
Natürlich kommt der Ringbus zurück. Die Bugs sind längst ausgemerzt, und in der Zwischenzeit wurde der sowas von aufgepäppelt, der reißt Bäume aus. Selbst die größten Sequoien können seiner unbändigen Kraft nicht standhalten.

Auf LRB mit Sicherheit schon; ob er jetzt Baeume oder nur Unkraut ausreisst bleibt natuerlich abzusehen ;D

Gast
2009-07-29, 18:04:26
Ich meine nicht als Geometrieeinheit. Das war nur mein Gedanke, dass man mit 2 spezialisierten Chips auch einen "Dual-Core" hätte.

ich meinte es eher so. Einen Shaderchip einen ROP/MEM-Controllerchip und einen Videochip. Oder was man sonst noch braucht :wink:

wie werden die chipfragmente verbunden? kommunizieren die per bluetooth ? :D

igg
2009-07-29, 18:05:09
Das wäre schon beachtlich, vorallem wenn man bedenkt, wie stark AMD Mitarbeiter in ATIs Grafikabteilung gekürzt hat

YfOrU
2009-07-29, 18:05:36
ich meinte es eher so. Einen Shaderchip einen ROP/MEM-Controllerchip und einen Videochip. Oder was man sonst noch braucht :wink:

Diese einzelnen Kerne müssten aber wieder auf ein Stück Silizium gebracht werden. Alle Chips effektiv einzeln über das PCB zu verbinden dürfte kaum möglich sein. Auch eine Verbindung über das Package von mehr als 2 Chips dürfte kaum vertretbar zu realisieren sein. Und selbst wenn wäre das sehr aufwendig und teuer. Das erste Konzept wäre eher an das eines SoCs angelehnt. Ich vermute allerdings das dabei zwangsläufig Probleme bei der Skalierung auftreten würden und je nach Auslegung in Teilbereichen der Produktreihe die Effizienz deutlich abnimmt.

Im kleinen findet das "Lego Prinzip" durchaus Anwendung. Der Aufbau einzelner Einheiten ist im Verlauf einer Serie bis auf teilweise kleinere Detailänderungen meist identisch. Separate Masken sind so oder so in der Fertigung nötig und die übliche Vorgehensweise bietet mehr Flexibilität.

Ailuros
2009-07-29, 18:15:55
Diese einzelnen Kerne müssten aber wieder auf ein Stück Silizium gebracht werden. Alle Chips effektiv einzeln über das PCB zu verbinden dürfte kaum möglich sein. Auch eine Verbindung über das Package von mehr als 2 Chips dürfte kaum vertretbar zu realisieren sein. Und selbst wenn wäre das sehr aufwendig und teuer. Das erste Konzept wäre eher an das eines SoCs angelehnt. Ich vermute allerdings das dabei zwangsläufig Probleme bei der Skalierung auftreten würden und je nach Auslegung in Teilbereichen der Produktreihe die Effizienz deutlich abnimmt.

Im kleinen findet das "Lego Prinzip" durchaus Anwendung. Der Aufbau einzelner Einheiten ist im Verlauf einer Serie bis auf teilweise kleinere Detailänderungen meist identisch. Separate Masken sind so oder so in der Fertigung nötig und die übliche Vorgehensweise bietet mehr Flexibilität.


http://people.csail.mit.edu/kapu/EG_09_MGW/IMG_MP_GPGPU.pdf

Zwar unter anderem Marketing-Geblubber aber slide 5 "how to optimize scalability" gibt schon Anhang zu interessanten Theorien.

V2.0
2009-07-29, 18:16:28
Ich würde es nicht für unwahrscheinlich halten, dass es eine einfache X2 Lösung ist, bei der 2 GPUs auf einem Package sitzen.

Ailuros
2009-07-29, 18:19:49
Ich würde es nicht für unwahrscheinlich halten, dass es eine einfache X2 Lösung ist, bei der 2 GPUs auf einem Package sitzen und nicht mehr.

AFR schon auf Performance Nivaeu? Errrrr nein danke....

mboeller
2009-07-29, 18:41:13
auf Chiphell behaupten sie das es sich um einen Multi-Core ähnlich wie bei CPUs handelt. Also eigentlich 1 Chip aber mit 1-4 einzelnen Cores auf dem Die ähnlich wie bei CPUs. Man entwickelt also nur 1 GPU und skaliert einfach indem man 1-4 GPUs auf 1 Die bringt. Allerdings nicht als MultichipModul sondern direkt auf dem Die. So wie halt zB. der AMD-Propus 4 Cores hat und der AMD-Regor nur 2. Mal sehen ob das so stimmen kann.

[edit]: Rechtschreibfehler

AnarchX
2009-07-29, 18:56:12
Eine solche Skalierbarkeit gibt es doch schon seit Ewigkeiten bei GPUs.

Interessant wird es eben erst wirklich, wenn man aus diesen einzelnen Cores einen 1-Core-Die und einen 2-Core-Die gewinnen kann. Und noch besser wäre natürlich noch ein 4-Core-Die für die größte Karte bzw. Workstation-Markt.
Das eben alles aber aus der gleichen Maske.

YfOrU
2009-07-29, 19:06:20
http://people.csail.mit.edu/kapu/EG_09_MGW/IMG_MP_GPGPU.pdf

Zwar unter anderem Marketing-Geblubber aber slide 5 "how to optimize scalability" gibt schon Anhang zu interessanten Theorien.

Das wäre die Richtung die nach der aktuellen Spekulation AMD aufgegriffen hat.

Der letzte Punkt, "Efficiency and time to market" spiegelt das aktuelle Problem wieder. Die großen monolithischen Chips verursachen enorme Kosten und die Komplexität nimmt von Generation zu Generation weiter zu. Neben den reduzierten Entwicklungskosten wäre ein weiterer Vorteil eines Multicores das mit diesem flexibel auf Fehler in neuen Fertigungsprozessen reagiert werden kann. Genau das war und ist immer wieder das große Risiko welches mit jeder neuen Generation einhergeht.

reunion
2009-07-29, 19:11:08
Eine solche Skalierbarkeit gibt es doch schon seit Ewigkeiten bei GPUs.

Interessant wird es eben erst wirklich, wenn man aus diesen einzelnen Cores einen 1-Core-Die und einen 2-Core-Die gewinnen kann. Und noch besser wäre natürlich noch ein 4-Core-Die für die größte Karte bzw. Workstation-Markt.
Das eben alles aber aus der gleichen Maske.


Man muss trotzdem jeden Kern neu entwickeln. Bei dem Konzept das auch IMG verwendet entwickle ich nur einen Kern und skaliere diesen beliebig. Das mit den 1-4-Core Dice ergibt sich dann von selbst.

nagus
2009-07-29, 19:11:21
auf die gefahr hin, dass das schon jemand gepostet hat... sorry :)
Radeon "7" (http://www.semiaccurate.com/2009/07/29/ati-evergreen-be-called-7-series/)

reunion
2009-07-29, 19:15:29
Passend zu Windows 7. :)

AnarchX
2009-07-29, 19:17:10
Man muss trotzdem jeden Kern neu entwickeln. Bei dem Konzept das auch IMG verwendet entwickle ich nur einen Kern und skaliere diesen beliebig. Das mit den 1-4-Core Dice ergibt sich dann von selbst.
Bei AMD wurden die SIMD-Cluster und bei NV die Textur-Processor-Cluster auch nur einmal entwickelt und beliebig skaliert.
So anders wird es wohl beim SGX MP wohl auch nicht sein, je nach Core-Anzahl muss hier ja auch ein anderes Routing bzw. Layout entworfen werden.

reunion
2009-07-29, 19:19:41
Bei AMD wurden die SIMD-Cluster und bei NV die Textur-Processor-Cluster auch nur einmal entwickelt und beliebig skaliert.
So anders wird es wohl beim SGX MP wohl auch nicht sein, je nach Core-Anzahl muss hier ja auch ein anderes Routing bzw. Layout entworfen werden.

Siehe:
http://img132.imageshack.us/img132/2271/capturekla.jpg (http://img132.imageshack.us/i/capturekla.jpg/)

horn 12
2009-07-29, 19:38:57
Viele OnlineShops haben nun gar keine HD4890-er mehr bei uns in Italien, die HD4870 sind auch vielfach raus.
Da kommt was schon im August auf uns zu, Wetten? Der Termin vom 10 Septmeber bin ich mir gar nimmer sicher. Falls da wohl nicht schon viel früher eine HD58x0 daherschiesst...
Diese Stille gefällt mir gar nicht.:mad:
Laut Shop Infos ordern sie auch keine HD4890/70 mehr, sondern warten auf die "Neuen"...

HPVD
2009-07-29, 19:54:51
Diese Stille gefällt mir gar nicht.:mad:


warum gefällt dir das nicht? wie woher stammt der 7. August?

In D ist alles wunderbar lieferbar und es gibt auch keine Preisstürze weder für 4870 noch für 4890.

Gruß HPVD

Coda
2009-07-29, 19:55:18
Siehe:
http://img132.imageshack.us/img132/2271/capturekla.jpg (http://img132.imageshack.us/i/capturekla.jpg/)
Das ist alles auf einem Die. Da geht es nur darum sich die Entwicklungskosten zu sparen wenn man das Design noch breiter skalieren soll.

Im übrigen funktioniert das ganze auch nur mit einem Tiled-Renderer wirklich reibungslos. Sonst muss man schon wieder mehr investieren.

KonKorT
2009-07-29, 20:00:51
auf die gefahr hin, dass das schon jemand gepostet hat... sorry :)
Radeon "7" (http://www.semiaccurate.com/2009/07/29/ati-evergreen-be-called-7-series/)
Ich wusste bereits, dass der Fake die Tage ins Netz kommt, dass man ihm Charlie zugeschoben hat, überrascht mich. :)

Bei ihm können sie eben doch immer noch sicher sein, dass er alles postet. :P

reunion
2009-07-29, 20:03:10
Das ist alles auf einem Die. Da geht es nur darum sich die Entwicklungskosten zu sparen wenn man das Design noch breiter skalieren soll.

Ja, das ist schon klar. Aber das ist ja trotzdem ein Vorteil welcher die time-to-market verkürzt. Könnte man dann faktisch mit einer Maske sich den jeweils benötigen Chip "zurecht schneiden" indem man einfach mal mehr, mal weniger Cores nimmt?


Im übrigen funktioniert das ganze auch nur mit einem Tiled-Renderer wirklich reibungslos. Sonst muss man schon wieder mehr investieren.

Mal sehen. Momentan wird ja bei Chiphell spekuliert das AMD was ähnliches macht. Also mehr Cores auf einem Die.

V2.0
2009-07-29, 20:10:11
Wenn sie das können, warum dann noch eine X2?

Coda
2009-07-29, 20:10:54
Mal sehen. Momentan wird ja bei Chiphell spekuliert das AMD was ähnliches macht. Also mehr Cores auf einem Die.
Ja, ne mal sehen is hier nich. Die Sache ist halt, dass bei einem Nicht-Tiled-Renderer am Anfang immer der Rasterizer steht der die Quads erzeugt von den Dreiecken die gerade gerendert werden sollen. Das wird dann auf die ALUs verteilt.

Wenn man aber sowieso den Aufwand treibt mehrere Rasterizer zu haben - was ich jetzt bei GT3xx und RV8xx bzw. dem "richtigen" D3D11-ATI-Chip schon öfter gehört habe - dann braucht man aber vor und nach jedem Rasterizer irgendwas was das Zeug wieder hinsortiert.

Das ganze wäre ähnlich wie multiskalare out-of-order Ausführung bei einer CPU. Auf jeden Fall kann man IMRs nicht einfach zusammenklatschen wie das PowerVR macht. Die verteilen halt die Tiles und gut ist. Mehr ist nicht zu tun in ihrem Fall.

Nächstes Problem: Wie verteile ich die Geometrie. Usw.

Coda
2009-07-29, 20:16:14
Wenn sie das können, warum dann noch eine X2?
Weil dadurch die Die-Size nicht kleiner wird?

crux2005
2009-07-29, 20:18:15
ergo, bin ich nicht der einzige, der diese "1 die 2 core" speku nicht glaubt?

LovesuckZ
2009-07-29, 20:20:19
ergo, bin ich nicht der einzige, der dise "1 die 2 core" speku nicht glaubt?

Nein. Ich denke, es ist ein Die mit ca 250mm^2 und der Leistung einer 4870x2. Alles andere wäre unsinn und sehr enttäuschend.

AnarchX
2009-07-29, 20:20:37
Dann bleibt die Frage wofür man sonst ein 10.5" PCB, was man nicht mal für den 420mm² R600 mit 512-Bit SI benötigte, und das eine maximale Leistungsaufnahme von 225W hat, dementsprechend auch für keine X2-Karte sein kann, nutzen kann.

LovesuckZ
2009-07-29, 20:23:16
Vielleicht will man einfach eine stabilere Stromversorgung ermöglichen. nVidia hat sehr lange Platinen - und das mit einen 1 Dice-1 Core Strategie. Es ist wesentlich billiger als ein mGPU Verfahren erstellen, dass immer und jederzeit funktioniert.

reunion
2009-07-29, 20:26:47
Die langen Platinen haben ohnehin schon lange nichts mehr mit Platzbedarf zu tun, sondern sind ganz einfach ein Erfordernis der Kühlung. Sieh dir aktuelle High-End-Karten an. Die halbe Platine ist nicht mal bestückt, da geht es wohl nur darum möglichst viel "Material" unterzubringen. Und auch das PCB leitet ja die Wärme ab. Darauf würde ich nichts geben. Einen RV770 könnte man rein von den Möglichkeiten auch auf einem R300-PCB unterbringen, allerdings kann man das dann wohl nicht mehr kühlen. Schau dir die jeweiligen Notebookvarianten an, mit wie wenig Platz man da auskommt.

Aber das alle schließt einen Multicore in welcher Art auch immer weder ein noch aus.

deekey777
2009-07-29, 21:17:31
Ja, ne mal sehen is hier nich. Die Sache ist halt, dass bei einem Nicht-Tiled-Renderer am Anfang immer der Rasterizer steht der die Quads erzeugt von den Dreiecken die gerade gerendert werden sollen. Das wird dann auf die ALUs verteilt.

Wenn man aber sowieso den Aufwand treibt mehrere Rasterizer zu haben - was ich jetzt bei GT3xx und RV8xx bzw. dem "richtigen" D3D11-ATI-Chip schon öfter gehört habe - dann braucht man aber vor und nach jedem Rasterizer irgendwas was das Zeug wieder hinsortiert.

Das ganze wäre ähnlich wie multiskalare out-of-order Ausführung bei einer CPU. Auf jeden Fall kann man IMRs nicht einfach zusammenklatschen wie das PowerVR macht. Die verteilen halt die Tiles und gut ist. Mehr ist nicht zu tun in ihrem Fall.

Nächstes Problem: Wie verteile ich die Geometrie. Usw.

Wie klappt das beim Xenos, wenn Tiling benutzt wird?

V2.0
2009-07-29, 21:45:41
Weil dadurch die Die-Size nicht kleiner wird?

Aber wenn ich Dies skalieren kann, dann nehme doch lieber einen 4fach Die als 2x2fach.

Außer die Skalierung klappt nur bei 2 Dies, aber dann muss man den zusätzlichen Aufwand in der Hardware berücksichtigen. Man hat für den single Die unnötige Transistoren verbaut und die Paarung wird fetter als 1 zusätzlicher größerer Chip, denn man ja aus bekannten Bausteinen des Designs zusammensetzen könnte. Und irgendiwe glaube ich nicht, dass wir AFR so schnell os werden, wenn es um mehr als eine GPU geht.

reunion
2009-07-29, 22:19:11
RV870 40nm yields should be good : http://www.fudzilla.com/content/view/14847/1/

We had a chance to meet with Eric Demers, AMD CTO graphics Products group, and Carrell Killebrew, ATI's Director of GPU product planning group and we spent some pleasant time talking about technology and Evergreen, the card that we call RV870, should have healthy yields.

We have learned that RV740 was a pipe cleaner and that ATI learned lot from it that will save them from some troubles when the RV870 comes out. ATI still calls this card Evergreen, but we are quite sure that this is a performance card, the successor of ATI's RV790 generation.

Since the 40nm process looks like a tricky one, ATI needed a pipe cleaner card, which is basically 55nm card shrunk, optimised and done in 40nm, and such a card definitely made the transition much easier. The bottom line is, that these guys expect that RV870 yields to be much better than then ones they experienced with RV740 products.

w0mbat
2009-07-29, 22:22:19
Genau das hat NH schon vor ein paar Tagen geposted: http://www.nordichardware.com/news,9672.html

Gast
2009-07-29, 22:34:25
Außer die Skalierung klappt nur bei 2 Dies, aber dann muss man den zusätzlichen Aufwand in der Hardware berücksichtigen. Man hat für den single Die unnötige Transistoren verbaut
Damit hat AMD ja Erfahrung - der K8 war auch von Anfang als Dual Core konzipiert.

mapel110
2009-07-29, 22:34:35
Wenn das stimmen sollte, dann kann man auch überhaupt nicht in irgendeiner Weise auf künftige Yields bei nvidia schließen. Dann kann man sämtliche Spekus diesbezüglich einstellen.

deekey777
2009-07-30, 01:52:33
auf die gefahr hin, dass das schon jemand gepostet hat... sorry :)
Radeon "7" (http://www.semiaccurate.com/2009/07/29/ati-evergreen-be-called-7-series/)
Update 2: W0mbat scrubbed his sig. That almost assures that it is faked. Well done fake though.
:|

w0mbat ist ganz böser.

Coda
2009-07-30, 05:44:44
Wie klappt das beim Xenos, wenn Tiling benutzt wird?
Xenos-Tiling ist reine Engine-Sache: Sprich reines Marketing-Geblubber. Wenn der eDRAM nicht reicht muss die Engine das Bild in mehreren Teilen rendern.

Damit hat AMD ja Erfahrung - der K8 war auch von Anfang als Dual Core konzipiert.
Als ob das auch nur Ansatzweise vergleichbar wäre...

Ailuros
2009-07-30, 09:26:40
Das wäre die Richtung die nach der aktuellen Spekulation AMD aufgegriffen hat.

Der letzte Punkt, "Efficiency and time to market" spiegelt das aktuelle Problem wieder. Die großen monolithischen Chips verursachen enorme Kosten und die Komplexität nimmt von Generation zu Generation weiter zu. Neben den reduzierten Entwicklungskosten wäre ein weiterer Vorteil eines Multicores das mit diesem flexibel auf Fehler in neuen Fertigungsprozessen reagiert werden kann. Genau das war und ist immer wieder das große Risiko welches mit jeder neuen Generation einhergeht.

IMG hat zuerst mit single chip high end monolithischen chips fuer die SGX Serie angefangen und griff im Lauf der Zeit als die Notwendigkeit fuer X mehr Leistung erschien zu multi-core. Ausser den technischen Einzelheiten sehe ich bei IMG's Masche eher Parallelen zu NV's als zu AMD's Strategie. Eine GTX295 faellt eigentlich auch in die "efficiency and time to market" Kategorie.

Ailuros
2009-07-30, 09:35:21
Xenos-Tiling ist reine Engine-Sache: Sprich reines Marketing-Geblubber. Wenn der eDRAM nicht reicht muss die Engine das Bild in mehreren Teilen rendern.

Wie waere es mit einem evolutionaerem supertiling Algorithmus hingegen? Sprich ein hierarchical Z Konzept dass dynamisch viewports bzw. macro und micro tiles je nach Bedarf auf cores zuschickt?

So wie ich das SGX MP Zeug verstehe hat jeder core einen MP scheduler; die Daten fliessen dann von der Applikation auf den MP Scheduler, der Aufgaben auf die jeweiligen pipe scheduler verteilt damit es zum thread scheduling dann am Ende kommt.

reunion
2009-07-30, 09:44:44
IMG hat zuerst mit single chip high end monolithischen chips fuer die SGX Serie angefangen und griff im Lauf der Zeit als die Notwendigkeit fuer X mehr Leistung erschien zu multi-core. Ausser den technischen Einzelheiten sehe ich bei IMG's Masche eher Parallelen zu NV's als zu AMD's Strategie. Eine GTX295 faellt eigentlich auch in die "efficiency and time to market" Kategorie.

Ähm ja, und was ist an einer 4870 X2 anders? Die Frage welche man sich stellen kann ist ob ein solches GT300 Monster auch in die "efficiency and time to market" Kategorie fällt. IMG blieb auch stets bei (sehr) kleinen Chips.

Ailuros
2009-07-30, 10:11:59
Ähm ja, und was ist an einer 4870 X2 anders?

Sie kommt von Anfang an um high end zu decken und nicht mit dem Lauf der Zeit wo unter anderen kleinere Herstellungsprozesse multi-core Loesungen erleichtern. SGX erschien auf 90nm und MP configs kommen auf 45nm.

Die Frage welche man sich stellen kann ist ob ein solches GT300 Monster auch in die "efficiency and time to market" Kategorie fällt. IMG blieb auch stets bei (sehr) kleinen Chips.

Die erste Frage will ich Dir noch nicht beantworten weil ich zumindest beim zweiten Teil falsch liegen koennte. Aber wenn's schon sein muss Tegra ist als 3d chip um einiges groesser als ein vergleichbarer SGX und der zweite hat eine um einiges laengere Feature-Liste. Dabei ist aber Tegra Leistungs- und Feature-maessig um zich Male anstaendiger und mit weniger Luegen verknuepft als der Imageon Mist den man Gott sei Dank schnell verkaufte und sich somit vor jeglicher Blamage rettete. Wie schon gesagt wenn man so lange gegen NV konkurriert nimmt man eventuell auch die beschissenen Strategien der Konkurrenz auf.

deekey777
2009-07-30, 15:36:31
Xenos-Tiling ist reine Engine-Sache: Sprich reines Marketing-Geblubber. Wenn der eDRAM nicht reicht muss die Engine das Bild in mehreren Teilen rendern.

Ließe es sich in irgendeinerweise auf einen hypothetischen DC übertragen? Sprich: Beide berechen immer die gleiche (volle) Geometrie usw, aber auf der Pixel-Ebene nur die jeweils die Hälfte des Bildes, das dann von dem "Master-Chip" zu einem Bild zusammengesetzt wird.
(Das wäre ja SFR)

Coda
2009-07-30, 16:05:07
Bei SFR hat man genauso das Problem, dass man bei Offscreen-Rendertargets (Shadowbuffer, etc.) die Daten danach tauschen muss.

Das ist serialisierte Zeit, und du kennst Amdahl. Das wird schnell der absolute Bottleneck. Deshalb wurde SFR bei den heutigen Multi-GPU-Verfahren ja auch komplett fallen gelassen.

horn 12
2009-07-30, 18:05:46
Also nix Neues heute zum RV870, schade!
Hoff da kommt die Tage bedeutend mehr.

Ailuros
2009-07-30, 18:16:51
Bei SFR hat man genauso das Problem, dass man bei Offscreen-Rendertargets (Shadowbuffer, etc.) die Daten danach tauschen muss.

Das ist serialisierte Zeit, und du kennst Amdahl. Das wird schnell der absolute Bottleneck. Deshalb wurde SFR bei den heutigen Multi-GPU-Verfahren ja auch komplett fallen gelassen.

Dumme Frage (und ja ich hab es immer noch nicht richtig kapiert): wie bewaeltigt dann der SGX MP die offscreen rendertargets?

Coda
2009-07-30, 18:25:40
Dumme Frage (und ja ich hab es immer noch nicht richtig kapiert): wie bewaeltigt dann der SGX MP die offscreen rendertargets?
Das Ding verhält sich nach außen zum Speicher wie ein Chip mit einem Memory-Controller, deshalb muss einfach nichts kopiert werden.

Ailuros
2009-07-30, 18:31:07
Das Ding verhält sich nach außen zum Speicher wie ein Chip mit einem Memory-Controller, deshalb muss einfach nichts kopiert werden.

....und hier schliesst sich natuerlich auch gleich die zweite dumme Frage an: was haette AMD theoretisch aufgehalten an etwas aehnliches gedacht zu haben?

Coda
2009-07-30, 18:32:48
Ihr IMR-Design.

Es ist nicht ausgeschlossen, aber dann wesentlich aufwändiger.

V2.0
2009-07-30, 18:40:02
Und wenn der Ringbaus zurück ist?

Ailuros
2009-07-30, 18:44:48
Ihr IMR-Design.

Es ist nicht ausgeschlossen, aber dann wesentlich aufwändiger.

Uns duerfte es ja eigentlich egal sein ob das hypothetische Resultat um einiges aufwaendiger waere als auf einem TBDR, da es sowieso nichts ausserhalb dem eingebettetem Zeug gibt mit dem sie konkurrieren wuerden.

Die Frage ist eher ob der hypothetische Aufwand sich in Grenzen halten wuerde gegen einen anderen IMR und natuerlich ob beim Resultat die Vor- den Nachteilen ueberwiegen.

Coda
2009-07-30, 19:00:21
Und wenn der Ringbaus zurück ist?
Hat damit nichts zu tun.

Die Frage ist eher ob der hypothetische Aufwand sich in Grenzen halten wuerde gegen einen anderen IMR und natuerlich ob beim Resultat die Vor- den Nachteilen ueberwiegen.
Vom Design her wäre es bei einem IMR wohl einfacher normal zu skalieren.

Ich glaube nicht an diese Möglichkeit. Wenn etwas mit "Multi-Core" kommt dann wohl mehrere Dies.

Ailuros
2009-07-30, 19:03:54
Na dann bleibt abzu-***edit***-warten (falls das "dual core/single die" Zeug ueberhaupt stimmt) was sich AMD genau damit gedacht hat.

Gast
2009-07-30, 19:15:57
@Ailuros: Wenn etwas abzusehen ist, bedeutet das, dass man im Vorfeld schon klar erkennen kann, was kommen wird.
Was du meinst, ist: "Es bleibt abzuwarten ..." - eben weil es im Moment noch nicht abzusehen ist. Sry für die kleine Grammatikstunde ^^, aber dieser Lapsus war mir in letzter Zeit gehäuft aufgefallen.

horn 12
2009-07-30, 19:45:13
http://geizhals.at/eu/?fs=HD4870+x2&in=

Nun die HD4870 X² Karten werden langsam rar, mit Ausnahme an Sapphire, diese haben wohl am meisten Karten in petto gehabt.
Rechne bis Ende August sollten die Lager großteils leer sein, mit wenigen Ausnahmen, vor allem Sapphire wird sich sicherlich schwer tun.

Bei uns in talien ordern viele Shops schon gar keine HD4870/4890 -er mehr, da kommt bald Neues, und nicht nur auf dem Papier!

aylano
2009-07-30, 20:54:01
Zum Thema TDP 225 Watt

Ich wäre nicht überrascht, wenn es 110/150/225 Watt-RV870-Modelle gibt. Irgendein Sinn muss ja die OC-RV770-Version alias RV790 gehabt haben.
RV740 war ja auch das Probe-Silicium für RV870.
Und daneben noch ein 300Watt-X2-Modell.
eigentlich hatte ich mich damals beim RV770 gewundert, warum es am anfang keine Übertaktene RV770-Modelle gab.

zum Gerücht 150 & 180 mm² Dies.
Zwei Dies, die ungefähr gleich groß sind, wiedersprechen dem Wirtschaftslichkeits-Modell (So wenige Dies wie möglich), den ATI gerade macht.
Wenn man sich weit aus dem Fenster lehnt, dann könnte man spekulieren
RV870 - 110/150Watt-Modell
RV870 -OC 150/225Watt-Modell, die eben für das OC-Feature 30mm² mehr Die brauchen.
(siehe RV770 & RV790)
Aber wenn man diese Möglichkeit in Betracht sieht, müsste der RV870 aus zwei Die bestehen, und an diese Variante kann ich eben nicht glauben, da dies eben ein Revolutionärer Schritt wäre.

Zur Aussage, ATI muss sparen bzw spart
Das Gerücht, kam schon zur RV770
ATI sagte mal selber, es wäre vernichtend, wenn man im R&D spart.
Und die R&D-Ausgaben sind bei AMD ziemlich konstand.
Außerdem finde ich es hochriskant, so ca. 30 Mio. Euro (wie viel auch immer) einzusparen, aber wenn die Verbindungstechnologie nicht gscheit funktioniert mindestens 100 Mio. Euro zu verlieren.
(siehe ATI-Umsatzsteigerung von 2 auf 3Q 2008, wo nur RV770 wirkte

The_Silent_One
2009-07-30, 21:01:07
Mal ne kleine Frage zwischendurch: Was sind ein TBDR und ein IMR?

reunion
2009-07-30, 21:26:40
* Cypress – dual-chip flagship graphics solutions powered by two RV870 chips (originally known as R800);
* Juniper – single-chip performance-mainstream graphics solution(s) based on RV870 chip;
* Redwood – single chip mainstream graphics solution(s) based on RV830 chip;
* Cedar – single chip entry-level graphics solution(s) based on RV810 chip;
* Hemlock – unknown.

http://www.xbitlabs.com/news/video/display/20090729231441_Additional_Details_Regarding_ATI_s_DirectX_11_Family_Revealed.htm l
Originalquelle: http://global.hkepc.com/3766

Auch da steht wieder was von guten Yields.

crux2005
2009-07-30, 21:50:06
Mal ne kleine Frage zwischendurch: Was sind ein TBDR und ein IMR?

Tile Based Deferred Renderer
Immediate-Mode Renderer

oder so irgendwie (:D)

Coda
2009-07-30, 22:30:31
Ist korrekt.

Gast
2009-07-30, 23:08:31
http://www.xbitlabs.com/news/video/display/20090729231441_Additional_Details_Regarding_ATI_s_DirectX_11_Family_Revealed.htm l
Originalquelle: http://global.hkepc.com/3766

Auch da steht wieder was von guten Yields.

Dann spekulier ich mal und sage das nVidia besser aufgestellt ist und den deutlich schnelleren DX11 Chip liefern wird.

Coda
2009-07-30, 23:10:10
Wenn sie ihn liefern können.

Gast
2009-07-30, 23:36:30
Wenn sie ihn liefern können.

Ich schätze mal doppelt so schnell wie eine 4870X2 da MultiChip dafür ohne Mikroruckler bei "einer" Karte. Nvidia wird das mit einem Chip aber ganz locker übertreffen (wenn sie denn liefern können in der Tat)

deekey777
2009-07-30, 23:45:59
Warum müssen dort unbedingt Mikroruckler enstehen?

Ich verbessere: "ohne Mikroruckler"?

Gast
2009-07-30, 23:56:45
Warum müssen dort unbedingt Mikroruckler enstehen?

Ich verbessere: "ohne Mikroruckler"?

Ich verstehe deine Frage nicht? Die 4870X2 hat MR, R800 wird als Dualchip Variante ev. keine mehr haben, da sie intern anders kommunizieren, solange man keine "zweite" Karte dazubaut wird man von MR sowie Profilen verschont bleiben.

Coda
2009-07-31, 00:05:00
Eventuell. Ich glaube es bleibt einfach bei AFR bei RV870.

KonKorT
2009-07-31, 03:49:09
Dann spekulier ich mal und sage das nVidia besser aufgestellt ist und den deutlich schnelleren DX11 Chip liefern wird.
Stimmt.
Ich schätze mal doppelt so schnell wie eine 4870X2 da MultiChip dafür ohne Mikroruckler bei "einer" Karte.
Wohl zu optimistisch.

nagus
2009-07-31, 07:58:07
Stimmt.

die frage ist wann das ding nun rauskommt und wieviel "besser" im endeffekt übrig bleibt. :confused:

reunion
2009-07-31, 10:17:21
Stimmt.


Ich finde es unseriös so etwas zu sagen obwohl du es nicht wissen kannst.

Gast
2009-07-31, 10:20:47
Ich finde es unseriös so etwas zu sagen obwohl du es nicht wissen kannst.
Entscheide dich mal, bringt AMD jetzt einen super kleinen Chip raus, der auf eine X2 geschnallt wird, oder einen großen.

Seit langem wirbst du mit ersterem und erzählst uns wie toll das doch ist.

Hugo
2009-07-31, 10:23:15
Stimmt.

Wohl zu optimistisch.

@ KonKorT
weißt du denn was zur Performance beider Chips?

reunion
2009-07-31, 10:23:26
Entscheide dich mal, bringt AMD jetzt einen super kleinen Chip raus, der auf eine X2 geschnallt wird, oder einen großen.

Seit langem wirbst du mit ersterem und erzählst uns wie toll das doch ist.

Mach dich nicht lächerlich. Niemand hier weiß wie es wirklich ist. Hier wird spekuliert, deshalb auch "Spekulationsforum". Beide IHVs haben völlig dicht gemacht. AMD lässt nur ein paar nichtssagende Codenamen heraus um den Hype aufrecht zu erhalten. Bei NV hört man gar nichts mehr. Ein großer wird es aber ziemlich sicher nicht. Die Frage ist ob die X2 mehr ist wie eine AFR Lösung. Dazu kommen immer wieder Gerüchte auf und dazu gibt es verschiedenste Ansätze. Ob es so kommt, keine Ahnung.

Nakai
2009-07-31, 11:15:33
Wohl zu optimistisch.

Nur?

Doppelte HD4870X2-Performance wäre wirklich wünschenswert.

Nvidia schafft etwa 2,5TFlop mit der Karte. Zusätzlich gibt es Architekturverbesserungen. Ein hypothetischer RV870 hat 1600SPs. R800 hat 3200SPs. Bei 850Mhz, sind das fast 5,5TFlop. Selbst wenn die SPs nur zu 3/5 ausgelastet sind und wenn ich CF-Verluste berücksichtige, sollte die Performance nicht deutlich unter GT300 liegen.

Ich finde es unseriös so etwas zu sagen obwohl du es nicht wissen kannst.

Wieso? Lies die Frage des Gastes und seine Konkorts Antwort.;)
Chip ist nicht Karte.


mfg Nakai

horn 12
2009-07-31, 13:37:20
Nun, rechne mit ca. 280-300 Euro für die HD5870 mit etwa 4870 X² Performance, die HD5870 X² knapp über 500 Euro, aber fast 3-facher Leistung einer HD4870. Also etwa Triple CF wie man so schon sagt, und nochmals 20% über einer GTX380 , der High End GPU von Nvidia.

Die GT380 (also das Topmodell) wird vielleicht 30-40% über der HD5870 liegen, preislich aber nicht unter 450-500 Euro zu haben sein.

PS: Es wird Platz gemacht für die HD5870, die X² wird von Tag zu Tag knapper, oft nur mehr wenige lieferbar.
Sapphire jedoch hat noch Unmengen an X².

Gast
2009-07-31, 13:48:33
PS: Es wird Platz gemacht für die HD5870, die X² wird von Tag zu Tag knapper, oft nur mehr wenige lieferbar.
Sapphire jedoch hat noch Unmengen an X².
Kann genauso auf eine 4890 X2 hindeuten.

Die Karte die man sich nicht vorstellen, das sie je erscheint, weil 400-500W für die 300W Spezifikation und die Kühlung doch nicht unerheblich sind.

Gast
2009-07-31, 14:03:09
Die GT380 (also das Topmodell) wird vielleicht 30-40% über der HD5870 liegen, preislich aber nicht unter 450-500 Euro zu haben sein.


glaub nicht, dass gtx380 30% schneller sein wird - höchstens 10%, mehr nicht.
viel wichtiger ist die frage, ob ATI mehr auf textureinheiten setzt anstatt auf shader.
die strategie von ATI geht einfach nicht auf, sie müssen wieder schnelle sgpu karten releasen oder eine alternative lösung zu afr finden.
nv bringt seit der g80 auch nichts neues mehr raus, glaube deshalb, dass rv800 die gt300 übertrumpfen kann.
ist ja nicht mehr lange hin bis die nächsten karten kommen.

Gipsel
2009-07-31, 14:22:53
viel wichtiger ist die frage, ob ATI mehr auf textureinheiten setzt anstatt auf shader.
die strategie von ATI geht einfach nicht auf, ...
Die neuen Karten werden sicherlich auch etwas mehr Textureinheiten bringen (oder entsprechend aufgebohrte), aber höchstens gesteigert im Verhältnis zur höheren Shaderzahl. Das ALU:TEX Verhältnis von 4:1 wird nicht mehr kleiner werden (perspektivisch eher noch etwas höher). Auch nvidia geht mit dem GT300 wohl auf 4:1 (nach 3:1 mit GT200 und 2:1 mit G80/G9x), obwohl das bei ATI/nv Vergleichen etwas schwierig ist wegen der verschiedenen Takte bei nv und den VLIW-ALUs bei ATI.

reunion
2009-07-31, 14:25:31
40nm Yields laut TSMC mittlerweile bei 60%:
http://www.digitimes.com/news/a20090731PD204.html

Gipsel
2009-07-31, 14:27:44
http://www.xbitlabs.com/news/video/display/20090729231441_Additional_Details_Regarding_ATI_s_DirectX_11_Family_Revealed.htm l
Originalquelle: http://global.hkepc.com/3766
Cypress – dual-chip flagship graphics solutions powered by two RV870 chips (originally known as R800);
* Juniper – single-chip performance-mainstream graphics solution(s) based on RV870 chip;
* Redwood – single chip mainstream graphics solution(s) based on RV830 chip;
* Cedar – single chip entry-level graphics solution(s) based on RV810 chip;
* Hemlock – unknown
Auch da steht wieder was von guten Yields.
Das ist sowieso alles nur von der Sylvie Barak vom Inquirer abgeschrieben. Und da hat sich angeblich ein Fehler eingeschlichen, den jetzt auch alle abschreiben. Die wirkliche Performance-Reihenfolge ist wohl

Cedar - Redwood - Juniper - Cypress - Hemlock (dual Cypress)

Gipsel
2009-07-31, 14:32:32
40nm Yields laut TSMC mittlerweile bei 60%:
http://www.digitimes.com/news/a20090731PD204.html
Solche Zahlen sind ohne Angaben über den fabrizierten Chip ohne jede Aussage. Wenn das ein SRAM oder ein FPGA mit sehr viel Redundanz war, ist das richtig mies, genauso wie für irgendeine 40mm² Einsteiger-GPU. Wenn es aber eine Aussage für einen 500mm² Chip ohne viel Redundanz wäre, schon ganz gut.

Ailuros
2009-07-31, 14:53:27
glaub nicht, dass gtx380 30% schneller sein wird - höchstens 10%, mehr nicht.

Du darfst glauben und natuerlich auch hoffen. Enttsaeschungen sind eine schoene Sache.

viel wichtiger ist die frage, ob ATI mehr auf textureinheiten setzt anstatt auf shader.

Nein.

die strategie von ATI geht einfach nicht auf, sie müssen wieder schnelle sgpu karten releasen oder eine alternative lösung zu afr finden.
nv bringt seit der g80 auch nichts neues mehr raus, glaube deshalb, dass rv800 die gt300 übertrumpfen kann.
ist ja nicht mehr lange hin bis die nächsten karten kommen.

RV8x0 ist der evolutionaere Design hier und G300 der eher "revolutionaere". Ich weiss nur nicht in welche Richtung diese "Revolution" genau geht: 3D oder GPGPU.

AffenJack
2009-07-31, 14:54:23
Wichtig ist an der sache ja auch nur, dass 40 nm im Vergleich zum Anfang doppelt soviel yield rauskriegt. Bei rv740 gabs ja Aussagen zu 20-30% yield, sowas in der art könntes also sein. Damit kann man dann auch wirklich die Produktion beginnen und Atis DX11 Grakas sollten in nicht allzu ferner zeit auch gut verfügbar werden.

Tarkin
2009-07-31, 16:51:57
http://www.theinquirer.net/inquirer/news/1495726/awaiting-evergreen

Three months ago, two vendors in Taiwan indicated they were planning a customised, power-monster 4890X2 design. Even two x 8-pin GPU power connectors were thought of to allow overclocking.

At the time they told me they would only build this monster if AMD dragged its heels on producing Evergreens. They reasoned that the monster would have three or four months to sell among enthusiasts and those from cold northern climes who need an extra heater in winter. But if Evergreen ran on schedule then the custom 4890X2 would never be built.

Last week they confirmed that the custom 4890X2 idea is dead.

aylano
2009-07-31, 18:54:13
Entscheide dich mal, bringt AMD jetzt einen super kleinen Chip raus, der auf eine X2 geschnallt wird, oder einen großen.

Seit langem wirbst du mit ersterem und erzählst uns wie toll das doch ist.
Wäre der RV770 damals (sagen wir mal) 300mm² groß und hätte sie eine dementsprechende Shader & Co Anzahl, hätte man diesen Chip höchstwahrscheinlich trotzdem noch als Performance & kleinen Chip nennen können, aber dieser hätte (daumen mal pi) die selbe Performance wie Nvidias-High-End-575mm²-Chip gehabt.

Die Chancen sind groß, dass Nvidia die schnellste GPU rausbring, aber es ist eben noch nichts in den Stein gemeiselt.

Und in den letzten 2 Jahren gab es mit dem Überraschend Guten G80 & - schlechten R600 sowie - guten RV770 recht viele Überraschungen

Ailuros
2009-07-31, 20:25:24
Im letzten Satz oben liegt auch das gelbe vom Ei: man kann nie immer gewinnen ;)

AnarchX
2009-08-03, 10:11:04
DirectX 11: AMD & Nvidia enthüllen Details zu Technik und Hardware (http://www.pcgameshardware.de/aid,691316/DirectX-11-AMD-und-Nvidia-enthuellen-Details-zu-Technik-und-Hardware-Vorschau-auf-PC-Games-Hardware-09/2009/PCGH-Heft/News/)
Richard Huddy, AMD

Frage: Habt ihr ein bestehendes Design als Basis genommen oder bei null angefangen? Welche Teile benötigten die größten Umbauten?

Antwort: Für Evergreen haben wir ziemlich viel Neuland betreten müssen, sie ist aber in einigen wesentlichen Punkten von unserer aktuellen DX10.1-Architektur abgeleitet. Die Effizienz der HD-4000-Reihe macht sie zu einem perfekten Ausgangspunkt, aber DX11 erfordert viel Feinarbeit an den Spezifika*tionen, welche dann an bestimmten Stellen hinzugefügt werden musste. Zusätzlich haben der Tessellator und damit auch Hull- und Domainshader ziemlich tiefgreifende Änderungen am Scheduler erfordert. Insgesamt würde ich sagen, dass unser Haupt-Scheduler, der die Arbeit auf die ALUs verteilt und die Ressourcen den einzelnen Arbeitsschritten zuweist, die Komponente ist, welche die größte Überholung erforderte. Insgesamt ist er mehr als doppelt so komplex wie in vorigen Generationen. Wenn ihr die finalen Spezifikationen seht, werdet ihr feststellen, dass wir auch andere Teile der Hardware deutlich aufgepumpt haben; unter anderem auch, weil wir jetzt einfach komplexere Chips herstellen können.

Vielleicht doch ein SGX-MP-artiger Ansatz.

Gast
2009-08-03, 10:32:50
Ich würde da nicht zu viel reininterpretieren. Durch die kleinere Strukturgröße, können sie bei gleichbleibender Die-Fläche mehr Transistoren verbraten, passt ebenso sehr gut in das Zitat ;) Ableiten könnte man davon aber so gut wie gar nichts.

reunion
2009-08-03, 11:50:32
Mehr als doppelt so komplex bedeutet Minimum ~2Mrd Transistoren.

AnarchX
2009-08-03, 11:51:26
Mehr als doppelt so komplex bedeutet Minimum ~2Mrd Transistoren.
Der Scheduler ist doppelt so komplex.

V2.0
2009-08-03, 12:06:46
Außerdem kann eine Einheut komplexer geworden sein, man kann aber weniger davon verbauen.

Coda
2009-08-03, 14:50:31
Mehr als doppelt so komplex bedeutet Minimum ~2Mrd Transistoren.
Er redet vom Scheduler, nicht vom ganzen Chip.

Das der für D3D11 deutlich komplexer wird habe ich sicher auch schon mal erwähnt.

reunion
2009-08-03, 15:39:11
Der Scheduler ist doppelt so komplex.

Ja, habe ich falsch aufgefasst.

Er redet vom Scheduler, nicht vom ganzen Chip.


Das hat jemand drei Stunden vor die auch schon geschrieben.

derguru
2009-08-03, 16:58:14
in dem interview mit richard huddy wird auch davon geredet das es auch andere BQ verbesserungen geben wird als AA und AF zum launch von evergreen.was könnte es denn sein?

LovesuckZ
2009-08-03, 17:12:29
Kannst du im GT300 Thread schreiben, ob der nVidia Mensch irgendwas über die Hardware gesagt hat?

deekey777
2009-08-03, 17:13:30
in dem interview mit richard huddy wird auch davon geredet das es auch andere BQ verbesserungen geben wird als AA und AF zum launch von evergreen.was könnte es denn sein?
Ich bin mir so ziemlich sicher, dass das sich nicht auf AA/AF bezieht, sondern auf Verbesserungen wie weichere Schatten (gather() und Blur usw), vielleicht aber etwas in Richtung wie Stalker CS mit DX10.1.
Dass sie jetzt die TMUs auf Niveau von Nvidia aufmotzen, glaube ich nicht.

Coda
2009-08-03, 17:13:32
in dem interview mit richard huddy wird auch davon geredet das es auch andere BQ verbesserungen geben wird als AA und AF zum launch von evergreen.was könnte es denn sein?
Supersampling? scnr ;)

Nein ernsthaft, da bin ich echt mal drauf gespannt.

AnarchX
2009-08-03, 17:20:56
Beim zuschaltbaren Ambient Occlusion könnte man auch gegenüber Nvidia nachziehen.
Vielleicht implementiert man es über CS5.0: http://www.pcgameshardware.de/aid,689881/DirectX-11-Compute-Shader-Dank-Local-Data-Share-dreimal-schneller-als-unter-DX101/Grafikkarte/News/

derguru
2009-08-03, 18:11:14
Kannst du im GT300 Thread schreiben, ob der nVidia Mensch irgendwas über die Hardware gesagt hat?
ja der launch verschiebt sich um 1 jahr.
Ich bin mir so ziemlich sicher, dass das sich nicht auf AA/AF bezieht, sondern auf Verbesserungen wie weichere Schatten (gather() und Blur usw), vielleicht aber etwas in Richtung wie Stalker CS mit DX10.1.
Dass sie jetzt die TMUs auf Niveau von Nvidia aufmotzen, glaube ich nicht.
da bin ich mir auch sicher das es sich nicht auf aa und af bezieht.apropo was ist denn mit meinem lieblingsmod passiert?
Supersampling? scnr ;)

Nein ernsthaft, da bin ich echt mal drauf gespannt.
klar wie bei crysis über die console.:rolleyes:

zur frage ob AF sich verbessern wird,hust
Die Qualität der anisotropen Filterung ist bei beiden GPU-Herstellern weit vom Optimum entfernt und ich glaube,dass beide das auch zu einem gewissen Grad angehen werden.
ist jedenfalls kein gutes zeichen wenn man auch die konkurenz mit einbezieht(egal ob es stimmt oder nicht).

horn 12
2009-08-03, 19:32:26
Nun, bis in nem Monat sollte die HD4870 X² so gut wie abverkauft sein, die Angebote sinken täglich, ebenso finden man nur noch bei 2 Herstellern sehr große Mengen, die anderen Hersteller sind unter 30 GeizhalsListungen.
http://geizhals.at/eu/?fs=HD4870+x2&in=

In gut einem Monat wird man wohl schwer eine HD4870 X² finden, sehr wahrscheinlich noch welche von Gigabyte und Sapphire, also Restposten.
5-7 große OnlineShops sind bereits OHNE HD4890 /4870/ bzw. gar X² Karten in Italien.
http://www.prokoo.com/index.php?cPath=3_51_198_56
Dieser Shop hatte Unmengen an Graka, und nie unter 5-8 verschiedene Modelle, und nun ---> gerade mal 2 Restposten.

PS:
Diese Preisklasse wird dann wohl die "Neue" HD5870 einnehmen, mit gar etwas geringerem Preis als jetzt. Denn die X² Karte war enorm Preisstabil!

horn 12
2009-08-04, 20:10:42
Da will wohl ATI den Markt mit DX11 so schnell wie irgend möglich für sich alleine erobern, also ca. 280-300 Euro und 480-520Euro für die DUAL HD5870.
Rechne sehr stark man will erneut über den Preis gehen, um die Kundschaft schon früh zu fangen,- und somit verhindern auf die NV Karten zu hoffen, da dort der Preis weitaus höher sein wird, aber auch , dies wird wohl so sein, sicherlich auch die Performance,- aber NIE in dem Maß zum PerformancePlus.

Grund:
Bis es die HD5870 5870X² ? zu kaufen gibt, wird die HD4870 1GB auf die 110 Euro, die HD4890 850/900 975 auf die 130/140 Euro sein, die HD4890 mit 960/1000+ Mhz gibt es so hut wie nicht mehr,- und der Aufpreis ist es nun nicht mehr wert. War eher ne Prestige Frage mit den knacken der 1Ghz im Grafikkarten Sektor. Somit hätte man ca. doppelte HD4890 Performance und AMD-ATI immer noch ca. den doppelten Preis welche diese Karte kostet.
Ebenso sollte die HD4870 X² in nem Monat recht knapp werden, mit wenigen Ausnahmen... So sehe ich halt die aktuelle Situation!
Zudem sollte das Neue Verfahren günstiger sein,- und ATI weiss nur zu genau was passieren kann wenn man die Preise zu hoch ansetzt. Da warten viele Käufer mal auf die Konkurrenz, was jene zu bieten haben bei vielleicht erst dem selben Preis... Dann lieber vorher "absahnen", als durch die Wäsche schauen.
Was sagt Ihr dazu ?

http://www.fudzilla.com/content/view/14909/34/

AnarchX
2009-08-04, 21:37:03
http://itbbs.pconline.com.cn/diy/10432745.html

小道消息-----关于AMD RV8XX的一些实际情况
9月17日在旧金山正式版发布全系列万年青。
AMD DX11图形芯片划分成高端、性能、主流、入门四档,高档代号Cypress,性能代号
代号Redwood,主流两款代号分别是Juniper和Cedar,入门代号Hemlock。

其中旗舰产品Cypress采用MCM设计,由2颗Redwood组成,Redwood芯片尺寸300平方毫米,
Juniper芯片尺寸181平方毫米,Cedar芯片尺寸120平方毫米。目前,AMD DX11性能和主流
产品进展顺利,只是在旗舰产品Cypress的芯片封装上遇到了一点问题,因此,Cypress
有可能推迟到AMD DX11性能、主流产品上市之后。

----- AMD RV8XX gossip on some of the actual situation

September 17 in San Francisco issued a formal version of a full range of evergreen.
AMD DX11 graphics chips into high-end, performance, mainstream, entry-四档, high-end, code-named Cypress, the performance of code
Codenamed Redwood, are the mainstream of the two code-named Juniper and Cedar, entry, code-named Hemlock.

And flagship product Cypress uses the MCM design, is composed of 2 Redwood, Redwood chip size 300 square millimeters,
Juniper chip size of 181 mm2, Cedar die size 120 mm2. Currently, AMD DX11 performance and mainstream Products has proceeded smoothly, but the flagship product in the chip package Cypress encountered a little problem, Cypress
May be deferred to the AMD DX11 performance, after the mainstream market

Mit 300mm² @40nm könnte man doch eine nette Leistung erreichen, aber durch diese Größe holt man sich wohl auch wieder Probleme ins Haus.

horn 12
2009-08-04, 22:14:41
Wieder Neue Ansichten, dies dürfte wohl mindestens HD4870 X² Performance bringen, gar um einiges mehr,- aber auch die Karte dann teurer machen.:mad::mad:
Vor allem wenn es bei der HD5870 X² Probleme machen könnte, denn 2x RV870 mit 300mm²,- sprich 600mm² sind nicht von Pappe und könnten schon arge Probleme aufweisen. Vor Allem Hitze und Lautstärke rechne ich mal.

PS: Wie zuverlässig ist diese gerade eben genannte Quelle ?

reunion
2009-08-04, 22:31:12
Dann war der gezeigte Chip wohl ein Juniper. 300mm² in 40nm bei Redwood wären locker 2Mrd Transistoren, wenn man von RV7xx Packdichte ausgeht eher >2.2 Mrd Transistoren. Auch eine hier erwähnte MCM-Lösung öffnet interessante Optionen was eine neue Multi-GPU-Technik betrifft.

AnarchX
2009-08-04, 22:41:05
Dann war der gezeigte Chip wohl ein Juniper. 300mm² in 40nm bei Redwood wären locker 2Mrd Transistoren, wenn man von RV7xx Packdichte ausgeht eher >2.2 Mrd Transistoren.
RV740 hat eine Packdichte von 6MT/mm² und ob man diese bei RV8xx beibehalten kann wird sich wohl erst noch zeigen müssen.

reunion
2009-08-04, 22:47:05
RV740 hat eine Packdichte von 6MT/mm² und ob man diese bei RV8xx beibehalten kann wird sich wohl erst noch zeigen müssen.

Die Packdichte steigt mit der Die-Size noch leicht, aber stimmt wohl 40nm scheint nicht das zu bringen was rechnerisch möglich wäre.

Coda
2009-08-04, 23:00:30
Ist bei 193nm-Litho auch nicht verwunderlich. Man muss große Klimmzüge veranstalten um damit noch 40nm-Strukturen belichten zu können.

Gipsel
2009-08-05, 03:05:30
Ist bei 193nm-Litho auch nicht verwunderlich. Man muss große Klimmzüge veranstalten um damit noch 40nm-Strukturen belichten zu können.
Demnächst kommen 32nm und auch 28nm noch mit 193nm Lithographie. Und selbst bei 22nm glaube ich noch nicht, daß da wirklich mal EUV eingesetzt wird. Das könnte sogar ohne wirklich neue Tricks mit 193nm klappen (Kombination von double patterning und Immersion mit hochbrechender Flüssigkeit). Soweit ich weiß, gibt es schon funktionierende SRAMs, die so hergestellt wurden. Alles darüber hinaus wird dann eng.

Momentan sieht es so aus, als hätte EUV sein Zeitfenster praktisch verpaßt. Kleiner als 22nm wird damit langsam auch schon wieder ein Problem (die numerische Apertur ist üblicherweise aufgrund fehlendem Spielraum bei der Optik ziemlich mies). Den Faktor 14 Vorteil bei der Wellenlänge gegenüber 193nm vergibt man da zum großen Teil wieder.

Coda
2009-08-05, 03:37:18
Ja, aber dennoch bedeutet das, dass man bei der Anordnung der Transistoren immer weniger Freiheiten hat. Das sorgt dafür, dass die Shrinks erstmal "schlechter" werden. Gab da mal ein schönes Vergleichsbild von Intel.

Gipsel
2009-08-05, 03:42:31
Ja, aber dennoch bedeutet das, dass man bei der Anordnung der Transistoren immer weniger Freiheiten hat. Das sorgt dafür, dass die Shrinks erstmal "schlechter" werden. Gab da mal ein schönes Vergleichsbild von Intel.
Apropos Intel, habe gerade gesehen, daß Intel behauptet 22nm mit Immersion aber ohne Double Patterning hinzubekommen (gut, sie belichten jetzt ja 45nm auch trocken, insofern kann das schon hinkommen), was sie erst für 16nm benutzen wollen. Und das Ganze immer noch mit 193nm Belichtung :o

Coda
2009-08-05, 03:51:49
Ja, man darf wirklich gespannt sein ob EUV überhaupt noch kommt. Habe ich mir heute auch schon überlegt.

Und zudem: Wir reden von TSMC nicht Intel :biggrin:

V2.0
2009-08-05, 07:24:47
http://itbbs.pconline.com.cn/diy/10432745.html
Mit 300mm² @40nm könnte man doch eine nette Leistung erreichen, aber durch diese Größe holt man sich wohl auch wieder Probleme ins Haus.

Wenn sie das Line-Up geschlossen in den Markt bringen, sind sie auf dem Weg zur Nr.1 im Markt.

Ailuros
2009-08-05, 09:12:06
Dann war der gezeigte Chip wohl ein Juniper. 300mm² in 40nm bei Redwood wären locker 2Mrd Transistoren, wenn man von RV7xx Packdichte ausgeht eher >2.2 Mrd Transistoren. Auch eine hier erwähnte MCM-Lösung öffnet interessante Optionen was eine neue Multi-GPU-Technik betrifft.

Wenn ich mich nicht irre duerfte die Packdichte sogar noch grosszuegiger sein als auf RV790, hoechstwahrscheinlich um den Stromverbrauch besser kontrollieren zu koennen.

Zwei Einzelheiten:

1. Der perf/mm2 Vorteil ist kleiner geworden.

2. D3D11 ist wohl doch nicht "umsonst" und man war wohl doch nicht so "nahe" an X11 wie jeder behaupten wollte.

mboeller
2009-08-05, 10:01:27
http://itbbs.pconline.com.cn/diy/10432745.html
Mit 300mm² @40nm könnte man doch eine nette Leistung erreichen, aber durch diese Größe holt man sich wohl auch wieder Probleme ins Haus.

Ja und nein.

Redwood soll ja der Dual-Core Chip sein. Also 1 Chip der wie ein Athlon II aus 2 kleineren Chips auf einem Die besteht. Die Yields bei TSMC dürften davon betroffen sein, das Design sollte aber nahezu dem Single-Cores Juniper/Cedar entsprechen.

300mm² @ 40nm sollten wohl ca. 1,8 Mrd Transistoren sein, verglichen mit dem RV740 der 826 Mio Transistoren auf 137mm² hatte.

Hat wer eine Ahnung warum es 2 Mainstream-Chips, Juniper und Cedar geben könnte/soll?


17.09.2009 => die Gerüchte haben also fast gestimmt. Bisher war ja der 10. Spetember im Gespräch.

S940
2009-08-05, 11:10:36
Redwood soll ja der Dual-Core Chip sein. Also 1 Chip der wie ein Athlon II aus 2 kleineren Chips auf einem Die besteht. Die Yields bei TSMC dürften davon betroffen sein, das Design sollte aber nahezu dem Single-Cores Juniper/Cedar entsprechen.
Der Athlon2 ist kein MCM ;) MCMs sind z.B: Intels alte QuadCore Chips für den S775. MCM = Multi Chip Module, also 2 *eigenständige* chips in einem Modul/Gehäuse, die irgendwie miteinander verbunden/verlötet etc. sind.
Die Athlon2 sind ein Chip, verbunden auf DIE Ebene, das ist ein Level tiefer in der Integrationstiefe.

Falls es Dir zum Verständnis hilft, ein kleiner Vergleich: AMD spielt im GPU Bereich die Intel Karte, während nVidia auf den Erfolg des große, dicken native DIE setzt ;-)

Hat wer eine Ahnung warum es 2 Mainstream-Chips, Juniper und Cedar geben könnte/soll?
Naja, der eine wird leisungsmäßig wohl ein RV770 Nachfolger, der andre ein RV730 Nachfolger, mit den Spitzenmodellen erweitert AMD das Portfolio nach oben. Hat man hohe Yields, rentiert sich sowas ... danach schaut es zwar im Moment nicht aus, aber wird schon noch kommen.

@Redwood:
300mm2 Größe ... was meint Ihr: 384 oder 512 bit RAM Interface ?

ciao

Alex

KonKorT
2009-08-05, 11:20:27
Der User macht abweichende Angaben zu den Bezeichnungen. Aktuelle Reihenfolge war doch wohl von High-End bis Low-End Hemlock, Cypress, Juniper, Redwood, Cedar.
Das würde dann auch heißen, dass Hemlock 2x 300 sqmm ist, Cypress 300 sqmm, Juniper 181 sqmm und Redwood 120 sqmm. Cedar tippe ich jetzt mal auf < 80 sqmm.

w0mbat
2009-08-05, 11:29:54
[...]
17.09.2009 => die Gerüchte haben also fast gestimmt. Bisher war ja der 10. Spetember im Gespräch.

Vielleicht ist der 10. ja ein Presse-Event und der 17. Launch? Schonmal daran gedacht?

Ailuros
2009-08-05, 12:25:32
Kommt ganz drauf an ob AMD die gesamte Familie zum hard launch fuehren will oder nur einen Teil dieser.

MR2
2009-08-05, 12:41:25
Wenn die DualRV870 bereits anfangs kommt, wird wohl gleich das Meiste gelauncht.
Ich warte schon ganz ungeduldig, kann ich Crysis endlich flüssig zocken?

MFG MR2

Nakai
2009-08-05, 12:46:59
Nur damit ich das richtig verstehe, der RV870 ist ein Chip mit 300mm². Dieser Chip ist kein Dualcore-Chip sondern ein normaler Singlechip?
Wenn ja, dann sollte man locker 1600SPs erreichen, eher 2000SPs.


mfg Nakai

BlackBirdSR
2009-08-05, 12:47:09
Also nochmal für Leute mit wenig grips wie mich:

Die MCM-Version basiert auf einem 300mm^2 Chip
Die Performance-Version direkt danach auf einem 181mm^2 Chip?

Ich will nicht verstehen, wie man für ein High-End-Low-Volume Produkt einen so großen Chip extra entwickeln will, anstelle 2x181mm^2 zu nehmen. Will(braucht) man mit der X2-Karte so viel mehr Performance fürs Prestige?

Sag doch ich bin blöde..
Also X2 = 2x300
Performance = 1x300
??

reunion
2009-08-05, 12:52:45
Sag doch ich bin blöde..
Also X2 = 2x300
Performance = 1x300
??

Richtig, so steht es zumindest dort. Midrage dann 1 x 181mm² usw.

Das interessante an der X2 ist die angebliche MCM-Lösung.

Ailuros
2009-08-05, 12:54:12
Das interessante an der X2 ist die angebliche MCM-Lösung.

....*yawn*.... ;)

reunion
2009-08-05, 12:55:18
....*yawn*.... ;)

Etwas mehr Info wäre schon nicht schlecht. :)

Nakai
2009-08-05, 12:57:37
Kein MCM? Dann das spekulierte Dualcore-Prinzip?


mfg Nakai

Ailuros
2009-08-05, 13:07:38
Etwas mehr Info wäre schon nicht schlecht. :)

Nothing to blow up my skirt ;)

AnarchX
2009-08-05, 13:09:15
Wenn man sich den 180mm² Die anschaut, erkennt man hier ja eindeutig 4 quadratische Felder, was sich doch sehr von den bisherigen R6xx/R7xx-Strukturen unterscheidet.
Vielleicht sind das AMDs neue Cores, die man einfacher skalieren kann, ähnlich eben wie bei SGX.

Gast
2009-08-05, 13:09:32
Wie wärs denn mit stinkenormalem Crossfire?
Ich glaube, dass dies bei einem 300mm²-die für den Performance-Chip sehr wahrscheinlich ist.

w0mbat
2009-08-05, 13:19:16
Wenn man sich den 180mm² Die anschaut, erkennt man hier ja eindeutig 4 quadratische Felder, was sich doch sehr von den bisherigen R6xx/R7xx-Strukturen unterscheidet.
Vielleicht sind das AMDs neue Cores, die man einfacher skalieren kann, ähnlich eben wie bei SGX.

Wo kann man sich das 180mm² Die ansehen? Ich dachte die bisherigen Bilder zeigen alle die Rückseite.

Psychopat
2009-08-05, 13:19:56
Wenn man zwei 300mm² Chips in ein MCM packt, hat man evtl. mit der Kühlung probleme. Im Crossfire wären die Chips nicht so nah beisammen. Nur so ein Gedanke...

igg
2009-08-05, 13:21:26
Ich tippe auch eher auf normales CF. Das ist jetzt glaub die dritte Generation von ATI Karten wo im Vorfeld auf ein neues MCM Design spekuliert wird.

Wenn man die neusten Gerüchte (welche wohl auf Testboards/Samples basieren dürften, bei einem Launch im Sept.) so verfolgt, finde ich deutet vieles darauf hin, dass ATIs großer DX11 Wurf erst nächstes Jahr kommt (GF?).

Ailuros
2009-08-05, 13:30:31
Wenn man die neusten Gerüchte (welche wohl auf Testboards/Samples basieren dürften, bei einem Launch im Sept.) so verfolgt, finde ich deutet vieles darauf hin, dass ATIs großer DX11 Wurf erst nächstes Jahr kommt (GF?).

Fruehestens Ende 2010 wenn nicht gleich 2011 und ja sonst richtig getippt was den grossen Wurf betrifft.

V2.0
2009-08-05, 13:39:56
Wobei sie keinen großen Wurf brauchen, wenn sie die Dinger zeitnah und in Mengen leifern können. Checkbox-Feature-Erfüllung reicht für den Anfang von DX11. Außerdem würde ein echter 300 mm² Chip sicherlich nicht so schlecht performen im Vergleich zum RV770 und genug Käufer finden und am Ende bleibt immer noch die Preisschraube.

Ailuros
2009-08-05, 13:48:20
Wobei sie keinen großen Wurf brauchen, wenn sie die Dinger zeitnah und in Mengen leifern können. Checkbox-Feature-Erfüllung reicht für den Anfang von DX11. Außerdem würde ein echter 300 mm² Chip sicherlich so schlecht performen im Vergleich zum RV770 und genug Käufer finden und am Ende bleibt immer noch die Preisschraube.

Es haengt stets von dem ab was die direkte Konkurrenz hat. Wenn die Konkurrenz nichts besonders berauschendes bringt im Vergleich zu ihrem heutigen Kaese, dann ja gilt das obrige zweiffellos. Wenn es aber die Konkurrenz geschafft hat einen groesseren Unterschied zu machen, wird AMD's zeitlicher Vorsprung nicht nur begrenzt sein am Anfang, es wird sich auch die Geschichte wiederholen wie von R600/RV670 auf RV770.

Nakai
2009-08-05, 13:48:29
Naja es sieht irgendwie so aus, dass AMD DX11 ziemlich heftig pusht. Sowieso ist DX11 vorerst nur ein Checklist-Feature. Vor Mitte 2010 wird DX11 nicht soviel reissen können. Lief ja bis etz bei jeder DX-Version in etwa so.

Checkbox-Feature-Erfüllung reicht für den Anfang von DX11. Außerdem würde ein echter 300 mm² Chip sicherlich so schlecht performen im Vergleich zum RV770 und genug Käufer finden und am Ende bleibt immer noch die Preisschraube.

Anscheinend ist bei DX11 CS sehr in den Vordergrund gerückt. Hier frage ich mich schon, ob ATI mal was richtiges liefert. Ich bezweifle das, wenn man nur DX11 auf dem Papier stehen hat. Da wird wohl NV einiges abernten.


mfg Nakai

reunion
2009-08-05, 13:51:37
Wenn man die neusten Gerüchte (welche wohl auf Testboards/Samples basieren dürften, bei einem Launch im Sept.) so verfolgt, finde ich deutet vieles darauf hin, dass ATIs großer DX11 Wurf erst nächstes Jahr kommt (GF?).

Welche Gerüchte genau lassen dich darauf schließen? Das der "große Wurf" (was immer man darunter auch versteht) erst 2011 mit 28nm bei GF kommen soll hört man ja schon länger von diversen Quellen. Wieviel davon wahr ist wird man sehen müssen.

Auf jeden Fall ist AMD diesmal in einem ganz entscheidenden Punkt vorne: Nämlich der time-to-market. Viele unterschätzen das vielleicht, aber es gibt kaum etwas was bedeutender für den Erfolg einer Serie ist. Alle Entwickler werden mit AMD DX11 Karten eingedeckt, ergo darauf optimieren. Selbst wenn Rv870 enttäuschen sollte wird es locker ausreichen um alles was man bis dato kaufen kann zu vernichten. Das erlaubt hohe Preise und Margen. Wenn dann ein paar Monate später NV ankommt hat man schon schön verdient und kann gleich mal die Preise senken, ev. wenig später einen Refresh nachschieben. Im nicht High-End-Bereich inkl. OEM und Notebookmarkt wird der zeitliche Vorsprung wohl noch größer sein.

V2.0
2009-08-05, 14:01:13
Es haengt stets von dem ab was die direkte Konkurrenz hat. Wenn die Konkurrenz nichts besonders berauschendes bringt im Vergleich zu ihrem heutigen Kaese, dann ja gilt das obrige zweiffellos. Wenn es aber die Konkurrenz geschafft hat einen groesseren Unterschied zu machen, wird AMD's zeitlicher Vorsprung nicht nur begrenzt sein am Anfang, es wird sich auch die Geschichte wiederholen wie von R600/RV670 auf RV770.

Das hängt allein an der Teitschiene. Haben sie den Markt 6 Moante für sich alleine haben sie gewonnen. Kann die Konkurrenz eine eindrucksvolle Antwort liefern, die zeitnah erscheint und auch wenn es nur High-End ist, dann sieht es anders aus.

mboeller_Gast
2009-08-05, 14:09:39
Der Athlon2 ist kein MCM ;) MCMs sind z.B: Intels alte QuadCore Chips für den S775. MCM = Multi Chip Module, also 2 *eigenständige* chips in einem Modul/Gehäuse, die irgendwie miteinander verbunden/verlötet etc. sind.
Die Athlon2 sind ein Chip, verbunden auf DIE Ebene, das ist ein Level tiefer in der Integrationstiefe.

und der RV870 wird auch kein MCM sein falls du das noch nicht mitbekommen hast. Erst Cypress od. Hemlock, je nachdem was nun stimmt soll ein MCM Multichipsystem sein. RV870 ist einfach ein dual-core Chip. Cypress könnte aber auch ein Quad-Core chip sein, so wie ein PII also ganz ohne MCM.

Ich bin echt gespannt ob ATi hier wirklich die Modulare Bauweise von AMD für ihre Athlon/Phenom CPUs komplett übernommen hat oder nicht.

mboeller_Gast
2009-08-05, 14:14:40
Naja es sieht irgendwie so aus, dass AMD DX11 ziemlich heftig pusht. Sowieso ist DX11 vorerst nur ein Checklist-Feature. Vor Mitte 2010 wird DX11 nicht soviel reissen können. Lief ja bis etz bei jeder DX-Version in etwa so.


Checklist Features sind für OEMs sehr wichtig. Dell und Konsorten wollen doch wohl keine Win7 Rechner (egal ob Notebook od. Tower) verkaufen ohne auch eine DX11 Grafikkarte zu bieten.
Nur auf den billigen Plätzen spielt das keine so große Rolle. Vielleicht hat Nvidia ja deshalb erst einmal die lowend DX10.1 GPUs für Notebooks gebracht. Keine Kunde wollte mehr highend DX10 für einen Zeitraum nach Oktober 2009.

Hakkerstiwwel
2009-08-05, 14:19:21
Ja und nein.

Redwood soll ja der Dual-Core Chip sein. Also 1 Chip der wie ein Athlon II aus 2 kleineren Chips auf einem Die besteht. Die Yields bei TSMC dürften davon betroffen sein, das Design sollte aber nahezu dem Single-Cores Juniper/Cedar entsprechen.

300mm² @ 40nm sollten wohl ca. 1,8 Mrd Transistoren sein, verglichen mit dem RV740 der 826 Mio Transistoren auf 137mm² hatte.

Hat wer eine Ahnung warum es 2 Mainstream-Chips, Juniper und Cedar geben könnte/soll?


17.09.2009 => die Gerüchte haben also fast gestimmt. Bisher war ja der 10. Spetember im Gespräch.
Redwood = Juniper+Cedar?

Ailuros
2009-08-05, 14:25:23
Das hängt allein an der Teitschiene. Haben sie den Markt 6 Moante für sich alleine haben sie gewonnen. Kann die Konkurrenz eine eindrucksvolle Antwort liefern, die zeitnah erscheint und auch wenn es nur High-End ist, dann sieht es anders aus.

Mit all den GT21x@40nm Projekten die NV total storniert hat seit 2008 heisst entweder dass NVIDIA's engineers nur stark besoffen entwickeln oder dass die Resourcen von diesen wo anders investiert wurden. Unter normalen Umstaenden duerfte NV wohl nicht mit high end bis zu 6 Monate warten lassen.

Sonst stellen sie einen Haufen zusaetzliche sw und relativ nebensaechlichen Schnickschnack im Herbst vor....

S940
2009-08-05, 14:36:59
@mboeller_Gast :
Ich hab noch nie was von einem Dual Core ATi Chip gehört ... wo kommt das Gerücht her ?
Halte ich erst einmal für Unsinn.

a) Wenn quasi zwei eigenständige DIEs zusammen auf 1 DIE kopiert wären, ist die Frage, wie die beiden Chips verbunden werden. Die CPUs haben eine gemeinsame NB mit gemeinsamen Speicherkontroller, das wäre bei so einem "DualDie" Teil nicht der Fall.

b) Wenn die beiden Dies eine gemeinsame "NB" - wie bei den CPUs - und auch einen gemeinsamen Thread-Scheduler haben, dann macht die 2er Unterteilung keinen Sinn, da es dann einfach eine einzige GPU ist, nur mit mehr SPUs, zufälligerweise halt doppelt soviele.

Bisher gabs 10 SIMD "Prozessoren" á 16 Streaming Prozessoren á 5 Streaming Units, möglich dass AMD da jetzt die Gruppierung überarbeitet hat und das ganze jetzt in Clustern anordnet. Dazu brauchen sie keinen "modularen" Ansatz der CPU Abteilung übernehmen, die GPUs sind schon längst modular.

ciao

Alex

Ailuros
2009-08-05, 14:53:01
Das multi-core/single die Zeug kam von den Chinesen von chiphell. Und zum ersten Mal liest Du es garantiert nicht, denn der Thread hier ist uralt und der Titel steht immer noch...

Coda
2009-08-05, 14:55:27
Evtl. ist es ja auch ganz simpel und sie verwenden das MCM nur um Kosten auf der Hauptplatine zu sparen und den Interconnect zwischen den beiden Chips schneller zu bekommen.

Gast
2009-08-05, 15:27:20
Und evtl hängt nur ein Chip am RAM und benutzt die Ausführungseinheiten des zweiten wie seine eigenen. Dadurch könnte er auch wie ei Einzelchip nach aussen aussehen. Wäre auch eine Erklärung für die X2 "alter" Machart.

V2.0
2009-08-05, 15:27:46
Mit all den GT21x@40nm Projekten die NV total storniert hat seit 2008 heisst entweder dass NVIDIA's engineers nur stark besoffen entwickeln oder dass die Resourcen von diesen wo anders investiert wurden. Unter normalen Umstaenden duerfte NV wohl nicht mit high end bis zu 6 Monate warten lassen.

Sonst stellen sie einen Haufen zusaetzliche sw und relativ nebensaechlichen Schnickschnack im Herbst vor....

Kann ja mal passieren. Sind ja sowieso nur Clowns bei NV wie ein Avater uns hier immer informiert. ;)

Im Ernst ich will Dir gar nicht widersprechen.

Und evtl hängt nur ein Chip am RAM und benutzt die Ausführungseinheiten des zweiten wie seine eigenen. Dadurch könnte er auch wie ei Einzelchip nach aussen aussehen. Wäre auch eine Erklärung für die X2 "alter" Machart.

Juniper + Cedar = Redwood -> wenn man den Gedanken aufgreifen würde.

Coda
2009-08-05, 15:29:38
Und evtl hängt nur ein Chip am RAM und benutzt die Ausführungseinheiten des zweiten wie seine eigenen.
Das wirft wieder die ganzen Probleme auf, von denen wir es schon zur Genüge hatten.

Ailuros
2009-08-05, 15:52:58
Kann ja mal passieren. Sind ja sowieso nur Clowns bei NV wie ein Avater uns hier immer informiert. ;)

Im Ernst ich will Dir gar nicht widersprechen.

Es geht gar nicht darum mir oder jemand anders zuzustimmen oder zu widersprechen. Einfache Logik: entweder entwickelt NV nur Mist seit G92 wobei die Haelfte meistens in der Muelltonne geraet oder sie haben eine grosse Portion von Resources in zukuenftige Projekte investiert um diese so weit wie moeglich nach vorne zu ziehen. Wann D12U ankommen wird ist im gegebenen Fall weniger wichtig als wann der Rest der X11 Familie an GPUs genau folgt.

igg
2009-08-05, 16:28:28
Welche Gerüchte genau lassen dich darauf schließen?
Ich kann sie nun nicht verlinken aber du hast entsprechende Meldungen in den letzten Monaten sicher auch mitbekommen? Es war sogar mal in den Heise News.
Auf jeden Fall ist AMD diesmal in einem ganz entscheidenden Punkt vorne: Nämlich der time-to-market.
Das sehe ich auch so.
Viele unterschätzen das vielleicht, aber es gibt kaum etwas was bedeutender für den Erfolg einer Serie ist. Alle Entwickler werden mit AMD DX11 Karten eingedeckt, ergo darauf optimieren.
Hier stimme ich mit dir nicht überein. Kann mir kaum vorstellen, dass Nvidias Entwicklersupport nicht ausgezeichnet ist. Mag sein, dass NV noch keine Boards an Studios verschickt hat (hat ATI das?), aber wenn es so weit ist werden sie sicher Key-Studios massiv fördern. Ich glaube ATI profitiert beim früheren Release hauptsächlich bei den Early Adopters, evtl. können sie wegen den Feature-Listen auch ein paar OEM Verträge fischen.

_flx
2009-08-05, 16:44:14
A/A Promotet doch ne ganze Menge D3D11 Spiele(-Entwickler) die noch dieses Jahr released werden sollen?

Edit:
http://s1.directupload.net/images/090805/temp/td7co354.png (http://s1.directupload.net/images/090805/td7co354.png)

S940
2009-08-05, 17:13:48
Das multi-core/single die Zeug kam von den Chinesen von chiphell. Und zum ersten Mal liest Du es garantiert nicht, denn der Thread hier ist uralt und der Titel steht immer noch...
Wer sagt denn, dass ich den gaanzen Thread ununterbrochen mitverfolge ^^
Na ich werd mich mal auf die Suche machen, mal schauen, obs die chiphell Leute eine plausible Erklärung haben. Auf alle Fälle Danke für die Info :)

Edit:
So bin wieder uptodate, war ja erst vor ein paar Seiten ... da wurde eigentlich schon alles besprochen, in den neuen Gerüchten mit den ganzen Codenamen taucht davon auch nichts auf, ergo denke ich mal, dass das Thema gegessen ist. Im Interview bei PCGH wurde auch von dem komplexeren Scheduler gesprochen, der wäre auf so nem Dual-die 2x verbaut, genauso wie die UVD2/3 Einheit & I/O, wäre dann doch etwas viel Verschnitt.

Thx

Alex

Hvoralek
2009-08-05, 18:11:32
D12UWarum nennst Du eigentlich G(T)300 auch D12U? Wenn ich mich nicht vertan habe, müsste das nach diesem Namensschema D11U sein:
G80 -> D8U
G92GX2 -> D9U
GT200 - D10U

Hugo
2009-08-05, 18:22:50
D11U könnte GT212 gewesen sein

crux2005
2009-08-05, 18:52:15
Warum nennst Du eigentlich G(T)300 auch D12U? Wenn ich mich nicht vertan habe, müsste das nach diesem Namensschema D11U sein:
G80 -> D8U
G92GX2 -> D9U
GT200 - D10U

ich denke deshalb, weil es noch nicht so sicher ist, das sich der chip auch G(T)300 "nennen" wird ;)

Ailuros
2009-08-06, 10:22:04
Warum nennst Du eigentlich G(T)300 auch D12U? Wenn ich mich nicht vertan habe, müsste das nach diesem Namensschema D11U sein:
G80 -> D8U
G92GX2 -> D9U
GT200 - D10U

Ich nenn es Borgo Sphinxter von jetzt ab; koennen wir uns einig werden dass der Codenamen Mist nichts wert ist?

***edit: uebrigens damit mir jetzt nicht jemand meckert dass ich nicht alles erwaehne....

D11U = GT212 (R.I.P.)

V2.0
2009-08-06, 10:36:20
Ich bin ja für "Sequoia".

Hvoralek
2009-08-06, 14:26:06
Ich nenn es Borgo Sphinxter von jetzt ab; koennen wir uns einig werden dass der Codenamen Mist nichts wert ist?Du hast natürlich recht: Hier geht es um Leistung, nicht um Namen :wink:

Auch im Ergebnis interessieren natürlich die Chips und Karten, die hinten rauskommen, und weder deren Code- noch Marketingnamen. So vollkommen unwichtig sind die Bezeichnungen allerdings auch nicht, um sie im Vorfeld auseinander zu halten. Gerade bei Nvidia mit ihren verschiedenen Namensschemata sollte man schon im Auge behalten, welche Bezeichnungen sich auf welche Chips beziehen.

Ailuros
2009-08-06, 15:08:13
Nur aendert sich das Zeug dank der Aenderungen der roadmaps so oft dass nur die wirklichen engineers mit dem Schlammassel mithalten koennen.

Wie schon oben erwaehnt D11U war dem stornierten GT212 gewidmet. Da es aber lower end D11 SKUs (sprich GT21x@40nm) gibt ist es wohl wahrscheinlicher dass die naechste Generation eher einen zwoelfer hat. Besser so?

AnarchX
2009-08-06, 15:23:06
Wie schon oben erwaehnt D11U war dem stornierten GT212 gewidmet. Da es aber lower end D11 SKUs (sprich GT21x@40nm)
Das sind doch auch alles D10-SKUs:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788#post7238788

Aber den D12U Codenamen gibt es schon länger:
http://www.bit-tech.net/news/hardware/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1

Ailuros
2009-08-06, 16:15:24
Das sind doch auch alles D10-SKUs:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788#post7238788

Aber den D12U Codenamen gibt es schon länger:
http://www.bit-tech.net/news/hardware/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1

Die GT21x Familie war als D11 bezeichnet auf einer aelteren roadmap die ich gesehen hatte. Natuerlich existiert D12U schon seit einiger Zeit, aber auch hier ist nichts garantiert. D12U ist momentan lediglich "the safest bet".

Gast
2009-08-07, 11:01:53
Hui !
Die HD5870 1Gb soll zwischen 319 bis 349 Dollar kosten, also mehr als angenehmer Preis. ATi will wohl DX11 pushen und den Markt von Anfang mehr als nur uebernehmen.
Zudem hat man die HD4770 nun abgeschossen, AMD will mit weiterer Karte nachziehen.

Tarkin
2009-08-07, 11:44:49
Hui !
Die HD5870 1Gb soll zwischen 319 bis 349 Dollar kosten, also mehr als angenehmer Preis. ATi will wohl DX11 pushen und den Markt von Anfang mehr als nur uebernehmen.
Zudem hat man die HD4770 nun abgeschossen, AMD will mit weiterer Karte nachziehen.

wo kommt jetzt die Info her? (das ist das Preisniveau von GTX 285 Karten btw)

X.Perry_Mental
2009-08-07, 12:53:07
wo kommt jetzt die Info her? (das ist das Preisniveau von GTX 285 Karten btw) ... und ungefähr der gleiche Preisbereich wie für die 4870 beim ihrem Markt-Start.

aylano
2009-08-07, 14:10:37
Hui !
Die HD5870 1Gb soll zwischen 319 bis 349 Dollar kosten, also mehr als angenehmer Preis. ATi will wohl DX11 pushen und den Markt von Anfang mehr als nur uebernehmen.
Zudem hat man die HD4770 nun abgeschossen, AMD will mit weiterer Karte nachziehen.
Eigentlich nichts neues.
Aber AMD dürfte noch immer seiner Linie treu bleiben.

In einem ATI/AMD-Interview stagte AMD einmal:
"Unsere ATI-Karten sind vom Preis/Leistung so gut, dass du nicht mehr auf Nvidia warten musst und jetzt zugreifen kannst"

Captain Future
2009-08-07, 14:14:05
In einem ATI/AMD-Interview stagte AMD einmal:
"Unsere ATI-Karten sind vom Preis/Leistung so gut, dass du nicht mehr auf Nvidia warten musst und jetzt zugreifen kannst"
Wow - wenn AMD das schon über die eigenen Produkte sagt, MUSS ja was dran sein!

dargo
2009-08-07, 15:14:54
In einem ATI/AMD-Interview stagte AMD einmal:
"Unsere ATI-Karten sind vom Preis/Leistung so gut, dass du nicht mehr auf Nvidia warten musst und jetzt zugreifen kannst"
Lol, was sollen sie sonst sagen? Unsere Produkte sind so schlecht, wartet auf NV? ;D

Ailuros
2009-08-07, 15:31:01
Lol, was sollen sie sonst sagen? Unsere Produkte sind so schlecht, wartet auf NV? ;D

Interessant waere ein solcher anti-marketing Schachzug auf jeden Fall :D

AnarchX
2009-08-07, 17:53:31
RV870:
1600SP 256bit 80TMU 32ROP

RV830:
800SP 128bit 40TMU 16ROP
http://www.chiphell.com/2009/0807/93.html

Inwiefern das nun stimmt ist fraglich, aber bei RV770 lag Chiphell auch damals richtig.

Noch etwas zum Dual-Core-Design:
Babelfish:
The RV870 inside information knows how many first, the CHIP area lies between 17.5x17.5 - 19x19 mm, certainly does not disclose too clearly Next, 26.67cm the PCB length, the power supply good luxurious, DRAM will have 1 with 2GB, Bus Width 256bit The retail price lies between 249-399USD, surpasses former generation HD4800 CHIP has primitive” Dual “Processor Unit, each PU contains 160 VLIW (vulgar understanding to have 2 RV770 on 喺 words to compose RV870), but 絕 to not 喺 the simple seal business same place CrossFireX (interactive frame exaggeration) processes the image along with SLI 喺 AFR, 2 GPU 喺[in turn]The exchange work, the efficiency concerns the actuation program to have several completes quickly, the error retards has no way to make up RV870 uses 嘅 SFR (division frame exaggeration) to process the image, the professionals knowledge exaggerates a picture to want RGB tricolor to complete, SFR on 喺 by divides the 1FPS picture between certain 8*8-32*32Pixel 嘅 the thin chart, carries on the homochromy with nucleus processing, so long as 咁 type Bandwidth foot 夠 big, may realize the same GPUClock situation inferior in the RV770 嘅 +200% potency. (The SFR consumption will use most again whole world on 喺 Bandwidth, RV870XT to be quickest 嘅 GDDR5) The above news disclosed from inland AMD China interior public figure
Google:
Internal sources RV870 Color First, CHIP area between 17.5x17.5 - 19x19 mm between, of course, though too clearly revealed

其次咧,26.67cm PCB長度,供電會好奢侈,DRAM有1同2GB,Bus Width 256bit Second child's cry, 26.67cm PCB length and power supply will be a luxury good, DRAM 1 with 2GB, Bus Width 256bit

零售價介乎249-399USD,超過上代HD4800 The retail price of between 249-399USD, more than previous generations HD4800

CHIP有原始”Dual“ Processor Unit,每個PU包含160個VLIW(粗俗理解就喺話有2個RV770組成一個RV870),但絕對唔喺簡單封裝企一起 CHIP has the original "Dual" Processor Unit, each PU contains 160 VLIW (vulgar understanding of the words here are two RV770 a RV870), but it is not standing here with a simple package

CrossFireX同埋SLI都喺AFR(交互幀渲染)處理圖像,2個GPU喺【輪流】交換工作,效率關乎驅動程式有幾快完成,誤差延遲沒法彌補 Where is the SLI are CrossFireX activity AFR (cross-frame rendering) to deal with images, here two GPU】 【rotation exchange, efficiency relates to the driver to complete a few quick, error can not make up for delays

RV870 採用嘅SFR(分割幀渲染)處理圖像,專業人士都知渲染一張畫面都要RGB三色完成,SFR就喺透過將1FPS畫面分割成若干個 8*8-32*32Pixel之間嘅細圖,進行同色同核處理,咁樣只要Bandwidth足夠大,就可以實現相同GPUClock情況下等於RV770 嘅+200%效能。 RV870 using my SFR (split frame rendering) image processing, rendering professionals know a tri-color RGB images must be completed, SFR will be on here 1FPS through the screen divided into a number of 8 * 8-32 * 32Pixel detailed map between the expense to carry out a nuclear deal with the same color, as long as the Bandwidth Link sample is large enough, you can achieve the same circumstances GPUClock expense RV770 equivalent to the performance of +200%.

(SFR消耗最重就喺Bandwidth,RV870XT就會用上全球最快嘅GDDR5) (SFR consumption on Where is the most Bandwidth, RV870XT money will be used the world's fastest GDDR5)

以上消息都從內地AMD中國內部人士透露 More than AMD news from Mainland China's internal sources
http://bbs.chiphell.com/viewthread.php?tid=50821&extra=page%3D1&page=5

Also zwei GPUs die im SFR arbeiten auf einem Die? :|

http://img245.imageshack.us/img245/8844/0908062106851cacb246090.jpg
http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=zh-CN&tl=en&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D50821%26extra%3Dpage%253D1%26page%3D4&rurl=translate.google.ch&usg=ALkJrhhg_U08TAhsoEvO32m3bdmVGyK0Nw
Photoshop? Wobei so mancher Bestandteil nicht aus dem RV770-Dieshot stammte.

Gast_Carsten
2009-08-07, 18:19:00
"has primitive” Dual “Processor Unit"
Endlich mal eine vernünftige Übersetzung.
Dual-Primitive-Processor.


Carsten

Sorkalm
2009-08-07, 18:25:27
Das Bild zeigt aber kein annäherend quadratischen Die, was ja der Text nahe liegt. Allerdings könnte man da schon annehmen, dass man einfach nur in der Mitte durchsägen muss, um zwei funktionierende Dice zu haben...

Nakai
2009-08-07, 18:25:58
RV870 using my SFR (split frame rendering) image processing, rendering professionals know a tri-color RGB images must be completed, SFR will be on here 1FPS through the screen divided into a number of 8 * 8-32 * 32Pixel detailed map between the expense to carry out a nuclear deal with the same color, as long as the Bandwidth Link sample is large enough, you can achieve the same circumstances GPUClock expense RV770 equivalent to the performance of +200%

SFR? Also kein AFR? :eek::D

RV870 ist besteht aus einem RV830-Verbund. Dann machen die 180mm² für den RV830 weniger Sinn, außer dieser hat auch CF-Optimierungen und man hat beim RV870 einfach nur einen zweiten RV830 hinzugefügt.


mfg Nakai

Gast
2009-08-07, 18:26:24
Falls dies zutreffen sollte, duerfte die HD5870 so alles in den Schatten stellen und gar die HD4870 X2 mit gut 20 bis 30% gar uebertreffen
Doppelt so viele TMU und doppelte Shadereinheiten, sehr gut! dies duerfte arg reinhauen. Nun noch ein Top Preis,- und einem enormen Erfolg dieser Graka steht nix mehr im Wege.

AnarchX
2009-08-07, 18:29:08
Das Bild zeigt aber kein annäherend quadratischen Die, was ja der Text nahe liegt.
Oder man hatte die Die-Size und hat diese auf eine quadratischen Die heruntergerechnet?

Aber 256-Bit erscheinen mir doch etwas wenig für 1600SPs/80TMUs, 3GHz GDDR5 wird man wohl momentan noch keinen bekommen.

igg
2009-08-07, 18:30:28
SFR wäre schon eine echte Überraschung

Nakai
2009-08-07, 18:31:15
Perfekte Skalierung ist wohl nicht möglich. Aber 90% schneller als die HD4890 sollte drin sein. Wenn der GT300 aber mindestens 2,5fach so schnell ist, wie eine GTX285, dann bewegen sich beide Highendmodelle auf ähnlichem Niveau.


mfg Nakai

Gast
2009-08-07, 18:54:47
SFR wäre schon eine echte Überraschung

AFAIR will ATi anscheinend zurück zu den alten R300 Wurzeln.

Der R300 hat ja schon mehrere Tiles gleichzeitig verarbeitet soweit ich mich erinnere. Eine Art SFR onChip. Das ganze wollten sie dann auch für X2, X3, X4 Verbunde ihrer Profikarten einsetzen, was aber soweit ich mich erinnere nicht funktioniert hat.

derguru
2009-08-07, 19:00:54
wie soll das denn dann bei der karte x2 funzen?
Die 1 sfr + afr + Die 2 sfr?
und ich finde auch das die speicherbandbreite einwenig zuklein wird wenn es bei 256bit bleibt.

Gast
2009-08-07, 19:12:11
Apropos,

ich lese gerade den Chiphell Thead. Dort wird auch nochmal über den doppelt so starken Scheduler gesprochen.

Kann es sein das dadurch ATi ihre 4+1 SIMD Shader besser auslasten kann so das die mittlere Auslastung nicht mehr bei ~3/5 liegt sondern mehr in Richtung 4/5 geht?

Wenn ja, würde alleine das für bis zu 30% mehr Leistung reichen.

Blaire
2009-08-07, 19:14:26
wie soll das denn dann bei der karte x2 funzen?
Die 1 sfr + afr + Die 2 sfr?und ich finde auch das die speicherbandbreite einwenig zuklein wird wenn es bei 256bit bleibt.

Geh ich von aus. Ati wird auf jeden Fall bei AFR bleiben, so liest sich das jedenfalls in der neuen PCGH...

V2.0
2009-08-07, 19:14:35
Oder dass sie den bei SFR brauchen.

crux2005
2009-08-07, 19:16:13
der mittlere Teil des die-shots sieht wegen der anderen schärfe sehr verdächtig aus - Photopshop ist es imho zu 90%, was aber nicht gleich heißt das es ein fake sein muss...

AnarchX
2009-08-07, 19:36:11
Zudem endet er auch viel zu abrupt. Wird wohl doch eher ein Fake bzw. eine mögliche Interpretation wie RV870 aussehen könnte, sein.

reunion
2009-08-07, 20:37:27
http://www.chiphell.com/2009/0807/93.html

Inwiefern das nun stimmt ist fraglich, aber bei RV770 lag Chiphell auch damals richtig.


Richtig, und auch damals hatte niemand an die 800SPs geglaubt außer Chiphell. Mal sehen ob sie wieder richtig liegen. Auch was das Dual-Core Design betrifft. Falls ja hätte AMD jedenfalls ganz schön was zu bieten. 1600SPs/80TMUs plus entsprechend hohe Taktraten würde doch eine nette Leistung bringen. Mit der Bandbreite sehe ich auch kein Problem, immerhin hat RV770 hier mehr als genug, wie man an der 4850 sieht.

reunion
2009-08-07, 20:38:32
wie soll das denn dann bei der karte x2 funzen?
Die 1 sfr + afr + Die 2 sfr?


Ich sehe das Problem nicht. Die beiden Dual-Core rendern jeweils ein Frame in "SFR", während die X2 dann eben zusätzlich noch AFR macht.

Gast
2009-08-07, 21:23:06
Die linke Seite der Die-shots ist jedenfalls die exakte Kopie der rechten Seite, nur gespiegelt. Hab das grad mit Photoshop rausgefunden.

reunion
2009-08-07, 21:25:00
Die linke Seite der Die-shots ist jedenfalls die exakte Kopie der rechten Seite, nur gespiegelt. Hab das grad mit Photoshop rausgefunden.

Ich sehe da mit freiem Auge deutliche Unterschiede.

Ailuros
2009-08-07, 21:26:18
Richtig, und auch damals hatte niemand an die 800SPs geglaubt außer Chiphell. Mal sehen ob sie wieder richtig liegen. Auch was das Dual-Core Design betrifft. Falls ja hätte AMD jedenfalls ganz schön was zu bieten. 1600SPs/80TMUs plus entsprechend hohe Taktraten würde doch eine nette Leistung bringen. Mit der Bandbreite sehe ich auch kein Problem, immerhin hat RV770 hier mehr als genug, wie man an der 4850 sieht.

Nur gibt es einen gewaltigen Unterschied zwischen den hypothetischen Fuellraten einer 4850 bzw. 4870 und einem "RV870". Wie waere es wenn Du nur als Anfang die Pixelfuellraten auf spekulativer Basis vergleichen wuerdest?

------------------------
***edit: was zum Teufel ist jetzt mit der die-area los? jedesmal wo ich was Neues hoere wird das Ding groesser....

Gast
2009-08-07, 21:35:22
Ich sehe da mit freiem Auge deutliche Unterschiede.
Dann schneide mal ein Stück aus dem linken Teil raus und kopier es. Die neue Ebene dann vertikal spiegeln und auf den Modus "Differenz" stellen und auf die rechte Seite schieben. Irgendwo gibt es einen Punkt, wo die Fläche komplett schwarz wird, was bedeutet, dass die Differenz der Pixel gleich Null ist ... .
Der Bereich in der Mitte und an manchen anderen Stellen ist nicht symmetrisch. Aber das es ein Fake ist, steht außer Frage.

reunion
2009-08-07, 21:36:58
Nur gibt es einen gewaltigen Unterschied zwischen den hypothetischen Fuellraten einer 4850 bzw. 4870 und einem "RV870". Wie waere es wenn Du nur als Anfang die Pixelfuellraten auf spekulativer Basis vergleichen wuerdest?

Ja gerne.

4850:
10.000 MPixel/s (625Mhz * 16 ROPs)
63,5 GB/s (993Mhz GDDR3, 256bit)

"5870":
28.000 MPixel/s (900Mhz * 32 ROPs)
140,8GB/s (1100MHz GDDR5, 256bit)

Die 4870 kann die doppelte Speicherbandbreite ggü. der 4850 doch gar nicht ausspielen, sie ist meist kaum mehr als den höheren Chiptakt schneller. Hier ist noch genug Luft für RV870.

Gast
2009-08-07, 21:38:45
Hier das Ergebnis:
Jeder Pixel auf der Rechten Seite, der schwarz ist, gleicht exakt dem gegenüberliegenden Pixel auf der linken Seite ...

http://www.bilder-space.de/show.php?file=07.08bd14ctItSavdlhP.jpg

Ailuros
2009-08-07, 21:45:24
Nur gibt es leider einen gesunden Leistungsunterschied in genau den Stellen wo sich der Kauf einer 4870 gegenueber einer 4850 gerechtfertigt. Selbst wenn ich sagen wuerde dass die 4870 ein X Prozentual an Ueberschuss in Sachen Bandbreite hat, ist der Unterschied zu einer "RV870" alles andere als klein.

crux2005
2009-08-07, 21:50:58
Es würde mir dann auch wenig Sinn machen, wieso AMD/ATi die Bandbreite der HD 4890 ggü. der HD 4870 gesteigert hat.

Ailuros
2009-08-07, 21:59:32
Es würde mir dann auch wenig Sinn machen, wieso AMD/ATi die Bandbreite der HD 4890 ggü. der HD 4870 gesteigert hat.

Tja koennte sogar sein dass es sich zum Vorteil ausspielt; auf GF2 kostete 2xAF relativ wenig dank Bandbreiten-Limitierung.

=Floi=
2009-08-07, 22:12:46
die 5870 hätte doch 2X 140gb und somit sollte sich das ganze die wage halten.

crux2005
2009-08-07, 22:15:09
2x 128Bit SI, nicht 2x 256Bit ;)

Tja koennte sogar sein dass es sich zum Vorteil ausspielt; auf GF2 kostete 2xAF relativ wenig dank Bandbreiten-Limitierung.

:biggrin:

S940
2009-08-07, 22:22:55
Also zwei GPUs die im SFR arbeiten auf einem Die? :|
Tja, oder eine GPU mit zwei SIMD Core Blöcken ...
So genau ist das immer noch nicht raus.

Mit der Bandbreite sehe ich auch kein Problem, immerhin hat RV770 hier mehr als genug, wie man an der 4850 sieht.
Jo, aber bei HD Auflösung schlägt sich die 4850 nicht mehr so toll ... bei einer 1600er Karte ist das sicherlich eher die Regel, anstatt Ausnahme.

ciao

Alex

derguru
2009-08-07, 23:33:28
man sieht aber auch bei einer 4890 mit 1ghz coretakt schon gewinne bei mehr speicherbandbreite und wenn man bedenkt das eine "5870" in fast allen spekulierten werten sich verdoppeln wird könnte es knapp werden mit der speicheranbindung.(was heißt knapp aber bremsend)
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=18
dazu kommt das samsung,hynix und qimonda nicht mehr als 5gbps zur zeit anbieten können(jedenfalls sehe ich auf deren hp keine schnelleren speicher) was wiederum max. eine speicherbandbreite von 160 GB/s zufolge hat.
6gbps wäre ideal mit 192 GB/s.:biggrin:

4890 960/525 (67,2GB/s)
(gpuscore 3684)
http://www.abload.de/thumb/3dvantagehalbiertzsd3.gif (http://www.abload.de/image.php?img=3dvantagehalbiertzsd3.gif)

4890 960/1050 (134,4GB/s)
(gpuscore 5058)
http://www.abload.de/thumb/3dvantagefullwq2b.gif (http://www.abload.de/image.php?img=3dvantagefullwq2b.gif)

aylano
2009-08-08, 08:17:30
Wow - wenn AMD das schon über die eigenen Produkte sagt, MUSS ja was dran sein!
Sie meinten, dass sie die Preis schon so niedrig ansetzen, wie wenn Nvidia-Konkurrenz schon da wären und nicht einen extra Aufschlag für die Non-D11-Konkurrenz geben.

reunion
2009-08-08, 09:33:56
man sieht aber auch bei einer 4890 mit 1ghz coretakt schon gewinne bei mehr speicherbandbreite und wenn man bedenkt das eine "5870" in fast allen spekulierten werten sich verdoppeln wird könnte es knapp werden mit der speicheranbindung.(was heißt knapp aber bremsend)
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=18
dazu kommt das samsung,hynix und qimonda nicht mehr als 5gbps zur zeit anbieten können(jedenfalls sehe ich auf deren hp keine schnelleren speicher) was wiederum max. eine speicherbandbreite von 160 GB/s zufolge hat.
6gbps wäre ideal mit 192 GB/s.:biggrin:

4890 960/525 (67,2GB/s)
(gpuscore 3684)
http://www.abload.de/thumb/3dvantagehalbiertzsd3.gif (http://www.abload.de/image.php?img=3dvantagehalbiertzsd3.gif)

4890 960/1050 (134,4GB/s)
(gpuscore 5058)
http://www.abload.de/thumb/3dvantagefullwq2b.gif (http://www.abload.de/image.php?img=3dvantagefullwq2b.gif)

Das Problem bei solchen Werten ist immer das sich auch die Latenz deutlich verschlechtert. Für brauchbare Werte müsste man hier eine 4850 mit gleichem Takt nehmen.

Jo, aber bei HD Auflösung schlägt sich die 4850 nicht mehr so toll ... bei einer 1600er Karte ist das sicherlich eher die Regel, anstatt Ausnahme.

ciao

Alex

Zweig mal Beispiele, aber bitte mit gleichem VRAM.

AnarchX
2009-08-08, 09:54:04
Zweig mal Beispiele, aber bitte mit gleichem VRAM.
Hier schon bei niedriger Auflösung:
http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=10

0.4ns GDDR5@256-Bit wäre schon ein etwas knapp bemessen für einen "Doppel-RV770", da würde sich auf jeden Fall lohnen Anfang 2010 eine 5890 mit 0.33ns Speicher nachzuschieben.

S940
2009-08-08, 10:01:19
Zweig mal Beispiele, aber bitte mit gleichem VRAM.
Die gibts wie Sand am Meer, 30 sec. googeln mit "4850 1GB":

Treffer 1:
http://www.guru3d.com/article/gigabyte-radeon-hd-4850-1gb-gvr485oc1gi-review/7
(lustigerweise nur mit einer 512MB 4870, als Vergleichskarte ... ist aber egal, die ist immer schneller als die 1 GB 4850er ;-)

Treffer 2:
http://www.bit-tech.net/hardware/graphics/2008/11/28/gigabyte-gv-r485mc-1gh-radeon-hd-4850-1gb/1

Anhand des letztens Tests kann man im Mittel von nem Leistungsplus von mind. ~20% mit GDDR5 ausgehen. Falls es in den zehner fps Bereich runter geht deutlich mehr, aber das interessiert da dann auch keinen mehr ;-)

ciao

Alex

reunion
2009-08-08, 10:06:32
Hier schon bei niedriger Auflösung:
http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=10

0.4ns GDDR5@256-Bit wäre schon ein etwas knapp bemessen für einen "Doppel-RV770", da würde sich auf jeden Fall lohnen Anfang 2010 eine 5890 mit 0.33ns Speicher nachzuschieben.

Es gibt sicher wie überall Extrembeispiele. Trotzdem sehe ich dort im Schnitt auch nicht mehr wie einen 30% Vorsprung der 4870 ggü. der 4850. Davon kommen 20% vom höheren Chiptakt. 10% bringt die doppelte Speicherbandbreite. Eine Skalierung welche nicht unbedingt für Bandbreitenlimitierung spricht.

AnarchX
2009-08-08, 10:19:06
Oder ein anderes Beispiel:
die 4890 Atomic mit 33% mehr Rechenleistung als eine 4870 skaliert trotz 16% höherer Speicherbandbreite nur um die 26% bei der Gesamtleistung:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_sapphire_radeon_hd_4890_atomic/3/#abschnitt_benchmarks

Im Endeffekt würde ich einen RV870 mit 1600SPs, 80TMUs, 32ROPs@800MHz und 256-Bit@2.4GHz im Gesamtschnitt wohl nur ~60% vor einer 4870 1GiB sehen.
Natürlich wird in bestimmten Fällen die Architektur auch stärker skalieren, aber das wohl eher unter GPGPU.

Wenn RV870 wirklich bei 300-350mm² liegen sollte, würde ich doch meinen dass man beim SI an der falschen Stelle gespart hat.

Captain Future
2009-08-08, 10:22:42
Sie meinten, dass sie die Preis schon so niedrig ansetzen, wie wenn Nvidia-Konkurrenz schon da wären und nicht einen extra Aufschlag für die Non-D11-Konkurrenz geben.
Ach, meinten sie das? Wie gut, dass du das so genau weisst.

Wenn RV870 wirklich bei 300-350mm² liegen sollte, würde ich doch meinen dass man beim SI an der falschen Stelle gespart hat.
Vielleicht kostet D3D11 ja mehr, als man denkt? Besonders, wenn man es von Anfang an richtig machen will wie AMD.

nagus
2009-08-08, 10:36:25
...

Wenn RV870 wirklich bei 300-350mm² liegen sollte, würde ich doch meinen dass man beim SI an der falschen Stelle gespart hat.

vielleicht glaubt amd auch, dass sie derzeit nicht mehr brauchen und später gegen den G300 eine schnellere version mit schnellerem speicher nachschiebt. wieso gleich am anfang das ganze pulver verschieße? ;)

reunion
2009-08-08, 10:38:24
Oder ein anderes Beispiel:
die 4890 Atomic mit 33% mehr Rechenleistung als eine 4870 skaliert trotz 16% höherer Speicherbandbreite nur um die 26% bei der Gesamtleistung:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_sapphire_radeon_hd_4890_atomic/3/#abschnitt_benchmarks


Ich sehe dort vorallem kein hundertprozentiges GPU-Limit. Eine lineare Skalierung bekommt man in der Praxis kaum hin.


Im Endeffekt würde ich einen RV870 mit 1600SPs, 80TMUs, 32ROPs@800MHz und 256-Bit@2.4GHz im Gesamtschnitt wohl nur ~60% vor einer 4870 1GiB sehen.
Natürlich wird in bestimmten Fällen die Architektur auch stärker skalieren, aber das wohl eher unter GPGPU.

Das halte ich angesichts des 4850/4870 Vergleichs für völlig übertrieben. Hier mal ein Test bei gleichem Chiptakt: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/6/#abschnitt_performancerating


Wenn RV870 wirklich bei 300-350mm² liegen sollte, würde ich doch meinen dass man beim SI an der falschen Stelle gespart hat.

Das denke ich nicht. Zumal man nicht davon ausgehen sollte das es am MC keine Optimierungen gab.

Botcruscher
2009-08-08, 10:44:26
vielleicht glaubt amd auch, dass sie derzeit nicht mehr brauchen und später gegen den G300 eine schnellere version mit schnellerem speicher nachschiebt. wieso gleich am anfang das ganze pulver verschieße? ;)

Schnelleren Speicher gibts nicht und eine breiteres Interface flanscht man nicht mal ebenso an.

Schlammsau
2009-08-08, 10:49:34
Schnelleren Speicher gibts nicht.....
Noch nicht, aber evtl in ein halbes Jahr später, wird eine 5890 nachgeschoben, mit deutlich höherem GPU- und VRAM- Takt.
Evtl haben sie intern so viel geändert, dass die GPU nicht so sehr an der Speicherbandbreite hängt wie noch der RV7xx.

Wieviel Mhz sind momentan mit DDR5 möglich?

AnarchX
2009-08-08, 10:51:45
Wieviel Mhz sind momentan mit DDR5 möglich?
Gezeigt wurden schon 7Gbps Module, also 3.5GHz. Wann und ob vor allem in der Mengen >1GiB diese verbaut werden können ist eher eine andere Frage.

reunion
2009-08-08, 10:54:49
Schnelleren Speicher gibts nicht und eine breiteres Interface flanscht man nicht mal ebenso an.

Doch, deutlich schnellerer GDDR5-Speicher wurde schon lange angekündigt und auch gezeigt. Die Frage ist nur wann man den bekommt.

Schlammsau
2009-08-08, 10:55:09
Gezeigt wurden schon 7Gbps Module, also 3.5GHz. Wann und ob vor allem in der Mengen >1GiB diese verbaut werden können ist eher eine andere Frage.

Dann könnten wohl 2,5 - 3GHz Module durchaus drin sein oder!?

V2.0
2009-08-08, 11:04:27
Evtl. brauchen sie gar nicht mehr Bandbreite weil die effektive Füllrate durch Effizienzverluste beim Culling gar nicht umgesetzt wird.

Botcruscher
2009-08-08, 11:12:27
Wann und ob vor allem in der Mengen >1GiB diese verbaut werden können ist eher eine andere Frage.

Das ist aber genau der Punkt. Was im Labor gezeigt wurde ist unbedeutend.

mboeller
2009-08-08, 11:21:26
Wenn RV870 wirklich bei 300-350mm² liegen sollte, würde ich doch meinen dass man beim SI an der falschen Stelle gespart hat.

Dann können wir wohl nur hoffen das die Gerüchte über eine 384bit (2x192bit) Speicheranbindung stimmen. Aber selbst auf Chiphell sind sie davon nicht überzeugt, bzw. sagen (wenn die Übersetzung stimmt) das ein 384bit Interface geplant war, aber aufgrund von Problemen mit dem 40nm Prozess nicht kommen wird. Keine Ahnung was eine 384bit Speicheranbindung mit dem 40nm Prozess zu tun haben soll, aber vielleicht mussten sie ja die GPU Geschwindigkeit soweit reduzieren das eine 256bit Speicheranbindung wieder ausreicht.

S940
2009-08-08, 11:21:32
Das halte ich angesichts des 4850/4870 Vergleichs für völlig übertrieben. Hier mal ein Test bei gleichem Chiptakt: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/6/#abschnitt_performancerating
Aber was will man da großartig vergleichen ?
Die 4870 setzt 20% GPU Takt fast immer in 20% Leistung um, das stimmt, da sieht man, dass der Speicher nicht bremst. Über die 4850 @750 MHz sagt das aber nichts aus.
Der Vergleich bei gleichem RAM Takt hinkt dann gewaltig, da die Latenzen von GDDR5 @993 miserabel sind.

Bisschen besser ist der alte Vergleich auf hardware-infos:
Beim RV770, welcher keine separate Taktdomäne für die Shader besitzt, gestaltet sich das Ergebnis durchaus überraschend: Die alleinige Erhöhung des Speichertakts um 20 Prozent mündet in 9 Prozent Mehrperformance und fällt damit genauso stark aus wie die 20 prozentige Taktsteigerung beim Chip, die unter anderem Shader, TMUs und ROPs einschließt! Der RV770, zumindest die HD 4870 mit GDDR5-Speicher, profitiert daher immer noch relativ deutlich von einem Mehr an Bandbreite.
aber auch dort gilt:
Da der RV770 im Form der Radeon HD 4850 auch in einer Variante mit noch deutlich weniger Speicherbandbreite vorzufinden ist, kam diese Erkenntnis etwas überraschend. Ursache könnten aber auch die absolut gesunkenen Speicherlatenzen durch die Speichertakterhöhung sein.
http://www.hardware-infos.com/tests.php?test=58&seite=12

ciao

Alex

reunion
2009-08-08, 11:40:40
Aber was will man da großartig vergleichen ?
Die 4870 setzt 20% GPU Takt fast immer in 20% Leistung um, das stimmt, da sieht man, dass der Speicher nicht bremst. Über die 4850 @750 MHz sagt das aber nichts aus.
Der Vergleich bei gleichem RAM Takt hinkt dann gewaltig, da die Latenzen von GDDR5 @993 miserabel sind.


Der Wert mit heruntergetaktetem GDDR5 ist durch die schlechten Latenzen natürlich wertlos, das habe ich hinten schonmal angemerkt wie jemand damit eine Speicherbandbreitenlimitierung zeigen wollte. Interessant ist vorallem der Wert bei gleichem Chiptakt einmal mit 993Mhz GDDR3 und einmal mit 1800Mhz GDDR5. Fast doppelte Speicherbandbreite, der Performancegewinn ist bei vielen Anwendungen aber nicht/kaum vorhanden. Auch eine 20% höhere Leistung durch 750Mhz Chiptakt würden daran nicht viel ändern. Es zeigt das hier noch deutlich Spielraum bei der Bandbreite vorhanden ist, ansonsten könnte sich eine 4850 nicht so gut schlagen mit halbierter Bandbreite.


Bisschen besser ist der alte Vergleich auf hardware-infos:

aber auch dort gilt:

http://www.hardware-infos.com/tests.php?test=58&seite=12

ciao

Alex

Den Test ist kompletter Blödsinn. Siehe oben. Man hat keine Ahnung wie sich der heruntergesetzte Takt auf die Timings auswirkt. Diese müssen nämlich nicht linear mit den Takt sinken, sondern der MC kann hier durchaus ab eine gewissen Takt eine Latenzsprung verursachen. Wenn man solche Vergleiche anstellt darf man den Speichertakt nie senken, sondern muss ihn immer erhöhen.

S940
2009-08-08, 12:07:23
Interessant ist vorallem der Wert bei gleichem Chiptakt einmal mit 993Mhz GDDR3 und einmal mit 1800Mhz GDDR5. Fast doppelte Speicherbandbreite, der Performancegewinn ist bei vielen Anwendungen aber nicht/kaum vorhanden.
Jo bei 625 MHz Kerntakt ein Plus von max 10% ( bei 8AA/16AF)
Aber bei 750 :conf2:

Den Test ist kompletter Blödsinn. Siehe oben. Man hat keine Ahnung wie sich der heruntergesetzte Takt auf die Timings auswirkt. Wenn man solche Vergleiche anstellt darf man den Speichertakt nie senken, sondern muss ihn immer erhöhen.
Haha, ok, aber immerhin besser als der cb Test, da sie "nur" auf 750 Mhz runtergehen, nicht auf ~500 MHz ^^

Was mir gerade noch einfällt .. für die GDDR3<>GDDR5 Bandbreitendiskussion könnten auch 4830/4850 <> 4770 Tests herhalten ... blöd nur, dass der RV770LE wieder so wenig Takt hat ...

Wie auch immer die 128bit GDDR5 schlagen sich eigentlich ja ganz ordentlich.

Edit:
Blöd ... ein Vergleich mit einer 4870er mit 512MB wäre eigentlich auch ganz interessant .. wenn die fehlenden SIMD Prozessoren und die 100 MHz RAM Mindertakt nicht wären :(
Naja wens trotzdem interessiert, ca. 20-30% Vorteil für die 4870 bei HD:
http://ht4u.net/reviews/2009/sapphire_radeon_hd_4770/index13.php?dummy=&prod[]=AMD+Radeon+HD4870+%28512+MB%29&prod[]=AMD+Radeon+HD4770&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=0&filter[3][]=16

ciao

Alex

reunion
2009-08-08, 12:30:46
Jo bei 625 MHz Kerntakt ein Plus von max 10% ( bei 8AA/16AF)
Aber bei 750 :conf2:


Was erwartest du? Das sich durch 20% mehr Leistung weltbewegendes ändert? Wohl kaum.


Haha, ok, aber immerhin besser als der cb Test, da sie "nur" auf 750 Mhz runtergehen, nicht auf ~500 MHz ^^

Sorry, aber ich habe oben schon geschrieben auf was man achten muss. Das die anderen Werte mit heruntegetaktetem Speicher Blödsinn sind sage ich jetzt zum dritten mal.


Was mir gerade noch einfällt .. für die GDDR3<>GDDR5 Bandbreitendiskussion könnten auch 4830/4850 <> 4770 Tests herhalten ... blöd nur, dass der RV770LE wieder so wenig Takt hat ...

Wie auch immer die 128bit GDDR5 schlagen sich eigentlich ja ganz ordentlich.


So sieht es aus. Die 4770 hat auch nur 128bit GDDR5 - und das nur bei 800Mhz. Da ist ein 1600SP Chip mit 256bit GDDR5 1100Mhz nicht mehr Bandbreitenlimitiert wie die 4770. Das sollten manche mal einsehen. Das und die 4850 zeigen deutlich das AMD hier genug Luft hat für diese Generation.