PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - AMDs 55nm GPUs: R680, RV670, RV660, RV635, RV620


Seiten : [1] 2 3 4 5

AnarchX
2007-06-07, 21:14:10
Bei VR-Zone gibt es nunmal eine andere Roadmap zu sehen:
http://img58.imageshack.us/img58/147/r6801b1857wc1.png
http://www.vr-zone.com/index.php?i=5044

S: Samples
P: Massproduction

Ob es sich um einen weitere "Maulwurf-Daten" handelt ist fraglich.

Updates:
R680, RV670, RV660. RV635 and RV620 Samples in 65nm, Massenproduktion in 55nm (http://66.249.91.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://news.mydrivers.com/1/88/88437.htm&prev=/language_tools)

RV670

http://img212.imageshack.us/img212/1451/rv6701ay5.jpg

- Vorstellung: 19. November (http://www.digitimes.com/mobos/a20071001PD211.html) nun 15. November

- Vermarktung als HD3000-Serie (http://www.vr-zone.com/articles/RV670_is_Radeon_HD_3800_Series/5358.html) mit neuem Bezeichnungsystem für die Leistung?

- Die-Size: 194mm² (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984)

http://img524.imageshack.us/img524/1024/rv670packagezl8.jpg

Posted today on a Dutch forum. There will be 2 versions of the RV670, Gladiator and Revival, both featuring a 256-bit memory interface. Both versions will be made on TSMC's 55nm process and feature 320 streamprocessors. Samples are expected in September with mass production in December. Launch will be at the end of 2007 or the beginning of 2008. It's gonna be a single slot solution, be fully DX10.1 compliant (and thus feature SM4.1) and PCIe 2.0. It will have HDMI/HDCP/Audio/UVD and of course next gen CrossFire. Gladiator will run at 825Mhz and 1.2Ghz GDDR4 (512MB) while Revival will run at 750Mhz core and 900Mhz mem (256/512).
http://forum.beyond3d.com/showpost.php?p=1052558&postcount=124
http://img507.imageshack.us/img507/4599/2007082235a0bdaaa1874c7le2.jpg

2950XT und 2950Pro
According to various sources, the AMD RV670 series will have two new members, the RV670 XT and RV670 Pro. They are also known as Gladiator and Revival. These two models might finally be known as Radeon HD 2950 XT and Radeon HD 2950 Pro.
http://my.ocworkbench.com/bbs/showthread.php?p=420985#post420985

TDP: (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984)
RV670Pro - Revival:
62W GPU, 104W gesamt

RV670XT - Gladiator:
85W GPU, 132W gesamt


RV670 Gladiator
http://img404.imageshack.us/img404/8261/rv6ts9.jpg
http://img520.imageshack.us/img520/6329/wcgrv670testrv670b19633er6.jpg

RV670 Revival
http://img521.imageshack.us/img521/1552/rv670revivalak7.jpg
Mehr Bilder @ Coolaler (http://www.coolaler.com/forum/showthread.php?t=163156)

- Volumenproduktion: 25. September (?)

- 2950X2X (2x RV670@~750MHz - CF auf einer Karte) - ATis "near 1 TFLOP"-Karte :D


andere 55nm R(V)6xx:
http://img166.imageshack.us/img166/5093/r680wt1.jpg
http://www.vr-zone.com/?i=5325

RV635/620 im Januar als Radeon HD 2650 und HD 2500 (http://hkepc.com/?id=110) ->in Engl. (http://www.digitimes.com/news/a20070910PD212.html)

RV635XT?:
http://img231.imageshack.us/img231/6236/rv635xtuw9.jpg

RV620
http://img178.imageshack.us/img178/1473/rv620dpie0.jpg
SKUs (http://img178.imageshack.us/img178/1415/rv620id1.jpg)

http://news.expreview.com/2007-10-19/1192786125d6080.html


"RV620" = ati2mtag_RV610, PCI\VEN_1002&DEV_95C0
"RV620 " = ati2mtag_RV610, PCI\VEN_1002&DEV_95C5
"RV620 " = ati2mtag_RV610, PCI\VEN_1002&DEV_95C7
"RV635" = ati2mtag_RV630, PCI\VEN_1002&DEV_9590
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9596
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9597
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9598
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9599
"RV670" = ati2mtag_RV630, PCI\VEN_1002&DEV_9501
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9505
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9507
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9500
"R680" = ati2mtag_RV630, PCI\VEN_1002&DEV_950F

Gmax
2007-06-07, 21:18:01
AnarchX, du News-Kanone :smile:

R68o, was soll das sein? LoL, da wurde der R65o gestrichen und schon tauchen Spekus zum R68o auf.
Die 55nm, sind die überhaupt realistisch?

Gast
2007-06-07, 21:23:50
Samples dieses Jahr wären sicher nicht unrealistisch, aber Produktionsreife Serienmodelle gibts wohl erst Q1 oder Q2.

Ganz schön straffer Zeitplan eigentlich. 65nm ist noch nicht mal richtig eingeführt, da redet man schon vom Nachfolger!

Dürfte aber auch im Interesse von AMD liegen, so schnell wie möglich dorthin zu kommen, denn ein Highendprodukt in 65 oder 55nm wäre sicher ne ganze Ecker sparsamer.
Und aus den kleinen Karten könnte man mehr Taktraten rausholen oder vielleicht sogar dual-quadkarten bauen. Bei 20 W Verbrauch pro Chip wäre das nicht mal so unrealistisch.

AnarchX
2007-06-07, 21:24:12
LoL, da wurde der R65o gestrichen und schon tauchen Spekus zum R68o auf.
Sieht durchaus nach einem lustigen Verwirrspiel aus... :biggrin:


Die 55nm, sind die überhaupt realistisch?
Für diese Zeiträume imo durchaus, wenn alles glatt läuft.

laser114
2007-06-07, 22:04:25
55nm in High-End. Na wenn man sich da mal nicht überschätzt hat... :rolleyes:

up¦²
2007-06-07, 22:05:01
Speku war abzusehn...
NVIDIA/ATI: 55nm pilot production now, avaibility in early 2008
http://www.beyond3d.com/content/news/159

reunion
2007-06-07, 22:07:58
Die sollen lieber mal 65nm GPUs verkaufen, anstatt schon von 55nm noch dieses Jahr zu träumen.

laser114
2007-06-07, 22:17:59
Die sollen lieber mal 65nm GPUs verkaufen, anstatt schon von 55nm noch dieses Jahr zu träumen.

Naja, die Überschrift ist nicht ganz korrekt, da steht im Text ja was von Jan '08, was auch gerne sich nochmal verschieben kann. 65nm kommen sicherlich noch ordentlich.

seahawk
2007-06-08, 09:29:28
Wenn das mit RV670 stimmt, dann haben sie ein echtes Problem und können 2007 komplett vergessen.

HOT
2007-06-08, 11:01:16
AnarchX, du News-Kanone :smile:

R68o, was soll das sein? LoL, da wurde der R65o gestrichen und schon tauchen Spekus zum R68o auf.
Die 55nm, sind die überhaupt realistisch?
Es hat nie einen R650 gegeben. Das waren Vermutungen von Forennutzern und hat sich ausgebreitet, ganz einfach weil es wahrscheinlich war...

AnarchX
2007-06-08, 12:29:16
Es hat nie einen R650 gegeben. Das waren Vermutungen von Forennutzern und hat sich ausgebreitet, ganz einfach weil es wahrscheinlich war...

Doch es hat ihn gegeben, jedenfalls in den Fake-Folien von AMD. ;)

laser114
2007-06-08, 14:16:08
Fudzilla dementiert R680:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1385&Itemid=1

Laut ihm ist der RV635 in 55nm als einzige korrekt...

Gast
2007-06-08, 19:55:36
Bei den bescheidenen Yields die 65nm momentan liefert dauert das noch bis der R600 Refresh kommt. Das er kommt steht glaube ich außer Frage, der Codename ist auch egal. Wenn AMD am GPU Markt festhalten will brauch man einfach die komplette Produktpalette. Entwicklungen die allein auf den Midrange Markt abzielen bringen doch keinen Gewinn wenn man sich selbst einen Big Player im GPU Markt nennt.

Man weiß das der G80 Refresh noch dieses Jahr kommt und nochmal vorgeführt werden wie mit dem R600 will man sicher nicht und man hat sicher die Möglichkeit das zu vermeiden.

Gast
2007-06-08, 20:29:25
Man weiß das der G80 Refresh noch dieses Jahr kommt und nochmal vorgeführt werden wie mit dem R600 will man sicher nicht und man hat sicher die Möglichkeit das zu vermeiden.

wenn der G90 wirklich noch dieses jahr kommt wird ein R650(oder wie auch immer) aber kaum ausreichen um nicht wieder vorgeführt zu werden.

Winter[Raven]
2007-06-08, 20:43:19
Nvidia D. meinte ja vor ~2-3 Monaten die "nächste" Generation (Refresh) würde innerhalb von 6 Monaten kommen. Und das ist halt noch dieses Jahr.

OBrian
2007-06-09, 18:12:24
Ich denke, die sollten die 55nm -Teile streichen und lieber gleich auf die 32nm DX11-Generation RV835 setzen, bis dahin ist AMD ja mit den aktuellen Chips mehr als gut aufgestellt. :rolleyes:

AnarchX
2007-07-11, 13:34:37
ATI claims RV670 comes in Q4
But they are wrong
(http://www.fudzilla.com/index.php?option=com_content&task=view&id=1881&Itemid=1)

seahawk
2007-07-11, 14:16:17
ATI dürfte wohl besser als Fudzilla wissen wann die Chips kommen. Es gibt als keine Grund an Q4/07 für den RV670 zu zweifeln.

deekey777
2007-07-12, 17:32:05
Wie wär's damit: Man shrinkt den R600 und fertig ist der RV670? So etwas gab es schonmal und zwar mit dem R430. Schon ein Shrink auf 65 nm bringt einen Chip mit 200 mm², wenn mich nicht alles täuscht.

laser114
2007-07-12, 17:39:27
Wie wär's damit: Man shrinkt den R600 und fertig ist der RV670? So etwas gab es schonmal und zwar mit dem R430. Schon ein Shrink auf 65 nm bringt einen Chip mit 200 mm², wenn mich nicht alles täuscht.

Wie groß ist denn der R600?

deekey777
2007-07-12, 17:43:11
Wie groß ist denn der R600?
Etwa 400 mm². Ich kann mit den 200 mm² etwas daneben liegen, die Schätzung basiert auf einem Artikel der PCGH, den ich jetzt nicht finde.

Nakai
2007-07-12, 17:51:26
Naja wenn es ein Die-Shrink auf 65^Nm oder kleiner ist, dann sollte das möglich sein.^^

mfg Nakai

reunion
2007-07-12, 17:57:04
420mm² x 65²/80² = ~277mm²
420mm² x 55²/80² = ~198.5mm²

deekey777
2007-07-12, 18:06:05
420mm² x 65²/80² = ~277mm²
420mm² x 55²/80² = ~198.5mm²

Mitsamt den oben genannten Hilfszahlen und den reinen Abständen der Transistoren aus der Verbesserung der Fertigungstechnologie von 90 auf 65 Nanometer Strukturbreite dürfte so ein Chip dann bei etwas unter 200 Quadratmillimetern Fläche liegen. Darin enthalten ist ein den AMD-Zahlen entsprechend hocgerechneter Faktor der Packdichte von 1,4 Millionen Transistoren pro Quadratmillimeter auf nunmehr 2,73 Millionen (+95%). AMD erreicht in 65 Nanometern bereits eine Packdichte von 2,47 Millionen Transistoren pro Quadratmillimeter und in der Vergangenheit war Nvidia bei gleichem Prozess meist ein wenig voraus
http://www.pcgameshardware.de/?article_id=605645&page=3

Hier gibt es noch paar Bildchen: http://pc.watch.impress.co.jp/docs/2007/0709/kaigai371.htm

up¦²
2007-07-12, 18:12:59
Wie wär's damit: Man shrinkt den R600 und fertig ist der RV670? So etwas gab es schonmal und zwar mit dem R430. Schon ein Shrink auf 65 nm bringt einen Chip mit 200 mm², wenn mich nicht alles täuscht.

Futzi mal wieder...
ZOL (sehr gute China-Seite, vermutlich seine Quelle) sagt heute zwar, dass der 670 ein Quartal durchrückt, aber eben vn 3 nach 4 :biggrin:
und ZOL "glaub" ich doch eher...
Hier eine Verdeutung:
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fvga%2Ezol%2Ecom%2Ecn%2F59%2F598383%2Ehtml

laser114
2007-07-12, 18:17:07
http://www.pcgameshardware.de/?article_id=605645&page=3

Die +95% in der Packungsdichte bei ATI beziehen sich aber von 90 nm -> 65 nm. ;)

deekey777
2007-07-12, 18:19:03
Die +95% in der Packungsdichte bei ATI beziehen sich aber von 90 nm -> 65 nm. ;)
Nimm einfach 2,47 oder gleich 2,73 Mio Transistoren je mm², dann kommst du mit 700 Mio Transistoren des R600 auf eine Die-Fläche mit einer 2 vorne.

reunion
2007-07-12, 18:19:07
http://www.pcgameshardware.de/?article_id=605645&page=3

Hier gibt es noch paar Bildchen: http://pc.watch.impress.co.jp/docs/2007/0709/kaigai371.htm

Du hast dir das schon genau durchgelesen? Dort wird von einem fiktiven Chip mit 525mio Transistoren ausgegangen, R600 hat 720mio.

reunion
2007-07-12, 18:22:22
Nimm einfach 2,47 oder gleich 2,73 Mio Transistoren je mm², dann kommst du mit 700 Mio Transistoren des R600 auf eine Die-Fläche mit einer 2 vorne.

Das ist doch völlig an den Haaren herbeigozogen von PCGH. Je nach Design kann die Transistorenanzahl/mm² stark variieren, da man zB Cache wesentlich dichter packen kann. Deshalb sind auch die Schlussfolgerungen daraus Käse. Dann auch noch zu behaupten nV könne die Transistoren dichter packen, obwohl beide die exakt gleiche Foundry und demselben Fertigungsprozess verwenden, setzt dem ganzen die Krone auf.

deekey777
2007-07-12, 18:22:41
Du hast dir das schon genau durchgelesen? Dort wird von einem fiktiven Chip mit 525mio Transistoren ausgegangen, R600 hat 720mio.
Du hast aber schon einen Taschenrechner und kannst 700 durch 2,73 teilen?

reunion
2007-07-12, 18:26:15
Du hast aber schon einen Taschenrechner und kannst 700 durch 2,73 teilen?

AMD gesteht man aber nur 2.47 zu. :D

Zum Thema:

RV570(80nm): 330mio Transistoren, 230mm² Die-Fläche.
R600(80nm): 720mio Transistoren, 420mm² Die-Fläche.

Fällt dir was auf? Wenn schon dann musst du von R600 in 80nm ausgehen und daraus die Die-Größe durch die quadratische Verkleinerung der Transistoren herleiten.

Gast
2007-07-12, 18:35:15
Das ist doch völlig an den Haaren herbeigozogen von PCGH. Je nach Design kann die Transistorenanzahl/mm² stark variieren, da man zB Cache wesentlich dichter packen kann. Deshalb sind auch die Schlussfolgerungen daraus Käse. Dann auch noch zu behaupten nV könne die Transistoren dichter packen, obwohl beide die exakt gleiche Foundry und demselben Fertigungsprozess verwenden, setzt dem ganzen die Krone auf.
Bevor du hier wieder sinnlos rumbasht, lies den Artikel, besorge dir Zahlen und rechne selbst. NV hat in der Vergangenheit i.d.R. höhere Packdichten erreicht.

Gast
2007-07-12, 18:37:26
AMD gesteht man aber nur 2.47 zu. :D

Weil das bisher so war. Falls das Lesen längerer Texte dir schwerfällt:

"AMD erreicht in 65 Nanometern bereits eine Packdichte von 2,47 Millionen Transistoren pro Quadratmillimeter und in der Vergangenheit war Nvidia bei gleichem Prozess meist ein wenig voraus."

Wenn du es noch kürzer oder vielleicht mit Fettung oder Großschreibung brauchst, sag Bescheid - dir kann geholfen werden.

reunion
2007-07-12, 19:17:08
Ihr könnt schon lesen? Zitat: "Je nach Design kann die Transistorenanzahl/mm² stark variieren, da man zB Cache wesentlich dichter packen kann." Ja, nV hatte in der Vergangenheit oft die höhere Packdichte, da die Anzahl der Transistoren, die man dichter packen konnte bei ihren Designs in der Vergangenheit eben höher war als bei ATi. Daraus allerdings abzuleiten, dass nV generell Transistoren dichter packen kann ist doch Käse. Wie dicht sich die Transistoren packen lassen bestimmt einzig und alleine die Foundry und der Fertigungsprozess. Zu glauben nV könnte bei zwei identischen Designs ihr Die kleiner machen als ATi, weil der Auftrag dazu von nV kam, ist doch lächerlich. Ich habe ja schon ein Beispiel mit RV570 und R600 gebracht. Hat ATi jetzt plötzlich den Zauberstab ausgepackt, oder liegt es vielleicht doch an der überproportional gestiegenen Cachegröße? Also erspart euch euren überheblichen Auftritt, sowas kotzt mich an.

AnarchX
2007-07-12, 19:25:22
Ich denke auch, dass die gute Packdichte bei RV630 wohl mit den großen Caches zusammenhängt (->Vergleich zu RV610) und man dies nicht unbedingt auf G9x übertragen sollte.

reunion
2007-07-12, 20:07:15
Eben, genau das ist der Punkt. Wieviel Transistoren/mm² man unterbekommt hängt maßgeblich vom Design ab, deshalb sind solche Angaben wie zB die 2.47mio Transistoren pro mm² in 65nm keinesfalls generell übertragbar.

seahawk
2007-07-13, 06:56:47
Und da AMD durch die Erfahrung mit RV610/630 mehr Erfharung als NV mit dem Prozess in 65nm hat dürften sie auch eine höhere Packungsdichte erreichen, bzw. eine min. ähnliche in 55nm. Ohne die kleine Macken des R600 könnten sie einen Chip anbieten, der die LEistung des heutigen High-Ends für 200 Euro realisiert und im 4Q/07 erscheint.

Gast
2007-07-13, 10:05:27
Ihr könnt schon lesen? Zitat: "Je nach Design kann die Transistorenanzahl/mm² stark variieren, da man zB Cache wesentlich dichter packen kann." Ja, nV hatte in der Vergangenheit oft die höhere Packdichte, da die Anzahl der Transistoren, die man dichter packen konnte bei ihren Designs in der Vergangenheit eben höher war als bei ATi. Daraus allerdings abzuleiten, dass nV generell Transistoren dichter packen kann ist doch Käse. Wie dicht sich die Transistoren packen lassen bestimmt einzig und alleine die Foundry und der Fertigungsprozess. Zu glauben nV könnte bei zwei identischen Designs ihr Die kleiner machen als ATi, weil der Auftrag dazu von nV kam, ist doch lächerlich. Ich habe ja schon ein Beispiel mit RV570 und R600 gebracht. Hat ATi jetzt plötzlich den Zauberstab ausgepackt, oder liegt es vielleicht doch an der überproportional gestiegenen Cachegröße? Also erspart euch euren überheblichen Auftritt, sowas kotzt mich an.
Erspare du dir deinen - nur, weil du Dinge nicht verstehst, brauchst du sie nicht zu bashen.

AMD erreicht mit dem R600 gerade mal die Packdichte des kleinsten NV-Chips in 80 nm G86. schon der größere G84 liegt bei einer höheren dichte - in 80 nm und "im neuen Design". Das wird sich bei einem noch größeren DIE auch noch stärker auswirken.

Natürlich sind Designs verschieden, das waren Sie in der Vergangenheit und das sind sie heute - und das werden sie in der Zukunft auch weiterhin sein.

wenn du nicht so blindwütig verbal um dich schlagen würdest, hättest du sicher auch erkannt, dass da stand, dass die packdichte bei NV höher ist: Das schließt die chips und das design mit ein.

Wenn beide firmane exact dasselbe design bei Tsmc abgeben, wird das natürlich auch gleich groß ausfallen - wer was anderes denkt, denkt nicht.

da die designs aber unterschiedlich ausfallen und nvidia wieder an registern gespart hat, wird die die größe beim selben process und bei gleicher transenzahl auch diesemal wieder zu nvidias gunsten ausfallen.

Gast
2007-07-13, 10:06:24
Und da AMD durch die Erfahrung mit RV610/630 mehr Erfharung als NV mit dem Prozess in 65nm hat dürften sie auch eine höhere Packungsdichte erreichen, bzw. eine min. ähnliche in 55nm. Ohne die kleine Macken des R600 könnten sie einen Chip anbieten, der die LEistung des heutigen High-Ends für 200 Euro realisiert und im 4Q/07 erscheint.
Ich liebe deine herrliche ironischen postings!

Gast
2007-07-13, 11:03:02
Erspare du dir deinen - nur, weil du Dinge nicht verstehst, brauchst du sie nicht zu bashen.


Wie wärs mit etwas mehr Inhalt und etwas weniger persönliche Anfeindungen?


AMD erreicht mit dem R600 gerade mal die Packdichte des kleinsten NV-Chips in 80 nm G86. schon der größere G84 liegt bei einer höheren dichte - in 80 nm und "im neuen Design". Das wird sich bei einem noch größeren DIE auch noch stärker auswirken.

Das ist schonmal falsch.

R600: 720/420= 1.7143 M Transistoren pro Quadratmillimeter
G84: 289/169= 1.7101 M Transistoren pro Quadratmillimeter


da die designs aber unterschiedlich ausfallen und nvidia wieder an registern gespart hat, wird die die größe beim selben process und bei gleicher transenzahl auch diesemal wieder zu nvidias gunsten ausfallen.

Selbst wenn es so wäre ist das aber kein Verdienst von nV, sondern ergibt sich eben aus der Transistorenzusammensetzung. Wobei ich stark bezweifle, dass es diesmal wieder so sein wird, da wie schon oben gezeigt diesmal ATi bei gleicher Strukturbreite knapp die Nase vorne haben dürfte was die Packdichte betrifft.

up¦²
2007-07-14, 05:29:13
At the end of this year, ATI will announce R680 for the enthusiast market, there wil be a R680 core, it is 55nm DX10 Unified Shader GPU. It supports CrossFire, HDMI, HDCP, UVD, PCIe 2.

In the performance sector, there is a new RV660/670. It is also 55nm, DX10 and has unified shaders, crossfire, HDMI, HDCP, UVC PCIe 2. This will probably sample in September and Production is expected to be in Jan 2008.

As for mainstream, an improved RV630 named RV635 will be available. This GPU is also 55nm, DX10 Unified shaders, CrossFire, HDMI, HDCP, UVD support and it is PCIe 2 compliant. Sampling is Sep 07 and Production is in Jan 08.

http://my.ocworkbench.com/bbs/showthread.php?p=417324#post417324

PCGH_Carsten
2007-07-14, 10:27:55
Das ist schonmal falsch.

R600: 720/420= 1.7143 M Transistoren pro Quadratmillimeter
G84: 289/169= 1.7101 M Transistoren pro Quadratmillimeter
Das läßt sich wohl erst final klären, wenn es offizielle Zahlen gibt, wie groß die Dies wirklich sind. Bis dahin sind wir alle auf Messungen angewiesen, bei denen ein hunderstel Millimeter den Unterschied macht.
Meine Zahlen für R600 und G84 sind 429 bzw. 165 mm². R600 und G86 gleichen sich fast in Sachen Packdichte.


Selbst wenn es so wäre ist das aber kein Verdienst von nV, sondern ergibt sich eben aus der Transistorenzusammensetzung.
Ja und nein. Man kann natürlich sein Design darauf optimieren, möglichst viele gut packpare Einheiten einzusetzen oder man kann halt versuchen, durch frühen Wechsel auf einen neuen Fertigungsprozess die Kosten zu sparen. Da AMD und Nvidia hier unterschiedliche Philosophien haben, kann man die hohe erreichte Packdichte schon als "Verdienst" auslegen. Muss man nicht, spielt auch keine Rolle.


Wobei ich stark bezweifle, dass es diesmal wieder so sein wird, da wie schon oben gezeigt diesmal ATi bei gleicher Strukturbreite knapp die Nase vorne haben dürfte was die Packdichte betrifft.
Ist dein gutes Recht zu zweifeln, aber wie ich gezeigt habe, hat Nvidia bei gleicher Strukturbreite "leicht" die Nase vorn. ;) Ich glaube, diese "leicht die Nase vorn" werden wir ohne unabhängige Laboruntersuchung oder offizielle Zahlen seitens der Herstelle nicht auflösen können.


Hinzu kommt, dass - so zeigt es die Vergangenheit - größere Chips innerhalb des gleichen Fertigungsprozesses und der gleichen Familie immer besser gepackt wurden. Sowohl von Nvidia als auch von (damals) Ati. Die G84/R600-Zahlen sind also Vergleiche des Worst- mit dem Best-Case.

Beispiele?
Nvidia, 90nm
(G80: 1,4 - nicht dieselbe Architektur)
G71: 1,38
G73: 1,34

ATi:
R580: 1,06
RV530: 1,02
RV515: 1,01

Ich will nicht sagen, dass ich hier unbedingt Recht behalte - wie in der zitierten Newsmeldung bereits gesagt, ist das Ganze eine Spekulation auf der Basis verfügbarer Werte - aber ohne schlüssige Argumente einfach nur auf Basis von Herumgerate als dumm/biased/sonstwas hingestellt zu werden finde ich auch nicht gut. Bitte, überzeugt mich mit Argumentation.

Gast
2007-07-14, 11:15:45
Auch wenn AMD seine Chips der Art schrumpfen würde, heißt es immernoch nicht, dass sie auch schneller sein werden als ein G9X.
Ein gutes Beispiel ist der G8X. Dort ist AMD nur in den mittleren Grakas gut aufgestellt.
Wenn Nvidia nun mit G9X kommt, ist der Unterschied von G8X größer als AMD's 55nm zu den 65nm Chips.
Dadurch könnte Nvidia in der Mittelklasse ziemlich viel aufholen.
Den einzigste ausschlaggeben Vorteil von AMD könnte dann vielleicht der Verbrauch und die Wärmeentwicklung sein und vielleicht ein "paar" Transistoren sein. Somit könnte sich AMD gut gegen Nvidia stellen. Ob es dann von der Performance reicht, müssen wir wohl abwarten.

Deswegen sehe ich die Prognose von AMD als einen realistischen Schlag gegen den G9X an. AMD produziert etwas mehr auf Risiko um den performellen Anschluss zu halten.

Gmax
2007-07-14, 16:20:34
Ich hoffe, daß die Künftigen weniger Strom ziehen werden und daß im Falle vom R68o ein 6 Pin Stecker zur Stromversorgung reicht.

AnarchX
2007-07-14, 16:23:24
Ich hoffe, daß die Künftigen weniger Strom ziehen werden und daß im Falle vom R68o ein 6 Pin Stecker zur Stromversorgung reicht.

Wenn sich hier architektonisch nicht viel tut, würde es mich gerade bei dieser Karte nicht wundern, wenn man denn hier wieder die Grenzen auslotet um gegen NVs Gegenpart zu bestehen.

Ansonsten wird wohl eh 8Pin bei den kommenden Karten Standard.

seahawk
2007-07-14, 17:45:58
http://my.ocworkbench.com/bbs/showthread.php?p=417324#post417324

Das hört sich gut an. .

Gmax
2007-07-14, 17:57:40
Ansonsten wird wohl eh 8Pin bei den kommenden Karten Standard.

Den man doch nur bei einem erhöhten Stromverbrauch benötigt, oder? Ich hoffe, daß dies eben nicht der Fall sein wird.

AnarchX
2007-07-30, 07:24:25
Also doch R680?
http://img440.imageshack.us/img440/184/amd2cb6vo8.jpg
http://forum.beyond3d.com/showpost.php?p=1040947&postcount=38

Und auch wieder dieser seltsame Codename -> R670. :|

Nakai
2007-07-30, 13:34:52
Erinnert mich irgendwie an die X1900GT. Die basierte ja auch auf den R580.

Dann wird die HD2900PRO wohl nur aus 3 Clustern bestehen und daher 12 TMUs mit einem niedrigeren Takt. Etwa 650Mhz schätz ich.

Und auch wieder dieser seltsame Codename -> R670

Stammt das auch wirklich von AMD?:|
Dann wirds wieder ein Spiel mit Codenamen...ähnlich NV und das nervt.

mfg Nakai

AnarchX
2007-07-30, 13:37:21
Stammt das auch wirklich von AMD?:|


Die Frage scheint wohl durchaus berechtigt...

Leo soll ja mit R7xx kombiniert werden:
http://www.pcper.com/images/reviews/436/Slide133.jpg

AnarchX
2007-07-30, 16:55:50
Die Frage scheint wohl durchaus berechtigt...

Leo soll ja mit R7xx kombiniert werden:
http://www.pcper.com/images/reviews/436/Slide133.jpg

Wobei hier R670 und R680 auch erwähnt werden, wohl im Bezug auf die Folie die doch von ATi stammen könnte:
http://www.sysopt.com/news/article.php/3691401

deekey777
2007-07-30, 16:59:01
Also doch R680?
http://img440.imageshack.us/img440/184/amd2cb6vo8.jpg
http://forum.beyond3d.com/showpost.php?p=1040947&postcount=38

Und auch wieder dieser seltsame Codename -> R670. :|
Die Frage scheint wohl durchaus berechtigt...

Leo soll ja mit R7xx kombiniert werden:
http://www.pcper.com/images/reviews/436/Slide133.jpg
Was verwirrt, sind die Zeitangaben.
Leo soll 2008 kommen: In der ersten Folie wird Leo noch mit der R6-Generation in Verbindung gebracht, in der zweiten dagegen schon mit dem R700.

AnarchX
2007-08-02, 17:10:20
R680, RV670, RV660. RV635 and RV620 Samples in 65nm, Massenproduktion in 55nm (http://66.249.91.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://news.mydrivers.com/1/88/88437.htm&prev=/language_tools)

Wo hat den MyDrivers das abgeschrieben?

w0mbat
2007-08-02, 17:14:37
R680 = erweiterter R600 in 55nm?
RV670 = neue GPU auf Basis des RV630?
RV660 = HD2750?
RV635 = RV630 @ 55nm?
RV620 = erweiterter RV610 @ 55nm?

Gmax
2007-08-06, 15:02:21
R780 comes in Q4 2008

http://www.fudzilla.com/index.php?option=com_content&task=view&id=2306&Itemid=1

Winter[Raven]
2007-08-06, 16:05:06
R780 comes in Q4 2008

http://www.fudzilla.com/index.php?option=com_content&task=view&id=2306&Itemid=1

Lol... der R700 ist noch ned mal auf dem Markt und es wird schon über den R780 spekuliert... :crazy2:

HOT
2007-08-07, 10:17:38
Sicher, AMD will ja das Tempo bei ATI stark anziehen ;). Highend jedes halbe Jahr. Zudem muss man ja weg von den Riesenchips und hin zu Skalierbarkeit. Bei den CPUs geht AMD ja ähnliche Wege.
Auch fertigungstechnisch scheint ATI ja vor NV zu sein, da man effektiv schneller auf kleinere Strukturbreiten wechselt. Der RV630 ist schonmal ein sehr gutes Positivbeispiel. Sollten hier tatsächtlich Synergien im Spiel sein?

K4mPFwUr$t
2007-08-07, 10:59:26
was bringt einem kleinere fertigungsprozesse, wo am ende die abwärme tozdem höher ist? außer das der chiphersteller mehr chips auf einen wafer packen kann. um jetzt auf den vergleich r600 vs g80 anzusprechen.

HOT
2007-08-07, 11:46:43
was bringt einem kleinere fertigungsprozesse, wo am ende die abwärme tozdem höher ist? außer das der chiphersteller mehr chips auf einen wafer packen kann. um jetzt auf den vergleich r600 vs g80 anzusprechen.
Die RV6xx Chips sind kühler und höher getaktet als ihre NV Kollegen. R600 vs. G80 ist nicht repräsentativ, da der R600 1.) in 80nm gefertigt wird (welcher leistungstechnisch mit dem 90nm Prozess gleichgesetzt werden kann) und 2.) deutlich höher getaktet ist als der G80. Für den Takt und die Strukturgrösse von 700mio Transen ist der R600 sogar deutlich effektiver als der G80.

AnarchX
2007-08-07, 11:50:23
Die RV6xx Chips sind kühler und höher getaktet als ihre NV Kollegen. R600 vs. G80 ist nicht repräsentativ, da der R600 1.) in 80nm gefertigt wird und 2.) deutlich höher getaktet ist.

Naja, man kann aber auch sagen, dass die G8x Chips deutlich höher getaktet sind, wenn man vom Shadertakt aus betrachtet. ;)

HOT
2007-08-07, 11:53:11
Naja, man kann aber auch sagen, dass die G8x Chips deutlich höher getaktet sind, wenn man vom Shadertakt aus betrachtet. ;)
Und hier zeigt sich nämlich, dass diese Chips kaum vergleichbar sind. Was da so hoch getaktet ist sind sehr simple redundant ausgelegte Strukturen. ATI setzt mehr auf Breite, komplexe Strukturen.
Letztendlich ist aufgrund des unausgewogenen Leistungssprektrums des R600 nur entscheidend, dass der G80 momentan effektiver mit Leistung/Abwärme umgeht. Die 65nm RV6xx Chips gehen hier deutlich effektiver zu Werke. Die 55nm Modelle sind in etwa so leistungsfähig wie die 65nm Modelle nur billiger in der Produktion. Daher setzt ATI auf 55nm bei der nächsten Generation. Deren Effektivität kann man jetzt kaum feststellen, weil bis dahin noch viel Optimirumgspotenzial besteht.

Nakai
2007-08-07, 12:05:14
Letztendlich ist aufgrund des unausgewogenen Leistungssprektrums des R600 nur entscheidend, dass der G80 momentan effektiver mit Leistung/Abwärme umgeht. Die 65nm RV6xx Chips gehen hier deutlich effektiver zu Werke. Die 55nm Modelle sind in etwa so leistungsfähig wie die 65nm Modelle nur billiger in der Produktion. Daher setzt ATI auf 55nm bei der nächsten Generation. Deren Effektivität kann man jetzt kaum feststellen, weil bis dahin noch viel Optimirumgspotenzial besteht.

Wegen Halfnode, würde ich sagen, dass er dem 65Nm-Bereich ziemlich ähnlich ist.
Naja solange ATI keine guten Treiber rausbringt, kann man das R600-Design schlicht vergessen.
Der RV630 verbraucht zwar kaum Strom, aber die Performance ist nicht so toll.^^

mfg Nakai

Gast
2007-08-07, 20:41:26
Apropos Treiber...neulich habe ich gelesen, dass Henri Richards vor einiger Zeit auf einer Red-Hat-Messe betont hat, dass man bei ATI nach der Übernahme durch AMD das Thema der Linuxtreiber etwas ernster betrachten will. Vielleicht wirds ja mal was bis der R680 rauskommt. Durch AMD weht da bestimmt ein neuer Wind, da bin ich gar nicht mal so pessimistisch.

Winter[Raven]
2007-08-08, 07:47:29
Apropos Treiber...neulich habe ich gelesen, dass Henri Richards vor einiger Zeit auf einer Red-Hat-Messe betont hat, dass man bei ATI nach der Übernahme durch AMD das Thema der Linuxtreiber etwas ernster betrachten will. Vielleicht wirds ja mal was bis der R680 rauskommt. Durch AMD weht da bestimmt ein neuer Wind, da bin ich gar nicht mal so pessimistisch.

Linux ernster zunehmen, versucht ATI nicht seit gestern, sondern seit Jahren... ähnliches gilt auch für Open GL...

Gast
2007-08-08, 15:15:25
;5734284']Linux ernster zunehmen, versucht ATI nicht seit gestern, sondern seit Jahren... Hmm, das Gefühl hatte ich bisher aber nicht. Ich hoffe ja mal stark, dass sich unter AMD-Führung da was ändert.
;5734284'] ähnliches gilt auch für Open GL...Zumindest bei den Mainstream-Spielen haben sie ja nach einiger Zeit ordentliche Performance geliefert. In anderen Dingen siehts aber noch recht übel aus.

AnarchX
2007-08-21, 19:38:37
Neu Infos über RV670 und darauf basierende SKUs:
Posted today on a Dutch forum. There will be 2 versions of the RV670, Gladiator and Revival, both featuring a 256-bit memory interface. Both versions will be made on TSMC's 55nm process and feature 320 streamprocessors. Samples are expected in September with mass production in December. Launch will be at the end of 2007 or the beginning of 2008. It's gonna be a single slot solution, be fully DX10.1 compliant (and thus feature SM4.1) and PCIe 2.0. It will have HDMI/HDCP/Audio/UVD and of course next gen CrossFire. Gladiator will run at 825Mhz and 1.2Ghz GDDR4 (512MB) while Revival will run at 750Mhz core and 900Mhz mem (256/512).
http://forum.beyond3d.com/showpost.php?p=1052558&postcount=124


Bei Chiphell gab es vor kurzem ähnliches zu lesen, wobei hier noch andere Fakten erwähnt wurde:
- 8 Layer PCB (R600XT 14)
- Stromverbrauch unter einer X1950 (würde auf XT tippen)

Die 320 SPs deuten wohl ganz auf einen R600Pro(256Bit) @ 55nm hin. Könnte durchaus ein ernster Konkurrent für G92 werden, wenn dieser nur ein halber G80 mit extremen Taktraten ist.

w0mbat
2007-08-21, 19:48:20
Das heißt der RV670 ist ein R600 in 55nm mit DX10.1 und höherem Takt? Oder hat der RV670 auch mehr ROPs?

Und was soll dann über dem RV670 kommen, wenn dieser schon 320SP hat? Der R680 braucht dann etweder mehr Shader oder muss mit 1GHz+ takten.

AnarchX
2007-08-21, 20:11:06
Das heißt der RV670 ist ein R600 in 55nm mit DX10.1 und höherem Takt?
Sieht ganz nach einem R600@256Bit in 55nm aus. Aber wer weiß ob man noch Optimerungen vorgenommen hat.


Oder hat der RV670 auch mehr ROPs?
Wieviel hat der R600Pro?


Und was soll dann über dem RV670 kommen, wenn dieser schon 320SP hat? Der R680 braucht dann etweder mehr Shader oder muss mit 1GHz+ takten.
2x RV670? ;)

Alternativ könnte natürlich der R680 auch mit mehr TMUs und SPs daherkommen, z.B. 24 TMUs und 480SPs.

Edit:
Das ist übrigens die originale Quelle von der CJ spricht:
http://gathering.tweakers.net/forum/view_message/28596626

- R680 als R600-Nachfolger im Januar mit 800MHz+, 0.5/1GB DDR und UVD
- RV635/RV62 als Refreshes mit DX10.1

Nakai
2007-08-21, 21:01:59
2*RV670 sind der R670.

Ich gehe davon aus, dass der RV670 ein 3/4 R600 aber deutlich höher getaktet, als der R600 ist.

Wurde der R680 nicht gecancelt oder war er nicht die Presseente?

mfg Nakai

w0mbat
2007-08-21, 21:06:41
Angeblich war der R650 die Ente.

laser114
2007-08-21, 21:13:48
Ich dachte R650 und R680 waren Enten...

AnarchX
2007-08-21, 21:16:31
Ich gehe davon aus, dass der RV670 ein 3/4 R600 aber deutlich höher getaktet, als der R600 ist.


Naja, ein 3/4 R600 ist selbst mit hohen Taktraten (bis max. 900MHz) nicht unbedingt so performant, ausser es gibt irgendwelche Bugs die in den kommenden Chips beseitigt werden und was dann nochmal ordentlich Performance bringt, was ich eher bezweifele.

Um G92, selbst wenn es nur 4 Cluster sind, ordentlich gegenüberzustehen sollte man schon mit einem vollständigen R600@256Bit daherkommen.

Mit 55nm sollte da auch eine vernünftige Die-Size um die 200mm² möglich sein. ;)

AnarchX
2007-08-22, 14:26:42
http://img507.imageshack.us/img507/4599/2007082235a0bdaaa1874c7le2.jpg

Interessant... ;)

Nakai
2007-08-22, 16:05:35
Naja, ein 3/4 R600 ist selbst mit hohen Taktraten (bis max. 900MHz) nicht unbedingt so performant, ausser es gibt irgendwelche Bugs die in den kommenden Chips beseitigt werden und was dann nochmal ordentlich Performance bringt, was ich eher bezweifele.


Letzteres bezweifle ich auch. Jedoch kann man den R600 auch noch etwas hochtakten, was ja von AMD wegen dem Stromverbrauch unterbunden wurde.
Mit etwa 930 Mhz Coretakt wäre er so schnell wie die HD2900XT, jedenfalls von den Füllraten und der Rohleistung.
Ich will nur diese Möglichkeit offen halten.

mfg Nakai

AnarchX
2007-08-22, 16:14:05
Ich komme auf 990MHz(742MHz * 1,33) um die gleichen Rohdaten wie R600XT auf dem Papier zu erhalten, was dann doch etwas viel wäre und deswegen hat sich wohl ATi auch für den "vollen DX10.1-R600@256Bit" entschieden.

Interessant wird auf jeden Fall noch R680, falls dieser noch existiert.

StefanV
2007-08-22, 16:18:25
Neu Infos über RV670 und darauf basierende SKUs:

http://forum.beyond3d.com/showpost.php?p=1052558&postcount=124


Bei Chiphell gab es vor kurzem ähnliches zu lesen, wobei hier noch andere Fakten erwähnt wurde:
- 8 Layer PCB (R600XT 14)
- Stromverbrauch unter einer X1950 (würde auf XT tippen)

Die 320 SPs deuten wohl ganz auf einen R600Pro(256Bit) @ 55nm hin. Könnte durchaus ein ernster Konkurrent für G92 werden, wenn dieser nur ein halber G80 mit extremen Taktraten ist.
INteressant, schaun mer mal, was daraus am Ende wird...

PS: Single Slot Cooler und dann tippst du auf 'ne x1950XT?! :ugly:
Erklär mal den anderen, wie du die mit 'nem Single Slot Cooler kühlen willst!!

AnarchX
2007-08-22, 16:23:01
PS: Single Slot Cooler und dann tippst du auf 'ne x1950XT?! :ugly:
Erklär mal den anderen, wie du die mit 'nem Single Slot Cooler kühlen willst!!

Wie schon gesagt unter X1950irgendwas, wieviel hab ich ja nicht gesagt. ;)

Momentan scheint wohl 80W geplant zu sein als TDP(?), was über einer X1950Pro liegen dürfte und eben unter einer X1950XT. :D

Gast
2007-08-22, 16:44:36
Also kann man bisher für den RV670 (schnellstes Modell) folgendes festhalten:
825 Mhz Chip
1200 Mhz Speicher @ 256bit
ROPs/TMUs von der Anzahl wie HD2900XT
8 Layer PCB (HD2900XT 14)
Single Slot Kühlung
80 Watt TDB

Wenn man davon ausgeht, dass die 2900XT nicht an der Speicherbandbreite hängt, wäre die RV670 etwa 30% schneller als diese – bei 40% deren Stromverbrauchs. Falls noch kleine Änderungen am Design vorgenommen werden, wäre auch noch mehr drin.

Das wäre dann wirklich sehr interessant.

w0mbat
2007-08-22, 17:05:19
Wie kommst du auf 30% schneller?

Gast
2007-08-22, 18:31:06
Holla,

da habe ich doch den Chiptakt meiner X1900XT auf die HD2900XT übertragen:)

Korrigiert bleiben noch 10% Leistungssteigerung (825 zu 742 MHz) durch Takterhöhung.

Mal sehen wie sich die Änderungen DX10->DX10.1 auswirken.
Bei dem ein oder anderen Test ergeben sich dann vielleicht auch 30% Mehrleistung;)

Specs von hier ausgeliehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/2/

w0mbat
2007-08-22, 19:17:17
Ja, ich bin auch auf ca. 10% gekommen.

Wie könnte der RV660 und der R680 aussehen? Wenn der RV670 wirklich schon so stark ist?

RV660 = HD2750?
R680 = HD2950 XT[X]?

laser114
2007-08-22, 19:22:47
An einen R680 glaub ich nicht, gerade wenn der RV670 so stark wird. ;)
Da eher noch die These, das man 2x RV670 aneinanderpappt.

Und falls es einen RV660 gibt - und der nicht wie der RV560 ein umgelabelter RV670 ist, wird der irgendwo abgespeckt sein. Vermutlich volle 256-Bit-Speicherinterface mit weniger Streamprozessoren (200 oder 240), 12 TMUs halt ich auch für realistisch. Alles andere kann man wohl jetzt noch nicht sagen, ist ja nicht geklärt ob der überhaupt kommt.

AnarchX
2007-08-22, 19:56:31
Bei RV660 würde ich auch eher auf einen kastrierten RV670(12TMUs und somit 240SP und vielleicht wieder nur 128Bit) tippen, noch eine GPU lohnt sich da wohl eher nicht.

RV660 = HD2750?

Vielleicht:
RV660 - 2650XT
RV635 - 2650Pro


An einen R680 glaub ich nicht, gerade wenn der RV670 so stark wird

Fragt sich ob bei NV noch eine neue High-End-GPU existiert, die man geheim halten konnte vor der Öffentlichkeit, aber vielleicht nicht vor ATi-Spionen. ;)

Pirx
2007-08-22, 19:57:25
Hat der R600 denn nun einen Hardwarefehler, der ihn daran hindert, mit AA seine volle Leistung zu entfalten?
Könnte AMD den mit neuen Chips lösen?

AnarchX
2007-08-22, 20:11:46
Hat der R600 denn nun einen Hardwarefehler, der ihn daran hindert, mit AA seine volle Leistung zu entfalten?
Könnte AMD den mit neuen Chips lösen?

Wenn es wirklich am Resolve über die Shadereinheiten liegt, so wird man dabei bleiben, denn sonst würde man wieder einen Schritt zurückgehen.

Alternativ könnte aber der Speicherkontroller einen Bug haben (siehe Knick bei der Skalierung), was man fixen könnte.


Aber woran es nun wirklich liegt, werden nur die Ingenieure bei ATi wissen. Und wird werden dann eben an der Ergebnisse der kommenden Chips sehen, ob sich hier etwas verbessert hat.

w0mbat
2007-08-22, 20:16:04
Ich war mal so frei und habe eine Tabelle mit einem spekulativen GPU HD2950 Roundup von ATi Ende 07/Anfang 08 erstellt.

Wichtig: Alles ist spekulativ, entstammt also meiner Fantasie, also bitte nicht meckern. Aber Einbringungen in die Liste sind erwünscht.

http://img2.imagebanana.com/img/17w101nt/ati_hd2950series.JPG

laser114
2007-08-22, 20:21:33
Na obs wirklich 55nm werden weiß ich noch nicht. Ich halte es zwar nicht für ausgeschlossen, etwas überrascht wäre ich aber trotzdem.

AnarchX
2007-08-22, 20:30:04
Sollte R680 laut "The Source" nicht nur mit GDDR3 als Referenz und 800MHz+ kommen? ;)

Imo sollte R680 doch schon ein etwas "fettere" Chip sein, wenn er existiert, um das eventuell vorhandene 512Bit SI auszulasten. In 300-350mm²@55nm sollten ja auch schon über eine 1 Milliarde Transistoren passen, was dann für 24 TMUs/480SPs ausreichen kann.

Der Performance-Abstand deiner Variante zur mehr oder weniger bestätigten 2950Pro, wäre allein durch 512Bit und eine Taktrate, die unter 1GHz liegen wird, wohl eher zu gering.

Aber irgendwie kommt mir die Liste für ein $200+ Line-Up ziemlich überfüllt vor, also wird man wohl entweder R680 oder R670(2xRV670) sehen, da ich vermute, dass die AIBs über zu viele Varianten nicht so glücklich wären.

Zudem ja die Gerüchte über ATis neue Strategie: einfache, problemlose GPUs und für High-End halt mehr als eine davon und dann noch das letzte Interview mit Huddy, wo er meinte das Crossfire in Zukunft immer wichtiger wird.


Na obs wirklich 55nm werden weiß ich noch nicht. Ich halte es zwar nicht für ausgeschlossen, etwas überrascht wäre ich aber trotzdem.

Bis jetzt wurde immer davon geredet und für den Zeitraum scheint es wohl auch realistisch zu sein. Die kleinen Refresh-Chips werden imo 100%ig in 55nm kommen. ;)

laser114
2007-08-22, 20:32:08
Bis jetzt wurde immer davon geredet und für den Zeitraum scheint es wohl auch realistisch zu sein. Die kleinen Refresh-Chips werden imo 100%ig in 55nm kommen. ;)

Ende dieses Jahres schon? Na denn, dann hat die GPU-Produktion ja AMDs Prozessoren etwas voraus. ;)

AnarchX
2007-08-22, 20:43:13
Ende dieses Jahres schon? Na denn, dann hat die GPU-Produktion ja AMDs Prozessoren etwas voraus. ;)

Es ist eben der Half-Node zu 65nm(an welchem beide IHVs schon seit Herbst 06 werkeln). Der wird eben von den CPU-Herstellern nicht wahrgenommen, zeitlich passt er dann aber wieder zu 45nm im Q2 für AMD und die anderen Chiphersteller wie TSCM.

Juerg
2007-08-24, 14:37:11
http://img507.imageshack.us/img507/4599/2007082235a0bdaaa1874c7le2.jpg

Interessant... ;)Was ist ein [socket board] :confused:

AnarchX
2007-08-24, 14:47:27
Wie es eben da steht, bei frühen Samples ist es durchaus üblich, dass die GPU noch gesockelt ist, während sie bei der finalen Version eben aus kostengründen festgelötet ist

Juerg
2007-08-25, 00:27:48
Wie es eben da steht, bei frühen Samples ist es durchaus üblich, dass die GPU noch gesockelt ist, während sie bei der finalen Version eben aus kostengründen festgelötet istAha... wusste ich nicht, ist mir neu. :eek: wieso dann nicht bei pinkompatiblen Chips gesockelte Grafikkarten verwenden? -> Upgrade von 65nm (~200 Watt) zu 55nm (~130 Watt) z.B oder R600 -> R680? Würde vielleicht einträglich sein?

Gast
2007-08-25, 01:48:57
Wie es eben da steht, bei frühen Samples ist es durchaus üblich, dass die GPU noch gesockelt ist, während sie bei der finalen Version eben aus kostengründen festgelötet ist

Ich dachte immer durch das festlöten werden die elektrischen Eigenschaften der Verbindung zwischen Platine und GPU besser, sodass man diese höher Takten kann etc.

AnarchX
2007-08-25, 10:27:19
Das natürlich auch, umso teurer/aufwendiger würde halt der Sockel werden, wenn man das bei den Verkaufskarten einsetzen würde.

Aber hier geht es ja wohl eher um simple Funktionstests bei niedrig getakteten Samples.
Wohlmöglich hängt das auch damit zusammen, dass die RV670-Samples in 65nm kommen sollen und die finalen Chips in 55nm, sodass man halt hier mal schnell wechseln kann.

Gaestle
2007-08-25, 11:59:17
Wohlmöglich hängt das auch damit zusammen, dass die RV670-Samples in 65nm kommen sollen und die finalen Chips in 55nm, sodass man halt hier mal schnell wechseln kann.

Würde das nicht bedeuten, dass man für den Shrink neue TapeOuts brauchen würde, was den Zeitraum zwischen Sample und Verkaufsprodukt verlängert und somit den Verkaufsstart verzögert? Ist das sinnvoll?

AnarchX
2007-08-25, 15:12:06
55nm zu 65nm ist ja nur ein optischer Shrink, weswegen man es wohl so handhaben kann.
Aber die Planung mit Samples @65nm und Verkauf@55nm ist wie nahezu alles hier eher spekulativ. ;)

seahawk
2007-08-25, 15:26:24
Was aber Sinn macht da 55nm eben nur ein halfnode ist. Die Umsetzung sollte daher nicht so schwer sein, das Ergebnis wird man abwarten müssen.

reunion
2007-08-25, 15:53:44
55nm zu 65nm ist ja nur ein optischer Shrink, weswegen man es wohl so handhaben kann.
Aber die Planung mit Samples @65nm und Verkauf@55nm ist wie nahezu alles hier eher spekulativ. ;)

Eine äußerst dumme Spekulation noch dazu. Jedes Tapeout kostet millionen, sofern AMD nicht absichtlich Geld verpulvern will, macht es nicht den geringsten Sinn, Samples vorher in 65nm zu produzieren, wenn man das finale Produkt dann in 55nm verkaufen will. Wer auf diesen Mist wieder kam, würde mich mal interessieren.

Gmax
2007-08-28, 18:19:23
RV670 is more like R600 on 55nm

http://www.fudzilla.com/index.php?option=com_content&task=view&id=2708&Itemid=1

AnarchX
2007-08-28, 21:48:41
Ein 3D-Concept der RV670-Karten?
http://img404.imageshack.us/img404/8261/rv6ts9.jpg

Gast
2007-08-28, 22:35:51
Ein 3D-Concept der RV670-Karten?
http://img404.imageshack.us/img404/8261/rv6ts9.jpg

jetzt sind sie schon so schwach, dass sie nichtmal beim offline-rendering antialiasing hinbekommen :D

Winter[Raven]
2007-08-29, 07:53:52
RV670 is more like R600 on 55nm

http://www.fudzilla.com/index.php?option=com_content&task=view&id=2708&Itemid=1

Wenn das stimmt, mir Like R600 ... dann gute Nacht.

Gast
2007-08-29, 21:13:52
RV670 card to have 100W TDP
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2725&Itemid=1

RV670 supports DX 10.1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2724&Itemid=1

mrt
2007-08-30, 00:28:07
;5795614']Wenn das stimmt, mir Like R600 ... dann gute Nacht.
Wenn er sich auf die Performance bezieht eigentlich nicht, G92 ist auch langsamer als die 8800GTX.

Adam D.
2007-08-30, 07:10:03
Wenn er sich auf die Performance bezieht eigentlich nicht, G92 ist auch langsamer als die 8800GTX.
Erstmal kannst du hier nicht so eine Behauptung aufstellen, bevor es wirklich handfeste Informationen gibt. Außerdem wird es keine neue Generation bzw. keinen Refresh geben, mit dem man das alte Topmodell nicht schlagen könnte, wenn man wollte.

Nakai
2007-08-30, 15:23:12
Wird der G92 aber.
Warum denkste, wieso man ne GX2 realisieren will.

RV670 card to have 100W TDP

Mhh, wird dann wohl um die 90 Watt verbrauchen.

mfg Nakai

Hvoralek
2007-09-04, 21:38:45
Das heißt der RV670 ist ein R600 in 55nm mit DX10.1 und höherem Takt? Oder hat der RV670 auch mehr ROPs?Ich würde noch eher damit rechnen, dass RV670 weniger ROPs bekommt als mehr.

AnarchX
2007-09-04, 21:41:22
Ich bezweifele, dass man die den G8x-ROPs unterlegenen ROPs nochmal reduziert, ausser wenn es wirklich eine Verbindung zwischen MC und RBE-Anzahl gibt.

Adam D.
2007-09-04, 21:53:38
Wird der G92 aber.
Warum denkste, wieso man ne GX2 realisieren will.
mfg Nakai
Wenn man eben so das alte Topmodell schlage will. Andere Strategie, selbes Ziel. Schneller als die alte Generation ist der G92x2 dann schon.

Nakai
2007-09-04, 22:19:35
Wenn man eben so das alte Topmodell schlage will. Andere Strategie, selbes Ziel. Schneller als die alte Generation ist der G92x2 dann schon.

Das schon, aber ein G92 alleine wird das nicht schaffen.

mfg Nakai

Adam D.
2007-09-05, 07:04:46
Das schon, aber ein G92 alleine wird das nicht schaffen.

mfg Nakai
Ja, aber das war wohl von Anfang an das Ziel, diesen Chip so zu konzipieren. Ich mein, 1 Jahr nach dem G80 wäre Nvidia sicher soweit, wieder einmal einen ordentlichen Refresh zu bringen, so wie wir es früher gekannt haben. Aber anscheinend lässt die aktuelle Marktsituation andere (günstigere?) Pläne zu.

AnarchX
2007-09-10, 11:19:19
RV635/620 im Januar als Radeon HD 2650 und HD 2500 (http://hkepc.com/?id=110)

PCGH_Carsten
2007-09-11, 08:41:32
Ich bezweifele, dass man die den G8x-ROPs unterlegenen ROPs nochmal reduziert, ausser wenn es wirklich eine Verbindung zwischen MC und RBE-Anzahl gibt.
Andersrum aufgezäumt: Was will der Chip denn mit so vielen ROPs?

AnarchX
2007-09-11, 10:11:20
Andersrum aufgezäumt: Was will der Chip denn mit so vielen ROPs?

Ein vernünftige MSAA-Performance erreichen und auch noch eine ordentliche Z-Füllrate für die Schattenspielerein kommender Games zu haben?

8 solche schwachen(nur Double-Z) ROPs denke ich sind doch zu wenig für einen "R600"@825MHz oder?

seahawk
2007-09-11, 10:22:24
Für ein ;idrange-Produkt nicht unbedingt.

PCGH_Carsten
2007-09-11, 10:33:02
Ein vernünftige MSAA-Performance erreichen und auch noch eine ordentliche Z-Füllrate für die Schattenspielerein kommender Games zu haben?

8 solche schwachen(nur Double-Z) ROPs denke ich sind doch zu wenig für einen "R600"@825MHz oder?
Z-Fill ist ein Punkt, aber ich denke, es wird schwierig für AMDs Marketing zu sein, zu erklären, warum man nach programmierbarem AA (welches ja seit R600 das einzig wahre ist) nun doch wieder FF-AA haben will/kann/muss.

AnarchX
2007-09-11, 10:47:24
Z-Fill ist ein Punkt, aber ich denke, es wird schwierig für AMDs Marketing zu sein, zu erklären, warum man nach programmierbarem AA (welches ja seit R600 das einzig wahre ist) nun doch wieder FF-AA haben will/kann/muss.

Wie schätzt du die Auswirkung des Shader-Resolvs, für die MSAA-Performance auf R6xx ein? Laut Xmas@B3D, sollte es ja eigentlich nicht wirklich große Auswirkungen haben. Also müsste die schlechte MSAA-Performance noch andere Gründe haben?

8 ROPs wären sicherlich nicht verkehrt, aber wie schon gesagt die Z-Fill leidet auch massiv darunter (wenn man dagegen mit dem G92 vergleicht, der wohl mit 128 Z-Samples pro Takt auffahren kann).
Aber vielleicht bohrt ja hier AMD noch die ROPs der kommenden 55nm GPUs auf...

robbitop
2007-09-11, 11:57:20
Laut Eric Demers ist die Z-Test Rate, je nach Situation und Format, schon ein gewisser Flaschenhals in der R600 Arch.

PCGH_Carsten
2007-09-11, 12:07:30
Wie schätzt du die Auswirkung des Shader-Resolvs, für die MSAA-Performance auf R6xx ein?
Das ist eines der Probleme. Würden die ROPs das übernehmen, könntest du pro Takt 64 AA-Samples in 16 Pixeln auflösen, in den Shadern schaffst du prinzipiell zwar 80 Samples auf einmal, allerdings weder in einem Takt noch behältst du die Shader in der Zeit frei um andere Berechnungen anzustellen - also ein doppelter Verlust. Zudem musst du die Werte in die Shader einlesen - ich bin nicht sicher, wie lange das nochmal zusätzlich dauert.

Zudem scheint, wie bereits gezeigt, die AA-Compression nicht oder nur manchmal zu funktionieren. Das schmälert die Performance weiter.

Wenn jemand mal Zeit hat, könnte man ja mal schauen, ob das bei den RV-Chips auch der Fall ist.

Gast
2007-09-12, 11:07:10
Da wäre noch das:
http://forum.beyond3d.com/showpost.php?p=1020463&postcount=99

AnarchX
2007-09-19, 16:40:54
According to various sources, the AMD RV670 series will have two new members, the RV670 XT and RV670 Pro. They are also known as Gladiator and Revival. These two models might finally be known as Radeon HD 2950 XT and Radeon HD 2950 Pro.
http://my.ocworkbench.com/bbs/showthread.php?p=420985#post420985

Damit wäre wohl der R680 aus dem Spiel...

Die gelbe Eule
2007-09-19, 16:51:59
Interessant wäre es zu wissen für wann die angepeilt sind. Sollten sie schon nach Weihnachten kommen, könnte AMD wieder ordentliche Verluste mit dem R600 eingefahren haben. Auf Dauer wird das nicht mehr gutgehen.

Gaestle
2007-09-19, 16:59:11
Interessant wäre es zu wissen für wann die angepeilt sind. Sollten sie schon nach Weihnachten kommen, könnte AMD wieder ordentliche Verluste mit dem R600 eingefahren haben. Auf Dauer wird das nicht mehr gutgehen.


Wieso sollte das Eine ein Indiz für das Andere sein?

Die gelbe Eule
2007-09-19, 17:15:05
Ganz einfach. Schau Dir mal die Quartalszahlen der letzten Jahre genau an und dann wie lange die Refreshkarten überlebt haben. Einen Fertigungsprozess zu ändern und neue PCB zu backen kostet. Um mit der Konkurrenz mitzuhalten, muss man im moment immer nachwerfen, weil man eh schon in der Liestung und im Portfolio nachhängt. Man muss sich also unter Wert verkaufen und trotzdem niedrigere Preise der Konkurrenz fürchten. AMD kann nicht zwei Preiskämpfe führen, mit Verbindlichkeiten im Rücken muss man auch Kohle einfahren, sprich mehr Gewinn haben und nicht nur den Umsatz steigern.

Steve1
2007-09-19, 17:21:08
Bieten die etwa kein 512 Bilt Speicherinterface mehr an. Klingt nach dem Text jedenfalls so.

AnarchX
2007-09-19, 17:26:15
Bieten die etwa kein 512 Bilt Speicherinterface mehr an. Klingt nach dem Text jedenfalls so.

Ja, aber dafür 1.2GHz GDDR4 bei der XT, was sinnvoller sein sollte und auch entsprechend bessere Preise ermöglichen wird.

"512Bit" wird dann halt durch die 2950X2X mit zwei RV670 erreicht.

Steve1
2007-09-19, 17:30:38
Hoffentlich haben sie bei den Versionen die technischen Fehler ausgemerzt.

w0mbat
2007-09-19, 18:24:25
Es gibt folgende Varianten:

R670 (2*RV670) aka HD2950 X2X
R680 aka HD2950 XTX
R680 aka HD2950 XT
RV670 Gladiator aka HD2950 PRO
RV670 Revival aka HD2950 GT

oder

R670 (2*RV670) aka HD2950 XTX
RV670 Gladiator aka HD2950 XT
RV670 Revival aka HD2950 PRO

Es gibt AMD interne Folien auf denen ein R680 genannt wurde, es gab aber auch welche in denen schon vor ein paar Monaten von einem R650 die Rede war. Nun kann der R650 auch einfach zu R680 umbenannt worden sein und lebt trotzdem weiter. AMD hält sich insg. sehr bedeckt.

AnarchX
2007-09-19, 18:40:01
Variante 1 ist imo viel zu viel für ein $200+ Lineup. ;)

Vielleicht eine anderen Idee: RV670 und R680 ~ RV560 und RV570

Der 512Bit MC ist dann eben nur dort aktiv, wo er Sinn macht und höhere PCB-Preise unerheblich sind - FireGL/Stream.
Und soviel sollte dieser in der Fertigung wohl auch ausmachen.

Einzig verwirrend wäre: R670(RV670x2) >> R680.

reunion
2007-09-19, 19:08:50
Variante 1 ist imo viel zu viel für ein $200+ Lineup. ;)

Vielleicht eine anderen Idee: RV670 und R680 ~ RV560 und RV570

Der 512Bit MC ist dann eben nur dort aktiv, wo er Sinn macht und höhere PCB-Preise unerheblich sind - FireGL/Stream.
Und soviel sollte dieser in der Fertigung wohl auch ausmachen.

Einzig verwirrend wäre: R670(RV670x2) >> R680.

Falls ein R680 kommt, dann wird dieser IMHO wesentlich mehr als ein geshrinkter R600. Ein vierfacher RV630 würde sich bsw. anbieten, was bei füllratenintensiven Anwendungen mindestens die doppelten Leistung bringen würde im Vergleich zu R600 und in 65nm oder gar 55nm kein Problem darstellen sollte was die Die-Größe betrifft.

w0mbat
2007-09-19, 19:25:12
Das Problem ist das der RV670 schon sehr weit ist und man vom R680 bisher nur den angeblichen Codenamen weiß.

Siehe auch Boardpartners getting RV670 next month (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3131&Itemid=1)

reunion
2007-09-19, 19:30:48
Ich schrieb ja nicht ohne Grund falls er kommt. So richtig glaube ich auch nicht daran, da AMD doch einige Aussagen bezüglich der Bedeutung von Crossfire bei zukünftigen High-End-Lösungen getätigt hat.

seahawk
2007-09-19, 19:30:59
Variante 1 ist imo viel zu viel für ein $200+ Lineup. ;)

Vielleicht eine anderen Idee: RV670 und R680 ~ RV560 und RV570

Der 512Bit MC ist dann eben nur dort aktiv, wo er Sinn macht und höhere PCB-Preise unerheblich sind - FireGL/Stream.
Und soviel sollte dieser in der Fertigung wohl auch ausmachen.

Einzig verwirrend wäre: R670(RV670x2) >> R680.

Das wäre schon ein Bisschen irre, einen Chip zu konstruieren der ein 512MBit Interface braucht und mit 256Bit ebenfalls perfromt.

Nakai
2007-09-19, 19:33:18
Was bräuchte denn der R600 mehr an Leistung um einigermaßen performant zu sein?
Due ROPs sind doch Single-Cycle 4xMSAA fähig, jedoch wird das Resolve über die Shader gelöst. Das schränkt wieder die Performance ein.

Irgendwie fehlt dem R600 nahezu alles, Texelfüllrate und Shaderleistung...:|

Hoffentlich haben sie bei den Versionen die technischen Fehler ausgemerzt.

Es gibt wohl keine technischen Fehler...;)

mfg Nakai

horn 12
2007-09-19, 19:34:43
@Wombat:smile:
Sag uns lieber wie es mit dem R600 bzw. der HD 2900XT weitergeht.
Sind die AA/AF Probleme nun langsam behebbar oder wird es nicht viel besser werden als bisher?
Woran feilt AMD-ATI derzeit beim R600/ 2900 XT.
Habe gehört im Oktober soll ein Treiber kommen, welcher die AA Performance recht gut anheben soll; Geschieht aber mittels neuem AA (AAA) Verfahren.
Was weist du davon, bzw. kannst ausplaudern?

seahawk
2007-09-19, 20:10:32
Ist der lAdenpreis der 2900Pro nicht genug Indikator, für die Zukunft des R600 ?

Steve1
2007-09-19, 20:29:03
@ seahawk Der Preis ist kein Indikator für die Zukunft des R 600. Wir wissen überhaupt nicht was die Nachfolgemodelle kosten werden.

Gast
2007-09-19, 23:31:46
Ein "neues" AA Verfahren kann nur wieder die Minderung der Qualität bzw. mehr "Fuzzi" Wischi Waschi bedeuten.
Und die Augenwischerei wie beim letztenmal werden sie diesmal nicht abziehen können oder sich auf "Bugs" im Treiber beziehen können ^^

Gast
2007-09-19, 23:33:30
Evtl kann man das hier angesprochene "fixen" http://www.forum-3dcenter.org/vbulletin/showthread.php?t=382321

AnarchX
2007-09-19, 23:33:49
Noch etwas für die Wunschliste der kommenden Chips:

- 4xMSAA mit einem ROP-Durchlauf (Single-Cycle) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5857816#post5857816)

btw.
NV scheint wohl geäußert zu haben, dass RV670 sehr schnell den Markt erreichen wird... *Angst?*

AnarchX
2007-09-21, 09:42:11
Und hier ist

RV670 Revival, vielleicht auch bekannt als 2950Pro

http://img521.imageshack.us/img521/1552/rv670revivalak7.jpg
http://img219.imageshack.us/img219/3278/rv670revivalbackxr9.jpg
http://img521.imageshack.us/img521/1299/shemerv670ep1.png

Nakai
2007-09-21, 10:05:51
Die Karte sieht sher nett aus. Ebenso ist die Größe des Die nicht schlecht.
Achja maximal 150 Watt Verbrauch, etwa 100 schätz ich.l

Benutzt die Karte als Singleslot eigentlich Heatpipes, also das unterste Bild, sagt das in etwa aus.

mfg Nakai

AnarchX
2007-09-21, 10:11:47
Hab mal kurz gemessen, wenn die Abbildung stimmt dürften es ~250mm² sein.

Benutzt die Karte als Singleslot eigentlich Heatpipes, also das unterste Bild, sagt das in etwa aus.

Naja, wir reden hier ja immernoch von einer 70W+ Karte, wo die GPU auch noch entsprechend verbrauchen wird.

Nichtsdestotrotz ist die Kühllösung doch für annähernd 2900XT-Leistung sehr nett. ;)

btw.

Laut dem "Leaker" beginnt die Volumen-Produktion schon am 25. September, also vielleicht doch eine direkte Konfrontation mit dem G92. =)

Gast
2007-09-21, 10:38:16
Sieht wirklich sehr nett aus, die Kühllösung ist kaum größer als bei einer HD2600XT GDDR4.

Henroldus
2007-09-21, 10:46:56
ja schön, endlich mal wieder singleslotkühlung!
nur ist die Karte wieder sehr lang für einen so mickrigen lüfter.
zur not säge ich ein wenig am HDD Käfig :biggrin:

Gast
2007-09-21, 10:49:36
erinnern stark an die der x1950pro/gt
hoffentlich ist die leiser

AnarchX
2007-09-21, 10:51:37
erinnern stark an die der x1950pro/gt
hoffentlich ist die leiser

Dafür gibt es ja noch AIBs wie Palit, die ihre eigenen, besseren Kühllösungen basteln.

seahawk
2007-09-21, 11:19:57
Das sieht doch gesund aus. Schöne Karte, dürfte ATI wieder wiet nach vorne bringen. Der Sinn der X2900PRo entzieht sich mir dadurch aber immer mehr.

Nakai
2007-09-21, 11:20:55
G92 wird sie ja wohl aufschnupfen.

Das werden wir sehen, aber eigentlich müsste sie das schaffen...einfach warten.

mfg Nakai

robbitop
2007-09-21, 11:28:29
Kommt ganz darauf an, was ein G92 ist. Wenn er ein 3/4 G80 mit hohem Takt ist. Auf keinen Fall. Wenn er 1/2 G80 mit hohem Takt ist, vieleicht knapp.

Ailuros
2007-09-21, 11:50:41
Noch etwas für die Wunschliste der kommenden Chips:

- 4xMSAA mit einem ROP-Durchlauf (Single-Cycle) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5857816#post5857816)

btw.
NV scheint wohl geäußert zu haben, dass RV670 sehr schnell den Markt erreichen wird... *Angst?*

NVIDIA hat mehrere Male erwaehnt dass ihnen bewusst ist, dass AMD wieder aufholen wird. Sie haben es nur eilig G98 auf die Ladentische zu bringen, denn hier war ihnen schon seit einer Ewigkeit bewusst, dass AMD eine gesunde Portion von OEM Deals kassieren wird.

Sonst zeigen sie sich mehr als selbstsicher was die G92 Produkt-Palette betrifft.

AnarchX
2007-09-21, 17:13:27
RV670Pro - Revival:
62W GPU, 104W gesamt

RV670XT - Gladiator:
85W GPU, 132W gesamt

Gast
2007-09-21, 18:16:05
was sind die Unterschiede? Oder was das nur einen Spekulation deinerseits?

AnarchX
2007-09-21, 18:21:44
Nein, das stammt von jemanden der in Vergangenheit schon öfters Samples hatte bzw. auch präsentiert hat, wohlmöglich arbeitet er bei einem AIB.

Zu den Unterschieden: Schau einfachmal in Post #1.

Aber 37% mehr Verbrauch für 10% mehr Takt sind schon nicht wenig, aber soetwas kennt man ja - RV410...

w0mbat
2007-09-21, 18:22:00
Revival: 750MHz w/ 256/512MB GDDR3 @ 900MHz
Gladiator: 825MHz w/ 512MB GDDR4 @ 1200MHz

StefanV
2007-09-21, 18:22:42
Naja, gute Frage, im Zweifel ists nur der Takt, aber bei Pros war meist auch noch etwas mehr abgeschaltet...

Adam D.
2007-09-21, 18:27:02
Wie werden denn die Preise sein? Und wenn das Ding ab 25. September massenweise gefertigt wird, dann wissen wir auch, was diese Ankündigung seitens AMD sein wird. Da dürfte ab November eine gute Verfügbarkeit nicht soooo unrealistisch sein.

AnarchX
2007-09-21, 18:31:38
Naja, gute Frage, im Zweifel ists nur der Takt, aber bei Pros war meist auch noch etwas mehr abgeschaltet...

Imo sind aber 825/1200 zu 750/900(256MB) schon ein ausreichender Unterschied und R600Pro ist auch teildeaktiv, aber halt nur beim SI.

Wenn es noch eine 240SP-Variante geben wird, dann wohl eher eine 2950GT bzw. muss ja auch noch Platz für RV660 gelassen werden:

??? 12 TMUs / 180SPs (3 SIMDs a 60SPs) ???

horn 12
2007-09-21, 18:36:44
Wie schnell wird in etwa die Gladiator werden (RV670 Singlekarte) 825/1200 Mhz?
Schneller als die 2900 XT oder in etwa gleich, nur vielleicht mit AA/AF etwas bessere Werte (+15-20%) oder kann man die beiden Karten dann nicht mehr miteinander vergleichen, da die AA/AF Performance des RV670 einfach viel grandioser werden wird im Gegensatz zur 2900 XT.
Wer kann schon mal was vermuten.... oder weiss was Handfestes?:eek:

Nakai
2007-09-21, 19:03:39
10% schneller? Falls das Resolve endlich von den Shader gelöst wird, dann hat die Karte weniger Einrüche bei AA.

mfg Nakai

reunion
2007-09-21, 19:17:37
10% schneller? Falls das Resolve endlich von den Shader gelöst wird, dann hat die Karte weniger Einrüche bei AA.

mfg Nakai

Das wird aber nicht der Fall sein, es wandern höchstens die gesamten "Render-Back-Ends" bzw. das was noch davon übrig ist in die Shader.

robbitop
2007-09-21, 19:21:51
10% schneller? Falls das Resolve endlich von den Shader gelöst wird, dann hat die Karte weniger Einrüche bei AA.

mfg Nakai
Das Resolve wird seit R600 von den Shadern uebernommen.

Nakai
2007-09-21, 19:37:44
Das Resolve wird seit R600 von den Shadern uebernommen.

Jo ich weiß, das "endlich" bezog sich darauf, das dies endlich wieder von den ROPs gemacht wird.

mfg Nakai

Gast
2007-09-21, 19:40:59
10% schneller? Falls das Resolve endlich von den Shader gelöst wird, dann hat die Karte weniger Einrüche bei AA.

mfg Nakai
Das ist so doppeldeutig geschrieben, darum der Einwand. :)

AnarchX
2007-09-21, 19:41:12
Das wird aber nicht der Fall sein, es wandern höchstens die gesamten "Render-Back-Ends" bzw. das was noch davon übrig ist in die Shader.

Ganz genau, NV scheint da ja auch schon konkrete Pläne laut Demirug zu haben. (also vielleicht spätestens bei G11x bzw. R8xx)

Imo würde ich maximal 4 Z-Tests(auch ohne AA) und somit vielleicht (echtes?) 4x SC-MSAA erwarten bei den kommenden R(V)6xx.

Nakai
2007-09-21, 19:49:08
Das ist so doppeldeutig geschrieben, darum der Einwand. :)

Jo, das ist mir auch aufgefallen. :redface:

Imo würde ich maximal 4 Z-Tests(auch ohne AA) und somit vielleicht (echtes?) 4x SC-MSAA erwarten bei den kommenden R(V)6xx.

Naja wär doch immerhin was...

mfg Nakai

horn 12
2007-09-21, 20:43:25
Da wird sich ein Um,- Nachrüsten von einer HD 2900 XT auf die 2950 xx (RV670 Singlekarte) aber gar nicht mal lohnen. :mad:
OK, weniger Wärme und viell. leiser, aber wegen 10-15& umrüsten,dies würde ich mir nicht antun.
Auch kann man die 2900XT recht gut AC, da sind die 10% locker drinnen.
Mal schauen wie hut sich der RV670 OC lässt dann....
Somit ist man mit einer bereits präsenten 2900 xt sicherlich nicht sooo falsch.

robbitop
2007-09-21, 20:52:41
Jo ich weiß, das "endlich" bezog sich darauf, das dies endlich wieder von den ROPs gemacht wird.

mfg Nakai
Glaube ich weniger. ATI hatte vor, das auf die Shader zu lagern, um Fixed Function-Logik und damit Transistoren zu sparen. Das war eine Designentscheidung. Das wird man wohl kaum rueckgaengig machen. NV wird mittelfristig das gleiche tun. Das Shaderresolve sollte eigentlich kein Problem sein, es sei denn es steckt irgendwie der Wurm in der Implementierung drin.

OBrian
2007-09-21, 21:32:18
Das 4xAA sollte doch auch langfristig ein Erfordernis bei DirectX werden, oder? Jedenfalls wird Ati sicher auch beim Design der R600 darauf geachtet haben, daß das AA wesentlich weniger Leistung kostet als bisher. Daß das nicht hinhaut, ist wohl dann wirklich keine Absicht sondern ein Fehler, und die Wahrscheinlichkeit, daß sie das im nächsten Chip reparieren, ist ja ziemlich hoch.

Steve1
2007-09-21, 21:45:03
@ OBrian Ich denke das auch. Ich wünsche es mir natürlich, weil es meine nächste Grafikkarte werden sollte.

up¦²
2007-09-22, 12:21:39
Noch was für's Auge:http://www.chiphell.com/attachments/20070921_b7b256457f499f33cc444yW00MDAkOO9.jpg

Die VRM's sind ja diesmal gut verpackt, ähm mitgekühlt... (hallo 570... :mad:)
Gefällt mir seeehr gut - her damit!

Nakai
2007-09-22, 12:51:09
Das Shaderresolve sollte eigentlich kein Problem sein, es sei denn es steckt irgendwie der Wurm in der Implementierung drin.

Anscheinend steckt da der Wurm drin. IMO muss da noch etwas nachgebessert werden.

Naja ATI ging mal wieder zu früh zu moderneren Möglichkeiten hin. Naja das Resultat war wieder das gleiche...

mfg Nakai

robbitop
2007-09-22, 12:57:22
Ich befuerchte, dass ATI eher den R700 nachschiebt, als am R6xx noch gross R&D zu investieren. Vieleicht ist es am Ende besser, wenn der R700 so frueh wie moeglich erscheint.

StefanV
2007-09-22, 14:38:51
Ich befuerchte, dass ATI eher den R700 nachschiebt, als am R6xx noch gross R&D zu investieren. Vieleicht ist es am Ende besser, wenn der R700 so frueh wie moeglich erscheint.
So wie ATi (Falls jemand fragt: ja, das ist 'ne Abkürzung, zumindest war es das mal!) es damals mit dem R250 und R300 gemacht hat, meinst du sicher...

AnarchX
2007-09-23, 10:59:26
"RV670" = ati2mtag_RV630, PCI\VEN_1002&DEV_9501
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9505

Vielleicht kommen ja demnächst auch schon mal ein paar Benches von den Samples ans Licht.

Gast
2007-09-23, 16:14:27
Brandneues zur HD 2950 aufgetaucht

http://www.hardware-infos.com/news.php?news=1403

Klingt bisher sehr interessant :-)

AnarchX
2007-09-23, 16:18:38
Der 25. September ist Produktionsbeginn, was dann eine Verfügbarkeit im November bedeuten würde... :rolleyes:

robbitop
2007-09-23, 16:25:48
Scheint also nur ein geshrinkter R600 zu sein. Erstaunlich wie schnell sie den 55 nm Prozess in den Griff bekommen haben.

Nakai
2007-09-23, 16:33:41
Irgendwie könnte das auf die Übernahme von AMD zurückzuführen zu sein.
Ich denke da werden keine halben Sachen mehr gemacht.


mfg Nakai

horn 12
2007-09-23, 16:34:02
Wird jener mit AA/AF gleich einbrechen wie die HD 2900XT oder werden sie die Fehler ausgemerzt haben,- oder zumindest teilweise. Also mehr ROP´s odg.
Kann man mit der Leistung einer 2900XT rechnen, oder wird die 2950XT schon gar einiges schneller sein als der Vorgänger?
AnarchX.... was meinst/ spekulierst du selbst?

AnarchX
2007-09-23, 16:42:43
Scheint also nur ein geshrinkter R600 zu sein.
Nicht ganz:
UVD an Board(deshalb wohl auch RV630 in der Device-ID) und wohl eben nur ein 256Bit SI.


Erstaunlich wie schnell sie den 55 nm Prozess in den Griff bekommen haben.
Ist ja nur ein Halfnode und an 65nm arbeiten beide IHVs schon seit Ende 2006.

Aber ob man ihn wirklich so schnell in den Griff bekommen hat, wird man dann sehen wann er wirklich releast wird.

laser114
2007-09-23, 16:43:49
Ich denke da werden keine halben Sachen mehr gemacht.

55nm ist doch nur ein Half-node. :biggrin:

robbitop
2007-09-23, 17:02:14
Nicht ganz:
UVD an Board(deshalb wohl auch RV630 in der Device-ID) und wohl eben nur ein 256Bit SI.
Die XT hat laut http://www.hardware-infos.com/news.php?news=1403 ein 512 Bit SI.


Ist ja nur ein Halfnode und an 65nm arbeiten beide IHVs schon seit Ende 2006.

Naja 80 nm hat auch Monate (oder sogar fast ein Jahr) gedauert, bis es lauffaehig war, nachdem bereits R520 und G90 in 90 nm waren.

Hvoralek
2007-09-23, 17:06:43
Scheint also nur ein geshrinkter R600 zu sein.Wieso "nur"? Wenn das Teil wirklich mit G92 konkurriert, ist ein geshrinkter R600 doch völlig ausreichend. Zumal noch ungeklärt ist, ob evtl. an den ROPs noch etwas geändert wurde.

Wird jener mit AA/AF gleich einbrechen wie die HD 2900XT oder werden sie die Fehler ausgemerzt haben,- oder zumindest teilweise. Also mehr ROP´s odg.Ich nehme an, dass Du hier regelmäßig mitliest. Wenn es Angaben dazu gibt, wirst Du es schon mitbekommen. Hellseher sind hier jedenfalls m.W. keine unterwegs :wink:

AnarchX
2007-09-23, 17:07:14
Die XT hat laut http://www.hardware-infos.com/news.php?news=1403 ein 512 Bit SI.


Naja, das hat man sich wohl eher selbst ausgedacht...

Oder was soll eine 13GTex/s-GPU mit 150GB/s? ;)

Da sind die Quellen in Post #1 doch glaubwürdiger.

robbitop
2007-09-23, 17:08:39
Wieso "nur"? Wenn das Teil wirklich mit G92 konkurriert, ist ein geshrinkter R600 doch völlig ausreichend. Zumal noch ungeklärt ist, ob evtl. an den ROPs noch etwas geändert wurde.



In so kurzer Zeit? Rechne noch Tapeouts ect ein (6-9 Monate).

w0mbat
2007-09-23, 17:18:51
Wenn die RV670XT wirklich ein 512Bit SI hätte, würde man wohl kaum 1,2GHz GDDR4 verbauen.

robbitop
2007-09-23, 17:22:05
R600 hatte noch weniger Fuellrate als RV670 und dennoch ein 512 Bit SI.

Hvoralek
2007-09-23, 17:30:11
In so kurzer Zeit? Rechne noch Tapeouts ect ein (6-9 Monate).ATI wird wohl nicht erst bei Veröffentlichung des R600 gemerkt haben, dass da etwas nicht stimmte.

reunion
2007-09-23, 17:40:10
Nicht ganz:
UVD an Board(deshalb wohl auch RV630 in der Device-ID) und wohl eben nur ein 256Bit SI.


Dazu D3D10.1 und PCIe 2.0.


Ist ja nur ein Halfnode und an 65nm arbeiten beide IHVs schon seit Ende 2006.


Von nV gibt es aktuell noch nichtmal eine 65nm GPU.

Gast
2007-09-23, 17:54:53
Leidet eigentlich auch die RV630er an den gleichen Problemen mit AA wie der große Bruder R600?

AnarchX
2007-09-23, 17:57:07
Dazu D3D10.1 und PCIe 2.0.
Wobei ersteres wohl eher eine Treibersache sein könnte und zweiteres eben nur ein entsprechendes PCB benötigt.



Von nV gibt es aktuell noch nichtmal eine 65nm GPU.
Man müsste mal unter eine aktuelle GF7200 schauen - G78. ;)
(Wobei ich hier auch den Verdacht habe, dass vielleicht irgendjemand MCP78 mit G78 durcheinandergebracht hat.)

Aber nichtsdestotrotz dürfte 55nm für <300mm² Projekte wohl langsam tauglich sein.

Leidet eigentlich auch die RV630er an den gleichen Problemen mit AA wie der große Bruder R600?
AFAIK schon: "Vergleich 2600XT vs X1650XT", es wird wohl doch etwas mit Architektur zu tun haben, woran man so schnell nichts ändern kann bzw. will -> R700 im Q2 08.


R600 hatte noch weniger Fuellrate als RV670 und dennoch ein 512 Bit SI.
Was sich in der Praxis als weniger sinnvoll herausstellte, deshalb wohl nun auch der Schritt zurück auf 256Bit+GDDR4. Fragt sich wofür ATi das 512Bit SI damals einplante?

Aber das 50% mehr Bandbreite, bei wohl ~11% mehr GPU-Power auf einer Karte, die eben nicht das Top-Produkt sein wird, machen doch offensichtlich nicht viel Sinn oder? ;)


Vielleicht sieht ja das Lineup so aus:

2950X2X (2xRV670)
2950XTX (R680@ R600-512Bit @ 55nm, auch nötig für FireGL/Stream-Refreshes, maximal GDDR3 900MHz)
2950XT (RV670XT)
2950Pro (RV670Pro)

Gaestle
2007-09-23, 18:28:58
AFAIK schon: "Vergleich 2600XT vs X1650XT", es wird wohl doch etwas mit Architektur zu tun haben, woran man so schnell nichts ändern kann bzw. will -> R700 im Q2 08.


Laut einigen Andeutungen könnte es sein, dass der RV630 von der Technologie her grundsätzlich AA besser performen könnte, dann aber durch die geringe TMU-Anzahl ausgebremst wird. Hier wäre es wohl hilfreich, wenn jemand mal denn Verlust durch AA unter geringen Auflösungen prüfen würde (natürlich im Vergleich zu R600).

robbitop
2007-09-23, 18:44:58
Was sich in der Praxis als weniger sinnvoll herausstellte, deshalb wohl nun auch der Schritt zurück auf 256Bit+GDDR4. Fragt sich wofür ATi das 512Bit SI damals einplante?

ATI releaste fuer den Enthusiastbereich den 512 Bit SI sicher nicht einfach so und hoppla, war doch nicht so sinnvoll. Mit MSAA und einem FP16/32 Framebufferformat bringt das richtig Punkte. Allerdings waere das nur fuer den Enthusiastbereich sinnvoll.

Da der R600 (ausser dem breiten SI) ja nun geshrinkt als RV (value!!) verkauft wird, frage ich mich, ob es einen R680 (Enthusiast) geben wird. Dieser muesste dann ein deutlich breiterer Chip sein, damit es Sinn macht.
Die Namensgebung der RV670 "HD2950.. impliziert allerdings, dass es soetwas nicht geben wird (und man lieber den R700 nachschiebt, als noch grossartig Energie im alten Design mit Schadensbegrenzung zu verpulvern).

AnarchX
2007-09-24, 08:52:23
(und man lieber den R700 nachschiebt, als noch grossartig Energie im alten Design mit Schadensbegrenzung zu verpulvern).

Wohlmöglich ist der R700 gerade das "reparierte" R6xx-Design mit einigen weiteren sinnvollen Verbesserungen, D3D11 würde ich nicht vor 2009 und wohl auch AMD (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1185467188) nicht erwarten.

Wird wohl im Ende vom Q2 2008 wie es momentan aussieht auf einen RV770 hinauslaufen, der für die Top-SKU in doppelter Ausführung genutzt wird, wie auch der RV670. Aber dazu vielleicht demnächst noch mehr...

robbitop
2007-09-24, 12:04:20
Wohlmöglich ist der R700 gerade das "reparierte" R6xx-Design mit einigen weiteren sinnvollen Verbesserungen, D3D11 würde ich nicht vor 2009 und wohl auch AMD (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1185467188) nicht erwarten.
So wie NV40 ein reparierter NV30 ist?
R700 ist mindestens ein starkes Redesign vom R600.

Wird wohl im Ende vom Q2 2008 wie es momentan aussieht auf einen RV770 hinauslaufen, der für die Top-SKU in doppelter Ausführung genutzt wird, wie auch der RV670. Aber dazu vielleicht demnächst noch mehr...
Woher hast du denn sowas? Das wuerde ja nicht gerade fuer die High-End R7xx Serie sprechen.

AnarchX
2007-09-24, 12:13:57
So wie NV40 ein reparierter NV30 ist?
R700 ist mindestens ein starkes Redesign vom R600.
Deshalb repariert auch in Anführungszeichen.


Woher hast du denn sowas? Das wuerde ja nicht gerade fuer die High-End R7xx Serie sprechen.
Chiphell(von welchen auch die RV670-Bilder sind), aber der Thread hat momentan leider noch eine Zugangsbeschränkung...

Aber, dass Crossfire (=Multi-GPU) in Zukunft bei ATi immer wichtiger werden wird, hat man ja auch öffentlich schon verlauten lassen:
http://www.beyond3d.com/content/articles/89/2

Ailuros hatte auch schon mal etwas angedeutet, dass R7xx wohlmöglich ein redesignter RV670 wird.

Gast
2007-09-24, 12:33:03
Aber, dass Crossfire (=Multi-GPU) in Zukunft bei ATi immer wichtiger werden wird, hat man ja auch öffentlich schon verlauten lassen:
http://www.beyond3d.com/content/articles/89/2


Ich glaube nicht, dass damit Crossfire im heute bekannten Zusammenhang gemeint ist. Er gibt eben an, dass ein R700 aus mehreren Dice bestehen wird, was ja schon länger bekannt ist.

reunion

Gast
2007-09-24, 12:37:36
Woher hast du denn sowas? Das wuerde ja nicht gerade fuer die High-End R7xx Serie sprechen.

Warum? Das ist die Zukunft. Es ist wirtschaftlich eben kaum mehr rentabel, derart große Dice zu fertigen, wie dies aktuell im High-End der Fall ist. nV betriebt ja mit G92 vermutlich genau dasselbe Spiel und hat es mit G71 schonmal vorgemacht. In Zukunft wird man dann wohl versuchen, vom klassischen SLi/CF hin zu vollwertigen Dual-Chips zu kommen, welche sich wie ein Chip verhalten und ohne den doppelten Speicher auskommen.

reunion

Gast
2007-09-24, 12:38:56
Also erstmal ist zu R700 nichts bekannt und zweitens glaube ich nicht an die Mehr-Dice Lösung, wenn AMD schon der Meinung ist, dass das bei CPUs nichts bringt ("nativer" Quad-Core).

robbitop
2007-09-24, 12:58:47
CF/SLI ist mitnichten wirtschaftlich.

1.) Redundanz in den GPUs
2.) VRAM-Verschwendung (erhoete VRAM Kosten)
3.) keine 100%ige Skalierung
4.) Kompatibilitaet (welche besser wird)
5.) teure PCBs
6.) ein zusaetzlicher Frame Latenz
7.) keine gleichmaessige Verteilung der Frames (spuerbare FPS steigt nicht so wie sie sollte)
8.) doppelte Kosten fuers Packaging

Am wirtschaftlichsten ist es, so viel wie moeglich in einen Kern zu tun.

CF/SLI ist fuer die Enthusiasten ja eine nette Loesung und sicher auch als Gimmick, fuer Leute, die eine Karte nachkaufen.
Durch Shrinks wird die DIE-Size in HighEnd GPUs eigentlich nicht groesser ueber die Zeit (es sei denn, ein IHV muss wieder das letzte aus einem Prozess holen).
Ausserdem haben Enthusiastkarten die hoechste Marge von allen Segmenten (nur der Umsatz ist ein wenig gering, da sich das nicht viele leisten koennen).

CF/SLI waere ganz gut, um R&D zu sparen und die Massenproduktion einer grossen GPU zu sparen. Es birgt aber zu viele Nachteile IMO. Da muss, wenn schon Multi-GPU, ein ganz anderes Konzept her, als AFR/SFR/Supertiling.

AnarchX
2007-09-24, 12:59:43
Ich glaube nicht, dass damit Crossfire im heute bekannten Zusammenhang gemeint ist.
Mal sehen wie es beim R670 gelöst wird, ich hörte etwas von einem Package für beide GPUs, was auch Sinn macht bei dieser Bezeichnung, sonst wäre es ja eher "RV670 Gemini".


1.) Redundanz in den GPUs
... vs Yield einer 300mm²+ GPU.



5.) teure PCBs
Siehe 8.


8.) doppelte Kosten fuers Packaging
Dual-Die-Package, wodurch man gleiche eine schnellere Verbindung zwischen den GPUs hat.

Der Rest ist eher eine Sache, die wohl verbessert wird, wenn Multi-GPU wirklich so einen hohen Stellenwert einnehmen wird.

robbitop
2007-09-24, 13:11:40
... vs Yield einer 300mm²+ GPU.
Der Yield vom G80 soll sehr hoch sein. Vorher verkauft man solche Dinger natuerlich auch nicht.




Dual-Die-Package, wodurch man gleiche eine schnellere Verbindung zwischen den GPUs hat.
Das ist auch nicht gerade billig.


Der Rest ist eher eine Sache die wohl verbessert werden könnte, wenn Multi-GPU wirklich so einen hohen Stellenwert einnehmen wird.
Der "Rest" ist aber gar nicht so einfach. SLI/CF sind eine extrem simple Technologie, die es schon seit mindestens 10 Jahren gibt (Stichwort Stepsisters). Ein wirklich gutes MultiGPU konzept braucht eine Verbindung mit sau geringer Latenz und mehreren hundert GiB/sek. Selbst Xenos hat nur eine Anbindung von 32 GiB/s mit dem eDRAM daughter DIE.
Das wird schon eine echte Herausforderung, besonders, wenns bezahlbar sein soll.

Wenn dieses Gemini Konzept so wirtschaftlich und toll sein soll, warum hat man das nicht schon vorher gemacht? Die Technologie ist ewig da. Es gab in den 90ern sogar Prototypen mit 2x Riva TNTs auf einem Board. Spaeter von Sapphire eines mit 2xR350. Und noch spaeter 2xNV43, 2xNV40, 2xG70, 2xG73.
Wenn die wirtschaftlich gewesen waeren, haette man die sicher auf den Massnmarkt gehauen.

ATI scheint derzeit einfach keine konkurrenzfaehige HighEnd GPU in petto zu haben (und so schnell kann man nicht mal eben eine nachlegen) also shrinkte man lieber und baut sie evtl im Gemini zusammen. (gemini gibts ja seit 2 jahren auf der Roadmap und wurde bisher auch nie im Massenmarkt genutzt)

Ob NV das auch tut, bleibt abzuwarten. Derzeit brauchen sie ja mangels konkurrzenprodukts keine Anstrengungen aufzuwenden.

AnarchX
2007-09-24, 13:21:18
Der Yield vom G80 soll sehr hoch sein. Vorher verkauft man solche Dinger natuerlich auch nicht.
Ist aber auch ein erprobter, alter Prozess.
ATi scheint eher Pläne zu haben immer das neuste, was verfügbar ist zu nutzen und hier ist ein <300mm² Die wohl doch unproblematischer.


Das ist auch nicht gerade billig.

Hat aber wieder auch gewisse Vorteile.


Wenn dieses Gemini Konzept so wirtschaftlich und toll sein soll, warum hat man das nicht schon vorher gemacht? Die Technologie ist ewig da. Es gab in den 90ern sogar Prototypen mit 2x Riva TNTs auf einem Board. Spaeter von Sapphire eines mit 2xR350. Und noch spaeter 2xNV43, 2xNV40, 2xG70, 2xG73.
Wenn die wirtschaftlich gewesen waeren, haette man die sicher auf den Massnmarkt gehauen.

79x0GX2 vergessen? Die 7900GX2 wurde ja in größeren Stückzahlen einige Zeit für ~350€ verkauft, als die 7950GX2 noch bei ~500€ lag und war somit mit Abstand die beste P/L-Karte am Markt.


Was nun an allem dran ist, werden wir ja mit dem R670 vielleicht sehen...

robbitop
2007-09-24, 13:29:10
Ist aber auch ein erprobter, alter Prozess.

Und genau damit faehrt man bei HighEnd auch richtig. ATI war erfolgreich solange sie das taten und NV ist es bis heute.




79x0GX2 vergessen? Die 7900GX2 wurde ja in größeren Stückzahlen einige Zeit für ~350€ verkauft, als die 7950GX2 noch bei ~500€ lag und war somit mit Abstand die beste P/L-Karte am Markt.
Die GX2 besteht aber aus 2 Boards. Ausserdem war die Gewinnmarge dieser Karte nicht besonders gut (PEG-Switch, 2x PCBs, 2xVRAM ect)
Das Ding hat man released, weil G71 nicht mit R580 mithalten konnte und man bis zum G80 unbedingt vorn bleiben wollte.
Bisher sind diese Dual-Dinger nur Prototypen oder Panikreaktionen gewesen.


Was nun an allem dran ist, werden wir ja mit dem R670 vielleicht sehen...
Ein Dual RV670 ist denkbar, da ATI nichts anderes zu haben scheint. Ob NV das mit dem G92 nachmacht, ist die Frage und ob beide IHVs das danach so beibehalten. Am Ende des Tages verliert man damit margen. Dafuer spart man R&D und Tapeoutkosten. Aber ab einem gewissen Absatz ist der Breakeven fuer native Boards erreicht. Mich duenkt, dass die Dinger gar nicht soo haeufig verkauft werden sollen (und eher was fuer die Wiederherstellung des Images sind), da R700 ja schon vor der Tuer steht. Dann lohnt sich das vieleicht.

Moralelastix
2007-09-24, 13:33:56
CF/SLI ist mitnichten wirtschaftlich.

...
7.) keine gleichmaessige Verteilung der Frames (spuerbare FPS steigt nicht so wie sie sollte)

...



Gibts dazu mal ne Antwort von NV?

robbitop
2007-09-24, 13:38:03
Gibts dazu mal ne Antwort von NV?
Keine Ahnung. Aber wie willst du die Frames denn gleichmaessig verteilen? Der Treiber koennte allerhoechstens von der Framekadenz aus der "nahen Vergangenheit" (also die letzten beiden Frames) auf die aktuellen Frames schliessen und damit eine Pause zwischen den 2 Drawcalls der SLI Frames setzen. Das koennte dann aber schon wieder falsch sein, weil die aktuelle Kadenz anders aussieht. Oder man rendert verzoegert. Und damit immer richtig. Das wuerde allerdings noch 1 Frame Latenz bedeuten. t0ll.

IMO ist AFR nicht der richtige Weg. Es sollte eher in Richtung SFR/Supertiling gehen. Vieleicht die Tiles lieber noch kleiner machen und dann braucht man eben sehr fixe Bussystem zwischen beiden GPUs, damit Cachedaten, VRAM Daten, Geometrie ect von beiden gelesen und geschrieben werden koennen. Nur so kann man viele Redundanzen vermeiden.

Gast
2007-09-24, 13:52:44
CF/SLI ist mitnichten wirtschaftlich.


Wenn dem nicht so wäre, würde man wohl kaum darauf zurückgreifen.


Am wirtschaftlichsten ist es, so viel wie moeglich in einen Kern zu tun.


Es ist eine Binsenweisheit, dass zwei 100mm² Dice billiger zu fertigen sind als ein 200mm² Die. Noch dazu erspart man sich die Entwicklung eines extra High-End-Chips. Die von dir aufgezählten Nachteile können das IMO mitnichtern ausgleichen.


Durch Shrinks wird die DIE-Size in HighEnd GPUs eigentlich nicht groesser ueber die Zeit (es sei denn, ein IHV muss wieder das letzte aus einem Prozess holen).

Wenn du das ernst meinst, dann hast du die Entwicklung der letzten Jahre ziemlich verschlafen. Die Die-Size im High-End-Bereich explodiert geradezu. Heutige High-End-Chips haben wahnwitzige Die-Größen von fast 500mm², und dabei sind >90% davon reine Logiktransistoren. Das sind Itanium-Verhältnisse, wobei dieser fast nur auch Cache besteht. Nicht umsonst können die anderen Segmente, wo es darum geht die Margen einzufahen nicht mehr mit dem High-End Schritt halten. Oder warum glaubst du ist die 8600GTS nur 1/4 G80?


Ausserdem haben Enthusiastkarten die hoechste Marge von allen Segmenten (nur der Umsatz ist ein wenig gering, da sich das nicht viele leisten koennen).


Das war vielleicht mal so, ist aber heute sicher nicht mehr der Fall. Die Margen werden woanders eingefahren, das High-End ist rein fürs prestige.


CF/SLI waere ganz gut, um R&D zu sparen und die Massenproduktion einer grossen GPU zu sparen. Es birgt aber zu viele Nachteile IMO. Da muss, wenn schon Multi-GPU, ein ganz anderes Konzept her, als AFR/SFR/Supertiling.

Andere Konzepte werde mit Sicherheit bald folgen.

reunion

Moralelastix
2007-09-24, 13:56:38
Ich hab keinen Plan davon.

Ich wunder mich nur wie sich SLI so lange am Markt halten kann wenn es damit solche Probleme gibt?

Wieso setzt sich SFR dann nicht durch?

Ist das ein Armutszeugnis der Kunden oder der Firma die sowas seit Jahren verkauft?

robbitop
2007-09-24, 14:00:50
Wenn dem nicht so wäre, würde man wohl kaum darauf zurückgreifen.
Wo greift man denn darauf zurueck? Die Faelle, in denen darauf zurueckgegriffen wird, habe ich bereits beschrieben.



Es ist eine Binsenweisheit, dass zwei 100mm² Dice billiger zu fertigen sind als ein 200mm² Die. Noch dazu erspart man sich die Entwicklung eines extra High-End-Chips. Die von dir aufgezählten Nachteile können das IMO mitnichtern ausgleichen.
Das ist dann eine Unsinnsweisheit. Schon gar nicht mit dem Zusammenspiel von PCB, VRAM und Packaging. Wiederholen werde ich mich nicht.



Wenn du das ernst meinst, dann hast du die Entwicklung der letzten Jahre ziemlich verschlafen. Die Die-Size im High-End-Bereich explodiert geradezu. Heutige High-End-Chips haben wahnwitzige Die-Größen von fast 500mm², und dabei sind >90% davon reine Logiktransistoren. Das sind Itanium-Verhältnisse, wobei dieser fast nur auch Cache besteht. Nicht umsonst können die anderen Segmente, wo es darum geht die Margen einzufahen nicht mehr mit dem High-End Schritt halten. Oder warum glaubst du ist die 8600GTS nur 1/4 G80?
D3D10 hat enorm Logiktransistoren gefordert, allein um das Featureset abzudecken. Dennoch performt G80 sehr gut und faehrt auch gute Margen ein.



Das war vielleicht mal so, ist aber heute sicher nicht mehr der Fall. Die Margen werden woanders eingefahren, das High-End ist rein fürs prestige.

Margen = Gewinnspanne. Eine Highendkarte hat eine hoehere Gewinnspanne als eine Midrangekarte. Ist in allen Maerkten so, nicht nur bei Grafikkarten.
Du sprichst vom Gesamtgewinn. Nicht von der Gewinnspanne. ;)


Andere Konzepte werde mit Sicherheit bald folgen.

reunion
Kann sein. Die Loesung des Problems mit dem bezahlbaren Superbus will ich vorher aber sehen. ;)

Gast
2007-09-24, 14:02:28
Der Yield vom G80 soll sehr hoch sein. Vorher verkauft man solche Dinger natuerlich auch nicht.


Was heißt "sehr hoch"? Laut Uttar bei B3D kostet eine Wafer mit G80 Chips bei TSMC 8000$, woraus man ca. 80 Chips bekommt, die man als GTX oder GTS verkaufen kann. NV muss für ein Die im Schnitt also mindestens 100$ verlangen, um überhaupt noch Gewinn damit zu machen. Bei dem durchschnittlichen Verkaufspreis der Karten inkl. VRAM, etc. bezweifle ich, dass das sehr wirtschaftlich ist.


Wenn dieses Gemini Konzept so wirtschaftlich und toll sein soll, warum hat man das nicht schon vorher gemacht? Die Technologie ist ewig da. Es gab in den 90ern sogar Prototypen mit 2x Riva TNTs auf einem Board. Spaeter von Sapphire eines mit 2xR350. Und noch spaeter 2xNV43, 2xNV40, 2xG70, 2xG73.
Wenn die wirtschaftlich gewesen waeren, haette man die sicher auf den Massnmarkt gehauen.


Weil die Die-Size im High-End-Bereich damals noch lächerlich gering war im Vergleich zu heute.


reunion

AnarchX
2007-09-24, 14:02:57
Ich hab keinen Plan davon.

Ich wunder mich nur wie sich SLI so lange am Markt halten kann wenn es damit solche Probleme gibt?

Tombman sind diese Probleme doch erst mit dem GF8-SLI aufgefallen, vielleicht einfach ein Bug in der Treiberimplementierung und alle Games zeigen diese inhomogenen Framezeiten ja nicht.
Immerhin will ja NV demnächs auch 3-Wege-SLI verkaufen. ;)


Wieso setzt sich SFR dann nicht durch?
Weil es eben nicht so gut skaliert wie AFR, in der jetzigen Form, z.B. Geometrie muss von beiden GPUs die gleiche berechnet werden, da sie ja gemeinsam an einem Frame arbeiten.

Moralelastix
2007-09-24, 14:10:45
Da gabs aber auch Leute die sich mit ner GX2 darüber gewundert haben.

w0mbat
2007-09-24, 14:13:25
Wir sollten den RV670 mit etwas Glück schon im November sehen können, da die Rev. A11 sehr gut läuft und anscheinend auf die A12er verzichtet werden kann.

Gast
2007-09-24, 14:13:44
Wo greift man denn darauf zurueck? Die Faelle, in denen darauf zurueckgegriffen wird, habe ich bereits beschrieben.


Ja, und in Zukunft wird sich das wohl häufen, wie es momentan aussieht.


Das ist dann eine Unsinnsweisheit. Schon gar nicht mit dem Zusammenspiel von PCB, VRAM und Packaging. Wiederholen werde ich mich nicht.


Deine Meinung.


D3D10 hat enorm Logiktransistoren gefordert, allein um das Featureset abzudecken. Dennoch performt G80 sehr gut und faehrt auch gute Margen ein.

Du weichst der Frage aus.


Margen = Gewinnspanne. Eine Highendkarte hat eine hoehere Gewinnspanne als eine Midrangekarte. Ist in allen Maerkten so, nicht nur bei Grafikkarten.
Du sprichst vom Gesamtgewinn. Nicht von der Gewinnspanne. ;)

Nein, ich spreche von der Gewinnspanne. Und ich kann mir bei besten Willen nicht vorstellen, dass bsw. eine 8800GTS/GTX mit einem fast 500mm² Die plus NVIO, hochkomplexen PCB usw. um 300€ respektive 400€ höhere Margen einfährt als eine 8600GTS, welche ein 169mm² Die, weniger Speicher und ein sehr simples PCB hat und noch immer um die 170€ kostet.


Kann sein. Die Loesung des Problems mit dem bezahlbaren Superbus will ich vorher aber sehen. ;)

ATi hat ja mit Xenos darin schon Erfahrung gesammelt, die Entwicklung wird in dieser Hinsicht wohl auch nicht stehen geblieben sein.

reunion

robbitop
2007-09-24, 14:31:24
Ja, und in Zukunft wird sich das wohl häufen, wie es momentan aussieht.
Abwarten.



Deine Meinung.
Preise haben mit Meinungen nichts zu tun.





Nein, ich spreche von der Gewinnspanne. Und ich kann mir bei besten Willen nicht vorstellen, dass bsw. eine 8800GTS/GTX mit einem fast 500mm² Die plus NVIO, hochkomplexen PCB usw. um 300€ respektive 400€ höhere Margen einfährt als eine 8600GTS, welche ein 169mm² Die, weniger Speicher und ein sehr simples PCB hat und noch immer um die 170€ kostet.
Ne GTS gibts ab 127 EUR. Eine GTX ist ueber 3x so teuer. Deren Komponenten kosten sicher nicht das 3,4x der GTS. Ergo hoehere Gewinnspanne.



ATi hat ja mit Xenos darin schon Erfahrung gesammelt, die Entwicklung wird in dieser Hinsicht wohl auch nicht stehen geblieben sein.

reunion
Nur, dass die Latenz bei dem Bus keine Rolle gespielt hat und es nur 32 GiB/sek sind. Davon wird man rund Faktor 10 brauchen. Und wie du weisst, werden verdrahtete Sachen nicht oder nur kaum billiger. (breite SIs werden immer teuer sein)

Gast
2007-09-24, 15:26:00
Abwarten.


Beide großen IHVs haben in dieser Hinsicht schon ziemlich unmissverständliche Kommentare abgegeben.


Preise haben mit Meinungen nichts zu tun.


Du hast konkrete Preise? Immer her damit.


Ne GTS gibts ab 127 EUR. Eine GTX ist ueber 3x so teuer. Deren Komponenten kosten sicher nicht das 3,4x der GTS. Ergo hoehere Gewinnspanne.


Mal sehen:
Ein G80 kommt inkl. NVIO auf eine Die-Size von 533mm², ein G84 auf 169mm², macht Faktor 3.15. Die wohl wesentlich bessere Yield des kleineren Dice gar nicht berücksichtigt. Das SI des G80 ist 3x so breit, die Stormversorgung mindestens 3x so komplex. Auch die VRAM-Größe ist bei einer 8800GTX 3x so hoch. usw.

Du hast vermutlich recht, aber besonders groß ist der Unterschied IMHO nicht (mehr), und dieser Entwicklung gilt es seitens der Hersteller entgegenzuwirken.


Nur, dass die Latenz bei dem Bus keine Rolle gespielt hat und es nur 32 GiB/sek sind. Davon wird man rund Faktor 10 brauchen. Und wie du weisst, werden verdrahtete Sachen nicht oder nur kaum billiger. (breite SIs werden immer teuer sein)

Die Herstellungskosten des C1 dürften auch weit unter dem liegen, was ein heutiger High-End-Chip kostet. Immerhin würde der Chip für eine Konsole designt, und da zählt vor allem eins - nämlich billig. Will sagen da ist sicher noch einiges mehr machbar. Aber mal sehen was die Zukunft bringt.

reunion

robbitop
2007-09-24, 15:51:09
Ich moechte ja nicht zum Ausdruck bringen, dass ich es fuer unmoeglich halte. Ich lege lediglich ein wenig Skepsis an den Tag, anstatt Fudo alles gleich abzukaufen.

reunion
2007-09-24, 16:22:26
Ich moechte ja nicht zum Ausdruck bringen, dass ich es fuer unmoeglich halte. Ich lege lediglich ein wenig Skepsis an den Tag, anstatt Fudo alles gleich abzukaufen.

Fuad glaube ich schon lange nichts mehr, das hat mit seriöser Berichterstattung nichts zu tun. Nur wenn ATIs Europa-Chef Peter Edinger bei Golem.de offen davon spricht, dass AMDs nächster High-End Chip aus mehrerern Dice bestehen wird, und Richard Huddy bei B3D ins selbe Rohr bläst, dann wird das wohl nicht ganz unbegründet sein.

robbitop
2007-09-24, 16:27:45
Naja zur Zeit haben sie auch keine andere Wahl...
Haettest du vieleicht Links zu den Statements? Ich habe bisher nur den Fudo kram gefunden dazu.

reunion
2007-09-24, 16:39:35
Naja zur Zeit haben sie auch keine andere Wahl...


Warum sollten sie keine andere Wahl haben?


Haettest du vieleicht Links zu den Statements? Ich habe bisher nur den Fudo kram gefunden dazu.

Klar:

Wie der jüngst von AMD aufgekaufte kanadische Hersteller von Grafikprozessoren gegenüber Golem.de bestätigte, entwickelt ATI derzeit GPUs mit mehreren Kernen. Die neuen Chips sollen zudem deutlich stromsparender als die derzeit aktuellen Modelle sein.

http://www.golem.de/showhigh2.php?file=/0608/47044.html&wort


Crossfire was next on the agenda, Richard talking about how important multi-GPU is going to be going forward. At this point it's one of those quietly whispered secrets that AMD's next generation graphics architecture is going to centre around a dual-chip offering for the high-end, with R700 likely comprising two discrete GPU dice.

With that in mind, Huddy's advice about Crossfire maybe signals intent on AMD's part to push multi-GPU as graphics progresses deep into D3D10 and then on to D3D11 and beyond.

Huddy says that AMD simply aren't interested in building large monolithic GPUs any more, instead preferring to scale their offerings via multi-GPU. Speaking about a future where GPUs are built on process nodes approaching 22nm and beyond, limitations because of the process start to encroach on how the IHVs build their chips. Huddy argues that chip size and pad count and one of the biggest things the GPG architects are considering going forward, with no real chance of 512-bit external memory buses on tiny chips.

http://www.beyond3d.com/content/articles/89/2

robbitop
2007-09-24, 16:46:37
Warum sollten sie keine andere Wahl haben?


Weil R6xx in der heutigen Form anscheinend nicht mit dem G80 mithalten kann und das fruehestens mit dem R700 anders wird.

reunion
2007-09-24, 16:50:26
Weil R6xx in der heutigen Form anscheinend nicht mit dem G80 mithalten kann und das fruehestens mit dem R700 anders wird.

Ja, ich bezog mich auch auf R700. Da dieser eine neue Architektur werden sollte, haben sie sehrwohl eine Wahl. Aber offensichtlich entschied man sich bewusst für mehr als ein Die im High-End.

robbitop
2007-09-24, 16:55:27
Ich bin gespannt, wann und ob man endlich mal ein brauchbares MultiGPU System entwickeln kann. Bis dahin muss man sich dann leider auf CF/SLI verlassen.

AnarchX
2007-09-25, 12:08:55
http://img231.imageshack.us/img231/6236/rv635xtuw9.jpg

Was es ist wurde nicht verraten, aber wird wohl RV635XT mit GDDR4 sein.

Henroldus
2007-09-25, 12:17:58
http://img231.imageshack.us/img231/6236/rv635xtuw9.jpg

Was es ist wurde nicht verraten, aber wird wohl RV635XT mit GDDR4 sein.
ist das dann ne mainstream oder lowendkarte?
extrastromanschluss sehe ich keinen.
aber über PCIe 2.0(?) darf sich die Karte ja mehr genehmigen(wieviel genau?)

AnarchX
2007-09-25, 12:21:06
aber über PCIe 2.0(?) darf sich die Karte ja mehr genehmigen(wieviel genau?)

Immernoch 75W.

Aber die 2600XT braucht auch jetzt schon keinen Stromanschluss und große Taktsteigerungen würde ich beim RV635 eher nicht erwarten.

Auf jeden Fall scheint das PCB deutlich kürzer, als das der 2600XT GDDR4.

Gast
2007-09-25, 15:55:43
Einmal R680 aus dem Titel wegstreichen und durch RV680 ersetzen.

http://forum.beyond3d.com/showthread.php?p=1069577#post1069577

Der mysteriöse R670 ist ab jetzt wohl RV680.

AnarchX
2007-09-25, 15:56:02
Und noch etwas mehr zum RV670 und den darauf basierenden SKUs:

http://img341.imageshack.us/img341/9124/gladiatorshemebd2.jpg
http://img341.imageshack.us/img341/730/tdpuq2.jpg
http://img524.imageshack.us/img524/1024/rv670packagezl8.jpg
13.38x14.47 = 194mm2

reunion
2007-09-25, 16:20:09
RV680 soll aus zwei RV670 bestehen. Bleibt die Frage warum man da überall ein "V" drinnen lässt, das stand ja mal für Value.

RV680. It was just announced unofficially.... R680 is no more if I'm correct.

Oh and it's a beast. And RV670 is on track for a launch in mid November.

http://forum.beyond3d.com/showpost.php?p=1069586&postcount=249

If the rumored performance numbers given for RV680 are true (eg up to 1.5x faster than a HD2900XT CF), it might actually be a very nice solution until that next generation GPU comes along.

http://forum.beyond3d.com/showpost.php?p=1069616&postcount=252

13.38x14.47 = 194mm2

Das ist ziemlich klein für 320 Streamprozessoren, damit sollte man auch endlich wieder ordentliche Gewinne einfahren. Immerhin verkauft man aktuell einen nicht viel kleineren RV630 um unter 100€.

420mm² x 55²/80² = 198.51565mm² (- 256 bit Bus = 194mm² :D)

robbitop
2007-09-25, 16:29:13
Hui 1,5x R600 Performance und das mit 2x geshrinkten R600s. Nicht schlecht. ^^
Sieht so aus, als gaebe es wohl erst zur naechsten Gen wieder richtiges single-chip HighEnd. ;(

Henroldus
2007-09-25, 16:32:30
Hui 1,5x R600 Performance und das mit 2x geshrinkten R600s. Nicht schlecht. ^^
Sieht so aus, als gaebe es wohl erst zur naechsten Gen wieder richtiges single-chip HighEnd. ;(
da steht was von CF :eek:
also 1,5* 2900XT Crossfire? :eek:
das wäre wohl etwas zuviel des Guten

reunion
2007-09-25, 16:33:43
Hui 1,5x R600 Performance und das mit 2x geshrinkten R600s. Nicht schlecht. ^^


1.5x Leistung von R600 CF mit RV670 CF - wo ist das Problem?

Sieht so aus, als gaebe es wohl erst zur naechsten Gen wieder richtiges single-chip HighEnd. ;(

Darauf würde ich nicht wetten.

da steht was von CF :eek:
also 1,5* 2900XT Crossfire? :eek:
das wäre wohl etwas zuviel des Guten

Es sind ja auch zwei RV670 plus wesentlich höheren Takt als bei R600, womöglich gefixten AA-Bug und ev. noch unbekannten Verbesserungen.

AnarchX
2007-09-25, 16:57:00
RV680 soll aus zwei RV670 bestehen. Bleibt die Frage warum man da überall ein "V" drinnen lässt, das stand ja mal für Value.

Imo ist das V darin Unsinn.

Es sind ja auch zwei RV670 plus wesentlich höheren Takt als bei R600

AFAIK: "R670" ~ 2x R600XT (bei der arithmetischen Leistung)

Aber lassen wir uns überraschen...

Sieht so aus, als gaebe es wohl erst zur naechsten Gen wieder richtiges single-chip HighEnd.

Oder auch nicht... :tongue:

Adam D.
2007-09-25, 17:20:35
Interessant dürfte doch der Preis des R680 werden. 2xR600 zur Zeit = 680€. R680 499$?

AnarchX
2007-09-25, 17:35:08
Eher $599+, wenn er konkurrenzfähig ist.
AMD will ja auch mal wieder schwarze Zahlen sehen.

2xR600 zur Zeit = 680€
2900Pro nicht vergessen... ;)

reunion
2007-09-25, 17:41:34
Interessant dürfte doch der Preis des R680 werden. 2xR600 zur Zeit = 680€. R680 499$?

Vorallem die Leistung/Watt wird mit R680 stark steigen. Die Dual-Karte wird wohl nicht mehr Strom fressen als ein R600, und dabei laut oben genannten Gerüchten die Leistung eines R600CF-Systems um 50% überbieten. Dazu sind die zwei Dice mit nicht mal 200mm² mit Sicherheit bedeutend billiger in der Herstellung als ein 420mm² Die, und der VK wird wohl auch höher liegen wie bei einer R600XT, was den Margen gut tun wird.

Noebbie
2007-09-25, 17:44:34
Kurz gesagt: Es wird wieder spannend.

Zudem erste Schritt und vllt. der Anfang vom Ende der Stromkiller-Grafikkarten.

Adam D.
2007-09-25, 17:53:48
Wenn's 599$ werden, muss man den Bereich 499$ auch bedienen und das dürfte dann wohl der RV670XT werden. Schade :(

Die Dual-Karte wird wohl nicht mehr Strom fressen als ein R600, und dabei laut oben genannten Gerüchten die Leistung eines R600CF-Systems um 50% überbieten.
2xR680 zum "Preis" eines R600 ... Äh ... Das haut mich doch etwas um, ehrlich gesagt ;D

2900Pro nicht vergessen... ;)
Wo sich der Preis einpendeln wird, sehen wir dann. Es ging mir ja eher darum, dass oben Vergleiche mit den XT gemacht wurden und die Pro ist halt doch ein kleines Stückchen langsamer. Mir gefällt diese Zukunftsaussicht ehrlich gesagt sehr gut, weil Nvidia dann endlich mal wieder etwas in Zugzwang kommt und ATi wieder schwarze Zahlen schreiben kann :up:

robbitop
2007-09-25, 18:36:56
Oder auch nicht... :tongue:
Ich hoffe es nicht. (es sei denn, man hat was besseres als das heutige CF/SLI)

seahawk
2007-09-25, 22:05:40
Es scheint bemerkenswert wie schnell AMD das Ruder rumgeworfen hat. RV670 kommt eher und soll G92 reichlich zu setzen. R680 auf dem Weg, NV ohne echte Konkurrenz.

AnarchX
2007-09-25, 22:25:28
RV670 kommt eher und soll G92 reichlich zu setzen. R680 auf dem Weg, NV ohne echte Konkurrenz.

NV scheint mit dem G92 Lineup wohl recht zufrieden zu sein, also überrascht wird man von dieser aktuellen Entwicklung wohl eher nicht sein.

Im Endeffekt könnte wohl wieder die für den Kunden optimale Situation herausspringen, dass beide IHVs sehr nah bei einander liegen -> Preiskampf.=)

horn 12
2007-09-25, 22:35:43
Ati will noch vor dem G92 den Markt mit den R600 (2900XT schwer nun / 2900 PRO )sättingen um das schnelle Aufrüsten (im Frühherbst) Jener die einfach nicht mehr warten wollen, zu erfüllen. Dies wurde sehr klug von ATI gemacht, die R600 Gpu´s bis zum letzten rauszuboxen, auch wenn dies sicherlich sehr sehr schmerzt.
Jedoch haben sie dann komplett freie Bahn für den RV670/ R680 und können immer noch auf Dual GPU Karten als Konter setzen.
NV muss ja mal erst alle G80 Chips losbekommen und da wird Ihnen ATI nun einen gewaltigen Strich durch die Rechnung machen, zwecks des enormen Preisdruckes von ATI durch die Pro. Denke bis Mitte/Ende November dürfte vom R600 nicht mehr allzuviel übrig sein.
Diesen Zug hat AMD-ATI mal nicht verpasst,- und da wird es NV schwer haben gegenzuhalten, denn einen gradiosen Wurf wie mit dem G80 wird es nicht so schnell wieder geben.

Gmax
2007-09-26, 00:49:31
denn einen gradiosen Wurf wie mit dem G80 wird es nicht so schnell wieder geben.

Ich würde mal eher sagen, daß nicht der G80 so überagend ist, sondern die X2900 ziemlich entäuscht hat.
Na hoffentlich ändert sich das bald.

Die gelbe Eule
2007-09-26, 01:21:00
NV kann sicher dagegenhalten. Man wird wieder reagieren und nicht agieren müssen, ein Vorteil den ATi nicht hat.

VooDoo7mx
2007-09-26, 03:31:15
http://www.hartware.de/media/news/43000/43131_1b.jpg

HD2950 Pro Board?

Auf jeden Fall sieht das wieder anders aus, als die von AnarchX gepostete Grafik. :|

Adam D.
2007-09-26, 07:05:06
Und das Board hat einen zusätzlichen Stromstecker, dürfte als eine höher positionierte Karte sein. Wieder nur Single-Slot und sie ist n bissl länger.

robbitop
2007-09-26, 07:32:04
Ich würde mal eher sagen, daß nicht der G80 so überagend ist, sondern die X2900 ziemlich entäuscht hat.
Na hoffentlich ändert sich das bald.
Naja der G80 bringt rund 3x die Leistung seines Vorgaengers, bringt D3D10 und besseres AA/AF. Und das hat alles ins Transistorbudget des alten 90 nm Prozess reingepasst. Das ist schon ziemlich gut, aehnlich dem R300 damals.
Beide profitieren natuerlich auch davon, dass die Konkurrenz zu dem jeweiligen Zeitpunkt nicht ganz auf dem Damm ist/war.

Gast
2007-09-26, 08:09:58
http://www.hartware.de/media/news/43000/43131_1b.jpg

HD2950 Pro Board?


Ja, das ist die HD2950 Pro, wurde aber weiter hinten schonmal gepostet.