PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV47 Anfang 2005 mit 24 pipes


Seiten : [1] 2

Gast
2004-12-06, 15:43:14
NV47 in Entwicklung Die Gerüchte zu nVidias kommenden Grafikchips überschlagen sich. Zwar liegt noch immer keine offizielle Stellungnahme zur Streichung des NV48- und NV50-Chips vor, doch Meldungen von X-Bit Labs scheinen diese Kehrtwende bei der Roadmap zu bekräftigen. Demnach soll nVidia am NV47 arbeiten, der mit 24 Pixel-Pipelines ausgestattet sein wird. Die erste Jahreshälfte 2005 wird als Release-Termin angestrebt.

www.gamestar.de

dieses jahr gabs doch erst 16 pipes und 2005 gleich 24 pipes,geht ja gut voran

Gast
2004-12-06, 15:57:59
Wie soll das bitte in Silizium aussehen? Schon 16 Pipes sind augenblicklich doch kaum wirtschaftlich, geschweige denn in ausreichenden Mengen für den Markt produzierbar, wie soll der Chip dann bitte erst mit 24 Pipes aussehen? > 300 Millionen Transistoren? Der wird dann wohl nur noch auf Anfrage für die mit Platin-Kreditkarten gefertigt...

Sorry, aber das klingt für mich nun wirklich nach Blödsinn.

reunion
2004-12-06, 16:00:12
NV47 in Entwicklung Die Gerüchte zu nVidias kommenden Grafikchips überschlagen sich. Zwar liegt noch immer keine offizielle Stellungnahme zur Streichung des NV48- und NV50-Chips vor, doch Meldungen von X-Bit Labs scheinen diese Kehrtwende bei der Roadmap zu bekräftigen. Demnach soll nVidia am NV47 arbeiten, der mit 24 Pixel-Pipelines ausgestattet sein wird. Die erste Jahreshälfte 2005 wird als Release-Termin angestrebt.

www.gamestar.de

dieses jahr gabs doch erst 16 pipes und 2005 gleich 24 pipes,geht ja gut voran


Hatte sowas fast vermutet, lag also garnicht so falsch damit :naughty:
Also lautet das nächste Duell R520 vs. NV47. Da das ja offensichtlich relativ kurzfristig entschieden wurde erwarte ich vom NV47 kaum bis gar keine Architektonische Änderungen, jetzt stellt sich nurnoch die Frage wie gut/schlecht R520 wird...

reunion
2004-12-06, 16:01:54
Wie soll das bitte in Silizium aussehen? Schon 16 Pipes sind augenblicklich doch kaum wirtschaftlich, geschweige denn in ausreichenden Mengen für den Markt produzierbar, wie soll der Chip dann bitte erst mit 24 Pipes aussehen? > 300 Millionen Transistoren? Der wird dann wohl nur noch auf Anfrage für die mit Platin-Kreditkarten gefertigt...

Sorry, aber das klingt für mich nun wirklich nach Blödsinn.

Man ist damit natürlich auf 90nm angewiesen.
Wenn man mit 130nm 222mio Transitoren erreicht dann sollten ~290mio Transistoren mit 90nm kein Problem darstellen.

reunion
2004-12-06, 16:02:10
Still, NVIDIA reportedly has a weapon to fight its arch-rival ATI Technologies: the company’s code-named NV47 that presumably contains 24 pixel pipelines is on-track to be released in the first half of the year 2005.



http://www.xbitlabs.com/news/video/display/20041205035620.html

deekey777
2004-12-06, 16:02:36
Die Original-News (http://www.xbitlabs.com/news/video/display/20041205035620.html) auf X-bit.

So lange davon nichts bei TheInq zu lesen ist, glaube ich keinem. :D

Zu der Pipelinezahl: Wenn mich nicht alles täuscht, wurde schon lange mutmaßt, dass die echten Nachfolger mehr als 16 Pixelpipelines(darf man noch von Pipelines sprechen?) haben werden - 24 und gar 32 wurden genannt. Aber wie soll das gefüttert werden? 384bit?

Godmode
2004-12-06, 16:02:48
es gibt schon 4 Threads zu dem Thema

dildo4u
2004-12-06, 16:04:03
Denke nich das es einfach sein wird ein ca300Mio transistoren chip auf 400mhz zu bringen.
Von einer taktsteigerung gegenüber dem nv40 ganz zu schweigen.

Gast
2004-12-06, 16:04:18
Man ist damit natürlich auf 90nm angewiesen.
Wenn man mit 130nm 222mio Transitoren erreicht dann sollten ~290mio Transistoren mit 90nm kein Problem darstellen.

Wenn das Produktionsverfahren vollständig beherrscht wird. Das ist meines Wissens bis zum heutigen Tage immer noch nicht der Fall... und dann noch ein derartig komplexer Chip. Ich weiß nicht...

ironMonkey
2004-12-06, 16:09:35
Man ist damit natürlich auf 90nm angewiesen.
Wenn man mit 130nm 222mio Transitoren erreicht dann sollten ~290mio Transistoren mit 90nm kein Problem darstellen.


Hängt ja alles vom Takt ab, hätte der NV40 nur 200Mhz, würden sicher mehr Verfügbar sein..........

reunion
2004-12-06, 16:13:11
Hängt ja alles vom Takt ab, hätte der NV40 nur 200Mhz, würden sicher mehr Verfügbar sein..........

Und von der DIE größe, durch 90nm sollte man selbst bei 300mio Transitoren deutlich mehr DIEs auf die Wafer bringen als bei 222mio mit 130nm.

DrumDub
2004-12-06, 16:13:22
auf jeden fall dürfte es designtechnisch kein problem für nv sein einen nv47 aus dem hut zu zaubern, so modular, wie die architektur des nv4x aufgebaut ist.

probleme sehe ich eher beim herstellungsprozess. ohne 90nm geht da gar nix.

reunion
2004-12-06, 16:14:53
probleme sehe ich eher beim herstellungsprozess. ohne 90nm geht da gar nix.


Ati ist beim R520 ebenfalls auf 90nm angewiesen.

LovesuckZ
2004-12-06, 16:15:31
Sagen wir's so:
Solange wie keiner eine zufriedenstellende Verfuegbarkeit verspricht, sehe ich kein Problem mit 24 Pipelines.

Thanatos
2004-12-06, 16:19:38
Hab jetzt gerade gedacht "Mist jetzt kauf ich mir ne 6800GT, und Anfang 2005 kommt schon wieder ein neuer chip"


Aber dann ist mir wieder eingefallen wie das bei den NV40/R400 chips war.Halbes jahr angekündigt das es die ab jetzt zu kaufen gibt, und Monate später muss man immernoch wie am Wühltisch im SSV nach so ner graka kämpfen.

Also ich denke wenn es einen NV47 gibt, gibts den erst richtig Ende 2005 ;D

Godmode
2004-12-06, 16:26:39
Wenn man bedenkt wie lange es den 130 nm Prozess schon gibt, seit NV30, wird es eh langsam für 90 nm. Und wenn sie keine Takterhöhung machen ist es auch nicht so schlimm, den ich denke mal + 2 Quads bringt sicher etwas Performance

DrumDub
2004-12-06, 16:31:39
Ati ist beim R520 ebenfalls auf 90nm angewiesen.

natürlich. :)

die frage ist nur, wer kanns eventuell besser: ibm oder tsmc.

hier sieht man ja schön im digramm, warum es ansich kein problem ist, das design des nv40 auf 24 pipelines zu bringen: http://www.beyond3d.com/previews/nvidia/nv40/image.php?img=images/quad_pipeline.gif&comment=NV40%20Quad%20Pipelines

MechWOLLIer
2004-12-06, 16:48:06
Man ist damit natürlich auf 90nm angewiesen.
Wenn man mit 130nm 222mio Transitoren erreicht dann sollten ~290mio Transistoren mit 90nm kein Problem darstellen.
Nur bezweifele ich, dass TSMC oder IBM schon so weit sind, 300Millionen Transostoren in 90nm Technik zu fertigen. Immerhin ist für die Fabrtiken der 90nm Prozess bei so komplexen Chips auch noch Neuland.
Orgendwieglaube ich da noch nicht dran. Für 130nm unmöglich, und für 90nm imo noch zu früh, vor allem wenn man ausreichende Massen produzieren möchte.

Gast
2004-12-06, 16:53:26
Wer hätte denn Gedacht das 222Mio Transistoren in 13mn bei 400MHz (geht sogar 450MHz) laufen?

Irgendwas muss NV ja aufbieten wenn der R520 kommt, also warum nicht den NV40 breiter machen ;)

VooDoo7mx
2004-12-06, 16:58:33
Die letzten Refreshchips von NV waren ja eigentlich doch anständig weiterentwickelt, vom Original ausgehend. NV20-->NV25 NV30-->NV35

Dann noch noch 2 nette Quads rein und ab gehts. :freak:

Neues Design ist beim NV40 sowieso nicht notwendig. Dieser Chip wurde eindeutig für die Zukunft oder das Jahr 2005 designt.

Ob nun der NV47 ausreicht um den R520 in die Schranken zu weisen?
Ich tippe Mal auf nein...

Und sowohl der R520 als auch der NV47 werden an den 300Mio Transistoren kratzen, dass ist genauso klar, wie die Tatsache, dass beide in 90nm gefertigt werden.
Verfügbarkeit wird warscheinlich ähnlich schlecht sein, wie bei der jetzigen Generation.
Zumindestens gibts beim NV47 viele Quads zum deaktivieren. :ugly:

Godmode
2004-12-06, 17:06:13
Ob nun der NV47 ausreicht um den R520 in die Schranken zu weisen?
Ich tippe Mal auf nein...


Ich würde mal sagen, kommt drauf an wieviele Quads der R520 hat!!

VooDoo7mx
2004-12-06, 17:26:43
Ich würde mal sagen, kommt drauf an wieviele Quads der R520 hat!!

Das muss nicht sein, man kann auch vergleichsweise wenig Quads haben, dafür aber sehr hohe Taktraten.
Oder wenig Quads, gepaart mit einer extrem effizienten Architektur.

Nach fast 3 Jahren Dursstrecke, erwarte ich vom ArtX, äääh ich meine ATi eine ganz neue Architektur, die wieder einiges durcheinander würfeln wird, was man heute noch als Fakt ansieht.
Gerüchte besagen z.B. embedded Ram wie z.B. vor Jahren bei den Bitboys Prototypen.

seahawk
2004-12-06, 17:26:46
Wenn das was dran ist, was ich nicht unbedingt glaube, dann kommt ATI unter Zugzwang.

seahawk
2004-12-06, 17:27:32
Das muss nicht sein, man kann auch vergleichsweise wenig Quads haben, dafür aber sehr hohe Taktraten.
Oder wenig Quads, gepaart mit einer extrem effizienten Architektur.

Nach fast 3 Jahren Dursstrecke, erwarte ich vom ArtX, äääh ich meine ATi eine ganz neue Architektur, die wieder einiges durcheinander würfeln wird, was man heute noch als Fakt ansieht.
Gerüchte besagen z.B. embedded Ram wie z.B. vor Jahren bei den Bitboys Prototypen.

Nicht für R520. R520 baut auf bestehnden Architekturen auf. Er ist keine komplett neue Lösung.

VooDoo7mx
2004-12-06, 17:30:32
Nicht für R520. R520 baut auf bestehnden Architekturen auf. Er ist keine komplett neue Lösung.

Wusst ich es doch, du bist ein Ingeneneur bei ATi und spielst den 3dcenter Membern Top Secret Informationen zu. :ulol:

Ein weiterer R300 Aufguss ist so warscheinlich, wie dass ich im Lotto den Jackpot knacke.

Des weiteren nimmt jede neue Architektur was von der alten mit. Auch im NV40 ist was vom NV1. ;)

seahawk
2004-12-06, 17:33:59
Naja, Dave Baumann von Beyond3D dürfte wohl gut informiert sein und von ihm stammt diese Aussage.

Godmode
2004-12-06, 17:36:09
Also ich hoffe ja schwer das der R520 ein Hammerchip wird, aber was da schon wieder an Gerüchten kursieren von 2.0c Shadermodell und so weiter, ist die Vorfreude schon wieder getrübt. Aber es ist ja zum Glück noch gar nichts fix!!

VooDoo7mx
2004-12-06, 17:48:16
Naja, Dave Baumann von Beyond3D dürfte wohl gut informiert sein und von ihm stammt diese Aussage.

Und Dave Baumann ist Ingeneur bei ATI, der sich um die Next Gen Chips kümmert? :ugly:

Ich erinner mich noch an die Grütze, die damals vor dem NV40 Launch durchs web geisterte und wie einige Experten hier, eiiner NV40 Grafikkarte 150Watt Stromverbrauch zusagten.
Oder die 8x3 Architektur des R420.

Auch gut waren die Gerüchte damals um den sagenumwobenen NV30, der so ziemlich alles mit Leichtigkeit plätten sollte aber mehr oder weniger nen Rohrkrepierer war.

DrumDub
2004-12-06, 17:48:37
Gerüchte besagen z.B. embedded Ram wie z.B. vor Jahren bei den Bitboys Prototypen.

das glaube ich nicht, tim.

eDRAM werden wir bei pc-grafikkarten imho nie sehen.

Godmode
2004-12-06, 18:09:10
oder die tollen Extreme Pipes von denen der Inquierer gesprochen hat :)

reunion
2004-12-06, 18:30:54
Eben, es gab vor jeden neuen Chip eine fülle von größtenteil falschen Gerüchten, warum sich jetzt manche nur weil schon wieder ein paar neue sinnlose gerüchte im Netz herumschwirren derart beeinflussen lassen versteh ich wirklich nicht.

Alles was wir zum R520 wissen ist das er in 90nm lowk gefertigt wird und im ersten halbjahr 2005 vorgestellt werden soll. Außerdem deutet der Codename R520 ganz klar auf eine verwandtschaft mit R500 (Xenon) hin. Die Chance das ATi ein weiteres mal auf SM3.0 verzichtet dürfte wohl irgendwo zwischen 0 und 1% liegen und nein, das habe ich nicht irgendwo im Netz gelesen das sagt mir mein verstand ;). Dann wissen wir noch das das ArtX Team den Chip designt, die ja bekanntlich schon beim R300 ganze Arbeit geleistet haben. Außerdem soll der R500 ja in der Xbox II stecken, von dem der R520 sicher einiger erben wird, also düften die Chips Featuremäßig sicherlich intressant werden. Und zu guter letzt wissen wir noch das R500 und R520 ihr tape-out bei TSMC bereits hinter sich gebracht haben.

IVN
2004-12-06, 18:36:52
Eben, es gab vor jeden neuen Chip eine fülle von größtenteil falschen Gerüchten, warum sich jetzt manche nur weil schon wieder ein paar neue sinnlose gerüchte im Netz herumschwirren derart beeinflussen lassen versteh ich wirklich nicht.

Alles was wir zum R520 wissen ist das er in 90nm lowk gefertigt wird und im ersten halbjahr 2005 vorgestellt werden soll. Außerdem deutet der Codename R520 ganz klar auf eine verwandtschaft mit R500 (Xenon) hin. Die Chance das ATi ein weiteres mal auf SM3.0 verzichtet dürfte wohl irgendwo zwischen 0 und 1% liegen und nein, das habe ich nicht irgendwo im Netz gelesen das sagt mir mein verstand ;). Dann wissen wir noch das das ArtX Team den Chip designt, die ja bekanntlich schon beim R300 ganze Arbeit geleistet haben. Außerdem soll der R500 ja in der Xbox II stecken, von dem der R520 sicher einiger erben wird, also düften die Chips Featuremäßig sicherlich intressant werden. Und zu guter letzt wissen wir noch das R500 und R520 ihr tape-out bei TSMC bereits hinter sich gebracht haben.

No,that isn't correct.ArtX was working on r400,but it was delayed and its tehnology was kept for r600.

reunion
2004-12-06, 18:43:24
Subsequently Microsoft announced that ATI would be providing “technology for future XBox products” and reports surfaced that the design would be based on a design from ATI’s Marlborough team, a.k.a. R500, hence the expectation was that this would be ATI’s next product, sharing a platform for both the PC and the next XBox.

The reports state that ATI have confirmed they are due to launch their new architecture, the basis of the R5xx series, in the first half of 2005.

http://www.beyond3d.com/forum/viewtopic.php?t=17745

Wie man nach solchen Aussagen von ATI selbst noch immer zweifeln kann das R500 und R520 nicht auf derselben Technologie basieren versteh ich wirklich nicht.

No,that isn't correct.ArtX was working on r400,but it was delayed and its tehnology was kept for r600.

In our interview with ATI CEO Dave Orton he details that Marlbough are indeed currently tied up with the XBox project, however makes note that the R500 class products are being produced in the Valley, or from the same team that produced R300

R400 = R500/R520 = Xenon (AFAIK)

http://www.beyond3d.com/forum/viewtopic.php?t=12174

MechWOLLIer
2004-12-06, 19:00:38
Hat sich das ArtX Teram nicht eher aufgeteilt unter den Teams?
Und selbst wenn nicht, warum sollte ArtX direkt nochmal so einen Wunderchip gelingen?

IVN
2004-12-06, 19:01:12
[...]In our interview with ATI CEO Dave Orton he details that Marlbough are indeed currently tied up with the XBox project, however makes note that the R500 class products are being produced in the Valley, or from the same team that produced R300[...]

http://www.beyond3d.com/forum/viewtopic.php?t=12174

r500= 48 ALUs + eDRAM
r520 ?

Is r500=r520 ? ;)

ironMonkey
2004-12-06, 19:04:02
Hat sich das ArtX Teram nicht eher aufgeteilt unter den Teams?
Und selbst wenn nicht, warum sollte ArtX direkt nochmal so einen Wunderchip gelingen?


Vieleicht ist da so eine Art M.Schumacher unter dem ArtX Team, der immer was besseres bringt.......

reunion
2004-12-06, 19:06:47
Hat sich das ArtX Teram nicht eher aufgeteilt unter den Teams?


Keine Ahnung, zumindest arbeitet am R520 dasselbe Team das den R300 entwicklet hat.


Und selbst wenn nicht, warum sollte ArtX direkt nochmal so einen Wunderchip gelingen?

Weil sie schon einmal bewiesen haben das sie absolute Killer GPUs entwicklen können?

Ailuros
2004-12-06, 19:32:00
Und Dave Baumann ist Ingeneur bei ATI, der sich um die Next Gen Chips kümmert? :ugly:

Ich erinner mich noch an die Grütze, die damals vor dem NV40 Launch durchs web geisterte und wie einige Experten hier, eiiner NV40 Grafikkarte 150Watt Stromverbrauch zusagten.
Oder die 8x3 Architektur des R420.

Auch gut waren die Gerüchte damals um den sagenumwobenen NV30, der so ziemlich alles mit Leichtigkeit plätten sollte aber mehr oder weniger nen Rohrkrepierer war.

Keines dieser Geruechte stammen von Wavey. Wenn dann bitte mit Links bestaetigen. Boards haben Datenbanken und eben auch B3D.

Was den Stromverbrauch von NV40 betrifft, hast Du sowieso keine Ahnung woher und warum es stammte oder ob es irgendeine Relevanz mit internen "Experimenten" bei einem IHV handelte. Was ich Dir sagen kann, ist dass der besagte chip fuer hoehere Frequenzen erhofft wurde.

Zu guter letzt ausser den paar waren Profis hier gibt es keine wahren Experten. Ja manche von uns kommen zu internen Infos; wie und warum sollte egal sein und ja man wird viel zu oft an der Nase herumgefuehrt oder bekommt nur Bruchteile oder sogar Erwartungen. Du kannst ja leicht glauben dass es bei ATI anders ist.

Wie dem auch sei Herr Baumann steht als Chef-Redakteur einer hochratigen Seite wie B3D AFAIK unter NDA bei ATI, Du aber sicher erstmal nicht.

Ailuros
2004-12-06, 19:49:34
r500= 48 ALUs + eDRAM
r520 ?

Is r500=r520 ? ;)

48 ALU OPs/clock under ATI's usual measurements ;)

Das Fragezeichen zwischen den beiden besteht im Grunde fuer mich nur noch in der Komplianz des R520.

Sonst sieht die Xenon GPU in etwa so aus:

48 ALU ops per cycle
16 bilinear texture fetches per cycle
16 PS input interpolates per cycle
VS and PS load balanced
Max throughput per cycle:

1 vertex
1 triangle
2 2*2 pixel quads + Z/stencil

predictable streaming and multithreading make the GPU a latency-tolerant device

eDRAM R/W Bandwidth (in 2*2 pixel quads per GPU cycle):

Write:

2 at 32bpp + Z/stencil
1 at 64bpp + Z/stencil
4 Z/stencil only

Read (resolve):

2 at 32bpp
1 at 64bpp
2 Z/stencil only

Z/stencil testing, alpha blending and MSAA are done in the eDRAM module

R520 hat weder eDRAM noch vereinte PS/VS.

IVN
2004-12-06, 20:06:25
48 ALU OPs/clock under ATI's usual measurements ;)

Das Fragezeichen zwischen den beiden besteht im Grunde fuer mich nur noch in der Komplianz des R520.

Sonst sieht die Xenon GPU in etwa so aus:

48 ALU ops per cycle
16 bilinear texture fetches per cycle
16 PS input interpolates per cycle
VS and PS load balanced
Max throughput per cycle:

1 vertex
1 triangle
2 2*2 pixel quads + Z/stencil

predictable streaming and multithreading make the GPU a latency-tolerant device

eDRAM R/W Bandwidth (in 2*2 pixel quads per GPU cycle):

Write:

2 at 32bpp + Z/stencil
1 at 64bpp + Z/stencil
4 Z/stencil only

Read (resolve):

2 at 32bpp
1 at 64bpp
2 Z/stencil only

Z/stencil testing, alpha blending and MSAA are done in the eDRAM module

R520 hat weder eDRAM noch vereinte PS/VS.

I don't think that r500 and r520 have much in common.


Is that true with 16 PS input interpolates per cycle?That's 6 more than nv40.

R500 doesn't look so powerful after all.

Coda
2004-12-06, 20:12:46
Andere Betrachtungsweiße: ATi soll es erstmal fertig bringen einen SM3.0 Chip zu bauen, dazu waren sie ja bisher nicht fähig. Wenn ArtX so toll ist, warum taten sie es dann nicht?

(Und jetzt nicht: Ja weil ja noch kein Bedarf da ist... blabla)

Im Allgemeinen würde ich sagen das bei nVidia und ATi wohl gleich gute Leute sitzen, NV30 war nur mangels DX Specs ein Rohrkrepierer.

Ailuros
2004-12-06, 20:34:51
Andere Betrachtungsweiße: ATi soll es erstmal fertig bringen einen SM3.0 Chip zu bauen, dazu waren sie ja bisher nicht fähig. Wenn ArtX so toll ist, warum taten sie es dann nicht?

(Und jetzt nicht: Ja weil ja noch kein Bedarf da ist... blabla)

Im Allgemeinen würde ich sagen das bei nVidia und ATi wohl gleich gute Leute sitzen, NV30 war nur mangels DX Specs ein Rohrkrepierer.

Zeit- und Resource-Mangel. Dies gilt eigentlich fuer ATI generell und die viel zu vielen diversen Projekte die sie sich eingebrockt haben und weniger um nur ein Design-Team.

ArtX gibt es genauso viel bei ATI, wie 3dfx bei NVIDIA. Nicht dass ich mir nicht sicher bin dass Du es nicht schon seit langem weisst, aber generell stoert mich diese Lorbeeren-Verteilung fuer alte Firmen die nicht mehr existieren. Es gibt nur noch ATI/NVIDIA; ArtX, 3dfx, Gigapixel und weiss der Geier was, sind schon seit langem tot.

Coda
2004-12-06, 21:05:32
Genau das wollt ich damit ausdrücken.

Ich wollte zeigen dass durch ArtX auch nicht alles Sonnenschein wird.

deekey777
2004-12-06, 21:13:30
Kann es sein, dass der Threadtitel falsch ist? Denn weder die Gamestar noch X-bit sprechen von einem Release Anfang 2005, sondern in der ersten Hälfte 2005. :|

Ailuros
2004-12-06, 21:30:37
Genau das wollt ich damit ausdrücken.

Ich wollte zeigen dass durch ArtX auch nicht alles Sonnenschein wird.

ArtX war auch nicht alles Sonnenschein als die Firma noch existierte ;)

Von dem abgesehen Dave Orton ist nur Lob wert.

RyoHazuki
2004-12-06, 21:58:18
Ich finde die Idee mit 6 Quad Pipes nicht schlecht !

Allerdings müsste der Chip dann mit mindestens 350 MHZ takten, denn sonst wäre es schwachsinn Ihn überhaupt auf den Markt zu bringen.

Zum Vergleich:

NV40: 16 Pipes (4 Quad Pipe´s) x 400 Mhz = 6400 Mega Pixel
NV47: 24 Pipes (6 Quad Pipe´s) x 350 Mhz = 8400 Mega Pixel
NV47: 24 Pipes (6 Quad Pipe´s) x 400 Mhz = 9600 Mega Pixel

Für 9,6 GPixel müsste der NV40 auf 600 MHZ takten. Es ist ersichtlich, dass langsam aber sicher die Taktgrenzen kommen. Der trend geht eher zur Effizenz, was ich ehrlich gesagt eindeutig besser finde. 222 Mio. Transistoren würden erst mit einem stark Optimiertem Fertigungssystem alá 90nm low-K auf 600 - 700 Mhz kommen.

Ich würde diesen schritt jedenfalls begrüssen, egal wer was dagegen hat.

Gast
2004-12-06, 22:03:30
Aer das Baby zieht dann aber ne Menge Strom, mir wäre Effizienz lieber, mehr Recheneinheiten bei niedrigem Takt, da lässt sich auch gut die Wärme abführen.

Füllrate wird ja leider immer eine Rolle spielen, schon allein wegen Antialiasing, oder man müsste das bessere Algorithmen entwickeln, falls möglich.

Gast
2004-12-06, 22:10:00
[West Coast - DX9 Gen]
(PS2.0) (PS2.b) (SM3.0)
R300---->R420---->R520
^
:
:
R400------->R500---->R6x0
(Canned) (XBox2) (Longhorn / WGF2.0)
[East Coast - Unified Shader gen]


--
Dave Baumann

Gast
2004-12-06, 22:19:54
Fehlt da nicht ein Querstrich vom R400 zum R520 ;)
Das Schaubild impliziert aber das der R520 ein "gepushter" R420 bzw. R300 ist, "einfach" auf SM3 kompilant getrimmt.

Gast
2004-12-06, 22:54:06
[West Coast - DX9 Gen]
(PS2.0) (PS2.b) (SM3.0)
R300---->R420---->R520
^
:
:
R400------->R500---->R6x0
(Canned) (XBox2) (Longhorn / WGF2.0)
[East Coast - Unified Shader gen]


--
Dave Baumann

hm interessant aber wann kommt das zeug :)

aths
2004-12-07, 02:05:00
I don't think that r500 and r520 have much in common.


Is that true with 16 PS input interpolates per cycle?That's 6 more than nv40.

R500 doesn't look so powerful after all.I think 16 per cycle means, any cylce a single new interpolator input for any pipe – like NV40, afaik. Ail's list says 16 interpolates, not 16 interpolator (registers).

Godmode
2004-12-07, 09:06:35
Gabs eigentlich von Nvidia irgendwelche Tapeouts in der letzten Zeit?

Winter[Raven]
2004-12-07, 09:12:25
Da ist man paar Tage weg, und schon steht die Welt auf dem Kopf....

seahawk
2004-12-07, 09:16:16
Gabs eigentlich von Nvidia irgendwelche Tapeouts in der letzten Zeit?

Ich weiss von nix. Aber bei IBM scheint auch die Gerüchteküche nicht so zu funktionieren.

micki
2004-12-07, 09:27:22
Ich zweifle mal dran dass ATIs nächster chip SM3.0 haben wird und das sagt mir auch mein gesunder menschenverstand. SM3.0, jedenfalls auf pixelshader bezogen.
das braucht man eigentlich kaum, PS2.x sind eigentlich ausreichend, was man auch an der FC-engine sehen kann und dinge wie instanzierende vertexbuffer supported ja ATI mittels FOURCCs (wenn ich mich an demis aussage richtig erinnere) schon.
wäre also kein abbruch wenn ATI ohne ps3.0 käme.
mehr performance wäre da angesagter und solange ATI PS3.0 nicht unterstützt, wird sich das nicht wirklich bei spielen durchsetzen und NVs SM3.0 liegt eigentlich relativ brach.

MfG
micki

q@w
2004-12-07, 09:47:06
Je länger nV die einzigen am Markt mit funktionierendem SM3.0 sind, desto höher die Wahrscheinlichkeit, daß bei den Implementierungen, so unvollständig sie dann evtl. sein mögen, Rücksicht auf die Eigenheiten und/oder speziellen Stärken der nV4x genommen wird.

IMO ist das gut am Beispiel des R300 zu sehen: Frühe Verfügbarkeit, anfangs nur dieses eine Modell an Optimierungsrichtlininen und das war's für die Konkurrenz.

Gast
2004-12-07, 09:47:27
bei gpus ist immer ein zwischenschritt genomen worden,.
ich gehe davon aus das die nächsten in 110 nm low k gebacken werden.

Winter[Raven]
2004-12-07, 09:52:15
Ich zweifle mal dran dass ATIs nächster chip SM3.0 haben wird und das sagt mir auch mein gesunder menschenverstand. SM3.0, jedenfalls auf pixelshader bezogen.
das braucht man eigentlich kaum, PS2.x sind eigentlich ausreichend, was man auch an der FC-engine sehen kann und dinge wie instanzierende vertexbuffer supported ja ATI mittels FOURCCs (wenn ich mich an demis aussage richtig erinnere) schon.
wäre also kein abbruch wenn ATI ohne ps3.0 käme.
mehr performance wäre da angesagter und solange ATI PS3.0 nicht unterstützt, wird sich das nicht wirklich bei spielen durchsetzen und NVs SM3.0 liegt eigentlich relativ brach.

MfG
micki

Nvidia muss einfach nur bissel ihre Kontakte springen lassen damit ein oder mehrere DEV's richtige 3.0 shader schreiben die auf NV4x abgestimmt sind, und schon schreit die Welt "Scheiß ATI", weil man diese Shader net bekommt.

Gast
2004-12-07, 10:03:01
Je länger nV die einzigen am Markt mit funktionierendem SM3.0 sind, desto höher die Wahrscheinlichkeit, daß bei den Implementierungen, so unvollständig sie dann evtl. sein mögen, Rücksicht auf die Eigenheiten und/oder speziellen Stärken der nV4x genommen wird.

IMO ist das gut am Beispiel des R300 zu sehen: Frühe Verfügbarkeit, anfangs nur dieses eine Modell an Optimierungsrichtlininen und das war's für die Konkurrenz.

Das ist imho ein ganz gravierender Punkt. Einfach SM3 nicht unterstützen und bei SM2 bleiben halte ich für gefährlich. Dann passiert nämlich genau dass, dass die Entwickler, die auf SM3 setzen bis auf den letzten mm Papier die Optimierungsrichtlinien eines IHVs befolgen werden.
Sowas kann sich dann ganz schnell nachteilig auswirken. Im Pinrzip bräuchte Nvidia dazu nur ein Game mit ein paar so richtig extra langen Shadern. Da sie ihre eigene SM3 Performance nochmal steigern werden, würde das umso stärker herausstellen.
Nochmal auf SM3 zu verzichten wird ATI sich nicht leisten können. Es gibt bereits einiger Entwickler die sich mit SM3 beschäftigen.

reunion
2004-12-07, 10:32:46
bei gpus ist immer ein zwischenschritt genomen worden,.
ich gehe davon aus das die nächsten in 110 nm low k gebacken werden.

110nm ist nur ein lowcost Prozess, d.h. nicht geeignet für einen High End Chip, außerdem ist kein lowk verfügbar.
R520 wird bereits in 90nm lowk, TSMCs nächsten Highend Prozess gefertigt.

StefanV
2004-12-07, 10:33:48
']Nvidia muss einfach nur bissel ihre Kontakte springen lassen damit ein oder mehrere DEV's richtige 3.0 shader schreiben die auf NV4x abgestimmt sind, und schon schreit die Welt "Scheiß ATI", weil man diese Shader net bekommt.
Wenns so einfach wäre, meinst du nicht, das nV das schon längst gemacht hätte?? ;)

Was ist aber, wenn die Devs a bisserl umgeschwenkt sind und eher ATi bevorzugen?!

Winter[Raven]
2004-12-07, 10:43:13
Wenns so einfach wäre, meinst du nicht, das nV das schon längst gemacht hätte?? ;)

Was ist aber, wenn die Devs a bisserl umgeschwenkt sind und eher ATi bevorzugen?!

a. Tjö, wer weiß noch was kommt Payne ;)
b. Wenn dem so wäre, wieso rüsten die dev's derzeit nur auf NV's GF6800 um wenn die doch laut deiner Aussage auf ATI umgeschwenkt sind...

Es gibt für DEV's nähmlich keinen Grund immer noch auf schon fast 2 Jahre alte Technik zu setzen... Damit beziehe ich mich auf die HW nicht aufs DX!

seahawk
2004-12-07, 10:47:13
Also ich kann bei ATI keine wesentliche Besserung in Hinblick auf die Developer Relations sehen, ausgenommen bestimmte "pet projects".

HOT
2004-12-07, 11:13:03
Dass der NV48/50 gestichen wurden ist eigentlich nur ein Indiz dafür, dass die Projekte zu ehrgeizig waren und Fertigungstechnisch nicht realisibar waren. Anscheinend wird ein 6 Quad Chip als machbares Maximum angesehen.
Dass ATI einen SM3.0 fertigbringt, daran hege ich keine Zweifel, dass schafft IMHO sogar XGI ;)
Es stellt sich vielmehr die Frage: ist er besser als der NV47? ;)
wir werden es im Spätsommer/Herbst nächsten Jahres erfahren :D

saaya
2004-12-07, 11:46:10
ich glaub es wird eher ein 32 pipe chip in 90nm als ein 24pipe chip in 110nm.

r520 ist doch in 90nm und daher bestimmt mit 32 pipes bestueckt, also wuerde nvidia mit einem 24 pipe chip nicht wirklich einem 32pipe chip paroli bieten koennen, und kosten tun 24 in 110nm und 32 in 90nm inetwa gleichviel.

90nm is bereit, also wieso 110nm?

saaya
2004-12-07, 11:46:53
Dass der NV48/50 gestichen wurden ist eigentlich nur ein Indiz dafür, dass die Projekte zu ehrgeizig waren und Fertigungstechnisch nicht realisibar waren. Anscheinend wird ein 6 Quad Chip als machbares Maximum angesehen.
Dass ATI einen SM3.0 fertigbringt, daran hege ich keine Zweifel, dass schafft IMHO sogar XGI ;)
Es stellt sich vielmehr die Frage: ist er besser als der NV47? ;)
wir werden es im Spätsommer/Herbst nächsten Jahres erfahren :D
spaetsommer/herbst? LOL

nenenene ;)

reunion
2004-12-07, 11:51:21
ich glaub es wird eher ein 32 pipe chip in 90nm als ein 24pipe chip in 110nm.

r520 ist doch in 90nm und daher bestimmt mit 32 pipes bestueckt, also wuerde nvidia mit einem 24 pipe chip nicht wirklich einem 32pipe chip paroli bieten koennen, und kosten tun 24 in 110nm und 32 in 90nm inetwa gleichviel.

90nm is bereit, also wieso 110nm?


Ich denke nicht das ein 32pipe SM3.0 Chip selbst mit 90nm machbar ist, die Transistorenanzahl würde wohl an die 400mio gehn, und auch die Speicherbandbreite wäre "etwas" knapp.

Holundermann
2004-12-07, 11:56:52
Ich denke nicht das ein 32pipe SM3.0 Chip selbst mit 90nm machbar ist, die Transistorenanzahl würde wohl an die 400mio gehn, und auch die Speicherbandbreite wäre "etwas" knapp.

naja, wie war das mit moores gesetz? verdopplung der transistoren alle 18 Monate? oder trifft das nur auf cpus zu, nicht auf gpus? ;)

saaya
2004-12-07, 12:03:34
Ich denke nicht das ein 32pipe SM3.0 Chip selbst mit 90nm machbar ist, die Transistorenanzahl würde wohl an die 400mio gehn, und auch die Speicherbandbreite wäre "etwas" knapp.

deswegen vermute ich ja auch xdr als speicherloesung :D
und r500 hat 330m+ transistoren, fuer 24 pipes sind das n bisschen viel imo... und 28 ist doch quatsch...

r420=160m
r520=330+ ...zufall?

und wer weiss ob r520 ein sm3.0 chip ist... dafuer spriehct dass r500 definitiv ein sm3.0 chip ist, dagegen spricht dass das gleiche team was am r300 und r420 gearbeitet hat diesesmal am r520 die arbeit anfuehrt...

vieleicht sind r500 und r520 unterschiedliche chips und r520 ist ein r420 x2 in 90nm wahrend der r500 ein neuer sm3.0 chip ist?

alles moeglich...

aber imo unwahrscheinlich da ich nicht glaube dass at zwei verschiedene design gleichzeitig bearbeitet... und wenn sie ein sm3.0 chip habven wieso dann einen sm2.0 chip releasen?

also ich sage immernoch 32P sm3.0 chip in 90nm mit xdr speicher :D

im endeffekt werden bestimmt nur 24 oder 28 pipes aktiv sein, aber genau wie beim x800 wird ati die letzten pipes freischalten wenn nvidia performencemaessig zu nahe kommt.

seahawk
2004-12-07, 12:11:16
R500 als Konsolen Lösung wird edRam haben.Das wirkt sich sicherlich auf die Menge der Transistoren aus.

reunion
2004-12-07, 12:24:56
deswegen vermute ich ja auch xdr als speicherloesung :D


Sei dir da mal nicht so sicher, XDR-Ram dürfte nichtnur schlecht verfügbar sondern auch extrem teuer sein. Bevor man XDR-RAm verwendet baut man IMO ein 384-bit Speicherinfance ein.


und r500 hat 330m+ transistoren, fuer 24 pipes sind das n bisschen viel imo... und 28 ist doch quatsch...


Woher hast du die Zahl?
R500 soll 10MB EDRAM besitzten dürfte also was die Transistorenanzahl angeht so ziemlich alles bisherige in den Schatten stellen, beim R520 ist das allerdings nicht machbar, da man wohl kaum 256 oder besser 512 MB EDRAM verbauen kann.


r420=160m
r520=330+ ...zufall?


Nochmal wie kommst du auf 330mio?
Laut ATi ist der R520 kleiner als der R420 was die DIE Fläche betrifft.
Bei max. 50% einsparungspotential durch den 90nm prozess könnte R520 max. 320mio Transitoren wiegen.


und wer weiss ob r520 ein sm3.0 chip ist... dafuer spriehct dass r500 definitiv ein sm3.0 chip ist, dagegen spricht dass das gleiche team was am r300 und r420 gearbeitet hat diesesmal am r520 die arbeit anfuehrt...


Warum spricht das dagegen?
Glaubst du das diesen Team nicht in der Lage ist neue Technologien zu entwickeln? Im übrigen arbeitet diese Team auch am R500 wodurch du dir selbst wiedersprichst.


vieleicht sind r500 und r520 unterschiedliche chips und r520 ist ein r420 x2 in 90nm wahrend der r500 ein neuer sm3.0 chip ist?


Äußerst unwarscheindlich, nochmal die schon jetzt veraltete Architektur aufwärmen wo man ja mit dem R500 bereits eine "moderne" Architektur zur verfügung hat wäre schlich dumm.

deekey777
2004-12-07, 12:31:01
Wenn mich nicht alles täuscht, spricht man von der R500 Generation - gleiche Fähigkeiten, unterschiedliche Chips?

ShadowXX
2004-12-07, 13:44:38
Sei dir da mal nicht so sicher, XDR-Ram dürfte nichtnur schlecht verfügbar sondern auch extrem teuer sein. Bevor man XDR-RAm verwendet baut man IMO ein 384-bit Speicherinfance ein.


Dem stimme ich zu...


Warum spricht das dagegen?
Glaubst du das diesen Team nicht in der Lage ist neue Technologien zu entwickeln? Im übrigen arbeitet diese Team auch am R500 wodurch du dir selbst wiedersprichst.


Laut dem geposteten Bild nicht....da sieht es eigentlich nach 2 verschiedenen Teams aus....und ausserdem sieht es dort so aus, als wenn in den r520 nur Teile des r500 mit eingeflossen sind.(Und da ist dann die Frage welche??)


Äußerst unwarscheindlich, nochmal die schon jetzt veraltete Architektur aufwärmen wo man ja mit dem R500 bereits eine "moderne" Architektur zur verfügung hat wäre schlich dumm.

Kommt darauf an, wie der r500 Designet wurde....vielleicht ist das Design des r500 so in sich geschlossen, das man es einfach nicht auf PC-Chips übertragen kann (Stichwort eDRam), sondern höchstens vereinzelte Ideen/Technologien davon nutzen kann.

reunion
2004-12-07, 13:51:13
Laut dem geposteten Bild nicht....da sieht es eigentlich nach 2 verschiedenen Teams aus....und ausserdem sieht es dort so aus, als wenn in den r520 nur Teile des r500 mit eingeflossen sind.(Und da ist dann die Frage welche??)


In our interview with Dave he details that Marlbough are indeed currently tied up with the XBox project, however makes note that the R500 class products are being produced in the Valley, or from the same team that produced R300 (and R420). This being the case it would mark another shift in the roadmap as it would seem that R500 is not the product destined for the XBox design; indeed this being the case it may be logical to assume that the first high end product based on R500 technology from the Valley would be R520.

http://www.beyond3d.com/forum/viewtopic.php?t=12174

ShadowXX
2004-12-07, 13:54:31
In our interview with Dave he details that Marlbough are indeed currently tied up with the XBox project, however makes note that the R500 class products are being produced in the Valley, or from the same team that produced R300 (and R420). This being the case it would mark another shift in the roadmap as it would seem that R500 is not the product destined for the XBox design; indeed this being the case it may be logical to assume that the first high end product based on R500 technology from the Valley would be R520.

http://www.beyond3d.com/forum/viewtopic.php?t=12174

Dem halte ich dann nochmal dieses Bild dagegen...übrigens auch von Dave Bauman:


[West Coast - DX9 Gen]
(PS2.0) (PS2.b) (SM3.0)
R300---->R420---->R520
^
:
:
R400------->R500---->R6x0
(Canned) (XBox2) (Longhorn / WGF2.0)
[East Coast - Unified Shader ]


Danach sind es klar 2 verschiedene Teams....

reunion
2004-12-07, 13:57:23
Dem halte ich dann nochmal dieses Bild dagegen...übrigens auch von Dave Bauman:


[West Coast - DX9 Gen]
(PS2.0) (PS2.b) (SM3.0)
R300---->R420---->R520
^
:
:
R400------->R500---->R6x0
(Canned) (XBox2) (Longhorn / WGF2.0)
[East Coast - Unified Shader ]


Danach sind es klar 2 verschiedene Teams....

Wenn du den Link angeklickt hättest wärst du draufgekommen das es sich bei meinen Link um ein Interview mit ATI CEO Dave Orton handelt und nicht um Dave Baumann. ;)

Also Quelle = ATI!

ShadowXX
2004-12-07, 14:29:06
Wenn du den Link angeklickt hättest wärst du draufgekommen das es sich bei meinen Link um ein Interview mit ATI CEO Dave Orton handelt und nicht um Dave Baumann. ;)

Also Quelle = ATI!

Und wenn du mal richtig gelesen hättest, hättest du am Titel des Threads bemerkt, das dies Interpretationen vom Interview mit Dave Orton sind...

Er bemerkt auch, das es aus dem Interview hervorgeht, das es sein könnte, das der 520 aus dem r500 hervorgeht...es ist zumindest kleine klare Festellung.

Ausserdem sehe ich es so, das dieses Bild deutlich später als die erste Interpretation erstellt wurde....

Aber lass uns jetzt nicht über irgendwelche Interpretationen von irgendwelchen Leuten streiten....wir werden früher oder später erfahren, wie der 520 aufgebaut ist und vom wem er abstammt.

Spasstiger
2004-12-07, 14:59:43
110nm ist nur ein lowcost Prozess, d.h. nicht geeignet für einen High End Chip, außerdem ist kein lowk verfügbar.
R520 wird bereits in 90nm lowk, TSMCs nächsten Highend Prozess gefertigt.

Der R480 wird in 110nm gefertigt und ist ein High End Chip.

deekey777
2004-12-07, 15:03:44
Der R480 wird in 110nm gefertigt und ist ein High End Chip.

Der R480 wird in 0,13 low-k Technologie gefertigt, der R430 in 0,11 ohne low-k. ;)

Ailuros
2004-12-07, 18:23:04
Nochmal wie kommst du auf 330mio?
Laut ATi ist der R520 kleiner als der R420 was die DIE Fläche betrifft.
Bei max. 50% einsparungspotential durch den 90nm prozess könnte R520 max. 320mio Transitoren wiegen.

Soll aber fuer hoehere Taktraten ausgenutzt werden.

Ich hoffe die Transistoren-Anzahl stammt nicht von Xenon-Spekulationen, denn dort nimmt 10MB eDRAM so einigen Platz ein.

reunion
2004-12-07, 19:47:12
denn dort nimmt 10MB eDRAM so einigen Platz ein.


Wieviel Transistoren würde man denn dafür ca. benötigen?

betasilie
2004-12-07, 19:54:14
Wieviel Transistoren würde man denn dafür ca. benötigen?
Mal abgesehen von den Transistoren ist es afaik recht schwer die Gatter auf einem Stück Silizium zu kombinieren. Außerdem wird der eDram ja ziemlich heftig verdrahtet werden, was dann auch nicht gerade einfach ist bei 1024bit oder höher.

Der embedded Ram in der PS2 ist z.B. 4096bittig angeschlossen, afair.

Selle
2004-12-07, 20:53:23
[West Coast - DX9 Gen]
(PS2.0) (PS2.b) (SM3.0)
R300---->R420---->R520
^
:
:
R400------->R500---->R6x0
(Canned) (XBox2) (Longhorn / WGF2.0)
[East Coast - Unified Shader gen]

Nicht das ich hier ein Experte bin, aber soweit ich weiß sind die ATi WestCoast Studios das "verbleibsl" von ArtX (welche r300/350 sowie r500 designt haben) und die EastCoast Studios "ATi selber" (r420)
Kann hier keine genaue Quellenangabe liefern außer meinem Brain welches dies mal gelesen hat :| Mmmm, klingt wohl "sehr überzeugend" aber ist wirklich so. Stand bei irgendner I-Net Info das ATi selber den r420 design hat um die WestCoast Studios komplett auf den r500 konzentrieren zu können (eben wegen dem erfolg des r300/350, und dem Budget von M$ :biggrin: )

Ailuros
2004-12-08, 06:35:42
Wieviel Transistoren würde man denn dafür ca. benötigen?

Haengt vom Hersteller ab. Ich wuerde aber nicht an weniger als ca 80M erstmal fuer eDRAM minimal denken.

Mal abgesehen von den Transistoren ist es afaik recht schwer die Gatter auf einem Stück Silizium zu kombinieren. Außerdem wird der eDram ja ziemlich heftig verdrahtet werden, was dann auch nicht gerade einfach ist bei 1024bit oder höher.

Es steht was von =/>22.4 GB/sec Bandbreite vom eDRAM im geleakten Graph drin. Viel passt in das Ding nicht wirklich rein, ausser ich hab was verpasst. Unter normalen Spielbedingungen so was wie 2xMSAA@720*560, ueberhaupt wenn nebem dem "read" ein "resolve" in der Klammer steht.

Godmode
2004-12-08, 11:47:43
http://www.xbitlabs.com/news/video/display/20041208014939.html

Hier gibts wieder ein paar interassante infos zum NV47 die wissen da anscheinend etwas mehr. Hört sich so an also ob er wirklich im 1. Quartal 2005 gelaunched wird.

Zum R500 schreiben sie, dass er 48 ALUs hat, die er für Pixel und Vertexshading verwenden kann.

marlurau
2004-12-08, 12:53:58
http://www.xbitlabs.com/news/video/display/20041208014939.html

Hier gibts wieder ein paar interassante infos zum NV47 die wissen da anscheinend etwas mehr. Hört sich so an also ob er wirklich im 1. Quartal 2005 gelaunched wird.

Zum R500 schreiben sie, dass er 48 ALUs hat, die er für Pixel und Vertexshading verwenden kann.


Ich habe da "spring 05 " gelesen, bedeutet wohl Frühjahr. Dieser beginnt noch im ersten Viertel des Jahres und dauert aber FAST das ganze 2. Viertel.
Spielraum also 22. März bis 21. Juni. Das Raten kann weitergehen :)

marlurau
2004-12-08, 12:58:36
Dass der NV48/50 gestichen wurden ist eigentlich nur ein Indiz dafür, dass die Projekte zu ehrgeizig waren und Fertigungstechnisch nicht realisibar waren. Anscheinend wird ein 6 Quad Chip als machbares Maximum angesehen.
Dass ATI einen SM3.0 fertigbringt, daran hege ich keine Zweifel, dass schafft IMHO sogar XGI ;)
Es stellt sich vielmehr die Frage: ist er besser als der NV47? ;)
wir werden es im Spätsommer/Herbst nächsten Jahres erfahren :D



Seh ich ähnlich. Falls die GPU im Juni vorgestellt wird ;) . Bis dann mehr als 4 Zeitschriften sie testen können. Bis hier die Leute die verschiedenen Benchmarks machen können..... usw... Da könnt es schon Ende August sein.

seahawk
2004-12-08, 13:04:46
Ich sage es mal so : " Die jetzt etwas schreiben wissen nichts, die was wissen schreiben nichts." :D

reunion
2004-12-08, 13:10:31
http://www.xbitlabs.com/news/video/display/20041208014939.html

Hier gibts wieder ein paar interassante infos zum NV47 die wissen da anscheinend etwas mehr. Hört sich so an also ob er wirklich im 1. Quartal 2005 gelaunched wird.

Zum R500 schreiben sie, dass er 48 ALUs hat, die er für Pixel und Vertexshading verwenden kann.

Intressant:

"ATI has completed test wafers on 90nm at TSMC and has hit its milestones to date for its next generation R520 product due out in Spring 2005,”

Not much is known about the architecture and capabilities of the code-named R520 product that was initially referred as the R500. What is clear now is that the new graphics chip will sport Shader Model 3.0 – pixel shaders 3.0 and vertex shaders 3.0 – bringing additional programming capabilities to ATI’s future graphics processors as well as some other innovations.

ATI’s R5xx architecture will not resemble that of the previous generation products and NVIDIA’s GeForce 6 architecture known as NV4x, particularly ATI will implement efficient flow-control, a crucial feature for pixel shaders 3.0, that will not bring speed penalty it does on existing SM3.0 hardware, according to sources. The future of the graphics hardware lies in higher number of ALUs ops per texture ops, unified pixel and vertex shaders as well as some other requirements of Microsoft Windows Longhorn operating system, such as virtualisation and context switches. While ATI agrees on the long-term goals for its roadmap, it does not name feature-set of actual products and says all the architectural changes will be implemented gradually, not at once.


Some sources claim that the R500 is a code-name of ATI’s graphics processor that will be submitted for Microsoft’s next Xbox console. The shader core of the R500 was reported to have 48 Arithmetic Logic Units (ALUs) that can execute 64 simultaneous threads on groups of 64 vertices or pixels. ALUs are automatically and dynamically assigned to either pixel or vertex processing depending on load. The ALUs can each perform one vector and one scalar operation per clock cycle, for a total of 96 shader operations per clock cycle. Texture loads can be done in parallel to ALU operations. At peak performance, the GPU can issue 48 billion shader operations per second, it was said.


While NVIDIA remains extremely tight-lipped over its future products, it is known that the company is readying its code-named NV47 visual processing unit, a massively revamped GeForce 6 architecture with 24 pixel pipelines. The NV47 is expected to be released sometime in Spring, 2005, but it is unknown whether NVIDIA is ahead, or behind ATI’s R520 product.

ShadowXX
2004-12-08, 14:33:55
Intressant:

"ATI has completed test wafers on 90nm at TSMC and has hit its milestones to date for its next generation R520 product due out in Spring 2005,”

Not much is known about the architecture and capabilities of the code-named R520 product that was initially referred as the R500. What is clear now is that the new graphics chip will sport Shader Model 3.0 – pixel shaders 3.0 and vertex shaders 3.0 – bringing additional programming capabilities to ATI’s future graphics processors as well as some other innovations.

ATI’s R5xx architecture will not resemble that of the previous generation products and NVIDIA’s GeForce 6 architecture known as NV4x, particularly ATI will implement efficient flow-control, a crucial feature for pixel shaders 3.0, that will not bring speed penalty it does on existing SM3.0 hardware, according to sources. The future of the graphics hardware lies in higher number of ALUs ops per texture ops, unified pixel and vertex shaders as well as some other requirements of Microsoft Windows Longhorn operating system, such as virtualisation and context switches. While ATI agrees on the long-term goals for its roadmap, it does not name feature-set of actual products and says all the architectural changes will be implemented gradually, not at once.


Some sources claim that the R500 is a code-name of ATI’s graphics processor that will be submitted for Microsoft’s next Xbox console. The shader core of the R500 was reported to have 48 Arithmetic Logic Units (ALUs) that can execute 64 simultaneous threads on groups of 64 vertices or pixels. ALUs are automatically and dynamically assigned to either pixel or vertex processing depending on load. The ALUs can each perform one vector and one scalar operation per clock cycle, for a total of 96 shader operations per clock cycle. Texture loads can be done in parallel to ALU operations. At peak performance, the GPU can issue 48 billion shader operations per second, it was said.


While NVIDIA remains extremely tight-lipped over its future products, it is known that the company is readying its code-named NV47 visual processing unit, a massively revamped GeForce 6 architecture with 24 pixel pipelines. The NV47 is expected to be released sometime in Spring, 2005, but it is unknown whether NVIDIA is ahead, or behind ATI’s R520 product.

Die Raten doch auch nur in den Wind rein.....

r500!=r520

Das sollten selbst die inzwischen wissen und nicht sowas wie:
code-named R520 product that was initially referred as the R500

(Und Sie wiedersprechen sich gleich selbst ein paar Zeilen später, wo dann der r500 auf einmal der XBox-Chip ist.....hatte sie nicht gerade 5 Zeilen darüber geredet das der r520 der r500 ist???)

Selbst ATI hat ja gesagt, das der r520 (im besten falle) auf dem r500 basiert.(wenn er denn wirklich tut, da die meisten Quellen momentan eher sagen, das er im Prinzip auf der r3x0->r4x0 Linie basieren soll).

Und hierfür "ATI will implement efficient flow-control" hätte ich dann doch ganz gerne mal ihre Quellenangaben...und zwar welche Abseits vom ATI-Marketing.

Blade345
2004-12-08, 14:51:40
Wird bei IBM bei der 90 Nm Produktion eigentlich auch Low-K verwendet oder kann man darüber nur spekulieren? Ansonsten hätte ATI mit dem R520 wieder einen Chip, welcher in Low-K gefertigt wird und dadurch vermutlich wieder einen höheren Chiptakt als der NV47 (bei gleicher Pipelineanzahl).

DrumDub
2004-12-08, 14:51:45
Das sollten selbst die inzwischen wissen und nicht sowas wie:
code-named R520 product that was initially referred as the R500

(Und Sie wiedersprechen sich gleich selbst ein paar Zeilen später, wo dann der r500 auf einmal der XBox-Chip ist.....hatte sie nicht gerade 5 Zeilen darüber geredet das der r520 der r500 ist???)


der satz sagt nur aus, dass das produkt, welches nun r520 heißt ursprünglich mal r500 heißen sollte. über die technischen fähigkeiten des chips ist damit noch nichts gesagt.

aber du hast schon recht. der artikel benutzt viel marketingsprech und ist damit ziemlich beliebig.

MechWOLLIer
2004-12-08, 15:49:13
Wird bei IBM bei der 90 Nm Produktion eigentlich auch Low-K verwendet oder kann man darüber nur spekulieren? Ansonsten hätte ATI mit dem R520 wieder einen Chip, welcher in Low-K gefertigt wird und dadurch vermutlich wieder einen höheren Chiptakt als der NV47 (bei gleicher Pipelineanzahl).
Soweit ich weiß, gibt es derzeit kein 90nm Prozess mit low-k.
Gibt es eigentlich ein Gerücht bezüglich der Anzahl der Pixelprozessoren beim R520?

reunion
2004-12-08, 15:51:03
Die Raten doch auch nur in den Wind rein.....

r500!=r520

Das sollten selbst die inzwischen wissen

Na klar ist er nicht der gleiche Chip, R500 soll immerhin unified shader und 10MB EDRAM bekommen, was bei einem Desktopchip (noch) nicht machbar ist. Dafür soll R500 nur 16 bi texturen pro takt berechnen können und nur auf 22Gb Speicherbandbreite zurückgreifen können was für den R520 wieder zu wenig ist. Trozdem sieht es immer mehr danach aus als ob R520 nichtnur ein nochmals aufgeborter R300, sondern eine wirklich neue Architektur ist.


Selbst ATI hat ja gesagt, das der r520 (im besten falle) auf dem r500 basiert.(wenn er denn wirklich tut, da die meisten Quellen momentan eher sagen, das er im Prinzip auf der r3x0->r4x0 Linie basieren soll).


Die meisten Quellen? Einzig Dave Baumann behauptet das der R520 einem Mischung aus R300 und R500 ist und alle anderen plappern es nach. Und das obwohl ATi selbst bereits mehrmals der gesamten R5xx Serie SM3.0 zugesprochen hat was ja angeblich äußerst schlecht mit einem R300 Grundgerüst machbar sein soll .


Und hierfür "ATI will implement efficient flow-control" hätte ich dann doch ganz gerne mal ihre Quellenangaben...und zwar welche Abseits vom ATI-Marketing.


Ich hätte auch gerne eine Quellenangabe für die ganzen spekulationen das R520 wieder nur ein aufgebohrter R300 sein soll.

HOT
2004-12-08, 16:04:23
Kann ja sogar sein, dass ATI das mal irgendjemand ggü. behauptet hat, weil der R300 einen guten Ruf hat :D
Auch der R500 basiert auf dem R300 wenn man so will, das sagt rein garnichts aus.
Meine Vermutung ist, dass ATI auf keinen Fall 2 Technologiestränge verfolgt sondern nur einen. Somit ist der R520 ein R500 ohne eDRAM, mit breiterem Speicherinterface und mehr ALUs/TexOps.
Wenn ATI weiterhin so modular arbeitet wie beim RV3xx/R4xx sollte das wesentlich billiger sein, als 2 GPUs mit unterschiedlicher Technik zu entwickeln.

deekey777
2004-12-08, 16:12:24
Verzeihung, aber warum schreibt ihr Infos zum R520 in den falschen Thread rein? ;(

ShadowXX
2004-12-08, 16:37:04
Na klar ist er nicht der gleiche Chip, R500 soll immerhin unified shader und 10MB EDRAM bekommen, was bei einem Desktopchip (noch) nicht machbar ist. Dafür soll R500 nur 16 bi texturen pro takt berechnen können und nur auf 22Gb Speicherbandbreite zurückgreifen können was für den R520 wieder zu wenig ist. Trozdem sieht es immer mehr danach aus als ob R520 nichtnur ein nochmals aufgeborter R300, sondern eine wirklich neue Architektur ist.


Naja...wenn man den Text so liesst hört sich das aber stark so an, als wenn r500==r520 incl. aller Features ist.

Sie hätten das etwas stärker differenzieren sollen.


Die meisten Quellen? Einzig Dave Baumann behauptet das der R520 einem Mischung aus R300 und R500 ist und alle anderen plappern es nach. Und das obwohl ATi selbst bereits mehrmals der gesamten R5xx Serie SM3.0 zugesprochen hat was ja angeblich äußerst schlecht mit einem R300 Grundgerüst machbar sein soll .


Waren wohl mehr Quellen als Dave Baumann...aber im Prinzip gebe ich dir trotzdem recht.


Ich hätte auch gerne eine Quellenangabe für die ganzen spekulationen das R520 wieder nur ein aufgebohrter R300 sein soll.

Auch hierbei gebe ich dir durchaus Recht.


Im Prinzip wissen wir gar nichts vom r520 ausser ein paar Spekus von ein paar Leuten.
Aber selbst wenn der r520 "nur" wieder auf dem r300 aufbaut, heist das ja noch lange nicht, das er kein SM3.0 kann....man weiss ja nicht, was mit "Aufbauen auf" genau gemeint ist (vielleicht haben Sie die ROPs behalten, oder das er HyperZ weiterhin hat, oder das SuperTiling, etc,etc.).
Vielleicht ist damit auch wirklich nur gemeint, das er die Tradition der r3x0-Reihe weiterführen soll und es ist überhaupt nicht technisch gemeint.

Aber das "ATI will implement efficient flow-control", geht imho nun doch etwas zu extrem weit in die Gerüchteküche....

ShadowXX
2004-12-08, 16:39:59
Verzeihung, aber warum schreibt ihr Infos zum R520 in den falschen Thread rein? ;(

Weil ein nv47 mit "nur" 4 Pipes mehr kein wirklichen Gesprächsstoff bietet...... :wink:


Nein, jetzt mal im ernst....du hast schon recht, wir sind doch etwas extrem OT geworden.
Vielleicht kann einer der Mod den r520-Teil ja in einen geeigneten Thread schieben..(falls die ForumsSW sowas zulässt).

Selle
2004-12-08, 16:40:21
Ich habe da "spring 05 " gelesen, bedeutet wohl Frühjahr. Dieser beginnt noch im ersten Viertel des Jahres und dauert aber FAST das ganze 2. Viertel.
Spielraum also 22. März bis 21. Juni. Das Raten kann weitergehen :)


Wird sicher nicht besser als beim nV40 sein, Mai (?) vorgestellt und ende des jahres ausreichend lieferbar. :biggrin:

Ailuros
2004-12-08, 18:10:36
Fuer mich ist momentan erstmal sicher dass R520 keine vereinte Einheiten haben wird, nicht WGF1 kompliant sein wird, kein eDRAM und auch womoeglich nicht ueber die gleich Anzahl von ALU OPs pro Takt faehig sein wie Xenon.

Ich hätte auch gerne eine Quellenangabe für die ganzen spekulationen das R520 wieder nur ein aufgebohrter R300 sein soll.

Wenn ich von Leuten die mit Sicherheit unter ATI's NDA stehen, Andeutungen hoere dass R3xx/R4xx/R520 auf der etwa gleichen Basis aufgebaut sind, dann frage ich mich selbstverstaendlich um was es sich handeln koennte. Der Aufbau eines SM2.0x und dieser eines SM3.0 chips aehneln sich im Grunde eigentlich nicht und man braucht normalerweise fuer's letztere fundamentalere Aenderungen in der Pipeline.

Vor dem R420 Launch hoerte ich auch so manchen Quark dass das Ding halbwegs SM3.0 kompliant sein soll oder sogar noch WGF Features mit sich tragen soll. Bei dem ganzen verwirrenden Paperlapapp das kursiert und dem "trackrecord" von ATI, ist es durchaus kein Wunder wenn man Zweifel aufweisst.

Auf die angeblichen flow control Faehigkeiten von R520 bin ich erstmal gespannt; auch hier hab ich ernste Zweifel dass alles so ideal ist wie durch diverse Marketing-kanaele geschleusst. Die einzige Tatsache was fuer mich ATI in diesem Bereich rettet, ist dass das was R3xx/4xx bisher konnten, konnten sie gut und schnell ausfuehren.

mapel110
2004-12-08, 18:18:36
Fuer mich ist momentan erstmal sicher dass R520 keine vereinte Einheiten haben wird, nicht WGF1 kompliant sein wird, kein eDRAM und auch womoeglich nicht ueber die gleich Anzahl von ALU OPs pro Takt faehig sein wie Xenon.


WGF1.0 == Directx9, WGF2.0 == "directx next" =)

Demirug
2004-12-08, 18:22:16
Fuer mich ist momentan erstmal sicher dass R520 keine vereinte Einheiten haben wird, nicht WGF1 kompliant sein wird, kein eDRAM und auch womoeglich nicht ueber die gleich Anzahl von ALU OPs pro Takt faehig sein wie Xenon.

Wenn die Folien von ATI bezüglich Longhorn richtig sind sollte mindestens alles ab R300 aufwärts WGF1 kompatibel sein.

Wenn ich von Leuten die mit Sicherheit unter ATI's NDA stehen, Andeutungen hoere dass R3xx/R4xx/R520 auf der etwa gleichen Basis aufgebaut sind, dann frage ich mich selbstverstaendlich um was es sich handeln koennte. Der Aufbau eines SM2.0x und dieser eines SM3.0 chips aehneln sich im Grunde eigentlich nicht und man braucht normalerweise fuer's letztere fundamentalere Aenderungen in der Pipeline.

Vor dem R420 Launch hoerte ich auch so manchen Quark dass das Ding halbwegs SM3.0 kompliant sein soll oder sogar noch WGF Features mit sich tragen soll. Bei dem ganzen verwirrenden Paperlapapp das kursiert und dem "trackrecord" von ATI, ist es durchaus kein Wunder wenn man Zweifel aufweisst.

Auf die angeblichen flow control Faehigkeiten von R520 bin ich erstmal gespannt; auch hier hab ich ernste Zweifel dass alles so ideal ist wie durch diverse Marketing-kanaele geschleusst. Die einzige Tatsache was fuer mich ATI in diesem Bereich rettet, ist dass das was R3xx/4xx bisher konnten, konnten sie gut und schnell ausfuehren.

Ich habe irgendwie seit Tagen das Gefühl das wir F-Buffer III zu sehen bekommen.

Demirug
2004-12-08, 18:23:34
WGF1.0 == Directx9L, WGF2.0 == "directx next" =)

Ich habe mal was wichtiges ergänzt. ;)

mapel110
2004-12-08, 18:29:23
Ich habe mal was wichtiges ergänzt. ;)

directx9L? soll das heissen, dass Ailuros für sicher hält, dass R520 kein SM3.0 bieten wird?!

Demirug
2004-12-08, 18:36:56
directx9L? soll das heissen, dass Ailuros für sicher hält, dass R520 kein SM3.0 bieten wird?!

Das denke ich nicht. Ich bin mir nicht sicher ob Ailuros diese WGF 1/WGF2 Geschichte mitbekommen hat.

WGF1 kompliant sollte nämlich wie gesagt jeder DX9 Chip sein.

Ailuros
2004-12-08, 18:54:26
Das denke ich nicht. Ich bin mir nicht sicher ob Ailuros diese WGF 1/WGF2 Geschichte mitbekommen hat.

WGF1 kompliant sollte nämlich wie gesagt jeder DX9 Chip sein.

Wie gesagt bin ich der originalen WGF Trance noch nicht entgangen; daher sollte in meinem vorigen Post WGF2.0 und nicht WGF stehen.

Auch Xenon ist womoeglich nicht voll WGF2.0 kompliant, ausser der Author des alten Diagramms hat es vergessen auch GS Funktionen zu erwaehnen (so was vergisst man eigentlich nicht...).

Ich habe irgendwie seit Tagen das Gefühl das wir F-Buffer III zu sehen bekommen.

Ich werde das verdammte Gefuehl auch nicht los; als ich das "save the nanosecond" Dokument in die Haende bekam (ja lange bevor es durchsickerte), war ich mir schon fast sicher dass alles "R5xx" SM3.0 sein wird. Ehrlich gesagt ist mir die R520=SM3.0 These um einiges lieber; sonst wird 2005 viel zu langweilig.

ShadowXX
2004-12-08, 20:33:13
Fuer mich ist momentan erstmal sicher dass R520 keine vereinte Einheiten haben wird, nicht WGF2 kompliant sein wird, kein eDRAM und auch womoeglich nicht ueber die gleich Anzahl von ALU OPs pro Takt faehig sein wie Xenon.


Bleibt nicht viel übrig....zumindest zur ähnlichkeit zum r500.


Ich habe irgendwie seit Tagen das Gefühl das wir F-Buffer III zu sehen bekommen.


Also eher eine SM3.0 "emulation"......oder wie soll man das verstehen???

Zumindest wäre damit doch wohl kaum eine "effiziente Fluss-Kontrolle" möglich...oder sehe ich das falsch.

Godmode
2004-12-08, 20:38:05
Wär so ne Emulation über den Treiber überhaupt möglich?? Würde das nicht eine ziemliche CPU Last erzeugen?

reunion
2004-12-08, 20:44:37
Wär so ne Emulation über den Treiber überhaupt möglich?? Würde das nicht eine ziemliche CPU Last erzeugen?

ATi kann es sich nicht leisten SM3.0 zu emulieren, die Performace wäre vernichtend.
Möglich wäre es allerdings schon.

Demirug
2004-12-08, 20:54:30
Also eher eine SM3.0 "emulation"......oder wie soll man das verstehen???

Zumindest wäre damit doch wohl kaum eine "effiziente Fluss-Kontrolle" möglich...oder sehe ich das falsch.

Nein, das ist keine Emulation im üblichen Sinn. F-Buffer wäre durchaus eine reguläre Technick zur implementierung von SM3. Ich kann mir dabei auch durchaus Methide vorstellen die eine einigermassen effiziente Fluss Kontrolle erlauben. Das Problem beim F-Buffer ist eigentlich die Bandbreite darum halte ich die Technik in Summe ja auch für ein totes Pferd. Wobei sie in Verbidnung mit ausreichend edram durchaus noch interesant werden könnte. Aber auch dann würde ich was anderes bauen.

ShadowXX
2004-12-08, 21:04:17
Nein, das ist keine Emulation im üblichen Sinn. F-Buffer wäre durchaus eine reguläre Technick zur implementierung von SM3. Ich kann mir dabei auch durchaus Methide vorstellen die eine einigermassen effiziente Fluss Kontrolle erlauben. Das Problem beim F-Buffer ist eigentlich die Bandbreite darum halte ich die Technik in Summe ja auch für ein totes Pferd. Wobei sie in Verbidnung mit ausreichend edram durchaus noch interesant werden könnte. Aber auch dann würde ich was anderes bauen.

Wäre dann aber wohl doch nur mehr ein Checklist Feature?

Und wahrscheinlich auch die einzige Möglichkeit die r3x0/r4x0-Architektur auf SM3.0 zu bringen?

Ich hoffe jetzt mal für ATI, das wir alle völlig danebenliegen....

Demirug
2004-12-08, 21:20:16
Wäre dann aber wohl doch nur mehr ein Checklist Feature?

Und wahrscheinlich auch die einzige Möglichkeit die r3x0/r4x0-Architektur auf SM3.0 zu bringen?

Ich hoffe jetzt mal für ATI, das wir alle völlig danebenliegen....

Wenn die Bandbreite reicht kann das durchaus schnell sein.

Godmode
2004-12-08, 21:20:39
Ist die R300 Architektur nicht restlost ausgenützt? Würde es überhaupt was bringen nochmal nen Refresh zu basteln? Ich kann mir nicht vorstellen, das ATI nochmal nen R300 bringt, irgendwann müssen sie ja eine SM 3.0 Architektur bringen, vor allem im nächsten Jahre denke ich, dass es Spiele geben wird die von SM3.0 sehr profitiern werden und wenn sie jetzt nochmal nur SM2.0 bringen, werden sie sicherlich von der Marketing Abteilung von NV ausgeschlachtet. Haben sie soviele anderen Projekte laufen oder warum wird sowas überhaupt vermutet(kein SM3)?

Quasar
2004-12-08, 21:26:02
Natürlich lohnt sich ein Refresh, solange er vom Markt so begeisterte angenommen wird, die der R420. =)

Der Markt bekommt, was er abnimmt - so einfach ist das.

Godmode
2004-12-08, 21:31:58
Würde sich ATI damit nicht selbst ein Ei legen? Viele Entwickler(denke ich mal) werden auf GF6800 umgestiegen sein, weil diese ja viele Features unterstützt, die in Zukunft wichtig werden. Wenn sei jetzt nochmal nur ne SM2 GPU bringen, wird später alles auf Nvidia Karten optimiert sein!!(NV30-R300) Oder bin ich da etwas abwegig?

Selle
2004-12-08, 22:46:10
Würde sich ATI damit nicht selbst ein Ei legen? Viele Entwickler(denke ich mal) werden auf GF6800 umgestiegen sein, weil diese ja viele Features unterstützt, die in Zukunft wichtig werden. Wenn sei jetzt nochmal nur ne SM2 GPU bringen, wird später alles auf Nvidia Karten optimiert sein!!(NV30-R300) Oder bin ich da etwas abwegig?

Wenn sich die Architktur so sehr unterscheidet bekommt ATi probleme. Aber denke eher dass sich die Entwickler an die Specs von DX9c halten werden (damit ein großer Kundenkreis gewährt bleibt -> nV & ATi User)

ShadowXX
2004-12-08, 22:59:43
Ist die R300 Architektur nicht restlost ausgenützt? Würde es überhaupt was bringen nochmal nen Refresh zu basteln? Ich kann mir nicht vorstellen, das ATI nochmal nen R300 bringt, irgendwann müssen sie ja eine SM 3.0 Architektur bringen, vor allem im nächsten Jahre denke ich, dass es Spiele geben wird die von SM3.0 sehr profitiern werden und wenn sie jetzt nochmal nur SM2.0 bringen, werden sie sicherlich von der Marketing Abteilung von NV ausgeschlachtet. Haben sie soviele anderen Projekte laufen oder warum wird sowas überhaupt vermutet(kein SM3)?

Schon mal daran gedacht, das Sie einen "echten" r500 abkömmling vielleicht durch einen "Knebelvertrag" mit M$ nicht bringen "dürfen".

Damit M$ was exclusives und "einzigartiges" für seine Konsole hat.....

Oder Sie zumindest bis zum XBox2 Launch (der ja erst Ende nächsten Jahres sein wird), durch diesen Vertrag, mit dem Launch eines "ebenbürtigen" PC-Desktop-Chips warten müssen.

(Und der r600 für den Desktop dann im Prinzip nichts anderes als der r500 für PCs wird?? (vielleicht dann noch leicht verbessert und auf vollständiges WGF2 gebracht))

ShadowXX
2004-12-08, 23:02:24
Wenn die Bandbreite reicht kann das durchaus schnell sein.

Könnte man dies nur durch eDRam erreichen oder gäbe es da auch andere möglichkeiten?

reunion
2004-12-08, 23:05:41
Schon mal daran gedacht, das Sie einen "echten" r500 abkömmling vielleicht durch einen "Knebelvertrag" mit M$ nicht bringen "dürfen".

Damit M$ was exclusives und "einzigartiges" für seine Konsole hat.....

Oder Sie zumindest bis zum XBox2 Launch (der ja erst Ende nächsten Jahres sein wird), durch diesen Vertrag, mit dem Launch eines "ebenbürtigen" PC-Desktop-Chips warten müssen.

(Und der r600 für den Desktop dann im Prinzip nichts anderes als der r500 für PCs wird?? (vielleicht dann noch leicht verbessert und auf vollständiges WGF2 gebracht))


Ich kann mir nicht vorstellen das ATi so dumm ist und so einen Vertrag unterschreiben würde.
Es ergibt einfach keinen Sinn, man hat mit R500 die technologie warum sollte man diese nicht nützten?
Besonders wo man ja jetzt schon der konkurrenz featuremäßig unterliegt, ein R520 ohne "echten" SM3.0 wäre dummer selbstmord.

Godmode
2004-12-08, 23:28:42
Kann ich mir auch nicht vorstellen, dann hätten sie ja den doppelten Aufwand! Andererseits wenn man zurückblickt was MS mit Bungie(HALO) gemacht hat könnte es durchaus sein, aber trotzdem unwahrscheinlich

IVN
2004-12-08, 23:31:48
Ich kann mir nicht vorstellen das ATi so dumm ist und so einen Vertrag unterschreiben würde.
Es ergibt einfach keinen Sinn, man hat mit R500 die technologie warum sollte man diese nicht nützten?
Besonders wo man ja jetzt schon der konkurrenz featuremäßig unterliegt, ein R520 ohne "echten" SM3.0 wäre dummer selbstmord.

Maybe the development of this Xbox2 GPU is taking to many resources,and there is not enough man power left for other projects.(r520)

P.S.Remember about nv,when they where working on the Xbox1 GPU.They also brought nv30 later to the market,and it was bad.

Godmode
2004-12-09, 00:27:40
Ok, könnte sein, aber die DX9 Spec hat da auch mitgespielt!

Ailuros
2004-12-09, 05:39:39
Wenn die Bandbreite reicht kann das durchaus schnell sein.

Dumme Frage: Eric murmelte was davon dass sie mit "varying tiles sizes per application yadda yadda" experimentieren; koennte da was vielleicht dahinterstecken dass helfen koennte? (fragt der naive Laie).

Ailuros
2004-12-09, 05:46:36
Würde sich ATI damit nicht selbst ein Ei legen? Viele Entwickler(denke ich mal) werden auf GF6800 umgestiegen sein, weil diese ja viele Features unterstützt, die in Zukunft wichtig werden. Wenn sei jetzt nochmal nur ne SM2 GPU bringen, wird später alles auf Nvidia Karten optimiert sein!!(NV30-R300) Oder bin ich da etwas abwegig?

Es geht ja nicht um reines SM2x; wir fragen uns hier nur ob es moeglich ist auf der Basis des R3xx/4xx Geruests einen SM3.0 chip herauszubringen. Falls das der Fall sein sollte und das Ding ist schnell genug, duerfte es eigentlich egal sein wie es realisiert wurde.

Ok das Ganze ist tatsaechlich zu wild spekuliert, aber ich kann aus dem hint dass R520 auf die Vorgaenger basiert nichts besseres machen. Man erwaehnte zwar dass die Aenderungen zwischen R520--> R420 und R420-->R300 groesser sind im ersten Fall, aber ein wahrer SM3.0 chip so wie ich ihn mir vorstellen kann, heisst dann eher ein chip mit fundamentalen Aenderungen.

Demirug
2004-12-09, 07:26:16
Dumme Frage: Eric murmelte was davon dass sie mit "varying tiles sizes per application yadda yadda" experimentieren; koennte da was vielleicht dahinterstecken dass helfen koennte? (fragt der naive Laie).

höchstens Indirekt. Es geht dabei darum das die Quads in einer Rheienfolge aus den Prozessoren fallen welche freundlich für den nachfolgenden Teil des Chips ist. Also die Kompressionseinheiten und das Speicherinterface. Die Pixelprozessoren arbeiten ja nur auf der Basis 1 Quad pro Takt aber die nachfolgenden Einheiten arbeiten mit grössere Blöcken.

seahawk
2004-12-09, 09:11:11
Vielleicht ist der XBox Chip auch einfach zu speziell, als das man mehr als einige Teile für das PC Line-up verwenden könnte.

Selle
2004-12-09, 18:57:33
Maybe the development of this Xbox2 GPU is taking to many resources,and there is not enough man power left for other projects.(r520)

P.S.Remember about nv,when they where working on the Xbox1 GPU.They also brought nv30 later to the market,and it was bad.

Wie du schon sagest, denke auch ich dass sich ATi etwas überschätzt hat (bzw die "Sache" unterschätzt) und zu viele Aufträge zur gleichen Zeit bearbeiten will (r500, r520, Nintendos NextGen-GPU)


Vielleicht ist der XBox Chip auch einfach zu speziell, als das man mehr als einige Teile für das PC Line-up verwenden könnte.


Das sollte eigentlich beantwortet sein -> eDRAM.

reunion
2004-12-09, 19:19:52
Das sollte eigentlich beantwortet sein -> eDRAM.

Nur weil R500 eDRAM hat bedeutet das nicht das man das ganze Design wegschmeißen muss.

Selle
2004-12-09, 20:11:45
Nur weil R500 eDRAM hat bedeutet das nicht das man das ganze Design wegschmeißen muss.

Das is ja richtig (wollt ich auch garnicht andeuten!) aber Seahawk sagte :

Vielleicht ist der XBox Chip auch einfach zu speziell, als das man mehr als einige Teile für das PC Line-up verwenden könnte.

Teile! Nicht alles Weg. Deshalb bezog ich mich auf eDRAM (Teile des Designs da fest integriert) Also können demzufolge nur die restlichen verbleibenden Teile "übernommen" werden (in welchen Maß ist eine andere Frage)

DrumDub
2004-12-09, 21:10:58
Teile! Nicht alles Weg. Deshalb bezog ich mich auf eDRAM (Teile des Designs da fest integriert) Also können demzufolge nur die restlichen verbleibenden Teile "übernommen" werden (in welchen Maß ist eine andere Frage)

wobei ich es bis jetzt so verstanden habe, dass r500 unified shader hat und r520 eben nicht. das ist schon ein großer unterschied.

Godmode
2004-12-09, 21:36:09
wobei ich es bis jetzt so verstanden habe, dass r500 unified shader hat und r520 eben nicht. das ist schon ein großer unterschied.

Könnte man eine Unified Shader Architektur unter DX9 überhaupt nützen? Könnte der Treiber das so regeln, das die VS und PS arbeiten dynamisch verteilt werden? Wenn das möglich wäre könnte ich mir einen vereinigten Shadercore durchaus vorstellen. Wobei ich aber trotzdem eher etwas pessimistisch bin und sage, dass wir sowas erst mit WGF bekommen.

Selle
2004-12-09, 21:46:00
wobei ich es bis jetzt so verstanden habe, dass r500 unified shader hat und r520 eben nicht. das ist schon ein großer unterschied.

Ist denk ich mal auch richtig, bloß müssen wir bedenken das die XBox2 noch eine Weile braucht und zudem auch wesentlich länger als ein PC mit vorhandener Hardware auskommen muss. Und da gibts ja immer die 1stGen-Games (bsp. Halo) und die 2ndGen-Games (bsp. Halo2) welche dann "nach und nach" die volle Featurepalette nutzen. Deshalb ist das für den r500 notwendig um auf lange Zeit "attraktiv" zu wirken.


Könnte man eine Unified Shader Architektur unter DX9 überhaupt nützen? Könnte der Treiber das so regeln, das die VS und PS arbeiten dynamisch verteilt werden? Wenn das möglich wäre könnte ich mir einen vereinigten Shadercore durchaus vorstellen. Wobei ich aber trotzdem eher etwas pessimistisch bin und sage, dass wir sowas erst mit WGF bekommen.


Da stimm ich dir zu, vor WGF lohnt sich das doch bestimmt nicht.
Obwohl das mit dem Balancing via Treiber durchaus eine möglichkeit wäre, fragt sich nur ob ATi genug Zeit hätte sowas ausreichend zu testen? (sollte doch bestimmt vergleichbar mit nV's SLI Treiberimplementierung [2 Jahre] sein) Davon mal abgesehen würden sie sich wohl der konkurenz offenbaren (selbst wenn es ein schlag in deren gesicht wäre), können sowas ja bestimmt nicht verschweigen (bis es ihrer meinung nach zeit ist dies preiszugeben)....Denk ich mal so :|

Demirug
2004-12-09, 21:56:24
Könnte man eine Unified Shader Architektur unter DX9 überhaupt nützen? Könnte der Treiber das so regeln, das die VS und PS arbeiten dynamisch verteilt werden? Wenn das möglich wäre könnte ich mir einen vereinigten Shadercore durchaus vorstellen. Wobei ich aber trotzdem eher etwas pessimistisch bin und sage, dass wir sowas erst mit WGF bekommen.

Das dynamische Verteilen muss der Chip schon selber machen. Deswegen baut man ja einheitliche Cores. Und mit DX9 Funktioniert das ganze natürlich auch noch oder willst du dir in Zukunft zwei Karten in den Rechner bauen?

Selle
2004-12-09, 22:01:12
Das dynamische Verteilen muss der Chip schon selber machen. Deswegen baut man ja einheitliche Cores. Und mit DX9 Funktioniert das ganze natürlich auch noch oder willst du dir in Zukunft zwei Karten in den Rechner bauen?


Das versteh ich nicht, inwiefern 2 Karten?
EIne mit Pixel- und die ander mit Vertexshader?

Black-Scorpion
2004-12-09, 22:09:03
Das versteh ich nicht, inwiefern 2 Karten?
EIne mit Pixel- und die ander mit Vertexshader?
Wegen Longhorn.

WGF1 = DX9 (PS und VS getrennt)
WGF2 = DX Next (Unified Shader Architektur) - Longhorn

Ich hoffe das stimmt so.

Selle
2004-12-09, 22:17:08
Wegen Longhorn.

WGF1 = DX9 (PS und VS getrennt)
WGF2 = DX Next (Unified Shader Architektur) - Longhorn

Ich hoffe das stimmt so.


Ist zwar lieb genmeint aber glaub nicht dass das so stimmt. DX bzw. WGF ist doch abwärtskompatibel, wenn du eine WGF2-Karte hast kann diese auch WGF1.

Demirug
2004-12-09, 22:24:06
Ist zwar lieb genmeint aber glaub nicht dass das so stimmt. DX bzw. WGF ist doch abwärtskompatibel, wenn du eine WGF2-Karte hast kann diese auch WGF1.

Genau und deswegen muss man zwangsläufig auch eine DX9 Karte mit vereinten Shadercores bauen können.

Gast
2004-12-09, 22:39:15
Das dynamische Verteilen muss der Chip schon selber machen. Deswegen baut man ja einheitliche Cores. Und mit DX9 Funktioniert das ganze natürlich auch noch oder willst du dir in Zukunft zwei Karten in den Rechner bauen?

Hä,

gibt doch SLI !!! Warum jetzt aufeinmal nicht mehr so dolle????

Demi, kläre mich auf!
;)

Godmode
2004-12-09, 22:42:25
Genau und deswegen muss man zwangsläufig auch eine DX9 Karte mit vereinten Shadercores bauen können.

Wär ja nicht schlecht wenn die kommenden GPUs das schon beherrschen würden, dann bräuchte man auch keine Überzahl an VS Units mehr, die dann sowiso meinstens nicht ausgelastet sind.

Allerdings denke ich, dass sich die Effizienz solcher Allzweck Unit gegenüber ner einzelen PS/VS Unit veringern würde, den ein Allrounder ist fast immer langsamer als ein Spezialist!!

Demirug
2004-12-09, 22:47:18
Hä,

gibt doch SLI !!! Warum jetzt aufeinmal nicht mehr so dolle????

Demi, kläre mich auf!
;)

Damit war eine Karte für DX9 und eine für WGF gemeint.

Demirug
2004-12-09, 22:49:12
Wär ja nicht schlecht wenn die kommenden GPUs das schon beherrschen würden, dann bräuchte man auch keine Überzahl an VS Units mehr, die dann sowiso meinstens nicht ausgelastet sind.

Allerdings denke ich, dass sich die Effizienz solcher Allzweck Unit gegenüber ner einzelen PS/VS Unit veringern würde, den ein Allrounder ist fast immer langsamer als ein Spezialist!!

Der Gesamtwirkungsgrad sollte sogar höher sein. Heute bekommt man ja die VS und PS nie perfekt ausgelastet weil immer eine der beiden Seiten blockiert.

Rampage 2
2004-12-09, 22:52:02
24 pipes für NV47? Das würde bedeuten, dass 2 Quads deaktiviert sind...

Also das ist doch Schwachsinn, warum nicht gleich 32 pipes nehnen? 24 sind einfach 'unschön' :kotz:

32 pipes und 400MHz Speichertakt -> 12.8Gpixel mit 0.09um ist doch realistisch, oder! Weniger würde eh nichts bringen, weil der Unterschied zu klein waere... (also mind. 350 muss sein!)

reunion
2004-12-09, 22:54:54
24 pipes für NV47? Das würde bedeuten, dass 2 Quads deaktiviert sind...


Nein, eigentlich nicht.

Also das ist doch Schwachsinn, warum nicht gleich 32 pipes nehnen? 24 sind einfach 'unschön' :kotz:


Vielleicht weil 32 ein bisschen "viel" sind?
Das würde zum einen die Transistorenanzahl wohl auf knapp an die 400mio anheben und zum anderen wäre die Bandbreite nicht da

druGGy
2004-12-09, 23:04:41
Wenn wir schon von Bandbreite sprechen.
Bräuchte man für eine 6 Quad Karte nicht ein neues Speicherinterface z.B
384 Bit, da ich mir nicht vorstellen kann, dass man den Ram so hochtakten kann. Die Bandbreite wird ja schon bei den heutigen 16 Pipern knapp.

druGGy

Godmode
2004-12-09, 23:37:03
Wenn wir schon von Bandbreite sprechen.
Bräuchte man für eine 6 Quad Karte nicht ein neues Speicherinterface z.B
384 Bit, da ich mir nicht vorstellen kann, dass man den Ram so hochtakten kann. Die Bandbreite wird ja schon bei den heutigen 16 Pipern knapp.

druGGy

Ich warte immer noch auf die 800 MHz GDDR3 Rams die sie mal angekündigt haben!!

druGGy
2004-12-09, 23:52:56
Die Frage ist doch was teurer ist; ein 384 bittiges Interface oder 800 MHz GDDR3 Ram. Ich tippe auf ersteres wobei gerade das die zwar teurere aber bessere Lösung darstellt.

druGGy

Godmode
2004-12-10, 00:01:26
Ich weiß nicht inwieweit man die Kompressions-Algorithmen noch verbessern könnte, um noch mehr Speicherbandbreite zu sparen. Ich denke mal dass sie eher 800 MHz RAMs verbauen als auf 384 Bit zu setzten, weil billiger. Mit 24 Pipes könnte ichs mir noch vorstellen mit 256bit @ 800 MHz aber mit 32 denke ich ist Schluss mit 256bit Speicherinterface

Gast
2004-12-10, 00:05:03
El0

meint ihr echt die bring eine 24 pipes ?
ich dachte man könnt die jetzige shader leistung verdoppeln einfach?
also in form von optimirung oder so ? kenn ich da net gut aus
ob sowas möglich ist.

Godmode
2004-12-10, 00:25:25
Es wird sicherlich noch einiges geben was noch etwas optimiert werden kann, aber die doppelte Performance wird man damit nicht mehr erreichen können. Bei NV wird man den Shadercompiler noch verbessern können.

Ich weiß nicht ob ne 24 Pipe Version kommen wird, aber es könnte sein. Beim R520 könnte es schon sein, dass er keine Pipes mehr hat sondern ein Array aus Recheneinheiten oder sowas ähnliches. Beim NV47 denke ich, werden die selben Pipes wie schon beim NV40 zum Einsatz kommen, vielleicht mit ein paar kleineren Tunings

DrumDub
2004-12-10, 11:42:00
El0

meint ihr echt die bring eine 24 pipes ?
ich dachte man könnt die jetzige shader leistung verdoppeln einfach?
also in form von optimirung oder so ? kenn ich da net gut aus
ob sowas möglich ist.

die shaderleistung ist ja auch nicht problematisch beim nv40. ein bisschen mehr füllrate könnte die gpu aber schon haben. und da kommen 24pipes gerade richtig.

seahawk
2004-12-10, 12:22:18
Wobei es langsam alles Sinn macht.

NV48 als reines Speedupdate gecancelt, weil der R480 zu schwach war
NV47 als Gegner zum R520, beide SM3.0 und 24 Pipes

Godmode
2004-12-10, 14:27:28
Wobei es langsam alles Sinn macht.

NV48 als reines Speedupdate gecancelt, weil der R480 zu schwach war
NV47 als Gegner zum R520, beide SM3.0 und 24 Pipes


Und wie schauts mit dem Takt aus? In 90 nm mit 24 Pipes können wird da mehr Takt erwarten als jetzt? und hat ATI wieder Low-K Prozess?

Selle
2004-12-10, 14:40:15
Es wird sicherlich noch einiges geben was noch etwas optimiert werden kann, aber die doppelte Performance wird man damit nicht mehr erreichen können. Bei NV wird man den Shadercompiler noch verbessern können.

Ich weiß nicht ob ne 24 Pipe Version kommen wird, aber es könnte sein. Beim R520 könnte es schon sein, dass er keine Pipes mehr hat sondern ein Array aus Recheneinheiten oder sowas ähnliches. Beim NV47 denke ich, werden die selben Pipes wie schon beim NV40 zum Einsatz kommen, vielleicht mit ein paar kleineren Tunings

Bezüglich der Piplines hat die 6600 doch auch schon "verbesserte", oder? Hab ich damals glaube gelesen. Und sowas wirds dann auch under anderem sein :rolleyes:


Und wie schauts mit dem Takt aus? In 90 nm mit 24 Pipes können wird da mehr Takt erwarten als jetzt? und hat ATI wieder Low-K Prozess?

In 90nm hat ATi wieder "Low-K" (soweit ich weiß)
Selbst wenn der Takt anfangs bleibt wie bei der X800/850 bleibt immer noch spielraum und außerdem wieder SingleSlot. (bei nVidia zweifel ich dran das eine HighEnd je wieder SingleSlot-Kühlung hat :biggrin: )

q@h
2004-12-10, 14:47:02
Der Gesamtwirkungsgrad sollte sogar höher sein. Heute bekommt man ja die VS und PS nie perfekt ausgelastet weil immer eine der beiden Seiten blockiert.
Der Treiber oder wer auch immer die Verteilung bestimmt, müßte dann aber auf Vorhersagen zurückgreifen oder eben nur reagieren, anstatt zu agieren.
Wäre das nicht ziemlich aufwändig?

Demirug
2004-12-10, 14:54:36
Der Treiber oder wer auch immer die Verteilung bestimmt, müßte dann aber auf Vorhersagen zurückgreifen oder eben nur reagieren, anstatt zu agieren.
Wäre das nicht ziemlich aufwändig?

Der Chip muss das alleine machen und da muss nicht viel vorhergesagt werden. Das macht man abhängig von den Füllständen der Zwischenspeicher.

ShadowXX
2004-12-10, 14:55:04
Der Treiber oder wer auch immer die Verteilung bestimmt, müßte dann aber auf Vorhersagen zurückgreifen oder eben nur reagieren, anstatt zu agieren.
Wäre das nicht ziemlich aufwändig?

Kommt das dann nicht darauf an, ob man den "Einheiten" vorher sagen muss, als was Sie agieren sollen???

Wenn man das nämlich nicht muss, sondern Sie sich "Automatisch" darauf einstellen, als was Sie agieren sollen (was ja im Prinzip sowieso gegeben sein müsste), fällt doch der Treiber-Overhead weg...

Prinzipiel müsste dann nur jede Unit in moment der Benutzung "melden" als was Sie denn gerade Funktioniert...(und das auch nur der Contollogik der GPU selbst).

P.S.
sehe gerade das Demi das schon beantwortet hat und dazu noch erklärt wies funktioniert....

[ncp]EasyChiller
2004-12-10, 15:27:08
Selbst wenn der Takt anfangs bleibt wie bei der X800/850 bleibt immer noch spielraum und außerdem wieder SingleSlot. (bei nVidia zweifel ich dran das eine HighEnd je wieder SingleSlot-Kühlung hat :biggrin: )


Das ist doch sowas von WURSCHT! :biggrin:
Mal ehrlich: Wer die Kohle für so ne Kartehat .. hat auch die Kohle für ne kleine Wakü .. und da gibbs doch genug Kühler, die mal ganz locker mit solchen Karten fertig werden und nur ne Single-Slot-Kühllösung sind! :P

Und weiter, was willste auf nem PCIe-Mainboard momentan mit den beiden 1x-PCIe-Slots anfangen? :| (welche IMHO meist neben dem 16x-Slot liegen)
Falls de jetzt mit SLI oder so kommst .. und dann ja schon effektiv mit 2 dual-slot-karten 4 Slots belegt sind ... siehe wieder wakü .. umso mehr! ;D

Ach .. und alle die gegen dual-slot-kühlung wettern: WAS bitte habt ihr denn für 351 Karten in eurem System?! .. ich hab momentan nur ne TV-Karte, nen SCSI-Controler und das wars auch schon. .. vorstellen könnt ich mir noch (wenn ich net SS onboard hätte) .. ne hochwertige Soundkarte. Aber dann hörts auch schon auf .. die neuen Boards (welche ma ja für PCIe benötigt) haben doch nahezu alles was ma so im Home-Bereich benötigt onboard .. und im Server- / Workstation-Bereich gibbs genug Boards mit genügend Slots, wo ma seine Erweiterungskarten neinstoppen kann! :biggrin:


Das "Hilfe .. ne Dual-Sot-Kühlung" geht mir langsam hier in dem Forum auf den Kranz ... meinetwegen können die auch ne 3'er-Slot-Kühlung draufpacken .. wenns schön gemacht ist! :tongue:

Falls es in diesem Forum auch nur EINEN gibt (egal ob ATI oder NVDA-User), bei denem die Dual-Slot-Kühlung hinderlich ist bitte Hand heben.

Die einzigen, die ein Problem mit haben könnten sind die armen XPC-User. Aber wer sich so nen Ding kauft muss von vorneherein mit der geringeren Erweiterbarkeit calculieren ... und selbst dort gibt es immer noch die Möglichkeit einer externen (oder mit viel Liebe und Bastelarbeit auch internen) Single-Slot-WaKü! :cool: (schon selbst gesehen! )

Godmode
2004-12-10, 15:46:48
In 90nm hat ATi wieder "Low-K" (soweit ich weiß)


Und wie schauts bei Nvidia aus?

reunion
2004-12-10, 16:58:42
Und wie schauts bei Nvidia aus?

Noch nichts bekannt über den fertigungsprozess. Bietet IBm überhaupt lowk an?

seahawk
2004-12-10, 17:00:15
IBM hat kein low-k, sie benutzen eine andere Lösung

tobu4
2004-12-10, 17:04:14
IBM hat kein low-k, sie benutzen eine andere Lösung
Und wie schauts aus mit SOI?

seahawk
2004-12-10, 17:10:54
wie ich gerade nachgesehen habe hat IBM SOI und arbeitet an low-k

Gast
2004-12-10, 17:24:16
Ab wann wäre denn mit den neuen Karten im Laden zu rechnen? Weil wenn die Anfang nächsten jahres kommen würden, würde ich wegen dem Preisverfall der Alten noch etwas warten.

Godmode
2004-12-10, 17:29:02
Naja hast ja gesehn wie es dieses Jahr ausgesehn hat, April und Mai die Vorstellung und jetzt noch immer keine Flächendeckende Verfügbarkeit.

Wenn Nvidia wieder keine Low-K Technik für ihren Chip verwerdet, und ATI aber schon, denke ich mal,dass es wieder genau so aussehn wird wie jetzt. ATI wieder etwas vorne!

MechWOLLIer
2004-12-10, 17:35:28
Wenn Nvidia wieder keine Low-K Technik für ihren Chip verwerdet, und ATI aber schon, denke ich mal,dass es wieder genau so aussehn wird wie jetzt. ATI wieder etwas vorne!
So direkt kann man das imo nicht sagen. Es ist ja nicht so, als ob IBM keine Tricks diesbezüglich auf Lager hätte.
Und ich vermute, wenn der R520 komplexer als der NV40 wird(warscheinlich imo), dass es mit den extremen Taktraten vorbei sein wird.

seahawk
2004-12-10, 18:09:10
Auf jeden Fall werden beide bei der Menge der Transistoren enger zusammenliegen. Dadurch dürfte der Unterschied geringer sein.

Wenn man sieht, dass NV bei 220 Millionen Transistoren immer noch 80% des Taktes von ATI schafft, die aber nur 70% der Transistoren haben, dann ist es imho auch ohne low-k eine durchasu vergleichbare Leistung. Und IBM arbeitet an low-k.

Dancer
2004-12-10, 19:36:33
Nvidia setzt bei seinem NV4x Chips bei IBM SOI ein. Wurde vorgestern auf einer Analystenkonferenz nochmal bestätigt.

Ich sehe keine Fertigungsnachteile für den ein oder anderen. Derzeit sehe ich allerdings, dass Nvidia im Bereich der Fertigung besser gearbeitet hat.
Viel mehr Transistoren an Board durch alle Produkte hindurch der neuen Generation und trozdem absolut gleichwertig und bei wichtigen Preispunkten sogar besser und das mit absolut agressivem Pricing und vor allem Verfügbarkeit.
Niemand hätte vorher geglaubt, dass Nvidia so krank ist und 220 Mio Transistoren auf den DIE packt und trozdem ist eine GF6800GT für einen super Preis möglich geworden. ATI hat da eigentlich nur Probleme gehabt. Das einzige Produkt das wirklich verfügbar war so nach und nach war die langsamere und mit sehr viel weniger Transistoren ausgestattete X800pro.
Im Mainstreamsegment sieht es ähnlich aus.
GF6600GT verfügbar trotz mehr Transistoren und von der X700XT nichts zu sehen ausser dem Paperlaunch und den Gerüchten über eine Einstellung des Produkts bevor es überhaupt im Laden war.
Das sagt imho alles momentan.

Godmode
2004-12-10, 19:41:55
Es wäre echt mal eine Statistik interessant, wo man sieht wieviele neue Karten mit Radeon Xxxx Geforce 6xxx verkauft worden sind!! Man hört ja immer wieder von beiden, dass ihre Produkte reißenden Absatz haben, aber wieviel letztendlich verkauft worden sind, weis niemand so recht!

Dancer
2004-12-10, 21:06:58
Es wäre echt mal eine Statistik interessant, wo man sieht wieviele neue Karten mit Radeon Xxxx Geforce 6xxx verkauft worden sind!! Man hört ja immer wieder von beiden, dass ihre Produkte reißenden Absatz haben, aber wieviel letztendlich verkauft worden sind, weis niemand so recht!

Derzeit würde ich auch ohne Statisitik davon ausgehen, dass Nvidia einfach mehr verkauft hat von den neuen Produkten. Dort ist einfach viel mehr Auswahl auf beiden Plattformen und auch viel mehr Produkte durch die Preiskategorien hindurch. Ich denke erste Statistiken die wirklich aussagekräftig bzgl. der neuen Produkte sind wirst erst im Laufe des 1. Quartals bekommen.
ATI hat sich meiner Meinung nach in 2 Segmenten übernommen, was in NIchtverfügbarkeit endet -> X800XT-PE und X700XT und mit der X800pro zu wenig geboten um mit der GF6800GT konkurieren zu können.
2. Fehler war der zu späte Sprung auf den BridgeChip Zug. Bei ATI ist ganz offensichtlich, dass sie mit einer schnelleren PCI-E Adaption gerechnet haben.
Das macht sich jetzt ganz deutlich bemerkbar. Musst nur mal nach ATI AGP Produkten der neuen Generation suchen.

Godmode
2004-12-10, 21:37:38
Ich kann mich noch gut an das ATI Marketing erinnern, wie sie Nvidia wegen dem Bridge fertig gemacht haben, aber anscheinden waren sie da etwas zu voreilig. Aber andererseits wars auch irgendwie logisch das sich PCIe nicht innerhalb von einem halben Jahr durchsetzen wird!!

ShadowXX
2004-12-10, 21:46:01
Ich kann mich noch gut an das ATI Marketing erinnern, wie sie Nvidia wegen dem Bridge fertig gemacht haben, aber anscheinden waren sie da etwas zu voreilig. Aber andererseits wars auch irgendwie logisch das sich PCIe nicht innerhalb von einem halben Jahr durchsetzen wird!!

Ja......wie Ati damals auf die Idee gekommen ist, das sich PCI-E extrem schnell verbreiten wird, möchte ich auch gerne wissen...

Die ATI-Prognosen darüber haben mich damals schon gewundert....SIe waren aber wohl auch nicht die einzigen, die sich in diesem Punkt geirrt haben.

Auch bei DDR2 wird momentan die Produktion zurückgefahren, da sich weit weniger die dazugehörigen Boards kaufen als angenommen.

Es scheint fast so, als wenn alle Intels Marktmacht (DDR2 und PCI-E kaumen ja deutlich zuerst von Ihnen und wurden auch im Prinzip nur von Intel auf Teufel komm raus propagiert) überschätzt haben....

Ich möchte nicht wissen, wieviele Köpfe schon in den Meinungsforschungsinstituten (und wer sonst noch so alles für solche Prognosen zuständig ist) durch unzufriedene Kunden gerollt sind ;D

reunion
2004-12-10, 22:46:57
Viel mehr Transistoren an Board durch alle Produkte hindurch der neuen Generation und trozdem absolut gleichwertig und bei wichtigen Preispunkten sogar besser und das mit absolut agressivem Pricing und vor allem Verfügbarkeit.
Niemand hätte vorher geglaubt, dass Nvidia so krank ist und 220 Mio Transistoren auf den DIE packt und trozdem ist eine GF6800GT für einen super Preis möglich geworden. ATI hat da eigentlich nur Probleme gehabt. Das einzige Produkt das wirklich verfügbar war so nach und nach war die langsamere und mit sehr viel weniger Transistoren ausgestattete X800pro.
Im Mainstreamsegment sieht es ähnlich aus.
GF6600GT verfügbar trotz mehr Transistoren und von der X700XT nichts zu sehen ausser dem Paperlaunch und den Gerüchten über eine Einstellung des Produkts bevor es überhaupt im Laden war.
Das sagt imho alles momentan.

Naja, so kann man das auch nicht stehen lassen, denn die neuen NV High End Produkte sind auch nicht wirklich besser verfügbar, speziell im PCIe Segment sieht man von Nv im Moment kaum was.

Godmode
2004-12-10, 22:53:24
Naja, so kann man das auch nicht stehen lassen, denn die neuen NV High End Produkte sind auch nicht wirklich besser verfügbar, speziell im PCIe Segment sieht man von Nv im Moment kaum was.

Hat ATI nicht mal was gelabert, dass sie schon 1M PCIe Chips verkauft haben?

Crushinator
2004-12-10, 23:34:48
Falls hier Beiträge verschwinden, liegt es daran, daß die Moderation das Hausrecht gegen gebannte User ausübt.

DrumDub
2004-12-10, 23:47:26
Hat ATI nicht mal was gelabert, dass sie schon 1M PCIe Chips verkauft haben?

ja. siehe: http://www.extremetech.com/article2/0,1558,1635870,00.asp

dürften in erster linie x300 für dell sein.

immerhin haben sie im letzten quartal über 491,5 mill. dollar umsatz gemacht:
http://www.ati.com/companyinfo/ir/2004/atiq304.pdf

edit: umsatz statt gewinn. *schäm* englisch ist schon ne schwierige sprache. :ugly:

Godmode
2004-12-10, 23:51:13
ja. siehe: http://www.extremetech.com/article2/0,1558,1635870,00.asp

dürften in erster linie x300 für dell sein.

immerhin haben sie im letzten quartal über 491,5 mill. dollar gewinn gemacht:
http://www.ati.com/companyinfo/ir/2004/atiq304.pdf

he?? sollte das nicht eher umsatz sein?

Crushinator
2004-12-10, 23:52:02
(...) immerhin haben sie im letzten quartal über 491,5 mill. dollar gewinn gemacht (...) Du meinst Umsatz, denn der Gewinn beträgt laut der PDF nur 48,6 Millionen. Wäre auch einwenig zu viel des Guten. ;)

[€dit]
Ich bin mir auch relativ sicher, daß Du mit letztem Quartal den Q4 meintest. Dann wäre die richtige URL aber diese (http://www.ati.com/companyinfo/ir/2004/atiq404.pdf) hier, während der Umsatz dann bei 572,2 Millionnen $ und der Gewinn wiederum 61,2 Millionen läge.

robbitop
2004-12-11, 09:22:07
1. NV43 besitzt eine leicht verbesserte Crossbarlogik. Die wird mit Sicherheit im NV47 enthalten sein. So viel Unterschied machts allerdings nicht.
2. NV47 wäre sollten es 6 Quads sein nur in 90nm realisierbar
3. natürlich hat IBM lowk. Nur nutzt man nicht black diamond als Dielectricum.
4. 90nm gibt es gar nicht mehr ohne LowK.

ShadowXX
2004-12-11, 10:49:09
1. NV43 besitzt eine leicht verbesserte Crossbarlogik. Die wird mit Sicherheit im NV47 enthalten sein. So viel Unterschied machts allerdings nicht.
2. NV47 wäre sollten es 6 Quads sein nur in 90nm realisierbar
3. natürlich hat IBM lowk. Nur nutzt man nicht black diamond als Dielectricum.
4. 90nm gibt es gar nicht mehr ohne LowK.

Dazu wirds wohl den vollständig funktionierenden VideoProzessor geben (der soll beim nv43 ja im gegensatz zum nv40 vollständig funktionieren)

Godmode
2004-12-11, 11:28:00
Dazu wirds wohl den vollständig funktionierenden VideoProzessor geben (der soll beim nv43 ja im gegensatz zum nv40 vollständig funktionieren)

Ich hoffe noch immer, das er mit dem TrueVideo Treiber zum funktionieren gebracht wird!!

druGGy
2004-12-11, 12:32:39
Hallo

Das mit dem VP könnt ihr euch glaub ich abschminken. Meiner Meinung nach ist selbst der NV40-VP voll funktionsfähig. Das wird umsodeutlicher wenn man sich den NV43 AGP anschaut, bei dem der VP aus welchen Gründen auch immer auch nicht funktioniert. Anscheinend hängt es mit der Anbindung zusammer.

PCIe= VP funzt
AGP= VP (teilweise) kaputt :frown:

druGGy

robbitop
2004-12-11, 13:28:04
Dazu wirds wohl den vollständig funktionierenden VideoProzessor geben (der soll beim nv43 ja im gegensatz zum nv40 vollständig funktionieren)

Ich persönlich glaube nicht, dass der VP defekt ist. Die Ursache liegt IMO am Grafikinterface. Die NV43AGP aus einem 3dc Usertest zeigte dieselben Symptome bei Nutzung des VP wie der NV40. Hohe CPU Last.
Die NV43 PCI-E scheint per default diesen Nutzen zu können.
Der NV45 hingegen ist nur ein NV40 +HSI (wäre dem nicht so, so hätte man das Interface in den NV45 Core integriert).
Beim NV45 funktioniert der VP.

Warum das so ist, weiß ich nicht.

ShadowXX
2004-12-11, 13:37:48
Ich persönlich glaube nicht, dass der VP defekt ist. Die Ursache liegt IMO am Grafikinterface. Die NV43AGP aus einem 3dc Usertest zeigte dieselben Symptome bei Nutzung des VP wie der NV40. Hohe CPU Last.
Die NV43 PCI-E scheint per default diesen Nutzen zu können.
Der NV45 hingegen ist nur ein NV40 +HSI (wäre dem nicht so, so hätte man das Interface in den NV45 Core integriert).
Beim NV45 funktioniert der VP.

Warum das so ist, weiß ich nicht.

Letzteres wußte ich nicht....hmmmm, das ist in der Tat merkwürdig.

Naja...vielleicht bringt ja dieses neue "ominöse" MultiMedia-"Wundertreiber" etwas mehr Licht ins Dunkle.

Godmode
2004-12-11, 14:18:32
Der NV45 hingegen ist nur ein NV40 +HSI (wäre dem nicht so, so hätte man das Interface in den NV45 Core integriert).
Beim NV45 funktioniert der VP.


Das ist aber interessant, könnte das vielleicht mit dem etwas zu tun haben, weil AGP nicht Full Duplex ist?

Selle
2004-12-11, 15:12:05
EasyChiller']Das ist doch sowas von WURSCHT! :biggrin:
Mal ehrlich: Wer die Kohle für so ne Kartehat .. hat auch die Kohle für ne kleine Wakü .. und da gibbs doch genug Kühler, die mal ganz locker mit solchen Karten fertig werden und nur ne Single-Slot-Kühllösung sind! :P

Und weiter, was willste auf nem PCIe-Mainboard momentan mit den beiden 1x-PCIe-Slots anfangen? :| (welche IMHO meist neben dem 16x-Slot liegen)
Falls de jetzt mit SLI oder so kommst .. und dann ja schon effektiv mit 2 dual-slot-karten 4 Slots belegt sind ... siehe wieder wakü .. umso mehr! ;D

Ach .. und alle die gegen dual-slot-kühlung wettern: WAS bitte habt ihr denn für 351 Karten in eurem System?! .. ich hab momentan nur ne TV-Karte, nen SCSI-Controler und das wars auch schon. .. vorstellen könnt ich mir noch (wenn ich net SS onboard hätte) .. ne hochwertige Soundkarte. Aber dann hörts auch schon auf .. die neuen Boards (welche ma ja für PCIe benötigt) haben doch nahezu alles was ma so im Home-Bereich benötigt onboard .. und im Server- / Workstation-Bereich gibbs genug Boards mit genügend Slots, wo ma seine Erweiterungskarten neinstoppen kann! :biggrin:


Das "Hilfe .. ne Dual-Sot-Kühlung" geht mir langsam hier in dem Forum auf den Kranz ... meinetwegen können die auch ne 3'er-Slot-Kühlung draufpacken .. wenns schön gemacht ist! :tongue:

Falls es in diesem Forum auch nur EINEN gibt (egal ob ATI oder NVDA-User), bei denem die Dual-Slot-Kühlung hinderlich ist bitte Hand heben.

Die einzigen, die ein Problem mit haben könnten sind die armen XPC-User. Aber wer sich so nen Ding kauft muss von vorneherein mit der geringeren Erweiterbarkeit calculieren ... und selbst dort gibt es immer noch die Möglichkeit einer externen (oder mit viel Liebe und Bastelarbeit auch internen) Single-Slot-WaKü! :cool: (schon selbst gesehen! )

Nana, das wollt ich doch garnicht damit sagen! Mich interessierts nicht ob Dual oder Single (meine FX ist auch Dual :tongue: ) Stört mich kein bisschen! Höchstens die breite Blende ist nervig (WaKü ist ja nurnoch SingleSlot und mit der Blende passt trotzdem nix in Slot 2 :mad: )


Ich kann mich noch gut an das ATI Marketing erinnern, wie sie Nvidia wegen dem Bridge fertig gemacht haben, aber anscheinden waren sie da etwas zu voreilig. Aber andererseits wars auch irgendwie logisch das sich PCIe nicht innerhalb von einem halben Jahr durchsetzen wird!!


Ist doch klar -> P4 + DDR2 = PCI-EXP = Preis-Leistung ist sehr mies
Gibt ja erst jetzt mit dem nForce4 ein AMD Board inkl. PCI-EXP.
Und wie wir wissen sind AMDs eh beliebter, so wundert es mich nicht das PCI-EXP schlecht verkauft ist (mal abgesehen von Artikel die belegen das es keinen Vorteil bringt[Heute!], sowie die DDR2 vs. DDR1 Vergleiche)

MechWOLLIer
2004-12-11, 15:12:18
Letzteres wußte ich nicht....hmmmm, das ist in der Tat merkwürdig.

Generell würde ich das nicht sagen.
Soweit ich das in Erinnerung hatte, funktionierte nur bei den X-Bitlabs der VP auf einem NV45.

druGGy
2004-12-11, 15:38:30
Generell würde ich das nicht sagen.
Soweit ich das in Erinnerung hatte, funktionierte nur bei den X-Bitlabs der VP auf einem NV45.

War das ein NV45 AGP mit Bridgechip oder ein NV45 mit nativem PCIe support.
Wenn es das letztere ist, ist für die Sache klar.

AGP = keine HDTV Beschleunigung. :(

druGGy

seahawk
2004-12-11, 18:32:08
NV45 ist ein NV40 mit Bridgechip im Package

Godmode
2004-12-11, 19:49:34
IIRC gibt es den NV45 auch mit nativem PCIe Interface(6800GT)

MechWOLLIer
2004-12-11, 20:03:58
IIRC gibt es den NV45 auch mit nativem PCIe Interface(6800GT)
Stimmt, soweit ich weiß, gibt es ihn quasi zweimal.
Die ersten Karten waren eine 6800 für AGP + Bridgechip und ein paar, wenige getestete Karten hatten dann natives PCI-E. Imo sollen so die Karten auch in den Handel kommen.

reunion
2004-12-11, 21:09:41
Stimmt, soweit ich weiß, gibt es ihn quasi zweimal.
Die ersten Karten waren eine 6800 für AGP + Bridgechip und ein paar, wenige getestete Karten hatten dann natives PCI-E. Imo sollen so die Karten auch in den Handel kommen.

Nein, NV40 gibt es AFIAK nicht in nativer PCIe Ausführung.
Der Bridgechip ist allerdings neben dem DIE direkt unter dem Kühler montiert, sodass man ihn "von außen" nicht sehen kann.

reunion
2004-12-16, 10:29:00
Nvidia's NV47 never existed

THE KNOWLEDGEABLE 3D community gathered at Beyond 3D forum has talked about the Nvidia chip codenamed NV47 for a while.
This chip is supposed to give "Fudo" R520 a run for its money. Those chaps suggested 24 pipelines, eight Vertex Shader units and suggested it's based on NV40 marchitecture with more shaders and pipes. Or something like that.

I have to disappoint you all as Nvidia never had such a chip. Nvidia never had anything codenamed NV47 and this chip never existed. Very learned sages with long grey beards close to Nvidia's plans confirm this.

Despite this, NV48 and NV50 are cancelled, leaving us clueless about Nvidia's future high end plans. So far.

We can confirm that Nvidia had an unusual amount of meetings in the last quarter, which indicates that the company made a huge turn. I guess Nvidia wants to recapture the numero uno place one more time. It’s all about pride – being a leader and not being a follower.

At this time we cannot even get a codename of Nvidia's next project nor any of the specs and timing. This will sure scare ATI as it doesn't know what it is supposed to fight in the future. R520 is against NVxx.

Nvidia is being incredible secretive about it. But presumably it has got a plan. µ


http://www.the-inquirer.net/?article=20250

seahawk
2004-12-16, 10:32:47
Oder Nvidia hat nichts. NV ist evtl. mit ihren Chips in eine Sackgasse gerannt und muss erstmal wieder zurück. Imho deutet vieles daraufhin, dass ATI auch 2005 den High-End Markt dominieren wird - evtl. noch deutlicher als zum GeForce FX Zeiten.

(zumindest wenn man dem Inq. glaubt)

robbitop
2004-12-16, 10:53:40
hm mit dem NV4x Design käme man die nächste Zeit eigentlich ganz gut aus. Das könnte man etwas verbessern und Duplizieren. In sofern kann es gar nicht so schlecht aussehen. ATi machte doch seit R300 auch nichts Anderes mehr. Aber vieleicht will NV ja mehr...

Gast
2004-12-16, 10:57:30
Oder Nvidia hat nichts. NV ist evtl. mit ihren Chips in eine Sackgasse gerannt und muss erstmal wieder zurück. Imho deutet vieles daraufhin, dass ATI auch 2005 den High-End Markt dominieren wird - evtl. noch deutlicher als zum GeForce FX Zeiten.

(zumindest wenn man dem Inq. glaubt)

Erleuchte uns mit den Hinweisen, bitte. Erkläre doch mal die Sackgasse wie du sie siehst.

seahawk
2004-12-16, 11:01:22
Der NV40/45 gegen eine R520 ?? Glaube ich nicht, dass sie da ohne SLI mithalten könnten.

Davon ausgehend, dass eine erhöhte Strukturbreite (24 Pipes aka NV47) nicht kommt.

Winter[Raven]
2004-12-16, 11:14:41
Oder Nvidia hat nichts. NV ist evtl. mit ihren Chips in eine Sackgasse gerannt und muss erstmal wieder zurück. Imho deutet vieles daraufhin, dass ATI auch 2005 den High-End Markt dominieren wird - evtl. noch deutlicher als zum GeForce FX Zeiten.

(zumindest wenn man dem Inq. glaubt)

Da würd ich mir nicht so die Sorgen machen, die NV4x Architektur bittet mehr als nötig Stellen die verbessert werden können und sollten.

Gast
2004-12-16, 11:30:18
Der NV40/45 gegen eine R520 ?? Glaube ich nicht, dass sie da ohne SLI mithalten könnten.

Davon ausgehend, dass eine erhöhte Strukturbreite (24 Pipes aka NV47) nicht kommt.

Und was spricht dagegen den NV40, mit entsprechenden Verbesserungen, genau wie den R520 in 90nm "neu" zu bringen? Ob damit dann auch eine Architekturverbreiterung kommt ist zwar unwahrscheinlich aber theoretisch denkbar.

SLI bleibt imho zumindest für 2005 eher ein Schmankerl am Rande, genau wie bei ATI.

deekey777
2004-12-16, 12:26:22
http://www.the-inquirer.net/?article=20250


"Despite this, NV48 and NV50 are cancelled, leaving us clueless about Nvidia's future high end plans."

Also nix mit "eingemottet" (canned).

Godmode
2004-12-16, 12:27:53
Oder Nvidia hat nichts. NV ist evtl. mit ihren Chips in eine Sackgasse gerannt und muss erstmal wieder zurück. Imho deutet vieles daraufhin, dass ATI auch 2005 den High-End Markt dominieren wird - evtl. noch deutlicher als zum GeForce FX Zeiten.

(zumindest wenn man dem Inq. glaubt)

Schlechter als zu FX Zeiten? Das ginge nur wenn sie nichts gegen den R520 haben? Vielleicht wollen sie wirklich mit SLI gegen diesen Chip ankämpfen, was ich aber nicht glaube. Ich denke :cop:FUAD:cop: hat wieder zuviel spekuliert.

robbitop
2004-12-16, 12:31:16
NV und ATI haben schon vor dem Launch der letzten Generation viele Fehlinfos gestreut, um Verwirrung zu stiften. Wenn ich schon lese, dass R520 "Fudo" heißen soll und das auch noch Leute glauben, lache ich mich kringelig.
Aber ich vergaß ...was TheInq sagt ist Gesetz :rolleyes:

Godmode
2004-12-16, 12:33:02
Und was spricht dagegen den NV40, mit entsprechenden Verbesserungen, genau wie den R520 in 90nm "neu" zu bringen? Ob damit dann auch eine Architekturverbreiterung kommt ist zwar unwahrscheinlich aber theoretisch denkbar.

SLI bleibt imho zumindest für 2005 eher ein Schmankerl am Rande, genau wie bei ATI.

Wir wissen zur Zeit eigentlich überhaupt nichts, was Nvidia plant oder am laufen hat! Gabs irgendwelche Tapeouts von Nvidia in der letzten Zeit, oder sind die jetzt auch geheim? Was hat eigentlich das Team gemacht, das auch den NV30 entwickelt hat?

Haben die jetzt 2 Jahre zugeguckt bei der NV40 Entwicklung?

Und ginge es überhaupt den NV40 der ja in 130nm designed wurde, jetzt einfach auf 90nm umzulgen?

Gast
2004-12-16, 12:34:33
Upps, ich darf ja nicht posten.

Godmode
2004-12-16, 12:36:09
http://www.the-inquirer.net/?article=20250


"Despite this, NV48 and NV50 are cancelled, leaving us clueless about Nvidia's future high end plans."

Also nix mit "eingemottet" (canned).

Hmm, ich glaube der versteht ja selber nicht wirklich was er da schreibt. Einmal canned dann wieder canceld. Ihr wißt ja noch sicherlich alle letztesmal mit dem NV40 der 170 MIO Transitoren haben sollte und dem NV40² der 220 hat. Ich schenke dem keinen glauben mehr, weil wir fast jedesmal irgendwelche falschen Informationen bekommen!

Limited
2004-12-16, 12:43:53
canned oder cancelled - ist doch das gleiche :smile:

einfach abwarten und Tee trinken, für ne konkrete Aussage wie es weitergeht, ist es wohl noch zu früh.

reunion
2004-12-16, 12:44:43
NV und ATI haben schon vor dem Launch der letzten Generation viele Fehlinfos gestreut, um Verwirrung zu stiften. Wenn ich schon lese, dass R520 "Fudo" heißen soll und das auch noch Leute glauben, lache ich mich kringelig.
Aber ich vergaß ...was TheInq sagt ist Gesetz :rolleyes:

Naja, zumindest von einem Tapeout seitens NV hat man noch nichts gehört, während bei R500/520 die tapeoutmeldung ja schon durchgesikert ist.

Bin gespannt was NV jetzt bringt, nachdem ja angeblich NV48/50 eingestellt wurde und auch NV47 nicht kommt.

deekey777
2004-12-16, 12:48:14
Hmm, ich glaube der versteht ja selber nicht wirklich was er da schreibt. Einmal canned dann wieder canceld. Ihr wißt ja noch sicherlich alle letztesmal mit dem NV40 der 170 MIO Transitoren haben sollte und dem NV40² der 220 hat. Ich schenke dem keinen glauben mehr, weil wir fast jedesmal irgendwelche falschen Informationen bekommen!


Eigentlich hättest du schon nach dem ersten Satz mit dem Schreiben aufhören können. :)

Godmode
2004-12-16, 12:49:56
canned oder cancelled - ist doch das gleiche :smile:

einfach abwarten und Tee trinken, für ne konkrete Aussage wie es weitergeht, ist es wohl noch zu früh.

Nein ist es eben nicht, denn canned heißt soviel wie konserviert und canceld heißt abgebrochen, beendet.....

http://dict.leo.org/?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&relink=on&sectHdr=on&spellToler=std&search=canned

http://dict.leo.org/se?lp=ende&p=/Mn4k.&search=canceled

Demirug
2004-12-16, 12:51:23
Nur merkwürdig das Codenamen von Chips die es angeblich nicht mal in der Plannung gegeben haben soll im Treiber stehen.

Godmode
2004-12-16, 12:53:43
Naja, zumindest von einem Tapeout seitens NV hat man noch nichts gehört, während bei R500/520 die tapeoutmeldung ja schon durchgesikert ist.

Bin gespannt was NV jetzt bringt, nachdem ja angeblich NV48/50 eingestellt wurde und auch NV47 nicht kommt.

Vielleicht bauen sie 2 NV40 Chips auf ein Board rauf! ;D

Edit: und nur weil es FUAD sagt, genau deshalb muss es gar nichts heißen!

Godmode
2004-12-16, 12:54:45
Nur merkwürdig das Codenamen von Chips die es angeblich nicht mal in der Plannung gegeben haben soll im Treiber stehen.

hm? hast du den NV47 jetzt auch schon wo gefunden?

Gast
2004-12-16, 12:56:09
Wir wissen zur Zeit eigentlich überhaupt nichts, was Nvidia plant oder am laufen hat! Gabs irgendwelche Tapeouts von Nvidia in der letzten Zeit, oder sind die jetzt auch geheim? Was hat eigentlich das Team gemacht, das auch den NV30 entwickelt hat?

Haben die jetzt 2 Jahre zugeguckt bei der NV40 Entwicklung?

Und ginge es überhaupt den NV40 der ja in 130nm designed wurde, jetzt einfach auf 90nm umzulgen?

Ganz richtig! Wir wissen gar nichts, deshalb sind solche Aussagen das ATI in 2005 dominieren wird auch völlig haltlos. Einfach und billig dürfte es wahrscheinlich nicht sein den NV40 in 90nm zu bringen, wenn es denn überhaupt möglich ist. Falls aber doch und man kommt in gleiche Taktregionen wie der R520, dann muss sich NV keine Sorgen machen.

Falls aber die anderen Gerüchte über NV48 und NV50 stimmen, dann muss NV doch noch was in der Hinterhand haben. Bei der vermuteten Leistung des R520 kann der NV40 selbst mit einem kleinen Refresh, sagen wir mal + 10-15% mehr Takt und kleinen Verbesserungen, nicht gegen ihn bestehen.
SLI kann eigentlich auch nicht die Lösung sein da der Mehrpreis für so ein System die Kunden mehr oder weniger in ATIs Arme treiben würde die nebenbei ebenfalls so ein System in der Mache haben.

Alles in allem tappen wir noch im Dunkeln.

Gast
2004-12-16, 13:03:26
Nur merkwürdig das Codenamen von Chips die es angeblich nicht mal in der Plannung gegeben haben soll im Treiber stehen.

Da waren Praktikanten am Werk :)

Ich sehe auch keinen Grund warum NV zumindest den NV48 als "normalen" Refresh canceln sollte, es sei denn es kommt sowas wie der R480 dabei raus. Beim NV50, keine Ahnung, vielleicht ist er ja sowas wie der Ur-R400 und kommt halt später. Er taucht im Treiber auf und kann somit vielleicht zumindest als Testsample untersucht werden falls er wirklich zurückgestellt wurde.

seahawk
2004-12-16, 13:43:44
Doch gerade der NV48 erscheint mir nach Präsentation der R480 Serie verzichtbar.

Eine Idee wäre, dass MS festgelegt hat, dass die VS und PS für WGF 2.0 unified in Hardware sein müssen. Und nicht nur unified in der Programmierung. Damit könnte das alte NV50 Design nutzlos geworden sein. Je nachdem wie weit man damit war, könnte man dann entschieden haben, dass eine abgespeckte Version dessen besser als NV47 wäre und versucht so noch einen Nutzen aus dem NV50 zu ziehen.
NV50 (bzw. der Gegner zum R600) wird dann evtl. komplett neu werden.

Hinsichtlich der Tape-Outs. Seit dem NV mit IBM arbeitet sind die Informationslücken imho größer geworden, bzw. es gibt kaum noch Leaks.

Adam D.
2004-12-16, 13:59:56
Schaut mal hier (http://www.theinquirer.net/?article=20250):

"Nvidia's NV47 never existed:
This chip is supposed to give "Fudo" R520 a run for its money. Those chaps suggested 24 pipelines, eight Vertex Shader units and suggested it's based on NV40 marchitecture with more shaders and pipes. Or something like that.

I have to disappoint you all as Nvidia never had such a chip. Nvidia never had anything codenamed NV47 and this chip never existed. Very learned sages with long grey beards close to Nvidia's plans confirm this."

Godmode
2004-12-16, 14:24:42
Schaut mal hier (http://www.theinquirer.net/?article=20250):


Über genau das diskutiern wir ja hier ;D

q@w
2004-12-16, 14:27:36
Ich hoffe noch immer, das er mit dem TrueVideo Treiber zum funktionieren gebracht wird!!

Hoffe nicht zuviel. Nur ein bißchen.... ;)

Gast
2004-12-16, 14:40:14
Doch gerade der NV48 erscheint mir nach Präsentation der R480 Serie verzichtbar.

Eine Idee wäre, dass MS festgelegt hat, dass die VS und PS für WGF 2.0 unified in Hardware sein müssen. Und nicht nur unified in der Programmierung. Damit könnte das alte NV50 Design nutzlos geworden sein. Je nachdem wie weit man damit war, könnte man dann entschieden haben, dass eine abgespeckte Version dessen besser als NV47 wäre und versucht so noch einen Nutzen aus dem NV50 zu ziehen.
NV50 (bzw. der Gegner zum R600) wird dann evtl. komplett neu werden.

Hinsichtlich der Tape-Outs. Seit dem NV mit IBM arbeitet sind die Informationslücken imho größer geworden, bzw. es gibt kaum noch Leaks.

Sofern der VP nicht komplett für die Tonne ist, könnte er mit dem NV48, neben anderen Verbesserungen, endlich mal funzen und somit ein beworbenes Feature nutzbar gmacht werden.

Ist doch gut für NV. Man kann Infos gezielt streuen und sehen was passiert. Klar, gibt weniger Spekulatius für uns aber so gehen vielleicht entsprechende Gerüchte nicht so schnell unter und man bleibt länger im Gespräch.

Adam D.
2004-12-16, 15:16:58
Mist, hatte ich gar nicht gesehen :rolleyes:

Demirug
2004-12-16, 15:44:29
hm? hast du den NV47 jetzt auch schon wo gefunden?

Ja, es gibt da eine Chipliste in dem Treiber die IMHO etwas mit der Shaderreplacmentengine zu tun hat. Dort werden ein NV47 und NV48 aufgeführt.

Adam D.
2004-12-16, 16:24:58
Wahrscheinlich gibt's beide und einer davon ist zum Verwirren gedacht... :confused: Aber ein paar konkrete Hinweise könnten nicht schlecht sein!

ShadowXX
2004-12-16, 16:39:08
Wahrscheinlich gibt's beide und einer davon ist zum Verwirren gedacht... :confused: Aber ein paar konkrete Hinweise könnten nicht schlecht sein!

Zumindest vom nv48 gabs/gibt es bestimmt ein paar Exemplare, da dieses ja im Prinzip nur ein höher getakteter nv40/45 war/ist.

Deshalb kann ich mir sehr gut vorstellen, das dieser in den Treibern auftaucht....

Beim nv47 ist das ganze natürlich etwas "komplizierter"....zumindest wissen wir jetzt, woher die Gerüchte um diesen wahrscheinlich kommen....es hat wohl schon vor Demi jemand diese Einträge innerhalb des Treibers gesehen....

Was der nv47 allerdings ist bzw. sein soll, weiss damit noch niemand....es könnte sogar darauf hindeuten, das es solche Chips schon als Prototyp gibt (warum sollten Sie sonst im Treiber hinterlegt sein, wenn man nicht etwas damit ausprobieren will).

Das Problem (gerade mit dem INQ) ist doch, das man überhaupt nicht weiss, woher Sie ihre Infos haben und welche davon vielleicht sogar mit Absicht von den IHVs gestreut werden....und sei es nur um den Konkurenten zu täuschen bzw. in Sicherheit zu wiegen....

Da es bei IBM scheinbar keine leaks von Infos zu geben scheint, wissen wir vielleicht einfach nicht, ob nV nicht schon 2 oder 3 Tapeouts von irgendwelchen Chips hinter sich hat....

Ich glaube das 2005 durchaus interessant werden könnte.....

Adam D.
2004-12-16, 16:48:51
Ich glaube das 2005 durchaus interessant werden könnte.....
Ich hoffe es. Aber was auch immer von nVIDIA kommt: Der R520 ist interessanter ;)

Godmode
2004-12-16, 17:32:12
Ich hoffe es. Aber was auch immer von nVIDIA kommt: Der R520 ist interessanter ;)

wieso sollte der R520 interesanter werden? Vom NVirgendwas wissen wir nichts, vom R520 zumindest das es ein SM3 Chip im 90nm Prozess wird.

Gast
2004-12-16, 19:02:57
Ich hoffe es. Aber was auch immer von nVIDIA kommt: Der R520 ist interessanter ;)

Weil er von ATI kommt oder warum?

MechWOLLIer
2004-12-16, 20:03:31
Ich hoffe es. Aber was auch immer von nVIDIA kommt: Der R520 ist interessanter ;)
Nunja, er ist höchstens interessanter, weil er neurer ist:)
Natürlich würde ich mich auch gerne von ATI überraschen lassen und der Chip bietet technisch etwas neues. Mit dem Sm3 ist das bis jetzt ja auch noch so eine Sache, Stichwort F-Buffer.

Hauwech
2004-12-17, 08:28:02
Glaube ehrlich gesagt nicht das was revolutionär neues kommt. Zumindest von R300 bis jetzt war eher Minimalismus angesagt. Sollte sich das jetzt auf einmal ändern? Geschwindigkeit ist ja da, Features fehlen. Sollte da jetzt mehr als nötig kommen? Bis jetzt sind sie damit ja anscheinend ganz gut gefahren. Schaun mer ma. :)

Adam D.
2004-12-17, 10:11:44
Ich bin einfach extrem gespannt, was der R520 drauf hat. Ich mein, er ist 'ne komplette Neuentwicklung und wird ja teilweise als Wunderchip gehandelt. Sowas erwarte ich von nVIDIA nicht, wobei man ja jetzt gar nicht mehr weiß, was als nächstes kommt.
Vielleicht ist das Gigabyte-Dual-6600GT-Board erst der Anfang?

Coda
2004-12-17, 10:15:58
Der R520 ist mit großer Sicherheit keine Neuentwicklung, im Treiber sind schon einträge von R520 in der R300 Familie zu finden.
"Komplette Neuentwicklungen" gibt es eh nicht. NV40 ist auch in weiten Teilen neu...

Adam D.
2004-12-17, 10:26:58
Basiert der R520 schon wieder auf dem R300? Kann ja wohl nicht sein...Oder meinst du das jetzt irgendwie anders? :confused:

Gast
2004-12-17, 11:02:43
Basiert der R520 schon wieder auf dem R300? Kann ja wohl nicht sein...Oder meinst du das jetzt irgendwie anders? :confused:

nein das ist genau so gemeint, der R520 ist eine weitere R300 Variante.

StefanV
2004-12-17, 11:11:53
Und?

Die 6800 ist eine weitere GF 4 Variante, die eigentlich nur eine GF3 Variante ist, welche wiederrum eine GF2 Variante ist, welche eine GF1 Variante ist...

Was sagt uns das?!

Richtig, man nimmt das, was man hat und entwickelt es konsequent weiter, man fängt nicht mal eben neu an!!!

seahawk
2004-12-17, 11:32:47
Exakt. Es gibt keinen Grund anzunehmen, dass ATI mit einer weiteren Evolution des R300s nicht in der Lage wäre NV klar zu dominieren. Oder sieht der R420/480 gegen den NV/45 schlecht aus ??

TheCounter
2004-12-17, 12:25:28
Exakt. Es gibt keinen Grund anzunehmen, dass ATI mit einer weiteren Evolution des R300s nicht in der Lage wäre NV klar zu dominieren. Oder sieht der R420/480 gegen den NV/45 schlecht aus ??

Nein tut er nicht, jedoch ist das vielen egal. Die sehen nur "R300 weiterentwicklung", sprich total veraltet bla bla bla (SM3.0 ist momentan nur für die Entwickler wichtig). Das sich die NV4x und R4xx eigentlich nichts nehmen (Performance) haben die Benchmarks ja gezeigt, trotzdem gibt es immer wieder Leute die das Gegenteil sehen wollen ;)

Was der R520 nun genau ist wissen wir nicht, bis jetzt gibt es nur Spekulationen. Es dürfte aber halbwegs erwiesen sein (Durch die ganzen Berichte/News) das es ein 90nm SM3.0 Chip wird (Wie der R500).

Ich bin jedenfalls gespannt was NVIDIA gegen den R520 ansetzt, das Jahr 2005 wird richtig spannend ;)

Tesseract
2004-12-17, 12:25:43
Richtig, man nimmt das, was man hat und entwickelt es konsequent weiter, man fängt nicht mal eben neu an!!!

ganz neu natürlich nicht. aber es gibt stärkere und schwächere verwandschaften.

also ich bin sehr gespannt auf den R520. daraus könnte alles werden. ein zweiter R300(innovativ ist gemeint.), genauso aber ein FX-disaster nur diesmal bei ati.
time will tell :)

reunion
2004-12-17, 12:55:52
Basiert der R520 schon wieder auf dem R300? Kann ja wohl nicht sein...Oder meinst du das jetzt irgendwie anders? :confused:

R520 ist eine Weiterentwicklung des R300, basiert also auf der selben Architektur. Es steht allerdings schon fest das R520 in 90nm lowk gefertigt wird und SM3.0 unterstützt.

Eine "echte" Neuetwicklung am Desktopmarkt ist erst mit dem R600 zu erwarten, dieser wird auf der R400 => R500 linie basieren und mit unified Shader sowie höchstwarscheindlich WGF 2 kompatiblität aufwarten können.

Coda
2004-12-17, 12:55:57
Und?

Die 6800 ist eine weitere GF 4 Variante, die eigentlich nur eine GF3 Variante ist, welche wiederrum eine GF2 Variante ist, welche eine GF1 Variante ist...

Was sagt uns das?!

Richtig, man nimmt das, was man hat und entwickelt es konsequent weiter, man fängt nicht mal eben neu an!!!
Nur sollte man beachten das ATi bisher mit der "Weiterentwicklung" beim R420 am sparsamsten war.
Mir ist es ja schon Recht wenn R520 SM3.0 kann, weil das ist per Definition flexibel, wie sie es genau lösen ist mir schnuppe.
Aber dann dürft ihr nicht heulen wenn das ach so tolle schnelle-ATi-branching nicht kommt (wobei immer noch nicht gezeigt wurde dass das von nV so langsam ist :D)

Adam D.
2004-12-17, 13:01:51
Also, ich frage mich jetzt: Basiert der R520 als Chip auf dem R300 oder benutzt ATI jetzt einfach nur die Erfahrung, die sie gesammelt haben, um den R520 zu entwickeln?

Coda
2004-12-17, 13:12:30
Wir wissen es letztenendes noch nicht aber es deutet vieles darauf hin dass er wieder auf R300 basiert, wenn auch nicht mehr so stark wie R420 (geht gar nicht, falls er SM3.0 unterstützen soll)

LovesuckZ
2004-12-17, 14:09:28
Exakt. Es gibt keinen Grund anzunehmen, dass ATI mit einer weiteren Evolution des R300s nicht in der Lage wäre NV klar zu dominieren. Oder sieht der R420/480 gegen den NV/45 schlecht aus ??

Nun, vom welcher Lage sprichst du?
Mit Farcry 1.3, PF und Riddick gibt es schon drei Spiele, die auf dem r420 nicht die Maximalqualitaet liefern.

Dr Hake
2004-12-17, 14:12:24
bloede Vergleiche ...ich weiss
AMD K8 basiert auf K7
Pentium-M basiert auf PIII
VW 1.9 TDI basiert auf EA827 von 74
was haben alle noch mit dem Ausgangsprodukt gemeinsam? So what?

Tigerchen
2004-12-17, 15:06:29
Nun, vom welcher Lage sprichst du?
Mit Farcry 1.3, PF und Riddick gibt es schon drei Spiele, die auf dem r420 nicht die Maximalqualitaet liefern.

Ja. Und gerade bei chronickles sind viele sauer weil das Spiel dann zur slide show wird. Und das bei einer hochgepriesenen 500 €uro Grafikkarte!

Die miese Far Cry HDR Qualität kommt auch nicht an das "Fake" HDR von Half-life 2 heran und kostet unverhältnismässig viel Leistung. Nein, das liegt nicht nur an den Machern.

PF? Was ist das???

ShadowXX
2004-12-17, 15:06:58
Nun, vom welcher Lage sprichst du?
Mit Farcry 1.3, PF und Riddick gibt es schon drei Spiele, die auf dem r420 nicht die Maximalqualitaet liefern.

PF ???

Kommt demnächst noch eins dazu: Brothers in Arms
(http://www.planet3dgames.de/index.php?site=news&id=1385)

Mcdave
2004-12-17, 15:07:02
Nun, vom welcher Lage sprichst du?
Mit Farcry 1.3, PF und Riddick gibt es schon drei Spiele, die auf dem r420 nicht die Maximalqualitaet liefern.

Hm? Was fehlt mir denn da auf meiner popeligen X800pro? Bei Far Cry etwa das HDR? Ist ja wohl nicht dein Ernst, oder? Ich bleibe nun mal bei Far Cry, weil mir die beiden anderen Spiele nicht bekannt sind.
Ich spreche nur für mich, aber es würde mir im Traum nicht einfallen, wegen (dem IMO masslos übertriebenen) HDR Effekten, die nur halbherzig implementiert wurden (und dank TWIMTBP nicht mit ATI's funzen), auf AA zu verzichten und dabei noch Performancedrops von 50% und mehr in Kauf zu nehmen.
Nene, so läufts nicht. Wenn derzeit etwas auf Konkurrenzprodukten nicht läuft, dann nur, weils die Marketingabteilung des Sponsors so wollte.
Shader 2.0 als veraltet zu bezeichnen (nichts anderes soll dein Posting bezwecken), hat weder Hände noch Füsse; PS 2.0 Games kann man nach wie vor an 2 Händen abzählen und das darin gezeigte wäre wohl zu 95% auch mit PS 1.1 realisierbar.
Es ist Tatsache, dass es auf dem Grakamarkt bisher immer nach folgendem Muster ablief: Es erscheint eine Karte mit neuen Features (die ich gar nicht schlecht machen will) auf dem Markt, man kauft sie, schaut sich die beigelegten Techdemos 10 mal an und freut sich 2-3 Jahre später, wenn ein Game mal ansatzweise was von den Features braucht. Dumm nur, dass jeder halbwegs ambitionierte Game dann schon längst was neues im Slot stecken hat und sich wieder leise darüber aufregt, eine Karte gekauft zu haben, deren (Feature) Potential nicht mal ansatzweise ausgeschöpft wird. Das wird sich auch nie ändern, es sei denn, die Gameentwicklung dauert ab morgen nur noch 6 Monate pro Titel. Ein wahrlich realistisches Szenario, oder?

ATI ist diesmal einen etwas anderen Weg gegangen und hat den Chip nur leicht überarbeitet. Nun kommen grösse Töne von ein paar wenigen NV 30 & 40 Besitzern, dass man mit dem R420 praktisch Elektroschrott kauft. Die Wahrheit ist eher, dass es angesprochene Leute wurmt, dass die Museumskarte zwar effektiv weniger kann, ihr zu Lebzeiten aber keinesfalls hinderlich sein wird, wie es manche gerne hätten.

Der NV40 ist wie ein Auto, das du heute kaufst und welches neben dem Verbrennungsmotor noch die Möglichkeit hat, auf Brennstoffzellen umzuschalten. So ist man wenigstens für eine Zukunft gerüstet, die noch gar nicht begonnen hat.
Bis Wasserstoff flächendeckend verfügbar wird, dürfte das Auto längst den Dienst quittiert haben.

ShadowXX
2004-12-17, 15:17:05
Ja. Und gerade bei chronickles sind viele sauer weil das Spiel dann zur slide show wird. Und das bei einer hochgepriesenen 500 €uro Grafikkarte!

Die miese Far Cry HDR Qualität kommt auch nicht an das "Fake" HDR von Half-life 2 heran und kostet unverhältnismässig viel Leistung. Nein, das liegt nicht nur an den Machern.

PF? Was ist das???


Hast du das HDR bei FC überhaupt schon mal "Live" beobachten dürfen???

Es ist zwar ein etwas übertriebener Effekt, aber da kommt das gefakte HDR von HL2 nicht mal ansatzweise ran....

Und wie schon mehrmals erwähnt...zumindest auf eine 6800Ultra ist das ganze mit HDR bei 1280x1024 noch sehr gut spielbar...

(Davon mal abgesehen, das die Implementation des HDR bei FC wirklich murks sein soll...zumindest laut Demi)

Was da bei Riddick abläuft weiss ich allerdings nicht...ja es wird verdammt langsam, aber das liegt wohl mehr an den Softshadows und weniger an der verwendung von irgendwelchen nV-OGL-spezialitäten...

robbitop
2004-12-17, 15:20:54
PF = Parcific Fighters?

ShadowXX
2004-12-17, 15:23:06
PF = Parcific Fighters?

Jupps...wirds wohl sein. Daran hatte ich gar nicht mehr gedacht.

deekey777
2004-12-17, 15:28:07
Nun, vom welcher Lage sprichst du?
Mit Farcry 1.3, PF und Riddick gibt es schon drei Spiele, die auf dem r420 nicht die Maximalqualitaet liefern.


Maximalqualität? Meinst du AA und AF und so etwas? ;)

Powercolor X850 XT PE mit "Pacific Fighters" (http://www.pcgames.de/?article_id=338902)

Fies. :D

LovesuckZ
2004-12-17, 15:31:11
[COLOR="#000088"]
Ja. Und gerade bei chronickles sind viele sauer weil das Spiel dann zur slide show wird. Und das bei einer hochgepriesenen 500 €uro Grafikkarte!

Nun, dann frage dich dochmal, was ein r420 user dann machen müsste? Immerhin hat er nichtmal die Wahl, die "besseren" Effekte einzuschalten.


Die Wahrheit ist eher, dass es angesprochene Leute wurmt, dass die Museumskarte zwar effektiv weniger kann, ihr zu Lebzeiten aber keinesfalls hinderlich sein wird, wie es manche gerne hätten.

Ich glaube, du verwechselt gerade was: Warum sollte es mich wurmen, dass meine Karte mehr kann als deine und all' deine features abdecke (ja, sogar 3Dc)? Ich kann wenigsten gelassen in die Zukunft sehen und mich an Effekte ergotzen, die du erst mit einem Wechsel zu gesicht bekommst.
Ansonsten: Die Zukunft ist schon heute, Farcry 1.3, PF und Riddick sei dank.

LovesuckZ
2004-12-17, 15:33:46
Powercolor X850 XT PE mit "Pacific Fighters" (http://www.pcgames.de/?article_id=338902)
Fies. :D

Einigen NV3x Karten lag sogar TR:6 bei, was willst du nun damit sagen?!