PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GeForce 6600 & 6600GT


NixNDA
2004-08-11, 11:39:35
Hallo, da ich zum Pech für Nvidia keine NDA unterzeichnet hab betreffend GF 6600, aber trotzdem die Daten bekommen hab möcht ich euch die nicht vorbehalten, NDA würde am 12.08.04 um 15 Uhr ablaufen...


Availability: September
Card Bus: PCI Express
Chip Type: native PCI Express
AGP versions: We are only announcing PCI Express, but we could do AGP later, through the NVIDIA High Speed Interconnect

Clocks: GeForce 6600 GT-500/500
GeForce 6600-300/determined by the AIC
Fab: TSMC’s high-volume 0.11-micron process technology
Transistor count: 146 million

Beide Karten haben ein 128 Bit Speicherinterface und 8 Piplines, die 6600GT wird GDDR3 Speicher besitzen, die 6600 nur GDDR, beide unterstützen Ultra-Shadow 2, die 6600 GT ist SLI-kompatibel. Die 6600 GT soll in Doom bis zu 3 mal schneller als die Konkurenzkarte x600xt sein, im 3dMark bis zu 2x schneller... insgesamt bei den Benches bis zu 2.5 mal schneller als die x600xt sein... Preis wird bei 199 $ liegen, was die Karte meiner meinung nach zu einem echten Preis/Leistungs könig machen wird. ich hoffe ich mache mit diesem Post 3dcenter keine Probleme, ansonsten bitte Löschen.

Doom 3 @ 6600GT Benchmark
High Quality @ 10x7 4xAA 8xAF = 42 fps

kmf
2004-08-11, 11:42:48
Mal ins richtige Forum verschieben. Die Kollegen dort werden schon wissen, was sie damit machen. ;)

LovesuckZ
2004-08-11, 11:44:45
Das hoert sich gut an, die GT.
Weißt du, ob am 12 August auch die normale Version praesentiert wird?

@kmf:
Kannst du das nicht den Thread von MMM verschieben?

NixNDA
2004-08-11, 11:52:35
Laut Pressemiteilung werden beide Modelle an der Quakcon vorgestellt:

Auszug aus der Pressemitteilung:
NVIDIA will be sponsoring id Software's annual Quakecon event (http://www.quakecon.org/) which starts on Thursday (8-12) and runs through Sunday (8-15). On the first day of the event, NVIDIA will be announcing two new GeForce 6 models.

DrumDub
2004-08-11, 11:57:57
interessant, dass die karte wirklich 8 pipelines hat. damit muss der r410 erst mal nachziehen. die x600xt ist auf jeden fall keine konkurrenz für die 6600. insofern kann ich nur sagen: sehr gut gemacht, nvidia!

LovesuckZ
2004-08-11, 12:06:40
Zweite Frage :smile:, wenn erlaubt ist:
Steht im pressematerial auch was ueber die weiteren Sparmaßnahmen, wenn man von den 8 weggelassenen Pipelines abschaut?

r@w
2004-08-11, 12:17:04
Warum sollten die da was von "Sparmaßnahmen" erzählen, wenn es doch um die Anpreisung von neuen Produkten geht?
Ein TechPaper wird hier wohl nicht vorgelegen haben...

@nixNDA

Thx4Info !

Mich würde aber schon interessieren, wie es die 6600GT mit nur 128Bit Speicheranbindung schafft, im Murks über 8T Schnuller zu schaffen. Auch täte mich vielmehr interessieren, wie sich das mit der Performance im Vergleich zur 5950u darstellt... denn für 200 Euronen würde ich mir doch glatt noch so ein SM3.0-"PreSample" zulegen... allerdings nur für AGP.

Razor

stav0815
2004-08-11, 12:18:29
öhm... und wie wollen sie die 8 Pipes auslasten? Mit einem 128-Bit Speicherinterface sehe ich da starke Probleme.

128-Bit verlangsamt ja schon eine 9800SE mit 4 Pipes um einiges :ugly:

NixNDA
2004-08-11, 12:19:07
Bis das die 6600 nur DDR speicher hat, das beide Karten 128 mb Speicher haben, und nur ein 128 Bit Speicherinterface steht da nichts was mir auf eine weitere Kastrierung des Chips hinweisst, es steht noch gross in der pdf: Bringing GeForce 6800 Features to the Mainstream.
Was darauf hindeutet das die Karte alles hat was die 6800 auch hat... betreffend Feautures natürlich ;)

HOT
2004-08-11, 14:59:35
Bei sehr Shaderlastigen Sachen ist das RAM Interface sicher nicht hinderlich; trotzdem hab ich die Befürchtung, dass der Speicher wiedermal der liminirende Faktor sein wird. Ich verstehe diese Massnahme auch nicht wirklich, da GDDR3 sicher net viel billiger ist als ein PCB für 256Bit oder die Chiplogik dafür (wenn nicht sowieso schon vorhanden). Wahrscheinlich hatte man Angst den eigenen Highend-Produkten zu nahe zu kommen.
Der Fertigungsprozess muss ausserdem eine Art "Jokerprozess" sein, sonst würden sich ATI und NV nicht so darauf stürzen und Chips mit über 100mio Transistoren + sehr hohem Takt bringen ;) Zum Vergleich, der 6600 hat fast soviele Transistoren wie ein X800!
Wenn der Chip schon 146Mio Transis hat, muss das Speicherinterface bluten... weiss net ob das so pralle ist. Vor allem wenn ATI plötzlich mit 256Bit Speicherinterface im die Ecke kommt im R410.

Edit: beim 2. Gedanken fiel mir auf, dass das Teil die sowohl von der Speicheranbindung als auch in der Rohleistung einer 6800 fast gleichzieht. Die 6600GT sollte die 6800 vollständig ersetzen können.

LovesuckZ
2004-08-11, 15:03:37
Das Speicherinterface verkompliziert ja auch die Platine.
Und eventuell ist es billiger solchen Ram zuverwenden und einen zusaetzlichen Stromanschluss, statt hier ein 256Bit Interface und wenig "anspruchsvollen" Speicher.
Anders kann ich es mir nicht vorstellen, dass man innerhalb eines Jahres nicht von 128Bit auf 256Bit innerhalb der "echten" Midrange Modelle umgestellt hat.

HOT
2004-08-11, 15:08:32
Das Speicherinterface verkompliziert ja auch die Platine.
Und eventuell ist es billiger solchen Ram zuverwenden und einen zusaetzlichen Stromanschluss, statt hier ein 256Bit Interface und wenig "anspruchsvollen" Speicher.
Anders kann ich es mir nicht vorstellen, dass man innerhalb eines Jahres nicht von 128Bit auf 256Bit innerhalb der "echten" Midrange Modelle umgestellt hat.

Es könnte ein Grund sein, den Boardherstellern die Implementierung des Chips+Speicher so billig wie möglich und damit so attraktiv zu machen. Von den eigentlichen Kosten der Karte her sollte sich da echt net viel tun.

q@w
2004-08-11, 15:11:11
Edit: beim 2. Gedanken fiel mir auf, dass das Teil die sowohl von der Speicheranbindung als auch in der Rohleistung einer 6800 fast gleichzieht. Die 6600GT sollte die 6800 vollständig ersetzen können.

Wie das?
Bei der 6800nu sehe ich 22,4GB/s und der 6600GT (wenn die 500MHz bei 128Bit denn stimmen) 16GB/s....

Ich vermute mal, daß bei diesem Chips nicht so sehr auf 4xAA gesetzt wird und ergo neben 2 Quads auch mind. 3, eher 4 Vertexshader wegfallen und ebenso auch die ROPs beschnitten sein werden - möglicherweise auch ohne Crossbar angebunden.

IVN
2004-08-11, 15:15:02
nv30 was allso limited by a 128 bit mem.con. And don't forget that thet was a 4*2 design .6600gt 8*1 shuld be even more limited becouse of more efficient unites that can do more work in one clock,and need more data per clock.

HOT
2004-08-11, 15:32:20
Wie das?
Bei der 6800nu sehe ich 22,4GB/s und der 6600GT (wenn die 500MHz bei 128Bit denn stimmen) 16GB/s....

Ich vermute mal, daß bei diesem Chips nicht so sehr auf 4xAA gesetzt wird und ergo neben 2 Quads auch mind. 3, eher 4 Vertexshader wegfallen und ebenso auch die ROPs beschnitten sein werden - möglicherweise auch ohne Crossbar angebunden.

Hmm... hatte das wohl ne Fehlinfo was den Speichertakt der 6800 angeht :D
Also sind das ca. 1/4 weniger theoretische Speicherbandbreite. Ist aber nicht so, dass ein 256Bit Interface immer ineffizienter arbeitet als ein 128Bit Interface, welches voll optimiert ist?

stav0815
2004-08-11, 15:58:17
nv30 was allso limited by a 128 bit mem.con. And don't forget that thet was a 4*2 design .6600gt 8*1 shuld be even more limited becouse of more efficient unites that can do more work in one clock,and need more data per clock.

anscheinend hat meinen post von oben noch niemand beachtet... ich habs zwar einfacher ausgedrückt aber FULL ACK :tongue:

robbitop
2004-08-11, 16:20:07
geht es nur mir so oder haben wir hier nichts Neues erfahren?
und mit 150Mio Transistoren lag ich gar nicht mal so verkehrt ;)
ich frage mich ob 128bit wirklich so viel günstiger ist als 256bitDDR. Denn bei letzterem kann man sehr günstige Bausteine verwenden (3.3ns??) und man braucht nicht mehr so auf die Signalflanken zu achten.

Jede Quad SIMD kostet beim NV4x Design sehr viele Transistoren. (ich kann nur schätzen aber Daten habe ich dazu keine). Dann weniger VS und ich denke man kommt mit 1/2 der ROPs aus.
Warum sollte man den Crossbar abnehmen? Dann müsste man die ROPs wieder in die SIMD einbauen und ob der Aufwand das Ergebnis rechtfertigt...kA

Klingt nach einem gut ausbalancierten Design und 110nm läuft scheinbar besser als ich es vermutet habe. RV410 soll mit 130nm lowk gefertigt werden. Ich vermute das wird kein Nachteil in Punkto Taktrate/Verlustleistung bringen, aber der Chip wird durch lowk teurer. Die Größe sollte bei beiden etwa gleich sein. ~100Mio vs ~145Mio. Aber ob die Performace der NV43 schlagbar sein wird, wage ich ernsthaft zu bezweifeln, wenn ich mir so die Effizienz des NV40 anschaue. Und dank 110nm hat man diesmal keine Fertigungsnachteile wie beim großen Bruder.

Vieleicht hat man ja noch den Videoprozessor rausgeschmissen..aber eigentlich hat man bei NV das verneint zum NV40 launch...

HOT
2004-08-11, 16:31:16
geht es nur mir so oder haben wir hier nichts Neues erfahren?
und mit 150Mio Transistoren lag ich gar nicht mal so verkehrt ;)
ich frage mich ob 128bit wirklich so viel günstiger ist als 256bitDDR. Denn bei letzterem kann man sehr günstige Bausteine verwenden (3.3ns??) und man braucht nicht mehr so auf die Signalflanken zu achten.

Jede Quad SIMD kostet beim NV4x Design sehr viele Transistoren. (ich kann nur schätzen aber Daten habe ich dazu keine). Dann weniger VS und ich denke man kommt mit 1/2 der ROPs aus.
Warum sollte man den Crossbar abnehmen? Dann müsste man die ROPs wieder in die SIMD einbauen und ob der Aufwand das Ergebnis rechtfertigt...kA

Klingt nach einem gut ausbalancierten Design und 110nm läuft scheinbar besser als ich es vermutet habe. RV410 soll mit 130nm lowk gefertigt werden. Ich vermute das wird kein Nachteil in Punkto Taktrate/Verlustleistung bringen, aber der Chip wird durch lowk teurer. Die Größe sollte bei beiden etwa gleich sein. ~100Mio vs ~145Mio. Aber ob die Performace der NV43 schlagbar sein wird, wage ich ernsthaft zu bezweifeln, wenn ich mir so die Effizienz des NV40 anschaue. Und dank 110nm hat man diesmal keine Fertigungsnachteile wie beim großen Bruder.

Vieleicht hat man ja noch den Videoprozessor rausgeschmissen..aber eigentlich hat man bei NV das verneint zum NV40 launch...


Na ja, die endgültigen Leistungsdaten warten wir besser erstmal ab, anstatt voreilig das Teil in den Himmel zu loben ;)

robbitop
2004-08-11, 16:40:45
richtig, aber mit ein bisschen Antizipation lässt sich das jetzt schon gut abschätzen. Sieht so aus als hätte man bei NV auch dank 110nm eine gute Produktpalette.

Sunrise
2004-08-11, 16:43:10
richtig, aber mit ein bisschen Antizipation lässt sich das jetzt schon gut abschätzen. Sieht so aus als hätte man bei NV auch dank 110nm eine gute Produktpalette.
Wieso gehst du davon aus, dass RV410 nicht mit 110nm kommt ? Der R480 wird Einige überraschen.

IVN
2004-08-11, 16:54:50
@robbitop
With 128 bit mem.con. the chip will be above 1024 res. always mem.band. limited.And i don't think that 6600gt is going to be better than rv410,if it really has 128 bit mem.con. it is going to be much slower than ATI counterpart (but only if rv410 has 256).


Somehow 150~ mil. trans. looks to much.
rv410 shuld have ~120 mil.trans. (8pip.+256bit con. it shuld be a litle more than r360)

VooDoo7mx
2004-08-11, 17:16:59
Der R480 wird Einige überraschen.

Nennst du den 4. R300 Aufguss Überraschung? X-D

robbitop
2004-08-11, 17:29:47
@IVN
I don't think so. NV30 was NOT bandwith limited @2xMSAA and in nonshaderlimited situation it was even faster than R9700pro (PCGHW UT2003 test 4 example). Above 2xMS it loses much performance because of exceeding the bandwith.
In the future mathematical shaderops will gain more and more importance in games. NV40 is designed for this Aspect (4AOps and only 1 TOps per Clock and SIMD Channel). And you will know that mathamatical Shaderops doesn't consumpt as many bandwith as colorvalues. So the bandwith will not limit too much. With things like AF or long shaderops the Pipes have too loop very often for one single result. In compare to this result, there is enough time for the memory interface to make the needed single access.
But you are right when there are no complex shader codes no AF, single bilinear +texturíng and so on...

Many people can't imagine the real importance of bandwith. It's too dependent on each different situation.
NV40 scalls very well with double the SIMDs AND double the ´bandwith. It seems that the design is well balanced with the given bandwith. (scallable test can be seen on our NV40 Benchmark review).

P.S sorry for my bad english ;)

@sunrise
da der M18 laut meinen Infos @130nm black diamond produziert wird.
Der M10/11 war auch nur ein selektierter RV3xx. Sieht man sehr deutlich wenn man die Treiber auf "mobile" hackt. Die schönen Stromspar modi funktionieren sehr nett.
Wozu 2 Produktionsstrassen, wenn eine reicht??
Ich mutmaße mal, dass ATi abgewogen hat und 130nmlow für besser empfand (inkomplexer ´Chip, hohe Erfahrungen mit lowk, geringes Risiko da gleiche Fertigung)...sollte ATi in keinstem Falle zum Nachteil gereichen, aber IMO auch nicht zum Vorteil (110nm würde ihnen Takt und Verlustleistungstechnisch effekt wohl nichts bringen..nur unnötiges Risiko und neue Anpassungen auf 110nm)

R480 eine Überraschung? m.E. wohl kaum.
Die selben Leute die für R420 schwachsinnigerweise (trotz Infos über loki) SM3 vorraussagten, meinen R480 würde SM3 bekommen, da man bei ATi meinte, SM3 kommt bald...

man sagte aber auch, dass der nächste Designsprung erst auf NexSYS (90nm TSMC) erfolgen wird. Das wird erst eine ganze Ecke später passieren.
IMO wird erst R520 etwas Neues bringen.
Ich gehe bei R480/NV48 nur von einem Respin aus.
Wobei R420 auch nicht viel mehr als das war ;) (R&D hat man allerdings verdammt clever gespart)

IVN
2004-08-11, 17:51:54
@robbitop
But this is a more powerfull chip then nv30,and the situations where the chip is limited by mem.bandwidth are going to be more often with the 6600gt.
Yes, i know that mathamatical Shaderops don't consume as much bandwidth as colorvalues,but even Unreal 3 engine and the games that are based on it are coming in late 2005 or early 2006.And are also useing a lot of textures (heavy memory usage). Until than an 6600gt is going to be rusty piece of metal.

Sunrise
2004-08-11, 17:52:18
@VooDoo7mx & robbitop: Überraschung im Sinne von -> anderer Fertigungsprozess (aber nichts ist 100% sicher).

@robbitop:
SM3.0 bei R480 ist in der Tat eine Sache die irgendwer in die Welt gesetzt hat, womöglich weil er denkt, es wäre eine Arbeit von 2 Tagen, diese mit der bestehenden Architektur in Einklang zu bringen.

Mit dem M18 hast du Recht, da habe ich die gleichen Infos. Ich habe momentan nur eine kleine Theorie im Kopf, hängt mitunter mit der schlechten Verfügbarkeit der X800XT-PE zusammen, nur bin ich mir derzeit nicht sicher ... (wäre nur etwas zu abgefahren, auch wenn ich Spekulationen gerne poste).

reunion
2004-08-11, 18:45:17
und mit 150Mio Transistoren lag ich gar nicht mal so verkehrt ;)


Nur habe ich das schon einige Posts vor dir geschrieben :tongue:


Klingt nach einem gut ausbalancierten Design und 110nm läuft scheinbar besser als ich es vermutet habe. RV410 soll mit 130nm lowk gefertigt werden. Ich vermute das wird kein Nachteil in Punkto Taktrate/Verlustleistung bringen, aber der Chip wird durch lowk teurer. Die Größe sollte bei beiden etwa gleich sein. ~100Mio vs ~145Mio. Aber ob die Performace der NV43 schlagbar sein wird, wage ich ernsthaft zu bezweifeln, wenn ich mir so die Effizienz des NV40 anschaue. Und dank 110nm hat man diesmal keine Fertigungsnachteile wie beim großen Bruder.


Sehe ich nicht so. ATi hat jetzt IMO alle karten in der Hand, ein auf ca. 550mhz getakteter RV410 (sollte angesichts der 520mhz beim 16-piper R420 durchaus möglich sein mit 130nm lowk) mit 256-bit Speichernanbindung und vielleicht noch 400mhz Speichertakt müsste locker ausreichen um den NV43 zu schlagen. Außerdem finde ich die Transistorenanzahl die schon fast die gleiche Dimension wie Atis High-End Chip benötigt für eine karte ab 149$ nicht gerade wirtschaftlich.

reunion
2004-08-11, 18:52:26
nv30 was allso limited by a 128 bit mem.con. And don't forget that thet was a 4*2 design .6600gt 8*1 shuld be even more limited becouse of more efficient unites that can do more work in one clock,and need more data per clock.

ACK, in hohen Auflösungen mit AA dürfte die Karte ziemlich wegbrechen. (Natürlich nur wenn der RV410 nicht auch auf ein 128-bit Speicherinfance setzt)

HOT
2004-08-11, 19:08:56
Wieso gehst du davon aus, dass RV410 nicht mit 110nm kommt ? Der R480 wird Einige überraschen.

der R430 schon ;)
Ich denke, dass der 110nm Prozess durchaus gelungen ist. Warum sollten sonst die Hersteller diesen Prozess favourisieren? Der NV43 ist ja der Beweis, dass der gut ist. Vielleicht sogar besser als 130nm LowK.

robbitop
2004-08-11, 19:23:17
@sunrise
dann schicke sie doch per PN ;)

@IVN
yes with 8 SIMD Channels you got a bit more Textureacceses to do than w/ 4. But NV40 is realy well balanced w/ double bandwith/rawperformance so the NV43 won't behave much different.
As I said, when you have much AF, the loops in the SIMD "hides" the loss of Bandwith. Ok when 4xMS is activated, the Bndwith will limit the performance at all.

@reunion
mit 10% mehr Takt kommst du da nicht weiter. Es müssten schon 30-40% mehr Chiptakt sein (siehe NV40 vs R420) um hier die "Oberhand" zu gewinnen.
Und soweit hinaus kommst du mit beiden Prozessen bei aktuellen Designs wohl nicht mehr.
256bit DDR wäre machbar. Aber du musst das Preissegment bedenken. Wenn das tragbar gewesen wäre, hätte NVIDIA das sicher auch gemacht.
Ich weiss nicht ob die Kosten von 256bit DDR schon gering genug für den Midrangemarkt sind. Und wenn ja dann nur mit sehr geringen Taktraten.
ATi wird sicher wie sonst auch auf einen niedrigeren Preis (als Joker) als NVIDIA spekulieren, um Kunden zu gewinnen.
Bedingt durch eine in etwa "gleichgute" Fertigung sieht es im Midrangemarkt und im LowCost Markt sicher recht gut aus für NVIDIA.

Der NV43 holt schon mehr aus dem 110nm Prozess herraus, als ich ihm zugetraut habe...

Quasar
2004-08-11, 19:26:32
nv30 was allso limited by a 128 bit mem.con. And don't forget that thet was a 4*2 design .6600gt 8*1 shuld be even more limited becouse of more efficient unites that can do more work in one clock,and need more data per clock.
Yes and no. nV30 was not severly handicapped by it's 16GB/s memory bandwidth. Even 2-Sample AA is in almost every situation quite playable, when the same settings are playable without FSAA also.
Of course, a different architecture could produce more traffic on the memory bus - but on the other hand could a revised caching strategy and improved memory-controller also reduce the unavoidable overhead.

The most difficult everyday situation to get one's horsepower on to the street is with bilinear single-texturing, where all TMUs (eight in either case - 4x2 or 8x1) are requiring maximum bandwidth over a lengthier period of time and not in short bursts only, which would be cacheable to an extent.

But with shaders calculating more and more per pixel, the most bandwidth consuming stage is shifted more toward anti-aliasing and not "normal" rendering.

Hmm... hatte das wohl ne Fehlinfo was den Speichertakt der 6800 angeht :D
Also sind das ca. 1/4 weniger theoretische Speicherbandbreite. Ist aber nicht so, dass ein 256Bit Interface immer ineffizienter arbeitet als ein 128Bit Interface, welches voll optimiert ist?
Sagen wir 20% weniger oder 25% mehr ;) - dann haben wir noch 2,4GB/s als Puffer für eventuell höhere Ausnutzung durch bessere Granularität - wobei ich denke, daß für den Worst-Case, bilineares Single-Texturing, beide gleich gut/schlecht dastehen, da acht TMUs hüben wie drüben versorgt werden wollen. Dazu kommt eine vermutlich/hoffentlich verbesserte Speicherausnutzung bei neueren Produkten.

reunion
2004-08-11, 20:11:02
@reunion
mit 10% mehr Takt kommst du da nicht weiter. Es müssten schon 30-40% mehr Chiptakt sein (siehe NV40 vs R420) um hier die "Oberhand" zu gewinnen.


AKAIK wird die pro mhz leistung des NV40 etwas überschätzt, der einzige Grund warum sich der R420XT PE nicht wirklich absetzten kann ist die fehlende Speicherbandbreite, übertakte bei einem R420 mal den Speichertakt und du wirst feststellen das die Leistung fast linear ansteigt. Diesen Vorteil hat NV im Midragebereich allerdings nicht mehr.


256bit DDR wäre machbar. Aber du musst das Preissegment bedenken. Wenn das tragbar gewesen wäre, hätte NVIDIA das sicher auch gemacht.
Ich weiss nicht ob die Kosten von 256bit DDR schon gering genug für den Midrangemarkt sind. Und wenn ja dann nur mit sehr geringen Taktraten.


Ich glaube nicht das ein 256-bit Speicherinfance mit billigen Speicher viel teurer kommt als ein 128-bit Speicherinfance mit recht hoch getakteten GDDR3 Speicher wo dann ev. auch noch die gefahr von lieferengpässen besteht. Warum NV sich darauf einlässt entzieht sich meiner logik...

reunion
2004-08-11, 20:14:03
@VooDoo7mx & robbitop: Überraschung im Sinne von -> anderer Fertigungsprozess (aber nichts ist 100% sicher).


Ich glaube nicht das ATi sich darauf einlässt, zumal der 110nm bis auf die Kostenersparnis ja IMo keine Vorteil bringt in vergleich zu 130nm lowk, ganz im Gegenteil man ließt sogar öfter das der 110nm Prozess sogar mehr Strom schlucken soll...

VooDoo7mx
2004-08-11, 20:23:47
AKAIK wird die pro mhz leistung des NV40 etwas überschätzt, der einzige Grund warum sich der R420XT PE nicht wirklich absetzten kann ist die fehlende Speicherbandbreite, übertakte bei einem R420 mal den Speichertakt und du wirst feststellen das die Leistung fast linear ansteigt. Diesen Vorteil hat NV im Midragebereich allerdings nicht mehr.


Kannst du das vielleicht auch einmal anhand einer Quelle belegen? Und wenn du schon dabei bist, dann belege das Gegenteil bezuüglich NV40.

Man könnte als Gegenbeispiel bringen, dass der Nv40 linear mit steigenden Chiptakt akaliert das bringt aber im Endeffekt nichts.

Fakt jedoch ist, dass der RV410 genau wie der R420 viel mehr Takt braucht, um den NV43 zu schlagen.

Quasar
2004-08-11, 20:43:48
Fakt jedoch ist, dass der RV410 [...]viel mehr Takt braucht, um den NV43 zu schlagen.

_Das_ ist allerdings bislang noch _kein_ Fakt. :)

wuzetti
2004-08-11, 20:46:02
Kannst du das vielleicht auch einmal anhand einer Quelle belegen? Und wenn du schon dabei bist, dann belege das Gegenteil bezuüglich NV40.

Man könnte als Gegenbeispiel bringen, dass der Nv40 linear mit steigenden Chiptakt akaliert das bringt aber im Endeffekt nichts.

Fakt jedoch ist, dass der RV410 genau wie der R420 viel mehr Takt braucht, um den NV43 zu schlagen.

und wie schaut es mit deinen beweisen, quellen oder sonstigen fakten aus, dass dem wirklich so ist? kennst du die specs des RV410 denn so genau? wenn ja, lass uns doch bitte daran teilhaben :biggrin:

IVN
2004-08-11, 21:37:24
@robbitop
I think that rv410 with 2 quads and 256 bit mem.con. with core/mem 450/400 MHz would destroy 6600gt with left .But that are only my prophecies,not facts.The 6800le can hardly beat an r9800xt.And this chip (nv40le) has a better memory con. ,higher bandwith,16 ROPs,and possibily a higher number of VSs.But at the same time slower clock speed(than nv43).

@Quasar
We all saw what an 256 bit mem.con. did to the nv35 in comparasion to nv30 .At 25 % higher clock speeds the later was not able to stand against an 5900.And now don't say anything about the shader core that now has one more unite (2*ps32bit).I'm talking about the ut and other old games that are not shader depended .

LovesuckZ
2004-08-11, 21:49:26
@Quasar
We all saw what an 256 bit mem.con. did to the nv35 in comparasion to nv30 .At 25 % higher clock speeds the later was not able to stand against an 5900.And now don't say anything about the shader core that now has one more unite (2*ps32bit).I'm talking about the ut and other old games that are not shader depended .

http://www.computerbase.de/artikel/hardware/grafikkarten/geforce_roundup/14/#comanche_4

ironMonkey
2004-08-11, 21:58:49
Kannst du das vielleicht auch einmal anhand einer Quelle belegen? Und wenn du schon dabei bist, dann belege das Gegenteil bezuüglich NV40.

Man könnte als Gegenbeispiel bringen, dass der Nv40 linear mit steigenden Chiptakt akaliert das bringt aber im Endeffekt nichts.

Fakt jedoch ist, dass der RV410 genau wie der R420 viel mehr Takt braucht, um den NV43 zu schlagen.


Du kannst mal Tombman fragen und schon bei der X800Pro limitiert der Speicher, im ATI Forum hatte ich vor ein paar Wochen jemand darum gebeten nur mal den Speicher takt anzuheben und der FPS Gewinn war fast so hoch wie wenn er noch den Chip hoch taktet, wurde auch schon beim Review vom 3DC bemerkt das der Speicher den R420 ausbremst.

@IVN, sag mal du kannst Deutsch gut lesen aber nur nicht gut schreiben oder?????


Gruß

Edit:http://www.3dcenter.de/artikel/r420_benchmarks/index12.php

robbitop
2004-08-11, 22:00:22
Yes and no. nV30 was not severly handicapped by it's 16GB/s memory bandwidth. Even 2-Sample AA is in almost every situation quite playable, when the same settings are playable without FSAA also.
Of course, a different architecture could produce more traffic on the memory bus - but on the other hand could a revised caching strategy and improved memory-controller also reduce the unavoidable overhead.

The most difficult everyday situation to get one's horsepower on to the street is with bilinear single-texturing, where all TMUs (eight in either case - 4x2 or 8x1) are requiring maximum bandwidth over a lengthier period of time and not in short bursts only, which would be cacheable to an extent.

But with shaders calculating more and more per pixel, the most bandwidth consuming stage is shifted more toward anti-aliasing and not "normal" rendering.


schön, dass du es nochmal wiederholst ;)
-> FULL ACK


AKAIK wird die pro mhz leistung des NV40 etwas überschätzt, der einzige Grund warum sich der R420XT PE nicht wirklich absetzten kann ist die fehlende Speicherbandbreite, übertakte bei einem R420 mal den Speichertakt und du wirst feststellen das die Leistung fast linear ansteigt. Diesen Vorteil hat NV im Midragebereich allerdings nicht mehr.


Beide haben dieselbe Bandbreite. Und ATi hat sogar 30% mehr Chiptakt. So what?


@VooDoo7mx & robbitop: Überraschung im Sinne von -> anderer Fertigungsprozess (aber nichts ist 100% sicher).


was soll das bringen?
110nm ist ein low cost Fertigungsprozess. Mich wundert es schon, dass man einen so komplexes Design wie NV43 mit diesem Lauffähig bekommt. Da FSG als Dielektrikum zum Einsatz kommt, sollten keine Vorteile entstehen.
Ob die Kostenersparnis den Aufwand +Risiko wert ist???


@robbitop
I think that rv410 with 2 quads and 256 bit mem.con. with core/mem 450/400 MHz would destroy 6600gt with left .But that are only my prophecies,not facts.The 6800le can hardly beat an r9800xt.And this chip (nv40le) has a better memory con. ,higher bandwith,16 ROPs,and possibily a higher number of VSs.But at the same time slower clock speed(than nv43)


speculation ;)

---
Hm ich kann nicht glauben, dass NVIDIA absichtlich die schlechtere Variante nimmt. Man simuliert in den Labors das Verhalten zw Chiptakt und Bandbreite und wenn es ausbalanciert ist, versucht man das so auf den Markt zu bringen. Man wird nicht 500MHz GDDR3 128bit bringen, wenn 256bit DDR mit sagen wir 300-400MHz DDR1 billiger und dennoch schneller wäre. In diesem Segment muss man sehr auf den Preis achten.
Aber das ist nur eine Vermutung, vieleicht könnte sich mal jemand dazu äußern, der wirklich Ahnung von PCBs und Verschaltungen hat.
Demirug??

IVN
2004-08-11, 22:01:40
@ironMonkey
You got it !!
:cool:

IVN
2004-08-11, 22:06:07
@robbitop
Yes,i allready wrote it:But that are only my prophecies,not facts.




P.S.It is only my speculation

LovesuckZ
2004-08-11, 22:06:09
Du kannst mal Tombman fragen und schon bei der X800Pro limitiert der Speicher, [...]

Weil der memorycontroller im Arsch ist.
Ich kaufe diesen Mist mit "er waere programmierbar" nicht ab.
Ansonsten scheint es bei der Pro noch andere Probleme zu geben, dies jedenfalls beweisen die Tests mit den CAT4.9b (oder a[lpha]?), w die XTPE mit AA/AF staerker an Leistung gewinnt als die Pro (ausgenommen ist hier Computerbase.de).
ATi benoetigt also eine staerkere Bandbreite als Nvidia, um die Fillrate auszunutzen.

Gil-galad
2004-08-11, 22:06:11
http://www.computerbase.de/artikel/hardware/grafikkarten/geforce_roundup/14/#comanche_4

Du weisst aber, dass Comanche 4 CPU-limitiert ist, oder?

LovesuckZ
2004-08-11, 22:06:46
Du weisst aber, dass Comanche 4 CPU-linitiert ist, oder? Deswegen hat dieser Link 0 Aussage zum Thema 128 vs 256 Bit Speicherinterface.

Du koenntest dich auch weiterklicken... :ugly:

Quasar
2004-08-11, 22:08:44
@Quasar
We all saw what an 256 bit mem.con. did to the nv35 in comparasion to nv30 .At 25 % higher clock speeds the later was not able to stand against an 5900.And now don't say anything about the shader core that now has one more unite (2*ps32bit).I'm talking about the ut and other old games that are not shader depended .

It was - and not only in 1024 plain vanilla. Granted, 1280 and 1600 with 4-Sample MSAA applied saw the FX5900 winning most of the time. Everywhere else the FX5800 and especially the 'ultra' could more than keep up.
Lovesuckz already linked to my review at computerbase.de, which led me to this opinion.

Gil-galad
2004-08-11, 22:09:33
Du koenntest dich auch weiterklicken... :ugly:

Du meinst wohl scrollen ;)

Irgendwie scheint die FX sowieso kaum von den 256 Bit zu profitieren. Wenn man sich hingegen den Vergleich zwischen 9500 Pro und 9700 anschaut (beide sind gleich getaktet,Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/16/#an_2_neopolis)), dann ist der Unterschied da wesentlich größer. Gut die 9700 hat die doppelte Bandbreite. Aber zwischen 5800 Ultra und 5900 sinds auch 8 GB/s.

robbitop
2004-08-11, 22:12:13
öhm... und wie wollen sie die 8 Pipes auslasten? Mit einem 128-Bit Speicherinterface sehe ich da starke Probleme.

128-Bit verlangsamt ja schon eine 9800SE mit 4 Pipes um einiges :ugly:

Da scheiterst du am loopen der ROPs oder an mangelnder AA Füllrate ;)
Einfach mal den Chiptakt aufdrehen.

robbitop
2004-08-11, 22:14:20
ATi benoetigt also eine staerkere Bandbreite als Nvidia, um die Fillrate auszunutzen.

so sieht es derzeit wohl aus. (laut ein paar Messungen von Demirug)
Kaschieren kann man das mit AF aber sehr gut



Irgendwie scheint die FX sowieso kaum von den 256 Bit zu profitieren. Wenn man sich hingegen den Vergleich zwischen 9500 Pro und 9700 anschaut (beide sind gleich getaktet,Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/16/#an_2_neopolis)) , dann ist der Unterschied da wesentlich größer. Also was ist da bei der FX los? Ineffektivität des 256 Bit Speicherinterfaces?

Weniger Zugriffe auf den Speicher, da du von vielen Einheiten ja nur 4 hast statt 8. Ausserdem könnte die Speicherbandbreitenausnutzung etwas besser sein als bei der Konkurrenz.

IVN
2004-08-11, 22:23:54
@AiS|Gil-galad
What are you talking about.Look at the ut2k3 benches at 4xAA and 8xAF.Even an 5900tx can blow away an 5800U.Core 390MHz against 500 ,but the memory con. is the GOD here.

robbitop
2004-08-11, 22:28:49
you say it:
4xMSAA
But @0xAA/2xAA there is no big difference between NV30 and NV35 in nonshaderlimited Games ;)

IVN
2004-08-11, 22:34:16
@robbitop
We are really offtopic.We shuld me speaking about 6600gt.

So,it would be interesting to compare 6800nu,6800le and 6600gt.I think that the later will be the loser.

IVN
2004-08-11, 22:35:13
In D3

robbitop
2004-08-11, 22:43:00
not really OT because we try to anticipate from the behaviour of NV30 (quite similar situation to NV35) to behaviour of NV43. ;)

Gil-galad
2004-08-11, 23:28:38
@AiS|Gil-galad
What are you talking about.Look at the ut2k3 benches at 4xAA and 8xAF.Even an 5900tx can blow away an 5800U.Core 390MHz against 500 ,but the memory con. is the GOD here.

Have a look @ Splinter Cell Oil Refinery @ 1024/4xAA/8xAF ;)

Where is the Memory Controller GOD now?

So it's easy to find benchmarks where the Memory Controller is important and other benchmarks where the Memory Controller is not important ;)

You can't say: The Memory Controller is important in ever scenario. Sometimes more GPU clock is important and sometimes the Memory Controller is the best.

VooDoo7mx
2004-08-11, 23:34:49
Gehts noch?

Das ist verdammt OT,

Aber wieso muss ich in einen deutschsprachichigen Forum englische Beiträge lesen? Und wieso antworten Leute auch noch darauf?

Ich gehe auch nicht einfach in ein amerikanisches Forum und schreibe das deutsche Beiträge.

Was soll das? Und wieso wird das überhaupt toleriert?

StefanV
2004-08-11, 23:35:41
Du meinst wohl scrollen ;)

Irgendwie scheint die FX sowieso kaum von den 256 Bit zu profitieren. Wenn man sich hingegen den Vergleich zwischen 9500 Pro und 9700 anschaut (beide sind gleich getaktet,Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/16/#an_2_neopolis)), dann ist der Unterschied da wesentlich größer. Gut die 9700 hat die doppelte Bandbreite. Aber zwischen 5800 Ultra und 5900 sinds auch 8 GB/s.

Naja, du musst auch bedenken, daß die R300 auch von Anfang an auf ein 256bit SI ausgelegt ist, ie Interne Datenpfade, Cache und so weiter und so fort :)



@AiS|Gil-galad
What are you talking about.Look at the ut2k3 benches at 4xAA and 8xAF.Even an 5900tx can blow away an 5800U.Core 390MHz against 500 ,but the memory con. is the GOD here.
Bedenke auch, daß ein 256bit Speicherinterface beim NV35 nur nachgeschoben ist.

Soll heißen: es ist alles andere als optimal implementiert, denn dafür dürfte wohl die Zeit gefehlt haben...


PS: IVN erwähnte mal in einem anderen Thread, daß er zwar deutsch versteht und es auch lesen kann, er aber mit dem Schreiben so seine Probleme hat, weshalb er in englisch antwortet ;)

StefanV
2004-08-11, 23:43:43
Gehts noch?

Das ist verdammt OT,

Aber wieso muss ich in einen deutschsprachichigen Forum englische Beiträge lesen? Und wieso antworten Leute auch noch darauf?

Ich gehe auch nicht einfach in ein amerikanisches Forum und schreibe das deutsche Beiträge.

Was soll das? Und wieso wird das überhaupt toleriert?


Voodoo7mx, jeder hat hier in diesem Forum das Recht seine Meinung kund zu tun, die Sprache ist dabei irrelevant, sofern davon auszugehen ist, daß ein Großteil der Forumsteilnehmer in der Lage ist sie zu schreiben.

Deinen Beitrag find ich allerdings ziemlich unpassend, da er nicht gerade viel zum Thema beiträgt und das Verhältnis im Forum nur unnötig anspannt!!

Warum es toleriert wird?!
Ganz einfach, weil wir ein freies Forum sind...

Desweiteren steht es dir frei, jeden Beitrag zu überlesen und Personen auf deiner Ignore List hinzuzufügen.

Gil-galad
2004-08-11, 23:46:34
Gehts noch?

Das ist verdammt OT,

Aber wieso muss ich in einen deutschsprachichigen Forum englische Beiträge lesen? Und wieso antworten Leute auch noch darauf?

Ich gehe auch nicht einfach in ein amerikanisches Forum und schreibe das deutsche Beiträge.

Was soll das? Und wieso wird das überhaupt toleriert?
Ich glaub bei Dir geht grad was nicht ;)

Bedenke auch, daß ein 256bit Speicherinterface beim NV35 nur nachgeschoben ist.

Soll heißen: es ist alles andere als optimal implementiert, denn dafür dürfte wohl die Zeit gefehlt haben...
Das sagen teilweise die Benchmarks ja auch imo. Deshalb sprach ich ja auch von Ineffektivität.

robbitop
2004-08-12, 00:08:47
humbug. Wer hat das nur wieder verbreitet?
Das Speicherinterface ist seit Ewigkeiten bei NV entkoppelt vom Chip und direkt an die Caches angebunden (chipintern ist genügend Bandbreite vorhanden für ein 256bit DDR Interface). Da könnte man auch mehr implementieren, wenn man das so wollte.
Der Archmark misst übrigens ebenfalls nichts, was darauf hindeutet.
1 Quadpipeline hat nunmal weniger Speicherzugriffe als 2, somit ist man auch nicht so extrem bandbreitenabhängig gewesen.

IVN
2004-08-12, 00:11:38
@Stefan Payne

You are the MAN. :massa:


nv30 and nv35 micro arhitectures are not from the begining planed to have a 256 bit width mem.con. that is the reason why they don't use the extra bandwidth so good like radeons 3xx.



@VooDoo7mx
Please no flame.

Gil-galad
2004-08-12, 00:14:41
@Stefan Payne
nv30 and nv35 micro arhitectures are not from the begining planed to have a 256 bit width mem.con.

Why does the NV30 only had a 128 Bit memory interface when it was planed with a 256 Bit interface?

StefanV
2004-08-12, 00:15:13
humbug. Wer hat das nur wieder verbreitet?
Das Speicherinterface ist seit Ewigkeiten bei NV entkoppelt vom Chip und direkt an die Caches angebunden (chipintern ist genügend Bandbreite vorhanden für ein 256bit DDR Interface). Da könnte man auch mehr implementieren, wenn man das so wollte.
Der Archmark misst übrigens ebenfalls nichts, was darauf hindeutet.
1 Quadpipeline hat nunmal weniger Speicherzugriffe als 2, somit ist man auch nicht so extrem bandbreitenabhängig gewesen.

Die Readports von den Pipes zum Memory Controller müssen auch auf die höhere Bandbreite ausgelegt sein.

Man kann nicht 'Mal eben' irgendwas an einem Chip aufbohren, man kann nur 'mal eben' etwas wegnehmen.

Man muss auch alles als eine ganze Einheit sehen, die hoch optimiert ist, um möglichst gut (und schnell) zu arbeiten....

Der Mem Controller ist sicher auch einigermaßen auf den verdoppelten Speicherbus ausgelegt, nur der Rest eher nicht...

Korak
2004-08-12, 00:16:13
Gehts noch?

Das ist verdammt OT,

Aber wieso muss ich in einen deutschsprachichigen Forum englische Beiträge lesen? Und wieso antworten Leute auch noch darauf?

Ich gehe auch nicht einfach in ein amerikanisches Forum und schreibe das deutsche Beiträge.

Was soll das? Und wieso wird das überhaupt toleriert?


Ja, es geht noch. Und wir tolerieren das weil wir einfach unverschämt net sind - meistens.

Damit dürfte das geklärt sein.

robbitop
2004-08-12, 00:18:45
the controller isn't coupled directly to the Chip.
It's connected to the texturecaches, which are connected very fast to the rest of the chip.
The result is, that it doesn't matter how wide the interface is. There would be no great problem to implement a 512bit DDR Interface on it. But the cost is the problem.
4 SIMDs (4x2) doesn't consumpt as much bandwith as 8 (8x1).

IVN
2004-08-12, 00:20:53
@AiS|Gil-galad
Read my post again.


@Korak
Everyone who doesn't wants to write in English,doesn't has to do so.I can also read German so there is no problem. (y)

Gil-galad
2004-08-12, 00:21:09
Die Readports von den Pipes zum Memory Controller müssen auch auf die höhere Bandbreite ausgelegt sein.

Man kann nicht 'Mal eben' irgendwas an einem Chip aufbohren, man kann nur 'mal eben' etwas wegnehmen.

Man muss auch alles als eine ganze Einheit sehen, die hoch optimiert ist, um möglichst gut (und schnell) zu arbeiten....

Der Mem Controller ist sicher auch einigermaßen auf den verdoppelten Speicherbus ausgelegt, nur der Rest eher nicht...

Ich seh es auch so. NVidia war nach dem NV30 einfach im Zugzwang. Und die einfachste und schnellste Lösung war imo das 256 Bit Speicherinterface. Man konnte sich damals einfach kein zeitaufwendiges Redesign leisten. Die 128 Bit mehr brachten teilweise einen recht guten Performanceschub, mit dem man an ATi halbwegs dran blieb. Ich würde eher von einer "Notlösung" sprechen.

Aber wie es nun wirklich aussieht, kann wohl nur NVidia klären.

@ Topic: Wenn die 6600 GT wirklich so schnell wird, dann könnte mal wieder eine NVidia Karte in meinem Rechner landen.

robbitop
2004-08-12, 00:22:22
Die Readports von den Pipes zum Memory Controller müssen auch auf die höhere Bandbreite ausgelegt sein.

Man kann nicht 'Mal eben' irgendwas an einem Chip aufbohren, man kann nur 'mal eben' etwas wegnehmen.

Man muss auch alles als eine ganze Einheit sehen, die hoch optimiert ist, um möglichst gut (und schnell) zu arbeiten....

Der Mem Controller ist sicher auch einigermaßen auf den verdoppelten Speicherbus ausgelegt, nur der Rest eher nicht...

Es braucht nur einen neuen Speichercontroller. Die Anbindung ist wie ich schon sagte an den Cache gekoppelt. Bis zu einer gewissen Grenze kannst du da noch größere Interfaces koppeln. (klar entstehen dadurch Latenzen aber das tun sie auch bei 128bit ;) )
Ist nur die Frage ob der neue Speichercontroller optimal eingestellt ist. Archmark gibt keine Indizien, dass es nicht so ist.
Die 5900 skalliert auch kein bisschen mit den Speicherlatenzen und dem Takt (selbst wenn der Controller schlecht angebunden wäre, würde mehr Takt immer noch Vorteile bringen...tut er aber nicht).
1 Pixelprozessor frisst eben weniger Bandbreite als 2. Dadurch ist man nicht ganz so abhängig von der Bandbreite.

Gil-galad
2004-08-12, 00:23:40
@AiS|Gil-galad
Read my post again.

Uuups sorry. My fault. I didn't read the not ;)

Gil-galad
2004-08-12, 00:28:00
1 Pixelprozessor frisst eben weniger Bandbreite als 2. Dadurch ist man nicht ganz so abhängig von der Bandbreite.

Das ist ja schon klar. Nur wieso baut man dann extra 128 Bit mehr ein, welche ja auch Transistoren fressen, und nur relativ wenig bringen? Das verteuert nur die Produktion und macht den NV35 unprofitabler. Sicher beim RAM ging damals nicht mehr (also höherer Takt) und 128 Bit waren wohl der einzige Ausweg. Allerdings hat NVidia das wohl selber zu verschulden gehabt. Beim NV30 hat man sich einfach "verplant".

robbitop
2004-08-12, 00:31:30
man verbaut sie, weil man damals wie du sicher noch weisst, jedes % brauchte und viele Leute 4xMS geil waren ohne zu wissen, dass es sich bei NV nur um OG handelt.
Im Prinzip bringt es nur bei 4xOGMS wirklich etwas.
IMO hat man relativ zum NV35 echte Wiedergutmachungsarbeit geleistet. Mehr war für einen Refresh nicht drin. Und das war schon sehr aufwändig.
Man arbeitete am HSR, an den ROPs, an der PS Logik (Regcombiner raus und eine MAD FPU rein), an der Colorcompression, Stencilculling, ein Redesign in Punkto Leckströme, und noch so einige andere Features.
Für einen Refresh ist das eine Menge

aths
2004-08-12, 00:31:38
Das ist ja schon klar. Nur wieso baut man dann extra 128 Bit mehr ein, welche ja auch Transistoren fressen, und nur relativ wenig bringen? Das verteuert nur die Produktion und macht den NV35 unprofitabler. Sicher beim RAM ging damals nicht mehr (also höherer Takt) und 128 Bit waren wohl der einzige Ausweg. Allerdings hat NVidia das wohl selber zu verschulden gehabt. Beim NV30 hat man sich einfach "verplant".Mit dem Interface ergab sich die Möglichkeit, gegenüber dem NV30 schneller zu werden. Natürlich verdoppelt sich die Geschwindigkeit nicht. Als Highend-Chip kommt es beim NV35 nicht sooo sehr darauf an, dass jeder einzelner Chip maximalen Profit abwirft.

IVN
2004-08-12, 00:38:43
@robbitop
Yes,the diference between an 5900tx and an 5900 is really small. FX cards
do not scale with the higher mem.clock ???? But thay already have a high mem. cl. compared with r3xx,and aprox. the similar multi texel fillrate.Maybe i am wrong,but radeons also scale poorly with higher mem. clocs.

Gil-galad
2004-08-12, 00:42:03
Mit dem Interface ergab sich die Möglichkeit, gegenüber dem NV30 schneller zu werden. Natürlich verdoppelt sich die Geschwindigkeit nicht. Als Highend-Chip kommt es beim NV35 nicht sooo sehr darauf an, dass jeder einzelner Chip maximalen Profit abwirft.
Damit bestätigst Du ja meine vorigen Aussagen. Es war/ist letztlich nur eine Notlösung, um an ATi dran zu bleiben und ohne ein zeitaufwendiges Redesign (8 statt 4 Pipelines um das Speicherinterface besser auslasten zu können) machen zu müssen.

robbitop
2004-08-12, 00:44:27
@IVN
then try 4-6xAA NoAF and lets say 1280.
There you can see the R3xx scale nearly linear w/ the mem clock. (I got 1 NV35 and 1 R3xx).
At NV35 the Memclock doesn't give linear boost @4xMS. Here the Loops of the ROPs are limiting the sceen because of less bandwith consumption.

robbitop
2004-08-12, 00:46:36
Damit bestätigst Du ja meine vorigen Aussagen. Es war/ist letztlich nur eine Notlösung, um an ATi dran zu bleiben und ohne ein zeitaufwendiges Redesign (8 statt 4 Pipelines um das Speicherinterface besser auslasten zu können) machen zu müssen.

In einem Refresh so ein Redesign?? Wie soll das gehen?
Für ein Redesign ist enorm viel am Chip gemacht worden (damals am NV25 ebenfalls). Jedenfalls mehr als nur das Interface. Warum sollte man es auch nicht implementieren? Das rettende Design kam doch bereits 1 Jahr später mit dem NV40. Schneller sollte sowas eigentlich nicht gehen.

IVN
2004-08-12, 00:50:31
@robbitop
Sory for OT,but what r3xx do you have?
And what nv3x?
I hope it's not nv34. :ugly2:

Gil-galad
2004-08-12, 00:51:16
In einem Refresh so ein Redesign?? Wie soll das gehen?
Indem man sehr viel Geld/Arbeit/Leute reinpumpt ;)

Außerdem hatte man sich mit dem NV30 blamiert. Von daher wäre so ein Redesign nicht unbedingt unmöglich gewesen. Aber ein breiteres Speicherinterface scheint ja gereicht zu haben, um an ATi dran zu bleiben.

robbitop
2004-08-12, 00:53:59
@IVN

1.PC NV35 (read my posting) -> Sparkle FX5900 @500/900 lowlatency bios
2. PC R350 -> Sapphire Radeon9800PRO @400/364 VGASilencer

@Robert
nette Vorstellung ...aber auch nicht mehr ;)

zum 3. Mal: da sind noch viele andere Dinge passiert ausser das Speicherinterface (siehe oben)

IVN
2004-08-12, 01:00:22
@robbitop
Sry i never look at the sig.But Fx has a 900MHz memory cl. and Mr. R has only 728MHz.Fx already has enough bandwidth but Mr. R not .

robbitop
2004-08-12, 01:03:06
@IVN
it isn't only in the sig. Its in the post too ;)

yeah but it doesnt scale linear. A friend of mine got an 5900XT. The Core Clock brought much more performance than the mem clock.

Gil-galad
2004-08-12, 01:07:19
@ Topic

Also die 8000 3D Marks sind imo auch mit 128 Bit Speicherinterface drin. Die Bandbreite von 16 GByte/s sind schon recht viel, wenn kein AA an ist. Und die Shaderperformance sollte auch vorhanden sein. Meine 9700 Pro schafft an die 5000 3D Marks. Sie hat zwar 3,8 GByte/s mehr Speicherdurchsatz, dafür aber die geringer Füllrate und die Pixelshader-Performance sollte bei ca. 50 - 60% der 6600GT liegen. Von daher sollten 8000 3D Marks durchaus machbar sein.

Hat jemand zur Pixelshader-Performance eventuell genauere Zahlen bzw. könnte es theoretisch herleiten (basierend auf den NV40 Zahlen?).

Etwas skeptisch bin ich bei den Doom 3 Angaben von 42 fps bei 1024x768 mit High Quality und 4xAA/8xAF. 42 fps halte ich für etwas hochgegriffen, da vorallem ab da der Speicherdurchsatz doch begrenzen sollte.

Hartware.net Doom 3 Check (http://www.hartware.net/review_417_5.html)

Eine X800 Pro bricht bei 1024x768 mit 4xAA/8xAF auf 37,1 fps ein. Und eine 6600 GT sollte selbst mit der Anpassung an Doom 3 (Ultra Shadow 2) nicht eine X800 Pro schlagen können imo.

Gil-galad
2004-08-12, 01:09:25
@Robert
nette Vorstellung ...aber auch nicht mehr ;)

zum 3. Mal: da sind noch viele andere Dinge passiert ausser das Speicherinterface (siehe oben)

Ja nur eine Vorstellung ;)

Ja ich weiss doch, dass noch andere Dinge verändert wurden.

robbitop
2004-08-12, 01:12:11
dann drück es bitte auch so aus ;)
IMO hat NV nach (bzw schon ein halbes Jahr vor)der NV30 Vorstellung wirklich enorm Dampf gemacht.

robbitop
2004-08-12, 01:15:16
@ Topic

Etwas skeptisch bin ich bei den Doom 3 Angaben von 42 fps bei 1024x768 mit High Quality und 4xAA/8xAF. 42 fps halte ich für etwas hochgegriffen, da vorallem ab da der Speicherdurchsatz doch begrenzen sollte.

Hartware.net Doom 3 Check (http://www.hartware.net/review_417_5.html)

Eine X800 Pro bricht bei 1024x768 mit 4xAA/8xAF auf 37,1 fps ein. Und eine 6600 GT sollte selbst mit der Anpassung an Doom 3 (Ultra Shadow 2) nicht eine X800 Pro schlagen können imo.

Hm, handelt es sich um die gleiche Timedemo und den gleichen PC bei deinem Verlgleich X800PRO vs 6600GT? Wenn nicht, sind die Ergebnisse unbrauchbar.

wieso nicht? man hat 33% mehr Stencilfüllrate. Man hat Quad Based Z Culling und man hat Ultrashaddow und dazu leicht erhöten Takt.
Wobei 4xAA mich bei 16GiB/sek auch etwas stutzig machen.
Vieleicht ist der NV43 ja besser ausbalanciert, als so mancher vermutet...

Gast
2004-08-12, 01:15:55
Die Readports von den Pipes zum Memory Controller müssen auch auf die höhere Bandbreite ausgelegt sein.

Man kann nicht 'Mal eben' irgendwas an einem Chip aufbohren, man kann nur 'mal eben' etwas wegnehmen.

Man muss auch alles als eine ganze Einheit sehen, die hoch optimiert ist, um möglichst gut (und schnell) zu arbeiten....

Der Mem Controller ist sicher auch einigermaßen auf den verdoppelten Speicherbus ausgelegt, nur der Rest eher nicht...

Das der Mem Controller auf 256Bit ausgelegt sein soll halte ich für ein Gerücht!

Dat geht ja nu ma jar niet!

Letztendlich ist das unterschiedliche Design.

Ich geh stark davon aus das nv Ihre Chip Produktion bald von AGP zu PCI Express Bridge umrödeln wird und genauso wie ATI nur noch native PCI Express Chips produzieren kann. Das beudetet nv wird irgendwann auf den Marketingzug "NATIVE" aufspringen und dann sehe ich schon die Begeisterungswelle hehe , es ist aber nur ein logischer Schritt, da die Chipfertigungsstätten nur PCI Express Asics künftig produzieren werden. Der Rest (AGP) ist ausgeluscht!

Bezüglich 256Bit, es wird nur mit PCI Express einen 256Bit 6600GT geben, das dauert noch, in der Zwischenzeit wird er sorgar vom X600 an die Wand gespielt, Performance-Mässig.

Hm, mal eben überlegt, nv hat ja nur nen AGP PCI Express Chipdesign ready! zwar mit SM3.0, frage mich nur wo die die Kohle hernehmen wollen, mal eben nen NEUES PCI Express Design zu erstellen.

Dat wird $.$$$.$$$,$$ Kosten, bei einem 24 Monatstief laut Aktienkurs, www.ntv.de, haben die bestimmt die $$$ zu hauffe rumfliegen!

Stay cool, dat gibt nix!

Gil-galad
2004-08-12, 01:26:50
Hm, handelt es sich um die gleiche Timedemo und den gleichen PC bei deinem Verlgleich X800PRO vs 6600GT? Wenn nicht, sind die Ergebnisse unbrauchbar.

wieso nicht? man hat 33% mehr Stencilfüllrate. Man hat Quad Based Z Culling und man hat Ultrashaddow und dazu leicht erhöten Takt.
Wobei 4xAA mich bei 16GiB/sek auch etwas stutzig machen.
Vieleicht ist der NV43 ja besser ausbalanciert, als so mancher vermutet...
Ja da hast Du natürlich recht. Ich bin von der Timedemo 1 ausgegangen, die im Moment ja "Standard" sein dürfte. Falls sie unterschiedliche Demos nutzen, ist ein Vergleich natürlich nicht mehr gegeben.

Ich sollte ab 23:00 nichts mehr posten.

Sunrise
2004-08-12, 02:37:28
@AiS|Gil-galad:
Laut PDF sind es 56 FPS, kleiner Auszug:
56 fps
@ High Quality 10x7, 32-bit, 4xAA / 8x Aniso
or
@ High Quality 16x12, 32-bit
@robbitop:
"...TSMC’s 0.11-micron process technology is fundamentally a direct shrink of its industry-leading 0.13-micron process. The process will be available in both high performance and general-purpose versions. Though actual results are design-dependent, TSMC’s 0.11-micron high performance process also includes transistor enhancements that improve speed and reduce power consumption relative to its 0.13-micron technology. It also delivers devices that are 15 to 20 percent smaller in size. When produced in TSMC 300mm Fabs, this combination results in a significant cost savings on a per-die basis..." "...Yields have already reached production-worthy levels and the low-voltage version has already ramped into volume production..."

1. 110nm high-performance low-voltage (FSG) <=>~ 130nm Low-K
2. 130nm LowK -> 110nm FSG (significant cost-savings on per die basis) - a) LowK-Material ist teuer b) mehr Platz pro Wafer
3. volume production - wie man bereits am NV43 erkennen kann

Dies sollte die weit verbreitete Meinung über die Einsatzmöglichkeiten, Qualität (im Sinne von Yields) und der Performance des 110nm-Prozesses endgültig ad acta legen.

aths
2004-08-12, 02:39:28
Damit bestätigst Du ja meine vorigen Aussagen. Es war/ist letztlich nur eine Notlösung, um an ATi dran zu bleiben und ohne ein zeitaufwendiges Redesign (8 statt 4 Pipelines um das Speicherinterface besser auslasten zu können) machen zu müssen.Das Wort "Notlösung" würde ich nicht gebrauchen. Imo ist das frühzeitig geplant gewesen, den NV35 mit 256 Bit kommen zu lassen, sowie dem Shadercore eine FPU hinterherstellen, um die Pixelshader-Performance zu erhöhen. Die meisten Entwicklungsressourcen waren wohl schon längst dem NV40 zugeteilt – was sich offenbar gelohnt hat. Was den Pixelshader-Speed angeht war es basierend auf NV30 ohnehin nicht möglich, mit ATI gleichzuziehen.

robbitop
2004-08-12, 02:45:04
@sunrise
da erzählst du mir nichts Neues

Wobei High Performance hier falsch interpretiert werden kann.
Das ist die Version die im VPU Bereich genutzt wird.
Ich habe irgendwo ein Zitat zu liegen, dass der nächste High End Prozess erst Nextgen ist.

Deine Analogie kommt hin IMO.

Sunrise
2004-08-12, 02:57:22
@sunrise
da erzählst du mir nichts Neues

Wobei High Performance hier falsch interpretiert werden kann.
Das ist die Version die im VPU Bereich genutzt wird.
Ich habe irgendwo ein Zitat zu liegen, dass der nächste High End Prozess erst Nextgen ist.

Deine Analogie kommt hin IMO.
Die ursprüngliche Planung war darauf bezogen, dass man NexSys(tm) als nächsten großen Schritt der breiten Masse an Anwendungen zugänglich macht. TSMC hat durch die sehr starke Nachfrage im VPU-Bereich aber mittlerweile die Zeit, bis 90nm für VPU-Designs verfügbar ist, mit 110nm FSG LV überbrückt, da er augenscheinlich sehr gute Resultate liefert und die Yields überraschend gut sind. Der 110nm is daher kein "General Purpose"-Prozess, sondern nur eine Art "Übergangsphase" für VPU-Designs.

Gil-galad
2004-08-12, 09:58:41
@AiS|Gil-galad:
Laut PDF sind es 56 FPS, kleiner Auszug:

Dies macht die Zahl aber noch unglaubwürdiger. 56 fps in 1024x768 mit 4xAA/8xAF? Da müsste man schon eine Szene gewählt haben, die die Grafikkarte kaum belastet. Anders lässt sich das imo nicht erklären.

Falls es aber stimmen sollte, dann wäre das natürlich fantastisch.

Das Wort "Notlösung" würde ich nicht gebrauchen. Imo ist das frühzeitig geplant gewesen, den NV35 mit 256 Bit kommen zu lassen, sowie dem Shadercore eine FPU hinterherstellen, um die Pixelshader-Performance zu erhöhen. Die meisten Entwicklungsressourcen waren wohl schon längst dem NV40 zugeteilt – was sich offenbar gelohnt hat. Was den Pixelshader-Speed angeht war es basierend auf NV30 ohnehin nicht möglich, mit ATI gleichzuziehen.

Ok.

reunion
2004-08-12, 10:33:17
Kannst du das vielleicht auch einmal anhand einer Quelle belegen? Und wenn du schon dabei bist, dann belege das Gegenteil bezuüglich NV40.

Man könnte als Gegenbeispiel bringen, dass der Nv40 linear mit steigenden Chiptakt akaliert das bringt aber im Endeffekt nichts.

Fakt jedoch ist, dass der RV410 genau wie der R420 viel mehr Takt braucht, um den NV43 zu schlagen.


http://www.3dcenter.de/artikel/r420_benchmarks/index12.php

Wie du hier siehst reagiert selbst eine X800pro viel besser auf mehr Speichertakt als auf mehr Chiptakt -> Bandbreitenlimitierung
Bei einer X800XT müsste diese verhalten logischerweise noch viel stäker ausfallen.

reunion
2004-08-12, 10:38:39
ATi benoetigt also eine staerkere Bandbreite als Nvidia, um die Fillrate auszunutzen.

Jap, so kann man das stehen lassen...

robbitop
2004-08-12, 10:41:21
Die ursprüngliche Planung war darauf bezogen, dass man NexSys(tm) als nächsten großen Schritt der breiten Masse an Anwendungen zugänglich macht. TSMC hat durch die sehr starke Nachfrage im VPU-Bereich aber mittlerweile die Zeit, bis 90nm für VPU-Designs verfügbar ist, mit 110nm FSG LV überbrückt, da er augenscheinlich sehr gute Resultate liefert und die Yields überraschend gut sind. Der 110nm is daher kein "General Purpose"-Prozess, sondern nur eine Art "Übergangsphase" für VPU-Designs.

General Purpose war nie für VPUs gedacht ;)
High Performance hingegen ja. Und das ist für VPUs ein auf lowcost optimierter Prozess.

aber anscheinend hat man mit dieser Einteilung doch ein paar Leute verwirrt.

Weisst du wie lange es dauert, einen Fertigungsprozess zu entwickeln? Das kann man nicht mal eben ändern. Sicher kann man ein wenig optimieren aber an vielen Dingen ist dann so schnell nichts mehr zu ändern.

Aber überrascht hat mich der Prozess auch.

Zum Speicherinterface:
Ich habe gehört, es sei immer teurer ein 256bit Interface zu implementieren als ein 128bit Interface.
-Mehr PINs/BALLs am Chip, ein größeres Speicherinterface -> Chip wird teurer
-doppelt so viele Datenleitungen im PCB (Signalleitungen bleiben ungefähr gleich)

Beide IHVs könnten das bestimmt im Midrange bringen, aber da hier hart um jeden ? gekämpft wird, macht das die Sache schon schwieriger.

stav0815
2004-08-12, 10:47:10
kleine Speku meinerseits:
wenn es eine GF 6600 und eine 6600GT gibt, wäre es da nicht möglich dass nVidia noch eine GF 6600 Ultra nachschiebt, sozusagen als Refresh oder um die GF6800LE in den Midrangemarkt zu drücken, halt als "6600 Ultra" ?

Quasar
2004-08-12, 10:50:28
@reunion
Ich bin nicht sicher, ob diese Ergebnisse (3Dcenter-Link) der Gültigkeit letzter Schluss sind, denn sie wurden mit 16xAF gemacht, welches eigentlich stark auf die Füllrate gehen sollte. Dies tut es aufgrund der nicht deaktivierten Optimierungen bei der X800 Pro dort allerdings nicht und so hängt das Ding selbstredend bei 4xAA derb an der Bandbreite. ;)


edit:
Aufgrund neu dazugekommener Postings den Bezug etwas verdeutlicht.

LovesuckZ
2004-08-12, 15:04:32
Scheint wohl ein "halber" Paperlaunch zu sein.

NV43 can effectively be thought of as half an NV40 – with 8 SIMD pixel shader pipelines (still with double Z/Stencil rates), 3 MIMD Vertex Shaders, a 128-bit memory bus width, full Pixel Shader 3.0 support and 64-bit floating point blending an filtering. Other than the performance features, one area that NV43 differs from NV40 is that this is the first of NVIDIA’s native PCI-Express chips. Also, while NV40 is presently produced on IBM's 130nm FSG process, NV43 will be utilising TSMC's 110nm process in order to minimize die sizes.

Beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=346272#346272)

Quasar
2004-08-12, 15:11:44
Ja, praktischerweise bringt man ja nur die PCI-Express Version raus - für die paar Mainboards, die davon im Umlauf sind, ist's halt leichter, die Nachfrage zu befriedigen.
Eigentlich keine dumme Idee.... :lolaway:

robbitop
2004-08-12, 15:27:22
naja Medion kauft auf einen schlag mehrere 100k Einheiten. Ausserdem gibts doch HSI ;)

IVN
2004-08-12, 15:39:34
@robbitop
And also the PCB must have more layers,what makes it more costly.More layers ensure a stabil signal,without elect.magnetic interference between the metal line conections.

Winter[Raven]
2004-08-12, 16:02:40
naja Medion kauft auf einen schlag mehrere 100k Einheiten. Ausserdem gibts doch HSI ;)

Genau zusagen sind es 200 000+ für Medion ;)

Quasar
2004-08-12, 16:04:20
Und genau wieviele davon wurden ohne passende PE-Grafik ausgeliefert?
;)
Der "normale" Aldi-PC Käufer ist IMO nicht der typisch-fanatische Aufrüster, der sich in diesen orangen Gefilden rumtreibt, insofern dürften die Rufe nach Verfügbarkeit IMO doch eher gering bleiben.

Sunrise
2004-08-12, 16:09:09
Ja, praktischerweise bringt man ja nur die PCI-Express Version raus - für die paar Mainboards, die davon im Umlauf sind, ist's halt leichter, die Nachfrage zu befriedigen.
Eigentlich keine dumme Idee.... :lolaway:
OEMs, AIBs vorerst nur Quasar. ATI ist in diesem Bereich (PCI-E) derzeit absolut Dominant (low-end, mid-end, high-end) und NV muss dort jetzt erstmal wieder Fuß fassen. Der Retailmarkt bei PCI-E ist derzeit mehr als nur "winzig". Wie robbitop schon sagte, wird man (problemlos) per HSI auch auf AGP gehen können, nur braucht man zuerst wieder ein Produkt, dass 1. stromparend ist, 2. leistungsfähiger gegenüber der Konkurrenz in dieser Preisklasse und 3. featuremäßig mithalten kann, und das ist NV mit dem NV43 auch wirklich gelungen.

PS: Das verneint natürlich dein Statement nicht, Nachfrage wäre derzeit sicher genügend im AGP-Retailmarkt vorhanden, allerdings ist es wie gesagt eine Sache der Volumina die man von einem Produkt in einer gewissen Zeit produzieren kann und NV scheint den PCI-E Markt natürlich nicht kampflos ATI überlassen zu wollen.

dildo4u
2004-08-12, 16:21:38
http://www.pcper.com/images/reviews/65/preso05_big.jpg

Kleiner Benchmix leider direkt von Nvidia


zu den 42 fps in doom3 das war mit folgendem system

"Here is NVIDIA's official quoted benchmark running the "timedemo demo1" on Doom3 setup. Of course, the rest of the system that they used is the Intel 560 processor running at 3.6 GHz with 1 GB of memory. "

http://www.pcper.com/article.php?aid=65

Enius
2004-08-12, 19:47:37
mich würde interessieren wann die AGP 6600 GT dann rauskommt, und wie teuer die wohl ist ????
Wer nen plan?
Wenn ich mir mal alles so durchelese scheint nvidia da ja echt nen hit zu landen !

WEGA
2004-08-12, 19:58:15
mich würde interessieren wann die AGP 6600 GT dann rauskommt, und wie teuer die wohl ist ????
Wer nen plan?
Wenn ich mir mal alles so durchelese scheint nvidia da ja echt nen hit zu landen !

garnicht?

M@g
2004-08-12, 20:01:45
? Natürlich kommt die AGP Version der Karte (nicht Chip!) gleichzeitig mit der PCI-E Version. Für AGP brauch man ja nur den HSI Chip auf das Board löten (zumindest stell ich mir das als einen sehr einfach Prozess vor, wenns kompliziert wäre würds ja nur Produktionskosten treiben).

Enius
2004-08-12, 20:43:32
AAAAAAAAAAAAAAAaa
warten und dann 6600 GT AGP version kaufen oder jetzt die ati radeon 9800 PRO ????
WAS SOLL ICH TUN *PANIK*

WEGA
2004-08-12, 21:23:19
AAAAAAAAAAAAAAAaa
warten und dann 6600 GT AGP version kaufen oder jetzt die ati radeon 9800 PRO ????
WAS SOLL ICH TUN *PANIK*

dann iene kaufen, wenn du eine brauchst. warten kann man bei hardware immer

deekey777
2004-08-12, 21:41:19
http://www.pcper.com/images/reviews/65/preso05_big.jpg

Kleiner Benchmix leider direkt von Nvidia


zu den 42 fps in doom3 das war mit folgendem system

"Here is NVIDIA's official quoted benchmark running the "timedemo demo1" on Doom3 setup. Of course, the rest of the system that they used is the Intel 560 processor running at 3.6 GHz with 1 GB of memory. "

http://www.pcper.com/article.php?aid=65


Bin ich blind, oder fehlen da zB Far Cry und Max Payne 2?

Und zu der Doom 3 Performance: Ist die Timedemo nicht CPU limitiert?

Gerade ist die NV43 für mich uninteressant geworden.

LovesuckZ
2004-08-12, 21:44:38
Bin ich blind, oder fehlen da zB Far Cry und Max Payne 2?

Es fehlen sogar mindesten 1Millionen weitere Spiele :P

Gerade ist die NV43 für mich uninteressant geworden.

Dann halte dich aus der Diskussion raus, wenn der NV43 fuer dich nichts ist.
Das ganze bezieht sich auf Postings von ihm, wo er andere vorschreibt, in welche Themen sie sich einmischen duerfen!

dildo4u
2004-08-12, 21:44:49
Bin ich blind, oder fehlen da zB Far Cry und Max Payne 2?

Und zu der Doom 3 Performance: Ist die Timedemo nicht CPU limitiert?

Gerade ist die NV43 für mich uninteressant geworden.
Also mit 1024*768 mit 4XAA und 8XAniso is das nicht cpu limitiert
Edit:
ich hab mit meiner GT@Ultra takt 65.3 fps und das mit 3.3ghz die 6600GT hatte ein 3.6P4 als unterstützung also alles andere als cpu limitiert

deekey777
2004-08-12, 21:48:10
Also mit 1024*768 mit 4XAA und 8XAniso is das nicht cpu limitiert

Oopps, dann bin ich blind.

IVN
2004-08-12, 22:06:21
In Doom3 the 6600gt was tested in 1600x1200.

Look at anandtech 6600 previews.

deekey777
2004-08-12, 22:15:05
In Doom3 the 6600gt was tested in 1600x1200.

Look at anandtech 6600 previews.


Beides ist richtig:

http://www.pcper.com/article.php?aid=65 (Doom 3 Bildchen).

Gast
2004-08-12, 23:38:39
Eine Frage an die Experten hier im Forum: Wie schätzt ihr den Stromverbrauch und die Wärmeentwicklung der "kleinen" GeForce 6600 ein? Könnte die auch mit passiver Kühlung (keine Heatpipe-Konstruktion) auskommen?

MechWOLLIer
2004-08-13, 08:44:08
Eine Frage an die Experten hier im Forum: Wie schätzt ihr den Stromverbrauch und die Wärmeentwicklung der "kleinen" GeForce 6600 ein? Könnte die auch mit passiver Kühlung (keine Heatpipe-Konstruktion) auskommen?

Mittlerweile gibt es bereits(oder kommt bald raus) von Inno3D eine Gefroce 6800 mit einer Heatpipe, wenn auch noch mit einem kleinen Lüfter. und da die Geforce6600 deutlich wenoiger komplex ist als der NV40, könnte ich mir gut vorstellen, dass man die KArte auch nur mit einer Heatpipe kühlen kann.

robbitop
2004-08-13, 09:38:42
die 6600 könnte man sicher auch passiv kühlen. (schau dir mal diesen kleinen GF2 Lüfter an). Aber dann müsste das passivkühlblech schon etwas größer sein so wie bei der FX5200.

Die große 6600GT sicher nur mit einer HeatPipe.

AndyRTR
2004-08-13, 11:35:25
Also mit 1024*768 mit 4XAA und 8XAniso is das nicht cpu limitiert
Edit:
ich hab mit meiner GT@Ultra takt 65.3 fps und das mit 3.3ghz die 6600GT hatte ein 3.6P4 als unterstützung also alles andere als cpu limitiert

Ja. Dann mach mal DualHead an und lass auf dem zweiten Screen den Systemmonitor mitlaufen. Wirst sicher überrascht sein, wie "leistungsfähig" Deine CPU ist :biggrin:

Mein XP@2250MHz ist sicher nicht mehr der allerschnellste aber der löst sich quasi nie von der 100%-Marke :mad:

Enius
2004-08-13, 11:52:54
um wieviel % wird die 6600 GT schneller als ne jetztige radeon 9800 pro sein ?
Kann man das jetzt schon vergleichen und vermuten ?

robbitop
2004-08-13, 12:59:31
wie soll man denn sowas vermuten?
Ich bin mir sicher, wenn die Situation PS limitiert ist, wird eine Radeon9800 (PRO/XT) deutlich übertrumpft. (allein die pro Takt Leistung ist ja höher).
Fährt man aber mit 4x/6xAA, dann limitiert die Bandbreite.

NV43: 16GiB/sek
R350: 21GiB/sek +36%
R360: 23,3GiB/sek +46%

Ausserdem hat ein R3xx 8ROPs und NV43 laut aths nur 4 (wie konnte man nur ...*kopfschüttel). Somit dürfte der R3xx den NV43 bei hohen AA etwas übertreffen. Im Einsatz mit viel AF sollte der Unterschied wieder schrumpfen (ROP Loops werden kaschiert und Füllratenlimitierung kommt ins Spiel).

Richtig genau kann man nichts sagen, aber ich vermute je nach Situation mal der Eine vorn und mal der Andere.
Also eine NV43 sollte niemanden davon abhalten, sich eine R9800 pro zu kaufen.

Vorteil NV43:
Füllrate
Pixelshaderleistung
Verlustleistung
Videoprozessor

Nachteil NV43:
Bandbreite/ROPs
sicher etw teurer als eine R9800pro
Verfügbarkeit

Muss man eben nach eigenen Bedürfnissen entscheiden.

Enius
2004-08-13, 13:13:38
hmm, man macht sich halt immer sorgen obs nicht ein FEHLKAUF wird, wenn schon einen monat später ne neue graka für 200€ rauskommt die viel besser ist als die die man jetzt gekauft hat !
Muss wohl noch nachdenken !
Hab nen 17 zoll lcd und würde somit gern in 1280 mit AA, bzw. AF spielen ?
WIrd die geforce oder die ati solch einen hohe auflösung besser mitmachen können?
(bin noob in hardware sachen, also sorry wenn die frage blöd :D)

THX @ ALL

HOT
2004-08-13, 14:10:01
hmm, man macht sich halt immer sorgen obs nicht ein FEHLKAUF wird, wenn schon einen monat später ne neue graka für 200€ rauskommt die viel besser ist als die die man jetzt gekauft hat !
Muss wohl noch nachdenken !
Hab nen 17 zoll lcd und würde somit gern in 1280 mit AA, bzw. AF spielen ?
WIrd die geforce oder die ati solch einen hohe auflösung besser mitmachen können?
(bin noob in hardware sachen, also sorry wenn die frage blöd :D)

THX @ ALL

Jo, vielleicht sollte man den NV43 mit seinem eigentlichen Gegner, dem R410 vergleichen ;)
Ich finde es jedenfalls gut, dass NV so klasse Chips für Midrange baut. Nur ist eben auch typisch... wie damals bei der G2MX wird einfach die Speicherbandbreite kastriert und zusätzlich noch das AA. Na ja, man kann halt nicht alles haben ;)

robbitop
2004-08-13, 14:15:19
naja ich habe im Prinzip alles genannt was zu nennen war AFAIK. Du musst da deine eigenen Schlüsse ziehen. Ich habe durch ein Schnäppchen vor 1 Woche hier im 3dc Forum eine 9800pro mit Silencer für 130EUR exkl bekommen (für den 2.PC).

Wenn du 4xAA magst, nimm die Radeon. Denn die kannst du jetzt haben und die sollte bei 4-6xAA etwas schneller sein als der NV43 (kann ich aber nicht garantieren).
Wenn du ein bisschen weniger Performance bei 4xAA verschmerzen kannst und dafür bessere Technik und geringere Verlustleistung willst -nimm den NV43 (ich würde den NV43 bevorzugen, da er SSAA beherrscht und das ist für alte Spiele das Allheilmittel)

egdusp
2004-08-13, 15:21:50
Vielleicht habe ich es überlesen, aber es wurde noch nirgends spekuliert, ob der NV43 evtl. auch mit 256bit Interface ausgerüstet werden kann.

Wäre es möglich einen Die so zu fertigen, dass er je nach Package mit unterschiedlichen Busbreite klarkommt?

Ich weiß nicht wie teuer/aufwändig der Packaging Prozess ist, aber evtl. sind ja nur die Packaging und die Boardkosten relevant für ein 256bit Interface, während die Die Mehr-Kosten vernachlässigbar sind.

Da die NV4x Reihe ja komplett über Caches an die Bandbreite angebunden ist, wäre kein abgeänderter Die notwendig (kein extra Produktion + Tapeout), um 256bit Busbreite zu ermöglichen.

mfg
egdusp

FXManni
2004-08-13, 15:38:23
Hi zusammen,

hätte mal ne Frage, gibt es die 6600GT schon irgenwo zum vorbestellen hab noch nix gefunden ?

Mfg FXManni

IVN
2004-08-13, 15:48:11
@eqdusp

On Quakecon nvidia officially said that nv43 is going to have an 128 bit width
mem.con. ,so there is no room for speculation no more.

And to your second question: it is posible to make a chip that would have a mem.con. depended on the PCB (you make a chip that has a 256 bit width mem.con. and if you only need 128 bit you deactivate one half of it).All r300 radeons have 256 bit m.c. on the DIE,but r9500 and pro have only one half activated. :wink:

robbitop
2004-08-13, 16:11:00
@egdusp

dazu wäre ein relativ unaufwändiges Redesign +tapeout nötig.
Wie du richtig erwähnt hast, hängt der Controller am Texturcache. Aber es ist eben nur ein 128bit Controller verbaut und eben auch nur so viele Datenleitungen und PINs.
Man könnte wenn man wollte (unwahrscheinlich) den 256bit Controller des NV40 an den Cache hängen.
Somit hat sich die Sache ;)
256bit DDR ist eben wegen des komplexren Controlers, der höheren PIN Anzahl, der doppelten Anzahl an Datenleitungen usw deutlich teurer als 128bit (auch wenn er hochgetaktet ist).
Also wird nicht nur PCB sondern auch der Chip selbst teurer. Das kann man sich vermutlich im Midrange Bereich nicht leisten.

Enius
2004-08-13, 16:23:23
kann mal einer verlustleistung definieren?
Weitere frage wär WARUM PCI EXPRESS?
Ist das "schneller" als AGP ?

Ich habe auch kein pci express Mainboard und würde wenns ne agp 6600GT gar nicht erscheint sofort die radeon 9800 pro nehmen......!?

incurable
2004-08-13, 17:26:27
kann mal einer verlustleistung definieren?
Verlustleistung ist die Energie, die ein Bauteil als elektrischen Strom aufnimmt und als Wärme an die Umgebung abgibt.

Weitere frage wär WARUM PCI EXPRESS?
Weil Intel das als neue Standart-Grafikkartenschnittstelle definiert hat und OEMs entsprechend Nachfrage generieren

Ist das "schneller" als AGP ?
Im Moment nicht.

Ich habe auch kein pci express Mainboard und würde wenns ne agp 6600GT gar nicht erscheint sofort die radeon 9800 pro nehmen......!?
Angeblich soll eine auf AGP gebrückte 6600 kommen, allerdings erst nach der PCI Express Version also gegen Ende des Jahres. Wenn's drückt machst du mit einer 9800 Pro im Moment nichts falsch.

Enius
2004-08-13, 18:03:12
vielan dank für euren support, ich hol mir dann wahrscheinlich jetzt die :
http://www.amazon.de/exec/obidos/tg/stores/detail/-/pc/B00009PM4T/tech-data/ref=ed_tec_dp_2_1/028-7206735-3500568
(Hoffe mal das ist ne 256er...) !!!

Leonidas
2004-08-14, 05:28:14
Hallo, da ich zum Pech für Nvidia keine NDA unterzeichnet hab betreffend GF 6600, aber trotzdem die Daten bekommen hab möcht ich euch die nicht vorbehalten, NDA würde am 12.08.04 um 15 Uhr ablaufen...




Nur mal so nebenbei: Der Erhalt von solchen Mails bindet Dich zwangsläufig an ein NDA, wenn die Mail an Dich addressiert war. Dafür mußt Du nichts extra unterschreiben.

Gast
2004-08-14, 23:22:13
Ich habe im Heise Ticker (http://www.heise.de/newsticker/meldung/50060) gerade gelesen, daß die GF6600, entgegen den Angaben von Nvidia, wahrscheinlich so um die 190,- EUR und die GF6600 GT um die 270,- EUR kosten werden.

Sollte sich das bewahrheiten, dann sind die 6600 zwar gute Karten, aber nicht das erhoffte Preis-Leistungsverhältnis Wunder. Ich bezweifel das die Masse der Konsumenten diese Karten zu den Kosten als Mainstreamware ansehen und kaufen werden.
Interessant wird sein, wie andere Hersteller wie ATI und S3 ihre Mainstream Grafikchips plazieren und ob Nvidia bei den 6600ern noch genügend Spielraum hat, um gegebenenfalls den Preis zu reduzieren.

GastGast
2004-08-14, 23:29:39
Ich habe im Heise Ticker (http://www.heise.de/newsticker/meldung/50060) gerade gelesen, daß die GF6600, entgegen den Angaben von Nvidia, wahrscheinlich so um die 190,- EUR und die GF6600 GT um die 270,- EUR kosten werden.

Sollte sich das bewahrheiten, dann sind die 6600 zwar gute Karten, aber nicht das erhoffte Preis-Leistungsverhältnis Wunder. Ich bezweifel das die Masse der Konsumenten diese Karten zu den Kosten als Mainstreamware ansehen und kaufen werden.
Interessant wird sein, wie andere Hersteller wie ATI und S3 ihre Mainstream Grafikchips plazieren und ob Nvidia bei den 6600ern noch genügend Spielraum hat, um gegebenenfalls den Preis zu reduzieren.

Und wenn AGP Versionen kommen, kosten die bestimmt noch mnal 30 EUR mehr.

IVN
2004-08-14, 23:50:43
If that is true,than an 6800 nu is a better choice.It costs 300-350 €,but has much more goodness. :wink:

6,8K against 6,6k

16ROPs- 4ROPs
3Quads-2Quads
5 or 6 VS-3VS
256 bit-128 bit

fillrate

3900Mpixel and Mtexel-4000Mp and Mt

Memory bandwidth

22.4 GB-16 GB

Gast
2004-08-15, 01:14:42
Innerhalb der Nvidia Produktlinie wäre dann die 6800er wohl wirklich die bessere Wahl. Ich befürchte nur, daß die Wenigsten einen solchen Vergleich der technischen Daten weder so aufstellen, noch so zu würdigen wüßten wie IVN :)
Ich befürchte aber, daß die Kartenhersteller dann nicht nur bei den 6600er sondern auch bei den 6800ern den gleichen Aufschlag auf Nvidias genannte Preise vornehmen werden.

Allerdings glaube ich das man die Preise der 6600er im Zusammenhang mit den Preisen der X600er für PCI-Express sehen muß. Da kostet eine X600 XT auch schon mal gerne ihre 200 bis 250 Euro. Vielleicht passen die Kartenhersteller den Preis ja einfach nur dem an, was bei PCI-Express derzeit verlangt wird. So daß dann die AGP-Ausführungen der 6600er und 6800er wieder in dem von Nvidia veröffentlichten Preisgefüge sein werden.

egdusp
2004-08-15, 11:19:55
Ich habe im Heise Ticker (http://www.heise.de/newsticker/meldung/50060) gerade gelesen, daß die GF6600, entgegen den Angaben von Nvidia, wahrscheinlich so um die 190,- EUR und die GF6600 GT um die 270,- EUR kosten werden.

Sollte sich das bewahrheiten, dann sind die 6600 zwar gute Karten, aber nicht das erhoffte Preis-Leistungsverhältnis Wunder. Ich bezweifel das die Masse der Konsumenten diese Karten zu den Kosten als Mainstreamware ansehen und kaufen werden.
Interessant wird sein, wie andere Hersteller wie ATI und S3 ihre Mainstream Grafikchips plazieren und ob Nvidia bei den 6600ern noch genügend Spielraum hat, um gegebenenfalls den Preis zu reduzieren.

Wenn NV offiziell Preise von 150 bzw. 200 $ angibt, dann wird das schon so sein.
Wenn die Karten anfangs teurer sein sollten, dann liegt das nur an der erhöhten Nachfrage. Die Boardhersteller werden natürlich so teuer wie möglich verkaufen.

Also. Anfangs kann es duchaus sein, dass die Preise überhöht sind, aber bei breiter Verfügbarkeit werden auch die Preise mindestens auf das von NV angegebene Niveau sinken.

mfg
egdusp

Peavey
2004-08-15, 12:43:14
vielan dank für euren support, ich hol mir dann wahrscheinlich jetzt die :
http://www.amazon.de/exec/obidos/tg/stores/detail/-/pc/B00009PM4T/tech-data/ref=ed_tec_dp_2_1/028-7206735-3500568
(Hoffe mal das ist ne 256er...) !!!


Das kann man wirklich nur hoffen, wenn du sie schon bestellt hast.

Da aber rein gar nichts dabei steht, würde ich dir raten, wenn noch möglich, auf ein anderes Angebot auszuweichen, dass dir das 256er Speicherinterface garantiert. So "dürfen" sie dir Jede schicken.

seahawk
2004-08-15, 17:28:33
Wenn NV 150-200$ sagt, dann liegen die preise bei breiter Verfügbarkeit eher darunter.

Enius
2004-08-15, 18:05:21
laut diesem thread scheint die 256 bit zu haben :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2137524#post2137524

Hab ich ganz vergessen und anscheinend überschaut =/

Hab mir die sapphire jetzt bestellt ;)
(mal schauen wie schnell amazon.de liefert, ich kauf da das erste mal...)

LordDeath
2004-08-15, 18:53:19
so sieht es derzeit wohl aus. (laut ein paar Messungen von Demirug)
Kaschieren kann man das mit AF aber sehr gut



Weniger Zugriffe auf den Speicher, da du von vielen Einheiten ja nur 4 hast statt 8. Ausserdem könnte die Speicherbandbreitenausnutzung etwas besser sein als bei der Konkurrenz.


die 9500 pro hat doch noch 8 pipelines und wurde doch nur im speicherinterface kastriert!

Tjell
2004-08-15, 19:28:19
Ich habe im Heise Ticker (http://www.heise.de/newsticker/meldung/50060) gerade gelesen, daß die GF6600, entgegen den Angaben von Nvidia, wahrscheinlich so um die 190,- EUR und die GF6600 GT um die 270,- EUR kosten werden.

Sollte sich das bewahrheiten, dann sind die 6600 zwar gute Karten, aber nicht das erhoffte Preis-Leistungsverhältnis Wunder. Ich bezweifel das die Masse der Konsumenten diese Karten zu den Kosten als Mainstreamware ansehen und kaufen werden.
Interessant wird sein, wie andere Hersteller wie ATI und S3 ihre Mainstream Grafikchips plazieren und ob Nvidia bei den 6600ern noch genügend Spielraum hat, um gegebenenfalls den Preis zu reduzieren.
Deutschland bzw. Europa insgesamt sind traditionell immer mit höheren Endverkaufspreisen als in Amiland "gesegnet".

robbitop
2004-08-16, 15:15:48
die 9500 pro hat doch noch 8 pipelines und wurde doch nur im speicherinterface kastriert!

ist mir bekannt, aber was wolltest du mir damit sagen?

LordDeath
2004-08-16, 16:47:51
war bezogen auf das Weniger Zugriffe auf den Speicher, da du von vielen Einheiten ja nur 4 hast statt 8. Ausserdem könnte die Speicherbandbreitenausnutzung etwas besser sein als bei der Konkurrenz.

LovesuckZ
2004-08-18, 17:32:55
Kleines Preview (http://gzeasy.com/itnewsdetail.asp?nID=15842) bei gzeasy.com.
Vorallen die Uebertaktung dieses Testsample sieht phaenomenal aus. :up:
Nun, scheint wohl ein Beleg fuer den guten Fertigungsprozeß zu sein.

Adam D.
2004-08-18, 18:03:00
3DMARK 04???????????? HAB ICH WAS VERPASST??

LordDeath
2004-08-18, 18:18:11
3DMARK 04???????????? HAB ICH WAS VERPASST??


sm3.0 hardware is raus und futuremark will ja nachziehen :)
ist zum glück noch nicht offiziel released worden ^^

tokugawa
2004-08-19, 09:27:28
Wenn NV offiziell Preise von 150 bzw. 200 $ angibt, dann wird das schon so sein.
Wenn die Karten anfangs teurer sein sollten, dann liegt das nur an der erhöhten Nachfrage. Die Boardhersteller werden natürlich so teuer wie möglich verkaufen.

Also. Anfangs kann es duchaus sein, dass die Preise überhöht sind, aber bei breiter Verfügbarkeit werden auch die Preise mindestens auf das von NV angegebene Niveau sinken.

mfg
egdusp

Ich glaube auch dass sich die Preise einpendeln werden auf das genannte 150-200$ Niveau.

Ich halte es eh, zumindest wenn man wie ich auf längere Sicht kauft, für unvernünftig, sofort bei Verfügbarkeit des ersten Modells zuzuschlagen.

Ich werde daher eher solange warten bis es von allen Herstellern eine 6600er Serie gibt. Dann wird es wohl auch einen Preiskampf geben.

Bin schon gespannt auf die Lautstärke der 6600er.

dildo4u
2004-08-19, 21:15:36
http://www.chip.de/news/c_news_12202853.html

Doom3 benchmark werte zum SLI auf dem Nforce4 mit 6600GT

Mark3Dfx
2004-08-19, 21:27:40
Was wird wohl die AGP 6600 GT in D kosten?

Xmas
2004-08-19, 22:54:38
http://www.chip.de/news/c_news_12202853.html

Doom3 benchmark werte zum SLI auf dem Nforce4 mit 6600GT
Da sind aber keine SLI-Benchmarkwerte. Nur von einer einzelnen 6600GT.

deekey777
2004-11-15, 13:14:51
6600 AGP scores revealed (http://www.theinq.com/?article=19672)

WE SAW SOME Geforce 6600AGP numbers and I can tell you that if you liked PCIe 6600 GT, you won't be disappointed.
Nvidia plans to lift its dark veils of NDA gloom on Tuesday, and then you will be able to get a complete picture of how this new product performs.

It will score 7600 in 3Dmark03 and 3000 in new 3Dmark05. Card is clocked at 500MHz core, 45 MHz memory and from what we saw it will come either close or tight with its PCIe brother card. In case you haven’t noticed, the memory used on this card is clocked 100 MHz lower than the 500/1000 MHz clocked Geforce 6600 GT PCIe. We will ask around, but I guess Nvidia did it to compensate the cost of more expensive and complex PCB and bridge chip with cheaper memory. Still, it works fine - at least according to the numbers we've seen.

As you might imagine, this card is nothing more than a NV43 chip + BR2 bridge from Nvidia that can bridge a PCIe card to AGP. It seems to work and it's not slower. Sometimes it can even end up faster, and it's trouble free, it appears.

I am sure that you will be able to see many results for this card on Tuesday this week.

If you liked the Geforce 6600GT PCIe you will certainly like the AGP version there is no doubt about it.

Gast
2004-11-15, 14:11:35
Das Absenken der Taktraten beim Speicher gefällt mir nicht. Das können sie bitte bei der PCI Version tun, die kauft eh keiner.

MechWOLLIer
2004-11-15, 16:32:57
Mhm, das mit den taktraten höhre ich auch zum ersten mal, hoffen wir mal, dass es nicht stimmt.
Falls inquirer recht hat, wird in den Karten wohl nur "Müll RAM" verbaut werden.
Aber wer weiß, vielleicht will NV so die Kunden auch auf den PCI-E Zug zwingen, nach dem Thema, dort sind die Karten aber schneller.

Quasar
2004-11-15, 16:35:59
Wenn das wahr wäre, widerspräche das aber den Angaben einiger großer Namen, es gäbe kein Problem mit der Verfügbarkeit von GDDR3 bei 500MHz und höher. :)
450MHz sind bekanntlich auch mit DDR1/DDR2 noch halbwegs bequem zu erreichen und einen Stromanschluss extra brauchen die Dinger für'n AGP vermutlich eh.

r@h
2004-11-16, 06:24:19
Zumal der Speicher immer noch Sache der Hersteller ist (ASUS/MSI etc.pp).
Insofern ich mir sehr gut eine AGP 6600GT mit 256MB GDDR3 vostellen könnte...

Diese dann noch mit ViVo und voller VP-Funktionalität (unter AGP noch unsicher!) und schon ist sie mein.
(so 230 Euronen stelle ich mir da vor ;-)
:D

Razor

dildo4u
2004-11-16, 16:30:48
6600GT AGP im test bei harwareluxx

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=73&seite=1

Gast
2004-11-16, 22:50:40
Razor, cb hat jetzt paar Produktvorstellungen für die 66GT gebracht, tatsächlich nur 450 MHz Speicher für sagenhaft günstige 250 Euro :kotz: Gayward bringt dann eine mit 500MHz, die ist aber fast so teuer wie eine 68GT :crazy:

Toll nv, vielleicht nächstes Jahr für 199 Euro.

Gast
2004-11-16, 23:26:29
Quasar, wie sieht es eigentlich mit MDR bei Farcry aus? Ist das noch bei 1024 spielbar?

mapel110
2004-11-16, 23:29:38
Quasar, wie sieht es eigentlich mit MDR bei Farcry aus? Ist das noch bei 1024 spielbar?

Farcry unterstützt kein MDR.


http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600_gt_agp/
http://www.techreport.com/reviews/2004q4/geforce-6600gtagp/index.x?pg=1
http://www.anandtech.com/video/showdoc.aspx?i=2277

Gast
2004-11-16, 23:38:42
Farcry unterstützt kein MDR.



Was dann? HDR ist es nicht!

aths
2004-11-17, 00:07:11
Farcry unterstützt kein MDR.


http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600_gt_agp/
http://www.techreport.com/reviews/2004q4/geforce-6600gtagp/index.x?pg=1
http://www.anandtech.com/video/showdoc.aspx?i=2277Hrm? Im Gegensatz zur 6200 hat die 6600 "durchgehend" MDR (lt. Nvidia-Nomenklatur HPDR)-Units.

aths
2004-11-17, 00:08:29
Ausserdem hat ein R3xx 8ROPs und NV43 laut aths nur 4Eine X700 oder 9700/9800 hat 16 ROPs, die aber nur bei aktiviertem AA genutzt werden können (ohne AA sind 8 ROPs pro Takt verfügbar.)

X800 XT hat 32 ROPs. NV40 hat je nach Zählweise entweder 8 (FP16), 16 (Z/S+Color) oder bis zu 32 ROPs. ("effektive" ROP-Zahl bei Z only.) NV40 kann wahrscheinlich die Datenleitungen die normalerweise für Farbe reserviert sind nutzen, um fertige Ergebnisse aus dem EarlyZ in den Speicher zu schreiben. Vielleicht ist es sogar noch komplizierter, das bekannte Schema aus dem PDF ist jedenfalls falsch.

Das ist aber kein Problem - bei nur 2 Texturen, oder full Tri, oder 2x AF braucht man eh 2 Takte pro Pixel. In der Praxis werden die Spiele für die der NV40 gebaut ist (Doom3, HL2, etc.) aber sehr viel mehr Takte noch brauchen. Was da immer limitiert bei 4x AA – es sind nicht die ROPs. Gleiches gilt für den NV43, der trotz allem (Ziel auf Mittelklassenmarkt) für aufwändige "Pixelshader-Spiele" entwickelt wurde.

mapel110
2004-11-17, 00:47:55
Hrm? Im Gegensatz zur 6200 hat die 6600 "durchgehend" MDR (lt. Nvidia-Nomenklatur HPDR)-Units.

also heisst das: Farcry HDR == 6200 HPDR != echtes HDR ?

aths
2004-11-17, 01:25:27
also heisst das: Farcry HDR == 6200 HPDR != echtes HDR ?Es heißt heißen mit ß, und vor Fragezeichen bitte, bitte kein Leerzeichen setzen.

Far Cry unterstützt inoffiziell so genanntes HDR-Lighting, wobei HDR für High Dynamic Range steht. Soweit mir bekannt hat man "echtes" HDR aber erst bei 32 Bit pro Komponenten, während FC oft mit "nur" 16 Bit rechnet, entsprechend Medium Dynamic Range, MDR. Für die Zwecke ist das aber völlig ausreichend.

Nvidia nennt die dedizierte FP16-Logik "HPDR", High Precision Dynamic Range. Nun ist FP16 zwar deutlich genauer als FX8, aber wenn 16 Bit schon "High" sein soll, was für einen Marketing-Begriff gibts dereinst bei 32 Bit? Ultrahigh? Im CPU-Bereich steht fpr FP32 gerade mal "Single"-Genauigkeit, (FP64 wäre Double, FP16 "Half".)

Angeblich berechnet CineFX die Farbe in 128 Bit Studioqualität – ist natürlich Quatsch, da "Alpha" kein Farbanteil ist (übrig bleiben 96 Bit, bei ATI 72 Bit.)

Die 6800 und 6600 haben FP16-Alphablender und FP16-TMUs (können FP16-Texturen filtern.) Die 6200 hat beides nicht, die X800 auch nicht.

mapel110
2004-11-17, 04:03:24
Daraus folgt dann, man hat in Farcry noch kein HDR im eigentlichen Sinne gesehen.
Und wenn man "Farcry HDR" als MDR bezeichnen muss/sollte, wie will man noch das, was R4XX kann, bezeichnen?

p .s . ich weiss , was ich falsch schreibe im normalfall . trotzdem danke . ;)
*plenk*
:D

Quasar
2004-11-17, 09:39:39
Quasar, wie sieht es eigentlich mit MDR bei Farcry aus? Ist das noch bei 1024 spielbar?

Kommt auf die Ansprüche an - prinzipiell schon. Für Gamer, die durchgehend >60fps verlangen dagegen eher nicht - es sei denn, man geht mit der Auflösung in den Keller.

Gast
2004-11-17, 12:08:21
Daraus folgt dann, man hat in Farcry noch kein HDR im eigentlichen Sinne gesehen.
Und wenn man "Farcry HDR" als MDR bezeichnen muss/sollte, wie will man noch das, was R4XX kann, bezeichnen?

p .s . ich weiss , was ich falsch schreibe im normalfall . trotzdem danke . ;)
*plenk*
:D

Der R420 beherrscht es gar nicht :|

Und hier geht es um die 6600GT, und warum es sich um kein HDR handelt, haben die Gurus schon vor langer Zeit erklärt ;)

@ Quasar danke, ich könnte mich mit konstanten 30fps anfreunden, wenn ich schöne Grafik habe.

Gast
2004-11-17, 14:39:16
Razor, cb hat jetzt paar Produktvorstellungen für die 66GT gebracht, tatsächlich nur 450 MHz Speicher für sagenhaft günstige 250 Euro :kotz: Gayward bringt dann eine mit 500MHz, die ist aber fast so teuer wie eine 68GT :crazy:

Toll nv, vielleicht nächstes Jahr für 199 Euro.

Dem kann ich mich nur anschließen. Warum haben die AGP-Karten nur 450MHz-RAM. Finde ich völlig bescheuert! Ohne mich!

r@w
2004-11-18, 10:23:42
Dem kann ich mich nur anschließen. Warum haben die AGP-Karten nur 450MHz-RAM. Finde ich völlig bescheuert! Ohne mich!Nun... Galaxy und Gainward bieten Karten mit 1,6ns an... das wären dann summa sumarum (ist sicher falsch geschrieben ;-) effektive 1250Mhz (625MHzDDR). Auch gibt es keinen Grund, einen 2.0ns-Speicher nicht auf 1000MHz zu takten (500MHzDDR), wenn es die Kühlung erlaubt.

Ich denke dass es genau mit dem letzten Punkt zusammenhängt. Die Kühlung der Referenz-Lösung ist - gelinde ausgedrückt - unglücklich. Schaut man sich hingegen die Lösungen von Galaxy oder Gainward an, weiß man auch, warum da mehr 'drin' sein wird.

'Meine' Idealkarte: AGP 6600GT mit 256MB 1,6ns GDDR3 und ViVo.
Die dann noch für unter 250 Tacken und die Karte ist mein!
:D

Razor

r@w
2004-11-18, 10:26:03
Razor, cb hat jetzt paar Produktvorstellungen für die 66GT gebracht, tatsächlich nur 450 MHz Speicher für sagenhaft günstige 250 Euro :kotz: Gayward bringt dann eine mit 500MHz, die ist aber fast so teuer wie eine 68GT :crazy:

Toll nv, vielleicht nächstes Jahr für 199 Euro.Nö.
JETZT ist die PNY bei Geizhals für ~205€ gelistet.
(Verfügbarkeit in ca. einer Woche)

Und das ist erst der Anfang...
;)

Razor

Gast
2004-11-18, 10:55:24
'Meine' Idealkarte: AGP 6600GT mit 256MB 1,6ns GDDR3 und ViVo.
Die dann noch für unter 250 Tacken und die Karte ist mein!
:D

Razor

Na klar Razor, so eine Karte nehme ich noch heute aber warst du bei cb?

Alternate:
Ultra/1960 XP GS GLH
Retail, TV-Out, Video-In, DVI, Goes Like Hell
128 MB GeForce 6600 GT AGP 8x 128 Bit
€ 299,-

Und deine Pny läuft mit 450 MHz :(

Tjell
2004-11-18, 11:18:04
Die Besonderheit an der 6600 GT von Inno3D dürfte der mit 1,6 ns spezifizierte GDDR3-Speicher sein, der sonst nur auf 6800 Ultra oder X800 XT (PE) zu finden ist und mit 600 MHz deutlich mehr verkraftet als die offiziell von nVidia vorgesehenen 450 MHz (realisiert mit 2,0-ns-Speicher). Die PNY Verto 6600GT fällt mit 229 Euro ebenfalls etwas heraus. :smile:

Gast
2004-11-18, 11:30:25
:smile:

Ja, habe ich gelesen. Nur wo und wann? ;)

r@w
2004-11-18, 11:36:02
Na klar Razor, so eine Karte nehme ich noch heute aber warst du bei cb?

Alternate:
Ultra/1960 XP GS GLH
Retail, TV-Out, Video-In, DVI, Goes Like Hell
128 MB GeForce 6600 GT AGP 8x 128 Bit
€ 299,-

Und deine Pny läuft mit 450 MHz :(Jo, die PNY ist so'n Standard-Teil mit Standard-Lüftung etc.ppp.
Für mich wär das Teil überhaupt nichts!
Es ging hier allerdings lediglich um die Verfügbarkeit von 6600GT AGP-Karten...

Und die GLH von Alternate macht ja direkt Hoffnung *g*.
Der empfohlene VKP liegt bei 349!
*würg*

Auch hat die Gainward 'nur' 128MB... aber dafür isser schnell!
;)

Und was würde ich bei cb erblicken?
:confused:

Razor

r@w
2004-11-18, 11:38:30
Ja, habe ich gelesen. Nur wo und wann? ;)Vor allen Dingen: was?
:D

Die Inno3D?
Die PNY gibt's ja schon für 205,-€...
(würd' ich mir aber nicht holen ;-)

Razor

robbitop
2004-11-18, 11:43:06
Eine X700 oder 9700/9800 hat 16 ROPs, die aber nur bei aktiviertem AA genutzt werden können (ohne AA sind 8 ROPs pro Takt verfügbar.)

X800 XT hat 32 ROPs. NV40 hat je nach Zählweise entweder 8 (FP16), 16 (Z/S+Color) oder bis zu 32 ROPs. ("effektive" ROP-Zahl bei Z only.) NV40 kann wahrscheinlich die Datenleitungen die normalerweise für Farbe reserviert sind nutzen, um fertige Ergebnisse aus dem EarlyZ in den Speicher zu schreiben. Vielleicht ist es sogar noch komplizierter, das bekannte Schema aus dem PDF ist jedenfalls falsch.

Das ist aber kein Problem - bei nur 2 Texturen, oder full Tri, oder 2x AF braucht man eh 2 Takte pro Pixel. In der Praxis werden die Spiele für die der NV40 gebaut ist (Doom3, HL2, etc.) aber sehr viel mehr Takte noch brauchen. Was da immer limitiert bei 4x AA – es sind nicht die ROPs. Gleiches gilt für den NV43, der trotz allem (Ziel auf Mittelklassenmarkt) für aufwändige "Pixelshader-Spiele" entwickelt wurde.

Ja dass R3xx/4xx 2 ROPs pro Pixelpipeline hat, war mir bewusst.
Im Moment scheint bei 4xMS die ROP Geschichte den NV43 zu behindern.

aths
2004-11-18, 14:11:34
Ja dass R3xx/4xx 2 ROPs pro Pixelpipeline hat, war mir bewusst.
Im Moment scheint bei 4xMS die ROP Geschichte den NV43 zu behindern.Das hängt davon ab, wie viele Takte ein Pixel zur Berechnung braucht. Bei anspruchslosen Spielen kann das schon mal zum Flaschenhals werden, doch das Spiel dürfte insgesamt weiterhin schnell genug sein. Außerdem grenzt man sich hier wohl bewusst von der 6800 ab. Hier noch ein paar ROPs, da noch einen Vertexshader, dort etwas mehr Takt ... am Ende ist man bei der 6800 Ultra :)

DrumDub
2004-11-18, 15:45:01
Im Moment scheint bei 4xMS die ROP Geschichte den NV43 zu behindern.

haben wir im anderen thread ja schon diskutiert. theoretsich müsste es so sien, aber in der realität sieht es och so aus, als käme die 6600gt sehr gut mit 4xmsaa zurecht. so gut, dass sie die 9800pro und x700xt eigentlich immer überflügelt.

Gast
2004-11-18, 21:16:32
http://www.geizhals.at/deutschland/a126122.html

Gast
2004-11-18, 21:55:18
http://www.geizhals.at/deutschland/a126122.html

AGP?

Dancer
2004-11-18, 23:41:02
AGP?
ne alles PCI-E Karten.

Aber trozdem: Was sind das denn für Hammer Preise????
Kennnt einer die Specs der Karte von Palit da?
Die Preise sind ja ziemlich niedrig. Zwischen 160 und 170 Euro für ne 6600GT.
Wenn das ein Trend sein soll, dann macht Nvidia aber gewaltig Druck. Sieht so aus als könnte man hier ziemlich gut liefern. Anders kann ich mir solche Preise nicht erklären. Oder an den Specs der Palit ist was faul.
Wenn dem nicht so ist, und die AGP Variante ähnliche Preisregionen erreicht dann kommt ATI aber im Mainstream gewaltig unter Druck. Die haben für AGP nix dort ausser natürlich die dicken DIEs

Gast
2004-11-18, 23:52:37
Die PCI-E 6600 wurde im August vorgestellt, von den Shops können nur zwei liefern, aber der Preis ist gut. Aber wer hat pcie Boards? Für den A64 gibts überhaupt keine. Ich will AGP :(

Dancer
2004-11-19, 00:36:31
Die PCI-E 6600 wurde im August vorgestellt, von den Shops können nur zwei liefern, aber der Preis ist gut. Aber wer hat pcie Boards? Für den A64 gibts überhaupt keine. Ich will AGP :(
AGP wird bald kommen. Ich schätze in den nächsten 3 Wochen tut sich da was in Sachen GF6600GT.
Das einige Shops bei der o.g. Palit nicht liefern können habe ich auch gesehen aber 2 konnten es und da waren die Preise ebenfalls günstig.
Das sind Hammer Preise. Ich schätze mal, dass die AGP Karte in jedem Fall einen kleinen Tick teurer sein wird. Gar nicht mal so wegen dem Bridge Chip sondern viel mehr wegen der erheblich höheren Nachfrage.
Das die PCI-E Variante so dermaßen günstig sein wird, denn dass die sich bei unter 200 Euro einpendeln wird ist ja abzusehen bei den Preisen der Palit dort, kann damit zusammenhängen, dass Nvidia hier darauf spekuliert die Nachfrage nach eigenen nForce4 Chipsätzen zu pushen.
Ist doch eine ziemlich einfache Rechnung. Wenn die GF6600GT PCI-E günstig ist, dann wird die Nachfrage danach größer. Und wer mit so einer Karte und damit respektive PCI-E spekuliert, braucht ein passendes Board und da ist der nForce4 natürlich erste Wahl.
In jedem Fall tut sich hier eine riesen Möglichkeit für Nvidia auf sich im Markt sehr stark zu positionieren. Die Konkurenz ist deutlich später drann in diesem Ringfight.

Interessant auch das Fazit aus dem Anandtech GF6600GT AGP Test:

NVIDIA's 6600GT was a strong performer when it was released as a PCI Express solution, but now as an AGP card it is even stronger for two reasons:

1) The market for a $200 - $250 AGP card is currently much larger than the market for a PCI Express version of such a card, and
2) ATI will be very late to market with their X700 XT AGP, thus giving the 6600GT AGP a unique window of opportunity for the remainder of 2004.

Compared to the $200 - $300 AGP cards available today, the GeForce 6600GT AGP can't be beat. While the Radeon 9800 Pro offers close performance in older games, switch to any of the latest titles and the 6600GT truly spreads its wings.

The performance improvement the 6600GT offers over NVIDIA's older $200 price point card, the 5900XT, is nothing short of amazing. The performance comparisons we showed here today are a testament to how much NVIDIA has improved their core architecture since the days of NV3x, with the 6600GT completely demolishing the 5900XT in performance. Even the $400 5900 Ultra is outperformed by the 6600GT in almost all of the benchmarks.

NVIDIA didn't do anything that ATI couldn't have done with the 6600GT AGP, however it was NVIDIA's PCI Express to AGP bridge that they tested and validated several months ago that gave NVIDIA the time to market advantage over ATI.

For the first time in recent history our GPU recommendation is clear: the best bang for your AGP buck is none other than the GeForce 6600GT.


Dürfte also absehbar sein, dass ATI sehr spät drann ist mit einer X7xx AGP Serie.

Gast
2004-11-19, 09:57:44
Das die PCI-E Variante so dermaßen günstig sein wird, denn dass die sich bei unter 200 Euro einpendeln wird ist ja abzusehen bei den Preisen der Palit dort, kann damit zusammenhängen, dass Nvidia hier darauf spekuliert die Nachfrage nach eigenen nForce4 Chipsätzen zu pushen.
Ist doch eine ziemlich einfache Rechnung. Wenn die GF6600GT PCI-E günstig ist, dann wird die Nachfrage danach größer. Und wer mit so einer Karte und damit respektive PCI-E spekuliert, braucht ein passendes Board und da ist der nForce4 natürlich erste Wahl.
Auch wenn die Karte nur 100 Euro kosten würde, hätte sie niemand gekauft, weil niemand, der sich die Karte kaufen will, ein entsprechenden Untersatz besitzt. Die Karten sind deshalb so günstig, weil sie schlicht nicht gekauft werden.


In jedem Fall tut sich hier eine riesen Möglichkeit für Nvidia auf sich im Markt sehr stark zu positionieren. Die Konkurenz ist deutlich später drann in diesem Ringfight.

Dürfte also absehbar sein, dass ATI sehr spät drann ist mit einer X7xx AGP Serie.

Die nforce4 Boards und generell pcie für den A64 sind verfügbar wie Luftschlösser. Dann bietet der nforce4 Chipsatz außer pcie nicht wirklich was gegenüber nforce3, hier hat man riesen Möglichkeiten einfach verschenkt. Die einzige Motivation umzusteigen bietet auschließlich AMD mit dem Athlon64, gegenüber nfroce2 sind die Chipsätze für mich ein Rückschritt.

Ati verfolgt, in Zusammenarbeit mit Intel, eine andere Strategie: pcie ist hier verfügbar, alleine der oem-Markt übertrifft bei weitem das, was AMD und nv zusammen jemals hätten verkaufen können. Was nicht bedeuten soll, nv wäre in diesen Segment nicht vertreten (aber nur Grakas und das sehr gut). Nur anscheinend konzentriert sich Ati nicht mehr so stark auf den Retailmarkt. Vielleicht hat man auch noch massig R3XX Karten auf Halde.

dildo4u
2004-11-28, 14:58:08
Media Markt ab Montag mit GeForce 6600 GT AGP


http://www.hardtecs4u.com/?id=1101649250,49705,ht4u.php

LordDeath
2004-11-28, 15:25:30
arsch teuer! wäre die für ~170euronen zu haben, hätte die karte meiner meinung nach ne richtige berechtigung! ansonsten kann man ja locker ne 9800er radeon holen...

r@h
2004-11-28, 22:16:43
arsch teuer! wäre die für ~170euronen zu haben, hätte die karte meiner meinung nach ne richtige berechtigung! ansonsten kann man ja locker ne 9800er radeon holen...Du vergleichst ernsthaft eine R9800p mit 'ner 6600GT?
Kann ja wohl nicht Dein ernst sein, oder?
:confused:

Ansonsten kann man die Leadtek schon für unter 200 Tacken bekommen...
(ist schon recht günstig, aber es geht noch mehr ;-)

Razor

LordDeath
2004-11-28, 23:05:55
ups kurzzeitgedächnis ^^
hab grad schnell par benchmarks gecheckt und muss gestehen, dass ich scheiße gelabert habe! aber dennoch: zu teuer

r@h
2004-11-28, 23:17:47
aber dennoch: zu teuerDie vom MediaMarkt für heftige 259?
Eindeutig!

Razor

deekey777
2004-11-28, 23:54:32
Die vom MediaMarkt für heftige 259?
Eindeutig!

Razor


Wann warst du zum letzten Mal bei MM? Fast alle Elektronikmärkte haben zu hohe Preise für PC Hardware. ;)

r@h
2004-11-29, 00:21:34
Wann warst du zum letzten Mal bei MM? Fast alle Elektronikmärkte haben zu hohe Preise für PC Hardware. ;)Ach nee...
Und?
:confused:

Razor

Gast
2004-11-29, 16:09:45
Ati verfolgt, in Zusammenarbeit mit Intel, eine andere Strategie: pcie ist hier verfügbar, alleine der oem-Markt übertrifft bei weitem das, was AMD und nv zusammen jemals hätten verkaufen können. Was nicht bedeuten soll, nv wäre in diesen Segment nicht vertreten (aber nur Grakas und das sehr gut). Nur anscheinend konzentriert sich Ati nicht mehr so stark auf den Retailmarkt. Vielleicht hat man auch noch massig R3XX Karten auf Halde.

Die haben keine R3xx Karten massig auf Halde. Die müssen R3xx Karten weiter produzieren, weil sie keine AGP Mainstream Lösung bei der neuen Generation haben. Sie haben eine zu Nvidia unterschiedliche Strategie gefahren und auf PCI-E gesetzt. Leider setzt sich PCI-E langsamer durch als von ATI erwartet.
Ganze 5% der Graka Umsätze von ATI im abgelaufenen Quartal waren PCI-Express Varianten.
Sie haben mit der Entwicklung eines Bridge Chips erst sehr spät begonnen. Anders Nvidia. Die haben sofort auf Bridging gesetzt und ernten jetzt wahrscheinlich die Früchte dafür.
Die FX Karten mit PCI-Express haben sich ja auch nicht schlechter verkauft als die von ATI weil es ein Bridge Chip ist, sondern weil die FX Reihe einfach schlechter ist als die R3xx Reihe.
Jetzt hat man aber mit dem NV43 eine super Mainstream Variante im Angebot und hier bridged man nun auf AGP herunter.
ATI dagegen muss jetzt weiterhin R3xx Karten verkaufen in einer 0.15er Fertigung.
Die Karten sind aufwendiger im Boardlayour, schlechter in Performance und Features und mit sehr großer Wahrscheinlichkeit auch noch teurer pro DIE in der Herstellung.

Jetzt kommt der punkt wo sich der Bridge Chip ausszahlt. ATI dürfte vor ein paar Monaten erkannt haben, dass PCI-E länger dauern wird. Deswegen werden die jetzt alles auf einen eigenen Bridge Chip konzentrieren, denn ohne den haben sie eine schlechtere Ausgangslage. Es wird jetzt alles darauf ankommen, wieviel 6600 und 6600GT Nvidia in der AGP Version liefern kann. Sind es viele, dann verliert ATI Marktanteile bis ihre X7xx Reihe AGP fähig ist.

Gast
2004-11-29, 18:30:01
Du vergleichst ernsthaft eine R9800p mit 'ner 6600GT?
Kann ja wohl nicht Dein ernst sein, oder?
:confused:

Ansonsten kann man die Leadtek schon für unter 200 Tacken bekommen...
(ist schon recht günstig, aber es geht noch mehr ;-)

Razor

Wenn ich eine 9800Pro für 190 kaufen kann oder laßt euch verarschen 6600GT für 260 kaufen kann, dann greife ich jederzeit zu der 9800Pro, denn durch die Bank sin die Benches ebenbürtig und ich niemals 70 Euro für PS3 ausgebe, weil ich mit deser Karte, welche auch nur 128 MB hat, das nie richtig geniessen werden kann. Bei 256 MB hätte ich die GT allerdings vorgezogen.

r@h
2004-11-29, 18:51:17
Wenn ich eine 9800Pro für 190 kaufen kann oder laßt euch verarschen 6600GT für 260 kaufen kann, dann greife ich jederzeit zu der 9800Pro, denn durch die Bank sin die Benches ebenbürtig und ich niemals 70 Euro für PS3 ausgebe, weil ich mit deser Karte, welche auch nur 128 MB hat, das nie richtig geniessen werden kann. Bei 256 MB hätte ich die GT allerdings vorgezogen.Soll ich es wirklich nochmal wiederholen?
Die Leadtek 6600GT gibt's schon für 197€ (Tendenz fallend)...
...damit dürfte zumidest deine preisliche Argumentation weg fallen.

Und ALLE Benches zeigen bisher, dass die R3x0'er von ATI (selbst mit 256MB) einer 6600GT mit 128MB NICHTS entgegen zu setzen haben. Falls Du anderer Meinung sein solltest, zeige mir bitte den entsprechenden Vergleich (und schenke Dir HL2 ;-).

Razor

Jesus
2004-11-29, 19:06:32
hier bitte http://www.tweakpc.de/hardware/tests/graka/xfx6600gt/s06.php

(alles auf maximal Stellen ;) )

Gast
2004-11-29, 19:16:27
Soll ich es wirklich nochmal wiederholen?
Die Leadtek 6600GT gibt's schon für 197€ (Tendenz fallend)...
...damit dürfte zumidest deine preisliche Argumentation weg fallen.

Und ALLE Benches zeigen bisher, dass die R3x0'er von ATI (selbst mit 256MB) einer 6600GT mit 128MB NICHTS entgegen zu setzen haben. Falls Du anderer Meinung sein solltest, zeige mir bitte den entsprechenden Vergleich (und schenke Dir HL2 ;-).

Razor

Du kennst das Wort "ebenbürtig"? Damit ist Gleichstand gemeint, mit Vorteilen mal für die eine, mal für die andere gemeint.

Für 260 Euro ist das Wucher. Die fast geniale Asus V9999 GT mit 128 MB, welche diese laßt euch verarschen 6600GT ungespitzt in den Boden rammt, kostet gerademal 40 Euro mehr.

Ich habe jedenfalls hier im Norden keine 6600GT für 197 Euro gesehen. Bitte Adresse, ich fahre am Wochenende hin.

LordDeath
2004-11-29, 19:35:56
hoffentlich werden die 6600gt preise zum frühjahr so stark abfallen, dass selbst ein geizkragen wie ich seine ti4200 mal in rente schicken würde :D

dildo4u
2004-12-11, 11:56:41
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/leadtek_winfast_px6600_px6600gt/

Computerbase Test: Leadtek Winfast PX6600 und PX6600GT

"Fazit: Sehr schnelle Mittelklassegrafikkarte mit guter Kühlung, hoher Übertaktbarkeit und einem umfangreichen Lieferumfang samt großer Portion Sicherheit für die Zukunft zum angemessenen Preis. Die nur unwesentlich billigere X700 Pro sieht gegen die 6600GT keinen Stich: Kurz gesagt, ein Award."

Verdammt gute karte die PX6600GT oc ging bis 580chip und 600 speichertakt

Ati muss da whol schon fast eine X800 gegensetzen aber obs die jemals für unter 200€ geben wird X700XT wurde ja eingestellt

rince
2004-12-11, 13:13:27
Der computerbase-Artikel ist der erste, wo die 6600gt so deutlich vor der x700pro liegt.
Ob man dem überhaupt Beachtung schenken darf? Vor allem die Ergebnisse in Far cry und Tombraider wundern mich.

In allen Tests, die ich bislang gelesen habe, ist die 6600gt im Schnitt nur geringfügig schneller als die x700pro.

dildo4u
2004-12-11, 13:19:03
Der computerbase-Artikel ist der erste, wo die 6600gt so deutlich vor der x700pro liegt.
Ob man dem überhaupt Beachtung schenken darf? Vor allem die Ergebnisse in Far cry und Tombraider wundern mich.

In allen Tests, die ich bislang gelesen habe, ist die 6600gt im Schnitt nur geringfügig schneller als die x700pro.
Ne du verwechselts da was eine X700XT ist der gegener der 6600GT eine X700 pro ist eine leistungsklasse darunter.

rince
2004-12-11, 13:26:51
Jo, und genau deshalb liegt sie auch zurück, die x700xt liegt meist gleichauf.

http://www.hardtecs4u.com/reviews/2004/ati_x700proxt/index4.php
http://www.3dcenter.de/artikel/2004/09-21_b.php

Natürlich ist die 6600gt die insgesamt potentere Karte, aber die x700pro sollte in der Regel etwas mehr oc-potential bieten (>x700xt-Niveau sollte kein Problem sein) und kostet ca. 20-30€ weniger.

http://www.k-hardware.de/artikel.php?s=&artikel_id=3264&seite=11

IMO ist die x700pro längst nicht so eine schlechte Wahl, wie es viele hier im Forum suggerieren.

mfg rince

edit: sie zieht auch weniger Strom

dildo4u
2004-12-11, 13:39:19
Das es eine 6600GT ab 180€ gibt gibt aber eigentlich keinen grund sich ein X700pro zu kaufen die 6600GT lässt sich auch noch gut oc auf 580Chip und 600mhz speicher im computerbase test.Die benchs die du gepostet hast sind mit uralten treibern und die X700XT wurde eingestellt und eine X700pro gibt nicht als agp version im gegensatz zur 6600GT.

Gast
2004-12-11, 16:33:37
Das es eine 6600GT ab 180€ gibt

WO??? Und AGP bitte =)

Heutige ct lobt die GTs, nur sind die zur Zeit verfügbar wie frische Erdbeeren :(

misterh
2004-12-11, 18:34:44
WO??? Und AGP bitte =)

Heutige ct lobt die GTs, nur sind die zur Zeit verfügbar wie frische Erdbeeren :(

228 € (http://shop.vv-computer.de/shop/info/501051/?referer=geizhals.at)
227 € (http://shop.norskit.de/cgi-norsk/preise.cgi?file=link.tpl&u=gast&p=gast&artnr=16911)

Gast
2004-12-11, 22:16:18
228 € (http://shop.vv-computer.de/shop/info/501051/?referer=geizhals.at)

228 + 12 = 240 - 180 = 60 Euro zu teuer ;)

misterh
2004-12-11, 22:18:13
228 + 12 = 240 - 180 = 60 Euro zu teuer ;)

nicht mein problem. ich habe nur link gegeben wo VERFÜGTBAR ist.
Ich hatte mir auch heute eins besorgt (210€)

LovesuckZ
2004-12-11, 22:25:38
228 + 12 = 240 - 180 = 60 Euro zu teuer ;)

AGP != PCI-E.

Gast
2004-12-12, 13:44:30
AGP != PCI-E.

AGP - PEG = 60 Euro :uconf2:

LovesuckZ
2004-12-12, 13:54:39
AGP - PEG = 60 Euro :uconf2:

Oben werde von der PCI-E Variante gesprochen, da es nie eine X700 für den AGP Port geben wird.
Das der Preis der AGP version hoeher liegt, hat keinen Bezug zur Aussage von Dildo.

Gast
2004-12-12, 17:25:32
Oben werde von der PCI-E Variante gesprochen, da es nie eine X700 für den AGP Port geben wird.
Das der Preis der AGP version hoeher liegt, hat keinen Bezug zur Aussage von Dildo.
Was interessiert mich X700? Ich will eine 6600GT AGP für einen vernmünftigen Preis. Und wieso der unverschämt hohe Preis keinen Bezug hat, kann nur ein Fanboy wissen.

Gast
2004-12-12, 21:39:05
Der Preis ist hoch, weil die Nachfrage im mom noch riesig ist, sodass die Karte kaum verfügbar ist

LovesuckZ
2004-12-12, 22:03:54
Was interessiert mich X700? Ich will eine 6600GT AGP für einen vernmünftigen Preis.

Nicht jeder bekommt das, was er will.

Und wieso der unverschämt hohe Preis keinen Bezug hat, kann nur ein Fanboy wissen.

Als PISA Opfer bist du wohl nich in der Lage, den Text von Dildo zu verstehen.

Quasar
2004-12-12, 22:12:37
Was interessiert mich X700? Ich will eine 6600GT AGP für einen vernmünftigen Preis. Und wieso der unverschämt hohe Preis keinen Bezug hat, kann nur ein Fanboy wissen.
...oder jemand, der nicht flamen will, sondern einmal kurz über das hierzulande herrschende Prinzip der Marktwirtschaft nachdenkt.

Der Preis wird diktiert von Angebot und Nachfrage - auch gut zu sehen bei den X800-Versionen im High-End Bereich. ;)