PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: New 90nm GF7s TEIL 2


DrumDub
2006-03-09, 17:16:01
fortsetzung dieses therads: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=263740

Gast
2006-03-09, 21:03:06
Ich mache mal den (neuen) Anfang...
Also ich bin mit dem, was Nvidia da geleistet hat relativ zufrieden.
Nvidia hatte ewig, die schnellsten Karten (7800GTX/+-512) und das schnellste System (SLI).
Jetzt haben sie ihre 90nm Produkte """perfektioniert"", haben sicherlich eine gute Chip ausbeute und können den Hauptmarkt-Mainstream günstig versorgen, auch wenn die Oberliger an Ati geht(als Single-Card).
Mit SLI wird wohl Nvidia immernoch vorne liegen, da Crossfire zuviel Nachteile hat.

Zudem sind die neuen Karten "Benutzerfreundlicher":
-Kühler
-Leiser(Theoretisch,wenn die Hersteller keine 0190Kühler verbauen)
-benötigen weniger Strom

Ich denke, wenn man sich jetzt einen neuen PC kauft ist man mit der 7900 GT allerbestens bedient.

Die Leute, die eine Geforce6-7Generation besitzen, können ohne Bedenken auf den G80 warten, denn dieser ist ja der eigentliche Nacholger(Nachfolgegeneration) des NV50 bzw. der Geforce 6 [Meiner Meinung nach kann man Geforce 6+7 technisch gesehen unter einen Hut stecken].

Zudem dauert es nichtmehr lange bis zum G80.6-8 Monate dürfte es nur dauern, wobei wenn ich ehrlich bin, davon ausgehe, dass Nvidia bereits im Juni den großen Gegenschlag setzen wird.
Denn seit der 7800GTX, welche vor 12 Monaten erschien, gab es technisch nichts neues. Daher würde es mich wundern, wenn Nvidia den G80 erst Ende des Jahres herausbringen würde.[Ich halte wenig von den Gerüchten, dass dieser erst Ende des Jahren kommt]

Also...ich denke Nvidia hat mit den neuen Mainstream Karten keinen Fehler begangen.

-->Der Kunde freut sich<--

Ailuros
2006-03-09, 21:58:21
ForceWare 84.20 (beta) vs. 81.98

Fear 1600*1200

81.98

http://users.otenet.gr/~ailuros/fear.png

84.20

http://users.otenet.gr/~ailuros/fear2.png

-----------------------------------------------------------

1xAA / 1xAF = + 9%
2xAA / 16xAF = + 22%
4xAA / 16xAF = + 32%

mapel110
2006-03-10, 00:37:36
Hm, dann sieht die Niederlage in Fear nicht mehr ganz so vernichtend aus. Es sollte aber immernoch die X1800-Serie leicht schneller sein (x1900 ja sowieso).

Ailuros
2006-03-10, 10:01:09
Hm, dann sieht die Niederlage in Fear nicht mehr ganz so vernichtend aus. Es sollte aber immernoch die X1800-Serie leicht schneller sein (x1900 ja sowieso).

39 fps fuer X1800XT wenn ich mich nicht irre. Wenn ich aber mit einer 256MB 7800GTX@490 37 erreichen kann, wuerde mich 40-45fps fuer GTX512 nicht wundern und G71 entweder fast auf Gleichstand mit R580 oder nur einen Hauch weiter unten.

NVIDIA arbeitete hoechstwahrscheinlich hauptsaechlich daran irgend eine Blase im Treiber fuer 4xAA zu entfernen IMHO. Die ca. 30% Steigerung hier bei den Treibern wurde von den meisten reviewern bis jetzt bestaetigt,

DrumDub
2006-03-10, 10:20:06
somit waren alle spekulationen bezüglich der schwäche nvs bei fear auf grund einer "shaderschwäche" schwachsinn... :ulol:

Gast
2006-03-10, 15:56:33
somit waren alle spekulationen bezüglich der schwäche nvs bei fear auf grund einer "shaderschwäche" schwachsinn... :ulol:
Das waren sie sowieso, da der "Abschwung" ja nur mit FSAA eintrat.


Q

Gast
2006-03-10, 15:59:02
39 fps fuer X1800XT wenn ich mich nicht irre. Wenn ich aber mit einer 256MB 7800GTX@490 37 erreichen kann, wuerde mich 40-45fps fuer GTX512 nicht wundern und G71 entweder fast auf Gleichstand mit R580 oder nur einen Hauch weiter unten.

In 1280x960, 4xAA, 8xAF sinds noch 15% Vorsprung für die 1900 XTX.


Q

Godmode
2006-03-10, 16:18:57
Und wird die Performance jetzt nur bei FEAR verbessert, oder generell mit AA/AF?

Gast
2006-03-10, 17:31:37
Das ist ein spezieller Fix für das Problem, welches mit FEAR bestanden hat.


Q

DrumDub
2006-03-10, 17:41:46
Das waren sie sowieso, da der "Abschwung" ja nur mit FSAA eintrat.


Q stimmt auch wiederum. kann mich nur noch gut an die anfänglichen aufschreie erinnern nach denen f.e.a.r. DAS nextgen spiel sei, welches shadermäßig alles platt machen würde...

Gast
2006-03-10, 17:48:05
stimmt auch wiederum. kann mich nur noch gut an die anfänglichen aufschreie erinnern nach denen f.e.a.r. DAS nextgen spiel sei, welches shadermäßig alles platt machen würde...
Das passiert leicht, wenn man irgendwelche Folien präsentiert bekommt, worauf viele unterschiedlich lange rote und grüne Balken zu sehen sind. *shrugs*


Q

Godmode
2006-03-10, 19:39:54
Und weiß man eigentlich schon, woran es liegt, das die GF6-7 mit AA/AF ziemlich einbrechen?

mapel110
2006-03-10, 19:44:16
Und weiß man eigentlich schon, woran es liegt, das die GF6-7 mit AA/AF ziemlich einbrechen?
Der Memorycontroller bei ATI ist wohl doch stärker unterteilt und damit effizienter. Wobei er wohl wahlweise 4x oder 8x unterteilt sein kann, während nvidias immer 4x ist.
So ist jedenfalls mein Kenntnisstand. Aber keine Ahnung, ob das belegt ist oder es doch an was anderem liegt.

Nachtspinne
2006-03-10, 20:44:18
Was haltet ihr von der 7600 GT (200-250€) ?
Im Gegensatz dazu gibt es schon für 50-100€ fast die doppelte Leistung mit der 7900 GT (299-350€) oder ?

7600GT: 12pipes; 128 Bit Speicherinterface;
7900GT: 24pipes; 256 Bit Speicherinterface + mehr Takt

Eigentlich lohnt es sich doch gar nicht, zur 7600 GT zu greifen oder ?

Gast
2006-03-10, 20:51:38
Wie sieht es denn mit dem Stromverbrauch bei der 7600GT aus?

Wird es auch eine 7600 geben?

Godmode
2006-03-10, 20:55:59
Was haltet ihr von der 7600 GT (200-250€) ?
Im Gegensatz dazu gibt es schon für 50-100€ fast die doppelte Leistung mit der 7900 GT (299-350€) oder ?

7600GT: 12pipes; 128 Bit Speicherinterface;
7900GT: 24pipes; 256 Bit Speicherinterface + mehr Takt

Eigentlich lohnt es sich doch gar nicht, zur 7600 GT zu greifen oder ?

Für jemanden, der sagt, er will nur 200 € ausgeben schon!

Gast
2006-03-10, 23:28:25
Der Memorycontroller bei ATI ist wohl doch stärker unterteilt und damit effizienter. Wobei er wohl wahlweise 4x oder 8x unterteilt sein kann, während nvidias immer 4x ist.


wieso wahlweise 4x oder 8x? 8x unterteilung ist doch immer besser.

Kladderadatsch
2006-03-11, 00:09:25
Hm, dann sieht die Niederlage in Fear nicht mehr ganz so vernichtend aus. Es sollte aber immernoch die X1800-Serie leicht schneller sein (x1900 ja sowieso).
nicht wirklich:
http://images.tomshardware.com/2006/03/09/ati_and_nvidias_same_day_mega_launch_mayhem/image014.gif

http://images.tomshardware.com/2006/03/09/ati_and_nvidias_same_day_mega_launch_mayhem/image016.gif

http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/images/fear1024.gif

erst in höheren auflösungen mit aa und af wirds happig:
http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/images/fear1600.gif

und da scheint gerade das af bei nv 'unverhältnismäßig' stark zu ziehen:
http://images.anandtech.com/graphs/7900%20and%207600%20launch_03090670334/11158.png

Quasar
2006-03-11, 00:13:50
Der Memorycontroller bei ATI ist wohl doch stärker unterteilt und damit effizienter. Wobei er wohl wahlweise 4x oder 8x unterteilt sein kann, während nvidias immer 4x ist.
So ist jedenfalls mein Kenntnisstand. Aber keine Ahnung, ob das belegt ist oder es doch an was anderem liegt.
Ich denke nach wie vor, dass ATis Marketing einen phantastischen Job gemacht hat, was den Ringbus-Memory-Controller angeht. Eventuell sogar einen besseren, als die Ingenieure. ;)


Q

Quasar
2006-03-11, 00:15:03
erst in höheren auflösungen mit aa und af wirds happig:
http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/images/fear1600.gif

und da scheint gerade das af bei nv 'unverhältnismäßig' stark zu ziehen:
http://images.anandtech.com/graphs/7900%20and%207600%20launch_03090670334/11158.png
:lol:
Und bei der X1900 führt AF bei den beiden Grafiken noch zu einem Leistungsgewinn? :) Nein, ich glaube, die beiden Benchmarks von Anand und FSQ lassen sich nicht direkt vergleichen.


Q

Kladderadatsch
2006-03-11, 00:29:47
:lol:
Und bei der X1900 führt AF bei den beiden Grafiken noch zu einem Leistungsgewinn? :) Nein, ich glaube, die beiden Benchmarks von Anand und FSQ lassen sich nicht direkt vergleichen.


Q
natürlich kann man die nicht 1:1 vergleichen. aber wenn die werte korrekt sind, bricht die 7900gtx, wie gesagt, hauptsächlich durch das af ein. und das zeigen die beiden benches wunderbar...im verhältnis natürlich.

Coda
2006-03-11, 00:42:29
Ich denke nach wie vor, dass ATis Marketing einen phantastischen Job gemacht hat, was den Ringbus-Memory-Controller angeht. Eventuell sogar einen besseren, als die Ingenieure. ;)Wie wahr, wie wahr... Vor allem was "Ringbus>Crossbar" angeht - nach dem Motto: Hey wir haben höhere Latenzen und können uns die Crossbar vom Transistorcount nicht leisten aber es klingt wenigstens cool! :crazy2:

Gast
2006-03-11, 00:47:32
bricht die 7900gtx, wie gesagt, hauptsächlich durch das af ein.Kann ich mir nicht vorstellen. Eine 7800GTX verliert selbst durch 16xAF kaum Leistung in Fear.

Quasar
2006-03-11, 00:51:41
natürlich kann man die nicht 1:1 vergleichen. aber wenn die werte korrekt sind, bricht die 7900gtx, wie gesagt, hauptsächlich durch das af ein. und das zeigen die beiden benches wunderbar...im verhältnis natürlich.
Ich hab sie jetzt nicht nochmal geöffnet, weil ich hier im Zug sitze (DANKE liebe DB - es ist Winter und ihr werdet von ca. 7 cm Schnee mattgesetzt) und nur eine etwa 28k-Anbindung habe. Allerdings meine ich mich zu erinnern, dass die Geforce mit Hinzunahme von AF (quer durch die beiden Benches) langsamer wurde (so weit so gut), die Radeon aber (ebenfalls quer durch die beiden Benches) an Geschwindigkeit zulegte.

Da spielen entweder völlig unterschiedliche Treiber eine Rolle oder aber einer der beiden hat Mist gemessen.

Ailuros
2006-03-11, 05:20:11
und da scheint gerade das af bei nv 'unverhältnismäßig' stark zu ziehen:

Nochmal AF alleine macht nur einen minimalen Unterschied in FEAR (ich weiss schon gar nicht mehr wie oft ich den bloeden Graph schon gepostet habe):

http://users.otenet.gr/~ailuros/fear.png

Kladderadatsch
2006-03-11, 08:02:33
dann ist wohl einer der von mir verlinken benches falsch. wie sonst erklärt man sich, dass zwischen x1900xtx und 7900gtx bei 16x12, 4xaa und 16xaf 8 fps liegen, bei gleichem setting ohne af aber nur noch einer?

reunion
2006-03-11, 10:31:47
Nochmal AF alleine macht nur einen minimalen Unterschied in FEAR (ich weiss schon gar nicht mehr wie oft ich den bloeden Graph schon gepostet habe):



Kannst du das bitte auch mal mit dem neuen Treiber machen?
Es könnte durchaus sein, dass sich durch diesen AA-Performancefix der Flaschenhals verschoben hat.

Ailuros
2006-03-11, 13:39:16
dann ist wohl einer der von mir verlinken benches falsch. wie sonst erklärt man sich, dass zwischen x1900xtx und 7900gtx bei 16x12, 4xaa und 16xaf 8 fps liegen, bei gleichem setting ohne af aber nur noch einer?

Wo siehst Du irgendwelche benches ohne AF genau? Nur weil Anand es nicht angiebt heisst es bei weitem nicht dass er heutzutage Resultate in allen Spielen ohne AF veroeffentlichen wuerde ohne es wenigstens zu notieren.

Multisampling ohne AF ist Schwachsinn.

***edit: warum es einen Unterschied zwischen G7x und R580 gibt? Aus dem gleichen Grund dass der Verlust auf R520/580 in Fear 16*12 mit 4xAA stets bei ca. 24-25% lag und bei G7x von 40-50%.

Es wird ja weiter oben der Speichercontroller als Marketing-Gelaber abgestempelt aber eine anstaendige Erklaerung warum Radeons von 1xAA auf 4xAA weniger einbrechen hab ich bis jetzt noch nicht bekommen. R5x0 wurden durch Speichercontroller-Optimierungen auch schneller in OGL Spielen mit 4xMSAA hauptsaechlich.

Ailuros
2006-03-11, 13:46:54
Kannst du das bitte auch mal mit dem neuen Treiber machen?
Es könnte durchaus sein, dass sich durch diesen AA-Performancefix der Flaschenhals verschoben hat.

81.98

1xAA/trilinear = 58 fps
1xAA/16xAF = 55 fps

------------------------------

-5%

------------------------------
------------------------------

84.20

1xAA/trilinear = 63 fps
1xAA/16xAF = 61 fps

------------------------------

-3%

---------------------------------
---------------------------------
---------------------------------

1xAA/tri

81.98 vs. 84.20 = +9%

1xAA/16xAF

81.98 vs. 84.20 = +11%

Gast
2006-03-11, 13:52:26
Multisampling ohne AF ist Schwachsinn.

Nicht, wenn man mal dem famosen Ringbus-Controller wirklich auf die Schliche kommen will.


Q

Coda
2006-03-11, 13:53:21
Es wird ja weiter oben der Speichercontroller als Marketing-Gelaber abgestempelt aber eine anstaendige Erklaerung warum Radeons von 1xAA auf 4xAA weniger einbrechen hab ich bis jetzt noch nicht bekommen. R5x0 wurden durch Speichercontroller-Optimierungen auch schneller in OGL Spielen mit 4xMSAA hauptsaechlich.Vorsicht: Der Ringbus ist ein solcher, nicht der Speichercontroller als ganzes.

Ailuros
2006-03-11, 13:57:30
Vorsicht: Der Ringbus ist ein solcher, nicht der Speichercontroller als ganzes.


Wenn Du jetzt Haare spalten wirst, dann ist es nichtmal ein "ringbus" per se. Der Speichercontroller als Ganzes wuerde fuer R5x0 umgekrempelt.

Coda
2006-03-11, 14:00:00
Ja schön wurde er. Der Ringbus hat trotzdem keinen Geschwindigkeitszuwachs gebracht wenn man in seperat betrachtet. Sehr viel eher das Gegenteil. Für eine 8-fach unterteilte Crossbar hatte man wohl einfach keinen Platz mehr.

Gast
2006-03-11, 14:02:04
Wenn Du jetzt Haare spalten wirst, dann ist es nichtmal ein "ringbus" per se. Der Speichercontroller als Ganzes wuerde fuer R5x0 umgekrempelt.
Ehrlich gesagt habe ich bisher kaum Benchmarks (ausser dem NV-Worst-Case FEAR) gesehen, wo der reine MSAA-Einbruch gemessen wurde.

Im Gegenteil: Ich erinnere mich an die FX-Zeiten, da wurde auch immer gesagt, dass NV mit MSAA suckt, tatsächlich war es aber hauptsächlich das AF, welches mehr Leistung kostete (und aufgrund des Pipeline-Designs auch heute noch tut).


Q

Ailuros
2006-03-11, 14:18:18
Ehrlich gesagt habe ich bisher kaum Benchmarks (ausser dem NV-Worst-Case FEAR) gesehen, wo der reine MSAA-Einbruch gemessen wurde.

FableMark waere ein Beispiel (Juli2004):

http://www.mitrax.de/?cont=artikel&aid=24&page=4

Oder alles andere was stenciling + MSAA betrifft.

Im Gegenteil: Ich erinnere mich an die FX-Zeiten, da wurde auch immer gesagt, dass NV mit MSAA suckt, tatsächlich war es aber hauptsächlich das AF, welches mehr Leistung kostete (und aufgrund des Pipeline-Designs auch heute noch tut).

Die FX5700 auf meinem laptop verliert in Fear etwa genauso wenig mit AF in Fear. Erstens hab ich die Resultate nicht behalten und zweitens hab ich keine Lust mir nochmal die seconds per frame Sequenz anzusehen. Es aendert sich auch nichts mit reduzierten settings was den AF Einbruch betrifft, nur dass man eben eher zu 9-10fps im Durchschnitt kommt.

Zu FX Zeiten gab es Spiele die noch stark auf multitexturing beruhten und da Spiele wie UT2k4 als Beispiel nicht so CPU limitiert waren wie heute, handelte es sich auch um ganz andere Faelle.

Soll ich einen UT2k4 Fuellraten-limitierten Test auf einer G70 laufen lassen mit und ohne AF?

Ailuros
2006-03-11, 14:29:50
Ja schön wurde er. Der Ringbus hat trotzdem keinen Geschwindigkeitszuwachs gebracht wenn man in seperat betrachtet. Sehr viel eher das Gegenteil. Für eine 8-fach unterteilte Crossbar hatte man wohl einfach keinen Platz mehr.

Und wo liegt dann die Erklaerung dass Radeons heutzutage in solchen Faellen mit 4xAA weniger einbrechen genau?

http://www.beyond3d.com/previews/nvidia/6800s/index.php?p=21

http://www.beyond3d.com/reviews/ati/r480/index.php?p=12


----------------------------------------------------------

http://www.beyond3d.com/reviews/ati/r520/index.php?p=26

Aus dem Link oben:

Not long after the X1000 series was announced ATI issued a patch that reconfigures the memory controller in order to optimise the access patterns under OpenGL when FSAA is enabled.

Fear Leistung mit 4xAA stieg uebrigens um einiges auf der R520 nach deren Vorstellung.

http://www.beyond3d.com/reviews/ati/r580/index.php?p=20

Uhmmmm hallo? Die Prozente sind da, rechnet/testet es Euch selber aus. Ich kann zu gar keiner anderen Erklaerung kommen; wenn dann will ich wenigstens eine andere These die mit diesen Resultaten genauso viel Sinn macht.

Coda
2006-03-11, 14:32:00
Du kapierst meine Aussage nicht: Der Ringbus ist nur ein Teil des Speichercontrollers und dieser hat die Performance sicher nicht verbessert. Das ganze Teil an sich schon.

Das ironische ist dass das ATI-Marketing aber genau diesen betont, was einfach idiotisch ist ;)

Ailuros
2006-03-11, 14:38:22
Du kapierst meine Aussage nicht: Der Ringbus ist nur ein Teil des Speichercontrollers und dieser hat die Performance sicher nicht verbessert. Das ganze Teil an sich schon.

Das ironische ist dass das ATI-Marketing aber genau diesen betont, was einfach idiotisch ist ;)

Ich sagte Speichercontroller und nicht ringbus von Anfang an; mir genuegt es wenn ich weiss woher die Steigerung genau kommt. Der Controller ist eine klare Investition fuer die Zukunft fuer ATI und nicht nur eine Eintagsfliege fuer R5x0. Man sollte mit Sicherheit erwarten dass es ein weiterentwickeltes Dingsda auf den gleichen Fundamenten auch in zukuenftigen Produkten geben wird.

Dass ich vom Marketing-Gelaber beider IHVs nichts halte und auch nicht darauf reinfalle sollte klar sein.

Gast
2006-03-11, 15:43:41
FableMark waere ein Beispiel (Juli2004):

http://www.mitrax.de/?cont=artikel&aid=24&page=4

Oder alles andere was stenciling + MSAA betrifft.



Die FX5700 auf meinem laptop verliert in Fear etwa genauso wenig mit AF in Fear. Erstens hab ich die Resultate nicht behalten und zweitens hab ich keine Lust mir nochmal die seconds per frame Sequenz anzusehen. Es aendert sich auch nichts mit reduzierten settings was den AF Einbruch betrifft, nur dass man eben eher zu 9-10fps im Durchschnitt kommt.

Zu FX Zeiten gab es Spiele die noch stark auf multitexturing beruhten und da Spiele wie UT2k4 als Beispiel nicht so CPU limitiert waren wie heute, handelte es sich auch um ganz andere Faelle.

Soll ich einen UT2k4 Fuellraten-limitierten Test auf einer G70 laufen lassen mit und ohne AF?
Du hast mich falsch verstanden: Wo sind die Tests, die solche Szenarien vergleichen einsehbar - wo können wir uns ein Bild davon machen? Dass es die Test-Programme an sich gibt, ist mir durchaus bekannt.


Q

Gast
2006-03-11, 15:51:45
Und wo liegt dann die Erklaerung dass Radeons heutzutage in solchen Faellen mit 4xAA weniger einbrechen genau?

http://www.beyond3d.com/previews/nvidia/6800s/index.php?p=21

http://www.beyond3d.com/reviews/ati/r480/index.php?p=12
http://www.beyond3d.com/previews/nvidia/6800s/chart/image031.gif
http://www.beyond3d.com/reviews/ati/r480/chart/image020.gif

Hier sehe ich nur, dass beide mit 4xAA etwas unter 60% ihrer Rohleistung bringen. Keine X1K zum Vergleich.


BTW, es gab schonmal einen Patch-Treiber für einen beliebten Benchmark von Ati, nach dessen Nutzung die Scores um 20-25% anstiegen. Nur hat man es damals bei der X800 und dem 3DMark05 nicht "Verbesserung der Speichercontroller-Programmierung" genannt, sondern man hatte schlicht "einen Bug in der Speicherverwaltung" für 256MB-Karten gefixt. Auch zum Launch der X800 gab es in Briefings zu hören, man hätte jetzt einen sehr flexibel programmierbaren Speichercontroller eingebaut - nur das Wort "RingBus" fehlte damals noch.

http://www.beyond3d.com/reviews/ati/r520/chart/image037.gif
Hier sieht man übrigens sehr schön, dass eine 512MB-Karte deutlich stärker profitiert, als eine 256MB-Karte. Warum das? Hat die 256er keinen Ringbus?

Ich vermute (völlig ohne Faktengrundlage!), dass man gewisse Daten einfach mehrfach im Speicher ablegt, jeweils anders angeordnet um sie für unterschiedliche Zugriffe optimiert vorliegen zu haben. Demirug meinte mal, dass Radeons (k.A. auf welche Generation sich das genau bezog), extrem empfindlich auf ihre Caching-Effizienz reagieren.


Q

Quasar
2006-03-11, 16:04:52
Wo genau liegt der Vorteil des "RingBus" gegenüber einer Crossbar, ausser, dass die einzelnen Speichercontroller sich "untereinander" nicht unterhalten können? Soweit ich weiß, ist es genau das.

Und um daraus Profit zu schlagen, brauchst du haargenaue Applikationsprofile um den jeweils passenderen Sub-Controller ansteuern zu können. IMO hat auch die X800-Reihe sowas ähnliches, vielleicht nicht ganz so raffiniert.

ShadowXX
2006-03-11, 16:15:59
Wo genau liegt der Vorteil des "RingBus" gegenüber einer Crossbar, ausser, dass die einzelnen Speichercontroller sich "untereinander" nicht unterhalten können? Soweit ich weiß, ist es genau das.

Und um daraus Profit zu schlagen, brauchst du haargenaue Applikationsprofile um den jeweils passenderen Sub-Controller ansteuern zu können. IMO hat auch die X800-Reihe sowas ähnliches, vielleicht nicht ganz so raffiniert.

Warum sollen sich innerhalb eines Ringbusses die einzelnen Speichercontroller nicht unterhalten können?....Token-Ring sagt dir was?

Demirug
2006-03-11, 17:21:51
Warum sollen sich innerhalb eines Ringbusses die einzelnen Speichercontroller nicht unterhalten können?....Token-Ring sagt dir was?

So funktioniert das Teil aber nicht. Das ganze ist und bleibt eine Switch Cascade und das auch nur für Read Operationen. Die Write Ops und Commando Ops laufen nämlich alle noch über den Kern im "Zentrum".

Fetza
2006-03-11, 20:07:30
Um mal wieder zum topic zu kommen:

Ich bin vom g71 ziemlich entäuscht, nach dem ganzen geblubber von 32 pipes und so hab ich echt angenommen nv hätte wenigstens die performance derbe verbessert und vielleicht etwas am af gedreht. Aber gerade mal einen gleichstand hinzubekommen bei schlechtere bildqualität ist schade. Somit bleibt für mich als einzigstes der allerdings überraschend günstige preis der karten, der für einen ordentlichen preiskampf sorgen wird.

greetz

Fetza

ShadowXX
2006-03-11, 20:57:25
So funktioniert das Teil aber nicht. Das ganze ist und bleibt eine Switch Cascade und das auch nur für Read Operationen. Die Write Ops und Commando Ops laufen nämlich alle noch über den Kern im "Zentrum".

OK.

Es ging mir auch mehr darum, das man das ganze auch so konstuieren könnte, das sich die einzelnen SubSpeichercontroller "unterhalten" können.

Das ATI das so nicht eingebaut hat war mir fast klar, da sowas wahrscheinlich viel zu viele Transitoren kosten würde und wohl auch zuviel Kommunikations-Overhead produzieren würde.

Interessant wäre, wie schnell ein 8Fach unterteiler Crossbar gegenüber der ATI-Lösung wäre.

Coda
2006-03-11, 22:33:44
Interessant wäre, wie schnell ein 8Fach unterteiler Crossbar gegenüber der ATI-Lösung wäre.Kommt drauf an. Eine Crossbar ist potentiell immer die schnellste Lösung, wobei es da auch Varianten mit mehr Latenz geben wird.

Gast
2006-03-11, 22:51:36
Warum sollen sich innerhalb eines Ringbusses die einzelnen Speichercontroller nicht unterhalten können?....Token-Ring sagt dir was?
Das meinte ich andersrum. Nur beim "RingBus" genannten Controller scheint das wohl zu gehen - wie Demirug jetzt andeutet aber offenbar auch nur für lesende Zugriffe.


Q

deekey777
2006-03-12, 00:53:12
:cop:Fuad:cop:/on
7600 to come as AGP too (http://www.theinq.com/?article=30223)

Suggested specs are 500MHz core clock speed (BR02 chip supposedly has problems with chips clocked over 500MHz :crazy2: ) ... .

:cop:Fuad:cop:/off

Sollte er Recht haben, daß es "nur" eine 7600GS geben wird, wäre es doch etwas schade, eine 7600GT AGP wäre die AGP-Killer-Solution überhaupt. Andererseits gibt's bei den Kanadiern auch nur die X1600PRO als AGP-Version und keine X1600XT AGP. Hoffentlich liegt er falsch.

Ailuros
2006-03-12, 04:01:27
http://www.beyond3d.com/previews/nvidia/6800s/chart/image031.gif
http://www.beyond3d.com/reviews/ati/r480/chart/image020.gif

Hier sehe ich nur, dass beide mit 4xAA etwas unter 60% ihrer Rohleistung bringen. Keine X1K zum Vergleich.

Die beiden anderen Links weiter unten hatten 4xAA/stencil tests in Doom3 von einer X1k.

http://www.beyond3d.com/reviews/ati/r520/chart/image037.gif
Hier sieht man übrigens sehr schön, dass eine 512MB-Karte deutlich stärker profitiert, als eine 256MB-Karte. Warum das? Hat die 256er keinen Ringbus?

Radeons profitieren tatsaechlich um einiges mehr von 512MB Framebuffer. Dieses Prozentual reicht aber IMO nicht aus um den relativ kleinen Verlust an Leistung mit 4xAA zu decken.

Ich vermute (völlig ohne Faktengrundlage!), dass man gewisse Daten einfach mehrfach im Speicher ablegt, jeweils anders angeordnet um sie für unterschiedliche Zugriffe optimiert vorliegen zu haben. Demirug meinte mal, dass Radeons (k.A. auf welche Generation sich das genau bezog), extrem empfindlich auf ihre Caching-Effizienz reagieren.

Das mit der caching-Empfindlichkeit hab ich schon mal gehoert.

Das mehrfache Ablagern im Speicher hoert mir persoenlich nicht nach einem Leistungsgewinn an. Die naechstbeste logische Frage waere warum es nicht auch NVIDIA auf 512MB GPUs macht, oder haeltst Du sie fuer so grosse Banausen dass sie es bis jetzt nicht mitbekommen haben?

Ailuros
2006-03-12, 04:04:36
Um mal wieder zum topic zu kommen:

Ich bin vom g71 ziemlich entäuscht, nach dem ganzen geblubber von 32 pipes und so hab ich echt angenommen nv hätte wenigstens die performance derbe verbessert und vielleicht etwas am af gedreht. Aber gerade mal einen gleichstand hinzubekommen bei schlechtere bildqualität ist schade. Somit bleibt für mich als einzigstes der allerdings überraschend günstige preis der karten, der für einen ordentlichen preiskampf sorgen wird.

greetz

Fetza


8 quads haetten die Bildqualitaet auch nicht unbedingt erhoeht; was sie erhoeht haetten waere der Stromverbrauch , die Chipkomplexitaet und den finalen Preis.

Als Verbraucher wuerde ich an Deiner Stelle froh sein. Solltest Du Dich fuer eine Radeon entscheiden, bekommst Du sie um einiges billiger.

up¦²
2006-03-12, 05:26:44
Wie gesagt in deekey777s fudo-alarm:
the only market left for AGP is an upgrade one. And it's still huge. Judging by the data we have been able to gather from various sources, AGP market share is still between 65% and 70% of total computers. :tongue:
7600 to come as AGP too (http://www.theinquirer.net/?article=30223)

Gast
2006-03-12, 07:04:05
7600GS für AGP. Toll, 8 Pipes bei 500Mhz, Speicher ebenfalls nur 500Mhz. Wird nicht allzu leistungsstark sein und wohl soviel kosten wie ne 7600GT für PCIe. Aber die AGP-Fanatiker lassen sich ja sowieso gerne abzocken. ;)

Coda
2006-03-12, 11:36:30
Unwahrscheinlich. Wahrscheinlich nur etwas weniger Takt wie schon bei der 6600 für AGP.

AGP market share is still between 65% and 70% of total computers.So ein Schwachsinn. Es gibt keinen einzigen OEM PC mehr mit AGP-Karte und das macht allein schon mindestens 90% aus.

Ailuros
2006-03-12, 13:24:58
Unwahrscheinlich. Wahrscheinlich nur etwas weniger Takt wie schon bei der 6600 für AGP.

So ein Schwachsinn. Es gibt keinen einzigen OEM PC mehr mit AGP-Karte und das macht allein schon mindestens 90% aus.

Fuad's bullshit. Waere der Marktanteil noch soooo gigantisch wuerde NVIDIA mehr GPUs veroeffentlichen als nur 7600/7800GS als Beispiele aus der 7xxx Linie.

Sunrise
2006-03-12, 13:34:29
Waere der Marktanteil noch soooo gigantisch wuerde NVIDIA mehr GPUs veroeffentlichen als nur 7600/7800GS als Beispiele aus der 7xxx Linie.Think nForce. :wink:

Gast
2006-03-12, 14:24:14
Die beiden anderen Links weiter unten hatten 4xAA/stencil tests in Doom3 von einer X1k.
Ja, nur leider fehlt dann eine NV zum Vergleich. Ohne denselben Test unter möglichst identischen Bedingungen ist es gerade bei solchen Dingen schwierig, etwas ohne weitere Angaben vom Hersteller abzuleiten, da man sich auf seine Messungen verlassen muss. Dazu dürfen die aber nur eine möglichst geringe Fehlerquelle haben.


Das mehrfache Ablagern im Speicher hoert mir persoenlich nicht nach einem Leistungsgewinn an. Die naechstbeste logische Frage waere warum es nicht auch NVIDIA auf 512MB GPUs macht, oder haeltst Du sie fuer so grosse Banausen dass sie es bis jetzt nicht mitbekommen haben?
Eigentlich nicht, aber angesichts dessen, wie lange sie für den Fear-Fix gebraucht haben, bin ich mir da nicht mehr so sicher. Freiwillig werden sie Ati diese Marketing-Keule, die ja ganz offenbar in der Community schon gut eingeschlagen hat, nicht gelassen haben. Andererseits bestehen die Möglichkeiten, dass nv a) von so einer Optimierung aufgrund ihre MC nicht oder nur sehr wenig profitiert oder dass sie das bei vielen Top-Games bereits im Treiber integriert haben/hatten.


Q

Gast
2006-03-12, 14:25:49
So ein Schwachsinn. Es gibt keinen einzigen OEM PC mehr mit AGP-Karte und das macht allein schon mindestens 90% aus.
Vielleicht meint der Fudo die installierte Basis. Da werden jetzt erst so langsam die moderneren AGP-Rechner abgeschrieben und ersetzt.


Q

Gast
2006-03-12, 14:26:38
Oh, und zum "mehrfachen Ablegen" noch: Eine weitere Möglichkeit ist selbstverständlich, dass ich komplett falsch liege.


Q

Ailuros
2006-03-12, 14:57:50
Ja, nur leider fehlt dann eine NV zum Vergleich. Ohne denselben Test unter möglichst identischen Bedingungen ist es gerade bei solchen Dingen schwierig, etwas ohne weitere Angaben vom Hersteller abzuleiten, da man sich auf seine Messungen verlassen muss. Dazu dürfen die aber nur eine möglichst geringe Fehlerquelle haben.

Es gibt Gott sei Dank genug derartige Resultate auf dem Netz damit man zu prozentuellen Vergleichen kommen kann.


Eigentlich nicht, aber angesichts dessen, wie lange sie für den Fear-Fix gebraucht haben, bin ich mir da nicht mehr so sicher.

Die 30+% die ich mit dem 84.20 auf der GTX hier sehe sind mit einem 256MB Framebuffer. Ich weiss dass Du es nicht so gemeint hast, aber es klingt mir eher danach dass sie hier ein bisschen ihren eigenen Speichercontroller umprogrammiert haben, da die 30% hauptsaechlich mit 4xAA kommen, waerend 1xAA/1xAF im Vergleich zu vorigen Treibern nur einen 9% Unterschied zeigt.

Freiwillig werden sie Ati diese Marketing-Keule, die ja ganz offenbar in der Community schon gut eingeschlagen hat, nicht gelassen haben. Andererseits bestehen die Möglichkeiten, dass nv a) von so einer Optimierung aufgrund ihre MC nicht oder nur sehr wenig profitiert oder dass sie das bei vielen Top-Games bereits im Treiber integriert haben/hatten.

Radeons profitieren nach HW-fr viel mehr von 512MB Framebuffern als GeForces. Da es nur in Fear phaenomenale Leistungssteigerungen mit 4xAA gibt in den 84.xx Treibern, will ich bezweifeln dass sich hier was geaendert hat.

http://www.behardware.com/articles/599-12/the-geforce-7800-gtx-512-mb-the-new-king-of-3d.html

Gast
2006-03-12, 15:04:04
Es gibt Gott sei Dank genug derartige Resultate auf dem Netz damit man zu prozentuellen Vergleichen kommen kann.
Nee, sorry. Bei so einem sensiblen Thema möchte ich nur ungern über mehrere Plattformen, Testszenarien, Treiberrevisionen und Webseiten hinweg vergleichen. Selbst bei B3D haben sie im 7600GT-Review Far Cry für die AA/AF-Performance genommen. Auch bei Doom3 wird nicht angegeben, in welchen Settings das genau gelaufen ist.
Da setze ich mich demnächst lieber mal abends selbst hin und mache mal ein paar Benchmarks.


Q

Coda
2006-03-12, 15:04:58
Hat mal jemand einen bitwise-Vergleich zwischen 84.12 und 84.40 bei einem FEAR-Bild gemacht?

Evtl. ist ja auch Shader-Replacement im Spiel.

Gast
2006-03-12, 15:05:38
Die 30+% die ich mit dem 84.20 auf der GTX hier sehe sind mit einem 256MB Framebuffer. Ich weiss dass Du es nicht so gemeint hast, aber es klingt mir eher danach dass sie hier ein bisschen ihren eigenen Speichercontroller umprogrammiert haben, da die 30% hauptsaechlich mit 4xAA kommen, waerend 1xAA/1xAF im Vergleich zu vorigen Treibern nur einen 9% Unterschied zeigt.
Ich glaube, ich muss mal diesen komischen Debug-Treiber besorgen und mir FEAR damit anschauen (wenn ich aus dessen Datenausgabe schlau werde).


Q

Gast
2006-03-12, 15:08:17
Radeons profitieren nach HW-fr viel mehr von 512MB Framebuffern als GeForces. Da es nur in Fear phaenomenale Leistungssteigerungen mit 4xAA gibt in den 84.xx Treibern, will ich bezweifeln dass sich hier was geaendert hat.

http://www.behardware.com/articles/599-12/the-geforce-7800-gtx-512-mb-the-new-king-of-3d.html
Ich glaube dir (und wurde schonmal auf diesen Artikel hingewiesen :)). Allerdings meinte ich speziell die "FEAR-Marketing-Keule" und die gibt es ja bereits seit mindestens Anfang Oktober des letzten Jahres. Das sind über fünf Monate um ein Spiel zu analysieren. Das kann ich mir eigentlich nicht vorstellen, dass Nvidia da so lange gepennt haben soll.


Q

Ailuros
2006-03-12, 15:14:11
Ich glaube dir (und wurde schonmal auf diesen Artikel hingewiesen :)). Allerdings meinte ich speziell die "FEAR-Marketing-Keule" und die gibt es ja bereits seit mindestens Anfang Oktober des letzten Jahres. Das sind über fünf Monate um ein Spiel zu analysieren. Das kann ich mir eigentlich nicht vorstellen, dass Nvidia da so lange gepennt haben soll.


Q

Und ich meckere schon ein halbes Jahr ueber diverse bugs im Treiber control panel die eigentlich nur Minuten brauchen um geaendert zu werden. Bugfixes selbst die laecherlichsten dauern eine zu lange Zeit und dass schon seit 2004. Wenn ich aber sehe wie es auf dem anderen Ufer aussieht, nach privaten Debatten mit Kombatant, sieht es da auch nicht besonders besser aus.

Gast
2006-03-12, 15:21:50
Das mehrfache Ablagern im Speicher hoert mir persoenlich nicht nach einem Leistungsgewinn an. Die naechstbeste logische Frage waere warum es nicht auch NVIDIA auf 512MB GPUs macht, oder haeltst Du sie fuer so grosse Banausen dass sie es bis jetzt nicht mitbekommen haben?


so einfach ist das auch wieder nicht, wenn auf diese speicherbereiche schreibend zugegriffen wird kann es schnell zu inkonsistenzen kommen. vielleicht hat NV andere prioritäten in der treiberentwicklung.

Radeons profitieren nach HW-fr viel mehr von 512MB Framebuffern als GeForces. Da es nur in Fear phaenomenale Leistungssteigerungen mit 4xAA gibt in den 84.xx Treibern, will ich bezweifeln dass sich hier was geaendert hat.

http://www.behardware.com/articles/...king-of-3d.html

eigentlich seltsam, da NV ja erst im RAMDAC downsamplet könnte man eher vermuten dass es sich umgekehrt verhält.

Gast
2006-03-12, 15:45:52
Hat mal jemand einen bitwise-Vergleich zwischen 84.12 und 84.40 bei einem FEAR-Bild gemacht?

Evtl. ist ja auch Shader-Replacement im Spiel.

und dann bringt es in erster linie mit FSAA mehr performance?

scheint mir eher unwahrscheinlich.

up¦²
2006-03-12, 15:52:38
Unwahrscheinlich. Wahrscheinlich nur etwas weniger Takt wie schon bei der 6600 für AGP.

So ein Schwachsinn. Es gibt keinen einzigen OEM PC mehr mit AGP-Karte und das macht allein schon mindestens 90% aus.

Im OEM ist das so, aber im retail/upgrade eben noch nicht.
Übrigens: noch im dezember hat Ati selbst zugegeben, daß 65% der graka-produktion noch agp war, und erst ende dieses jahres auf 25% sinken würde!
Allerdings ist Nvidia jetzt klar im vorteil mit jeweils relativ billigen 128 bit (6600/6700) und 256 bit (7800/7900) PCB.

Gast
2006-03-12, 17:17:08
Evtl. ist ja auch Shader-Replacement im Spiel.
Wenn ich mich recht erinnere, laufen die FEAR-Shader schon recht schnell auf den NV-Chips. Zumal der andere Gast ja bereits die Fixierung auf 4xAA ins Spiel gebracht hat.


Q

Gast
2006-03-12, 19:50:32
Unwahrscheinlich. Wahrscheinlich nur etwas weniger Takt wie schon bei der 6600 für AGP.Genau das sagte ich doch. Fuad schreibt von einer 7600GS für AGP und die hat auch auf PCIe nur 8 Pipes.

deekey777
2006-03-13, 00:25:58
Ich bin zu faul, einen weiteren Thread zu öffnen, aber WTF ist das:
CeBIT06: kuriose GeForce 6600 gesichtet (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/maerz/cebit06_kuriose_geforce_6600/).
In der News steht, es sei "nur" eine kuriose 6600. Schöne Sache, aber dann lese ich das -> CeBIT 2006: NVIDIA 6700GS (http://3dnews.ru/news/cebit_2006_nvidia_6700gs-121990/) auf 3Dnews.ru. Das Ganze soll eine 6700GS sein, die als Ablösung der 6600GT am 22. März kommt. Es ist eine Engineering-Sample-Platine ohne den Chip. Einige Spezifikationen sollen vorliegen: 12/4, bis zu 256 MB RAM (ua auch DDR2 oder GDDR3), auf der abgebildeten Platine ist Samsung-Speicher mit 2,8 ns.

:|

Ailuros
2006-03-13, 03:20:21
Genau das sagte ich doch. Fuad schreibt von einer 7600GS für AGP und die hat auch auf PCIe nur 8 Pipes.

G73 hat 3 quads und ergo 12 SIMD Kanaele und nicht 8.

Gast
2006-03-13, 07:55:27
G73 hat 3 quads und ergo 12 SIMD Kanaele und nicht 8.Das ist mir schon klar. Allerdings ist doch bei der 7600GS ein Quad deaktiviert, oder? Dass die 7600GT 3 Quads hat, ist mir schon bewusst.

mapel110
2006-03-13, 12:03:27
Das ist mir schon klar. Allerdings ist doch bei der 7600GS ein Quad deaktiviert, oder? Dass die 7600GT 3 Quads hat, ist mir schon bewusst.
Wo gibts denn Infos über eine PCIe 7600 GS?

Ailuros
2006-03-13, 12:04:04
Κeine Ahnung um ehrlich zu sein. Macht mir aber nicht besonders viel Sinn denn nach INQ soll sie ja nur mit 500MHz kommen.

up¦²
2006-03-13, 15:18:13
http://img100.imageshack.us/img100/3711/0002487123xh.jpg

http://img100.imageshack.us/img100/3835/0002487243tv.jpg

http://img93.imageshack.us/img93/2482/0002487134cp.jpg

http://img100.imageshack.us/img100/2168/0002489365ar.jpg

http://img93.imageshack.us/img93/2121/0002489388ni.jpg

http://img223.imageshack.us/img223/3500/0002494403kq.jpg

http://img223.imageshack.us/img223/8682/0002494419xn.jpg

und so sieht die HDCP-lösung aus! :smile:
http://img223.imageshack.us/img223/4774/0002494599uw.jpg

info ...

Ailuros
2006-03-14, 08:20:55
Die Marketing-Diagramme sind schon seit langem bekannt.

Ferengie
2006-03-14, 10:16:01
Was bringt denn SPDIF nur mit DVI?

Coda
2006-03-14, 10:19:36
Die Platine scheint nur für HDCP-Ausgänge vorbereitet zu sein, der HDCP-Chip ist ja auch nicht aufgelötet.

deekey777
2006-03-17, 10:11:28
Dual GeForce 7600GT Card Spotted at CeBIT (http://www.dailytech.com/article.aspx?newsid=1271)

"Galaxy, a relatively unknown Asian manufacturer of PC add-in cards,..."

Galaxy ist doch nicht unbekannt? :|

Gast
2006-03-17, 15:19:55
In anderen Ländern vielleicht schon.

AnarchX
2006-03-17, 17:36:25
Ich bin zu faul, einen weiteren Thread zu öffnen, aber WTF ist das:
CeBIT06: kuriose GeForce 6600 gesichtet (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/maerz/cebit06_kuriose_geforce_6600/).
In der News steht, es sei "nur" eine kuriose 6600. Schöne Sache, aber dann lese ich das -> CeBIT 2006: NVIDIA 6700GS (http://3dnews.ru/news/cebit_2006_nvidia_6700gs-121990/) auf 3Dnews.ru. Das Ganze soll eine 6700GS sein, die als Ablösung der 6600GT am 22. März kommt. Es ist eine Engineering-Sample-Platine ohne den Chip. Einige Spezifikationen sollen vorliegen: 12/4, bis zu 256 MB RAM (ua auch DDR2 oder GDDR3), auf der abgebildeten Platine ist Samsung-Speicher mit 2,8 ns.

:|

Mhh vielleicht eine weitere Form der 128-bit 6800
Die von ASUS in der DAU-Nepp-Version erhätlich ist:
http://www.geizhals.at/deutschland/a192071.html

Wäre imho eine Möglichkeit, auf Grund der 6er Generationsbezeichnung und der Pipeanzahl.

Gandharva
2006-03-17, 18:06:18
Foxconn shows off a Quad SLI setup using GeForce 7900GX2s

Foxconn's Dual GeForce 7900GX2 1024MB adaptor sports a 500MHz core clock with 1.2GHz DDR3 memory support. These clocks are lower than the GeForce 7900GTX, which has a 650MHz core clock with 1.5GHz DDR3 memory.

...

The cards demonstrated by Foxconn were running 32xAA. The Quad SLI system consumes an incredible 650W during heavy operation. As we reported yesterday, each Quad SLI card is expected to retail over $1,000 and require an SLI x16 motherboard.

http://www.hkepc.com/bbs/attachments_dir/ext_jpg/7900gx-1_iPVX2OO2PnHK.jpg

http://www.hkepc.com/bbs/attachments_dir/ext_jpg/7900gx-2_L6OzEjwo3yky.jpg

Quellen + mehr Bilder:

http://www.hkepc.com/bbs/viewthread.php?tid=567650&www.dailytech.com

http://www.dailytech.com/article.aspx?newsid=1272

Der GX2 besteht also doch nur aus 2 zusammengeklebten Karten. Naja, wers braucht...

AnarchX
2006-03-17, 18:10:00
Der GX2 besteht also doch nur aus 2 zusammengeklebten Karten. Naja, wers braucht...

Aus wirtschaftlicher Sicht imho sinnvoller als ein Monster-PCB zu verwenden, was auch noch mehr Platz wegnimmt.

Demirug
2006-03-17, 20:16:37
Der GX2 besteht also doch nur aus 2 zusammengeklebten Karten. Naja, wers braucht...

Nicht ganz. Auf der Masterkarte sitzt ein zusätzlicher PCIe Switch.

Coda
2006-03-17, 20:30:06
Von welchem Hersteller eigentlich?

Ailuros
2006-03-18, 12:44:01
Von welchem Hersteller eigentlich?

Der Referenz-Desing fuer GX2 ist diesmal von NVIDIA. Momentan wird es die Dinger sowieso nur in ueberteuren vorgebauten Systemen geben (a la Alienware usw.). Spaeter kann es sein dass sie irgendwann mal einzeln verkauft werden aber ich bezweifle dass so ein Ding billiger am Ende auskommt als 2*7900GT@SLi. Man hat zwar auf der GX2 dann 1GB Speicher aber es bleibt trotzdem eine Geldverschwendung.

Radeonator
2006-03-22, 00:14:16
Also in 13h kommt endlich ein wenig Licht in nVidias PR Welt.

7600GT ...schau was als nächstes kommt...

7700GS / 7900GS oder 7600GT ->AGP ???

Coda
2006-03-22, 00:18:44
Der Referenz-Desing fuer GX2 ist diesmal von NVIDIA.Ich meinte den PCIe-Switch.