PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV30


robbitop
2015-11-12, 14:12:15
Beim NV30 hatten sie die TSMC Richtlinien fuer den Prozess nicht respektiert und die ersten chips die damals zurueckkamen waren zu 100% mausetot. Sonst war das eigentliche Problem von GF100 der kaputte MC :P
Aber auch abseits der Fertigung war NV30 hinsichtlich der µ-Arch sagen wir mal suboptimal. Nur in INT12 war er halbwegs stark. FP16 ging so, FP32 meh. Dazu noch das CineFX "Feature", dass TMUs und ALUs sich gegenseitig blockiert haben.

Dazu wenig ST Fillrate, Bandbreite, weniger ROPs, Registerknappheit etc. Der hohe Takt glich sicher etwas aus - aber stark auf Kosten der Leistungsaufnahme. Man hat Transistoren ohne Ende verballert - für Dinge, die zur Lebzeiten der GPU wenig/nichts gebracht haben.

Das Ding war auf ganzer Linie eine Blamage. Wären Spiele damals arithmetikintensiver gewesen, wäre es auch für NV40 und G7x blamabel geworden. Streng genommen kam man erst mit G80 und dessen neuer µ-Arch aus dem Schlamasseln heraus.

Hübie
2015-11-13, 00:16:56
Aber auch abseits der Fertigung war NV30 hinsichtlich der µ-Arch sagen wir mal suboptimal. Nur in INT12 war er halbwegs stark. FP16 ging so, FP32 meh. Dazu noch das CineFX "Feature", dass TMUs und ALUs sich gegenseitig blockiert haben.

Dazu wenig ST Fillrate, Bandbreite, weniger ROPs, Registerknappheit etc. Der hohe Takt glich sicher etwas aus - aber stark auf Kosten der Leistungsaufnahme. Man hat Transistoren ohne Ende verballert - für Dinge, die zur Lebzeiten der GPU wenig/nichts gebracht haben.

Das Ding war auf ganzer Linie eine Blamage. Wären Spiele damals arithmetikintensiver gewesen, wäre es auch für NV40 und G7x blamabel geworden. Streng genommen kam man erst mit G80 und dessen neuer µ-Arch aus dem Schlamasseln heraus.

NV30. Da klingelte bei mir doch sofort etwas. :freak: Das waren noch die Zeiten wo ich mich fragte wie man so einen Schund für teuer Geld kaufen kann. :P Sommer 2002 brachte ATi einen Überflieger der erst im Frühjahr einigermaßen gekontert wurde. Was haben meine Kumpels und ich gelacht, als der Föhn vorgestellt wurde :biggrin: Ein Evergreen (oh man was für ein Wortspiel, wenn man bedenkt dass AMD auch einen Evergreen hatte und nVidia grün ist)! ;D;D:freak:

Wie sieht es mit einfachen Shrinks aus?

Shrink wovon jetzt?´:confused: (fify)

Ailuros
2015-11-13, 07:18:46
Aber auch abseits der Fertigung war NV30 hinsichtlich der µ-Arch sagen wir mal suboptimal. Nur in INT12 war er halbwegs stark. FP16 ging so, FP32 meh. Dazu noch das CineFX "Feature", dass TMUs und ALUs sich gegenseitig blockiert haben.

Dazu wenig ST Fillrate, Bandbreite, weniger ROPs, Registerknappheit etc. Der hohe Takt glich sicher etwas aus - aber stark auf Kosten der Leistungsaufnahme. Man hat Transistoren ohne Ende verballert - für Dinge, die zur Lebzeiten der GPU wenig/nichts gebracht haben.

Falsche Design-Entscheidungen haben aber in dem Fall NICHTS mit der Ueberhitzung eines chips zu tun. GF100 wurde so bruellend heiss mit allen clusters eingeschaltet weil der MC einfach k.o. war. Beim GF110 kam ein schnelles Pflaster drauf und die Speicher-frequenzen steigerten sich radikal dann erst ab Kepler, eben als der MC einen richtigen fix abbekam.

Das Ding war auf ganzer Linie eine Blamage. Wären Spiele damals arithmetikintensiver gewesen, wäre es auch für NV40 und G7x blamabel geworden. Streng genommen kam man erst mit G80 und dessen neuer µ-Arch aus dem Schlamasseln heraus.

Es dauerte bei ATi auch einige Zeit bis sie sich vom R600 Disaster erhohlt haben. Und da auch R600 relevant und indirekt zum Thema: jedesmal wenn AMD oder NV zu einem neuen Speichercontroller greifen muessen laeuft mir eiskaltes Wasser den Buckel runter.

robbitop
2015-11-13, 10:47:10
Falsche Design-Entscheidungen haben aber in dem Fall NICHTS mit der Ueberhitzung eines chips zu tun.
Indirekt schon. Immerhin war NV30 designbedingt auf den hohen Takt angewiesen. 500 MHz statt der 325 MHz vom R300. Für so hohe Taktraten brauchte es sicher auch ordentlich Spannung. Breit und niedrig getaktet ist idR energieeffizienter als schmal und hochgetaktet. Aber es gab sicher noch andere Gründe. Immerhin hatte man für NV30 damals 130 nm mit LowK Dilektrikum geplant - daraus wurde nichts. LowK hätte niedrigere Spannung für gleichen Takt erlaubt (Signalflanken in den Verdrahtungsebenen verschleifen weniger bei gleicher Spannung). Dafür war es noch ca. 1 Jahr zu früh (erst X800 - der mehr als 1 Jahr später kam - lief sauber auf dem Prozess).
ATI hatte damals mit dem reifen 150 nm Prozess in Verbindung mit einem niedrig taktenden breiten Design die bessere Wahl getroffen. Vor allem weil sie wirklich nur das lieferten, was SM2.0 forderte. NV lieferte damals nahezu SM3.0 compliance - da fehlte nicht mehr viel.

Dazu kam der damals hitzige hoch getaktete DDR2 RAM, den man benötigte, weil es unbedingt mit einem schmalen SI sein musste.

NV35 taktete wesentlich niedriger (425 MHz), brachte 256 bit SI (DDR1) mit weniger Takt und packte eine 2. FP32 MAD in die Pipelines. Das federte das nötigste ab und reduzierte die Leistungsaufnahme. Erst NV40 wurde dann wirklich breit und weniger tief. Aber auch mit geringen Taktraten (400 MHz) (wohl aber auch dem suboptimalen Prozess von IBM geschuldet). X800 hingegen partizipierte bereits von LowK bei TSMC und konnte gut 100 MHz höher takten bei nicht höherer Leistungsaufnahme. (dieser Prozess war ja wie gesagt ursprünglich auch für NV30 vorgesehen)

kunibätt
2015-11-13, 11:21:02
Indirekt schon. Immerhin war NV30 designbedingt auf den hohen Takt angewiesen. 500 MHz statt der 325 MHz vom R300. Für so hohe Taktraten brauchte es sicher auch ordentlich Spannung. Breit und niedrig getaktet ist idR energieeffizienter als schmal und hochgetaktet. Aber es gab sicher noch andere Gründe. Immerhin hatte man für NV30 damals 130 nm mit LowK Dilektrikum geplant - daraus wurde nichts. LowK hätte niedrigere Spannung für gleichen Takt erlaubt (Signalflanken in den Verdrahtungsebenen verschleifen weniger bei gleicher Spannung). Dafür war es noch ca. 1 Jahr zu früh (erst X800 - der mehr als 1 Jahr später kam - lief sauber auf dem Prozess).
ATI hatte damals mit dem reifen 150 nm Prozess in Verbindung mit einem niedrig taktenden breiten Design die bessere Wahl getroffen. Vor allem weil sie wirklich nur das lieferten, was SM2.0 forderte. NV lieferte damals nahezu SM3.0 compliance - da fehlte nicht mehr viel.

Dazu kam der damals hitzige hoch getaktete DDR2 RAM, den man benötigte, weil es unbedingt mit einem schmalen SI sein musste.

NV35 taktete wesentlich niedriger (425 MHz), brachte 256 bit SI (DDR1) mit weniger Takt und packte eine 2. FP32 MAD in die Pipelines. Das federte das nötigste ab und reduzierte die Leistungsaufnahme. Erst NV40 wurde dann wirklich breit und weniger tief. Aber auch mit geringen Taktraten (400 MHz) (wohl aber auch dem suboptimalen Prozess von IBM geschuldet). X800 hingegen partizipierte bereits von LowK bei TSMC und konnte gut 100 MHz höher takten bei nicht höherer Leistungsaufnahme. (dieser Prozess war ja wie gesagt ursprünglich auch für NV30 vorgesehen)
War NV35 bei IBM gefertigt? Meine nicht.

Reg
2015-11-13, 11:31:14
War NV35 bei IBM gefertigt? Meine nicht.
Das stimmt schon

http://www.golem.de/0310/28097.html

Wie die anderen GeForceFX-Grafikkarten - mit Ausnahme der in 150 Nanometern gefertigten GeForceFX-5200-Serie - wird auch die GeForceFX-5700-Serie in 130 Nanometern produziert. Neu ist allerdings, dass Nvidia die Chips nun von IBM anstatt von TSMC fertigen lässt. TSMC und Nvidia hatten beim Wechsel auf 130-nm-Fertigungstechnik Probleme, die in einer um Monate verzögerten GeForceFX-Einführung (Frühjahr 2003) resultierte. ATI hingegen setzt bei den Serien Radeon 9700 (Sommer/Herbst 2002) und Radeon 9800 (Frühjahr 2003) noch auf 150 nm und wechselte erst mit der Radeon-9600-Serie (Mitte 2003) auf 130 nm.

robbitop
2015-11-13, 12:58:35
War NV35 bei IBM gefertigt? Meine nicht.
NV35 war IIRC TSMCs 130 nm Prozess. NV40 war bei IBM. Letzteren Ausflug hat man schnell bereut...

deekey777
2015-11-13, 14:03:38
Es macht einen Riesnpaß die SuFu dieses Unterforums zu nutzen:
Nvidia schließt Fertigungs Allianz mit IBM für die nächste Geforce FX Reihe! (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=62142)
Ich habe null Ahnung, was im Eröffnungspost stand.

Mein absolutes Highlight ist Von "welchem NV30" meinte ATi etwas gewußt zu haben? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=106027).

robbitop
2015-11-13, 15:27:53
Wie gesagt: meiner Erinnerung nach ist NV35 TSMCs 130 nm (ohne Low-K) und NV40 dann IBMs 130 nm (ohne Low K). Es gab damals Spekulationen, ob NV35 auch schon bei IBM gefertigt wird - das war aber mWn nicht der Fall.

Leichen auszugraben macht schon Spaß:

AFAIK war der originale NV30 mit PPP und evl anderem AA geplant...jedoch gescheitert... (ein grund warum wir immer noch HRAA haben)

Der NV40 wird hoffendlich besserung bringen...

aber der heilige Gral soll wohl erst NV50 werden ;)
NV50 = G80 (Nomenklatur wurde verändert. G70 wäre NV45 - also ein Refresh vom NV40 - G71 dann ein NV48). Und tatsächlich kam es ja auch so.NV50/G80 war dann der Schritt heraus aus CineFX µ-Arch.

Nakai
2015-11-13, 15:45:51
CineFx war eine logische Evolution nach dee Geforce 4 Ti Serie. Die Rv500-Serie kann man als einen Zwischenschritt zwischen Rv300/400 hinzu R600-Serie sehen.

NV hat hier ziemlich mit G80 mit Kanonen auf Spatzen geschossen, also so ziemlich der beeindruckenste Produktrelease im GPU-Sektor bisher. Aber es ist schon auch beeindruckend wie miserabel der NV30 und NV40 war, vor allem in Retrospektive. Da war wirklich nahezu alles mies.

robbitop
2015-11-13, 16:12:22
CineFX ist sicher eine Evolution von NV2x - aber brachte auch einiges aus dem Konzept vom Rampage (3dfx) mit ein. Die konkrete Implementierung/Gewichtung der µ-Arch war aber leider daneben. Man hätte es auch anders implementieren können. Weniger tiefe dafür breitere µ-Arch. Praktisch ein halber NV40 - nur eben ohne den ganzen SM2.0+ Firefanz.
Die µ-Arch selbst und die konkrete Implementierung dieser in einem ASIC sind schon zwei Paar Schuhe. Und gerade bei letzterem hat NV sich IMO verrannt.
Zu Lebzeiten von CineFX war das Blockieren der ALUs/TMUs mangels hoher Arithmetiklast eigentlich noch nebensächlich - das stimmt.

Ailuros
2015-11-13, 17:20:13
Indirekt schon. Immerhin war NV30 designbedingt auf den hohen Takt angewiesen. 500 MHz statt der 325 MHz vom R300. Für so hohe Taktraten brauchte es sicher auch ordentlich Spannung. Breit und niedrig getaktet ist idR energieeffizienter als schmal und hochgetaktet.

Du willst mir doch nicht einreden dass sie NV30 fuer eine Zielfrequenz von 300MHz entwickelt haben. Das allerbeste dass IHVs so spaet noch draufstecken koennen sind vielleicht 50MHz. Dass NV30 eine hohe Frequenz benoetigte war von Anfang an so bestimmt; vielleicht nicht bei 500MHz wo er am Ende ankam, aber auch nicht irgendwo die Haelfte.

Aber es gab sicher noch andere Gründe. Immerhin hatte man für NV30 damals 130 nm mit LowK Dilektrikum geplant - daraus wurde nichts. LowK hätte niedrigere Spannung für gleichen Takt erlaubt (Signalflanken in den Verdrahtungsebenen verschleifen weniger bei gleicher Spannung). Dafür war es noch ca. 1 Jahr zu früh (erst X800 - der mehr als 1 Jahr später kam - lief sauber auf dem Prozess).

Nochmal 130nm war nicht nur leicht problematisch sondern NV hat alle TSMC design rules einfach uebersehen.

ATI hatte damals mit dem reifen 150 nm Prozess in Verbindung mit einem niedrig taktenden breiten Design die bessere Wahl getroffen. Vor allem weil sie wirklich nur das lieferten, was SM2.0 forderte. NV lieferte damals nahezu SM3.0 compliance - da fehlte nicht mehr viel.

Nochmal es ging um hw bedingte Probleme beim Speichercontroller fuier NV in der vorigen Debatte; der ganze obrige Firlefanz hat ueberhaupt NICHTS damit zu tun.


NV35 taktete wesentlich niedriger (425 MHz), brachte 256 bit SI (DDR1) mit weniger Takt und packte eine 2. FP32 MAD in die Pipelines. Das federte das nötigste ab und reduzierte die Leistungsaufnahme. Erst NV40 wurde dann wirklich breit und weniger tief. Aber auch mit geringen Taktraten (400 MHz) (wohl aber auch dem suboptimalen Prozess von IBM geschuldet). X800 hingegen partizipierte bereits von LowK bei TSMC und konnte gut 100 MHz höher takten bei nicht höherer Leistungsaufnahme. (dieser Prozess war ja wie gesagt ursprünglich auch für NV30 vorgesehen)

Weder NV35 noch NV40 waren optimal am Ende. Aber wirklich wieso muessen wir diesen uralten Brei nochmal durchkaemmen nur weil ich sagte dass jedesmal wenn ein IHV den MC aendert es mir Schiss macht. NV30, 40 oder weiss der Geier noch welche Antiquitaet hatten keinen hw bug und schon gar ein Problem mit dem SPEICHERCONTROLLER. GF100 dann eben schon und es war eben NICHT moeglich alle physikalischen clusters auf diesem einzuschalten ohne dass der Stromverbrauch durch die Decke knallt. Besser so?

CineFX ist sicher eine Evolution von NV2x - aber brachte auch einiges aus dem Konzept vom Rampage (3dfx) mit ein. Die konkrete Implementierung/Gewichtung der µ-Arch war aber leider daneben. Man hätte es auch anders implementieren können. Weniger tiefe dafür breitere µ-Arch. Praktisch ein halber NV40 - nur eben ohne den ganzen SM2.0+ Firefanz.
Die µ-Arch selbst und die konkrete Implementierung dieser in einem ASIC sind schon zwei Paar Schuhe. Und gerade bei letzterem hat NV sich IMO verrannt.
Zu Lebzeiten von CineFX war das Blockieren der ALUs/TMUs mangels hoher Arithmetiklast eigentlich noch nebensächlich - das stimmt.

Nur fuer den historischen Wert: der erste sehenswerte 3dfx Einfluss kam erst mit NV40 mit Anteile von der "texture & shading computer" Philosophie welches sowohl Vor- als auch Nachteile hatte. Fuer NV3x steckte NV's engineering zu tief in der Entwicklung als 3dfx aufgekauft wurde. Emmett Kilgariff und der eine Anteil des "rampage" teams wurden sofort ins NV40 team geschickt:

http://www.beyond3d.com/content/reviews/36/9

Indeed, such a texturing mechanism sounded similar to 3dfx's fabled "Rampage" chip, and it didn't come as much of a surprise to find that Rampage's chief architect was in charge of NV40's texture and shader engine. We asked Emmett if this was the case with NV40 and he replied that "some in the NV4x range would feature this as it has benefits and drawbacks".

Der groesste Anteil der ehemaligen rampage engineers wurde von Quantum3D aufgeschluckt.

deekey777
2015-11-13, 17:52:42
Leichen auszugraben macht schon Spaß:


NV50 = G80 (Nomenklatur wurde verändert. G70 wäre NV45 - also ein Refresh vom NV40 - G71 dann ein NV48). Und tatsächlich kam es ja auch so.NV50/G80 war dann der Schritt heraus aus CineFX µ-Arch.
Weil ja klar, dass du dieses Posting herausgrabst.

Raff
2015-11-13, 18:17:09
Cooler (Spinoff-)Thread, hier riecht's lecker nach Moder! =)

Du willst mir doch nicht einreden dass sie NV30 fuer eine Zielfrequenz von 300MHz entwickelt haben. Das allerbeste dass IHVs so spaet noch draufstecken koennen sind vielleicht 50MHz. Dass NV30 eine hohe Frequenz benoetigte war von Anfang an so bestimmt; vielleicht nicht bei 500MHz wo er am Ende ankam, aber auch nicht irgendwo die Haelfte.

Man munkelte, dass die FX 5800 – also die Möhre mit 400 MHz – ursprünglich als NV30-Topmodell gedacht war und man dann von Ati überrascht wurde. In einer "Nacht und Nebel"-Aktion kam dann jemand auf die großartige Idee, dass man dem Chip mittels hoher Spannung und einen Fön ohne Heizelement Beine machen könnte. Nehmen wir mal an, dass NV30 um die 450 MHz ohne große Tritte schafft, passen deine 50 MHz.

Man male sich aus, wie öde es 2003 geworden wäre, wenn Ati nicht so geregelt hätte. Nvidia hätte eine FX 5800 Ultra mit 400 MHz gebracht – die Ti-4600 hatte schon 325 MHz, der Schub wäre winzig gewesen. Doch selbst mit 500 MHz war das Ding nur ein guter Multitexturierer, alles andere war langsam. Je mehr Arithmetik, desto übler wurde es; allein das 8:1 HQ-AF war bis 2005 ungeschlagen. Doch das ist Geschichte.

MfG,
Raff

Spasstiger
2015-11-13, 18:46:22
Die FX 5800 Ultra hätte mit einem noch größeren Kühlkörper und Lüfter zum Release gar nicht so übel ausgesehen. Denn die kurze Halbwertszeit war damals nur in einer handvoll synthetischer DX9-Benchmarks erahnbar, während die damaligen texturlastigen Spielebenchmarks die FX 5800 Ultra durchaus über der Radeon 9700 Pro sahen. ATi war sanft gezwungen, mit der Radeon 9800 Pro nachzulegen, um die Krone zu halten. Erst 2004 mit Release von Spielen, die das Featureset der DX9-Karten ausnutzten wie Farcry, Half-Life 2 und Doom 3, fiel das Kartenhaus GeForce FX in sich zusammen.

Aus heutiger Sicht lächerlich, dass man die max. 75 Watt der FX 5800 Ultra nur mit so einem Fön abführen konnte.

Ailuros
2015-11-13, 21:09:57
Cooler (Spinoff-)Thread, hier riecht's lecker nach Moder! =)



Man munkelte, dass die FX 5800 – also die Möhre mit 400 MHz – ursprünglich als NV30-Topmodell gedacht war und man dann von Ati überrascht wurde. In einer "Nacht und Nebel"-Aktion kam dann jemand auf die großartige Idee, dass man dem Chip mittels hoher Spannung und einen Fön ohne Heizelement Beine machen könnte. Nehmen wir mal an, dass NV30 um die 450 MHz ohne große Tritte schafft, passen deine 50 MHz.

Wie schon erwaehnt der erste Versuch war ein totaler Griff ins Klo da sie es nicht schafften wenigstens einen chip selbst zu einem "piep" zu bringen. Da hiess es 6 Monate Blut schuften, aber diesmal vorsichtig und zu 100% genau mit TSMC's Richtlinien.

IHVs richten sich stets nach den zahllosen Sicherheits-massnahmen der foundry aus gutem Grund und dass was sie vor der Produktion bekommen hat die niedrige Sicherheits-frequenz der niedrigsten Sicherheit. Ausser es gibt schwere Probleme werden in der Mehrzahl der Faelle auch die originalen Ziel-frequenzen erreicht die ohnehin stets konservativ angelegt sind; genau deshalb gibt es meistens diesen ca. +50MHz Luftraum nach oben wenn alles nach Plan gelaufen ist.

Bei einem chip der durch beschissenes engineering zuerst nur Dreck wert war und sie Millionen $ verloren hatten weil einige geschlampt hatten, den man neu fuer den Prozess nochmal auflegen musste, wobei der Prozess ohnehin schon problematisch war, faellt es mir schwer vorzustellen dass man selbst den "stunt" von +100MHz wagen wuerde unter all den vorigen negativen Bedingungen. Ausschliessen kann ich es nicht, denn ich kam zu AEG erst ab NV40 ;)

Man male sich aus, wie öde es 2003 geworden wäre, wenn Ati nicht so geregelt hätte. Nvidia hätte eine FX 5800 Ultra mit 400 MHz gebracht – die Ti-4600 hatte schon 325 MHz, der Schub wäre winzig gewesen. Doch selbst mit 500 MHz war das Ding nur ein guter Multitexturierer, alles andere war langsam. Je mehr Arithmetik, desto übler wurde es; allein das 8:1 HQ-AF war bis 2005 ungeschlagen. Doch das ist Geschichte.

MfG,
Raff

Ich hatte damals aus gutem Grund eine 9700PRO und falls es interessieren sollte, da ich sie verschenkt hatte damals, lebt sie heute immer noch :)

Raff
2015-11-15, 12:56:02
Richtig heftig wurde es dann ab 2004/2005, wo man mit einem R300 noch ganz gut klar kam, die NV3x-Karten aber gnadenlos unter der Shaderlast zusammenbrachen. Ich erinnere mich an Werte, bei denen eine Radeon 9500 auf dem Niveau FX 5950 Ultra liegt. Hmm, wird Zeit für einen neuen Retro-Benchmarkwahnsinn. :D

MfG,
Raff

RavenTS
2015-11-15, 13:31:55
...
Aus heutiger Sicht lächerlich, dass man die max. 75 Watt der FX 5800 Ultra nur mit so einem Fön abführen konnte.

Heute ja, wobei der Materialaufwand im Vergleich zu anderen Modellen der damaligen Zeit schon deutlich höher war.
War das damals nicht auch die Zeit der ersten Heatpipe-Kühler? Da musste man in dem Bereich wohl noch viel Erfahrung sammeln bevor man diese Technik gut einsetzen konnte...

Hübie
2015-11-15, 13:32:45
Jo, momentan steht abseits von TongaXT doch eh nix dolles an. :D Hatte damals noch die Gigabyte Maya II (9700 Pro). Die lief noch echt gut. Wusste gar nicht das nVidia die Designrules so derbe verletzte und aufgrund dessen auch einen schlechten Start hatten. Die Architektur selber war imo aber auch so für den Arsch. =)

Spasstiger
2015-11-15, 20:49:07
Ich erinnere mich an Werte, bei denen eine Radeon 9500 auf dem Niveau FX 5950 Ultra liegt.
Ich glaube bei Oblivion mit aktiviertem Parallax Mapping war es sogar noch schlimmer. :biggrin: Bethesda hatte von der Verwendung einer GeForce FX aus Performancegründen abgeraten. Auf einer Radeon 9700 und höher war es mit angepassten Details spielbar auch inkl. Parallax Mapping. Hab es ja selber auf einer Radeon 9700 gezockt. ;)

Ailuros
2015-11-22, 13:15:47
Richtig heftig wurde es dann ab 2004/2005, wo man mit einem R300 noch ganz gut klar kam, die NV3x-Karten aber gnadenlos unter der Shaderlast zusammenbrachen. Ich erinnere mich an Werte, bei denen eine Radeon 9500 auf dem Niveau FX 5950 Ultra liegt. Hmm, wird Zeit für einen neuen Retro-Benchmarkwahnsinn. :D

MfG,
Raff

Ich weiss jetzt nicht mehr wie lange ich die 9700PRO hatte, aber fast 3 Jahre muesen es schon gewesen sein. Jeglichen Rekord hab ich aber mit 4 Jahren mit der 8800GTX gebrochen; hier war der halo Effekt noch groesser, da es im Vergleich zu G70 hoehere Effizienz kombinert mit deutlich hoeherer Bildqualitaet bedeutete.

Werden wir wohl schwer wieder erleben, da IHVs zu stark aufpassen so grosse Fehler zu machen.