PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ComputerBase - Grafikkarten Evolution -14 Karten in 14 Spielen von 2005–2011


AnarchX
2011-10-20, 16:27:25
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/

CineFX war schon etwas ganz besonderes...

LovesuckZ
2011-10-20, 16:39:21
An der 8800GTX sieht man mal, was für ein Meisterwerk G80 war. Auf dem Niveau der zweitschnellsten rv770 Karte ist beeindruckend, für etwas, mehr als 20 Monate früher und auf 90nm veröffentlicht wurde.

Advanced
2011-10-20, 16:45:52
Ebenso erstaunlich, dass die X1950XTX mittlerweile 50-200% schneller als die 7900GTX ist.
Wenn das mal nicht zukunftsorientiert war^^

fondness
2011-10-20, 16:47:32
An der 8800GTX sieht man mal, was für ein Meisterwerk G80 war. Auf dem Niveau der zweitschnellsten rv770 Karte ist beeindruckend, für etwas, mehr als 20 Monate früher und auf 90nm veröffentlicht wurde.

Es ist auch ein Unterschied ob ein Chip fast 500mm² oder 250mm² und teildeaktiviert ist.

LovesuckZ
2011-10-20, 16:49:29
CineFX eben. Wobei man sagen muss, dass die 8800GTX wiederrum erheblich schneller war als die Vorgängergenration als es rv770 war. Die Mehrleistung gegenüber der X1900 auf dem selben Prozess bei fast identischem Stromverbrauch war 2006 eigentlich so genial. Aber leider schätzt man 120 - 150 Watt erst heute richtig, wo man mit dem schnellsten an die 300 Watt Marke geht. :D

/edit: Und hätte man damals mit einer vernünftigen ansiotropen Qualität getestet, wäre die 8800GTX wohl annährend doppelt so schnell gewesen - Test vom r600 Launch: http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2900-xt/8/#abschnitt_aa_und_afskalierung

Es ist auch ein Unterschied ob ein Chip fast 500mm² oder 250mm² und teildeaktiviert ist.

Interessiert niemanden, ob ein Chip 250mm^2 oder 480mm^2 ist. Oder soll ich jetzt anfangen und sagen, dass es genauso unfair ist 55nm und 90nm in einem Topf zu werfen?

Der Stromverbrauch der 4850 ist kaum geringer gewesen als bei der 8800GTX: http://www.computerbase.de/artikel/grafikkarten/2008/test-ati-radeon-hd-4850-cf-und-hd-4870/30/#abschnitt_leistungsaufnahme

Spasstiger
2011-10-20, 17:06:04
Ebenso erstaunlich, dass die X1950XTX mittlerweile 50-200% schneller als die 7900GTX ist.
Wenn das mal nicht zukunftsorientiert war^^
Und die Entwickler von Multiplattformspielen dürfen das heute noch ausbaden, Nvidias RSX (PS3) ist CineFX-basiert, ATIs Xenos (Xbox 360) dagegen bereits wie die Radeon-HD-Karten auf der VLIW5-Architektur basierend. Da wird die ATI-Lösung in modernen Engines wohl auch einen Faktor 2 gegenüber RSX erreichen, obwohl die PS3 gemeinhin als modernere und schnellere Konsole gilt. NV wollte wohl damals die Architektur des vor dem Tapeout stehenden G80 nicht gegenüber Sony offenlegen.

Was den Test von CB angeht: Ich frage mich, ob in das Rating auch die 0-fps-Ergebnisse oder Ergebnisse mit Grafikfehlern eingefloßen sind. Bei aktuellen Spielen scheinen die Radeon-X1K-Karten nix mehr auf die Reihe zu bringen "dank" altem Catalyst 10.2.

Rückblickend ärgere ich mich übrigens, dass ich in Q2/2007, als ich meinen Core-2-Duo-PC zusammengestellt habe, nicht gleich die 8800 GTX gekauft habe. Hätte mich damals 440€ gekostet und die Performance wäre immer noch ungefähr auf dem Level der Radeon HD 4850, die ich seit Anfang 2010 drin habe. Ich hab jetzt zwar seitdem nur effektiv 220€ für meine Grafikkarten ausgegeben (X1900 AIW -> HD 2900 Pro -> HD 4850), aber dafür war ich drei Jahre lang mehr oder weniger deutlich hinter dem Performanceniveau der 8800 GTX. Wenigstens hab ich drei High-End-GPUs von ATI/AMD stets günstig mitgenommen (R580, R600, RV770).

boxleitnerb
2011-10-20, 17:26:52
Man sieht leider auch, wie langsam die Durchschnittsgeschwindigkeit bei gleicher Leistungsaufnahme gestiegen ist. Zu langsam finde ich. Und schneller wird es auf absehbare Zeit wohl nicht :(

Spasstiger
2011-10-20, 17:31:40
Wenn man mit der GeForce 7900 GTX vergleicht, sieht es doch ganz ordentlich aus. Deren Performance gibts heute schon in IGP-Form (Intel HD 3000 bis AMD Llano).
Und mit der Leistungsaufnahme der GeForce 8800 GTX gibts heute die Radeon HD 6950. Wobei es mit den Stromsparmechanismen für den idle-Betrieb heute dramatisch besser aussieht als damals.

deekey777
2011-10-20, 17:33:40
Xenos/C1 ist kein VLIW-Chip, es ist Vec4+Vec1.

Ebenso erstaunlich, dass die X1950XTX mittlerweile 50-200% schneller als die 7900GTX ist.
Wenn das mal nicht zukunftsorientiert war^^
Die X1950XTX kam im August 2006: Auch wenn es nur X1900 (Ende Januar 2006 und damit zwei Monate vor der 7900GTX) mit GDDR4 ist, so ist die X1900XTX der eigentliche Gegner der 7900GTX, während der G71 an sich schon ein feiner kleiner Chip war und höhere Taktraten erlaubte als G70.

boxleitnerb
2011-10-20, 17:45:36
Und mit der Leistungsaufnahme der GeForce 8800 GTX gibts heute die Radeon HD 6950.

Das Rating ist irgendwie komisch. Die 6970 ist da nur 2,35x so flott wie die 8800GTX. Wenn wir neuere Spiele wie Dirt 3 nehmen, geht das sogar nur gegen 2x. Also das ist doch total mies für 4 Jahre Unterschied.

Mr. Lolman
2011-10-20, 17:48:20
Schöner Test. Jedoch: Alle neueren GraKas langweilen sich bei den alten Spielen in der Auflösung. Ob ich 120 oder 170fps hab ist eigentlich wurscht und bei hoher GraKalast kann sich das Verhältnis im womöglich gerade noch spielbaren Bereich durchaus auch umkehren. Außerdem würd mich interessieren, wie der Durchschnitt gerechnet wurde. Anhand der fps oder der prozentuellen Abstände? Außerdem find ichs schade, dass man keine Screenshots, von den Spielen gemacht hat. Gerade bei den unterschiedlichen GraKagenerationen wären eventuell sichtbare Unterschiede in der Darstellung sehr interessant gewesen.

boxleitnerb
2011-10-20, 17:51:16
@Lolman:
Wo langweilt sich das was? Ich sehe kein CPU-Limit, du?

Mr. Lolman
2011-10-20, 17:56:41
@Lolman:
Wo langweilt sich das was? Ich sehe kein CPU-Limit, du?

Ich meinte nicht ein generelles CPU Limit sondern eher die schwache Aussagekraft von enorm hohen fps in vglw. niedrigen Auflösungen. Langeweile war eher so zu verstehen, dass die GraKa so wenig zu berechnen hat, dass sie schnell mal 100-300fps raushaut.

Das Rating ist irgendwie komisch. Die 6970 ist da nur 2,35x so flott wie die 8800GTX. Wenn wir neuere Spiele wie Dirt 3 nehmen, geht das sogar nur gegen 2x. Also das ist doch total mies für 4 Jahre Unterschied.

Mit FullHD wär der Abstand wohl deutlich größer ;)

Thunder99
2011-10-20, 17:58:04
Das Rating ist irgendwie komisch. Die 6970 ist da nur 2,35x so flott wie die 8800GTX. Wenn wir neuere Spiele wie Dirt 3 nehmen, geht das sogar nur gegen 2x. Also das ist doch total mies für 4 Jahre Unterschied.
Gibts halt nicht gleichzeitig, zumindest nicht im High-End bei Grafikkarten. Entweder mehr Performance oder besserer Verbrauch.
Oder warum denkst du haben die aktuellen Grafikkarten keine kleinen Kühler mehr als früher? Leckströme in "Massen" verhindern das :(

Der Test zeigt, dass die AMD/ATI Grafikkarten einfach länger gut schlagen als ihre nvidia Gegner.
Ob das später auch noch zutrifft darauf kann man sehr gespannt sein (HD5870 in 5 Jahren so schnell wie die GTX480? :naughty: )

boxleitnerb
2011-10-20, 17:59:36
Vermutlich hauptsächlich, weil den älteren Karten der Speicher ausgeht. Obs aber an der Rohleistung liegt? Hat nicht hardware.fr einen ähnlichen Test gemacht?

Gefunden:
http://www.hardware.fr/articles/784-1/comparatif-geant-89-gpu-nvidia-ati-amd.html
Leider nur bis zur HD5870 aber dafür auch bis 1080p.

LovesuckZ
2011-10-20, 18:01:12
Der Test zeigt, dass die AMD/ATI Grafikkarten einfach länger gut schlagen als ihre nvidia Gegner.
Ob das später auch noch zutrifft darauf kann man sehr gespannt sein (HD5870 in 5 Jahren so schnell wie die GTX480? :naughty: )

Hä? Wo siehst du das? Die DX9-AMD Karten sind schneller, weil sie die bessere Architektur haben. Das war es dann aber auch.

Thunder99
2011-10-20, 18:01:30
Vermutlich hauptsächlich, weil den älteren Karten der Speicher ausgeht. Obs aber an der Rohleistung liegt? Hat nicht hardware.fr einen ähnlichen Test gemacht?
Denke beides. Gerade bei den AMD/ATI´s ist bekannt, dass ihr Speichermanagement besser ist. Da hat nvidia erst mit der GTX4xx/5xx aufgeschlossen oder?
Hä? Wo siehst du das? Die DX9-AMD Karten sind schneller, weil sie die bessere Architektur haben. Das war es dann aber auch.
Es gab schon mal einen Test wo die ATI´s im Laufe der Zeit besser/schneller wurden im Vergleich als die nvidia´s. Evt schlägt die Rohleistung der aktuellen Karten auch besser durch im Laufe der Zeit?

Spasstiger
2011-10-20, 18:03:18
Das Rating ist irgendwie komisch. Die 6970 ist da nur 2,35x so flott wie die 8800GTX. Wenn wir neuere Spiele wie Dirt 3 nehmen, geht das sogar nur gegen 2x. Also das ist doch total mies für 4 Jahre Unterschied.
1680x1050 mit 4xAA ist aber kein forderndes Setting für die HD 6950, auch nicht bei Dirt 3 (siehe die 100 fps plus).
Bei The Witcher 2 ist die HD 6970 mehr als dreimal so schnell wie die 8800 GTX, da kann man für die HD 6950 einen Faktor 3 annehmen.
In neueren Tests ist die HD 6950 auch meist mehr als doppelt so schnell wie die GTS 450, welche einen Tick schneller ist als die GTS 250. Und die GTS 250 wiederum ist rund 20% schneller als die 8800 GTX. Ergo ist ein Faktor 2 von der 8800 GTX zur HD 6950 imo zu niedrig angesetzt, wenn man von Anforderungen ausgeht, die eine HD 6950 in den Bereich zwischen 30 und 60 fps zwingt. Da landet die 8800 GTX dann nur noch bei 10-20 fps.

LovesuckZ
2011-10-20, 18:05:52
Es gab schon mal einen Test wo die ATI´s im Laufe der Zeit besser/schneller wurden im Vergleich als die nvidia´s. Evt schlägt die Rohleistung der aktuellen Karten auch besser durch im Laufe der Zeit?

Das kann sich nur auf die Pre-DX10 Generation beziehen. Ab rv770 und GT200 herrscht Gleichstand. Wie es sich mit den DX11 Karten - vorallem GF100/GF110 und Cypress/Cayman - entwickelt, bleibt abzuwarten.

boxleitnerb
2011-10-20, 18:06:07
1680x1050 mit 4xAA ist aber kein forderndes Setting für die HD 6950, auch nicht bei Dirt 3 (siehe die 100 fps plus).
Bei The Witcher 2 ist die HD 6970 mehr als dreimal so schnell wie die 8800 GTX, da kann man für die HD 6950 einen Faktor 3 annehmen.
In neueren Tests ist die HD 6950 auch meist mehr als doppelt so schnell wie die GTS 450, welche einen Tick schneller ist als die GTS 250. Und die GTS 250 wiederum ist rund 20% schneller als die 8800 GTX. Ergo ist ein Faktor 2 von der 8800 GTX zur HD 6950 imo zu niedrig angesetzt, wenn man von Anforderungen ausgeht, die eine HD 6950 in den Bereich zwischen 30 und 60 fps zwingt. Da landet die 8800 GTX dann nur noch bei 10-20 fps.

Wenn die CPU nicht bremst, ist es natürlich fordernd. Mir geht es um die Grundperformance, nicht irgendwelche Extremsettings wo der Speicher ausgeht, es eine 8xMSAA Schwäche oder sonstwas gibt.

Spasstiger
2011-10-20, 18:08:31
Ich rede von Settings, mit der man eine Radeon HD 6950 üblicherweise nutzen würde und auf 30-60 fps kommt. Wenn das schon exotische Settings sind, braucht eigentlich keiner High-End-Grafikkarten, oder? ;)
Bei GPU-Computing gabs seit der 8800 GTX übrigens beträchtliche Steigerungen der Energieeffizienz und nicht nur Faktor 2-3.

Ich gehe übrigens stark davon aus, dass jenseits der 100 fps der CPU-Einfluss größer ist als bei 30-60 fps. Es muss kein hartes Limit vorliegen, um die Verhältnisse zu verzerren. Man kann alte Grafikkarte natürlich immer schönreden, wenn man nur Settings fährt, die auf diesen Karten auch spielbar sind und wo neue Karten ihr Potential nicht voll entfalten können.

Botcruscher
2011-10-20, 18:53:53
Schöner Test. Jedoch: Alle neueren GraKas langweilen sich bei den alten Spielen in der Auflösung. Ob ich 120 oder 170fps hab ist eigentlich wurscht und bei hoher GraKalast kann sich das Verhältnis im womöglich gerade noch spielbaren Bereich durchaus auch umkehren.

Ich hätte gerne 200Hz TFTs auch wenn jetzt wieder die Schlauberger "sieht man nicht" angerannt kommen. Doch man sieht und fühlt es.

Spasstiger
2011-10-20, 18:57:09
Dann brauchst aber immer übertaktete High-End-CPUs, um bei neuen Spielen in den Bereich von über 100 fps vordringen zu können. Eine Investition in räumliche statt zeitliche Auflösung kommt deutlich günstiger.

Mr. Lolman
2011-10-20, 19:00:49
Ich hätte gerne 200Hz TFTs auch wenn jetzt wieder die Schlauberger "sieht man nicht" angerannt kommen. Doch man sieht und fühlt es.

Woher willst du das wissen? Von den 125fps Q3a @ CRT Zeiten?

Hugo78
2011-10-20, 19:01:55
Ich hätte gerne 200Hz TFTs auch wenn jetzt wieder die Schlauberger "sieht man nicht" angerannt kommen. Doch man sieht und fühlt es.

Jup, seh ich auch so. 60fps ist für mich die untere Grenze im MP.

@Lolman
Schau dir doch einfach den Vergleich an, 60fps ist schon deutlich flüssiger als 30, aber da geht noch was.
http://www.boallen.com/fps-compare.html

boxleitnerb
2011-10-20, 19:03:34
Bei gewissen Engines spüre ich auch den Unterschied von 60 auf 120fps (Unreal Engine z.B., Medal of Honor 2010), aber 200 ist doch übertrieben. Das können die Grafikkarten nicht darstellen in Full-HD mit AA/AF und die CPUs erst recht nicht durchgehend.

Knuddelbearli
2011-10-20, 19:13:37
also ich merk da keinen unterschied zwischen 30 und 60 ...

bin aber auch kein shooter zocker sondern fast nur strat ( und da auch eher gemütlich wie civ, SoSe, M+M ) und Rolenspiele

Hugo78
2011-10-20, 19:28:07
also ich merk da keinen unterschied zwischen 30 und 60 ...

Dann stimmt was mit deiner Hardware nicht. :biggrin:

Also noch mal zur Erklärung ein PCGH Retro:
- http://www.pcgameshardware.de/aid,641563/PCGH-Retro-30-Fps-vs-60-Fps/Grafikkarte/Wissen/

Kino funktioniert nur dank Motion Blur
Doch auch wenn ein System in einem Computerspiel konstante 24 fps leisten könnte, wir hätten immer noch nicht den Bewegungsrealismus des Kinos erreicht. Ein wichtiger Effekt, der den PC-Spielen besonders in turbulenten Szenen fehlt, ist "Motion Blur" (Bewegungsunschärfe). Bei Filmaufnahmen wird durch die chemische Reaktionszeit des Filmmaterials (Celluloid) und der Verschlusszeit der Kamera künstliche Unschärfe bei jenen Objekten hinzugefügt, die sich bewegen. Der Effekt interpoliert zwischen den einzelnen Bildern und "verschmiert" die bewegten Bildteile gegen die Bewegungsrichtung, so dass in jedem Einzelbild zusätzliche visuelle Information steckt.

Unser Auge fällt auf den Trick herein, der in der natürlichen Umgebung durch die unendlich vielen Bilder pro Sekunde ebenfalls auftritt.

Ein Computerbild ist immer scharf und um in Bewegung einen "weichen" Übergang hinzubekommen, braucht man mehr als 30fps.
60 seh ich dabei als Minimum an und die Grenze dürfte für mich erst bei 150fps liegen.

Mr.Magic
2011-10-20, 22:49:05
Dann brauchst aber immer übertaktete High-End-CPUs, um bei neuen Spielen in den Bereich von über 100 fps vordringen zu können. Eine Investition in räumliche statt zeitliche Auflösung kommt deutlich günstiger.

In aktuelleren Spielen habe ich eigentlich immer 120FPS, wenn die GPU nicht limitiert (z.B. Alpha Protocol oder Dead Island). Beides übrigens Spiele, bei denen sich 60FPS deutlich "zäher" anfühlten. Und nein, eine 180€ CPU ist kein High-End.

Schaffe89
2011-10-20, 23:03:48
Schau dir doch einfach den Vergleich an, 60fps ist schon deutlich flüssiger als 30, aber da geht noch was.

Wer redet von 30 vs 60 FPS?

Hugo78
2011-10-20, 23:13:18
Wer redet von 30 vs 60 FPS?
In einer Zeit in der nur grottige TN Panels über 60Hz kommen, gibt es kaum noch einen Vergleich für 60+.

Schaffe89
2011-10-20, 23:21:54
Ja, es ging doch aber um Bereiche von mehr als 100 FPS und dort sieht niemand einen Unterschied, auch nicht bei einem 200Hertz Monitor.

Hugo78
2011-10-20, 23:36:30
Ok, ich hab dabei halt "den Stand der (Panel) Technik" im Hinterkopf gehabt.
Wenn man heute keinen Unterschied mehr bei 120-170fps sieht, dann liegt das ja ganz einfach daran das kein Panel über 120fps kommt.
Und auch hier nur die 120Hz Ausnahmen mit TN, der Rest hängt leider bei 60fps.

Das man aber in Abrede stellt, noch jenseits der 120fps Unterschiede wahrzunehmen (sofern das Ausgabemedium das packt),
halte ich für zu kurz gedacht, denn unsere ureigene HW, aka Auge + Hirn, kann mehr verarbeiten.
Sollte es zumindest. :freak:

Desti
2011-10-21, 16:31:55
Bei gewissen Engines spüre ich auch den Unterschied von 60 auf 120fps (Unreal Engine z.B., Medal of Honor 2010), aber 200 ist doch übertrieben. Das können die Grafikkarten nicht darstellen in Full-HD mit AA/AF und die CPUs erst recht nicht durchgehend.

Das hat aber nichts mit den angezeigten FPS zu tun, sondern wie die Engine intern den Input synchronisiert und welche Verarbeitungslatenz dabei entsteht.

Raff
2011-10-23, 10:51:53
Die PCGH hat einen vergleichbaren Print-Artikel aus der 06/2011 nach Online portiert:

Von Geforce 256 bis Radeon HD 6970: Grafikkarten-Übersicht: 80 Chips im Benchmark-Vergleich (http://www.pcgameshardware.de/aid,850731/Grafikkarten-Uebersicht-80-Chips-im-Benchmark-Vergleich/Grafikkarte/Test/)

Bis zu 80 GPUs, 6 Benchmarks.

MfG,
Raff

Sir Integral Wingate Hellsing
2011-10-23, 11:41:35
Der Test zeigt, dass die AMD/ATI Grafikkarten einfach länger gut schlagen als ihre nvidia Gegner.
Ob das später auch noch zutrifft darauf kann man sehr gespannt sein (HD5870 in 5 Jahren so schnell wie die GTX480? :naughty: )

Diese Erfahrung habe ich auch gemacht. ATi/AMD-Karten performen auch noch nach 2-3 Jahren. Bei nvidia hab ich das (subjektive) Gefühl, dass sie immer nur für den aktuellen Zeitraum gebaut sind und nach einiger Zeit arg in der Leistung (bei Spielen, die NACH Release der Karte erscheinen) nachlassen.
Mein Bruder hat ne 7900GT (2007 gekauft) gegen eine X1950GT (2007 gekauft) getauscht (lag rum), es lief einiges besser (war vor ca 3 Monaten).

Raff
2011-10-23, 11:51:41
Die Aussage, dass Ati/AMD-Karten generell nach Jahren besser dastehen, wird von der HD 2900 und HD 3800 eindrucksvoll widerlegt. Genauso wie Nvidias G80-Karten mit verdammt gutem Abschneiden zeigen, dass die Cine-FX-Vorgänger das Problem waren – und dadurch sowohl die R300- als auch die R58x-GPUs relativ (sehr) gut dastehen (auch im Vergleich zu R600/RV670). Evergreen schlägt sich sehr gut, ich sehe aber nichts, das im Laufe der Jahre dazu führen könnte, eine GTX 480 wegzuballern – gerade angesichts Tessellation.

MfG,
Raff

Sir Integral Wingate Hellsing
2011-10-23, 11:57:42
Die Aussage, dass Ati/AMD-Karten generell nach Jahren besser dastehen, wird von der HD 2900 und HD 3800 eindrucksvoll widerlegt. Genauso wie Nvidias G80-Karten mit verdammt gutem Abschneiden zeigen, dass die Cine-FX-Vorgänger das Problem waren – und dadurch die R58x-GPUs relativ (sehr) gut dastehen (auch im Vergleich zu R600/RV670). Evergreen schlägt sich sehr gut, ich sehe aber nichts, das im Laufe der Jahre dazu führen könnte, eine GTX 480 wegzuballern – gerade angesichts Tessellation.

MfG,
Raff

Die HD2xxx-Serie war auch Murks (BD als GPU...). Und ich glaube nicht, dass Tessellation die Bedeutung bekommen wird, wie es Nvidia gerne hätte. Und G80 läuft gern neben AKWs (Stromverbrauch - auch im idle)...

Ich denke im Laufe der nächsten Jahre werden die HD4xxx, HD5xxx und HD6xxx (bei zukünftigen Spielen) sich besser schlagen als vergleichbare Nvidia-Chips... Die Zeit wird es zeigen, warten wir mal ab, wie es z.B. Ende 2012 aussieht!

Bl@de
2011-10-23, 12:01:02
Endlich ein Vergleich mit meiner 3870er gegen moderne Grafikkarten. 315% - 420% der 3870er Leistung bei der GTX580 :D Bald lohnt sich das Aufrüsten wieder :biggrin: Jetzt brauch ich nur noch Athlon X2 6000+ gegen die neuen Sandy Bridge Prozessoren :tongue:

Dural
2011-10-23, 15:14:21
ok da sehen wir mal schön das sich das bestätigt hat was viele damals vermutet haben: der G80 ist der bessere DX10 Chip als R600

NV konnte über die jahre hinweg den abstand zum R600 sogar vergrössern und ich denke das es bei Fermi noch deutlicher gegen AMD ausfallen wird!

DX9 geht zu AMD/ATi mit R580+
DX10 geht zu NV mit G80+
DX11 geht ziemlich sicher auch zu NV, Fermi ist jetzt schon eine macht bei DX11, die Gründe sind schon länger bekannt.


Test 2900XT, zwischen 8800GTX und der 2900XT liegen da "nur" 49%

http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2900-xt/32/#abschnitt_performancerating_qualitaet

Heute, zwischen 8800GTX und der 2900XT liegen schon 64%

http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/


am meisten bin ich aber von GT200 erstaunt, der hält sich beachtlich gut wenn man sich mal vor augen führt was für einen schweren start diese GPU damals hatte, für mich die überraschung im Test! eine 5870 in 40nm ist gerade mal 23% schneller als die GTX280 in 65nm :eek: der G92 steh auch besser da als es damals viele vermutet hätten.

LovesuckZ
2011-10-23, 15:18:14
Es zeigt auch viel mehr, wie unsinnig es war im Jahr 2006/2007 auf FP-TMUs und AA_Resolving in den Shadern zu setzen...

Spasstiger
2011-10-23, 15:27:50
Wenigstens hat man den R600 in Form der HD 2900 Pro schon kurz nach Release für 130€ bekommen, wo NV gerade mal eine wesentlich schwächere GeForce 8600 GTS entgegensetzte.
Bei NV fingen damals die Performance-DX10-Karten mit der GeForce 8800 GT für 250€ an.

Gegenüber der X1900 AIW (~X1950-Pro-Niveau) hat mir die HD 2900 Pro auch eine ordentliche Performancesteigerung gebracht, in den von mir getesteten Spielen ca. 80% mit 24/7-OC und 60% ohne OC mit 4xMSAA. Und von der Verarbeitungsqualität her war die HD 2900 Pro (256 Bit) die beste Karte, die ich bisher hatte, es war halt eine umgeflashte High-End-FireGL. Kein Fiepen, kein Lüfterschleifen oder ähnliche Störgeräusche (wie ich sie bei allen anderen Performance-Karten, die ich bisher in der Hand hatte inkl. meiner HD 4850, einer 8800 GT und einer GTX 260, wahrgenommen habe), für damalige Verhältnisse sehr großzügig dimensionierte Spannungsversorung etc. Konnte man auch um 50% übertakten, wenn man die Spannung erhöhte (ging per Bios-Flash).

LovesuckZ
2011-10-23, 15:29:02
Ja - weil die Karten gefloppt sind. Aber das kann jetzt nicht wirklich ein Argument sein, oder?

Dural
2011-10-23, 15:31:50
ich habe heute noch eine 2900PRO @ XT @ 1000MHz

das teil war gnaz OK für den Preis, aber der Verbrauch ist nicht mehr schön... da sind wir um die 350Watt ;)

AnarchX
2011-10-23, 15:33:00
Im Ausverkauf war R600 durchaus nett, wenn auch dann schnell durch die günstige 3850 mit deutlich niedrigerem Verbrauch wieder degradiert.

8600 GT/GTS und auch die 2600 XT in etwas abgeschwächer Form waren ziemlich dreist angepreist. Zum Launch gab es die 8600 GTS für ~200€, wo NV selbst schon eine 8800 GTS 320 für ~250€ anbot. ;D

Spasstiger
2011-10-23, 15:36:28
das teil war gnaz OK für den Preis, aber der Verbrauch ist nicht mehr schön... da sind wir um die 350Watt ;)
Ja, mit 1,25 Volt (default: 1,07 Volt) und 1000 MHz (default: 600 MHz) könnte das hinkommen. ;)
Ich hatte auch schon eine GTX 260 im Rechner und die braucht etwas mehr Saft als eine HD 2900 Pro (Non OC).

Im Ausverkauf war R600 durchaus nett, wenn auch dann schnell durch die günstige 3850 mit deutlich niedrigerem Verbrauch wieder degradiert.
Degradiert eigentlich nicht. Die HD 3850 war nur unwesentlich schneller, aber 30€ teurer und PCB-technisch halt nur Mainstream-Qualität und keine High-End-Qualität. Ich persönlich hätte im Nachhinein aber auch lieber die HD 3850 gewollt, da eben deutlich sparsamer und mit mehr Potential für einen Silent-Betrieb. Die HD 2900 Pro war im 3D-Betrieb nicht leise zu bekommen, wobei sie mit default-Takt und auf 1,0 Volt reduzierter Spannung auch nicht dramatisch laut wurde. Die Geräuschcharakteristik war recht angenehm (tiefes Rauschen).

Raff
2011-10-23, 15:42:57
8600 GT/GTS und auch die 2600 XT in etwas abgeschwächer Form waren ziemlich dreist angepreist. Zum Launch gab es die 8600 GTS für ~200€, wo NV selbst schon eine 8800 GTS 320 für ~250€ anbot. ;D

Die 8600 GTS wurde zum Start belächelt und für ihre geringe Leistung gegenüber der GF7-Reihe kritisiert. In Spielen bis 2006 mag das stimmen, jetzt jedoch sind diese Karten oft auf/über 7900-GTX-Niveau (also "weniger scheiße" ;)).

MfG,
Raff

AnarchX
2011-10-23, 15:44:35
Die 8600 GTS wurde zum Start belächelt und für ihre geringe Leistung gegenüber der GF7-Reihe kritisiert. In Spielen bis 2006 mag das stimmen, jetzt jedoch sind diese Karten oft auf/über 7900-GTX-Niveau (also "weniger scheiße" ;)).

Trotzdem war das Gebotene einfach zu teuer.
Aber daraus schien NV gelernt zu haben und versorgt uns bis heute mit Leistungskrachern (9600GT, 9800GT, GTX 460,...) im 80-150€ Bereich.;)

Spasstiger
2011-10-23, 15:55:39
Die 8600 GTS hatte damals vor allem mit der Radeon HD X1950 Pro zu kämpfen, die war nicht nur zu einem deutlich günstigeren Preis schon einige Monate länger am Markt, sondern oft auch noch schneller. Einziges Manko der Radeon: Kein DX10.
NV wollte sich wohl den Vorteil, exklusiv DX10 anzubieten, vergolden lassen. Erst durch die aggressive Preisstrategie von AMD beim R600 und RV670 wurde NV zu neuen Modellen und deutlichen Preissenkungen bei den 8600er-Karten gezwungen.

Die GeForce 7900 GX2 wurde übrigens Ende 2007 auch verramscht. Ich hab selbst eine für 150€ bestellt. Hab aber keine mehr abbekommen. Im Endeffekt war die HD 2900 Pro sowieso die bessere Wahl fürs Geld.

AnarchX
2011-10-23, 16:38:59
Die 8600 GTS hatte damals vor allem mit der Radeon HD X1950 Pro zu kämpfen, die war nicht nur zu einem deutlich günstigeren Preis schon einige Monate länger am Markt, sondern oft auch noch schneller. Einziges Manko der Radeon: Kein DX10.
NV wollte sich wohl den Vorteil, exklusiv DX10 anzubieten, vergolden lassen. Erst durch die aggressive Preisstrategie von AMD beim R600 und RV670 wurde NV zu neuen Modellen und deutlichen Preissenkungen bei den 8600er-Karten gezwungen.

Wie gesagt eine hauseigene 8800 GTS 320 war nur 50€ (25%) teurer (http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8600-gts-sli-und-8600-gt/42/#abschnitt_preisleistungverhaeltnis), aber 90% schneller. (http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8600-gts-sli-und-8600-gt/27/#abschnitt_performancerating_qualitaet) :ugly: 2 Monate später sah es dann etwas besser (http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2400-xt-und-hd-2600-xt/29/#abschnitt_preisleistungverhaeltnis) aus.

Nicht zu vergessen, dass sie nur 256MiB hatte, die kombiniert dem VRAM-Managment von GeForce 8 bis 300 teilweise weniger effektiven VRAM boten als noch 256MiB auf einer GeForce 7.

In der Nachbetrachtung wäre da ein 8700 GTS mit G80@64-80SPs @ 256-Bit 512MiB sinnvoll gewesen für den Preispunkt ~220-250€.

Spasstiger
2011-10-23, 17:05:56
NV hatte damals ja den G92 und G94 in Entwicklung, aber im Q2/2007 war der angepeilte 65-nm-Prozess halt noch nicht verfügbar. Aber man bei NV damals irgendwie schon versäumt, was gegen den RV570 von ATI/AMD zu stellen. Ein G84 mit 48 statt 32 SPs hätte dafür gereicht und wäre auch von der Diesize her konkurrenzfähig gewesen trotz DX10-Ballast.