Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Leistungsfähigkeit alter Grafikkartengenerationen


Leonidas
2008-08-26, 10:50:15
Link zum Artikel:
http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen

anddill
2008-08-26, 11:21:33
Bei dem Quake4-niedrig Test stimmen Sieger im Diagramm und Sieger im Text nicht überein.
Ansonsten Respekt! Was für ein Monstertest. Und was für ein Massaker unter den NV-Karten!

Exxtreme
2008-08-26, 11:29:31
Der Artikel bestätigt die "gefühlte Wahrnehmung", die viele Leute im Forum hatten.

Fritte
2008-08-26, 11:32:29
ich bin erstaunt das meine X 1950 pro in Crysis-high überhaupt noch Bilder auf den Schirm zaubert, so gesehen eine gute Investition

anddill
2008-08-26, 11:37:07
Mein Sohn hat Crysis auf Mittel/Hoch mit einer 1950pro durchgespielt. Nur beim Endgegner hats fürchterlich geruckelt.

Deinorius
2008-08-26, 11:49:40
Ein ausgezeichneter Test, sowas wird sonst praktisch nie durchgeführt. Ich hatte also doch recht, als ich mir eine ATI X1950 Pro gekauft hab. ^^

Aber warum hat man für den Test nicht die aktuellsten Treiber verwendet? Wer solch eine Karte noch in seinem Rechner hat, wird ja wohl auch die aktuellsten Treiber nutzen.
Wurden etwa in den aktuellsten Treibern diverse ältere Karten aus dem Support gestrichen?

Popeljoe
2008-08-26, 11:58:50
Hat Spaß gemacht zu lesen, ihr Zwei habt da echt einen Spitzenartikel hingelegt! :up:
Mein Gefühl hat mich nicht getäuscht, was die ATI Karten betraf.
Ich hatte zeitweise immer wieder eine 9700 Pro in meinem Rechner und habe damit selbst Oblivion und Gothic 3 (anfangs gespielt), es war wirklich okay bei mittleren Einstellungen.
Imo kann man (nun nachweislich) auf den Marktplatz verweisen, wenn es um den Kauf von "nicht Highend Grakas" geht.
Was mich noch interessieren würde sind die im Artikel angesprochenen Spekulationen zu den Treibern von NVidia. (Bei Serious Sam: niedrige Einstellungen)
Wenn ihr dazu nochmal Etwas sagen könntet...
Interessant ist weiter, dass der Treibersupport für ältere Karten bei ATI doch wesentlich besser ist, als bei NV.

Didi Bouzul
2008-08-26, 12:05:22
Toller Artikel, keine Frage. MEINE :D x1950pro 512mb dürfte noch ca. 5% schneller sein. Ich finde es jedoch schade, dass zum Schluss keine Mittelung aller Werte für jede Karte erscheint ("Performance-Rating"), und zwar bei niedriger, mittlerer und vor allem bei hohen Settings. Vielleicht ließe sich das ergänzen?

Schönen Gruß, didi

Andre
2008-08-26, 12:26:55
Vielleicht hab ichs nur nicht verstanden, aber warum fehlt die 8800GT? Die kam doch im Herbst 2007 raus, oder nicht?

tombman
2008-08-26, 12:33:55
Naja, ATI baut mehr Leistungsreserven für die Zukunft ein, was man ja auch an der jetzigen HD48xx Reihe sieht. Teraflops ohne Ende, was aber derzeit nicht viel bringt.
Nvidia Karten sind immer "auf den Punkt genau" designed, sprich JETZT gut- später nimmer.

Ich wechsle aber die Karten schnell genug, sodaß das nicht auffällt/stört.

Wer aber langfristig kauft, sollte lieber ATI nehmen.
Also wer sich jetzt zb eine HD4870X2 besorgt, mit ihren 2.4 Teraflops Rechenleistung, der kommt damit sicher mindestens bis zur nächsten Konsolengeneration aus.

Respekt ATI :up:

Pirx
2008-08-26, 12:38:26
WOW was für ein Kracher:eek:, vor allem, wenn man das Ergebnis betrachtet.

Ist auch schon vom Grundgedanken her ein sehr netter Test.:up:

Gast
2008-08-26, 12:39:05
Naja, ATI hätte man jedenfalls mit AI Off vielleicht noch das eine oder andere Mal testen sollen. Aber schon klar, man sieht ja kein Flimmern auf den alten Radeons, selbst wenn 50 % mehr Leistung rausspringen. :ugly:

anddill
2008-08-26, 12:43:16
Vielleicht hab ichs nur nicht verstanden, aber warum fehlt die 8800GT? Die kam doch im Herbst 2007 raus, oder nicht?
Die war bei Erscheinen so ein Überflieger, also denk sie Dir einfach oben an jedes Diagramm dran.

deekey777
2008-08-26, 12:56:43
Hätte Alternate die Gainward HD3850 Sadomaso-Edition nicht für 59 Euro im Angebot, so wäre immernoch meine liebe XpertVision X1950GT Super im Rechner.
Was die X1900XT 512 zeit, ist schon ein Hammer. Toller Test!

Angiesan
2008-08-26, 12:57:02
Respekt, ein guter Test!

Und das einer meiner Freunde immer noch mit meiner alten X800XT PE zufrieden ist kann ich jetzt auch nachvollziehen;-)

Aber wie schon andere geschrieben haben, spielt dies für die Meisten hier im
Forum nicht so eine Rolle, da hier eh immer das Neuste verbaut wird, aber für
den Rechner der Kinder sicherlich ein guter Anhaltspunkt.
Das die NV Karten aber mit dem Alter so Federn lassen müssen hätte ich bis Heute eher zu den Legenden gezählt :eek:

Vielen Dank.

Grüße

sChRaNzA
2008-08-26, 12:57:30
Schöner Test! Danke dafür!(y)

Echt mal schön zu sehen, vor allem auch wie schnell die Zeit vergeht. Gerade erst noch wie ein frisch paniertes Schnitzel darüber gefreut das meine 9800 endlich da ist! :redface:

Magnum
2008-08-26, 13:06:47
Um bei dem ganzen Lobgesang auch mal etwas Kritik zu äußern:

Ich finde, der ganze Artikel ist viel zu ATI-lastig! Und ich rede hier nicht von den Zahlen, sondern von den Sprüchen im Text. Etwas mehr Objektivität wäre hier wünschenswert.
Um warum wurden von der Zeit 2.Hj 06 - 2.Hj07 (also in 18 Monaten) von nVidia nur eine Grafikkarte getestet, von ATI dagegen 8? Ich meine, da braucht man sich eigentlich nicht sehr wundern, wenn ATI immer die Benchmarks gewinnt!

Turiz
2008-08-26, 13:09:21
Schöner Test! Danke dafür!(y)

Echt mal schön zu sehen, vor allem auch wie schnell die Zeit vergeht. Gerade erst noch wie ein frisch paniertes Schnitzel darüber gefreut das meine 9800 endlich da ist! :redface:
Ich auch. Und mich gefreut, dass ich diese Rakete schon um ca. € 300,- bekomme. Allerdings finde ich es nicht schön, dass die Zeit so schnell vergeht. ;(

user77
2008-08-26, 13:17:33
Kam in der zeit wirklich nur eine nvidia karte raus?

Ernie@work
2008-08-26, 13:28:38
Yo mei, das die X850XT so gut abschneidet, liegt doch allein daran, dass Ihr die die Games nocht mit vergleichbaren Einstellungen gebenched habt, bzw. benchen könnt. Die Karte nutzt doch nur SM 2.0b, während die anderen Karten SM 3.0 nutzen und damit bessere Bildqualität bieten. Dieses "Feature-Set" SM 3.0 bietet in einigen Games immer noch akzeptable Frameraten selbst für nVidias 7x-Reihe (Dark Messiah z.B.) und bietet eine wesentlich bessere BQ.

Mr. Lolman
2008-08-26, 13:41:26
Yo mei, das die X850XT so gut abschneidet, liegt doch allein daran, dass Ihr die die Games nocht mit vergleichbaren Einstellungen gebenched habt, bzw. benchen könnt. Die Karte nutzt doch nur SM 2.0b, während die anderen Karten SM 3.0 nutzen und damit bessere Bildqualität bieten. Dieses "Feature-Set" SM 3.0 bietet in einigen Games immer noch akzeptable Frameraten selbst für nVidias 7x-Reihe (Dark Messiah z.B.) und bietet eine wesentlich bessere BQ.

SM3.0 bietet nicht automatisch eine bessere BQ. Das erweiterte Featureset muss die Applikation auch ersteinmal nutzen, damit dies möglich ist. Ich wüsste auch nicht welches Spiel dementsprechend bei gleichen Einstellungen auf einer SM3.0- Karte besser aussieht, als auf einer SM2.0-Karte.

aspro
2008-08-26, 13:41:30
@user77,Magnum
In H2'06 kam doch schon der G80 und der der hat sicherlich wenig in einem Vergleich "alter Grafikkartengenerationen" verloren.

user77
2008-08-26, 13:46:50
und die 8600 GT?

AnarchX
2008-08-26, 13:53:10
SM3.0 bietet nicht automatisch eine bessere BQ. Das erweiterte Featureset muss die Applikation auch ersteinmal nutzen, damit dies möglich ist. Ich wüsste auch nicht welches Spiel dementsprechend bei gleichen Einstellungen auf einer SM3.0- Karte besser aussieht, als auf einer SM2.0-Karte.
Aber in Crysis dürfte auf jeden Fall Sparoptik bei der X850 zum Einsatz kommen, was das gute Abschneiden erklärt.
Da hat Ernie durchaus recht, dass das beachtet hätten werden sollte.

Blutmaul
2008-08-26, 13:53:21
Schöner Test, ich nehme an, das man versucht hat, eine vergleichbare Bildqualität zu erreichen, soweit es geht.

Die Karten der ATI-Serien 29xx und 38xx laufen sicher ausser Konkurrenz und dienen nur als Meßlatte zur Vergleichbarkeit der alten und neuen Generation, eine 8800er wäre dann zwar interessant aber nicht nötig, der wahre Kampf spielt sich dahinter ab.

Da man heute eine 3850 512MiB für 70 Euro bekommt, ist das glaube ich die Preismarke, an der sich die Anschaffung einer neuen Budget-GraKa messen lassen muß.

Mr. Lolman
2008-08-26, 13:55:36
Aber in Crysis dürfte auf jeden Fall Sparoptik bei der X850 zum Einsatz kommen, was das gute Abschneiden erklärt.
Da hat Ernie durchaus recht, dass das beachtet hätten werden sollte.
Stimmt. Zumindest auf die High-Settings dürfte das zutreffen...

Popeljoe
2008-08-26, 14:04:49
Die Karten der ATI-Serien 29xx und 38xx laufen sicher ausser Konkurrenz und dienen nur als Meßlatte zur Vergleichbarkeit der alten und neuen Generation, eine 8800er wäre dann zwar interessant aber nicht nötig, der wahre Kampf spielt sich dahinter ab.
Diese Karten sollten nur für eine Vergleichbarkeit mit neueren Karten herhalten sollten, wie die 8600GT eben auch.
Außerdem ändert das nicht-Auftreten der 88XX Gen ja auch nichts an der wichtigen Aussage bezüglich des Treibersupports und der Langlebigkeit der älteren Kartengeneration von ATI gegenüber NVidia!
Wie Tombman meinte: NV ist genau auf den Punkt absolut top, ATI für Leute die lieber langlebiegere Hardware bevorzugen.

deekey777
2008-08-26, 14:06:11
Aber in Crysis dürfte auf jeden Fall Sparoptik bei der X850 zum Einsatz kommen, was das gute Abschneiden erklärt.
Da hat Ernie durchaus recht, dass das beachtet hätten werden sollte.
Davon ist ja auszugehen, denn mit High wird ja "FP16-HDRR" benutzt und bestimmt noch weitere SM3-only Spielereien.
Nur wurde unter "high" keine SM2.B-Grafikkarte getestet.

AnarchX
2008-08-26, 14:14:31
Davon ist ja auszugehen, denn mit High wird ja "FP16-HDRR" benutzt und bestimmt noch weitere SM3-only Spielereien.
Nur wurde unter "high" keine SM2.B-Grafikkarte getestet.
Doch:
Ergebnisse Crysis – hohe Einstellungen 1280 x 1024:
Wirklich spielbar ist Crysis in dieser Einstellung auf keiner Karte mehr. Herausragendes Merkmal dieser Testreihe ist wieder einmal das Ergebnis der Radeon X850 XT-PE, diese fast vier Jahre alte Karte blamiert den Rest des Testfelds. Dennoch verfestigt sich insgesamt der Trend, daß Crysis eines der ersten Spiele ist, die massiv von neueren Grafikkartengenerationen profitieren. Dies ist nämlich einer der wenigen Tests, wo sich die beiden Spitzenkarten in einer dem Alter und der Marktpositionierung entsprechenden Art vom Rest des Testfelds absetzen können.

Popeljoe
2008-08-26, 14:16:17
Davon ist ja auszugehen, denn mit High wird ja "FP16-HDRR" benutzt und bestimmt noch weitere SM3-only Spielereien.
Nur wurde unter "high" keine SM2.B-Grafikkarte getestet.
Aufmerksamer Leser! :up:
Wenn ich mir das so ansehe, muß ich meine GTO2 wohl doch noch einmal mit dem 850XT Bios flashen... :)

@Anarchx: die Aussage ist als Fazit zu dem Test in Sachen Crysis gedacht und bezieht sich nicht auf "high". Es ist einfach nur unglücklich/missverständlich ausgedrückt.

AnarchX
2008-08-26, 14:19:39
@Anarchx: die Aussage ist als Fazit zu dem Test in Sachen Crysis gedacht und bezieht sich nicht auf "high". Es ist einfach nur unglücklich ausgedrückt.
Und welche Karte befindet sich im "hohe Einstellungen" Diagramm zwischen X1950Pro und X1900XT 256MB? ;)

MadManniMan
2008-08-26, 14:27:06
Crysis ist selbst unter "Medium" auf einer R420/480 schon nicht mehr in der Optik spielbar, die man möchte - meine X800 XL versagte bei den Schatten komplett, weswegen für die X800 XT-PE keine Ergebnisse über "Niedrig" in Crysis gewertet werden dürften.

Aber dennoch: Respekt für diesen Artikel! Aber: bringt mal ein wenig mehr Übersicht in das Diagramm (unterschiedliche Farben etc. pp).

Popeljoe
2008-08-26, 14:29:43
Und welche Karte befindet sich im "hohe Einstellungen" Diagramm zwischen X1950Pro und X1900XT 256MB? ;)
Tatsächlich! :eek:
Bei allen anderen Tests ist sie nicht dabei.
Dann rennt sie bei Crysis@high wirklich dabei nur mit SM 2.0b und man kann das Ergebnis nicht so werten, wie es gemacht wurde, auch wenn es von der Tendenz her noch so gut ins Bild passt! ;)
Allerdings bleibt die Grundaussage der Testreihe (WELLE/TSUNAMI/...) unbeeinflusst.

BAGZZlash
2008-08-26, 14:30:37
Exzellenter Artikel!
Abseits vom Mainstream, trotzdem oder gerade deswegen höchst interessant. Typisch 3DCenter eben! :smile:

Andre
2008-08-26, 14:33:21
Die war bei Erscheinen so ein Überflieger, also denk sie Dir einfach oben an jedes Diagramm dran.

Und weil sie zu gut ist, wird sie nicht berücksichtigt? Bombenlogik, aber verfestigt den Eindruck, den man schon lange hat.
Die HD2900pro nimmt man rein, aber die 8800GT lässt man raus, obowhl zum gleichen Zeitpunkt aufm Markt. Nicht das NV mal gut aussehen dürfte...

Andre
2008-08-26, 14:35:10
Wie Tombman meinte: NV ist genau auf den Punkt absolut top, ATI für Leute die lieber langlebiegere Hardware bevorzugen.

Ich kann mit meiner 8800GT heute noch alles zocken und die ist bald 1 Jahr alt. Das ist natürlich niederschmetternd schlecht....:rolleyes:

[dzp]Viper
2008-08-26, 14:36:49
Ich kann mit meiner 8800GT heute noch alles zocken und die ist bald 1 Jahr alt. Das ist natürlich niederschmetternd schlecht....:rolleyes:

1 Jahr ist kein langer Zeitraum. Nimm dafür mal lieber 2-3 Jahre.

Und auch dann kann man immernoch alles "zocken" die Frage ist nur "wie schnell" ;)

Andre
2008-08-26, 14:38:58
Viper;6744265']1 Jahr ist kein langer Zeitraum. Nimm dafür mal lieber 2-3 Jahre.

Und auch dann kann man immernoch alles "zocken" die Frage ist nur "wie schnell" ;)

Ich verstehe die Logik dennoch nicht. Die HD2900pro kam im selben Monat wie die 8800GT. Weil die 8800 aber zu gut ist, wird sie einfach nicht genommen, dafür nimmt man ein lieber ein Verhältnis von 7:1 von ATI zu NV-Karten für das letzte Jahr und suggeriert so eine Überlegenheit von AMD. Das ist einfach falsch, denn die 8800GT wird sicher länger "halten" als die 2900pro.
Achso, ich sehe grade, dass man im Zeitraum von 1,5 Jahren lang nur eine NV Karte (8600 GT) mit reingenommen hat. Soll das heißen, dass NV 1,5 jahre keine vergleichsfähige Karte abgeliefert hat? Ich glaube kaum...

boxleitnerb
2008-08-26, 14:42:22
Ich hab zwar in meinem Zweitrechner auch noch eine X800XT-PE, die sehr gut läuft, aber die Ergebnisse finde ich teils sehr zweifelhaft.
Die Karte schneller als eine 6800 Ultra, teils um 100%? Wie soll das bitte gehen?

Mr. Lolman
2008-08-26, 14:51:28
Ich hab zwar in meinem Zweitrechner auch noch eine X800XT-PE, die sehr gut läuft, aber die Ergebnisse finde ich teils sehr zweifelhaft.
Die Karte schneller als eine 6800 Ultra, teils um 100%? Wie soll das bitte gehen?

Is aber so: http://www.hartware.de/review_668_7.html

HOT
2008-08-26, 14:54:28
Das ist ne Sache der Verfügbarkeit. Wenn die Tester in der Zeit keine 8800er auftreiben konnten, fehlt sie eben. Ist aber auch nicht tragisch, man weiss ja, was die 8800er Generation leistet, da gibt eh keine Überraschungen, da braucht man sich auch nicht drüber aufzuregen, es sei denn ein NV-Liebhaber fühlt sich benachteiligt. Erschreckend ist vielmehr, wie die R600 Generation ggü. der Vorgängergeneration darsteht ;).
Der Tests deckt sich mit meinen Erfahrungen. Ich hab ne X850XT in meinem 2.-Rechner und die leistet echt erstaunlich viel, es gibt eigentlich kein Game, was damit nicht flüssig läuft in guten Details. Es gibt halt nur den Haken, das sollte nicht unerwähnt bleiben, dass Spielehersteller von vielen XBox360-Umsetzungen sich nicht die Mühe gemacht haben, einen SM2.0-Fallback einzubauen und somit bei solchen Games die X850 schlicht nicht mehr funktioniert. Von der Optik her allerdings unterscheidet sich SM2.0 kaum von SM3.0, nicht merklich jedenfalls. Nur in wirklich neuen Games wie Crysis sieht man da unterschiede (wobei Crysis ein Extrembeispiel ist).

Ich finde es toll, dass sich jemand die Mühe macht, auch mal abseits des Mainstream einen solchen Test zu bringen. Selbst wenn es einige hakelige Formulierungen gibt, sollte das auf jeden Fall honoriert werden. Solche mutigen Tests gibt es viel zu wenige im Netz.

Andre
2008-08-26, 14:56:34
Hab jetzt mal nachgeschaut:

Geforce 8500 GT
04/2007

Geforce 8600 GT
04/2007

Geforce 8600 GTS
04/2007

Geforce 8800 GT
10/2007

Geforce 8800 GTS 320 MiB
02/2007

Geforce 8800 Ultra
05/2007

Geforce 7950 GT
09/2006

Geforce 7900 GTO
09/2006

Alles in den 1,5 Jahren. Und ihr nehmt nur die 8600 GT? Bischen sehr dünn, wirklich.

Gast
2008-08-26, 14:59:17
Super test :-)

habe auch in zwei älteren PC's hier (der PC meines Bruders und der PC meiner Schwester) eine 9800 Pro sowie eine X800 verbaut die ich sehr günstig erhalten habe.

Freut mich zu sehen das ich die richtige Entscheidung getroffen habe :D

HOT
2008-08-26, 15:00:17
Wir wissen, dass die 8er Generation schneller ist, das ist nicht Gegenstand dieses Tests.

Popeljoe
2008-08-26, 15:00:34
Es geht doch nicht darum eine Überlegenheit von ATI Karten im letzten Jahr zu demonstrieren, sondern um die Performance der alten Karten. Die Karten aus dem letzten Jahr wurden nur als Vergleich herangezogen.
Das eine 6 Jahre alte Grafikkarte noch so gut performt ist schon erstaunlich!
Die Unterschiede SM 2 und SM 3 könnte man evtl. noch durch 2 Screens aus Crysis miteinander vergleichen.

Booby
2008-08-26, 15:01:11
@Andre:
Sagmal bist doch neurotisch oder kannst du einfach nicht lesen:
Was ist an der 88GT bitte eine alte Grafikkartengeneration, die ist Topaktuell, vor nicht mal einem Monat wurde die 98GT vorgestellt, was technisch absolut das gleiche ist. Die 88gtx wurde ja auch nicht getestet. Sieh es mal so, bei Nvidia ist dank fehlender Konkurrenz in der Vergangenheit, ein alter Chip immernoch topaktuell.

Tigerchen
2008-08-26, 15:03:06
Man kann sicher das eine oder andere Testergebnis anzweifeln. Die Grundaussage bleibt aber immer gleich. ATI-Karten bleiben deutlich zukunftssicherer. Behauptet wurde zwar seit ewigen Zeiten das Gegenteil. Vor allem von Leuten wie aths. Aber das wurde ja jetzt endgültig wiederlegt.

Magnum
2008-08-26, 15:09:31
Was ist an der 88GT bitte eine alte Grafikkartengeneration,
G80 -> G90 -> G92?
Nur weil das Design noch heute benutzt wird, ist es noch lange nicht neu!!

Popeljoe
2008-08-26, 15:11:55
G80 -> G90 -> G92?
Nur weil das Design noch heute benutzt wird, ist es noch lange nicht neu!!
Blackarchon und Warmaschine werden dann in 4 Jahren einen entsprechenden Test zu den G80 machen. Für diese Testreihe sind sie schlicht nicht relevant!!!!!!

Unyu
2008-08-26, 15:15:58
Die jüngeren R600 und RV670 sind also relevant? ;)

Popeljoe
2008-08-26, 15:20:00
Die jüngeren R600 und RV670 sind also relevant? ;)
Als Vergleich zur neueren GraKa Generation, ja.
Trotzdem könnte man die Karten inkl. der 8600GT auch weglassen und die Aussage der Testreihe wäre dieselbe.
Wichtiger ist imo die Aussage von HOT:
"Erschreckend ist vielmehr, wie die R600 Generation ggü. der Vorgängergeneration darsteht"
daran sieht man imo, dass ATI mit der 2900er Generation wirklich Mist abgeliefert hat.

Nighthawk13
2008-08-26, 15:55:05
Interessant, wie gut sich die alten "Performance"-Karten gegen die neuen "Value"-Karten behaupten können.
Da sollten sich Sparfüchse auch mal auf dem Gebrauchtmarkt umschauen;)

Wobei der Strom-Mehrverbrauch bei den Preisen(<40EUR) auch wieder eine ziemliche Rolle spielt.

anddill
2008-08-26, 16:29:21
Geht auch einfach mal davon aus, daß einfach Karten genommen wurden, die gerade greifbar waren. Und da waren anscheinend weniger NV-Karten dabei.

desert
2008-08-26, 16:43:18
Man kann sicher das eine oder andere Testergebnis anzweifeln. Die Grundaussage bleibt aber immer gleich. ATI-Karten bleiben deutlich zukunftssicherer. Behauptet wurde zwar seit ewigen Zeiten das Gegenteil. Vor allem von Leuten wie aths. Aber das wurde ja jetzt endgültig wiederlegt.


jo weil ati mit cheats on getestet wurde. das wäre die möglichkeit gewesen mal die wahrheit über a.i. zu bringen, aber es wird gesagt gf6 u 7 auf hq. aber das bq-wunder r420 wird mit cheats getestet.

Was soll dieser test zeigen? Das nivida auf hq langsamer ist?

aths
2008-08-26, 16:44:21
[COLOR="#000099"]
Man kann sicher das eine oder andere Testergebnis anzweifeln. Die Grundaussage bleibt aber immer gleich. ATI-Karten bleiben deutlich zukunftssicherer. Behauptet wurde zwar seit ewigen Zeiten das Gegenteil. Vor allem von Leuten wie aths. Aber das wurde ja jetzt endgültig wiederlegt. Nee ist klar. Schreib vernünftig, ohne Farbe, und nicht gleich im Flame-Tonfall. Dann bekommst du sogar eine vernünftige Antwort.

puntarenas
2008-08-26, 17:29:58
(...)
Erschreckend ist vielmehr, wie die R600 Generation ggü. der Vorgängergeneration darsteht ;).

Das ist in der Tat eine überaschende Erkenntnis aus diesem Test. Ich stand knapp davor, meine X1900XT gegen eine HD3870 zu tauschen und angesichts der Ergebnisse der HD3850 wäre das wohl reichlich sinnlos gewesen.

Black-Scorpion
2008-08-26, 17:46:56
jo weil ati mit cheats on getestet wurde. das wäre die möglichkeit gewesen mal die wahrheit über a.i. zu bringen, aber es wird gesagt gf6 u 7 auf hq. aber das bq-wunder r420 wird mit cheats getestet.

Was soll dieser test zeigen? Das nivida auf hq langsamer ist?
Ja gerade die GF6 und 7 waren ja geradezu die BQ Weltmeister.
Gerade bei den beiden jammern das sie mit HQ gebencht wurden kann nicht dein ernst sein.

Blutmaul
2008-08-26, 18:06:59
Das ist in der Tat eine überaschende Erkenntnis aus diesem Test. Ich stand knapp davor, meine X1900XT gegen eine HD3870 zu tauschen und angesichts der Ergebnisse der HD3850 wäre das wohl reichlich sinnlos gewesen.

Allerdings wurde maximal nur in 1280x1024 getestet und bei Crysis zeigt sich, das die 3850 vorne steht, wenn man also vorwiegend neue Games zockt, kann sich das trotzdem lohnen.

Ich hatte mal gesagt, ich hol mir die 4850, aber das spar ich mir, AoC kann ich auf High in 1920x1200 gut zocken und was anspruchsvolleres habe ich nicht.

Deswegen ist die Frage immer: Reicht mir die gebotene Leistung, wieviel muß ich für Mehrleistung zahlen, ist es mir das Wert?

The_Invisible
2008-08-26, 18:14:09
ne 8800gtx fehlt da wirklich, ist fast 2 jahre alt das teil.

müsste laut einigen leute hier ja gerade noch zum solitär spielen reichen

mfg

Ernie
2008-08-26, 19:12:19
Company of Heroes nutzt unter High ebenfalls SM 3.0, von daher ist nicht nur Crysis unter High sondern auch dieser Ergebnis hinsichtlich der SM 2.0b -Karten mit Vorsicht zu genießen, da Sparoptik.

Die X850XT-PE ist aber dennoch eine klasse Karte, nutze sie ja selbst noch in meinem Zweitrechner.

Gast
2008-08-26, 19:21:11
abgesehen davon gibt es durchaus einige spiele für die eine x800 oder x850 genug power hätte, aber die dank shader 3 erst garnicht laufen

Berserkus
2008-08-26, 19:41:26
Ich vermisse meine gute alte 7950GX2 oder die 7950GT, die ja doch schon ein gutes Stück schneller als die 7900GT waren.:biggrin:

Lawmachine79
2008-08-26, 20:07:16
Hab jetzt mal nachgeschaut:

Geforce 8500 GT
04/2007

Geforce 8600 GT
04/2007

Geforce 8600 GTS
04/2007

Geforce 8800 GT
10/2007

Geforce 8800 GTS 320 MiB
02/2007

Geforce 8800 Ultra
05/2007

Geforce 7950 GT
09/2006

Geforce 7900 GTO
09/2006

Alles in den 1,5 Jahren. Und ihr nehmt nur die 8600 GT? Bischen sehr dünn, wirklich.

Konfuzius sagt: "Haben ist besser als brauchen"


Man kann sicher das eine oder andere Testergebnis anzweifeln. Die Grundaussage bleibt aber immer gleich. ATI-Karten bleiben deutlich zukunftssicherer. Behauptet wurde zwar seit ewigen Zeiten das Gegenteil. Vor allem von Leuten wie aths. Aber das wurde ja jetzt endgültig wiederlegt.

Im Fazit habe ich geschrieben, daß sich der Trend, daß ATI-Karten zukunftssicherer mit der G80-Generation wahrscheinlich ändern wird.

Gast
2008-08-26, 20:26:41
Mal ne Frage an die Tester:

Gibts Verschleißerscheinungen am MoBo (PCIe-Slot)?

Sandratte
2008-08-26, 20:29:13
der test bestätigt meinen Späten wechsel im nov. 2007 von der X850 zur HD 3870



die X 850 ist bestimmt so weit oben weil sie kein SM3 hat & das demnach auch nicht berechnen braucht!
doch leider laufen einige Zock ohne Hardwareunterstützung von SM3 nicht, zB; bioshock :mad:

O.K. mein X850 hat auch Vmod auf 1,6Vcore mit dem sie zum glück aber immer noch läuft ;D

Andre
2008-08-26, 20:37:19
Konfuzius sagt: "Haben ist besser als brauchen"

Verstehe ich nicht. Auch wenn Nachfragen wieder gelöscht werden =)

Grestorn
2008-08-26, 20:39:26
Verstehe ich nicht. Auch wenn Nachfragen wieder gelöscht werden =)

Mehr nVidia Karten standen den Artikelschreiben wohl schlicht nicht zur Verfügung. Statt Leute anzumachen könnte man auch das eigene Hirn anmachen, das hilft oft mehr.

Gast
2008-08-26, 20:41:14
Naja, der Treibersupport bei nVidia hält wohl 2 Generationen an, deswegen sollte eine bis vor ein paar Wochen aktuelle 8800 noch gut abschneiden.
Interessant finde ich das schlechte abschneiden der älteren Modelle von nVidia. Damals waren die doch durchweg schneller und heute liegen die gleichen Karten hoffnungslos zurück.
Bin mal gespannt wie das in ein paar Jahren mit den 8800 Modellen aussieht

Andre
2008-08-26, 20:44:36
Mehr nVidia Karten standen den Artikelschreiben wohl schlicht nicht zur Verfügung. Statt Leute anzumachen könnte man auch das eigene Hirn anmachen, das hilft oft mehr.

Da dein Beitrag ja anscheinend nicht ahnungswürdig ist:
Im Gegensatz zu dir besitze ich eins, aber danke der Nachfrage =)

Gast
2008-08-26, 20:49:56
Ich wüsste auch nicht welches Spiel dementsprechend bei gleichen Einstellungen auf einer SM3.0- Karte besser aussieht, als auf einer SM2.0-Karte.

beispielsweise das mitgetestete call of duty, bei company of heroes bin ich mir auch ziemlich sicher.

Sandratte
2008-08-26, 20:55:07
Mehr nVidia Karten standen den Artikelschreiben wohl schlicht nicht zur Verfügung. Statt Leute anzumachen könnte man auch das eigene Hirn anmachen, das hilft oft mehr.

das denke ich auch; hat ja nicht jeder das Hobby Graka´s sammeln!

vielleicht kann der geneigt USER den Testern geeignete Testmittel zur "freien Verfügung" stellen ;)


Bin mal gespannt wie das in ein paar Jahren mit den 8800 Modellen aussieht

ich auch

Gast
2008-08-26, 20:56:33
Die Karte schneller als eine 6800 Ultra, teils um 100%? Wie soll das bitte gehen?

die 6800Ultra rechnet deutlich aufwändigere SM3-shader, wärend die X800 nur einfache SM2-shader zu rechnen bekommt. erstere sind natürlich deutlich aufwändiger und auch die bildqualität nicht im geringsten vergleichbar.

Gast
2008-08-26, 21:02:26
Ja gerade die GF6 und 7 waren ja geradezu die BQ Weltmeister.
Gerade bei den beiden jammern das sie mit HQ gebencht wurden kann nicht dein ernst sein.

niemand jammert, dass die NV-karten mit HQ-gebencht werden, das ist völlig in ordnung, nicht in ordnung ist es allerdings dass ATI immer noch mit AI durchkommt.

Gast
2008-08-26, 21:10:08
mal ein interessanter test, nur sollte man darauf hinweisen, dass das überdurchschnittliche abschneiden der X800 und 9800-serie in erster linie am fehlen von SM3 und den damit deutlich einfacheren berechnungen liegt.

ein wenig schade ist auch das extreme übergewicht von ATI-karten, und vor allem warum die 8800GTX, wohl die langlebigste karte überhaupt fehlt.

seba86
2008-08-26, 21:38:46
@ Gast: Falsch, die langlebigste Karte ist immer noch die R9700Pro, die sich je nach Bench zwischen 1% und 10% (Im Schnitt wohl um die 4%) hinter der hier getesteten R9800Pro befindet. Erschienen im August 2002, ist sie jetzt satte 6 Jahre alt, und 50% der aktuellen Spiele lassen sich mit ihr zumindest auf low vernünftig spielen - das ist - Featureset her oder hin - eine sehr respektable Leistung. Mal sehen wo die 8800GTX Ende 2012 steht. Bis jetzt ist sie aber aber immer noch gut im Rennen, denn sie hat den Vorteil gegenüber der R9700 dass jetzt auf Multi-GPU, AgeiaFX und Raytracing statt permament auf Leistung gesetzt wird. Ich hatte die R9700 2003 in den eigenen Händen (die IceQ-Edition). Meine erste und letzte echte Highendkarte (habe 150 Ocken gebraucht bezahlt dafür zu ersten R9800Pro Zeiten). Die sprang aber nicht an (weil ich nicht wusste, wie das mit dem Stromstecker war) --> back to S3 Savage onboard. Für Gothic II hats aber gereicht *schwitz* (später sollte ich erfahren, dass dafür auch eine Ati Rage-Grafikkarte gereicht hätte ^^ )

Ich dachte SM3 wäre in den meisten SM3 optimierten Spielen von Vorteil, da mit dieser Technik die Shaders schneller berechnet werden können gegenüber SM2.0b (so 10% - 15%)? Und von Bildunterschieden habe ich bis auf das Krisen-Spiel auch noch nix gelesen.

Die X1950Pro habe ich durch eine X700 mobility 256MB ersetzt, weil Umstieg von Desktop auf Laptop. Far Cry, HL2 Lost Coast @max ist möglich, Prey @med-high, alles nativ 1280er Auflösung. Bin äußerst positiv überrascht (dachte unter X800 = Schrott). Trotzdem traue ich mich an Crysis nicht ran. Der High-Modus war absolut enttäuschend beozgen auf die Spieltechnik (10 - 19 fps, med 14 fps @AMD 4000+), da die Anforderungen deutlich über Far Cry liegen, aber das Spiel nicht viel besser aussieht, im Gegenteil (verwaschene Steine und Sand).

Als letztes find ich die HD 3850 absolut enttäuschend in diesem Test. Viele Seiten bescheinigen ihr eine um eine 50 bis 100% höhere Leistung als eine X1950Pro und dann das.

SEHR SCHÖNER TEST :wave:

Lawmachine79
2008-08-26, 22:08:17
Verstehe ich nicht. Auch wenn Nachfragen wieder gelöscht werden =)
Das sind alle Karten, die zur Verfügung standen.



ein wenig schade ist auch das extreme übergewicht von ATI-karten, und vor allem warum die 8800GTX, wohl die langlebigste karte überhaupt fehlt.
Wir hatten leider keine 88GTX zur Verfügung. Andererseits wäre das auch keine neue Erkenntnis, daß die 88GTX langlebig ist (es ist in der Tat m.E. die langlebigste seit der 9700/9800 Pro), CB hat sie noch in ihrem aktuellen Performancerating drin.

Blutmaul
2008-08-26, 23:22:34
Als letztes find ich die HD 3850 absolut enttäuschend in diesem Test. Viele Seiten bescheinigen ihr eine um eine 50 bis 100% höhere Leistung als eine X1950Pro und dann das.

SEHR SCHÖNER TEST :wave:

Beachte die Auflösung von nur 1280x1024 und kleiner, da sind die meisten dieser Spiele sicher nicht GPU-limitiert.
Auf 1920x1200 habe ich sehr spürbare Unterschiede von der hd3850 zur 1950xtx.

MikBach
2008-08-26, 23:57:34
niemand jammert, dass die NV-karten mit HQ-gebencht werden, das ist völlig in ordnung, nicht in ordnung ist es allerdings dass ATI immer noch mit AI durchkommt.
Du willst also auch Optimierungen ausschalten, die die BQ nicht beeinflussen?
Mit AI-off schaltest du praktisch alle Optimierungen aus. Shaderreplacement und gamespezifische Optimierungen auch Crossfire-Support.
Das kann es wohl nicht sein, obwohl ich eine Trennung zwischen AF-Optimierungen und anderen fuer sinnvoll halten wuerde.
Aber einige werden es wohl nicht kappieren, dass AI auch "gute" Optimierungen enthaelt, gegen die man nichts sagen kann.
Es waere einfach weltfremd ohne AI zu benchen.
Auch weil der Unterschied bei der BQ eher minimal ist und fuer die meisten nicht nachvollziehbar.
Bei der GF6 war die BQ teilweise unterirdisch mit Q.

Deinorius
2008-08-27, 00:02:29
Im Artikel wurde auch nicht erwähnt, mit wieviel AF und AA bei den hohen Einstellungen getestet wurde.
Gerade ab 8xAF/4xAA haben neuere Karten immer einen Vorteil.
Wurde bei der mittleren Einstellung vielleicht auch ein niedriges AF verwendet? Eigentlich wurde hinsichtlich der Einstellungen zu wenig geschrieben, was spielunabhängig ist.

Banshee18
2008-08-27, 02:13:32
Interessanter Artikel, aaaaaaaaaaaaber:

1.) Wie mein Vorredner schon richtig bemerkt hat, ist das Fehlen der Einstellungen ein großes Manko. Zumindest AA- und AF-Grad sollten erwähnt werden, wünschenswert wären imho sogar die genauen Settings aller Spiele. Man könnte davon z.B. Screenshots machen und diese einfach in den Artikel einfügen. Vielleicht die Screenshots noch in eine Art Spoiler verpacken, damit sich der uninteressierte Leser nicht gestört fühlt. ;)

2.) Ich fände es schöner/übersichtlicher, wenn Name, Auflösung und Detailgrad über anstatt unter den jeweiligen Diagrammen stünde.

3.) Die Sache mit dem Inhaltsverzeichnis sollte man gerade bei längeren Artikeln besser lösen. Warum muss ich, wenn ich auf Seite 2 bin und das Fazit lesen will, entweder bis zum Ende durchklicken, oder eine Seite zurückklicken, damit ich dann auf "Fazit" klicken kann?

4.) Die X1800 XT-PE hat eine höhere Bandbreite und Füllrate, die X1950 Pro hat eine bessere Arithmetikleistung, sie besitzt die dreifache Anzahl von ALUs.

Das ist falsch. Die X1800XT hat 16 ALUs, die X1950 Pro hat 36. Natürlich könnt ihr auch an das Ende des Satzes "pro TMU" hängen, dann passts wieder.

C.D.B.
2008-08-27, 06:22:30
... Ich finde, der ganze Artikel ist viel zu ATI-lastig! ... Um warum wurden von der Zeit 2.Hj 06 - 2.Hj07 (also in 18 Monaten) von nVidia nur eine Grafikkarte getestet, von ATI dagegen 8? ...

... vielleicht kann der geneigt USER den Testern geeignete Testmittel zur "freien Verfügung" stellen ;) ...


Das sich 3DCenter-User (die mind. ein Jahr dabei sind) über das fehlen diverser GraKas aufregen, kann ich nicht nachvollziehen. Schließlich hatte sich BlackArchon am 20.07.2007 in seinem
Benchmark-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5684431#post5684431) diesbezüglich an uns gewandt. Und die NV-Besitzer hatten anscheinend keinen Bock auf Benches ihrer Karten. :uconf3:

Abgesehen von einem deftigem Mangel in den Angaben1 und einen mittelschweren Fehler in der Auswertung2 ist der Artikel Super geworden! :)

Aber in Crysis dürfte auf jeden Fall Sparoptik bei der X850 zum Einsatz kommen, was das gute Abschneiden erklärt.


Ist "Sparoptik" nicht vielleicht etwas übertrieben?


1 Keinerlei Angaben über verwendete Settings verdienen eine Ohrfeige! /me slaps blackarchon and warmachine79 around a bit with a large trout! :D

2 Fehlt in den Diagrammen ein Hinweis darauf, welche Ergebnisse unter SM2 und SM3 zustande kamen.


man liest sich, bye

minimum
2008-08-27, 08:54:43
Interessant waere nun natuerlich auch der Stromverbrauch
(denn wer beim kaufen spart will sicher auch beim Betrieb sparen).
Irgendwo hatte ich mal einen Artikel der sich mit dem tatsaechlichen Stromverbrauch der Grafikkarten beschaeftigt hat.
Falls jemand Daten zu X1900 und zum Vergleich HD3850, bitte posten.
Danke.

PS: Oh, und natuerlich fand ich die Idee zum Artikel toll und die Umsetzung auch (aber meine 7600gt sieht ziemlich lahm aus).
PPS: Sorry, aber mich vergessen einzuloggen.

AnarchX
2008-08-27, 09:01:51
Irgendwo hatte ich mal einen Artikel der sich mit dem tatsaechlichen Stromverbrauch der Grafikkarten beschaeftigt hat.
Falls jemand Daten zu X1900 und zum Vergleich HD3850, bitte posten.
Danke.

Hier testet man mit einem modifizierten Mainboard und Netzteil den Verbrauch der GraKa einzeln:
http://www.xbitlabs.com/articles/video/

Last:
- X1900XT: 109W (http://www.xbitlabs.com/articles/video/display/power-noise_4.html#sect1)
- HD 3850: 63W (http://www.xbitlabs.com/articles/video/display/gigabyte-radeonhd3870-3850_5.html#sect0)

diedl
2008-08-27, 09:41:01
Was wegen des verwendeten Asrock 775Dual-VSTA BIOS P3.00
meiner Meinung noch fehlt, interessant währe.
Die Schnittstelle der jeweils verwendeten Karten.
Da der PCIe beim Board nur mit 4 lines bestückt ist,
könnte dies durchaus Auswirkungen auf z.B. der R(v) 6xx Reihe
gehabt haben.
(Eine g. 8800 z.B. lief meiner Erinnerung nach eine ganze Weile überhaupt nicht auf dem Board,
bzw. allgemein mit nur 4 lines nicht. :wink: )

mfg diedl

MadManniMan
2008-08-27, 09:53:44
Aye! Jetzt, wo Du es sagst... die G92 müssten extra geflasht werden, viele beschnittene laufen gar nicht (da es keine BIOSe gibt) und für die ganz neuen Karten (9600?) gibt's gar keinen Workaround.

user77
2008-08-27, 09:53:52
Ganz ehrlich gesagt finde ich den Test nicht gut!

- PCI-Express Grakas laufen nur mit 4 Lanes auf dem Asrock 775Dual-VSTA.
- Nur eine nvidia Grafikkarte zwischen H2 06 und H2 07.
- keine Auflistung der genauen Einstellungen (Auflösung, AA, AF)
- x8.. Grafikkarten dürfen Spielen mit shadermodell 2.0 berechnen, während alle anderen mit dem Leistungsfressenden Shadermodell 3.0 kämpfen müssen.

Ernie
2008-08-27, 10:21:19
Ein Asrock mit gerade mal 4xPCIe zu verwenden ist leider ein nicht zu verschmerzender Fehler. Nicht nur, dass dadurch bei neueren Games massig fps wegfallen, nein, ATI-Karten ab 18xx laufen auf 4xPCIe unverhältnismäßig schneller als ihre nVidia-Pendanten der 7er-Generation, einfach mal googlen wer es nicht glaubt.

Generell leiden die NAchfolgenerationen unter 4xPCIe deutlich merh als die "alten" Karten, aber wem sage ich das:rolleyes:

Andre
2008-08-27, 11:35:39
Ein Asrock mit gerade mal 4xPCIe zu verwenden ist leider ein nicht zu verschmerzender Fehler. Nicht nur, dass dadurch bei neueren Games massig fps wegfallen, nein, ATI-Karten ab 18xx laufen auf 4xPCIe unverhältnismäßig schneller als ihre nVidia-Pendanten der 7er-Generation, einfach mal googlen wer es nicht glaubt.

Generell leiden die NAchfolgenerationen unter 4xPCIe deutlich merh als die "alten" Karten, aber wem sage ich das:rolleyes:

Heißt das, dass der Test dadurch nicht aussagekräftig ist?

Exxtreme
2008-08-27, 11:49:21
Ein Asrock mit gerade mal 4xPCIe zu verwenden ist leider ein nicht zu verschmerzender Fehler. Nicht nur, dass dadurch bei neueren Games massig fps wegfallen, nein, ATI-Karten ab 18xx laufen auf 4xPCIe unverhältnismäßig schneller als ihre nVidia-Pendanten der 7er-Generation, einfach mal googlen wer es nicht glaubt.

Generell leiden die NAchfolgenerationen unter 4xPCIe deutlich merh als die "alten" Karten, aber wem sage ich das:rolleyes:
Die 4 PCIe-Lanes sind sowas von wayne. Macht 2% Unterschied.

AnarchX
2008-08-27, 12:14:27
Die 4 PCIe-Lanes sind sowas von wayne. Macht 2% Unterschied.
Eben nicht, z.B. CoD2 was auch getestet wurde:
http://www.tomshardware.co.uk/pci-express-scaling-analysis-uk,review-2125-8.html

Es ist zwar toll, dass mal wieder ein Artikel erscheint, wo auch entsprechend viel Arbeit drin steckt, wenn man sich die Menge an Ergebnissen anschaut, aber solche Fehler sollten eher nicht passieren.

Ernie
2008-08-27, 12:17:14
Die 4 PCIe-Lanes sind sowas von wayne. Macht 2% Unterschied.

Eben nicht. Grafikspeicherlastige Games brechen sehr stark sind und sind kaum spielbar, wenn der Speicher mal überschwappt. Gerade CoD 2 ist ein Grafikfresser allererster Güte. Eine HD3850 verliert in Crysis unter High ebenfalls massig fps. rFactor mit grafikkspeicherlastigen Mods war mit einer HD3870 und 4xPCIe nicht spielbar (konstant 20 fps gegenüber 80 fps mit PCIe 16). Klarstellend: Ich spreche hier nur über die benches in "High". Und hier verliert nVidias 7x-Generation je nach bench schon mal mehr als 5 % gegenüber den ATI-Pendants, was möglicherweise an der besseren Nutzung der Grafikkartenspeichers durch ATI liegt. Eben der Grund warum jetzt die 88xx-Reihe von nVidia mehr von PCIe-2.0 profitiert als ATI.

@C.D.B

Bereits das Fehlen von HDR bei SM 2.0b in Crysis verdient die Bewertung "Sparoptik".

Edit:
Aaah, danke für den Link, AnarchX. Es gab noch einen Test, in dem noch weitere Games verglichen wurde, aber Dein Link zeigt schon, dass die ATI Karten weniger einbrechen.

PCGH_Carsten
2008-08-27, 13:31:17
Hi,

Interessanter Artikel, wirklich. Aber einige Angaben vermisse ich - wie zum Teil die Vorredner.

a) Eine Liste mit Taktraten und Speicherausstattung der Grafikkarten. Die 7800 GTX bsw. gab's ja in mehreren Versionen.

b) Eine genauere Beschreibung, was jeweils unter "niedrig, mittel und hoch" verstanden wurde. IIRC haben nicht alle Spiele einen einzelnen so bezeichneten Schalter.

c) Hinweise darauf, wo sich die Darstellungsqualität zwischen einzelnen Karten unterscheidet - und zwar nicht nur, SM3 und SM2.

d) Angaben darüber, was wie gebencht wurde? Timedemos ohne Sound? Walkthroughs? Oder Savegame-Benches? Am besten mit DL-Möglichkeit des Saves!


Danke auf jeden Fall für eure Mühen und schade, dass du, Black Archon, nicht auf mein Angebot, dir die 7900 GTO zur Verfügung zu stellen, nicht zurückgekommen bist. :)


p.s.:
In der Erscheinungstabelle der Grafikkarten sind einige Fehler: X800 XT und GF6800 Ultra erschienen beide in H1/2004, die 7800 GTX in H2/2005, X1800 XL und X1800 XT-PE beide ebenfalls in H2/2005.

Gast
2008-08-27, 15:25:04
Es dürfte wenig zielführend sein, die Artikel-URL mit Umlauten zu spicken? Dachte eigentlich, es hat sich durchgesetzt, dass URL frei von Sonderzeichen sind ;)

Gast
2008-08-27, 17:56:33
....man darf bei dieser Betrachtung aber nicht vergessen, dass sie das HighEnd-Modell der Nachfolgegeneration ist.


stimmt nicht, da gab es noch eine 7800GTX 512, 7900GTX oder eine 7950GX2 die hoffentlich alle aus versehen im Test fehlen ;)

Lawmachine79
2008-08-27, 19:22:07
Auf einige Dinge werde ich eingehen, andere werden zunächst intern geklärt.

b) Eine genauere Beschreibung, was jeweils unter "niedrig, mittel und hoch" verstanden wurde. IIRC haben nicht alle Spiele einen einzelnen so bezeichneten Schalter.
Screenshots zu jedem Spiel vorhanden, es wird gerade intern diskutiert, inwieweit wir die noch einbauen.

c) Hinweise darauf, wo sich die Darstellungsqualität zwischen einzelnen Karten unterscheidet - und zwar nicht nur, SM3 und SM2.
Welche Unterschiede soll es noch geben? Solange bei ATI einerseits die positiven, notwendigen Optimierungen (das was bei NV über das Profil geregelt wird) und negative Optimierungen zwangsweise durch A.I. auf Gedeih und Verderb aneinander gebunden sind, ist es NICHT möglich, eine faire Testumgebung zu schaffen - das ist wie früher, als man 6xMSAA gegen 4xMSAA+1x2SSAA (8x im Treiber) getestet hat. Lässt man A.I. off, ist es ein ungerechter Nachteil gegenüber ATI, schaltet man es an, wird bei der Filterung gespart - wie man es dreht und wendet, die Einschläge liegen zu kurz oder zu weit, im Ziel liegen sie nie.


p.s.:
In der Erscheinungstabelle der Grafikkarten sind einige Fehler: X800 XT und GF6800 Ultra erschienen beide in H1/2004, die 7800 GTX in H2/2005, X1800 XL und X1800 XT-PE beide ebenfalls in H2/2005.
Prüfe ich nochmal nach.

Und danke für die sachliche, nüchterne Kritik (der Eine oder Andre hier sollte die Worte mal im Lexikon nachschlagen ;), damit meine ich aber wirklich eine SEHR kleine Personengruppe), von jemanden, der auch weiß wovon er redet.

Edit: Ich finde nur Reviews vom X800XT nach dem 01.07.04 - gibt es eine Quelle, daß sie vorher erschienen ist?
Bei der 78GTX kann man herrlich streiten - die ist vom 22.06.05; davon ab steht sie in der Tabelle auch drin als Release im H1/2005 (vielleicht hat es ein Redakteur bereits geändert - dann hätte er aber auch XL und XT-PE angepasst). X1800XL ist unser Fehler, X18XX wurde am 5.10.05 vorgestellt.

stimmt nicht, da gab es noch eine 7800GTX 512, 7900GTX oder eine 7950GX2 die hoffentlich alle aus versehen im Test fehlen ;)
Die fehlen mangels Verfügbarkeit.

Gast
2008-08-27, 19:33:31
TOP REVIEW!!

Bin gespannt auf das Update und/oder den nächsten Teil! :)

Deinorius
2008-08-27, 23:45:24
Die fehlen mangels Verfügbarkeit. Steht eine Erweiterung der fehlenden Grafikkarten im Test zur Diskussion?

Und die Frage hinsichtlich der fehlenden PCIe Lanes sollte man auch nicht vergessen. Eigentlich ist der Test allein dadurch schon für nichtig zu erklären, wenn sich die Benchmarkwerte nicht nur bei CoD2 so verhalten wie bei THG.

Gast
2008-08-28, 00:05:27
Du willst also auch Optimierungen ausschalten, die die BQ nicht beeinflussen?
Als Anwender hat man ja keine Wahl, wenn man nicht auf BQ verzichten will.


Bei der GF6 war die BQ teilweise unterirdisch mit Q.
Dafür bei der FX umso besser.
Hier werden wohl leider sämtliche ATI Karten bevorteiligt.

Grestorn
2008-08-28, 07:24:46
Welche Unterschiede soll es noch geben? Solange bei ATI einerseits die positiven, notwendigen Optimierungen (das was bei NV über das Profil geregelt wird) und negative Optimierungen zwangsweise durch A.I. auf Gedeih und Verderb aneinander gebunden sind, ist es NICHT möglich, eine faire Testumgebung zu schaffen - das ist wie früher, als man 6xMSAA gegen 4xMSAA+1x2SSAA (8x im Treiber) getestet hat. Lässt man A.I. off, ist es ein ungerechter Nachteil gegenüber ATI, schaltet man es an, wird bei der Filterung gespart - wie man es dreht und wendet, die Einschläge liegen zu kurz oder zu weit, im Ziel liegen sie nie.

Zunächst bezweifle ich inzwischen, dass AI off wirklich Kompatibilitäts-Optimierungen und qualitätsneutrale Shaderreplacements abschaltet. Hat das mal jemand wirklich getestet (über exe renaming)?

Und selbst wenn dem so wäre muss ich mich doch fragen, ob man ATI für diese Politik belohnen sollte (in dem man AI auf Standard lässt und ATI damit einen Vorteil verschafft) oder doch eher bestraft in der Hoffnung, dass sie ihre Politik überdenken (in dem man AI ausschaltet).

Mich wundert ehrlich gesagt, dass das ganze Netz offenbar der Meinung ist, ATI würde in diesem Punkt einen Bonus verdienen. Bei nV war eigentlich keiner so freundlich, es war ganz schnell üblich auf HQ zu stellen und alle Optimierungen auszuschalten.

MadManniMan
2008-08-28, 07:41:28
Ich sehe im Moment nicht so recht die Einsicht, dass die X800 (und alle aus demselben Techlevel) über den grünen Klee gelobt wird, obschon sie schlicht und ergreifen nicht vergleichbaren Output liefern.

PCGH_Carsten
2008-08-28, 08:48:57
Welche Unterschiede soll es noch geben? Solange bei ATI einerseits die positiven, notwendigen Optimierungen (das was bei NV über das Profil geregelt wird) und negative Optimierungen zwangsweise durch A.I. auf Gedeih und Verderb aneinander gebunden sind, ist es NICHT möglich, eine faire Testumgebung zu schaffen - das ist wie früher, als man 6xMSAA gegen 4xMSAA+1x2SSAA (8x im Treiber) getestet hat. Lässt man A.I. off, ist es ein ungerechter Nachteil gegenüber ATI, schaltet man es an, wird bei der Filterung gespart - wie man es dreht und wendet, die Einschläge liegen zu kurz oder zu weit, im Ziel liegen sie nie.
Das stimmt. Man kann seit einiger Zeit kaum noch "gleich" testen. Allerdings sollten Dinge wie bsw. nicht verfügbare Optionen auf der einen oder anderen Karte, unterschiedliche Flimmerneigung einzelner Modelle, oder eben die Grafikteile, die möglicherweise komplett fehlen, erwähnen.

Idealerweise unterteilt man vielleicht sogar die Diagramme danach: Oben der Vergleich aller SM3-Karten, unten dann mit einer Leerzeile oder Strich abgetrennt die SM2x-Modelle. Dass zum Beispiel in Crysis-Hoch eine X850 XT schneller ist als eine X1800 XTPE, ist ja bei gleicher Darstellungsqualität logisch schlicht nicht möglich, da letztere über die selbe Anzahl an (auch noch mächtigeren) Ausführungseinheiten verfügt und einen höheren Takt dazu.

Das ist für den Leser auf den ersten Blick natürlich ziemlich verwirrend.

Mr. Lolman
2008-08-28, 09:13:48
Das stimmt. Man kann seit einiger Zeit kaum noch "gleich" testen. Allerdings sollten Dinge wie bsw. nicht verfügbare Optionen auf der einen oder anderen Karte, unterschiedliche Flimmerneigung einzelner Modelle, oder eben die Grafikteile, die möglicherweise komplett fehlen, erwähnen.

Imo wird das in Form von einem Update sicher nachgetragen werden, allerdings kann ich mir nicht vorstellen, dass die Autoren nun alle Karten in jedem Spiel/Setting nach Flimmerneigung untersuchen werden. Der Aufwand dafür ist enorm, um valide Aussagen tätigen zu können - und für so alte Karten imo nicht mehr gerechtfertigt.

NV3x war bis zu einem gewissen Treiber (der brilinear einführte) BQ-King . NV40-G70 waren bei HQ im Schnitt vergleichbar mit AIlow. Das ist auch der Grundtenor div. anderer HW-Seiten (zB. PCGH, CB, xbitlabs, hardware.fr). Eine kleine Übersicht über die technischen Details der GraKas in Form einer Tabelle und ein paar Worte über die BQ wären allerdings wirklich nicht verkehrt.

Und du hast schon recht - man kann kaum gleich testen, aber zumindest ähnlich. Aktuell ist das mit den Defaultsettings der Fall, bis G70 war bei NV HQ notwendig, und den NV30 müsste man eigentlich neu untersuchen. (was aber wohl ohnehin keine großen Unterschiede machen dürfte, da ja bei dem viel mehr die Shaderleistung als die Texturleistung limitiert).



Idealerweise unterteilt man vielleicht sogar die Diagramme danach: Oben der Vergleich aller SM3-Karten, unten dann mit einer Leerzeile oder Strich abgetrennt die SM2x-Modelle. Dass zum Beispiel in Crysis-Hoch eine X850 XT schneller ist als eine X1800 XTPE, ist ja bei gleicher Darstellungsqualität logisch schlicht nicht möglich, da letztere über die selbe Anzahl an (auch noch mächtigeren) Ausführungseinheiten verfügt und einen höheren Takt dazu.

Ist aber nur dann sinnvoll, wenn auch wirklich BQ-Unterschiede bei dem Benchmark exisitieren. Ansonsten würde durch die Unterteilung auch automatisch eine Wertung entstehen (im Sinne von 3 ist besser als 2)..

V2.0
2008-08-28, 09:36:30
Also die Wahl der aktuellen Grafikkarten gibt dem Test eine gewisse tendenziöse Richtung. Das Fazit ist wie erwartet, da aber Karten der 8800er Serie völlig fehlen, legt man imho den Schluss nahe, ohne ich zu machen, dass die festgestellte Tendenz auch für die 19X0 Serie und die 3XXX Serie im Vergleich zu der NV Konkurrenz gelten könnte.

Ich würde dringend vorschlagen zumindest eine 8800GTS G80 noch nachträglich einzubauen, den von R600 drinne ist, dann muss G80 auch dabei sein. Gegenwärtig muss ich für mich festhalten, dass bei NV nur Chips aus der "schlechten Zeit" (aka NV30 Verwandte und entfernte Verwandte) dabei sind und der Architekturwechsel mit G80 hier nicht richtig dokumentiert ist. Die 8600 ist imho zu unbedeutend um das darstelln zu können, gerade weil sie mit High-End-Modellen von ATI kämpfen muss.

PHuV
2008-08-28, 10:44:35
Der Test ist erst mal ok, aber das Design der Seiten ist sehr ungünstig, wer hat sich den das einfallen lassen? :| Warum kommt die Überschrift mit den Auflösungen unter den Diagrammen, und nicht, wie es sich gehört, über dem entsprechenden Diagramm? Rein vom Betrachtungsfluß ist so eine Darstellung sehr daneben. Gerade solche Patzer wirken sehr amateurhaft und schmälern deutlich die Qualität und den Aufwand dieses Tests. Wenn Ihr schon den Kommentartext mit der Auflösung unten hinklatscht, dann macht wenigstens in den Diagrammen direkt einen Kommentar,Verweis oder Überschrift über die verwendete Auflösung hin. Wie gesagt, auf den ersten Blick erschließt sich die Zuordnung nicht.

anddill
2008-08-28, 11:15:26
Bei 99,9% der User solcher alten Schätzchen dürften die Treiber in der Defaulteinstellung sein. Und so hätte man die auch testen sollen. In erster Linie interessiert ja: Spielbar oder nicht?
Ob da irgendwo Texturen flimmern, ist Joe Sixpack sowas von egal. Und wenn man erst mal richtig im Spiel steckt, sieht man sowas eh nicht mehr.
Man hätte vielleicht irgendwo im Fazit die Bildunterschiede, auch SM2 <-> SM3, vielleicht mit einem Beispielscreenshot, abhandeln sollen.

user77
2008-08-28, 11:24:47
habe hier nen test shader 2.0 vs. shader 3.0 gefunden und entgegen meiner erwartungen ist sogar shader 2.0 langsamer.

http://www.hardware-infos.com/tests.php?test=11&seite=3

und

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/3/

reunion@work
2008-08-28, 11:38:02
Zunächst bezweifle ich inzwischen, dass AI off wirklich Kompatibilitäts-Optimierungen und qualitätsneutrale Shaderreplacements abschaltet. Hat das mal jemand wirklich getestet (über exe renaming)?

Und selbst wenn dem so wäre muss ich mich doch fragen, ob man ATI für diese Politik belohnen sollte (in dem man AI auf Standard lässt und ATI damit einen Vorteil verschafft) oder doch eher bestraft in der Hoffnung, dass sie ihre Politik überdenken (in dem man AI ausschaltet).

Mich wundert ehrlich gesagt, dass das ganze Netz offenbar der Meinung ist, ATI würde in diesem Punkt einen Bonus verdienen. Bei nV war eigentlich keiner so freundlich, es war ganz schnell üblich auf HQ zu stellen und alle Optimierungen auszuschalten.

Da AI_low bis vor G80 eine durchaus vergleichbare Qualität zu HQ bot geht deine Kritik ins leere.

Ernie
2008-08-28, 12:05:09
habe hier nen test shader 2.0 vs. shader 3.0 gefunden und entgegen meiner erwartungen ist sogar shader 2.0 langsamer.

http://www.hardware-infos.com/tests.php?test=11&seite=3

und

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/3/


Natürlich ist SM 2.0 langsamer, wenn man versucht, mit SM 2.0 die gleichen Effekte darzustellen wie mit SM 3.0. Ist bei den hier getesteten Games aber nicht der Fall.

Grestorn
2008-08-28, 12:39:20
Da AI_low bis vor G80 eine durchaus vergleichbare Qualität zu HQ bot geht deine Kritik ins leere.

Das ist eine Meinung bei einem sehr subjektiven Thema, mehr nicht.

Mr. Lolman
2008-08-28, 12:42:49
Das ist eine Meinung bei einem sehr subjektiven Thema, mehr nicht.

Das ist nicht nur eine Meinung, sondern auch mehrfach belegt worden...

Gaestle
2008-08-28, 13:40:59
...

Grestorn
2008-08-28, 14:13:18
Das ist nicht nur eine Meinung, sondern auch mehrfach belegt worden...

Wie kann man so etwas belegen?

Es gab immer Vertreter beider Meinungen. Ich hab mich meist rausgehalten, denn es ist sehr sehr schwer hierzu eine Meinung zu finden, ohne wirklich genau identische Bedingungen zu vergleichen.

aths
2008-08-28, 14:32:38
Welche Unterschiede soll es noch geben? Solange bei ATI einerseits die positiven, notwendigen Optimierungen (das was bei NV über das Profil geregelt wird) und negative Optimierungen zwangsweise durch A.I. auf Gedeih und Verderb aneinander gebunden sind, ist es NICHT möglich, eine faire Testumgebung zu schaffen - das ist wie früher, als man 6xMSAA gegen 4xMSAA+1x2SSAA (8x im Treiber) getestet hat. Lässt man A.I. off, ist es ein ungerechter Nachteil gegenüber ATI, schaltet man es an, wird bei der Filterung gespart - wie man es dreht und wendet, die Einschläge liegen zu kurz oder zu weit, im Ziel liegen sie nie. Hier wäre ich hart. AMD kann nur dann dazu gebracht werden, die Kopplung aufzugeben, wenn man mit AI off bencht da die volle Qualität anders nicht erreicht werden kann.

Bei 99,9% der User solcher alten Schätzchen dürften die Treiber in der Defaulteinstellung sein. Und so hätte man die auch testen sollen. In erster Linie interessiert ja: Spielbar oder nicht?
Ob da irgendwo Texturen flimmern, ist Joe Sixpack sowas von egal.Uns interessiert es schon.
Und wenn man erst mal richtig im Spiel steckt, sieht man sowas eh nicht mehr.Ich schon.

Man sollte lieber die User dazu bringen, auf BQ zu achten, anstatt das Qualitätsverschlechterungsspielchen der Hersteller mitzumachen.

Was würdest du als Entwickler sagen wenn du tolle Texturen zauberst, die dann aber flimmern weil die Hersteller mal wieder die Qualität runterschrauben? Oder wenn du keinen Texturcontent nehmen kannst wie du ihn gern hättest, weil die Hersteller standardmäßig weder vernünftig trilinear-anisotrop filtern noch das Nyquist-Kriterium einhalten?

Bei hochwertigem Texturcontent bringen die "Optimierungen" mehr Qualitätsnachteile als Geschwindigkeitsvorteile. Diese "Optimierungen" führen dazu, dass man unschärfere Texturen nehmen muss (die dann trotzdem flimmeranfällig sind) was darauf hinausläuft, eine höhere Pixeldichte fahren zu müssen um zur gleichen Qualität zu gelangen. Das kostet (Monitor-Anschaffungspreis, neue Grafikkarte da der Berechnungsaufwand im Quadrat steigt.)

Die "Optimierungen" sind vordergründig eine Möglichkeit, auf kostengünstigen Karten noch Games zocken zu können, aber standardmäßig auch auf großen Karten aktiv. Selbst auf kleinen Karten büßt man mehr Qualität ein als man Geschwindigkeit gewinnt. Im Endeffekt ist es nachteilhaft: Spiele sehen bei gleicher Pixeldichte schlechter aus. Wir haben Pixelshader 4.0 oder 4.1, aber eine Texturfilterung die teilweise unterhalb der GeForce 3 liegt.

Andre
2008-08-28, 14:47:51
Bei 99,9% der User solcher alten Schätzchen dürften die Treiber in der Defaulteinstellung sein. Und so hätte man die auch testen sollen. In erster Linie interessiert ja: Spielbar oder nicht?
Ob da irgendwo Texturen flimmern, ist Joe Sixpack sowas von egal. Und wenn man erst mal richtig im Spiel steckt, sieht man sowas eh nicht mehr.

Ich dachte immer, dass grade 3Dcenter eben nicht Joe Sixpack, sondern den technisch versierten und interessierten Anwender informieren und bedienen will. Das WAR zumindest mal so. Wie schnell sich die Zeiten ändern.

anddill
2008-08-28, 15:03:25
Das ist die Krux mit dem Modsein. Man darf keine persönliche Meinung mehr haben.
Und der "technisch versierte und interessierte Anwender" wird kaum Crysis auf einer R9800pro oder gforceFX spielen. Das betrifft halt die Leute, die vor 4 Jahren mal einen PC gekauft haben. Die schmeißén da ihre Software drauf, und sind froh wenns überhaupt läuft.

aths
2008-08-28, 15:03:28
Wie kann man so etwas belegen?Vergleich von Flimmerstärke. G70 HQ alt: Flimmern. HQ neu: Grenzwertig, leichtes Flimmern. ATI (damalige Produkte mit damaligen Treibern) Kein Flimmern.

In Max Payne hab ich allerdings Screenshots gesehen, dass es bei ATI (auch mit AI low) in Bewegung flimmern muss. AI off war OK. Auf GeForce 6 und 7 habe ich in HQ nur leichtes Schimmern gehabt, mit 4xS-AA war die BQ exzellent.

Andre
2008-08-28, 18:39:23
Das ist die Krux mit dem Modsein. Man darf keine persönliche Meinung mehr haben.

Sagt wer?
Ich finde es nicht sehr angenehm, dass immer diese Sätze von dir kommen, wie anstrengend, mühsam und hart das Modleben ist, in dem man keine eigenen Meinung angeblich haben darf.

Und der "technisch versierte und interessierte Anwender" wird kaum Crysis auf einer R9800pro oder gforceFX spielen. Das betrifft halt die Leute, die vor 4 Jahren mal einen PC gekauft haben. Die schmeißén da ihre Software drauf, und sind froh wenns überhaupt läuft.

Es sollte aber doch wohl dennoch Ziel sein, den User wenigstens ein bischen aufzuklären, oder nicht? Und wenn man AMD längere Haltbarkeit bescheinigt, wäre vielleicht sinnvoll, dass mit einzubeziehen, denn wir reden ja nicht von völlig belanglosem Zeug.

Gast
2008-08-28, 19:16:31
Sorry, aber warum hat sich den Artikel nicht vor der Veröffentlichung ein erfahrener Autor angesehen? So wie der Artikel jetzt da steht, bestätigt er doch wieder das Bild von der "roten" 3DCenter Crew.

Und wenn wir hier mal über BQ reden: die HD4xxx Serie flimmert unter AI Standart wirklich sehr wahrnehmbar, warum wird hier trotzdem mit AI Standart gegen NV HQ gebencht? Dann sollte man auch hingehen und bei NV auf Q stellen. Ansonsten bleibt man sich seiner Richtlinie nicht treu, und das bestätigt den o.g. Eindruck.

V2.0
2008-08-28, 20:04:43
Die Auswahl der Karten ist schon spannend. Bei der

7900er nur die GS, aber die X1900-XT.
Keine 8800GTS 640 aber die 2900pro und
gar keine 8800er aber sogar die 3850

Die letzte echte High-End-Karte (zum Zeitpunkt der Vorstellung) bei NV ist die 7800GTX von 2005.

Bei dieser Karten Zusammenstellung kann man eigentlich nur sagen, dass die NV30-Verwandten mal wieder gebügelt werden. Auch wenn das Fazit im letzten Absatz sachlich richtig ist, so ist die Aussage durch den Test völlig unbelegt, gerade auch wenn man sieht das die 8600GT kurz vorher noch als schlechter als X850XT-PE eingestuft wird.

Auch wenn ich euch bei dem Fazit völlig zustimme, müßtet ihr entwender alles 2900er und die 3850 entfernen oder aber 8800er beifügen. (GTS 640, GT oder GS)

Lawmachine79
2008-08-28, 20:08:12
Die Auswahl der Karten ist schon spannend. Bei der

7900er nur die GS, aber die X1900-XT.
Keine 8800GTS 640 aber die 2900pro und
gar keine 8800er aber spgar die 3850

Die letzte echte High-End-Karte (zum Zeitpunkt der Vorstellung) bei NV ist die 7800GTX von 2005.

Bei dieser Karten Zusammenstellung kann man eigentlich nur sagen, dass die NV30 Verwandten mal wieder genüglet werden. Auch wenn das Fazit im letzten Absatz sachlich richtig ist, so ist die Aussage durch den Test völlig unbelegt, gerade auch wenn man sieht das die 8600GT kurz vorher noch als schlechter als X850XT-PE eingestuft wird.

Auch wenn ich euch bei dem Fazit völlig zustimme, müßtet ihr entwender alles 2900er und die 3850 entfernen oder aber 8800er beifügen. (GTS 640, GT oder GS)
Da ist was dran, wie ich sagte wollen wir soviele Karten wie möglich in dem Test haben. Eine GTS640 war leider nicht da (m.E. könnte man bei dem Benchmarkprofil sogar eine GTS320 nehmen). In der Tat wäre die GTS640 die interessanteste Karte für diesen Test gewesen - als Vergleich. Denn nur als Vergleich waren auch die neuen ATI-Karten drin, im Mittelpunkt stand das, was ja der Titel des Artikels verrät.

V2.0
2008-08-28, 20:20:49
Da ist was dran, wie ich sagte wollen wir soviele Karten wie möglich in dem Test haben. Eine GTS640 war leider nicht da (m.E. könnte man bei dem Benchmarkprofil sogar eine GTS320 nehmen). In der Tat wäre die GTS640 die interessanteste Karte für diesen Test gewesen - als Vergleich. Denn nur als Vergleich waren auch die neuen ATI-Karten drin, im Mittelpunkt stand das, was ja der Titel des Artikels verrät.

Ich verstehe Dich, aber um den Test bei der gegenwärtigen Auswahl nun wieder richtig einordnen zu können, gerade im Bezug auf heutige Grafikkarten, muss man eigentlich so tief in der Materie sein, dass man sich das Fazit des Tests mit der gegenwärtigen Auswahl auch denken konnte. Außerdem setzt ihr euch imho unnötig Vorwürfen der Parteilichkeit aus.

Ich schätze die Arbeit des Teams, aber manchmal glaube ich, dass ihr solch eigentlich fachlich einfache (vom nötigen Hintergrundwissen) Artikel an ein Publikum wendet, dass die Test eigentlich gar nicht braucht, weil es die Ergebnisse kennt. Wer die Materie seit Jahren verfolgt weiss natürlich welchen Schritt NV mit dem G80 gemacht und wie sehr sie mit den Vorgängern gebrochen haben, und dieses Wissen braucht man aber imho um den Artikel und sein Fazit einordnen zu können.

Lawmachine79
2008-08-28, 20:35:51
Ich verstehe Dich, aber um den Test bei der gegenwärtigen Auswahl nun wieder richtig einordnen zu können, gerade im Bezug auf heutige Grafikkarten, muss man eigentlich so tief in der Materie sein, dass man sich das Fazit des Tests mit der gegenwärtigen Auswahl auch denken konnte. Außerdem setzt ihr euch imho unnötig Vorwürfen der Parteilichkeit aus.

Ich schätze die Arbeit des Teams, aber manchmal glaube ich, dass ihr solch eigentlich fachlich einfache (vom nötigen Hintergrundwissen) Artikel an ein Publikum wendet, dass die Test eigentlich gar nicht braucht, weil es die Ergebnisse kennt. Wer die Materie seit Jahren verfolgt weiss natürlich welchen Schritt NV mit dem G80 gemacht und wie sehr sie mit den Vorgängern gebrochen haben, und dieses Wissen braucht man aber imho um den Artikel und sein Fazit einordnen zu können.
Naja, wenn wir jetzt erzählen, daß G80/G92 alles zwischen 2900Pro und HD3870 gnadenlos verblasen hat, ist das keine Neuigkeit - bei den Karten davor, also von NV4x - G7x ist es aber eben so, daß die Releasetest ein spiegelverkehrtes Bild zur heutigen Realität sind.
NVidia liegt auch in sehr subjektiven Parametern vorn (ich rede jetzt von heute). Sieh mal, ich habe 2 Rechner, beide fast gleichwertig - in einem ist eine 88GTS G92, in dem anderen eine HD4850. Die Karten nehmen sich leistungsfähig nicht viel - ehrlich gesagt fühle ich mich mit der G92 auch wohler. Wenn man mal nach Posts von mir sucht, wird man die meisten im NV-Forum finden - dennoch waren die Benchmarks in diesem Test so wie sie eben sind und meine Aufgabe war es, diese Benchmarks auszuwerten und die Erkenntnisse in einen halbwegs unterhaltsamen Text zu bringen. Und diese Erkenntnisse aus diesen Benchmarks waren eben, daß die alten ATI-Karten deutlich schneller sind, als die alten NV-Karten. Mir persönlich fehlt bei ATI-Karten das Supersampling, der Catalyst 8.8 bekommt ein derartig vernichtendes Feedback, daß ich mich gar nicht traue, ihn zu installieren, da er meine Karte kastriert, die BQ-Varianten sind unzureichend dokumentiert (vor allem was A.I. und Adaptives AA angeht) und nach so einem Tool wie NHancer kann ich Jahre suchen, hinzu kommt eine, vielleicht gefühlte, vielleicht tatsächlich vorhandene, schlechtere Kompatibilität mit alten Spielen. So. Das war aber ALLES nicht Gegenstand des Artikels - und es sind auch alle sehr schwer greifbare Parameter - vielleicht bin ich ja schlichtweg zu blöd, um mit dem Catalyst und den Tray Tools umgehen zu können und brauche sowas wie den nHancer - aber das ist eben subjektiv. Fakt ist, daß ich den Artikel vertextet habe und auch das Fazit gezogen habe. Fakt ist, daß man in der "Posthistorie" eindeutig nachvollziehen kann, daß ich eigentlich "ein Grüner" (grafikkartentechnisch ;) ) bin. Aber machen wir uns nichts vor, von NV30 - bis G71 wurde viel Mist gebaut - sonst wäre der G80 kaum so geil geworden, schließlich mußte man viel zerstörtes Vertrauen und viele vergraulte Kunden wiedergewinnen.

V2.0
2008-08-28, 21:17:06
Aber die "Geilheit" des G80 findet man in eurem Test nicht. Was ich schade finde, da ihr ja eine Aussage zur "Haltbarkeit" treffen wolltet.

Ich sehe da einfach eine Lücke, die der weniger vorgebildete Leser leicht falsch verstehen kann. Und die reinen Grafiken bieten natürlich auch viel Spielraum sinnentstellend gedeutet zu werden. Das Fazit ist aber, wie schon gesagt, ok.

Und ich wollte Dir und BA auch keine Neigung zur "roten Seite" unterstellen.

Lawmachine79
2008-08-28, 21:24:51
Aber die "Geilheit" des G80 findet man in eurem Test nicht. Was ich schade finde, da ihr ja eine Aussage zur "Haltbarkeit" treffen wolltet.

Ich sehe da einfach eine Lücke, die der weniger vorgebildete Leser leicht falsch verstehen kann. Und die reinen Grafiken bieten natürlich auch viel Spielraum sinnentstellend gedeutet zu werden. Das Fazit ist aber, wie schon gesagt, ok.

Und ich wollte Dir und BA auch keine Neigung zur "roten Seite" unterstellen.
Der G80 ist zu neu - klar hätten wir unter der Prämisse auch HD3850 rauslassen müssen (wir wissen ja, daß die 8800GTS 640 zwischen 3850 und 70 einordnet, mit Tendenz zur 3870) - aber es sollte auch eine moderne Karte als eine Art "Index" da sein.

V2.0
2008-08-28, 21:36:07
Naja, aber der G80 gehört doch eigentlich zeitlich zur 2900er Serie.
G92 zu 38X0
und G200 zu 48X0

Imho ist das eine indirekte "Bestrafung" des G80 für seine Leistungsfähigkeit. Gerade die 8800GTS 640/320 muss imho als Partner der 2900 Serie rein.

Black-Scorpion
2008-08-28, 21:44:38
Es geht doch nicht um die HD Karten in dem Test.
Die sind doch nur als Anhaltspunkt zu aktuellen Karten dabei.
Im Fazit geht es auch nur bis zur x1xxxer Serie.
Ich verstehe nicht wie man sich darüber aufregen kann das Karten nicht dabei waren um die es gar nicht ging.

MadManniMan
2008-08-29, 00:31:33
Die Kartenzusammenstellung sollte nicht zu sehr kritisiert werden, denn hier wird unterstellt, dass etwas suggeriert werden soll - das sehe ich nicht, in keinster Weise.

Was jedoch nicht passieren darf, ist eine derartige Schusselei wie mit den unterschiedlichen BQs und eben das Gestalterische mit der mäßigen Navigation und der überarbeitungswürdigen Formatierung.

Sentionline
2008-08-29, 03:53:13
Mich freut es zu sehen das ich keine alte "Gurke" bei mir drin hab. Im gegenteil. Nachdem ich den Artikel sichtete, hat es mich erstaunt, wie nahe ich der "aktuelleren" Generation dran bin. :smile:

http://www.abload.de/thumb/zwischenablage018cr.jpg (http://www.abload.de/image.php?img=zwischenablage018cr.jpg)

Somit ist meine X1800XT auf dem Papier schneller als die 7900GTX. Die Daten entsprechen fast der X1900XTX (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/2/#abschnitt_technische_daten).

Nur mal als Randinfo, falls noch einer eine X1800XT hat: Im Leerlauf läuft die Karte auf 175 Mhz Chiptakt (0.925V) & 800 Mhz Speichertakt (1.900V). Dann läuft sie Passiv auf 56°C :up:. Unter 3D Last mit ATi Tray Tools komme ich auf ~89°C und erreiche 682 Mhz Chiptakt (1.400V), Speichertakt liegt bei 1638Mhz (2,2585V) ohne Fehler. Mehr krieg ich nicht hin...

Danke für den Test! Werd ich glaube ich oft verlinken und jedem an die Nase halten. Meine X850XT-PE (AGP) liegt gereinigt im Regal. Mal schauen, villeicht findet es ja doch wieder irgendwann wieder in einen PC rein. ;D

Greetings

Unyu
2008-08-29, 10:08:13
Interressant ist, wie einige Karten gelobt werden.

9800 Pro:
Die Leistung im Vergleich zur Konkurrenz wird gelobt, das sie im selben Balken die eigene Nachfolgeneration praktisch einholt wird verschwiegen.

X850 XTPE:
Eine Leistung auf dem Niveau einer 3850 wird als "beeindruckend" bezeichnet.

Die X850 XT PE wird als direkter Konkurrent der 6800 Ultra bezeichnet, obwohl sie 9 Monate später released wurde.
Der wahre 6800 Ultra Gegner war nunmal die 2 Monate später releaste X800 XT.

Seit wann war die X850 XT PE zum Release der 6800 Ultra klar unterlegen? :confused:

X1800 XT PE:
Wird im Fazit als 7800 GTX Gegner bezeichnet, trotz 4 Monate späterem Paperlaunch der X1800 XT.
Die PE ist noch junger und wird als Vergleichsobjekt herangezogen.

Seit wann war die X1800 XT PE zum Release der 7800 GTX klar unterlegen? :confused:

X1900 XT:
Wird in fast allen Tests gelobt, das sie gewinnt, kein Wunder die Konkurrenz, heißt X1800 XT PE, 2900 Pro und 3850.


CoD2:
Was passiert hier mit der X1900 XT 256? VRAM-Bug? ;D
Schon praktisch, das die stärkste, uralte Nvidia Karte nur 256MiB hat. :)

PCGH_Carsten
2008-08-29, 16:38:56
CoD2:
Was passiert hier mit der X1900 XT 256? VRAM-Bug? ;D
Es ist bekannt, dass auch in CoD2 eine Textureinstellung auf manuell -> "extra" 256-MiB-Karten überfordert. Ist doch kein Problem.

Unyu
2008-08-29, 17:33:15
Ob das jeder Leser weiß?
Der guckt auf die X1800 XT PE und die 7800 GTX. Erstere hat den längeren Balken, ergo muss ATI ja die Wunderkarte gebaut haben, den die 7800 GTX war ja damals angeblich überlegen, trotz des höheren Alters.

Lawmachine79
2008-08-29, 17:55:43
Interressant ist, wie einige Karten gelobt werden.

9800 Pro:
Die Leistung im Vergleich zur Konkurrenz wird gelobt, das sie im selben Balken die eigene Nachfolgeneration praktisch einholt wird verschwiegen.

X850 XTPE:
Eine Leistung auf dem Niveau einer 3850 wird als "beeindruckend" bezeichnet.

Die X850 XT PE wird als direkter Konkurrent der 6800 Ultra bezeichnet, obwohl sie 9 Monate später released wurde.
Der wahre 6800 Ultra Gegner war nunmal die 2 Monate später releaste X800 XT.

Seit wann war die X850 XT PE zum Release der 6800 Ultra klar unterlegen? :confused:

X1800 XT PE:
Wird im Fazit als 7800 GTX Gegner bezeichnet, trotz 4 Monate späterem Paperlaunch der X1800 XT.
Die PE ist noch junger und wird als Vergleichsobjekt herangezogen.

Seit wann war die X1800 XT PE zum Release der 7800 GTX klar unterlegen? :confused:

X1900 XT:
Wird in fast allen Tests gelobt, das sie gewinnt, kein Wunder die Konkurrenz, heißt X1800 XT PE, 2900 Pro und 3850.


CoD2:
Was passiert hier mit der X1900 XT 256? VRAM-Bug? ;D
Schon praktisch, das die stärkste, uralte Nvidia Karte nur 256MiB hat. :)
Ja, es war sauanstrengend, die ATI-Karten besser aussehen zu lassen, obwohl schon die 6800Ultra mit einer 4870 Crossfire den Fußboden aufwischt. Wir mussten solange Benchen, bis die NVidiarechner abgestürzt sind, damit die ATI-Karten besser aussehen.
Ob das jeder Leser weiß?
Der guckt auf die X1800 XT PE und die 7800 GTX. Erstere hat den längeren Balken, ergo muss ATI ja die Wunderkarte gebaut haben
Nein, ergo ist diese ATI der bessere Gebrauchtkauf als diese NVidia. Punkt. Genau das behaupte ich. Und dabei bleibe ich. Auch wenn Du ganz laut "Menno" sagst.

BlackArchon
2008-08-29, 18:59:20
Mal ne Frage an die Tester:

Gibts Verschleißerscheinungen am MoBo (PCIe-Slot)?Nein, da ist mir nichts aufgefallen. :)
Hi,

Interessanter Artikel, wirklich. Aber einige Angaben vermisse ich - wie zum Teil die Vorredner.

a) Eine Liste mit Taktraten und Speicherausstattung der Grafikkarten. Die 7800 GTX bsw. gab's ja in mehreren Versionen.

b) Eine genauere Beschreibung, was jeweils unter "niedrig, mittel und hoch" verstanden wurde. IIRC haben nicht alle Spiele einen einzelnen so bezeichneten Schalter.

c) Hinweise darauf, wo sich die Darstellungsqualität zwischen einzelnen Karten unterscheidet - und zwar nicht nur, SM3 und SM2.

d) Angaben darüber, was wie gebencht wurde? Timedemos ohne Sound? Walkthroughs? Oder Savegame-Benches? Am besten mit DL-Möglichkeit des Saves!


Danke auf jeden Fall für eure Mühen und schade, dass du, Black Archon, nicht auf mein Angebot, dir die 7900 GTO zur Verfügung zu stellen, nicht zurückgekommen bist. :)


p.s.:
In der Erscheinungstabelle der Grafikkarten sind einige Fehler: X800 XT und GF6800 Ultra erschienen beide in H1/2004, die 7800 GTX in H2/2005, X1800 XL und X1800 XT-PE beide ebenfalls in H2/2005.
a) wird nachgereicht
b) ebenso
d) ebenso

Ups, deine GeForce 7900 GTO hatte ich ganz vergessen... tut mir leid. Können wir das noch nachholen?

BlackArchon
2008-08-29, 19:03:25
Nun noch ein paar allgemeine Anmerkungen: wer G80-Karten vermisst, der übersieht das Ziel dieses Tests. Die R600-Karten sowie die 3850 sind nur mit drin, weil erstere gerade hier verfügbar waren und letztere, damit man einen ungefähren Anhaltspunkt hat, wo das ganze Testfeld steht.

Eine GeForce 7950 GX2 hätte ich auch gern mit getestet, leider friert der PC ein, wenn man mit der Karte auf dem 775Dual-VSTA ein 3D-Spiel startet.

G92-Karten laufen nur mit einem Spezial-BIOS auf dem Board, aber das wäre wirklich sinnlos gewesen, weil die dann praktisch überall oben gewesen wäre, mit einem großen Vorsprung.

_DrillSarge]I[
2008-08-30, 08:12:17
Hier wäre ich hart. AMD kann nur dann dazu gebracht werden, die Kopplung aufzugeben, wenn man mit AI off bencht da die volle Qualität anders nicht erreicht werden kann.
klingt hart, finde ich aber eine interessante idee. dumm nur, dass ai-off bei aktuellen karten oft keine signifikante verbesserung vor allem am af bringt.
jedoch dürften durch die wegfallenden bugfixes (falls es wirklich ALLES abschaltet) und lahmgelegtes crossfire, alles ziemlich zu ungunsten von amd rücken.
sowas bringt aber erst was, wenn alle seiten/reviewer so benchen würden.

wieso wurde bei ati nur der 7.11er catalyst genommen?
wenn man jetzt den 10 fachen aufwand betreiben würde, könnte man noch einen treibervergleich dieser älteren karten machen. :)

PCGH_Carsten
2008-08-30, 08:53:10
Nein, da ist mir nichts aufgefallen. :)

a) wird nachgereicht
b) ebenso
d) ebenso

Ups, deine GeForce 7900 GTO hatte ich ganz vergessen... tut mir leid. Können wir das noch nachholen?

[a), b), d)] klingt toll! Und ja, wenn ihr die nachreichen möchtet - gern, schreib mir eine PM. Allerdings glaube ich nicht, dass sie gegen die X1900 ankommt. ;)

BlackArchon
2008-08-30, 09:03:37
I[;6751830']...
wieso wurde bei ati nur der 7.11er catalyst genommen?
...Es wurden die Treiber genommen, die zum Start der Tests aktuell waren.

Unyu
2008-08-30, 09:40:19
Ja, es war sauanstrengend, die ATI-Karten besser aussehen zu lassen, obwohl schon die 6800Ultra mit einer 4870 Crossfire den Fußboden aufwischt. Wir mussten solange Benchen, bis die NVidiarechner abgestürzt sind, damit die ATI-Karten besser aussehen.
Es ist ja egal, ob es gewollt war oder nicht. Fakt ist, das ATI hier besser dasgestellt wird, in vielen Punkten.


Nein, ergo ist diese ATI der bessere Gebrauchtkauf als diese NVidia. Punkt. Genau das behaupte ich. Und dabei bleibe ich. Auch wenn Du ganz laut "Menno" sagst.
Der bessere Kauf war diese ganz bestimmte Karte im Vergleich zu der anderen ganz bestimmeten Karte bereits zu ihrem Erscheinen, wenn man die unterschiedlichen Preis im Januar 2006 unter den Tisch kehrt und andere Karten ausklammert.

I[;6751830']dumm nur, dass ai-off bei aktuellen karten oft keine signifikante verbesserung vor allem am af bringt.
Seit wann den das? Dann können wir ja auch Q hernehmen.

Malabolge
2008-08-30, 12:59:51
@warmachine79,@BlackArchon

Könntet Ihr nicht einfach in alle Diagramme eine Nvidia-Karte auf den 1. Platz mit 15-20 mal (gefühlt!) so langem Balken setzen?
Damit diese "Menno , Nvidia hinter den sieben Bergen ..." POST ein Ende Haben - DANKE !

Back @ Topic

Eigentlich ein gelungener Artikel - der sich einfach mit der "Langlebigkeit" alter Karten auseinandersetzt !
Und auch ein "farbenblindes" Fazit findet -(für den Unparteischen Leser)
Leider wird daraus wieder ein "Typischer" 3D-Center Glaubenskrieg (TM)

So Soll es woll leider Sein :mad:

V2.0
2008-08-30, 13:59:48
Nun noch ein paar allgemeine Anmerkungen: wer G80-Karten vermisst, der übersieht das Ziel dieses Tests. Die R600-Karten sowie die 3850 sind nur mit drin, weil erstere gerade hier verfügbar waren und letztere, damit man einen ungefähren Anhaltspunkt hat, wo das ganze Testfeld steht.

Eine GeForce 7950 GX2 hätte ich auch gern mit getestet, leider friert der PC ein, wenn man mit der Karte auf dem 775Dual-VSTA ein 3D-Spiel startet.

G92-Karten laufen nur mit einem Spezial-BIOS auf dem Board, aber das wäre wirklich sinnlos gewesen, weil die dann praktisch überall oben gewesen wäre, mit einem großen Vorsprung.

Aber warum dann soviele Refenrenzkarten ? Hääte es nicht gerichte die 3850 zu listen und díese dann eben auch klar als Referenz zu kennzeichnen. Ich verstehe zwar den Sinn, aber im Artikel kann ich den kaum finden.

knallebumm
2008-09-02, 04:25:05
Schöner Test.
Eine Frage: Warum wurden die Treiber vom Releasedatum verwendet?

Sollte ich irgendwo eine X8x0 Pro/XT/XTPE billig schießen können, werde ich sie auch mal interessehalber mit meiner 6800gt vergleichen.

Gast
2008-09-02, 08:34:11
Kann mir einer sagen, wo der Unterschied zwischen einer x1800xt 512 und einer x1800xt pe liegt?

BlackArchon
2008-09-02, 09:03:47
X1800 XT 512 MB: 625 MHz Chip-, 750 MHz RAM-Takt
X1800 XTPE: 700 MHz Chip-, 800 MHz RAM-Takt

Gast
2008-09-02, 09:56:42
X1800 XT 512 MB: 625 MHz Chip-, 750 MHz RAM-Takt
X1800 XTPE: 700 MHz Chip-, 800 MHz RAM-Takt
Vielen Dank!

Der interessante Test kam übrigens zur rechten Zeit. Ich wollte meinen alten zweit-PC mit einer Grafikkarte ausstatten, um mit dem auch mal zocken zu können, wenn ein Freund zu Besuch ist.

Ursprünglich sollte es eine 8600GT oder ähnlich werden - jetzt habe ich eine x1800xt für 30 Euro geschossen :)

Also: vielen Dank für diesen untypischen, aber wertvollen Test!

Gast
2008-09-02, 10:05:41
Schöner Test.
Eine Frage: Warum wurden die Treiber vom Releasedatum verwendet?
Es wurden die Treiber genommen, die zum Start der Tests aktuell waren.
;) Welche denn sonst? Alles andere hätte doch wieder zu "aber der NVidia Treiber XX ist wesentlich schlechter, als der ATI YY!" geführt.
Ich denke nach den Verbesserungen wird der Artikel rund sein, das dauerhafte Geweine einiger Leute ist für mich nur schwer nachzuvollziehen.
Macht doch selber einen Test in dem von vornherein feststeht, dass NV schicker ist! :ulol:

knallebumm
2008-09-02, 22:40:40
;) Welche denn sonst? Alles andere hätte doch wieder zu "aber der NVidia Treiber XX ist wesentlich schlechter, als der ATI YY!" geführt.
Ich denke nach den Verbesserungen wird der Artikel rund sein, das dauerhafte Geweine einiger Leute ist für mich nur schwer nachzuvollziehen.
Macht doch selber einen Test in dem von vornherein feststeht, dass NV schicker ist! :ulol:

Wenn es dazu führt, ist es ok. Davor sollte man bei so einem Test dann keine Angst haben. Meiner Meinung nach ist es sogar ein Makel, darum einen Bogen zu machen.

Hier gehts doch um den besten Gebrauchtkauf und da sollte man sich nicht auf die Treiber des Releasedatums beschränken. (m.M.n.)

edit: Wahrscheinlich wäre es einfach viel zu aufwendig, da jeweils den besten Treiber rauszusuchen aber man könnte einfach den letzten nehmen, der die Karte unterstützt. (den hab ich auch als 6800gt Benutzer drauf)

Popeljoe
2008-09-03, 12:39:01
Hier gehts doch um den besten Gebrauchtkauf und da sollte man sich nicht auf die Treiber des Releasedatums beschränken. (m.M.n.)
Release bezog sich aber nicht auf die Graka, sondern auf den Release des Artikels! ;)

knallebumm
2008-09-03, 14:41:02
Release bezog sich aber nicht auf die Graka, sondern auf den Release des Artikels! ;)

Dann hab ich das komplett mißverstanden und natürlich nichts auszusetzen.

Zauberer
2008-09-07, 21:19:50
Ich sehe im Moment nicht so recht die Einsicht, dass die X800 (und alle aus demselben Techlevel) über den grünen Klee gelobt wird, obschon sie schlicht und ergreifen nicht vergleichbaren Output liefern.
Das Fazit sollte schnell überarbeitet werden!

Dieses Fazit ist meiner Meinung nach total falsch, man darf auf keinen Fall eine Kaufempfehlung für Shader 2.0 Karten ausgeben!

Das der Output nicht gleich wie PS3.0 Karten ist, ist nur ein Punkt.
Ein viel wichtiger Punkt ist, das manche Spiele nicht lauffähig sind auf Shader 2.0 Karten!
Was birgt es, wenn Leistung theoretisch da wäre, aber das Spiel nicht startet?

Darum kann man den Autoren von dem Artikel leider nicht zustimmen!

Lieber eine langsamere Karte kaufen, aber dafür ein Spiel, wenn auch auf niedrig, spielen zu können!

So geschehen, ein Bekannter kauft sich ne ATi X8xx und das Spiel Rainbow Six Las Vegas, und es geht nicht, weil die Karte keine Shader 3.0 beherrscht.

Damit anderen das Schicksal erspart bleibt, sollte man für solche Karten bitte keine Empfehlung ausgeben, es gibt Leute die haben einen alten PC, und nicht viel Geld, diese Leute lesen hier was, kaufen sich mal mit Vorfreude ne gebrauchte Grafikkarte, und die Spiele laufen nicht, so was ist echt gemein.

Empfehlen darf man nur Karten ab Nvidia-GeForce-6-Serie, und ab ATi-Radeon-X16xx-Serie (ATi war sehr inkonsequent, die ATi Radeon X1050 unterstützt auch kein SM 3.0), sonst wird man immer wieder das Problem haben, dass ein Spiel was man sich kauft, nicht funktionieren wird!

Da gibt es viele Beispiele wie Rainbow Six: Vegas, Rainbow Six: Vegas 2, Splinter Cell: Double Agent, BioShock, Colin McRae: DIRT, ich will hier nicht alle Spiele aufzählen, auf jeden Fall wäre jetzt noch der Kauf einer SM 2.0 Karte reine Dummheit.

Und ja, ich weiß Unreal Tournament 3 geht auch mit SM 2.0 Karten, und ich habe gehört, das es für BioShock FAN-Patche gibt, ok es kann laufen, nur es ist nicht die Aufgabe von Fans, die Arbeit von Entwicklern zu machen, was dabei raus kommt kann sich jeder denken, lange Ladezeiten, regelmäßige Abstürze usw.

Gast
2008-09-07, 22:24:03
@Zauberer:

Das Problem wird im test angesprochen. Ergo: die alten Shader 3.0 Karten haben eh nicht genüg Rohleistung, um Shader 3.0 only-Games anständig zu rendern.

Und dem kann ich nur zustimmen.

Zauberer
2008-09-08, 01:37:59
@Zauberer:

Das Problem wird im test angesprochen. Ergo: die alten Shader 3.0 Karten haben eh nicht genüg Rohleistung, um Shader 3.0 only-Games anständig zu rendern.

Und dem kann ich nur zustimmen.
Das sehe ich nicht so, eine ATi 850-XT, ist zwar in jedem Benchmark ca. 10-20% schneller als eine 6800 Ultra.
Aber in Crysis – mittlere Einstellungen 1024 x 768 auf einmal 50% schneller, das heißt die ATi fuscht, weil sie kein SM 3.0 kann, das heißt die NVidia Karte berechnend Effekte, die bei der ATi gar nicht angezeigt werden.

Das wäre das Thema für SM 3.0 zu langsam, leider trifft das aber nicht in den niedrige Einstellungen zu, da liefert die 6800 Ultra trotz SM 3.0 Effekten, immer noch mehr als 60 superflüssige FPS.
Also kann man mit der 6800 auch zocken, man muss nur die Shadereffekte auf Niedrig stellen.

Bioshock läuft sogar auf Mittel ohne Probleme spielbar auf einer 6800 Ultra, das habe ich zwar nur gelesen, aber es deckt sich hier mit den Benchmarks.
Also heißt es gar nicht spielen, kontra spielen.
Darum wie gesagt eine SM 2.0 Karte ist nicht empfehlenswert, weil auch alte SM3.0 Karten, spätestens nachdem man das Spiel auf Niedrig stellt, ohne Probleme spielbar werden!

Wie gesagt, es kommt drauf an, was man unter spielbar versteht, auf die Karte, das Spiel, den Monitor (Auflösung), und den Einstellungen an.
Pauschal kann man aber sagen, das man sich mit einer SM 2.0 Karte von vorne rein, je nach Spiel, disqualifizieren kann, egal wie schnell die Karte ist.
Darauf sollte deutlich als Fazit hingewiesen werden!

Das Fazit geht mit solchen Aussagen genau in die Falsche Richtung!

Es ist nicht nachvollziehbar, warum man Geld für eine Radeon X2600 XT oder eine GeForce 8600 GT ausgeben soll, wenn man für deutlich weniger Geld deutlich mehr Leistung haben kann. Das Featureset jedenfalls ist keine Begründung, sind die genannten Karten doch viel zu langsam, um dieses Featureset auch gewinnbringend zu nutzen.

Wie gesagt ich will keinem zu nahe treten, aber je nach Spiel, ist die Aussage schlichtweg falsch!
Das Featureset "ist" eine klare Begründung, die man gewinnbringend nutzt, sei es nur damit das Spiel startet, und spielbar ist jedes Spiel mit den richtigen Einstellungen!

Deinorius
2008-09-08, 02:21:30
Andere Frage, was sieht besser aus?
SM3 mit den niedrigsten Einstellungen?
Oder SM2 mit etwas höheren Einstellungen?

Wenn für SM3 nicht unbedingt soviel Leistung da ist, dann würde ich eher auf SM2 umsteigen und dann z.B. die Texturen etwas nach oben korrigieren. Könnte im Endeffekt besser aussehen als mit SM3.

Popeljoe
2008-09-08, 09:45:11
Es ist nicht nachvollziehbar, warum man Geld für eine Radeon X2600 XT oder eine GeForce 8600 GT ausgeben soll, wenn man für deutlich weniger Geld deutlich mehr Leistung haben kann. Das Featureset jedenfalls ist keine Begründung, sind die genannten Karten doch viel zu langsam, um dieses Featureset auch gewinnbringend zu nutzen.

Wie gesagt ich will keinem zu nahe treten, aber je nach Spiel, ist die Aussage schlichtweg falsch!
Das Featureset "ist" eine klare Begründung, die man gewinnbringend nutzt, sei es nur damit das Spiel startet, und spielbar ist jedes Spiel mit den richtigen Einstellungen!
Tut mir Leid, aber das Statement bezieht sich doch nicht ausschließlich auf ATI Karten und auch nicht ausschließlich auf Shader 2.0 Karten.
Es inkludiert grade X18XX und auch die Geforce6xxx Serien und die kann man mittlerweile für einen Appel auf dem Marktplatz erstehen.
Deswegen ist das Fazit durchaus korrekt: wozu soll ich eine 8600GT kaufen, wenn ich eine X1800XT für die Hälfte gebraucht bekommen kann?

Kosh
2008-09-21, 09:51:18
Die war bei Erscheinen so ein Überflieger, also denk sie Dir einfach oben an jedes Diagramm dran.

Wobei man die letzten Tests,oder dort,wo man keine CPU Limitierung der anderen Karten hat, ruhig die 8800GT noch hätte testen können.

Ganz einfach um zu sehen,wie die iegene 8800GT sich schlägt bezüglich den anderen Karten.

Das sie vorne liegen wird ist klar, aber mich würde schon interessieren, um wieviel sie vorne liegt,wie groß die Differenz ist.
(Ja, ich habe die 8800GT im Rechner :D)

Ansonsten natürlich ein Klasse Test mal wieder.

Gast
2008-09-23, 18:13:38
Das Problem ist halt das verwendete Board.
An den nur 4 PCIe-Lanes liegt z.B. auch das "Einfrieren" der 7950GX2, mit einer 7900GX2 wäre man vermutlich nicht einmal bis ins Windows gekommen.
Nvidia-Karten haben nun einmal de facto ein etwas schlechteres Speichermanagement und sind daher bei gleichem Ram-Ausbau stärker von fehlenden PCIe-Lanes betroffen als die Ati-Pendante.
Genau das kann man auch aus diesem Test rauslesen, mehr aber auch nicht :(

Ich fürchte, das bei einer Wiederholung der Tests auf einem Mainboard mit einem echten PCIe 16x-Slot einige Reihenfolgen neu gemischt werden müssten und auch das Fazit etwas anders ausfallen wird.

Zwar haben sich die Tester rein vom zeitlichen Aufwand her einiges an Mühe gegeben, nur leider war diese größtenteils umsonst, da - abgesehen von dem Mangel der nicht protokollierten Einstellungen - eben auch die Plattform für diesen Test ungeeignet war. Ein Umstand, der zwar unbekannt, aber im Nachhinein fatal war - und der sich mit ein paar Suchen zum Mainboard in diversen Foren im Voraus hätte abklären lassen können. Nicht umsonst wurde in jedem Thread zur 79(5)00GX2 vor diesem Brett gewarnt, nicht ohne Grund klagten etliche User über unverständliche Performanceverluste bei Nutzung dieses Mainboards.

Selbst ein altes Sockel 939 Dual-SATA mit einem X2-4400+ wäre in diesem Fall die bessere Wahl gewesen, wenn man unbedingt ein Mainboard haben MUSS, welches AGP und PCIe bietet.

knallebumm
2008-09-25, 15:45:25
Na toll, jetzt hab ich nach langem Suchen, angeregt durch diesen TEst bei ebay eine X800XT ersteigert, die meine 6800GT mit Anomalien im Sockel A Rechner ersetzen sollte. (wollte auch mal bißchen rumtesten usw) und dann bekomme ich eine X800XT PCi-E geliefert. (Verkäufer mit >500 Bewertungen, 100% positiv)

GRMPFL, kann passieren.

Deinorius
2008-09-25, 17:34:40
Ne bessere für AGP hast du nicht gefunden?!
Von einer 6800GT auf ne X800XT ist imo sinnfrei. Hättest ne X1800/X1900 genommen, wäre ich dafür gewesen, aber das ist Blödsinn.

knallebumm
2008-09-25, 17:44:27
Ne bessere für AGP hast du nicht gefunden?!
Von einer 6800GT auf ne X800XT ist imo sinnfrei. Hättest ne X1800/X1900 genommen, wäre ich dafür gewesen, aber das ist Blödsinn.

Natürlich ist das Blödsinn. Aber zum Glück darf ich das. :)

Paulus
2008-09-25, 22:26:03
Danke für den Test . Sehr interessant. Hab mir bei ebay eine ASUS EAX 1950 Pro für 22€! mit komplettem Zubehör, OVP und Rechnung ersteigert die meine gute alte X800XT ersetzen soll. Jetzt noch auf 2GB RAM upgraden und meine Kiste kommt doch noch mal zum schwitzen...

BlackArchon
2008-09-26, 10:25:40
Beim nächsten Test dieser Art wird ein anderes Board und eine andere CPU zum Einsatz kommen. Ich denke, dass das Thema AGP doch langsam in Frieden ruhen kann. Zudem gibt es mit 'richtigen' PCIe-Boards dann auch keine Performance-Einbußen oder Kompatibilitätsprobleme.

MadManniMan
2008-09-26, 10:49:09
Ich find's schade, dass trotz all der vielen konstruktiven Kritik nichts mehr passiert ist. Hätt sich was getan, hätte ich den Artikel gern weiterempfohlen.

aths
2008-09-28, 12:56:58
Obwohl der Test einige (zum Teil sogar erhebliche) Schwächen hat, ist er im Zusammenhang mit bestimmten Kommentaren hier im Forum doch erhellend. Zum Beispiel zeigt sich der Vorteil der Phasen/Threading-Architektur (entkoppelte TMUs) gegenüber der Quadbatch-Architektur (keine entkoppelten TMUs.)

Gast
2008-09-29, 19:59:40
Es fragt sich insgesamt jedoch, wie aussagekräftig ein solcher Artikel sein kann, wenn wichtige, aus dieser Produktionszeit stammende nv-Karten "nicht zur Verfügung" standen...
Jeder kann sich die entsprechenden Vergleichswerte z.B einer 7900GTX dazu noch in deutlich besserer Artikel-aufmachung mit einem Klick besorgen.

Und dann das "Fazit" des Artikels nochmal für sich bewerten.

=Floi=
2009-03-09, 00:22:43
ein paar bilder und genauere daten zu den verwendeten karten wären nicht schlecht. Ein G71 und ein G80 wären auch nicht so übel.
ohne aa und af ist das ganze aber wieder nur hald durchgedacht und nicht repräsentativ. Das spielt eindeutig wieder ati zu und ohne af und aa würde zumindest ICH erst garnicht das spiel spielen!

Deinorius
2009-03-09, 00:33:35
Nicht zwingend. Bei alten Karten ist nicht immer genug Leistung für AF/AA gegeben. Deswegen macht es schon Sinn, die Karten ohne zu testen. Wer unbedingt auf AF/AA nicht verzichten kann, der kauft sich eh einigermaßen regelmäßig neue Grafikkarten. Wenn, kann aber auch eine niedrigere AF-Stufe nicht schaden.

deekey777
2009-03-09, 01:21:46
ein paar bilder und genauere daten zu den verwendeten karten wären nicht schlecht. Ein G71 und ein G80 wären auch nicht so übel.
ohne aa und af ist das ganze aber wieder nur hald durchgedacht und nicht repräsentativ. Das spielt eindeutig wieder ati zu und ohne af und aa würde zumindest ICH erst garnicht das spiel spielen!
Es gibt auf der Seite mehrere Artikel, die sich mit der Technik der verwendeten Grafikkarten beschäftigen. :|

Es ist repräsentativ und absolut durchdacht.

=Floi=
2009-03-11, 00:46:41
ich meinte taktraten und vram.

mit aa und af könnten aber uu manch andere karten punkten und es wäre näher an der realität. Dadurch sinkt auch das cpu-limit und nebenbei dürfte bei diesem board auch noch das 4x pcie leicht bremsen.