PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7900GT vs. X1800XT 256MB


mike49
2006-04-09, 16:45:00
Analog zu dem laufenden Poll 7900GTX vs. X1900XT erlaube ich mir mal, hier die gleiche Frage in der Preisklasse bis € 300,- zu stellen:

Welche Karte würdet Ihr euch bei einem Budget bis € 300,- derzeit kaufen: 7900GT oder X1800XT? Ich meine natürlich jeweils die Varianten mit 256MB.

P.S Um es etwas einfacher zu machen, habe ich das ganze mal auf 2 Antwortmöglichkeiten beschränkt ;)

Gast
2006-04-09, 16:49:30
1. Die GT ist energiesparender/leiser und lässt sich deshalb auch besser übertakten.

Gast
2006-04-09, 16:57:42
Analog zu dem laufenden Poll 7900GTX vs. X1900XT erlaube ich mir mal, hier die gleiche Frage in der Preisklasse bis € 300,- zu stellen:

Welche Karte würdet Ihr euch bei einem Budget bis € 300,- derzeit kaufen: 7900GT oder X1800XT? Ich meine natürlich jeweils die Varianten mit 256MB.

P.S Um es etwas einfacher zu machen, habe ich das ganze mal auf 2 Antwortmöglichkeiten beschränkt ;)

hol dir die X1800 XT/256; die besseren qualitätsoptionen bei geringerem preis sprechen für sich. die 7900 GT verbraucht zwar weniger strom, bietet aber ein grauenhaftes AF im vgl. zur radeon und kein HDR+AF.

mike49
2006-04-09, 17:03:44
(..) und kein HDR+AF.
Also das konnte sogar schon meine alte 6800GT ;)

Und für HDR + AA (und das IMHO immer notwendige AF) dürfte es mit der X1800XT wohl auch meist sehr eng werden... :rolleyes:

Gast
2006-04-09, 17:10:43
Also das konnte sogar schon meine alte 6800GT ;)

Und für HDR + AA (und das IMHO immer notwendige AF) dürfte es mit der X1800XT wohl auch meist sehr eng werden... :rolleyes:


unsinn. bereits die X1800 XT/256 wird mit diesen einstellungen bei 1280 in jedem spiel fertig. und die BQ der X1800 mit der einer 6800 GT zu vergleichen ist wohl ziemlich daneben.

Winter[Raven]
2006-04-09, 17:12:36
7900GT: 24 Pipes und die vielfältigeren AA-Modi machen das Renne

Das sage ich mal ...

mike49
2006-04-09, 17:19:20
@Gast:

Könntest Du deine geistigen Ergüsse nicht bitte woanders ablassen... :rolleyes:

Mit der Materie auszukennen scheinst Du dich ja nicht wirklich, wenn Du hier behauptest die 7900GT könne kein HDR+AF. Und daß die X1800XT schnell genug ist für 1.280*1.024 mit 4*AA/8*AF und HDR halte ich ebenfalls für eine recht gewagte Aussage. ;)

Bei FarCry o. SplinterCell dürfte das schon ziemlich eng werden, an Oblivion gar nicht erst zu denken. Läuft das mittlerweile eigentlich mit HDR+AA auf den ATIs?

Ronny145
2006-04-09, 17:23:00
Bei FarCry o. SplinterCell dürfte das schon ziemlich eng werden, an Oblivion gar nicht erst zu denken. Läuft das mittlerweile eigentlich mit HDR+AA auf den ATIs?


Ja, läuft. Und es läuft kaum langsamer. Die X1800XT schafft dort HDR+AA locker.

Gast
2006-04-09, 17:25:04
@Gast:

Könntest Du deine geistigen Ergüsse nicht bitte woanders ablassen... :rolleyes:

Mit der Materie auszukennen scheinst Du dich ja nicht wirklich, wenn Du hier behauptest die 7900GT könne kein HDR+AF. Und daß die X1800XT schnell genug ist für 1.280*1.024 mit 4*AA/8*AF und HDR halte ich ebenfalls für eine recht gewagte Aussage. ;)

Bei FarCry o. SplinterCell dürfte das schon ziemlich eng werden, an Oblivion gar nicht erst zu denken. Läuft das mittlerweile eigentlich mit HDR+AA auf den ATIs?

hab mich verschrieben meinte natürlich HDR+MSAA. und guck dir mal tests auf computerbase o.ä. an dann siehst dass die radeon sehr wohl schnell genug für besagte einstellungen ist. für far cry reichts eh, Splinter Cell3 bietet mit radeons eh nur SM2-HDR. und oblivion wird wohl kaum der ultra-hardware-fresser sein.

Gast
2006-04-09, 17:26:16
Ja, läuft. Und es läuft kaum langsamer. Die X1800XT schafft dort HDR+AA locker.

das mal zum thema von Mike`s kompetenz. das was du sagst kann man ja zur genüge nachlesen.

AnarchX
2006-04-09, 17:35:42
[x] X1800XT

Diese hat die deutlich besseren Bildqualitätqualiätsfeatures, was mich überzeugen würde.

Die 7900GT wäre jedoch auch etwas interessant mit einem VMod -> 700Mhz+ für den Core...

J0ph33
2006-04-09, 17:50:05
[x] X1800XT

wer nur ohne AA/AF spielen will, der ist bei nV besser beraten, alle anderen greifen zu ATi, das kühlerargument gilt für die 7900GT auch nicht mehr...

Winter[Raven]
2006-04-09, 17:53:56
wer nur ohne AA/AF spielen will, der ist bei nV besser beraten, alle anderen greifen zu ATi, das kühlerargument gilt für die 7900GT auch nicht mehr...

Quark, AA insbesondere mit den Hybrid-Modis ist erste Sahne, die hauen stärker rein auf die Perf. aber für die gebotene BQ ist es ok :)

Das bessere AF der ATI kann ich nur für die jenigen Spieler empfehlen die Games mit einer Vergrößerungslupe spielen.

//EDIT

Ahso und zum "Kühlargument"

http://www.xbitlabs.com/images/video/geforce7900gtx/power.gif

Gast
2006-04-09, 18:09:58
']Quark, AA insbesondere mit den Hybrid-Modis ist erste Sahne, die hauen stärker rein auf die Perf. aber für die gebotene BQ ist es ok :)

Das bessere AF der ATI kann ich nur für die jenigen Spieler empfehlen die Games mit einer Vergrößerungslupe spielen.

//EDIT

Ahso und zum "Kühlargument"

http://www.xbitlabs.com/images/video/geforce7900gtx/power.gif

Tja, das ist mit ziemlicher Sicherheit die 512 MB Version der 1800XT. Die 256 MB Version dürfte etwas überhalb der 1800XL liegen, was den Stromverbrauch betrifft. Und bei einem Gesamtverbrauch von über 200 Watt (kompletter PC mit Monitor) dürften die 10-15 Watt Unterschied zwischen 7900GT und 1800XT 256 den Kohl auch nicht mehr fett machen...

LovesuckZ
2006-04-09, 18:19:08
Tja, das ist mit ziemlicher Sicherheit die 512 MB Version der 1800XT. Die 256 MB Version dürfte etwas überhalb der 1800XL liegen, was den Stromverbrauch betrifft. Und bei einem Gesamtverbrauch von über 200 Watt (kompletter PC mit Monitor) dürften die 10-15 Watt Unterschied zwischen 7900GT und 1800XT 256 den Kohl auch nicht mehr fett machen...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/20/#abschnitt_stromverbrauch
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/26/#abschnitt_stromverbrauch

Unter Last sind 160Watt zu 223Watt Gesamtverbrauch.

Ronny145
2006-04-09, 18:19:13
Tja, das ist mit ziemlicher Sicherheit die 512 MB Version der 1800XT. Die 256 MB Version dürfte etwas überhalb der 1800XL liegen, was den Stromverbrauch betrifft. Und bei einem Gesamtverbrauch von über 200 Watt (kompletter PC mit Monitor) dürften die 10-15 Watt Unterschied zwischen 7900GT und 1800XT 256 den Kohl auch nicht mehr fett machen...


Nein, das macht ca 10 Watt aus. Wurde auf CB auch getestet.

TheGoD
2006-04-09, 18:25:53
Spiele Oblivion mit 4AAA(performance) bei 1024 ohne Probleme. Eine höhere Auflösung wo AA nicht unbedingt benötigt wird schaft mein uralt Monitor nicht (wie auch die meisten TFT's), was auch nicht wirklich efficent wäre. Mit ner 7900er hätte ich also ganz klar das schlechtere Bild.

@Gast:

Könntest Du deine geistigen Ergüsse nicht bitte woanders ablassen... :rolleyes:

Mit der Materie auszukennen scheinst Du dich ja nicht wirklich, wenn Du hier behauptest die 7900GT könne kein HDR+AF.

:crazy: Gleich so ein Ton wegen einem Schreibfehler...?

Gast
2006-04-09, 18:26:11
[x] X1800XT

wer nur ohne AA/AF spielen will, der ist bei nV besser beraten, alle anderen greifen zu ATi, das kühlerargument gilt für die 7900GT auch nicht mehr...

gerade bei der 7900GT gilt dieses argument, die karte braucht nur so viel wie eine 6600GT.

BvB123
2006-04-09, 18:56:27
Bei ner 7800GT 512 ist der Unterschied zu ner 7800GT 256 grade mal 1-2W vom Stromverbrauch her. hab den link zum review leider nicht mehr.

Gruß

Gast
2006-04-09, 19:00:51
Bei ner 7800GT 512 ist der Unterschied zu ner 7800GT 256 grade mal 1-2W vom Stromverbrauch her. hab den link zum review leider nicht mehr.

Gruß

da wird aber im gegensatz zur X1800 XT/512 die vdimm nicht angehoben gegenüber der 256er version, daher fällt der unterschied sehr klein aus.

Razor
2006-04-09, 19:05:57
Flamewar ahoi?
IMO wurde die Frage falsch gestellt.

Bei den ganzen cracks hier, wäre doch interessat gewesen:
Wieviele haben eine 7800GTX256 oder 7900GT im Vergleich zu der X1800?

Dann könnte man "bestimmte" Umfragen sehr viel besser deuten...

Razor

P.S.: habe 7900GT angeklickt... wer mehr Geld hat, kann auch zur X1900 greifen, wer mit ATI zurecht kommt.
(die X1800 ist 'veraltet' und mit den 16 Shadern recht 'dünn' bestückt, verbraucht mir zuviel Saft)

J0ph33
2006-04-09, 19:19:08
gerade bei der 7900GT gilt dieses argument, die karte braucht nur so viel wie eine 6600GT.

mit Kühlerargument meinte ich, dass die nV einen leiseren Kühler haben! das gilt für die 7900GT nicht mehr...

P.S.: habe 7900GT angeklickt... wer mehr Geld hat, kann auch zur X1900 greifen, wer mit ATI zurecht kommt.
(die X1800 ist 'veraltet' und mit den 16 Shadern recht 'dünn' bestückt, verbraucht mir zuviel Saft)

veraltet hin oder her, sie ist unter bestimmten (wichtigen) kriterien (wie AA/AF, hohe auflösung) so gut wie immer schneller als die 7900GT...

Arcanoxer
2006-04-09, 19:21:30
[x] 7900GT: 24 Pipes und die vielfältigeren AA-Modi machen das Rennen

anständige rohleistung und dabei noch energiesparend, wird wohl mein nächstes upgrade werden.
weil bei mir auch linux eine rolle spielt hat ATi von haus aus schlechte karten.
(solange sich am treiber performance&kompatibilitäts technisch nix tut)

Kladderadatsch
2006-04-09, 19:25:00
veraltet hin oder her, sie ist unter bestimmten (wichtigen) kriterien (wie AA/AF, hohe auflösung) so gut wie immer schneller als die 7900GT...
ohne aa/af liegt die 7800gtx weit vor der x1800xt, mit aa/af die ati. und die 7900gt ist leicht schneller als die 7800gtx...
außerdem scheint die ein außerordentliches oc-potential zu haben.
daher [x]7900gt

AnarchX
2006-04-09, 19:35:00
ohne aa/af liegt die 7800gtx weit vor der x1800xt, mit aa/af die ati. und die 7900gt ist leicht schneller als die 7800gtx...
[x]7900gt
:| Beweis?
Laut CB sieht es doch etwas anders aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet

Aber das OC-Potential der 7900GT ist schon interessant:
http://www.vr-zone.com/?i=3437 :eek:

Raff
2006-04-09, 19:35:49
Ist "ohne AA/AF" ernsthaft ein relevantes Argument für euch? Niemand hier wird so zocken ... dafür lohnt es auch nicht, 300 €uronen auf den Tisch zu legen.

Zur eigentlich Frage: Meiner Meinung nach sehr, sehr schwer. Ich habe lange mit mir gerungen, da ich ebenfalls aufrüsten wollte. Eine Radeon X1900 XT für 430 €uro? Eine X1800 XT 512 MiB für 333 €uronen? Oder doch eine noch günstigere GeForce 7900 GT mit 256 MiB und das bisschen Flimmern hier und da ertragen, immerhin geht dann sicher oft SSAA? Dank eines sehr guten Angebots bekomme ich nun eine X1800 XT (512 MiB). Warum ein R520 statt dem G71? Nur wegen des AF (und etwas HDR + MSAA), ehrlich. Ich möchte kein Flimmern mehr, sondern durchgehende Schärfe. Die GeForce 7900 GT ist aber zweifelsohne ein würdiger Nachfolger der Serie "Ti-200 => Ti-4200 => FX-5900(XT) => 6800 GT => 7800 GT". Schnell, kühl und fette Taktreserven. Würde ich nicht wieder fanatisch WoW spielen, dann wäre die Karte vielleicht auch in meinem Rechner ...

Genug geblubbert => [x] X1800 XT

MfG,
Raff

Arcanoxer
2006-04-09, 19:44:01
Ist "ohne AA/AF" ernsthaft ein relevantes Argument für euch?

natürlich nicht, wer sagt das denn?
jedoch ist 7900gt zukunftsicherer durch die bessere "rohe" performance ohne aa&af. ;)

Razor
2006-04-09, 19:49:34
http://www.vr-zone.com/?i=3437[/url] :eek:
Tjo...
Habe aus meiner 'Kleinen' heute auch locker GTX-Takte heraus geholt!
Lediglich die 'schwache' Kühlung der GT hat mich hier aufgehalten...
(das Kärtchen wurde bei 650/850 mit 98° einfach zu heiß ;-)

Razor

Razor
2006-04-09, 19:53:18
Noch etwas...

:| Beweis?
Laut CB sieht es doch etwas anders aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet
Du hast aber auch hoffentlich diesen Zusatz gelesen?

Achtung: Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.
Es ist Geschmackssache, bei nVidia "HQ" zu wählen, bei ATI dann aber den 'guten' AF-Modus zu unterdrücken.
Schon mal was von "Äpfel und Birnen" gehört?
:)

Razor

Kladderadatsch
2006-04-09, 20:04:04
danke razor:)

Ist "ohne AA/AF" ernsthaft ein relevantes Argument für euch? Niemand hier wird so zocken ... dafür lohnt es auch nicht, 300 €uronen auf den Tisch zu legen.

es geht um benchmarks, nicht ums zocken:whisper:
;)

Winter[Raven]
2006-04-09, 20:04:15
Ich möchte kein Flimmern mehr, sondern durchgehende Schärfe.

Immer diese Legende von Flimmern ... man kann soviel sagen, dass es nicht Flimmert, aber es ist sowieso wie gegen die Wand....

Wer ohne "HQ" - Einstellung spielt ist selber schuld.

Raff
2006-04-09, 20:10:55
es geht um benchmarks, nicht ums zocken:whisper:
;)

Ich habe seit einiger so meine Probleme mit praxisirrelevanten Einstellungen.

']Immer diese Legende von Flimmern ... man kann soviel sagen, dass es nicht Flimmert, aber es ist sowieso wie gegen die Wand....

Wer ohne "HQ" - Einstellung spielt ist selber schuld.

Die "Legende" kann ich (leider) jeden Tag auf meinem NV40 @ HQ sehen. Sofern kann mir jeder erzählen, dass es super aussieht, meine Augen sehen was anderes. Der direkte Vergleich ist rot und steckt im Rechner daneben.

MfG,
Raff

Winter[Raven]
2006-04-09, 20:12:54
Die "Legende" kann ich (leider) jeden Tag auf meinem NV40 @ HQ sehen. Sofern kann mir jeder erzählen, dass es super aussieht, meine Augen sehen was anderes. Der direkte Vergleich ist rot und steckt im Rechner daneben.

Die "Legende" kann ich (leider) jeden Tag auf meinem NV40 @ HQ "NICHT SEHEN". Sofern kann mir jeder erzählen, dass es super aussieht, meine Augen sehen was anderes. Der direkte Vergleich ist rot und steckt im Rechner daneben.

Razor
2006-04-09, 20:13:32
Die "Legende" kann ich (leider) jeden Tag auf meinem NV40 @ HQ sehen. Sofern kann mir jeder erzählen, dass es super aussieht, meine Augen sehen was anderes. Der direkte Vergleich ist rot und steckt im Rechner daneben.
Tatsächlich?
Auch wenn Du beim "Roten" das "HQ-AF" abschaltest, wie es ComputerBase tat?
:confused:

Razor

Raff
2006-04-09, 20:17:59
Ich hatte eine Woche einen R430, mit dem ich ausgiebig testete. Das Teil "kann" im Gegensatz zu meiner treuen 9800 Pro im Rahmen von A.I. brilinear filtern und flimmert damit auch ab und an. Lieblingsbeispiel: WoW. Nvidia-HQ @ NV40 ist aber noch schlimmer, da in gewissen Gebieten stets präsent.

HQ-AF, also fast-winkelunabhängiges AF, ist keineswegs mit NV-HQ zu vergleichen. Wie sollte es auch? BQ-technisch ist NV-HQ vs. A.I. Standard genau richtig. Ob es nun vom Arbeitsaufwand fair ist, das ist wieder etwas anderes, das den Käufer aber nicht zu jucken hat.

MfG,
Raff

123456
2006-04-09, 20:26:18
Die 7900 GT ist kaum irgendwo zu haben. Wenn nVidia absichtlich die Preise stabil halten möchte, indem sie die Lieferungen verzögern: Pech gehabt - habe gestern für 285 € eine X1800 XT 256 MiB bestellt.

Die Karten nehmen sich eh nicht viel. In dem einen Spiel ist ATi vorne, im anderen nVidia.

jedoch ist 7900gt zukunftsicherer durch die bessere "rohe" performance ohne aa&af. ;)

Ich verstehe diese Logik nicht. Warum ist eine Karte "zukunftssicherer", wenn sie ohne Qualitätseinstellungen schneller ist (was in diesem Fall nicht einmal zutrifft)? Eine GeForce 4 Ti 4600 hatte damals auch eine höhere Rohperformance als eine Radeon 9700 Pro. Welche ein Jahr später noch zu gebrauchen war und welche nicht, kannst du dir sicher vorstellen.

(die X1800 ist 'veraltet' und mit den 16 Shadern recht 'dünn' bestückt)

Ich sehe das so. Ein Auto mit 500 kg Leergewicht und 150 PS ist auch schneller als ein 3 Tonnen-Jeep mit 300 PS. Obwohl die 7900 GT zwei Quads mehr besitzt, kann sie sich von der X1800 XT überhaupt nicht absetzen.

Kladderadatsch
2006-04-09, 22:11:38
Ich verstehe diese Logik nicht. Warum ist eine Karte "zukunftssicherer", wenn sie ohne Qualitätseinstellungen schneller ist (was in diesem Fall nicht einmal zutrifft)? Eine GeForce 4 Ti 4600 hatte damals auch eine höhere Rohperformance als eine Radeon 9700 Pro. Welche ein Jahr später noch zu gebrauchen war und welche nicht, kannst du dir sicher vorstellen.

das war von Arcanoxer ironisch gemeint. und das argument mit der 7900pro hinkt gewaltig, da dx8 vs. dx9...

Gast
2006-04-09, 22:36:58
zumal die gf4 nicht ne höhere rohleistung hatte

Raff
2006-04-09, 22:56:40
Stimmt. 300/325 MHz der GF4 Ti-4600 stehen 325/310 der Radeon 9700 Pro gegenüber. Hinzu kommt das erstmals eingesetzte 256-Bit-Speicherinterface bei letzterer.

Aber die 9700 Non-Pro bzw 9500 Pro war/ist ja auch schneller mit AA/AF ... kein Wunder, bei dem AF. ;)

MfG,
Raff

Coda
2006-04-09, 22:58:58
Die 9700 Pro hatte auch noch dazu doppelt so viele Pixelpipelines als eine GeForce 4.

thade
2006-04-09, 23:11:49
ohne aa/af liegt die 7800gtx weit vor der x1800xt, mit aa/af die ati. und die 7900gt ist leicht schneller als die 7800gtx...
außerdem scheint die ein außerordentliches oc-potential zu haben.
daher [x]7900gt

Sag mal wer spielt im Jahre 2006 noch ohne AA/AF? Gibts da noch Jemanden?

Selbst mit meiner alten X800XT war fast überall AA/AF drin, dann sollte das ohne AA/AF Argument bei Karten ab G70/R520 doch gar kein Argument mehr sein. Diese Tests ohne AA/AF sind doch total unwichtig. Wichtig ist wieviel die Karte bei AA/AF leistet, da erkennt man wahre Power.

Aber NV ist ohne AA/AF schon immer schneller gewesen als ATi, die sollten lieber mal an dieser Schwäche arbeiten, bei Quali nicht mehr so einzubrechen.

Zum Thema, eindeutig X1800XT. Gibts schon ab 275€ die 256MB Version, ist schneller, bessere Features, besseres AF, HDR+AA.

Sicher die 7900gt ist auch ne feine Karte, aber in den wichtigen wirklich relevanten Punkten ist sie hinten. Wen juckt schon Stromverbrauch? Mich nicht, schon klar, das muss jetzt als Argument herhalten, NV hat ja sonst keine Argumente mehr für sich. Schon sehr lächerlich wie sich die Ansichten innerhalb 1-2 Jahren ändern können.

Juckte damals Jemanden der Stromverbrauch einer FX, oder eines NV40? Jeder wollte nen NV40, wegen Shader3. Komisch jetzt wo gerade der R520/580 der neue schnellere NV40 geworden ist, jetzt gilt das alles nicht mehr. :redface:

Die 9700 Pro hatte auch noch dazu doppelt so viele Pixelpipelines als eine GeForce 4.

Dafür hatte der NV30-NV38 2TMUs je Pipeline. Ist zwar ein Nachteil, aber die Aussage ATi hatte 8 Pipes, NV nur 4 simmt so nicht!

The_Invisible
2006-04-09, 23:23:31
Juckte damals Jemanden der Stromverbrauch einer FX, oder eines NV40? Jeder wollte nen NV40, wegen Shader3. Komisch jetzt wo gerade der R520/580 der neue schnellere NV40 geworden ist, jetzt gilt das alles nicht mehr. :redface:


nö, damals waren alle (ATI'ler) der Meinung SM3.0 + HDR bringt eh nix, seit dem erscheien der x1y00 serie hat sich das mit einem schlag geändert... also schön bei der wahrheit bleiben ;)

mfg

thade
2006-04-09, 23:27:01
Ja das stimmte auch, Ich war mit meinem altem R420 keineswegs benachteiligt. Welche Shader3 Killerapplications gibt es denn? Der NV40 hatte Shader3, nützt aber alles nicht, wenn er dem R420 in hohen Auflösungen bei AA/AF derart unterlegen ist. Außerdem ist ein NV40 viel zu schwach für echte Shader3 Effekte, die ja irgendwann mal kommen werden.

Das ist reines Marketing Geschwätz gewesen, alle sind drauf reingefallen. ATi hat nix falsches gemacht. Außerdem habe Ich mir eine X1900 nicht wegen den Mehrfeatures gekauft. 90% wegen dem AF!

Winter[Raven]
2006-04-09, 23:32:58
nö, damals waren alle (ATI'ler) der Meinung SM3.0 + HDR bringt eh nix, seit dem erscheien der x1y00 serie hat sich das mit einem schlag geändert... also schön bei der wahrheit bleiben ;)

mfg

So sieht es aus! Es wurde an so ziemlich allem gemeckert was Nvidia rausbrachte, aber schauen wir mal...

- AF Qualität? Sieht man nicht, unwichtig
- Dualslot? Igit, nicht doch ...
- Stromverbrauch? Agit, nicht doch ...
- Shader 3.0? Braucht kein Mensch, unter anderem propagierte ATI selbst mit einem ähnlichen Slogan
- HDR? Braucht man nicht, da zu langsam
- SLI? Scheiße, heute CF und viel besser ...

Betrachtet man die Entwiclung der letzen Jahre, so stellt man fest, dass ATI sich ehe auf "REAKTION" verläßt, als auf "Aktion".

An sich ist die ganze Diskussion für den trash, es wird immer die Fanboys geben, die einem das Wort im Munde umdrehen, erst abstreiten und im folgenden als Vorteil herausstellen... auf beiden Seiten.

Entscheiden sollte jeder selbst was er gerne haben will, solche Freads führen sowieso nur ins bodenlose.

Ja das stimmte auch, Ich war mit meinem altem R420 keineswegs benachteiligt. Welche Shader3 Killerapplications gibt es denn? Der NV40 hatte Shader3, nützt aber alles nicht, wenn er dem R420 in hohen Auflösungen bei AA/AF derart unterlegen ist. Außerdem ist ein NV40 viel zu schwach für echte Shader3 Effekte, die ja irgendwann mal kommen werden.

Das ist reines Marketing Geschwätz gewesen, alle sind drauf reingefallen. ATi hat nix falsches gemacht. Außerdem habe Ich mir eine X1900 nicht wegen den Mehrfeatures gekauft. 90% wegen dem AF!

Ahso, du hast dich also nicht benachteilt gefühlt, als du aufeinmal nicht bessere Schatten oder Effekte bakommen konntest?

Apros zu langsam für Shader 3.0, zu langsam, und ATI nichts falsch gemacht. Würde es nach deiner "Logik" gehen, würden die Entwickler erst mit der X1xx Reihe in der Lage sein, ihre Engines auf Shader 3.0 portieren oder erst auf der Grundlage dieser zu entwickeln? Totaler Bullshit, man sollte froh sein, dass Nvidia den Schritt geganen ist, und in die Zukunft investierte. Was man von ATI nicht behaupten kann.

Gast
2006-04-09, 23:40:23
Juckte damals Jemanden der Stromverbrauch einer FX, oder eines NV40? Jeder wollte nen NV40, wegen Shader3. Komisch jetzt wo gerade der R520/580 der neue schnellere NV40 geworden ist, jetzt gilt das alles nicht mehr. :redface:


der stromverbrauch vom NV40 war nur geringfügig über einem R4xx in der selben leistungsklasse, zwischen 7900GT und x1800xt liegen aber welten, und zum launchzeitpunkt (x850-reihe zählt nicht) war NV und ATI auch praktisch gleich schnell, mit ausnahme im absoluten high-end, der praktisch nicht erhältlichen karten.
warum also zu ati greifen wenn die konkurrenz das gleiche, und noch etwas mehr bietet?


Dafür hatte der NV30-NV38 2TMUs je Pipeline. Ist zwar ein Nachteil, aber die Aussage ATi hatte 8 Pipes, NV nur 4 simmt so nicht!

die aussage stimmt schon, klar war eine NV2x/3x-pipeline stärker als vom R3xx, trotzdem waren es 4 gegen 8. bei ungeraden texturanzahlen war NV immer im nachteil.
man spricht ja auch heute beim R520 bzw. beim R580 von 16 pipelines und beim G70/71 von 24, obwohl die kraft einer einzelnen pipeline bei all diesen chips stark unterschiedlich ist.

thade
2006-04-09, 23:56:42
']So sieht es aus! Es wurde an so ziemlich allem gemeckert was Nvidia rausbrachte, aber schauen wir mal...

- AF Qualität? Sieht man nicht, unwichtig

Sicher hatte Nvidia bis zum NV38, das beste AF, 100% winkelunabhängig. Dafür hatte ATi das schönere FSAA.

- Dualslot? Igit, nicht doch ...

Unwichtig!

- Stromverbrauch? Agit, nicht doch ...

Mir war der Stromverbrauch schon immer egal, Ich hatte ja selbst ne FX5950U.

- Shader 3.0? Braucht kein Mensch, unter anderem propagierte ATI selbst mit einem ähnlichen Slogan

Ne das brauchte 2004,2005 kein Mensch, von daher hatte ATi recht!

- HDR? Braucht man nicht, da zu langsam

HDR ohne AA ist auch sinnlos, das braucht man nicht, da hast du sicherlich recht:tongue:

- SLI? Scheiße, heute CF und viel besser ...

SLI/CF braucht kein Mensch, höchstens Menschen die rumprollen wollen. SLI/CF hat nur einen einzigen guten Punkt. Das sind die MinFPS, das wars aber schon


Ja NVidia ist den Schritt gegangen, aber sicher nicht wegen den Leuten, sondern um Marketingtechnisch nen Vorteil zu haben, deswegen!


bei ungeraden texturanzahlen war NV immer im nachteil.

Dafür taktete die FX5800U mit 500Core/1000Ram. Da war die 9700Pro unterlegen, deutlich sogar!

Razor
2006-04-10, 05:15:26
HQ-AF, also fast-winkelunabhängiges AF, ist keineswegs mit NV-HQ zu vergleichen. Wie sollte es auch? BQ-technisch ist NV-HQ vs. A.I. Standard genau richtig. Ob es nun vom Arbeitsaufwand fair ist, das ist wieder etwas anderes, das den Käufer aber nicht zu jucken hat.
Und da liegt der Hase im Pfeffer!

Wäre es 'fair' 8xS nVidia gegen 6xMSAA ATI zu vergleichen?
Sorry...

Und wenn wir uns an die Situation damals R300 vs. NV30 erinnern:
Äpfel und Birnen-Vergleich zulasten nVidia.
(BQ bei nVidia wesentlich besser!)

Jetzt schauen wir uns die Situation heute an:
Äpfel und Birnenvergleich zulasten nVidia
(diesmal BQ bei ATI besser!)

Tja... die Reviewer haben gelernt... nur was bloß?
:confused:

Ich sehe das so. Ein Auto mit 500 kg Leergewicht und 150 PS ist auch schneller als ein 3 Tonnen-Jeep mit 300 PS. Obwohl die 7900 GT zwei Quads mehr besitzt, kann sie sich von der X1800 XT überhaupt nicht absetzen.
Wenn wir mal von diesem unsäglichen Fehltritt auf cb abesehen... wo genau ist dies gleich nochmal der Fall?
Naaa?

Razor

Razor
2006-04-10, 05:22:06
Ja NVidia ist den Schritt gegangen, aber sicher nicht wegen den Leuten, sondern um Marketingtechnisch nen Vorteil zu haben, deswegen!
nVidia ist den Schritt gegangen, weil er notwendig war und es die Architektur hergab...
...schließlich war der NV3x ja schon prinzipiell (nicht vollständig!) SM3-fähig.

ATI hat sich einfach ins gemachte Nest gesetzt und (fast schon zu spät) SM3-fähige Hardware heraus gebracht, als die Spiele auf dieser Basis schon fertig waren. Das mit dem Ei und der Henne funktioniert anders... glaube mir.

Gottlob hat sich ATI als Technologie-Bremse nicht durchsetzen können!

Razor

Gast
2006-04-10, 08:44:46
Flamewar ahoi?


P.S.: habe 7900GT angeklickt... wer mehr Geld hat, kann auch zur X1900 greifen, wer mit ATI zurecht kommt.
(die X1800 ist 'veraltet' und mit den 16 Shadern recht 'dünn' bestückt, verbraucht mir zuviel Saft)
Warum fängst du denn selbst mit dem Flamewar an, Razorle?

Ich könnte auch sagen die 7900 ist technisch hoffnungslos (vorsicht Übertreibung) veraltet, da kein HDR+AA...

Und nun?

PS die Pipelines als Argument zu nehmen ist ja schon peinlich.
Was zählt ist Leistung....

MikBach

PingpiN
2006-04-10, 10:00:46
']Immer diese Legende von Flimmern ... man kann soviel sagen, dass es nicht Flimmert, aber es ist sowieso wie gegen die Wand....

Wer ohne "HQ" - Einstellung spielt ist selber schuld.

Tja da bist du aber einer der wenigen der die schlechtere Bildqualität nicht sieht.Ein auszug aus denn 7600 GT Review von auja.
http://www.au-ja.de/review-msigf7600gt-3.phtml
Betrachtet man die Textur des Gitterbodens, so sind vor allem im oberen Bereich des Screenshots deutliche Vorteile für die Radeon X1600 XT zu erkennen. NVIDIAs GeForce 7600 GT zeigt deutliche Moiréemuster.
Fazit.
Einen Rüffel hat sich NVIDIA hinsichtlich der anisotrophen Filterung verdient: Noch immer werden die Texturen recht grobschlächtig gefiltert, so daß beispielsweise bei sehr spitzen Betrachtungswinkeln die Filterstufe zur Leistungsoptimierung herabgesetzt wird. Das Ergebnis sind verwaschene Texturen, Moiréebildung oder gar das nervige Texturflackern, welches auch im Zusammenspiel mit der sechsten GeForce-Generation bei einigen Spielen auftritt.
Hört sich eindeutich an.Vielleicht solltest du dir einfach mall zum testen ne X1 Karte kaufen vielleicht ändert sich dann deine meinung.ICh bin von einer 6800 auf eine X1800 GTO gewechselt bei CSS hat sich allgemein die Grafikqualität verbessert alles sieht viel schärfer aus.

Winter[Raven]
2006-04-10, 10:07:47
http://www.au-ja.de/bilder/2006/q4-7600gt-tn.jpg

http://www.au-ja.de/bilder/2006/q4-x1600xt-tn.jpg

Aha, nicht mal aus der gleichen Position gemacht die Bilder....

Mumins
2006-04-10, 10:10:06
@Gast:

Könntest Du deine geistigen Ergüsse nicht bitte woanders ablassen... :rolleyes:

Mit der Materie auszukennen scheinst Du dich ja nicht wirklich, wenn Du hier behauptest die 7900GT könne kein HDR+AF. Und daß die X1800XT schnell genug ist für 1.280*1.024 mit 4*AA/8*AF und HDR halte ich ebenfalls für eine recht gewagte Aussage. ;)

Bei FarCry o. SplinterCell dürfte das schon ziemlich eng werden, an Oblivion gar nicht erst zu denken. Läuft das mittlerweile eigentlich mit HDR+AA auf den ATIs?

Was für ein Krampf, mein System läuft in Far Cry mit 1280x960 4AA+8AF Details alle auf Max. mit HDR7 butterweich. Habs gerade mal ausprobiert.

PingpiN
2006-04-10, 10:17:02
Was für ein Krampf, mein System läuft in Far Cry mit 1280x960 4AA+8AF Details alle auf Max. mit HDR7 butterweich. Habs gerade mal ausprobiert.

In 1024/768 alles max HDr-AA 4aa läufts sogar auf einer X1800 GTo flüssig.^^ :tongue:

']http://www.au-ja.de/bilder/2006/q4-7600gt-tn.jpg

http://www.au-ja.de/bilder/2006/q4-x1600xt-tn.jpg

Aha, nicht mal aus der gleichen Position gemacht die Bilder....

Auch wenn es nicht die gleiche position war im Fazit haben die geschrieben das genau das auftritt was auf denn Bildern zusehen ist.

MikBach
2006-04-10, 10:21:17
Wäre es 'fair' 8xS nVidia gegen 6xMSAA ATI zu vergleichen?
Sorry...
Wenn man bei NV annehmbare BQ haben will, solltem man das laut Ulukay (welcher vorher 7800GTX@SLI hatte) tun:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4104898&postcount=72

Und wenn wir uns an die Situation damals R300 vs. NV30 erinnern:
Äpfel und Birnen-Vergleich zulasten nVidia.
(BQ bei nVidia wesentlich besser!)
Keine Frage. NV´s AF war besser. Jedoch war die Shaderperformance der FXen so miserabel, dass man die Karten keinem ernsthaften Gamer empfehlen konnte.

Jetzt schauen wir uns die Situation heute an:
Äpfel und Birnenvergleich zulasten nVidia
(diesmal BQ bei ATI besser!)

Nur hat ATI kein Performanceproblem, wie es NV damals hatte.

PS du warst es doch, der das AF der FX in den Himmel gelobt hat (die schlechte Shaderperformance wurde natürlich unter dcen Tisch gekehrt)...
jetzt ist aber besseres AF kein Argument? *kopfschüttel*

Vertigo
2006-04-10, 10:29:47
...
PS die Pipelines als Argument zu nehmen ist ja schon peinlich.
Was zählt ist Leistung. ...

MikBach
So sieht's aus. Außerdem verfügt auch die 7900GT nur über 16 "durchgängige Pipelines". Aber das spielt auch keine Rolle, denn am Ende zählt nur die Leistung, egal wie diese erreicht wird. Da sind sich beide Karten sehr ähnlich. Die geringere Verlustleistung spräche für die 7900GT, wenn denn ein paar gesparte €uro pro Jahr bei einer 300€ Grafikkarte ein Argument sind. Welcher Referenzkühler nerviger ist, sei einmal dahingestellt. Zum Thema Bildqualität hat Mr.Lolman hier ja eine nette Umfrage laufen, die doch eine ziemlich eindeutige Sprache zugunsten von ATI spricht, was ich aus eigener Erfahrung mit GeForce 6/7 und Radeon X800/X1800 nur bestätigen kann.

MikBach
2006-04-10, 10:30:10
Gottlob hat sich ATI als Technologie-Bremse nicht durchsetzen können!

Razor
Bitte nicht pauschaliesieren Razor.
Mit dem R200 war ATI NV shadertechnisch überlegen, ja selbst die GF4 war einer 8500 technisch unterlegen.
Mal ist der eine vorn, mal der andere. Ist halt wie so oft im Leben...

Gast
2006-04-10, 11:06:42
Keine Frage. NV´s AF war besser. Jedoch war die Shaderperformance der FXen so miserabel, dass man die Karten keinem ernsthaften Gamer empfehlen konnte.



nur war zur FX5800-zeit die FP-performance ungefähr so wichtig wie das fehlen von SM3 in der R4xx-reihe.
texturen hatten die damaligen games aber auch schon ;)

die FX-reihe hatte einen viel größeren nachteil, als die damals unwichtige schaderperformance: RGAA nur mit 2x, da waren sie ATI natürlich weit unterlegen.

Raff
2006-04-10, 18:13:53
Es soll aber auch Leute geben, die ihre Grafikkarte länger als ein halbes Jahr nutzen. ;) Und im Gegensatz zur gesamten FX-Serie sind alle R3x0-Grafikkarten auch heute noch für brauchbare Frameraten zu haben. Die NV3xs ruckeln jenseits von Gut und Böse, auch radikal übertaktet. Mit 700 MHz GPU-Takt wäre die Leistung vielleicht annehmbar.

Das 8xAF der FX-Serie ist aber noch immer ganz oben in der Liga. Nur die R5x0s können dem Verfahren das Wasser reichen. Wirklich erbärmlich, dass man zweieinhalb Jahre darauf warten musste, dass Shaderpower und schickes AF kombiniert werden ...

MfG,
Raff

Razor
2006-04-10, 18:29:59
Was für ein Krampf, mein System läuft in Far Cry mit 1280x960 4AA+8AF Details alle auf Max. mit HDR7 butterweich. Habs gerade mal ausprobiert.
Oblivion "butterweich"?
Das ist purer Unsinn... und das hat nicht einmal was mit Deiner GraKa zu tun.

Es soll aber auch Leute geben, die ihre Grafikkarte länger als ein halbes Jahr nutzen. ;) Und im Gegensatz zur gesamten FX-Serie sind alle R3x0-Grafikkarten auch heute noch für brauchbare Frameraten zu haben. Die NV3xs ruckeln jenseits von Gut und Böse, auch radikal übertaktet. Mit 700 MHz GPU-Takt wäre die Leistung vielleicht annehmbar.
Du erinnerst Dich noch an die Situation damals?
Vielleicht nur ein Stichwort: XBox1-"Desaster" (für Microschrott ;-).
Daraufhin sehr, sehr kurzfristige Änderung der DX9-Specs zu gunsten ATI?

OK, ich will die alten Kamellen nicht wieder aufleben lassen...
...aber zumindest bin ich der Meinung, dass sich nVidia wieder ganz ordentlich 'gefangen' hat.

Schließlich hieß es damals ja, dass es nVidias Ende bedeuten würde, gell?
:D

Das 8xAF der FX-Serie ist aber noch immer ganz oben in der Liga. Nur die R5x0s können dem Verfahren das Wasser reichen. Wirklich erbärmlich, dass man zweieinhalb Jahre darauf warten musste, dass Shaderpower und schickes AF kombiniert werden ...
Zweieinhalb Jahre?
ATI hat noch nie 'vernünftiges' AF zustande gebracht... nVidia bot dies hingegen schon seit gf3.
Und warum nVidia das ändern 'musste', haben wir alle doch hoffentlich nicht auch vergessen, oder?
:confused:

Razor

Raff
2006-04-10, 18:35:33
Warum die FX-Serie nicht so schnell wurde, wie sie geplant war, das spielt für meine Aussage keine Rolle. Ich hätte mir auch schnelle Shader gewünscht, denn dann hätte man schon damals die ideale Kombination aus Leistung und Qualität gehabt. Wobei ... das Samplemuster des 4xMSAA hätte man noch drehen müssen, dann. :)

Die "zweieinhalb Jahre" waren auf neue Karten bezogen. Denn jetzt ist Nvidia wieder dran, das AF optisch aufzupolieren. Und wehe, irgendeiner der beiden Spaßvögel geht wieder runter!

MfG,
Raff

Razor
2006-04-10, 18:38:12
Warum die FX-Serie nicht so schnell wurde, wie sie geplant war, das spielt für meine Aussage keine Rolle. Ich hätte mir auch schnelle Shader gewünscht, denn dann hätte man schon damals die ideale Kombination aus Leistung und Qualität gehabt. Wobei ... das Samplemuster des 4xMSAA hätte man noch drehen müssen, dann. :)

Die "zweieinhalb Jahre" waren auf neue Karten bezogen. Denn jetzt ist Nvidia wieder dran, das AF optisch aufzupolieren. Und wehe, irgendeiner der beiden Spaßvögel geht wieder runter!
Dem ist NICHTS hinzu zu fügen!
:up:

Razor

thade
2006-04-10, 19:17:05
Zweieinhalb Jahre?
ATI hat noch nie 'vernünftiges' AF zustande gebracht... nVidia bot dies hingegen schon seit gf3.
Und warum nVidia das ändern 'musste', haben wir alle doch hoffentlich nicht auch vergessen, oder?
:confused:

So ein Schwachsinn, ATi hatte vllt erst mit dem R520 fast winkelunabhängiges AF, dafür war das winkelabhängie AF der 9700-X800 deutlich flimmerfreier, als das AF ab NV40. G70 hat sowieso den Vogel abgeschossen, Ich hatte den Chip noch mit Flimmertreiber, soll ja jetzt gefixt worden sein, trotzdem hört man immer noch Leute übers Flimmern schimpfen.

Außerdem du lobst NVs AF, das ist ja auch schön und gut, aber bitte sei dann so nett und erzähl den Leuten, dass es NV erst mit dem NV40 geschafft hat, gutes FSAA anzubieten. Das FSAA bis NV40 war der größte Witz ever.

ATi hatte seit dem R300 die beste BQ, denn das deutlich besser FSAA fiel deutlicher ins Auge, als das winkelunabhängige AF. Beides bekommt man mit dem R520, das gabs vorher noch nicht ;(

Coda
2006-04-10, 19:29:36
ATi hatte seit dem R300 die beste BQ, denn das deutlich besser FSAA fiel deutlicher ins Auge, als das winkelunabhängige AF.
Das ist subjektiv, obwohl ich dir zustimmen würde.

Winter[Raven]
2006-04-10, 20:24:53
Außerdem du lobst NVs AF, das ist ja auch schön und gut, aber bitte sei dann so nett und erzähl den Leuten, dass es NV erst mit dem NV40 geschafft hat, gutes FSAA anzubieten. Das FSAA bis NV40 war der größte Witz ever.


Nur weil es nicht gammakorrekt war, soll es schlecht gewesen sein? Ja es gibt leute die das gleichsehen, aber als Witz sollte man es nicht bezeichnen...!

Gast
2006-04-10, 20:28:27
']Nur weil es nicht gammakorrekt war, soll es schlecht gewesen sein? Ja es gibt leute die das gleichsehen, aber als Witz sollte man es nicht bezeichnen...!Er meint wohl, dass es bis NV40 kein 4x RGMSAA gab. Dafür hatte man halt 4xS, was ich selbst heute noch für recht sinnvoll erachte bei schlimmem Content.

MikBach
2006-04-10, 20:29:09
']Nur weil es nicht gammakorrekt war, soll es schlecht gewesen sein? Ja es gibt leute die das gleichsehen, aber als Witz sollte man es nicht bezeichnen...!
Das hat er nicht gemeint.
Er meinte die FX mit 4xOGMSAA.

l@mer
2006-04-10, 20:30:13
Die 7900gt dürfte wohl insgesamt ein bisschen besser sein, wegen den mehr pps.Aber gegen die 512 er variante:NO WAY

Mumins
2006-04-10, 20:31:35
']Nur weil es nicht gammakorrekt war, soll es schlecht gewesen sein? Ja es gibt leute die das gleichsehen, aber als Witz sollte man es nicht bezeichnen...!

Gammakorrigiert gibts ja erst seit G70, also kann er das ned gemeint haben.

Winter[Raven]
2006-04-10, 20:37:09
Gammakorrigiert gibts ja erst seit G70, also kann er das ned gemeint haben.

Nö ... Regestryfix, und dann hast du mit dem NV40 auch GC AA, nur langsamm :biggrin:

thade
2006-04-10, 22:54:24
Kein Ahnung was ihr meint, Ich bin nicht so tief drin in der Materie wie einige andere hier. Das das FSAA schlechter war war als bei R300, ist jedoch Fakt, das war überall nachzulesen.

Ich wollte nur sagen, dass NV erst im Jahre 2004, an die Quali eines 3dfx FSAA rangekommen ist, ATi hat das im Jahre 2002 schon geschafft, mit ihrem 6*MSAA :D , das schnell genug war, um es auch einzusetzen.

Raff
2006-04-10, 23:06:21
Äquivalent ist es nicht, "nur" sehr gut. Erst recht zusammen mit adaptivem SSAA. Dennoch: All diese Versuche sind nur immer bessere Annäherungen an die überragende Qualität vom recht teuren sparse grid Super-Sampling ...

MfG,
Raff

Razor
2006-04-11, 04:28:42
ATi hatte vllt erst mit dem R520 fast winkelunabhängiges AF, dafür war das winkelabhängie AF der 9700-X800 deutlich flimmerfreier, als das AF ab NV40. G70 hat sowieso den Vogel abgeschossen, Ich hatte den Chip noch mit Flimmertreiber, soll ja jetzt gefixt worden sein, trotzdem hört man immer noch Leute übers Flimmern schimpfen.
Du kannst nicht lesen...
Raff hat es (natürlich) verstanden.

Razor