PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 1800 GTO vs. 7600 GT


Gast
2006-05-02, 21:57:30
Hi
Welche der beiden Karten lohnt sich für aktuelle 3d (Oblivion, Spellforce 2)Spiele mehr im Preis/Leistung?
Will nix übertakten!
Danke

Gast
2006-05-02, 21:58:32
Ich würde die 7600GT vorziehen.

AnarchX
2006-05-02, 22:00:12
Lies einfach diesen Test und vergleiche selber:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/
Ich persönlich würde die X1800GTO etwas im Vorteil sehen, nach der letzen Preisenkung existiert nämlich auch nicht mehr das Argument des höheren Preises, gegen die Karte.

Gast
2006-05-02, 22:03:59
AnarchX[/POST]']Lies einfach diesen Test und vergleiche selber:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/
Ich persönlich würde die X1800GTO etwas im Vorteil sehen, nach der letzen Preisenkung existiert nämlich auch nicht mehr das Argument des höheren Preises, gegen die Karte.
Würde auch die 1800GTO empfehlen, allein schon wegen der besseren Bildqualität (AF).

Gast
2006-05-02, 22:04:34
AnarchX[/POST]']Lies einfach diesen Test und vergleiche selber:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/
Ich persönlich würde die X1800GTO etwas im Vorteil sehen, nach der letzen Preisenkung existiert nämlich auch nicht mehr das Argument des höheren Preises, gegen die Karte.
Ich dachte, die Differenz wäre noch immer ~50€?
Ich tendiere generell etwas zu nVidia, weil ich gehört hab:
-Updates+Treiber wären besser bei nVidia
-ATI Karten würden nicht so lange halten
Jedoch: Passt AMD&ATI besser zusammen als Intel&nVidia oder ist das vollkommen egal?

AnarchX
2006-05-02, 22:06:13
Gast[/POST]']Ich dachte, die Differenz wäre noch immer ~50€?


Die Karte wurde von ATI offiziel auf 199€ gesenkt und war schon für knapp über 180€ erhältlich.


Ich tendiere generell etwas zu nVidia, weil ich gehört hab:
-Updates+Treiber wären besser bei nVidia

Nicht wirklich, einzig das CCC ist der große Kritikpunkt bei ATI.
Aber ansonsten nehmen sich beide Hersteller nicht wirklich etwas


-ATI Karten würden nicht so lange halten

Wer bitte erzählt so etwas... :|


Jedoch: Passt AMD&ATI besser zusammen als Intel&nVidia oder ist das vollkommen egal?[[QUOTE]

Absolut egal... ;)

Gast
2006-05-02, 22:08:49
Gast[/POST]']
Ich tendiere generell etwas zu nVidia, weil ich gehört hab:
-Updates+Treiber wären besser bei nVidia
Nö, neue Treiber gibt es bei ATI jeden Monat, bei NV ist das unterschiedlich. Dauert meistens aber deutlich länger.
Es sei denn, man will bei NV Beta-Tester spielen.
Gast[/POST]']
-ATI Karten würden nicht so lange halten
LOL.
Das habe ich ja noch nie gehört...;D
Gast[/POST]']
Jedoch: Passt AMD&ATI besser zusammen als Intel&nVidia oder ist das vollkommen egal?
Ist egal.

Gast
2006-05-02, 22:12:49
Hi!
Kann mir wer sagen, WO es die 1800GTO für knapp über 180€ gibt?
Wär nett!!! Danke

AnarchX
2006-05-02, 22:14:51
Gast[/POST]']Hi!
Kann mir wer sagen, WO es die 1800GTO für knapp über 180€ gibt?
Wär nett!!! Danke

Ist aktuell leider nicht mehr verfügbar:
http://www.geizhals.at/deutschland/a193144.html

Hamster
2006-05-02, 22:15:59
Gast[/POST]']Hi!
Kann mir wer sagen, WO es die 1800GTO für knapp über 180€ gibt?
Wär nett!!! Danke


http://www.geizhals.at/deutschland/a193144.html

€dit: zu spät :usad:

TB1333
2006-05-02, 22:17:41
Das mit der Haltbarkeit stammt bestimmt daher, weil viele 9800Pros die mit einem Silencer ausgestattet waren abgeraucht sind, sowies auch diverse 9600er erwischt hat.
Das ist aber ewig her.
Die Qualität/HAltbarkeit ist bei beiden Herstellern gleich gut.


http://www.geizhals.at/deutschland/a193144.html

€dit: auch zu spät, weil ich wieder so viel schreiben muss :biggrin:

Gast
2006-05-02, 22:20:01
TB1333[/POST]']Das mit der Haltbarkeit stammt bestimmt daher, weil viele 9800Pros die mit einem Silencer ausgestattet waren abgeraucht sind, sowies auch diverse 9600er erwischt hat.
Bei NV sind aber auch überproportional viel 6800er ausgefallen, von den ersten 6600GTs reden wir lieber nicht...;D

AnarchX
2006-05-02, 22:27:57
Gast[/POST]']Bei NV sind aber auch überproportional viel 6800er ausgefallen, von den ersten 6600GTs reden wir lieber nicht...;D

Im Gegensatz zu den Silencer-Vorfällen bei ATI, waren hier aber die Hersteller schuld.
Das sollte man bedenken.

Gast
2006-05-02, 22:51:08
AnarchX[/POST]']Lies einfach diesen Test und vergleiche selber:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/Man sollte aber schon dazu schreiben, dass dieser Test nicht unter vergleichbaren Einstellungen entstanden ist, zum Nachteil der 7600GT.

TB1333
2006-05-02, 22:53:51
Gast[/POST]']Bei NV sind aber auch überproportional viel 6800er ausgefallen, von den ersten 6600GTs reden wir lieber nicht...;D

Ist mir klar, allerdings hatte er gefragt ob das bei ATI (noch) so ist, was ich widerlegen wollte.
Aber schön dass du den Fanboy nochmal auspacken und zurückschlagen konntest :wink:

jtkirk67
2006-05-03, 10:10:49
Gast[/POST]']Ich dachte, die Differenz wäre noch immer ~50€?
Ich tendiere generell etwas zu nVidia, weil ich gehört hab:
-Updates+Treiber wären besser bei nVidia
-ATI Karten würden nicht so lange halten
Jedoch: Passt AMD&ATI besser zusammen als Intel&nVidia oder ist das vollkommen egal?

In Sachen Treiber würde ich eine nvidia-Karte vorziehen, wenn Du vorhast, auch Linux zu nutzen. Dort sind die Treiber doch merklich besser als von ATI. Uunter Windows tun sich die beiden Hersteller imho nicht viel.

Odal
2006-05-03, 10:37:27
also die x1800gto ist schneller... keine Frage...besonders wenn AA zum einsatzb kommt...ist ja auch klar hat ja ein doppelt so breites Speicherinterface...zwar weniger Speichertakt aber wegen ersterem eben doch deutliche vorteile....
Die Treiber unter Windows nehmen sich nicht viel...unter Linux sind die NVidia Treiber besser...aber nur wenn man dort auch spielen will (werden die meisten ja nicht) ansonstn ist die installation der NV Treiber unter linux besser....aber mal ehrlich..wer ernsthaft linux einsetzt der dürfte das auch mit ein paar minuten mehr bei den ATI treibern packen....

ansonsten würde ich derzeit eigentlich immer zu einer ATI Karte greifen...nicht weil ich prinzipiell ATI kaufe (ich springe öfter mal hin und her) nein
1. wegen der besseren BQ
2. wegen HDR+AA (bei NV ist nur HDR möglich aber gleichzeitig kein AA)
3. brechen bei bildverbessernden Massnahmen (AA&AF) nicht so ein wie NV
4. ein ganz wichtiger Punkt ist der xbox 360 bonus...an den gerade erscheinenden PCGames die es auch auf der box gibt sieht man meist deutliche Vorteile für die ATIs.. (FEAR Engine also FEAR Condemned..oder Oblivion) da sich Entwickler eben ATI Karten reingesteckt haben um möglichst ähnliche Hardware wie in der BOX zu haben. Zukünftige Spiele werden davon immer mehr profitieren...öes geht erst los. Ausserdem kommen jetzt viele Spiele heraus die angefangen wurden als NVidia nur die lahme FX Serie zu bieten hatte...ergo steckte man sich ATI Karten rein (davor steckten meist GF4 GF3 rein weil die den ATI Karten überlegen waren)

Wishnu
2006-05-03, 11:15:10
Gast[/POST]']Man sollte aber schon dazu schreiben, dass dieser Test nicht unter vergleichbaren Einstellungen entstanden ist, zum Nachteil der 7600GT.

inwiefern?

PingpiN
2006-05-03, 11:21:00
Die X1800 GTO hat mehr potenzial als die 7600 GT.Stant vor der selben Entscheidung war schon drauf und drann mir ne 7600 GT zu hollen ist aber dann doch ne X1800 GTO geworden.

Die 7600 GT hat nur ein 128 Bit Speicherinterface mit ein bisschen Takterhöhung zieht eine X1800 GTO einer 7600 GT locker davon.!

Gast
2006-05-03, 15:59:32
Wishnu[/POST]']inwiefern?Man hat bei ATI die Treibercheats angelassen, während man sie bei Nvidia-Karten ausgeschaltet hat. Dies führt dazu, dass die ATI-Karten nur "brilinear" filtern, was sie schneller da stehen lässt als sie eigentlich (ohne "Optimierungen") sind, auf Kosten der Bildqualität. Idealerweise sollte man HQ gg. AI-off benchen, was Computerbase leider versäumt hat. So belohnt man ATI auch noch dafür, dass sie Treibercheats mit Bugfixes und sinnvollen Optimierungen zusammen an einen Schalter koppeln.

Dann wurde in Age of Empires 3 in vollkommen unterschiedlichen Einstellungen gebencht. Hierzu ein Zitat von CB selbst:
Allerdings sind jene Modi nicht gleichwertig, da bei nVidia-Grafikkarten hochwertiges FP16-HDR zum Einsatz kommt, während die ATi-Pendants der X1000-Serie nur INT10-HDR liefern. Dementsprechend funktioniert auf den ATi-Karten normales MSAA, bei den nVidia-GPUs wird hingegen ein 1,5xSSAA-Modus benutzt.

Wie geschrieben kommt bei NV "echtes" FP16-HDR-Rendering zum Einsatz, während man auf ATI-Karten nur den FX10-Modus nutzte. Man vergleicht hier einen 64-bit-Framebuffer (bei NV) gegen einen 32-bittigen (bei ATI). Was das für den Bandbreitenbedarf usw. bedeutet, sollte klar sein. Dazu kommt, dass man bei ATI schnelles Multisampling-AA benutzt hat und bei NV äußerst Füllraten-fressendes Supersampling-Antialiasing.

Normalerweise sind die NV-Karten in AoE3 den ATIs haushoch überlegen, wie man auf anderen Seiten sieht, die in vernünftigen Einstellungen gebencht haben. Ich finde es sehr schade, dass Computerbase anscheinend an dieser Testpraxis festhalten will, sonst bin ich eigentlich besseres von denen gewohnt.

Auch die Bildqualität der ATIs in Doom3 und Quake4 sollte man mal genauer unter die Lupe nehmen...

Odal
2006-05-03, 16:07:36
Gast[/POST]']Man hat bei ATI die Treibercheats angelassen, während man sie bei Nvidia-Karten ausgeschaltet hat. Dies führt dazu, dass die ATI-Karten nur "brilinear" filtern, was sie schneller da stehen lässt als sie eigentlich (ohne "Optimierungen") sind, auf Kosten der Bildqualität. Idealerweise sollte man HQ gg. AI-off benchen, was Computerbase leider versäumt hat. So belohnt man ATI auch noch dafür, dass sie Treibercheats mit Bugfixes und sinnvollen Optimierungen zusammen an einen Schalter koppeln.

visuell 100% gleiche einstellungen wird man wohl nie erreichen...aber bei a.i. off wäre NV HQ deutlich schlechter... A.I. low und NV HQ ist immer noch das qualitativ ähnlichste....


Dann wurde in Age of Empires 3 in vollkommen unterschiedlichen Einstellungen gebencht. Hierzu ein Zitat von CB selbst:


Wie geschrieben kommt bei NV "echtes" FP16-HDR-Rendering zum Einsatz, während man auf ATI-Karten nur den FX10-Modus nutzte. Man vergleicht hier einen 64-bit-Framebuffer (bei NV) gegen einen 32-bittigen (bei ATI). Was das für den Bandbreitenbedarf usw. bedeutet, sollte klar sein. Dazu kommt, dass man bei ATI schnelles Multisampling-AA benutzt hat und bei NV äußerst Füllraten-fressendes Supersampling-Antialiasing.

Normalerweise sind die NV-Karten in AoE3 den ATIs haushoch überlegen, wie man auf anderen Seiten sieht, die in vernünftigen Einstellungen gebencht haben. Ich finde es sehr schade, dass Computerbase anscheinend an dieser Testpraxis festhalten will, sonst bin ich eigentlich besseres von denen gewohnt.

Auch die Bildqualität der ATIs in Doom3 und Quake4 sollte man mal genauer unter die Lupe nehmen...

wenn NV nunmal kein AA und HDR unterstützt ausser supersampling AA? wie soll man sonst mit AA testen? Btw: kommt dafür bei HL2 Loast Coast afaik bei den NV AA tests kein AA zum einsatz...eben weil der "echte HDR" modus auf NV KArten kein AA untertüzt.

Gast
2006-05-03, 16:33:50
Odal[/POST]']wenn NV nunmal kein AA und HDR unterstützt ausser supersampling AA? wie soll man sonst mit AA testen? Btw: kommt dafür bei HL2 Loast Coast afaik bei den NV AA tests kein AA zum einsatz...eben weil der "echte HDR" modus auf NV KArten kein AA untertüzt.Ganz einfach: Man hätte ohne HDR-Rendering benchen müssen, da es bei ATI-Karten in AoE3 sowieso kein echtes HDRR gibt, sondern nur diesen FX10-Krams. Es besteht in Aoe3 einfach nicht die Möglichkeit, dass beide Karten das "gleiche" HDRR rendern, also hätte man es weglassen müssen. Aber die NV-Karten echtes HDRR rendern lassen samt Supersampling und die ATI-Karten nur FX10 samt MSAA ist nicht gerade fair.

Zu Lost Toast: Natürlich kommt dort bei NV-Karten MSAA zum Einsatz. Lost Coasts HDRR-Implementierung nutzt kein FP-Blending und so können auch NV-Karten MSAA darstellen.

Odal[/POST]']visuell 100% gleiche einstellungen wird man wohl nie erreichen...aber bei a.i. off wäre NV HQ deutlich schlechter... A.I. low und NV HQ ist immer noch das qualitativ ähnlichste....Nö, ist es nicht. Es gibt mehr als genug Fälle, wo AI-low auf R5x0 deutlich schlechtere Qualität bringt als NV-HQ. Wenn bei beiden winkelabhängig gefiltert wird, wie im CB-Test, ist AI-off mitnichten deutlich besser als HQ, abgesehen von ein paar Rennspielen, die negatives LOD-Bias benutzen, die aber im CB-Test sowieso nicht vorkommen.

Ich bin ja seit kurzem nicht mehr der einzige, der dies bemerkt, wie man an Raffs Thread zu diesem Thema sieht.

Sinnvollere Einstellungen wären eben AI-off gg. HQ (mein Favorit) oder wenn man AI unbedingt anlassen will, schaltet man bei NV auf Q + TriOpt (ohne die Sample-Optimierung die das Flimmern verursacht).

Aber so wie es gemacht wird, belohnt man ATI auch noch dafür, dass sie die Treibercheats an sinnvolle Optimierungen, Bugfixes und die Crossfire-Profile koppeln. Ist es nicht ein wenig pervers, dass man mit einem >1000€-Crossfire-System quasi gezwungen wird mit brilinearer Filterung zu spielen?

ATI ist beileibe nicht die heilige Kuh, wie ihr sie immer darstellt. Die cheaten genauso wie NV auch, mit dem Unterschied, dass man bei NV die Cheats mittlerweile abschalten kann ohne gleich die Vorteile der Gameprofile zu verlieren.

Auch sollte man mal genauer untersuchen wie ATI es geschafft hat den riesengroßen Vorsprung von NV bei Doom3 und Quake4 mit einem simplen neuen Treiber fast aufzuholen. Meine Erfahrungen damit und auch die vieler anderer (auch hier im Forum, Blaire z.b.) zeigen deutlich, dass hier an der Bildqualität gedreht wurde. Man sieht zum Teil deutliches Banding.

PingpiN
2006-05-03, 17:01:07
Lass denn Gast ruich weiter rumspinnen der kanns halt nicht verkraften das ne Ati besser ist.Du versuchst grade hier Müll anzuzettel im anderen X1800 Xt Vs 7900Gt Thread wolltest du die Leute davon auch überzeugen das die Nvidia graka besser ist.Ich habe beweise gebracht das die X1800 XT schneller ist du hast mich darauf hin als Troll bezeichnet das sag schon alles Nvidia Fan Troll du sein.

Ist doch vollkommen Ladde wie die quali bei Domm3 und Quake 4 ist solange die Quali noch besser auf Ati karten ist ist es wie gesagt ladde.
http://www.au-ja.de/review-msigf7600gt-3.phtml
Einen Rüffel hat sich NVIDIA hinsichtlich der anisotrophen Filterung verdient: Noch immer werden die Texturen recht grobschlächtig gefiltert, so daß beispielsweise bei sehr spitzen Betrachtungswinkeln die Filterstufe zur Leistungsoptimierung herabgesetzt wird. Das Ergebnis sind verwaschene Texturen, Moiréebildung oder gar das nervige Texturflackern, welches auch im Zusammenspiel mit der sechsten GeForce-Generation bei einigen Spielen auftritt.
Unterm Strich bewerten wir die MSI NX7600GT-T2D256E mit "Sehr Gut" und hoffen auf leisere Kühler.

So und jetzt aknnst du weiter Trolln du Nvidia troll.

Frank1974
2006-05-03, 17:12:04
Muss hier immer gleich ein Flamewar entstehen :rolleyes:, er wollte wissen welche Karte er sich kaufen soll, und nicht welche Fanboys ihr seid.
Ich würde die GTO nehmen, die 7600GT hat nur ein 128bit Interface, da geht bei höheren Auflösungen+AA schnell die Puste aus, und mit der Bildqualität brauchst dir keine Sorgen zu machen, die ist bei beiden, gleich gut/schlecht :wink:.
Man darf bei NV nur nicht Q eingestellt haben, das ist wirklich der schlechteste Modus, man wird auch in keinem Test gleiche Bedingungen hinbekommen, die Treiber der beiden sind einfach zu verschieden, im Moment jedenfalls, ist so als würde man Äpfel mit Birnen vergleichen.
Wenn du aber zur 7600GT greifen solltest, machst auch nicht viel falsch, beide Karten sind eh nur Mittelklasse wenn überhaupt, da kann man nicht viel erwarten von.

mfg
Frank

Doomi
2006-05-03, 17:19:18
naja die GT kostet lieferbar 170 € der Preis ist auf alle Fälle niedriger als der der GTO mit lieferbaren 200 € .. insgesamt kostet die GTO ein Stück mehr hat im Gegensatz auch ein klein bisschen mehr Leistung

Odal
2006-05-03, 18:29:26
Gast[/POST]']
Zu Lost Toast: Natürlich kommt dort bei NV-Karten MSAA zum Einsatz. Lost Coasts HDRR-Implementierung nutzt kein FP-Blending und so können auch NV-Karten MSAA darstellen.

soweit ich weiss hat HL2 Lost Coast bzw. die source engine 3 (oder warens vier?) verschiedene implementierungen von HDR. Je nachdem welche Karten zum einsatz kommen.


Nö, ist es nicht. Es gibt mehr als genug Fälle, wo AI-low auf R5x0 deutlich schlechtere Qualität bringt als NV-HQ. Wenn bei beiden winkelabhängig gefiltert wird, wie im CB-Test, ist AI-off mitnichten deutlich besser als HQ, abgesehen von ein paar Rennspielen, die negatives LOD-Bias benutzen, die aber im CB-Test sowieso nicht vorkommen.

Was denn alles? Belege...mit Bildbeweisen? Und diese Rennspiele (z.b. GT Legends) wurden hier in einem 3Denter Artikel getestet...nur falls du meinst sie würden die Performance zu gunsten von NV ändern wenn die mitgetestet würden...dort liegen die ATI Karten trotz deutlich besserer BQ sehr weit vorn.


Ich bin ja seit kurzem nicht mehr der einzige, der dies bemerkt, wie man an Raffs Thread zu diesem Thema sieht.

Raff hat einen Thread eröffnet indem er meint das A.I. low nicht immer perfekte BQ bringt und das diese mit A.I. OFF manchmal etwas besser ist... seine Intension war mit nichten die die BQ mit der von NV zu vergleichen...wenn man den thread und Raffs beiträge mal alle lesen würde wäre einem das aufgefallen ;)


Sinnvollere Einstellungen wären eben AI-off gg. HQ (mein Favorit) oder wenn man AI unbedingt anlassen will, schaltet man bei NV auf Q + TriOpt (ohne die Sample-Optimierung die das Flimmern verursacht).

nö da würden die ATI KArten ja deutlich benachteiligt... 1. keine gutartigen Optimierungen und bugfixes (ok das hat ati zu verantworten das sie es nicht getrennt regelbar gemacht haben..aber sie sind eben benachteiligt) und 2. würden die ATI Karten dann bei deutlich besserer BQ als die NV Karten gebencht.



ATI ist beileibe nicht die heilige Kuh, wie ihr sie immer darstellt. Die cheaten genauso wie NV auch, mit dem Unterschied, dass man bei NV die Cheats mittlerweile abschalten kann ohne gleich die Vorteile der Gameprofile zu verlieren.

Na dann liefern NV Karten schon hardwarebedingt nicht so gute BQ...d.h. man kann niemals auf die volle A.I. Off winkelunabhängiges AF BQ der ATI Karten kommen...auch toll oder?


Auch sollte man mal genauer untersuchen wie ATI es geschafft hat den riesengroßen Vorsprung von NV bei Doom3 und Quake4 mit einem simplen neuen Treiber fast aufzuholen. Meine Erfahrungen damit und auch die vieler anderer (auch hier im Forum, Blaire z.b.) zeigen deutlich, dass hier an der Bildqualität gedreht wurde. Man sieht zum Teil deutliches Banding.

Mit Filteroptimierungen bekommt man nicht soviel Mehrleistung....Und komisch das alle anderen OpenGL Spiele auch plötzlich besser laufen...wird wohl daran liegen das sie endlich eine vernünftige performante opengl unterstützung im treiber haben.

Gast
2006-05-03, 18:53:55
Frank1974[/POST]']Muss hier immer gleich ein Flamewar entstehen :rolleyes:, er wollte wissen welche Karte er sich kaufen soll, und nicht welche Fanboys ihr seid.
Ich würde die GTO nehmen, die 7600GT hat nur ein 128bit Interface, da geht bei höheren Auflösungen+AA schnell die Puste aus, und mit der Bildqualität brauchst dir keine Sorgen zu machen, die ist bei beiden, gleich gut/schlecht :wink:.

mfg
Frank
Danke, ich wollte tatsächlich wissen, welche Karte ich mir kaufen soll;-)
Und was das generelle ATI vs. nVidia angeht:
Ich glaub nicht, dass es was bringt, darüber (und speziell in diesem Thread) zu diskutieren! Es gibt immer Argumente, die mal DAFÜR - mal DAFÜR sprechen, da können wir lange diverse Tests aneinander schmeissen, es gibt doch immer die Leute die ATI Fan bleiben und umgekehrt...
Die Karte: Danke für die vielen Rückmeldungen! Letztendlich wirds wohl doch eine finanzielle Frage bleiben, welche ich bei hardwareversand.de billiger kriege, wenn sich auch hier die Gemüter streiten, was besser ist:-)

Gast
2006-05-03, 19:31:26
Odal[/POST]']soweit ich weiss hat HL2 Lost Coast bzw. die source engine 3 (oder warens vier?) verschiedene implementierungen von HDR. Je nachdem welche Karten zum einsatz kommen.Ja, das stimmt (es sind 4 Stück), allerdings wird die Implementierung mit FP-Blending auch bei NV4x/G7x-Karten nicht per default genutzt. Man kann sie maximal durch einen Konsolenbefehl aktivieren, wobei fraglich ist, ob sie einwandfrei funktioniert.

Die Version, die im CB-Test aktiv ist, nutzt HDR-Texturen im FP16-Format (für Karten die FP-Filterung beherrschen, z.b. G70) oder als INT16 (für Karten ohne FP-Filterung, z.b. R5x0). FP-Blending wird nicht genutzt, sodass auch bei einem G70 MSAA verwendet werden kann, was CB auch tut.

Na dann liefern NV Karten schon hardwarebedingt nicht so gute BQ...d.h. man kann niemals auf die volle A.I. Off winkelunabhängiges AF BQ der ATI Karten kommen...auch toll oder?Das stimmt natürlich, dank deutlich stärkerer Winkelabhängigkeit kommt NVs HQ-AF niemals an ATIs "Area AF" bei AI-off ran. Aber das ist wieder eine andere Geschichte, im CB-Test wird "Area-AF" überhaupt nicht genutzt.

Naja, über die Filteroptimierungen kann man lange streiten. Ich bin halt der Meinung, dass HQ vs. AI-low alles andere als die optimale Lösung ist. Aber gibt es diese optimale Lösung überhaupt? Ich denke nicht. Aber imho liegen meine oben geposteten Vorschläge zumindest etwas näher am Optimum.

Mit Filteroptimierungen bekommt man nicht soviel Mehrleistung....Und komisch das alle anderen OpenGL Spiele auch plötzlich besser laufen...wird wohl daran liegen das sie endlich eine vernünftige performante opengl unterstützung im treiber haben.Klar wurde hier deutlich mehr gemacht als nur Filtercheats zu nutzen. Allerdings glaube ich nicht an eine plötzliche "performante OpenGL-Unterstützung im Treiber". Dagegen spricht auch, dass die Leistung mit dem Abschalten von AI massiv absinkt. Aber das müsste man mal näher untersuchen. Fakt ist jedoch, dass man starkes Banding sieht, sowohl in D3, als auch bei Q4.

Gast
2006-05-03, 19:45:04
@pingpin: Halte du dich bitte raus. Mit dir kann man nicht vernünftig diskutieren, was du mal wieder eindrucksvoll bewiesen hast. Das liegt unter anderem daran, dass du einfach keine Ahnung hast, worüber du sprichst.

horn 12
2006-05-03, 19:55:09
hi,
kann man generell sagen dass die X1800 GTO mit Standardausführung für alle derzeit verfügbaren Games für 1024x768 mit 4xAA + 8AF locker :confused: ausreicht oder ist dem nicht so.
und für FARCRY + Oblivion sogar HDR dazugeschaltet werden kann?
Also 2-4 fach AA und HDR inkl. AF.

System wäre A64 3000+ 1,8 Ghz (nicht OC)
1GB Ram und
eben ne neue X1800 GTO !!

Gast
2006-05-03, 19:57:47
Ich kann die Diskussion nicht ganz nachvollziehen.

Die X1800GTO ist in den meisten Punkten einer 7600GT leicht bis deutlich überlegen.
Die 7600GT kostet ca 170 Euro, die X1800 GTO ca. 185 Euro. Das ist der Vorteil der 7600GT.

Wen jemandem die 15 Euro für die gebotene Performance (insgesamt, nicht nur Speed) zu viel sind, dann kann man ihm auch nicht helfen...

Black-Scorpion
2006-05-03, 20:12:58
Gast[/POST]']Klar wurde hier deutlich mehr gemacht als nur Filtercheats zu nutzen. Allerdings glaube ich nicht an eine plötzliche "performante OpenGL-Unterstützung im Treiber". Dagegen spricht auch, dass die Leistung mit dem Abschalten von AI massiv absinkt. Aber das müsste man mal näher untersuchen. Fakt ist jedoch, dass man starkes Banding sieht, sowohl in D3, als auch bei Q4.
Zum Thema D³ verweise ich mal auf einen älteren Beitrag von Demi.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157
Danach sieht es eher so aus das der Vorsprung von nVidia bei D³ eher zu denken geben sollte.

Gast
2006-05-03, 20:14:29
horn 12[/POST]']hi,
kann man generell sagen dass die X1800 GTO mit Standardausführung für alle derzeit verfügbaren Games für 1024x768 mit 4xAA + 8AF locker :confused: ausreicht oder ist dem nicht so.Nein, natürlich geht das nicht. Oblivion wird niemals auf einer x1800gto mit HDRR und 4xAA/8xAF laufen, dafür ist sie viel zu schwach. Auch andere Spiele dürften in diesen Einstellungen ruckeln bei einer x1800gto.

Gast
2006-05-03, 20:19:09
Gast[/POST]']
Nö, ist es nicht. Es gibt mehr als genug Fälle, wo AI-low auf R5x0 deutlich schlechtere Qualität bringt als NV-HQ.
Und es gibt Fälle, wo ATI´s AI-low deutlich besser als NV´s HQ aussieht...
Und jetzt?
Gast[/POST]']
Wenn bei beiden winkelabhängig gefiltert wird, wie im CB-Test, ist AI-off mitnichten deutlich besser als HQ, abgesehen von ein paar Rennspielen, die negatives LOD-Bias benutzen, die aber im CB-Test sowieso nicht vorkommen.
Bei den Spielen, die bei CB getestet werden, ist AI-low aber auch nicht schlechter als NV´s HQ.

Siehst du?
Deine Argumentation kann man ganz einfach umdrehen.
Dabei will ich noch anfügen, dass FarCry mit NV-Karten schlechter aussieht als mit ATI-Karten und das wird getestet. :wink:

NV´S HQ und AI-low sind in den meisten (über 90%) Fällen vergleichbar, deswegen muss man auch so testen.

Gast
2006-05-03, 20:23:39
Anonym_001[/POST]']Zum Thema D³ verweise ich mal auf einen älteren Beitrag von Demi.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157
Danach sieht es eher so aus das der Vorsprung von nVidia bei D³ eher zu denken geben sollte.Da würde mich mal stark interessieren worauf genau Demi hier anspielt.

horn 12
2006-05-03, 20:32:15
Gast[/POST]']Nein, natürlich geht das nicht. Oblivion wird niemals auf einer x1800gto mit HDRR und 4xAA/8xAF laufen, dafür ist sie viel zu schwach. Auch andere Spiele dürften in diesen Einstellungen ruckeln bei einer x1800gto.

mit einer X1800 XT 256MB (Sapphire) würde aber dies sicher gehen, event. sogar 1280x1024 bei den meisten Games, oder dennoch zu schwach auf der BRUST ?
Danke sehr .....
oder sollte es gleich die X1800 512 MB werden für obrige Games?

Gast
2006-05-03, 20:45:41
horn 12[/POST]']mit einer X1800 XT 256MB (Sapphire) würde aber dies sicher gehen, event. sogar 1280x1024 bei den meisten Games, oder dennoch zu schwach auf der BRUST ?
Danke sehr .....
oder sollte es gleich die X1800 512 MB werden für obrige Games?In Far Cry sollte mit einer x1800xt zumindest 4xAA/8xAF mit HDR-Rendering möglich sein. In Oblivion bei maximalen Details mit HDRR eher nicht, da brauchts wohl SLI/Crossfire oder zumindest eine x1900xtx.

Mumins
2006-05-03, 21:42:32
In Far Cry sollte mit einer x1800xt zumindest 4xAA/8xAF mit HDR-Rendering möglich sein.

Funktioniert, sogar mit 16xHQAF

horn 12
2006-05-03, 21:51:31
danke mumins,
aber welche Auflösung nun denn bei Farcry ? 1024 x 768 oder bereits 1280x1024 ?
bei Oblivion wird aber doch die 1024 x 768 mit alles auf Full; + zugleich HDR möglich sein (X1800 XT 256 MB Speicher !! )

Gast
2006-05-03, 21:56:17
horn 12[/POST]']danke mumins,
aber welche Auflösung nun denn bei Farcry ? 1024 x 768 oder bereits 1280x1024 ?
bei Oblivion wird aber doch die 1024 x 768 mit alles auf Full; + zugleich HDR möglich sein (X1800 XT 256 MB Speicher !! )Zu Far Cry: 1280x1024 sollte auf jeden Fall drin sein.

Zu Oblivion: Maximale Details + HDR-Rendering ist auf jeden Fall möglich.

bill
2006-05-04, 03:17:40
Wenn ich mich hier auch mal einbringen darf: Ich habe mir eine 7600gt gekauft, da mich das neue Control Panel im Treiber (CCC) von ATI mit der 9800pro sehr störte. Mir war zwar klar, daß man das deinstallieren kann und dann z.B. die ATT nutzen kann, aber auf solche Tools, auf Tweaken und Übertakten habe ich keine Lust. Letztendlich wurde ich nicht enttäuscht. Die Treibereinstellungen lassen sich deutlich besser bedienen, das Kärtchen ist genauso schnell wie die 1800gto und ATI kann mich mit dem CCC mal kreuzweise. ;-)

Mumins
2006-05-04, 06:51:31
horn 12[/POST]']danke mumins,
aber welche Auflösung nun denn bei Farcry ? 1024 x 768 oder bereits 1280x1024 ?
bei Oblivion wird aber doch die 1024 x 768 mit alles auf Full; + zugleich HDR möglich sein (X1800 XT 256 MB Speicher !! )

In Far Cry gehen 1280x960, allerdings hab ich meine Karte bei 700/800 und 512MB.
Oblivion keine Ahnung, müßte das Game erst mal ausleihen, da ich sowas nicht zocke.

Malachi
2006-05-04, 09:21:31
So, seit gestern liegt hier auch ne 7600GT. Hab sie deshalb genommen, weil sie bei dem Versender, wo der restl. PC Ramsch mitbestellt wurde, um € 40,- günstiger war als die 1800 GTO.
Ein putziges Kärtchen im Vergleich zu den "Boliden" (GTX, XTX). Lustigerweise braucht sie nicht mal nen extra Stromanschluß.
Gut 3000 Punkte im 3D Mark 06 und hervorragende, flimmerfreie Performance in Battlefield 2: 1280x1024, alles bis auf Text. "high", 4xAF, 4xAA und TAA Superampling. Die "optimierungen" im Treiber sind aus. So mag ich das!!
Im 2D kaum zu hören, in 3D etwas zu laut.
Fazit: Feines Kärtchen mit toller Bildqualität für aktuelle Games!

Jasch
2006-05-04, 10:15:21
@Threadstarter ich hab zwar nur ne 1800XL aber @650/685(x1800XT niveau 256MB)
Farcry läuft @max 1200er 4xAAA 16HQAF +HDR bei mir flüssig
Oblivion läuft @max 1200er HDR 2xAA 8AF bei mir "flüssig"(oblivion braucht keine 60FPS)
CS Source + Halflife läuft bei mir 1600er 4xAAA 8HQAF +bloom HDR flüssig(40-60FPS)

ich würds an Hand vom Geld entscheiden(jeder jünger erzählt hier das seine Karte besser sei)

Fakt ist die 7600er ist preiwerter zu bekommen.
Fakt ist die GTO ist schneller(wer das bezweifelt dem ist nicht zu helfen.)

Diese Sagen von schlechten Treibern sind alle mumpitz, Fanboy gelaber.
Die sind alle beide gleich gut bzw schlecht.

Mumins
2006-05-04, 12:01:42
Diese Sagen von schlechten Treibern sind alle mumpitz, Fanboy gelaber.

Ja, so ist es.
Ich frage mich auch was an dem CCC von ATI so störend ist? Nur weil es 5 Sek. dauert bis es lädt? Habt ihr alle keine Geduld oder was ist da sonst störend.

Odal
2006-05-04, 12:41:26
Naja man nennt sowas auch "Urban Legend" mir gefällt das CCC zwar auch nicht, allerdings nur weil ich mit dem ATT noch ein paar Tweaks habe sowie Overclocken kann usw. Das das CCC besser oder schlechter als das NVidia Treiberpanel ist stimmt keinesfalls.

urbi
2006-05-04, 12:52:12
Wie bei vielen aktuellen ATi Karten im Moment: Performancetechnisch nicht 100%ig überzeugend, aber die Qualität ist (angeblich) deutlich besser.

Odal
2006-05-04, 14:04:28
wieso? Die aktuelle ATI X1900XT kostet http://www.geizhals.at/deutschland/a185499.html lieferbar 410€
die aktuelle NV 7900GTX kostet http://www.geizhals.at/deutschland/a193046.html 490€ lieferbar.

die X1900 kann hdr+aa und winkelunabhängiges AF die 7900GTX kann dies nicht

die X1900XT ist fast so schnell wie die 7900GTX.... http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7600_gs/19/#abschnitt_performancerating_qualitaet

zieht man die gleichteure XTX heran kann man praktisch vom Gleichstand bezgl. Performance sprechen (welcher sich wegen der Shaderleistung in Zukunft eher zugunsten der X1900 verschieben dürfte) und das bei besserer BQ (hdr+aa winkelunabhängiges AF und keine Probleme mit negativen LOD)

Wie du zu deiner Aussage kommst versteh ich ehrlich gesagt nicht.

Vertigo
2006-05-04, 14:06:12
urbi[/POST]']Wie bei vielen aktuellen ATi Karten im Moment: Performancetechnisch nicht 100%ig überzeugend, aber die Qualität ist (angeblich) deutlich besser.
Ich berichtige mal:

Wie bei vielen aktuellen ATi Karten im Moment: Performancetechnisch 100%ig überzeugend, aber die Qualität ist teils deutlich besser.

In den jeweiligen Preisklassen nehmen sich die Angebote von nVidia und ATI in punkto Leistung so gut wie gar nichts. Die Bildqualität ist bei ATI aber besser. Meine Meinung und die von 3/4 der Foren-Nutzer hier.

Malachi
2006-05-04, 14:19:36
Heinrich[/POST]']Ich berichtige mal:

Wie bei vielen aktuellen ATi Karten im Moment: Performancetechnisch 100%ig überzeugend, aber die Qualität ist teils deutlich besser.

In den jeweiligen Preisklassen nehmen sich die Angebote von nVidia und ATI in punkto Leistung so gut wie gar nichts. Die Bildqualität ist bei ATI aber besser. Meine Meinung und die von 3/4 der Foren-Nutzer hier.

Tja dann bin ich wohl einer, der die Meinung nicht 100% teilt!
Wo bitte ist die Bildqualität bei ATI besser? Ich will Beispiele sehen!!
Ich habe persönlich tagelang ne X1900XT mit ner 7900GTX verglichen. Beide gut mit Stärken und Schwächen - ich rede jetzt nur von der Bildqualität.

8xS bei nVidia ist saugeil! Da kann 6xAA nicht mithalten. Die Leistung der 7900 GTX reicht aus um z. B. BF2 in 8xS wunderbar zu spielen.
Bis jetzt wurden für die Bildvergleiche im die ollen weißen Straßenstriche von Rennspielen herangezogen.
In vielen Games flimmerts mal hier und dort. Aber dabei spielt es keine Rolle ob im Rechner ne ATI oder ne nVidia steckt.
Momentan kauft man einfach das, was günstiger hergeht. Und da hat ATI eindeutig die Nase vorn. Die X1900XT beispielsweise ist sofort lieferbar für etwas über € 400,-. Für die nächste ATI Generation wünsche ich mir so nen perfekten Kühler wie auf der 7900GTX!

Vertigo
2006-05-04, 14:29:28
malachi266[/POST]']Tja dann bin ich wohl einer, der die Meinung nicht 100% teilt!
Wo bitte ist die Bildqualität bei ATI besser? Ich will Beispiele sehen!!
Ich habe persönlich tagelang ne X1900XT mit ner 7900GTX verglichen. Beide gut mit Stärken und Schwächen - ich rede jetzt nur von der Bildqualität.

8xS bei nVidia ist saugeil! Da kann 6xAA nicht mithalten. Die Leistung der 7900 GTX reicht aus um z. B. BF2 in 8xS wunderbar zu spielen.
Bis jetzt wurden für die Bildvergleiche im die ollen weißen Straßenstriche von Rennspielen herangezogen.
In vielen Games flimmerts mal hier und dort. Aber dabei spielt es keine Rolle ob im Rechner ne ATI oder ne nVidia steckt.
Momentan kauft man einfach das, was günstiger hergeht. Und da hat ATI eindeutig die Nase vorn. Die X1900XT beispielsweise ist sofort lieferbar für etwas über € 400,-. Für die nächste ATI Generation wünsche ich mir so nen perfekten Kühler wie auf der 7900GTX!
Aber das LOD-Flimmern tritt nunmal in allen Spielen auf - je nach Blickwinkel, bei ollen weißen Straßenstrichen in Rennspielen fällt es nur extrem auf, ebenso auf dem virtuellen Fußballrasen.

Odal
2006-05-04, 15:16:45
malachi266[/POST]']
8xS bei nVidia ist saugeil! Da kann 6xAA nicht mithalten. Die Leistung der 7900 GTX reicht aus um z. B. BF2 in 8xS wunderbar zu spielen.

Mal abgesehen das Supersampling AA bei den meisten Spielen (und vorallem kommenden) zu langsam ist kann man Supersampling AA auch mit dem DX Tweaker aktiveren. Ausserdem bleibt der Fakt das du bei HDR Spielen im Regelfall nix AA hast.


Bis jetzt wurden für die Bildvergleiche im die ollen weißen Straßenstriche von Rennspielen herangezogen.
In vielen Games flimmerts mal hier und dort. Aber dabei spielt es keine Rolle ob im Rechner ne ATI oder ne nVidia steckt.

Wenn du es nicht siehst dann schätz dich glücklich :)

Malachi
2006-05-04, 15:23:27
Odal[/POST]']


Wenn du es nicht siehst dann schätz dich glücklich :)

Naja, ich sehe mehr als mir lieb ist.
Aber Du hast schon recht: Unwissenheit ist (manchmal) ein Segen!

Onkel Gott
2006-06-03, 19:47:39
ich hab da noch ne andre frage
was würdet ihr mir mehr empfehlen die 7600gt oda die x1800xt.
MFG Onkel Gott

Onkel Gott
2006-06-03, 20:03:37
Ich hab mal ne frage welche der beiden is denn jetzt besser zum spielen die x1800xt oda die 7600gt.
MFG OnKeL GoTt

hyperterminal
2006-06-03, 20:07:55
AnarchX[/POST]']Wer suchet, der findet... :rolleyes:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=300652&highlight=7600GT+X1800GTO
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=294416&highlight=7600GT+X1800GTO