PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7950GX2 Augenwischerei?


=Floi=
2006-07-29, 23:09:06
Hallo
irgendwie kommt es mir so vor als ob der kunde sich völlig einfach hinter das licht führen lässt, auch hier im forum
für mich ist die 7950 keine einzelne karte sondern eine SLI lösung mit deren vor und vor allem nachteilen


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating
lächerlicherweise setzt auch hier die GX2 die GTX um gute 13% nach unten
völliger schwachsinn in meinen augen und verfälscht so die ganze (non SLI) statistik

ich kann nicht verstehen wie solche notlösungen so gut ankommen und die normalen klasischen karten so ins abseits gestellt werden obwohl diese gut ja teilweise sogr besser sind


MFG
Floi

AnarchX
2006-07-29, 23:12:35
SLI funktioniert halt sehr gut(bringt sein Leistung in nahezu jedem Game, wenn man auch teilweise nachhelfen muss) und lässt sich auch gut bedienen im Gegensatz zu CF.
Deshalb war es Nvidia eben möglich diese Überkarte mit zwei GPUs zu bauen.

Mastermind
2006-07-29, 23:13:51
Was stört dich an der Karte? Begründe doch erst mal deine Vorwürfe!

Coda
2006-07-29, 23:53:26
Es gibt eigentlich keine Spiele die nicht von SLI profitieren können, von daher ist diese Kritik nicht angebracht in dieser Form.

Fast jeder der die Karte kauft wird sich der Problematik bewusst sein.

Thanatos
2006-07-30, 00:04:37
Mastermind[/POST]']Was stört dich an der Karte? Begründe doch erst mal deine Vorwürfe!

Frage ich mich auch. Man braucht kein SLI Board, da die Karte auch ohne läuft. Außerdem hat die gx2 ein gutes P/L Verhältnis.

Eine gx2 kostet etwa 480€ beim billigsten Anbieter, was 80€ teurer ist als eine x1900xtx von Ati, welche aber 20% langsamer ist.

Ich weiß nun wirklich nicht was daran so schlecht ist, da man für 20% mehr Leistung gerne mal mehr als 20% mehr bezahlt, vor allem an der absoluten High End Spitze.

mapel110
2006-07-30, 00:07:50
Thanatos[/POST]']Frage ich mich auch. Man braucht kein SLI Board, da die Karte auch ohne läuft. Außerdem hat die gx2 ein gutes P/L Verhältnis.

Eine gx2 kostet etwa 480€ beim billigsten Anbieter, was 80€ teurer ist als eine x1900xtx von Ati, welche aber 20% langsamer ist.

Ich weiß nun wirklich nicht was daran so schlecht ist, da man für 20% mehr Leistung gerne mal mehr als 20% mehr bezahlt, vor allem an der absoluten High End Spitze.
Ack. Wenn man von den "ATI-Nvidia-Bildqualitätsunterschieden" absieht, ist die Karte sehr interessant.

eXodia
2006-07-30, 00:10:19
Thanatos[/POST]']Frage ich mich auch. Man braucht kein SLI Board, da die Karte auch ohne läuft. Außerdem hat die gx2 ein gutes P/L Verhältnis.

Eine gx2 kostet etwa 480€ beim billigsten Anbieter, was 80€ teurer ist als eine x1900xtx von Ati, welche aber 20% langsamer ist.

Ich weiß nun wirklich nicht was daran so schlecht ist, da man für 20% mehr Leistung gerne mal mehr als 20% mehr bezahlt, vor allem an der absoluten High End Spitze.

Richtig, zumal es noch die 7900GX2 gibt, welche nur ~350€ kostet und im Moment das mit Abstand beste Angebot, in dieser Preisklasse, ist.

Regards

Coda
2006-07-30, 00:13:48
mapel110[/POST]']Wenn man von den "ATI-Nvidia-Bildqualitätsunterschieden" absieht, ist die Karte sehr interessant.
Die imho praktisch nicht vorhanden sind. A.I. flimmert genauso schlimm wie HQ und ohne kannst den Treiber in die Tonne kloppen.

d2kx
2006-07-30, 00:52:14
Hatte noch keine G70, muss aber sagen, dass meine ATI X1900 wirklich flimmert. Sehe das mitlerweile nicht mehr als Nachteil bei nVidia (die IQ).

Aquaschaf
2006-07-30, 00:54:50
Coda[/POST]']Die imho praktisch nicht vorhanden sind. A.I. flimmert genauso schlimm wie HQ und ohne kannst den Treiber in die Tonne kloppen.

Ich habe seitdem ich meine Karte besitze A.I. ausgeschaltet und bis jetzt habe ich nirgendwo Grafikfehler oder schlimme Performance erlitten.

Bassmannxt
2006-07-30, 01:06:25
[X] Ich habe eine dolle Grafikkarte die besser wie alle anderen ist und das muss ich jetzt auch jedem sagen :(


Dem einen fällts auf, dem anderen nicht und miese Leistung kann für manch einen schon ein einbruch von 0,01% sein.


Hier in dem Thread geht es wohl darum das Nvidia eine Dual GPU Karte verkauft diese aber, wenn man sich nur die Daten anschaut als single GPU da steht. ein AMD FX60 hat 2x1mb L2 Cache nicht 2mb........ Finde aber das ganze kann man unter Erbsenzählen einsortieren.

Piffan
2006-07-30, 01:43:04
Coda[/POST]']Die imho praktisch nicht vorhanden sind. A.I. flimmert genauso schlimm wie HQ und ohne kannst den Treiber in die Tonne kloppen.

Ich schalte AI oft aus. Was soll da denn nachteiliges passieren? Habe bisher nichts auffälliges bemerkt. :confused:

seahawk
2006-07-31, 16:47:07
[X] Ich habe eine dolle Grafikkarte die besser wie alle anderen ist und das muss ich jetzt auch jedem sagen :(


Dem einen fällts auf, dem anderen nicht und miese Leistung kann für manch einen schon ein einbruch von 0,01% sein.


Hier in dem Thread geht es wohl darum das Nvidia eine Dual GPU Karte verkauft diese aber, wenn man sich nur die Daten anschaut als single GPU da steht. ein AMD FX60 hat 2x1mb L2 Cache nicht 2mb........ Finde aber das ganze kann man unter Erbsenzählen einsortieren.

Ist aber eine Karte mit 2 GPUs. Oder 2 KArten mit einemr gemeinsamen Steckverbindung. Da man aber kein SLI-Board braucht kann man sie imho ruhig wie eine normale KArte behandeln.

AnarchX
2006-07-31, 16:51:45
Ich schalte AI oft aus. Was soll da denn nachteiliges passieren? Habe bisher nichts auffälliges bemerkt. :confused:

In diesem Fall verzichtest du auf alle Bugfixes und spezielle Optimierungen für Games.

L.ED
2006-07-31, 17:15:04
Nu ja wenn das Tatsächlich mittlerweile so sein soll das zwischen NV G7x & ATI X1x kein Unterschied in der AF Qualität mehr auszumachen?

Täte ich zunächst spontan auf zwischenzeitliches Treiber Faken vermuten wollen? Und dann es wohl doch schon wieder vorbei mit den guten Start Vorsätze auf Seiten der Roten? :(

man, man die sollen doch diese verfluchte Schwanzvergleichs kacke endlich lassen, ob G7x noch so viele FPS vorne liegt währe doch in anbetracht von dafür vergleichsweise Knüppel auf dem kopf AF Grafik (leicht überspitzt ausgedrückt), ein sich sehr ausgleichendes Argument.

mrt
2006-07-31, 17:28:00
Naja das winkelunabhängige AF hat ATI schon noch. Außerdem flimmern dei ATI-Karten schon etwas weniger (ok ist Spiele abhängig).

aths
2006-07-31, 17:54:22
Die imho praktisch nicht vorhanden sind. A.I. flimmert genauso schlimm wie HQ und ohne kannst den Treiber in die Tonne kloppen.Komisch dass es einige gibt, die mit A. I. off ganz gut leben können. Das wäre nicht möglich, wenn man den Treiber mit "A. I. off" in die Tonne kloppen kann.

Außerdem bietet ATI mit dem "Area-AF" abseits vom Flimmern ohnehin die bessere Texturqualität.

dilated
2006-07-31, 18:24:45
Die imho praktisch nicht vorhanden sind. A.I. flimmert genauso schlimm wie HQ und ohne kannst den Treiber in die Tonne kloppen.

ich kann ganz gut ohne a.i, was für ne graka hast du denn ;)

Gast
2006-07-31, 20:20:05
ich kann ganz gut ohne a.i, was für ne graka hast du denn ;)In einem anderen Thread hat er von einer x1800xt gesprochen...

AnarchX
2006-07-31, 20:22:21
Eine genauere Betrachtung von ATIs A.I. wäre doch mal was für einen 3DCenter-Artikel...;)

Gast
2006-07-31, 20:23:03
Eine genauere Betrachtung von ATIs A.I. wäre doch mal was für einen 3DCenter-Artikel...;)Das wäre in der Tat recht interessant.

stav0815
2006-07-31, 20:23:45
In einem anderen Thread hat er von einer x1800xt gesprochen...

evtl. hat der R580 zum R520 noch ein etwas anderen Code erhalten...

Spasstiger
2006-08-01, 22:11:14
Die imho praktisch nicht vorhanden sind. A.I. flimmert genauso schlimm wie HQ und ohne kannst den Treiber in die Tonne kloppen.
Das hab ich auch geglaubt bis ich mal die GeForce 6800 von meinem Bruder eingebaut und Oblivion damit gespielt. Selbst auf High Quality gibt es einige Texturen, die auf der Nvidia-Karte furchtbar flimmern, während diese auf meiner Radeon 9700 keine Spur von Unruhe zeigen (auf beiden Karten war natürlich AF an, sonst wäre dieser Vergleich hinfällig).
Auch in GTA San Andreas sind mir deutliche Unterschiede zugunsten meiner Radeon 9700 aufgefallen.
Aber angesichts des genialen Preis-Leistungsverhältnisses zumindest bei der 7900 GX2 kann man über diese Unzulänglichkeiten hinwegsehen. Und sobald man 8xS-AA aktiviert, ist die BQ klar besser als mit meiner Radeon 9700. Die 7900 GX2 hat auch noch Power für 16xS-AA in den meisten Spielen.

Gast
2006-08-01, 22:17:04
Das hab ich auch geglaubt bis ich mal die GeForce 6800 von meinem Bruder eingebaut und Oblivion damit gespielt. Selbst auf High Quality gibt es einige Texturen, die auf der Nvidia-Karte furchtbar flimmern, während diese auf meiner Radeon 9700 keine Spur von Unruhe zeigen (auf beiden Karten war natürlich AF an, sonst wäre dieser Vergleich hinfällig).
Auch in GTA San Andreas sind mir deutliche Unterschiede zugunsten meiner Radeon 9700 aufgefallen.

Die Radeon9700 kann man aber noch nicht mehr mit R5xx vergleichen. Letztere haben schon deutlich andere Texturfilter und soweit ich weiß wurde auch erst ab der Generation R420/NV40 mit dem Unterfiltern beim AF begonnen.
Und Oblivion ist bei mir mit A.I. Low leider trotzdem nicht drin, da es zwar nicht flimmert, dafür gibt es aber auffällige Bugwellen.

BAGZZlash
2006-08-01, 23:27:39
Auch in GTA San Andreas sind mir deutliche Unterschiede zugunsten meiner Radeon 9700 aufgefallen.
Aber angesichts des genialen Preis-Leistungsverhältnisses zumindest bei der 7900 GX2 kann man über diese Unzulänglichkeiten hinwegsehen. Und sobald man 8xS-AA aktiviert, ist die BQ klar besser als mit meiner Radeon 9700.

Kann ich nur unterschreiben. Hab' GTA SA vorher auf 'ner 9500 non-pro gespielt, jetzt auf 'ner 7900GT. AF ist schlechter, flimmert auch bei allen deaktivierten "Optimierungen", aber mit 8xS sieht's trotzdem super aus. Allerdings ist GTA SA auch das einzige Spiel, wo die Leistung für 8xS reicht, ist ja schließlich auch ein ziemlicher Leistungsfresser. Und nur OGSSAA! *aufreg*

[...]soweit ich weiß wurde auch erst ab der Generation R420/NV40 mit dem Unterfiltern beim AF begonnen.

Nein. Bereits beim R300 (Radeon 9500 (pro)/9700 (pro)) wurde unterfiltert, wenn auch mäßig.

Sandratte
2006-08-01, 23:47:23
oh mann...

ich erinnere mich noch an nen kumpel der sich wunderte wie gut FEAR in den werkseitigen einstellungen auf seiner "ALTEN" 9800 aussah! :)
er hatte da schon auf PS3 umgerüstet!!!
ein ALTER HASE (seit 20 Jahren am Computer) sagt mal zu mir: das ATI schon immer das bessere Bild liefert(e)...wie einst auch 3DFX....!!!

EDIT: habe AI immer OFF

4711
2006-08-01, 23:59:28
Hallo
irgendwie kommt es mir so vor als ob der kunde sich völlig einfach hinter das licht führen lässt, auch hier im forum
für mich ist die 7950 keine einzelne karte sondern eine SLI lösung mit deren vor und vor allem nachteilen


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating
lächerlicherweise setzt auch hier die GX2 die GTX um gute 13% nach unten
völliger schwachsinn in meinen augen und verfälscht so die ganze (non SLI) statistik

ich kann nicht verstehen wie solche notlösungen so gut ankommen und die normalen klasischen karten so ins abseits gestellt werden obwohl diese gut ja teilweise sogr besser sind


MFG
Floi

ich verstehs auch nett...knappe 185.000 AquaMark Pünktchen mit dem pösen Conroe und dank der Power eine 1A Bildqualli....aber was man nicht haben kann war für einige schon immer nix..gelle :smile:

Thanatos
2006-08-02, 00:42:49
ein ALTER HASE (seit 20 Jahren am Computer) sagt mal zu mir: das ATI schon immer das bessere Bild liefert(e)...wie einst auch 3DFX....!!!

EDIT: habe AI immer OFF

He he, dann weiß er wohl nicht, das ATI erst mit dieser Optimierungsscheiße angefangen hat. :usad:

Gasthaus
2006-08-02, 00:44:36
Aber angesichts des genialen Preis-Leistungsverhältnisses zumindest bei der 7900 GX2 kann man über diese Unzulänglichkeiten hinwegsehen. Und sobald man 8xS-AA aktiviert, ist die BQ klar besser als mit meiner Radeon 9700. Die 7900 GX2 hat auch noch Power für 16xS-AA in den meisten Spielen.

Sehr richtig.Sobald Supersampling ins Spiel kommt wird alles schärfer,die Kantenglättung ist eher Nebensache für mich.SonicHeroes in der 1280er und 8xS bietet eine Texturschärfe,selbst bei flachstem Winkel,die selten vorkommt.
Die MipMap-Ebenen sind auch nicht erkennbar.Und bei soviel Grafikleistung würde ich soviel SSAA zuschalten das es knallt vor Schärfe und die 1600er Res.endlich mal Details in der Ferne bietet.

Was mich an der Karte bissl nervt,dort sind doch auch"nur"zwei GT-Chips verbaut,richtig?350Euro für die 7900GX2 sind ja wirklich toll,doch 480 fürs gleiche nur kürzer nicht so prickelnd.Zwei GTX mit 900MHz Speicher wären eher das was ich erwartet hätte.

Eine Frage hätte ich noch,wie aktiviere ich per RivaTuner auf meinem NV40 echtes 4fachSupersampling?Sehe da nur max.16x und 8xS.

Thanatos
2006-08-02, 02:34:21
atuner ;)

Gast
2006-08-02, 03:07:45
Ehrlich gesagt, finde ich, das die GX2 eines der besten Produkte in letzter Zeit ist. Power satt und nicht mal teuer.

Multi-GPU Karten wären vom technischen Standpunkt sogar wünschenswert, wenn da die SLI Misere nicht wäre, die leider noch viel zu viel von der Leistung kaputt macht.

Allerdings zeigt bereits die GX2, was möglich ist und dabei verbraucht sie kaum mehr Strom als die Konkurrenz.

Sie hätten allerdings noch mehr Optimierungsarbeit leisten müssen.
Ich denke die Bauart hat Zukunft, denn statt einen sehr hoch getakteten Chip mit hoher Spannung zu verbauen, der übrigens schwer zu kühlen ist, kann man auch gleich zwei kleinere verbauen, mit verringerter Spannung (spart extrem viel Strom) und leiseren Lüftern. So kann es dann schonmal dazu kommen, das zwei GPUs weniger Strom verbrauchen, aber trotzdem leistungstähiger sind als eine. Zumindest im High End Markt scheint es problemslos möglich.

Was mir noch nicht gefällt, sind die zwei Platinen... und das die RAM Bausteine jeweils zweimal vorhanden sind.
Wäre es nicht möglich, sofern beide GPUs auf der gleichen Platine sind, einen 768 oder 1024 MB shared VRAM einzubauen, bei denen sich jede Karte das nimmt, was sie benötigt?

AnarchX
2006-08-02, 09:15:48
Was mir noch nicht gefällt, sind die zwei Platinen... und das die RAM Bausteine jeweils zweimal vorhanden sind.
Wäre es nicht möglich, sofern beide GPUs auf der gleichen Platine sind, einen 768 oder 1024 MB shared VRAM einzubauen, bei denen sich jede Karte das nimmt, was sie benötigt?

Da kann man gleich jeder GPU 1GB VRAM zur Seite stellen, da es einfach zu teuer wäre.

Gast
2006-08-02, 15:17:33
während diese auf meiner Radeon 9700 keine Spur von Unruhe zeigen (auf beiden Karten war natürlich AF an, sonst wäre dieser Vergleich hinfällig).Die Bri-Sauerein kamen ja auch erst mit R420. Bei der 9700/9800 war auch mit AI-low alles noch halbwegs in Ordnung. Lies mal Raffs Thread, der ist afair von einer 9800pro auf einen R520 umgestiegen.

Gasthaus
2006-08-03, 03:13:38
Thanatos[/POST]']atuner ;)

THX,hab noch ziemlich viel Luft für 4SSAA bei Sonic*freu*und SSAA hab ich nie erlebt*nochmehrfreu*

tombman
2006-08-03, 03:16:22
Hehe, alles so typisch, Floi hat den thread begonnen und hat sich seitdem nicht mehr gemeldet...

Banshee18
2006-08-03, 03:29:38
Gast[/POST]']Wäre es nicht möglich, sofern beide GPUs auf der gleichen Platine sind, einen 768 oder 1024 MB shared VRAM einzubauen, bei denen sich jede Karte das nimmt, was sie benötigt?
Beide Karten haben das selbe Zeug im Speicher, weshalb auch beide Karten gleich viel Ram benötigen/auslasten.
Nützlich wäre das höchstens bei Spielen, die total CPU limitiert sind (z.B. Warcraft 3 :biggrin: ) und bei denen man SLI besser deaktivieren sollte, da es mehr Leistung kostet als es bringt. Brauchen solche Spiele so viel VRam? Nein ->unnötig
Gast[/POST]']Die Bri-Sauerein kamen ja auch erst mit R420. Bei der 9700/9800 war auch mit AI-low alles noch halbwegs in Ordnung. Lies mal Raffs Thread, der ist afair von einer 9800pro auf einen R520 umgestiegen.
Der RV360 hat auch schon "brilinear" gefiltert.

Gast
2006-08-03, 03:57:58
AnarchX[/POST]']Da kann man gleich jeder GPU 1GB VRAM zur Seite stellen, da es einfach zu teuer wäre.

Als Käufer ist mir egal, wie teuer deren Herstellung ist...

Ich kann mir beim besten Willen nicht vorstellen, das die Produktion mehr als ein Bruchteil des Verkaufspreises (>500 Euro) kostet.

Banshee18[/POST]']Beide Karten haben das selbe Zeug im Speicher, weshalb auch beide Karten gleich viel Ram benötigen/auslasten.

Nee, genau da liegt doch der Vorteil von einem gemeinsamen Speicher. Jede GPU hätte Zugriff auf die Daten des anderen und es müssten keine Texturen doppelt gelagert werden -> effizientere Speichernutzung.

Zumal sich dadurch auch der Stromverbrauch weiter verringern ließe, da statt zwei Platinen mit jeweils eigenem Speicher (und Verwaltungsaufwand), nur noch eine im Einsatz sein müsste.

Es wurde ja immer gesagt, das es bei Grafikkarten leichter wäre zu paralellisieren... warum haben dann die angeblich so schwer paralellisierbaren CPUs dieses schon, die Grafikkarten jedoch nicht?

Banshee18
2006-08-03, 04:34:42
Gast[/POST]']Nee, genau da liegt doch der Vorteil von einem gemeinsamen Speicher. Jede GPU hätte Zugriff auf die Daten des anderen und es müssten keine Texturen doppelt gelagert werden -> effizientere Speichernutzung.
Ich bin grad verwirrt/verunsichert und mache mir ernsthaft Gedanken über mein Wissen über die Funktionsweise von SLI bzw. AFR.:redface:
Bei AFR berechnen doch beide Karten abwechselnd jeweils ein frame, richtig?
Während eine GPU ein frame berechnet, wäre die andere GPU ja arbeitslos, da sie ja erst beim nächsten frame dran ist. Somit wäre AFR aber sinnlos, da eine Karte genauso schnell wäre.
Das ist aber nicht so wegen Prerendering, d.h., dass die zweite Karte das nächste Bild spekulativ schon im Voraus berechnet. Wie kann AFR dann überhaupt effizient sein? Dass beide GPUs das gleiche Zeugs im Speicher haben müssen, wäre dann ja falsch?!? €: eigentlich nur nicht 100% effizient
Wenn das mit dem Prerendering so stimmt, wäre ja klar, warum beide Karten ihren eigenen Speicher brauchen, oder?

Du hast gerade große Lücken bei mir aufgedeckt, über die ich mir so noch nie Gedanken gemacht habe. Vielleicht stehe ich aber auch nur auf dem Schlauch und morgen sieht die Welt schon ganz anders aus. Wir werden es sehen.=)
Ich geh jetzt erst mal schlafen, ich merke gerade, dass ich es nötig habe.

n8=)

Gast
2006-08-03, 04:54:37
Ja, irgendeine arbeitsteilung gibt es da auf jeden Fall (ob nun frameaufteilung, pixel oder zeilenaufteilung, werden uns die Experten sicher erklären).

Allerdings kann ich mir durchaus vorstellen, das trotzdem gewisse Texturen mehrmals im VRAM lagern, denn bei den meisten Games die ich kenne, sehen die Texturen an vielen Stellen gleich aus. Ich denke schon, das es da Überschneidungen gibt, wodurch 2x512 MB ineffizienter wären (ist bei CPUs auch so).

Außerdem habe ich das Gefühl, das einige Games auch Texturen im Vram "bunkern", selbst wenn sie gerade nicht benötigt werden. Denn sonst könnte ich mir erklären, warum es keine frameinbruch gibt, wenn der vram voll ist.

DerRob
2006-08-03, 08:50:56
Banshee18[/POST]']Bei AFR berechnen doch beide Karten abwechselnd jeweils ein frame, richtig?
Während eine GPU ein frame berechnet, wäre die andere GPU ja arbeitslos, da sie ja erst beim nächsten frame dran ist. Somit wäre AFR aber sinnlos, da eine Karte genauso schnell wäre.
Das ist aber nicht so wegen Prerendering, d.h., dass die zweite Karte das nächste Bild spekulativ schon im Voraus berechnet. Wie kann AFR dann überhaupt effizient sein? Dass beide GPUs das gleiche Zeugs im Speicher haben müssen, wäre dann ja falsch?!? €: eigentlich nur nicht 100% effizient
Wenn das mit dem Prerendering so stimmt, wäre ja klar, warum beide Karten ihren eigenen Speicher brauchen, oder?
ich denke, es ist genau andersrum: die 2. karte berechnet das nächste bild nicht im voraus, sondern die erste karte hängt etwas hinterher. die erste karte bekommt ihre daten fürs nächste bild und legt mit dem bildaufbau los. wenn etwa 50% fertig sind, bekommt die 2. karte die daten für das nächste bild und fängt ihrerseits an. und wenn die erste karte fertig ist, und mit dem nächsten bild loslegt, ist die 2. karte grad bei ihrem bild zu 50% fertig. die bilder werden also wie beim reißverschluss abwechselnd von beiden karten ausgegeben. das einzig "störende" dadran wäre ein "lag" von einem halben frame, da das nächste frame nicht erst in auftrag gegeben wird, wenn das aktuelle fertig ist, sondern während es noch berechnet wird. aber nen halbes frame zusätzlicher verzögerung sollte ab 20-25 fps wohl eh nicht mehr wahrnehmbar sein.

4711
2006-08-03, 09:41:13
"Was mich an der Karte bissl nervt,dort sind doch auch"nur"zwei GT-Chips verbaut,richtig?350Euro für die 7900GX2 sind ja wirklich toll,do"

Die Karte ist sowas von OC Freundlich...und wird dabei kaum wärmer..nur ohne Conroe oder einem extrem OC A64 macht das sowieso absolut keinen Sinn.

Gast
2006-08-03, 09:53:51
es ist sinnvoll, wenn man in höheren auflösungen als diesen lächerlichen 1280x1024 spielt.

AnarchX
2006-08-03, 10:16:26
Gast[/POST]']es ist sinnvoll, wenn man in höheren auflösungen als diesen lächerlichen 1280x1024 spielt.

... oder 16xS bzw. 8xS AA einsetzt.;)

4711
2006-08-03, 10:45:27
Gast[/POST]']es ist sinnvoll, wenn man in höheren auflösungen als diesen lächerlichen 1280x1024 spielt.
nein bringt garnix das oc mit ner langsamen CPU

Piffan
2006-08-03, 11:06:05
4711[/POST]']nein bringt garnix das oc mit ner langsamen CPU

Öh, ich tue mal so, als ob ich den Satz verstehen würde. Also: Bei einem Spiel, dass die Graka stark fordert, bringt OC eines lahmen Prozessors in der Tat wenig bis nix.
Dagegen findet man bei den Qualitätseinstellungen (Auflösung, AA und AF) immer einen Weg, seine Investition zu rechtfertigen. :biggrin:

Oder es geht darum, schlechten Content durch Supersampling glatt zu bügeln. :|

4711
2006-08-03, 11:12:54
ich tue jetzt mal so das ich das verstanden habe... :smile:

=Floi=
2006-08-03, 18:44:23
@tombman
nicht posten heisst nicht lesen
habe noch 5-6 andere mehrseitige threads gelesen und kann auch nicht den ganzen tag surfen...

Thanatos
2006-08-03, 19:58:39
Als Käufer ist mir egal, wie teuer deren Herstellung ist...

Ich kann mir beim besten Willen nicht vorstellen, das die Produktion mehr als ein Bruchteil des Verkaufspreises (>500 Euro) kostet.

Und dir ist es wahrscheinlich auch egal, dass der Hersteller höher Fertigungskosten natürlich auf den Kunden bawälzt.

Die Produktionskosten in diesem Sektor sind wahrlich nicht besonders hoch. Aber die Entwicklungskosten umso mehr. ;)

Die Halbleiterbranche ist übrigens die branche, welche die teuersten Herstellungskosten hat, zumindest nach unserem Technologieunterricht.

tombman
2006-08-04, 05:00:34
@tombman
nicht posten heisst nicht lesen
Fehlt da nicht ein "nicht"? ;)

mika
2006-08-05, 18:31:10
Hi,
ich finde die 7950GX2 absolut hammer, dafür das ich kein SLI haben kann
ist das eine verdammt gute Lösung,
letztendlich ist es ja auch kein SLI sondern Multi-GPU, genau so wie die DualCore Prozis,
da sagt man ja auch net "ich habe 2 Prozessoren" ;)
nur mit dem unterschied das NV dazu 2 PCBs brauch,
Leistung stimmt und Games nur noch mit hohen AA und AF Filtern :)
In verbindung mit einem Conny ist die Karte der reine Wahnsinn :D
bin überweltigt, sihe sig ;)
gruss
mika

Super Grobi
2006-08-05, 18:36:10
Hi,
ich finde die 7950GX2 absolut hammer, dafür das ich kein SLI haben kann
ist das eine verdammt gute Lösung,
letztendlich ist es ja auch kein SLI sondern Multi-GPU, genau so wie die DualCore Prozis,
da sagt man ja auch net "ich habe 2 Prozessoren" ;)
nur mit dem unterschied das NV dazu 2 PCBs brauch,
Leistung stimmt und Games nur noch mit hohen AA und AF Filtern :)
In verbindung mit einem Conny ist die Karte der reine Wahnsinn :D
bin überweltigt, sihe sig ;)
gruss
mika

Was für ein Quatsch erzählst du den da? Es ist eine Karte mit SLI onboard. Nur weil NV in den Treibern was geändert hat, kannste dir jetzt das SLI Board sparen. Nicht mehr und nicht weniger. ICH finde die Leistung nicht so prikelnt.

SG

p.s.
mit einer 7900gtx oder X1900xt kannste auch alles auf hohen AA und AF spielen

Banshee18
2006-08-05, 18:48:50
ICH finde die Leistung nicht so prikelnd.

SG

p.s.
mit einer 7900gtx oder X1900xt kannste auch alles auf hohen AA und AF spielen
Wieso das denn? Die legt doch im Vergleich zur X1900XT(X) nochmal ordentlich zu und die 7900GX2 kostet sogar kaum mehr.
Bei einigen Spielen würde ich mich schon sehr über die Mehrleistung freuen, z.B. Fear, CoD2, Titan Quest...

Metalmaniac
2006-08-05, 19:27:59
Was für ein Quatsch erzählst du den da? Es ist eine Karte mit SLI onboard. Nur weil NV in den Treibern was geändert hat, kannste dir jetzt das SLI Board sparen. Nicht mehr und nicht weniger. ICH finde die Leistung nicht so prikelnt.

SG

p.s.
mit einer 7900gtx oder X1900xt kannste auch alles auf hohen AA und AF spielen

Sorry, aber der einzige der Quatsch von sich gibt bist scheinbar Du. Abgesehen davon, daß es sowas von egal ist, wie diese Lösung genannt werden sollte, nennt sie nVidia selber Multi-GPU im Treiber. Ich zitiere mal den ersten Teil der 3D-Einstellungen im 91.33er:
Ihre Grafikkarten sind mit der Multi-GPU-Technologie ausgestattet. Bei entsprechender Aktivierung ermöglicht Ihnen dies den Gebrauch von zwei oder mehr Grafikkarten, was wesentliche Verbesserungen in der Rendering-Leistung und Bildqualität zur Folge hat.

Es ist wie immer, kommt etwas neues performantes oder innovatives auf den Markt, gibt es meist grundlos sofort ein paar Nöhler, die bekannte Tatsachen (wie Benchmarkergebnisse) verfälschen oder sogar gleich verleugnen bzw. immer div. Haare in der Suppe finden, und sei es nur die Bezeichnung des Produktes, weswegen etwas nicht o.k. ist oder sein kann. Manchmal frage ich mich, ist das der Neid auf die, die diese Hardware besitzen oder Verärgerung darüber, daß man sich erst kurz vorher vermeintlich schlechtere Hardware fürs gleiche Geld gekauft hat oder was auch immer. Und dies schreibe ich nicht, weil ich zufällig selbst eine habe, ist das erste Mal, daß ich das aktuell performanteste in einem Bereich gekauft habe (den Luxus wollte ich mir einmal gönnen, sonst tue ich dies mit Sicherheit nicht;) ). Habe mich schon mehrfach hier im Forum darüber aufgeregt. Nichts gegen berechtigte Kritik, aber sie sollte fundiert sein und nicht auf an den Haaren herbeigezogenen Argumenten basieren. Hier hat nVidia mal was vernünftiges zustande gebracht weshalb man nicht sehr viel gute Gründe haben kann, Kritik daran zu üben, zumindest nicht in der Form wie hier vorgebracht. Wenn sie reihenweise kaputt gehen würden, ok, aber dies scheint, wenn überhaupt, eher die 7900er Reihe der GX2 zu betreffen, zumal dann die G71er-Serie allgemein in dieser Beziehung ein klein wenig Probleme hat, aber nicht die 7950 im speziellen.

AnarchX
2006-08-05, 19:29:40
Was für ein Quatsch erzählst du den da? Es ist eine Karte mit SLI onboard. Nur weil NV in den Treibern was geändert hat, kannste dir jetzt das SLI Board sparen. Nicht mehr und nicht weniger. ICH finde die Leistung nicht so prikelnt.

SG

p.s.
mit einer 7900gtx oder X1900xt kannste auch alles auf hohen AA und AF spielen

Du lässt nur die Preis/Leistung ausser acht und diese ist bei der 7950GX2 für Highend ungeschlagen...:wink:
Wer clever war hat zu einer 7900GX2 gegriffen, die spielt schon in der Preis/Leistung-Liga einer 7600GS, was kaum noch zu überbieten ist.

Gast
2006-08-05, 22:04:04
Hehe, alles so typisch, Floi hat den thread begonnen und hat sich seitdem nicht mehr gemeldet...

Wozu sollte man sich den noch melden? Das ist ein einziger flame hin flame her thread geworden. Es geht sofort los oh ati hat seit der generation und dem treiber keine gute quali mehr, blah blah blah...!

Ich glaube das einfach gewisse leute es nicht einsehen können das ati die besser grafikquali liefert bei sehr guter performance.
Wenn euch die grafik mit der nv besser gefällt in euren eigenen augen okey, dann isses halt so. Holt euch keine ati und das wars.
Aber jedesmal drauf zu bestehen das nv die gleiche oder gar bessere grafikquali liefert ist ja wohl ein bissl hirnrissig.

Ich halte die 7950gx2 für augenwischerrei und das ist auch so für den normalo user der 1280x1024 spielt mit ein bissl aa+af. Da könnte man auch gleich eine 7900gt nutzen und das würde völlig ausreichen. Aber viele werden getäuscht weil sie glauben das sie mit einer gx2 viiiiel bessere performance hätten als eine single karte die ja nun wirklich nur was in hohen auflösungen mit sehr hohen aa+af was nützt.
Und es ist wohl wirklich eine taktik die aufgeht von nv's seite her weil viele darauf reinfallen und sich sollche karten holen. Aber jedem das seine und jeder soll damit dann selber klar kommen.

mapel110
2006-08-05, 22:13:38
So eine Karte bringt nicht nur bei AA und AF mehr, sondern auch bei künftigen Games. Gerade jetzt in der Vorweihnachtszeit werden sicher wieder einige hochkarätige, grafiklastige Spiele erscheinen.

Mr. Lolman
2006-08-05, 22:32:10
Genauso könnte man mit der Dynamic Branching Leistung bei den Radeons argumentieren. Und da ist selbst ne X1800GT ner 7950GX2 deutlich überlegen...

mapel110
2006-08-05, 22:37:20
Genauso könnte man mit der Dynamic Branching Leistung bei den Radeons argumentieren. Und da ist selbst ne X1800GT ner 7950GX2 deutlich überlegen...
dynamic branching (im Pixelshader obendrein nur) ist ja wohl ein winziger Vorteil im Vergleich zum Rest, den es noch gibt.

-höhere Performance beim Rest von SM3 (GX2 gegen x1900), vorallem wenns für AA und AF nicht mehr reicht
-Speicherbandbreite

AnarchX
2006-08-05, 22:38:29
Genauso könnte man mit der Dynamic Branching Leistung bei den Radeons argumentieren. Und da ist selbst ne X1800GT ner 7950GX2 deutlich überlegen...

Du willst doch nicht etwa die Leistung, die eine 7950GX2 bietet und auch noch bieten wird, mit einem Feature vergleiche dass wohl kaum eingesetzt werden wird, da einfach zu viel NV-Karten auf dem Markt sind und es sich so die Entwickler nicht erlauben könnne, einzusetzen.:wink:

Super-S
2006-08-05, 22:43:25
Genauso könnte man mit der Dynamic Branching Leistung bei den Radeons argumentieren. Und da ist selbst ne X1800GT ner 7950GX2 deutlich überlegen...

Was kann mann unter "Dynamic Branching" verstehen?

mapel110
2006-08-05, 22:46:13
Was kann mann unter "Dynamic Branching" verstehen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=295569&highlight=Dynamic+Branching
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=272687&highlight=Dynamic+Branching

Mr. Lolman
2006-08-05, 22:48:57
dynamic branching (im Pixelshader obendrein nur) ist ja wohl ein winziger Vorteil im Vergleich zum Rest, den es noch gibt.

-höhere Performance beim Rest von SM3 (GX2 gegen x1900), vorallem wenns für AA und AF nicht mehr reicht
-Speicherbandbreite

Ich schätz mal, dass die aktuelle ATi Generation vom dynamic Branching noch profitieren können wird. Allein schon bei div. Bumpmapping Effekten lassen aktuelle Engines die GraKas tw. viel zu viel ackern.

Und als optionales Feature sollte das ja auch nicht allzu schwer zu implementieren sein...

AnarchX
2006-08-05, 22:54:08
Was kann mann unter "Dynamic Branching" verstehen?

Sprünge im Shadercode, wodurch man Performance gewinnt.

Super-S
2006-08-05, 23:11:27
Sprünge im Shadercode, wodurch man Performance gewinnt.

Danke! ...auch dir Loli :) ,für die Threads.

Banshee18
2006-08-06, 02:21:30
Ich halte die 7950gx2 für augenwischerrei und das ist auch so für den normalo user der 1280x1024 spielt mit ein bissl aa+af. Da könnte man auch gleich eine 7900gt nutzen und das würde völlig ausreichen. Aber viele werden getäuscht weil sie glauben das sie mit einer gx2 viiiiel bessere performance hätten als eine single karte die ja nun wirklich nur was in hohen auflösungen mit sehr hohen aa+af was nützt.
Und es ist wohl wirklich eine taktik die aufgeht von nv's seite her weil viele darauf reinfallen und sich sollche karten holen. Aber jedem das seine und jeder soll damit dann selber klar kommen.
Wie Mapel schon gesagt hat, hat man mit einer GX2 auch bei später erscheinenden Titeln, die mehr Grafikpower benötigen, einen Vorteil. Auch heutige einige heutige Spiele laufen schon in 1280x1024 mit 4xAA und 8xAF nicht mehr flüssig bzw nahe an der Grenze wie z.B. Fear, CoD2 und Titan Quest.
Schau dir mal Benchmarks einer GX2 an. Man hat damit in vielen Spielen eine viiiiiiel bessere Performance.
Außerdem braucht sie nichteinmal mehr Strom als eine X1900XT(X) und kostet nicht viel mehr. Was spricht also noch für eine einzelne Karte wie die X1900XT(X)? Ein besserer anisotroper Filter, den viele nichteinmal sehen und die Möglichkeit, HDRR und AA gleichzeitig zu nutzen, was bisher nur in Oblivion geht (mit Abstrichen auch in Far Cry, was aber einige Bugs mit sich bringt). Wie lange gibt es den R5x0 schon? Besserung ist nicht in Sicht.
Nachdem ich eine Geforce 6800 hatte, ist die X1900XT in Sachen AF ein Segen und auch in Oblivion hätte ich nur ungerne auf AA und HDRR verzichtet, dennoch würde ich eine 7900GX2 bevorzugen.=)

MfG
Banshee

L.ED
2006-08-06, 03:08:46
Und dafür dann wieder auf ein gutes AF Vermögen Verzichten?

Ne, bei aller liebe, mit dem G7x hat sich Nvidia im Nachhinein für so manchen ins Bein geschossen, so das sie absolut keine Option.

SLI Lösungen und somit auch eine solche Karte (welche hier Thema), schreien ja geradezu und Aktuell danach, nach Qualitäts- Features (diese dann auch zu setzen/akkurat haben zu wollen)

Und mir geht schon stellenweise der NV4x dahingehend Tierisch ab und an auf die Augen, wenn mal wieder ein in Hardware Bedingter Textur Flimmer -><- wischie waschie Samba hier und ma da dann beginnt. ^^ Und da täte ich niemals auf die Idee kommen mir eine dahingehend noch Unvermögenderen GFX Technologie in den Rechner zu setzen oder halt von einer Vermögenderen Hardware darauf um/zurück zusteigen?

Aber so setzt eben jeder seine Prioritäten.

Rente
2006-08-06, 10:23:25
Und dafür dann wieder auf ein gutes AF Vermögen Verzichten?

Ne, bei aller liebe, mit dem G7x hat sich Nvidia im Nachhinein für so manchen ins Bein geschossen, so das sie absolut keine Option.

SLI Lösungen und somit auch eine solche Karte (welche hier Thema), schreien ja geradezu und Aktuell danach, nach Qualitäts- Features (diese dann auch zu setzen/akkurat haben zu wollen)

Und mir geht schon stellenweise der NV4x dahingehend Tierisch ab und an auf die Augen, wenn mal wieder ein in Hardware Bedingter Textur Flimmer -><- wischie waschie Samba hier und ma da dann beginnt. ^^ Und da täte ich niemals auf die Idee kommen mir eine dahingehend noch Unvermögenderen GFX Technologie in den Rechner zu setzen oder halt von einer Vermögenderen Hardware darauf um/zurück zusteigen?

Aber so setzt eben jeder seine Prioritäten.
Das Problem lässt sich ja bei der GX2 interessanterweise mit 8 oder 16xS lösen. Klar ist das ein extremer Weg, nur bietet ATi keine vergleichbaren Möglichkeiten an, vorallem dürfte die GX2 bei 8xS meistens trotzdem mit X1900XT mithalten können.
Einzig das fast winkelunabhängige AF ist selbst mit Super-Sampling nicht zu erreichen...

robobimbo
2006-08-06, 10:30:20
Mal ne doofe Frage:

Ab welcher Prozessorpoer (Intel / AMD) lohnt sich denn eine 7950GX2 wirklich. Ich denk mal den Kopf sollte man sich erst darüber zerbrechen wenn man auch wirklich eine Highend CPU im Einsatz hat, oder? :)

lg

robo

Rente
2006-08-06, 10:38:10
Mal ne doofe Frage:

Ab welcher Prozessorpoer (Intel / AMD) lohnt sich denn eine 7950GX2 wirklich. Ich denk mal den Kopf sollte man sich erst darüber zerbrechen wenn man auch wirklich eine Highend CPU im Einsatz hat, oder? :)

lg

robo
Es gibt keine doofen Fragen. ;)

Es hängt davon ab mit welchen Qualitätseinstellungen und in welcher Auflösung du spielst. Wenn du schwer Grafiklimitiert spielst reicht teilweise schon ein 3000+.
Empfehlenswert wären allerdings Intel E6300 und größer bzw. AMD A64 3500+/3700+/X2 3800+/X2 4200+, je mehr umso besser ist es natürlich. Da sich diese Prozessoren mehr oder weniger gut übertakten lassen kommt man meistens mit den "kleineren" Modellen günstiger.

derMeister
2006-08-06, 12:44:45
So eine Karte bringt nicht nur bei AA und AF mehr, sondern auch bei künftigen Games. Gerade jetzt in der Vorweihnachtszeit werden sicher wieder einige hochkarätige, grafiklastige Spiele erscheinen.

den Satz fortsetz

wo eine GX2 auch nicht weiter kann :wink:
Wenn sie bei Spielen heute gut mitzieht, siehts in der "Zukunft" nicht automatisch genausogut aus. Ich bin mal gespannt, wie es mit Crysis und UT2k4 aussehen wird auf einer GX2. Unbestreitbar ist, dass bei hohen Auflösungen plus Quali die GX2 auftrumpfen tut, kann ein CF Gepann aber auch, wenns auch mehr € kostet. Zwei 1800xt lassen sich ja mittlerweile ohne masterkarte betreiben.
Und bei den Preisen für eine x1800xt kann man sich das schon überlegen.

Gast
2006-08-06, 12:52:44
Unbestreitbar ist, dass bei hohen Auflösungen plus Quali die GX2 auftrumpfen tut, kann ein CF Gepann aber auch, wenns auch mehr € kostet. Zwei 1800xt lassen sich ja mittlerweile ohne masterkarte betreiben.
Und bei den Preisen für eine x1800xt kann man sich das schon überlegen.Crossfire ist in der Praxis aber leider unbrauchbar, da es einfach zu viele Einschränkungen gibt. Allein die Tatsache, dass man keine Profile erstellen kann gibt CF den Todesstoß. Ist halt eine schnelle Frickellösung, um NV den Ultra-High-End-Markt nicht alleine zu überlassen.

Allerdings kann ich mir gut vorstellen, dass CF in Zukunft mal eine ernsthafte Konkurrenz zu SLI wird. Den ersten Schritt ging ATI ja schon, indem sie die Multi-GPU-Logik beim RV570 in den Chip integriert haben. Jetzt müssen sie nur noch die Profile freigeben und die anderen Bugs/Einschränkungen beseitigen.

btw, du schreibst, dass man die x1800xt auch ohne Masterkarte im CF verwenden kann. Performt das nicht grauenhaft, wenn alles über den PCIe muss? Ist ja wohl nicht ohne Grund so, dass man für die High-End-Lösungen immer noch auf Masterkarten mit Compositing-Engine zurückgreift.

Metalmaniac
2006-08-06, 15:10:23
Hier hat mal jemand aus einem anderen Forum ein paar Tests absolviert:
http://www.forumdeluxx.de/forum/showpost.php?p=4133180&postcount=1938
Finde die Ergebnisse schon durchaus beeindruckend. Zumal das noch scheinbar ohne qualitätsverbessernde Einstellungen durchgeführt wurde, wo der Vorsprung laut den Tests der div. Hardwarepublikationen erst richtig augenscheinlich wird. Finde vor allem "Fear" erstaunlich, welches doch arg performancefressend sein soll. Demnach können doch wohl die Spiele zumindest der nahen Zukunft (womit ich die erscheinenden dieses Jahres noch alle meine ;) ) bestimmt nicht zu Ruckelorgien auf dieser Karte mutieren. Und um auf die Highlights des kommenden Jahres zu kommen: Crysis sollte wohl im DX9-Modus absolut perfekt auf dieser Karte laufen (DX10 kann sie nunmal nicht) und auch UT2k7 wird bestimmt keine Probs machen. Ist sowieso alles Spekulation, aber ich glaube dennoch, daß sie auf Sicht erstmal genug Power haben sollte.

Palpatin
2006-08-06, 15:11:35
Der für mich entscheidende multimonitor Support ist bisher immer noch bei den single NV Karten am besten. Bei SLI CF ist er gar nicht vorhanden und mit single ATI Karte hat ich auch so meine Probs bzw vieles ging nicht was bei NV ohne Probs funktioniert.

Gast
2006-08-06, 15:43:25
Sprünge im Shadercode, wodurch man Performance gewinnt.
Dyn. Branching hat auch andere Anwendungen außer reine Performanceoptimierung.

Gast
2006-08-06, 20:54:28
Wie Mapel schon gesagt hat, hat man mit einer GX2 auch bei später erscheinenden Titeln, die mehr Grafikpower benötigen, einen Vorteil. Auch heutige einige heutige Spiele laufen schon in 1280x1024 mit 4xAA und 8xAF nicht mehr flüssig bzw nahe an der Grenze wie z.B. Fear, CoD2 und Titan Quest.
Schau dir mal Benchmarks einer GX2 an. Man hat damit in vielen Spielen eine viiiiiiel bessere Performance.
Außerdem braucht sie nichteinmal mehr Strom als eine X1900XT(X) und kostet nicht viel mehr. Was spricht also noch für eine einzelne Karte wie die X1900XT(X)? Ein besserer anisotroper Filter, den viele nichteinmal sehen und die Möglichkeit, HDRR und AA gleichzeitig zu nutzen, was bisher nur in Oblivion geht (mit Abstrichen auch in Far Cry, was aber einige Bugs mit sich bringt). Wie lange gibt es den R5x0 schon? Besserung ist nicht in Sicht.
Nachdem ich eine Geforce 6800 hatte, ist die X1900XT in Sachen AF ein Segen und auch in Oblivion hätte ich nur ungerne auf AA und HDRR verzichtet, dennoch würde ich eine 7900GX2 bevorzugen.=)

MfG
Banshee

Ich weiss nicht ob du schonmal eine 7900gtx z.B. in aktion gesehen hast und ganz abgesehen von der performance beider karten sieht das bild auf der nv grotten schlecht aus selbst ohne aa+af. Auf bildern kann man vieles garnicht erst sehen was man in aktion sieht wenn man sich bewegt und alles flimmert wie als würden die kanten tango tanzen. Die farben usw. sieht auch auf einer ati besser aus.
Ich habe nach einer woche die nv wieder verkauft und lieber meine x1900xtx behalten, obwohl ich ein 7900gtx sli gespann hatte. Selbst wenn man alle optimierungen abstellt die je nach spiel wirklich sehr dann in die performance gehen, sieht das bild schlechter aus als auf einer radeon.

Wenn man entsprechende karten selber noch nicht besessen hat sollte man sich vielleicht bei manchen sachen zurückhalten, aber seine meinung äußern;).

Ich habe zwei baugleiche tft's nebeneinander gestellt mit zwei verschiedenen system (eines gehörte meinem bruder) und dann erst habe ich richtig den unterschied in der optik gesehen und ich würde nichtmal meine radeon gegen eine karte von nv tauschen die vier chips drauf hat.
Was nützt mir performance wenn es zu ungunsten der qualität geht? Mir reicht es wenn ich ein spiel spiele was mit 30-70 fps läuft (je nach game) und ich muss dort keine 100 fps stehen haben um dann mir eine runter zu holen.
Ich glaube kaum das ein spiel dieses jahr noch rauskommt was mein system zum ruckeln bringen wird in den von mir gespielten einstellungen und wenn es nächtes jahr soweit ist hole ich mir wieder die aktuelle radeon und so einfach isses für mich.

ATI liefert momentan sehr gute bildquali mit sehr guter leistung und das reicht mir in jeder hinsicht. Die die sich an den benchmarks der spiele aufgeilen und eh kaum zocken, sondern nur am benchen sind, den kann natürlich wiederrum die bildquali egal sein. Und sollche leute sollen sich halt eine gx2 kaufen und sich freuen das sie hohe punkte haben.

Jo und ausserdem schaue ich mir die benchmarks gerade an und was wird meistens getestet, doom3, quake 4, riddick spiele die eh auf einer nv besser laufen als auf einer radeon, weil sie total auf nv karten optimiert wurden die engines. Bei spielen die neutral sind ist der performance unterschied garnicht mal so groß, aber der thread heisst ja nicht zu unrecht "7950GX2 Augenwischerei".

aths
2006-08-06, 21:12:56
Dyn. Branching hat auch andere Anwendungen außer reine Performanceoptimierung.Eigentlich nicht, außer vielleicht noch die Programmlänge zu verkleinern.

shining65
2006-08-06, 21:23:17
Leute bleibt auf dem Teppich.

Ich hatte (bis auf meinen Amiga 1200) schon immer Nvidia-Graka´s. Vielleicht hol ich mir nächstes Jahr auch noch die neue ATI mit RD600, aber warten wir es mal ab. Bis letzte Woche hatte ich noch eine 6800Ultra, nicht der Brüller aber das war o.k. Und ich kann nicht behaupten, das sie schlechte Bildquali abliefert, kann mich aber zu ATI nicht äußern.

Persönlich finde ich nicht, das die GX2 Augenwischerei ist, wir sind hoffentlich alle alt genug, selbst über unser Kaufverhalten entscheiden zu können. Aber, ein gewisser "Hype" ist da, das liegt an dieser verdammten Weg-Werf-Gesellschaft.

Wenn ich mir das Preis-/Leistungsverhältnis der GX2 anschaue (z.B. Asus EN7900GTX 429,00 € / ATI AX1900XTX 469,00 € EN7950GX2 539,00 €), finde ich das sie ganz gut da steht (meine 6800Ultra hatt letztes Jahr 499,00 € gekostet :ulol2:

Und außerdem: ATI denkt ebenfalls über eine Multi-GPU-Karte nach.

Also: kriegt euch bitte wieder ein.

Greez*
Shining

P.S.: ich spiele überwiegend in der Auflösung 1920x1200 mit allen möglichen Details.

=Floi=
2006-08-06, 21:31:04
der SLI support mag ja sehr gut bis gut sein
ich setzte ja schon eine zeit lang auf nv treiber :D ;)

bei oblivion hat man aber gesehen wie ein schlecht programmiertes spiel im sli performen kann und hier ist eben meine angst begründet
was ist wenn nicht SLI im einsatz ist?
dann gammelt ein core sinnlos rum!

bein einem chip habe ich einfach problemlos 100% der power anliegen egal wie die umstände sind...
auch muß ich bei 1gb ram die 2. 512mb mitzahlen obwohl ich sie praktisch nicht wirklich nützen kann (zumal es wieder nur ein marketingfake ist damit schön 1gb steht )

bin noch immer skeptisch und hoffe dass es davon keinen nachfolger geben wird
MFG
Floi

AnarchX
2006-08-06, 21:32:52
der SLI support mag ja sehr gut bis gut sein
ich setzte ja schon eine zeit lang auf nv treiber :D ;)

bei oblivion hat man aber gesehen wie ein schlecht programmiertes spiel im sli performen kann und hier ist eben meine angst begründet
was ist wenn nicht SLI im einsatz ist?
dann gammelt ein core sinnlos rum!


Dann schaltet man es eben per eigenem Profil ein...:wink:
Ich glaube dein Kentnisstand zu SLI ist nicht sehr gut.

Spasstiger
2006-08-06, 21:42:24
bei oblivion hat man aber gesehen wie ein schlecht programmiertes spiel im sli performen kann und hier ist eben meine angst begründet
Oblivion profitiert sogar sehr gut von Quad-SLI. Alles eine Frage der Grafiksettings und der getesteten Szene. In 2560x1600 mit HDR-Rendering bei vollen Details ist man in den Wäldern jedenfalls froh, wenn man ein Quad-SLI-System sein eigen nennt.

Metalmaniac
2006-08-06, 22:38:30
Ich weiss nicht ob du schonmal eine 7900gtx z.B. in aktion gesehen hast und ganz abgesehen von der performance beider karten sieht das bild auf der nv grotten schlecht aus selbst ohne aa+af. Auf bildern kann man vieles garnicht erst sehen was man in aktion sieht wenn man sich bewegt und alles flimmert wie als würden die kanten tango tanzen. Die farben usw. sieht auch auf einer ati besser aus.
Ich habe nach einer woche die nv wieder verkauft und lieber meine x1900xtx behalten, obwohl ich ein 7900gtx sli gespann hatte. Selbst wenn man alle optimierungen abstellt die je nach spiel wirklich sehr dann in die performance gehen, sieht das bild schlechter aus als auf einer radeon.

Wenn man entsprechende karten selber noch nicht besessen hat sollte man sich vielleicht bei manchen sachen zurückhalten, aber seine meinung äußern;).

Ich habe zwei baugleiche tft's nebeneinander gestellt mit zwei verschiedenen system (eines gehörte meinem bruder) und dann erst habe ich richtig den unterschied in der optik gesehen und ich würde nichtmal meine radeon gegen eine karte von nv tauschen die vier chips drauf hat.
Was nützt mir performance wenn es zu ungunsten der qualität geht? Mir reicht es wenn ich ein spiel spiele was mit 30-70 fps läuft (je nach game) und ich muss dort keine 100 fps stehen haben um dann mir eine runter zu holen.
Ich glaube kaum das ein spiel dieses jahr noch rauskommt was mein system zum ruckeln bringen wird in den von mir gespielten einstellungen und wenn es nächtes jahr soweit ist hole ich mir wieder die aktuelle radeon und so einfach isses für mich.

ATI liefert momentan sehr gute bildquali mit sehr guter leistung und das reicht mir in jeder hinsicht. Die die sich an den benchmarks der spiele aufgeilen und eh kaum zocken, sondern nur am benchen sind, den kann natürlich wiederrum die bildquali egal sein. Und sollche leute sollen sich halt eine gx2 kaufen und sich freuen das sie hohe punkte haben.

Jo und ausserdem schaue ich mir die benchmarks gerade an und was wird meistens getestet, doom3, quake 4, riddick spiele die eh auf einer nv besser laufen als auf einer radeon, weil sie total auf nv karten optimiert wurden die engines. Bei spielen die neutral sind ist der performance unterschied garnicht mal so groß, aber der thread heisst ja nicht zu unrecht "7950GX2 Augenwischerei".

Schön, daß ist Deine Meinung. Gibt aber genug Leute auch hier, die ebenfalls beide Seiten in Aktion gesehen und eine differenziertere Meinung darüber haben. Da gibt es sogar welche dabei, die nur wenig bis überhaupt keine Vorteile mehr für die Bildquali der ATIs sehen. Vielleicht sind diese Menschen aber auch blind, jedenfalls werden sie dahingehend dann von den die-hard ATI-Fans beleidigt. Andere behaupten aber auch, man müßte nur alles richtig einstellen im Treiber oder über Tweaks, dann würde es auch mit der Bildqualität bei den nVidias klappen. Ich schätze, die Wahrheit liegt in der Mitte, ATI wird wohl die etwas besseren bzw. schöneren Bilder auf die Monitore dieser Welt zaubern, aber das sollte nur als Argument gelten, wenn die Konkurrenz in etwa gleich aufgestellt ist was Leistungsfähigkeit und/oder Preis angeht. Deshalb kann man sicherlich über eine Kaufentscheidung zwischen X1900XT(X) und einer 7950GX2 diskutieren, aber die 7900GX2 hat einfach zuviele Plus-Argumente auf ihrer Seite angesichts ihres Preises.

tokugawa
2006-08-07, 00:17:56
Ich besitze eine Radeon X1900 XT und eine X1600 Pro AGP, sowie eine GeForce FX5900XT (in einem System das bald abgemustert wird) und in meinem Laptop eine GeForce Go 6600.

Aus direkter Erfahrung behaupte ich einmal, dass sich die beiden in Sachen Bildqualität nicht wahnsinnig viel nehmen. Klar, ATI hat einen definitiven Vorteil, aber so ein Riesenvorsprung wie einige es immer behaupten ist es nicht. NVIDIAs Bildqualität ist nicht perfekt, aber genießbar (mit den richtigen Einstellungen).

Es gibt halt immer Vorteile und Nachteile, ist ja nicht so als ob die ATI-Karten komplett ohne Makel wären.

Ich hab mir zumindest die X1900 XT gekauft (weil im Preisbereich um die 320 Euro bei 512MB-Karten auf NVIDIA-Seite nur die 7900 GT 512 angeboten wurde und die in Österreich praktisch nicht verfügbar ist), war erstmal begeistert von der Leistung, und hab dann ebenfalls einige (zugegebenermaßen etwas entwicklerlastige) Nachteile nach und nach festgestellt, dass ich fast so weit war, sie gegen eine NVIDIA zu tauschen.

(jetzt hab ich mich dazu entschlossen, beim nächsten System-Upgrade von meinem anderen System dann dort eine NVIDIA zu verbauen und somit wieder zwei Systeme mit Grafikkarten des jeweils anderen Herstellers zu besitzen)

Die 7900GX2 wäre damals bei der Entscheidung für 360 Euro sicher auch interessant gewesen, allerdings wird die Verfügbarkeit wohl in Österreich gegen 0 tendieren... schade.

Banshee18
2006-08-07, 01:04:37
Ich weiss nicht ob du schonmal eine 7900gtx z.B. in aktion gesehen hast und ganz abgesehen von der performance beider karten sieht das bild auf der nv grotten schlecht aus selbst ohne aa+af. Auf bildern kann man vieles garnicht erst sehen was man in aktion sieht wenn man sich bewegt und alles flimmert wie als würden die kanten tango tanzen. Die farben usw. sieht auch auf einer ati besser aus.
Ich habe nach einer woche die nv wieder verkauft und lieber meine x1900xtx behalten, obwohl ich ein 7900gtx sli gespann hatte. Selbst wenn man alle optimierungen abstellt die je nach spiel wirklich sehr dann in die performance gehen, sieht das bild schlechter aus als auf einer radeon.

Wenn man entsprechende karten selber noch nicht besessen hat sollte man sich vielleicht bei manchen sachen zurückhalten, aber seine meinung äußern;).

Ich habe zwei baugleiche tft's nebeneinander gestellt mit zwei verschiedenen system (eines gehörte meinem bruder) und dann erst habe ich richtig den unterschied in der optik gesehen und ich würde nichtmal meine radeon gegen eine karte von nv tauschen die vier chips drauf hat.
Was nützt mir performance wenn es zu ungunsten der qualität geht? Mir reicht es wenn ich ein spiel spiele was mit 30-70 fps läuft (je nach game) und ich muss dort keine 100 fps stehen haben um dann mir eine runter zu holen.
Ich glaube kaum das ein spiel dieses jahr noch rauskommt was mein system zum ruckeln bringen wird in den von mir gespielten einstellungen und wenn es nächtes jahr soweit ist hole ich mir wieder die aktuelle radeon und so einfach isses für mich.

ATI liefert momentan sehr gute bildquali mit sehr guter leistung und das reicht mir in jeder hinsicht. Die die sich an den benchmarks der spiele aufgeilen und eh kaum zocken, sondern nur am benchen sind, den kann natürlich wiederrum die bildquali egal sein. Und sollche leute sollen sich halt eine gx2 kaufen und sich freuen das sie hohe punkte haben.

Jo und ausserdem schaue ich mir die benchmarks gerade an und was wird meistens getestet, doom3, quake 4, riddick spiele die eh auf einer nv besser laufen als auf einer radeon, weil sie total auf nv karten optimiert wurden die engines. Bei spielen die neutral sind ist der performance unterschied garnicht mal so groß, aber der thread heisst ja nicht zu unrecht "7950GX2 Augenwischerei".
Ich darf bei einem Kumpel öfter mal eine 7800GT bewundern und meine vorherige 6800 bot ja auch eine sehr ähnliche Bildqualität.
Schau dir doch mal bei Computerbase die Benchmarks an. Abgesehen von Oblivion und Spellforce 2 liegt die 7950GX2 in allen Spielen sogar schon in 1280x1024, 4xAA, 16xAF recht deutlich vorne. In einigen Spielen würde ich mich sehr über das Performanceplus freuen.
Ich stehe auch auf gute Bildqualität, aber man kann halt leider nicht alles haben und muss bereit sein, Kompromisse einzugehen. Fear ist z.B. auf meiner X1900XT bei meinen Ansprüchen höchstens mit 1152x864, 4xAA, 16xAF spielbar, mit einer GX2 sollte 1600x1200 drin sein. Was glaubst du, was mir lieber ist?;) Bei diesem Spiel ist die Bildqualität sogar ziemlich identisch. Zugegeben, der Vergleich ist nicht ganz fair, da es in Fear kaum ungünstige Winkel für das AF der GX2 gibt, aber wenn ich statt in 1152x864 in 1600x1200 spielen kann, nehme ich die stärkere Winkelabhängigkeit (zähneknirschend) in Kauf.
Jeder hat da halt eine andere Sicht der Dinge, aber macht ja nix. Stell dir mal vor, jeder würde nur Grafikkarten von z.B. NV kaufen, dann wäre ATI bald pleite.;)

Die 7900GTX hingegen wäre für mich absolut keine Option, da sie wenig bis garnicht schneller ist als eine X1900XTX und eine schlechtere Bildqualität bietet.

derMeister
2006-08-07, 01:05:46
Crossfire ist in der Praxis aber leider unbrauchbar, da es einfach zu viele Einschränkungen gibt. Allein die Tatsache, dass man keine Profile erstellen kann gibt CF den Todesstoß. Ist halt eine schnelle Frickellösung, um NV den Ultra-High-End-Markt nicht alleine zu überlassen.
Also für mich ist was unbrauchbar, wenns in der Tonne landet.
Wozu brauch ich Profile??? Einstellungen nehm ich im Spielmenü vor, wichtige Grundeinstellungen im Treibermenü, Wat für Profile???
Oblivion profitiert sogar sehr gut von Quad-SLI. Alles eine Frage der Grafiksettings und der getesteten Szene. In 2560x1600 mit HDR-Rendering bei vollen Details ist man in den Wäldern jedenfalls froh, wenn man ein Quad-SLI-System sein eigen nennt.
2560x1600?? mal eben den 60" Moni rauskram ^^

Banshee18
2006-08-07, 01:33:00
Also für mich ist was unbrauchbar, wenns in der Tonne landet.
Wozu brauch ich Profile??? Einstellungen nehm ich im Spielmenü vor, wichtige Grundeinstellungen im Treibermenü, Wat für Profile???
Profile, wie man sie bei SLI z.B. mit dem nHancer einrichten kann (AFR, AFR2, die ganzen SLI-Bits).

2560x1600?? mal eben den 60" Moni rauskram ^^
30" reichen.;) Hier im Forum gibts ein paar, die sowas haben.

Gast
2006-08-07, 01:49:37
Schön, daß ist Deine Meinung. Gibt aber genug Leute auch hier, die ebenfalls beide Seiten in Aktion gesehen und eine differenziertere Meinung darüber haben. Da gibt es sogar welche dabei, die nur wenig bis überhaupt keine Vorteile mehr für die Bildquali der ATIs sehen. Vielleicht sind diese Menschen aber auch blind, jedenfalls werden sie dahingehend dann von den die-hard ATI-Fans beleidigt. Andere behaupten aber auch, man müßte nur alles richtig einstellen im Treiber oder über Tweaks, dann würde es auch mit der Bildqualität bei den nVidias klappen. Ich schätze, die Wahrheit liegt in der Mitte, ATI wird wohl die etwas besseren bzw. schöneren Bilder auf die Monitore dieser Welt zaubern, aber das sollte nur als Argument gelten, wenn die Konkurrenz in etwa gleich aufgestellt ist was Leistungsfähigkeit und/oder Preis angeht. Deshalb kann man sicherlich über eine Kaufentscheidung zwischen X1900XT(X) und einer 7950GX2 diskutieren, aber die 7900GX2 hat einfach zuviele Plus-Argumente auf ihrer Seite angesichts ihres Preises.

Hmmm ich weiss nicht ob man blind ist wenn man den unterschied nicht sieht der zwischen den beiden karten herrscht. Ich muss wohl nach deiner these einfach nur verdummt sein und alles durch meine rosa rote ATI brille falsch sehen.

Es stimmt nv hat die bessere bildqualität ich sehe es jetzt auch und vorallem werde ich geil wenn ich 7k punkte habe im 3dmark06 yeahhh. Es ist einfach nur geil!!

Bloß nix gegen nv sagen sonst kommen die pösen männer in grün und dann wird man blind.

Wie sagt doch ein sprichwort, Wie du mir so ich dir!

So würde es euch wohl am besten gefallen, aber dem ist nicht so und entweder akzeptiert ihr meine meinung oder eben nicht.
Wenn ihr meint die welt sehe durch eure grüne nv brille besser aus, dann sage ich okey habt viel spass dabei.
Ich habe weder was gegen ATI noch gegen NV, aber das bessere bild liefert für mich klar die ATI und deshalb würde ich mir keine NV schon kaufen.

Wenn ich bei der nächsten NV generation sehe sie liefern das bessere bild, dann sind sie wiederrum gekauft. Es kommt für mich nicht auf die performance an die ja zugegebener maßen besser ist auf eine gx2 als auf einer x1900xtx, aber was anderes habe ich davor auch nicht gesagt. Das bild gefällt mir einfach nicht der NV karte, selbst im 2d sieht das bild blasser aus und da ist es egal was ich rumfummle in dem treiber einstellungen.

Das kann man wohl gut mit den leuten vergleichen für die 25 fps net flüssig ist, sondern sie brauchen 70 fps und erst dann ist das spiel für sie flüssig und der andere sagt 25 fps sind flüssig für mich und reichen.

Für mich ist die geschichte ganz klar und da ich alles mit 1280x1024 6xaa16xaf zocken kann ist die ganze sache für mich i.O.! Wenn der tag irgentwann nächstes jahr kommt das die spiele nicht mehr mit der von mir bevorzugten einstellungen laufen, dann kommt halt eine neue karte von ATI oder NV rein. Und es wird eine sein die das bessere bild liefert. Aber ich glaube nicht das es je wieder NV sein wird, weil sie diese taktik ja jetzt länger benutzen. Mehr performance statt bildquali haubtsache in den benches überall vorne, heisst die devise von NV momentan und das ist absolut nicht mein ding.

tokugawa
2006-08-07, 03:54:23
@Gast: beruhig dich erst mal, du wirfst den Leuten einiges vor was sie in der Form niemals gesagt haben!

Erstens hat niemand behauptet dass NVIDIA die bessere Bildqualität hat. Dieses Attribut geht zur Zeit an ATI.

Doch es ging darum dass der Unterschied keineswegs so gravierend ist (mal abgesehen davon dass manchmal andere Faktoren für einen persönlich wichtiger sind). NVIDIA nur deswegen zu Schrott zu erklären ist jedenfalls Blödsinn.

Das mit der Farbe hab ich übrigens schon gehört, aber gerade die Farbe ist etwas, was man einstellen kann (und soll!), und ich hab auch schon mehrfach gelesen dass hier nicht unbedingt NVIDIA die Schuld trägt, sondern die beiden ganz einfach andere Default-Einstellungen haben.

eLw00d
2006-08-07, 04:26:32
Augenwischerei? ^^

Für 350€ hab ich mir ne GX2 geholt und kann gegenüber einer gleich teuren ATI-Karte viel mehr Kantenglättung , Anisotropen Filter oder eine höhere Auflösung einstellen.

Gast
2006-08-07, 06:53:41
Ich weiss nicht ob du schonmal eine 7900gtx z.B. in aktion gesehen hast und ganz abgesehen von der performance beider karten sieht das bild auf der nv grotten schlecht aus selbst ohne aa+af.Jetzt erklärst du mir bitte mal warum die Bildqualität ohne AF bei NV schlechter sein sollte als bei ATI. Will mir irgendwie nicht einleuchten, aber du kannst es doch sicherlich begründen.

gedi
2006-08-07, 07:56:53
Also ich habe vor kurzem von 2x7800GT auf ne XTX gewechselt und habe den Schritt mitnichten bereut. Fakt ist imo, daß die ATI unter Max.AF ohne AI die klar bessere IQ bietet, denn ein vergleichbarer Probant von NV. Auch stellt mir ATI, man höre und staune, die imo ausgereifteren Treiber zur Verfügung. Driv3r-Texturflackern, ständige Reboots unter NFS-MW, lausige Texturqualität in BF2 usw., gehören der Vergangenheit an. Zudem sehen GTR, F1-2xxx (eigentlich die ganzen Simulationsgeschichten), auf ner ATI um Längen besser aus.
NV bietet zur Zeit die schnellste Hardware an - keine Frage, allerdings sehen Oblivion und FC imo auf ner ATI sehr geil aus und da ich durch mein TFT, auf ner Auflösung 1280x1024 beschränkt bin, stellt die ATI derzeit für MICH, die bessere Symbiose dar.
Zudem finde ich das Gameplay von sämtlichen 3dMarks einfach sch.... =)

aths
2006-08-07, 10:56:10
Jetzt erklärst du mir bitte mal warum die Bildqualität ohne AF bei NV schlechter sein sollte als bei ATI. Will mir irgendwie nicht einleuchten, aber du kannst es doch sicherlich begründen.Die Texturqualität ohne AF ist nach meinem Wissensstand bei NV besser, auch bei 2x AF noch, denn ich beiden Fällen gibt es beim LOD fast gar keine Winkelabhängigkeit mehr. Ab 4x AF hat ATI aber mit der X1000-Reihe die Krone, jedenfalls sofern man "Area-AF" nutzt: Bei 4x und 8x "Area-AF" nutzt ATI die traditionell winkelabhängige LOD-Blume, 16x AF hat zusätzliche Präzisionsprobleme. NV nutzt ab 4x AF bekanntlich ein von der Radeon 9700 inspiriertes Muster, welches stark winkelabhängig ist.

R100: Sehr stark winkelabhängig (in 45°-Winkeln nur 1x max AF, nur bilineares AF.) = Schrott

R300: Stark winkelabhängig (in ungefähr 22,5° und 67,5°-Winkeln nur 2x max AF.) = Je nach Spiel noch ok

R520 "Area AF": Bis 8x AF schwach winkelabhängig (in 45°-Winkeln kleineres LOD (und damit mehr Texturschärfe) als in 90°-Winkeln.) = Brauchbar

NV20: Bis 4x AF schwach winkelabhängig, 8x AF winkelabhängig (in 45°-Winkeln ist die Basemap nur auf 4x-AF-Niveau.) = Brauchbar

NV40: Bis 2x AF fast winkelunabhängig (minimal kleineres LOD bei ungefähr 22,5° und 67,5°-Winkeln), ab 4x AF stark winkelabhängig (bei exakt 22,5° und 67,5°-Winkeln nur 2x max AF.) = War zu R300-Zeiten vielleicht noch ok, heutzutage unsinniger Bildqualitäts-Kompromiss.

Gast
2006-08-07, 13:38:51
@Gast: beruhig dich erst mal, du wirfst den Leuten einiges vor was sie in der Form niemals gesagt haben!

Erstens hat niemand behauptet dass NVIDIA die bessere Bildqualität hat. Dieses Attribut geht zur Zeit an ATI.

Doch es ging darum dass der Unterschied keineswegs so gravierend ist (mal abgesehen davon dass manchmal andere Faktoren für einen persönlich wichtiger sind). NVIDIA nur deswegen zu Schrott zu erklären ist jedenfalls Blödsinn.

Das mit der Farbe hab ich übrigens schon gehört, aber gerade die Farbe ist etwas, was man einstellen kann (und soll!), und ich hab auch schon mehrfach gelesen dass hier nicht unbedingt NVIDIA die Schuld trägt, sondern die beiden ganz einfach andere Default-Einstellungen haben.

Öhm ja das dazu,

Gibt aber genug Leute auch hier, die ebenfalls beide Seiten in Aktion gesehen und eine differenziertere Meinung darüber haben. Da gibt es sogar welche dabei, die nur wenig bis überhaupt keine Vorteile mehr für die Bildquali der ATIs sehen. Vielleicht sind diese Menschen aber auch blind, jedenfalls werden sie dahingehend dann von den die-hard ATI-Fans beleidigt.

Ich denke mal das der gast schon recht hat, auch wenn es viele NV fans hier anders sehen.

aths
2006-08-07, 13:50:14
Ich habe weder was gegen ATI noch gegen NV, aber das bessere bild liefert für mich klar die ATI und deshalb würde ich mir keine NV schon kaufen. Was ist am Bild bei ATI-Grafikkarten für dich "besser"? Ich weiß aus guter Quelle, dass die Filter-"Optimierungen" bei beiden ähnlich genug sind, dass Röhrenmonitore unterschiedlicher Hersteller das Bild schon mehr verändern als die Unterschiede in den "Optimierungen". Geht es um den Bildvergleich ohne so genannte "Optimierungen" könnte es durchaus Leute geben, die das AF auf NV-Karten bevorzugen, weil es schärfer wirkt. Was also ist nun "besser"?

Du würdest dir trotzdem "deshalb" keine NV-Karte kaufen. Ich hab trotz der (für meinen Geschmack) schlechteren 3D-BQ bei aktuellen NV-Karten eine GeForce gekauft – wegen der 2D-Features.

Ich denke mal das der gast schon recht hat, auch wenn es viele NV fans hier anders sehen.Nicht jeder, der bei diesem Thema relativiert, ist gleich NV-Fan. Gerade wenn es um aktive "Optimierungen" bzw. einen Qualitätsvergleich bei den Treiber-Standardsettings geht, sind die Texturen auf Radeon-Karten, wenn überhaupt noch, höchstens minimal besser. Spielabhängig mag es einige Ausnahmefälle geben.

Gast
2006-08-07, 14:40:41
Bei 4x und 8x "Area-AF" nutzt ATI die traditionell winkelabhängige LOD-Blume, 16x AF hat zusätzliche Präzisionsprobleme. NV nutzt ab 4x AF bekanntlich ein von der Radeon 9700 inspiriertes Muster, welches stark winkelabhängig ist.Aths, kannst du das mit den Präzisionsproblemen beim 16x Area-AF auf den aktuellen ATI-Karten vielleicht noch ein wenig näher erläutern?

Tigerchen
2006-08-07, 15:02:09
Was ist am Bild bei ATI-Grafikkarten für dich "besser"? Ich weiß aus guter Quelle, dass die Filter-"Optimierungen" bei beiden ähnlich genug sind, dass Röhrenmonitore unterschiedlicher Hersteller das Bild schon mehr verändern als die Unterschiede in den "Optimierungen". Geht es um den Bildvergleich ohne so genannte "Optimierungen" könnte es durchaus Leute geben, die das AF auf NV-Karten bevorzugen, weil es schärfer wirkt. Was also ist nun "besser"?

Du würdest dir trotzdem "deshalb" keine NV-Karte kaufen. Ich hab trotz der (für meinen Geschmack) schlechteren 3D-BQ bei aktuellen NV-Karten eine GeForce gekauft – wegen der 2D-Features.

Nicht jeder, der bei diesem Thema relativiert, ist gleich NV-Fan. Gerade wenn es um aktive "Optimierungen" bzw. einen Qualitätsvergleich bei den Treiber-Standardsettings geht, sind die Texturen auf Radeon-Karten, wenn überhaupt noch, höchstens minimal besser. Spielabhängig mag es einige Ausnahmefälle geben.

Ach auf einmal ist das winkelabhängige AF akzeptabel für dich? LOL! Und die Ausrede. Wegen der 2D-Features. Besonders glaubwürdig ist das nicht aths. Vielleicht solltest ganz klar sagen daß du immer nV bevorzugen würdest weil es eben nV ist. Das wäre ehrlicher.
Nix für ungut und viele Grüße in Blau

Gast
2006-08-07, 15:07:16
Aths, kannst du das mit den Präzisionsproblemen beim 16x Area-AF auf den aktuellen ATI-Karten vielleicht noch ein wenig näher erläutern?
Bei 16xAF scheint sich der Algorithmus zu verrechnen. Ist aber nicht weiter tragisch, da 8x-wuAF (entsprechendes Material vorrausgesetzt) immernoch um Welten besser aussieht als 16x-waAF.
8xAF reicht in der Regel auch aus.

Mr. Lolman
2006-08-07, 15:10:10
16xHQAF sieht auch nicht schlechter aus, als 8xHQAF. Nur die AF-Blume ist ein bisschen seltsam...

Blaire
2006-08-07, 15:38:20
Also ich habe vor kurzem von 2x7800GT auf ne XTX gewechselt und habe den Schritt mitnichten bereut. Fakt ist imo, daß die ATI unter Max.AF ohne AI die klar bessere IQ bietet, denn ein vergleichbarer Probant von NV. Auch stellt mir ATI, man höre und staune, die imo ausgereifteren Treiber zur Verfügung.

Deshalb wird die Ati Release Notes Liste immer länger oder? :D
Nee Spaß bei Seite , aber mit Ati und ihren Treibern das ist ein Kapitel für sich. Da war Catalyst 6.1 gut und der nächste wieder total scheisse weil irgendwas wieder nicht lief. Dann das Pixelflimmern am Dell 3007 das haben die bis heute nicht gefixt. Beim letzteren Catalyst 6.6 war Ati sogar so dreist das man den Dell 3007 analog anschließen müsse damit man ein Bild bekommt in Verbindung mit Crossfire. ;D
Und bei Games musste ich in knapp 1 Monat wo ich Crossfire besaß 3mal das Treiberteam kontaktieren damit endlich die Bugs gefixt werden , das war mir auf Dauer dann doch zu stressig. Sowas jedenfalls gibts bei Nvidia nicht, da gibts auch ne Menge Bugs allerdings kaum bei Games und man ist zufriedener.

eLw00d
2006-08-07, 15:52:51
So ist das mit ATI... ^^

Unterstütz noch nichtmal meine Matrox triplehead. Ja gut super, in 2400x640 oder sowas. :hammer:
ATI fällt für mich komplett flach.
edit: Im Moment zumindest. Zeiten ändern sich, Grafikkarten ja auch...

Banshee18
2006-08-07, 16:09:35
Deshalb wird die Ati Release Notes Liste immer länger oder? :D
Nee Spaß bei Seite , aber mit Ati und ihren Treibern das ist ein Kapitel für sich. Da war Catalyst 6.1 gut und der nächste wieder total scheisse weil irgendwas wieder nicht lief. Dann das Pixelflimmern am Dell 3007 das haben die bis heute nicht gefixt. Beim letzteren Catalyst 6.6 war Ati sogar so dreist das man den Dell 3007 analog anschließen müsse damit man ein Bild bekommt in Verbindung mit Crossfire. ;D
Und bei Games musste ich in knapp 1 Monat wo ich Crossfire besaß 3mal das Treiberteam kontaktieren damit endlich die Bugs gefixt werden , das war mir auf Dauer dann doch zu stressig. Sowas jedenfalls gibts bei Nvidia nicht, da gibts auch ne Menge Bugs allerdings kaum bei Games und man ist zufriedener.
Ich kann mich über die Treiber von ATI nicht beklagen, die laufen, wie sie sollen. Bei Crossfire mag das vielleicht anders aussehen.
aths, was sind denn das für 2D-Features, die NV bietet, ATI aber nicht?

eLw00d
2006-08-07, 16:35:13
was sind denn das für 2D-Features, die NV bietet, ATI aber nicht?
triplehead halt. :)

Banshee18
2006-08-07, 16:48:58
triplehead halt. :)
Ich glaube nicht, dass aths das braucht.

Mr. Lolman
2006-08-07, 16:51:59
triplehead halt. :)

AFAIK geht das nur bei CF-Systemen (momentan?) nicht.

eLw00d
2006-08-07, 17:05:35
AFAIK geht das nur bei CF-Systemen (momentan?) nicht.
... ohne welches man kein aktuelles Spiel vernünftig unter 3840x1024 ans laufen bekommt.

tokugawa
2006-08-07, 18:58:01
OK, vielleicht haben mich ein paar nicht verstanden:

Klar, ATI hat die bessere Bildqualität was bildqualitätsverbessernde Features wie AF angeht.

Aber: ob man nur diesen einen Aspekt sieht, oder auch andere, wo eventuell vielleicht NVIDIA besser dasteht, ist doch jedem selbst überlassen!

Jedenfalls ist es Blödsinn zu sagen NVIDIA-Karten seien unakzeptabel, genauso wie umgekehrt. Jede Seite hat ihre Stärken und Schwächen, und den einzigen Unterschied bei der Entscheidungsfindung macht die persönliche Präferenz, die aber wiederum eben keine Allgemeinaussage zulässt.

Ich habe - wie gesagt - Karten von beiden (X1600, X1900, 6600 (Go), und demnächst bald hoffentlich eine GeForce 7 die die X1600 im anderen Rechner ersetzt, da ich gern zweigleisig fahre), und ich kann auch sagen dass die Bildqualität bezüglich AF bei ATI besser ist, aber dass ATI wiederum einige andere Nachteile hat, die mich an den Rand des Wahnsinns getrieben haben (robuste Treiber schreiben die nicht gerade, wenn man mit falschen Parameter beim DrawPrimitive-Call den Rechner rebooten kann) und ich mir überlegt habe die X1900 zurückzugeben.

Hab mich dann doch dazu entschieden sie zu behalten, mir für meinen Primärrechner eine GeForce 7 zu holen und die X1900 als Zweitkarte im Zweitrechner zu behalten, da es günstig ist, eine aktuelle ATI-Karte zum Testen zu haben beim Entwickeln.

Gast
2006-08-07, 19:39:44
Fängt die Debug-Runtime falsche Parameter nicht ab?

tokugawa
2006-08-07, 19:44:25
Fängt die Debug-Runtime falsche Parameter nicht ab?

Ja, die schon (triggert halt im Debugger einen User-Breakpoint). Die Retail-Runtime jedoch nicht, und der ATI-Treiber tut hier auch nicht wirklich gegenchecken - der NVIDIA-Treiber schon.

Ich finds vor allem ziemlich arg dass das gleich einen System-Reboot nach sich zieht.

Gasthaus
2006-08-08, 01:02:00
R100: Sehr stark winkelabhängig (in 45°-Winkeln nur 1x max AF, nur bilineares AF.) = Schrott

R300: Stark winkelabhängig (in ungefähr 22,5° und 67,5°-Winkeln nur 2x max AF.) = Je nach Spiel noch ok

R520 "Area AF": Bis 8x AF schwach winkelabhängig (in 45°-Winkeln kleineres LOD (und damit mehr Texturschärfe) als in 90°-Winkeln.) = Brauchbar

NV20: Bis 4x AF schwach winkelabhängig, 8x AF winkelabhängig (in 45°-Winkeln ist die Basemap nur auf 4x-AF-Niveau.) = Brauchbar

NV40: Bis 2x AF fast winkelunabhängig (minimal kleineres LOD bei ungefähr 22,5° und 67,5°-Winkeln), ab 4x AF stark winkelabhängig (bei exakt 22,5° und 67,5°-Winkeln nur 2x max AF.) = War zu R300-Zeiten vielleicht noch ok, heutzutage unsinniger Bildqualitäts-Kompromiss.


Wie ist das beim NV40 zu verstehen?Wenn beide angegebenen Winkel herrschen wird nur mit 2x max gefiltert?Und wie siehts bei allen anderen Winkeln aus.Das hört sich ja echt grausam an und der G70 ist noch schlechter?

Damit gäbe es nur einen Sinn für mich ne 7900GX2 zu kaufen,um sie mindesten in 8xS mit HQ zu betreiben,wenn nicht gleich richtiges SSAA.

Mr. Lolman
2006-08-08, 01:05:47
Wie ist das beim NV40 zu verstehen?Wenn beide angegebenen Winkel herrschen wird nur mit 2x max gefiltert?Und wie siehts bei allen anderen Winkeln aus.Das hört sich ja echt grausam an und der G70 ist noch schlechter?
Ja es wird maximal nur mit 2xAF gefiltert. Das ist beim G70 genauso, nur dass weniger Textursamples berrechnet werden, was in einer Unterfilterung (Flimmern) resultiert. Seit dem 78.03 ist der Unterschied jedoch nur mehr äußerst gering.

Thaquanwyn
2006-08-08, 01:08:01
... Wie Mapel schon gesagt hat, hat man mit einer GX2 auch bei später erscheinenden Titeln, die mehr Grafikpower benötigen, einen Vorteil. Auch heutige einige heutige Spiele laufen schon in 1280x1024 mit 4xAA und 8xAF nicht mehr flüssig bzw nahe an der Grenze wie z.B. Fear, CoD2 und Titan Quest.
...
MfG
Banshee

... sorry, aber wieso gibt es bei TitanQuest Probleme mit heutigen High-End-Karten?

Ich meine die Frage wirklich ehrlich, denn mit meiner 7800GTX (sicherlich kein High-End mehr) und 16xAF, kann ich immer noch problemlos in einer Auflösung von 1280x1024 spielen - mit alle Einstellungen auf Maximum, außer den Schatten (Medium)!

tokugawa
2006-08-08, 01:32:32
Wieso sollte die 7800 GTX kein High-End mehr sein, wenn man sogar die 7900 GT als "unteres High-End" ansehen kann?

Banshee18
2006-08-08, 01:33:27
Ich weiß nicht, wieviel die Schatten aus machen, aber mit maximalen Details 1280x1024, 4xAA und 16xAF ist es bei mir nicht mehr akzeptabel.

gedi
2006-08-08, 05:12:30
Nee Spaß bei Seite , aber mit Ati und ihren Treibern das ist ein Kapitel für sich. Da war Catalyst 6.1 gut und der nächste wieder total scheisse weil irgendwas wieder nicht lief. Dann das Pixelflimmern am Dell 3007 das haben die bis heute nicht gefixt. Beim letzteren Catalyst 6.6 war Ati sogar so dreist das man den Dell 3007 analog anschließen müsse damit man ein Bild bekommt in Verbindung mit Crossfire. ;D
.

Bie mir tun Sie was Sie sollen... Habe allerdings auch kein CF-System.

Und bei Games musste ich in knapp 1 Monat wo ich Crossfire besaß 3mal das Treiberteam kontaktieren damit endlich die Bugs gefixt werden , das war mir auf Dauer dann doch zu stressig. Sowas jedenfalls gibts bei Nvidia nicht, da gibts auch ne Menge Bugs allerdings kaum bei Games und man ist zufriedener.

Warum, erreichst du bei NV niemanden ;D ?
Ich hatte diverse Probleme in Games!

The_Invisible
2006-08-08, 09:56:20
Ich weiß nicht, wieviel die Schatten aus machen, aber mit maximalen Details 1280x1024, 4xAA und 16xAF ist es bei mir nicht mehr akzeptabel.

dann machst du was falsch, bin jetzt aktuelle kapitel 3 und habe immer in 1680x1050/4xTSAA/16xAF/HQ gespielt, das einzige wo es geruckelt hat war diese eine stadt was in flammen stand

mfg

aths
2006-08-08, 10:12:35
Wie ist das beim NV40 zu verstehen?Wenn beide angegebenen Winkel herrschen wird nur mit 2x max gefiltert?Und wie siehts bei allen anderen Winkeln aus.Das hört sich ja echt grausam an und der G70 ist noch schlechter?Standardmäßig ist es bei der X1000-Serie von ATI auch noch so (sogar noch etwas schlechter), nur das "Area-AF" ist besser. Der G70 hat dasselbe AF-Winkelmuster wie der NV40, allerdings wurde die Verrechnung von Textursamples optimiert. Der G70 kann in bestimmten Situationen ein AF-Sample aus weniger isotropen Einzel-Samples berechnen, ist dafür aber selbst im HQ-Modus noch grenzwertig, was flimmern angeht. (Es flimmert noch nicht, steht aber kurz davor.)

Die von Lolman angesprochene Unterfilterung ist keine echte Optimierung sondern eine nur "Optimierung" genannte Qualitätsverschlechterung, die sowohl NV als auch ATI standardmäßig nutzen und die man extra abschalten muss (NV: HQ, ATI: A. I. off.)

Don Vito
2006-08-08, 10:45:32
Ich bekomme morgen bzw. übermorgen meine 2 gx2 Karten.
Dann wird sich zeigen ob das was geht...

Banshee18
2006-08-08, 14:56:23
dann machst du was falsch, bin jetzt aktuelle kapitel 3 und habe immer in 1680x1050/4xTSAA/16xAF/HQ gespielt, das einzige wo es geruckelt hat war diese eine stadt was in flammen stand

mfg
Okay, du hast Recht. Die Demo lief noch viel schlechter, kannst du das bestätigen? Mit der Full gehts. 1600x1200 mit 4xAAA und 16xHQAF ist mir aber trotzdem schon zu unsmooth, obwohl es noch spielbar wäre.

Hakkerstiwwel
2006-08-08, 15:00:40
Standardmäßig ist es bei der X1000-Serie von ATI auch noch so (sogar noch etwas schlechter), nur das "Area-AF" ist besser. Der G70 hat dasselbe AF-Winkelmuster wie der NV40, allerdings wurde die Verrechnung von Textursamples optimiert. Der G70 kann in bestimmten Situationen ein AF-Sample aus weniger isotropen Einzel-Samples berechnen, ist dafür aber selbst im HQ-Modus noch grenzwertig, was flimmern angeht. (Es flimmert noch nicht, steht aber kurz davor.)

Die von Lolman angesprochene Unterfilterung ist keine echte Optimierung sondern eine nur "Optimierung" genannte Qualitätsverschlechterung, die sowohl NV als auch ATI standardmäßig nutzen und die man extra abschalten muss (NV: HQ, ATI: A. I. off.)
Kann man denn bei der von dir angesprochenen Optimierung (bold hervorgehoben) wirklich von Optimierung sprechen, wenn das Ganze eine Verschlimmbesserung ist, und unerwuenschte Nebeneffekte hat?

The_Invisible
2006-08-08, 16:20:41
Okay, du hast Recht. Die Demo lief noch viel schlechter, kannst du das bestätigen? Mit der Full gehts. 1600x1200 mit 4xAAA und 16xHQAF ist mir aber trotzdem schon zu unsmooth, obwohl es noch spielbar wäre.

da ich keinen framecounter anhabe kann ich nix genaues sagen, aber die demo lief eigentlich auch immer geschmeidig, da die "extremen" passagen da ja garnicht vorkommen (was aber garkeine gegnerhorden sind sondern so "einfache" effekte wie feuer usw)

vielleicht hast bei der demo einfach höhere quali-einstellungen an gehabt

mfg

Gast
2006-08-08, 16:23:39
Eigentlich nicht, außer vielleicht noch die Programmlänge zu verkleinern.
Eigentlich schon, wenn du mal die ATI-Papers dazu gelesen hättest wüsstest du es.

aths
2006-08-09, 14:28:53
Eigentlich schon, wenn du mal die ATI-Papers dazu gelesen hättest wüsstest du es.Da du offensichtlich die ATI-Paper gelesen hast, kannst du es doch bestimmt auch in eigenen Worten erklären.

aths
2006-08-09, 14:58:43
Kann man denn bei der von dir angesprochenen Optimierung (bold hervorgehoben) wirklich von Optimierung sprechen, wenn das Ganze eine Verschlimmbesserung ist, und unerwuenschte Nebeneffekte hat?Nvidias AF beim G70 ist in zwei Belangen effizienter als das AF vom R580: Die GF kennt mehr Zwischenstufen (darunter 6x und irrc 12x). Außerdem wird (lt. einer Vermutung von Demirug, die er nach der Texel-Analyse mit seinem Tool aufgestellt hat) ausgenutzt, dass sich bei den isotropen Samples auf der Line of Anisotropy meistens einige Texel überschneiden. Man kann dies bei einer intelligenteren Anordnung verhindern und somit Füllrate sparen. Allerdings ist die Verrechnung der Texel dann komplizierter. Soweit ich Demirug verstanden habe, findet hierbei aber keine Unterfilterung statt, es wird höchstens hart an der Grenze gearbeitet. Solange nicht zusätzlich eine Unterfilterung stattfindet (wie z. B. im Q-Modus) kann man von einer echten Optimierung sprechen. Demirug vermutet (so wie ich ihn verstanden habe), dass diese optimierte Methode nicht ausgereift ist und es bei der Verrechnung der einzelnen Texel Probleme geben könnte, was Nvidia (zumindest beim NV40) durch eine gewisse Überfilterung auszugleichen versucht. Dann wäre es natürlich kaum eine echte Optimierung, sondern nur der Versuch. Ich sehe im HQ-Modus beim G70 kein ungewöhnliches Flimmern. Wenn etwas (in den Spielen die ich kenne) flimmeranfällig ist, lässt sich das meiner Beobachtung nach auf den schwierigen Texturcontent zurückführen.

Hier könnte man nun lange diskutieren wie es sein sollte. Wer auf größere Texturruhe wert legt, wird sich nicht um das mathematisch korrekteste Sample kümmern, sondern fragen, was für ihn besser aussieht. Nach dem was ich bisher gesehen habe, sieht das Radeon-X1000-AF mit A. I. off für mich besser aus.

Dass das AF bei ATI weniger kostet als dieser Effizienzvergleich vermuten lässt, ließe sich mit der guten Textursampling-Entkopplung in den Radeon-Pipelines erklären. Dies könnte man (wenn man so wollte) auch als AF-Effizienzoptimierung sehen, eine die die GeForce nicht hat. Oder anders formuliert: NV ist durch die Pipeline-Architektur seit jenher darauf angewiesen, die Takte für das AF-Sampling möglichst zu verringern, weil das AF-Textursampling im Gegensatz zur Radeon nicht in Arithmetik-Latenzen versteckt wird.

Mr. Lolman
2006-08-09, 16:34:48
Die von Lolman angesprochene Unterfilterung ist keine echte Optimierung sondern eine nur "Optimierung" genannte Qualitätsverschlechterung, die sowohl NV als auch ATI standardmäßig nutzen und die man extra abschalten muss (NV: HQ, ATI: A. I. off.)

Naja, bei Q3a sieht AIoff genauso wie AIlow und AIhigh aus. Insgesamt, ziemlich ähnlich dem NV40 HQ.
R580, Catalyst 6.6, AIlow: _______________________ R580, Catalyst 6.6, AIadvanced:
http://img92.imageshack.us/img92/5273/r580cat66hv9.gif http://img430.imageshack.us/img430/2990/66aihighev0.gif (http://imageshack.us)

NV40, 77.76, HQ: _______________________________ NV40, 77.76, Q (ohne Optimierungen):
http://img322.imageshack.us/img322/1481/hq7776default4rr.gif http://img290.imageshack.us/img290/2217/q77764ac.gif

aths
2006-08-09, 20:41:41
Naja, bei Q3a sieht AIoff genauso wie AIlow und AIhigh aus. Insgesamt, ziemlich ähnlich dem NV40 HQ. Für Q3A nutzen wahrscheinlich beide spezielle anwendungsspezifische Einstellungen.

Gast
2006-08-09, 20:51:04
Naja, bei Q3a sieht AIoff genauso wie AIlow und AIhigh aus. Insgesamt, ziemlich ähnlich dem NV40 HQ.
R580, Catalyst 6.6, AIlow: _______________________ R580, Catalyst 6.6, AIadvanced:
Flimmert überall wie sau. Bei NV@Q schon Augenkrebs.
Aber es gibt auch noch andere Unterschiede. Das Bild des R580 ist schärfer/heller. Das Bild des NV40 sieht wie hinter einem Grauschleier aus.
Die Farben beim R580 sind satter. Sieht beim R580 nach höherem Kontrast aus.

Mr. Lolman
2006-08-09, 20:56:32
Über die Farben hab ich mich auch schon gewundert. Kann aber ehrlich gesagt auch sein, dass unterschiedliche Gammaeinstellungen verwendet wurden. Es liegt leider schon zuviel Zeit zw. den Screenshots, als dass das noch komplett nachvollziehbar wär. Aber AFAIK hat 3DC und Computerbase eh schon seit längerem einen Artikel in der Mache, der die BQ nochmal näher betrachtet...

Gast
2006-08-09, 21:07:17
Über die Farben hab ich mich auch schon gewundert. Kann aber ehrlich gesagt auch sein, dass unterschiedliche Gammaeinstellungen verwendet wurden. Es liegt leider schon zuviel Zeit zw. den Screenshots, als dass das noch komplett nachvollziehbar wär.
Dann sind das aber keine fairen Vergleiche. Hier wird ATI klar benachteiligt.
Bei einem höherem Kontrast (was hier wohl der Fall ist) kann man Flimmern viel besser sehen oder sagen wir eher man nimmt das Flimmern stärker wahr.

Aber AFAIK hat 3DC und Computerbase eh schon seit längerem einen Artikel in der Mache, der die BQ nochmal näher betrachtet...
Dann bin ich mal gespannt...
Hoffentlich werden diese Tests auch von Leuten gemacht, die überhaupt die Wahrnehmungsfähigkeit besitzen diese Unterschiede sehen und richtig deuten zu können.
Wünsche schonmal Gute Augen an die Tester. :)

Mr. Lolman
2006-08-09, 21:12:53
Dann sind das aber keine fairen Vergleiche. Hier wird ATI klar benachteiligt.
Bei einem höherem Kontrast (was hier wohl der Fall ist) kann man Flimmern viel besser sehen oder sagen wir eher man nimmt das Flimmern stärker wahr.


Das stimmt allerdings. Umso mehr sprichts für ATi, dass AI High/Advanced (zumindest bei Quake3) nicht schlechter aussieht als NV40 HQ.

Gast
2006-08-09, 22:01:28
Das stimmt allerdings. Umso mehr sprichts für ATi, dass AI High/Advanced (zumindest bei Quake3) nicht schlechter aussieht als NV40 HQ.
Wenn ich ehrlich sein soll, dann sehe ich auch keinen Unterschied zwischen AI-low und AI-advanced.
Der Unterschied ist wirklich minimal oder gar kaum sichtbar.
Der Unterschied zwischen NV und ATI ist hier umso größer.
NV scheint einen anderen Algorithmus zu verwenden, weil das Flimmern deutlich anders aussieht.
Das ATI-Flimmern ist eher großflächig, bei NV sieht man die Übergänge, wo es flimmert.
In etwa wie ein Bi-Tri Vergleich.

Gast
2006-08-09, 22:41:16
Wenn ich ehrlich sein soll, dann sehe ich auch keinen Unterschied zwischen AI-low und AI-advanced.
Der Unterschied ist wirklich minimal oder gar kaum sichtbar.
Nachtrag:
Das war nur auf diese Screenshots bezogen. Bei anderen Spielen ist der Unterschied zwischen AI-low und AI-advanced meistens deutlich sichtbar.

Gasthaus
2006-08-09, 23:44:19
Standardmäßig ist es bei der X1000-Serie von ATI auch noch so (sogar noch etwas schlechter), nur das "Area-AF" ist besser. Der G70 hat dasselbe AF-Winkelmuster wie der NV40, allerdings wurde die Verrechnung von Textursamples optimiert. Der G70 kann in bestimmten Situationen ein AF-Sample aus weniger isotropen Einzel-Samples berechnen, ist dafür aber selbst im HQ-Modus noch grenzwertig, was flimmern angeht. (Es flimmert noch nicht, steht aber kurz davor.)

Die von Lolman angesprochene Unterfilterung ist keine echte Optimierung sondern eine nur "Optimierung" genannte Qualitätsverschlechterung, die sowohl NV als auch ATI standardmäßig nutzen und die man extra abschalten muss (NV: HQ, ATI: A. I. off.)

Dann wäre noch ein paar Fragen,wie verhält sich das beim NV40 mit"krummen"Winkeln wie 10°?
Auch habe ich festgestellt das offenbar nur bei 90°Winkeln das volle AF herrscht.
Und wird unter SSAA immer noch anisotropisch gefiltert oder rein tri oder gar ohne MipMap-Ebenen?Denn bei SonicHeroes sind unter 8xS auf einmal alle MipMap-Ebenen verschwunden und gegrieselt hat da auch nichts mehr.
Als letztes noch eine Frage speziell@aths,was wäre teurer:SSAA+WA-AF oder MSAA+konsequentes WU-HQ-AF?
Als letzes noch,funzt 4xSSAA auch unter 1600x1200 beim NV40/256MB?

Banshee18
2006-08-10, 01:30:17
Dann wäre noch ein paar Fragen,wie verhält sich das beim NV40 mit"krummen"Winkeln wie 10°?
Auch habe ich festgestellt das offenbar nur bei 90°Winkeln das volle AF herrscht.
Und wird unter SSAA immer noch anisotropisch gefiltert oder rein tri oder gar ohne MipMap-Ebenen?Denn bei SonicHeroes sind unter 8xS auf einmal alle MipMap-Ebenen verschwunden und gegrieselt hat da auch nichts mehr.
Als letztes noch eine Frage speziell@aths,was wäre teurer:SSAA+WA-AF oder MSAA+konsequentes WU-HQ-AF?
Als letzes noch,funzt 4xSSAA auch unter 1600x1200 beim NV40/256MB?
Der Filter ist anisotrop, nicht anisotropisch.
Hier siehst du, wie sich der anisotrope Filter bei verschiedenen Winkeln verhält:
http://www.3dcenter.de/artikel/nv40_benchmarks/index7.php
Mit SSAA wird natürlich immernoch anisotrop gefiltert und auch MipMaps gibt es noch, es wäre schlimm, wenn nicht. Wie es ohne MipMaps aussieht, kannst du bei den neueren GTA-Teilen bewundern. Auf nVidia-Karten sieht es schlimmer aus, als bei ATI.
Die Methode mit SSAA wäre viel teuerer. Beim R520/R580 hat man ja die Wahl, das Area AF kostet nur sehr wenig Performance. Dazu kannst du dir mal den Artikel zur X1900XT(X) hier im 3DC anschauen.
Der nV40 hat eine Rendertagetsize von 4096x4096. Bei 2x2 SSAA wird die Auflösung auf beiden Achsen verdoppelt. Jetzt rate mal, bis zu welcher Auflösung 2x2 SSAA geht.;)

aths
2006-08-10, 16:45:32
Dann wäre noch ein paar Fragen,wie verhält sich das beim NV40 mit"krummen"Winkeln wie 10°?
Auch habe ich festgestellt das offenbar nur bei 90°Winkeln das volle AF herrscht.Bei 4x AF bekommt man beim NV40/G70 das volle max-AF auch bei 80° oder 100°. Erst bei 16x darf es von 90°-Winkeln praktisch keine Abweichungen mehr geben, um noch volles max-AF zu bekommen. Max-AF schreibe ich deshalb, weil bei 4x AF lange nicht alles 4x anisotrop gefiltert wird, sondern nur die Texturen, die auch so stark verzerrt sich. Sind Texturen überhaupt nicht verzerrt, und man hat 16x AF eingestellt, wird beim Rendering nirgendwo AF genutzt – weil es die Qualität nicht steigert. Das tut es nur bei verzerrten Texturen. Diese Winkelabhängigkeit ist ein Effekt, der den maximal genutzten AF-Grad je nach Winkel um die Z-Achse weiter verringert.

Bei Winkeln zwischen 0° und 22,5° und eingestelltem 16x AF bekommt man, je mehr man sich 22,5° nähert, immer weniger maximales AF beim NV40, G70 und standardmäßig auch bei der Radeon X1000-Serie. Erst Area-AF reduziert diese Winkelabhängigkeit (ohne sie ganz zu beseitigen, bei 4x AF bekommt man praktisch überall 4x max-AF, bei 8x aber nicht überall 8x max-AF.)

Und wird unter SSAA immer noch anisotropisch gefiltert oder rein tri oder gar ohne MipMap-Ebenen?Denn bei SonicHeroes sind unter 8xS auf einmal alle MipMap-Ebenen verschwunden und gegrieselt hat da auch nichts mehr.MIP-Maps verschwinden garantiert nicht, aber mögliche Flimmer-Bänder (die es eigentlich nicht geben sollte) werden reduziert. SSAA macht aus bilinearer Filterung keine trilineare. Trilineare Filterung kann nur durch trilineare Filterung erreicht werden, nicht durch SSAA.

Als letztes noch eine Frage speziell@aths,was wäre teurer:SSAA+WA-AF oder MSAA+konsequentes WU-HQ-AF?
Als letzes noch,funzt 4xSSAA auch unter 1600x1200 beim NV40/256MB?4x SSAA dürfte da funktionieren, getestet habe ich es nicht.

SSAA ist immer teuerer. Das Problem bei wirklich winkelunabhängigem AF ist nicht die Füllrate, sondern die hochkomplizierte AF-Mathematik. Es gibt keine einzige GPU, die komplett winkelunabhängiges AF – oder auch nur IF (isotrope Filterung) bietet. NV40/G70 sind bei IF und 2x AF fast winkelunabhängig (aber eben nicht ganz.) In einer der letzten PCGHs habe ich das ganze grafisch veranschaulicht, welche Probleme es dabei gibt, wirklich winkelunabhängiges AF zu realisieren.

AF ist immer preiswerter als SSAA. Zwei Gründe:

- Der eingestellte AF-Grad ist immer der Maximalgrad und wird nur dort angewendet, wo die Texturen auch entsprechend stark verzerrt sind (es sei denn, winkelabhängig findet eine AF-Maximalgrad-Reduzierung statt, dann hat man dort unschärfere Texturen), SSAA hingegen wird stur überall gemacht. 4x SSAA ist immer doppelt so teuer wie 2x SSAA, aber 4x AF kostet selbst bei Lehrbuch-Implementierung (sogut wie immer) weniger als doppelt so viel wie 2x AF. Die Zusatz-Last nimmt sogar noch ab, natürlich ist 16x teurer als 8x welches teurer als 4x ist, aber im Vergleich 4x AF zu 2x AF (relativ viele Texturflächen stärker als 2:1-verzerrt) sinkt die Framerate bei 16x zu 8x weniger (weil nur wenige Texturflächen stärker als 8:1-verzerrt sind.)

- AF skaliert schlimmstenfalls linear, also selbst bei extremen Verzerrungen im gesamten Bild und komplett winkelunabhängigen AF kostet 16x maximal "nur" die 16-fache Füllrate. Um mit SSAA einen vergleichbaren Effekt zu erzielen, müsste man 256x Supersampling machen – also kostet immer die 256-fache Füllrate.

Gasthaus
2006-08-11, 02:09:41
Vielen Dank für die ausführliche Erleuterung aths ebenso Banshee18 für den link.

@Banshee,habe hier mal gehört der max.Rendertarget hätte nichts mit der max. "internen"Auflösung(SSAA)zu tun?

@aths,nun ist mir endlich klar was WA-AF wirklich ist.Eine Wand auf die man orthogonal zuläuft braucht praktisch gar nicht anisotrop gefiltert zu werden,richtig?Somit gibt es eine sichtbare Grenze wann die WA(bei Schrägen)erkennbar wird,und genau diese Grenze wurde seit der GF3 klar zum Sichtbaren verschoben.Zumindest bot sie klar bessere Filterung an.

Banshee18
2006-08-11, 02:38:27
Vielen Dank für die ausführliche Erleuterung aths ebenso Banshee18 für den link.
Bitte.=)

@Banshee,habe hier mal gehört der max.Rendertarget hätte nichts mit der max. "internen"Auflösung(SSAA)zu tun?
Doch, natürlich.

@aths,nun ist mir endlich klar was WA-AF wirklich ist.Eine Wand auf die man orthogonal zuläuft braucht praktisch gar nicht anisotrop gefiltert zu werden,richtig?
Ja.
Somit gibt es eine sichtbare Grenze wann die WA(bei Schrägen)erkennbar wird,
:confused:
und genau diese Grenze wurde seit der GF3 klar zum Sichtbaren verschoben.Zumindest bot sie klar bessere Filterung an.
Bei nVidia gibt es seit nV40 eine starke Winkelabhängigkeit.

Der AF-Tester stellt das Innere einer Röhre dar. Das kannst du dir so vorstellen, dass du in eine Klopapierrolle schaust. Je weiter die Farben in der Mitte sind, umso höher ist der AF-Grad. An den Spitzen wird also nur noch zweifach anisotrop gefiltert. Diese "Blume" ist also ganz schlecht, optimal wäre es, wenn es perfekt rund wäre und so klein wie möglich.
Stehst du in einem Spiel also vor so einer Röhre, sind die Stellen, wo im AF-Tester die Spitzen sind, matschig, während dazwischen die Texturen scharf sind. Das Bild ist somit sehr unhomogen.
€: So sieht 8xAF beim R5x0 aus:
http://img83.imageshack.us/img83/1193/unbenanntco0.th.jpg (http://img83.imageshack.us/my.php?image=unbenanntco0.jpg)
Viel besser. ;)

aths
2006-08-11, 16:13:58
@aths,nun ist mir endlich klar was WA-AF wirklich ist.Eine Wand auf die man orthogonal zuläuft braucht praktisch gar nicht anisotrop gefiltert zu werden,richtig?Das ist dann richtig, wenn die mal angenommen quadratische Textur auch auf ein quadratisches Rechteck auftapeziert wird. Verzerrt man eine quadratische Textur zum Rechteck (oder Parallelogramm oder zu einem beliebigen anderen nicht-quadratischen Viereck) sollte sinnvoller AF zum EInsatz kommen.

Somit gibt es eine sichtbare Grenze wann die WA(bei Schrägen)erkennbar wird,und genau diese Grenze wurde seit der GF3 klar zum Sichtbaren verschoben.Zumindest bot sie klar bessere Filterung an.Die AF-Winkelabhängigkeit (bei Radeon-Karten) ist hier gezeigt: http://www.3dcenter.de/artikel/kolumne_optimierungen/index5.php (Bild unten.)

Gasthaus
2006-08-12, 00:30:50
Hui,und die AF-Blume kapiere ich nun auch.Dennoch gab es auch hier kritische Stimmen welche behaupten die Blume würde nicht die realworld Anwendung wiederspiegeln und wäre nicht 100%ig aussagefähig.
Man könnte doch einfach einen texturierten Raum mit allen erdenklichen Winkeln und Objekten als Referenz nehmen und dann schön mit gefärbten MipMap-Ebenen messen,wäre dies sinnvoll?

Mit Grenze und sichtbarem WA-AF meinte ich,daß das Grafiksystem soweit WA zulassen sein darf wie es eine zB.orthogonale Wand zulässt-also 0xAF.Doch sobald die Textur verzerrt wird sollte entsprechend max. soweit gefiltert werden wie dies auch optisch Sinn macht.

Doch gerade hier kommt das unhomogene Klopapierrollenbeispiel oft in Games zum Tragen,nicht nur bei Röhren.

aths
2006-08-12, 02:59:59
Hui,und die AF-Blume kapiere ich nun auch.Dennoch gab es auch hier kritische Stimmen welche behaupten die Blume würde nicht die realworld Anwendung wiederspiegeln und wäre nicht 100%ig aussagefähig.Ist sie auch nicht. Die Blume zeigt lediglich an, wann welche MIPs genutzt werden, aber nicht, wie gut diese MIPs gefiltert werden.

=Floi=
2006-08-13, 02:57:04
ein ausführlicher artikel dazu wäre mal nicht schlecht
so 5 seiten nur über AF und den ganzen plunder auch für den leien sauber erklärt


---
noch einen gewaltigen nachteil hat die karte, ich kann keinen ersatz lüfter montieren auch mit wakü habe ich hier doppelte kosten wenn es überhaupt geht
und früher oder später fängt die karte an zu rattern...

Banshee18
2006-08-13, 03:45:23
ein ausführlicher artikel dazu wäre mal nicht schlecht
so 5 seiten nur über AF und den ganzen plunder auch für den leien sauber erklärt


---
noch einen gewaltigen nachteil hat die karte, ich kann keinen ersatz lüfter montieren auch mit wakü habe ich hier doppelte kosten wenn es überhaupt geht
und früher oder später fängt die karte an zu rattern...
Das (http://www.3dcenter.de/artikel/grafikfilter/) ist doch mal ein Anfang, oder?;)
Mir ist noch nie ein Grafikkartenlüfter kaputt gegangen (im Gegensatz zu allen Chipsatzlüftern, die ich bisher hatte. Warum bekommen die es nicht gebacken, gescheite Lüfter zu verbauen. Grrrrr...) und afaik gibt es für die GX2 auch Waküs.
Dennoch kann man das natürlich als Kritikpunkt sehen.

Gasthaus
2006-08-13, 23:33:49
Das (http://www.3dcenter.de/artikel/grafikfilter/) ist doch mal ein Anfang, oder?;)
Mir ist noch nie ein Grafikkartenlüfter kaputt gegangen (im Gegensatz zu allen Chipsatzlüftern, die ich bisher hatte. Warum bekommen die es nicht gebacken, gescheite Lüfter zu verbauen. Grrrrr...) und afaik gibt es für die GX2 auch Waküs.
Dennoch kann man das natürlich als Kritikpunkt sehen.

Ich sehe da nur eine selbstgebaute Heatpipekonstruktion in Frage kommen.

Wenn man das Glück hat einen Menschen an der Hand zu haben der in einer Werkstatt(CNC-Drehbank)arbeitet,kann man sich alles machen lassen(auch die Heatpipe)

Die Materialkosten sind auch viel geringer als man glauben mag,doch vor allem kann man sich alles in den Dimensionen anfertigen lassen wie man es für richtig hält.Eine Wakü wiederum ist doch nur stressig selbst wenn man eine findet für mehre hundert Euro.

Mehre Pipes pro GPU die jeweils in einem Grill enden und von einem 120Papst versorgt werden.Das dürfte reichen und vor allem leise sein.Kosten tut das alles ohne Päpste vielleicht 20Euro:)

Torian.cc
2006-10-01, 22:47:44
Sorry für die vielleicht dumme Frage, aber für was bitte steht A.I.?
Komme einfach nicht drauf... *schääm*

MfG
Tori

AnarchX
2006-10-02, 10:14:25
Sorry für die vielleicht dumme Frage, aber für was bitte steht A.I.?

artificial intelligence(dt. künstliche Intelligenz), ein Treiberfeature von ATI das mit dem Catalyst 4.10 eingeführt wurde:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/vorschau_atis_radeon_x700-serie/15/#abschnitt_catalyst_a_i

HOT
2006-10-02, 10:45:50
ATI hat den Treiberoptimierungen, die man mit dem Radeon9600 total unbemerkt eingeführt hatte einfach einen Marketingnamen gegeben, nachdem das bekannt wurde :D.

Gast
2006-10-11, 08:16:42
Mittlerweile ist die Karte in sachen P/L doch ziemlich unintressant geworden echtes SLI mit GTOs oder halt CF ist eigentlich nicht mehr teurer und doch deutlich performanter. Hoffe das die 7950 gx2 zum G80 release nochmal deutlich runtergehen.

Gast
2006-10-11, 13:10:44
Mittlerweile ist die Karte in sachen P/L doch ziemlich unintressant geworden echtes SLI mit GTOs oder halt CF ist eigentlich nicht mehr teurer und doch deutlich performanter.Gibts eigentlich noch 7900GX2s? Wenn nein, ist die 7900GTO wohl echt der Preis-/Leistungshammer. Crossfire ist leider immer noch keine Alternative zu SLI.

Gast
2006-10-29, 17:44:29
Gibts eigentlich noch 7900GX2s? Wenn nein, ist die 7900GTO wohl echt der Preis-/Leistungshammer. Crossfire ist leider immer noch keine Alternative zu SLI.

7900GX2 ist definitiv überall ausverkauft - auf Ebay werden sie momentan in sehr kleiner Stückzahl für ca. 380,- - 400,- Euro gehandelt... Hatte mal ne GX2, die RMA ging - gab dann keine Austauschgeräte mehr; 400,- für eine gebrauchte waren mir zu teuer, daher jetzt bei MadMoxx für 279,- eine 7900GTO Burstfire bestellt (entpricht zu 100% einer GTX, auch im Takt und hat volle Garantie...). Definitiv momentan der Preis/Leistungssieger - auch wenn ich der Leistung der GX2 doch etwas nachtrauere...

Das Auge
2006-10-30, 19:41:45
7900GX2 ist definitiv überall ausverkauft - auf Ebay werden sie momentan in sehr kleiner Stückzahl für ca. 380,- - 400,- Euro gehandelt... Hatte mal ne GX2, die RMA ging - gab dann keine Austauschgeräte mehr; 400,- für eine gebrauchte waren mir zu teuer, daher jetzt bei MadMoxx für 279,- eine 7900GTO Burstfire bestellt (entpricht zu 100% einer GTX, auch im Takt und hat volle Garantie...). Definitiv momentan der Preis/Leistungssieger - auch wenn ich der Leistung der GX2 doch etwas nachtrauere...

Matthias, warst du das?? :D

Super Grobi
2006-11-14, 14:42:32
Edit: Problem gelöst