PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche High-End-Karte ist euer Favorit?


Spasstiger
2005-10-07, 04:05:21
Da ja jetzt durch das Nachziehen von ATI wieder eine kleine Palette an High-End-Grafikkarten zur Verfügung steht, frage ich hier, welche Karte euch persönlich bisher am ehesten anspricht, gerne auch mit Begründung (z.b. gutes Preis-Leistungsverhältnis, tolles AF, gute OpenGL-Performance, etc.).

Ich habe bewußt auch die X1800 XL und die 7800 GT mit aufgenommen. Die 7800 GT bietet ein sehr gutes Preis-Leistungsverhältnis mit Preisen ab 330 Euro, die X1800 XL scheint deutlich stromsparender zu sein als die X1800 XT und bietet ebenfalls das schöne winkelunabhängige AF.

Bitte auf Gebashe und Anfeindungen verzichten.

Mich persönlich spricht die GeForce 7800 GT am ehesten an, das Preis-Leistungsverhältnis ist sehr gut und die Performance ist in meinen Augen auch völlig ausreichend. Als positiv sehe ich den relativ geringen Stromverbrauch und die moderate Lautstärke an, Qualitätsoptionen wie das TAA und SSAA sind auch in ausreichendem Maße vorhanden und in den meisten Fällen auch tatsächlich nutzbar (aus Performancesicht).
Allerdings habe ich in nächster Zeit nicht vor, aufzurüsten, dazu fehlt mir das Geld ;).

Grestorn
2005-10-07, 06:49:33
[x] 7800 GTX

... hauptsächlich, weil ich sie bereits habe und weil die X1800 XT im Vergleich zu wenig "Mehrgewinn" bringt.

Der R520 ist zweifellos ein interessanter Chip. Dinge, wie Lautstärke und Stromverbrauch haben mich noch nie interessiert (und ich finde es schon sehr bemerkenswert, wie die selben Leute, die noch beim NV40 diese Dinge als Nachteile gebrandmarkt haben, diesselben Mängel beim R520 als akzeptabel einschätzen).

Wenn ich eine neue Grafikkarte kaufen müsste, wäre die Entscheidung schwer. Derzeit nerven mich die nVidia Treiber sehr. Die Qualität lässt immer mehr zu wünschen übrig, vor allem die Zeit, die für Bugfixes benötigt werden und dass immer noch so viele alte und neue Trivial-Bugs vorhanden sind.

Die eingeschränkte SM3.0 Unterstützung des Radeon ist überaus ärgerlich. Sie hat zwar für den Endkunden in der Entscheidung kaum Relevanz, aber es bedeutet, dass das fehlende Feature vermutlich in der nächsten Spielegeneration schlicht nicht verwendet werden kann. Das trifft somit alle, nVidia wie ATI Kunden, und man kann ATI gar nicht genug dafür kritisieren.

Des weiteren fehlen bei ATI weiterhin für den Anwender manipulierbare Profile. Dass ATI intern auch mit Profilen arbeitet, dürfte inzwischen jedem klar sein. Crossfire funktioniert nicht ohnehin nicht ohne Profile, und viele andere spielabhängige Kompatibilitätsfixes und Optimierungen sprechen eine eindeutige Sprache. Ob es angebracht ist, eine Profilliste mit Künstlicher Intelligenz ("A.I.") zu bezeichnen, lasse ich mal dahingestellt.

Also, fürs erste bleib ich bei nVidia. Mal sehen, was die nächste Runde so zu bieten hat...

seahawk
2005-10-07, 08:00:46
Hätte ich nicht schon ne 7800GT, würde ich ne X1800XT kaufen, schon wegen HQ-AF.

Voe der Preisleistung würde ich wieder ne 7800GT nehmen. (333 Euro)

Adam D.
2005-10-07, 08:13:01
Mein Favorit: 7800GT. Geniales Preis-Leistungs-Verhältnis. Hätte ich aber genug Geld für die Spitzenklasse, würde ich mir die X1800XT kaufen, weil sie zum einen 512MB Speicher hat, zum anderen bietet sie perfekten AF und dieses AAA ist auch sehr interessant.

Daenzer
2005-10-07, 08:15:40
X1800XT, ganz eindeutig. Super Leistung, bricht bei hohen Auflösungen mit Qualitätseinstellungen nicht so ein, wie die GT oder GTX und hat dazu eine super BQ, was will man mehr?

gnomi
2005-10-07, 08:23:32
Ich bin weder am G70 noch am R520 interessiert. Meine nächste GPU sitzt in der neuen XBox. :wink:
Die Geforce 6 Karten in meinen PC Rechnern reichen auch noch ne Weile...

Aber gesetzt den Fall, ich wäre es: Ich würde das best zusammengestellte und dabei billigste Paket kaufen, was es halt zu dem Zeitpunkt gibt, wo ich eine neue Karte bräuchte. Firma und Hersteller wären mir prinzipiell egal.
Nur verhältnismäßig billig und möglichst leise sollte es schon sein. Außerdem kaufe ich nicht das Spitzenprodukt einer Reihe, sondern am liebsten das kleinste aus der größten Serie...
Aktuell wäre meine Wahl eindeutig die 7800 GT. Bei gleichem Preis und ähnlicher Lautstärke würde ich aber wohl die neuen ATI 1800 XL Karten bevorzugen. Ganz einfach aus dem Grund, da sie eine signifikant bessere Bildqualität liefern.

Mumins
2005-10-07, 11:03:26
(und ich finde es schon sehr bemerkenswert, wie die selben Leute, die noch beim NV40 diese Dinge als Nachteile gebrandmarkt haben, diesselben Mängel beim R520 als akzeptabel einschätzen).

Ist doch andersherum nicht anders, Leute die ne 6800Ultra hatten, nun ne GTX haben, meckern über Lautstärke und Stromverbrauch der X1800XT. Das die 6800Ultra noch einiges lauter war juckt da herzlich wenig.

SKYNET
2005-10-07, 11:14:04
Ist doch andersherum nicht anders, Leute die ne 6800Ultra hatten, nun ne GTX haben, meckern über Lautstärke und Stromverbrauch der X1800XT. Das die 6800Ultra noch einiges lauter war juckt da herzlich wenig.


lauter: ja, mehr stromverbrauch: nein. :)

Lubi
2005-10-07, 11:41:06
lauter: ja, mehr stromverbrauch: nein. :)

:ubash3:

Da muss dann jeder für sich selber abwää0rn was ihm besser liegt. Lieber heizen oder n eigenes Propellerkonzert @ home. Und von den 1. Boards die die Tester bekamen ist noch lange nicht auf die Retailboards zu schließen.

Cya Lubi

tombman
2005-10-07, 11:43:46
solange kein r520 crossfire da ist und dieses nicht per nhancer getweaked werden kann: eindeutig 7800GTX ;)

Blaze
2005-10-07, 11:48:27
solange kein r520 crossfire da ist und dieses nicht per nhancer getweaked werden kann: eindeutig 7800GTX ;)

aHancer würde auch scheisse klingen :D

Topic: Bei mir auch eindetuig 7800GTX ;)

tombman
2005-10-07, 11:50:10
Weil egal wie schnell die x1800xt auch ist: schneller als ZWEI 7800GTX ist sie nicht :cool:

Crushinator
2005-10-07, 12:20:33
(...) Die eingeschränkte SM3.0 Unterstützung des Radeon ist überaus ärgerlich. Sie hat zwar für den Endkunden in der Entscheidung kaum Relevanz, aber es bedeutet, dass das fehlende Feature vermutlich in der nächsten Spielegeneration schlicht nicht verwendet werden kann. Das trifft somit alle, nVidia wie ATI Kunden, und man kann ATI gar nicht genug dafür kritisieren. (...)
Die sogenannte Einschränkung wird meiner Meinung nach z.Z. etwas überbewertet. Es wird auf alle Fälle möglich sein für die Anwendung das selbe zu erreichen wie Vertex Texturing. Es steht jedoch noch nicht fest, wie transparent die Nutzung dem Entwickler zugänglich wird.

@Topic
[x] Keine

deekey777
2005-10-07, 12:37:21
[x] Keine.
Oder besser:
[x] Wir sprechen uns im November. :)

Demirug
2005-10-07, 12:43:00
Die sogenannte Einschränkung wird meiner Meinung nach z.Z. etwas überbewertet. Es wird auf alle Fälle möglich sein für die Anwendung das selbe zu erreichen wie Vertex Texturing. Es steht jedoch noch nicht fest, wie transparent die Nutzung dem Entwickler zugänglich wird.

Im Anbetracht der Tatsache das ATI seine D3D Hacks nichts ordentlich dokumentiert (Ja nVidia macht das zum Beispiel) ist das ebenfalls nicht sonderlich aktzeptabel. Die VT Lösung ist zudem weniger aufwendig und belastet die CPU weniger. Für was haben wir standards wenn sich niemand daran hält. ATI könnte es mit entsprechendem Aufwand auch über den Treiber Spec konform emulieren.

Hakkerstiwwel
2005-10-07, 12:56:32
[x] Keine.
Oder besser:
[x] Wir sprechen uns im November. :)

Ditto
erst mal Herstellerkarten und finale Treiber abwarten

tombman
2005-10-07, 12:57:06
VT und super braching speed is doch eh egal im Lebenszyklus der Karten. Bis games davon heavy use machen haben wir alle schon andere Karten drin...

Als dev würde ich natürlich die Karte nehmen, die am meisten "kann", oder aber wahrscheinlich eh beide ;)

Grestorn
2005-10-07, 13:04:36
Ist doch andersherum nicht anders, Leute die ne 6800Ultra hatten, nun ne GTX haben, meckern über Lautstärke und Stromverbrauch der X1800XT. Das die 6800Ultra noch einiges lauter war juckt da herzlich wenig.
Wer sind "die Leute"? Ich habe bisher nur Statements in der Richtung gelesen, die den ATI-Verfechtern alter Tage ihre eigenen Argumente mit Freuden zurückreichen.

Ein Statement, "ich steh auf nVidia 7800 weil die so stromsparend und leise sind" habe ich bisher dagegen nicht gelesen.

Grestorn
2005-10-07, 13:06:11
solange kein r520 crossfire da ist und dieses nicht per nhancer getweaked werden kann: eindeutig 7800GTX ;)
So lange ATI keine usermanipulierbaren Profile einführt, wird es auch keinen "AThancer" geben... sorry.

Wenn sich das mal ändert, ist es sogar recht wahrscheinlich, dass ich ne ATI-Version baue.

StefanV
2005-10-07, 13:10:05
So lange ATI keine usermanipulierbaren Profile einführt, wird es auch keinen "AThancer" geben... sorry.

Wenn sich das mal ändert, ist es sogar recht wahrscheinlich, dass ich ne ATI-Version baue.
Geht doch schon lange, mit dem CCC ;)

Da kann man gar 'nen Link aufm Desktop setzen, bei dem das entsprechende Profil aktiviert wird und dann das Game geladen...

A.Wesker
2005-10-07, 13:10:11
7800 GTX, vorallem wegen SLI

Grestorn
2005-10-07, 13:21:27
Geht doch schon lange, mit dem CCC ;)

Da kann man gar 'nen Link aufm Desktop setzen, bei dem das entsprechende Profil aktiviert wird und dann das Game geladen...
Ich spreche von automatischen Profilen. Manuelle gibt's schon immer, die interessieren mich nicht die Bohne.

ATI verwendet derzeit auch schon automatische Profile. Die nennen das "A.I.", das gab's aber schon lange vorher (z.B. daran zu erkennen, dass bei einigen Spielen kein AA zu erzwingen war).

Bei Crossfire geht's auch gar nicht anders (auch wenn sie da erst groß rumgetönt haben). Leider gibt es von außen keine Möglichkeit, diese im Treiber verankerten Profile zu verändern.

Spasstiger
2005-10-07, 13:57:18
Nach dem aktuellen Zwischenstand liegt Nvidia klar in der Gunst der Käufer, 62% würden eine GF7800 GT/GTX kaufen oder warten noch auf die GF7800 GTX mit 512 MB, 38% würde eine der neuen ATIs kaufen.

Blaze
2005-10-07, 14:04:26
Nach dem aktuellen Zwischenstand liegt Nvidia klar in der Gunst der Käufer, 62% würden eine GF7800 GT/GTX kaufen oder warten noch auf die GF7800 GTX mit 512 MB, 38% würde eine der neuen ATIs kaufen.

Was wohl auch daran liegt dass dort nur 2 ATI Kärtchen zur Auswahl stehen, bei NV sinds 3.

Also musst du 60:40 rechnen und dann ists ziemlich ausgeglichen ;)

Hakkerstiwwel
2005-10-07, 14:39:52
Laut INQ ( :cop: ...ich weis) sollen ja zwei verschieden Revs des R520 kommen. Die Frage die sich mir jetzt stellt ist welcher Rev die getesteten XT Karten angehoerten (alte Rev handselektiert und mit total ueberhoehter Spannung auf 625 Mhz getrieben), oder war das schon das neue Stepping? Falls 1 ist es immerhin moeglich daß bei finalen Karten der Verbrauch etwas moderater fallen koennte.

alpha-centauri
2005-10-07, 14:51:00
Ein Statement, "ich steh auf nVidia 7800 weil die so stromsparend und leise sind" habe ich bisher dagegen nicht gelesen.[/QUOTE]

doch, hier ich!

ati, x800 vs 6800 reihe: stromsparend, leiser, kleine kühler.

ati x1800 vs 7800 : anders rum.

StefanV
2005-10-07, 14:57:07
doch, hier ich!

ati, x800 vs 6800 reihe: stromsparend, leiser, kleine kühler.

ati x1800 vs 7800 : anders rum.
...nur bei der x1800XT und auch das könnte sich ev. noch ändern...

Grestorn
2005-10-07, 14:58:09
doch, hier ich!

ati, x800 vs 6800 reihe: stromsparend, leiser, kleine kühler.

ati x1800 vs 7800 : anders rum.
Na, als Tatsache ist das ja auch unproblematisch, oder? Es hat aber keiner der früheren NV-Verteidiger sich jetzt hingestellt und behauptet, er gäbe der G70 genau deswegen den Vorzug.

Lightning
2005-10-07, 15:02:57
Vom Preis-Leistungsverhältnis sagt mir momentan die GeForce 7800 GT am meisten zu. Wenn die X1800 XL genauso günstig wäre, würde ich allerdings eher zu dieser tendieren. Zwar ist die 7800 GT imho etwas schneller, doch würde mich das schönere AF dafür entschädigen. Sollte sich eine vergleichbare AF-Qualität durch neuere Treiber aber auch bei nVidia ergeben, sähe es wiederum anders aus.

Wenn ich komplett vom Preis absehen würde, würde ich die X1800 XT als meinen Favoriten bezeichnen. Tolle Leistung und die für mich insgesamt besseren Features.


Kaufen werde ich mir nach momentanem Stand der Dinge aber überhaupt keine der genannten Karten, da sie schlicht nicht für AGP verfügbar sind.

deekey777
2005-10-07, 15:03:06
Laut INQ ( :cop: ...ich weis) sollen ja zwei verschieden Revs des R520 kommen. Die Frage die sich mir jetzt stellt ist welcher Rev die getesteten XT Karten angehoerten (alte Rev handselektiert und mit total ueberhoehter Spannung auf 625 Mhz getrieben), oder war das schon das neue Stepping? Falls 1 ist es immerhin moeglich daß bei finalen Karten der Verbrauch etwas moderater fallen koennte.

Nix laut Inquirer.
X1800XT: http://www.xbitlabs.com/articles/video/display/radeon-x1000_10.html -> Zur Zeit aktuellste Revision, aber erst im November lieferbar.
X1800XL -> http://www.xbitlabs.com/articles/video/display/radeon-x1000_11.html ältere Revision 04: "This one is dated the 32-th week of 2005. We suspect it to be an earlier revision of the R520 chip, unable to work at frequencies above 500-550MHz." Darum sind die X1800XL schon fast verfügbar, doch Übertaktungswunder sind sie nicht. Meine persönliche Empfehlung ist, daß man mit dem Kauf bis in die Mitte November wartet, da einerseits auch die X1800XL auf der Rev. 05 gewechselt wird, andererseits könnten diese "alten" X1800XL billiger verkauft werden.

Android
2005-10-07, 15:09:24
Ich finde da fehlt noch was:

Der G72 und der R580.

Bei dem kurzen Zyklus wäre es nur logisch die mitaufzunehmen.

Also folgendermassen:


Welche High-End-Grafikkarte ist derzeit euer Favorit?

GeForce 7800 GTX (256 MB)
GeForce 7800 GT (256 MB)
Radeon X1800 XT (512 MB)
Radeon X1800 XL (256 MB)
Erst mal die 7800 GTX mit 512 MB abwarten
Kein Bedarf. Bis zum R580 kann ich noch warten.
Kein Bedarf. Bis zum G72 kann ich noch warten.

StefanV
2005-10-07, 15:15:06
Ich spreche von automatischen Profilen. Manuelle gibt's schon immer, die interessieren mich nicht die Bohne.

ATI verwendet derzeit auch schon automatische Profile. Die nennen das "A.I.", das gab's aber schon lange vorher (z.B. daran zu erkennen, dass bei einigen Spielen kein AA zu erzwingen war).

Bei Crossfire geht's auch gar nicht anders (auch wenn sie da erst groß rumgetönt haben). Leider gibt es von außen keine Möglichkeit, diese im Treiber verankerten Profile zu verändern.
Achso, ja, nee, die gibts irgendwie nicht, obs die geben wird, ist auch eher fraglich, man hat ja schließlich die manuellen...

redfox
2005-10-07, 15:18:19
[x] Radeon X1800 XT (512 MB)
ati fanboy ;)
Redfox

Karümel
2005-10-07, 15:22:30
Vom Preis-Leistungsverhältnis sagt mir momentan die GeForce 7800 GT am meisten zu. Wenn die X1800 XL genauso günstig wäre, würde ich allerdings eher zu dieser tendieren. Zwar ist die 7800 GT imho etwas schneller, doch würde mich das schönere AF dafür entschädigen. Sollte sich eine vergleichbare AF-Qualität durch neuere Treiber aber auch bei nVidia ergeben, sähe es wiederum anders aus.

Wenn ich komplett vom Preis absehen würde, würde ich die X1800 XT als meinen Favoriten bezeichnen. Tolle Leistung und die für mich insgesamt besseren Features.



Dito ;)

Pappy
2005-10-07, 15:45:55
Im Moment tendiere ich eher zur 7800 GTX, da die Spiele, die ich spiele bzw. spielen werde nunmal NV lastig sind.

Marc-
2005-10-07, 16:03:15
Weil egal wie schnell die x1800xt auch ist: schneller als ZWEI 7800GTX ist sie nicht :cool:

Egal wie schnell die 7800GTX alleine oder im SLI verbund ist... die Bildqualität EINER ATI x1800 hat sie nicht.

Egal wie schnell die 7800GTX ist... schneller als ZWEI x1800XT ist sie nicht...

Marc-
2005-10-07, 16:05:57
solange kein r520 crossfire da ist und dieses nicht per nhancer getweaked werden kann: eindeutig 7800GTX ;)

Es ist wohl eher unwahrscheinlich das das entsprechende ati tool "Nhancer" heissen wird... omg. Man könnte sich natürlich auch vorstellen das dazu garkein externes tool nötig waere bzw das deutlich häufiger und schneller in den treiber engepflegt wird. Auch das ist wohl denkbar.

PP
2005-10-07, 16:10:27
[x] Radeon X1800 XT (512 MB)
Obwohl Ich auf den R580 warten wollte, habe Ich eine vorbestellt :smile:

Blaire
2005-10-07, 16:25:04
[x] 7800GTX@SLI

Wenn eine 512MB Variante des G70 erscheint und er ev. deutlich mehr Leistung bringt, würde ich vieleicht ins grübeln kommen. Ati stellt derzeit keine Option für mich dar.

Schrotti
2005-10-07, 16:26:28
[x] Erst mal die 7800 GTX mit 512 MB abwarten

Erstmal abwarten.

Mfg Schrotti

Lord Helmchen
2005-10-07, 16:30:52
Eindeutig die X1800 XT

weil

bessere Kantenglättung, viel bessere Bildqualität, meistens schneller als die 7800GTX, bessere AF-Filterung und bricht in den Qualitätseinstellungen viel (15-20 %) weniger ein als die 7800 GTX.

Was will man mehr ?

InsaneDruid
2005-10-07, 17:34:56
X1800XT

- die ATI Treiber gefallen MIR (!) besser als die von NV (hab auf beiden Seiten Erfahrungen gesammelt und für MICH (!) entschieden)

- beste aktuelle AF Qualität und gute FSAA Quali (6x + adaptiv gefällt mir zb extrem gut, und ist von den Leistungseinbußen durchaus besser als 8xS, und AF Qualität ist schon hoch, da MUSS man kein durchgehendes SS haben.

- 512MB fordern zwar ihren (Strom)Tribut, aber es gibt ja auch ne 256MB Version, die deutlich weniger fressen dürfte, der XL aber immer noch überlegen ist.

Leistung (vs 78) ist mir fast nebensächlich, ob die Eine oder Andere nun vorne liegt geht für mich in den obigen Punkten unter. Lahm wird sie definitiv nicht.

knallebumm
2005-10-07, 17:46:53
7800gt

Im Moment die einzige von denen mit einem halbwegs akzeptablen Preis.

Spasstiger
2005-10-07, 17:49:42
- 512MB fordern zwar ihren (Strom)Tribut, aber es gibt ja auch ne 256MB Version, die deutlich weniger fressen dürfte, der XL aber immer noch überlegen ist.

Der größere und schnellere Speicher macht nach meinen Schätzungen ca. 15 Watt aus. Die restlichen ca. 30 Watt kommen vom höheren Chiptakt und der höheren Chipspannung bei der X1800 XT.
Da kann man imo gleich die 512 MB Variante kaufen, stromsparend wird nämlich auch die 256 MB Variante nicht sein ;).

StefanV
2005-10-07, 18:20:48
Definitiv ATi...

Von nV hab ich eigentlich genug, deren Treiberpolitik, insbesondere was ältere Spiele/HW betrifft, halte ich für äußerst fragwürdig...

Bei ATi läuft z.B. die 8500 sogar etwas besser als mit den letzen Treibern vor dem R300 Release, bei nV wurden einige Funktionen im Treiber gestrichen, die die nV2x Generationen und früher betreffen...

Feuerteufel
2005-10-07, 19:16:43
X1800XT bzw. deren Nachfolgechip
- Weil ich die ATI Treiber besser finde
- genauso AA + AF
- wahnwitziger Speicherdurchsatz + allgemein gute Gesamtleistung

tombman
2005-10-07, 19:24:21
Egal wie schnell die 7800GTX alleine oder im SLI verbund ist... die Bildqualität EINER ATI x1800 hat sie nicht.
Welche X1800XT? Ach so, dieses Ding was weit in der Zukunft liegt ;D
Egal wie schnell die 7800GTX ist... schneller als ZWEI x1800XT ist sie nicht...
Welche ZWEI X1800XT? Ach so, das ist das andere Ding, was noch viel weiter in der Zukunft liegt ;D;D

tombman
2005-10-07, 19:27:52
Es ist wohl eher unwahrscheinlich das das entsprechende ati tool "Nhancer" heissen wird... omg. Man könnte sich natürlich auch vorstellen das dazu garkein externes tool nötig waere bzw das deutlich häufiger und schneller in den treiber engepflegt wird. Auch das ist wohl denkbar.
Isses ned scheißegal wie es heißen wird, FALLS es überhaupt eines geben wird?

Und nachdem grestorn selbst sagt, daß ATI da praktisch Null Offenheit zeigt..wirds wohl nix werden mit hoch konfigurierbaren Profilen. Damits wirds dann wohl heißen: "Friß Crossfire-Profile, oder stirb" :cool:

Marc-
2005-10-07, 19:31:18
Welche X1800XT? Ach so, dieses Ding was weit in der Zukunft liegt ;D



Lesen ist eine zier:) ich habe bewusst x1800 (nix xt.... bewusst offengelassen:) Und da reden wir wohl kaum von etwas was weit in der zukunft liegt gelle?:) zumal ich da net mal mit der x1800 hätte anfangen muessen.... 1600,1300 mit einschränkung sogar x800 haette gereicht was BQ angeht.

DaBrain
2005-10-07, 19:35:50
Die 1800er sind echt interessant. Wenn die AF Qualität besser als bei G70 und NV40 ist, ist meine nächste Karte 100%ig eine mit ATI Chip. :)

Die Leistung ist ja auch ok.

Marc-
2005-10-07, 19:39:09
Isses ned scheißegal wie es heißen wird, FALLS es überhaupt eines geben wird?

Und nachdem grestorn selbst sagt, daß ATI da praktisch Null Offenheit zeigt..wirds wohl nix werden mit hoch konfigurierbaren Profilen. Damits wirds dann wohl heißen: "Friß Crossfire-Profile, oder stirb" :cool:

warten wirs doch mal ein bissel ab lieber freund?:)
Wie war das mit der henne und dem ei? war die nhancer sli option eher da als sli selbst? Wenn nein... wie lange hats gedauert? Und kam nhancer von nv selbst oder aus der community? Und das auch bezgl. ati die bereitschaft da ist, kannst du auch aus grestorns aussage sehen. Soweit ich mich erinnern kann waren zu anfangszeiten die möglichkeiten bei sli auch auch auf einige sehr wenige spiele begrenzt, da konnte auch nur genommen werden was nv zur verfügung stellte.
Anderes beispiel: wie lang hat nv gebraucht um die möglichkeit zu schaffen sli an/aus/umzustellen ohne reboot? Wie lange um verschiedene karten (nicht mal verschiedene karten generationen oder chipsaetze, sondern wenigstens die verschiedener hersteller oder revisionen) zuzulassen? Ein feature uebrigens was cf gleich mitbringt... wie erstaunlich das doch ist...

Demirug
2005-10-07, 19:50:17
warten wirs doch mal ein bissel ab lieber freund?:)
Wie war das mit der henne und dem ei? war die nhancer sli option eher da als sli selbst? Wenn nein... wie lange hats gedauert? Und kam nhancer von nv selbst oder aus der community? Und das auch bezgl. ati die bereitschaft da ist, kannst du auch aus grestorns aussage sehen. Soweit ich mich erinnern kann waren zu anfangszeiten die möglichkeiten bei sli auch auch auf einige sehr wenige spiele begrenzt, da konnte auch nur genommen werden was nv zur verfügung stellte.
Anderes beispiel: wie lang hat nv gebraucht um die möglichkeit zu schaffen sli an/aus/umzustellen ohne reboot? Wie lange um verschiedene karten (nicht mal verschiedene karten generationen oder chipsaetze, sondern wenigstens die verschiedener hersteller oder revisionen) zuzulassen? Ein feature uebrigens was cf gleich mitbringt... wie erstaunlich das doch ist...

Die Profil Schnittstelle im Treiber gab es von Anfang an. Sogar im Panel war die Page vorhanden man konnte sie nur aktivieren. Der nVidia Treiber ist schon lange so aufgebaut das man jede Einstellung Programmspezifisch vornehmen kann.

Das SLI empfindlicher ist liegt an der besseren (schneller; flexibler) Verbindung der beiden Karten. Ich weiß das hört sich merkwürdig an ist aber so. Mit der Bastellösung von Crossfire kann ich dir sogar eine ATI und nVidia Karte zusammen hängen. Lang lebe Alienware da hat ATI das ganze nämlich geklaut.

Karümel
2005-10-07, 22:07:41
. Mit der Bastellösung von Crossfire kann ich dir sogar eine ATI und nVidia Karte zusammen hängen.

Was? Wirklich?

deekey777
2005-10-07, 22:12:52
Was? Wirklich?

Man braucht eigentlich nur einen passenden Treiber.

€: Man braucht doch mehr...

Demirug
2005-10-07, 22:12:57
Was? Wirklich?

Ja das Verfahren funktioniert auch mit Karten von Unterschiedlichen Herstellern. Man muss sich allerdings noch eine Spezielle DX Runtime bzw OpenGL Runtime besorgen die es noch nicht gibt. Aufgrund der unterschiedlichen AA/AF Verfahren wird sowas aber keiner ernsthaft haben wollen. Darum hat ja auch keiner die passenden Software programmiert und die kleine Box gebaut.

Lotus
2005-10-07, 23:12:13
[x] HQ-AF (512 MB)

Coda
2005-10-07, 23:26:12
Welche X1800XT? Ach so, dieses Ding was weit in der Zukunft liegt ;D

Welche ZWEI X1800XT? Ach so, das ist das andere Ding, was noch viel weiter in der Zukunft liegt ;D;DDu bist ja so gemein.

Andreas12
2005-10-07, 23:54:20
HQ AF scheint mir sehr interessant,
aber da ich eine 7800 GTX besitze
habe ich keine Veranlassung zum Wechsel.

Odal
2005-10-08, 02:11:02
naja wenn ich mir jetzt mal die gamebenches von X-bit labs angucke is der X1800 dafür das er sooo spät kommt und vermutlich teurer ist performancetechnisch ne gurke
aber er hat geiles AF :D

daher für gleichen preis wie GTX würd ich die XT nehmen... ansonsten eher GT ... XL is zu lahm denn mindestens so schnell wie die GT muss es schon sein.

Frank1974
2005-10-08, 02:32:07
naja wenn ich mir jetzt mal die gamebenches von X-bit labs angucke is der X1800 dafür das er sooo spät kommt und vermutlich teurer ist performancetechnisch ne gurke

Ati hätte den Chip sehr gerne eher rausgebracht,aber Technische Probleme in der Entwicklung, eines so komplexen Grafikchips sind nunmal ein Debakel,man muss froh sein das es nicht noch schlimmer gekommen ist,die Leistung passt jedenfalls, aber der Stromverbrauch was sonst immer zu gunsten von Ati war ist wirklich grauenhaft :mad:

XL is zu lahm denn mindestens so schnell wie die GT muss es schon sein.

Ja die XL ist wirklich kein guter Rivale zur GT,nur wenn Ati den für 300-340€ raushauen würde dann könnte man dagegen halten.

MFG
Frank

Mumins
2005-10-08, 08:34:03
Ati hätte den Chip sehr gerne eher rausgebracht,aber Technische Probleme in der Entwicklung, eines so komplexen Grafikchips sind nunmal ein Debakel,man muss froh sein das es nicht noch schlimmer gekommen ist,die Leistung passt jedenfalls, aber der Stromverbrauch was sonst immer zu gunsten von Ati war ist wirklich grauenhaft :mad:



Ja die XL ist wirklich kein guter Rivale zur GT,nur wenn Ati den für 300-340€ raushauen würde dann könnte man dagegen halten.

MFG
Frank

Es wird ja noch ne neue Revision der XL nachgeschoben.

Odal
2005-10-08, 09:57:43
welche evtl. noch mehr saft zieht :(

vielleicht gibts aber endlich kampfpreise so dass ich mir auch mal eine "low highend" graka zulegen kann und nicht wie immer mittelklasse

MikBach
2005-10-08, 10:06:56
welche evtl. noch mehr saft zieht :(

:confused:
Neue Revisionen kommen weil sie besser sind...und nicht schlechter, was du hier suggerierst. :wink:

Odal
2005-10-08, 10:16:27
die nue XL wird aber vermutlich dann auf der Revision der XT basieren welche mehr saft braucht ;)

MikBach
2005-10-08, 10:18:19
die nue XL wird aber vermutlich dann auf der Revision der XT basieren welche mehr saft braucht ;)
Aber nicht, weil die Revision schlechter ist... :wink:

mbee
2005-10-08, 10:22:08
Welche X1800XT? Ach so, dieses Ding was weit in der Zukunft liegt ;D

Welche ZWEI X1800XT? Ach so, das ist das andere Ding, was noch viel weiter in der Zukunft liegt ;D;D



Du bist ja so gemein.

Er hat aber irgendwie recht IMO. Der R520 und Crossfire kommen für mich leider viel zu spät und bringen zu wenig Neuerungen/Verbesserungen gegenüber dem G70 und SLI. Alleine bis erst einmal genügend stabile Crossfire-Boards in ausreichenden Stückzahlen erhältlich sind, wird es wohl noch ein wenig dauern. Und für mich haftet der Implementierung von Crossfire ein gewisser "Bastelfaktor" an (die externe Kopplung der Karten hat mich schon damals bei 3DFX genervt).
Woran ATI auch einmal unbedingt arbeiten sollte, ist die Implementierung des TV-Outs: Ich war als jahrelanger ATI-User ziemlich überrascht, wie einfach es möglich ist, mit dem NV-CP 1600x1200 auf dem TFT und PAL-Auflösung auf dem TV im Clone- oder Spawn-Modus zu fahren (von den weiteren Einstellungsmöglichkeiten ganz zu schweigen), was mit dem CCC bei mir so gar nicht möglich war, da sich die Auflösung des TV nicht umstellen ließ.

Interessant sind die Ansätze des R520 (AA, Ringbus) auf jeden Fall, mein Augenmerk gilt jedoch erst wieder dem R580 im Vergleich mit NVs Nachfolgechip.

Rampage 2
2005-10-08, 11:52:15
Also ich bin von ATI ein wenig enttäuscht, weil die X1800XT trotz extrem hoher Speicherbandbreite bei OpenGL-Games und Games mit hohen Texturanforderungen (z.B. HL2) von der 7800 GTX locker zersägt wird. Darüber hinaus ist bei Nvidia der HDR-Support immer noch besser. Was noch enttäuschender ist, ist das ATI, immer noch kein 8xMSAA gebracht hat. Was das AF angeht - so wird NV wohl bald nachziehen.

Dennoch ist die X1800XT eine sehr gute Karte, von der der Hardcore-Gamer sehr profitieren kann. Außerdem scheint die PS/VS-Leistung bei ATI höher zu liegen wie es z.B. bei F.E.A.R. und SC3 deutlich zu sehen ist.

Oblivion
2005-10-08, 12:54:12
7800GTX

weil ich ich von ATI - für die Zeit die sie hatten zum Entwickeln (3 monate sind eine langezeit in der Computerbranche) einfach zu wenig gekommen is

reunion
2005-10-08, 12:59:03
7800GTX

weil ich ich von ATI - für die Zeit die sie hatten zum Entwickeln (3 monate sind eine langezeit in der Computerbranche) einfach zu wenig gekommen is

R520 hatte vor G70 das Tapeout, ergo weniger Zeit zum entwickeln - das Problem war nur die Fertigung.

tombman
2005-10-08, 13:28:59
Lesen ist eine zier:) ich habe bewusst x1800 (nix xt.... bewusst offengelassen:) Und da reden wir wohl kaum von etwas was weit in der zukunft liegt gelle?:) zumal ich da net mal mit der x1800 hätte anfangen muessen.... 1600,1300 mit einschränkung sogar x800 haette gereicht was BQ angeht.
Nö, die beste AA BQ hat Nvidia mit 8xSSAA+ TRSSAA, kostet nur viel fps, aber dazu hat man ja SLI ;)
Nur AF ist bei ATI besser, aber das is auch nix wo man ausflippen müßte, kann Nvidia jederzeit per Treiber ändern, da ich nicht glaube, daß winkelabhängiges AF in hardware erledigt wurde im G70.

tombman
2005-10-08, 13:33:40
warten wirs doch mal ein bissel ab lieber freund?:)
Wie war das mit der henne und dem ei? war die nhancer sli option eher da als sli selbst? Wenn nein... wie lange hats gedauert? Und kam nhancer von nv selbst oder aus der community? Und das auch bezgl. ati die bereitschaft da ist, kannst du auch aus grestorns aussage sehen. Soweit ich mich erinnern kann waren zu anfangszeiten die möglichkeiten bei sli auch auch auf einige sehr wenige spiele begrenzt, da konnte auch nur genommen werden was nv zur verfügung stellte.
Coolbits gabs schon praktisch von Anfang an, und das kam direkt von nvidia, wenn auch nur für "guys in the know". Nhancer ist ja praktisch nur die "Luxusversion" von coolbits/profiles ;)

Anderes beispiel: wie lang hat nv gebraucht um die möglichkeit zu schaffen sli an/aus/umzustellen ohne reboot?
Irrelevant, das ist nur eine Bequemlichkeit, aber nicht notwendig um ein Spiel mit SLI zum laufen zu bekommen, und DAS ist es was zählt.
Wie lange um verschiedene karten (nicht mal verschiedene karten generationen oder chipsaetze, sondern wenigstens die verschiedener hersteller oder revisionen) zuzulassen? Ein feature uebrigens was cf gleich mitbringt... wie erstaunlich das doch ist...
Irrelevant, freaks flashten das gleiche Bios und fertig. Und da freaks die Zielgruppe von SLI sind- no problem :cool:

Black-Scorpion
2005-10-08, 13:35:08
Also ich bin von ATI ein wenig enttäuscht, weil die X1800XT trotz extrem hoher Speicherbandbreite bei OpenGL-Games und Games mit hohen Texturanforderungen (z.B. HL2) von der 7800 GTX locker zersägt wird. Darüber hinaus ist bei Nvidia der HDR-Support immer noch besser. Was noch enttäuschender ist, ist das ATI, immer noch kein 8xMSAA gebracht hat. Was das AF angeht - so wird NV wohl bald nachziehen.

Dennoch ist die X1800XT eine sehr gute Karte, von der der Hardcore-Gamer sehr profitieren kann. Außerdem scheint die PS/VS-Leistung bei ATI höher zu liegen wie es z.B. bei F.E.A.R. und SC3 deutlich zu sehen ist.
Für was braucht ATI 8x MSAA?

mindfaq
2005-10-08, 14:42:40
Gar nicht.
Die Kantenglättung ist auch so schon ausreichend.
Ein paar Hybrid-Modi würden den ATI-Karten viel besser stehen.

StefanV
2005-10-08, 14:48:51
Gar nicht.
Die Kantenglättung ist auch so schon ausreichend.
Ein paar Hybrid-Modi würden den ATI-Karten viel besser stehen.
Gibts doch (mehr oder minder), heißt jetzt AAA ;)

Marc-
2005-10-08, 16:30:19
Nö, die beste AA BQ hat Nvidia mit 8xSSAA+ TRSSAA, kostet nur viel fps, aber dazu hat man ja SLI ;)
Nur AF ist bei ATI besser, aber das is auch nix wo man ausflippen müßte, kann Nvidia jederzeit per Treiber ändern, da ich nicht glaube, daß winkelabhängiges AF in hardware erledigt wurde im G70.

Das thema winkelabhängigkeit, wie immer wenn man nv schön reden möchte, spekulation auf den nächsten, angekündigten, bald vorhandenen wundertreiber.
Zum 2.... ich denke das wenn gottweisswas für anstrengungen und aufwand betrieben wird um in einem spiel 2-3 frames mehr zu bekommen, dann wird man kaum noch objektiv sagen koennen was für wen zum ausflippen reicht oder net.
Zudem hat eben nicht jeder sli (will auch bei weitem net jeder haben) und die lösung kann eben imho net sein das man sich um schwächen in der BQ zu behenen sich gleich noch ne karte für 400+ schleifen in den rechner ballert.
Ich nehme hiermit zur kenntnis, das für dich derlei argumente marginal sind... ich stelle weiterhin fest das sie es für eine grosse masse der user net sind. können wir uns darauf einigen?

Marc-
2005-10-08, 16:42:15
Coolbits gabs schon praktisch von Anfang an, und das kam direkt von nvidia, wenn auch nur für "guys in the know". Nhancer ist ja praktisch nur die "Luxusversion" von coolbits/profiles ;):

Ist sli (die option als solches und das produkt) explizit nur für freaks beworben worden? Soweit ich mich erinnern kann nicht, auf die möglichkeit das spiele out of the box zum teil sogar langsamer laufen konnten unter sli hab ich seitens nv nie einen hinweis gesehen... schon garnet auf den schoenen sli werbeplakaten.
Wenn du dir die foren anschaust zur damaligen zeit, gerade auch was echte enthusiasten angeht... dann wirst du monatelang mehr klagen als positive erfahrungen lesen. das lässt sich nunmal net wegdiskutieren.


"Irrelevant, das ist nur eine Bequemlichkeit, aber nicht notwendig um ein Spiel mit SLI zum laufen zu bekommen, und DAS ist es was zählt."

Noe... aber es ist unter anderem vielleicht notwendig um sli nach dem spiel für eine anwendung auszuschalten. Für dich mag die zahl von reboots und bequemlichkeit egal sein. für viele andere isses das net.
PS: So egal scheints dir auch net zu sein... ich zitiere dich auch dem thread zum neuen treiber:
"geile features, vorallem SLI ausschalten zum testen ohne reboot is genial..."
Also was nun herr tombman?



"Irrelevant, freaks flashten das gleiche Bios und fertig. Und da freaks die Zielgruppe von SLI sind- no problem :cool:"
DAs is nu net dein ernst tombman. Zum einen... siehe punkt 1 thema freaks. Zum 2. was das für folgen für garantie, welche risiken etc das hat, brauch ich dir net zu sagen... zumal es net immer geht da zum beispiel speichergeschwindigkeit und timings net für alle karten gleich sind.
Und wie machst du das mit ner 6800 und ner 7800er? flashte dann auf die 7800er ein 6800er bios? oder auf ne gtx ein gt bios? umgekehrt? wie jetzt? was machst du wenn eine der karten speziale vid ein ausgaenge herstellerseits hat die du nutzen möchtest?

Spasstiger
2005-10-08, 16:45:20
Was noch enttäuschender ist, ist das ATI, immer noch kein 8xMSAA gebracht hat.
Nvidia hat noch nicht mal 6xMSAA. Warum sollte ATI dann schon 8xMSAA bringen?

Horimoto
2005-10-08, 16:52:52
6xMSAA bei ATi sieht aus wie nVidias 8xMSAA, und SSAA kann man einstellen per tool.
PS: müsste da jetzt nciht auf 8xSS drinnen sein? bisher war es ja nur 2x

tombman
2005-10-08, 17:11:54
Das thema winkelabhängigkeit, wie immer wenn man nv schön reden möchte, spekulation auf den nächsten, angekündigten, bald vorhandenen wundertreiber.
Ich habe bereits gesagt, daß w-ua. AF ist schöner bei ATI, also nix mit schönreden.
Zum 2.... ich denke das wenn gottweisswas für anstrengungen und aufwand betrieben wird um in einem spiel 2-3 frames mehr zu bekommen, dann wird man kaum noch objektiv sagen koennen was für wen zum ausflippen reicht oder net. Das wird "man" sowieso nie können, weil der Mensch an sich nicht objektiv ist :rolleyes:

Zudem hat eben nicht jeder sli (will auch bei weitem net jeder haben) und die lösung kann eben imho net sein das man sich um schwächen in der BQ zu behenen sich gleich noch ne karte für 400+ schleifen in den rechner ballert.
Ich nehme hiermit zur kenntnis, das für dich derlei argumente marginal sind... ich stelle weiterhin fest das sie es für eine grosse masse der user net sind. können wir uns darauf einigen?
Wir können uns darauf einigen, daß man erstmal die Reaktion von Nvidia abwarten sollte in Sachen w-ua AF ;)

tombman
2005-10-08, 17:23:29
Ist sli (die option als solches und das produkt) explizit nur für freaks beworben worden?
Wird ein Bentley explizit für Reiche beworben? :rolleyes:
Der Preis allein zeigt schon für wen SLI ist, da braucht man ned extra auf die Packung draufschreiben "Are you noob? Then get your fucking hands off this package!" ;D

Soweit ich mich erinnern kann nicht, auf die möglichkeit das spiele out of the box zum teil sogar langsamer laufen konnten unter sli hab ich seitens nv nie einen hinweis gesehen... schon garnet auf den schoenen sli werbeplakaten.
Wenn du dir die foren anschaust zur damaligen zeit, gerade auch was echte enthusiasten angeht... dann wirst du monatelang mehr klagen als positive erfahrungen lesen. das lässt sich nunmal net wegdiskutieren.
Das waren keine echten Enthusiasten, weil solche kannst mit der Lupe suchen. Echte Enthusiasten wußten und wissen nämlich was man von SLI erwarten darf und was nicht.


"Irrelevant, das ist nur eine Bequemlichkeit, aber nicht notwendig um ein Spiel mit SLI zum laufen zu bekommen, und DAS ist es was zählt."

Noe... aber es ist unter anderem vielleicht notwendig um sli nach dem spiel für eine anwendung auszuschalten.
Welche Anwendungen wären denn das? Ich kenn keine. (es geht um SLI abschalten, nicht das einfache setzen auf "single gpu rendering im cb2")

Für dich mag die zahl von reboots und bequemlichkeit egal sein. für viele andere isses das net.
Bequemlichkeit war MEIN Wort.

PS: So egal scheints dir auch net zu sein... ich zitiere dich auch dem thread zum neuen treiber:
"geile features, vorallem SLI ausschalten zum testen ohne reboot is genial..."
Also was nun herr tombman?

Jo, es ist bequem, aber ned unbedingt notwendig.

"Irrelevant, freaks flashten das gleiche Bios und fertig. Und da freaks die Zielgruppe von SLI sind- no problem :cool:"
DAs is nu net dein ernst tombman. Zum einen... siehe punkt 1 thema freaks. Zum 2. was das für folgen für garantie, welche risiken etc das hat, brauch ich dir net zu sagen
Es gibt keine Risiken wenn man weiß was man tut, siehe freaks ;)

... zumal es net immer geht da zum beispiel speichergeschwindigkeit und timings net für alle karten gleich sind.
GTX = GTX, was soll da ned gleich sein? Die werden sogar alle vom selben Hersteller gefertigt, und jeder IHV pickt dann nur mehr seine Aufkleber drauf, so einfach ist das. Klar, ein paar ocen von Haus aus, aber des sind keine Probleme, die freaks nicht umgehen könnten ;)

Und wie machst du das mit ner 6800 und ner 7800er? flashte dann auf die 7800er ein 6800er bios? oder auf ne gtx ein gt bios? umgekehrt? wie jetzt? was machst du wenn eine der karten speziale vid ein ausgaenge herstellerseits hat die du nutzen möchtest?
Welcher Wahnsinnige will SLI mit Karten aus verschiedenen Generationen machen? Gehts noch unsinniger?

mindfaq
2005-10-08, 17:31:02
6xMSAA bei ATi sieht aus wie nVidias 8xMSAADas stimmt so nicht wirklich. Von der reinen Polygonkantenglättung sind die beiden Modi durchaus vergleichbar. Die Einwirkungen von Supersampling auf das gesamte Bild hat man bei ATIs 6x-Modus aber nicht. Dafür bezahlt man es bei Nvidia aber auch mit einem ziemlich großen Performanceeinbruch.

Spasstiger
2005-10-08, 17:38:46
6xMSAA bei ATi sieht aus wie nVidias 8xMSAA, und SSAA kann man einstellen per tool.
PS: müsste da jetzt nciht auf 8xSS drinnen sein? bisher war es ja nur 2x

Nvidia-Karten können kein 8xMSAA.

mindfaq
2005-10-08, 17:47:16
Das ist klar, ich denke mal er meint 8xS.

Spasstiger
2005-10-08, 17:50:09
Das ist klar, ich denke mal er meint 8xS.

Naja, aber er fordert 8xMSAA bei ATI mit der Begründung, Nvidia könne es auch. Das ist einfacht nicht korrekt. Und 6xMSAA mit AAA sollte bei ATI schon eine hervorragende Glättungswirkung auf das ganze Bild zeigen. Wenn man dann noch 16:1 HQ-AF dazuschaltet, dann brauchts wirklich keine SSAA-Modi mehr (zumal AAA ja auch per SS funktioniert).
Das schöne ist, dass bei den neuen ATIs damit sogar eine sehr brauchbare Performance rausspringt.
8xS AA bei Nvidia bringt für die benötigte Mehrleistung einfach nicht den zu erwartenden Qualitätsgewinn (die Polygonglättungswirkung ist nicht besser als bei ATIs 6xMSAA), dann lieber 4xMSAA und TRSAA.
Oder man wählt gleich 16xS AA, dann zeigt auch der SSAA-Anteil eine deutliche Wirkung. Natürlich von der Performance her unter aller Kanone, aber bei einigen CPU-limitierten Spielen geht das schon.

mindfaq
2005-10-08, 18:07:31
Ja, das HQ-AF reizt mich auch ziemlich, da verliert SS noch ein wenig mehr Reiz als es durch Transparenz-AA eh schon verloren hat.
Jetzt müsste nur noch die Performance des AAA auf ATI-Karten besser werden...

Wenn NV nicht nachzieht mit dem AF, wird meine nächste Karte wohl eine ATI werden. Aber bis dahin ist noch Zeit, hab ja schon ne GTX.

Metzger
2005-10-09, 10:10:33
Ich habe mir jetzt gestern eine 7800 GTX bestellt (für 429 Euro). Meine alte Grafikkarte (9700 Pro) hat nächste Woche ihren 3. Geburtstag und ich denke, die hat ihr Geld mehr als verdient. Ich spekulierte eigentlich eher mit einer R520, aber sie hat mich von der Leistung jetzt nicht soo sehr überzeugt, dass ich das zusätzliche Geld dafür lockermachen würde. Und bis die R520 soweit im Preis gefallen ist, dass sie mit der 7800 GTX auch preislich mithalten kann, dauert mir zu lange.

Ich bin jetzt nicht jemand, der oft seine Hardware wechselt (siehe 9700 Pro), aber ich denke schon, dass die 7800 GTX wieder paar Jährchen werkeln kann.

Winter[Raven]
2005-10-09, 11:17:02
Interessanter Poll, ATI führt nur mit einem hauchdünem Vorsprung. ATI konnte wohl so richtig nimmanden begeistern.

MikBach
2005-10-09, 11:21:35
']Interessanter Poll, ATI führt nur mit einem hauchdünem Vorsprung. ATI konnte wohl so richtig nimmanden begeistern.
Ich behaupte mal das Gegenteil.
Alle die eine 7800GTX (oder auch 2 :D ) besitzen, haben wohl für diese gestimmt, was auch durchaus verständlich ist...
Deswegen ist diese Auswertung auch leicht verfälscht....
Das lässt sich aber nicht vermeiden.

Spasstiger
2005-10-09, 12:14:12
']Interessanter Poll, ATI führt nur mit einem hauchdünem Vorsprung. ATI konnte wohl so richtig nimmanden begeistern.

Die Unentschlossenen, die noch auf die 7800 GTX 512 MB warten tendieren wohl eher zu Nvidia. Von daher liegt Nvidia imo mit klarem Abstand vorne in der Gunst.
Vielleicht ändert sich das, wenn die neuen ATIs auch tatsächlich im Handel verfügbar sind und sich die Preise auf ein niedrigeres Niveau eingependelt haben (insbesondere bei X1800 XL).

DaBrain
2005-10-09, 12:33:30
Ich hatte bis jetzt meistens NV Karten, aber ATI hat mit dem verbesserten AF und auch mit dem AAA für ältere Karten einiges wieder gut gemacht.

Mir ist das AAA für ältere Karten so wichtig, weil sich dabei zeigt, dass ATI sich nicht nur um die neuste Generation kümmert.

Wenn ich jetzt eine ATI Karte kaufe und nicht gleich aufrüste sobald die nächte Generation rauskommt, kann ich sicher sein, dass ich trotzdem noch Support bekomme. ;)

Bei NV müsste ich dann schon ehr mit Performance Bremse und Featurekürzung rechnen. :frown:


IMO ein Punkt der oft vernachlässigt wird, obwohl er sehr wichtig ist. Sei es nun für User, die eine oder mehrere Generationen überspringen, oder die ihre Karte dann in den 2. Rechner stecken.

MadManniMan
2005-10-09, 14:49:59
Da ich kein HiEnd kaufe, stimme ich auch nicht ab, aber mir ist da grad ein bemerkenswertes Gedanklein durch den Kopf gegangen:

Was hätte der R520, wenn er kein HQ-AF böte? ;)

Odal
2005-10-09, 14:51:30
so schlechtes AF wie NV? :confused:

aths
2005-10-09, 14:53:27
Da ich kein HiEnd kaufe, stimme ich auch nicht ab, aber mir ist da grad ein bemerkenswertes Gedanklein durch den Kopf gegangen:

Was hätte der R520, wenn er kein HQ-AF böte? ;)6x sparse Supersampling bei den Polygonen, die es brauchen. Für heutige Verhältnisse geniale Leistung bei dynamischem Branching im Pixelshader.

Coda
2005-10-09, 14:54:27
Wenn 3DCenter die Karte testet, dann aber bitte den Einbruch von AAA testen. Und das auch im 3DMark Vertexshader-Test bitte ;)

aths
2005-10-09, 14:59:22
']Interessanter Poll, ATI führt nur mit einem hauchdünem Vorsprung. ATI konnte wohl so richtig nimmanden begeistern.ATI führt, weil sie keinen richtig begeistern konnten? Liegt Nvidia hinten, weil sie richtig begeisterten?

aths
2005-10-09, 15:00:02
Wenn 3DCenter die Karte testet, dann aber bitte den Einbruch von AAA testen. Und das auch im 3DMark Vertexshader-Test bitte ;)Der Einbruch beim AAA interessiert mich z. B. nicht die Bohne. Sondern die Endleistung. Sind beim 3DMark-Vertexshader-Test denn Polygone zu sehen, für deren Texturen Alphatest eingestellt wurde?

deekey777
2005-10-09, 15:00:16
Wenn 3DCenter die Karte testet, dann aber bitte den Einbruch von AAA testen. Und das auch im 3DMark Vertexshader-Test bitte ;)

Leo wird durchdrehen, wenn er mit so vielen Einstellungen jede Grafikkarte in jeder Auflöung testen muß. :D

MadManniMan
2005-10-09, 15:03:04
6x sparse Supersampling bei den Polygonen, die es brauchen. Für heutige Verhältnisse geniale Leistung bei dynamischem Branching im Pixelshader.

Ich halte den Unterschied zwischen 4*RG und 6*SG für weitaus unwichtiger, als den zwischen HQ-AF und inzwischen "normalem", schätze zudem den Hybridmodus Vorteil auf nV-Seiten als nicht zu gering ein, in jedem Fall aber etwa gleichwertig interpretierbar, wie den 6* vs. 4* Vorteil.
Stimmst Du mir zu, daß beide IHVs AA-Vorteile haben, die unterm Strich das Pendel je nach Geschmack gleich weit ausschlagen lassen können?

Wenn ja, dann laß mich gleich mal weiterspinnen: die Branchinggeschwindigkeit ist eine grenzwertige Sache, da die Benches, die ich dazu gesehen habe zwar eine deutliche Sprache sprechen, wohl aber nicht in dem Ausmaß, daß das Feature erst mit der neuen ATi HW praktisch nutzbar und auf nV HW ebenso praktisch unnutzbar wäre. Deshalb bin ich nur geneigt, es als reinen Speedbonus und nicht als Feature zu verstehen (bspw. wäre AF auf dem Kyro2 nicht als Feature zu verstehen, da durch den ungeheuren Leistungseinbruch völlig unbrauchbar, aber jetzt wirds philosophisch...) und da kommts dann nachher natürlich auf die jeweilige Preis-/Leistung an.

Low Rider
2005-10-09, 15:05:55
Mein Favourit ist die X1800XL. Sie bietet die Vorzüge der XT bei doch deutlich geringerem Stromverbrauch (was mir aber eigentlich eher egal ist).
Da mich mit meinem TFT nur 1280x1024 interessiert, dürfte die Leistung völlig ausreichen und nach einigen Wochen sollte der Preis doch hoffentlich auf 7800GT-Niveau fallen.

Coda
2005-10-09, 15:06:10
Der Einbruch beim AAA interessiert mich z. B. nicht die Bohne. Sondern die Endleistung.Naja, das ist wohl auch vom Einbruch abhängig.

Sind beim 3DMark-Vertexshader-Test denn Polygone zu sehen, für deren Texturen Alphatest eingestellt wurde?Nein... aber irgendwie sollte man da die Vertexleistung mal messen, doof.

MadManniMan
2005-10-09, 15:07:01
Der Einbruch beim AAA interessiert mich z. B. nicht die Bohne. Sondern die Endleistung.

Zumindest wäre es wissenswert, ob sich die Konkurrenten ähnlich verhalten.
Und man erkennt seine Intention: herausfinden, ob AAA - wie hier und da vermutet - irgendwas mit den VS zu tun hat.

Aber da haste nochmal gut illustriert, was ich schon im Vorpost andeutete: die entgültige Leistung zählt - inwieweit das das schnelle Branching hilft ... we will see!

Sind beim 3DMark-Vertexshader-Test denn Polygone zu sehen, für deren Texturen Alphatest eingestellt wurde?

Nö, geht alles schon wunderbar über MSAA zu glätten.

(del)
2005-10-09, 15:19:01
So lange ATI keine usermanipulierbaren Profile einführt, wird es auch keinen "AThancer" geben... sorry.

Wenn sich das mal ändert, ist es sogar recht wahrscheinlich, dass ich ne ATI-Version baue.
BOAH :eek: (in andere Schublade steck ;) )

aths
2005-10-09, 15:22:20
Nvidia hat noch nicht mal 6xMSAA. Warum sollte ATI dann schon 8xMSAA bringen?Weil sie bei der Planung des R520 nicht wussten, was von NV zu dem Zeitpunkt auf dem Markt sein wird? Es ist übrigens nicht einfach, 8x AA anzubieten wenn man die 6x-Stufe weiterhin verfügbar haben möchte. Der Sprung von 4x auf 8x würde dann aber wohl einen stärkeren Framedrop nachsich ziehen.

Coda
2005-10-09, 15:24:42
Es ist übrigens nicht einfach, 8x AA anzubieten wenn man die 6x-Stufe weiterhin verfügbar haben möchte. Wieso das? Das sind dann halt 4 statt 3 ROP-Loops und mehr Edge-Informationen.

aths
2005-10-09, 15:28:41
Naja, das ist wohl auch vom Einbruch abhängig.

Nein... aber irgendwie sollte man da die Vertexleistung mal messen, doof.Vom Einbruch und von der Vor-AAA-Leistung. Beides interessiert mich wenig, da ich eine solche Karte für Qualitätsgrafik kaufen würde, und AAA grundsätzlich aktiviert hätte.

Ich halte den Unterschied zwischen 4*RG und 6*SG für weitaus unwichtiger, als den zwischen HQ-AF und inzwischen "normalem", schätze zudem den Hybridmodus Vorteil auf nV-Seiten als nicht zu gering ein, in jedem Fall aber etwa gleichwertig interpretierbar, wie den 6* vs. 4* Vorteil.
Stimmst Du mir zu, daß beide IHVs AA-Vorteile haben, die unterm Strich das Pendel je nach Geschmack gleich weit ausschlagen lassen können?Wenn Geschmacksfragen ins Spiel kommen, ja. Wenn ich versuche, nach möglichst sinnvollen und objektiv begründbaren Kriterien zu bewerten, halte ich ATIs Lösung für überlegen.

Wenn ja, dann laß mich gleich mal weiterspinnen: die Branchinggeschwindigkeit ist eine grenzwertige Sache, da die Benches, die ich dazu gesehen habe zwar eine deutliche Sprache sprechen, wohl aber nicht in dem Ausmaß, daß das Feature erst mit der neuen ATi HW praktisch nutzbar und auf nV HW ebenso praktisch unnutzbar wäre. Nahhh ... Beispiel FP-Texturfilterung. Kann der R520 nicht, müsste man im Pixelshader machen. Geht, aber ist sehr, sehr langsam. Zu langsam für "vernünftigen" Echtzeiteinsatz. Insofern ist die FP-Texturfilterung im NV40+ ein reines Geschwindigkeitsfeature. Aber es erlaubt neue Effekte in Echtzeit.

Genau wie das dynamische Branching im Pixelshader: Das erlaubt unter bestimmten Umständen Shader-Abarbeitung in Echtzeit auf dem R520, wo der G70 ins Husten kommt und unspielbare Frameraten liefert. Passt man das Effekt-Set zunächst so an, dass es auf dem G70 gut läuft, könnte man den Geschwindigkeitsvorteil beim R520 für zusätzliche Effekte nutzen. Ist das effiziente Branching nun ein Geschwindigkeits- oder Effekt-Feature?

aths
2005-10-09, 15:28:57
Wieso das? Das sind dann halt 4 statt 3 ROP-Loops und mehr Edge-Informationen.Wegen dem Subpixel-Grid.

Coda
2005-10-09, 15:29:57
Wegen dem Subpixel-Grid.Dann nimmt man halt das kleinste gemeinsame Vielfache bei den Dimensionen.

Vom Einbruch und von der Vor-AAA-Leistung. Beides interessiert mich wenig, da ich eine solche Karte für Qualitätsgrafik kaufen würde, und AAA grundsätzlich aktiviert hätte.Gut, dann benched alles mit AAA aktiv, das ist auch nicht schlecht.

Horimoto
2005-10-09, 15:47:59
Ist bekannt, wann 3dc eine X1800XT/XL bekommt? Der Test zur GTX war nämlich der beste deutschsprachige test.........
Kann man dann auch Wünsche für Spiele äussern :D ?

aths
2005-10-09, 16:29:25
Dann nimmt man halt das kleinste gemeinsame Vielfache bei den Dimensionen.Was für eine Auflösung des Grids braucht man, um sparse 2x, 4x, 6x und 8x anbieten zu können? 24x24. R300-R520 haben 12x12, NV20-NV38 haben 2x2, NV40+ 8x8.

Gut, dann benched alles mit AAA aktiv, das ist auch nicht schlecht."Dann bencht". Das "ed" ist eine englische Flexion, die im Deutschen fehl am Platze ist.

reunion
2005-10-09, 16:41:54
Was hätte der R520, wenn er kein HQ-AF böte? ;)


Welchen Vorteil hat ein G70, außer den im High-End-Bereich schon fast belanglosen geringeren Stromverbrauch?

aths
2005-10-09, 16:43:34
Welchen Vorteil hat ein G70, außer den im High-End-Bereich schon fast belanglosen geringeren Stromverbrauch?FP16-Texturfilterung. Textursampling im Vertexshader. Höhere arithmetische Rohleistung.

reunion
2005-10-09, 16:58:16
FP16-Texturfilterung. Textursampling im Vertexshader. Höhere arithmetische Rohleistung.

Von der theoretisch deutlich höheren arithmetische Rohleistung bleibt in der Praxis nicht viel über, da die Pipeline vermutlich desöfteren von den TMUs blockiert wird (siehe Shadermark etc.), und der Rest ist bestenfalls auf dem Papier von Vorteil. FP16-Texturfilterung halbiert schonmal die Füllrate, wodurch ich den praktischen Nutzen doch arg bezweifle, und von Textursampling im Vertexshader sieht man bis jetzt auch wenig - da bietet zB schnelles dynamisches Branching IMHO wesentlich mehr Vorteile.

Odal
2005-10-09, 16:59:21
Welchen Vorteil hat ein G70, außer den im High-End-Bereich schon fast belanglosen geringeren Stromverbrauch?


er is günstiger
man kann ihn kaufen :D
es gibt verrückte die betreiben das ding im SLI :rolleyes:
leiser, kühler

reunion
2005-10-09, 17:14:17
er is günstiger
man kann ihn kaufen :D
es gibt verrückte die betreiben das ding im SLI :rolleyes:


Gute Argumente, die allerdings nicht dauerhaft von Bestand sein werden.


leiser, kühler

Eine Folge der höheren Leistungsaufnahme.

Odal
2005-10-09, 17:19:10
jo sicher ändert sich das, bald haben beide kontrahenten keine vorteile mehr im highendbereich weil sie dann nur noch lahme krücken sind :D

und leiser, kühler ist eine folge der stromaufnahme richtig, aber mit anderer wirkung.

aths
2005-10-09, 20:30:11
Von der theoretisch deutlich höheren arithmetische Rohleistung bleibt in der Praxis nicht viel über, da die Pipeline vermutlich desöfteren von den TMUs blockiert wird (siehe Shadermark etc.), und der Rest ist bestenfalls auf dem Papier von Vorteil. FP16-Texturfilterung halbiert schonmal die Füllrate, wodurch ich den praktischen Nutzen doch arg bezweifle, und von Textursampling im Vertexshader sieht man bis jetzt auch wenig - da bietet zB schnelles dynamisches Branching IMHO wesentlich mehr Vorteile.Das mit der arithmetischen Rohleistung ist nicht so einfach zu bewerten, denn wie viel davon wirklich ankommt, hängt immer davon ab. Will man eine GPU als Stromdaten-Prozessor für anderes nutzen, und kommt dabei mit MAD-Operationen aus, ist der G70 als etwa doppelt so stark wie der R520 einzustufen, jedenfalls wenn man mit der Nutzung von maximal 4 Temps im Shader auskommt. (Bei FP16-Datenformaten ist es kein Problem, die beiden MAD-Units auszulasten.) In Spielen zählt die Texturfüllrate stark mit in die Endleistung. Hier hat der G70 keinen nennenswerten Rohleistungs-Vorteil, der R520 jedoch einen Effizienz-Vorteil. Dass der R520 nicht in allen Spielen klar dominiert zeigt, dass es aber auch dort nicht so einfach ist.

Der R520 glänzt durch deutlich stärkere Vertexleistung: Etwa 60% mehr rohe MAD-Leistung als der G70. Da für ultrahohe Frameraten weder der Bedarf vorhanden ist, noch die CPUs zu kaufen sind, zählt die Performance bei sehr kleinen Dreiecken. Hier erwarte ich den R520 im Vorteil. Doch man kann nicht schreiben "in der Praxis" ohne zu sagen, in welcher Praxis.

Dass FP16-Texturfilterung die Füllrate gebenüber FX8-Texturen halbiert ist kein Nachteil. (Die Speicherbandbreite für single-clock-Filterung ist einfach nicht da.) Gegenüber FP-Texturfilterung im Pixelshader ist die FP-Filterperformance beim NV40 oder G70 extrem hoch. Der praktische Nutzen ist, dass man erst mit dem NV40 oder G70 FP16-Texturen in brauchbarer Performance filtern kann.

Das Textursampling im Vertexshader ermöglicht direkt neue Effekte. Übrigens bin ich mir gar nicht so sicher, ob der R520 wirklich prinzipiell kein Vertextexturing kann. (Wer sagt denn, dass Vertex-Programme im Vertexshader ablaufen müssen?) Bessere Branchingperformance bietet nur indirekt neue Effekte (indem der Überschuss an Leistung für zusätzliche oder genauer berechnete Effekte genutzt wird.) Das Branching im PS hat wie das Vertextexturing immer nur dann Vorteile, wenn es genutzt wird – der Shader-Compiler in DirectX vermeidet derzeit dynamisches Branching, wo es nur geht, und rollt lieber die Instruktionen auf. Da müsste erst mal ein neues, für den R520 optimiertes Profil her. (Denn man kann nicht vom Shader-Optimizer im Treiber erwarten, dass er das wieder zusammenbastellt.)

stav0815
2005-10-09, 20:35:23
mein Favorit is eindeutig die nVidia.
Ich finde den Qualitätsgewinn durch SSAA deutlich höher als durch das winkelunabhängigere AF der ATis!

MadManniMan
2005-10-09, 20:39:42
Welchen Vorteil hat ein G70, außer den im High-End-Bereich schon fast belanglosen geringeren Stromverbrauch?

Genau darauf wollte ich hinaus: so der G70 HQ-AF nachgereicht bekäme, wären sich beide Chips unterm Strich bemerkenswert ähnlich - und dann geht es wirklich nur noch um die Preis-Leistung.
Dann sähe es nicht gut für den R520 aus, denke ich.

aths, das ist die Frage, um die es sich dreht! Ist FP-Texturing Geschwindigkeits- oder Effektfeature? Ist es Branching? Ist es VT (was evtl. irgenwie bei ATi noch möglich wird)?

Unterm Strich wird die Praxis zeigen, inwiefern die unterschiedlichen Leistungsfähigkeiten der Kontrahenten Auswirkungen auf die Entwicklung haben.

Demirug
2005-10-09, 20:43:46
Das Textursampling im Vertexshader ermöglicht direkt neue Effekte. Übrigens bin ich mir gar nicht so sicher, ob der R520 wirklich prinzipiell kein Vertextexturing kann. (Wer sagt denn, dass Vertex-Programme im Vertexshader ablaufen müssen?)
Er kann es nicht. Das ist offiziel. Er kann nur Render 2 VertexBuffer. Das ist aber aufwendiger. ATI könnte aber wenn sie wollte eine API Konforme Emulation auf dieser Basis einbauen.

Bessere Branchingperformance bietet nur indirekt neue Effekte (indem der Überschuss an Leistung für zusätzliche oder genauer berechnete Effekte genutzt wird.) Das Branching im PS hat wie das Vertextexturing immer nur dann Vorteile, wenn es genutzt wird – der Shader-Compiler in DirectX vermeidet derzeit dynamisches Branching, wo es nur geht, und rollt lieber die Instruktionen auf. Da müsste erst mal ein neues, für den R520 optimiertes Profil her.
Der Compiler macht was man im sagt. Es gibt Flags dafür. nVidias Shadercompiler im Treiber neigt dagegen wirklich dazu die dynamischen Branches wieder zu entfernen.

Vom Aufrollen spricht man übrigens nur bei Schleifen und die sind bei DX sowieso statisches Branching.

(Denn man kann nicht vom Shader-Optimizer im Treiber erwarten, dass er das wieder zusammenbastellt.)
Warum nicht? Ich habe für so einen Mist sogar mal Code programmiert.

MadManniMan
2005-10-09, 20:45:27
mein Favorit is eindeutig die nVidia.
Ich finde den Qualitätsgewinn durch SSAA deutlich höher als durch das winkelunabhängigere AF der ATis!

Inwiefern findest Du ihn höher?
Gehns wers mal so an:
SS schärft Texturen, unterdrückt Shader- und Alphatestflimmern.

ATis HQ-AF ist bei gleicher Wirkung gegenüber SS bedeutend performanter, weshalb es auch vorzuziehen sei.
Alphatestflimmern wird durch TSSAA und AAA effektiver unterdrückt, als über simples SS, weshalb auch hier die Argumente pro SS weniger wirken.

Einzig Shaderflimmern kriegt man natürlich mit SS besser weg, wenn überhaupt.

Wie gewichtest Du also?


Und ach, aths:
Für wie gewichtig hälst Du den Unterschied zwischen 4 und 6*SGMSAA / SGAAA?
Zumindest beim reinen MSAA hat das 6* den Vorteil, keine schwachen Winkel mehr zu haben, die ein wenig bei 4* ins Auge fallen können - aber (mal die Frage nach der ökonomischen Sinnhaftigkeit von SSAA etwas bei Seite geschoben) kann der Geschmack sovieler Leute ... doof sein? (selbst nutz ich SSAA auch nur für 2*2 bei alten Spielen, aber immerhin)

Crushinator
2005-10-09, 20:54:45
(...) Dass FP16-Texturfilterung die Füllrate gebenüber FX8-Texturen halbiert ist kein Nachteil. (Die Speicherbandbreite für single-clock-Filterung ist einfach nicht da.) Gegenüber FP-Texturfilterung im Pixelshader ist die FP-Filterperformance beim NV40 oder G70 extrem hoch. Der praktische Nutzen ist, dass man erst mit dem NV40 oder G70 FP16-Texturen in brauchbarer Performance filtern kann.
Gibt es eigentlich Vergleichsdaten wie langsam FP16-Texturfilterung auf dem Radeon per Pixelshader ablaufen würde? Die Hoffnung wäre ja, daß es meinetwegen zwar langsamer als die dedizierte Version des NV40/G70 ist, aber gerade noch brauchbar.

reunion
2005-10-09, 21:04:01
Genau darauf wollte ich hinaus: so der G70 HQ-AF nachgereicht bekäme, wären sich beide Chips unterm Strich bemerkenswert ähnlich[..]


Nur sieht es nicht wirklich danach aus, dass G70 noch HQ-AF bekommt. IMHO hätte man dies spätestens zur R520-Vorstellung freigeschaltet - wenn es G70 können würde.

Das mit der arithmetischen Rohleistung ist nicht so einfach zu bewerten, denn wie viel davon wirklich ankommt, hängt immer davon ab. Will man eine GPU als Stromdaten-Prozessor für anderes nutzen, und kommt dabei mit MAD-Operationen aus, ist der G70 als etwa doppelt so stark wie der R520 einzustufen, jedenfalls wenn man mit der Nutzung von maximal 4 Temps im Shader auskommt. (Bei FP16-Datenformaten ist es kein Problem, die beiden MAD-Units auszulasten.) In Spielen zählt die Texturfüllrate stark mit in die Endleistung. Hier hat der G70 keinen nennenswerten Rohleistungs-Vorteil, der R520 jedoch einen Effizienz-Vorteil. Dass der R520 nicht in allen Spielen klar dominiert zeigt, dass es aber auch dort nicht so einfach ist.

Der R520 glänzt durch deutlich stärkere Vertexleistung: Etwa 60% mehr rohe MAD-Leistung als der G70. Da für ultrahohe Frameraten weder der Bedarf vorhanden ist, noch die CPUs zu kaufen sind, zählt die Performance bei sehr kleinen Dreiecken. Hier erwarte ich den R520 im Vorteil. Doch man kann nicht schreiben "in der Praxis" ohne zu sagen, in welcher Praxis.

Dass FP16-Texturfilterung die Füllrate gebenüber FX8-Texturen halbiert ist kein Nachteil. (Die Speicherbandbreite für single-clock-Filterung ist einfach nicht da.) Gegenüber FP-Texturfilterung im Pixelshader ist die FP-Filterperformance beim NV40 oder G70 extrem hoch. Der praktische Nutzen ist, dass man erst mit dem NV40 oder G70 FP16-Texturen in brauchbarer Performance filtern kann.

Das Textursampling im Vertexshader ermöglicht direkt neue Effekte. Übrigens bin ich mir gar nicht so sicher, ob der R520 wirklich prinzipiell kein Vertextexturing kann. (Wer sagt denn, dass Vertex-Programme im Vertexshader ablaufen müssen?) Bessere Branchingperformance bietet nur indirekt neue Effekte (indem der Überschuss an Leistung für zusätzliche oder genauer berechnete Effekte genutzt wird.) Das Branching im PS hat wie das Vertextexturing immer nur dann Vorteile, wenn es genutzt wird – der Shader-Compiler in DirectX vermeidet derzeit dynamisches Branching, wo es nur geht, und rollt lieber die Instruktionen auf. Da müsste erst mal ein neues, für den R520 optimiertes Profil her. (Denn man kann nicht vom Shader-Optimizer im Treiber erwarten, dass er das wieder zusammenbastellt.)


Thx für die Erläuterung.

aths
2005-10-09, 21:05:05
Und ach, aths:
Für wie gewichtig hälst Du den Unterschied zwischen 4 und 6*SGMSAA / SGAAA?
Zumindest beim reinen MSAA hat das 6* den Vorteil, keine schwachen Winkel mehr zu haben, die ein wenig bei 4* ins Auge fallen können - aber (mal die Frage nach der ökonomischen Sinnhaftigkeit von SSAA etwas bei Seite geschoben) kann der Geschmack sovieler Leute ... doof sein? (selbst nutz ich SSAA auch nur für 2*2 bei alten Spielen, aber immerhin)Um gegenüber 4x sparse noch mal einen großen Qualitätsschub zu haben, sollte man gleich 8x sparse nehmen. 6x ist für mein Empfinden dennoch "spürbar" besser als 4x. Der Sprung von 6x auf 8x dürfte nur dem geübten Auge auffallen.

aths
2005-10-09, 21:11:01
aths, das ist die Frage, um die es sich dreht! Ist FP-Texturing Geschwindigkeits- oder Effektfeature? Ist es Branching? Ist es VT (was evtl. irgenwie bei ATi noch möglich wird)?Generelle, pauschalisierte Antwort, die im Einzelfall unzutreffend sein kann: Seit DirectX9 (SM2) sind alle weiteren bisherigen Features Geschwindigkeit-Features, wobei der Geschwindigkeitsvorteil so hoch sein kann, dass erst mit dieser Performance schöne, neue Effekte in Echtzeit möglich sind. Bestimmte Features wie ddx zu ersetzen, kann aufwändig oder ganz unmöglich sein, also ist die Pauschal-Antwort nicht pauschal auf alles anzuwenden.

Die Performance beim FP-Texturen ist beim NV40 und G70 völlig ok. Ich frage mich, wie man davon sprechen kann, dass der "praktischen Nutzen" zweifelhaft sei. Denn könnten die TMUs FP16-Texturen mit 4 Kanälen in einem Takt filtern, würden sie es trotzdem nicht schaffen (da die Bandbreite ausgeht.) Die Bandbreite ist aber ingesamt nicht sooo das Problem, da man ja bei längeren arithmetischen Rechenphasen einige Takte frei hat, in denen ansonsten kaum Bandbreite anfällt. Da stört auch nicht, wenn man für FP16-Texturen pro Bi-Sample einen Takt mehr braucht. FP16-Filterung à la NV40 macht die Nutzung von HDR-Lightmaps sinnvoll möglich, und erlaubt ein effizientes Downfilterung eines HDR-Rendertargets (um die Gesamthelligkeit zu bestimmen.) NV40 und G70 hängen hier am Speicher.

Die sehr schön fein granulierte Branching-Implementierung im R520 macht es in meinen Augen erstmalig sinnvoll möglich, Early-Out zu einer deutlichen Performance-Steigerung zu nutzen. Der Vorteil kann durchaus so hoch ausfallen, dass man dafür gleich noch einige zusätzliche Effekte einbauen kann. Ich hoffe, dass nicht mit Rücksicht auf den G70 darauf verzichtet wird. Wenn der das nicht in dieser Performance kann – Pech.

aths
2005-10-09, 21:12:07
mein Favorit is eindeutig die nVidia.
Ich finde den Qualitätsgewinn durch SSAA deutlich höher als durch das winkelunabhängigere AF der ATis!Sofern die Texturfilter richtig arbeiten, und nicht wie im NV40- und G70-Treiberstandard zum Flimmern gebracht werden, bringt SSAA für Texturen kaum was. Das bessere AF im R520 bringt mehr Nutzen bei deutlich weniger Füllratenverbrauch.

aths
2005-10-09, 21:21:04
Er kann es nicht. Das ist offiziel. Er kann nur Render 2 VertexBuffer. Das ist aber aufwendiger. ATI könnte aber wenn sie wollte eine API Konforme Emulation auf dieser Basis einbauen.Ich frage mich, ob ATI da eine Lücke gesehen, oder jene bewusst in die Spec hat einbauen lassen.

Der Compiler macht was man im sagt. Es gibt Flags dafür. nVidias Shadercompiler im Treiber neigt dagegen wirklich dazu die dynamischen Branches wieder zu entfernen.Xmas hat in Rendermonkey etwas mit HLSL probiert und meinte, wenn ich ihn richtig verstanden habe, dass DX die Schleifen gerne ausrollt.

Vom Aufrollen spricht man übrigens nur bei Schleifen und die sind bei DX sowieso statisches Branching.Vielleicht habe ich das an diesem Punkt durcheinandergebracht.

Warum nicht? Ich habe für so einen Mist sogar mal Code programmiert.Wirds wirklich kein neues SM3-Profil geben?

Demirug
2005-10-09, 21:24:49
Xmas hat in Rendermonkey etwas mit HLSL probiert und meinte, wenn ich ihn richtig verstanden habe, dass DX die Schleifen gerne ausrollt.

Dann wird Rendermonkey die entsprechenden Flags setzten.

Wirds wirklich kein neues SM3-Profil geben?

Es gibt keinen Grund dafür. ATI hat sich sowieso schon beschwert das der Compiler zu gut optimiert.

aths
2005-10-09, 21:26:55
Dass der ATI-Shaderoptimizer dynamisches Branching wieder einbaut glaube ich trotzdem erst, wenns jemand nachgemessen hat.

wodka-wolfi
2005-10-09, 21:34:09
GeForce 7800 GT (256 MB)
weil diese hat sich schon bewiesen

Coda
2005-10-09, 22:51:02
Ich frage mich, ob ATI da eine Lücke gesehen, oder jene bewusst in die Spec hat einbauen lassen.Hehe. Ne die war schon vorher da. MS hat halt übersehen, dass man mindestens ein Texturformat braucht das man in den VTMUs samplen kann ;)

Grestorn
2005-10-10, 00:06:19
Hehe. Ne die war schon vorher da. MS hat halt übersehen, dass man mindestens ein Texturformat braucht das man in den VTMUs samplen kann ;)
Ich fine das ist nur ein übler Trick um formal die Specs einzuhalten. Jedem Mensch ist klar, dass ein Cap Bit wertlos ist, wenn kein unterstützendes Texturformat vorhanden ist. Da kann man MS noch nicht mal einen Vorfwurf machen, dass sie das nicht extra erwähnt haben.

Genau wegen solchen Tricks werden Specs unnötig aufgebläht und lesen sich mehr wie Gesetzestexte als wie technische Spezifikationen...

:down: ATI!

StefanV
2005-10-10, 00:12:25
Ich fine das ist nur ein übler Trick um formal die Specs einzuhalten. Jedem Mensch ist klar, dass ein Cap Bit wertlos ist, wenn kein unterstützendes Texturformat vorhanden ist. Da kann man MS noch nicht mal einen Vorfwurf machen, dass sie das nicht extra erwähnt haben.

Genau wegen solchen Tricks werden Specs unnötig aufgebläht und lesen sich mehr wie Gesetzestexte als wie technische Spezifikationen...

:down: ATI!
Darf ich mal Demirug (und ahts) zitieren? ;)


Das Textursampling im Vertexshader ermöglicht direkt neue Effekte. Übrigens bin ich mir gar nicht so sicher, ob der R520 wirklich prinzipiell kein Vertextexturing kann. (Wer sagt denn, dass Vertex-Programme im Vertexshader ablaufen müssen?)

Er kann es nicht. Das ist offiziel. Er kann nur Render 2 VertexBuffer. Das ist aber aufwendiger. ATI könnte aber wenn sie wollte eine API Konforme Emulation auf dieser Basis einbauen.

Die Frage ist jetzt, ob ATi vor hat(te), den Speckonformen Hack irgendwann mal in die Treiber zu implementieren (bzw man daran arbeitet) und das ganze nur eine temporäre Lösung ist, ob das mit voller Absicht geschehen ist oder ob was im Chip krum ist (gruß an den R200) und man das nicht (mehr) fixen konnte, so dass man sich für eine Dehnung der Spec entschieden haben, erstmal...


Hat hier jemand gute Konktakte in die entsprechende Richtung?! :devil:

333bpm
2005-10-10, 00:31:39
@topic

Wenn ich jetzt mein System umrüsten würde,dann die 1800xt,da sie bessere BQ verspricht. Stromverbrauch ist mir da schnurzpiepe,da Pauschalmiete. :biggrin:

Crushinator
2005-10-10, 01:03:33
@SP
Es paßt einfach nicht ins Designkonzept dem jetzigen Vertexshader den Zugriff auf die TMUs zu ermöglichen, und man hatte im Hinterkopf daß es auch mit Render to Vertexbuffer erreicht werden kann, wenn auch nicht in einem Pass. Letzteres geht aber nur unter OpenGL und zwar schon seit längerem. Die hatten scheinbar einfach nicht genügend Zeit um für D3D eine Lösung zu basteln, welche aus API-Sicht wie VT funktioniert. Wenigstens sind sie ehrlich und geben zu, daß sie mit den internen Überlegungen - was die Realisierung angeht - noch nicht ganz durch sind. Wollen wir mal hoffen, daß was vernünftiges bei rauskommt.

Demirug
2005-10-10, 07:09:09
Wenigstens sind sie ehrlich und geben zu, daß sie mit den internen Überlegungen - was die Realisierung angeht - noch nicht ganz durch sind. Wollen wir mal hoffen, daß was vernünftiges bei rauskommt.

Wo gibt ATI denn das zu?

Erst wollten sie die Sache todschweigen.

Jetzt haben sie bei Beyond3D Humus zur Schadensbegrenzung losgeschickt der jedem erzählt das Render 2 VertexBuffer mindestens genauso gut wenn nicht sogar noch besser wäre.

Crushinator
2005-10-10, 11:40:38
Wo gibt ATI denn das zu?
Dem der danach fragt. :)
Erst wollten sie die Sache todschweigen.
Ich habe in keinem Review gelesen, daß der Chip VT kann. Wie sollen sie das totgeschwiegen haben? Mir ist schon klar, daß man PR-seitig nicht gerade gewillt ist das in den Vordergrund zu stellen, was man nicht kann. ;)
Jetzt haben sie bei Beyond3D Humus zur Schadensbegrenzung losgeschickt der jedem erzählt das Render 2 VertexBuffer mindestens genauso gut wenn nicht sogar noch besser wäre.
Mir war klar, daß Dir das nicht gefällt. Objektiv betrachtet kommt am Ende das selbe Ergebnis raus, und wenn man daran interessiert ist VT auch auf R5XX zu nutzen, kann man es am Endeffekt toll finden, wenn es irgendwie doch gehen sollte. Alles eine Frage des Standpunktes.

Demirug
2005-10-10, 11:46:07
Ich habe in keinem Review gelesen, daß der Chip VT kann. Wie sollen sie das totgeschwiegen haben? Mir ist schon klar, daß man PR-seitig nicht gerade gewillt ist das in den Vordergrund zu stellen, was man nicht kann. ;)

XBit Labs hat es behauptet. Was das Totschweigen angeht so haben sie das Thema VT einfach nicht erwähnt.

Mir war klar, daß Dir das nicht gefällt. Objektiv betrachtet kommt am Ende das selbe Ergebnis raus, und wenn man daran interessiert ist VT auch auf R5XX zu nutzen, kann man es am Endeffekt toll finden, wenn es irgendwie doch gehen sollte. Alles eine Frage des Standpunktes.

R2VB gibt es bei DX nicht. ATI braucht dafür einen Treiberhack. Das läuft dann darauf hinaus das man für das gleiche Ergebnis zwei Wege braucht. Das ist vom Standpunkt der Entwicklung nicht aktzeptabel. Wir haben genormte Shadermodele um genau sowas zu vermeiden.

Crushinator
2005-10-10, 11:49:52
XBit Labs hat es behauptet. Was das Totschweigen angeht so haben sie das Thema VT einfach nicht erwähnt.
Das mit xbitlabs stimmt, das hatte ich noch gar nicht bemerkt. X-( Aber dafür haben es IMHO alle anderen relevanten erwähnt. Sie werden es wohl nicht alle ganz allein rausgefunden haben, oder?
(...) R2VB gibt es bei DX nicht. ATI braucht dafür einen Treiberhack. Das läuft dann darauf hinaus das man für das gleiche Ergebnis zwei Wege braucht. Das ist vom Standpunkt der Entwicklung nicht aktzeptabel. Wir haben genormte Shadermodele um genau sowas zu vermeiden.
Vielleicht reden wir ja aneinander vorbei. Ich nehme diejenigen beim Wort, die erzählt haben, daß sie am überlegen sind, ob Sie VT doch noch API-Gemäß ermöglichen, in dem sie intern (im Treiber) R2VB dazu mißbrauchen.

Demirug
2005-10-10, 12:10:10
Vielleicht reden wir ja aneinander vorbei. Ich nehme diejenigen beim Wort, die erzählt haben, daß sie am überlegen sind, ob Sie VT doch noch API-Gemäß ermöglichen, in dem sie intern (im Treiber) R2VB dazu mißbrauchen.

Genau so will ich es doch haben. Wie sie das Intern lösen ist mir als Entwickler doch völlig egal. Also warum sollte das mir nicht gefallen?

Crushinator
2005-10-10, 12:20:10
Genau so will ich es doch haben. Wie sie das Intern lösen ist mir als Entwickler doch völlig egal. Also warum sollte das mir nicht gefallen?
Ich habe keine Ahnung, warum Dir das aus objektiver Sicht nicht gefallen soll. Womöglich hinterläßt Deine generelle Ausdrucksweise - wenn es um ATi geht - einen verzerrten Eindruck.

Spasstiger
2005-10-10, 17:58:48
Interessant, das Umfrageergebniss hat sich in zwischen leicht zugunsten von ATI verändert, auch wenn Nvidia tendenziell immer noch vorne liegt.

ATI: 39,5%
Nvida: 41%
auf 7800 GTX 512 MB wartend: 19,5%

Und diejenige, die auf die 7800 GTX 512 MB warten, scheinen ja eher Nvidia zugeneigt zu sein.

Als Einzelkarte liegt die X1800 XT vorne (31%).

Xmas
2005-10-12, 23:40:51
']Interessanter Poll, ATI führt nur mit einem hauchdünem Vorsprung. ATI konnte wohl so richtig nimmanden begeistern.
Seltsame Schlussfolgerung. Woher willst du wissen ob die Hälfte die für ATI gestimmt hat nicht "richtig begeistert" ist? Das Gesamtergebnis sagt doch nichts darüber aus, wie knapp oder klar sich die einzelnen Poll-Teilnehmer entschieden haben.


Mein "Favorit" wäre eine lautlos gekühlte X1800XL, nachdem der Preis noch ein Stück gesunken ist. Für das schnelle Branching hätte ich einige Anwendungszwecke, und gutes AA und AF begeistert mich auch. Die XT wäre mir den Aufpreis nicht wert, und die X1600 hat mich eher enttäuscht. Fehlende FP16-Filterung, VTF und Hybrid-AA-Modi sind Minuspunkte, aber zu verschmerzen.

iam.cool
2005-10-13, 02:03:48
Und diejenige, die auf die 7800 GTX 512 MB warten, scheinen ja eher Nvidia zugeneigt zu sein.


Sehr seltsamme Schlussvolgerung(NV Fanboy ?), ich würde sie eher als "Neutral/unentschlossen" bezeichnen da sie die Performance der Karte abwarten und dann entscheiden :wink:

Coda
2005-10-13, 02:33:16
In dem Poll fehlt auch "Ich hab schon ne GT/GTX und hab erstmal keinen Bedarf".

Spasstiger
2005-10-13, 02:41:31
Sehr seltsamme Schlussvolgerung(NV Fanboy ?), ich würde sie eher als "Neutral/unentschlossen" bezeichnen da sie die Performance der Karte abwarten und dann entscheiden :wink:

Ne, nach allem was ich lese, warten vor allem die NV-Zugeneigten auf die 7800 GTX 512 MB. ATI bietet ja schon eine 512 MB High-End-Karte und wer eher an ATI interessiert, hat sich ja schon entschieden.
Die Zahl der wirklich Unentschlossenen ist da geringer.

@Coda: Ja stimmt, wäre eigentlich sinnvoll gewesen.

P.S.: Ich mag meine Radeon 9700 immer noch. Und dass ich als potentieller (NV-)Fanboy bezeichnet werde, werte ich als Beleidigung. :nono:
Den Schritt von ATI hin zu winkelabhängigem AF finde ich äußerst lobenswert und ermutige auch andere, eine Karte mit R520 zu kaufen. Nur für mich persönlich bietet NV atm die etwas besseren Karten an.

Dr.Dirt
2005-10-13, 07:40:00
In dem Poll fehlt auch "Ich hab schon ne GT/GTX und hab erstmal keinen Bedarf".

Der Poll heißt doch "Welche Karte ist euer Favorit", das heißt ja noch lange nicht, daß ich mir meinen Favoriten auch tatsächlich kaufen würde. Selbst wenn man eine der Karten bereits besitzt, kann man sie doch immer noch favorisieren.