PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10

PCGH_Thilo
2004-05-10, 16:53:25
Original geschrieben von deekey777
Heisst das jetzt Radiergummi und Bleistift herausholen und die Benchmarkergebnisse nachträglich korrigieren? ;D

Ihr schreibt auch, dass die R420 eine waschechte AGP-Grafikkarte ist. Heisst das, dass ATi zwei unterschiedliche GPUs (R420 und R423) entwickelt hat - einmal eine für AGP, andere für PCIe?

auf der cebit sagte man mir, dass es zwei chips sind.

PCGH_Thilo
2004-05-10, 17:01:16
Original geschrieben von ShadowXX
@PCGH_Thilo

hat sich eigentlich inzwischen was mit dem merkwürdigen Verhalten bei eingefärbten MipMaps ergeben???

(bzw. mit den Fillraten über max. Peak bei der 420Pro??)

nicht wirklich. quasar hat ja dazu einige studien angestellt. wir sind weiter am thema.

PCGH_Thilo
2004-05-10, 17:03:25
Original geschrieben von aths
Mit welchen Mitteln habt ihr CPU-Limitierung ausgeschlossen?

tja, wie will man cpu-limitierung ausschließen? =)

viel mehr als nen 3400+ zu nehmen und die settings hochzuschrauben, bleibt ja nicht übrig. die 9800 xt "profitiert" relativ gesehen jedenfalls deutlich mehr von der optimierung als die x800 Pro. bei der XT dürfte der unterschied noch geringer sein (to be tested).

Gas3t
2004-05-10, 17:11:48
Original geschrieben von PCGH_Thilo
tja, wie will man cpu-limitierung ausschließen? =)

viel mehr als nen 3400+ zu nehmen und die settings hochzuschrauben, bleibt ja nicht übrig. die 9800 xt "profitiert" relativ gesehen jedenfalls deutlich mehr von der optimierung als die x800 Pro. bei der XT dürfte der unterschied noch geringer sein (to be tested).

@PCGH_Thilo

Habt ihr die 800Pro nur zu Testzwecken und müsst sie (bald) wieder abgegeben oder befindet die sich jetzt in eurem Bestand (gekauft/geschenkt oder wie auch immer)? Wann kann man denn mit ein paar neuen Benchmarks rechnen, auch im Hinblick Optimierungen?

deekey777
2004-05-10, 17:12:38
Original geschrieben von PCGH_Thilo
tja, wie will man cpu-limitierung ausschließen? =)

...

Man klemmt den CPU-Lüfter ab.
(Ich konnte mir das nicht verkneifen, sorry.)

Zum Thema:

Powercolor bringt eine X800 PRO Assassin Edition:


http://www.3dnews.ru/documents/news5/20040507_tul-ati_1.jpg
http://www.3dnews.ru/documents/news5/20040507_tul-ati_2.jpg

Fadl
2004-05-10, 17:20:56
Die Tasche braucht kein Mensch aber was ist das denn für ein Kasten der da mitgeliefert wird?

MikBach
2004-05-10, 17:21:49
Original geschrieben von PCGH_Thilo
jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %).
:O Also das erstaunt ja sogar mich. Dass es so wenig ist, hätte ich nicht gedacht. Viel muss man an den Ergebnissen der PCGH 06/04 nicht ändern. ;)
Ich freue mich schon auf den Artikel im nächsten Heft. :)

PS Gute Arbeit. Weiter so :up:

Gas9t
2004-05-10, 17:30:52
Original geschrieben von Fadl
Die Tasche braucht kein Mensch aber was ist das denn für ein Kasten der da mitgeliefert wird?

Da drin ist ein Hörgerät, ansonsten kann mann die X800Pro nämlich nicht hören!

:-)

reunion
2004-05-10, 17:37:58
Original geschrieben von PCGH_Thilo
jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %).

Halte ich für durchaus realistisch, die Karte dürfte mit ihrem höhen Chiptakt sicherlich hauptsächlich Bandbreitenlimitiert sein...

Sphinx
2004-05-10, 17:38:46
Original geschrieben von Gas9t
Da drin ist ein Hörgerät, ansonsten kann mann die X800Pro nämlich nicht hören!

:-)


Das is´n MP3 Player - Mit vorkonfigurierten GF_FX_58U Turbinen Geräusch...BssssssssssssssssssssBSSSSSSSSSSSSS

PCGH_Thilo
2004-05-10, 17:44:42
Original geschrieben von Gas3t
@PCGH_Thilo

Habt ihr die 800Pro nur zu Testzwecken und müsst sie (bald) wieder abgegeben oder befindet die sich jetzt in eurem Bestand (gekauft/geschenkt oder wie auch immer)? Wann kann man denn mit ein paar neuen Benchmarks rechnen, auch im Hinblick Optimierungen?

die bleibt so lange in meinem testrechner, bis das netzteil verglüht =)
neue benches selbstverständlich ASAP (im heft).

MikBach
2004-05-10, 18:03:31
Original geschrieben von PCGH_Thilo
die bleibt so lange in meinem testrechner, bis das netzteil verglüht =)
;D
So schnell wird das ja wahrscheinlich nicht passieren, da die X800Pro doch eher genügsam ist. ;)
Und wenn ich Deine Aussage betrachte, scheinst Du mit der Karte ja wirklich sehr zufrieden zu sein.

LovesuckZ
2004-05-10, 18:04:50
Counter Strike 2 to be bundled with X800PRO/XT (http://www.theinquirer.net/?article=15820)

Ich warte ja nur darauf, dass bei den Nv40 Karten Quake 4 und Unreal 3 dabei sein wird. Nein nicht als Spiel sondern als "Coupon"...

aths
2004-05-10, 18:18:15
Original geschrieben von PCGH_Thilo
tja, wie will man cpu-limitierung ausschließen? =)

viel mehr als nen 3400+ zu nehmen und die settings hochzuschrauben, bleibt ja nicht übrig.Welche Settings? Ich würde die schnellste CPU nehmen und maximale Auflösung, aber Schatten und alles was CPU-Last erzeugt, runterdrehen, um den worst case zu messen.

Imo beweist das Ergebnis von 0-7% nur, dass ihr in heftig CPU-limitierten Situationen gebencht habt.

MikBach
2004-05-10, 18:25:20
Original geschrieben von aths
Welche Settings? Ich würde die schnellste CPU nehmen und maximale Auflösung, aber Schatten und alles was CPU-Last erzeugt, runterdrehen, um den worst case zu messen.
Hier geht es aber nicht um den worst case, sondern um Praxis!!
Wenn man die Schatten ausschaltet ist es einfach nur realitätsfremd. Imo muss man beim Benchen die "vollen" Settings nehmen, sonst...

reunion
2004-05-10, 18:31:20
Original geschrieben von MikBach
Hier geht es aber nicht um den worst case, sondern um Praxis!!
Wenn man die Schatten ausschaltet ist es einfach nur realitätsfremd. Imo muss man beim Benchen die "vollen" Settings nehmen, sonst...

ACK, es hat keinen sinn alles was die CPU fordert abzuschalten, beim Spielen macht man das ja auch nicht, und wenn der Unterschied bei einem A64 3400+ nicht größer ist als diese max. 7% dann deutet das daraufhin das der R420 wohl hauptsächlich Bandbreitenlimitiert ist und das diese "optimierung" dadurch kaum was bringt...

aths
2004-05-10, 18:40:06
Original geschrieben von MikBach
Hier geht es aber nicht um den worst case, sondern um Praxis!!
Wenn man die Schatten ausschaltet ist es einfach nur realitätsfremd. Imo muss man beim Benchen die "vollen" Settings nehmen, sonst... ... sonst stellt man wieder mal fest, wie CPU-limitiert die Spiele heute sind.

Ich gehöre zu den Leuten, die aktuelle Games nur ungerne mit "vollen" Settings spielen. Die bilineare "Optimierung" betrifft auch Karten á la 9600.

Birdman
2004-05-10, 18:47:37
Einfach die selben Benches mit den selben Settings nochmals fahren, wie beim originalen X800 vx 6800 Test und gut ist.
Dann wissen wir nämlich wie gut die x800 gegen die 6800 dasteht bei etwa vergleichbaren Settings. (denn es gilt ja die Nvidia Jünger zufriedenzustellen - welche den Vorsprung der x800 bei diesem Bench ja genau auf dieses TexStages tri/bi zurückführen)

MikBach
2004-05-10, 18:49:46
Original geschrieben von aths
... sonst stellt man wieder mal fest, wie CPU-limitiert die Spiele heute sind.

Ich gehöre zu den Leuten, die aktuelle Games nur ungerne mit "vollen" Settings spielen. Die bilineare "Optimierung" betrifft auch Karten á la 9600.

Klar, nur ist die PCGH eher eine Zeitschrift für Spieler, die bisschen mehr über 3D-Technik(und nicht nur) erfahren wollen. Die(PCGH) können doch nicht übers Ziel hinausschiessen, obwohl es möglich wäre. Das Bedarf vieler Erklärungen an den Leser, irgendwo muss man doch den Schlußstrich ziehen. :)

Und Bedenke bitte, dass wir hier im BESTEN deutschprachigen 3D-forum der Welt sind. ;)
Bei so einem Wissen würden Viele einfach nicht mitkommen.

reunion
2004-05-10, 18:50:27
Original geschrieben von aths
... sonst stellt man wieder mal fest, wie CPU-limitiert die Spiele heute sind.


Wie erklärst du dir dann den großen Unterschied zwischen X800XT und 6800U?

LovesuckZ
2004-05-10, 18:51:35
Original geschrieben von reunion
Wie erklärst du dir dann den großen Unterschied zwischen X800XT und 6800U?

30% hoeherer Coretakt? :)

reunion
2004-05-10, 18:52:53
Original geschrieben von LovesuckZ
30% hoeherer Coretakt? :)

Ja, das würde aber nichts bringen wenn wirklich die CPU limitieren würde.

Sphinx
2004-05-10, 19:07:02
Geschrieben von Borst - www.rivastation.com Zitat aus´m Forum

Ich hab das Ganze nu mal mit UT2004 getestet. Ohne Aniso ist es ziemlich CPU limitiert - keine Unterschiede. Mit 8x Aniso:
NV40U (Normal/Colored)
1024x768: 103,81 / 103,77
1280x1024: 95,04 / 91,45
1600x1200: 74,99 / 71,13

R420XT
1024x768: 105,66 / 105,73
1280x1024: 105,07 / 105,13
1600x1200: 103,61 / 95,93

Beide verlieren mit zunehmender Auflösung. X800 erst in 1600x1200. Als Treiber habe ich bei der NV40 v60.72 verwendet, mit TilOpt On, um zu sehen welchen Einfluss vielleicht die Filterung hat. Aber NV40 verliert damit auch schon.

Das Ganze scheint mir ein non-issue zu sein. Vielleicht ist im ATI OpenGL Treiber wirklich ein Bug oder ATI muss durch die Colored Mipmaps zusätzliche Passes machen, die beim NV Treiber nicht nötig sind. NVIDIA´s OpenGL Treiber war erfahrungsgemäß immer schon schneller. Beispielsweise hat ATI in Enemy Territory durch den hohen Texture Load anfangs Probleme, die erst in den letzten Catalyst Releases gelöst wurden. Nascar Racing OpenGL war auch so ein Beispiel, wo NV Karten lange Zeit gut doppelt so schnell waren.


Borsti - Webmaster/Admin
---------------------------------------------------------

Sphinx
2004-05-10, 19:11:32
Geschrieben von Borst - www.rivastation.com Zitat aus´m Forum

Ich hab das Ganze nu mal mit UT2004 getestet. Ohne Aniso ist es ziemlich CPU limitiert - keine Unterschiede. Mit 8x Aniso:
NV40U (Normal/Colored)
1024x768: 103,81 / 103,77
1280x1024: 95,04 / 91,45
1600x1200: 74,99 / 71,13

R420XT
1024x768: 105,66 / 105,73
1280x1024: 105,07 / 105,13
1600x1200: 103,61 / 95,93

Beide verlieren mit zunehmender Auflösung. X800 erst in 1600x1200. Als Treiber habe ich bei der NV40 v60.72 verwendet, mit TilOpt On, um zu sehen welchen Einfluss vielleicht die Filterung hat. Aber NV40 verliert damit auch schon.

Das Ganze scheint mir ein non-issue zu sein. Vielleicht ist im ATI OpenGL Treiber wirklich ein Bug oder ATI muss durch die Colored Mipmaps zusätzliche Passes machen, die beim NV Treiber nicht nötig sind. NVIDIA´s OpenGL Treiber war erfahrungsgemäß immer schon schneller. Beispielsweise hat ATI in Enemy Territory durch den hohen Texture Load anfangs Probleme, die erst in den letzten Catalyst Releases gelöst wurden. Nascar Racing OpenGL war auch so ein Beispiel, wo NV Karten lange Zeit gut doppelt so schnell waren.


Borsti - Webmaster/Admin
---------------------------------------------------------

PCGH_Thilo
2004-05-10, 19:12:11
Original geschrieben von aths
Welche Settings? Ich würde die schnellste CPU nehmen und maximale Auflösung, aber Schatten und alles was CPU-Last erzeugt, runterdrehen, um den worst case zu messen.

Imo beweist das Ergebnis von 0-7% nur, dass ihr in heftig CPU-limitierten Situationen gebencht habt.

sind halt ne menge benches, bei denen diese 0-7 % zu buche stehen. selbst far cry & halo, und die sollten doch "relativ" grafiklimitiert sein ;-)

aber gar keine frage, dass wir kommende ausgabe noch mal alle updates nachreichen: stage optimierung aus, forceware 61.11, far cry fsaa über spiel austesten, "colorized mip map 1" phänomen usw.

MarcWessels
2004-05-10, 19:12:44
Original geschrieben von PCGH_Thilo
"herunterzurechnen" ohne angabe der zugrunde liegenden rechensystematik... ich weiß nicht.

und dein einleitungskommentar im thread kannst du dir auch sparen. ich werde hier auch nicht persönlich.

Hi, Thilo.

Die Rechensystematik habe ich im Laufe des Threads bei Hardwareluxx und auch hier eine Seite zuvor dargelegt und die 0-7% die Ihr jetzt für die Pro ermittelt habt, bestätigen ja sogar die errechneten Unterschiede einigermaßen (von Far Cry mal abgesehen). ;)

Mein Einleitungshinweis sollte nur dafür sorgen, daß nicht wieder seitenlang gegen Eure Zeitschrift geflamed wird denn genau das passiert dort im Forum sonst in der Vergangenheit ständig, sobald der Name "PCGH" erwähnt wurde.

Die durchschnittlichen Ergebnisse in 1600x1200 waren deshalb falsch, weil Ihr die Ergebnisse von FÜNF Benches durch ACHT geteilt habt, statt durch FÜNF.

PCGH_Thilo
2004-05-10, 19:17:11
Original geschrieben von MarcWessels
Mein Einleitungshinweis sollte nur dafür sorgen, daß nicht wieder seitenlang gegen Eure Zeitschrift geflamed wird denn genau das passiert dort im Forum sonst in der Vergangenheit ständig, sobald der Name "PCGH" wurde.

Die durchschnittlichen Ergebnisse in 1600x1200 waren deshalb falsch, weil Ihr die Ergebnisse von FÜNF Benches durch ACHT geteilt habt, statt durch FÜNF.

ich liebe die hardwareluxx-foren. =) danke für die erklärung. hatte das falsch verstanden.

1600x1200: ach du meinst die tabelle. nein die rechnung ist schon korrekt, falsch ist lediglich, dass bei 1600x1200 auch 8 benchmarks zu grunde liegen. sind natürlich nur 5. ändert aber nix an den zahlen.

aths
2004-05-10, 19:19:18
Original geschrieben von reunion
Wie erklärst du dir dann den großen Unterschied zwischen X800XT und 6800U? CPU-Limitierung heißt nicht, dass die Grafikgeschwindigkeit nur von der CPU abhängt.

Auf einem PIII 500 ist z. B. eine TNT2 Pro im 3DMark 2000 deutlich schneller, als eine Voodoo5. In diesem Falle liegt das an, äh, Optimierungen für den Benchmark.

Auf einer vergleichsweise langsamen CPU war die Ti 4600 in Quake3 teilweise schneller als eine Radeon 9700 Pro.

aths
2004-05-10, 19:22:21
Original geschrieben von PCGH_Thilo
sind halt ne menge benches, bei denen diese 0-7 % zu buche stehen. selbst far cry & halo, und die sollten doch "relativ" grafiklimitiert sein ;-)Ja, aber vermutlich eher Shader- denn Texelfüllratenlimitiert.

AlfredENeumann
2004-05-10, 19:53:48
Original geschrieben von Gas9t
Da drin ist ein Hörgerät, ansonsten kann mann die X800Pro nämlich nicht hören!

:-)

:lol: :lol: :lol: :lol: :lol:

Der war gut.

ice cool69
2004-05-10, 20:01:29
Ist die X800XT wirklich sehr bandbreitenlimitiert? Sie ist schließlich schneller als die 6800ultra trotz langsameren Speicher.

MarcWessels
2004-05-10, 20:03:18
Original geschrieben von PCGH_Thilo
ich liebe die hardwareluxx-foren. =) danke für die erklärung. hatte das falsch verstanden.

Null Problemo. ;)


1600x1200: ach du meinst die tabelle. nein die rechnung ist schon korrekt, falsch ist lediglich, dass bei 1600x1200 auch 8 benchmarks zu grunde liegen. sind natürlich nur 5. ändert aber nix an den zahlen.

Eben. *fg*

ShadowXX
2004-05-10, 20:09:36
Original geschrieben von ice cool69
Ist die X800XT wirklich sehr bandbreitenlimitiert? Sie ist schließlich schneller als die 6800ultra trotz langsameren Speicher.

hmmm??? AFAIK hat die XT sogar 10 reale MHz Speichertakt mehr.....

Im Verhältnis zum Chiptakt sieht das ganze natürlich etwas anders aus...(im vergleich zur nv40U)

Piffan
2004-05-10, 20:30:14
Original geschrieben von PCGH_Thilo
Also Piffan, das ist doch Quatsch. Ich hab das 100x im Review geschrieben und in jedem Benchmark vermerkt. "auf den Leim kriechen" sieht ja wohl anders aus.

Fakt ist: wir haben alle NV40-benches eine woche vor red-schluss gemacht. wohlweislich mit tri-optimierung an/aus. und dann sind wir einen tag vor red.schluss zu ati gefahren, ohne zu wissen, was wir einstellen können. ich hatte kurzfristig noch mit extreme gemailt, der mir einen tipp für das rtool gegeben hat. das hat aber nicht gefunzt, die stage-optimierung ließ sich nicht deaktivieren. soll ich deswegen den ganzen test abblasen? weitere benchmarks mit nv40 waren zu dem zeitpunkt nicht möglich, da es genau 2 karten in deutschland gab und andere auch mal testen wollten.

jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %).

Wie bitte? Nur 2 - 7 %? Ist ja wohl nicht Dein Ernst! Wohl Settings gewählt, die CPU- Limitiert waren oder was :eyes:

Dann will ich dir mal sagen, wie sich das auf der Radeon 9800 verhalten tut: Da habe ich zwei Maps in UT2003 getestet. Damit es überhaupt ne Rolle spielt, habe ich natürlich Settings gewählt, wo die Graka auch tatsächlich den Flaschenhals bildet. 1600x1200 8xAF und 4x FSAA.

In der Map Inferno habe ich eine Stelle im Flugmodus ausgesucht, wo ich möglichst viel sehe von der Map und die leicht wiederzufinden ist. Da war die Differenz zwischen Optimierung aus/an 33FPS/49FPS

Antalus: 20/26 FPS

Farcry, Map "Forschung": Am Strand ein kleines Stück gegangen, bis ich rüber zur Landzung sehen konnte, wo die Söldner lagern. Allerdings konnte ich nur mit 1024x768 benchen, da höhere Auflösungen bei den AF und FSAA- Einstellungen nicht funzten.

19/26 FPS

Irgendwo KANN es nicht stimmen, dass der Unterschied nur 2- 7 % beträgt. Es sei denn, dass der R420 Tri- TMUs aufweist. Wenn, dann wäre es DER Hammer und Ati ausgesprochen gut beraten, die Optimierung bei den Neuen abzuschalten.

Also: Hat die R420 Tri- Filter in Hardware oder sind die Tests für die Tonne? *eg*

Salvee
2004-05-10, 20:38:20
Original geschrieben von Piffan
Wie bitte? Nur 2 - 7 %? Ist ja wohl nicht Dein Ernst! Wohl Settings gewählt, die CPU- Limitiert waren oder was :eyes:

Dann will ich dir mal sagen, wie sich das auf der Radeon 9800 verhalten tut: Da habe ich zwei Maps in UT2003 getestet. Damit es überhaupt ne Rolle spielt, habe ich natürlich Settings gewählt, wo die Graka auch tatsächlich den Flaschenhals bildet. 1600x1200 8xAF und 4x FSAA.

In der Map Inferno habe ich eine Stelle im Flugmodus ausgesucht, wo ich möglichst viel sehe von der Map und die leicht wiederzufinden ist. Da war die Differenz zwischen Optimierung aus/an 33FPS/49FPS

Antalus: 20/26 FPS

Farcry, Map "Forschung": Am Strand ein kleines Stück gegangen, bis ich rüber zur Landzung sehen konnte, wo die Söldner lagern. Allerdings konnte ich nur mit 1024x768 benchen, da höhere Auflösungen bei den AF und FSAA- Einstellungen nicht funzten.

19/26 FPS

Irgendwo KANN es nicht stimmen, dass der Unterschied nur 2- 7 % beträgt. Es sei denn, dass der R420 Tri- TMUs aufweist. Wenn, dann wäre es DER Hammer und Ati ausgesprochen gut beraten, die Optimierung bei den Neuen abzuschalten.

Also: Hat die R420 Tri- Filter in Hardware oder sind die Tests für die Tonne? *eg*

Original geschrieben von PCGH_Thilo
viel mehr als nen 3400+ zu nehmen und die settings hochzuschrauben, bleibt ja nicht übrig. die 9800 xt "profitiert" relativ gesehen jedenfalls deutlich mehr von der optimierung als die x800 Pro. bei der XT dürfte der unterschied noch geringer sein (to be tested).


Ist zwar noch keine Erklärung WARUM, aber immerhin ein Indiz DASS es Thilos Ernst ist ;)

reunion
2004-05-10, 21:00:50
Original geschrieben von Piffan
Wie bitte? Nur 2 - 7 %? Ist ja wohl nicht Dein Ernst! Wohl Settings gewählt, die CPU- Limitiert waren oder was :eyes:

Dann will ich dir mal sagen, wie sich das auf der Radeon 9800 verhalten tut: Da habe ich zwei Maps in UT2003 getestet. Damit es überhaupt ne Rolle spielt, habe ich natürlich Settings gewählt, wo die Graka auch tatsächlich den Flaschenhals bildet. 1600x1200 8xAF und 4x FSAA.

In der Map Inferno habe ich eine Stelle im Flugmodus ausgesucht, wo ich möglichst viel sehe von der Map und die leicht wiederzufinden ist. Da war die Differenz zwischen Optimierung aus/an 33FPS/49FPS

Antalus: 20/26 FPS

Farcry, Map "Forschung": Am Strand ein kleines Stück gegangen, bis ich rüber zur Landzung sehen konnte, wo die Söldner lagern. Allerdings konnte ich nur mit 1024x768 benchen, da höhere Auflösungen bei den AF und FSAA- Einstellungen nicht funzten.

19/26 FPS

Irgendwo KANN es nicht stimmen, dass der Unterschied nur 2- 7 % beträgt. Es sei denn, dass der R420 Tri- TMUs aufweist. Wenn, dann wäre es DER Hammer und Ati ausgesprochen gut beraten, die Optimierung bei den Neuen abzuschalten.

Also: Hat die R420 Tri- Filter in Hardware oder sind die Tests für die Tonne? *eg*


Die X800XT hat beinahe die 3-fache Füllrate einer 9800pro und nur ca. 55% mehr Speicherbandbreite als diese!
Das da der bi-filter deutlich mehr bringt als auf einem R420 liegt wohl auf der Hand.

Sphinx
2004-05-10, 21:44:55
Mal was andres :

Hier ein Review von Nordichardware : http://www.nordichardware.com/reviews/graphiccard/2004/r420/


Selbst in BF1942 schlägt die X800Pro die GF6800U

Battlefield 1942
1280x1024, 4xAA/8xAF

Radeon X800 XT 100
Radeon X800 Pro 98.6
GeForce 6800 Ultra 94.7

Mayhem
2004-05-10, 21:49:53
Original geschrieben von Sphinx
Selbst in BF1942 schlägt die X800Pro die GF6800U

Battlefield 1942
1280x1024, 4xAA/8xAF

Radeon X800 XT 100
Radeon X800 Pro 98.6
GeForce 6800 Ultra 94.7

toll, und sie schlägt auch fast die XT. sehr aussagekräftig.

dildo4u
2004-05-10, 21:52:52
Original geschrieben von Sphinx
Mal was andres :

Hier ein Review von Nordichardware : http://www.nordichardware.com/reviews/graphiccard/2004/r420/


Selbst in BF1942 schlägt die X800Pro die GF6800U

Battlefield 1942
1280x1024, 4xAA/8xAF

Radeon X800 XT 100
Radeon X800 Pro 98.6
GeForce 6800 Ultra 94.7
Cpu zu lahm beim test Grafik setting zu niedrig

Sphinx
2004-05-10, 21:54:26
Original geschrieben von Mayhem
toll, und sie schlägt auch fast die XT. sehr aussagekräftig.

Ja ^^ Aussagekräftig das sie"x800Pro"[~380 Euro] schneller ist als eine GF68oo Ultra[~540 Euro] bei "meiner subjektiven Meinung" besseren AA Qualität seitens Ati...

Sphinx
2004-05-10, 21:56:40
Original geschrieben von dildo4u
Cpu zu lahm beim test Grafik setting zu niedrig

Ja mag sein mein 17"-TFT schafft nur 1280x1024 also schau ich mir nur solche Stufen an...

Uller
2004-05-10, 22:01:47
Battlefield ist schon immer ATI Gebiet, deswegen kaufe ich mir auch wieder eine ATI.
Kuckst du da:
http://www.hardocp.com/images/articles/10817474486qLMOmeutS_7_7.gif

Die X800XT ist Wahnsinn, aber auch die X800 Pro kann die 6800 Ultra schlagen.

tRpii
2004-05-10, 22:02:39
Original geschrieben von dildo4u
Cpu zu lahm beim test Grafik setting zu niedrig

ich findn gut weil der CPU meiner ca. entspricht .p und da ich mir die X800XT holen will und ich bis zum A64(P939) noch etwas spass haben will, find ich den Test gut ;)

MikBach
2004-05-10, 22:03:57
Original geschrieben von Sphinx
bei "meiner subjektiven Meinung" besseren AA Qualität seitens Ati...
Das bitte erklären.
Du meinst doch nicht NV40/R420, denn die hast du noch nicht gesehen.
Das 4xAA des NV40 ist mit dem des R420 vergleichbar.

PS Wie sieht es mit Ignorliste aus? (tokugawa):wink:

Uller
2004-05-10, 22:03:58
Genau deswegen finde ich den Test auch absolut klasse! ;)
Mein Prozessor hat 2.3 Ghz anstatt seiner 2.2 GHz, aber ansonsten gleich.

Quasar
2004-05-10, 22:04:54
Original geschrieben von deekey777
Man klemmt den CPU-Lüfter ab.
(Ich konnte mir das nicht verkneifen, sorry.)

Zum Thema:

Powercolor bringt eine X800 PRO Assassin Edition:


http://www.3dnews.ru/documents/news5/20040507_tul-ati_1.jpg
http://www.3dnews.ru/documents/news5/20040507_tul-ati_2.jpg

Die Tasche ist sehr hochwertig, ziemlich belastbar und einigermaßen durchdacht. Ein nicht zu unterschätzender Mehrwert.

deekey777
2004-05-10, 22:06:07
Original geschrieben von Quasar
Die Tasche ist sehr hochwertig, ziemlich belastbar und einigermaßen durchdacht. Ein nicht zu unterschätzender Mehrwert.

Und ein 15'' Notebook soll auch darein passen.

(Die wird bestimmt bei Komplett.de zu kaufen sein.)

dildo4u
2004-05-10, 22:08:28
Original geschrieben von Quasar
Die Tasche ist sehr hochwertig, ziemlich belastbar und einigermaßen durchdacht. Ein nicht zu unterschätzender Mehrwert. OT:wer braucht sowas ist ja ätzend renn ich mit meiner karte rum und bau die überall ein um zu zeigen wie geil die ist nee danke das handy geprolle geht mich schon genug auf den geist

Quasar
2004-05-10, 22:08:48
So lange es kein Dell-Desktop-Replacement ist, passen da eine Menge Dinge rein - auch Notebooks.

(Oder ein ORB840 mit installierten CPUS oder zwei 1,5l Flaschen Cola, Rollenspielzeugs und zwei große Tüten Chips).

Mayhem
2004-05-10, 22:10:41
Original geschrieben von Sphinx
Ja mag sein mein 17"-TFT schafft nur 1280x1024 also schau ich mir nur solche Stufen an...
... und auch nur in BF mit genau dieser cpu, oder ? jetzt haben wir wieder einige überflüssige kommentare mehr.

MarcWessels
2004-05-10, 22:22:06
Original geschrieben von MikBach
Das bitte erklären.
Du meinst doch nicht NV40/R420, denn die hast du noch nicht gesehen.
Das 4xAA des NV40 ist mit dem des R420 vergleichbar.

PS Wie sieht es mit Ignorliste aus? (tokugawa):wink:

Die ATI hat gamakorrigiertes AA, die nVidia nicht...

Piffan
2004-05-10, 22:23:17
Original geschrieben von reunion
Die X800XT hat beinahe die 3-fache Füllrate einer 9800pro und nur ca. 55% mehr Speicherbandbreite als diese!
Das da der bi-filter deutlich mehr bringt als auf einem R420 liegt wohl auf der Hand.

Ok, ich sollte noch sagen, dass meine 9800 das niedliche Ding von MSI ist, das im Medion- Rechner an der Seite eines P4 HT FSB800 3GHz ist. Es ist eine 9800 XT mit 128 mb, der Core ist default 390. Das dreifache wird es also nicht ganz sein, was die 800er mehr auf die Waage bringt....

Aber davon ab: Ist doch völlig schnurz, wenn die Power der Graka getestet wird, muss man durch hohe Settings auf alle Fälle die Graka bis zum Anschlag fordern. Oder wie jetzt? Testet man Systeme oder sollen es die Grakas sein? (der letzte Punkt betrifft den Einwand, dass ja auch der Proz mächtig stark ist).

Und noch was: Das AF belastet wohl eher die TMUs und nicht die Speicherbandbreite, um nicht zu sagen überhaupt nicht!

Wie gesagt, 7% kommen mir seeehr spanisch vor und wären eigentlich der Beweis, das ATI am 420 weit mehr gemacht hat als nur die Pipelines zu verdoppeln und an der Taktschraube zu drehen.......Würde mich ja ehrlich freuen :)

reunion
2004-05-10, 22:31:29
Original geschrieben von Piffan
Und noch was: Das AF belastet wohl eher die TMUs und nicht die Speicherbandbreite, um nicht zu sagen überhaupt nicht!

Wie gesagt, 7% kommen mir seeehr spanisch vor und wären eigentlich der Beweis, das ATI am 420 weit mehr gemacht hat als nur die Pipelines zu verdoppeln und an der Taktschraube zu drehen.......Würde mich ja ehrlich freuen :)

Warum?
Wie du schon selbst geschrieben hast kostet AF hauptsächlich Füllrate, genau wie eben der tri filter, da die X800 XT offensichtlich mehr als genug Füllrate besitzt verliert sie entsprechend wenig Leistung beim einsatz von AF und/oder tri-filterung...

Sphinx
2004-05-10, 22:32:14
Original geschrieben von MikBach
Das bitte erklären.
Du meinst doch nicht NV40/R420, denn die hast du noch nicht gesehen.
Das 4xAA des NV40 ist mit dem des R420 vergleichbar.

PS Wie sieht es mit Ignorliste aus? (tokugawa):wink:

Erm ich will keine Diskussion welches AA Besser ist ICH für Mich selbst hab Mich für das AA der ATi´s entschieden - da wie schon erwähnt für MICH nach MEINEM GESCHMACK "rein SUBJEKTIV gesehen" mehr das AA der Ati´s anspricht als die der NV´s...

Wurde auch erwähnt : Gammakorrigiertes AA + Da ich ein TFT besitze und in den Geschmack des Temporal AA gekommen bin... * Die idee dahinter ist halt Brilliant.

Da ich nicht weiß wie lange PCI-Express auf sich warten lässt und die ersten *WehWechen der 1#Generation dieser Mainboards,Systemen sein wird. Könnte ich mir sehr wohl eine alternative Grafikkarte ("X8ooPRO") Für LAU(Also doch recht günstiger als erwartet) mit der doppelten Leistung meiner jetzigen R97ooPro in meinem akt. Sys vorstellen.



Nja ich denke das einige es falsch verstehen. Wenn ich einen in die IGNORE Liste adde oder nicht...

Es ist ein Feature des Forums welches ich doch in der nächsten Zeit gerne von Gebrauch machen möchte... Da in Threads zuviel Getrollt und Gebashed wird (Ati vs Nvidia). Dazu gehören auch solche wie ich finde CG sinnvoll aussagen.Wer die Diskussionen um CG kennt weiß was ich meine.

tRpii
2004-05-10, 22:40:09
Da ich nicht weiß wie lange PCI-Express auf sich warten lässt und die ersten *WehWechen der 1#Generation dieser Mainboards,Systemen sein wird. Könnte ich mir sehr wohl eine alternative Grafikkarte ("X8ooPRO") Für LAU(Also doch recht günstiger als erwartet) mit der doppelten Leistung meiner jetzigen R97ooPro in meinem akt. Sys vorstellen.

Genau, ich versteh sowieso nicht wieso jeder auf PCI-E wartet. Sollen die anderen "Beta"-Tester spielen und sich mit den ersten Kinderkrankheiten ärgern denn nichts funktioniert bei Einführung auf Anhieb reibungslos. Und bis bis PCI-E Karten kommen wird es wohl auch dauern bzw. schleppend vorangehen.

Bei DDR2 ists ähnlich ;)

aber jm2c

MikBach
2004-05-10, 22:40:09
Original geschrieben von Sphinx
Erm ich will keine Diskussion welches AA Besser ist ICH für Mich selbst hab Mich für das AA der ATi´s entschieden - da wie schon erwähnt für MICH nach MEINEM GESCHMACK "rein SUBJEKTIV gesehen" mehr das AA der Ati´s anspricht als die der NV´s...

Wurde auch erwähnt : Gammakorrigiertes AA.


Du hast noch nichtmal das AA des NV40 gesehen und hast schon eine Meinung. Toll.
Hast du auch gammakorregiertes AA mit dem des NV40 verglichen?
Um Besser geht es doch hier. Keiner ist besser!

edit:Original geschrieben von Sphinx
Nja ich denke das einige es falsch verstehen. Wenn ich einen in die IGNORE Liste adde oder nicht...

Es ist ein Feature des Forums welches ich doch in der letzten Zeit gerne von Gebrauch machen möchte... Da in Threads zuviel Getrollt und Gebashed wird. Dazu gehören auch solche wie ich finde CG sinnvoll aussagen.Wer die Diskussionen um CG kennt weiß was ich meine.

Kannst du sehen wie du willst.:)
Gerade tokugawa würde ich nicht auf meine Ignoreliste setzen, da er viel Neues bringt. Wer kann schon von sich behaupten Shader der Version 3.0 zu proggen?
Auch wenn er vielleicht einseitig ist(Nvidia), möchte ich ihn im Forum nicht mehr missen, weil er einfach neue Themen anspricht, und ich mir nicht 100mal das Gleiche anhören muss.
Denk mal nach. :)
Ich tendiere auch zu ATI, aber man kann doch noch "offen" für Andere sein, die eine andere Meinung vertreten.

Sphinx
2004-05-10, 22:42:13
Original geschrieben von MikBach
Du hast noch nichtmal das AA des NV40 gesehen und hast schon eine Meinung. Toll.
Hast du auch gammakorregiertes AA mit dem des NV40 verglichen?
Um Besser geht es doch hier. Keiner ist besser!

Entschuldige ich habe im Bekanntenkreis das AA der GF_5800 Ultra gesehen und ich denke da besteht kein Unterschied zwischen der GF_6800

reunion
2004-05-10, 22:44:00
Original geschrieben von Sphinx
Entschuldige ich habe im Bekanntenkreis das AA der GF_5800 Ultra gesehen und ich denke da besteht kein Unterschied zwischen der GF_6800

Da täuscht du dich aber gewaltig.
Das 4x AA des NV40 ist jetzt auch gedreht, wie das der ATI Chips, erreicht also bis auf die gammekorrektur dieselbe Qualität, nur gegen ATis 6x-Modus hat NV noch nichts konkurrezfähiges...

LovesuckZ
2004-05-10, 22:44:33
Original geschrieben von Sphinx
Entschuldige ich habe im Bekanntenkreis das AA der GF_5800 Ultra gesehen und ich denke da besteht kein Unterschied zwischen der GF_6800

Nunja, sollte man dich wegen dieser Aussage auf die Ignoreliste setzen? Wahrscheinlich schon...

Iceman346
2004-05-10, 22:44:46
Original geschrieben von Sphinx
Entschuldige ich habe im Bekanntenkreis das AA der GF_5800 Ultra gesehen und ich denke da besteht kein Unterschied zwischen der GF_6800

Oh Junge, damit hast du aber dein Unwissen auf ganzer Linie entblösst ;)

Die alten FX Karten nutzen bei 4x AA noch ein geordnetes Muster während die 6800er ein gedrehtes Muster ähnlich der Radeons nutzen. Im Endeffekt ist dadurch der einzigste Unterschied (bei 2x und 4x AA) die Gammakorrektur.

Quasar
2004-05-10, 22:45:18
Original geschrieben von Sphinx
Entschuldige ich habe im Bekanntenkreis das AA der GF_5800 Ultra gesehen und ich denke da besteht kein Unterschied zwischen der GF_6800

Doch, ein ziemlicher sogar, wenn du den 4x-Modus meinst.

Piffan
2004-05-10, 22:49:44
Original geschrieben von reunion
Warum?
Wie du schon selbst geschrieben hast kostet AF hauptsächlich Füllrate, genau wie eben der tri filter, da die X800 XT offensichtlich mehr als genug Füllrate besitzt verliert sie entsprechend wenig Leistung beim einsatz von AF und/oder tri-filterung...

Imho ist der Fehler, dass man überhaupt eine Prozentzahl nennt. Denn nur wenn totale Füllratenlimitierung vorliegt, ist sowas überhaupt zu machen. Und da fällt die Leistung JEDER Graka gleich stark ab, wenn ich von Bi auf Tri umschalte....

Nun wieder realistisch: Der Abfall durch das Umschalten ist also variabel und hängt ab vom Verhältnis CPU/Systemlast und der Power der Graka. Je höher ich die Settings schraube, um so heftiger schlägt die Optimierung durch. Darum sind die auffallend hohen Leistungsunterschiede am obersten Ende der möglichen Settings am verdächtigsten, da hier auch die Limitierung am stärksten wirkt.....

Intelligenter ist eigentlich angesichts der Unsicherheit, ob die Optimierungen nun an sind oder nicht, der Vergleich der mittleren Settings.....Für mich sind daher beide Chips ebenbürtig. Bis jetzt, wo noch keiner wasserdicht den Einfluss von Atis Schummelei genau dargelegt hat.....

Geradezu grotesk sind die Vergleiche, wo man den NV40 mit Supersampling quält. Was soll der Quark? Will man da den dümmsten Usern imposante Balkendiagramme bieten?

Da wird einerseits geheult, dass NV langsam aber sicher auf Ati aufschließt, was die Mogelei beim Filtern betrifft, andererseits zwingt man NV durch schlechte Tests geradezu, dieses zu tun......:(

Mayhem
2004-05-10, 22:49:56
Original geschrieben von reunion
Warum?
Wie du schon selbst geschrieben hast kostet AF hauptsächlich Füllrate, genau wie eben der tri filter, da die X800 XT offensichtlich mehr als genug Füllrate besitzt verliert sie entsprechend wenig Leistung beim einsatz von AF und/oder tri-filterung...

das kannst du so pauschal gar nicht sagen, laut 3DC (http://www.3dcenter.de/artikel/grafikfilter/index5.php) kostet trilineare filterung auch massiv bandbreite. trilineares AF kostet also bandbreite und fillrate.

Demirug
2004-05-10, 22:50:48
Original geschrieben von Piffan
Und noch was: Das AF belastet wohl eher die TMUs und nicht die Speicherbandbreite, um nicht zu sagen überhaupt nicht!

Wie kommst du den darauf? AF zwingt den Chip höher aufgelöste Mips zu benutzen. Da muss dann auch mehr in den Chip geschaufelt werden.

Wie gesagt, 7% kommen mir seeehr spanisch vor und wären eigentlich der Beweis, das ATI am 420 weit mehr gemacht hat als nur die Pipelines zu verdoppeln und an der Taktschraube zu drehen.......Würde mich ja ehrlich freuen :)

Ich habe mal ein bischen mit den Resultaten aus dem MDolenc’s Fillratetester gerechnet. Das Ergebniss war IMHO erschreckend. Entweder hat ATI beim R420 den Speicherkontroller vermurks oder der Treiber konfiguriert diesen völlig falsch.

Der R420 erreicht bei 4 Textursamples pro Pixel gerade mal 65% der möglichen Fillrate. Das ist aber kein Problem der Bandbreite weil es bei der Pro auch nicht besser sondern mit nur 63% noch schlechter aussieht. Aufgrund dieser Daten kann man nun vermuten das der Chip seine volle Fillrate-Effizienz erst bei einer hohen Anzahl von Samples pro Pixel erreicht (viele texturen bei hohem AF). Reduziert man nun die Samples pro Pixel durch die Stage optimierung sinkt die Effizienz und die gesparten Takte gehen zum grossen Teil wieder vorloren. IMHO im Speichercontroller der mit den vielen Anfragen auf unterschiedliche Speicherbereiche nicht klarkommt und daher bremst.

Beim R360 gibt es dieses Problem nicht. Dieser ist schon bei 2 Texturesamples pro layer auf 89% und kann sich durch zusätzliche Samples nur noch leicht steigern (91.5% bei 4 Samples). Beim R420 macht dieser Sprung im Gegensatz dazu fast 6% aus.

LovesuckZ
2004-05-10, 22:56:23
Das ganze nun nochmal grafisch, dank Ante P: http://www.nordichardware.com/UndaC/FillrateTester.jpg

Piffan
2004-05-10, 23:00:38
Original geschrieben von Demirug
Wie kommst du den darauf? AF zwingt den Chip höher aufgelöste Mips zu benutzen. Da muss dann auch mehr in den Chip geschaufelt werden.



Ich habe mal ein bischen mit den Resultaten aus dem MDolenc’s Fillratetester gerechnet. Das Ergebniss war IMHO erschreckend. Entweder hat ATI beim R420 den Speicherkontroller vermurks oder der Treiber konfiguriert diesen völlig falsch.

Der R420 erreicht bei 4 Textursamples pro Pixel gerade mal 65% der möglichen Fillrate. Das ist aber kein Problem der Bandbreite weil es bei der Pro auch nicht besser sondern mit nur 63% noch schlechter aussieht. Aufgrund dieser Daten kann man nun vermuten das der Chip seine volle Fillrate-Effizienz erst bei einer hohen Anzahl von Samples pro Pixel erreicht (viele texturen bei hohem AF). Reduziert man nun die Samples pro Pixel durch die Stage optimierung sinkt die Effizienz und die gesparten Takte gehen zum grossen Teil wieder vorloren. IMHO im Speichercontroller der mit den vielen Anfragen auf unterschiedliche Speicherbereiche nicht klarkommt und daher bremst.

Beim R360 gibt es dieses Problem nicht. Dieser ist schon bei 2 Texturesamples pro layer auf 89% und kann sich durch zusätzliche Samples nur noch leicht steigern (91.5% bei 4 Samples). Beim R420 macht dieser Sprung im Gegensatz dazu fast 6% aus.

Aha! Dann ist es die Ineffizienz, die den Bonus der "Optimierungen" schluckt.....also stimmts doch mit der Angabe von lediglich 2-7%.......

Dann wird also auch ein Teil der Wirkung der Pipeline- Verdoppelung so vergeigt......

Und trotzdem schneidet der R420 so gut ab? :o

Wie stark soll der erst werden, wenn die vermuteten Reibungsverluste bei der Speicheranbindung verringert werden, evtl beim R500?

OH, oh, da kommt bald ein ganz dickes Ding von Ati auf NV zugerollt......oder auch nicht ;)

Gas3t
2004-05-10, 23:10:21
Original geschrieben von Demirug
Wie kommst du den darauf? AF zwingt den Chip höher aufgelöste Mips zu benutzen. Da muss dann auch mehr in den Chip geschaufelt werden.



Ich habe mal ein bischen mit den Resultaten aus dem MDolenc’s Fillratetester gerechnet. Das Ergebniss war IMHO erschreckend. Entweder hat ATI beim R420 den Speicherkontroller vermurks oder der Treiber konfiguriert diesen völlig falsch.

Der R420 erreicht bei 4 Textursamples pro Pixel gerade mal 65% der möglichen Fillrate. Das ist aber kein Problem der Bandbreite weil es bei der Pro auch nicht besser sondern mit nur 63% noch schlechter aussieht. Aufgrund dieser Daten kann man nun vermuten das der Chip seine volle Fillrate-Effizienz erst bei einer hohen Anzahl von Samples pro Pixel erreicht (viele texturen bei hohem AF). Reduziert man nun die Samples pro Pixel durch die Stage optimierung sinkt die Effizienz und die gesparten Takte gehen zum grossen Teil wieder vorloren. IMHO im Speichercontroller der mit den vielen Anfragen auf unterschiedliche Speicherbereiche nicht klarkommt und daher bremst.

Beim R360 gibt es dieses Problem nicht. Dieser ist schon bei 2 Texturesamples pro layer auf 89% und kann sich durch zusätzliche Samples nur noch leicht steigern (91.5% bei 4 Samples). Beim R420 macht dieser Sprung im Gegensatz dazu fast 6% aus.

Für den Fall, dass das Problem beim Speichercontroller liegt, läßt sich dann die Effizienz duch einen neuen Treiber steigern?

Piffan
2004-05-10, 23:16:05
Original geschrieben von Gas3t
Für den Fall, dass das Problem beim Speichercontroller liegt, läßt sich dann die Effizienz duch einen neuen Treiber steigern?

Demirurg schreibt doch, dass der Controller entweder vermurkst ist oder durch den Treiber falsch konfiguriert wird.....ALLES weiß auch Demirurg nicht.....

Demirug
2004-05-10, 23:21:52
Original geschrieben von Piffan
Aha! Dann ist es die Ineffizienz, die den Bonus der "Optimierungen" schluckt.....also stimmts doch mit der Angabe von lediglich 2-7%.......

Dann wird also auch ein Teil der Wirkung der Pipeline- Verdoppelung so vergeigt......

Ich habe den leisen verdacht das man den Speicherkontroller nicht mitangepasst hat als man die Pipelines verdoppelt hat.

Und trotzdem schneidet der R420 so gut ab? :o

Im Bereich der grössten Ineffizienz dürfte der R420 bei echten Spielen fast immer primär durch die CPU limitiert sein.

Wie stark soll der erst werden, wenn die vermuteten Reibungsverluste bei der Speicheranbindung verringert werden, evtl beim R500?

OH, oh, da kommt bald ein ganz dickes Ding von Ati auf NV zugerollt......oder auch nicht ;)

Erst mal eine stärkere CPU beschaffen.

Gas3t
2004-05-10, 23:22:19
Original geschrieben von Piffan
Demirurg schreibt doch, dass der Controller entweder vermurkst ist oder durch den Treiber falsch konfiguriert wird.....ALLES weiß auch Demirurg nicht.....

Ich meinte auch, ob man den Treiber nicht so programmieren könnte, dass er bestimmte Schwächen des Controllers ausgleicht. Und wenn ja, inwieweit dies überhaupt möglich ist.

betasilie
2004-05-10, 23:45:18
Original geschrieben von Piffan
Wie stark soll der erst werden, wenn die vermuteten Reibungsverluste bei der Speicheranbindung verringert werden, evtl beim R500?

Oder bei kommenden Treibern. ;)

Piffan
2004-05-11, 00:02:50
Original geschrieben von betareverse
Oder bei kommenden Treibern. ;)

Das wäre ein genialer Schachzug von Ati. Man testet erst mal gemütlich den Gegner aus und versucht lediglich zu punkten. Würde man die Katze zu früh aus dem Sack lassen, würde die Luft für den R500 unnötig dünn werden. Man will ja später auch noch mal was verkaufen.....

Und sollte NV in der näheren Zukunft zu frech werden, könnte man ja immer noch den Boost frühezeitig zünden....träum......

Schade nur, dass meine 9800 XT schon recht optmal läuft und da nix mehr kommen wird. ;D

betasilie
2004-05-11, 00:09:17
Original geschrieben von Piffan
Das wäre ein genialer Schachzug von Ati. Man testet erst mal gemütlich den Gegner aus und versucht lediglich zu punkten. Würde man die Katze zu früh aus dem Sack lassen, würde die Luft für den R500 unnötig dünn werden. Man will ja später auch noch mal was verkaufen.....

Und sollte NV in der näheren Zukunft zu frech werden, könnte man ja immer noch den Boost frühezeitig zünden....träum......

Schade nur, dass meine 9800 XT schon recht optmal läuft und da nix mehr kommen wird. ;D
Ich warte sowieso erstmal mit dem Kauf einer neuen Karte. 1. wegen dem Preisturz nach ca. 3 Monaten und 2. will ich erstmal sehen, wie DoomIII, HL2 etc. mit den Karten laufen. Auch FarCry mit PS3.0 interessiert mich.

Eigentlich habe ich NV leicht vorne gesehen, weil sie ja noch einiges aus den Treibern rausholen könnten, aber jetzt bin ich mir nicht sicher, ob ATI nicht auch noch ordentlich was mit den Treibern rausholen kann.

Mayhem
2004-05-11, 00:30:44
moment. auch wenn die effizienz um 6% beim übergang von bi auf trilinear steigt, muss das noch lange nicht ausreichen um den leistungsabfall dabei aufzufangen. vielleicht sollten wir wirklich mal genaue untersuchungen daraufhin abwarten.

Quasar
2004-05-11, 00:35:01
Falls es interessiert, ich habe für meine Versuche das Testobjekt, welches in vielerlei Hinsicht eine erstaunliche Ähnlichkeit zur R420 aufweist, extra auf den halben Core-Takt gebremst, da mir bewußt war, daß die R9600XT an Bandbreite verhungert.

BTW ist diese 9600XT mit recht großer Übereinstimmung ca. 25% einer R420. (~Halber Speichertakt & halbe Busbreite, sowie ~gleicher GPU-Takt und ein Viertel der Pipelines)

MarcWessels
2004-05-11, 00:35:32
edit

robbitop
2004-05-11, 00:40:13
@Demi
kann es sein, daß den TMU's schlichtweg die Bandbreite ausgeht?


/
Btw. lt. NV unterstützt NV40 gammacorrektes Downsampling

Salvee
2004-05-11, 01:13:45
Original geschrieben von robbitop
@Demi
kann es sein, daß den TMU's schlichtweg die Bandbreite ausgeht?


/
Btw. lt. NV unterstützt NV40 gammacorrektes Downsampling

Meinst du das (http://nvidia.com/object/feature_intellisample.html) hier?

'The Intellisample process also uses gamma-adjusted sampling, taking into account the dramatic physical differences between how your eyes
and monitor perceive light and color, making for much smoother and more natural edge transitions.'

Das soll ja schon für NV3x gelten...

Demirug
2004-05-11, 07:13:48
Original geschrieben von robbitop
@Demi
kann es sein, daß den TMU's schlichtweg die Bandbreite ausgeht?

Das habe ich ja auch erst gedacht aber bei der Pro die im verhältniss zur XT ja über mehr Bandbreite pro Pixel verfügt sieht es ja auch nicht besser aus.

Die XTs haben ja 4,31 Byte pro Pixel und die PROs kommen auf 5,3. Bei einem reinen Bandbreiten Problem müsste die Pro also besser darstehen.

Zum vergleich: Die 6800U hat 5,5 Byte pro Pixel. Bei 4 texturschichten erreicht sie über 90% der theoretisch möglichen Fillrate. Speichertechnisch müsste die Pro also in ähnliche Bereiche kommen. Da sie das nicht tut kann sie die Bandbreite nicht nutzten und daran kann letzten Endes nur der Speicherkontroller schuld sein.

Btw. lt. NV unterstützt NV40 gammacorrektes Downsampling

Hast du das eventuel mit der möglichen ganmakorrektur bei texturen verwechselt?

robbitop
2004-05-11, 07:48:37
nein, ich habe ein Interview mit irgend einem PR Heini gelesen...mein Fehler ;)

ShadowXX
2004-05-11, 08:10:12
Original geschrieben von Demirug
Das habe ich ja auch erst gedacht aber bei der Pro die im verhältniss zur XT ja über mehr Bandbreite pro Pixel verfügt sieht es ja auch nicht besser aus.

Die XTs haben ja 4,31 Byte pro Pixel und die PROs kommen auf 5,3. Bei einem reinen Bandbreiten Problem müsste die Pro also besser darstehen.

Zum vergleich: Die 6800U hat 5,5 Byte pro Pixel. Bei 4 texturschichten erreicht sie über 90% der theoretisch möglichen Fillrate. Speichertechnisch müsste die Pro also in ähnliche Bereiche kommen. Da sie das nicht tut kann sie die Bandbreite nicht nutzten und daran kann letzten Endes nur der Speicherkontroller schuld sein.


Das mit den merkwürdigen Peakwerten bei der Fillrate ist mir schon vor ca. 1500 Posts, also direkt nach den ersten Benches aufgefallen.

Hatte es allerdings genauso wie du, auch auf das "Missverhältniss" von GPU/Mem-Takt geschoben.
Wobei ich die Zahlen schon "damals" zu gross fand.

Ich kann mir allerdings beim besten willen nicht vorstellen, das Sie die rv360 (ja, ich benutze extra rv, da es scheint, das Sie eher die rv360 Pipeline x4 genommen haben und nicht den r360 x2) vervierfacht haben (Piplinetechnisch) aber darüber den Speichercontroller vergessen haben...wobei:

Kann es sein, das der Speicherkontroller deshalb an effizienz eingebüsst hat, bei das Hir-Z jetzt auch mit abgeschalteten Quads funktionieren soll/muss.

Das war ja eigentlich das grosse Problem bei den rv-Chips....und damit es nicht nur mit 8 und/oder 16 Pipes funktioniert (das Hir-Z) mussten Sie gewisse Kompromisse beim Speichercontroller machen...

Nur so ne idee....

Wobei ich ein Treiberproblem "symphatischer" finden würde, da leichter (bzw. überhaupt) zu beheben...

Quasar
2004-05-11, 08:19:52
Gammakorrektes Downsampling bietet bestimmt auch nV - fragt sich nur, für welchen Gamma-Wert - 1,0?

robbitop
2004-05-11, 08:53:16
jap, ich glaube 1,0 habe ich gelesen
(verdammt ich finds nicht mehr das Interview)

PCGH_Thilo
2004-05-11, 09:42:56
Original geschrieben von Piffan
Wie bitte? Nur 2 - 7 %? Ist ja wohl nicht Dein Ernst! Wohl Settings gewählt, die CPU- Limitiert waren oder was :eyes:

Dann will ich dir mal sagen, wie sich das auf der Radeon 9800 verhalten tut: Da habe ich zwei Maps in UT2003 getestet. Damit es überhaupt ne Rolle spielt, habe ich natürlich Settings gewählt, wo die Graka auch tatsächlich den Flaschenhals bildet. 1600x1200 8xAF und 4x FSAA.

In der Map Inferno habe ich eine Stelle im Flugmodus ausgesucht, wo ich möglichst viel sehe von der Map und die leicht wiederzufinden ist. Da war die Differenz zwischen Optimierung aus/an 33FPS/49FPS

Antalus: 20/26 FPS

Farcry, Map "Forschung": Am Strand ein kleines Stück gegangen, bis ich rüber zur Landzung sehen konnte, wo die Söldner lagern. Allerdings konnte ich nur mit 1024x768 benchen, da höhere Auflösungen bei den AF und FSAA- Einstellungen nicht funzten.

19/26 FPS

Irgendwo KANN es nicht stimmen, dass der Unterschied nur 2- 7 % beträgt. Es sei denn, dass der R420 Tri- TMUs aufweist. Wenn, dann wäre es DER Hammer und Ati ausgesprochen gut beraten, die Optimierung bei den Neuen abzuschalten.

Also: Hat die R420 Tri- Filter in Hardware oder sind die Tests für die Tonne? *eg*

was soll ich noch sagen, außer dass ich hier einen berg benchmarks habe, der deine theorie widerlegt? liegt ja wohl auf der hand, dass 9800 XT und X800 anders auf die stage-optimierung reagieren. oder willst du etwa andeuten, das wäre ein sinnvoller vergleich?

Piffan
2004-05-11, 13:17:19
Original geschrieben von PCGH_Thilo
was soll ich noch sagen, außer dass ich hier einen berg benchmarks habe, der deine theorie widerlegt? liegt ja wohl auf der hand, dass 9800 XT und X800 anders auf die stage-optimierung reagieren. oder willst du etwa andeuten, das wäre ein sinnvoller vergleich?

Mein Gedankengang ist folgender: Wenn die Grakas wirklich den Flaschenhals bilden bzw. eine Füllratenlimitierung vorliegt UND die X800 ein aufgebohrter 9800 XT ist, dann sollte der Abfall beim Ausschalten der Optimierung wesentlich größer sein als diese paar Prozente.....

Gibt da zwei Möglichkeiten: Die TMUs sind verändert worden oder Demirurg hat recht, dass die zunehmende Ineffizienz beim Aktivieren der Optimierung da einen Strich durch die Rechnung macht.

Irgendwo muss dieses Phänomen schließlich ne Erklärung finden. Aber zu erwarten war es nicht, dass sich die Optimierung so gering auswirken würde........

robbitop
2004-05-11, 13:19:58
@Thilo
ich denke du liegst mit deinen Ergbnissen gar nicht so verkehrt. =)
Denn die X800XT mag ja vieleicht über 2x Rohleistung der 9800 haben, aber sie hat nicht über 2x der Bandbreite, so dass die Karte sehr bandbreitenlimitiert sein _sollte_.
D.h. das Verhälltnis Bandbreite/Füllrate ist ein ganz anderes zu gunsten der Füllrate, somit ist es nachvollziehbar, wenn die X800XT in extrem Füllratenlimitierten Bereichen keinen starken Performancedrop hat wie die 9800.

Und da die X800XT rund 30% mehr Füllrate als die NV40 hat, ist ein Sieg mit AF völlig sinnvoll. Sobald kein AF zum Einsatz kommt, sieht die NV40 recht gut aus, denn hier fehlt es nicht an Füllrate sondern kommt mehr auf das Bandbreite/Füllraten verhälltnis an.
Soweit ich es bisher gehört habe: NV40 besitzt das bessere Z-Culling (Quadbased und ausserdem musste ATi wohl einen Kompromiss eingehen, damit deren Algo auch mit 4 und 12 Pipes läuft), die echte Colorcompression (ATi besitzt nur eine Pseudokompression)und den besseren Speichercontroller (Demis Dolenc Fillatentests sagen das aus).

Aber bei AF, fehlt der NV40 in Relation zur X800XT einfach 30% Füllrate, das kann man kaum wettmachen, wenn es sowieso Füllratenlimitiert ist. Insofern finde ich einen 6800U EE (hier hat man einfach 12% mehr Füllrate als eine normale NV40 und soweit ich weiss war das ja NVs offizielle Antwort zur XT) mit 61.11 Test immer recht gut, denn hier sieht man dass mehr Füllrate da ist und mehr Füllrate durch "Optimierung" gesparrt wird, so wie es auch ATi macht, d.h man hat per default einen netten Vergleich.

just my 2 cents...

robbitop
2004-05-11, 13:21:29
Piffan, das Bandbreiten/Füllratenverhälltnis ist aber bei einer 9800 ein ganz anderes als bei der X800XT.
Erstere ist füllratenlimitiert, letztere bandbreitenlimitiert. Für mich logisch, dass die XT keinen starken Performancedrop hat was AF angeht.

DrumDub
2004-05-11, 13:28:12
es könnte tatsächlich "nur" ein treiberproblem sein:


In the memory department, the X800's most interesting attribute is that memory allocation is software-configurable. What makes this so interesting is that is gives ATI driver writers flexibility down the road to tune bank configuration and memory access patterns, especially those used when AA is enabled. Having these parameters be software-tweakable should let ATI find some additional head-room as newer applications like Half-Life 2, Doom 3 and S.T.A.L.K.E.R. ship. ATI was quick to point out however that the Catalyst driver is NOT doing application detection, so whatever changes are made to the memory controller configuration will affect all applications.
http://www.extremetech.com/article2/0,1558,1583550,00.asp

Piffan
2004-05-11, 13:38:48
Wenn ich AF erhöhe, steigt doch eher der Füllratenverbrauch als der Bandbreitenverbrauch. (Sorry für die unorthodoxen Begriffe). Oder liege ich da komplett falsch? Demirurg hat es zwar erklärt, dass durch die anderen Mipmaps auch mehr aus dem Speicher geholt werden muss und somit auch Bandbreitenverbrauch zunimmt, aber irgendwie bin ich begriffstutzig und bilde mir ein, dass Af mehr Füllrate als Speicherbandbreite verbraucht. Einfach so ein Gefühl....:D

Vielleicht sollte ich mal die Artikel auf diesen Seiten wieder mehr studieren und würde weniger Dummfug sabbeln...

ShadowXX
2004-05-11, 13:38:56
Original geschrieben von DrumDub
es könnte tatsächlich "nur" ein treiberproblem sein:



http://www.extremetech.com/article2/0,1558,1583550,00.asp

Jetzt, wo du dies gepostet hast, fällt mir ein, dass ich das auch schon mal gelesen hatte...(und wohl irgendwo im Hinterstübchen verkramt).

Es könnte also tatsächlich sein, das die jetzigen Treiber tatsächlich noch nicht besonders gut auf das "neue" Mem-Interface angepasst sind...hmmm.

Wenn das so weitergeht kann man alle bisherigen Benchmarks in die Tonne treten...(auch die vom nv40...da dort bestimmt auch noch nicht alles optimal in den Treiber funktioniert + das DX90c noch nicht da ist...)

Piffan
2004-05-11, 13:40:51
Original geschrieben von ShadowXX
Wenn das so weitergeht kann man alle bisherigen Benchmarks in die Tonne treten...(auch die vom nv40...da dort bestimmt auch noch nicht alles optimal in den Treiber funktioniert + das DX90c noch nicht da ist...)

Sage ich doch! ;D

Sphinx
2004-05-11, 13:44:15
Macht uns ATI vielleicht die "rüberschau zu Nvidia" versprechen wahr wie wie wenn : Catalyst 5.0 UP TO REAL 50% Performance ,=) with our new set of cerified whql drivers...

ShadowXX
2004-05-11, 13:47:13
Original geschrieben von Sphinx
Macht uns ATI vielleicht die "rüberschau zu Nvidia" versprechen wahr wie wie wenn : Catalyst 5.0 UP TO REAL 50% Performance ,=) with our new set of cerified whql drivers...

Wo hast du das denn jetzt her???

(irgendwie kann man nicht alle Threads gleichzeitig lesen...muss wohl noch ein paar Monitore bei der Administration ordern;D )

HOT
2004-05-11, 13:49:49
Original geschrieben von Piffan
Imho ist der Fehler, dass man überhaupt eine Prozentzahl nennt. Denn nur wenn totale Füllratenlimitierung vorliegt, ist sowas überhaupt zu machen. Und da fällt die Leistung JEDER Graka gleich stark ab, wenn ich von Bi auf Tri umschalte....

Nun wieder realistisch: Der Abfall durch das Umschalten ist also variabel und hängt ab vom Verhältnis CPU/Systemlast und der Power der Graka. Je höher ich die Settings schraube, um so heftiger schlägt die Optimierung durch. Darum sind die auffallend hohen Leistungsunterschiede am obersten Ende der möglichen Settings am verdächtigsten, da hier auch die Limitierung am stärksten wirkt.....

Intelligenter ist eigentlich angesichts der Unsicherheit, ob die Optimierungen nun an sind oder nicht, der Vergleich der mittleren Settings.....Für mich sind daher beide Chips ebenbürtig. Bis jetzt, wo noch keiner wasserdicht den Einfluss von Atis Schummelei genau dargelegt hat.....

Geradezu grotesk sind die Vergleiche, wo man den NV40 mit Supersampling quält. Was soll der Quark? Will man da den dümmsten Usern imposante Balkendiagramme bieten?

Da wird einerseits geheult, dass NV langsam aber sicher auf Ati aufschließt, was die Mogelei beim Filtern betrifft, andererseits zwingt man NV durch schlechte Tests geradezu, dieses zu tun......:(


Also: Wenn die Grafikkarte (X800) mehr Füllrate hat als Bandbreite, um die komplette Füllrate "auszuwerten" und du nun ein Feature benutzt, dass mehr die Füllrate und weniger die Bandbreite nutzt, dann soll der Unterschied exakt gleich sein mit einer Karte, bei der die Bandbreite praktisch unbegrenzt zur Verfügung steht und fast die gesamte Füllrate ausgenutzt wird (R98Pro)?
Deine Logik ist kaputt :D

Piffan
2004-05-11, 13:50:07
Original geschrieben von ShadowXX
Wo hast du das denn jetzt her???

(irgendwie kann man nicht alle Threads gleichzeitig lesen...muss wohl noch ein paar Monitore bei der Administration ordern;D )

Unterstützt dein Browser nur ein Fenster?

HOT
2004-05-11, 13:52:06
Original geschrieben von LovesuckZ
Nunja, sollte man dich wegen dieser Aussage auf die Ignoreliste setzen? Wahrscheinlich schon...

na ja, dich hat er sicher schon lannge drauf ;)
Ich war auch 2-3mal kurz davor um ehrlich zu sein... aber ich denke, ich bringe sowas einfach nicht übers Herz :D ;)

MarcWessels
2004-05-11, 13:53:31
Original geschrieben von robbitop
Insofern finde ich einen 6800U EE (hier hat man einfach 12% mehr Füllrate als eine normale NV40 und soweit ich weiss war das ja NVs offizielle Antwort zur XT) mit 61.11 Test immer recht gut, denn hier sieht man dass mehr Füllrate da ist und mehr Füllrate durch "Optimierung" gesparrt wird, so wie es auch ATi macht, d.h man hat per default einen netten Vergleich.

Ich beachte momentan nur noch den NV40 mit 60.72er Treibern.

ShadowXX
2004-05-11, 13:57:32
Original geschrieben von Piffan
Unterstützt dein Browser nur ein Fenster?

jo....ist der [schäm]IE 5.0[/schäm]...

Ich sollte mal meine Faultheit überwinden und was anderes Installieren...

robbitop
2004-05-11, 13:57:41
wegen den Fehlern im 61.11?
ist ja eh alles noch beta

beim R420 erwarte ich keine starken nichtcheat Steigerungen mehr. Die Architektur haben wir jetzt seit 2002 (R300), und die "Grundarchitektur" seit 2001 (R200).

Piffan
2004-05-11, 13:58:22
Original geschrieben von HOT
Also: Wenn die Grafikkarte (X800) mehr Füllrate hat als Bandbreite, um die komplette Füllrate "auszuwerten" und du nun ein Feature benutzt, dass mehr die Füllrate und weniger die Bandbreite nutzt, dann soll der Unterschied exakt gleich sein mit einer Karte, bei der die Bandbreite praktisch unbegrenzt zur Verfügung steht und fast die gesamte Füllrate ausgenutzt wird (R98Pro)?
Deine Logik ist kaputt :D

Ich war der Ansicht, dass beim AF die Caches doch recht viele Speicherzugriffe auffangen. Wenn ich also von Bi- auf Tri schalte, sollte doch eigentlich nicht der Bandbreitenbedarf auch zunehmen.....oder was jetzt? :kratz:

Wenn ich den AF- level erhöhe, nimmt über die veränderten Mipmap natürlich der Bandbreitenbedarf zu. ABer warum sollte es beim Wechsel von Bi auf Tri sein.

Ich verlange ja auch nicht, dass es exakt gleich ist. Mir fehlt es nur am Glauben, dass die Optimierung sich so gering auswirken soll. Inzwischen hat Thilo es ja nachgeprüft, dass es so ist. Imho wider jeder Logik!

Zur Logik: Danke, für den Alltag reichts bei mir immer noch. Völlig senil bin ich noch nicht. :D

robbitop
2004-05-11, 14:07:45
ich denke mal, dass jedes Sample die TMU Speicherzugriffe kostet.
2xbiAF = tri vom Aufwand und der Sampleanzahl afaik.
Natürich kostet das Bandbreite, aber in erster Linie kostet es Füllrate.

DrumDub
2004-05-11, 14:09:58
Original geschrieben von robbitop
wegen den Fehlern im 61.11?
ist ja eh alles noch beta

ähmm... es geht um die nicht mehr ausschaltbare brilinearität im 61.11: http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=20

angeblich ein bug.

beim R420 erwarte ich keine starken nichtcheat Steigerungen mehr. Die Architektur haben wir jetzt seit 2002 (R300), und die "Grundarchitektur" seit 2001 (R200).

nun ja, die sache mit dem speichercontroller ist schon interessant. in spielen dürfte sich das wohl erstmal nicht auswirken, aber theoretisch sind da noch 15-25% mehr füllrate drin.

LovesuckZ
2004-05-11, 14:13:18
Original geschrieben von DrumDub
nun ja, die sache mit dem speichercontroller ist schon interessant. in spielen dürfte sich das wohl erstmal nicht auswirken, aber theoretisch sind da noch 15-25% mehr füllrate drin.

Imo müsste da mehr drin sein.

Sphinx
2004-05-11, 14:14:06
Original geschrieben von Iceman346
Oh Junge, damit hast du aber dein Unwissen auf ganzer Linie entblösst ;)

Die alten FX Karten nutzen bei 4x AA noch ein geordnetes Muster während die 6800er ein gedrehtes Muster ähnlich der Radeons nutzen. Im Endeffekt ist dadurch der einzigste Unterschied (bei 2x und 4x AA) die Gammakorrektur.


Und alle habt ihr einen der eine GF6800 bis hin zu einer ULTRA besitzt....

Ja ? ich kenn kein einzigen hier.. der die neuen GF6 Series besitzt.

Ich will hier keine GRUNDSATZ Diskussion anfangen aber anscheinend wollen viele es doch darauf anlegen - provozieren.

Ich Review nach meinem GESCHMACK und NACH meiner SUBJEKTIVEN Meinung. *geht es nicht in eure Köpfe oder wie. Nur weil in einem Review steht das Nvidia jetzt diesselbe Qualität unter 4xAA Bieten Soll heist es noch lange nicht das ich es für GUT GESEHEN haben MUSS. *Kapisch ?

Und nur weil ich im Umkreis von 150 KM nur einen Kenne der sich eine GF5800 Ultra von seinen letzten Penny´s gekauft hatte konnte ich mich im allgemeinen davon überzeugen was Nivida zur Zeit erhältliches besitzt...

HOT
2004-05-11, 14:14:20
Original geschrieben von Piffan
Ich war der Ansicht, dass beim AF die Caches doch recht viele Speicherzugriffe auffangen. Wenn ich also von Bi- auf Tri schalte, sollte doch eigentlich nicht der Bandbreitenbedarf auch zunehmen.....oder was jetzt? :kratz:

Wenn ich den AF- level erhöhe, nimmt über die veränderten Mipmap natürlich der Bandbreitenbedarf zu. ABer warum sollte es beim Wechsel von Bi auf Tri sein.

Ich verlange ja auch nicht, dass es exakt gleich ist. Mir fehlt es nur am Glauben, dass die Optimierung sich so gering auswirken soll. Inzwischen hat Thilo es ja nachgeprüft, dass es so ist. Imho wider jeder Logik!

Zur Logik: Danke, für den Alltag reichts bei mir immer noch. Völlig senil bin ich noch nicht. :D

Wenn du jetzt einen Chip nimmst, der seine komplette Füllrate ausnutzen kann und ihm jetzt noch die Aufgabe gibst, noch mehr Füllrate zu verballern, dann sinkt die Performance um exakt den Teil.
Wenn du jetzt aber einen Chip nimmst, der seine Füllrate NICHT voll nutzen kann, weil er durch die Speicherbandbreite begrenzt wird, und nimmst ihm noch mehr Füllrate, dann ist es dem Chip herzlich egal, weil seine Ressourcen eh brachliegen.
Das Ganze stimmt jetzt nicht ganz, weil AF nicht nur Füllrate, sondern auch Bandbreite braucht. Aber eben emrh Füllrate als Bandbreite bei den neueren Teilen :) ;)

Sphinx
2004-05-11, 14:27:08
Original geschrieben von LovesuckZ
Nunja, sollte man dich wegen dieser Aussage auf die Ignoreliste setzen? Wahrscheinlich schon...

LoveSuckz : Dir steht es genau so wie mir die Ignore Funktion zu nutzen ist ein wirklich nettes Feature und sortiert die Weizen vom Streu - die die nur Provozieren wollen und damit das Gesamte Forum in ein NEIN DAS IST BESSER vs NEIN DAS IST NOCH BESSER verwandeln...


Hier nochmals für dich meine MEINUNG :

Und an alle kennt ihr einen der eine GF6800 bis hin zu einer ULTRA besitzt....

Ja ? ich kenn kein einzigen hier.. der die neuen GF6 Series besitzt.

Ich will hier keine GRUNDSATZ Diskussion anfangen aber anscheinend wollen viele es doch darauf anlegen - provozieren.

Ich Review nach meinem GESCHMACK und NACH meiner SUBJEKTIVEN Meinung. *geht es nicht in eure Köpfe oder wie. Nur weil in einem Review steht das Nvidia jetzt diesselbe Qualität unter 4xAA Bieten Soll heist es noch lange nicht das ich es für GUT GESEHEN haben MUSS. *Kapisch ?

Und nur weil ich im Umkreis von 150 KM nur einen Kenne der sich eine GF5800 Ultra von seinen letzten Penny´s gekauft hatte konnte ich mich im allgemeinen davon überzeugen was Nvidia zur Zeit erhältliches besitzt...
^^
Von Ati´s AA Qualität bin ich bereits überzeugt und erwarte keinen Seitenhieb von den neuen Modellen im Gegensatz das Temporal AA ist wie für mich geschaffen da die neuen Modelle Genug Rohpower unter TEMP.AA besitzen werden um über der 60 FPS Grenze zu spielen...

DrumDub
2004-05-11, 14:37:53
Original geschrieben von Sphinx
Und alle habt ihr einen der eine GF6800 bis hin zu einer ULTRA besitzt....

Ja ? ich kenn kein einzigen hier.. der die neuen GF6 Series besitzt.

Ich will hier keine GRUNDSATZ Diskussion anfangen aber anscheinend wollen viele es doch darauf anlegen - provozieren.


du hast aber einen sachlichen fehler gemacht, indem du vom 4xmsaa des nv3x auf das des nv40 geschlossen hast, da du ersteres schon gesehen hast. keiner hier wird abstreiten, dass das 4xmsaa des nv3x dem des r(v)3x0 oder r420 unterlegen ist.

beim nv40 kann man das so nicht mehr sagen, was auch alle screenshots zeigen, die sich mit dem vergleich beschäftigen. ja, es gibt minimale unterschiede, aber diese liegen im detail. ob einem das downsampling des nv40 oder des r(v)3x0 bzw. r420 besser gefällt, ist wohl eine rein subjektive sache.

Sphinx
2004-05-11, 14:42:46
Original geschrieben von DrumDub
du hast aber einen sachlichen fehler gemacht, indem du vom 4xmsaa des nv3x auf das des nv40 geschlossen hast

....ist wohl eine rein subjektive sache.

^^ Ich habe kein explizites AA angesprochen "grübelt nach" sondern nur vom allgemeinem. Die GF6 Series sind nichtmal im handel so das ich mich davon selbst nicht überzeugen kann und wohl auch nicht mehr in den Genuß kommen werde da mich der X800Pro voll und ganz zuspricht als dauerüberbrückung bis PCI-Express...

HOT
2004-05-11, 14:47:56
Original geschrieben von Sphinx
LoveSuckz : Dir steht es genau so wie mir die Ignore Funktion zu nutzen ist ein wirklich nettes Feature und sortiert die Weizen vom Streu - die die nur Provozieren wollen und damit das Gesamte Forum in ein NEIN DAS IST BESSER vs NEIN DAS IST NOCH BESSER verwandeln...


Hier nochmals für dich meine MEINUNG :

Und an alle kennt ihr einen der eine GF6800 bis hin zu einer ULTRA besitzt....

Ja ? ich kenn kein einzigen hier.. der die neuen GF6 Series besitzt.

Ich will hier keine GRUNDSATZ Diskussion anfangen aber anscheinend wollen viele es doch darauf anlegen - provozieren.

Ich Review nach meinem GESCHMACK und NACH meiner SUBJEKTIVEN Meinung. *geht es nicht in eure Köpfe oder wie. Nur weil in einem Review steht das Nvidia jetzt diesselbe Qualität unter 4xAA Bieten Soll heist es noch lange nicht das ich es für GUT GESEHEN haben MUSS. *Kapisch ?

Und nur weil ich im Umkreis von 150 KM nur einen Kenne der sich eine GF5800 Ultra von seinen letzten Penny´s gekauft hatte konnte ich mich im allgemeinen davon überzeugen was Nvidia zur Zeit erhältliches besitzt...
^^
Von Ati´s AA Qualität bin ich bereits überzeugt und erwarte keinen Seitenhieb von den neuen Modellen im Gegensatz das Temporal AA ist wie für mich geschaffen da die neuen Modelle Genug Rohpower unter TEMP.AA besitzen werden um über der 60 FPS Grenze zu spielen...

Das hat jetzt nichts damit zu tun, dass hier jeder ne Grundsatzdiskussion will. Es hat was damit zu tun, dass du dir hier ein Vorurteil bildest, das, so wie du es formulierst, auchnoch offensichtlich falsch ist.
Der G6 hat 4x RGMSAA, genau wie die Radeon Modelle. Da ist ATI kaum besser. Wenn du aber argumentierst, dass du gerne 6x AA haben möchtest und NV das nicht bietet, ist das vollkommen legitim. Die AA Qualität aber an einem Chip festzumachen, nur weil der Vorgänger schon so war ist Bildung von einem Vorurteil. Wie gesagt es kann sein, muss aber nicht. Und offensichtlich ist es nicht so.
Denk mal darüber nach, bevor du hier weiter rummaulst ;)

Piffan
2004-05-11, 14:51:23
Original geschrieben von HOT
Wenn du jetzt einen Chip nimmst, der seine komplette Füllrate ausnutzen kann und ihm jetzt noch die Aufgabe gibst, noch mehr Füllrate zu verballern, dann sinkt die Performance um exakt den Teil.
Wenn du jetzt aber einen Chip nimmst, der seine Füllrate NICHT voll nutzen kann, weil er durch die Speicherbandbreite begrenzt wird, und nimmst ihm noch mehr Füllrate, dann ist es dem Chip herzlich egal, weil seine Ressourcen eh brachliegen.
Das Ganze stimmt jetzt nicht ganz, weil AF nicht nur Füllrate, sondern auch Bandbreite braucht. Aber eben emrh Füllrate als Bandbreite bei den neueren Teilen :) ;)

Also wenn die Bandbreite die Füllrate beschneidet (brach liegen lässt wäre treffender), dann würde sich eine Optimierung recht stark auswirken, die eben unabhängig von der Bandbreite des Speichers ist. Und weil das Umschalten keine Auswirkung hat, könnte man dieses auch als Beleg für die Speicherabhängigkeit werten. Frage: Nimmt die Zahl der Speichergriffe zu, wenn ich von Bi auf Tri schalte?

Antwort: Bei echtem Tri ja, da ja zwei Mipmaps in den TMUs verwurstelt werden..... Beim Brilinearen Filter nicht ganz so stark, weil nicht bei allen Pixeln zwei Mipmaps verwurstet werden...

Ups, jetzt habe ich mir doch glatt die Antwort selbst geliefert. :kratz:

Also nach reichlicher Überlegung: Dass die Optimierung nicht so viel nützt, liegt an fehlender Bandbreite UND suboptimalem Controller.....

@ Thilo: Das hast Du natürlich alles schon vorher gewusst ;D

DrumDub
2004-05-11, 15:09:52
Original geschrieben von Sphinx
^^ Ich habe kein explizites AA angesprochen "grübelt nach" sondern nur vom allgemeinem.

hast du nicht direkt, das ist richtig. ;)
ich bezog mein posting auf diese antwort von dir:

Original geschrieben von Sphinx
Entschuldige ich habe im Bekanntenkreis das AA der GF_5800 Ultra gesehen und ich denke da besteht kein Unterschied zwischen der GF_6800
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1799478#post1799478

das ist einfach falsch, da eben sehr wohl ein unterschied besteht. nv3x: 4xogmsaa; nv40: 4xrgmsaa

einen 6xrgmsaa modus wie der r(v)3x0/r420 und einen gammawert von 2,2 beim downsampling bietet nv nicht mit dem nv40, wohingegen ati eben unter windows kein ssaa oder mixmodi bietet.
das 4xrgmsaa des r(v)3x0/r420 und des nv40 ist vom rg-samplemuster aber absolut gleichwertig.

Piffan
2004-05-11, 15:27:05
Original geschrieben von Piffan
Also wenn die Bandbreite die Füllrate beschneidet (brach liegen lässt wäre treffender), dann würde sich eine Optimierung recht stark auswirken, die eben unabhängig von der Bandbreite des Speichers ist. Und weil das Umschalten keine Auswirkung hat, könnte man dieses auch als Beleg für die Speicherabhängigkeit werten. Frage: Nimmt die Zahl der Speichergriffe zu, wenn ich von Bi auf Tri schalte?

Antwort: Bei echtem Tri ja, da ja zwei Mipmaps in den TMUs verwurstelt werden..... Beim Brilinearen Filter nicht ganz so stark, weil nicht bei allen Pixeln zwei Mipmaps verwurstet werden...

Ups, jetzt habe ich mir doch glatt die Antwort selbst geliefert. :kratz:

Also nach reichlicher Überlegung: Dass die Optimierung nicht so viel nützt, liegt an fehlender Bandbreite UND suboptimalem Controller.....




@ Thilo: Das hast Du natürlich alles schon vorher gewusst ;D


Auf dem Weg zur Arbeit ging mir das noch mal durch den Kopf :freak:

Ist doch alles Käse! Es KANN nicht an der Bandbreite liegen.

Also noch mal von Vorne: Der Chip schafft nur ne bestimmte Pixelzahl, egal ob die Limitierung bei den TMUs sitzt oder beim Speicher, es geht bis zu einer gewissen Kante.

Nun erhöhe ich die Anforderungen, indem ich von Bi auf Tri schalte, die Folge müsste ein Abfall der Performance sein. Egal wie man sich wendet und dreht: WEnn der Chip oder die Bandbreite voll ausgereizt ist, dann muss die Optimierung bezüglich der Stages durchschlagen.

Also das mit der Bandbreite bitte noch mal überlegen. Es hat definitiv andere Gründe.

Vielleicht ist der R420 so saustark, dass er einfach noch nicht am Limit läuft????

Oder Demirurgs Erklärung der Ineffiziens, die die Optimierung egalisiert, stimmt.

Oder viele Gründe summieren sich.......Wenn die Dinger bald allgemein zu haben sind, wird es sicher bald jemand rausbekommen. ;)

DrumDub
2004-05-11, 15:39:32
Original geschrieben von Piffan
Oder Demirurgs Erklärung der Ineffiziens, die die Optimierung egalisiert, stimmt.

Oder viele Gründe summieren sich.......Wenn die Dinger bald allgemein zu haben sind, wird es sicher bald jemand rausbekommen. ;)

ineffizienz, bitte. :kicher:

ansonsten kommt es mir so vor, dass demirugs erklärung bisher am stimmigsten ist: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1799520#post1799520

HOT
2004-05-11, 16:16:51
Original geschrieben von Piffan
Auf dem Weg zur Arbeit ging mir das noch mal durch den Kopf :freak:

Ist doch alles Käse! Es KANN nicht an der Bandbreite liegen.

Also noch mal von Vorne: Der Chip schafft nur ne bestimmte Pixelzahl, egal ob die Limitierung bei den TMUs sitzt oder beim Speicher, es geht bis zu einer gewissen Kante.

Nun erhöhe ich die Anforderungen, indem ich von Bi auf Tri schalte, die Folge müsste ein Abfall der Performance sein. Egal wie man sich wendet und dreht: WEnn der Chip oder die Bandbreite voll ausgereizt ist, dann muss die Optimierung bezüglich der Stages durchschlagen.

Also das mit der Bandbreite bitte noch mal überlegen. Es hat definitiv andere Gründe.

Vielleicht ist der R420 so saustark, dass er einfach noch nicht am Limit läuft????

Oder Demirurgs Erklärung der Ineffiziens, die die Optimierung egalisiert, stimmt.

Oder viele Gründe summieren sich.......Wenn die Dinger bald allgemein zu haben sind, wird es sicher bald jemand rausbekommen. ;)

Du hast es erfasst :D
Das AF kostet soviel wie immer, aber a.) ist der Chip von der Fillrate her weniger "anfällig" und b.) gibt es eben diese Beschränkung, dass der Chip seine Fillrate nur mit AF, und zwar vollem trilinearem 16x AF bei 1600, voll ausschöpfen kann.

MikBach
2004-05-11, 16:35:51
Original geschrieben von HOT
Du hast es erfasst :D
Das AF kostet soviel wie immer, aber a.) ist der Chip von der Fillrate her weniger "anfällig" und b.) gibt es eben diese Beschränkung, dass der Chip seine Fillrate nur mit AF, und zwar vollem trilinearem 16x AF bei 1600, voll ausschöpfen kann.

So sehe ich das atm auch(grobe Einschätzung).

Quasar
2004-05-11, 16:43:20
Das ist sicherlich eine der Möglichkeiten, ja.

MikBach
2004-05-11, 16:46:42
Original geschrieben von robbitop
Insofern finde ich einen 6800U EE (hier hat man einfach 12% mehr Füllrate als eine normale NV40 und soweit ich weiss war das ja NVs offizielle Antwort zur XT) mit 61.11 Test immer recht gut

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1799179#post1799179
:D

Demirug
2004-05-11, 17:19:08
Original geschrieben von Piffan
Auf dem Weg zur Arbeit ging mir das noch mal durch den Kopf :freak:

Ist doch alles Käse! Es KANN nicht an der Bandbreite liegen.

Also noch mal von Vorne: Der Chip schafft nur ne bestimmte Pixelzahl, egal ob die Limitierung bei den TMUs sitzt oder beim Speicher, es geht bis zu einer gewissen Kante.

Nun erhöhe ich die Anforderungen, indem ich von Bi auf Tri schalte, die Folge müsste ein Abfall der Performance sein. Egal wie man sich wendet und dreht: WEnn der Chip oder die Bandbreite voll ausgereizt ist, dann muss die Optimierung bezüglich der Stages durchschlagen.

Also das mit der Bandbreite bitte noch mal überlegen. Es hat definitiv andere Gründe.

Denkfehler.

Fillrate und Bandbreite sind zwei Resourcen die sich nicht linear verhalten.

Begründung:

Es gibt bei jedem Pixel einen festanteil der unabhängig vom Filter ist. Framebuffer schreiben, Z lesen und schreiben. Dazu kommt dann noch der Bandbreitenbedarf für die Samples. Je mehr Samples auf einen Pixel kommen desto weniger der Bandbreite muss für den Festanteil aufgewannt werden.

Gehen wir einfach mal davon aus das wir pro Pixel 6 Byte und pro Sample 4 Byte Bandbreite brauchen. Fillrate ist unendlich die Bandbreite sei 10.000 Byte (Is wenig aber reicht zum verdeutlichen) Mit einem Sample pro Pixel kommen wir damit auf 1000 Pixel. Bei zwei Samples sind es 714. Bei 3 kommen wir auf 555 usw.

Der zweite Punkt ist jetzt noch das bei trilinear in der Regel die Hitrate des Caches steigt und weniger geladen werden muss.

Ergo kann es bei einem Bandbreitenproblem wirklich dazu kommen das man tri fast umsonst bekommt. Bandbreiten problem muss hier nicht unbedingt den Mangel davon bedeuten sondern kann eben auch sein das der Speicherkontroller die vorhanden Bandbreite warum auch immer nicht richtig nutzen kann.

Gas3t
2004-05-11, 17:35:15
Mal was zur Abwechslung:

http://www.microsoft.com/xna/

Sieht m.E. besser als die erste Carcrash-Demo aus.

fizzo
2004-05-11, 18:09:21
Radeon X800 Pro im Handel

ATIs erste neue High-End Grafikkarte schon in Japan zu kaufen

Bei der Vorstellung von Radeon X800 Pro und Radeon X800 XT Platinum Edition (PE) hatte ATI Technologies versprochen, die ersten Grafikkarten schon wenige Tage später auszuliefern. Die Radeon X800 Pro mit 12 Pipelines, Taktraten von 475/450 MHz, 256bit Speicherschnittstelle und 256MB GDDR3 SDRAM sollte schon rund 14 Tage später in den Handel kommen. Das würde auf nächste Woche hinauslaufen. Tatsächlich haben auch schon einige Händler die Radeon X800 Pro zu Preisen ab 380 Euro im Angebot. Mit konkreten Lieferterminen halten sich die meisten Shops aber noch zurück.
Nicht mehr warten müssen dagegen die japanischen Käufer. In einigen Computerläden in Tokio ist die Sapphire Radeon X800 Pro bereits erhältlich. Die Preise liegen dort umgerechnet zwischen 400 und 450 Euro

www.hartware.de

Piffan
2004-05-11, 18:38:05
Original geschrieben von Demirug
Denkfehler.

Fillrate und Bandbreite sind zwei Resourcen die sich nicht linear verhalten.

Begründung:

Es gibt bei jedem Pixel einen festanteil der unabhängig vom Filter ist. Framebuffer schreiben, Z lesen und schreiben. Dazu kommt dann noch der Bandbreitenbedarf für die Samples. Je mehr Samples auf einen Pixel kommen desto weniger der Bandbreite muss für den Festanteil aufgewannt werden.

Gehen wir einfach mal davon aus das wir pro Pixel 6 Byte und pro Sample 4 Byte Bandbreite brauchen. Fillrate ist unendlich die Bandbreite sei 10.000 Byte (Is wenig aber reicht zum verdeutlichen) Mit einem Sample pro Pixel kommen wir damit auf 1000 Pixel. Bei zwei Samples sind es 714. Bei 3 kommen wir auf 555 usw.

Der zweite Punkt ist jetzt noch das bei trilinear in der Regel die Hitrate des Caches steigt und weniger geladen werden muss.

Ergo kann es bei einem Bandbreitenproblem wirklich dazu kommen das man tri fast umsonst bekommt. Bandbreiten problem muss hier nicht unbedingt den Mangel davon bedeuten sondern kann eben auch sein das der Speicherkontroller die vorhanden Bandbreite warum auch immer nicht richtig nutzen kann.

Du hast die Fillrate jetzt der Einfachheit halber auf unendlich gesetzt.....ist denn beim R420 das Missverhältnis von Fillrate und Bandbreite wirklich soooo schlecht? Das erinnert ja fast an die Zeiten der Geforce 1 und 2, halt auf einem weit höheren Niveau.....Naja, immerhin verstehe ich nun ein bisschen mehr. Glaube ich :D

Andererseits könnte man ja hoffen, dass der Speichercontroller vielleicht doch treiberseitig saniert werden kann.....

edit: @demirurg: Du bist ein echt feiner Kerl, dass du dich mit unwissendem Gewürm abplagst und Dir Mühe gibts, DAUsichere Erläuterungen zu geben. Findet man nicht oft! :)

Gast2k4
2004-05-11, 18:45:48
Oha! Die X800 Pro gibt es schon jetzt für 370 € zu kaufen!!! Hammer mäßig, wurde denk ich mal aber schon genannt, trotzdem so "billig" hätte ich nicht gerechnet!

Piffan
2004-05-11, 18:53:17
Original geschrieben von Gast2k4
Oha! Die X800 Pro gibt es schon jetzt für 370 € zu kaufen!!! Hammer mäßig, wurde denk ich mal aber schon genannt, trotzdem so "billig" hätte ich nicht gerechnet!

Wo gibts die jetzt schon?

robbitop
2004-05-11, 18:57:54
schau mal bei geizhals
für 380 ist sie sogar auf Lager.
Nur die XT halt noch nicht.
btw: die X800SE soll sogar 256bit DDR bekommen. Damit wird die Karte für Mods echt interessant

hm entweder die oder ich hol mir die 6800GT im Sommer.

cvbcvb
2004-05-11, 19:04:50
Na du willst doch sicher mit AA/AF spielen oder,dann ist die ATI die erste Wahl

robbitop
2004-05-11, 19:10:11
die 6800GT sollte schnell genug sein, besonders mit Wasserkühlung und evl VMOD.

Ich will vA die neue Tech haben und den Videoprozessor zum DVD encoden. Nur zocken reicht mir nicht.

reunion
2004-05-11, 19:12:37
Original geschrieben von robbitop
schau mal bei geizhals
für 380 ist sie sogar auf Lager.


Stimmt ja wirklich, hätte ich nicht gedacht:
Sapphire Radeon X800 Pro, 256MB GDDR3, DVI, TV-out, AGP ab 380€ ab Lager lieferbar http://www.geizhals.at/eu/a98884.html

Hm, eigendlich wollte ich mir ja diesemal eine NV-Karte gönnen, aber der günstige preis sowie die ungewisse verfügbarkeit der 6800er machen mich schön lagsam nervös :D

Tesseract
2004-05-11, 19:14:43
Original geschrieben von Piffan
Das erinnert ja fast an die Zeiten der Geforce 1 und 2, halt auf einem weit höheren Niveau.....

und was sagt uns das?

genau, QDR muss her :D

LovesuckZ
2004-05-11, 19:18:37
Ihr solltet auch mal auf die Läden klicken.
Nunja, meine versandbestaetigung von KM kam noch nicht, trotz die Karte heute spätesten bei den sein sollte...
Ich denke mal, der X800 pro wird nicht früher kommen als 6800/U

robbitop
2004-05-11, 19:20:36
ob die nun heut oder nächsten Monat da ist, ist mir persönlich egal. Ich will sehen wie die GT performed.

dildo4u
2004-05-11, 19:22:18
Original geschrieben von robbitop
ob die nun heut oder nächsten Monat da ist, ist mir persönlich egal. Ich will sehen wie die GT performed. http://www.anandtech.com/video/showdoc.html?i=2044&p=15 is aber OT da das hier der R420 thread ist und es auch genug leute interessiert wann diese erscheint

robbitop
2004-05-11, 19:29:34
performed doch ganz gut, dafür dass sie nur 350 MHz Chiptakt hat und 2.0ns GDDR3. Und übertakten is auch immer drin.

HOT
2004-05-11, 19:56:59
Original geschrieben von LovesuckZ
Ihr solltet auch mal auf die Läden klicken.
Nunja, meine versandbestaetigung von KM kam noch nicht, trotz die Karte heute spätesten bei den sein sollte...
Ich denke mal, der X800 pro wird nicht früher kommen als 6800/U

KM hat sie im Zentrallager.
Die sind diesmal wirklich fix am Werke bei ATI.
Dann kann der offizielle Cata 4.5 auch nicht lange auf sich warten lassen.
Sei froh, wenn NV überhaupt noch diesen Monat liefert, das kann nämlich sein, dass sie noch einege Problemchen mit der Ausbeute bekommen könnten. Na ja, wir werden sehen und hoffen will ichs auch net.

LovesuckZ
2004-05-11, 20:01:31
Original geschrieben von HOT
KM hat sie im Zentrallager.

Nein, haben sie nicht. Da steht nur, dass heute oder morgen welche reinkommen, seit gestern...

Sei froh, wenn NV überhaupt noch diesen Monat liefert, das kann nämlich sein, dass sie noch einege Problemchen mit der Ausbeute bekommen könnten. Na ja, wir werden sehen und hoffen will ichs auch net.

Ich gehe davon aus, dass wir am Ende des Monats die normale und Ultravariante sehen werden. Im gegensatz werden wir aus ATi Sicht nut die Pro bekommen, denn sie haben bei der XT selbst Probleme mit der Ausbeute.

robbitop
2004-05-11, 20:04:27
welche Karte holst du dir LS?

Gast
2004-05-11, 20:05:38
Original geschrieben von LovesuckZ
Ich gehe davon aus, dass wir am Ende des Monats die normale und Ultravariante sehen werden. Im gegensatz werden wir aus ATi Sicht nut die Pro bekommen, denn sie haben bei der XT selbst Probleme mit der Ausbeute.

Zu tief in die Glaskugel gayschaut oder möchtest du mit uns ein paar Spekulatius essen?

Gast
2004-05-11, 20:07:08
Original geschrieben von LovesuckZ
Ich gehe davon aus, dass wir am Ende des Monats die normale und Ultravariante sehen werden.

ich kann mir nicht vorstellen, dass die 6800NU binnen der naechsten beiden wochen lieferbar ist. bis dato habe ich noch keinen test geschweige den eine herstellerinformation gesehen...

Jenaq
2004-05-11, 20:07:22
Sehe ich genauso, mitte Juni kann man vieleicht mit ner guten Verfügbarkeit der Karten rechnen. Alles was bis dahin bei den Shops genannt wird, is reines geHype um ein paar extra € mit Vorbestellungen und "Raritäten"-Status zu erzielen. Viele überdrehn sich da auch mit ihren Erwartungen...

ironMonkey
2004-05-11, 20:17:55
Original geschrieben von LovesuckZ
Ich gehe davon aus, dass wir am Ende des Monats die normale und Ultravariante sehen werden. Im gegensatz werden wir aus ATi Sicht nut die Pro bekommen, denn sie haben bei der XT selbst Probleme mit der Ausbeute.

Das Problem ist das DU davon ausgehst das es die NV Karten zu kaufen gibt, jetzt stellt sich nur noch die Frage wie NV und die Hersteller der Karten das sehen.........

Das die X800XT spät kommt ist klar, aber immherin liefern sie mit der X800Pro wenigstens eine neue Karte in den nächsten Tagen und da werden sicher einige zuschlagen.


Gruß

fizzo
2004-05-11, 20:19:24
http://gfx.turtled.com/n/36000/36377_1b.jpg

japan (http://www.hartware.de/news_36377.html) ist uns nicht nur ein paar stunden voraus;)

edit: link eingefuegt!

Gas9t
2004-05-11, 20:21:52
Original geschrieben von LovesuckZ
Nein, haben sie nicht. Da steht nur, dass heute oder morgen welche reinkommen, seit gestern...



Ich gehe davon aus, dass wir am Ende des Monats die normale und Ultravariante sehen werden. Im gegensatz werden wir aus ATi Sicht nut die Pro bekommen, denn sie haben bei der XT selbst Probleme mit der Ausbeute.

Du träumst auch von kleinen grünen Männchen in deiner nvidia-Bettwäsche!!!! *g* Speku!!!

Aber mal EHRLICH! Das kannste vergessen das nv bis Juni irgendwas an die Bardpartner liefert!

Hellfire-Torrod
2004-05-11, 20:25:32
Original geschrieben von fizzo
http://gfx.turtled.com/n/36000/36377_1b.jpg

japan (http://www.hartware.de/news_36377.html) ist uns nicht nur ein paar stunden voraus;)

edit: link eingefuegt!

Hm, Sehr sehr nett

Sehe ich da Etwa einen Half Life 2 Gutschein-aufdruck auf der Verpackung??:|

Naja, bis auf den Lila stromstecker ein traum der hoffendlich bald mein ein wird ;)

sgdfg
2004-05-11, 20:25:44
Original geschrieben von robbitop
die 6800GT sollte schnell genug sein, besonders mit Wasserkühlung und evl VMOD.

Ich will vA die neue Tech haben und den Videoprozessor zum DVD encoden. Nur zocken reicht mir nicht.

Hat doch die ATI auch, den Videoprozessor!
Und PS 3.0 ist wirklcih mehr als Schnee von 2005/2006, bis dahin hast schon 2*mal ne neue Karte gekauft*

robbitop
2004-05-11, 20:29:06
hat ATi nicht

woher hast du denn den Unsinn?

LovesuckZ
2004-05-11, 20:31:29
Original geschrieben von ironMonkey
Das Problem ist das DU davon ausgehst das es die NV Karten zu kaufen gibt, jetzt stellt sich nur noch die Frage wie NV und die Hersteller der Karten das sehen.........

Ich denke Nvidia sieht es aehnlich, sonst würden sie nicht sagen, dass die Karten innerhalb von 45 Tagen zu kaufen seien...

Das die X800XT spät kommt ist klar, aber immherin liefern sie mit der X800Pro wenigstens eine neue Karte in den nächsten Tagen und da werden sicher einige zuschlagen.


Was ist daran klar, dass die X800XT spaeter komme? Für mich ist diese Karte, wie die 6800GT und UE, eine Panikreaktion auf den Konkurenten. Ich glaube Tridam oder Ante P im beyond3d.com Forum sagte, dass die Entscheidung für die UE so schnell gefallen sei, dass die Partner darauf nicht reagieren, ergo keine Produktankündigung machen konnten.

@robbitop
Zur zeit ist die X800pro bei KM vorbestellt. Ich hoffe die schaffen es bis zum Wochenende.

reunion
2004-05-11, 20:35:31
Original geschrieben von LovesuckZ
Zur zeit ist die X800pro bei KM vorbestellt. Ich hoffe die scaffen es bis zum Wochenende.

:O DU hast dir eine ATI-Karte bestellt, hätte ich nicht von dir gedacht ;)
:bier:

robbitop
2004-05-11, 20:36:40
huiuiui da hat sich aber jmd um 180° gedreht ;)

bringst dann ein klein Erfahrungsbericht?

LovesuckZ
2004-05-11, 20:38:31
OT:

Original geschrieben von robbitop
huiuiui da hat sich aber jmd um 180° gedreht ;)

Ich gehe zur Zeit davon aus, dass die X800pro früher kaufbar ist. Imo lockt meine Freizeit mich mal Farcry zu spielen, leider startet das Spiel nicht mit einer TNT Karte...
Später gehts dann aber doch auf den NV40, kann doch einige nicht enttaeuschen :D

bringst dann ein klein Erfahrungsbericht?

Wahrscheinlich :)

Nun aber zurueck zum Thema.

tRpii
2004-05-11, 20:40:15
Original geschrieben von LovesuckZ Was ist daran klar, dass die X800XT spaeter komme? Für mich ist diese Karte, wie die 6800GT und UE, eine Panikreaktion auf den Konkurenten. Ich glaube Tridam oder Ante P im beyond3d.com Forum sagte, dass die Entscheidung für die UE so schnell gefallen sei, dass die Partner darauf nicht reagieren, ergo keine Produktankündigung machen konnten.

Das eine XT kommt war schon seit langem klar, nur hat niemand damit gerechnet dass gleich 2 karten getestet werden sondern erstmal die Pro und später die XT.

Nvidia hat panik bekommen und hat ne UE noch schnell zu Reviewern geschickt aber erst nachdem "bekannt" war dass ATi zusätzlich zur Pro noch ne XT (Paperlaunch) mit ins rennen schickt.

deekey777
2004-05-11, 20:40:42
@LS:
Ach Mist, ich wollte gerade etwas posten, was du im ATi-Bereich (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1798245#post1798245) geschrieben hast.:D

Dennoch:

Original geschrieben von LovesuckZ
Da Nvidia solange braucht und mein ABi zu 80% in der Tasche ist, habe ich zuviel Freizeit. Dazu kommt noch, dass Farcry mit einer TNT karte nicht startet, brauche ich eine neue.
Und dann kann gleich mal Ruby in prächtigem Speed beobachten :D

Edit:

Sapphire scheint bei der X800Pro auf die internen Videoanschlüsse verzichtet zu haben.

WEGA
2004-05-11, 20:45:17
Original geschrieben von Hellfire-Torrod
Hm, Sehr sehr nett

Sehe ich da Etwa einen Half Life 2 Gutschein-aufdruck auf der Verpackung??:|

Naja, bis auf den Lila stromstecker ein traum der hoffendlich bald mein ein wird ;)

asus hat auch so nen hässlichen stecker

reunion
2004-05-11, 20:47:35
Original geschrieben von WEGA
asus hat auch so nen hässlichen stecker

Hat den das Referenzdesign nicht auch?

ironMonkey
2004-05-11, 20:47:47
Original geschrieben von LovesuckZ
Ich denke Nvidia sieht es aehnlich, sonst würden sie nicht sagen, dass die Karten innerhalb von 45 Tagen zu kaufen seien...



Was ist daran klar, dass die X800XT spaeter komme? Für mich ist diese Karte, wie die 6800GT und UE, eine Panikreaktion auf den Konkurenten. Ich glaube Tridam oder Ante P im beyond3d.com Forum sagte, dass die Entscheidung für die UE so schnell gefallen sei, dass die Partner darauf nicht reagieren, ergo keine Produktankündigung machen konnten.



Wenn die ersten NV Karten bei uns erhältlich sind, dann sieht man wie lange es gedauert hat.

Warum es Klar ist das die X800XT Später kommt liegt an 520MHz Core Takt und 16 Pipes, die Pro dagegen hat ja weniger Takt und weniger Pipes und ich bin mir sicher das die derzeit 10x soviel Pro's haben/herstellen wie XT Karten und bei NV sieht es sicher nicht anderst aus und deshalb wird es auch bei denen noch dauern.


Gruß

reunion
2004-05-11, 20:50:56
Original geschrieben von LovesuckZ
Was ist daran klar, dass die X800XT spaeter komme? Für mich ist diese Karte, wie die 6800GT und UE, eine Panikreaktion auf den Konkurenten.

Naja, eine Panikreaktion ist veilleicht etwas übertrieben, man kann schließlich nicht einfach nochmal schnell 4pipes draufpaken, das die XT-Version mit 16pipes später kommt ist allerdings wirklich seltsam, und deutet auf eine schlechte Ausbeute hin, sonst würde man wohl nicht vorher die "kaputte" Chips verkaufen und erst später die voll funktionsfähigen...

Hellfire-Torrod
2004-05-11, 20:51:32
Original geschrieben von reunion
Hat den das Referenzdesign nicht auch?

Nee, da waren die meisten Weiß. Nur die Asus hatte immer schon Lila, aber jetzt wohl auch Sapphire. Na Hoffendlich wird das nich Mode .....

MikBach
2004-05-11, 20:55:49
Original geschrieben von LovesuckZ
Was ist daran klar, dass die X800XT spaeter komme? Für mich ist diese Karte, wie die 6800GT und UE, eine Panikreaktion auf den Konkurenten.

Wie bitte?
Die XT soll eine Panikreaktion sein? ?(
Der R420 ist als ein 16PiplineChip designed worden!!!
Die GT kann auch keine Panikreaktion sein. Worauf denn?
Nvidia will hier einfach die Ausbeute steigern.
Den EE würde ich als Panikreaktion einstufen, da noch nicht mal offiziell.

Sphinx
2004-05-11, 21:25:18
@ Reunion : Die GF_6800 GT scheint echt ein schnäppchen zu sein - verglichen zur X800Pro .(

http://www8.alternate.de/html/nodes_info/jagw35.html

Hellfire-Torrod
2004-05-11, 21:27:33
Original geschrieben von Sphinx
@ Reunion : Die GF_6800 GT scheint echt ein schnäppchen zu sein - verglichen zur X800Pro .(

http://www8.alternate.de/html/nodes_info/jagw35.html

Alternate hat sowieso Kopfschmerzen. X800pro (http://www2.alternate.de/html/nodes_info/jags21.html)

reunion
2004-05-11, 21:29:13
Original geschrieben von Sphinx
@ Reunion : Die GF_6800 GT scheint echt ein schnäppchen zu sein - verglichen zur X800Pro .(

http://www8.alternate.de/html/nodes_info/jagw35.html

Solange die Karte noch nicht verfügbar ist sind die Preise sowieso nicht aussagekräftig, außerdem liegt die 6800GT dank 16pipes leistungsmäßig über der X800pro.

//Edit: Gerade bestellt X-D

Sphinx
2004-05-11, 21:30:07
Original geschrieben von Hellfire-Torrod
Alternate hat sowieso Kopfschmerzen. X800pro (http://www2.alternate.de/html/nodes_info/jags21.html)

LoL Die Karte war heute morgen noch nicht drinne ,)

stimmt - 499 Euro * OUCH * Alternate...

MikBach
2004-05-11, 21:31:13
Original geschrieben von Sphinx
@ Reunion : Die GF_6800 GT scheint echt ein schnäppchen zu sein - verglichen zur X800Pro .(

http://www8.alternate.de/html/nodes_info/jagw35.html
:|
Hast du heute schon mal gepostet. :|

Hellfire-Torrod
2004-05-11, 21:31:29
Immerhin 6(!)€ billiger als Vorgestern!

edit : bei alternate hat die x800pro vorgestern noch 505.99 gekostet.

Sphinx
2004-05-11, 21:31:58
Original geschrieben von MikBach
:|
Hast du heute schon mal gepostet. :|

Jo aber in´nem andrem Thread.

robbitop
2004-05-11, 21:33:55
laut NV kostet die GT 399EUR.
Solang die nicht breit verfügbar ist, ist der Preis nicht repräsentativ.

MikBach
2004-05-11, 21:41:35
Original geschrieben von Sphinx
Jo aber in´nem andrem Thread.

Dann Sorry, es ist schwer ein Überblick bei diesen Riesenthreads zu behalten. :)

KampfHamsta
2004-05-11, 21:51:27
Hi leutzZz!

Wird die X800 Pro eigentlich in ausreichender Stückzahl (damit "alle davon was abkriegen") ausgeliefert oder ist die Karte auf eine bestimmte Stückzahl limitiert?

(sry wenn die frage schon mal gepostet wurde, habe nicht den ganzen Thread durchgelesen)

MfG

MasterA

Demirug
2004-05-11, 22:03:19
So ich habe jetzt mal noch ein wenig rumgerechnet.

Meine aktuelle These die sich daraus ergeben hat ist folgenden.

Der Speichercontroller ist weitgehend OK. Der des NV40 ist zwar minimal besser bei der Umsetzung von Brutto in Netto Bandbreite aber das ist hier nicht so wesentlich weil die XT das durch den etwas schnelleren Speicher scheinbar ausgleichen kann.

Das Problem liegt IMHO an einem Synergie Effekt der durch den Texturcache, dem Rasterisiere und der Art wie die Pixelprozessoren Texturbefehle verarbeiten.

Ohne jetzt ins Detail zu gehen (das würde nur wieder einer meiner langweiligen schwer verständlichen Artikel) führt dieser Effekt dazu das der Cachemanger gezwungen wird Texturdaten die später noch gebraucht werden rauszuwerfen weil zu diesem Zeitpunkt andere Daten benötigt werden. Dadurch muss unglücklicherweise jede Cacheline mehrfach geladen werden. Dies wirkt sich dann sehr negative auf das Bytes pro Textursample Verhältniss aus was wiederum dazu führt des unverhältnissmässig viel Bandbreite benötigt wird.

Da nVidia im Bereich des Pixelprozessors sowie dem Rasterisiere anders als ATI arbeitet erreicht man dort eine höhere Hitrate auf den Cache und muss seltener die gleiche Cacheline mehrfach laden. Dadurch ist das Byte pro Sample verhältniss besser und erlaubt es mit der verfügbaren Bandbreite das Fillrate limit zu erreichen.

Die Verwendung von AF sowie des trilinearen Filters sollte nun aufgrund meiner These die Hitrate auf den Cache beim R420 wesentlich erhöhren. Zudem steht durch die Benutzung von komplexeren Filtern ja relative gesehen mehr Bandbreite pro Sample zur verfügung da diese nicht durch die Pixeloperationen verbraucht wird.

Steel
2004-05-11, 22:05:52
Original geschrieben von LovesuckZ
Ich gehe zur Zeit davon aus, dass die X800pro früher kaufbar ist. Imo lockt meine Freizeit mich mal Farcry zu spielen, leider startet das Spiel nicht mit einer TNT Karte...
Du machst ein Upgrade von TNT auf X800pro?
Hab ich das richtig verstanden????

Piffan
2004-05-11, 22:08:43
Dann wäre es richtig, wenn Ati die Optimierungen bei dem R420 per default deaktiviert, weil sie ja nicht wirklich was nützen würden.....

Erinnert mich ein wenig an den GF4, der profitiert vom BiAF auch nicht so sehr im Vergleich zum Tri- AF.......

robbitop
2004-05-11, 22:16:44
@Demi
"Dadurch ist das Byte pro Sample verhältniss besser und erlaubt es mit der verfügbaren Bandbreite das Fillrate limit zu erreichen."
hieß es nicht offiziell von NV, dass man mit der verfügbaren Bandbreite ~12,xx TMUs im Mittel versorgen kann?

Achja weisst du schon warum die R420er so verdammt schnell in Far Cry sind im Gegensatz zum NV40?
Macht das nur der 30% höhere Chiptakt?

Demirug
2004-05-11, 22:32:56
Original geschrieben von robbitop
@Demi
"Dadurch ist das Byte pro Sample verhältniss besser und erlaubt es mit der verfügbaren Bandbreite das Fillrate limit zu erreichen."
hieß es nicht offiziell von NV, dass man mit der verfügbaren Bandbreite ~12,xx TMUs im Mittel versorgen kann?

Das bezog sich auf BI-Singletexture. Da reicht die Bandbreite natürlich nicht. Aber ab zwei texturen ist man schon dran.

Beim R420 schafft man das aber in diesem Test bei 4 Texturen immer noch nicht. Das wollte ich damit sagen. Aber selbst bei Singletextur gibt es schon Unterschiede zwischen NV40 und R420.

Der NV40 kommt mit 6,62 Byte pro Pixel aus. Der R420 braucht 8,12. Brutto natürlich und inklusive der Bandbreite die benötigt wird um das ganze dann auch anzuzeigen.

Achja weisst du schon warum die R420er so verdammt schnell in Far Cry sind im Gegensatz zum NV40?
Macht das nur der 30% höhere Chiptakt?

Zum Teil ja aber nVidia spricht auch noch von einer Reihe Treiberproblemen. Gerade in Verbindung mit dem AA.

AlfredENeumann
2004-05-11, 22:39:00
Original geschrieben von ironMonkey
Das Problem ist das DU davon ausgehst das es die NV Karten zu kaufen gibt, jetzt stellt sich nur noch die Frage wie NV und die Hersteller der Karten das sehen.........

Das die X800XT spät kommt ist klar, aber immherin liefern sie mit der X800Pro wenigstens eine neue Karte in den nächsten Tagen und da werden sicher einige zuschlagen.


Gruß


Eben. Bei Actebis und Ingram waren heute noch keine 6800er gelistet, Die X800PRo derweil seit Tagen schon.

Sphinx
2004-05-11, 22:47:06
Original geschrieben von MikBach
Dann Sorry, es ist schwer ein Überblick bei diesen Riesenthreads zu behalten. :)

Stimmt...

Jedoch wußt ich bis vorhin nicht das die X800Pro´s auch bei Alternate für 499 Euro´s gelistet war ,) das ist ja mehr als Wucher + ~130 Euro mehr als woanders...

dfgdfg
2004-05-11, 22:50:17
Original geschrieben von Sphinx
Stimmt...

Jedoch wußt ich bis vorhin nicht das die X800Pro´s auch bei Alternate für 499 Euro´s gelistet war ,) das ist ja mehr als Wucher + ~130 Euro mehr als woanders...

Die X800 Pro gibts für 370 Euro !

Sphinx
2004-05-11, 22:53:08
Original geschrieben von dfgdfg
Die X800 Pro gibts für 370 Euro !


Weiß ich doch ,) bzw. mein ist schon unterwegs...

robbitop
2004-05-11, 22:56:49
ist schon etwas bzgl der Modbarkeit von X800 Karten bekannt?
Im Prinzip würde vieleicht ja wieder ein Treiberhack genügen...ja ich weiss, dass ich ungeduldig bin ;D

DrumDub
2004-05-11, 23:23:44
Original geschrieben von robbitop
hat ATi nicht

woher hast du denn den Unsinn?

also was sehr ähnliches haben die x800er schon:

# Seamless integration of pixel shaders with video in real time
# FULLSTREAM™ video de-blocking technology for Real, DivX, and WMV9 formats
# VIDEOSOAP™ noise removal filtering for captured video
# MPEG1/2/4 decode and encode acceleration

* DXVA Support
* Hardware Motion Compensation, iDCT, DCT and color space conversion

# All-format DTV/HDTV decoding
# YPrPb component output for direct drive of HDTV displays
# Adaptive Per-Pixel De-Interlacing and Frame Rate Conversion (temporal filtering)
http://www.ati.com/products/radeonx800/specs.html

zumindest beim decoding steht die x800 noch besser da: http://www.xbitlabs.com/articles/video/display/r420_10.html

iNsi
2004-05-11, 23:28:05
Original geschrieben von Hellfire-Torrod
Hm, Sehr sehr nett

Sehe ich da Etwa einen Half Life 2 Gutschein-aufdruck auf der Verpackung??:|

Naja, bis auf den Lila stromstecker ein traum der hoffendlich bald mein ein wird ;)

HL2 bei sapphire auch in europa?? weiss da jemand was dazu ? wie siehts eigentlich aus mit HIS und den anderen Herstellern aus? was bundeln die so an games, weil HL2 wär schon ein Anreiz :)

Sphinx
2004-05-11, 23:28:30
Original geschrieben von DrumDub
also was sehr ähnliches haben die x800er schon:


http://www.ati.com/products/radeonx800/specs.html

zumindest beim decoding steht die x800 noch besser da: http://www.xbitlabs.com/articles/video/display/r420_10.html

Liegt daran das Nvidias Treiber Buggy sind *Daumenrunter*

MarcWessels
2004-05-12, 02:08:31
Weiß wer, ob auf den X800-Karten derselbe Spannungschip wie auf den 9700-9800ern verwendet wird?

Gas9t
2004-05-12, 08:12:51
Original geschrieben von Sphinx
Stimmt...

Jedoch wußt ich bis vorhin nicht das die X800Pro´s auch bei Alternate für 499 Euro´s gelistet war ,) das ist ja mehr als Wucher + ~130 Euro mehr als woanders...

Glaubst du daran das die ersten Preise von irgendwelchen Webseiten gestimmt haben????

Wohl kaum, die üblichen Pappnasen!!!!

Schau mal auf www.hartware.de, dort ist ein BEricht über den Verkaufsstart in ASIA, 449€ umgerechnet war der Laden-Verkaufspreis.

LovesuckZ
2004-05-12, 08:16:44
"MPEG1/2/4 encode acceleration", hat meine TNT auch. Nennt sich bei mir CPU...

Gas9t
2004-05-12, 08:25:43
Original geschrieben von DrumDub
also was sehr ähnliches haben die x800er schon:


http://www.ati.com/products/radeonx800/specs.html

zumindest beim decoding steht die x800 noch besser da: http://www.xbitlabs.com/articles/video/display/r420_10.html

100% & und 100 Points !

Einige nv-Fanboys behaupten hier Sachen die schon echt dreist sind.

Der R420 ist in keinem Feature ausser PS.3.0 dem NV40 unterlegen, anstelle von PS.30 hat der R420 3DC welches ein mächtigeres Feature ist als PS.30 weil mann nicht abhängig von MS ist.

3DC kann sofort in Games ohne grossen Aufwand implementiert werden, wobei die Herren "Schlaumeiner" hier immer noch behaupten dem wäre nicht so und PS.3.0 wäre der Hit in Dosen.

Aber was sage ich da schon, Demirug beweist ja gerade mit seiner Naivität hinsichtlich Chipdesign das mann viel erzählen kann und trotzdem nichts 100% wissen kann.

ODer möchte hier jemand behaupten das ein Chip nur aus Transis und co. besteht und das mann darauf basierend Aussagen zum Speed treffen kann???

Falsch meine Herren "Schlaumeier", der Treiber und andere Secret-Funktionen die im Chip sind, sind das Herzstück und da liegt die R420 weit vorne, weiterhin hat es einen bestimmten Grund warum ATI anders rechnet:

Zitat: Demi
Da nVidia im Bereich des Pixelprozessors sowie dem Rasterisiere anders als ATI arbeitet erreicht man dort eine höhere Hitrate auf den Cache und muss seltener die gleiche Cacheline mehrfach laden. Dadurch ist das Byte pro Sample verhältniss besser und erlaubt es mit der verfügbaren Bandbreite das Fillrate limit zu erreichen.

Zitat Ende:

Aha*g* warum können sie dann kein ANSTÄNDIGES AA und AF ????

Der NV40 ist immer noch im Kern ein NV38 und daran wird auch Demi nichts ändern! Fakt, der NV40 kann nicht in hohen Qualitätsstufen schnell RECHNEN, das beweisen zig Benchsmarks im WWW!

LovesuckZ
2004-05-12, 08:28:55
Ich bin für die Wiedereinführung von längeren Signaturen!

Gast
2004-05-12, 08:56:20
Ist es nicht n bissl früh fürs Trollen ^^

seahawk
2004-05-12, 08:59:15
Original geschrieben von LovesuckZ
Ich bin für die Wiedereinführung von längeren Signaturen!

Seh doch ein, dass ATI die überlegene Karte gebuat hat. Dann brauchen wir diese ganze Diskussion nicht mehr. :D

ShadowXX
2004-05-12, 09:03:46
Original geschrieben von LovesuckZ
Ich bin für die Wiedereinführung von längeren Signaturen!

Ja....von seeeeehr langen Signaturen...

@Demi:
Danke für deine Mühe....das bringt zumindest etwas Licht ins mögliche Dunkel.

Dann wissen wir ja auch schon was ATI im Refresh ändern wird;D

Demirug
2004-05-12, 09:14:23
Original geschrieben von Gas9t
Der R420 ist in keinem Feature ausser PS.3.0 dem NV40 unterlegen, anstelle von PS.30 hat der R420 3DC welches ein mächtigeres Feature ist als PS.30 weil mann nicht abhängig von MS ist.

Ansichtssache.

Aus Entwicklersicht ist es nun mal der sicherer Weg auf SM3 zu setzten. Gerade weil es in der der MS-Spec steht müssen es alle IHVs früher oder später in den Chips implementieren. Ob man 3dc jemals bei einem anderen IHVs als ATI sehen wird ist dagegen ungewiss.

Es gibt im NV40 übriegens noch andere Sache ausser SM3 welche der R420 nicht unterstützt.

3DC kann sofort in Games ohne grossen Aufwand implementiert werden, wobei die Herren "Schlaumeiner" hier immer noch behaupten dem wäre nicht so und PS.3.0 wäre der Hit in Dosen.

SM3 kann man genauso ohne grossen Aufwand sofort implementieren. Im Zweifelsfall einfach nur entsprechend compilieren lassen. Bei 3DC muss man zwingend jeden Shader der eine Normal-Map nutzt nochmal anfassen und 1.X Shadern auf 2.0/2.X umschreiben. Ich komme einfach nicht umhin darin einen gewissen Arbeitsaufwand zu sehen.

Falsch meine Herren "Schlaumeier", der Treiber und andere Secret-Funktionen die im Chip sind, sind das Herzstück und da liegt die R420 weit vorne, weiterhin hat es einen bestimmten Grund warum ATI anders rechnet:

Natürlich hat es einen bestimmten Grund. Das Verfahren von ATI ist einfacher zu implementieren (weniger Transitoren) und umgeht das mit dem NV3X bekannt gewordene Tempfile Problem sehr effektiv.

Das der Treiber für den R420 schon besser als der des NV40 ist sollte nun wirklich niemand wundern.

Aha*g* warum können sie dann kein ANSTÄNDIGES AA und AF ????

Was ist ANSTÄNDIGES AA/AF? Sprechen wir von Qualität oder Speed?

Der NV40 ist immer noch im Kern ein NV38 und daran wird auch Demi nichts ändern! Fakt, der NV40 kann nicht in hohen Qualitätsstufen schnell RECHNEN, das beweisen zig Benchsmarks im WWW!

Im Kern sind auch noch Sachen vom NV30 sowie noch älteren Chips. Ich sage doch schon immer das "neue" Chips in der Regel nur modifizierte Versionen des Vorgängermodels sind. Bei NV40 wurde so einiges gegenüber dem NV38 geändert.

Das dem NV40 bei hohen Qualitätsstufen die Fillrate ausgeht streitet hier glaube ich keiner ab.

Winter[Raven]
2004-05-12, 09:24:17
Original geschrieben von LovesuckZ
Ich bin für die Wiedereinführung von längeren Signaturen!

Ich wäre dafür endlich die Registrationspflicht einzuführen!

Das würde mehr nützen und ich krige Kopfschmerzenvon dem BS, den hier einige Gäste von sich geben.:(

@ Gas9t

Wie wärs wenn du ausnahmsweise lesen würdest?

Preis/Nützen von dem Shader 3.0 Paket und 3dc wurde von Demirug schon mehrmals erklärt.

Genauso ob der NV40 ein 2*NV38 ist oder nicht.

Immer diese Kiddis. *kopfschüttel*

PCGH_Thilo
2004-05-12, 10:45:53
Original geschrieben von Demirug
Ansichtssache.

Aus Entwicklersicht ist es nun mal der sicherer Weg auf SM3 zu setzten. Gerade weil es in der der MS-Spec steht müssen es alle IHVs früher oder später in den Chips implementieren. Ob man 3dc jemals bei einem anderen IHVs als ATI sehen wird ist dagegen ungewiss.

Es gibt im NV40 übriegens noch andere Sache ausser SM3 welche der R420 nicht unterstützt.



SM3 kann man genauso ohne grossen Aufwand sofort implementieren. Im Zweifelsfall einfach nur entsprechend compilieren lassen. Bei 3DC muss man zwingend jeden Shader der eine Normal-Map nutzt nochmal anfassen und 1.X Shadern auf 2.0/2.X umschreiben. Ich komme einfach nicht umhin darin einen gewissen Arbeitsaufwand zu sehen.



Natürlich hat es einen bestimmten Grund. Das Verfahren von ATI ist einfacher zu implementieren (weniger Transitoren) und umgeht das mit dem NV3X bekannt gewordene Tempfile Problem sehr effektiv.

Das der Treiber für den R420 schon besser als der des NV40 ist sollte nun wirklich niemand wundern.



Was ist ANSTÄNDIGES AA/AF? Sprechen wir von Qualität oder Speed?



Im Kern sind auch noch Sachen vom NV30 sowie noch älteren Chips. Ich sage doch schon immer das "neue" Chips in der Regel nur modifizierte Versionen des Vorgängermodels sind. Bei NV40 wurde so einiges gegenüber dem NV38 geändert.

Das dem NV40 bei hohen Qualitätsstufen die Fillrate ausgeht streitet hier glaube ich keiner ab.

bewundernswert, dass du auf die unflätigen ausführungen überhaupt antwortest. das zeigt wahre größe.

Gas3t
2004-05-12, 11:06:05
Original geschrieben von Gas9t
100% & und 100 Points !

Einige nv-Fanboys behaupten hier Sachen die schon echt dreist sind.

Der R420 ist in keinem Feature ausser PS.3.0 dem NV40 unterlegen, anstelle von PS.30 hat der R420 3DC welches ein mächtigeres Feature ist als PS.30 weil mann nicht abhängig von MS ist.

3DC kann sofort in Games ohne grossen Aufwand implementiert werden, wobei die Herren "Schlaumeiner" hier immer noch behaupten dem wäre nicht so und PS.3.0 wäre der Hit in Dosen.

Aber was sage ich da schon, Demirug beweist ja gerade mit seiner Naivität hinsichtlich Chipdesign das mann viel erzählen kann und trotzdem nichts 100% wissen kann.

ODer möchte hier jemand behaupten das ein Chip nur aus Transis und co. besteht und das mann darauf basierend Aussagen zum Speed treffen kann???

Falsch meine Herren "Schlaumeier", der Treiber und andere Secret-Funktionen die im Chip sind, sind das Herzstück und da liegt die R420 weit vorne, weiterhin hat es einen bestimmten Grund warum ATI anders rechnet:

Zitat: Demi
Da nVidia im Bereich des Pixelprozessors sowie dem Rasterisiere anders als ATI arbeitet erreicht man dort eine höhere Hitrate auf den Cache und muss seltener die gleiche Cacheline mehrfach laden. Dadurch ist das Byte pro Sample verhältniss besser und erlaubt es mit der verfügbaren Bandbreite das Fillrate limit zu erreichen.

Zitat Ende:

Aha*g* warum können sie dann kein ANSTÄNDIGES AA und AF ????

Der NV40 ist immer noch im Kern ein NV38 und daran wird auch Demi nichts ändern! Fakt, der NV40 kann nicht in hohen Qualitätsstufen schnell RECHNEN, das beweisen zig Benchsmarks im WWW!

@Gas9t

Bitte arbeite an deinem Diskussionsstil. Es bringt nichts hier jemanden persönlich anzugreifen. Das dient nicht der Erkenntnisgewinnung und erschwert die Diskussion erheblich. Außerdem hast du den Gaststatus inne und gerade deswegen solltest du höflich und mit mehr Respekt denn anderen gegenüber schreiben.

Gast
2004-05-12, 11:09:00
Original geschrieben von PCGH_Thilo
bewundernswert, dass du auf die unflätigen ausführungen überhaupt antwortest. das zeigt wahre größe.

Und ziemlich verwundernswert, dass du Kritik an NVidia als unflätige Äusserung betrachtest...




@ Demi: Ich würd einmal aufhören von Treiberproblemen seitens NV zu reden.


1. Probleme, v.A. treiberseitige, bessern nicht unbedingt das Image von NV auf. Hoffentlich bist du dir wirklich sicher was du schreibst, denn das könnte als wettbewerbsschädigend betrachtet werden.(Wer will schon eine Karte mit Treiberproblemen)

2. Schürst du damit die Hoffnung auf neue Wundertreiber, die alles besser machen, und zu was das in der Vergangenheit geführt hat, bzw, die Art, wie die Leistung mit den Wundertreibern erreicht wurde, hat einigen Leuten einen ziemlichen Dämpfer verpasst.

3. Auch wenn ich dir eine enorme Kompetenz zugestehe, hätte ich mir gewunschen, dass du eher nochmal zu den Spielehersteller unabhängigen Implementierung Möglichkeiten von 3DC bei PS2.0 Spielen Stellung bezogen hättest, als mit nicht nachvollziehbaren 'Problemen' beim NV AA anzufangen

Mr. Lolman
2004-05-12, 11:10:42
mein Post

edit:

Aber was sage ich da schon, Demirug beweist ja gerade mit seiner Naivität hinsichtlich Chipdesign das mann viel erzählen kann und trotzdem nichts 100% wissen kann.


Ok, das ist tatsächlich eine unflätige Äusserung, auch wenn ich, diese, etwas unglückliche Formulierung, leider nicht mal ganz von der Hand weisen kann.

*vorigesposttwzurückzieh*

robbitop
2004-05-12, 11:25:12
tja Gas9t scheint durch Unwissen und Unhöflichkeit zu glänzen, das wars auch schon.

Was ist mit den FP16 TMUs oder dem 64bit Framebuffer oder dem Videoprozessor?
All das Sind technologische Features, die der R420 nicht besitzt. Der R420 ist zum reinen Spielen ohne Frage wirklich gut. Aber er bietet kein Deut mehr als der R300 ausser der Performance. Und 3Dc ist keine große Sache, nur ein 2 Kanal DXT5 und das gibts im Ansatz seit Jahren. Somit kann man den Einsatz von diesem Chip in anderen Gebieten eben vergessen.
Und das mit dem Videoencoding ist einfach nur PR Geblubber.
Denn Videoencoding geht entweder nur, wenn SM3 vorhanden ist oder wenn ein dedizierter Videoprozessor auf dem Core vorhanden ist. Der R420 bietet nichts von beidem.
Der NV40 hat soviel mit dem NV3x zu tun wie eine GF2 mit einer GF3...vermutlich noch weniger. Einen solchen Technologiesprung hat ATi das letzte Mal vom R100 zum R200 gemacht. (R300 hat vom R200 ja ziemlich viel gemein). Seit dem wird nur noch aufgekocht. Das ist imo sogar eine sehr gute Sache, da man transistoreffektiv arbeitet und eine sehr gute Performance hat, also kein Grund zum Meckern.

Was den Treiber angeht ist es klar, dass der Cat 4.5 deutlich weiter ist. Denn man hat die selbe Architektur seit 2002. NV musste bei vielen Sachen von vorn anfangen.
zB in Sache Performanceupgrade durch Treiber wird imo beim R420, eben dadurch dass die Architektur schon lang genug getuned worden ist, bestimmt nicht mehr so viel passieren wie beim NV40 (neue Architektur..u.A Optimierung für Dual Issue).

DrumDub
2004-05-12, 11:34:58
Original geschrieben von LovesuckZ
"MPEG1/2/4 encode acceleration", hat meine TNT auch. Nennt sich bei mir CPU...

ich hab ja auch nicht behauptet, dass die x800er die gleichen fähigkeiten in dem bereich haben, wie die 6800er, sondern lediglich zitiert, dass es wohl eine beschleunigung des encodings auf diesen karten gibt.

das dieses feature nicht neu ist, hätte ich vielleicht dazu schreiben sollen:

As far as AIW specific features go, the GPU makes use of the same features that the 9700 Pro (R300) version did, namely VideoSoap, utilising the shader unit on the GPU to apply realtime effects on the video stream to clean it up, and partial MPEG encoding. While it's not a full offload on to the GPU (that I can tell), it still allows a drop in CPU utilisation when recording video to your hard drive. Mainly used in ATI's own VCR file format, there's still GPU offload when recording MPEG video too.
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD02MDI=

Demirug
2004-05-12, 11:36:34
Original geschrieben von Gast
@ Demi: Ich würd einmal aufhören von Treiberproblemen seitens NV zu reden.


1. Probleme, v.A. treiberseitige, bessern nicht unbedingt das Image von NV auf. Hoffentlich bist du dir wirklich sicher was du schreibst, denn das könnte als wettbewerbsschädigend betrachtet werden.(Wer will schon eine Karte mit Treiberproblemen)

2. Schürst du damit die Hoffnung auf neue Wundertreiber, die alles besser machen, und zu was das in der Vergangenheit geführt hat, bzw, die Art, wie die Leistung mit den Wundertreibern erreicht wurde, hat einigen Leuten einen ziemlichen Dämpfer verpasst.

3. Auch wenn ich dir eine enorme Kompetenz zugestehe, hätte ich mir gewunschen, dass du eher nochmal zu den Spielehersteller unabhängigen Implementierung Möglichkeiten von 3DC bei PS2.0 Spielen Stellung bezogen hättest, als mit nicht nachvollziehbaren 'Problemen' beim NV AA anzufangen

1. Die Aussage war ja erstmal nur auf Farcry bezogen und da spricht ja nVidia selbst davon das da noch nicht alles im reinen ist.

2. Alles besser machen kann man mit einem neuen Treiber ja sowieso nicht. Es sind ja IMHO schon einige Dinge am Maximum angekommen. Aber gerade der Shadercompiler macht eben stellenweise noch sehr undurchsichtige und unsinge Sachen. Ein typische Beispiel hier ist das ein Funktional idetischer PS 1.1 Shader langsamer als das 2.0 gegenstück ist.

3.a Welches AA Problem?
3.b Von welcher unabhängigen Implementierung sprichst du? Die benutzung von 3DC muss explizit vom Spiel angefordert werden. Da kann und darf der Treiber nicht einfach mal was unterschieben. Den woher soll der Treiber wissen welche Textur eine Normalmap ist und welche nicht? Da ginge nur wenn ATI im Treiber explizit jeden Shader den man verändern will hinterlegt hat. Zudem würde das automatische Austauschen einer unkomprimierten textur gegen eine mit 3dc komprimierten Textur ohne das der Anwender davon etwas weiss einen Cheat darstellen.

ATI hätte es den Entwicklern natürlich einfacher machen können indem sie bei der Verwendung von 3dc als Texturformat den entsprechenden Shader automatisch angepasst hätten. Das hätte zwar unter umständen zu leichten Problemen bezüglich der Shadervalidierung von DirectX geführt aber solange niemand in die Nähe der 512 Anweisungen kommt spielt das keine Rolle.

robbitop
2004-05-12, 11:36:58
naja das Einzige was ich von ATi in dem Bereich gesehen hab, ist dass das Abspielen von MPEG etwas weniger CPU Last kostete. Schonmal ein guter Ansatz.
Aber S3 scheint da deutlich weiter zu sein, bei NV bestimmt noch weiter aber das muss sich erst zeigen, wenn die ersten Treiber den VP unterstützen.

Exxtreme
2004-05-12, 11:39:22
Original geschrieben von Gast
Und ziemlich verwundernswert, dass du Kritik an NVidia als unflätige Äusserung betrachtest...

Das war keine Kritik sondern nur noch dumpfe Hetze. Echte Kritik ist immer konstruktiv.
Original geschrieben von Gast
@ Demi: Ich würd einmal aufhören von Treiberproblemen seitens NV zu reden.


1. Probleme, v.A. treiberseitige, bessern nicht unbedingt das Image von NV auf. Hoffentlich bist du dir wirklich sicher was du schreibst, denn das könnte als wettbewerbsschädigend betrachtet werden.(Wer will schon eine Karte mit Treiberproblemen)

Das Stichwort "Treiberprobleme" ist ein sehr dehnbarer Begriff. Es gibt Leute, für die sind Treiber nur deshalb schlecht weil sie mit jeder neuen Version nicht die erwarteten Geschwindigkeitssteigerungen aufweisen.

robbitop
2004-05-12, 11:40:27
gute Treiber sind vA stabil und problemlos.
Da verzichte ich gern auf ein paar fps.

PCGH_Thilo
2004-05-12, 11:53:27
Original geschrieben von Gast
Und ziemlich verwundernswert, dass du Kritik an NVidia als unflätige Äusserung betrachtest...



dann solltest du wirklich an deinem tonfall arbeiten. an konstruktiver kritik/diskussion sind wir hier alle interessiert, aber ich will keine körner der wahrheit aus einem moloch von unterschwelligen beleidigungen herauslesen müssen.

Mr. Lolman
2004-05-12, 11:58:46
Original geschrieben von Demirug
3.a Welches AA Problem?
3.b Von welcher unabhängigen Implementierung sprichst du? Die benutzung von 3DC muss explizit vom Spiel angefordert werden. Da kann und darf der Treiber nicht einfach mal was unterschieben. Den woher soll der Treiber wissen welche Textur eine Normalmap ist und welche nicht? Da ginge nur wenn ATI im Treiber explizit jeden Shader den man verändern will hinterlegt hat. Zudem würde das automatische Austauschen einer unkomprimierten textur gegen eine mit 3dc komprimierten Textur ohne das der Anwender davon etwas weiss einen Cheat darstellen.

ATI hätte es den Entwicklern natürlich einfacher machen können indem sie bei der Verwendung von 3dc als Texturformat den entsprechenden Shader automatisch angepasst hätten. Das hätte zwar unter umständen zu leichten Problemen bezüglich der Shadervalidierung von DirectX geführt aber solange niemand in die Nähe der 512 Anweisungen kommt spielt das keine Rolle.

3a Treiberprobleme bei Farcry in Verbindung mit AA (deine Worte)

3b Weiss man denn nicht welche Texturen verwendet werden, wenn man sich nen Shader ansieht (der u.U. durch den treiberinternen Shadercompiler geschickt wird)

Von wegen kann und darf. Dann baut Ati (oder lässt bauen)einfach ein externes Tool. Bei 3dfx hätte man ja auch nicht dürfen, und trotzdem war es mit WickedGl möglich alle Texturen ausnahmslos zu komprimieren. Brachte mehr Speed und bessere Ladezeiten, da die Texturen auf Wunsch in ein File gespeichert wurden...

Klar wärs ein Cheat. Ists aber nicht auch ein Cheat, dass bei NV soviel mit Low Precision gerechnet wird? Oder muss man dazu wieder 'Treiberproblem' sagen. Weiss man denn überhaupt als Spieler, ob der Shader, den man sieht, original vom Spiel ist, oder durch den Treibr ausgetauscht wurde? Wenn die Präzision halbwegs passt, merkt mans auch nicht, und streng genommen ists auch ein Cheat. Und das was ATi und NV mit dem AF aufführen ist auch ein Cheat. Also lass mer mal das Cheatgeseiere, weil ohnehin jeder Hersteller mit biegen und brechen, seine Karte möglichst als die schnellste dastehen lassen will.

Mr. Lolman
2004-05-12, 12:11:13
Original geschrieben von PCGH_Thilo
dann solltest du wirklich an deinem tonfall arbeiten. an konstruktiver kritik/diskussion sind wir hier alle interessiert, aber ich will keine körner der wahrheit aus einem moloch von unterschwelligen beleidigungen herauslesen müssen.

Ich war nicht der Gast, der den Anstoss zum Ausdrücken deiner Bewunderung Demi gegenüber gegeben hat. Nur las sich des Gastens Post beim ersten überfliegen nicht so schlimm, wie es von dir aufgefasst wurde..

Klar, sollte Kritik konstruktiv sein, aber solange sie sich hauptsächlich gegen eine HW Hersteller richtet, versteh ich nicht, dass man diese als unflätige Ausserung betrachtet.

Ja im Nachhinein hab ich auch den 'persönlichen Angriff' Demi ggü, bemerkt,und dass dann eigentlich im Zusammenhang mit den 'Spezialisten' ohnehin nurmehr von ihm die Rede war, und das gesamte Post eigentlich zu harsch formuliert wurde. Aber da muss man doch nicht genauso subtil in ein Lob verpackt, das gesamte Post der Gastes diffamieren.

Da ist ignorieren noch besser...



Aber was rechtfertige ich mich hier eigentlich für ein Post welches nicht aus meiner Feder stammt, lass mer das jetzt :bier:

seahawk
2004-05-12, 12:16:40
Original geschrieben von Mr. Lolman
3a Treiberprobleme bei Farcry in Verbindung mit AA (deine Worte)

3b Weiss man denn nicht welche Texturen verwendet werden, wenn man sich nen Shader ansieht (der u.U. durch den treiberinternen Shadercompiler geschickt wird)

Von wegen kann und darf. Dann baut Ati (oder lässt bauen)einfach ein externes Tool. Bei 3dfx hätte man ja auch nicht dürfen, und trotzdem war es mit WickedGl möglich alle Texturen ausnahmslos zu komprimieren. Brachte mehr Speed und bessere Ladezeiten, da die Texturen auf Wunsch in ein File gespeichert wurden...

Klar wärs ein Cheat. Ists aber nicht auch ein Cheat, dass bei NV soviel mit Low Precision gerechnet wird? Oder muss man dazu wieder 'Treiberproblem' sagen. Weiss man denn überhaupt als Spieler, ob der Shader, den man sieht, original vom Spiel ist, oder durch den Treibr ausgetauscht wurde? Wenn die Präzision halbwegs passt, merkt mans auch nicht, und streng genommen ists auch ein Cheat. Und das was ATi und NV mit dem AF aufführen ist auch ein Cheat. Also lass mer mal das Cheatgeseiere, weil ohnehin jeder Hersteller mit biegen und brechen, seine Karte möglichst als die schnellste dastehen lassen will.

Wenn partial precision ein Cheat sein soll, dann ist sogar die normale Nutzung von 3dc ein Cheat. Beides muss das Programm explizit anfordern.

Mr. Lolman
2004-05-12, 12:19:38
Original geschrieben von seahawk
Wenn partial precision ein Cheat sein soll, dann ist sogar die normale Nutzung von 3dc ein Cheat. Beides muss das Programm explizit anfordern.

Ich meinte das unangeforderte pp ein Cheat ist.

seahawk
2004-05-12, 12:21:55
Original geschrieben von Mr. Lolman
Ich meinte das unangeforderte pp ein Cheat ist.

Kann das der NV Treiber ??

LovesuckZ
2004-05-12, 12:23:27
Original geschrieben von seahawk
Kann das der NV Treiber ??

Tuerlich, siehe erste FX Treiber.

Mr. Lolman
2004-05-12, 12:23:48
Original geschrieben von seahawk
Kann das der NV Treiber ??

Da bin ich mir sicher. (LockOn würde sich z.B:: für eine Untersuchung - alter 45er Treiber vs. neuer Treiber - anbieten)

LovesuckZ
2004-05-12, 12:24:03
Original geschrieben von Mr. Lolman
Ich meinte das unangeforderte pp ein Cheat ist.

Ebenso Shaderreplacement durch den Treiber.

Mr. Lolman
2004-05-12, 12:25:00
Original geschrieben von LovesuckZ
Ebenso Shaderreplacement durch den Treiber.

Ganz genau.

robbitop
2004-05-12, 12:27:22
naja FP16 sehe ich nicht als "Cheat" an.
Ist afaik in der DX9 Spec mit drin.

lediglich das FX12 Format wäre ein "Cheat". Dieser würde dem NV40 aber keinen Deut an Mehrperformance verleihen.

seahawk
2004-05-12, 12:28:02
Original geschrieben von LovesuckZ
Tuerlich, siehe erste FX Treiber.

Aber das war doch eher Shadereplacement.

Exxtreme
2004-05-12, 12:28:34
Original geschrieben von robbitop
naja FP16 sehe ich nicht als "Cheat" an.
Ist afaik in der DX9 Spec mit drin.

PP _darf_ nur dann eingesetzt werden wenn das Spiel es explizit anfordert. Ansonsten muss mit mind. 24 Bit FP gerechnet werden bei 2.x-Shadern.

seahawk
2004-05-12, 12:29:19
Original geschrieben von robbitop
naja FP16 sehe ich nicht als "Cheat" an.
Ist afaik in der DX9 Spec mit drin.

lediglich das FX12 Format wäre ein "Cheat". Dieser würde dem NV40 aber keinen Deut an Mehrperformance verleihen.

kein Cheat wenn der Shader explizit danach fragt (z.B. FarCry). Cheat wenn es ohne Anforderung des Programms gemacht wird. (Shaderaustausch)

LovesuckZ
2004-05-12, 12:30:28
Original geschrieben von seahawk
Aber das war doch eher Shadereplacement.

Nein, das war nur beim 3DMark2003 + die Limitierung auf FP16. Unter jeder anderen DX9 Anwendung wurde nur FP16 geliefert, aber kein Shadereplacement.

ow
2004-05-12, 12:32:18
.

Demirug
2004-05-12, 12:37:16
Original geschrieben von Mr. Lolman
3a Treiberprobleme bei Farcry in Verbindung mit AA (deine Worte)

Das meinst du. AFAIK wurde das Problem aber reproduziert. Es geht dabei um AA über Panel oder durch die APP.

3b Weiss man denn nicht welche Texturen verwendet werden, wenn man sich nen Shader ansieht (der u.U. durch den treiberinternen Shadercompiler geschickt wird)

Von wegen kann und darf. Dann baut Ati (oder lässt bauen)einfach ein externes Tool. Bei 3dfx hätte man ja auch nicht dürfen, und trotzdem war es mit WickedGl möglich alle Texturen ausnahmslos zu komprimieren. Brachte mehr Speed und bessere Ladezeiten, da die Texturen auf Wunsch in ein File gespeichert wurden...

Klar wärs ein Cheat. Ists aber nicht auch ein Cheat, dass bei NV soviel mit Low Precision gerechnet wird? Oder muss man dazu wieder 'Treiberproblem' sagen. Weiss man denn überhaupt als Spieler, ob der Shader, den man sieht, original vom Spiel ist, oder durch den Treibr ausgetauscht wurde? Wenn die Präzision halbwegs passt, merkt mans auch nicht, und streng genommen ists auch ein Cheat. Und das was ATi und NV mit dem AF aufführen ist auch ein Cheat. Also lass mer mal das Cheatgeseiere, weil ohnehin jeder Hersteller mit biegen und brechen, seine Karte möglichst als die schnellste dastehen lassen will.

Rein aus dem Shadercode automatisch heraus zu finden was nun eine Normalmap sein könnte ist nicht so einfach. Wenn man das automatisch macht und der Treiber sich täuscht ist das Blau weg.

Was die Genauigkeit beim rechnen angeht so gibt es dummerweise in der Spec die bekannte Hintertür.

Implementations vary precision automatically based on precision of inputs to a given op for optimal performance.

Mr. Lolman
2004-05-12, 12:43:02
Original geschrieben von robbitop
naja FP16 sehe ich nicht als "Cheat" an.
Ist afaik in der DX9 Spec mit drin.

lediglich das FX12 Format wäre ein "Cheat". Dieser würde dem NV40 aber keinen Deut an Mehrperformance verleihen.

Wenns unangefordert verwendet wird, ists auch ein Cheat. * Wobei ich es, wie schon angedeutet, nicht zuletzt aufgrund der treiberinternen Shadercompiler, für ohnehin nicht mehr überschaubar halte, wo jetzt DX konformes Rendering anfängt, und ab wann man von einem 'Cheat' sprechen muss.

Solange die Bildqualität stimmt, ists kein Cheat. Wenn man das jetzt mit forcierter 3Dc Kompression (ich bin immernoch nicht überzeugt, dass das nicht heoretisch machbar wäre)oder unangeforderter PP erreicht, solls auch ok sein.




edit: ok, doch nicht...

Exxtreme
2004-05-12, 12:45:06
Original geschrieben von ow
Das Ergebnis der Rechnung muss mindestens die Praezision einer FP24 Rechnung aufweisen, falls dies mit FP16 oder gar FX12 erreicht werden kann duerfen diese genutzt werden.
Sicher? :kratz:

Hmmm, dann kann man das IMHO aber nur noch im Austausshader realisieren bei dem man weiss, was am Ende rauskommt. Der Treiber kann sonst nicht im voraus wissen ob die geringere Präzision reicht.

Demirug
2004-05-12, 12:50:08
Original geschrieben von Exxtreme
Sicher? :kratz:

Hmmm, dann kann man das IMHO aber nur noch im Austausshader realisieren bei dem man weiss, was am Ende rauskommt. Der Treiber kann sonst nicht im voraus wissen ob die geringere Präzision reicht.

Ja, solange das Ergebniss die entsprechenden Genauigkeit aufweisst spielt es keine Rolle wie es zustanden gekommen ist.

Wenn man die Genauigkeit der Eingangsdaten kennt kann man da schon einiges automatisch machen.

ow
2004-05-12, 12:51:34
.

ow
2004-05-12, 12:53:01
.

Mr. Lolman
2004-05-12, 12:54:16
Original geschrieben von Demirug
Das meinst du. AFAIK wurde das Problem aber reproduziert. Es geht dabei um AA über Panel oder durch die APP.
Du aber auch:

Original geschrieben von Demirug
Das bezog sich auf BI-Singletexture. Da reicht die Bandbreite natürlich nicht. Aber ab zwei texturen ist man schon dran.

Beim R420 schafft man das aber in diesem Test bei 4 Texturen immer noch nicht. Das wollte ich damit sagen. Aber selbst bei Singletextur gibt es schon Unterschiede zwischen NV40 und R420.

Der NV40 kommt mit 6,62 Byte pro Pixel aus. Der R420 braucht 8,12. Brutto natürlich und inklusive der Bandbreite die benötigt wird um das ganze dann auch anzuzeigen.



Original geschrieben von robbitop
Achja weisst du schon warum die R420er so verdammt schnell in Far Cry sind im Gegensatz zum NV40?
Macht das nur der 30% höhere Chiptakt?


Zum Teil ja aber nVidia spricht auch noch von einer Reihe Treiberproblemen. Gerade in Verbindung mit dem AA.


Original geschrieben von Demirug
Rein aus dem Shadercode automatisch heraus zu finden was nun eine Normalmap sein könnte ist nicht so einfach. Wenn man das automatisch macht und der Treiber sich täuscht ist das Blau weg.

Prinzipiell unmöglich ist es also nicht...


Was die Genauigkeit beim rechnen angeht so gibt es dummerweise in der Spec die bekannte Hintertür.Implementations vary precision automatically based on precision of inputs to a given op for optimal performance.


Ok, wusst ich nicht. Ist aber auch seeehr weit auszulegen..

christoph
2004-05-12, 12:57:11
manchmal denke ich das konsequenteres moderieren durchaus dem diskusionsniveau zuträglich sein könnte

ow
2004-05-12, 13:11:40
.

aths
2004-05-12, 13:17:15
Original geschrieben von Mr. Lolman
Prinzipiell unmöglich ist es also nicht...Prinzipiell speichern Texturen Daten, und man kann anhand des Textur-Formates nur vermuten, was der Pixelshader daraus macht.

HOT
2004-05-12, 13:18:39
Original geschrieben von christoph
manchmal denke ich das konsequenteres moderieren durchaus dem diskusionsniveau zuträglich sein könnte

Also ich finde ow (und die anderen natürlch auch) machen das schon sehr gut ;)
Man kann nicht 100%ig jeden Trollbeitrag entfernen... es gibt a.) Grenzfälle und b.) muss auch ein Mod irgendwann mal schlafen :D
Insgesamt macht es so das Forum irgendwo relativ lebendig (was andere jetzt anders sehen mögen). Allzugrosse Perfektion nervt auch irgendwann ;)

Gastt
2004-05-12, 13:18:55
Hallo liebes Forum,

ich von meiner Seite könnte mir einen Chatroom mit Moderation vorstellen.

Ich bin mir 99%zig sicher, das auch Hersteller da mitmachen würden.

Eine Mitschrift würde einige Unklarheiten beseitigen und würde dann als Nachlese für alle anderen im Forum bereitliegen.

Darauf basierend könnten sich effektivere Diskussionen entwickeln!

Vorschlag einen Mitlesers !

Greetings,
pW

PS: Warum ist der Name Gast reserviert???

ow
2004-05-12, 13:20:19
.

Mr. Lolman
2004-05-12, 13:34:40
Original geschrieben von ow
Ich wuerde das anders angehen: anhand der konkreten Pixelshader-Operation kann man vermuten, dass die dabei benutzte Textur eine Normalmap ist. Oder geht das auch nicht?

Genau den Ansatz würd ich auch machen, im Zweifelsfall eben noch mit aths Herangehensweise validieren. So müsste man die Fehlerquote ziemlich einschränken können.

Demirug
2004-05-12, 13:34:56
Original geschrieben von ow
Ich wuerde das anders angehen: anhand der konkreten Pixelshader-Operation kann man vermuten, dass die dabei benutzte Textur eine Normalmap ist. Oder geht das auch nicht?

vermuten ist ungleich wissen. Zudem ist es nicht eine Operation sondern in der Regel eine folge von Anweisungen.

Es bleibt also immer ein Unsicherheitsfaktor.

Demirug
2004-05-12, 13:36:30
Original geschrieben von aths
Prinzipiell speichern Texturen Daten, und man kann anhand des Textur-Formates nur vermuten, was der Pixelshader daraus macht.

Das Texturformat für eine normalmap unterscheidet sich doch überhaupt nicht vom Format der Decalmap. In beiden Fällen nimmt man R8G8B8.

Mr. Lolman
2004-05-12, 13:37:05
Original geschrieben von Demirug
Es bleibt also immer ein Unsicherheitsfaktor.

Den man doch mit ein paar TexOps, bei den in Frage kommenden Texturen minimieren können müsste.

Mr. Lolman
2004-05-12, 13:37:39
Original geschrieben von Demirug
Das Texturformat für eine normalmap unterscheidet sich doch überhaupt nicht vom Format der Decalmap. In beiden Fällen nimmt man R8G8B8.

ja, aber Normalmaps komprimiert man nicht mit DXT...

Demirug
2004-05-12, 13:43:06
Original geschrieben von Mr. Lolman
Den man doch mit ein paar TexOps, bei den in Frage kommenden Texturen minimieren können müsste.

Nein, wenn der Treiber meint das er es mit einer Normalmap zu tun hat und es ist keine hat man verloren.

Demirug
2004-05-12, 13:43:46
Original geschrieben von Mr. Lolman
ja, aber Normalmaps komprimiert man nicht mit DXT...

Warum nicht? Das hat ATI ja bevor sie 3dc hatten sogar vorgeschlagen.

Mr. Lolman
2004-05-12, 13:52:05
Original geschrieben von Demirug
Nein, wenn der Treiber meint das er es mit einer Normalmap zu tun hat und es ist keine hat man verloren.

Darum geht es ja, dies zu verhindern. ATis Smartshadereffekte lassen Photoshop ähnliche Postfilter zu, und anhand einer ähnlichen Methotik müsste man doch bei Texturen erfassen können ob die für Normalmaps charakteristische Farbgebung vorhanden ist...

Und wenns dann tatsächlich ein Fehler ist, ja mei. Dann wird der halt gepatcht, oder auch nicht.

Falls überhaupt an der Idee was dran ist, dann sollte forcierte 3DC Kompression, eh aller höchstens mit einem Schalter (oder zumindest einem Regkey) zugänglich sein.

Wenn ATi diese standardmässig einbauen würde hätten sie allerdings verloren. Das stimmt, aber optional, halte ich es für ein geniales Feature.


Original geschrieben von Demirug
Warum nicht? Das hat ATI ja bevor sie 3dc hatten sogar vorgeschlagen.

Weil die Kompressionsfehler bei Normalmaps sh1ce aussehen (könnten)??

Demirug
2004-05-12, 14:08:10
Original geschrieben von Mr. Lolman
Darum geht es ja, dies zu verhindern. ATis Smartshadereffekte lassen Photoshop ähnliche Postfilter zu, und anhand einer ähnlichen Methotik müsste man doch bei Texturen erfassen können ob die für Normalmaps charakteristische Farbgebung vorhanden ist...

Und wenns dann tatsächlich ein Fehler ist, ja mei. Dann wird der halt gepatcht, oder auch nicht.

Falls überhaupt an der Idee was dran ist, dann sollte forcierte 3DC Kompression, eh aller höchstens mit einem Schalter (oder zumindest einem Regkey) zugänglich sein.

Wenn ATi diese standardmässig einbauen würde hätten sie allerdings verloren. Das stimmt, aber optional, halte ich es für ein geniales Feature.

Dann schreib es auf die Wunschliste. Und wenn ATI es nicht machen will dann must du auf einen DX-Wrapper hoffen der es dann kann.

Weil die Kompressionsfehler bei Normalmaps sh1ce aussehen (könnten)??

Das kann dir auch noch bei 3dc passieren. Mit dem besagten DXT verfahren hat man auf dem einen Kanal die gleiche Genauigkeit wie bei 3dc. Auf dem andeeren sind es dann 4 Stufen (DXT) gegen 8 Stufen (3dc) in einem 4*4 Block. Ist also nicht gar so schlimm. Allerdings dürfte jemand der diese Methode eingebaut hat das ganze mal schnell auf 3dc patchen können weil dann die notwendige Änderung an den Shadern nur noch minimal ist.

aths
2004-05-12, 14:08:14
Original geschrieben von ow
Ich wuerde das anders angehen: anhand der konkreten Pixelshader-Operation kann man vermuten, dass die dabei benutzte Textur eine Normalmap ist. Oder geht das auch nicht? Man kann nach der PS-Analyse durchaus versuchen zu raten, ob eine Textur als Normal Map herhalten soll, oder nicht. Die Unsicherheit bleibt aber. Imo soll der Compiler nicht versuchen zu erraten, was der Anwender wollte, sondern lediglich seinen Code optimal auf die Zielplattform übertragen.

aths
2004-05-12, 14:09:24
Original geschrieben von Mr. Lolman
Darum geht es ja, dies zu verhindern. ATis Smartshadereffekte lassen Photoshop ähnliche Postfilter zuNvidia CineFX-Effekte auch :)

Original geschrieben von Mr. Lolman
Und wenns dann tatsächlich ein Fehler ist, ja mei. Dann wird der halt gepatcht, oder auch nicht. Du schlägst nicht ernsthaft eine Methode vor, die darauf angewiesen ist, für neue Spiele ständig den neusten Treiber nehmen zu müssen?

Original geschrieben von Mr. Lolman
Weil die Kompressionsfehler bei Normalmaps sh1ce aussehen (könnten)?? Diese Fehler werden durch Renormalisierung weitestgehend entfernt :) Renormalisierung ist auch bei 3Dc notwendig, wenn man Blockartefakt-freies Bumpmapping haben will. Glaub doch bitte nicht immer das, was in den White Papers steht :)

Mr. Lolman
2004-05-12, 14:19:35
Original geschrieben von aths
Nvidia CineFX-Effekte auch :)

Jo kloar. Die können auch noch viel mehr. Aber das wissen wir ohnehin alle, und darum gehts jetzt ausserdem nicht :)



Du schlägst nicht ernsthaft eine Methode vor, die darauf angewiesen ist, für neue Spiele ständig den neusten Treiber nehmen zu müssen?


Falls Fehler entstehen. Ausserdem kommen die Treiber eh regelmässig raus, und sofern man das Feature nur über einen mittels Regkey freischaltaren Button ansprechen könnte, müsste ja ATi noch nichteinmal sooo regelmässig die 3DC Unterstützung auf den neuesten Stand bringen.



Diese Fehler werden durch Renormalisierung weitestgehend entfernt :) Renormalisierung ist auch bei 3Dc notwendig, wenn man Blockartefakt-freies Bumpmapping haben will. Glaub doch bitte nicht immer das, was in den White Papers steht :)

Wie kann ich mir vorstellen dass das funktioniert (So eine Art Despeckle Filter?)?

OK ists zwar nicht vergleichbar aber als ATi den 16bit OGL Texturebug in den Treibern hatte, sah zumindest die doom3 Alpha grässlich aus...

seahawk
2004-05-12, 14:27:32
Original geschrieben von Mr. Lolman
Falls Fehler entstehen. Ausserdem kommen die Treiber eh regelmässig raus, und sofern man das Feature nur über einen mittels Regkey freischaltaren Button ansprechen könnte, müsste ja ATi noch nichteinmal sooo regelmässig die 3DC Unterstützung auf den neuesten Stand bringen.


Und wie konvertiert man die Texturen in 3DC. Dazu müßter der Treiber ja beim ersten Start des Spieles nicht nur die Shader ändern, sondern auch noch die Texturen konvertieren.

MorBiuZ
2004-05-12, 14:30:45
Hat mir jemand nochmal die 3DMark01 Benchmarks der X800 ?!
thx

LovesuckZ
2004-05-12, 14:32:45
Original geschrieben von MorBiuZ
Hat mir jemand nochmal die 3DMark01 Benchmarks der X800 ?!
thx

http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=12

MadManniMan
2004-05-12, 14:36:00
Original geschrieben von LovesuckZ
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=12

Murks01, Love. Nicht Murks03 :) Aber danke nomma für den Link, hatte das Review schon fast vergessen *nochmalles*

LovesuckZ
2004-05-12, 14:37:47
Original geschrieben von MadManniMan
Murks01, Love. Nicht Murks03 :) Aber danke nomma für den Link, hatte das Review schon fast vergessen *nochmalles*

Aehm, öhm, *hust*

Mr. Lolman
2004-05-12, 15:12:45
Original geschrieben von seahawk
Und wie konvertiert man die Texturen in 3DC.



Das sollte das geringste Problem sein. Mittels ATis Kompressionsroutine. Die könnte man doch sicher auch in den Treiber (oder in ein externes Tool) implementieren.


Dazu müßter der Treiber ja beim ersten Start des Spieles nicht nur die Shader ändern, sondern auch noch die Texturen konvertieren.

Stimmt. Und wenn man dem User noch freistellt, die Grösse des Tempfiles (in dem die komprimierten Normalmaps gespeichert werden) zu bestimmen, kann sich niemand über den zusätzlich benötigten Festplattenplatz aufregen. (mit Metabytes WickedGL hat das bei 3dfx Karten auch ganz gut funktioniert. Wenn das Tempfile zu klein bemessen war, hats halt hinundwieder längere Ladezeiten beim Levelstart gegeben)

Piffan
2004-05-12, 15:27:49
Original geschrieben von MorBiuZ
Hat mir jemand nochmal die 3DMark01 Benchmarks der X800 ?!
thx

Habe ich leider auch nicht, aber interessant wäre es. Weil imho der Murks 01 einen größeren Bezug zu realen und nicht topaktuellen Spielen hat als der Murks 03. Und sei es auch nur, damit man den Leistungsunterschied zur eigenen Hardware besser beurteilen kann.....

tRpii
2004-05-12, 15:35:12
http://service.futuremark.com/compare?2k1=7821735

der sollte es sein..

edit: also von jemanden der schon ne x800 hat..

christoph
2004-05-12, 15:49:45
Original geschrieben von aths
Diese Fehler werden durch Renormalisierung weitestgehend entfernt :) Renormalisierung ist auch bei 3Dc notwendig, wenn man Blockartefakt-freies Bumpmapping haben will. Glaub doch bitte nicht immer das, was in den White Papers steht :)

häh, steht doch genauso im ati whitepaper hier:
http://www.ati.com/developer/NormalMapCompression.pdf

DXT5 with renormalisation
- Very slight noise remains, but almost invisible.
- All other areas look essentially identical to the original.
- Specular blocking has almost completely disappeared. Specular highlights are the correct brightness.

aths
2004-05-12, 15:57:22
Original geschrieben von Mr. Lolman
Wie kann ich mir vorstellen dass das funktioniert (So eine Art Despeckle Filter?)?Nein.

Vektoren kann man entweder zerlegt in die Achsen-Komponenten angeben, oder als Winkel + Länge. Renormalisieren heißt, die Länge auf 1 zu bringen, da sie durch bei der Komprimierung durch die anschließende Rekonstruktion der Werte mittels linearer Interpolation zwischen den Referenzwerten verkürzt werden.


Original geschrieben von christoph
häh, steht doch genauso im ati whitepaper hier:
http://www.ati.com/developer/NormalMapCompression.pdf Japp. Leider hat ATI offenbar ihre eigenen Paper vergessen, wenn sie 3Dc mit herkömmlichen Verfahren vergleichen.