PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10

LovesuckZ
2004-05-06, 14:08:00
Wir brauchen irgendwie einen Pool von Timedemos...

http://www.firingsquad.com/hardware/ati_radeon_x800/page15.asp

Demirug
2004-05-06, 14:08:57
Original geschrieben von InsaneDruid
Hm aber wenn man sich zb das hier ansieht:

http://www.xbitlabs.com/images/video/r420-2/il2_1280_candy.gif

http://www.xbitlabs.com/images/video/r420-2/il2_1600_candy.gif

Il2 is n OGL Game, also IIRC keine Stageoptimierung seitens ATI..

Dafür gibt es ja unter OpenGL noch das von der PCGH erwähnte Verhalten das beim Tri Filter die Fillrate um 20% über dem theoretischen Maximum lag.

Mr. Lolman
2004-05-06, 14:43:36
Original geschrieben von Demirug
Hat jemand bei xbitlabs gesehen was man dort im Bezug auf die Stageoptimierung des R420 gemacht hat?

Ich frage weil man beim NV40 ja einmal mit und ohne die Optimierung gebencht hat.


Und woher weiss man, dass NV keine applikationsspezifischen Stageoptimierungen hat. Bei UT2003 (wahrscheinlich auch 2004) gibts die jedenfalls..

Demirug
2004-05-06, 14:45:40
Original geschrieben von Mr. Lolman
Und woher weiss man, dass NV keine applikationsspezifischen Stageoptimierungen hat. Bei UT2003 (wahrscheinlich auch 2004) gibts die jedenfalls..

Natürlich weiss man das nicht. Aber bei bekannten Schaltern wüsste ich eben doch gerne wie sie stehen.

seahawk
2004-05-06, 14:48:33
Original geschrieben von Mr. Lolman
Und woher weiss man, dass NV keine applikationsspezifischen Stageoptimierungen hat. Bei UT2003 (wahrscheinlich auch 2004) gibts die jedenfalls..

Und woher weiss man, dass ATI das nicht auch macht ??

InsaneDruid
2004-05-06, 14:51:40
Müsste man bei beiden mal checken mit eingefärbten MIPS. zumindest bei UT ja kein Problem.

Mr. Lolman
2004-05-06, 14:59:48
Original geschrieben von InsaneDruid
Müsste man bei beiden mal checken mit eingefärbten MIPS. zumindest bei UT ja kein Problem.

Dank des 3D Analyzer ists auch bei allen anderen kein Problem...

@seahawk:

Ati machts ja prinzipiell (in D3d). Deswegen wurde die Stageoptimierung ja auch beim 3DCenter Review deaktiviert...

Gas3t
2004-05-06, 18:08:28
Wurde irgendwo auch NFS:Underground getestet?

san.salvador
2004-05-06, 18:22:19
Original geschrieben von Gas3t
Wurde irgendwo auch NFS:Underground getestet?
Ja, aber weiss net mehr genau wo, musst suchen.

X800Pro
2004-05-06, 18:30:58
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1784947#post1784947

ow
2004-05-06, 18:52:11
.

ShadowXX
2004-05-06, 19:09:49
Original geschrieben von ow
Nur so wenig?

Seit geraumer Zeit wundere ich mich über die theoretische Fillrate meiner R200 mit archmark gemessen.

Das sah mal so aus:


----Bilinear filter-----------------------------
1 982.078 MPix/s
2 984.881 MPix/s
3 493.443 MPix/s
4 497.889 MPix/s
5 331.737 MPix/s
6 331.043 MPix/s

----Trilinear filter----------------------------
1 497.636 MPix/s
2 498.376 MPix/s
3 253.498 MPix/s
4 253.490 MPix/s
5 170.525 MPix/s
6 170.511 MPix/s


Wie man es von einem 4x2 Chip mit bilinearen TMUS erwartet.

Und ab irgendeinem Treiber trat dann eine wundersame Fillrate-Vermehrung ein, danach misst sich das nämlich so:


Texturing
Mode RGBA5650 Z16 S0
--Textured fillrate-----------------------------
----Bilinear filter-----------------------------
1 965.795 MPix/s
2 986.469 MPix/s
3 495.038 MPix/s
4 495.084 MPix/s
5 330.683 MPix/s
6 330.148 MPix/s

----Trilinear filter----------------------------
1 844.153 MPix/s
2 843.857 MPix/s
3 422.894 MPix/s
4 422.836 MPix/s
5 282.134 MPix/s
6 282.118 MPix/s



Wurde bis heute nicht geklärt, was das ist.

Merkwürdig ist dafür irgendwie noch das falsche Wort....

Hat da mal jemand nachgeprüft, ob da wirklich noch Tri gefiltert wird??

Ich meine das wäre ja sonst cheat in Reinform...

Vielleicht sollte man auch die Trilineare Filterung des r420 noch mal genauer Untersuchen...

Das mit den lustigen 20% über Peak bei den PCGH Tests hat mich auch etwas stutzig gemacht...

Könnte es sein, das ATI die Tri-Filterung insgesamt irgendwie "optimiert" hat....(nett ausgedrückt)

Quasar
2004-05-06, 19:36:57
Also doch der Treiber. Zecki wollte mir nämlich die RV250-TMUs schon als trilinear verkaufen... dabei hatte ich das Stefan Payne im Archmark-Thread (mit damals noch alten Treibern) erfolgreich ausgeredet. Da lag es daran, daß alte Treiber unter OpenGL per default nicht die höchste Texturqualität aktiviert hatten - schob man ihn auf die höchste Stufen war alles wieder, wie man's erwartet.

Neuere Treiber scheinen hier aber etwas "fortschrittlicher".

Dave erwähnte auf B3D auch mal eine Art brilinearen Modus, den er in UT2003 mittels Screenshots von eingefärbten Mip-Levels auf einer RV350 entdekct zu haben glaubte....

:|

edit:
Der R360 verhält sich mit Cat4.4 im Archmark allerdings "normal"

ow
2004-05-06, 19:47:17
.

ow
2004-05-06, 19:52:28
.

InsaneDruid
2004-05-06, 19:56:14
Könnte da HyperZ irgendwie reinspielen? *dank Rotwein nichtmehr soooo klar denken kann*

Gas3t
2004-05-06, 20:46:24
Das ging aber schnell:

http://www.computers4sure.com/product.asp?productid=1909833&affid=933

§340 für die 800Pro

WEGA
2004-05-06, 21:25:15
Original geschrieben von Gas3t
Das ging aber schnell:

http://www.computers4sure.com/product.asp?productid=1909833&affid=933

§340 für die 800Pro

$$ - gefällt mir der preis. kann aber noch sinken ;)

Hellfire-Torrod
2004-05-06, 21:28:00
Ist auf jeden fall niedriger als vorher vermutet. Mal sehen, was die Karte in Deutschland kosten wird!

GRiNSER
2004-05-06, 21:31:14
http://www.pcgames.de/?article_id=310123 <- interessant - offiziell gibts keinen GFFX 6800 Ultra Extreme Chip - es steht den boardherstellern frei den GFFX 6800 Ultra als Extreme herauszubringen...

WEGA
2004-05-06, 21:45:49
Original geschrieben von GRiNSER
http://www.pcgames.de/?article_id=310123 <- interessant - offiziell gibts keinen GFFX 6800 Ultra Extreme Chip - es steht den boardherstellern frei den GFFX 6800 Ultra als Extreme herauszubringen...

hast du was anderes erwartet?

MikBach
2004-05-06, 21:56:38
Original geschrieben von WEGA
hast du was anderes erwartet?

Ich ja!

Wenn es den Herstellern frei steht, welche Taktraten sie nehmen, ist es imo Overclocking.

Rampage 2
2004-05-06, 22:12:28
Warum ist die X800XT eigentlich so viel schneller als die 6800U in den Shader-Benchmarks? Schließlich hat NV mit dem NV40 ja eine völlig neue und verbesserte Shader-Architektur eingeführt. Liegt der Vorteil etwa beim deutlich höherem Chiptakt des X800XT?

dildo4u
2004-05-06, 22:15:52
Original geschrieben von Rampage 2
Warum ist die X800XT eigentlich so viel schneller als die 6800U in den Shader-Benchmarks? Schließlich hat NV mit dem NV40 ja eine völlig neue und verbesserte Shader-Architektur eingeführt. Liegt der Vorteil etwa beim deutlich höherem Chiptakt des X800XT? so eindeutig ist die sache nicht http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTQ= mal is die karte vorn mal die

DanMan
2004-05-06, 22:31:33
Original geschrieben von WEGA
hast du was anderes erwartet?
Ist mir so lieber. Das bedeutet schließlich, dass eigentlich alle NV40 bis 450MHz vertragen sollten. Jetzt muss nur noch die RAMs der GT die gleichen Timings wie die der Ultra haben, und ich weiß was ich mir kaufe. :]

Und NU?
2004-05-06, 22:41:34
Original geschrieben von dildo4u
so eindeutig ist die sache nicht http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTQ= mal is die karte vorn mal die

Was war mit AF und co: ohne das spielt ein highendgamer nicht!

was im gottes namen will jemand mit einer nv40, die langsam ist wenn es um filter und co (Bildqualität) geht ????

Kein dausi kauft sich die karte dildo !

vergess deinen zauberbenchmark mal schnell ieder!

MikBach
2004-05-06, 22:43:16
Original geschrieben von DanMan
Das bedeutet schließlich, dass eigentlich alle NV40 bis 450MHz vertragen sollten.

Woher willst du das wissen?

Godmode
2004-05-06, 22:45:53
Hat eigentlich jemand AF anhand von Games getestet, also mit eingefärbten Maps? Oder nur mit AF-Tester?

Godmode
2004-05-06, 22:49:22
Original geschrieben von ShadowXX
Merkwürdig ist dafür irgendwie noch das falsche Wort....

Hat da mal jemand nachgeprüft, ob da wirklich noch Tri gefiltert wird??

Ich meine das wäre ja sonst cheat in Reinform...

Vielleicht sollte man auch die Trilineare Filterung des r420 noch mal genauer Untersuchen...

Das mit den lustigen 20% über Peak bei den PCGH Tests hat mich auch etwas stutzig gemacht...

Könnte es sein, das ATI die Tri-Filterung insgesamt irgendwie "optimiert" hat....(nett ausgedrückt)

Also wenn man mehr Fillrate hat, als bei Tri-Filtering normal möglich ist muss was optimiert sein! Oder gibt es irgendwelche neue Techniken um Fillrate zu sparen. Ich glaube das muss mal ordentlich nachgeprüft werden!

Winter[Raven]
2004-05-06, 22:49:53
Original geschrieben von MikBach
Woher willst du das wissen?

Weil nggalai mal verlauten ließ dass der Nv40 extrem OC freundlich ist :P! :)

DanMan
2004-05-06, 22:50:13
Original geschrieben von MikBach
Woher willst du das wissen?
Na laut nVidia Statement soll es doch keinen eigens hergestellten Ultra Extreme Chip geben, sondern der Board-Hersteller kann entscheiden, ob er den Chip mit 450MHz betreibt oder nicht.
Daraus kann man einerseits schließen, dass der Chip 450MHz i.A. gut verträgt, oder andererseits, dass nVidia einfach dem Boardhersteller das Risiko aufbürgt, den Chip so hoch zu takten.

Godmode
2004-05-06, 22:51:14
Original geschrieben von Rampage 2
Warum ist die X800XT eigentlich so viel schneller als die 6800U in den Shader-Benchmarks? Schließlich hat NV mit dem NV40 ja eine völlig neue und verbesserte Shader-Architektur eingeführt. Liegt der Vorteil etwa beim deutlich höherem Chiptakt des X800XT?

Würde mal sagen die Treiber sind noch recht Beta beim NV40 und Demirug meinte mal das der Shadercompiler noch nicht immer das tut was er soll. Ja die höhere Taktfrequenz macht sicherlich was aus, aber wenn du dir die Benches ansiehst, gibt es auch Shader wo die Ultra der XT davonzieht.

Also ich denke mal das die Ergebnisse mit der Zeit besser werden.

MikBach
2004-05-06, 22:58:33
Original geschrieben von Winter[Raven]
Weil nggalai mal verlauten ließ dass der Nv40 extrem OC freundlich ist :P! :)
Er hatte einfach ein gutes Exemplar erwischt.:)
Das muss aber noch nichts bedeuten! Warum kann Nvidia nicht schneller liefern? Warum kursieren Gerüchte. dass es nur wenige Ultras geben wird, zumindest in absehbarer Zeit.

Denk mal nach.:)

DrumDub
2004-05-06, 22:59:38
Original geschrieben von Winter[Raven]
Weil nggalai mal verlauten ließ dass der Nv40 extrem OC freundlich ist :P! :)

die 600mhz halt ich aber trotzdem für ein gerücht, die ein bekannter von nggalai angeblich mit dem nv40 erreicht hat, da die 6800ue bei 450mhz schon 15w (112w vs. 127w) mehr verbraucht als die 6800u. damit wärens bei 600mhz bei linearer skalierung (was aber nicht der fall ist bei der leistungsaufnahme) schon 172w. abgesehen davon, dass dann die speicherbandbreite arg limitiert.

qweqwe
2004-05-06, 22:59:49
Original geschrieben von Winter[Raven]
Weil nggalai mal verlauten ließ dass der Nv40 extrem OC freundlich ist :P! :)

Und weil er so OC freundlich ist mußte NV auch so einen Sauger als Lüfter nehmen ;D

Godmode
2004-05-06, 23:03:41
Original geschrieben von DrumDub
die 600mhz halt ich aber trotzdem für ein gerücht, die ein bekannter von nggalai angeblich mit dem nv40 erreicht hat, da die 6800ue bei 450mhz schon 15w (112w vs. 127w) mehr verbraucht als die 6800u. damit wärens bei 600mhz bei linearer skalierung (was aber nicht der fall ist bei der leistungsaufnahme) schon 172w. abgesehen davon, dass dann die speicherbandbreite arg limitiert.

Es war ne Dev Karte, und anscheinend gibts unter 1000 Karten nur ein paar die so nen hohen Takt erreichen können. Vielleicht war ja auch ein 3 Slot Kühler oder noch was größeres drauf keine Ahnung.

Man müsste Nggalai nachmal fragen, wie er jetzt dazu steht, aber ich kanns mir auch fast nicht vorstellen.

Mitleser
2004-05-06, 23:12:31
Hallo zusammen,

ich würde mich gerne mit ein paar Gamern in München treffen.

Thema: X800Pro (Bench, Overclock, Test).

Interresse?

Br
Peter

dfgdfg
2004-05-06, 23:46:52
Laut Geizhals ist die X800 pro in ein paar Tagen verfügbar,wie schauts mit der XT aus kommt die erst im Juni ?

http://www.geizhals.at/deutschland/a98884.html

Fliewatüüt
2004-05-07, 00:29:10
Original geschrieben von LovesuckZ
Es geht auch alles mit einer CPU, wo ist also der Sinn hinter dieser Aussage?
Der Sinn ist, letztendlich zählt nur die Geschwindigkeit bei einer gegebenen Qualität. Pixelshader 3.0 an sich ist bedeutungslos. Meine Meinung zu den zwei neuen Grafik-Chips ist, in Abwandlung eines bekannten Leitsatzes aus der Medienbranche; "Speed sells".
Also, zwischen ATi und nVidia herrscht nach den ersten Eindrücken ein Gleichstand, mit leichten Vorteilen für ATi.
Weil - wie beim Boxen - der Herausforderer deutlich gewinnen sollte, die Benchmarks von nVidia in Far Cry zu kurzfristig geändert wurden um als gesichert zu gelten und ATi das schlankere Design hat: Stromanschluß, Kühler, Lautstärke.
Der endgültige Sieger wird aber erst mit Karten aus dem Ladenverkauf und einigermaßen vernünftigen Treibern zu ermitteln sein. Bis dahin ist noch alles offen.

Winter[Raven]
2004-05-07, 00:40:15
Also, zwischen ATi und nVidia herrscht nach den ersten Eindrücken ein Gleichstand, mit leichten Vorteilen für ATi

Tjö, es wurde sehr oft gesagt, dass sollte ATI nicht extrem/deutlich schneller sein als der NV Pendant, ist es sogut wie sicher das ATI dieses Jahr wohl ehe weniger Einnahmen haben wird als noch zu R3xx Zeiten.

ATI musste mit dem Speed überzeugen und Nvidia in diesem Bezug ausstechen, derzeit sieht es nach einem Gleichstand aus, ATI gewinnt hier, NV gewinnt dort.

Wobei die ATI Treiber viel ausgereifter sind auf Grund der sehr starken Ähnlichkeit zum R3xx, als das von Nvidia.

Unsere 3DGurus meinten, dass in diesem Falle sogut wie alle DEV's auf den Nv40 umteigen werden und Nvidia mit ihrer Shader 3.0 Masche den Markt beherschen wird.

Man überweißt paar Dev's bissel kohle auf den Konto damit diese längere Shader einbauen, und je länger desto schneller wird der NV40. Deswegen arbeitet die Zeit für Nvidia und nicht ATI.

Sphinx
2004-05-07, 00:47:16
Original geschrieben von Winter[Raven]
...und Nvidia mit ihrer Shader 3.0 Masche den Markt beherschen wird.

LoL

- Warum hat ATI nicht mit ihrem PS1.4 den Markt beherscht.
- Warum hat ATI nicht mit ihrem PS2.0 den Markt beherscht.

- Warum sollte ATI nicht mit PS2.x den Markt beherrschen.
- Warum sollte ATI nicht mit PS4.0 den Markt beherrschen.

^^ Stell dir diese Fragen.

Original geschrieben von Winter[Raven] Man überweißt paar Dev's bissel kohle auf den Konto damit diese längere Shader einbauen, und je länger desto schneller wird der NV40. Deswegen arbeitet die Zeit für Nvidia und nicht ATI.

^^ Je länger die Shader werden desto schneller wird der NV40 - zeigmal her die Benchmarks.

tokugawa
2004-05-07, 00:50:27
Original geschrieben von Fliewatüüt
Der Sinn ist, letztendlich zählt nur die Geschwindigkeit bei einer gegebenen Qualität. Pixelshader 3.0 an sich ist bedeutungslos. Meine Meinung zu den zwei neuen Grafik-Chips ist, in Abwandlung eines bekannten Leitsatzes aus der Medienbranche; "Speed sells".
Also, zwischen ATi und nVidia herrscht nach den ersten Eindrücken ein Gleichstand, mit leichten Vorteilen für ATi.
Weil - wie beim Boxen - der Herausforderer deutlich gewinnen sollte, die Benchmarks von nVidia in Far Cry zu kurzfristig geändert wurden um als gesichert zu gelten und ATi das schlankere Design hat: Stromanschluß, Kühler, Lautstärke.
Der endgültige Sieger wird aber erst mit Karten aus dem Ladenverkauf und einigermaßen vernünftigen Treibern zu ermitteln sein. Bis dahin ist noch alles offen.

Stromanschluß stimmt.

Kühler und Lüfter können und werden auf den Endprodukten noch komplett anders sein.


Von der Kühlung des Vorserienmodells auf das Serienmodell zu schließen war schon das Todesurteil der FX 5800 Ultra.

Denn der "Fön" derer wurde tatsächlich nach den ersten Reviews und Kritiken noch etwas überarbeitet (war aber zugegebenermaßen immer noch laut).

Mal abgesehen davon dass die meisten Hersteller sowieso wieder eigene Designs verwenden. Und wenn MSI wieder eine geniale Kühllösung wie den Twin-Flow entwickelt, dann wird deren 6800 Ultra sicher leiser als die X800 XT (und braucht auch nur einen Slot).

deekey777
2004-05-07, 00:52:32
Nur so am Rande: Die X800Pro und XT bekommen eine Lüftersteuerung. Und sie sind schon jetzt extrem leise.

Winter[Raven]
2004-05-07, 01:33:47
Warum hat ATI nicht mit ihrem PS1.4 den Markt beherscht.


Weil der Einsatz der 1.4 Version für Dev's viel mehr arbeit war;).Damals PS 1.4 einzupflegen hätte Zeit und damit Geld gekostet, die Engines mussten umgeschrieben werden, bei der 3.0 Version braucht es nicht, man compiliert die Shader und fertig.

- Warum hat ATI nicht mit ihrem PS2.0 den Markt beherscht.


Die letzten Monate verschlafen, oder was?


Warum sollte ATI nicht mit PS2.x den Markt beherrschen.

Man schreibt paar Anwednungen die durch Shader 3.0 schneller ablaufen und zeigt mit dem Finger auf ATI und sagt die taugen nichts.

^^ Je länger die Shader werden desto schneller wird der NV40 - zeigmal her die Benchmarks.

Antworten per Quote von Demirug ... :)

Wenn meine Prognose aber bis zu diesem Punkt stimmt wird ATI je mehr gerechnet wird boden verlieren.


Wieso glaubst du rät Nvidia den Entwicklern, komplexe und lange Shader zubenützen?

Warum sollte ATI nicht mit PS4.0 den Markt beherrschen.


Jetzt holst du ein bisschen zuweit aus, meinst du nicht? Diese wirst du vielleicht erst wohl beim R600 sehn. Bei Nvidia könnten diese shcon mit dem NV50 kommen, der Nv40 ist wirklich schon fast eine 4.0 Hardware ^^.

MarcWessels
2004-05-07, 03:53:48
Hier mal die PCGH-Benchmarkerbgebnisse mit errechnetem Geschwindigkeitsverlust durch Deaktivierung der Stage"optimierung" auf der X800XT->

http://www.forumdeluxx.de/forum/showthread.php?t=57503&page=5&pp=25

Sphinx
2004-05-07, 04:09:59
Original geschrieben von Winter[Raven]
Weil der Einsatz der 1.4 Version für Dev's viel mehr arbeit war;).Damals PS 1.4 einzupflegen hätte Zeit und damit Geld gekostet, die Engines mussten umgeschrieben werden, bei der 3.0 Version braucht es nicht, man compiliert die Shader und fertig.

Dafür gibt es Tools...


Original geschrieben von Winter[Raven]
Die letzten Monate verschlafen, oder was?

Erm... sachlich bleiben.

[B]
Man schreibt paar Anwednungen die durch Shader 3.0 schneller ablaufen und zeigt mit dem Finger auf ATI und sagt die taugen nichts.

Ja sicherlich.


[B]Wieso glaubst du rät Nvidia den Entwicklern, komplexe und lange Shader zubenützen?

Vergiß nicht wieviele eine minderwertige Grafikkarten besitzen...(DX9.0 GF5200...) Da wird Geld|Kohle gemacht von den Spieleherstellern - die werden fleißig PS2.0 + PS2.x Hardware sicherlich bestens unterstützen damit sie ihren Absatz haben werden...

[B]
Jetzt holst du ein bisschen zuweit aus, meinst du nicht? Diese wirst du vielleicht erst wohl beim R600 sehn. Bei Nvidia könnten diese shcon mit dem NV50 kommen, der Nv40 ist wirklich schon fast eine 4.0 Hardware ^^.

Erm ich denke nicht. Ich hol nur soweit aus was du da prognostier´st. Ich meinerseits bin mit der Entwicklung seitens ATI und NV sehr zufrieden. Welche Graka~features man bevorzugt und welche nicht und auf welche Leistung man pro Feature Wert legt und nicht sei jedem selbstüberlassen.

Ich für meinen Teil werde diese Generation - Aufgrund meiner kommenden Aufrüstung auf PCI-E ehhh auslassen.

betasilie
2004-05-07, 04:27:09
Original geschrieben von Winter[Raven]
Jetzt holst du ein bisschen zuweit aus, meinst du nicht? Diese wirst du vielleicht erst wohl beim R600 sehn. Bei Nvidia könnten diese shcon mit dem NV50 kommen, der Nv40 ist wirklich schon fast eine 4.0 Hardware ^^.
Ich glaube den Kommentar zu diesem Schwachsinn spar ich mir lieber.

Cpl. Dwayne Hicks
2004-05-07, 04:35:28
Kann man davon ausgehen dass die treiber für R3x0 karten zusammen mit den R420 treibern noch schneller für spiele werden? Wegen der ähnlichkeit zwischen den beiden???

Sphinx
2004-05-07, 04:41:32
Original geschrieben von Odai Hussein
Kann man davon ausgehen dass die treiber für R3x0 karten zusammen mit den R420 treibern noch schneller für spiele werden? Wegen der ähnlichkeit zwischen den beiden???

Nein. Nur im Rahmen der üblichen BugFixes + Optimierungen.

Alexander
2004-05-07, 05:54:08
Original geschrieben von Winter[Raven] Tjö, es wurde sehr oft gesagt, dass sollte ATI nicht extrem/deutlich schneller sein als der NV Pendant, ist es sogut wie sicher das ATI dieses Jahr wohl ehe weniger Einnahmen haben wird als noch zu R3xx Zeiten.

ATI musste mit dem Speed überzeugen und Nvidia in diesem Bezug ausstechen, derzeit sieht es nach einem Gleichstand aus, ATI gewinnt hier, NV gewinnt dort.

Man kann sicher darueber streiten wer jetzt wo schneller ist. Ich persoenlich halte die X800XT schon fuer schneller, weil sie in den Games, die ich so zocke, teilweise doch deutlich schneller ist (z.B. FarCry...waehrend ich Halo nicht spiele, wo ja die 6800Ultra besser ist).

Allerdings kann ich der Argumentation, dass ATI viel schneller sein muesste, nicht so ganz folgen...fuer mich als Spieler machen die (zweifelsohne vorhandenen) besseren Features des NV40 keinen grossen Unterschied (fuer Devs sieht das vielleicht anders aus). Der einzig echte Vorteil koennte sich aus den PS3.0 ergeben aber auch da bin ich noch skeptisch...da muss man erstmal abwarten was Benches sagen und wie schnell das von den Herstellern akzeptiert wird.

Insgesamt glaube ich nicht, dass ATI aufgrund der PS2.x einen echten Nachteil hat...dafuer haben einfach zu viele Leute eine PS2.0 Grafikkarte im Rechner...das kann man nicht vernachlaessigen (hat man ja am Aufschrei gesehen, den es gab als bekannt wurde, dass HL2 auf ATI Karten viel schneller laeuft).

Und da man ja immer noch besser auf die ATI Karten optimieren kann wird sich dieser Vorteil vielleicht mit dem PS3.0 Vorteil der 6800Ultra egalisieren.

Ausserdem finde ich die Ergonmie der ATI-Karten besser. Speziell in meinem Fall, wo der erste PCI Slot des Mainboards eine INT-Leitung fuer sich ganz alleine hat, ist mir eine 1 Slot Loesung lieber.

Alexander

MarcWessels
2004-05-07, 06:17:33
Original geschrieben von Alexander
(z.B. FarCry...waehrend ich Halo nicht spiele, wo ja die 6800Ultra besser ist).

Nö, ATI ist dort schneller... ;)

Radeonator
2004-05-07, 08:07:53
Original geschrieben von Alexander
Man kann sicher darueber streiten wer jetzt wo schneller ist. Ich persoenlich halte die X800XT schon fuer schneller, weil sie in den Games, die ich so zocke, teilweise doch deutlich schneller ist (z.B. FarCry...waehrend ich Halo nicht spiele, wo ja die 6800Ultra besser ist).


Faktisch stimmt das nicht. Egal was du glaubst, so ist die nV40 oftmals genausoviel schneller , je nach Game/Anwendung. Erstmalig sind wir Enduser nun vor der Qual der Wahl und das ist gut so...

Original geschrieben von Alexander
Insgesamt glaube ich nicht, dass ATI aufgrund der PS2.x einen echten Nachteil hat...dafuer haben einfach zu viele Leute eine PS2.0 Grafikkarte im Rechner...das kann man nicht vernachlaessigen (hat man ja am Aufschrei gesehen, den es gab als bekannt wurde, dass HL2 auf ATI Karten viel schneller laeuft).


HL2 ist nicht fertig, woher also der glaube das es auf ATi Karten so toll performen wird??? NEUE features sind immer ein Kaufgrund. Viele Otto normal Anwender lesen "mit Unterstützung von XYZ und ZXY und...blabla" und werden darum eher eine solche Karte kaufen. Anders als bei DX8, wo es 2 Generationen von Karten gebraucht hat, gibt und gab es sehr schnell DX9 Features unterstützende Games(Ja, unterstützende, weils keine reinrassigen DX9 Titel gibt.... ) und es folgend in bälde viele mehr. Zudem ist es nicht schwierig für PS3 zu erweitern.

Original geschrieben von Alexander
Und da man ja immer noch besser auf die ATI Karten optimieren kann wird sich dieser Vorteil vielleicht mit dem PS3.0 Vorteil der 6800Ultra egalisieren.


Auch hier ein jein mit starker Tendents zu Nein! Es ist bei FX vs r300 so gewesen, bei der nV40 stimmt diese Aussage nicht mehr, ergo falsch...

Original geschrieben von Alexander
Ausserdem finde ich die Ergonmie der ATI-Karten besser. Speziell in meinem Fall, wo der erste PCI Slot des Mainboards eine INT-Leitung fuer sich ganz alleine hat, ist mir eine 1 Slot Loesung lieber.

Alexander

Es gibt bereits 1-Slot Lösungen, bitte informiere dich erstmal genauer...

Quasar
2004-05-07, 08:09:20
Original geschrieben von MarcWessels
Hier mal die PCGH-Benchmarkerbgebnisse mit errechnetem Geschwindigkeitsverlust durch Deaktivierung der Stage"optimierung" auf der X800XT->

http://www.forumdeluxx.de/forum/showthread.php?t=57503&page=5&pp=25

Darf man fragen, welchen "Verlust"-Faktor du für diese Rechnung zugrunde gelegt hast?

edit:
... denn davon abgesehen, daß du z.B. in der 1600er Auflösung komplett "vergessen" hast, die Optimierung rauszurechnen, ziehst du bei HALO und Maxie II so ca. 1,5-3% ab, im Far Cry Aussenlevel ~20%.
Das alles scheint mir ein wenig... undurchsichtig?

Quasar
2004-05-07, 08:46:18
Original geschrieben von Alexander
Und da man ja immer noch besser auf die ATI Karten optimieren kann wird sich dieser Vorteil vielleicht mit dem PS3.0 Vorteil der 6800Ultra egalisieren.

Hier irrst du, IMO.
Das "Problem" (eigentlich ein Vorteil) ist, daß HLSL-optimierte Games nahezu auf Maß für die R3/4xx-Architektur zugeschnitten sind. Zusätzliche Optimierungen sind da eher selten.

Ausgehend vom stark optimierungsbedürftigen nV3x (ich rede erstmal rein vom instruction-reordering) geht der nV40 einen Schritt in Richtung der leichteren Optimierbarkeit - aber auch hier ist das Potential für Optimierungen größer.

Wenn die IHVs mal weniger mit ihren Filtern rumspielen würden, und stattdessen ordentlich (!) ihre Shadercompiler optimierten, denke ich, daß bei nV ein höherer prozentualer Gewinn herauszuholen ist.
Ob das dann reicht, auf die X800XT aufzuholen - k.A..

Quasar
2004-05-07, 08:51:33
Original geschrieben von Sphinx
^^ Je länger die Shader werden desto schneller wird der NV40 - zeigmal her die Benchmarks.

http://www.3dcenter.org/artikel/r420_benchmarks/index22.php

ow
2004-05-07, 08:57:39
.

Alexander
2004-05-07, 09:03:42
Original geschrieben von Radeonator
Faktisch stimmt das nicht. Egal was du glaubst, so ist die nV40 oftmals genausoviel schneller , je nach Game/Anwendung. Erstmalig sind wir Enduser nun vor der Qual der Wahl und das ist gut so...



HL2 ist nicht fertig, woher also der glaube das es auf ATi Karten so toll performen wird??? NEUE features sind immer ein Kaufgrund. Viele Otto normal Anwender lesen "mit Unterstützung von XYZ und ZXY und...blabla" und werden darum eher eine solche Karte kaufen. Anders als bei DX8, wo es 2 Generationen von Karten gebraucht hat, gibt und gab es sehr schnell DX9 Features unterstützende Games(Ja, unterstützende, weils keine reinrassigen DX9 Titel gibt.... ) und es folgend in bälde viele mehr. Zudem ist es nicht schwierig für PS3 zu erweitern.

Auch hier ein jein mit starker Tendents zu Nein! Es ist bei FX vs r300 so gewesen, bei der nV40 stimmt diese Aussage nicht mehr, ergo falsch...

Es gibt bereits 1-Slot Lösungen, bitte informiere dich erstmal genauer...

Hi,

1. Ist der NV40 nur dann schneller wenn mann auf AF und co verzichtet, das ist üblicherweise bei 500 € Karten nicht der Wunsch eines einzelnen! Bei höheren Qualitätsstuffen AF und co wird der NV40 um bis 50% langsamer!

Es kommt sogar noch schlimmer, der kleine Bruder vom R420 mit nur 12 Pipes ist sogar noch schneller!

2. Ist es PC Selbstmord die NV40 als 1-Slot Lösung zu verwenden, die Abwärme vom Chip und Speicher kann nicht optimal entweichen.

3. Hätte ATI Wert darauf gelegt so ein Strom-Monster zu kreieren hätten sie den NV40 als FX5200 stehen gelassen (PERFORMACE-MÄSSIG).

Das muss mann sich ersteinmal auf der Zunge zergehen lassen, weniger Transis und weniger Stromverbrauch und trotzdem schneller!

4. Ist nv immer noch bei PS.1x unter Fracry stehen geblieben, wo bitte ist da die Logik? Ersteinmal würde ich an nv's Stelle PS2.0 100% Unterstützen und genau diesen Gedanken machen sich auch die Dev's.

5. Wo ist die Verfügbarkeit?? nach 2 Monaten immer noch keine NV40 im Handel!!!

6. Wo sind die tollen 6800'er Reviews auf der nvidia-Homepage ??

7. Ich bin mir 100% SICHER, wäre die Situation andersrum, sprich NV40 = von ATI und R420 = von nvidia würde hier eine ganz andere Meinung die Runde machen..

MuLuNGuS
2004-05-07, 09:09:01
ey wißt iht was?

mir ist und war wurscht ob ich nu NVIDIA oder eine ATI in meinen rechner stecke.

ich hol mir 'ne X800XT und falls dann wirklich irgendwann mal SM3.0 was bringen sollte kick ich die karte wieder und hol mir dann eine andere, meinetwegen nvidia.

so einfach ist das..hehe

Quasar
2004-05-07, 09:16:32
Original geschrieben von Alexander
Hi,

1. Ist der NV40 nur dann schneller wenn mann auf AF und co verzichtet, das ist üblicherweise bei 500 € Karten nicht der Wunsch eines einzelnen! Bei höheren Qualitätsstuffen AF und co wird der NV40 um bis 50% langsamer!

Es kommt sogar noch schlimmer, der kleine Bruder vom R420 mit nur 12 Pipes ist sogar noch schneller!

2. Ist es PC Selbstmord die NV40 als 1-Slot Lösung zu verwenden, die Abwärme vom Chip und Speicher kann nicht optimal entweichen.

3. Hätte ATI Wert darauf gelegt so ein Strom-Monster zu kreieren hätten sie den NV40 als FX5200 stehen gelassen (PERFORMACE-MÄSSIG).

Das muss mann sich ersteinmal auf der Zunge zergehen lassen, weniger Transis und weniger Stromverbrauch und trotzdem schneller!

4. Ist nv immer noch bei PS.1x unter Fracry stehen geblieben, wo bitte ist da die Logik? Ersteinmal würde ich an nv's Stelle PS2.0 100% Unterstützen und genau diesen Gedanken machen sich auch die Dev's.

5. Wo ist die Verfügbarkeit?? nach 2 Monaten immer noch keine NV40 im Handel!!!

6. Wo sind die tollen 6800'er Reviews auf der nvidia-Homepage ??

7. Ich bin mir 100% SICHER, wäre die Situation andersrum, sprich NV40 = von ATI und R420 = von nvidia würde hier eine ganz andere Meinung die Runde machen..

ad1) Gegenfrage: Ist es der Wunsch von High-End Gamern, nur eine von acht Texturstages trilinear-anisotrop gefiltert zu bekommen und keine Möglichkeit zu haben, Alpha-Test Texturen glätten zu lassen?

ad2) Wieso? Die FX5950 als Karte hat teilweise eine höhere Stromaufnahme und lautere Kühlung. Trotzdem gibt es von ihr problemlos laufende 1-Slot Lösungen (s. MSI).

ad3)
Q:
Would it have actually been possible for you to have had a Shader 3.0 part available now if you’d wanted to, at a reasonable performance level?

A:
As you say, there’s always trade-off’s. There’s the trade-off of performance and die size. The answer is yes we could – the die size would have been fairly large to the point where we weren’t sure how produce-able it would be in 130nm and we didn’t think that 90nm was really going to be there for ’04 production. Now, NVIDIA has put something in 130nm that’s die size is 10-15% bigger and there’s still some understanding we have to get on their architecture. (http://www.beyond3d.com/interviews/daveorton/index.php?p=3)

ad4)Das tun sie. Nur leider versucht FC eine Device Erkennung, die nicht unproblematisch ist und zwingt somit die nV40 auf den nV3x-Pfad.
Schau dir doch einfach mal Far Cry ohne diesen mist-Patch an. =)

ad5) Zwei Monate? *rechne* 14.4.04 bis heute 7.5.04.
Ja Mei! Das ist ja nichtmal ein Monat... Gainward will bsw. innert 10 Tagen "shippern"...
nVidia sagte ja auch was von Verfügbarkeit in 45 Tagen. ATi behauptete, die X800 Pro "shippere" am 4.5.
-> Wo kann ich die kaufen?

ad6) ???

ad7) Wieso? Die Wendehälse erkennst du, wenn du dir mal die Argumentationslinien anschaust, die einige hier zum Thema R8500/GF4MX/R9200/FX5200 so vertreten haben...

Winter[Raven]
2004-05-07, 09:36:18
Original geschrieben von betareverse
Ich glaube den Kommentar zu diesem Schwachsinn spar ich mir lieber.

Ohhh ... ist unser Ati amateuer etwa persönlich angegriffen?

Es ist Fakt das ATI keine 3.0 Version eingebaut hat a) sie kein FP32 können und b) es nicht für schnn genung und wichtig hatlten.

Was bitte soll daran sich ändern? R500 kommt mit 3.0 Version wenn auch die Anwendungen dafür da sind.

Und wieso Schwachsinn? Demirug hat mal gemein, dass es nur eine Frage des Treibers ist, ob der NV40 Shader 4.0 können wird oder nicht :P.

Mr. Tweety
2004-05-07, 09:42:19
Saphire X800 Pro

Preis ohne Mwst.
365€ für Retail;
349€ für Bulk

Lieferbar vorraussichtlich am 27.5.2004

Quelle: Ingram Micro

dhthdfh
2004-05-07, 09:47:50
Original geschrieben von Quasar
http://www.3dcenter.org/artikel/r420_benchmarks/index22.php

Zitat Bericht:

Allerdings hat die Radeon X800 Pro auch ihre großen Momente in den Benchmarks - und zwar dann, wenn sie unter 6x Anti-Aliasing ran darf. Dann hat die GeForce 6800 Ultra nur noch ihr 8x Anti-Aliasing aufzubieten, welches allerdings durch seinen reichlichen Supersampling-Anteil keine Freude bei der Performance aufkommen läßt. Und so gewinnt die Radeon X800 Pro jeden einzelnen Benchmark unter 6x Anti-Aliasing mit haushohen Vorsprüngen von bis zu 280 Prozent :-) (Max Payne 2: The Fall of Max Payne), sofern in dem jeweiligen Spiel keine CPU-Limitierung vorliegt. Für diese hohe Anti-Aliasing ist die Radeon X800 Pro also mit Abstand die beste Karte.

Zitat Ende:

Lol, das war es wohl für NV40

dhdfhdfh
2004-05-07, 09:50:12
Original geschrieben von Winter[Raven]
Ohhh ... ist unser Ati amateuer etwa persönlich angegriffen?

Es ist Fakt das ATI keine 3.0 Version eingebaut hat a) sie kein FP32 können und b) es nicht für schnn genung und wichtig hatlten.

Was bitte soll daran sich ändern? R500 kommt mit 3.0 Version wenn auch die Anwendungen dafür da sind.

Und wieso Schwachsinn? Demirug hat mal gemein, dass es nur eine Frage des Treibers ist, ob der NV40 Shader 4.0 können wird oder nicht :P.

Ja klar, lies mal die Specs von DX9x, da steht FP24 und kein FP32 !!!!

Winter[Raven]
2004-05-07, 09:51:32
Ja klar, lies mal die Specs von DX9x, da steht FP24 und kein FP32 !!!!

Vielleicht solltest du mal reinschauen oder brille putzen oder was auch immer, da steht schwarz auf weiß:

Shader 2.0: FP24 as Default !

Shader 3.0: FP32 as Default !

SamLombardo
2004-05-07, 09:54:09
Original geschrieben von dhthdfh
Zitat Bericht:

Allerdings hat die Radeon X800 Pro auch ihre großen Momente in den Benchmarks - und zwar dann, wenn sie unter 6x Anti-Aliasing ran darf. Dann hat die GeForce 6800 Ultra nur noch ihr 8x Anti-Aliasing aufzubieten, welches allerdings durch seinen reichlichen Supersampling-Anteil keine Freude bei der Performance aufkommen läßt. Und so gewinnt die Radeon X800 Pro jeden einzelnen Benchmark unter 6x Anti-Aliasing mit haushohen Vorsprüngen von bis zu 280 Prozent :-) (Max Payne 2: The Fall of Max Payne), sofern in dem jeweiligen Spiel keine CPU-Limitierung vorliegt. Für diese hohe Anti-Aliasing ist die Radeon X800 Pro also mit Abstand die beste Karte.

Zitat Ende:

Lol, das war es wohl für NV40


Einfach lächerlich! Lies mal den 3DC NV40 Artikel! Dann würdest Du wissen, dass der NV40 noch einen (treiberbedingten) 8AA Bug hat. Das 4XAA des NV40 ist dagegen rasend schnell und sieht super aus! Das 6xAti gegen das 8X NV zu benchen halte ich deswegen für NULL aussagekräftig, ja sogar realitätsfremd, da falsche tatsachen suggerriert werden(@3DC).

dsfsdfg
2004-05-07, 09:54:16
Shader 3.0 bringt mit Ihrem FP32 keinen Vorteil bei allen Spielen die derzeit draussen sind!

Es ist Shader 2.0 angesagt und nichts anderes war gemeint im Bezug auf Shader 2.0.

Nv kann halt kein PS 2.0 ! Aus diesem Grund ist PS 3.0 auf Ihren Karten!

Uller
2004-05-07, 09:54:29
Wurde glaube ich bisher nicht wirklich erwähnt, der beste Test im Netz:
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1
(incl. AF-Vergleichsscreenshots im Serious Sam UV-Modus, mit Optimierung an und aus, mit Treibern 60.72 u. 61.11)

Auch sehr gut finde ich:
http://www.hothardware.com/viewarticle.cfm?articleid=517

Habe beide sehr ähnliche Ergebnisse, diese sind daher in meinen Augen sehr glaubhaft.
Es wurden alle neuen Karten inkl. GT und Ultra EE getestet, daher auch die neuesten Treiber 61.11 verwendet.

Das einzige was fehlt sind Benchmarks / Screenshots mit ATis Optimierung ausgeschaltet, aber ansonsten finde ich diese Tests sehr komplett, vor allem techreport ist ja sehr umfangreich und bisher glaube ich hier gnadenlos überagangen.

Deutlich zu sehen in den Serious Sam Screenshots ist dass Nvidia mit den neuen Treibern sehr unsauber arbeitet.
Kleiner Vergleich:
Radeon X800XT:
http://techreport.com/reviews/2004q2/radeon-x800/x800-aniso-color.png

NV40 60.72:
http://techreport.com/reviews/2004q2/radeon-x800/6800-aniso-color.png

NV40 61.11:
http://techreport.com/reviews/2004q2/radeon-x800/6800-6111-aniso-color.png

SamLombardo
2004-05-07, 09:58:59
Original geschrieben von Alexander
Hi,

3. Hätte ATI Wert darauf gelegt so ein Strom-Monster zu kreieren hätten sie den NV40 als FX5200 stehen gelassen (PERFORMACE-MÄSSIG).


Har Har! Ati hat es einfach nicht hinbekommen! Daswegen sind sie mit ihrem sogenannten "Next Gen" Chip mit dem Technikstandard von vor 2 Jahren angetreten.
Wenn sie gewollt hätten:bonk: MEGALOOOOL

efjsfsrf
2004-05-07, 09:59:56
Conclusions
The Radeon X800 series cards perform best in some of our most intensive benchmarks based on newer games or requiring lots of pixel shading power, including Far Cry, Painkiller, UT2004, and 3DMark03's Mother Nature scene—especially at high resolutions with edge and texture antialiasing enabled. The X800s also have superior edge antialiasing. Their 6X multisampling mode reduces edge jaggies better than NVIDIA's 8xS mode, and the presence of temporal antialiasing only underscores ATI's leadership here. With a single-slot cooler, one power connector, and fairly reasonable power requirements, the Radeon X800 XT Platinum Edition offers all its capability with less inconvenience than NVIDIA's GeForce 6800 Ultra. What's more, ATI's X800 series will be in stores first, with a more mature driver than NVIDIA currently has for the GeForce 6800 line.

Das sagt ja alles aus !

Exxtreme
2004-05-07, 10:01:40
Original geschrieben von dhdfhdfh
Ja klar, lies mal die Specs von DX9x, da steht FP24 und kein FP32 !!!!
In der DX9-Spezifikation steht MINDESTENS 24 Bit FP.

grdgrdfgds
2004-05-07, 10:02:11
Original geschrieben von SamLombardo
Har Har! Ati hat es einfach nicht hinbekommen! Daswegen sind sie mit ihrem sogenannten "Next Gen" Chip mit dem Technikstandard von vor 2 Jahren angetreten.
Wenn sie gewollt hätten:bonk: MEGALOOOOL


....und haben das NEUE NV-Wunder haushoch geschlagen. Har Har! Weniger Strom, Weniger Transistoren und co.!

Weiterhin ist 3DC als Feature nicht von VORGESTERN!

Also , ersteinmal RICHTIG informieren und dann beteiligen an der Diskussion!

Quasar
2004-05-07, 10:03:25
Original geschrieben von Mr. Tweety
Saphire X800 Pro

Preis ohne Mwst.
365€ für Retail;
349€ für Bulk

Lieferbar vorraussichtlich am 27.5.2004

Quelle: Ingram Micro

Das wäre ja ziemlich geil - nicht der Termin, die Preise!

Original geschrieben von dhthdfh
Zitat Bericht:

Allerdings hat die Radeon X800 Pro auch ihre großen Momente in den Benchmarks - und zwar dann, wenn sie unter 6x Anti-Aliasing ran darf. Dann hat die GeForce 6800 Ultra nur noch ihr 8x Anti-Aliasing aufzubieten, welches allerdings durch seinen reichlichen Supersampling-Anteil keine Freude bei der Performance aufkommen läßt. Und so gewinnt die Radeon X800 Pro jeden einzelnen Benchmark unter 6x Anti-Aliasing mit haushohen Vorsprüngen von bis zu 280 Prozent :-) (Max Payne 2: The Fall of Max Payne), sofern in dem jeweiligen Spiel keine CPU-Limitierung vorliegt. Für diese hohe Anti-Aliasing ist die Radeon X800 Pro also mit Abstand die beste Karte.

Zitat Ende:

Lol, das war es wohl für NV40

Tja, das ist eben das Problem, wenn Leo Tests macht, die den Leser mehr fordern, als nur Balken anzustieren und das Fazit zu copy'n'pasten...

Frage: Was Supersampling ist, weißt du?

Original geschrieben von dhdfhdfh
Ja klar, lies mal die Specs von DX9x, da steht FP24 und kein FP32 !!!!

Wenn du jetzt DX9.0b gesagt hättest, würde ich dir zustimmen. Fakt ist aber, daß 9.0c FP32 zwingend voraussetzt.

Quasar
2004-05-07, 10:07:54
Original geschrieben von dsfsdfg
Nv kann halt kein PS 2.0 ! Aus diesem Grund ist PS 3.0 auf Ihren Karten!

Schade, daß meine Sig schon "voll" ist. Dein Spruch ist beinahe genaus ub0r-1337 wie der, der jetzt drin steht...

Exxtreme
2004-05-07, 10:08:24
Original geschrieben von Quasar
Fakt ist aber, daß 9.0c FP32 zwingend voraussetzt.
SM3.0 setzt 32 Bit FP voraus. =) Wenn du unter DX9c weiterhin SM2.0 nutzt, dann reichen 24 Bit FP aus. :)

gffdgfdg
2004-05-07, 10:09:32
Original geschrieben von Exxtreme
SM3.0 setzt 32 Bit FP voraus. =) Wenn du unter DX9c weiterhin SM2.0 nutzt, dann reichen 24 Bit FP aus. :)

Stimmt!

seahawk
2004-05-07, 10:10:07
Original geschrieben von Quasar
Schade, daß meine Sig schon "voll" ist. Dein Spruch ist beinahe genaus ub0r-1337 wie der, der jetzt drin steht...

Stimmt der ist zu gut :D

dgdfgdfg
2004-05-07, 10:12:06
ich liebe trolle

Quasar
2004-05-07, 10:16:04
Original geschrieben von Exxtreme
SM3.0 setzt 32 Bit FP voraus. =) Wenn du unter DX9c weiterhin SM2.0 nutzt, dann reichen 24 Bit FP aus. :)

Und wenn du unter DX9.0c den DX7-Pfad nutzt, reicht auch INT9 (vermutlich noch weniger) aus. :eyes:
Ich dachte eigentlich, es wäre klar, warum es hier geht (Tip: Es sind nicht Worklaubereien!), nämlich das Maximum, was die jeweilige Version lauffähig hergibt.

fgsfdgf
2004-05-07, 10:19:33
Original geschrieben von Quasar
Und wenn du unter DX9.0c den DX7-Pfad nutzt, reicht auch INT9 (vermutlich noch weniger) aus. :eyes:
Ich dachte eigentlich, es wäre klar, warum es hier geht (Tip: Es sind nicht Worklaubereien!), nämlich das Maximum, was die jeweilige Version lauffähig hergibt.

Die harten Fakten sprechen aber ein andere Sprache, zeig mir ein Game das davon profitiert.

Wenn diese Games rauskommen gibt es schon längst PS 4.0 und dann haben wir ein NEUE Situation.

D.h. es wird sich nächstes Jahr dann zeigen wer schneller ist bzw. welche Features von dann aktuellen Spielen unterstütz werden.

Ich tippe für Anfang 2005 auf 3DC und weiterhin PS 2.0.

Dieses Jahr ist für nv gelaufen, ich tippe auf 80% Marktanteil im Highend für ATI und 20% nv40 - Käufer haben wir ja hier schon*ggg*

Speku!

Fadl
2004-05-07, 10:20:21
Original geschrieben von Uller
Wurde glaube ich bisher nicht wirklich erwähnt, der beste Test im Netz:
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1
(incl. AF-Vergleichsscreenshots im Serious Sam UV-Modus, mit Optimierung an und aus, mit Treibern 60.72 u. 61.11)

Auch sehr gut finde ich:
http://www.hothardware.com/viewarticle.cfm?articleid=517

Habe beide sehr ähnliche Ergebnisse, diese sind daher in meinen Augen sehr glaubhaft.
Es wurden alle neuen Karten inkl. GT und Ultra EE getestet, daher auch die neuesten Treiber 61.11 verwendet.

Das einzige was fehlt sind Benchmarks / Screenshots mit ATis Optimierung ausgeschaltet, aber ansonsten finde ich diese Tests sehr komplett, vor allem techreport ist ja sehr umfangreich und bisher glaube ich hier gnadenlos überagangen.

Deutlich zu sehen in den Serious Sam Screenshots ist dass Nvidia mit den neuen Treibern sehr unsauber arbeitet.
Kleiner Vergleich:
Radeon X800XT:
http://techreport.com/reviews/2004q2/radeon-x800/x800-aniso-color.png

NV40 60.72:
http://techreport.com/reviews/2004q2/radeon-x800/6800-aniso-color.png

NV40 61.11:
http://techreport.com/reviews/2004q2/radeon-x800/6800-6111-aniso-color.png

Wirklich sehr interessant der test auf techreport.
Was sagen die Fachleute zu diesen Ergebnissen(vor allem zum 61.11 Treiber) ?

Mancko
2004-05-07, 10:21:52
Original geschrieben von Sphinx
LoL

- Warum hat ATI nicht mit ihrem PS1.4 den Markt beherscht.


Du vergleichst Äpfel mit Birnen.
Schauen wir mal zurück. Als ATI mit der Radeon8500 PS1.4 herausgebracht hat waren sie im relevanten Desktop Add in Card Market eine kleine Nummer. Ein Fliege mehr nicht.
Sie hatten vielleicht zwischen 15 und 20% Marktanteil. Nvidia hatte den Rest. Von den anderen brauchen wir gar nicht reden.
Desweiteren war PS1.4 mit Aufwand verbunden, der in keinem Verhältnis zum jetztigen Mehraufwand von SM3.0 steht.
Jetzt gibt es Hochsprachen. Die Programmierung und Compilierung ist erheblich vereinfacht worden. Das ist überhaupt kein Vergleich mehr zu damals.


- Warum hat ATI nicht mit ihrem PS2.0 den Markt beherscht.

Also rein von der Performance her haben sie das doch. Gesehen auf den Gesamtmarkt natürlich nicht. Das lag aber an Ihrer eigenen Blödheit. Sie haben schlichtweg verschlafen von Anfang an eine Palette von ganz unten bis ganz oben herauszubringen.
Glaubst du Nvidia hätte noch mehr als 50% Desktop Add in Card Marketshare, wenn ATI so etwas wie die FX5200, FX5600XT usw.. von Anfang an gebracht hätte?
ATI hat dieses Feld einfach nicht gründlich genug bedacht.
Eigene strategische Fehlentscheidung war das.
Dagegen hat Nvidia von Anfang an auf das gleiche Featureset in allen Karten der gleichen Generation gesetzt. Ob langsam oder nicht spielt keine Rolle. Das war geschickt und hat sie vor schlimmeren bewahrt. Die selbe Strategie fahren sie auch mit NV4x. Es wird wieder alles dabei sein von ganz unten bis ganz oben. Der Anreiz für Entwickler und vor allem Publisher ist so ganz anders, als wenn sie sich nur auf den NV40 und 45 beschränken würden.


- Warum sollte ATI nicht mit PS2.x den Markt beherrschen.

Weil sie dazu schlichtweg zu sehr gepennt haben. PS2.x von ATI ist weniger als PS2+ das Shadermodel der NV3x Reihe.
Die großen Performanceprobs gibts beim NV4x anscheinend auch nicht mehr, wenn man mal von den Beta Treibern und einigen noch verbuggten Spielen absieht.
Es gibt einfach keinen Grund ATIs 2.x zu berücksichtigen.
2.0 beherrschen sie gut. 3.0 dagegen gar nicht.


- Warum sollte ATI nicht mit PS4.0 den Markt beherrschen.

Hierüber kann man keine Aussage treffen, da es noch viel zu weit weg ist. Aussagen kann man derzeit nur über das Bekannte treffen.


^^ Je länger die Shader werden desto schneller wird der NV40 - zeigmal her die Benchmarks. [/SIZE]
[/quote]
Darum geht es nicht. Je länger die Shader werden, desto langsamer wird auch ein NV40 vergleichen zu einem NV40 mit kürzeren Shadern.
Aber je länger die Shader werden desto mehr fällt ein R420 ab. Darum gehts.
Der NV40 wird Leistung verlieren aber der R420 wird dazu auf Grund mangelnder Hardwareausstattung überproportional mehr Leistung verlieren, da mehrere Durchläufe benötigt werden. Nvidia weiss das und wird mit Sicherheit Entwickler dazu anhalten auf Lange und komplexe Shader zu setzen auch wenn dadurch natürlich auch das eigene Produkt zwangsläufig langsamer wird. Dafür werden aber auch die Effekte komplexer und schöner. Das kann man dann als Qualitätsvorteil zu simplen Shadern verkaufen, die eben kurz sind und auf beiden schnell laufen.

Wenn ich Nvidia wäre würde ich das genau so umsetzen.

Exxtreme
2004-05-07, 10:25:49
Original geschrieben von Quasar
Und wenn du unter DX9.0c den DX7-Pfad nutzt, reicht auch INT9 (vermutlich noch weniger) aus. :eyes:
Ich dachte eigentlich, es wäre klar, warum es hier geht (Tip: Es sind nicht Worklaubereien!), nämlich das Maximum, was die jeweilige Version lauffähig hergibt.
Ich weiss. Dummerweise kann sowas zu Missverständnissen führen und sich ausbreiten wie ein Lauffeuer. :D Schon vergessen, daß MSAA Texturen unscharf macht? X-D

gfsdgfsg
2004-05-07, 10:27:31
Ergo:
ATi hat mit dem R420-Chip erst einmal exzellent nachgezogen. Zwar besitzt dieser keine Shader 3.0 Fähigkeiten, doch die verbreiterte Architektur samt den hohen Taktraten ergeben eine Performance, welche absolut ausreichend erscheint, um es mit dem NV40-Chip aufzunehmen. Speziell die Radeon X800 Pro Grafikkarte konnte die GeForce 6800 Ultra zwar nicht schlagen, hat aber dafür auch einen besseren Preis anzubieten. Zudem offeriert die Radeon X800 Pro eine absolut herausragende Performance unter 6x Anti-Aliasing und ist jederzeit Herr der Lage im Vergleich zu den Grafikkarten der Vorgängergeneration. Dies macht die Radeon X800 Pro derzeit ganz klar zur mit Abstand besten Wahl in ihren Preissegment von 400 bis 450 Dollar/Euro

->>>>>>>>>>>>>>>>>>

Dem schließe ich mich diplomatisch an und hoffe die Schreierei hört endlich auf.

Für 2004 ist der R420 die bessere Wahl, 2005 wird kommen und dann werden andere Features wichtiger sein!

-> PCI Express Native !
-> PS 4.0
-> Passive Kühlung
-> Geringer Stromverbrauch

seahawk
2004-05-07, 10:29:49
Original geschrieben von fgsfdgf


Ich tippe für Anfang 2005 auf 3DC und weiterhin PS 2.0.

Dieses Jahr ist für nv gelaufen, ich tippe auf 80% Marktanteil im Highend für ATI und 20% nv40 - Käufer haben wir ja hier schon*ggg*

Speku!

Ein Feature das nicht Bestandteil von DX ist und das bisher nur von einer einzigen Karte unterstüzt wird, setzt sich also schneller durch als ein in DX9 formulierter Standard. Besonders weil die Umsetzung von PS3.0 relativ wenig Aufwand bedeutet.

Und auf welcher Hardware sollen den die SM4.0 Titel entwickelt werden, auf 2.0??

Wobei SM4.0 auf wahrscheinlich erst mit Longhorn und DXNext kommen wird. Damit dürfte der nächste völlig neue ATI Chip im Jahre 2005 wohl ein SM3.0 Chip sein. :D

Hotel
2004-05-07, 10:34:27
Original geschrieben von Mancko

Darum geht es nicht. Je länger die Shader werden, desto langsamer wird auch ein NV40 vergleichen zu einem NV40 mit kürzeren Shadern.
Aber je länger die Shader werden desto mehr fällt ein R420 ab. Darum gehts.
Der NV40 wird Leistung verlieren aber der R420 wird dazu auf Grund mangelnder Hardwareausstattung überproportional mehr Leistung verlieren, da mehrere Durchläufe benötigt werden. Nvidia weiss das und wird mit Sicherheit Entwickler dazu anhalten auf Lange und komplexe Shader zu setzen auch wenn dadurch natürlich auch das eigene Produkt zwangsläufig langsamer wird. Dafür werden aber auch die Effekte komplexer und schöner. Das kann man dann als Qualitätsvorteil zu simplen Shadern verkaufen, die eben kurz sind und auf beiden schnell laufen.

Wenn ich Nvidia wäre würde ich das genau so umsetzen.

Frage:

Glaubst du das Gameentwickler / Sales auf 70% Marktanteil verzichtet, die ja ATI bereits bekanntlich im Highend hat nur um die NV40 schneller zu machen????

Weiterhin peilen die den Massenmarkt an, der ja bekanntlich keine 400USD für eine Grafikkarte ausgeben wird!

Das heißt die Anforderungen werden bis 2005 nie über PS 2.0 bei der Grafikkarte herrausgehen.

Alles nur schlechtes Marketing was nvidia versucht!

Ich würde eher auf ein anderes Thema an nvidias Stelle setzen!

Aber das erzähl ich hier mal besser nicht!

Es wäre so EINFACH nvidia zum Marktführer trotz schlechterer Technik bzw. Qualität bei hohen Qualittseinstellungen zu machen........

fgfdgdfg
2004-05-07, 10:37:30
Original geschrieben von seahawk
Ein Feature das nicht Bestandteil von DX ist und das bisher nur von einer einzigen Karte unterstüzt wird, setzt sich also schneller durch als ein in DX9 formulierter Standard. Besonders weil die Umsetzung von PS3.0 relativ wenig Aufwand bedeutet.

Und auf welcher Hardware sollen den die SM4.0 Titel entwickelt werden, auf 2.0??

Wobei SM4.0 auf wahrscheinlich erst mit Longhorn und DXNext kommen wird. Damit dürfte der nächste völlig neue ATI Chip im Jahre 2005 wohl ein SM3.0 Chip sein. :D

Wir beide wissen nicht wie es 2005 sein wird !

Abwarten und Tee trinken sag ich maaaa!

seahawk
2004-05-07, 10:38:49
Original geschrieben von fgfdgdfg
Wir beide wissen nicht wie es 2005 sein wird !

Abwarten und Tee trinken sag ich maaaa!

Doch wir wissen wann Longhorn kommt.

Welchen Sinn macht dann SM4.0 Hardware, wenn es das Betriebsystem nicht mal unterstützt??

SamLombardo
2004-05-07, 10:42:30
Original geschrieben von Hotel
Frage:

Glaubst du das Gameentwickler / Sales auf 70% Marktanteil verzichtet, die ja ATI bereits bekanntlich im Highend hat nur um die NV40 schneller zu machen????



NV wird sicher! mit einigen Dollars erreichen, dass viele Games PS3.0 unterstützen. Und damit verzichten die Gameentwickler auch keineswegs auf Marktanteile, da die Spiele ja voraussichtlich auf Ati auch gut laufen werden. Da die PS3.0 Unterstützung wohl recht einfach zu machen ist, wird sie auch gemacht! NV wird sochon dafür sorgen (Geld)

Sam

BlueRaven
2004-05-07, 10:44:11
Ich meine doch das PixelShader 3.0 für dieses Jahr noch uninteressant ist weil es einfach noch keine PixelShader 3.0 Games gibt vielleicht am ende des jahre so vereinzelte aber das wars auch dann. Da hat ATI das richtige getan und am Speed gefeilt und den R420 Chip Optimiert (NEXTGEN CHIP) damit es so läuft wie es laufen soll und Nvidia hingegen Protzt mit neuen Features wobei die Features fürs nächste Jahr nicht schlecht wären aber für dieses Jahr bringen die eher weniger und man zahlt wie immer für etwas was man zum teil oder überhaupt nicht nutzen kann, aus dem Fenster geschmissenes Geld.

Der R500 wird mit sicherheit PixelShader 4.0 besitzen, ich bin sicher das ATI die PixelShader 3.0 reihe überspringen wird.


z.Zt ist die Radeon X800 Pro das beste Preis/Leistungsverhältnis für mich und ich meine das die Karten auch weit unter 400€ zu haben sind wenn die ersten mal in Online Shops verfügbar zu kaufen gibt




bye
BlueRaven

Uller
2004-05-07, 10:46:56
X800Pro für 340 Dollar: http://www.computers4sure.com/product.asp?productid=1909833&affid=933

BlueRaven
2004-05-07, 10:48:49
das ist ja der hammer :O

LovesuckZ
2004-05-07, 10:56:36
Original geschrieben von Fadl
Wirklich sehr interessant der test auf techreport.
Was sagen die Fachleute zu diesen Ergebnissen(vor allem zum 61.11 Treiber) ?

Das der "trilinear" Button nicht funktioniert? :)

LovesuckZ
2004-05-07, 10:57:56
Original geschrieben von BlueRaven
Der R500 wird mit sicherheit PixelShader 4.0 besitzen, ich bin sicher das ATI die PixelShader 3.0 reihe überspringen wird.


Vorsichtig. Es kann auch sein, dass der r500 nur ein r420 + SM3.0 werden kann (natuerlich mit anderen leichten veraenderungen).

deekey777
2004-05-07, 10:59:04
Original geschrieben von LovesuckZ
Vorsichtig. Es kann auch sein, dass der r500 nur ein r420 + SM3.0 werden kann (natuerlich mit anderen leichten veraenderungen).

Der Inq meinte, dass der R400 zum R500 mutiert hat. Und wenn die das sagen, dann ist es so. :D

zeckensack
2004-05-07, 11:00:34
Original geschrieben von Fadl
Wirklich sehr interessant der test auf techreport.
Was sagen die Fachleute zu diesen Ergebnissen(vor allem zum 61.11 Treiber) ? Starke Brilinearität im 61.11er.

Winter[Raven]
2004-05-07, 11:14:01
Original geschrieben von LovesuckZ
Vorsichtig. Es kann auch sein, dass der r500 nur ein r420 + SM3.0 werden kann (natuerlich mit anderen leichten veraenderungen).

Interessant, wenn du es sagst ist es anscheinend kein Schwachsinn, wenn ich es poste ist es gleich Schwachsinn hoch 3.

hmmm ... :kratz:

Uller
2004-05-07, 11:24:48
@Lovesuckz: mit Optimierung schaut das ganze noch viel schlechter aus:

61.11 ohne Opt.:
http://techreport.com/reviews/2004q2/radeon-x800/6800-6111-aniso-color.png

61.11 mit Opt.:
http://techreport.com/reviews/2004q2/radeon-x800/6800bri-aniso-color.png

Meiner Meinung nach ist die Anisotrope Qualität ATis nicht unterlegen, auch wenn nur die erste Texturschicht trilinear gefiltert wird.
Eher im Gegenteil, wenn man die aktuelle Treiberentwicklung beachtet...

seahawk
2004-05-07, 11:24:49
Original geschrieben von BlueRaven
Ich meine doch das PixelShader 3.0 für dieses Jahr noch uninteressant ist weil es einfach noch keine PixelShader 3.0 Games gibt vielleicht am ende des jahre so vereinzelte aber das wars auch dann. Da hat ATI das richtige getan und am Speed gefeilt und den R420 Chip Optimiert (NEXTGEN CHIP) damit es so läuft wie es laufen soll und Nvidia hingegen Protzt mit neuen Features wobei die Features fürs nächste Jahr nicht schlecht wären aber für dieses Jahr bringen die eher weniger und man zahlt wie immer für etwas was man zum teil oder überhaupt nicht nutzen kann, aus dem Fenster geschmissenes Geld.

Der R500 wird mit sicherheit PixelShader 4.0 besitzen, ich bin sicher das ATI die PixelShader 3.0 reihe überspringen wird.

bye
BlueRaven

SM4.0 für 2005 - eher nicht. Bzw. total sinnlos, da es Windows nicht unterstüzen wird.

Und mal zum Nachdenken. Wenn beide heute nur PS2.0 Hardware auf den Markt gebracht hätten, würde es dann wohl PS3.0 Spiele geben, wenn der R500 in 2005 erscheint, oder würde es diese Spiele dann frühstens Anfang 2006 geben??

DrumDub
2004-05-07, 11:25:22
Original geschrieben von ow
Ist der Grafikchip denn das einzige Bauteil auf der Platine, das Strom verbraucht oder wie ist diese Rechnung zu verstehen?? :|

das argument verstehe ich jetzt nicht ganz. wir haben doch werte bezüglich der leistungsaufnahme der 6800u und 6800ue. auf grund dieser werte hab ich das hochgerechnet, oder steigt die leistungsaufnahme nicht bei höherem takt?

Mancko
2004-05-07, 11:26:16
Original geschrieben von Hotel
Frage:

Glaubst du das Gameentwickler / Sales auf 70% Marktanteil verzichtet, die ja ATI bereits bekanntlich im Highend hat nur um die NV40 schneller zu machen????


Gegenfrage was glaubst du wie lange ATI diese noch hat angesichts eines sehr wettbewerbsfähigen NV40?
Und noch eine Gegenfrage. Was glaubst du wie sehr Spieleentwickler nun nur das High End Segment für sich betrachtet überhaupt interessiert?
So gut wie gar nicht. Auf den Add in Card Markt kommts an.
Darauf legen Publisher wert und nicht auf das High End Segment. Das macht vielleicht 5% aus mehr nicht.


Weiterhin peilen die den Massenmarkt an, der ja bekanntlich keine 400USD für eine Grafikkarte ausgeben wird!
Das heißt die Anforderungen werden bis 2005 nie über PS 2.0 bei der Grafikkarte herrausgehen.


Also in Anbetracht der Tatsache, dass es NV40 Abkömmlinge derer 4 Stück geben wird und im Q3 bereits die restliche Armada kommt, wird die Verbreitung recht schnell gehen.
Bis dahin ist genug Zeit ein paar Entwickler zu kaufen absichtlich lange Shader einzubauen um bei Benchmarks den Konkurenten alt aussehen zu lassen. Was meinst du wie sehr der HL2 Crap bisher Nvidia geschadet hat. Eine ganze Menge. Ähnliches wird man sehr bald genau anders herum sehen können - zu Recht.

LovesuckZ
2004-05-07, 11:35:07
Original geschrieben von Uller
Meiner Meinung nach ist die Anisotrope Qualität ATis nicht unterlegen, auch wenn nur die erste Texturschicht trilinear gefiltert wird.
Eher im Gegenteil, wenn man die aktuelle Treiberentwicklung beachtet...

Tja, ich sage nur: Solange wie die Balkenlaenge entscheidet bei der Grakawahl ist, solange werden wir kein vernünftiges AF mehr sehen.
Und da ATi nicht vorhat, ihre Stageoptimierung rauszunehmen, solange wird Nvidia das Spielchen weiter machen.

DrumDub
2004-05-07, 11:38:08
Original geschrieben von Mancko
Gegenfrage was glaubst du wie lange ATI diese noch hat angesichts eines sehr wettbewerbsfähigen NV40?
Und noch eine Gegenfrage. Was glaubst du wie sehr Spieleentwickler nun nur das High End Segment für sich betrachtet überhaupt interessiert?
So gut wie gar nicht. Auf den Add in Card Markt kommts an.
Darauf legen Publisher wert und nicht auf das High End Segment. Das macht vielleicht 5% aus mehr nicht.

Also in Anbetracht der Tatsache, dass es NV40 Abkömmlinge derer 4 Stück geben wird und im Q3 bereits die restliche Armada kommt, wird die Verbreitung recht schnell gehen.
Bis dahin ist genug Zeit ein paar Entwickler zu kaufen absichtlich lange Shader einzubauen um bei Benchmarks den Konkurenten alt aussehen zu lassen. Was meinst du wie sehr der HL2 Crap bisher Nvidia geschadet hat. Eine ganze Menge. Ähnliches wird man sehr bald genau anders herum sehen können - zu Recht.

nette glaskugel, die du da hast. ;)
warten wirs einfach mal ab. im moment siehts so aus, dass ati die für den spieler-markt wirtschaftlichern karten produziert. ob sich dieser trend mit dem r420, r423 und rv370/380 fortsetzt, wird sich zeigen.

Quasar
2004-05-07, 11:44:06
Original geschrieben von ShadowXX
Merkwürdig ist dafür irgendwie noch das falsche Wort....

Hat da mal jemand nachgeprüft, ob da wirklich noch Tri gefiltert wird??

Ich meine das wäre ja sonst cheat in Reinform...

Vielleicht sollte man auch die Trilineare Filterung des r420 noch mal genauer Untersuchen...

Das mit den lustigen 20% über Peak bei den PCGH Tests hat mich auch etwas stutzig gemacht...

Könnte es sein, das ATI die Tri-Filterung insgesamt irgendwie "optimiert" hat....(nett ausgedrückt)

Ja.
Ich habe gerade mal geschaut.
In CoD sieht mit r_colormiplevels 1 alles wunderschön trilinear gefiltert aus.
Aber erstaunlicherweise sinkt die Framerate, wenn ich r_colormiplevels auf 1 setze - doch nur bei trilinearer Filterung...
:|
:|
:|

Ob der X800 wohl dieses "Feature" vom RV350/360 geerbt hat? Der R360 hatte es jedenfalls nicht.

ow
2004-05-07, 11:55:37
.

zeckensack
2004-05-07, 12:07:01
Original geschrieben von ow
Doch, aber wie willst du denn den Verbrauch des Grafikchip alleine aus dem Gesamtverbrauch der Karte ausrechnen?

Davon abgesehen sind diese Werte eh hoechstens als Schaetzung zu gebrauchen. Exakte Verbrauchswerte hat AFAIK noch keiner ermittelt. Ack.
Die Differenzmessungen die ich bisher gesehen habe, wurden auf Systemen durchgeführt, wo auch die CPU unter Last wesentlich mehr Strom verbrauchen kann als auf dem nackten Desktop.
(P4 bei computerbase, Athlon 64 bei techreport)

IMO sollte man das am besten mit einem Athlon "Donnervogel" machen, oder auch mit einem Athlon XP, wobei man im letzteren Fall dringend dafür sorgen muss, dass dieser nicht in den idle-Modus gehen kann (stop grant, bus disconnect, etc).

DrumDub
2004-05-07, 12:10:25
Original geschrieben von ow
Doch, aber wie willst du denn den Verbrauch des Grafikchip alleine aus dem Gesamtverbrauch der Karte ausrechnen?

das ist sicher unzulässig. insofern hätte ich 6800u und 6800ue schreiben sollen. die 111-112w für die 6800u unter vollast sind meines wissens nach ein gesicherter wert. ansonsten wär auch kein zweiter stromanschluss nötig gewesen, da die 5950u auf 105w kommt und noch mit einem auskommt. die 6800gt kommt ja auch mit einem aus und kommt wohl auf 102w.

Davon abgesehen sind diese Werte eh hoechstens als Schaetzung zu gebrauchen. Exakte Verbrauchswerte hat AFAIK noch keiner ermittelt.

s.o.

ich verweise noch mal auf dieses posting von mir und meine überlegungen, wie ich zu den werten gekommen bin: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1784762#post1784762

ein weiterer thread zu thema: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=141259

natürlich sind das keine berechungen, die ich als völlig korrekt ansehe, aber ich denke schon, dass die werte real nicht großartig davon abweichen.

Mr. Lolman
2004-05-07, 12:11:52
Original geschrieben von zeckensack
Ack.
Die Differenzmessungen die ich bisher gesehen habe, wurden auf Systemen durchgeführt, wo auch die CPU unter Last wesentlich mehr Strom verbrauchen kann als auf dem nackten Desktop.
(P4 bei computerbase, Athlon 64 bei techreport)

IMO sollte man das am besten mit einem Athlon "Donnervogel" machen, oder auch mit einem Athlon XP, wobei man im letzteren Fall dringend dafür sorgen muss, dass dieser nicht in den idle-Modus gehen kann (stop grant, bus disconnect, etc).


Hm, wobei man natürlich darauf achten müsste, dass die CPU nicht limitierend wirkt, aber trotzdem mit voller Auslastung läuft...

Fadl
2004-05-07, 12:13:02
Original geschrieben von LovesuckZ
Tja, ich sage nur: Solange wie die Balkenlaenge entscheidet bei der Grakawahl ist, solange werden wir kein vernünftiges AF mehr sehen.
Und da ATi nicht vorhat, ihre Stageoptimierung rauszunehmen, solange wird Nvidia das Spielchen weiter machen.

Nur das die Stageoptimierung von ATI zumindest besser aussieht als die geposteten Ergebnisse vom NVidia 61.11 Treiber.
Da geht NVidia wieder einen Schritt zu weit möchte ich meinen.
Oder anders gesagt: Warum verpönst du ständig die Optimierung von ATI, zeigst aber Verständnis für die sichtbar schlechtere(im Sinne der Bildqualität) Optimierung von NVidia im neuen Treiber?

HOT
2004-05-07, 12:16:33
ATI ist ja mit seinen bösen Stageoptimierungen Schuld daran, dass NV gezwungen ist stark brilinear zu filtern. NV ist daran vollkommen unschuldig :D

DrumDub
2004-05-07, 12:17:40
Original geschrieben von zeckensack
ie Differenzmessungen die ich bisher gesehen habe, wurden auf Systemen durchgeführt, wo auch die CPU unter Last wesentlich mehr Strom verbrauchen kann als auf dem nackten Desktop.
(P4 bei computerbase, Athlon 64 bei techreport)


die 2d- bzw. idle-werte habe ich aus diesem grund auch nicht berücksichtigt.

LovesuckZ
2004-05-07, 12:18:31
Original geschrieben von Fadl
Oder anders gesagt: Warum verpönst du ständig die Optimierung von ATI, zeigst aber Verständnis für die sichtbar schlechtere(im Sinne der Bildqualität) Optimierung von NVidia im neuen Treiber?

Ich zeige keine Verstaendnis für die Optimierung von Nvidia.

ow
2004-05-07, 12:19:56
.

HOT
2004-05-07, 12:22:02
Original geschrieben von ow
Und da stellt sich mir auch noch die Frage, ob eine unterschiedliche CPU-Last durch den Grafiktreiber nicht auch noch die Resultate zusaetzlich verfaelscht.

IMO sind solche Differenzmessungen ziemlich unbrauchbar und geben allenfalls grob Tendenzen wieder.


Da die Treiber sicher nicht gleich arbeiten bei beiden Herstellern, hast du da sicher Recht.

zeckensack
2004-05-07, 12:23:02
Original geschrieben von Mr. Lolman
Hm, wobei man natürlich darauf achten müsste, dass die CPU nicht limitierend wirkt, aber trotzdem mit voller Auslastung läuft... Nein, eben dann nicht mehr.
Wenn die CPU im idle fast genausoviel Strom verbraucht wie unter Last, dann spielt es eben auch keine Rolle mehr, wie stark sie ausgelastet ist. Deswegen ja mein Wunsch nach Athlon-Systemen für die Messung der Leistungsaufnahme.

Zum Bleistift: (www.sandpile.org)
"typisch" "maximum"
TBird 1400MHz 65,0W 72,0W
Palomino 1600MHz 60,7W 68,0W
TBred 2000MHz 62,0W 68,3W
Nordwald 2400MHz 57,8W 75,0W
K8 egal unbekannt unbekannt
Selbst wenn hier keine echten idle-Werte angegeben sind, sollte man sich anhand der Relation zwischen "typisch" und "maximal" ausmalen können, dass die Stromaufnahme des P4 wesentlich stärker von der Last abhängig sein muss.

Fadl
2004-05-07, 12:23:19
Original geschrieben von LovesuckZ
Ich zeige keine Verstaendnis für die Optimierung von Nvidia.

Kommt einem aber manchmal so vor wenn du von besserem AF seitens NVidia redest.

Ich habe keinerlei Verständnis für solch übertriebenen Optimierungen. Die Stageoptimierung von ATI lässt mich auch nicht gerade Freudentänze aufführen aber was NVidia nun tut nur um ihren "Balken" zu verlängern das geht echt zu weit.
Ich hätte gerne eine gute Bildqualität ohne erst groß mit 3D Tweakern am Treiber rumzufummeln.
Aber so etwas scheint zur Zeit ja leider nicht wirklich möglich...

DrumDub
2004-05-07, 12:28:59
Original geschrieben von ow
Und da stellt sich mir auch noch die Frage, ob eine unterschiedliche CPU-Last durch den Grafiktreiber nicht auch noch die Resultate zusaetzlich verfaelscht.

möglich, aber das dürfte das geringste problem sein.

IMO sind solche Differenzmessungen ziemlich unbrauchbar und geben allenfalls grob Tendenzen wieder.

die richtung stimmt meiner meinung nach aber schon.

Mancko
2004-05-07, 12:44:44
Original geschrieben von Fadl
Nur das die Stageoptimierung von ATI zumindest besser aussieht als die geposteten Ergebnisse vom NVidia 61.11 Treiber.
Da geht NVidia wieder einen Schritt zu weit möchte ich meinen.
Oder anders gesagt: Warum verpönst du ständig die Optimierung von ATI, zeigst aber Verständnis für die sichtbar schlechtere(im Sinne der Bildqualität) Optimierung von NVidia im neuen Treiber?

Na moment mal. Ich kann mich noch gut daran erinnern und es ist noch gar nicht lange her, da wurde jede Optimierung seitens Nvidia sofort als Cheat verschrieen.
Und ausgerechnet jetzt reden die Leute hier von Optimierung?
Habt ihr Sie noch alle.
Das ist Cheaten erster Güte und nichts anderes und als nichts anderes ist das auch zu bezeichnen punkt aus Ende.

Birdman
2004-05-07, 12:46:18
Original geschrieben von zeckensack
Nein, eben dann nicht mehr.
Wenn die CPU im idle fast genausoviel Strom verbraucht wie unter Last, dann spielt es eben auch keine Rolle mehr, wie stark sie ausgelastet ist. Deswegen ja mein Wunsch nach Athlon-Systemen für die Messung der Leistungsaufnahme.

Ein PIII-S wäre imho fast optimal für sowas. Davon abgesehen dass diese CPU sowieso nur recht wenig Strom vebraucht, und damit prozentual gesehen die ganze Rechnung auch nicht gross verfälschen könnte, so kennt auch dieser Prozessor nicht wirklich einen idle Modus. Der Verbrauch liegt fast konstant bei ~30W....

2B-Maverick
2004-05-07, 12:47:11
Original geschrieben von LovesuckZ
Ich zeige keine Verstaendnis für die Optimierung von Nvidia.

Da ich nur ne 9700 habe: wie stark fällt im Spiel diese Bri-Lineare NV-Optimierung eigentlich auf?

Ich kann mir vorstellen das mans gar nicht merkt, oder?
Denn die bilinearen Kanten verschwinden doch, oder?

DrumDub
2004-05-07, 12:47:21
mancko

ati selbst nennt es optimierung, daher die begriffsverwirrung.
natürlich ist es ein cheat. aber einer, den man ausschalten kann. ;)

LovesuckZ
2004-05-07, 12:48:28
Original geschrieben von DrumDub
ati selbst nennt es optimierung, daher die begriffsverwirrung.
natürlich ist es ein cheat. aber einer, den man ausschalten kann. ;)

Auch die Winkelabhaengigkeit?
Diese ist auch eine "Optimierung"...

Sphinx
2004-05-07, 12:48:59
Original geschrieben von seahawk
SM4.0 für 2005 - eher nicht. Bzw. total sinnlos, da es Windows nicht unterstüzen wird.

Und mal zum Nachdenken. Wenn beide heute nur PS2.0 Hardware auf den Markt gebracht hätten, würde es dann wohl PS3.0 Spiele geben, wenn der R500 in 2005 erscheint, oder würde es diese Spiele dann frühstens Anfang 2006 geben??

Hat Windows zur Einführung der R97ooPRO PS2.0 Unterstützt ? DX9 ?

Ich kann mich gut entsinnen das ich nach 4-5 Monaten nachdem ich die R97ooPro besaß - ein BetaPuplicDX 9 installiert habe. Und das nach 6-9 Monaten das erste DirectX 9.0 Release kam.

Und etwa ca. 1-2 Jahre später kamen (This Year) kommen Spiele die PS2.x so langsam aber sicher unterstützen.

^^^^^^^^^^^^^^^^^^^^^^^^^^^HEUTE
--------------------------|------------------------------------
PS1.1|PS1.4------------------PS2.x--------------------PS.3x


mfg. Sphinx

LovesuckZ
2004-05-07, 12:49:10
Original geschrieben von 2B-Maverick
Da ich nur ne 9700 habe: wie stark fällt im Spiel diese Bri-Lineare NV-Optimierung eigentlich auf?

Gar nicht bis stark.

Mr. Lolman
2004-05-07, 12:52:17
Original geschrieben von zeckensack
Nein, eben dann nicht mehr.
Wenn die CPU im idle fast genausoviel Strom verbraucht wie unter Last, dann spielt es eben auch keine Rolle mehr, wie stark sie ausgelastet ist. Deswegen ja mein Wunsch nach Athlon-Systemen für die Messung der Leistungsaufnahme.


Dann bleibt aber immernoch der Faktor einer eventuellen CPU Limitation, welcher dazu führen könnte, dass die Grafikkarte nicht mit voller Auslastung läuft...

DrumDub
2004-05-07, 12:54:29
Original geschrieben von LovesuckZ
Auch die Winkelabhaengigkeit?
Diese ist auch eine "Optimierung"...

nein, das ist eine designentscheidung die einen kompromiss zwischen transisorzahl, leistung und af-qualität auf kosten der af-qualität darstellt.

zeckensack
2004-05-07, 12:58:57
Original geschrieben von Mr. Lolman
Dann bleibt aber immernoch der Faktor einer eventuellen CPU Limitation, welcher dazu führen könnte, dass die Grafikkarte nicht mit voller Auslastung läuft... 3DMark2k3, Shadermark, rthdribl und viele andere Syntheten sind fast völlig CPU-unabhängig. Für die Messung der Leistungsaufnahme braucht man auch nichts anderes.
Was man allerdings nicht gebrauchen kann, ist ein Prozessor, der bei <5% Last auf 800 MHz (bzw neuerdings 1000 MHz) heruntertaktet ...

Und wie man ansonsten mit Gewalt eine Grafiklimitierung herbeiführen kann, solltest du eigentlich auch wissen :)
Gerade das 8xAA auf der Geforce 6800 bietet sich hier an.

DrumDub
2004-05-07, 13:01:51
Original geschrieben von zeckensack
3DMark2k3, Shadermark, rthdribl und viele andere Syntheten sind fast völlig CPU-unabhängig. Für die Messung der Leistungsaufnahme braucht man auch nichts anderes.
Was man allerdings nicht gebrauchen kann, ist ein Prozessor, der bei <5% Last auf 800 MHz (bzw neuerdings 1000 MHz) heruntertaktet ...


ich versteh das problem aber noch nicht, wenn man nur die wert für den 3d-betrieb unter vollast haben will. für den idle bzw. 2d-betrieb leuchtet das natürlich ein.

seahawk
2004-05-07, 13:04:47
Original geschrieben von DrumDub
nein, das ist eine designentscheidung die einen kompromiss zwischen transisorzahl, leistung und af-qualität auf kosten der af-qualität darstellt.

Und wenn es statt über die Hardware im Treiber erzeugt wird, dann ist es eine Optimierung?

Mr. Lolman
2004-05-07, 13:06:52
Original geschrieben von zeckensack
Und wie man ansonsten mit Gewalt eine Grafiklimitierung herbeiführen kann, solltest du eigentlich auch wissen :)
Gerade das 8xAA auf der Geforce 6800 bietet sich hier an.

Schon klar, das wissen wir alle, schätz ich mal. Ob das aber auch Leute wissen, die mit P4s und Athlon64 Leistungsaufnahmetests verfassen, ist die andere Frage ;)

Ausserdem, kann die neue GraKageneration (las ich bisher nur vom NV40, schätz aber, dass es beim R420 genauso ist) auf langsamen Rechenrn nicht ihr volles Potential entfalten. Dies äussert sich z.B. in starken Einbrüchen beim Zuschalten von AA/AF, trotz eindeutiger CPU Limitierung. An dieser Stelle ists m.E. auch ziemlich wahrscheinlich, dass die Grafikkarten trotz GPU limiterten Szenen, nicht mit voller Auslastung laufen...

DrumDub
2004-05-07, 13:14:26
Original geschrieben von seahawk
Und wenn es statt über die Hardware im Treiber erzeugt wird, dann ist es eine Optimierung?

noe, ein cheat, wenn die hardware bessere qualität zulässt und ich als user dies nicht erfahre. wenn ich als user aber gesagt bekomme, ja du bekommst schlechtere oder bessere qualität, wenn du diese oder jene einstellung verwendest, dann ists für mich ne optimierung. jede optimierung ist so lange ein cheat, bis der ihv mich nicht darauf hinweist, dass die qualität verringert wird.

beim nv40 und dem treiber 60.72 ist die brilinearitär kein cheat, da ich die offizielle möglichkiet habe diese auszuschalten mit dem hinweis, dass sich die af-qualität verbessert und die leistung verschlechtert.

die stage"optimierung" seitens ati ist und bleibt ein cheat.

Grahics
2004-05-07, 13:17:13
New graphics performance records set with ATI’s RADEON™ X800 XT Platinum Edition visual processing unit

Record scores include 15,738 in Futuremark’s 3DMark2003 benchmark, shattering the previous record by over 5000 points

BARCELONA, Spain/ Munich, Germany, May 7, 2004 – ATI Technologies (NASDAQ: ATYT, TSX: ATY) demonstrated the awesome graphics power of the RADEON™ X800 XT Platinum Edition visual processing unit (VPU) by setting new graphics speed records in a variety of games and industry-leading graphics benchmarks. The event took place at System Builders’ Summit in Barcelona.

Notably, a new world record score of 15,738 was set in Futuremark’s 3DMark2003 graphics benchmark, easily breaking the previous score of 10,008, which was also set using ATI graphics technology.

The record score of 15,738 in 3DMark2003 was set using the default screen resolution of 1024x768 pixels with 32-bit color depth, as required by Futuremark for eligibility in Futuremark’s Hall of Fame. A record score of 33,484 was also set in Futuremark’s popular 3DMark2001 benchmark at the same resolution.

“The RADEON X800 XT Platinum Edition is clearly the weapon of choice for setting graphics speed records,” said graphics enthusiast Sami Mäkinen, who designed, assembled and operated the PC used to set the record graphics scores. “ATI truly delivers monster performance with their latest generation of graphics technology.”

Scores in UT2004 (147 fps) and Tomb Raider (76 fps) were posted using the most demanding image quality settings commonly used by the gaming community: 1600x1200 pixels with 32-bit color depth using 4X anti-aliasing and 8X anisotropic filtering.

“Record scores in some of the world’s most visually advanced games at the highest image quality settings is proof that with ATI’s RADEON X800 XT Platinum Edition, users no longer need to sacrifice speed to get impeccable image quality,” said Peter Edinger, Vice President, ATI Europe, Middle East and Africa.

All applications were run on a system featuring an overclocked RADEON X800 XT Platinum Edition running at 715 MHz engine clocks and 639 MHz memory clocks, an overclocked Intel® Pentium® 4 Processor, 1 GB of DDR SDRAM, a 40 GB IDE hard drive, proprietary cooling technology, and CATALYST drivers that conform to the Futuremark specification for posting Hall of Fame benchmark scores.

Also this year at Systems Builders’ Summit, ATI took home three prestigious awards including Best Presentation, Best Hardware and Best Vendor.



RADEON X800 XT Platinum Edition:

715 MHz engine clocks
639 MHz memory clocks


Das sind schöne Aussichten fürs Overclocking!

LovesuckZ
2004-05-07, 13:18:11
Wenn du Trockeneis zu hause rumliegen hast *eg*

seahawk
2004-05-07, 13:18:15
@ Drumdub

full ack.

Wobei es da natürlich sehr auf die Tester ankommt, dass bei Vergleichen beide Karten unter gleichen Bedingungen getest werden.

InsaneDruid
2004-05-07, 13:18:57
@Lolman.. hm also eigentlich sollte gerade auf langsamen CPUS ne aktuelle/neue Graka kaum Leistung verlieren wenn man AF/AA zuschaltet, weil sie ohne nicht ihre volle Leistung entfalten kann. STARKE Einbrüche auf langsamen CPUs stehen da eigentlich eher im Wiederspruch dazu, meinste nich?

[WEISSBIER]Moff
2004-05-07, 13:39:27
DrumDub hat vollkommen recht. Leider hat es gerade mal eine Seite geschafft diesen Cheat zu erkennen und in ihrem Test die Stage-"Optimierung" zu deaktivieren. Die PCGH hat es immerhin erwähnt, während alle anderen Tests diese Tatsache einfach ignorieren. Wenn beide Karten im Regal stehen kann 3DCenter ne XT ohne Cheat und beide Karten mit Final Treibern (und womöglich Far Cry mit DX9.0c) testen. Über diese Ergebnisse kann dann meinetwegen weitergeflamed werden. Im Augenblick ist es einfach nicht möglich einen eindeutigen Sieger zu küren.

DrumDub
2004-05-07, 13:39:44
Original geschrieben von seahawk
@ Drumdub

full ack.

Wobei es da natürlich sehr auf die Tester ankommt, dass bei Vergleichen beide Karten unter gleichen Bedingungen getest werden.

:)

ja, das ist das problem. leo bemüht sich dies problem anzugehen, was aber sicherlich keine einfach aufgabe ist, da es eben nicht immer wirklich vergelichbare settings gibt.

LovesuckZ
2004-05-07, 13:43:50
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/

InsaneDruid
2004-05-07, 14:07:22
Interessant wäre zu wissen, ob das auch auftritt wenn man zb mit 3danalyze einfärbt.

LovesuckZ
2004-05-07, 14:08:34
Original geschrieben von InsaneDruid
Interessant wäre zu wissen, ob das auch auftritt wenn man zb mit 3danalyze einfärbt.

UT2003 mal ausprobieren.

MarcWessels
2004-05-07, 14:12:43
Original geschrieben von Quasar
Darf man fragen, welchen "Verlust"-Faktor du für diese Rechnung zugrunde gelegt hast?

edit:
... denn davon abgesehen, daß du z.B. in der 1600er Auflösung komplett "vergessen" hast, die Optimierung rauszurechnen, ziehst du bei HALO und Maxie II so ca. 1,5-3% ab, im Far Cry Aussenlevel ~20%.
Das alles scheint mir ein wenig... undurchsichtig?

Nein, wenn Du Dir die Zahlen genau anguckst, habe ich in der 1600x1200er Auflösung sehr wohl die Optimierung herausgerechnet.

Die Formel ist recht einfach: Zuerst hab' ich die prozentualen Verluste von 1024 auf die 1280er Res + AF von der Radeon 9800XT mit der der X800XT verglichen (beide optimiert). Dann habe ich die vorhandenen R9800XT-Ergebnisse mit deaktivierter Texturestageoptimierung herangezogen und mit dem zuvor errechneten prozentualen Unterschied im Verlust der Performance aufgerechnet.

Von daher sind sie relativ großen Abschläge in UT oder FarCry kein Wunder.

In den Spielen, in denen die nicht optimierten Ergebnisse der 9800XT nicht angegeben waren, habe ich aus den Erfahrungen der anderen Benches heraus die Verluste hochgerecnet und bin dabei lieber vom worst cae ausgegangen als umgekehrt.

Quasar
2004-05-07, 14:17:35
Original geschrieben von MarcWessels
Nein, wenn Du Dir die Zahlen genau anguckst, habe ich in der 1600x1200er Auflösung sehr wohl die Optimierung herausgerechnet.

1600 x 1200 + 4x AA & 8x AF->
------------------------------
Call of Duty (VGA-Demo)........65fps.....44fps....25fps
Elite Force 2 (PCGH-Demo).....80fps.....53fps....28fps
UT 2004 (VGA-Demo)............84fps.....69fps....39fps
Max Payne 2 (kein AA!!).......123fps.....96fps....65fps
HALO 1.02 (kein AA!!)............58fps.....42fps....25fps

Jo, sorry, hatte nur auf die OpenGL-Games geschielt und auf Halo, wo das "rausrechnen" ja etwas mau ausfiel.

Mal schauen, wo sich's dann real einpendeln wird.

MarcWessels
2004-05-07, 14:20:28
Original geschrieben von Quasar
ad1) Gegenfrage: Ist es der Wunsch von High-End Gamern, nur eine von acht Texturstages trilinear-anisotrop gefiltert zu bekommen und keine Möglichkeit zu haben, Alpha-Test Texturen glätten zu lassen? (...)

Die Optimierung wird doch mit aktualisierten Tools möglich sein! Dagegen ist mir für die nVidia-Karten kein Tool bekannt, mit welchem man die Texturestageoptimierung in UT2003 (u.a.?) deaktivieren könnte - das war zwar bei N3x aber bislang hat noch niemand getestet, ob diese "Optimierung" beim NV40 nicht weiterhin angewandt wird.

Alpha-Texturen finden ja auch sooooooo oft Anwendung.

zuizui
2004-05-07, 14:23:57
Hier wird nicht getrollt!

DrumDub
2004-05-07, 14:30:27
Original geschrieben von LovesuckZ
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/

das hatte sich hier im forum ja schon angedeutet: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1787080#post1787080

da scheints in opengl tatsächlich auch einen cheat beim tri-af bei ati zu geben. :down:

vielliecht dieselbe texturstageoptimierung, nur wird sie in bei colored mipmaps und xmas af-tester ausgeschaltet? das würde auch den von quasar festgestellten performanceinbruch in cod erklären.

Gas3t
2004-05-07, 14:31:05
Zum Thema DX-Next:

Niemand weiß, wann dies kommt. Die ursprüngliche Behauptung von MS DX-Next erst mit Longhorn zu veröffentlichen, ist nach den häufigen Releaseverschiebungen von Longhorn, nur noch bedingt zitierfähig.

Und man kann wohl davon ausgehen, dass der R500 zumindest einen Großteil der DX-Next-Funktionen unterstützen wird. Dies liegt zum Großteil in der Tatsache begründet, dass die X-Box2 mit diesem Chip betrieben wird.

Wenn der R500 allerdings vor DX-Next veröffentlicht wird, wäre es natürlich nur ein SM3-Chip, da DX9 nunmal nur eine Spezifikation bis SM3 vorsieht. Dies schließt aber nicht aus, dass der Chip auch ein SM4-Chip wird.

PS: Bezüglich der Theorie, dass man einen SM3-Chip nur per Treiber zu einem SM4-Chip machen kann, wäre ich vorsichtig. Die Spezifiaktionen von DX-Next sind noch im Fluß und umfassen nun mal nicht nur PS.

MarcWessels
2004-05-07, 14:31:35
Original geschrieben von Uller
@Lovesuckz: mit Optimierung schaut das ganze noch viel schlechter aus:

61.11 ohne Opt.:
http://techreport.com/reviews/2004q2/radeon-x800/6800-6111-aniso-color.png

Tjoa, jetzt ist klar, woher die Speedsprünge vom 60.72 zum 61.11 hergezaubert wurden...

[WEISSBIER]Moff
2004-05-07, 14:31:46
@ZuiZui ... Das kann ich auch :
http://www.tecchannel.de/hardware/1384/index.html
Ist zwar ne Ultra Extreme, aber was ich damit zeigen will ist die Aussagekraft der meisten Benches. Ich für meinen Teil warte auf den Test der ersten Retail-Boards auf 3DCenter.

Altbier
2004-05-07, 14:34:57
Original geschrieben von [WEISSBIER]Moff
@ZuiZui ... Das kann ich auch :
http://www.tecchannel.de/hardware/1384/index.html
Ist zwar ne Ultra Extreme, aber was ich damit zeigen will ist die Aussagekraft der meisten Benches. Ich für meinen Teil warte auf den Test der ersten Retail-Boards auf 3DCenter.

Tja, ich kann dem Vergleichs-Test auf 3Dcenter aufgrund des Testrechners von Leo auch nicht mehr trauen!


Hat er ja auch selber zugegeben!

LovesuckZ
2004-05-07, 14:36:50
Jeder benutzt andere Demos und damit andere Szenarien. Daher ist es nicht verwunderlich, dass sich die Ergebnisse von Test zu Test unterscheiden.

InsaneDruid
2004-05-07, 14:38:37
Original geschrieben von DrumDub
das hatte sich hier im forum ja schon angedeutet: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1787080#post1787080

da scheints in opengl tatsächlich auch einen cheat beim tri-af bei ati zu geben. :down:

vielliecht dieselbe texturstageoptimierung, nur wird sie in bei colored mipmaps und xmas af-tester ausgeschaltet? das würde auch den von quasar festgestellten performanceinbruch in cod erklären.

Die Frage wäre nur.. warum unter OGL dies so verstecken, inkl gefärbte Mip Erkennung etc (wenn dem so ist), wenn man es unter D3D locker flockig offen und systemweit macht?

Dieser Wiederspruch ist mir n bissl zu weit um momentan an nen Cheat zu glauben.. und dann solls bei ner 9800 XT nicht so sein.. (obwohl die gegen die 5950er auch n bissl "Boost" hätte gebrauchen können um (noch) besser dazustehen?).. hm näää das is mir in der jetzigen Form zu mysteriös.

Gas3t
2004-05-07, 14:39:26
Hier ein paar Ergebnisse der 800XT@715/639

http://www.rage3d.com

Leider keine Angaben, wie die Karte gekühlt wurde.

Gas4T
2004-05-07, 14:40:21
Original geschrieben von InsaneDruid
Die Frage wäre nur.. warum unter OGL dies so verstecken, inkl gefärbte Mip Erkennung etc (wenn dem so ist), wenn man es unter D3D locker flockig offen und systemweit macht?

Dieser Wiederspruch ist mir n bissl zu weit um momentan an nen Cheat zu glauben.. und dann solls bei ner 9800 XT nicht so sein.. (obwohl die gegen die 5950er auch n bissl "Boost" hätte gebrauchen können um (noch) besser dazustehen?).. hm näää das is mir in der jetzigen Form zu mysteriös.

Da suchen NV-Fanboys aber gewaltig nach irgendeinem Thema an dem sie sich aufhalten können.

Das kann auch schnell ins Auge gehen, Rufschädigung und co. mal eben kurz angesprochen!

cvbcvb
2004-05-07, 14:43:01
Hier wird nicht getrollt!

[WEISSBIER]Moff
2004-05-07, 14:43:56
Auch die NextGen Chips sind bei höheren Auflösungen und Quali-Settings meines Wissens nicht CPU-limitiert. Bei Leo's Review muss man halt auf die höheren Auflösungen schauen.
Ausserdem hab' ich zur Zeit auch nur nen Barton @200x10,5 :( und spiele trotzdem mit dem Gedanken mir eins von den Biestern zu holen, weil meine über 2 Jahre alte Ti4600 sich den Ruhestand mehr als verdient hat.

Demirug
2004-05-07, 14:45:45
Original geschrieben von InsaneDruid
Die Frage wäre nur.. warum unter OGL dies so verstecken, inkl gefärbte Mip Erkennung etc (wenn dem so ist), wenn man es unter D3D locker flockig offen und systemweit macht?

Dieser Wiederspruch ist mir n bissl zu weit um momentan an nen Cheat zu glauben.. und dann solls bei ner 9800 XT nicht so sein.. (obwohl die gegen die 5950er auch n bissl "Boost" hätte gebrauchen können um (noch) besser dazustehen?).. hm näää das is mir in der jetzigen Form zu mysteriös.

Ich tippe auf eher auf Brilinear über alle Stages. Der R3XX kann kein brilinear aber der RV3XX dagegen schon. Hat man im R420 nun die RV3XX TMUs benutzt (die ja schon 0,13 sind) hätte der R420 die fähigkeit für brilinear auch mitbekommen.

Gas3t
2004-05-07, 14:48:51
Original geschrieben von Demirug
Ich tippe auf eher auf Brilinear über alle Stages. Der R3XX kann kein brilinear aber der RV3XX dagegen schon. Hat man im R420 nun die RV3XX TMUs benutzt (die ja schon 0,13 sind) hätte der R420 die fähigkeit für brilinear auch mitbekommen.

Aber warum dann nicht auch Brilinear unter D3D?

[WEISSBIER]Moff
2004-05-07, 14:50:00
Tut mir leid, daß ich nicht so viel Ahnung hab wie cvbcvb :bonk:
Mit dem Link auf Tecchannel wollte ich ja nur an einem Extrembeisbiel zeigen, was ich von den meisten Tests halte.
Darum wart' ich ja auch auf Retail Tests bei 3DCenter

Gas3t
2004-05-07, 14:50:50
Info:

http://www6.alternate.de/cgi-bin/frameset.pm?js=1

Atlantis Radeon X800 Pro
469.00 EUR bei 3-5 Tagen Lieferzeit

PS: Verdammt teuer.

DrumDub
2004-05-07, 14:52:43
Original geschrieben von InsaneDruid
Die Frage wäre nur.. warum unter OGL dies so verstecken, inkl gefärbte Mip Erkennung etc (wenn dem so ist), wenn man es unter D3D locker flockig offen und systemweit macht?

Dieser Wiederspruch ist mir n bissl zu weit um momentan an nen Cheat zu glauben.. und dann solls bei ner 9800 XT nicht so sein.. (obwohl die gegen die 5950er auch n bissl "Boost" hätte gebrauchen können um (noch) besser dazustehen?).. hm näää das is mir in der jetzigen Form zu mysteriös.

deshalb schrieb ich ja auch "scheints einen cheat zu geben". ;)

was die erklärung angeht: es war nur ein mögliches szenario. die stage"optimierung" unter d3d wurde ja recht früh entdeckt. vielleicht hat ati da einen weg gefunden, dass ganze unter opengl so zu implementieren, dass es eben bei colored mipmaps entdeckt wird und in diesem falle auf volles tri-af zurückgeschaltet wird.

ich hoffe auch, dass sich das ganze irgendiwe anders erklären lässt.

gast4t

ich hab ne 9700np in meinem rechner. soviel zum nvfanboy. ich bin auch kein af-fetischist, aber ich finde es einfach schlimm, wenn man versucht die user für dumm zu verlaufen, weil man ihnen die maximale bildqulität, zu der die hardware fähig ist, vorenthält. das gilt sowohl für ati als auch für nv. das erzwungene bri im 61.11 auf dem nv40 bei nv ist genauso ein cheat.

InsaneDruid
2004-05-07, 14:53:11
Original geschrieben von Demirug
Ich tippe auf eher auf Brilinear über alle Stages. Der R3XX kann kein brilinear aber der RV3XX dagegen schon. Hat man im R420 nun die RV3XX TMUs benutzt (die ja schon 0,13 sind) hätte der R420 die fähigkeit für brilinear auch mitbekommen.

Das klingt natürlich logisch, die berechtiggte Frage wurde dann aber schon gestellt.. warum unter d3d das auffallendere und hässlichere stage optimieren weiternehmen, als auch brilinear, was man ja auch noch seitens ATI mit dem Fingerzeig auf NV "die machen das ja auch.. bätschebätsche" hätte schönreden können.

Quasar
2004-05-07, 14:55:49
Original geschrieben von Gas4T
Da suchen NV-Fanboys aber gewaltig nach irgendeinem Thema an dem sie sich aufhalten können.

Das kann auch schnell ins Auge gehen, Rufschädigung und co. mal eben kurz angesprochen!
Wenn man keine Argumente hat, wird man persönlich.... aber das kennt man ja schon, oder?

BTW, was ist daran "Rufschädigung"? Ich glaube, das böse "ch.."-Wort wurde tunlichst vermiedern.

Original geschrieben von Gas3t
Aber warum dann nicht auch Brilinear unter D3D?
Damit man weiterhin mit dem Finger auf nV zeigen kann, und sagen: :nono: ?

LovesuckZ
2004-05-07, 14:57:37
Kommt es auch zu einem Leistungsverlust unter UT2003?

Quasar
2004-05-07, 15:00:43
Original geschrieben von LovesuckZ
Kommt es auch zu einem Leistungsverlust unter UT2003?
Gibt Anzeichen dafür, ja.

Wenn man mit Exxtremes rTool 4xAF über alle Stages erzwingt, ist der colorierte Miplevel auf jeden Fall "dynamisch reduziert-trilinear". Es gibt stellen im Pyramid-Demo, wo man von richtigem Tri sprechen kann, während andere Ecken nach fast reinem Bi aussehen.

Aber das erstmal unter Vorbehalt!

InsaneDruid
2004-05-07, 15:01:27
Auf jeden Fall ist es schade das definitv beide Seiten genau das machen was man befürchtete als diese Chea.. ähh.. "Optimierungen" losgingen.. sich gegenseitig in immer auffallendere Optimierungen treiben. Sehr schade. Leider hat keiner der beiden den Mut sowas dann wenigstens offiziell zu/abschaltbar zu machen. *grummel*

DrumDub
2004-05-07, 15:02:10
Original geschrieben von InsaneDruid
Das klingt natürlich logisch, die berechtiggte Frage wurde dann aber schon gestellt.. warum unter d3d das auffallendere und hässlichere stage optimieren weiternehmen, als auch brilinear, was man ja auch noch seitens ATI mit dem Fingerzeig auf NV "die machen das ja auch.. bätschebätsche" hätte schönreden können.

jupp. und was noch viel interssanter ist: warum gibts den fps-einbruch bei colored mipmaps und ohne nicht?

ShadowXX
2004-05-07, 15:06:11
Original geschrieben von InsaneDruid
Das klingt natürlich logisch, die berechtiggte Frage wurde dann aber schon gestellt.. warum unter d3d das auffallendere und hässlichere stage optimieren weiternehmen, als auch brilinear, was man ja auch noch seitens ATI mit dem Fingerzeig auf NV "die machen das ja auch.. bätschebätsche" hätte schönreden können.

Weil die Treiber vielleicht noch nicht völlig für den r420 umgestellt sind???

OGL sozusagen als "Testgebiet"...und wenns dann klappt, übernimmt man das ganze auch für D3D.

Davon mal abgesehen....wäre es nicht auch möglich, das nur der "Schalter" in der Registry der gleiche geblieben ist, aber unter D3D gar nicht die "Stageoptimierung" wie angenommen greift, sondern der Bri-Filter???

Wobei ich ersteres für wahrscheinlicher halte...quasi als Test, obs jemand auffällt, da bis jetzt ja immer davon ausgegangen wurde, das AZI bei OGL "korrekt" Tri filtert...

Von IQ abgesehen, ändert es allerdings nicht viel an den fast nicht vergleichbaren Benchmarks der verschiedenen I-Sites...

Ich hab inzwischen schon ne Dartscheibe aufgehängt und würfle momentan aus, welche Zahlen für ATI und welche für nV stehen...

Da haben Sie schon solche High-End geschosse und "optimieren/cheaten" an allen Enden und Ecken...

Meine Kaufentscheidung wird wohl mit den ersten Retail Karten incl. Treiber fallen...
Derjenige IHV, welcher am wenigsten Optimierungen drin hat bzw. diese zumindest am besten abschaltbar macht, macht bei mir das Rennen...

Quasar
2004-05-07, 15:06:13
Original geschrieben von DrumDub
jupp. und was noch viel interssanter ist: warum gibts den fps-einbruch bei colored mipmaps und ohne nicht?
Genau _das_ frage ich mich auch schon seit drei Stunden. Das einzige Wort, was mir dazu bisher einfällt, hat etwas mit "Rufschädigung" zu tun, wenn man es nicht zweifelsfrei beweisen kann.

ShadowXX
2004-05-07, 15:09:30
Original geschrieben von DrumDub
jupp. und was noch viel interssanter ist: warum gibts den fps-einbruch bei colored mipmaps und ohne nicht?

Erkennungsroutine....ich glaube immer stärker, das es ein Test von ATI war, um rauszufinden, ob wirs bemerken...

Falls sich das als wahr herausstellt, und nV beim nächten Treiber die Brilinearität wieder ganz ausschaltbar macht, wirds diesmal ne nV...selbst wenn Sie überall 10% langsamer ist..

Allerdings hoffe ich, das Sie das mit FC noch gebacken bekommen...

LovesuckZ
2004-05-07, 15:10:20
Original geschrieben von Quasar
Wenn man mit Exxtremes rTool 4xAF über alle Stages erzwingt, ist der colorierte Miplevel auf jeden Fall "dynamisch reduziert-trilinear". Es gibt stellen im Pyramid-Demo, wo man von richtigem Tri sprechen kann, während andere Ecken nach fast reinem Bi aussehen.


Das sieht nicht irgendwie so aus (http://www.bigsmedia.de/tri/u2.jpg)?

Mr. Lolman
2004-05-07, 15:25:32
Original geschrieben von InsaneDruid
@Lolman.. hm also eigentlich sollte gerade auf langsamen CPUS ne aktuelle/neue Graka kaum Leistung verlieren wenn man AF/AA zuschaltet, weil sie ohne nicht ihre volle Leistung entfalten kann. STARKE Einbrüche auf langsamen CPUs stehen da eigentlich eher im Wiederspruch dazu, meinste nich?

Ja eben!

Die einzige Erklärung dafür ist, dass bei den neuen GraKas die minimal benötige CPU Leistung (um zumindest mit AA/AF die volle Leistung bringen zu können) höher ist, als noch bei der Vorgängergeneration.

Ich schau mal, ob ich den Thread noch finde...

AlfredENeumann
2004-05-07, 15:25:37
Original geschrieben von Mr. Tweety
Saphire X800 Pro

Preis ohne Mwst.
365€ für Retail;
349€ für Bulk

Lieferbar vorraussichtlich am 27.5.2004

Quelle: Ingram Micro


Bringt den Leuten hier nicht viel wenn du Händler EK´s postest (und dazu etwas recht hohe).
Wenn wir schondabei sind. Actbis hat die für kanpp 322€ in der Liste.

Mr. Tweety
2004-05-07, 15:40:17
Tja hab halt noch was anderes zu tun als alle möglichen Hersteller nach dem billigsten Preis abzuklappern. ;)

War eigentlich auch nur als kleine Randnotiz gedacht da ich heute zufällig was bestellen musste und einfach mal geschaut hab ob sie schon gelistet sind.

Quasar
2004-05-07, 15:42:15
Original geschrieben von LovesuckZ
Das sieht nicht irgendwie so aus (http://www.bigsmedia.de/tri/u2.jpg)?
Stellenweise schon. An anderen Stellen eher nicht....

AlfredENeumann
2004-05-07, 15:42:49
Original geschrieben von Mr. Tweety
Tja hab halt noch was anderes zu tun als alle möglichen Hersteller nach dem billigsten Preis abzuklappern. ;)

War eigentlich auch nur als kleine Randnotiz gedacht da ich heute zufällig was bestellen musste und einfach mal geschaut hab ob sie schon gelistet sind.


Sind erst seit heute drin. Und diejenigen die öfters bei INGRAM kaufen wissen das sie dann bald verfügbar sind.

LovesuckZ
2004-05-07, 15:55:28
Original geschrieben von Quasar
Stellenweise schon. An anderen Stellen eher nicht....

Könntest du davon ein Bildchen machen?

Quasar
2004-05-07, 16:39:12
Erstmal lieber nicht. Wie gesagt, es könnte sonst nach versuchter Rufschädigung aussehen.

Das muss erst geklärt werden.

ice cool69
2004-05-07, 17:56:19
Ich hab mal 2 Fragen: Bietet die GF6800 Ultra auch 3Dc? Und warum ist die r420-Serie in Far Cry so viel schneller als die Geforce? Das kann doch nicht sein, da stimmt doch was nicht...

deekey777
2004-05-07, 17:58:47
Original geschrieben von ice cool69
Ich hab mal 2 Fragen: Bietet die GF6800 Ultra auch 3Dc? Und warum ist die r420-Serie in Far Cry so viel schneller als die Geforce? Das kann doch nicht sein, da stimmt doch was nicht...

Ich gebe dir einfach die Standardantwort: Die R420 ist eine Technologiebremse und bietet ua keine SM 3.0 Unterstützung.

LovesuckZ
2004-05-07, 17:59:09
1. Nein.
2. http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1788639#post1788639

WEGA
2004-05-07, 18:12:15
Original geschrieben von deekey777
Ich gebe dir einfach die Standardantwort: Die R420 ist eine Technologiebremse und bietet ua keine SM 3.0 Unterstützung.

blödsinn, shader 3.0 is momentan überflüssig .... aber deine SIG is gut *g*

deekey777
2004-05-07, 18:13:48
Original geschrieben von WEGA
blödsinn, shader 3.0 is momentan überflüssig .... aber deine SIG is gut *g*

Die Antwort ist eh ironisch gemeint. Und wenn du meine Signatur magst, magst du auch Qua-SAR'S seine. :D

Quasar
2004-05-07, 18:14:12
Original geschrieben von ice cool69
Ich hab mal 2 Fragen: Bietet die GF6800 Ultra auch 3Dc? Und warum ist die r420-Serie in Far Cry so viel schneller als die Geforce? Das kann doch nicht sein, da stimmt doch was nicht...

a) Nein.
b) Kann verschiedene Gründe haben.
b1) Der nV40 läuft auf dem nV3x-Pfad und mag diesen nicht
b2) Der nV40 hat ein Treiberproblem
b3) Der nV40 ist schlicht langsamer als der R420
b4) Der nV40 kommt mit seinem lokalen RAM nicht hin, Stichworte Oversized Buffer und Filter-At-Scanout
b5) Der nV40 nutzt nicht so effektive "Optimierungen" wie der R420

...macht ihr weiter... ;)

vbnvbn
2004-05-07, 18:32:25
Original geschrieben von zuizui
Hier wird nicht getrollt!

Wenn was negatives über NV gepostet wird,drückt man gleich die Löschtaste.

Quasar
2004-05-07, 18:33:42
Original geschrieben von vbnvbn
Wenn was negatives über NV gepostet wird,drückt man gleich die Löschtaste.

Ich glaube, es ist vielmehr die Art, wie man es sagt...

(Ja, dieser Post soll zum Nachdenken anregen)

deekey777
2004-05-07, 18:38:57
Zu b1) Schlicht falsch!
Die 6800 benutzt ihren eigenen (NV40)Pfad, was deutlich auf den Vergleichsscreenshots zw. 6800/9800XT/5950 Ultra zu sehen ist. Zu der Schwäche der NV40, die einfach zu deutlich im Vergleich zu der X800 oder auch in einigen Fällen zu der 9800XT ist, kann ich nur eins sagen: Abwarten, bis das DX9.0c kommt und damit die NV40 einen "Speedboost" bekommt.

Andererseits: Was wäre, wenn dieser NV40 Pfad nicht mit dem Patch 1.1 vorhanden wäre? Auch hier kann man nur mutmassen.

MarcWessels
2004-05-07, 18:39:38
Original geschrieben von Quasar
a) Nein.
b) Kann verschiedene Gründe haben.
b1) Der nV40 läuft auf dem nV3x-Pfad und mag diesen nicht
b2) Der nV40 hat ein Treiberproblem
b3) Der nV40 ist schlicht langsamer als der R420
b4) Der nV40 kommt mit seinem lokalen RAM nicht hin, Stichworte Oversized Buffer und Filter-At-Scanout
b5) Der nV40 nutzt nicht so effektive "Optimierungen" wie der R420

...macht ihr weiter... ;)


Nein, der Grund ist im von LS geposteten Link zu finden.

Damit wäre eine 6800UE wohl sogar einen Hauch schneller asl die X800XT (in Far Cry). Wenn sich dann noch die brilineare Filtergeschichtein OpenGL bei ATI bestätigt...

Ja mei, was soll ich denn dann bitte kaufen? :D

Jenaq
2004-05-07, 18:44:14
http://www.hardware-mag.de/news.php?id=35851

Wenn das stimmt, kann man getrost die Benchmarks als "Richtungsweiser" verstehen, wie jetzt aber ne kaufbare R420 sich schlägt, steht damit erstmal in den Sternen...

Quasar
2004-05-07, 18:45:45
Original geschrieben von deekey777
Zu b1) Schlicht falsch!
Die 6800 benutzt ihren eigenen (NV40)Pfad, was deutlich auf den Vergleichsscreenshots zw. 6800/9800XT/5950 Ultra zu sehen ist.
IMO ist es dann aber ein interessanter Zufall, daß sie in der log-Datei dann als "nV3x" erkannt wird.

Ich jedenfalls würde diese Möglichkeit nicht ausschließen.

Original geschrieben von MarcWessels
Nein, der Grund ist im von LS geposteten Link zu finden.

Damit wäre eine 6800UE wohl sogar einen Hauch schneller asl die X800XT (in Far Cry). Wenn sich dann noch die brilineare Filtergeschichtein OpenGL bei ATI bestätigt...

Ja mei, was soll ich denn dann bitte kaufen? :D

Sorry, aber die Erklärung ist mir ein wenig zu "offiziell" - Chip.de schreibt nur das, was nVidia sagt, ab.
Der neue FW-Treiber filter in SeSamSE ja anscheinend auch nur noch reduziert-trilinear. Das könnte z.B. auch ein Grund sein. Die AA-Buffer Geschichte ein anderer... da spielen IMO zuviele Sachen mit rein.
Und solange ich in FC nicht wieder meine v1.0-Bildqualität wiederhabe, zählt das Ding (i.e. der Benchmark) für mich persönlich eh nicht viel.

cvbvb
2004-05-07, 18:46:41
Original geschrieben von MarcWessels
Nein, der Grund ist im von LS geposteten Link zu finden.

Damit wäre eine 6800UE wohl sogar einen Hauch schneller asl die X800XT (in Far Cry). Wenn sich dann noch die brilineare Filtergeschichtein OpenGL bei ATI bestätigt...

Ja mei, was soll ich denn dann bitte kaufen? :D

Mit AA/AF ist die ATI meist schneller oder sogar deutchlich schneller.

Geh auf xbitslabs

Quasar
2004-05-07, 18:50:21
Original geschrieben von Jenaq
http://www.hardware-mag.de/news.php?id=35851

Wenn das stimmt, kann man getrost die Benchmarks als "Richtungsweiser" verstehen, wie jetzt aber ne kaufbare R420 sich schlägt, steht damit erstmal in den Sternen...

Das stimmt so, die email habe ich auch bekommen. =)
Der Chiptakt variiert dabei ja gar nicht mal so dolle, aber die 600MHz Speicher bei ex tech... hm. :)

deekey777
2004-05-07, 18:55:07
HardOCP (http://www.hardocp.com/article.html?art=NjA2LDU=) vergleicht die einzelnen Screenshot der 6800/5950/9800 miteinander. In der ersten Bildergruppe sieht man deutlich, dass die 9800 und die 6800 die gleiche Renderqualität aufweisen, die 5950 (siehe Boden) dagegen rendert wohl noch mit PS 1.1. Warum? Die Erklärung/Vermutung: Es ist gut möglich, dass "Stellen" (zB Fliesen), die eigentlich mit PS 3.0 dargestellt werden sollten, mit PS 1.1 dargestellt werden, da es nunmal kein DX9.0c gibt. Warum dagegen Cry Tec es für nötig hielt, diesen Pfad für die 6800 so früh schon zu liefern, gehört nicht Diskussion. Bisher habe ich nicht gesehen, dass die 6800 eindeutig als eine NV3x von FC erkannt wird.

Quasar
2004-05-07, 19:03:14
Original geschrieben von deekey777 In der ersten Bildergruppe sieht man deutlich, dass die 9800 und die 6800 die gleiche Renderqualität aufweisen, die 5950 (siehe Boden) dagegen rendert wohl noch mit PS 1.1.
Die 9800 und die 6800 sehen mitnichten gleich aus. Die Beleuchtung ist teils erheblich anders und der Glanzeffekt auf dem Fussboden ist bei der 6800 deutlich schwächer. Bei der FX fehlt er fast völlig.

Far Cry ist momentan nicht nur Äpfel und Birnen, sondern Tomaten und Steaks.

Original geschrieben von deekey777
Bisher habe ich nicht gesehen, dass die 6800 eindeutig als eine NV3x von FC erkannt wird.
Da ich in der Zwischenzeit noch andere Karten im Rechn0r hatte, kann ich dir das log leider nicht mehr posten...

Fadl
2004-05-07, 19:17:30
Original geschrieben von Quasar
Das stimmt so, die email habe ich auch bekommen. =)
Der Chiptakt variiert dabei ja gar nicht mal so dolle, aber die 600MHz Speicher bei ex tech... hm. :)

Sollte der RAM nicht eh für 600MHz spezifiziert sein? Daher verwundert es mich eher das er nicht überall mit 600MHz getaktet wurde.
Trotzdem ist es natürlich verwunderlich woher diese zumeist sehr geringen Abweichungen kommen und welche finalen Taktraten nun in den Serienmodellen verwendet werden.

Quasar
2004-05-07, 19:19:30
Ja, sollte er (dito bei der 6800U, ausser HardOCPs Sample).

Vielleicht war man unsicher, ob 600MHz-RAM ins ausreichender Menge zu bekommen sei?

Fadl
2004-05-07, 19:23:23
Original geschrieben von Quasar
Ja, sollte er (dito bei der 6800U, ausser HardOCPs Sample).

Vielleicht war man unsicher, ob 600MHz-RAM ins ausreichender Menge zu bekommen sei?

Sicher eine Möglichkeit. Ansonsten macht es auch eigentlich keinen Sinn.
Ist der schnelle RAM nun eigentlich ausreichend(für die Top Karten) verfügbar oder gibt es darüber noch keine genaueren Angaben?

Quasar
2004-05-07, 19:27:26
Ich weiß nyx.

Mr. Lolman
2004-05-07, 19:57:06
Original geschrieben von Quasar
Die 9800 und die 6800 sehen mitnichten gleich aus. Die Beleuchtung ist teils erheblich anders und der Glanzeffekt auf dem Fussboden ist bei der 6800 deutlich schwächer. Bei der FX fehlt er fast völlig.


Stimmt, von den 3 Bilder unterscheiden sich im Vergleich zum ATi Screenshot, 6800 Ultra und FX5950 kaum voneinander...

Quasar
2004-05-07, 20:00:23
Original geschrieben von Mr. Lolman
Stimmt, von den 3 Bilder unterscheiden sich im Vergleich zum ATi Screenshot, 6800 Ultra und FX5950 kaum voneinander...
Stimmt nicht. So habe ich das nicht gesagt und nicht gemeint.

ShadowXX
2004-05-07, 20:02:29
Weiss eigentlich jemand, wann M$ gedenkt endlich mal DX90c freizugeben??

Ich hoffe doch mal, das das nächsten Monat passiert...

BlueRaven
2004-05-07, 20:07:22
z.Zt liegt der Preis für eine günstige Radeon X800 Pro Grafikkarte bei 380.83€ ( Deutschland Preis ) kann sich aber noch ändern aber man sieht wie die Preis/Leistung ist.




bye
BlueRaven

WEGA
2004-05-07, 20:09:17
Original geschrieben von ShadowXX
Weiss eigentlich jemand, wann M$ gedenkt endlich mal DX90c freizugeben??

Ich hoffe doch mal, das das nächsten Monat passiert...

spätestens, wenn man nv40 kaufen kann

Jenaq
2004-05-07, 20:12:49
Original geschrieben von WEGA
spätestens, wenn man nv40 kaufen kann

Quelle ?

Bisher hat man nichts zum Release verlauten lassen.

BlueRaven
2004-05-07, 20:14:58
Microsoft DirectX 9.0c wird dann erscheinen wenn man die beiden High-End Grafikkarten kaufen kann. Soweit ich mich errinern kann war es immo so oder...





BlueRaven

robbitop
2004-05-07, 20:24:38
wegen Far Cry:
-wartet doch mal auf den neuen Patch und DX9.0c dann soll der NV40 Pfad ganz anders laufen.
-erst der 61.11 bringt das Z-Culling problem bei FC in Ordnung...dazu ist die Dateierkennung aber nötig
-"NVIDIA did this because when FSAA is applied within the CP with the current drivers the game allocates oversized buffers. As you know FarCry uses a lot of video memory space. This oversized buffer was hurting performances of the board.

That's why they are disabling FSAA with FarCry when it is enabled in the CP. However eveything is working as expected when FSAA is enabled in the game."
Quelle B3D

wegen AF:
ich denke das hat sich hochgeschaukelt, denn die Benches waren immer so knapp, dass man versucht hat, am AF zu sparen, damit man das letzte Quentchen zum Sieg da ist. ATi war diesbezüglich Vorreiter. Was sie mit dem Cat 4.5 gemacht haben, war allerdings unnötig. NV hat mit dem 61.11 wohl "nur" reagiert.

Ich hab nix dagegen wenn die default settings in den Treibern zum Benchen optimiert sind. Die hirnrissigen Reviewer (sind leider ein großteil) und die DAUs merken das eh nicht und kommen auch nicht auf die Idee da was umzustellen.
Die volle AF Quallität könnte von mir aus nur über Registry Hacks verfügbar sein, so dass man mit entsprechenden Tools die geforderte BQ hat. Denn die Leute die sich über die BQ aufregen sind meist auch clever genug, sich zu informieren und die tools zu laden.
Wäre imo die Ideallösung. Somit hat jeder was er will.

LovesuckZ
2004-05-07, 20:41:03
Original geschrieben von robbitop
Was sie mit dem Cat 4.5 gemacht haben, war allerdings unnötig.

Die Idee einer dynamischen Filterung halte ich für genial, solange man aber die Option hat, es auf eine Moeglichkeit zu beschraenken. Es ist schade, dass Nvidia dies nie weiter verfolgt hat :(
Auch schade ist, dass Mister q; keine Bilder für die ATi losen bereit stellt :)

Quasar
2004-05-07, 20:56:43
Man sieht auf diesen Bildern nicht viel. Das ist ja der Spaß - möglicherweise verhindert der ColorMip-Befehl eben ja die Optimierung.
CoD coloriert bei mir keine Mip-Level mit dem 3da - leider.

Iceman346
2004-05-07, 21:01:32
Original geschrieben von robbitop
Was sie mit dem Cat 4.5 gemacht haben, war allerdings unnötig.

Was wird denn da angestellt *dummfrag*? Hab noch nichts mitbekommen.

Winter[Raven]
2004-05-07, 21:03:27
@ deekey777

Bitte informiert dich befor du postest!

Ich kann dir den Avatar von Quasar nur ans herz legen.

http://80.237.203.42/vbulletin/avatar.php?userid=731&dateline=1076008072

Es wurd schon mindestens 20 mal in verschiedenen Tread gesagt der NV40 nützt den NV3x path und keinen NV4x. Den solange es keinen DX9.0c gibt ist es nicht möglich ...!

Anscheinend willst du es einfach nicht verstehen.

tRpii
2004-05-07, 21:19:17
Wird sich ja alles zeigen von daher lasst es doch bei niveauvollen Unterhaltungen. Gegenseitig antrollen bringt ja nix.

robbitop
2004-05-07, 21:19:44
bilineare Stagesoptimierung?

Alexander
2004-05-07, 21:32:03
Original geschrieben von Alexander
Hi,

1. Ist der NV40 nur dann schneller wenn mann auf AF und co verzichtet, das ist üblicherweise bei 500 € Karten nicht der Wunsch eines einzelnen! Bei höheren Qualitätsstuffen AF und co wird der NV40 um bis 50% langsamer!

Es kommt sogar noch schlimmer, der kleine Bruder vom R420 mit nur 12 Pipes ist sogar noch schneller!

2. Ist es PC Selbstmord die NV40 als 1-Slot Lösung zu verwenden, die Abwärme vom Chip und Speicher kann nicht optimal entweichen.

3. Hätte ATI Wert darauf gelegt so ein Strom-Monster zu kreieren hätten sie den NV40 als FX5200 stehen gelassen (PERFORMACE-MÄSSIG).

Das muss mann sich ersteinmal auf der Zunge zergehen lassen, weniger Transis und weniger Stromverbrauch und trotzdem schneller!

4. Ist nv immer noch bei PS.1x unter Fracry stehen geblieben, wo bitte ist da die Logik? Ersteinmal würde ich an nv's Stelle PS2.0 100% Unterstützen und genau diesen Gedanken machen sich auch die Dev's.

5. Wo ist die Verfügbarkeit?? nach 2 Monaten immer noch keine NV40 im Handel!!!

6. Wo sind die tollen 6800'er Reviews auf der nvidia-Homepage ??

7. Ich bin mir 100% SICHER, wäre die Situation andersrum, sprich NV40 = von ATI und R420 = von nvidia würde hier eine ganz andere Meinung die Runde machen..

Verflucht...da hat jemand meinen Namen benutzt...ich bin der erste Alexander (ich unterschreibe normalerweise immer noch)...muss mich wohl doch mal registrieren...

Alexander

Sphinx
2004-05-07, 21:48:40
Original geschrieben von Winter[Raven]
@ deekey777

Bitte informiert dich befor du postest!

Ich kann dir den Avatar von Quasar nur ans herz legen.

http://80.237.203.42/vbulletin/avatar.php?userid=731&dateline=1076008072

Es wurd schon mindestens 20 mal in verschiedenen Tread gesagt der NV40 nützt den NV3x path und keinen NV4x. Den solange es keinen DX9.0c gibt ist es nicht möglich ...!

Anscheinend willst du es einfach nicht verstehen.


Duden tut gut. Da kann man nachschlagen, wie einige simple Wörter in korrektem Deutsch geschrieben werden.

Nun kommen die Wundertreiber und DirectX 9.1 phrasen ins ATI Thread...


An alle ich kann euch die IGNORE Funktion - nur anraten. Das ist wirklich schlimm was für geschwafel hier einige von sich geben. Ich hätt selbst nicht gedacht das ich diese Funktion doch mal gebrauchen würde...

*Hochlebe Nvidia Hochleben sie ,) /ironieaus

deekey777
2004-05-07, 22:00:25
Original geschrieben von Winter[Raven]
@ deekey777

Bitte informiert dich befor du postest!

Ich kann dir den Avatar von Quasar nur ans herz legen.

http://80.237.203.42/vbulletin/avatar.php?userid=731&dateline=1076008072

Es wurd schon mindestens 20 mal in verschiedenen Tread gesagt der NV40 nützt den NV3x path und keinen NV4x. Den solange es keinen DX9.0c gibt ist es nicht möglich ...!

Anscheinend willst du es einfach nicht verstehen.

Das sagt der Richtige... Bisher habe ich keinen Auszug aus der Log.txt, der zeigt, dass die 6800 tatsächlich bei Beleuchtung auf "very high" unter NV3x läuft. Nur was ich sehe, glaube ich ( zu sehen). :D
Meine Behauptung basiert darauf:
Zitat (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1751340#post1751340) von Demirug:

Ich vermute mal das der Patch nur gegen die 9.0c Runtime getestet wurde. Das Spiel erkennt den NV40 und will die 3.0 Shader nutzen. Das geht aber nur mit 9.0c eine 9.0b wird sich weigern. Ergo muss die Engine für die Shader die nicht gehen die Fallbacks benutzen. Da man die Einträge wahrscheinlich einfach kopiert hat sind für die 3.0 Shader als Fallback immer noch die 1.1 Shader eingetragen und nicht die entsprechenden 2.0 Versionen.

Zu den von mir gelinkten Bildern: Blind??? (Nicht böse gemeint!)
Man sieht deutlich, dass der Boden auf der 6800 von dem Boden auf der 9800XT sich nur durch die etwas unterschiedliche "Dampfverbreitung" unterscheiden. Sonst ist der Boden gleich. Ich glaube, ihr habt viel zu wenig Far Cry gespielt. ;D

6800 (http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_1_l.jpg)
9800 (http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_3_l.jpg)

@Sphinx

Das muss nicht sein!!!

Alexander
2004-05-07, 22:03:00
Original geschrieben von Radeonator
Faktisch stimmt das nicht. Egal was du glaubst, so ist die nV40 oftmals genausoviel schneller , je nach Game/Anwendung. Erstmalig sind wir Enduser nun vor der Qual der Wahl und das ist gut so...

Aehmm...ich meinte die X800XT ist fuer mich schneller...nicht ueberall (obwohl ich glaube, dass sie auch insgesamt betrachtet ein klein wenig schneller ist...aber ob man das beim spielen wirklich merkt...). Und ich finde es sehr gut, dass NV40 und R420 so nahe beeinander liegen...aus genau demselben Grund wie Du...man hat die Wahl. Und ausserdem sorgt die Konkurenz fuer schnelle Karten und akzeptable Preise.

Original geschrieben von Radeonator HL2 ist nicht fertig, woher also der glaube das es auf ATi Karten so toll performen wird???

Da hab ich mich auf Gabe Newells Aussagen bezogen...und den Aufschrei danach. Ob die Aussagen von Gabe Newell der Wahrheit entsprechen steht auf einem anderen Blatt. Ich wollte damit nur ausdruecken, was passiert wenn ein Spiel eine Plattform vernachlaessigt...dann gibts sofort Bambule. Ich glaube nicht, dass es sich jemand wirklich leisten kann die ganzen Besitzer von R3x0, R4xx und NV3x Karten vor den Kopf zu stossen weil das neue Spiel nur mit PS3.0 annehmbar laeuft. Zwangslaeufig wird man immer auf eine gute Performance/Bildqualitaet auch fuer PS2.0 Karten achten muessen.

Original geschrieben von Radeonator NEUE features sind immer ein Kaufgrund. Viele Otto normal Anwender lesen "mit Unterstützung von XYZ und ZXY und...blabla" und werden darum eher eine solche Karte kaufen. Anders als bei DX8, wo es 2 Generationen von Karten gebraucht hat, gibt und gab es sehr schnell DX9 Features unterstützende Games(Ja, unterstützende, weils keine reinrassigen DX9 Titel gibt.... ) und es folgend in bälde viele mehr. Zudem ist es nicht schwierig für PS3 zu erweitern.

Mag schon sein, dass viele nur "Unterstuetzung von PS3.0" lesen und dann kaufen. Das kann aber auch nach hinten losgehen...wie z.B. als bekannt wurde, dass auf den FarCry-Screens auf der NV40 Praesentation PS1.1 und PS3.0 verglichen wurden. Wenn die Gamestar sowas bringt (ich sehe schon die Schlagzeile "PS3.0 nur Schwindel") setzt sich das mit der Zeit auch in den Koepfen fest. Und in Marketingtechnischer Hinsicht haben es die PS3.0 auch nicht so leicht...sie sind immer noch DX9...waeren sie DX10 wuerde sich das besser verkaufen...wir werden ja sehen was die Zukunft bringt...wer mehr Karten verkauft. Nur noch eins...die PS1.4 haben der Radeon 8500 auch nicht zu hoeheren Verkaufszahlen verholfen...

Sind wir doch mal realistisch...was gibts von PS3.0 zu erwarten? Wahrscheinlich wird es in recht naher Zukunft eingesetzt, um einen ganzen Haufen Spiele zu beschleunigen. Der Geschwindigkeitsvorteil duerfte allerdings nicht allzu hoch sein (ok das ist nur eine Vermutung). Neue Effekte aufgrund von PS3.0 wirds wohl selten bis gar nicht geben.

Ich denke viele User werden auch auf die Benchmarks gucken. Und wenn da eine Karte mit 3% fuehrt wird eben die genommen...auch wenn man den Unterschied nicht merkt. Ich verweise nur auf die Ueberschrift des Gamestar-Artikels: "Test: Leise Radeon X800 schlägt laute Geforce 6800 Ultra Extreme"...ich denke sowas beeinflusst die Massen.

Original geschrieben von Radeonator Auch hier ein jein mit starker Tendents zu Nein! Es ist bei FX vs r300 so gewesen, bei der nV40 stimmt diese Aussage nicht mehr, ergo falsch...

Da hab ich aber schon anderes gehoert...auf den R3x0/R4xx ist immer noch leichter zu optimieren...das kann natuerlich auch dazu fuehren, was Quasar angedeutet hat...da der Code ohnehin schon gut optimiert ist kuemmert man sich nicht weiter drum, waehrend man fuer den NV40 alles herausholt.

Original geschrieben von Radeonator Es gibt bereits 1-Slot Lösungen, bitte informiere dich erstmal genauer...

Oh...hab ich nicht gewusst...kannst Du mal einen Link posten. Danke!

Alexander

Sphinx
2004-05-07, 22:08:07
@ - Ich bin Ansich ein ganz ruhiger und gelassener Leser.

Aber was hier von einigen Vermittelt wird grenzt schon an DAU´s | Verschwörungstheorien | Ausreden | Könnte | Müsste...

Wat zuviel ist - ist zuviel. Drum nutz ich seid heute die Ignore Funktion.

Godmode
2004-05-07, 22:16:22
Original geschrieben von Quasar
Man sieht auf diesen Bildern nicht viel. Das ist ja der Spaß - möglicherweise verhindert der ColorMip-Befehl eben ja die Optimierung.
CoD coloriert bei mir keine Mip-Level mit dem 3da - leider.

Das wär die Verarsche schlecht hin!! Mal testen mit eingefärbten MipMaps -> alles ok, alles super gefiltert.

Dann mal ColorMips deaktiviert und schon schalten wir auf Stageoptimierung um!!

Wenn sich das bewahrheiten sollte, dann ist das sicherlich so ein Skandal wie mit früheren Nvidia Cheat Orgien.

Naja will mal keine voreiligen Schlüsse ziehnen, aber wenn sie das wirklich machen, kann ich nur :down: sagen!

PS: mit dem neuen Nvidia Treiber stimmt aber auch was nicht mit der Triliniearen Filterung.

Scheiss Optimierungen!!

Gfrast
2004-05-07, 22:24:34
Original geschrieben von deekey777
6800 (http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_1_l.jpg)
9800 (http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_3_l.jpg)

@Sphinx

Das muss nicht sein!!!

Aber wirklich nicht. Nimm doch mal eine der beiden anderen Szenen, und zeig mir, wo 6800U und 9800xt da ein gleichwertiges Bild rendern...

deekey777
2004-05-07, 22:32:47
Original geschrieben von Gfrast
Aber wirklich nicht. Nimm doch mal eine der beiden anderen Szenen, und zeig mir, wo 6800U und 9800xt da ein gleichwertiges Bild rendern...

Wieso sollte ich mir die Mühe machen, wenn alles von HardOCP deutlich beschrieben wurde?

In the second screenshot above notice that on the 5950Ultra there is a missing pixel shader effect on the floor which the 6800Ultra and 9800XT are showing. For those of you looking for some "apple to apple" frame rate numbers, you can see that the GeForce 6800Ultra is outstripping both the 5950U and 9800XT by a margin in excess of 25%.
In the second screenshot above notice how the floor has a blocky pattern on the 5950Ultra and 6800Ultra. This pattern was introduced with the patch version 1.1 on the GeForce series. Also look toward the back left of the picture to the steps; you can see that the 6800Ultra is doing much better AA on those than the 5950Ultra is. It is also clear that the GeForce 6800 Ultra is dominating the 9800XT in terms of frame rate.
In the third picture above you can see the banding of the light pattern on the floor in the 5950Ultra and 6800Ultra compared to the 9800XT shot. Again, this banding was introduced with patch 1.1 of FarCry on the GeForce series and we are anxious to see if this gets "fixed" with the driver or patch release.


Noch deutlicher kann ich es auch nicht formulieren.

Die anderen Bilder der 5950&6800 gleichen einander.

Exxtreme
2004-05-07, 22:37:39
Original geschrieben von robbitop
bilineare Stagesoptimierung?
Ist schon seit CAT 3.2 so insofern nichts Neues.

@ All

Wenn die gegenseitige Anmache hier nicht aufhört, mache ich den Thread dicht und verteile ein Paar Punkte! *grrr*

deekey777
2004-05-07, 22:42:18
Mal was lustiges:
Egay (http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&category=47564&item=4129270829&rd=1&ssPageName=WDVW)
Und zwar dies:
DANK PIXELSHADER 2.0 ATEMBERAUBENDE LICHT- UND SCHATTENBERECHNUNG IN HÖCHSTER QUALITÄT UND BISHER UNBEKANNTER GESCHWINDIGKEIT !!!
Was ist daran seltsamt???
Vor einigen Stunden stand da:
DANK PIXELSHADER 3.0 ATEMBERAUBENDE LICHT- UND SCHATTENBERECHNUNG IN HÖCHSTER QUALITÄT UND BISHER UNBEKANNTER GESCHWINDIGKEIT !!!

(Sorry für die Großschreibweise!)

Auch der Preis war mal 800(!) t€, jetzt aber nur 700t€.

Godmode
2004-05-07, 22:49:55
Ist das ein Händler oder hat er das Teil wo geklaut??

BUG
2004-05-07, 22:54:33
*rofl*

Karte wird versendet sobald sie vom Hersteller
ausgeliefert werden kann!

Viel Glück beim Bieten!

BITTE BEDENKEN SIE DASS ES SICH HIERBEI UM EINE
VORBESTELLUNG HANDELT, DA DIESE KARTEN ERST ENDE MAI
OFFIZIELL VERKAUFT WERDEN DÜRFEN!!!

:bonk:

..wer da kauft is selber schuld! :rofl:

btw.: http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItemRevisionDetails&item=4129270829

cu
BUG

HOT
2004-05-07, 23:50:37
Original geschrieben von Winter[Raven]
@ deekey777

Bitte informiert dich befor du postest!

Ich kann dir den Avatar von Quasar nur ans herz legen.

http://80.237.203.42/vbulletin/avatar.php?userid=731&dateline=1076008072

Es wurd schon mindestens 20 mal in verschiedenen Tread gesagt der NV40 nützt den NV3x path und keinen NV4x. Den solange es keinen DX9.0c gibt ist es nicht möglich ...!

Anscheinend willst du es einfach nicht verstehen.

na ja, das Umleitungsschild zeigt in die falsche Richtung :D ;)

InsaneDruid
2004-05-08, 00:44:32
Original geschrieben von deekey777
Zu den von mir gelinkten Bildern: Blind??? (Nicht böse gemeint!)
Man sieht deutlich, dass der Boden auf der 6800 von dem Boden auf der 9800XT sich nur durch die etwas unterschiedliche "Dampfverbreitung" unterscheiden. Sonst ist der Boden gleich. Ich glaube, ihr habt viel zu wenig Far Cry gespielt. ;D

6800 (http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_1_l.jpg)
9800 (http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_3_l.jpg)


Äh.. *vorsichtig handheb* also.. n bissl mehr als in der Dampfdarstellung unterscheiden sich die Pics aber schon.. die ganzen Glanzlichter am Bodenrelief und an der Maschine rechts fehlen oder sind zumindest extrem schwach..

tRpii
2004-05-08, 11:21:19
btw. KM soll laut ihren Angaben die X800 Pro schon im Hauptlager haben (für ~414€)

Uller
2004-05-08, 11:29:28
Nö, wird in den nächsten Tagen erwartet steht da.
Auch im Laden wird sie dann für 390 verfügbar sein, k.A. woher du deine Info hast?!

tRpii
2004-05-08, 11:58:25
doch, stand gestern abend/nacht noch so dort und der stand wurde vor 30 minuten erst geändert, also scheinen welche da gewesen zu sein die schon weg sind..

Uller
2004-05-08, 12:02:32
Das kann sein, hat auch jemand in US-Boards geschrieben, dass die meisten Händler zuerstmal nur 2-3 Boards bekommen haben die dann natürlich sofort wegwaren.

vbnvbn
2004-05-08, 12:43:40
Es gibt keine XT und Platinum Edition !

Platinum Edition ist nur der Marketung Name für den Amimarkt,bei uns wird sie XT heißen.

XT und PE ist ein und die selbe Karte und keine extra Version.

Ich schreibe das nur weil in de 3DC News steht ,das die PE gegen die Ultimate editon von NV antreten soll.

BadFred
2004-05-08, 15:58:19
Original geschrieben von vbnvbn
Es gibt keine XT und Platinum Edition !

Platinum Edition ist nur der Marketung Name für den Amimarkt,bei uns wird sie XT heißen.

XT und PE ist ein und die selbe Karte und keine extra Version.

Ich schreibe das nur weil in de 3DC News steht ,das die PE gegen die Ultimate editon von NV antreten soll.

Hm, meinst du dann nicht, daß du bei deiner Korrektur auch die Quelle mit angeben solltest?

WEGA
2004-05-08, 16:00:17
die karte wird bei uns und bei den amis sowie dem rest der welt x800xt platinum heißen.

Mr. Lolman
2004-05-08, 16:08:42
some Beer and 715MHz CoreClock:

http://www.muropaketti.com/sampsa/kuvia/r420_launch/05.jpg
http://www.muropaketti.com/sampsa/kuvia/r420_launch/07.jpg
http://www.muropaketti.com/sampsa/kuvia/r420_launch/08.jpg


ATis Briefing Documents:

http://www.muropaketti.com/sampsa/kuvia/r420_launch/02.jpg
http://www.muropaketti.com/sampsa/kuvia/r420_launch/03.jpg

Quasar
2004-05-08, 16:11:29
Das erklärt einiges über die meisten Reviews.... :|

Mr. Lolman
2004-05-08, 16:12:40
Original geschrieben von Quasar
Das erklärt einiges über die meisten Reviews.... :|

;D;D;D

dildo4u
2004-05-08, 16:13:55
Original geschrieben von Quasar
Das erklärt einiges über die meisten Reviews.... :| was der alk oder das trockeneis? :D

Quasar
2004-05-08, 16:19:52
Der Alk!
Leo hat seine Karte von Sapphire - und ist mit als einziger drauf gekommen, zu versuchen, die TS zu deaktivieren.

reunion
2004-05-08, 17:12:19
Original geschrieben von LovesuckZ
Weil leute wie du nur auf die Balken schauen.
Es ist bezeichnend für die jetzige Zeit, dass nur sehr wenige Reviewer die Featurelosigkeit des r420 übrhaupt angeprangert haben.


Inzwischen dürfte es wohl jeder mitbekommen haben das der R420 kein PS/VS 3.0 unterstützt. Doch ich bezweifle jetzt mal das dass ein großer nachteil ist. Viel beeindruckender finde ich das ATI es geschafft hat bei einem neuen ca. doppelt so schneller Chip den Stromverbrauch im Vergleich zum vorgänger sogar leicht zu senken.

Und ich werde echt Lachen, wenn in einem jahr plötzlich einige meinen, dass das SM3.0 wichtig sei, weil Nvidia die Vorarbeit, also Spieleunterstuetzung, geleistet habe und man nun SM3.0 faehige Hardware benoetige. Nene, bleibt bei eurer Steinzeitkarte oder benutzt nie das SM3.0. Ich meine, 3dc ist ein gutes Feature, das koennt ihr doch benutzten!



Natürlich ist PS3.0 ein wichtiges und gutes Feature, genau so wie PS1.4 beim R200 ein wichtiges und gutes Feature war, nur bringt es eben zu lebzeiten der Karten keinen Wirklichen Vorteil.

Nun, um wiedr auf das Thema zurueck zu kommen: Xbitlabs testet wie imemr auch die HL2 - Beta, und da liegt die XT version nicht gerade weit vorne...
http://www.xbitlabs.com/articles/video/display/r420-2_12.html

Der Bench ist absolut unbrauchbar und das weißt du auch...

LovesuckZ
2004-05-08, 17:20:54
Original geschrieben von reunion
Viel beeindruckender finde ich das ATI es geschafft hat bei einem neuen ca. doppelt so schneller Chip den Stromverbrauch im Vergleich zum vorgänger sogar leicht zu senken.

Nicht wirklich, oder Hardware.fr (http://www.hardware.fr/articles/494/page7.html) und techreport.com (http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=27) lügen. Das Thema wird aber schon hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=140974) besprochen.

Natürlich ist PS3.0 ein wichtiges und gutes Feature, genau so wie PS1.4 beim R200 ein wichtiges und gutes Feature war, nur bringt es eben zu lebzeiten der Karten keinen Wirklichen Vorteil.

Und wann bringt es dann einen Vorteil? NV40 kein SM3.0 -> Keine Unterstuetzung -> NV50/r500 haben SM3.0 -> Lebzeiten keinen Vorteil -> unnuetz. Argumentation von Leuten, die Versuchen das SM3.0 schlecht zureden...
Statt Nvidia zu danken, dass sie versuchen weiter zu gehen, werden sie sogar dafür kritisiert. Echt erbaermlich!

Quasar
2004-05-08, 17:22:28
Original geschrieben von reunion Viel beeindruckender finde ich das ATI es geschafft hat bei einem neuen ca. doppelt so schneller Chip den Stromverbrauch im Vergleich zum vorgänger sogar leicht zu senken.
Zu senken?
Das ist nur bei der X800 Pro der Fall...

Und wenn ich mir das so anschaue, scheint auch die 6800 (GT?) nicht mehr zu brauchen, als die FX5950...

Bist du von nVidia auch so beeindruckt - vor allem, weil sie es schafften, dabei prozentual noch mehr Transistoren zu integrieren und das _ohne_ auf einen kleineren Herstellungsprozess zu wechseln?

;)

reunion
2004-05-08, 17:35:32
Original geschrieben von LovesuckZ
Und wann bringt es dann einen Vorteil? NV40 kein SM3.0 -> Keine Unterstuetzung -> NV50/r500 haben SM3.0 -> Lebzeiten keinen Vorteil -> unnuetz.


Ich habe oben schon geschrieben das PS/VS3.0 wichtig ist. Nur erstens muss man mal abwarten ob das bei NV40 überhaupt halbwegs schnell einsetztbar ist (soll ja ziemlich viele takte benötigen), und nicht nur ein "Papierfeature" so wie der PS2.0 beim Nv30. Und zweitens wird es eben zu lebzeiten der Karte kaum einen Vorteil bringen. Denn wie schonmal gesagt, es zählt eben letztendlich für die Masse (leider) nur der Speed.


Argumentation von Leuten, die Versuchen das SM3.0 schlecht zureden...
Statt Nvidia zu danken, dass sie versuchen weiter zu gehen, werden sie sogar dafür kritisiert. Echt erbaermlich!

Ich will PS3.0 sicherlich nicht schlechtreden ich finde es sogar sehr wichtig, und deshalb wird meine nächste Karte auch von Nv kommen. Alleine schon wegen der Techdemos :naughty: (und wegen dem Hardware MPEG-Codierung und -Decodierung teil ;))

reunion
2004-05-08, 18:10:41
Original geschrieben von MikBach
:O
http://www.xbitlabs.com/images/video/r420-2/tron_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/farcry_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/pkiller_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/generals_1600_candy.gif

Sorry, dass alles proATI ist, hab mir nur Benchmarks mit deutlichen Unterschieden(und 1600x1200Quali-andere Einstellungen interessieren mich bei einer High-End-Karte kaum) rausgesucht, proNvidia finde ich keine.
Scheint sich also zu bewahrheiten, was in der PCGH steht. In sehr hohen Auflösungen und Qualisettings hat Nvidia nichts zu lachen.

Was ist das für ein zweiter wert wo opts off steht?
Was würde da deaktiviert?

deekey777
2004-05-08, 18:11:37
Original geschrieben von reunion
Was ist das für ein zweiter wert wo opts off steht?
Was würde da deaktiviert?

Der brilineare Filter wurde deaktiviert.

reunion
2004-05-08, 18:19:02
Original geschrieben von Radeonator
HL2 ist nicht fertig, woher also der glaube das es auf ATi Karten so toll performen wird???

Weil ATI 6 Mio $ dafür gezahlt hat :naughty:

reunion
2004-05-08, 18:20:21
Original geschrieben von deekey777
Der brilineare Filter wurde deaktiviert.

Und das frisst bei Painkiller soviel Leistung?
Leo hat da mal was von 4-5% gemessen...

Sphinx
2004-05-08, 20:33:12
Original geschrieben von LovesuckZ
Und wann bringt es dann einen Vorteil? NV40 kein SM3.0 -> Keine Unterstuetzung -> NV50/r500 haben SM3.0 -> Lebzeiten keinen Vorteil -> unnuetz. Argumentation von Leuten, die Versuchen das SM3.0 schlecht zureden...
Statt Nvidia zu danken, dass sie versuchen weiter zu gehen, werden sie sogar dafür kritisiert. Echt erbaermlich!

Gegenfrage : Was haben uns Shader 2.x gebracht - Erfahrung?|ein Feature? Für Vorteile ? Genau das nun alle kommenden Spiele nach 2-4 Jahren davon exzessiven Gebrauch machen etwa...?

Echt erbärmlich diese Developer - seid über 2 Jahren warte ich nähmlich auf DAS only PS2.x Spiel mit dem das muss ich Spielen Effect+Gameplay... Wo bleiben sie...

SM3.0 Spiele only | als Mindestestkonfiguration wird man erst in 2-3 Jahren finden...

Aber bis dato gibt´s wieder genug Grafikkartengenerationen die es flüssiger und mit besseren Features ausführen werden als NV4x für den User.

LovesuckZ
2004-05-08, 20:44:04
Original geschrieben von Sphinx
SM3.0 Spiele only | als Mindestestkonfiguration wird man erst in 2-3 Jahren finden...
Aber bis dato gibt´s wieder genug Grafikkartengenerationen die es flüssiger und mit besseren Features ausführen werden als NV4x für den User.

Falsch. richtig falsch. Entweder das Datum oder das mit dem NV4x. Suche dir was aus!
Aber was rede ich. Nunja, ich gehe mal einen Blinden erklaeren, was Farben sind. Ich denke, da hat man mehr Erfolg, als hier im Forum zu versuchen zu erklaeren, warum wir in 2 - 3 Jahren eventuell solche Spielen haetten.
Ist okay: Wir brauchen kein MRT, kein HDR, keine laengeren Shader (sieht euch Ruby an!), ach auch kein 3Dc. nein, wir wollen kurze Shader, die nur eine Genauigkeit von FP16 erfordern.

Sphinx
2004-05-08, 20:52:02
Original geschrieben von LovesuckZ
Falsch. richtig falsch. Entweder das Datum oder das mit dem NV4x. Suche dir was aus!
Aber was rede ich. Nunja, ich gehe mal einen Blinden erklaeren, was Farben sind. Ich denke, da hat man mehr Erfolg, als hier im Forum zu versuchen zu erklaeren, warum wir in 2 - 3 Jahren eventuell solche Spielen haetten.
Ist okay: Wir brauchen kein MRT, kein HDR, keine laengeren Shader (sieht euch Ruby an!), ach auch kein 3Dc. nein, wir wollen kurze Shader, die nur eine Genauigkeit von FP16 erfordern.

E´rm - um mich richtig auszudrücken.

PS3.0 bietet gegenüber PS2.x "keine NEUEN Effekte" - Das ES Effektiver ist hängt von vielen Faktoren ab.

Frage sollte lauten ob Nvidia neuester NV4x mit PS3 schneller ist als ATI mit PS2 - wenn nicht... wenn nicht was würde uns es sagen ? - Das ist toll PS3 zuhaben ?

Aber dazu bedarf es einiger Zeit bis entsprechende Appikationen uns darüber Aufschlußreich informieren werden und alle hier ihre Theoretischen Erkenntnisse die sie erworben haben - recht haben oder nicht.

Pirx
2004-05-08, 20:56:38
Sehr viele User haben jetzt, dank beiden grossen Graka-Herstellern, Shader 2.0 fähige Hardware. Sollen diese doch erstmal voll ausgenutzt werden. Shader 3.0 (oder besonders aufwändige, die vom Branching stark profitieren würden, wenn es gut implementiert wurde) sollten im nächsten Jahr das Goodie sein. nVidia ist der Vorreiter in Sachen Shader 3.0. Aber wo, LovesuckZ , war dein vehementes Eintreten für den verbreiteten Einsatz von Shader-Version 1.4 und 2.0?:D Und was haben wir jetzt und in näherer Zukunft von der neueren Shader-Version? Und gibt es nicht auch andere Merkmale, die die Leistungsfähigkeit eines Grafikchips ausmachen, als die unterstützte Shader Version?

MikBach
2004-05-08, 20:57:59
Original geschrieben von LovesuckZ
Falsch. richtig falsch. Entweder das Datum oder das mit dem NV4x. Suche dir was aus!
Aber was rede ich. Nunja, ich gehe mal einen Blinden erklaeren, was Farben sind. Ich denke, da hat man mehr Erfolg, als hier im Forum zu versuchen zu erklaeren, warum wir in 2 - 3 Jahren eventuell solche Spielen haetten.
Ist okay: Wir brauchen kein MRT, kein HDR, keine laengeren Shader (sieht euch Ruby an!), ach auch kein 3Dc. nein, wir wollen kurze Shader, die nur eine Genauigkeit von FP16 erfordern.

LoL.

Kann Sphinx nur beipflichten.
Was nützt mir die beste Technologie, wenn ich sie wegen der nicht vorhandenen Performance eh nicht wirklich nutzen kann, siehe NV3x. Fütter die mal mit PS2.x Shader, dann wiesst du es . Und eine Shaderlänge von 512 mit FP32 kombiniert gibt eine schöne Ungenauigkeit, welche aths dir bestimmt besser erklären kann als ich.

Demirug
2004-05-08, 21:09:34
Warum begrennzt ihr euch eigentlich bei der Performancebetrachtung von SM3 immer nur auf das Branching in den PS?

Es gibt da ja auch noch Vertex-Texturen und das Object Instancing. Beides lässt sich gut einsetzten um die CPU Belastung zu reduzieren.