PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X800 serie nicht enttäuschend?


Jacek_K
2004-06-05, 13:59:37
mal abgesehen davon das ati jetzt cheating vorgeworfen wird, finde ich die aktuelle serie sehr enttäuschend.

ich werde denn eindruck nicht los das der x800 einfach ein auf höheren takt gepuschte 9800 ist. so ähnlich wie schon nvidia zu vor mit der 5800 reihe versucht hat leistung durch übermässig hohe taktgeschwindigkeit zu erreichen.
nun gut zwar hat die neue serie 12 bzw 16 pipelines, aber was bringen die wenn man denn takt der x800 auf das nieveau einer 9800pro bringt?

gibts da eigentliche links für, wo gegebenfalls eine site das mal probiert und gebencht hat? wieviel das wirklich bringt und wieviel davon einfach nur durch denn höheren takt profitiert.

es erscheint mir als wäre die x800 serie mehr eine 9800 mit steroiden.

sie bringt wirklich kaum neues, dafür das so ein hype drum gemacht wird.
an für sich finde ich auch die leistung nicht so berauschend im vergleich zum herrschenden hype.

ich denke man kann da wirklich glatt verzichten drauf sofern man eine 9800 schon besitzt.

mir wäre es lieber das die hersteller nicht alle ein halbes jahr eine herausbringen die sich kaum vom vorgänger unterscheidet, sondern sich mal mehr zeit nehmen würden um dann wirklich immer ein produkt anzubieten das sich wesentlich vom vorgänger unterscheidet, wo man auch weiss das 400-500 euro nicht für die katz waren...

Gast
2004-06-05, 14:11:07
Meine 9800pro schaft maximal 500/400 X800pro 475/450,
trotzdem ist die X800pro schneller, kaufen werd ich sie mir trotzdem nicht.
Die 9800pro wird noch gut 1 Jahr mehr als ausreichend sein,
dann wechsle ich eh von meinem 2500+@ 2300Mhz zu nem
A64, bis dahin kostet sie auch nur noch 200 euro.

Jacek_K
2004-06-05, 14:17:10
interessant wäre es mal zu sehen wie die x800pro mit 9800pro takt läuft.

Raff
2004-06-05, 14:18:07
Original geschrieben von Jacek_K
es erscheint mir als wäre die x800 serie mehr eine 9800 mit steroiden.


Hrhr, da hat doch jemand eine gewisse Präsentation von nVidia gelesen. :D

Es stimmt, die X800's sind eigentlich nur minimal verbesserte 9800er, welche 50% bzw. 100% mehr Pipes bekamen. Und was ist daran schlimm? Die GeForce4 war auch nur ne von der Vertexleistung verdoppelte, taktmäßig getunte GeForce3 und keinen hat es auf Grund der guten Mehrleistung arg gestört. Solange das Produkt konkurrenzfähig bleibt, ist mir persönlich das egal. Shader 3.0 wären nett, müssen IMHO aber heutzutage nicht wirklich sein ... Insgesamt sehe ich mittlerweile aber nVidia mit der 6800er-Reihe vorne.

MfG,
Raff

Jacek_K
2004-06-05, 14:24:34
was ja nvidia zum teil bei der präsentation herausgehauen hat ist schlicht schon fast peinlich, aber in dem einen punkt muss ich ihnen recht geben.

ich finde die neuen produkte sind nvidia recht gut gelungen, diese karten profitieren nicht mehr so stark vom reinen takt als die davor. bei ati finde ich eher das die (fast) nur vom hohen takt profitiert.

und so ein produkt ist auf keinem fall ein generationswechsel finde ich... bei einem generationswechsel darf man imho mehr erwarten...

ich gebe dir aber recht, die sprünge von geforce 1 auf 2 auf 3 usw. waren ja auch nicht alle so stark das man vom generationswechsel sprechen dürfte..

ich denke das die hersteller in stande sind weit aus bessere karten zu liefern als die die sie momentan anbieten. letztendlich will man ja keine all zu grossen sprünge machen um denn kunden jeden euro und so oft wie möglich aus der tasche zu ziehen..

LovesuckZ
2004-06-05, 14:32:33
Original geschrieben von Raff
Und was ist daran schlimm? Die GeForce4 war auch nur ne von der Vertexleistung verdoppelte, taktmäßig getunte GeForce3 und keinen hat es auf Grund der guten Mehrleistung arg gestört.

Vielleicht lag es auch daran, dass der NV25 nur der Refresh war?
Genauso wenig stoert man sich am r350, der bis auf einen nicht vorhandenen "F-Buffer" keine neuen Features besitzt.

Gast
2004-06-05, 14:35:51
Shader 3.0 nett aber wer braucht das heute, es gibt erst
1 Game das wirklich DX9( also mehr als 1-2 efekte) einsätzt
und das ist Far Cry, Bis shader 3.0 in Games kommen gibts schon 2 neue generationen Grakas.
Und die 6800er reihe kränkelt immer noch etwas an schwächen der FX Karten, die AA und AF Performance ist zwar nicht mehr ganz so mies wurde aber durch schlechtere Bildqualität erkauft, ATIs 6xAA ist Qualitativ besser als nVidias 8x AA.
Auch sind die shader der X800 Karten noch etwas besser als die der 6800er, gerade in neuen Games kommt das stark zum tragen. Dank neuem treiber ist zwar die 6800er im moment schneller dank einsparungen bei der Bildqualität,
aber als nächsten bringt ATI nen neuen treiber der auch wieder die Bildqualität reduziert und dann siehts wieder anders aus...........

Here the difference becomes more apparent. Although NVIDIA's new 8xS mode looks very good, ATI's 6X mode is more effective than NVIDIA's 8X mode, thanks to gamma-correct blends. Since ATI's 6X mode also performs better, that's quite the advantage. Add in temporal AA, and ATI has a pronounced lead in antialiasing overall right now.

However, I should mention that NVIDIA's 8xS mode does do more than just edge AA, and there are image quality benefits to supersampling that likely won't show up in a still screenshot.

ATI's PCI Express Radeons previewed

AMD's Athlon 64 3800+ and FX-53 processors

Chipset Serial ATA and RAID performance comparo

SilverStone's Lascala SST-LC01 enclosure

TR interviews ATI's David Nalasco

ATI's Radeon X800 texture filtering game

Foxconn's 755A01-6EKRS motherboard

More...

AMD's Athlon 64 3800+ and FX-53 processors [81]

BTX may not work for Athlon 64 [50]

Friday Night Topic: D-Day [41]

ATI's PCI Express Radeons previewed [29]

NVIDIA confirms no HDTV for 6800 series [28]

Etc. [25]

Dothan reviewed at GamePC [24]

More...




Conclusions
The Radeon X800 series cards perform best in some of our most intensive benchmarks based on newer games or requiring lots of pixel shading power, including Far Cry, Painkiller, UT2004, and 3DMark03's Mother Nature scene—especially at high resolutions with edge and texture antialiasing enabled. The X800s also have superior edge antialiasing. Their 6X multisampling mode reduces edge jaggies better than NVIDIA's 8xS mode, and the presence of temporal antialiasing only underscores ATI's leadership here.


Das mit der shader performance und der besseren AA qualität von ATI gibts hier in dem test zu lesen:
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=28

Aquaschaf
2004-06-05, 14:45:11
Original geschrieben von Jacek_K
interessant wäre es mal zu sehen wie die x800pro mit 9800pro takt läuft.

Dann hat sie genau 50% mehr Füllrate und die selbe Bandbreite. Limitiert Füllrate oder Shaderleistung müsste sie je nachdem bis zu 50% schneller sein.

LovesuckZ
2004-06-05, 14:48:06
Original geschrieben von Gast
Shader 3.0 nett aber wer braucht das heute,[...] Bis shader 3.0 in Games kommen gibts schon 2 neue generationen Grakas.

Falsch.

Und die 6800er reihe kränkelt immer noch etwas an schwächen der FX Karten, die AA und AF Performance ist zwar nicht mehr ganz so mies wurde aber durch schlechtere Bildqualität erkauft, ATIs 6xAA ist Qualitativ besser als nVidias 8x AA.

Falsch.

Auch sind die shader der X800 Karten noch etwas besser als die der 6800er, gerade in neuen Games kommt das stark zum tragen. Dank neuem treiber ist zwar die 6800er im moment schneller dank einsparungen bei der Bildqualität,
aber als nächsten bringt ATI nen neuen treiber der auch wieder die Bildqualität reduziert und dann siehts wieder anders aus...........


Falsch.

Gast
2004-06-05, 14:56:14
Alles bis aud das mit den Shadern 3.0 steht in dem Test,
also kann ich durch tests belegen, hast du irgendwas ausser falsch vorzuweisen???????????????

DrFreaK666
2004-06-05, 14:59:36
Original geschrieben von Gast
Alles bis aud das mit den Shadern 3.0 steht in dem Test,
also kann ich durch tests belegen, hast du irgendwas ausser falsch vorzuweisen???????????????

Das ist doch nur LovesuckZ ;)

LovesuckZ
2004-06-05, 15:09:05
Original geschrieben von Gast
Alles bis aud das mit den Shadern 3.0 steht in dem Test,
also kann ich durch tests belegen, hast du irgendwas ausser falsch vorzuweisen???????????????

Ich koennte etwas mehr als "falsch" sagen, aber warum? Immerhin reicht es doch, um deine Falschaussagen zu kennzeichnen.

[dzp]Viper
2004-06-05, 15:15:24
Original geschrieben von LovesuckZ
Ich koennte etwas mehr als "falsch" sagen, aber warum? Immerhin reicht es doch, um deine Falschaussagen zu kennzeichnen.

nein reicht es nicht - beweise wären angebracht :|

ein post wie deiner hilft NIEMANDEM weiter....

Original geschrieben von LovesuckZ
Vielleicht lag es auch daran, dass der NV25 nur der Refresh war?


Hat ATI irgendwo gesagt, dass sie eine neue Architektur mit dem r420 einführen? Ich meine nichts davon gelesen zu haben.

Jetzt die Frage - müssen ATI und NV immer zur gleichen Zeit neue Architekturen vorstellen? Wenn ja, dann frage ich dich nach einem Beweis ;)

Wirst du über den Refresh des NV40 auch so herziehen, wenn er wohl zeitgleich mit dem R520 erscheint (der zu 95% mit einer neue Architektur antreten wird) und dann wohl weniger features bieten wird als der r520 oder denkst du, dass NV mit dem NV50 sofort wieder eine neue Architektur vorstellen wird? (ein jahr nach NV40 einführung....)

Fragen über Fragen - mal sehen wie du sie beantwortest :D

Quasar
2004-06-05, 15:21:39
Original geschrieben von LovesuckZ
Falsch.
Richtig, denn Far Cry unterstützt seit v1.1 wohl SM3.0, nur nachprüfen kann man's in Ermangelung von DX9.0c noch nicht.

Original geschrieben von LovesuckZ
Falsch.
Richtig, denn ATis 6xAA ist nur hinsichtlich der EER besser. Wenn ich jetzt aber mal ein (nahezu beliebiges) Bild aus einem echten Game mit 6xAA und 8xAA in Relation zu ihrem ungeglätteten Pendant setzen würde und mir anschaue, wieviel Prozent des Bildes bei 6xAA und 8xAA profitieren, dann würden große Unterschiede zutage treten.


Original geschrieben von LovesuckZ
Falsch.
Die Shader sind anders. Potentiell mächtiger sind AFAIK die des NV40.
Die momentane Leistung in Games wird leider durch Cheats stark verschleiert, so daß man anstatt der Leistung nur einen relativ frei im Raum stehenden FPS-Wert bekommt.

[dzp]Viper
2004-06-05, 15:23:05
Original geschrieben von Quasar
Richtig, denn Far Cry unterstützt seit v1.1 wohl SM3.0, nur nachprüfen kann man's in Ermangelung von DX9.0c noch nicht.


Richtig, denn ATis 6xAA ist nur hinsichtlich der EER besser. Wenn ich jetzt aber mal ein (nahezu beliebiges) Bild aus einem echten Game mit 6xAA und 8xAA in Relation zu ihrem ungeglätteten Pendant setzen würde und mir anschaue, wieviel Prozent des Bildes bei 6xAA und 8xAA profitieren, dann würden große Unterschiede zutage treten.



Die Shader sind anders. Potentiell mächtiger sind AFAIK die des NV40.
Die momentane Leistung in Games wird leider durch Cheats stark verschleiert, so daß man anstatt der Leistung nur einen relativ frei im Raum stehenden FPS-Wert bekommt.

so muss das aussehen @ LovesuckZ!

:up: für Quasar - so versteht das auch jemand :)

LovesuckZ
2004-06-05, 15:29:14
Original geschrieben von [dzp]Viper
Hat ATI irgendwo gesagt, dass sie eine neue Architektur mit dem r420 einführen? Ich meine nichts davon gelesen zu haben.

Was soll der r420 dann sein? Der Codename "r420" deutet darauf hin, dass es sich hier um einen Chip handelt, der sich von der Vorgaengergeneration abhebt. Dabei sollte der Speed nicht alles sein. Denn Speed schaffen auch die "Refreshes", Features dagegen sind nur schwer "einbaubar".

Jetzt die Frage - müssen ATI und NV immer zur gleichen Zeit neue Architekturen vorstellen? Wenn ja, dann frage ich dich nach einem Beweis ;)

Was ist der r420, wenn nicht eine "neue Architekturen"? Anscheinend wohl nur ein "Refresh". Ist die Bezeichnung dann nicht irreführend?

Wirst du über den Refresh des NV40 auch so herziehen, wenn er wohl zeitgleich mit dem R520 erscheint (der zu 95% mit einer neue Architektur antreten wird) und dann wohl weniger features bieten wird als der r520 oder denkst du, dass NV mit dem NV50 sofort wieder eine neue Architektur vorstellen wird? (ein jahr nach NV40 einführung....)


Wenn es der Refresh (NV4x) ist, kann man wohl nicht gegen ihn herziehen. Sollte Nvidia diesen aber NV5x nennen, dann muss man an der Namensgebung Kritik üben.
Lassen wir das Thema aber, ich muss ja nicht jeden Thread schreddern ^^

[dzp]Viper
2004-06-05, 15:38:15
Original geschrieben von LovesuckZ
Wenn es der Refresh (NV4x) ist, kann man wohl nicht gegen ihn herziehen. Sollte Nvidia diesen aber NV5x nennen, dann muss man an der Namensgebung Kritik üben.
Lassen wir das Thema aber, ich muss ja nicht jeden Thread schreddern ^^

nene - so einfach kommst du mir nicht davon X-D

zum ersten teil (den ich jetzt nicht gequotet habe)
Da hast du prinzipiell schon recht - die bezeichnung R420 deutet auf eine neue Architektur hin... Ist wohl ungünstig gewählt nachdem ATI die bezeichnungen ausgehen.
Ausserdem ist der r420 "etwas" mehr als ein normaler refreshchip (sagen wir mal - ein riesenrefreshchip :D)

Wenn wir uns jetzt mal die Codenamen von NV4x ansehen

NV40 - jetzt
NV45 - NV40 + PCI-Express
NV48 - wohl der erste refreshchip im Herbst/winter
und dann?
NV49? glaube net :D (gabs noch nie *g*)
dann wird wohl der NV50 kommen - aber nach nur einem Jahr schon eine komplett neue Architektur? Ich glaube nicht.
Das rutscht zwar jetzt ins Spekulationsforum ab, aber ich denke, dass der NV50 ebenfals ein "riesenrefreshchip" vom NV48 werden wird - also schon etwas mehr als takterhöhung. Aber das ist noch lange hin :D Bis dahin können wir uns noch genug die Köpfe einschlagen....

ironMonkey
2004-06-05, 15:42:23
Original geschrieben von LovesuckZ
Was soll der r420 dann sein? Der Codename "r420" deutet darauf hin, dass es sich hier um einen Chip handelt, der sich von der Vorgaengergeneration abhebt. Dabei sollte der Speed nicht alles sein. Denn Speed schaffen auch die "Refreshes", Features dagegen sind nur schwer "einbaubar".

Was ist der r420, wenn nicht eine "neue Architekturen"? Anscheinend wohl nur ein "Refresh". Ist die Bezeichnung dann nicht irreführend?

Wenn es der Refresh (NV4x) ist, kann man wohl nicht gegen ihn herziehen. Sollte Nvidia diesen aber NV5x nennen, dann muss man an der Namensgebung Kritik üben.
Lassen wir das Thema aber, ich muss ja nicht jeden Thread schreddern ^^

R420 ist R420, steht niergends das eine höher Zahl des Produktes gleich mehr Features bedeutet, ist allerdings ein Grund für manch User ATI in ein schlechtes Licht zu scheiben.

Den refresh Chip kann NV nennen wie sie wollen, von mir aus auch NV Turbo 5000, das ändert nichts daran, was er kann.



Gruß

xL|Sonic
2004-06-05, 16:32:20
[SIZE=1]Original geschrieben von Quasar
Richtig, denn Far Cry unterstützt seit v1.1 wohl SM3.0, nur nachprüfen kann man's in Ermangelung von DX9.0c noch nicht.


Fragt sich nur ob es das bringen wird. Alle bis jetzt gezeigten SM3 "only" Effekte wurden auch schon nachweisbar mit SM2 erzielt.
Wie gesagt, ich sehe das ganze SM3 gerede noch mit kritischen Augen und lasse mich wirklich erst überzeugen, wenn es eine nennenswerte Anzahl an populären Spielen gibt, die auch nachweislich durch SM3 glänzen und sich damit deutlich von SM2 absetzen. Aber bis das soweit ist, wird es mit Sicherheit noch viel zu lange dauern aus Sicht von nvidia.

ironMonkey
2004-06-05, 16:47:40
Für einen "Zocker" ist SM3.0 von Nvidia kein Kaufgrund, das ist mehr für die "Hobbybastler" und Entwickler von nutzen, das sollte man sich auch vor augen halten, Farcry wird durch den PS3.0 Pfad nicht mehr effekte bekommen, sondern man kann es dann wie mit einer Radeon spielen, also schnell und mit guter Quali.



Gruß

r@h
2004-06-05, 17:02:01
Original geschrieben von [dzp]Viper
Jetzt die Frage - müssen ATI und NV immer zur gleichen Zeit neue Architekturen vorstellen? Wenn ja, dann frage ich dich nach einem Beweis ;)Warum sollten Sie das tun ?
Oder anders: haben sie das jemals getan ?
:???:
Original geschrieben von [dzp]Viper
Wirst du über den Refresh des NV40 auch so herziehen, wenn er wohl zeitgleich mit dem R520 erscheint (der zu 95% mit einer neue Architektur antreten wird) und dann wohl weniger features bieten wird als der r520 oder denkst du, dass NV mit dem NV50 sofort wieder eine neue Architektur vorstellen wird? (ein jahr nach NV40 einführung....)Warum sollte der NV50 weniger Features bieten ?

Wenn ich recht gehört habe, dann wird ATI mit dem R520 lediglich SM3.0 unterstützen und zieht dann gerade mal mit einem fast einem Jahr alten Chip von nVidia gleich, wenn nVidia rein gar nichts am Chip verändert (und wir reden hier nicht von einem Refresh, siehe NV10 -> NV20 -> NV30 -> NV40 -> NV50).

Erinnert Dich das an was ?
Ach ja... richtig... da war ja was mit R300 vs. NV30, gell ?
Und diesmal kommt die GPU für die XBox von ATI...
Zufälle gibt's !
:D

Razor

Winter[Raven]
2004-06-05, 17:05:32
wohl weniger features bieten wird als der r520 oder denkst du

Legst du auch Beweise dafür vor?

//Edit

Immer wieder Geil, wie sich einige so einiges zusammenreimen wie es ihnen passt ... löl ... x-D

r@h
2004-06-05, 17:07:03
Original geschrieben von [dzp]Viper
Das rutscht zwar jetzt ins Spekulationsforum ab, aber ich denke, dass der NV50 ebenfals ein "riesenrefreshchip" vom NV48 werden wird - also schon etwas mehr als takterhöhung. Aber das ist noch lange hin :D Bis dahin können wir uns noch genug die Köpfe einschlagen.... Ganz recht, reine Spekulation !
Oder hast Du zumindest den Hauch einer begründeten Vermutung, dass dem so sein sollte ?
Los, Viper, her mit Deinen 'Quellen' !
;D

Vermutlich ist es aber einfach nur Wunschdenken Deinerseits...

Razor

Merlin31
2004-06-05, 17:41:41
Ich grübel jetzt seid einem halben Jahr, welches meine nexte Graka sein wird.

Eigentlich wollte ich ich ja die ATI 800xt zulegen.
Allerdings stört mich daran, das man dort die optimierungen nicht mehr abstellen kann.
Ich denke doch hier irgendwo gelesen zu haben, das die optimierungen zum größtenteil hardwareseitig bei den neuen ATI KArten durchgeführt worden sind. Und bei NV nur per Treiber (was man dann doch bestimmt auch abstellen kann mit Hilfe von Atuner usw).

Bitte korregiert mich, wenn ich das flasch verstanden habe.

Denn ich sehe nicht ein 550 € zu zahlen um eine schlechtere BQ zu erhalten.

skynetwork
2004-06-05, 17:53:41
yo, da ham uns die nvidia und ati in eine echt besch... zwickmühle laufen lassen....

hier is die ati besser, da die gf usw.

eigentlich isses fast schon egal welche man denn eigentlich nimmt (6800U oder x800xt oder 6800gt oder x800pro)

kommt unterm strich (bis auf ein paar mittlerweile auch schon mickrige €) eh aufs gleiche raus und beide karten rocken.......

ich glaub eher das hauptkriterium wird sein a) wann die karten flächendeckend verfügbar sind und b) wer denn nun seine karte doch um 10-20€ billiger anbietet....

ich schwanke auch noch hin und her aber da es die x800pro bestimmt bald überall geben wird und man die auch irgendwann mal per bios auf ne xt modden kann mit sicherheit (was bei der gt dann sicherlich auch wieder geht) kriegt vermutlich die ati den zuschlag....... ausserdem mag ich das iceq prinzip :D und die nvidias sind leider schweinelaut, hässlich und megastromhungrich....

ziemlich arm das die beiden pflaumen ihre neuen chips announcen und dann monate *gähn' brauchen um die auch zu liefern

VooDoo7mx
2004-06-05, 17:55:15
Original geschrieben von Merlin31
Ich grübel jetzt seid einem halben Jahr, welches meine nexte Graka sein wird.

Eigentlich wollte ich ich ja die ATI 800xt zulegen.
Allerdings stört mich daran, das man dort die optimierungen nicht mehr abstellen kann.
Ich denke doch hier irgendwo gelesen zu haben, das die optimierungen zum größtenteil hardwareseitig bei den neuen ATI KArten durchgeführt worden sind. Und bei NV nur per Treiber (was man dann doch bestimmt auch abstellen kann mit Hilfe von Atuner usw).

Bitte korregiert mich, wenn ich das flasch verstanden habe.

Denn ich sehe nicht ein 550 € zu zahlen um eine schlechtere BQ zu erhalten.


falls du den Bri Filter meinst, der ist bei beiden Hersteller in der Hardware festgelegt. bei Ati seit dem RV350 und bei Nvidida schon seit dem NV30.

Bei Nvidia wird man diesen Bri Filter und die Stage Optimierung beim AF abschalten können. Laut Aussagen von eines ATi Futzi ist man gerade am überlegen ob man nicht wenigstens einen Bri-Filter "aus" Schalter in den Treiber einbaut.

reunion
2004-06-05, 17:57:21
Der R420 ist nur eine absolute Notlösung die schnell zusammengebaut wurde seitens ATI um den eingestellten R400 zu ersetzten und um gegen den NV40 etwas halbwegs konkurrenzfähiges zu haben, das man damit die konkurrenz nicht deklassiert sollte klar sein, ich denke ATI ist sehr froh das man überhaupt soweit mithalten kann. Doch schon Anfang nächsten Jahres soll der in 90nm lowk hergestellte R520 kommen und diese Featurerückständigkeit schließen.

reunion
2004-06-05, 18:02:21
Original geschrieben von r@h
Wenn ich recht gehört habe, dann wird ATI mit dem R520 lediglich SM3.0 unterstützen und zieht dann gerade mal mit einem fast einem Jahr alten Chip von nVidia gleich, wenn nVidia rein gar nichts am Chip verändert (und wir reden hier nicht von einem Refresh, siehe NV10 -> NV20 -> NV30 -> NV40 -> NV50).


Woher willst du wissen das der R520 nicht SM4.0 unterstützt?

[dzp]Viper
2004-06-05, 18:03:47
Original geschrieben von r@h
Ganz recht, reine Spekulation !
Oder hast Du zumindest den Hauch einer begründeten Vermutung, dass dem so sein sollte ?
Los, Viper, her mit Deinen 'Quellen' !
;D

Vermutlich ist es aber einfach nur Wunschdenken Deinerseits...

Razor

ich hab doch extra geschrieben dass es spekulation ist - also meine meinung ;)
Meine Vorstellung muss ja nicht mit eurer übereinstimmen ;)

Original geschrieben von r@h
Wenn ich recht gehört habe, dann wird ATI mit dem R520 lediglich SM3.0 unterstützen


"gehört" - beruhend auf spekulationen - dafür gibt es momentan keine festen beweise - darum heißt es ja auch spekulation ;)

Original geschrieben von r@h
Erinnert Dich das an was ?
Ach ja... richtig... da war ja was mit R300 vs. NV30, gell ?
Und diesmal kommt die GPU für die XBox von ATI...
Zufälle gibt's !
:D


jau :up:



Original geschrieben von Winter[Raven]
Legst du auch Beweise dafür vor?

//Edit

Immer wieder Geil, wie sich einige so einiges zusammenreimen wie es ihnen passt ... löl ... x-D

auch hier wieder - reist nicht einfach Zitate aus meinen Posts heraus und lasst dann die hälfte weg - ich habe extra hingeschrieben, dass es reine Spekulation ist!
Wenn du nicht weisst, was Spekulation heißt, dann rate ich dir das ganze mal im Duden nachzuschlagen! :no:

r@h
2004-06-05, 19:35:30
Original geschrieben von VooDoo7mx
falls du den Bri Filter meinst, der ist bei beiden Hersteller in der Hardware festgelegt. bei Ati seit dem RV350 und bei Nvidida schon seit dem NV30.Nicht der Filter ist in der Hardware festgelegt, sondern die Möglichkeit, die Übergänge zwischen 2 MipMap-Stufen variabler zu gestalten, als nur bilinear (also gar nicht ;-) oder eben voll trilinear (bei ATI 5 Bit, bei nVidia 8 Bit). Ist diese Möglichkeit in Hardware gegeben, kann z.Bsp. der Treiber dieses 'Tri-Band' beeinflussen.

Bei nVidia läßt sich das 'schlechtere' Tri-Band zumindest unter OpenGL vollständig deaktivieren, unter D3D hingegen (noch) nicht.

Razor

r@h
2004-06-05, 19:38:46
Original geschrieben von reunion
Woher willst du wissen das der R520 nicht SM4.0 unterstützt? Gab es in irgend einer News zu lesen...
(bin jetzt zu faul, dies heraus zu suchen ;-)

Und wieso bist Du der Meinung, dass ATI SM4 unterstützen wird, obwohl dieses doch wohl erst mit Longhorn und DX-Next (evtl. 'DX10' ;-) und damit erst in 2006 (nicht Anfang ;)) verfügbar und damit dann nutzbar sein wird ?

Auf die Erklärung bin ich ja mal gespannt...
:D

Razor

r@h
2004-06-05, 19:41:08
Original geschrieben von [dzp]Viper
Wenn du nicht weisst, was Spekulation heißt, dann rate ich dir das ganze mal im Duden nachzuschlagen! :no: Na ja... Dir würde ich auf jeden Fall mal empfehlen, herauszusuchen, wo der Unterschied zwischen 'Wunschdenken' und 'Spekulation' zu sehen ist...

...nix für ungut !
:D

Razor

Legende
2004-06-05, 19:57:30
Ich frage mich was dieser Thread im ATI-HILFE-Forum sucht. Es reicht doch schon wenn dieselben Bash-,Flam-, oder Heulthreads mindestens einmal täglich im Grafikchip Forum eröffnet werden, wo eigentlich auch dieser Thread hingehört.

Zum Thema. Mir doch egal ob die x800 nur ein Aufguss ist. Hauptsache sie ist schneller als die Alte. Da können die von mir aus auch 500 Pipes dazupacken. Ich würde auch zu einer 6800 greiffen wenn sie nicht lauter und stromhungriger wäre.

SKYNET
2004-06-05, 20:04:01
Original geschrieben von reunion
Woher willst du wissen das der R520 nicht SM4.0 unterstützt?

du glaubst doch wohl nicht ernsthaft das innerhalb von nem halben jahr von PS3.0 auf 4.0 gesprungen wird ?

r@h
2004-06-05, 20:12:36
Original geschrieben von SKYNET
du glaubst doch wohl nicht ernsthaft das innerhalb von nem halben jahr von PS3.0 auf 4.0 gesprungen wird ? Von 2 auf 4 bitte...
:D

Razor

Gast
2004-06-05, 20:20:27
OMG was fürn dummes Thema,die X800 Serie ist das Beste auf dem Markt.

Mit AA/AF schlägt die kleine X800Pro sogar die Ultra.

reunion
2004-06-05, 20:28:25
Original geschrieben von r@h
Und wieso bist Du der Meinung, dass ATI SM4 unterstützen wird, obwohl dieses doch wohl erst mit Longhorn und DX-Next (evtl. 'DX10' ;-) und damit erst in 2006 (nicht Anfang ;)) verfügbar und damit dann nutzbar sein wird ?

Auf die Erklärung bin ich ja mal gespannt...
:D

Razor

Ich habe nie behauptet das ich der meinung bin das der R520 SM4.0 unterstützt, ich wollte damit nur zum außdruck bringen das deine Ausage "Wenn ich recht gehört habe, dann wird ATI mit dem R520 lediglich SM3.0 unterstützen und zieht dann gerade mal mit einem fast einem Jahr alten Chip von nVidia gleich, wenn nVidia rein gar nichts am Chip verändert " ohne jegliches Wissen über die beiden next Gen Chips von ATI und NV sinnlos ist...

Wallman
2004-06-05, 20:30:35
Er hat sich wohl darauf gestützt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=145961

Uller
2004-06-05, 20:40:22
Ich finde die X800 Serie nicht unbedingt enttäuschend, aber schlechter als NVidias 6800er.
Die Benches werden zumeist nur mit anisotroper Filterung gewonnen, ziemlich krass zu sehen hier:
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut1600aa.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut16004xaa8xaniso.gif

Die X800 Serie bietet AF for free - wobei das mit "AF ganz umsonst" übersetzt werden sollte.
Kein Geschwindigkeitsverlust und keine Bildqualitätsverbesserung ;)

Gleiches Bild auch bei z.B. hothardware:
http://www.hothardware.com/articleimages/Item517/ut1600.png

Gast
2004-06-05, 21:07:47
Die Benches sind fürn Popo da bei Ati der Cheatmodi aktiviert wurde.

xL|Sonic
2004-06-05, 21:47:13
Ich persönlich halte es für sehr wahrscheinlich, dass der R520 auch SM4 unterstützen wird, da der XBox2 Chip meiner Meinung nach wohl 100%ig SM4 bieten wird, weil die XBox2 ja mit DX Next laufen soll und alles andere als eine SM4 Unterstützung wäre sinnlos. Und die Erfahrung die man bei dem XBox Chip sammelt wird ATI sicher auch auf den PC Sektor zu übertragen wissen. Aber auch das sind nur Spekulationen.

Jacek_K
2004-06-05, 21:53:36
Original geschrieben von LovesuckZ
Was soll der r420 dann sein? Der Codename "r420" deutet darauf hin, dass es sich hier um einen Chip handelt, der sich von der Vorgaengergeneration abhebt. Dabei sollte der Speed nicht alles sein. Denn Speed schaffen auch die "Refreshes", Features dagegen sind nur schwer "einbaubar".



Was ist der r420, wenn nicht eine "neue Architekturen"? Anscheinend wohl nur ein "Refresh". Ist die Bezeichnung dann nicht irreführend?



Wenn es der Refresh (NV4x) ist, kann man wohl nicht gegen ihn herziehen. Sollte Nvidia diesen aber NV5x nennen, dann muss man an der Namensgebung Kritik üben.
Lassen wir das Thema aber, ich muss ja nicht jeden Thread schreddern ^^

ganz genau so sehe ich das auch.

Uller
2004-06-05, 21:57:38
Original geschrieben von Gast
Die Benches sind fürn Popo da bei Ati der Cheatmodi aktiviert wurde.

:chainsaw2

Nicht nur Bilder kucken sondern Text lesen.
ATi verliert fast überhaupt nichts durch AF, ist dadurch dann schneller.
NVidia ist aber ohne AA/AF und mit AA schneller
-> da stimmt was nicht -> man sollte die AF Benchmarks eher außen vorlassen, da 16x bei weitem nicht 16x ist.

Jacek_K
2004-06-05, 22:15:32
Original geschrieben von Uller
Ich finde die X800 Serie nicht unbedingt enttäuschend, aber schlechter als NVidias 6800er.
Die Benches werden zumeist nur mit anisotroper Filterung gewonnen, ziemlich krass zu sehen hier:
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut1600aa.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut16004xaa8xaniso.gif

Die X800 Serie bietet AF for free - wobei das mit "AF ganz umsonst" übersetzt werden sollte.
Kein Geschwindigkeitsverlust und keine Bildqualitätsverbesserung ;)

Gleiches Bild auch bei z.B. hothardware:
http://www.hothardware.com/articleimages/Item517/ut1600.png

nunja ich finde die x800 im gesamt bild doch recht enttäuschend. was aber nicht heißt das nvidia da viel besser ist, auch von der seite finde ich die leistung und das gesamtkonzept eher nüchtern. aber imho interessiert mich momentan nicht was nvidia leistet. ich wollte eigentlich nur über ati sprechen.

aufgüsse beider hersteller finde ich einfach zum kotzen.
eigentlich laufen beide karten ja bei anwendugen wo sie ohnehin schon viele fraps verzeichnen jetzt mit noch mehr fraps. gibt man ihnen aber eine engine die relativ viel power braucht(far cry) vermag es auch nicht die x800 uneigeschränkt flüssig zu laufen... die karten profitieren davon das es momentan kaum spiele gibt die ähnlich an der leistung saugen wie far cry etc.

ich messe meine neue karte nicht wie sie ältere oder wenig anspruchsvolle spiele darstellt sondern mit dennen die aktuell am anspruchvollsten sind. und da komme ich zu meinen sehr ernüchternen resüme der neuen karte....

Demirug
2004-06-05, 22:29:19
Original geschrieben von Jacek_K
eigentlich laufen beide karten ja bei anwendugen wo sie ohnehin schon viele fraps verzeichnen jetzt mit noch mehr fraps. gibt man ihnen aber eine engine die relativ viel power braucht(far cry) vermag es auch nicht die x800 uneigeschränkt flüssig zu laufen... die karten profitieren davon das es momentan kaum spiele gibt die ähnlich an der leistung saugen wie far cry etc.

Ich bin mir nicht sicher ob man Farcry als gutes Beispiel für eine Nextgen Engine sehen sollte. Für meinen Geschmack wird da zu sehr gegen Optimierungsregeln verstossen.

Jacek_K
2004-06-05, 22:59:38
Original geschrieben von Demirug
Ich bin mir nicht sicher ob man Farcry als gutes Beispiel für eine Nextgen Engine sehen sollte. Für meinen Geschmack wird da zu sehr gegen Optimierungsregeln verstossen.

kannst du das vielleicht bissel genauer erläutern unter umständen.

deekey777
2004-06-05, 23:39:32
Original geschrieben von Demirug
Ich bin mir nicht sicher ob man Farcry als gutes Beispiel für eine Nextgen Engine sehen sollte.

He-he... Wenn das ein Otto-Normal-Poster sagen würde...

:up:


Original geschrieben von Demirug
Für meinen Geschmack wird da zu sehr gegen Optimierungsregeln verstossen.

Wie meinst du das? Patch 1.1?

Gast
2004-06-06, 00:14:15
wie kann der ati x800 chipsatz enttaeuschend sein?

alle! .. ich meine wirklich alle zeitschriften haben ihn besser bewertet als den nv 6800 chip. und ihr redet von enttaeuschend?

irgendwo habt ihr falsche wertvorstellungen. ati zeigt mal wieder nvidia die grenzen auf. ist doch voellig egal mit welcher technologie sie das geschafft haben.

ps: hier wurde schon von x leuten die vorteile des x800 chips gegenueber des nv chips geposted .... deshalb lass ich das hier mal.

und lz, es gibt und wird auch in der naechsten zeit kein sm3 spiel geben. zumindest kein spiel bei dem wirklich ausreichen viele sm3 shader verwendet werden. jetzt kommen erst mal die spiele mit sm2 und da ist und bleibt ati ungeschlagen. (auch) und gerade bei der x800 serie!

Hütchengewinner
2004-06-06, 00:17:56
Isch bekomm Plaque, der Name ATI ist schon eine Zumutung und deren Treibers erst weia.
Ich hoffe keiner kauft sich diese Selleriefilterkarte

deekey777
2004-06-06, 01:44:34
Original geschrieben von Hütchengewinner
Isch bekomm Plaque, der Name ATI ist schon eine Zumutung und deren Treibers erst weia.
Ich hoffe keiner kauft sich diese Selleriefilterkarte

Ach, wie nett...

xL|Sonic
2004-06-06, 02:38:14
Was ich ehrlich gesagt nur beeindruckend finde ist, dass die alte Hardware auf der der R420 ja im Prinzip beruht immer noch so eine hohe Rohperformance schafft (mal abgesehen von den Features) und das ist in meinen Augen doch ein recht großes Armutszeugnis für nvidias nv40, dass man sich mit einem "neuen" Chip nicht von einem mehr als 1 Jahre altem Chip Performancemäßig hat absetzen können.
Somit ist der R420 auch keine Enttäuschung in meinen Augen.
Oh und kommt mir jetzt nicht mit "Nur durch die Optimierungen kann ATI mithalten". Selbst ohne diese optimierungen wäre ATI mit dem R420 nicht viel langsamer...

Gast
2004-06-06, 03:02:18
Optimierungstechnisch ist nVidia schlimmer als ATI,
ATIs 6x AA ist Qualitativ besser und noch schneller als nVidias 8x AA......


Here the difference becomes more apparent. Although NVIDIA's new 8xS mode looks very good, ATI's 6X mode is more effective than NVIDIA's 8X mode, thanks to gamma-correct blends. Since ATI's 6X mode also performs better, that's quite the advantage. Add in temporal AA, and ATI has a pronounced lead in antialiasing overall right now.

However, I should mention that NVIDIA's 8xS mode does do more than just edge AA, and there are image quality benefits to supersampling that likely won't show up in a still screenshot.


Selbst bei AF ist ATI im moment besser was bildqualität angeht ( oder warum sind die 61.11 treiber sonst 20% schneller wenn nicht an qualität gespart wurde),
nVidia kann im moment nur reine rohleistung für sich verbuchen ( und das auch nur bis ATI wieder die treiber optimiert uns wie nVidia qualität gegen geschwindigkeit austauscht)


With colored mip maps and aniso filtering, the differences become very clear. With optimizations disabled, NVIDIA's 60.72 drivers did filtering almost exactly equivalent to ATI's, but the 61.11 drivers do something less than that, though the degree varies depending on the angle of the surface.



Ich habe fertig

kiss
2004-06-06, 03:03:01
Ich bestelle mir jetzt bei Alternate 8pipes und baue sie mir in meine 9800Pro.
Somit habe ich (fast) eine 800xt, toll ne. Habe auch >250€ gespart!

Die 800Serie ist eine reine abzocke... :( Bin extrem enttäuscht. Ich würde gerne mal wissen was ATI in den letzten 3 Jahren gemacht hat?!?
Nvidia hat wenigstens aus dem NV40 eine reines Kunstwerk erschaffen :)



Mfg kiss :)

SKYNET
2004-06-06, 03:21:50
Original geschrieben von Gast
Optimierungstechnisch ist nVidia schlimmer als ATI,
ATIs 6x AA ist Qualitativ besser und noch schneller als nVidias 8x AA......

schneller ja, besser nicht.
und optimierungstechnisch hat sich NV beim NV40 bisher keine ausrutscher ala ATI erlaubt :P


Original geschrieben von Gast
Selbst bei AF ist ATI im moment besser was bildqualität angeht ( oder warum sind die 61.11 treiber sonst 20% schneller wenn nicht an qualität gespart wurde),
nVidia kann im moment nur reine rohleistung für sich verbuchen ( und das auch nur bis ATI wieder die treiber optimiert uns wie nVidia qualität gegen geschwindigkeit austauscht)

falsch, das AF ist trotz winkelabhängikeit bei NV immernoch besser.
und die 20% kommen von daher das die karte mit dem neuen treiber besser kann, oder wurde die bildquali bei der NV25 schlechter als es auf einmal ein performance boost bei den detos gab ? NEIN ! die karte wurde nur besser unterstüttz vom treiber und wurde dadurch schneller.



Original geschrieben von Gast
Ich habe fertig


ich auch....


... besonders mit den nerven ;D

SKYNET
2004-06-06, 03:24:13
Original geschrieben von Valmar
Was ich ehrlich gesagt nur beeindruckend finde ist, dass die alte Hardware auf der der R420 ja im Prinzip beruht immer noch so eine hohe Rohperformance schafft (mal abgesehen von den Features) und das ist in meinen Augen doch ein recht großes Armutszeugnis für nvidias nv40, dass man sich mit einem "neuen" Chip nicht von einem mehr als 1 Jahre altem Chip Performancemäßig hat absetzen können.
Somit ist der R420 auch keine Enttäuschung in meinen Augen.
Oh und kommt mir jetzt nicht mit "Nur durch die Optimierungen kann ATI mithalten". Selbst ohne diese optimierungen wäre ATI mit dem R420 nicht viel langsamer...

also ich fionde es beeindruckend das ein chip der 120MHz weniger hat genausoschnell ist b.z.w. schneller(kommt treiber kommt speed).

und ich finde es ein armutszeugnis das ATI es in 2 jahren nichtmal geschafft hat nen neuen chip zu designen...

NV hat in der zeit 2 1/2 chips designt :o

SKYNET
2004-06-06, 03:26:21
Original geschrieben von Uller
Ich finde die X800 Serie nicht unbedingt enttäuschend, aber schlechter als NVidias 6800er.
Die Benches werden zumeist nur mit anisotroper Filterung gewonnen, ziemlich krass zu sehen hier:
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut1600aa.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut16004xaa8xaniso.gif

Die X800 Serie bietet AF for free - wobei das mit "AF ganz umsonst" übersetzt werden sollte.
Kein Geschwindigkeitsverlust und keine Bildqualitätsverbesserung ;)

Gleiches Bild auch bei z.B. hothardware:
http://www.hothardware.com/articleimages/Item517/ut1600.png

ist ja auch kein wunder, wenn man mal den filter-cheat bei den ATI's abschaltet siehts nämlich aufeinmal zappenduster für die x800 riege aus... "huch da fehlen ja aufeinmal 30% an speed, wo sind die denn hin ?" :X

Gast
2004-06-06, 04:10:37
Kann man den Skynet hier nicht bannen ?


Es reicht ja eigentlich wenn er seinen geistigen Müll bei Planet 3DNow niederschreibt. Ich frag mich echt warum Skynet eine Ati im Rechner hat wenn Ati doch so schlecht is.

Sphinx
2004-06-06, 04:23:58
Original geschrieben von Gast Ich frag mich echt warum Skynet eine Ati im Rechner hat wenn Ati doch so schlecht is.

Wirklich ,) ? - war bestimmt ein versehen beim Eintragen.

Gast
2004-06-06, 04:33:26
Original geschrieben von SKYNET
ist ja auch kein wunder, wenn man mal den filter-cheat bei den ATI's abschaltet siehts nämlich aufeinmal zappenduster für die x800 riege aus... "huch da fehlen ja aufeinmal 30% an speed, wo sind die denn hin ?" :X


Mach den selben test mit dem 60.72 ohne optimierungen auf
kosten der qualität wie beim 61.11, und es sieht genau andersrum aus, dann fürht nämlich ATI.
Sobald ATI den nächsten treiber als antwort auf den 61.11
rausbringe wendet sich das blatt wieder, der einzige der den schaden hat ist der kunde, das beste AA und AF hatte nämlich die Geforce 3, alles seit dem wird immer schlechter.....

tombman
2004-06-06, 04:45:07
er ist ein ganz schlimmer nvidia fanboy....nur konnte er sich der Macht der r3xx Serie eben nicht mehr entziehen :D

Ich versuch ihn eh in stundenlangen icq sessions auf ein erträgliches Maß zu trimmen, aber skynet is unbelehrbar :)

Gast
2004-06-06, 05:08:41
Ich finde die Signatur von Skynet so geil *rofl*


Bei seiner CPU hat er Prinzipien und setzt auf AMD " habe nix gegen intel, aber man muss prinzipien setzen "


Bei der Grafikkarte schimpft er hier auf ATI, schreibt aber " ATI Power und Intel killer "


Persöhnlichkeitsspaltung ? :D

Quasar
2004-06-06, 07:24:49
Original geschrieben von SKYNET
also ich fionde es beeindruckend das ein chip der 120MHz weniger hat genausoschnell ist b.z.w. schneller(kommt treiber kommt speed).

JA, an Effizienz scheint des dem nV40 nicht zu mangeln, aber mal ehrlich, wieviel MHz, Pipelines oder sonstwas er (oder irgendeine andere Karte) hat, ist doch eigentlich wurscht. Man kauft Leistung, nicht MHz.

Gast
2004-06-06, 09:13:52
Die höhere Effizienz hat NVidia maßgeblich durch 60+Mio zusätzlicher Transistoren "erkauft". NVidia "bezahlt" dafür mit höhere Leistungsaufnahme und kleinerer Taktfrequenz.

reunion
2004-06-06, 09:28:10
Original geschrieben von SKYNET
schneller ja, besser nicht.



Rein Kantenglättungstechnisch ist er nichtnur schneller sondern auch besser, NVs 8x Modus hat natürlich noch den Vorteil von SSAA, den man sich allerdings ziemlich teuer erkauft...

reunion
2004-06-06, 09:33:32
Original geschrieben von SKYNET
also ich fionde es beeindruckend das ein chip der 120MHz weniger hat genausoschnell ist b.z.w. schneller(kommt treiber kommt speed).


Findest du es auch so beeindruckend das AMD troz weniger mhz mit Intel mithalten kann? Dafür hat man eben auch mehr mhz, ich finde solche Aussagen wenig zielführend, denn es zählt letztendlich nur das was raus kommt und nicht wie man es erreicht...

Demirug
2004-06-06, 10:06:50
Original geschrieben von Jacek_K
kannst du das vielleicht bissel genauer erläutern unter umständen.

Original geschrieben von deekey777
He-he... Wenn das ein Otto-Normal-Poster sagen würde...

:up:

Wie meinst du das? Patch 1.1?

Wenn jetzt schon zwei Nachfragen kommen muss ich eben doch noch was dazu schreiben.

Das ganze war eingentlich eine eher zufällige Entdeckung. Im Rahmen eines Projekts arbeite ich gerade an einem D3D-Debuging-Tool welches es erlaubt die Rendervorgänge bei einem einzelnen Frame nachzuvollziehen. Da das ganze für die Anwendung transparent sein soll muss es auch mit Programmen funktionieren für die ich keinen Quellcode habe. Zum Testen haben ich dann eben mal Farcry benutzt.

Ich habe mir also ein paar Frames aufgezeichnet und dann später Objekt für Objekt wieder anzeigen lassen. Das was ich dabei gesehen habe fand ich weniger witzig.

Es gibt ein paar allgemeine Regeln zum Programmieren einer Grafikkarte die weitgehend Herstellerunabhängig sind. Von jedem Hersteller wird nun dringend dazu geraten diese einzuhalten wenn man optimale Performance erreichen möchte.

Bei Crytek hat man diese Regeln nun scheinbar sehr grosszügig interpretiert.

Als Beispiel sei hier das Rendern des Geländes aufgeführt. Dieses ist komplett in einzelne Quadratisches-Tiles zerlegt. Soweit ist das üblich und auch völlig OK. Jetzt hat man zu allem überfluss eine solche Tile nochmal in einzelne Streifen mit wenigen (< 100) Dreiecken zerlegt. Jeder dieser Streifen wird nun einzeln zum rendern übergeben. moderne Grafikkarten werden erst richtig warm wenn man mindestens etwa 1000 Dreiecke auf einmal übergibt. Bei weniger bremst in der Regel die CPU in jedem Fall verschwendet man aber CPU-Leistung die man anderweitig nutzen könnte. Diese schmallen Streifen mögen zu Zeiten als es noch kein HT&L gab mal eine gute Idee gewesen sein aber heute sollte man an sowas gar nicht mehr denken.

Ein anderes Beispiel sind die Lichteffekte in den Innenräumen. Hier setzt Crytek auf ein Multipassverfahren. Zuerst wird die Fläche normal gerendert und dann in einem zweiten Pass der Lichteffekt hinzugefügt. Wenn man aufgrund von technischen Limitierungen der Chips nicht beides in einen Pass bekommt ist das durchaus legitim weil es eben nicht anders geht. In dem besagten Fall hätte man aber beide Passes zu einem einzigen zusammenfassen können. Das hätte in einen 2.0 Shader reingepasst. Da beides Passes schon 2.0 Shader benutzen hat man den Effekt ja sowieso bereits für DX9 Karten überarbeitet.

Natürlich gibt es auch Argumente die für Multipass sprechen. Wenn man zum Beispiel zuerst alles ohne den Lichteffekt gerendert hätte und dann erst den Lichteffekt für alle Objekte wäre dieser für verdeckte Objekte dank Early-Z ja niemals gerendert worden. Dummerweise musste ich aber beobachten wie zuerst Objekte gerendert und diesen der Lichteffekt beigefügt wurden. Im weiteren Verlauf des Rendervorgangs eschienen dann weitere Objekte welche die bereits gerenderten vollständig überdeckten.

Da beide Teile aber sowieso schon recht aufwendige Shader benutzten wäre ein Z-Pass in Summe wahrscheinlich sowieso die beste Alternative. Damit sollte sich einiges an Fillrate und Shaderleistung sparen lassen. Diesen Z-Pass gibt es aber nicht.

Ergo geht die Engine sehr grosszügig mit der Leistung einer Grafikkarte um.

Über das Thema Hardwareerkennung und abschalten von Efekten möchte ich lieber gar nichts sagen.

Gast 287
2004-06-06, 10:13:53
Original geschrieben von Demirug
Ergo geht die Engine sehr grosszügig mit der Leistung einer Grafikkarte um.


Verstehe ich Dich richtig, dass die Engine die Grakaleistung offenbar relativ ineffizient nutzt?

Uller
2004-06-06, 10:27:02
Gleiches Bild bei PC-Pop:
http://www.pcpop.com/popimages/2004-5-18-23-47-49-9545.gif
http://www.pcpop.com/popimages/2004-5-18-23-47-57-5723.gif

Ohne AF ist die X800 Pro wirklich weit hinter der 6800 GT, mit AF vorne.
Schade, dass bei NVidia nicht mit 4x/8xAF gebencht wurde, das hätte man vielleicht eher vergleichen können ;)

=> nun ist die X800 Serie endgültig weg vom Fenster für mich

Grestorn
2004-06-06, 10:32:01
Original geschrieben von Gast
Optimierungstechnisch ist nVidia schlimmer als ATI,
ATIs 6x AA ist Qualitativ besser und noch schneller als nVidias 8x AA......
Falsch, da nVidias 8xAA auch einen Supersampling Anteil hat und damit auch Alpha-Texturen glättet. Was bei einigen Spielen (und das sind gar nicht so wenig) einen deutlichen Unterschied macht, wenn es auch sehr teuer ist was Performance angeht.

Aber lieber KANN ich Supersampling einschalten, wenn ich will, als deas ich es überhaupt nicht zur Vefügung habe.

Original geschrieben von Gast
Selbst bei AF ist ATI im moment besser was bildqualität angeht ( oder warum sind die 61.11 treiber sonst 20% schneller wenn nicht an qualität gespart wurde),
nVidia kann im moment nur reine rohleistung für sich verbuchen ( und das auch nur bis ATI wieder die treiber optimiert uns wie nVidia qualität gegen geschwindigkeit austauscht)
Es ist doch nun wirklich inzwischen bekannt, dass die ATI bei AF eben gerade nicht effizienter ist.

Bei AF filtert ATI immer Brilinear, und in den meisten Reviews wurde noch dazu die Stage-Optimierung nicht ausgeschaltet. In 61.11 hat nVidia, was die Brilinearität angeht, nur gleichgezogen, daher die 20%. Informier Dich bitte erst mal bevor Du solche Statements von Dir gibst.

Original geschrieben von Gast
Ich habe fertig Hoffentlich!

Demirug
2004-06-06, 10:34:05
Original geschrieben von Gast 287
Verstehe ich Dich richtig, dass die Engine die Grakaleistung offenbar relativ ineffizient nutzt?

Ja, wenn man die fundamentalen Verstösse gegen Optimierungregeln beseitigen würde sollten da mehr FPS rauskommen. Da ich den eigentlich Code der Engine aber nicht gesehen habe, sondern nur die Art der Kommandoübergabe an die Grafikhardware, kann ich natürlich nicht sagen wie viel Aufwand es wäre diese Dinge dort zu berichtigen.

Colin MacLaren
2004-06-06, 10:34:47
Für mich wäre, wenn ich momentan auf der Suche nach einer 400EUR-Karte wäre, der aktuelle Ati-"Cheat", welcher die "Brinlinearität" situationsbedingt regelt, der Kaufgrund, statt einer GF6800GT, welche mir featuremäßig eher zusagt.

Während die GF6800 bei AF starkt einbricht, was sich besonders bei NextGen-Spielen sehr negativ bemerkbar machen wird, wie die Benchmarks mit FarCry bereits andeuten, bietet Ati AF quasi "for free".

Daß der "Cheat" nicht wirklich sooo grausam sein kann, wie hier einige andueten, wird allein dadurch ersichtlich, daß der in Bezug auf Trinlineare Filterung sehr empfindliche aths erst auf diese Optimierung aufmerksam wurde, als er explizit darauf hingewiesen wurde und selbige nur durch Einfärben der Mipmaps nachweisen konnte. Ingame fällt so etwas hingegen nicht auf. Ob ich intelligent adaptiv brilenar gefiltetertes Far Cry mit 50 oder korrekt trinlenear gefiltertes mit 35 fps möchte, da brauch ich imho nicht lange zu überlegen ;)

AF bedeutet für den Durchschnittsgamer in erster Linie Schärfung weiter entfernt liegender Texturen, was wiederum am ehesten an der vor dem Spieler verlaufenden Bodentextur - also in der Regel Stage 0 - ersichtlich wird. Daß lehrbuchmäßige AF einer GF3 oder GF4 bringt herzlich wenig, wenn es einfach zu langsam ist, um sinnvoll eingesetzt zu werden. Auf einer rohpowermäßig nicht gerade Welten entfernten Radeon 9600 (Pro) ist es hingegen durchaus nutzbar, eben wegen dieser sinvollen Optimierungen.

Sicherlich haben die neuen Highend-Modelle genügend Power, um auch lehrbuchmäßige AF darzustellen, aber Far Cry und Spellforce wird es heute schon knapp, und früher oder später kommen garantiert Titel heraus, wo Optimierungen dirngend vonnöten sind, um überhaupt noch AF einsetzen zu können. Lieber stageoptimiertes adaptives brilenares AF, welches eben ingame kaum einen bis gar keinen Unterschied zur Lehrbuchqualität macht, als gar keins.

Daß kein Schalter zum Deaktivieren dieser imho verschmerzbaren Optimierungen vorhanden ist, kann ich aus marketingtechnischer Sicht durchaus nachvollziehen. Doch hier ist eben der Verbraucher auch selbst Schuld, denn die Masse der DAUs interessieren nun mal nur nakte Zahlen, die IHVs könnnen auch nur auf die Forderungen des Marktes reagieren. Und an dieser Marktsituation werden auch Foren und Websides wie dieser, die gern Aufklärungsarbeit leisten wollen, aber mit 10-Seiten+ Artikeln und ellenlange Diskussionen unwissende DAUs nur abschrecken, nicht viel ändern können, die Zahl der Leute, die sich auf solche Seiten verirrt, ist hiefür einfach zu verschwindend gering. Wirklich von Beduetung ist es auch nicht, denn die Masse der Gamer setzt sowieso kein AA oder AF ein, wie schon oft erwähnt, bin ich in meinem Clan von 12 Mann der einzige, und das auch erst, seit ich einen 19" TFT besitze. Da wird nach Anschaffung einer neuen Grafikkarte maximal die Auflösung von 800x600 auf 1024x768 oder 1280x1024 heraufgesetzt und das wars. Geht mal auf einer LAN durch die Reihen, die Menge der AA-, aber vor allem AF-Zocker kann man an ein bis zwei Händen abzählen.

Man mu sicher abwägen, irgendwo liegt eine Grenze, und einige Optimierungen kosten tatsächlich mehr Bildqualität als sie an Performance bringen, aber der adaptiv brileneare AF-Modus der R420-Reihe ist imho ein Beispiel für den richtigen Weg, viel Performance für minimale, nur mit Spezialtools nachweisbare Qualitäts-Verluste und wäre für mich eher ein Kaufgrund als Nicht-Kaufgrund.

Grestorn
2004-06-06, 10:39:13
Original geschrieben von Colin MacLaren
Für mich wäre, wenn ich momentan auf der Suche nach einer 400EUR-Karte wäre, der aktuelle Ati-"Cheat", welcher die "Brinlinearität" situationsbedingt regelt, der Kaufgrund, statt einer GF6800GT, welche mir featuremäßig eher zusagt.

Sorry, aber das verstehe ich nun überhaupt nicht. Bei nVidia hast Du doch die Möglichkeit, exakt die selbe Optmierung einzuschalten (Brilinear nämlich), sie ist sogar per Default an.

Was hast Du durch den "intelligenten" Algorithmus von ATI, der nun erwiesenermaßen nur dazu dient, bei AF-Blumen volle Trilinearität vorzutäuschen, für einen Vorteil?

Gast
2004-06-06, 11:07:33
also wenn der x800 eine enttäuschung ist was war dann der 9800.....

Uller
2004-06-06, 11:18:06
Der Brilinear Modus von Nvidia bringt aber nicht die Leistung der ATi Optimierungen, wobei man das natürlich nicht genau sagen kann (da ATis Optimierungen sich nicht ausschalten lassen):
http://www.hothardware.com/articleimages/Item517/ut1600triopt.png

Demirug
2004-06-06, 11:21:43
Original geschrieben von Uller
Der Brilinear Modus von Nvidia bringt aber nicht die Leistung der ATi Optimierungen, wobei man das natürlich nicht genau sagen kann (da ATis Optimierungen sich nicht ausschalten lassen):
http://www.hothardware.com/articleimages/Item517/ut1600triopt.png

nVidia verändert ja "nur" die breite des BI-Bands. ATI dreht auch noch am LOD rum was zusätzlich Füllrate spart.

Was das Ausschalten angeht so gibt es da wohl doch eine Möglichkeit.

Colin MacLaren
2004-06-06, 11:25:15
Original geschrieben von Uller
Der Brilinear Modus von Nvidia bringt aber nicht die Leistung der ATi Optimierungen, wobei man das natürlich nicht genau sagen kann (da ATis Optimierungen sich nicht ausschalten lassen):
http://www.hothardware.com/articleimages/Item517/ut1600triopt.png

Genau darauf wollte ich hinaus.

Mag sein, daß ich jetzt etwas mißverstanden habe, aber ist es nicht so, daß der Ati-Cheat je nach Farbdifferenz der einzelnen Mips diese mehr oder weniger stark brilenear filtert, so daß es ingame kaum auffällt und man eben dort wo es nötig ist, bei farblich stark differierenden MipMaps, wobei per 3DAnalyzer eingefärbte eben das Extrembeispiel darstellen, volle Trilinearität bekommt, wohingegen NVIDIA immer auf einem bestimmten Niveau brilenear filtert?

LovesuckZ
2004-06-06, 11:28:59
Original geschrieben von Colin MacLaren
Mag sein, daß ich jetzt etwas mißverstanden habe, aber ist es nicht so, daß der Ati-Cheat je nach Farbdifferenz der einzelnen Mips diese mehr oder weniger stark brilenear filtert, so daß es ingame kaum auffällt und man eben dort wo es nötig ist, bei farblich stark differierenden MipMaps, wobei per 3DAnalyzer eingefärbte eben das Extrembeispiel darstellen, volle Trilinearität bekommt, wohingegen NVIDIA immer auf einem bestimmten Niveau brilenear filtert?

Aeh, nicht ganz.
Es gibt bei ATi nur ein "an/aus". Dieser Mechanismus wurde nach einen bestimmten Wert festgelegt.
Das steht aber genauer bei Computerbase.de.

Uller
2004-06-06, 11:31:25
Wenn man nun den ATi X800 dazu bringt, AF korrekt zu filtern, so müsste er doch, wenn er ohne AF und mit AA langsamer war, auch mit AA und AF langsamer sein, oder?

Demirug
2004-06-06, 11:33:00
Original geschrieben von Colin MacLaren
Genau darauf wollte ich hinaus.

Mag sein, daß ich jetzt etwas mißverstanden habe, aber ist es nicht so, daß der Ati-Cheat je nach Farbdifferenz der einzelnen Mips diese mehr oder weniger stark brilenear filtert, so daß es ingame kaum auffällt und man eben dort wo es nötig ist, bei farblich stark differierenden MipMaps, wobei per 3DAnalyzer eingefärbte eben das Extrembeispiel darstellen, volle Trilinearität bekommt, wohingegen NVIDIA immer auf einem bestimmten Niveau brilenear filtert?

Die Analyse ist nur "schlau" genug gefärbte Mipmaps zu erkennen und selbst das kann sie nicht immer.

Bei richtigen Spieltexturen gibt es immer die gleiche Optimierung da wird nichts dynamisch aufgrund des Texturinhaltes verändert.

ironMonkey
2004-06-06, 11:33:54
Original geschrieben von Demirug
Ja, wenn man die fundamentalen Verstösse gegen Optimierungregeln beseitigen würde sollten da mehr FPS rauskommen. Da ich den eigentlich Code der Engine aber nicht gesehen habe, sondern nur die Art der Kommandoübergabe an die Grafikhardware, kann ich natürlich nicht sagen wie viel Aufwand es wäre diese Dinge dort zu berichtigen.


Wird wohl sehr viel Arbeit sein, aber wenn du mal wieder n paar Tage Zeit hast dann kannst ja mal gerne das Werk vollenden;D

Sicher haben die nicht den besten Kompromiss gefunden, aber sowas in dieser Grafik war auch noch nicht da und Crytek ist kein Traditions Unternehmen.



Gruß

reunion
2004-06-06, 11:36:06
Original geschrieben von Demirug
Was das Ausschalten angeht so gibt es da wohl doch eine Möglichkeit.

Und die wäre?

Demirug
2004-06-06, 11:36:06
Original geschrieben von Uller
Wenn man nun den ATi X800 dazu bringt, AF korrekt zu filtern, so müsste er doch, wenn er ohne AF und mit AA langsamer war, auch mit AA und AF langsamer sein, oder?

Nicht zwangsläufig. Es kann ja nach wie vor einen unterschiedlich starken Einbruch aufgrund des AFs geben.

Beim AA kommt es im wesentlichen darauf an wie gut der Speicher-kontroller arbeitet. Beim AF braucht man zusätzlich noch Füllrate. Im Endeffekt muss man alle Tests mit dem R420 nochmal wiederholen.

Demirug
2004-06-06, 11:38:40
Original geschrieben von ironMonkey
Wird wohl sehr viel Arbeit sein, aber wenn du mal wieder n paar Tage Zeit hast dann kannst ja mal gerne das Werk vollenden;D

Sicher haben die nicht den besten Kompromiss gefunden, aber sowas in dieser Grafik war auch noch nicht da und Crytek ist kein Traditions Unternehmen.



Gruß

Ich arbeite nicht für Crytek ergo müssen sie aleine damit fertig werden.

Ich denke die von mir entdeckten Dinge sind eine Folge davon das die Engine ja eigentlich schon sehr alt ist und auf DX9 hochgefummelt wurde.

reunion
2004-06-06, 11:39:13
Original geschrieben von Uller
Gleiches Bild bei PC-Pop:
http://www.pcpop.com/popimages/2004-5-18-23-47-49-9545.gif
http://www.pcpop.com/popimages/2004-5-18-23-47-57-5723.gif

Ohne AF ist die X800 Pro wirklich weit hinter der 6800 GT, mit AF vorne.
Schade, dass bei NVidia nicht mit 4x/8xAF gebencht wurde, das hätte man vielleicht eher vergleichen können ;)

=> nun ist die X800 Serie endgültig weg vom Fenster für mich

Das die X800 mit AF kaum einbricht liegt nichtnur an der optimierung, sondern auch an der hoher Füllrate. Beim AA limitiert allerdings die Bandbreite und laut Demirug hat ATi da irgendetwas am Speicherkontroller verpfuscht...

Gast
2004-06-06, 11:41:14
Warum wird denn hier noch diskutiert?

Die Fachpresse ist sich doch einig!

ATI hat wiedermal verdient das Rennen gewonnen.

Wie es scheint, sind das die letzten Zuckungen der NvidiaFanboys *G*

(Ja, ich habe eine NV karte aber nicht mehr lange *G*)

LovesuckZ
2004-06-06, 11:41:16
Original geschrieben von Demirug
Was das Ausschalten angeht so gibt es da wohl doch eine Möglichkeit.

nachdem ich mir die beiden Videos von tEd angeuckt habe, muss man ja wirklich beten, dass dies geht. Die Qualitaet ist verdammt schlecht.
Durch diese AF Optimierung kann man niemanden einen r420 empfehlen, außer er spielt ohne.

ironMonkey
2004-06-06, 11:42:08
Ja, zumal sieht man ja auch das wenn man den Ramtakt steigert die ATI davon profitiert, die NV dagegen kaum.



Gruß


Edit: Schreibfehler

Demirug
2004-06-06, 11:44:21
Original geschrieben von reunion
Das die X800 mit AF kaum einbricht liegt nichtnur an der optimierung, sondern auch an der hoher Füllrate. Beim AA limitiert allerdings die Bandbreite und laut Demirug hat ATi da irgendetwas am Speicherkontroller verpfuscht...

Nicht verpfuscht. nVidia hat das Problem nur irgendwie besser im Griff. Das könnte damit zusammenhängen das man schon den NV30 auf GDDR II ausgelegt hat. Protokolltechnisch ist der ja eng mit GDDR3 verwant.

Gast
2004-06-06, 11:45:26
Original geschrieben von LovesuckZ
nachdem ich mir die beiden Videos von tEd angeuckt habe, muss man ja wirklich beten, dass dies geht. Die Qualitaet ist verdammt schlecht.
Durch diese AF Optimierung kann man niemanden einen r420 empfehlen, außer er spielt ohne.

lol ... so ein quatsch hab ich selten gelesen. komm doch mal bitte wieder auf den teppich!

Demirug
2004-06-06, 11:45:38
Original geschrieben von LovesuckZ
nachdem ich mir die beiden Videos von tEd angeuckt habe, muss man ja wirklich beten, dass dies geht. Die Qualitaet ist verdammt schlecht.
Durch diese AF Optimierung kann man niemanden einen r420 empfehlen, außer er spielt ohne.

Denk mal nach. Wenn tEd Videos machen konnte bedeutet das auch?

Demirug
2004-06-06, 11:47:38
Original geschrieben von Gast
Warum wird denn hier noch diskutiert?

Die Fachpresse ist sich doch einig!

ATI hat wiedermal verdient das Rennen gewonnen.

Wie es scheint, sind das die letzten Zuckungen der NvidiaFanboys *G*

(Ja, ich habe eine NV karte aber nicht mehr lange *G*)

Ist sich die Fachpresse wirklich einig?

Im Moment wohl nur bei dem Punkt das sie von ATI getäuscht wurden.

LovesuckZ
2004-06-06, 11:47:56
Original geschrieben von Demirug
Denk mal nach. Wenn tEd Videos machen konnte bedeutet das auch?

Ich weiß, er meint aber selber, dass man dazu noch einen "hardware mod" benoetige.
Hab mich falsch ausgedrueckt.

ironMonkey
2004-06-06, 11:48:38
Original geschrieben von Demirug
Nicht verpfuscht. nVidia hat das Problem nur irgendwie besser im Griff. Das könnte damit zusammenhängen das man schon den NV30 auf GDDR II ausgelegt hat. Protokolltechnisch ist der ja eng mit GDDR3 verwant.


Soweit ich deinen Beitrag richtig gelesen hatte könnte ATI dies aber per Treiber richten, also noch Leistung aus der Karte holen und davon wird dann wohl die XT mehr profitieren als die Pro( bei dieser kann man ja den Ramtkt ziemlich hoch jagen).



Gruß

Uller
2004-06-06, 11:48:45
Ich habe mir mal die Zahlen auf computerbase.de angeschaut, durch die Colored MipMaps verliert der X800 ~20% bei Unreal Tournament.
Wenn man nun ein paar andere Werte *0.8 rechnet ist der X800 langsamer als die 6800.
Beispiel Firingsquad Bench:
1600x1200, 4xAA,8xAF:

X800 XT: 64.1fps*0.8 = 51 fps
6800 Ultra: 55 fps

Somit also ein leichter Vorteil zugunsten Nvidia.
Mit den Benchmarkwerten von hothardware ein absoluter Gleichstand.

Bei kommenden (bzw. teils aktuellen) Spielen wird die Leistung aber nicht reichen um korrektes AF darzustellen.

Hier wäre die Optimierung des X800 doch eigentlich gar nicht so schlecht - lieber unkorrektes AF als gar keines!

Bei Nvidia kann man ja nicht so viele Optimierungen einschalten, oder doch?

Update: wo gibt es denn diese Videos? Wenn die Optimierung wirklich SO schlecht ist ist sie also wirklich doch nutzlos und gar nicht in Betracht zu ziehen, von daher fiele mein letzgenannter Punkt weg (lieber schlecht als gar nicht...).

Demirug
2004-06-06, 11:50:17
Original geschrieben von LovesuckZ
Ich weiß, er meint aber selber, dass man dazu noch einen "hardware mod" benoetige.
Hab mich falsch ausgedrueckt.

Das mit dem "Hardware mod" habe ich nicht gelesen. AFAIK geht es auch ohne.

reunion
2004-06-06, 11:51:03
Original geschrieben von Uller
Ich habe mir mal die Zahlen auf computerbase.de angeschaut, durch die Colored MipMaps verliert der X800 ~20% bei Unreal Tournament.
Wenn man nun ein paar andere Werte *0.8 rechnet ist der X800 langsamer als die 6800.
Beispiel Firingsquad Bench:
1600x1200, 4xAA,8xAF:

X800 XT: 64.1fps*0.8 = 51 fps
6800 Ultra: 55 fps

Somit also ein leichter Vorteil zugunsten Nvidia.
Mit den Benchmarkwerten von hothardware ein absoluter Gleichstand.

Bei kommenden (bzw. teils aktuellen) Spielen wird die Leistung aber nicht reichen um korrektes AF darzustellen.

Hier wäre die Optimierung des X800 doch eigentlich gar nicht so schlecht - lieber unkorrektes AF als gar keines!

Bei Nvidia kann man ja nicht so viele Optimierungen einschalten, oder doch?

Du kannst aber nicht einfach alle werte mal 0.8 rechnen, wenn die Füllrate beispielsweise nicht limitiert kann diese optimierung auch überhaupt keinen Leistungsvoretil bringen...

Uller
2004-06-06, 11:52:23
Sollte auch nur näherungsweise sein, deswegen habe ich auch die Ergebnisse von 2 verschiedenen Seiten berechnet.
Den Trend kann man aber daraus erkennen, denke ich - ungefähr Gleichstand zwischen X800XT und 6800 Ultra.
Vorteil für 6800 GT ggü. X800 Pro.

Demirug
2004-06-06, 11:53:05
Original geschrieben von ironMonkey
Soweit ich deinen Beitrag richtig gelesen hatte könnte ATI dies aber per Treiber richten, also noch Leistung aus der Karte holen und davon wird dann wohl die XT mehr profitieren als die Pro( bei dieser kann man ja den Ramtkt ziemlich hoch jagen).



Gruß

ATI hat angeblich (Aussage von ATI) ein paar Möglichkeiten am Speicherkontroller ein paar Einstellungen über den Treiber vorzunehmen.

Ob nun die XT oder PRO davon stärker profitieren kann vermag ich nicht zu sagen.

LovesuckZ
2004-06-06, 11:53:21
Original geschrieben von Uller
Update: wo gibt es denn diese Videos? Wenn die Optimierung wirklich SO schlecht ist ist sie also wirklich doch nutzlos und gar nicht in Betracht zu ziehen, von daher fiele mein letzgenannter Punkt weg (lieber schlecht als gar nicht...).

Auf der Seite 2 (http://www.beyond3d.com/forum/viewtopic.php?t=13037&start=0&postdays=0&postorder=asc&highlight=)

Quasar
2004-06-06, 11:55:50
Original geschrieben von reunion
Du kannst aber nicht einfach alle werte mal 0.8 rechnen, wenn die Füllrate beispielsweise nicht limitiert kann diese optimierung auch überhaupt keinen Leistungsvoretil bringen...

Sobald die Karte mit 16xAF, was ja häufig und gern zugeschaltet wurde, einen Leistungsverlust erleidet, limitiert aber die Grafikkarte. Meist die Füllrate.

Uller
2004-06-06, 11:58:42
it's very complicated and you need to make hardware mod to do it. I'm just kidding but ati may wanna kill me if i tell anybody so i rather don't want to say it

Das mit dem Hardwaremod war nur ein Scherz!

Legende
2004-06-06, 12:00:48
Original geschrieben von Uller
Sollte auch nur näherungsweise sein, deswegen habe ich auch die Ergebnisse von 2 verschiedenen Seiten berechnet.
Den Trend kann man aber daraus erkennen, denke ich - ungefähr Gleichstand zwischen X800XT und 6800 Ultra.
Vorteil für 6800 GT ggü. X800 Pro.

Die X800Pro mag ja langsamer sein als die 6800GT, aber dafür ist sie auch leiser, wahrscheinlich Kühler und braucht kein Kraftwerk für die Stromversorgung.
Ich hätte auch zu einer 6800Ultra gegriffen wenn sie nicht diese negativen Eigenschaften hätte aber zur Zeit ist die X800XT die Nr. 1 für mich. Wenn die AF Quali wirklich grottig ist, werd ich wahrscheinlich aber auf die 6800 umsteigen.

Gast
2004-06-06, 12:07:03
Lies dir den Test mal durch (auf Englisch)
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=28


Die AF Qualität ist bei nVidia und ATI ungefär gleich,
aber beim AA ist ATIs 6x nVidias 8x qualitativ und geschwindigkeitsmässig überlegen.

LovesuckZ
2004-06-06, 12:08:43
Original geschrieben von Uller
Das mit dem Hardwaremod war nur ein Scherz!

Danke, mein Englisch ist nicht wirklich brauchbar :)

Uller
2004-06-06, 12:09:52
Ich sehe aber leider bei dem Video keinen großen Nachteil der Optimierungen!?!
Wohin kucken? ;)

Ah doch, jetzt!

ironMonkey
2004-06-06, 12:10:11
Nene, @Gast, es haben doch jetzt schon genug Leute geschrieben das man 8xSSAA nicht mit 6xMSAA vergleichen kann, beim AF hast du aber recht.



Gruß

Gast
2004-06-06, 12:14:28
ja blaub ich´s denn *G*

die optimierungen die ati gemacht hat. sind doch bei weitem nicht so schlimm. die qualitaetsunterschiede kann und konnte man nur mit diesem farbtest erkennen. erst danach schreien alle auf und stellen ati an den pranger. fuer einen normalen menschen (normal gamer) ist die optimierung nicht erkennbar. also ist es voellig wurscht ob und wie ati seine performanz gewinnt. fuer den einzelnen 3dguru mag das ein absoluter nicht wieder gut zu machender worstcase sein. aber wen interessieren schon die 3d gurus. die masse kauft die karte. nicht die paar leute.

Uller
2004-06-06, 12:18:51
Die Texturen sind ohne Optimierungen viel schärfer.
An dieser Tonne sieht man es sehr gut. Oben ist ohne, unten mit Optimierungen.

Wobei ich die optimierte Version fast besser finde.

Kai
2004-06-06, 12:21:16
Für mein "moralisches Verständniss" (und ich bin mitnichten Fanboy) geht das noch immer in die Richtung "Optimierung", was ATI da tut. Denn wenn ich in UT2K4 durch die Gänge dodge und den Shock-Combos ausweiche, lass ich mit an Sicherheit grenzender Wahrscheinlichkeit nicht jeden Moment wie vom Affen gebissen die Maus fallen, zeige mit dem ausgestreckten Zeigefinger auf den Bildschirm und schreie: "CHEEEEAAAAT! DA IST EIN PIXEL MATSCHIG!"

Gast
2004-06-06, 12:29:45
Original geschrieben von ironMonkey
Nene, @Gast, es haben doch jetzt schon genug Leute geschrieben das man 8xSSAA nicht mit 6xMSAA vergleichen kann, beim AF hast du aber recht.



Gruß

Warum kann man es nicht vergleichen?
Es ist das beste was nVidia hat(8x) und Qualitativ schlechter
als das beste (6x) was ATI hat( und noch langsammer), wenn man jeweils die besten AA verfahren der konkurenten nicht vergleichen kann was dann?




MFG

Grestorn
2004-06-06, 12:41:16
Original geschrieben von Gast
Warum kann man es nicht vergleichen?
Es ist das beste was nVidia hat(8x) und Qualitativ schlechter
als das beste (6x) was ATI hat( und noch langsammer), wenn man jeweils die besten AA verfahren der konkurenten nicht vergleichen kann was dann?

8xSSAF ist halt *nicht* schlechter. Im Gegenteil, es ist bei einigen Spielen wesentlich besser. Es gibt genügend Shots, die das sehr eindrucksvoll belegen. Hat mal einer einen passenden Link parat?

Gast
2004-06-06, 12:44:14
Ich hab einen der meine meinung belegt:
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=26


ATIs AA ist schneller und noch besser was Bildqualität angeht, daran ändert auch der nVidia fan Club hier nix.

Grestorn
2004-06-06, 12:50:15
Ich hatte mich doch korrekt erinnert. Hier ein Vergleich zwischen reinem MSAA und nVidias gemsichtem MM und SSAA.

Dazu muss man eigentlich nichts mehr sagen. Wer ist hier den Fanboy, hm?

http://www.de.tomshardware.com/graphic/20040414/images/fsaa-2.png

LovesuckZ
2004-06-06, 12:50:17
Original geschrieben von Gast
ATIs AA ist schneller und noch besser was Bildqualität angeht, daran ändert auch der nVidia fan Club hier nix.

Ja, (Poly-)kantenglaettungsmaeßig.
Aber was ist mit dem Rest? Texturbehandlung, Alphatest - Glaettung?
Ansonsten koennte man ja auch 2xQ gegen ATi's 4AA Vergleichen, weil es an den Kanten fast genauso gut aussehe...

r@h
2004-06-06, 13:09:45
Original geschrieben von Kai
Für mein "moralisches Verständniss" (und ich bin mitnichten Fanboy) geht das noch immer in die Richtung "Optimierung", was ATI da tut. Denn wenn ich in UT2K4 durch die Gänge dodge und den Shock-Combos ausweiche, lass ich mit an Sicherheit grenzender Wahrscheinlichkeit nicht jeden Moment wie vom Affen gebissen die Maus fallen, zeige mit dem ausgestreckten Zeigefinger auf den Bildschirm und schreie: "CHEEEEAAAAT! DA IST EIN PIXEL MATSCHIG!" Die beiden Vergleichsvideos von tEd zeigen aber eine Scene aus MP2...
Und wenn Dich dieser Unterschied nicht stört, dann tust Du mir wirklich leid.

Razor

ironMonkey
2004-06-06, 13:15:56
Es gibt halt numal auch Leute die mit weniger zufrieden sind und nicht alles bis aufs letzte zerlegen, da tust du mir eher leid weil du dann nie schön befreit mit anderen Zocken kannst.



Gruß

LovesuckZ
2004-06-06, 13:18:54
Original geschrieben von ironMonkey
Es gibt halt numal auch Leute die mit weniger zufrieden sind und nicht alles bis aufs letzte zerlegen, da tust du mir eher leid weil du dann nie schön befreit mit anderen Zocken kannst.
Gruß

Dann brauchen diese Leute auch keine high End Karte, wenn sie sich "mit weniger zufrieden" geben...

Uller
2004-06-06, 13:21:44
Original geschrieben von ironMonkey
Es gibt halt numal auch Leute die mit weniger zufrieden sind und nicht alles bis aufs letzte zerlegen, da tust du mir eher leid weil du dann nie schön befreit mit anderen Zocken kannst.


...und für den Preis einer X800 Pro gibt es auch eine 6800 Gt. Zumindest fast ;)

Kann man eigentlich dieses Bild was die X800 Pro produziert sowohl in Geschwindigkeit als auch in Bildqualität vielleicht ein bisschen mit bilinearer-anisotroper Filterung seitens Nvidia vergleichen?
Wenn ja, kann man das überhaupt in den Treibern einstellen?
Dann hätte man ja auch bei Nvidia die Option "mäßiges AF mit hoher Geschwindgkeit".

ironMonkey
2004-06-06, 13:29:25
Original geschrieben von LovesuckZ
Dann brauchen diese Leute auch keine high End Karte, wenn sie sich "mit weniger zufrieden" geben...

:no:, lesen ist eine Sache, verstehen eine andere, es ging/geht hier ums allgemeine und da hat jeder andere Ansichten und btw, die anderen ATI karten bieten kein um Welten besseres AF und bisher ist noch keiner dran gestorben.



Gruß

r@h
2004-06-06, 13:35:14
Original geschrieben von ironMonkey
Es gibt halt numal auch Leute die mit weniger zufrieden sind und nicht alles bis aufs letzte zerlegen, da tust du mir eher leid weil du dann nie schön befreit mit anderen Zocken kannst.Sorry, aber ich habe das Gefühl, dass man Dir wirklich JEDEN Schrott andrehen kann...

Es gibt eine Zeit zum Spielen und eine Zeit zum 'Spielen'. Glaube mir, ich beschäftige mich schon laaaaange mit den lieben Grafikkärtchen (und nein,´ganz sicher nicht nur, um zu spielen ;-).

Wenn's Dir ums reine zocken geht, dann kauf' Dir 'ne Console (für 200€ insgesamt) und rede hier nicht über High-End-Addon-Karten für PC's, die ganz alleine schon 400€ und mehr kosten...

Meine Meinung.

Razor

ironMonkey
2004-06-06, 13:55:19
Anscheinend beschäftigst du dich schon zu lange mit Grafikkarten, hier an meinem Rechner spielen des öfteren auch andere Leute und das sieth man ja die Reaktion der Leute die sich jetzt nicht so auf jedes Pixel konzentrieren( aber trotzdem oft spielen), zwischen AA und AF aus und 4xAA und 16xAF kommt da nur ein leicht besser raus.


BTW, warum bist du hier immer als Gast unterwegs??????



Gruß

xL|Sonic
2004-06-06, 13:56:39
Also der einzig richtige auffallende Unterschied in dem Video ist, dass MP2 anscheinend ruckelt ohne die Optimierungen und mit den Optimierungen flüssig läuft. Ansonsten sind die Texturen etwas unschärfer, dafür sieht man keine Übergänge und fällt imho auch beim Spielen gar nicht auf, weil der Unterschied sehr gering ist.
@r@h: scheinbar willst und kannst du es nicht kapieren, dass Spiele wie Far Cry, Doom 3, Stalker und Half-Life 2 eine solche Karte erfordern, wenn du sie in der höchsten Detailsstufe erleben möchtest. Und ich komme lieber in den Genuß ein Doom3 optimiert zu spielen mit max. Spielesettings und das super flüssig, als auf Sachen wie dynamisches Licht verzichten zu müssen (und somit eine Menge Atmosphäre verliere), weil die Performance der GrKa einfach nicht mehr ausreicht, sei es nun mit oder ohne aa/af. Aber gut, einige nvidia fanboys sind hier halt unbelehrbar und scheinen irgendwie keinerlei Gegenargumente zuzulassen, die ihre ach so heilige nvidia Karte vielleicht in ein schlechteres Licht stellen.

Jacek_K
2004-06-06, 13:57:56
Original geschrieben von Gast
Warum wird denn hier noch diskutiert?

Die Fachpresse ist sich doch einig!

ATI hat wiedermal verdient das Rennen gewonnen.

Wie es scheint, sind das die letzten Zuckungen der NvidiaFanboys *G*

(Ja, ich habe eine NV karte aber nicht mehr lange *G*)

nochmal um das leidige thema anzusprechen nicht ati und nicht nvidia hat gewonnen und es geht auch nicht um denn vergleich ob ati besser als nvidia oder umgekehrt ist.

die meinung der fachpresse geht mir am hintern vorbei.
wenn sie da bevorzugen oder nicht..

es geht mir um das gesamtpacket! bissel schneller hier bissel schneller da. der riesen hype wo die tolle fachpresse die ja auch was dazu beiträgt und schon sind 500 euro wieder in die kasse der hersteller gelandet.. und jeder muss sehen ob das sich wirklich lohnt..
ein halbes jahr zyklus bei denn grafikkarten ist schlichtweg einfach abzocke mehr nicht!!

erst 9700 dann 9800 dann nen pro ransetzen und dann ist sie ja viel schneller ;) egal kunde hat geld und langeweile machen wir noch ne xt daraus, boom fachpresse hyped die karte wieder und wieder kann man ne karte für 500euro verkaufen für 5% mehrleistung und so geht es weiter.
dann kommt ja fast der generationswechsel der ja sooo viel schneller ist als die alten.. dann stellt sich heraus das da mit mitteln gearbeitet wird die man gerne als cheating bezeichnen will und tut.

nur leider leiden beide hersteller daran fast jeden 3. monat ne neue und sooo viel bessere karte zu releasen.

wie geagt es gibt anwendungen die vorher dürftig liefen und auch mit der x800 dürftig laufen. dann wiederherum auch anwendungen die gut liefen aber jetzt noch besser.

ich bin weder pro ati oder pro nvidia dafür bin ich vielleicht zu alt oder nicht so kindisch um irgendein fan eines herstellers zu sein.

ich schätze aber die gute arbeit seitens ati bei denn treibern. mit dennen hatte ich nur zu anfang der 9700er reihe probleme..

bei nvidia habe ich völlig denn überblck verloren was treiber oder modelle angeht. deshalb weil ich auch ein praktischer mensch bin und es nicht komplizieren will werde ich dann auch wieder zu einer ati greifen...

nur gibt mir die neue reihe nicht das gefühl eine zu besitzen zu müssen. weshalb ich gerne die nächste (generation) abwarte. imho bin ich mit meiner 9800 ja noch recht zufrieden.

die lage ist ähnlich wie mit amd prozessoren, wer braucht die 64bit varianten wenn es nicht mal richtige treiber, anwendungen und nicht mal das os dafür gibt? das wird noch locker 1 jahr dauern bis 64bit angewendet werden kann und dann auch nur vereinzelt. und die leistung ohne 64bit ist ja eher lächerlich im vergleich zum barton, mit bissel ocen ist ja fast die leistung erreicht....

eigentlich braucht kein mensch nen a64 wenn er schon nen guten barton hat.. das gleiche gilt für die x800 wenn mann schon eine ~9800er hat...

letztendlich muss jeder sehen wie locker sein geld sitzt. gäbe es nicht diese eilkäufer so gäbe es auch nicht diese aufgüsse seitens der hersteller.

Legende
2004-06-06, 14:04:27
Es zwingt dich doch keiner die Karten zu kaufen. Wenn du unzufireden bist, dann warte halt bis zur nächsten Generation, aber jetzt deswegen einen Thread auf zu machen. Ich mach auch gleich einen auf weil ich unzufrieden mit meinem Gehalt bin. Man kann sich auch über jeden Scheiss aufregen. Nochmal, das hier ist ein ATI-HILFE-Forum!

Gast
2004-06-06, 14:06:01
Ist Skynet noch nicht wach ? :(

Hatte mich schon auf seine geistigen Ergüsse gefreut warum Nvidia so viel besser sein soll als Ati :D

Jacek_K
2004-06-06, 14:16:31
Original geschrieben von Legende
Es zwingt dich doch keiner die Karten zu kaufen. Wenn du unzufireden bist, dann warte halt bis zur nächsten Generation, aber jetzt deswegen einen Thread auf zu machen. Ich mach auch gleich einen auf weil ich unzufrieden mit meinem Gehalt bin. Man kann sich auch über jeden Scheiss aufregen. Nochmal, das hier ist ein ATI-HILFE-Forum!

ich habs selber gesehen das ich versehentlich im falschen ort gepostet habe.

nur wenn du es 50mal schreibst wird es nicht im anderen forum landen. entweder verschiebt es ein mod oder nicht.

wenn dich das thema nicht interessiert dann bleib einfach draussen. wozu kommst du dann hier herein?

und wenn du einen thread aufmachen willst weil du unzufrieden bist mit deinem gehalt why not? ist jedem selber überlassen was er posted. solange man keine beleidigt oder nur spammt ist es doch ok. oder sehe ich das falsch??
ich gebe dir aber recht das es hier falsch gelandet ist der thread.

oder bist du der jennige im forum der über sinnlose und sinnvolle threads hier im forum urteilt?

Wieso wird Stargate schon wieder wiederholt?
wenn das ein sinnvoller thread sein soll, könnte ich 1000 aufmachen und zu jeder serie und film fragen wieso diese wiederholt wird.

aber wie du selber sagst man kann sich über jeden scheiss aufregen und das tust du anscheinend ja auch...
in deinem thread habe ich auch nicht geurteilt, er hat mich schlichtweg nicht interessiert. und wenn dich meiner nicht interessiert warum fühlst du dich gezwungen hier zu posten?
also erst in denn spiegel schauen und dann über andere urteilen.

LovesuckZ
2004-06-06, 14:49:54
Original geschrieben von Valmar
Also der einzig richtige auffallende Unterschied in dem Video ist, dass MP2 anscheinend ruckelt ohne die Optimierungen und mit den Optimierungen flüssig läuft. Ansonsten sind die Texturen etwas unschärfer, dafür sieht man keine Übergänge und fällt imho auch beim Spielen gar nicht auf, weil der Unterschied sehr gering ist.


"fällt imho auch beim Spielen gar nicht auf"?
Wo guckst du hin, in den Himmel? Diese Welle bzw. das Flimmern vor deinen füßen ist wohl mehr als deutlich. Das kann man garnicht mehr wegreden.

Jacek_K
2004-06-06, 14:58:21
Original geschrieben von LovesuckZ
"fällt imho auch beim Spielen gar nicht auf"?
Wo guckst du hin, in den Himmel? Diese Welle bzw. das Flimmern vor deinen füßen ist wohl mehr als deutlich. Das kann man garnicht mehr wegreden.

kannst du mir vielleicht ein link angeben wo man das vid saugen kann?
bzw. was jetzt genau da getestet wurde?

xL|Sonic
2004-06-06, 15:03:05
Wohin ich gucke beim spielen ? Nunja, ich gucke ob hinter der einen Kiste nen Gegner steht oder nicht, ob dort auf dem Boden noch Munition liegt oder nicht, ob der Schalter da hinten an der Wand die verschlossene Tür öffnet oder nicht ;)
Und nein, mir fällt kein flimmern auf, liegt wohl daran, dass ich ein ordinärer Spieler bin und kein fanboy, der krampfhaft versucht etwas angeblich extrem offensichtliches aufzudecken, nur um das Konkurrenzprodukt schlecht zu reden, obwohl es dieses extrem offensichtliche gar nicht gibt.
Wie gesagt, ich bin kein 3D Fachmann, deswegen fällt es mir möglicherweise nicht direkt auf. Nur 95% der Spieler sind auch keine Fachmänner und diese stört es auch nicht, mal abgesehen davon, dass sie mehr fps dadurch haben, worüber sie dann wiederum glücklich sind.

Gast
2004-06-06, 15:09:12
Original geschrieben von LovesuckZ
"fällt imho auch beim Spielen gar nicht auf"?
Wo guckst du hin, in den Himmel? Diese Welle bzw. das Flimmern vor deinen füßen ist wohl mehr als deutlich. Das kann man garnicht mehr wegreden.


Kann es sein das deine Grafikkarte oder dein Monitor nicht mal in der Lage sind ein simples Video flimmerfrei wieder zu geben ? Also ich seh auf meiner Grafikkarte weder Wellen noch flimmern.

xL|Sonic
2004-06-06, 15:09:18
Videos gibts hier:
this is the default setting(showing more texture aliasing)
http://www.gaeugf.ch/ted/mp2_AF_op_off.avi

und hier:
this is where i disabled the AF optimizations and that's also how it looks on the r9800
http://www.gaeugf.ch/ted/mp2_AF_op_on.avi

@lovesuckz
hmmm..wie es scheint, habe ich wohl die videos durcheinander gebracht, da ich den Text dazu nicht gelesen habe und nur nach dem Dateinamen gegangen bin und da ging ich davon aus, dass op_on für optimization on steht und somit die x800 dar stellt. Ist aber anscheinend genau andersrum und da fällt mir das flimmern doch auf, wie ich schon eingangs erwähnte, nur in umgekehrter Reihenfolge.
Aber als extrem störend empfinde ich es nachwievor nicht.

Jacek_K
2004-06-06, 15:15:46
ich bin kein fachmann mir fehlen jetzt auch die richtigen ausdrücke. aber bei dem oberen video fällt mir der runde kreis umd das character modell auf.
dies habe ich fast immer bei denn spielen mit meiner 9800er.
aber das dürfte doch nicht sein auf ner 9800er??
sttören tut es mich auch kaum mehr da ich das ja gewohnt bin und nicht direkt darauf schaue. aber so wie ich es verstanden habe soll das ja nur so auf der x800 aussehen?
die alte reihe soll ja nicht das problem haben??

hmm da frage ich mich warum es bei mir der fall ist..
bzw ist es ja nur so ähnlich...

aber so oder so der unterschied beider videos ist recht extrem finde ich. und kann auch gut störend sein wenn man sich auf ihn konzentriert. und das tut man ist ähnlich wie mit pixelfehlern bei tfts wenn man erst einen gefunden hat fällt er einem dann immer auf..und wird als störend empfunden.
aber das im video ist weitaus ersichtlicher als ein pixelfehler.

hmm recht heftig ist meine meinung.

Gast
2004-06-06, 15:23:10
Original geschrieben von Demirug
nVidia verändert ja "nur" die breite des BI-Bands. ATI dreht auch noch am LOD rum was zusätzlich Füllrate spart.

Was das Ausschalten angeht so gibt es da wohl doch eine Möglichkeit.

ähem..welche?!! :)

Jacek_K
2004-06-06, 15:31:48
also nochmal um alles klarzustellen..

auf denn video ist die optimierung von ati zu sehen?
die ja in denn neuen karten steck?

wenn ja finde ich ihn so offensichtlich das ihn ja in jedem review jeder sofort entdecken müsste...stattdessen hatt man irgendwelche standbilder und technischen krimm kramms erzählt wo es einem laien nicht wirklich auffiel bzw verstanden wurde...

somit müssten dann auch theoretisch die ersten reviewer ihn sofort entdecken und nicht erst später CB.

Demirug
2004-06-06, 15:39:52
Original geschrieben von Jacek_K
also nochmal um alles klarzustellen..

auf denn video ist die optimierung von ati zu sehen?
die ja in denn neuen karten steck?

wenn ja finde ich ihn so offensichtlich das ihn ja in jedem review jeder sofort entdecken müsste...stattdessen hatt man irgendwelche standbilder und technischen krimm kramms erzählt wo es einem laien nicht wirklich auffiel bzw verstanden wurde...

somit müssten dann auch theoretisch die ersten reviewer ihn sofort entdecken und nicht erst später CB.

Die meisten Reviewer lassen in der wenigen Zeit die sie eine Karte haben ihere Benchmarks durchlaufen und machen bestenfalls eben noch ein paar Screenshots. Ob die Filter stimmen wird mit den bekannten Tools geprüft.

Auf die Bildqualität wird da nicht wirklich geachtet.

Jacek_K
2004-06-06, 15:40:21
Original geschrieben von LovesuckZ
"fällt imho auch beim Spielen gar nicht auf"?
Wo guckst du hin, in den Himmel? Diese Welle bzw. das Flimmern vor deinen füßen ist wohl mehr als deutlich. Das kann man garnicht mehr wegreden.

definitiv nicht, also das sollte auch einem auffallen der leichte sehstörungen hat. auch wenn man sich im spiel nicht immer auf denn boden konzentriert, aber die ist echt ein grosser unterschied. und auch für denn letzten laien klar ersichtlich.

Jacek_K
2004-06-06, 15:45:49
Original geschrieben von Demirug
Die meisten Reviewer lassen in der wenigen Zeit die sie eine Karte haben ihere Benchmarks durchlaufen und machen bestenfalls eben noch ein paar Screenshots. Ob die Filter stimmen wird mit den bekannten Tools geprüft.

Auf die Bildqualität wird da nicht wirklich geachtet.

was im endeffekt ein armutszeugniss für bestimmte reviewer bzw hardwaremagazine etc ist....
naja bzw ati wird es ja nicht so gern gesehen haben wenn man das berichtet.. und somit wollten oder wollen einige magazine ja auch nicht in konflikt geraten mit ati.. ;)
beide sind ja in gewisser weise abhängig von einander..


noch ne kleine frage die optimierung ist immer da unabhängig ob ich af 4,8 oder 16 fach anschalte?
sprich ich habe immer schlechtere bildqulität in allen einstellungen?

Gast
2004-06-06, 15:51:01
wenn es hier um diese leichte welle im fussboden geht?! bei dem mp2 video!

oooohhh gott! ich glaube, das ist der schlimmste grafikfehler den ich jehmals sehen musste. sowas gruseliges, unglaublich verachtenswertes, verstummeltes, sehnervschaedigendes, abartiges. haengt ati, haengt sie auf! ;-)

Quasar
2004-06-06, 15:55:30
Ohne den Hype durch die Community hätten die beiden großen IHVs ganz schön Mühe, ihre High-End Boliden dem Endkunden schmackhaft zu machen.

Wenn zumindest die großen 30-40 Webseiten weltweit an einem Strang zögen, könnte man durchaus was bewegen.

Fadl
2004-06-06, 15:59:01
Der "Author" der beiden Videos sagt doch selbst das es ihm bei den meisten Games überhaupt nicht auffällt. Lediglich bei sehr wenigen. Unter anderem halt Max Payne 2.

Gast
2004-06-06, 16:01:57
Original geschrieben von Fadl
Der "Author" der beiden Videos sagt doch selbst das es ihm bei den meisten Games überhaupt nicht auffällt. Lediglich bei sehr wenigen. Unter anderem halt Max Payne 2.

wenn man das doch auch von den fehlern bei sm2 bei fx karten behaupten koennte ;-)

Jacek_K
2004-06-06, 16:03:27
Original geschrieben von Gast
wenn es hier um diese leichte welle im fussboden geht?! bei dem mp2 video!

oooohhh gott! ich glaube, das ist der schlimmste grafikfehler den ich jehmals sehen musste. sowas gruseliges, unglaublich verachtenswertes, verstummeltes, sehnervschaedigendes, abartiges. haengt ati, haengt sie auf! ;-)

wenn du damit einverstanden bist gut, vieleicht optimieren sie denn nachfolger dann so das die welle dann 2 mal so gross ist oder lassen einfach texturen aus, oder erzwingen denn 16bit modus egal wenn man eh spielt fällt das ja eh nicht so auf. eine neue grafikkarte oder generation sollte eine steigerung bringen und nicht eine qualitätssenkung, ein paar fps mehr ist halt nicht alles es gibt genug leute die wert darauf legen das ihre karte anstandslose bildqualität leistet und auf die paar fps gern verzichten können....

das schlimme ist das man dies nicht ohne weiteres deaktivieren kann und ich mich so als kunde nicht für mehr fps oder mehr bildqualität entscheiden darf.

und es hat doch echt kein sinn wenn neuere karten immer schneller werden aber dabei immer schlechtere bildqulität mitbringen. da fehlt doch die logik.

ich denke hier wurde mit allen mitteln gearbeitet um ein konkurenzwürdige karte zu releasen was fps geile käufer angeht. hauptsache karte sieht gut aus bei irgendwelchen fps diagrammen....

Grestorn
2004-06-06, 16:06:45
Hm, komisch, ich kann die Videos nicht abspielen, da der Codec fehlt. FRAPS habe ich installiert, und auch die Videos, die ich selbst aufgezeichnet habe, spielen problemlos...

Welchen Codec brauche ich denn dafür?

Jacek_K
2004-06-06, 16:10:22
Original geschrieben von grestorn
Hm, komisch, ich kann die Videos nicht abspielen, da der Codec fehlt. FRAPS habe ich installiert, und auch die Videos, die ich selbst aufgezeichnet habe, spielen problemlos...

Welchen Codec brauche ich denn dafür?

wie verhält es sich mit anderen games ist da der unterschied bzw die welle klar zu ersehen?

codec? hmm also ich habe das k-lite code pack installiert welcher genau genutzt wird weiß ich nicht..

Black-Scorpion
2004-06-06, 16:13:11
Original geschrieben von grestorn
Welchen Codec brauche ich denn dafür?
XviD

Downloadseite hier.
http://koepi.roeder.goe.net/xvid.shtml
direkt
http://www.roeder.goe.net/cgi-bin/fetch?file=XviD-1.0-09052004.exe

Fadl
2004-06-06, 16:13:54
Original geschrieben von grestorn
Hm, komisch, ich kann die Videos nicht abspielen, da der Codec fehlt. FRAPS habe ich installiert, und auch die Videos, die ich selbst aufgezeichnet habe, spielen problemlos...

Welchen Codec brauche ich denn dafür?

Steht auch im entsprechendem Thread. xvid sollte es sein.

Gast
2004-06-06, 16:17:14
Original geschrieben von Jacek_K
wenn du damit einverstanden bist gut, vieleicht optimieren sie denn nachfolger dann so das die welle dann 2 mal so gross ist oder lassen einfach texturen aus, oder erzwingen denn 16bit modus egal wenn man eh spielt fällt das ja eh nicht so auf. eine neue grafikkarte oder generation sollte eine steigerung bringen und nicht eine qualitätssenkung, ein paar fps mehr ist halt nicht alles es gibt genug leute die wert darauf legen das ihre karte anstandslose bildqualität leistet und auf die paar fps gern verzichten können....

das schlimme ist das man dies nicht ohne weiteres deaktivieren kann und ich mich so als kunde nicht für mehr fps oder mehr bildqualität entscheiden darf.

und es hat doch echt kein sinn wenn neuere karten immer schneller werden aber dabei immer schlechtere bildqulität mitbringen. da fehlt doch die logik.

ich denke hier wurde mit allen mitteln gearbeitet um ein konkurenzwürdige karte zu releasen was fps geile käufer angeht. hauptsache karte sieht gut aus bei irgendwelchen fps diagrammen....

kann es sein das du paranoid bist....?

xL|Sonic
2004-06-06, 16:19:02
Da es anscheinend nur bei wenigen Spielen so ersichtlich ist, stellt sich mir doch da die Frage, ob es nicht möglich wäre die Spiele generell so zu entwickeln, dass man die aktivierten Optimierungen nicht so sichtbar sind, wie bei MP2. Weil so hätte man den Vorteil von einer erhöhten Performance bei kaum geringerer Bildqualität.

Btw. ich finde es lustig, dass das keinem Reviewer und selbsternannten 3D Fachmann bei der Radeon 9600XT aufgefallen ist. Ich meine, wie soll man solchen Leuten denn Glauben schenken, wenn sie sich jetzt rausreden mit solchen Sachen wie, es war nur ne Mid-End Karte und da achtet man auf sowas nicht. Sry, aber meiner Meinung nach haben diese Leute doch die größte Schuld an der ganzen Misere, wäre es damals publik gemacht worden, hätten wir das heutzutage vielleicht gar nicht gehabt mit dem R420.
Jedenfalls leidet die Glaubhaftigkeit und Seriösität doch sehr.

SKYNET
2004-06-06, 16:19:50
Original geschrieben von Quasar
JA, an Effizienz scheint des dem nV40 nicht zu mangeln, aber mal ehrlich, wieviel MHz, Pipelines oder sonstwas er (oder irgendeine andere Karte) hat, ist doch eigentlich wurscht. Man kauft Leistung, nicht MHz.

das wollte ich ja indirekt damit sagen ;)

SKYNET
2004-06-06, 16:22:05
Original geschrieben von reunion
Rein Kantenglättungstechnisch ist er nichtnur schneller sondern auch besser, NVs 8x Modus hat natürlich noch den Vorteil von SSAA, den man sich allerdings ziemlich teuer erkauft...

ja --> super lame bei 8x durch SS :(

NV hat zwar das gründlichere AA aber optisch sieht das AA von ATI nunmal besser aus aufgrund der gamma-korrektur :)

ironMonkey
2004-06-06, 16:22:13
Also wenn man jetzt nicht auf den Boden direkt schaut, würde mir das selbst nicht großartig auffallen, flackern oder sonstiges bei einer Wand fällt da bei den meisten Spielen schon eher auf als dies jetzt.


Gruß

xL|Sonic
2004-06-06, 16:23:30
Original geschrieben von SKYNET
das wollte ich ja indirekt damit sagen ;)

Deine Logik ist sowieso etwas seltsam, oder hast du dich damals beschwert, dass 5900/5950 nur durch die erhöhte Taktrate mit den Radeons mthalten konnte ? Schon lustig, dass man es plötzlich als negativ ankreidet, sobald es um die Konkurrenz geht :o

Gast
2004-06-06, 16:25:46
Original geschrieben von Valmar
Da es anscheinend nur bei wenigen Spielen so ersichtlich ist, stellt sich mir doch da die Frage, ob es nicht möglich wäre die Spiele generell so zu entwickeln, dass man die aktivierten Optimierungen nicht so sichtbar sind, wie bei MP2. Weil so hätte man den Vorteil von einer erhöhten Performance bei kaum geringerer Bildqualität.

Btw. ich finde es lustig, dass das keinem Reviewer und selbsternannten 3D Fachmann bei der Radeon 9600XT aufgefallen ist. Ich meine, wie soll man solchen Leuten denn Glauben schenken, wenn sie sich jetzt rausreden mit solchen Sachen wie, es war nur ne Mid-End Karte und da achtet man auf sowas nicht. Sry, aber meiner Meinung nach haben diese Leute doch die größte Schuld an der ganzen Misere, wäre es damals publik gemacht worden, hätten wir das heutzutage vielleicht gar nicht gehabt mit dem R420.
Jedenfalls leidet die Glaubhaftigkeit und Seriösität doch sehr.

recht hast du!

SKYNET
2004-06-06, 16:36:29
Original geschrieben von Legende
Die X800Pro mag ja langsamer sein als die 6800GT, aber dafür ist sie auch leiser, wahrscheinlich Kühler und braucht kein Kraftwerk für die Stromversorgung.
Ich hätte auch zu einer 6800Ultra gegriffen wenn sie nicht diese negativen Eigenschaften hätte aber zur Zeit ist die X800XT die Nr. 1 für mich. Wenn die AF Quali wirklich grottig ist, werd ich wahrscheinlich aber auf die 6800 umsteigen.

1. falsch, die GT ist genausoleise/laut(in 2D sogar noch leiser)
2. also bisher sind die ATI karten aufgrund der kleineren kühler konstruktionen immer wärmer gewesen als die NV gegenspieler.
3. also bei der GT brauch man weder nen kraftwerk oder sonst nochwas, verbrauch liegt ca. auf dem einer 9800pro.

Demirug
2004-06-06, 16:38:04
Die Reviewer machen doch nur das was die Leser sehen wollen.

Was würdet ihr machen wenn ihr die Wahl hättet noch 4 Spiele mehr zu benchen (-> noch mehr Balken) oder die Bildqualität genau zu untersuchen über die man dann am Ende vielleicht nur einen Absatz schreiben kann?

Erschwerend kommt sicherlich hinzu das es keinen allgemein gültigen Standard für Bildqualität gibt. Was ist das Perfekte Bild? Woher bekommt man ein Refrenzbild wenn es um Qualitätsfeatures wie AA und AF geht?

Zu guter Letzt sind die meisten Reviewer auch nicht in der Lage sich gezielt Werkzeuge zu beschaffen. Die meisten sind ja nicht mal in der Lage ein kleines Programm zu schreiben das ein Dreieck ausgibt. Ich könnte jetzt böse sein und sagen das dies genauso ist wie jemanden ein neues Auto testen zu lassen der nicht mal einen Reifen wechseln kann.

Da werden dann Programme benutzt die man irgendwo aufgetrieben hat und die Ergebnisse ohne entsprechenden Fachkentniss interpretiert.

LovesuckZ
2004-06-06, 16:41:54
Original geschrieben von Valmar
Da es anscheinend nur bei wenigen Spielen so ersichtlich ist, stellt sich mir doch da die Frage, ob es nicht möglich wäre die Spiele generell so zu entwickeln, dass man die aktivierten Optimierungen nicht so sichtbar sind, wie bei MP2. Weil so hätte man den Vorteil von einer erhöhten Performance bei kaum geringerer Bildqualität.

Dir ist schon bewusst, dass sich die Grafikchiphersteller an das halten sollen, was der Programmierer vorgibt? "Brilinear" zu Erzwingen und dann hoffen, dass zukünftige Spiele dafür programmiert werden, ist laecherlich.
Solange wie der Entwickler nicht expliziert "brilinear" anfordern, muss "trilinear" durch den Grafikchiphersteller bzw. durch den Treiber zur Verfügung gestellt werden.

Sry, aber meiner Meinung nach haben diese Leute doch die größte Schuld an der ganzen Misere, wäre es damals publik gemacht worden, hätten wir das heutzutage vielleicht gar nicht gehabt mit dem R420.
Jedenfalls leidet die Glaubhaftigkeit und Seriösität doch sehr.

Warum haben diese Leute schuld, weil man es nicht gesehen haette? Nur weil etwas von anderen abweicht, heißt es noch lange nicht, dass es schlechter waere. Und da man mit "colormipmaps" nachgetestet hat, nimmt es doch als "normal" hin. "Brilinear" erkennt man eben nur sehr schlecht anhand eines Bildes.

SKYNET
2004-06-06, 16:45:37
Original geschrieben von Valmar
Deine Logik ist sowieso etwas seltsam, oder hast du dich damals beschwert, dass 5900/5950 nur durch die erhöhte Taktrate mit den Radeons mthalten konnte ? Schon lustig, dass man es plötzlich als negativ ankreidet, sobald es um die Konkurrenz geht :o

nö, habe es aber auch nie gelobt ;)

[edit] fällt mir ein, ich hatte irgentwo mal ATI mit AMD und NV mit Intel vergleichen so wegen pro-takt leistung(R360 vs. NV38), k.a. obs hier oder innem anderem board war.

xL|Sonic
2004-06-06, 17:11:22
Original geschrieben von Demirug
Die Reviewer machen doch nur das was die Leser sehen wollen.

Was würdet ihr machen wenn ihr die Wahl hättet noch 4 Spiele mehr zu benchen (-> noch mehr Balken) oder die Bildqualität genau zu untersuchen über die man dann am Ende vielleicht nur einen Absatz schreiben kann?

Erschwerend kommt sicherlich hinzu das es keinen allgemein gültigen Standard für Bildqualität gibt. Was ist das Perfekte Bild? Woher bekommt man ein Refrenzbild wenn es um Qualitätsfeatures wie AA und AF geht?

Zu guter Letzt sind die meisten Reviewer auch nicht in der Lage sich gezielt Werkzeuge zu beschaffen. Die meisten sind ja nicht mal in der Lage ein kleines Programm zu schreiben das ein Dreieck ausgibt. Ich könnte jetzt böse sein und sagen das dies genauso ist wie jemanden ein neues Auto testen zu lassen der nicht mal einen Reifen wechseln kann.

Da werden dann Programme benutzt die man irgendwo aufgetrieben hat und die Ergebnisse ohne entsprechenden Fachkentniss interpretiert.

AFAIK testen immer noch die selben Leute die Karten wie vor einem Jahr. AFAIK wurde auch schon vor einem Jahr die Bildqualität getestet und gänzlich keinem ist es aufgefallen. AFAIK gabs computerbase und 3dcenter und wie sie alle heissen auch schon vor einem Jahr. Das sind alles nur Ausreden ohne belang und jeder Versuch es abstreiten zu wollen, macht diese Leute nur noch unglaubwürdiger.

xL|Sonic
2004-06-06, 17:16:27
Original geschrieben von LovesuckZ
Warum haben diese Leute schuld, weil man es nicht gesehen haette? Nur weil etwas von anderen abweicht, heißt es noch lange nicht, dass es schlechter waere. Und da man mit "colormipmaps" nachgetestet hat, nimmt es doch als "normal" hin. "Brilinear" erkennt man eben nur sehr schlecht anhand eines Bildes.

Du verstehst anscheinend nicht worauf ich hinaus will. Die Leute, die sich jetzt großartig aufregen, haben es 1 Jahr lang nicht mitbekommen und anscheinend nicht sonderlich gestört. Weil wenn es jemanden wirklich gestört hätte, wäre man der Sache doch richtig nachgegangen. Und jetzt nur zu sagen, dass wurde nicht gemacht, weil es nur eine Mid-Range Karte ist, ist echt nen armer versuch sich rauszureden. Das würde nämlich die Käufer diskriminieren, die sich nur eine solche Karte leisten können. Die müssen es also hinnehmen, dass es Optimierungen gibt und nur für die User, die sich ne High-End Karte kaufen, soll es so eine Ausnahme geben ?
Eine Grafikkarte macht doch eh immer nur das gleiche, ganz egal wie schnell sie ist. Sie zaubert bewegte Bilder auf den Bildschirm und somit müssen alle den gleichen tests unterzogen werden und gleich betrachtet werden und nicht nach dem Schema einer 2-3 Klassengesellschaft.

release
2004-06-06, 17:20:51
Original geschrieben von Valmar
AFAIK testen immer noch die selben Leute die Karten wie vor einem Jahr. AFAIK wurde auch schon vor einem Jahr die Bildqualität getestet und gänzlich keinem ist es aufgefallen. AFAIK gabs computerbase und 3dcenter und wie sie alle heissen auch schon vor einem Jahr. Das sind alles nur Ausreden ohne belang und jeder Versuch es abstreiten zu wollen, macht diese Leute nur noch unglaubwürdiger.

hast schon recht das es nicht auffiel liegt wohl daran das einige mit ner rosa brille sich direkt auf die benchmarks stürzen. der kunde will ja nicht primär was von bildqulität wissen hauptsache neue rekorde bei 3dmark..

im endeffekt bieten die reviewer denn leuten das an was auch vom leser gefordet wird und das nennt sich benchmarken ohne wenn und aber...

und wie schon erwähnt man könnte ja beim hersteller schnell sein ansehen verlieren wenn man zuviel negatives berichtet drum lieber etwas erbarmunglos hypen, bringt garantiert mehr für das magazin oder online magazin.

release
2004-06-06, 17:20:51
Original geschrieben von Valmar
AFAIK testen immer noch die selben Leute die Karten wie vor einem Jahr. AFAIK wurde auch schon vor einem Jahr die Bildqualität getestet und gänzlich keinem ist es aufgefallen. AFAIK gabs computerbase und 3dcenter und wie sie alle heissen auch schon vor einem Jahr. Das sind alles nur Ausreden ohne belang und jeder Versuch es abstreiten zu wollen, macht diese Leute nur noch unglaubwürdiger.

hast schon recht das es nicht auffiel liegt wohl daran das einige mit ner rosa brille sich direkt auf die benchmarks stürzen. der kunde will ja nicht primär was von bildqulität wissen hauptsache neue rekorde bei 3dmark..

im endeffekt bieten die reviewer denn leuten das an was auch vom leser gefordet wird und das nennt sich benchmarken ohne wenn und aber...

und wie schon erwähnt man könnte ja beim hersteller schnell sein ansehen verlieren wenn man zuviel negatives berichtet drum lieber etwas erbarmunglos hypen, bringt garantiert mehr für das magazin oder online magazin.

Gast
2004-06-06, 17:21:52
Mal ´ne Frage.Als Grafiktechnik-Laie habe ich mir die letzten Tage ein paar eurer Artikel gelesen, insbesondere die über Filterung.Da wird hingewiesen das es für Anisotropische Filterung im Grunde keinen Standart gibt ,sondern jeder Hersteller seine eigene Interpretation und Implantierung dieser Technik verfolgt.Die Frage ist nun wie man den X oder Y kritisieren und beschuldigen kann eine schlechte oder minderwertige Filterung einzusetzen? Ich meine in so einem Fall kann jeder Hersteller tun und lassen was er will denn das ist seine Interpretation von AF oder BQ allgemein, am Ende entscheidet sowieso der Kunde obs ihm gefällt oder nicht und kauft dieses Produkt bzw. das des Konkurrenten!
Das ist mein Eindruck, weiss nicht wie andere es sehen...

Grestorn
2004-06-06, 17:23:35
Für alle die Probleme haben, das Texturschimmern in diesen Videos zu sehen, habe ich mal zwei neue Videos von FarCry gemacht.

Wer das Schimmern da nicht sieht, dem kann nicht mehr geholfen werden.

Hier der Link zu dem Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147201

xL|Sonic
2004-06-06, 17:26:22
Original geschrieben von release
hast schon recht das es nicht auffiel liegt wohl daran das einige mit ner rosa brille sich direkt auf die benchmarks stürzen. der kunde will ja nicht primär was von bildqulität wissen hauptsache neue rekorde bei 3dmark..

im endeffekt bieten die reviewer denn leuten das an was auch vom leser gefordet wird und das nennt sich benchmarken ohne wenn und aber...

und wie schon erwähnt man könnte ja beim hersteller schnell sein ansehen verlieren wenn man zuviel negatives berichtet drum lieber etwas erbarmunglos hypen, bringt garantiert mehr für das magazin oder online magazin.

Aha und das hat sich auf einmal geändert ? Ich glaube kaum, dass hier im Forum z.B. bei Leuten wie aths, LovesuckZ usw. vor einem Jahr kein Interesse an einer guten BQ bestand, bzw. generell Testern vom 3dcenter, computerbase usw.
Aber gut, scheinbar will es keiner verstehen....schon schwer manchmal sich nen Fehler einzugestehen...

Jacek_K
2004-06-06, 17:28:12
Original geschrieben von Gast
Mal ´ne Frage.Als Grafiktechnik-Laie habe ich mir die letzten Tage ein paar eurer Artikel gelesen, insbesondere die über Filterung.Da wird hingewiesen das es für Anisotropische Filterung im Grunde keinen Standart gibt ,sondern jeder Hersteller seine eigene Interpretation und Implantierung dieser Technik verfolgt.Die Frage ist nun wie man den X oder Y kritisieren und beschuldigen kann eine schlechte oder minderwertige Filterung einzusetzen? Ich meine in so einem Fall kann jeder Hersteller tun und lassen was er will denn das ist seine Interpretation von AF oder BQ allgemein, am Ende entscheidet sowieso der Kunde obs ihm gefällt oder nicht und kauft dieses Produkt bzw. das des Konkurrenten!
Das ist mein Eindruck, weiss nicht wie andere es sehen...

ja nur kennt der kunde die qualität seiner karte nicht er hat auch nicht die möglichkeit die karten zu vergleichen.
die käufer stürzen sich einfach nur aufgrund der diagramme auf die karte. daheim kommt die ernüchterung...

Demirug
2004-06-06, 17:28:24
Original geschrieben von Valmar
AFAIK testen immer noch die selben Leute die Karten wie vor einem Jahr. AFAIK wurde auch schon vor einem Jahr die Bildqualität getestet und gänzlich keinem ist es aufgefallen. AFAIK gabs computerbase und 3dcenter und wie sie alle heissen auch schon vor einem Jahr. Das sind alles nur Ausreden ohne belang und jeder Versuch es abstreiten zu wollen, macht diese Leute nur noch unglaubwürdiger.

Ausreden? Ich wiil ja gar keine Ausreden liefern. Ich kritisiere doch die Art wie Grafikkarten getestet werden.

Die Methoden mit der man schon vor einem Jahr die Bildqualität "getestet" hat haben sich ja nicht geändert und wie sich jetzt zeigt waren sie damals ungeignet und sind es auch heute noch.

Jacek_K
2004-06-06, 17:36:43
also ich denke schon das im diesen forum einige leute gibt die nicht nur auf benchmarks setzten.
imho denke ich war und ist die methode die bildqualität mit irgendwelchen speziellen programmen zu beurteilen ja recht fürn arsch.

in dem falle muss man einfach nur ein spiel installieren und es wird sofort einem ersichtlich das die bildqulität schlecht oder schlechter ist. da braucht man keine mipmaps einfärben messen kontrollieren etc.

in diesem falle sieht man es ja ohne überhaupt ahnung von der materie zu haben.

also wenn man solange gebraucht hat einen sowas von offensichtliche optimierung zu erkenn wie ist das dann mit weniger auffälligen optimierungen?

also wer weiß was da noch für optimierungen die die bildqualität verchlechtern bei nvidia und ati eingesetzt wird..

xL|Sonic
2004-06-06, 17:36:57
Original geschrieben von Demirug
Ausreden? Ich wiil ja gar keine Ausreden liefern. Ich kritisiere doch die Art wie Grafikkarten getestet werden.

Die Methoden mit der man schon vor einem Jahr die Bildqualität "getestet" hat haben sich ja nicht geändert und wie sich jetzt zeigt waren sie damals ungeignet und sind es auch heute noch.

Das Problem an der Sache ist einfach nur, warum es den Leuten jetzt plötzlich auffällt und früher nicht. Weil es gab früher auch Leute, denen die BQ wichtiger war.
Und was ich halt als besonders schwerwiegend finde ist, dass es einfach nicht entdeckt wurde. Ich meine ATI (oder nvidia, eigentlich egal wer)haben ne neue Optimierung entwickelt und diese lief über 1 Jahr mit, ohne das sich irgendjemand beschwert hätte. Somit ist es doch nicht verwunderlich, dass ATI diese Optimierung beibehält, würde doch jeder machen. Und jetzt ist es aufeinmal verkehrt und ATI soll die Suppe von heute auf morgen wieder auslöffeln...

Demirug
2004-06-06, 17:41:11
Original geschrieben von Gast
Mal ´ne Frage.Als Grafiktechnik-Laie habe ich mir die letzten Tage ein paar eurer Artikel gelesen, insbesondere die über Filterung.Da wird hingewiesen das es für Anisotropische Filterung im Grunde keinen Standart gibt ,sondern jeder Hersteller seine eigene Interpretation und Implantierung dieser Technik verfolgt.Die Frage ist nun wie man den X oder Y kritisieren und beschuldigen kann eine schlechte oder minderwertige Filterung einzusetzen? Ich meine in so einem Fall kann jeder Hersteller tun und lassen was er will denn das ist seine Interpretation von AF oder BQ allgemein, am Ende entscheidet sowieso der Kunde obs ihm gefällt oder nicht und kauft dieses Produkt bzw. das des Konkurrenten!
Das ist mein Eindruck, weiss nicht wie andere es sehen...

Natürlich gibt es unterschiedliche Verfahren um AF zu implementieren. Diese unterschiedlichen Verfahren kann man nun dahingenden untersuchen wie gut sie filtern. Mit dem nötigen Hintergrundwissen sind auch Aussagen darüber möglich welches Verfahren besser und welches schlechter ist. Es geht hier aber um Grenzwertbetrachtungen. Bei bestimmten Situationen reicht schon eine ganz einfache Filterung um das optimale Ergebniss zu erreichen bei anderen Situationen braucht man bessere Filter. Bei einem Test ist es nun natürlich sinnvoll dieses Grenzsituationen zu untersuchen. Ähnlich Crashtests bei Autos. Das Problem bei ATI ist nun das die Werkzeuge mit denen man diese Untersuchungen bisher vorgenommen hat einen höherwertigen Filter zeigen als bei den Spielen dann wirklich zum Einsatz kommt.

Demirug
2004-06-06, 17:49:56
Original geschrieben von Valmar
Das Problem an der Sache ist einfach nur, warum es den Leuten jetzt plötzlich auffällt und früher nicht. Weil es gab früher auch Leute, denen die BQ wichtiger war.
Und was ich halt als besonders schwerwiegend finde ist, dass es einfach nicht entdeckt wurde. Ich meine ATI (oder nvidia, eigentlich egal wer)haben ne neue Optimierung entwickelt und diese lief über 1 Jahr mit, ohne das sich irgendjemand beschwert hätte. Somit ist es doch nicht verwunderlich, dass ATI diese Optimierung beibehält, würde doch jeder machen. Und jetzt ist es aufeinmal verkehrt und ATI soll die Suppe von heute auf morgen wieder auslöffeln...

Es ist aufgefallen weil ein Benchmark (ja sowas für einen weiteren Balken) zu hohe Werte prodziert hat. Über die Bildqualität selbst wäre es wahrscheinlich auch weiterhin nicht aufgefallen weil die Reviewer diesem Aspekt bisher keine wirklich Beachtung geschenkt haben. Wenn die AF-Tester und gefärbten Mipmaps das richtige angezeigt haben war das Thema Bildqualität erledigt und es wurde weiter gebencht.

Jacek_K
2004-06-06, 17:50:09
Original geschrieben von Valmar
Das Problem an der Sache ist einfach nur, warum es den Leuten jetzt plötzlich auffällt und früher nicht. Weil es gab früher auch Leute, denen die BQ wichtiger war.
Und was ich halt als besonders schwerwiegend finde ist, dass es einfach nicht entdeckt wurde. Ich meine ATI (oder nvidia, eigentlich egal wer)haben ne neue Optimierung entwickelt und diese lief über 1 Jahr mit, ohne das sich irgendjemand beschwert hätte. Somit ist es doch nicht verwunderlich, dass ATI diese Optimierung beibehält, würde doch jeder machen. Und jetzt ist es aufeinmal verkehrt und ATI soll die Suppe von heute auf morgen wieder auslöffeln...

ja das sollen sie, zumal sie auch in der lage sind 500euro zu verlangen....der kunde ist könig oder sollte es sein, er sollte selber bestimmen dürfen ob er diese extra na fps will oder es einfach ausschalten kann.

es ist erstmal niemanden aufgefallen, nun isses aber aufgefallen und nun hat auch ati die möglichkeit es zu ändern tun sie es nicht wird ihnen ein negativ image angehaftet bleiben.
ob es jetzt oder erst in 5 jahren aufgefallen wäre ist ja eigentlich egal.. ändert ja nix an der tatsache das es getan wird.(cheaten)

ironMonkey
2004-06-06, 17:59:17
Original geschrieben von Jacek_K
ja das sollen sie, zumal sie auch in der lage sind 500euro zu verlangen....der kunde ist könig oder sollte es sein, er sollte selber bestimmen dürfen ob er diese extra na fps will oder es einfach ausschalten kann.

es ist erstmal niemanden aufgefallen, nun isses aber aufgefallen und nun hat auch ati die möglichkeit es zu ändern tun sie es nicht wird ihnen ein negativ image angehaftet bleiben.

Witz komm raus du bist umzingelt;D


ATI Filter ja nicht erst seit gestern so, RV350/360 gibts ja schon länger, zumal einige wie du ja schon selbst geschrieben hast keinen Plan haben was die da überhaupt kaufen, aber sie kaufen und einige davon wissen nichtmal was AF überhaupt ist, geschweige denn wo man das denn überhaupt einstellen kann, haben aber trotzdem das Geld eine 500€ karte zu kaufen und nehmen diese auch.

Für den "insider" ist das alles andere als Schön, aber das sind eh nur 5% von den Kunden.

Wenn ich da einen einen Arbeitskollegen denke, der hat eine 9600pro und ist Wunschlos glücklich, obwohl er auch gesehen hat was die anderen Karten so bringen.


Gruß

Gast
2004-06-06, 18:03:37
Original geschrieben von Demirug
Natürlich gibt es unterschiedliche Verfahren um AF zu implementieren. Diese unterschiedlichen Verfahren kann man nun dahingenden untersuchen wie gut sie filtern. Mit dem nötigen Hintergrundwissen sind auch Aussagen darüber möglich welches Verfahren besser und welches schlechter ist. Es geht hier aber um Grenzwertbetrachtungen. Bei bestimmten Situationen reicht schon eine ganz einfache Filterung um das optimale Ergebniss zu erreichen bei anderen Situationen braucht man bessere Filter. Bei einem Test ist es nun natürlich sinnvoll dieses Grenzsituationen zu untersuchen. Ähnlich Crashtests bei Autos. Das Problem bei ATI ist nun das die Werkzeuge mit denen man diese Untersuchungen bisher vorgenommen hat einen höherwertigen Filter zeigen als bei den Spielen dann wirklich zum Einsatz kommt.

Hmm..ja das ist natürlich richtig aber ich ging eher auf das kritisieren in Bezug auf die BQ allgemein aus.Wenn ATI glaubt das diese Filterung ausreicht und sie in ihre Produkte integriert, dann ist das ihr Thema und der Kunde ,auch Reviewer, hat das zu respektieren.Die Kritik sollte dann nur an das Endresultat ,die BQ, gehen und nicht an der Tatsache das ATI so handelt denn es ist ihr recht es zu tun! Mein Eindruck ist dass das letztere zu sehr in den Mittelpunkt geraten ist und das wollte ich hervorheben.

Jacek_K
2004-06-06, 18:07:21
also eigentlich bin ich auch wunschlos glücklich mit meiner 9800 :)

nur irgendwann kommt mal ne neue wenn die leistung nicht reicht. und so richtig glücklich ist man da auch nicht wenn die neue auf einmal schlechteres bild bringt. sollte imho doch lieber umgekehrt sein ;) wie wird es dann weitergehen immer schneller aber dafür immer schlechteres bild?

ironMonkey
2004-06-06, 18:12:40
Wenn MS zu ATI sagt die wollen ein gescheites Bild haben und nicht so einen Schrott wie derzeit dann könnte der R500/R520 durschaus wieder ein besseres Bild liefern.

GF3 - GF4 - GF5 - GF6, wie schauts bei denen mit AF Quali aus????????Da sieht man wo der Trend hin geht und zwar AF am besten komplett weg lassen.


Gruß

Jacek_K
2004-06-06, 18:14:36
Original geschrieben von Gast
Hmm..ja das ist natürlich richtig aber ich ging eher auf das kritisieren in Bezug auf die BQ allgemein aus.Wenn ATI glaubt das diese Filterung ausreicht und sie in ihre Produkte integriert, dann ist das ihr Thema und der Kunde ,auch Reviewer, hat das zu respektieren.Die Kritik sollte dann nur an das Endresultat ,die BQ, gehen und nicht an der Tatsache das ATI so handelt denn es ist ihr recht es zu tun! Mein Eindruck ist dass das letztere zu sehr in den Mittelpunkt geraten ist und das wollte ich hervorheben.

ist auch ati ihre sache wenns der kunde kauft selbst schuld. doch wenn man es nicht kritisiert sehe ich die gefahr das jeder hersteller dann karten anbietet die mehr oder weniger dann alle schlechte bildqualität haben. der kunde der aber auf qualität setzt hat dann keine möglichkeit eine passende für sich zu wählen.
ich denke nicht das dies der richtige weg ist.
dshalb ist kritik und aufklärung in der branche von grosser wichtigkeit. ist in jeder branche so man versucht ein nachfolger modell zu verbessern und wenn das nicht gelingen tut ist auch eine kritik oder ein verbesserungsvorschlag angebracht.sofern der hersteller nicht auf die kundenwünsche reagiert wird der hersteller über lange sicht so nicht konkurenzwürdig.

demnach ist es im eigenen interesse von ati hier was zu ändern.

ironMonkey
2004-06-06, 18:19:20
Für was bitte?????? Wenn mir was nicht passt dann wirds nicht gekauft, hab genug andere Hobbys wo ich wenigstens noch was fürs geld bekomme, ist ja kein muss.



Gruß

xL|Sonic
2004-06-06, 18:23:51
Hm....also bei Far Cry fällt das noch extremer auf als bei Max Payne 2. Wäre schön, wenn wir jetzt ein Vergleichsvideo einer 6800 GT/Ultra dazu hätten.

Demirug
2004-06-06, 18:25:54
Original geschrieben von Gast
Hmm..ja das ist natürlich richtig aber ich ging eher auf das kritisieren in Bezug auf die BQ allgemein aus.Wenn ATI glaubt das diese Filterung ausreicht und sie in ihre Produkte integriert, dann ist das ihr Thema und der Kunde ,auch Reviewer, hat das zu respektieren.Die Kritik sollte dann nur an das Endresultat ,die BQ, gehen und nicht an der Tatsache das ATI so handelt denn es ist ihr recht es zu tun! Mein Eindruck ist dass das letztere zu sehr in den Mittelpunkt geraten ist und das wollte ich hervorheben.

Korrekt, ATI darf filtern wie sie wollen solange es im Rahmen der Regeln abläuft. Da es für das AF keine richtigen Regeln gibt haben die IHV da sehr viel Spielraum.

Das Problem das ich und wahrscheinlich einige anderen haben ist das ATI eine höherwertige Filterung vortäuscht wenn die bisher üblichen Methoden zur beurteilung der Filterqualität zum Einsatz kommen.

Es zeigt uns natürlich auch das die bisherigen Methoden der Reviewer für den Bildqualitätstest unzureichend sind.

Das andere Problem ist wie man die Leistung von Chips beurteilen soll die unterschiedliche Filterqualitäten haben. Kein neues Problem aber da es inzwischen kaum noch sinn macht Karten ohne den Einsatz von AA/AF zu vergleichen muss dafür langsam aber sicher eine Lösung gefunden werden.

Jacek_K
2004-06-06, 18:30:08
Original geschrieben von ironMonkey
Für was bitte?????? Wenn mir was nicht passt dann wirds nicht gekauft, hab genug andere Hobbys wo ich wenigstens noch was fürs geld bekomme, ist ja kein muss.



Gruß

naja so einfach würde ich es mir nicht machen.
ich denke schon das die hersteller reagieren werden ist ja nicht in ihrem interesse wenn sie potenziele käufer vergraulen. kritik und feedback ist und sollte wichtig sein für die hersteller, wir werden sehen wie ati das handhaben wird.

Legende
2004-06-06, 18:31:13
Original geschrieben von SKYNET
1. falsch, die GT ist genausoleise/laut(in 2D sogar noch leiser)
2. also bisher sind die ATI karten aufgrund der kleineren kühler konstruktionen immer wärmer gewesen als die NV gegenspieler.
3. also bei der GT brauch man weder nen kraftwerk oder sonst nochwas, verbrauch liegt ca. auf dem einer 9800pro.

1. Hab mich da auf die PCGH verlassen. Da wird die die 6800GT mit 3,3 Sone und die x800Pro mit 1,8 angegeben.
2. Das weiß ich nicht. Ich bin davon ausgegangen, dass wenn der Stomverbrauch höher ist, sich dadurch auch die Wärmeentwicklung steigert. Ati 49Watt Nvidia 65Watt.
3. Da möcht ich mich entschuldigen. Hab da an die Werte der 6800Ultra gedacht welche mit 480Watt angegeben wurden. Mittlerweile wurden auch diese auf 350 Watt gesenkt.

@Jacek_K
Sorry. Mich regt nur auf, dass dieser Thread hier geöffnet wurde. Solche Themen werden fast täglich im Grafikschip Forum behandelt und aus dem hallte ich mich der Gesundheit wegen raus. ;) Ich wusste, dass es so enden würde, wenn ich diesen Thread lese :-(

Jacek_K
2004-06-06, 18:36:13
Original geschrieben von Demirug
Korrekt, ATI darf filtern wie sie wollen solange es im Rahmen der Regeln abläuft. Da es für das AF keine richtigen Regeln gibt haben die IHV da sehr viel Spielraum.

Das Problem das ich und wahrscheinlich einige anderen haben ist das ATI eine höherwertige Filterung vortäuscht wenn die bisher üblichen Methoden zur beurteilung der Filterqualität zum Einsatz kommen.

Es zeigt uns natürlich auch das die bisherigen Methoden der Reviewer für den Bildqualitätstest unzureichend sind.

Das andere Problem ist wie man die Leistung von Chips beurteilen soll die unterschiedliche Filterqualitäten haben. Kein neues Problem aber da es inzwischen kaum noch sinn macht Karten ohne den Einsatz von AA/AF zu vergleichen muss dafür langsam aber sicher eine Lösung gefunden werden.

das zeigt auch deutlich das nach ermessen von ati soviel wie möglich versucht wurde das diser schönheitsfehler nicht ans tageslicht kommen sollte...

die statments dazu seitens ati waren ja auch nicht mehr als ausreden..
mal abwarten wie das alles nach ner gewissen zeit verläuft.

Quasar
2004-06-06, 18:44:28
Original geschrieben von Demirug
Über die Bildqualität selbst wäre es wahrscheinlich auch weiterhin nicht aufgefallen weil die Reviewer diesem Aspekt bisher keine wirklich Beachtung geschenkt haben. Wenn die AF-Tester und gefärbten Mipmaps das richtige angezeigt haben war das Thema Bildqualität erledigt und es wurde weiter gebencht.

Schuldig im Sinne der Anklage. :(
Es gab aber noch mehr Ausreden, inwieweit die für den Einen oder die Andere zutreffen, vermag ich leider nicht zu beurteilen.

Prinzipiell wurde, nachdem ATi mit der R9700p den Performancethron innehatte, und auch der Wunderchip NV30 das nicht großartig änderte, eigentlich eher bei nV auf die Bildqualität geschaut und ATi gewissermaßen als Referenz betrachtet. Nachdem es einige und wiederholte "Unregelmäßigkeiten" bei den nV-Treiber gegeben hatte, zunächst auch kein Wunder - oftmals wurde bei einem Unterschied in Sachen IQ primär geschaut, ob nV wieder gecheatet hatte.

Zudem ist es, hier ebenfalls schuldig im Sinne der Anklage, bei Mid-Range Chips eher unüblich, großartige Qualitätsvergleiche anzustellen. Das hat mitnichten mit einer Zweiklassengesellschaft zu tun, sondern damit, daß der Kunde in diesem Segment sich durch das selbstauferlegte Preislimit prinzipiell ja schon einmal nicht bereit ist, für optimale IQ wirklich zusätzliche Aufwendungen zu betreiben. Wenn ich eine Karte für 100 EUR kaufe, kann ich nicht allen ernstes erwarten, bsw. Far Cry in 1600x1200 mit 4xAA und 16xAF absolut ruckfrei zu erleben.
Aber es stimmt - hier herrscht(e) ein Mangel vor.


(bin jetzt etwas knapp an Zeit, erweitere später noch)

Jacek_K
2004-06-06, 18:47:41
Original geschrieben von Legende
1. Hab mich da auf die PCGH verlassen. Da wird die die 6800GT mit 3,3 Sone und die x800Pro mit 1,8 angegeben.
2. Das weiß ich nicht. Ich bin davon ausgegangen, dass wenn der Stomverbrauch höher ist, sich dadurch auch die Wärmeentwicklung steigert. Ati 49Watt Nvidia 65Watt.
3. Da möcht ich mich entschuldigen. Hab da an die Werte der 6800Ultra gedacht welche mit 480Watt angegeben wurden. Mittlerweile wurden auch diese auf 350 Watt gesenkt.

@Jacek_K
Sorry. Mich regt nur auf, dass dieser Thread hier geöffnet wurde. Solche Themen werden fast täglich im Grafikschip Forum behandelt und aus dem hallte ich mich der Gesundheit wegen raus. ;) Ich wusste, dass es so enden würde, wenn ich diesen Thread lese :-(

ja falsches forum unter umständen, aber es sollte hier rein um die ati gehen ich will und wollte keine vergleiche mit nvidia etc haben. einfach aus dem grunde das nicht einfach nur herugespammt wird. naja was aber ja trotzdem nicht auszuschliessen ist...
es ging mir ja nicht um pro ati contra nvidia oder umgekehrt.

andererseits fand ich es nicht korrekt das du in diesem falle über sinnlosigkeit eines threads urteilen vermagst.
für denn einen ist es sinnlos für den anderen nicht. somit könnte jeder in so einem grossen forum jedes thema beurteilen wie er will, ist ja auch nicht sinn und zweck...

und so wie ich dich aus dem forum kenne ist es ja auch nicht deine art es zu tun eigentlich.

xL|Sonic
2004-06-06, 18:48:47
Original geschrieben von Quasar
Zudem ist es, hier ebenfalls schuldig im Sinne der Anklage, bei Mid-Range Chips eher unüblich, großartige Qualitätsvergleiche anzustellen. Das hat mitnichten mit einer Zweiklassengesellschaft zu tun, sondern damit, daß der Kunde in diesem Segment sich durch das selbstauferlegte Preislimit prinzipiell ja schon einmal nicht bereit ist, für optimale IQ wirklich zusätzliche Aufwendungen zu betreiben. Wenn ich eine Karte für 100 EUR kaufe, kann ich nicht allen ernstes erwarten, bsw. Far Cry in 1600x1200 mit 4xAA und 16xAF absolut ruckfrei zu erleben.
Aber es stimmt - hier herrscht(e) ein Mangel vor.


(bin jetzt etwas knapp an Zeit, erweitere später noch)

Aha, auf einmal wird Far Cry als Vergleich herangezogen. Aber was ist denn mit Spielen, die etwas älter sind, wo man selbst mit einer 9600 XT mit AA und AF spielen kann?
Sonst werden doch beiden Benchmarks auch immer Uralt Spiele wie Quake3 oder Serious Sam angeführt, wo immer gezeigt wird, wie schlecht ATI doch ist, weil man statt 170fps nur 140fps hat...

Gast
2004-06-06, 19:01:15
Was ist wenn die Reviewer ein Video anfertigen lassen.Da BQ mehr oder weniger eine subjektive Sache ist kann der User selbst entscheiden ob ihm das Video von X oder besser von Y gefällt.Manipulation wäre da auch nicht möglich...
Zu simpel ?(

ironMonkey
2004-06-06, 19:02:44
FarCry kann man eh neben vorbei lassen, die Käufer einer nVidia 5950 waren sicher nicht glücklich drüber was sie auf dem Bildschirm sahen und eine 5950 ist weis Gott keine Midrange Karte, also das Spiel ist ein Ding für sich.


@Jacek-K, wieso sollte ich es mir schwer machen, ich zocke nicht weil ich muss, sondern aus Spaß/Lust/Hobby und wenn die Hersteller sich so bekämpfen das man auf Qualität keinen Wert legt dann kann man nur sagen, wer nicht will der hat und das ist mein fedback an den hersteller in dem ich von ihm nichts kaufe, was nicht stimmt weiß er selber.



Gruß

Jacek_K
2004-06-06, 19:07:16
@Quasar
Zudem ist es, hier ebenfalls schuldig im Sinne der Anklage, bei Mid-Range Chips eher unüblich, großartige Qualitätsvergleiche anzustellen. Das hat mitnichten mit einer Zweiklassengesellschaft zu tun, sondern damit, daß der Kunde in diesem Segment sich durch das selbstauferlegte Preislimit prinzipiell ja schon einmal nicht bereit ist, für optimale IQ wirklich zusätzliche Aufwendungen zu betreiben. Wenn ich eine Karte für 100 EUR kaufe, kann ich nicht allen ernstes erwarten, bsw. Far Cry in 1600x1200 mit 4xAA und 16xAF absolut ruckfrei zu erleben.
Aber es stimmt - hier herrscht(e) ein Mangel vor.

also ganz gebe ich mich mit dieser aussage nicht zufrieden.
sicherlich wird der kunde bei ner mid range karte abstriche machen was reine fps angeht, nur sollte man dann beim test nicht die bildqualität aussen vor lassen. es wird ja auch einige kunden geben in der mid range sektion dennen die bildqualität wichtig ist. ist aber üblich das man high end karten eventuell kritischer betrachtet.

und zudem muss man ja nicht erst 4aa und 16fach af einstellen um das cheaten mit zu bekommen.

doch das es nicht auffiel ist merkwürdig..
5 minuten spielen würde wohl ausreichen dafür, scheinbar werden beim testen nur timedemos abgespielt.. und die bildqualität nur anhand spezieller programme gemessen.

aber 3dcenter oder anderen seiten nur die schuld zu zuschieben ist ja nicht so richtig. so wie ich es gehört habe fiel das ja CB auch nicht anhand vom realen spielen auf sondern durch ein benchmark...

Legende
2004-06-06, 19:08:08
Original geschrieben von Jacek_K
ja falsches forum unter umständen, aber es sollte hier rein um die ati gehen ich will und wollte keine vergleiche mit nvidia etc haben. einfach aus dem grunde das nicht einfach nur herugespammt wird. naja was aber ja trotzdem nicht auszuschliessen ist...
es ging mir ja nicht um pro ati contra nvidia oder umgekehrt.

andererseits fand ich es nicht korrekt das du in diesem falle über sinnlosigkeit eines threads urteilen vermagst.
für denn einen ist es sinnlos für den anderen nicht. somit könnte jeder in so einem grossen forum jedes thema beurteilen wie er will, ist ja auch nicht sinn und zweck...

und so wie ich dich aus dem forum kenne ist es ja auch nicht deine art es zu tun eigentlich.

Stimmt, bin heute wohl mit dem linken Fuss aufgestanden. :-(
BTW kann ich dich jetzt besser verstehn, nachdem ich mir die beiden Videos in einem anderem Thread angesehen habe.
http://80.237.203.42/vbulletin/showthread.php?s=&threadid=147201

Jacek_K
2004-06-06, 19:20:48
Original geschrieben von ironMonkey
FarCry kann man eh neben vorbei lassen, die Käufer einer nVidia 5950 waren sicher nicht glücklich drüber was sie auf dem Bildschirm sahen und eine 5950 ist weis Gott keine Midrange Karte, also das Spiel ist ein Ding für sich.


@Jacek-K, wieso sollte ich es mir schwer machen, ich zocke nicht weil ich muss, sondern aus Spaß/Lust/Hobby und wenn die Hersteller sich so bekämpfen das man auf Qualität keinen Wert legt dann kann man nur sagen, wer nicht will der hat und das ist mein fedback an den hersteller in dem ich von ihm nichts kaufe, was nicht stimmt weiß er selber.



Gruß

stimmt drum habe ich mir auch eine ati gekauft, da mir die karten seitens nvidia nicht ansprachen.

aber das hobby an denn nagel setzen nur weil beide hersteller fehler machen, ist nicht in meinen interesse.
lieber habe ich es das genügend kritik ausgeübt wird um ein besseres produkt zu schaffen. nvidia hat auch zum teil aus ihren fehlern und der starken kritik gelernt und bietet jetzt auch ein fast sehr gutes produkt an.
zumindestens eine grosse steigerung zum alten..

Jacek_K
2004-06-06, 19:24:10
hmm das video von grestorn funktioniert bei mir leider gar nicht..kommt ne fehlermeldung seitens media player clasic.

korektur problem sitzt vor dem monitor..

ja sieht auch ziemlich heftig aus also wirklich noch mal ne steigerung zu mp2 video. das sollte ja nun wirklich aufallen zumal ja auch alle reviewer mit far cry getestet haben...

also von einer optimierung die kaum oder nicht sichtbar kann ja wohl nicht die rede sein. auch ´nicht im sinne von ati sein..

ironMonkey
2004-06-06, 19:33:47
Ich hab das etwas falsch/zu scharf formuliert, ich gebe das Zocken nicht auf, nur wird halt weniger gezockt, ich war mit meiner 9800Pro sehr zufrieden bis sie ihren Geist aufgab( kann gut sein das ich 1x den Silencer zu fest angezogen hatte obwohl ich das nicht das erstemal gemacht hab)jetzt flieg ich auf einer 5900XT rum, sicher keine schlechte Karte aber wenn man eine 9800Pro gewohnt ist nicht wirklich zu empfehlen, da ich bei den meisten Spielen weder AA noch AF zuschalten kann.


Jetzt hab ich mich auf die neuen Karten gefreut, eine NV will ich nicht wirklich da die mir doch etwas zuviel Strom frisst, ansonsten 1A Produkt.

Wenn jetzt HL² und andere Spiele rauskommen, würde ich schon gerne eine neue Karte drin haben und halt in schöner Optik zu Zocken wovon ja auch die ältern Spiele einen Vorteil haben, wenn das nicht geht ist man irgenwie nur noch halbherzig bei der Sache und das ist auch nicht das wahre, zumal der Sommer vor der Tür steht :)


Gruß

LovesuckZ
2004-06-06, 19:45:00
Original geschrieben von ironMonkey
Jetzt hab ich mich auf die neuen Karten gefreut, eine NV will ich nicht wirklich da die mir doch etwas zuviel Strom frisst, ansonsten 1A Produkt.


Du hast ne 9800pro gehabt. Die frisst im 2D Modus auch verdammt viel Strom im Gegensatz zur 5900.
Ich wundere mich, warum hier nie die 5900 wegen dem geringeren Stromverbrauch empfohlen wurde...

Jacek_K
2004-06-06, 19:45:51
Original geschrieben von ironMonkey
Ich hab das etwas falsch/zu scharf formuliert, ich gebe das Zocken nicht auf, nur wird halt weniger gezockt, ich war mit meiner 9800Pro sehr zufrieden bis sie ihren Geist aufgab( kann gut sein das ich 1x den Silencer zu fest angezogen hatte obwohl ich das nicht das erstemal gemacht hab)jetzt flieg ich auf einer 5900XT rum, sicher keine schlechte Karte aber wenn man eine 9800Pro gewohnt ist nicht wirklich zu empfehlen, da ich bei den meisten Spielen weder AA noch AF zuschalten kann.


Jetzt hab ich mich auf die neuen Karten gefreut, eine NV will ich nicht wirklich da die mir doch etwas zuviel Strom frisst, ansonsten 1A Produkt.

Wenn jetzt HL² und andere Spiele rauskommen, würde ich schon gerne eine neue Karte drin haben und halt in schöner Optik zu Zocken wovon ja auch die ältern Spiele einen Vorteil haben, wenn das nicht geht ist man irgenwie nur noch halbherzig bei der Sache und das ist auch nicht das wahre, zumal der Sommer vor der Tür steht :)


Gruß
ich gebe dir recht und desahlb auch meine meinung das die neue generation ja nur sehr halbherzig entwickelt wurde seitens ati...für mich steht es fest das keine neue reinkommt solange seitens hersteller nicht bald diese problem gelöst wird.
jetzt kann maschon mit mehr fps zocken und fast immer uneingeschränkt mit 8-16fach af spielen und dennoch ist die bildqualität nicht besser als zuvor...hat nen biederen beigeschmack alles..
aber naja sommer ist bald da ;)

Jacek_K
2004-06-06, 19:49:05
Original geschrieben von LovesuckZ
Du hast ne 9800pro gehabt. Die frisst im 2D Modus auch verdammt viel Strom im Gegensatz zur 5900.
Ich wundere mich, warum hier nie die 5900 wegen dem geringeren Stromverbrauch empfohlen wurde...


also die frisst warlich so einiges an strom. im normaltakt soll meine 9800 ca 68 watt verbrauchen, imho werden die 9800pro noch mehr fressen. locker 100 watt wenn noch oced...

ironMonkey
2004-06-06, 20:50:00
Original geschrieben von LovesuckZ
Du hast ne 9800pro gehabt. Die frisst im 2D Modus auch verdammt viel Strom im Gegensatz zur 5900.
Ich wundere mich, warum hier nie die 5900 wegen dem geringeren Stromverbrauch empfohlen wurde...


Das stimmt, da geb ich dir recht, ich hatte meine Karte per Radlinker auf 300/300 um dem etwas entgegen zu wirken, also die hat da so sagen wir mal 40Watt im Idle verbraucht womit ich noch leben kann, in dieser hinsicht ist meine jetzige sicher besser, an sich kann man das aber nicht so einfach sagen da es meiner XT einfach an Leistung fehlt.


Es hat dir keiner verboten eine 5900XT/Ultra als Stromspar Karte zu empfehlen, wobei das aber auch sicher daran liegt das erst jetzt die magische 100Watt grenze überschritten wurde und man dann schon anders drüber nachdenkt.


Wenn NV mehr Leistung bringen kann und besseres AF, werden sicher einige zu ihr greifen da dann der 20%höhere Stromverbrauch absolut gerechtfertigt währe.


Gruß

Quasar
2004-06-06, 21:51:13
Original geschrieben von Valmar
Aha, auf einmal wird Far Cry als Vergleich herangezogen. Aber was ist denn mit Spielen, die etwas älter sind, wo man selbst mit einer 9600 XT mit AA und AF spielen kann?
Sonst werden doch beiden Benchmarks auch immer Uralt Spiele wie Quake3 oder Serious Sam angeführt, wo immer gezeigt wird, wie schlecht ATI doch ist, weil man statt 170fps nur 140fps hat...

Streiche "Far Cry", setze "aktuelles, anspruchsvolles 3D-Game" - es war ein Beispiel, sorry, daß das durch mein "bsw." nicht deutlich genug wurde.
Auch das beinahe zwei Jahre alte UT2003 ist nicht unbedingt ein heißter Kandidat für AA/AF auf RV350/360-Karten.

Das letzte Mal, daß ich Q3 oder SeSam benutzte, ist, IIRC mehr als ein Jahr her, (Grad nachgeschaut: 3.6.2003), insofern bitte jetzt keine Pauschalkritik, ich kann nichts dazu, wenn Reviewer ihren Parcours nicht updaten oder lustig alle möglichen Treiberrevisionen mischen, damit sie mit wenig Aufwand möglichst ein riesiges Testfeld recyclen können.

Quasar
2004-06-06, 21:55:51
Original geschrieben von Jacek_K
@Quasar
also ganz gebe ich mich mit dieser aussage nicht zufrieden.
sicherlich wird der kunde bei ner mid range karte abstriche machen was reine fps angeht, nur sollte man dann beim test nicht die bildqualität aussen vor lassen. es wird ja auch einige kunden geben in der mid range sektion dennen die bildqualität wichtig ist. ist aber üblich das man high end karten eventuell kritischer betrachtet.

und zudem muss man ja nicht erst 4aa und 16fach af einstellen um das cheaten mit zu bekommen.

doch das es nicht auffiel ist merkwürdig..
5 minuten spielen würde wohl ausreichen dafür, scheinbar werden beim testen nur timedemos abgespielt.. und die bildqualität nur anhand spezieller programme gemessen.

aber 3dcenter oder anderen seiten nur die schuld zu zuschieben ist ja nicht so richtig. so wie ich es gehört habe fiel das ja CB auch nicht anhand vom realen spielen auf sondern durch ein benchmark...

Wie schon eingeräumt - hier lag definitiv ein Mangel vor. Allerdings ist es nun nicht so, daß einem die Optimierung von ATi sofort und allüberall ins Auge springt. Fünf Minuten anspielen sind da mit Sicherheit nicht genug. Leider ist es aber durchaus gängige Praxis, ein paar Timedemos durchlaufen zu lassen und die Bildqualität, wenn überhaupt, an ein paar wenigen Screenies zu beurteilen. Auf Screenshots sieht man solche Optimierungen allerdings sehr schlecht.

aths
2004-06-06, 23:04:07
Original geschrieben von Raff
Hrhr, da hat doch jemand eine gewisse Präsentation von nVidia gelesen. :D IIRC, nutzte ATI diesen Ausdruck selbst.

Gast
2004-06-06, 23:07:06
aths ... hast du nicht neine ati 9600 .. und dir ist doch nie was aufgefallen... zumindest hast du uns niemals etwas gesagt ... schaem dich ;-)

aths = 3dguru

was gleich bedeutend sein muss mit = die optimierung von ati ist wunderbar!

Gast
2004-06-06, 23:07:26
Wieso sollen die Karten enttäuschend sein? Den großen Hype haben nur die Internetseiten veranstaltet, nicht ATi bzw nVidia.

aths
2004-06-06, 23:13:23
Original geschrieben von Gast
aths ... hast du nicht neine ati 9600 .. und dir ist doch nie was aufgefallen...Doch, Textur-Schimmern.
Original geschrieben von Gast
zumindest hast du uns niemals etwas gesagt ... schaem dich ;-) Ich glaube, das erwähnte ich.