PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gutes ComputerBase Review (RadeonX1000 vs Geforce7)


Seiten : [1] 2

mapel110
2005-12-08, 03:07:02
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/
Endlich mal wieder einige aktuelle Fragen geklärt. Ich werd mir den in ein paar Stunden nochmal genauer anschauen.

Kladderadatsch
2005-12-08, 08:17:41
wirklich sehr interessant:)

wie ist denn nun der krasse unterschied zwischen hdr auf ati-, bzw. nv-karten zu erklären? es dürfte für ati doch kein problem sein, den kontrast/die helligkeit zu erhöhen?:confused:
(oder denken die, das schaut besser aus?;))

Demirug
2005-12-08, 08:20:24
Ich vermute das bei der X1800 das SM2 HDR das man für den R420 eingebaut hat benutzt wird denn der SM3 HDR Pfad braucht eigentlich FP16 Textur Filterung.

seahawk
2005-12-08, 08:33:05
Sehr lesenswert. Endlich siehrt man die reale Performance der X1800XT und es ist nun klar welcher Hersteller wirklich die Performancekrone verdient.

Thunder99
2005-12-08, 09:35:32
Sehr interessant.

Bin daher mal gespannt was die neuen Treiber noch rausholen

Gandharva
2005-12-08, 10:08:47
warum wird die GeForce 7800 GTX 512 nur im ramvergleichtest verwendet und nicht im kompletten review? die karte gibts @ geizhals genau wie die X1800XT ab 500€ zu bestellen (lieferbar sind beide fast nicht).

/edit
:redface: die GTX 512 gibts erst ab 600€... hab mich verkuckt im halbschlaf.

warum lässt man beim dual-core treibervergleich die XL gegen die GTX antreten? etwa weil man die XT fast nirgens im handel bekommt und daher der vergleich für den "normalo" käufer pl-mässig gegeben ist? GT vs. XL und GTX (256) vs. XT (256) und GTX (512) vs. XT (512) - so sollte verglichen werden und nicht anders!

warum werden die nvidia karten nicht übertaktet?

ati hat in der treiberentwicklung wirklich gute arbeit geleistet. was da bei den games an leistung rausgeholt wurde spricht wirklich für den neuen speichercontroller. für mich hat das ding aber auch einen nachteil. wer wie ich spiele sofort beim erscheinen kauft und dann meist recht flott durchspielt profitiert von der sache eigendlich nicht wirklich, da man bis neue, aufs jeweilige spiel optimierte, treiber erscheinen, meist das spiel durch hat.

Die gelbe Eule
2005-12-08, 10:40:25
Achtung: Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

Ist das immernoch so extrem?

Hakkerstiwwel
2005-12-08, 10:54:37
warum wird die GeForce 7800 GTX 512 nur im ramvergleichtest verwendet und nicht im kompletten review? die karte gibts @ geizhals genau wie die X1800XT ab 500€ zu bestellen (lieferbar sind beide nicht).

warum lässt man beim dual-core treibervergleich die XL gegen die GTX antreten? etwa weil man die XT fast nirgens im handel bekommt und daher der vergleich für den "normalo" käufer pl-mässig gegeben ist? GT vs. XL und GTX (256) vs. XT (256) und GTX (512) vs. XT (512) - so sollte verglichen werden und nicht anders!


X 1800 XT 512 ist sofort lieferbar ab ~ 520 http://www.geizhals.at/eu/a176228.html
Eine 7.800 GTX 512 wirst du wenn ueberhaupt nicht unter 650 bekommen.

KaKÅrØT
2005-12-08, 10:58:30
combuterbase eben ^^

warum wurde auch nicht die gtx512mb original getestet (mit normalen takt) :confused:

Die gelbe Eule
2005-12-08, 11:01:37
X 1800 XT 512 ist sofort lieferbar ab ~ 520 http://www.geizhals.at/eu/a176228.html
Eine 7.800 GTX 512 wirst du wenn ueberhaupt nicht unter 650 bekommen.

Nicht jeder Shop oder reale Laden ist im Internet bzw. bei Geizhals präsent. Sogar hier in meinen 30qm Läden kann man die 7800GTX 512MB kaufen für 650€.

Hakkerstiwwel
2005-12-08, 11:03:29
Nicht jeder Shop oder reale Laden ist im Internet bzw. bei Geizhals präsent. Sogar hier in meinen 30qm Läden kann man die 7800GTX 512MB kaufen für 650€.
In wie fern widerspricht sich das mit dem von mir gesagten?

KaKÅrØT
2005-12-08, 11:03:37
Nicht jeder Shop oder reale Laden ist im Internet bzw. bei Geizhals präsent. Sogar hier in meinen 30qm Läden kann man die 7800GTX 512MB kaufen für 650€.


jopp kann auch sogar die 512gtx kaufen (bei nem edv shop um die ecke) österreich/graz...

Gandharva
2005-12-08, 11:06:31
X 1800 XT 512 ist sofort lieferbar ab ~ 520 http://www.geizhals.at/eu/a176228.html
Eine 7.800 GTX 512 wirst du wenn ueberhaupt nicht unter 650 bekommen.

bei geizhals stimmen die angaben oft nicht und ausserdem wollte ich eigendlich keine i-tüpferl reiterei mit der aussage heraufbeschwören, aber wenn du meinst:

zur XT 512: http://www3.hardwareversand.de/8VunTRgiY2LcxQ/1/articledetail.jsp?aid=6070&agid=554&ref=13

bei norsk und e-bug würde ich nix kaufen. schon gar nicht ne top-end graka.

Hakkerstiwwel
2005-12-08, 11:09:31
bei geizhals stimmen die angaben oft nicht und ausserdem wollte ich eigendlich keine i-tüpferl reiterei mit der aussage heraufbeschwören, aber wenn du meinst:

zur GTX 512: http://www2.hardwareversand.de/7VubcdSO31Pp9S/1/articledetail.jsp?aid=5834&agid=394&ref=13

zur XT 512: http://www3.hardwareversand.de/8VunTRgiY2LcxQ/1/articledetail.jsp?aid=6070&agid=554&ref=13

bei norsk und e-bug würde ich nix kaufen. schon gar nicht ne top-end graka.
was willst du mir damit sagen? Es gibt billigere GTX 256 als die von dir gelinkte.
edit
sehe was du sagen wolltest, E-Bug ist trotzdem lieferbar

Gandharva
2005-12-08, 11:13:38
/edit :redface: die GTX 512 gibts erst ab 600€... hab mich verkuckt im halbschlaf.

hab mich verschaut. GTX gibts ab 600€ nicht 500! ich hol mir erstmal ne kaffee.

Die gelbe Eule
2005-12-08, 11:15:40
In wie fern widerspricht sich das mit dem von mir gesagten?

Das die X1800XT 512MB besser verfügbar ist als die 7800GTX 512MB und somit bei CB besser wegkommt. Anderfalls verstehe ich Deine Aussage nicht.

Das Review ist besser als sonst, aber es gibt so einige Ungereimheiten, worauf man aber nicht näher eingeht, sondern einfach nur nach dem Motto: "Das sehen wir so, also ist das so" das Testfeld verzerrt.

reunion
2005-12-08, 11:21:39
X 1800 XT 512 ist sofort lieferbar ab ~ 520 http://www.geizhals.at/eu/a176228.html
Eine 7.800 GTX 512 wirst du wenn ueberhaupt nicht unter 650 bekommen.

Offensichtlich hat sich nV etwas übernommen mit ihrer GTX 512, die man trotz Mondpreisen praktisch nirgends kaufen kann - war wohl hauptsächlich dazu gedacht, den längsten Balken zu haben.

seahawk
2005-12-08, 11:25:07
Offensichtlich hat sich nV etwas übernommen mit ihrer GTX 512, die man trotz Mondpreisen praktisch nirgends kaufen kann - war wohl hauptsächlich dazu gedacht, den längsten Balken zu haben.

Halt reine Kundenverarschung. Vor allem wenn man mal sieht wie die gegenwärtig ausgelieferten XTs zu übertakten sind. 690 mhz +/- schaffen fast alle. Das ist absolut geil. Und die XTs gehen immer noch auf 600+mhz. Da kann keine GeForce mehr mithalten.

Hakkerstiwwel
2005-12-08, 11:29:09
Das die X1800XT 512MB besser verfügbar ist als die 7800GTX 512MB und somit bei CB besser wegkommt. Anderfalls verstehe ich Deine Aussage nicht.

Das Review ist besser als sonst, aber es gibt so einige Ungereimheiten, worauf man aber nicht näher eingeht, sondern einfach nur nach dem Motto: "Das sehen wir so, also ist das so" das Testfeld verzerrt.
nein, was ich schrieb, ist dass es eine Preisdifferenz von ~ 20% oder 110 Eur zwischen der XT 512 und GTX 512 gibt, und beide insofern nicht in derselben Liga antreten( obschon das winkelunabhaengigere AF der XT eigentlich eine Praemie Wert waere). Dass eine XT 512 trotz verfuegbar ist als die vereinzelt sofoert lieferbare GTX 512 hast du selbst in das Ganze hereininterpretiert.
Dein Statement zu Geizhals habe ich mir uebrigens gebookmarked, um es wann immer opportun hervorzugraben.

Die gelbe Eule
2005-12-08, 11:38:07
Welche Liga gibt es denn noch über High End? Die beste Karte eines Herstellers muss gegen die beste Karte des anderen Herstellers antreten, so ist das nunmal. Wenn das Reviewer nicht einsehen wollen, dann haben sie entweder eine farbige Brille auf oder wollen nicht, auch wenn sie können.
Eine 7800GTX 512MB ist günstiger als 2x 7800GTX 256MB und ist zum Teil genauso schnell. Irgendwo muss man bei einem Review auch zeigen wie hoch die Meßlatte hängt, dafür ist es ja da.

KaKÅrØT
2005-12-08, 11:41:33
Offensichtlich hat sich nV etwas übernommen mit ihrer GTX 512, die man trotz Mondpreisen praktisch nirgends kaufen kann - war wohl hauptsächlich dazu gedacht, den längsten Balken zu haben.

wie ich schon erwähnt hatte ... habe jetzt nochmal mit der edv firma tele gemacht .. sie haben 3 karten mit 7800gtx 512MB lagernd und 7 sind im zentrallager ... also bei mir sind die lieferbar... der preis ist immo bissal hoch aber der geht schon runter... warte e schon auf den 7900ultra :D

Gandharva
2005-12-08, 11:44:16
Halt reine Kundenverarschung. Vor allem wenn man mal sieht wie die gegenwärtig ausgelieferten XTs zu übertakten sind. 690 mhz +/- schaffen fast alle. Das ist absolut geil. Und die XTs gehen immer noch auf 600+mhz. Da kann keine GeForce mehr mithalten.

und was ati mit der XT betreibt ist kundenfreundlich, oder wie? bezgl. übertaktbarkeit habe ich oben bereits kritik am review geäussert. warum wurde das bei den nvidia modellen nicht auch gemacht? 65mhz ist nun wirklich nicht die welt und auch viele gtx modelle schaffen 490-500mhz coretakt.

Die gelbe Eule
2005-12-08, 11:48:15
Die 7800GTX 512MB von meinem Kumpel rennt auf 650MHz/2020MHz mit Luft. Das sind die 20% die man wohl immer anliegen hat. Der Boost ist beachtlich. Finde das hätte man echt reinnehmen sollen.

Hakkerstiwwel
2005-12-08, 11:55:12
Welche Liga gibt es denn noch über High End? Die beste Karte eines Herstellers muss gegen die beste Karte des anderen Herstellers antreten, so ist das nunmal. Wenn das Reviewer nicht einsehen wollen, dann haben sie entweder eine farbige Brille auf oder wollen nicht, auch wenn sie können.
Eine 7800GTX 512MB ist günstiger als 2x 7800GTX 256MB und ist zum Teil genauso schnell. Irgendwo muss man bei einem Review auch zeigen wie hoch die Meßlatte hängt, dafür ist es ja da.
wie ich in deinem post lesen kann, muss ergo auch eine S3 S27 sich mit einer GTX 512 messen.

Die gelbe Eule
2005-12-08, 11:57:02
Ist die S27 High End? Nein ist sie nicht. Versuch bitte nicht den Satz so zu drehen, das er darauf passt. Du liest das vielleicht so, aber andere wissen schon was damit gemeint ist.

Was auch sinnlos ist, das man einerseits die ATis übertaktet, aber keine NV gegenüberstellt, auf der andere Seite die SLi Performance misst, aber nix von CF zu sehen ist.

Ganz zu schweigen, das man eine X1600XT bencht, die nirgends erhältlich ist, aber die X1600pro, die kaufbar ist, außen vor läßt.

Gandharva
2005-12-08, 11:59:31
Die 7800GTX 512MB von meinem Kumpel rennt auf 650MHz/2020MHz mit Luft. Das sind die 20% die man wohl immer anliegen hat. Der Boost ist beachtlich. Finde das hätte man echt reinnehmen sollen.

also das bei der 7800GTX 512MB 20% oc-potential drin sind halte ich für ein gerücht. die ersten reviews haben das eigendlich auch schon widerlegt. viele karten machen bei ~20-30mhz mehr bereits schlapp. irgendwo hat ein herstellungsprozess eben seine grenze.

mapel110
2005-12-08, 12:01:54
Offensichtlich hat sich nV etwas übernommen mit ihrer GTX 512, die man trotz Mondpreisen praktisch nirgends kaufen kann - war wohl hauptsächlich dazu gedacht, den längsten Balken zu haben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=262214
Wie erklärst du dir dann den Poll?!

horn 12
2005-12-08, 12:19:42
denke dass ATI die X1600 XT auf AGP etwas aufbohrt, ihr was neues performancemässig hochwertigeres beschert !
dann würde die X1600 XT AGP sehr gut darstehen und zur Konkurrenz der 7800 GT wirken .
viell. überdenkt ati es nochmal und spendiert ein 256 bit Speicher Interface !
:smile: :smile:

reunion
2005-12-08, 13:53:13
Welche Liga gibt es denn noch über High End?


High-End != High-End. Nenn es meinetwegen "Super-Dooper-Mega-Giga-High-End".


Die beste Karte eines Herstellers muss gegen die beste Karte des anderen Herstellers antreten, so ist das nunmal. Wenn das Reviewer nicht einsehen wollen, dann haben sie entweder eine farbige Brille auf oder wollen nicht, auch wenn sie können.

Die einzig sinnvolle Basis, zwei Karten zu vergleichen, ist über den Preis. Dass eine teure Karte besser ist als eine weniger teure, sollte eine Selbstverständlichkeit sein.


Eine 7800GTX 512MB ist günstiger als 2x 7800GTX 256MB und ist zum Teil genauso schnell. Irgendwo muss man bei einem Review auch zeigen wie hoch die Meßlatte hängt, dafür ist es ja da.

Natürlich hat die "GTX 512" genauso ihre Daseinsberechtigung, nur steht diese Karte nicht in Konkurrenz zu einer anderen, billigeren Karte.

sklave_gottes
2005-12-08, 14:11:04
denke dass ATI die X1600 XT auf AGP etwas aufbohrt, ihr was neues performancemässig hochwertigeres beschert !
dann würde die X1600 XT AGP sehr gut darstehen und zur Konkurrenz der 7800 GT wirken .
viell. überdenkt ati es nochmal und spendiert ein 256 bit Speicher Interface !

@Horn

Ein 256Bit specherinterface würde einer x1600xt nichts bringen!
Sie hat zuwenig TexelFillrate um den auszunutzen.128BIT reicht vollkommen aus bei 700mhz real takt.

@reunion

sehe ich genauso,hätten die 7800gtx 512 aber ruhig mittesten können.

@Die gelbe Eule

die 512MB gtx scheint OC technisch wirklich nicht mehr alzu gut zu sein.(mit der x1800xt oder 7800gtx("normal") nicht vergleichbar)

sehr Positiv finde ich die sehr gut peformants von den r520 karten.(bis auf aoe3)
negativ finde ich die weiterhin oft auftretenden bildfehler.(nicht zu verwechseln mit der bildqualiti)
Der stromverbrauch und die lautstärke hat sich zwar in einem annehmbaren bereich eingependelt,hätte aber gerade vom verbrauch im 2d bereich mehr optimierung erwartet.Gerade weil ich im vorfeld, von den guten abschalttechniken gehört habe.

ach ja eine frage: wieviel takt hat die 7800gtx und die 7800gt in 2d ?
Da ändert sich doch was im vergleich zu 3d oder ?

reunion
2005-12-08, 14:13:04
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=262214
Wie erklärst du dir dann den Poll?!

Was gibts da zu erklären? - Ja, die Karten waren (bzw. sind tw.) in spärlichen Mengen verfügbar, nur scheinen diese Mengen immer spärlicher zu werden - und der Preis spricht ja auch für sich.

nV scheint trotz dieses Preises Probleme zu haben, außreichend Chips herzustellen. Die geringe Übertaktbarkeit bestätigt diese Vermutung.

Die gelbe Eule
2005-12-08, 14:16:01
Und wie möchte man dann eine X1600XT preislich vergleichen, wenn es sie gar nicht gibt? Die X1600pro scheint ja da zu sein, nur im Review wird sie nirgends aufgeführt. Warum nicht? Vielleicht weil sie einfach zu schwach gewesen wäre.
Es wird nur da verglichen, wo man meint es wäre richtig. Warum nicht alle Karten gegentesten?

Irgendwo blinkt mir auch zuviel ATi im Review rum, ich dachte es geht um den Treibervergleich.

Und schon ist das Review fürn Arsch.

Was gibts da zu erklären? - Ja, die Karten waren (bzw. sind tw.) in spärlichen Mengen verfügbar, nur scheinen diese Mengen immer spärlicher zu werden - und der Preis spricht ja auch für sich.

In meiner Stadt von 10k Einwohnern, kann ich 20+ 7800GTX 512MB kaufen. Ich denke die Verfügbarkeit ist sehr groß. Wenn Düsseldorf 10 neue Ferrari anbieten kann, ist die Verfügbarkeit mehr als ausreichend.

nV scheint trotz dieses Preises Probleme zu haben, außreichend Chips herzustellen. Die geringe Übertaktbarkeit bestätigt diese Vermutung.

NV wollte nie viel produzieren, man sprach von Verfügbarkeit im 10tausender Bereich. Nur Fakt ist, sie waren/sind verfügbar, bei ATi dauerte es 4 Wochen länger.

deekey777
2005-12-08, 14:20:45
Ich vermute das bei der X1800 das SM2 HDR das man für den R420 eingebaut hat benutzt wird denn der SM3 HDR Pfad braucht eigentlich FP16 Textur Filterung.

Dazu kommt noch, daß dieses SM2 HDR bis zum letzten auf ATi-Hardware optimiert ist. Denn: Wer hat's erfunden? :D

Hakkerstiwwel
2005-12-08, 14:35:37
Ist die S27 High End? Nein ist sie nicht. Versuch bitte nicht den Satz so zu drehen, das er darauf passt. Du liest das vielleicht so, aber andere wissen schon was damit gemeint ist.

Was auch sinnlos ist, das man einerseits die ATis übertaktet, aber keine NV gegenüberstellt, auf der andere Seite die SLi Performance misst, aber nix von CF zu sehen ist.

Ganz zu schweigen, das man eine X1600XT bencht, die nirgends erhältlich ist, aber die X1600pro, die kaufbar ist, außen vor läßt.
Was bitte ist High-end, was ist Mainstream, was ist Entry Level. Wenn du Vergleichbarkeit nicht ueber den Preis definierst, welche (objektiven) Massstaebe legst du dann fest? Jemand der bereit ist bis 550 Euro fuer eine Graka auszugeben, interessiert sich nicht fuer eine 650 Euro Graka. Insofern sind sowohl die 512 als auch die 256er XT Karten eine Konkurenz zur GTX 256, ob du es willst oder nicht.
Zu der X1600XT: nur weil du keine findest heisst das nicht dass es sie nicht gibt.
Zu den bei den 30qm Shops lagernden GTX512:
wow, warum werden die die Karten nicht los waehrend die großen Versender keine mehr anzubieten haben? Wenn ich als Geschaeftsmann mit dem Inventar so an den Wuenschen meiner Kunden vorbeiplane brauche ich mich nicht zu wundern wenn eines Tages der Kuckuck an meiner Tuere klebt.

Die gelbe Eule
2005-12-08, 14:43:36
Wer sagt denn das sie die nicht los werden? Viele haben sie erst in den letzten Tagen reinbekommen. Wenn die großen Versandshops alle losgeworden sind, scheinen sie ja gut zu gehen oder?

Natürlich würde ich über den Preis vergleichen, doch gibt es dann wieder welche, die dann von MRSP ausgehen, die uralt sind und somit meinen, die Karte müsste dann damit verglichen werden.

Man könnte genauso gut sagen, das die X800GTO schneller ist als die X1600XT, aber 30€ weniger kostet, nur vergleichen wird das keiner mehr, da man das neue Produkt im besseren, nicht schlechteren Licht sehen möchte.

Das Review ist wie jedes andere auch und verbesserungswürdig. Trotzdem bringt es neue Aspekte.


Ich sehe trotzdem nirgends erklärt, warum die 512er GTX nur auf 430/600 läuft. Man möchte im Eingangspost versuchen herauszufinden, ob die 256MB den Aufpreis Wert sind, läßt aber mal locker den wichtigen Takt weg. Sinnfrei?
Wo ist die 6800GS, die man für 220€ kaufen kann, also nur 35€ von der XT weg ist. Die 6600GT wird aber dann miteinbezogen, obwohl 40€ günstiger als die X1600XT. Soviel zu fairen Preisvergleichen.

blackbox
2005-12-08, 15:01:22
Leider ist die Stromverbrauchsmessung bei Last nicht wirklich sinnvoll.
Ich selbst hatte das nachgemessen und auch schon geschrieben, dass beim 3Dmark kein reproduzierbares Ergebnis dabei herauskommt. Die Werte schwanken viel zu sehr und sind auch zu niedrig für eine Last-Messung.
Besser wäre ein Spiel wie z.B. Splinter Cell Chaos Theory.
Noch ein Grund mehr, 3DMark nicht als Maßstab zu nehmen.

sklave_gottes
2005-12-08, 15:05:27
Ich sehe trotzdem nirgends erklärt, warum die 512er GTX nur auf 430/600 läuft. Man möchte im Eingangspost versuchen herauszufinden, ob die 256MB den Aufpreis Wert sind, läßt aber mal locker den wichtigen Takt weg. Sinnfrei?

ich denke die wolten zeigen was genau nur 256MB mehr bringen.Nicht den vergleich zwischen der 7800gtx und der 7800gtx 512MB zeigen,das gab es doch schon zig mal im internet.

StefanV
2005-12-08, 15:09:51
ich denke die wolten zeigen was genau nur 256MB mehr bringen.Nicht den vergleich zwischen der 7800gtx und der 7800gtx 512MB zeigen,das gab es doch schon zig mal im internet.
Seh ich auch so!

Endlich mal jemand, der sich hingesetzt hat und geschaut hat, was er anders/besser machen kann als die ganzen 08/15 DAU Tester...

Gandharva
2005-12-08, 15:13:46
aber trotzdem hätte man die 7800 GTX 512 @ default mitbenchen sollen wie die anderen karten auch. wozu hat/hatte man sie denn? :|

Seh ich auch so!

Endlich mal jemand, der sich hingesetzt hat und geschaut hat, was er anders/besser machen kann als die ganzen 08/15 DAU Tester...

es ist doch nix neues mehr das 512mb keinen vorteil bringen. Video Memory Watcher lässt grüßen. einzig bei der noch nicht optimierten cod2 demo hats wirklich was gebracht.

Die gelbe Eule
2005-12-08, 15:17:34
Sag das nicht, es gibt sogar eine X700 512MB in Asien, die für ein bestimmtes MMORPG, was dort sehr beliebt ist doppelte Performance bringt.

Die 512er GTX hätte man gar nicht so mitbenchen sollen, da der Vergleich einfach hinkt. Es gibt keine kleine 512er, deswegen zahlt man auch keine 200€ Aufpreis, nur um 256MB mehr RAM zu bekommen.

sklave_gottes
2005-12-08, 15:29:40
aber dafür 6800ultra/256/512 oder bei den x1800xl b.z.w.XT
ich denke sie wollten die frage generell beantworten

MechWOLLIer
2005-12-08, 17:21:34
warum wird die GeForce 7800 GTX 512 nur im ramvergleichtest verwendet und nicht im kompletten review? die karte gibts @ geizhals genau wie die X1800XT ab 500€ zu bestellen (lieferbar sind beide fast nicht).

Wie du selber bereits festgestellt hast, ist die 7800 GTX 512 "etwas" teurer als die X1800 XT.

warum lässt man beim dual-core treibervergleich die XL gegen die GTX antreten? etwa weil man die XT fast nirgens im handel bekommt und daher der vergleich für den "normalo" käufer pl-mässig gegeben ist? GT vs. XL und GTX (256) vs. XT (256) und GTX (512) vs. XT (512) - so sollte verglichen werden und nicht anders!Hättest du nicht nur auf die Balken geschaut, sondern auch den Artikel gelesen, hättest du gemerkt, dass uns zum Testzeitpunkt keine X1800 XT zur Verfügung stand;)

warum werden die nvidia karten nicht übertaktet?
Weil der Test primär von den X1800-Karten handelt. Zudem konnte man diese vorher nicht übertakten, mittlerweile schon.

Ich sehe trotzdem nirgends erklärt, warum die 512er GTX nur auf 430/600 läuft. Man möchte im Eingangspost versuchen herauszufinden, ob die 256MB den Aufpreis Wert sind, läßt aber mal locker den wichtigen Takt weg. Sinnfrei?

Die GTX 512 haben wir nur in dem Abschnitt zum RAM-Vergleich genutzt, ansonsten nicht. Wie will ich denn feststellen, ob der zusätzliche RAM der mehrpreis wert ist, wenn die Karten unterschiedlich takten?

Die gelbe Eule
2005-12-08, 18:45:25
Dann machen wir das mal etwas zusammengefasster:

- Warum fehlt die X1600pro?
- Wieso setzt man nicht die 6800GS als Gegner ein?
- Warum läßt man den 3DMark als Test zum Energieverbrauch antreten?
- Warum sagt man immernoch das die G70 flimmern, was schon längt behoben worden ist?
- Wieso schreibt man nirgends dazu, das die 512MB GTX heruntergetaktet ist? Das läßt den normalen Leser denken, es gäbe eine 512MB mit normalen Taktraten.
- 8xSAA gegen 6xAA im Stromverbrauch antreten zu lassen ist kein fairer Vergleich.
- Ich verstehe nicht das ATi beim HDR den Pluspunkt bekommt, wenn es doch gar nicht vergleichbar ist. Es wird kein FP-Filtering beim X1k angeboten, was natürlich auch schlechter aussieht. Darauf hätte man eingehen und es auch als Minuspunkt asuweisen müssen.

Gandharva
2005-12-08, 18:48:25
Wie du selber bereits festgestellt hast, ist die 7800 GTX 512 "etwas" teurer als die X1800 XT.

ja und? sie ist im handel zu bekommen und ihr hattet eine karte. sieht man ja anhand der ramtests. ne XT ist auch ~60€ teurer als ne GTX 256. da habt ihr euch aber nicht gescheut die zu vergleichen.


Hättest du nicht nur auf die Balken geschaut, sondern auch den Artikel gelesen, hättest du gemerkt, dass uns zum Testzeitpunkt keine X1800 XT zur Verfügung stand;)

unter testsystem ist sie gelistet und für die anderen tests war die karte dann plötzlich wieder vorhanden, oder wie?


Weil der Test primär von den X1800-Karten handelt. Zudem konnte man diese vorher nicht übertakten, mittlerweile schon.

da hättet ihr aber ne bessere überschrift wählen sollen. Radeon X1000 vs. GeForce 7 klingt nicht grade nach nem test der primär auf ati-karten abziehlt. und übertakten konnte man die karte auch vorher schon. die user hier im forum haben das ja auch geschafft.

Gandharva
2005-12-08, 18:50:22
- Wieso schreibt man nirgends dazu, das die 512MB GTX heruntergetaktet ist? Das läßt den normalen Leser denken, es gäbe eine 512MB mit normalen Taktraten.

steht doch unter testsystem: nVidia GeForce 7800 GTX 512 (430/600)

Die gelbe Eule
2005-12-08, 18:58:45
ATi kommt mir zu gut dabei weg. Das einige dicke Fehler wie auch angegeben immernoch nicht ausgemerzt sind, was eigentlich trotz besserer BQ, sehr bescheiden aussieht, kann man nicht als gut heißen. Den Peter dann auf die Entwickler zu schieben, halte ich nach einem halben Jahr "Verfügbarkeit" gewagt.

StefanV
2005-12-08, 19:04:44
Dann machen wir das mal etwas zusammengefasster:

- Warum fehlt die X1600pro?
Weil nicht vorhanden?!

- Wieso setzt man nicht die 6800GS als Gegner ein?

WEIL DIE 6800GS NICHT DER GEGNER DER X1600 IST!
SCHAU DIR MAL DEN PREIS AN; DIE 6800GS IST WEITAUS TEURER!!!


- Warum läßt man den 3DMark als Test zum Energieverbrauch antreten?

Ev. weil mans nicht besser wusste?

- Warum sagt man immernoch das die G70 flimmern, was schon längt behoben worden ist?

Weils anscheinend nicht so ist, wenn man nicht "HQ" einstellt?

- Wieso schreibt man nirgends dazu, das die 512MB GTX heruntergetaktet ist? Das läßt den normalen Leser denken, es gäbe eine 512MB mit normalen Taktraten.
Doch, das tut man, überall wird der Takt der Karte angegeben, wenn ich mich recht erinnerte...


- 8xSAA gegen 6xAA im Stromverbrauch antreten zu lassen ist kein fairer Vergleich.

Warum nciht?!

Wenn nV kein 6x MSAA anbietet, ists deren Problem.

Und außerdem werden die Karten je wärmer, je stärker sie belastet werden.

Die gelbe Eule
2005-12-08, 19:11:40
Ach ne, eine X1600XT ist vorhanden aber nirgends im Markt, die X1600Pro aber nicht im Test, aber kaufbar, sehr glaubwürdig.

Was ist weitaus teurer? 215-220€ zu 195-210€. Die 6600GT ist weitaus günstiger als die X1600XT, warum ist sie deren Gegner und nicht eine 6800nu z.B.?

Wenn man es nicht besser weiß, sollte man sich anderweitig umschauen und vielleicht mal überdenken, ob man fähig ist, so einen Test zu vollziehen.

Subjektiv kam es denen so rüber, doch das flimmern wurde durch viele User hier gar nicht mehr beobachtet und das unter Quality. Von welchem Treiber geht man da also aus? Der letzte WHQL ist nicht der 78.03.

Der verminderte Takt als Vergleichsbasis wird nirgendwo erklärt.

Ob das ein Problem von NV ist oder nicht, sei dahingestellt, nur 8xSAA zieht mehr Performance als 6xAA.

Mr. Lolman
2005-12-08, 19:17:50
Subjektiv kam es denen so rüber, doch das flimmern wurde durch viele User hier gar nicht mehr beobachtet und das unter Quality. Von welchem Treiber geht man da also aus? Der letzte WHQL ist nicht der 78.03.

Iirc ist es unter Q sogar noch etwas schlimmer geworden...

Die gelbe Eule
2005-12-08, 19:19:44
Wie kann es schlimmer geworden sein, wenn man schon berichtete es wäre komplett weg?

Gandharva
2005-12-08, 19:20:45
ich hatte vorhin ein wenig zeit mir die bq-vergleiche mal genauer anzusehen. also diesen absatz:Achtung: Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.sollte man imo nochmal stark überdenken und unter anbetracht der fehler die in 3dmark, aquamark und hl2 auftreten evtl. auch bei ati die treiberoptimierungen komplett abschalten, zumal sogar im review festgestellt wurde, das die fehler dann verschwinden.Solange man die Treiber-Optimierung namens „Catalyst A.I.“ deaktiviert lässt, wird das Wasser in dem gezeigten Level wie bei nVidia korrekt dargestellt. Die Situation ändert sich dagegen mit „Catalyst A.I. Default“, also der Standardeinstellung des Treibers.da stellt sich mir die frage wie die performancevergleiche dann aussehen würden.

SKYNET
2005-12-08, 19:21:27
Halt reine Kundenverarschung. Vor allem wenn man mal sieht wie die gegenwärtig ausgelieferten XTs zu übertakten sind. 690 mhz +/- schaffen fast alle. Das ist absolut geil. Und die XTs gehen immer noch auf 600+mhz. Da kann keine GeForce mehr mithalten.


xt ~ 690 x 16 = 11040M
gtx ~ 500 x 24 = 12000M
gtx512 ~ 600 x 24 = 14400M

wer wohl keine chance hat... :rolleyes:

reunion
2005-12-08, 19:23:18
Wie kann es schlimmer geworden sein, wenn man schon berichtete es wäre komplett weg?


Blödsinn, unter "Quality" flimmert es nach wie vor heftigst, wer berichtet sowas?

SKYNET
2005-12-08, 19:26:33
das heftigst nimmst du aus deinem satz, dann passt es....

Die gelbe Eule
2005-12-08, 19:26:37
Was verstehst Du unter heftigst? Kantenflimmern wie mit 60Hz? Das wäre für mich "heftigst" ...
Keine Angst bin bald selbst ATiler, wenn auch gezwungen, trotzdem ist das Review Pro-ATi ausgegangen. Es wird nicht wirklich auf Fehler eingegangen, die man beseitigen könnte, aber mehr Performance kosten würden.

reunion
2005-12-08, 19:28:03
xt ~ 690 x 16 = 11040M
gtx ~ 500 x 24 = 12000M
gtx512 ~ 600 x 24 = 14400M

wer wohl keine chance hat... :rolleyes:


Etwas engstirninge Sichtweise, findest du nicht?

Nur mal so als Beispiel:
R300: 2600MTexel/s
nV30: 4000MTexel/s

Hinzu kommt, dass R520 durch seine entkoppelten TMUs hier einen nicht unbedeutenden Vorteil hat.

reunion
2005-12-08, 19:34:12
Was verstehst Du unter heftigst? Kantenflimmern wie mit 60Hz? Das wäre für mich "heftigst" ...


Sieh dir die 3dcenter-Videos an, unter "Quality" sind diese nach wie vor representativ. Nur HQ wurde verbessert.


Keine Angst bin bald selbst ATiler, wenn auch gezwungen, trotzdem ist das Review Pro-ATi ausgegangen. Es wird nicht wirklich auf Fehler eingegangen, die man beseitigen könnte, aber mehr Performance kosten würden.

Mir ist es relativ egal, was bist bzw. glaubst zu sein.
Deine Beiträge sprechen eine deutliche Sprache.

Gandharva
2005-12-08, 19:35:58
Blödsinn, unter "Quality" flimmert es nach wie vor heftigst, wer berichtet sowas?

ich hab ja nun selber ne gtx und muss sagen das diese ganze flimmerproblematik hochgebauscht wird ende nie. ja, unter Q kann man in manchen spielen flimmern erkennen wenn man genau hinsieht. kommt wohl auch stark auf den einzelnen an. mit HQ ist alles butter. wenn ich jedoch von grafikfehlern bei der x1000 serie lese, dann frage ich mich was da das größere übel ist... imo sollte man da sowohl bei nv als auch bei ati alle optimierungen abschalten. genug leistung haben die karten ja um nicht auf tricksereien angewiesen zu sein.

Die gelbe Eule
2005-12-08, 19:36:03
Wie kann etwas repräsentativ sein, wenn es alte Treiber sind? Das verstehe ich nicht ...

ich hab ja nun selber ne gtx und muss sagen das diese ganze flimmerproblematik hochgebauscht wird ende nie. ja, unter Q kann man in manchen spielen flimmern erkennen wenn man genau hinsieht. mit HQ ist alles butter. wenn ich jedoch von grafikfehlern bei der x1000 serie lese, dann frage ich mich was da das größere übel ist... imo sollte man da sowohl bei nv als auch bei ati alle optimierungen abschalten. genug leistung haben die karten ja um nicht auf tricksereien angewiesen zu sein.

Ein wichtiger Punkt. In manchen Spielen merkt man es vielleicht. Nur wird immernoch suggeriert, das die G70 generell so flimmern, das nur noch HQ die Augen schont.
Wenn man sich das Wasser in HL² anschaut, was immernoch nicht gefixed ist, dann wäre das eine dickes Minus. Weil das fällt eher ins Auge, als ein Flimmern in der Ferne.

reunion
2005-12-08, 19:42:28
Wie kann etwas repräsentativ sein, wenn es alte Treiber sind? Das verstehe ich nicht ...


Indem der Output unter Q seit diesem Treiber nicht verändert wurde.

Irgendwo blinkt mir auch zuviel ATi im Review rum, ich dachte es geht um den Treibervergleich.

Und schon ist das Review fürn Arsch.


Es geht aus dem Text klar hervor, dass der Test primär von den X1800-Karten handelt.


In meiner Stadt von 10k Einwohnern, kann ich 20+ 7800GTX 512MB kaufen. Ich denke die Verfügbarkeit ist sehr groß. Wenn Düsseldorf 10 neue Ferrari anbieten kann, ist die Verfügbarkeit mehr als ausreichend.


Selbst riesige Versandhäuser können keine derartige Karte liefern.


NV wollte nie viel produzieren, man sprach von Verfügbarkeit im 10tausender Bereich.

Jeder Hersteller versucht, zumindest die Nachfrage zu befriedigen - das gelingt nV aktuell nicht, und das trotz des überhöhten Preises.

Gandharva
2005-12-08, 19:59:41
Es geht aus dem Text klar hervor, dass der Test primär von den X1800-Karten handelt.wo im text steht das? wenn ich mir dann noch die überschrift ansehe hat diese aussage absolut keine gültigkeit!

Die gelbe Eule
2005-12-08, 20:06:54
Jeder Hersteller versucht, zumindest die Nachfrage zu befriedigen - das gelingt nV aktuell nicht, und das trotz des überhöhten Preises.

Das finde ich lustig. Was hat dann ATi gemacht? Ibiza Showparty und dann war Totenstille. War schon eine Art When it's done ...

deekey777
2005-12-08, 20:09:29
Dann machen wir das mal etwas zusammengefasster:
[...]

- Ich verstehe nicht das ATi beim HDR den Pluspunkt bekommt, wenn es doch gar nicht vergleichbar ist.
Womit bzw. inwieweit ist es nicht vergleichbar?

Es wird kein FP-Filtering beim X1k angeboten, was natürlich auch schlechter aussieht. Darauf hätte man eingehen und es auch als Minuspunkt ausweisen müssen.
Wer sagt das? Einfach aus den Fingern gesaugt? Du solltest mal in diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=253113) reinschauen. Die fehlende FP-Filterung kann man im Pixelshader simulieren, dagegen ist MSAA&FP16 erste Sahne.

Wenn man sich das Wasser in HL² anschaut, was immernoch nicht gefixed ist, dann wäre das eine dickes Minus. Weil das fällt eher ins Auge, als ein Flimmern in der Ferne.

Das glaube ich aber kaum. Dieser Bug ist seit cat. 5.7 vorhanden und ist erst im September aufgefallen. Wer von diesem Bug nichts weiß, wird diesen auch nicht sehen.

xt ~ 690 x 16 = 11040M
gtx ~ 500 x 24 = 12000M
gtx512 ~ 600 x 24 = 14400M

wer wohl keine chance hat... :rolleyes:

Was willst du mit der Texelfüllrate, wenn in den kommenden Monaten sich die Last auf die Pixelshader verlagert? Daß die G70 so eine brutale Texelfüllrate hat, ist eher ein "Nebeneffekt", hier wurde in erster Linie in Shaderleistung investiert.

MechWOLLIer
2005-12-08, 20:15:53
- Warum fehlt die X1600pro?
- Wieso setzt man nicht die 6800GS als Gegner ein?
- Warum läßt man den 3DMark als Test zum Energieverbrauch antreten?
- Warum sagt man immernoch das die G70 flimmern, was schon längt behoben worden ist?
- Wieso schreibt man nirgends dazu, das die 512MB GTX heruntergetaktet ist? Das läßt den normalen Leser denken, es gäbe eine 512MB mit normalen Taktraten.
- 8xSAA gegen 6xAA im Stromverbrauch antreten zu lassen ist kein fairer Vergleich.
- Ich verstehe nicht das ATi beim HDR den Pluspunkt bekommt, wenn es doch gar nicht vergleichbar ist. Es wird kein FP-Filtering beim X1k angeboten, was natürlich auch schlechter aussieht. Darauf hätte man eingehen und es auch als Minuspunkt asuweisen müssen.

- Weil wir keine X1600 Pro haben. Außerdem geht es in dem Artikel um die High-End-Grafikkarten. X1600 und X1300 haben wir nur für die Temperaturbenches, Übertatkungsergebnisse etc. benutzt.
- siehe oben
- Weil der meiner Meinung gut dafür taugt. und das mit den Stromschwankungen kann ich nicht bestätigen
- Wir schreiben, dass wir HQ benutzen, um das Texturflimmern (beinahe" abzuschaltnen. Und in Quality flimmert es auch noch mit neuen Treibern
- Tun wir genau über den Benchmarks
- siehe oben undes gibt noch eine Anmerkung dazu im Artikel
- Im Stromverbrauch? Haben wir gar nicht!
- Von Pluspunkt war im Artikel nicht die rede. Wir finden es nur gut, dass bei HDR gleichzeitig AA benutzt werden kann. Dass wir das fehlen von FP16-Filtering nicht für gut erheißen, habe ich geschrieben (zugegebenermaßen vielleicht etwas zu schwache Kritik)

MechWOLLIer
2005-12-08, 20:23:57
ja und? sie ist im handel zu bekommen und ihr hattet eine karte. sieht man ja anhand der ramtests. ne XT ist auch ~60€ teurer als ne GTX 256. da habt ihr euch aber nicht gescheut die zu vergleichen.
Ja, die XT ist teurer als die GTX, die Differenz ist aber nicht so stark wie zur GTX 512.
unter testsystem ist sie gelistet und für die anderen tests war die karte dann plötzlich wieder vorhanden, oder wie?
Das ganze Benchen im Artikel hat länger als ein Tag gedauert. Und in der Zeit musste die Karte zwischenzeitlich zu ATi.
a hättet ihr aber ne bessere überschrift wählen sollen. Radeon X1000 vs. GeForce 7 klingt nicht grade nach nem test der primär auf ati-karten abziehlt. und übertakten konnte man die karte auch vorher schon. die user hier im forum haben das ja auch geschafft.
Da gebe ich zu, dass die Überschriftr nicht optimal ist, eigentlich war auch eine andere vorgesehen.
sollte man imo nochmal stark überdenken und unter anbetracht der fehler die in 3dmark, aquamark und hl2 auftreten evtl. auch bei ati die treiberoptimierungen komplett abschalten, zumal sogar im review festgestellt wurde, das die fehler dann verschwinden.Sag mal, hast du auch nur irgendwas von dem Artikel gelesen? Genau das gegenteil ist der Fall;) (HL2 ausgenommen)

Die gelbe Eule
2005-12-08, 20:24:59
Womit bzw. inwieweit ist es nicht vergleichbar?

Wer sagt das? Einfach aus den Fingern gesaugt? Du solltest mal in diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=253113) reinschauen. Die fehlende FP-Filterung kann man im Pixelshader simulieren, dagegen ist MSAA&FP16 erste Sahne.


Das glaube ich aber kaum. Dieser Bug ist seit cat. 5.7 vorhanden und ist erst im September aufgefallen. Wer von diesem Bug nichts weiß, wird diesen auch nicht sehen.



Möchte der Anwender echtes oder simuliertes FP-Filtering?

Du sagst also, jeder der HL² mit einer ATi spielt und es nur so kennt wie dargestellt, ist damit zufrieden?

Black-Scorpion
2005-12-08, 20:45:50
Möchte der Anwender echtes oder simuliertes FP-Filtering?
Wieviele User wissen was FP-Filterung überhaupt ist?
99% der Leute interessiert nur was hinten rauskommt.
Du sagst also, jeder der HL² mit einer ATi spielt und es nur so kennt wie dargestellt, ist damit zufrieden?
nVidia User hat ja bei SS2 die Qualität (Spiegelungen) mit den vorherigen Treibern auch nicht gestört. ;)

'edit'
Quote eingefügt

tombman
2005-12-08, 20:53:55
Der "review" ist eindeutig pro Ati und unfair obendrein.

Warum lassen die die XT gegen die GTX und nicht gegen die GTX 512 antreten?
(und selbst da loset die ATi teilweise ab ;D)
Warum wird bei schlechtem Abschneiden der ATis ständig gebetsmühlenartig auf zukünftige Treiber hingewiesen?
Warum wird die GTX 512 nicht übertaktet? (weils dann zu übermächtig werden würde)

Antwort: weil die bei ATi kräftig für die Vorab-treiber und tools schleimen mußten und jetzt nix pösen schreiben dürfen, deshalb.. so easy ;)

Gandharva
2005-12-08, 20:54:13
Ja, die XT ist teurer als die GTX, die Differenz ist aber nicht so stark wie zur GTX 512.

ja klar, wegen grade mal 40€ unterschied in der differenz lässt man die karte weg obwohl man sie zum benchen da hätte... :hammer:

Das ganze Benchen im Artikel hat länger als ein Tag gedauert. Und in der Zeit musste die Karte zwischenzeitlich zu ATi.
wie treffend bei der guten "verfügbarkeit" der XT modelle ;) imo sollte man sich im voraus absichern, das einem die nötigen ressourcen auch lange genug zur verfügung stehen um ein ordendliches review machen zu können.

Sag mal, hast du auch nur irgendwas von dem Artikel gelesen? Genau das gegenteil ist der Fall;) (HL2 ausgenommen)

ja und im abschnitt bq-vergleich finden sich aber keine gegenteiligen aussagen!

Wie man anhand der Screenshots erkennen kann, liefert der ATi-Catalyst-Treiber im synthetischen Benchmark 3DMark05 aus dem Hause Futuremark eine minderwertige Qualität der Qualmdarstellung.Nanu, was ist das denn? Nicht schlecht staunten wir, als der bekannten AquaMark 3 denselben Bildfehler wie die neuesten 3DMark-Version aufwies. Auch hier zeigt die Radeon X1800, im Gegensatz zur GeForce 7800, einen falschen Farbverlauf an.Ebenfalls Probleme bereitete der Catalyst-Treiber für ATi-Grafikkarten in dem Direct3D-Spiel „Half-Life 2“. Solange man die Treiber-Optimierung namens „Catalyst A.I.“ deaktiviert lässt, wird das Wasser in dem gezeigten Level wie bei nVidia korrekt dargestellt.

recht viel mehr habt ihr ja bezgl. bq nicht getestet.

Mumins
2005-12-08, 21:04:11
Der "review" ist eindeutig pro Ati und unfair obendrein.

Warum lassen die die XT gegen die GTX und nicht gegen die GTX 512 antreten?
(und selbst da loset die ATi teilweise ab ;D)
Warum wird bei schlechtem Abschneiden der ATis ständig gebetsmühlenartig auf zukünftige Treiber hingewiesen?
Warum wird die GTX 512 nicht übertaktet? (weils dann zu übermächtig werden würde)

Antwort: weil die bei ATi kräftig für die Vorab-treiber und tools schleimen mußten und jetzt nix pösen schreiben dürfen, deshalb.. so easy ;)

Computerbase ist mit Sicherheit nicht Pro ATI, hier im Forum wird ihnen eher der Hang zu Nvidia nachgesagt.
Mit 4AA+16AF loost die XT gegen die GTX nur in AOE3 ab. Dafür is die Performance der X1800XT in F.E.A.R. so hoch, dass da auch keine 512MB GTX hinkommt.

Mr. Lolman
2005-12-08, 21:06:10
Der "review" ist eindeutig pro Ati und unfair obendrein.

Warum lassen die die XT gegen die GTX und nicht gegen die GTX 512 antreten?
(und selbst da loset die ATi teilweise ab ;D)
Warum wird bei schlechtem Abschneiden der ATis ständig gebetsmühlenartig auf zukünftige Treiber hingewiesen?
Warum wird die GTX 512 nicht übertaktet? (weils dann zu übermächtig werden würde)

Antwort: weil die bei ATi kräftig für die Vorab-treiber und tools schleimen mußten und jetzt nix pösen schreiben dürfen, deshalb.. so easy ;)

Pro Ati wärs dann gewesen, wenn man - statt AOE3, Riddick und Doom3 - Quake4, NFS U2/MW, COD2 oder Battlefield2 gebencht hätte.

Andererseits hätt ich entweder die Überschrift anders formuliert, oder in der Einleitung noch ein NV Logo untergebracht.

...und die 512MB GTX Benchmarks vermiss ich auch irgendwie...



/egal: Hier meint man, das Review wär Pro-ATi und im CB Forum freuen sie sich, weil NV trotzdem Sieger ist :rolleyes:

sklave_gottes
2005-12-08, 21:07:38
Wie kann etwas repräsentativ sein, wenn es alte Treiber sind? Das verstehe ich nicht ...
@Die gelbe Eule

Es wurde der neuste treiber getestet!Von ati sowie von nvidia.Lese doch mal den ganzen artikel!

@tombman

Tut mir leid aber dein beitrag ist echt lächerlich.........

SKYNET
2005-12-08, 21:12:07
Etwas engstirninge Sichtweise, findest du nicht?

Nur mal so als Beispiel:
R300: 2600MTexel/s
nV30: 4000MTexel/s

Hinzu kommt, dass R520 durch seine entkoppelten TMUs hier einen nicht unbedeutenden Vorteil hat.


ja, und wenn du nun aber noch mit in die mischung hinzutust, das die NV4x(G7x) architektur effektiver ist als die ATI architektur... :rolleyes:

(del)
2005-12-08, 21:14:02
- Warum sagt man immernoch das die G70 flimmern, was schon längt behoben worden ist?
Wo was wie? :conf: An Quality hat sich überhaupt nichts getan. Das ist immernoch schlechter als schlecht. Nur HighQuality hat man soweit "aufgebessert", daß man das mittlerweile mit ATIs AI_low vergleichen kann. Du kriegst ja doch sonst alles mit... :wave:

sklave_gottes
2005-12-08, 21:16:03
ja, und wenn du nun aber noch mit in die mischung hinzutust, das die NV4x(G7x) architektur effektiver ist als die ATI architektur...

in welcher hinsicht effektiver ?

(del)
2005-12-08, 21:23:20
- Ich verstehe nicht das ATi beim HDR den Pluspunkt bekommt, wenn es doch gar nicht vergleichbar ist
Wer sagt das?
was natürlich auch schlechter aussieht
Wer sagt das?

Mumins
2005-12-08, 21:23:29
in welcher hinsicht effektiver ?

Theoretisch meint er wahrscheinlich, was hinten rauskommt zählt aber.

Gandharva
2005-12-08, 21:23:48
/egal: Hier meint man, das Review wär Pro-ATi und im CB Forum freuen sie sich, weil NV trotzdem Sieger ist :rolleyes:
warum so still? dir als bildqualitätsfetischist müssten doch die grafikfehler der ati karten ein speer... ähm dorn im auge sein.

Die gelbe Eule
2005-12-08, 21:53:24
Ich warte immernoch darauf, warum man die 6600GT die 130€ kostet gegen die X1600XT, welche 180€+ kostet antreten lassen hat. Die 6800nu kostet ca. 170€, wäre der perfekte Gegner und würde die XT kaltstellen.

(del)
2005-12-08, 21:53:50
warum so still? dir als bildqualitätsfetischist müssten doch die grafikfehler der ati karten ein speer... ähm dorn im auge sein.
Imho sind diese Grafikfehler das was sie sind: Fehler. Und so sehen sie auch aus. Wogegen ich bei dem Flimmern der G70 nirgendwo was vom Fehler gelesen habe (Nv ausgenommen). Da beschwerten sich alle klar über die Bildqualität. Haarspalterei? Vielleicht. Imho gibts es aber schon den Unterschied, ob etwas falsch oder schlecht dargestellt wird. Sehe Wasser in HL2 und allen Catalysts ab 5.7 :mad:

(del)
2005-12-08, 21:55:45
Ich warte immernoch darauf, warum man die 6600GT die 130€ kostet gegen die X1600XT, welche 180€+ kostet antreten lassen hat. Die 6800nu kostet ca. 170€, wäre der perfekte Gegner und würde die XT kaltstellen.
Da hast Du wohl Recht. Ich warte ebenfalls noch auf paar Antworten. Von Dir...

Die gelbe Eule
2005-12-08, 21:56:25
Und da sollte man vielleicht auch nachhaken, warum das Wasser so aussehen muss. Vielleicht wird etwas verschwiegen, das keiner mitbekommen soll.

ATi bekam den Pluspunkt, da man AA zusätzlich einsetzen kann. Im Forum gibt es aber Aussagen, das HDR+AA auf X1k matschig aussieht.
Ein ungenaues HDR + ein Feature das dann schlechter aussieht, kann man nicht als Plus werten.

Coda
2005-12-08, 22:03:39
Wo was wie? :conf: An Quality hat sich überhaupt nichts getan. Das ist immernoch schlechter als schlecht. Nur HighQuality hat man soweit "aufgebessert", daß man das mittlerweile mit ATIs AI_low vergleichen kann. Du kriegst ja doch sonst alles mit... :wave:Auf Quality kann man so oder so nicht spielen ohne Augenkrebs zu bekommen X-D

sklave_gottes
2005-12-08, 22:04:10
Ich warte immernoch darauf, warum man die 6600GT die 130€ kostet gegen die X1600XT, welche 180€+ kostet antreten lassen hat. Die 6800nu kostet ca. 170€, wäre der perfekte Gegner und würde die XT kaltstellen.

und die x800gto(ab 169€) hätte die 6800nu kaltgestellt.....
hätte aber.......

Mr. Lolman
2005-12-08, 22:08:37
warum so still? dir als bildqualitätsfetischist müssten doch die grafikfehler der ati karten ein speer... ähm dorn im auge sein.

Da ich bei so offensichtlichen Fehlern doch die Hoffnung hab, dass da was getan wird, brauch ich nicht erst großartig zum Meckern anfangen.

Natürlich gefallen sie mir nicht. Aber ATi wurde bereits informiert und ich hoffe doch sehr stark das mittlerweile andere Tester auch auf die BQ achten und die Leser über etwaige Darstellungsproblemen aufklären...

(del)
2005-12-08, 22:10:17
Da hast Du wohl Recht. Ich warte ebenfalls noch auf paar Antworten. Von Dir...
Hallo? :D
ATi bekam den Pluspunkt, da man AA zusätzlich einsetzen kann. Im Forum gibt es aber Aussagen, das HDR+AA auf X1k matschig aussieht
Welcher Experte behauptet das bitte wo?
Ein ungenaues HDR + ein Feature das dann schlechter aussieht, kann man nicht als Plus werten
Eule, ungenau sind nur Deine Aussagen.

Die gelbe Eule
2005-12-08, 22:14:29
und die x800gto(ab 169€) hätte die 6800nu kaltgestellt.....
hätte aber.......

Sag ich nix gegen, sie wäre sogar schneller als die X1600XT. Und weil ja keiner SM3.0 braucht, warum als mehr zahlen? Da hat sich ATi halt mit Ihren zig Versionen zuviel Konkurrenz gemacht ;)

Gandharva
2005-12-08, 22:15:02
Imho sind diese Grafikfehler das was sie sind: Fehler. Und so sehen sie auch aus. Wogegen ich bei dem Flimmern der G70 nirgendwo was vom Fehler gelesen habe (Nv ausgenommen). Da beschwerten sich alle klar über die Bildqualität. Haarspalterei? Vielleicht. Imho gibts es aber schon den Unterschied, ob etwas falsch oder schlecht dargestellt wird. Sehe Wasser in HL2 und allen Catalysts ab 5.7 :mad:

:| was du da schreibst ist nicht dein ernst oder? wie polarisiert muss man eigendlich sein wenn man sowas mit vollem ernst von sich gibt?

ob flimmern oder falscher farbverlauf. das sind beides fehler! wenn man diese ausmerzen kann indem man auf beiden seiten die optimierungen deaktiviert sollte man das auch machen oder wieder wie andere auch @ default benchen und vergleichen.

Mumins
2005-12-08, 22:17:53
:| was du da schreibst ist nicht dein ernst oder? wie polarisiert muss man eigendlich sein wenn man sowas mit vollem ernst von sich gibt?

ob flimmern oder falscher farbverlauf. das sind beides fehler! wenn man diese ausmerzen kann indem man auf beiden seiten die optimierungen deaktiviert sollte man das auch machen oder wieder wie andere auch @ default benchen und vergleichen.

Reden wir weiter, wenns in den nächsten 2 Monaten noch da ist. Bei Nvidia flimmerts nun schon über 1 Jahr.

Gandharva
2005-12-08, 22:18:59
Reden wir weiter, wenns in den nächsten 2 Monaten noch da ist. Bei Nvidia flimmerts nun schon über 1 Jahr.
auf HQ flimmert nichts!

selbi-elbi
2005-12-08, 22:20:31
Reden wir weiter, wenns in den nächsten 2 Monaten noch da ist. Bei Nvidia flimmerts nun schon über 1 Jahr.
So sehe ich das auch. <-PUNKT

Ati ist nun mal fortschrittlicher, spätestens mit dem 580 ist dann alles eindeutig.

Coda
2005-12-08, 22:22:40
Wo gibts die Glaskugeln?

reunion
2005-12-08, 22:22:51
ATi bekam den Pluspunkt, da man AA zusätzlich einsetzen kann. Im Forum gibt es aber Aussagen, das HDR+AA auf X1k matschig aussieht.
Ein ungenaues HDR + ein Feature das dann schlechter aussieht, kann man nicht als Plus werten.

Die Entwickler müssen beim Einsatz von FP16-Texturen, und nur da, die Filterung mittels Shader emulieren, da die R520-TMUs keine FP-Filterung unterstützen. "Matschig" würde es nur aussehen, wenn man dies nicht machen würde, da diese Texturen dann überhaupt keine Filterung abbekommen würden.

Die gelbe Eule
2005-12-08, 22:25:03
Und da wo es die Entwickler nicht machen, wird auch nix emuliert. Das sollte man dann auch in einem Review genauestens ansprechen und vielleicht nicht verallgemeinern.

Gandharva
2005-12-08, 22:25:04
Ati ist nun mal fortschrittlicher, spätestens mit dem 580 ist dann alles eindeutig.:uconf3: leihst du mir bitte deine kristallkugel? ich würd gern was wegen lotto spielen checken...

(del)
2005-12-08, 22:26:04
:| was du da schreibst ist nicht dein ernst oder? wie polarisiert muss man eigendlich sein wenn man sowas mit vollem ernst von sich gibt?
Dafür muß man garnicht polarisiert sein. Man muß nur ein Gehrin haben, daß mehr als ein Pfund wiegt.
ob flimmern oder falscher farbverlauf. das sind beides fehler!
Ist zB. winkelabhängiges AF ein Fehler? In dem Sinne, ja. Wurde es behoben? ;) Ja mag sein. Ich seh die Story mit G70 halt anders. Mal sehen nun, ob sich ATI mit der Behebung so schwer tun wird wie NV mit dem Grieseln des G70.
wenn man diese ausmerzen kann indem man auf beiden seiten die optimierungen deaktiviert sollte man das auch machen
Ehh... Man kann auf dem G70 kein Grieseln beheben indem man im Cat AI_off einstellt. Hee? An AI_low kommt das entgrieselte HighQuality gradmal so ran. Wie es auch CB bemerkt. oder wieder wie andere auch @ default benchen und vergleichen.
Wie der G70 mit Forcewares defaults grieselt weiß mittlerweile der letzte 3D-Depp. Was willst Du nun vergleichen? Hast Du grad was von polarisiert erzählt?

Coda
2005-12-08, 22:27:00
Die Entwickler müssen beim Einsatz von FP16-Texturen, und nur da, die Filterung mittels Shader emulieren, da die R520-TMUs keine FP-Filterung unterstützen. "Matschig" würde es nur aussehen, wenn man dies nicht machen würde, da diese Texturen dann überhaupt keine Filterung abbekommen würden.Man kann kein AF im Shader emulieren, deshalb der Matsch.

Ganz ohne Filterung bekommst du Blöckchengrafik und Matsch.

(del)
2005-12-08, 22:27:35
Und da wo es die Entwickler nicht machen, wird auch nix emuliert. Das sollte man dann auch in einem Review genauestens ansprechen und vielleicht nicht verallgemeinern.
Eule ignoriert mich :lol:

Die gelbe Eule
2005-12-08, 22:28:48
Inwiefern ignoriere ich Dich? Vieles geht hier unter, da die Posts schnell hintereinander kommen.

deekey777
2005-12-08, 22:30:11
Möchte der Anwender echtes oder simuliertes FP-Filtering?
Lies zuerst den verlinkten Thread durch.

Du sagst also, jeder der HL² mit einer ATi spielt und es nur so kennt wie dargestellt, ist damit zufrieden?

Nein, das sage ich nicht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/9/#abschnitt_bildqualitaet

"Nun wird der Rand des Wassers extrem dunkel dargestellt und bietet keinen weichen Farbverlauf zum Strand mehr. Dieser Bug zeigt sich jedoch nicht nur auf den neuen R5x0-Chips, auch ältere Modelle von ATi sind betroffen und dies bereits seit einigen Treiberversionen. Der Fehler zeigt sich in allen Wasser-Szenen."
Der letzte Satz ist übrigens falsch, diesen Fehler gibt es nur draußen in den Kanälen.

Extra für dich: Dieser Fehler fällt nicht auf, wenn man ihn nicht kennt bzw. nicht weiß, wo hingeschaut werden muß.

http://img226.imageshack.us/img226/4898/d1canals0700023nd.th.jpg (http://img226.imageshack.us/my.php?image=d1canals0700023nd.jpg)
http://img226.imageshack.us/img226/4973/d1canals0700034mm.th.jpg (http://img226.imageshack.us/my.php?image=d1canals0700034mm.jpg)

Gandharva
2005-12-08, 22:30:48
Ist zB. winkelabhängiges AF ein Fehler? In dem Sinne, ja. Wurde es behoben? ;) Ja mag sein. Ich seh die Story mit G70 halt anders. Mal sehen nun, ob sich ATI mit der Behebung so schwer tun wird wie NV mit dem Grieseln des G70.

Ehh... Man kann auf dem G70 kein Grieseln beheben indem man im Cat AI_off einstellt. Hee? An AI_low kommt das entgrieselte HighQuality gradmal so ran. Wie es auch CB bemerkt.

Wie der G70 mit Forcewares defaults grieselt weiß mittlerweile der letzte 3D-Depp. Was willst Du nun vergleichen? Hast Du grad was von polarisiert erzählt?

was du da von dir gibst hat nichts mit dem review und auch nichts mit meinen vorigen aussagen zu tun.

Mumins
2005-12-08, 22:31:57
auf HQ flimmert nichts!

Sehr schön, nur kostet HQ oft Performance, in Quake4 z.B. 15%. Außerdem reicht HQ oft nicht aus, dann kannste noch am LOD drehen.

Mr. Lolman
2005-12-08, 22:34:21
Sehr schön, nur kostet HQ oft Performance, in Quake4 z.B. 15%. Außerdem reicht HQ oft nicht aus, dann kannste noch am LOD drehen.

In Quake4 kanns auch schon mal 40% kosten...

deekey777
2005-12-08, 22:35:09
Man kann kein AF im Shader emulieren, deshalb der Matsch.

Ganz ohne Filterung bekommst du Blöckchengrafik und Matsch.

Muß es gleich AF sein?

Gandharva
2005-12-08, 22:36:37
Sehr schön, nur kostet HQ oft Performance, in Quake4 z.B. 15%. Außerdem reicht HQ oft nicht aus, dann kannste noch am LOD drehen.4xAA/16xAF/TRAA/HQ läuft butterweich. auf ner ati wirst auch nicht mit höheren settings flüssig spielen können. und am LOD hab ich noch nie rumgefummelt, weils a) madig aussieht und b) nicht nötig ist.

In Quake4 kanns auch schon mal 40% kosten...auf einer 6800 die für ordendliche settings in Q4 eh zu langsam ist vielleicht.

Coda
2005-12-08, 22:37:15
Da ist wohl ein zu aggresiver Shadercompiler im Spiel ;)

Muß es gleich AF sein?Texturen die kein AF abbekommen sind so ziemlich die Definition von "Matsch". Es gibt wie gesagt nur noch gar keine Filterung.

Mumins
2005-12-08, 22:41:41
4xAA/16xAF/TRAA/HQ läuft butterweich. auf ner ati wirst auch nicht mit höheren settings flüssig spielen können. und am LOD hab ich noch nie rumgefummelt, weils a) madig aussieht und b) nicht nötig ist.

Ich denke schon, denn meine X800 Takt siehe Sig. ist in 1280x960 4AA+16AF nur 5 FPS langsamer als die GT mit 495/1270. Ne X1800XT ist da ab Cat. 5.11 nochmal ne Ecke schneller, übertaktet geht da bestimmt 1600x1200.

Wenn du in HL2 den LOD ins negative schiebst, dann sieht das bekannte Mauerbild wesentlich besser aus.

reunion
2005-12-08, 22:52:04
ja, und wenn du nun aber noch mit in die mischung hinzutust, das die NV4x(G7x) architektur effektiver ist als die ATI architektur... :rolleyes:


Effektivität ist das Verhältnis von erreichtem Ziel zu definiertem Ziel. Ein Architektur ist dann effektiv, wenn sie ein vorgegebenes Ziel erreicht. Dies ist im Unterschied zur Effizienz unabhängig vom zur Zielerreichung nötigen Aufwand.

Was du meinst, ist wohl effizienter. Das mag zwar je nach Sichtweise stimmen, allerdings takten die ATi-Karten dafür wesentlich höher.

Gandharva
2005-12-08, 22:52:32
die settings sollten ja auch nur als bsp. dienen. wenn ich HQ statt Q verwende muss ich nicht ne stufe mit der auflösung runter gehen um noch flüssig spielen zu können. darum gehts mir. auch auf ner ati karte würde ich die optimierungen abschalten, wenns was bringt. lt. review bringts ja auch was (fehlerbehebung) und auch dann müsste ich wohl nicht die auflösung verändern, weil der unterschied wohl ähnlich gering ausfallen würde.

Mr. Lolman
2005-12-08, 22:54:33
Du meinst "Q statt HQ", oder?

Gandharva
2005-12-08, 22:55:40
Du meinst "Q statt HQ", oder?nein

Mr. Lolman
2005-12-08, 23:05:35
Dann ergibts aber keinen Sinn. Denn wenn du HQ statt Q verwendest musst du im Zweifelsfall schon ne Auflösungsstufe runter gehen.

Ich geb dir aber recht: Computerbase sollte HL², solang der Bug nicht gefixt ist mit AIoff benchen. Und am Besten ein Sternchen machen mit Erklärung warum und wieviel fps es mit AIon sind. Fein wärs auch, wenns in kommenden Reviews für jede Karte pro Spiel min. einen hochqualitativen Screenshot gäben würde.

Gandharva
2005-12-08, 23:07:08
Dann ergibts aber keinen Sinn. Denn wenn du HQ statt Q verwendest musst du im Zweifelsfall schon ne Auflösungsstufe runter gehen.nein muss ich nicht. hast du ne gtx oder ich? ;)

Armaq
2005-12-08, 23:08:16
Meine Meinung zum Test steht ja schon bei CB.

Vll. kann mir hier einer zwei Fragen beantworten:

Warum ist AoE 3 auf X1K-Karten so langsam?
Warum sieht das HDR bei SplinterCell so bescheiden aus auf X1K?

Mr. Lolman
2005-12-08, 23:18:55
nein muss ich nicht. hast du ne gtx oder ich? ;)

Du hast ne GTX. Deswegen könntest du mal Quake4 @ Treiberdefault (Restore) vs. HQ (mit vorher deaktivierten Optimierungen) benchen. =)

eXodia
2005-12-08, 23:30:48
Mal sehen nun, ob sich ATI mit der Behebung so schwer tun wird wie NV mit dem Grieseln des G70.

Ähm, das Flimmerproblem wurde 2 Wochen nach dem Launch gefixt, und es war auch nur ein Treiberprob - man hat also schnell gehandelt

Greetz

deekey777
2005-12-08, 23:31:46
Da ist wohl ein zu aggresiver Shadercompiler im Spiel ;)

Texturen die kein AF abbekommen sind so ziemlich die Definition von "Matsch". Es gibt wie gesagt nur noch gar keine Filterung.

Du mich verwirrt machen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3561708&postcount=23

Man könnte einige Monate noch ohne AF für die FP-Texturen leben, oder?

http://www.digit-life.com/articles2/video/r520-part6.html

iXBT.com: [...] Is FP16 filtering support planned in future (R580? Or later?) Will this decision hit at HDR, actively promoted by ATI.

Guennadi Riguer: What concerns FP16 filtering in solutions to come, I cannot comment on functionality of unannounced products.

Der R580 wird wohl über keine FP-Filterung verfügen.

Die gelbe Eule
2005-12-08, 23:33:14
Gib mal bei www.geizhalz.at 7800gtx ein, klicke auf eine Karte und Du bekommst einen tollen Link. http://www.3dcenter.de/artikel/g70_flimmern/

Soviel zur Aufklärung, nix flimmert mehr. Ist schon traurig ...

Coda
2005-12-08, 23:34:30
Man könnte einige Monate noch ohne AF für die FP-Texturen leben, oder?Darum gings ja nicht. Diese Aussage ist nur falsch:

"Matschig" würde es nur aussehen, wenn man dies nicht machen würde, da diese Texturen dann überhaupt keine Filterung abbekommen würden.

deekey777
2005-12-08, 23:35:35
Darum gings ja nicht. Diese Aussage ist nur falsch:

Okäy. :)

mapel110
2005-12-08, 23:35:43
Gib mal bei www.geizhalz.at 7800gtx ein, klicke auf eine Karte und Du bekommst einen tollen Link. http://www.3dcenter.de/artikel/g70_flimmern/

Soviel zur Aufklärung, nix flimmert mehr. Ist schon traurig ...
Man könnte auch mal den Nachtrag des Artikels lesen.

Oder versteh ich dich gerade falsch?! :|

Die gelbe Eule
2005-12-08, 23:37:35
Du verstehst mich falsch. Leider wird es als schlecht verlinkt und verallgemeinert. Das der Artikel editiert worden ist, wird niemand erfahren oder wissen wollen. Leider ...

Mr. Lolman
2005-12-08, 23:38:49
Gib mal bei www.geizhalz.at 7800gtx ein, klicke auf eine Karte und Du bekommst einen tollen Link. http://www.3dcenter.de/artikel/g70_flimmern/

Soviel zur Aufklärung, nix flimmert mehr. Ist schon traurig ...

Naja, solang NV per default nicht HQ einstellt, kann der Artikel schon noch verlinkt bleiben. (Auch wenn er natürlich, wie im Nachtrag auch festgestellt wurde, nicht mehr ganz so brisant ist)

Die gelbe Eule
2005-12-08, 23:41:48
Wenn Du zu jeder Karte das verlinkst, würde jeder abgeschreckt werden. Ist wie eine Headline in der Bildzeitung. Und mit 3DC dann auch noch negativ zu werden ist mal gar nicht gut.

Ailuros
2005-12-08, 23:57:13
Naja, solang NV per default nicht HQ einstellt, kann der Artikel schon noch verlinkt bleiben. (Auch wenn er natürlich, wie im Nachtrag auch festgestellt wurde, nicht mehr ganz so brisant ist)

Dazu muessten aber beide IHVs dann die Optimierungen bei default komplett abschalten. ATI koennte sogar auf X1k HQ AF bei default einstellen.

Mr. Lolman
2005-12-09, 00:00:38
Dazu muessten aber beide IHVs dann die Optimierungen bei default komplett abschalten. ATI koennte sogar auf X1k HQ AF bei default einstellen.

Aber nur wenn man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind.

Mr. Lolman
2005-12-09, 00:02:55
Wenn Du zu jeder Karte das verlinkst, würde jeder abgeschreckt werden. Ist wie eine Headline in der Bildzeitung. Und mit 3DC dann auch noch negativ zu werden ist mal gar nicht gut.

Hm, imo wärs besser wenn man den 3DC Nachtrag in ein Vorwort ändern würde...

Die gelbe Eule
2005-12-09, 00:05:07
Man müsste nur den Link verändern, so das er ins nichts führt. Bei NV ist auf HQ alles standard off.

Mr. Lolman
2005-12-09, 00:15:12
Man müsste nur den Link verändern, so das er ins nichts führt. Bei NV ist auf HQ alles standard off.

Das ist nicht korrekt. Bei Quake3 merk ich noch definitiv, welche Optimierung bei HQ aktiv ist, sofern sie zuvor nicht zuvor deaktiviert wurde.

Die gelbe Eule
2005-12-09, 00:18:04
Wenn ich in den Treiber gehe und auf HQ schalte, wird mir alles off angezeigt. Da stellt sich geheimnisvoll nichts um ;)

Mr. Lolman
2005-12-09, 00:20:35
Wenn ich in den Treiber gehe und auf HQ schalte, wird mir alles off angezeigt. Da stellt sich geheimnisvoll nichts um ;)

Ja angezeigt. Aktiv sind sie trotzdem noch. (Ich will nicht schon wieder gifs basteln müssen :rolleyes: )

blackbox
2005-12-09, 00:28:05
- Weil der meiner Meinung gut dafür taugt. und das mit den Stromschwankungen kann ich nicht bestätigen


Wie habt ihr gemessen? Wie habt ihr den Höchstwert abgelesen? Ist euch nie in den Sinn gekommen, mal mit einem Spiel die Messung durchzuführen? Dann dann wäre euch aufgefallen, dass die Last höher ist als beim 3Dmark.

Ailuros
2005-12-09, 00:45:27
Aber nur wenn man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind.

Wuerde fuer beide IHVs gelten.

Der Unterschied in Q4 zwischen HQ und Q ist uebrigens jeweils 24 und 13% je nach timedemo.

Ja angezeigt. Aktiv sind sie trotzdem noch. (Ich will nicht schon wieder gifs basteln müssen )

Wenn ich HQ beantrage bekomme ich auch HQ und das schon seit mehreren Treiber-Revisionen. Das einzige dass ich als "bug" verdaechtigen koennte ist dass die Treiber ein merkwuerdiges "Gedaechtnis" haben. Stell ich in "quality" nur die trilineare Optimierung z.B. ein (alle anderen aus) aendere spaeter auf "high quality" und dann wieder zurueck auf "quality" bekomme ich nicht "default quality" sondern das was ich selber vorher als "quality" eingesetzt habe.

StefanV
2005-12-09, 00:55:34
hm, warum führt ATI nicht einen 'Imagesettings-Wizzard' ein X-D

Wäre 'ne Idee, auch für die ganzen Benchers, denn so könnte man ganz offen, ohne Reue 'bescheißen', wenn man von der Dummheit der User ausgeht :devil:

Gedanke: Profil: Benchmarkin X_D

Die gelbe Eule
2005-12-09, 01:00:14
Es sind noch einige sehr akute Fragen offen, bin gespannt ob die 6600GT/X1600XT Vergleichsfrage noch geklärt wird.

Mr. Lolman
2005-12-09, 01:29:39
Wuerde fuer beide IHVs gelten.

Mit dem Unterschied, dass AIoff bei kaum schlechterer BQ tw deutlich langsamer ist...

Der Unterschied in Q4 zwischen HQ und Q ist uebrigens jeweils 24 und 13% je nach timedemo.

Irgendwo im Benchmarkforum fand ich Werte einer 7800GT wos mehr als 24% waren. AFAIK @ 1280x1024 (HQ)...


Wenn ich HQ beantrage bekomme ich auch HQ und das schon seit mehreren Treiber-Revisionen. Das einzige dass ich als "bug" verdaechtigen koennte ist dass die Treiber ein merkwuerdiges "Gedaechtnis" haben. Stell ich in "quality" nur die trilineare Optimierung z.B. ein (alle anderen aus) aendere spaeter auf "high quality" und dann wieder zurueck auf "quality" bekomme ich nicht "default quality" sondern das was ich selber vorher als "quality" eingesetzt habe.

Ich nicht. Und mir fiels wiedermal bei einer Q3a-Netzwerksession auf. Da war vorher alles @ Treiberdefault und ich hab nur den Regler @ HQ sowie 4xAA/16xAF eingestellt und durfte mich über schönes Mipmapbanding freuen...

tombman
2005-12-09, 01:52:49
Dafür is die Performance der X1800XT in F.E.A.R. so hoch, dass da auch keine 512MB GTX hinkommt.

:rolleyes:

http://www.xbitlabs.com/images/video/geforce7800gtx512/7800%20512%20Games%20performance%20GIF/fear_candy.gif

Check mal die min fps ;)

Ailuros
2005-12-09, 06:04:02
Mit dem Unterschied, dass AIoff bei kaum schlechterer BQ tw deutlich langsamer ist...

Das ist ATI's Problem und nicht der Konkurrenz. Ich weiss Du wuerdest Ihnen gern den Vorteil goennen, aber es ist eben entweder/oder wenn es zu Optimierungen kommt.


Irgendwo im Benchmarkforum fand ich Werte einer 7800GT wos mehr als 24% waren. AFAIK @ 1280x1024 (HQ)...

Und? Es geht in Q4 sowieso viel zu merkwuerdiges vor dass ich schwer zu Schlussfolgerungen mit dem Ding kommen kann. Erstens keine Player-shadows und zweitens zeigt mir Video Memory Watcher an dass kein einziger Schnipsel an System Speicher vom Spiel benutzt wird weder in high noch in ultra quality. Ich hab mit Absicht zwei timedemos benutzt, eines der beiden wird hier auch im Benchmark-Forum benutzt.

Ich nicht. Und mir fiels wiedermal bei einer Q3a-Netzwerksession auf. Da war vorher alles @ Treiberdefault und ich hab nur den Regler @ HQ sowie 4xAA/16xAF eingestellt und durfte mich über schönes Mipmapbanding freuen...

Dein System bzw. Treiber hat dann eben mehr Personalitaet als Du Dir erhoffen koenntest. Probier im Notfall eben Rivatuner und stell dort ein was Du willst.

Mumins
2005-12-09, 07:10:48
:rolleyes:

http://www.xbitlabs.com/images/video/geforce7800gtx512/7800%20512%20Games%20performance%20GIF/fear_candy.gif

Check mal die min fps ;)

Und jetzt? Da wurde der erste Treiber benutzt und es wird nur auf Q getestet. Gut bei F.E.A.R. kostet HQ nur 1-2FPs, aber immerhin. Die X1800XT ist nun fast doppelt so schnell.

seahawk
2005-12-09, 07:34:16
das heftigst nimmst du aus deinem satz, dann passt es....

Stimmt übeslt trifft es besser. Alles außer HQ ist bei NV gegenwärtig völlig nutzlos.

seahawk
2005-12-09, 07:37:04
warum so still? dir als bildqualitätsfetischist müssten doch die grafikfehler der ati karten ein speer... ähm dorn im auge sein.

Das sind einzelne Bugs, in einzelnen Spielen. Das Flimmern, das schlechte AF und die lächerliche LOD Berechnung bei NV kann man hingegen in jedem Spiel bewundern.

Ailuros
2005-12-09, 10:00:19
Das sind einzelne Bugs, in einzelnen Spielen. Das Flimmern, das schlechte AF und die lächerliche LOD Berechnung bei NV kann man hingegen in jedem Spiel bewundern.

Das mit der LOD Berechnung will ich jetzt aber mal erklaert bekommen.

Was den Rest betrifft ich hab nicht etliche hunderte von Euros auf den Ladentisch geblaettert um in 1024 ohne AA und mit endlos optimiertem AF zu spielen. Ganz im Gegenteil hol ich mir den Leistungsverlust von high quality mit normaler Uebertaktung wieder rein. Haette ich mich heute nach einer high end GPU umgesehen waere natuerlich R520 - und das hauptsaechlich fuer HQ AF - eher in Frage gekommen aber dies war leider Mitte Sommer 2005 keine Option.

Unterfilterung und total flimmerfreies AF hat keine Bevorzugungen. Es kann natuerlich sein dass jeglicher Radeon Benutzer keinen Schimmer von Flimmern in Spielen wie BF2 oder WoW als Beispiele sehen will oder kann aber es ist trotz allem da. Man schaltet eben dann die Optimierungen ab und aus damit.

Wie ich schon auf B3D sagte:

1. Es wird endlich Zeit dass grosse Webseiten ohne jegliche Filterungs-Optimierungen benchen.

2. Wenn eine Applikation trilinear beantragt sollte sie auch trilinear bekommen und da gibt es keine besonderen "aber" fuer mich.

Der Rest ist nur politischer Quark der sich nach den Bevorzugungen des jeden richtet. Am schlimmsten sind diejenigen die angeblich ein Auge fuer hoehere Bildqualitaet haben und dann doch im geheimen mit Optimierungen spielen.

seahawk
2005-12-09, 10:04:27
Mit der LOD Berechnung meine ich z.B. GT:L. Mit Clamp ist es verwaschen, ohne flimmert es unspielbar. Beide Lösungen sind nahetzu unzumutbar und stören erheblich.

kalle28
2005-12-09, 10:36:54
:rolleyes:
Check mal die min fps ;)


Und nu?

Ich frag mich warum du ein Pic aus einem alten Review postest, obwohl es sich in diesem Thread ja wohl eindeutig und explizit um ein Review mit halbwegs aktuellen Treibern handelt.

PS: Kann es sein daß in FEAR eine einzelne ATI XT inzwischen so manches GTX SLI System abzieht?

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/11/#abschnitt_performance_part_2

http://img222.imageshack.us/img222/7497/fear5av.jpg

Mr. Lolman
2005-12-09, 12:02:36
Das ist ATI's Problem und nicht der Konkurrenz. Ich weiss Du wuerdest Ihnen gern den Vorteil goennen, aber es ist eben entweder/oder wenn es zu Optimierungen kommt.

Nö. ATi behauptet, wie NV, dass mit AIoff (bzw HQ) keine Optimierungen mehr aktiv sind. Schaltet man bei NV auf HQ werden die fps zwar weniger, dafür das Bild auch sichtbar besser.

Jetzt könnte man meinen, es wäre unfair gegen AIon zu benchen, allerdings trifft das nur zu, wenn NV HQ auch wirklich ohne AF Optimierungen laufen würden. Gerade die vergangene Flimmergeschichte beweist, dass sehr wohl auch unter HQ Optimerungen aktiv sind.

Jetzt könnte man für die ausgleichende Gerechtigkeit, natürlich AI deaktivieren, aber man bekommt bei ATi dadurch keinen verwertrbaren BQ-Vorteil sondern büßt nur fps ein. D.H. Nur weil auf NV Karten flimmerfeies AF leistung kostet muss Ati dafür büssen?


Dein System bzw. Treiber hat dann eben mehr Personalitaet als Du Dir erhoffen koenntest. Probier im Notfall eben Rivatuner und stell dort ein was Du willst.

Ich verwende (so wie wohl die meisten Spieler/Tester/Redakteure) das NV Control Panel. Und das macht definitiv solche Faxen. Falls man/du das nicht akzeptier(s)t mach ich einen neuen Thread auf, der genau das Probnlem behandelt.

Ailuros
2005-12-09, 16:22:04
Nö. ATi behauptet, wie NV, dass mit AIoff (bzw HQ) keine Optimierungen mehr aktiv sind. Schaltet man bei NV auf HQ werden die fps zwar weniger, dafür das Bild auch sichtbar besser.

Jetzt könnte man meinen, es wäre unfair gegen AIon zu benchen, allerdings trifft das nur zu, wenn NV HQ auch wirklich ohne AF Optimierungen laufen würden. Gerade die vergangene Flimmergeschichte beweist, dass sehr wohl auch unter HQ Optimerungen aktiv sind.

Bis zu 78.03; wie lange ist es schon her dass der beta Treiber veroeffentlicht wurde und in welchen offiziellen oder nicht offiziellen Treibern seither trat das Problem wieder auf?

Es wird wohl nicht zu schwer zu verstehen sein dass wenn Reviewer von jetzt ab die Augen auf Nebeneffekte offen halten wuerden und nur ohne Optimierungen GPUs testen wuerden dass beide IHVs auch vielleicht etwas an ihren Treiber-settings aendern wuerden.



Jetzt könnte man für die ausgleichende Gerechtigkeit, natürlich AI deaktivieren, aber man bekommt bei ATi dadurch keinen verwertrbaren BQ-Vorteil sondern büßt nur fps ein. D.H. Nur weil auf NV Karten flimmerfeies AF leistung kostet muss Ati dafür büssen?


Wenn ATI zu bloed ist und jeglichen Mist in AI reinschmiert dann sollen sie es auch selber loesen. Nochmal und diesmal fettgedruckt wenn eine Applikation trilinear verlangt sollte sie auch trilinear bekommen und das bitte schoen auf ALLEN texturing stages. ATI hat die groessere Winkelabhaengigkeit in den PC Markt eingefuert und jetzt kommen sie wieder mit weniger Winkelabhaengigkeit an. Da sie genauso schon seit R100 AF bis zum geht nicht mehr optimieren, koennen sie jetzt auch ihr HQ AF einstellen und dafuer sorgen dass mit der hoeheren IQ auch fett geworben wird.

Buessen? Ich dachte DU gerade willst generell hoehere Qualitaet, oder handelt es sich hier nur was ATI gerade zu jedem bestimmten Zeitpunkt am besten passt? Entweder man strebt fuer hoehere Qualitaet an oder nicht; was genau soll es denn jetzt sein?

Uebrigens jegliche Form von Unterfilterung bringt Neben-effekte, ausser Du bist eben nur wahlweise blind. Nur im HQ AF/X1k oder auf sonstlichen Radeons mit Optimierungen ausgeschaltet, gibt es volles trilinear auf allen texturing stages. Alles darunter ist anfaellig auf Nebeneffekte und die fehlen auf Radeons eben NICHT in Spielen mit aeusserst aggressivem negativem LOD bias.

Ich verwende (so wie wohl die meisten Spieler/Tester/Redakteure) das NV Control Panel. Und das macht definitiv solche Faxen. Falls man/du das nicht akzeptier(s)t mach ich einen neuen Thread auf, der genau das Probnlem behandelt.

Es macht bei mir die "Faxen" so wie ich sie beschrieben habe. Mir ist egal wieviel Threads Du darueber aufmachst ich bekomm meine settings auf Anhieb durch den CP hin. Wenn ich auf "high quality" wechsle bekomm ich "high quality" und wenn ich "quality" beantrage bekomme ich das was ich zum letzen Mal selber fuer "quality" eingestellt hatte. Keine Ahnung ob sich der Treiber je nach GPU anders verhaelt oder was hier faul sein koennte, aber ich hab heute gerade nochmal vorsichtig nachgeschaut ob alles so ist wie es sein sollte.

Wenn ich dreimal hintereinander auf "high quality" wechsle und Quake4 gibt mir das gleiche genau Resultat alle dreimal und es ist auch das was ich schon oefters bekommen habe, dann ist es auch ein high quality Resultat. Quake4 war Bestandteil meines letzten Artikels und es wurde so ausfuehrlich wie moeglich untersucht bevor ich erstmal etwas auf Papier legte.

Mal ganz so nebenbei falls es bei Dir nur in Q3a auftreten sollte untersuch mal das spezifische Spielprofil und setz dort "high quality" ein.

Spasstiger
2005-12-09, 16:27:03
PS: Kann es sein daß in FEAR eine einzelne ATI XT inzwischen so manches GTX SLI System abzieht?

Denke ich nicht. Insbesondere die minimalen fps dürften bei GTX SLI deutlich höher liegen.

Ailuros
2005-12-09, 16:28:50
Und nu?

Ich frag mich warum du ein Pic aus einem alten Review postest, obwohl es sich in diesem Thread ja wohl eindeutig und explizit um ein Review mit halbwegs aktuellen Treibern handelt.

PS: Kann es sein daß in FEAR eine einzelne ATI XT inzwischen so manches GTX SLI System abzieht?

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/11/#abschnitt_performance_part_2

http://img222.imageshack.us/img222/7497/fear5av.jpg

Kann es auch sein dass der Reviewer vielleicht doch nicht versucht hat fear.exe umzubenennen? LOL :biggrin:

sklave_gottes
2005-12-09, 17:05:09
@Ailuros

ich finde es richtig gleiche qualität mit gleicher qualität zu vergleichen.Zur zeit ist es meiner meinung nach ATI standart mit nvidia HQ!
Es bringt doch nichts, nur anhand der besten einstellung zu testen........
Dann hat der hersteller die schlechteren karten der insgesamt die beste qualität auf kosten der peformants bringt.(Im jetzigen fall ati mit HQ-AF)

Pirx
2005-12-09, 17:12:30
Sind denn bei nVidia-HQ noch "Optimierungen" aktiv?

@Ailuros
"schmiert" nV eigentlich auch in seinen Treibern rum?

DrumDub
2005-12-09, 17:34:27
Sind denn bei nVidia-HQ noch "Optimierungen" aktiv? die frage ist falsch gestellt. sie müsste lauten: sind bei nv-hq noch af-optimierungen aktiv?

denn shader-replacements und sonstige applikatiosnspezifische optimierungen sind bei nv ganz sicher noch aktiv.

(del)
2005-12-09, 17:37:58
was du da von dir gibst hat nichts mit dem review und auch nichts mit meinen vorigen aussagen zu tun.
Ja. Ist gut dann :rolleyes:

MechWOLLIer
2005-12-09, 17:46:49
Ich geb dir aber recht: Computerbase sollte HL², solang der Bug nicht gefixt ist mit AIoff benchen. Und am Besten ein Sternchen machen mit Erklärung warum und wieviel fps es mit AIon sind. Fein wärs auch, wenns in kommenden Reviews für jede Karte pro Spiel min. einen hochqualitativen Screenshot gäben würde.
Letzteres ist eine gute Idee und werde ich auch sobald ich es schaffe in den nächsten Artikel einbauen;)
Mit ersterem bin ich dagegen noch nicht so 100 Prozent zufrieden, aber da ist noch alles offen.
Warum ist AoE 3 auf X1K-Karten so langsam?
Das Problem liegt an den Schatten. Wenn man diese ausschaltet oder auf Low (bin mir da nicht mehr so ganz sicher), dann flutscht es auch wunderbar auf einer ATi-Karte.

Wie habt ihr gemessen? Wie habt ihr den Höchstwert abgelesen? Ist euch nie in den Sinn gekommen, mal mit einem Spiel die Messung durchzuführen? Dann dann wäre euch aufgefallen, dass die Last höher ist als beim 3Dmark.
Ja, es war der Höchstwert. Und das mit dem Spiel werde ich heute oder morgen kontrollieren.

(del)
2005-12-09, 17:49:49
Wenn Du zu jeder Karte das verlinkst, würde jeder abgeschreckt werden. Ist wie eine Headline in der Bildzeitung. Und mit 3DC dann auch noch negativ zu werden ist mal gar nicht gut.
Ah? Wir kriegen keine Muster mehr oder so von NV? :D Ne der Artikel ist richtig. Denn wenn man den Treiber installiert und nicht auf HQ umstellt, also nicht 'nachkonfiguriert', flimmert es wie Sau. Hase, es wäre höchste Zeit, daß Du Dir endlich einen G70 gönnst...

reunion
2005-12-09, 17:53:04
Das finde ich lustig. Was hat dann ATi gemacht? Ibiza Showparty und dann war Totenstille. War schon eine Art When it's done ...

Das eine hat mit dem anderen absolut nichts zu tun.
ATi war damals stark unter Druck, und musste deshalb möglichst früh vorstellen, um nV nicht gänzlich die Bühne zu überlassen. Heute sind sämtliche Karten der X1K-Serie, inklusive der X1800XT 512 (http://www.geizhals.at/eu/?fs=X1800+XT+512&in=), massenweise lieferbar.

nV konnte sich hingegen Zeit lassen mit ihrer GTX 512, wodurch man schon einige der offensichtlich äußerst raren GTX-512-Chips aussortieren konnte, und zum Launch lieferte. Heute ist laut Geizhals (http://www.geizhals.at/eu/?fs=7800+GTX+512&in=) allerdings keine einzige(!) GTX 512 lieferbar, und das, obwohl man für die Karte gut 700€ hinblättern muss - momentan eine reine Presse-Edition.

(del)
2005-12-09, 17:54:50
Ja angezeigt. Aktiv sind sie trotzdem noch. (Ich will nicht schon wieder gifs basteln müssen :rolleyes: )
Ich würde die mal gut abspeichern. Es gibt Leute mit einem selektiven Erinnerungsvermögen.

seahawk
2005-12-09, 18:06:56
Bis zu 78.03; s darunter ist anfaellig auf Nebeneffekte und die fehlen auf Radeons eben NICHT in Spielen mit aeusserst aggressivem negativem LOD bias.
.
.
.
.

Mal ganz so nebenbei falls es bei Dir nur in Q3a auftreten sollte untersuch mal das spezifische Spielprofil und setz dort "high quality" ein.


Nene, so kannst Du das nicht sehen. Mit AIoff stellt man auch Shaderoptimierungen und Bugfixes ab, die bei NV HQ noch aktiv sind, ATI würde dann für einene nur minimalen nAchteil in der BQ (bei AIon gegenüber HQ bei NV) überproportional bestraft. Der Vergleich von AIon mit HQ ist zum gegenwärtigen Zeitpunkt die einzig annehmbare Einstellung.

(del)
2005-12-09, 18:07:12
die frage ist falsch gestellt. sie müsste lauten: sind bei nv-hq noch af-optimierungen aktiv?

denn shader-replacements und sonstige applikatiosnspezifische optimierungen sind bei nv ganz sicher noch aktiv.
Genau das ist das "Prob". Ich frag mich wieviele Posts für Ailuros noch verfasst werden müßen bis er das peilt :| AI_off ist nicht NV_HQ und daher vergleicht das CB so nicht. Warum steht hier ijn zig Threads beschrieben. Warum ist das immer wieder ein Thema? Ist selektives Erinnerungsvermögen ansteckend? Auf welchem Wege?? :rolleyes:

mapel110
2005-12-09, 18:09:32
Das eine hat mit dem anderen absolut nichts zu tun.
ATi war damals stark unter Druck, und musste deshalb möglichst früh vorstellen, um nV nicht gänzlich die Bühne zu überlassen. Heute sind sämtliche Karten der X1K-Serie, inklusive der X1800XT 512 (http://www.geizhals.at/eu/?fs=X1800+XT+512&in=), massenweise lieferbar.

nV konnte sich hingegen Zeit lassen mit ihrer GTX 512, wodurch man schon einige der offensichtlich äußerst raren GTX-512-Chips aussortieren konnte, und zum Launch lieferte. Heute ist laut Geizhals (http://www.geizhals.at/eu/?fs=7800+GTX+512&in=) allerdings keine einzige(!) GTX 512 lieferbar, und das obwohl man für die Karte gut 700€ hinblättern muss - momentan eine reine Presse-Edition.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3762983&postcount=76
Da gibts nochmal 59 Stück. :)

reunion
2005-12-09, 18:13:01
Die 6600GT ist weitaus günstiger als die X1600XT[...]

Nur mit 128MB VRAM. Mit 256MB wie bei der X1600XT, nehmen sich die beiden Karten nichts.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3762983&postcount=76
Da gibts nochmal 59 Stück. :)


Lieferung erfolgt zum 14.12.2005.

(alle Angaben laut Distributor)


Von Lieferbarkeit kann also keine Rede sein.

Black-Scorpion
2005-12-09, 18:24:09
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3762983&postcount=76
Da gibts nochmal 59 Stück. :)
Hast du dir den Ebay Link auch angesehen?
Der verkauft Karten die er noch nicht hat (ab 14.12). ;)
Gainward ist bestimmt auch ein Thema für sich wenn man sich den Thread im nVidia Forum ansieht.
Der Preis ist auch eher zu abgewöhnen (697,- Euro + Porto).

mapel110
2005-12-09, 18:29:35
Hast du dir den Ebay Link auch angesehen?
Der verkauft Karten die er noch nicht hat (ab 14.12). ;)
Gainward ist bestimmt auch ein Thema für sich wenn man sich den Thread im nVidia Forum ansieht.
Der Preis ist auch eher zu abgewöhnen (697,- Euro + Porto).
Die meisten, die 700 € für die Karte ausgeben, kaufen eh gleich 2.

Und wenn jemand immerhin einen Liefertermin zusichert, find ich es okay. Hab meine XFX auch im Vorraus bestellt.

Mr. Lolman
2005-12-09, 18:33:36
Bis zu 78.03; wie lange ist es schon her dass der beta Treiber veroeffentlicht wurde und in welchen offiziellen oder nicht offiziellen Treibern seither trat das Problem wieder auf?Beim 78.05. Aber darum gehts mir garnicht.


Es wird wohl nicht zu schwer zu verstehen sein dass wenn Reviewer von jetzt ab die Augen auf Nebeneffekte offen halten wuerden und nur ohne Optimierungen GPUs testen wuerden dass beide IHVs auch vielleicht etwas an ihren Treiber-settings aendern wuerden.Jo hoffentlich.


Wenn ATI zu bloed ist und jeglichen Mist in AI reinschmiert dann sollen sie es auch selber loesen. Nochmal und diesmal fettgedruckt wenn eine Applikation trilinear verlangt sollte sie auch trilinear bekommen und das bitte schoen auf ALLEN texturing stagesDas kannst du NV genauso erzählen. Unterschied: NV flimmert @ default, Ati nicht.


Buessen? Ich dachte DU gerade willst generell hoehere Qualitaet, oder handelt es sich hier nur was ATI gerade zu jedem bestimmten Zeitpunkt am besten passt? Entweder man strebt fuer hoehere Qualitaet an oder nicht; was genau soll es denn jetzt sein? Ich will primär vergleichbare BQ. NV filtert zumindest bei der Unreal Engine die TS>0 immer nur brilinear ,auch @ HQ.


Uebrigens jegliche Form von Unterfilterung bringt Neben-effekte, ausser Du bist eben nur wahlweise blind. Nur im HQ AF/X1k oder auf sonstlichen Radeons mit Optimierungen ausgeschaltet, gibt es volles trilinear auf allen texturing stages. Alles darunter ist anfaellig auf Nebeneffekte und die fehlen auf Radeons eben NICHT in Spielen mit aeusserst aggressivem negativem LOD bias.Ja theroretisch. Theoretisch ist NVs AF dem von Ati auch bei Weitem überlegen. Lies dir ruhig aths alte Artikel durch. Allerdings müsstest du auch wissen, dass biAF theoretisch völlig homogen dargestellt werden könnte, egal wie scharf die Texturen sind. Man könnte nämlich anstatt zw, den Mips zu interpolieren einfach bis zu jew 4 Samples der größeren Mip nehmen. Bei LOD-1 nimmt man einfach die nächste Mip. Diverse biAF/nomipAF Screenshots zeigen auch dass ATi im Ggs zu NV viel unanfälliger ggü negativem LOD/fehlenden Mips ist. Dementsprechend ists imo auch gut möglich, dass ein brilinearer Filter bei Ati gleichgut, oder gar besser aussieht, als ein trilinearer bei NV.


Es macht bei mir die "Faxen" so wie ich sie beschrieben habe. Mir ist egal wieviel Threads Du darueber aufmachst ich bekomm meine settings auf Anhieb durch den CP hin. Wenn ich auf "high quality" wechsle bekomm ich "high quality" und wenn ich "quality" beantrage bekomme ich das was ich zum letzen Mal selber fuer "quality" eingestellt hatte. Keine Ahnung ob sich der Treiber je nach GPU anders verhaelt oder was hier faul sein koennte, aber ich hab heute gerade nochmal vorsichtig nachgeschaut ob alles so ist wie es sein sollte. Die Faxen gibts bei anscheinend jedem OpenGL Spiel. Probiers aus, 81.95, NV Controlpanel:

x) Klick @ Restore
x) 4xAA/8xAF einstellen
x) Systemleistungsregler @ High Quality ziehen

Dann Quake3, Serious Sam2, oder Doom³ starten und sich über Mipmapbanding freuen. Ich hätt ja auch Screenshots mit XMas filtertest-App gebastelt nur hängt sich das Teil bei mir neuerdings auf :|: http://www.3dcenter.org/downloads/texture-filter-testapp.php

Tux
2005-12-09, 22:18:24
Tach es heist ja die Treiber sein noch nicht ausgereift und man Könnte mit nereren Treiber (in zukunft) eine Leistungs steigerung erwarten ^^ noch ein + der ATI Crossfire mode soll auch besser als Nv. SLI Mode sein ^^

MfG Tux :smile:

reunion
2005-12-09, 22:19:11
Hier (http://www.xbitlabs.com/articles/video/display/games-2005.html) ein Test bei xbitlabs, ebenfalls mit neuersten Treibern.

Die X1800XT kann (außer in AoE3) in hohen Auflösungen plus AA/AF sogar mit der GTX 512 sehr gut mithalten, und das trotz "Quality"-Einstellung im nV-Treiber.

Gandharva
2005-12-09, 22:36:59
http://www.xbitlabs.com/images/video/games-2005/conclusion/premium_candy.gifhttp://home.arcor.de/herbertschindler/pics/high-end_candy.png

mapel110
2005-12-09, 22:41:54
Hier (http://www.xbitlabs.com/articles/video/display/games-2005.html) ein Test bei xbitlabs, ebenfalls mit neuersten Treibern.

Die X1800XT kann (außer in AoE3) in hohen Auflösungen plus AA/AF sogar mit der GTX 512 sehr gut mithalten, und das trotz "Quality"-Einstellung im nV-Treiber.

Mipmap Detail Level: Quality <-- da gibts aber doch noch High Quality bei ATI?!

Ailuros
2005-12-10, 07:55:41
Das kannst du NV genauso erzählen. Unterschied: NV flimmert @ default, Ati nicht.

Bei Applikationen mit intesiven negativen LOD Werten flimmert es auf ATI auch.

Ich will primär vergleichbare BQ. NV filtert zumindest bei der Unreal Engine die TS>0 immer nur brilinear ,auch @ HQ.

Volles trilinear auf allen texturing stages fuer beide IHVs ist primaer vergleichbare IQ.

Ja theroretisch. Theoretisch ist NVs AF dem von Ati auch bei Weitem überlegen. Lies dir ruhig aths alte Artikel durch. Allerdings müsstest du auch wissen, dass biAF theoretisch völlig homogen dargestellt werden könnte, egal wie scharf die Texturen sind. Man könnte nämlich anstatt zw, den Mips zu interpolieren einfach bis zu jew 4 Samples der größeren Mip nehmen. Bei LOD-1 nimmt man einfach die nächste Mip. Diverse biAF/nomipAF Screenshots zeigen auch dass ATi im Ggs zu NV viel unanfälliger ggü negativem LOD/fehlenden Mips ist. Dementsprechend ists imo auch gut möglich, dass ein brilinearer Filter bei Ati gleichgut, oder gar besser aussieht, als ein trilinearer bei NV.

Das dumme ist dass es in Echtzeit eben nicht so ist. Schnapp Dir doch einfach ne Radeon und spiel mit Optimierungen eingeschaltet Spiele wie BF2, WoW oder was auch immer.

Den Frevel dass ATI's biAF besser aussieht als NV's triAF schenk ich Dir; biAF ist erstmal auf MIPmap banding ziemlich anfaellig.

Die Faxen gibts bei anscheinend jedem OpenGL Spiel. Probiers aus, 81.95, NV Controlpanel:

x) Klick @ Restore
x) 4xAA/8xAF einstellen
x) Systemleistungsregler @ High Quality ziehen

Dann Quake3, Serious Sam2, oder Doom³ starten und sich über Mipmapbanding freuen. Ich hätt ja auch Screenshots mit XMas filtertest-App gebastelt nur hängt sich das Teil bei mir neuerdings auf :|: http://www.3dcenter.org/downloads/texture-filter-testapp.php

LOL suchst Du jetzt nach Entschuldigungen dass ich keine 40% Verlust in Q4 finden konnte oder was? Ich halte Dich fuer erfahren genug dass Du Deine Treiber auch korrekt installiert hast, ergo bleibt fuer mich nur die Erklaerung dass sich vielleicht der Treiber bei verschiedenen GPUs auch anders verhaelt.

Der exakt gleiche Treiber als ich die G70 vor Monaten installierte zeigte nicht die gleichen bugs vor die ich auf der 6800 bemerkte. Beispiele waren dass Chronicles of Riddick auf NV40 sich irgendwie mit den OGL Versionen verwirrte oder dass NFS U2 nach Aenderungen im Spiel das System zum haengen brachte.

Nur ein click auf high quality und hier hast Du Deinen Screenshot vom Filtering Tester und da sogar bei texturing stage "3".

http://users.otenet.gr/~ailuros/filter.jpg

Ich sagte mit Absicht dass Du Rivatuner 15.8 ausprobieren solltest, weil Unwinder eine "override Intellisample" blah blah Option hat, die er vielleicht genau fuer problematische Faelle wie bei Dir dienen koennte. Ich bestehe aber darauf das es so bei mir ist wie ich es beschreibe und ich hab auch nicht den geringsten Grund zu luegen.

***edit: dem Anstand und der Ehrlichkeit zuliebe werde ich das obrige so stehenlassen wie es ist und mich entschuldigen dass ich die von Dir angegebene Sequenz nicht genauso verfolgt habe wie angegeben. Verfolgt man diese, hast Du tatsaechlich recht und es fuehrt zu NUR bilinearem AF auf allen stages. Temporaere Loesung: tatsaechlich Rivatuner wo man den Optimierungs-Mist wieder abstellen kann.

Ich hab mich wohl auf das vorerwaehnte "Gedaechtnis" des Treibers bis jetzt verlassen; d.h. aber keinesfalls dass die angegebenen oder getesten Resultate nicht korrekt waren.

Ailuros
2005-12-10, 08:01:16
Mipmap Detail Level: Quality <-- da gibts aber doch noch High Quality bei ATI?!

Echt? Hab ich gar nicht bemerkt im Review. Na auf "quality" hatte ich stets meine Radeons in der Vergangenheit. Kann jemand bestaetigen ob dieses immer noch +0.5 entspricht?

Und bevor es jemand sagt der Gewinn/Verlust an Leistung ist hier nicht der Rede Wert, dass es aber jegliches Flimmern minimalisiert ist hier der wichtigere Punkt ***edit: was aber im Gegenteil bei den im ForceWare benutzten Optimierungen nicht der Fall ist; man koennte aber hier auch den MIPmap LOD auf den genau gleichen positiven LOD Wert der ATI's "quality" MIPmap LOD entspricht einsetzen.

MechWOLLIer
2005-12-10, 10:18:07
Ja, es war der Höchstwert. Und das mit dem Spiel werde ich heute oder morgen kontrollieren.
So, erledigt und ich kann NICHT bestätigen, dass der 3DMark05 einen zu niedrigen Stromverbrauch erzielt.
Mark05: 239,5W
Fear: 238,1W
Quake4: 242,3

Das Quake4 nun etwas mehr Strom braucht, ist jswohl nicht der Rede wert.

blackbox
2005-12-10, 11:14:27
So, erledigt und ich kann NICHT bestätigen, dass der 3DMark05 einen zu niedrigen Stromverbrauch erzielt.
Mark05: 239,5W
Fear: 238,1W
Quake4: 242,3

Das Quake4 nun etwas mehr Strom braucht, ist jswohl nicht der Rede wert.

Naja, ich weiß nicht, aber meine Messungen bei Splinter Cell CT ergaben konstante Werte, die bei Last recht einheitlich (hoch) waren. Beim 3DMark waren große Schwankungen dabei, der erzielte Höchstwert war zudem immer niedriger. Zudem ist doch bekannt, dass die CPU beim 3Dmark nicht entscheidend ist für das Ergebnis, daraus kann man schließen, dass die CPU daher auch nicht besonders belastet wird, also der Energieverbrauch niedriger ist.
Aber vielleicht hängt das alles vom verwendetem Strommessgerät, der eingesetzten Software und vom Netzteil ab, so dass die Messungen (Ergebnisse) nicht übertragbar sind.

aths
2005-12-10, 11:14:44
Allerdings müsstest du auch wissen, dass biAF theoretisch völlig homogen dargestellt werden könnte, egal wie scharf die Texturen sind. Man könnte nämlich anstatt zw, den Mips zu interpolieren einfach bis zu jew 4 Samples der größeren Mip nehmen.Das würde in sehr starker Unschärfe resultieren – und das Banding verschieben, nicht unsichtbar machen. In WoW habe ich bei bi-AF auf einer Radeon Mobility je nach Bodentextur ziemlich auffälliges Banding.

reunion
2005-12-10, 11:15:26
http://www.xbitlabs.com/images/video/games-2005/conclusion/premium_candy.gifhttp://home.arcor.de/herbertschindler/pics/high-end_candy.png

In 1600x1200 würde die Grafik deutlich besser aussehen für die X1800er-Karten.

Gandharva
2005-12-10, 12:14:15
In 1600x1200 würde die Grafik deutlich besser aussehen für die X1800er-Karten.

in 4xAA + 16xAF 1600x1200 wären die meisten der getesteten spiele, vor allem im high-end sektor, unspielbar (<30fps). zudem ist 1280x1024 wohl für den großteil der spieler die wichtigste auflösung.

(del)
2005-12-10, 12:45:47
Könntet ihr bitte aufhören irgendwelche 'Tabellenbildchen' ohne Quellen zu posten? Sauber erstellt ist es, aber das kann meine Freundin (berufsbedingt) 10x besser. Nur von Grafikkarten hat sie keine Ahnung.

@Striper. Ich finde Deine Grafikkarte ist wirklich die tollste auf der ganzen Welt :ulove4:

Gandharva
2005-12-10, 12:50:03
Könntet ihr bitte aufhören irgendwelche 'Tabellenbildchen' ohne Quellen zu posten?erst dieser post:
Hier (http://www.xbitlabs.com/articles/video/display/games-2005.html) ein Test bei xbitlabs, ebenfalls mit neuersten Treibern.dann gleich danach 2 tabellen. na wo werden die wohl her sein?@Striper. Ich finde Deine Grafikkarte ist wirklich die tollste auf der ganzen Welt :uugly::uclap: ich hab dich auch lieb!

(del)
2005-12-10, 13:16:54
dann gleich danach 2 tabellen. na wo werden die wohl her sein?
Aus dem Ärmel? Woher auch immer. Ich jedenfalls will dafür nicht jedesmal "recherchieren" müßen. Steht kein Link bei, wird es überflogen. Gehört XBit noch zu den Seiten die NV mit Quality testen?
:uclap: ich hab dich auch lieb!
Nein, mein ich ernst. So ein perfektes Stück Hardware! :umassa:

Mr. Lolman
2005-12-10, 13:21:56
Das würde in sehr starker Unschärfe resultieren – und das Banding verschieben, nicht unsichtbar machen. In WoW habe ich bei bi-AF auf einer Radeon Mobility je nach Bodentextur ziemlich auffälliges Banding.

Wieso würde das in Unschärfe resultieren? Und ich behaupte nicht, dass ATi das auch so macht. Bei ihnen ist das BiBand wie du bereits sagst, je nach App. auch ziemlich auffällig. Nur wirkt die Schärfeverteilung etwas homogener als bei NV weswegen man bei NV eher merkt, dass bilinear gefiltert wird.

Und ich geh jetzt weiter und behaupte, dass durch diesen Umstand ATi auch nicht so eine feine trilineare Interpolation benötigt wie NV.

Winter[Raven]
2005-12-10, 13:29:45
Jetzt geht die Diskussion mit LOLMAN auch hier los ... wie oft willst du es den noch durchkauen?

Mr. Lolman
2005-12-10, 13:34:33
']Jetzt geht die Diskussion mit LOLMAN auch hier los ... wie oft willst du es den noch durchkauen?

Solang bis man zu einem Ergebnis gekommen ist. In Wahrheit weiss ja keiner genau, wie es ATi trotz "fehlerhafter" LOD Bestimmung hinbekommt besser zu filtern...

aths
2005-12-10, 13:44:50
Wieso würde das in Unschärfe resultieren? Und ich behaupte nicht, dass ATi das auch so macht. Bei ihnen ist das BiBand wie du bereits sagst, je nach App. auch ziemlich auffällig. Nur wirkt die Schärfeverteilung etwas homogener als bei NV weswegen man bei NV eher merkt, dass bilinear gefiltert wird.

Und ich geh jetzt weiter und behaupte, dass durch diesen Umstand ATi auch nicht so eine feine trilineare Interpolation benötigt wie NV.Wenn du jeweils aus der größeren MIP-Map filterst, hast du quasi ein LOD-Bias von +1.

Korrekte bilineare Filterung muss in Banding resultieren. Das tut es bei mir z. B. in WoW auch. Mit der Radeon natürlich auch. Dabei habe ich bei WoW eine Art von Banding, die meiner ehemaligen Theorie, warum die Radeon hier und da weniger Banding zeigen soll, widerspricht.


Solang bis man zu einem Ergebnis gekommen ist. In Wahrheit weiss ja keiner genau, wie es ATi trotz "fehlerhafter" LOD Bestimmung hinbekommt besser zu filtern..."Weiß" mit ß, bitte.

Dass ATI es "hinbekommt, besser zu filtern" sehe ich nicht so. Du zeigst, dass es bestimmte Szenen gibt, in denen du die Radeon-Filterung als besser empfindest. Mit dem Filtertester kann man auch Bilder als Textur laden, damit könnte man mal Bitvergleiche machen.

Die gelbe Eule
2005-12-10, 13:53:31
Könnte man vielleicht beim Thema bleiben? Ein Thread "Lolman und Bildqualität bei VGA Karten" würde es alles besser zusammenfassen ;)

Es geht ja hier darum ob das Review gut ist oder eben doch nicht.

Irgendwo war der Einwurf man hätte die 6600GT 256MB als Gegner der X1600Xt nehmen sollen, nur das hat man eben nicht. Vergleichbar sind die Karten eh nicht, da alleine schon die Struktur ganz anders ist.
Die Antwort warum man eine 40-60€ teurere Karte gegen die 6600GT antreten läßt, sich aber keine gleichwertige 6800nu besorgt hat, ist Mechwoller noch schuldig geblieben.

Mr. Lolman
2005-12-10, 14:05:44
Wenn du jeweils aus der größeren MIP-Map filterst, hast du quasi ein LOD-Bias von +1.

Ich meinte die höher aufgelöste Mip. Also anstatt Mip1 Mip0 und statt 1 Sample 4 Samples.


Dass ATI es "hinbekommt, besser zu filtern" sehe ich nicht so. Du zeigst, dass es bestimmte Szenen gibt, in denen du die Radeon-Filterung als besser empfindest. Mit dem Filtertester kann man auch Bilder als Textur laden, damit könnte man mal Bitvergleiche machen.

Naja bei diversen Rennspielen (GTR, GTL, F1 2001, LFS 2) ists eindeutig. Da bekommt ATi eine gute Mischung zw. Schärfe und Flimmerfreiheit hin. Bei NV kann man entweder LOD-Clamp aktivieren und hat dann z.T. unscharfe Streckenbegrenzungslinien oder man lässts deaktiviert und die Begrenzungen flimmern. Und dabei pfuschen die Spiele iirc nichtmal mit dem LOD Bias herum (habs mit LFS2 getestet) => LOD 0.0 != LOD Clamp.

Mipmaploses AF funktioniert bei ATi sichtbar besser und wenn beide nur bilinear filtern, dann ist das Biband auf den ATi meistens weniger stark als bei NV Karten.

Mr. Lolman
2005-12-10, 14:07:07
Könnte man vielleicht beim Thema bleiben? Ein Thread "Lolman und Bildqualität bei VGA Karten" würde es alles besser zusammenfassen ;)

Es geht ja hier darum ob das Review gut ist oder eben doch nicht.

Irgendwo war der Einwurf man hätte die 6600GT 256MB als Gegner der X1600Xt nehmen sollen, nur das hat man eben nicht. Vergleichbar sind die Karten eh nicht, da alleine schon die Struktur ganz anders ist.
Die Antwort warum man eine 40-60€ teurere Karte gegen die 6600GT antreten läßt, sich aber keine gleichwertige 6800nu besorgt hat, ist Mechwoller noch schuldig geblieben.

Geh nach 9 Seiten weiss man bald ob das Review gut ist oder nicht. Außerdem weiss ich nicht, was du die ganze Zeit mit den kleinen Karten willst. in dem Review wurden ja quasi nur die Topmodellle getestet.

Die gelbe Eule
2005-12-10, 14:10:34
Wenn sie wirklich die Topmodelle getestet haben, warum fehlt dann überall die GTX 512MB? Man hast das Review immer irgendwie so gebogen, wie man es gerade brauchte. Nur wenn alle Karten da sind, kann man auch alle zusammen vergleichen.
Jeder der es liest, wird sich fragen, warum die eine oder andere Karte dann fehlt und woanders wieder auftaucht. Erklärt hat das dort niemand.

Die Headline dort zielt ja auf die Treiber ab und es gibt bestimmt nicht wenige, die auch wissen möchte, was Ihre kleine Karte noch an Mehrleistung mitbringt.

aths
2005-12-10, 14:58:33
Ich meinte die höher aufgelöste Mip. Also anstatt Mip1 Mip0 und statt 1 Sample 4 Samples. Man nimmt bei bilinearer Filterung immer 4 Texel. Wenn du mit Samples 4 bilineare Samples meinst, müsste bilineare Filterung 4x so lange dauern – da die Radeon nur bilineare TMUs hat. Letztlich bekommst du auch mit deinem Vorschlag das Banding nicht weg. Der plötzliche Wechsel der MIP-Stufe bliebe ja. Und trilineare Filterung bekommst du schon für 2 Samples (bilineare Samples.)

Naja bei diversen Rennspielen (GTR, GTL, F1 2001, LFS 2) ists eindeutig. Da bekommt ATi eine gute Mischung zw. Schärfe und Flimmerfreiheit hin. Bei NV kann man entweder LOD-Clamp aktivieren und hat dann z.T. unscharfe Streckenbegrenzungslinien oder man lässts deaktiviert und die Begrenzungen flimmern. Und dabei pfuschen die Spiele iirc nichtmal mit dem LOD Bias herum (habs mit LFS2 getestet) => LOD 0.0 != LOD Clamp.

Mipmaploses AF funktioniert bei ATi sichtbar besser und wenn beide nur bilinear filtern, dann ist das Biband auf den ATi meistens weniger stark als bei NV Karten.Bitte nicht schon wieder das mipmaplose AF herauskramen – bildgebende Texturfilterung sollte immer mit MIP-Mapping gemacht werden. Wenn NV40 und G70 eine AF-Realisierung à la Demirugs Ideen haben, kann es sein, dass sich fehlende MIPs besonders schlimm auswirken. (Allerdings habe ich das noch nicht zuende durchdacht.)

Wenn ein Spiel das LOD-Bias sinnvollerweise auf Null belässt, darf ein LOD-Clamp nichts bringen. Ohne AF sind unscharfe Streckenbegrenzunglinien programmiert. Wenn es flimmert, liegt vermutlich Unterfilterung vor – von welchen Settings sprichst du? Q? HQ? Mit AF, ohne AF?

Bei WoW habe ich auf einer Radeon je nach Bodentextur richtig hässliches Banding, sofern nicht trilinear (oder in Wahrheit wohl brilinear) gefiltert wird.


Falls du eine Geforce hast, mach doch bitte den Test damit:

http://www.dudv.de/files/3dcf/streifentest.png


Textur: http://www.dudv.de/files/3dcf/streifen.bmp

Mr. Lolman
2005-12-10, 15:32:00
Man nimmt bei bilinearer Filterung immer 4 Texel. Wenn du mit Samples 4 bilineare Samples meinst, müsste bilineare Filterung 4x so lange dauern – da die Radeon nur bilineare TMUs hat. Letztlich bekommst du auch mit deinem Vorschlag das Banding nicht weg. Der plötzliche Wechsel der MIP-Stufe bliebe ja. Und trilineare Filterung bekommst du schon für 2 Samples (bilineare Samples.)

Hm, auch wieder wahr - andererseits glaub ich auch, dass die Rechnung nicht ganz so einfach ist...


Bitte nicht schon wieder das mipmaplose AF herauskramen – bildgebende Texturfilterung sollte immer mit MIP-Mapping gemacht werden. Wenn NV40 und G70 eine AF-Realisierung à la Demirugs Ideen haben, kann es sein, dass sich fehlende MIPs besonders schlimm auswirken. (Allerdings habe ich das noch nicht zuende durchdacht.)

Ja sicher, aber imo besteht schon ein Zusammenhang zw, dem besseren mipmaplosen AF, der im Durchschnitt geringeren Biband-neigung (wenn auch dennoch bei Ati definitiv vorhanden) und der mit AIlow (und brilinearem Filtering) anscheinend tw. besseren BQ als bei NV HQ.


Wenn ein Spiel das LOD-Bias sinnvollerweise auf Null belässt, darf ein LOD-Clamp nichts bringen. Ohne AF sind unscharfe Streckenbegrenzunglinien programmiert. Wenn es flimmert, liegt vermutlich Unterfilterung vor – von welchen Settings sprichst du? Q? HQ? Mit AF, ohne AF?

Ist aber nicht so. Ich rede btw. immer von HQ mit bestmöglicher Filterung. D.h. deaktivierte Optimierungen und 16xAF. Und Lod-Clamp, clampt anscheinend nicht (nur), sondern ändert irgendwie den Filterkernel. Anderers könnt ich mir nicht erklären warum bei LFS2 zw. LOD 0.0 (in der App einstellbar) und Clamp so ein Unterschied besteht:

http://img222.imageshack.us/img222/7186/nv404xaa16xafclamp1mk.th.png (http://img222.imageshack.us/my.php?image=nv404xaa16xafclamp1mk.png) http://img222.imageshack.us/img222/535/nv404xaa16xafnoclamp2cy.th.png (http://img222.imageshack.us/my.php?image=nv404xaa16xafnoclamp2cy.png) http://img221.imageshack.us/img221/4527/nv404xaa16xafnoclamplod059bv.th.png (http://img221.imageshack.us/my.php?image=nv404xaa16xafnoclamplod059bv.png) http://img221.imageshack.us/img221/3224/nv404xaa16xafnoclamplod17gm.th.png (http://img221.imageshack.us/my.php?image=nv404xaa16xafnoclamplod17gm.png)

vlnr:
81.85 4xAA/16xHQ AF, LOD 0.0, Clamp:
81.85 4xAA/16xHQ AF, LOD 0.0, kein Clamp:
81.85 4xAA/16xHQ AF, LOD 0.5, kein Clamp:
81.85 4xAA/16xHQ AF, LOD 1.0, kein Clamp:


Bei WoW habe ich auf einer Radeon je nach Bodentextur richtig hässliches Banding, sofern nicht trilinear (oder in Wahrheit wohl brilinear) gefiltert wird.


Falls du eine Geforce hast, mach doch bitte den Test damit:

http://www.dudv.de/files/3dcf/streifentest.png


Textur: http://www.dudv.de/files/3dcf/streifen.bmp

Ich kann den Test nur Demis AFTester machen. XMas' Programm will bei mir nichtmehr (weder 1.2 noch 1.3)

MechWOLLIer
2005-12-10, 16:35:55
Wenn sie wirklich die Topmodelle getestet haben, warum fehlt dann überall die GTX 512MB? Man hast das Review immer irgendwie so gebogen, wie man es gerade brauchte. Nur wenn alle Karten da sind, kann man auch alle zusammen vergleichen.
Jeder der es liest, wird sich fragen, warum die eine oder andere Karte dann fehlt und woanders wieder auftaucht. Erklärt hat das dort niemand.
Die Headline dort zielt ja auf die Treiber ab und es gibt bestimmt nicht wenige, die auch wissen möchte, was Ihre kleine Karte noch an Mehrleistung mitbringt.
Die GTX 512 fehlt, weil sie zu teuer ist! Die Meinung habe ich schon oft genug geäußert und der Preisdifferenz beträgt mehr als 60 Euro. Natürlich ist die GTX etwas billiger als die X1800 XT, aber irgendwann muss man sich auch mal entscheiden, welche Samples antreten.

Ich glaube du weißt nicht, wie lange man eine neue Karte behalten darf, bei einem Karten-Launch, anson sten würdest du nicht immer so rumdiskutieren;)
Der Artikel ist erst entstanden, als die GTX 512 längst wieder bei nVidia war, nur den Speichertest habe ich noch vorher gemacht.
DIe X1800 XT ist für ein paar tage wieder bei ATi, warum musst du wohl kaum wissen;) Und die 6600 GT kommt nur in dem Artikel vor, da es einen Temperatur-/Strom-Vergleich gegen die X1600 geben sollte. In irgendeinem Performance-Benchmark taucht diese Karte gar nicht auf und dass soll sie auch nicht (genauso wie die X1600).
Im nächsten Review werden die Performance-Werte aber natürlich aktualisert sein.

aths
2005-12-10, 17:45:36
Hm, auch wieder wahr - andererseits glaub ich auch, dass die Rechnung nicht ganz so einfach ist...Warum glaubst du das?

Ja sicher, aber imo besteht schon ein Zusammenhang zw, dem besseren mipmaplosen AF, der im Durchschnitt geringeren Biband-neigung (wenn auch dennoch bei Ati definitiv vorhanden) und der mit AIlow (und brilinearem Filtering) anscheinend tw. besseren BQ als bei NV HQ.Den Zusammenhang sehe ich, anhand meiner bisherigen Kenntnisse, nicht. Meine Kenntnisse sind allerdings auch sehr dünn. Bei ATI vermute ich folgendes:

- Traditionelles AF, jedoch eben mit der Winkelschwäche, welche aus der verwendeten Näherungsformel bei der Gradientenberechnung herführt.

- Auf der AF-Line werden immer 2^n Samples erstellt.

Beim G70 vermute ich (anhand Demirugs Vermutungen) folgendes:

- Die LOD-Schwäche bei der Gradientenberechnung ist künstlich herbeigeführt.

- Auf der AF-Line werden m Samples erstellt. Einerseits gibt es z. B. echtes 6x AF für Verzerrungen von 4:1 bis zu 6:1 als Zwischenstufe zwischen 4x und 8x AF. Andererseits werden je nach Form des AF-Samples weniger Samples genommen, als der Verzerrungsgrad beträgt.

- Eine komplexe Logik schraubt aus den (manchmal nach traditionellen Mustern zu wenigen) Samples aber ein korrektes AF-Sample zusammen, welches den gesamten Filterkernel überdeckt.

Das heißt, einfach gesagt, dass ATIs AF eine Tendenz zur Überfilterung hat. Erstens wird der applizierte AF-Grad immer auf die nächste Zweierpotenz aufgerundet, zweitens werden so viele Samples genommen wie der (aufgerundete) AF-Grad angibt. Das heißt zwar zunächst, dass NVs AF flimmeranfälliger sein müsste. Aber NVs AF sollte so gebaut sein, dass es (in HQ) eben nicht flimmert, sofern man keine "bösen" Texturen hat, während ATIs AF im Vergleich tendenziell eine leichte Unschärfe mitsich bringen müsste. Das müsste mal getestet werden.

Beim MIP-Mapping-Problem (das ich mit eingen Augen noch nicht gesehen habe, prinzipiell mangels Applikationen die kein MIP-Mapping unterstützen und jetzt auch mangels einer Geforce) vermute ich, dass sich die AF-Berechnung bei der GF eben gründlich verschätzt, weil sie für die passende MIP vorgenommen, aber auf MIP0 appliziert wird. Bei der Radeon könnte es sein, dass er die tatsächlich genutze Texturauflösung berücksichtigt und damit mehr Samples ins AF-Sample einfließen lässt. Dies ließe sich mit Füllraten-Vergleichen nachprüfen.

Ist aber nicht so. Ich rede btw. immer von HQ mit bestmöglicher Filterung. D.h. deaktivierte Optimierungen und 16xAF. Und Lod-Clamp, clampt anscheinend nicht (nur), sondern ändert irgendwie den Filterkernel. Anderers könnt ich mir nicht erklären warum bei LFS2 zw. LOD 0.0 (in der App einstellbar) und Clamp so ein Unterschied besteht:

http://img222.imageshack.us/img222/7186/nv404xaa16xafclamp1mk.th.png (http://img222.imageshack.us/my.php?image=nv404xaa16xafclamp1mk.png) http://img222.imageshack.us/img222/535/nv404xaa16xafnoclamp2cy.th.png (http://img222.imageshack.us/my.php?image=nv404xaa16xafnoclamp2cy.png) http://img221.imageshack.us/img221/4527/nv404xaa16xafnoclamplod059bv.th.png (http://img221.imageshack.us/my.php?image=nv404xaa16xafnoclamplod059bv.png) http://img221.imageshack.us/img221/3224/nv404xaa16xafnoclamplod17gm.th.png (http://img221.imageshack.us/my.php?image=nv404xaa16xafnoclamplod17gm.png)

vlnr:
81.85 4xAA/16xHQ AF, LOD 0.0, Clamp:
81.85 4xAA/16xHQ AF, LOD 0.0, kein Clamp:
81.85 4xAA/16xHQ AF, LOD 0.5, kein Clamp:
81.85 4xAA/16xHQ AF, LOD 1.0, kein Clamp:Offenbar hat die Geforce erhebliche Probleme, wenn der LOD-Clamp nicht aktiviert ist. Ich frage mich, was die Clamp-Option wirklich tut. Ohne Clamp dürfte es unschön flimmern. Wirkt sich der Clamp auch in den Filtertestern aus?

Ich kann den Test nur Demis AFTester machen. XMas' Programm will bei mir nichtmehr (weder 1.2 noch 1.3)Mit dem D3D-Tester kann man leider noch keine u-v-Ratios einstellen. Das wäre hier aber notwendig.

Meine Theorie war, dass die Radeon beim Auto-MIP-Mapping dies für den sRGB-Standard vornimmt. Dann hätte die reingraue MIP einen RGB-Wert von (186, 186, 186) haben müssen. Tatsächlich ist es im Bild (132, 130, 132.) Das weicht von der linearen Filterung, die (128, 128, 128) (oder 127) ergeben müsste, ab. Ich frage mich, warum der Grün-Kanal 130, der Rest 132 ist. Falls dein Monitor dem sRGB-Standard (einigermaßen) folgt, müsstest du sehen, dass die reingraue MIP viel dunkler ist als die Basemap. Das verstärkt die Sichtbarkeit des MIP-Bandes. Stellst du die Gamma-Korrektur so ein, dass die Flächenhelligkeit von Base- und MIP-Map übereinstimmen, stört das MIP-Band nicht so stark. (In diesem Extremfall, wo es von Streifenform direkt zu grau geht, bleibt es natürlich weiterhin deutlich sichtbar. Aber das Prinzip, das auch bei normalen Texturen gilt, sollte klar sein.)

Eigentlich sollte auch die eigentliche Texturfilterung sRGB-korrekt vorgenommen werden, dann wären die Probleme noch geringer. Nur die MIPs sRGB-korrekt zu erstellen, ist nur ein halber Schritt – aber besser als nichts, und könnte MIP-Banding schon reduzieren. Bei WoW sehe ich aber MIP-Banding gerade durch MIPs mit unterschiedlicher Flächenhelligkeit, und weniger durch den Detailstufen-Übergang.

Gandharva
2005-12-10, 18:31:20
7800GTX

kein clamp:
http://home.arcor.de/herbertschindler/pics/noclamp.png

clamp:
http://home.arcor.de/herbertschindler/pics/clamp.png

seahawk
2005-12-10, 18:43:37
']Jetzt geht die Diskussion mit LOLMAN auch hier los ... wie oft willst du es den noch durchkauen?

Was Lolman macht is wichtig. Er hat mehr Fehler / Betrügerein bei NV aufgedeckt, als die meisten hier. Und er spricht die Wahrheit, wenn es um den BQ Vergleich geht, offen aus.
Was NV an BQ beitet ist momentan unzumutbar und man müßte eigentlich jede Karte deutlich abwerten, wenn man sie mit einer ATI vergleicht.

Mr. Lolman
2005-12-10, 18:50:22
7800GTX

kein clamp:
[ IMG]http://home.arcor.de/herbertschindler/pics/noclamp.png[/IMG]

clamp:
[ IMG]http://home.arcor.de/herbertschindler/pics/clamp.png[/IMG]

Probiers besser mit Demis D3D-AF Tester: http://www.3dcenter.org/downloads/d3d-af-tester.php (Clamp funzt unter OpenGL nicht)

Gandharva
2005-12-10, 19:01:05
Probiers besser mit Demis D3D-AF Tester: http://www.3dcenter.org/downloads/d3d-af-tester.php (Clamp funzt unter OpenGL nicht)mhm, da kann ich das bmp nicht auswählen.

Die gelbe Eule
2005-12-10, 19:21:01
Was Lolman macht is wichtig. Er hat mehr Fehler / Betrügerein bei NV aufgedeckt, als die meisten hier. Und er spricht die Wahrheit, wenn es um den BQ Vergleich geht, offen aus.
Was NV an BQ beitet ist momentan unzumutbar und man müßte eigentlich jede Karte deutlich abwerten, wenn man sie mit einer ATI vergleicht.

Und was ATi macht ist Verschleierungstaktik.

aths
2005-12-10, 19:50:24
7800GTX

kein clamp:

clamp:Ok, was ich wissen wollte (die Mischfarbe der MIP) weiß ich jetzt. Wie erwartet bringt die Geforce (128, 128, 128.)

Die Clamp-Sache müsste man optimalerweise mit anderen Texturen testen.

Mr. Lolman
2005-12-10, 19:56:47
Warum glaubst du das?

Hm, war nur eine recht unschlüssige Vermutung.


Den Zusammenhang sehe ich, anhand meiner bisherigen Kenntnisse, nicht. Meine Kenntnisse sind allerdings auch sehr dünn. Bei ATI vermute ich folgendes:

- Traditionelles AF, jedoch eben mit der Winkelschwäche, welche aus der verwendeten Näherungsformel bei der Gradientenberechnung herführt.

- Auf der AF-Line werden immer 2^n Samples erstellt.

Beim G70 vermute ich (anhand Demirugs Vermutungen) folgendes:

- Die LOD-Schwäche bei der Gradientenberechnung ist künstlich herbeigeführt.

- Auf der AF-Line werden m Samples erstellt. Einerseits gibt es z. B. echtes 6x AF für Verzerrungen von 4:1 bis zu 6:1 als Zwischenstufe zwischen 4x und 8x AF. Andererseits werden je nach Form des AF-Samples weniger Samples genommen, als der Verzerrungsgrad beträgt.

- Eine komplexe Logik schraubt aus den (manchmal nach traditionellen Mustern zu wenigen) Samples aber ein korrektes AF-Sample zusammen, welches den gesamten Filterkernel überdeckt.

Das heißt, einfach gesagt, dass ATIs AF eine Tendenz zur Überfilterung hat. Erstens wird der applizierte AF-Grad immer auf die nächste Zweierpotenz aufgerundet, zweitens werden so viele Samples genommen wie der (aufgerundete) AF-Grad angibt. Das heißt zwar zunächst, dass NVs AF flimmeranfälliger sein müsste. Aber NVs AF sollte so gebaut sein, dass es (in HQ) eben nicht flimmert, sofern man keine "bösen" Texturen hat, während ATIs AF im Vergleich tendenziell eine leichte Unschärfe mitsich bringen müsste. Das müsste mal getestet werden.

Da könnt was dran sein. Und die mögliche Unschärfe versuch ATi mit minimal negativerem LOD auszugleichen.

R3x0 16xbiAF: http://img21.imageshack.us/img21/3999/atimipsbiaf6yx.jpg
NV4016xbiAF: http://img21.imageshack.us/img21/8680/nvmipsbiaf9mx.jpg

biAF-Colormipmaps: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3710331&highlight=16xbiaf#post3710331


Beim MIP-Mapping-Problem (das ich mit eingen Augen noch nicht gesehen habe, prinzipiell mangels Applikationen die kein MIP-Mapping unterstützen und jetzt auch mangels einer Geforce) vermute ich, dass sich die AF-Berechnung bei der GF eben gründlich verschätzt, weil sie für die passende MIP vorgenommen, aber auf MIP0 appliziert wird. Bei der Radeon könnte es sein, dass er die tatsächlich genutze Texturauflösung berücksichtigt und damit mehr Samples ins AF-Sample einfließen lässt. Dies ließe sich mit Füllraten-Vergleichen nachprüfen.

Hier hatte ich mal einen Vergleich mit Q3a (was sonst ;D) gemacht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3660525&postcount=62


Offenbar hat die Geforce erhebliche Probleme, wenn der LOD-Clamp nicht aktiviert ist. Ich frage mich, was die Clamp-Option wirklich tut. Ohne Clamp dürfte es unschön flimmern. Wirkt sich der Clamp auch in den Filtertestern aus?

Scheinbar nicht. (habs mit dem d3d AFtester getestet)


Mit dem D3D-Tester kann man leider noch keine u-v-Ratios einstellen. Das wäre hier aber notwendig.

Meine Theorie war, dass die Radeon beim Auto-MIP-Mapping dies für den sRGB-Standard vornimmt. Dann hätte die reingraue MIP einen RGB-Wert von (186, 186, 186) haben müssen. Tatsächlich ist es im Bild (132, 130, 132.) Das weicht von der linearen Filterung, die (128, 128, 128) (oder 127) ergeben müsste, ab. Ich frage mich, warum der Grün-Kanal 130, der Rest 132 ist. Falls dein Monitor dem sRGB-Standard (einigermaßen) folgt, müsstest du sehen, dass die reingraue MIP viel dunkler ist als die Basemap. Das verstärkt die Sichtbarkeit des MIP-Bandes. Stellst du die Gamma-Korrektur so ein, dass die Flächenhelligkeit von Base- und MIP-Map übereinstimmen, stört das MIP-Band nicht so stark. (In diesem Extremfall, wo es von Streifenform direkt zu grau geht, bleibt es natürlich weiterhin deutlich sichtbar. Aber das Prinzip, das auch bei normalen Texturen gilt, sollte klar sein.)

Das Grau bei Stripers pics ist minimal dunkler. 126-127. Das, der Hang zur Überfilterung und das leicht negative LOD Bias lassen ATis AILow anscheinend in Einzelfällen (vorwiegend Rennspiele) besser dastehen als NV-HQ.


Eigentlich sollte auch die eigentliche Texturfilterung sRGB-korrekt vorgenommen werden, dann wären die Probleme noch geringer. Nur die MIPs sRGB-korrekt zu erstellen, ist nur ein halber Schritt – aber besser als nichts, und könnte MIP-Banding schon reduzieren. Bei WoW sehe ich aber MIP-Banding gerade durch MIPs mit unterschiedlicher Flächenhelligkeit, und weniger durch den Detailstufen-Übergang.

Naja, die Mips in irgendeine Farbe blenden und schon hat man einen "Haze" Effekt. Zwar ne unfeine Methode aber ich kann mich an das ein oder andere Spiel erinnern, wo genau das gemacht wurde...

aths
2005-12-10, 20:56:11
Hm, war nur eine recht unschlüssige Vermutung. Erst denken, dann schreiben :) Deine Idee barg multiplen Unsinn. Erstens wäre der Transistoraufwand sehr groß, zweitens hätte ATI das längst vermarktet, drittens gibts schon trilineare Filterung für die Hälfte und viertens bekommt man mit deiner Idee das MIP-Banding nicht weg. Ich finde es gut, dass du dir Gedanken machst, aber einfach irgendwas unausgegorenes in den Raum zu werfen, bringt uns nicht weiter.

Da könnt was dran sein. Und die mögliche Unschärfe versuch ATi mit minimal negativerem LOD auszugleichen.

R3x0 16xbiAF: http://img21.imageshack.us/img21/3999/atimipsbiaf6yx.jpg
NV4016xbiAF: http://img21.imageshack.us/img21/8680/nvmipsbiaf9mx.jpg

biAF-Colormipmaps: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3710331&highlight=16xbiaf#post3710331Dass ATI ein leicht negatives LOD-Bias nutzen könnte, erklärt gewisse Beobachtungen, dass 8x AF (bei 90°) manchmal als schärfer empfunden wird als bei der GF3 oder 4.

Hier hatte ich mal einen Vergleich mit Q3a (was sonst ;D) gemacht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3660525&postcount=62Einzelbeispiele helfen nicht unbedingt. Zur Analyste braucht man schön synthetisches Texturmaterial. Gerade bei Quake3 verdächtige ich NV auch gewisser so genannter "Optimierungen".

Scheinbar nicht. (habs mit dem d3d AFtester getestet)"Scheinbar" sagt man, wenn etwas nur so scheint, in Wahrheit aber ganz anders ist. "Anscheinend" verwendet man, wenn etwas einen bestimmten Anschein erweckt – ohne dass man beurteilen kann, ob dieser gerechtfertigt ist.

Wir brauchen dringend einen Filtertester, der vom Treiber nicht erkannt wird. Geht die Aktivierung vom LOD-Clamp eigentlich spürbar auf die Framerate? Wenn NV ohne Clamp-Option unverfroren am Filter pfuscht, sollte das ja als "Performance" verkaufte Zusatz-fps bringen (auch wenn kein Mensch mit Flimmer-Texturen spielen will. Lt. NV zähle "Performance" beim normalen Kunden aber nunmal primär. NV scheint unter "normalen" Kunden nur alljene zu verstehen, die durch exzessiven Konsum von Playstation-Spielen Texturflimmern brauchen, um glücklich zu sein.)

Das Grau bei Stripers pics ist minimal dunkler. 126-127. Das, der Hang zur Überfilterung und das leicht negative LOD Bias lassen ATis AILow anscheinend in Einzelfällen (vorwiegend Rennspiele) besser dastehen als NV-HQ.Das Grau ist dunkler, bei 128. Eigentlich ist das schlechter, da die MIP eh zu dunkel ist. Bei linearer Filterung muss aber genau 127 oder 128 herauskommen, was die Geforce bietet. Außerdem belässt sie das Grau als grau, während die Radeon die MIP (mit sehr schwacher Sättigung) farbig macht. Ich frage mich, was ATI da wieder mal vergurkt hat.

Naja, die Mips in irgendeine Farbe blenden und schon hat man einen "Haze" Effekt. Zwar ne unfeine Methode aber ich kann mich an das ein oder andere Spiel erinnern, wo genau das gemacht wurde...Hier gehts nicht darum, Nebel zu simulieren (geht mit "falschen" MIPs natürlich auch) ich sprach die Sichtbarkeit vom MIP-Banding an. Bei deinem Q3-Beispiel ist die MIP beim NV-Shot z. B. viel zu dunkel. (Bei der Radeon auch, aber da das MIP-Banding weniger auffällt, fällt auch der Helligkeitsunterschied nicht so auf.) Spielt man am Gamma bis die Flächenhelligkeiten übereinstimmen, wird auch das MIP-Band weniger auffällig. (Gilt auch für die Radeon.)

BTW, warum schreibst du nicht mal einen Artikel mit Bildbelegen, was am Forceware so alles seltsam ist? Dass HQ in UT auf nichtprimären Textur-Stages nur brilinear filtert ist zwar schon bekannt, kann aber ruhig noch mal aufgewärmt werden. Dass auch HQ flimmern kann, sofern man nicht LOD-Clamp aktiviert, dürfte wenig bekannt sein. Dass Q-Flimmern ist zwar weithin bekannt, aber kann gar nicht oft genug wiederholt werden. Dass beim Forceware die Reihenfolge der Setting-Wahl eine Rolle spielen kann, dürften nur wenige wissen. All das ist geeignet, um NVs dreiste Verwirrungstaktik anzuprangern.

Mr. Lolman
2005-12-11, 00:20:53
Erst denken, dann schreiben :) Deine Idee barg multiplen Unsinn. Erstens wäre der Transistoraufwand sehr groß, zweitens hätte ATI das längst vermarktet, drittens gibts schon trilineare Filterung für die Hälfte und viertens bekommt man mit deiner Idee das MIP-Banding nicht weg. Ich finde es gut, dass du dir Gedanken machst, aber einfach irgendwas unausgegorenes in den Raum zu werfen, bringt uns nicht weiter.

Ich überleg mir ne schöne Formulierung um mich da wieder rauszuwinden und dann sowas. :tongue:


Dass ATI ein leicht negatives LOD-Bias nutzen könnte, erklärt gewisse Beobachtungen, dass 8x AF (bei 90°) manchmal als schärfer empfunden wird als bei der GF3 oder 4.

Einzelbeispiele helfen nicht unbedingt. Zur Analyste braucht man schön synthetisches Texturmaterial. Gerade bei Quake3 verdächtige ich NV auch gewisser so genannter "Optimierungen".

Mittlerweile läuft bei auch wieder XMas Filtertestapp. Ich spiel mich damit noch etwas rum.

/edit:
NV40 biAF (http://img208.imageshack.us/img208/4571/nv4016xbiaf8lh.png), NV40 triAF (http://img208.imageshack.us/img208/1820/nv4016xtriaf1hj.png)
R3x0 biAF (http://img208.imageshack.us/img208/4673/r30016xbiaf0ta.png), R3x0 triAF (http://img208.imageshack.us/img208/6269/r30016xtriaf8mk.png)

http://img208.imageshack.us/img208/3668/r300vsnv40biaf2av.gif (http://imageshack.us)

http://img208.imageshack.us/img208/1676/r300vsnv40triaf3fa.gif (http://imageshack.us)

Settings (http://img208.imageshack.us/img208/5676/settings9tc.png),Texture (http://img208.imageshack.us/img208/9466/metalbridge028eh33ew.png)



"Scheinbar" sagt man, wenn etwas nur so scheint, in Wahrheit aber ganz anders ist. "Anscheinend" verwendet man, wenn etwas einen bestimmten Anschein erweckt – ohne dass man beurteilen kann, ob dieser gerechtfertigt ist.

Da bin ich anderer Meinung. Auch Wiktionary war diesbezüglich widersrpüchlich:
Anmerkung:
Umgangssprachlich wird häufig nicht zwischen scheinbar und anscheinend unterschieden (s. [2]). Anscheinend drückt aber die Vermutung aus, dass etwas ist, wie es erscheint (Du bist anscheinend krank.). Scheinbar bedeutet hingegen, dass etwas nur den Eindruck macht, aber tatsächlich nicht so sein muss, wie es scheint Der Wind war scheinbar zu stark für sein Windrad.).

- kursiv = edititiert. Grund:

Bedeutungen:
[1] (nur) auf den ersten Blick oder vordergründig ist die folgende Aussage wahr; es ist wohl ein Irrtum zu glauben; (nur) dem äußeren Eindruck nach, aber nicht tatsächlich[/b]


Wir brauchen dringend einen Filtertester, der vom Treiber nicht erkannt wird. Geht die Aktivierung vom LOD-Clamp eigentlich spürbar auf die Framerate? Wenn NV ohne Clamp-Option unverfroren am Filter pfuscht, sollte das ja als "Performance" verkaufte Zusatz-fps bringen (auch wenn kein Mensch mit Flimmer-Texturen spielen will. Lt. NV zähle "Performance" beim normalen Kunden aber nunmal primär. NV scheint unter "normalen" Kunden nur alljene zu verstehen, die durch exzessiven Konsum von Playstation-Spielen Texturflimmern brauchen, um glücklich zu sein.)

Müsste man mal testen.Am besten jemand mit nem G70.


Das Grau ist dunkler, bei 128. Eigentlich ist das schlechter, da die MIP eh zu dunkel ist. Bei linearer Filterung muss aber genau 127 oder 128 herauskommen, was die Geforce bietet. Außerdem belässt sie das Grau als grau, während die Radeon die MIP (mit sehr schwacher Sättigung) farbig macht. Ich frage mich, was ATI da wieder mal vergurkt hat.

Es ist bei den oberen Pixel sogar nur auf 126.


BTW, warum schreibst du nicht mal einen Artikel mit Bildbelegen, was am Forceware so alles seltsam ist? Dass HQ in UT auf nichtprimären Textur-Stages nur brilinear filtert ist zwar schon bekannt, kann aber ruhig noch mal aufgewärmt werden. Dass auch HQ flimmern kann, sofern man nicht LOD-Clamp aktiviert, dürfte wenig bekannt sein. Dass Q-Flimmern ist zwar weithin bekannt, aber kann gar nicht oft genug wiederholt werden. Dass beim Forceware die Reihenfolge der Setting-Wahl eine Rolle spielen kann, dürften nur wenige wissen. All das ist geeignet, um NVs dreiste Verwirrungstaktik anzuprangern.

Mal sehen, ob ich den Nerv dazu hab...

Marc-
2005-12-11, 08:15:42
Und was ATi macht ist Verschleierungstaktik.
???

Übrigens erstaunlich, das du in diesen tagen (in deiner bekannten neutralitaet) nicht verstaerkt auf die mangelhafte verfügbarkeit der 7800GTX512 karten hinweist, in relation zu den X18000XTs...

Ailuros
2005-12-11, 11:24:28
Mal sehen, ob ich den Nerv dazu hab...

Siehe PM ;)

(del)
2005-12-11, 11:43:25
Siehe PM ;)
Ich hoffe das war jetzt nicht ein Angebot alles ins rechte Licht zu Rücken. Von Ailuros :D

Die gelbe Eule
2005-12-11, 12:00:26
???

Übrigens erstaunlich, das du in diesen tagen (in deiner bekannten neutralitaet) nicht verstaerkt auf die mangelhafte verfügbarkeit der 7800GTX512 karten hinweist, in relation zu den X18000XTs...

Du hast die ganze Zeit nix zum Thema gesagt, also was soll der Einwurf?
Ich habe bereits in diesem Thread hingewiesen, das in meiner Stadt mit 10.000 Einwohnern 20+ Karten zu kaufen sind, wenn man denn möchte.
Ab Mittwoch bin ich ATiler, soviel zu meiner grünen Sichtweise.

Normalerweise kann man NV sogar den Bonus geben, da ATi 4 Wochen+ mehr brauchte, um die Verfügbarkeit der X1800XT sicherzustellen. Und auch gerne nochmal für Dich:

NV wollte nur 10tausende von der 512MB GTX ausliefern, nicht Millionen. Und ich denke das ist auch gelungen. Irgendwo habe ich den Vergleich mit Ferrari gehabt. Die bauen auch nur eine gewisse Anzahl an Autos im Jahr, da es nur eine gewisse Anzahl an Käufer gibt. Warum auf Halde produzieren, wenn letztendlich keiner diese Karte mehr abnimmt.

Die 7800GTX ist top und sehr lang breit verfügbar gewesen, das auch noch zu einem 100€ günstigerem Preis und wer möchte kann sich nochmals nach oben hin steigern.

Es ist bedauerlich, das nun auf der 512MB GTX rumgeritten wird, aber das der R520 gut ein halbes Jahr später als geplant auf den Markt kommt, das wird scheinbar schnell vergessen. Von CF ist übrigens immernoch nichts zu sehen. Masterkarten ahoi.

aths
2005-12-11, 12:14:56
Ich überleg mir ne schöne Formulierung um mich da wieder rauszuwinden und dann sowas. :tongue: Da wollte ich nicht nachtreten, aber anregen, ein Thema zunächst umfassender zu durchdenken.

Wenn ich mit dem Filtertester spiele, sehe ich sehr gut die Auswirkungen bilinearer Filterung: Innerhalb des MIP-Bandes wandert der Schärfegrad von unscharf nach scharf. Insofern kann ich der Radeon keine irgendwie bessere bi-Filterung attestieren.


Mittlerweile läuft bei auch wieder XMas Filtertestapp. Ich spiel mich damit noch etwas rum. Ich denke, wir wollen zunächst mal bilineare Filterung testen, um der Frage nach der Sichtbarkeit des MIP-Bandes auf den Grund zu gehen.



Da bin ich anderer Meinung. Auch Wiktionary war diesbezüglich widersrpüchlich:
Anmerkung:
Umgangssprachlich wird häufig nicht zwischen scheinbar und anscheinend unterschieden (s. [2]). Anscheinend drückt aber die Vermutung aus, dass etwas ist, wie es erscheint (Du bist anscheinend krank.). Scheinbar bedeutet hingegen, dass etwas nur den Eindruck macht, aber tatsächlich nicht so sein muss, wie es scheint Der Wind war scheinbar zu stark für sein Windrad.).

- kursiv = edititiert. Grund:

Bedeutungen:
[1] (nur) auf den ersten Blick oder vordergründig ist die folgende Aussage wahr; es ist wohl ein Irrtum zu glauben; (nur) dem äußeren Eindruck nach, aber nicht tatsächlich[/b]Wiki widerspricht da doch nicht.

Müsste man mal testen.Am besten jemand mit nem G70.... der G70 könnte CPU-limitiert sein.

Es ist bei den oberen Pixel sogar nur auf 126. Völlig korrekt wären nur 127 und 128. 126 ist aber immerhin noch näher dran als (132, 130, 132).

Mal sehen, ob ich den Nerv dazu hab...Von der 3DC-Hauptseite aus solltest du mehr Leser haben. Wenn du irgendwelche Fragen zu einem möglichen Artikel hast: PM oder Email.

aths
2005-12-11, 12:17:59
NV wollte nur 10tausende von der 512MB GTX ausliefern, nicht Millionen. Und ich denke das ist auch gelungen.NV wollte in der öffentlichen Wahrnehmung die X1800 XT kontern. Dazu wurden ein paar handselektierte Chips zusammen mit 512 MB RAM verkauft. Für mich spielen weder die GTX 512 noch die XT PE eine Rolle.

Winter[Raven]
2005-12-11, 12:21:15
Bin derzeit in Suhl, zu Bezuch bei meiner Mutter, und gestern lagen bei uns im Ankosoft und Heize und Bolek 10+ von den 512 MB G70.

(del)
2005-12-11, 12:52:23
']Bin derzeit in Suhl, zu Bezuch bei meiner Mutter, und gestern lagen bei uns im Ankosoft und Heize und Bolek 10+ von den 512 MB G70.
Sorry für OT, aber von welchem Teil der Welt ist hier die Rede, Raven?? :) Ich bin schon viel in der EU unterwegs gewesen. Wo ist DAS?

Winter[Raven]
2005-12-11, 13:06:01
Sorry für OT, aber von welchem Teil der Welt ist hier die Rede, Raven?? :) Ich bin schon viel in der EU unterwegs gewesen. Wo ist DAS?

Süd Thüringen ;) Sündlich von Erfurt, wo ich eigentlich Wohne.

reunion
2005-12-11, 20:36:08
Schon irgendwie seltsam, dass es zurzeit weltweit(!) praktisch keine einzige "GTX 512" zu kaufen gibt, aber in irgendwelchen kleinen, ominösen Shops in Deutschland sich die Karten stapeln sollten - wers glaubt.

reunion
2005-12-11, 20:50:59
Ich habe bereits in diesem Thread hingewiesen, das in meiner Stadt mit 10.000 Einwohnern 20+ Karten zu kaufen sind, wenn man denn möchte.


Newegg, einer der größten Online-Distributer weltweit, hat den Preis der "GTX 512" bereits auf 749$ hochgesetzt, und kann trotzdem keine einzige Karte liefern. Wie glaubwürdig deine Aussage unter diesem Tatbestand wirkt, kannst du dir sicherlich selbst ausmalen.


Ab Mittwoch bin ich ATiler, soviel zu meiner grünen Sichtweise.


Der Besitz eine ATI-Karte macht einem noch lange nicht "neutral" - sofern es soetwas überhaupt gibt.


NV wollte nur 10tausende von der 512MB GTX ausliefern, nicht Millionen.


Blödsinn, nV kann schlicht und einfach nicht mehr Karte liefern.

Coda
2005-12-11, 20:57:37
Fragt sich ob RAM oder GPU knapp sind oder beides X-D

Die gelbe Eule
2005-12-11, 21:01:47
Newegg, einer der größten Online-Distributer weltweit, hat den Preis der "GTX 512" bereits auf 749$ hochgesetzt, und kann trotzdem keine einzige Karte liefern. Wie glaubwürdig deine Aussage unter diesem Tatbestand wirkt, kannst du dir sicherlich selbst ausmalen.



Der Besitz eine ATI-Karte macht einem noch lange nicht "neutral" - sofern es soetwas überhaupt gibt.



Blödsinn, nV kann schlicht und einfach nicht mehr Karte liefern.


Du kaufst in Amerika? 749€ sind immernoch 635€.
Du weißt wie ich denke?
Du hast Infos direkt von NV, wie der Produktionsstand ist?

Black-Scorpion
2005-12-11, 21:04:34
Und die Steuern lassen wir mal wieder unter den Tisch fallen?

Die gelbe Eule
2005-12-11, 21:09:00
Das war klar das die Steuern wieder kommen. 749$ haben einen Wert von 635€. Ob ich hier lebe und eine Karte zum Preis von 635€ kaufe oder in den USA lebe und eine Karte für 749$ kaufe, da tut sich nichts. Auch mit der Anhebung kommt man in den USA vom Preis besser weg. Aber Ihr bestellt Euch ja Karten immer im Ausland ...

Warum meckert Ihr über den Preis? Die Gainwards waren auch immer locker 40% teuer und wurden immer gekauft, das über Jahre.

Bin gespannt was die X1800XT OC kosten wird, weil so ein extra Netzteil wird net gerade günstig sein.

kalle28
2005-12-11, 21:16:24
Das war klar das die Steuern wieder kommen. 749$ haben einen Wert von 635€. Ob ich hier lebe und eine Karte zum Preis von 635€ kaufe oder in den USA lebe und eine Karte für 749$ kaufe, da tut sich nichts. Auch mit der Anhebung kommt man in den USA vom Preis besser weg. Aber Ihr bestellt Euch ja Karten immer im Ausland ...




Auch in Amerika muss man zu den ausgepreisten 749$ noch Tax bezahlen, dort werden die Preise sozusagen Netto angegeben.

StefanV
2005-12-11, 21:18:11
Auch in Amerika muss man zu den ausgepreisten 749$ noch Tax bezahlen, dort werden die Preise sozusagen Netto angegeben.
Eben, weil eine Angabe mit Steuern nicht möglich ist, in Amiland, da jeder Staat andere hat...

Black-Scorpion
2005-12-11, 21:21:03
Was du machst sind Milchmädchenrechnungen.
Du bekommst die Karte nicht für 749,-$ noch für 635,-€.
Also bringt deine umrechnerei garnichts.

Die gelbe Eule
2005-12-11, 21:24:37
Und was bringt es uns Europäer auf Newegg zu schauen? Gar nichts.
Dort kann man auch 5.000$ als Preis angeben, eine Karte die nicht da ist, kann kosten soviel sie möchte. Das kennen wir ja schon von der X1600pro @ 1.100€.

MikBach
2005-12-11, 21:25:32
Das war klar das die Steuern wieder kommen. 749$ haben einen Wert von 635€. Ob ich hier lebe und eine Karte zum Preis von 635€ kaufe oder in den USA lebe und eine Karte für 749$ kaufe, da tut sich nichts. Auch mit der Anhebung kommt man in den USA vom Preis besser weg. Aber Ihr bestellt Euch ja Karten immer im Ausland ...

Hä?
Was rechnest du da? :|

Die gelbe Eule
2005-12-11, 21:27:51
Na kommen wieder alle Flamer zusammen? Sagt doch sonst nichts zum Thema ...

MikBach
2005-12-11, 21:29:52
Na kommen wieder alle Flamer zusammen? Sagt doch sonst nichts zum Thema ...
Eule, was hat denn dein Post zum Thema beigetragen, den ich gequotet habe? :confused:
Ich kann nur darauf antworten, was du schreibst...
Wie war das noch mit dem Glashaus? :P

Black-Scorpion
2005-12-11, 21:34:25
Na kommen wieder alle Flamer zusammen? Sagt doch sonst nichts zum Thema ...
Gehts noch?

Alle gehen auf deinen Post ein.
Und jetzt bezeichnest du dafür andere als Flamer?
Schreib nicht so einen Müll, dann braucht man auch nicht darauf eingehen.

'edit'
Wie war das noch mit dem Stein und dem Glashaus?

Die gelbe Eule
2005-12-11, 21:35:10
Manche leben preislich nur bei E-Tailern. Im Laden kosten die Karten eine ganze Ecke mehr. Egal ob GTX oder XT.

Gehts noch??

Alle gehen auf deinen Post ein.
Und jetzt bezeichnest du dafür andere als Flamer?
Schreib nicht so einen Müll, dann braucht man auch nicht darauf eingehen.

Sicher gehts noch, da ich immernoch objektiv bin.
Auch wenn ich Müll schreibe, müssen sich nicht immer die gleichen dann mit genau den gleichen Posts zu Wort melden. Wenn einer sagt es wäre falsch, wäre der Rest Spam.

Fakt ist, das der Preis völlig egal ist der bei Newegg steht. Nur weil man da online keine Karten kaufen kann, heißt es nicht das Amerika in den Läden keine mehr hat. E-Tailer und Retailer sind grundverschieden.

MikBach
2005-12-11, 21:45:15
Sicher gehts noch, da ich immernoch objektiv bin.
LOL. :lol:
You made my day! :up: :D

Auch wenn ich Müll schreibe,...
Dann schreib bitte kein Müll. :)

Die gelbe Eule
2005-12-11, 21:48:18
Kommt noch was zum CB Review von Dir oder haben Smilies höhere Priorität?

MikBach
2005-12-11, 21:53:21
Kommt noch was zum CB Review von Dir oder haben Smilies höhere Priorität?
Was soll da noch kommen?
Du bist hier doch der Kritiker des Reviews... :|
Ich finde es ganz gelungen.
Ich würde mir Werte über das TransparenzAA wünschen.
Auch Vergleiche zwischen PerformanceAAA und QualityAAA bei ATI.
Halt die Sachen, die sonst niemand macht. :)

Black-Scorpion
2005-12-11, 22:00:59
Sicher gehts noch, da ich immernoch objektiv bin.
Wie objektiv du bist beweist du jedesmal aufs neue.

Ich kann mir schon die Schwämme an Threads vorstellen wenn du wirklich eine ATI Karte bekommst.

Mr. Lolman
2005-12-11, 22:10:39
Wenn ich mit dem Filtertester spiele, sehe ich sehr gut die Auswirkungen bilinearer Filterung: Innerhalb des MIP-Bandes wandert der Schärfegrad von unscharf nach scharf. Insofern kann ich der Radeon keine irgendwie bessere bi-Filterung attestieren.Diese Auswirkungen sehe ich ehrlich gesagt erst beim AF.


Ich denke, wir wollen zunächst mal bilineare Filterung testen, um der Frage nach der Sichtbarkeit des MIP-Bandes auf den Grund zu gehen.ATi und NV erzeugen zwar auf unterschiedliche Weise die Mipmaps aber beim rein bilinearen Filterin sind beide afaik gleich scharf...


Wiki widerspricht da doch nicht.Bevor ichs editiert hab stand auch, statt "sein muss", noch "ist".


... der G70 könnte CPU-limitiert sein.Hm das stimmt. Bei nem Test mit UT2004 Primeval hab ich aber bisher keinen Perfomanceunterschied feststellen können.


Völlig korrekt wären nur 127 und 128. 126 ist aber immerhin noch näher dran als (132, 130, 132).Naja ATi ist näher an sRGB korrekter Filterung.

Von der 3DC-Hauptseite aus solltest du mehr Leser haben. Wenn du irgendwelche Fragen zu einem möglichen Artikel hast: PM oder Email.Ist gut, ich werd mich ggF melden.

Crushinator
2005-12-11, 22:30:16
Na kommen wieder alle Flamer zusammen? Sagt doch sonst nichts zum Thema ...
Vorsicht: Nicht selten gehen Flames durch so einen Satz erst los, und sollten sie wirklich losgehen, drehe ich hier wirklich am Rad! Reißt Euch also bitte zusammen, Danke!

(del)
2005-12-11, 22:56:40
ATi und NV erzeugen zwar auf unterschiedliche Weise die Mipmaps aber beim rein bilinearen Filterin sind ATi und NV afaik gleich scharf...
Daß ich das auch mal nachvollziehe. Bei den Bildern die Du gemacht hast fiel mir jedenfalls auf, daß die R3x0 Textur schärfer ist als die vom NV40. Im Egoshooter würd ich darüber müde lächeln, aber so ist es deutlich sichtbar. Rechts entlang der Mittellinie. Bei bi ist das Banding (?) bei ATI weniger wobei man mit NV wohl weiter schärfer sehen kann. Der Übergang ist aber abrupter. Was mir hier besser gefällt kann ich so nicht sagen. In dem Fall ist ATI aber 'vor der Nase' schärfer und ich schieb beim Gehen keine 'Übergänge' vor mich her. Hab ich das alles richtig gecheckt?

Was mir aber sonst auffiel (keine Kunst) ist, daß die Bilder nicht exakt sind. Die Mittellinie ist nur bei NV grade. Bei ATI ist alles leicht nach rechts verschoben/gebogen. Hat das keinen Einfluss? (lernmodus an)

Mr. Lolman
2005-12-11, 23:56:50
Was da genau passiert check ich auch nicht. ATi biAF gefällt mir definitiv besser als NV biAF. Bei den triAF gifs sind die weissen Linien bei ATI am Rand tw. noch durchgehend wo sie bei NV schon abgehackt sind. Beim rein bilinearen Filtering, also ohne AF, sind beide gleich ca. gleich scharf. Bei ATi ist zusätzlich wiederum das LOD leicht negativ (ca. -0.05).

Übrigens kann ich den leichten Hang zur Überfilterung samt dem negativem LOD nur gutheissen, da diverse Alphatesttexturen (v.A. Bäume, aber auch Gräser) bei LOD 0.0 tw. etwas stumpf wirken...

Coda
2005-12-12, 00:10:59
da diverse Alphatesttexturen (v.A. Bäume, aber auch Gräser) bei LOD 0.0 tw. etwas stumpf wirken...Ich hab dir schon 100x gesagt, dass da die Mipmaps idiotisch generiert wurden (linear). Es gibt einfach keinen guten Grund für negatives LOD, weil dadurch egal in welchem Fall das Abtasttheorem verletzt wird.

(del)
2005-12-12, 00:43:46
Ich hab dir schon 100x gesagt, dass da die Mipmaps idiotisch generiert wurden (linear). Es gibt einfach keinen guten Grund für negatives LOD, weil dadurch egal in welchem Fall das Abtasttheorem verletzt wird.
Ja irgendwas scheint da wirklich nicht 100% perfekt zu sein. Sieht aber irgendwie besser aus... Tschüß ne :|

Coda
2005-12-12, 01:06:20
Naja das bischen LOD-Abweichung ist wirklich egal, das will ich damit nicht sagen.

aths
2005-12-12, 08:40:24
Diese Auswirkungen sehe ich ehrlich gesagt erst beim AF.

ATi und NV erzeugen zwar auf unterschiedliche Weise die Mipmaps aber beim rein bilinearen Filterin sind beide afaik gleich scharf...- Womöglich, weil bei isotroper Filterung die einzelnen MIP-Stufen so schnell so unscharf werden, dass du Probleme hast, den Verlauf zu erkennen? Bei bilinearer isotroper Filterung geht es ja gar nicht anders: Vorne unscharf, dann scharf, dann der plötzliche Wechsel zu unscharf (das MIP-Banding). Das kann ich auf meiner Radeon Mobility im Tester und in WoW ziemlich gut sehen.

- Ich halte es für sehr wahrscheinlich, dass die Automipmap-Erzeugung praktisch gleich ist, bei ATI nur leider wieder mal ungenauer. Bei der Quake-Sache müsste man wissen, ob Quake Custom-MIPs nutzt, oder Automipmapping. Man könnte ja die Spekulation aufstellen, dass der Radeon Automipmapping-Algo weniger Details vernichtet. (Allerdings spricht sehr viel gegen diese Spekulation.)

Hm das stimmt. Bei nem Test mit UT2004 Primeval hab ich aber bisher keinen Perfomanceunterschied feststellen können.

Naja ATi ist näher an sRGB korrekter Filterung.

Ist gut, ich werd mich ggF melden.- Gerade UT ist, denke ich, ein Beispiel für CPU-Limitierung?

- ATIs MIP-Map-Generierung ist ungenauer und wohl nur zufällig minimal näher am sRGB-Standard.

- Ich habe immer ein offenes Ohr :)

Marc-
2005-12-12, 08:59:16
Manche leben preislich nur bei E-Tailern. Im Laden kosten die Karten eine ganze Ecke mehr. Egal ob GTX oder XT.



Sicher gehts noch, da ich immernoch objektiv bin.
Auch wenn ich Müll schreibe, müssen sich nicht immer die gleichen dann mit genau den gleichen Posts zu Wort melden. Wenn einer sagt es wäre falsch, wäre der Rest Spam.

Fakt ist, das der Preis völlig egal ist der bei Newegg steht. Nur weil man da online keine Karten kaufen kann, heißt es nicht das Amerika in den Läden keine mehr hat. E-Tailer und Retailer sind grundverschieden.

Aus eigener erfahrung kann ich dir sagen: wenn die grossen versender (die zum teil selbst distris sind bzw direkt dranhängen) keine karten haben, ist es bis auf ganz ganz wenige ausnahmefälle über sehr dunkle kanäle (die im übrigen dir sehr viel freude bei der RMA bearbeitung bereiten werden) ziemlich unmöglich als normaler Händler an karten zu kommen.

Marc-
2005-12-12, 09:27:55
Es ist bedauerlich, das nun auf der 512MB GTX rumgeritten wird, aber das der R520 gut ein halbes Jahr später als geplant auf den Markt kommt, das wird scheinbar schnell vergessen. Von CF ist übrigens immernoch nichts zu sehen. Masterkarten ahoi.

Vielleicht sollte damit einfach nur darauf hingewiesen werden, das entgegen deiner dutzendfach geäusserten aussage paperlaunches weder in der vergangenheit, noch in der gegenwart, noch in der zukunft eine Domäne einer der beiden (oder generell irgendeiner hardwarefirma) war, ist oder sein wird. Das ist teil des marketings und ist genauso instrument von ati wie von nv. Teilweise auch unumgänglich weil eben sich produktionsprozesse und auschussquoten zukünftiger hardware nur sehr vage und mit vielen fehlerquellen und unbekannten behaftet vorraussagen lassen.
Im gegensatz zu dir gehts vielen hier nämlich nicht um das gegenüberstellen: der hat dies gemacht- der hat aber das gemacht. Zumal bei der bewertung von technik und effizienz derlei nebenkriegsschauplätze pillepalle sind.

(del)
2005-12-12, 10:59:09
ATIs MIP-Map-Generierung ist ungenauer und wohl nur zufällig minimal näher am sRGB-Standard
Zufälle gibts. Wahnsinn...

Die gelbe Eule
2005-12-12, 12:31:57
Vielleicht sollte damit einfach nur darauf hingewiesen werden, das entgegen deiner dutzendfach geäusserten aussage paperlaunches weder in der vergangenheit, noch in der gegenwart, noch in der zukunft eine Domäne einer der beiden (oder generell irgendeiner hardwarefirma) war, ist oder sein wird. Das ist teil des marketings und ist genauso instrument von ati wie von nv. Teilweise auch unumgänglich weil eben sich produktionsprozesse und auschussquoten zukünftiger hardware nur sehr vage und mit vielen fehlerquellen und unbekannten behaftet vorraussagen lassen.
Im gegensatz zu dir gehts vielen hier nämlich nicht um das gegenüberstellen: der hat dies gemacht- der hat aber das gemacht. Zumal bei der bewertung von technik und effizienz derlei nebenkriegsschauplätze pillepalle sind.

Vielen geht es hier doch gar nicht darum, ob die GTX 512 oder die XT 512 lieferbar sind, weil keiner von denen, weder die eine noch die andere Karte kaufen wird. Das meine ich mit rumreiten. Mich persönlich würde es ziemlich ärgern, wenn eine Karte die ich schon länger kaufen möchte, gar nicht erscheint.

Aus eigener erfahrung kann ich dir sagen: wenn die grossen versender (die zum teil selbst distris sind bzw direkt dranhängen) keine karten haben, ist es bis auf ganz ganz wenige ausnahmefälle über sehr dunkle kanäle (die im übrigen dir sehr viel freude bei der RMA bearbeitung bereiten werden) ziemlich unmöglich als normaler Händler an karten zu kommen.


Es gibt Kontigente für den Online Verkauf und welche für den Ladenverkauf. Das da alleine preislich Welten zwischen liegen, kann man bei Atelco sehen. Wenn online steht im Versandlager gibt es keine Karten, dann kann nur keine versendet werden.

reunion
2005-12-12, 13:18:03
Vielen geht es hier doch gar nicht darum, ob die GTX 512 oder die XT 512 lieferbar sind, weil keiner von denen, weder die eine noch die andere Karte kaufen wird. Das meine ich mit rumreiten.


Wenn ich es nicht besser wüsste, würde ich sagen, du inszenierst hier eine Selbstdarstellung.
Denn ironischerweise bringst du genau das hier von dir beschriebene Verhalten ständig vor - freilich nur bei ATi-Karten.

Marc-
2005-12-12, 14:03:33
Vielen geht es hier doch gar nicht darum, ob die GTX 512 oder die XT 512 lieferbar sind, weil keiner von denen, weder die eine noch die andere Karte kaufen wird. Das meine ich mit rumreiten. Mich persönlich würde es ziemlich ärgern, wenn eine Karte die ich schon länger kaufen möchte, gar nicht erscheint..

DANN verwundert es mich umsomehr, dass du monatelang dutzendmal gebetsmühlenartig bei jeder passenden oder unpassenden gelegenheit auf die angebliche nichtverfügbarkeit der X1800XT hingewiesen hast (und dies bei der X1600 immer noch ständig tust). Eine Logik kann man da wohl im entferntesten nicht erkennen.
Soviel ich verstanden hab (und wie du an verschiedendsten stellen betont hast) hattest du selbst nicht vor eine dieser karten zu kaufen... warum also DEIN monatelanges herumreiten?



Es gibt Kontigente für den Online Verkauf und welche für den Ladenverkauf. Das da alleine preislich Welten zwischen liegen, kann man bei Atelco sehen. Wenn online steht im Versandlager gibt es keine Karten, dann kann nur keine versendet werden.

Ich versteh nicht wirklich was du sagen willst.
Fakt ist, es gibt in deutschland 2-3 grossdistributoren über die nahezu die gesamte hardware läuft. Wenn die in ihren angebundenen onlineshops keine karten anbieten, kannst du davon ausgehen, das die karten auf dem legalen weg in deutschland nicht zu bekommen sind. Natürlich gibts wege abseits der vorgegebenen Distris, da bekommste aber spätestens dann probleme wenns um RMA geht... denn es ist nahezu unmöglich ein Produkt was laut Produktnummer in die Türkei oder sonstwohin gegangen ist, bei ASUS deutschland zu reklamieren.
Nun magst du wieder mit deinem ATelco insider wissen argumentieren, ich kann dir nur versichern, dass es so ist.

Die gelbe Eule
2005-12-12, 14:26:32
Kann das mal aufhören auf meine Person einzugehen oder geht euch dabei einer ab, das gebetsmühlenartig ständig zu wiederholen, es nervt so langsam!

@Marc-:

Wenn du es mit versichern kannst, dann bitte eine Quelle angeben, danke. Ich war eben noch bei meinem Shop in der Stadt, der kann mir wirklich jede Karte bis morgen Nachmittag besorgen, das auf legalem Weg. Er ist weder Türke, noch Garagenverkäufer. Geht meine Karte kaputt, leiht er mir so lange eine andere aus. Und nein, er verkauft online nichts, da die Konkurrenz einfach zu groß ist und er als Kleinhändler keinen Abverkauf hätte.

reunion
2005-12-12, 18:11:49
Die XFX GeForce 7800 GTX 512MB geht bei eBay bereits für EUR 1.320,00 weg. :ucrazy2:

http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&item=8733107798&rd=1&sspagename=STRK%3AMEWA%3AIT&rd=1

Blaire
2005-12-12, 18:13:30
Die XFX GeForce 7800 GTX 512MB geht bei eBay bereits für EUR 1.320,00 weg. :ucrazy2:

http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&item=8733107798&rd=1&sspagename=STRK%3AMEWA%3AIT&rd=1

Jo das ist echt krank :D Aber man sieht es gibt Verrückte die sowas kaufen. :tongue:

Marc-
2005-12-12, 18:42:46
Kann das mal aufhören auf meine Person einzugehen oder geht euch dabei einer ab, das gebetsmühlenartig ständig zu wiederholen, es nervt so langsam!

@Marc-:

Wenn du es mit versichern kannst, dann bitte eine Quelle angeben, danke. Ich war eben noch bei meinem Shop in der Stadt, der kann mir wirklich jede Karte bis morgen Nachmittag besorgen, das auf legalem Weg. Er ist weder Türke, noch Garagenverkäufer. Geht meine Karte kaputt, leiht er mir so lange eine andere aus. Und nein, er verkauft online nichts, da die Konkurrenz einfach zu groß ist und er als Kleinhändler keinen Abverkauf hätte.


- "bis morgen nachmittag auf legalem weg..." fällt dir was auf? naja...wenn du das meinst, überzeugen kann man dich eh nicht.
Wenn man dich uebrigens so hoert, wann du wo wie bei "einem shop in deiner stadt" warst, und was du alles so in "erfahrung" bringst könnte man glatt meinen das tust du von morgens bis abends. Wie dem auch sei, besorg dir einen gewerbeschein und versuch dein glück. Ich kann dir gerne die ansprechpartner bei den zustaendigen distris geben.

"gebetsmühlenartig"... das als vorwurf aus deinem mund... das regt zum schmunzeln an.

Die gelbe Eule
2005-12-12, 18:48:34
Deine Aussage ist inhaltslos. Wenn ich eine Karte haben möchte, dann bekomme ich sie auch. Du kamst mit nicht legalen Mitteln um die Ecke, ich nicht.

Wo sind also die versicherten Quellen und von mir aus auch Ansprechpartner von den hiesigen Distributoren, die den deutschen Markt lenken? Ist das so ein großes Geheimnis oder hast einfach wieder etwas angesprochen und wirst nie wieder darüber ein Wort verlieren?

Was ich privat mache, ist online nicht relevant und sollte auch Dich nicht stören.

Überzeug mich und auch andere mal mit akuraten Quellen, wenigstens einmal.

Marc-
2005-12-12, 19:43:53
Deine Aussage ist inhaltslos. Wenn ich eine Karte haben möchte, dann bekomme ich sie auch. Du kamst mit nicht legalen Mitteln um die Ecke, ich nicht.

Wo sind also die versicherten Quellen und von mir aus auch Ansprechpartner von den hiesigen Distributoren, die den deutschen Markt lenken? Ist das so ein großes Geheimnis oder hast einfach wieder etwas angesprochen und wirst nie wieder darüber ein Wort verlieren?

Was ich privat mache, ist online nicht relevant und sollte auch Dich nicht stören.

Überzeug mich und auch andere mal mit akuraten Quellen, wenigstens einmal.

wortmann
Wavecomputer.
Damit duerftest du zwei relevante haben.

Die gelbe Eule
2005-12-12, 19:55:58
Dir ist bekannt das Wavecomputer/Maxcom aka Mixcomputer/Alternate ist oder?
Wortmann hat einen ganz anderen Kundenbereich, Business und LCDs, wüßte nicht das die als Distributor irgendwo tätig sind.

Warum musstest Du noch Deinen Post abändern, bist Dir selbst nicht so sicher?

*edit*

WAVE Computersysteme GmbH
Philipp-Reis-Str. 9
35440 Linden
Vertretungsberechtigte Geschäftsführer:
Carsten Kellmann

AdresseALTERNATE Computerversand GmbH
Philipp-Reis-Str. 9
35440 Linden
Geschäftsführer Carsten Kellmann

Lustig oder?

YfOrU
2005-12-12, 20:52:28
mit der 512er 7800 schauts net so gut aus
peacock, ingrammicro...vereinzelt bis garnichts
x1800xt 512 im ständigem Zulauf
und das sind jetzt wirklich keine kleinen distris...
war heute so um ca 14 Uhr

schmacko
2005-12-12, 21:02:57
Dir ist bekannt das Wavecomputer/Maxcom aka Mixcomputer/Alternate ist oder?
Wortmann hat einen ganz anderen Kundenbereich, Business und LCDs, wüßte nicht das die als Distributor irgendwo tätig sind.

Warum musstest Du noch Deinen Post abändern, bist Dir selbst nicht so sicher?

*edit*

WAVE Computersysteme GmbH
Philipp-Reis-Str. 9
35440 Linden
Vertretungsberechtigte Geschäftsführer:
Carsten Kellmann

AdresseALTERNATE Computerversand GmbH
Philipp-Reis-Str. 9
35440 Linden
Geschäftsführer Carsten Kellmann

Lustig oder?

das ist doch das, worauf marc- hinaus wollte. wenn es wave als distributor/reseller nicht hat, dann kann es doch alternate erst recht nicht haben.
das ist nicht lustig sondern normal.


http://www.wave-computer.de/wave/articleListing.html?cmd=showCatHeaders&cat1=9&cat2=256&cat3=000&

Marc-
2005-12-12, 21:05:47
Dir ist bekannt das Wavecomputer/Maxcom aka Mixcomputer/Alternate ist oder?
Wortmann hat einen ganz anderen Kundenbereich, Business und LCDs, wüßte nicht das die als Distributor irgendwo tätig sind.

Warum musstest Du noch Deinen Post abändern, bist Dir selbst nicht so sicher?

*edit*

WAVE Computersysteme GmbH
Philipp-Reis-Str. 9
35440 Linden
Vertretungsberechtigte Geschäftsführer:
Carsten Kellmann

AdresseALTERNATE Computerversand GmbH
Philipp-Reis-Str. 9
35440 Linden
Geschäftsführer Carsten Kellmann

Lustig oder?
Inwiefern lustig?
Wavecomputer ist letztendlich der distributor mit 2 direkt angebundenen webshops, alternate und mix. Selbiges gilt für wortmann. Du solltest nicht das was wortmann als webshop oder serviceleister verkauft sehen wenn wir ueber distributionen reden. Ganz simpel ausgedrueckt: du wirst wenig asus komponenten sehen (von asus deutschland) die nicht zuvor über wortmann gelaufen sind.
Ich weiss auch nicht inwiefern du in deinen "enthüllungen" zu sehen vermagst, was an meiner aussage irgendwie nicht stimmt. Aber mit deiner fachkenntnis wirst du sicher selbst eines schoenen tages einen shop aufmachen und spätestens dann wirst du erkennen, wie das laeuft. Bis dahin, gehab dich wohl und guts nächtle.