PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10

Gast
2004-05-17, 13:51:18
Original geschrieben von aths
FP16 ist niemals schlechter, oft besser als FX12.

Eben! Aber, warum gibts dann mit 1.1 Shader keine Kacheln und bei 2.0 Shader schon?

ow
2004-05-17, 14:10:19
.

Gast
2004-05-17, 14:23:37
Original geschrieben von ow
Was ist denn mit dir los?

Erst mit voellig unsinnigen Behauptungen hier um sich werfen wie:

"Würde der Shader bilinear filtern gäbs keine Kacheln."

"Dann liegt die Kachelung tatsächlich an der Partial Precision.."

und erst danach fragen??

Billiger Flameversuch koennte man meinen. Zumal das hier auch absolut garnichts mit dem Topic zu tun hat.

Was hast du denn für ein Problem?

Egal ob das jetzt Topic ist oder nicht. (auch mods diskutieren oftmal OT)


x) FarcryShader bei NV sehen tw. pointgefiltert aus

x) Demi/Aths meinen: "Nein das ist (wahrscheinlich)kein Pointfiltering"

x) Ich frage: "liegts den an der PP?"

x) aths meint (in etwa): "Unmöglich, FP16 ist immer in. gleichgut wie FX12

x) Ich frage: "Und woran liegts dann?"

x) ow kommt, und flamed herum

Gast
2004-05-17, 14:28:27
BTW: Definition von flame:
http://mypage.bluewin.ch/chesi/grafik/lexikon/lex_f.htm

Mit "Flame" (englisch für "Flamme") wird eine Meldung (E-Mail oder in den News) bezeichnet, die eine persönliche Attacke gegen jemanden enthält. Flames gehören dazu und sind teilweise amüsant, jedoch ist es sehr unfein, damit eine sachliche Diskussion vieler Unbeteiligter zu überfluten. Für wilde Flame-Schlachten (sogenannte Flame-Wars) gibt es geeignete Orte im Netz, z.B. die Newsgroup "alt.flame".


Hab ich etwa deine Person beleidigt, oder spielst du einfach wieder den Selbstlosen Rächer für alle ungerrechtigkeiten die dem armen hilflosen Kind Nvidia erfahren...

Oder waren meine Postings (bis jetzt) vielleicht doch keine Flames?

ow
2004-05-17, 14:38:53
.

DrumDub
2004-05-17, 14:46:30
um mal zum thema zurückzukommen: wie lässt sich der leistungsunterschied bei bi-af mit colored mipmaps on/off erklären? (siehe seahawks posting bzw. http://www.beyond3d.com/forum/viewtopic.php?p=285282#285282)

Tesseract
2004-05-17, 14:47:16
Original geschrieben von ow
Nein, gefragt hast du nicht, du hast Behauptungen aufgestellt.

das war eher eine vermutung als eine behauptung und ein flame erst recht nicht

du hättest ihm deine meinung auch freundlicher rüberbringen können

ow
2004-05-17, 14:50:23
.

Gast
2004-05-17, 14:56:05
Original geschrieben von ow
Nein, gefragt hast du nicht, du hast Behauptungen aufgestellt.


Aber fuer deine Unverschaemtheiten in den letzten beiden Postings kassierst du jetzt 2 Strafpunkte.


Musst nicht glauben, dass wir nicht wuessten, wer du bist.
Kannst dich also ruhig einloggen.

Bist du dir sicher? Ich poste von einer Uni aus! Da bin ich prinzipiell nicht eingeloggt.

Aber wenn du willst, lasse ich meinen Account löschen und poste fortan nurmehr als Gast, um deine idiotischen Strafpunkte ad absurdum zu führen (das gibt jetzt sicher noch einen Punkt)

Und jetzt ist echt Schluss mit OT (obwohl die Frage der Shaderqualität immernoch unbeantwortet ist)

aths
2004-05-17, 15:06:14
Original geschrieben von Gast
Eben! Aber, warum gibts dann mit 1.1 Shader keine Kacheln und bei 2.0 Shader schon? Das würde ich auch gerne wissen. Leider weiß ich es nicht.

MadManniMan
2004-05-17, 15:17:46
Geht es denn jetz schon wieder los? Ich dachte, ows Überempfindlichkeit sei endlich ausdiskutiert worden?

DanMan
2004-05-17, 15:58:34
Original geschrieben von Gast
Gut dass ich meine GF4TI noch habe. Nämlich genau aus diesem Grund habe ich bisher weder auf NV3x noch auf R3xx den Umstieg vollzogen. AF ist mir wichtig. Beim AA wäre ich mit 4xRG zufrieden fürs erste aber beim AF und Tri Filter will ich keine Abstriche machen.
Wenn das bei dieser Generation wieder so wird, setze ich erneut aus. Ich hoffe immer noch dass wenigstens Nvidia die volle Qualität nochmal per Treiber als Option zur abgespeckten anbietet. Dann würde ich auf NV4x umsteigen.
Willkommen im Club. :)

MarcWessels
2004-05-17, 16:13:04
Original geschrieben von HOT
In nicht allzuferner Zukunft sicherlich. Mal ehrlich, wer braucht eine NV40/R420XT wegen der Speed JETZT?

Also, die Speed könnte ich SEHR GUT gebrauchen!

MarcWessels
2004-05-17, 16:14:54
Original geschrieben von MadManniMan
Es wird immer Situationen geben, in denen wir in den Spielen was davon mitbekommen. Bestes Beispiel: Feinmaschige Gitter.

Nicht nur - erstens sieht man's auf dem Boden sowieso und wenn ich eine Wand vor mir habe und mich drhee, sehe ich eine Art Gardine, die ich hin wund herbewegen kann - eine Hälfte scharf, die andere mit einem Schlag völlig verblurred.

MarcWessels
2004-05-17, 16:15:54
Original geschrieben von HOT
wer ist schlimmer, NV oder ATI? NV hat standardmässig brilinear, und das wird auch solange net mehr deaktiviert, bis sich dadurch ein Nachteil für NV ergibt.

Der NV40 hat volles TRILINEARES Filtering! Wird im Retailtreiber wiederkommen.

betasilie
2004-05-17, 16:20:42
* Nicht richtig gelesen.

HOT
2004-05-17, 16:22:04
Original geschrieben von MarcWessels
Also, die Speed könnte ich SEHR GUT gebrauchen!

Wofür :| Ausser Starwars Galaxies, welches in vollen Details auch ne x800XT lustig auf 20FPS bremsen dürfte, wüsste ich jetzt kein unbedingtes Extrembeispiel, welches sich mit ner Radeon9800Pro/XT +4xAA nicht hervorragend spielen lässt.

ShadowXX
2004-05-17, 16:22:21
Original geschrieben von MarcWessels
Der NV40 hat volles TRILINEARES Filtering! Wird im Retailtreiber wiederkommen.

Wollen wir es hoffen.....

Genausogut könnte es sein, dass Sie Bri wieder zum Normalfall machen, da ATI wohl so einen Schalter nicht anbieten wird...

Aus demselben Grund könnte es allerdings auch sein, dass Sie es gerade deshalb anbieten werden..

Also wie gesagt...wollen wir es hoffen...falls ja, ist meine nächste wohl auch eine nv40..

HOT
2004-05-17, 16:23:24
Original geschrieben von MarcWessels
Der NV40 hat volles TRILINEARES Filtering! Wird im Retailtreiber wiederkommen.

Wir werden sehen... wenn das so ist, warte ich noch 3 Versionen ab und ERST DANN werde ich mir ne NV40 besorgen wenn bis dahin kein Serie5 Chip in Sichtweite ist.
Wenn der 61.11 offiziell wird, vergiss es mal schnell wieder.

ShadowXX
2004-05-17, 16:26:06
Original geschrieben von HOT
Wofür :| Ausser Starwars Galaxies, welches in vollen Details auch ne x800XT lustig auf 20FPS bremsen dürfte, wüsste ich jetzt kein unbedingtes Extrembeispiel, welches sich mit ner Radeon9800Pro/XT +4xAA nicht hervorragend spielen lässt.

Kommt auf die Auflösung drauf an...ich kenne da schon ein paar Games, die bei 1280x1024 4xAA/8x(Tri)AF anfangen sich zu "beschweren".

"Dank" TFT bin ich nunmal an diese Auflösung (für den Idealfall) gebunden...

Und du darfst auch nicht vergessen, dass neue Games kommen werden, die wie FC, durchaus mehr HW-Hunger haben werden wie die jetzigen...

HOT
2004-05-17, 16:29:33
Original geschrieben von ShadowXX
Kommt auf die Auflösung drauf an...ich kenne da schon ein paar Games, die bei 1280x1024 4xAA/8x(Tri)AF anfangen sich zu "beschweren".

"Dank" TFT bin ich nunmal an diese Auflösung (für den Idealfall) gebunden...

Und du darfst auch nicht vergessen, dass neue Games kommen werden, die wie FC, durchaus mehr HW-Hunger haben werden wie die jetzigen...

Ok, da ist was dran ;)

Godmode
2004-05-17, 16:33:13
Ich dachte eigentlich zum NV40 Launch cool endlich wieder gute IQ, hoffentlich lässt sich die Winkelabhängigkeit noch abstellen. Und dann liefert ATI ihre neuen Produkte, mit ihren scheiss Optimierungen aus und NV zieht nach. Es ist einfach erbärmlich was da abgeht aber ich würds auch nicht verstehn wenn mein Banknachbar schummeln würde und ich dürfte nicht!

Die einzige Möglichkeit diese Dreckscheatereinen zu unterbinden sehe bei M$. M$ müsste wirklich einen Standard definieren, wie das gefilter sein muss und nicht einfach irgendwie, so wie sie es jetzt machen.

Naja solange es keine Lehrbuch Qualität gibt, kauf ich sowiso keine der Karten!

Man müsste eine Einheit mit den ganzen Websites machen, und ihnen erklären wie uns die IHVs verarschen, aber wie sollt man zb denen bei Chip was erklären :) Dann sollte man sie richtig anprangern so das jeder DAU weiß das ATI und NV scheisse ist, dann würden ihnen die Cheatereien schon vergehen, wenn plötzlich die Umsätze einbrechen würden!!

naja ich warte bis es Finale Treiber gibt und male mir dann ein neues Bild!!

ShadowXX
2004-05-17, 16:36:26
Original geschrieben von bans3i
naja ich warte bis es Finale Treiber gibt und male mir dann ein neues Bild!!

wohl das beste was man momentan machen kann.....

mictasm
2004-05-17, 16:41:34
Original geschrieben von Gast
Gut dass ich meine GF4TI noch habe. Nämlich genau aus diesem Grund habe ich bisher weder auf NV3x noch auf R3xx den Umstieg vollzogen. AF ist mir wichtig. Beim AA wäre ich mit 4xRG zufrieden fürs erste aber beim AF und Tri Filter will ich keine Abstriche machen.
Wenn das bei dieser Generation wieder so wird, setze ich erneut aus. Ich hoffe immer noch dass wenigstens Nvidia die volle Qualität nochmal per Treiber als Option zur abgespeckten anbietet. Dann würde ich auf NV4x umsteigen.

Klar ist AF wichtig! Aber wenn ich durch diese Konsequenz (kein Kauf von aktueller Graka) nur noch in 800x600 Punkten spielen kann, nützt es meiner Meinung nach nicht wirklich viel...

Gruß,

MIC

MarcWessels
2004-05-17, 16:48:50
Original geschrieben von HOT
Wofür :| Ausser Starwars Galaxies, welches in vollen Details auch ne x800XT lustig auf 20FPS bremsen dürfte, wüsste ich jetzt kein unbedingtes Extrembeispiel, welches sich mit ner Radeon9800Pro/XT +4xAA nicht hervorragend spielen lässt.

Schon bei DTM Race Driver Teil 1 kann ich nur 4x AF voll TRI in 1024x768x32 + KEIN AA laufen lassen wenn ich nicht will, daß die Framerate unter 60fps während der Fahrt fällt.

Und das ist nur eines von VIELEN Beispielen.

Am liebsten hätte ich natürlich alle Spiele in 1600x1200 6xAA und 16x fulltri AF aber das wird wohl ein Wunschtraum bleiben - mit der NV40 eght das aber bei sehr vielen älteren Spielen! (ok, bis auf 6xAA)

HOT
2004-05-17, 17:04:08
Original geschrieben von MarcWessels
Schon bei DTM Race Driver Teil 1 kann ich nur 4x AF voll TRI in 1024x768x32 + KEIN AA laufen lassen wenn ich nicht will, daß die Framerate unter 60fps während der Fahrt fällt.

Und das ist nur eines von VIELEN Beispielen.

Am liebsten hätte ich natürlich alle Spiele in 1600x1200 6xAA und 16x fulltri AF aber das wird wohl ein Wunschtraum bleiben - mit der NV40 eght das aber bei sehr vielen älteren Spielen! (ok, bis auf 6xAA)

jaja, ist ja schon gut ;) siehe weiter oben.

Crushinator
2004-05-17, 17:16:46
Original geschrieben von DrumDub
um mal zum thema zurückzukommen: wie lässt sich der leistungsunterschied bei bi-af mit colored mipmaps on/off erklären? (siehe seahawks posting bzw. http://www.beyond3d.com/forum/viewtopic.php?p=285282#285282) Vermutung meinerseits: Bei dem Ganzen handelt es sich schlicht um einen Bug in der Implementierung dieses so tollen "Brilinear" im Treiber auf R420-Hardware.

Wavey wrote:
Bit comparisons of Trilinear vs Bilinear appear to show that X800 is doing "Brilinear" filtering by default - because the colouring of mipmaps appear to show that full trilinear is in operation the assumption is that when you look at normal images "Brilinear" is forced on by default but "removed" when coloured mips are in use.

However, 9600 shows similar behaviour under bit comparisons, and appears to have done so since its release (but without anyone noticing any "Brilinear" effects in games, as yet). But, when you turn down the texture slider on 9600 and the early drivers the texture quality is still lowered in comparisons of Bi-vs-Trilinear and the coloured mip maps show "Brilinear".
Einen so richtigen Sinn erkenne ich dabei jedenfalls nicht. Denn, wenn's keine Brilinear-Effekte in Spiele zu beobachten sind, frage ich mich ob man's überhaupt als "Brilinear" bezeichnen kann.....Hilfe, Knoten im Gehirn. :schmor:

Demirug
2004-05-17, 17:24:11
Original geschrieben von crushinator
Vermutung meinerseits: Bei dem Ganzen handelt es sich schlicht um einen Bug in der Implementierung dieses so tollen "Brilinear" im Treiber auf R420-Hardware.


Einen so richtigen Sinn erkenne ich dabei jedenfalls nicht. Denn, wenn's keine Brilinear-Effekte in Spiele zu beobachten sind, frage ich mich ob man's überhaupt als "Brilinear" bezeichnen kann.....Hilfe, Knoten im Gehirn. :schmor:

Was Dave meint ist das die 9600 das schon länger so macht es aber bis jetzt keinem aufgefallen war. Was wohl damit zusammenhängt das man bei den kleinen Karten eben nicht so genau hinsachut was die Bildqualität angeht.

Crushinator
2004-05-17, 17:35:42
Original geschrieben von Demirug
Was Dave meint ist das die 9600 das schon länger so macht es aber bis jetzt keinem aufgefallen war. Was wohl damit zusammenhängt das man bei den kleinen Karten eben nicht so genau hinsachut was die Bildqualität angeht. :o Gibt's Vergleichsbilder aus reelen Spielen, wo man dieses Brilinear trotz "Highest Texture Quality" auf der RV3xx bewundern darf? Kann man's denn überhaupt ohne Differenzbilder erkennen? und das Wichtigste: Ist es überhaupt nicht abschaltbar?

Demirug
2004-05-17, 17:39:12
Original geschrieben von crushinator
:o Gibt's Vergleichsbilder aus reelen Spielen, wo man dieses Brilinear trotz "Highest Texture Quality" auf der RV3xx bewundern darf? Kann man's denn überhaupt ohne Differenzbilder erkennen? und das Wichtigste: Ist es überhaupt nicht abschaltbar?

Brilinear verursacht Bugwellen die sieht man leider nicht auf Standbildern.

Die einzige Möglichkeit das ganze abzuschalten die ich bisher kenne sind eingefärbte Mips aber so kann man ja nicht spielen.

Crushinator
2004-05-17, 17:47:57
Original geschrieben von Demirug
Brilinear verursacht Bugwellen die sieht man leider nicht auf Standbildern. Sind diese Bugwellen auf RV3XX in Bewegung sicht-/wahrnehmbar? Wenn ich mich recht erinnere, waren die Brilinear-Effekte von vor 6 Monaten in Tron auch bei Standbildern wahrnehmbar, oder bring' ich da jetzt was durcheinander?

deekey777
2004-05-17, 18:00:37
RV350/360 bitte, da die ( :massa: ) 9500 Pro (bzw. 9500 Rev. 2->kastriert) basiert zwar auch auf einem RV-Chip (RV300), der aber ein R300 mit 128 Bit Speicheranbindung war.

Laut Fuad Abazovic (http://www.theinq.net/?article=15932) wird die X800XT (Platinum) mit 520/560 MHz getaktet.

Tesseract
2004-05-17, 18:04:52
Original geschrieben von deekey777
RV350/360 bitte, da die ( :massa: ) 9500 Pro (bzw. 9500 Rev. 2->kastriert) basiert zwar auch auf einem RV-Chip (RV300), der aber ein R300 mit 128 Bit Speicheranbindung war.

nein, die 9500 non-pro ist ein R300 mit deaktivierten pipes, die 9500pro sogar ein vollwertiger R300

Demirug
2004-05-17, 18:04:55
Original geschrieben von crushinator
Sind diese Bugwellen auf RV3XX in Bewegung sicht-/wahrnehmbar? Wenn ich mich recht erinnere, waren die Brilinear-Effekte von vor 6 Monaten in Tron auch bei Standbildern wahrnehmbar, oder bring' ich da jetzt was durcheinander?

Da müsste man mal jemanden fragen der TRON gespielt hat. Ich habe das nicht mehr so genau in Erinnerung.

Was die Bugwelle allgemeint angeht. Einder ist da empfinderlicher als der andere. Deswegen muss es nicht jeder bei jedem Spiel sehen.

Tesseract
2004-05-17, 18:08:57
hier müsste man es sehr gut sehen
http://www.gltron.org/

(hat nichts mit TRON 2.0 zu tun sondern ist schon älter)

deekey777
2004-05-17, 18:14:06
Original geschrieben von Tesseract
nein, die 9500 non-pro ist ein R300 mit deaktivierten pipes, die 9500pro sogar ein vollwertiger R300

Die 9500 Pro ist eine auf RV300 basierende Grafikkarte(128 bit, 8 Pixelpipelines, 8 PS, 4 VS), der RV300 ist wiederum ein R300 mit 128bit Speicheranbindung, die 9500 Pro hatte von Anfang an deswegen auch ihr eigenes Layout/Design der Platine. Die 9500(4 PS, 2 VS) non-pro Rev. 1 dagegen war zunächst eine 9700 non-pro mit 4 deaktivierten Pixelpipelines, welche mit etwas Glück wieder reaktiviert werden konnten (-> 256 bit, 8 PS, 4 VS). Einige Monate später kam die 9500 non-pro "Rev. 2", die auf der 9500 Pro Platine basierte und bei der auch die 4 Pixelpipelines deaktiviert wurden (welche aber auch mit etwas Glück reaktiviert werden konnten -> 9500 Pro).

Tesseract
2004-05-17, 18:17:38
die ganze 9500er serie ist doch aus den selben chipbeständen wie die 9700er serie

128 bit waren afaik nur am board verbaut

seahawk
2004-05-17, 18:19:51
Original geschrieben von deekey777
Die 9500 Pro ist eine auf RV300 basierende Grafikkarte(128 bit, 8 Pixelpipelines, 8 PS, 4 VS), der RV300 ist wiederum ein R300 mit 128bit Speicheranbindung, die 9500 Pro hatte von Anfang an deswegen auch ihr eigenes Layout/Design der Platine. Die 9500(4 PS, 2 VS) non-pro Rev. 1 dagegen war zunächst eine 9700 non-pro mit 4 deaktivierten Pixelpipelines, welche mit etwas Glück wieder reaktiviert werden konnten (-> 256 bit, 8 PS, 4 VS). Einige Monate später kam die 9500 non-pro "Rev. 2", die auf der 9500 Pro Platine basierte und bei der auch die 4 Pixelpipelines deaktiviert wurden (welche aber auch mit etwas Glück reaktiviert werden konnten -> 9500 Pro).

9500 und 9500pro sind beide R300. Beim 9500 wurden 4 der 8 Pipes abgeschlatet.
Die 9500pro hatte immer ein 128Bit Speicherinterface
Die 9500 gab es mit 128 und 256Bit

deekey777
2004-05-17, 18:20:10
Original geschrieben von Tesseract
die ganze 9500er serie ist doch aus den selben chipbeständen wie die 9700er serie

128 bit waren afaik nur am board verbaut

Gaynau, darum wurde die RV350 erfunden, mit der der AF Cheat kam. ;D

ow
2004-05-17, 18:20:41
.

Black-Scorpion
2004-05-17, 18:43:27
Hab ich was verpasst?
Gab/gibt es überhaupt einen RV300.

seahawk
2004-05-17, 18:47:13

MadManniMan
2004-05-17, 19:50:22
Deekey, siehs ein - du bist auf dem Holzweg!

ATi brachte die Radeon 9500 Pro, obwohl man wohl mit dem verhältnismäßig geringen Preis recht viel Verlust schrieb, um irgendwas in diesem Segment zu haben.

deekey777
2004-05-17, 20:47:41
Original geschrieben von MadManniMan
Deekey, siehs ein - du bist auf dem Holzweg!

ATi brachte die Radeon 9500 Pro, obwohl man wohl mit dem verhältnismäßig geringen Preis recht viel Verlust schrieb, um irgendwas in diesem Segment zu haben.

Das habe ich schon gemerkt - leider zu spät...

klaus
2004-05-18, 08:12:37
Da ein Grafikkartenneukauf bei mir "unausweichlich" ist, habe ich jetzt, nachdem ATi einer weiteren "Optimierung" überführt wurde, folgende Fragen an die Spezis unter uns:

1.) Wird es überhaupt möglich sein, diesen Filtering-Mischmasch, aus dem sich das jüngst entdeckte Problem mit der "Bugwelle" ergibt, softwareseitig (Treiber, tools) zu vermeiden?

2.) Wenn die Sache mit der "Bugwelle" die man im Spiel vor sich herschiebt, so gravierend sein soll, warum hat dann bisher kein einziger Tester darauf aufmerksam gemacht? Die können doch nicht alle schlechtere Augen haben als die von computerbase (oder wer auch immer das als Erster in der Praxis - also im Spiel - beobachtet hat)?

BUG
2004-05-18, 08:17:23
..die "Bug-Welle" erkennt man normalerweise nicht, die wird nur sichtbar wenn man zwei Bilder miteinander vergleicht (eins mit und eins ohne Optimierung) und die GAMA extrem anhebt.

cu
BUG

HOT
2004-05-18, 08:19:58
Original geschrieben von BUG
..die "Bug-Welle" erkennt man normalerweise nicht, die wird nur sichtbar wenn man zwei Bilder miteinander vergleicht (eins mit und eins ohne Optimierung) und die GAMA extrem anhebt.

cu
BUG

Quatsch ;)

Es kommt darauf an, ob es dir auffällt. Wenn es dir auffällt wird es extrem nerven ;)
Wenn man weiss, dass sie da ist, fällt sie in jedem Fall auf.

BUG
2004-05-18, 08:36:49
..glaub ich nicht oder hast du schon einen R420 in Aktion gesehen? ;) ..ich glaub nich, dass es auffällt (es wäre sonnnst schon bemerkt worden). Man is dem ja erst auf die Schliche gekommen, als man gemerkt hat das die Karte mehr Leistung bringt als die in der jeweiligen Filtereinstellung hätte haben sollen. ..die Optimierung an sich ist ja auch nicht schlecht und ich bin mir sicher ich würde sie nutzen!

Was die meisten hier nicht leiden können, is das Versteckspiel von ATI und das man die Optimierung nicht deaktivieren kann. ATI hätte das ja als was weis ich "Temporal AF" vermarkten können (mit eineinem "ein" und "aus" Schallter). Damit die Karte im Previews gut abschiedet, hätte man ja den Schallter deaktivieren können mit dem Hinweis das dieser Schallter erst in zukünftigen Catalyst Treiber funktionieren wird. ..der Aufschrei wäre auch hier groß gewesen, aber man hätte dieses Versteckspiel nicht gehabt und gleich alle Karten offen gelegt.

cu
BUG

HOT
2004-05-18, 08:40:38
Original geschrieben von BUG
..glaub ich nicht oder hast du schon einen R420 in Aktion gesehen? ;) ..ich glaub nich, dass es auffällt (es wäre sonnnst schon bemerkt worden). Man is dem ja erst auf die Schliche gekommen, als man gemerkt hat das die Karte mehr Leistung bringt als die in der jeweiligen Filtereinstellung hätte haben sollen. ..die Optimierung an sich ist ja auch nicht schlecht und ich bin mir sicher ich würde sie nutzen!

Was die meisten hier nicht leiden können, is das Versteckspiel von ATI und das man die Optimierung nicht deaktivieren kann. ATI hätte das ja als was weis ich "Temporal AF" vermarkten können (mit eineinem "ein" und "aus" Schallter). Damit die Karte im Previews gut abschiedet, hätte man ja den Schallter deaktivieren können mit dem Hinweis das dieser Schallter erst in zukünftigen Catalyst Treiber funktionieren wird. ..der Aufschrei wäre auch hier groß gewesen, aber man hätte dieses Versteckspiel nicht gehabt und gleich alle Karten offen gelegt.

cu
BUG

Da es sich hier wohl um eine andere Optimierung handelt als wir dachten (siehe ATI Forum), bin ich mir nicht mehr sicher ob es überhaupt eine sichtbare Bodenwelle gibt.
LEider hab ich das auf ner Radeon9600 noch net beobachten dürfen ;) muss ich am WE mal machen.
Die Bugwelle aber, die durch brilinear verursacht wird, kann man durchaus sehen.

robbitop
2004-05-18, 09:48:48
hm ich weiss nicht,wenn dann selten, oder ich bin blind X-D
aber razor gehts auch so und der hat bessere Augen als ich..

Exxtreme
2004-05-18, 10:15:41
Original geschrieben von BUG
..glaub ich nicht oder hast du schon einen R420 in Aktion gesehen? ;) ..ich glaub nich, dass es auffällt (es wäre sonnnst schon bemerkt worden). Man is dem ja erst auf die Schliche gekommen, als man gemerkt hat das die Karte mehr Leistung bringt als die in der jeweiligen Filtereinstellung hätte haben sollen. ..die Optimierung an sich ist ja auch nicht schlecht und ich bin mir sicher ich würde sie nutzen!

Ich glaube eher, daß sich die Reviewer zu stark auf die Tools verlassen haben... was man ihnen eigentlich nicht verübeln kann. Als alles i. O. schien dann haben sie ihre Timedemos laufen lassen ohne ganz genau hinzuschauen. Man hat ja noch was anderes zu tun als auf den Bildschirm zu starren.
Original geschrieben von BUG
Was die meisten hier nicht leiden können, is das Versteckspiel von ATI und das man die Optimierung nicht deaktivieren kann.

So sieht aus.

Sphinx
2004-05-18, 10:29:35
Original geschrieben von Exxtreme
Ich glaube eher, daß sich die Reviewer zu stark auf die Tools verlassen haben... was man ihnen eigentlich nicht verübeln kann. Als alles i. O. schien dann haben sie ihre Timedemos laufen lassen ohne ganz genau hinzuschauen. Man hat ja noch was anderes zu tun als auf den Bildschirm zu starren.

So sieht aus.


Das sie eine neuere Methode nutzen steht hier - welches in einem Review erwähnt wird :

Anisotropic Filtering:

We asked ATI if they had made any improvements on the Anisotropic Filtering side . As is well known, ATI’s AF method in the Radeon 9700/9800 series uses an adaptive algorithm that calculates the slope of each polygon to determine the optimal number of texture samples. They said that they have improved this algorithm so that it is more intelligent but nothing that would display any great AF quality differences in a game. The Radeon X800 series supports 2X, 4X, 8X and 16X AF. There will still be the option to select a performance mode that uses bilinear samples or a quality mode that uses trilinear samples.

Quelle : http://www.hardocp.com/article.html?art=NjEwLDc=


*PS : Ich hasse doppelposting kann mal einer alles auf einen Thread zusammenlegen ?

klaus
2004-05-18, 10:32:59
Worauf ich mit meinen Fragen hinaus wollte, ist, ob ich mir nun bezüglich der Bildqualität bedenkenlos eine X800 kaufen kann oder ob ich dann zwangsläufig mit (gravierenden) Einbußen spielen müsste. Zur Zeit spiele ich ja auf einer GF4Ti und allzu große Rückschritte will ich mit der neuen Karte natürlich nicht machen.

Fadl
2004-05-18, 10:34:54
Da du mit der GF4Ti bei den neueren Games wohl kaum AF und AA aktivieren kannst und dennoch spielbare Frameraten bekommst wirst du keine Qualitätseinbussen haben. Im Gegenteil!

tRpii
2004-05-18, 10:36:40
Das ist kein wirkliches Argument, denn AA/AF mit Klötzchengrafik sieht auch scheisse aus trotz AA/AF. (Mal Krass ausgedrückt)

Fadl
2004-05-18, 10:40:15
Naja aber du wirst mit einer X800 keine Klötzchengrafik sondern sehr hohe Auflösungen MIT AF und AA haben können.

tRpii
2004-05-18, 10:41:39
Ja damit war nur gemeint dass IQ-Verlust nicht in relation zum AA/AF steht. Ich will auf beides nicht verzichten und als User möchte ich schon gern selbst entscheiden was mir lieber ist, Performance oder IQ.

Fadl
2004-05-18, 10:43:43
Verstehe nicht genau was du meinst? WO verzichtest du denn bei einer neuen Graka ohne AF und AA ansonsten auf Bildqualität?

LovesuckZ
2004-05-18, 10:45:24
Original geschrieben von Fadl
Verstehe nicht genau was du meinst? WO verzichtest du denn bei einer neuen Graka ohne AF und AA ansonsten auf Bildqualität?

Keine trilineare Filterung...

Fadl
2004-05-18, 11:07:13
Ok, die Frage ist aber immnoch wie stark diese Qualitätsunterschiede denn nun wirklich sind.
Zudem denke ich man bekommt eine besser Qualität mit einer neuen Karte(sei es NVidia oder ATI). Denn dort kann man AF und AA bei fast jedem Game aktivieren und hat dann auf jeden Fall eine bessere Bildqualität auch wenn diese vielleicht nur brilinear oder im Falle von ATI mit "itelligent algorithm" arbeitet.. Wer es nicht machen würde braucht diese Karten auch nicht.

aths
2004-05-18, 11:19:41
Original geschrieben von Fadl
Verstehe nicht genau was du meinst? WO verzichtest du denn bei einer neuen Graka ohne AF und AA ansonsten auf Bildqualität? Keine echte trilineare Filterung, kein AF mit GeForce3-Qualität.

aths
2004-05-18, 11:21:53
Original geschrieben von Fadl
Ok, die Frage ist aber immnoch wie stark diese Qualitätsunterschiede denn nun wirklich sind.
Zudem denke ich man bekommt eine besser Qualität mit einer neuen Karte(sei es NVidia oder ATI). Denn dort kann man AF und AA bei fast jedem Game aktivieren und hat dann auf jeden Fall eine bessere Bildqualität auch wenn diese vielleicht nur brilinear oder im Falle von ATI mit "itelligent algorithm" arbeitet.. Wer es nicht machen würde braucht diese Karten auch nicht. Ich habe jetzt eine 5900 XT, die gegenüber der Ti 4600 sehr viel mehr Power hat. (Dass man das so merkt, hätte ich nicht gedacht.) Leider leider kann ich nicht die althergebrachte Texturqualität bekommen. Man kann in höheren Auflösungen spielen und ist noch immer schneller, aber von der Ti 4600 bin ich tri-mäßig nunmal verwöhnt und will lineare MIP-Interpolation über die ganze Textur.

Die 5900 hat genug Power dafür. Lustigerweise darf ich sie nicht nutzen wie ich will, sondern werde zu Leistung gezwungen, die ich gar nicht brauche.

robbitop
2004-05-18, 11:29:26
dann installier doch ein 4x.xx Treiber aths.
Schon bist du die Brilinearität los.

Godmode
2004-05-18, 11:38:33
Ich habe gestern wieder ein bisschen CounterStrike gezogt, auf meiner GF4 und hab mal mit und mal ohne AF gepspielt und ich muss sagen diese Bugwelle ist echt ein grauß!!

Also wie gesagt, wenn man sie mal sieht, schaut man nur mehr darauf und will das sie weg geht! Ich hoffe echt das sich da noch was ändern wird bei ATI und neuerdings auch bei NV FW 61.72(?) Es wäre echt schade wenn ich mit ner Highend Graka Low-End IQ hätte und die Highend Karte noch dazu CPU limietiert ist, wie Aths oben schon sagte!!

Gast
2004-05-18, 16:18:36
Weiß jmd. wo die Benchmarks zu Serious Sam 2 mit 800 Pro waren?

Uller
2004-05-18, 20:30:18
Hier z.B.: http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=11

Gast
2004-05-18, 21:51:23
Danke. Ich meinte allerdings Serious Sam 2 und nicht SS TSE. Irgendwo auf 3DC hatte jmd. eine Seite verlinkt bei der Pixel- und Vertex-Shader bei diesem Spiel getestet wurden.

tRpii
2004-05-18, 22:22:29
ehrlich gesagt glaub ich nicht das schon ss2 getestet wurde

Rellik327
2004-05-19, 09:50:46
Ist nicht Serious Sam TSE = The Second Encounter, also Teil 2?

HOT
2004-05-19, 09:57:35
Original geschrieben von robbitop
dann installier doch ein 4x.xx Treiber aths.
Schon bist du die Brilinearität los.

Toller Vorschlag ;) Was soll man mit einem Treiber mit lahmen Shadercompiler und Grafifehlern in neueren Spielen anfangen?

Gast
2004-05-19, 10:28:49
Original geschrieben von Gast
Danke. Ich meinte allerdings Serious Sam 2 und nicht SS TSE. Irgendwo auf 3DC hatte jmd. eine Seite verlinkt bei der Pixel- und Vertex-Shader bei diesem Spiel getestet wurden.

Habs jetzt selber gefunden. Es ist die Serious Sam 2 Engine:

http://www.pcekspert.com/articles/211-20.html

DanMan
2004-05-19, 16:01:09
Original geschrieben von Gast
Habs jetzt selber gefunden. Es ist die Serious Sam 2 Engine:

http://www.pcekspert.com/articles/211-20.html
Naja... dafür gewinnt ATI 3 von 4 Vertex-Shader Tests auf der nächsten Seite... Wenn auch nicht mit so großem Vorsprung wie nVidia bei den Pixel Shadern.

dildo4u
2004-05-19, 16:04:23
Original geschrieben von DanMan
Naja... dafür gewinnt ATI 3 von 4 Vertex-Shader Tests auf der nächsten Seite... Wenn auch nicht mit so großem Vorsprung wie nVidia bei den Pixel Shadern.
jo vor allem weil die X800XT fehlt

Winter[Raven]
2004-05-19, 16:09:48
Original geschrieben von dildo4u
jo vor allem weil die X800XT fehlt

jo vor allem die GF6800 Ultra EE fehlt.

reunion
2004-05-19, 16:39:23
Original geschrieben von Winter[Raven]
jo vor allem die GF6800 Ultra EE fehlt.

Die Karte gibt es nicht...

DanMan
2004-05-19, 16:39:27
Original geschrieben von dildo4u
jo vor allem weil die X800XT fehlt
Naja, wenn man sie vom Preis her vergleicht ist es unfair, ja. Wenn man sie nach geplantem Erscheinungsdatum vergleicht hingegen nicht.

reunion
2004-05-19, 16:43:13
Original geschrieben von DanMan
Naja, wenn man sie vom Preis her vergleicht ist es unfair, ja. Wenn man sie nach geplantem Erscheinungsdatum vergleicht hingegen nicht.

Was hat das mit dem Erscheinugstermin zutun?
Man vergleicht ja auch nicht zB FX5200 und Radeon 9800pro weil sie ungefair zu selben termin erschienen sind.

Sphinx
2004-05-19, 16:47:38
Original geschrieben von Winter[Raven]
jo vor allem die GF6800 Ultra EE fehlt.

Die wurde nur nachgeschoben um die Benchmarks Reihenfolge - die Länge der Balken - für sich zu entscheiden. Frei nach dem Motto - Hier so schnell können wir sein... Ist nur ein Prestige Fall.

Sie ist kein eigenständiges Produkt und wird von Nvidia auch nicht als solches vermarktet bzw. Es gibt nur den 400Mhz getakteten GF6800 Ultra.

dildo4u
2004-05-19, 16:49:09
Original geschrieben von Winter[Raven]
jo vor allem die GF6800 Ultra EE fehlt.
noch mal X800XT 499$ GF6800U 499$ direkte konkurenz wenn nach dir ginge müsste man also immer die X800pro 12pipes gegen die 6800U 16 pipes testen wa da mits für Nvidia auch fair ist :bonk:

reunion
2004-05-19, 16:52:18
Original geschrieben von dildo4u
noch mal X800XT 499$ GF6800U 499$ direkte konkurenz

Ja und eine höher getakteten NV40 gibt es auch nicht, es könnten höchstens ein paar Hersteller wie Gainward mit ihrer wassergekühlten Karte höhere Taktfrequenzen anbieten...

WEGA
2004-05-19, 17:14:53
Original geschrieben von Winter[Raven]
jo vor allem die GF6800 Ultra EE fehlt.

voll der NV fanatiker :down:

erstens ist es den einzelnen hersteller überlassen ne "EE" zu machen (wobei die mit ihren >120W totaler schwachsin ist)

zweitens passt ati ihre XT an. stichwort platinum
bzw ist die ktuelle test-xt nicht zur EE zu stellen sonder zur ULTRA !!!

:down: :down: :down:

LovesuckZ
2004-05-19, 17:32:30
/edit: ops.

dildo4u
2004-05-19, 17:42:00
Original geschrieben von LovesuckZ
/edit: ops. is aber opengl

LovesuckZ
2004-05-19, 17:44:29
Original geschrieben von dildo4u
is aber opengl

Und?

dildo4u
2004-05-19, 17:47:11
Original geschrieben von LovesuckZ
Und? muss wenn das in opengl das in DX auch so sein oder gibts da keine unterschiede? vielicht funzt das neue AF mit opengl noch nicht richtig

LovesuckZ
2004-05-19, 17:50:16
Original geschrieben von dildo4u
muss wenn das in opengl das in DX auch so sein oder gibts da keine unterschiede?

Das ist egal. Es gibt unter D3D und OpenGL beim r420 kein trilinear mehr. Wenn diese "künstliche Intelligenz" unter OpenGL schlechter arbeitet als unter D3D, dann hat ATi einfach selbst Mist gebaut.
Die Unterschiede koennten unter D3D ebenfalls so auftreten.

dildo4u
2004-05-19, 17:55:08
Original geschrieben von LovesuckZ
Das ist egal. Es gibt unter D3D und OpenGL beim r420 kein trilinear mehr. Wenn diese "künstliche Intelligenz" unter OpenGL schlechter arbeitet als unter D3D, dann hat ATi einfach selbst Mist gebaut.
Die Unterschiede koennten unter D3D ebenfalls so auftreten. naj mit diesen karte zockt man eh nie ohne AF mich würden vergleich shots mit AF und auch in DX interessieren

DrumDub
2004-05-19, 17:56:36
Original geschrieben von dildo4u
naj mit diesen karte zockt man eh nie ohne AF mich würden vergleich shots mit AF und auch in DX interessieren

das ist allerdings richtig. reines trilineat setzt kein mensch ein.

q@w
2004-05-19, 18:07:01
Original geschrieben von dildo4u
naj mit diesen karte zockt man eh nie ohne AF mich würden vergleich shots mit AF und auch in DX interessieren

Die UT2003-Shots auf CB waren mit 4xAA und <=16xAF, wenn ich mich da grad richtig erinnere.

MarcWessels
2004-05-19, 18:10:43
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/chat_ati_2100_uhr/

dildo4u
2004-05-19, 18:21:33
Original geschrieben von q@w
Die UT2003-Shots auf CB waren mit 4xAA und <=16xAF, wenn ich mich da grad richtig erinnere. ja aber da sehe ich keine unterschiede vor allem keine harten textur übergänge

Gast
2004-05-19, 18:39:52
Original geschrieben von MarcWessels
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/chat_ati_2100_uhr/
Damit geht ATI auf die Community zu. Es besteht genug Erklärungsbedarf und nun hat man die Gelegentheit mit den Entwicklern der Algos zu reden. Wer dort im Chat flamed und nicht konstruktiv fragt, der outed sich als wahrer Hitz- und Hohlkopf!

Experten der 3DC - Nutzt die Gelegentheit, Infos für das 3DC Forum zu sammeln!

Thowe
2004-05-19, 19:10:08
Original geschrieben von WEGA
voll der NV fanatiker :down:

erstens ist es den einzelnen hersteller überlassen ne "EE" zu machen (wobei die mit ihren >120W totaler schwachsin ist)

zweitens passt ati ihre XT an. stichwort platinum
bzw ist die ktuelle test-xt nicht zur EE zu stellen sonder zur ULTRA !!!

:down: :down: :down:

Du kannst ihn ja gerne dafür halten, ihn aber deswegen anzumachen ist unsinnig, also spare dir die Art von Unterstellungen für die Zukunft.

dildo4u
2004-05-21, 13:46:09
http://www.ati-news.de/HTML/Berichte/Sapphire/RX800-Pro/Sapphire-RX800-Pro-Seite1.shtml

Test der Sapphire X800Pro von ATI-news.de

http://www.ati-news.de/Bilder/Sapphire/RX800-Pro/Bench/aquam/1280_4x_8x.gif


http://www.ati-news.de/Bilder/Sapphire/RX800-Pro/Bench/farcry/1280_4x_8x.gif

Gast
2004-05-21, 13:59:48
ich denke nicht das es das overdrive feature ist sondern der wert auf den sie die karte geoct haben!

mcluemmel

kami
2004-05-21, 14:07:27
Original geschrieben von Gast
ich denke nicht das es das overdrive feature ist sondern der wert auf den sie die karte geoct haben!

mcluemmel

Jupp, stimmt. Sind die Werte von der Karte oc'ed auf 567/530.
Man sollte eben nicht nur auf die Bildchen gucken. ;)

dildo4u
2004-05-21, 14:10:01
Original geschrieben von kami
Jupp, stimmt. Sind die Werte von der Karte oc'ed auf 567/530.
Man sollte eben nicht nur auf die Bildchen gucken. ;) sorry kein bock zum lesen gehabt muss gard mein sys neu aufsetzen

reunion
2004-05-21, 14:31:40
Auch MSI bringt die X800 offensichtlich im Referenzdesign:

http://www.ati.com/images/headers/entertainment/header_msi.jpg

http://www.ati.com/buy/promotions/msirx800/index.html

Hellfire-Torrod
2004-05-21, 14:37:02
Das Referenzdesinge der Radeon x800 karten scheint sehr beliebt zu sein!

dildo4u
2004-05-21, 14:39:55
Original geschrieben von Hellfire-Torrod
Das Referenzdesinge der Radeon x800 karten scheint sehr beliebt zu sein! zu recht laut pcgh hat leuft der referenz lüfter nur mit 7V und mit sher leisen
1.5 sone der von der 9800XT der auch schon recht leise war hatte den selbe lüfter aber mit 12V und 3.2sone

Winter[Raven]
2004-05-21, 14:39:55
Falsch, ATI erlaubt es seinen Partnern keine eigene Lösungen mehr zubringen. Das war ja auch der Grund wieso Hercules und Terratec sich verabschiedet haben :(

reunion
2004-05-21, 14:40:04
Original geschrieben von Hellfire-Torrod
Das Referenzdesinge der Radeon x800 karten scheint sehr beliebt zu sein!


Oder ATI besteht darauf das Referenzdesign zu verwenden...
Ist natürlich grundsätzlich nichts schlechtes, da das Referenzdesign keine PCI-Slot blockiert und auch leise ist, allerdings würde etwas abwechslung auch nicht schaden.

//Edit: Weiss eigendlich jemand was das für eine Sinn haben soll?
Wenn die Hersteller nurnoch das Referenzdesign verwenden dürfen kann man die Karten auch gleich so wie früher selbst verkaufen.

InsaneDruid
2004-05-21, 14:49:17
Naja Referenzdesign sichert halbwegs das alle Karten qualitativ sehr ähnlich sind. (dunno ob auch die Bauteile da einer REgelung unterliegen) Danach haben doch alle geschrien in Zeiten als man nur Diamond und ein paar andere Karten kaufen konnte, wollte man nicht matschige Ausgänge und köchelnde Chips haben.
Was soll ein anderes Design eigentlich auch bringen, außer Mehraufwand oder sinnbefreite Kühler in Form von Herstellerlogos etc?

DanMan
2004-05-21, 14:50:10
Original geschrieben von reunion
//Edit: Weiss eigendlich jemand was das für eine Sinn haben soll?
Wenn die Hersteller nurnoch das Referenzdesign verwenden dürfen kann man die Karten auch gleich so wie früher selbst verkaufen.
Kosten.

reunion
2004-05-21, 14:51:12
Original geschrieben von InsaneDruid
Naja Referenzdesign sichert halbwegs das alle Karten qualitativ sehr ähnlich sind. (dunno ob auch die Bauteile da einer REgelung unterliegen) Danach haben doch alle geschrien in Zeiten als man nur Diamond und ein paar andere Karten kaufen konnte, wollte man nicht matschige Ausgänge und köchelnde Chips haben.
Was soll ein anderes Design eigentlich auch bringen, außer Mehraufwand oder sinnbefreite Kühler in Form von Herstellerlogos etc?

Oder man versucht einfach den preis zu drücken, da sich kein Hersteller mehr absetzten kann und dadurch nurnoch der preis entscheidet :naughty:

Hellfire-Torrod
2004-05-21, 14:52:47
Vieleicht will man auch einfach, das alle karten gleich aussehen!
Vieleicht damit man die Karten sofort erkennt und nicht erst überlegen muss, was das den nun sei!

Herstellerpsychologie :D

Exxtreme
2004-05-21, 14:54:10
Original geschrieben von Winter[Raven]
Falsch, ATI erlaubt es seinen Partnern keine eigene Lösungen mehr zubringen. Das war ja auch der Grund wieso Hercules und Terratec sich verabschiedet haben :(
War sagt das? :???:

Ich glaube eher, daß sich ein Design für alle Hersteller eher rechnet als wenn jeder Hersteller ein eigenes Design entwickeln muss.

dildo4u
2004-05-21, 14:58:59
Original geschrieben von Winter[Raven]
Falsch, ATI erlaubt es seinen Partnern keine eigene Lösungen mehr zubringen. Das war ja auch der Grund wieso Hercules und Terratec sich verabschiedet haben :(
Tjo dagegen spricht aber die ICEQ von HIS

http://www.computerbase.de/picture/news/7645/10.jpg

DrumDub
2004-05-21, 14:59:12
Original geschrieben von reunion
Oder ATI besteht darauf das Referenzdesign zu verwenden...
Ist natürlich grundsätzlich nichts schlechtes, da das Referenzdesign keine PCI-Slot blockiert und auch leise ist, allerdings würde etwas abwechslung auch nicht schaden.

es gibt ja die karte mit dem neuen arctic-cooling vga-silencer von sapphire und his. damit kein referenzdesign (zumindest nicht beim kühler).

//Edit: Weiss eigendlich jemand was das für eine Sinn haben soll?
Wenn die Hersteller nurnoch das Referenzdesign verwenden dürfen kann man die Karten auch gleich so wie früher selbst verkaufen.

nope. das ganze nennt man plattformdenken. guck dir mal die automobilindustrie an. da gibts auch in erster linie nur noch unterschiedliche marken, bei denen das gleiche drin steckt (z.b. vw, seat und skoda).

bei nv ist es übrings genauso. die pcbs haben nur unterschieliche farben und andere lüfter. am referenzdesign des pcbs ändert sich nix.

[dzp]Viper
2004-05-21, 15:05:01
Original geschrieben von dildo4u
Tjo dagegen spricht aber die ICEQ von HIS

http://www.computerbase.de/picture/news/7645/10.jpg

boarddesign != Kühldesign

das boarddesign gibt ATI vor - was die mit den Kühllösungen machen, ist ihnen (zum glück) noch selber überlassen

dildo4u
2004-05-21, 15:07:07
Original geschrieben von [dzp]Viper
boarddesign != Kühldesign

das boarddesign gibt ATI vor - was die mit den Kühllösungen machen, ist ihnen (zum glück) noch selber überlassen axo ich dachte es ging jetzt um die kühlösung

HOT
2004-05-21, 15:07:45
Das das Boarddesign nicht frei ist, ist gut so, denn sonst hätten wir wieder jede menge unbrauchbaren KRempel mit schrottiger Signalqualität. Das hat man ja bei der 8500er Serie gesehen, als die Regeln noch nicht so festgelegt waren. Ich glaube schon, dass Boardentwickler noch eigene Boards entwickeln dürfen, aber dann nur unter auflagen. Da das aber nichts anderes als Kosten verursacht, hat sich das Thema damit wieder schnell erledigt ;)

Exxtreme
2004-05-21, 15:10:06
Original geschrieben von [dzp]Viper
das boarddesign gibt ATI vor - was die mit den Kühllösungen machen, ist ihnen (zum glück) noch selber überlassen
Ich glaube eher, daß ATi die Bauteile vorgibt. Was ich ziemlich gut finde. Ansonsten würde es bald eine Signalqualität geben wie bei einer typischen GF2. :freak:

HOT
2004-05-21, 16:34:03
Original geschrieben von Exxtreme
Ich glaube eher, daß ATi die Bauteile vorgibt. Was ich ziemlich gut finde. Ansonsten würde es bald eine Signalqualität geben wie bei einer typischen GF2. :freak:

ich hatte mal so ne tolle Geforce2MX von Gainward, auf der war die Signalqualität echt die Hölle ;)

Man muss dazusagen, dass nicht nur die Bauteile daran schuld sind, dass die SQ net dolle ist, sondern auch der Grafikchip.
Lauf AITNews ist die X800 net so pralle was die SQ ggü. den 9700/9800 Chips angeht.

Eine wirklich gute SQ hatte damals die Diamond ViperII (S2k). Eine solche hab ich bisher net wieder gesehen.

Quasar
2004-05-21, 16:35:20
Original geschrieben von HOT
Man muss dazusagen, dass nicht nur die Bauteile daran schuld sind, dass die SQ net dolle ist, sondern auch der Grafikchip.

Wie das?

Sphinx
2004-05-21, 16:37:43
Original geschrieben von HOT
Eine wirklich gute SQ hatte damals die Diamond ViperII (S2k). Eine solche hab ich bisher net wieder gesehen.

Meine Voodoo5.5500 hatte die beste SQ.

ice cool69
2004-05-21, 17:43:47
@ HOT

Das wüsste ich jetzt aber auch gern, wie der GRAFIKchip Einfluss auf die SIGNALqualität haben soll...

LovesuckZ
2004-05-21, 17:49:16
Original geschrieben von Exxtreme
Ich glaube eher, daß ATi die Bauteile vorgibt. Was ich ziemlich gut finde. Ansonsten würde es bald eine Signalqualität geben wie bei einer typischen GF2. :freak:

Man spart nicht nur am trilinearen Filter, sondern wohl auch an der Signalqualitaet (finden das eigentlich einige auch gut?!).

[...]die Radeon X800 Pro [...] überzeugte uns die Signalqualität leider nicht. Aufmerksamen ATI-News Lesern dürfte der Signalverlauf schon von unseren Radeon 9600 XT Reviews bekannt sein, denn diese kämpfen mit dem gleichen Phänomen.


http://www.ati-news.de/HTML/Berichte/Sapphire/RX800-Pro/Sapphire-RX800-Pro-Seite2.shtml

ice cool69
2004-05-21, 17:57:48
Klar stört das, was denkst du denn.

MarcWessels
2004-05-21, 19:14:19
Wie steht's denn um die Signalqualität der 6800U-Karten? Wurde die eigentlich schon irgendwo getestet?

Gast
2004-05-21, 23:08:58
Original geschrieben von LovesuckZ
Man spart nicht nur am trilinearen Filter, sondern wohl auch an der Signalqualitaet (finden das eigentlich einige auch gut?!).

[...]die Radeon X800 Pro [...] überzeugte uns die Signalqualität leider nicht. Aufmerksamen ATI-News Lesern dürfte der Signalverlauf schon von unseren Radeon 9600 XT Reviews bekannt sein, denn diese kämpfen mit dem gleichen Phänomen.


http://www.ati-news.de/HTML/Berichte/Sapphire/RX800-Pro/Sapphire-RX800-Pro-Seite2.shtml
Einer der Gründe könnte sein, dass bedingt durch den neuen Fertigungsprozess größere Abstrahlwerte auftreten und man mehr filtern muss, um ein relativ sauberes Signal abzuliefern.
Hiervon werden wohl alle Radeon X800 Pro und XT Grafikkarten der verschiedenen Hersteller betroffen sein, weil man ausschließlich das Referenzdesign von ATI verwenden wird.

Ein guter Grund sich keine Ati Karte zu kaufen!

StefanV
2004-05-21, 23:38:29
Original geschrieben von Gast
Ein guter Grund sich keine Ati Karte zu kaufen!

Wer sagt, daß es bei nV besser sein wird?? :|

PS: eine MSI FX5900 soll eine schlechtere SQ haben als eine FX5200 :eyes:

Gast
2004-05-22, 00:29:29
Nvidias Karten durchlaufen einen Qualitätsstandard. Meines Wissens gibt es sowas bei Ati nicht

Gast
2004-05-22, 00:31:38
Dass es auch anders geht, beweist MSI mit GeForce FX 5700 Ultra, welche mit einem sehr sauberen Signal überzeugen konnte. Schade, denn in der Vergangenheit konnten ATI bisher immer eine leicht bessere Signalqualität als nVidia Grafikkarten abliefern.

BlueRaven
2004-05-22, 00:54:58
ATI hat 100% Signal Qualität Probleme was ich bei verschiedenen modellen feststellen musste.



mfg
BlueRaven

AlfredENeumann
2004-05-22, 01:00:19
Original geschrieben von Winter[Raven]
Falsch, ATI erlaubt es seinen Partnern keine eigene Lösungen mehr zubringen. Das war ja auch der Grund wieso Hercules und Terratec sich verabschiedet haben :(

Nö.

AlfredENeumann
2004-05-22, 01:02:41
Original geschrieben von [dzp]Viper


das boarddesign gibt ATI vor -

Nö. Es bleibt jedem Frei sein eigenes Board Design zu machen. Nur macht es keiner weil es extra Geld kostet und schwachsinn ist weil ja schon ein Design existiert.

DanMan
2004-05-22, 01:17:18
Original geschrieben von Gast
Dass es auch anders geht, beweist MSI mit GeForce FX 5700 Ultra, welche mit einem sehr sauberen Signal überzeugen konnte. Schade, denn in der Vergangenheit konnten ATI bisher immer eine leicht bessere Signalqualität als nVidia Grafikkarten abliefern.
Schlimm diese Behauptungen ohne jegliche Beweise.
Tatsache ist, dass die Signalqualität in erster Linie vom Boardhersteller und den von ihm verwendeten Bauteilen abhängt. Der Grafikchiphersteller spielt da überhaupt keine Rolle.

http://www.tecchannel.de/hardware/583/9.html

Gast
2004-05-22, 02:02:31
Original geschrieben von DanMan
Schlimm diese Behauptungen ohne jegliche Beweise.
Tatsache ist, dass die Signalqualität in erster Linie vom Boardhersteller und den von ihm verwendeten Bauteilen abhängt. Der Grafikchiphersteller spielt da überhaupt keine Rolle.

http://www.tecchannel.de/hardware/583/9.html

Bissl alt meinst du nicht ;) Früher war alles besser ne

DanMan
2004-05-22, 02:12:22
Original geschrieben von Gast
Bissl alt meinst du nicht ;) Früher war alles besser ne
1. Ändert das an meiner Aussage und dem Grundprinzip nichts
2. Wer hat denn "In der Vergangenheit" geschrieben?

StefanV
2004-05-22, 08:17:27
Original geschrieben von Gast
Dass es auch anders geht, beweist MSI mit GeForce FX 5700 Ultra, welche mit einem sehr sauberen Signal überzeugen konnte. Schade, denn in der Vergangenheit konnten ATI bisher immer eine leicht bessere Signalqualität als nVidia Grafikkarten abliefern.

FX5700 != FX5900.

Ich bin durchaus der Meinung, daß die FX5900 bessere Spannungsregler benötigt, wenn man den SPeicher mal unterschlägt...

Auch dürfte eine FX5900 näher am Technisch machbaren sein als eine FX5700, auch wenn eine FX5700 ULTRA super tollen Heizspeicher nach DDR-2 Norm besitzt, wie schon die FX5800...

StefanV
2004-05-22, 08:19:44
Original geschrieben von Gast
Nvidias Karten durchlaufen einen Qualitätsstandard. Meines Wissens gibt es sowas bei Ati nicht

Nö, nicht wirklich, deswegen sind ja auch alle Karten ziemlich gleich gut :eyes:

Oder hatte ATi nicht schon vor nV ein Qualitätsicherungsprogramm :kratz:

r@h
2004-05-22, 08:26:35
Original geschrieben von Stefan Payne
Wer sagt, daß es bei nV besser sein wird??

PS: eine MSI FX5900 soll eine schlechtere SQ haben als eine FX5200Na, da glaub' mal dran...
Original geschrieben von BlueRaven
ATI hat 100% Signal Qualität Probleme was ich bei verschiedenen modellen feststellen musste.Also zumindest die R9800p von DELL, die ich hier zur Zeit im rechner hab', hat eine absolut astreine SQ... wie auch vorher meine FX5900 von MSI (VDT-128 Vivo) oder die passive FX5200 von Albatron/Club3D.

Also irgendwie...

Razor

r@h
2004-05-22, 08:27:51
Original geschrieben von ice cool69
Das wüsste ich jetzt aber auch gern, wie der GRAFIKchip Einfluss auf die SIGNALqualität haben soll... DAS würde mich wirklich auch mal interessieren !
:kratz:

Razor

Grestorn
2004-05-22, 09:21:59
Original geschrieben von HOT
ich hatte mal so ne tolle Geforce2MX von Gainward, auf der war die Signalqualität echt die Hölle ;)

Man muss dazusagen, dass nicht nur die Bauteile daran schuld sind, dass die SQ net dolle ist, sondern auch der Grafikchip.
Lauf AITNews ist die X800 net so pralle was die SQ ggü. den 9700/9800 Chips angeht.

Eine wirklich gute SQ hatte damals die Diamond ViperII (S2k). Eine solche hab ich bisher net wieder gesehen.
Aber ehrlich gesagt, wen interessiert zu Zeiten von DVI noch die SQ?

Ok, viele meinen ein LCD Bildschirm sei zu langsam für schnelle Spiele. Offenbar bin ich selbst zu langsam um die Schlieren zu sehen, denn ich habe damit keinerlei Probleme...

Also, die SQ ist - Gott sei Dank - für mich nicht mehr von Belang.

Gruß, Martin

Grestorn
2004-05-22, 09:24:44
Aber wenn's wen interessiert... Ich werd heute mal die x800 am Zweitmonitor (22" Röhre) anschliessen. Ich kann leider das Signal nicht messen, da ich keine Osci habe. Aber wenn das Bild matschig wegen schlechter SQ ist, dann sieht man das auch so.

Gruß, Martin

InsaneDruid
2004-05-22, 10:37:15
Original geschrieben von Gast
Nvidias Karten durchlaufen einen Qualitätsstandard. Meines Wissens gibt es sowas bei Ati nicht

Leute.. lernt doch mal nebenbei Deutsch. Einen Standard kann man nicht "durchlaufen". Ein solcher wird evtl gesichert, oder erreicht, und zwar durch das Durchlaufen eines Qualitätssicherungsprogramms, oder einer Qualitätskontrolle, oder.. da lassen sich ne Menge passender Wörter finden.

MarcWessels
2004-05-22, 16:32:37
Original geschrieben von grestorn
Ok, viele meinen ein LCD Bildschirm sei zu langsam für schnelle Spiele. Offenbar bin ich selbst zu langsam um die Schlieren zu sehen, denn ich habe damit keinerlei Probleme...

Einsicht ist der erste Weg zur... ;D

MadManniMan
2004-05-22, 20:17:09
Original geschrieben von MarcWessels
Einsicht ist der erste Weg zur... ;D

Akzeptiere endlich mal, daß für viele Leute die Vorteile von TFTs überwiegen. Ich z.B. bin seit einem halben Jahr überzeugtestens auf dem LCD-Trip, kann aber zumindest deine Argumente nachvollziehen und stell dich nicht dauernd als strange hin ;(

Also, nix rumbash0rn, sondern STFU :freak:

;)

InsaneDruid
2004-05-22, 20:20:37
Ich glaube MW IST auf dem TFT Trip.. also spricht FÜR TFTs...

Ich bin (noch) dagegen.. 11 Stück und alle Schrott.

MadManniMan
2004-05-22, 20:31:49
Original geschrieben von InsaneDruid
Ich glaube MW IST auf dem TFT Trip.. also spricht FÜR TFTs...

Ich bin (noch) dagegen.. 11 Stück und alle Schrott.

Er hat sich oft genug gegen diese geäußert. Und zu dir: hm, naja zwischen "Schrott" und "nicht mein Ding" liegen nicht nur ausdruckstechnisch Welten ;)

InsaneDruid
2004-05-22, 20:38:00
:) Naja ok, der Eizo war "nicht mein Ding", die restlichen Kisten aber doch eher "Schrott". Nicht nur (aber besonders) wenn man den Preis noch mit berücksichtigt.

Sphinx
2004-05-24, 08:03:13
Original geschrieben von InsaneDruid
:) Naja ok, der Eizo war "nicht mein Ding", die restlichen Kisten aber doch eher "Schrott". Nicht nur (aber besonders) wenn man den Preis noch mit berücksichtigt.

Ich kann dir den V7 TFT P17s 17" empfehlen.

http://www.videoseven.de/website/displays/de/produkte/displays/17_zoll/p17s/details.htm

q@w
2004-05-24, 08:35:39
Und ich kann euch Eizo T965 empfehlen. Sind zwar nur CRTs, aber mit die besten, die man unter 1500 EUR bekommen kann.

;Q

Crushinator
2004-05-24, 12:00:47
Da nehme ich lieber 'nen 21" IBM mit 0.24 pitch Trinitron und DVI. ;)

InsaneDruid
2004-05-24, 15:54:28
Original geschrieben von Sphinx
Ich kann dir den V7 TFT P17s 17" empfehlen.

http://www.videoseven.de/website/displays/de/produkte/displays/17_zoll/p17s/details.htm

Hm, soll ich jetzt lachen? Ein TN Teil?

Sphinx
2004-05-24, 18:38:09
Original geschrieben von InsaneDruid
Hm, soll ich jetzt lachen? Ein TN Teil?

" Nicht nur (aber besonders) wenn man den Preis noch mit berücksichtigt. "



TN Quelle (http://www.lampex.com/LCDFAQs.html)

Pros:

TN Economic to build, low tooling cost
Excellent choice for icons/segment drive.
True black and white operation
Fast response time when properly design
Good for Low MUX: direct drive to 1/16 (really max out at 1/4)
Well established technology, little surprise and has very high yield
Good for negative mode display

Cons:
Not good for high multiplex application, i.e. 1/16 can be the limit
Limited viewing cone (the higher the multiplex scheme, the narrower the cone)

InsaneDruid
2004-05-24, 18:41:39
Naja ich hab genug TN Paneele gesehen, sowas kommt mir nicht (mehr) ins Haus, Ein Monitor der nichtmal EINE Farbe fehlerfrei darstellen kann ist für mich kein Monitor.

Sphinx
2004-05-24, 18:48:43
Original geschrieben von InsaneDruid
Naja ich hab genug TN Paneele gesehen, sowas kommt mir nicht (mehr) ins Haus, Ein Monitor der nichtmal EINE Farbe fehlerfrei darstellen kann ist für mich kein Monitor.

Ich habe dieses TN TFT - und muß sagen für die meisten Ansprüche (Spielen 50%,Webdezign 50%) ist dieser erwähnte ein wirkliches Schnäppchen für einen 17"er und bietet wirklich eine gute BQ zutage. Mh welche Farbe stellt dieser denn Fehlerhaft dar - alle ? PS: Ich benutz bei Farbe Default 9300 k - und erkenne keine Farbfehler...

robbitop
2004-05-24, 18:51:54
WTF?
Sagmal was hast du für Augen, wenn TN für dich das Letzte ist? Ich hab mir gerad einen BneQ FP757 Rev2 geholt, der AFAIK TN hat (362€). Er erzeugt ein schärferes und von den Farben her besseres Bild als die CRTs die ich bisher gesehen hab und die Blickwinkel sind auch recht gut und mir fallen keine Schlieren auf.
Ich frage mich manchmal wie es kommt dass es Leute gibt die offenbar "Überaugen" haben...

Gast
2004-05-24, 18:57:08
Original geschrieben von robbitop
WTF?
Sagmal was hast du für Augen, wenn TN für dich das Letzte ist? Ich hab mir gerad einen BneQ FP757 Rev2 geholt, der AFAIK TN hat (362€). Er erzeugt ein schärferes und von den Farben her besseres Bild als die CRTs die ich bisher gesehen hab und die Blickwinkel sind auch recht gut und mir fallen keine Schlieren auf.
Ich frage mich manchmal wie es kommt dass es Leute gibt die offenbar "Überaugen" haben...

Andere wiederrum scheinen total Blind. Es gibt derzeit keinen Spieletauglichen TFT, CRT ist immer noch das Maß der Dinge. Wer was anderes behauptet hat ganz einfach keine Ahnung!

InsaneDruid
2004-05-24, 19:10:52
Ich spiele da vor allem auf die Helldunkelschwäche der Dinger ab, DER #1 Grund der TN Paneele für mich als Spielzeug abstempelt.

Bauart bedingt haben TNs einen sehr geringen vertikalen Blickwinkel, gepaart mit einer Helligkeitsänderung bei sich änderndem Winkel. Auf der einen Seite (meist von oben, je nach Einbaulage) wird alles heller, bis selbst Schwarz fast in Weiß übergeht, auf der anderen Seite alles Dunkler.

Schon bei 15" Diagonale ist nun aber der Unterschied obere zu untere Bildhälfte so groß das diese Farbverschiebungen schon ohne Kopfbewegung auftreten. (Weil die Blickwinkel ja unterschiedlich sind) Damit gehen die meisten Farben in einen Farbverlauf über, wenn sie vollflächig dargestellt werden, bzw werden, je nach Position auf dem Schirm heller oder dunker.

Farbe 55R55G55B (#373737) ist extrem, auch das Orange des 3DCenters tendiert schon dazu, eigentlich alle Farben die relativ dunkel sind. Je nach Panel ist es unterschiedlich, die 16ms AU sind schon etwas besser als die 20er Hydis, dafür können die AUs sowieso kaum Farben nativ darstellen und müssen farbdithern, was sie noch mehr abwertet, weil dadurch sogar flimmern erzeugt wird.

InsaneDruid
2004-05-24, 19:23:34
@Robbitop: dein erster TFT, stimmts?

Ich hatte persönlich über 10, dazu noch diverse bei Freunden, und einer meiner Kumpels ist Händler wo ich auch oft n Blick auf die Kisten werfe.

Besser in Sachen Farbe und Schärfe.. Schärfe ist klar, wobei da CRTs auch gleichziehen können (besser sicher nicht), wenn man n qualitativ hochwertigen nimmt. Aber Farbe.. nee, nicht mit nem TN oder selbst IPS Panel. N neueres MVA/PVA, mit 10Bit LUT, japp die sind IO, aber kein 16ms AU Optronics TN Paneel.

Mach einfach mal nen Schwarzweiß Farbverlauf über den Screen in PS und vergleiche den gegen nen CRT. Man beachte vor allem den Ameisenhaufeneffekt bei Ditherpaneelen. Oder mal ein paar Vollfarbflächen, von den Ausleuchtungsproblemen bei den preiswerteren Modellen mal garnicht angefangen.


@Gast: Spieletauglichkeit mal ganz außen vorgelassen, das ist ja noch ne ganz andere Angelegenheit, aber die TNs versagen ja schon "so".

Merlin31
2004-05-25, 18:11:01
keine Treiber mit folgenden Einstellungen:
Qualität = Lehrbuch Qualität
Performance = Für Benchmarks
Auto = Optimierungen schalten sich automatisch ein, wenn die FPS z.B. unter 25 Fallen.

Ich fände dan wären alle zufrieden mit.

Aquaschaf
2004-05-25, 18:16:41
Original geschrieben von Gast
Andere wiederrum scheinen total Blind. Es gibt derzeit keinen Spieletauglichen TFT, CRT ist immer noch das Maß der Dinge. Wer was anderes behauptet hat ganz einfach keine Ahnung!

Sehr witzig, selbst auf dem TFT Display des iMacs hatte ich keine Probleme FPS Shooter zu spielen.

Tesseract
2004-05-25, 22:33:42
Original geschrieben von Gast
Es gibt derzeit keinen Spieletauglichen TFT, CRT ist immer noch das Maß der Dinge.

so ist es

für ein gerät, dass die vorteile von CRTs und TFTs vereinet, würde ich wahrscheinlich auch >3000€ hinlegen

leider ist sowas nicht zu bekommen, um kein geld der welt :banghead:

Godmode
2004-05-26, 00:21:43
um was geht es den hier?

http://www.ati.com/online/project_aurora/

Crushinator
2004-05-26, 00:25:35
Um das (http://www4.tomshardware.com/graphic/19991008/fury-02.html) ging's da.

MarcWessels
2004-05-26, 01:41:54
Original geschrieben von InsaneDruid
dafür können die AUs sowieso kaum Farben nativ darstellen und müssen farbdithern, was sie noch mehr abwertet, weil dadurch sogar flimmern erzeugt wird.

...was DVDs auch zu einem echten "Genuß" werden läßt. :D Abgesehen davon fällt das DVD-Gucken auf'm TFT ja schon aufgrund dr fehelenden Möglichkeit, 100hz einzustellen zu können, flach. Gilt auch für PAL-Roms für'n C64, Amiga oder Atari ST...

robbitop
2004-05-26, 07:42:22
ja mein erster TFT.
Ich nutze ihn seit Wochen im Alltag. D.h surfn, arbeiten, spielen. Und bisher bin ich mehr als zufrieden. Aber vermutlich hab ich nur Durchschnittsaugen. Ich sehe zB bei 8x Quality AF meiner FX auch kein Mipbanding. Auch bei Max Payne 2 nicht. AA kann ich bis 6xMS hingegen sehen.
Vieleicht ist es ganz gut so, denn dann wirds billiger für mich ^^
Stimmt das mit dem Blickwinkel ist nunmal so, aber ich sitz eh direkt davor und habe somit nen recht guten Blickwinkel so dass der Effekt für mich nicht wirklich auftritt.

Radeonator
2004-05-26, 08:17:18
Original geschrieben von robbitop
.... Ich sehe zB bei 8x Quality AF meiner FX auch kein Mipbanding. Auch bei Max Payne 2 nicht. AA kann ich bis 6xMS hingegen sehen.
Vieleicht ist es ganz gut so, denn dann wirds billiger für mich ^^
Stimmt das mit dem Blickwinkel ist nunmal so, aber ich sitz eh direkt davor und habe somit nen recht guten Blickwinkel so dass der Effekt für mich nicht wirklich auftritt.

Joa, keine wunder : Durch die schlieren wird das ja auch alles überdeckt :lol:

Ne echt net, da muss man schon Blind sein, um den Unterschied net zu sehen :chainsaw:

tombman
2004-05-26, 08:45:20
Original geschrieben von InsaneDruid
@Robbitop: dein erster TFT, stimmts?

Ich hatte persönlich über 10, dazu noch diverse bei Freunden, und einer meiner Kumpels ist Händler wo ich auch oft n Blick auf die Kisten werfe.

Besser in Sachen Farbe und Schärfe.. Schärfe ist klar, wobei da CRTs auch gleichziehen können (besser sicher nicht), wenn man n qualitativ hochwertigen nimmt. Aber Farbe.. nee, nicht mit nem TN oder selbst IPS Panel. N neueres MVA/PVA, mit 10Bit LUT, japp die sind IO, aber kein 16ms AU Optronics TN Paneel.

Mach einfach mal nen Schwarzweiß Farbverlauf über den Screen in PS und vergleiche den gegen nen CRT. Man beachte vor allem den Ameisenhaufeneffekt bei Ditherpaneelen. Oder mal ein paar Vollfarbflächen, von den Ausleuchtungsproblemen bei den preiswerteren Modellen mal garnicht angefangen.


@Gast: Spieletauglichkeit mal ganz außen vorgelassen, das ist ja noch ne ganz andere Angelegenheit, aber die TNs versagen ja schon "so".

yepp, ich hab nen top CRT, SONY GDM-FW900, 24" Trinitron, 16:10, maximale res 2304x1440 ;) und der killt jeden TFT in games und auch so ;)
(kostet aber auch 2000€ neu, ich hab ihn bei ebay um 900€ geownt)


Aber TFTs sind eh bald tot--- OLED wird alles beherrschen ... Samsung hat schon 17" Prototyp :D

robbitop
2004-05-26, 10:12:11
hm schlieren tut er absolut nicht. Wirklich alles scharf, selbst bei UT2004.
Bei 8xQuality AF wird das Banding wohl sehr weit hinten sein und bei brilinear ist das Band oft nicht zu sehen..bei reinem BIlinear sehe ich es auch.

Razor geht es da genauso wie mir, und der hat eigentlich sehr gute Augen. Aber vieleicht weiss ich einfach noch nicht wo ich suchen soll..soviel Zeit hab ich mir dafür nicht genommen.

Den Unterschied zw dem R300 AF und dem NV3x AF sehe ich hingegen deutlich. Bei meinem Derzeitigen R9800SE AIW @PRO Testsample vermisse ich das NV AF schon sehr.

InsaneDruid
2004-05-26, 16:00:20
Also das mit den Schlieren.. na ich gönns dir, ich kenne auch Leute die bei nem PVS Panel keine sehen/sehen wollen. Wobei das Definitionssache ist.. SCHARF bleiben TFTs in Bewegung keinesfalls, ein Blureffekt tritt immer auf.

Coda
2004-05-26, 16:13:59
Aber TFTs sind eh bald tot--- OLED wird alles beherrschen ... Samsung hat schon 17" Prototyp
Jepp. Darauf warte ich nur noch. Vorher kommt mir kein son flaches Dingens ins Haus.
Leider ist die Haltbarkeit ja noch nicht so das wahre.

robbitop
2004-05-26, 16:52:22
leichter Blureffekt bei Texturen würde ich sagen. Aber ich denke ich bin einfach nicht aufmerksam genug oder meine Augen sind nur durchschnittlich. Die Games fesseln mich zu sehr =)
nein also wie gesagt..unscharfe Texturen und AA sehe ich deutlich aber der TFT ist wirklich gut finde ich.

Manchmal können gute Augen scheinbar ein Fluch fürs Potemonaise sein.

MarcWessels
2004-05-27, 00:25:49
Ohne Blureffekt würden se noch mehr fesseln...

WEGA
2004-05-27, 18:34:25
http://www.geizhals.at/deutschland/a98884.html

vv-computer hat nen netten lieferterming *g*

Mr. Lolman
2004-05-27, 18:41:49
Original geschrieben von WEGA
http://www.geizhals.at/deutschland/a98884.html

vv-computer hat nen netten lieferterming *g*

Sooo alt ist die neue ATi Technologie auch wieder nicht... ;D;D

WEGA
2004-05-27, 19:38:26
jetzt haben sie es gefixt. für alle unwissenden, da stand 1.1.1970

Gas3t
2004-05-29, 11:35:53
Sieht so aus, als würde ATI nicht die 800Pro gegen die 6800GT antreten lassen wollen, sondern die 800XT (ohne PE) - welche etwas niedriger als die 800XT PE getaktet ist:

http://www.theinquirer.net/?article=16206

dildo4u
2004-05-30, 22:11:08
http://www.firingsquad.com/hardware/x800_pro_pentium4/

Ein X800pro test mit CPU skalierung auf P4

WEGA
2004-05-31, 13:02:36
und wann kommt die x800Pro endlich?

ironMonkey
2004-05-31, 13:07:49
Im ATI Forum sind immherin schon 2 User unterwegs damit.

Gruß

[dzp]Viper
2004-05-31, 13:07:58
Original geschrieben von WEGA
und wann kommt die x800Pro endlich?

gibts doch schon überall auf der welt - nur nicht in europa.. die sind mal wieder hinten dran weil die IHV´s immer erst die USA und Japan beliefern und danach erst Europa...

Wenn man schnell ist, dann kann man eine erwischen da ab und zu mal ein paar läden ein paar karten bekommen welche aber wiederrum nach ca. 10 min verkauft sind :freak:

Thowe
2004-05-31, 13:32:14
Original geschrieben von WEGA
und wann kommt die x800Pro endlich?

Sapphire will ab Anfang Juni mit der Auslieferung in Stückzahlen beginnen, heisst, in etwa 8-10 Tagen sollte es einige Leute mehr geben, die diese Karte haben.

Der aktuell günstigst zu machende Preis wird in etwa z.Z. bei 410,- Euro für die Sapphire Retail Karte liegen, die Karten basieren zu 100% auf dem Original-ATI-Design.

[dzp]Viper
2004-05-31, 13:59:14
Original geschrieben von Thowe
Der aktuell günstigst zu machende Preis wird in etwa z.Z. bei 410,- Euro für die Sapphire Retail Karte liegen, die Karten basieren zu 100% auf dem Original-ATI-Design.

is schon bei 375€ laut Geizhals ;)
http://www.geizhals.at/deutschland/a98884.html

Gast
2004-05-31, 14:06:01
Naja Norsk IT wer da bestellt is selber schuld :P
der erste "gute" Anbieter steht bei knappen 400€, mit bissl Glück geht die Karte auf 350€ im July.

Thowe
2004-05-31, 14:53:38
Original geschrieben von [dzp]Viper
is schon bei 375€ laut Geizhals ;)
http://www.geizhals.at/deutschland/a98884.html

Nö, ich bezweifel das da Retail steht und ich bin kein Fan von beschränkter Gewährleistung.

reunion
2004-05-31, 15:21:29
Original geschrieben von Thowe
Nö, ich bezweifel das da Retail steht und ich bin kein Fan von beschränkter Gewährleistung.

Retail ab 390€:
http://www.geizhals.at/eu/a99843.html

MechWOLLIer
2004-05-31, 16:19:12
Warum wird eigentlich immer zuerst Japan und die USA beliefert? Von den USA höre ich immer nur, dass die Hardwaretechnisch nicht auf dem neuesten Stand sind(dafür I- Net). Von Europa lese ich immer genau das Gegenteil. Das ist doch nicht wirklich logisch.

FeuerHoden
2004-05-31, 16:38:27
Das sind nunmal die größeren Märkte. In Europa müssen die Hersteller mehr Aufwand betreiben um den gleichen Gewinn zu machen.

Gast
2004-05-31, 16:57:33
Wenn dashier stimmt, dann ist die X800 ziemlich CPU Abhängig! Hätte gedacht, dass die mehr kann :(
http://www.rage3d.de/radeon_x800pro_p10.php

ironMonkey
2004-05-31, 17:13:52
Wer sich eine X800Pro holt und in 1024er Auflösung spielt ist selbst bei A64 3400 CPU limitiert, von daher nur die Tests lesen wo AA und AF an sind, da sieth man dann auch warum es sich noch lohnt für nen XP 2000/P4 2000 so eine Karte zu holen.


Im übrigen sieht das nur nach runter gerechnet aus und nicht wirklich gebencht, weil zwischen zB. XP 2500 und XP300 liegen grad ein paar FPS die zwar Messbar aber nicht spürbar sind.


Gruß

Gast
2004-05-31, 17:32:01
Also nach gerechnet sieht mir das garnicht aus! Wie wäre es denn gerechnet? Es ist kein bestimmter Prozesntsatz oder so!
Und 22 Bilder von 1.6 auf 2.2GHz bei CoD klingen mir schon realistisch!

WEGA
2004-05-31, 17:35:00
Original geschrieben von Gast
Wenn dashier stimmt, dann ist die X800 ziemlich CPU Abhängig! Hätte gedacht, dass die mehr kann :(
http://www.rage3d.de/radeon_x800pro_p10.php

omg!! das ist doch nicht die schuld der karte O_o

da kapiert einer den logsichen zusammenhang zwishcen GPU und CPU nicht :no:

MechWOLLIer
2004-05-31, 18:35:44
bla bla blub, hier stand shit;)

WEGA
2004-05-31, 19:16:12
Original geschrieben von MechWOLLIer
bla bla blub, hier stand shit;)

selbsterkentniss ist der erste schritt zur heilung ;)

[dzp]Viper
2004-05-31, 19:41:25
Original geschrieben von Thowe
Nö, ich bezweifel das da Retail steht und ich bin kein Fan von beschränkter Gewährleistung.

hm hab das Bulk überlesen :massa:

aber 400€ steht es bereits für die full retail :)

Gast
2004-05-31, 19:55:09
Hat jemand die PCGH schon,wenn ja postet mal Ergebnisse vom Test X800pro vs. 6800GT

PP
2004-06-01, 00:18:58
Original geschrieben von ironMonkey
Im ATI Forum sind immherin schon 2 User unterwegs damit.

Gruß

Zwei? Eigentlich 3 ;D
2X HIS (grestorn und Ich) plus 1 Powercolor (ein Gast)

xL|Sonic
2004-06-01, 16:56:34
Weiss nicht, ob es hier schon woanders gepostet wurde:
http://www.elitebastards.com/page.php?pageid=4997&head=1&comments=1
Das ist wohl einer der Effekte bei Far Cry, der laut nvidia wohl angeblich nur mit SM3 möglich wäre....
Aber das zeigt auch wieder deutlich, dass nvidia auch nur mit Marketing versucht ihr SM3 feature unter die Leute zu bringen, dumm nur, wenn plötzlich Möglichkeiten sich ergeben, die diese ganzen SM3 only Effekte auch auf allen SM2 GrKa möglich machen bzw. generell möglich sind, aber das der Öffentlichkeit verheimlicht wird.

[dzp]Viper
2004-06-01, 17:01:11
Original geschrieben von Valmar
Weiss nicht, ob es hier schon woanders gepostet wurde:
http://www.elitebastards.com/page.php?pageid=4997&head=1&comments=1
Das ist wohl einer der Effekte bei Far Cry, der laut nvidia wohl angeblich nur mit SM3 möglich wäre....
Aber das zeigt auch wieder deutlich, dass nvidia auch nur mit Marketing versucht ihr SM3 feature unter die Leute zu bringen, dumm nur, wenn plötzlich Möglichkeiten sich ergeben, die diese ganzen SM3 only Effekte auch auf allen SM2 GrKa möglich machen bzw. generell möglich sind, aber das der Öffentlichkeit verheimlicht wird.

zur NV conferenz und PS3.0 in Farcry hat der crytek typ auch immer und immer wieder gesagt, dass das auch mit PS2.0 karten möglich ist (und der NV mann hat immer und immer versucht dem crytekmann das wort abzuschneiden :D)

LovesuckZ
2004-06-01, 17:02:45
Offset mapping sei laut Morrow aus dem Nvnews.net Forum auch mit PS1.1 Hardware moeglich...

Gast
2004-06-01, 17:24:03
Original geschrieben von PP
Zwei? Eigentlich 3 ;D
2X HIS (grestorn und Ich) plus 1 Powercolor (ein Gast)

Du glaubst echt ihr seid die Einzigen hier was ;D
Irgendwie komisch,die Leute die sogut wie nie spielen und nur surfen kaufen sich überteuerte Grakas...........hm sehr schlau

Gast
2004-06-01, 17:32:29
Original geschrieben von [dzp]Viper
zur NV conferenz und PS3.0 in Farcry hat der crytek typ auch immer und immer wieder gesagt, dass das auch mit PS2.0 karten möglich ist (und der NV mann hat immer und immer versucht dem crytekmann das wort abzuschneiden :D)

Die CPU müsste aber die meiste Arbeit übernehmen oder?!

WEGA
2004-06-01, 17:46:37
Original geschrieben von Gast
Du glaubst echt ihr seid die Einzigen hier was ;D
Irgendwie komisch,die Leute die sogut wie nie spielen und nur surfen kaufen sich überteuerte Grakas...........hm sehr schlau

das stimmt. ich hab mir jetzt auch eine reserviert. aber nur, weil meine gf4 kaput ist :/

Gast
2004-06-01, 18:08:38
Na ma schaun ob mit einem der Patche auch "nicht SM3" fähige Chips sowas darstellen "dürfen". Sollte das nicht der Fall sein und der NV40 alleine das darstellen "dürfen", liegts wohl doch am SM3 oder Crytek hat wieder was vermurkst...

misterh
2004-06-01, 18:24:56
http://www.anandtech.com/video/showdoc.html?i=2066

X800XT PCI Express

http://images.anandtech.com/reviews/video/ATI/xseries/x800pcie.jpg

X600 PCI Express

http://images.anandtech.com/reviews/video/ATI/xseries/x600.jpg

X300 PCI Express

http://images.anandtech.com/reviews/video/ATI/xseries/x300.png

Quasar
2004-06-01, 18:33:27
Original geschrieben von misterh
http://www.anandtech.com/video/showdoc.html?i=2066

X800 Pro PCI Express

http://images.anandtech.com/reviews/video/ATI/xseries/x800pcie.jpg

aths
2004-06-01, 18:41:31
Original geschrieben von Gast
Die CPU müsste aber die meiste Arbeit übernehmen oder?! Nein.

[dzp]Viper
2004-06-01, 18:52:06
Original geschrieben von misterh


X800pro PCI Express

http://images.anandtech.com/reviews/video/ATI/xseries/x800pcie.jpg



woha

sehe ich richtig? keinen stromanschluss? :o

LovesuckZ
2004-06-01, 19:15:00
Original geschrieben von [dzp]Viper
woha
sehe ich richtig? keinen stromanschluss? :o

Dafür gehen die 75Watt über den PCI-E Steckplatz.

Axel
2004-06-01, 19:30:42
Original geschrieben von [dzp]Viper
woha

sehe ich richtig? keinen stromanschluss? :o

Das wäre mal ein Pluspunkt. Diese zusätzlichen Stromanschlüsse erinnern mich immer an Testexemplare, die noch nicht ausgereift sind.

aths
2004-06-01, 19:55:14
Original geschrieben von [dzp]Viper
woha

sehe ich richtig? keinen stromanschluss? :o PCI-E kann mehr Strom liefern, als AGP.

Gast
2004-06-01, 20:17:16
http://www.anandtech.com/showdoc.html?i=2068

Schaut mal weiter unten, da ist ne X800 abgebildet, der gelbe Stecker fehlt da, der neue 12V Connector ist oben auf den 2 "Löchern" aufgelötet, vieleicht war der gelbe Stecker nur ein Platzhalter

ow
2004-06-01, 20:33:23
Original geschrieben von Axel
Das wäre mal ein Pluspunkt. Diese zusätzlichen Stromanschlüsse erinnern mich immer an Testexemplare, die noch nicht ausgereift sind.


Also mir wäre da ein externer Stromanschluss lieber, da er das Mainboard doch weitaus weniger belastet.

Original geschrieben von aths
PCI-E kann mehr Strom liefern, als AGP.


Kann er. Aber man muss ihn ja nicht im Grenzbereich betreiben.

xL|Sonic
2004-06-01, 22:09:45
Die Karten haben einen Stromanschluss.
Auf ist das auch nochmal schön erklärt.computerbase.de (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/erste_details_nvidias_nv45_48/)

PP
2004-06-01, 23:29:13
Original geschrieben von Gast
Du glaubst echt ihr seid die Einzigen hier was ;D
Irgendwie komisch,die Leute die sogut wie nie spielen und nur surfen kaufen sich überteuerte Grakas...........hm sehr schlau

Nein lieber Gast, glaube ich nicht... war auch nicht so gemeint:bier:

P.S.1: Wieso ueberteuert? Kostet nicht mehr als eine R9800XT.
P.S.2:Surfen? Wer surft hier? :chainsaw:

WEGA
2004-06-02, 12:15:52
Original geschrieben von PP
Nein lieber Gast, glaube ich nicht... war auch nicht so gemeint:bier:

P.S.1: Wieso ueberteuert? Kostet nicht mehr als eine R9800XT.
P.S.2:Surfen? Wer surft hier? :chainsaw:

rofl !! r9800xt ist ja überteuert

DrumDub
2004-06-02, 14:16:11
Original geschrieben von Valmar
Die Karten haben einen Stromanschluss.
Auf ist das auch nochmal schön erklärt.computerbase.de (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/erste_details_nvidias_nv45_48/)

x800xt (r423) pci-e: ja

x800pro (r423) pci-e: nein

6800u (nv45) pci-e: ja

6800 (nv45) pci-e: ???

pp@work
2004-06-02, 14:25:07
Stimmt, die 9800 XT ist ueberteuert ... Das wollte ich damit sagen :)
Wieso regt ihr euch ueber den Preis auf? Die X800Pro ist etwa 2x so teuer wie eine 9800Pro hat aber mindestens die 2 bis 2,5x Leistung, also ist sie ihren Preis Wert:)

MarcWessels
2004-06-02, 14:41:38
...und häßlichere Grafik.

pp@work
2004-06-02, 15:10:11
Original geschrieben von MarcWessels
...und häßlichere Grafik.

Jeder empfindet es anders...
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1870006#post1870006

MarcWessels
2004-06-02, 15:15:09
Fielmann? ;D

pp@work
2004-06-02, 15:28:39
Wird nichts bringen.... eine Brille habe ich schon:)

dildo4u
2004-06-03, 16:43:02
http://www.beyond3d.com/reviews/sapphire/x800pro/

Sapphire X800pro Test

DrumDub
2004-06-03, 17:56:30
Original geschrieben von dildo4u
http://www.beyond3d.com/reviews/sapphire/x800pro/

Sapphire X800pro Test

interessanter quote aus dem fazit:

ATI are also taking about some increases in performance, certainly under FSAA conditions, as they get to grips with tuning their new programmable memory interface under various difference rendering conditions.

bin ja mal gespannt, ob sie die fsaa-performance der x800xt auf 6800u niveau anheben. das sollte ja theoretisch machbar sein.

Quasar
2004-06-03, 17:58:38
Der "XT" wohl kaum, wenn schon der "XT PE". =)

Fadl
2004-06-03, 17:59:38
http://www.hwhell.com/articles/powercolor_x800_pro_256mb_gddr3/index.html

Review der Powercolor X800 Pro

WEGA
2004-06-03, 18:24:00
die namensgebung wird immer beschissener

DrumDub
2004-06-04, 11:44:05
Original geschrieben von Quasar
Der "XT" wohl kaum, wenn schon der "XT PE". =)

pffft... vergaß, dass es juetzt auch ne normale xt geben wird. meinte natürlich die xt pe. insgesamt geht es aber wohl um die prozentualen verluste beim fsaa, die ja momentan bei r420 höher sind als beim nv40.

DrumDub
2004-06-04, 12:30:31
nette bilder: http://www.vr-zone.com/?i=866&s=1

[dzp]Viper
2004-06-04, 12:42:37
Original geschrieben von DrumDub
nette bilder: http://www.vr-zone.com/?i=866&s=1

das bild ist interessant

http://www.vr-zone.com/eventpics/Jun04/Computex/Day03/ATi/computex_day3_052.jpg

1. damit ist es offiziell

2. der preis

X800 XT = 449$
X800 XT PE = 499$

Damit ergibt sich, dass es die XT bei uns für einen preis von rund 450€ geben müsste und die XT PE dann um die 500-550€...

Fadl
2004-06-04, 12:53:18
Und die PCI Express Karten scheinen Dual DVI zu haben. Zumindest die abgebildeten X800 XT und X800 XT PE.

DrumDub
2004-06-04, 12:56:37
Original geschrieben von Fadl
Und die PCI Express Karten scheinen Dual DVI zu haben. Zumindest die abgebildeten X800 XT und X800 XT PE.

jupp. ich komme immer mehr zu der überzeugung, dass dell jetzt voll auf ati umschwenkt, wenn jetzt ende des monats pci-e ansteht. die komplette palette von x300 bis x800xt pe.

fizzo
2004-06-04, 13:06:46
Original geschrieben von DrumDub
jupp. ich komme immer mehr zu der überzeugung, dass dell jetzt voll auf ati umschwenkt, wenn jetzt ende des monats pci-e ansteht. die komplette palette von x300 bis x800xt pe.

ich habe diesbezueglich dell mal ein mail geschickt - leider ohne reaktion:(

DrumDub
2004-06-04, 13:18:20
Original geschrieben von fizzo
ich habe diesbezueglich dell mal ein mail geschickt - leider ohne reaktion:(

wuss? ich hab keine pn von dir bekommen.

schick sie mir bitte noch mal.

Fadl
2004-06-04, 13:20:34
Original geschrieben von DrumDub
wuss? ich hab keine pn von dir bekommen.

schick sie mir bitte noch mal.

Bist du Dell? ;)

DrumDub
2004-06-04, 13:23:38
Original geschrieben von Fadl
Bist du Dell? ;)

:lolaway: mein gott. scheiß allmachtsphantasien. :freak:

pp@work
2004-06-07, 14:29:51
"The Bottom Line:

There is no question about it; VisionTek is selling a solid gaming card with a great amount of enthusiast potential. The MSRP is $399 USD. The MSRP of the GeForce 6800 Ultra is $499. The cards stack up to be gaming equals when you view the big picture. You can do the math on the pricing levels."

http://www.hardocp.com/articleprint.html?article_id=628

Tjell
2004-06-07, 15:12:03
Alles klar. Eine X800Pro ist gleichwertig einer 6800 Ultra. ;D

Klasse Review. :kotz:


Solch ein subjektives Fazit, wie es zur Grundlage der Bewertung herangezogen wird, sollte eigentlich tabu sein. Es gibt ja glücklicherweise noch andere Test-Seiten (3DC usw.), die objektiver herangehen.

Soll doch König Kunde entscheiden, was in seinen Rechner "paßt".

Auch wenn [H]ardOCP darauf hinweisen, daß sie anhand von "real-life" Situationen bewerten, so nehmen sie anhand der gewichteten Benchmarks doch dem Leser die Möglichkeit selbst nach Wichtigkeit zu entscheiden.

Das ist genauso sinnvoll wie Tests in Magazinen, die den Preis in die Bewertung mit einfließen lassen oder Bestenlisten danach sortieren. :bonk:

DrumDub
2004-06-08, 15:08:36
volle tri-filterung ala r3x0 ist auch mit dem r420 möglich: http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

tjo, jetzt muss nur noch ati nen schalter dafür ins cp einbauen und wir sind alle glücklich. :)

MarcWessels
2004-06-08, 15:13:47
Oder meintetwegen auch in nem Tool.

Jetzt hätte ich noch gerne Benchmarks gegen die 6800U mit dem neuen Treiber, der sie ja um 30% beschleunigen sollte.

Beide Karten natürlich mit voller Qualität. :D

LovesuckZ
2004-06-08, 15:18:30
Original geschrieben von DrumDub
volle tri-filterung ala r3x0 ist auch mit dem r420 möglich: http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/
tjo, jetzt muss nur noch ati nen schalter dafür ins cp einbauen und wir sind alle glücklich. :)

Ehrlich gesagt, glaube ich nicht daran. Der Leistungsverlust ist zu groß (in Ut2003 wie gesehen ca. 29%). Einerseits widerspricht dies auch der Aussage, dass die "Optimierung" kaum schneller waere, andererseits hat Ati bis jetzt keine Optionen aufgenommen, die Leistung kosten (SSAA, volles Tri - AF).

Quasar
2004-06-08, 15:22:44
Das ist der UT2003 FLYBY, der so stark profitiert. =)
Ich hätte auch einen Füllratentest à la Villagemark nehmen können...

In normalen Games sind's <15%, soweit ich bisher probiert habe.

LovesuckZ
2004-06-08, 15:25:27
Original geschrieben von Quasar
Das ist der UT2003 FLYBY, der so stark profitiert. =)
Ich hätte auch einen Füllratentest à la Villagemark nehmen können...


In der Pyramiddemo verliert die Karte 29%, laut deines selbst angefertigen Balkendiagramms.

Quasar
2004-06-08, 15:28:12
Ach so, du meinst im Vergleich zum Treiber-Default?

Ok, ich beziehe/bezog das eigentlich nur auf den Vergleich mit Abschalten der bekannten Optimierung.

Also rTool-AF gegen rTool-AF+Registry-Settings.

LovesuckZ
2004-06-08, 15:30:31
Original geschrieben von Quasar
Ach so, du meinst im Vergleich zum Treiber-Default?


Ja.

Gast
2004-06-08, 15:35:59
Original geschrieben von Quasar
Das ist der UT2003 FLYBY, der so stark profitiert. =)
Ich hätte auch einen Füllratentest à la Villagemark nehmen können...

In normalen Games sind's <15%, soweit ich bisher probiert habe.

Je mehr sich die Last Richtung CPU verschiebt, desto geringer wird der Unterschied sein. Bei vollstaendiger CPU-Limitierung ist der Unterschied 0%.

Quasar
2004-06-08, 15:49:40
Richtig und da die wenigsten Games rein füllratenlimitiert sind, werden solche Extremfälle auch nur selten auftreten.


Viel interessanter ist IMO aber ein Vergleich in der "Mittel"klasse, denn je niedriger die GPU-Leistung, desto schneller entfernt man sich vom CPU-Limit.

LovesuckZ
2004-06-08, 16:00:22
Original geschrieben von Gast
Je mehr sich die Last Richtung CPU verschiebt, desto geringer wird der Unterschied sein. Bei vollstaendiger CPU-Limitierung ist der Unterschied 0%.

Und umso daemlicher sind diese "Optimierungen".

DrumDub
2004-06-08, 16:10:58
Original geschrieben von LovesuckZ
Und umso daemlicher sind diese "Optimierungen".

jupp. gerade weil wir heute in modernen spielen eigentlich immer ne cpu-limitierung bis 1600x1200 haben.

was den schalter im cp angeht, so bin ich da auch nicht sonderlich optimistisch bezüglich der x800er, aber zumindest ist es über (noch zu entwickelnde) tools deaktivierbar. das ging ja bisher bei den 5900ern unter d3d mit der brilinearität nicht. ;)
auf jeden fall ist nvidia auf dem richtigen wege. mal sehen, ob ati da nachzieht oder ob sie ihre cheaterei fortsetzen. aber je bekannter die sachen werden um so schwieriger wirds wohl die reviewer zu verarschen.

Gast
2004-06-08, 16:55:05
Original geschrieben von DrumDub
jupp. gerade weil wir heute in modernen spielen eigentlich immer ne cpu-limitierung bis 1600x1200 haben.

was den schalter im cp angeht, so bin ich da auch nicht sonderlich optimistisch bezüglich der x800er, aber zumindest ist es über (noch zu entwickelnde) tools deaktivierbar. das ging ja bisher bei den 5900ern unter d3d mit der brilinearität nicht. ;)
auf jeden fall ist nvidia auf dem richtigen wege. mal sehen, ob ati da nachzieht oder ob sie ihre cheaterei fortsetzen. aber je bekannter die sachen werden um so schwieriger wirds wohl die reviewer zu verarschen.
Na!!!

Das ist sehr schade das du das so siehst! Jahrelang von nv verarscht worden und sich jetzt künstlich erregen!

DrumDub
2004-06-08, 17:03:58
Original geschrieben von Gast
Na!!!

Das ist sehr schade das du das so siehst! Jahrelang von nv verarscht worden und sich jetzt künstlich erregen!

ich hab nie ne nv-karte gehabt, also können die mich jahrelang nicht verarscht haben. ;D

abgesehen davon: der r420 kann ja echtes tri-af. nur gehts um den umgang, den ati mit dem thema treibt. da wird nv jetzt nen bonus von mir bekommen, wenn sie die option tatscählich in ihre offiziellen treibern für die zukunft anbieten. wenn ati nicht nachzieht, dass ist und bleibt das cheaterei.

ich lebe übrings nicht in der vergangenheit. und sicherlich wird meine nächste grafikkarte wieder von ati sein, wenn sie für mich als spieler weiterhin die effizienteste lösung bieten.

WEGA
2004-06-08, 17:35:32
http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

DrumDub
2004-06-08, 18:00:28
Original geschrieben von WEGA
http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

hab ich doch schon auf der vorigen seite gepostet: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1890091#post1890091

darum dreht sich ja auch die diskussion hier. ;)

klaus
2004-06-08, 21:18:59
Original geschrieben von DrumDub
volle tri-filterung ala r3x0 ist auch mit dem r420 möglich: http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

Na endlich gibt's Gewissheit. :up: Somit gehen die 500 Euro aus dem "GeForce4Ti-Gedächtnisfond" an ATi.

WEGA
2004-06-08, 21:59:19
Original geschrieben von DrumDub
hab ich doch schon auf der vorigen seite gepostet: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1890091#post1890091

darum drekt sich ja auch die diskussion hier. ;)

und ich dachte der link passt so gut zu dem tema *g* ;)

dildo4u
2004-06-11, 16:32:52
http://www.gzeasy.com/newsphoto/y2k4/06/11/giga8.jpg
X800XT PCI Express


http://www.gzeasy.com/newsphoto/y2k4/06/11/giga7.jpg



http://www.gzeasy.com/newsphoto/y2k4/06/11/giga6.jpg


http://www.gzeasy.com/itnewsdetail.asp?nID=15385 in japan schon zu kaufen