PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R8500 besser Bildqualität als GeForce4 ?


Labberlippe
2002-02-08, 14:43:17
Auf X- Bits Labs wird ein Screen vergleich zwischen einer R8500 und TI4600 gestellt.
X.Bit sagt das die Qualität die gleiche ist.

Aha haben die Jungs was auf den Augen?

R8500 http://www.xbitlabs.com/video/geforce4/rad8500.jpg

Ti 4600 http://www.xbitlabs.com/video/geforce4/ti4600.jpg

Öffnet die beide Screens und vergleicht beide.

Rechte Seite der Wand der R8500 ist schärfer.
Man sieht wenn man genau guckt, das die Radeon in Tiefe schärfer zeichnet.
Gerade bei der Rechten Wand unten am Sockel sieht man das die R8500 einige Zentimeter die Texturen schärfer zeichnet, die TI 4600 verwascht die Texturen schon ein gutes Stück davor.

Die Texturen am Boden sehen schäfer aus.

Guck mal genau nimm Dir Zeit, man sieht es.

Mir ist klar das ist ein Screenshot nur in der Praxis sieht man es deutlicher.
Denn der Screen hat duch die Komprimierung natürlich Verluste vorzuweisen.

Am schnellsten sieht man wenn man zwischen beiden Screens schnell hin und her klickt.

Gruss Labberlippe

smallB
2002-02-08, 14:45:25
was ist wo eingeschaltet? ist ani-filter bei der gf4 an? Bei der r8500? Was ist sonnst an/aus?

Korak
2002-02-08, 14:51:46
Also der Unterschied ist ja wohl mal mininininimal :D.

Labberlippe
2002-02-08, 14:55:08
Die Einstellungen sind die gleichen.
Mit AF

Auf den Bildschirm sind die Unterschiede auf alle Fälle deutlicher als auf einen Screenshot.

Gruss Labberlippe

RAL
2002-02-08, 15:00:16
Laberlippe,
und jetzt schau mal nach links. Linker Rand etwas über der Bildmitte, die Steine der Mauer. Da ist die GF4 schärfer.

Labberlippe
2002-02-08, 15:01:30
Hier geht es doch nicht darum um einen Skandal raufzubeschwören.
Sondern einfach um einmal Qualität zu zeigen und nVIDIA. :)



Gruss Labberlippe

RAL
2002-02-08, 15:06:42
Nö es geht um die Bildqualität dieses einen shots (was immer das auch aussagen soll). Und wenn man schon so genau hinguckt, dann bitte auch die linke Seite.

Labberlippe
2002-02-08, 15:14:42
Originally posted by RAL
Nö es geht um die Bildqualität dieses einen shots (was immer das auch aussagen soll). Und wenn man schon so genau hinguckt, dann bitte auch die linke Seite.

Tja dann muss ich was auf den Augen haben.
Den die linke Seite ist auch schärfer.
Gerade beim Boden sieht man es deutlich.
Das "Muster" oder Steinplatten werden beim R8500 besser wiedergegeben.

Gerade beim Sockel links sieht man deutlich, da bringt die TI kaum mehr ein Muster die R8500 hingegen schon.

Die Frage ist natürlich weisen beide Shots die gleiche Komprimierungsrate auf.?

Eines ist mir aber dennoch klar.
Die R8500 dürfte ein besseres LOD haben.
Man merkt es schon deutlich, weil die Radeon die grössere Tiefenschärfe hat.

Weniger LOD heist mehr fps.
So sieht mir die TI 4600 aus.


Gruss Labberlippe

Xmas
2002-02-08, 15:39:17
Originally posted by Labberlippe
Die R8500 dürfte ein besseres LOD haben.
Die Texturen der R8500 sind bei diesen Screenshots tatsächlich etwas schärfer. Ob es aber ein besseres LOD ist, wage ich mal zu bezweifeln. Der Radeon-Shot zeigt unterfilterte Texturen, wie man an einigen Stellen erkennen kann. Mit einer solchen LOD-Einstellung würde ich nur ungern Spielen wollen.

Labberlippe
2002-02-08, 15:50:04
Originally posted by Xmas

Die Texturen der R8500 sind bei diesen Screenshots tatsächlich etwas schärfer. Ob es aber ein besseres LOD ist, wage ich mal zu bezweifeln. Der Radeon-Shot zeigt unterfilterte Texturen, wie man an einigen Stellen erkennen kann. Mit einer solchen LOD-Einstellung würde ich nur ungern Spielen wollen.

Äh was meinst Du mit unterfiltert.

Kurz Du hast den verwaschenen Look lieber.?
Genaus wie das bei der nVIDIA schon früher die Bildschärfe nachlässt als bei der Radeon.

Ich kann mich ja irren, für mich sieht der R8500 Shot aber um einiges detailreicher aus.

Gruss Labberlippe

Quasar
2002-02-08, 16:11:34
Labberlippe, du schreibst, auf dem Bildschirm fällt dieser Unterschied deutlicher ins Auge.

Hast du schon eine GF4Ti in Aktion gesehen? Ich wüßte zu gerne, wo es die schon zu kaufen gibt?

Labberlippe
2002-02-08, 16:14:53
Originally posted by Quasar
Labberlippe, du schreibst, auf dem Bildschirm fällt dieser Unterschied deutlicher ins Auge.

Hast du schon eine GF4Ti in Aktion gesehen? Ich wüßte zu gerne, wo es die schon zu kaufen gibt?

Nein das nicht, da aber nach meinen eigenen Erfahrungen bei der Komprimierung die Bildquaulität leicht flöten geht sollte das eigentlich logischerweise klar sein.

Oder willst Du behaupten das die Screens gleich aussehen wir in Real beim Game.
Das wäre mir neu.

gruss Labberlippe

Labberlippe
2002-02-08, 16:21:03
@ X-Mas

Ok für mich sieht der Radeon Shot besser aus.
Die Texturen werden feiner gefilter. Sieht auch so für mich aus.
Die Radeon zeichnet ein gutes Stück in die Tiefe die Texture klarer und erst dann verschwommen als die GeForce4.

So jetzt möchte ich Wissen wieso ich die GeForce4 nur mal vom optischen her der R8500 vorziehen soll.
Gerade dann wenn die GeForce4 ja alles besser kann aber laut Shot dennoch nicht besser aussieht.

Erkläre das bitte.
Aber versuche bitte das technische umzumünzen so das ich es auch noch verstehe.

Gruss Labberlippe

Xmas
2002-02-08, 16:25:20
Originally posted by Labberlippe
Äh was meinst Du mit unterfiltert.

Kurz Du hast den verwaschenen Look lieber.?
Ich würde das Bild der GF4 keinesfalls als verwaschen bezeichnen. Was ich mit unterfiltern meine?
http://home.t-online.de/home/06821692972-0001/r8500_1.jpg
Die Linien hier sind unterbrochen. Würde der LOD "korrekt" (nach Nyquist) gewählt, könnte das überhaupt nicht passieren.
http://home.t-online.de/home/06821692972-0001/r8500_2.jpg
Hier sehen die Ränder der Steine ziemlich "zackig" aus. Man beachte die relativ hellen Pixel an den Rändern der Steine.

Das sieht IMHO einfach unschön aus.

Labberlippe
2002-02-08, 16:29:00
Ich sehe leider keine Bilder. von Dir. :(

Gruss Labberlippe

KiBa
2002-02-08, 18:01:28
Ich denke auch, dass die GeForce4 in der Bewegung besser aussieht. So wie der Shot der Radeon aussieht, kommt es in der Ferne bei Bewegung zu Pixelflimmern, das ist dann ziemlich häßlich.

Labberlippe
2002-02-08, 18:28:34
Hi

Also ich bin mir da nicht sicher ob da ein Filterfehler ist.
Den dritten Strich (welches man auf Deinen Bild nicht sieht) kann man bei der Ti 4600 so gut wie nicht mehr erkennen.

Was das Pixelflimmern betrifft.

Wenn alles zu Scharf ist dann kann es zum Textruflimmern kommen.
Genau das glaube ich nicht.
Von meiner alten Radeon weiss ich schon das die Texturen besser gefiltert werden ohne Texturflimmern. (Ausser man übertreibt es, aber bei der GeForce2 sah ich es deutlicher)
So sieht der Screen bei meiner Radeon (nur bei SS1 allerdings) auch ähnlich aus.
Deshalb schliesse ich mal ganz frech auf die GeForce 4. :)
(ich weiss ich schlimmer aber auch)

Lange Rede Kurzer Sinn.
Es hängt es immer davon ab wie der Screen komprimiert ist.

Eines ist klar.
Die bessere Tiefenschärfe hat die Radeon.
Man sieht es deutlich wo die Radeon die Texturen verschwimmt und wo die TI

Von der Schärfe der Texturen kann ich nur sagen, das das Texturflimmern nach meinen empfinden niemals so Krass wie bei einer GeForce auftritt.

Hoffen wir mal das es bei der GeForce 4 nicht der Fall wie bei der GeForce2 ist oder war.

gruss Labberlippe

Richthofen
2002-02-08, 18:33:45
man leute streitet euch doch nicht um so einen müll.

Keiner der Tester konnte Unterschiede feststellen.
Weder Anand noch Digit-Life noch Rivastation noch THG(Rivastation).
Man oh man. Die haben alle samt diese Karten in Aktion gesehen und da glaub ich denen einfach mal mehr als das was ich mal an einem Screenshot sehe. Das kann so viele Ursachen haben.
Ich gugg mir den Screen gar nicht erst an. Wenn ich so anfange, dann muss ich in Zukuntf bei jedem Test irgendwo mit der Lupe rangehen irgendwo einen kleinen Pixelunterschied finden und die Tester anmailen wieso das ist.

Diskussion überflüssig

Exxtreme
2002-02-08, 18:46:42
Originally posted by Richthofen
man leute streitet euch doch nicht um so einen müll.

Keiner der Tester konnte Unterschiede feststellen.
Weder Anand noch Digit-Life noch Rivastation noch THG(Rivastation).
Man oh man. Die haben alle samt diese Karten in Aktion gesehen und da glaub ich denen einfach mal mehr als das was ich mal an einem Screenshot sehe. Das kann so viele Ursachen haben.
Ich gugg mir den Screen gar nicht erst an. Wenn ich so anfange, dann muss ich in Zukuntf bei jedem Test irgendwo mit der Lupe rangehen irgendwo einen kleinen Pixelunterschied finden und die Tester anmailen wieso das ist.

Diskussion überflüssig

Also ich würde Reviews von THG, Rivastation(=THG) und Anandtech gar nicht beachten, da die eh nie die Hand beissen, die sie füttert *fg*. Aber ansonsten Full Ack! Man weiss nicht welche Einstellungen vorgenommen wurden und deswegen ist die Diskussion überflüssig.

Gruß
Alex

Razor
2002-02-08, 19:24:21
Beim Shot der Radeon wurde ganz klar der LODBias gesekt...

Hab's mal mit meiner gf3 nachvollzogen (Det 27.30) und diesen auf -1 gesetzt. Sieht zwar um einiges häßlicher (aber unheimlich schaaaaaf ;-) aus, man kann aber den von Xmas beschriebenen Effekt gut beobachten. So würde ich bei der Radeon einen LODBias von -0,5 vermuten, bei der gf4 wird dieser wohl auf 0 stehen.

Meine gf3 gibt übrigens exakt das gleiche Bild ab, wie das der gf4...
(aber das nur am Rande ;-)

In diesem Sinne

Razor

P.S.: SeriousSam SE ist wirklich hammer hart !
;-)

Pengo
2002-02-08, 20:01:47
Originally posted by Labberlippe
Auf X- Bits Labs wird ein Screen vergleich zwischen einer R8500 und TI4600 gestellt.
X.Bit sagt das die Qualität die gleiche ist.

Aha haben die Jungs was auf den Augen?

R8500 http://www.xbitlabs.com/video/geforce4/rad8500.jpg

Ti 4600 http://www.xbitlabs.com/video/geforce4/ti4600.jpg

Öffnet die beide Screens und vergleicht beide.

Rechte Seite der Wand der R8500 ist schärfer.
Man sieht wenn man genau guckt, das die Radeon in Tiefe schärfer zeichnet.
Gerade bei der Rechten Wand unten am Sockel sieht man das die R8500 einige Zentimeter die Texturen schärfer zeichnet, die TI 4600 verwascht die Texturen schon ein gutes Stück davor.
Gruss Labberlippe

Stimmt, die Texturen sind auf der R8500 in dem Screenshot schärfer, allerdings nicht unbedingt besser. Schau dir bei der Mitte der Bodentextur die Übergänge zwischen den Steinen an.

Unregistered
2002-02-08, 20:04:30
Laberlippe,

ja deine Bildunterschiede sind schon klar zu erkennen, aber ich bleibe dabei, daß die Steine der Mauer links bei der GF4 etwas (minimal) besser zu erkennen sind. Ansonsten gefällt mir der Gesamteindruck des GF4-Shots etwas besser. Der Radeon-Shot sieht wegen seiner Krümeligkeit und den Zacken unnatürlicher aus. Ich würde jedenfalls auf keinen Fall so weit gehen, den GF4-Shot als verwaschen zu bezeichnen. Etwas glatter insgesamt, ja, aber im positiven Sinne imho.

Ansonsten kann ich mich nur den Kommentaren über die Sinnlosigkeit des threads anschliessen. Überhaupt sollte jeder, der nun zum launch des GF4 die Radeon-Fahnen hochhalten will, sich ein wenig mehr anstrengen, aussagekräftige Argumente aufzutischen..falls möglich *g*.

RAL

Richthofen
2002-02-08, 21:57:15
na zumindest nicht mit der Lupe jeden Screen nachforschen.
Da wüsst ich was besseres.
Einfach die Karte bestellen und anguggen :)

mofa84
2002-02-15, 15:13:11
was ist denn das für ein scheiß?

meiner meinung nach ist das nicht die exakt gleiche szene und deshalb fällt der vergleich nicht leicht!
außerem: wenn es um solche details geht dann braucht man bilder ohne kompressionsverluste und nicht so billige jpgs!

HiddenGhost
2002-02-15, 16:40:25
Benutzt mal Opera und macht beide Bilder auf und schaltet dann hin und her.

Sämtliche Texturen sehen auf dem R8500 Screen besser aus, nur im vorderen 1/5tel sind die Karte identisch.
Sämtlich textren sehen bei der 8500 plastischer und detailerter aus und da gibts keinen Zweifel. Die Steine in der Mitte und die Wand rechts sind deutlich körniger/ struckturierter als das leicht verwaschene Bild bei der GF4.
Diese Textur die oben neben dem Punktestand beginnt und sich nach hinten durchzieht wirkt auf der Radeon kontratreicher als auf der NV.
Dennoch sehen die Steine der Hinterwand auf der GF4 minimal besser aus als auf der Radeon.
Für das was einem in Bewgung ins Auge fällt ,sind eindeutig die ATI Karten im Vorteil.

mfg pcg

mofa84
2002-02-15, 16:42:59
Originally posted by PCgenius
Benutzt mal Opera und macht beide Bilder auf und schaltet dann hin und her.

so mach ich es ja, halt mit irfanview aber da kommt das gleiche raus - es stört einfach dass es nicht das exakt gleiche frame ist und das lenkt beim umschalten ab wodurch man nicht richtig vergleichen kann!

Piffan
2002-02-15, 19:12:58
Irgendwie gehen mir diese Threads mächtig auf den Sack. Da wird von Laberlippe krampfhaft versucht, irgendwelche Vorzüge aufzuzeigen. Aber leider widerspricht er sich in seiner Argumentation ein wenig:

Auf der einen Seite sagt er, daß es in "echt" noch deutlicher zu sehen ist als auf einem Shot. Recht hat er! Genau wie das Flimmern, welches bei Unterfilterung (schöner Begriff, wieder was gelern "G")auftritt. Also ist es per Shot unmöglich zu beurteilen, lediglich die Schärfe wird sichtbar, nicht aber obs elendig flimmert (was ich vermute).

Es ist doch wohl so: Die Entwickler legen die Mip-Maps fest. Die werden auf der einen Seite eine gute Schärfe erzielen wollen (was bei Serious Sam wohl gelungen ist, kenne es aber nicht "echt"), auf der anderen Seite solls nicht flimmern. Im Idealfall kann dieser Kompromiß für eine konkrete Auflösung gefunden werden..... Wenn ich da jetzt das LOD für die Mipmaps verschiebe, dann "pfusche" ich den Entwicklern unter Umständen ins Handwerk... Auf alle Fälle kann ich viel einstellen und hinterher affenscharfe Shot schießen, man sieht das Flimmern ja nicht "g". Die Beweiskraft solcher Shots ist null, sind lediglich für sinnlose Streitereien tauglich...

Wie gesagt, solche Thread über die Bildqualität sind für den Ar***! Da glaube ich lieber den Testern, die beide Karten prüfen.

Na mal sehen, was als nächsten Pro und Contra- Thema kommt. Wie wäre es mit dem elektrischen Wirkungsgrad? Ich meine, daß es eine Riesensauerei ist, wie eine Geforce 4 den Rechner mit umweltschädlicher Abwärme an den Rand der Stabilität treibet...."gg"

Richthofen
2002-02-16, 02:14:13
@Pfiffan

Meine Rede.
Von unzähligen Testern hat keiner was davon berichtet.
Aber xbit Labs die auch immer die ersten sind irgendwelche hirnrissigen Specs zu veröffentlichen setzen da irgendwelche Screens in die Welt.

Ne wad die Labern geht mir so am Allerwertesten vorbei.
Da gugg ich mir lieber anand, rivastation und beyond3d an.
3dconcept gibts ja nicht mehr.

Iceman346
2002-02-16, 02:38:07
Unter Open GL flimmert es bei Serious Sam 2 tatsächlich schrecklichst. Sowas schlimmes hab ich noch nicht gesehen. Unter Direct 3D mit den gleichen Aniso Einstellungen flimmert es dagegen garnicht oder kaum.

Razor
2002-02-16, 06:24:38
Also Pixelflimmern habe ich bei SS:SE noch nicht feststellen können (OpenGL, gf3)...

Razor

Labberlippe
2002-02-16, 10:32:32
Hi

@Piffan
Also so sinnlos finde ich den Thread nicht.
Aufgrund dieses Threads und die Kommentare von X-Mas habe ich mir nochmal die Mühe gemacht SS2 zu installieren und mit den LOD zu spielen.
Wenn einige nur auf streiten aus sind das ist das deren Sache.

Es stimmt schon wenn man bei SS alles auf Sharpen stellt dann ist das Texturflimmern pervers stark.
Zum Spass habe ich mal mit 2x FSAA gezockt.
Konnte allerdings dann nur noch mit 640x480 und 2FSAA spielen.
Fraps zeigt mir im Schnitt immer bei die 30 fps an.
Sieht nicht schlecht aus.
Kostet aber Performance.

Beim Vergleich zwischen einer GTS2 und Radeon direkt auf den gleichen Monitor stellte ich fest das die Radeon die Texturen um einen Tick sauberer wieder gibt.
Bei Standart Default Einstellung, sowohl bei der Graka auch im Game.

Die nVIDIA Karte hat leicht verwaschene Texturen.
Die Radeon die Schärferen ohne Pixelflimmern. (auser man übertreibt Settings es mit den Settings).
Ich rede von den Default Einstellungen.
Ja mir ist klar es gibt Tweaker.

Mich wundert es nur immer wieder das manche nVIDIA User(wie Razor) immer krampfhaft Jpegs rein stellen und nichtmal anähnernd von Ihren Standpunkt runtergehen.

PS: Die nVIDIA Karte hat dafür einen Vorteil duch die "verwaschenen" Texturen.
Die Übergänge vom vorderen Bereich sind nicht so deutlich sichtbar wie bei der Radeon. (Vorne Scharf, hinten unscharf)

Gruss Labberlippe

Der Herrscher
2002-02-16, 10:53:09
Nvidia karten sind auch mehr für games und aufwendige 3D spiele entwickelt(es gbt auch ausnahmen), als für besonders scharfe texturen.

Exxtreme
2002-02-16, 11:01:22
Originally posted by Der Herrscher
Nvidia karten sind auch mehr für games und aufwendige 3D spiele entwickelt(es gbt auch ausnahmen), als für besonders scharfe texturen.
???
Ich erwarte von einer GraKa, daß sie gute Bildqualität liefert. Und scharfe Texturen gehören IMHO dazu. Was meinst du warum eigentlich der anisotropische Filter (auch bei nVidia) in die moderneren GraKas eingebaut wurde. Sicherlich nicht um die Innentemperatur des PC-Inneren zu erhöhen. Ausserdem Games und Spiele ist eh' das Gleiche. Also dein Argument zieht IMHO nicht.

Gruß
Alex

nggalai
2002-02-16, 14:08:52
Hi there,

SS:SE übertreibt's mit der Texturqualität, wenn man die Option "Optimal" auswählt. Zuerst werden die Texturen vorgeschärft, und dann auch noch der LOD Bias runtergeschraubt. Das sieht ohne AF äusserst lustig aus, mit AF flimmert's aber noch immer recht stark.

Da haben die sich wohl in den Settings etwas vertan, die Croteam-Leute. Macht aber nix, man kann's ja auf "Normal" runterschrauben, dann ist's vorbei mit dem Geflimmer.

ta,
-Sascha.rb

Der Herrscher
2002-02-17, 20:11:31
also ich hol mir auf jeden fall eine gforce 4

mofa84
2002-02-17, 23:28:39
Originally posted by Der Herrscher
Nvidia karten sind auch mehr für games und aufwendige 3D spiele entwickelt(es gbt auch ausnahmen), als für besonders scharfe texturen.

Sind Radeon-Karten etwa nicht für Spiele entwickelt?

aths
2002-02-18, 01:41:57
mofa84,

über ATI-Karten im allgemeinen würde ich das nicht sagen, aber die Radeon-Reihe ist (natürlich) ausdrücklich für Spiele entwickelt.