PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforcefx mit TurboTex-Mode?


Unregistered
2003-03-05, 20:23:33
Schaut euch mal die Scrennvergleiche in diesem GEFORCEFX Test an. Das sieht doch voll aus wie TurboTex auf den Scrennshotvergleichen.
Bei dem Flugzeug sieht man es total krass.
Wieweit kann man den die Texturen runterdrehen? Wird die dann einfach immer schlechter aufgelöst?

http://www.3dvelocity.com/reviews/gffx5800u/gffx_5.htm


http://www.3dvelocity.com/reviews/gffx5800u/screenshots/iqcombatfsthumb.jpg

tEd
2003-03-05, 20:43:41
Hier wurde die mipmap qualität reduziert.

Kann man theoretisch auf jeder karte machen.

anorakker
2003-03-05, 20:48:55
der schatten des hinteren höhenruders sieht bei nvidia aber auch verdammt miess aus...warum??

nagus
2003-03-05, 20:56:05
Originally posted by anorakker
der schatten des hinteren höhenruders sieht bei nvidia aber auch verdammt miess aus...warum??

damit die GFFX im vergleich zur Radeon9700 besser (schneller) aussieht, deshalb.

LovesuckZ
2003-03-05, 21:02:42
Originally posted by nagus
damit die GFFX im vergleich zur Radeon9700 besser (schneller) aussieht, deshalb.

Koennte sich auch einfach nur nen Treiberbug sein...

nagus
2003-03-05, 21:06:40
Originally posted by LovesuckZ


Koennte sich auch einfach nur nen Treiberbug sein...

könnte auch sein. das bedeutet, bei den neuen 43.00 detos hat nvidia bei bildqualität wieder zugelegt, weil 3dmark03 plötzlich wieder 50% langsamer läuft als mit den 42.68ern...

von vorher ~ 5200 mit den 42.68 runter auf ~ 3200 mit dem 43.00er

tEd
2003-03-05, 21:06:48
es ist sowieso komisch das die an den mipmap level gedreht haben.

Ati optimal entspricht beste bildqualität bei nvidia was normalerweise default ist.

Unregistered
2003-03-05, 21:41:45
Das Bild ist aber noch nett!

Wenn man einmal Balanced mit Aggressive vergleicht, dann sieht man deutlich, das "Aggressive" einen >TurboTex²-Button< verdient hat. Da ist Nvidia eindeutig zu weit gegangen und holt SiS bei der Bildqualität sogar noch ein (IMHO keine Übertreibung).

Link : http://www.3dvelocity.com/reviews/gffx5800u/screenshots/iq_aggressive_v_balanced.jpg

EDIT: Mal eingebettet :) Anárion

Birdman
2003-03-05, 21:52:03
Originally posted by Unregistered
Das Bild ist aber noch nett!

Wenn man einmal Balanced mit Aggressive vergleicht, dann sieht man deutlich, das "Aggressive" einen >TurboTex²-Button< verdient hat. Da ist Nvidia eindeutig zu weit gegangen und holt SiS bei der Bildqualität sogar noch ein (IMHO keine Übertreibung).

Link : http://www.3dvelocity.com/reviews/gffx5800u/screenshots/iq_aggressive_v_balanced.jpg
habe zwar keine GFFX, aber so ne Bildquali kriegt man auf ner GF4 nur wenn man den LOD Slider ganz nach rechts zieht...
imho hat hier 3dvelocity eine Fehler gemacht oder wollen NV extra einen reinschieben, aber die defaultquality der nvkarten ist dies nicht.
Das hätten auch sonst alle andern reviewer bemerkt, wenn die BQ auf einmal so scheiss ist.

Achill
2003-03-05, 22:22:46
Originally posted by Birdman

habe zwar keine GFFX, aber so ne Bildquali kriegt man auf ner GF4 nur wenn man den LOD Slider ganz nach rechts zieht...
imho hat hier 3dvelocity eine Fehler gemacht oder wollen NV extra einen reinschieben, aber die defaultquality der nvkarten ist dies nicht.
Das hätten auch sonst alle andern reviewer bemerkt, wenn die BQ auf einmal so scheiss ist.

warum unterstellst du es 3dvelocity ?

Kann es nicht auch sein, das es (wie es schon früher ab un zu vorkam) eine Treiberbug seitens NV's ist, der nur die GF FX betrifft - natürlich nur vom möglichen standpunkt aus?

(man sollte sich nie zu schlussfolgerungen hinreißen lassen, wenn man nicht wirklich weiss, was da gelaufen ist)

Birdman
2003-03-05, 22:51:31
Originally posted by Achill
warum unterstellst du es 3dvelocity ?

Sie verwenden den selben Treiber wie B3D, und dort gibt es absolut keinerlei Mängel bzgl. der Texturqualität. Von daher ist die Warscheinlichkeit halt schon sehr gross dass der Fehler auf Seiten 3dvelocity zu suchen ist.

Radeonator
2003-03-05, 23:44:58
:lol: Genau ! Die ganzen Xabre Tests waren nämlich auch nur Fehler von den Testern und Treiber Bugs die man verzeihen kann. Aber NV und ATi würden sowas ja niemals machen...nicht war ;) ???

Labberlippe
2003-03-05, 23:59:45
Originally posted by Radeonator
:lol: Genau ! Die ganzen Xabre Tests waren nämlich auch nur Fehler von den Testern und Treiber Bugs die man verzeihen kann. Aber NV und ATi würden sowas ja niemals machen...nicht war ;) ???

Nicht so schnell verurteilen.
Ich bin mir sicher das Leonidas einen top test ablegen wird und wenn da nVIDIA oder ATi linke treibt, dann werden wir das sicher erfahren.


Gruss Labberlippe

Unregistered
2003-03-06, 00:48:42
Originally posted by Birdman

habe zwar keine GFFX, aber so ne Bildquali kriegt man auf ner GF4 nur wenn man den LOD Slider ganz nach rechts zieht...
imho hat hier 3dvelocity eine Fehler gemacht oder wollen NV extra einen reinschieben, aber die defaultquality der nvkarten ist dies nicht.
Das hätten auch sonst alle andern reviewer bemerkt, wenn die BQ auf einmal so scheiss ist.

Und hier? Der "Bug" scheint ja immer da zu sein.

http://www.3dvelocity.com/reviews/gffx5800u/screenshots/iqthumb_atioptimalperf_v_nv.jpg

Ausserdem ist das nicht mit Anisotropic. Das ist, wenn man alle Regler bei der Radeon auf schlecht stellt sieht es immer noch um Längen besser aus als auf der Geforce wenn man alles so laesst nach der Installation.

Xmas
2003-03-06, 01:03:31
Leute, lest euch bitte den Text mal durch! Das ist die Qualität wenn man im Treiberpanel "Mipmap-Detailstufe" auf "Höchste Leistung" stellt (deutsche Bezeichnungen, entsprcht AFAIK LOD-Bias +1.0 oder +2.0). Das ist nicht die Standardeinstellung, zumindest ist sie das in den bisherigen Treibern nicht.

Der Vergleich "schlechteste einstellbare Qualität" von NVidia und ATI ist irgendwie sinnlos...

Unregistered
2003-03-06, 08:48:30
Originally posted by Birdman

Sie verwenden den selben Treiber wie B3D, und dort gibt es absolut keinerlei Mängel bzgl. der Texturqualität. Von daher ist die Warscheinlichkeit halt schon sehr gross dass der Fehler auf Seiten 3dvelocity zu suchen ist.


Genau. Irgendwie hat 3dvelocity da wohl Unsinn gebencht bzw. gezeigt.

Unregistered
2003-03-06, 08:50:28
Originally posted by Xmas


Der Vergleich "schlechteste einstellbare Qualität" von NVidia und ATI ist irgendwie sinnlos...

hihi, wie geil. Das steckt also dahinter.:D

Da haben sich einige FanATiker hier aber wieder ganz schön lächerlich gemacht mit ihrem Geflame.

Salvee
2003-03-06, 08:55:47
Originally posted by Xmas
Der Vergleich "schlechteste einstellbare Qualität" von NVidia und ATI ist irgendwie sinnlos...

Da schneidet die FX aber besser ab als beim Vergleich der 'besten einstellbaren Qualität' ;)

Scherz beiseite, der Test ist irgendwie witzlos.

ow
2003-03-06, 09:05:07
Originally posted by Salvee

Scherz beiseite, der Test ist irgendwie witzlos.


Sehe ich auch so.
Vorallem ist durch Reduzierzung des mipmap-lodbias weder bei ATi noch NV wirklich was an Speed zu gewinnen.
Nur der Xabre profitiert nachgewiesenermassen sehr stark von reduziertem lodbias.

Quasar
2003-03-06, 09:24:02
Naja, eines kann man aus dem Test doch noch ablesen, nämlich, daß sich die GeForce auf niedrigere BQ trimmen läßt, wenn man denn diese Absicht hegt. :lol:

Radeonator
2003-03-06, 12:21:56
Ist bei beiden auf Performance gestellt, wo ist das Schwachsinn ???
Ein Feature das beide Karten haben wird verglichen und dabei kackt die GF FX derbe in der BQ ab. Nvidiots haben natürlich für alles eine "Erklärung" parat...wacht mal auf. ATi hat schonmal so getrickst und nun halt NV.

p.s.: NV hat allerdings beim 2D Signal sehr stark nachgebessert, diese soll hervorragend sein!

Unregistered
2003-03-06, 12:47:52
Und warum ist so ein TurboTex-Mode im Treiber? Brauchen tut man den ja heutzutage nicht.

Damit ein paar Nvidia-Kids bei der Benchmarkscore noch glaenzen koennen.

aths
2003-03-06, 14:13:36
Einige Applikationen haben einen falschen LOD Bias, und per Treiber (oder mit dem aTuner :)) kann man das dann korrigieren. Das hat nichts mit Cheating zu tun, wenn solch unsinnigen Sachen wie "schlechteste per Treiber einstellbare AF-BQ" verglichen wird.

Xmas
2003-03-06, 15:03:18
Originally posted by Radeonator
Ist bei beiden auf Performance gestellt, wo ist das Schwachsinn ???
Ein Feature das beide Karten haben wird verglichen und dabei kackt die GF FX derbe in der BQ ab. Nvidiots haben natürlich für alles eine "Erklärung" parat...wacht mal auf. ATi hat schonmal so getrickst und nun halt NV.
AFAIK hat ATI gar keine LOD-Bias Einstellung im Treiberpanel. Wo wird hier also ein Feature das beide Karten (oder eher: Treiberpanel) haben verglichen?

Mit einem Tweaker kann man auch bei ATI am LOD-Bias drehen. Die Option im Treiberpanel zu bieten ist doch nicht von vornherein schlecht. Zumal der Detonator ja auch noch für ältere Chips bis TNT ist, bei denen man für jedes bisschen mehr an Geschwindigkeit dankbar ist.

Radeonator
2003-03-06, 16:09:14
Originally posted by Xmas

AFAIK hat ATI gar keine LOD-Bias Einstellung im Treiberpanel. Wo wird hier also ein Feature das beide Karten (oder eher: Treiberpanel) haben verglichen?

Mit einem Tweaker kann man auch bei ATI am LOD-Bias drehen. Die Option im Treiberpanel zu bieten ist doch nicht von vornherein schlecht. Zumal der Detonator ja auch noch für ältere Chips bis TNT ist, bei denen man für jedes bisschen mehr an Geschwindigkeit dankbar ist.

Das stimmt einfach net. Beide Karten weisen eine Performance Einstellung (ATi Text&Mip) im CP auf, wie die Hersteller diese
realisieren hat damit rein gar nichts zu tun!!!

Ansonsten dürften überhaupt keine GPU´s von verschiedenen Herstellern mehr verglichen werden, da in vielen Punkten andere Realisierungswege genutzt werden (Alleine die verschiedenen FSAA Methoden, die selbst wenn Sie vom Prinzip her gleich sind noch unterschiedlich realisiert werden...)

Labberlippe
2003-03-06, 16:13:02
Originally posted by Radeonator


Das stimmt einfach net. Beide Karten weisen eine Performance Einstellung (ATi Text&Mip) im CP auf, wie die Hersteller diese
realisieren hat damit rein gar nichts zu tun!!!

Ansonsten dürften überhaupt keine GPU´s von verschiedenen Herstellern mehr verglichen werden, da in vielen Punkten andere Realisierungswege genutzt werden (Alleine die verschiedenen FSAA Methoden, die selbst wenn Sie vom Prinzip her gleich sind noch unterschiedlich realisiert werden...)

Ja aber nur mit den Unterschied das dieses bei nVIDIA und ATi eigentlich nichts bringt.
Allzuviel Performance ist damit nicht rauszholen.
Deshalb ist es unsinnig...

Die User hier könnten ja Benchen und die Werte eintragen.
Dann sieht man was dieses bringt.

Die Frage ist wer macht mit.
Vermutlich macht das aber wie üblich keiner....

Gruss Labberlippe

Quasar
2003-03-06, 16:20:14
Originally posted by Radeonator


Das stimmt einfach net. Beide Karten weisen eine Performance Einstellung (ATi Text&Mip) im CP auf, wie die Hersteller diese
realisieren hat damit rein gar nichts zu tun!!!

Was aber nun, wenn Hersteller X eine minimale Einstellung von LOD-BIAS -8.0 erlaubt, Hersteller Y aber nur bis minimal LOD-BIAS -1.5?

Willst du dann Hersteller X vorwerfen, eine schlechtere Bildqualität (merke, bei Performance-Einstellung opfert man mutwillig IQ für Speed!) zu bieten, oder willst du Hersteller Y vorwerfen, daß er dem Kunden nicht genügend Auswahlmöglichkeiten bietet?

Radeonator
2003-03-06, 16:28:07
Originally posted by Quasar


Was aber nun, wenn Hersteller X eine minimale Einstellung von LOD-BIAS -8.0 erlaubt, Hersteller Y aber nur bis minimal LOD-BIAS -1.5?

Willst du dann Hersteller X vorwerfen, eine schlechtere Bildqualität (merke, bei Performance-Einstellung opfert man mutwillig IQ für Speed!) zu bieten, oder willst du Hersteller Y vorwerfen, daß er dem Kunden nicht genügend Auswahlmöglichkeiten bietet?

In einem Standart Review würde man dann in etwa dieses lesen:

"Hersteller X schafft mit seiner Performance Einstellungen einen höheren Leistungsgewinn als Hersteller Y, hat dabei aber eine deutlich schlechtere IQ als Hersteller Y..."

Warum das so ist, lässt sich einfach erklären : Den normalen User (schätze mal so um die >80% ) interessiert es auf gut deutsch einen Sh1ce , wie was realisiert wird. Hauptsache das was rauskommt ist gut!

Mich würde in einem solchen Zusammenhang eher interessieren ob es genügend Zwischenschritte gäbe oder nur die "Gut/Schlecht" Einstellung.

Quasar
2003-03-06, 16:33:16
Wir sind hier aber nicht in einem Standard-Review....

Wenn man schon bei solch schnellen Karten auf die Idee kommt, die IQ für minimale Performance-Vorteile runterzuschrauben, dann bitte auf dieselben LOD-Biase.

" Hauptsache das was rauskommt ist gut! "
Was ist gut? Gut = schnell oder gut = hübsch?

"Mich würde in einem solchen Zusammenhang eher interessieren ob es genügend Zwischenschritte gäbe oder nur die "Gut/Schlecht" Einstellung."
Manches mal muss man einen Tweaker benutzen, und manchesmal kann man's im Treiber umstellen. Was gefällt dir besser?

Radeonator
2003-03-06, 16:36:14
Oki, der Vergleich zur Xabre ist IMO nicht richtig, da diese unter TT=0 stark an Leistung verliert.

Aber, Features die im Panel ageboten werden, sollten miteinander verglichen werden IMO natürlich.

Leonidas
2003-03-06, 17:16:21
Originally posted by Labberlippe

Ich bin mir sicher das Leonidas einen top test ablegen wird und wenn da nVIDIA oder ATi linke treibt, dann werden wir das sicher erfahren.
Gruss Labberlippe



Ich habe mir die BQ sehr genau angesehen, viele Benchmarks live verfolgt (obwohl die auch ohne mich arbeiten): Die BQ ist nahezu identisch. Solche deutlichen Unterschiede konnte ich nirgendwo beobachten. Möglicherweise ein Fehler dieses speziellen Spiels - immerhin hat UT2003 auf der R300 auch einen solchen Fehler beim anisotropen Filter.

Xmas
2003-03-06, 17:57:38
Originally posted by Radeonator
Ansonsten dürften überhaupt keine GPU´s von verschiedenen Herstellern mehr verglichen werden, da in vielen Punkten andere Realisierungswege genutzt werden (Alleine die verschiedenen FSAA Methoden, die selbst wenn Sie vom Prinzip her gleich sind noch unterschiedlich realisiert werden...)
Genau deswegen sollte man ja zu den Settings Bildqualitätsvergleiche machen, denn Apfel mit Birnen zu vergleichen ist nicht sinnvoll.

Deswegen ist es auch nicht sinnvoll die niedrigsten Settings miteinander zu vergleichen, weil es da einfach nichts zu vergleichen gibt.

Performer
2003-06-03, 14:14:31
Ist bei beiden auf Performance gestellt, wo ist das Schwachsinn ???

Ganz einfach, die Hersteller definieren den Begriff Performance mit unterschiedlichen Einstellungen ;-)