PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia GeForce 7800 GT Review


Leonidas
2005-08-11, 14:48:23
Link:
http://www.3dcenter.org/artikel/geforce_7800_gt/


Update 16:25
Fazit steht nun. Ich geh nun auf Bugjagd.

deekey777
2005-08-11, 15:14:26
Den Text zu SC3 wirst du wohl nachbearbeiten müssen, denn mit dem Patch 1.4 kam auch der Support des ATi SM 2.0 (kommt von ATi selbst), womit man jetzt auch alle Features wie HDR oder Softshadows bei DX9 Radeons einschalten kann, nur das Tone Mapping soll Probleme machen.
Das <-> Daß wird oft verwechselt, bin aber noch beim Lesen.

Doom 3 Seite, zweiter Absatz:
Das zum Benchmarken benutzte Timedemo ist das dem Spiel beiliegende Demo1, welches eine halbwegs Spiel-typische Szene zeigt, und zudem - wie das gesamte Spiel auch - deutlich Grafikkarten-limitiert ist. Somit stellt die Demo1 von Doom 3 nicht nur eine gute Bewertungsgrundlage zur Performance von Doom 3, sondern auch einen der derzeit härtesten Stresstests für Grafikkarten dar. Anzumerken wäre noch, daß wir Doom 3 mit der "Ultra Quality" Einstellung des Spiels gemessen haben, da diezurückliegenden Test gezeigt haben, daß auch 256-MB-Grafikkarten mit diesem Setting keine Probleme haben.

Da muß kein Komma sein, bei der Fettschrift: entweder kommt da ein Artikel oder "zurückliegende Tests".

FEAR, fearter Absatz:
"beachtenswerterweise" - Eigenkreation?
Fünfter Absatz:
Die Benchmarks speziell der GeForce 7800 GTX wurden daher ohne Gamma-korrektem Anti-Aliasing mit dem Treiber 77.62 durchgeführt..
"korrektes"

Raff
2005-08-11, 15:18:39
Wie erwartet im Schnitt 15-20% langsamer in extremen Settings (weil dort ohne CPU-Limitierung). Dass die GT in Earth 2160 so stark einbricht, muss aber andere Gründe haben ...

Kleiner Fehler: http://www.3dcenter.org/artikel/geforce_7800_gt/index3.php

"die GT erreichte uns erst am Launch-Tag um kur nach 7 Uhr morgens"

MfG,
Raff

Sephiroth
2005-08-11, 15:23:31
Hab das Review grad überflogen und auf Seite 2 unter dem Bild des LabEnlarger MK. I folgenden kleinen Fehler entdeckt:

Bis auf den für die Tests mit der GeForce 7800 GT benutzten neueren Treiber 77.77 wurde zum vorangegangenen Test der GeForce 7800 GTX (durchgeführt mit Treiberversion 77.62) absolut gar nichts am Testsystem bzw. der darauf installierten Software sowie den Treibern verändert.
da steht zweimal GT, doch bei zweiten Mal sollte es GTX heißen.

*in ruhe durchles*

p.s.

Der Test liefert das Ergebnis, was ich mir erhofft/vorgestellt hatte - die 7800 GT ist nur wenig langsamer als die 7800 GTX. Vom Preis-Leistungs-Verhätltnis für mich die bessere Wahl.

Mot
2005-08-11, 15:23:40
Kleiner Fehler (http://www.3dcenter.org/artikel/geforce_7800_gt/):
[...] wäre dies natürlich ein gewichtiger Pluxpunkt für die GeForce 7800 GT.

Leonidas
2005-08-11, 15:25:47
Dass die GT in Earth 2160 so stark einbricht, muss aber andere Gründe haben ...



Scheinbar sieht es nach viel aus. Es sind aber trotzdem zumeist nur unterhalb 20%.

Raff
2005-08-11, 15:28:05
Scheinbar sieht es nach viel aus. Es sind aber trotzdem zumeist nur unterhalb 20%.

Naja, sobald Supersampling ins Spiel kommt, sind's über 30%.

MfG,
Raff

mapel110
2005-08-11, 15:31:17
Naja, sobald Supersampling ins Spiel kommt, sind's über 30%.

MfG,
Raff
Jup, mittlerweile steuert nvidia einfach zuviel über den Treiber. Wird Zeit, dass die Bildqualität mit bewertet wird.
Der Abstand zwischen 6800 Ultra und 7800 GT ist bei Supersamplingviel zu hoch.
20% Unterschied in der Füllrate und 40 % Unterschied im Speed. :|

deekey777
2005-08-11, 15:35:19
Nicht hauen, SC3, 2. Absatz:
"Mit dem inzwischen verfügbaren Patch 1.4 besitzt das Spiel nun aber auch über den Support des Shader Models 2.0 für die ATI-Karten, ... "

Entweder muß das "über" weg, oder "besitzt" wird durch "verfügt" ersetzt.


Hast du mit der neuen RivaTuner Version überprüft, wie die einzelnen "Blöcke" wie Geometrie, ROPs oder Shader-Domain getaktet sind? Reines Interesse.
€: Hab bei den anderen gefunden: 400/400/440 MHz (Shader/ROPs/Geometry).

Demirug
2005-08-11, 15:49:32
Nicht hauen, SC3, 2. Absatz:
"Mit dem inzwischen verfügbaren Patch 1.4 besitzt das Spiel nun aber auch über den Support des Shader Models 2.0 für die ATI-Karten, ... "

Entweder muß das "über" weg, oder "besitzt" wird durch "verfügt" ersetzt.

Es ist auch nicht 2.0 sondern eigentlich 2.X bzw 2.B.

deekey777
2005-08-11, 15:59:01
Es ist auch nicht 2.0 sondern eigentlich 2.X bzw 2.B.
OT:
Aber was ist dann richtiger: SM 2.0, SM 2.X (à la Far Cry) oder SM2.B?
Ich dachte, wenn man Shader Model schreibt, entfallen die Buchstaben, aber unterschiedlichen PS-Versionen kommen die Buchstaben zum Einsatz.
Oder dient es der allgemeinen Verständnis?

trollkopf
2005-08-11, 16:15:16
tja, wenn die sache mit der bildquali. nicht wäre, könnte sie ne alternative zur 6800GTUltra sein, aber so ?

"Zu erwähnen wäre noch, daß wir das 8x Anti-Aliasing auf den nVidia-Karten in diesem Spiel ausnahmsweise und obwohl dies möglich gewesen wäre nicht über das Spiel selber eingestellt haben, sondern in diesem Fall über das nVidia Control Panel. Erstaunlicherweise war jenes Setting auf diesem Wege deutlich schneller als bei einer Einstellung über das Spiel. Da sich zudem am Anti-Aliasing nichts optimieren läßt und die Benchmarks auch ansonsten stimmig waren, ist hier nicht zu befürchten, das durch diese Einstellung nicht aus dem Spiel heraus Bildqualität verloren gehen könnte."

irgendeine idee woran das liegt? deutlich schneller klingt ja gut, das wäre ja interessant um doom3 schneller zu bekommen (6800GT)

Demirug
2005-08-11, 16:25:54
OT:
Aber was ist dann richtiger: SM 2.0, SM 2.X (à la Far Cry) oder SM2.B?
Ich dachte, wenn man Shader Model schreibt, entfallen die Buchstaben, aber unterschiedlichen PS-Versionen kommen die Buchstaben zum Einsatz.
Oder dient es der allgemeinen Verständnis?

Die Shader sind wohl als 2.B kompiliert. Da sie aber soweit ich das gesehen habe auch 2.A kompatibel sind ist die allgemeine Form 2.X angebracht.

Leonidas
2005-08-11, 16:26:41
Das zum Benchmarken benutzte Timedemo ist das dem Spiel beiliegende Demo1, welches eine halbwegs Spiel-typische Szene zeigt, und zudem -


Da muß zwingend ein Komma hin. Eingeschobener Halbsatz "welches eine halbwegs Spiel-typische Szene zeigt" - Anfang mit Komma, Ende genauso.

mapel110
2005-08-11, 16:27:01
Die Shader sind wohl als 2.B kompiliert. Da sie aber soweit ich das gesehen habe auch 2.A kompatibel sind ist die allgemeine Form 2.X angebracht.
Nochmal sry für Offtopic, aber heißt das, dass dieser neue ATI-Pfad nicht auf R300-Karten läuft?

Leonidas
2005-08-11, 16:29:39
FEAR, fearter Absatz:
"beachtenswerterweise" - Eigenkreation?



Ganz genau. Lizenzgebühren!

deekey777
2005-08-11, 16:42:51
Da muß zwingend ein Komma hin. Eingeschobener Halbsatz "welches eine halbwegs Spiel-typische Szene zeigt" - Anfang mit Komma, Ende genauso.
Der Satz:

"Das zum Benchmarken benutzte Timedemo ist das dem Spiel beiliegende Demo1," - das ist jetzt der Hauptsatz, nach dem Komma kommt ein Nebensatz:
"welches eine halbwegs Spiel-typische Szene zeigt und zudem - wie das gesamte Spiel auch - deutlich Grafikkarten-limitiert ist."

"Welches" bezieht sich auf das "Timedemo", das eine typische Spielszene zeigt und zudem (- wie auch das gesamte Spiel -) deutlich Grafikkarten-limitiert ist. <- bezieht sich alles auf das Timedemo (wobei die Timedemo besser klingt).
Ein Komma bzw, ein anderes Satzzeichen kommt vor "und" nur, wenn ein neuer Halbsatz beginnt (= zwei "Hauptsätze" in einem Satz werden dann als Halbsätze bezeichnet).

deekey777
2005-08-11, 16:46:04
Die Shader sind wohl als 2.B kompiliert. Da sie aber soweit ich das gesehen habe auch 2.A kompatibel sind ist die allgemeine Form 2.X angebracht.

Ich meinte jetzt, was die richtige Schreibweise ist, zB:
"SC3 verwendet jetzt das Shader Model 2.0 (oder doch 2.X bzw. 2.B?)."

Winter[Raven]
2005-08-11, 16:54:39
Dennoch gilt zu konstatieren, daß die Radeon X850 XT-PE unter dem hohen AA-Setting von 6x/8x Anti-Aliasing von der GeForce 7800 GT nicht wirklich geschlagen wurde

Auch wenn du es als Unfair betitels hätte ich mir 6x gegen 8x wirklich verkniffen, seit wann vergleichen wir Äpfel mit Birnen. Da geht einfach die Bahnbreite aus und fertig!

Mr. Lolman
2005-08-11, 16:55:49
Warum sind die Benchmarks wieder nicht mit HQ entstanden?

Leonidas
2005-08-11, 16:57:10
Der Satz:

"Das zum Benchmarken benutzte Timedemo ist das dem Spiel beiliegende Demo1," - das ist jetzt der Hauptsatz, nach dem Komma kommt ein Nebensatz:
"welches eine halbwegs Spiel-typische Szene zeigt und zudem - wie das gesamte Spiel auch - deutlich Grafikkarten-limitiert ist."

"Welches" bezieht sich auf das "Timedemo", das eine typische Spielszene zeigt und zudem (- wie auch das gesamte Spiel -) deutlich Grafikkarten-limitiert ist. <- bezieht sich alles auf das Timedemo (wobei die Timedemo besser klingt).
Ein Komma bzw, ein anderes Satzzeichen kommt vor "und" nur, wenn ein neuer Halbsatz beginnt (= zwei "Hauptsätze" in einem Satz werden dann als Halbsätze bezeichnet).


Du hast Recht. Der Nebensatz geht weiter, also kein Komma.

Raff
2005-08-11, 16:57:45
Warum sind die Benchmarks wieder nicht mit HQ entstanden?

Damit man mit den Ultra- und GTX-Werten vergleichen kann.

MfG,
Raff

Leonidas
2005-08-11, 16:58:58
Warum sind die Benchmarks wieder nicht mit HQ entstanden?


Ich hatte die GTX sowie die XT-PE nicht mehr zur Verfügung und somit 0,0 Möglichkeit, etwas am einmal begonenen Benchmark-Set zu ändern. Zukünftige Tests werde ich dann generell neu angehen, aber bei diesem war das aus Zeit- und Logistik-Gründen eben nicht mehr möglich.

PS: Ein paar HQ-Werte werde ich nachreichen.

Mr. Lolman
2005-08-11, 17:04:48
Ok, das akzeptiere ich. =)

BTW: Würdest du bei ATi A.I. deaktivieren? Habt ihr schon BQ unterschiede festgestellt zw. A.I. on/off?

Leonidas
2005-08-11, 17:16:35
Ok, das akzeptiere ich. =)

BTW: Würdest du bei ATi A.I. deaktivieren? Habt ihr schon BQ unterschiede festgestellt zw. A.I. on/off?


Nein, würde ich nicht.

Erstens sind keine bedeutenden Unterschiede festgestellt worden.
Und zweitens umfasst A.I. auch teils zwingend notwendige Patches ohne Einfluß auf die BQ, aber mit erheblichem Einfluß auf die Performance. ATI hat das IMO bewußt fälschlicherweise miteinander gebundelt, damit keiner auf die Idee kommt, A.I. abzuschalten.

Quasar
2005-08-11, 18:39:03
Jup, mittlerweile steuert nvidia einfach zuviel über den Treiber. Wird Zeit, dass die Bildqualität mit bewertet wird.
Der Abstand zwischen 6800 Ultra und 7800 GT ist bei Supersamplingviel zu hoch.
20% Unterschied in der Füllrate und 40 % Unterschied im Speed. :|

Wenn Supersampling aktiv ist, musst du jeden Shader für die höhere Auflösung rechnen. Da kann also schon ein Wert herauskommen, der höher ist, als der Unterschied in der Pixelfüllrate.

Matrix316
2005-08-11, 18:43:20
Im Review heißt es die Referenzkarte sei identisch mit einer GTX, aber in anderen Reviews sieht die GT doch anders aus. Vor allem der Kühler ist anders (nur noch ein Teil).

dildo4u
2005-08-11, 18:47:44
Im Review heißt es die Referenzkarte sei identisch mit einer GTX, aber in anderen Reviews sieht die GT doch anders aus. Vor allem der Kühler ist anders (nur noch ein Teil).
Jup die GT ist Kürzer

http://www.hkepc.com/hwdb/7800gt/gtgtx.jpg

deekey777
2005-08-11, 18:54:14
Im Review heißt es die Referenzkarte sei identisch mit einer GTX, aber in anderen Reviews sieht die GT doch anders aus. Vor allem der Kühler ist anders (nur noch ein Teil).

Die 7800GT ist jetzt so kurz wie eine 6800Ultra - was für ein Fortschritt.

mapel110
2005-08-11, 18:56:23
Erste Zahl ist 1600x1200 4xAA/8xAF
zweite Zahl ist 1600x1200 8xS/16xAF
Erste Reihe 7800 GT, zweite 6800 Ultra

Half life 2
von 74 auf 44
von 61 auf 28

Doom3
45 auf 22
40 auf 15

Farcry
49 auf 24
42 auf 16

Riddick
38 auf 18
35 auf 12

Hm, bei Supersampling hat man anstatt mit 8xAF mit 16xAF gebencht. Sollte eigentlich somit stärker auf die Füllrate schlagen und damit sollte die 7800 GT gegenüber der 6800 Ultra einen Vorteil haben. Aber der Vorteil ist imo übermässig. Also sprichts dafür, dass die 7800 GT bei 16 AF weniger tut, als die 6800 Ultra. :uponder:

Raff
2005-08-11, 18:57:52
Wenn Supersampling aktiv ist, musst du jeden Shader für die höhere Auflösung rechnen. Da kann also schon ein Wert herauskommen, der höher ist, als der Unterschied in der Pixelfüllrate.

Yop, das klingt plausibel.
Aber: Woher kommt der Unterschied von ~35% in Earth 2160 bei 1280x960x32 mit 8xS/16xAF zwischen der GTX und der GT? Das ist angesichts der Rohleistung auch mit obiger Erklärung IMHO sehr seltsam, da wir es bei beiden mit einem G70 zu tun haben ... 20% wären da logischer ...

MfG,
Raff

Piffan
2005-08-11, 19:43:30
Die Tatsache, dass man per Mod deaktivierte Teile des Chip freischalten kann, ist imho NICHT als Pluspunkt zu werden. Denn erstens handelt es sich per Definition nach erfolgreichem Eingriff nicht mehr um den selben Chip, zweitens ist es keineswegs SICHER, dass es klappt. Unter anderem ist die Modderei ein Grund für die vielen Rückläufer an die Händler: Ordern, modden, wenns nicht klappt, noch mal tüchtig takten bis er glüht und dann zurück an den Händler...oder so.....

Die subjektiv spielbaren Einstellungen kann man nur als Lachnummer bezeichnen. Ich will mal sehen, wie jemand damit real spielt.
Vor allem noch MP- Modus mit menschlichen Gegnern. :lol:

Leonidas
2005-08-11, 19:59:14
Im Review heißt es die Referenzkarte sei identisch mit einer GTX, aber in anderen Reviews sieht die GT doch anders aus. Vor allem der Kühler ist anders (nur noch ein Teil).



Toll, da hab ich mich von der ähnlichen Bauform glatt täuschen lassen. Allerdings hatte ich keine GTX zum direkten Sichtvergleich mehr.

Leonidas
2005-08-11, 20:05:59
Die Tatsache, dass man per Mod deaktivierte Teile des Chip freischalten kann, ist imho NICHT als Pluspunkt zu werden. Denn erstens handelt es sich per Definition nach erfolgreichem Eingriff nicht mehr um den selben Chip, zweitens ist es keineswegs SICHER, dass es klappt. Unter anderem ist die Modderei ein Grund für die vielen Rückläufer an die Händler: Ordern, modden, wenns nicht klappt, noch mal tüchtig takten bis er glüht und dann zurück an den Händler...oder so.....


Sorry, eine gute Mod-Chance zusammen mit einer einfachen Mod-Möglichkeit ist durchaus ein Pluspunkt. Du magst Recht haben, wenn man mit Lötkolben oder BIOS-Update ran muss, aber dieser Mod wird per Software erledigt und kann ganz problemlos wieder zurückgenommen werden.

Leonidas
2005-08-11, 20:06:32
Die subjektiv spielbaren Einstellungen kann man nur als Lachnummer bezeichnen. Ich will mal sehen, wie jemand damit real spielt.
Vor allem noch MP- Modus mit menschlichen Gegnern. :lol:


Erklärung? Oder sind Dir 60fps und mehr immer noch zu wenig?

Piffan
2005-08-11, 20:20:24
Wer Farcry auf ner X800XT wie ich spielt, der lacht sich kaputt über ne Einstellung von 1600x1200 4xAA 8xAF....Oder sollte die X850 sooo viel mächtiger sein..... :uponder:

Wobei mir einfällt, sorry ich vergaß, ich spiele mit Weitsichttweaks. Allerdings wirken die nicht in Innenlevels....

Was gut spielbar ist, geben die Benches imho nicht wieder. Man kann damit nur Karten vergleichen, aber keine spieltauglichen Settings finden....

Gast
2005-08-11, 23:14:11
wie vom 3dcenter gewoht wieder mal ein guter test, allerdings mit 2 leider sehr großen kritikpunkten:

1. in der einleitung wird zwar darauf hingewiesen dass die settings 8xS FSAA/6xFSAA nicht vergleichbar sind und deshalb in "getrennten" diagrammen angeführt werden, im fazit werden diese aber plötzlich wieder verglichen, was soll das?

das wirkt eher wie eine trotzreaktion nach dem motto "ich will es ja euch allen recht machen, aber meinen kopf setz ich trotzdem durch"

2. das erste problem führt auch direkt zum zweiten, denn die beschriebene trennung der diagramme ist de fakto nicht vorhanden und eine reine augenauswischerei. noch schlimmer, es werden einfach alle settings untereinander gezeichnet, und man muss schon extrem genau hinschauen und einzelne balken abzählen um einen wert einem entsprechenden setting zuzuordnen.
eine trennung der einzelnen diagramme durch eine horizontale linie oder einfach nur durch einen ausreichenden abstand wäre sehr schön. am besten kann man dann noch das entsprechende setting in die diagrammüberschrift schreiben, kann aber auch gerne neben dem diagramm bleiben. momentan ist das lesen allerdings doch mehr eine qual.

die legende kann dagegen gerne 1x pro seite bleiben, und ist definitiv nicht pro diagramm notwendig, 4 farben sollte man sich noch bis zum seitenende merken können ;)

Mot
2005-08-11, 23:54:19
Kleiner Fehler (http://www.3dcenter.de/artikel/geforce_7800_gt/fazit.php):
[...] was den im Endeffekt doch verschmerzbar geringen Performance-Rückstand zur Radeon X850 XT-PE in diesem Setting wieder ausgleich mag.

BUG
2005-08-12, 00:45:31
Toll, da hab ich mich von der ähnlichen Bauform glatt täuschen lassen. Allerdings hatte ich keine GTX zum direkten Sichtvergleich mehr...also wenn die Bilder im 3DC Review von der 7800GT sind, dann hatte sie das selbe Layout wie die 7800GTX. Das hier im Thread verlinkte Vergleichsbild ist anders bzw. sieht die 7800GT auf dem Bild anders aus als die im Review (der extra Kühler über den Spannungswandlern fehlt bzw ist das Layout da kopmlett geändert^^). :|

cu
BUG

MD_Enigma
2005-08-12, 01:58:04
Ist es denn nicht möglich die gefunden Rechtschreibfehler dem Redakteuer per Mail zu schicken? Nachdem Sie korrigiert werden ist jeder Post im Forum überflüssig und störend. Ich finde es grauenhaft sich erst mal durch zig Tippfehler-hinweis-posts zu Blättern und die wichtigen zu finden :|

deekey777
2005-08-12, 02:02:24
Ist es denn nicht möglich die gefunden Rechtschreibfehler dem Redakteuer per Mail zu schicken? Nachdem Sie korrigiert werden ist jeder Post im Forum überflüssig und störend. Ich finde es grauenhaft sich erst mal durch zig Tippfehler-hinweis-posts zu Blättern und die wichtigen zu finden :|

Nein. :biggrin:
Ist halt so und bleibt so auch.
Wenn du wissen willst, warum, wirf die SuFu an.

Nagus69
2005-08-12, 09:09:08
Hab' nur ne Frage, bzw 2 -

1) sehr viele Leute benutzen mittlerweile einen TFT, mit nativer Aufloseung von 1280x1024, trotzdem wird oft, wie auch hier, mit 1280x960 getestet. Warum?

2) In Reviews ueber den G70 lese ich immer wieder, dass hier wieder CPU Limitierung auftritt. Wieso wird dann nicht mit einem FX-57 getestet? Ein Baugleiches System mit AGP/PCIe sollte doch auch hier moeglich sein.

Ansonsten, sehr informativ!

Exxtreme
2005-08-12, 09:29:59
Hab' nur ne Frage, bzw 2 -

1) sehr viele Leute benutzen mittlerweile einen TFT, mit nativer Aufloseung von 1280x1024, trotzdem wird oft, wie auch hier, mit 1280x960 getestet. Warum?

Weil es auch sehr viele Leute gibt, die einen Röhrenmonitor haben und das 4:3-Seitenverhältnis bevorzugen.

SchienenHaenger
2005-08-12, 10:20:13
So weit bei den jeweiligen Spielen möglich, wurden Anti-Aliasing und anisotroper Filter vorzugsweise über die Spiel-eigenen Menüs (bzw. notfalls Spiele-eigene INI-Dateien) angesteuert, da speziell beim anisotropen Filter dies für einen Geschwindigkeits-Unterschied sorgen kann. In den Spiel-Optionen wurde gewöhnlich die maximal mögliche Bildqualität ausgewählt, Ausnahmen hiervon sind in den nachfolgenden Kapiteln zu den einzelnen Benchmark-Spielen ausgeführt.

Uups, als Grafik-Laie war ich immer der Meinung, dass diese Einstellungen für eine Anwendung transparent seien, es also keinen Unterschied macht ob im Treiber oder in der Anwendung eingestellt.

Könnte man mich erhellen, ein Link würde auch reichen.

Danke, Stefan.

Mr. Lolman
2005-08-12, 10:32:22
Naja, das Spiel weiss eher als der Treiber, welche Texturen AF brauchen und welche nicht. Z.B. Lightmaps z.B: brauchen kein AF. Auch kann das Spiel für gewisse Texturstages einen trilinearen Filter anfordern, wo sonst der Treiber aufgrund ner Optimierung nur b(r)ilinear filtern würde.
Nur der NV Treiber kümmert sich nicht drum. Sind die Optimierungen aktiv, dann wird auch mit diesen gefiltert, egal was die App. will.

Chill187
2005-08-12, 11:32:39
also ich bin ja mal auf die neue ATI karte gespannt,ob diesmal wohl shader 3 dabei ist?oder fahren sie weiter auf eigener schiene?

Demirug
2005-08-12, 11:41:40
Naja, das Spiel weiss eher als der Treiber, welche Texturen AF brauchen und welche nicht. Z.B. Lightmaps z.B: brauchen kein AF. Auch kann das Spiel für gewisse Texturstages einen trilinearen Filter anfordern, wo sonst der Treiber aufgrund ner Optimierung nur b(r)ilinear filtern würde.
Nur der NV Treiber kümmert sich nicht drum. Sind die Optimierungen aktiv, dann wird auch mit diesen gefiltert, egal was die App. will.

Das "Spiel" oder die Engine wissen genau so viel wie der Treiber.

Soll also selektiv eingestellt werden müssen Metadaten zu den Texturen dazu. Das machen aber nun die meisten Engine nicht. Entsprechend ist das zwar ein berechtigter Einwand der aber nur selten greift.

BTW nVidia predigt schon seit Jahren in den Entwicklerunterlagen das man den texturefilter den Texturen anpassen soll.

SchienenHaenger
2005-08-12, 12:35:45
Ok, wenn es die meisten Engines nicht machen, welche Engine bzw. game profitiert denn möglicherweise von anwendungsseitigen Einstellungen?

Lolman
2005-08-12, 12:47:16
Zumindest bei ATi mehr als bei NV. ATis TS-Optimierung ist bei App. AF deaktiviert. Beim AA hats durchaus auch Sinn, dieses über die App. zu wählen, da iirc tw. weniger Speicher verbraucht wird.

Gast
2005-08-12, 13:16:08
Ok, wenn es die meisten Engines nicht machen, welche Engine bzw. game profitiert denn möglicherweise von anwendungsseitigen Einstellungen?

spiele profitieren vor allem dann von anwendungsseitigen einstellungen wenn die entwickler schlau genug sind um zu differenzieren was AF braucht und was nicht.

beispielsweise ist es sinnvoll für lightmaps AF zu deaktivieren, oder alpha-test-texturen, wo AF sogar kontraproduktiv wirkt (es kostet leistung und das flimmern wird stärker -> schlechtere bildqualität).

der treiber weiß natürlich nicht wo evtl. texturen verwendet werden welche kein AF brauchen und filtert deshalb alles mit AF, was natürlich mehr leistung kostet und in der regel nichts bringt.

Matrix316
2005-08-12, 13:21:04
Die 7800GT ist jetzt so kurz wie eine 6800Ultra - was für ein Fortschritt.

Nicht nur das, sondern auch der Kühler ist ein neuer und der soll laut z.B. HT4U deutlich lauter sein als die GTX Variante.

Leonidas
2005-08-12, 13:51:04
wie vom 3dcenter gewoht wieder mal ein guter test, allerdings mit 2 leider sehr großen kritikpunkten:

1. in der einleitung wird zwar darauf hingewiesen dass die settings 8xS FSAA/6xFSAA nicht vergleichbar sind und deshalb in "getrennten" diagrammen angeführt werden, im fazit werden diese aber plötzlich wieder verglichen, was soll das?

das wirkt eher wie eine trotzreaktion nach dem motto "ich will es ja euch allen recht machen, aber meinen kopf setz ich trotzdem durch"



Jein. Das die Settings nicht identisch sind, bedeutet nicht, das ich mir nicht die Freiheit nehme, sie zu vergleichen. Der Kritikpunkt lag eher darin, daß diese Haltung nur dem Text zu entnehmen war, im Diagramm aber nicht sofort offensichtlich war. Deswegen wurden die Diagramme geändert. Zum eigentlichen Vergleich stehe ich weiterhin, auch wenn mir klar ist, das daß eine sehr streitbare Position ist.

Leonidas
2005-08-12, 13:58:23
..also wenn die Bilder im 3DC Review von der 7800GT sind, dann hatte sie das selbe Layout wie die 7800GTX. Das hier im Thread verlinkte Vergleichsbild ist anders bzw. sieht die 7800GT auf dem Bild anders aus als die im Review (der extra Kühler über den Spannungswandlern fehlt bzw ist das Layout da kopmlett geändert^^). :|



Die Bilder vom Testsystem stammen vom GTX-Artikel.

Leonidas
2005-08-12, 14:00:28
1) sehr viele Leute benutzen mittlerweile einen TFT, mit nativer Aufloseung von 1280x1024, trotzdem wird oft, wie auch hier, mit 1280x960 getestet. Warum?



Fehler meinerseits. 1280x1024 ist ja keine 4:3 Auflösung, deswegen habe ich in der Vergangenheit immer wenn möglich 1280x960 benutzt. Das war seinerzeit auch richtig, heute aber bekommt die 1280x1024er Auflösung durch TFTs eine enorme Bedeutung.

Zukünftig werde ich demzufolge auch 1280x1024 anstatt 1280x960 einsetzen. Für diesen Test konnte ich das nicht mehr ändern, ich hatte ja bereits die Werte des GTX-Testes.

Leonidas
2005-08-12, 14:01:29
2) In Reviews ueber den G70 lese ich immer wieder, dass hier wieder CPU Limitierung auftritt. Wieso wird dann nicht mit einem FX-57 getestet? Ein Baugleiches System mit AGP/PCIe sollte doch auch hier moeglich sein.



Wäre mir auch lieber, wird wohl in Zukunft auch kommen. Doch aktuell hatte das Intel-System halt den Vorteil, daß ich sowohl CPUs als auch Mobos gestellt bekommen hatte.

Leonidas
2005-08-12, 14:04:11
Uups, als Grafik-Laie war ich immer der Meinung, dass diese Einstellungen für eine Anwendung transparent seien, es also keinen Unterschied macht ob im Treiber oder in der Anwendung eingestellt.




Generell stimmt das auch so. Den Unterschied machen heutzutage aber die Treiber: Sie legen für anwendungsgesteuertes AF eine andere Filterqualität an als für Control-Panel-gesteuertes AF. In letztererem sind mehr Optimierungen enthalten.

Außerdem ist es bei anwendungsgesteuertem AF möglich, das der Spiele-Programmierer eigene AF-Optimierungen angewandt hat, die werden dann auch ausgeführt. Bei Control-Panel-gesteuertem AF werden diese Spiel-eigenen Optimierungen jedoch übergangen.

Somit kann Control-Panel-gesteuertes AF sowohl langsamer sein als auch BQ kosten. Daher ist anwendungsgesteuertem AF immer vorzuziehen, sofern vorhanden.

Leonidas
2005-08-12, 14:05:29
also ich bin ja mal auf die neue ATI karte gespannt,ob diesmal wohl shader 3 dabei ist?



Todsicher.

eXodia
2005-08-12, 17:42:45
Hi!

Also grade hier (http://www.hardtecs4u.com/reviews/2005/7800gt/) gelesen das die 7800GT in low-k gefertigt wird und die GTX nicht. Also wenn ich mich richtig erinnere kann man doch diese Art von Chips wesentlich höher Takten, oder täusche ich mich da? Hätte das nicht extrem positive Auswirkungen auf die OC-Performance der GT?

GrUß

aths
2005-08-12, 17:45:35
Weil es auch sehr viele Leute gibt, die einen Röhrenmonitor haben und das 4:3-Seitenverhältnis bevorzugen.Und weil man, auch wenn man einen 5:4-TFT hat, dennoch in einer 4:3-Auflösung spielen sollte.

DrumDub
2005-08-12, 17:46:49
Und weil man, auch wenn man einen 5:4-TFT hat, dennoch in einer 4:3-Auflösung spielen sollte. warum?

aths
2005-08-12, 17:47:32
BTW nVidia predigt schon seit Jahren in den Entwicklerunterlagen das man den texturefilter den Texturen anpassen soll.Ja, der Entwickler kann das schließlich am besten einschätzen. Außerdem kann es ja nicht so schwierig sein, 2 oder 3 AF-Qualitätssettings zu definieren, damit der Spieler über das Spielmenü noch eingreifen kann.

aths
2005-08-12, 18:04:04
Zukünftig werde ich demzufolge auch 1280x1024 anstatt 1280x960 einsetzen. Für diesen Test konnte ich das nicht mehr ändern, ich hatte ja bereits die Werte des GTX-Testes.Viele Spiele sehen in 1280x1024 auf einem 5:4-Display verzerrt aus, da sie intern fest von 4:3 ausgehen.

eXodia
2005-08-12, 18:26:05
Hi!

Also grade hier (http://www.hardtecs4u.com/reviews/2005/7800gt/) gelesen das die 7800GT in low-k gefertigt wird und die GTX nicht. Also wenn ich mich richtig erinnere kann man doch diese Art von Chips wesentlich höher Takten, oder täusche ich mich da? Hätte das nicht extrem positive Auswirkungen auf die OC-Performance der GT?

GrUß

* ein 2tes mal Versuch *

deekey777
2005-08-12, 18:49:34
* ein 2tes mal Versuch *

Verschreiber? :biggrin:

Demirug
2005-08-12, 19:59:55
Ja, der Entwickler kann das schließlich am besten einschätzen. Außerdem kann es ja nicht so schwierig sein, 2 oder 3 AF-Qualitätssettings zu definieren, damit der Spieler über das Spielmenü noch eingreifen kann.

Eigentlich müsste es der entsprechenden Artist machen. Technisch ist vieles möglich aber wenn man bedenkt das man immer noch nicht bei allen Spielen AA aktivieren kann...

Leonidas
2005-08-12, 22:30:18
Hi!

Also grade hier (http://www.hardtecs4u.com/reviews/2005/7800gt/) gelesen das die 7800GT in low-k gefertigt wird und die GTX nicht.

GrUß



Ich glaube, da täuscht man sich. Oder ist es ein einfacher Schreibfehler.

Leonidas
2005-08-12, 22:31:28
Viele Spiele sehen in 1280x1024 auf einem 5:4-Display verzerrt aus, da sie intern fest von 4:3 ausgehen.



Mag sein, die TFT-Nutzer sind trotzdem zu 1280x1024 gezwungen. Deswegen werde ich das zukünftig auch einsetzen. Für die Benchmarks ist das egal, bei nur 7% Flächenunterschied ergibt dies einen Performance-Unterschied von 2-3%.

aths
2005-08-12, 23:55:52
Mag sein, die TFT-Nutzer sind trotzdem zu 1280x1024 gezwungen. Deswegen werde ich das zukünftig auch einsetzen. Für die Benchmarks ist das egal, bei nur 7% Flächenunterschied ergibt dies einen Performance-Unterschied von 2-3%.Ich habe einen 5:4-Monitor und spiele in 1280x960. Zu 1280x1024 zwingt mich keiner.

ollix
2005-08-13, 09:33:53
Zu 1280x1024 zwingt mich keiner. Ich habe mich früher schon gefragt, was diese Auflösung soll und erst recht warum sie dann zur (mehr oder weniger) aktuellen Standardauflösung von TFTs gemacht wurde.

Gast
2005-08-13, 12:20:33
"Leider gibt es keine exakten Aussagen von nVidia zum benötigten Netzteil, allerdings kann man aufgrund der Angabe der niedrigeren Spitzen-Leistungsaufnahme durchaus interpolieren, das es etwas niedriger ist als die Netzteil-Empfehlungen bei der GTX."

interpolieren hat eine etwas andere Bedeutung wie interpretieren. -.-

Kladderadatsch
2005-08-13, 12:39:31
'tschuldigung wenn das jetzt nicht ganz passt:
habe ich es einfach nur vergessen, oder ist man weder im gtx, noch im gt artikel genauer auf neue features wie ultra shadow 2 oder 3dc eingegangen? (letzteres habe ich jedoch in erinnerung)
oder gibts zur technik wie beim nv40 noch einen extra artikel?

interessant wäre nämlich auch, in wie weit dieses ultra shadow verbessert wurde. (wurde da die berechnung der stencil shadows verbessert, oder hat das damit nichts zu tun?)
was bringt 3dc? eventuell performanter als das der ati-karten?
(hier wird doch komprimiert? stärker/schwächer als bei ati?)

Ailuros
2005-08-13, 14:43:16
'tschuldigung wenn das jetzt nicht ganz passt:
habe ich es einfach nur vergessen, oder ist man weder im gtx, noch im gt artikel genauer auf neue features wie ultra shadow 2 oder 3dc eingegangen? (letzteres habe ich jedoch in erinnerung)
oder gibts zur technik wie beim nv40 noch einen extra artikel?

interessant wäre nämlich auch, in wie weit dieses ultra shadow verbessert wurde. (wurde da die berechnung der stencil shadows verbessert, oder hat das damit nichts zu tun?)
was bringt 3dc? eventuell performanter als das der ati-karten?
(hier wird doch komprimiert? stärker/schwächer als bei ati?)


http://www.3dcenter.de/artikel/2005/06-26_a.php

Kladderadatsch
2005-08-13, 18:31:46
http://www.3dcenter.de/artikel/2005/06-26_a.php
edit: wo wird das erwähnt?

Ailuros
2005-08-14, 04:35:45
edit: wo wird das erwähnt?

Oooops Du hast tatsaechlich recht; ich hab die Artikel verwechselt:

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=02

Leonidas
2005-08-15, 08:14:04
Liste der Übertaktungsergebnisse




Takt Test
471/570 MHz Hard Tecs 4U (http://www.hardtecs4u.com/reviews/2005/7800gt/index4.php)
454/600 MHz Hardwareluxx (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=227&seite=2)
499/600 MHz GameSpot (http://hardware.gamespot.com/Story-ST-22545-2450-x-x-x)
480/600 MHz GamerGod (http://www.gamergod.com/hw_review.cfm?hw_id=84&cat_id=274)
495/585 MHz Gamers Depot (http://www.gdhardware.com/hardware/video_cards/evga/7800gt/003.htm)
470/600 MHz X-bit Labs (http://www.xbitlabs.com/articles/video/display/geforce7800-gt_4.html)
490/550 MHz Hot Hardware (http://www.hothardware.com/viewarticle.cfm?articleid=715)
475/540 MHz The Tech Report (http://www.techreport.com/reviews/2005q3/geforce-7800gt/index.x?pg=10)
465/600 MHz Guru3D, Karte 1 (http://www.guru3d.com/article/Videocards/242/18/)
465/600 MHz Guru3D, Karte 2 (http://www.guru3d.com/article/Videocards/242/18/)
465/600 MHz Guru3D, Karte 3 (http://www.guru3d.com/article/Videocards/242/18/)
425/525 MHz HardOCP (http://www.hardocp.com/article.html?art=ODAzLDEy)
459/560 MHz Digit-Life (http://www.digit-life.com/articles2/video/g70-4.html)
496/575 MHz Hardware.fr (http://www.hardware.fr/articles/584-2/nvidia-geforce-7800-gt.html)
510/625 MHz PConline (http://www.pconline.com.cn/diy/evalue/evalue/graphics/0508/687052_14.html)
465/545 MHz HKEPC (http://www.hkepc.com/hwdb/7800gt-3.htm)



Im Schnitt also 474/580 MHz.

Leonidas
2005-08-15, 08:26:56
"Leider gibt es keine exakten Aussagen von nVidia zum benötigten Netzteil, allerdings kann man aufgrund der Angabe der niedrigeren Spitzen-Leistungsaufnahme durchaus interpolieren, das es etwas niedriger ist als die Netzteil-Empfehlungen bei der GTX."

interpolieren hat eine etwas andere Bedeutung wie interpretieren. -.-


Korrekt. Und ich meinte in diesem Augenblick wirklich interpolieren und nicht interpretieren. Interpolieren in dieser Form, aus der Differenz der Leistungsaufnahmen auf eine Netzteil-Empfehlung für die GT zu schließen.

Kladderadatsch
2005-08-15, 08:30:57
Oooops Du hast tatsaechlich recht; ich hab die Artikel verwechselt:

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=02
ok, danke=)

ps.: warum 'reagiert' hdr in far cry nicht auf sli?:confused:

Hübie
2005-08-15, 16:32:18
Guter Test. Macht das ganze doch wieder übersichtlicher...
Aber so überragend ist diese Karte net.
Aber mal abwarten wie sich die Preise weiterhin entwickeln werden :)
Man steht ja dann bald im Konflikt - ATi´s crossfire oder nVidia´s SLI ???


bye Hübie

Gaestle
2005-08-16, 16:23:33
Mir stellt sich die Frage, warum man bei 10-20% mehr Balkenlänge, die die 7800GT im Vgl. zu einer 6800U hat, bei einer ähnlichen Preisdifferenz die 7800GT empfiehlt, obwohl diese ein schlechteres Bild liefert / liefern soll, was sowohl im Test selbst, als auch in einem separaten Artikel (zurecht!!!) kritisiert wird.

Gerade hier im Forum ist doch die Diskussion sehr stark, deswegen bin ich von dem Fazit enttäuscht, weil es nach meiner Auffassung genau das macht, was hier bei anderen Mags und Tests (zurecht!!!) angekreidet wird, nämlich "Balkenlänge über alles".

Ich denke eher an ein Fazit alá : "Wenn die 7800GT eine gleichwertige Bildqualität liefern könnte, würden wir bei einer entsprechenden Preisdifferenz zur 6800U aufgrund diverser Vorzüge trotzdem zur teureren 7800GT raten. Die Mängel in der Bildqualität machen jedoch den Geschwindigkeitsvorteil obsolet, so dass wir nach derzeitigem Stand der Dinge im Zweifel trotzdem zur 6800U raten."

Das wäre für mich inhaltlich konsistenter.

Grüße

Leonidas
2005-08-16, 17:23:33
Das wird die Aufgabe zukünftiger Artikel. Der GT-Artikel entstand am Donnerstag zwischen 7:18 und 16:00.

Gaestle
2005-08-16, 17:41:51
Denkst Du, dass ein Update möglich wäre?

Denkst Du, dass Du in Zukunft zum Launch-Termin immer sofort einen Artikel parat haben musst (möglicherweise mit Abstrichen bei der ... hmmm ... Qualität des Artikels)? Denkst Du, dass sich die Situtation der knappen Zeit, in der eine Karte zum testen da ist, in Zukunft ändert? Denkst Du, dass es Dir Deine Leser/innen nicht verzeihen, wenn Du z.B. sagst: "Okay, bestimmte Sachen dauern länger, die Lieferung der Karten ist immer zu knapp, deswegen kommt mein Artikel etwas später, ist dafür dann aber auch besser"?

Und warum ist der Artikel in sofern (IMHO) inkonsistent, als dass die Filterschwäche zweimal angesprochen wird, im Fazit aber unbeachtet bleibt?

Ich denke es wäre der Glaubwürdigkeit dienlich, wenn ein Kurs gefahren würde, gerade wenns es sich darum dreht, dass man auf eine gewisse Art und Weise die Avantgarde (i.S.v. Neues bringen, Neues verlangen) darstellt und dies auch sicher zurecht.

Das wird die Aufgabe zukünftiger Artikel. Der GT-Artikel entstand am Donnerstag zwischen 7:18 und 16:00.

Hmmm. Eine Leistung, die ohne Zweifel zu würdigen ist. Aber (bitte nicht falsch verstehen), soweit ich das sehe, es ist Dein Job. Und den muss eine Bäckersfrau oder sonstwer (auf dem entsprechenden Gebiet) auch möglichst korrekt machen.

Grüße

Leonidas
2005-08-16, 19:55:34
Denkst Du, dass sich die Situtation der knappen Zeit, in der eine Karte zum testen da ist, in Zukunft ändert?


Das war ein Ausnahme, die so sicher nicht wieder vorkommen wird.

Leonidas
2005-08-16, 19:56:44
Denkst Du, dass ein Update möglich wäre?



Ich denke, eher ein neuer Artikel. Noch weiss ich aber nicht, wie ich das machen sollte - schließlich flimmert auf der 7800 auch HQ und was besseres gibt es derzeit nicht.

Majestic
2005-09-19, 18:16:26
NONSENS *Liebe Mods bitte trashen* Danke