PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 9600GT Bildqualität


dllfreak2001
2008-02-27, 15:05:00
Im Internet kursieren derzeit Gerüchte, dass der neue Treiber für die 9600GT wahre Wunder bewirkt. Leider wurden in den ganzen Reviews zur 9600GT keine detailierten Bildqualitätsvergleiche durchgeführt.

Wer von euch hat eine 9600GT und kann dazu was berichten?...

AnarchX
2008-02-27, 15:07:05
Der 174er FW scheint durchaus teilweise die Leistung massiv zu erhöhen, aber nicht auf Kosten der BQ, jedenfalls meint das PCGH:
http://www.pcgameshardware.de/aid,633746/Test/Benchmark/Geforce-Treibertest_Forceware_174_sorgt_fuer_bis_zu_65_Prozent_mehr_Leistung/

Auch HT4u scheint nichts auffälliges zu erkennen:
http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/index10.php

Mr. Lolman
2008-02-27, 15:29:51
Naja, bei PCGH hat man sich zumindest ein Hintertüchen offen gelassen:

Die Qualität wird laut unseren Screenshots nicht beeinflusst.

Bloß anhand von Screenshots erkennt man kaum irgendwelche Filtertricks ;)

LovesuckZ
2008-02-27, 15:33:36
Als AMD-User sollte man sich bezüglich Filtertricks nicht zu Wort melden.

Thunder99
2008-02-27, 15:38:30
Als AMD-User sollte man sich bezüglich Filtertricks nicht zu Wort melden.
Und was hat das mit dem Thread zu tun?

@Topic : Wäre interessant, wobei da erst mit späteren Treiberreleases da irgendwelche Vergleiche möglich sind

Anarchy-HWLUXX
2008-02-27, 15:39:36
Solang die BQ nicht schlechter wird können se so viel tricksen wie sie wollen ...

PS : Wie bkommt man den 174er mit ner 8800GTS512 zum laufen, bei mir wollt der net :|

LovesuckZ
2008-02-27, 15:41:18
Und was hat das mit dem Thread zu tun?


Das ich Mr.Lolman's Sarkasmus in seiner Position unpassend finde.

Coda
2008-02-27, 15:58:20
Bloß anhand von Screenshots erkennt man kaum irgendwelche Filtertricks ;)
Wenn sie bitidentisch sind kann man davon ausgehen dass es keine Verschlechterung gab.

dllfreak2001
2008-02-27, 16:09:28
Die beiden Links sagen imho nicht sehr viel aus... Ein ausführlicher Qualitätstest wurde nicht durchgeführt.
PCGH schreibt nur etwas von keinen Qualitätseinbussen kann die aber nirgends belegen, die Bilder demonstrieren
nur das neue AA für Alphatexturen mehr nicht!

@Loveuckz, ich sag zu solchen Reaktionen einfach nix mehr.

Vertigo
2008-02-27, 16:21:37
Die Verbesserungen betreffen doch nicht nur die 9600GT, sondern alle unterstützten Geforce-Karten - auch wenn der Treiber offiziell nur für die 9600GT vorgesehen ist. Mit späteren Treibern sollte es dann auch für andere Geforce8-Karten offiziell sein.

Ein umfassender Qualitätsvergleich? Aufwand und Nutzen halten sich da nicht gerade die Waage, also wird man wohl warten oder einfach selbst testen müssen. Außerdem ist doch in erster Linie von "Optimierung des Speichermanagements" die Rede, nicht von Filteroptimierungen.

puntarenas
2008-02-27, 16:34:11
Sehe ich ähnlich, angesichts der beachtlichen Leistung einer 9600GT im Verhältnis zur 8800GT, ganz besonders mit 16xAF und 4xAA, wäre eine Entwarnung dass definitiv nichts erschummelt wurde von kompetenter Seite einfach schön.

AnarchX
2008-02-27, 16:36:47
Sehe ich ähnlich, angesichts der beachtlichen Leistung einer 9600GT im Verhältnis zur 8800GT, ganz besonders mit 16xAF und 4xAA, wäre eine Entwarnung dass definitiv nichts erschummelt wurde von kompetenter Seite einfach schön.
HT4u hat doch die 8800GT mittlerweile auch mit dem 9600GT-Treiber getestet:
http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/index10.php

Und dass die 9600GT unter 4xAA kaum langsamer als die 8800 GT ist, ist auch kein Wunder bei gleicher Bandbreite und höherer ROP-Leistung.;)

puntarenas
2008-02-27, 16:38:51
Und das die 9600GT unter 4xAA kaum langsamer als die 8800 GT ist, ist auch kein Wunder bei gleicher Bandbreite und höherer ROP-Leistung.;)
Thx :)

Gast
2008-02-27, 16:47:42
Als AMD-User sollte man sich bezüglich Filtertricks nicht zu Wort melden.

Hi

Dir ist schon klar, das Du damit eine Diskussion wiede entfachst, welche nicht notwendig ist.

Zum Thema, ist doch fein, wenn die BQ passt.

Gruss Labberlippe

Razor
2008-02-27, 17:14:32
Sehe ich ähnlich, angesichts der beachtlichen Leistung einer 9600GT im Verhältnis zur 8800GT, ganz besonders mit 16xAF und 4xAA, wäre eine Entwarnung dass definitiv nichts erschummelt wurde von kompetenter Seite einfach schön.
Was für eine "beachtliche Leistung einer 9600GT im Verhältnis zur 8800GT" :confused:
Durchweg kann man beobachten, dass die Leistung absolut im Rahmen der Erwartung (und auch der Preisvorstellung nVidias ;-) liegt.

Dir ist schon klar, das Du damit eine Diskussion wiede entfachst, welche nicht notwendig ist.
Eigentlich hat Lolman (wieder mal :rolleyes:) damit angefangen...

...und höherer ROP-Leistung.
'Dank' satten 50MHz mehr GPU-Takt... ;D

Razor

Coda
2008-02-27, 17:16:00
Die Leistung ist dafür dass nur halb so viele ALUs und TMUs zur Verfügung stehen durchaus beachtlich.

Razor
2008-02-27, 17:20:34
Die Leistung ist dafür dass nur halb so viele ALUs und TMUs zur Verfügung stehen durchaus beachtlich.
Klar... weswegen nVidia den MSRP auch 'heftige' 10€ unterhalb der 88GT ansetzt.
Allerdings 'bringen' beiden Karten 16ROPs... hier also keine 'Bescheidung' bei der 9600GT vorliegt.

Razor

Gast
2008-02-27, 17:27:02
Die Leistung ist dafür dass nur halb so viele ALUs und TMUs zur Verfügung stehen durchaus beachtlich.
Bei einem super shaderlastigen Spiel müsste die 9600GT doch zusammenfallen.
Wenn der Trend zu mehr Shaderleistung geht, hat die 9600GT bald große Schwierigkeiten mitzuhalten.

puntarenas
2008-02-27, 17:29:56
Bei shaderlastigen Spielen nimmt der Vorsprung der 8800GT auch erwartungsgemäß zu, Voodoo-Magic ist bei der 9600GT keine dahinter. Bei herkömmlichen aktuellen und älteren Titlen spielt sie dagegen sehr gut mit und das ist eben IMHO beachtlich, weil ich nicht gedacht hätte, dass G92 derart auf die Zukunft balanciert ist.

Im Moment, mit der kommenden Generation am Horizont im Blick, erscheint mir die 9600GT eine prima Übergangskarte zu sein und das ohne dass man große Abstriche machen muss.

Mr. Lolman
2008-02-27, 17:34:21
Wenn sie bitidentisch sind kann man davon ausgehen dass es keine Verschlechterung gab.

Stimmt. Nur sind sie denn bitidentisch? Kann sein, kann auch nicht sein. PCGH wird sich bei der Formulierung schon was gedacht haben.



Eigentlich hat Lolman (wieder mal :rolleyes:) damit angefangen...


Lies dir bitte nochmal durch, was ich geschrieben hab. :rolleyes:

Außerdem ists mal wieder bezeichnend, dass sich an dieser Aussage wohl nur du und LS stossen.


DISCLAIMER: Ich hab niemandem Cheaterei unterstellt, sondern schrieb nur, dass sich PCGH ein Hintertürchen offengelassen hat. Und in Anbetracht der von mir gequoteten Aussage, kann das wohl auch niemand abstreiten.

Razor
2008-02-27, 17:43:09
Lies dir bitte nochmal durch, was ich geschrieben hab. :rolleyes:
Ich quote es Dir, weil Du es ja offenbar 'vergessen' hast?
Bloß anhand von Screenshots erkennt man kaum irgendwelche Filtertricks ;)
Muss ich Dir das übersetzen, oder kommst Du von alleine drauf?

Aber auch für Dich nochmal im Detail:
- gibt es IRGENDWO einen Hinweis auf "irgendwelche Filtertricks", die Du unterstellt hast?
- gibt es überhaupt IRGENDEINEN Grund, warum Du gepostet hast?

Außerdem ists mal wieder bezeichnend, dass sich an dieser Aussage wohl nur du und LS stossen.
Immer wieder gern, weißt Du doch ;)

Halte Dich einfach mit vollkommen unbegründeten Verdächtigungen dieser Art zurück...
...fundierte Kommentare sind hingegen erwünscht, hast Du doch früher irgendwann auch mal hinbekommen.

Und wo wir gerade dabei sind: ATI hat momentan den BQ-Buhmann.
Nicht abschaltbare Optimierungen sind wirklich keine feine Art... willst Du, dass es hier einen "Ausgleich" gibt?

Razor

Gast
2008-02-27, 17:43:41
weil ich nicht gedacht hätte, dass G92 derart auf die Zukunft balanciert ist.
Das ist natürlich schön zu lesen.

Wenn der G92 endlich mal, im Vergleich zu den vor G8X Chips von NV nicht gleich mit dem Nachfolger für die Tonne ist, weil oh Wunder die Shaderleistung nicht ausreicht, wäre das schön.

Bis jetzt habe ich das so in Erinnerung:
NV hat eine Karte, mit dem Nachfolger wird klar, das die alte viel zu wenig Shaderpower hat und völlig bei neuen Spielen zusammenbricht.
Das Spiel hat NV jetzt ungefähr seit dem NV30 bis zum G71 durchgeführt.
Wenn jetzt nur die Mittelklasse zusammenbricht wärs mir egal.

RoNsOn Xs
2008-02-27, 17:49:14
Bei shaderlastigen Spielen nimmt der Vorsprung der 8800GT auch erwartungsgemäß zu

Stimmt leider überhaupt nicht. Hab mir UT3 angeschaut in 1280 und 1680 15fps vorsprung und bei 1920 plötzlich nur noch die hälfte an vorsprung. irgendwas passt da ja nicht
edit: bei timeshift ähnliches spiel

dllfreak2001
2008-02-27, 17:49:21
Ich hätte nicht erwartet, dass NV einfach durch nen Treiberupdate derartige Performancesprünge erzeugen kann. Außerdem ist bezeichnend für den Treiber, dass in den meisten bisherigen Reviews alle anderen NV-Karten mit dem vermeindlich langsameren Treiber getestet wurden.
3D-Center hat ja grad nix zutun, da könnten die hier auch wieder mal ein vernünftiges Review zur Karte und den Treibern machen. Weil ich denke in einigen Reviews wird viel zu oft von den 8XXX-Karten auf die 9600GT geschlossen und umgekehrt...
Nach dem Motto, BQ war bei der 8800GT Top also ist es bei der 9600GT auch so...

Außerdem ist auch die Frage wie der Treiber denn in Non-Mainstreamspielen skaliert.
Einige User konnten eine Abnahme der Avg-fps bei gleichzeitiger Erhöhung der Min-FPS festestellen (eigentlich ja ne gute Sache, nur kann es vielleicht auch zu Problemen kommen).

Mal eingeschoben: NV hat Treiberoptimierungen auf Kosten der BQ erst Salonfähig gemacht...

Vertigo
2008-02-27, 17:56:22
Stimmt leider überhaupt nicht. Hab mit UT3 angeschaut in 1280 und 1680 15fps vorsprung und bei 1920 plötzlich nur noch die hälfte an vorsprung. irgendwas passt da ja nicht
edit: bei timeshift ähnliches spiel
Was meinst Du konkret? Dass in höheren Auflösungen bzw. mit MSAA die Speicherbandbreite eher limitiert und da diese bei 9600GT und 8800GT identisch ist sich die Ergebnisse der beiden annähern? Das ist doch nicht ungewöhnlich.

Gast
2008-02-27, 18:09:38
3D-Center hat ja grad nix zutun, da könnten die hier auch wieder mal ein vernünftiges Review zur Karte und den Treibern machen.
Und woher soll die Karte kommen?

dllfreak2001
2008-02-27, 18:25:21
Kaufen!
In den Arsch geschoben möchte ich auch so eine Karte bekommen....

Außerdem warum machen die denn so einen Artikel mit "9600GT... endlich 256Bit in der Mittelklasse"(was ja garnicht stimmt!) wenn sie nicht einmal eine Karte vorliegen haben.

Sry, dass ich grad so abgedreht bin, bitte nicht persönlich nehmen. Aber 3D-Center macht ja in letzter Zeit Review-mässig garnix mehr und vielleicht sollten die mal bei NV und Co. anrufen...weil ohne nix kommt nix..

Gast
2008-02-27, 18:30:10
Außerdem warum machen die denn so einen Artikel mit "9600GT... endlich 256Bit in der Mittelklasse"(was ja garnicht stimmt!)
Was ist daran falsch?


Aber 3D-Center macht ja in letzter Zeit Review-mässig garnix mehr und vielleicht sollten die mal bei NV und Co. anrufen...weil ohne nix kommt nix..
Schon mal daran gedacht, dass das 3DC die IHVs etwas verärgert hat, durch die BQ Betrachtungen?

puntarenas
2008-02-27, 18:31:19
Kaufen!
In den Arsch geschoben möchte ich auch so eine Karte bekommen....

Kein Grund ausfallend zu werden, oder warst du über die Jahre so sparsam mit Beiträgen, damit du jetzt mal richtig auf die Kacke hauen kannst?

"Nichts zu tun" ist ja auch so ein Ding, wie es aussieht arbeitet ein Teil der Crew am CMS und die anderen schreiben eben Artikel, wenn sie Zeit und Muße haben, sind ja nicht unsere Bediensteten. Zudem werden die meisten das CMS abwarten, um dann komfortabler publizieren zu können, zumindest hoffe ich persönlich, dass dann wieder mehr gemacht wird, Anspruch darauf hat aber keiner. Aus welchem Budet die Karte bezahlt werden soll, wenn nicht zufällig einer eine 9600GT privat benötigt, hast du auch nicht erklärt.

Gast
2008-02-27, 18:35:19
Eben, früher gabs noch ab und an Karten zum testen, nach dem Test wurde diese wieder zurück zum Hersteller geschickt.
Entweder 3DC steht auf der schwarzen Liste oder die Hersteller geben keine mehr raus. Das Zweite kann nicht sein, bei den ganzen anderen Seiten die Testsamples für lau bekommen.

dllfreak2001
2008-02-27, 19:00:43
@Gast1 256-Bit in der aktuellen Mittelklasse hatte ATI definitiv vor NV, siehe 3850!
Darauf wollte ich nur mit der Aussagehinaus hinaus.

@puntarenas... Ich lese aber häufig und regelmässig mit und in letzter Zeit gibt es praktisch gar keine Review und die Artikel sehen auch eher wie kleine Zusammenfassungen aus Berichten von Fremdseiten aus. Es wirkt eben mittlerweile lustlos wie die Seite geführt wird.
Außerdem kannst du mir nicht erzählen, dass im Falle der BQ nicht irgendjemand aus der Crew eine 8800GT hat mit der mindestens der neue Treiber geprüft werden kann.

Gast
2008-02-27, 19:06:24
@Gast1 256-Bit in der aktuellen Mittelklasse hatte ATI definitiv vor NV, siehe 3850!
Darauf wollte ich nur mit der Aussagehinaus hinaus.

Na dann, wurde nur das Wort "NV" weggelassen. ;)
Die 9600 kann die 8600 mehr als würdig ersetzen, bei NV gibt es jetzt seit 2 Jahren wieder eine gute Mittelklasse.

puntarenas
2008-02-27, 19:08:36
Möglicherweise hat tatsächlich jemand eine 8800GT, aber um die Bildqualität einer 9600GT zu beurteilen wäre eine solche natürlich vorzuziehen, denkbar wären ja auch verscheidene Profile im Treiber.

Im Grunde gebe ich dir Recht, 3DCenter hat kompetente Leute und ein Artikel mit Bildqualitätsbetrachtungen zur 9600GT wäre natürlich wünschenswert. Wenn sich nichts geändert hat, was ja wahrscheinlich erscheint und wir alle hoffen wollen, wäre diese Betrachtung vermutlich schnell erledigt. Allerdings gefiel mir halt der Ton nicht, in dem du dein Anspruchsdenken formuliert hast.

Mr. Lolman
2008-02-27, 19:30:48
Ich quote es Dir, weil Du es ja offenbar 'vergessen' hast?

Muss ich Dir das übersetzen, oder kommst Du von alleine drauf?

Aber auch für Dich nochmal im Detail:
- gibt es IRGENDWO einen Hinweis auf "irgendwelche Filtertricks", die Du unterstellt hast?
- gibt es überhaupt IRGENDEINEN Grund, warum Du gepostet hast?

Was hab ich unterstellt? Für dich zum 3. Mal: Ich schrieb bloß, dass sich die PCGH mit ihrer Formulierung ein Hintertürchen offengelassen hat.

Beispiel:

X schreibt in einem Forum: "Mit den neuen Reifen fährt der Porsche viel schneller um die Kurven und dabei sind die aber genau so sicher wie die originalen" und bezieht sich mit dem letzten Satzteil auf die Aussage eines Testers: "Die gleichmässige Abnutzung der Reifen erzeugte bei uns keine Sicherheitsbedenken"

Und dann komm ich her, und sag, dass sich der Tester eine Hintertür offen gelassen hat, da ja man Sicherheitsbedenken nicht allein anhand einer gleichmässigen Reifenabnutzung ausschliessen kann und dann kommst du daher und behauptest, dass ich den neuen Reifen Sicherheitsprobleme unterstelle.

Merkst du was?


Halte Dich einfach mit vollkommen unbegründeten Verdächtigungen dieser Art zurück...
...fundierte Kommentare sind hingegen erwünscht, hast Du doch früher irgendwann auch mal hinbekommen.

Du schwelgst dich wohl wiedermal in deiner Paranoia. Wen hab ich bitteschön wo verdächtigt?



Und wo wir gerade dabei sind: ATI hat momentan den BQ-Buhmann.
Nicht abschaltbare Optimierungen sind wirklich keine feine Art... willst Du, dass es hier einen "Ausgleich" gibt?

Razor


Hint: Es gibt diverse Regkeys, die ich mit der 3870 alle noch nicht durchprobiert hab, aber bei der X1900XTX damals die Filterqualität steuerten. Dass man mit den ATT und AIHigh die Filteroptimierungen abschalten kann, stand aber ohnehin schon mehrmals im Forum.

dllfreak2001
2008-02-27, 19:37:20
@puntarenas
Das ist der Unmut in mir über die Zustände dieser Seite und Lovesuckz-Kommentar...
Ich hoffe auch, dass nach dem Umbau der Seite endlich mehr kommt.
Aber glauben tu ich das leider nicht...
3D-Center war früher eine prima HP für halbwegs objektive Berichterstattung...
Und speziell das Forum hat sich zu einer Fanboy-Bude verwandelt mit definierter Ausrichtung . Da werde ich direkt hier angegriffen weil ich gerne eine nähere BQ-Betrachtung der neuen NV-Treiber hätte (zumal ich noch zwischen einer HD3850-512MB und einer 9600GT schwanke). Dagegen in anderen Threads die BQ der aktuellen ATI-Karten in Grund und Boden geredet werden, was ja auch stimmen mag. Aber dieses abartige Fanboy-Geseihere ist nicht auszuhalten.

Gast
2008-02-27, 20:13:58
Hint: Es gibt diverse Regkeys, die ich mit der 3870 alle noch nicht durchprobiert hab, aber bei der X1900XTX damals die Filterqualität steuerten. Dass man mit den ATT und AIHigh die Filteroptimierungen abschalten kann, stand aber ohnehin schon mehrmals im Forum.

Also absichtliches Cheating? Noch schlimmer...

Gast
2008-02-27, 20:29:30
Bisher ist mir nur bei Verwendung von TMSAA eine mehr an grieseln ins Auge getroffen. Oder das Spieleprofil für WOW hat hier eine Änderung erfahren. Da TSSAA zuviel Leistung (bei 8x) benötigt, fahre ich seit längerer Zeit den kleineren Modus. An den Bodentexturen ist jedoch, wenn man die Optimierungen deaktiviert bevor man auf HQ stellt, nichts geändert. Sprich der AF Filter ist unverändert und es wäre auch bescheuert wenn bei der Rohleistung da versucht wird zu sparen, zumal bei der Bandbreite der 9600GT das gar nicht mehr ins Gewicht fällt.
Eher Shadercode Optimierung/Replacement in den "Systemseller" Games wird Leistung bringen.

Gast
2008-02-27, 20:35:03
Also absichtliches Cheating? Noch schlimmer...
Würden die grünen ja nie machen. ;)
Und warum sich immer alle so sicher sind das man bei denen alles abschalten kann ist mir auch ein Rätsel.
Müssen echte Spezialisten sein die den Treiber nach Strich und Faden zerlegen und überprüfen.
Vor allem LS sollte seine Anspielungen und Kommentare langsam lassen. Er ist einer der Sorte der regelmäßig alles so dreht wie es ihm am besten in den Kram passt.
Das die grünen da immer wieder die guten sind sollte sich auch rumgesprochen haben.

RoNsOn Xs
2008-02-27, 20:36:42
Was meinst Du konkret? Dass in höheren Auflösungen bzw. mit MSAA die Speicherbandbreite eher limitiert und da diese bei 9600GT und 8800GT identisch ist sich die Ergebnisse der beiden annähern? Das ist doch nicht ungewöhnlich.
wieso sollten sie sich annähren? sollte es nich konstant bleiben bzw in den games an abstand zunehmen?
kontkret sollte der abstand zunehmen, da der 9600gt ja die hälfte an shader power fehlt bzw die "unified shaders". ich bin dabei ja auf sahderpower-bevorzugenen games eingegangen.

LovesuckZ
2008-02-27, 20:39:19
Vor allem LS sollte seine Anspielungen und Kommentare langsam lassen. Er ist einer der Sorte der regelmäßig alles so dreht wie es ihm am besten in den Kram passt.
Das die grünen da immer wieder die guten sind sollte sich auch rumgesprochen haben.

Stimmt, ich spiele mit Quality und predige High Quality. :rolleyes:

AnarchX
2008-02-27, 20:53:35
wieso sollten sie sich annähren? sollte es nich konstant bleiben bzw in den games an abstand zunehmen?
kontkret sollte der abstand zunehmen, da der 9600gt ja die hälfte an shader power fehlt bzw die "unified shaders". ich bin dabei ja auf sahderpower-bevorzugenen games eingegangen.
Wie Vertigo es schon erklärt, je höher die Auflösung, umso mehr steigt auch die Last im Bezug auf Bandbreite, Pixel/Zixelleistung und Speicherverbrauch und in diesen Punkten sind 9600GT und 8800GT auch nahezu gleich, sodass sie sich eben annähern.

Wirklich schneller könnte die 8800 GT wohl in Szenarien mit komplexer Geometrie sein, die aber von Spieleentwicklern eher vermieden werden.

RoNsOn Xs
2008-02-27, 21:15:54
also spiegeln nur die rund 8-9fps verlust der 96gt gegenüber der 88gt in ut3 bei 1920x.. die fehlenden shadereinheiten wieder? früher brachte es soviel (bei gf6 zB) wenn man schon 4 zusätzliche dazu schalten konnte. hier bringt das dann ja noch kaum was.

puntarenas
2008-02-27, 21:24:24
also spiegeln nur die rund 8-9fps verlust der 96gt gegenüber der 88gt in ut3 bei 1920x.. die fehlenden shadereinheiten wieder? früher brachte es soviel (bei gf6 zB) wenn man schon 4 zusätzliche dazu schalten konnte. hier bringt das dann ja noch kaum was.
Worauf beziehst du dich denn? Bei PCGH und hardware.fr sind die Unterschiede teilweise sehr viel deutlicher und dort wurden beide Karten mit 174.16 getestet:

http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html
http://www.pcgameshardware.de/aid,633071/Test/Benchmark/PCGH-Test_Geforce_9600GT/

Zur Bildqualitätsdiskussion tragen übrigens beide Links nichts bei ;)

RoNsOn Xs
2008-02-27, 21:28:23
Auf den Link aus Post #12

puntarenas
2008-02-27, 21:38:42
Ich muss zugeben, in dem ht4u-Review schneidet die übertaktete 9600GT ganz besonders gut ab :)
http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/index10.php

Ich schlage trotzdem vor, das Performance-Thema in den Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=404904) zu verlagern.

Gast
2008-02-27, 22:12:18
Man sieht deutlich das der G94 gut gelungen ist und der G92 unter enormen Zeitdruck zusammen gezimmert wurde :rolleyes: ich würde mich richtig ärgern wenn ich den Bug G92 hätte,naja ich hatte ihn ja ,aber nur für 3 h :P

PCGH_Carsten
2008-02-27, 22:24:54
Naja, bei PCGH hat man sich zumindest ein Hintertüchen offen gelassen:



Bloß anhand von Screenshots erkennt man kaum irgendwelche Filtertricks ;)
Ich hoffe, dass ich jetzt auch im Namen von Kollegen Raff spreche: Natürlich behaupten wir nichts, was wir nicht belegen können. Und das* könnten wir nur, wenn wir wirklich alle Spiele in allen Einstellungen und allen Szenen durchprobiert hätten. Bei der Anzahl an verfügbaren Spielen (etliche tausend), in Kombination mit mindestens 4³ verschiedenen Forceware-Qualitätseinstellungen und – sind wir mal großzügig – 100 Szenen pro Spiel (dürften ein paar mehr sein) bräuchten wir vermutlich ziemlich lange, um belegen zu können, dass sich nichts an der Bildqualität getan hat. Insofern können wir leider immer nur Stichproben machen und müssen uns dieses – wie du sagst – Hintertürchen offenlassen.

Ich freue mich auf den bald erscheinenden Artikel auf 3DCenter, der diesen Missstand beheben wird. :)



*belegen, dass sich nichts an der Bildqualität geändert hat…

puntarenas
2008-02-27, 22:29:01
Danke für die Stellungnahme, dann kann man also mit außerordentlich großer Wahrscheinlichkeit davon ausgehen, dass G94 immer noch so schön filtert wie man es mittlerweile unter HQ gewöhnt ist und euer Hintertürchen ist ausgesprochen klein. :)

Gast
2008-02-27, 23:05:19
Wie kann man davon ausgehen?
Die subjektive Betrachtung einer weniger Spiele kann eben kein Grund zu dieser Annahme sein. Die meisten Leute sehen auch kein Unterschied zwischen einer ATI HD38xx und einer NV GF 8xxx in ein und dem selben Spiel. Obwohl da eindeutig Unterschiede sind.

Ihr von PCGH auch mal selbst in die Richtung arbeiten und mal nen kleinen Rundumschlag BQ machen, immerhin werdet ihr dafür bezahlt. Aber bitte
mit fundierten Hintergrund und objektiv.

Mr. Lolman
2008-02-27, 23:12:34
Ich hoffe, dass ich jetzt auch im Namen von Kollegen Raff spreche: Natürlich behaupten wir nichts, was wir nicht belegen können.

Ach, so macht ihr das neuerdings ;)

Natürlich werden im 3DC auch keine hundert verschiedenen Szenen testen können (schon allein aus dem Grund nicht, dass das niemand von uns hauptberuflich macht), aber wir werden natürlich wie immer darauf achten, dass unsere Behauptungen nachvollziehbar und transparent sind.

Danke auf jeden Fall, dass du mit deinem Statement hier Klarheit verschafft hast. :up:

dargo
2008-02-28, 00:04:28
Bei herkömmlichen aktuellen und älteren Titlen spielt sie dagegen sehr gut mit und das ist eben IMHO beachtlich, weil ich nicht gedacht hätte, dass G92 derart auf die Zukunft balanciert ist.

Ich befürchte eher, dass bis Spiele deutlich von hoher aritmetischen Leistung profitieren der G92 dann eh zu langsam sein wird. ;)

Thunder99
2008-03-02, 14:29:17
@puntarenas
Das ist der Unmut in mir über die Zustände dieser Seite und Lovesuckz-Kommentar...
Ich hoffe auch, dass nach dem Umbau der Seite endlich mehr kommt.
Aber glauben tu ich das leider nicht...
3D-Center war früher eine prima HP für halbwegs objektive Berichterstattung...
Und speziell das Forum hat sich zu einer Fanboy-Bude verwandelt mit definierter Ausrichtung . Da werde ich direkt hier angegriffen weil ich gerne eine nähere BQ-Betrachtung der neuen NV-Treiber hätte (zumal ich noch zwischen einer HD3850-512MB und einer 9600GT schwanke). Dagegen in anderen Threads die BQ der aktuellen ATI-Karten in Grund und Boden geredet werden, was ja auch stimmen mag. Aber dieses abartige Fanboy-Geseihere ist nicht auszuhalten.
Schon mal dran GEDACHT das ein ARTIKEL später kommt, wie es schon immer in letzter Zeit war?

BTW, BQ kann echt normal sein, trotz Geschwindigkeitszuwachs, man muss es halt nur prüfen WAS auch gemacht wird, keine Sorge ;)