PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Und da isser: Beta 163.44 Vista/XP


Seiten : [1] 2

Raymond
2007-08-20, 21:10:26
http://www.nzone.com/object/nzone_downloads_rel70betadriver.html

Gruß Ray

Lotzi
2007-08-20, 21:12:40
und wieder kein deustcher treiber KOTZ

(+44)
2007-08-20, 21:15:37
Oh mann Lotzi ;)

nVidia ist nunmal eine Amerikanische Firma. D.h. die Betas kommen erstmal in Landessprache - bei den Finalen Treibern gibts dann wieder Übersetzungen in 25 Sprachen - bei der Beta eben nicht.

Blaire
2007-08-20, 21:20:02
Nice :cool:

Blaire
2007-08-20, 21:23:47
Oh mann Lotzi ;)

nVidia ist nunmal eine Amerikanische Firma. D.h. die Betas kommen erstmal in Landessprache - bei den Finalen Treibern gibts dann wieder Übersetzungen in 25 Sprachen - bei der Beta eben nicht.

Die gibts natürlich auch in deutsch:

XP:
http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winxp_32bit_international_beta.exe

Vista:
http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winvista_32bit_international_beta.exe

Lotzi
2007-08-20, 21:29:43
Die gibts natürlich auch in deutsch:

XP:
http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winxp_32bit_international_beta.exe

Vista:
http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winvista_32bit_international_beta.exe



ich liebe dich...............

Showtime
2007-08-20, 21:34:52
Wozu braucht man Grafikkartentreiber in deutsch?

Blaire
2007-08-20, 21:36:07
BioShock hat AA Bits bekommen also wird da sicher auch FSAA funktionieren!

dargo
2007-08-20, 21:36:07
Wozu braucht man Grafikkartentreiber in englisch?

Gast
2007-08-20, 21:40:26
Wozu braucht man Grafikkartentreiber in englisch?
...öhh, zum zocken?? ? :s

Gast
2007-08-20, 21:41:04
Wozu braucht man Grafikkartentreiber in englisch?


Naja, besser in Englisch als in Suaheli ;)

Gast
2007-08-20, 21:43:08
und weshalb sollte man an diesem Treiber jetzt genau Freude haben? Kann der irgendwas besser als all die anderen 200 Treiber der letzten vier Wochen?

Ich meine jetzt mal abgesehen von Performance-Unterschiede im Promille-Bereich?

ENI
2007-08-20, 21:43:22
Thx Raymond

Wozu braucht man Grafikkartentreiber in englisch?

öhm... um sich nicht das System mit diesen ganzen anderen Sprachdateien zuzumüllen ;)

BurnIn
2007-08-20, 21:45:48
Einmal eingestellt ist die Treibersprache eh shitte-egalie

Und wer macht die ersten Tests?
Ich werde den auf Vista installieren, für XP lieber nicht :)

signum incognitum
2007-08-20, 21:47:35
und wieder kein deustcher treiber KOTZ
Korrektur:
und wieder kein deutscher Treiber ( :eek:)

BlackArchon
2007-08-20, 21:51:33
Ich fasse zusammen:

XP x86 deutsch: http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winxp_32bit_international_beta.exe
XP x64 deutsch: http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winxp64_international_beta.exe
Vista x64 deutsch: http://us.download.nvidia.com/Windows/163.44/163.44_forceware_winvista_64bit_international_beta.exe

Gast
2007-08-20, 22:04:56
gibts auch release notes bzw. ein changelog?

san.salvador
2007-08-20, 22:09:51
BioShock hat AA Bits bekommen also wird da sicher auch FSAA funktionieren!
Das klingt ja mal tittengeil, 8xS ich kommeeeee! :D

Guido
2007-08-20, 22:10:31
Scheint bei Bioshock wirklich was zu bringen.
Dafür funktoniert das RM Clock Symbol nicht mehr.
http://img53.imageshack.us/img53/7956/taskof5.jpg

BlackArchon
2007-08-20, 22:16:43
Rechner neugestartet?

Guido
2007-08-20, 22:18:30
Geht wieder.Nachdem 3 oder 4 neustart.

Superheld
2007-08-20, 22:27:01
aa scheint zu gehen mit den 163.44=)

noAA
http://www.abload.de/thumb/noaasr9.jpg (http://www.abload.de/image.php?img=noaasr9.jpg)

4xAA
http://www.abload.de/thumb/aaep85.jpg (http://www.abload.de/image.php?img=aaep85.jpg)

Gast
2007-08-20, 22:33:23
Cool, wie hast Du das aktiviert? Ich nutze den nHancer, muss ich irgendeinen Kompatibilitätsmodus aktivieren? Simpel AA auswählen reicht nämlich scheinbar nicht. Danke!

mike49
2007-08-20, 22:38:27
aa scheint zu gehen mit den 163.44=)

Vista oder XP?

Superheld
2007-08-20, 22:39:33
alles im Treiber

AA eingestellt und dann Anwendung überschreiben

@mike49

XP

Guido
2007-08-20, 22:42:43
Cool, wie hast Du das aktiviert? Ich nutze den nHancer, muss ich irgendeinen Kompatibilitätsmodus aktivieren? Simpel AA auswählen reicht nämlich scheinbar nicht. Danke!

Ich habs einfach im Treiberpanel eingestellt.

san.salvador
2007-08-20, 22:43:39
Also 2x2 SSAA mit nhancer klappt schonmal nicht. :( Dabei ist gerade das Shaderflimmern so lästig.

mike49
2007-08-20, 22:43:58
Danke @Superheld

Gibt es Hoffnung, daß dann auch auf dem G7x AA funktioniert?

dargo
2007-08-20, 22:44:29
alles im Treiber

AA eingestellt und dann Anwendung überschreiben

@mike49

XP
:confused:

Ich dachte es geht nur unter DX10 :confused:

Superheld
2007-08-20, 22:48:00
nein hab XP;)

vielleicht poste ich noch Bilder

san.salvador
2007-08-20, 22:53:09
MSAA funktioniert bei mir auch mit dem neuen Treiber nicht - Käse. :(

Gast
2007-08-20, 22:55:40
aa funzt bei mir auch nicht gf7 win xp

Cubitus
2007-08-20, 22:55:55
:confused:

Ich dachte es geht nur unter DX10 :confused:

und mit DX10 geht es wiederum nicht :|

Die SLI Performance ist weiterhin auch ohne AA ~15 FPS schlechter,
auch ohne die zugeschalteten DX10 Features.

Außerdem läuft SLI an sich auch nicht gerade sauber !
Schon am Anfang gibt es Grafikfehler, noch dazu stürzt die Demo aus unerklärlichen Gründen öfters ab.
Da muss Nvidia/2KGames noch einiges nachbessern!

Bioshock ist mal wieder so ein "High End" Game das ich zuerst mit XP
durchspielen muss, da hilft es auch nicht, wenn das Merketing es als "natives"
DX10 Game anpreist.

Ich hoffe es wird mit der kommenden Full/Patch für Vista besser aussehen.

Superheld
2007-08-20, 23:01:06
Also 2x2 SSAA mit nhancer klappt schonmal nicht. :( Dabei ist gerade das Shaderflimmern so lästig.

16xS geht auch nich, zieht aber trotzdem massig performance obwohl man nichts sieht

Blaire
2007-08-20, 23:03:26
16xS geht auch nich, zieht aber trotzdem massig performance obwohl man nichts sieht

Sicher weil der Speicher ausgeht, teste mal mit 8xS.

Gast
2007-08-20, 23:15:58
auch wenns ja eher ein bioshock-treiber ist, wäre es doch endlich mal an der Zeit die alten Spiele zu fixen, die nicht vernünftig laufen - aaber mal wieder nix:
c&c3 - shader max - wieder stumpfe Flächen, komplett fehlende Shader(bei fw<100 i.O.)
graw2 - schattenprobleme (sollte mal wieder gehen, alle 3-4 Treiberversionen funktionierts normalerweise^^)
stalker - Beleuchtung, AF immernoch stellenweise komplett daneben (bei fw<100 i.O.)
medieval total war - nichts als zerhackter Mist, kein spielen möglich

Gast
2007-08-20, 23:18:39
auch wenns ja eher ein bioshock-treiber ist, wäre es doch endlich mal an der Zeit die alten Spiele zu fixen, die nicht vernünftig laufen - aaber mal wieder nix:
c&c3 - shader max - wieder stumpfe Flächen, komplett fehlende Shader(bei fw<100 i.O.)
graw2 - schattenprobleme (sollte mal wieder gehen, alle 3-4 Treiberversionen funktionierts normalerweise^^)
stalker - Beleuchtung, AF immernoch stellenweise komplett daneben (bei fw<100 i.O.)
medieval total war - nichts als zerhackter Mist, kein spielen möglich
schreib das nvidia

Superheld
2007-08-20, 23:19:53
Sicher weil der Speicher ausgeht, teste mal mit 8xS.

also 8xS geht :smile:

8xQ/8xAA
http://www.abload.de/thumb/8xaaa6w9.jpg (http://www.abload.de/image.php?img=8xaaa6w9.jpg)

zu 8xS sehe ich kein Unterschied, das Shaderflimmer ist immer noch

Gast
2007-08-20, 23:21:21
schreib das nvidia

hab ich, auf nzone(nvidia eigenes forum) gibt es sogar mehrere Threads zu dem Thema, nur tut sich leider nichts

Blaire
2007-08-20, 23:21:40
Ist wie bei Rainbow Six Vegas da ist auch bei 8xS Feierabend. Kannst höchstens mal testen bei niedrigerer Auflösung vieleicht funkt dann 16xS.

Razor
2007-08-20, 23:33:21
BioShock hat AA Bits bekommen also wird da sicher auch FSAA funktionieren!
Nicht nur das...
(alles im Vergleich vom zuvor aktuellsten Dev-Treiber 163.16)

- Warmonger hat SLI-Profil bekommen
- Flight Simulator X hat DX10-SLI-Profil bekommen (man glaubt es kaum!)
- d3drightmark hat ein Schwesterchen bekommen (rightmark3d) und tut nun SLI auch unter DX10
- Roller Coaster 3 AddOn darf nun auch via SLI
- Call of Juarez hat ein geändertes DX10-SLI-Profil bekommen
- Fifa Soccer 2007 darf auch mal anders SLIen
- Ragnarok hat ebenfalls ein SLI-Brüderchen bekommen
- PT Boats (was ist das?) kann nun auch DX10-SLI
- Supreme Commander darf nun auch anders SLIen
- World in Conflict auch... aber in DX10
- SplinterCell: Double Agent mit AA-FeatureBits? Hmmm...
- Lost Planet kennt nun einen "CustomPerformanceTest"?... AA-Features unter DX9... und geändertes DX9-SLI... Wow!
- Bioshock 'konnte' auch vorher schon DX10-SLI... nun aber anders... und eben nette AA-Features (wie schon geschrieben)

Aber es gibt auch eine ganze Reihe 'Neuerungen':
- AVA
- Age of Conan: Hyborian Adventures (DX9 und DX10, letzteres dürfte nun sogar funktionieren!)
- Switchball
- Bee Movie
- Ratatouille
- Saga
- TX2 Online
- Spider-Man 3
- Desperate housewives
- HuangEonline
- Infernal
- Gods and Heroes: Rome Rising

Für unsere SLI-'Junkies' also durchaus interessant der Treiber.
Wenn auch dieser reichlich alpha sein dürfte... sorry, official beta natürlich!
;)

OK, folgendes gab es im 162.50 WHQL auch schon...
- Lost Planet DX9: AA-Feature Bits
- Age of Conan: Hyborian Adventures DX9
- Age of Conan: Hyborian Adventures DX10 (konnte aber nicht funktionieren ;-)

Vielleicht werde ich mal schaun', ob auch die "inneren Werte" dieses Treibers stimmen...
...allerdings habe ich nach den Dev-Treibern nicht wirklich Lust dazu!
(und das, wo doch 'waschechte' 162.50 Stereos gekommen sind ;-)

-

Ach ja... hätt' ich fast vergessen:
Im Aufbau ähnelt er stark den 'offiziellen' Treibern (also weniger den Devs), unterstützt ein paar Karten/Chips weniger, dafür aber auch genau 2 Karten mehr:

NVIDIA_G84.DEV_0404.1 = "NVIDIA G84-100"
NVIDIA_G86.DEV_0423.1 = "NVIDIA GeForce 8300 GS"

Dürften wohl nicht wirklich waaaaahnsinnig interessant sein.

Razor

PSY-BORG
2007-08-20, 23:44:08
ooops, bei rightmark2 sind die tests im durchschnitt 5-10 % langsamer mit dem 163.44 vista x64.

kann mal jemand auch ein paar speed test´s machen und dann berichten ??


edit: in bioshock geht bei mir das AA immer noch nicht!!!

r00t
2007-08-20, 23:53:46
bringt es performancemäßig in bioshock was bei den geforce 7xxxer karten?

Marc Anton
2007-08-20, 23:58:42
Ich habe eigentlich immer nur die eine Frage: ruckelt die UT Engine noch ? :|

PSY-BORG
2007-08-20, 23:59:17
Ich habe eigentlich immer nur die eine Frage: ruckelt die UT Engine noch ? :|

nö, ist butterweich !!! ;)

san.salvador
2007-08-21, 00:13:10
ich krieg AA einfach nicht hin...

Also Vista32Bit + 8800 GTS + 163.44 + Nhancer - Was muss ich für MSAA/Hybrid einstellen?

Smarthen
2007-08-21, 00:13:29
Lol wenn ich schon ,,für Bioshock optimiert lese"!!!
Performancemäßig ist der 163.16 immer noch ungeschlagen

Cubitus
2007-08-21, 00:20:20
Für unsere SLI-'Junkies' also durchaus interessant der Treiber.
Wenn auch dieser reichlich alpha sein dürfte... sorry, official beta natürlich!


Also DX9@SLI performt um einiges besser.
Auch treten bei diesem Treiber unter Vista mit SLI Grafikfehler auf.

und das mit dem AA in Vista blicke ich nicht ;(

-=Popeye=-
2007-08-21, 00:25:09
Welches AA ich auch einstelle egal ob im Treiber oder nHancer es funzt einfach nicht unter Vista64 (DX10), da müssen die Jungs und Mädels von NVIDIA wohl nochmal nach bessern. :frown:

Razor
2007-08-21, 00:35:53
Oh mann... Ihr seit echt Helden.
Darf ich mal zusammen fassen?

- AA ausschließlich unter WinXP
- AA nicht unter Vista
- AA nicht auf gf7, solange HDR-Effekte im Spiel sind

Das ist aber nicht erst seit gestern so...
Und: wer vernünftig zocken will, tut das unter WinXP und nicht unter diesem Alpha-Schrott Vista!

Razor

P.S.: Treiber funzt prächtig unter WinXP... und die TV-Signalart läßt sich auch wieder auswählen.
Lediglich der "Rückfall" bei TV auf NTSC/720x480 bleibt... aber ich gebe die Hoffnung nicht auf!

Knacki99
2007-08-21, 00:37:58
+12,4 FPS im Unigine 0.4 Benchmark (im Vergleich zu 163.11)

http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=363634

+100 Murks06 (Das erste Mal über 117xx)

mike49
2007-08-21, 00:40:50
Oh mann... Ihr seit echt Helden.
Darf ich mal zusammen fassen?

- AA ausschließlich unter WinXP
- AA nicht unter Vista
- AA nicht auf gf7, solange HDR-Effekte im Spiel sind

Das ist aber nicht erst seit gestern so...

Bist Du dir wirklich sicher, daß es vorher schon AA bei der UE3 unter WinXP gab... :confused:

PSY-BORG
2007-08-21, 00:41:35
...bei anderen games lüppt aber alles wunderbar!!

außerdem bekomme mal dx10 unter win xp zum laufen zu bringen, har har har! :rolleyes:

ist also nur eine zeitfrage, bis der fehler von nvidia beseitigt wird, und nicht vergessen, die treiber sind noch beta!! :P

Cubitus
2007-08-21, 00:42:45
Bist Du dir wirklich sicher, daß es vorher schon AA bei der UE3 unter WinXP gab... :confused:
Ne das passt schon, Rainbow Six Vegas war so ein Kandidat

@Razor

Bioshock 'konnte' auch vorher schon DX10-SLI... nun aber anders... und eben nette AA-Features (wie schon geschrieben)
das hat mich halt eben etwas verwirrt.

BurnIn
2007-08-21, 00:59:53
Also entweder DirectX 10 features oder AA, na Toll!

Razor
2007-08-21, 01:01:03
das hat mich halt eben etwas verwirrt.
Dass dies nicht auf Vista zutrifft, hat sich ja auch erst heraus gestellt.
AFAIK gibt es keine separaten AA-Feature-Bits für XP und Vista...

@Borg

"har har har!"
Sag mal... dümmlicher gehts nimmer, oder?

Aber vielleicht kann mir jemand bei diesem Game zeigen, was hier revolutionäres via D3D10 visualisiert und uns 'armen' WinXP- (und damit D3D9-) Usern vorenthalten wird. Und bitte etwas, was man auch im "Vorübergehen" wahrnehmen kann und nicht mit der Lupe suchen muss...

Bis dato ist Vista, D3D10 und die G8x ein kräftiger Schuss in den Ofen!
(die 2900'er zähle ich nun einfach mal dazu ;-)

Aber vielleicht ändert sich das ja noch... irgendwann.

Razor

Gast
2007-08-21, 01:06:35
Oh mann... Ihr seit echt Helden.
Darf ich mal zusammen fassen?

- AA ausschließlich unter WinXP
- AA nicht unter Vista
- AA nicht auf gf7, solange HDR-Effekte im Spiel sind

Das ist aber nicht erst seit gestern so...
Und: wer vernünftig zocken will, tut das unter WinXP und nicht unter diesem Alpha-Schrott Vista!

Razor

Dann frag ich mich warum NVIDIABioShock hat AA Bits bekommen also wird da sicher auch FSAA funktionieren!diesen Treiber für XP und Vista veröffentlicht haben.

-=Popeye=-
2007-08-21, 01:09:21
Ups, das war ich ^^

mapel110
2007-08-21, 01:09:40
Für Directx9 gabs 6 Monate nach Release(der Schnittstelle im OS) wesentlich weniger Software in Form von Spielen am Markt.

Hab den Treiber hier mit Vista64 Ultimate und XFX 7800 GT am Laufen ohne Probs bislang. Mafia und Mohaa kurz angetestet.

Marc Anton
2007-08-21, 01:14:36
nö, ist butterweich !!! ;)


Wenn du gelogen hast ist die Butter braun :mad:
Ne im Ernst, dieses UT Stottern ist mit dem Treiber beseitigt ?
Na ich werds testen

Cubitus
2007-08-21, 01:20:32
Dass dies nicht auf Vista zutrifft, hat sich ja auch erst
Bis dato ist Vista, D3D10 und die G8x ein kräftiger Schuss in den Ofen!
(die 2900'er zähle ich nun einfach mal dazu ;-)

Aber vielleicht ändert sich das ja noch... irgendwann.

Razor

Sehe ich leider so ähnlich,
bis jetzt ist Lost Planet der einzige Lichtblick!

Gut, den Fell Shader gab es, wie ich letztens im Screenshot Thread gesehen habe, auch schon bei Black and White.

Aber man hat mit diesem Feature bei Lost Planet eben nicht gegeizt,
gerade da es wegen dem Geometrie Shader eben besser performt.

Man sieht einen deutlichen Unterschied.
und SLI performt dort mit DX10 wirklich besser als wie mit DX9

und sowas hätte ich mir eben auch gleich für das "native DX10 :rolleyes:" Bioshock gewünscht.

Ich hoffe wirklich die Devs und Nvidia reichen da noch was nach

PSY-BORG
2007-08-21, 01:24:55
Wenn du gelogen hast ist die Butter braun :mad:
Ne im Ernst, dieses UT Stottern ist mit dem Treiber beseitigt ?
Na ich werds testen

warum sollte ich dich anlügen??? :confused:

auf meinem system läuft die bioshock demo in dx10 absolut flüssig, d.h. null ruckler!! ;)

Blaire
2007-08-21, 01:45:46
Also DX10 SLI funktioniert bei mir 1A mit dem Treiber.

Cubitus
2007-08-21, 01:47:09
:eek: wie hast du das denn angestellt,

gibt es bei dir keine Grafikfehler am Anfang ?
wie ist die Performance bei dir ?

TurricanM3
2007-08-21, 01:53:53
Ich werds morgen auch mal antesten.

Kann man in Vista mit DX10 kein AA aktivieren? Warum nicht? Ich dachte gerade da ginge es?

Blaire
2007-08-21, 01:58:24
:eek: wie hast du das denn angestellt,

gibt es bei dir keine Grafikfehler am Anfang ?
wie ist die Performance bei dir ?

Keine Grafikfehler. Wie gesagt hab nur getestet ob SLI+DX10 Modus funktioniert ohne AA und es funkt 1A!

Marc Anton
2007-08-21, 02:04:16
warum sollte ich dich anlügen??? :confused:

auf meinem system läuft die bioshock demo in dx10 absolut flüssig, d.h. null ruckler!! ;)


Naja von Bioshok war auch nicht die Rede sondern von UT (vorzugsweise Red Orchestra)
Und dort gibt es auch mit diesem Treiber weiterhin den Micro-Stutter Bug.
Also weiter warten ...... ;(

Coda
2007-08-21, 02:10:23
und sowas hätte ich mir eben auch gleich für das "native DX10 :rolleyes:" Bioshock gewünscht.
Bioshock hat doch einige D3D10-Enhancements. U.a. Soft-Particles und bessere Schatten.

Cubitus
2007-08-21, 02:46:36
sicher, aber diese Features muss man halt suchen.
Bei Lost Planet schießt so ein riesen behaarter Wurm aus dem Boden,
oder auf dem Schnee erkennt man sofort die weicheren Schatten.

Aber ich hab ja eh gerade vor ein paar Vergleichsbilder von Bioshock anzufertigen

Blaire
2007-08-21, 03:33:13
AA und DX10 funktioniert derzeit leider nicht.

Grestorn
2007-08-21, 06:32:39
:eek: wie hast du das denn angestellt,

gibt es bei dir keine Grafikfehler am Anfang ?
wie ist die Performance bei dir ?

Achtung!

Wenn man DX10 SLI will, darf man nicht nHancer 2.2.3 verwenden! Das disabled DX10 SLI sofort in allen Spielen, da der Treiber dann seine Checksumme in der nvapps.xml nicht mehr korrekt vorfindet.

Also: Treiber ganz neu installieren und die nvapps.xml in system32 und syswow64 sichern! (Oder aus dem Installationsverzeichnis mit expand extrahieren).

Ich werde wohl doch jetzt mal meine 2.3 fertig machen, auch wenn ich kein DX10 SLI steuern kann... :( Diese Checksummen Scheiße nervt echt! Die 2.3 lässt die nvapps.xml in system32/syswow64 in Frieden und schreibt die Änderungen ausschließlich in die Registry und nach ProgramData/NVIDIA (so wie es das nVidia Panel selbst auch macht).

Razor
2007-08-21, 07:18:26
Bioshock hat doch einige D3D10-Enhancements. U.a. Soft-Particles und bessere Schatten.
:uclap:

sicher, aber diese Features muss man halt suchen.
Bei Lost Planet schießt so ein riesen behaarter Wurm aus dem Boden,
oder auf dem Schnee erkennt man sofort die weicheren Schatten.
Sehe ich genuso... obwohl auch die Schneestapfer bei LP eher ein Gimmick sind.
Und vor dem behaarten Wurm bin ich wech gelaufen... kaum Zeit ihn anzusehen - aber ja, definitiv mal ein wahrnehmbarer Unterschied.

Obwohl beides nicht wirklich auf D3D10 hätte zurück zu führen sein müssen. Und die generell katastrophale Performance von LP als Konsolenumsetzung kann dann auch D3D10 nur wenig entschärfen... OK, DX10-SLI mit GTX/Ultra... und ohne AA. Aber der Weisheit letzter Schluss ist das auch nicht... ist eben in jeder Hinsicht CPU-bound das Game.

Und... das ist das Wichtigste... bei LP saßen nVidia-Devs bei den Entwicklern und hielten Händchen.
(nicht nur das, wenn man den Gerüchten Glauben schenken mag ;-)

Kommt halt dabei heraus, wenn IHV Devs die graphische Umsetzung schreiben.

Aber ich hab ja eh gerade vor ein paar Vergleichsbilder von Bioshock anzufertigen
Jaaaaaaaaa, thx!
Dürfte sicher so einige hier interessieren!

Razor

Gast
2007-08-21, 07:59:19
Naja von Bioshok war auch nicht die Rede sondern von UT (vorzugsweise Red Orchestra)
Und dort gibt es auch mit diesem Treiber weiterhin den Micro-Stutter Bug.
Also weiter warten ...... ;(

1. Warum sollte ein solcher Bug auch bei der neuen Engine auftreten?

2. Bei mir läuft UT absolut cremig, keinerlei Probleme. Weiß man, welchen Grund dieser angebliche Bug hat? Ich konnte ihn noch nicht entdecken...

Scoty
2007-08-21, 08:15:37
also TV Out ist nach wie vor schlecht. wie bei allen anderen 16x.xx Treibern ist das Bild auf einen Röhren TV gestaucht und das Bild nicht Bildschirmfüllend. beim 158.45 ist es das wie es sich gehört. mal sehen wie lange die bei Nvidia noch brauchen bis das gebacken bekommen.

Gast
2007-08-21, 09:38:40
Ich habe eigentlich immer nur die eine Frage: ruckelt die UT Engine noch ? :|

JA!

Armaq
2007-08-21, 10:07:29
Von Dx10 bekommen wir nunmal nicht viel mit, wenn alles für Konsole und PC entwickelt wird.

Marc Anton
2007-08-21, 14:11:17
1. Warum sollte ein solcher Bug auch bei der neuen Engine auftreten?

2. Bei mir läuft UT absolut cremig, keinerlei Probleme. Weiß man, welchen Grund dieser angebliche Bug hat? Ich konnte ihn noch nicht entdecken...


Warum das so ist weiss ich nicht, nur das es unter Vista nicht der Fall ist.
Ich spiele nur Red Orchestra welches ja eine modifizierte Version der UT Engine nutzt und dort gibt es diese Ruckler innerhalb von Häusern auf bestimmten Karten (ohne das sich etwas an den FPS ändert)
Dieselben Ruckler treten aber auch beim normalen Unreal Tournament auf - insofern also klar ein Engine-Treiber Problem.

Salat
2007-08-21, 14:22:54
Ich mag einfach das neue Control Panel nicht. Es stürzt ab und ich kann keinen 2D Takt angeben ... aha jetzt mit dem Beta komm ich nicht mal mehr ins Overclockingmenü.

Marc Anton
2007-08-21, 14:37:24
aa scheint zu gehen mit den 163.44=)

noAA
http://www.abload.de/thumb/noaasr9.jpg (http://www.abload.de/image.php?img=noaasr9.jpg)

4xAA
http://www.abload.de/thumb/aaep85.jpg (http://www.abload.de/image.php?img=aaep85.jpg)


Keine Ahnung wie es dem Rest geht aber ich kann das hier nicht bestätigen.
Ich habe den NHancer mal abgeschaltet und nur über das Treiber-Panel 4xMultisampling AA eingeschaltet doch ein Kantenglättungseffekt ist nicht zu sehen.
Desweiteren lässt sich überall lesen das die UT3 Engine KEIN AA unter DX9 unterstüzt - selbst der Entwickler sagt das.



http://www.petitiononline.com/22153433/petition.html




EVGA Gaming recently sat down with Tim Sweeney of Epic Games, for some technical Q&A on their upcoming release, Unreal Tournament 3, which uses the revolutionary Unreal Engine 3 technology.

Q. Recently you spoke of Unreal Tournament 3 (UT3) using DirectX 10 rendering features. How will this differ from the DirectX 9.0 graphical effects, is this just for a speed increase? How is the geometry shader being used with DirectX 10 hardware and UT3?

A. We’re primarily using DirectX 10 to improve rendering performance on Windows Vista. The most significant benefit is that, on Vista, DirectX 10 enables us to use video memory more efficiently than DirectX 9 and thus use higher-res textures.

The most visible DirectX 10-exclusive feature is support for MSAA on high-end video cards. Once you max out the resolution your monitor supports natively, antialiasing becomes the key to achieving higher quality visuals.



And later in the same article -

Q. Does Unreal Tournament 3 support HDR rendering with Anti-aliasing?

A. Yes, on Windows Vista. On all PC platforms, we support running with 16-bit-per-component frame buffer (64 bits total). MSAA anti-aliasing support is only enabled on DirectX 10, because the deferred rendering techniques used by the engine require some capabilities not included in DirectX 9.

Cubitus
2007-08-21, 15:12:04
Achtung!

Wenn man DX10 SLI will, darf man nicht nHancer 2.2.3 verwenden! Das disabled DX10 SLI sofort in allen Spielen, da der Treiber dann seine Checksumme in der nvapps.xml nicht mehr korrekt vorfindet.

Also: Treiber ganz neu installieren und die nvapps.xml in system32 und syswow64 sichern! (Oder aus dem Installationsverzeichnis mit expand extrahieren).

Ich werde wohl doch jetzt mal meine 2.3 fertig machen, auch wenn ich kein DX10 SLI steuern kann... :( Diese Checksummen Scheiße nervt echt! Die 2.3 lässt die nvapps.xml in system32/syswow64 in Frieden und schreibt die Änderungen ausschließlich in die Registry und nach ProgramData/NVIDIA (so wie es das nVidia Panel selbst auch macht).

OK Danke für Deine Tipps, dass mit DX 10 ist natürlich schade, trotzdem freue mich schon auf die neue Version.
Bis dann fertige ich eben Sicherheitskopien an.

@Razor

Hier ein gravierender Unterschied zur DX9 Version
die anderen "Features" muss ich leider noch suchen.

DX9
http://multipics.net/img_small/DX9.4.jpg (http://multipics.net/?img=DX9.4.jpg)

DX10
http://multipics.net/img_small/DX10.4.jpg (http://multipics.net/?img=DX10.4.jpg)


Und... das ist das Wichtigste... bei LP saßen nVidia-Devs bei den Entwicklern und hielten Händchen.
(nicht nur das, wenn man den Gerüchten Glauben schenken mag ;-)

Lol wie soll man denn das verstehen ;D
Obwohl, wenn man für Wochen in dem selben Raum miteinander verbringen muss und nix mehr
von der Aussenwelt mitkriegt schweißt das sicherlich zusammen :D

hasugoon
2007-08-21, 15:26:12
bin zwar kein experte, sollte es aber nicht genau andersrum sein? also softshadows = dx10 und das erste bild sieht mir eher danach aus.
zumindest mal gibt es unterschiede :)

Cubitus
2007-08-21, 15:28:22
beim zweiten Bild sind die grobkörnigen Ränder ja weg.
imo sieht das "softer" aus :D

dildo4u
2007-08-21, 15:29:02
@hasugoon

Doch das zweite ist DX10 die Schatten sind schärfer(höhere Schattenauflösung) aber trotzdem an den Kanten geglättet.

hasugoon
2007-08-21, 15:33:06
ah ok. ich konnte mich noch an lost planet erinnern und da sahen die soft shadows imo auch verwaschener aus.

Coda
2007-08-21, 15:40:52
Desweiteren lässt sich überall lesen das die UT3 Engine KEIN AA unter DX9 unterstüzt - selbst der Entwickler sagt das.
Der Treiber kann es trotzdem einbauen (geht auch mit Rainbow Six Vegas), denn die Karte kann es ja eigentlich.

Marc Anton
2007-08-21, 15:57:19
Ja wie auch immer aber ich hätte gerne ein paar Bilder die zeigen das AA wirklich funktioniert.

Der Turm auf Seite 2 zählt nicht denn dort wurde so gedreht und gewendet das die Kanten keinen Treppeneffekt zeigen.
Wenn AA wirklich funktionieren sollte müsste man es hier ganz deutlich sehen !

http://s1.directupload.net/images/070821/ma4F8ylt.jpg

Salat
2007-08-21, 16:09:15
Ich mag einfach das neue Control Panel nicht. Es stürzt ab und ich kann keinen 2D Takt angeben ... aha jetzt mit dem Beta komm ich nicht mal mehr ins Overclockingmenü.
Hat keiner diese Abstürze? Weiß jemand einen Fix?

Grindcore
2007-08-21, 16:32:51
"Der Turm auf Seite 2 zählt nicht denn dort wurde so gedreht und gewendet das die Kanten keinen Treppeneffekt zeigen."

WTF? Da sind ganz eindeutig die MSAA-Zwischenstufen zu erkennen.

Blaire
2007-08-21, 16:53:45
Für Bioshock ist AA Pflicht das muss man einfach so sehen, ohne AA sieht man deutlich störende Treppeneffekte . Daher ist es umso unverständlicher warum DX10+AA nicht funktioniert.

Marc Anton
2007-08-21, 16:58:40
"Der Turm auf Seite 2 zählt nicht denn dort wurde so gedreht und gewendet das die Kanten keinen Treppeneffekt zeigen."

WTF? Da sind ganz eindeutig die MSAA-Zwischenstufen zu erkennen.

Das glaube ich nicht !
Ich habe es selber probiert. Man schwimmt in dem Wasser und alles bewegt sich.
Ich kann auch Bilder machen auf denen man am Turm KEINE Treppen sieht obgleich AA nicht aktiviert ist (sofern das geht)
Wenn AA wirklich möglich ist dann einfach mal zur Stelle auf meinem Bild gehen und testen.

Ich lasse mich wirklich sehr gern eines besseren belehren denn ohne AA sieht es wirklich grauenhaft aus.

Tobe1701
2007-08-21, 17:13:37
Für Bioshock ist AA Pflicht das muss man einfach so sehen, ohne AA sieht man deutlich störende Treppeneffekte . Daher ist es umso unverständlicher warum DX10+AA nicht funktioniert.
Das stimmt in der Tat. Ist mir auch selten so aufgefallen wie in der Demo.

MechWOLLIer
2007-08-21, 17:17:22
Für Bioshock ist AA Pflicht das muss man einfach so sehen, ohne AA sieht man deutlich störende Treppeneffekte . Daher ist es umso unverständlicher warum DX10+AA nicht funktioniert.
Das hat mit DX10 aber wohl irgendwie nichts zu tun, denn unter Vista und DX9 gehts ebensowenig. Wer weiß, warum der Vista-Treiber anscheinend kein AA kann, der XP-Treiber aber schon...

Tobe1701
2007-08-21, 17:22:01
Das weiß im Moment keiner. Ich würd mit dem Treiber ja gerne mal testen aber bis jetzt startet es nicht mal unter Vista (bei mir). Egal, wofür hat man Dual-OS ;)

dargo
2007-08-21, 17:33:54
Das glaube ich nicht !

Aber natürlich funktioniert MSAA. Hier hast du mal einen Vergleich:

1280x1024 1xMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-26-44-59.jpg

1280x1024 4xMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-26-04-26.jpg

1280x1024 8xQMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-37-29-68.jpg

Dass man immer noch an der Lampe einige Ecken sieht liegt einfach daran, dass eine extrem helle Quelle an eine extrem dunkle trifft. Da braucht man schon deutlich mehr als nur 4xMSAA um die Glättung perfekt hinzubekommen.

san.salvador
2007-08-21, 17:41:49
Aber natürlich funktioniert MSAA. Hier hast du mal einen Vergleich:

1280x1024 1xMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-26-44-59.jpg

1280x1024 4xMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-26-04-26.jpg

1280x1024 8xQMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-37-29-68.jpg

Dass man immer noch an der Lampe einige Ecken sieht liegt einfach daran, dass eine extrem helle Quelle an eine extrem dunkle trifft. Da braucht man schon deutlich mehr als nur 4xMSAA um die Glättung perfekt hinzubekommen.
Hui!

Vista oder XP? DX9 oder DX10?

Salat
2007-08-21, 17:42:26
Hab es jetzt hinbekommen. Ntune und Forceware deinstalliert und nochmal installiert... keine Abstürze mehr.

Wie kann einstellen, dass die Übertaktung der Grafikkarte bei jedem Windowsstart in Kraft tritt?

dargo
2007-08-21, 17:43:53
Hui!

Vista oder XP? DX9 oder DX10?
Wie oft denn noch? ;(
AA geht momentan nicht unter Vista (DX10)! :)

WEGA
2007-08-21, 17:55:58
Korrektur:
und wieder kein deutscher Treiber ( :eek:)
was habt ihr nur mit euren deutschen treiber, jeder depp kann doch bisschen/ausreichend englisch. noch dazu sind die meisten sachen eh gleich ...

-=Popeye=-
2007-08-21, 17:56:43
Wie oft denn noch? ;(
AA geht momentan nicht unter Vista (DX10)! :)
Aber auch nicht unter DX9.

4711
2007-08-21, 18:03:39
AA geht bei mir einwandfrei..unter Vista 32...wenns in ner Game Beta Demo nicht geht....geht mir das kräftig am ... vorbei.

Tobe1701
2007-08-21, 18:05:24
AA geht bei mir einwandfrei..unter Vista 32...wenns in ner Game Beta Demo nicht geht....geht mir das kräftig am ... vorbei.
DX9 oder 10 Graka?

dargo
2007-08-21, 18:07:03
Aber auch nicht unter DX9.
Schau dir doch einfach meine Bilder an. :cool:

Marc Anton
2007-08-21, 18:08:33
Aber natürlich funktioniert MSAA. Hier hast du mal einen Vergleich:

1280x1024 1xMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-26-44-59.jpg

1280x1024 4xMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-26-04-26.jpg

1280x1024 8xQMSAA/16xAF
http://www.zeiges.com/img/Bioshock2007-08-2117-37-29-68.jpg

Dass man immer noch an der Lampe einige Ecken sieht liegt einfach daran, dass eine extrem helle Quelle an eine extrem dunkle trifft. Da braucht man schon deutlich mehr als nur 4xMSAA um die Glättung perfekt hinzubekommen.


Danke das überzeugt natürlich - stellt sich mir aber die Frage wie genau du das gemacht hast ?
Step by Step für mich :|

http://s3.directupload.net/images/070821/QnAAf4HL.jpg

Gruss Marc

san.salvador
2007-08-21, 18:20:27
AA geht bei mir einwandfrei..unter Vista 32...wenns in ner Game Beta Demo nicht geht....geht mir das kräftig am ... vorbei.
Es geht um die Retail Demo von Bioshock.
Wenn man nichts zu sagen hat, einfach mal die...

-=Popeye=-
2007-08-21, 18:27:52
Schau dir doch einfach meine Bilder an. :cool:
Ich sehe ja das es funzt, bei mir aber nicht.

Guido
2007-08-21, 18:29:19
Danke das überzeugt natürlich - stellt sich mir aber die Frage wie genau du das gemacht hast ?
Step by Step für mich :|

http://s3.directupload.net/images/070821/QnAAf4HL.jpg

Gruss Marc

Ich nutze das alte Panel und habs so eingestellt.

http://freenet-homepage.de/dasistmiregal/einstellungen/einst.JPG

Gast
2007-08-21, 18:33:02
Danke das überzeugt natürlich - stellt sich mir aber die Frage wie genau du das gemacht hast ?
Step by Step für mich :|

http://s3.directupload.net/images/070821/QnAAf4HL.jpg

Gruss Marc

wie man ziemlich gut sieht, hat er sich minimal bewegt, die jaggies sind auch beim 16x Bild noch gut zu sehen(z.B. an der Lampe links)
AA funktioniert schon aber nicht immer und aus jedem Betrachtungswinkel, der Treiber erkennt die Objektkanten einfach nicht richtig, dazu scheint die Bioshock-engine selbst ein wenig Antialias an einigen Objektkanten vorzunehmen

am besten sieht man die Wirkung von AA an der Heckflosse des Flugzeuges, wenn man sich noch im Wasser befindet, mit ausgeschaltetem AA sieht man üble Stufen, mit 16x AA ists weg. Das AA nicht wirklich ordentlich funktioniert, sieht man dann bei einem Schwenk auf den Leuchtturm und in Bewegung.

derwalde
2007-08-21, 19:02:23
der neue treiber gefällt mir :)
erstmal 100+ punkte in 3dmurks
dazu ist aa unter xp bei bioshock np.:smile:

DevilX
2007-08-21, 19:05:52
@dargo
hast du AA Gamma Korrektur an oder aus?

Gast
2007-08-21, 19:26:40
mit Umbenennung nach Oblivion.exe sieht das AA unter XP-DX9 ganz passabel aus

dargo
2007-08-21, 19:27:45
Danke das überzeugt natürlich - stellt sich mir aber die Frage wie genau du das gemacht hast ?
Step by Step für mich :|

http://s3.directupload.net/images/070821/QnAAf4HL.jpg

Gruss Marc
Hier meine Settings:
31375

Blaire
2007-08-21, 19:33:43
Übrigens funktioniert bei der BioShock Vollversion auch kein AA unter Vista DX10!

Lightning
2007-08-21, 19:34:18
Ich muss (unter Win XP 32) die AA-Kompatibilität im nHancer auf Oblivion stellen, dann funktioniert AA problemlos in Bioshock. Und das nicht erst mit dem 163.44 (der aber ordentlich mehr Performance bringt).

Unter Vista 64 habe ichs noch nicht getestet.

dargo
2007-08-21, 19:34:45
Übrigens funktioniert bei der BioShock Vollversion auch kein AA unter Vista DX10!
Hast du schon die Full? Ich hätte nämlich eine durchaus wichtige Frage dann. :)

Coda
2007-08-21, 19:38:06
Übrigens funktioniert bei der BioShock Vollversion auch kein AA unter Vista DX10!
Unter D3D10 sollte die Anwendung das AA eigentlich auch selber applizieren. Ich denke da kommt noch ein Patch.

Blaire
2007-08-21, 19:43:22
Hast du schon die Full? Ich hätte nämlich eine durchaus wichtige Frage dann. :)

Nein leider noch nicht, die Info stammt aus dem nvnews.net Forum.

Unter D3D10 sollte die Anwendung das AA eigentlich auch selber applizieren. Ich denke da kommt noch ein Patch.

Oder es ist ein neuer "HACK" von Nvidia notwendig? Bei R6Vegas funktioniert das ja auch nur so über DX9?

Coda
2007-08-21, 20:04:09
Oder es ist ein neuer "HACK" von Nvidia notwendig?
Nein. Mit D3D10 geht es definitiv auch ohne Treiberhack :)

Bei R6Vegas funktioniert das ja auch nur so über DX9?
D3D9 hat dafür nicht die nötigen Möglichkeiten.

JerzyJerz
2007-08-21, 21:22:56
hi würd mich eher mal interesieren ob bei euch auf vista der vsync geht????!!!

bei mir geht er nämlich nicht! und das finde ich noch ne stufe ekliger wie AA.;D

PSY-BORG
2007-08-21, 21:28:57
hi würd mich eher mal interesieren ob bei euch auf vista der vsync geht????!!!

bei mir geht er nämlich nicht! und das finde ich noch ne stufe ekliger wie AA.;D

...vsync geht bei mir. (vista x64)

Coda
2007-08-21, 21:32:36
Ach btw. zum Thema: Immer wenn ich das Ding installier bekomm ich nen Bluescreen. Nach nem Neustart scheint er aber zu gehen :|

mapel110
2007-08-21, 21:36:07
Ach btw. zum Thema: Immer wenn ich das Ding installier bekomm ich nen Bluescreen. Nach nem Neustart scheint er aber zu gehen :|
Würd ja gern mal wissen, was ihr bei der Treiberinstall veranstaltet. In einem anderen Treiberthread berichteten auch einige User von Bluescreens nach der Install, die dann aber verschwunden wären.
Ich hab das bei beiden Treibern, bei denen das angeblich aufgetreten ist, nicht gehabt.
7800 GT und Vista64Ultimate

JerzyJerz
2007-08-21, 22:01:31
yep vsync geht wieder merkwürdig hatte es im spiel ausgewählt und bei erneutem starten des spiels stand es wieder auf aus?????:|

PSY-BORG
2007-08-21, 22:06:04
yep vsync geht wieder merkwürdig hatte es im spiel ausgewählt und bei erneutem starten des spiels stand es wieder auf aus?????:|

bei mir war das genau umgekehrt!!! :biggrin:

das game macht wahrscheinlich das gegenteil von dem was man möchte. ;)

-=Popeye=-
2007-08-21, 23:00:53
yep vsync geht wieder merkwürdig hatte es im spiel ausgewählt und bei erneutem starten des spiels stand es wieder auf aus?????:|
bei mir war das genau umgekehrt!!! :biggrin:

das game macht wahrscheinlich das gegenteil von dem was man möchte. ;)
:crazy2: ...ist bei mir auch so wie bei PSY-BORG, Treiber VSync OFF, Game VSync ON. :ulol4:

Marc Anton
2007-08-22, 00:05:23
Ok AA funktioniert im NHancer "Oblivion Kompatibilitätsmodus" Danke für den Tip !

Coda
2007-08-22, 00:52:04
Würd ja gern mal wissen, was ihr bei der Treiberinstall veranstaltet. In einem anderen Treiberthread berichteten auch einige User von Bluescreens nach der Install, die dann aber verschwunden wären.
Ich hab das bei beiden Treibern, bei denen das angeblich aufgetreten ist, nicht gehabt.
7800 GT und Vista64Ultimate
Nichts besonderes. Ganz normal installiert halt. Hälst du mich für dermaßen unkompetent was das angeht? ;)

mapel110
2007-08-22, 00:58:08
Nichts besonderes. Ganz normal installiert halt. Hälst du mich für dermaßen unkompetent was das angeht? ;)
Naja, ich weiß, wie schusselig Leute mit mathematischem Verständnis sein können. Leider aus eigener, leidvoller, lebenslanger Erfahrung. X-(

sarge
2007-08-22, 01:27:36
ich habe zwar bioshock demo noch nicht downloaded aber hab den treiber installiert und kann sagen der treiber ist gut. scheint ja auch etwas schneller als dem vorgänger zusein. bei 3dmark06 macht der über 100 punkte mehr :)

Mr.Magic
2007-08-22, 05:43:32
ich habe zwar bioshock demo noch nicht downloaded aber hab den treiber installiert und kann sagen der treiber ist gut. scheint ja auch etwas schneller als dem vorgänger zusein. bei 3dmark06 macht der über 100 punkte mehr :)

100 Punkte?! Das ist ja fast ein halbes Bild pro Sekunde mehr! :eek:

:rolleyes:

Gast
2007-08-22, 10:50:54
3dmark ist auch ein sehr lausiges Spiel so auf Dauer

im Laufe der Zeit kann man sicher noch 1-2k Punkte rausholen, wenn man wirklich will. Aber wozu? Diese Optimierungen helfen eben wirklich nur bei 3dmark, mit den realen Anwendungen hat der 3dmark-Wert kaum noch etwas zu tun. Und 2-3 Leute nur mit vtune und co. auf den ollen 3dmark hetzen, um wieder was mehr rauszukitzeln, ist ja wohl auch nicht unbedingt Sinn der Sache.

ps.: mein 3dmark ist sogar gesunken, gegenüber einer uralt Treiberrevisionv om Anfang des Jahres, als ich das letzte mal den Kram startete

JerzyJerz
2007-08-22, 15:40:44
So psychogestört wie das geile game sind demnach auch die optionen;D

bei mir war das genau umgekehrt!!! :biggrin:

das game macht wahrscheinlich das gegenteil von dem was man möchte. ;)

Gast
2007-08-22, 16:05:31
3dmark ist auch ein sehr lausiges Spiel so auf Dauer

im Laufe der Zeit kann man sicher noch 1-2k Punkte rausholen, wenn man wirklich will. Aber wozu? Diese Optimierungen helfen eben wirklich nur bei 3dmark, mit den realen Anwendungen hat der 3dmark-Wert kaum noch etwas zu tun. Und 2-3 Leute nur mit vtune und co. auf den ollen 3dmark hetzen, um wieder was mehr rauszukitzeln, ist ja wohl auch nicht unbedingt Sinn der Sache.

ps.: mein 3dmark ist sogar gesunken, gegenüber einer uralt Treiberrevisionv om Anfang des Jahres, als ich das letzte mal den Kram startete

3dmark ist ein benchmark proggi mit dem man einfach seinen pc gegen andere messen kann, nicht mehr und nicht weniger.
In spielen kann das natürlich anders aussehen und wenn deine karte im 3dmark sehr schnell ist heisst es nicht auch automatisch das es das auch in allen spielen ist. Aber man kann ja nicht jedes einzelne spiel testen und dann sich online mit anderen messen, was ja für manche sehr sehr wichtig ist anscheinend.

3dmark kann man als anhaltspunkt verwenden und ob das gekaufte system stabil läuft z.B. im dauerloop über std..

Blaire
2007-08-22, 16:20:36
also 8xS geht :smile:
zu 8xS sehe ich kein Unterschied, das Shaderflimmer ist immer noch

Bei mir geht sogar bis 4x4SSAA erstaunlicherweise allerdings ist das Setting mit runden 20 fps nicht spielbar. 16xS funktioniert aber auch. :wink:

4711
2007-08-22, 17:16:05
Es geht um die Retail Demo von Bioshock.
Wenn man nichts zu sagen hat, einfach mal die...

Gilt vorallem für Dich!
Der Titel heist
"Beta 163.44 Vista/XP "
und mit diesem Treiber hab ich in jedem Game AA wenns angeboden wird.
Dein Bioshock Krams geht mir wie gesagt am allerwertesten vorbei.

dittohead
2007-08-22, 20:45:20
Würd ja gern mal wissen, was ihr bei der Treiberinstall veranstaltet. In einem anderen Treiberthread berichteten auch einige User von Bluescreens nach der Install, die dann aber verschwunden wären.
Ich hab das bei beiden Treibern, bei denen das angeblich aufgetreten ist, nicht gehabt.
7800 GT und Vista64Ultimate

ich hatte auch nach der install beim ersten start nen bluescreen bei vista32 und außer den alten zu deinstallieren und den neuen nach nem neustart draufzumachen hab ich nix gemacht ?!

James Ryan
2007-08-22, 21:12:22
Die Slowdowns in UT 2003 sind ja noch vorhanden, wie sieht es mit den Bildfehlern aus? Ich zocke zur Zeit mit einer ungepatchten Uncut-Version, die hat keine Bildfehler. Bügel ich den neuesten Patch drüber, habe ich starke Bildfehler, jedenfalls mit jedem Treiber bisher.
Wie siehts da mit dem 163.44er aus?

MfG :cool:

zw3nk4u
2007-08-22, 22:48:31
ich hab wie beim 162.er treiber nen bluescreen nach dem reboot :D

kruemelmonster
2007-08-23, 03:17:30
Habe keine schwerwiegenden Probleme oder Bluescreens zu vermelden, allerdings ist mir in NFS Carbon aufgefallen, das der VSync nicht zu deaktivieren geht. Trotz ingame "off" und im nHancer off bzw. app läuft das Spiel konstant mit min 55 bis max 60 fps in 12x10 16xQ 16xHQAF und Motion Blur und Visual Treatment aus bzw. low, ruckelt bzw. lagt in manchen Situationen aber auf sehr störende Art und Weise.

Geht VSync=off in NFSC mit den 162ern?

/edit: OS ist Vista x64.

toroidh
2007-08-23, 07:07:52
nvlddmkm-Neustarts sind leider immer noch da. Bioshock ist für etwa 2 min spielbar bevor vista meint der Grafiktreiber müsste neugestartet werden.

Razor
2007-08-23, 07:21:57
Hier ein gravierender Unterschied zur DX9 Version
die anderen "Features" muss ich leider noch suchen.

DX9
http://multipics.net/img_small/DX9.4.jpg (http://multipics.net/?img=DX9.4.jpg)

DX10
http://multipics.net/img_small/DX10.4.jpg (http://multipics.net/?img=DX10.4.jpg)
Genau das habe ich 'berfürchtet'...

Wieder "Schatten"!
Weiche Schatten, harte Schatten, präzise Schatten...
Und vom Rest (den SuperDuper-Partikeleffekten) sieht man gar nichts...
(und die "Soft-Shadows" waren auch schon bei DX9c-Hardware ein "Argument" *grmpf*)

Dass die Performance dabei den Bach runter geht, Features gar nicht, oder nur mäßig funktionieren (AA) und überhaupt die D3D10-"Experience" nicht so richtig rüber kommen will (schon gar nicht, wenn man unter Vista arbeiten 'muss' ;-), versteht sich ja schon fast von selbst.

Aber vielleicht reichen ja die minimalen Bröckchen (die leicht 'angeschimmelt' sind ;-), um die Käufer von "DX10-Hardware" zu befriedigen. Ich persönlich würde mir auf jeden Fall kräftig in den Anus... aber egal.

Würd ja gern mal wissen, was ihr bei der Treiberinstall veranstaltet. In einem anderen Treiberthread berichteten auch einige User von Bluescreens nach der Install, die dann aber verschwunden wären.
Ich hab das bei beiden Treibern, bei denen das angeblich aufgetreten ist, nicht gehabt.
7800 GT und Vista64Ultimate
Möchte ich auch mal wissen...
Habe bei der Intsallation eines Treibers NOCH NIE irgendwelche BSOD gehabt!
Allerdings nutze ich auch keine (für mich meist unsinnigen) Tools.

Keine Probleme... weder unter WinXP32, noch unter Vista64.

3dmark kann man als anhaltspunkt verwenden und ob das gekaufte system stabil läuft z.B. im dauerloop über std..
Was dann aber REIN GAR NICHTS mit irgendwelchen Schnuller-Punkten zu tun hat!
Dieses rungejabbel nach den "Punkten" (dann zu allem übel auch noch die Gesamt-'Punkte'!) geht tierisch auf den Sack...

Wenn jemand sagt: "Hab' gerade 'ne Stunde Murks06 gezockt und das System läuft noch!"
...ist das absolut OK.

Razor

Gast
2007-08-23, 08:04:28
Was dann aber REIN GAR NICHTS mit irgendwelchen Schnuller-Punkten zu tun hat!
Dieses rungejabbel nach den "Punkten" (dann zu allem übel auch noch die Gesamt-'Punkte'!) geht tierisch auf den Sack...

Wenn jemand sagt: "Hab' gerade 'ne Stunde Murks06 gezockt und das System läuft noch!"
...ist das absolut OK.

Razor

ERST LESEN, dann NACHDENKEN, dann POSTEN! Lies dir noch einmal meinen post an, dann nämlich wirst du sehr schnell feststellen was du für einen stuss geschrieben hast.
Aber hauptsache erstmal DUMM von der seite anmachen und einen auf oberchecker machen!

Wenn du ein benchmark als spielen ansiehst ist es deine meinung, aber das ein wirkliches spiel was ANDERES ist als ein synthetischer benchmark sollte doch ein OBERCHECKER wie du wissen oder CHECKER RAZOR?

Ich weiss nicht was deine immer dummen antworten sollen und das immerwieder gelabere OH GAST POSTS, aber anscheinend hast du viel spass.

Jedenfalls kann man seine punkte vergleichen mit anderen system, na und was geht dich das an? Oder eher wen interessiert es das es dir auf die nüsse geht?

Viele holen sich ein sli system und üble cpu's und übertakten nur ihr system um im benchmark(egal welches) das max. aus ihrem system rauszuholen. Ich finde es okey wenn man dies macht um schneller zu sein als andere. Gibt es doch in zich anderen bereichen auch und nicht jeder muss es machen, aber keiner hat das recht rumzumeckern, weil dies gemacht wird.

Bei jeden neuen system checke ich damit auch einmalig die performance, ob mein system auch in den bereichen liegt wo es sein sollte und man kann so auch problemlösungen anstellen, wenn man etwas erfahrung besitzt wo der schuh drückt, wenn was nicht stimmt.

Ich habe auch ehrlich gesagt keinen bock mich mit dir über irgentwas zu unterhalten was dich garnicht angeht und möchte auch unter keinen umständen irgentwas mit dir zutun haben. Also bitte nimm DEINEN SCHNULLER und hab spass damit:P

Lawmachine79
2007-08-23, 09:02:05
Kann man die Diskussion mal splitten? Wenn man hier erst nach 8 Seiten reinguckt kann man nur raten, ob ein Post sich auf Vista oder XP bezieht...

ENI
2007-08-23, 10:18:05
ERST LESEN, dann NACHDENKEN, dann POSTEN! Lies dir noch einmal meinen post an, dann nämlich wirst du sehr schnell feststellen was du für einen stuss geschrieben hast.
Aber hauptsache erstmal DUMM von der seite anmachen und einen auf oberchecker machen!

Hallo,

Ich glaube du hast den Post von Razor falsch aufgefasst und ich denke nicht das er dich dumm anmachen wollte. Ich denke was er damit sagen wollte ist, das es ihm auf den Sack geht, wenn anhand von 3DMark Punkten über einen Treiber geurteilt wird. Bei einigen Usern ist es ja so, wenn sie mit einem neuen Treiber 100 Punkte im 3DMark weniger haben, dann ist das gleich ein absoluter Mülltreiber der ja soooo schlecht ist.
Bringt er aber 100 Punkte mehr, dann ist das natürlich gleich der Oberhammer Treiber überhaupt und man liest solche Sätze wie: "Nimm diesen Treiber, den hab ich auch und der bringt satte 100 Punkte mehr im 3DMark- ein geiles Teil" Da kann ich ihn dann schon verstehen wenn es bei ihm anfängt zu brodeln ;)
Aber mit einem gebe ich dir Recht und da hat dir ja auch Razor zugestimmt, um ein System auf Stabilität zu testen ist der 3DMark ziemlich brauchbar, jedoch über die Performance eines Systems oder eines Treibers sagt das Ding überhaupt nichts aus und ist ehrlich gesagt ziemlicher Mist.

Gruss ENI

Gast
2007-08-23, 10:48:51
Hallo,

Ich glaube du hast den Post von Razor falsch aufgefasst und ich denke nicht das er dich dumm anmachen wollte. Ich denke was er damit sagen wollte ist, das es ihm auf den Sack geht, wenn anhand von 3DMark Punkten über einen Treiber geurteilt wird. Bei einigen Usern ist es ja so, wenn sie mit einem neuen Treiber 100 Punkte im 3DMark weniger haben, dann ist das gleich ein absoluter Mülltreiber der ja soooo schlecht ist.
Bringt er aber 100 Punkte mehr, dann ist das natürlich gleich der Oberhammer Treiber überhaupt und man liest solche Sätze wie: "Nimm diesen Treiber, den hab ich auch und der bringt satte 100 Punkte mehr im 3DMark- ein geiles Teil" Da kann ich ihn dann schon verstehen wenn es bei ihm anfängt zu brodeln ;)
Aber mit einem gebe ich dir Recht und da hat dir ja auch Razor zugestimmt, um ein System auf Stabilität zu testen ist der 3DMark ziemlich brauchbar, jedoch über die Performance eines Systems oder eines Treibers sagt das Ding überhaupt nichts aus und ist ehrlich gesagt ziemlicher Mist.

Gruss ENI

Ack mehr hab ich auch im post vorher nicht geschrieben.

Entweder er fasst seine posts immer so provokant zusammen, dass es immer wie ne anmache rüber kommt, oder es war so wie in meiner antwort beschrieben.

Aber genug OT von mir! SRY dafür!

Showtime
2007-08-23, 12:31:53
Wozu braucht man Grafikkartentreiber in englisch?

Da die Entwickler hauptsächlich englisch sprechen, würde ich sagen, dass es nur natürlich ist, dass der Treiber zuerst in englisch und nicht etwa hebräisch erscheint.

Backet
2007-08-23, 19:57:43
Laber laber Quark.


Was mir positiv auffällt ist das bei dem Treiber AA in Rainbow Six Vegas möglich ist. War bei allen anderen Vistatreiber bei mir nicht möglich!

Performance auch sehr positiv.

Gast
2007-08-23, 20:06:39
Weis jemand wann die WHQL version kommt?

mapel110
2007-08-23, 20:14:19
Weis jemand wann die WHQL version kommt?
when it's done!

@dittohead
Ist ja interessant. Ich deinstallier nie den Treiber. Der kommt bei mir immer drüber. Nur beim Backdaten zu einer älteren Treiberversion will er das unbedingt und da komm ich nicht drumrum.

Chip4000
2007-08-23, 20:21:46
Hallo!
Ist der Treiber auch für meine 7950GT zu empfehlen?
Hab zur Zeit den 162.18 druff.
Ich meine, bringt der Treiber bei meiner GF7 auch noch ein klein wenig an Performance, oder ist der eher für die GF8 gedacht?

kmf
2007-08-24, 00:56:18
Hallo!
Ist der Treiber auch für meine 7950GT zu empfehlen?
Hab zur Zeit den 162.18 druff.
Ich meine, bringt der Treiber bei meiner GF7 auch noch ein klein wenig an Performance, oder ist der eher für die GF8 gedacht?Ich hab ihn drauf. Ob er was bringt ... weiß nicht? :confused: Komm jedenfalls damit auch nicht über 10000 3DMarks06, sondern nur auf einen Wert von 9772. ;(

Gast
2007-08-24, 12:05:04
Ich hab noch den 160.02 drauf mit meiner Gainward Bliss 7800 GS AGP!

Die Bioshock Demo muss ich erst mal probieren.

Chip4000
2007-08-24, 15:05:45
Ich hab noch den 160.02 drauf mit meiner Gainward Bliss 7800 GS AGP!

Die Bioshock Demo muss ich erst mal probieren.

Ja, teste mal die Bioshockdemo.
Kannste hier bitte bescheid geben, wie die Demo läuft?

Krustovsky
2007-08-24, 19:53:11
Ach btw. zum Thema: Immer wenn ich das Ding installier bekomm ich nen Bluescreen. Nach nem Neustart scheint er aber zu gehen :|

Diese Erfahrung habe ich auch gemacht. Stört mich nicht weiter, da endlich diese nervigen Treiberabstürze auf dem Desktop bzw. bei Benutzung des IE7 beseitigt sind:biggrin:

Coda
2007-08-25, 01:46:59
Das ist die Strafe dafür den IE zu benützen :biggrin:

Aslinger
2007-08-25, 12:53:20
Ja, teste mal die Bioshockdemo.
Kannste hier bitte bescheid geben, wie die Demo läuft?

Ja läuft mit dem 160er! 1. Sys in der Sig.

Geforce 7 Nutzer: Ist der 163.44 schneller als die alten in Bioshock?

dargo
2007-08-25, 18:51:12
Genau das habe ich 'berfürchtet'...

Wieder "Schatten"!
Weiche Schatten, harte Schatten, präzise Schatten...
Und vom Rest (den SuperDuper-Partikeleffekten) sieht man gar nichts...
(und die "Soft-Shadows" waren auch schon bei DX9c-Hardware ein "Argument" *grmpf*)

Dass die Performance dabei den Bach runter geht, Features gar nicht, oder nur mäßig funktionieren (AA) und überhaupt die D3D10-"Experience" nicht so richtig rüber kommen will (schon gar nicht, wenn man unter Vista arbeiten 'muss' ;-), versteht sich ja schon fast von selbst.

Du irrst, die Performance ist nahezu identisch obwohl der DX10 Modus minimale Änderungen enthält. :)

1280x1024 1xMSAA/16xAF, max. Details

DX9
http://www.zeiges.com/img/Bioshock2007-08-2518-01-13-92.jpg

DX10
http://www.zeiges.com/img/Bioshock2007-08-2518-01-50-43.jpg

DX9
http://www.zeiges.com/img/Bioshock2007-08-2518-09-05-05.jpg

DX10
http://www.zeiges.com/img/Bioshock2007-08-2518-08-22-95.jpg

DX9
http://www.zeiges.com/img/Bioshock2007-08-2518-13-27-33.jpg

DX10
http://www.zeiges.com/img/Bioshock2007-08-2518-14-01-40.jpg

DX9
http://www.zeiges.com/img/Bioshock2007-08-2518-17-08-27.jpg

DX10
http://www.zeiges.com/img/Bioshock2007-08-2518-17-48-94.jpg


Aber vielleicht reichen ja die minimalen Bröckchen (die leicht 'angeschimmelt' sind ;-), um die Käufer von "DX10-Hardware" zu befriedigen. Ich persönlich würde mir auf jeden Fall kräftig in den Anus... aber egal.

Du übertreibst mal wieder völlig. Nenne mir mal eine DX9 Grafikkarte die die Performance einer G8800GTS/GTX bietet. Merkst du was? :)

Es gibt keine Alternativen. Man ist quasi gezwungen sich eine DX10 Karte anzuschaffen, wem die Leistung nicht mehr reicht. Dass die Entwickler erst minimale Veränderungen implementieren ist völlig normal und auch imo korrekt. Stell dir mal vor, man würde direkt mit dem Vorschlaghammer kommen und enorm Gebrauch vom Geometrie Shader machen. Tja, dann würde das Geschreie wieder losgehen, dass kein Spiel flüssig spielbar ist. Wird die Zeit reif wird man auch stärker den GS gebrauchen. Schließlich kann jeder Entwickler, wenn er möchte auch mit DX9 noch einen G80/R600 locker in die Knie zwingen.

Der_Korken
2007-08-25, 19:33:33
Der Treiber ist wirklich schön. Hatte vorher noch nen 158er drauf und dieser Treiber hat die min-fps bei Bioshock doch ne Ecke angehoben. Das liegt daran, dass ich mit dem alten Treiber noch 400MB VRAM-Verbrauch hatte, mit dem neuen aber immer genau 320MB - ohne Nachladeruckler. Mit AA brechen die Frames in neuen Räumen für paar Sekunden ein, dann fangen die sich aber wieder (mir gefällt diese Engine).
Habe übrigens eine 8800GTS 320 MB.

TurricanM3
2007-08-25, 19:54:24
Wieso performt Bioshock bei mir so übel?

Es ruckelt irgendwie nahezu dauerhaft, also ob Mouse-Smoothing nicht aktiv wäre, echt schlimm.

dargo
2007-08-25, 20:15:34
Hast du es schon mal mit einem G80 probiert? Ich habe überhaupt keine Ruckler, weder DX9 noch DX10. Vielleicht macht SLI die Probleme.

Razor
2007-08-25, 20:37:00
Du übertreibst mal wieder völlig. Nenne mir mal eine DX9 Grafikkarte die die Performance einer G8800GTS/GTX bietet. Merkst du was? :)
Klar... wenn Du mir eine DX9-Karte zeigst, die so viel kostet, wie eine G8800GTS/GTX!
:D

Es gibt keine Alternativen. Man ist quasi gezwungen sich eine DX10 Karte anzuschaffen, wem die Leistung nicht mehr reicht. Dass die Entwickler erst minimale Veränderungen implementieren ist völlig normal und auch imo korrekt. Stell dir mal vor, man würde direkt mit dem Vorschlaghammer kommen und enorm Gebrauch vom Geometrie Shader machen. Tja, dann würde das Geschreie wieder losgehen, dass kein Spiel flüssig spielbar ist. Wird die Zeit reif wird man auch stärker den GS gebrauchen. Schließlich kann jeder Entwickler, wenn er möchte auch mit DX9 noch einen G80/R600 locker in die Knie zwingen.
So ist es allerdings...

Vergiß aber bitte nicht, dass eine 8800GTS/GTX schon die absolute Oberklasse darstellt. Alles, was darunter íst (seltsamerweise tatsächlich schon die 8800GTS320), kann schon mit diesen minimalen Änderungen nichts mehr anfangen... es sei denn, man begnügt sich mit 800x600 wie zu gf3-Zeiten.

Fakt ist, dass selbst diese minimalen 'Bröckchen', die HighEnd-Hardware schon übermäßig belasten und ich lieber nicht in der Nähe sein möchte, wenn das erste 'richtige' D3D10-Game kommt und die Leutz ihr super-duper Überdrömel-SLI-Zeug einfach in die Tonne treten können.

Vor diesem Hintergrund wundert es mich nicht, dass nur so wenig zu sehen ist... es ist (hardware-seitig) einfach nicht mehr drin.

Razor

Coda
2007-08-25, 20:43:00
Fakt ist, dass selbst diese minimalen 'Bröckchen', die HighEnd-Hardware schon übermäßig belasten
Ist dir immer noch entgangen, dass die Performance in Bioshock durch D3D10 nicht sinkt? Damit wird mehr dargestellt mit gleicher Performance. Echt unschlagbare Logik.

Das heutige Hardware nicht für zukünftige Spiele reicht ist schon klar. Erzähl mir was neues.

Es gibt keine eklatante "D3D10-Schwäche" von G80 oder R600. Wenn dann reicht einfach die Rohleistung nicht mehr.

dargo
2007-08-25, 20:52:44
Klar... wenn Du mir eine DX9-Karte zeigst, die so viel kostet, wie eine G8800GTS/GTX!
:D

Toller Vergleich. :cool:
Ein E6850 kostet auch nicht das gleiche wie ein E2160. Mehrleistung kostet nunmal mehr. ;)


Fakt ist, dass selbst diese minimalen 'Bröckchen', die HighEnd-Hardware schon übermäßig belasten und ich lieber nicht in der Nähe sein möchte, wenn das erste 'richtige' D3D10-Game kommt und die Leutz ihr super-duper Überdrömel-SLI-Zeug einfach in die Tonne treten können.

1. Mich würden mal diese Bröckchen interessieren. Afaik ist nur der GS dazu gekommen. Alles andere lässt sich mit DX9 realisieren.
2. Was ist denn für dich ein richtiges DX10 Game?


Vor diesem Hintergrund wundert es mich nicht, dass nur so wenig zu sehen ist... es ist (hardware-seitig) einfach nicht mehr drin.

Nochmal, nicht DX10 (ok, beim G80 höchstens durch den eher schwachen GS) zwingt die aktuellen High-End Grafikkarten in die Knie sondern einfach die mit der Zeit immer schönere Grafik, die natürlich mehr Rechenpower benötigt. Es ist nämlich ein Unterschied ob eine Szene XYZ 200000 Polygone enthält oder 1,5 Milionen. Das zweitere ist locker auch mit DX9 zu erreichen.

Es gibt keine eklatante "D3D10-Schwäche" von G80 oder R600.
Ist der GS nicht eher schwach beim G80? Ich könnte mir gut vorstellen, dass NV diesen beim G90 um einen Faktor >2 verbessert. :)

drum02
2007-08-25, 21:06:44
Damit wird mehr dargestellt mit gleicher Performance.


Das ist ein wichtiger Satz den DirectX9 Fuzzis immer wieder gerne vergessen.

Warum da eigentlich überhaupt noch drüber diskutiert wird, und das bei jedem neuen Treiber ist schon sehr merkwürdig.
In einem Punkt gebe Ich aber RAZOR recht.
Damit nicht solch dämliche Diskussionen aufkommen sollte man Vista und XpTreiber trennen. Und einzelne Threads verpassen.
Nun sind die Mods gefragt. kann doch wohl nicht so schwer sein, oder?

Coda
2007-08-25, 21:12:12
Ist der GS nicht eher schwach beim G80?
Man kann ihn verwenden. Es ist nicht unbrauchbar wie dyn. branching bei G7x ;)

In Company of Heroes wird er beispielsweise schon benützt.

dargo
2007-08-25, 21:15:55
Man kann ihn verwenden. Es ist nicht unbrauchbar wie dyn. branching bei G7x ;)

Ja, natürlich kann man den verwenden. Nur, wenn der GS die Rohleistung limitiert ist es nicht mehr so schön/nützlich. In Lost Planet (mit dem Patch 1.4?) wurde dem Wurm über den GS ein Fell verpasst. Die Framerate soll deutlich gesunken sein. Interessant wäre natürlich hier der Vergleich mit einem R600.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5764253&postcount=283
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5766067&postcount=252

Coda
2007-08-25, 21:33:15
Wenn es ein nVIDIA-Paper dazu gibt kann's ja nicht so fürchterlich sein ;)

dargo
2007-08-25, 21:40:43
Wenn es ein nVIDIA-Paper dazu gibt kann's ja nicht so fürchterlich sein ;)
Naja, mit dem starken FPS-Einbruch habe ich es nur durch einen Forum User mitbekommen. Ich weiß aber nicht wie es ohne den Fur Shader vorher aussah. Ein vor/nachher Vergleich wäre wirklich hilfreich.

Razor
2007-08-25, 21:41:19
Toller Vergleich. :cool:
Ein E6850 kostet auch nicht das gleiche wie ein E2160. Mehrleistung kostet nunmal mehr. ;)
Genau das wollte ich damit zum Ausdruck gebracht haben!
Leistung ist ein Argument - wenn auch nicht um jeden Preis - und ich meine hier nicht nur den monetären Aspekt ;-), klar...
...aber D3D10 ist keines.

So einfach ist das.

Damals bei der gf3 war es genauso... besser: bei JEDEM neuen Tech-Level ist es so...
- gesteigerte Lesitung auf 'altem' Level
- nur ein Ausblick auf den 'neuen'

Warum hier einige tatsächlich der Meinung sind, dass sie Ihre teueren Schätzchen nicht gleich in die Tonne schmeißen können, wenn es erst mal los geht (dürfte nicht mehr allzu lange dauern ;-) - kann ich nicht nachvollziehen. Es war schon immer so und wird wohl auch immer so bleiben...

Aber "Liebe macht eben Blind", gell?
;D

Die Midrange-Reihe der G8x (also alles unter G80 - meist auch die 8800GTS320) kann man ja schon jetzt glatt vergessen...

1. Mich würden mal diese Bröckchen interessieren. Afaik ist nur der GS dazu gekommen. Alles andere lässt sich mit DX9 realisieren.
2. Was ist denn für dich ein richtiges DX10 Game?

Nochmal, nicht DX10 (ok, beim G80 höchstens durch den eher schwachen GS) zwingt die aktuellen High-End Grafikkarten in die Knie sondern einfach die mit der Zeit immer schönere Grafik, die natürlich mehr Rechenpower benötigt. Es ist nämlich ein Unterschied ob eine Szene XYZ 200000 Polygone enthält oder 1,5 Milionen. Das zweitere ist locker auch mit DX9 zu erreichen.
Klar... habe ich auch nie bestritten.
Oder vielleicht doch... who knows?

Im ernst: man muss JEDES MAL den Unterschied zwischen D3D9 und D3D10 mit der Lupe suchen... PCGH hat dies in einem kleinen Artikel sehr schön formuliert (und anhand Bioshock auch sehr schön dokumentiert) - aber sobald man von "mehr Effekten zum gleichen Preis" gebrauch macht, brechen die D3D10-HighEnder vollkommen ein... ausser bei BioShock, denn dort sind die Zusatz-Effekte so dermaßen dezent (und zahllos ;-), dass sie kaum einen Einfluß haben... auch habe ich so den Verdacht, dass dort "SoftShadowes" aufgegeben wurden, um eben den Partikel-Nebel und die niedlichen Wasser-Wellen ohne Performance-Verlust möglich zu machen.

Spaß beiseite... im Prinzip wird auf den Shots sogar gezeigt, dass der Nebel/Rauch unter DX9 einfach dichter und voluminöser erscheint. Auch den Kinderwagen-Schatten an der Wand empfinde ich mit 'weichen' Kanten angenehmer und natürlicher, als diese messerscharfen Kanten unter D3D10. Das Wasser hingegen sieht klar besser aus (tut es immer - bei JEDEM neuen Techlevel ;-)... ähm nicht das Wasser, sondern die süßen, kleinen Wellen... auch wenn es mir beim ersten mal, als ich den Level mit 'nem G80 zockte, gar nicht aufgefallen ist... aber klar, wenn man lange genug hin schaut, fällt es definitiv postiv auf.

Beim ersten Durchzocken dieses BioShock-Levels waren meine Gedanken allerdings vollkommen anderweitig unterwegs... ;)

Fragt sich also, wie man sich die nicht nachteilige Performance bei 'mehr' Effekten tatsächlich 'erkauft' hat.
Aber das werden wohl spätere Betrachtungen zeigen, wenn sich dieser D3D10-Hype gelegt hat...

Ist der GS nicht eher schwach beim G80? Ich könnte mir gut vorstellen, dass NV diesen beim G90 um einen Faktor >2 verbessert. :)
Na ja... die spekulierten Spezifikationen deuten ja schon eindeutig in diese Richtung.
Und es würde mich tatsächlich nicht wundern, wenn nicht nur D3D10.1 (was eher unwichtig ist) dabei heraus kommt, sondern eine ungleich höhere Leistung... in Teilen der Architektur.

Wenn dann noch die Verlust-Leistung im Idle-Betrieb wieder stimmt, die Video-Beschleunigungs-Funktionen vernünftig funktionieren und auch die Leistungsaufnahme in 3D akzeptabel ist (Stichwort: besser Fertigungprozess und massive Fehler- und Design-Korrekturen), dann könnte der G9x für D3D10 das werden, was der G7x für D3D9 war... wir werden sehen, denn im November ist es ja vermutlich schon soweit... gerade rechtzeitig zum Weihnachtsgeschäft - mann, wird es AMD da schwer haben.

Razor

P.S.: [ergänzend] - die Vista-Treiber besser geworden sind, Vista besser geworden ist, 64Bit endlich zu gebrauchen ist.... und, und, und...

Razor
2007-08-25, 21:51:30
Wenn es ein nVIDIA-Paper dazu gibt kann's ja nicht so fürchterlich sein ;)
Wenn's ein nVidia-Papier dazu gibt, zeigt dies eindeutig, VON WEM dieser Effekt tatsächlich geproggt wurde.

Überhaupt habe ich so langsam das Gefühl, dass die Entwickler-Schmieden immer mehr dazu über gehen, die Effekte gleich von den IHV programmieren zu lassen. Hoffen wir mal, dass die Hardware der beiden IHV dann doch nicht zuuuuuuuuhhh unterschiedlich ist, gell?
;)

Razor

P.S.: und nein, von Dir erwarte ich keine (vernünftige) Antwort... kannst es also auch ruhig bleiben lassen... :D

dargo
2007-08-25, 22:06:11
Genau das wollte ich damit zum Ausdruck gebracht haben!
Leistung ist ein Argument - wenn auch nicht um jeden Preis - und ich meine hier nicht nur den monetären Aspekt ;-), klar...
...aber D3D10 ist keines.

Ich kann mich immer wieder nur wiederholen. Wer sich einen G80 nur wegen DX10 für Spiele die erst in ~2 Jahren erscheinen (ich rechne ab dem November 2006) kauft/gekauft hat hat die letzten Jahre verpennt oder ist noch zu kurz dabei.

Ein kleines Beispiel - ein NV40 ist auch ein DX9 Chip. Wofür kann man den heute noch bei neuen DX9 Games gebrauchen, außer für eine Diashow?


Warum hier einige tatsächlich der Meinung sind, dass sie Ihre teueren Schätzchen nicht gleich in die Tonne schmeißen können, wenn es erst mal los geht (dürfte nicht mehr allzu lange dauern ;-) - kann ich nicht nachvollziehen. Es war schon immer so und wird wohl auch immer so bleiben...

Aber "Liebe macht eben Blind", gell?
;D

Nochmal, wer das behauptet hat die letzen Jahre einfach verpasst. Du fixierst dich mir nur zu sehr auf das "DX10". Wann soll es denn richtig deiner Meinung nach losgehen? Keiner wird sofort die Optik so verbessern, dass es keine Grafikkarte flüßig darstellen kann. Es wird wie immer kleine Steigerungen beim Rohleistungsbedarf geben der in der Regel in schönerer Optik resultiert. Schließlich kommen nicht jeden 6 Monat doppelt so schnelle Grafikkarten, es dauert schon etwas länger.


Die Midrange-Reihe der G8x (also alles unter G80 - meist auch die 8800GTS320) kann man ja schon jetzt glatt vergessen...

Die Midrange-Sparte ist bei beiden Herstellern diesmal eher misslungen. Und es hat wieder nichts mit DX10 zu tun, sie schwächeln auch schon bei DX9. Naja, lange wird es nicht mehr bis zum G92/RV670 dauern.


Im ernst: man muss JEDES MAL den Unterschied zwischen D3D9 und D3D10 mit der Lupe suchen...

Ich denke wir werden in Zukunft immer weniger optische Verbesserungen zum immer höheren Preis sehen. Das ist nunmal der Preis den man zahlen muss wenn man sich der Perfektion (Fotorealismus) nähern will.


PCGH hat dies in einem kleinen Artikel sehr schön formuliert (und anhand Bioshock auch sehr schön dokumentiert) - aber sobald man von "mehr Effekten zum gleichen Preis" gebrauch macht, brechen die D3D10-HighEnder vollkommen ein...

Zähle mir bitte diese Effekte auf, die nur mit DX10 machbar sind.



Spaß beiseite... im Prinzip wird auf den Shots sogar gezeigt, dass der Nebel/Rauch unter DX9 einfach dichter und voluminöser erscheint. Auch den Kinderwagen-Schatten an der Wand empfinde ich mit 'weichen' Kanten angenehmer und natürlicher, als diese messerscharfen Kanten unter D3D10.

Das ist Geschmacksache. Mir gefallen die Schatten unter DX10 besser. Diese kann man aber auch per Tweak unter DX9 bewundern. ;)

LovesuckZ
2007-08-25, 22:27:11
Warum hier einige tatsächlich der Meinung sind, dass sie Ihre teueren Schätzchen nicht gleich in die Tonne schmeißen können, wenn es erst mal los geht (dürfte nicht mehr allzu lange dauern ;-) - kann ich nicht nachvollziehen. Es war schon immer so und wird wohl auch immer so bleiben...

Aber "Liebe macht eben Blind", gell?
;D

Meine 8800GTX geht geradewegs auf den Jahrestag zu. Ich habe sie also zu einer Zeit gekauft als es kein Vista und keine D3D10 Software gab. Wieso sollte ich also meine Karte wegwerfen? :confused:

aber sobald man von "mehr Effekten zum gleichen Preis" gebrauch macht, brechen die D3D10-HighEnder vollkommen ein...

Ironischerweise brechen die DX9 Karten in DX9 Spielen auch sehr stark ein, wenn man hier "mehr Effekte" haben will. Warum sollten die D3D10 Karten dies nicht machen?

dann könnte der G9x für D3D10 das werden, was der G7x für D3D9 war...


Haha.
Hoffentlich nicht. In neueren SM3.0 Spielen kotzen die G7x Karten so dermaßen ab, dass man sie, nach deiner Logik, einfach auf den Müll werden müsste.

Um das klarzustellen. Die 8800GTX ist für D3D10 Anwendungen genauso gut verwendbar wie eine 7900GTX für SM3.0 Spiele. Beide Karten scheinen bei starker Verwendung des Shadermodells deutlich einzubrechen.

Blaire
2007-08-25, 22:37:55
Meine 8800GTX geht geradewegs auf den Jahrestag zu. Ich habe sie also zu einer Zeit gekauft als es kein Vista und keine D3D10 Software gab. Wieso sollte ich also meine Karte wegwerfen? :confused:

Ist bei mir ähnlich und ich bin immer noch sehr zufrieden damit. :cool:

Coda
2007-08-25, 22:52:23
Wenn's ein nVidia-Papier dazu gibt, zeigt dies eindeutig, VON WEM dieser Effekt tatsächlich geproggt wurde.
Du spielst wohl auf nVIDIA an - was ich nicht glaube. Und wenn es so wäre: Ja und?

Razor ich stimme dir in Grundzügen manchmal sogar zu. Aber du übertreibst es maßlos. D3D10 ist ein extra das man "umsonst" dazubekommt bei einer 8800. Was ist daran so unglaublich furchtbar dass du dich so drüber aufregst die ganze Zeit?

TurricanM3
2007-08-25, 23:28:21
Hast du es schon mal mit einem G80 probiert? Ich habe überhaupt keine Ruckler, weder DX9 noch DX10. Vielleicht macht SLI die Probleme.

Probiere ich jetzt mal, parallel installiere ich noch den Vista SLI Fix KB936710.

Exxtreme
2007-08-25, 23:56:43
Mal testen. Hoffentlich behebt der Treiber die Alt-Tab-Crashes von WoW. Wobei ich langsam glaube, daß es am Spiel und nicht am Treiber liegt. oO

Gast
2007-08-26, 01:12:49
Was ist daran so unglaublich furchtbar dass du dich so drüber aufregst die ganze Zeit?

Lass den Schwätzer doch.... Unser TREIBERGURU, weiss es eh immer besser....

Obs nun über G80, Vista oder DX10 geht..........
Fragt nur den RAZOR.... Er wird euch den "Weg" zeigen.....

Wenn ich schon die Posts von irgendwelchen Usern hier lese..........
OH, neee .... der Treiber kommt mir erstmal nicht drauf.......
Warten wir bis der RAZOR ihn sich angesehn hat....... *hahaha*

Dann sagt er: Gaaaaaaammmaaaaa gut ;)

boah neeeeeeeeeee , zum kotzen sowas..........

Razor
2007-08-26, 08:59:44
Ich kann mich immer wieder nur wiederholen. Wer sich einen G80 nur wegen DX10 für Spiele die erst in ~2 Jahren erscheinen (ich rechne ab dem November 2006) kauft/gekauft hat hat die letzten Jahre verpennt oder ist noch zu kurz dabei.

Ein kleines Beispiel - ein NV40 ist auch ein DX9 Chip. Wofür kann man den heute noch bei neuen DX9 Games gebrauchen, außer für eine Diashow?

Nochmal, wer das behauptet hat die letzen Jahre einfach verpasst. Du fixierst dich mir nur zu sehr auf das "DX10". Wann soll es denn richtig deiner Meinung nach losgehen? Keiner wird sofort die Optik so verbessern, dass es keine Grafikkarte flüßig darstellen kann. Es wird wie immer kleine Steigerungen beim Rohleistungsbedarf geben der in der Regel in schönerer Optik resultiert. Schließlich kommen nicht jeden 6 Monat doppelt so schnelle Grafikkarten, es dauert schon etwas länger.
Nun ja... hinsichtlich der Untauglichkeit für 'echte' D3D10-Anwendungen, also eben Anwendungen mit 'richtig' gesteigerter Effektdichte scheinen wir uns ja nun einig.

Stellt sich also nun die Frage, warum Devs überhaupt D3D10 featuren sollen, wenn doch der zu erzielende Effekt nahe Null ist und derzeitige HighEnd-Hardware dabei schon ins Schitzen kommt. Aber vermutlich ist für D3D10 ja auch gar nicht der Developer, sonden der IHV höchstpersönlich 'verantwortlich'... der selbstredend schon ein Interesse hat, diese API zu promoten... und so sieht es derzeit auch aus: reines Promoting... welches wirtschaftlich sein muss und deswegen auch nur winzige Aspekte des Möglichen zeigt... natürlich auch, um die eigene - aktuelle Hardware nicht zu 'überlasten'.

Und... 2 Jahre sehe ich als 'etwas' hoch gegriffen.

Schon Ende des Jahres werden vermutlich schon wesentlich leistungsfähigere Karten erscheinen... nVidia mit stärkeren GS-Einheiten, ATI mit wesentlich stärkeren Textur-Einheiten... und schon wird sich das Blatt wenden. Würde mich also nicht wundern, wenn wir schon Nov/Dez entsprechende Anwendungen sehen werden, bei denen G80-Anwender wahrhaftig 'weinen' werden... wir werden sehen.

2 Jahre... das ist dann Q4/2009 also fast 2010.

Ich bin mir sicher (sehr sicher sogar), dass die Hardware bis dahin sogar schon eine ganz andere Richtung eingeschlagen hat. Aber das ist Kaffeesatz lesen... wenn auch mit Hintergrund.

Die Midrange-Sparte ist bei beiden Herstellern diesmal eher misslungen. Und es hat wieder nichts mit DX10 zu tun, sie schwächeln auch schon bei DX9. Naja, lange wird es nicht mehr bis zum G92/RV670 dauern.
Dem ist nichts hinzu zu fügen.

Und noch einmal: D3D10 heißt für mich nicht, dass nun andere Effekte möglich sind, die technologisch auf D3D10 basieren, sondern dass nun Effekte möglich werden, die D3D9 seitig aus performance Sicht ad absurdum geführt hätten und deswegen mangels entsprechend leistungsfähiger Hardware auch nicht implementiert wurden. Es wird also schon Effekte bzw. Effekt-Kombinationen unter D3D10 geben, die so noch nie zu sehen waren.

Und zum zweiten: D3D10 heißt für mich, dann nun eine höhere Performance bei gleich vielen Effekten in Vergleich zu D3D9 erzielt werden kann. Das wird immer wieder von den Devs, wie auch von M$ und den IHVs behauptet. Wirklich gesehen hat man davon allerdings noch nichts, denn Steigerungen um 10% oder meist sehr viel weniger sehe ich jetzt nun nicht als DEN durchschlagenden Erfolg für D3D10 an. Zumal die Performance unter Vista und WinXP noch immer nicht wirklich vergleichbar ist...

Ich denke wir werden in Zukunft immer weniger optische Verbesserungen zum immer höheren Preis sehen. Das ist nunmal der Preis den man zahlen muss wenn man sich der Perfektion (Fotorealismus) nähern will.
"Photorealismus" wird schon seit den ersten Grafik-Beschleunigern verkauft, die nicht einmal diese Bezeichnung verdient hätten. Fakt ist eher, dass auf Basis bestehender Technologie überhaupt kein "Photorealismus" erzielbar ist... Raytracing wäre eher dazu geeignet, aber dazu braucht es einfach nur brutal schnelle GP-CPUs, streaming-GPUs, wie derzeit im Grafikmarkt anzutreffen, sind dafür einfach nicht geeignet.

Insofern kann man mit fug und recht behaupten, dass sich dieser Teil der Entwicklung in einer Sackgasse befindet.

Und: 'bezahlen' tue zumindest ich nur das, was nach meinem Verständnis ein ausgewogenes Preis/Leistungsverhältnis hat.
Aber keinesfalls darf etwas massive Nachteile ggü. der bestehenden Lösung haben!

Zähle mir bitte diese Effekte auf, die nur mit DX10 machbar sind.
Du hast mich falsch verstanden... oder willst mich nicht verstehen.
Siehe oben... ich denke, ich habe das nun ausführlich dargelegt.

Das ist Geschmacksache. Mir gefallen die Schatten unter DX10 besser. Diese kann man aber auch per Tweak unter DX9 bewundern. ;)
Ich brauche es nicht "mit einem Tweak" 'bewundern', denn ich kann es Live sehen, wenn ich will.
Und dazu sind persönliche Ansichten ja da... eben 'persönlich' zu sein.

Die 'harten' Schatten gab es schon immer (wenn auch nicht so hoch aufgelöst), die 'weichen' Schatten hingegen (auch gerne "Soft Shadows" genannt), waren ein Merkmal der SM2+ Technologie, Dinge realistischer wirken zu lassen... wie noch in LostPlant zu sehen.

Und plötzlich sind "harte Schatten" wieder "in"... Leute entscheidet Euch mal.
Ich persönlich empfinde die "weichen Schatten" angenehmer...

Razor

dargo
2007-08-26, 09:25:25
Und... 2 Jahre sehe ich als 'etwas' hoch gegriffen.

Schon Ende des Jahres werden vermutlich schon wesentlich leistungsfähigere Karten erscheinen... nVidia mit stärkeren GS-Einheiten, ATI mit wesentlich stärkeren Textur-Einheiten... und schon wird sich das Blatt wenden.

Natürlich werden schnellere Grafikkarten erscheinen. Dadurch wird aber ein G80 nicht langsamer. ;)


Würde mich also nicht wundern, wenn wir schon Nov/Dez entsprechende Anwendungen sehen werden, bei denen G80-Anwender wahrhaftig 'weinen' werden... wir werden sehen.

2 Jahre... das ist dann Q4/2009 also fast 2010.

Ich bin mir sicher (sehr sicher sogar), dass die Hardware bis dahin sogar schon eine ganz andere Richtung eingeschlagen hat.

Ich nicht. Schließlich liest man an jeder Ecke, dass die Konsolen featuremäßig den PC ausbremsen. Bis natürlich auf kleine Ausnahmen wie zb. Crysis.

Es sollen jede Menge Titel mit der UE3 Engine erscheinen. Und diese schafft ein G80 spielend. Es sei denn, die Spieleentwickler werden in Zukunft immer mehr Effekte als bei der XBox360 Version in die PC Version implementieren. Naja, obs so kommt - warten wirs ab.


"Photorealismus" wird schon seit den ersten Grafik-Beschleunigern verkauft, die nicht einmal diese Bezeichnung verdient hätten. Fakt ist eher, dass auf Basis bestehender Technologie überhaupt kein "Photorealismus" erzielbar ist...

Ich habe nicht gesagt, dass wir bereits soweit sind. Nur, dass man sich in kleinen Schritten nähert. ;)


Und: 'bezahlen' tue zumindest ich nur das, was nach meinem Verständnis ein ausgewogenes Preis/Leistungsverhältnis hat.
Aber keinesfalls darf etwas massive Nachteile ggü. der bestehenden Lösung haben!

Das mache ich auch, deswegen ist auch ein G80 in meinem Rechner gelandet. ;)
Und falls du wieder mit dem Stromverbrauch kommst - ja, ich liege jetzt ~7W höher in Idle als vorher. :cool:


Ich brauche es nicht "mit einem Tweak" 'bewundern', denn ich kann es Live sehen, wenn ich will.
Und dazu sind persönliche Ansichten ja da... eben 'persönlich' zu sein.

Die 'harten' Schatten gab es schon immer (wenn auch nicht so hoch aufgelöst), die 'weichen' Schatten hingegen (auch gerne "Soft Shadows" genannt), waren ein Merkmal der SM2+ Technologie, Dinge realistischer wirken zu lassen... wie noch in LostPlant zu sehen.

Und plötzlich sind "harte Schatten" wieder "in"... Leute entscheidet Euch mal.
Ich persönlich empfinde die "weichen Schatten" angenehmer...

Ich habe so das Gefühl, dass du weiche Schatten gar nicht richtig erkennt. :)
Auch in DX10 gibts weiche Schatten, die sind nur höher aufgelöst. Hätte die DX10 Version harte Schatten hätten diese Aliasing. ;)

PCGH_Carsten
2007-08-26, 09:28:18
Per se sind weder harte noch weiche Schatten realistisch. Es muss einen Verlauf von Hart nach weich in Abhängigkeit vom Occluder (schattenwerfenden Objekt) geben: Je weiter Occluder und die Oberfläche auf die der Schatten geworfen wird, auseinander liegen, desto weicher der Schatten.

Kleiner Tipp: Hellgate: London versucht sich an sowas.

Razor
2007-08-26, 09:38:37
Du spielst wohl auf nVIDIA an - was ich nicht glaube. Und wenn es so wäre: Ja und?
Das verfälscht die Realität... und ist eben nur reines Marketing.

Dadurch, dass man mit D3D10 an Vista gebunden ist - was es im übrigen noch NIE gab - muss man sich nicht nur für neue Grafik-Hardware entscheiden, sondern meist auch gleich für einen komplett neuen Rechner samt neuem Betriebssystem, welches dem Nutzer zudem massive Nachteile in Sachen Privacy und Nutzungsrechten kredenzt, in weiten Bereichen sogar noch massive Nachteile in Sachen Kompatibilität und Stabilität mit sich bringt...

...alles ein bischen viel, wie ich finde.

Ich bin es leid, JEDEN Entwicklungsschritt von irgendwelchen Groß-Konzernen zu bezahlen, wenn ich dann zudem auch noch kräftig in Arsch getreten werde. Warum soll ich das machen?

Auf 'unser' Thema bezogen heißt dies:
- Vista bringt 'mir' keinerlei Vorteil, aber dafür massive Nachteile
- D3D10-Karten bringen nur wenig Vorteile, aber dafür massive Nachteile

Und um nun wieder auf die Devs zurück zu kommen: all das werden auch diese sehen... und rühren für die "neue Technologie" keinen Finger.

Analysten gehen derzeit davon aus, dass die Entscheidung, D3D10 an Vista zu koppeln, dazu führen wird, dass es massive Marktverschiebungen zugunsten anderer Plattformen geben wird. Mit Sicherheit wird es aber dazu führen, dass diese API mit noch nie dagewesener Verzögerung in den Markt treten wird... der jetzige Zustand mit "kleinen Bröckchen" also ein dauerhafter werden wird.

Und führt man diesen Gedanken nun weiter, dann wird es bald nicht nur sehr viel leistungsfähigere Grafikkarte für D3D10(.1) geben, sondern eben auch Grafikkarten, die auch unter D3D9 sehr viel leistungsfähiger sind. Damit bekommen die Devs dann Mittel an die Hand, die 'alte' API doch noch sehr viel länger zu benutzen, als dies M$ recht wäre. Und ich meine damit nicht, dass mit "benutzen" die generelle Unterstützung gemeint ist, sondern mit "benutzen" meine ich die technologische Basis einer Engine.

Aber das führt schon fast zu weit...

Razor ich stimme dir in Grundzügen manchmal sogar zu. Aber du übertreibst es maßlos. D3D10 ist ein extra das man "umsonst" dazubekommt bei einer 8800. Was ist daran so unglaublich furchtbar dass du dich so drüber aufregst die ganze Zeit?
Weil ich zu dem, was ich "umsonst" dazu bekomme, eben auch massive Nachteile in Kauf nehmen muss.
Ganz einfach...

Wäre die neue Generation in jeder Hinsicht besser, würde ich nichts dagegen sagen, aber dem ist nunmal nicht so. Wegen Vista haben wir nun ein neues Panel, welches nun immer noch nicht - nach einem ganzen Jahr - die Funktionalität bringt, welches das Alte inne hatte... geschweige denn Funktionen hinzu kamen, die es vorher nicht gab. Das hat nun auch gleich alle anderen Nutzer getroffen, die gar nichts mit Vista und D3D10 am Hut haben - warum?

Der Stromverbrauch der 'wirklichen' D3D10-Karten spottet zudem JEDER Beschreibung und ich meine hier nicht die, die mit der 3D-Leistung im Zusammenhang steht. Da Verbrauch nun mal was mit Hitze-Entwicklung zu tun hat, trifft dies dann auch gleich die komplette Hardware, welche eigentlich gar nichts mit der Grafikkarte zu tun hat, immer leistungsfähiger und ökonomischer wird, trotzdem aber in Mitleidenschaft gezogen wird.

Was ich 'anprangere', ist folgendes:
- technologischer Fortschritt, der keiner ist (Vista, D3D10)
- mangelhafte Hardware (Stromverbrauch D3D10-HighEnd, Leistung D3D10-'Performance' und darunter)
- mangelnde Software (Vista, Treiber)

Ein bischen viel, wie ich finde.

Die Entwicklung geht insgesamt in eine falsche Richtung... der Nutzer wird in seinen Rechten immer mehr eingeschränkt, er bekommt für sein Geld eigentlich nur Schrott und er muss/soll Nachteile in Kauf nehmen, für die es eigentlich in einer "freien Marktwirtschaft" keinen Grund gibt...

- Vista ist zu früh... trotz seiner massiven "Verspätung"
- D3D10 an Vista zu binden war eine massive Fehlentscheidung von M$ (auch wenn es damit das einzige Merkmal pro Vista ist ;-)
- D3D10 Hardware kann im Prinzip gar nicht 'gut' sein, weil es ja die erste Generation ist
- ...

Na ja... aber offenbar lieben es die Leute, kräftig in den Anus getreten zu werden.
1 Jahr Treiber... und noch immer Probleme, Infunktionalitäten
7 Monate Vista... und es wird immer mehr klar, dass bald ein neues OS her sollte - durchaus Alternativen vielleicht doch besser wären

Wir werden sehen, wie sich das entwickelt, aber derzeit sieht es recht düster aus... für den Endkunden wohlgemerkt.
Vielleicht hat das Ganze letztlich aber auch was Gutes...

Razor

Razor
2007-08-26, 09:43:12
Das mache ich auch, deswegen ist auch ein G80 in meinem Rechner gelandet. ;)
Gut, dass dies keine Bauch-Einschätzung meinerseits ist, denn sonst würde ich Dir das sogar glauben können...
...was aber nicht der Fall ist.

Und falls du wieder mit dem Stromverbrauch kommst - ja, ich liege jetzt ~7W höher in Idle als vorher.
Wenn Du das nicht mit Hintergrund versorrst und damit aus diesem Kontext nimmst, bezichtige ich Dich hiermit einer satten Lüge! Aber vielleicht reicht es ja, wenn Du uns/mir das mal zu erklären versuchst...

Razor

Razor
2007-08-26, 09:48:35
Per se sind weder harte noch weiche Schatten realistisch. Es muss einen Verlauf von Hart nach weich in Abhängigkeit vom Occluder (schattenwerfenden Objekt) geben: Je weiter Occluder und die Oberfläche auf die der Schatten geworfen wird, auseinander liegen, desto weicher der Schatten.
Ja.
Und vor diesem Hintergrund schaue man sich nochmal die Scene von Bioshock und dem Kinderwagen an...

Kleiner Tipp: Hellgate: London versucht sich an sowas.
Jaaaaaa.... Hellgate.
Auf dieses Game bin ich schon wirklich gespannt!
:up:

Razor

dargo
2007-08-26, 09:53:26
Wenn Du das nicht mit Hintergrund versorrst und damit aus diesem Kontext nimmst, bezichtige ich Dich hiermit einer satten Lüge! Aber vielleicht reicht es ja, wenn Du uns/mir das mal zu erklären versuchst...

Ich habe schon mehrmals die Vergleiche hier dargelegt. Aber gut, nochmal für dich:

Idle inkl. G8800GTS 640@200/200Mhz = ~121W
Idle inkl. X1900XT 512MB (die einen 2D Modus hatte) = ~112W

Wenn du jetzt den Wirkungsgrad des NTs berücksichtigst bist du bei ca. 7W mehr für den G80.

Razor
2007-08-26, 10:02:28
Und noch etwas... DAS zum Thema: kein Leistungverlust von D3D9 zu D3D10 bei BioShock.

AMD-Zone (http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=315&page=1):

http://www.amdzone.com/pics/gaming/bioshock/1280.jpg

http://www.amdzone.com/pics/gaming/bioshock/1280dx9.jpg

In Worten:
- 7900GTX schneller, als 8600GTS unter WinXP D3D9 - immerhin plus 8%
- 8800GTS unter D3D10 deutlich langsamer, als unter WinXP D3D9 - immerhin minus 12%

Und das bei dem wohl "most advanced" Game...

Bei Computerbase (http://www.computerbase.de/news/software/spiele/actionspiele/2007/august/benchmarks_bilder_bioshock/) sieht nicht wirklich anders aus, wenn man ins Kalkül zieht, dass diese für die 79GX 'falsche' Einstellungen benutzen und eben ausschließlich unter Vista getestet haben. Dieser 'Vergleich' ist aber IMO nicht zulässig... da ist das von AMD Zone sehr viel aussagekräftiger, als das von CB... ich finde sowieso, dass letztere leider immer mehr nachlassen.

Razor

Razor
2007-08-26, 10:10:01
Ich habe schon mehrmals die Vergleiche hier dargelegt. Aber gut, nochmal für dich:

Idle inkl. G8800GTS 640@200/200Mhz = ~121W
Idle inkl. X1900XT 512MB (die einen 2D Modus hatte) = ~112W

Wenn du jetzt den Wirkungsgrad des NTs berücksichtigst bist du bei ca. 7W mehr für den G80.
Sorry, aber da lügst Du Dir was zurecht...

Bei mir steckte ein 6420 auf 965P drin, 2 Festplatten (250+500) und noch Sound/TV-Karte.
Zusätzliche Festplatte und die beiden Karten kommen im Idle auf etwa 5W, die der 6420 ggü Deinem 6400 wieder 'sparen' sollte.

Mein System geht im Idle auf etwas weniger als 135W, braucht aber NIE mehr, als 230W unter absoluter Vollast.
Und Du willst alle anderen Lügen strafen, die meine Gedanken bestätigen, Deine aber IMMER ad absurdum führen?
Sorry, aber...

Vielleicht solltest Du mal Deine Methode der tatsächlichen Leistungsaufnahme überdenken.
Ich messe direkt an der Steckdose... denn nur das ist es, was zählt!

Razor

Öhm... PS: mit 8800GTX geht der Idle-Vebrauch übrigens um locker 60W nach oben... 195W also im Vergleich zu 135W mit der 7900GT@585/885.

dargo
2007-08-26, 10:11:20
Und noch etwas... DAS zum Thema: kein Leistungverlust von D3D9 zu D3D10 bei BioShock.

AMD-Zone (http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=315&page=1):

We utilized FRAPS to test out the game, and ran through the same portion of the game for 30 seconds to get our average numbers shown below.
;)

Nee, lass mal. Außerdem waren die DX Vergleiche vorhin von mir nur in Vista ermittelt. Ohne Savegames geht es auch nicht anders. Deswegen kannst du den AMD Test in die Tonne kloppen.

Ich messe direkt an der Steckdose... denn nur das ist es, was zählt!

Das mache ich auch. ;)

Razor
2007-08-26, 10:16:23
Nee, lass mal. Außerdem waren die DX Vergleiche vorhin von mir nur in Vista ermittelt. Ohne Savegames geht es auch nicht anders. Deswegen kannst du den AMD Test in die Tonne kloppen.
Sorry, aber da "kloppe" ich doch lieber Deine Tests in die Tonne.
Offenbar stimmen ja nicht einmal Deine Leistungsaufnahme-Messungen...
Sorry.

Razor

P.S.: würden Deine W-Angaben stimmen, dann verbraucht Deine 8800 etwa die Hälfte der angegeben 120W, was im Umkehrschluss bedeutet, dass Dein komplettes restliches System nur 60W 'schluckt'... denke mal darüber nach.

dargo
2007-08-26, 10:19:55
@Razor
Wie wärs wenn du beim lesen etwas nachdenkst?

Idle inkl. G8800GTS 640@200/200Mhz = ~121W
Idle inkl. X1900XT 512MB (die einen 2D Modus hatte) = ~112W

Dass es sich um das Gesamtsystem an der Steckdose handelt ist doch offensichtlich oder etwa nicht?

121-112= 9W (ohne NT bei 75% Effizienz sind es knapp 7W mehr für die GTS).

Razor
2007-08-26, 10:40:11
Und wie wäre es, wenn Du einfach lesen würdest?
- mein System mit 7900GT im Idle 130W (Hardware-bereinigt)
- Dein System mit 8800GTS im Idle 120W (60W für die GTS, Rest 60W?)
Vielleicht solltest Du einfach mal nachdenken...

Razor

4711
2007-08-26, 10:46:33
ach Leute......
Mir zb. ist das vollkommen Banane...ich hab auch ein 850 Watt NT :D
Und ich freue mich auf Crysis IN DX10!!!!!!!!!!!!!
Auf das es so einigermaaaasen Ruckelfrei läuft.
@Razor und zum xten male Ich habe noch nie irgendwelche Treiberprobs unter Vista gehabt die nicht Handgemacht waren...auch nicht mit uralten Webcams TV Tunern oder mit aktuellen Medion Navis und schon gar nicht mit NV Treibern....ich kanns nicht mehr lesen ECHT!

Ach ja die Karte hatte ich schon da war ich noch strickt gegen Vista :D und wollte es nie und nimmer installieren.....

PCGH_Carsten
2007-08-26, 10:49:27
Und wie wäre es, wenn Du einfach lesen würdest?
- mein System mit 7900GT im Idle 130W (Hardware-bereinigt)
- Dein System mit 8800GTS im Idle 120W (60W für die GTS, Rest 60W?)
Vielleicht solltest Du einfach mal nachdenken...

Razor
Razor,

Dargo hat keine GTX sondern eine GTS - das macht schonmal eine Menge aus. Zudem hat er seine Karte per RT-Mod auf 200/200 heruntergetaktet - das bringt auch nochmal lockere 20-25 Watt Ersparnis.

Zudem sind leichte Unterschiede in der vCore der CPU board- und exemplarabhängig auch durchaus möglich und machen gerade im Idle nochmal viel aus.

4711
2007-08-26, 10:54:37
das haben wir schon zig mal geschrieben (meine GTX läuft mit 202/225)aber das will er doch gar nicht wissen.....:wink:

PCGH_Carsten
2007-08-26, 10:55:47
das haben wir schon zig mal geschrieben (meine GTX läuft mit 202/225)aber das will er doch gar nicht wissen.....:wink:
Schließ doch die Möglichkeit nicht einfach aus, dass er das vielleicht überlesen hat. Daraus entstehen auch Mißverständnisse und Diskussionen, die einem nicht in schöner Erinnerung bleiben.

4711
2007-08-26, 10:58:32
So oft wie das geschrieben wurde und wie oft er darauf geantwortet hat.....aber dann könnte er ja nicht mehr darüber herziehen.....ist wohl ein Hobby von ihm geworden......;D

Und nun zurück zum Treiberlein.

Razor
2007-08-26, 11:12:10
Razor,

Dargo hat keine GTX sondern eine GTS - das macht schonmal eine Menge aus. Zudem hat er seine Karte per RT-Mod auf 200/200 heruntergetaktet - das bringt auch nochmal lockere 20-25 Watt Ersparnis.

Zudem sind leichte Unterschiede in der vCore der CPU board- und exemplarabhängig auch durchaus möglich und machen gerade im Idle nochmal viel aus.
Ist mir schon klar...
GTS vs. GTX sind etwa 65W vs. 80W im idle.
200/200 vs. default sind gut gemeinte 20W, 25W habe ich noch nirgendwo gesehen.
(und ja, ich hatte dies überlesen, wie man an meinen geschätzten 190W gesamt sehen kann)

Meine 79GT liegt etwa bei 20W, der 6420 vs. 6400 etwa bei -5W.
Ergo: 130W + 5W + 25W sind ~ 160W... vermutlich eher um die 165-170W für sein System.
Er behauptet aber, dass er nur mit 120W daher kommt, was schon logisch in sich nicht stimmt...
...und zu allem Überfluss NIRGENDWO bestätigt wird.

So muss ich ihm leider absprechen, hier die Wahrheit zu erzählen.

Razor

TobiWahnKenobi
2007-08-26, 11:12:22
ist die funktion für das skalieren des hd-desktops implementiert?


(..)

mfg
tobi

Gast
2007-08-26, 12:23:25
Meine 79GT liegt etwa bei 20W, der 6420 vs. 6400 etwa bei -5W.
Ergo: 130W + 5W + 25W sind ~ 160W... vermutlich eher um die 165-170W für sein System.
Er behauptet aber, dass er nur mit 120W daher kommt, was schon logisch in sich nicht stimmt...
...und zu allem Überfluss NIRGENDWO bestätigt wird.

So muss ich ihm leider absprechen, hier die Wahrheit zu erzählen.

Razor

Ich habe hier gerade einen C2D@~3 GHz (undervolted) mit einer GTX (2D-Takt per BIOS gesenkt), der bei ca. 128 Watt idlen kann. Mit einer 7900 GTO waren's minimal 105 Watt - bei GTO-Standardsettings.

Auch wenn ich sie nicht beweisen kann, glauben kann ich dargos Angaben schon.


Q

dargo
2007-08-26, 12:42:18
Meine 79GT liegt etwa bei 20W, der 6420 vs. 6400 etwa bei -5W.
Ergo: 130W + 5W + 25W sind ~ 160W... vermutlich eher um die 165-170W für sein System.
Er behauptet aber, dass er nur mit 120W daher kommt, was schon logisch in sich nicht stimmt...
...und zu allem Überfluss NIRGENDWO bestätigt wird.

So muss ich ihm leider absprechen, hier die Wahrheit zu erzählen.

Oh man, soll ich dir jetzt etwa ein Foto von meinem Energy Monitor 3000 präsentieren oder wie? Selbst dann wirst du mir womöglich vorwerfen, ich hätte nicht mein System gemessen wa?

Hier nochmal extra für dich:
Zudem sind leichte Unterschiede in der vCore der CPU board- und exemplarabhängig auch durchaus möglich und machen gerade im Idle nochmal viel aus.
Auch besteht die Möglichkeit, dass du zu 99% ein anderes NT wie ich hast.

Ich hoffe ich poste das zum letzen Mal. :cool:

System1 (Sig.) - Idle Gesamtverbrauch:

G8800GTS@standard = ~141W (Brutto)
G8800GTS@200/200Mhz = ~121W (Brutto)
X1900XT 512MB = ~112W (Brutto)

Bei allen Messungen läuft der E6400@3,3Ghz mit C1E und EIST, sprich 2472Mhz und ~1,18V.

Edit:
Brutto heißt hinter dem NT gemessen, sprich an der Steckdose.

BurnIn
2007-08-26, 12:52:57
Alles dreht sich hier im Kreis!
Klar ist die 8800er Reihe nicht komplett ausgereift, aber für die erste Dx10 Karte schon sehr gut, denkt mal an die letzte Dx9, die 7900er :smile:
Und das Vista nicht wirklich eine Bereicherung ist weiß auch jeder, aber es ist auch keine Hinkebein.
Das große Konzerne Deine Rechte beschneiden, das ist gar nicht erwähnenswert, das passiert in der Politik, in der Familie und im Netz.
Das ist das Gesetz des Stärkeren, mußt Du dich durchwuseln oder bleibst auf der Strecke weil Du dich dann selbst beschränken mußt!

Ich finde auch vieles Sch.... was MS oder nv machen, oder ATI. Die CPU Giganten sind immo noch OK ;)

Jedenfalls nimm was da ist, oder bleibe eine Generation beim alten, doch spätestens in der nächsten Runde wird wieder die Hardware erweitert.
Wetten?

TurricanM3
2007-08-26, 13:03:05
der Thread Titel noch mal zur Erinnerung: Und da isser: Beta 163.44 Vista/XP

Hat jemand mit dem Treiber in Vista + SLI schonmal die Worldin Conflict Demo probiert? Ich kann keine 15 Minuten zocken, da schmiert das Game ab nvlmddnk.dll (oder ähnlich) BS.

Scud
2007-08-26, 17:57:40
Ein kleines Beispiel - ein NV40 ist auch ein DX9 Chip. Wofür kann man den heute noch bei neuen DX9 Games gebrauchen, außer für eine Diashow?


Autsch, da muss ich dir leider jede Kenntnis absprechen.
Ich sitz hier mit meiner Geforce6800GT mit 256MB und spiele die Bioshock-Demo ohne irgendwelche Ruckler mit 1024x768 mit allen Details, außer "HD Post Processing" oder wie das heißt. Treiber ist der 162.22 gewesen und im Treiber war alles auf HQ eingestellt. Betriebssystem ist Vista. Restliches System siehe sig.

Erfahrungsbericht kommt nach dem Neustart.
So, der neue Treiber ist installiert und ich hab mein System neugestartet. Keine Problem oder Bluescreens bis jetzt.
Bei Bioshock hab ich jetzt keinen großen Unterschied gemerkt, außer dass ich jetzt keine Hänger mehr hatte, nach dem Ladebildschirm. Vorher hat da ganz kurz das Bild gestockt. Kann aber auch am Neustart gelegen haben.

Der_Korken
2007-08-26, 19:17:05
Ich sitz hier mit meiner Geforce6800GT mit 256MB und spiele die Bioshock-Demo ohne irgendwelche Ruckler mit 1024x768 mit allen Details, außer "HD Post Processing" oder wie das heißt.

Interessant. Bei meiner LE @16/6 muss ich auf 800x600 low details spielen, um vernünftgie fps zu bekommen. Allerdings mit nem 2600+ ... da scheint die CPU doch ziemlich was auszumachen. Auch mit dem neuen Treiber hat sich nichts geändert.

Gastomat#1
2007-08-26, 19:34:45
Autsch, da muss ich dir leider jede Kenntnis absprechen.
Ich sitz hier mit meiner Geforce6800GT mit 256MB und spiele die Bioshock-Demo ohne irgendwelche Ruckler mit 1024x768 mit allen Details, außer "HD Post Processing" oder wie das heißt. Treiber ist der 162.22 gewesen und im Treiber war alles auf HQ eingestellt. Betriebssystem ist Vista. Restliches System siehe sig.

Erfahrungsbericht kommt nach dem Neustart.
So, der neue Treiber ist installiert und ich hab mein System neugestartet. Keine Problem oder Bluescreens bis jetzt.
Bei Bioshock hab ich jetzt keinen großen Unterschied gemerkt, außer dass ich jetzt keine Hänger mehr hatte, nach dem Ladebildschirm. Vorher hat da ganz kurz das Bild gestockt. Kann aber auch am Neustart gelegen haben.


Kein Wunder bei nem Core 2 Duo @ 2 Ghz ..... ;)

Coda
2007-08-26, 19:34:53
Interessant. Bei meiner LE @16/6 muss ich auf 800x600 low details spielen, um vernünftgie fps zu bekommen. Allerdings mit nem 2600+ ... da scheint die CPU doch ziemlich was auszumachen. Auch mit dem neuen Treiber hat sich nichts geändert.
Hat die LE nicht auch deutlich weniger Bandbreite?

Kein Wunder bei nem Core 2 Duo @ 2 Ghz ..... ;)
Bioshock ist hochgradig GPU limitiert.

Gastomat#1
2007-08-26, 19:36:58
Hat die LE nicht auch deutlich weniger Bandbreite?


Bioshock ist hochgradig GPU limitiert.

Ja und die hat ja auch nur 128MB oder? Das wurde ja alles erklären ;)

dargo
2007-08-26, 19:52:55
Autsch, da muss ich dir leider jede Kenntnis absprechen.
Ich sitz hier mit meiner Geforce6800GT mit 256MB und spiele die Bioshock-Demo ohne irgendwelche Ruckler mit 1024x768 mit allen Details, außer "HD Post Processing" oder wie das heißt. Treiber ist der 162.22 gewesen und im Treiber war alles auf HQ eingestellt. Betriebssystem ist Vista. Restliches System siehe sig.

Naja, spielen und flüssig spielen sind zwei paar Schuhe. Erzähle mal was zu den Frames.

PS: spiele mal DIRT mit der G6800GT. ;)

Gast
2007-08-26, 22:44:08
Ach vergiß es so langsam wirds echt lächerlich....ich verkauf meinen ganzen Kram und steck ne 4200ti rein damit spiel ich auch flüssig mit allen details...

*>4711*

nacht zusammen!

Scud
2007-08-26, 22:58:18
@gast: jaja lustig.

kann gut an dem Core 2 Duo liegen ^^
Deshalb hab ich ihn ja, damit ich mit meinem Sys noch spielen kann.
Auch die 256MB Graka-Speicher sollten sich noch positiv auswirken.

Ich hab grade die Demo mit Fraps durchgespielt, man das Spiel fesselt.
Ja die fps gehen öfters unter 30, trotzdem ruckelt es nicht. Tolle Engine! Die Frames sind im Normalfall zwischen 30 und 50. Für manche mag das jetzt nicht mehr spielbar sein, aber das muss jeder selbst wissen. Ich habe jetzt mein Geld in die CPU+MB+Netzteil gesteckt, die Grafikkarte sollte noch eine Weile halten.

Fetza
2007-08-27, 04:02:35
Hat die LE nicht auch deutlich weniger Bandbreite?


Bioshock ist hochgradig GPU limitiert.

Also bioshock nimmt sich von meinem core duo 2@2,8 ghz von dem ersten kern 90% rechenleistung und 75% von dem zweiten kern, von daher würde ich jetzt nicht sagen es sei hochgradig gpu limtiert, du brauchst schon beides um vernünftig spielen zu können.

Scud
2007-08-27, 09:34:38
Also bioshock nimmt sich von meinem core duo 2@2,8 ghz von dem ersten kern 90% rechenleistung und 75% von dem zweiten kern, von daher würde ich jetzt nicht sagen es sei hochgradig gpu limtiert, du brauchst schon beides um vernünftig spielen zu können.

das ist seltsam, bei mir nimmt er vom zweiten Core 95% und der erste gammelt immer bei 20-25% rum.

Der_Korken
2007-08-27, 13:50:13
Meine Karte hat definitiv 256bit SI, aber nur 128MB. Leider will Rivatuner den VRAM-Verbrauch bei der Karte nicht gescheit auslesen, denn selbst bei höchstens Details sinds nur 84MB ... das kann ja wohl nicht sein.
Ich schiebs mal unverschämt der CPU in die Schuhe:D

PCGH_Raffael
2007-08-27, 14:25:10
Ohne alles gelesen zu haben: Kann hier jemand einen gewaltigen Leistungssprung bei Stalker bestätigen? 162.xx vs. 163.44.

MfG,
Raff

Blaire
2007-08-27, 15:46:43
Ohne alles gelesen zu haben: Kann hier jemand einen gewaltigen Leistungssprung bei Stalker bestätigen? 162.xx vs. 163.44.


Vista oder XP? Unter XP ist der 163.44 bei mir langsamer als alle Vorgänger 163.xx

PCGH_Raffael
2007-08-27, 16:04:59
Egal mit welchem Betriebssystem. Unter XP legt der 163.44 im Vergleich mit dem 162.18 aber mal eben um ~50 Prozent zu. Unter Vista x64 beläuft sich der Gewinn auf 25 Prozent – bei gleicher Optik.

Wir nutzen wohlwissentlich eine 8800 GTS/320. Unsere Vermutung bezieht sich daher natürlich auf die Speicherverwaltung. Tests mit einer GTS/640 oder GTX/Ultra werden für Aufklärung sorgen.

Eine GeForce 7900 GT/256 lässt der Treiber übrigens kalt.

MfG,
Raff

AnarchX
2007-08-27, 16:11:29
Bei Stalker scheint die 320er definitiv Probleme gehabt zu haben, die wohl nun gelöst sind:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/21/#abschnitt_stalker

Blaire
2007-08-27, 16:21:25
In anderen Foren ist der Treiber auch langsamer bei GTX Usern.

FEAR:
http://www.nvnews.net/vbulletin/showpost.php?p=1355582&postcount=114

CS:Source:
http://www.nvnews.net/vbulletin/showpost.php?p=1355716&postcount=115

PCGH_Raffael
2007-08-27, 16:26:32
Ich meine jetzt explizit Stalker. In Oblivion legt das Teil bei uns auch nicht zu.

MfG,
Raff

Blaire
2007-08-27, 16:28:24
Ich meine jetzt explizit Stalker. In Oblivion legt das Teil bei uns auch nicht zu.

MfG,
Raff

Schon klar. Das schau ich mir nachher mal näher an, anhand meiner Savegames.

AnarchX
2007-08-27, 16:30:49
Ich meine jetzt explizit Stalker. In Oblivion legt das Teil bei uns auch nicht zu.


Testet doch mal Dirt, hier könnte ich mir auch Zuwächse vorstellen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/12/#abschnitt_colin_mcrae_dirt
;)

PCGH_Raffael
2007-08-27, 16:58:35
Testet doch mal Dirt, hier könnte ich mir auch Zuwächse vorstellen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/12/#abschnitt_colin_mcrae_dirt
;)

Wir haben einen aktuell auf zwei Spiele festgelegten Parcours, den wir regelmäßig um neue Treiber erweitern. Es ist denkbar, dass die Spielezahl irgendwann auch wächst: http://www.pcgameshardware.de/?article_id=609106

Ein Update folgt spätestens morgen früh.

Soeben lief die 8800 Ultra durch. Und siehe da, sie ist kein bisschen schneller! Jetzt folgt noch eine 8800 GTS/640 und die Schlussfolgerung bezüglich des VRAMs scheint klar.

MfG,
Raff

Blaire
2007-08-27, 17:03:38
OK haben eben die 158.27 und 163.44 speziell in STALKER verglichen anhand 2 verschiedener Savegames die FPS abgelesen:

SLi 8800GTX WindowsXP SP2
1680x1050 16xAF HQ Maximum Details:

Save1:
158.27: 63 fps
163.44: 68 fps

Save2:
158.27: 55 fps
163.44: 55 fps

Während Savegame 1 schon ne ganze Ecke mehr FPS zeigte, ist bei Save 2 praktisch Gleichstand.

MechWOLLIer
2007-08-27, 19:36:57
Ohne alles gelesen zu haben: Kann hier jemand einen gewaltigen Leistungssprung bei Stalker bestätigen? 162.xx vs. 163.44.
MfG,
Raff
Also mit einer 8800 GTS 640 ist der 163.44 in Stalker keinen Deut schneller als der 162.22. Falls ud interesse hast, kann ich das mal schnell mit einer 8800 GTS 320 gegenchecken. Ergebnisse werde ich dir aber wohl erst mortgen früh (oder heute spät Abends) geben können.

PCGH_Raffael
2007-08-27, 20:29:17
Also mit einer 8800 GTS 640 ist der 163.44 in Stalker keinen Deut schneller als der 162.22. Falls ud interesse hast, kann ich das mal schnell mit einer 8800 GTS 320 gegenchecken. Ergebnisse werde ich dir aber wohl erst mortgen früh (oder heute spät Abends) geben können.

Gerne. :) Bei uns sind die Ergebnisse aber mittlerweile eindeutig und gehen morgen Früh als Update des Treiberartikels online.

MfG,
Raff

MechWOLLIer@IE
2007-08-27, 23:12:37
Meine Messungen sind jetzt zu Ende und es sieht wohl wirklich so aus, als hätte Nvidia den VRAM-Bug behoben - zumindest läuft Stalker in 1600x1200 nun deutlich schneller.

ForceWare 162.22: 13,7 FPS
ForceWare 163.44: 19,9 FPS

Die GeForce 8800 GTS 640 erreicht im Vergleich dazu 26,5 FPS.

dargo
2007-08-27, 23:55:02
Meine Messungen sind jetzt zu Ende und es sieht wohl wirklich so aus, als hätte Nvidia den VRAM-Bug behoben - zumindest läuft Stalker in 1600x1200 nun deutlich schneller.

ForceWare 162.22: 13,7 FPS
ForceWare 163.44: 19,9 FPS

Die GeForce 8800 GTS 640 erreicht im Vergleich dazu 26,5 FPS.
Was ist das für eine Stelle wo die GTS 640 so abkackt?

PCGH_Raffael
2007-08-28, 09:43:27
Was ist das für eine Stelle wo die GTS 640 so abkackt?

Die GTS/640 "kackt" eigentlich nirgends ab, die GTS/320 aber. Und das war bis zu diesem Treiber bei uns schon in 1.280x1.024 mit 8:1 AF die Regel. Die GTS/640 ist da schon ~20 Prozent schneller.

MfG,
Raff

dargo
2007-08-28, 09:49:07
Die GTS/640 "kackt" eigentlich nirgends ab, die GTS/320 aber. Und das war bis zu diesem Treiber bei uns schon in 1.280x1.024 mit 8:1 AF die Regel. Die GTS/640 ist da schon ~20 Prozent schneller.

MfG,
Raff
Die ~26fps ist für mich abkacken. Ich habe so tiefe Frames in Stalker noch nicht gesehen. Naja, man muss aber auch bedenken, dass 1600x1200 fast 50% mehr Pixel bedeutet (ich spiele in 1280x1024) und außerdem meine GTS mit OC noch knapp 20% mehr leistet. Von daher, könnte es dann doch hinkommen.

PCGH_Raffael
2007-08-28, 10:03:26
Worst Cases eben. :)
Unser Update ist jetzt online: http://www.pcgameshardware.de/?article_id=611219

MfG,
Raff

Arschhulio
2007-08-28, 10:49:40
Für den Fall das noch keiner verlinkt hat, da steht was über den Ram Bug der wohl mit diesem Treiber gefixt sein soll. http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Gast
2007-08-28, 11:36:15
seit ihr euch sicher das die bessere perforamance am grafiktreiber liegt und nich am neuen Stalker patch?

MechWOLLIer
2007-08-28, 12:11:02
Es werden ja auch andere Spieler als nur Stalker schneller. Zudem haben wir Stalker nicht gepatcht vor oder nach dem Treibertest.


Was ist das für eine Stelle wo die GTS 640 so abkackt?
Dies ist ziemlich am Anfang ein Savegame, kurz vor dem eigenen Lager. Mit viel Gras etc. Das Savegame gibts auch hier im Forum. Ist wirklich ein ziemliches Worst-Case-Szenario.

PCGH_Raffael
2007-08-28, 12:22:24
Da sich PCGH und CB zudem einig sind, dass sich mit dem neuen Treiber etwas tat, wird das schon seine Richtigkeit haben. :)

MfG,
Raff

Gast
2007-08-28, 12:58:23
denn pcgh und cb benchs glaub ich nicht mehr :)

MechWOLLIer
2007-08-28, 13:12:39
Nvidia ist sich da auch mit uns einig. Genaues weiß ich da aber noch nicht, die USA schläft noch.

Gast
2007-08-28, 13:30:30
Für den Fall das noch keiner verlinkt hat, da steht was über den Ram Bug der wohl mit diesem Treiber gefixt sein soll. http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

juchuu!!! +48% 8800gts 320 RULEZ!^^

Nein, mal ernsthaft:
Ich hab mir zur Feier der Bioshock-Demo natürlich auch direkt die neue Forceware 163.44 geholt und gleich durchgetestet. Trotz anscheinender Verbesserung beim Speichermanagement und tatsächlich gesteigerter Performance habe ich z.T. immernoch den Speicherbug (Performance geht auf einmal dauerhaft in die Knie, lässt sich durch kurzes minimieren wieder beheben) und das besonders bei DIRT und der neuen World in Conflict Demo (auch wenn die noch nicht wirklich optimiert ist).
Also Nvidia: Plz schnell neue, gute Treiberupdates!

Sys.: E6600,2GB,8800gts 320,P5N-E SLI

naja

MechWOLLIer@IE
2007-08-29, 09:22:39
Newsupdate: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

VRAM-Bug doch noch nicht behoben.

333fps
2007-08-29, 09:56:04
+12,4 FPS im Unigine 0.4 Benchmark (im Vergleich zu 163.11)

http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=363634

+100 Murks06 (Das erste Mal über 117xx)

- 10.000(!) in Aquamark3 (vorher hatte ich 72.500, jetzt um die 62.000)
+ 2-3 fps zugelegt in OpenGL und ET, aber immer noch 7-8 fps langsamer als der 84.24 (ja ich weiss, der ist uralt..);)

Blackland
2007-08-29, 16:22:38
Erklärung für bessere Performance bei Stalker:

"....Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein...."

Quelle:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Angiesan
2007-08-29, 20:05:49
Erklärung für bessere Performance bei Stalker:

Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein...."

Quelle:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Dann müßten doch eigentlich alle G8800 Karten ob GTS oder GTX einen Performanceschub erfahren haben oder ?
Haben sie aber doch nicht wenn nicht alle falsch getestet haben:confused:

Oder lieg ich da jetzt voll daneben

Grüße

Razor
2007-08-30, 07:25:35
Eine GeForce 7900 GT/256 lässt der Treiber übrigens kalt.
Kann ich bestätigen... ganz im Gegenteil bringt dieser Treiber sogar massive Probleme mit sich!

Wen es interessiert:
Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-965P-DS3P Rev. 3.3 (Intel i965) Bios F5
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 585/885 with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c

"Q" means 4xMSAA if possible and 8xAF
('Quality' with TriOpt On, AnisoOpts Off, GCA/TAA Off, Clamp)

----------------------------------------------------------------------------------------
3DMark2006 (110) 160.03 162.18 Diff 162.50 Diff 163.44 Diff
OEM beta WHQL beta
----------------------------------------------------------------------------------------
3DMarks 7.265 7.249 - 0,22% 7.242 - 0,32% 7.254 - 0,15%

-SM2 Score 2.809 2.807 - 0,07% 2.802 - 0,25% 2.808 - 0,04%
-SM3 Score (HDR) 3.018 3.004 - 0,46% 3.005 - 0,43% 3.010 - 0,27%
-CPU Score 2.863 2.866 0,10% 2.858 - 0,17% 2.862 - 0,03%
-Game Score 0 0 - 0 - 0 -

Game1 (SM2) 22,93 22,92 - 0,04% 22,89 - 0,19% 22,93 - 0,01%
Game2 (SM2) 23,89 23,86 - 0,09% 23,82 - 0,29% 23,87 - 0,07%
CPU1 (Game) 0,90 0,91 0,17% 0,90 - 0,10% 0,90 - 0,02%
CPU2 (Game) 1,45 1,45 0,09% 1,45 - 0,20% 1,45 - 0,05%
Game3 (HDR) 26,57 26,41 - 0,60% 26,38 - 0,69% 26,51 - 0,21%
Game4 (HDR) 33,80 33,68 - 0,37% 33,72 - 0,23% 33,69 - 0,32%

Fillrate(Single) 6810,48 6808,64 - 0,03% 6806,13 - 0,06% 6806,81 - 0,05%
Fillrate(Multi) 13698,00 13653,40 - 0,33% 13652,71 - 0,33% 13652,71 - 0,33%
Pixel Shader 398,96 397,06 - 0,48% 397,06 - 0,48% 396,92 - 0,51%
Vertex-S. simple 204,93 204,90 - 0,02% 204,82 - 0,06% 206,11 0,57%
Vertex-S. complex 60,88 60,90 0,02% 60,90 0,02% 60,93 0,07%
Shader Particles 20,68 20,57 - 0,55% 20,55 - 0,62% 20,57 - 0,56%
Perlin Niose 95,91 92,89 - 3,15% 92,89 - 3,15% 92,89 - 3,15%

Triangles - 8 3,47 3,47 0,03% 3,47 0,02% 3,47 0,04%
Triangles - 32 11,24 11,24 - 0,05% 11,22 - 0,19% 11,22 - 0,22%
Triangles - 128 36,40 36,36 - 0,09% 36,33 - 0,19% 36,32 - 0,21%
Triangles - 512 87,38 87,28 - 0,11% 87,32 - 0,07% 87,26 - 0,14%
Triangles - 2048 126,95 126,80 - 0,12% 126,75 - 0,16% 126,77 - 0,14%
Triangles - 32768 147,97 147,85 - 0,07% 147,85 - 0,07% 147,87 - 0,06%

----------------------------------------------------------------------------------------
3DMark2005 (110) 160.03 162.18 Diff 162.50 Diff 163.44 Diff
OEM beta WHQL beta
----------------------------------------------------------------------------------------
3DMarks 10.763 10.775 0,11% 10.784 0,20% 10.774 0,10%

-Game1 48,10 48,24 0,31% 48,49 0,82% 48,34 0,52%
-Game2 32,32 32,33 0,05% 32,27 - 0,15% 32,29 - 0,09%
-Game3 51,34 51,32 - 0,03% 51,30 - 0,09% 51,28 - 0,12%

CPUMarks 11.645 11.518 - 1,09% 11.628 - 0,15% 11.768 1,06%

-CPU1 5,96 5,83 - 2,25% 5,95 - 0,17% 6,09 2,12%
-CPU2 10,11 10,12 0,08% 10,10 - 0,13% 10,11 0,00%

Fillrate(Single) 6887,86 6896,54 0,13% 6895,85 0,12% 6899,29 0,17%
Fillrate(Multi) 13671,94 13628,03 - 0,32% 13640,39 - 0,23% 13609,26 - 0,46%
Pixel Shader 395,08 394,30 - 0,20% 394,20 - 0,22% 394,34 - 0,19%
Vertex-S. simple 80,66 80,70 0,05% 80,66 0,00% 80,70 0,05%
Vertex-S. complex 60,95 60,92 - 0,05% 60,93 - 0,04% 60,93 - 0,04%

Triangles - 8 3,33 3,33 - 0,16% 3,33 - 0,13% 3,32 - 0,28%
Triangles - 32 11,19 11,13 - 0,53% 11,09 - 0,90% 11,11 - 0,72%
Triangles - 128 36,38 36,23 - 0,41% 36,20 - 0,49% 36,20 - 0,50%
Triangles - 512 88,48 88,47 - 0,01% 88,45 - 0,03% 88,35 - 0,14%
Triangles - 2048 128,68 128,34 - 0,27% 128,30 - 0,29% 128,33 - 0,28%
Triangles - 32768 150,17 149,68 - 0,33% 149,78 - 0,26% 149,84 - 0,22%

----------------------------------------------------------------------------------------
3DMark2003 (360) 160.03 162.18 Diff 162.50 Diff 163.44 Diff
OEM beta WHQL beta
----------------------------------------------------------------------------------------
3DMarks 24.487 22.066 - 9,89% 24.395 - 0,38% 19.065 - 22,14%

-Game1 730,68 727,58 - 0,43% 726,12 - 0,62% 727,25 - 0,47%
-Game2 177,84 177,09 - 0,42% 177,16 - 0,38% 178,01 0,10%
-Game3 152,88 101,57 - 33,56% 152,32 - 0,37% 86,50 - 43,42%
-Game4 138,87 140,04 0,85% 138,70 - 0,12% 80,04 - 42,36%

CPUMarks 2.091 2.103 0,57% 2.093 0,10% 2.079 - 0,57%

-CPU1 233,80 234,25 0,19% 233,29 - 0,22% 231,11 - 1,15%
-CPU2 36,96 37,34 1,02% 37,10 0,38% 36,95 - 0,04%

Fillrate(Single) 5871,94 5895,92 0,41% 5882,00 0,17% 3586,29 - 38,92%
Fillrate(Multi) 13608,32 13507,66 - 0,74% 13509,99 - 0,72% 12785,44 - 6,05%
Vertex Shader 65,64 65,66 0,03% 65,45 - 0,29% 41,76 - 36,37%
Pixel Shader 2.0 249,96 248,68 - 0,51% 248,31 - 0,66% 171,53 - 31,38%
Ragtroll 93,57 92,50 - 1,15% 92,23 - 1,44% 50,62 - 45,90%

no sounds 130,49 131,03 0,41% 127,85 - 2,02% 130,88 0,30%
24 sounds 119,89 121,16 1,06% 113,11 - 5,65% 120,13 0,20%
60 sounds 108,72 114,73 5,53% 109,37 0,60% 106,13 - 2,38%
-diff 24 s. - 8,12% - 7,53% - 11,53% - 8,21%
-diff 60 s. - 16,69% - 12,44% - 14,46% - 18,91%

----------------------------------------------------------------------------------------
Aquamark 3 160.03 162.18 Diff 162.50 Diff 163.44 Diff
OEM beta WHQL beta
----------------------------------------------------------------------------------------
Aquamarks 142.139 142.641 0,35% 141.199 - 0,66% 138.997 - 2,21%

-GFX Score 24.071 24.191 0,50% 24.158 0,36% 23.144 - 3,85%
-CPU Score 17.355 17.379 0,14% 16.987 - 2,12% 17.397 0,24%

Avg. FPS 142,14 142,64 141,20 139,00
Avg. TriCnt (mio) 42,79 42,94 42,51 41,84

Details
-Chapter 1 197,98 198,60 0,31% 195,60 - 1,20% 199,17 0,60%
-Chapter 2 110,77 110,89 0,10% 110,66 - 0,10% 108,63 - 1,93%
-Chapter 3 160,85 161,45 0,37% 159,08 - 1,10% 159,63 - 0,76%
-Chapter 4 78,23 78,25 0,03% 78,09 - 0,17% 72,41 - 7,43%
-Chapter 5 157,13 158,20 0,69% 156,52 - 0,39% 156,44 - 0,44%
-Chapter 6 175,61 176,65 0,59% 174,01 - 0,91% 177,49 1,07%
-Chapter 7 181,15 181,64 0,27% 178,85 - 1,27% 182,93 0,98%
-Chapter 8 154,30 155,22 0,60% 152,92 - 0,90% 151,45 - 1,85%
-Chapter 9 115,49 115,91 0,36% 114,96 - 0,45% 109,65 - 5,06%

----------------------------------------------------------------------------------------
Shadermark 2.1 160.03 162.18 Diff 162.50 Diff 163.44 Diff
OEM beta WHQL beta
----------------------------------------------------------------------------------------
-Shader 1 - - - - - - -
-Shader 2 1.876 1.687 - 10,07% 1.687 - 10,07% 584 - 68,87%
-Shader 3 1.501 1.506 0,33% 1.506 0,33% 1.073 - 28,51%
-Shader 4 1.500 1.505 0,33% 1.506 0,40% 442 - 70,53%
-Shader 5 1.260 1.325 5,16% 1.325 5,16% 969 - 23,10%
-Shader 6 1.500 1.506 0,40% 1.505 0,33% 457 - 69,53%
-Shader 7 1.425 1.325 - 7,02% 1.325 - 7,02% 1.038 - 27,16%
-Shader 8 938 904 - 3,62% 904 - 3,62% 270 - 71,22%
-Shader 9 1.874 1.686 - 10,03% 1.685 - 10,09% 1.316 - 29,78%
-Shader 10 1.651 1.686 2,12% 1.686 2,12% 510 - 69,11%
-Shader 11 1.459 1.445 - 0,96% 1.401 - 3,98% 1.036 - 28,99%
-Shader 12 906 904 - 0,22% 904 - 0,22% 256 - 71,74%
-Shader 13 928 904 - 2,59% 903 - 2,69% 670 - 27,80%
-Shader 14 975 993 1,85% 994 1,95% 325 - 66,67%
-Shader 15 713 708 - 0,70% 708 - 0,70% 550 - 22,86%
-Shader 16 750 753 0,40% 753 0,40% 256 - 65,87%
-Shader 17 996 994 - 0,20% 993 - 0,30% 723 - 27,41%
-Shader 18 113 113 0,00% 113 0,00% 28 - 75,22%
-Shader 19 398 399 0,25% 399 0,25% 263 - 33,92%
-Shader 20 138 138 0,00% 138 0,00% 44 - 68,12%
-Shader 21 208 208 0,00% 208 0,00% 157 - 24,52%
-Shader 22 325 326 0,31% 325 0,00% 108 - 66,77%
-Shader 23 356 361 1,40% 357 0,28% 283 - 20,51%
-Shader 24 240 241 0,42% 240 0,00% 79 - 67,08%
-Shader 25 225 232 3,11% 231 2,67% 180 - 20,00%
-Shader 26 223 223 0,00% 221 - 0,90% 71 - 68,16%

----------------------------------------------------------------------------------------
160.03 162.18 Diff 162.50 Diff 163.44 Diff
OEM beta WHQL beta
----------------------------------------------------------------------------------------

Codecreatures 155,3 155,3 0,00% 155,2 - 0,06% <> -
-max 235 235 0,00% 232 - 1,28% <> -

ImgTech
-VillageMarkD3D 756 748 - 1,06% 746 - 1,32% <> -
-VillageMarkOGL 780 785 0,64% 780 0,00% <> -

----------------------------------------------------------------------------------------

TR6:AoD (paris3)
- 1280x1024 233,9 233,7 - 0,10% 233,4 - 0,22% <> -
- 1280x1024 Q 145,9 146,4 0,36% 146,5 0,42% <> -

Doom3 (demo1)
- 1280x1024 172,5 173,3 0,46% 170,0 - 1,45% <> -
- 1280x1024 Q 98,3 99,2 0,92% 97,0 - 1,32% <> -

FarCry 1.3 (trai.)
- 1280x1024 152,8 158,1 3,50% 154,0 0,79% <> -
- 1280x1024 Q 120,0 121,4 1,17% 120,5 0,44% <> -
- 1280x1024 HDR 83,7 84,2 0,57% 83,5 - 0,27% <> -
- 1280x1024 HDR Q 78,7 78,6 - 0,17% 78,3 - 0,60% <> -

HL2:LC VST
- 1280x1024 HDR 136,1 136,7 0,38% 132,1 - 2,98% <> -
- 1280x1024 HDR Q 117,4 118,1 0,63% 115,5 - 1,61% <> -

F.E.A.R. (ingame)
- 1280x1024 100 101 1,00% 102 2,00% <> -
- 1280x1024 min 59 59 0,00% 60 1,69% <> -
- 1280x1024 max 220 222 0,91% 219 - 0,45% <> -
- 1280x1024 Q 63 63 0,00% 63 0,00% <> -
- 1280x1024 min Q 35 33 - 5,71% 34 - 2,86% <> -
- 1280x1024 max Q 136 137 0,74% 136 0,00% <> -

Sam II (greendale)
- 1280x1024 100,8 101,1 0,30% 101,3 0,50% <> -
- 1280x1024 min 24 32 33,33% 28 16,67% <> -
- 1280x1024 max 309 307 - 0,65% 304 - 1,62% <> -
- 1280x1024 Q 82,0 82,5 0,61% 82,1 0,12% <> -
- 1280x1024 min Q 38 39 2,63% 34 - 10,53% <> -
- 1280x1024 max Q 305 306 0,33% 302 - 0,98% <> -

CoD II (dargo)
- 1280x1024 54,0 54,4 0,74% 54,5 0,93% <> -
- 1280x1024 Q 43,9 42,7 - 2,73% 44,1 0,46% <> -

Quake IV (guru5)
- 1280x1024 207,9 209,5 0,77% 203,4 - 2,16% <> -
- 1280x1024 Q 129,5 130,6 0,85% 124,3 - 4,02% <> -

Prey (guru3D)
- 1280x1024 129,0 130,3 1,01% 129,7 0,54% <> -
- 1280x1024 Q 86,8 87,3 0,58% 84,7 - 2,42% <> -

Lost Planet DX9
- 1280x960 Q Snow 29 27 - 6,90% 27 - 6,90% <> -
- 1280x960 Q Cave 48 42 - 12,50% 41 - 14,58% <> -
- 1280x960 QHDR Sn 26 26 0,00% 26 0,00% <> -
- 1280x960 QHDR Ca 42 42 0,00% 42 0,00% <> -

STALKER (wesker)
- 1280x1024 Q <> 27,3 - 27,4 - <> -
- 1280x1024 Q min <> 9 - 2 - <> -
- 1280x1024 Q max <> 108 - 102 - <> -

----------------------------------------------------------------------------------------
Nach dem Shadermark habe ich dann aufgegeben...

Auch wirklich reproduzierbar ist das Verhalten des Treibers nicht... in seltenen Fällen ist der Murks03 mal durchgelaufen, ohne Slowdowns zu zeigen, manchmal war ein Arbeiten danach nicht mehr wirklich möglich und ein Neustart war fällig... der Shadermark spricht auch deutliche Worte, wenn auch ich nicht wirklich viel Zeit darauf verwendet habe, jetzt nun mal genau zu schaun', wann dieses merkwürdige Verhalten des Treibers zutage tritt.

Dieser Treiber ist hochgradig alpha... IMO hätte man diesen ausschließlich für die G8x 'freigeben' dürfen...
...denn für diese ist er offenbar gemacht.

Und ach ja... "Änderung der Kompression im VideoSpeicher?"

Da würde ich doch mal dringlichst empfehlen, mir ganz genau (!) die Bildqualität anzuschauen...
...wäre nicht das erste mal, dass hier Performance gegen Qualität 'getauscht' wird.

Oder lieg ich da jetzt voll daneben
Ja.

In den wenigsten Fällen werden heute überhaupt 512MB VRAM benötigt... und die 640/768MB sind einfach 'genug' Speicher, den man zumüllen kann, bevor dieses Problem zutage tritt. Bei den GTS320 ist diese Problematik offenbar sehr einfach zu reproduzieren und dort dann eben auch besonders auffällig, da auf Basis dieser Problematik die GTS mit 320MB offenbar real weniger Speicher hat, als eine 7900GT mit 256MB... aber das würde hier zu weit führen.

Aber ist doch schön, dass man es bei den G80 noch nicht aufgegeben hat, einen der vielen Bugs via Software beheben zu wollen.
Ob das allerdings in einem Jahr auch noch so sein wird?
Hmmm...
;)

Razor

P.S.: back to 162.50 WHQL mit Stereo-Panel... für meine 'Kleine'... mjam! :up:

Raff
2007-08-30, 08:35:48
Und ach ja... "Änderung der Kompression im VideoSpeicher?"

Da würde ich doch mal dringlichst empfehlen, mir ganz genau (!) die Bildqualität anzuschauen...
...wäre nicht das erste mal, dass hier Performance gegen Qualität 'getauscht' wird.

http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=611445&entity_id=-1&image_id=689027&page=2

Das nächste Bild unterscheidet sich nicht von diesem.

MfG,
Raff

Winter[Raven]
2007-08-30, 11:53:38
http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=611445&entity_id=-1&image_id=689027&page=2

Das nächste Bild unterscheidet sich nicht von diesem.

MfG,
Raff

Kann ich eigentlich auch bestätigen... mit meiner G8600 GT keine Qualitätsänderungen.

r@w.
2007-08-30, 12:47:02
Wäre ja gut, oder?

So auf den ersten Blick konnte ich auf den Screens auch keine (texturellen) Unterschiede sehen...
...sehen eigentlich so aus, als ob sie kurz hintereinander aufgenommen worden wären!
:D

Razor

Blaire
2007-08-30, 19:33:01
Der Treiber zeigt sich auch unter Vista mit SLI stark verbessert. Viele Games laufen endlich auch mit SLI auf XP Niveau was sehr erfreulich ist. :)

Stefan 008
2007-08-30, 20:24:12
Kann man bei diesem Treiber das alte Control Panel irgendwie aktivieren ?

Scoty
2007-08-30, 20:26:10
habe ein Problem, der Treiber soll ja auch Bioshock Optimiert sein nur bei mir starte das Spiel nicht im dx10 Modus, im dx9 Modus hingegen schon. habe Vista 32 Bit.

Super Grobi
2007-08-30, 20:28:15
habe ein Problem, der Treiber soll ja auch Bioshock Optimiert sein nur bei mir starte das Spiel nicht im dx10 Modus, im dx9 Modus hingegen schon. habe Vista 32 Bit.

Versteh ich nicht, den man kann ja erst IM SPIEL umstellen.

Kann man bei diesem Treiber das alte Control Panel irgendwie aktivieren ?


Selbst wenn... verabschiede dich vom alten und sag Hallo zum neuen. Je früher, desto besser. Das Alte ist eh bald für IMMWER weg und das neue ist nicht so übel, wenn man sich dran gewöhnt hat.

Topic: Ich bekomm morgen (evt. übermorgen) eine deftig übertaktete 8800gts 640 (pretestet). Nun weiss ich aber nicht, wie ich bei Vista mit sowas umgehen sollte. Bei XP war ja klar: Treiber runter, neue Karte rein, Treiber neu drauf. Soll/muss man bei Vista x64 auch so vorgehen, oder kann ich einfach die 7950gx2 ausbauen und die neue rein?

SG

Grestorn
2007-08-30, 20:30:07
Versteh ich nicht, den man kann ja erst IM SPIEL umstellen.

Oder per Startoption (-dx9)

Scoty
2007-08-30, 21:09:33
Versteh ich nicht, den man kann ja erst IM SPIEL umstellen.

SG

im Spiel kann man aber umstellen. habe jetzt noch was heraus gefunden. im Fenster Modus startet das Game mit dx10 ohne Probleme nur in full screen Modus nicht. nur Fenster Modus stört schon da man dann immer die Task Leiste sieht.

Angiesan
2007-08-31, 01:15:03
Bei einer DX10 Karte startet das Spiel immer im DX10 Modus, ob da DX9 oder
DX10 angeschlagen ist egal, natürlich nur unter Vista:D

Nur wenn Du im Startmenue " -dx9rmode" eingibst starte es auch wirklich
in DX 9 (Danke noch mal an DerGute für die Info) ob es auch reicht wie Grestorn
schreibt -DX9 kann ich Dir nicht sagen einfach mal probieren.

Was bei mir aber nach einer kurzen Spielzeit mit einem totalen Hänger quitiert wird und ich neu Starten darf:mad:

Als Treiber habe ich den 163.44.verwendet jetzt spiele ich wieder ohne Probleme mit dem 162.50


Grüße