PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 97.92 WHQL x32 Forceware für 8800 Reihe


Seiten : [1] 2

andre29
2007-01-05, 10:46:53
Neuer Forceware 97.92 Treiber für die 8800 Reihe.
Is im Beta Status.
Soll aber Verbesserungen haben besonders im Splinter Cell DA. :tongue:

Link:
http://downloads.guru3d.com/download.php?det=1547

Link wo drüber gefachsimpelt wird :biggrin:
http://www.nvnews.net/vbulletin/showthread.php?t=83652

Wer testet?

cRaZy78
2007-01-05, 11:50:31
hmmm... hab immer noch die gleichen Grafikfehler in SCDA.Mehr hab ich noch nicht getestet.

ShadowXX
2007-01-05, 12:08:36
hmmm... hab immer noch die gleichen Grafikfehler in SCDA.Mehr hab ich noch nicht getestet.
Also bei mir sind die Grafikfehler in SCDA weg (Vollversion, kein AA).

Nebenbei....im Treiber ist ein Profil für Gears of War:

<PROFILE Label="Gears of War">
<APPLICATION Label="WarGame.exe" />
<PROPERTY Label="multichip_rendering_mode" Value="2400001" Itemtype="predefined" />
</PROFILE>

Deathcrush
2007-01-05, 13:02:05
Sind denn mittlerweile alle Shaderdetails bei SCDA vorhanden oder fehlen die auf dem Eis z.B immer noch? Aber die perfomance ist ein bisl besser geworden, kann das wer bestätigen? Getestet hab ich R6 Vegas und BF2142.

Gast
2007-01-05, 13:16:21
Die Demo geht auch

Gast
2007-01-05, 13:40:09
hat mal einer mit dem Riva überprüft ob der Treiber richtig taktet?

misterh
2007-01-05, 13:43:54
ganz sicher für 8800er?

meine erkennt diese von Guru3d Treiber nicht. o.O

Deathcrush
2007-01-05, 13:44:00
Laut NV Forum taktet er immer noch nicht richtig :(

@misterh

Geht einwandfrei mit dem treiber

r@w.
2007-01-05, 14:04:52
Laut NV Forum taktet er immer noch nicht richtig :(

Das wird vermutlich eher am RivaTuner liegen, denn an dem Treiber...
Jetzt gab und gibt es also mit 97.28, 97.44 und 97.92 ausschließlich Treiber, die 'falsch' liegen.
:rolleyes:

Razor

Gast
2007-01-05, 14:07:15
jo taktet immer noch falsch...jetzt reicht es,werde versuchen mein Geld wieder zubekommen,wenn nicht,geht es vor Gericht und mein Geschrei wird man auf der ganzen Welt hören!

Gamma AA ist immer noch kaputt>geht nur über den Riva Einzustellen.

ShadowXX
2007-01-05, 14:08:37
Laut NV Forum taktet er immer noch nicht richtig :(

Oder der Rivatuner liesst doch nur mist aus......ich kann mir wirklich nicht vorstellen das nV 3 Treiber lang vergisst die Reg-Werte zu setzen bzw. die Initialisierung der MemClocks falsch zu macht/vergisst.

Ausser Sie machen es mit Absicht, um die Performance des G80 bis zum r600-Launch künstlich zu bremsen um dann mit einem "Wunder"-Treiber zu kommen, der "plötzlich" 10-15% mehr speed bringt.

Gast
2007-01-05, 14:09:18
Laut NV Forum taktet er immer noch nicht richtig :(

@misterh

Geht einwandfrei mit dem treiber


woher willst du das wissen...??
der Treiber wird nicht erkannt und deswegen mußt man das auch bestädigen..wer weis was der jetzt treibt das Treiberlein...

Gast
2007-01-05, 14:10:35
Oder der Rivatuner liesst doch nur mist aus......ich kann mir wirklich nicht vorstellen das nV 3 Treiber lang vergisst die Reg-Werte zu setzen bzw. die Initialisierung der MemClocks falsch zu machen.

Ausser Sie machen es mit Absicht, um die Performance des G80 bis zum r600-Launch künstlich zu bremsen um dann mit einem "Wunder"-Treiber zu kommen, der "plötzlich" 10-15% mehr speed bringt.

Gib der Karte mehr wie 512mb Ram zum verarbeiten,anschliesend kommste noch mal nach hier und berichtest uns...die Karten sind am Arsch oder NV hat einen an der Waffel!

Deathcrush
2007-01-05, 14:10:38
Hier mal das Thema das SCDA mit High Shadern funzt :D Nix mit High Shader, werden immer noch verschluckt :(

http://img169.imageshack.us/img169/1313/unbenanntdk3.th.jpg (http://img169.imageshack.us/my.php?image=unbenanntdk3.jpg)

Gast
2007-01-05, 14:12:03
stell mal deinen Treiber richtig ein!
Das ist ja echt nicht mehr zum aushalten.

ShadowXX
2007-01-05, 14:15:21
Gib der Karte mehr wie 512mb Ram zum verarbeiten,anschliesend kommste noch mal nach hier und berichtest uns...die Karten sind am Arsch oder NV hat einen an der Waffel!
Wenn 2 der 3 Clock-Generatoren falsch geschaltet wären, dann würden schon Games die mehr als 256MB benutzen zum Beweis reichen.....zumindest bei mir gibt es keine Anomalien, selbst wenn ich den Graka-Speicher fast voll auslaste.

Gast
2007-01-05, 14:22:27
was für ein Game?

misterh
2007-01-05, 14:23:51
woher willst du das wissen...??
der Treiber wird nicht erkannt und deswegen mußt man das auch bestädigen..wer weis was der jetzt treibt das Treiberlein...

hab mal über gerätemanager manuell versucht und soweit klappte dann auch die erkennung. nur über setup meckert dann, das nicht gefunden werden könnte.

Deathcrush
2007-01-05, 14:25:14
KAnn mal wer die Splinter Cell DA Demo testen ob bei ihm auch die Shader auf dem Eis fehlen ?! Danke

misterh
2007-01-05, 14:33:30
KAnn mal wer die Splinter Cell DA Demo testen ob bei ihm auch die Shader auf dem Eis fehlen ?! Danke

Demo

und trotzdem diese blöde ding da.

http://img243.imageshack.us/img243/4153/scdaga1.th.jpg (http://img243.imageshack.us/my.php?image=scdaga1.jpg)

Deathcrush
2007-01-05, 14:34:50
Also fehlen auch bei dir die High Shader + den Grafikbug. So langsam bekomme ich auf NV nen dicken Hals.

Gast
2007-01-05, 15:37:39
Demo

und trotzdem diese blöde ding da.

http://img243.imageshack.us/img243/4153/scdaga1.th.jpg (http://img243.imageshack.us/my.php?image=scdaga1.jpg)


http://forums.guru3d.com/showthread.php?t=209743&page=3
läuft irgendwas macht ihr falsch...

Deathcrush
2007-01-05, 15:52:24
Jap, das es laufen soll hab ich auch herausgefunden, aber woran es bei uns liegt kann ich beim besten willen nciht sagen :(. Hab das neueste DX9C und den 97,92 drauf.

EDIT: Angeblich soll es laut Forum nur mit der Full funktionieren und mit der Demo nicht. Kann das wer mal testen, also demo und full ?

EDIT2 : Hat denn keiner die Full wo er es mal mit der Demo vergleichen kann ?

Radeonfreak
2007-01-05, 16:18:44
Also bei mir geht jetzt Splinter Cell endlich....juhu nach 2 Monaten auf dem Schreibtisch kann ich`s endlich spielen. =)

Deathcrush
2007-01-05, 16:19:58
MAgst du dann vielleicht mal die demo testen ob im Eislevel bei dir die High Shader sind und in der Full auch ?

Superheld
2007-01-05, 16:21:39
bei mir geht die Demo
man kann aber nicht customize settings damit aktiviern

http://img187.imageshack.us/img187/1358/splintercell4bf1.th.jpg (http://img187.imageshack.us/my.php?image=splintercell4bf1.jpg) http://img187.imageshack.us/img187/9044/splintercell42ja6.th.jpg (http://img187.imageshack.us/my.php?image=splintercell42ja6.jpg)

Gast
2007-01-05, 17:12:49
hab mal über gerätemanager manuell versucht und soweit klappte dann auch die erkennung. nur über setup meckert dann, das nicht gefunden werden könnte.

bei mir das selbe Problem. mit Setup wird die Karte nicht erkannt aber Manuel dann schon. als ich die Karte zum ersten mal eingebaut habe ging es auch noch mit dem Setup aber als ich RivaTuner und sonstige Tool installiert habe nicht mehr. übertaktet habe ich die Karte nie da unnötig bei der Leistung. hoffe RivaTuner oder ein anderes Tool hat die Karte nicht umgeschrieben oder ähnliches weil das Setup von Nvidia die Karte nicht mehr erkennt.

Gast
2007-01-05, 17:16:34
..???????????
Langsam gehts los...echt..für Eure kaputten SYSes sollen jetzt andere Tools schuld sein...manman
Ist Euch schon aufgefallen das bei allen anderen die Setup Routine läuft?

Deathcrush
2007-01-05, 17:36:04
bei mir geht die Demo
man kann aber nicht customize settings damit aktiviern

http://img187.imageshack.us/img187/1358/splintercell4bf1.th.jpg (http://img187.imageshack.us/my.php?image=splintercell4bf1.jpg) http://img187.imageshack.us/img187/9044/splintercell42ja6.th.jpg (http://img187.imageshack.us/my.php?image=splintercell42ja6.jpg)


Ebn nicht, bei dir fehlen auch die Shader auf dem EIS :P, so soeht das bei mir auch aus. So sollte es aussehen http://forums.guru3d.com/showpost.php?p=2088393&postcount=57



EDIT: Ändert das mal so in der ini um

SimpleShader=false
SimpleEffect=false

Gast
2007-01-05, 17:54:18
Im D3D RightMark wird der Geometrytest nun korrekt dargestellt!

LovesuckZ

Lotzi
2007-01-05, 18:36:43
habt ihr das problem auch das wenn ihr ntune im treiber menü startet und auf manuelles tuning/motherboard einstellungen ändern klickt das sich der komplette control panel schliesst???

probierts mal au und berichtet

getestet mit dem treiber von diesem thread hier

mfg

Coda
2007-01-05, 18:38:58
Also fehlen auch bei dir die High Shader + den Grafikbug. So langsam bekomme ich auf NV nen dicken Hals.

Also wenn ich ne neue Architektur kauf, dann ist mir normal bewusst dass es Anfangsschwierigkeiten geben wird. Ich versteh nicht warum sich so viele darüber aufregen...

Deathcrush
2007-01-05, 18:39:52
Mit den ini einträgen funzt nun auch endlich Splinter Cell mit Shader

http://img294.imageshack.us/img294/8386/unbenanntlt5.th.jpg (http://img294.imageshack.us/my.php?image=unbenanntlt5.jpg)

Radeonfreak
2007-01-05, 18:39:52
Ebn nicht, bei dir fehlen auch die Shader auf dem EIS :P, so soeht das bei mir auch aus. So sollte es aussehen http://forums.guru3d.com/showpost.php?p=2088393&postcount=57



EDIT: Ändert das mal so in der ini um

SimpleShader=false
SimpleEffect=false


So gehts auch in der Demo.


http://img242.imageshack.us/img242/6006/neu1xk9.th.jpg (http://img242.imageshack.us/my.php?image=neu1xk9.jpg)

Superheld
2007-01-05, 18:46:52
wie heist die ini genau;(

Blaire
2007-01-05, 18:53:58
Also wenn ich ne neue Architektur kauf, dann ist mir normal bewusst dass es Anfangsschwierigkeiten geben wird. Ich versteh nicht warum sich so viele darüber aufregen...

Ich kann mich erinnern an den R300 (ala Radeon 9700 Pro) da liefen wochenlang keine EA Games und kaum jemand regte sich darüber auf...

Deathcrush
2007-01-05, 18:58:45
wie heist die ini genau;(


scda\scda-offline\system\SplinterCell4.ini

Superheld
2007-01-05, 19:04:11
klappt alles, aber kann nicht weiter spielen weil ich nicht aus das Eis-loch komme:(

Radeonfreak
2007-01-05, 19:32:08
Gibts eine Möglichkeit HDR+AA zu spielen ?
Wenn ich aa aktiviere geht HDR aus.

Deathcrush
2007-01-05, 19:38:41
splintercell.exe schon mal in oblivion.exe unbenannt, also quasi wie bei r6 vegas ?

Gast
2007-01-05, 19:51:33
splintercell.exe schon mal in oblivion.exe unbenannt, also quasi wie bei r6 vegas ?

Funktioniert nicht, da die exe nicht startet.
Im nvnews.net Forum gibt es eine Möglichkeit in SplinterCell (keine Ahnung, ob es mit der Demo auch funktioniert) AA zu erzwingen:
http://www.nvnews.net/vbulletin/showpost.php?p=1119961&postcount=140

Riplex
2007-01-05, 21:57:18
Runaway 2 stürzt auch noch ab mit dem Treiber. :rolleyes:

Lotzi
2007-01-05, 22:23:52
ich denke das liegt am game selber und nicht am grka treiber geh mal ins runaway forum das game ist verbuggt ohne ende

meine freundin hat mir das game zu weihnachten gekauft kanns halt nur nicht spielen.......


mfg

Gast
2007-01-05, 23:25:54
Ich kann mich erinnern an den R300 (ala Radeon 9700 Pro) da liefen wochenlang keine EA Games und kaum jemand regte sich darüber auf...


ihr habt probleme echt...das der schied treiber wieder falsch taktet ist wohl allen wurst,mensch ist das ne lachnummer,ne Hardware für ein paar hundert € und die hälfte wird verschenkt.ich faß es nicht.

Blaire
2007-01-05, 23:51:25
Erkläre mir das Problem mal etwas genauer

A.Wesker
2007-01-05, 23:54:00
ihr habt probleme echt...das der schied treiber wieder falsch taktet ist wohl allen wurst,mensch ist das ne lachnummer,ne Hardware für ein paar hundert € und die hälfte wird verschenkt.ich faß es nicht.
ist doch nur nen Anzeigefehler...

Riplex
2007-01-06, 00:02:24
ist doch nur nen Anzeigefehler...

Tjo, der 3dmurks06 zeigt 103/103 mhz an :D

Hab 100 Punkte mehr mit dem Treiber :D :rolleyes:

Gast
2007-01-06, 00:03:49
nein!
Oder Unwinder hat seid 9 Jahren auf einmal keine Ahnung mehr..

Almost 9 years past since the day when I realized that I'm not satisfied with the possibilities of my Riva 128 driver's control panel. RivaTuner was the first name that came into my mind that day together with the idea of writing a tool of my dream. This way RivaTuner, my primary hobby of the past years, was born. I lived completely offline that time and was not even thinking about making it public, so the utility resided just on my home PC during almost two years.
But one day magic word "Internet" came into my life, drastically changed my lifestyle and gave me the ability of exchanging experience with the same enthusiasts like me. During discussing graphics hardware in one of the forums I suddenly mentioned some of the tweaks I did with my own tool, and I wassurprised to see that these things are completely new for the people there. So I decided to share my hobby and results of my findings with the community and started writing special public version of tool, which was called RivaTuner v2.0. I've sent the first beta version of the tool to a few graphics hardware related websites where it was published and soon have been contacted by Hilbert Hagedoorn of the Guru of 3D and gladly accepted his kind offer to make this place official RivaTuner's homepage. A few days later we announced it for you here at the Guru of 3D. So the second public part of RivaTuner's life started. During subsequent 7 years the utility was publicly updated more than 40 times, more than 200 private builds were tested by approximately 70 beta-testers. More than 10 helper tools were designed and developed special to assist RivaTuner development, total size of source code backups and reverse engineered code overcame 20 gigabytes. But all these numbers are in the past now, RivaTuner development cycle came to the end and we're glad to present you the final release of RivaTuner v2.0. In the end of this long way I'd like to thank everybody who ever contributed this project development anywise. Thanks goes to beta testers team for trying to make public releases as trouble free as it is possible. You perfectly did your job, guys, and I thank your for that. Thanks goes to Hilbert Hagedoorn for hosting RivaTuner here and providing RivaTuner's discussion forums. Thanks goes to Andrew Worobiew, Hilbert Hagedoorn, Patrick Kan and people from NVIDIA, ATI, HIS, Sapphire and Forsa for assisting project development, giving the feedback and providing hardware for testing and development. Without you I won't ever be able to support so many different display adapters. Big thanks goes to great professionals and authors of many competing hardware tuning related products, which I met during these years: Johannes Tuemler / GTU, Ashley Saldanha / PowerStrip, Arne Seifert / aTuner, Tamas Miklos / Everest, W1zzard / ATITool, Eugene Azarov / RaBiT and many others. It was the real honor to cooperate with you, guys, and I enjoyed it. Thanks to my wife Olga for allowing me to have such a nice hobby and tolerating my "just a second, honey, I'll just finish examining new GPU" during so many years. And of course my greatest thanks goes to you, thousands of RivaTuner fans I met every day during supporting the project in www.guru3d.com, www.nvnews.net, www.rage3d.com, www.beyond3d.com, www.ixbt.com, www.overclockers.ru, www.nvworld.ru, www.radeon.ru and many other forums. Thank your for your suggestions, for your feedback, for your kind words, for your moral support and the most important for your wish to learn something new. One of the tasks I put in front of myself during developing RivaTuner was getting over my own knowledge limits with each new release, finding something undocumented inside hardware and drivers, sharing it with you and teaching you to do the same yourself. And seeing like many of you were able to progress from rookies to experienced users with much deeper understanding of graphics hardware and software internals, I'm just happy and feel that I've not wasted these years.
Talking about the future of project and answering your "How final is final?" question, I cannot give you any promises right now. Currently I'm going to have a good rest, take a break and quit the development and support forums for a few months. Anyway, I hope that one day we'll meet again. Thank you for paying your attention to the utility during all these years, RivaTuner simply won't be able to exist so long without your interest to the project and without your trust in it. I hope you enjoyed using it as much as I enjoyed creating it.
I wish you Merry Christmas, happy New Year and good luck in the contest!

Version 2.0 Final Release:

Minor bugfixes:

- Removed obsolete warning message, offering user to enable alternate startup daemon mode when applying custom LowPower 3D clock frequencies at Windows startup. New alternate daemon usage approach is no longer compatible with switching alternate startup mode on the fly, so now LowPower 3D clock controls are simply blocked when alternate startup daemon mode is disabled.
- Minor UI and localization fixes.

What's new:

- Added ForceWare 97.28 and 97.44 drivers support.
- Updated databases for Detonator and ForceWare drivers. Added databases for ForceWare 93.28 and 97.44 drivers.
- Added ForceWare 97.44 compatible gamma corrected antialiasing controll!!!!

97.92
MPLL0 792 MHz
MPLL1 396 MHz
MPLL2 396 MHz

`02
MPLL0 792 MHz
MPLL1 792 MHz
MPLL2 792 MHz

Coda
2007-01-06, 01:13:22
Erkläre mir das Problem mal etwas genauer

Er nimmt zu viele Drogen.

Marc Anton
2007-01-06, 02:35:52
Ruckler in Red Orchestra sind immer noch vorhanden sowie Grafikfehler in IL-2 ..
Wird wohl noch ne ganze Weile dauern.

Gast
2007-01-06, 09:08:25
Er nimmt zu viele Drogen.

wiederlege es was in dem Post über dir steht...bis jetzt lese ich von dir immer nur klugscheißerei die du noch nicht mal belegen kannst,oder streitereien mit razor.
Los mach hinne ich warte!

Gast
2007-01-06, 09:17:50
sowie Grafikfehler in IL-2 ...
In welcher Form machen die sich bei dir bemerkbar? Ich nutze hier Il2 1946 und kann dort keine Grafikfehler feststellen. (97.44) Zumindest fällts mir nicht auf.
Dafür habe ich in Flaming Cliffs 1.12a Grafikfehler. (auch mit 97.92)

Hoffe, das es da bald Besserung gibt und nicht mehr allzu lange dauert. Will die Karte aber auch nicht mehr zurücktauschen. Dem FSX tut die Karte richtig gut. ;)

Info zum System: Palit GTS 8800 mit WinXP 32

blackbox
2007-01-06, 09:59:59
Hat sich beim Strombedarf etwas getan?

Gast
2007-01-06, 10:02:17
yeep die neue mws....

NorskCat
2007-01-06, 10:24:09
Sorry, der Gast oben, mit der Frage an Marc Anton war ich. Ich hänge mal hier ein Bild von Flaming Cliffs an, wie sich der Grafikfehler bei mir in FC bemerkbar macht.

http://maruska.de/images/grafikfehler_001.jpg

Gruß
NorskCat

Razor
2007-01-06, 11:06:43
nein!
Oder Unwinder hat seid 9 Jahren auf einmal keine Ahnung mehr..

Oder seine "Quelle" bei nVidia ist 'versiegt'.

Durch reines Re-Engineering werden seine Kenntnisse nicht zutage getreten sein und da die Treiber schon seit Jahren verschlüsselt sind, muss er also eine andere Möglichkeit der Informationsbeschaffung gehabt haben. Vielleicht ist das mit dem Speichertakt auch etwas anderes, ein Hardware-Defekt des Controllers vielleicht (who knows?), den nVidia aber 'gerne' unter den Tisch fallen lassen möchte (wie so vieles andere beim G80 auch) und deswegen der liebe Unwinder 'unplugged' wurde.

Wie auch immer, genau 'rechtzeitig' zieht sich Unwinder vom RT zurück.
Das alleine ist schon ein Hinweis darauf, dass sich mit den G80 wohl einiges geändert hat, wo er einfach keinen "Bock mehr drauf" hat.

97.92
MPLL0 792 MHz
MPLL1 396 MHz
MPLL2 396 MHz

`02
MPLL0 792 MHz
MPLL1 792 MHz
MPLL2 792 MHz

Ich ändere das mal 'leicht'...

bis 97.02 (inklusive)
- RT: 792/792/792 MHz
- Sonstige: 792 MHz

ab 97.02 (exklusive)
- RT: 792/396/396 MHz
- Sonstige: 792 MHz

Warum und wofür auch immer...
Und man darf davon ausgehen, dass nVidia dieses (ausschließliche RivaTuner!) Problemchen kennt.
Performance-seitig ist das, was der RT da anzeigt ohne den RT nicht nachzuvollziehen.

Razor

Gast
2007-01-06, 11:13:03
nö nicht ausschließlich....ntune läuft seid dem `02er ja auch nicht mehr....
was mich wundert das hier so viele Leutchen mit dicken TFTs zocken und angeblich nix merken.....wenn die Karte sich inGame mehr wie 256vram nimmt....der 3dQuarkmark ist da völlig außen vor...der nimmt sich nix.

Oder der Herr "Coda" der ja alles weiß...wieso wiederlegt er die den RT Krams nicht einfach als nur kindisch rumspammen?

Gast
2007-01-06, 11:15:42
oder noch besser hier soll es ja "Mitarbeiter" geben die es richtig dicke haben mit NV..auch da kommt nix.."Maulkorb"?

Gast
2007-01-06, 11:17:53
da macht sich doch noch nichtmal einer die Mühe zu schauen ob ab dem `44er GammaAA überhaupt geht wenn es im CP aktiviert ist....so langsam glaube ich hier das meisten mit ihre Hardware garnicht gamen sondern sich ununterbrochen einen ru..."booh ist mein Kram schnell".

Razor
2007-01-06, 11:19:01
nö nicht ausschließlich....ntune läuft seid dem `02er ja auch nicht mehr....Mit dem 02'er hat's noch gefunzt...
(wenn "funktionieren" das richtige Wort dafür wär' ;-)

was mich wundert das hier so viele Leutchen mit dicken TFTs zocken und angeblich nix merken.....wenn die Karte sich inGame mehr wie 256vram nimmt....der 3dQuarkmark ist da völlig außen vor...der nimmt sich nix.Wie gesagt... das Problem ist RT-spezifisch.
Zumindest gehe ich davon derzeit aus... alles spricht dafür.

Oder der Herr "Coda" der ja alles weiß...wieso wiederlegt er die den RT Krams nicht einfach als nur kindisch rumspammen?Weil das so seine Art ist...
Warum, meinst Du, gerate ich mit ihm so oft aneinander?
Argumente oder gar Fakten sind einfach nicht sein "Ding".
Er wird dann halt immer extrem beleidigend, insofern veruche ich ihn zu ignorieren...
...dies gelingt mir aber nicht immer.
;)

Razor

P.S.: ..."booh ist mein Kram schnell".DAS glaube ich langsam auch...
Früher gab's hier mal qualifizierte User-Erfahrungen, die auch wirklich ins Detail gehen... heute beschränkt man sich aufs "Funzt doch alles... und *boah* ist das Teil schnell/geil!", meint dies aber nicht unbedingt begründen zu müssen (bis auf sehr wenige Ausnahmen). Probleme gibt es entweder nicht oder werden herunter gespielt... das Forum hier (buw. die Teilnehmer darin) hat sich wahrlich in den letzten 2-3 Jahren sehr zum Negativen hin verändert... schade.

Gast
2007-01-06, 11:29:36
wenn ich zwei Karten hätte würd ich dir mal eine ausleien.. :D vieleicht kommen dann ja einige wieder aus ihren Löchern wenn du testest... :D so halte ich mich allerdings mit meinen Ergebnissen auch zurück,kommt ja eh nix zurück..und Gäste haben ja sowieso keinen Plan....auch das Leute wie Grestorn (er mag nicht immer einfach sein...aber wer ist das schon)vergrault werden.....naja hauptsache der "päng" :D stimmt und der Rubel rollt.

Gast
2007-01-06, 11:36:39
"Wie auch immer, genau 'rechtzeitig' zieht sich Unwinder vom RT zurück."


Das macht er weil er die Schnauze voll hat auf gut deutsch und gelaaber nicht mehr hören kann.."booah ist meinen Karte ein "Monsterpowersuper" Kärtchen und rafft das der scheiß falsch taktet..ich glaub ihm..zumal man es nachvollziehen kann..wenn man das will...!?

Akira20
2007-01-06, 12:01:53
P.S.: DAS glaube ich langsam auch...
Früher gab's hier mal qualifizierte User-Erfahrungen, die auch wirklich ins Detail gehen... heute beschränkt man sich aufs "Funzt doch alles... und *boah* ist das Teil schnell/geil!", meint dies aber nicht unbedingt begründen zu müssen (bis auf sehr wenige Ausnahmen). Probleme gibt es entweder nicht oder werden herunter gespielt... das Forum hier (buw. die Teilnehmer darin) hat sich wahrlich in den letzten 2-3 Jahren sehr zum Negativen hin verändert... schade.
Sorry, aber ich habe mir die 8800GTX zum zocken geholt und nicht, um dauernd irgendwelche Bildtests etc. zu machen.
Ich zocke auf 1280x1024 mit massig AA und AF meine Lieblingsgames (ArmedAssault, Gothic 3, Oblivion, Rise & Fall und imo FarCRY (Matto sei Dank)) und was anderes wollte ich mit der Karte auch nicht.
Wer die Karte nicht haben möchte, muss sie auch nicht kaufen. Ich bin von einer x1900xt 512MB auf die 8800GTX umgestiegen und ich bereue es keinen Moment lang. Die Bildquali ist mindestens gleichwertig und die Performancen ist deutlich höher.
Wer aber nicht zockt und Games nur zum benchen oder Screenshot machen benutzt, der ist einfach fehl am Platz. Leider, lieber Razor, steigt die Zahl der Leute die mit Ihrem Produkt einfach nur Spaß haben wohlen und nicht den ganzen Tag in irgendwelchen Foren über Ihr Produkt schreiben...:wink:

MfG
Akira20

Gast
2007-01-06, 12:04:52
1280x1024................
das du da nix festellen kannst wie memoryclocks takten ist dir aber klar oder....

Gast
2007-01-06, 12:11:38
sorry mein lieber Akira...genau so wird NV denken.....
ich zocke auch und freu mich tierisch über das Kärtchen..allerdings in 1920x1200 mit allem was geht..nur ab dem .02er habe ich in Games riesen Einbrüche wenn vram gefragt ist....mit dem .02er aber nicht.....schon eigenartig....das das dich mit deiner Auflösung nicht im geringsten juckt versteh ich auch,nur gehört absolut nicht zum Thema.

Angiesan
2007-01-06, 12:25:24
Also, an die lieben Gäste,

da ich auch eine ASUS 8800GTX mein Eigen nenne würde es mich mal interesieren wie ich mit dem RT sehen kann, dass die Mem clock micht richtig taktet.
Im HW Monitor habe ich nur einen Eintrag und da stehen immer unabhänig vom Treiber 900MHz?! Diese ändert sich auch nicht wenn ich spiele egal was ich spiele und meine TFT möchte wenn möglich mit 1680-1050 angesteuert werden.
Wo finde ich die Einträge?

Grüße

A.Wesker
2007-01-06, 12:28:03
sorry mein lieber Akira...genau so wird NV denken.....
ich zocke auch und freu mich tierisch über das Kärtchen..allerdings in 1920x1200 mit allem was geht..nur ab dem .02er habe ich in Games riesen Einbrüche wenn vram gefragt ist....mit dem .02er aber nicht.....schon eigenartig....das das dich mit deiner Auflösung nicht im geringsten juckt versteh ich auch,nur gehört absolut nicht zum Thema.
ich kann das keinesfalls bestätigen, zocke ebenfalls auf 1920x1200 4AA/16AF.

cR@b
2007-01-06, 12:37:53
Ja kann gut sein, dass hier paar Leute existieren, welche die Karte rein als Rubbeleffekt im Kasten haben. Würde z.B. Tombman dazu zählen, weil ab und an sich in seinen Posts sowas herauslesen lässt ;)

Ich persönlich muss weder angeben damit noch rubbeln und das liegt einfach daran, dass ich wahnsinnig framesbesessen bin. Die 88er ist definitiv ein Performancewunder bzw. Quantensprung im Gegensatz zu den Vorgängerkarten aber sie hat derzeit nicht wirklich die besten Treiber, wie ich auch schon mehrmals in anderen Posts erwähnt habe!

Also geht klar und deutlich hervor, dass ich die Karte auf der einen Seite lobe und auf der anderen Seite bin ich etwas enttäuscht von den verbuggten Treibern, welche aber selbstverständlicherweise aufgrund der neuen Architektur des G80 so beschissen sind.

Dennoch möchte ich als Framesnarr diese Karte nicht mehr missen... Spiele wie z.B. CoH laufen sehr smooth und genau das brauch ich im Gefecht...


Btw. beim R300 9700pro war es tatsächlich das Gleiche! Performance hammer, Treiber beschissen... habs selbst erlebt... Deja Vu? :D
Man muss aktzeptieren können und sich gedulden, auch wenn es nicht einfach ist!

Gast
2007-01-06, 12:43:29
1280x1024................
das du da nix festellen kannst wie memoryclocks takten ist dir aber klar oder....

Dann seid bitte einmal so nett und sagt wie man es feststellen kann, bin gerne bereit alles zu testen :D
Auflösung sollte bei mir auch ausreichen das man etwas merken kann dank th2go

Gruss an alle anderen Gäste ::)

Lotzi
2007-01-06, 13:48:44
habt ihr das problem auch das wenn ihr ntune im treiber menü startet und auf manuelles tuning/motherboard einstellungen ändern klickt das sich der komplette control panel schliesst???

probierts mal au und berichtet

getestet mit dem treiber von diesem thread hier

mfg

Gast
2007-01-06, 15:02:25
inst.doch mal einer den alten Riva diesen 16.2 oder was das war..hab ich leider nicht mehr......was da die clocks sagen.....

Marc Anton
2007-01-06, 16:15:02
@ NorskCat

http://www.directupload.net/images/061207/93jjGF8x.jpg

http://www.directupload.net/images/061207/6ausj69y.jpg


Auf der Krim Karte ist das Problem extrem wie man sehen kann, auf den anderen Karten sieht man es nur, wenn man im Editor genau hinsieht bzw. mit einer anderen Graka vergleicht.
Problem tritt nur auf wenn man mit "perfekten" Einstellungen fliegt und somit die Hardwareshader aktiviert.

Den Grafikfehler bei Flaming Cliffs kann ich ebenfalls bestätigen.


Gruss Marc

LovesuckZ
2007-01-06, 17:15:30
ich kann das keinesfalls bestätigen, zocke ebenfalls auf 1920x1200 4AA/16AF.

Habe bis jetzt Need for Speed:MW und TR:L mit 8xMSAA und 16xHAF in 1650*1080 durchgespielt und keine Einbrüche gefunden, die auf was anderes als die CPU oder eben doch zu hohe Einstellungen vermuten lassen.

/edit: Wenn der Speichertakt falsch gesetzt werden würde, dann müsste dies AUswirkungen auf jede Anwendung haben.

Slipknot79
2007-01-06, 20:30:43
Bugs entdeckt:

- nTune 5.05 funzt ned gscheit mit der Version. Statt nTune, öffnet sich immer das Control Panel bei klick auf nTune.

- nTune öffnet das Leistungfenster vom Control Panel mit leerem Inhalt.

- Fog in CS:S immer noch vorhanden (Ich werde das Gefühl nicht los, dass es ne Treibersache ist und nicht die Schuld von CS:S^^)

- Bildschirmskalierung funzt immer noch nicht



SC: DA Demo funzt bei mir einwandfrei, inkl Shader (Eisdarstellung) usw, ohne ini-Manipulation.

Slipknot79
2007-01-06, 20:35:06
Hat sich beim Strombedarf etwas getan?



Laut meinem Wattmeter hat sich da nix getan. 201W Idle im Desktop. Selber Wert mit 97.44.

Mit einer PCI Graka (ATI 3D Rage II+) hatte ich ca 130W.

NorskCat
2007-01-06, 22:16:02
@ NorskCat
Den Grafikfehler bei Flaming Cliffs kann ich ebenfalls bestätigen.
Danke für die Info. Also heißt es auf bessere Treiber hoffen/warten.

LovesuckZ
2007-01-06, 23:23:47
was mich wundert das hier so viele Leutchen mit dicken TFTs zocken und angeblich nix merken.....wenn die Karte sich inGame mehr wie 256vram nimmt....der 3dQuarkmark ist da völlig außen vor...der nimmt sich nix.


Die Demo von Call of Duty 2 braucht bei 1680*1050 (Ingame alles High) mit 8xMSAA und 16xHAQAF "412.15" MB. Und es läuft vollkommen flüssig mit geforcten V-Sync.

Gast
2007-01-06, 23:43:01
jaja............alles eine Ente...
http://www.theinquirer.net/default.aspx?article=36740
Unwinder har schon Recht mit "Ich hab die Schnauze voll"............

LovesuckZ
2007-01-06, 23:52:49
jaja............alles eine Ente...
http://www.theinquirer.net/default.aspx?article=36740
Unwinder har schon Recht mit "Ich hab die Schnauze voll"............

Wie wäre es endlich mal mit Belege für die "Einbrüche".
Ich höre nur wegen dem "Problem" einige Leute fluchen, komischer Weise sehe ich jedoch keine Argumente, die diese These bestätigen.

Gast
2007-01-07, 00:07:20
doch der RT sagt es Dir ob dir oder anderen das nun in Kram paßt oder nicht ab dem `02er sind die Treiber Schrott! Basta!
Vieleicht hast Du und noch ein paar andere ja "ganze" Karten...bei den Leuten die ich kenne gibt es ganz klar Einbrüche ab dem `02er...und fertig,einen Treiber warte ich noch ab dann will ich meine Kohle wieder haben,und ich kenne da zig Leute die das auch verlangen werden,das Geschrei wird man bis nach Kanada :D hören!

blackbox
2007-01-07, 00:10:07
Laut meinem Wattmeter hat sich da nix getan. 211W Idle im Desktop. Selber Wert mit 97.44.

Mit einer PCI Graka (ATI 3D Rage II+) hatte ich ca 130W.

80 Watt mehr! :eek: :eek: :eek:

Das ist wohl dann doch kein Treiberproblem?

Gast
2007-01-07, 00:25:12
Wie wäre es endlich mal mit Belege für die "Einbrüche".
Ich höre nur wegen dem "Problem" einige Leute fluchen, komischer Weise sehe ich jedoch keine Argumente, die diese These bestätigen.

ihr seid doch noch nichmal in der Lage zu sehen das GammaAA außer man erzwingt es mit dem RT nicht mehr geht.......

LovesuckZ
2007-01-07, 00:39:12
Vieleicht hast Du und noch ein paar andere ja "ganze" Karten...bei den Leuten die ich kenne gibt es ganz klar Einbrüche ab dem `02er...und fertig,einen Treiber warte ich noch ab dann will ich meine Kohle wieder haben,und ich kenne da zig Leute die das auch verlangen werden,das Geschrei wird man bis nach Kanada :D hören!

Nur weil du dir deine Freunde ausdenkst, um mehr Vertreter deiner Meinung zu haben, ist dies lange noch kein Argument.
In welchen Spielen treten die Einbrüche auf? Mit welchen Settings?
Auch Screenshots der Stellen sind nicht schlecht.
Aber solange wie nichts kommt, existiert auch kein Problem.

Gast
2007-01-07, 00:44:15
- Fog in CS:S immer noch vorhanden (Ich werde das Gefühl nicht los, dass es ne Treibersache ist und nicht die Schuld von CS:S^^)

Release Notes lesen hilft: Tritt in allen Spielen mit Source-Engine auf und soll kein Nvidia-Problem sein.

Slipknot79
2007-01-07, 03:21:19
Release Notes lesen hilft: Tritt in allen Spielen mit Source-Engine auf und soll kein Nvidia-Problem sein.



Release Notes gelesen und kann es trotzdem nicht glauben ^^
Auf der 7800 GTX gabs keinen Fog, auf der 8800 gibt es ihn. Was soll am G80 anders sein als am G70 dass da ein Fog auftaucht? ...

Razor
2007-01-07, 07:37:44
Leider, lieber Razor, steigt die Zahl der Leute die mit Ihrem Produkt einfach nur Spaß haben wohlen...

Was schlicht und ergreifend egoistisch ist... oder warum besuchst Du jetzt dieses Forum?
Gehörst Du auch zu den Leuten, die nur 'nehmen' und nichts geben wollen?
(auch im übertragenen Sinne ;-)

Ansonsten hast Du genau das geschrieben, was ich schon zuvor angeprangert hab:
"Boah... das Kärtchen ist schnölll mit massig Quali... und wer mehr hören will, hat halt pech gehabt"

Das meinte ich mit "Niedergang des Qualität dieses Forums"...
...warum sagst Du nicht einfach nichts, wenn Di nichts zu sagen hast?

Also geht klar und deutlich hervor, dass ich die Karte auf der einen Seite lobe und auf der anderen Seite bin ich etwas enttäuscht von den verbuggten Treibern

Soweit so gut.
Bis hierhin würde ich diesen Satz so akzeptieren, wie er ist!
(und es gab mal Zeiten, da hast Du es dabei belassen!)

, welche aber selbstverständlicherweise aufgrund der neuen Architektur des G80 so beschissen sind.

DAS ist es, was ich anprangere!
Warum soll dies so sein?

Ganz im Gegenteil ist aufgrund der anfänglichen Hardware-Probleme und der Unfähigkeit, im Idle mehr Strom zu 'sparen' zusammen mit den völlig unausgegorenen Treibern und der Absenz von Vista-Treibern eher zu vermuten, dass mit dem Produkt insgesamt etwas nicht stimmt.

Und vergleichber mit dem R300 damals ist das überhaupt nicht.

Sicher, die Treiber waren beschissen, aber das waren sie nicht erst mit dem R300, sondern zog sich durch die gesamte Treiber-Entwicklung hindurch. Und erst nach dem R300 wurden sie nach und nach besser... DAS ist etwas vollkommen anderes, als das, was hier jetzt passiert ist.

Klar, auch hier werden Features glatt unterschlagen - auch hier fehlt das "NextGen"-DX (diesmal allerdings samt kompletten Betriebsystem!), aber Hardware-Probleme gab es mit dem R300 nicht.

Sorry, aber ich verstehe einfach nicht, dass man 500+ (den SLI-Irrsinn erwähne ich lieber nicht) für 'ne Grafikkarte ausgibt, obwohl es doch Konsolen gibt, die
a) weniger kosten, auch
b) weit weniger Probleme machen
Strom sparen, DAU-sicher sind und - man höre und staune - tatsächlich auch Spaß machen!

Es ist eine Unart im PC-Bereich, dass hier offenkundig unausgereifte Technologie gekauft und dies dann auch noch über Monate hingenommen wird. Im Falle der FX(5800) hat man dann versucht, den Hersteller an den Pranger zu stellen, weil das Produkt selbst nach Monaten nicht "in den Griff" zu bekommen war... aber eigentlich waren die Leute nur dämlich genug, ein Produkt zu kaufen, welches einfach vollkommen überfrüht auf den Markt gekommen war!

Und ja, ich vergleiche das Release des G80 mit dem des NV30 und nicht mit dem R300.
OK, die Kühlung ist besser, aber das war es dann auch schon.

Im Prinzip ist der G80 eine Mischung aus NV30 und R300, wenn ich das genau überlege...
...und ich bin mal gespannt, ob sich das wie beim NV30 oder doch wie beim R300 entwickelt - ein Vergleich ist ja noch nicht möglich.

Razor

Razor
2007-01-07, 07:48:11
Laut meinem Wattmeter hat sich da nix getan. 211W Idle im Desktop. Selber Wert mit 97.44.

Mit einer PCI Graka (ATI 3D Rage II+) hatte ich ca 130W.

Solche Infos wünsche ich mir...
Thx4Info!

@SpeicherTakt-"Prob"

Ich kenne auch keinen einzigen Beleg, der die "These" von Unwinder stützt.
Vermutlich hat er deswegen die Segel gestrichen, weil ihm keiner dieses Phänomen 'erklärt'...

@Treiber

Zumindest höre ich raus, dass er nicht unbedingt schlechter ist, als die Treiber zuvor.
Ist er also nun zu empfehlen, oder nicht?
:confused:

Razor

Gast
2007-01-07, 09:00:40
nein ohne RT geht kein Gamma AA (auch mit dem 44er schon nicht)juckt aber keinen..ist ja schnell genug.....
Zum Memory Bug sag ich nix mehr,ist sowieso lächerlich da es auch keinen juckt,dann müßte man ja was zugeben.
Wie gesagt wir warten den nächsten Treiber noch ab und dann bekommt NV Streß.

In diesem Sinne...schönen Tag noch.

Gast
2007-01-07, 09:02:44
Nur weil du dir deine Freunde ausdenkst, um mehr Vertreter deiner Meinung zu haben, ist dies lange noch kein Argument.
In welchen Spielen treten die Einbrüche auf? Mit welchen Settings?
Auch Screenshots der Stellen sind nicht schlecht.
Aber solange wie nichts kommt, existiert auch kein Problem.

belege du es,ich zeige dir dann die mehr FPS mit dem 97.02.

Gast
2007-01-07, 09:04:48
http://www.theinquirer.net/default.aspx?article=36740


is working hard muhhhaaaaaaa

Gast
2007-01-07, 09:15:16
Nur weil du dir deine Freunde ausdenkst, um mehr Vertreter deiner Meinung zu haben, ist dies lange noch kein Argument.
In welchen Spielen treten die Einbrüche auf? Mit welchen Settings?
Auch Screenshots der Stellen sind nicht schlecht.
Aber solange wie nichts kommt, existiert auch kein Problem.

Ausdenken,Du Kleinkind,Du merkst doch noch nicht mal das kein GammaAA mehr geht..nimm meinetwegen Oblivion ich zeig dir dann mit meiner höheren Auflösung wieviel FPS ich mit dem `02er mehr habe du Laabertasche.

LovesuckZ
2007-01-07, 10:43:50
Ausdenken,Du Kleinkind,Du merkst doch noch nicht mal das kein GammaAA mehr geht..nimm meinetwegen Oblivion ich zeig dir dann mit meiner höheren Auflösung wieviel FPS ich mit dem `02er mehr habe du Laabertasche.

Fassen wir zusammen:
Du hast keine Belege für das angebliche Problem.
Dann gibt es auch kein Problem.
Somit bleibt wohl nur übrig: Ende des Themas.

Gast
2007-01-07, 11:01:42
doch in jedem Game um 20FPS mehr mit dem `02..da bin ich mit einer Karte fast auf SLI Niveau, wenn die einen Treiber nach dem `02er am laufen haben..aber träum ruhig weiter.
Und zum GammaAA fällt Dir immer noch nichts ein..weißt Du überhaupt wie das aussieht?BZW hast Du überhaupt eine 8800......

Was wohl Augenscheinlich ist das die Treiber bis zum`28er böse Einbrüche im SLI Betrieb hatten (Blaire etc.)und danach weg sind...im selben mom.takten die Dinger aber falsch...ein Schelm wer böses denkt....
Aber lassen wir es...dir und deinesgleichen reicht die Power wohl (reicht ja auch deshalb fällt es ja nicht auf>so wird auch NV denken)aber.....40 oder 60 ist für mich ein Unterschied und das laß ich mir nicht gefallen.
Ende der Durchsage!

Slipknot79
2007-01-07, 12:39:20
Solche Infos wünsche ich mir...
Thx4Info!



Razor




Zur Ergänzung:

Mein Wattmeter hat ne Max-Wert-Speicherung: 418W
Ich weiß aber nicht in welcher Situation dieser Wert zustande gekommen ist. (Natürlich Vollast (auch CPU auf 100%), aber kA welches Spiel/Benchmark)


Mit einer 7800GTX (256MB RAM) hatte ich ca 160W Idle im Desktop.

Gast
2007-01-07, 13:13:40
Und wieviel unter Last? Was sollen die beiden Zahlen aussagen auser das sie nicht vergleichbar sind?

Slipknot79
2007-01-07, 13:20:27
Und wieviel unter Last? Was sollen die beiden Zahlen aussagen auser das sie nicht vergleichbar sind?


Um wieviel was?

Um Vergleichbarkeit ging es auch nicht, sondern mehr um die Info, was son heutiges System an Strom verbrauchen kann unter Vollast.


Zusammenfassung (vergleichbare Werte):
System mit ATI 3D Rage II+: 130W
System mit 7800GTX 256MB: 160W
System mit 8800GTX: 201W

Alles im Desktop und Idle. Restl. PC-Komponenten waren immer die selben mit den selben Settings.

Gast
2007-01-07, 14:03:51
Mit dem neuen Treiber stürzt Star Wars Republic weiterhin beim Laden der ersten Mission ab! :-(

Hoffe,Nvidia fixt den Fehler endlich mal,der ja schon länger bekannt ist und auf dem Trieber zurückzuführen ist!

Gast
2007-01-07, 14:13:01
Um wieviel was?


Ich meinte das in deinem Post nur steht: "418Watt Max Messwert@8800?" und "160Watt im Idle mit ner 7800GTX"

Da konnte ich kein Bezug herstellen.

CompEx
2007-01-07, 19:38:51
Verstehe Razor nicht so ganz. Ich hab mir 'ne 8800GTS gekauft, weil sie die mit Abstand beste BQ aller Karten bietet. Ich hatte ein Jahr lang ne X1800XT, davor 'ne 7800GTX. Alle Upgrades erfolgten aufgrund der besseren BQ. Und nebenbei ist die 8800GTS auch noch standardmäßig sehr leise. Und sie ist in ALLEN Tests, die ich gemacht habe (über 30 Spieletests), deutlich schneller als 'ne X1900XTX. Was will man mehr? Ja klar, man möchte Null Fehler, was man selbst aber im Leben auch nie hinkriegt... Es gibt eben Leute, die wollen was neues sofort, weil sie etwas davon haben (bessere BQ, mehr FPS) und nehmen dafür ein paar Kinderkrankheiten in Kauf. Andere warten eben, bis es (fast) keine Kinderkrankheiten mehr gibt... Is doch jedem selbst überlassen ;) Und was soll der Verweis auf Konsolen? Kann man die upgraden? Kann man die übertakten? Läuft da WoW? ;) Kann ich da zusätzlich nebenbei Videos bearbeiten? Ich will 'nen PC und nix anderes! :)

Bei mir laufen alle Spiele (und ich guck mir auch ständig neue Demos an) hervorragend. Einzig der Nebel bei der Source-Engine stört gewaltig. Davon ab hab ich weder Abstürze noch Darstellungsfehler oder sowas. Das war mit 97.02 und 97.44 ganz genauso.

Gast
2007-01-07, 21:21:08
Der Fuchs ist schlau und stellt sich dumm, der User macht es anderrum :D

ShadowXX
2007-01-07, 21:22:14
Release Notes gelesen und kann es trotzdem nicht glauben ^^

Auf der 7800 GTX gabs keinen Fog, auf der 8800 gibt es ihn. Was soll am G80 anders sein als am G70 dass da ein Fog auftaucht? ...
G80 und G7X haben nichts von der Architektur gemeinsam......es ist also allerhand beim G80 anders.

Ihr müsst immer bedenken, das die Treiber die es zum Schluss für den G71 seit dem nv40 entwickelt wurden....beim G80 musste man ziemlich weit vorne wieder anfangen.

Slipknot79
2007-01-07, 21:24:25
G80 und G7X haben nichts von der Architektur gemeinsam......es ist also allerhand beim G80 anders.

Ihr müsst immer bedenken, das die Treiber die es zum Schluss für den G71 seit dem nv40 entwickelt wurden....beim G80 musste man ziemlich weit vorne wieder anfangen.





Sollte aber die GPU nicht abwärtskompatibel sein?

Ich meine, man entwickelt eine GPU und schiebt dann Valve die Schuld in die Schuhe?!?!?

Coda
2007-01-08, 00:30:08
Nicht die GPU, sondern die Treiber haben noch ein Problem. Und Valve is eh komisch. Die machen viel zu viel abhängig von der Vendor-ID.

Gast
2007-01-08, 00:30:18
Komisch nur das nicht alle maps davon betroffen sind, auf office z.B ist alles i.O und Dark messiah lüptt auch 1a ohne fehler, trotz Source Engine.

Slipknot79
2007-01-08, 01:04:28
Nicht die GPU, sondern die Treiber haben noch ein Problem. Und Valve is eh komisch. Die machen viel zu viel abhängig von der Vendor-ID.


Laut release notes von Nvidia liegt das Problem bei Valve? Wobei ich das selbst ned glauben kann^^

Coda
2007-01-08, 01:14:40
Laut release notes von Nvidia liegt das Problem bei Valve? Wobei ich das selbst ned glauben kann^^

Wenn nVIDIA das schreibt wird es schon stimmen. Kanns ein dass Valve eben scheiße baut abhängig von der Device-ID.

r@w.
2007-01-08, 10:23:16
Und was soll der Verweis auf Konsolen?

- Spiele abgestimmt auf verfügbare Lesitung
- Kompatibilität IMMER gegeben

Kann man die upgraden?

- Im begrentem Umfang? Ja.
- hinsichtlich der Grafik? Nicht erforderlich.

Kann man die übertakten?

- Wozu? Nicht erforderlich.

Läuft da WoW? ;)

- wen interessiert das?

Kann ich da zusätzlich nebenbei Videos bearbeiten?

- Nö... allerdings existiert der PC ja wohl weiter, oder?
(und hat in dieser Hinsicht rein gar nichts mit der Grafik zu tun ;-)

Razor

r@w.
2007-01-08, 10:27:10
G80 und G7X haben nichts von der Architektur gemeinsam......es ist also allerhand beim G80 anders.

Ihr müsst immer bedenken, das die Treiber die es zum Schluss für den G71 seit dem nv40 entwickelt wurden....beim G80 musste man ziemlich weit vorne wieder anfangen.

Unsinn.

Oder wie ist es zu erklären, dass ein Treiber für die G80 auch wunderbar auf den 'alten' Karten läuft, dabei aber kaum größer ist?
:confused:

Einzig die Profile unterscheiden sich bei den Treibern G80 vs. 'alt' recht deutlich.
Das ist der EINZIGE Grund, warum es unterschiedliche Treiber gibt (dazu habe ich mich schon mal ausgelassen).
Unterschiedliche Render-Pfade gab es in den Treibern schon immer... zumal eine TNT und ein G70 auch nicht wirklich 'kompatibel' sind.

Razor

r@w.
2007-01-08, 10:29:29
Wenn nVIDIA das schreibt wird es schon stimmen. Kanns ein dass Valve eben scheiße baut abhängig von der Device-ID.Dann aber nur, weil die Source-Engine den G80 noch nicht 'kennt'...
...sollte mit einer einfachen Änderung der cfg dann aber Geschichte sein.

Razor

P.S.: die Vendor-ID läßt sich mit gängigen Tools ganz gut 'faken'...

Deathcrush
2007-01-08, 12:05:57
Laut release notes von Nvidia liegt das Problem bei Valve? Wobei ich das selbst ned glauben kann^^


Angeblich soll das Problem mit dem nächsten Steam-Update behoben werden, bin auch schon gespannt wie ein Flitzebogen ^^

Slipknot79
2007-01-08, 16:15:27
Wenn nVIDIA das schreibt wird es schon stimmen. Kanns ein dass Valve eben scheiße baut abhängig von der Device-ID.



Nach der Aktion, dass man TAA auf der GeForce6 Reihe per Treiber deaktivert hat um die 7er Reihe zu pushen, glaube ich NV schon mal gar nicht.

Ailuros
2007-01-08, 23:42:33
DAS ist es, was ich anprangere!
Warum soll dies so sein?

Ganz im Gegenteil ist aufgrund der anfänglichen Hardware-Probleme und der Unfähigkeit, im Idle mehr Strom zu 'sparen' zusammen mit den völlig unausgegorenen Treibern und der Absenz von Vista-Treibern eher zu vermuten, dass mit dem Produkt insgesamt etwas nicht stimmt.

Was genau soll denn damit nicht genau stimmen?

Und vergleichber mit dem R300 damals ist das überhaupt nicht.

Sicher, die Treiber waren beschissen, aber das waren sie nicht erst mit dem R300, sondern zog sich durch die gesamte Treiber-Entwicklung hindurch. Und erst nach dem R300 wurden sie nach und nach besser... DAS ist etwas vollkommen anderes, als das, was hier jetzt passiert ist.

Der Vergleich hinkt von allen moeglichen Seiten. G80 hockt gerade 2 Monate auf Regalen und nicht 4 Jahre wie R300.

Klar, auch hier werden Features glatt unterschlagen - auch hier fehlt das "NextGen"-DX (diesmal allerdings samt kompletten Betriebsystem!), aber Hardware-Probleme gab es mit dem R300 nicht.

Welche bestaetigten HW-Probleme hat denn Deiner Meinung nach G80?

Sorry, aber ich verstehe einfach nicht, dass man 500+ (den SLI-Irrsinn erwähne ich lieber nicht) für 'ne Grafikkarte ausgibt, obwohl es doch Konsolen gibt, die
a) weniger kosten, auch
b) weit weniger Probleme machen
Strom sparen, DAU-sicher sind und - man höre und staune - tatsächlich auch Spaß machen!

Weil manche vielleicht hoehere Ansprueche haben als das was Consolen liefern koennen? Und nein es steht nicht zur Debatte fuer was ich mein eigenes Geld ausgebe und wie hoch meine Ansprueche genau sind.

Es ist eine Unart im PC-Bereich, dass hier offenkundig unausgereifte Technologie gekauft und dies dann auch noch über Monate hingenommen wird. Im Falle der FX(5800) hat man dann versucht, den Hersteller an den Pranger zu stellen, weil das Produkt selbst nach Monaten nicht "in den Griff" zu bekommen war... aber eigentlich waren die Leute nur dämlich genug, ein Produkt zu kaufen, welches einfach vollkommen überfrüht auf den Markt gekommen war!

NV30 kam mit 9 Monate Verspaetung auf die Regale. Unreif war die Technologie damals nicht, einfach nur beschissen.

Und ja, ich vergleiche das Release des G80 mit dem des NV30 und nicht mit dem R300.
OK, die Kühlung ist besser, aber das war es dann auch schon.

LOL :biggrin:

Im Prinzip ist der G80 eine Mischung aus NV30 und R300, wenn ich das genau überlege...
...und ich bin mal gespannt, ob sich das wie beim NV30 oder doch wie beim R300 entwickelt - ein Vergleich ist ja noch nicht möglich.

Razor

Ich weiss zwar allen ernstes nicht was genau Dein Problem ist, aber ausser ein paar Antworten fuer meine Fragen oben (fuer die ich so oder so nur nicht belegbare Thesen und sonst nichts bekomme) hab ich nicht weiter vor meine Zeit zu verplempern. Gut Dir steht G80 nicht, aus welchen auch immer Grund. So viel kann ich akzeptieren; der Rest kann man links liegen lassen.

Razor
2007-01-09, 17:51:22
Der Vergleich hinkt von allen moeglichen Seiten. G80 hockt gerade 2 Monate auf Regalen und nicht 4 Jahre wie R300.Dieser "Antwort" ist eigentlich nichts mehr hinzu zu fügen.
Wenn Du nicht mal simpelste Vergleiche 'verstehen' willst, dann versuche ich gar nicht weiter, Dir diese näher zu bringen...
...wozu auch?

...hab ich nicht weiter vor meine Zeit zu verplempernGeht mir ähnlich.

Razor

Coda
2007-01-09, 21:31:33
Nach der Aktion, dass man TAA auf der GeForce6 Reihe per Treiber deaktivert hat um die 7er Reihe zu pushen, glaube ich NV schon mal gar nicht.

Was hat das jetzt damit zu tun?

Ein Fehler ist etwas anderes als ein Marketing-Feature... ach lassen wir das.

Gast
2007-01-09, 22:01:50
kann man mit dem Treiber eigendlich über nTune jetzt den Lüfter wieder regeln?

Gast
2007-01-09, 22:05:51
http://www.nvidia.com/object/ntune_5.05.18.00.html

# This is a complete, updated release of the NVIDIA nTune. You are not required to install a previous version of this application before installing the latest version.
!!!!! nTune 5.05 adds support for GPU temperature monitoring and overclocking on all motherboards!!!!!!!!!
# On nForce motherboards where specific BIOS support is not available, only basic functionality will be available.

Gast
2007-01-10, 00:38:33
Schon bekannt, uralt und teilweise Buggy die Version, Finger weg.

Gast
2007-01-10, 08:46:57
iich habs jetzt hiermit geregelt
There are a few different ways you can set RivaTuner to automatically adjust the fan speed for the 8800 cards.
Remember that the 8800 cards do not have seperate 2D/3D core clocks by default so you'll have to be a bit creative and find different ways of doing it.
One way is to create your fan profile linked to the card's core temperature so when you start up a game and the card's temp increases the fan will automatically increase accordingly, which is how I set mine up and it works very well.

In Low Level System Settings choose the Fan tab, place a tick next to Enable low level fan Control and below that choose fixed, then set up a fan profile. For instance, I've simply named mine 2D 65% and 3D 80%, where I've set the 2D Fan @ 65% and the 3D Fan @ 80%.

Then in the Launcher tab set your 2D/3D fan profile as the associated fan profiles.
Then in low Level Hardware Monitoring right click on the Core Temperature graph, go to setup and create your 2D and 3D temperature thresholds.
For instance, you could set both the 2D/3D upward and downward threshold at 60C so when the card's temp goes over 60C the fan will increase to 80% and when the card's temp drops again to below 60C the fan will decrease to 65%, (of course you can set your fan profile and temp threshold to whatever you prefer.)
(also remember that you need to have RivaTuner running in the background for it to work)

Gast
2007-01-10, 14:52:30
booaaaa die Karte echt.....
mit nem BadAxe....neues Bios drauf (1474)und nix..kein booten mehr möglich mit OC...weder mit 1067+ noch mit 1333....
es laufen nur die Bios fehlerfrei und ohne Abstürze mit OC>1304,1334.1441..alles was danach kommt bootet das Mobo nur noch ohne OC..event.wird auch der SLL mit den neueren Bios umgangen....

Gast
2007-01-10, 14:54:29
fällt mir noch ein,mit dem SLL,das kann auch nicht sein,den der GX² wars wurscht....

Gast
2007-01-10, 15:04:50
fällt mir noch was ein... :D
wobei ich mit dem 1304er in Matto immer Abstürze hatte..das ist mit dem 1441 weg....echt so langsam wird zur Wissenschaft :D

Gast
2007-01-10, 16:22:33
Funktioniert auf einem G80 mit dem 97.72 Splinter Cell Double Agent eigentlich mit HDR und AA gleichzeitig?

LovesuckZ
2007-01-10, 16:26:54
Funktioniert auf einem G80 mit dem 97.72 Splinter Cell Double Agent eigentlich mit HDR und AA gleichzeitig?

Nein.

Slipknot79
2007-01-10, 16:38:12
Funzt überhaupt irgendwas auf dem G80 mit HDR+AA? ^^Ausser Source Spiele...

LovesuckZ
2007-01-10, 16:44:06
Funzt überhaupt irgendwas auf dem G80 mit HDR+AA? ^^Ausser Source Spiele...

Farcry und Oblivion. Glaube auch Call of Juarez.

CompEx
2007-01-10, 16:44:37
Ja, Serious Sam 2 läuft mit HDR und AA. :)

FarCry? Bei mir nicht. Wie geht das denn?

Bei der Demo von Call of Juarez geht's nicht. Zumindest nicht ohne Bastelei. ;)

Slipknot79
2007-01-10, 16:46:49
Ja, Serious Sam 2 läuft mit HDR und AA. :)

FarCry? Bei mir nicht. Wie geht das denn?

Bei der Demo von Call of Juarez geht's nicht. Zumindest nicht ohne Bastelei. ;)


nHancer verwendet? Oo

Werde mich mal mit CoJ spielen, Oblivion stürzt bei mir laufend ab während der Intro^^

Blaire
2007-01-10, 16:47:53
Farcry funktioniert prima mit HDR+AA.

Im Game per Console folgendes eingeben:
/r_fsaa 2
/r_fsaa_samples 4

CompEx
2007-01-10, 16:49:09
nHancer hab ich noch nie benutzt.

Oblivion kann ich bestätigen.

Quote:
/r_fsaa 2
/r_fsaa_samples 4

Was bedeuten denn die beiden Befehle? Würde gerne verschiedene AA-Modi ausprobieren! :)

Heißt der erste sowas wie "HDR+AA" und der zweite "4xAA"?

Also im Treiber beim FarCry-Profil hab ich AA auf "Anwendungsgesteuert". Dann hab ich bei FarCry unter Optionen AA ausgestellt. Und dann die beiden Befehle eingegeben (die auch bestätigt wurden in der Konsole), dann den Pier-Level gestartet und Bildfehler erhalten. AA funzte auch net, abgesehen von den Bildfehlern.

Habe btw. /r_hdrrendering 2 eingestellt.

Blaire
2007-01-10, 17:04:02
/r_fsaa 2 : <---schaltet praktisch den HDR+AA Modus frei
/r_fsaa_samples "4" <---bedeutet 4xFSAA ( man kann aber auch im Treiberprofil von Farcry höhere FSAA Modis erzwingen z.b. bis 16xAA je nach Grafikkarte)

Du kannst das auch in die system.cfg im Farcry Verzeichnis gleich so eintragen bzw. ersetzen dann brauchst du das nicht dauernd per Console eintippen )


Wichtig ist natürlich das du Patch 1.4 Beta verwendest (ältere Patches unterstützen kein HDR+AA im Game )

CompEx
2007-01-10, 17:08:51
Hab den 1.4 Final, Build 1405.

Mit meiner X1800XT hatte ich da problemlos HDR+AA.

Blaire
2007-01-10, 17:33:54
Und hast es hinbekommen? Ich benutze den Beta 1.4 Patch , den 1.4 Final hab ich nie ausprobiert bisher.

Hier mal ein Shot mit 1920x1200 8xAA+HDR+TRSAA/16xAF
http://img107.imageshack.us/img107/990/farcry0077lu2.jpg

CompEx
2007-01-10, 17:52:29
Nee, is nix zu machen, funzt einfach net. Ohne AA geht's prima, mit hab ich nur Bildfehler.

Gast
2007-01-10, 17:55:10
der "normale" 1.4 hat auch nix mit HDR+AA zutun.

@Blaire
kannst Du bitte mal schreiben was du in der "system.cfg" einträgst wenn Du so spielst "8xAA+HDR+TRSAA/16xAF"

Gast
2007-01-10, 17:55:50
Hab den 1.4 Final, Build 1405.

Mit meiner X1800XT hatte ich da problemlos HDR+AA.

mit dem Finalen im Leben nicht!

Gast
2007-01-10, 17:56:52
der "normale" 1.4 hat auch nix mit HDR+AA zutun.

@Blaire
kannst Du bitte mal schreiben was du in der "system.cfg" einträgst wenn Du so spielst "8xAA+HDR+TRSAA/16xAF"

ach ja ich hab das wegen Matto4 wieder ausgepackt>startest Du im Devmod?

Gast
2007-01-10, 18:09:46
läuft! aber wieso setzt er in der cfg bei fsaa qualli nix?

Blaire
2007-01-10, 18:14:29
der "normale" 1.4 hat auch nix mit HDR+AA zutun.

@Blaire
kannst Du bitte mal schreiben was du in der "system.cfg" einträgst wenn Du so spielst "8xAA+HDR+TRSAA/16xAF"

r_FSAA = "2"
r_FSAA_quality = "0"
r_FSAA_samples = "4"
r_HDRBrightOffset = "6.000000"
r_HDRBrightThreshold = "3.000000"
r_HDRLevel = "0.600000"
r_HDRRendering = "7"

Den Rest dann über das ControlPanel einstellen z.b. 8xAA,QAA,16xAA,QAA etc. das wird auch im Spiel übernommen habs überprüft.

Ja ich starte es per Farcry.exe -devmode

CompEx
2007-01-10, 18:18:46
Also bei der 1.4 Final funktioniert HDR+AA auf 'ner ATI problemlos. Außerdem werden die Konsolenbefehle bei der 1.4 Final autom. in der .cfg gespeichert. Da kann man sich das manuelle editieren sparen. Ich installier's grad neu und patche dann auf den 1.4 Beta, mal sehen was passiert! :)

Ach ja, ich hab' im Devmode gestartet, wollte ja gleich mal benchen^^.

Gast
2007-01-10, 18:30:25
r_FSAA = "2"
r_FSAA_quality = "0"
r_FSAA_samples = "4"
r_HDRBrightOffset = "6.000000"
r_HDRBrightThreshold = "3.000000"
r_HDRLevel = "0.600000"
r_HDRRendering = "7"

Den Rest dann über das ControlPanel einstellen z.b. 8xAA,QAA,16xAA,QAA etc. das wird auch im Spiel übernommen habs überprüft.

Ja ich starte es per Farcry.exe -devmode

yeep Danke!
Bin allerdings bei HDR auf "5" wenn du mit "7" bei Matto4 nen Feuerlöscher erwischst siehste ne halbe Stund nix :D

Gast
2007-01-10, 18:36:12
Also bei der 1.4 Final funktioniert HDR+AA auf 'ner ATI problemlos. Außerdem werden die Konsolenbefehle bei der 1.4 Final autom. in der .cfg gespeichert. Da kann man sich das manuelle editieren sparen. Ich installier's grad neu und patche dann auf den 1.4 Beta, mal sehen was passiert! :)

Ach ja, ich hab' im Devmode gestartet, wollte ja gleich mal benchen^^.
ja`?
versteh ich nicht...in dem final sind absolut keine dateien enthalten die hdr+aa ermöglichen..egal auf was für einer karte.

Gast
2007-01-10, 18:39:54
nHancer verwendet? Oo

Werde mich mal mit CoJ spielen, Oblivion stürzt bei mir laufend ab während der Intro^^


inst. mal den mod manager und setzte das Datum neu..auch die Reihenfolge ist bei vielen mods wichtig.wühl dich mal hier durch...
http://scharesoft.de/joomla/forum/showthread.php?t=2050
hatte ich auch,danach rennt es "aller erste Sahne".

Gast
2007-01-10, 18:45:21
Funktioniert auf einem G80 mit dem 97.72 Splinter Cell Double Agent eigentlich mit HDR und AA gleichzeitig?

ich starte nHancer und es ist HDR+AA da....

Blaire
2007-01-10, 18:55:37
Mal ne andere Frage hat es jemand geschafft von euch Gothic3 +AA zum Laufen zu bewegen? Bei manchen soll es ja funktioniern nur bei mir funkts nicht hab alles mögliche getestet. :confused:

cR@b
2007-01-10, 19:15:22
Unterscheidet sich der offizielle 97.92 zum vorherigen 97.92 in irgendeiner Weise?
Gothic 3 mit HDR und AA geht laut nvnews Forum mit nem extra Tool ausem Gothic Forum. Musst mal suchen...

Gast
2007-01-10, 19:22:56
oha ein offizieller..dann werd ich mal inst.und nach den Memorys schauen und wenn ich dies mache suchste den Link für Gothic!
Das ist Arbeitsteilung.. :D

Blaire
2007-01-10, 19:36:22
Gothic 3 mit HDR und AA geht laut nvnews Forum mit nem extra Tool ausem Gothic Forum. Musst mal suchen...

Jo damit hat ich es auch versucht aber klappt nicht.

cR@b
2007-01-10, 19:39:14
oha ein offizieller..dann werd ich mal inst.und nach den Memorys schauen und wenn ich dies mache suchste den Link für Gothic!
Das ist Arbeitsteilung.. :D

Die Memories interessieren mich net, solange die Performance gleichbleibt ;)

aber hier trotzdem der Link....

http://www.nvnews.net/vbulletin/showthread.php?t=81188&highlight=gothic

radekhulan heisst der Typ und auf Seite zwei dann die Lösung...

Gast
2007-01-10, 19:41:26
@Blaire hast du mal einen Link?Dann versuch ichs mal...

zum Treiber lt.RT sind die clocks immer noch falsch und Gamma AA hat wohl immer noch andere Bits (nHancer,Grestorn sagte da aber auch was im nvforum dazu,jemand ne Ahnung ob er das noch ändert?)ansonsten über den RT einstellen.

Gast
2007-01-10, 19:43:06
Die Memories interessieren mich net, solange die Performance gleichbleibt ;)

aber hier trotzdem der Link....

http://www.nvnews.net/vbulletin/showthread.php?t=81188&highlight=gothic

radekhulan heisst der Typ und auf Seite zwei dann die Lösung...
Danke,
die Power ist gleich ja :D aber mir dem 97.02 im Schnitt 10 FPS mehr.....mir reicht es langsam...

Blaire
2007-01-10, 19:44:42
@Blaire hast du mal einen Link?Dann versuch ichs mal...
.

Gothic3 mit diesen Einstellungen solls angeblich funktionieren. Nur tut es das bei mir nicht! Teste es mal bei dir und berichte.
http://www.nvnews.net/vbulletin/showpost.php?p=1082157&postcount=28
http://www.nvnews.net/vbulletin/showpost.php?p=1081310&postcount=23

Blaire
2007-01-10, 19:46:12
Die Memories interessieren mich net, solange die Performance gleichbleibt ;)

aber hier trotzdem der Link....

http://www.nvnews.net/vbulletin/showthread.php?t=81188&highlight=gothic

radekhulan heisst der Typ und auf Seite zwei dann die Lösung...

Jo den Kunden hab ich auch angeschrieben aber der sagt mir nicht wie es funktioniert. :D Vieleicht ist das alles auch nur ein Fake also bei mir funktioniert es so wie es beschrieben wurde nicht.

Asmodeus
2007-01-10, 20:09:40
97.92 ist jetzt also offiziell, naja, ich hatte ja ehrlich gesagt auf einen größeren Versionssprung gehofft. Denn wie zu erwarten unterstützt auch der 97.92 noch nicht alle neuen OpenGL-Extensions. Nun bin ich gespannt, wie lange es dauert, bis ein Treiber erscheint, der alle beherrscht.

Gruss, Carsten.

LovesuckZ
2007-01-10, 22:22:56
Source Fog Bug Fix - Ankündigung (http://www.nvnews.net/vbulletin/showthread.php?t=83999)

Gast
2007-01-10, 22:46:04
Gothic3 mit diesen Einstellungen solls angeblich funktionieren. Nur tut es das bei mir nicht! Teste es mal bei dir und berichte.
http://www.nvnews.net/vbulletin/showpost.php?p=1082157&postcount=28
http://www.nvnews.net/vbulletin/showpost.php?p=1081310&postcount=23

null nix garnix nassing :D :D

Slipknot79
2007-01-10, 22:47:36
Is klar, FarCry installed, Mousesteuerung geht ned :( ... Maus geht zwar im Menü, aber ned im Spiel ^^ Patch 1.4 is drauf... Dafür lässt sich das Teil per Gamepad steuern...

Gast
2007-01-10, 22:48:02
allerdings sagt er 97.02..... hätt ich den nur mal draufgelassen......naja vieleicht morgen.

Gast
2007-01-10, 22:50:46
Is klar, FarCry installed, Mousesteuerung geht ned :( ... Maus geht zwar im Menü, aber ned im Spiel ^^ Patch 1.4 is drauf... Dafür lässt sich das Teil per Gamepad steuern...


ging bei mir auch nicht mit dem 1.4er..nochmal inst.den 1.4 >deinst. dann 1.3-1.33 dann ging es bei mir.
Und wenn du HDR+AA willst muß Du den 1.4 Beta Patch inst.!!!!!
Dieser normale hat mir HDR+AA nix am Hut zumindest für NV Karten.

Gast
2007-01-10, 22:53:47
http://downloads.guru3d.com/download.php?det=1293
Patsch :D

und nicht das ganze Game deinst.sondern nur den 1.4er>den einfach nochmal anklicken wenn Du mich oben nicht verstanden hast.

Slipknot79
2007-01-10, 23:00:19
inst. mal den mod manager und setzte das Datum neu..auch die Reihenfolge ist bei vielen mods wichtig.wühl dich mal hier durch...
http://scharesoft.de/joomla/forum/showthread.php?t=2050
hatte ich auch,danach rennt es "aller erste Sahne".


Ich hatte noch nicht mal mods installed :(

Slipknot79
2007-01-10, 23:01:18
ging bei mir auch nicht mit dem 1.4er..nochmal inst.den 1.4 >deinst. dann 1.3-1.33 dann ging es bei mir.
Und wenn du HDR+AA willst muß Du den 1.4 Beta Patch inst.!!!!!
Dieser normale hat mir HDR+AA nix am Hut zumindest für NV Karten.


Thx, werd ich gleich probieren. HDR erzeugt tatsächlich Bildfehler :(


Hm? Wenn ich den 1.4er deinstalle, und auf 1.33 patche. Wieso soll dann der 1.4 Patch von guru mit dem 1.33er funzen?

ps.: Kann den 1.4er nicht deinstallen, muss das ganze Game entfernen^^ In Systemsteuerung->Software gibts keine deinstall-Option für 1.4...

Gast
2007-01-10, 23:07:49
Dann stimmt was anderes nicht..deinst nochmal,mit dem Patch 1.2,wenn du den Singler nimmst darfst Du den "ini" Tweak nicht anmachen!

Hab mich gerade mal in ein paar Foren umgelesen...meine Herrn Da kocht es.....wenn NV sich da bald nichts gescheides einfallen läst..außer nen verbugten Beta zum offiziellen zumachen,gibt es glaube viele ATI Käufer demnächst...

Gast
2007-01-10, 23:08:26
Thx, werd ich gleich probieren. HDR erzeugt tatsächlich Bildfehler :(


Hm? Wenn ich den 1.4er deinstalle, und auf 1.33 patche. Wieso soll dann der 1.4 Patch von guru mit dem 1.33er funzen?

ps.: Kann den 1.4er nicht deinstallen, muss das ganze Game entfernen^^ In Systemsteuerung->Software gibts keine deinstall-Option für 1.4...


nö einfach den Patch nochmal starten dann kannst Du ihn deinst.!!!!

Slipknot79
2007-01-10, 23:10:00
>Dann stimmt was anderes nicht..deinst nochmal,mit dem Patch 1.2,wenn du den Singler nimmst darfst Du den "ini" Tweak nicht anmachen!


Bin noch nicht soweit. Hatte Bildfehler bei Patch 1,4 und HDR... Jetzt installe ich gerade das Game, und schau ma mal was dabei rauskommt.


Also Reihenfolge:

Far Cry installen
Patchen bis 1.33
guru 1.4 HDR+AA anwenden

dann gehts?


(Habe vorhin Blairs Methode probiert, erzeugte noch mehr Bildfehler....)

Gast
2007-01-10, 23:10:27
Thx, werd ich gleich probieren. HDR erzeugt tatsächlich Bildfehler :(


Hm? Wenn ich den 1.4er deinstalle, und auf 1.33 patche. Wieso soll dann der 1.4 Patch von guru mit dem 1.33er funzen?

ps.: Kann den 1.4er nicht deinstallen, muss das ganze Game entfernen^^ In Systemsteuerung->Software gibts keine deinstall-Option für 1.4...

entpacken und dann siehst du zwei Verzeichnisse>diese Dateien im Game Verzeichniß ersetzen>sichere dir die alten aber!

Gast
2007-01-10, 23:12:47
ja glaubste :D
Du Pappnase :D
Du brauchst nix zu deinst.
LESEN!
Und wenn du nur HDR haben willst ohne diesen Beta mußt du natürlich AA im CP deakt.!

Slipknot79
2007-01-10, 23:13:43
ja glaubste :D
Du Pappnase :D
Du brauchst nix zu deinst.
LESEN!
Und wenn du nur HDR haben willst ohne diesen Beta mußt du natürlich AA im CP deakt.!


Ne, will AA+HDR haben^^

Gast
2007-01-10, 23:14:56
>Dann stimmt was anderes nicht..deinst nochmal,mit dem Patch 1.2,wenn du den Singler nimmst darfst Du den "ini" Tweak nicht anmachen!


Bin noch nicht soweit. Hatte Bildfehler bei Patch 1,4 und HDR... Jetzt installe ich gerade das Game, und schau ma mal was dabei rauskommt.


Also Reihenfolge:

Far Cry installen
Patchen bis 1.33
guru 1.4 HDR+AA anwenden

dann gehts?


(Habe vorhin Blairs Methode probiert, erzeugte noch mehr Bildfehler....)

datt geht ja auch nur mit dem Beta...nenene die Autobauer :D
wenn du es so inst.hast wie oben beschrieben geht es wie Blaire geschrieben hat.

Slipknot79
2007-01-10, 23:32:08
Jetzt funzt es endlich, sehe aber kein TSAA ^^

Gast
2007-01-10, 23:37:02
Und hast es hinbekommen? Ich benutze den Beta 1.4 Patch , den 1.4 Final hab ich nie ausprobiert bisher.

Hier mal ein Shot mit 1920x1200 8xAA+HDR+TRSAA/16xAF
http://img107.imageshack.us/img107/9...cry0077lu2.jpg


hast Du es so gemacht?
devmode,die cfg geändert wie beschrieben?

Slipknot79
2007-01-10, 23:43:09
Und hast es hinbekommen? Ich benutze den Beta 1.4 Patch , den 1.4 Final hab ich nie ausprobiert bisher.

Hier mal ein Shot mit 1920x1200 8xAA+HDR+TRSAA/16xAF
http://img107.imageshack.us/img107/9...cry0077lu2.jpg


hast Du es so gemacht?
devmode,die cfg geändert wie beschrieben?



Ja funzt wunderbar, thx nochmal :) Auch TSAA funzt :)

Coda
2007-01-10, 23:48:41
Hab mich gerade mal in ein paar Foren umgelesen...meine Herrn Da kocht es.....wenn NV sich da bald nichts gescheides einfallen läst..außer nen verbugten Beta zum offiziellen zumachen,gibt es glaube viele ATI Käufer demnächst...

Ach je. Alles halb so wild. Niemand gibt so schnell eine Karte zurück, und die Leute die sofort High-End kaufen (Eine 8800 GTX dürften nicht mal 1% der Leute haben) sind normal einiges gewohnt.

Die Treiber haben sich bisher immer recht schnell gefangen.

Blaire
2007-01-10, 23:48:48
Jetzt funzt es endlich, sehe aber kein TSAA ^^

Funzt ohne Probleme hier:
TRSAA an:
http://img107.imageshack.us/img107/990/farcry0077lu2.jpg

TRSAA aus:
http://img186.imageshack.us/img186/6406/farcry0076le7.jpg

Slipknot79
2007-01-10, 23:52:39
Funzt ohne Probleme hier:
TRSAA an:
http://img107.imageshack.us/img107/990/farcry0077lu2.jpg

TRSAA aus:
http://img186.imageshack.us/img186/6406/farcry0076le7.jpg


Passt schon, funzt ohne Probleme auch bei mir.

Gast
2007-01-10, 23:57:06
Ach je. Alles halb so wild. Niemand gibt so schnell eine Karte zurück, und die Leute die sofort High-End kaufen (Eine 8800 GTX dürften nicht mal 1% der Leute haben) sind normal einiges gewohnt.

Die Treiber haben sich bisher immer recht schnell gefangen.

Da bin ich mal gespannt.....im mom hat Unwinder immer noch Recht!
Und das gib mir sehr zu denken!

Zumal Er es mit den anderen GammaAA Bits sofort geschnaggelt hat...

Ailuros
2007-01-11, 06:58:33
Dieser "Antwort" ist eigentlich nichts mehr hinzu zu fügen.
Wenn Du nicht mal simpelste Vergleiche 'verstehen' willst, dann versuche ich gar nicht weiter, Dir diese näher zu bringen...
...wozu auch?

Die Wahrheit ist dass es keine pausiblen Antworten gibt fuer die gestellten Fragen. Was ich verstehen will oder nicht, regle ich direkt mit NVIDIA und ja Erfahrung hab ich genug um Bullshit aus jeder Antwort herauslesen zu koennen selbst von NV.

Dass etwas mit der HW nicht stimmen soll, kannst Du mit Sicherheit nicht wiederlegen oder dokumentieren. Alles winXP fuer 8800 wird momentan zu verdammt vernachlaessigt weil man mit voller Pulle auf Vista setzt. Ob diese nun einfache Entschuldigungen sind oder die reine Wahrheit wird sich langfristig schon zeigen. Nichtdestominder ich hab immer noch Zugang zu Treibern die noch nicht veroeffentlicht wurden und was genau die Zukunft zeigen wird.

Gast
2007-01-11, 08:36:59
Entschuldigungen sind oder die reine Wahrheit wird sich langfristig ........

....ist bei mir schon so gut wie rum.........es reicht nähmlich...aber frei nach dem Motto wer nicht will der hat..ich hab noch ne GX² die würde locker ausreichen bis zum R600...einen Treiber warte ich noch dann ist NV für mich gestorben und ich kenne einige....und das wird in keinem anderen Land anders sein...aber wie gesagt...wer nicht will der hat und ich hab die Kohle.

Gast
2007-01-11, 08:45:17
XFX XXX Bios aber vorsicht das Ding taktet dann mit 630/1000..allerdings auch nur nur mit 1.3V in 3D
http://www.mvktech.net/index.php?option=com_remository&func=fileinfo&filecatid=1940

Gast
2007-01-11, 08:47:19
http://www.mvktech.net/index.php?option=com_joomlaboard&func=view&catid=13&id=41842

der rest der Bande für die,die nicht genug bekommen... :D

Gast
2007-01-11, 09:19:02
Gothic3 mit diesen Einstellungen solls angeblich funktionieren. Nur tut es das bei mir nicht! Teste es mal bei dir und berichte.
http://www.nvnews.net/vbulletin/showpost.php?p=1082157&postcount=28
http://www.nvnews.net/vbulletin/showpost.php?p=1081310&postcount=23

wer G3 mit AA haben möchte inst.den 97.02 dann geht es!
ich habe aber bei mir die nvapps des 97.28er Treiber >nix Nebelbug bei Steam :D und vorallem taktet der Treiber richtig und mit dem XFX XXX Bios rennt das Ding wie Harry :D

CompEx
2007-01-11, 11:50:20
So, FarCry ist enträtselt!

Mit 1.4 Final geht HDR+AA nur auf ATI. Bei der G80 geht's nur mit dem 1.4 Beta. Mausproblem: Wenn du die dt. DVD hast, dann installieren, dann 1.3, dann 1.31, dann 1.33 und dann wahlweise einen der 1.4'er. Oder du nimmst gleich den 1.4 Final kumulativ, dann geht's auch direkt nach der DVD-Installation (aber kein HDR+AA mit G80). Haste 'ne engl. DVD musste vor dem 1.3 noch so nen 1.1 oder so patchen, um das Mausproblem zu umgehen.

Vielen Dank an Blair! :)

Gast
2007-01-11, 13:49:28
den 1.4 brauch eh kein Mensch der ist nur für Multiplayer und ich glaube immer noch nicht das mit dem auf Ati Karten HDR+AA geht.
Das Mausprob kommt mit dem 1.4!!!!nicht mit dem Beta.
Da muß ein Eintrag in der cfg gelöscht werden siehe Unterforum Farcry.

Gast
2007-01-11, 14:14:45
Funktioniert auf einem G80 mit dem 97.72 Splinter Cell Double Agent eigentlich mit HDR und AA gleichzeitig?

mußt doch nur die Exe in Oblivion umbenennen.

Gast
2007-01-11, 14:45:06
@Blaire
sach mal im nHancer zb. bei FarCry den Haken setzen bei "AA-Einstellungen des Spiels aufwerten"?
Oder grundsächlich auslassen und nur den Haken setzen wenn das Game selbst kein AA anbietet?

Ailuros
2007-01-11, 16:05:30
Entschuldigungen sind oder die reine Wahrheit wird sich langfristig ........

....ist bei mir schon so gut wie rum.........es reicht nähmlich...aber frei nach dem Motto wer nicht will der hat..ich hab noch ne GX² die würde locker ausreichen bis zum R600...einen Treiber warte ich noch dann ist NV für mich gestorben und ich kenne einige....und das wird in keinem anderen Land anders sein...aber wie gesagt...wer nicht will der hat und ich hab die Kohle.

Der kleine Unterschied ist leider dass an dem Quark dem Ihr alle meckert R600 nicht besser sondern schlimmer ist. Den Stromverbrauch haben sie zwar unter Kontrolle gebracht in der Zwischenzeit, die finalen Boards werden aber trotz allem mehr als G80 insgesamt verbrauchen. Aeltere Versionen mit nur <400MHz liessen die 8800GTX eher als IGP erscheinen. Noch dazu dass ATI ueber ein Halbjahr herumwerkelte um die HW-bugs die sich in die ROPs reingeschlichen hatten auszugleichen. Trotz allem wird davon das Publikum nicht viel davon merken ausser dem hohen Stromverbrauch; und es ist auch gut so denn ich zumindest will dass die Konkurrenz genauso bleibt wie in der Vergangenheit. Gleichstand (quasi) heisst meistens Preis-reduzierungen und davon profitieren alle.

Behauptungen dass G80 und G7x quasi "verwandt" sind auf HW Level, oder dass es sich um verbuggte HW handelt ist absoluter Bloedsinn. Ja die Treiber sind unreif fuer G80 aber dann eher auf Compiler Niveau; sonst ist die Anzahl der SW-bugs nicht hoeher als bei jeglichen anderen vorigen absolut neuen Generationen.

Was jeder genau mit seinem System anstellt, was er kauft/verkauft ist mir Gott sei Dank vollkommen gleichgueltig. Und ich wuensche Dir auch dass R600 Dir all Deine Probleme auf Schlag beseitigen wird, aber so verdammt optimistisch bin ich auch nicht unbedingt dass alles wirklich absolut optimal sein wird.

Blaire
2007-01-11, 16:09:04
@Blaire
sach mal im nHancer zb. bei FarCry den Haken setzen bei "AA-Einstellungen des Spiels aufwerten"?
Oder grundsächlich auslassen und nur den Haken setzen wenn das Game selbst kein AA anbietet?

Nein da brauchste kein Haken zu setzen. ;)

Blaire
2007-01-11, 16:42:55
Wer die WindowsXP 64 vom 97.92 brauchen kann:

http://station-drivers.com/telechargement/nvidia/nvidia%20forceware%2097.92-64-whql.exe

Gast
2007-01-11, 17:05:20
Der kleine Unterschied ist leider dass an dem Quark dem Ihr alle meckert R600 nicht besser sondern schlimmer ist. Den Stromverbrauch haben sie zwar unter Kontrolle gebracht in der Zwischenzeit, die finalen Boards werden aber trotz allem mehr als G80 insgesamt verbrauchen. Aeltere Versionen mit nur <400MHz liessen die 8800GTX eher als IGP erscheinen. Noch dazu dass ATI ueber ein Halbjahr herumwerkelte um die HW-bugs die sich in die ROPs reingeschlichen hatten auszugleichen. Trotz allem wird davon das Publikum nicht viel davon merken ausser dem hohen Stromverbrauch; und es ist auch gut so denn ich zumindest will dass die Konkurrenz genauso bleibt wie in der Vergangenheit. Gleichstand (quasi) heisst meistens Preis-reduzierungen und davon profitieren alle.

Behauptungen dass G80 und G7x quasi "verwandt" sind auf HW Level, oder dass es sich um verbuggte HW handelt ist absoluter Bloedsinn. Ja die Treiber sind unreif fuer G80 aber dann eher auf Compiler Niveau; sonst ist die Anzahl der SW-bugs nicht hoeher als bei jeglichen anderen vorigen absolut neuen Generationen.

Was jeder genau mit seinem System anstellt, was er kauft/verkauft ist mir Gott sei Dank vollkommen gleichgueltig. Und ich wuensche Dir auch dass R600 Dir all Deine Probleme auf Schlag beseitigen wird, aber so verdammt optimistisch bin ich auch nicht unbedingt dass alles wirklich absolut optimal sein wird.
????????????????????????????????????????????????????????????????????
wem hast du da geantwortet ..dir selbst?

Gast
2007-01-11, 17:06:22
Nein da brauchste kein Haken zu setzen. ;)


wann sollte man dann den Haken setzen?
Ist das richtig>bei Games die von sich aus kein AA anbieten?

OC_Burner
2007-01-11, 17:38:30
XFX XXX Bios aber vorsicht das Ding taktet dann mit 630/1000..allerdings auch nur nur mit 1.3V in 3D
http://www.mvktech.net/index.php?option=com_remository&func=fileinfo&filecatid=1940

Nur 1.3V? Was soll das genau heißen?

Slipknot79
2007-01-11, 17:47:03
Nur 1.3V? Was soll das genau heißen?



Also kann man per NiBitor die Spannung ändern? Glaube ich eher ned.

Gast
2007-01-11, 20:10:44
wann sollte man dann den Haken setzen?
Ist das richtig>bei Games die von sich aus kein AA anbieten?

Nein!
Dann muß man "Beliebige Anwendungseinstellung überschreiben" einstellen.

Gast
2007-01-11, 20:10:48
den 1.4 brauch eh kein Mensch der ist nur für Multiplayer und ich glaube immer noch nicht das mit dem auf Ati Karten HDR+AA geht.
Das Mausprob kommt mit dem 1.4!!!!nicht mit dem Beta.
Da muß ein Eintrag in der cfg gelöscht werden siehe Unterforum Farcry.


Oder einfach mal die Standarteinstellung laden.Dann geht die Maus auch wieder.

Kai83
2007-01-11, 21:49:34
mal ne frage, wieso hab ich bei diesen treiber keine temperaturanzeige?

Blaire
2007-01-11, 21:52:55
Dafür brauchst du Ntune das zeigt dir auch die Temps an.

Kai83
2007-01-11, 21:58:15
Dafür brauchst du Ntune das zeigt dir auch die Temps an.hab es grade raufgemacht, aber er zeigts immer noch nichts an :( neustart habe ich auch gemacht

Blaire
2007-01-11, 22:01:16
Welchen Chipsatz hat dein Motherboard?

Lotzi
2007-01-11, 22:06:42
habt ihr das problem auch das wenn ihr ntune im treiber menü startet und auf manuelles tuning/motherboard einstellungen ändern klickt das sich der komplette control panel schliesst???

probierts mal au und berichtet

getestet mit dem treiber von diesem thread hier

mfg

Kai83
2007-01-11, 22:15:33
Welchen Chipsatz hat dein Motherboard?NF4 Ultra

Kai83
2007-01-11, 22:16:25
habt ihr das problem auch das wenn ihr ntune im treiber menü startet und auf manuelles tuning/motherboard einstellungen ändern klickt das sich der komplette control panel schliesst???

probierts mal au und berichtet

getestet mit dem treiber von diesem thread hier

mfgja ist bei mir auch so

Gast
2007-01-11, 22:17:17
Dafür brauchst du Ntune das zeigt dir auch die Temps an.

Ntune funktioniert doch nur mit nem nforce chipsatz oder irre ich?

Ati75
2007-01-11, 22:56:20
Man könnte auch einfach den neuesten Rivatuner herunterladen, und in das Hardware-Monitoring schaun. Ich lass mir die Grafikkartentemperatur in der Taskleiste anzeigen.

Mit dem alten CP kannst du die aktuelle Temperatur auch ablesen.

TheRealVampire
2007-01-11, 23:07:39
So ich habe mal den only 8800 Treiber auf meine 7800Gs+ gehauen,ich bin erstaunt... funzt einwanfrei,ich finde auch eine merkbar bessere Quali in Gothic3,sind hier noch eineige mit non 8800 Karten die den Treiber nutzen,und wie er dann bei euch laüft ???
Ich werde wenn alles bis Samstag funzt mal ein paar benches machen,leider komme ich vorher nicht dazu

Razor
2007-01-12, 04:18:13
Natürlich funzt der Treiber auch mit 'alten' Karten.

Ist schließlich ein gaaaaanz normaler Referenz-Treiber, nur die Profle wurden an die 8800 angepaßt und er unterstützt eben Pfad-seitig (zusätzlich!) die 8800. Die BQ ist bei allen 96/97'ern leicht besser, was wohl derzeit den 8800 zugeschrieben werden soll, defakto aber auch auf älteren Karten Wirkung zeigt... Marketing halt.

Die Treiber bringen aber andere Probleme bei älteren Generationen mit sich, die in zugehörigen Threads auch schon ausgiebig disktuiert wurden. Man fährt dort wesentlich besser, wenn man bei den beiden letzten offiziellen 93.71 WHQL oder 93.81 beta bleibt.

Razor

Razor
2007-01-12, 04:36:50
Die Wahrheit ist dass es keine pausiblen Antworten gibt fuer die gestellten Fragen. Was ich verstehen will oder nicht, regle ich direkt mit NVIDIA und ja Erfahrung hab ich genug um Bullshit aus jeder Antwort herauslesen zu koennen selbst von NV.Schön für Dich... was wolltest Du noch gleich mit diesem Zeug zum Ausdruck bringen?
:confused:

Dass etwas mit der HW nicht stimmen soll, kannst Du mit Sicherheit nicht wiederlegen oder dokumentieren.Layout zu unförmig, echte Design-Fehler am Anfang, unglaublicher Stromverbrauch im idle = Alpha Release.
Zudem Treiber im Alpha-Stadium... alles ein bischen viel... findest Du nicht?

Aber all das wurde nun schon in diversen Threads diskutiert und ich habe keine Lust, dies für dich nochmals vorzukauen.
Der G80 hat das Licht der Welt einfach viel zu früh erblickt... 6 Monate weiteres 'Reifen' hätte ihm 'gut' getan.

Und genau diese Effekt werden wir mit G81 & Co. sehen.

Alles winXP fuer 8800 wird momentan zu verdammt vernachlaessigt weil man mit voller Pulle auf Vista setzt. Ob diese nun einfache Entschuldigungen sind oder die reine Wahrheit wird sich langfristig schon zeigen. Nichtdestominder ich hab immer noch Zugang zu Treibern die noch nicht veroeffentlicht wurden und was genau die Zukunft zeigen wird.Klar... wieder so ein schwammiges Geswäsch.
Sorry, aber wenn Du nichts sagen kannst, solltest Du es lieber ganz lassen... auch Du hast schon mal falsch gelegen.

Das, was derzeit kommt, ist auch das, was entwickelt wird.

Die X10-Generation will nicht so, wie sie soll und und hat mit massiven Abwärts-Kompatibilitätsproblemen zu kämpfen. Die alte Treiber-Architektur will nicht so recht mit DX10 und Vista, insofern scheint dies auf ein "entweder-oder" hinaus zu laufen.

Würde mich nicht wundern, wenn wir zum Start von Vista erst einmal nur DX9ex-Treiber für die G80 sehen werden... und hoffen wir mal, dass die nicht die gleichen Probleme haben, wie die, die ich erschauen durfte. Und es wird dann auch die X10-Treiber geben, die aber letztlich nur ein Technology-Preview abgeben... denn über dieses Stadium sind sie noch nicht hinaus.

Aber vielleicht überrascht uns nVidia ja doch noch... wer weiß?

Razor

Xaver Koch
2007-01-12, 08:35:44
Die Treiber bringen aber andere Probleme bei älteren Generationen mit sich, die in zugehörigen Threads auch schon ausgiebig disktuiert wurden. Man fährt dort wesentlich besser, wenn man bei den beiden letzten offiziellen 93.71 WHQL oder 93.81 beta bleibt.

Razor

Da muss ich als Besitzer einer Bliss 7800+ widersprechen. Die Bildqualität wird mit den neuen Treibern eine ganze Ecke besser und zwar so viel, dass man statt vorher 4xS (Riva Tuner) nur noch 4x (nVidia-Standart) benötigt. Mit 4xS und 2xAF steht meine 7800+ der X1800 XT im anderen Rechner in der BQ in nichts nach, im Gegenteil, die ATI konnte erst mit CAT 6.12 (da funzt endlich A AA richtig in meinen Spielen) gleichziehen und wurde erst mit dem 7.1 ähnlich flüssig in Spielen, wenn A.I. low aktiviert wurde.

Darüber hinaus ist auch die Performance der "GF8-Treiber" spürbar besser in den Spielen, dafür benötige ich keine Benchmarks. Schon mit dem 97.02 war dies der Fall, der Aktuelle 97.92 setzt da noch einmal deutlich einen drauf (so was von schnell und flüssig konnte ich bei AoE III unter 1280*1024, 4xS und 2 x AF noch nie Scrollen). Konkret laufen die Spiele viel flüssiger und gleichmäßiger, die minimalen FPS steigen an und vor allem die "Nachladeruckler" sind fast vollkommen weg (u.a. auch merkbar in GTL und GTR2). Wenn man sich einmal an die neuen Treiben gewöhnt hat, meint man nach dem Aufspielen eines 93.71 (schlimmer der 93.81 Beta), dass das System verkonfiguriert wäre, so zäh und ruckeling läuft es dann!

Für diese massiven Vorteile (fühlt sich fast wie eine neue Karte an und ich weiß vom Umstieg von 6800 GT auf 7800+ was das ist) bin ich gerne bereit ein paar Kinderkrankheiten auf mich zu nehmen, wobei nur der 97.02 das Problem hatte nach einigen Einstellungen zu viel die Performance zu verlieren (muss man halt neu installieren und dann nicht mehr so viel rumspielen).

Mit dem 97.92 lässt sich der Riva Tuner bei mir ohne Probleme einstellen und diese Werte werden auch im nVidia -Panel übernommen. Das einzige "Problemchen", welches ich feststellen konnte, ist ein manchmal wieder verschwindendes Klassisches Control-Panel, aber dann klickt man halt mal kurz auf das neue, schließt es wieder und wählt dann wieder "Klassisch" aus. Außerdem muss ich nur einmal alles einstellen und dann kann ich auch mit dem Riva-Tuner Anpassungen vornehmen.

Ich konnte darüber hinaus bei meinen Spielen (35) auf der Platte keine Probleme mit dem 97.92 feststellen.

Installation ist auch ganz einfach: Die nv4_disp.inf vom 93.71 in den entpackten Ordner vom 97.92 (dessen Überschreiben) und auf Setup, fertig.

TheRealVampire
2007-01-12, 09:14:13
Kann mich Xaver Koch nur anschliessen,im direkten Vergleich zum 93.81 Treiber rennt der 97.92 auf meiner 7800Gs+ einfach besser und zwar Bq wie auch Fps,in den gängigen Synth Benches 2003-2006 legt er bei mir im schnitt bis 300 Punkte zu,Aquamark +0.4Fps (habe ich auch nicht anders erwartet bei Aquamark)Codeccreaturs in 1280X1024 +2.8Fps(bin jdesmal erstaunt wie gut der doch aussieht),Hl2 ohne Fog Bug,liegt also an den 8800 Karten +3.1Fps,zu mehr kam ich noch nicht,muss nähmlich los arbeiten,und probleme gabs bei keinem der Benches.
Bin Begeistert,da hat also mein erster eindruck des Treibers in G3 mich nicht getaüscht :-)

Gast
2007-01-12, 14:59:46
Darum geht es doch gar nicht!
Lest Ihr eigendlich was er schreibt?
Und er hat vollkommen Recht das sage ich als G80 Nutzer,das Ding rennt wie Sau hat ne super BQ wie ich es noch nie gesehen habe,aber irgendwas stimmt nicht,den um Treiber zu basteln war NV wohl noch nie zu blöde...oder?
Ich sag nur SLI probs bis zum `28er..dann keine mehr..aber die Karten takten dann aufeinmal falsch..aber was solls,will ja eh keiner hören,denn was ich habe hat nicht schlecht zu sein....lächerlich echt!

Xaver Koch
2007-01-12, 15:26:10
Darum geht es doch gar nicht!
Lest Ihr eigendlich was er schreibt?


Tun wir und wenn Du unsere Beiträge liest, sollte Dir auffallen, das wir dem Punkt widersprechen, den 93.71 für die GF7 zu verwenden. Über Probleme mit der GF8 haben wir nicht gesprochen, aber wir sind ja brav beim Thema "97.92 WHQL" geblieben. ;)

Ailuros
2007-01-12, 19:23:48
Schön für Dich... was wolltest Du noch gleich mit diesem Zeug zum Ausdruck bringen?
:confused:

Dass Du nur BS zusammenreimst vielleicht?

Layout zu unförmig, echte Design-Fehler am Anfang, unglaublicher Stromverbrauch im idle = Alpha Release.
Zudem Treiber im Alpha-Stadium... alles ein bischen viel... findest Du nicht?

Beweise dafuer? Nein Deine "Gefuehle", "Annahmen" oder weiss der Geier was noch sind eben nicht gut genug. Der Stromverbrauch in 2D ist so nach Design und kein Unglueck, eine Fehlkonstruktion oder was Du Dir noch genau vorstellen willst. Wenn Du nicht schnallen kannst dass das Ding verdammt kompliziert ist und die auf 1.35GHz SPs kein reiner Zufall ist, dann ist es zwar Dein Problem, aber erwarte auch nicht dass niemand in einem oeffentlichen Forum nicht darauf reagiert. Welche Treiber sind noch im alpha stadium genau, oder besser welche Treiber bei einer wirklich neuen Generation waren ueberhaupt je besser?

Aber all das wurde nun schon in diversen Threads diskutiert und ich habe keine Lust, dies für dich nochmals vorzukauen.
Der G80 hat das Licht der Welt einfach viel zu früh erblickt... 6 Monate weiteres 'Reifen' hätte ihm 'gut' getan.

Nach Dir. Entschuldige aber es ist absoluter Bloedsinn.

We spoke to NVIDIA to understand why there isn’t a 8800 Vista driver currently and why we won’t see one until Vista’s launch. NVIDIA’s GPU drivers these days are made up of approximately 20 million lines of code, which as a reference point is about the size of Windows NT 4.0.

Because G70 and G80 are radically different architectures, they each require a separate driver. Combine that with the fact that Windows Vista has completely changed the driver interface, similar in magnitude to what happened between Windows 3.1 and 95, and you’ve got a “perfect storm” of conditions for driver development. The end result is that for Windows Vista, two 20M line drivers have to be completely re-written (one for G80 and one from all previous architectures). In other words, this isn’t a simple port, it’s a radical departure from the way things were written before.

There are other elements of Vista driver development that apparently require more work than before. DirectX 9, DX9 SLI, DX10 and DX10 SLI support is provided through four separate binaries, which increases the complexity of testing and the overall driver itself, whereas there was only a single driver in the past.

Interfaces for HD-DVD and Blu-ray video acceleration requires a lot more code than before, thanks to the support for a protected path for HD video under Vista. Supporting this protected path for HD content decode means that you can’t re-use the video part of your driver when developing a Vista version.

The last major difference between Windows XP and Vista driver development is that the display engine connecting monitors to the GPUs has been completely redone.

Initial investment in driver development under Vista takes up quite a bit of time, and now we understand a little more of why. While it would be nice to have one today, there’s always a tradeoff that has to be made especially when driver work this intense has to be done. Couple that with the recent launch of NVIDIA’s G80 GPU and the decision was made to focus on DX9 and XP drivers in order to make the G80’s launch as solid as possible, and commit to delivering an 8800 driver by Vista’s launch.

When the driver is eventually available NVIDIA expects performance to be at par, slightly slower or slightly faster than the XP driver. What we’ve seen thus far from other Vista drivers is that performance is slower almost entirely across the board. As stability is currently the primary goal for both ATI and NVIDIA, many compiler optimizations and performance tweaks aren’t being used in order to get a good driver out in time for Vista’s launch.

http://www.anandtech.com/displays/showdoc.aspx?i=2904&p=15

Und genau diese Effekt werden wir mit G81 & Co. sehen.

:rolleyes:

Klar... wieder so ein schwammiges Geswäsch.
Sorry, aber wenn Du nichts sagen kannst, solltest Du es lieber ganz lassen... auch Du hast schon mal falsch gelegen.

Oben dokumentiert und ich brauche es mir nicht von Anand oder jedem Anand vorplappern lassen, ein einfacher e-mail Austausch mit dem Treiber-team reicht.


Die X10-Generation will nicht so, wie sie soll und und hat mit massiven Abwärts-Kompatibilitätsproblemen zu kämpfen. Die alte Treiber-Architektur will nicht so recht mit DX10 und Vista, insofern scheint dies auf ein "entweder-oder" hinaus zu laufen.

Scheint aber nichts mit angeblicher alpha Hard- oder Software etwas gemeinsam zu haben.

Würde mich nicht wundern, wenn wir zum Start von Vista erst einmal nur DX9ex-Treiber für die G80 sehen werden... und hoffen wir mal, dass die nicht die gleichen Probleme haben, wie die, die ich erschauen durfte. Und es wird dann auch die X10-Treiber geben, die aber letztlich nur ein Technology-Preview abgeben... denn über dieses Stadium sind sie noch nicht hinaus.

*hust*

Those looking for NVIDIA’s Vista 8800 GTX driver needn’t look any further than Microsoft’s booth at CES. All of the gaming machines at Microsoft’s booth were running nForce 680i motherboards with single GeForce 8800 GTXs, under Windows Vista. The machines were running Crysis and Halo 2, and actually ran reasonably well. Halo 2 was choppy at times and there were some visual bugs with Crysis, but the driver was working and is apparently stable.

Vergleichsmaessig stabil ist er, aber nicht weil Anand es behauptet.

Razor
2007-01-13, 07:15:56
Nur aus reiner Höflichkeit...
Sollte sich Dein mehr als unangebrachter Ton nicht bessern, ist hier EOD.

...oder besser welche Treiber bei einer wirklich neuen Generation waren ueberhaupt je besser?Schlichtweg ALLE!
Die G80 stellen die 'Spitze' dar...
...aber vielleicht ändert sich das ja mit dem R600.

Und wenn Du tatsächlich meinst, dass 100W Idle-Verbrauch 'normal' sind oder dass 1350MHz im Idle notwendig sind, dann tust Du mir einfach nur leid. Das hört sich nicht nach 'Design', denn mehr nach Prototyp an. 'Kompliziert' sind Da eher Deine unhaltbaren Unterstellungen und Vermutungen, die - noch immer - durch nichts belegt sind.

http://www.anandtech.com/displays/showdoc.aspx?i=2904&p=15Auch Dir scheint noch nicht aufgefallen zu sein, dass die Treiber für G80 und die 'Alten' sich nicht wirklich großartig in der Größe Unterschieden. Und schau an - das wird Dich jetzt vermutlich echt verblüffen :rolleyes: - die Treiber laufen auch mit den G7x und darunter... der ganze 'alte' Code ist also noch drin.

Es gibt einfach noch keine 'echten' Treiber für die G80.
That's it.

Aber dass Du das in Deiner Borniertheit nicht begreifen willst oder einfach nicht kannst, ist mehr als verständlich...

Vergleichsmaessig stabil ist er, aber nicht weil Anand es behauptet.Was genau hast Du an meinen Ausführungen nicht verstanden?
:confused:

Razor

Razor
2007-01-13, 07:31:08
@Xaver

Ich will nicht direkt auf Deinen Post reagieren, weil Du Dich leider komplett auf dem Holzweg befindest. Das einzige (wenn auch wesentliche), was an den 96+ in der BQ besser ist, ist die "digital vibrance' in ihrer Voreinstellung... oder wie ich es nenne, dem "gamma default".

Das Kontrastverhältnis, die Farbintensität, wie auch die Grundhelligkeit sind schlicht 'perfekt'... wie es seinerzeit bei einigen 80'er-Treiber auch der Fall war und seine übelste Ausprägung im offiziellen 91.47 gefunden hat (dem offiziellen 'Vorfahren', des jetzigen 93.71). Insofern die allgemeine BQ (im o.g. Kontext) zwar nicht an die Perfektion der 96+ heran reicht, aber der 93.71 immer noch sehr viel besser ist, als der 91.47.

Wie dem auch sei, dass man kein SuperSampling mehr 'braucht', um ähnliche Darstellungsqualität (Filter und AntiAliasing) zu erreichen, ist absoluter Nonsense. Vielleicht meinst Du ja, dass dem so ist, aber es entspricht leider nicht der Realität, die Du anhand von Screenies sehr gut überprüfen kannst.

Die Performance ist keinen deut besser, auch das ist Fakt.
Es sei denn, Du hast 'nen anderen G71 im Rechner, als ich...
(vielleicht werd' ich den 97.92 nochmal testen, aber zumindets bei 97.02/28/44 war es so)

Und dass Du mit den offiziellen Treibern für Deine Karte Probleme hast, tut mir dann leid. Nur kann ich Deine Erfahrungen leider überhaupt nicht nachvollziehen, wie viele andere wohl auch. Insofern solltest Du vielleicht mal schaun', ob Dein System nicht vielleicht doch 'verkonfiguriert' ist.

Razor

Ailuros
2007-01-13, 08:45:31
Schlichtweg ALLE!
Die G80 stellen die 'Spitze' dar...
...aber vielleicht ändert sich das ja mit dem R600.

Dann hatte ich wohl andere GFs mit anderen Launch-Treibern in meinen vergangenen Systemen. NV40 brauchte fast ein halbes Jahr bis der Treiber ausgebuegelt wurde. Zwar gab es Probleme in ganz anderen Stellen, aber die Launch-Treiber waren damals alles andere als zu 100% akzeptabel. Beim G70 war es natuerlich um einiges besser, aber dafuer ist das Ding auch so verdammt verwandt mit NV40 dass der Gegenteil dann wirklich genug Grund zur Unruhe gewesen waere.

Wehe wenn man keine wirklich saubere Treiber-installierung mit G80 vorgeht; die Mehrzahl der Benutzer hatten Probleme wenn eine solche nicht vorgenommen wurde und mussten die Treiber immer wieder neu installieren.

Und wenn Du tatsächlich meinst, dass 100W Idle-Verbrauch 'normal' sind oder dass 1350MHz im Idle notwendig sind, dann tust Du mir einfach nur leid. Das hört sich nicht nach 'Design', denn mehr nach Prototyp an. 'Kompliziert' sind Da eher Deine unhaltbaren Unterstellungen und Vermutungen, die - noch immer - durch nichts belegt sind.

Das Q&A dass ich von NV beantragt habe, wuerde viele relevante Einzelheiten erklaeren. Ich hab keine Ahnung ob mir die Marketing-Abteilung das gruene Licht gibt, aber das was ich sagen darf ist dass NVIO mit Absicht abgetrennt wurde um Interferenzen mit den 1.35GHz ALUs zu vermeiden (und ja das Ding hat hauptsaechlich Fuell-transistoren und minimal bis zu nicht existierender Logik). Noch ein Stueck weiter es wird keine G80 basierende high end Schlepptopp Variante geben, bis zu Q3 07' wo dann erst G81M auftaucht.

Wie man jetzt das Ganze auf den Q2 07' G84/86M loesen wird, muss man wohl noch abwarten.

Auch Dir scheint noch nicht aufgefallen zu sein, dass die Treiber für G80 und die 'Alten' sich nicht wirklich großartig in der Größe Unterschieden. Und schau an - das wird Dich jetzt vermutlich echt verblüffen :rolleyes: - die Treiber laufen auch mit den G7x und darunter... der ganze 'alte' Code ist also noch drin.

Nochmal wehe wenn Du versuchst eine G80 zu betreiben wo noch Abfall von reinen vorigen G7x Treibern drinsteckt. Ein erfahrener User wie Du wird sowieso jedesmal eine absolut saubere Treiber-installation vornehmen, aber dieses gilt nicht unbedingt fuer alle User dort draussen. Wenn dann im Gegenfall eine G80 ploetzlich in 3D aus dem Blauen auf 1/3 der normalen Geschwindigkeit abkackt, rettet dann nur noch eine absolut saubere Treiberinstallierung. Den Kopfschmerzen hatte ich natuerlich nicht, denn ich konnte ja Chris' Erfahrungen mit der G80 seit ca. Mitte Oktober miterleben.

Es gibt einfach noch keine 'echten' Treiber für die G80.
That's it.

Ich hab zwar jeglichen neuen Treiber ausprobiert, aber ich gehe stets auf 97.02 zurueck. Ich hatte seit November nur ein merkwuerdiges BSOD als ich den 12xAF modus durch nHancer ausprobieren wollte. Wieso und warum keine Ahnung, aber es laeuft seither.

LockOn haengt mich ab wenn ich alles >4xMSAA in 2048*1536 versuche als weiteres Beispiel.

Ich braeuchte einiges mehr um den Treiber als "unbrauchbar" oder rein problematisch zu nennen. Das was ich eher als "unbrauchbar" nennen wuerde ist dieser nTune Furz. Ich will hoffen dass wenn sie endlich mit dem umgekrempelten CP fertig sind, dass man den Mist auch nicht mehr brauchen wird oder dass eventuell zu etwas brauchbarem hingebogen wird. Selbst die moderateste Uebertaktung kann zu Problemen fuehren, wobei ich mit Rivatuner problemlos auf 640/1050 schiessen kann.

Ein wirklich ernsthaftes Problem hatte ich in den ersten 2 Wochen selber, nur lag die eigentliche Quelle des Problems zwischen dem keyboard und dem Sessel. Wenn ich Depp das Ding in den zweiten PCIe slot schnalle und mir nicht das mobo Manual zur Hand nehme, ist es wohl klar dass ich ca. 30% weniger als normalerweise Leistung bekomme wenn die GPU nur auf einer PCIe x1 Schiene laeuft. Sie lief aber trotz allem problemlos.

Aber dass Du das in Deiner Borniertheit nicht begreifen willst oder einfach nicht kannst, ist mehr als verständlich...

Ich frag wohl lieber nicht ob Du selber eine G80 hast, aus Angst was ich nach dem "nein" lesen wuerde.

Und um Missverstaendnissen zu entgehen ich weiss genau dass Du erfahren genug als User bist und dass Dein Beitrag hier wertvoll ist. Nur liegst Du momentan auf dem total falschen Pfad. Ich hab mit Absicht fuer ein Q&A angefragt, weil ich weiss was man hier und da generell lesen kann.

Der Treiber mit hoeherer Leistung fuer G80 wird erst dann kommen, wenn NV ihn auch wirklich brauchen wird. Momentan liefert der Compiler fuer GPGPU Zeug mehr oder weniger R580 Leistung. Ich bin zwar generell allergisch gegen Konspirations-Mist, aber dass die co-issue MUL als einfaches Beispiel fehlt (wobei man sie garantiert fuer general shading benutzen kann) kann kein einfacher Zufall sein.

Was genau hast Du an meinen Ausführungen nicht verstanden?

Ich hab mich auf den D3D10 G80 Treiber bezogen; ich weiss dass Anand diesen noch nicht hat. Wer und warum diesen momentan in der Hand hat ist eine andere Geschichte ;)

Geist
2007-01-13, 11:22:45
Einbrüche der FPS bei Spielen kann ich ebenfalls nicht bestätigen, meine XFX 8800GTX leiste sich auch bei 1920 x 1200 keine Schwäche. Selbst bei 2560 x 1600 kommt es zu keinen Einbrüchen bei der Framerate z.B. bei der Map de_wanda, die von de Grafik schon recht aufwenig ist, hält die 8800GTX in den max. Detaileinstellung (allerdings HDR off, AA 4fach und AF 8fach) die FPS recht konstant. Im Schnitt liegt hier die Framerate im Außenbereich bei 80-90 FPS im Innenbereich bei 110-120 FPS. Mit V-Sync On wird die Framerate bei 57-60 FPS gehalten. Das ist schon sehr beeindrucken bei der hohen Auflösung von 2560 x 1600. Ach ja Treiberversion 97.44 und 97.92.

Ich bein kein Bechfreak und ich teste keine Grafikkarten oder Grafiktreiber, sondern mein Augenmerk gilt den zu testenden TFT-Monitoren. Mir ist es eigentlich egal ob eine Grafikkarte ein Paar FPS mehr oder weniger schafft, Hauptsache die zum Test eingesetzten Spiele laufen gut, damit eine vernünftige Beurteilung der TFTs im Bereich Spiele möglich ist.

Xaver Koch
2007-01-13, 11:57:18
@Xaver
Die Performance ist keinen deut besser, auch das ist Fakt.
Es sei denn, Du hast 'nen anderen G71 im Rechner, als ich...
(vielleicht werd' ich den 97.92 nochmal testen, aber zumindets bei 97.02/28/44 war es so)

Und dass Du mit den offiziellen Treibern für Deine Karte Probleme hast, tut mir dann leid. Nur kann ich Deine Erfahrungen leider überhaupt nicht nachvollziehen, wie viele andere wohl auch. Insofern solltest Du vielleicht mal schaun', ob Dein System nicht vielleicht doch 'verkonfiguriert' ist.

Razor

Was die Performance angeht, "TheRealVampire" hat sogar nachgemessen, also sehe ich mich nicht als "Einzelfall".

Mein System wurde um ganz sicher zu gehen nach Erwerb der BLISS 7800+ neu aufgesetzt. WinXP, Intel-Chipsatz-Treiber, dann SP2, Graka-Treiber, Creative-Treiber und aktuelles DX. Auf "Festplattenbeschleuniger" wie ntfsmax habe ich bewusst verzichtet, weil diese Dinger Nebenwirkungen wie "Nachladeruckler" aber dann eben seitens der HDs mit sich bringen.

Razor
2007-01-13, 12:44:27
Erst einmal vielen Dank für den überaus sachlichen Ton, den Du veranschlagt hast.
So kenne ich Dich und so macht es auch Spaß, Deine (jetzt) interessanten Posts zu lesen!

Dann hatte ich wohl andere GFs mit anderen Launch-Treibern in meinen vergangenen Systemen. NV40 brauchte fast ein halbes Jahr bis der Treiber ausgebuegelt wurde. Zwar gab es Probleme in ganz anderen Stellen, aber die Launch-Treiber waren damals alles andere als zu 100% akzeptabel. Beim G70 war es natuerlich um einiges besser, aber dafuer ist das Ding auch so verdammt verwandt mit NV40 dass der Gegenteil dann wirklich genug Grund zur Unruhe gewesen waere.

Na ja, der NV40 hatte eigentlich keine großartigen Probleme. Allerdings war die Verwandschaft zum NV30 so groß, dass dies analog dem von Dir über NV40 und G70 gesagtem in gleichem Maß auch für diese Konstellation zutrifft. NV3x, NV4x und G7x entstammen in etwa einer Entwicklungslinie.

Aber selbst mit dem NV30 gab es bei weitem nicht so viele Probleme, wie jetzt mit dem G80... von der Wärme-Entwicklung und damit verbunden, der wirklich schlechten Kühlung mal abgesehen... hier hat nVidia mit den Nachfolgern mächtig dazu gelernt!

Wehe wenn man keine wirklich saubere Treiber-installierung mit G80 vorgeht; die Mehrzahl der Benutzer hatten Probleme wenn eine solche nicht vorgenommen wurde und mussten die Treiber immer wieder neu installieren.Die modernen Treiber von nVidia hinterlassen keine "Reste" oder Registry-Settings. Sie deinstallieren sich komplett und es bleiben lediglich 2 Dateien zurück, die Windows 'vorhält'... warum auch immer... aber dafür kann das Treiber-Team bei nVidia nichts. Diese beiden Dateien werden bei der nächsten Treiber-Installation überschrieben, weswegen man ja auch eine Windows-Warnmeldung erhält, dass diese (versionsseitig) neuer sind, wenn man einen "Downgrade" durchführt. Diese beiden Dateien sind aber inaktiv, wenn der Treiber selbst entfernt wurde... sie können sich also keinesfalls 'störend' auswirken und tun es auch nicht.

Anders sieht es mit den G80-Treibern in Verbindung mit dem neuen ControlPanel aus. Da habe ich schon gesehen, dass diese bestimmte Registry-Settings nicht zurück nehmen, so dass diese "von Hand" entfernt werden müssen. Mit 97.44/92 scheint dies aber definitv behoben...

Ein System-Neu-Aufsetzen ist auch mit den G80 keinesfalls notwendig!
(aber zur Sicherheit habe ich selbst dies natürlich testweise getan, um selbstredend auch diese mögliche Fehlerquelle auszuschließen ;-)

Das Q&A dass ich von NV beantragt habe, wuerde viele relevante Einzelheiten erklaeren. Ich hab keine Ahnung ob mir die Marketing-Abteilung das gruene Licht gibt, aber das was ich sagen darf ist dass NVIO mit Absicht abgetrennt wurde um Interferenzen mit den 1.35GHz ALUs zu vermeiden (und ja das Ding hat hauptsaechlich Fuell-transistoren und minimal bis zu nicht existierender Logik). Noch ein Stueck weiter es wird keine G80 basierende high end Schlepptopp Variante geben, bis zu Q3 07' wo dann erst G81M auftaucht.Bei dem exorbitanten Idle-Verbrauch wäre dies auch nicht ratsam!
Nicht jeder setzt einen Schleppi als reines DTR ein...

Wie man jetzt das Ganze auf den Q2 07' G84/86M loesen wird, muss man wohl noch abwarten.Diese werden schon auf dem neuen Design basieren...

Und wenn der R600 wirklich so stark werden sollte, wie es sich derzeit abzeichnet (und ich rede hier nicht von technischen Eigenschaften, sondern lediglich der reinen Performance!), dann wird nVidia den G81 vorziehen, der zwar (jetzt) noch nicht produktionsreif, aber eigentlich schon fertig ist... dürfte in etwa 1-2 Monate dauern, bis dieser soweit ist.

Nochmal wehe wenn Du versuchst eine G80 zu betreiben wo noch Abfall von reinen vorigen G7x Treibern drinsteckt. Ein erfahrener User wie Du wird sowieso jedesmal eine absolut saubere Treiber-installation vornehmen, aber dieses gilt nicht unbedingt fuer alle User dort draussen. Wenn dann im Gegenfall eine G80 ploetzlich in 3D aus dem Blauen auf 1/3 der normalen Geschwindigkeit abkackt, rettet dann nur noch eine absolut saubere Treiberinstallierung. Den Kopfschmerzen hatte ich natuerlich nicht, denn ich konnte ja Chris' Erfahrungen mit der G80 seit ca. Mitte Oktober miterleben.Seit mitte Oktober?

OK, dann hatte er weniger mit den G70-Treibern zu kämpfen, denn mehr mit den völlig 'unsteten', frühen G80'ern... die waren wirklich unter aller Kajüte... aber eben auch nicht für die breite Masse bestimmt. Wie oben schon geschrieben, muss man bei diesen 'alten' Treibern alles mögliche beachten, was sich aber mit dem 97.44 und jetzt mit dem 97.92 wesentlich gebessert hat.

Aber klar, eine 'saubere' Treiber-Installation ist ein absolutes Muss!
Allerdings nicht erst seit den G80...

Ich hab zwar jeglichen neuen Treiber ausprobiert, aber ich gehe stets auf 97.02 zurueck. Ich hatte seit November nur ein merkwuerdiges BSOD als ich den 12xAF modus durch nHancer ausprobieren wollte. Wieso und warum keine Ahnung, aber es laeuft seither.

LockOn haengt mich ab wenn ich alles >4xMSAA in 2048*1536 versuche als weiteres Beispiel.

Ich braeuchte einiges mehr um den Treiber als "unbrauchbar" oder rein problematisch zu nennen. Das was ich eher als "unbrauchbar" nennen wuerde ist dieser nTune Furz. Ich will hoffen dass wenn sie endlich mit dem umgekrempelten CP fertig sind, dass man den Mist auch nicht mehr brauchen wird oder dass eventuell zu etwas brauchbarem hingebogen wird. Selbst die moderateste Uebertaktung kann zu Problemen fuehren, wobei ich mit Rivatuner problemlos auf 640/1050 schiessen kann.Es ist weit mehr als das...
Würde ich nur das bemängeln, da gäbe es kein 'Veto' von mir für den G80 (und hier gehört Hard- und Software zusammen!).

Prinzipiell ist es der Fakt, dass man für den G80 noch keinen Treiber hat, die Hardware aber schon "mal eben" released hat, um einen marginalen Vorteil gegenüber AMD/ATI zu haben... auch was den Developer-Support bei zukünftigen Games angeht, erhofft man sich so natürlich einen Vorteil, der aber ob der engen Zusammenarbeit von M$ und AMD/ATI in Frage zu stellen ist... selbstredend auf D3D10 bezogen.

Warum es im Prinzip keinen Treiber gibt?
Ganz einfach... die G80 werden derzeit als reine "fixed unit devices" genutzt.
Dir muss ich nicht erklären, was dies bedeutet, für die anderen hier aber trotzdem ein bildlicher Erklärungsversuch:

Bestehende Architekturen basierten auf Designs, die "fest verdrahtet" waren, es gab also immer spezialiserte Einheiten... die bekanntesten dieser dürften Vertex- und Pixelshadercores der letzten Generationen sein. Der G80 ist nun anders aufgebaut, denn er arbeitet mit sog. 'unified'-Shadercores, also Einheiten, die weitestgehend unspezialisiert sind. Selbstredend können aber mehrere dieser Einheiten kombiniert werden, um so etwas wie einen Pixelshadercore abzubilden. Selbstredend aber auch, um ganz neue Strukturen zu bilden...

Insofern hat man sich das mit den D3D9-Treiber eigentlich recht einfach gemacht... man nehme eine Voreistellung für alles und schon verhält sich die neue Architektur wie die alte.
Thats it.

Ok, so ganz ist es das nicht... prinzipiell aber schon.

So erklären sich im übrigen auch Gerüchte im Vorfeld des Releases, welch besagten, dass der G80 noch eine Architektur auf herkömmlicher Basis darstelle, aber trotzdem schon D3D10 anbietet... was natürlich vollkommener, wohl auf Mißverständnissesn basierender Unfug war. Die Architektur war/ist neu, angesprochen wird diese (im ersten Schritt), aber noch 'alt', was auch für die D3D10-EmuKits der Entwickler gilt. Ein G80 eignete sich nur sehr viel besser dafür, als die zuvor genutzten G7x... aber das würde hier jetzt zu weit führen.

Egal...

Der Treiber 'initialisiert' den G80 als G7x und benutzt die alten Render-Pfade... weitestgehend zumindest. Da, wo es so nicht funktioniert, wird nachgeflickt... und schon habe ich eine fast 100%ige Kompatibilität zu allen 'alten' Games.

DAS ist es, was ich ankreide!

Selbstredend erklärt dies auch die Probleme beim Takten des G80 und auch der G7x, wenn diese mit den neuen Treibern betrieben werden. Die Hardware wird einfach noch nicht voll unterstützt und bei den G7x (und davor) wird halt angenommen, dass ein G80 drin steckt und schon kommt Murks dabei heraus. Klar kann man dem mit einem Kniff hier und da entgegen wirken, aber 100%ig ist dieses Gewurschtel ganz sicher nicht. Nicht nur nVidia 'experimentiert' hier noch, auch 3rd parity tools (wie der RivaTuner) tun dies... und kommen hier zu falschen Schlüssen.

Man umgeht Probleme mit dem G80 und seiner 'unified' Architektur einfach dadurch, dass man die Takte einfach nicht verändert. Des Teil läuft so immer mit maximalen Takten und "alles ist gut". Insofern die Treiber und das Bios hier zusammen 'werkeln', um dies so handzuhaben.

Das Thema Vista-Treiber (und damit D3D10-Treiber!) ist ein gaaaanz anderes!
Dies erfordert auch im Treiber eine völlig neue Architektur und hier ist die eigentliche Problematik zu sehen...

Der Treiber muss hier vollkommen neu geschrieben werden und das ist natürlich DIE Katastrophe schlechthin... alles, aber auch wirklich ALLES muss neu geschrieben werden.
Auch die Game-Fixes der für alte Architekturen verfügbaren Treiber... und das schlimmste ist: des ist nicht mal Abwärts-Kompatibel.

Regelrecht monströs das ist und ich hoffe, dass es nVidia und AMD/ATI hinbekommen!

Ein wirklich ernsthaftes Problem hatte ich in den ersten 2 Wochen selber, nur lag die eigentliche Quelle des Problems zwischen dem keyboard und dem Sessel. Wenn ich Depp das Ding in den zweiten PCIe slot schnalle und mir nicht das mobo Manual zur Hand nehme, ist es wohl klar dass ich ca. 30% weniger als normalerweise Leistung bekomme wenn die GPU nur auf einer PCIe x1 Schiene laeuft. Sie lief aber trotz allem problemlos.Ich empfehle Dir mal, ein Mainbaord zu benutzen, welches einen PCIe16x-Slot mechanisch nur mit 8x anbindet.
Sehr interessant, was dann passiert!

Die G80 in ihrer jetzigen Implementierung sind damit nicht einmal PCIsig-konform.
Und an den PCBs und deren Bestückung soll es nicht liegen... scheint also ein OnChip zu suchendes Problem zu sein.

Auch eine interessante Randerscheinung im übrigen, welches auf ein derzeitiges "Prototyp-Design" des G80 hinaus läuft.
Aber wer genug Geld für einen G80 hat, hat vermutlich 'eh keine "Billig-Boards", gell?
;)

Ich frag wohl lieber nicht ob Du selber eine G80 hast, aus Angst was ich nach dem "nein" lesen wuerde. So hast Du indirekt doch gefragt... insofern gibts dafür von mir auch eine indirekte Antwort:
Jain.

Und als kleiner Tip: einen G80 würde ich derzeit nicht in meinem Hauptrechner 'dulden'!

Und um Missverstaendnissen zu entgehen ich weiss genau dass Du erfahren genug als User bist und dass Dein Beitrag hier wertvoll ist. Nur liegst Du momentan auf dem total falschen Pfad. Ich hab mit Absicht fuer ein Q&A angefragt, weil ich weiss was man hier und da generell lesen kann.Wenn es nur das wäre, was man irgendwo lesen kann und könnte...

Der Treiber mit hoeherer Leistung fuer G80 wird erst dann kommen, wenn NV ihn auch wirklich brauchen wird. Momentan liefert der Compiler fuer GPGPU Zeug mehr oder weniger R580 Leistung. Ich bin zwar generell allergisch gegen Konspirations-Mist, aber dass die co-issue MUL als einfaches Beispiel fehlt (wobei man sie garantiert fuer general shading benutzen kann) kann kein einfacher Zufall sein.Passt doch ganz hervorragend zu dem zuvor gesagten, oder nicht?
Wie gesagt... ich lese nicht nur viel.

Ich hab mich auf den D3D10 G80 Treiber bezogen; ich weiss dass Anand diesen noch nicht hat. Wer und warum diesen momentan in der Hand hat ist eine andere Geschichte ;)Nicht wirklich, oder?
;)

Ich allerdings bin an kein NDC gebunden... trotzdem halte ich Einiges zurück, was meine Quellen u.U. offen legen könnte. An Effekt-Hascherei bin ich nicht intgeressiert... auch nicht daran, mit irgendwelchen Sensations-Meldungen mein Ego zu pflegen oder gar Geld zu verdienen.

Wo aber Mist exisitiert, kritisiere ich diesen... und das ist beim G80 der Fall!

Eigentlich schon interessant, dass den Leutz hier überhaupt nicht auffällt, dass ich mich momentan auf nVidia und dessen Neuerscheinung fixiere... und das, obwohl ich sonst immer als als nVidia-"Fanboy" verschrien werde. Dass dies nur daran liegt, dass AMD/ATI mit dem R580 ein wirklich 'rundes' Produkt geglückt ist und es darfan kaum etwas auszusetzen gibt... verhält sich allerdings ähnlich dem G7x, der ja das Ende einer Entwicklungslinie darstellt.

"Haben" kann ich alle Hardware der Welt... wenn ich will.
Ich bin allerdings sehr wählerisch, was ich als Hauptrechner zu hause benutze...

"Leistung" ist für mich (nahezu) vollkommen irrelevant.

Razor

Gast
2007-01-13, 14:18:03
jaja laaber laaber :D
schon eigenartig das alle Leute die Ahnung haben oder auch nicht :D ?
zum 97.02 zurück gehen..........

Razor
2007-01-14, 06:59:53
Würde ich so nicht sagen... oder doch?
Who knows?
:D

Habe das Treiberle jetzt mal mit meiner 7900GT getestet:
Einseits wieder postov, andererseits 'merkwürdig' und wieder 'interessant'... aber wirklich 'gut'?

Zu finden ist die benutzte INF wieder im Anhang dieses Posts und unterstützt folgende Grakfikkarten/Chips:

NVIDIA_NV30.DEV_0301.1 = "NVIDIA GeForce FX 5800 Ultra"
NVIDIA_NV30.DEV_0302.1 = "NVIDIA GeForce FX 5800"
NVIDIA_NV31.DEV_0311.1 = "NVIDIA GeForce FX 5600 Ultra"
NVIDIA_NV31.DEV_0312.1 = "NVIDIA GeForce FX 5600"
NVIDIA_NV31.DEV_0314.1 = "NVIDIA GeForce FX 5600XT"
NVIDIA_NV34.DEV_0321.1 = "NVIDIA GeForce FX 5200 Ultra"
NVIDIA_NV34.DEV_0322.1 = "NVIDIA GeForce FX 5200"
NVIDIA_NV34.DEV_0323.1 = "NVIDIA GeForce FX 5200LE"
NVIDIA_NV34.DEV_0326.1 = "NVIDIA GeForce FX 5500"
NVIDIA_NV34.DEV_0327.1 = "NVIDIA GeForce FX 5100"
NVIDIA_NV35.DEV_0330.1 = "NVIDIA GeForce FX 5900 Ultra"
NVIDIA_NV35.DEV_0331.1 = "NVIDIA GeForce FX 5900"
NVIDIA_NV35.DEV_0332.1 = "NVIDIA GeForce FX 5900XT"
NVIDIA_NV35.DEV_0333.1 = "NVIDIA GeForce FX 5950 Ultra"
NVIDIA_NV35.DEV_0334.1 = "NVIDIA GeForce FX 5900ZT"
NVIDIA_NV36.DEV_0341.1 = "NVIDIA GeForce FX 5700 Ultra"
NVIDIA_NV36.DEV_0342.1 = "NVIDIA GeForce FX 5700"
NVIDIA_NV36.DEV_0343.1 = "NVIDIA GeForce FX 5700LE"
NVIDIA_NV36.DEV_0344.1 = "NVIDIA GeForce FX 5700VE"
NVIDIA_NV40.DEV_0040.1 = "NVIDIA GeForce 6800 Ultra"
NVIDIA_NV40.DEV_0041.1 = "NVIDIA GeForce 6800"
NVIDIA_NV40.DEV_0042.1 = "NVIDIA GeForce 6800 LE"
NVIDIA_NV40.DEV_0043.1 = "NVIDIA GeForce 6800 XE"
NVIDIA_NV40.DEV_0044.1 = "NVIDIA GeForce 6800 XT"
NVIDIA_NV40.DEV_0045.1 = "NVIDIA GeForce 6800 GT"
NVIDIA_NV40.DEV_0047.1 = "NVIDIA GeForce 6800 GS"
NVIDIA_NV40.DEV_0048.1 = "NVIDIA GeForce 6800 XT "
NVIDIA_NV41.DEV_00C0.1 = "NVIDIA GeForce 6800 GS "
NVIDIA_NV41.DEV_00C1.1 = "NVIDIA GeForce 6800 "
NVIDIA_NV41.DEV_00C2.1 = "NVIDIA GeForce 6800 LE "
NVIDIA_NV41.DEV_00C3.1 = "NVIDIA GeForce 6800 XT "
NVIDIA_NV43.DEV_0140.1 = "NVIDIA GeForce 6600 GT"
NVIDIA_NV43.DEV_0141.1 = "NVIDIA GeForce 6600"
NVIDIA_NV43.DEV_0142.1 = "NVIDIA GeForce 6600 LE"
NVIDIA_NV43.DEV_0143.1 = "NVIDIA GeForce 6600 VE"
NVIDIA_NV43.DEV_0145.1 = "NVIDIA GeForce 6610 XL"
NVIDIA_NV43.DEV_0147.1 = "NVIDIA GeForce 6700 XL"
NVIDIA_NV43.DEV_014F.1 = "NVIDIA GeForce 6200"
NVIDIA_NV44.DEV_0160.1 = "NVIDIA GeForce 6500"
NVIDIA_NV44.DEV_0161.1 = "NVIDIA GeForce 6200 TurboCache(TM)"
NVIDIA_NV44.DEV_0162.1 = "NVIDIA GeForce 6200SE TurboCache(TM)"
NVIDIA_NV44.DEV_0163.1 = "NVIDIA GeForce 6200 LE"
NVIDIA_NV44.DEV_016A.1 = "NVIDIA GeForce 7100 GS"
NVIDIA_NV44.DEV_0221.1 = "NVIDIA GeForce 6200 "
NVIDIA_NV44.DEV_0222.1 = "NVIDIA GeForce 6200 A-LE"
NVIDIA_G70.DEV_0090.1 = "NVIDIA GeForce 7800 GTX"
NVIDIA_G70.DEV_0091.1 = "NVIDIA GeForce 7800 GTX "
NVIDIA_G70.DEV_0092.1 = "NVIDIA GeForce 7800 GT"
NVIDIA_G71.DEV_0290.1 = "NVIDIA GeForce 7900 GTX"
NVIDIA_G71.DEV_0291.1 = "NVIDIA GeForce 7900 GT/GTO"
NVIDIA_G71.DEV_0292.1 = "NVIDIA GeForce 7900 GS"
NVIDIA_G71.DEV_0293.1 = "NVIDIA GeForce 7950 GX2"
NVIDIA_G71.DEV_0294.1 = "NVIDIA GeForce 7950 GX2 "
NVIDIA_G71.DEV_0295.1 = "NVIDIA GeForce 7950 GT"
NVIDIA_G72.DEV_01D1.1 = "NVIDIA GeForce 7300 LE"
NVIDIA_G72.DEV_01D3.1 = "NVIDIA GeForce 7300 SE"
NVIDIA_G72.DEV_01DD.1 = "NVIDIA GeForce 7500 LE"
NVIDIA_G72.DEV_01DF.1 = "NVIDIA GeForce 7300 GS"
NVIDIA_G73.DEV_0391.1 = "NVIDIA GeForce 7600 GT"
NVIDIA_G73.DEV_0392.1 = "NVIDIA GeForce 7600 GS"
NVIDIA_G73.DEV_0393.1 = "NVIDIA GeForce 7300 GT"
NVIDIA_G73.DEV_0394.1 = "NVIDIA GeForce 7600 LE"
NVIDIA_G73.DEV_0395.1 = "NVIDIA GeForce 7300 GT "
NVIDIA_G80.DEV_0190.1 = "NVIDIA GeForce 8800 unknown 1"
NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0192.1 = "NVIDIA GeForce 8800 unknown 2"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"
NVIDIA_G80.DEV_0197.1 = "NVIDIA GeForce 8800 unknown 3"
NVIDIA_G80.DEV_019D.1 = "NVIDIA GeForce 8800 unknown 4"
NVIDIA_NV48.DEV_0211.1 = "NVIDIA GeForce 6800 "
NVIDIA_NV48.DEV_0212.1 = "NVIDIA GeForce 6800 LE "
NVIDIA_NV48.DEV_0215.1 = "NVIDIA GeForce 6800 GT "
NVIDIA_NV48.DEV_0218.1 = "NVIDIA GeForce 6800 XT "
NVIDIA_C51.DEV_0240.1 = "NVIDIA GeForce 6150"
NVIDIA_C51.DEV_0241.1 = "NVIDIA GeForce 6150 LE"
NVIDIA_C51.DEV_0242.1 = "NVIDIA GeForce 6100"
NVIDIA_C61.DEV_03D0.1 = "NVIDIA GeForce 6100 nForce 430"
NVIDIA_C61.DEV_03D1.1 = "NVIDIA GeForce 6100 nForce 405"
NVIDIA_C61.DEV_03D2.1 = "NVIDIA GeForce 6100 nForce 400"
NVIDIA_C61.DEV_03D5.1 = "NVIDIA GeForce 6100 nForce 420"
NVIDIA_BR02.DEV_00F1.1 = "NVIDIA GeForce 6600 GT "
NVIDIA_BR02.DEV_00F2.1 = "NVIDIA GeForce 6600 "
NVIDIA_BR02.DEV_00F3.1 = "NVIDIA GeForce 6200 "
NVIDIA_BR02.DEV_00F4.1 = "NVIDIA GeForce 6600 LE "
NVIDIA_BR02.DEV_00F5.1 = "NVIDIA GeForce 7800 GS"
NVIDIA_BR02.DEV_00F6.1 = "NVIDIA GeForce 6800 GS/XT"
NVIDIA_BR02.DEV_00F9.1 = "NVIDIA GeForce 6800 Series GPU"
NVIDIA_BR02.DEV_00FA.1 = "NVIDIA GeForce PCX 5750"
NVIDIA_BR02.DEV_00FB.1 = "NVIDIA GeForce PCX 5900"
NVIDIA_BR02.DEV_00FC.1 = "NVIDIA GeForce PCX 5300"
NVIDIA_BR02.DEV_02E0.1 = "NVIDIA GeForce 7600 GT "
NVIDIA_BR02.DEV_02E1.1 = "NVIDIA GeForce 7600 GS "
NVIDIA_BR02.DEV_02E2.1 = "NVIDIA GeForce 7300 GT "
Auch die 8800 können ohne Einschränkung mit dieser modifizierten Installationsroutine genutzt werden, da diese lediglich um die 'alten' "NV3x" (und folgende ;-) erweitert, sonst aber nichts verändert wurde. Lediglich der Eintrag "SedonaDisable=2" wurde hinzu gefügt, um die Nutzung des alten ControlPanels zu ernöglichen. Die WHQL-Zertifizierung ist natürlich für die G80 futsch... selbstredend... die INF wurde ja verändert.

Apropos, altes ControlPanel... wer dieses nutzen möchte, sollte (wie bei den Series95 zuvor auch), den Kontext-Menü-Eintrag für den Desktop aktiviert lassen. Wird dieser deaktiviert, 'verschwindet' das alte Panel... dieses kann dann nur durch wechselseitiges Aktiveren ( -> neues Panel -> altes Panel ) zurück geholt werden und dabei wird dann auch wieder das Kontext-Menü erweitert. Das Systray-Tool kann gerne deaktiviert werden... wie ich es tat.

Zu der INF...

Dazu gibt es nicht wirklich viel zu sagen, da sich diese im Aufbau nicht einmal zu den 'alten' Treibern (Series90) wirklich unterscheidet. OK, das neue ControlPanel wird etwas anders aktiviert, welches aber nur eine andere Methode, wohl aber mit dem gleichen Ergebnis darstellt. Und das alte ControlPanel läßt sich natürlich aktivieren (o.g. Hinweis beachten!) und ist auch voll Funktional, wenn man mal von den unsupporteten "Coolbits"-Funktionalitäten, wie dem OC-Panel, absieht.

Interessanter wiese wird nun der "nVidia Display Service" wieder per Default aktiviert!

Da war eine Eigenart, die bisher alle Series95 betraf... nämlich, dass der Display-Service vollständig deaktiviert wurde. Vermutlich gab es Probleme im Zusammenhang mit den G80 und deswegen wurde er einfach abgeschaltet. Dies scheint aber nun behoben... und so ist der Treiber wieder vollumfänglich aktiv (vermutlich bekommt es nVidia bei den G80 langsam mit der UDA-Kompatibilität wieder hin ;-).

Unterschiede in den Profilen zu 97.44:
(für die G80-User und die SLI-Freunde unter diesen, weil nicht wirklich mit den 'alten' verträglich!)

- 3DMark06: "aa-default" (Grundeinstellung AntiAliasing) wieder entfernt
- Unreal Engine 3: wurde gesplittet, um "Gears of War" ein eigenes Profil zu geben, sonst aber keine Veränderung
- Lego Star Wars 2: weitere EXE (LegoStarWarsII.exe) hinzu gefügt, sonst keine Veränderung

Zusätzliche (SLI-) Profile:
- MU Online
- Bone
- Alpha Prime
- Baghdad Central: Desert Gunner
- Sprint Cars: Road to Knoxville
- Moorhuhn Karts 2 XS
- Eragon
- Virtual Skipper 4
- Prison Tycoon 2
- Santa Ride! 2
- Blood Magic
- Lost Legends
- MiniGolf Mania

Und noch einmal der Hinweis: die G80-SLI-Profile müssen nicht zwangsläufig mit den 'alten' Chips funktionieren. Habe schon mehrfaches Feedback dazu erhalten, die diese Warnung stützen.

Ich selber eliminiere schlicht ALLE Profile vor (!) der Installation des Treibers, da ich keines davon benötige. Es werden zwar auch uralte Games gefixt, die sich aber nicht (mehr) auf meinem Rechner befinden (Alice und Q3 z.Bsp.) und so ein diesbezügliches Profil sinnfrei wäre. Ich starte also immer mit einem grundsätzlich leeren Profil-System...

Was mir sonst noch so aufgefallen ist...

Die Optimierungs-Einstellungen fallen nicht immer wieder zurück!

Was mich bei den vorherigen Series95 (bis 97.28) geärgert hat, ist der Umstand, dass sich einige Optimierungs-Einstellungen immer wieder "von selbst" geändert haben... so z.Bsp. auf TriOpt=Off und AnisoSampleOpt=On... ärgerlich, da diese Einstellungen gerade für Vergleiche immer wieder überprüft werden mussten... ähnlich wie bei dem 3D-Takt für den Speicher...

...das 'Umschalten' des Speicher-Taktes.

Auch hier war extrem nervig, dass es der Treiber ab und an einfach vergaß, den Speichertakt beim Start einer 3D-Anwendung anzuheben... keine Ahnung warum dies so war. Ich schreibe dieses Verhalten mittlerer Weile dem Umstand zu, dass nVidia an den Treibern heftigst 'bastelt', um die G80-Hardware zu unterstützten... und das dies - wie an anderer Stelle schon ausgeführt - wohl über den G7x-Pfad passiert (wie im übrigen die Render-Engine auch), zeigt sich dies mehrwürdige Verhalten bei älteren Chips... wobei die Anzeige eines viel zu hohen Spechertaktes (Verdopplung oder gar Vervierfachung) ja noch regelrecht harmlos ist... solange man ihn nicht verändert.

Ich bin dieser Problematik aus dem Weg gegangen, indem ich "mal eben" (*grmpf*) die Bios-Einstellungen meiner 7900GT geändert habe... vorher 2D=450/660 vs. 3D=685/885 und jetzt 2D=450/885 vs. 3D=685/885. Obs das jetzt gebracht hat, vermag ich nur bedingt zu sagen... denn offenbar schaltet der Treiber auch die GPU ab und mal 'gerne' nicht hoch... aber dazu dann mehr bei den Benchmarks.

Zu den Video-Beschleunigungen...

Tjo... "PureVideo" bzw. "PureVideo HD"... meint die Hardware-Unterstützung von Video-Playern/-Codecs, die sich der sog. DXVA-Schnittstelle von DirectX bedienen. Zu diesen Playern gehören die von mir getesteten WMP11 und PowerDVD7 (build 2211a) und folgendes kam dabei heraus:

MPEG2/SVCD und AVI (DivX/XVid) wurden 'sauber' abgespielt und verursachten zwischen 25 und 35% Last auf der im Idle-Mode bleibenden CPU bei 1GHz. Dies ist normal und bedarf keines weiteren Kommentars... obwohl... doch, natürlich:

Mit den Series90 hat sich das Problem eingeschlichen, dass hardware-beschleunigtes Vollbild-Video irgendwie etwas ganz böses ist und fortan gab es Murks, wenn DXVA-Beschleunigung und Vollbild gleichzeitig aktiv war... da gab es 'harmlose' Varianten, bei denen lediglich das Video gestaucht (4:3) oder gestreckt (16:9) wurde und weniger harmlose Dinge, wie dass ein hardware-beschleunigtes MPEG2 im Vollbild noch immer die Original-Auflösung hatte, der Rest des Bildschirms dann mit lustigen Bildfehlern gefüllt wurde. Und ach ja... auch der Clone-Modus wollte in dieser Konstellation gar nicht mehr (richtig).

Dies hat sich nun geändert... zwar funktioniert der Clone-Modus noch immer nicht (nur hier noch Stretching/Stauching ;-), aber alles andere scheint OK... na ja, fast alles... denn nun will die Hardware-Beschleunigung mit MPEG2-HD nicht mehr... lustiges flackern und ruckeln sind die Folge... schaltet man die Hardware-Beschleunigung ab, ist die CPU-Last zwar höher, aber die Probleme sind Geschichte. Und da alles andere zu funktionieren scheint, kann man davon ausgehen, dass dies lediglich ein Treiber-Bug ist und sich die Hardware hinsichtlich der Video-Beschleunigung zwischen G80 und 'davor' nicht sonderlich unterscheidet.

Ansonsten sei an dieser Stelle noch gesagt, dass H.264 (QuickTime) und WMV-HD (M$) keinerlei Probleme machten und letzteres lediglich bei "StepIntoLiquid-1080i" im PDVD7 nicht 'gut' aussah, da das AspectRatio nicht korrekt war... das ist aber weniger nVidias Problem.

Da die Video-Funktionalitäten in Summe sich aber nun zum besseren entwickelten, von mir ein: :up:

Ich hoffe, dass sich nVidias Entwickler dadurch angespornt fühlen, den 'Rest' auch noch zu beseitigen:
- MPEG2-HD "lustiges flackern und ruckeln"
- Clone-Modus "lustiges stretch'n'crunch"

Aber die haben wohl andere Probleme... insofern ist hier mehr ein Wunsch der Vater des Gedanken ;)

Nun aber zu den Benchmarks...

Hier also mal ein Vergleich zwischen dem offiziellen 93.71 WHQL, dem 97.02 (modded) und dem hier diskutierten 97.92 (modded):

Allerdings findet sich hier noch eine 4. Spalte, bei der aber nur Werte für die "Feature-Tests" des Murks06 und den kompletten Shadermark 2.1 eingetragen sind. Dies ist kein Fehler, sondern voll beabsichtigt und ich werde nach der Aufstellung darauf Bezug nehmen...

Opteron 148 @ FX-57 (2,75GHz)
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
ASROCK 939DUAL SATA-2 (Uli M1695/1567) Bios 1.60
2x512MB/2x256MB (1.5GB DC) Corsair PC3500 CL2 @ 2.5-3-3-8-2T
nVidia GeForce 7900GT @ 685/885 with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c

"Q" means 4xMSAA if possible and 8xAF
('Quality' with TriOpt On, AnisoOpts Off, GCA/TAA Off, Clamp)

----------------------------------------------------------------------------------------
3DMark2006 (110) 93.71 97.02 Diff 97.92 Diff 97.92 Diff
WHQL mod mod -doku-
----------------------------------------------------------------------------------------
3DMarks 6.132 6.134 0,03% 6.140 0,13% - -

-SM2 Score 3.110 3.111 0,03% 3.108 - 0,06% - -
-SM3 Score (HDR) 3.209 3.225 0,50% 3.218 0,28% - -
-CPU Score 1.082 1.077 - 0,46% 1.084 0,18% - -
-Game Score 0 0 - 0 - 0 -

Game1 (SM2) 25,12 25,12 - 0,01% 25,14 0,05% - -
Game2 (SM2) 26,70 26,72 0,07% 26,67 - 0,14% - -
CPU1 (Game) 0,34 0,34 - 0,56% 0,34 - 0,02% - -
CPU2 (Game) 0,55 0,55 - 0,28% 0,55 0,35% - -
Game3 (HDR) 28,97 29,19 0,75% 29,00 0,12% - -
Game4 (HDR) 35,22 35,32 0,30% 35,35 0,37% - -

Fillrate(Single) 6964,24 6962,77 - 0,02% 6962,07 - 0,03% 6962,42 - 0,03%
Fillrate(Multi) 15925,06 15924,26 - 0,01% 15923,47 - 0,01% 8842,64 - 44,47%
Pixel Shader 451,45 451,36 - 0,02% 446,86 - 1,02% 446,86 - 1,02%
Vertex-S. simple 140,12 140,09 - 0,02% 140,10 - 0,01% 40,45 - 71,13%
Vertex-S. complex 68,41 68,36 - 0,07% 68,33 - 0,12% 68,39 - 0,03%
Shader Particles 22,73 22,73 0,01% 22,73 0,01% 22,84 0,49%
Perlin Niose 106,68 108,04 1,28% 108,04 1,28% 108,16 1,39%

Triangles - 8 3,84 3,84 0,05% 3,85 0,39% - -
Triangles - 32 11,61 11,60 - 0,02% 11,66 0,46% - -
Triangles - 128 38,28 38,29 0,01% 38,43 0,38% - -
Triangles - 512 96,03 96,04 0,00% 96,15 0,12% - -
Triangles - 2048 144,85 144,83 - 0,02% 144,95 0,06% - -
Triangles - 32768 172,17 172,20 0,02% 172,14 - 0,01% - -

----------------------------------------------------------------------------------------
3DMark2005 (110) 93.71 97.02 Diff 97.92 Diff 97.92 Diff
WHQL mod mod -doku-
----------------------------------------------------------------------------------------
3DMarks 10.701 10.651 - 0,47% 10.723 0,21% - -

-Game1 44,20 43,86 - 0,77% 44,24 0,08% - -
-Game2 33,06 32,90 - 0,49% 33,14 0,26% - -
-Game3 53,68 53,59 - 0,16% 53,83 0,28% - -

CPUMarks 5.279 5.493 4,05% 5.487 3,94% - -

-CPU1 2,50 2,68 7,21% 2,66 6,62% - -
-CPU2 4,96 5,01 0,96% 5,03 1,31% - -

Fillrate(Single) 7066,73 7065,24 - 0,02% 7091,87 0,36% - -
Fillrate(Multi) 15906,91 15910,35 0,02% 15908,76 0,01% - -
Pixel Shader 434,83 434,63 - 0,05% 434,87 0,01% - -
Vertex-S. simple 85,72 85,78 0,07% 85,68 - 0,05% - -
Vertex-S. complex 68,41 68,38 - 0,04% 68,35 - 0,09% - -

Triangles - 8 3,76 3,76 0,00% 3,77 0,39% - -
Triangles - 32 11,63 11,63 0,01% 11,68 0,48% - -
Triangles - 128 38,33 38,34 0,02% 38,48 0,37% - -
Triangles - 512 97,18 97,24 0,06% 97,33 0,15% - -
Triangles - 2048 146,68 146,71 0,02% 146,77 0,06% - -
Triangles - 32768 174,73 174,68 - 0,03% 174,75 0,01% - -

----------------------------------------------------------------------------------------
3DMark2003 (360) 93.71 97.02 Diff 97.92 Diff 97.92 Diff
WHQL mod mod -doku-
----------------------------------------------------------------------------------------
3DMarks 21.803 21.800 - 0,01% 21.896 0,43% - -

-Game1 402,68 404,14 0,36% 411,34 2,15% - -
-Game2 186,54 186,48 - 0,03% 186,38 - 0,09% - -
-Game3 147,07 146,75 - 0,22% 147,00 - 0,05% - -
-Game4 130,17 130,25 0,06% 131,18 0,78% - -

CPUMarks 1.175 1.187 1,02% 1.195 1,70% - -

-CPU1 141,50 140,39 - 0,78% 142,18 0,48% - -
-CPU2 19,10 19,72 3,22% 19,71 3,16% - -

Fillrate(Single) 6006,00 6008,40 0,04% 6001,56 - 0,07% - -
Fillrate(Multi) 15300,82 15302,79 0,01% 15356,19 0,36% - -
Vertex Shader 64,60 64,99 0,61% 64,89 0,45% - -
Pixel Shader 2.0 455,14 257,05 - 43,52% 257,39 - 43,45% - -
Ragtroll 96,38 96,08 - 0,31% 95,91 - 0,48% - -

no sounds 74,11 73,84 - 0,35% 77,83 5,03% - -
24 sounds 63,25 59,92 - 5,27% 63,44 0,30% - -
60 sounds 58,17 54,37 - 6,54% 57,93 - 0,40% - -
-diff 24 s. - 14,65% - 18,86% - 18,49% - -
-diff 60 s. - 21,51% - 26,38% - 25,57% - -

----------------------------------------------------------------------------------------
Aquamark 3 93.71 97.02 Diff 97.92 Diff 97.92 Diff
WHQL mod mod -doku-
----------------------------------------------------------------------------------------
Aquamarks 91.468 91.970 0,55% 91.593 0,14% - -

-GFX Score <> 15.260 - 15.020 - - -
-CPU Score <> 11.575 - 11.737 - - -

Avg. FPS 91,47 91,97 91,59 - -
Avg. TriCnt (mio) 27,53 27,69 27,57 - -

Details
-Chapter 1 112,65 113,07 0,37% 113,23 0,52% - -
-Chapter 2 87,29 87,86 0,66% 87,60 0,36% - -
-Chapter 3 94,85 95,13 0,29% 95,49 0,68% - -
-Chapter 4 85,77 83,46 - 2,70% 83,36 - 2,81% - -
-Chapter 5 88,66 88,65 - 0,01% 88,10 - 0,63% - -
-Chapter 6 99,56 99,87 0,31% 99,48 - 0,08% - -
-Chapter 7 99,08 100,00 0,92% 98,77 - 0,32% - -
-Chapter 8 83,74 84,19 0,53% 83,87 0,15% - -
-Chapter 9 73,21 75,82 3,56% 74,92 2,33% - -

----------------------------------------------------------------------------------------
Shadermark 2.1 93.71 97.02 Diff 97.92 Diff 97.92 Diff
WHQL mod mod -doku-
----------------------------------------------------------------------------------------
-Shader 1 - - - - - - -
-Shader 2 1.687 1.988 17,84% 1.988 17,84% 1.807 7,11%
-Shader 3 1.686 1.687 0,06% 1.687 0,06% 1.566 - 7,12%
-Shader 4 1.686 1.686 0,00% 1.686 0,00% 1.566 - 7,12%
-Shader 5 1.506 1.505 - 0,07% 1.506 0,00% 1.385 - 8,03%
-Shader 6 1.506 1.687 12,02% 1.686 11,95% 1.566 3,98%
-Shader 7 1.506 1.505 - 0,07% 1.506 0,00% 1.505 - 0,07%
-Shader 8 994 1.084 9,05% 1.084 9,05% 1.024 3,02%
-Shader 9 1.810 1.987 9,78% 1.986 9,72% 1.838 1,55%
-Shader 10 1.576 1.687 7,04% 1.687 7,04% 1.687 7,04%
-Shader 11 1.505 1.506 0,07% 1.506 0,07% 1.505 0,00%
-Shader 12 844 994 17,77% 994 17,77% 964 14,22%
-Shader 13 903 994 10,08% 994 10,08% 964 6,76%
-Shader 14 1.082 1.084 0,18% 1.084 0,18% 1.084 0,18%
-Shader 15 753 843 11,95% 844 12,08% 830 10,23%
-Shader 16 783 843 7,66% 843 7,66% 832 6,26%
-Shader 17 993 1.084 9,16% 1.084 9,16% 1.084 9,16%
-Shader 18 119 129 8,40% 129 8,40% 128 7,56%
-Shader 19 404 460 13,86% 460 13,86% 450 11,39%
-Shader 20 154 159 3,25% 159 3,25% 158 2,60%
-Shader 21 223 237 6,28% 238 6,73% 235 5,38%
-Shader 22 331 361 9,06% 361 9,06% 361 9,06%
-Shader 23 361 401 11,08% 401 11,08% 391 8,31%
-Shader 24 253 271 7,11% 271 7,11% 269 6,32%
-Shader 25 236 261 10,59% 261 10,59% 261 10,59%
-Shader 26 229 253 10,48% 253 10,48% 251 9,61%

----------------------------------------------------------------------------------------
93.71 97.02 Diff 97.92 Diff 97.92 Diff
WHQL mod mod -doku-
----------------------------------------------------------------------------------------

Codecreatures 114,8 109,7 - 4,44% 108,9 - 5,14% <> -
-max 189 183 - 3,17% 181 - 4,23% <> -

GLMark 192,7 185,5 - 3,74% 185,3 - 3,84% <> -
-min 101 103 1,98% 104 2,97% <> -
-max 416 413 - 0,72% 403 - 3,13% <> -

ImgTech
-VillageMarkD3D 473 487 2,96% 487 2,96% <> -
-VillageMarkOGL 490 505 3,06% 503 2,65% <> -

----------------------------------------------------------------------------------------

TR6:AoD (paris3)
- 1280x1024 197,1 196,3 - 0,38% 195,1 - 1,00% <> -
- 1280x1024 Q 134,7 134,7 0,01% 135,7 0,74% <> -

Doom3 (demo1)
- 1280x1024 113,4 110,8 - 2,29% 112,1 - 1,15% <> -
- 1280x1024 Q 94,1 93,4 - 0,74% 94,0 - 0,11% <> -

FarCry 1.3 (trai.)
- 1280x1024 88,3 94,4 6,92% 93,9 6,28% <> -
- 1280x1024 Q 91,3 91,1 - 0,32% 90,4 - 0,99% <> -
- 1280x1024 HDR 75,5 75,6 0,12% 74,7 - 1,07% <> -
- 1280x1024 HDR Q 73,3 73,4 0,14% 72,4 - 1,28% <> -

HL2:LC VST
- 1280x1024 HDR 86,3 86,5 0,21% 87,4 1,25% <> -
- 1280x1024 HDR Q 86,8 86,1 - 0,75% 86,6 - 0,21% <> -

F.E.A.R. (ingame)
- 1280x1024 101 100 - 0,99% 102 0,99% <> -
- 1280x1024 min 43 42 - 2,33% 44 2,33% <> -
- 1280x1024 max 244 242 - 0,82% 261 6,97% <> -
- 1280x1024 Q 68 67 - 1,47% 66 - 2,94% <> -
- 1280x1024 min Q 36 37 2,78% 36 0,00% <> -
- 1280x1024 max Q 148 148 0,00% 149 0,68% <> -

Sam II (greendale)
- 1280x1024 102,0 103,7 1,67% 101,7 - 0,29% <> -
- 1280x1024 min 22 19 - 13,64% 21 - 4,55% <> -
- 1280x1024 max 210 205 - 2,38% 205 - 2,38% <> -
- 1280x1024 Q 92,9 91,8 - 1,18% 92,9 0,00% <> -
- 1280x1024 min Q 21 23 9,52% 17 - 19,05% <> -
- 1280x1024 max Q 210 199 - 5,24% 203 - 3,33% <> -

CoD II (dargo)
- 1280x1024 46,8 46,9 0,21% 47,1 0,64% <> -
- 1280x1024 Q 40,1 39,8 - 0,75% 40,2 0,25% <> -

Quake IV (guru5)
- 1280x1024 131,5 129,9 - 1,22% 130,2 - 0,99% <> -
- 1280x1024 Q 105,5 106,4 0,85% 107,9 2,27% <> -

Prey (guru3D)
- 1280x1024 128,8 131,3 1,94% 128,0 - 0,62% <> -
- 1280x1024 Q 93,7 93,8 0,11% 90,7 - 3,20% <> -

----------------------------------------------------------------------------------------Interessant...
Auf den ersten Bilck unterscheiden sich die Ergebnisse zwischen 97.02 und 97.92 nicht.

Allerdings muss dazu gesagt werden, dass der erste Durchlauf des Shadermark 2.1 z.Bsp. regelrecht desaströs war... unterirdische Performance, die nicht einmal mit dem Nicht-Hochtakten der GPU erklärt werden könnten... bei meinen damaligen Tests habe ich solcherart "Abweichungen" auf den Speichertakt geschoben, aber das kann ja nunmehr nicht sein, da dieser IMMER auf 3D Taktet und via Bios auch gar nicht anders 'kann'. Diesen ersten Test habe ich vollständig ignoriert, da er mit der sonst festgestellten Ergebnis-Menge aber auch rein gar nichts gemein hatte... ich wiederholte den Test ein zweites mal und dies resultierte in den Ergebnissen der 4. Spalte (die ja überwiegend 'leer' ist)... zwar besser, aber noch 'irendwie' inkonsistent... erst beim dritten mal kam etwas 'Vernünftiges' heraus und das Ergebnis war eigenlich zum 97.02 identisch.

Dies wäre Prinzipiell bei Benchmarks eigentlich nichts Ungewöhnliches, wenn es beim Shadermark nicht sonst ausgesprochen konsistente Ergbnisse schon beim ersten mal geben würde. Eine Wiederholung dieses Tests ist i.d.R. nicht nötig.

Auch beim 3DMurks06 gab es Auffälligkeiten in dieser Hinsicht... fielen die "Feature-Tests" beim ersten mal vollkommen aus dem Rahmen. Die Game-/CPU-Tests waren OK, wie auch die "Triangles"... aber dazwischen hat es gefunkt. Insofern sich in der 4. Spalte die Ergebnisse des ersten Durchlaufes befinden, un der 3. Spalte die des zweiten... wo dann wieder alles im Lot war.

Eingentlich erschreckend, diese Ergebnisse... aber dieser Treiber ist IMO noch Alpha... wohl auch für die G80!
Und da er für die 'Alten', obwohl voll funktional, nicht freigegeben war...

Egal, nun zu den Game-Tests... die sich nicht großartig vom 97.02 unterschieden. Klar gibt es da Unterschiede, aber diese sind nicht wirklich entscheidend, insofern ich hier jetzt nochmal auf einen direkten Vergleich von 93.71 auf "Series95"@NV3x eingehe.

Zu den Synthetischen Tests sei gesagt: Die Murkser sind sich 'einig'... es hat sich nichts getan. Der AM3 'meint', dass ein Test langsamer, dafür aber ein anderer schneller ist... in Summe ists dann wieder 'egal'. Der Shadermark hat am heftigsten 'ausgeschlagen'... sind dessen Ergebnisse wirklich arg 'durcheinander'... zwar zeigen sich Übereinstimmungen innerhalb der Series95 (mit o.g. Einschränkung), aber irgendetwas ist hier weitestgehend 'anders'. Entweder 'gleich' oder ein heftiges Plus... merkwürdig. Codecreatures ist ein wenig langsamer (nicht schneller ;-) und natürlich immer noch ein guter Lesitungsindikator. GLMark (OpenGL) und die ImgTech VillageMarks für OpenGL und D3D zumindest innerhalb der Series95 konsistent. Lediglich im Vergleich zu den Series90 zeigt sich hier der GLMark langsamer, die ImgTechs hingegen etwa 3% schneller...

Zu den Game Tests: diese möge man sich selber anschauen. Diese unterschieden sich zwischen den Treiber-Generationen nicht wesentlich... lediglich eine Auffälligkeit von 97.02 zu 97.92 sei hier bezüglich der ID-Engines für Quake4 und Prey erwähnt... während Quake4 im Quality-Modus etwa 2% zulegte, hat Prey mit etwa 3% nach gegeben... es sollte nur erwähnt werden, dass Prey zwischen den Tests von Version 1.0 auf 1.2 aktualisiert wurde und damit der Unterschied auch hier zu suchen sein kann.

Und noch ein paar Anmerkungen zu den Games im Allgemeinen: Der gesamte Benchparqour lief ohne Probleme durch (von den Synthie-'Problemchen' mal abgesehen ;-) keine Irregularitäten in der Darstellung, keine Abstürze (wie noch beim 97.02 geschehen!). Gothic3, Oblivion, Anno1701 (an welchem ich mich gestern wieder mal "fest gebissen" habe ;-) und auch DarkMessiah, NFS Carbon, CallOfJuarez, FlatOut2, Paraworld, HL2E1 oder NWN2 liefen 'sauber' und ohne jeden Anstand. Alles sah einfach nur gut aus und die Performance war absolut im grünen Bereich.

Apropos 'Aussehen'...

Muss ich an dieser Stelle eigentlich noch erwähnen, wie gut das eigentlich ausgesehen hat? Die Series95 haben einfach eine fantastische Bildqualität! Und bevor hier wieder irgendwelche Fragen oder Amerkungen zu diesem Thema kommen: nach meiner Vorstellung von Bildqualität. Ich meine damit Farbbrillianz, Grundhelligkeit (Gamma guuuuut ;-) und Kontrastreichtum an meinen geeichten Displays... etwas Vergleichbares habe ich damals nur mit DELL's 84'ern gesehen, welches so aber von den Refrenz-Treibern nVidias nie erreicht wurde... bis eben zu den Series95. Und da diese ja eigentlich nur für die G80 frei gegeben sind, sage ich dazu nur: "Nachtigal ich hör Dir trapsen!"

Offenbar sollen diese durchaus schon mal da gewesenen Grundeinstellungen in der BQ suggerieren, dass dies den G80 zu 'verdanken' ist - was aber aufgrund der identischen Wirkweise auf den 'Alten' Geschichte sein dürfte.

Und noch einmal: ich meine damit NICHT so etwas wie Filter- oder Antialiasingqualität!

Diese sind gleich geblieben, sodenn nVidia nicht wieder irgendwelche Tools, wie Aniso- oder AA-Tester 'gefaket' hat. Davon ist allerdings nicht auszugehen, da auch in den von mir getesteten Games kein Unterschied in dieser Hinsicht auszumachen war. Alles funzt so, wie es soll... AA/AF/TAA, die 'Optimierungen' und auch das 'Clamp'.

Für diese BQ-Grundeinstellungen gibt's von mir ein: :up::up::up:
Besser geht es nicht!

Und selbiges möchte ich hier noch einmal ausdrücklich auf die Video-/Overlay-Darstellung ausdehnen!

Gleichmaßen kontrastreiche, wie ausgeglichene Helligkeitseinstellungen gehen hier mit voll aktiven PureVideo-Features einher. Die Farbbrillianz ist außerordentlich gut... auch mein bevorzugtes TV-Proggie DScaler zeigt keine Schwächen und der TV-Out ist in seiner Darstellung so genial wie immer.

Kann man jetzt also ein allgemein-gültiges Fazit ziehen?

Leider nein...

Man sollte immer im Kopf behalten, dass diese Treiber nicht für 'alte' Karten frei gegeben sind und es insofern zu Irrgularitäten komen kann, weil es einfach keine Qualitätssicherung bei den alten Generationen gegeben hat. Allerdings ist doch sehr auffällig, dass sich gerade hinsichtlich der Kompatibilität viel getan hat... uns zwar bei den 'alten' Karten, wie meiner 7900GT. Dinge, die mich bei den vorherigen Series95 noch so sehr gestört haben, dass diese gleich wieder von der Platte geflogen sind, scheinen behoben... es gab keinerlei Probleme in der Darstellung und auch nicht in der Kompatibilität, so dass ich mich schon zu fragen beginne, warum diese Treiber nicht für die 'alten' frei gegeben werden...

...einfach aus Zeitdruck könnte eine logische Antwort sein.

nVidia hat derzeit an vielen Fronten zu kämpfen und vermutlich andere Prioritäten, als die Series95 mit den 'alten' Karten zu 'verheiraten'. Obwohl das natürlich für Vista passieren muss... und hier tun sich interessante Aspekte auf, die die ausgesprochen gute Qualität des 97.92 für 'alte' Karten erklären könnte... langsam aber sicher 'wachsen' die unterschiedlichen Entwicklungsschienen zusammen! Ist ganz sicher nur eine Vermutung, aber auch die durchaus vergleichbaren Versionskennungen scheinen darauf hinzuweisen... der letzte offizielle Vista-Treiber ist der 97.52, der vorherige G80-WinXP-Treiber der 97.44 und die jetzige Version lautet 97.92.

So liegt der Schluß nahe, dass sich Vista- und WinXP-Treiber gar nicht soooo sehr unterscheiden... wenn man bei DX9 (DX9c unter WinXP, DX9ex unter Vista) bleibt. Interessant nur, dass man genauso, wie man 'alte' Karten für die Series95 nicht unter WinXP freigeben möchte, die G80 unter Vista nicht frei gegeben werden.

"Ein Schelm, wer dabei böses denkt!"

Wer meinen kleinen Dialog mit Ailuros verfolgt hat, dürfte über meine Ansicht der Dinge im Bilde sein, die sich ganz in das hier gezeigte Gesamtbild einbetten lassen.

Für Vista wird es einen komplett 'neuen' DirectX10 (D3D10) Treiber geben, der dann rein gar nichts mehr mit den 'alten' (diesmal "Treibern" ;-) gemein hat. Es ist ja schon einmal die Bezeichnung "X10" aufgetaucht, welches vermutlich der Name für die völlig neue Treiber-Generation sein könnte.

Insofern scheint ein 'Abschied' von "Detonator" (einige werden das noch kennen ;-) und "ForceWare Driver" direkt bevor zu stehen... wobei 'direkt' aber natürlich einen Zeitraum von mehreren Jahren meint, bis sich D3D10-Beschleuniger und Vista durchgesetzt haben.

So prognostiziere ich mal, dass "100" und "X10" auseinander laufen werden. "X10" wird die neue Treiber-Generation darstellen, wärend "100" die alten Genrationen unter Vista und WinXP 'pflegt', bis diese vom Markt endgültig verschwunden sind (oder nVidia den Support dafür einstellt).

Jetzt würde mich eigentlich nur noch interessieren, was denn nun der Treiber für die G80 und Vista sein wird...
...meine Prognose:
1) ein Series95 ohne D3D10-Unterstützung (den es schon länger gibt ;-)
2) ein X10 mit D3D10-Unterstützung ohne wirkliche Abwärtskompatibilität

Mal sehen, wie nVidia diesen gordischen Knoten lösen wird...
(sie arbeiten mit hochdruck an einem X10 'mit', aber ob der noch rechtzeitig auf die Enduser los gelassen werden kann... wir werden sehen ;-)

Razor

P.S.: boah... schon wieder so ein langer Post!
Kann gut sein, dass dies ein wenig Vorarbeit ist, für das, was mich in den nächsten 5 Wochen erwartet...
...für mein (noch) Lieblingsforum dürfte da nur wenig Zeit sein (wenn ich es überhaupt erreichen kann ;-).

TheRealVampire
2007-01-14, 13:02:36
Respekt,Respekt, wenn hier einer Testet dann du Razor :-)
aber mal ne Frage an alle non 8800er Leuts,das die Bq besser ist ist ja klar,aber bei mir ist dieses Typische Texturflimmern die angebliche Krankheit der 7xxx Serie
auch nicht mehr vorhanden,ist das bei euch auch so???.Kann man am deutlichsten sehen bei Graslandschaften zb. G3

Gast
2007-01-14, 13:31:13
Insofern hat man sich das mit den D3D9-Treiber eigentlich recht einfach gemacht... man nehme eine Voreistellung für alles und schon verhält sich die neue Architektur wie die alte.
Thats it.Völliger Humbug.

Gast
2007-01-14, 13:52:53
Welchen Treiber sollte man denn nun tatsächlich für die 7x-er Karten verwenden? Den 97.92 oder doch den letzten offiziellen (93.71)? Oder einen völlig anderen?

Xaver Koch
2007-01-15, 13:49:49
Welchen Treiber sollte man denn nun tatsächlich für die 7x-er Karten verwenden? Den 97.92 oder doch den letzten offiziellen (93.71)? Oder einen völlig anderen?

Kommt darauf an, was Du möchtest. Der 93.71 ist offiziell seitens des Herstellers freigegeben und Du kannst Dich bei Problemen an den Support wenden. Stabil ist er auch und wenn Du keine Probleme hast und nicht selbst Hand an den Treiber anlegen willst, würde ich dabei bleiben.

Wenn Dich aber etwas am 93.71 stört (z.B. mangelnde Übertaktbarkeit der Karte), dann kannst Du ja mal einen Versuch mit dem 97.92 (geht nur mit der *.inf vom 93.71) wagen, mir gefällt er besser.

S@uDepp
2007-01-15, 18:51:32
...welchen haste denn genommen? Den offiziellen für die 88´er oder den vom 3DGuru?
Beim 3D Guru Treiber gabs bei mir nur Bluescreens wenn ich irgendein Video abspielen wollte....
Mit dem 93.71 ist alles wieder gut.

Greets
S@uDepp

Xaver Koch
2007-01-15, 20:12:18
...welchen haste denn genommen? Den offiziellen für die 88´er oder den vom 3DGuru?


Hatte einmal Probleme mit modifizierten Treibern, seitdem nur noch von der nVidia (beta)-Seite. Die "nv4_disp.inf" tausche ich dann selbst aus. Habe also den offiziellen 97.92er genommen.

Gast
2007-01-15, 22:09:35
ich muss mir also nur den 97.92er treiber von nvidia herunterladen, entpacken und dort nv4_disp.inf mit der nv4_disp.inf aus dem offiziellen 93.71er treiber ersetzen. habe ich das so richtig verstanden? ^^

kiwit
2007-01-15, 22:41:57
Jop,nur in den neu erstellten 97.92 Ordner reinkopieren !

S@uDepp
2007-01-17, 07:19:10
..sodele....
Treiber löppt inkl. Videos :)

Dann eben keinen mehr vom Guru...

THX @Xaver

Greets
S@uDepp

cl55amg
2007-01-17, 13:20:47
Ich habe seit dem 97.92er starkes "stuttering" bei BF2, hat das noch jemand?

Nightspider
2007-01-17, 16:37:59
Kann ich nun die aktuellste Version mit meiner G80 mit AA betreiben :confused:

Habe die Exe von "FarCry" in "Oblivion" umgenannt !
Was muss ich jetzt machen ?

Ich will HDR+AA auch im FarCry Multiplayer Modus!

Gast
2007-01-17, 19:07:12
quark..dafür gibt einen Beta Patch 1.4 da muß man nicht umbenennen..
coj.exe in oblivion.exe das wäre ok und geht auch "aber Schatten aus" die sind am Ar....

Gast
2007-01-18, 01:32:09
Wo kann ich eigentlich alte 8800er Treiber bekommen ?
Die letzten Versionen speichern nicht die Skalierungseinstellungen im Controlpanel. Mit 97.92 kann ich kein BF2 spielen ohne das es auf 16:10 gestreckt wird.

Slipknot79
2007-01-18, 01:38:43
Wo kann ich eigentlich alte 8800er Treiber bekommen ?
Die letzten Versionen speichern nicht die Skalierungseinstellungen im Controlpanel. Mit 97.92 kann ich kein BF2 spielen ohne das es auf 16:10 gestreckt wird.


Soweit ich weiß, schafft es keine Version zu skalieren...

Gast
2007-01-18, 09:44:04
lesen und geniesen...oder auch nicht....
http://forums.guru3d.com/showthread.php?t=205416&page=4
oha..mehr sag ich mal nicht...

Gast
2007-01-18, 09:52:15
Soweit ich weiß, schafft es keine Version zu skalieren...
Doch die 96.97......

Gast
2007-01-18, 11:01:20
Um wieviel was?

Um Vergleichbarkeit ging es auch nicht, sondern mehr um die Info, was son heutiges System an Strom verbrauchen kann unter Vollast.


Zusammenfassung (vergleichbare Werte):
System mit ATI 3D Rage II+: 130W
System mit 7800GTX 256MB: 160W
System mit 8800GTX: 201W

Alles im Desktop und Idle. Restl. PC-Komponenten waren immer die selben mit den selben Settings.mit was hast du das gemessen?

danke

Slipknot79
2007-01-18, 16:48:46
mit was hast du das gemessen?

danke


Voltcraft Energy Check 3000, gibt's beim Conrad.


Gut zu wissen@Treiber. Habe den Treiber 96.97 nicht mal getestet, muss ich verschlafen haben?!?!

Angiesan
2007-01-19, 00:55:01
lesen und geniesen...oder auch nicht....
http://forums.guru3d.com/showthread.php?t=205416&page=4
oha..mehr sag ich mal nicht...


So habe jetzt mal die Sache selbst überprüft;)

Und kann sagen, dass Unwinder hier teilweise Recht hat.

Aber eben nur teilweise.;)

Wie es bei diversen Threads bei Guru 3d.com beschrieben wird soll die 8800er
ja mit 3 clock Domains für den Speicher arbeiten. Soweit ist dies wohl richtig.

Ab dem Forceware 9728 wird aber durch den Treiber 2 der 3 Taktdomainen nicht mehr nach dem Bootvorgang hochgeschaltet
sondern bleiben bei den 400 MHZ hängen die extra für den Bootvorgang angelegt werden. Auch richtig.

Jede Taktdomaine verwaltet 256 MB Grafikspeicher. Auch richtig.

Wenn nun ein Spiel oder eine andere Anwendung sich mehr wie 256 MB Arbeitsspeicher nimmt geht die Performance in den Keller,
auf Guru 3d.com wird hier gerne mit Fear gearbeitet in der Auflösung 2560x1600 mit 4xAA und 16xAF. der Unterschied ist auch wirklich gewaltig 43 zu 34 FPS.

Was aber leider niemand zu beachten scheint ist, dass die neuen Treiber sehr
wohl hochschalten aber nicht direkt sondern erst nach ca.15 Sekunden:eek:
Damit aber noch nicht genug, bis zum hochschalten verweigert die Karte der Anwendung mehr wie 256 MB Grafikspeicher
ist sehr gut zu beobachten mit dem kleinen Tool VidMemWatchV3 von nonatainment weis leidere nicht mehr wer hinter der Seite steht:redface:

Diese Zeit ist in dem Fear internen Benchmark natürlich tödlich.

Wenn man aber ein wenig spielen geht und dann aus dem Spiel heraus den Benchmark laufen lässt, ist der neue 9792 schneller wie der 9702

im Vergleich:

Forceware 9702
Auflösung 1680 x 1050 AA 16xQ, Transparez AA auf SS, AF 16xQ, in Game alles max Softshadows aus

min 19
avg 36
max 89

Forceware 9792

min 20
avg 36
max 91

in den o.a.Einstellungen nimmt sich Fear bis zu 600 MB Grafikram:eek:
ich glaube das Maximum waren 634 MB.

Somit müßten alle Taktdomainen angesprochen werden.

Ich hätte dies gerne auch bei Guru geschrieben aber mein Englisch ist leider nicht gut genug um dies zu beschreiben.

Grüße

Gast
2007-01-19, 09:22:36
lesen und geniesen...oder auch nicht....
http://forums.guru3d.com/showthread.php?t=205416&page=4
oha..mehr sag ich mal nicht...


Du glaubst doch nicht die lassen sich ihr Heiligtum madig machen.

Krustovsky
2007-01-19, 09:44:59
So habe jetzt mal die Sache selbst überprüft;)

Und kann sagen, dass Unwinder hier teilweise Recht hat.

Aber eben nur teilweise.;)

Wie es bei diversen Threads bei Guru 3d.com beschrieben wird soll die 8800er
ja mit 3 clock Domains für den Speicher arbeiten. Soweit ist dies wohl richtig.

Ab dem Forceware 9728 wird aber durch den Treiber 2 der 3 Taktdomainen nicht mehr nach dem Bootvorgang hochgeschaltet
sondern bleiben bei den 400 MHZ hängen die extra für den Bootvorgang angelegt werden. Auch richtig.

Jede Taktdomaine verwaltet 256 MB Grafikspeicher. Auch richtig.

Wenn nun ein Spiel oder eine andere Anwendung sich mehr wie 256 MB Arbeitsspeicher nimmt geht die Performance in den Keller,
auf Guru 3d.com wird hier gerne mit Fear gearbeitet in der Auflösung 2560x1600 mit 4xAA und 16xAF. der Unterschied ist auch wirklich gewaltig 43 zu 34 FPS.

Was aber leider niemand zu beachten scheint ist, dass die neuen Treiber sehr
wohl hochschalten aber nicht direkt sondern erst nach ca.15 Sekunden:eek:
Damit aber noch nicht genug, bis zum hochschalten verweigert die Karte der Anwendung mehr wie 256 MB Grafikspeicher
ist sehr gut zu beobachten mit dem kleinen Tool VidMemWatchV3 von nonatainment weis leidere nicht mehr wer hinter der Seite steht:redface:

Diese Zeit ist in dem Fear internen Benchmark natürlich tödlich.

Wenn man aber ein wenig spielen geht und dann aus dem Spiel heraus den Benchmark laufen lässt, ist der neue 9792 schneller wie der 9702

im Vergleich:

Forceware 9702
Auflösung 1680 x 1050 AA 16xQ, Transparez AA auf SS, AF 16xQ, in Game alles max Softshadows aus

min 19
avg 36
max 89

Forceware 9792

min 20
avg 36
max 91

in den o.a.Einstellungen nimmt sich Fear bis zu 600 MB Grafikram:eek:
ich glaube das Maximum waren 634 MB.

Somit müßten alle Taktdomainen angesprochen werden.

Ich hätte dies gerne auch bei Guru geschrieben aber mein Englisch ist leider nicht gut genug um dies zu beschreiben.

Grüße

Da schau an, sollte dies tatsächlich der Fall sein ist doch alles halb so schlimm und die momentane Panikmache wäre völlig überzogen. Danke für diesen sehr aufschlußreichen Post:up:

Gast
2007-01-19, 11:36:39
...interessant wäre zu wissen ob beim beenden des Games die Memory Clocks wieder zurückschalten oder oben bleiben..desweiteren wie sieht der Stromverbrauch aus,ohne hochschalten und wenn sie oben sind..
Desweitern hat man eine Ruckelorgie bis sie hochschalten......

Angiesan
2007-01-19, 12:14:29
...interessant wäre zu wissen ob beim beenden des Games die Memory Clocks wieder zurückschalten oder oben bleiben..desweiteren wie sieht der Stromverbrauch aus,ohne hochschalten und wenn sie oben sind..
Desweitern hat man eine Ruckelorgie bis sie hochschalten......


Denke die Clocks gehen wieder zurück.kann ich aber nicht sicher sagen.
Zumindest ist es so, dass wenn ich Fear neue starte das gleiche Verhalten von neuem beginnt. Kann aber auch an dem verwendetem Speicher liegen (256 zu bis zu 600 MB)
Und ja man hat eine Ruckelorgie, bei einem von mir verwendeten Savegame, ist der Unterschied 11 zu 26 FPS.Ach noch als Info habe eine 8800 GTX von Asus
und die Biosversion ist 60.80.08.00.44

Bin jetzt auf dem Weg nach Sylt, komme erst am Sonntag wieder also bitte nicht wundern wenn ích mich erst ab So. wieder melde.

Grüße

obergugg
2007-01-19, 19:03:17
Inwieweit hat die Speichertaktung/ Untertaktung im 2D Mode etc. mit der verwendeter BIOS Version zu tun? Ich habe ein 8800 er aus der ersten Charge und überlege schon länger das BIOS abzudaten. Möchte das Risiko allerdings nur eingehen wenn ich weiss dass ich damit z. B. Taktungsprobleme beheben kann. Hat jemand hierzu nähere Informationen oder ist das ein reines Treiberthema.

Danke und l. G.

Deathcrush
2007-01-19, 19:39:01
Müsste ein Treiberproblem sein, da es bei den ersten Treibern wohl nicht wa. Aber mal was anderes, womit kann ich den Speichertakt überprüfen??? Mit Rivatuner hab nur einen :(

obergugg
2007-01-19, 19:49:38
Kann VidMemWatchV3 über Google leider nicht finden. Everest zeigt mir nur einen konstanten Speichertakt von 396 mHz an. (Hatte 3dmark 2006 laufen und konnte keine Änderung der Taktfrequenz feststellen)

Gast
2007-01-19, 20:00:20
schrott die haben uns verarscht ..wenn die Treiber wieder umgestellt werden läuft SLI wieder nicht!

Krustovsky
2007-01-19, 21:07:05
schrott die haben uns verarscht ..wenn die Treiber wieder umgestellt werden läuft SLI wieder nicht!

Sieht so aus.

8800GTX@SLI, Fear 16xQ

Mag sein, dass die beiden lahmen Domains bei einer Single Karte bei Load höher takten, im SLI-Betrieb jedenfalls nicht. Sehr enttäuschend und nicht gerade vertrauensfördernd nVidia...

http://img359.imageshack.us/img359/4121/memclocks8800ms5.th.jpg (http://img359.imageshack.us/my.php?image=memclocks8800ms5.jpg)

obergugg
2007-01-19, 21:14:40
Mit welchem Programm ausser VidMemWatchV3 kann ich das höher Takten checken. Mit Everest funktioniert es nicht und Ntune liefert sowieso nur Schrott auch Riva Tuner soll nicht funktíonieren. Ich möchte herrausfinden ob neuere Biosversion in dieser Hinsicht besser funktionieren oder ob das wirklich nur eine Treibersache ist. (Afgrund des Kartenpreises möchte ich vor einem Selbstversuch - Bios Update - gerne Abstand nehmen).

S@uDepp
2007-01-20, 07:31:57
..was isn mit dem ATI Tool?
Bei meiner Kombi läuft das wunderbar....

Greets
S@uDepp

obergugg
2007-01-20, 08:22:34
Danke - werde ich probieren.

Razor
2007-01-20, 10:44:01
Insofern hat man sich das mit den D3D9-Treiber eigentlich recht einfach gemacht... man nehme eine Voreistellung für alles und schon verhält sich die neue Architektur wie die alte.
Thats it.
Völliger Humbug.
Einen sachlichen Kommentar hätt' ich von Dir, lieber Gast, auch nicht erwartet.
Lies Dir den ganzen Post noch einmal durch und lerne...

Und: beweis mir das Gegenteil!

Meine... zeige mir eine andere Möglichkeit der weitestgehenden Abwärtskompatibilität auf Basis einer vollkommen anderen Basis-Architektur. Wenn Du das nicht kannst, versuche zumindest Deinen "Humbug" besser 'auszuschmücken' oder unterdrücke diesen ganz.

Danke.

Razor