PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Forceware 80.40 WinXP


Blaire
2005-06-30, 19:45:24
http://www.3dchipset.com/drivers/nvidia/beta/nt5/8040.php

http://downloads.guru3d.com/download.php?det=1116

Beta Development WinXP & Win2k Forceware Driver
v80.40
Size: 16.39Mb
Date: Jun 30, 2005

Version Notes:
nv4_disp lists - DriverVer = 06/13/2005 ; Changelist 1300631
Adds H.264 hardware decode support for the 7800 series
Drivers come with a setup.exe for easy installing
GeForce 2 and up are supported in this release
Files are dated: June 13th, 2005
WinZip Packaged

New Entries:


NVIDIA_G72.DEV_01D0.1 = "NVIDIA G72"
NVIDIA_G72.DEV_01D1.1 = "NVIDIA G72"
NVIDIA_G72.DEV_01D2.1 = "NVIDIA G72"
NVIDIA_G72.DEV_01D3.1 = "NVIDIA G72"
NVIDIA_G72.DEV_01D5.1 = "NVIDIA G72"
NVIDIA_G72.DEV_01DE.1 = "NVIDIA G72GL"
NVIDIA_G72.DEV_01DF.1 = "NVIDIA G72"


NVIDIA_C51.DEV_0240.1 = "NVIDIA C51GL"
NVIDIA_C51.DEV_0241.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0242.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0243.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0244.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0245.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0246.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0247.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0248.1 = "NVIDIA C51"
NVIDIA_C51.DEV_0249.1 = "NVIDIA C51"
NVIDIA_C51.DEV_024A.1 = "NVIDIA C51"
NVIDIA_C51.DEV_024B.1 = "NVIDIA C51"
NVIDIA_C51.DEV_024C.1 = "NVIDIA C51"
NVIDIA_C51.DEV_024D.1 = "NVIDIA C51"
NVIDIA_C51.DEV_024E.1 = "NVIDIA C51"
NVIDIA_C51.DEV_024F.1 = "NVIDIA C51"

mapel110
2005-06-30, 19:46:48
nett, gleich mal overlay-Härtetest mit dem machen.

Kane02
2005-06-30, 19:47:56
Cool, nen 80er, hoffentlich is der Overlay Bug weg.

MSABK
2005-06-30, 19:49:05
Des heißt wir können uns bald auf die kleinen G70 versionen freune.

BlackArchon
2005-06-30, 19:56:56
C51? Was soll das schon wieder sein?

OCPerformance
2005-06-30, 19:57:00
ich finde diesen eintrag bisl interessanter mal sehen was sich da hinter verbirgt ;)

NVIDIA G72

Kane02
2005-06-30, 19:57:57
ich finde diesen eintrag bisl interessanter mal sehen was sich da hinter verbirgt ;)

NVIDIA G72

Geforce 7800 UltraX? :biggrin: ;D

Blaire
2005-06-30, 20:00:42
Battlefield 2 hat ein neues SLI Profil integriert.
Aber dieses ist genauso schlecht wie das alte.
Der Treiber macht einen sehr lahmen Eindruck bei mir.
Back to 77.72

Zippi
2005-06-30, 20:01:32
overlay bug weiterhin vorhanden

OCPerformance
2005-06-30, 20:02:28
Geforce 7800 UltraX? :biggrin: ;D

ja sowas in der Art noch nen AS im ärmel wenn die neue R520 kommt ;)

Kane02
2005-06-30, 20:03:44
Hmm, Overlaybug immer noch da, is das bei Euch auch so :confused:

Zippi
2005-06-30, 20:06:24
Hmm, Overlaybug immer noch da, is das bei Euch auch so :confused:

ja siehe mein beitrag 2 über dir...

nfsu2 -> krasser bug, alle texturen auf low, obwohl alles auf high is, treiber settings auch...

6800gt/128m

mapel110
2005-06-30, 20:07:23
Hmm, Overlaybug immer noch da, is das bei Euch auch so :confused:
Jo, aber fix is ja recht einfach.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3204268&postcount=167

Mehrfache Overlays scheinen aber immerhin wieder zu funktionieren.

Mosjoe
2005-06-30, 20:16:22
Der FarCry-Bug mit den Schatten scheint weg zu sein. Hab`s gerade mal angezockt und es scheint wieder alles in Butter zu sein.

Wer nicht weiß worum`s geht: klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=230786&page=8&pp=20)

Zippi
2005-06-30, 20:19:54
in bf2 sin einige schatten total komisch, also die haben ein eigenartiges wander verhalten...zb vom kommando stand...

alles auf high, 2xAA, 1024x768

Kane02
2005-06-30, 20:21:15
Jo, aber fix is ja recht einfach.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3204268&postcount=167

Mehrfache Overlays scheinen aber immerhin wieder zu funktionieren.

Ich check die Anleitung aber net? Ich stell immer auf advanced mode? :|
Was soll "Apply color changes to list arrow" sein?

Zippi
2005-06-30, 20:23:32
unter color correction

apply color changes to -> overlay

color profile -> advanced mode

OK

fertig

Kane02
2005-06-30, 20:26:38
unter color correction

apply color changes to -> overlay

color profile -> advanced mode

OK

fertig

Jo, so hab ichs jetzt gemacht.

Thanatos
2005-06-30, 20:28:57
Könnte mal jemanden nen Direkten Downloadlink posten?

ich werde auf der Seite nur im kreis rumgeschickt, schon beim letzten mal gab´s keinen download ;(

Gast
2005-06-30, 20:32:29
Viel interessanter ist der Verweis auf IGPs. Sieht so aus, als ob sie nicht mehr lange auf sich warten lassen.

Karl|Krake
2005-06-30, 20:33:57
Könnte mal jemanden nen Direkten Downloadlink posten?

ich werde auf der Seite nur im kreis rumgeschickt, schon beim letzten mal gab´s keinen download ;(

Bitte:
http://www.3dchipset.com/files/drivers/nvidia/beta/win-xp-2k-8040.zip

:| Vorhin konnte ich den durch nen einfach Klick herunterladen, jetzt nimmer!? :O Bei mir gings nämlich auch erst "im Kreis", irgendwann hab ich dann aber das Downloadfenster bekommen, und direkt den Link kopiert und hier eingefügt.

dildo4u
2005-06-30, 20:35:02
Bitte:
http://www.3dchipset.com/files/drivers/nvidia/beta/win-xp-2k-8040.zip
Gayt nicht direkt aber 2mal auf Download now zu Klicken drüfte für kein ein Problem darstellen ;)

Adds H.264 hardware decode support for the 7800 series. Nice

VooDoo7mx
2005-06-30, 20:55:14
Jo Dildo, da hast du recht!

Das ist wirklich sehr nice.
Das dürfte die 7800er zur einzigen Karte machen, die der CPU bei diesen HDTV Codec unter die Arme greifen kann.

Der C51 dürfte die Onboardgrafik vom nForce5 sein.

Der G72 allerdings was ganz neues.

Ich tippe auf Geforce 7600 oder ähnlich.
So eine Karte dürfte die gesamte derzeitige ATi High-End Fraktion derbe aufmischen.
Stellt euch vor: nen Chip so schnell wie ne 6800U, aber mit viel weniger Stromverbrauch und Abwärme zu einen vernünftigen Preis ca ~300€
Dazu neuste 7800 Features wie TSSAA und H.264 Decoding. :-)

BiG OnE
2005-06-30, 21:05:17
Moin, moin


Stellt euch vor: nen Chip so schnell wie ne 6800U, aber mit viel weniger Stromverbrauch und Abwärme zu einen vernünftigen Preis ca ~300€
Dazu neuste 7800 Features wie TSSAA und H.264 Decoding. :-)

jaja, davon Träumen darf man.

Bis denne ...

BlackBirdSR
2005-06-30, 21:07:07
Treiber macht mir ne Menge Probleme (hauptsächlich Schattenfehler, fehlende Texturen und Polygone)
Muss leider wieder gehen ;)

Blaire
2005-06-30, 21:09:14
Die ersten Treiber einer neuen Serie haben anfangs immer so ihre Wehwehchen. Kann nur besser werden.

Ronny145
2005-06-30, 21:09:30
Von der performance ist der bei mir langsamer als ein 77.13. Overlay bug ist noch nicht behoben.

jacky
2005-06-30, 21:12:47
Naja ich vermute da kommt eh die Tage nochn Betatreiber. Der ist ja verdammt neu :D
Und wenn der keine großen Verbesserungen bringt ... dann bleibt erstma der 77.72 druff ;)

mapel110
2005-06-30, 21:13:25
Also das, was ich zocke(Mohaa, Sacred UW), läuft. Also kann er draufbleiben. :)

kmf
2005-06-30, 21:17:31
Kurz nach Beginn der Mission Baumhaus von FarCry hab ich einen BSOD bekommen - nv4_disp.dll. Zweimal probiert, zweimal crash. Danach noch einmal gegengecheckt mit dem 01er Murks - crash. Hab ihn einfach per Systemsteuerung drüber installiert. Vielleichts lags ja daran. Hab aber keine Lust weiter nachzuforschen. Sollen mal andere ran.

Bin wieder zurück zum 76.45.

Corrail
2005-06-30, 21:52:44
hm, kann es sein, dass der Download Link was hat? Bei 33% bleibt er immer hängen...
Gibt es irgendwo Mirrors?

Blaire
2005-06-30, 21:53:24
hm, kann es sein, dass der Download Link was hat? Bei 33% bleibt er immer hängen...
Gibt es irgendwo Mirrors?

http://downloads.guru3d.com/download.php?det=1116

Corrail
2005-06-30, 21:57:41
http://downloads.guru3d.com/download.php?det=1116

Danke! :massa:

signum incognitum
2005-06-30, 22:15:26
... :wink: bei Computerbase isser auch im Angebot ;)

Scoty
2005-07-01, 06:37:24
je neuer die Treiber werden um so schlechter. NVidia sollte sich ein beispiel an ATI nähmen den dort gab es die letzten Monate nie solche krassen Bugs.

Mark
2005-07-01, 06:38:07
ati veröffentlicht auch keine betatreiber

DrFreaK666
2005-07-01, 08:59:43
ati veröffentlicht auch keine betatreiber

Die wissen warum :-)

r@w
2005-07-01, 10:48:34
[G72]...Geforce 7800 UltraX? :biggrin:Eher so etwas wie "nU", "LE" oder "x600", "x200"...

ich werde auf der Seite nur im kreis rumgeschickt, schon beim letzten mal gab´s keinen download ;(Bei 3DChips ist die bei Dir aktivierte Firewall kontraproduktiv...
(ist ein Hotlink-Schutz auf dieser Site)

Hab ihn einfach per Systemsteuerung drüber installiert. Vielleichts lags ja daran.Auch wenn Du es nicht hören magst:
NIEMALS "einfach drüber installieren"!

Klar, in den meisten Fällen wird's klappen... aber manchmal eben auch nicht.

Hatte nur ein einziges mal ein 'echtes' Problem mit einem Treiber... und das war wohl damals der 6.34 beta (nein, ich hab' da keine Stelle vergessen ;-).

Ganz besonders würde ich mit das "drüber installieren" bei Treibern unterschiedlicher Generationen schenken...

Razor

r@w
2005-07-01, 10:52:32
ati veröffentlicht auch keine betatreibernVidia auch nicht (im hier geschilderten Fall und ähnlichen Konstellationen)...
...damals mit 67.02/67.03 und 67.66 waren es zudem sogar sehr gute Treiber (neue Features, ohne Probleme)

ATI bringt sowohl Treiber mit und auch ohne WHQL. Auch kann man an den Release-Notes sehr gut erkennen, dass da so einiges noch 'beta' Zustand hat (auch wenn von 'eifrigen' ATI-Usern meist das Gegenteil behauptet wird ;-). Insofern ist da der Unterschied wirklich nicht groß... wenn überhaupt vorhanden.

Allerdings ist der 77.72 (rc und WHQL) schlicht eine Frechheit!
Wenn schon, hätten sie diesen Müll ja nur für die GTX heraus bringen können... und bei dieser ist der Zustand dieses Treibers wohl ein eher Problem der sofortigen Verfügbarkeit... selbstredend aber trotzdem nicht zu tolerieren.

Egal... bei mir ist der 77.30 drauf und "alles ist gut"!
Wer kein BF2 auf dem Rechner hat, dem sei DRINGEND der 76.44 WHQL anzuraten...
(ja, auch der 76.45 WHQL scheint gelungen, hatte ich aber nie auf meinen Systemen ;-)

Razor

Gandharva
2005-07-01, 10:54:20
danke an alle die angetestet haben. der bleibt erstmal fern von meinem rechner.

(del676)
2005-07-01, 11:00:33
der treiber ist eine katastrophe, aber gut, es is der erste treiber der 80er reihe, und vor allem - er is BETA

nichts desto trotz würde ich gerne mal einen bench mit einem X2 sehen, da der treiber multithreaded sein soll und bis zu 30% bringen soll (bei dualcore cpus)

papachrischi
2005-07-01, 11:07:32
Mal eine Frage am Rande. Was zum Teufel ist der Overlaybug und wie äussert er sich?

Die Suchfunktion und auch Google haben zu diesem Thema nicht viel gebracht.
Ich nutze viel Overlay (TV Karte, DVD) und hab da bisher noch nix feststellen können.

mapel110
2005-07-01, 11:10:11
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3204268&postcount=167

KillerCookie
2005-07-01, 11:22:38
Hm... und ich dachte schon es gäbe mal einen neuen und dazu auch noch brauchbaren Treiber :( also das die den Overlay-Bug nicht gefixt haben, das ist schon ziemlich heftig... betrifft ja nicht nur irgendein Spiel sondern halt Videos, die sich ja jeder mal anschaut.

Danke an alle Tester, das ich mir den Treiber ersparen kann :)

r@w
2005-07-01, 11:44:10
Hm... und ich dachte schon es gäbe mal einen neuen und dazu auch noch brauchbaren Treiber :( also das die den Overlay-Bug nicht gefixt haben, das ist schon ziemlich heftig... betrifft ja nicht nur irgendein Spiel sondern halt Videos, die sich ja jeder mal anschaut.Wie sollten sie?
:confused:

Der 77.72 (RC) trägt das Bereitstellungsdatum 17.6., der WHQL kam noch später. Der 80.40 hingegen wurde am 13.6. kompiliert, ist also ziemlich zeitgleich entstanden. Und die Release-Notes, die diesen Fehler dokumentieren sind gar erst vom 21.6....

Der "Overlay-Bug" kann also gar nicht korrigiert worden sein... in einem so 'frühen' Treiber.
(das alte Problem von Henne und Ei, oder: Ohne Ursache, keine Wirkung ;-)

Offenbar vergessen hier die Leutz immer wieder, dass es bei nVidia mehrere Treiber-Teams gibt. Dies hat fast zwangsläufig zur Folge, dass solche 'Irregularitäten' immer wieder auftreten (müssen). Auch sollte man bedenken, dass diese 'Alphas' (ja, Alphas NICHT Betas!) nicht einmal für die Öffentlichkeit bestimmt sind... aber das steht auf einem ganz anderen Blatt.

Sollte also ein Treiber auftauchen, der jünger ist, also nach dem 21.6. kompiliert wurde, dann sollte dieser äusserst ärgerliche Bug auch Geschichte sein.

Razor

S3NS3
2005-07-01, 12:03:39
der treiber ist eine katastrophe, aber gut, es is der erste treiber der 80er reihe, und vor allem - er is BETA

nichts desto trotz würde ich gerne mal einen bench mit einem X2 sehen, da der treiber multithreaded sein soll und bis zu 30% bringen soll (bei dualcore cpus)

Genau das interessiert mich auch. Ist das denn schon drinne? Einer erfahrungen? Werd ihn mir auf jeden fall heute angucken.

Bandit666
2005-07-01, 12:29:48
Ich frag mich nur warum mehrer Treiberteams? Ein grosses ist doch klar besser!
Oder nicht?

mfg

Ice-Man
2005-07-01, 13:08:29
Der 77.72 ist bisher der neuste Treiber, der bei mir noch richtig funktioniert. Alle neueren (besonders der 80.40) bringen bei mir enorme Grafikfehler. Was findet ihr an dem 77.72er denn so schlecht?

mfg

kmf
2005-07-01, 13:19:39
Was findet ihr an dem 77.72er denn so schlecht?

mfgIch hab damit nerviges Texturflackern in Need for Speed Porsche. Allein das genügt, um ihn von der Platte zu putzen. :D

r@w
2005-07-01, 13:55:53
Der 77.72 ist bisher der neuste Treiber, der bei mir noch richtig funktioniert. Alle neueren (besonders der 80.40) bringen bei mir enorme Grafikfehler. Was findet ihr an dem 77.72er denn so schlecht?Texturflattern in diversen Games, Overlay-Bug...
Allein das reicht schon, wenn es sich um einen offiziellen Treiber handelt.
(des bissel mehr Leistung brauch' i net ;-)

Sollen sie möglichst schnell einen 'vernünftigen' Treiber bringen, der ähnlich umkompliziert wie ein 76.44 WHQL ist und Battlefield 2 vernünftig darstellen kann... schon bin ich glücklich!
;D

Razor

r@w
2005-07-01, 13:57:25
Oder nicht?Nein.
Dafür gibt's hunderte von Gründen...

Razor

Radeonfreak
2005-07-01, 14:19:12
der treiber ist eine katastrophe, aber gut, es is der erste treiber der 80er reihe, und vor allem - er is BETA

nichts desto trotz würde ich gerne mal einen bench mit einem X2 sehen, da der treiber multithreaded sein soll und bis zu 30% bringen soll (bei dualcore cpus)


Dem kann geholfen werden.
Ich habe mal ein paar Benchmarks gemacht und die Perforrmance zuwächse sind minimal.Auf keinen Fall 30 %.

3DMark 05 von 8300 auf 8370.
3DMark 03 von 17200 auf 17300.
Aquamark 3 von 79 auf 83.

Also im minimalen Bereich.

Kladderadatsch
2005-07-01, 14:35:52
Dem kann geholfen werden.
Ich habe mal ein paar Benchmarks gemacht und die Perforrmance zuwächse sind minimal.Auf keinen Fall 30 %.

3DMark 05 von 8300 auf 8370.
3DMark 03 von 17200 auf 17300.
Aquamark 3 von 79 auf 83.

Also im minimalen Bereich.
naja, je stärker die cpu mitspielt, desto deutlicher das ergebnis. benchst du mal die training-timedemo aus far cry?

Coda
2005-07-01, 14:42:05
nichts desto trotz würde ich gerne mal einen bench mit einem X2 sehen, da der treiber multithreaded sein soll und bis zu 30% bringen soll (bei dualcore cpus)Wenn dann nur in vertexlimitierten Dingen. Sprich: 3DMark05.

Kladderadatsch
2005-07-01, 14:42:59
Wenn dann nur in vertexlimitierten Dingen. Sprich: 3DMark05.
hä? warum ist dann gerade dort gar nichts passiert?

was würde da eigentlich geändert, bzw. auf den x2 optimiert?

Ice =A=
2005-07-01, 15:05:54
Ich glaube gelesen zu haben, daß die 80er Serie noch nicht multithreaded ist, erst die 85er aufwärts.

Hat zufällig auch schon jemand 'was von der angeblichen h264-Video-Beschleunigung von 7800er Karten mit den neuen Treibern gemerkt?!

Gast
2005-07-01, 15:06:40
G75 = GeForce 7800 Ultra
32 Pipes
8 VShader
Höherer GPU-Takt (450Mhz)
512MB@256Bit (kein höherer Takt wegen hoher Ram-Menge)

G70GL = GeForce 7800GL
Quasi die 7800GT-Version
24 Pipes
8 VShader
Etwas geringerer GPU/Ram-Takt
256MB@256Bit

G72GL = GeForce 7600GL
Quasi 7600GT-Version
16 Pipes
6 VShader
Geringerer GPU/Ram-Takt
256MB@256Bit

G72 = GeForce 7600
16 Pipes
6 VShader
Viel geringerer GPU/Ram-Takt
256MB@256Bit

C51GL = GeForce 7200GL
Quasi 7200GT-Version
16 Pipes
6 VShader
SEHR viel geringerer GPU/Ram-Takt
128-256MB@256Bit

C51 = GeForce 7200
16 Pipes
6 VShader
SEHR viel geringerer GPU/Ram-Takt
128-256MB@128Bit

Quelle : ...

r@w
2005-07-01, 15:09:24
hä? warum ist dann gerade dort gar nichts passiert?

was würde da eigentlich geändert, bzw. auf den x2 optimiert?Sog. 'echtes' Multi-Tasking wäre damit möglich... sprich, die Aufgaben die der 'Recheneinheit' des Systems vom Treiber zugeteilt werden, würden nicht nur von einer CPU erledigt (wie dies derzeit der Fall ist), sondern eben von allen verfügbaren.

Die HT-Technologie war für nVidia (und auch ATI) wohl nicht anspruchsvoll genug, da es sich hierbei ja nicht um 2 echte CPU's auf einem Die handelte ('echte' Multi-Die-Systeme nicht von Relevanz waren), sondern nur um eine CPU, die aber aufgrund der doppelten Auslegung der Register in die Lage versetzt wurde, den einen Core besser auszulasten.

Momentan drehen die zusätzlichen Prozessoren (soweit vorhanden) in einem Consumer-System eigentlich nur die Däumchen, weil sie niemand mit Arbeit füttert. Hier sind also alle beteiligten gefragt, die 'schlafende' Power auch zu nutzen... im einzelnen sind dies: Betriebssystem, Treiber und die darauf aufsetzenden Programme (z.Bsp. Spiele).

Razor

Kladderadatsch
2005-07-01, 15:18:48
Sog. 'echtes' Multi-Tasking wäre damit möglich... sprich, die Aufgaben die der 'Recheneinheit' des Systems vom Treiber zugeteilt werden, würden nicht nur von einer CPU erledigt (wie dies derzeit der Fall ist), sondern eben von allen verfügbaren.

Die HT-Technologie war für nVidia (und auch ATI) wohl nicht anspruchsvoll genug, da es sich hierbei ja nicht um 2 echte CPU's auf einem Die handelte ('echte' Multi-Die-Systeme nicht von Relevanz waren), sondern nur um eine CPU, die aber aufgrund der doppelten Auslegung der Register in die Lage versetzt wurde, den einen Core besser auszulasten.

Momentan drehen die zusätzlichen Prozessoren (soweit vorhanden) in einem Consumer-System eigentlich nur die Däumchen, weil sie niemand mit Arbeit füttert. Hier sind also alle beteiligten gefragt, die 'schlafende' Power auch zu nutzen... im einzelnen sind dies: Betriebssystem, Treiber und die darauf aufsetzenden Programme (z.Bsp. Spiele).

Razor

dann wars ja eigentlich klar- ich fragte jetzt, weil du sagtest, dieser treiber müsse sich gerade im 3dmark05 rendieren...
das dürfte sich dann doch eigentlich nur bemerkt machen, wenn die cpu ausgelastet ist? also keinesfalls im 3dmark05, sondern schon eher im aq3, was ja auch die 3 benches zeigen.

LordDeath
2005-07-01, 15:33:25
Sog. 'echtes' Multi-Tasking wäre damit möglich... sprich, die Aufgaben die der 'Recheneinheit' des Systems vom Treiber zugeteilt werden, würden nicht nur von einer CPU erledigt (wie dies derzeit der Fall ist), sondern eben von allen verfügbaren.

Die HT-Technologie war für nVidia (und auch ATI) wohl nicht anspruchsvoll genug, da es sich hierbei ja nicht um 2 echte CPU's auf einem Die handelte ('echte' Multi-Die-Systeme nicht von Relevanz waren), sondern nur um eine CPU, die aber aufgrund der doppelten Auslegung der Register in die Lage versetzt wurde, den einen Core besser auszulasten.

Momentan drehen die zusätzlichen Prozessoren (soweit vorhanden) in einem Consumer-System eigentlich nur die Däumchen, weil sie niemand mit Arbeit füttert. Hier sind also alle beteiligten gefragt, die 'schlafende' Power auch zu nutzen... im einzelnen sind dies: Betriebssystem, Treiber und die darauf aufsetzenden Programme (z.Bsp. Spiele).

Razor

wäre es möglich, dass der zusätzliche synchronisationsaufwand den durch htt zu geringen leistungszuwachs auf den p4 systemen kompensieren (hui, nur alle 2 jahre benutzte ich das wort einmal ^^) würde? wenn das so wär, dann müssten nvidia und ati ja schon damit rumgetestet haben und vielleicht haben die auch jede menge code dazu rumliegen. wenns richtig spekuliert ist, müsste man für diesen multithreadingzusatz in den treibern eigentlich nicht allzu lange warten...

Adam D.
2005-07-01, 16:54:06
G70GL = GeForce 7800GL
Quasi die 7800GT-Version
24 Pipes
8 VShader
Etwas geringerer GPU/Ram-Takt
256MB@256Bit

Das stimmt wohl eher net. Das "GL" stand in der Vergangenheit immer für den professionellen Bereich. Der G70GL dürfte die neue Quadro sein.

Radeonfreak
2005-07-01, 19:12:03
naja, je stärker die cpu mitspielt, desto deutlicher das ergebnis. benchst du mal die training-timedemo aus far cry?

Wie aus meiner Signatur zu entnehmen ist war`s ja ein X2.
Wie viel stärker sollte er denn noch sein damit man was sieht ??

Bin im Moment an einem anderen Rechner und komm vor Sonntag nicht dran.
Wie mach ich das mit far Cry ?

Razor
2005-07-01, 19:28:45
Quelle : ...Ziemlicher Nonsens... würd' ich sagen.

"GL" beim internen Chipnamen war bis dato IMMER eine Worstation (Quadro) Karte.
Und ich meine mich zu erinnern, dass die Chips mit "C" für integrierte Chipsätze stehen...

Razor

P.S.: hups @ LordFiZz

[VII]
2005-07-01, 19:30:15
also bekomme immer ne fehlermeldung von wegen falscher Speicheradressierung bei dem Treiber nachdem XP gestartet ist...daher wieder back to 77.72

[VII]

Razor
2005-07-01, 19:32:30
Jo... scheint noch reichlich alpha zu sein, das Teil...

Razor

S3NS3
2005-07-01, 19:39:16
Sog. 'echtes' Multi-Tasking wäre damit möglich... sprich, die Aufgaben die der 'Recheneinheit' des Systems vom Treiber zugeteilt werden, würden nicht nur von einer CPU erledigt (wie dies derzeit der Fall ist), sondern eben von allen verfügbaren.

Die HT-Technologie war für nVidia (und auch ATI) wohl nicht anspruchsvoll genug, da es sich hierbei ja nicht um 2 echte CPU's auf einem Die handelte ('echte' Multi-Die-Systeme nicht von Relevanz waren), sondern nur um eine CPU, die aber aufgrund der doppelten Auslegung der Register in die Lage versetzt wurde, den einen Core besser auszulasten.

Momentan drehen die zusätzlichen Prozessoren (soweit vorhanden) in einem Consumer-System eigentlich nur die Däumchen, weil sie niemand mit Arbeit füttert. Hier sind also alle beteiligten gefragt, die 'schlafende' Power auch zu nutzen... im einzelnen sind dies: Betriebssystem, Treiber und die darauf aufsetzenden Programme (z.Bsp. Spiele).

Razor

Das Betriebssystem nutzt mehrere CPU´s schon sehr gut !
Was fehlt wären Treiber (Falls es echt was bringt, ziehen die soviel Last ab?) und vorallem die Games selber.

cRaZy78
2005-07-01, 19:51:33
soll ab der 80er serie nicht das umschalten auf SLi ohne neustart funktionieren? schon jemand getestet?

Kladderadatsch
2005-07-01, 21:59:43
Wie aus meiner Signatur zu entnehmen ist war`s ja ein X2.
Wie viel stärker sollte er denn noch sein damit man was sieht ??

Bin im Moment an einem anderen Rechner und komm vor Sonntag nicht dran.
Wie mach ich das mit far Cry ?

am besten das hoc-benchmark utility (http://download.gameswelt.de/open.php?f=%2Ffarcry%2Ftools%2FHOC_FCBench_v141.zip&n=HOC_FCBench_v141.zip) runterladen. da sind die bekanntesten timedemos für far cry drin. training ist so ziemlich die am stärksten von der cpu limitierte.

Schrotti
2005-07-01, 23:15:18
Ich bin auch wieder auf den 77.72 zurück nachdem ich BF2 gesehen habe.

Razor
2005-07-02, 07:06:22
Das Betriebssystem nutzt mehrere CPU´s schon sehr gut !
Was fehlt wären Treiber (Falls es echt was bringt, ziehen die soviel Last ab?) und vorallem die Games selber.Nö...
(auf das OS bezogen ;-)

Hast Du Dir das schon mal auf 'nem 2003-Server oder ganz rudiementär auf Linux/Unix-Palttformen angeschaut? Sorry, aber WinNT 5.1 (egal, ob mit oder ohne 64-Bit-'Erweiterung') steckt da echt noch in den Kinderschuhen...

Aber klar, gerade Treiber und vor allem die Engines selber müssten erst einmal davon profitieren, bzw. so ausgelegt werden, dass hier solcherart zur Verfügung stehende Resourcen auch genutzt werden... bei einigen OGL-Games scheint das ja prächtig zu funzen, was aber eher die Ausnahme zu sein scheint.

Aber genau da sehe ich die Problematik der heutigen Zeit:
- Dual CPU, aber weitestgehend nicht unterstützt
- Dual GraKa, aber weitestgehend nicht unterstützt
- PCIe Bus, aber eigentlich keine Komponenten dafür

Bei letzterem habe ich die GraKa natürlich nicht vergessen, aber auch die scheinen dort nicht schneller, als auf AGP-Basis. Ergo: weitestgehend nicht unterstützt.

OK, das war jetzt ein bissel zu OT...
;)

Zum Thema:
Wäre schon, wenn Treiber bald anfangen würden, solcherart Resourcen zu nutzen... nur vermute ich, dass dies primär dem Workstation-Bereich zugute kommt und nur sekundär dem Consumer-Bereich... zumal heutige Prozessoren mit dem Workload der Treiber doch wohl recht 'gut' zurecht kommen... oder?

Razor

Ice =A=
2005-07-02, 10:01:30
@Razor:
Gutes Posting! Aber ganz so schlimm seh ich's nicht. Die Spiele werden sicher sehr schnell auf MT optimiert werden, immerhin kann ich jetzt vondem neuen Athlon-X2-Prozessor, den ich mir heute noch einbaun werde :) davon ausgehn, daß er in naher Zukunft quasi immer schneller wird statt langsamer! Ein ungewohntes aber sehr angenehmes Gefühl!!! :biggrin:
Was die Treiberoptimierung speziell angeht: Ich denke mal, da das bis zu 'nem gewissen Grad ein Experiment von nVidia ist (war ja anscheinend von Microsoft so nich vorgesehn), gehe ich davon aus, daß es als allererstes im "normalen" Spielesektor ausprobiert wird, bevor es ins professionelle rübergeholt wird, wenn überhaupt. Denn dort sind ja die Programme selbst schon sehr gut auf MT angepaßt, so daß der positive Effekt des Treibers weit geringer ausfallen dürfte...

jacky
2005-07-02, 10:26:23
Naja ich sag nur 64bit Prozzi. Es gibt zwar mittlerweile nen XP 64 aber nunja es fehlen einige Progs auf 64bit Basis sowie die Treiber teilweise.
Da bringt dir das 64bit womit ja schon immer geworben wurde leider reichlich wenig.
So wirds leider auch mit Dual Core aussehen. Bis es da Anwendungen gibt, die das auch richtig unterstützen ist schon die nächste Generation der CPU's draußen und der jetzige Prozzi ist alt.

Deswegen sollte man echt warten wie sich das entwickelt. Die wollen einem doch nur das Geld aus der Tasche ziehn.

S3NS3
2005-07-02, 12:01:00
1. Nö...
(auf das OS bezogen ;-)

Hast Du Dir das schon mal auf 'nem 2003-Server oder ganz rudiementär auf Linux/Unix-Palttformen angeschaut? Sorry, aber WinNT 5.1 (egal, ob mit oder ohne 64-Bit-'Erweiterung') steckt da echt noch in den Kinderschuhen...

2. Aber klar, gerade Treiber und vor allem die Engines selber müssten erst einmal davon profitieren, bzw. so ausgelegt werden, dass hier solcherart zur Verfügung stehende Resourcen auch genutzt werden... bei einigen OGL-Games scheint das ja prächtig zu funzen, was aber eher die Ausnahme zu sein scheint.

3. Aber genau da sehe ich die Problematik der heutigen Zeit:
- Dual CPU, aber weitestgehend nicht unterstützt
- Dual GraKa, aber weitestgehend nicht unterstützt
- PCIe Bus, aber eigentlich keine Komponenten dafür

Bei letzterem habe ich die GraKa natürlich nicht vergessen, aber auch die scheinen dort nicht schneller, als auf AGP-Basis. Ergo: weitestgehend nicht unterstützt.

OK, das war jetzt ein bissel zu OT...
;)

4. Zum Thema:
Wäre schon, wenn Treiber bald anfangen würden, solcherart Resourcen zu nutzen... nur vermute ich, dass dies primär dem Workstation-Bereich zugute kommt und nur sekundär dem Consumer-Bereich... zumal heutige Prozessoren mit dem Workload der Treiber doch wohl recht 'gut' zurecht kommen... oder?

Razor

zu1:
Hmm? Also genau angeguckt habe ich mir Linux nicht. Aber ich finde schon das XP sehr gut mit meinen 4 Logischen CPUs umgehen kann. Wüsste nichtmal was man verbessern könnte!
Hast du denn schonmal ein DualSys besessen?

zu2:
Ja, und ich bin mal gespannt wie stark sich das auswirken wird !
Irgendwie glaube ich nicht an FPS-Wunder !

Nur falls sagen wir z.B. UE3 dermaßen aufwendig ist das es IMMER auf einem SingleCore vollends CPU limitiert läuft, würde bei entsprechend guter Programmierung dann ein FPS-Boost anstehen.
Aber wennse nu BF2 für DC optimieren würden, ka...
also ich würds gerne wissen was es (allgemein, nicht BF2 jetzt) so bringen würde und WANN.
Ich bleibe ja dabei das ab 2006 MT nutzende Games kommen.

Und welche OGL-Games profitieren von DC?? :|

zu3:
Jein !
Auf Games bezogen hast du recht.
Ich weiss, darum gehts ja auch hier ! :wink:
Aber dennoch zocke ich nicht nur, und DC-CPU bringt für mich ne menge. Auch nutzen es ziemlich viele Grafikproggys und auch Videocodecs, Tools, Packer usw.
Ist echt mehr was das nutzt als man so denken würde.
Nur bei Games sieht es SEHR schlecht aus. Nicht EINS. Maximal ein paar nen bissel HT. Beim benchen auf eine CPU begrenzt, oder auf 2 oder 4 habe ich aber festgestellt das es bei EINER mehr FPS gibt. MINIMAL, aber mehr. Durch den entfallenden Verwaltungsaufwand den Thread auf die CPUs zu verteilen.
Also geschwindigkeitsmäßig nutzen KEINE Games zur Zeit DC!

DualGrakas nicht unterstützt? Also ich habe selber keine, aber wenns bei den meisten Games funktioniert und ich damit z.b. die 1920x1200 meines TFT mit Spielbaren FPS bei Max.Settings fahren kann...
Nicht unterstützt würde ich da nicht sagen. Übertrieben, Luxux und ein bissel Wahnsinn vieleicht ;) Aber ne Geile sache und bringen würd es was, mir zumindest.

zu4:
Ja, meinte ich ja auch. Ob man die was weiss ich... 5% des Treibers nu auf 2 Cores Aufteilt oder nicht... also ka wie das was bringen soll.
Möglich wäre höchstens (kein Plan ob das möglich/sinnvoll wäre, reine Spekulation) die Aufgaben des Treibers zu parallelisieren und so wartezyklen auf irgendwelche Daten die halt entstehen wenn man allles seriell berechnet zu minimieren. Nur ob DAS dann FPS bring... naja.
Aber wayne, besser bei 100FPS 4 dabei anstatt nicht ;)

Zippi
2005-07-02, 12:30:04
Und welche OGL-Games profitieren von DC?? :|


q3, hat sogar damals nen akzeptablen performance schub damals gebracht auf NT4.0 dual p2 300mhz tnt2m64...

Gast
2005-07-03, 12:39:21
Mir ist was komisches aufgefallen:

Egal welchen Takt ich dem Chip verpasse (6800GT), wird in Everest Home die Taktrate entweder mit 11 MHz (!) oder der tatsächlich eingestellten Frequenz angezeigt.

Ist das nun ein Fehler von Everest oder ist da mit dem Treiber was im Argen? Hat zufällig jemand das ebenfalls feststellen können?

S3NS3
2005-07-03, 13:25:31
q3, hat sogar damals nen akzeptablen performance schub damals gebracht auf NT4.0 dual p2 300mhz tnt2m64...

Jo, habe das auch gehört. Glaube aber nach den ersten PointReleases war damit nix mehr.
Finds schade das D3 das nicht nutzt. Hätte fast erwartet das es da ein Consolenbefehl gibt.

Gast
2005-07-03, 14:33:48
ati veröffentlicht auch keine betatreiber
Ja. NV aber auch nicht. Sie laßen sie nur durchsickern :) und glotzen was sich so im Feldtest ergibt. Und wenn das Glotzen nicht wirklich hinhaute, umbenennt man schnell einen folgenden WHQL in candidate WHQL. Wegen dem Blame ;)

Mich nervt das langsam gewaltig! :( Welcher für 5700? Welcher für 6600GT? Welcher für HL2? Welcher für 6800ultra? Welcher für FarCry? Läuft der bis dato beste für 5950ultra auch problemlos mit BL2? Was soll der M I S T? Bei ATI hat man wenigstens die Sicherheit, daß zB. wenn ein Cat 5.6 auf einer 9600pro schonmal keine Verbesserungen bringt, es auch keine neuen Probs gibt und im Vergleich zu Cat5.1 auf keinen Fall wundersamerweise *merkbar* Leistung flöten geht.

Meine nächste wird ATI. Ich hab echt keinen Bock mehr wegen NV meine Zeit mit Suche, Tests und (De)Installationen zu vergeuden, die ich ohne NV garnicht machen müßte. Ich zieh mir das nichtmehr rein. Jetzt diskutiert ihr schon 4 Seiten lang aufgeregt über eine Beta die bei keinem so richtig läuft. Na viel Spaß noch...

Razor
2005-07-03, 18:34:25
...als allererstes im "normalen" Spielesektor ausprobiert wird, bevor es ins professionelle rübergeholt wird, wenn überhaupt. Denn dort sind ja die Programme selbst schon sehr gut auf MT angepaßt, so daß der positive Effekt des Treibers weit geringer ausfallen dürfte...Auf Workstations wird traditionell sehr viel mehr Leistung benötigt, aus auf regulären Consumer-Systemen. Bei den Consumern bringt dies derzeit... schlicht NICHTS, während es bei den professionellen Anwedern sofort positiv bermerkt würde (unter Nutzung entsprechend ausgelegter Anwendungen antürlich).

Wieder das Problem von Henne und Ei...
...rein bei Consumern würde dies derzeit einfach keinen Sinn machen.

Razor

Razor
2005-07-03, 18:49:29
zu1:
Hmm? Also genau angeguckt habe ich mir Linux nicht. Aber ich finde schon das XP sehr gut mit meinen 4 Logischen CPUs umgehen kann. Wüsste nichtmal was man verbessern könnte!
Hast du denn schonmal ein DualSys besessen?Ich?
Zuhause?
Wozu?
:confused:

Wenn ich aber Deine Frage richtig interpretiere... ja, letztlich bin ich für alle Server- und Workstation-System meiner Firma verantwortlich... und da gibt's kaum noch welche, die weniger als zwei 'echte' Cores haben (so etwas wie diesem P4-Zeugs kommt bei uns nicht in die 'Tüte' ;-).

zu2:
Ja, und ich bin mal gespannt wie stark sich das auswirken wird !
Irgendwie glaube ich nicht an FPS-Wunder !

Nur falls sagen wir z.B. UE3 dermaßen aufwendig ist das es IMMER auf einem SingleCore vollends CPU limitiert läuft, würde bei entsprechend guter Programmierung dann ein FPS-Boost anstehen.
Aber wennse nu BF2 für DC optimieren würden, ka...
also ich würds gerne wissen was es (allgemein, nicht BF2 jetzt) so bringen würde und WANN.
Ich bleibe ja dabei das ab 2006 MT nutzende Games kommen.Dem stimme ich uneingeschränkt zu!
Wenn nicht gar erst 2007...

zu3:
Jein !
Auf Games bezogen hast du recht.
Ich weiss, darum gehts ja auch hier ! :wink: Genau genommen geht's hier um Unterstützung von Treibern für MC-Systeme...
Dass auch heute schon 'Pseudo'-DC-Systeme Vorteile haben, liegt auf der Hand.
(zumindest in wenigen Teilbereichen ;-)

"Also geschwindigkeitsmäßig nutzen KEINE Games zur Zeit DC!"
Klar...

DualGrakas nicht unterstützt? Also ich habe selber keine, aber wenns bei den meisten Games funktioniert und ich damit z.b. die 1920x1200 meines TFT mit Spielbaren FPS bei Max.Settings fahren kann...
Nicht unterstützt würde ich da nicht sagen. Übertrieben, Luxux und ein bissel Wahnsinn vieleicht ;) Aber ne Geile sache und bringen würd es was, mir zumindest.Hmm... ja... also nVidia unterstützt derzeit nicht mal 100.
Ist nicht gerade viel... und weit davon entfernt, die "meisten" Games zu unterstützen.
Auch sollte man den Schuh anders herum aufziehen... schließlich sollten die Games schon SLI-'verträglich' geproggt werden, oder? Dazu sollte die Achtung einger Guidelines der IHV's ausreichend sein...

zu4:
Ja, meinte ich ja auch. Ob man die was weiss ich... 5% des Treibers nu auf 2 Cores Aufteilt oder nicht... also ka wie das was bringen soll.
Möglich wäre höchstens (kein Plan ob das möglich/sinnvoll wäre, reine Spekulation) die Aufgaben des Treibers zu parallelisieren und so wartezyklen auf irgendwelche Daten die halt entstehen wenn man allles seriell berechnet zu minimieren. Nur ob DAS dann FPS bring... naja.
Aber wayne, besser bei 100FPS 4 dabei anstatt nicht ;)Na ja...
;)

Razor

P.S.: Irgendwie ist Der eine Satz von Dir verschwunden... egal: Welche DC-Games? Q3 z.Bsp. !
Hat tatsächlich eine echte SMP-Unterstützung...
Wurde jüngst von mir auf einem neuen DELL Power-Edge-Server mit Dual Xeon 2,8GHz EM64T getetstet.
:D

Zippi hat's ja schon gepostet... ;)



Der befehl für Q3 basierte Games war "r_smp 1"...
Einfach mal checken, weil funktionieren tut das noch heute!

Radeonfreak
2005-07-03, 20:07:44
Bin wieder auf den 77.50 zurückgewechselt weil ich Grafikprobleme unter Far Cry mit HDR hatte.

vinacis_vivids
2005-07-03, 20:21:54
Ich hab irgendwo gelesen dass man ab den 80er Treiber Karten um SLIverbund seperat übertakten kann. Hat jemand SLI betrieb und den neuen Treiber?

esch
2005-07-03, 22:16:12
Battlefield 2 hat ein neues SLI Profil integriert.
Aber dieses ist genauso schlecht wie das alte.
Der Treiber macht einen sehr lahmen Eindruck bei mir.
Back to 77.72

Na schön, dann habe ich ja wieder viel Zeit und 3 Neustarts gespart. ;D

MfG
esch

mapel110
2005-07-04, 20:24:13
UT2004 läuft mit dem Treiber anscheinend nicht. Bildschirm bleibt schwarz und es hilft nur reboot.

Gast
2005-08-29, 09:36:22
Läuft bei mir und habt Ihr ihn eigendlich mal auf euer "Geflimmer"untersucht?

BoM
2005-08-29, 10:11:55
hmmm. mein monitor schaltet sich gar nicht mehr an, wenn ich den treiber installiert habe. :confused:

ich hab wieder den 77.77 drauf

Sys: abit NF7-s v2
gayward 6800le

S3NS3
2005-08-29, 12:09:03
Wie kommt ihr jetzt auf den Treiber wieder. ist doch schon voll alt !
Und extrem Alpha !

Lieber warten das ein neuer 80´ger kommt.

Bandit666
2005-08-29, 12:11:49
Das hat der Gast übersehen und überlesen! :biggrin:

mfg

BoM
2005-08-29, 14:56:36
Das hat der Gast übersehen und überlesen! :biggrin:

mfg

genau so ist es^^. aber tortzdem komisch dass ich kein bild mehr bekam.

doom1
2005-08-29, 16:40:56
er fragte doch ob es bei dem "langsamen" Treiber flimmert........aber das habt ihr ja schon beantwortet,nur find ich es nicht mehr......ich sage nein.... Blaire sagt doch auch ;D